Чем опасен ИИ для человека?

0

Две новости из мира искусственного интеллекта заслуживают внимания и неприятно поражают.

Как обманывает магазин без касс
«Амазон» закрывает свой проект в области «беспилотных» магазинов – магазинов без традиционных касс и вообще любых усилий покупателя по оформлению товара. Идешь мимо полки, берешь, что тебе нравится, а потом с твоего счета снимается в автоматическом режиме, что ты там набрал. 21-й век. На деле, ИИ, который тебе насчитывал, был настолько кривым, неумелым и неотработанным, поэтому, чтобы не было вала скандалов с клиентами, каждую покупку каждого клиента вели тысячи сотрудников фирм-субподрядчиков из Индии. То есть, смотрели в камеру, что ты там взял, и проверяли, что тебе ИИ насчитал, корректируя, если надо, счет и списание. Дыра в безопасности, одним словом, размером со штат Уттар-Прадеш, учитывая, что оные сотрудники подрядных организаций имели онлайн-доступ к платежной информации каждого клиента.
Однако вовсе не это заставило «Амазон» закрыть проект. В компании поняли, что те люди, которые обещали «рабочую силу по цене электричества», а на деле заменили одного живого кассира десятками сотрудников на трех континентах, – мошенники.

«Лавандовый» ИИ-убийца Израиля
Израильтяне доверили присвоение статуса «боец ХАМАСА» системе ИИ Lavender. Если вкратце, то еврейский Генштаб отдал на откуп своей SkyNET выбор целей в Газе и «Лаванда» не подвела. Та «подумала» и на основании своих алгоритмов определила до 37 тысяч палестинцев как подозреваемых боевиков, а их частные дома — как цели для возможных воздушных ударов (даже несмотря на то, что вокруг находятся гражданские объекты). Самое спорное и необычное — это то, что если раньше все списки возможных целей тщательно выверялись спецслужбами Израиля, то после начала кампании в Секторе Газа было принято резко расширить количество целей, включив в них в том числе рядовых деятелей ХАМАС. После этого «Лаванда» начала автоматически помечать цели, которые ранее требовали бы серьёзной проверки. Итоги ее деятельности известны – ХАМАС так и не потерял боеспособности, военная операция не достигла успеха, зато жертвами конфликта в секторе Газа стали 33 тыс. 545 мирных палестинцев. Ранения получили 76 тыс. 094 человека. Исходя из этих данных, можно сказать, что данный ИИ указывал не на глубоко законспирированных бойцов ХАМАС, а на любого, кто возмущался Израилем, например, в соцсетях.
Примерно понимая, как работают такого вида алгоритмы, можно предположить, что система, имея доступ к камерам, анализирует дополнительные параметры – от баз данных силовиков до соцсетей. И принимает решение – террорист/не террорист. После чего у курирующего офицера занимает 20 секунд для принятия решения на уничтожение. Понимая качество алгоритмов (полностью одинаковое с таковыми в «среднем по рынку» — от вышеописанных амазоновских до уже запрещенных «ИИ-судов» в США, которые повадились назначать виноватых исключительно по цвету кожи), этих 20 секунд хватает на то, чтобы вывести из-под удара маленьких детей и религиозных евреев. По собственным оценкам офицеров – «достоверность алгоритма приближается к 90%». Но так как дублирующей системы проверки в виде тысяч индийцев, перепроверяющих ИИ в данном случае, нет, похоже, что ошибок тут в лучшем случае, как у всех похожих систем, – вокруг 30% (если алгоритм качественный). Учитывая, что санкция за попадание в базу данных одна – смерть, история выглядит неприглядно.
Да, возможно еврейский Генштаб вбросил данную историю, чтобы переложить всю ответственность на машину за творящийся в последние месяцы геноцид в секторе Газа, но если эта история хоть на 50% правдива, то мы сегодня воочию, на примере палестинцев, увидели «дивный новый мир» будущего, где ИИ, которому во многих государствах планируют передать функции власти. Мир, где человек – функция, притом низшего порядка, в работе ИИ. Бездушная машина, следуя логике своих алгоритмов, которые может «понять» по-своему, может, например, устроить геноцид стариков, дабы сохранить пенсионных фонд. Не может? Это расскажите палестинским детям, которых объявили террористами не пойми за что и пометили целями для авиаударов. У ИИ нет совести, нет сожаления и ужаса от содеянного. У нее нет души – есть только алгоритм и конечный результат, который надо получить любым способом. Притом, в случае с «Лавандой» конечный результат провалился, зато количество жертв запредельно.

Переоцененная ИИ-революция
«ИИ-революция», по мере внедрения практик, выглядит все более и более, скажем так, переоцененной. Совершенно нежизнеспособной с такими алгоритмами выглядит актуальная мечта элит о новом мире, полностью описанная Салтыковым-Щедриным в зачине «Дикого помещика»: «Господи! Всем я от тебя доволен, всем награжден! Одно только сердцу моему непереносно: очень уж много развелось в нашем царстве мужика».

Источник: https://t.me/s/glebsmith77, t.me/barantchik

Share.

Comments are closed.

Exit mobile version