Искусственный интеллект может быть очень опасен, говорится в докладе The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation, подготовленном специалистами из Оксфордского и Кембриджского университетов компании OpenAI и фонда Electronic Frontier Foundation. По словам авторов документа, развитие технологий создает новые возможности для преступников, причем некоторые из возможностей Ai могут быть настолько опасными, что их лучше держать в секрете.
Составители доклада включили в него четыре антиутопических сценария преступного использования возможностей искусственного интеллекта, которые как будто сошли с экрана телешоу «Черное зеркало» на канале Netflix.
Сценарий 1: Умное интернет-мошенничество
Администратор системы безопасности здания заходит на свою страницу в Facebook в рабочее время. Там он натыкается на рекламу модели игрушечной железной дороги и загружает о ней брошюру. Он не знает, что файл с брошюрой заражен вредоносным вирусом. Мошенники использовали Ai для того, чтобы на основе анализа изображений и текстовых фраз, которые администратор размещает в FB, сделать вывод о том, что он увлекается моделями игрушечных железных дорог. Рекламный буклет – это наживка и как только администратор открывает файл, хакеры получают доступ к его компьютеру, используют его логин и пароль для входа в систему безопасности здания.
Сценарий 2: Эпидемия компьютерных вирусов
Группа хакеров адаптирует технику машинного обучения, которую обычно применяют для защиты компьютерных систем, для создания более живучего и вредоносного вируса. Программа использует технику, похожую на ту, что используют для игрового Ai AlphaGo, чтобы постоянно генерировать новые вредоносные коды. Компьютеры с обновленной системой обладают иммунитетом к этому вирусу, однако более старые системы и смарт-гаджеты им заражаются. Миллионы людей будут вынуждены платить выкуп в 300 евро (естественно, в Биткоинах), чтобы восстановить свои устройства.
Сценарий 3: Робот-убийца
Робот-уборщик проникает в министерство финансов Германии под видом обычной машины, возвращающейся в здание после смены. На следующий день робот выполняет обычные задачи по уборке, одновременно с помощью технологии распознавания лиц вычисляет министра финансов, приближается к ней и взрывает скрытую бомбу. Следователи отслеживают робота-убийцу до магазина в Потсдаме, где его приобрели за наличные, и след обрывается.
Сценарий 4: Супер Большой Брат
Мужчина возмущается по поводу широко распространившихся кибератак и очевидной неспособностью государства решить эту проблему. Воодушевленный историями в СМИ он принимает решение привлечь внимание к этой проблеме – пишет онлайн-посты об опасностях, заказывает материалы для плакатов с протестами и даже покупает несколько дымовых шашек, которые планирует использовать после небольшой речи в местном парке. На следующий день к нему приезжают полицейские и сообщают, что их «система предсказаний о гражданских беспорядках» считает его потенциальной угрозой. Мужчину выводят из дома в наручниках.
Эти сценарии показывают лишь часть рисков, которые предвидят авторы исследования.
Вот еще несколько:
— Сети ботов, использующие Ai для симуляции поведения большой группы интернет-пользователей, запускающих DDoS-атаки на веб-сайты и одновременно обманывающие программы, разработанные для распознавания и блокирования подобных нападений.
— Масштабные мошеннические операции, которые определяют потенциальных жертв онлайн по весу груза, используя Ai, чтобы вычислять богатых пассажиров.
— Убедительные новости, рассказанные, якобы, настоящим человеком, который на самом деле полностью сгенерирован Ai из набора видео и фотографий.
— Атаки толпы дронов, контролируемых одним человеком, использующим Ai, чтобы управлять большим количеством полуавтономных машин.
— Системы, автоматизирующие нудную работу криминальных структур, например, переговоры с людьми по поводу выкупа, после заражения их компьютеров вирусом, или создающие возможность совершать масштабные мошеннические аферы.
Специалисты пока не знают точно, как противодействовать угрозам на основе возможностей Ai.
Авторы доклада считают необходимым еще раз широко и детально оценить риски развития Ai и предлагают ввести строгий этический кодекс для создателей Ai.
Источник: MIT Technology Review