Рост ИИ может расширить угрозу безопасности, если нет действий, доклад предупреждает


Опубликованно 18.04.2018 13:54

Рост ИИ может расширить угрозу безопасности, если нет действий, доклад предупреждает

Распространение бессмысленное технологий искусственного интеллекта может позволить появлении новых видов киберпреступлений, политические потрясения и даже физические атаки в течение пяти лет, группа из 26 экспертов из разных стран мира предупреждают.

В новом докладе, академический, промышленности и некоммерческого сектора эксперты, описывают ИИ в качестве “двойного использования технологии” с потенциальными военного и гражданского назначения, сродни атомной энергии, взрывчатых веществ и орудий взлома.

“Как возможности ИИ стал более мощным и масштабным, мы ожидаем, что рост использования систем ИИ приведет к расширению существующих угроз, внедрение новых угроз и изменение типичного характера угрозы”, - отмечается в сообщении.

Они утверждают, что исследователи должны учитывать потенциальное злоупотребление ИИ гораздо раньше, в процессе учебы, чем они делают в настоящее время и усилия, чтобы создать соответствующую нормативно-правовую базу для предотвращения вредоносного использования ИИ.

Если советов не последует, авторы доклада предупреждают, ИИ, скорее всего, революционизировать власти плохие актеры угрожать повседневной жизни. В цифровой сфере, говорят, AI может быть использован, чтобы снизить барьер входа для проведения разрушительных атак хакеров. Эта технология позволит автоматизировать обнаружение критических ошибок программного обеспечения или быстро выбирать потенциальных жертв финансовых преступлений. Он даже может быть использован для злоупотребления Facebook-стиль алгоритмическом профилирования для создания “социальной инженерии” атак разработана, чтобы максимизировать вероятность того, что пользователь будет нажать на вредоносную ссылку или скачать зараженное приложение.

Возрастающее влияние ИИ на физический мир, значит, это также уязвимы для злоупотребления ИИ. Наиболее широко обсуждаемых пример предполагает weaponising “роев беспилотников”, приспосабливая их маленькими взрывчатых веществ и технологию беспилотного вождения, а затем установить их свободно проводить безвестно убийств так называемых “slaughterbots”.

‘ИИ будет крайне выгодно, и уже есть в сфере кибербезопасности, - говорит Дмитрий Альперович, соучредитель фирмы по обеспечению информационной безопасности CrowdStrike. Фотография: Роб Engelaar/ЭПК

Политические потрясения столь же правдоподобно, в докладе утверждается. Государства может принять решение об использовании автоматизированных платформ наблюдения для подавления инакомыслия – как это уже делается в Китае, особенно для Уйгурского народа на северо-западе страны. Другие могут создать “автоматизированную, гипер-персонализированные кампании дезинформации”, ориентации каждого отдельного избирателя с ложью, чтобы влиять на их поведение. Или ИИ может просто запустить “отказ от информационных атак”, производя столько подделку новости, достоверную информацию становится практически невозможно различить от шума.

Шон - h?igeartaigh Кембриджского университета центр по изучению экзистенциальных рисков, один из авторов доклада, сказал: “Мы живем в мире, который может стать чревато повседневных опасностей, от неправомерного использования ИИ и мы должны взять от проблемы – потому что они представляют реальную опасность. Есть выбор, который мы должны сделать сейчас, и наш доклад-это призыв к действию для правительств, учреждений и лиц по всему миру.

“На протяжении многих десятилетий ажиотаж превзошел то, с точки зрения AI и машинного обучения. Больше нет. Этот доклад ... свидетельствует о широких подходов, которые могут помочь: например, как разрабатывать программное и аппаратное обеспечение, чтобы сделать его менее уязвимыми для атак – и какие законы и международные правила могут работать в тандеме с этим”.

Не все уверены в том, что AI однако представляет такого риска. Дмитрий Альперович, соучредитель информационной безопасности фирмы CrowdStrike, сказал: “я не считают, что небо обрушится, и земля откроет.

“Там будут улучшения с обеих сторон; это продолжается гонка вооружений. ИИ будет чрезвычайно полезным, и уже есть в сфере кибербезопасности. Это также будет полезно для преступников. Это еще предстоит выяснить, с какой стороны будет пользы от него больше.

“Мой прогноз таков это будет более выгодна для оборонительной стороны, ведь где AI светит в массовый сбор материала, который применяется больше для защиты, чем преступление.”

В докладе признается, что AI-это лучшая защита против ИИ, но утверждает, что “Ай-основанная защита не панацея, особенно, когда мы смотрим за пределы цифровой сферы”.

“Больше работы должно быть сделано в понимании правильный баланс открытости в AI, усовершенствуя технические меры для формальной проверки надежности систем и обеспечения того, чтобы политики развитых в менее АИ-переплетаются мир, адаптироваться в новом мире, который мы создаем”, - пишут авторы. Элон Маск ведет 116 экспертов, призывающих к прямому запрету роботов-убийц


14

Категория: Технологии