Подчеркивает Кембридж скандал аналитика нужна для регулирования ИИ\'


Опубликованно 22.04.2018 10:30

Подчеркивает Кембридж скандал аналитика нужна для регулирования ИИ\'

Великобритания должна проложить путь на искусственное регулирование разведки, чтобы не допустить компаний, таких как Cambridge аналитика создание прецедентов для опасно и неэтично использовать технологии, глава палаты лордов специальный Комитет по ИИ предупредил.

Скандал в Кембридже аналитика, Лорд Клемент-Джонс говорит, усиленные выводы комитета, обнародованном в понедельник в докладе “ИИ в Великобритании: готовы, готовы и способны?”

“Эти принципы не приходят к жизни немного, когда вы думаете о Кембридже ситуации аналитика,” сказал он Guardian. “Следует ли аналитику данных они совершили то использовал АИ ... он дает пример, где это важно, что у нас есть сильная разборчивость того, что происходит с нашими данными.”

Клемент-Джонс добавил: “весь бизнес в [США] Конгресс и Кембридж аналитика, политический климат на Западе сейчас сильно наглеть в плане людей, что согласились ... более публичным ответом на этике и так далее, участвующих. Он не просто собирается остаться в Кремниевую долину, чтобы решить принципов”.

В основе рекомендаций комитета пять этических принципов, которые, он говорит, должны быть применены в различных секторах на национальном и международном уровнях: Искусственный интеллект должен развиваться на общее благо и благо человечества. Искусственный интеллект должен работать на принципах понятности и справедливости. Искусственный интеллект не должен использоваться для умаления прав данных или частной жизни отдельных лиц, семей или общин. Все граждане должны иметь право получать образование, чтобы позволить им процветать умственно, эмоционально и экономически, наряду с искусственным интеллектом. Автономного питания, чтобы причинить боль, уничтожить или обмануть человеческие существа никогда не должны быть наделены искусственным интеллектом.

Цель состоит в том, чтобы не писать принципов непосредственно в законодательстве, Клемент-Джонс говорит, А у них как широкий маяком для регулирования ИИ. “Например, в финансовой сфере это будет орган финансового поведения”, которые фактически применены принципы“, и они будут смотреть на то, как страховые компании используют алгоритмы, чтобы оценить ваши взносы, как банки оценивают людей на ипотеку, и так далее и тому подобное.

“В основном, эти регуляторы должны сделать связь с этикой, и это, как мы думаем, они должны это сделать”, - Клемент-Джонс сказал. “Конечно, если в свое время люди не соблюдая эти этические принципы и регулятор думает, что их полномочий недостаточно, то есть может быть время вниз по дорожке, что мы должны переосмыслить это”.

В обширном докладе, комитет выявил ряд угроз, которые бесхозяйственности ИИ может принести в Великобританию. Один из них касается создания “сведения монополий”, крупные транснациональные компании – как правило, американские или китайские, с Facebook, Google и tencent и все названы как примеры – с такой хваткой на сбор данных, которые они могут построить лучше ИИ, чем кто-либо другой, увеличивая их сцепление на источники данных и создать эффективный цикл, что оказывает более мелких компаний и наций, не в состоянии конкурировать.

Доклад заканчивается призывом к активной правоохранительной деятельности с целью предотвратить создание монополий данных, но явно рекомендовать конкуренции и рынкам “превентивно обзор использования и возможности монополизации данных крупных технологических компаний, работающих в Великобритании”.

Клемент-Джонс сказал: “Мы хотим, чтобы быть открытой рыночной в AI, в принципе, и если все, что происходит, мы получим пять или шесть основных систем ИИ, и вы должны принадлежать к одной из них, чтобы выжить в современном мире, ну, что бы что-то, что мы не хотим видеть”.


14

Категория: Технологии