Загрузить еще

ВВС: Искусственный интеллект несет человечеству три угрозы

Превращенные в снаряды дроны, фейковые видео, манипулирующие общественным сознанием, и автоматизированный компьютерный взлом - вот три основные угрозы, которые, по мнению экспертов, исходят от искусственного интеллекта, попавшего в плохие руки, сообщил ВВС.

Согласно отчету "Вредоносное использование искусственного интеллекта", он вполне может использоваться странами-изгоями, преступниками и террористами. 100-страничный доклад определяет три сферы - цифровую, физическую и политическую, в которых злонамеренное использование ИИ наиболее вероятно.

В составлении доклада также участвовали некоммерческая исследовательская компания OpenAI, группа по управлению цифровыми правами Electronic Frontier Foundation и Центр новых подходов к охране безопасности США.

Авторы этого доклада призывают к следующему:

  • Политики и инженеры-разработчики должны совместно определить, каким именно может быть вредоносное использование ИИ и как это предотвратить
  • Осознать, что в то время как ИИ имеет множество разнообразных применений, это обоюдоострая технология, поэтому ученые и разработчики должны это учитывать и упреждать возможное злонамеренное использование ИИ
  • Перенять подход, который существует, к примеру, в сфере компьютерных технологий, где уже выработаны предохранительные меры против подобных рисков
  • Активное расширение круга заинтересованных сторон, связанных с упреждением и смягчением рисков злонамеренного использования ИИ.

Специалист Центра по изучению экзистенциальных рисков при Кембриджском университете Шахар Авин отметил, что в докладе основное внимание уделяется областям ИИ, которые уже доступны или, вероятно, будут доступны в ближайшие пять лет, но нет взгляда в более отдаленную перспективу. 

Он также обрисовал несколько сценариев, где ИИ может вдруг в ближайшем будущем "сорваться":

  • Такая программа, как AlphaGo - ИИ, разработанный компанией Google DeepMind, способный обыграть человека в игру го - может быть использована хакерами для нахождения шаблонов данных и уязвимости кодировки
  • Некий отдельно взятый злоумышленник может купить дрон, оснастить его программой распознавания лиц и с помощью него напасть на какого-то конкретного человека
  • Боты могут быть автоматизированы на производство фейковых видеоклипов с целью политических манипуляций
  • Хакеры могут использовать синтезированную речь для того, чтобы выдать себя за кого-то.

Научный сотрудник Института будущего человечества Оксфордского университета Майлз Брандидж считает, что "ИИ изменит существующие угрозы для отдельных граждан, организаций и государств - будь то на уровне преступников, которые настроят машины на взлом или фишинг информации у отдельных лиц, или же это будет внедрение в частную жизнь путем слежения, профилирования личности и дальнейших репрессий - полный спектр воздействия этого на безопасность огромен".

- Очень часто так бывает, что системы ИИ не просто достигают человеческого уровня производительности, но намного его превосходят. Это очень печально, однако необходимо рассмотреть те последствия, к которым могут привести сверхчеловеческого уровня хакерство, слежка, методы убеждения и распознавание физической цели, а также возможности ИИ, которые хоть и не достигают человеческого уровня, но тем не менее гораздо лучше варьируются, чем человеческий труд, - полагает ученый.

Шон О'Хэггерти, исполнительный директор Центра по изучению экзистенциальных рисков и один из соавторов доклада, добавляет: "Искусственный интеллект кардинально все меняет, и этот доклад размышляет над тем, как мир может измениться в следующие 5-10 лет. Мы живем в мире, который может быть подвержен ежедневной опасности злоупотребления ИИ, и мы должны начать заниматься этой проблемой, потому что эти риски вполне реальны".

ЧИТАЙТЕ ТАКЖЕ:

Искусственный интеллект научился предсказывать дату смерти человека

Ученые хотят дать смертельно больным пациентам перед уходом из жизни завершить некие важные по их мнению дела, а не тратить это драгоценное время на ненужное и болезненное лечение в больницах.