22 грудня
Завантажити ще

Харарі, Маск, Гейтс: Штучний інтелект може бути небезпечним для людської раси

Харарі, Маск, Гейтс: Штучний інтелект може бути небезпечним для людської раси
Фото: Andrea Verdelli/Getty Images

Штучний інтелект вже думає за нас, і в нас залишилося не так багато часу, щоб навчитися ним керувати – поки він не став керувати нами. Про небезпеки електронного розуму, що одного разу може вийти за межі машинної оболонки, нас неодноразово попереджали й письменники-фантасти. Нині ж до них підтягнулися і вчені, і філософи, і нові технологічні генії. Що ж їх насторожило в ШІ – розбиралася KP.UA.

Юваль Ной Харарі, ізраїльський історик, автор бестселера «Sapiens: Коротка історія людства»

Ще в 2019 році цей авторитетний автор і дослідник розвитку людства попереджав про три головні загрози найближчого десятиліття: загрозу ядерної війни, екологічний колапс, спричинений змінами клімату, і так званий «технологічний збій», до якого призведе вплив штучного інтелекту на людину, що посилюється.

Через чотири роки ми виявляємо, що Харарі був недалеко від істини по всіх пунктах. Щодо "технологічного збою", говорив Харарі, ми матимемо не так повстання машин (у це взагалі важко віриться), як поява того самого суспільства з книги Оруелла «1984». Застосовуватиметься ШІ для розробки ліків від раку чи прогнозу погоди – це ще питання, а ось встановлення тотального стеження за громадянами і як наслідок - поява диктатури, мабуть, найімовірніший варіант.

Юль Ной Харрарі. Фото: Daniel Naber/wikipedia.org/

Юль Ной Харрарі. Фото: Daniel Naber/wikipedia.org/

- Раніше навіть у такій тоталітарній країні, як СРСР, режим не міг весь час стежити за своїми громадянами. Це було майже неможливо. Але зараз ми досягли тієї точки, коли нові технології, я маю на увазі поєднання штучного інтелекту та біотехнологій, біометричні датчики, системи розпізнавання облич та голоси, всі вони вперше в історії дозволяють диктаторам стежити за всіма своїми громадянами. Це може призвести до створення тоталітарних режимів, які будуть набагато страшнішими, ніж усе, що ми бачили у ХХ столітті. Гірше за Сталіна і Гітлера. І у нас не так багато часу, щоб це зупинити, – каже історик.

Втім, він одразу ж наголошує: це лише ймовірність, а не гарантований результат. Але лякати не перестає. Юваль Харарі дивиться вглиб системи штучного інтелекту, що підкоряється лише алгоритмам. Які вже вміють дуже швидко та якісно аналізувати та обробляти величезні масиви даних.

"Ух ти!" - радісно вигукнуть економісти і віддадуть у роботу електронним мізкам, наприклад, складну аналітику світових фондових ринків. Через кілька років ці ж економісти просто не зможуть зрозуміти, про що їм каже штучний інтелект, оскільки людина не може сприйняти ту кількість інформації, яку обробляє або генерує ШІ. Наслідки цього? Увімкніть уяву. Будь-який гнітючий фінал цілком можливий з ймовірністю 50%.

Про те, що штучний інтелект залишить без роботи мільйони людей, уже говорилося не раз, і Харарі не є винятком. Він навіть припускає, що штучний інтелект може поділити людей на корисних (обслуговуючий персонал для ШІ та працівники, чиї навички машини замінити не в змозі) і марних (зрозуміло, що йдеться про тих, чиї функції передадуть тим самим алгоритмам – кур'єри, офіціанти, аналітики, прогнозисти тощо). Нерівність всепланетного масштабу – чи про таке ми мріяли?

Тепер трохи видихаємо: Юваль Харарі вважає, що в гонці штучного інтелекту спочатку братимуть участь лише дві країни – США та Китай, решта просто фінансово не потягне масштабне впровадження штучного інтелекту. Втім, про диктатуру та повальне стеження в Китаї вже говорять і так, без участі ШІ.

Стівен Хокінг, британський фізик-теоретик, космолог та астрофізик

Стівен Хокінг. Фото: Chris Jackson/Getty Images

Стівен Хокінг. Фото: Chris Jackson/Getty Images

Навряд чи хтось засумнівається в тому, що професор Стівен Хокінг був видатним фахівцем не лише у сфері космології та квантової механіки, а й у сфері штучного інтелекту. Професор Хокінг вивчав ШІ з усією ретельністю вченого, далекого від впливу фільмів про матрицю і термінаторів, зате чудово розумівся на штучних мізках. Стівен Хокінг висловлювався на тему ШІ обережно, намагаючись дотриматися балансу між оптимізмом і песимізмом, але останній переважував. Все-таки професор надто добре розбирався в людях та їхніх схильностях.

У 2014 році в інтерв'ю ВПС він заявив: «Розвиток повноцінного штучного інтелекту може означати кінець людської раси… Він розвиватиметься сам по собі і перероблятиме себе із зростаючим темпом. Люди, які обмежені повільною біологічною еволюцією, не можуть конкурувати і будуть витіснені».

Через два роки Хокінг, виступаючи на відкритті Леверхальмського центру розвідки майбутнього в Кембриджі, зазначив, що не бачить великої різниці між тим, що можна досягти за допомогою біологічного мозку, і тим, що за допомогою комп'ютера.

- Звідси випливає, що комп'ютери теоретично можуть наслідувати людський інтелект і перевершувати його, - підсумував професор, змусивши слухачів замислитися, а скільки часу на це знадобиться і чи не станемо ми свідками (або заручниками) переваги ШІ над хомо сапієнс вже в цьому столітті.

Пройшло ще трохи часу, і, незадовго до своєї смерті у 2018 році, вчений застеріг: джина вже випущено з пляшки.

- Нам потрібно рухатися вперед у розвитку штучного інтелекту, але ми також маємо пам'ятати про його дуже реальні небезпеки. Я боюся, що ШІ може повністю замінити людей. Якщо люди розробляють комп'ютерні віруси, то хтось створить ШІ, який відтворює сам себе. Це буде нова форма життя, яка перевершить людей, – сказав учений.

Ілон Маск, американський підприємець, інженер, мільярдер

Ілон Маск. Фото: Justin Sullivan/Getty Images

Ілон Маск. Фото: Justin Sullivan/Getty Images

- Штучний інтелект лякає мене! - повідомив засновник високотехнологічних компаній Tesla та SpaceX на технічній конференції SXSW. - Він здатний на багато більше, ніж будь-хто знає, і швидкість удосконалення експоненційна. Ризик того, що станеться щось серйозно небезпечне, існує протягом п'яти років. Максимум 10 років.

На початку березня цього року, виступаючи на конференції для інвесторів, Маску довелося відповісти на запитання одного з учасників: чи допоможе ШІ у виробництві його автомобілів?

- Не думаю, що це станеться найближчим часом. Я трохи турбуюся про штучний інтелект. Я думаю, це те, про що ми всі маємо турбуватися. Нам потрібен якийсь регулюючий орган або щось таке, що контролює розробку ШІ і стежить за тим, щоб він працював на користь суспільства, - зазначив Маск.

При цьому епатажний геній технологій був співзасновником OpenAI – компанії, що розробила ChatGPT. Передбачалося, що цей чат-бот допомагатиме писати супровідні листи, ну або допомагати в підробітку, але ніяк не складати іспит на адвоката або створювати дипломні роботи для студентів-випускників.

Тому контроль, найсуворіший контроль та обмеження у використанні штучного інтелекту – ось до чого закликає Маск, і тут ми, звичайно, з ним згодні. Як і технічний директор OpenAI Міра Мураті, яка в лютому розповіла світові той приголомшливий факт, що «інструмент ШІ має регулюватися, оскільки його можуть використати погані люди». Втім, ніхто й не сумнівається, що штучний інтелект, навіть у вигляді ChatGPT, однозначно використовуватиметься для шахрайства, проведення кібератак, поширення дезінформації та створення плагіату.

Білл Гейтс, американський бізнес-магнат, співзасновник Microsoft

Білл Гейтс. Фото: Kevin Dietsch/Getty Images

Білл Гейтс. Фото: Kevin Dietsch/Getty Images

Трохи дитяче захоплення висловлює бізнесмен та філантроп Білл Гейтс, коли говорить про штучний інтелект. Його створення Гейтс порівняв з появою мікропроцесора, персонального комп'ютера, інтернету та мобільного телефону і передбачив, що цілі галузі промисловості сконцентруються навколо нього.

- Штучний інтелект може служити цифровим особистим помічником для працівників і може допомогти працівникам охорони здоров'я та вчителям полегшити їхню роботу, - на повному серйозі заявив Гейтс, і десь захихотіли розробники нових комп'ютерних вірусів із прогнозів Хокінга. Сам Білл Гейтс використовує ШІ у вигляді чат-бота ChatGPT як для якихось серйозних цілей, за його словами, так і для забави, наприклад, для написання віршів. На жаль, світ поки не почув гейтсівських строф, але все ще попереду. Адже «ШІ стане найбільшою річчю цього десятиліття, а можливості чат-ботів можна назвати фантастичними» - це теж Гейтс, і, мабуть, відразу після спроб віршування.

Він чесно визнав: штучний інтелект може змінити наш світ, зайнявши людські робочі місця, і стане для кожної людини своєрідним «особистим агентом».

- Він буде бачити ваші останні електронні листи, знати про зустрічі, які ви відвідуєте, читати те, що ви читаєте, і читати те, про що ви не хочете турбуватися… Він знатиме ваші інтереси та ваш стиль навчання, щоб адаптувати контент, який буде вас утримувати. Він буде вимірювати ваше розуміння, помічати, коли ви втрачаєте інтерес, і розуміти, на яку мотивацію ви реагуєте. Він дасть негайний зворотний зв'язок, - припустив Гейтс, і поки що важко сказати, подобається нам це чи ні.

Позитивний момент використання ШІ Гейтс бачить так:

– Штучний інтелект значно прискорить швидкість медичних відкриттів. Обсяг даних у біології дуже великий, і людям важко відстежувати всі способи роботи складних біологічних систем. Вже є програмне забезпечення, яке може переглядати ці дані, робити висновки про шляхи, шукати цілі для патогенів і, відповідно, розробляти ліки. Деякі компанії працюють над ліками від раку, які були розроблені таким чином.

Беріть попкорн і сідайте зручніше – наближається велика битва між медичними корпораціями (які, згідно з теорією змови, приховують створення ліків від найстрашніших хвороб) і штучним інтелектом, якому поки що начхати на фармацевтичне лобі. Та й Гейтсу, як найбільшому приватному спонсору Всесвітньої організації охорони здоров'я, теж, напевно, буде цікаво, хто переможе.

Що ж нам залишається, простим смертним? Ніхто поки що не знає, справа великих – заявити про можливу небезпеку. А потім говорити: "Ми ж попереджали".