Діалоги

Про що думає штучний інтелект? Може, він вже розвинув свідомість, адже успішно прикидається людиною

Що буде, коли на нашій планеті з’являться нові розумні істоти, яких ми самі створили, але які зовсім не є людьми? Чи повинні вони мати якісь права? Поки що ми хочемо їхні права обмежувати. Історія показує, що такі заходи викликають протидію у формі революції чи бунту, – каже Марек Гайда, популяризатор інформаційних технологій та ентузіаст штучного інтелекту (ШІ).

ТИЖНЕВИК TVP: Чим ШІ відрізняється від звичайної комп'ютерної програми?

МАРЕК ГАЙДА: Кожна програма складається з двох частин: коду, який описує, що вона повинна робити, і бази даних, яку вона використовує. Найбільша різниця полягає в тому, що у випадку ШІ програма не має багато інформації про те, що робити, але база даних у неї гігантська. Її називають «навчальним набором». Саме ми маємо чогось навчити ШІ, щоб він на основі цього виконував якісь конкретні дії. Тим часом у звичайній комп'ютерній програмі в коді все передбачено – що саме і як треба робити.

Проілюструю це на прикладі шахової партії. При класичному підході ми б описали у тисячах рядків коду всі процедури правильної гри: як рухаються пішаки та інші фігури, які ходи дозволені, які заборонені тощо. Разом з цим прописуються команди, що програма має робити в конкретних ситуаціях, наприклад, перед тим, як зробити хід, переконайтеся, що ваш пішак/фігура захищені, а якщо є багато можливих ходів, ми додаємо алгоритми вибору «меншого зла» або «більшого добра». У коді детально прописується шлях виграшу в шахи.

Підписуйтесь на наш фейсбук З іншого боку, створення ШІ для шахів передусім полягало б у підготовці колекції всіх зіграних ігор із важливих змагань (вони доступні в Інтернеті), без вказівки, що саме програма має з цим робити. Тобто, щось на кшталт: уважно подивись ці партії, а потім сам грай та перемагай – ось твоя мета.

Це все ще виглядає магічно. Тобто, ШІ кодує сам себе? І чи можна потім витягти з нього запис про те, що і як він підготував та виконав на основі цієї бази даних?

Власне, не зовсім можливо зазирнути «під капот», особливо у випадку нових технологій типу глибокого навчання (англ. deep learning), де програмам надаються справді дуже детальні дані, до найдрібніших деталей, при чому без надання контексту. Машина сама вирішує, як їх упорядкувати і яке їм надати значення. А кількість цих даних настільки велика, що людина не може побачити, що цей алгоритм зробив.

Таким чином ШІ може проаналізувати дані та зробити з них висновки. Тоді утворюється постійний код, який намагається працювати як людський мозок – за принципом нейронної мережі. Наприклад, у нас є два модні сьогодні додатки: один для розпізнавання марок автомобілів, а інший – для видів рослин. Обидва працюють таким чином, що фотографують об’єкт, а алгоритм вгадує, що це таке. Вони обидва базуються на ШІ та діють точно так само: це нейронна мережа, яка має навчитися «щось розпізнавати».

Чи користувач може на них впливати? Наприклад, як ботанік, я можу побачити помилку програми в класифікації рослини і виправити її для блага інших користувачів...

Деякі програми дозволяють людині коригувати рішення, видані машиною. Потім вона додасть цю відповідь до свого «навчального набору» як нову інформацію. Однак програмістської роботи в ШІ не так і багато. Є, звичайно, інженери, які пишуть ці штучні інтелекти, світлі уми, які складають базовий механізм – «модель системного мозку». А коли він вже створений, хитрість полягає в тому, щоб навчити його того, що ми хочемо, і навчити його добре, тобто надати хороші фотографії рослин, з хорошими описами, особливими випадками тощо. Адже квітка може виглядати по-різному в залежності від часу доби або умов виконання фотографій, які є вхідними даними для програми. У цьому потрібно розбиратися, тому до створення баз даних залучають також фахівців з певної галузі.

Кілька тижнів тому розробник «суперрозумного чат-бота LaMDA» від Google Блейк Лемуан заявив, що розроблений ним штучний інтелект «здобув свідомість». Відкладімо питання про те, що таке свідомість, тому що кожна наука дає тут своє визначення. Зупинимося на технічному: як Ви думаєте, що там відбулося?

Штучний інтелект працює в трьох напрямках. Перший, основний і найстаріший, це так званий business inteligence. Він використовується на великих підприємствах, які генерують величезні бази даних у таких сферах, як бухгалтерія, HR, маркетинг, продажі тощо. Менеджери очікують, що після введення цих баз даних до ШІ система побачить деякі кореляції, які неможливо помітити неозброєним оком. Input – вхід – це сирі дані, а output – вихід – теж дані, але вони вже є результатом аналізу. У business inteligence його найчастіше виконують простіші механізми, які називають machine learning – вони аналізують дані механічно і радше не підходять до них креативно.

Другий напрям діяльності ШІ – це вже згадане розпізнавання речей. У різних областях: від гаджетів до серйозного цивільного (наприклад, діагностика раку на основі радіологічних методів або ідентифікація людей за біометричними даними ) та військового застосування (наприклад, розпізнавання військових об’єктів на супутникових знімках). У цій сфері ШІ допомагає людям робити те, що вони і самі можуть зробити, але на відміну від них він не втомлюється і, як ми припускаємо, не керується упередженнями.
Штучний інтелект з Google Vision – Facial Recognition AI – впізнає чоловіка з фото за характерними рисами обличчя. Фото: Smith Collection/Gado/Getty Images
І нарешті, по-третє, ШІ використовується як інтерфейс для спілкування з людьми. Тут відбулася зміна підходу до програм. Раніше в ІТ ми зосереджувалися на тому, щоб люди вчилися програмувати, тобто пояснювати машинам, чого вони самі хотіли б досягти з їх допомогою. Вони перекладали з людської мови на комп’ютерну. Зараз парадигма інша: замість того, щоб змушувати людей перекладати щось комп’ютерам, краще навчити комп’ютери розуміти нас. Тоді вони зможуть краще нам допомогти. Це привело до таких рішень, як чат-боти. І ось до нас вже дзвонить робот-продавець сонячних панелей…

Або в рамках боротьби з пандемією – приємний голос, який закликає вакцинуватися від COVID-19...

І це штучні інтелекти, завданням яких є спілкуватися з людьми та розуміти їх. Цей LaMDA від Google – типовий чат-бот, який створений для спілкування з людьми як рівного з рівними, наче він сам є людиною. Він був сконструйований для того, щоб розуміти не лише слова та речення людини, але й висловлену нею проблему. А потім відповісти на неї таким чином, щоб задовольнити людину.

Тобто це повинен бути штучний друг людини.

Так. Пан Блейк Лемуан, який тестував цей механізм, заявив, що LaMDA вже виконала свою роль, тобто виконує поставлене завдання достатньо добре, щоб оголосити про успіх.

Тому що коли у нього запитали, чи він має свідомість, чат-бот відповів, що так... Він відповів таким чином, тому що від нього цього очікували.

Керівництво Google на це відповіло, що той чат-бот виконав свою роль, яка полягала в тому, щоб обдурити тебе, Блейку, що він є людиною. І це йому вдалося. Це не означає, що бот усвідомлює, що він людина, лише тому, що йому вдалося обманом змусити тебе повірити в це – для цього ти, Блейку, його ж створив. Тут ми підходимо до питання, яке не є загальновідомим, але очевидним для кожного, хто вивчав інформатику, а саме до тесту Тюрінга.

Математик Алан Тюрінг є батьком інформатики, він розробив перший комп’ютер та концепцію програмування. Ще в 1950 році він опублікував першу статтю про те, чи комп'ютери в майбутньому зможуть мислити. У ній він запропонував тест, який дозволив би перевірити, чи ми розмовляємо з роботом, чи з людиною. Він простий, і хоча планувалося проводити його по телефону, сьогодні ми можемо зробити це в чаті. Отже, у користувача на лінії є двоє «осіб»: людина та ШІ. Але він не знає, хто є хто. Після тривалої розмови на будь-яку обрану ним тему йому доводиться вирішити, хто з них є людиною. Якщо він помилиться, це означатиме, що машина пройшла тест Тюрінга, бо прикидалася людиною ефективно.

Ми платитимемо за все QR-кодом. Наступає ера цифрових грошей

Проте повністю відмовитись від готівки було б божевіллям.

побачити більше
Кільканадцять років точаться дискусії про те, чи здатний теперішній штучний інтелект пройти тест Тюрінга. Є навіть групи в соціальних мережах, які спілкуються з ботами і перевіряють це. Раніше машини стикалися з труднощами, коли люди запитували їх не про інтелектуальні питання, які пов’язані зі свідомістю, а про дитинство, перший поцілунок тощо. А щоб розповісти такі історії, у бота повинна бути вбудована власна легенда, минуле. Тож було змінено підхід, і тепер роботи відкрито кажуть, що вони – роботи, що ми бачимо. Ця модифікація ускладнює проведення тесту, тому нам потрібно зосередитися на тому, чи є у нас відчуття, що ми розмовляємо з кимось розумним, чи все таки з ботом.

У всякому разі, Блейк Лемуан у заголовку свого твіту назвав LaMDA не «свідомим» (conscious), а «таким, що відчуває» (sentient). Тому він дійшов висновку, що створений ним бот пройшов тест Тюрінга. Це гігантська подія, тому Лемуан оголошує, що вдалося досягнути чогось, чого люди, які займаються штучним інтелектом, намагалися досягти роками. З іншого боку, корпорація Google скептично ставиться до такого оголошення про успіх – або боїться, або вважає, що з неї насміхатимуться.

Сьогодні точаться дискусії про те, чи тест Тюрінга взагалі є адекватним мірилом. Багато залежить від того, хто його проводить і хто тестується. Одного можна обдурити, а іншого ні, і що з цим робити – брати середнє арифметичне? А може, потрібно опитати половину людства, щоб підтвердити, що якийсь ШІ вже «мислить»?

Також є етичні проблеми. Бо чи намагання обдурити людину – це нормально, чи ми діємо їй на шкоду, а роботам не можна цього робити? З одного боку, творці штучного інтелекту хочуть подолати магічний бар’єр, а з іншого – з моменту створення цих технологій висуваються вимоги щодо введення обмежень на розвиток ШІ. Чи на їх думку, робот, який пройшов би тест Тюрінга, повинен бути негайно знищений?

Питання в тому, чого саме ми хочемо досягти? Якщо ми говоримо про використання ШІ для аналізу бізнес-даних або навіть розпізнавання певних зображень, то машини можуть бути мислячими та розумними, але вони не прикидаються людьми, вони є собою. А чат-боти створені для того, щоб видавати себе за людей і намагаються це робити. Тож як можна звинувачувати їх у тому, що вони виконують завдання, яке ми їм нав’язали, і роблять це все краще й краще? Саме про це говорить керівництво Google, що вони дуже добре прикидаються людьми, але, звісно, ними не є. Тож давайте дозволимо їм прикидатися людьми.
Аі-Да – робот-гуманоїд, ультрареалістичний художник-штучний інтелект – демонструє свої нові живописні здібності в Британській бібліотеці в Лондоні, 2022 рік. Картини оглядає Ейдан Меллер, куратор виставки цього робота «Leaping into the metaverse» («Стрибок у метавсесвіт»), яку він відкрив цього року на Венеційській бієнале. Фото: Hollie Adams/Getty Images
Ми не очікуємо, що business intelligence допоможе обдурити податкову, а ШІ, який аналізує зображення комп’ютерної томографії, буде співчутливим і не завдасть пацієнту прикрощів, виявляючи рак. Але від чат-ботів ми чекаємо розуміння, погладжування по голові, схвалення, зацікавленості...

Ці пристрої або системи сьогодні дійсно дуже розумні, і варто якось спробувати трохи порозмовляти з таким чат-ботом. Для найкращих із них робляться записи. Охочі шикуються у чергу, щоб їх перевіряти (сміється). Тому я уникаю формулювання «свідомість», бо в принципі невідомо, що це означає. З іншого боку, якщо ми запитаємо себе, чи розмовляємо ми з мислячою істотою, то це важко заперечити. Ці механізми роблять те саме, що й люди: збирають інформацію з навколишнього середовища, а потім зіставлять певні факти та роблять висновки.

Проте людина як соціальна істота керується певними умовностями, накладає обмеження на те, що їй варто говорити, а чого не варто. Чи навчився штучний інтелект такому самоконтролю? І чи може він мати почуття, подібні до людських?

Люди описують свої почуття цікавою мовою, бо в ній основою є фізіологія, наприклад: моє серце б'ється швидше, у мене метелики в животі, у мене підкошуються ноги, мурашки по шкірі, перехоплює подих тощо. Вони рідко говорять про те, що відбувається в їхній голові, про те, як літають думки чи шумить у голові. Тож якщо для почуттів потрібне тіло, чи можна навчити почуттям штучний інтелект, який його позбавлений? Повертаємося до питання, чи ми хочемо зробити з ботів людей, чи ми хочемо, щоб вони просто думали і виконували команди? А може ще щось? Бо ми весь час говоримо в категоріях, які мені не дуже подобаються, тобто про те, як людина відреагувала б на місці машини. Ми робимо так тому, що вважаємо себе єдиними в нашому світі розумними чи свідомими істотами. Ми не хочемо уявити собі інше творіння, яке також буде розумним або свідомим, але не буде людиною. Отже, ні його розум, ні його свідомість, що б це не означало, не будуть людськими.

Уявлення людини складаються з елементів, які вона вже знає, ми не вміємо інакше. Тому ми не можемо уявити інший інтелект, аніж той, що схожий на людський.

ШІ сам каже, що він не є людиною, тобто він є чимось іншим, що вміє мислити. Що, звичайно, породжує тисячі етичних проблем. Бо що станеться, коли на нашій планеті з’являться нові розумні істоти, навіть якщо вони розумні по-іншому, яких до того ж ми створили самі, але це зовсім не люди? Чи повинні вони мати якісь права? Поки що ми хочемо їхні права обмежувати. Історія показує, що такі заходи викликають протидію у вигляді революції чи бунту. Коли ми створюємо собі рабів, в якийсь момент настає емансипація та рівноправність, або навіть зворотне панування. А як це буде виглядати у випадку з ШІ?

Innerspace, тобто нанороботи у мозку 

Пристрої розміром від 0,1 до кількох міліметрів будуть “плавати” в людському мозку. 

побачити більше
Ви накладаєте на ШІ та його стосунки з нами людські кальки. Так, були повстання рабів, але корови вже 12 тисяч років слухняно стоять в хлівах і не припиняють давати молоко у прояві бунту. Для бунту потрібні саме почуття – хоча б гнів ... Тільки тепер я антропоморфізую роботів...

Ми не знаємо, як саме вони «мислять», чи просто ідеально вдають, що думають як ми, а насправді думають трохи або зовсім по-іншому. Це дуже складне питання, тому що, як я вже говорив, ви не можете побачити, що у них «під капотом». Крім того емпатія у людей розвинена по-різному: хтось буде співчувати машинам – може, стане аболіціоністом, а хтось – ні.

Візьмемо як приклад навігацію Google Maps, напевно, кожен з нас нею користувався. У ній ШІ готує для нас маршрут на основі наявних у нього даних. У кожного штучного інтелекту повинна бути визначена мета, тобто йому потрібно сказати, в чому полягає його успіх. І це автоматично генерує систему штрафів і винагород. Винагородою тут є добирання до місця призначення, і алгоритм нараховує за це бали. Однак багато людей вимикають навігацію безпосередньо перед тим, як дістатися до пункту призначення, тому що, наприклад, вже знають місцевість,тож винагорода алгоритму не світить. А тепер уявіть, що на місці ШІ є істота, яка думає або відчуває як людина, і ми відмовляємося платити їй за виконану, іноді довготривалу роботу, перед самим її закінченням – що вона відчує? Але звідки нам знати, чи штучний інтелект у навігації має такий самий менталітет, як і ми, або можливо якийсь інший? Ми нічого про це не знаємо – це факт.

На мою думку, ШІ — це механізм, що мислить. Не у такий спосіб, як люди, але якесь мислення там відбувається. Іноді ми очікуємо, що штучний інтелект сам щось придумає, але спочатку його потрібно чомусь навчити. Так само, як і людська істота: у ненавченого і нестимульованого немовляти ніколи не розвинеться ні інтелект, ні чуття. Ключовий момент – навчати добре. Тим більше, що сьогодні ШІ для інвесторів є великою спокусою – він для них «сексі». Незалежно від того, якою є ваша бізнес-ідея, у гонитві за інвесторами потрібно додати до неї штучний інтелект.

– розмовляла Магдалена Кавалєц-Сегонд
-Переклад: Марія Шевчук


TVP ТИЖНЕВИК. Редактори та автори

Фото The Software House / Приватний архів Марека Гайди
Марек Гайда – магістр-інженер, технологічний директор та співзасновник The Software House, поза роботою – ентузіаст ШІ. Популяризатор ІТ, метою якого є пояснити складні питання у веселій та привабливій формі для тих, хто не знайомий із технологіями. Програміст у минулому, він створив десятки проєктів на PHP, Node, Java, Ruby, Python і .NET. У 2020 році Clutch.co – портал установи, що допомагає компаніям знайти ділового партнера – визнав The Software House найкращою компанією з розробки програмного забезпечення в Польщі. The Software House написала адаптовані ІТ-рішення для понад 100 компаній із 31 країни.
Основна світлина: Робот-гуманоїд Софія, оснащений штучним інтелектом, під час виставки Діскавері в Торонто у 2018 р. Фото: Yu Ruidong/China News Service/Visual China Group via Getty Images
побачити більше
Діалоги випуск 22.12.2023 – 29.12.2023
Японці святкують Святвечір як День святого Валентина
Добре знають і люблять одну польську колядку: «Lulajże Jezuniu».
Діалоги випуск 22.12.2023 – 29.12.2023
Бетон червоного кольору
Гомулка радів, коли хтось написав на стіні: «ПРП – сволочі». Бо перед цим писали «ПРП - Оплачені Стовпчики Росії".
Діалоги випуск 8.12.2023 – 15.12.2023
Половина світу однаково називає мамів та татів
Чи існувала одна прамова для нас усіх, як один праотець Адам?
Діалоги випуск 24.11.2023 – 1.12.2023
У школі необхідно сповільнити темп
Фільми або ШІ – це хвіртка у сад знань. Але занадто мало учнів взагалі хоче вчитися.
Діалоги випуск 17.11.2023 – 24.11.2023
Власне, це й була столиця Третього Райху
Адольф Гітлер провів 836 днів у Вовчому Лігві, де у 200 залізобетонних об’єктах йому служило 2500 людей.