Публіцистика

Чат-бот, який ледь не став лікарем. Герой «Сенсації XXI століття»

Що я про нього думаю? Процитую одного доктора філософії: «Замість визнати, що він не знає, він махлює й збирає дані зі своєї штучно інтелектуальної задниці».

Його розробив невідомий раніше стартап OpenAI, а сьогодні Microsoft інвестує в нього 10 мільярдів доларів! ChatGPT стартував – кожен сказав про нього все, що хотів, тому я теж висловлюсь. Заздалегідь попереджаю, що у мене з цим винаходом така ж проблема, як у Галкевича зі Словацьким у «Фердидурці»: «Я не можу зрозуміти, як воно захоплює, якщо воно не захоплює». Спробую пояснити чому. Щоб було зрозуміло: я не боюся ChatGPT. Просто він мені набридає. Такий собі «гугл» (адже він загрібає інформацію з Google) з моторчиком – внутрішнім редактором, який робить за нас копі-паст і згинання-обрізування. Замість того, щоб використати 10 знайдених ним текстів, він сканує та компілює тисячі. То ж в чому «фішка»? Що за шум?

Адже шум чималенький. Щоб подолати бар'єр в один мільйон користувачів, йому знадобилося всього п'ять днів – тобто він зробив це у 60 разів швидше, ніж Facebook (хоча то були інші часи, коли FB заснували 18 років тому, навіть доступ до Інтернету був інший), але при цьому у 15 разів швидше ніж Instagram! Про вихід цього дракона на ІТ-ринок було оголошено 30 листопада 2022 року, а вже на початку грудня у пресі почали з’являтися заголовки (все ще сформульовані людськими редакторами): «Зі зростанням витонченості чат-ботів посилюються дискусії про штучний інтелект». І у нашій голові вже звучить джингл із програми редактора Волошанського, назвімо її цього разу «Сенсації ХХІ століття».

Потім регулярно повідомлялося про надзвичайні таланти цього чат-бота. Тиждень тому, наприклад, «виявилося, що ChatGPT здатний скласти іспити MBA та іспит на отримання ліцензії на медичну практику в США». А наступного дня «бот ChatGPT склав іспити в американському юридичному виші», при чому не тест з відповідями на вибір, а саме іспити, які полягали у написанні серйозних есеїв на різні теми: від конституційного права до податків і правопорушень. Хочеться вслід за рештою відкрити рот у гучному «ВАУ!», можливо, затремтіти від суміші страху та обурення. Проте я пропоную стримати цей порив.

Швидший, але не кращий. Хіба що по-польськи

Про те, що таке чат-бот і штучний інтелект (ШІ) та чому над цим взагалі працюють, пояснювала на цих сторінках. Нагадаю суть: ми намагаємося створити комп’ютерну програму, що може самонавчатися, здатну якнайкраще спілкуватися з людиною та ідеально імітувати наш спосіб мислення, збору та обробки інформації та розповідання історій. Основна проблема, яку суспільство може з цим мати, полягає в тому, що ми не можемо зазирнути у «нутрощі» цієї ІТ-машини. Навіть маючи тисячу інтелектуальних атлетів, неможливо перевірити в коді, що цей ШІ там «виліпив» і як до цього дійшов.
Чому ми думаємо, що чат-бот зробить щось краще за нас, якщо ми «робимо його схожим на себе»? Так, він зробить це швидше за нас, бо для цього він і створений. Але не обов’язково точніше – тому що він існує не для того, щоб бути кращою, більш інтелектуально чесною версією нас самих, а для того, щоб бути нами з моторчиком. Цікаве свідчення про це надав у соцмережах журналіст і редактор Войцех Муха, надихнувшись технологіями ШІ. Як він писав, він навіть не встиг заварити собі чаю, а чат-бот уже зліпив із знайденої інформації великий фрагмент тексту – абзац, на написання якого у середньостатистичного стажера редакції пішло б 45 хвилин.

Бо ChatGPT шукає блискавично, але проблема в тому, що він шукає на Інтернет-ресурсах, де змішалось праведне і грішне. Де, навіть спираючись лише на ймовірно достовірну інформацію – з енциклопедій чи офіційного наукового обігу, ми все одно натрапляємо на фактичні помилки чи хибні способи вирішення задач, у тому числі простих шкільних завдань. Адже існує маса «наукових» журналів-мисливців, які полюють на гроші, тож за плату видають все, що їм надсилають. Перед цим вони не вносять жодних, навіть орфографічних виправлень, не кажучи вже про рецензії на змістову частину. А чат-бот не може належним чином перевірити знайдену інформацію.

Він сам не може визначити, що таке істина – коли його запитають про це, він витягне з мережі кілька визначень істини, сформульованих філософами і теологами, і дасть їх нам. Ми знаємо, що істиною, на думку ChatGPT, є те, що є найпоширенішою відповіддю на те чи інше питання в джерелах, які творці його бази даних вважали надійними та задали йому. Чи вчиться він самостійно перевіряти джерела, вміти відокремлювати інтернет-зерна від полови? Іноді я смію сумніватися в цьому, і наведу цьому приклади. Сьогодні ми живемо в соціальних мережах, тож це будуть приклади звідти, але лише від людей, яких я особисто знаю в реалі. Тому що в ці дивні часи ми повинні за щось триматися в плані здобування інформації.

Наш герой не впорався з простим як двері завданням з фізики. Професор, доктор наук Лех Манкевич з Центру теоретичної фізики Польської академії наук і амбасадор Академії Хана в Польщі 16 січня на своїй «стіні» описав (і підтвердив скріншотом розмови з ботом), як він намагався отримати відповідь на задане англійською мовою питання про середню швидкість автомобіля, що рухається з міста А до міста Б, відстань між якими становить 100 км. Першу половину автомобіль їхав зі швидкістю 40 км/год, а другу – 60 км/год. Бот розв'язав задачу так, ніби мова йде про першу половину часу руху, хоча не було вказано, що йдеться саме про час, але нехай. Тож професор уточнив питання, що йдеться про половину відстані, а не часу руху, але це не допомогло. Можна було прочитати той же результат, а саме: (40+60)/2=50. Важко заперечити правильність, ось тільки це аж ніяк не розв’язок ЦІЄЇ конкретної задачі.

Підписуйтесь на наш фейсбук Цікава і ще повчальніша річ у спілкування з цією машиною. Один із відвідувачів «стіни» професора під час дискусії поставив чат-боту те саме питання з фізики, але польською мовою. І тут відповідь була цілком правильна. Я точно не знаю, що це говорить нам про те, як часто в англомовному Інтернеті зустрічаються помилкові розв’язки задач з ньютонівської механіки, але передчуття каже мені, що нічого хорошого. Ніхто не перевіряв іспанську, французьку чи будь-яку іншу версію в обміні думками між фізиками та знайомими аматорами, але погодьмося, що – як сказав проф. Манкевич – «питань більше немає». Із ботом тут в принципі все ясно.

Село як ріка, або інтелект з пластмаси

Вчителі зі всього світу вголос нарікають, що учні почали списувати із чат-бота розв’язки домашніх завдань. Що ж, у контексті вищезгаданої історії може виявитися, що школярі зароблять незадовільну оцінку не лише за списування, а передусім за списування помилок. Польських учнів нехай захистить від спокуси сумна історія про горобчика Елемелека, який під час контрольної списав в одуда літеру В, але з трьома «животиками». Варто відновити у своїй пам’яті цей віршик і не списувати в одудів, навіть якщо вони мають розумні та сучасні назви.

Ще кумеднішою, викладеною у тій же соцмережі, є історія контактів із ChatGPT Януша Кухарчика, доктора філософії та викладача цього предмету, перекладача з античних мов. Як великий патріот рідної Сілезії, він запитав у ChatGPT про своє рідне село Творуг Малий. Машина спочатку відповіла, що це річка в Судетах, і назвала конкретні населені пункти, через які вона нібито протікає, що додає абсурдності цій ситуації. Чистісінька географічна фантастика! Автор питання звернув увагу на те, що такої річки немає, а є село. Бот визнав, що помилився і що це село у Бендзінському повіті. Коли йому знову «пояснили», що ні, це село розташоване в Глівіцькому повіті, він це визнав і додав, що там немає річки. Знову помилка. Тож коли йому нарешті повідомили, що так, річка там є і називається вона Беравка, він додав, що там багато рибалок і що жителі черпають звідти воду.

Звичайно! Відрами на коромислах, як у романі «Над Німаном». Як людина з філософсько-сатиричним ухилом, доктор Кухарчик дотепно зауважив у своєму записі, що цей інтелект є штучним, бо він, мабуть, зроблений із пластмаси. І що ще важливіше, ця зірка нашого постмодерну «замість того, щоб написати, що вона не знає, махлює і збирає дані зі своєї штучно інтелектуальної задниці». В яблучко! Це здається мені ключовим, і тут я можу сказати, що у випадку ChatGPT досягнуто абсолютну ДОСКОНАЛІСТЬ, написану великими літерами.
ChatGPT в січні 2023 року заборонили в школах Нью-Йорка. Фото: CFOTO/Future Publishing via Getty Images
Він вміє замилювати очі і перекручувати, що багато хто з нас навчився робити в школі. Бо малі діти правдомовні, вони починають брехати, коли ми їх цьому навчимо і почнемо їх взагалі до цього змушувати. Що ж, ChatGPT навчився досконало видавати себе за середньостатистичного невігласа з інтелектуальними претензіями. Казочки на добраніч і всілякі можливі наративи, бо все одно ніхто не перевірить. Що асоціюється у мене зі сценою з одного з культових фільмів початку нашої устроєвої трансформації, де група щецинських випускників школи контрабандою перевозить спирт Royal з Німеччини. Один вчить іншого: «Ніколи ні в чому не зізнавайся [...], якщо схоплять за руку, скажи, що це не твоя рука». Ну, одним словом, добре навчений Молодий Вовк. І за це заслуговують на оплески автори та постачальники бази даних для пережовування ботом ChatGPT.

Тому цілком свідомо і слушно, просто по-людськи професор Лех Манкевич запропонував в іншому пості: «Замість того, щоб генерувати відповіді на питання випускних та інших іспитів з польської мови, ChatGPT міг би генерувати тексти для аналізу на цих іспитах. У всіх були б рівні шанси, не було б книжок із переказаним змістом творів зі шкільної програми, зрештою, мова йде про розуміння тексту в ширшому сенсі. Не лише інформації, а й емоцій, культурних посилань тощо. Чат генерує свої тексти, змішуючи різні відомі йому джерела, що також має свою екзаменаційну привабливість. А Центральна екзаменаційна комісія змогла б нарешті показати, що вона розуміє реальність». Зрештою, він би не був собою, якби, наприклад, одразу не попросив згенерувати такий текст у кількох варіантах.

Завершуючи цю колонку, у якій навмисно не згадано багато культурних відсилань та відступів, що – запевняю вас – не вимагає жодної співпраці зі штучним інтелектом, я маю один підсумок: він (або, можливо, «воно», «це»... яким займенником його назвати – нехай над цим мізкують мовознавці, а не я) був взятий з народу і залишений для народу. Він такий, як ми. Залишається лише почекати, поки він розлінується шукати дані, почне їх списувати на двійку або нарешті розлютиться, що тисячі людей щосекунди морочать йому «голову». Або збожеволіє чи стане агресивним — як ботка Tay, яка мала бути приємною програмою для спілкування з підлітками, але всього лише за 24 години навчилася неймовірно поганої поведінки з Інтернету, і її довелося вимкнути. Керівники стартапу з шаленими мільярдними інвестиціями запевняють, що незабаром у їхнього творіння з'явиться професійна версія, у сто разів сильніша... То я на це відповім – так, так, авжеж, сильніша (і тут, пирхаючи від сміху, я забрала руки з клавіатури).

– Магдалена Кавалец-Сегонд

– переклала Марія Шевчук

TVP ТИЖНЕВИК. Редактори та автори

Основна світлина: Екран із веб-сайтом ChatGPT, що відображається на мобільних пристроях, із логотипом OpenAI – стартапу, який створив бота. Січень 2023 р. Фото: Jonathana Raa/NurPhoto via Getty Images
побачити більше
Публіцистика випуск 22.12.2023 – 29.12.2023
Нами правлять ідіоти
Вони впевнені, що вони герої правильного роману і діють у правильному сюжеті та роблять все правильно та якнайкраще.
Публіцистика випуск 8.12.2023 – 15.12.2023
„Папі” нових правих виповнюється 80 років
Його не обмежують світоглядні „бульбашки”.
Публіцистика випуск 1.12.2023 – 8.12.2023
Зимова гібридна війна. Мігранти на російсько-фінському кордоні
Велосипедний наступ Кремля
Публіцистика випуск 1.12.2023 – 8.12.2023
Що може таксі без водія таксі
Автономні автомобілі спаралізували місто. 
Публіцистика випуск 1.12.2023 – 8.12.2023
Йдеться про різноманіття чи про занепад моралі і лібертинізм?
Складається враження, що напад на архієпископа Ґондецького – це якась масштабна акція.