Наука: штучний інтелект.

 

ШІ В ЧАСИ ПОСТПРАВДИ: чат-бот змусить вас сумніватися у своїх переконаннях.

ШІ здатний коригувати картину світу, змушуючи людей сумніватися у своїх переконаннях. Про це говорить нове дослідження, опубліковане в журналі Science. Взаємодія з великими мовними моделями може призвести до «зсуву мислення», знайомлячи людей з фактами і добре аргументованими доказами. Таким чином, в епоху постправди ШІ стає цінним інструментом спростування неправдивої інформації та боротьби з теоріями змови.

 

КОЖЕН ДРУГИЙ — «КОНСПІРОЛОГ»!

 

Сучасний світ — дуже неспокійне та небезпечне місце. Із цим твердженням складно сперечатися. Традиційно вважається, що своєю популярністю теорії змови зобов’язані бажанню людей знайти посеред тотальної невизначеності психологічну й світоглядну точку опори.

Опитування показують, що близько 50% американців вірять у найрізноманітніші теорії змови. Серед найпопулярніших: фальсифікація урядом США висадки астронавтів на Місяць 1969 року та імплантація під виглядом вакцини від COVID-19 мікрочипів для масового стеження за людьми.

Стрімке зростання соціальних мереж тільки посилило цю проблему. Оскільки вільний обмін інформацією між користувачами не передбачає її перевірки на наукову або фактичну достовірність.

 

РУЙНІВНИЙ ЕФЕКТ ТЕОРІЙ ЗМОВИ

 

Один з авторів дослідження, Кетрін Фіцджеральд з Квінслендського технологічного університету в Брісбені (Австралія), вважає, що більшість теорій змов не чинить серйозного впливу на суспільство. Однак деякі з них можуть завдати реальної шкоди.

Наприклад, твердження про те, що президентські вибори у США 2020 року було сфальсифіковано, спровокувало атаку на Капітолій. А антивакцинальна риторика вплинула на рівень вакцинації від COVID-19. Прихильників різноманітних теорій змови величезна кількість, і їх вкрай складно переконати.

Фахівцям знадобиться для цього неймовірно багато часу та зусиль. Але з вирішенням масштабних проблем і з опрацюванням величезних масивів даних, що не під силу людині, можуть чудово справлятися великі мовні моделі (LLM).

 

ШІ, ЩО ВОЛОДІЄ ДАРОМ ПЕРЕКОНАННЯ

 

Новий чат-бот від творця ChatGPT OpenAI спеціально навчили, щоб він міг переконливо спростовувати хибні уявлення про світ. Модель швидко опрацьовує величезні обсяги інформації, навчається в інтернеті та чудово орієнтується у всіх можливих аргументах і контраргументах противників та прихильників теорій змов.

Всі її твердження виглядають по-людськи природними й переконливими. Щоб домогтися цього, дослідники набрали понад 1000 учасників, чиї демографічні дані зіставили з даними перепису населення США за такими характеристиками, як стать і етнічна приналежність.

Виходячи з життєвого досвіду і власної точки зору, кожному учаснику було запропоновано описати теорію змови й розповісти, чому він вважає її правдою. Сила цієї переконаності повинна була виражатися у відсотках. Після того як ці дані передавалися чат-боту, починався діалог людини і моделі, який у середньому тривав 8 хвилин.

Відповідаючи на запитання учасників, чат-бот досить непогано справлявся із завданням спростування неправдивої інформації.

 

ЗАСУМНІВАТИСЯ У СВОЇЙ ПРАВОТІ

 

Відповіді чат-бота були настільки докладними і вичерпними, що впливали на думку учасників. Оцінка ними своєї впевненості у правдивості теорії змови після такого діалогу знижувалася в середньому на 21%. До розмови з чат-ботом 25% учасників експерименту були абсолютно впевнені у своїй правоті більше ніж на 50%. Але після спілкування з ШІ самооцінка зсувалася у бік непевності.

Подальше дослідження через 2 місяці показало, що зміна точки зору збереглася у багатьох учасників. Щоправда, є нюанс: усі суб’єкти дослідження були платними респондентами, тому, можливо, не є репрезентативними представниками людей, цілком захоплених теоріями змови.

Проте результати експерименту вражають. Тепер потрібно зрозуміти, що саме забезпечило його успіх, і вивчити механізм, який робить переконання «непрацюючим».

 

ЯК УНИКНУТИ ГАЛЮЦИНАЦІЙ

 

Подальші дослідження необхідні, аби однозначно переконатися, що LLM не посилюють конспірологічне мислення, а нівелюють його. З цією метою вчені планують використовувати інші показники для оцінки ефективності чат-бота, а також повторити експеримент із застосуванням менш просунутих заходів безпеки.

Відомо, що чат-боти ШІ нерідко схильні «галюцинувати» і видавати неправдиву інформацію. Щоб уникнути цього, команда науковців попросила фахівця, який перевіряє факти, оцінити точність інформації, наданої антиконспірологічним чат-ботом.

І він підтвердив, що в даному випадку жодне з тверджень ШІ не було хибним або політично упередженим. Продовжуючи експеримент, вчені планують дослідити різні стратегії чат-ботів. Наприклад, вони хочуть зрозуміти, що відбувається, коли відповіді чат-бота є неввічливими.

 

Оригінальне дослідження:



Коментарі

Популярні публікації