Суперсуб'єктність: що може піти так із майбутнім ШІ

21 липня 2025

Суперсуб'єктність: що може піти так із майбутнім ШІ

Superagency: What Could Possibly Go Right with Our AI Future

Послухайте огляд

00:00

-00:00

Зміст

Основна ідея

Людяність технологій

Чого ми насправді боїмося?

Мислення в стилі «Що може піти правильно»?

Інновації та безпека

Чим ШІ схожий на GPS?

Свобода чи колективна вигода?

Індивідуальне і колективне

  • Книжка стала миттєвим бестселером New York Times 
  • Бестселер USA Today
  • Видання радять Білл Гейтс, Аріана Гаффінгтон та Ювал Ной Гарарі

Основна ідея

Майже кожна впливова технологія на початку свого існування стикалася з хвилею скептицизму і страху. Скажімо, у ХV ст. дехто передбачав, що поширення друкарських верстатів призведе до підриву авторитету духовенства та вчених. А критики автомобілів говорили: тепер чоловіки відкладатимуть кошти на дорогу покупку замість того, щоб одружуватися, тож машини псуватимуть демографічну картину. Сьогодні ж найбільші побоювання викликає штучний інтелект – навіть серед його розробників є ті, хто вбачають у цій технології екзистенційну загрозу для людства. А що, як усе буде інакше, і ШІ насправді змінить наше життя на краще, так само, як колись друковані книжки й автомобілі?

Отримайте цей огляд на email

Надаю згоду ПрАТ Київстар на обробку моїх персональних даних для зв'язку зі мною.

Людяність технологій

Не всі технології злітають. У 2022 році, попри всі інвестиції та спроби Meta заманити людей до метавсесвіту, ця технологія залишалася не надто затребуваною. Так само децентралізовані фінанси не поспішали ставати настільки ж незамінними для широкого загалу, як, наприклад, соціальні медіа. Натомість ChatGPT, представлений публіці в листопаді 2022 року, став справжньою сенсацією.

Розробник цієї технології – компанія OpenAI – не витратила на маркетинг жодної копійки. Проте вже за п’ять днів ChatGPT мав перший мільйон користувачів, а через два місяці – 100 млн. Цей карколомний успіх підштовхнув ринок до рішучих дій. Alphabet, Microsoft і Meta прискорили свою діяльність у сфері ШІ. Молоді бізнеси на кшталт Anthropic, Midjourney, Hugging Face та Replika наступали на п’яти лідерам індустрії. Зрештою, усім стало зрозуміло, що у найближчі роки на сферу ШІ чекає швидке зростання.

Ця швидкість налякала багатьох. Скажімо, у березні 2023 року некомерційна організація Future of Life Institute опублікувала відкритого листа, в якому звернулася до всіх ШІ-лабораторій із закликом «негайно призупинити щонайменше на шість місяців навчання систем ШІ, потужніших за GPT-4». Цей лист підписали понад 33 тис. людей, зокрема й відомі у ШІ-сфері.

Утім жодної зупинки не сталося. Компанії продовжили розроблення нових моделей, які виконували дедалі складніші завдання, проте не всі на ринку розуміли, як вони працюють. Річ у тім, що ChatGPT, Claude та інші подібні продукти побудовані на базі великих мовних моделей (LLM). Вони сканують величезні обсяги тексту й встановлюють кореляції між «токенами» (окремими словами або фрагментами слів). Тож коли ChatGPT відповідає вам, насправді він просто прогнозує, які «токени» найімовірніше мають бути наступними за «токенами», з яких складається ваш запит (промпт). Та це не гарантує, що відповідь буде правдивою чи точною.

Відповіді сучасних ШІ-інструментів є оманливо «людськими». Наприклад, вони вже вміють розпізнавати гумор та метафори, й якщо ви скажете, що такі голодні, що можете з’їсти слона, не запропонують вам рецепти зі слонов’ячого м’яса. Проте це не робить ШІ гідним 100-відсоткової довіри. Мовні моделі легко «галюцинують»: неправильно відповідають на запитання, які мають правильну відповідь, або придумують імена, факти, неіснуючі дослідження тощо. Ба більше, ШІ може бути непослідовним і необ’єктивним, адже спирається на певні алгоритми оброблення даних, створені людьми-розробниками. Скажімо, якщо у навчальній вибірці було багато сексистських чи расистських матеріалів, то саме у такому стилі й відповідатиме модель.

Проте, попри усі виклики, Рід Гоф­фман налаштований позитивно, адже мислить в довгостроковій перспективі. Він вважає, що людство наразі перебуває на ранній стадії розвитку ШІ-технологій. І коли машини стануть насправді мислити як люди, то ми отримаємо величезні переваги. Наприклад, наші діти матимуть власних ШІ-репетиторів, креативних і розумних, наче Леонардо да Вінчі.

Чого ми насправді боїмося?

Гоффман переконаний, що більшість страхів щодо ШІ насправді пов’язані зі збереженням людиною контролю та впливу на своє життя. Якщо ШІ почне займати робочі місця, то чи зможемо ми забезпечити себе? Якщо він визначатиме інформаційну політику, то чи зможемо довіряти тому, що читаємо? Усі ці запитання стосуються людської суб’єктності (human agency), тобто нашої спроможності мислити, діяти й приймати рішення незалежно.

У міру розвитку ШІ та робототехніки машини набувають дедалі більшої суб’єктності. Наприклад, автономні автомобілі можуть ухвалювати рішення та досягати поставлених перед ними цілей. Ми можемо радіти такому прогресу, адже він позбавляє нас необхідності виконувати різноманітні рутинні завдання, проте це може й викликати страх. А що, як ми станемо настільки залежними від машин, що втратимо власні навички на кшталт прийняття рішень? А що, як машини почнуть впливати на те, як ми мислимо та діємо, й ми залишимося фактично без власної волі?

Утім автор вважає, що ШІ-технології насправді можуть поглибити нашу суб’єктність. Для збільшення людських спроможностей потрібні дві речі – інтелект та енергія. Інновації дозволяють збільшити обидва ці види ресурсів. Так було з кожним великим винаходом, наприклад, автомобілі з двигунами внутрішнього згоряння дозволили нам робити те, що нещодавно вважалося нереальним. ШІ можуть стати суперінструментом, який розширить наш інтелект і збільшить енергію.

З цієї точки зору ШІ не є загрозою для нашої суб’єктності, адже ми самі можемо вирішувати, як ним користуватися. Скажімо, у деяких випадках, як-от вивчення іноземних мов, можна діяти спільно з ШІ. А в інших – наприклад, оптимізація споживання енергії вашим будинком у режимі реального часу – можемо повністю делегувати завдання ШІ. Оскільки він також матиме суб’єкт­ність, то буде здатен упоратися з подібними справами.

Завдяки своїм алгоритмам великі мовні моделі часто поводяться чуйніше за людей

Водночас Гоффман не є наївним оптимістом. Він усвідомлює, що ШІ спроможний і зменшити людську суб’єктність, якщо працюватиме не з нами, а над нами. Особливо високі ризики – в автократичних суспільствах. Тому демократичним країнам потрібно докласти багато зусиль, щоб ШІ став інструментом збільшення людської суб’єктності.

Мислення в стилі «Що може піти правильно»?

Критики швидкого розвитку ШІ вважають себе захисниками суспільства, але, на думку Гоффмана, такий підхід може завдати людству великої шкоди. «Коли ви зосереджуєтеся лише на тому, що може піти не так, то неминуче ігноруєте те, що може піти добре», – пише він.

Суперсуб'єктність: що може піти так із майбутнім ШІ

Потенційний позитивний вплив на різноманітні сфери людського життя – величезний. Системи ШІ можуть допомогти нам «перекласти» мову тварин, щоб ми зрозуміли потреби видів, яким загрожує зникнення. ШІ-інструменти можуть допомогти покращити доступ до їжі у країнах із нестачею продуктів, оптимізувавши ланцюжки постачання. Навіть для проблем, спричинених самим ШІ, часто потрібні ШІ-інструменти, зокрема, для визначення дипфейків та дезінформації. Отже, гальмувати розвиток ШІ – означає перешкоджати людству вирішити багато серйозних проб­лем.

Зрештою, як пише автор, наша кінцева мета – досягти прогресу. А з ним зазвичай пов’язані й певні ризики та високий ступінь невизначеності. Отже, мислення у стилі «а що може піти правильно?» з фокусом на найкращих сценаріях розвитку подій є необхідною умовою для руху вперед. Звичайно, це не означає ігнорувати небезпеки – натомість усвідомлювати можливі негативні наслідки, але не зупинятися, а діяти так, аби їх уникнути.

Якими можуть бути позитивні сценарії розвитку ШІ? Наприклад, уже сьогодні люди часто спілкуються з ChatGPT як із психологом, і це продукує певні ризики. Водночас у світі не вистачає кваліфікованих фахівців, а психологічні проблеми стають дедалі поширенішими. ШІ може допомогти упоратися з цими викликами: зокрема, він спроможний допомогти «розкодувати» психотерапію. Проаналізувавши мільйони сесій, ШІ може виокремити найефективніші підходи та навчити психологів діяти так, щоб краще допомагати клієнтам.

Ідеться не про те, щоб замінити психологів ШІ-інструментами – навряд чи це станеться у найближчій перспективі. Але ШІ може доповнити й розширити їхні компетенції. А ще – стати доступним (у будь-який момент і настільки довго, наскільки потрібно) співрозмовником для тих, кому потрібно поділитися чимось без страху осуду.

Ще один цікавий ефект полягає у тому, що завдяки своїм алгоритмам великі мовні моделі, хоча й не мають свідомості, часто поводяться чуйніше за людей. Як вважає Мустафа Сулейман, співзасновник Inflection AI, постійний доступ до спілкування з емпатичним співрозмовником збільшує нашу власну здатність «бути добрими до інших людей». Тож, можливо, завдяки ШІ світ поступово стане набагато людянішим.

Інновації та безпека

Бути ШІ-оптимістом – не означає нехтувати засобами безпеки. Як пише Гоф­фман, у міру розвитку ШІ-моделей нагляд за ними з боку людей та розроблення ефективних безпекових заходів стають дедалі критичнішими. Фактично людству потрібно дотримуватися балансу між інноваціями та поміркованістю. Адже якщо надмірно думати про ризики, то державні регулювання можуть знищити прогрес, а країна програє у конкурентній боротьбі на ШІ-ринку. Водночас повністю розв’язати руки ШІ-ентузіастам – теж може бути ризикованим кроком.

Звичайно, багато що залежить від того, як люди при владі ставляться до ШІ. Наприклад, Люсі Пауелл, речниця з питань цифрових технологій Лейбористської партії Великої Британії, пропонувала регулювати розроблення ШІ та само, як ринок ліків та ядерну енергетику, а також запровадити ліцензії для створення ШІ-моделей. Такий підхід можна назвати «принципом запобіжних заходів»: нова технологія є «винною», доки не доведено зворотнє.

Протилежним підходом є «інновації без дозволу», який сповідує багато інвесторів та підприємців. Він полягає у тому, що замість превентивного контролю та заборон ми надаємо повну свободу в експериментуванні з новою технологією, якщо вона не є доведеним джерелом шкоди або поточних регулювань достатньо.

Виглядає, наче державні діячі й підприємці прагнуть протилежного – але насправді, як каже Гоффман, «їх об’єднує спільне бажання покращити функціонування певного аспекту світу». І якщо регулятори для цього створюють нові закони, то підприємці експериментують із новими продуктами. З цієї точки зору інновації самі можуть бути інструментом для регулювання ринку: підприємці вдосконалюють продукт, роблячи його безпечнішим, а потім громадськість приймає цю зміну як нову норму.

Подібне неодноразово ставалося в автомобільній сфері. Наприклад, у 1911 році Чарльз Кеттерінг винайшов електричний стартер, а у 1912-му цю інновацію вже використовував Cadillac. До появи електричних стартерів заводити машину потрібно було власноруч, і цей процес був не лише фізично складним, але й часто травматичним. Відтепер же водію просто треба було натиснути на педаль. Автомобілі стали надійнішими й безпечнішими, тож до 1920 року електричні стартери стали новим стандартом галузі.

Завдяки ШІ світ може поступово стати набагато людянішим

Гоффман вважає, що сьогодні «регуляторна функція інновацій без дозволу набагато потужніша, ніж будь-коли раніше». Адже експерименти з новими технологіями є видимими для широкого загалу, тож суспільство бачить їх і може відреагувати. Унаслідок цього зворотний зв’язок стає швидшим і повнішим, цикли створення нових продуктів скорочуються, а самі продукти – стають безпечнішими.

Чим ШІ схожий на GPS?

Для розуміння масштабу змін, на які спроможний ШІ, корисно розглянути приклад іншої технології – Системи глобального позиціювання (GPS). Її розроблення почали у США у 1973 році, й спочатку вона призначалася суто для військових цілей. Проте у 1983 році радянські військові збили корейський пасажирський літак, який відхилився від курсу та влетів у повітряний простір СРСР. Щоб уникнути подібних катастроф у майбутньому, президент США Рональд Рейган пообіцяв відкрити GPS для використання у цивільних цілях, щойно технологія буде готова.

Суперсуб'єктність: що може піти так із майбутнім ШІ

У 1989 році стало можливим придбати передавач, який у доларах 2023 року коштував майже $8 тис. Проблема полягала у тому, що через рік ВПС США запровадили нову політику «вибіркової доступності», у межах якої сигнал, доступний для цивільного використання, ставав у рази менш точним, ніж той, яким користувалися військові. Утім, попри дорогу ціну та обмежену функціональність, прилад купували бізнеси на кшталт логістичних, тому у виробників GPS-передавачів справи йшли добре.

Після розвалу СРСР політику «вибіркової доступності» скасували, проте станом на 30 травня 2000 року у світі все одно було менше 4 млн цивільних користувачів GPS-технології. Ситуація змінилася, коли пристрої почали ставати меншими і дешевшими, а потім їх стали вбудовувати у ноутбуки, годинники та мобільні телефони. А ще на початку 2000-х уряд зобов’язав операторів мобільного зв’язку надавати кол-центрам служби порятунку 911 координати абонента, і компанії вирішили цю проблему завдяки масовій інтеграції GPS-модулів у телефони.

Так ця технологія захопила увесь світ. Наслідками її впровадження стали, зокрема, неабиякі економічні переваги. За оцінкою Національного інституту стандартів і технологій, GPS-технологія відповідає за генерацію грошової вигоди для державного сектору у розмірі $1,4 трлн з 1984 по 2017 рік, причому 90% цієї суми припадає на останні сім років зазначеного періоду. Існує величезна кількість застосувань GPS: скажімо, встановлення передавачів на дронах допомагає знаходити жертв стихійних лих, а точне землеробство з використанням цієї технології робить доступнішими продукти харчування.

За словами Гоффмана, цей приклад має прямий стосунок до ШІ, адже демонструє, яких результатів можна досягти, якщо держава сприяє інноваціям, і як технології збільшують людську суб’єктність.

GPS підвищує наші навігаційні спроможності, і великі мовні моделі діють схожим чином: вони посилюють нашу здатність орієнтуватися в складних та постійно зростаючих інформаційних середовищах , які визначають життя у ХХІ ст.». І у такий спосіб LLM також збільшують нашу суб’єктність: ми приймаємо кращі рішення та легше досягаємо цілей. Сьогодні автоматично звертаємося до GPS, щоб визначити своє місцезнаходження, а завтра так само швидко шукатимемо відповідей на різноманітні запитання у ШІ.

Свобода чи колективна вигода?

ШІ може значно полегшити життя окремої людини, але автор переконаний, що його здібності потрібно використовувати й для спільного блага. Нас оточує багато масштабних проблем: від екологічних до транспортних, і ШІ може допомогти їх розв’язати за наявності суспільної згоди.

Великі мовні моделі посилюють нашу здатність орієнтуватися в складних інформаційних середовищах

Прикладом є реакція Південної Кореї на появу Covid-19. На початку пандемії ця країна упродовж недовгого часу посідала друге місце у світі за кількістю випадків, але їй вдалося швидко приборкати ситуацію та, зрештою, вийти на один із найнижчих показників смертності. Щоб досягти такого результату, Південна Корея обрала не конфіденційність особистих даних, а їх збирання й обмін ними.

Суперсуб'єктність: що може піти так із майбутнім ШІ

У 2015 році країна пережила спалах Близькосхідного респіраторного синдрому (MERS) й розробила порядок дій на випадок повторення ситуації, тож він став у пригоді. Зокрема, посадовці зі сфери охорони здоров'я отримали доступ до даних GPS мобільних телефонів, транзакцій за кредитними картками, даних про подорожі тощо – і могли відстежувати пересування осіб з підтвердженим Covid-19 та інформувати тих, хто був із ними у контакті.

Південна Корея тестувала тисячі людей на день. У випадку позитивного результату за допомогою ШІ-інструментів за лічені хвилини створювали детальну мапу пересувань людини останніми днями.

Цей підхід може видатися радикальним, але суспільство не було проти. Гоффман пояснює це тим, що уряд збирав і використовував дані прозоро, тож люди усвідомлювали, що й навіщо відбувається, і йшли назустріч. Скажімо, якщо вони отримували повідомлення, що були у контакті з хворим, то добровільно йшли тестуватися. І так із кожним днем держава краще розуміла шляхи поширення вірусу й ефективність власних дій, що, зрештою, і дозволило впоратися зі спалахом.

ШІ може допомогти побороти майбутні пандемії: скажімо, за допомогою системи, яка аналізує дані з камер та тепловізорів і виявляє хворих у громадських місцях. Такі дії зачіпають питання особистої свободи та конфіденційності даних, але можуть принести величезну користь людству. Тому впровадження подібних ШІ-систем потребує суспільного консенсусу та спільної візії держави і громадян.

Індивідуальне і колективне

ШІ спроможний принести позитивні зміни як окремим особистостям, так і світу загалом, якщо його проєктувати з урахуванням людської суб’єктності. У такому випадку права та можливості особистостей і суспільства зростають.

А ще важливіше те, що впровадження ШІ має накопичувальний ефект, так само, як колись поширення використання автомобілів чи мобільних телефонів. Що більше людей спілкуватимуться із ШІ й отримуватимуть від нього користь, бо більше переваг з’явиться у інших. І хоча сьогодні ми знаємо про майбутнє менше, ніж у попередні століття чи десятиліття, цілком маємо привід для оптимізму.

Суперсуб'єктність: що може піти так із майбутнім ШІ

Додайте коментар

Усі коментарі публікуються після модерації. Будь ласка, пишіть українською, без спаму та нецензурних слів.