Штучний інтелект відкрив нову еру для медіа – швидшу, дешевшу, зручнішу. Але водночас – небезпечнішу. Ми живемо у світі, де будь-яка картинка може бути підробкою, будь-яка новина — експериментом алгоритму, а будь-яке відео — симуляцією. ШІ вже сьогодні змінює спосіб, у який ми дізнаємося про світ. Алгоритми, що відбирають новини, створюють тексти та зображення, дедалі частіше не просто допомагають журналістам, а формують інформаційну реальність. І водночас розмивають межу між правдою та вигадкою.
Алгоритми, які пишуть історії
ШІ у медіа вже не дивина. У світових редакціях він пише короткі новини, перекладає тексти, підбирає заголовки й навіть створює відео. The Washington Post використовує систему Heliograf, яка ще з 2016 року автоматично формує короткі новини про спортивні події чи місцеві вибори. Associated Press завдяки ШІ збільшила кількість фінансових звітів у 10 разів.
В Україні алгоритмічні рішення теж з’являються – від автоматизованих редакційних планерів до систем, що перевіряють фактологію. На перший погляд, це лише технологічна допомога. Але журналісти дедалі частіше попереджають: коли машини визначають, що ми бачимо у стрічці новин, вони одночасно визначають, яку картину світу ми отримуємо. Медіа стали не лише каналом комунікації, а й полем алгоритмічного управління увагою. Штучний інтелект уже не просто фільтрує інформацію, а створює контекст, у якому ця інформація сприймається». Інакше кажучи: хто контролює алгоритм – контролює сприйняття реальності.
ШІ і фейки: нова хвиля дезінформації
Однією з найсерйозніших загроз, пов’язаних із ШІ, є deepfake-контент – аудіо- й відеоматеріали, створені системами генерації. Вони можуть показувати, як політик говорить або робить те, чого ніколи не було.
За даними компанії Deeptrace, лише за один рік кількість deepfake-відео у світі зросла більш ніж на 900%, а 96% з них мали маніпулятивний чи дезінформаційний характер.
Під час виборів у Словаччині 2023 року за кілька днів до голосування в TikTok поширили deepfake-аудіо з нібито голосом лідера опозиції, який визнавав фальсифікації. Відео зібрало понад мільйон переглядів, перш ніж його спростували. Цей випадок ЄС назвав «першим реальним втручанням ШІ у європейські вибори».
Подібні технології вже впливають і на сприйняття війни. Відомий випадок — відео з нібито «капітуляцією» українського президента Володимира Зеленського, створене російськими пропагандистами у 2022 році. Хоча воно швидко викрите, саме існування таких відео демонструє, як технологія може перетворитися на інформаційну зброю.
Ми входимо в часи, коли будь-який доказ може бути поставлений під сумнів, Якщо раніше фейки створювали з метою обману, то тепер навіть правда може бути дискредитована просто через підозру в “підробці”.
Соцмережі і невидимий контроль
У соцмережах ШІ виконує роль не журналіста, а режисера нашої уваги. Алгоритми вирішують, які теми з’являться у стрічці, які відео стануть вірусними, а які залишаться невидимими.
За даними Reuters Institute (2024), понад 56% молодих користувачів віком до 24 років отримують новини виключно через соціальні мережі — передусім TikTok, Instagram і YouTube. Але менше ніж 5% з них перевіряють джерела інформації.
Механізми рекомендацій оптимізовані не під правду, а під емоційну реакцію. Алгоритм Facebook, за словами колишнього інженера Meta Трістана Гарріса, «не бачить різниці між правдою і фейком — лише між тим, що викликає більшу залученість».
Дослідження Гарвардського університету підтвердило: фейкові новини поширюються у шість разів швидше, ніж правдиві, саме завдяки емоційним тригерам, які підсилює штучний інтелект.
Відтак соцмережі перетворилися на гібридний простір, де ШІ водночас інформує і маніпулює. І якщо колись цензура означала заборону публікації, то тепер — це тиша: алгоритм просто не показує те, що не вигідно.
Коли журналістика втрачає монополію на правду
Класичні медіа завжди були фільтром – вони вирішували, що є новиною. Але тепер цей фільтр замінено машинним навчанням.
Проблема не лише у технології, а й у тому, що споживачі дедалі частіше не відрізняють контент, створений ШІ, від журналістського матеріалу. Дослідження MIT Media Lab (2023) показало, що 72% опитаних не змогли визначити, які новини були написані людиною, а які — генеративним ШІ.
Ба більше – тексти, створені машиною, отримували вищі оцінки довіри, бо здавалися «нейтральними». Цей парадокс і є головною небезпекою. Адже у прагненні до «об’єктивності» ми ризикуємо втратити людську інтерпретацію.
Майбутнє: етика, регулювання і медіаграмотність
У травні 2024 року Європейський Союз ухвалив Акт про штучний інтелект (AI Act) — перше глобальне законодавство, яке класифікує використання ШІ за рівнями ризику. Високоризиковими визнано системи, що можуть впливати на вибори, новинну політику або безпеку громадян.
США, Канада й Велика Британія також розробляють кодекси етики щодо ШІ в медіа. Але жоден закон не замінить інформаційної свідомості користувачів.
Розвиток ШІ – неминучий. Але те, чи стане він інструментом просвітництва чи зброєю маніпуляції, залежить не від машин, а від людей. Ми повинні навчитися не лише споживати, а й аналізувати інформацію. Там, де штучний інтелект генерує контент, лише людський інтелект здатен розрізнити правду і брехню. Бо в епоху штучного інтелекту критичне мислення – це наш головний антивірус.


Залишити відповідь