Світ стрімко входить у нову політичну епоху, де на рішення впливають не лише політики, але й алгоритми. У Непалі молодь вже питає у штучного інтелекту, хто має очолити країну після революції, а в Албанії чат-бот став міністром. Те, що ще вчора здавалося фантастикою, сьогодні стає частиною політичної реальності. Але чи безпечно довірити майбутнє демократії алгоритмам, які не мають ані моралі, ані відповідальності і залежні від своїх творців-корпорацій?
Хто очолить країну? – спитаймо у ШІ!
Після повалення уряду та відставки премʼєр-міністра у Непалі революційна молодь обирала лідера, звернувшись до ChatGPT. Штучний інтелект запропонував зумерам чотирьох потенційних очільників тимчасового уряду: інженера із магістерською освітою Оксфорда, колишнього міністра освіти, мера столиці та колишню головну суддю Непалу. Молоді непальці попросили ChatGPT розповісти про переваги й недоліки кожного кандидата і штучний інтелект назвав найкращою колишню головну суддю Сушилу Каркі, адже “вона, здається, ймовірно, викликає довіру в різних групах і може допомогти контролювати реформи та шлях до справедливих виборів”.
Окрім цього ШІ назвав позитивні риси для прем’єра й у мера столиці Бален Шаха: “який може стати хорошим прем’єр-міністром на довший термін, якщо зможе заручитися політичною підтримкою, щоб уникнути повернення до старих порядків”, – написав ШІ. Як повідомляє видання The Times, після цих порад штучного інтелекту, 73-річна суддя Сушила Каркі представлятиме молодих протестувальників на перемовинах з армією Непалу. Показово, що самі протести молоді були зумовлені через рішення влади заблокувати соціальні мережі та через корупцію в країні.
Не важко передбачити, що значна частина молоді вже може користуватися порадами ШІ при голосуванні на виборах. Адже політичних кандидатів багато, усі вони ніби обіцяють хороші речі, як вибрати найкращих без звернень до нудних аналітиків і продажних політологів? ШІ може видаватися оптимальним рішенням для молоді, котра у багатьох справах звикла покладатися на нейромережу. Наступні вибори в Україні, коли б вони не відбулися, можуть пройти за участі впливу ШІ.
Штучний Інтелект керує країною!
Ба, більше – штучний інтелект вже отримав владу в одній з європейських країн. Албанія призначила нейромережу на посаду міністра. Спочатку це був просто чат-бот на порталі державних електронних послуг, але потім ШІ вирішили доручити урядову посаду задля запобігання поширеній корупції. За повідомленнями Reuters, нейромережевий бот на ім’я Дієлла стане міністром із державних закупівель.
“Дієлла — перший член кабінету міністрів, який фізично не присутній, а віртуально створений штучним інтелектом”, — сказав прем’єр-міністр Албанії Еді Рама у промові на презентації нового складу уряду. За словами прем’єра, віртуальний міністр допоможе зробити Албанію “країною, де державні тендери на 100% вільні від корупції”. Корупція давно роз’їдає албанське суспільство, є джерелом політичних скандалів і навіть стала однією з перешкод на шляху країни до членства в ЄС. Але спокуса замінити неідеальних політиків штучним інтелектом відкриває нову і небезпечну сторінку в історії людства.
Наразі залишається без відповіді питання: хто саме керуватиме «новим міністром» і хто відповідатиме за нагляд за роботою міністра-нейромережі, зважаючи на те, що завжди існують ризики програмного маніпулювання роботою ШІ.
Новий міністр-ШІ Дієлла створена на початку року як віртуальний помічник на платформі e-Albania, де вона допомагає громадянам отримувати державні документи. Бот має власний аватар у вигляді одягненої в традиційний албанський одяг жінки. Примітно, що албанські громадяни скептично налаштовані щодо здатності бота подолати державну корупцію.
Але експеримент, розпочатий в Албанії може легко поширитися на інші країни, де є проблеми з корупцією, гостра політична боротьба та чимало невдоволеної молоді зі смартфонами.
Додатковим аргументом популістів та малоосвічених й безвідповідальних громадян може стати ідея, що політики та міністри дорого обходяться країні, тож давайте зекономимо бюджет і поставимо на частину посад ШІ. Ідея може бути «на ура» сприйнята протестним електоратом, молоддю, втомленими від корупції та розчарованими громадянами. Ідея може бути втілена за умов широкої інформаційної кампанії в соцмережах, котру можуть оплатити зацікавлені сили ( в тому числі й деструктивні сили з-за кордону).
Чим небезпечний Штучний Інтелект у політиці?
Покладатися на поради штучного інтелекту (ШІ) у політичних питаннях небезпечно через низку причин, зокрема:
- Сліди упередженості. ШІ навчається на даних, які можуть містити історичні, культурні або соціальні упередження. Якщо дані для навчання відображають певні політичні погляди, або ж були зібрані з упереджених джерел, то і модель ШІ буде їх відтворювати. Наприклад, аналіз ШІ, що базується на даних з однієї політичної партії, ймовірно, буде віддавати перевагу її ідеології, ігноруючи аргументи опонентів. Це робить ШІ інструментом для поширення дезінформації або маніпуляції громадською думкою, а не об’єктивним джерелом інформації.
- Можливість маніпуляцій. Алгоритми можна налаштувати або навмисно викривити. Якщо ШІ створено чи контролюється політичними гравцями, він може приховано просувати певні партії чи кандидатів, маскуватися під «нейтральний» голос розуму, але фактично діяти як інструмент пропаганди.
- Відсутність власної відповідальності. ШІ не несе політичної чи моральної відповідальності за наслідки своїх рекомендацій. Людина може зробити помилку й понести політичну чи репутаційну відповідальність, а алгоритм — ні. Тому його «поради» не мають етичної ваги.
- Відсутність етичного та морального розуміння. Політика — це не лише економічні чи правові розрахунки, а й моральні вибори, цінності, відчуття справедливості. ШІ не має власних цінностей і не здатен відчути людський досвід, тому його поради в таких сферах будуть холодними та спрощеними. ШІ є алгоритмом, який не має свідомості, емоцій, моральних принципів чи особистих цінностей. Політичні рішення часто вимагають розуміння складних етичних дилем, співчуття, компромісів і усвідомлення наслідків для реальних людей. ШІ може запропонувати “найефективніше” рішення з точки зору математичної моделі, але це рішення може бути морально неприйнятним або мати серйозні негативні соціальні наслідки.
- Нездатність враховувати контекст. ШІ не розуміє реальності так, як людина, а лише обробляє тексти чи числа. Моделі ШІ спираються на інформацію, яку було використано для їх навчання. Якщо в цих даних є пропаганда або фейкові матеріали, алгоритм відтворюватиме їх.
Політичні ситуації надзвичайно динамічні й складні, вони залежать від безлічі факторів, що постійно змінюються: економічні умови, міжнародні відносини, суспільні настрої. ШІ, базуючись на минулих даних, може не встигати за цими змінами або не здатний адекватно їх інтерпретувати. Він не може відчувати настрої виборців, розуміти підтекст політичних заяв, або передбачати непередбачувані події, такі як, наприклад, стихійні лиха чи терористичні акти, які можуть кардинально змінити політичний ландшафт. ШІ може виявити кореляцію між явищами, але не завжди може встановити складні причинно-наслідкові зв’язки та пояснити, чому щось відбувається.
Штучний інтелект має схильність до генерації правдоподібних, але неточних відповідей. ШІ може створювати логічні на вигляд пояснення, які фактично містять помилки. Для політики це особливо небезпечно: вигадані «факти» або неточності можуть впливати на вибір виборців.
ШІ може глибоко помилятися
Штучний інтелект не може давати об’єктивні поради щодо питань, що стосуються прав людини, людської рівності, оскільки його відповіді можуть бути упередженими через нечутливість до соціального контексту.
ШІ може радити «оптимального кандидата» на основі ваших інтересів, але це буде втручання у свободу вибору. Такі рекомендації ризикують стати прихованим політичним маркетингом. Власники ШІ-корпорацій можуть почати за гроші налаштовувати ШІ під замовлення політичних клієнтів.
До прикладу – наступні вибори в Україні будуть настільки важливою геополітичною подією глобального масштабу, що на них намагатимуться вплинути всі великі держави. Тож спокуса звернутися до корпорацій, які перебувають на їхній території задля впливу на українських виборців буде дуже великою.
Хоча ШІ може аналізувати дані для надання персональних рекомендацій (наприклад, щодо товарів), він не може зрозуміти унікальні особисті переживання чи життєвий досвід людини. Відповіді можуть бути шаблонними, не враховуючи нюансів. Тому не слід серйозно сприймати персоналізовані поради від ШІ.
В геополітиці та міжнародних відносинах ШІ часто орієнтується надто спрощено. Він може не враховувати «закулісні» домовленості, реальні інтереси держав чи культурні нюанси, бо ці аспекти не завжди відображені у відкритих джерелах.
ШІ може будувати прогнози на базі статистики, але він не здатен передбачити політичні кризи, війни чи рішення окремих лідерів, які радикально змінюють ситуацію.
Штучний інтелект може бути допоміжним інструментом у політичній сфері, але він не повинен перетворюватися на «радника з виборів». Його корисно використовувати для аналізу джерел, пошуку різних аргументів і фактів, але остаточне рішення повинна приймати людина, керуючись власними цінностями, критичним мисленням і відповідальністю перед суспільством.
Автор: Валерій Майданюк
Залишити відповідь