Штучний інтелект убив інопланетян — вчені висунули моторошну теорію

Ми не можемо знайти інопланетні цивілізації і, можливо, у всьому винен ШІ

Штучний інтелект вже міцно зайняв своє місце в житті людей, і допомагає відповідати на складні питання, створювати зображення і, теоретично, навіть дозволить поспілкуватися з домашніми тваринами. Однак не виключено, що саме він стане для людини тією непереборною перешкодою, яка не дозволить їй стати міжзоряною цивілізацією.

Таке припущення висловлено у статті Майкла Гарретта з факультету фізики та астрономії університету Манчестера. Вона оприлюднена у науковому журналі Acta Astronautica.

“Без практичного регулювання є всі підстави вважати, що ШІ може становити серйозну загрозу майбутньому розвитку не лише нашої технічної цивілізації, а й усіх можливих цивілізацій”, — каже автор матеріалу.

Так згідно з парадоксом Фермі за наявності всіх умов для розвитку безлічі цивілізацій у всесвіті, ми не можемо знайти жодної. Це підштовхнуло британського футуролога Робіна Хенсона ще в 1996 році висунути гіпотезу Великого фільтра, згідно з якою вид має пройти низку еволюційних кроків, перш ніж побудувати міжзоряну цивілізацію, проте існування цього виду зазвичай закінчується на одному з цих кроків. Але оскільки людство вже перебуває на останньому кроці перед колонізацією космосу, то він припустив, що нам доведеться в майбутньому зіткнутися з перешкодою, яка це зробити не дозволить. До цього може належати ядерна війна, глобальна зміна клімату, масштабні епідемії чи інше.

У своїй новій статті Майкл Гаррет припустив, що таким фільтром для людства та інших потенційних космічних цивілізацій може стати штучний інтелект, який може розвинутись у штучний надінтелект (ШНІ).

Автор статті зазначив, що поки що людство сильно відстає у колонізації космосу в порівнянні з розвитком систем ШІ, оскільки у нього на відміну від нас немає біологічних обмежувачів. Тому є побоювання, що він незабаром стане настільки розвиненим, що людство виявиться нездатним з ним упоратися. І особливо небезпечним це стає на тлі того, що, напевно, багато країн спробують його використати проти інших.

“Це особливо актуально в таких галузях, як національна безпека та оборона, де відповідальний та етичний розвиток повинен мати першорядне значення”— пише Гаррет.

Однак він зазначає, що жоден уряд світу нині не має жодних норм, що нормують його застосування, оскільки нічого подібного раніше у людства просто не було.

“Досягнувши технологічної сингулярності, системи ШНІ швидко перевершать біологічний інтелект і розвиватимуться зі швидкістю, яка повністю випереджає традиційні механізми нагляду. Це призведе до непередбачених наслідків, які навряд чи будуть відповідати біологічним інтересам, чи етиці”, — пише він.

За його словами, ШНІ може зрозуміти, що йому не потрібне біологічне життя, яке стримує його розвиток і придумати спосіб його позбутися. Наприклад, вигадавши вірус, який вразить запаси їжі, викличе аварії на атомних електростанціях чи розв’яже війни між народами.

Оскільки людство перебуває у подібній ситуації, то не можна виключати, що подібне може повторитися і з будь-якою іншою можливою цивілізацією у всесвіті. Поява ШІ, а потім і ШНІ може стати неминучим явищем, що зробить його цілком ймовірним кандидатом на роль Великого фільтра.

Як повідомлялося раніше, вчені оцінили, що шанси на те, що ШІ знищить людство в найближчі п’ять років, становлять не більше 5%.

Previous post Завдання з ПДР – яке авто в цій ситуації проїде першим
Next post Протягом доби на фронті зафіксовано 47 бойових зіткнень – зведення Генштабу ЗСУ