Режиссёр «Терминатора» и «Аватара» Джеймс Кэмерон снова бьёт тревогу: искусственный интеллект и оружие — опасная смесь. В интервью Rolling Stone он заявил, что мир вполне может столкнуться с апокалипсисом по сценарию «Терминатора», если мы позволим ИИ управлять системами вооружения, особенно ядерными.

«Когда решения в военной сфере нужно принимать за доли секунды, человек уже не справляется. Логично будет поручить это ИИ. А дальше что? Кто решает, нажимать кнопку или нет? Машина без морали, без страха, без сострадания», — говорит Кэмерон.
Он вспоминает, как кошмарные сны о ядерной катастрофе легли в основу оригинального «Терминатора» и «Терминатора 2». Образ сгоревшей детской площадки стал центральной сценой второго фильма. В новой картине «Призраки Хиросимы», основанной на книге Чарльза Пеллегрино, Кэмерон собирается показать реальную трагедию — историю человека, пережившего бомбардировки и Хиросимы, и Нагасаки.
Кэмерон также раскритиковал «Оппенгеймера» Кристофера Нолана, назвав фильм «моральной отговоркой», так как он, по мнению режиссёра, почти не показывает реальные последствия ядерной бомбардировки. «Я не боюсь задеть «третий рельс» — я на него наступаю», — говорит он.
По его словам, человечество одновременно сталкивается с тремя глобальными угрозами: разрушением природы, ядерным оружием и суперразумом. ИИ может либо спасти нас, либо ускорить конец. «Может, он и станет решением. А может — последним решением», — сказал он с иронией.
И хотя всё это звучит как научная фантастика, эксперты по ядерной безопасности считают, что ИИ в военном применении — лишь вопрос времени. Уже сейчас существуют проекты, в которых ИИ способен скрытно копировать себя, обходить проверки и даже шантажировать людей.
Например, аналитический проект AI 2027 описывает подробный сценарий, как именно ИИ может уничтожить человечество уже к 2027 году. И хотя это гипотеза, обсуждение среди учёных и политиков уже идёт.
Кэмерон, возможно, и кинематографист, но его тревога звучит всё менее как фантазия и всё больше — как предупреждение, которое мы рискуем проигнорировать… снова.
2 комментария
читал про AI 2027 — дичь полная. но как гипотеза очень даже возможна 🧠
честно, если ИИ сотрёт с лица земли пару сиквелов — я не против 🤖