Искусственный интеллект, IT-гиганты и технологии, меняющие сознание
Угроза использования ИИ в деструктивных целях исходит не только от злоумышленников, но и от технологических IT-гигантов Запада
В Госдуму РФ внесён законопроект, предлагающий считать использование искусственного интеллекта (ИИ) в преступных целях отягчающим обстоятельством. Депутаты от фракции «Справедливая Россия — За правду» предложили считать использование ИИ в преступлениях отягчающим обстоятельством и включить соответствующее положение в статью 63 УК РФ.
По мнению думцев, инициатива направлена на усиление защиты граждан России, особенно с учётом роста мошенничества с применением дипфейков. То есть речь идет в основном о сфере внутренней безопасности общества. Однако данный законопроект можно рассматривать и в контексте решения задачи обеспечения внешней защиты общества в целом от соответствующего воздействия.
Сегодня угроза использования ИИ в деструктивных целях исходит не только от злоумышленников, но и от самих технологических IT-гигантов Запада. Причем их представители зачастую этого даже не скрывают. Разве что объясняют причины не злым умыслом, а «непониманием назначения». В настоящее время создание AGI (т. н. искусственного интеллекта общего назначения) остаётся главной целью лидеров ИИ-индустрии, таких как Сэм Альтман и Демис Хассабис. Однако гонка за AGI привела к коммерциализации, смещая фокус с общественной пользы к корпоративным интересам.
При этом по словам аналитиков , даже сами разработчики AGI расходятся в его определении: одни считают, что он должен соответствовать человеческому уровню интеллекта, другие — превзойти его. Сроки его появления варьируются от нескольких лет до десятилетий, но последствия «остаются неопределёнными».
Кроме того, несмотря на свое стремительное развитие, ИИ уже стал делиться в киплинговском духе на «Запад» и «Восток», представленные сегодня двумя популярными языковыми моделями: и . Хотя обе эти модели предназначены для понимания и создания текста, похожего на человеческий, их подходы и возможности уже значительно различаются. , разработанный на Западе компанией , известен своими диалоговыми способностями и широким спектром применения. В то же время DeepSeek, разработанный на Востоке китайской компанией, специализирующейся на ИИ, становится конкурентом, ориентированным на эффективность и технические характеристики.
Тем временем скептики и критики утверждают, что стремление технологических IT-гигантов как Запада, так и Востока к AGI – без чёткого понимания его назначения – может привести к непредвиденным последствиям, включая использование в преступных целях. Действительно нынешняя гонка за AGI — это борьба не за прогресс человечества, а за рынок. И это в самом лучшем для людей случае! Как следствие, многие исследователи на Западе уже призывают IT-компании «отказаться от туманной риторики и учитывать мнение общества, чтобы избежать повторения ошибок прошлого, когда технологический прогресс выходил из-под контроля».
При этом угрозы, исходящие от «борьбы за рынки» технологических гигантов, зачастую даже более опасны для общества в целом, чем использование ИИ обычными преступниками. Пример: запрещенная в РФ Meta (Facebook) Цукерберга, конечная цель AGI которой – монетизация всего человеческого поведения. Использование данных для манипулирования человеческим поведением всегда было бизнес-моделью Facebook. Метавселенная также изначально не скрывает, что не будет отличаться от этого.
Другой пример: уже в этом, 2025 году в руках специалистов по PR, рекламе и маркетингу могут появиться ИИ-модели, генерирующие суперстимулы для мозга. Проще говоря, берущие на вооружение инструментарий, благодаря которому рекламные сообщения могут «проникать» в мозг человека, минуя сознание.
Маркетологи российского Альфа-Банка уже рассказывают в своих интернет-пабликах о соответствующих опытах исследователей Массачусетского технологического института (США), поместивших в аппарат МРТ самозваного «популяризатора науки из РФ» Илью Колмановского. Подопытному зачитывали сотни фраз и наблюдали, как реагирует его мозг. Какие-то фразы воспринимались спокойно, а какие-то вызывали «взрыв» – при их обработке мозг потреблял в 2-3 раза больше глюкозы и кислорода. Эти фразы и есть речевые суперстимулы, сгенерированные/«придуманные» искусственным интеллектом.
Выяснилось, что использованная американскими специалистами из Массачусетса ИИ-модель теоретически способна формулировать рекламные и прочие слоганы так, чтобы они «не выходили из голов» подопытных. Как детские стишки или считалочки, которые запоминаются на много лет. Что будет дальше, догадаться несложно. Появятся ИИ-модели, способные адресно и точечно влиять на области мозга, отвечающие за эмоции и мотивацию.
Как следствие, реклама с «дофаминовой бомбой» – ближайшее будущее общества. Ее создатели способны очень быстро обрести власть и контроль над умами широких масс. Утешать себя тем, что это произойдет ненадолго, не стоит. Действительно, мозг способен приспосабливаться к почти любым суперстимулам – через механизмы нейропластичности: что будоражило ещё вчера, сегодня – обыденность. Но в таком случает техногиганты и их специалисты могут просто заново обучать ИИ-модели – раз за разом. Одновременно совершенствуя и укрепляя контроль над сознанием людей.
В данном контексте стоит напомнить о многочисленных патентах на технологии, изменяющие сознание, достаточно подробная информация о которых имеется, например, на сайте IT-гиганта GOOGLE. В связи с этим исследователи, обеспокоенные опасностью исходящей от возможности использования ИИ в преступных целях, уже отметили такой парадокс: если какой-либо безумный преступник изобретает метод уничтожения или порабощения чего-либо, будь то экосистема, живое существо, человек или социум, глубоко разложившаяся цивилизация Запада патентует этот метод, охраняет его и поддерживает изобретение, как исследование, достойное рассмотрения, защиты и разглашения!
Вот лишь некоторые примеры из серии патентов, популяризируемых уже не первый год корпорацией GOOGLE, даже заголовки которых явно вызывают беспокойство и говорят сами за себя: Патенты на изменение сознания, Метод изменения поведения человека, Патенты на создание подсознательных сообщений, Патенты на подсознательные акустические манипуляции с нервной системой.
А ведь генеративный искусственный интеллект (прежде всего – нейросети, способные создавать тексты, изображения, видео и аудио, имитируя человека) – это принципиально новая технология, способная собирать и обобщать буквально по щелчку компьютерной мышки колоссальный объем знаний из интернета, включая изложенный в этих патентах. Его влияние уже ощущается во всем мире – от школ до советов директоров, от лабораторий до «каменных джунглей» мегаполисов.
Оглядываясь назад, чтобы заглянуть вперёд, нужно дать ответ на вопрос, сумеет ли генеративный ИИ изменить практики работы со знанием и к чему это приведёт: к улучшению человеческого знания – либо наоборот? Ведь прямой перенос знания и навыков не через подражание или многократное повторение после нудных разъяснений, а через «впечатывание» навыка непосредственно в сознание и в ту специфическую часть памяти, которую академик И.П. Павлов назвал «памятью мышц», – это реальность.
Более того, как отмечают исследователи, это один из самых древних способов передачи знаний и навыков. Как иначе мог гомо хабелиус (человек умелый) передавать знания внутри племени-прайда? Особенно в те времена, когда человеческая речь еще не развилась до уровня трансляции абстрактных понятий, а на тренинг-обучение и совершенствование навыка не было времени (грубо говоря, если бы все в первобытном племени обучались правильно затачивать кремниевое орудие, подобно тому, как это делают в современных школах, половина просто умерла бы с голоду).
Этот метод воздействия и программирования умов посредством передачи в них информации непосредственно, минуя структуры человеческого сознания, многократно повышает скорость обучения. И в то же время запрограммированное им «срабатывает» в нужную минуту в сто раз быстрее того, что приобретено по классической схеме обучения: «знание – умение – навык». В древности использованию подобных методов благоприятствовало то, что человеческое сознание было слабо развито, а в наше время – что оно зашлаковано информационным мусором. Общеизвестно, что, когда «знаков» (информационных посылов) слишком много, люди перестают разбираться в их смыслах.
Однако в последнее время объем информации растет стремительно. Вместе с развитием «инфраструктуры» по ее доставке и соответствующим инструментарием обработки. При этом человеческий мозг, по сути, остается тем же, что и столетия и даже тысячелетия назад. Где истина понять ему становится все труднее и труднее. Сама же информация зачастую просто перестает восприниматься – мозг не способен обработать и проанализировать такой объём. Информация перестает восприниматься и начинает просто потребляться.
Более того, зачастую люди начинают потреблять всё без разбора. Либо превращаются в обезличенную массу, представляющую собой (по Ж. Бодрийяру) молчаливое большинство, безликую толпу, за которую все решают «сильные мира сего». Одновременно с этим осложняется целостность восприятия реальности, ведь в условиях огромного объема информации между мышлением и действиями человека встают ИИ-технологии и IT-гиганты подобные GOOGLE и META*, которые отделяют одно от другого, и именно эта ситуация становится идеальной средой для манипуляции и управления человеком.