С одной стороны, казаки с хоругвями, запреты абортов и голых вечеринок в частных клубах, с другой — выглядящие фантастическими истории об искусственном интеллекте (ИИ), который заменяет целые рекламные агентства, пишет статьи для мировых СМИ и диссертации для студентов ведущих вузов и, наконец, — и это уже совсем разрыв консервативной матрицы нашей нынешней общественной жизни, — заменяет живых людей, например, в поиске их второй половинки. И тут уже впору вспомнить о трех законах робототехники, сформулированных американским писателем-фантастом Айзеком Азимовым в далеком 1942 году. Потому что то, как все чаще используется ИИ, пугает и заставляет думать если и не о Скайнете из «Терминатора», то о вполне реальном Даркнете.
Но обо всем по порядку. Уже несколько дней россияне, и уже не только они, обсуждают удивительную и футуристичную историю непростого парня из Москвы Александра Жадана, который с помощью особых настроек чат-бота ChatGPT решил подобрать себе невесту. О чем он сам и рассказал в одной из запрещенных в РФ, но активно используемых ее гражданами соцсетей (еще один пример поразительного противоречия установок в общественной жизни страны). Если кто-то еще вдруг не слышал эту историю, вот ее короткое изложение: программер средней руки (закончил гуманитарный вуз) еще в 2022 году, используя американскую программу GPT-3 (это еще не всем известная ChatGPT, которая пишет курсовые и диссертации и уже чуть ли не книги, а ее предшественница с довольно посредственными возможностями), создал алгоритм общения с девушками из Москвы в разных службах знакомств, например, в Tinder (ныне покинувшем Россию).
ИИ за господина Жадана переписывался с потенциальными объектами его любви, но сильно косячил, и девушки отказывались от продолжения нежной болтовни в виртуальном пространстве. Однако затем Жадан донастроил алгоритм, добавив в него свои реальные переписки и ответы на некоторые вопросы своей бывшей девушки, затем перешел уже на следующую версию программы — ChatGPT, и — о чудо! — процесс пошел. Нейросеть перебрала больше 5 тыс. соискательниц, с несколькими десятками отобранных девушек компьютерный гений даже встретился в кафе (о потраченных на это средствах он скрупулезно отчитался в упомянутом выше посте в запрещенной соцсети), после чего юноша вместе с соцсетью (или наоборот) остановился на одной даме сердца, с которой сейчас и живет.
Эта поразительная история всколыхнула Рунет и разлетелась уже по всему миру, хотя тут же нашлись и хейтеры из числа программеров, реально работающих с обучением нейросетей. Последние доказывают, что Жадан скорее талантливый пиарщик, чем программист, потому что в описанные им сроки настолько серьезно обучить ИИ одному человеку не представляется возможным. Кроме того, парень решительно отказывается предоставить кому-либо, в т. ч. за деньги, свой удивительный алгоритм, потому что-де в нем много личного. При этом Жадан не скрывает, что заработал большие деньги на совместной работе с агентствами знакомств, то есть, по сути, с его стороны это может быть просто рекламным трюком, который невозможно подтвердить или опровергнуть. Однако всегда приятнее верить в лучшие стороны человека и чудеса, явленные ИИ, ведь на дворе 21 век (хотя на задворках в лучшем случае 19-й).
Кроме того, нетрудно прийти к мысли, что милая любовная операция Жадана — все же не столько демонстрация техногения москвича, сколько публично раскрытая афера, в результате которой обманутыми оказались более 5 тыс. девушек. Они были цинично использованы в чужой игре, за что перед ними даже не извинились. Это еще не преступление, но уже создание условий для его возможной подготовки. Ведь доверчивых соискательниц любви г-на Жадана можно раскрутить на что угодно, используя информацию о них, полученную в общении с ИИ.
Между тем, если проанализировать происходящее в сфере самообучаемых нейросетей за последний год, то лучше бы г-ну Жадану оказаться действительно пиарщиком и шарлатаном. В противном случае наше будущее представляется даже не страшным, а ужасным. Страшно — это когда тебе звонит мама и радостно сообщает, что отдала неизвестно кому все свои сбережения, чтобы отмазать тебя от тюрьмы за ДТП, которого, естственно, не было. К этой новой реальности мы уже начинаем привыкать, даже посмеиваемся над ней, пока под разводку не попадают близкие нам люди. Это называется «социальная инженерия». Но подумайте, что будет, если вам, такому продвинутому и умному, позвонит ваш родственник, и по видеосвязи вы его не отличите от настоящего. Он будет говорить голосом вашего родственника, вспоминать общих друзей и знакомых, очень естественно и органично излагать обстоятельства случившейся с ним беды. Вы откажите ему в деньгах? И да, это будет «социальная инженерия 2.0». Вот это уже будет настоящий ужас, когда реальность станет неотличимой до степени смешения от ее виртуальной копии.
Думаете, это фантазии? Летом прошлого года ЛДПР в Москве презентовала нейросеть «Жириновский», которая поразила бывалых столичных журналистов реальностью имитации манеры общения покойного эксцентричного лидера либерал-демократов — ругала Зюганова, призывала защищать русских, прогнозировала длительность СВО и все в таком духе. Возникало ощущение, что с вами из могилы говорит сам Жириновский. В ноябре прошлого года пресс-секретарь российского президента Дмитрий Песков после ознакомления с нейросетевой моделью «Сбера» GigaChat не исключил, что искусственный интеллект мог бы заменить его на брифингах в Кремле. Так что, если вы сейчас читаете в СМИ ежедневные ответы Пескова, вспомните об этом.
Но виртуальные Жириновский и Песков (а может, кто и повыше рангом, и это ответ на разные странности в поведении на телекартинке первого лица, о чем судачат в соцсетях и западных СМИ) — это прикольно и мило. Есть и другие истории. Так, нейросеть Lisa AI сгенерировала голос и лицо голливудской актрисы Скарлетт Йоханссон ради раскрутки мобильного приложения. То же случилось и с Томом Хэнксом. «Дипфейк» входит в реальную жизнь и становится предметом рассмотрения в судах. Известно, насколько популярным стало это явление в порноиндустрии.
А теперь давайте представим, что какие-то радикалы подделают внешность, например, президента Байдена, и отправят видеопослание лидеру КНДР Ким Чен Ыну с объявлением войны? Или та же нейросеть сама решит устроить Армагеддон на планете? Если вы думаете, что ИИ не может двуличничать и лгать, то ошибаетесь, и тому очень много примеров. Один из них: американский юрист Стивен А. Шварц стал жертвой обмана со стороны ChatGPT. В деле против колумбийской авиакомпании Avianca адвокат представил суду несколько похожих судебных историй, как оказалось, выдуманных нейросетью. Понятно, что суд Шварцем был проигран. Кстати, в этом году ожидается использование нейросети в «Госуслугах». Запасаемся попкорном и листаем судебную хронику.
В общем, история мелкого обмана в Москве с помощью «главной» нейросети в мире легко предполагает его повторение на более крупном уровне, вплоть до экзистенциального для человечества. И именно сейчас пора вспомнить о законах Айзека Азимова, первый и главный из которых гласил: «Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред». Но не расколотый же СБ ООН будет утверждать сегодня такие общемировые законы! Так что готовимся к худшему: на выходе новая версия ChatGPT, которая, по сливам ее рядовых разработчиков в мировых СМИ, несет смертельную грозу человечеству.
Николай Ульянов