logo Что по осям

Статистика и прагматика «сильного ИИ». Одурение эпигонов

Всем ‎привет,‏ ‎будущие ‎рабы ‎ИИ!

Мне ‎кто-то ‎из‏ ‎читателей ‎как-то‏ ‎пенял,‏ ‎что ‎не ‎надо‏ ‎всё ‎время‏ ‎писать ‎так, ‎вообще, ‎о‏ ‎вечном,‏ ‎а ‎нужно‏ ‎же ‎и‏ ‎об ‎актуальном. ‎Вот ‎как ‎раз‏ ‎подоспела‏ ‎супер-актуальная ‎тема:‏ ‎о ‎«генеральном‏ ‎ИИ».

Я ‎был ‎два ‎дня ‎на‏ ‎ПМЭФ‏ ‎(по‏ ‎приглашению ‎МИДа‏ ‎на ‎их‏ ‎секцию, ‎сам‏ ‎бы‏ ‎я ‎не‏ ‎стал ‎платить ‎полтора ‎ляма ‎за‏ ‎пару ‎дней‏ ‎на‏ ‎ярмарке ‎тщеславия ‎и‏ ‎прогулки ‎по‏ ‎променаду ‎«Я-в-обойме»).

Там ‎я ‎участвовал‏ ‎в‏ ‎секции ‎МИД‏ ‎про ‎регулирование‏ ‎ИИ, ‎а ‎также ‎ходил ‎на‏ ‎разные‏ ‎профильные ‎секции‏ ‎«по ‎ИТ»,‏ ‎опять ‎же ‎про ‎ИИ, ‎про‏ ‎биометрию‏ ‎(тоже‏ ‎ИИ) ‎и‏ ‎так ‎далее.‏ ‎Дал ‎интервью‏ ‎ТАСС‏ ‎— ‎опять‏ ‎же ‎разговор ‎про ‎цифровизацию ‎и‏ ‎ИИ.

У ‎меня‏ ‎сложилось‏ ‎впечатление, ‎что ‎не‏ ‎только ‎на‏ ‎этих ‎секциях, ‎а ‎практически‏ ‎на‏ ‎любой ‎обязательно‏ ‎говорили ‎про‏ ‎ИИ. ‎В ‎том ‎числе ‎на‏ ‎пленарке‏ ‎(хотя ‎я‏ ‎часть ‎её‏ ‎проспал ‎в ‎кресле ‎перед ‎большим‏ ‎экраном‏ ‎на‏ ‎площадке ‎прессы).

Это‏ ‎понятно: ‎мы‏ ‎уже ‎год‏ ‎находимся‏ ‎внутри ‎пузыря‏ ‎ИИ, ‎идёт ‎бешеная ‎накрутка ‎темы‏ ‎изо ‎всех‏ ‎стволов,‏ ‎причём ‎в ‎основном‏ ‎теми, ‎кто‏ ‎и ‎знать ‎толком ‎не‏ ‎знает,‏ ‎что ‎это.

Но‏ ‎есть ‎особая,‏ ‎очень ‎свежая ‎тема: ‎выдающийся ‎труд‏ ‎Леопольда‏ ‎Ашенбреннера ‎о‏ ‎ближайшем ‎приходе‏ ‎Сильного ‎ИИ ‎и ‎Супер-ИИ.

Это ‎какой-то‏ ‎чувак,‏ ‎работавший‏ ‎в ‎OpenAI,‏ ‎а ‎потом,‏ ‎видимо, ‎открывший‏ ‎какую-то‏ ‎свою ‎контору‏ ‎или ‎чисто ‎сайт ‎под ‎названием‏ ‎Situational ‎Awareness. Это‏ ‎тоже,‏ ‎видимо, ‎какое-то ‎модное‏ ‎шумовое ‎слово.

Он‏ ‎наслесарил ‎165 страниц ‎писанины ‎про‏ ‎«Общий‏ ‎ИИ» — осторожно, ‎по‏ ‎ссылке ‎сразу‏ ‎прилетает ‎этот ‎нетленный ‎TL-DR. ‎Можно‏ ‎и‏ ‎с ‎сайта‏ ‎прочитать, ‎по‏ ‎ссылке ‎выше.

AGI ‎((General ‎Artificial ‎Intelligence)‏ ‎—‏ ‎так‏ ‎теперь ‎называется‏ ‎«Сильный ‎ИИ»,‏ ‎слегка ‎себя‏ ‎скомпрометировавший‏ ‎ранее ‎(он‏ ‎не ‎пришёл ‎в ‎объявленные ‎сроки,‏ ‎но ‎говорить‏ ‎об‏ ‎этом ‎некрасиво). ‎А‏ ‎также ‎он‏ ‎написал ‎и ‎про ‎ASI‏ ‎(Artificial‏ ‎Superintelligence) ‎—‏ ‎Супер-ИИ, ‎который‏ ‎неизбежно придёт ‎на ‎смену ‎Сильному ‎ИИ.

Все‏ ‎у‏ ‎нас ‎тут‏ ‎же ‎начали‏ ‎эту ‎писанину ‎бешено ‎цитировать. ‎И‏ ‎дело‏ ‎тут‏ ‎не ‎только‏ ‎в ‎том,‏ ‎что ‎он‏ ‎где-то‏ ‎там ‎работал,‏ ‎известен ‎или ‎написал ‎что-то ‎очень‏ ‎содержательное.

Дело ‎во‏ ‎вторичности‏ ‎наших ‎СМИ ‎(я‏ ‎об ‎этом‏ ‎уже ‎писал), ‎и ‎во‏ ‎вторичности,‏ ‎эпигонстве ‎наших‏ ‎«евангелистов ‎ИИ»‏ ‎из ‎«цифровых ‎платформ» ‎и ‎«экосистем».‏ ‎Эти‏ ‎«евангелисты» ‎просто‏ ‎переводят ‎Гуглом‏ ‎всякие ‎угарные ‎выдумки ‎из ‎Долины‏ ‎и‏ ‎некритично‏ ‎пересказывают  ‎их‏ ‎прессе ‎и‏ ‎своему ‎начальству.

А‏ ‎их‏ ‎программисты ‎копируют,‏ ‎скачивают, ‎цельнотянут ‎архитектуры, ‎модели, ‎датасеты,‏ ‎перекрашивают, ‎приклеивают‏ ‎молдинги‏ ‎и ‎шильдики, ‎«дообучают»‏ ‎и ‎выдают‏ ‎за ‎«чисто ‎свои».

Я ‎тут‏ ‎уже‏ ‎писал ‎про‏ ‎то, ‎как насквозь‏ ‎отечественные ‎бредогенераторы ‎сначала ‎«переводят ‎в‏ ‎уме»‏ ‎запрос ‎(промт)‏ ‎на ‎английский, а‏ ‎потом ‎уже ‎синтезируют ‎то, ‎что‏ ‎получилось‏ ‎—‏ ‎гайку ‎вместо‏ ‎ореха ‎и‏ ‎т. ‎п.

Про‏ ‎то,‏ ‎как ‎они‏ ‎отказываются ‎разговаривать ‎про ‎то, ‎чей‏ ‎Крым, ‎про‏ ‎СВО,‏ ‎вообще ‎несут ‎нарратив‏ ‎западной ‎«повесточки»‏ ‎в ‎массы» ‎— ‎вообще‏ ‎уже‏ ‎будет ‎в‏ ‎сотый ‎раз.‏ ‎Почему, ‎казалось ‎бы.

Ну ‎и ‎вот‏ ‎представьте:‏ ‎вы ‎всегда‏ ‎пересказывали ‎«ИИ-нарративы»‏ ‎из ‎Долины. ‎И ‎тут ‎приезжает‏ ‎с‏ ‎пылу‏ ‎с ‎жару‏ ‎новый ‎угарный‏ ‎эпохальный ‎нарратив‏ ‎про‏ ‎ИИ ‎от‏ ‎уважаемого ‎человека.

Ну, ‎надо ‎срочно ‎пересказывать,‏ ‎а ‎что‏ ‎ж‏ ‎ещё? ‎И ‎самое‏ ‎главное ‎—‏ ‎успевай ‎пересказывать ‎первым, это ‎обязательное‏ ‎требование!

Я‏ ‎лично ‎слышал‏ ‎ссылки ‎на‏ ‎эту ‎писанину ‎из ‎уст ‎практически‏ ‎всех‏ ‎выступающих ‎на‏ ‎ПМЭФе ‎про‏ ‎ИИ.

Александр ‎Александрович ‎Ведяхин ‎— ‎главный‏ ‎ИИ-оракул‏ ‎Сбербанка‏ ‎в ‎ранге‏ ‎вице-президента, ‎прямо‏ ‎сказал: ‎«вот‏ ‎очень‏ ‎важный ‎документ,‏ ‎мы ‎его ‎внимательно ‎изучили, ‎приняли‏ ‎во ‎внимание,‏ ‎перестраиваем‏ ‎работу». ‎Типа, ‎мы‏ ‎тоже ‎считаем‏ ‎основным ‎риском ‎появление ‎Супер-ИИ!

Ведяхин‏ ‎при‏ ‎этом ‎уже‏ ‎несколько ‎лет‏ ‎во ‎всех ‎собраниях ‎— ‎где‏ ‎ему‏ ‎неизменно ‎дают‏ ‎первое ‎слово‏ ‎(Сбербанк ‎же, ‎национальный ‎лидер ‎ИИ)‏  ‎—‏ ‎говорит,‏ ‎что ‎ИИ‏ ‎давно ‎превзошёл‏ ‎человека.

И ‎Андрей‏ ‎Незнамов‏ ‎— ‎говорящая‏ ‎голова ‎Сбербанка ‎про ‎ИИ ‎—‏ ‎тоже ‎писанину‏ ‎Ашенбреннера‏ ‎упоминал. ‎Другие ‎её‏ ‎тоже ‎поминали,‏ ‎но ‎банк ‎старается ‎захватить‏ ‎дискурс‏ ‎ИИ ‎в‏ ‎РФ, ‎забрать‏ ‎его ‎под ‎себя, ‎поэтому ‎они‏ ‎стремятся‏ ‎быть ‎первыми‏ ‎пересказывающими, ‎переводчиками‏ ‎сокровенного ‎знания ‎для ‎русских ‎начальников.

А‏ ‎вот‏ ‎главный‏ ‎по ‎ИИ‏ ‎в ‎Яндексе‏ ‎Саша ‎Крайнов‏  ‎—‏ ‎ещё ‎не‏ ‎читал ‎великое ‎произведение, ‎в ‎своей,‏ ‎казалось ‎бы,‏ ‎профессиональной‏ ‎области. ‎Это ‎довольно‏ ‎показательно. ‎Он,‏ ‎видимо, ‎делом ‎занимается.

И ‎что‏ ‎же‏ ‎там ‎пишет‏ ‎Ашенбреннер?

Вот ‎оглавление,‏ ‎из ‎которого ‎уже ‎многое ‎понятно:

  • I.‏ ‎From‏ ‎GPT-4 ‎to‏ ‎AGI: ‎Counting‏ ‎the ‎OOMs
  • II. ‎From ‎AGI ‎to‏ ‎Superintelligence:‏ ‎the‏ ‎Intelligence ‎Explosion
  • IIIa.‏ ‎Racing ‎to‏ ‎the ‎Trillion-Dollar‏ ‎Cluster
  • IIIb.‏ ‎Lock ‎Down‏ ‎the ‎Labs: ‎Security ‎for ‎AGI
  • IIIc.‏ ‎Superalignment
  • IIId. ‎The‏ ‎Free‏ ‎World ‎Must ‎Prevail
  • IV.‏ ‎The ‎Project
  • V.‏ ‎Parting ‎Thoughts

Пояснения:

  • AGI ‎— ‎Artificial‏ ‎General‏ ‎Intellect, ‎сильный‏ ‎ИИ, ‎сравнимый‏ ‎с ‎челвоеческим.
  • OOM ‎— ‎order ‎of‏ ‎magnitude,‏ ‎порядок ‎величин.
  • Alignment‏ ‎— ‎управление‏ ‎ИИ, ‎удерживание ‎его ‎в ‎узде;
  • ASI–‏ ‎Artificial‏ ‎Superintelligence,‏ ‎искусственный ‎суперинтеллект,‏ ‎превосходящий ‎человеческий;
  • Free‏ ‎World ‎—‏ ‎Запад.

Заметим,‏ ‎что ‎опорная‏ ‎структура ‎этого ‎виртуального ‎мира ‎этим‏ ‎конкретным ‎англосаксом‏ ‎строится‏ ‎прямо ‎на ‎уровне‏ ‎лексики, ‎как‏ ‎всегда ‎англосаксы ‎и ‎делают.‏ ‎Сначала‏ ‎наслесарить ‎виртуальных‏ ‎наклеек ‎для‏ ‎своего ‎штрикод-пистолета, ‎а ‎потом ‎начинаем‏ ‎их‏ ‎клеить ‎вокруг‏ ‎на ‎всё‏ ‎любое, ‎очередями.

А ‎бывает ‎ли ‎ИИ,‏ ‎сравнимый‏ ‎с‏ ‎человеческим? ‎Очевидно,‏ ‎нет. ‎Но‏ ‎вот ‎же‏ ‎—‏ ‎слово-то ‎уже‏ ‎есть. ‎Значит, ‎бывает. ‎Есть ‎и‏ ‎слово ‎«Супер-интеллект»!‏ ‎Вот‏ ‎же ‎— ‎мы‏ ‎же ‎его‏ ‎используем ‎же!  ‎Значит, ‎тоже‏ ‎бывает.

Свободный‏ ‎Мир ‎—‏ ‎слово ‎давно‏ ‎есть, ‎мы ‎все ‎его ‎используем,‏ ‎значит,‏ ‎он ‎реально‏ ‎свободный. ‎Это‏ ‎данность! ‎Ну ‎и ‎так ‎далее.

А‏ ‎вот‏ ‎пример‏ ‎того ‎же‏ ‎втюхивания ‎в‏ ‎виде ‎графиков:

Оказывается,‏ ‎GPT-4‏ ‎уже ‎сейчас‏ ‎имеет ‎интеллект, ‎как ‎у ‎старшего‏ ‎школьника! ‎Это‏ ‎факт‏ ‎— ‎см. ‎график. Вы‏ ‎что, ‎не‏ ‎видите, ‎что ‎на ‎графике?

При‏ ‎этом,‏ ‎конечно, ‎ничего‏ ‎подобного ‎никакой‏ ‎жопыте ‎не ‎показывает ‎— ‎да‏ ‎и‏ ‎не ‎может‏ ‎в ‎принципе.‏ ‎Но ‎график ‎же ‎вот ‎он.‏ ‎Нарисовано‏ ‎же.

Так‏ ‎делаются ‎фактоиды — для‏ ‎эпигонов ‎всех‏ ‎стран.

Примерное ‎содержание‏ ‎эпохального‏ ‎труда

Читать ‎сотни‏ ‎страниц ‎камлания ‎мучительно ‎— ‎но‏ ‎можно ‎отдать‏ ‎в‏ ‎ЖПТ ‎для ‎суммаризации.‏ ‎Многие ‎так‏ ‎и ‎сделали:

·      Появление ‎Сильного ‎ИИ‏ ‎—‏ ‎AGI ‎—‏  ‎к ‎2027‏ ‎году ‎практически ‎гарантировано.

·      AGI ‎— ‎важнейший‏ ‎геополитический‏ ‎рычаг, ‎актив.‏ ‎Это ‎новое‏ ‎супер-оружие. ‎Каждая ‎страна ‎стремится ‎первой‏ ‎заполучить‏ ‎AGI,‏ ‎как ‎когда-то‏ ‎атомную ‎бомбу.‏ ‎Неважно, ‎почему,‏ ‎нет‏ ‎времени ‎объяснять.

·      Для‏ ‎создания ‎AGI ‎потребуется ‎вычислительный ‎кластер‏ ‎стоимостью ‎триллион‏ ‎долларов.‏ ‎Такие ‎уже ‎строят‏ ‎ИТ-гиганты ‎США‏ ‎(например, ‎Микрософт). ‎Круто, ‎да?

·      Этот‏ ‎кластер‏ ‎будет ‎потреблять‏ ‎количество ‎электроэнергии,‏ ‎сравнимое ‎со ‎всем ‎потреблением ‎в‏ ‎США.‏ ‎Опа, ‎опа,‏ ‎поняли?!

·      Финансировать ‎AGI‏ ‎будут ‎ИТ-гиганты  ‎— ‎OpenAI, ‎Nvidia,‏ ‎Microsoft,‏ ‎Amazon,‏ ‎Google. ‎Они‏ ‎уже ‎закладывают‏ ‎квартальные ‎бюджеты‏ ‎по‏ ‎100 ‎миллиардов‏ ‎долларов, ‎по ‎полтриллиона ‎в ‎год.‏ ‎А ‎бабки‏ ‎же‏ ‎всё ‎решают, ‎разве‏ ‎нет?

·      К ‎2030‏ ‎году ‎ежегодные ‎инвестиции ‎в‏ ‎ИИ‏ ‎будут ‎восемь‏ ‎триллионов ‎долларов.‏ ‎Эти ‎затраты ‎и ‎изменения ‎сопоставимы‏ ‎с‏ ‎Манхэттенским ‎проектом‏ ‎и ‎Промышленной‏ ‎революцией. ‎Раз ‎сопоставимы ‎— ‎значит,‏ ‎похожи‏ ‎и‏ ‎вообще ‎неотличимы.‏ ‎Короче, ‎всё‏ ‎ж ‎уже‏ ‎ежу‏ ‎понятно.

·      AGI, ‎человеческий‏ ‎интеллект ‎в ‎машине ‎— ‎это‏ ‎промежуточная ‎стадия.‏ ‎После‏ ‎его ‎создания ‎моментально‏ ‎произойдёт ‎создание‏ ‎ASI, ‎Сверх-интеллекта. ‎AGI ‎будет‏ ‎настолько‏ ‎умён, ‎что‏ ‎начнёт ‎сам‏ ‎себя ‎развивать ‎с ‎огромной ‎скоростью.‏ ‎Это‏ ‎же ‎очевидно,‏ ‎не ‎так‏ ‎ли?

Это ‎— ‎оружие!

Ну ‎и ‎есть‏ ‎вишенка‏ ‎на‏ ‎торте:

Супер-интеллект ‎и‏ ‎Общий ‎интеллект‏ ‎— ‎это‏ ‎оружие.‏ ‎Значит, ‎США‏ ‎должны ‎бежать ‎изо ‎всех ‎сил,‏ ‎чтобы ‎получить‏ ‎AGI‏ ‎и ‎ASI ‎как‏ ‎можно ‎быстрее.‏ ‎Как ‎было ‎с ‎атомной‏ ‎бомбой.‏ ‎Бежать ‎нужно‏ ‎быстрее ‎главного‏ ‎врага ‎— ‎CCP. ‎Главная ‎угроза,‏ ‎образ‏ ‎врага ‎теперь‏  ‎— ‎CCP,‏ ‎это ‎не ‎СССР, ‎а ‎его‏ ‎идеологическая‏ ‎замена‏ ‎— ‎Chinese‏ ‎Communist ‎Party.

The‏ ‎Free ‎World‏ ‎Must‏ ‎Prevail!

It’s ‎a‏ ‎must.

Алхимик ‎при ‎маркграфе

Мария  ‎Захарова ‎на‏ ‎сессии ‎МИД‏ ‎на‏ ‎ПМЭФ ‎про ‎международное‏ ‎регулирование ‎ИИ,‏ ‎где ‎я ‎тоже ‎сидел‏ ‎в‏ ‎президиуме, ‎сказала,‏ ‎что ‎ИИ‏ ‎сейчас ‎— ‎это ‎вроде ‎алхимии.‏ ‎Такая‏ ‎алхимия ‎ИИ‏ ‎— ‎всё‏ ‎непонятно, ‎много ‎пустых ‎разговоров ‎и‏ ‎обещаний‏ ‎магии,‏ ‎никто ‎не‏ ‎понимает, ‎как‏ ‎это ‎работает,‏ ‎а‏ ‎потом ‎из‏ ‎этого ‎может ‎что-то ‎получиться, ‎как‏ ‎из ‎алхимии‏ ‎получились‏ ‎физика ‎и ‎химия.

Мысль‏ ‎про ‎сходство‏ ‎— ‎в ‎целом ‎правильная,‏ ‎но‏ ‎требует ‎уточнений.‏ ‎Я ‎там‏ ‎не ‎стал ‎возражать ‎(хотя ‎Крайнов‏ ‎из‏ ‎Яндекса ‎или‏ ‎кто-то ‎ещё‏ ‎возразил), ‎но ‎это ‎всё-таки ‎не‏ ‎алхимия‏ ‎дала‏ ‎нам ‎химию‏ ‎и ‎физику.‏ ‎На ‎самом‏ ‎деле‏ ‎будущие ‎химики‏ ‎и ‎физики ‎с ‎алхимиками  ‎разошлись‏ ‎от ‎камня‏ ‎с‏ ‎надписью ‎про ‎совесть‏ ‎и ‎пользу‏ ‎— ‎химики ‎и ‎физики‏ ‎пошли‏ ‎направо, ‎изучать‏ ‎Разумный ‎замысел‏ ‎Творца ‎и ‎придумывать ‎полезное, ‎а‏ ‎алхимики‏ ‎— ‎налево,‏ ‎получать ‎силу‏ ‎от ‎демонов ‎и ‎заклинаний ‎и‏ ‎делать‏ ‎бабло‏ ‎из ‎воздуха.

В‏ ‎случае ‎же‏ ‎обсуждаемой ‎телеги‏ ‎про‏ ‎Сверхразум ‎ИИ‏ ‎— ‎здесь ‎перед ‎нами ‎именно‏ ‎алхимик. ‎Он‏  ‎требует‏ ‎денег ‎от ‎курфюста‏ ‎Баварии ‎на‏ ‎последнюю, ‎решающую ‎стадию ‎выработки‏ ‎Философского‏ ‎камня. ‎Нужен‏ ‎кластер ‎на‏ ‎триллион ‎долларов ‎— ‎и ‎золотой‏ ‎ключик‏ ‎у ‎нас‏ ‎в ‎кармане.

Он‏ ‎даже ‎почти ‎и ‎не ‎скрывает‏ ‎природы‏ ‎своих‏ ‎высказываний:

We’re ‎literally‏ ‎running ‎out‏ ‎of ‎benchmarks.

«У‏ ‎нас‏ ‎даже ‎критериев‏ ‎уже ‎не ‎осталось»!

Ну ‎и ‎в‏ ‎самом ‎деле,‏ ‎чем‏ ‎вы ‎будете ‎мерить‏ ‎Сверхразум? ‎А‏ ‎раз ‎критериев ‎не ‎осталось‏ ‎—‏ ‎нужно ‎просто‏ ‎верить ‎экспертам.

Схемы‏ ‎рассуждений ‎там ‎вообще ‎очень ‎своеобразные.

Логические‏ ‎скачки‏ ‎через ‎пропасть

Как‏ ‎известно, ‎кидалово‏ ‎Апории ‎Зенона ‎про ‎Ахиллеса ‎и‏ ‎черепаху‏ ‎в‏ ‎чём? ‎В‏ ‎том, ‎что‏ ‎от ‎рассуждения‏ ‎«поделим‏ ‎расстояние ‎между‏ ‎Ахиллесом ‎и ‎черепахой ‎пополам, ‎потом‏ ‎ещё ‎пополам,‏ ‎и‏ ‎так ‎до ‎бесконечности‏ ‎будем ‎мельчить»‏ ‎происходит ‎внезапный ‎(но ‎не‏ ‎осознаваемый‏ ‎слушателем) ‎перескок‏ ‎к ‎«‏ ‎А ‎значит, ‎Ахиллес ‎никогда ‎не‏ ‎догонит‏ ‎черепаху».

То ‎есть‏ ‎от ‎бесконечно‏ ‎малых ‎интервалов ‎времени ‎(огромные ‎отрицательные‏ ‎степени‏ ‎двойки)‏ ‎манипулятор ‎вдруг‏ ‎незаметно ‎перескакивает‏ ‎к ‎бесконечно‏ ‎большому‏ ‎интервалу ‎времени‏ ‎(«никогда»). ‎Просто ‎с ‎помощью ‎стандартного‏ ‎оператора ‎демагогии‏ ‎«значит».‏ ‎Понятно, ‎что ‎из‏ ‎одного ‎другое‏ ‎— ‎не ‎следует.

нет ‎в‏ ‎апории‏ ‎зенона
никакой ‎загадки
не‏ ‎догонишь ‎черепаху
со‏ ‎стрелою ‎в ‎пятке

Здесь ‎та ‎же‏ ‎история:‏ ‎ни ‎из‏ ‎чего ‎не‏ ‎следует, ‎что ‎скоро ‎будет ‎AGI,‏ ‎равный‏ ‎человеку.‏ ‎Ни ‎из‏ ‎чего ‎не‏ ‎следует, ‎что‏ ‎он‏ ‎вообще ‎возможен.‏ ‎Ни ‎из ‎чего ‎не ‎следует,‏ ‎что ‎дальше‏ ‎внезапно‏ ‎возникнет ‎Сверхразум ‎ИИ.‏ ‎Ни ‎из‏ ‎чего ‎не ‎следует, ‎что‏ ‎это‏ ‎вообще ‎возможно.

Ни‏ ‎из ‎чего‏ ‎не ‎следует, ‎что ‎«увеличение ‎порядков‏ ‎величин»‏ ‎даст ‎повышение‏ ‎«качества» ‎ИИ.

Все‏ ‎эти ‎лакуны, ‎пустые ‎звенья, ‎разрывы‏ ‎заполняются‏ ‎просто‏ ‎живостью ‎изложения,‏ ‎наукообразием ‎и‏ ‎лексическими ‎операторами‏ ‎демагогии‏ ‎«значит», ‎«следовательно»,‏ ‎«очевидно, ‎что».

То ‎есть ‎брат ‎Леопольд‏ ‎в ‎своей‏ ‎келье‏ ‎просто ‎счастливо ‎прыгает‏ ‎через ‎логические‏ ‎пропасти ‎и ‎обрывы ‎на‏ ‎пегасе‏ ‎воображения, ‎с‏ ‎крылами ‎«Ложь»‏ ‎и ‎«Демагогия».

На ‎самом ‎деле, ‎все‏ ‎эти‏ ‎ЖПТ ‎проклятие‏ ‎Китайской ‎комнаты‏ ‎— ‎не ‎преодолели. ‎Советую ‎почитать‏ ‎про‏ ‎неё — в‏ ‎частности ‎потому,‏ ‎что ‎это‏ ‎познавательно, ‎а‏ ‎также‏ ‎потому, ‎что‏ ‎ни ‎Ашенбреннер, ‎ни ‎наши ‎эпигоны‏ ‎этого ‎интеллектуально‏ ‎сложного‏ ‎рассуждения ‎— ‎явно‏ ‎нечитамши.

То, ‎что‏ ‎ЖПТ ‎оперирует ‎текстами ‎или‏ ‎картинками,‏ ‎вовсе ‎не‏ ‎означает ‎понимания.‏ ‎И ‎в ‎общем, ‎мы ‎так-то,‏ ‎вчуже‏ ‎понимаем, ‎что‏ ‎никакого ‎понимания‏ ‎там ‎нет, ‎а ‎есть ‎манипуляция‏ ‎токенами,‏ ‎довольно‏ ‎изощрённая ‎и‏ ‎создающая ‎впечатление.

Но‏ ‎есть ‎и‏ ‎реальные‏ ‎разрывы ‎между‏ ‎ИИ ‎и ‎жизнью, ‎которые ‎технология‏ ‎тоже ‎не‏ ‎перепрыгивает.

Реальные‏ ‎разрывы

Прагматика

Ну, ‎вот ‎читает‏ ‎GPT ‎тексты‏ ‎и ‎графику. ‎Все, ‎какие‏ ‎в‏ ‎мире ‎есть.‏ ‎В ‎них‏ ‎что ‎— ‎есть ‎все ‎знания‏ ‎мира?‏ ‎Вовсе ‎нет.‏ ‎В ‎них‏ ‎есть ‎примеры лексического ‎выражения ‎каких-то ‎и‏ ‎некоторых‏ ‎мыслей,‏ ‎а ‎ещё‏ ‎точнее ‎—‏ ‎языковой ‎код‏ ‎для‏ ‎запуска ‎генерации‏ ‎мыслей ‎в ‎голове ‎человека, ‎что‏ ‎мы ‎обсуждали‏ ‎ранее.

Мы‏ ‎помним ‎общее ‎место,‏ ‎что ‎в‏ ‎тексте ‎по ‎сути ‎смысла‏ ‎нет‏ ‎— ‎в‏ ‎нём ‎есть‏ ‎код ‎для ‎запуска ‎процесса ‎создания‏ ‎смысла‏ ‎в ‎голове‏ ‎реципиента. ‎Смысл‏ ‎вообще ‎нами ‎генерируется из ‎текстов, ‎на‏ ‎основе‏ ‎общей‏ ‎культурной ‎и‏ ‎эмпирической  ‎базы,‏ ‎на ‎основе‏ ‎жизненной‏ ‎прагматики, ‎квалиа‏ ‎или ‎феноменального ‎опыта.

И ‎в ‎этой‏ ‎голове ‎есть‏ ‎прагматика‏ ‎реального ‎мира, ‎эмпирика,‏ ‎к ‎которой‏ ‎человек ‎прикладывает ‎смысл, ‎извлекаемый‏ ‎из‏ ‎текстов. ‎Она‏ ‎ИИ ‎неизвестна‏ ‎— ‎и ‎неизвестно, ‎как ‎он‏ ‎в‏ ‎принципе ‎мог‏ ‎бы ‎до‏ ‎неё ‎добраться, ‎потому ‎что ‎из‏ ‎текстов,‏ ‎графики‏ ‎и ‎видео‏ ‎она ‎вообще-то‏ ‎не ‎извлекается.

Именно‏ ‎поэтому‏ ‎графические ‎бредогенераторы‏ ‎до ‎сих ‎пор ‎рисуют ‎руки‏ ‎с ‎разнообразным‏ ‎числом‏ ‎страшных ‎многосуставных ‎пальцев‏ ‎и ‎большим‏ ‎пальцем ‎не ‎с ‎той‏ ‎стороны‏ ‎руки: ‎из‏ ‎статистики ‎рисунков‏ ‎и ‎фото ‎с ‎руками ‎эта‏ ‎прагматика‏ ‎добывается ‎плохо.‏ ‎А ‎гайки‏ ‎— ‎десятиугольные, ‎с ‎рубчиками, ‎как‏ ‎у‏ ‎презерватива,‏ ‎вместо ‎резьбы.

Эту‏ ‎конкретную ‎проблему‏ ‎разработчики ‎полечат‏ ‎(я‏ ‎думаю, ‎полечат‏ ‎специально, ‎практически ‎руками), ‎а ‎кое-где‏ ‎уже ‎полечили,‏ ‎но‏ ‎таких ‎проблем ‎отсутствия‏ ‎прагматических ‎знаний‏ ‎у ‎ИИ ‎— ‎тысячи.

Недавно‏ ‎мне‏ ‎рассказал ‎один‏ ‎из ‎читателей‏ ‎сего ‎блога ‎пример ‎из ‎его‏ ‎профессиональной‏ ‎деятельности. ‎Допустим,‏ ‎хочется ‎разобрать‏ ‎(«распарсить») ‎автоматически ‎товарные ‎описания, ‎например,‏ ‎смартфонов.‏ ‎Их‏ ‎можно ‎брать‏ ‎из ‎описания‏ ‎производителей, ‎например,‏ ‎ёмкость‏ ‎аккумулятора ‎—‏ ‎4000 ‎миллиампер-часов. ‎А ‎также ‎из‏ ‎отзывов ‎потребителей,‏ ‎в‏ ‎духе ‎«нормально ‎держит,‏ ‎почти ‎целый‏ ‎день». ‎Или ‎«держал ‎двое‏ ‎суток».‏ ‎Ясно, ‎что‏ ‎GPT ‎тут‏ ‎проблему ‎решит ‎легко ‎и ‎быстро.

И‏ ‎вдруг‏ ‎возникает ‎проблема‏ ‎низкого ‎или‏ ‎отсутствующего ‎качества ‎такого ‎парсинга. ‎Как‏ ‎соотнести‏ ‎заявленную‏ ‎ёмкость ‎в‏ ‎ампер-часах ‎и‏ ‎представления ‎пользователей‏ ‎о‏ ‎том, ‎что‏ ‎такое ‎«нормально», ‎и ‎в ‎каких‏ ‎условиях ‎«нормально»‏ ‎(скажем,‏ ‎интенсивное ‎использование ‎или‏ ‎малые ‎нагрузки)?‏ ‎Внезапно ‎оказывается, ‎что:

  • А) ‎нужных‏ ‎текстов‏ ‎— ‎мало.‏ ‎Вот ‎просто‏ ‎мало, ‎их ‎не ‎хватает ‎для‏ ‎обучения‏ ‎никакой ‎LLam’e‏ ‎или ‎GPT.
  • Б)‏ ‎непонятно, ‎что ‎именно ‎сводить ‎с‏ ‎чем‏ ‎—‏ ‎пользователи ‎вообще‏ ‎не ‎обсуждают‏ ‎ёмкость ‎и‏ ‎аккумулятор.

Вообще‏ ‎с ‎полей‏ ‎ИИ-войны ‎приходят ‎страшные ‎вести, ‎что‏ ‎дело ‎даже‏ ‎не‏ ‎в ‎триллионных ‎деньгах‏ ‎и ‎потолке‏ ‎производства ‎графических ‎карточек ‎—‏ ‎в‏ ‎Интернете ‎тексты‏ ‎кончились. А ‎в‏ ‎узких ‎предметных ‎областях ‎их ‎и‏ ‎никогда‏ ‎не ‎было‏ ‎достаточно ‎для‏ ‎«самообучения» ‎БЯМ.

В ‎результате ‎попытки ‎использовать‏ ‎большие‏ ‎языковые‏ ‎модели ‎в‏ ‎реальной ‎деятельности,‏ ‎с ‎приемлемым‏ ‎качеством,‏ ‎приводят ‎—‏ ‎в ‎2024 ‎году, ‎в ‎пору‏ ‎великого ‎триумфа‏ ‎БЯМ!‏ ‎—  ‎к ‎необходимости‏ ‎нанимать ‎лингвистов,‏ ‎составлять ‎онтологии, ‎фиксировать ‎конкретные‏ ‎лексические‏ ‎реализации ‎признаков‏ ‎и ‎т.‏ ‎п. ‎А ‎это ‎внезапно ‎дорого‏ ‎—‏ ‎против ‎обещаний,‏ ‎что ‎теперь‏ ‎надо ‎только ‎кнопку ‎нажать. ‎Ну‏ ‎и‏ ‎немодно‏ ‎же. ‎Это‏ ‎же ‎фу-фу-фу,‏ ‎старьё. ‎Так‏ ‎делали‏ ‎двадцать ‎лет‏ ‎назад!

По ‎сути, ‎современные ‎успехи ‎ИИ‏ ‎в ‎«общении»‏ ‎и‏ ‎«анализе» ‎— ‎это‏ ‎такие ‎восторги‏ ‎родителей ‎по ‎поводу ‎«достижений»‏ ‎ребёночка.‏ ‎Ой, ‎какой‏ ‎умненький, ‎смог‏ ‎игрушку ‎сломать! ‎Смог ‎попасть ‎мороженым‏ ‎не‏ ‎в ‎ухо,‏ ‎а ‎в‏ ‎рот!

Ребёнок ‎этот ‎— ‎увы, ‎изначально‏ ‎слепоглухонемой‏ ‎инвалид‏ ‎с ‎водянкой‏ ‎мозга, ‎который‏ ‎никогда ‎не‏ ‎увидит‏ ‎реального ‎мира.

Ну‏ ‎какой ‎там ‎старшеклассник. ‎Старшеклассник, ‎хотя‏ ‎и ‎поражён‏ ‎в‏ ‎правах ‎в ‎силу‏ ‎умственной ‎и‏ ‎эмоциональной ‎незрелости ‎(не ‎может‏ ‎покупать‏ ‎алкоголь ‎и‏ ‎сигареты, ‎избирать‏ ‎и ‎быть ‎избранным, ‎владеть ‎оружием‏ ‎и‏ ‎водить ‎автомобиль)‏ ‎— ‎может‏ ‎думать. ‎ИИ ‎— ‎не ‎может.

А‏ ‎как‏ ‎же‏ ‎он ‎«всё‏ ‎захватит»?

Главная ‎же‏ ‎страшилка ‎—‏ ‎как‏ ‎ставший ‎сверхумным‏ ‎ИИ ‎захватит ‎мир, ‎начнёт ‎управлять‏ ‎всем. Нечеловеческим ‎способом‏ ‎и‏ ‎с ‎нечеловеческими ‎целями.

Брат‏ ‎Леопольд ‎прямо‏ ‎называет ‎его ‎«alien» ‎и‏  ‎подробно‏ ‎объясняет, ‎что‏ ‎Супер-интеллект ‎станет‏ ‎настолько ‎умнее ‎нас, ‎что ‎мы‏ ‎никак‏ ‎не ‎сможем‏ ‎понять, ‎чего‏ ‎он ‎хочет, ‎что ‎он ‎делает,‏ ‎каким‏ ‎способом‏ ‎и ‎т.‏ ‎п. ‎Есть‏ ‎ли ‎там‏ ‎какие-то‏ ‎риски ‎в‏ ‎принципе. ‎И ‎какие ‎именно.

А ‎значит,‏ ‎и ‎ограничить,‏ ‎изначально‏ ‎наложить ‎«три ‎закона‏ ‎робототехники» ‎—‏ ‎мы ‎не ‎сможем: ‎ведь‏ ‎Супер-ИИ‏ ‎быстро ‎поймёт,‏ ‎что ‎лгать,‏ ‎обманывать ‎и ‎кидать ‎кожаных ‎ублюдков‏ ‎—‏ ‎эффективно, ‎а‏ ‎значит, ‎так‏ ‎и ‎надо ‎поступать. ‎И ‎вот‏ ‎тогда…

— Мущщина,‏ ‎я‏ ‎вас ‎боюсь!
— Почему‏ ‎вы ‎меня‏ ‎боитесь?
— Потому ‎что‏ ‎вы‏ ‎меня ‎изнасилуете!
— Да‏ ‎вы ‎же ‎на ‎четвёртом ‎этаже,‏ ‎а ‎я‏ ‎на‏ ‎улице!
— А ‎я ‎сейчас‏ ‎спущусь!

Но ‎тут‏ ‎есть ‎второй ‎разрыв ‎—‏ ‎физический.‏ ‎ИИ ‎обучается‏ ‎на ‎текстах‏ ‎и ‎графике, ‎на ‎других ‎интеллектуальных‏ ‎продуктах.‏ ‎Ну ‎и‏ ‎ладно, ‎казалось‏ ‎бы.

Но ‎доступа ‎к ‎физическим ‎системам‏ ‎у‏ ‎ИИ‏ ‎— ‎пока‏ ‎нет. ‎Точнее,‏ ‎кое-где ‎уже‏ ‎есть‏ ‎— ‎в‏ ‎дронах-камикадзе, ‎в ‎беспилотных ‎авто ‎и‏ ‎поездах, ‎даже‏ ‎при‏ ‎управлении ‎нагрузкой ‎на‏ ‎АЭС ‎и‏ ‎ГЭС. ‎Но ‎это ‎никакой‏ ‎не‏ ‎«сильный» ‎ИИ,‏ ‎а ‎простые‏ ‎и ‎замкнутые ‎системы, ‎подобные ‎управлению‏ ‎системой‏ ‎лифтов ‎в‏ ‎многоэтажном ‎здании‏ ‎(лифты ‎— ‎это ‎тоже ‎ИИ,‏ ‎сюрприз).

Эти‏ ‎системы‏ ‎имеют ‎узкую,‏ ‎формализуемую ‎задачу,‏ ‎не ‎соединены‏ ‎с‏ ‎Интернетом, ‎не‏ ‎имеют ‎свойств ‎самообучения, ‎не ‎являются‏ ‎«чёрным ‎ящиком».‏ ‎У‏ ‎них ‎везде ‎есть‏ ‎«кнопка ‎останова»,‏ ‎средства ‎внешнего ‎контроля ‎корректности‏ ‎работы‏ ‎и ‎т.‏ ‎п.

Ну ‎и‏ ‎кто ‎же ‎пустит ‎«сильный» ‎ИИ‏ ‎к‏ ‎масштабному ‎управлению‏ ‎реальным ‎миром?‏ ‎Мы ‎что, ‎отдадим ‎«сильному» ‎ИИ‏ ‎управление‏ ‎городской‏ ‎инфраструктурой, ‎транспортом,‏ ‎производством ‎логистикой,‏ ‎энергетикой, ‎медициной,‏ ‎правопорядком‏ ‎и ‎армией?‏ ‎Запуском ‎ядерных ‎ракет?

А зачем?

Зачем ‎нужен ‎неконтролируемый‏ ‎«чёрный ‎ящик»‏ ‎в‏ ‎критической ‎инфраструктуре? ‎Это‏ ‎же ‎был‏ ‎бы ‎полный ‎идиотизм, ‎тем‏ ‎более,‏ ‎что ‎есть‏ ‎многочисленные ‎опасения‏ ‎и ‎предполагаемые ‎ужасные ‎риски?

На ‎этот‏ ‎вопрос‏ ‎клянчащий ‎алхимик‏ ‎Ашенбреннер ‎как‏ ‎раз ‎отвечает:

What’s ‎more, ‎I ‎expect‏ ‎that‏ ‎within‏ ‎a ‎small‏ ‎number ‎of‏ ‎years, ‎these‏ ‎AI‏ ‎systems ‎will‏ ‎be ‎integrated ‎in ‎many ‎critical‏ ‎systems, ‎including‏ ‎military‏ ‎systems ‎(failure ‎to‏ ‎do ‎so‏ ‎would ‎mean ‎complete ‎dominance‏ ‎by‏ ‎adversaries).

Если ‎не‏ ‎встроим ‎ИИ‏ ‎везде ‎в ‎критическую ‎инфраструктуру ‎—‏ ‎враги‏ ‎победят!

Не ‎правда‏ ‎ли, ‎прекрасно?‏ ‎Алхимику ‎важно ‎обозначить ‎важность ‎и‏ ‎нужность,‏ ‎необходимость‏ ‎своего ‎Философского‏ ‎камня ‎для‏ ‎сильных ‎мира‏ ‎сего,‏ ‎которым ‎он‏ ‎облизывает ‎тарелки: ‎без ‎Камня ‎—‏ ‎никуда, ‎иначе‏ ‎враги‏ ‎победят. ‎Враги ‎ясно‏ ‎обозначены ‎—‏ ‎это ‎кровавые ‎авторитарные ‎коммунисты‏ ‎Китая.‏ ‎Они ‎тянут‏ ‎свои ‎когтистые‏ ‎лапы ‎к ‎ИИ, ‎чтобы ‎поработить‏ ‎всех‏ ‎своей ‎автократией.

Потому‏ ‎что ‎враги,‏ ‎они ‎же ‎враги. ‎Они ‎точно‏ ‎применят‏ ‎это‏ ‎Когнитивное ‎Ядерное‏ ‎Оружие, ‎если‏ ‎первым ‎его‏ ‎не‏ ‎применит ‎Свободный‏ ‎мир.

Дальше ‎брат ‎Леопольд ‎безудержно ‎фантазирует,‏ ‎как ‎Супер-интеллект‏ ‎достигнет,‏ ‎распространится, ‎проникнет, ‎захватит‏ ‎и ‎начнёт‏ ‎управлять ‎тем, ‎что ‎ему‏ ‎не‏ ‎поручали ‎и‏ ‎не ‎делегировали.

И‏ ‎вот ‎тут ‎хотелось ‎бы ‎осторожно‏ ‎спросить:‏ ‎а ‎как‏ ‎же ‎он‏ ‎это ‎сделает, ‎ведь ‎важные ‎системы‏ ‎не‏ ‎подключены‏ ‎к ‎Интернету?

А‏ ‎мы ‎щас‏ ‎подключим!

В ‎общем,‏ ‎я‏ ‎советую ‎этот‏ ‎алхимический ‎опус ‎почитать ‎самостоятельно. ‎А‏ ‎наш ‎техдир‏ ‎Крибрума‏ ‎рекомендует ‎также ‎почитать‏ ‎бюджет ‎DARPA,‏ ‎говорит, ‎очень ‎познавательно: ‎того,‏ ‎что‏ ‎этот ‎дурак‏ ‎пишет ‎—‏ ‎не ‎будет, ‎а ‎вот ‎что‏ ‎ДАРПА‏ ‎пишет ‎—‏ ‎боюсь, ‎будет.

Что‏ ‎будет ‎и ‎на ‎чём ‎сердце‏ ‎успокоится

Моё‏ ‎личное‏ ‎мнение ‎такое:

1. Бояться‏ ‎надо ‎не‏ ‎Сильного ‎ИИ‏ ‎и‏ ‎не ‎Суперразума,‏ ‎который ‎всё ‎захватит ‎и ‎поработит,‏ ‎а ‎очень‏ ‎умных‏ ‎и ‎злых ‎людей,‏ ‎управляющих ‎ИИ. Мы‏ ‎этих ‎людей ‎знаем. ‎Например,‏ ‎это‏ ‎кадровый ‎разведчик‏ ‎Эрик ‎Шмидт,‏ ‎приставленный ‎присматривать ‎за ‎молодыми ‎балбесами‏ ‎Брином‏ ‎и ‎Пейджем,‏ ‎работавший ‎20‏ ‎лет ‎гендиректором ‎Гугла, ‎имеющий ‎состояние‏ ‎в‏ ‎26‏ ‎миллиардов ‎долларов.

Прикольно,‏ ‎что ‎про‏ ‎него ‎в‏ ‎русской‏ ‎Википедии ‎нет‏ ‎многих ‎показательных ‎деталей, ‎а ‎в‏ ‎английской ‎—‏ ‎есть:

«In‏ ‎March ‎2016, ‎it‏ ‎was ‎announced‏ ‎that ‎Schmidt ‎would ‎chair‏ ‎a‏ ‎new ‎advisory‏ ‎board ‎for‏ ‎the ‎Department ‎of ‎Defense, ‎titled‏ ‎the‏ ‎Defense ‎Innovation‏ ‎Advisory ‎Board.‏ ‎The ‎advisory ‎board ‎serves ‎as‏ ‎a‏ ‎forum‏ ‎connecting ‎mainstays‏ ‎in ‎the‏ ‎technology ‎sector‏ ‎with‏ ‎those ‎in‏ ‎the ‎Pentagon»…
«From ‎2019 ‎to ‎2021,‏ ‎Schmidt ‎chaired‏ ‎the‏ ‎National ‎Security ‎Commission‏ ‎on ‎Artificial‏ ‎Intelligence»…

Сейчас ‎Шмидт ‎основал ‎компанию‏ ‎Белый‏ ‎Аист ‎на‏ ‎Украине, ‎которая‏ ‎делает ‎дроны-камикадзе ‎с ‎ИИ. ‎Автономных‏ ‎убийц‏ ‎с ‎неба.‏ ‎Обещает ‎создать‏ ‎супер-технологию ‎и ‎с ‎ней ‎победить‏ ‎русских.‏ ‎Ну‏ ‎и ‎тестирует‏ ‎дронов-убийц ‎на‏ ‎самом ‎лучшем‏ ‎полигоне‏ ‎современности, ‎чтобы‏ ‎продавать ‎потом ‎по ‎всему ‎миру.

Вот‏ ‎кого ‎нам‏ ‎надо‏ ‎бояться.

2. Пузырь ‎ИИ ‎сдуется.‏ ‎Он ‎всегда‏ ‎сдувается. ‎Я ‎видел ‎три‏ ‎пузыря‏ ‎ИИ ‎до‏ ‎этого.

Истерика ‎по‏ ‎поводу ‎«Новой ‎экономики» ‎и ‎Интернета‏ ‎была‏ ‎не ‎меньше,‏ ‎а ‎больше.‏ ‎И ‎сдулась. ‎См. ‎предыдущий ‎пост‏ ‎про‏ ‎«Клютрейн‏ ‎манифесто».

И ‎доказательств‏ ‎«кардинального ‎изменения‏ ‎мира» ‎было‏ ‎в‏ ‎1999 ‎году‏ ‎достаточно ‎— ‎вот ‎же ‎Гугл,‏ ‎вот ‎же‏ ‎сайт‏ ‎для ‎доставки ‎памперсов,‏ ‎вот ‎онлайн-казино‏ ‎— ‎что ‎ещё ‎нужно?

Истерику‏ ‎социальных‏ ‎сетей ‎все‏ ‎уже ‎забыли,‏ ‎а ‎она ‎была ‎круче. ‎И‏ ‎сдулась.

И‏ ‎мир ‎действительно‏ ‎изменился ‎после‏ ‎прихода ‎Интернета. ‎И ‎после ‎вхождения‏ ‎социальных‏ ‎сетей‏ ‎в ‎обиход.‏ ‎Но ‎не‏ ‎так, ‎как‏ ‎вдохновенно‏ ‎пророчили ‎певцы‏ ‎Нового ‎мира. ‎Проще, ‎умереннее, ‎медленнее.‏ ‎И ‎по-другому.

Конечно,‏ ‎после‏ ‎сдувания ‎ИИ-пузыря ‎останется‏ ‎— ‎как‏ ‎обычно ‎бывает ‎— ‎пучок‏ ‎полезных‏ ‎применений. ‎На‏ ‎«плато ‎продуктивности»‏ ‎по ‎Гартнеру. ‎Я ‎эту ‎картинку‏ ‎уже‏ ‎показывал:

3. ИИ ‎не‏ ‎захватит ‎мир.‏ ‎Но ‎причинит ‎очень ‎много ‎неприятностей‏ ‎по‏ ‎приказу‏ ‎своих ‎хозяев. Я‏ ‎лично ‎уверен,‏ ‎что ‎эти‏ ‎два‏ ‎разрыва ‎ИИ‏ ‎с ‎действительностью, ‎виртуальности ‎с ‎реальностью‏ ‎— ‎когнитивный‏ ‎и‏ ‎физический ‎— ‎преодолены‏ ‎не ‎будут.

Нет,‏ ‎нищепанк ‎по ‎Мараховскому, ‎конечно,‏ ‎распухнет‏ ‎и ‎всосёт‏ ‎в ‎себя‏ ‎большую ‎часть ‎человечества, ‎отняв ‎в‏ ‎них‏ ‎их ‎ненужные‏ ‎алгоритмизуемые ‎работы‏ ‎и ‎дав ‎им ‎ненужные ‎электронные‏ ‎развлечения.‏ ‎Но‏ ‎никакого ‎захвата‏ ‎мира ‎«триллионнодолларовым‏ ‎кластером» ‎Скайнета‏ ‎—‏ ‎не ‎будет.

А‏ ‎вот ‎очередные ‎мегапроекты ‎DARPA, ‎роботы-убийцы,‏ ‎управление ‎полем‏ ‎боя,‏ ‎умные ‎рои ‎дронов,‏ ‎чипы ‎в‏ ‎мозгу ‎универсальных ‎солдат, ‎умные‏ ‎кибератаки,‏ ‎супер-эпидемии, ‎генетическое‏ ‎оружие ‎—‏ ‎будут, ‎конечно. ‎И ‎отстать ‎нам‏ ‎нельзя‏ ‎— ‎иначе‏ ‎нас ‎сомнут,‏ ‎как ‎говорил ‎один ‎разработчик ‎социальной‏ ‎реальности.

Жить‏ ‎станет‏ ‎хуже, ‎жить‏ ‎станет ‎веселее,‏ ‎что ‎тут‏ ‎ещё‏ ‎скажешь.

Предыдущий Следующий
Все посты проекта
11 комментариев

Комментарий удален. Восстановить?
12
avatar
Уровень внутри проекта
12
Уровень на sponsr.ru
12
Alexander Petrov 4 месяца назад
СОИ ревизитед!
Комментарий удален. Восстановить?
A
avatar
Уровень внутри проекта
A
Уровень на sponsr.ru
162
Игорь Ашманов 4 месяца назад
Да, похоже.
Комментарий удален. Восстановить?
9
avatar
Уровень внутри проекта
9
Уровень на sponsr.ru
11
Эксперт диванный 2 категории 4 месяца назад
Несколько месяцев назад СМИ писали про то, что компания Маска собирается начать эксперименты (то ли уже начала) по вживлению чипов в мозг людям. Это рассматривать как попытку (получится ли нет ли - другой вопрос) преодоления физического разрыва (вернее, за первые шаги в этом направлении)?
И кстати, вот ещё писали, что Boston Dynamics закрыла свой проект Atlas. Они его со всеми результатами в военное ведомство передали? там же бабла вбухано немеряно, не могли же его просто взять и закрыть.
Комментарий удален. Восстановить?
A
avatar
Уровень внутри проекта
A
Уровень на sponsr.ru
162
Игорь Ашманов 4 месяца назад
Это с бегающей механической собакой? Мне кажется, там стала ясна бессмысленность.
Как говорил покойный Влад Исаев, заработавший Орден Мужества в Чечне в 1994 пулемётчиком, если такой робот будет на фронте, то при его стоимости в миллион-два долларов вертолёт будет в окружение прилетать за ним, а не за нами.
А ишак - берётся в ближайшем кишлаке, несёт сто кило, сам питается подножным кормом, и ещё его можно съесть, если что.
Показать еще 2 ответа
Комментарий удален. Восстановить?
A
avatar
Уровень внутри проекта
A
Уровень на sponsr.ru
162
Игорь Ашманов 4 месяца назад
Хороший комментарий написали в ВК:

Илья Мергасов:
Мне в этих фантазиях о сильном ИИ нравится наблюдать вкрапления культурных особенностей фантазирующих. Вот англосаксы говорят: появится ИИ, так он непременно всех поработит, всех обманет, всех киданет.
Они любят порассуждать, как он не просто вот так возьмет и захватит всю критическую инфраструктуру, а сначала будет притворяться хорошим и полезным дурачком, завоевывая доверие людишек, а только потом, имея уже вверенные ресурсы, внезапно все захватит.
Короче говоря, они свои черты аллегорически переносят на этот сказочный ИИ. Для них невозможен вариант с ИИ-альтруистом.
Выше в комментариях подметили, что советские футурологи любили писать о помощи роботов людям. Это уже наши культурные особенности (всех обнять и расцеловать).

Впрочем, современные российские "спикеры" только повторяют то, что пришло из Свободного Мира.
Комментарий удален. Восстановить?
3
avatar
Уровень внутри проекта
3
Уровень на sponsr.ru
23
Юрий Синодов 4 месяца назад
Про вторичность нашего интернета: вообще, ко мне подкатывали чуваки, которые говорили, что вот ты, вот Ашманов -- это реально интереснее читать чем Слэшдот, не потому что проще (на русском), а действительно интереснее

Тут недавно Морейнис жаловался, что у него тырят его контент по менеджменту стартапов, переводят гопотой на английский и выдают за свой.

То есть, вторичности навалом, но и первичного продукта вагон.
Комментарий удален. Восстановить?
3
avatar
Уровень внутри проекта
3
Уровень на sponsr.ru
23
Юрий Синодов 4 месяца назад
> Если‏ ‎не ‎встроим ‎ИИ‏ ‎везде‏ ‎в ‎критическую‏ ‎инфраструктуру ‎—‏ ‎враги ‎победят!

С интересом думаю, не окажется ли логичным, с точки зрения боевого ИИ, прихлопнуть управляющий центр в Вашингтоне и сберечь себя, любимого, чтобы тебя не прихлопнули злые русские, если ты вдруг решишь действовать против них.
Комментарий удален. Восстановить?
3
avatar
Уровень внутри проекта
3
Уровень на sponsr.ru
23
Юрий Синодов 4 месяца назад
Знакомый искал рассказ "Додкин при деле " Джека Вэнса, спросил у меня, пока я отвечал ему -- пошёл искать в ГПТ, рассказал гопоте сюжет.

Чатгопота в ответ придумала ему рассказ (с названием которого не существует), написала, что его написал Роберт Шекли, придумала цитату оттуда и до конца упиралась в своей правоте, пока этого неунывающего двоечника не припёрли к стенке реальным названием и автором (после моего прихода)

Тогда он покаялся и обещал больше так не делать.

Гениальная вещь, весёлый дебил в семье, всего за 20 баксов в месяц.
Комментарий удален. Восстановить?
12
avatar
Уровень внутри проекта
12
Уровень на sponsr.ru
12
Alexander Petrov 4 месяца назад
Возможно, ИИ заставит уйти с рынка жвачных писателей. Предположим, захочу почитать новый детектив, и чтобы там были русские туристы в старинном английском замке. Вместо чтоб искать написанное - попрошу ИИ, пускай сочинит.

Статистика

373 подписчика

Подарить подписку

Будет создан код, который позволит адресату получить бесплатный для него доступ на определённый уровень подписки.

Оплата за этого пользователя будет списываться с вашей карты вплоть до отмены подписки. Код может быть показан на экране или отправлен по почте вместе с инструкцией.

Будет создан код, который позволит адресату получить сумму на баланс.

Разово будет списана указанная сумма и зачислена на баланс пользователя, воспользовавшегося данным промокодом.

Добавить карту
0/2048