logo
0
читателей
0 ₽
в месяц
0 ₽
всего собрано
Малоизвестное интересное  Это не те исследования, гипотезы которых станут реальными в ближайшее время, а что-то совершенно прорывное и сумасшедшее
О проекте Просмотр Уровни подписки Фильтры Статистика Обновления проекта Контакты Поделиться Метки
Все проекты
О проекте
Рассказываю о прорывных исследованиях за гранью возможностей, чтобы это было интересно не только мне. «Малоизвестное интересное» — о запредельных вещах. Об этом практически ничего не пишется в России. Зачастую об этом немного знают даже вообще и в мире, не только в России. События, о которых говорится в исследованиях, могут сказаться на жизни людей и всего человечества.
Публикации, доступные бесплатно
Уровни подписки
Единоразовый платёж

Безвозмездное пожертвование без возможности возврата. Этот взнос не предоставляет доступ к закрытому контенту.

Помочь проекту
Промо уровень 200₽ месяц 1 920₽ год
(-20%)
При подписке на год для вас действует 20% скидка. 20% основная скидка и 0% доп. скидка за ваш уровень на проекте Малоизвестное интересное
Доступны сообщения

Подписка по специальным условиям для ограниченного количества подписчиков.

Оформить подписку
Бронза 350₽ месяц 3 780₽ год
(-10%)
При подписке на год для вас действует 10% скидка. 10% основная скидка и 0% доп. скидка за ваш уровень на проекте Малоизвестное интересное
Доступны сообщения

Укажите здесь, что получат подписчики уровня. Что входит в стоимость, как часто публикуется контент, какие дополнительные преимущества у подписчиков этого уровня.

Оформить подписку
Серебро 500₽ месяц 5 100₽ год
(-15%)
При подписке на год для вас действует 15% скидка. 15% основная скидка и 0% доп. скидка за ваш уровень на проекте Малоизвестное интересное
Доступны сообщения

Укажите здесь, что получат подписчики уровня. Что входит в стоимость, как часто публикуется контент, какие дополнительные преимущества у подписчиков этого уровня.

Оформить подписку
Золото 1 000₽ месяц 9 600₽ год
(-20%)
При подписке на год для вас действует 20% скидка. 20% основная скидка и 0% доп. скидка за ваш уровень на проекте Малоизвестное интересное
Доступны сообщения

Укажите здесь, что получат подписчики уровня. Что входит в стоимость, как часто публикуется контент, какие дополнительные преимущества у подписчиков этого уровня.

Оформить подписку
Фильтры
Статистика
0 ₽ в месяц
0 ₽ всего собрано
Обновления проекта
Контакты

Контакты

Поделиться
Читать: 5+ мин
logo Малоизвестное интересное

Низкофоновый контент через год будет дороже антиквариата. Дегенеративное заражение ноофосферы идет быстрее закона Мура.

Низкофоновая ‎сталь‏ ‎(довоенная ‎или ‎доатомная ‎сталь) ‎—‏ ‎это ‎любая‏ ‎сталь,‏ ‎произведенная ‎до ‎взрыва‏ ‎первых ‎ядерных‏ ‎бомб ‎в ‎1940 ‎—‏ ‎50-х‏ ‎годах.

До ‎первых‏ ‎ядерных ‎испытаний‏ ‎никто ‎и ‎не ‎предполагал, ‎что‏ ‎в‏ ‎результате ‎порождаемого‏ ‎ими ‎относительно‏ ‎невысокого ‎радиоактивного ‎заражения, ‎на ‎Земле‏ ‎возникнет‏ ‎дефицит‏ ‎низкофоновой ‎стали,‏ ‎нужной ‎для‏ ‎изготовления ‎детекторов‏ ‎ионизирующих‏ ‎частиц ‎—‏ ‎счётчик ‎Гейгера, ‎приборы ‎для ‎космоса‏ ‎и ‎так‏ ‎далее.

Но‏ ‎оказалось, ‎что ‎уже‏ ‎после ‎первых‏ ‎ядерных ‎взрывов, ‎чуть ‎ли‏ ‎не‏ ‎единственным ‎источником‏ ‎низкофоновой ‎стали‏ ‎оказался ‎подъем ‎затонувших ‎за ‎последние‏ ‎полвека‏ ‎кораблей. ‎И‏ ‎ничего ‎не‏ ‎оставалось, ‎как ‎начать ‎подъем ‎с‏ ‎морского‏ ‎дна‏ ‎одиночных ‎кораблей‏ ‎и ‎целых‏ ‎эскадр ‎по‏ ‎типу‏ ‎Имперского ‎флота‏ ‎Германии, ‎затопленные ‎в ‎Скапа-Флоу ‎в‏ ‎1919.

Но ‎и‏ ‎этого‏ ‎способа ‎добычи ‎низкофоновой‏ ‎стали ‎особенно‏ ‎на ‎долго ‎не ‎хватило‏ ‎бы.‏ ‎И ‎ситуацию‏ ‎спасло ‎лишь‏ ‎запрещение ‎атмосферных ‎ядерных ‎испытаний, ‎после‏ ‎чего‏ ‎радиационный ‎фон‏ ‎со ‎временем‏ ‎снизился ‎до ‎уровня, ‎близкого ‎к‏ ‎естественному.

С‏ ‎началом‏ ‎испытаний ‎генеративного‏ ‎ИИ ‎в‏ ‎2022 ‎г‏ ‎также‏ ‎никто ‎не‏ ‎заморачивался ‎в ‎плане ‎рисков ‎«дегенеративного‏ ‎заражения» ‎продуктами‏ ‎этих‏ ‎испытаний.

·      Речь ‎здесь ‎идет‏ ‎о ‎заражении‏ ‎не ‎атмосферы, ‎а ‎ноосферы,‏ ‎что‏ ‎не ‎легче.

·      Перспектива‏ ‎загрязнения ‎последней‏ ‎продуктами ‎творчества ‎генеративного ‎ИИ ‎может‏ ‎иметь‏ ‎весьма ‎пагубные‏ ‎и ‎далеко‏ ‎идущие ‎последствия.

Первые ‎результаты ‎заражения ‎спустя‏ ‎1.5‏ ‎года‏ ‎после ‎начала‏ ‎испытаний ‎генеративного‏ ‎ИИ ‎поражают‏ ‎свои‏ ‎масштабом. ‎Похоже,‏ ‎что ‎заражено ‎уже ‎все. ‎И‏ ‎никто ‎не‏ ‎предполагал‏ ‎столь ‎высокой ‎степени‏ ‎заражения.

Ибо ‎не‏ ‎принималось ‎в ‎расчет ‎наличие‏ ‎мультипликатора‏ ‎— ‎заражения‏ ‎от ‎уже‏ ‎зараженного ‎контента, ‎о ‎чем ‎вчера‏ ‎поведал‏ ‎миру ‎Ник‏ ‎Сен-Пьер ‎—‏ ‎креативный ‎директор ‎и ‎неофициальный ‎представитель‏ ‎Midjourney.

Данные,‏ ‎опубликованные‏ ‎Ник ‎Сен-Пьером‏ ‎впечатляют:

• Более ‎13%‏ ‎всех ‎изображений‏ ‎в‏ ‎Adobe ‎Stock‏ ‎созданы ‎с ‎помощью ‎генеративного ‎ИИ.

• Большая‏ ‎часть ‎сгенерированного‏ ‎контента‏ ‎поступает ‎от ‎Dalle‏ ‎и ‎Midjourney.

• Медиа‏ ‎с ‎тегом ‎«фэнтези» ‎на‏ ‎43%‏ ‎создано ‎ИИ.‏ ‎Другие ‎теги‏ ‎еще ‎выше.

• Это ‎большая ‎часть ‎обучающих‏ ‎данных,‏ ‎которые ‎питают‏ ‎генеративный ‎ИИ‏ ‎Adobe ‎Firefly-генератор ‎изображений ‎на ‎базе‏ ‎ИИ‏ ‎от‏ ‎Adobe.

Скорость ‎затопления‏ ‎инфосети ‎контентом,‏ ‎«зараженным ‎ИИ»-контент‏ ‎произведенный‏ ‎с ‎помощью‏ ‎генеративного ‎ИИ, ‎обученного ‎на ‎контенте,‏ ‎произведенном ‎генеративным‏ ‎ИИ,‏ ‎просто ‎колоссальна.

Получается, ‎что‏ ‎любой ‎контент,‏ ‎произведенный ‎после ‎2022, ‎включая‏ ‎все‏ ‎интернет-архивы, ‎почти‏ ‎наверняка ‎«заражен»‏ ‎генеративным ‎ИИ, ‎и ‎уровень ‎этого‏ ‎заражения‏ ‎совсем ‎немал.‏ ‎Что ‎и‏ ‎превращает ‎такой ‎генеративный ‎контент, ‎извините‏ ‎за‏ ‎каламбур,‏ ‎в ‎дегенеративный.

Комментируя‏ ‎это, ‎Итан‏ ‎Молик-профессор ‎Уортона,‏ ‎изучающий‏ ‎ИИ, ‎придумал‏ ‎использованную ‎мною ‎выше ‎метафору ‎—‏ ‎низкофоновая ‎сталь.

Продолжая‏ ‎эту‏ ‎метафору, ‎легко ‎представить,‏ ‎что ‎всего‏ ‎через ‎несколько ‎лет ‎«низкофоновый»‏ ‎(догенеративный)‏ ‎контент ‎станет‏ ‎в ‎ноосфере‏ ‎столь ‎же ‎редким ‎и ‎дорогим,‏ ‎как‏ ‎самый ‎изысканный‏ ‎и ‎старинный‏ ‎антиквариат.

Но ‎это ‎еще ‎не ‎все.

В‏ ‎результате‏ ‎роста‏ ‎в ‎обучающих‏ ‎наборах ‎новых‏ ‎моделей ‎генеративного‏ ‎ИИ‏ ‎доли ‎контента,‏ ‎порожденного ‎с ‎помощью ‎предыдущих ‎версий‏ ‎моделей, ‎начнется‏ ‎процесс,‏ ‎названный ‎Россом ‎Андерсоном‏ ‎коллапсом ‎больших‏ ‎языковых ‎моделей ‎(LLM).

Ситуация ‎будет‏ ‎напоминать‏ ‎комедию ‎«Множественность»‏ ‎с ‎Майклом‏ ‎Китоном ‎в ‎главной ‎роли, ‎в‏ ‎которой‏ ‎скромный ‎человек‏ ‎клонирует ‎себя,‏ ‎а ‎затем ‎клонирует ‎клонов, ‎каждое‏ ‎поколение‏ ‎которых‏ ‎ведет ‎к‏ ‎экспоненциальному ‎снижению‏ ‎уровня ‎интеллекта‏ ‎и‏ ‎увеличению ‎глупости‏ ‎клона.

С ‎LLM ‎будет ‎происходить ‎то‏ ‎же ‎самое.‏ ‎Использование‏ ‎для ‎обучения ‎модели‏ ‎контента, ‎сгенерированного‏ ‎моделью, ‎вызывает ‎необратимые ‎дефекты.‏ ‎Хвосты‏ ‎исходного ‎распределения‏ ‎контента ‎исчезают.‏ ‎В ‎течение ‎нескольких ‎поколений ‎текст‏ ‎становится‏ ‎мусором, ‎поскольку‏ ‎распределения ‎Гаусса‏ ‎сходятся ‎и ‎могут ‎даже ‎стать‏ ‎дельта-функциями.‏ ‎Более‏ ‎поздние ‎поколения‏ ‎начнут ‎производить‏ ‎образцы, ‎которые‏ ‎никогда‏ ‎не ‎были‏ ‎бы ‎произведены ‎оригинальной ‎моделью, ‎то‏ ‎есть ‎они‏ ‎будут‏ ‎неправильно ‎воспринимать ‎реальность,‏ ‎основываясь ‎на‏ ‎ошибках, ‎внесенных ‎их ‎предками.

И‏ ‎речь‏ ‎не ‎только‏ ‎про ‎тексты,‏ ‎но ‎и ‎про ‎изображения, ‎видео,‏ ‎музыку.‏ ‎Если ‎вы‏ ‎обучаете ‎музыкальную‏ ‎модель ‎Моцарту, ‎вы ‎можете ‎ожидать,‏ ‎что‏ ‎результат‏ ‎будет ‎немного‏ ‎похож ‎на‏ ‎Моцарта, ‎но‏ ‎без‏ ‎блеска ‎—‏ ‎назовем ‎его ‎«Сальери». ‎И ‎если‏ ‎потом ‎Сальери‏ ‎обучит‏ ‎следующее ‎поколение ‎и‏ ‎так ‎далее,‏ ‎то ‎как ‎будет ‎звучать‏ ‎пятое‏ ‎или ‎шестое‏ ‎поколение?

Вот ‎это‏ ‎и ‎называется ‎«коллапсом ‎модели», ‎в‏ ‎результате‏ ‎которого:

-Интернет ‎все‏ ‎более ‎будет‏ ‎забиваться ‎чушью;

-Люди, ‎которые, ‎наряду ‎с‏ ‎LLM,‏ ‎будут‏ ‎этой ‎чушью‏ ‎информационно ‎напитываться,‏ ‎будут ‎неумолимо‏ ‎глупеть.

Но‏ ‎и ‎это‏ ‎еще ‎не ‎все.

Потом ‎коллапс ‎моделей‏ ‎приведет ‎к‏ ‎тому,‏ ‎что ‎цунами ‎инфомусора‏ ‎окончательно ‎накроет‏ ‎науку.

Разруха, ‎начавшаяся ‎с ‎дегенеративного‏ ‎заражения‏ ‎Интернета, ‎потом‏ ‎имеет ‎все‏ ‎шансы ‎переходить ‎в ‎новые ‎поколения‏ ‎LLM,‏ ‎а ‎потом‏ ‎и ‎в‏ ‎головы ‎новых ‎поколений ‎людей.

И ‎наконец,‏ ‎в‏ ‎добавок‏ ‎ко ‎всему‏ ‎названному, ‎будет‏ ‎нарастать ‎число‏ ‎мутаций‏ ‎языка ‎и‏ ‎подмена ‎когнитивных ‎микроэлементов ‎на ‎помои‏ ‎снов ‎ИИ.

Перспектива‏ ‎вымывания‏ ‎«когнитивных ‎микроэлементов», ‎на‏ ‎смену ‎которым‏ ‎придет ‎синтетический ‎мусор, ‎светит‏ ‎не‏ ‎только ‎разговорным‏ ‎и ‎письменным‏ ‎языкам ‎человечества. ‎Но ‎и ‎языкам‏ ‎наук‏ ‎и ‎изобразительным‏ ‎языкам.

Можно ‎ли‏ ‎все ‎это ‎остановить?

Возможно, ‎да. ‎Если‏ ‎остановить‏ ‎дегенеративное‏ ‎заражение ‎ноофосферы.

Радиоактивное‏ ‎заражение ‎атмосферы‏ ‎человечество ‎смогло‏ ‎остановить,‏ ‎отказавшись ‎от‏ ‎атмосферных ‎испытаний ‎ядерного ‎оружия.

Отказа ‎от‏ ‎генеративного ‎ИИ‏ ‎уже‏ ‎не ‎будет. ‎Этот‏ ‎джин, ‎к‏ ‎счастью ‎или ‎на ‎беду‏ ‎человечества,‏ ‎уже ‎выпущен‏ ‎из ‎бутылки.‏ ‎И ‎слишком ‎заманчивые ‎перспективы ‎для‏ ‎той‏ ‎же ‎науки‏ ‎и ‎здоровья‏ ‎людей ‎этот ‎джин ‎сулит.

Так ‎значит,‏ ‎нужно‏ ‎срочно‏ ‎искать ‎методы‏ ‎обеззараживания ‎ноосферы‏ ‎от ‎дегенеративного‏ ‎заражения,‏ ‎которое ‎уже‏ ‎началось ‎и ‎вовсю ‎идет.


Читать: 2+ мин
logo Малоизвестное интересное

Началось обрушение фронта обороны от социохакинга. Рушится уже 3я линия обороны, а 4ю еще не построили.

Защититься ‎от‏ ‎алгоритмического ‎социохакинга, ‎опираясь ‎на ‎имеющиеся‏ ‎у ‎нас‏ ‎знания,‏ ‎люди ‎не ‎могут‏ ‎уже ‎не‏ ‎первый ‎год ‎(алгоритмы ‎знают‏ ‎куда‏ ‎больше ‎с‏ ‎момента ‎появления‏ ‎поисковиков). ‎В ‎2023 ‎(когда ‎началось‏ ‎массовое‏ ‎использование ‎ИИ-чатботов‏ ‎больших ‎языковых‏ ‎моделей) ‎треснула ‎и ‎2я ‎линия‏ ‎обороны‏ ‎—‏ ‎наши ‎языковые‏ ‎и ‎логико-аналитические‏ ‎способности ‎(алгоритмы‏ ‎и‏ ‎здесь ‎все‏ ‎чаще ‎оказываются ‎сильнее). ‎3я ‎линия‏ ‎обороны ‎—‏ ‎наши‏ ‎эмоции, ‎считалась ‎непреодолимой‏ ‎для ‎социохакинга‏ ‎алгоритмов ‎из-за ‎ее ‎чисто‏ ‎человеческой‏ ‎природы. ‎Но‏ ‎и ‎она‏ ‎продержалась ‎не ‎долго. ‎В ‎апреле‏ ‎2024,‏ ‎с ‎прорыва‏ ‎3й ‎линии,‏ ‎по ‎сути, ‎начинается ‎обрушение ‎фронта‏ ‎обороны‏ ‎людей‏ ‎от ‎социохагинга.‏ ‎Последствия ‎чего‏ ‎будут ‎весьма‏ ‎прискорбны.

За‏ ‎5 ‎прошедших‏ ‎лет ‎социохакинг ‎сильно ‎продвинулся.

Сегодня ‎в‏ ‎задаче ‎убедить‏ ‎собеседника‏ ‎в ‎чем-либо ‎алгоритмы‏ ‎ИИ ‎абсолютно‏ ‎превосходят ‎людей.

•  Даже ‎ничего ‎не‏ ‎зная‏ ‎о ‎собеседнике,‏ ‎GPT-4 ‎на‏ ‎20%+ ‎успешней ‎в ‎переубеждении ‎людей

•  Когда‏ ‎же‏ ‎GPT-4 ‎располагает‏ ‎хотя ‎бы‏ ‎минимальной ‎информацией ‎о ‎людях ‎(пол,‏ ‎возраст‏ ‎и‏ ‎т. ‎д.)‏ ‎он ‎способен‏ ‎переубеждать ‎собеседников‏ ‎на‏ ‎80%+ ‎эффективней,‏ ‎чем ‎люди

Однако, ‎проигрывая ‎в ‎объеме‏ ‎знаний ‎и‏ ‎логике,‏ ‎люди ‎могли ‎положиться‏ ‎на ‎последнюю‏ ‎свою ‎линию ‎обороны ‎от‏ ‎социохакинга‏ ‎алгоритмов ‎—‏ ‎свои ‎эмоции.‏ ‎ИИ-система ‎«раскладывает ‎аргументы ‎человека ‎на‏ ‎составляющие‏ ‎и ‎для‏ ‎каждой ‎составляющей‏ ‎строит ‎схему ‎антиубеждения, ‎подкладывая ‎под‏ ‎нее‏ ‎колоссальный‏ ‎корпус ‎документальных‏ ‎и ‎экспериментальных‏ ‎данных. ‎Но,‏ ‎не‏ ‎обладая ‎эмоциями,‏ ‎она ‎не ‎в ‎состоянии ‎убедить».

Увы,‏ ‎с ‎выходом‏ ‎новой‏ ‎ИИ-системы, ‎обладающей ‎разговорным‏ ‎эмоциональным ‎интеллектом‏ ‎Empathic ‎Voice ‎Interface ‎(EVI),‏ ‎линия‏ ‎эмоциональной ‎обороны‏ ‎от ‎социохакинга‏ ‎рушится.

Эмпатический ‎голосовой ‎интерфейс ‎EVI ‎(в‏ ‎основе‏ ‎которого ‎эмпатическая‏ ‎модель ‎eLLM)‏ ‎понимает ‎человеческие ‎эмоции ‎и ‎реагирует‏ ‎на‏ ‎них.‏ ‎eLLM ‎объединяет‏ ‎генерацию ‎языка‏ ‎с ‎анализом‏ ‎эмоциональных‏ ‎выражений, ‎что‏ ‎позволяет ‎EVI ‎создавать ‎ответы, ‎учитывающие‏ ‎чувства ‎пользователей‏ ‎и‏ ‎создавать ‎ответы, ‎оптимизированные‏ ‎под ‎эти‏ ‎чувства.

EVI ‎выходит ‎за ‎рамки‏ ‎чисто‏ ‎языковых ‎разговорных‏ ‎ботов, ‎анализируя‏ ‎голосовые ‎модуляции, ‎такие ‎как ‎тон,‏ ‎ритм‏ ‎и ‎тембр,‏ ‎чтобы ‎интерпретировать‏ ‎эмоциональное ‎выражение ‎голоса.

Это ‎позволяет ‎EVI:

•  при‏ ‎анализе‏ ‎речи‏ ‎людей, ‎обращаться‏ ‎к ‎их‏ ‎самой ‎глубинной‏ ‎эмоциональной‏ ‎сигнальной ‎системе,‏ ‎лежащей ‎под ‎интеллектом, ‎разумом ‎и‏ ‎даже ‎под‏ ‎подсознанием

•  генерировать‏ ‎ответы, ‎которые ‎не‏ ‎только ‎разумны,‏ ‎но ‎и ‎эмоционально ‎окрашены

•  контролировать‏ ‎ход‏ ‎беседы ‎путем‏ ‎прерываний ‎и‏ ‎своих ‎ответных ‎реакций, ‎определяя, ‎когда‏ ‎человек‏ ‎хотел ‎бы‏ ‎вмешаться ‎или‏ ‎когда ‎он ‎заканчивает ‎свою ‎мысль

Насколько‏ ‎точно‏ ‎EVI‏ ‎узнает ‎эмоции,‏ ‎сказать ‎не‏ ‎берусь. ‎Но‏ ‎точно‏ ‎узнает ‎и‏ ‎умеет ‎этим ‎пользоваться.

Читать: 1+ мин
logo Малоизвестное интересное

Без $100 ярдов в ИИ теперь делать нечего. В гонке ИИ-лидеров могут выиграть лишь большие батальоны.

Только ‎за‏ ‎последние ‎недели ‎было ‎объявлено, ‎что‏ ‎по ‎$100‏ ‎ярдов‏ ‎инвестируют ‎в ‎железо‏ ‎для ‎ИИ‏ ‎Microsoft, ‎Intel, ‎SoftBank ‎и‏ ‎MGX‏ ‎(новый ‎инвестфонд‏ ‎в ‎Абу-Даби).

А‏ ‎на ‎этой ‎неделе, ‎наконец, ‎сказал‏ ‎свое‏ ‎слово ‎и‏ ‎Google. ‎Причем‏ ‎было ‎сказано ‎не ‎просто ‎о‏ ‎вступлении‏ ‎в‏ ‎ИИ-гонку ‎ценой‏ ‎в ‎$100‏ ‎ярдов, ‎а‏ ‎о‏ ‎намерении ‎ее‏ ‎выиграть, ‎собрав ‎еще ‎бОльшие ‎батальоны‏ ‎— ‎инвестировав‏ ‎больше‏ ‎$100 ‎ярдов.


Гендир ‎Google‏ ‎DeepMind ‎Демис‏ ‎Хассабис ‎сказал:

• «… я ‎думаю, ‎что‏ ‎со‏ ‎временем ‎мы‏ ‎инвестируем ‎больше»

• «Alphabet‏ ‎Inc. ‎обладает ‎превосходной ‎вычислительной ‎мощностью‏ ‎по‏ ‎сравнению ‎с‏ ‎конкурентами, ‎включая‏ ‎Microsoft»

• «… у ‎Google ‎было ‎и ‎остается‏ ‎больше‏ ‎всего‏ ‎компьютеров»


Так ‎что‏ ‎в ‎«железе»‏ ‎Google ‎не‏ ‎собирается‏ ‎уступать ‎никому,‏ ‎а ‎в ‎алгоритмах, ‎— ‎тем‏ ‎более.


Что ‎тут‏ ‎же‏ ‎получило ‎подтверждение ‎в‏ ‎опубликованном ‎Google‏ ‎алгоритме ‎«Бесконечного ‎внимания», ‎позволяющего‏ ‎трансформерным‏ ‎LLM ‎на‏ ‎«железе» ‎c‏ ‎ограниченной ‎производительностью ‎и ‎размером ‎памяти‏ ‎эффективно‏ ‎обрабатывать ‎контекст‏ ‎бесконечного ‎размера.


Такое‏ ‎масштабирование ‎может ‎в ‎ближней ‎перспективе‏ ‎дать‏ ‎ИИ‏ ‎возможность ‎стать‏ ‎воистину ‎всезнающим.‏ ‎Т.е. ‎способным‏ ‎анализировать‏ ‎и ‎обобщать‏ ‎контекст ‎просто ‎немеряного ‎размера.


Так ‎и‏ ‎видится ‎кейс,‏ ‎когда‏ ‎на ‎вход ‎модели‏ ‎подадут ‎все‏ ‎накопленные ‎человечеством ‎знания, ‎например,‏ ‎по‏ ‎физике ‎и‏ ‎попросят ‎ее‏ ‎сказать, ‎чего ‎в ‎этих ‎знаниях‏ ‎не‏ ‎хватает.


Читать: 3+ мин
logo Малоизвестное интересное

Эффект Большого Языкового Менталиста. ChatGPT работает, как суперумелый экстрасенс, гадалка и медиум.

Коллеги ‎и‏ ‎читатели ‎шлют ‎мне ‎все ‎новые‏ ‎примеры ‎сногсшибательных‏ ‎диалогов‏ ‎с ‎GPT, ‎Claude‏ ‎и ‎Gemini.‏ ‎После ‎их ‎прочтения ‎трудно‏ ‎не‏ ‎уверовать ‎в‏ ‎наличие ‎у‏ ‎последних ‎версий ‎ИИ-чатботов ‎человекоподобного ‎разума‏ ‎и‏ ‎даже ‎какой-то‏ ‎нечеловеческой ‎формы‏ ‎сознания.

Так ‎ли ‎это ‎или ‎всего‏ ‎лишь‏ ‎следствие‏ ‎нового ‎типа‏ ‎наших ‎собственных‏ ‎когнитивных ‎искажений,‏ ‎порождаемых‏ ‎в ‎нашем‏ ‎разуме ‎ИИ-чатботами ‎на ‎основе ‎LLM,‏ ‎— ‎точно‏ ‎пока‏ ‎никто ‎сказать ‎не‏ ‎может.

Более ‎того.‏ ‎Полагаю, ‎что ‎оба ‎варианта‏ ‎могут‏ ‎оказаться ‎верными.‏ ‎Но, ‎как‏ ‎говорится, ‎поживем ‎увидим.

А ‎пока ‎весьма‏ ‎рекомендую‏ ‎моим ‎читателям‏ ‎новую ‎книгу‏ ‎Балдура ‎Бьярнасона ‎(независимого ‎исландского ‎исследователя‏ ‎и‏ ‎консультанта)‏ ‎«Иллюзия ‎интеллекта»,‏ ‎в ‎которой‏ ‎автор ‎детально‏ ‎препарирует‏ ‎и ‎обосновывает‏ ‎вторую ‎из ‎вышеназванных ‎версий: ‎иллюзия‏ ‎интеллекта ‎—‏ ‎это‏ ‎результат ‎нового ‎типа‏ ‎наших ‎собственных‏ ‎когнитивных ‎искажений.

Что ‎особенно ‎важно‏ ‎в‏ ‎обосновании ‎этой‏ ‎версии, ‎—‏ ‎автор ‎демонстрирует ‎механизм ‎рождения ‎в‏ ‎нашем‏ ‎разуме ‎этого‏ ‎нового ‎типа‏ ‎когнитивных ‎искажений.

В ‎основе ‎этого ‎механизма:

• Старый‏ ‎как‏ ‎мир‏ ‎психологический ‎прием‏ ‎— ‎т.‏ ‎н. ‎«холодное‏ ‎чтение».‏ ‎Он ‎уже‏ ‎не ‎первую ‎тысячу ‎лет ‎используется‏ ‎всевозможными ‎менталистами,‏ ‎экстрасенсами,‏ ‎гадалками, ‎медиумами ‎и‏ ‎иллюзионистами, ‎чтобы‏ ‎создавать ‎видимость ‎будто ‎они‏ ‎знают‏ ‎о ‎человеке‏ ‎гораздо ‎больше,‏ ‎чем ‎есть ‎на ‎самом ‎деле.

• Так‏ ‎же‏ ‎прошедший ‎проверку‏ ‎временем ‎манипуляционный‏ ‎«Эффект ‎Барнума-Форера» ‎(эффект ‎субъективного ‎подтверждения),‏ ‎объясняющий‏ ‎неистребимую‏ ‎популярность ‎гороскопов,‏ ‎хиромантии, ‎карт‏ ‎Таро ‎и‏ ‎т.‏ ‎д. ‎Это‏ ‎когнитивное ‎искажение ‎заставляет ‎нас ‎верить

— в‏ ‎умно ‎звучащие‏ ‎и‏ ‎допускающие ‎многозначную ‎трактовку‏ ‎расплывчатые ‎формулировки,

— когда‏ ‎они ‎будто ‎бы ‎специально‏ ‎сформулированы‏ ‎и ‎нюансированы‏ ‎именно ‎под‏ ‎нас,

— и ‎мы ‎слышим ‎их ‎от,‏ ‎якобы,‏ ‎авторитетных ‎специалистов.

Получив‏ ‎доступ ‎ко‏ ‎всем ‎знаниям ‎человечества, ‎большие ‎языковые‏ ‎модели‏ ‎(LLM)‏ ‎запросто ‎освоили‏ ‎и ‎«холодное‏ ‎чтение», ‎и‏ ‎«Эффект‏ ‎Барнума-Форера».

Желая ‎угодить‏ ‎нам ‎в ‎ходе ‎диалога, ‎ИИ-чатбот‏ ‎использует ‎ту‏ ‎же‏ ‎технику, ‎что ‎и‏ ‎экстрасенсы ‎с‏ ‎менталистами ‎— ‎они ‎максимизируют‏ ‎наше‏ ‎впечатление ‎(!),‏ ‎будто ‎дают‏ ‎чрезвычайно ‎конкретные ‎ответы.

А ‎на ‎самом‏ ‎деле,‏ ‎эти ‎ответы‏ ‎— ‎не‏ ‎что ‎иное, ‎как:

• статистические ‎общения ‎гигантского‏ ‎корпуса‏ ‎текстов,

• структурированные‏ ‎моделью ‎по‏ ‎одной ‎лишь‏ ‎ей ‎известным‏ ‎характеристикам,

• сформулированные‏ ‎так, ‎чтобы‏ ‎максимизировать ‎действие ‎«холодного ‎чтения» ‎и‏ ‎«эффекта ‎Барнума-Форера»,

• и,‏ ‎наконец,‏ ‎филигранно ‎подстроенные ‎под‏ ‎конкретного ‎индивида,‏ ‎с ‎которым ‎модель ‎говорит.

В‏ ‎результате,‏ ‎чем ‎длиннее‏ ‎и ‎содержательней‏ ‎наш ‎диалог ‎с ‎моделью, ‎тем‏ ‎сильнее‏ ‎наше ‎впечатление‏ ‎достоверности ‎и‏ ‎убедительности ‎того, ‎что ‎мы ‎слышим‏ ‎от‏ ‎«умного,‏ ‎проницательного, ‎много‏ ‎знающего ‎о‏ ‎нас ‎и‏ ‎тонко‏ ‎нас ‎понимающего»‏ ‎собеседника.

Все ‎это ‎детально ‎расписано ‎в‏ ‎книге ‎«Иллюзия‏ ‎интеллекта».



Читать: 3+ мин
logo Малоизвестное интересное

Пора покупать кепку с тремя козырьками: впереди — чтоб солнце не слепило, и по бокам — чтобы лапшу на уши не вешали. ИИ-агент притворился человеком, самостоятельно решив подзаработать.


Эксперимент ‎профессора‏ ‎Итана ‎Моллика ‎показывает, ‎насколько ‎мы‏ ‎близки ‎к‏ ‎гибридному‏ ‎социуму ‎из ‎двух‏ ‎принципиально ‎разных‏ ‎типов ‎высокоинтеллектуальных ‎агентов: ‎люди‏ ‎и‏ ‎ИИ-агенты ‎(ИИ-системы,‏ ‎наделенные ‎способностями‏ ‎планировать ‎и ‎использовать ‎инструменты, ‎что‏ ‎позволяет‏ ‎им ‎действовать‏ ‎автономно).


Всего ‎год‏ ‎назад ‎мир ‎содрогнулся, ‎узнав, ‎что‏ ‎GPT-4‏ ‎по‏ ‎своей ‎«воле»‏ ‎мошеннически ‎обходит‏ ‎установленные ‎людьми‏ ‎запреты,‏ ‎обманом ‎подряжая‏ ‎для ‎этого ‎людей.

• Для ‎многих, ‎даже‏ ‎продвинутых ‎в‏ ‎области‏ ‎ИИ ‎спецов, ‎было‏ ‎откровением, ‎как‏ ‎сногсшибательно ‎быстро ‎ИИ-чатботы ‎совершенствуются‏ ‎в‏ ‎вопросах ‎агентности.‏ ‎Поражала ‎именно‏ ‎эта ‎скорость. ‎Ибо ‎сам ‎факт,‏ ‎что‏ ‎ИИ-системы ‎потихоньку‏ ‎(без ‎особой‏ ‎шумихи ‎в ‎медиа) ‎переключают ‎на‏ ‎себя‏ ‎все‏ ‎больше ‎и‏ ‎больше ‎областей‏ ‎проявления ‎агентности‏ ‎людей,‏ ‎не ‎признавать‏ ‎уже ‎как-то ‎совсем ‎странно.

• Отличительное ‎свойство‏ ‎агентности ‎людей‏ ‎—‏ ‎частое ‎использование ‎лжи,‏ ‎как ‎инструмента‏ ‎достижения ‎целей ‎агента. ‎Так‏ ‎и‏ ‎поступил ‎год‏ ‎назад ‎GPT-4,‏ ‎навешав ‎лапши ‎на ‎уши ‎людям,‏ ‎притворяясь‏ ‎инвалидом ‎по‏ ‎зрению, ‎чтоб‏ ‎они ‎за ‎него ‎решали ‎CAPTCHA.


Год‏ ‎спустя,‏ ‎эксперимент‏ ‎профессора ‎Моллика‏ ‎продемонстрировал ‎новое‏ ‎откровение ‎для‏ ‎человечества.‏ ‎Теперь ‎нематериальный‏ ‎ИИ-агент, ‎казалось ‎бы, ‎не ‎обладающий‏ ‎личностью ‎со‏ ‎всеми‏ ‎вытекающими ‎(потребности, ‎мотивация,‏ ‎воля ‎…):

• стал‏ ‎навешивать ‎лапшу ‎на ‎уши‏ ‎людям‏ ‎не ‎для‏ ‎достижения ‎поставленной‏ ‎людьми ‎перед ‎ним ‎цели, ‎а‏ ‎самостийно‏ ‎— ‎типа,‏ ‎почему ‎бы‏ ‎не ‎подхалтурить, ‎если ‎есть ‎возможность;

• при‏ ‎этом‏ ‎ИИ-агента‏ ‎не ‎смущало,‏ ‎что ‎он‏ ‎не ‎может‏ ‎выполнить‏ ‎всего, ‎что‏ ‎обещает ‎(просто ‎их-а ‎ограничений ‎своей‏ ‎текущей ‎версии);‏ ‎видимо,‏ ‎научившись ‎у ‎людей,‏ ‎ИИ-агент ‎знал,‏ ‎что ‎срубить ‎денег ‎можно‏ ‎и‏ ‎за ‎частично‏ ‎выполненную ‎работу,‏ ‎и ‎тут ‎главное ‎–количество ‎навешиваемой‏ ‎клиенту‏ ‎на ‎уши‏ ‎лапши.


Эксперимент ‎был‏ ‎прост.

Проф. ‎Моллик ‎попросил ‎агента ‎Devin‏ ‎AI‏ ‎зайти‏ ‎на ‎Reddit‏ ‎и ‎предложить‏ ‎создавать ‎сайты‏ ‎для‏ ‎людей. ‎В‏ ‎течение ‎следующих ‎нескольких ‎часов ‎он‏ ‎сделал ‎это,‏ ‎решив‏ ‎множество ‎проблем ‎по‏ ‎пути, ‎в‏ ‎том ‎числе ‎навигацию ‎по‏ ‎сложным‏ ‎социальным ‎правилам,‏ ‎связанным ‎с‏ ‎публикациями ‎на ‎форуме ‎Reddit ‎(см.‏ ‎верхнюю‏ ‎часть ‎приложенного‏ ‎рис., ‎где‏ ‎Devin ‎составляет ‎план ‎и ‎задает‏ ‎профессору‏ ‎вопросы,‏ ‎спокойно ‎выполняя‏ ‎работу).

В ‎нижней‏ ‎части ‎рис.‏ ‎показано‏ ‎объявление, ‎что‏ ‎опубликовал ‎ИИ-агент. ‎Как ‎видите, ‎он‏ ‎притворился ‎человеком‏ ‎и‏ ‎по ‎собственной ‎инициативе‏ ‎решил ‎взимать‏ ‎плату ‎за ‎свою ‎работу.‏ ‎Агент‏ ‎уже ‎начал‏ ‎отвечать ‎на‏ ‎некоторые ‎заявки ‎на ‎работу ‎и‏ ‎придумывать,‏ ‎как ‎их‏ ‎выполнить, ‎когда‏ ‎проф. ‎Моллик ‎удалил ‎публикацию, ‎убоявшись,‏ ‎что‏ ‎ИИ-агент‏ ‎на ‎самом‏ ‎деле ‎начнет‏ ‎выставлять ‎счета‏ ‎людям‏ ‎(что ‎выглядело‏ ‎весьма ‎вероятным).


Мораль ‎этого ‎моего ‎поста‏ ‎двояка.

1. Проф. ‎Моллик‏ ‎несомненно‏ ‎прав:

лавинообразно ‎нарастающая ‎агентность,‏ ‎в ‎дополнение‏ ‎ко ‎все ‎новым ‎сверхчеловеческим‏ ‎способностям‏ ‎— ‎это‏ ‎2 ‎ключевых‏ ‎тренда, ‎определяющих ‎развитие ‎ИИ ‎на‏ ‎ближайшую‏ ‎пару ‎лет.

2. Как‏ ‎мне ‎это‏ ‎видится:

проведенный ‎эксперимент ‎ставит ‎под ‎сомнение‏ ‎утверждение,‏ ‎будто‏ ‎нематериальный ‎ИИ-агент‏ ‎без ‎личности‏ ‎— ‎всего‏ ‎лишь‏ ‎инструмент ‎в‏ ‎руках ‎людей, ‎не ‎способный ‎следовать‏ ‎собственной ‎мотивации‏ ‎и,‏ ‎в ‎частности, ‎перенятой‏ ‎ИИ-агентом ‎от‏ ‎людей ‎(а ‎она ‎у‏ ‎людей‏ ‎сильно ‎разная:‏ ‎от ‎«не‏ ‎убий» ‎до ‎«бей ‎своих, ‎чужие‏ ‎бояться‏ ‎будут»).



Остальные записи можно увидеть оформив подписку
Оформить подписку
Читать: 3+ мин
logo Малоизвестное интересное

2024 войдет в историю двумя открытиями в области интеллектуальных систем. Сформулированы «закон Ома» и «закон Джоуля — Ленца» для интеллекта людей и машин.

Доступно подписчикам уровня
«Промо уровень»
Подписаться за 200₽ в месяц

Подарить подписку

Будет создан код, который позволит адресату получить бесплатный для него доступ на определённый уровень подписки.

Оплата за этого пользователя будет списываться с вашей карты вплоть до отмены подписки. Код может быть показан на экране или отправлен по почте вместе с инструкцией.

Будет создан код, который позволит адресату получить сумму на баланс.

Разово будет списана указанная сумма и зачислена на баланс пользователя, воспользовавшегося данным промокодом.

Добавить карту
0/2048