Мозг человека и искусственный интеллект. Александр Каплан. Ч-2

https://www.youtube.com/watch?v=w6QsqMLD9Os

GEMINI

Краткое изложение

Автор утверждает, что для преодоления ограничений человеческого мозга в современном мире необходимо объединить его сильные стороны (интуиция, творчество, способность строить сложные модели реальности) с преимуществами машин (скорость, память, неутомляемость). Существующий «слабый» искусственный интеллект, по его мнению, не является истинным разумом, а лишь имитирует интеллектуальную деятельность за счёт огромных вычислительных мощностей и статистического анализа, как показывают примеры с играми в шахматы, покер и го.

Главное решение, предлагаемое автором, — это создание «нейротехнологий поколения 5.0». Это продвинутые нейроинтерфейсы, которые формируют прямой, невербальный канал связи между мозгом и компьютером. В этом контуре машина предлагает гипотезы (например, в виде образов), а мозг даёт обратную связь через электрическую активность (ЭЭГ). Так система обучается понимать «внутренний язык» модели человека, что позволяет совместно решать сложнейшие неалгоритмические задачи, недоступные ни человеку, ни машине по отдельности.

Подробное изложение

Текст представляет собой лекцию по нейрофизиологии и искусственному интеллекту, в которой автор развивает идею синергии человеческого мозга и компьютерных систем.

  1. Проблема и «гипотеза таксистов». Лекция начинается с описания проблемы информационной перегрузки и стресса в современной жизни. Отказаться от технологий невозможно, и в качестве популярного решения часто упоминается искусственный интеллект (ИИ).

  2. Что такое ИИ? Автор разделяет ИИ на «слабый» (узкоспециализированные системы, которые уже существуют) и «сильный» (равный человеческому, которого нет). Современный ИИ — это набор разрозненных элементов, обладающих высоким быстродействием, огромной памятью и неутомляемостью, но лишённых эмоций и сознания.

  3. Преимущества человеческого мозга. Главное свойство мозга — способность строить сложные прогностические модели реальности. Изначально это было нужно для выживания, но у человека эта способность вышла за пределы биологической целесообразности, породив стремление к познанию ради самого познания. Результаты работы этой внутренней модели мы получаем в виде интуиции, озарений и творчества. Однако у нас нет прямого «языка» для общения с этой моделью.

  4. Критика современного ИИ на примерах игр. Автор подробно анализирует, как ИИ обыгрывает человека в шахматы, покер и го.

    • Шахматы: Успех программ вроде Deep Blue объясняется не интеллектом, а огромными вычислительными мощностями и базами дебютов.
    • Покер: Машина победила, сыграв миллиарды партий сама с собой и составив статистические таблицы вероятностей, недоступные человеку.
    • Го: AlphaGo также использовала принцип самообучения в миллиардах партий для создания статистических моделей. Во всех случаях это не «мышление», а симуляция, основанная на колоссальных объёмах вычислений. Исключением является AlphaZero, которая начинает строить собственную модель игры, что уже ближе к принципам работы мозга.
  5. Человеческий гений против алгоритмов. Автор противопоставляет машинной логике примеры из истории науки: Великую теорему Ферма и гипотезу Пуанкаре (доказанную Перельманом). Математики «знали» или «чувствовали» верность этих утверждений задолго до формального доказательства. Это «знание» — результат работы их мощных внутренних моделей, на что не способен алгоритмический подход.

  6. Решение: нейроинтерфейсы и «мозгомашинный язык». Ключевая идея автора — объединить мозг и машину напрямую. Его лаборатория разрабатывает «нейротехнологии поколения 5.0».

    • Принцип работы: Создаётся контур, в котором генеративная нейросеть выдвигает гипотезы (например, образы), а мозг человека, подключённый через ЭЭГ, даёт невербальную обратную связь («тепло/холодно»).
    • Цель: Нейросеть учится понимать семантическое поле конкретного человека и «угадывать», что он задумал. Так формируется новый, «мозгомашинный язык» для совместного решения творческих и неалгоритмических задач. Этот подход уже подтверждается экспериментами на животных.
  7. Ответы на вопросы.

    • Об опасности ИИ: Опасность реальна, но ответственность лежит на людях. Как и с автомобилями, необходимо разрабатывать системы безопасности.
    • Об искусстве ИИ: Генеративные сети могут создавать впечатляющие симуляции (картины, тексты), но в них нет «души», новизны и человеческого вложения. Это имитация, а не творчество.
    • О сохранении психического здоровья: Рекомендуется сместить фокус с внешней конкурентной гонки на внутреннее развитие: познание себя, творчество, чтение, искусство.

CHATGPT

Краткое изложение

  • Спикер обсуждает различия между «слабым» и «сильным» искусственным интеллектом: сильный (универсальный) ИИ, равный человеческому, не существует; слабые, узкоспециализированные системы существуют и эффективны в алгоритмических задачах.
  • Мозг строит модели внешней реальности, которые выходят за пределы биологической целесообразности и подпитывают познание; результаты работы таких моделей проявляются как интуиция, инсайты, творчество и эмоциональная окраска.
  • Идея объединения ресурсов мозга и машин: создание мозгомашинного языка через нейроинтерфейсы, работающие на неязыковом уровне (ЭЭГ → гипотезы ИИ → обратная связь «горячо/холодно» → совместное обучение).
  • Примеры «успехов» ИИ в играх (шахматы, покер, го) показывают роль памяти, статистики и самоигры, а не наличие настоящего «интеллекта». Альфа-системы строят внутренние модели, но это иные сетевые структуры, которые сложно интерпретировать.
  • Эксперименты на обезьянах с нейронами, селективно реагирующими на лица: генеративные сети модифицируют стимулы и изучают изменение нейронных ответов, подтверждая возможность диалога мозга с ИИ.
  • Опасности генеративных и языковых моделей (пример: «рецепты» отравления) требуют разработки безопасного ИИ, как когда-то сделали безопасные автомобили.
  • Наука должна быть междисциплинарной: синергия нейрофизиологии, ИИ, классических художественных практик; важны новые методы и корректная методология.
  • В конце — ответы на вопросы о «душе» в AI-искусстве, рисках ИИ и практической архитектуре «технологий 5.0», а также организационные объявления.

 

Подробное изложение

  • Вовлечённость в технологическую реальность
    • Человек не может «вернуться в прошлое» (отказ от смартфона, телевизора), так как современная жизнь и работа (лаборатория, проекты) встроены в высокотехнологичную среду.
    • Социально-индустриальная природа проблемы: индустрия высокотехнологична и усиливает вовлечение.
  • Статус искусственного интеллекта
    • Различие: слабый ИИ (узкоспециализированный, прикладной) существует; сильный/универсальный ИИ, равный человеческому, — нет.
    • Элементы ИИ дают:
      • Высокое быстродействие, большую память, неутомляемость, отсутствие эмоциональных/потребностных сбоев.
      • Но отсутствуют тело, боль, эмоции, потребности, этика — следовательно, возможна «неосторожная» опасность при использовании людьми.
  • Модели мозга и человеческое познание
    • Мозг строит модели внешней реальности, которые предсказывают и помогают адаптации.
    • Ключевой тезис: модели выходят за биологическую целесообразность и подпитывают познание «лишнего» (например, свет далёких звёзд).
    • Коммуникация с внутренней моделью мозга отсутствует; её сигналы проявляются как инсайт, интуиция, озарение, творчество, эмоции (эмоциональная метка усиливает запоминание).
  • Объединение мозга и машины
    • Предложение: создать мозгомашинный язык через нейроинтерфейс.
    • Контур взаимодействия:
      • Считывание электрической активности мозга (ЭЭГ) → ИИ формирует гипотезы (например, объект-изображение).
      • Человек даёт неязыковую обратную связь («не то», «холодно/тепло»).
      • ИИ и мозг совместно обучаются; ИИ строит семантическое поле, сходное с полем конкретного человека.
    • Практика: сначала ограниченный набор объектов (10 → 5 → расширение), затем подключение языковых и «картинных» моделей для ускорения сближения.
    • «Нейротехнологии 5.0»: следующий уровень — не командное управление манипуляторами, а формирование мозга–машинного языка.
  • Игровые примеры и природа «успехов» ИИ
    • Шахматы:
      • Прямой перебор невозможен (оценки числа позиционных состояний огромны).
      • Машины выигрывали благодаря памяти дебютов и массовому перебору характерных линий соперника; сравнение с «жульничеством» (условная «сумка» с 512 процессорами).
    • Человеческий эксперт ограничен прогнозом на 3–4 хода; далее — «волшебный» неалгоритмический путь (интуитивная стратегия).
    • Кривые рейтинговых улучшений ИИ насыщаются (около 5000 Эло).
  • Покер:
    • Неполная информация: самоигра миллиардами партий, статистические таблицы решений дают ~57% точность — недостижимо для человека.
  • Го:
    • Нет устойчивых дебютных баз; победы достигались через самоигру, накопление статистических таблиц, глубокие нейросетевые модели (AlphaGo/Zero).
    • Сети создают «малые» модели среды игры, повышающие предсказательность.
  • Трудность интерпретации искусственных сетей
    • Внутри обученных сетей — лишь веса связей; извлечение «образов» и объяснений требует специальных методов.
      • Возникает направление: «нейрофизиология искусственных нейронных сетей», изучающая, как сети решают задачи, не сводя всё к «чёрному ящику».
  • Эксперименты на обезьянах
    • Инвазивные записи нейронов, чувствительных к конкретным образам (например, лицам, «клеткам Мэрилин Монро»).
      • Генеративные модели варьируют стимулы и наблюдают, как меняется нейронная реакция (новые гипотезы и проверка «ослабнет ли ответ»).
    • Мозг идёт на взаимодействие с «сюжетами» генеративных сетей; это подтверждает работоспособность схемы мозг–ИИ.
  • Опасности и безопасность
    • Языковые модели могут генерировать вредные инструкции (пример с «рецептом» отравления).
    • ИИ — средство повышенной опасности, как автомобиль; требуется целенаправленная разработка мер безопасности и ограничений.
  • Человеческое «неалгоритмическое» знание
    • Примеры великих задач (последняя теорема Ферма, гипотеза Пуанкаре): долгие периоды без доказательств; решение одним человеком; вопрос «откуда уверенность» — от внутренней модели и интуиции.
    • Мессенджерские лекции Фейнмана: великие открытия не делаются алгоритмически; «просто догадываемся».
  • Искусство и «душа» в работах ИИ
    • Генеративные изображения могут быть формально похожими на работы художников, но часто лишены «человеческой души» и смысла.
    • Возможна симуляция и обман, особенно при персонализации; но создание «новых миров» — существенно сложнее.
  • Междисциплинарность и синергия
    • Современные исследования нейро- и психофизиологии тесно связаны с ИИ и художественными практиками.
    • Важны новые методы, корректная методология, взаимодействие разных дисциплин; иначе наука «провиснет».
      • Организационная часть: благодарности аудитории; упоминание сувенира и анонса художественной выставки проекта «Российские древности» Алексея Паевского — как пример культурной синергии.
  • Вывод
    • Сильного ИИ нет; слабые элементы ИИ чрезвычайно полезны в алгоритмических задачах.
    • Мозг обладает уникальной универсальной моделью и неалгоритмическими способностями (интуиция, творчество).
      • Будущее — в интеграции: создание мозгомашинного языка на основе нейроинтерфейсов (технологии 5.0), при этом — с приоритетом безопасности и междисциплинарности.

  

  

Полный текст

Нуу, да, в общем-то разные варианты есть. Ну, выбросьте телевизор, возьмите кнопочный телефон — да и всё — и вернитесь там к нашим другим временам. Ну, просто мы не можем реально это сделать: мы включены в эту действительность, в которой находимся. Я не могу отказаться от телефона: слишком много завязано на работе и жизни. Сейчас я — руководитель лаборатории: проекты, задачи и прочее. Как от этого отказаться? Мы сами устроили себе такую жизнь. В общем, теперь…

Есть ход, который всем известен. Кого ни спросишь — в автобусе, в такси… Таксист однажды объяснял, как выйти из положения: «Очень просто — искусственный интеллект. Он нам поможет». И мы возвращаемся к этому искусственному интеллекту. Тут варианты есть. Мы не решаем сейчас проблему как таковую: это индустриально‑социальная проблема — индустрия подталкивает, она насыщена, высокотехнологична. Давайте рассмотрим «гипотезу таксистов»: как искусственный интеллект может помочь.

Когда говорим «искусственный интеллект», я отдаю себе отчёт: «настоящего» искусственного интеллекта не существует и вряд ли скоро появится. Специалисты аккуратно подходят к вопросу: «существует слабый искусственный интеллект» и «существует сильный». Слабый — есть; сильный — пока нет. Сильный — равный человеческому, опосредует весь функционал мозга. Слабый — соглашусь: автопилоты, узкоспециализированные системы. Другой термин для сильного — general, универсальный искусственный интеллект. Универсального не существует, и проекта универсального интеллекта тоже нет. Мы не будем туда погружаться; важно, что существующие элементы уже неплохи.

Поэтому, говоря «искусственный интеллект», я имею в виду элементы ИИ: они рассыпаны, не собраны в единый субъект. Если вам показывают «диктора» — это не интеллект, тем более в таком виде. Что могут процессоры? Высокое быстродействие, большие объёмы памяти, неутомляемость. Машины могут работать день и ночь. Какая бы информация ни появилась — даже «сейчас тебя уничтожат» — никакого эффекта: система работает, как работала. Человеку скажи — он возмутится. Это — в пользу работоспособности и эффективности элементов ИИ.

А что может предоставить нам теперь… У нас нет идеальной памяти, мы утомляемся, эмоции мешают и помогают. Позитив есть — от мозга, модели. Правильная гипотеза: мозг научился строить модели внешней реальности — внешней по отношению к самой модели. Это серьёзно: модель предсказывает, помогает адаптации человека к среде обитания. Поэтому она появилась: всё в биологии возникает как эволюционное приобретение для адаптации. Больше ни для чего.

Но с мозгом человека возникла необычная вещь: если действительно строится модель, она может совершенствоваться. Как? Получать больше данных о среде, лучше прогнозировать. Давайте пофантазируем логику: модели вышли за пределы биологической целесообразности — важное предположение. Они начинают насыщаться новыми знаниями о действительности — чтобы лучше предсказывать. Нам не нужно изучать свет далёких звёзд — это не влияет на жизнь здесь. А модель, стремясь к совершенству, продолжает это изучать, если попадает в поле её внимания. Конечно, модели не про «всю вселенную»: они потребностно ориентированы. Но чтобы смоделировать нужное, требуются дополнительные знания, и модель порой подталкивает нас их добывать.

Вы ищете в интернете одно, а вдруг — другие сайты, другие темы. «Свет далёких звёзд? Почитаю». Думаете, это ваше желание? Модель подталкивает: «интересно, а что там?» Это уже вне биологии. И это — главное приобретение человека: путь к познанию природы вне биологической целесообразности. Организмы познают природу «под себя» — чтобы выжить. Человек пошёл дальше.

Если такая модель существует… Это не просто доказать. Сетевые структуры показывают: они проникают дальше, чем диктует биологическая целесообразность. Я добавляю: это вытекает из логики устройства мозга. Если такие модели работают в голове, возникает проблема: как нам узнать результат их работы? Раз модель что-то смоделировала — зачем выдумывать? Давайте спросим у модели: как она «считает» устроено интересующее нас явление. Как спросим? Никак. У нас есть язык для коммуникации между людьми, но нет языка для коммуникации с собственной моделью. Она внутри, её язык нам неизвестен. Иногда, если человек живёт этим, направляет чувствительность на понимание, он получает ответ от модели. Эти моменты мы называем озарением, инсайтом, интуицией. Интуиция — это модель кривым путём подсказала. Кому-то снится, кому-то вдруг приходит в голову. Мозг обладает свойствами творчества, интуиции, эмоций. Эмоциональность имеет позитивный смысл: если возникает эмоция — значит, это очень важно; позитивная эмоция — значит, это нужно; событие с позитивной эмоцией запоминается окрашенно. Это — свойства мозга.

Простой вопрос: давайте объединим преимущества мозга и машин — получим новый этап эволюции. Эволюция процессоров идёт, эволюция мозга — фактически остановилась. Объединим — получим новый агрегат. Как объединять? Это я подвожу к тому, чем мы занимаемся. Нейроинтерфейс‑технологии: в 2005 году наша лаборатория была единственной, кто занялся ими. Логика исследований привела к этому. Тогда я искал гранты, мне говорили: «Вы серьёзный учёный, а занимаетесь чудачествами». Грантов не давали. Сейчас почти каждая нейрофизиологическая лаборатория и даже магазины предлагают нейроинтерфейсы. Это свидетельство, что они пробили себе право на жизнь.

Что они представляют? Получить информацию от мозга, передать её в компьютер, получить из компьютера ответ и вернуть в мозг. Всё просто: почему бы не сделать? Мы говорили о мозге, но хотим, чтобы ИИ помогал. Вопрос о существовании ИИ мы обсудили. Люди, придумавшие слово «искусственный интеллект», думали о том, что считать интеллектуальным процессом: какие операции — интеллектуальные, какие — арифметические. Шахматы — интеллектуальная игра. Представьте: программа обыгрывает чемпиона мира — интеллектуальная? Да. Возможна такая программа? Конечно. Двадцать лет назад ответ был бы не столь уверенным. В 1997‑м «Deep…» уже играла лучше чемпионов мира.

Почему? Шахматы — конечная игра, данные полные. Полный перебор невозможен. Норберт Винер оценивал число осмысленных позиций в шахматах как 2^120. В галактике — порядка 10^28 атомов, а тут — 2^120 позиций. Крайние оценки варьируют: 2^100, 2^50 — всё равно огромное. Перебрать 2^50 — тысячи, миллионы лет. Прямой перебор невозможен. Машина делала иначе: в её памяти — дебютные базы чемпионских партий: первые 8–10 ходов. Это крохотная память для тех машин. Вы делаете ход — она перебирает партии и делает наиболее вероятный для вашего проигрыша ход. Так готовятся и шахматисты. Но шахматист не пронесёт на чемпионат ноутбук. А машина имела 512 процессоров: фактически «517 ноутбуков». Это жульничество: где тут интеллект? Не пахнет. Интеллект может быть в стиральной машине: она соотносит вес белья и объём воды… Здесь — нет. Всё их «достижения» — это мощности плюс дебютные базы.

Эволюция этих машин… «Stockfish» — суперпрограмма. Она превышала рейтинг Эло 3000. Люди до сих пор не переходили 2900, а тогда машины уже имели 3300. С этой базой людям не справиться. Но есть игры с неизвестным раскладом — покер: неполная информация. Перебор вариантов не помогает. Казалось, машина никогда не обыграет человека — «покерное лицо» и прочее. Обыграла — элегантно. Просто: машина играла в покер с другой машиной. Операции быстрые: партия за 5 секунд. 200 процессоров играли 70 суток — миллиарды партий. Статистическая таблица: вероятности ходов при разных раскладах. Вышли на 57% предсказания — очень высокий процент, человеку недостижим. Где интеллект? Нет его. Это специально обученная система.

«Го» — особая игра. Там нет применимых дебютных баз: комбинаторика колоссальная, каждое начало — новое. Чемпионские партии — мизерный процент. Тем не менее «го» обыгрываем. Чемпионов мира обыграли. Почему? Статьи опубликованы: логика доступна, формулы — тоже. AlphaGo играла по тому же принципу: играть самой с собой, создавать больше статистических таблиц. Таблицы — мизерные по объёму, машина обращается к ним за микросекунды. Сыграть сотни миллиардов партий — и сделать таблицы. «Го» хорошо транскрибируется, базы реальных игр доступны. В итоге — система с процессорами, видеоускорителями, 160 тысяч реальных игр, 30 млн симуляций… Таблица — готова. Как её обыграть? Никак. Это что — интеллект?

Шахматы — интеллектуальная игра. Но как человек делает третий ход? Он не просчитывает дальше трёх ходов — даже чемпионы. Дальше они играют «волшебным» путём — на середине партии, где вариантов много. Машины обыгрывают шахматистов — понятно. Но люди играют друг с другом: если никто не может просчитать дальше, почему выигрывают? Потому что работают другие механизмы. Чтобы не рисовать мрачную картину, есть статья о том, как играет AlphaGo/AlphaZero. Она садится без дебютных баз, не зная игры: с одной стороны — человек, с другой — программа. Подсматривает: размер доски, белые/чёрные камни, правила. Если играет сама с собой — быстро набирает рейтинг, через 24 часа обыгрывает сложные программы и людей, достигая 3500 пунктов.

Вообще шахматная игра показала: можно разогнать машины — пусть играют миллиарды партий, но рейтинг Эло насыщается. Кривая похожа на логарифмическую: насыщение около 5000 Эло. Дальше играть бессмысленно: выше не наберёт — свойства игры ограничивают потолок. Я сейчас не разбираю, как играет AlphaZero. Здесь близко к тайне человеческого мозга: она создаёт модель — сетевую структуру, описывает среду — маленькую модель, затем учится. Сказать «создаёт модель» легко, а реализовать — сложно: над этим работают вычислительная математика и программирование. Как только появляется модель — возникают предсказательные способности, накапливается опыт, который трудно интерпретировать, потому что система работает на искусственных сетях, а мы не понимаем их внутреннюю организацию.

Я завёл в лаборатории направление: «нейрофизиология искусственных нейронных сетей, обученных на нейроданных». Надо разобраться: как они «умеют». Внутри — только веса между искусственными нейронами: тысячи весов, зависящие от числа слоёв; 0,08 — сильнее, меньше — слабее. Таблица весов — без подсказки, «что это значит». Это отдельная история: изучать, как работают искусственные сети. Пока особой нужды не было: распознают лица — хорошо; как — вторично. Но если эти модели научиться хорошо строить, это будет симуляция преимущества мозга. Построить модель «внутри» сети — сложно, сети должны её наработать сами. Эволюция нашла ходы, как мозг нарабатывает хорошую модель. Как запустить этот процесс в искусственных сетях — никто не знает. Видно, что сети уже работают с моделями и делают многое лучше, чем алгоритмы без моделей. В задачах с алгоритмическим решением элементы ИИ работают намного лучше человеческого мозга. Называйте их как угодно — они превосходят. А если решение не алгоритмическое…

Вот что может человек. Ваше терпение не бесконечно, завершаю. Что может мозг человека… Вот неравенство: для любых натуральных X, Y, Z при n > 2 уравнение X^n + Y^n = Z^n не имеет решений в целых ненулевых числах. Это написал 350 лет назад Ферма без доказательства. Для n = 2 — теорема Пифагора: 3, 4, 5. Поэтому утверждение Ферма — про теорию чисел, сложное. Лучшие математики пытались: доказывали для отдельных n — 3, 5, 7; общего не было. 350 лет. В конце концов английский математик Эндрю Уайлс доказал. Доказательство — 128 страниц, и во времена Ферма было невозможно: нужны новые инструменты и теории. Откуда Ферма «знал», что утверждение верно? Чтобы проверить, нужна машина, подставляющая значения — но это не даёт общего доказательства.

Другой, более свежий пример — гипотеза Пуанкаре. Формулировка понятна: трёхмерное многообразие без края, при определённом условии, гомеоморфно трёхмерному шару. Важна для топологии и космологии. Никто не доказывал, пока не нашёлся один человек — Перельман — и доказал, затратив годы. Откуда «знание», что сформулированная гипотеза верна? Нашёлся один математик, который довёл до конца. Понять доказательство — отдельная задача. Это касается не только математики, но и нейрофизиологии, теории мозга, теории вещества. Такая у нас ситуация.

Это показывает, насколько необычно «заявление» Пуанкаре — и как редки люди уровня Перельмана. Собрали математиков, работавших в области, два года анализировали, издали книгу: практически наверняка Перельман прав. С этого момента — теорема Перельмана. Но найдётся ли другой Перельман для другой проблемы? Счёт идёт на единицы. Мир становится познавательно сложным, таких людей мало, возможно, их «запас» исчерпывается. Мы живём на грани.

Важно: откуда они заранее «знали»? Вероятный ответ: их внутренняя модель смоделировала и дала подсказку: «так должно быть». Дальше — нужно доказательство. Мы не можем верить на слово. Ричард Фейнман в «Мессенджерских лекциях» писал: ни одно великое открытие физики и математики не было сделано алгоритмически. «Просто догадываемся». Может ли ИИ «догадываться»? Несмотря на ростки моделей, у машин — модели узкие: «как играть в го», «как играть в шахматы». В голове человека строится универсальная модель: «как жить и познавать природу» — другого масштаба.

Мы поговорили о ресурсах мозга и ИИ. Есть смысл их объединять так, чтобы не только «человек сидит за компьютером». Человек не может сформулировать вопросы полностью — они связаны с его внутренней моделью. Нужно объединить мозг и машину, чтобы на неязыковом уровне обращаться к системе. Создать контуры, где мозг и машинный интеллект договариваются. Берём электрическую активность мозга, пытаемся расшифровать запрос, передаём компьютеру; строим контур, где сеть пытается разгадать, «что в энцефалограмме». ИИ выдвигает гипотезы в виде образов; мозг даёт обратную информацию: «не то», «холодно/тепло». Они учатся: мозг подыгрывает — он пластичен; ИИ учится быстрее находить ответ — что задумал человек. Это — мозгомашинный язык: постепенно формируется коммуникация для решения более серьёзных задач. Этот контур сейчас зарождается в нашей лаборатории и ещё в нескольких местах. Мы называем его «нейротехнологии поколения 5.0». Это не командные технологии управления манипуляторами — это уровень, позволяющий создать мозгомашинный язык. Спасибо за внимание. [аплодисменты] [аплодисменты]

Есть время для нескольких вопросов. Во‑первых: спасибо большое, Александр Яковлевич! Спасибо вам. Мне посчастливилось — 31 мая я была на лекции Татьяны Владимировны… В настоящее время планета похожа на психиатрическую больницу без врачей. С этим трудно не согласиться…

Предположим, что один врач остался — это вы. Посоветуйте, как нам сохранить остатки психического здоровья хотя бы в нашем зале.

Вы знаете, мне легче представить себя среди пациентов. Я на вашем уровне. Во‑первых, я не врач. И у врача бы не спрашивал: это социально‑психологическая проблема ценностей. Может быть, нам не стоит гнаться дальше: больше знаний, больше статей — про учёных; больше денег, яхты — для других; больше закатанных банок… Стоит вернуться к себе. Познание себя — духовное развитие, личностный рост: больше читать, рисовать, танцевать, петь, писать. Это снимает соревновательные нагрузки: мы всё время в «Олимпиаде», хотим выигрывать. Сделать целью личностный рост — большая польза. Сейчас у нас достаточно ресурсов, чтобы жить, питаться, одеваться; если распределить получше — всем хватит. Я не могу решить этот вопрос, но возможно, человечество осознает и сменит парадигму. История знает цивилизационные разломы. Возможно, напряжение современности приведёт к пониманию, что нынешняя гонка недостойна человека, надо жить иначе. Это вряд ли сделается «командой сверху» — человек постепенно должен перейти на эти пути. Тогда многих проблем не будет. И мы должны помогать друг другу: мы живём в социуме.

Спасибо большое. Вопрос. Видим интеллект… Музыку, картины, которые нравятся человеку. Есть картины ИИ — впечатляют. Эмоциональная окраска присутствует. Нет ли признаков, что ИИ приобретает особенности мозга, о которых вы говорили?

У меня такого впечатления нет. Как он их приобретает? Пусть «посмотрит» Кандинского и генеративно делает новую картину. Формально похоже. Но возьмите Кандинского и выдающиеся работы генеративных сетей — «души» нет: человеческого вложения нет. Часто — бессмыслица. Можно лучше тренировать: посадить генеративную сетку рядом с «соревновательной», дать человеку оценивать: «не похоже», «лучше» — и сеть найдёт признаки «лучше». Симулировать — сможет. Но выдумывать новые миры — сложнее. И важно, чтобы зритель был образован: иначе абстракцию воспринимают как «всадник без головы», а это — мазки обезьяны. Это симуляции. Можно обмануть, продать. GPT работает неплохо: языковые модели делают разумный текст. Я писал текст о недостатках нейроинтерфейсов: дал задание — «недостатки», сеть дала три пункта, мне нужно шесть; сказал «шесть» — дал шесть, к ним претензий нет. Эта сеть не была связана с интернетом — составила из корпуса. Студенческие тексты проходят антиплагиат: доля плагиата 0,8% — у человека обычно 10–12%. Это роль симуляции: можно добиться сходства, особенно под конкретного человека. Но «душа» и новизна — другое.

Добрый вечер! Спасибо за лекцию. Вопрос: две недели назад в «мире ИИ» уволили Сэма Альтмана — OpenAI — потом вернули. Есть «секты»: одна считает, что ИИ развивается слишком быстро и опасен, другая — что слишком медленно. На чьей стороне вы?

Спасибо. Опасность представляют GPT‑системы: вначале вы могли набрать «как отравить соседа», и получали рецепт. Разве это не опасность? Сетка не убьёт — вы используете её. Ответственность — на нас. Из‑за этого систему ограничили: где‑то она стала «плохо работать». Хочется, чтобы работала хорошо — и это опасно: чем умнее, тем выше риск. У них нет потребностей человека, тела, боли, эмоций, этики. Это не злонамеренный, но и не осторожный интеллект. Это огромная опасность. Но всё зависит от нас: надо делать его безопасным. Автомобиль — средство повышенной опасности, но мы научились делать безопасные автомобили. Значит, должны делать безопасный ИИ.

Спасибо за выступление. Подскажите: вы говорили о нейросетевой модели, которая работает без языка — напрямую через ЭЭГ. В чём принципиальное отличие? Ведь внутри — матрица весов и коэффициентов?

Покажите слайд… Предпоследний… Вот. Технология 5.0. Идея: генеративная сеть выдвигает гипотезу — «яблоко». Человек задумал «автомобиль». Сеть получает инпут первого модуля и ответ мозга: «не то». Во внутренней памяти сеть помечает «X» как «задуманное», а «яблоко» ставит далеко по шкале «холодно — тепло». Дальше тестирует объекты, строя семантическое поле — по сути, семантическую сеть, которая будет идентична полю конкретного человека. Это даёт нейромоторику лучше, чем чисто языковая модель.

Языковую модель можно приспособить — промпты, осмысленные гипотезы — чтобы ускорить сход. Сначала ограничиваем пространство: человек выбирает из 10 объектов, сеть знает эти 10. Быстро сходится. Потом расширяем: добавляем, убираем — сеть подучивается. Когда нужно серьёзное приближение — подключается языковая модель; если нужны картинки — «картинная» модель. Всё это — во взаимодействии.

Значима «затемнённая» часть — айтишная, связанная с нейрофизиологией: её надо хорошо доработать, тогда контур начнёт накапливать. Дальше — посмотрим. Мы знаем, что схема работает на обезьянах.

[музыка]

Статья 2019 года. Инвазивный путь: через отверстие находят клетки, хорошо реагирующие на конкретный образ — лицо другой обезьяны. Так устроен мозг: есть клетки, активируемые определёнными образами («клетки Мэрилин Монро» у человека тоже находят). Нашли такую клетку. Вопрос: это максимальная реакция? Генеративными сетками модифицируют лицо и смотрят: как меняется ответ нейрона. Сеть задаёт новую гипотезу: ослабнет ли ответ? Иногда реакция усиливается на «нереальные» образы — мозгу «нравится» такая конфигурация. Для человека нашли нейрон, сильно разряжающийся на «человека», затем модифицировали — смотрят, на что реагирует мозг. Пример: мозг идёт на взаимодействие с гипотезами генеративных сетей. Мы не будем заниматься «химией», просто будем предъявлять: не «яблоко» — «апельсин», не «апельсин» — «велосипед», не «велосипед» — «трёхколёсный автомобиль». Мозг идёт на эти манипуляции.

Тему развивать не будем — нет времени. Важно: схема работает, её надо «дожимать». Что внутри сеток — мы не знаем: там — веса. Это отдельная сложная работа: анализ внутренних слоёв, распределений весов. Вытащить интерпретации трудно — нужны специальные методы. А здесь — обезьяна отвечает на реальный образ извне; сидит ли он «в слоях» — мы не знаем.

Дорогие коллеги, поблагодарим Александра Яковлевича за невероятное по силе и продолжительности выступление. Спасибо большое.

Спасибо за приглашение и аудитории. Удивительная аудитория — выдержала заумные разговоры с интересом. Спасибо за интерес к нашей науке и проблемам. Небольшое алаверды: это — третье заседание, посвящённое нейротехнологиям. Посмотрите, как велика доля смежных дисциплин в современных исследованиях психофизиологии и нейрофизиологии. Они не работают без образца — без классических картин, без результатов генеративных сетей. Это указывает на необходимость синергии: взаимодействия разных направлений. Нельзя быть «нудным», только считать, только смотреть на таблицы весов — без этого всего современная наука окажется слабой. Нужны люди, которые строят инфраструктуру, собирают аудитории; мы невольно становимся мультидисциплинарными. Важно методология и разработка методов. И у нас есть небольшой сувенир для Александра Яковлевича — «просветлённый препарат»… Теперь у него есть модель: стеклянный кубик с технопарком внутри. Коробочка. Спасибо большое.

Про синергию — простая вещь. Мы стараемся следовать ей — сами это чувствуем. Завтра в 14:00 открываем художественную выставку проекта «Российские древности» Алексея Паевского — интересный автор и исследователь, он у нас выступал. Выставка покажет страну глазами Алексея — места, куда мы не попадём скоро или никогда. Спасибо большое. Спасибо, Александр. [аплодисменты]