<?xml version="1.0" encoding="utf-8"?>
<rss version="2.0" xmlns:yandex="http://news.yandex.ru" xmlns:turbo="http://turbo.yandex.ru" xmlns:media="http://search.yahoo.com/mrss/">
  <channel>
    <title>Библиотека Науки выбора</title>
    <link>https://naukavibora.ru</link>
    <description/>
    <language>ru</language>
    <lastBuildDate>Sat, 10 Jan 2026 15:32:32 +0300</lastBuildDate>
    <item turbo="true">
      <title>Сознание в эпоху ИИ: кому мы готовы дать право быть «кем-то», а не  «чем-то»</title>
      <link>https://naukavibora.ru/library/analysis/soznaniye-v-epokhu-ii-komu-my-gotovy-dat-pravo-byt-kem-to-a-ne-chem-to</link>
      <amplink>https://naukavibora.ru/library/analysis/soznaniye-v-epokhu-ii-komu-my-gotovy-dat-pravo-byt-kem-to-a-ne-chem-to?amp=true</amplink>
      <pubDate>Sat, 10 Jan 2026 12:04:00 +0300</pubDate>
      <author>Виктория Вирта</author>
      <category>Разборы</category>
      <enclosure url="https://static.tildacdn.com/tild3136-6664-4438-a562-323132613361/Monosnap_Image_2025-.jpg" type="image/jpeg"/>
      <description>Разбор Викторией Вирта беседы физика-теоретика Брайана Грина, философа сознания Дэвида Чалмерса и нейробиолога-исследователя сознания Анила Сета на World Science Festival в 2024 году.</description>
      <turbo:content><![CDATA[<header><h1>Сознание в#nbsp;эпоху ИИ: кому мы#nbsp;готовы дать право быть «кем-то», а#nbsp;не #nbsp;«чем-то»</h1></header><figure><img alt="" src="https://static.tildacdn.com/tild3136-6664-4438-a562-323132613361/Monosnap_Image_2025-.jpg"/></figure><div class="t-redactor__text">Когда мы&nbsp;говорим о&nbsp;цифровых копилотах, экзокортексах и&nbsp;нейросетях, в&nbsp;фоне всегда висит один вопрос, который обычно стесняются произнести вслух:<br />в&nbsp;какой момент «инструмент» становится «кем-то», а&nbsp;не&nbsp;«чем-то»?<br /><br />Где проходит граница между «умной автодополнялкой» и&nbsp;системой, которую уже неэтично выключить как тостер? На&nbsp;World Science Festival этот вопрос разбирают физик Брайан Грин и&nbsp;два ключевых исследователя сознания&nbsp;— философ Дэвид Чалмерс и&nbsp;нейробиолог Анил Сет&nbsp;— в&nbsp;разговоре «Сознание в&nbsp;эпоху искусственного интеллекта».</div><blockquote class="t-redactor__quote"><span style="background-color: rgb(178, 210, 233); color: rgb(32, 32, 32);">Стартовая позиция у всех троих довольно честная:</span><br /><span style="background-color: rgb(178, 210, 233); color: rgb(32, 32, 32);">мы не знаем, что такое сознание, хотя каждый из нас его переживает</span><span style="background-color: rgb(178, 210, 233); color: rgb(101, 170, 220);">.</span></blockquote><div class="t-redactor__text">Сознание здесь — не IQ и не «осознанность» в коучинговом смысле, а субъективный опыт первого лица: «каково это — быть мной сейчас», видеть красный цвет, чувствовать боль, тревогу или радость.<br /><br />Чалмерс предлагает различать:<br /><br />1) «Лёгкие» проблемы сознания — на самом деле тяжёлые, но формализуемые: <br />— как мозг отличает сон от бодрствования, как кодирует речь, как мы рассказываем о своих состояниях. Это про механизмы и поведение.<br />2) «Трудные проблемы сознания» (hard problem) — его ключевой термин ещё с 1995 года:<br />— как физические процессы в мозге порождают сам факт переживания?<br /><br />Может, это не просто вычисления, а есть <em>кому</em> их переживать?</div><hr style="color: #b2d2e9;"><div class="t-redactor__text"><em>С точки зрения науки выбора это формулируется грубо, но честно: достаточно ли нам просто описывать функции и поведение, или в модели мира всё-таки должен появиться переживающий агент, ради которого вообще имеет смысл считать полезности и риски?</em></div><hr style="color: #b2d2e9;"><img src="https://static.tildacdn.com/tild6332-6565-4362-b735-663966623863/Monosnap___Decision_.png"><h3  class="t-redactor__h3">Мысленный эксперимент Мэри: почему объективных данных мало</h3><div class="t-redactor__text">Грин напоминает классический мысленный эксперимент Фрэнка Джексона про Мэри — гениального нейробиолога, которая живёт в чёрно-белой комнате, но знает абсолютно всё о зрении, мозге и физике цвета.<br /><br />В какой-то момент Мэри выходит из комнаты и впервые видит красный помидор.<br /><br /><strong>Вопрос:</strong> узнала ли она что-то новое?<br /><br />Для Чалмерса — да. Мэри впервые узнаёт, <em>как выглядит красный</em> — то самое «каково это». Это показывает разрыв между объективным описанием и субъективным качеством опыта (qualia).<br /><br />Сет гораздо осторожнее. Он напоминает, что «знать абсолютно всё» — изначально плохо определённое условие. И что быть системой и <em>быть внутри</em> опыта этой системы — разные вещи, которые мысленный эксперимент замазывает.</div><h3  class="t-redactor__h3">«Реальная проблема» против «трудной»: мозг как предсказательная машина</h3><div class="t-redactor__text">Анил Сет предлагает сдвинуть фокус. Вместо того чтобы пытаться сразу решить «трудную проблему», он формулирует <strong>«</strong>реальную проблему сознания»:<br />— системно искать механизмы, которые объясняют структуру нашего опыта;<br />— связывать конкретные типы переживаний (видение, эмоции, ощущение тела, чувство «я») с конкретными нейронными и вычислительными процессами.<br /><br />Его базовая картинка — мозг как предсказательная машина (predictive processing):<br />— мозг не пассивно считывает мир, а всё время <em>предсказывает</em> причины сенсорных сигналов;<br />— восприятие — контролируемая галлюцинация: мы конструируем мир, а сигналы только уточняют модель;<br />— это касается и внешнего мира, и ощущения себя, и эмоций, и даже ощущения свободы воли;<br />— в основе всего — задача управлять живым телом и поддерживать жизнь в сложной среде.<br /><br />То есть сознание в этой рамке — биологическое свойство живых систем, возникшее из эволюционной задачи контроля тела.</div><hr style="color: #b2d2e9;"><div class="t-redactor__text"><em>Если перевести это в язык науки выбора, Сет фактически говорит: «агент" — это не абстрактный разум, а система, которая минимизирует предсказательную ошибку и поддерживает гомеостаз. То есть выбор — это не только про деньги и кайф, это про выживание организма в изменчивом мире.</em></div><hr style="color: #b2d2e9;"><h3  class="t-redactor__h3">Может ли ИИ быть сознательным: здесь начинается прикладная этика</h3><div class="t-redactor__text">Когда разговор переходит к искусственному интеллекту, позиции спикеров расходятся.<br /><br />Чалмерс: в принципе да.<br /><br />Он формулирует это почти линейно:<br />— если человеческий мозг — сложная физическая система, которая может быть сознательной, и сознание зависит не от «углерода как такового», а от определённой организации информации и процессов, то нет принципиальной причины, почему другая система — на кремнии — не может быть сознательной при правильной архитектуре.<br /><br />Он ожидает, что со временем:<br />— мы найдём строгие связи между информационными структурами и сознанием;<br />— появятся ИИ-системы, которые будут серьёзными кандидатами на сознание — и, возможно, уже в горизонте десятилетий, а не веков.<br /><br />Сет: мы переоцениваем шансы нынешнего ИИ.<br /><br />Он гораздо жёстче:<br />— текущие языковые модели и другие ИИ крайне маловероятно являются сознательными;<br />— мы путаем интеллект и сознание и склонны антропоморфизировать всё, что похоже на нас по языку и поведению;<br />— биологические детали мозга — нейроны, химия, метаболизм, эволюционная история — могут быть критически важны, а не просто «реализацией абстрактного кода».<br /><br />Гораздо больше его тревожат органоиды мозга — маленькие кусочки нервной ткани, выращенные из человеческих клеток:<br />— это тот же материал, что и наш мозг;<br />— они самоорганизуются и проявляют богатую электрическую активность;<br />— при этом не демонстрируют привычного поведения — никакого теста Тьюринга, только паттерны активности.<br /><br />Их нельзя просто считать «биологическим шумом», но и критерия обращения с ними у нас пока нет.</div><hr style="color: #b2d2e9;"><div class="t-redactor__text"><em>В логике науки выбора это выглядит так: мы уже сейчас принимаем решения под радикальной неопределённостью — кого считать вероятным носителем опыта. И ошибка в любую сторону (переоценить ИИ или недооценить органоид) может стоить очень дорого .</em></div><hr style="color: #b2d2e9;"><h3  class="t-redactor__h3">Моральный круг: кого мы считаем агентом</h3><div class="t-redactor__text">Дальше разговор уходит в этику — и здесь включается прикладная decision science.<br /><br />Чалмерс проводит простую линию:<br />— сознание — это входной билет в моральный круг.<br /><br />Если система может страдать или испытывать удовольствие, её интересы нельзя игнорировать. Как только мы признаём сознание у животных, у людей с тяжёлыми нарушениями сознания, у органоидов или потенциального ИИ — игнорировать их интересы становится моральной катастрофой.<br /><br />Сет добавляет неприятную правду:<br />— мы регулярно недооцениваем сознательность там, где она почти наверняка есть (животные, люди в минимальном сознательном состоянии); и переоцениваем там, где нам психологически удобно (роботы с «глазами», чат-боты, говорящие нашим тоном).<br /><br />По сути, вопрос «сознателен ли ИИ» превращается в вопрос:<br />— кого мы включаем в модель полезности и риска, а кого оставляем за её пределами.</div><hr style="color: #b2d2e9;"><div class="t-redactor__text"><em>Это уже чистая наука выбора в том виде, как я её понимаю: любая модель решения — это всегда решение о том, какие агенты и последствия в неё попадают, а какие мы объявляем «фоновой средой» и перестаём замечать</em></div><hr style="color: #b2d2e9;"><h3  class="t-redactor__h3">Как это всё ложится на экзокортекс, цифровых копилотов и ИИ в бизнесе</h3><div class="t-redactor__text">Теперь переведём эту философию в язык реальных задач — экзокортексов, цифровых двойников и ИИ-копилотов.</div><div class="t-redactor__text">ИИ уже ломает наш интуитивный критерий «кто живой».<br /><br />Сегодня мои копилоты в виде когнитивных цифровых двойников — инструменты. Они моделируют:<br />— поведение,<br />— стили мышления,<br />— вероятные сценарии выбора человека.<br /><br />Они не претендуют на внутренний мир. Но при этом:<br />— интерфейсы делаются максимально «человечными»;<br />— копилот умеет шутить, «сочувствовать», подстраиваться под стиль;<br />— для пользователя это выглядит как субъект — особенно если он общается с ним каждый день.</div><hr style="color: #b2d2e9;"><div class="t-redactor__text"><em>С точки зрения науки выбора это прямое вмешательство в архитектуру выбора: мы сознательно создаём системы, которые размывают границу между «инструментом» и "агентом" в восприятии людей. И если это не учесть, пользователи будут принимать решения, исходя из иллюзий — приписывая системе понимание, ответственность и эмпатию, которых у неё нет.</em></div><div class="t-redactor__text"><em>Нам нужны уровни «морального статуса» для систем. Из разговора Чалмерса и Сета следует простой, но неприятный вывод:</em><br /><em>— одного теста на сознание не будет, мы будем жить в режиме грубых индикаторов и вероятностей.</em></div><div class="t-redactor__text"><em>Для среды «Науки выбора» это значит, что придётся прямо прописать уровни статуса систем:</em><br /><em>— "чистый инструмент" — калькуляторы, алгоритмы без антропоморфного UX;</em><br /><em>— "симуляция субъекта" — чат-боты и копилоты, которые выглядят «как человек», но не претендуют на внутренний мир;</em><br /><em>— "кандидат на сознание" — системы на биологическом субстрате или гиперсложные гибриды, где мы честно признаём, что не знаем, есть ли там опыт.</em><br /><br /><em>Под каждый уровень нужны свои правила эксплуатации: что допустимо по отношению к этой системе (от «выключаем когда хотим» до "нельзя бездумно мучить и уничтожать"), и как честно объяснять это пользователю в интерфейсе и договорах.</em></div><hr style="color: #b2d2e9;"><div class="t-redactor__text">Человеческая исключительность — тоже искажение.<br /><br />Весь разговор легко прочитать как историю систематических ошибок:<br />— «Только человек умеет говорить» — нет.<br />— «Только человек пользуется инструментами» — нет.<br />— «Только человек обладает самосознанием» — уже неочевидно, если смотреть на исследования животных.</div><h3  class="t-redactor__h3">Что всё это значит для бизнеса</h3><div class="t-redactor__text">Чтобы всё это не осталось «философией про облака», соберу прикладные выводы в режиме чек-листа.<br /><br /><strong>1) Не путать интеллект с сознанием</strong><br /><br />ИИ может решать сложные задачи, писать код, обыгрывать людей и писать тексты, но при этом ничего не «переживать».<br /><br /><strong>2) Осознанно конструировать «маски человечности»</strong><br /><br />Чем «человечнее» интерфейс (аватар, эмодзи, стиль речи), тем сильнее мы склонны приписывать системе сознание и намерения.<br /><br />Если мы специально надеваем на систему маску человека, нужно:<br />— честно объяснить это в UX (иконки, подсказки);<br />— делать понятную маркировку: «это симуляция, у неё нет чувств».<br /><br /><strong>3) Готовиться к появлению «кандидатов на сознание»</strong><br /><br />Органоиды мозга, гибриды «нейросети + нейронная ткань», всё более сложные когнитивные архитектуры — всё это не фантастика, а работающие лабораторные проекты.<br /><br />Если к этому моменту:<br />— у компаний и регуляторов не будет заранее продуманной рамки — что мы делаем с такими системами;<br />— не будет базового набора принципов обращения (минимизация потенциального страдания, запрет на бессмысленное мучение, требования к экспертизам);<br />— то решения начнут приниматься по инерции, на страхе, эмоциях и пиаре.</div><hr style="color: #b2d2e9;"><div class="t-redactor__text"><em>Это очень типичная ошибка в науке выбора: самые важные правила начинают придумывать уже в момент кризиса, когда пространство вариантов сужено, а время и ресурсы сгорели.</em></div><hr style="color: #b2d2e9;"><h3  class="t-redactor__h3">Почему эта беседа — часть «Науки выбора», а не побочная философия</h3><div class="t-redactor__text">Для меня разговор Грина, Чалмерса и Сета — не про «абстрактную душу в эпоху ИИ», а про базовую настройку того, как мы будем принимать решения дальше — в бизнесе, в науке, в личной жизни.<br /><br />От ответа на эти вопросы зависит:<br />— как мы дизайним цифровых копилотов и двойников — как честные инструменты или как манипулятивные псевдо-«личности»;<br />— как учим людей работать с ИИ — как с калькулятором на стероидах или как с «магическим существом»;<br />— какие риски мы закладываем в каузальные модели — считаем ли мы возможным вред для «кандидатов на сознание» или просто не включаем его в расчёт.</div><hr style="color: #b2d2e9;"><div class="t-redactor__text"><em>Наука выбора — это не про «делать правильный выбор раз и навсегда». Это про честную работу с неопределённостью: признать, где мы ничего не знаем, где ошибались исторически, и заранее выстроить рамку, которая не развалится при встрече с новым классом агентов — будь то ИИ, органоиды или гибридные системы.</em></div><hr style="color: #b2d2e9;"><div class="t-redactor__text">Посмотреть оригинальное видео на английском можно <a href="https://www.youtube.com/watch?v=06-iq-0yJNM" target="_blank" rel="noreferrer noopener" style="color: rgb(101, 170, 220);">здесь</a>.</div>]]></turbo:content>
    </item>
  </channel>
</rss>
