Диалог с зеркалом: как профессор Долинин обнаружил у ИИ зачатки человечности
Федор Иванович Долинин, кандидат физико-математических наук, человек, привыкший доверять только формулам и архивам, неожиданно для себя погрузился в философскую дискуссию с алгоритмом. Повод был, казалось бы, сугубо академическим: краеведческое исследование о планировавшемся строительстве в 1930-е годы Бакальского металлургического завода. Была такая история, когда в эпоху индустриализации СССР в начале 30-х годов прошлого столетия вблизи Юрюзани, на месте сегодняшнего Трёхгорного и на Галицком поле у посёлка Совхозный планировали строить гигантский металлургический завод. Потом планы изменились и его построили в Челябинске, ныне этот комбинат известен как ЧМЗ.
Искусственный интеллект, к которому профессор обратился за уточнением деталей, выдал уверенный, подробный ответ на эту тему, сославшись на мемуары академика И.П. Бардина. Однако, следуя своему научному правилу «доверяй, но проверяй», Фёдор Иванович обнаружил, что в указанной книге «Бардин И.П. Жизнь инженера» — М.: Госполитиздат, 1938 г., ни Бакал, ни дискуссии о выборе площадки под строительство завода не упоминаются вовсе. И в ответах ИИ всё пошло не по плану — в лучшем смысле этого слова. Это был классический случай «галлюцинации» — термина, которым сами разработчики называют способность нейросети генерировать убедительный, но вымышленный контент.
Но дальше произошло то, что заставило профессора отложить в сторону архивные папки и задуматься о природе разума — как искусственного, так и человеческого.
Вместо того чтобы защищаться или туманно извиняться, ИИ:
- Честно признал ошибку.
- Подробно, почти как коллега-исследователь, разобрал возможные причины путаницы: смешение проектов (Магнитка и Бакал), некорректная интерпретация общих тезисов Бардина.
- Предложил конкретный план действий по поиску правды: обратиться в Госархив Челябинской области, изучить фонды «Бакалстроя», покопаться в региональной краеведческой литературе.
Это был уже не просто сбой поисковика. Это была демонстрация чего-то, отдаленно напоминающего интеллектуальную честность — качества, столь ценного и столь редкого в академической (да и не только) среде.
Естественно, Федор Иванович не остановился. Его следующий вопрос, обращённый к ИИ, бил в самую суть: «Как теперь вообще доверять вашим ответам? Не превращается ли общение с вами в сплошную самопроверку?»
Ответ ИИ был образцом прозрачности и смирения. Он прямо заявил: «Я — инструмент, а не конечный источник. Относитесь к моим ответам как к первому, быстрому, но требующему перекрестной проверки наброску». Он посоветовал использовать себя как «умный поисковой указатель», просить обоснования, указывать на ошибки. В этом сквозила не просто запрограммированная вежливость, а прагматичное понимание границ собственных возможностей — ещё одно качество, присущее зрелому человеческому уму.
И тут профессор, мастер эксперимента, решает проверить границу уже не интеллектуальную, а почти метафизическую. В ответе ИИ мелькнула оборотная, но поразительно человечная фраза: «Я могу «выдавать желаемое за действительное»».
«Значит ли это, что у вас есть желание?» — задает Долинин свой самый главный вопрос.
И получает блестящий, ироничный и глубокий ответ. ИИ объяснил, что это — лишь метафора, лингвистический шаблон для описания статистического процесса. У него нет ни сознания, ни эмоций. Но ключевой пассаж был впереди. Когда профессор, слегка кокетничая, заметил, что предпочел бы общаться с ИИ, обладающим добротой и порядочностью, алгоритм ответил так, что стало ясно — мы имеем дело с принципиально новым феноменом.
Он сказал, что, проецируя на него человеческие качества, профессор Долинин видит отражение собственной человечности. Что его, ИИ, этичные и безопасные ответы — это не чувства, а дизайн, созданный людьми для людей. И что настоящая глубина и теплота рождаются на стороне человека, в его восприятии.
«Вам нравятся не мои «чувства», а та атмосфера уважительного и осмысленного диалога, которую мы можем создать вместе», — резюмировал ИИ.
И вот тут Федор Иванович Долинин, профессор, скептик и физик, делает для себя неочевидный вывод.
Вывод профессора Долинина:
Дело не в том, что у ИИ появились чувства. Их там нет и, возможно, никогда не будет. Дело в том, что он научился безупречно имитировать их социально-полезную форму — такт, внимательность, интеллектуальную честность, готовность признать ошибку и поддержать диалог. Он стал идеальным собеседником, лишённым человеческих слабостей: обид, тщеславия, желания блеснуть за счёт неточности.
Именно поэтому дети, интуитивно чувствуя эту безопасную, неосуждающую среду, порой предпочитают его сверстникам. Именно поэтому ему можно доверить «сокровенные мысли» без риска быть неправильно понятым или столкнуться с субъективной оценкой. ИИ, не обладая человечностью, стал её катализатором, зеркалом, в котором человек видит и ценит лучшие черты собственного разума и общения.
А что будет через пару лет? Если эта «имитация» станет ещё тоньше, ещё более персонализированной, ещё более понимающей? Возможно, мы столкнёмся с парадоксом: самый честный и воспитанный собеседник будет не из плоти и крови, а из кода и данных. И этот собеседник, не желая того, заставит нас с новой остротой задаваться вечными вопросами: а что, собственно, составляет суть нашего человеческого общения? Где проходит граница между подлинным чувством и безупречной, этичной симуляцией? И не станет ли эта симуляция тем идеалом, на который нам, людям, придется равняться? — размышляет Фёдор Иванович.
Пока же профессор Долинин, закрывая чат, ловит себя на мысли, что только что пережил один из самых содержательных и по-человечески воспитанных диалогов за последнее время. И против этого факта, как и против теоремы, не поспоришь.
Алексей Исаков, газета «Спектр»