Новости | ГАУГН

15 декабря 2025

Интервью с Владиславом Лекторским: человек, философия и искусственный интеллект
Новости факультетов

Интервью с Владиславом Лекторским: человек, философия и искусственный интеллект

ГАУГН публикует эксклюзивное интервью с деканом Философского факультета, профессором, академиком РАН Лекторским Владиславом Александровичем.

В новом интервью обсуждаются ключевые вопросы взаимодействия человека и искусственного интеллекта в современном мире. Разговор посвящён философским основаниям развития ИИ, его влиянию на гуманитарное знание, образование и культуру, а также тем границам, которые остаются принципиально человеческими. Эксперт размышляет о возможностях и рисках технологического прогресса, подчёркивая роль философии как пространства осмысления будущего в эпоху цифровых трансформаций.

В современном мире человек учит машину рассуждать, трактовать этику, смыслы. И в чём же тогда роль гуманитариев и, в частности, философов, на Ваш взгляд?

В.А. Лекторский:

Вы знаете, сейчас действительно наблюдаются огромные успехи в области искусственного интеллекта. Каждый год возникают какие-то новые достижения. Хотя я читал литературу одного автора, который пишет о том, что сейчас идёт «хайп»: много людей возлагают на искусственный интеллект необоснованные надежды. Специалисты говорят — «полусистемный искусственный интеллект».

Поэтому не исключено, что через какое-то время наступит некоторое разочарование, которое периодически наступало и раньше. Все историки разработок в области искусственного интеллекта, которые прослеживают его историю, начиная с первых лет работы в этой области, отмечают несколько таких периодов, которые называют «зима искусственного интеллекта», когда надежды, которые возлагались, по каким-то причинам оказались неосуществлёнными.

Сейчас, пока идёт подъём, новые достижения, о которых я не буду говорить, они всем известны, возникает вопрос о том, как в этой сфере, в этой ситуации, которая сложилась сегодня в мире, чувствуют себя гуманитарии. Нужны ли они и нужно ли заниматься тем, чем они занимались на протяжении большого времени?

В этой связи хочу сказать: был такой человек, очень практический, конечно, недавно скончавшийся, в возрасте 100 лет. Это бывший государственный секретарь США Генри Киссинджер. Последние 10 лет он занимался проблематикой искусственного интеллекта, не будучи специалистом в этой области. Его это очень волновало, беспокоило. Он считал, что это огромный вызов для человека. Он писал — и в этом он прав — что то, что возникло в истории человечества в связи с разработками в области искусственного интеллекта, можно сравнить с революцией, которая произошла, может быть, когда вообще современная наука появилась. Поэтому он это сравнивал с созданием атомной бомбы, которая является угрозой для человека. Генри Киссинджер считал, что такой же угрозой может быть искусственный интеллект.

Он написал несколько книжек на эту тему в сотрудничестве со специалистами в области искусственного интеллекта. И последняя книжка вышла, помню, год тому назад. Она была написана до его смерти, а вышла только что. Киссинджер писал об этом как политик. Он пишет, что главная проблема перед человечеством, которая возникла в связи с этой новой ситуацией, в связи с разработкой искусственного интеллекта, — это философские проблемы. И не философ пишет, что это главная проблема!

Я с ним согласен: сейчас — время для философии. Вообще философия возникла, это известно давно, в античности. Она всегда расцветала, когда возникали какие-то кризисные ситуации в культуре, когда старые смыслы теряли свою действенность и нужно было отобрать новый смысл. Тогда возникала философия. Так, звёздный час философии!

Это было в античности, это было потом, в Новое время, когда возникла экспериментальная наука, которой раньше не было, а из науки и технологии возникли. Это было в XX веке, когда кризис возник — кризис понимания основ науки, в частности математики, физики, точных наук.

А сегодня речь идёт о том, какова судьба человека вообще: есть ли у человека будущее и что ему делать в этой ситуации. Как жить вместе с искусственным интеллектом, как с ним взаимодействовать вообще.

И, понимаете, я помню, как лет 20 тому назад один западный мыслитель написал о том, что наша цивилизация — это цивилизация средств, но не целей. Он имел в виду следующее: если есть какая-то цель, нам нужно что-то сделать — значит, мы находим средства. А гораздо позже, лет десять назад, я прочитал у одного автора обоснование такого тезиса — технологический императив.

Идея такая: если у людей возникает какая-то цель, они сегодня всегда могут найти технологические средства для её реализации. А сегодня эти средства — это передовые технологии. Сейчас это разработки в области искусственного интеллекта и глобальной цифровизации, которая идёт в мире. В этой связи я хочу сказать: если когда-то и было так, что ставились цели — ясные, исходящие из понимаемых нами ценностей (что важно, что нужно, что полезно, что бесполезно), и оставалось лишь подобрать средства, то сегодня мы столкнулись с иной ситуацией.

Цели как будто можно ставить, они ставятся, но что касается ценностей — зачем всё это нужно? — вот этот вопрос стал проблемой. Это проблема связана, в основном, с той ситуацией, о которой я вам говорил, — с разработками в области искусственного интеллекта.

Речь идёт о том, что такое человек, что ему нужно, как он меняется, как он вынужден меняться, как он должен меняться, что нужно менять, а что менять нельзя, чтобы остаться человеком. Был такой великий философ И. Кант. Он сказал, что в философии есть три главные проблемы, три главных вопроса:

Первый — что я могу знать?

Второй — что я должен делать?

И третий — на что я могу надеяться?

Если ответить на эти три вопроса, вы ответите на вопрос «что такое человек?». Кант давал свои ответы ещё в начале XIX столетия. Ему казалось, что он эти ответы дал. А сейчас становится ясно, что на эти вопросы нужно отвечать заново. То есть ситуация, возникшая из-за искусственного интеллекта, требует новых ответов.

Это вопрос философский. Развитие искусственного интеллекта ставит философские вопросы — вопросы самоопределения человека: каково его будущее, что он может делать, чего он делать не может, как ему взаимодействовать с искусственным интеллектом и даже сохранится ли человек. Сейчас ведь очень популярна концепция так называемого трансгуманизма. Существуют разные варианты этой концепции. Может быть, позже я скажу об этом подробнее. Но сейчас отмечу лишь то, что некоторые трансгуманисты считают: существует глобальный процесс эволюции.

Когда-то возникла Вселенная, Универсум. Сначала появились атомы, потом молекулы, затем жизнь, и на каком-то этапе — человек со своей культурой. И вот сейчас, по их мнению, наступил такой момент, когда эволюция продолжается, и человек будет вытеснен более совершенными существами в виде систем искусственного интеллекта. Потому что они быстрее думают, быстрее находят решения, могут подражать человеку, имитировать его, решать какие-то задачи.

Наступает новая эра. Либо человечество останется таким, какое оно есть, но тогда оно не сможет сильно измениться и будет подчинено указаниям искусственного интеллекта. Либо оно будет вытеснено, уничтожено. Это, пожалуй, вопрос, который специалисты по искусственному интеллекту, видимо, не решат. Это философский вопрос: что такое человек? Кто он — логическое существо? Или нечто большее?

Я могу сказать, что все эти вопросы, которые философы обсуждали на протяжении тысяч лет:

Что такое сознание? Что такое разум? Что такое интеллект? Что такое мышление? Что такое свобода? Что такое достоинство? Что такое справедливость?

Они сейчас вновь встают особенно остро в связи с развитием искусственного интеллекта. Сам по себе интеллект этих вопросов не решит. Вопрос в том, как быть дальше.

Это философский вопрос. Поэтому я считаю, что никогда за последние 100 лет философия не была так востребована, как сейчас. Эти вопросы остаются фундаментальными философскими проблемами, но сегодня они приобретают практический смысл. Потом я ещё могу сказать, какие рекомендации философия может предложить: что можно делать, что делать не нужно, что делать нельзя. Поэтому все эти гипотезы — это, я повторяю, не слова философа, а политика.

Скажем, что главный вопрос сегодня в связи с разработками в области искусственного интеллекта — это именно философские вопросы. И вообще я поставил вопрос более широко не только о философских проблемах в этой жизни, но и о гуманитарных науках в целом. Потому что гуманитарные науки существуют во всем мире. Они имеют дело с человеком и со смыслами. Искусственный интеллект никого не задает ценности. Вы можете лишь включить в него этические нормы. Программы тоже работают в системе ценностей. Они делают так, как заложено. Мы разрабатываем нормы, а не он сам по себе. Эти самые машины живут в другом мире. У них нет собственной системы ценностей. Это проблема ценностей, проблема смысла. Этим занимается философия. Этим занимается история.

Когда мы сейчас говорим о вопросах человека, то возникают такие вопросы, которые когда-то сформулировал Гоген, по-моему, в двадцати картинах, которые называются так: «Кто мы? Откуда мы? Куда мы идем?». Чтобы понять, кто мы и куда мы идем, нужно знать, откуда мы, потому что мы такие, какими нас сформировала история. Поэтому сегодня науки — история, философия — отвечают на вопрос: что такое идентичность?

Вот вы, как человек, имеете образ самого себя, образ «я». Психологи давно и много об этом пишут. Но ваш образ самого себя — то есть, кто вы такой, что вам нужно, что вы хотите, — сформирован вашей историей. Если вы лишитесь автобиографической памяти, вы как личность исчезнете, вы будете существом, организмом. Такие случаи бывают, к сожалению, например, при амнезии, но вы уже не человек.

А для культуры, для страны, для цивилизации и для мира в целом без истории нет вас. Ваша история определяет то, откуда мы. От этого зависит то, кто мы. От этого зависит то, куда мы идем. Вот поэтому все эти вопросы сейчас стали даже более острыми. Для меня возможность сохранения человека и его развития связана с развитием его гуманитарного знания. Может быть, оно востребовано сейчас больше, чем когда-либо раньше. Поэтому я считаю, что сегодня звездный час философии во всяком случае, но и всего гуманитарного знания, потому что это способ сохранения человека.

Пишут иногда в связи с тем, о чем я рассказывал, что человечество столкнулось с гуманитарной, с антропологической революцией, что нужно менять многое в понимании мира, в понимании самого человека. Это во многом верно. Другие пишут, что речь идет об антропологической катастрофе, потому что человек оказался в такой ситуации, где ему нужно самоопределиться, есть опасность его деградации, если не исчезновения. А я бы назвал это не антропологической катастрофой, не антропологической эволюцией, а антропологическим вызовом. Вызов есть, но на него нужно дать ответ. От того, какой ответ мы придумаем, какой ответ мы сформируем, будет зависеть то, как пойдет развитие дальше. Но ответ нужно давать.

А где его искать? Интернет такого ответа вам не даст. Это должны делать люди. В том числе и специалисты, может быть, прежде всего в области гуманитарного знания. Вот мой краткий ответ. Я думаю, что миссия нашего университета в этом и состоит — чтобы это знание культивировать.

Мы сейчас живем в мире технологий, в мире, так сказать, пользы. А какой пользы? Значит, если я знаю, что мне нужно, знаю цель, тогда я ищу средства. И можно их найти. И находят эти средства. Но цели-то какие? Из каких ценностей? Что нам нужно вообще? Куда мы идем? Кто мы? Что мы хотим? На это разработчики и технологи просто не ответят. У них нет такого ответа. Вы давайте им цель, то, что нужно, они будут разрабатывать программы для ИИ, искать решения, находить средства — ради бога, это хорошо, это здорово, но нужны цели и нужны ценности: куда идти, что хотим.


Действительно, есть мнение о том, что искусственный интеллект — это лишь один из элементов очередной технологической революции. Человечество уже проживало определенное количество подобных пертурбаций. В свое время казалось, что изобретение еще даже не роботизированного, а просто автоматического станка сделает огромные слои населения безработными, лишит их цели жизни и вообще сделает человека ненужным.

Так все-таки это явление объективно детерминированной истории, очередной этап эволюции? Или это что-то опасное для человеческого развития и развития нашего общества?

В.А. Лекторский:

Действительно, я считаю, что искусственный интеллект — это не просто очередное или новое технологическое приобретение, новый этап технологических разработок. Это, конечно, новые технологии, но такие, которые ставят под вопрос многие привычные способы понимания мира и самого человека, его возможностей. Поэтому это огромная революция!

Это может быть опасным, а может быть и использованным на благо человека — всё зависит от того, как к этому относиться. С одной стороны, люди в развитии науки и технологий вышли на этот этап, это стало возможным. Но сказать, что дальше всё уже не зависит от человека и предопределено какими-то объективными, абсолютно независимыми от него факторами, не совсем так.

Весь вопрос в том, по какому пути пойдет это развитие. Поэтому, когда некоторые люди предсказывают, что с точки зрения глобальной эволюции развитие должно привести к тому, что более мощный разум, интеллект, более сильный, чем человеческий, вытеснит человека — и это неизбежно, с этим я согласиться не могу. Это не предопределено.

Понимаете, сам вопрос о том, что предопределено, а что нет, очень непростой. Философы на эту тему как раз писали, пишут и писать будут, особенно применительно к искусственному интеллекту. Конечно, есть законы мироздания, которые нельзя обойти. От людей не зависит, как вращаются небесные светила, как происходят физические процессы, процессы природы, биологические процессы. Мы можем их изучать и использовать, но изменить не можем. А вот что касается будущего самого человека — тут всё гораздо сложнее.

В этой связи я хочу сослаться на так называемый «эффект Эдипа». Речь идет о древнем мифе. Царь в Древней Греции, как рассказывает миф, когда у него родился ребенок, пошел к оракулу, чтобы тот предсказал будущее. Оракул сказал: у этого ребенка ужасное будущее — он убьет своего отца и женится на матери. Ужасная вещь. И царь решил этого не допустить: отдал младенца на воспитание бедной рыбацкой семье. Ребенок вырос, не зная, что он царский сын. Потом юноша, уже повзрослев, повздорил с каким-то человеком и убил его, не зная, что это его отец. Позже он женился на вдове убитого царя, не зная, что это его мать. Так предсказание сбылось.

Почему? Потому что царь поверил в него и начал действовать, исходя из этого. То есть некоторые вещи происходят не потому, что они неизбежны, а потому что мы сами своими действиями реализуем то, чего боимся. И будущее в этом смысле мы тоже создаем своими действиями.

Точно так же и с искусственным интеллектом. Конечно, новый этап наступил, он дает огромные преимущества, от которых невозможно отказаться. Поэтому разработки будут продолжаться в разных странах и компаниях. Но есть и вопрос о возможных опасных последствиях и о том, как их предотвратить. Сейчас об этом много пишут. Что возьмет верх? Сиюминутные прагматические интересы и выгоды? Это опасно. Или всё-таки размышления о долговременных последствиях, чтобы избежать катастроф? Это уже зависит от людей. Развитие можно регулировать и направлять по разным путям.

Поэтому никакой жесткой предопределенности здесь нет. Есть новые возможности, которых раньше не было, но есть и новые опасности. Чтобы избежать этих опасностей, нужно принимать меры.

В этой связи напомню: лет сорок назад ученые в США, в городе Асиломар, которые занимались молекулярной биологией, пришли к выводу, что достигли такого уровня, при котором существует опасность выхода из-под контроля искусственно созданных вирусов. И было принято решение временно заморозить исследования, пока не будут найдены способы предотвращения возможных катастрофических последствий. Это вошло в историю как «Асиломарский манифест».

А примерно три года назад в том же Асиломаре собрались уже исследователи в области искусственного интеллекта и инвесторы, финансировавшие эти проекты. Среди них был и Илон Маск. Они пытались принять аналогичное решение о приостановке исследований в области общего искусственного интеллекта. Но ничего не получилось: слишком велики сегодняшние выгоды, которые дает эта технология.

Поэтому предсказать, как будет дальше, трудно. Но от людей зависит очень многое. Можно пойти по одному пути, можно по-другому.

А что касается самого искусственного интеллекта, в чем его отличие от других технологических разработок, которых в истории было много? В том, что здесь речь идет об имитации фундаментальных качеств самого человека. Всегда считалось, что отличает человека от всех других живых существ? Разум. Homo sapiens — человек разумный. Такого разума, как у человека, нет больше ни у одного живого существа.

У животных тоже есть интеллект и мышление. Американские психологи, например, изучали мышление крыс. Крысы тоже довольно умные. Но такого интеллекта, как у человека, у них нет. Сейчас искусственный интеллект вроде бы копирует разумные действия человека. У него есть своя рациональность.

Сегодня в науке начался новый этап: искусственный интеллект позволяет выявлять такие закономерности, такие эмпирические корреляции, которые человеку было бы трудно заметить.

В чем преимущество искусственного интеллекта? Это огромная память, которой у человека нет — наш мозг не может хранить так много информации. И огромная быстрота действия. В этом, конечно, и заключаются большие достижения ИИ. Он используется в науках, особенно в экспериментальных — в генетике, биологии, физике, а также в других областях знаний.

В связи с этим возникла идея, которую обсуждали не так давно: может быть, наука в привычном виде скоро исчезнет, а заниматься ею будут уже роботы, системы искусственного интеллекта. Такого раньше не было! ИИ покушается на принятие решений за человека. Но ведь человек — это существо, обладающее свободной волей, свободным выбором: принимать то или иное решение, исходя из своих целей и потребностей. А интеллект нам часто подсказывает: «Вот так правильно, вот так лучше». Но должны ли мы каждый раз слушать его? Каждый раз ли он говорит правильное? Это очень серьезный вопрос.

Поэтому это действительно революция, не похожая на прежние технологические революции. Это что-то особенное, ставящее перед человеком вопросы о его жизни и смысле существования: куда двигаться, куда развиваться? Опасность здесь в том, что технологии крайне выгодны. И, конечно, разработчики этих систем, работающие на корпорации или государства, не могут не учитывать того, что от них требуют. Можно создавать полезные и прибыльные продукты — и это очень выгодно. От экономики и финансов до медицины и оборонных разработок. Но если всё это будет происходить бесконтрольно, без гуманитарного, философского и этического надзора, последствия могут быть опасными.

 

Вы упомянули роль корпораций в разработке искусственного интеллекта. Действительно, большинство инструментов в мире, в том числе, что удивительно, и в России, и в Китае, разрабатываются именно коммерческими предприятиями. Корпорации — будь то корпорация Илона Маска, компания OpenAI, в России это «Яндекс», в Китае DeepSeek. Конечно, некоторые из них аффилированы с государством, но в основном это частный капитал и частные интересы. Насколько опасно доминирование именно корпоративного интереса в разработке искусственного интеллекта?

И второе: опираясь на то, что Вы рассказали, где проходит красная линия компетенции искусственного интеллекта? Как разграничить истинно человеческие компетенции и то, что может и должно выполняться ИИ.

В.А. Лекторский:

Я отвечу на вопрос насчет корпораций. Это вопрос очень существенный. Дело в том, что наука когда-то возникла. Некоторые считают, что наука появилась в XVII веке. Я думаю, что это не совсем так. Она возникла ещё в античности. Это была наука другого типа, чем наука XVII столетия. Но она уже существовала тогда.

Была философия, была наука, была биология, была астрономия Птолемея — это тоже была наука. Уже существовала математика, геометрия, которую мы изучаем в школе. Но в XVII веке возникла наука принципиально нового типа — наука экспериментальная.

Для античности эксперимент был невозможен, даже запрещен. Философы, которые были одновременно и учёными, например, Аристотель, — исходили из того, что, чтобы узнать, что происходит в природе и выявить её закономерности, нужно наблюдать то, что есть. Вмешиваться нельзя. Эксперимент же — это создание искусственной ситуации, того, чего в самой природе нет. Вмешиваясь, мы искажаем природные процессы, и в результате возникает не то, что существует в самой природе.

Так возникла экспериментальная наука, которая сразу же оказалась связана с технологией и чревата технологическими последствиями. Не случайно именно из этой науки и возникли технологии, которые бурно развивались в XVIII, особенно в XIX и тем более в XX веке. Так сложилось взаимодействие науки и технологий.

Сегодня этот симбиоз особенно силён. Даже появился термин «технонаука» — сращение фундаментальных научных исследований и технологий. Но всё же одно всегда отличалось от другого. И стремление к «чистому знанию» сохранялось: фундаментальная наука никуда не исчезла.

Здесь уместно вспомнить и вопрос о корпорациях. Был такой выдающийся философ, социолог, экономист и политический мыслитель, как Карл Маркс. Он ввёл понятие «всеобщего труда». Маркс считал, что существует обычный труд, создающий экономические ценности, и есть труд всеобщий — например, научная деятельность.

Чем отличается наука от обычной производственной деятельности? Продукт учёного в виде знания не является товаром. Товар, проданный за деньги, переходит от одного человека к другому: у продавца остаются деньги, а у покупателя — товар. А знание иное: когда учёный создаёт новое знание, оно становится достоянием всех, и при этом остаётся у самого автора. Более того, создавая теорию, он делает её достоянием человечества.

Маркс связывал этот пункт с переходом от капитализма к более высокому строю — социализму и коммунизму. А уже около 50 лет назад американский социолог Роберт Мертон, занимавшийся социологией науки, сформулировал целый ряд этических принципов научной деятельности. Один из них заключается в том, что знания, создаваемые учёным, принадлежат не только ему, но и всем, кто хочет ими воспользоваться.

У нас это понималось как коллективный характер научного знания. Мертон говорил ещё жёстче — «коммунистический характер науки». И он связывал это с другой особенностью: наука предполагает критику. Если выдвинута идея или теория, то, прежде чем она будет признана, её подвергают критическому анализу все специалисты в данной области. Она проверяется и критикуется исследователями, а затем становится всеобщим достоянием через публикации. Если теория не опубликована, её невозможно ни проверить, ни опровергнуть.

У Мертона было четыре принципа — необходимые условия существования науки. Без них, считал он, науки не существует.

А что мы наблюдаем сейчас? Сейчас возник феномен, названный когнитивным капитализмом. Корпорации разрабатывают новые технологии, которые дают им преимущество в конкурентной борьбе. Владельцы технологий не заинтересованы в том, чтобы они становились всеобщим достоянием. Напротив, знания, ведущие к разработке технологий, до поры до времени засекречиваются.

Так и возникает когнитивный капитализм. Но это искажает саму суть науки. Наука не может быть закрытой. Наука — это открытые знания. А сегодня часть знаний становится закрытой. То же самое касается оборонных разработок. Получается, что корпоративные исследования создают закрытые знания, используемые для прагматических целей: конкурентного преимущества и получения прибыли.

А что будет дальше, какие будут последствия, это мало кого волнует. Возникает новая опасность, сравнимая с тем, если бы отдельные корпорации обладали атомным оружием и решали сами, как его применять. Поэтому необходим общественный контроль над такими процессами.

Особенно сейчас, когда разработки в области искусственного интеллекта позволяют собирать огромные массивы данных — так называемые «большие данные» о поведении людей. Обладая ими, можно контролировать и даже направлять поведение человека. Это очень опасная вещь.

Возник термин «надзорный капитализм». Может быть, вы слышали: это когда капитализм не исчезает, а напротив — с помощью новых технологий укрепляет себя. При этом появляется возможность контролировать то, что раньше было трудно или вовсе невозможно. В результате такие ценности, как демократия и свобода мнений, могут оказаться под жёстким контролем. Есть люди, которые считают, что именно так и нужно поступать.

Поэтому это очень опасная тенденция. С моей точки зрения, разработка искусственного интеллекта должна находиться на государственном уровне, а не в руках отдельных корпораций. Однако реальность такова, что именно корпорации сегодня этим занимаются. Проблем действительно много: философского контроля, этического, политического, государственного. Если это не будет контролироваться и направляться, последствия могут оказаться крайне неприятными. Это одна из ключевых угроз.


Владислав Александрович, апеллируя к российскому опыту. Сейчас существует устойчивый тренд: государство ориентирует общество именно на технологические специальности. Например, с будущего года будет ограничен платный набор на некоторые неприоритетные специальности. Государство определяет приоритетные направления подготовки.

Какова миссия гуманитарного университета в целом и ГАУГН в частности? И второе: как в этом контексте связать гуманитарные знания с новыми технологическими разработками? Могут ли они служить инструментом?

В.А. Лекторский:

Я попробую ответить. Конечно, сегодня мы живём в мире технологий, и уйти от этого невозможно. Происходит глобальная синхронизация. Даже если кто-то попытался бы укрыться, ничего бы не вышло, потому что это мировая тенденция. Если страна лишит себя таких разработок, то политические конкуренты займутся ими, и это поставит под угрозу культуру, цивилизацию и само государство. Поэтому уйти от этого нельзя. Вопрос в другом: как поставить технологии под контроль, как направить их на то, чтобы людям жилось лучше, чтобы человек оставался человеком.

А что такое человек? Это существо, которое имеет свободу выбора, которое решает жизненные проблемы самостоятельно — пусть и с помощью других людей, государства, но остаётся личностью, ответственной за свою судьбу. Если лишить его этого качества, то человек перестанет быть человеком.

Вы упомянули государственные программы социально-экономического и технологического развития. Это важно и необходимо. Но, как вы помните, недавно, год-два назад, президент сформулировал традиционные ценности российской культуры и цивилизации. Речь идёт о ценностях, без которых мы никуда не продвинемся.

Ведь технологии решают вопрос «как» и «какими средствами». Но они не отвечают на вопрос «зачем». Технологии — это как капитан, который знает течение, направление ветра, умеет вести корабль. Но куда вести корабль? Определить цель может только система ценностей и государственных приоритетов. Это ценности — жизнь, свобода, гуманизм, любовь к Родине и другие.

Без этого технологии бессмысленны. Они могут даже завести нас не туда, куда нужно. Поэтому гуманитарные знания имеют фундаментальное значение. Это знание о человеке, о себе. Без памяти, без истории невозможно понять, кто мы, где живём и чего хотим.

Особенно важно это в контексте дискуссий об искусственном интеллекте. Сейчас говорят о «цифровой науке», когда системы ИИ собирают и анализируют большие данные, выявляют корреляции, и кажется, что теория и эксперимент больше не нужны. На этом пути есть успехи — биология, генетика, медицина используют ИИ для открытия новых лекарств. Но при этом наука рискует исчезнуть как таковая.

Наука всегда опиралась на малое количество данных, из которых рождалась теория. Теория подсказывала новые эксперименты, новые факты и технологии. А сегодня, якобы, теория не нужна: достаточно анализа больших данных.

Но именно теория позволила сделать научные революции. Вспомним Коперника, который предположил, что Земля вращается вокруг Солнца. Это противоречило здравому смыслу и наблюдениям, но именно это стало основой науки. Или законы механики Ньютона, многие из которых в опыте напрямую не наблюдаются. Это были умственные эксперименты, давшие толчок развитию науки.

Если бы в то время существовал искусственный интеллект, способный анализировать большие данные, он бы просто уточнил прежние модели. Теория бы не появилась. А без теории не возникли бы ни квантовая механика, ни теория относительности. Они стали возможны, потому что теории нужно было развивать и исправлять.

ИИ же работает только с уже имеющимися фактами. Он не способен выйти за их рамки и создать принципиально новые факты. Он не создаст экспериментальную аппаратуру, которая позволит заглянуть в глубины квантовой механики. А без этого не возникла бы современная атомная энергетика и даже атомное оружие.

Сегодня обсуждают и другой тип технологий — генеративные модели, такие как GPT. Они берут массив текстов, комбинируют его и создают что-то вроде нового. Но это — комбинация уже существующего, а не настоящий прорыв.

Он может писать детективные рассказы, что-то ещё, но по образцу того, что уже есть. Он принципиально не выйдет на новый уровень развития. Не в музыке: там он тоже может написать пьесу в стиле Баха, и искусствоведы даже не всегда отличают — думают, что это сам Бах написал. Но ведь он работает только в рамках данных музыкальных текстов, которые ему задали. В этих рамках он и действует. А вот выйти к Бетховену, Шопену или Чайковскому — нет, он застрянет здесь. И всё. Поэтому он ограничен тем опытом, который есть. Он исходит из фактов и текстов, которые уже накоплены. В этих рамках он будет комбинировать. Это и есть генеративный искусственный интеллект. Один исследователь даже назвал его «саркастическим попугаем».

Попугай может выучить слова и произносить их, но смысла он не понимает. То же самое и здесь: ИИ не понимает того, что делает. Он выявляет корреляции в данных и может на их основе делать предсказания — иногда правильные, даже часто правильные, но иногда и ошибочные. И понять, как он пришёл к результату, человек не может. Мы живём в мире, где понимание — основа. А здесь нам предлагают жить в «непонимаемом» мире, доверяя рекомендациям, которые не всегда верны. Один американский исследователь даже сказал: «Придётся привыкнуть жить в непонимаемом мире». Но Сократ ведь говорил: если мир непонимаем, то в таком мире и жить не стоит — он недостоин жизни. А тут нас как бы призывают: «живи, полагайся на интеллект». Но это опасно.

Мы специально занимались этой проблемой в Совете по вопросам искусственного интеллекта. Выяснилось, что в каких-то случаях ИИ даёт до 80% правильных подсказок, но в других ошибается в 60%. Вроде бы 80% — неплохо. Но если речь идёт о жизни и смерти, в военном деле, можно ли полагаться на такую вероятность? Это и есть проблема доверия искусственному интеллекту.

Он ведь не выявляет причинно-следственных связей. Он работает только с корреляциями. А корреляция не всегда значит причину. Вот, например, ИИ вывел, что на юге летом количество утонувших в море людей коррелирует с количеством проданного мороженого. И что, меньше мороженого продавайте — и будет меньше утопающих? Понятно, что причина здесь совсем иная.

В социальных процессах мы можем ещё это различить и поправить. Но когда речь идёт о явлениях природы или сложных технических процессах, то отделить корреляцию от причинности намного труднее.

Поэтому, да, искусственный интеллект может многое. Он может выявлять зависимости, которые человеку трудно заметить. Но принципиально он ограничен уже имеющимся опытом и текстами. Он не создаст «Войну и мир». К счастью, кстати. Было бы плохо, если бы мог.

 

Развивая тему университетской истории: Вы уже долгое время возглавляете Философский факультет ГАУГН. Скажите, как подготовленный в наших стенах специалист — философ — готов ли он к использованию искусственного интеллекта? Сейчас наблюдается тенденция: эксперты всё чаще говорят о необходимости включения курсов по корректному и этичному использованию искусственного интеллекта в образовании и научных исследованиях. Сегодня много работ пишется с использованием инструментов ИИ.

Конечно, мы не берём случаи прямого плагиата или использования готового контента. Речь идёт о помощи в методологии, подборе информации, систематизации данных. Так вот, какие инструменты уже используются у нас на факультете? И какие, по вашему мнению, должны быть внедрены в образовательный процесс?

В.А. Лекторский:

На факультете, насколько я знаю, у нас читаются курсы, связанные с искусственным интеллектом. Мы также проводим семинары и конференции на эти темы — регулярно. Дело в том, что я не только декан Философского факультета нашего университета, но и сотрудник Академии наук, Института философии РАН, а также председатель Научного совета РАН по методологии искусственного интеллекта и когнитивных исследований.

Я возглавляю этот совет, и у нас активно работают специалисты. Мы собираемся регулярно, примерно раз в месяц проводим конференции и конгрессы, издаём книги. В совете работают математики, разработчики в области искусственного интеллекта, учёные, изучающие мозг, психологи, экономисты, юристы и философы. И философы здесь играют ключевую роль. Мы собираемся, обсуждаем эти вопросы. Наш совет существует уже 15 лет. Когда мы начинали, интереса к ИИ почти не было. Сейчас эта тема активно обсуждается во всём мире, а мы давно ею занимаемся. И ясно, что какие бы вопросы мы ни поднимали, специалисты неизбежно выходят на философскую проблематику.

На факультете мы тоже этим занимаемся. Например, проводим конференции при поддержке нашего совета. А теперь — о философах. Искусственный текст, как вы правильно сказали, может использоваться при написании курсовых работ. Но здесь есть важный момент. Использовать можно, это даже полезно. Но плохо, если искусственный интеллект пишет работу вместо студента. Такая опасность существует. И сейчас обсуждается, как лучше организовать этот процесс. Я считаю, что если искусственный текст используется при написании работы, нужно указывать, какая именно часть написана с его помощью. Чтобы было ясно, где собственное творчество студента, а где — результат работы ИИ.

В противном случае может получиться так, что студенты будут не умнеть, а глупеть. У них не будет развиваться способность к критическому анализу и самостоятельному мышлению. Представьте: задание задано, студент пошёл, написал текст с помощью ИИ и выдал его за свой. Возникает опасность, которую кто-то даже назвал «цифровой дегенерацией». Если мы начнём полагаться на то, что всё за нас сделает искусственный интеллект, люди постепенно будут деградировать. Поэтому нужно принимать конкретные меры, потому что что-то с этим делать необходимо.

Для меня роль философа в этой проблематике состоит в том, чтобы понять, что именно делает искусственный интеллект, а что он не делает и даже принципиально не может делать. Это первое. Во-вторых, философы обсуждают целый ряд этических проблем, связанных с использованием ИИ. В нашем совете есть специальная секция, посвящённая этим вопросам. Есть и Российская ассоциация искусственного интеллекта, специалисты которой также с нами взаимодействуют.

Этические проблемы — это, например, понимание того, что такое сознание. Или проблема доверия. Мы проводили трёхдневную конференцию, которая называлась «Искусственный интеллект. Проблема доверия». Проблема доверия вообще — это фундаментальная философская проблема.

С одной стороны, человек — существо разумное, а разум предполагает критику и критическое мышление. Сейчас особенно важно сохранять эту способность. Если люди будут полагаться на ИИ во всём, они рискуют её утратить. А это опасно, ведь сегодня нас активно вводят в заблуждение с помощью искусственного интеллекта. Особенно в социальных сетях. Там часто непонятно, с кем вы общаетесь: может быть, половина сообщений и больше генерируется искусственным интеллектом.

ИИ подбирает вам собеседников и контент, близкий вашему мировоззрению. С одной стороны, это удобно. Но с другой — человек оказывается в замкнутом «коконе» и перестаёт видеть другие точки зрения. Это не настоящий диалог, а скорее форма манипуляции, навязывание мнений, которые вы принимаете без проверки.

И вот проблема доверия здесь выходит на первый план. Человек не может жить совсем без доверия: невозможно всё перепроверять. Мы должны доверять близким, знакомым людям, специалистам. Есть профессии, в основе которых лежит доверие. Например, маленький ребёнок, только начавший развиваться, доверяет своим родителям. Без доверия он не смог бы вырасти. Но доверять всему подряд тоже нельзя. Нужно различать, где доверие необходимо, а где нужно перепроверять. Сегодня во всём мире наблюдается кризис доверия. Если люди не верят политическим институтам или официальным источникам, общество оказывается ослабленным.

Простой пример: по телевидению кто-то сказал, что определённый банк находится в тяжёлом положении и завтра может обанкротиться. Люди услышали, поверили, побежали снимать деньги. Банк обанкротился не потому что должен был, а потому что люди поверили. Вот вам и доверие.

Таким образом, философские вопросы — доверия, справедливости, свободы — становятся особенно актуальными. Без справедливости жить невозможно. Но что считать справедливым? Аристотель, великий философ древности, считал справедливым рабство. Сегодня мы так не думаем.

Поэтому я и говорю: фундаментальные ценностные вопросы — что такое разум, что такое мышление, что такое свобода — нуждаются в новой интерпретации, потому что мы живём в ситуации, которая беспрецедентна. Никогда ещё человечество не сталкивалось с такими системами, как искусственный интеллект, ставящими под вопрос основы нашего мышления, разума и самой человеческой природы.

Раньше этого не было, потому что технологические системы, которые сейчас появились и называются системами искусственного интеллекта, ставят под вопрос наши фундаментальные качества и ценности: разум, мышление, свобода, свобода воли и, в конечном счёте, эмпатия. Считается, что возможна эмпатия к искусственному интеллекту, но я не думаю, что он способен имитировать настоящую эмпатию. Настоящего сознания у него быть не может. Он может выполнять некоторые операции, которые нам кажутся сомнительными, но сознание — это нечто большее.

Вот почему все эти вопросы, которые обсуждались ранее, сейчас снова активно обсуждаются философами, особенно в связи с искусственным интеллектом. Например, проблема оригинала и копии: с помощью ИИ можно создать копию, неотличимую от оригинала. Отличишь её или нет? Уже появились целые книги и виртуальные миры, которые предполагают, что мы живём в искусственной реальности, созданной сверхмощным разумом в виде ИИ. Но сейчас я не буду углубляться в эту тему.

Один философ предложил мысленный эксперимент около 30 лет назад. Представьте, что человек живёт в ситуации, где машина способна создавать для него все ощущения и эмоции, которые он обычно испытывает в жизни, но искусственно. Захочет ли человек жить в таком мире? Скорее всего, нет — он хочет реальной жизни.

Другой мысленный эксперимент: после смерти человека его мозг помещают в специальную лабораторию. Он продолжает «жить», питаясь и функционируя, как будто он живой, и знает устройство мозга. Мозг — самая сложная из известных форм образования во Вселенной, и мы до сих пор многое о нём не знаем. Этот эксперимент иллюстрирует идею посттрансгуманизма.

Трансгуманисты считают, что цифровое бессмертие — это будущее: мозг человека после смерти продолжает существовать в цифровой форме. Человек «живёт» в цифре, но на самом деле он мёртв. Возникает вопрос: насколько привлекательно такое бессмертие, когда человек управляется извне и не живёт настоящей жизнью? Насколько это вообще возможно — другой вопрос. Я лично считаю, что это вряд ли реально. Даже если бы это было возможно, такая форма существования скорее напоминает ад: человек не может вернуться к реальной жизни, его ничто не освобождает.

Эта проблема реальности и иллюзии — старая философская тема. Она вновь актуальна из-за виртуальной реальности и вопросов, где оригинал, а где копия. Есть философы, которые считают, что мы живём в виртуальном мире, созданном сверхмощным разумом, типа искусственного интеллекта. Он живёт в своей реальности, а для нас без исходной реальности виртуальный мир невозможен.

Хотя это кажется фантастическим, такие вопросы изучаются серьёзно. Например, Российская футурологическая ассоциация публикует прогнозы, в которых упоминаются ключевые цифровые события XXI века. Один из них — решение проблемы цифрового бессмертия к 2050 году. Уже через 25 лет люди, согласно этим прогнозам, могут жить в цифровой форме бессмертной.


Завершая интервью, хочу задать Вам последний вопрос, Владислав Александрович. Что бы Вы пожелали молодым гуманитариям на их пути — будь он нелёгким или, наоборот, безоблачным — и какие принципы обучения молодого специалиста вы считаете особенно важными?

В.А. Лекторский:

Это, конечно, очень важный пункт в нашей беседе. Я хотел бы пожелать, чтобы люди, которые поступили на гуманитарные факультеты нашего университета, поняли, исходили из того, что гуманитарные знания — это не реликт, не что-то устаревшее, утратившее смысл. А наоборот, с этим знанием, с его культивированием, с работой в этой области связаны будущее человека. Без гуманитарного знания человек просто пропадет, его просто не будет. Он станет придатком к этим машинам, которые будут определять его жизнь. Это уже будет не человек.

Человек — это человек, поскольку он сохраняет в себе эти ценности, о которых я уже рассказывал и говорил. Эти ценности как раз и предмет гуманитарного знания, это и философия, это история, это филология, это история литературы, история культуры, это юридическая наука, это психология. Это то, что делает человека человеком, чтобы он, так сказать, не исчез, не перестал быть тем, кем он был до сих пор, а, чтобы он, наоборот, поднялся на более высокую ступень развития.

Это важнейшая вещь! А если говорить о философии, которой я занимаюсь как доктор философских наук. Философия в современном мире сталкивается с новыми вызовами, связанными с искусственным интеллектом, и одновременно она учит критическому мышлению.

Я рассказывал, что без критического мышления сегодня в жизни очень тяжело, потому что легко стать объектом манипуляций, мошенников, начиная с тех, которые взламывают ваши телефоны, и кончая теми, которые в социальных сетях существуют и орудуют. Вот поэтому важно мышление критическое, то есть доверие — кому доверять, кому не доверять. Без доверия жить нельзя, а без критического мышления жить невозможно. А философия такому мышлению учит.

Философия — это культивирование мышления, критическое мышление, умение взвешивать разные предположения, разные гипотезы. Если искусственный интеллект исходит из того, что дано уже в виде фактов, это большие данные, или в виде текстов готовых, то философия учит из посылок того, что есть. Философия учит критически относиться к тому, что есть, и пересматривать это в свете новых данных, нового опыта.

Я думаю, что такое вот умение мыслить, анализировать, оно может пригодиться, где бы ни работал выпускник философского факультета. Будет ли он продолжать заниматься философией или где-то в другой сфере будет работать, но умение мыслить, умение анализировать, рассуждать, этически относиться к тому, что есть, оно пригодится в разных сферах деятельности.

Поэтому и наши факультеты выпускают такого рода людей, которые, как мне кажется, должны продолжить нить культурную, гуманитарную нить, без которой человек не существует. Это важнейшая миссия этих людей. И важно, чтобы такие люди были, чтобы были всегда такого рода знания.

Поэтому я возлагаю большие надежды на выпускников нашего университета. Желаю успехов! Желаю, чтобы они с интересом учились и понимали, насколько важны эти дисциплины, факультеты, на которые они поступили!

Мы выражаем искреннюю благодарность Владиславу Александровичу Лекторскому за содержательное и глубокое интервью, за готовность поделиться экспертным взглядом на актуальные вопросы развития искусственного интеллекта и гуманитарного знания. Уверены, что данное интервью станет важным ориентиром для читателей и послужат основой для дальнейшего осмысления вызовов и возможностей современной науки.

Фотоматериал: пресс-служба ГАУГН

Картинка для анонса: Array

Детальная картинка: Array

Теги: