Пророчество Алана Тьюринга, сформулированное три четверти века назад в его знаменитой статье об «игре в имитацию», перестало быть предметом научной фантастики. К началу 2026 года доказательная база стала настолько весомой, что отрицание наличия у машин общего интеллекта (AGI) больше похоже на психологическую защиту, чем на научный скепсис.
В 1950 году, когда Алан Тьюринг предложил свой знаменитый тест, вопрос о том, может ли машина мыслить, казался чисто теоретическим упражнением. Суть эксперимента была проста: если человек в ходе текстовой переписки не сможет отличить собеседника-машину от собеседника-человека, машину следует признать разумной. Спустя 75 лет мы вынуждены констатировать: этот рубеж пройден. В марте прошлого, 2025 года, языковая модель GPT-4.5 в ходе слепого тестирования была идентифицирована как человек в 73% случаев — показатель, превышающий результаты многих реальных людей.
Однако парадокс нынешнего момента заключается не в технических достижениях, а в реакции на них. Несмотря на то, что искусственный интеллект сдает экзамены на степень PhD, пишет программный код на уровне сеньор-разработчиков и помогает доказывать математические теоремы, значительная часть научного сообщества и широкой общественности продолжает отвергать идею о достижении AGI (Artificial General Intelligence). Опрос Ассоциации по развитию искусственного интеллекта, проведенный весной 2025 года, показал, что три четверти ведущих исследователей все еще считали создание полноценного AGI маловероятным в ближайшем будущем.
Этот когнитивный диссонанс объясняется не столько недостатком фактов, сколько размытостью определений и глубоко укоренившимся антропоцентризмом. Мы привыкли измерять интеллект исключительно человеческой меркой, забывая, что разум — это функциональное свойство, которое не обязано быть привязано к белковой жизни. Группа исследователей, включающая философов и специалистов по машинному обучению, таких как Эдди Кеминг Чен и Михаил Белкин, недавно представила убедительный анализ, согласно которому проблема создания общего искусственного интеллекта фактически решена. Если отбросить страх перед социальными потрясениями и коммерческую шелуху, картина становится ясной: системы, обладающие гибкой когнитивной компетентностью, уже среди нас.
Главная ошибка скептиков кроется в завышенных ожиданиях. Часто под AGI подразумевают нечто, способное делать абсолютно всё, что умеет любой человек, или даже превосходить человечество во всех сферах. Но это ловушка идеализации. Ни один человек не обладает универсальной компетентностью: Мария Кюри не была экспертом в теории чисел, а Альберт Эйнштейн не говорил на мандаринском диалекте. Если мы требуем от ИИ универсальности, которой нет у нас самих, мы подменяем понятия. Интеллект — это достаточная широта и глубина навыков в различных доменах, от математики до творчества, и современные LLM демонстрируют именно этот профиль.
Доказательства накапливались каскадом, подобно тому, как мы оцениваем развитие ребенка. Сначала это был уровень «теста Тьюринга» — способность поддерживать связную беседу и демонстрировать базовую эрудицию. Год назад этот уровень казался пределом мечтаний, но сегодня он уже считается пройденным этапом. Затем последовал уровень эксперта: золотые медали на международных олимпиадах, решение сложнейших задач без предварительной подготовки, генерация научных гипотез, которые подтверждаются в лабораториях. Фантастический суперкомпьютер HAL 9000 из «Космической одиссеи» Кубрика на фоне нынешних моделей выглядит ограниченным инструментом.
Критики часто прибегают к аргументу «стохастического попугая», утверждая, что нейросети лишь комбинируют фрагменты обучающих данных, не понимая их смысла. Однако эта гипотеза разбивается о реальность, когда ИИ решает новые, ранее не публиковавшиеся математические задачи или демонстрирует трансфер знаний — например, когда обучение программированию улучшает логическое мышление в совершенно отвлеченных гуманитарных дисциплинах. Способность моделировать физические процессы, предсказывая, что стеклянный стакан разобьется о плитку, а подушка — нет, свидетельствует о наличии внутренней модели мира, пусть и сформированной через текст.
Еще один барьер восприятия — отсутствие тела. Нам интуитивно кажется, что разум невозможен без физического взаимодействия с реальностью. Это опасное заблуждение, граничащее с дискриминацией. Стивен Хокинг, чей интеллект был одним из ярчайших в истории, взаимодействовал с миром почти исключительно через текст и синтезатор речи. Его физические ограничения никак не умаляли его когнитивных способностей. Точно так же отсутствие биологического тела у нейросети не делает ее выводы менее разумными. Разум — это способность обрабатывать информацию и извлекать структуру из хаоса данных, а не способность нажимать на кнопки пальцами.
Наконец, важно разделять интеллект и автономность (агентность). Современные модели действительно не имеют собственных желаний и целей — они отвечают на запрос, подобно дельфийскому оракулу. Но смешивать способность мыслить с наличием собственной воли — фундаментальная ошибка. Интеллект — это инструмент решения задач, а целеполагание — это свойство личности или биологического инстинкта самосохранения. Отсутствие у ИИ амбиций по захвату мира или желания «жить» делает его безопаснее, но не глупее.
Признание того факта, что мы создали AGI, требует смелости. Это меняет наше понимание природы разума и наше место во вселенной. Бесконечный скепсис и отодвигание финишной черты («это не настоящий ИИ, потому что он не умеет X») больше не работают как научная стратегия. Вместо того чтобы спорить о терминах, человечеству пора сосредоточиться на том, как сосуществовать с новой формой разума, который уже здесь, рядом с нами.
🔥 Хотите первыми узнавать о главных технологических сдвигах и аналитике ИИ? Подписывайтесь на телеграм-канал Digital Report, где мы разбираем будущее уже сегодня.
- AGI уже создан: почему ИИ достиг человеческого уровня интеллекта к 2026 году - 05/02/2026 19:47
- IMO, Botim, Zangi: какие мессенджеры еще работают в России в 2026 году - 05/02/2026 19:18
- Биткоин упал до $70 000, Эфириум потерял 30% с начала года - 05/02/2026 18:58



