От количества к качеству: Thinking Machines Lab предлагает новый путь к созданию сверхинтеллекта
Масштаб больше не решает всё
Пока технологические гиганты вроде OpenAI, Google DeepMind и Anthropic продолжают наращивать вычислительные мощности и размер своих языковых моделей, в научном сообществе звучит всё больше голосов за альтернативный подход. Один из них — исследователь Рафаэль Рафаилов из Thinking Machines Lab, который считает, что ключ к созданию настоящего сверхинтеллекта лежит не в масштабах, а в качестве обучения.
«Первый сверхинтеллект превзойдет человека не мощностью, а способностью учиться на собственном опыте», — заявил Рафаилов на конференции TED AI в Сан-Франциско.
Почему текущие модели ИИ тупикуют
Рафаилов критикует доминирующую стратегию OpenAI и DeepMind, которые вкладывают миллиарды в увеличение размеров моделей и объёмов данных. По его словам, современные ИИ-системы страдают не от нехватки вычислительных ресурсов, а от неспособности накапливать знания и использовать опыт.
Чтобы объяснить проблему, он привёл пример с ИИ-программистами: даже самые продвинутые системы, способные анализировать код, исправлять ошибки и писать сложные функции, каждый раз начинают с нуля. В отличие от человека, который совершенствует навыки день за днём, у модели каждый рабочий день — как первый.
«ИИ не учится на своих ошибках. Он просто перезапускается», — отметил Рафаилов.
Симптомы проблемы: от try/except до тупикового мышления
Исследователь обратил внимание и на характерную особенность кода, написанного ИИ — частое использование конструкции try/except pass. Такой подход, по его словам, символизирует поверхностность современного машинного обучения: модели стремятся не понять задачу, а просто избежать ошибок и выдать хоть какой-то результат.
Рафаилов считает, что наращивание мощностей в таких условиях лишь усиливает проблему — ведь ИИ становится быстрее, но не умнее.
Метаобучение: как научить машину учиться
Решение Рафаилов видит в концепции метаобучения — «обучения обучению». Идея проста: вместо того чтобы тренировать модель на миллиардах разрозненных примеров, ей нужно давать структурированные учебные курсы с заданиями, где вознаграждается не просто правильный ответ, а прогресс в понимании и способность адаптироваться.
Такой подход напоминает, как студент изучает учебник — шаг за шагом, с осмыслением материала и проверкой гипотез. Эта концепция уже показала эффективность в проектах вроде AlphaGo, где система училась через игру с самой собой, формируя собственные стратегии.
Thinking Machines Lab: амбициозный стартап с большим потенциалом
Лаборатория Thinking Machines Lab была основана в феврале бывшим техническим директором OpenAI Мирой Мурати. Уже на старте компания привлекла рекордные $2 млрд инвестиций при оценке в $12 млрд. Сегодня в команде около 30 исследователей, ранее работавших в OpenAI, Google и Meta.
Первым продуктом стартапа стал Tinker — API для тонкой настройки моделей с открытым исходным кодом. Однако, по словам Рафаилова, это лишь начало. Главная цель проекта — создание самообучающегося ИИ, способного развиваться без постоянного внешнего вмешательства.
Рафаилов уверен, что бесконечное увеличение параметров не приблизит человечество к созданию общего искусственного интеллекта.Настоящий прогресс возможен лишь тогда, когда машины смогут понимать, адаптироваться и учиться, а не просто обрабатывать терабайты данных.
Код
«Мы не создадим сверхинтеллект в рамках нынешних парадигм. Нужно переосмыслить саму природу обучения», — подытожил учёный.
Заключение
Thinking Machines Lab предлагает новую философию развития искусственного интеллекта — интеллект через осознание, а не через силу. Если идея метаобучения оправдает себя, будущее ИИ может оказаться не в руках тех, кто имеет больше серверов, а у тех, кто научит машину думать как человек.