
Учёные Meta разработали систему, которая способна анализировать мозговые сигналы и с высокой точностью определять, какие клавиши нажимает человек. В ходе эксперимента с 35 добровольцами алгоритм, основанный на глубокой нейронной сети, сумел правильно распознавать до 80 % введённых символов. Однако пока эта технология остаётся исключительно лабораторной: для работы требуется дорогостоящий магнитоэнцефалографический (MEG) сканер, чувствительный к малейшим движениям. Несмотря на ограничения, Meta продолжает исследования в этом направлении, надеясь лучше понять механизмы человеческого мышления и усовершенствовать модели ИИ.
Компания давно интересуется нейроинтерфейсами. В 2017 году Facebook планировал создать устройство, позволяющее «печатать мыслями» без хирургических имплантов. Тогда проект столкнулся с техническими сложностями, и спустя четыре года компания отказалась от его коммерческой версии. Тем не менее Meta не свернула исследования, сосредоточившись на фундаментальных вопросах нейронаук. В рамках новой работы учёные использовали MEG для регистрации магнитных полей, создаваемых нейронами, а затем обучили алгоритм сопоставлять эти сигналы с конкретными нажатиями клавиш.

Руководитель исследовательской группы Meta «Brain & AI» Жан-Реми Кинг подчёркивает, что главная цель проекта — не создание конечного продукта, а изучение работы мозга. В ходе эксперимента испытуемые проводили по 20 часов в сканере, набирая текст на испанском языке. Система, получившая название Brain2Qwerty, сначала анализировала тысячи символов, а затем начинала предсказывать буквы на основе мозговых сигналов. Ошибки пока ещё высоки — в среднем 32 %, но это лучший показатель среди всех неинвазивных методов набора текста.
В то время как Meta делает ставку на внешние сканеры, конкуренты развивают инвазивные интерфейсы. В 2023 году пациентке с БАС удалось вернуть способность общаться с помощью импланта, передающего её мысли в синтезатор речи. Neuralink Илона Маска разрабатывает чипы, позволяющие парализованным людям управлять компьютером. Однако такие технологии требуют хирургического вмешательства и несут определённые риски. В отличие от них, MEG-сканер Meta позволяет изучать работу мозга в целом, не внедряясь в нейронные структуры напрямую.
Во втором исследовании на тех же данных команда Meta изучила, как мозг структурирует языковую информацию. Результаты подтвердили иерархическую модель мышления: сначала формируется общая идея, затем активируются зоны, отвечающие за слова, слоги и, в последнюю очередь, за отдельные буквы. Эти данные помогают глубже понять когнитивные процессы и могут повлиять на развитие ИИ. Хотя технология далека от реального использования, она открывает новые перспективы в создании умных интерфейсов, способных превратить мысль в текст без единого нажатия клавиши.