Ученые выяснили почему человеческий язык не похож на компьютерный код
Лингвисты из Саарбрюккена и Калифорнийского университета опубликовали в Nature Human Behaviour исследование, объясняющее «неэффективность» человеческой речи. С точки зрения теории информации, передача данных бинарным кодом (единицами и нулями) была бы гораздо компактнее и быстрее. Однако математическое моделирование показало, что мозг сознательно выбирает избыточные языковые структуры вместо максимально сжатых цифровых строк, чтобы снизить когнитивную нагрузку.
Основная причина кроется в механизме предиктивной обработки. Человеческий язык построен на знакомых паттернах и реальном жизненном опыте, что позволяет мозгу работать в режиме «автопилота». Когда мы слышим начало фразы, мозг мгновенно отсекает невозможные варианты и предсказывает следующее слово. В цифровом коде или максимально сжатых абстрактных структурах такая предсказуемость теряется, что заставило бы и отправителя, и получателя тратить в разы больше ментальных усилий на расшифровку каждого бита информации.
Исследователи сравнили это с поездкой по привычному маршруту: он может быть длиннее, чем объездной путь по дворам, но ехать по нему легче, так как дорога знакома до мелочей. В языке каждое слово — грамматически или логически — сужает поле неопределенности. Например, числительное сразу настраивает мозг на поиск исчисляемого объекта, а прилагательное — на его свойства. Если нарушить этот порядок или заменить слова короткими кодами, система предсказания ломается, и процесс понимания превращается в тяжелую вычислительную задачу.
Результаты работы имеют значение не только для лингвистики, но и для развития больших языковых моделей (LLM). Понимание того, как мозг минимизирует усилия при обработке данных, поможет проектировать нейросети, которые будут общаться более естественно. Сейчас ученые планируют проверить, как эти математические закономерности работают в разных языковых семьях и как они влияют на скорость обучения детей речи.
Источник:ScienceDaily















