17.10.2024 00:13 40
Искусственный интеллект оказался иллюзией
Исследователи из Apple Computer Company заявили, что ответы, даваемые крупными языковыми моделями (LLM), такими как ChatGPT, создают иллюзию интеллекта, не будучи результатом настоящего логического рассуждения.
Статья с результатами исследования опубликована на сервере препринтов arXiv.
Важно отметить, что команда ученых сосредоточилась на способности разумных существ, в том числе людей, различать важную и несущественную информацию в ситуациях, требующих логического анализа. Исследователи предположили, что истинный интеллект подразумевает понимание, позволяющее игнорировать ненужные данные и сосредотачиваться на сути вопроса, как это происходит в случае человеческого мышления.Однако, несмотря на то, что крупные языковые модели могут поражать своей способностью генерировать тексты, они не обладают способностью к реальному пониманию контекста и логическому выводу. Это подчеркивает разрыв между искусственным и человеческим интеллектом, который остается одним из ключевых вызовов в области искусственного интеллекта.Для проверки гипотезы о способности языковых моделей научиться игнорировать лишнюю информацию, исследователи провели эксперимент, включив в вопросы для LLM дополнительные данные, не имеющие отношения к теме. Сотни вопросов, ранее использованных для проверки моделей, были дополнены ненужными деталями, чтобы проверить способность LLM давать корректные ответы, игнорируя лишние сведения.Полученные результаты показали, что языковые модели часто запутываются из-за лишней информации, что приводит к неправильным или бессмысленным ответам на вопросы, на которые ранее они отвечали верно. Это свидетельствует о том, что у LLM может отсутствовать способность к настоящему пониманию и логическому мышлению, считают исследователи. Такие выводы поднимают важный вопрос о том, насколько надежно можно полагаться на искусственный интеллект в задачах, требующих анализа и интерпретации информации.Интересно, что в ходе проведенного исследования было обнаружено, что LLM (языковые модели с ограниченной памятью) часто предоставляют ответы, которые кажутся правдоподобными на первый взгляд, но на самом деле оказываются ошибочными при более детальном анализе. Например, когда LLM задают вопрос о том, что они "чувствуют", они могут дать ответы, подразумевающие наличие у них сознательных ощущений, что, на самом деле, не соответствует действительности, поскольку эти модели не обладают чувственными способностями.Эти наблюдения позволили исследователям сделать вывод о том, что современные языковые модели не обладают истинным интеллектом. Они скорее выявляют шаблоны в текстах и генерируют ответы на основе статистической обработки данных, чем на основе реального понимания сути поставленных вопросов. Таким образом, хотя LLM могут выглядеть интеллектуальными, их функционирование основано на статистике, а не на истинном понимании контекста.Источник и фото - lenta.ru