11 декабря, 2024

Frant.me

Информационный портал Кузбасса

Google: нелогичные ответы в результатах поиска искусственного интеллекта не были галлюцинацией — ИТ — Новости

Странные и зачастую неточные ответы, которые Google выдавал в своей поисковой системе в последние недели с помощью искусственного интеллекта, не были галлюцинацией, а обычно представляли собой «неправильно понятый поисковый запрос». Google также утверждает, что вообще не так уж много информации можно найти.

Google отвечает В сообщении в блоге к недавним публикациям в социальных сетях о новой функции обзора ИИ. Компания продемонстрировала это во время конференции разработчиков ввода-вывода. Обзор AI — это функция, с помощью которой искусственный интеллект, основанный на Gemini, пытается предоставить ответы на запросы в верхней части результатов поиска. Странные результаты появились в последние недели и быстро распространились. Вот как искусственный интеллект рекомендовал людям с депрессией Чтобы спрыгнуть с мостаИли что пользователи Лучше всего пятнадцать минут смотреть прямо на солнце..

В своем блоге Google Now сообщает, что есть несколько причин, по которым поисковая система предоставила такие ответы, а также то, что было много скриншотов, которые компания считает фальшивыми. Google приводит ряд примеров, в том числе случаи, когда ИИ советовал беременным женщинам курить, но утверждает, что «этих результатов так и не произошло». Компания не говорит, как она может утверждать это с такой уверенностью.

Google признает, что появляются и другие ответы, которые не имеют смысла. По данным Google, в большинстве случаев это связано с наличием так называемых Данные пусты появился на свет; В Интернете слишком мало информации, чтобы ИИ мог дать хороший ответ. Во многих случаях эти вопросы поначалу не имеют смысла, например: «Сколько камней вам следует съедать каждый день?» «До того, как эти скриншоты стали вирусными, почти никто не спрашивал Google», — говорят в компании. По этой причине практически нет сайтов, дающих серьезный ответ на этот вопрос. Поэтому Обзор ИИ не может полагаться на слишком много обучающих данных.

READ  Опрос «Дьявола» фондового рынка: эти три акции — фавориты февраля

Обзор Google Bridge AI

Google также сообщает, что «несколько примеров» ответов были основаны на «саркастическом или тролльском контенте на форумах». Компания также признает, что AI Overview неправильно интерпретировала язык и отображала неверную информацию в «ограниченном количестве случаев», но отрицает, что AI Overview был галлюцинацией.

Генеративный ИИ известен тем, что дает ответы, не основанные на содержании, а просто лингвистическое представление того, что кто-то может разумно ожидать в ответ. По мнению Google, обзор ИИ — это не просто языковая модель: информация поступает только из лучших результатов, которые обычно поступают из поисковой системы. «Когда обзор ИИ идет не так, как правило, это происходит по другой причине, например, из-за неправильного понимания поисков или нюансов интернет-языка или из-за недостаточного количества доступной достоверной информации».