Uzias12
Опытный user
- Регистрация
- 27 Янв 2021
- Сообщения
- 599
- Реакции
- 4
Старший вице-президент Google и глава Google Search Прабхакар Рагхаван предостерёг пользователей о «галлюцинирующих» текущих версиях чат-ботов на базе ИИ. По его мнению, не нужно полностью доверять ответам чат-ботов, так как некоторые из них могут быть выдуманы, а производители решений не проверяют в рамках фактчекинга сгенерированную ботами информацию.
«Этот тип искусственного интеллекта, о котором мы сейчас говорим, может иногда приводить к тому, что мы называем галлюцинациями. Это выражается таким образом, что система даёт убедительный, но полностью выдуманный ответ», — рассказал Рагхаван.
Глава Google Search добавил, что одной из основных задач Google является не только разработка чат-бота Bard, но и сведение к минимуму количества неправильных ответов из-за цифровых галлюцинаций у ИИ.
По словам Рагхавана, в Google столкнулись с текущей безотлагательной ситуацией по необходимости выпуска своего чат-бота, чтобы не упустить рынок. Но в компании также понимают большую ответственность за этот проект. Разработчики не хотят вводить пользователей в заблуждение и вот прямо сейчас выпускать в открытый доступ сырого чат-бота, который в некоторых случаях может придумать убедительный ответ и обмануть пользователя с ожиданиями.
Учёный и астрофизик Грант Тремблей согласен с Рагхаваном. Он пояснил СМИ, что технологии ChatGPT и Bard выглядят жутко впечатляюще, но они часто «очень уверенно» ошибаются и не могут самостоятельно проверять себя на ошибки. По мнению учёного, основной проблемой чат-ботов с искусственным интеллектом является их склонность уверенно заявлять неверную информацию как факт. «Эти системы часто «галлюцинируют», то есть выдумывают информацию, потому что они по сути являются системами автозаполнения», — считает Тремблей.

«Этот тип искусственного интеллекта, о котором мы сейчас говорим, может иногда приводить к тому, что мы называем галлюцинациями. Это выражается таким образом, что система даёт убедительный, но полностью выдуманный ответ», — рассказал Рагхаван.
Глава Google Search добавил, что одной из основных задач Google является не только разработка чат-бота Bard, но и сведение к минимуму количества неправильных ответов из-за цифровых галлюцинаций у ИИ.
По словам Рагхавана, в Google столкнулись с текущей безотлагательной ситуацией по необходимости выпуска своего чат-бота, чтобы не упустить рынок. Но в компании также понимают большую ответственность за этот проект. Разработчики не хотят вводить пользователей в заблуждение и вот прямо сейчас выпускать в открытый доступ сырого чат-бота, который в некоторых случаях может придумать убедительный ответ и обмануть пользователя с ожиданиями.
Учёный и астрофизик Грант Тремблей согласен с Рагхаваном. Он пояснил СМИ, что технологии ChatGPT и Bard выглядят жутко впечатляюще, но они часто «очень уверенно» ошибаются и не могут самостоятельно проверять себя на ошибки. По мнению учёного, основной проблемой чат-ботов с искусственным интеллектом является их склонность уверенно заявлять неверную информацию как факт. «Эти системы часто «галлюцинируют», то есть выдумывают информацию, потому что они по сути являются системами автозаполнения», — считает Тремблей.