Сообщается, что руководство Google выпустило «красный код» на фоне растущей популярности ИИ ChatGPT

Фото: Getty Images

Руководство компании Google выпустило «красный код» в связи с запуском ChatGPT — нашумевшего чат-бота с искусственным интеллектом, созданного OpenAI, — поскольку это вызвало опасения по поводу будущего поисковой системы Google, сообщила The New York Times.

Сундар Пичаи, генеральный директор Google и ее материнской компании Alphabet, принял участие в нескольких встречах, посвященных стратегии Google в области искусственного интеллекта, и поручил многочисленным группам в компании переориентировать свои усилия на устранение угрозы, которую ChatGPT представляет для их поисковой системы.

В частности, по сообщению The Times, командам отдела исследований, доверия и безопасности Google, среди прочих отделов, было приказано переключиться на помощь в разработке и запуске прототипов и продуктов ИИ. Некоторым сотрудникам было поручено создавать продукты с искусственным интеллектом, которые генерируют искусство и графику, подобные DALL-E от OpenAI, который, по данным The Times, используется миллионами людей. 

Шаг Google по расширению своего портфолио продуктов ИИ связан с тем, что сотрудники Google и эксперты обсуждают, может ли ChatGPT, которым управляет Сэм Альтман, бывший президент Y Combinator, заменить поисковую систему и, в свою очередь, нанести ущерб рекламным доходам Google.

Сридхар Рамасвами, руководивший рекламной командой Google с 2013 по 2018 год, сказал, что ChatGPT может помешать пользователям нажимать на ссылки Google с рекламой, что принесло 208 миллиардов долларов — 81% от общего дохода Alphabet — в 2021 году, сообщает Insider. 

ChatGPT, который собрал более 1 миллиона пользователей через пять дней после его публичного запуска в ноябре, может генерировать уникальные ответы на запросы в разговорной, человеческой манере, собирая информацию с миллионов веб-сайтов. 

Но некоторые поспешили сказать, что бот часто изобилует ошибками. ChatGPT не может проверить то, что он говорит, и не может отличить проверенный факт от дезинформации, сообщили Insider эксперты по искусственному интеллекту. Он также может придумывать ответы — явление, которое исследователи ИИ называют «галлюцинациями». 

Его высокая погрешность и уязвимость к токсичности являются одними из причин, по которым Google не решается выпустить свой чат-бот с искусственным интеллектом LaMDA. В недавнем отчете CNBC говорится, что руководители Google не хотели широко публиковать его в его нынешнем состоянии из-за опасений по поводу «репутационного риска». 

Вместо этого Google может сосредоточиться на улучшении своей поисковой системы с течением времени, а не на ее ликвидации, сообщили эксперты The Times. 

Подписывайтесь на наш Telegram-канал и получайте актуальную информацию из мира новостей еще быстрее.

Подготовила: Алина Швецова shvetsova_alina@tempting.pro