Google нашла удивительный новый способ помочь роботам справиться с безграничной сложностью реального мира: научить их понимать язык.
Технический гигант внедрил свой последний технология искусственного интеллекта для обработки языка, называемая PaLMна роботов из Повседневные роботы, одно из экспериментальных подразделений материнской компании Alphabet. Он раскрыл получившуюся технологию, названную PaLM-SayCanво вторник.
Благодаря этой технологии языковая модель искусственного интеллекта Google дает достаточно знаний о реальном мире, чтобы помочь роботу интерпретировать расплывчатую человеческую команду и составить последовательность действий для ответа. Это резко контрастирует с четко прописанными действиями, которым большинство роботов следует в строго контролируемых обстоятельствах, например, установка ветровых стекол на конвейере по сборке автомобилей.
Технология представляет собой исследовательский проект, готовый к реализации в прайм-тайм. Но Google тестирует его на настоящей офисной кухне, а не в более контролируемой лабораторной среде, пытаясь создать роботов, которые могут быть полезны в непредсказуемом хаосе нашей реальной жизни. Наряду с такими проектами, как Двуногий бот Tesla Optimus, Творения Boston Dynamics а также Астро Амазонкион показывает, как роботы могут в конечном итоге выйти из научной фантастики.
Когда исследователь Google AI говорит роботу PaLM-SayCan: «Я пролил свой напиток, вы можете помочь?» он скользит на своих колесах через кухню в офисном здании Google, замечает губку на прилавке с помощью своей цифровой камеры, хватает ее моторизованной рукой и несет обратно исследователю. Робот также может распознавать банки с пепси и кока-колой, открывать ящики и находить пакеты с чипсами. Благодаря способностям абстракции PaLM может даже понять, что желтая, зеленая и синяя чаши могут метафорически представлять пустыню, джунгли и океан соответственно.
«По мере того, как мы совершенствуем языковые модели, производительность роботов также улучшается», — говорит Карол Хаусман, старший научный сотрудник Google, которая помогала демонстрировать технологию.
ИИ коренным образом изменил то, как работают компьютерные технологии и что они могут делать. Благодаря современным технологиям нейронных сетей, в общих чертах моделирующим человеческий мозг и также называемым глубоким обучением, системы ИИ обучаются на огромном количестве беспорядочных данных реального мира. Например, после просмотра тысяч фотографий кошек системы искусственного интеллекта могут распознать одну из них без необходимости говорить, что у нее обычно четыре ноги, заостренные уши и усы.
Google использовал огромную 6144-процессорную машину для обучения PaLM, сокращение от языковой модели путей, на обширной многоязычной коллекции веб-документов, книг, статей из Википедии, диалогов и программного кода, которые можно найти на сайте Microsoft GitHub. В результате Система искусственного интеллекта, которая может объяснять шуткизавершайте предложения, отвечайте на вопросы и следуйте своей собственной цепочке мыслей, чтобы рассуждать.
Работа PaLM-SayCan объединяет это понимание языка с собственными способностями робота. Когда робот получает команду, он сочетает предложения языковой модели с набором из примерно 100 навыков, которым он научился. Робот выбирает действие, которое оценивается как по языку, так и по навыкам робота.
Система ограничена обучением и обстоятельствами, но она гораздо более гибкая, чем промышленный робот. Когда моя коллега Клэр Рейли просит робота PaLM-SayCan «сделать мне бургер», он складывает деревянные кубики булочек, котлет, салата и бутылку кетчупа в правильном порядке.
По словам Google, навыки и среда робота предлагают реальную основу для более широких возможностей языковой модели. «Навыки будут действовать как [language model’s] «руки и глаза», — говорили они Исследовательский документ PaLM-SayCan.
В результате появился робот, способный справиться с более сложной средой. «Наш уровень производительности достаточно высок, чтобы мы могли запускать его вне лабораторных условий», — сказал Хаусман.
Около 30 колесных роботов On a regular basis Robots патрулируют офисы робототехники Google в Маунтин-Вью, Калифорния. Каждый из них имеет широкое основание для равновесия и передвижения, более толстый стебель, поднимающийся до уровня груди человека и поддерживающий сочлененную «голову», лицо с различными камерами и зеленым светящимся кольцом, указывающим, когда робот активен, сочлененную хватательную руку и вращающийся датчик лидара, который использует лазер для создания 3D-сканирования окружающей среды. Сзади большая красная кнопка остановки, но роботы запрограммированы на избежание столкновений.
Некоторые из роботов стоят на станциях, где они изучают такие навыки, как сбор предметов. Это отнимает много времени, но как только один робот выучит его, этот навык можно будет передать другим.
Другие роботы скользят по офисам, каждый со сложенной сзади рукой и лицом, указывающим на QR-коды, прикрепленные к окнам, огнетушители и большую статую робота Android. Работа этих амбулаторных роботов состоит в том, чтобы попытаться научиться вежливо вести себя с людьми, сказал Винсент Ванхоук, выдающийся ученый Google и директор лаборатории робототехники.
«ИИ был очень успешным в цифровых мирах, но ему еще предстоит внести существенный вклад в решение реальных проблем реальных людей в реальном физическом мире», — сказал Ванхоук. «Мы думаем, что сейчас самое подходящее время для того, чтобы ИИ мигрировал в реальный мир».