Google превърна езика на изкуствения интелект в центъра на I / O, като същевременно игнорираше проблемното му минало в компанията

Компанията е обвинена в цензура на критиците на същите тези AI системи

icloud имейл приложение за android
Илюстрация от Алекс Кастро / The Verge

Вчера на I / O конференцията за разработчици на Google компанията очертаамбициозни плановеза бъдещето си, изградено на основата на напреднал езиков ИИ. Тези системи, каза изпълнителният директор на Google Сундар Пичай, ще позволят на потребителите да намират информация и да организират живота си, като водят естествени разговори с компютри. Всичко, което трябва да направите, е да говорите и машината ще отговори.



Но за мнозина в общността на ИИ имаше забележимо отсъствие в този разговор: отговорът на Google на собственото си изследване, изследващо опасностите от такива системи.

Езикови модели като Google идват с множество предизвикателни рискове

През декември 2020 г. и февруари 2021 г. Google първо уволни Timnit Gebru, а след това и Margaret Mitchell, съ-ръководители на своя екип по етичен AI. Историята с тяхното напускане е сложна, но е предизвикана отхартия, чиято двойка е съавтор(с изследователи извън Google), изследващи рисковете, свързани с езиковите модели, които Google сега представя като ключ към бъдещето си. Както се посочва в хартията и други критики, тези AI системи са склонни към редица грешки, включително генериране на груб и расистки език; кодирането на расови и полови пристрастия чрез реч; и обща невъзможност за сортиране на факти от измислица. За мнозина в света на ИИ уволнението на Google от Gebru и Mitchell възлиза нацензура върху тяхната работа.

За някои зрители, както Пичай подчерта, че моделите на ИИ на Google винаги ще бъдат проектирани с честност, точност, безопасност и поверителност, несъответствието между думите и действията на компанията повдига въпроси относно способността й да защитава тази технология.



Google току-що представи LaMDA нов голям езиков модел в I / O,туитнаМередит Уитакър, изследовател на AI за справедливост и съосновател на AI Now Institute. Това е показател за стратегическото му значение за екипите на Ко. Прекарват месеци в подготовка на тези съобщения. Tl; dr. Този план беше на мястото си, когато Google уволни Timnit + се опита да я задуши + изследванията, критикуващи този подход.

Самата Гебрутуитна, Това е, което се нарича измиване на етиката - позовавайки се на тенденцията на технологичната индустрия да изтръгва етичните опасения, като същевременно игнорира констатациите, които пречат на способността на компаниите да печелят.



Говорейки сНа ръба, Емили Бендер, професор от Университета във Вашингтон, която е съавтор на вестника заедно с Гебру и Мичъл, заяви, че презентацията на Google по никакъв начин не смекчава притесненията й относно способността на компанията да направи подобна технология безопасна.

аниме стачка

Отблог пост[обсъждайки LaMDA] и предвид историята, нямам увереност, че Google всъщност внимава за някой от рисковете, които повдигнахме в статията, каза Бендер. Първо, те уволниха двама от авторите на този доклад, номинално над хартията. Ако проблемите, които повдигаме, са тези, с които са се сблъсквали главно, тогава те умишлено са се лишили от изключително подходящ опит за тази задача.

Google трябва да бъде по-ясен как се справя с тези опасности

В публикацията си в блога на LaMDA Google подчертава редица от тези проблеми и подчертава, че работата му се нуждае от повече развитие. Езикът може да е един от най-големите инструменти на човечеството, но като всички инструменти той може да бъде злоупотребяван, пише старши изследователски директор Зубин Гахрамани и продуктовият мениджър Ели Колинс. Моделите, обучени на език, могат да разпространяват тази злоупотреба - например чрез интернализиране на пристрастия, отразяване на омразна реч или възпроизвеждане на подвеждаща информация.

Бендер обаче казва, че компанията замъглява проблемите и трябва да бъде по-ясна за това как се справя с тях. Например тя отбелязва, че Google се позовава на проверка на езика, използван за обучение на модели като LaMDA, но не дава никакви подробности за това как изглежда този процес. Много бих искал да знам за процеса на проверка (или липсата му), казва Бендер.

Едва след презентацията, Google изобщо се позовава на своята единица за етичен интелект, в CNETинтервюс шефа на Google AI Джеф Дийн. Дийн отбеляза, че Google е претърпял истински репутационен удар от стрелбите - нещоНа ръба преди това е докладвал- но че компанията трябваше да премине през тези събития. Не се притесняваме да критикуваме собствените си продукти, каза ДийнCNET. Стига да е направено с обектив към факти и подходящо третиране на широкия набор от дейности, които вършим в това пространство, но също така и за справяне с някои от тези проблеми.

За критиците на компанията обаче разговорът трябва да бъде много по-открит от този.