Исследователи говорят, что возникающие способности ИИ - это просто "мираж"

alt

Наборы данных, используемые для обучения алгоритмов ИИ, могут недопредставлять пожилых людей. Фото: Pixabay / CC0 Общественное достояние


Кажется, нет конца предсказаниям о грозовых тучах, когда компьютеры в конечном итоге решат взять дело в свои руки (или, лучше сказать, их собственные процессоры).


"Развитие искусственного интеллекта может означать конец человеческой расы", - предупредил Стивен Хокинг.


"[ИИ] пугает меня до чертиков. Он способен на гораздо большее, чем кто-либо знает, и скорость улучшения экспоненциальна ", - сказал соучредитель OpenAI Илон Маск.


Технологии ИИ представляют "серьезные риски для общества и человечества", согласно письму, подписанному ранее в этом году более чем 1000 технологическими лидерами, призывающими ввести мораторий на исследования в области ИИ, пока не будет больше понимания потенциальных рисков.


"Нам нужно быть очень осторожными", - сказал Йошуа Бенгио, профессор и исследователь ИИ в Монреальском университете.


Не игнорируя обещание огромной пользы, которую ИИ принесет широкому кругу секторов промышленности, экономики, образования, науки, сельского хозяйства, медицины и научных исследований, сообщения СМИ все чаще бьют тревогу по поводу непреднамеренных последствий этой растущей разрушительной технологии.


Одной из проблемных областей является возникающее поведение, определяемое как серия непредвиденных, незапрограммированных взаимодействий внутри системы, вытекающих из более простого запрограммированного поведения отдельных частей.


Исследователи говорят, что доказательства такого поведения наблюдаются в моделях, которые самостоятельно изучают языки, когда системы, обученные играть в шахматы и Го, генерируют оригинальные стратегии для продвижения, или когда роботы демонстрируют вариативность моделей движений, которые изначально не были запрограммированы.


"Несмотря на попытки ожидать сюрпризов, я удивлен тем, на что способны эти модели", - сказал Итан Дайер, специалист по компьютерам Google, отвечая на эксперимент с искусственным интеллектом, в ходе которого компьютер неожиданно самостоятельно вывел название фильма на основе цепочки смайликов.


Но сам Дайер, возможно, будет удивлен, узнав, что исследовательская группа из Стэнфордского университета обливает холодной водой сообщения об эмерджентном поведении.


Райан Шеффер, Брандо Миранда и Санми Коеджо заявили в статье, опубликованной на прошлой неделе, что доказательства нового поведения основаны на статистике, которая, вероятно, была неправильно истолкована.


"Наше сообщение заключается в том, что ранее заявленные возникающие способности ... скорее всего, могут быть миражом, вызванным анализом исследователей", - сказали они.


В своей статье, размещенной на сервере препринтов arXiv, исследователи объяснили, что возможности больших языковых моделей измеряются путем определения процента их правильных предсказаний.


Статистические анализы могут быть представлены множеством способов. Исследователи утверждают, что, когда результаты представлены в нелинейных или прерывистых показателях, они, по-видимому, демонстрируют резкие, непредсказуемые изменения, которые ошибочно интерпретируются как индикаторы возникающего поведения.


Однако альтернативный способ измерения идентичных данных с использованием линейных показателей показывает "плавные, непрерывные" изменения, которые, в отличие от первого показателя, показывают предсказуемое — не возникающее —поведение.


Команда из Стэнфорда добавила, что неспособность использовать достаточно большие выборки также способствует ошибочным выводам.


"Существующие утверждения о возникающих способностях являются результатом анализа исследователя, а не фундаментальных изменений в поведении модели при выполнении конкретных задач", - заявили в команде.


Они добавили, что, хотя методология в прошлых исследованиях, вероятно, приводила к вводящим в заблуждение выводам, "ничто в этой статье не следует интерпретировать как утверждение, что большие языковые модели не могут отображать возникающие способности", предполагая, что надлежащая методология вполне может выявить такие возможности.


"Основной вывод, - сказали исследователи, - заключается в том, что для фиксированной задачи и фиксированного семейства моделей исследователь может выбрать метрику для создания возникающей способности или выбрать метрику для устранения возникающей способности".


Или, как заявил один известный комментатор, "Результат алгоритма настолько хорош, насколько соответствуют параметрам, установленным его создателями, а это означает, что в самом ИИ есть место для потенциальной предвзятости".


И кто был тем известным комментатором? ChatGPT от Microsoft Bing.

Оставить комментарий

Всегда рады услышать ваше мнение!

Новые Старые