Почему искусственный интеллект выходит за рамки глубокого обучения

Подпишитесь на наши ежедневные и еженедельные рассылки, чтобы получать последние обновления и эксклюзивный контент о ведущих в отрасли материалах об ИИ. Узнать больше


Недавняя сага о трудоустройстве Сэма Альтмана и предположения о новаторской модели Q* компании OpenAI возобновили интерес общественности к возможностям и рискам общего искусственного интеллекта (AGI).

AGI может обучаться и выполнять интеллектуальные задачи, сравнимые с людьми. Стремительные достижения в области ИИ, особенно в области глубокого обучения, вызвали оптимизм и опасения по поводу появления AGI. Несколько компаний, включая OpenAI и xAI Илона Маска, стремятся разработать AGI. Это поднимает вопрос: ведут ли текущие разработки ИИ к AGI?

Возможно, нет.

Ограничения глубокого обучения

Глубокое обучение, метод машинного обучения (ML), основанный на искусственных нейронных сетях, используется в ChatGPT и во многих современных ИИ. Он приобрел популярность благодаря своей способности обрабатывать различные типы данных и уменьшению потребности в предварительной обработке, среди прочих преимуществ. Многие считают, что глубокое обучение будет продолжать развиваться и играть решающую роль в достижении AGI.

Однако глубокое обучение имеет ограничения. Для создания моделей, отражающих данные обучения, требуются большие наборы данных и дорогие вычислительные ресурсы. Эти модели выводят статистические правила, которые отражают явления реального мира. Затем эти правила применяются к текущим данным реального мира для генерации ответов.

Таким образом, методы глубокого обучения следуют логике, ориентированной на прогнозирование; они заново выводят обновленные правила при наблюдении новых явлений. Чувствительность этих правил к неопределенности естественного мира делает их менее подходящими для реализации AGI. Крушение круизного Robotaxi в июне 2022 года можно объяснить тем, что транспортное средство столкнулось с новой ситуацией, для которой у него не было подготовки, что сделало его неспособным принимать решения с уверенностью.

Загадка «что если»

Люди, модели для AGI, не создают исчерпывающих правил для событий реального мира. Люди обычно взаимодействуют с миром, воспринимая его в реальном времени, полагаясь на существующие представления для понимания ситуации, контекста и любых других случайных факторов, которые могут повлиять на решения. Вместо того чтобы создавать правила для каждого нового явления, мы перепрофилируем существующие правила и изменяем их по мере необходимости для эффективного принятия решений.

Например, если вы идете по лесной тропе и натыкаетесь на цилиндрический объект на земле и хотите решить, что делать дальше, используя глубокое обучение, вам необходимо собрать информацию о различных характеристиках цилиндрического объекта, отнести его к категории потенциальной угрозы (змея) или неопасности (веревка) и действовать на основе этой классификации.

Наоборот, человек, скорее всего, начнет оценивать объект на расстоянии, постоянно обновлять информацию и выбирать надежное решение, взятое из «распределения» действий, которые оказались эффективными в предыдущих аналогичных ситуациях. Этот подход фокусируется на характеристике альтернативных действий в отношении желаемых результатов, а не на прогнозировании будущего — тонкое, но отличительное отличие.

Достижение AGI может потребовать отхода от предсказательных выводов в пользу усиления индуктивной способности «что если…?», когда прогнозирование невозможно.

Принятие решений в условиях глубокой неопределенности — путь вперед?

Методы принятия решений в условиях глубокой неопределенности (DMDU), такие как Robust Decision-Making, могут предоставить концептуальную основу для реализации рассуждений AGI по выбору. Методы DMDU анализируют уязвимость потенциальных альтернативных решений в различных будущих сценариях, не требуя постоянного переобучения на новых данных. Они оценивают решения, выявляя критические факторы, общие для тех действий, которые не соответствуют заранее определенным критериям результата.

Цель состоит в том, чтобы определить решения, которые демонстрируют надежность — способность хорошо работать в различных будущих ситуациях. В то время как многие подходы к глубокому обучению отдают приоритет оптимизированным решениям, которые могут потерпеть неудачу при столкновении с непредвиденными трудностями (например, оптимизированные системы поставок «точно в срок» потерпели неудачу перед лицом COVID-19), методы DMDU отдают предпочтение надежным альтернативам, которые могут пожертвовать оптимальностью ради способности достигать приемлемых результатов во многих средах. Методы DMDU предлагают ценную концептуальную основу для разработки ИИ, способного ориентироваться в неопределенностях реального мира.

Разработка полностью автономного транспортного средства (AV) могла бы продемонстрировать применение предлагаемой методологии. Задача заключается в навигации в разнообразных и непредсказуемых условиях реального мира, тем самым имитируя человеческие навыки принятия решений во время вождения. Несмотря на значительные инвестиции автомобильных компаний в использование глубокого обучения для полной автономности, эти модели часто испытывают трудности в неопределенных ситуациях. Из-за непрактичности моделирования всех возможных сценариев и учета сбоев, решение непредвиденных проблем в разработке AV продолжается.

Надежное принятие решений

Одно из возможных решений предполагает принятие надежного подхода к принятию решений. Датчики AV будут собирать данные в реальном времени для оценки целесообразности различных решений — таких как ускорение, смена полосы движения, торможение — в рамках определенного дорожного сценария.

Если критические факторы вызывают сомнения относительно алгоритмического механического ответа, система оценивает уязвимость альтернативных решений в данном контексте. Это уменьшит непосредственную необходимость в переобучении на массивных наборах данных и будет способствовать адаптации к неопределенностям реального мира. Такой сдвиг парадигмы может повысить производительность АВ, перенаправив фокус с достижения идеальных прогнозов на оценку ограниченных решений, которые АВ должен принять для работы.

Контекст принятия решений будет способствовать развитию AGI

По мере развития ИИ нам, возможно, придется отойти от парадигмы глубокого обучения и подчеркнуть важность контекста принятия решений для продвижения к AGI. Глубокое обучение было успешным во многих приложениях, но имеет недостатки для реализации AGI.

Методы DMDU могут стать первоначальной основой для поворота современной парадигмы ИИ в сторону надежных методов ИИ, основанных на принятии решений, которые могут справляться с неопределенностями в реальном мире.

Своптик Чоудхури — аспирант Высшей школы имени Парди РЭНД и помощник исследователя политики в некоммерческой беспартийной корпорации RAND.

Стивен Поппер — старший экономист-ассистент корпорации RAND и профессор кафедры принятия решений в Технологическом институте Монтеррея.