Главный научный сотрудник Meta считает, что у генеративного искусственного интеллекта ограниченное понимание логики


Большие языковые модели (LLM), на которых базируются ChatGPT и другие инструменты генеративного (создающего контент — ИФ) искусственного интеллекта (ИИ), никогда не выйдут на уровень человеческого интеллекта, полагает главный научный сотрудник американской Meta в области ИИ Ян Лекун, сообщает Интерфакс-Казахстан.

По его мнению, у таких моделей очень ограниченное понимание логики, и они не смогут рассуждать и планировать, как человек. Кроме того, они «не понимают физический мир, не обладают постоянной памятью, не способны рассуждать в каком бы то ни было разумном смысле этого слова и не могут планировать... иерархически», заявил он в интервью Financial Times.

Лекун высказался против того, чтобы полагаться на развитие LLM в стремлении создать интеллект на уровне человеческого, поскольку эти модели могут точно отвечать на запросы лишь в том случае, если обучены на корректных данных, и поэтому небезопасны.

Вместо этого эксперт занимается разработкой абсолютно нового поколения ИИ-систем, которые, как он надеется, наделят машины «человеческим» интеллектом. Однако на выполнение этой задачи может уйти десять лет, пояснил он.

Ян Лекун руководит командой из порядка 500 человек в лаборатории фундаментальных исследований Meta в области ИИ. Они работают над созданием искусственного интеллекта, который может развить в себе чувство здравого смысла и изучать устройство мира аналогично человеку. Такой подход называется «моделирование мира».