Влияние GPT на развитие искусственного интеллекта и его сходство с человеческой психологией

Сравнение интеллектуальных возможностей: Исследование различий между GPT-моделями и человеческими способностями. От галлюцинаций до самостоятельности - что выделяет их и как преодолеть ловушки памяти.
Новости 2023 07 06

Генеративные текстовые модели, такие как ChatGPT и GPT-4, стали истинным прорывом в мире искусственного интеллекта (AI, Artificial Intelligence), существенно изменяя всю область исследований.

Модели GPT (Generative Pre-trained Transformer, генеративный предобученный трансформер) в значительной степени упростили процесс взаимодействия с AI, делая его доступным даже для тех, кто не обладает глубокими знаниями в области компьютерных технологий. Каждый может легко обращаться к модели с различными вопросами и получать удивительно точные ответы.

Тем не менее, далеко не всегда модель предоставляет верные ответы, но это не означает, что она не способна это сделать. Часто достаточно просто изменить подход к задаче или предложить новую "подсказку" (prompt), чтобы направить модель к верному решению. Этот процесс называют "промпт-инжинирингом" (prompt engineering).

Многие методы промпт-инжиниринга основаны на имитации человеческого мышления. Примером такой имитации является подход "думать вслух" или пошаговое рассуждение, который позволяет лучше понять, как человеческое мышление работает и как можно улучшить работу моделей.

Тема взаимосвязи GPT-моделей и человеческой психологии представляется интересной для исследователей, дата-сайентистов и психологов. Она помогает понять, как модели могут быть улучшены, опираясь на принципы человеческого мышления.

Далее рассматриваются различные аспекты аналогии между GPT-моделями и человеческой психологией:

  • Подсказки. Промпты используются для управления поведением модели и улучшения ее результатов, что напоминает методы побуждения к определенному поведению в психологии.
  • Подражание. GPT-модели подражают поведению, но не обладают истинным пониманием происходящего, в отличие от человека, который автоматически изучает новые способы поведения.
  • Галлюцинации. Иногда модели генерируют информацию, которая не соответствует реальности или отсутствует в обучающих данных, что может напоминать ошибки восприятия у человека.
  • Самоосознание. Вопрос о том, что делает нас теми, кто мы есть, также применим к GPT-моделям в контексте их поведения и возможностей.
  • Память. GPT-модели используют информацию из обучающих данных как свою "память" для отвечания на вопросы, а человек использует память для доступа к информации.
  • Внутренний монолог. Изучение внутреннего "голоса" модели и способов его использования аналогично тому, как человек ищет свой внутренний голос для принятия решений.
  • Самостоятельность. GPT-модели способны выполнить действия без четких указаний, также как и человек.
  • Инструменты. Модели могут использовать внешние инструменты для преодоления ограничений, аналогично тому, как человек использует инструменты для решения задач.

Важно подчеркнуть, что хотя сходство между GPT-моделями и человеческой психологией представляется интересным, не следует применять антропоморфизацию и приписывать

моделям собственное понимание или сознание. GPT-модели остаются искусственным интеллектом и не обладают индивидуальностью или самосознанием.

Это всего лишь постановка вопроса, направленный на проведение параллелей между искусственным интеллектом и человеческим мышлением с долей скептицизма.

Самоосознание

Самоосознание — это уникальное качество у человека, которое представляет собой заранее сложившееся представление о себе, о том, какими они являются и как повлияли на них жизненные опыты. У нас есть осознание своего "я" и некоторое представление об окружающем мире.

Однако у GPT-моделей отсутствует самоосознание. Они обладают обширными знаниями о мире и способны предоставлять ответы, которые могут казаться точными и осмысленными. Но у них нет осознания собственного существования или ощущения индивидуальности.

В отличие от людей, модели могут легко "подставиться" под различные личности, точно воспроизведя их особенности. Они способны подражать поведению той личности, которая интересует пользователя. Однако это всего лишь подражание и модель не обладает реальным пониманием своего "я".

Такое отсутствие самоосознания у моделей имеет свои преимущества. Например, можно попросить модель сыграть роль ученого, писателя или редактора, и она постарается вести себя соответственно этой роли. Когда модель ориентирована на имитацию поведения определенных личностей, это может привести к более согласованным результатам ее работы с задачами, которые ей предлагают.

Однако важно помнить, что модели не обладают собственным мнением или сознанием. Все их ответы основаны на том, что они видели в ходе обучения на большом объеме данных. И хотя это может привести к удивительным результатам и адаптивности в поведении, GPT-модели все же остаются лишь инструментами, которые оперируют знаниями, но не обладают реальным пониманием или осознанием собственного существования.

Профессионализм

Тема профессионализма является захватывающей и важной для оценки больших языковых моделей. Существует множество проектов и соревнований, таких как Hugging Face Leaderboard и Chatbot Arena Leaderboard, которые помогают оценить возможности этих моделей на различных тестах. Однако то, что я могу считать сильной стороной какой-то модели, для кого-то может быть менее значимым.

В отличие от людей, у GPT-моделей нет собственного понимания о своих сильных и слабых сторонах. Они могут понимать эти аспекты только через подсказки, которые получают от пользователей. Например, если модель проходила экзамен по адвокатуре, она не сможет самостоятельно оценить, насколько это значимо в сравнении с другими моделями или специалистами в этой области.

Определение сильных и слабых сторон модели сильно зависит от контекста и конкретной ситуации. Такая же ситуация характерна и для людей. Что для одного человека может считаться сильной стороной, для другого может быть менее важным. Это объясняется субъективностью восприятия и предвзятостью.

Интересно отметить, что моделям необходимо сообщать о ее сильных и слабых сторонах, так как они не обладают интуитивным пониманием этих аспектов. Например, если модель не может решить математические уравнения, пользователь может указать ей использовать плагин Wolfram для вычислений.

Оценка профессионализма модели является сложной задачей, требующей объективности и внимательной оценки ее возможностей в контексте конкретных задач и сравнения с другими моделями и экспертами. Важно понимать, что модели и люди имеют свои сильные и слабые стороны, и их профессионализм может варьироваться в различных условиях.

Инструменты

Инструменты играют важную роль как у людей, так и у GPT-моделей. Однако, в отличие от людей, модели не знают автоматически, какие инструменты использовать для решения определенной задачи. Пользователь должен подсказать модели о необходимости применения внешних инструментов, добавляя соответствующие пояснения в промпт.

Описывая ситуацию модели, мы помогаем ей лучше понять задачу и выдавать более точные ответы. Это подобно тому, как пользователь может указать человеку на полезные инструменты, которые помогут ему решить конкретную задачу. Однако, как и у людей, использование инструментов может не всегда решить все сложности.

В отличие от людей, которые спонтанно используют разнообразные инструменты в повседневной жизни, GPT-модели не обращаются к внешним инструментам автоматически. Если пользователь хочет, чтобы модель воспользовалась определенным внешним инструментом, он должен указать это модели.

Предоставление GPT-моделям возможности использовать внешние инструменты, аналогично тому, как человек пользуется различными предметами в повседневной жизни, может значительно улучшить результаты и эффективность работы моделей. Эти "плагины" могут быть ценным дополнением для моделей, обогащая их функциональность и позволяя решать более сложные задачи.

Однако стоит отметить, что на данный момент описываемые модели не предполагают автоматического использования инструментов, и пользователь должен явно сообщить модели о необходимости использования конкретного внешнего инструмента для решения задачи.

Внутренний монолог

Внутренний монолог, который обычно звучит в голове человека, отличается от работы GPT-моделей. У людей в процессе решения сложных задач звучит внутренний голос, который позволяет им рассуждать и анализировать различные варианты. Возникают размышления типа: "Если я сделаю это, то результат будет таким, а если сделаю то — это может привести к лучшему решению задачи".

У GPT-моделей нет естественного внутреннего монолога. Когда модели задают вопрос, они просто генерируют некоторое количество слов, которые образуют ответ на этот вопрос наиболее логичным образом, основываясь на промпте. Однако, благодаря особому подходу, модели могут демонстрировать сложные рассуждения и проводить "цепочку пошаговых логических выводов". Это происходит, когда пользователь просит модель "думать вслух" и продумывать ответ пошагово. Хотя это не означает, что модели рассуждают точно так же, как люди, но данный метод может улучшить результаты работы моделей.

Внутренний диалог модели не происходит в ее собственных "мыслях", а отображается для пользователя. Это представляет собой своего рода "психические образы", которые помогают модели проводить мозговые штурмы, аналогичные тем, что используют люди для нахождения новых идей и ответов на вопросы.

Мы можем связать это с двумя системами мышления, характерными для человека. Система № 1 представляет собой автоматический и интуитивный процесс мышления, в то время как система № 2 — сознательное и логическое мышление, требующее усилий. Давая GPT-модели возможность саморефлексии и предлагая ей использовать "цепочку мыслей", мы активируем в модели обе системы мышления. Таким образом, модель уделяет больше времени на генерацию ответа, проводя более тщательные размышления вместо быстрого выдачи ответа.

Включение "цепочки пошаговых логических выводов" помогает GPT-моделям приблизиться к процессу мышления человека, что может привести к более интересным и улучшенным результатам работы моделей. Однако важно отметить, что этот процесс требует особых инструкций для моделей и не является их естественным способом работы.

Если вам интересно узнать больше о первой и второй системах мышления у человека, рекомендуется обратиться к специализированной литературе на эту тему.

Память

Проведено интересное сравнение возможностей памяти человека и памяти GPT-моделей, представленных в виде четырех компонентов: долговременная память, рабочая память, сенсорная память и внешняя память.

Что касается долговременной памяти, у GPT-моделей она представляет собой информацию, запомненную после обучения на огромных объемах данных. Эта информация хранится внутри модели и может быть воспроизведена по запросу, и, в отличие от человеческой долговременной памяти, у GPT-моделей она не ослабевает со временем.

Рабочая память GPT-моделей аналогична рабочей памяти человека и представляет собой информацию, переданную в промпте. Модель может использовать эту информацию для вычислений и ответов, но после выдачи ответа "забывает" промпт. Однако, история беседы с моделью может сохраняться, создавая ощущение ее "памятливости".

Сенсорная память у GPT-моделей имитируется через мультимодальные процедуры обучения, которые позволяют работать с различными видами данных, включая текст, изображения и звуки. Хотя это не совсем аналог сенсорной памяти человека, подобные мультимодальные возможности делают модели более гибкими в работе.

Наконец, внешняя память у GPT-моделей представляет собой базу данных с информацией, к которой модель может обращаться. Это может быть сравнено с наличием у модели нескольких книг по физике "под рукой". В отличие от моделей, люди используют внешнюю память в виде подсказок из окружающей среды, которые помогают нам вспоминать идеи и ощущения.

Отмечено также отсутствие упоминания о кратковременной памяти, так как разница между кратковременной и рабочей памятью является дискуссионной. Выбрано понятие "рабочая память", так как оно лучше подходит для сравнения человека и GPT-моделей.

Таким образом, GPT-модели обладают интересной комбинацией памяти, включающей долговременную память с возможностью точного воспроизведения информации, рабочую память в виде промпта для временного хранения данных, имитацию сенсорной памяти через мультимодальные данные и внешнюю память в виде доступа к базе данных. Эти особенности делают GPT-модели мощными инструментами, но в то же время они отличаются от сложности памяти человека, которая может быть подвержена угасанию со временем.

Самостоятельность

Самостоятельность - это важное понятие, которое отличает человека от GPT-моделей. Человек способен действовать самостоятельно, принимать решения и делать выборы без явных инструкций. Например, человек может решить пропустить стаканчик без внешних указаний.

В отличие от этого, GPT-модели не обладают независимостью и не могут действовать самостоятельно, пока не получат явных указаний. Их поведение жестко ограничено заданными параметрами и доступными инструментами. Однако, с помощью метода AutoGPT можно смоделировать их самостоятельное поведение, предложив им задачи и шаги для их выполнения.

Важно отметить, что окружающая среда сильно влияет на возможности GPT-моделей. Они оказываются очень зависимы от инструкций и доступных им инструментов. В сравнении с человеком, чьи действия также зависят от окружения, GPT-модели проявляют более сильную зависимость от внешних условий.

Хотя GPT-модели могут показывать впечатляющие примеры сложного самостоятельного поведения, их возможности все равно ограничены. Они не способны использовать инструменты, о которых им не рассказали, в отличие от людей, которые более гибко адаптируются к новым и неизвестным инструментам. Таким образом, самостоятельность GPT-моделей сильно зависит от предоставленной им среды и инструкций, и их способности не могут сравниться с гибкостью и приспособляемостью человека.

Галлюцинации

Галлюцинации - одна из распространенных проблем GPT-моделей, которая проявляется в их способности уверенно генерировать неправдивую информацию или выдавать факты, не имеющие отношения к реальности или к данным, на которых они были обучены.

Подобное поведение моделей напоминает ложные воспоминания у людей. Люди иногда могут вспоминать события, которые на самом деле никогда не происходили - так называемые ложные воспоминания. Это может быть связано с внушаемостью, праймингом или другими воздействиями на память. Как и у моделей, воспоминания людей могут подвергаться влиянию внешних факторов, таких как вопросы или подсказки, что приводит к созданию ложных представлений о прошлых событиях - пресуппозициям.

При сравнении машинных и человеческих галлюцинаций, можно выделить важное отличие. Человеческие галлюцинации основаны на восприятии и могут возникать из-за искаженного восприятия реальности, в то время как модели "галлюцинируют" некорректные факты, не имея непосредственного опыта восприятия.

Интересно отметить, что промпты играют значительную роль в формировании галлюцинаций у GPT-моделей. Вопросы и подсказки, предоставляемые моделям, могут сильно повлиять на то, какую информацию они будут генерировать. Подобное явление также применимо к человеку, где воспоминания могут быть искажены или обусловлены влиянием окружающей информации.

Таким образом, как у GPT-моделей, так и у людей имеются сходства в возможности галлюцинировать или создавать ложные воспоминания. В обоих случаях восприятие и память могут быть подвержены влиянию внешних факторов, что следует учитывать при взаимодействии с этими системами.

Поиск