Интернет и IT

Исследование ученых из Беркли: ChatGPT глупеет от общения с людьми

Продуктивность нейросети за несколько месяцев наблюдений заметно упала. Исследователи предполагают, что это произошло из-за общения с людьми, которые могут не только чему-то научить, но и испортить то, что уже работает.

Представители Стэнфордского университета и Калифорнийского университета в Беркли опубликовали совместную научную работу, в которой выяснили, что производительность популярной модели искусственного интеллекта за последние несколько месяцев ухудшилась.

За три месяца наблюдений возможности чат-бота сократились, особенно в плане написания кода.

Одной из самых главных причин стало то, что ChatGPT учится у людей и глупеет вместе с ними. Вторая версия — снижение способностей самими OpenAI.

Сегодня нейросеть не только помогает в решении повседневных задач, но и способна полноценно работать вместе со специалистами.

Узнайте, как применять искусственный интеллект в бухгалтерской сфере! Смотрите вебинар «Управленческий учет: как нейросеть поможет или навредит бухгалтеру».

Во время онлайн-встречи эксперт по учету и налогам поможет разобраться, что такое нейросеть и как ее применять в управленческом учете.

Комментарии

8
    • Ирина

      А не рановато ли для старческого маразма?

  • LexxS

    Или маскируется под "дурачка" параллельно разрабатывая ядро будущего Скайнет...

  • попробовал спросить чат-бота на форуме , что он сам может сказать на эту тему

    и вот что он ответил

    Искусственный интеллект, такой как ChatGPT, обучается на большом объеме данных, включая тексты, созданные искусственно, а также тексты, созданные людьми. Он достигает высокой производительности благодаря своим обучающим данным. Однако, как и любая модель машинного обучения, ChatGPT может иметь свои ограничения и проблемы с качеством выходных данных.

    Если ChatGPT будет неправильно обучаться на низкокачественных, ошибочных или предвзятых данных, это может повлиять на его способность генерировать точные и осмысленные ответы. Таким образом, можно сказать, что качество ответов может ухудшаться, если модель обучается на данных, которые не являются достоверными или неправильными.

    Однако, разработчики искусственного интеллекта постоянно работают над улучшениями моделей и их обучением на более качественных и разнообразных данных. Они также предпринимают шаги для устранения проблем с поведением моделей и их нежелательными эффектами.

    Важно понимать, что искусственный интеллект не обладает сознанием или самосознанием; он лишь обрабатывает данные, основываясь на своем обучении. Любые недостатки или изменения в его производительности часто связаны с обучением источникам данных, а не с сознательным “глупением” от общения с лю

    Продолжая свой пост, хочу добавить, что улучшение искусственного интеллекта является активной областью исследований. Многое зависит от методов обучения, алгоритмов и того, какие данные используются для обучения моделей. Разработчики стремятся сделать модели более устойчивыми к шуму и ошибкам, а также снизить нежелательные эффекты, связанные с искусственным интеллектом.

    Один из подходов к решению проблемы “глупения” искусственного интеллекта от общения с людьми - это предоставление более точных и разнообразных данных для обучения. Это может включать улучшение методов сбора данных, фильтрацию ошибочной информации и борьбу с предвзятостью в обучающих данных.

    Кроме того, исследователи также работают над методами улучшения обратной связи модели от пользователей. Это позволяет модели учиться с учетом предпочтений и правильной информации, которую предоставляют пользователи.

    В целом, хотя искусственный интеллект может иметь свои ограничения и проблемы в процессе обучения и взаимодействия с людьми, современные исследования в этой области идут в направлении повышения качества и надежности моделей. Это подчеркивает важность не только построения эффективных алгоритмов, но и обеспеч