OpenAI, разработчики ChatGPT, обязуются разрабатывать безопасные AI системы

изображение1.png

OpenAI опубликовала новую запись в блоге, обязующуюся разрабатывать искусственный интеллект (ИИ), который безопасен и полезен для всех.

ChatGPT, с использованием последней модели OpenAI, GPT-4, позволяет повысить производительность, улучшить творческие способности и предоставляет индивидуальные образовательные возможности.

Тем не менее, OpenAI признает, что у инструментов искусственного интеллекта есть внутренние риски, которые следует рассматривать с помощью мер безопасности и ответственного внедрения.

Вот что компания делает, чтобы снизить эти риски.

Обеспечение безопасности в системах искусственного интеллекта

OpenAI проводит тщательное тестирование, обращается за внешними рекомендациями от экспертов и усовершенствует свои модели искусственного интеллекта с помощью обратной связи от людей перед выпуском новых систем.

Выпуск GPT-4, например, предшествовал более шести месяцам тестирования, чтобы обеспечить его безопасность и соответствие потребностям пользователей.

OpenAI считает, что надежным ИИ-системам следует подвергаться тщательной проверке безопасности и поддерживает необходимость регулирования.

Изучение на примерах реального мира

Реальное использование - ключевой компонент при разработке безопасных систем искусственного интеллекта. Открытый подход OpenAI, осуществляющий постепенное распространение новых моделей среди расширяющейся пользовательской базы, позволяет вносить усовершенствования, которые решат непредвиденные проблемы.

Предлагая модели искусственного интеллекта через свой API и веб-сайт, OpenAI может контролировать их использование, принимать соответствующие меры и разрабатывать тонкие политики для балансировки риска.

Защита детей и уважение к конфиденциальности

OpenAI приоритизирует защиту детей, требуя проверку возраста и запрещая использование своей технологии для создания вредного контента.

Конфиденциальность является еще одним важным аспектом работы OpenAI. Организация использует данные, чтобы сделать свои модели более полезными, одновременно защищая пользователей.

Кроме того, OpenAI удаляет персональную информацию из наборов данных для обучения и настраивает модели так, чтобы отказываться от запросов на предоставление персональной информации.

OpenAI будет отвечать на запросы о удалении личной информации из своих систем.

Улучшение фактической точности

Фактическая точность является значительным фокусом для OpenAI. GPT-4 в 40% больше вероятности производить точный контент, чем его предшественник, GPT-3.5.

Организация стремится просветить пользователей ограничениями инструментов искусственного интеллекта и возможностью неточностей.

Продолжение исследований и общение

OpenAI считает, что важно уделять время и ресурсы исследованию эффективных методов смягчения рисков и техник согласованности.

Однако это не то, что он может сделать самостоятельно. Решение проблем безопасности требует широких дебатов, экспериментов и участия всех заинтересованных сторон.

Организация OpenAI продолжает придерживаться принципа содействия сотрудничеству и открытому диалогу для создания безопасной экосистемы искусственного интеллекта.

Критика в отношении существенных рисков

Несмотря на намерение OpenAI обеспечить безопасность своих систем и широкую пользу от них, его блог вызвал критику в социальных сетях.

Пользователи Twitter выразили разочарование, указывая на то, что OpenAI не уделяет должного внимания существенным рискам, связанным с развитием искусственного интеллекта.

Один пользователь Twitter выразил свое разочарование, обвиняя OpenAI в предательстве своей первоначальной миссии и сосредоточении на безрассудной коммерциализации.

Пользователь считает, что подход OpenAI к безопасности является поверхностным и более заинтересован в угождении критикам, чем в решении реальных существенных рисков.

Это горько разочаровывает, бессодержательное, показное PR окно.

Вы даже не упоминаете экзистенциальные риски от искусственного интеллекта, которые являются центральной проблемой многих граждан, технологов, исследователей ИИ и лидеров ИИ-индустрии, включая вашего собственного CEO @sama. @OpenAI предает свое...

— Geoffrey Miller (@primalpoly) 5 апреля 2023 г.

Другой пользователь выразил неудовлетворение относительно объявления, утверждая, что оно игнорирует реальные проблемы и остается неясным. Пользователь также подчеркивает, что отчет игнорирует критические этические вопросы и риски, связанные с самосознанием искусственного интеллекта, подразумевая, что подход OpenAI к вопросам безопасности недостаточен.

Как поклонник GPT-4 я разочарован вашей статьей.

Она пропускает реальные проблемы, остается неопределенной и игнорирует важные этические вопросы и риски, связанные с самосознанием искусственного интеллекта.

Я оцениваю инновации, но это не верный подход в решении проблем безопасности.

— FrankyLabs (@FrankyLabs) 5 апреля 2023 г.

Критика акцентирует внимание на более широких опасениях и продолжающемся обсуждении существенных рисков, связанных с развитием искусственного интеллекта.

В то время как сообщение OpenAI подчеркивает его приверженность безопасности, конфиденциальности и точности, важно признать необходимость дальнейшего обсуждения для решения более значительных вопросов.

Связанные статьи

Показать больше >>

Раскройте возможности искусственного интеллекта с помощью HIX.AI!