OpenAI, создатель ChatGPT, публично заявил о безопасности искусственного интеллекта и о том, как он пытается обеспечить безопасность своих продуктов. Как мы помним, конфиденциальная информация некоторых пользователей ChatGPT просочилась в результате очень простой ошибки. После этого инцидента ChatGPT был запрещен в Италии и проверен в некоторых европейских странах. На прошлой неделе Италия стала первой западной страной, запретившей использование ChatGPT, сославшись на соображения конфиденциальности. Хотя OpenAI утверждает, что уверен в соблюдении существующих законов, шаг Италии повышает вероятность того, что другие страны последуют ее примеру и ограничат использование ИИ до тех пор, пока не будет обеспечена его безопасность. Сообщение в блоге на веб-сайте компании может развеять опасения по поводу моделей ИИ, которые добились значительных успехов за последние несколько месяцев. Это избавляет от беспокойства? Не совсем.
"ОПТ-4 тестировали за 6 месяцев до выпуска"
В сообщении Open AI заявляет, что тщательно тестирует любую новую систему с привлечением внешних экспертов, прежде чем она будет представлена публике, и использует отзывы людей и обучение с подкреплением для внесения улучшений. Компания утверждает, что тестировала окончательную модель GPT-4 в течение шести месяцев, прежде чем выпустить ее, и призывает к регулированию: «Мы считаем, что мощные системы искусственного интеллекта должны подвергаться тщательной оценке безопасности. Регулирование необходимо для обеспечения принятия такой практики, и мы активно работаем с правительствами над наилучшей формой, которую может принять такое регулирование». OpenAI заявляет, что, несмотря на обширные исследования и испытания, которые они тщательно провели, то, что они могут узнать в лаборатории, ограничено, поэтому они не могут предсказать все полезные или оскорбительные возможности. Вот почему компания заявляет, что публичное тестирование является обязательным для разработки таких систем. OpenAI заявляет, что может отслеживать злоупотребления своими услугами и принимать немедленные меры на основе реальных данных.
Как видно из приведенных выше объяснений, OpenAI разрабатывает тонкие политики в отношении реальных рисков, связанных с такими технологиями, как ChatGPT, при этом теоретически позволяя людям использовать их в полезных или вредных целях.