Илон Маск и группа ведущих экспертов в области искусственного интеллекта в отрасли упомянули о потенциальных рисках для общества и человечества в своем открытом письме. Команда во главе с Маском заявила, что следует приостановить разработку систем более мощных, чем только что выпущенная OpenAI модель искусственного интеллекта GPT-4.
«Гонка вышла из-под контроля»
В письме, опубликованном некоммерческой организацией Future of Life Institute и подписанном более чем 1000 человек, включая Маска, содержится призыв приостановить работу над продвинутым ИИ до тех пор, пока не будут разработаны, внедрены и проверены независимыми экспертами общие протоколы безопасности для таких проектов. «Сильные системы искусственного интеллекта следует разрабатывать только тогда, когда мы уверены, что их влияние будет положительным, а их риски будут управляемыми», — подчеркивается в письме.
«Перерыв не менее 6 месяцев»
По этой причине подчеркивается, что обучение систем более мощных, чем ГПТ-4, должно быть прервано не менее чем на 6 месяцев. Утверждается, что если этот процесс паузы не начнется, правительства должны вмешаться. Подписанты включают соучредителя Apple Стива Возняка, генеральных директоров, таких как соучредитель Skype Яан Таллинн, политиков и известных исследователей искусственного интеллекта, таких как Йошуа Бенжио и Стюарт Рассел (Google DeepMind).
В письме также говорится, что технологические компании, такие как Google и Microsoft, торопятся запускать новые продукты, оставляя на заднем плане концепции безопасности и этики. Между тем представитель Future of Life сообщил агентству Reuters, что генеральный директор OpenAI Сэм Альтман не подписал письмо. Подводя итог, подчеркивается, что исследования следует замедлить, пока мы не поймем последствия искусственного интеллекта.