İlon Mask və bir qrup aparıcı süni intellekt ekspertləri süni intellektin cəmiyyət və bəşəriyyət üçün potensial riskləri haqqında açıq məktub yazıblar. Maskın rəhbərlik etdiyi komanda OpenAI tərəfindən yenicə buraxılmış GPT-4 süni intellekt modelindən daha güclü sistemlərin inkişafının dayandırılmalı olduğunu bildirir.
Nəzarətdən çıxan yarış
Qeyri-kommersiya təşkilatı “Future of Life Institute” tərəfindən yayınlanan və Mask da daxil olmaqla 1000-dən çox insanın imzaladığı məktubda bu cür dizaynlar üçün ümumi təhlükəsizlik protokolları müstəqil ekspertlər tərəfindən işlənib hazırlanana, həyata keçirilənə və yoxlanılana qədər qabaqcıl AI işinə fasilə verilməsi tələb olunur. “Güclü süni intellekt sistemləri yalnız onların təsirinin müsbət olacağına və risklərinin idarə oluna biləcəyinə əmin olduğumuz zaman inkişaf etdirilməlidir” deyə məktubda vurğulanır. Onun inkişaf etdirilməsi və yayılması üçün nəzarətdən kənar yarışa girildiyi bildirilir.
Ən azı 6 ay fasilə
Bu səbəbdən GPT-4-dən daha güclü sistemlərin təliminə ən azı 6 ay ara verilməli olduğu vurğulanır. Bildirilir ki, bu pauza prosesi başlamazsa, hökumətlər işə qarışmalıdır. İmzalayanlar arasında “Apple”ın həmtəsisçisi Steve Wozniak, Skype həmtəsisçisi Yaan Tallinn kimi baş direktorlar, siyasətçilər və Yoshua Bengio və Stuart Russell (Google DeepMind) kimi tanınmış süni intellekt tədqiqatçıları var. Məktubda həmçinin qeyd edilir ki, Google və Microsoft kimi texnologiya şirkətləri təhlükəsizlik və etika anlayışlarını arxa planda saxlayaraq yeni məhsullar buraxmağa tələsirlər. Reuters bildirir ki, OpenAI baş direktoru Sem Altman məktubu imzalamayıb.
Xülasə olaraq vurğulanır ki, biz süni intellektin nəticələrini anlayana qədər araşdırmalar yavaşlamalıdır.