Meta, həm şəkilləri, həm də mətni işləyə bilən ilk açıq mənbəli süni zəka modeli olan Llama 3.2-ni təqdim edib. Bu yenilik şirkətin əvvəlki süni zəka modelini təqdim etməsindən cəmi iki ay sonra gəlib. Llama 3.2-nin innovativ xüsusiyyətlərinin tərtibatçılara daha inkişaf etmiş süni zəka tətbiqləri qurmaqda kömək edəcəyi gözlənilir.
Bu modellə real vaxtda video anlayışı, görüntüləri məzmuna görə təsnif edən axtarış sistemləri və uzun mətnləri yığcamlaşdıran sənəd analizi kimi xüsusiyyətlər mövcuddur. Meta, Llama 3.2-ni tərtibatçılar üçün istifadəsi rahat və minimum quraşdırma tələb edən bir model kimi dizayn edib.
Meta-nın Ümumi Süni Zəka üzrə Vitse-Prezidenti Ahmad Al-Dahle, tərtibatçıların etməli olduğu tək şeyin "bu yeni çoxməqsədli funksiyanı inteqrasiya etmək və Llama-nın şəkillər vasitəsilə ünsiyyət qurmasını təmin etmək" olduğunu bildirib.
Bu xüsusiyyət Meta-nı, keçən il çoxməqsədli modellərini təqdim edən OpenAI və Google kimi rəqibləri ilə eyni səviyyəyə çıxarır. Llama 3.2-yə görmə dəstəyinin əlavə edilməsi, Meta-nın Ray-Ban Meta eynəkləri kimi cihazlardakı süni zəka imkanlarını artırmaq üçün atılan strateji bir addımdır.
Model, müvafiq olaraq 11 milyard və 90 milyard parametrə malik iki görmə modelindən, hər biri 1 milyard və 3 milyard parametrli iki yüngül, yalnız mətn əsaslı modeldən ibarətdir. Bu kiçik modellər Qualcomm, MediaTek və digər Arm cihazları üçün hazırlanıb.
Llama 3.2-nin təqdimatına baxmayaraq, iyul ayında buraxılan sələfi Llama 3.-in hələ də rolu var. Köhnə modelin 405 milyard parametrli versiyası mövcuddur ki, bu da nəzəri olaraq yeni versiya ilə müqayisədə daha yaxşı mətn yaratma bacarıqları təqdim edir.