Meta, yapay zeka alanındaki önemli adımlarına devam ediyor. Son olarak, yalnızca iki ay önce tanıttığı büyük yapay zeka modelinin güncellenmiş versiyonu Llama 3.2 ile karşımıza çıktı. Bu yeni model, geliştiricilere artırılmış gerçeklik uygulamaları, görsel arama motorları ve belge analiz araçları gibi karmaşık yapay zeka projeleri geliştirme imkanı sunan ilk açık kaynaklı multimodal model olarak öne çıkıyor.
Meta CEO’su Mark Zuckerberg, Llama 3.2’yi tanıttığı Meta Connect etkinliğinde, “Bu model, görsel anlayış gerektiren pek çok uygulamayı mümkün kılacak” dedi. Llama 3.2, iki farklı görsel model (11 milyar ve 90 milyar parametreli) ile mobil cihazlarda kullanılmak üzere tasarlanmış iki daha hafif metin odaklı model (1 milyar ve 3 milyar parametreli) içeriyor.
128 bin token uzunluğunda bir bağlam sunan Llama 3.2, yüzlerce sayfalık metni işleme yeteneği sağlıyor. Bu özellik, modelin daha karmaşık görevleri başarıyla yerine getirmesine olanak tanıyor. Meta, Llama 3.2’nin hem görüntüleri hem de metinleri anlama yeteneği ile Claude 3 Haiku ve GPT-4o-mini gibi rakipleriyle rekabet ettiğini vurguluyor. Ayrıca, talimat takibi, özetleme ve araç kullanımı gibi alanlarda üst düzey performans gösterdiğini belirtiyor.
Geliştiricilerin bu modeli farklı ortamlarda kullanabilmesi için resmi Llama yığın dağıtımları sunan Meta, Llama 3.2’nin llama.com ve Hugging Face platformları üzerinden indirilebileceğini de duyurdu. Bu adım, şirketin yapay zeka alanındaki rekabet gücünü artırma çabalarının önemli bir parçası olarak değerlendiriliyor.
Meta, yapay zeka yeteneklerini Ray-Ban Meta gözlükleri gibi donanımlarında geliştirmeyi de hedefliyor. Son olarak, kullanıcı etkileşimini artırmak için Llama 3.2 modeline ünlü seslerin eklenmesi planlanıyor. Bu yenilikler, geliştiricilere geniş bir yaratıcılık alanı sunarken, Meta’nın yapay zeka stratejik hedeflerine ulaşmasına da yardımcı olacak.