Meta CEO'su Mark Zuckerberg, bir gün yapay genel zekâ (AGI) sistemlerini halkla açıkça paylaşmayı taahhüt etse de, Meta'nın Frontier AI Çerçevesi belgesine göre, şirket bazı yüksek riskli AI sistemlerinin iç geliştirmesini durdurmayı ve bunları yayına sunmamayı düşünüyor. Meta, belirli durumlar için geliştirdiği bazı yapay zekâ sistemlerini "yüksek riskli" ve "kritik riskli" olarak sınıflandırıyor.

YÜKSEK VE KRİTİK RİSKLİ AI SİSTEMLERİ
Meta'ya göre, her iki tür sistem de siber güvenlik, kimyasal ve biyolojik saldırılara yardımcı olma potansiyeline sahip. Ancak "kritik riskli" sistemler, "önerilen dağıtım bağlamında telafi edilemeyecek felaket sonuçları" doğurabilecek tehlikelere yol açabiliyor. Yüksek riskli sistemler ise bir saldırıyı daha kolay gerçekleştirebilse de, kritik riskli sistemler kadar güvenilir ve düzenli bir şekilde çalışmayabilir.
Meta, bu tür saldırılara örnek olarak, "en iyi uygulamalarla korunan kurumsal bir ortamın otomatik olarak uçtan uca ele geçirilmesi" ve "yüksek etki yaratabilecek biyolojik silahların yayılması" gibi durumları veriyor. Şirket, söz konusu tehlikeleri sınıflandırırken, listeyi "en acil" ve en olası tehditler olarak sunuyor.
Zuckerberg, Meta'nın içerik denetimini durdurduğunu açıkladı
RİSK DEĞERLENDİRMESİNDE İÇ VE DIŞ ARAŞTIRMALARIN ROLÜ
Meta'nın dikkat çeken bir yaklaşımı, risk değerlendirmesini tek bir bilimsel testle yapmak yerine, iç ve dış araştırmacıların görüşleriyle belirlemesi. Şirket, bu kararı, değerlendirme biliminin "yeterince sağlam olmadığı" ve "sistemin risk seviyesini belirlemek için kesin niceliksel ölçütler sağlamadığı" gerekçesiyle almış durumda. Meta, bu yaklaşımın AI gelişimiyle ilgili güvenlik tehditlerine karşı daha esnek bir çözüm sunduğunu savunuyor.
Meta yaşanan kesintiyi giderdiğini açıkladı
YÜKSEK RİSKLİ SİSTEMLERE ERİŞİM SINIRLAMASI
Meta, yüksek riskli bir AI sistemi tespit ettiğinde, bu sisteme erişimi yalnızca iç kullanım için sınırlamayı ve riski "orta seviyelere" indirmek için gerekli önlemler almayı taahhüt ediyor. Ancak kritik riskli sistemler söz konusu olduğunda, şirket, bu sistemlerin dışarıya sızmasını engellemek amacıyla güvenlik önlemleri uygulayacak ve sistemin daha az tehlikeli hale gelene kadar geliştirilmesini durduracak.

META'NIN AÇIK AI YAKLAŞIMI VE REKABET
Meta'nın Frontier AI Çerçevesi, şirketin AI teknolojisini açıkça sunma stratejisinin kritik bir parçası olarak dikkat çekiyor. Meta, AI teknolojilerini halka açık bir şekilde sunmayı hedeflese de, bu strateji hem olumlu hem de olumsuz sonuçlar doğurabiliyor. Örneğin, Meta'nın Llama adlı AI modelinin yüz milyonlarca kez indirildiği belirtiliyor, ancak bu modelin, ABD'li bir rakip tarafından bir savunma chatbot'u geliştirmek için kullanıldığı da raporlandı. Şirket, AI sistemlerini açık bir şekilde paylaşma stratejisini, Çinli AI şirketi DeepSeek'in benzer stratejisiyle karşılaştırarak, bu tür sistemlerin daha az güvenlik önlemiyle yönlendirilebileceğini belirtiyor.
Meta, bu belgede, "ileri düzeyde yapay zekâ sistemlerinin geliştirilmesi ve dağıtımına yönelik kararlar alırken, hem faydaları hem de riskleri dikkate alarak, bu teknolojiyi topluma sunmanın mümkün olduğuna inanıyoruz," diyerek, teknolojinin topluma fayda sağlayacak şekilde ve uygun risk seviyeleriyle sunulması gerektiğini vurguluyor.
