Google, güvenlik alanındaki yapay zekâ girişimi Big Sleep ile dikkat çeken bir başarıya imza attı. Şirketin güvenlikten sorumlu başkan yardımcısı Heather Adkins’in açıklamasına göre, Big Sleep aracı ilk bulgularında 20 güvenlik açığını ortaya çıkardı. Tespit edilen açıklar arasında ses ve video işleme kütüphanesi FFmpeg ile görsel düzenleme paketi ImageMagick gibi açık kaynaklı projeler yer alıyor. Big Sleep, Google’ın DeepMind birimi ve elit hacker ekibi Project Zero’nun ortak geliştirmesiyle ortaya çıktı.

Heather Adkins, güvenlik açıklarının henüz giderilmemiş olması nedeniyle detaylarının kamuya açıklanmadığını belirtti. Bu yaklaşım, Google’ın standart hatırlatma politikası çerçevesinde değerlendiriliyor. Ancak Adkins’e göre, açıkların doğrudan bir yapay zekâ tarafından saptanmış olması, bu teknolojilerin artık gerçek sonuçlar üretmeye başladığını gösteriyor.

İNSAN GÖZÜNDEN KAÇANI AI YAKALADI

Google adına TechCrunch’a konuşan şirket sözcüsü Kimberly Samra, sistemin tüm açıkları herhangi bir insan müdahalesi olmaksızın tespit ettiğini söyledi. Ancak raporların kalitesini güvence altına almak için, yayımlanmadan önce uzman bir güvenlik araştırmacısının sürece dâhil edildiğini belirtti. Google mühendislik başkan yardımcısı Royal Hansen ise X platformunda yaptığı açıklamada, bu gelişmeyi “otomatik güvenlik açığı keşfinde yeni bir sınır” olarak tanımladı.

Bu gelişme, yalnızca Big Sleep ile sınırlı değil. Yapay zekâ tabanlı diğer araçlar olan RunSybil ve XBOW da halihazırda güvenlik açıklarını bulmada kullanılıyor. Örneğin XBOW, HackerOne platformunda ABD sıralamalarında zirveye yükselerek dikkat çekmişti.

RunSybil’in kurucu ortağı ve teknoloji sorumlusu Vlad Ionescu ise Big Sleep’in ciddi bir proje olduğunu ve arkasında işini bilen ekipler olduğunu vurguladı. Ionescu, “Project Zero’nun hata tespiti konusundaki deneyimiyle DeepMind’ın işlem gücü birleşince etkileyici bir sonuç çıkıyor” dedi.

Ancak her şey toz pembe değil. Yazılım geliştiricilerin bir kısmı, yapay zekâ temelli araçlardan gelen hatalı veya hayal ürünü raporların arttığını belirtiyor. Bu tür sahte raporlar bazı geliştiricilerce “AI kaynaklı hata keşfi kirliliği” olarak adlandırılıyor. Ionescu, bu durumu “Altın gibi görünen ama aslında çöp olan verilerle karşı karşıyayız” sözleriyle özetledi.