Günümüz teknolojisinin en belirleyici unsuru olan yapay zeka, özellikle ChatGPT, Gemini ve Grok gibi sohbet robotlarının çıkışı ile birlikte adeta milyonlarca kişinin hayatının merkezine yerleşti. Dev şirketlerin geliştirdiği yapay zeka robotları hem belirli konularda araştırma yapmayı oldukça hızlı hale getirirken, görsel oluşturma ve çeviri gibi çok sayıda alanda da kullanılıyor.
Yapay zekada sağlanan gelişmelerin aralarında çeviri, muhasebe ve editörlük gibi alanlarda yüksek oranlarda işsizliğe neden olacağı yönünde endişeler artarken son dönemde yeni bir iş kolu ortaya çıktı. Küresel çapta on binlerce çalışan yapay zeka modellerinin doğru bilgiler vermesini ve dili doğru kullanmasını denetliyor.
“Yapay zeka müfettişleri” olarak adlandırılabilecek bu çalışanlar yapay zekanın zararlı, ırkçı ve yanlış bilgi vermelerinin önüne geçmeye çalışıyor.
NASIL ÇALIŞIYORLAR?
Yapay zeka için editörlük ve denetim yapan çalışanlar dev şirketlerin yapay zeka uygulamaları için proje bazlı iş yapıyorlar. Dünyanın her yerinde saatlik ücret üzerinden ve evlerinden çalışanlar için sadece hızlı bir bilgisayar ve iyi bir internet bağlantısı yeterli oluyor.
Çalışanlar, işe alım süreçlerinin tamamlanması sonrası giriş yaptıkları panelden istedikleri işi seçerek verilen son teslim tarihine kadar çalışmayı bitirmek için çalışıyor. Bu alanda iş yapanlar haftada en fazla 30 saat çalışarak işi bitirdikten sonra yapılan denetim sonrası paralarını haftalık olarak alabiliyorlar. Verilen ilanlarda projeye bağlı olarak belirli bir dil alanında yüksek yeterlilik ya da bir iş kolunda uzmanlık gibi yeterlilik aranıyor.
YAPAY ZEKAYA GÜVENMİYORLAR
Ancak bu iş kolunda çalışanların verdiği bazı bilgiler yapay zeka ile ilgili yeni bir tartışmanın fitilini ateşledi. Yapay zekanın güvenilir olması için çalışanlar, aslında yapay zekaya en az güvenen kesim oldu.
İngiliz Guardian gazetesinde yer alan habere göre, Yapay zekanın güvenirliğini denetleyen çalışanlar, yakın çevresine söz konusu uygulamaları kullanmamaları yönünde tavsiyeler veriyor. Bunun temel nedeninin ise söz konusu uygulamaları denetleyen çalışanların iş kalitesinden ödün vererek daha hızlı iş teslim etmeye odaklı çalışma düzeni olduğu vurgulandı.
Guardian gazetesinde konuşan Kista Pawloski adlı bir çalışan kişisel olarak yapay zeka uygulamalarını kullanmadığını belirterek bu konuda ailesine ve yakın çevresine de tavsiyeler verdiğini söyledi. Ergenlik çağındaki kızına ChatGPT gibi uygulamaları kullanmasını yasakladığını belirten çalışan, yaklaşık 2 yıl önce çalışırken yaptığı bir hatayı tesadüfen fark ettiğini vurgulayarak “Orada oturup aynı hatayı kaç kez yaptığımı ve kendimi yakalayamadığımı düşündüm" dedi.
Pawloski, Mechanical Turk sitesinde seçebileceği yeni görevlerden oluşan bir menü gördüğünde, yaptığı şeyin insanlara zarar vermek için kullanılıp kullanılamayacağını merak ettiğini ve çoğu zaman cevabın evet olduğunu söylüyor.
Google’ın yapay zeka uygulaması için denetim yapan bir çalışan ise özellikle sağlık alanında verilen yanıtlara güvenmediğini belirterek Meslektaşlarının tıbbi konulardaki yapay zeka destekli yanıtları eleştirel bir gözle değerlendirmediğini gözlemlediğini ve tıbbi eğitim eksikliğine rağmen bu tür soruları kendisinin değerlendirmekle görevlendirildiğini söyledi.
Google ise konuyla ilgili yaptığı açıklamada "Derecelendirmeler, sistemlerimizin ne kadar iyi çalıştığını ölçmemize yardımcı olan birçok toplu veri noktasından sadece biridir, ancak algoritmalarımızı veya modellerimizi doğrudan etkilemez” dedi. ABD’li teknoloji devi açıklamasının devamında ise "Ayrıca, ürünlerimiz genelinde yüksek kaliteli bilgileri ortaya çıkarmak için bir dizi güçlü koruma önlemimiz de mevcut” ifadelerine yer verdi.
Uzmanlar, kolayca ulaşılamayan bir durumda cevap vermemek yerine, kendinden emin bir tonda yanlış bilgi vermenin üretken yapay zekanın büyük bir kusuru olduğunu söylüyor. Yapay zeka uygulamaları özellikle bu soruna çözüm üretmeye çalışıyor.
Gemini, GMail hesaplarına erişiyor mu? Ortalığı karıştıran iddiaya yanıt geldiTeknoloji
Yapay zeka, akıl yürütme sınırını aştı! Algoritmanın ötesine geçtiTeknoloji
Chat GPT duymaz uydurur! Peki neden?Teknoloji