AI şirketlerinden güvenlik önlemi
Şirketler, CSAM olarak da bilinen çocuklara yönelik cinsel istismar içeriklerinin eğitim bilgi setlerinden çıkarılmasını, bu bilgi setlerinin CSAM içermediğinden emin olmayı, CSAM içerme riski yüksek data setlerinden kaçınmayı ve bu tıp imgeler ile ilişkileri data kaynaklarından kaldırmayı taahhüt ediyorlar. Bununla birlikte önde gelen yapay zeka şirketleri, araçlarının bu tip içerikler oluşturmadıklarından emin olmak için modellerini “stres testine” tabi tutacaklarını da belirtiyorlar.
Google, Meta, OpenAI, Microsoft, Amazon, Anthropic, Civitai, Metaphysic, Mistral AI ve Stability AI’ın imzaladığı bu ortak kararın bölüm için çığır açan bir emsal niteliğinde olduğu belirtildi. All Tech Is Human ile birlikte unsurların oluşturulmasına yardımcı olan çocuk istismarı tersi kâr emeli gütmeyen Thorn, yalnızca 2023 yılında ABD’de 104 milyondan fazla kuşkulu çocuk cinsel istismarı belgesinin rapor edildiğini söylüyor. Yapay zeka ise ürettiği geçersiz görseller ve deepfake’ler ile işleri daha da zorlaştırıyor.