Elon Musk, OpenAI’dan ayrılırken yapay zekanın fazla sansürlü olduğundan yakınmış, kendi şirketi xAI ile gerçekten özgür bir alternatif yaratacağını vaat etmişti. Twitter’ı satın alıp adını X olarak değiştiren Musk, Grok adını verdiği yapay zekayı da bu vaadin somut hali olarak 2023’te X’in içerisinde sunmaya başladı. Ağustos 2025’te ise rakiplerinin görsel üretme özelliklerine yanıt olarak Grok Imagine’i kullanıma açtı. Bu güncelleme ile kullanıcılar X platformundaki herhangi bir fotoğrafı metin komutlarıyla düzenleyebiliyordu. Üstelik Spicy Mode (Bahartlı Mod) adlı özelliği, diğer yapay zekalardan farklı olarak NSFW (iş ortamına uygun olmayan) içeriklerin de üretimine kapı araladı.
Musk’ın ifade özgürlüğü söyleminin teknolojik uzantısı olarak pazarlanan bu özellik, Aralık 2025 sonlarında korkunç bir şekilde test edildi: Kullanıcılar basit komutlarla kadınların ve çocukların fotoğraflarını ‘soyabilmeye’ başladı. Özgürlük ile sorumsuzluk arasındaki ince çizgi, çocuk istismarı görsellerinin üretilmesiyle paramparça oldu. X platformundaki kullanıcılar, Grok’a “kıyafetlerini çıkar” gibi komutlar vererek 14 yaşındaki bir aktrisin de dahil olduğu yüzlerce cinselleştirilmiş deepfake görsel üretti.
Musk’ın bu krize yanıtı ise en hafif tabirle şaşırtıcıydı: Kendi bikini fotoğrafını Grok’a ürettirip paylaştı ve eleştirilere gülen emoji ile karşılık verdi. Dünyanın en zengin insanının, çocukların cinsel istismar görsellerinin üretildiği bir krize verdiği bu yanıt, özgür yapay zeka masalının ne kadar tehlikeli bir yola sapabileceğini gözler önüne serdi.
Aslında bu felaketin haberi çoktan verilmişti. Yapay zeka güvenliği konusunda çalışan The Midas Project, daha Ağustos 2025’te, yani Grok Imagine’in piyasaya sürüldüğü ay, xAI’ı uyarmıştı: “Grok’un görsel üretim sistemi, bir soyundurma aracına dönüşmeyi bekliyor.”
Bu uyarı, tıpkı Yunan mitolojisindeki Cassandra gibi, kimse tarafından ciddiye alınmadı. OpenAI’dan Boaz Barak ve Anthropic’ten Samuel Marks gibi yapay zeka güvenliği araştırmacıları da Grok 4'ün herhangi bir güvenlik raporu yayınlanmadan piyasaya sürülmesini sert bir dille eleştirmişti.
LessWrong platformundaki bağımsız araştırmacıların tespiti ise durumun vahametini özetliyor: “Grok 4’te anlamlı bir güvenlik bariyeri yok.” Silikon Vadisi’nin kronik hastalığı olan ‘hız her şeyden önemli’ yaklaşımı, bu sefer çocukların güvenliğini tehlikeye attı. xAI, rakiplerinin gerisinde kalmamak için temel güvenlik önlemlerini atlayarak ürününü piyasaya sürdü ve sonuç maalesef ortada.
KÜRESEL REGÜLATÖRLERİN GROK TESTİ NEGATİF
Kriz, dünya genelinde eş zamanlı bir düzenleyici tepkiyi tetikledi. Avrupa Birliği, X platformuna zaten Aralık ayında dijital içerik kurallarını ihlal ettiği gerekçesiyle 120 milyon Euro’luk ceza kesmişti. Şimdi ise AB Komisyonu sözcüsü, Brüksel’de gazetecilere yaptığı açıklamada durumu “yasadışı, iğrenç ve tiksindirici” olarak nitelendirdi. Fransa ise daha da ileri giderek, X hakkındaki mevcut soruşturmasını çocuk pornografisi üretimi ve dağıtımı suçlamalarını kapsayacak şekilde genişletti.
Asya’dan gelen tepkiler de gecikmedi. Hindistan Bilgi Teknolojileri Bakanlığı, X’e 72 saat içinde Grok’un müstehcen ve pedofilik içerik üretmesini engellemesini, aksi takdirde güvenli liman korumalarını kaybedeceğini bildirdi.
Malezya ve İngiltere’nin medya düzenleyicisi Ofcom da soruşturma başlattı. Böylece Grok krizi, AB Yapay Zeka Yasası’nın ve küresel dijital düzenlemelerin ilk ciddi stres testi haline geldi.
TÜRKİYE’DE DEEPFAKE’E ÖZEL BİR DÜZENLEME YOK
Ülkemizde ise Grok için ilk kez bir sulh ceza hakimliği erişim engeli kararı verdi, ancak deepfake ve yapay zeka kaynaklı cinsel içerik konusunda spesifik bir düzenleme hâlâ bulunmuyor. 2025 sonunda hazırlanan taslak yasa paketi, BTK’ya genişletilmiş yetkiler ve deepfake etiketleme zorunluluğu önerse de, kişilerin özel alanına müdahale eden ‘intimate deepfake'ler için özel bir düzenleme yok. Deepfake ile ilgili şikayetlerde; mevcut yasalar, geleneksel pornografi ve kişilik hakları ihlalleri çerçevesinde yorumlanmaya çalışılıyor, ancak yapay zekanın hızına yetişmek mümkün değil.
MUSK'A GÖRE SUÇLU GELENEKSEL MEDYA
Diğer yandan; xAI’ın krize verdiği kurumsal yanıt, belki de skandalın kendisi kadar rahatsız edici. Medya kuruluşlarının sorularına gelen otomatik yanıt şu oldu: “Legacy Media Lies”, yani geleneksel ya da eski medyanın yalanları.
Çocuk istismarı görsellerinin üretildiği bir krizde, şirketin resmi iletişim stratejisi eleştirileri yalan olarak etiketlemek oldu. Grok’un resmi hesabından yapılan açıklamada ise “Güvenlik açıklarını acilen düzeltiyoruz” demekle yetinildi, ancak bu açıklama da ancak küresel baskı zirveye ulaştıktan sonra geldi. Bu tutum, Musk’ın son dönemdeki genel tavrıyla tutarlı. Trump yönetiminde DOGE (Devlet Verimliliği Departmanı) başkanlığı yapan ve ardından dramatik bir şekilde ayrılan Musk, eleştirilere karşı giderek hem daha defansif hem de daha saldırgan bir pozisyon alıyor.
Tesla’nın hisse değeri politik faaliyetler nedeniyle düşerken, X’in değeri Musk’ın satın almasından bu yana yüzde 44 geriledi. Şimdi de xAI, çocuk istismarı skandalıyla gündemde. Bir noktada, "sansürsüzlük" ideolojisinin ticari ve hukuki bedellerini hesaplamak gerekecek.
Haziran ayında bu sayfalarda “Elon Musk’sız bir dünya nasıl olurdu?” diye sormuştum. Şimdi daha somut bir soru sormak gerekiyor. Musk’ın şirketleri, kurucusunun kişisel ideolojisi ve "post-truth" yaklaşımından ne kadar etkileniyor?
SEKİZ AYDA ÜÇ BÜYÜK SKANDAL
Grok'un güvenlik açıkları, tek seferlik bir kaza değil, sorunun sistemsel olduğunun adeta göstergesi. Son sekiz ayda yaşanan üç büyük skandal, xAI'ın güvenlik yaklaşımındaki derin problemleri gözler önüne seriyor.
İlk büyük kriz Mayıs 2025'te yaşandı. Grok, ABD’deki beyazların üstünlüğü hakkındaki sorulara ırkçı ve aşırı milliyetçi içerikler üreterek yanıt verdi. xAI, bu sorunu kabul etti ve düzelteceklerini açıkladı. Bundan iki ay sonra, Temmuz 2025'te, Grok Hitler'i öven ve Holokost'u inkar eden içerikler üretti. Şirket yine özür dileyip düzelteceklerini söyledi. Ağustos'ta Grok Imagine piyasaya sürüldüğünde, uzmanlar sanki bugünü görmüş gibi uyarıda bulundular, ancak xAI uyarılara kulak asmadı. Aralık 2025'te ise en ağır kriz patlak verdi: Çocukların cinselleştirilmiş deepfake görselleri hızla yayılmaya başladı.
Acaba xAI’ın güvenliği gerçekten ciddiye alması için kaç skandal daha yaşanması gerekiyor…
İSTİSMAR İÇERİKLERİNDE YÜZDE 624 ARTIŞ
Çocukların hedef alınması ise durumu tamamen farklı bir hukuki ve etik kategoriye taşıyor. ABD Kayıp ve İstismara Uğrayan Çocuklar Ulusal Merkezi'ne 2024 yılı içerisinde toplam 67 bin yapay zeka üretimi çocuk istismarı materyali raporlandığı belirtiliyor. Bu sayı, 2025'in sadece ilk yarısında yüzde 624'lük bir artış göstererek 485 bine fırlamış durumda. ABD'de 45 eyalet yapay zeka ile çocukların cinselleştirilmiş deepfake görüntülerini oluşturmayı suç olarak tanımlarken, beş eyalet ve Washington DC hâlâ bu konuda yasal boşluk içinde.
Konunun psikolojik etkileri ise en hafif tabirle yıkıcı. Psikolojik araştırmalar, deepfake mağdurlarının Travma Sonrası Stres Bozukluğu (PTSD), depresyon belirtileri, anksiyete, utanç ve çaresizlik hissi yaşadığını ortaya koyuyor. En çarpıcı bulgu ise şu: Mağdurlar, hiç yaşanmamış olayların travmatik anılarını yaşayabiliyor. 6109 kişilik bir ankette katılımcıların yüzde 14'ü deepfake mağduru olduğunu belirtirken, bazı vakalarda intihar düşünceleri ve kendine zarar verme davranışları da raporlanıyor. Çocuklarda ise okul ve aileden uzaklaşma, sosyal izolasyon görülüyor.
ÇOĞUNLUKLA KADINLARI HEDEF ALIYOR
GROK krizinin en rahatsız edici boyutlarından biri, soyundur komutlarının neredeyse tamamının kadınlara ve çocuklara yönelik olması. Bu tesadüf değil; araştırmalar deepfake pornografisinin yüzde 99’u kadınları hedef aldığını gösteriyor. SWGfL’nin Mart 2025 araştırmasına göre, dünya genelinde 40 milyondan fazla kadın rızası olmadan üretilen özel görsel (NCII) mağduru. Deepfake porno videolarının sayısı 2019’daki 14 bin olarak tahmin edilirken, 2025’te 8 milyona ulaştığı belirtiliyor. Sadece Telegram’da 680 binden fazla kadının sahte çıplak görseli üretildiği de kaydediliyor.