ChatGPT gibi programlar şu anda gerçek bir heyecan yaşıyor. Ancak onlarla birlikte yapay zekanın dezavantajları da hayatımıza giriyor. Bazı kadınlar nasıl yapay zeka kurbanı olduklarını bildiriyor.
TikTok kullanıcısı rache.lzh5, yaklaşık 50.000 takipçisine kendini gözyaşlarına yakın gösteriyor. Son 48 saatte başına gelenleri nasıl tarif edeceğini bilmediğini söylüyor. İki gün önce, isimsiz bir hesap ona çıplak fotoğraflarını gönderdi. Tuhaf olan şu ki, fotoğrafları tamamen giyinik olarak kendisi çekmiş.
Video şu anda bir milyondan fazla görüntülendi. Dayanışma beyanlarına ek olarak, yorumlarda benzer deneyimleri bildiren kadınlar da yer alıyor. Birçoğu, özellikle hain bir deepfake türü olan derin çıplak görüntülerin kurbanı olmuştur.
Deepfake nedir?
Deepfake’ler zaten Will Smith, Olaf Scholz, Donald Trump ve Pope gibi tanınmış şahsiyetlerden yapılmıştır – yani yapay zeka tarafından yabancılaştırılan kayıtlar. Bunlar düzenli olarak birkaç yıldır internette dağıtılmaktadır. Birçoğunun sahte olduğu hemen ortaya çıkabilir. Hatta bazıları oldukça eğlenceli. Ancak bazı sahte ürünler aldatıcı bir şekilde gerçektir ve ciddi sonuçlara yol açabilir.
İsteğim dışında çıplak resimler
Çünkü TikTok kullanıcısının da kurbanı olduğu Deepnude teknolojisi yeni olmaktan uzak. 2019 yılında “Alberto” adlı bir geliştirici, adlı bir araç yayınladı. derin çıplak. Uygulama, kullanıcılara giyinik kadın görüntülerinden çıplak görüntüler oluşturma sözü verdi.
Uygulama, çevrimiçi ortamda şiddetli bir bok fırtınasına neden oldu. Yayınlandıktan sadece birkaç gün sonra, “Alberto” yazılımı yeniden çevrimdışı duruma getirdi. O sırada Twitter’da taciz olasılıklarının çok yüksek olduğunu anladığını söyledi. Ancak, içgörü çok geç geldi: Teknoloji internette yayıldı ve benzer programlar hızla yayıldı. O zamandan beri, Deepnude kreasyonları, özellikle Telegram gruplarında özenle değiş tokuş edildi.
Yanlış fotoğraflar – gerçek sorunlar
AI programlarının yenilenen yükselişiyle Deepnude teknolojisi artık Telegram dışında yenilenen popülerliğin tadını çıkarıyor. BBC rastgele örnekleri, yazılımın sonuçlarının özellikle gerçekçi olmadığını gösterse de, bu muhtemelen etkilenenler için pek bir teselli değil. Resimlerin sahte olduğunu yalnızca yaratıcısı ve tasvir edilen kişi bilir, ancak olası üçüncü şahıslar değildir.
Bir fotoğraf internette dolaştıktan sonra onu tekrar kaldırmak neredeyse imkansızdır. Bu nedenle, program dünya çapında kadınlara zarar verebilir. Etkilenenler, fotoğrafların bir sonucu olarak işlerini ve dolayısıyla geçim kaynaklarını kaybedebilir. Siyasi analist Nina Jankowicz, BuzzFeed News’e “Temel olarak, bu derin sahtekarlıklar ya aşağılanmış bir sevgili, arkadaş ya da sapığın hastalıklı bir fantezisini gerçekleştirmek için kullanılıyor” ya da potansiyel şantaj malzemesi olarak kullanılıyor.
Çıplak fotoğrafların dağıtımı ceza hukuku kapsamında da geçerli olabilir. Veri Koruma Yasası’nın 63. Maddesine göre, hassas verilerin yayılması bir yıla kadar hapis cezası ile cezalandırılabilir. Ancak bunun yapay zeka tarafından değiştirilmiş veriler için de geçerli olup olmadığı net değil.