Dolandırıcı yapay zeka uyarısı

Güncelleme Tarihi:

Dolandırıcı yapay zeka uyarısı
Oluşturulma Tarihi: Ocak 02, 2025 12:49

Yapay zeka programlarıyla ve derin sahtecilik (deep fake) teknolojisiyle hazırlanan ve ünlülerin ses ve görüntüsünü taklit eden dolandırıcılık videoları artarken, uzmanlar vatandaşları mağdur olmaması konusunda uyarıyor. Yapay zeka ve bilişim stratejileri uzmanı Bekir Tolga Tütüncüoğlu, konuya ilişkin yapıtğı açıklamada, yapay zeka ve derin öğrenme tekniklerinin kullanımıyla ortaya çıkan deep fake teknolojisinin yaygınlaşmasıyla sahte video ve ses kaydı temelli veri manipülasyonlarının arttığını söyledi.

Haberin Devamı

Deep fake'in gerçek gibi görünen sahte videoalrın oluşturulmasına olanak tanıyan bir yapay zeka tekniği olduğunu dile getiren Tütüncüoğlu, "Bu teknolojinin kötüye kullanımı, özellikle dolandırıcılık alanında büyük bir tehdit haline geldi. Deep fake videoalrı, bir kişinin yüzünü veya sesini taklit ederek, gerçek olmayan olayları çok inandırıcı şekilde sunabiliyor. Dolandırıcılar, bu teknolojiyi kullanarak ünlülerin veya tanınmış kişilerin sahte videolarını oluşturuyor ve bu videolarla insanları kandırıyor" dedi.

YAZILIMLA ÖĞRENMEK MÜMKÜN

Tütüncüoğlu, bazı gelişmiş yazılımların, deep fake videolarını tespit etmek için özel algoritmalar kullandığını kaydederek uyarılarını şöyle sürdürdü: "Bu tür yazılımlar, videoların yapay zeka tarafından oluşturulup oluşturulmadığını anlamak için belirli veri setlerini analiz eder. Bu yazılımlar videoalrın dikital imzalarını inceleyerek videonun manipüle edilip edilmediğini tespit edebilir. Öte yandan deep fake videolarının arka planında, kullanılan yapay zeka algortimalarına dair dijital izler bulunabilir.

Hareketlerin doğal akışı bozuk olabilir. Bir videoyu izlerken, kaynağını kontrol etmek her zaman önemlidir. Eğer video şüpheli bir kaynaktan geliyorsa veya kaynak doğrulanabilir değilse, videonun gerçekliğini sorgulamak gerekir."

Haberle ilgili daha fazlası:

BAKMADAN GEÇME!