AKİT MENÜ

Teknoloji

Gerçeğinden ayırt etmek neredeyse imkansız! Sesli olarak bizi böyle kandırıyorlar

Sesli deepfake araçlarıyla siber dolandırıcılık popüler hale gelmiş durumda. Böyle bir saldırıyla karşılaşıldığında kendimizi savunabilmemiz de mümkün.

Güncelleme Tarihi:

Ünlü müzik grubu Beatles, geçenlerde yapay zeka (AI) sayesinde eski bir kaydın parçalarını birleştirerek ve aynı zamanda ses kalitesini geliştirerek yeni bir şarkı yayınladı ve dünyanın dört bir yanındaki milyonlarca hayranını bir kez daha sevindirdi. Ancak grubun yeni başyapıtından dolayı duyulan sevinci bir tarafa bırakırsak, yapay zekanın sahte sesler ve görüntüler oluşturmak için kullanılmasının karanlık tarafları da var.

Derin ses sahtekarlığıyla neler yapılabilir?

Open AI kısa süre önce gerçekçi insan konuşması ve sesli giriş metni sentezleyebilen bir Audio API modeli sergiledi. Bu Open AI yazılımı, şimdilik gerçek insan konuşmasına en yakın olan şey. Gelecekte bu tür modeller saldırganların elinde yeni bir araç haline gelebilir. Ses API'si belirtilen metni yeniden seslendirirken, kullanıcılar metnin önerilen ses seçeneklerinden hangisiyle telaffuz edileceğini seçebilir.

Gerçekten ayırt edilmiyor

Günümüzde gerçek insan konuşmasından ayırt edilemeyen yüksek kaliteli derin sahte ses üretebilen neredeyse hiçbir cihaz mevcut değil. Ancak son birkaç ay içinde insan sesi üretmeye yönelik daha fazla araç piyasaya sürüldü. Yapay zeka kullanarak dolandırıcılık yapmak nadir görülen bir durum. Ancak halihazırda "başarılı" vaka örnekleri mevcut.

Kendinizi bundan nasıl koruyabilirsiniz?

Şimdilik bu durumdan kendinizi korumanın en iyi yolu, arayan kişinin telefonda size söylediklerini dikkatle dinlemekten geçiyor. Eğer kayıt kalitesizse, arada gürültüler varsa ve ses robotik geliyorsa, bu duyduğunuz bilgilere güvenmemeniz için yeterli sebep. Karşınızdakinin "insanlığını" test etmenin bir başka iyi yolu da alışılmışın dışında sorular sormak. Bir diğer güvenli seçenek de güvenilir ve kapsamlı bir güvenlik çözümü kullanmak.

Kaspersky Kıdemli Veri Bilimcisi Dmitry Anikin, "Şu an genel tavsiyemiz, tehdidi abartmamak ya da var olmadıkları yerde ses taklitlerini tanımaya çalışmamak yönündedir. Şimdilik mevcut teknolojinin insanların ayırt edemeyeceği kalitede bir ses oluşturacak kadar güçlü olması pek olası değil." dedi.

Yorumlara Git

Bir yanda LGBT tehlikesi bir yanda nikahsız birliktelikler! İlahiyat profesörü açık açık uyardı

‘Piyango haram değil’ diyen Özel modu değiştirdi! Dün mezarda rakı bugün kandil mesajı

50 bine yakın hükümlü salıveriliyor! Paket çıktı tahliyeler başladı

Bu zât CHP’li eski vekil ve Cumhuriyet yazarı… Uyuşturucu operasyonlarına “hayat tarzı” diye karşı çıktı!

Cumhurbaşkanı Erdoğan: Avrupalı Türk toplumunu kimseye ezdirmeyiz