Yapay zeka (AI) ve makine öğrenimi teknolojilerinin son yıllarda yaygın biçimde benimsenmesi, tehdit aktörlerine saldırılarını başlatabilecekleri gelişmiş yeni araçlar sağlıyor.
Bunlardan biri, doğal insan benzeri konuşmalar veya gerçek kişilerin fotoğraf ve videolarının kopyalarını içeren deepfake’lerdir. Bu saldırıları oluşturmak için harcanan zaman ve çaba çoğu zaman potansiyel “ödüllerinden daha fazla” olsa da Kaspersky, şirketlerin ve tüketicilerin deepfake’lerin gelecekte giderek daha fazla endişe kaynağı haline geleceğinin farkında olması gerektiği konusunda uyarıyor.
Kaspersky araştırması, deepfake oluşturmaya yönelik araç ve hizmetlerin darknet pazarlarında mevcut olduğunu buldu. Bu hizmetler dolandırıcılık, şantaj, gizli verilerin çalınması gibi çeşitli amaçlara yönelik olarak yapay zeka yardımıyla video oluşturma olanağı sağlar. Kaspersky uzmanlarının tahminlerine göre bir dakikalık deepfake video 300 dolar gibi düşük bir fiyata satın alınabiliyor.
İnternet kullanıcıları arasında dijital okuryazarlık konusunda da önemli bir boşluk olduğuna dair endişeler var. Yakın zamanda gerçekleştirilen Kaspersky İş Dijitalleşme Anketi¹’ne göre Orta Doğu, Türkiye ve Afrika (META) bölgesinde ankete katılan çalışanların %51’i, derin sahte bir görüntüyü gerçek bir görüntüden ayırt edebildiklerini söyledi. Testte yalnızca %25’i gerçek görüntüyü yapay zeka tarafından oluşturulan görüntüden ayırt edebildi.2. Kimlik avı ve diğer sosyal mühendislik saldırılarının öncelikli hedefinin çoğunlukla çalışanlar olduğu göz önüne alındığında, bu durum kuruluşların risk altında olduğu anlamına geliyor.
Örneğin siber suçlular, CEO’nun banka havalesi talep ettiğini veya ödemeyi onayladığını gösteren sahte bir video oluşturabilir ve bu video, şirket varlıklarını çalmak için kullanılabilir. Bireylerden zorla para veya bilgi almak için kullanılabilecek, uygunsuz videolar veya resimler oluşturulabilir.
Kaspersky’de Baş Veri Bilimcisi Vladislav TuşkanovDiyor: “Yüksek kaliteli deepfake’ler yaratan teknolojiler henüz yaygın olarak mevcut olmasa da, bu teknolojinin en olası kullanımlarından biri, gerçek zamanlı sesler üreterek başka birinin kimliğine bürünmektir. Örneğin, çok uluslu bir şirkette çalışan bir finans memuru, bunu yapıyormuş gibi davranabilir. deepfake teknolojisi sayesinde video konferans yoluyla şirketin finans yöneticisi olun. dolandırıcılara 25 milyon doları transfer etmesi için kandırıldı. Deepfake’lerin yalnızca işletmeler için değil bireysel kullanıcılar için de tehdit oluşturduğunu unutmamak önemlidir. Yanlış bilgi yayıyorlar, dolandırıcılık amacıyla kullanılıyorlar veya rızası olmadan başka birinin kimliğine bürünüyorlar. “Bu, kendimizi korumamız gereken, giderek büyüyen bir siber tehdit.”
Kaspersky, bireylere ve işletmelere deepfake’lerin oluşturduğu çeşitli tehditlerden kendilerini korumaları için aşağıdaki önlemleri öneriyor:
- Şüpheli aramalara karşı dikkatli olun. Kötü ses kalitesine, sesin doğal olmayan monotonluğuna, anlaşılmaz konuşma kalıplarına ve anlamsız gürültülere dikkat edin.
- Deepfake videoların temel özelliklerini öğrenin. Bu özellikler arasında sarsıntılı hareketler, bir çekimden diğerine ışıktaki değişiklikler, cilt tonundaki değişiklikler, konuşmayla senkronize olmayan dudak hareketleri ve zayıf aydınlatma yer alır.
- Asla duygulara dayalı kararlar vermeyin ve ayrıntıları kimseyle paylaşmayın. Yalnızca o kişinin bildiği bir şeyi istemek veya aramayı durdurup birden fazla kanaldan alınan bilgileri ayrı ayrı doğrulamak her zaman daha iyidir. Bu noktada “güven ama doğrula” protokolünü izleyin.
- Kuruluşunuzun siber güvenlik uygulamalarını gözden geçirin ve güncelleyin.
- Kaspersky Tehdit İstihbaratı Bunun gibi bir güvenlik çözümü, siber güvenlik profesyonellerinin en son deepfake gelişmelerinden haberdar olmalarına yardımcı olabilir.
- Şirketler ayrıca çalışanların deepfake’lerin ne olduğunu, nasıl çalıştıklarını ve ortaya çıkarabilecekleri zorlukları anlamalarını sağlayarak insan güvenlik duvarını güçlendirmeli. Buna, çalışanlara derin sahte saldırıların nasıl tespit edileceğini öğretmek için sürekli farkındalık ve eğitim de dahildir.
Kaynak: (guzelhaber.net) Güzel Haber Masası
—–Sponsorlu Bağlantılar—–
—–Sponsorlu Bağlantılar—–
—–Sponsorlu Bağlantılar—–