Yapay zeka ne kadar dost, ne kadar düşman olacak? – TEKNOLOJİ

Büyük dil modelleri (LLM’ler) dünyanın dört bir yanındaki toplantı odalarının yapay zeka hakkındaki konuşmalarla dolup taşmasının nedeni olabilir, ancak teknoloji yıllardır başka şekillerde kullanılıyor. ESET, makrovirüs tespitini geliştirmek için çeyrek yüzyıl önce yapay zekayı kullanmaya başladı. Bugün güvenlik ekipleri, üç ana faktör sayesinde yapay zekayla desteklenen etkili araçlara her zamankinden daha fazla ihtiyaç duyuyor:1) Beceri eksiklikleri ciddi şekilde etkilenmeye devam ediyorSon hesaplamalara göre, 348.000’i Avrupa’da ve 522.000’i Kuzey Amerika’da olmak üzere dünya çapında yaklaşık dört milyon siber güvenlik uzmanı açığı bulunuyor. Yapay zeka 7/24 çalışabilir ve güvenlik uzmanlarının gözden kaçırabileceği kalıpları tespit edebilir. 2) Tehdit aktörleri çevik, kararlı ve iyi kaynaklara sahiptirSiber güvenlik ekipleri çalışan bulmakta zorlanırken rakipleri güçlenmeye devam ediyor. Bir tahmine göre, siber suç ekonomisinin dünyaya maliyeti 2025 yılına kadar yılda 10,5 trilyon dolar olabilir. Tehdit aktörleri, bir saldırı başlatmak için ihtiyaç duydukları her şeyi “olduğu gibi” sunulan tekliflerde ve hazır hizmet kitlerinde bulabilirler. 3) Bahisler hiç bu kadar yüksek olmamıştıYıllar geçtikçe dijital yatırımlar arttıkça sürdürülebilir büyümeyi ve rekabet avantajını desteklemek için BT sistemlerine olan bağımlılık da arttı. Ağ savunucuları, siber tehditleri önlemede veya hızlı bir şekilde tespit edip kontrol altına almada başarısız olmaları durumunda kuruluşlarının ciddi mali ve itibar kayıplarına maruz kalabileceğini biliyor. Bugün bir veri ihlalinin ortalama maliyeti 4,45 milyon dolar. Ancak hizmet kesintisine ve veri hırsızlığına yol açan ciddi bir fidye yazılımı ihlalinin maliyeti çok daha yüksek olabilir. Bir tahmine göre, 2018’den bu yana yalnızca finansal kurumlar hizmet kesintileri nedeniyle 32 milyar dolar kaybetti.Yapay zeka gelecekte güvenlik ekipleri tarafından nasıl kullanılabilir?

  • Tehdit Bilgileri: Yüksek Lisans destekli GenAI asistanları, analistlere yönelik önemli noktaları ve yararlı ipuçlarını sade bir İngilizceyle özetlemek için yoğun teknik raporları analiz ederek kompleksi basitleştirebilir.
  • Yapay zeka asistanları: Yapay zeka “yardımcı pilotlarının” BT sistemlerine konuşlandırılması, kuruluşları saldırılara maruz bırakabilecek tehlikeli yanlış yapılandırmaların ortadan kaldırılmasına yardımcı olabilir. Bu, bulut platformları gibi genel BT sistemlerinin yanı sıra karmaşık ayarların güncellenmesini gerektirebilecek güvenlik duvarları gibi güvenlik araçları için de işe yarayabilir.
  • SOC üretkenliğini güçlendirin: Günümüzün Güvenlik Operasyon Merkezi (SOC) analistleri, gelen tehditleri hızlı bir şekilde tespit etmek, yanıt vermek ve kontrol altına almak konusunda büyük bir baskı altındadır. Saldırı yüzeyinin boyutu ve uyarı üreten araçların sayısı çoğu zaman çok fazla olabilir. Bu, analistlerin yanlış pozitiflerle zaman harcarken meşru tehditlerin tespit edilememesi anlamına geliyor. Yapay zeka, bu uyarıları bağlamsallaştırıp önceliklendirerek ve hatta muhtemelen daha küçük uyarıları çözerek yükü hafifletebilir.
  • Yeni keşifler: Tehdit aktörleri taktiklerini, tekniklerini ve prosedürlerini (TTP’ler) sürekli olarak geliştirmektedir. Ancak yapay zeka araçları, risk göstergelerini (IoC’ler) kamuya açık bilgiler ve tehdit akışlarıyla birleştirerek en yeni tehditleri tarayabilir.

Siber saldırılarda yapay zeka nasıl kullanılıyor?

  • Sosyal mühendislik: GenAI’nin en belirgin kullanımlarından biri, tehdit aktörlerinin son derece ikna edici ve dilbilgisi açısından neredeyse mükemmel olan büyük ölçekli kimlik avı kampanyaları oluşturmasına yardımcı olmaktır.
  • BEC ve diğer dolandırıcılıklar: Bir kez daha GenAI teknolojisi, belirli bir bireyin veya ticari kuruluşun yazma stilini taklit etmek, kurbanı para aktarması veya hassas verileri teslim etmesi için kandırmak için kullanılabilir. Deepfake ses ve video da aynı amaçla kullanılabilir.
  • Dezenformasyon: GenAI ayrıca etkileme operasyonları için içerik oluşturmanın ağır yükünü de kaldırabilir. Yakın zamanda yayınlanan bir rapor, Rusya’nın halihazırda bu tür taktikleri kullandığı ve etkili olduğu kanıtlandığı takdirde geniş ölçekte tekrarlanabileceği konusunda uyarıyor.

Yapay zekanın sınırlarıİyi ya da kötü, yapay zekanın şu anda sınırlamaları var. Yüksek kaliteli eğitim setleri olmadan yüksek hatalı pozitif oranlara neden olabilir ve etkisi sınırlı olabilir. Sonuçların doğruluğunu doğrulamak ve modellerin kendilerini eğitmek için de sıklıkla insan denetimine ihtiyaç duyulur. Bütün bunlar, yapay zekanın ne saldırganlar ne de savunucular için sihirli bir değnek olmadığını gösteriyor. Kaynak: (guzelhaber.net) Güzel Haber Masası

—–Sponsorlu Bağlantılar—–

—–Sponsorlu Bağlantılar—–

—–Sponsorlu Bağlantılar—–

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir