Büyük lisan modelleri (LLM’ler), dünyanın dört bir yanındaki yönetim kurulu odalarının yapay zekâ konuşmalarıyla çalkalanmasının nedeni olabilir lakin teknoloji yıllardır öteki biçimlerde güzel bir biçimde kullanılıyor.
ESET, yapay zekâyı birinci olarak çeyrek asır evvel makro virüslerin tespitini güzelleştirmek emeliyle kullanmaya başladı. Günümüzde güvenlik grupları, üç ana etken sayesinde tesirli yapay zekâ tabanlı araçlara her zamankinden daha fazla muhtaçlık duyuyor:
1) Marifet eksikliği sert bir formda vurmaya devam ediyor
Son sayıma nazaran, Avrupa’da 348.000 ve Kuzey Amerika’da 522.000 olmak üzere dünya genelinde yaklaşık dört milyon siber güvenlik uzmanı açığı bulunuyor. Yapay zekâ 7 gün 24 saat çalışabilir ve güvenlik uzmanlarının gözden kaçırabileceği kalıpları tespit edebilir.
2) Tehdit aktörleri çevik, kararlı ve düzgün kaynaklara sahip
Siber güvenlik takımları eleman bulmakta zorlanırken rakipleri de güçlenmeye devam ediyor. Bir iddiaya nazaran, siber cürüm iktisadı 2025 yılına kadar dünyaya yıllık 10,5 trilyon dolara mal olabilir. Tehdit aktörleri, akın başlatmak için gereksinim duydukları her şeyi hazır “hizmet olarak” teklifler ve araç setleri halinde bulabilirler.
3) Riskler hiç bu kadar yüksek olmamıştı
Dijital yatırımlar yıllar içinde arttıkça sürdürülebilir büyümeyi ve rekabet avantajını desteklemek için BT sistemlerine olan inanç de artmıştır. Ağ savunucuları, siber tehditleri önleyemez ya da süratle tespit edip denetim altına alamazlarsa kurumlarının büyük mali ve prestij kaybına uğrayabileceğini biliyor. Günümüzde bir data ihlalinin maliyeti ortalama 4,45 milyon dolar. Fakat hizmet kesintisi ve bilgi hırsızlığı içeren önemli bir fidye yazılımı ihlali bunun çok daha fazlasına mal olabilir. Bir iddiaya nazaran yalnızca finans kurumları 2018’den bu yana hizmet kesintisi nedeniyle 32 milyar dolar kaybetti.
Yapay zekâ güvenlik grupları tarafından gelecekte nasıl kullanılabilir?
Yapay zekâ siber hücumlarda nasıl kullanılıyor?
Yapay zekânın sınırları
İyi ya da makûs, yapay zekanın şu anda sınırlamaları var. Yüksek yanlış olumlu oranları verebilir ve yüksek kaliteli eğitim setleri olmadan tesiri hudutlu olabilir. Çıktıların doğruluğunu denetim etmek ve modellerin kendilerini eğitmek için çoklukla insan nezareti de gerekli. Tüm bunlar, AI’ın ne saldırganlar ne de savunmacılar için sihirli bir değnek olmadığı gerçeğine işaret ediyor.
Kaynak: (BYZHA) Beyaz Haber Ajansı
GÜNDEM
04 Nisan 2025SPOR
04 Nisan 2025GÜNDEM
04 Nisan 2025SPOR
04 Nisan 2025SPOR
04 Nisan 2025GÜNDEM
04 Nisan 2025GÜNDEM
04 Nisan 2025Veri politikasındaki amaçlarla sınırlı ve mevzuata uygun şekilde çerez konumlandırmaktayız. Detaylar için veri politikamızı inceleyebilirsiniz.