Satılık Deepfake: Kaspersky yapay zeka çağının güvenlik telaşları konusunda uyardı
Son yıllarda yapay zeka (AI) ve makine tahsili teknolojilerinin yaygın olarak benimsenmesi, tehdit aktörlerine taarruzlarını gerçekleştirebilecekleri sofistike yeni araçlar sağlıyor.
Bunlardan biri de insan gibisi doğal konuşma yahut gerçek insanların fotoğraf ve görüntü kopyalarını içeren deepfake’ler. Bu akınları oluşturmak için harcanan vakit ve uğraş ekseriyetle potansiyel 'ödüllerinden' daha ağır bassa da Kaspersky, şirketlerin ve tüketicilerin deepfake'lerin gelecekte daha fazla tasa kaynağı olacağının farkında olmaları gerektiği konusunda uyarıyor.
Kaspersky araştırması, darknet pazarlarında deepfake oluşturma araçlarının ve hizmetlerinin yer aldığını tespit etti. Bu hizmetler dolandırıcılık, şantaj ve bilinmeyen dataların çalınması üzere çeşitli maksatlar için yapay zeka yardımıyla görüntü oluşturma imkanı sunuyor. Kaspersky uzmanlarının iddialarına nazaran, bir dakikalık deepfake görüntü 300 dolar üzere düşük bir fiyata satın alınabiliyor.
İnternet kullanıcıları ortasında dijital okuryazarlık konusunda kıymetli bir uçurum olduğu konusunda da tasalar var. Yakın vakitte yapılan Kaspersky İş Dijitalleşme Anketine¹ nazaran Orta Doğu, Türkiye ve Afrika (META) bölgesinde ankete katılan çalışanların %51'i bir deepfake'i gerçek bir imgeden ayırt edebileceklerini söyledi. Yapılan testte ise sırf %25'i gerçek bir manzarayı yapay zeka tarafından oluşturulmuş bir imgeden ayırt edebildi2. Kimlik avı ve öbür toplumsal mühendislik akınlarının birincil maksatlarının çoklukla çalışanlar olduğu düşünüldüğünde, bu durum kurumların risk altında olması demek.
Örneğin, siber hatalılar CEO'nun bir banka havalesi talep ettiği yahut ödemeyi onayladığı geçersiz bir görüntü oluşturabilir ve bu görüntü şirket varlıklarını çalmak için kullanılabilir. Bireylerden para ya da bilgi sızdırmak için kullanılabilecek tehlikeye atıcı görüntüler ya da imgeler oluşturulabilir.
Kaspersky Baş Data Bilimcisi Vladislav Tushkanov, şunları söylüyor: "Yüksek kaliteli deepfake yaratacak teknolojiler şimdi yaygın olarak bulunmasa da, bu teknolojinin en muhtemel kullanım alanlarından biri gerçek vakitli sesler üreterek öteki birinin kimliğine bürünmektir. Örneğin çok uluslu bir firmada çalışan bir finans vazifelisi, deepfake teknolojisi sayesinde bir görüntü konferans görüşmesinde şirketin finans müdürü gibi davranılarak dolandırıcılara 25 milyon dolar aktarmak üzere kandırıldı. Deepfake'lerin sırf işletmeler için değil, tıpkı vakitte ferdi kullanıcılar için de bir tehdit olduğunu unutmamak kıymetlidir. Yanlış bilgi yayarlar, dolandırıcılık gayesiyle kullanılırlar yahut isteği olmadan öbür birinin kimliğine bürünürler. Bu korunulması gereken ve büyüyen bir siber tehdit."
Kaspersky, deepfake'lerin oluşturduğu çeşitli tehditlere karşı korunmak için şahıslara ve işletmelere aşağıdaki tedbirleri öneriyor:
- Şüpheli aramalara dikkat edin. Düşük ses kalitesi, sesin doğal olmayan monotonluğu, anlaşılmaz konuşma formları ve gelen anlamsız gürültülere dikkat edin.
- Deepfake görüntülerin temel özelliklerini öğrenin. Bu özellikler ortasında sarsıntılı hareketler, bir plandan başkasına geçişte ışıkta kaymalar, cilt tonunda farklılıklar, konuşmayla senkronize olmayan dudak hareketleri ve zayıf aydınlatma yer alır.
- Asla hislere dayalı kararlar vermeyin ve detayları kimseyle paylaşmayın. Yalnızca o kişinin bilebileceği bir şey sormak ya da aramayı durdurmak, alınan bilgileri birkaç kanaldan ayrıyeten doğrulamak her vakit daha uygundur. Bu noktada 'güven lakin doğrula' protokolünü izleyin.
- Kuruluşunuzun siber güvenlik uygulamalarını denetim edin ve güncelleyin.
- Kaspersky Threat Intelligence gibi bir güvenlik tahlili, bilgi güvenliği uzmanlarının deepfake konusundaki en son gelişmeler hakkında şimdiki kalmasına yardımcı olabilir.
- Şirketler ayrıyeten çalışanlarının deepfake'lerin ne olduğunu, nasıl çalıştıklarını ve oluşturabilecekleri zorlukları anlamalarını sağlayarak beşere dayalı güvenlik duvarını güçlendirmelidir. Bu, çalışanlara deepfake akınlarını nasıl tespit edeceklerini öğretmek üzere uygulanacak daima farkındalık ve eğitim çalışmalarını kapsar.
Kaynak: (BYZHA) Beyaz Haber Ajansı