Yapay zekâ geçtiğimiz yıl siber güvenlik silahlanma yarışına büyük bir ivme kazandırdı. Önümüzdeki 12 ay da bu yarışa hiç ara vermeyecek.
Siber güvenlik sektörünün liderlerinden ESET, yapay zekâ araçlarının kötü aktörlerin elinde her türlü dolandırıcılığın, dezenformasyon kampanyasının diğer tehditlerin ölçeğini ve şiddetini artırabileceğini belirterek 2025 yılında nelere dikkat edilmesi gerektiğinin altını çizdi. Birleşik Krallık Ulusal Siber Güvenlik Merkezi (NCSC) 2024’ün başında, yapay zekânın halihazırda her tür tehdit aktörü tarafından kullanıldığı ve “önümüzdeki iki yıl içinde siber saldırıların hacmini ve etkisini artıracağı” uyarısında bulundu. Tehdit en çok, üretken yapay zekânın (GenAI) kötü niyetli aktörlerin hatasız yerel dillerde ikna edici kampanyalar hazırlamasına yardımcı olabildiği sosyal mühendislik alanında görülebilir.
Bu trendler 2025 yılında devam edecek olsa da yapay zekânın şu amaçlarla kullanıldığını da görebiliriz:
- Kimlik doğrulama baypası: Dolandırıcıların yeni hesap oluşturma ve hesap erişimi için selfie ve video tabanlı kontrollerde müşterileri taklit etmelerine yardımcı olmak için kullanılan Deepfake teknolojisi.
- İş e-postalarının ele geçirilmesi (BEC): Yapay zekâ bir kez daha sosyal mühendislik için kullanıldı ancak bu kez kurumsal alıcıyı kandırıp dolandırıcının kontrolü altındaki bir hesaba para havale etmesi için. Deepfake ses ve video, telefon görüşmelerinde ve sanal toplantılarda CEO’ları ve diğer üst düzey liderleri taklit etmek için de kullanılabiliyor.
- Taklit dolandırıcılığı: Açık kaynaklı büyük dil modelleri (LLM’ler) dolandırıcılar için yeni fırsatlar sunacaktır. Dolandırıcılar, hacklenmiş veya halka açık sosyal medya hesaplarından toplanan veriler üzerinde bu modelleri eğiterek arkadaşlarını ve ailelerini kandırmak için tasarlanmış sanal adam kaçırma ve diğer dolandırıcılıklarda kurbanların kimliğine bürünebilirler.
- Influencer dolandırıcılığı: Benzer bir şekilde, GenAI’nin 2025 yılında dolandırıcılar tarafından ünlüleri, influencer’ları ve diğer tanınmış kişileri taklit eden sahte veya kopya sosyal medya hesapları oluşturmak için kullanıldığını görmeyi bekliyoruz. Deepfake videolar, ESET’in en son Tehdit Raporu’nda vurgulanan türden hileler de dahil olmak üzere, örneğin yatırım ve kripto dolandırıcılıklarında takipçilerin kişisel bilgilerini ve paralarını teslim etmelerini sağlamak için yayımlanacaktır. Bu durum, etkili hesap doğrulama araçları ve rozetleri sunmaları için sosyal medya platformları üzerinde daha fazla baskı oluşturacak ve sizin de tetikte olmanızı sağlayacaktır.
- Dezenformasyon: Düşman devletler ve diğer gruplar, saf sosyal medya kullanıcılarının sahte hesapları takip etmelerini sağlamak amacıyla kolayca sahte içerik üretmek için GenAI’dan yararlanacaktır. Bu kullanıcılar daha sonra içerik/trol çiftliklerinden daha etkili ve tespit edilmesi daha zor bir şekilde etki operasyonları için çevrimiçi amplifikatörlere dönüştürülebilir.
- Parola kırma: Yapay zekâ odaklı araçlar, kurumsal ağlara ve verilere ve ayrıca müşteri hesaplarına erişim sağlamak için kullanıcı kimlik bilgilerini saniyeler içinde toplu olarak açığa çıkarabilir.