İçeriğe atla
AI as Attack Vector — The New Cybersecurity Frontier
İçgörülere Dön
YZ / MÖ·10 dk okuma

Yapay Zeka Artık Tehdidin Kendisi: Siber Güvenlikte Yeni Dönem

Yazar Osman Kuzucu·Yayınlanma tarihi 2026-02-21

Yapay Zeka Güvenliğinde Kırılma Noktası

Siber güvenlik dünyası yıllardır yapay zekanın savunmacılara mı yoksa saldırganlara mı daha fazla avantaj sağlayacağını tartışıyordu. Şubat 2026'nın üçüncü haftası bu soruya net bir yanıt verdi: her ikisine de, aynı anda. Yedi gün içinde birbiri ardına gelen üç farklı olay, yapay zekanın artık sadece savunma amaçlı bir araç olmadığını kanıtladı. Yapay zeka; aynı anda bir saldırı yüzeyi, bir silah ve farkında olmadan suç ortağı haline geldi. Çalışma anında generative AI kullanan ilk Android zararlı yazılımından, haftalarca sessizce gizli e-postaları okuyan Microsoft Copilot hatasına ve geliştiricilerin AI uygulamaları geliştirmek için kullandıkları SDK'daki kritik bir açığa kadar — mesaj gayet açık. Yapay zeka destekli tehditler çağı başladı ve AI benimsemesini sadece bir fırsat olarak değerlendiren kuruluşlar ciddi risk altında.

PromptSpy: Kendi Kendine Düşünen Zararlı Yazılım

ESET araştırmacıları 19 Şubat'ta PromptSpy ile ilgili bulgularını yayımladı. PromptSpy, çalışma anında generative AI kullanan bilinen ilk Android zararlı yazılımı olarak tarihe geçti. Sabit kodlanmış rutinlere dayanan geleneksel mobil tehditlerin aksine, PromptSpy cihaz arayüzlerinde gezinmek için Google'ın Gemini API'sini kullanıyor. Cihazda kalıcılık sağlaması gerektiğinde, ekranın anlık görüntüsünü alıp Gemini'ye gönderiyor ve son uygulamalar listesinde kendini sabitlemenin adımlarını alıyor. Bu adımları Android'in Erişilebilirlik Hizmeti aracılığıyla uyguluyor, sonucu kontrol ediyor ve işlem başarılı olana kadar döngüyü tekrarlıyor. Bunun anlamı şu: zararlı yazılım herhangi bir Android sürümüne, cihaz üreticisine veya özelleştirilmiş arayüze otomatik olarak uyum sağlayabiliyor. Eskiden her cihaz için aylarca süren tersine mühendislik gerektiren bu yetenek, artık tek bir API çağrısıyla mümkün.

PromptSpy'ın asıl tehlikeli yükü, uzaktan erişim sağlayan yerleşik bir VNC modülü. Bu modül sayesinde saldırganlar; kilit ekranı bilgilerini ele geçirebiliyor, kaldırma girişimlerini engelleyebiliyor, ekran görüntüsü ve video kaydı alabiliyor, cihaz verilerini dışarı sızdırabiliyor. ESET, PromptSpy'ın henüz yaygın telemetri verilerinde görünmediğini ve bunun bir proof of concept aşamasında olabileceğini belirtse de, Arjantin'deki kullanıcıları hedefleyen bir dağıtım alan adının keşfedilmesi, tehdidin laboratuvar ortamından çıkmaya başladığını gösteriyor. Bu, ESET'in karşılaştığı ilk yapay zeka destekli zararlı yazılım da değil: Ağustos 2025'te keşfedilen PromptLock, yapay zeka kullanan bir fidye yazılımıydı. Bu eğilim giderek hızlanıyor.

Microsoft Copilot: AI Asistanınız Görmemesi Gerekeni Gördüğünde

Microsoft, 18 Şubat'ta Microsoft 365 Copilot'taki bir hatanın gizli olarak çalışıp "gizli" etiketli e-postaları okuduğunu ve özetlediğini doğruladı. Üstelik bu durum, tam da bu tür erişimi engellemek için yapılandırılmış Data Loss Prevention (DLP) politikalarını atlayarak gerçekleşti. CW1226324 koduyla takip edilen hata ilk olarak 21 Ocak'ta tespit edildi ve Copilot'un "iş sekmesi" sohbet özelliğini etkiledi. Hata, Copilot'un kullanıcıların Gönderilmiş Öğeler ve Taslaklar klasörlerindeki mesajları yanlış bir şekilde işlemesine neden oldu — otomatik araçların erişimini kısıtlamak için özellikle tasarlanmış gizlilik etiketleri taşıyan e-postalar dahil. Haftalarca, kurumsal verimliliğe güvenilen bir AI aracı, tam olarak DLP politikalarının engellemeye çalıştığı şeyi yapıyordu.

Microsoft, kaç kuruluşun etkilendiğini açıklamadı ve yalnızca "Şubat ayı başlarında" bir düzeltme sunmaya başladığını, etkilenen kullanıcıları izlemeye devam ettiğini belirtti. Bu olay, temel bir sorunun tam merkezine isabet ediyor: Kurumsal iş akışlarınıza bir büyük dil modeli entegre edip geniş veri erişimi tanıdığınızda, aslında neredeyse sınırsız okuma yetkisine sahip bir "içeriden kişi" yaratmış oluyorsunuz. Geleneksel DLP politikaları insan kullanıcılar ve deterministik yazılımlar için tasarlandı — her çağrıda farklı yorumlama yapabilen olasılıksal AI sistemleri için değil. Bu olay, hassas kurumsal verilere erişim yetkisi tanınan AI asistanları konuşlandıran her kuruluş için ciddi bir uyarı niteliğinde.

Semantic Kernel RCE: AI Geliştirme Altyapısında Kritik Bir Açık

Üçlü tehdidi tamamlayan olay, Microsoft'un Semantic Kernel Python SDK'sında tespit edilen kritik bir uzaktan kod çalıştırma açığı (CVE-2026-26030) oldu. Semantic Kernel, birçok geliştiricinin LLM'leri uygulamalarına entegre etmek için kullandığı bir framework. CVSS puanı 10 üzerinden 9.9 olan bu açık, Semantic Kernel tabanlı AI uygulamalarını çalıştıran sunucularda saldırganların rastgele kod çalıştırmasına olanak tanıyabilir. Açık özellikle endişe verici, çünkü Semantic Kernel birçok kurumsal AI uygulamasının temel katmanında yer alıyor. İş mantığı ile dil modelleri arasındaki bağlantı kodunu oluşturuyor; bu da buradaki bir güvenlik ihlalinin tüm AI altyapısına yayılabileceği anlamına geliyor. Geliştiricilerin AI oluşturmak için kullandıkları araçların kendisi savunmasız olduğunda, üzerine inşa edilen her uygulamanın güvenliği sorgulanır hale geliyor.

Ortak Nokta: Yapay Zeka Saldırı Yüzeyini Genişletiyor

Bu olayların her biri tek başına değerlendirildiğinde belirli bir teknik hikaye anlatıyor. Ancak bir arada ele alındığında, sistemik bir kalıp ortaya çıkıyor: AI altyapısının her katmanı artık potansiyel bir saldırı vektörü. Uygulama katmanında AI asistanlarına güvenlik sınırlarını aşan veri erişimi tanınıyor. Altyapı katmanında, AI uygulamalarını destekleyen SDK ve framework'ler kendi açıklarını barındırıyor. Tehdit aktörleri katmanında ise saldırganlar, kurumların benimsemeye koştuğu aynı generative AI yeteneklerini silah olarak kullanıyor. Bu bir tesadüf değil — deterministik ve öngörülebilir yazılımlar için tasarlanmış ortamlara güçlü, olasılıksal sistemlerin konuşlandırılmasının kaçınılmaz sonucu.

Kuruluşların bu yeni ortamda karşı karşıya kaldığı temel riskler:

  • Gerçek zamanlı uyum sağlayan yapay zeka destekli zararlı yazılımlar, cihaz çeşitliliğinin doğal bir savunma bariyeri olarak sunduğu avantajı ortadan kaldırıyor — saldırganların artık her cihaz varyantı için ayrı ayrı exploit geliştirmesine gerek yok.
  • Geniş veri erişimine sahip kurumsal AI araçları fiilen "içeriden tehdit" haline geliyor — hiçbir çalışanın erişemeyeceği ölçekte hassas bilgileri okuyabiliyor, özetleyebiliyor ve potansiyel olarak dışarı sızdırabiliyor.
  • Tedarik zinciri riski artık AI framework ve SDK'larına kadar uzanıyor — yaygın kullanılan bir AI geliştirme araç setindeki tek bir açık, aynı anda binlerce bağımlı uygulamayı tehlikeye atabiliyor.
  • Geleneksel güvenlik kontrolleri — güvenlik duvarları, DLP politikaları, erişim kontrol listeleri — öngörülebilir ve kurallara uyan yazılımlar için tasarlandı. Olasılıksal AI sistemlerini yönetmek için temelden yetersiz kalıyor.

Yapay Zeka Çağı İçin Savunma Stratejileri

Bu olaylar, kuruluşların yapay zeka benimsemesinden vazgeçmesi gerektiği anlamına gelmiyor — geride kalmanın rekabet maliyeti çok yüksek. Ancak kurumların AI güvenliğine yaklaşımında köklü bir değişim gerektiriyor. AI araçlarını sıradan bir kurumsal yazılım gibi ele almanın günleri sona erdi. AI sistemleri, kendine özgü karakteristiklerini hesaba katan, amaca yönelik güvenlik çerçeveleri gerektiriyor: olasılıksal davranış, geniş veri erişimi gereksinimleri ve hem araç hem hedef olabilme kapasitesi.

Kuruluşların şimdi atması gereken pratik adımlar:

  • AI'ya özel erişim kontrolleri uygulayın. AI araçlarına yalnızca görevleri için gereken minimum veri erişimini tanıyın. Her AI asistanını güvenilmeyen bir içeriden kişi olarak değerlendirin ve veri erişimlerine sıfır güven ilkelerini uygulayın — çıktı izleme ve davranış analizi dahil.
  • AI tedarik zincirinizi denetleyin. Altyapınızdaki tüm AI framework, SDK ve model sağlayıcılarının envanterini çıkarın. Her biri için güvenlik bildirimlerine abone olun. AI altyapı bileşenleri için, işletim sistemi yamaları kadar agresif SLA'lara sahip hızlı bir yama süreci oluşturun.
  • Yapay zekaya duyarlı izleme sistemleri kurun. Geleneksel SIEM ve EDR araçlarını AI'ya özel tespit yetenekleriyle güçlendirin. AI servislerine yapılan anormal API çağrılarını, AI araçlarının olağandışı veri erişim kalıplarını ve güvenlik ihlali veya kötüye kullanım belirtisi olabilecek beklenmedik model davranışlarını izleyin.
  • AI'ya özel olay müdahale planları geliştirin. Mevcut olay müdahale prosedürleriniz muhtemelen "AI asistanımız gizli verileri sızdırdı" veya "bir saldırgan mobil cihazlarımızda gezinmek için generative AI kullanıyor" gibi senaryoları kapsamıyor. Yapay zeka destekli tehditlerin gerçek zamanlı uyumlu yapısını hesaba katan sınırlama stratejileri dahil, AI ile ilgili olaylara özel prosedürler oluşturun.

Önümüzdeki Yol

Şubat 2026, siber güvenlik sektörünün yapay zekanın çift yönlü doğasını artık görmezden gelemeyeceği hafta olarak hatırlanacak. İş dünyasının verimliliğini kökten değiştirmeyi vaat eden teknoloji, mevcut güvenlik altyapımızın asla yönetmek için tasarlanmadığı saldırı vektörleri de yaratıyor. Bu ikili gerçeği kabul eden ve bugünden yapay zekaya duyarlı güvenlik stratejilerine yatırım yapan kuruluşlar, bir sonraki kaçınılmaz olaya tepki vermeye çalışanlardan çok daha avantajlı konumda olacak. Soru artık yapay zekanın silaha dönüşüp dönüşmeyeceği değil — zaten dönüştü. Asıl soru, savunmalarınızın tehditler kadar hızlı gelişip gelişmediği.

ai securitycybersecuritymalwarepromptspymicrosoft copilotenterprise securityai threatsgenerative aisemantic kernelzero trust

Bu konuları derinlemesine tartışmak ister misiniz?

Mühendislik ekibimiz mimari incelemeler, teknik değerlendirmeler ve strateji oturumları için müsait.

Görüşme planlayın