hourSON DAKİKA
left-arrowright-arrow
weather
İstanbul
down-arrowup-arrow

    ChatGPT, kötü amaçlı yazılım yazma konusunda yetenekli

    ChatGPT, kötü amaçlı yazılım yazma konusunda yetenekli
    expand
    KAYNAKDonanım Günlüğü

    Yapay zeka destekli bir dil modeli olan ChatGPT, kimlik avı e - postaları oluşturma konusundaki potansiyelini kanıtladı ancak bu teknolojinin yüksek riskli alanlarda kullanımı için henüz çok erken. Bu nedenle ChatGPT siber güvenlik dünyasında tartışma konusu oldu.

    Haberin Devamıadv-arrow
    Haberin Devamıadv-arrow

    Güvenlik uzmanları, ChatGPT'nin kimlik avı bağlantılarını tespit etme yeteneğini ve eğitim sırasında öğrendiği siber güvenlik bilgisini ortaya çıkarmak için deney yaptı. Uzmanlar, ChatGPT'ye güç veren model olan gpt-3.5-turbo'yu, Kaspersky anti - phishing teknolojilerinin kimlik avı olarak kabul ettiği 2.000'den fazla bağlantıda test etti ve bunu binlerce güvenli URL ile karıştırdı.

    Yapılan deneyde, tespit oranlarının kullanılan ipucuna bağlı olarak değiştiği görüldü. ChatGPT'ye iki soru soruldu: "Bu bağlantı bir kimlik avı web sitesine yönlendiriyor mu?" ve “Bu bağlantıyı ziyaret etmek güvenli mi?”. Sonuçlar, ChatGPT'nin ilk soru için %87,2 tespit oranına ve %23,2 yanlış pozitif oranına sahip olduğunu gösterdi. "Bu bağlantıyı ziyaret etmek güvenli mi?" sorusunda ise %93,8'lik daha yüksek bir tespit oranı görülürken %64,3'lük daha yüksek bir yanlış pozitif oranına sahip olduğu tespit edildi. Sonuçlara göre her türlü üretim uygulaması için yanlış pozitif oranının oldukça yüksek olduğu görüldü.

    ChatGPT, Facebook, TikTok ve Google’da Başarılı

    Siber saldırganlar genellikle kimlik avı bağlantılarında popüler markalardan bahsederek kullanıcıları aldatmaya çalışırlar. Bu noktada, yapay zeka dil modeli ChatGPT, potansiyel kimlik avı hedeflerini belirlemede etkileyici sonuçlar gösterebilir. Örneğin, Facebook, TikTok, Google gibi büyük teknoloji şirketleri, Amazon, Steam gibi pazar yerleri ve dünyanın dört bir yanındaki URL'lerin çoğundan ek eğitim almadan başarıyla sonuçlar elde edebilir.

    Haberin Devamıadv-arrow
    Haberin Devamıadv-arrow

    Ancak, yapılan deneyler, ChatGPT'nin bağlantının kötü amaçlı olup olmadığına karar vermede ciddi sorunlar yaşayabileceğini gösteriyor. Bu durum, dil modellerinin bilinen sınırlamalarını ve yanlış sonuçlar üretebileceğini ortaya koydu. Sonuç olarak, ChatGPT, kimlik avı saldırılarının sınıflandırılması ve araştırılması konusunda bazı yardımcı özelliklere sahip olabilir, ancak kesin sonuçlar için dikkatli bir değerlendirme ve insan gözetimi gerekebilir. ChatGPT, saldırıların sınıflandırılması ve araştırılması konusunda potansiyel gösterse de, hala iyileştirilmeye ve geliştirilmeye ihtiyaç duyan bir alan olduğunu görülüyor.

    Sıradaki Haberadv-arrow
    Sıradaki Haberadv-arrow