Araştırmacıların size ‘AI chatbot’ uyarısı var

MyHoca

New member


Yapay zeka sohbet robotlarının çeşitli şirketler tarafından hizmetlerine entegre edildiği bir zamanda, araştırmacılar insanları bir şirketin web sitesinde veya uygulamasında görünmeyen sohbet robotlarını kullanmamaları konusunda uyardılar.
Göre Norton Tüketici Siber Güvenlik Nabzı raporuna göre, siber suçlular artık derin sahte sohbet robotları oluşturabiliyor ve bu da tehdit aktörlerine teknolojiden daha az anlayan insanları hedeflemek için başka bir yol sunuyor. Araştırmacılar, chatbot kullananların çevrimiçi sohbet ederken kişisel bilgilerini vermemesi gerektiği konusunda uyarıyor.
“ChatGPT gibi büyük dil modelleri beni heyecanlandırıyor, ancak siber suçluların bunları nasıl istismar edebileceği konusunda da temkinliyim. Siber suçluların en son teknolojiye hızla adapte olduklarını biliyoruz ve bunu fark ediyoruz. ChatGPT hızlı ve kolay bir şekilde ikna edici tehditler oluşturmak için kullanılabilir,” dedi Norton kıdemli teknik direktörü Kevin Roundy.

Bilgisayar korsanları meşru sohbet botları gibi davranır
Rapor, bilgisayar korsanları tarafından oluşturulan sohbet robotlarının insanları veya bir banka veya devlet kurumu gibi meşru kaynakları taklit edebileceğini söyledi. Daha sonra kurbanları, para çalmak veya dolandırıcılık yapmak için kişisel bilgilerini vermeleri için manipüle edebilirler.
Araştırmacılar, insanların istenmeyen telefon aramalarına, e-postalara veya mesajlara yanıt olarak bağlantılara tıklamaktan kaçınmaları gerektiğini belirtti.
Tehdit oluşturmak için ChatGPT kullanan bilgisayar korsanları
Norton ayrıca, siber suçluların ChatGPT’yi “farklı dillere ve izleyicilere uyum sağlayan, insan benzeri metinler oluşturma konusundaki etkileyici yeteneği sayesinde” kötü amaçlı tehditler oluşturmak için kullandıklarının altını çizdi.

Norton, “Siber suçlular artık daha ikna edici e-posta veya sosyal medya kimlik avı tuzaklarını hızlı ve kolay bir şekilde oluşturabiliyor ve neyin meşru neyin tehdit olduğunu belirlemeyi zorlaştırıyor” diye ekledi.
Bu yılın başlarında yapılan bir araştırma, böğürtlen yapay zeka sohbet robotlarının önümüzdeki 12 ila 24 ay içinde yapay zeka ile aşılanmış siber saldırılar şeklinde kuruluşlara karşı kullanılabileceğini buldu.
“Bazıları bunun önümüzdeki aylarda olabileceğini düşünüyor. Yanıt verenlerin dörtte üçünden fazlası (%78), ChatGPT tarafından kredilendirilen bir saldırının kesinlikle iki yıl içinde gerçekleşeceğini tahmin ediyor. Ayrıca, büyük bir çoğunluk (%71) ulus devletlerin zaten ChatGPT’yi kötü amaçlarla kullanıyor olabileceğine inanıyor.”