Site icon ألوان أوروبا

صوت قريبك يطلب المال؟ احذر! قد يكون محتالاً

صوت قريبك يطلب المال؟ احذر! قد يكون محتالاً

في خبر نشرته صحيفة “Dagens Nyheter” السويدية حذرت من أسلوب احتيال جديد يستخدم فيه الجناة الذكاء الاصطناعي لاستنساخ الأصوات.

يمكنكم متابعة المزيد من الأخبار في قسم أخبار السويد على منصة ألوان أوروبا الإعلامية

وقال جان أولسون خبير الاحتيال في الشرطة إن هذه الطريقة تجعل من الصعب على الضحايا التمييز بين المتصل الحقيقي والمتصل المحتال.

وأضاف أولسون أن فرص التضليل تضاعفت “بمئات الأضعاف” مع هذه التكنولوجيا.

وطالب أولسون الناس بتوخي الحذر خاصة إذا تلقوا مكالمات من أفراد الأسرة يطلبون المال. واقترح معاودة الاتصال للتأكد من هوية المتصل.

وتعمل الشرطة بشكل مكثف لمنع الاحتيال بما في ذلك التعاون مع السلطات الأخرى ومجتمع الأعمال لزيادة أمن المعاملات الرقمية.

وخلص أولسون إلى أن طريقة الاحتيال الجديدة هذه التي تنطوي على استنساخ الصوت باستخدام الذكاء الاصطناعي مشكلة متنامية ومن المهم حث الناس على توخي المزيد من الحذر خاصة عند التعامل مع طلبات الحصول على المال من أشخاص مألوفين على ما يبدو.

 

المصدر: Dagens.se

Exit mobile version