أول وكالة اخبارية خاصة انطلقت في الأردن

تواصل بلا حدود

أخر الأخبار
ولي العهد : اللهم صيبا نافها تفاصيل لقاء الصفدي وحسان في مجلس النواب الجمارك: تمديد الدوام للتخليص على السيارات الكهربائية الأعـيان يقر صيغة الرد على خطاب العرش قطاعات تجارية تطالب بضبط عمليات البيع الإلكتروني بداية عبور الجبهة الباردة شمال المملكة مُرفقة بانقلاب جذري على الأجواء مئات آلاف الإسرائيليين بالملاجئ والاحتلال ينذر بلدات لبنانية بالإخلاء العرموطي يوجه اسئلة حول سرقة سفارتنا في باريس الأردن: اليكم أسماء المناطق التي ستقطع عنها المياه بسبب الديسي “الأمن العام” يحذر من المنخفض الجوي المتوقع الفايز: ندعو للتصدي بكل قوة وحزم لكل من يحاول العبث بأمن الوطن رئيس الديوان الملكي يعود مندوبا عن الملك مصابي حادثة الرابية(صور) مقتل متسلل والقبض على 6 آخرين ضمن المنطقة العسكرية الشمالية ترجيح تخفيض أسعار المحروقات في الأردن الشهر المقبل الأردن .. حماية المستهلك ترفض تفرد نقابة الاطباء بتحديد الاجور الطبية الحكومة: لا تمديد لقرار إعفاء السيَّارات الكهربائيَّة أول تصريح لرئيس الوزراء بعد حادثة الرابية الزيود: نطالب برفع الحد الأدنى للأجور إلى 500 دينار الأوقاف تعلن بدء الـتسجيل الأولي للراغبين بالحج رئيس الوزراء جعفر حسان يزور منتسبي الأمن العام المصابين بإطلاق النار في الرابية
الصفحة الرئيسية من هنا و هناك سرقة 25 مليون دولار عبر احتيال صوتي بالذكاء...

سرقة 25 مليون دولار عبر احتيال صوتي بالذكاء الاصطناعي

سرقة 25 مليون دولار عبر احتيال صوتي بالذكاء الاصطناعي

29-05-2024 09:00 AM

زاد الاردن الاخباري -

أدت موجة متزايدة من عمليات الاحتيال العميق إلى نهب ملايين الدولارات من الشركات في جميع أنحاء العالم، ويحذر خبراء الأمن السيبراني من أن الأمر قد يزداد سوءاً، حيث يستغل المجرمون الذكاء الاصطناعي التوليدي للاحتيال.

التزييف العميق هو مقطع فيديو أو صوت أو صورة لشخص حقيقي تم تعديله والتلاعب به رقمياً، غالباً من خلال الذكاء الاصطناعي، للاحتيال بشكل مقنع.

وفي واحدة من أكبر الحالات المعروفة هذا العام، تم خداع موظف مالي في هونغ كونغ لتحويل أكثر من 25 مليون دولار إلى محتالين يستخدمون تقنية التزييف العميق، والذين تنكروا في هيئة زملاء في مكالمة فيديو، حسبما قالت السلطات لوسائل الإعلام المحلية في فبراير.

وفي الأسبوع الماضي، أكدت شركة الهندسة البريطانية "Arup" لشبكة "CNBC" أنها الشركة المسؤولة في هذه القضية، لكنها لم تتمكن من الخوض في تفاصيل حول هذا الأمر بسبب التحقيق المستمر، وفقاً لما اطلعت عليه "العربية Business".

من جانبه، قال كبير مسؤولي المعلومات والأمن في شركة "Netskope" للأمن السيبراني، ديفيد فيرمان، إن مثل هذه التهديدات تزايدت نتيجة تعميم "ChatGPT" من Open AI - الذي تم إطلاقه في عام 2022 - والذي سرعان ما دفع تكنولوجيا الذكاء الاصطناعي التوليدية إلى الاتجاه السائد.

وقال فيرمان: "إن إمكانية الوصول العام إلى هذه الخدمات قد خفضت حاجز الدخول أمام مجرمي الإنترنت - ولم يعودوا بحاجة إلى مهارات تكنولوجية خاصة".

وأضاف أن حجم وتعقيد عمليات الاحتيال قد اتسع مع استمرار تطور تكنولوجيا الذكاء الاصطناعي.

الاتجاه الصاعد
يمكن استخدام العديد من خدمات الذكاء الاصطناعي التوليدية لإنشاء محتوى نصي وصوري وفيديو يشبه الإنسان، وبالتالي يمكن أن تكون بمثابة أدوات قوية للجهات الفاعلة غير المشروعة التي تحاول التلاعب رقمياً وإعادة تقليد أفراد معينين.

وبحسب ما ورد حضر الموظف المالي مكالمة الفيديو مع أشخاص يُعتقد أنهم المدير المالي للشركة وموظفين آخرين، الذين طلبوا منه إجراء تحويل أموال. ومع ذلك، فإن بقية الحاضرين في ذلك الاجتماع كانوا، في الواقع، عبارة تزييف عميق تم إعادة إنشائهم رقمياً.

وأكدت شركة "أروب" استخدام "أصوات وصور مزيفة" في الحادث، مضيفةً أن "عدد وتعقيد هذه الهجمات ارتفع بشكل حاد في الأشهر الأخيرة".

وأفادت وسائل الإعلام الحكومية الصينية عن حالة مماثلة في مقاطعة شانشي هذا العام تتعلق بموظفة مالية، تم خداعها لتحويل 1.86 مليون يوان (262 ألف دولار) إلى حساب محتال بعد مكالمة فيديو مع رئيسها في العمل.

في عام 2019، ورد أن الرئيس التنفيذي لشركة بريطانية لتوفير الطاقة قام بتحويل 220 ألف يورو (238 ألف دولار) إلى محتال قام بتقليد رئيس شركته الأم رقمياً وطلب تحويلاً مصرفياً إلى مورد مفترض عبر مكالمة هاتفية.

وفي عام 2022، ادعى باتريك هيلمان، كبير مسؤولي الاتصالات في Binance، في منشور على مدونة أن المحتالين قاموا بتزييفه بعمق بناءً على مقابلات إخبارية سابقة وظهور تلفزيوني، واستخدموه لخداع العملاء وجهات الاتصال في الاجتماعات.

وقال فيرمان من نتسكوب إن مثل هذه المخاطر دفعت بعض المديرين التنفيذيين إلى البدء في محو تواجدهم على الإنترنت أو الحد منه خوفا من أن يستخدمه مجرمو الإنترنت كمادة خام للتزييف العميق.








تابعونا على صفحتنا على الفيسبوك , وكالة زاد الاردن الاخبارية

التعليقات حالياً متوقفة من الموقع