أخبار عاجلة
سعر اليورو بالبنوك اليوم الثلاثاء - بوراق نيوز -

إعلانات مضللة تستنسخ وجوه المشاهير في مقاطع مفبركة - بوراق نيوز

عزيزي الزائر أهلا وسهلا بك في موقع بوراق نيوز نقدم لكم اليوم إعلانات مضللة تستنسخ وجوه المشاهير في مقاطع مفبركة - بوراق نيوز

تشهد منصات التواصل الاجتماعي تزايداً ملحوظاً في استخدام تقنيات «الاستنساخ الرقمي» التي تعتمد على برمجيات التزييف العميق، عبر إنشاء نسخ طبق الأصل من شخصيات لمشاهير، بهدف استغلالها في عمليات احتيالية متقنة، للوصول إلى الأرصدة البنكية وسرقة البيانات الشخصية، من خلال إعلانات مضللة ووهمية مثل «احصل على عقار» و«اشترِ أسهماً في شركة عالمية معروفة».

وتقوم هذه التقنيات بخداع الأشخاص من خلال استخدام وجوه شخصيات معروفة وموثوق بها، ما يخلق شعوراً بالثقة بمصداقية هذه الإعلانات.

وتعتمد الإعلانات على خوارزميات ذكية، لدمج مقاطع صوتية ومرئية لشخصيات معروفة وموثوق فيها مع مقاطع أخرى نشرت لهذه الشخصيات سابقاً، مستغلة ذلك في خلق إعلانات مضللة بوعود مغرية تثير فضول الأشخاص، مثل فرص استثمارية سريعة، والحصول على عقارات في المواقع السياحية الشهيرة.

وأكد خبير تقني ومستشاران قانونيان لـ«الإمارات اليوم»، أن «استخدام تقنيات الذكاء الاصطناعي، يُعدُّ قضية ذات أبعاد متعددة، تتطلب اهتماماً من الحكومات والمؤسسات ذات الصلة، فمن جهة ثمة حاجة ماسة إلى تطوير إطار تشريعي وتنظيمي قادر على ضبط وتنظيم استخدام تقنيات الذكاء الاصطناعي، بما يضمن الحماية اللازمة للأفراد والمجتمع من مخاطرها المحتملة، ومن جهة أخرى، يتوجب التركيز على التدابير الوقائية والتقنية التي تسهم في الحد من التجاوزات والاستغلال السيئ لتلك التطبيقات».

ولفتوا إلى الحاجة الماسة لتطوير إطار تشريعي وتنظيمي، يشمل جميع جوانب استخدام تقنيات الذكاء الاصطناعي، ويتضمن قوانين وتشريعات تُجرم استخدام تلك التقنيات في إنتاج الإعلانات المضللة والترويج لها، إضافة إلى وضع معايير وضوابط لاستخدام تقنيات الذكاء الاصطناعي في مختلف المجالات.

وتفصيلاً، أكد الخبير التقني في مجال أنظمة التشغيل والمحاضر في كليات التقنية العليا، المهندس محمد الشحي، أن مقاطع الفيديو التي يتم إنشاؤها عبر التزييف العميق، تشكل تحدياً متزايداً أمام تقنيات التحقق من المحتوى الرقمي، إلا أن هناك علامات بارزة يمكن أن تساعد في اكتشاف زيف هذه المقاطع، أولها «الحركات غير الطبيعية»، حيث يلاحظ في مقاطع الفيديو التي تستخدم التزييف العميق، وجود حركات جامدة أو ضبابية حول الوجه، خصوصاً أثناء الحركات السريعة، ويمكن أن يكون الوميض غير المتزامن للعينين وتعبيرات الوجه غير المتوافقة مع نبرة الصوت من الأدلة القوية على التزييف.

وتابع أن التناقضات في التفاصيل كعدم توافر الإضاءة المتساوية على الوجه، ومظهر الشعر الذي قد يبدو ناعماً بشكل غير طبيعي، وعدم التوافق الصوتي والبصري، حيث تكون حركات الشفاه لا تتزامن مع الكلمات المنطوقة، تُعدُّ مؤشرات على تزييف محتمل، لافتاً إلى أن الشخصيات المستنسخة التي تظهر في الفيديو، تقوم بسلوكيات غير معهودة للشخصية المستهدفة، إضافة إلى تناقضات في نسيج البشرة، خصوصاً حول حواف الوجه، وفي الأغلب تواجه تقنيات التزييف العميق، صعوبة في تكرار حركات العينين بشكل واقعي، إضافة إلى الخلفيات التي تظهر ضبابية أو غير متناسقة مع المقدمة، وتكون مؤشراً على استخدام هذه التقنيات.

وأكد الشحي أن فيديوهات التزييف العميق، يمكن اكتشافها عبر أدوات وتطبيقات متقدمة تستخدم تقنيات الذكاء الاصطناعي، لفحص المحتوى وتقديم درجة احتمالية كونه مزيفاً. وأوضح أن تقنية التزييف العميق لا تقتصر على تغيير وجوه الأشخاص، بل يمكنها أيضاً إنشاء شخصيات اصطناعية بالكامل من خلال اختلاق ملامح وجه وأصوات وحركات واقعية، هذه الشخصيات يمكن أن تستخدم كـ«مؤثرين» على وسائل التواصل الاجتماعي، يتفاعلون مع المستخدمين الحقيقيين، وينشرون محتوى مزيفاً، ما يجعل من الصعب التمييز بين الواقع والتزييف، وعلى سبيل المثال، يمكن إنشاء شخصية مؤثرة تقدم نصائح طبية وهمية أو تروج لمنتجات غير موجودة.

وأفاد بأنه يمكن لتقنيات التزييف العميق إنشاء أصوات اصطناعية مستنسخة من أي شخص بدقة، وهذا الأمر الذي يستغله المحتالون والمضللون، ويُعدُّ أداة قوية في أيديهم، لتحقيق أهدافهم سواء بالاستيلاء على الأرصدة البنكية أو تضليل الأشخاص، إلا أنه مع ازدياد الوعي بوجود هذه التقنية، أصبح الأشخاص أكثر شكاً في مقاطع الفيديو والصوتيات.

في المقابل، قالت المستشارة القانونية والمحامية، أساور المنصوري إن دولة الإمارات تُعدُّ رائدة في مجال الذكاء الاصطناعي، حيث اتخذت خطوات متقدمة، لتعزيز استخدامه، وتنظيم عمله بما في ذلك إنشاء وزارة للذكاء الاصطناعي، وسن قوانين لحماية الخصوصية وتجريم الجرائم الإلكترونية. واعتبرت أن «التحدي الأكبر يتمثل في الموازنة بين استفادة المجتمع من مزاياه والحماية من مخاطره المحتملة».

وأكدت أن استخدامات الذكاء الاصطناعي تُعدُّ ذات أبعاد متعددة، تتطلب اهتماماً وحلولاً شاملة من جانب الحكومات والمؤسسات ذات الصلة، فمن جهة ثمة حاجة ماسة إلى تطوير إطار تشريعي وتنظيمي قادر على ضبط وتنظيم استخدام تقنيات الذكاء الاصطناعي بما يضمن الحماية اللازمة للأفراد والمجتمع من مخاطرها المحتملة، ومن جهة أخرى، يتوجب التركيز على التدابير الوقائية والتقنية التي تسهم في الحد من التجاوزات والاستغلال السيئ لتلك التطبيقات.

بدوره، رأى المستشار القانوني، فهد سعيد الظهوري، أن تقنية الذكاء الاصطناعي شهدت في السنوات الأخيرة تطوراً سريعاً وقفزات كبيرة، الأمر الذي أحدث تغييرات جذرية في مختلف المجالات، ونتيجة لهذا التطور المتسارع، ظهر العديد من جرائم الذكاء الاصطناعي، بما في ذلك جرائم الاحتيال التي يستغل فيها أشخاص التطورات التقنية، لتطوير برامج وأساليب احتيالية متطورة، يتم بيعها عبر الإنترنت المظلم، ما يزيد من التحديات الأمنية في العصر الرقمي.

وتابع أن هذه الأساليب الاحتيالية تتضمن قدرات متطورة في تحليل البيانات الضخمة وتقليد السلوك البشري، إضافة إلى استخدام تقنيات التعرف إلى الوجوه لارتكاب جرائم. كما أن برامج توليد المحتوى الوهمي، تُمكّن المجرمين من إنشاء مقاطع فيديو مزيفة لأغراض التضليل والابتزاز والاحتيال. وأضاف: «بشكل عام أسهم انتشار هذه التطبيقات للذكاء الاصطناعي في زيادة التعدي على خصوصيات الأشخاص وحياتهم الخاصة».

وأشار الظهوري إلى ضرورة تعزيز الاستخدام الآمن والمسؤول للذكاء الاصطناعي الذي يتطلب جهوداً مشتركة من مختلف الجهات المعنية، بمن في ذلك المشرعون والمطورون والمستخدمون، بهدف إرساء أسس تنظيمية وتقنية قوية، تكفل استفادة المجتمع من مزايا هذه التقنية الحديثة من دون المساس بحقوق الأفراد وسلامة المجتمع.

تويتر