الكاتب : admin
07 أبريل 2025
آخر الأخبار
لوحظ في الآونة الأخيرة انغماس مستخدمو #الإنترنت في التوجه المنتشر على نطاق واسع عالميًا لتحويل الصور الشخصية إلى صور كرتونية باستخدام أدوات #الذكاء_الإصطناعي. وهو ما انتشر تحت مسمّى "استوديو غيبلي" الياباني للرسوم المتحركة، الذي بدأ عندما أطلقت شركة #OpenAI نموذج "GPT-4o" الخاص بها، والذي يسمح للمستخدمين بتغيير صورهم الشخصية لتصبح بنمط "استوديو غيبلي".
لكن هذا التوجه وبحسب خبراء #الأمن_السيبراني، فهو يُخفي واقعًا أكثر قتامة، خاصة فيما يتعلق بالخصوصية وإساءة استخدام البيانات.
وحذّر الخبراء أيضًا من أنه على الرغم من أن هذه الأدوات قد تبدو غير ضارة، إلا أن شروط الخدمة غالبًا ما تكون غامضة، مما يثير تساؤلات حول مصير صور المستخدم بعد معالجتها.
وتقول منصات قليلة من بين كثيرين إنها لا تخزن الصور، أو تحذفها بعد استخدامها لمرة واحدة، لكن معظمها لا يشرح بوضوح ما تعنيه بـ"الحذف" فعلًا، سواء كان فوريًا أو مُؤجلًا أو جزئيًا.
ولا تقتصر الصور على بيانات الوجه فحسب، بل غالبًا ما تتضمن بيانات وصفية مخفية مثل إحداثيات الموقع، وأختام زمنية بتاريخ ووقت التقاطها، وتفاصيل الجهاز، وكلها قد تكشف عن معلومات شخصية.
وقال الرئيس التنفيذي لشركة كويك هيل تكنولوجي، فيشال سالفي إن "أدوات #الذكاء_الاصطناعي هذه تستفيد من خوارزميات تقنية نقل النمط العصبي (NST). وهذه التقنية تستخدم #الذكاء_الاصطناعي لتحويل صورة إلى أسلوب فني معين، مثل تحويل صورة حقيقية إلى صورة تبدو وكأنها رسم بأسلوب فنان معين.
كما تفصل هذه الخوارزميات المحتوى عن الأنماط الفنية في الصور المُحمّلة لدمج صورة المستخدم مع الأعمال الفنية المرجعية. ومع أن العملية تبدو غير ضارة، إلا أن #ثغرات_أمنية مثل هجمات عكس النماذج تشكل مخاطر كبيرة، حيث قد يُعيد الخصوم بناء الصور الأصلية من الصور بنمط "غيبلي".
وحذر سالفي من الأمر قائلًا: "حتى لو ادعت الشركات أنها لا تخزن صورك، فقد ينتهي الأمر بأجزاء من بياناتك في أنظمتها. من المؤكد أنه يمكن إعادة استخدام الصور المُحمّلة لأغراض غير مقصودة، مثل تدريب نماذج #الذكاء_الاصطناعي للمراقبة أو الإعلان".
وفي دوره أشار المدير الأول للهندسة في شركة في شركة مكافي، براتيم موخيرجي إلى أن "طريقة تصميم هذه الأدوات تُسهّل التغافل على ما تُوافق عليه بالفعل. وغالبًا ما تخلق النتائج الجذابة، والفلاتر واسع الانتشار على #الإنترنت، والتفاعلات السريعة تجربة تبدو ممتعة وبسيطة، لكنها غالبًا ما تأتي مع مخاطر خصوصية مخفية"، مضيفاً أنه "عندما يُمنح الوصول إلى محتوى شخصي، مثل صور الكاميرا، دون تفكير، فهذا ليس دائمًا أمرًا عرضيًا. غالبًا ما تُصمم هذه المنصات لتشجيع التفاعل السريع بينما تُجمع البيانات بهدوء في الخلفية". وقال إن "هذا هو منبع القلق، حيث يهتم الأشخاص بالنتيجة النهائية الجذابة، فيما يتم تطبيع نمط مشاركة البيانات الذي لا يفهمه المستخدمون كليًا".
ويظل خطر #اختراق_البيانات قائمًا بشكل كبير، وقد حذر الخبراء من أن صور المستخدمين المسروقة قد تُشجع على إنشاء مقاطع فيديو مزيفة بواسطة #الذكاء_الاصطناعي وانتحال الهوية.
إذ قال فلاديسلاف توشكانوف، من مركز أبحاث تكنولوجيا #الذكاء_الاصطناعي في كاسبرسكي، إنه "على الرغم من أن بعض الشركات تضمن سلامة وأمن البيانات التي تجمعها وتخزنها، إلا أن هذا لا يعني أن الحماية مضمونة". وأضاف: "بسبب المشكلات التقنية أو الأنشطة الخبيثة، قد تتسرب البيانات أو تصبح متاحة للعامة أو تُباع على مواقع إلكترونية سرية متخصصة. علاوة على ذلك، يُمكن اختراق الحساب المُستخدم للوصول إلى الخدمة في حال اختراق بيانات الاعتماد أو جهاز المستخدم".
تُخفي العديد من المنصات بنود استخدام البيانات ضمن شروط خدمة مطولة، مما يُصعّب على المستخدمين فهم طريقة التعامل مع بياناتهم. وبمجرد نقر شخص ما على زر "قبول" لا يعني أنه يُعطي موافقة مُستنيرة تمامًا.
ما حث بعض الدول على اتخاذ خطوات لفرض إفصاحاتٍ أكثر وضوحًا، بينما لا يزال البعض الآخر يدرس ذلك. وللتخفيف من هذه المخاطر، يوصي الخبراء المستخدمين بتوخي الحذر عند مشاركة الصور الشخصية مع تطبيقات #الذكاء_الاصطناعي.
0
0
0
0
لتعلق يجب أن تسجل الدخول أولاً
تسجيل دخول