الذكاء الإصطناعىتنبيهات أمنيةشروحات
أخر الأخبار

صور الذكاء الاصطناعي تجتاح الإنترنت.. لكن ما الثمن الخفي وراء التسلية؟

صور الذكاء الاصطناعي.. هل تستحق متعة اللحظة كل ما قد نخسره؟عليك الإنتباه الأن

ستجد فى هذا المقال

صور الذكاء الاصطناعي تجتاح الإنترنت.. لكن ما الثمن الخفي وراء التسلية؟

صور الذكاء الاصطناعي تجتاح الإنترنت.. لكن ما الثمن الخفي وراء التسلية؟
صور الذكاء الاصطناعي تجتاح الإنترنت.. لكن ما الثمن الخفي وراء التسلية؟

 

صور الذكاء الاصطناعي تجتاح الإنترنت.. لكن ما الثمن الخفي وراء التسلية؟

صيحات الذكاء الاصطناعي البصرية.. تسلية عابرة أم استغلال رقمي؟

بعد الزخم الواسع الذي أثارته موضة تحويل الصور بأسلوب “استوديو جيبلي” (Studio Ghibli) في نهاية مارس الماضي، والتي اجتاحت منصات التواصل الاجتماعي، واصلت أدوات الذكاء الاصطناعي التوليدي – وعلى رأسها ChatGPT – البحث عن طرق جديدة لجذب المستخدمين، لكن هذه المرة عبر أسلوب أكثر شخصية وارتباطًا بالهوية البصرية.

الصيحة الجديدة التي أُطلق عليها اسم “AI doll” أو ما يُعرف بـ “Barbie Box Trend”، تدعو المستخدمين إلى تحميل صورهم الشخصية ليتم تحويلها إلى شخصيات رقمية داخل صناديق ألعاب مصغّرة، تُشبه دمى “باربي” أو شخصيات الأكشن المصورة، مع إضافة عناصر وإكسسوارات تعكس طبيعة عملهم أو اهتماماتهم الخاصة.

آلية هذه الترندات الرقمية أصبحت مألوفة وتكاد تكون مكرّرة: يرفع المستخدم صورة شخصية إلى الأداة أو التطبيق، يضيف بعض الأوامر التوجيهية، لتبدأ عملية التحويل الفني التي تخرج في النهاية بنتيجة مبهرة بصريًا، يكون الهدف منها غالبًا هو مشاركتها على وسائل التواصل الاجتماعي بهدف جذب التفاعل واللايكات.

لكن وسط هذا الانبهار اللحظي، يبقى السؤال الأهم: ما الثمن الحقيقي الذي ندفعه مقابل هذه التسلية البصرية؟ وهل نعي فعلاً كيف تُستخدم بياناتنا وصورنا في خلفية هذه التطبيقات؟

خدعة الخصوصية.. موافقة بلا وعي

في خضم الحماس الطاغي حول صيحات توليد الصور بالذكاء الاصطناعي – سواء بصيغة دمى الـ AI Doll أو بصيغة استوديو جيبلي – وجدت شركات مثل OpenAI وxAI فرصة ذهبية لتغذية أنظمتها بكميات ضخمة من البيانات البصرية الشخصية، دون الحاجة إلى بذل مجهود يُذكر لجمعها.

وما يثير الدهشة حقًا، أن شريحة كبيرة من المشاركين في هذه الصيحات ربما لم يسبق لهم استخدام أدوات الذكاء الاصطناعي من قبل، ما يشير إلى أن الدافع الحقيقي لم يكن تكنولوجيًا، بل كان بدافع الاندماج في موجة التفاعل والانتشار السريع عبر منصات التواصل الاجتماعي. الأمر الذي ازداد قلقًا عندما بدأ الكثير من الآباء يشاركون صور أطفالهم ضمن هذه الاتجاهات، من دون إدراك كامل للعواقب.

العديد من المستخدمين قد ينظرون إلى عملية تحميل صورة شخصية في هذه التطبيقات بنفس البساطة التي ينظرون بها إلى نشر صورة على إنستاجرام أو فيسبوك. كما أن معرفة أن النماذج اللغوية الكبرى تجمع بيانات من الإنترنت مسبقًا، قد يجعلهم يشعرون بأن لا ضرر يُذكر من مساهمتهم الشخصية.

لكن الخطورة تكمن في التفاصيل الصغيرة غير المرئية. فحين تقوم بتحميل صورتك طوعًا على تطبيق يستخدم الذكاء الاصطناعي لتوليد صور، فإنك – من حيث لا تدري – تمنح مزوّد الخدمة إذنًا قانونيًا مباشرًا باستخدام وجهك وبياناتك البيومترية المستخلصة منه لأغراض أبعد بكثير من مجرد إنشاء الصورة الظريفة التي كنت تتطلع إليها.

تلك الصور قد تُستخدم لاحقًا في تدريب نماذج ذكاء اصطناعي جديدة، أو قد تُباع كجزء من قواعد بيانات لأغراض تسويقية، تحليلية، أو حتى أمنية، وكل ذلك بناءً على بنود خدمة طويلة ومعقدة غالبًا ما يوافق عليها المستخدم دون قراءتها بتأنٍ.

وقد حذرت لويزا جاروفسكي، المؤسسة المشاركة لأكاديمية الذكاء الاصطناعي والتكنولوجيا والخصوصية، من هذه الظاهرة، مؤكدة أن المشاركة الطوعية في هذه الصيحات تمنح شركات الذكاء الاصطناعي، مثل OpenAI، موافقة صريحة على معالجة واستغلال هذه البيانات الشخصية. وتقول إن هذه الموافقة تتجاوز الحماية التي توفرها اللائحة العامة لحماية البيانات (GDPR) تحت بند “المصالح المشروعة”، ما يُفسح المجال قانونيًا لاستخدام الصور بطرق لم يتخيلها المستخدمون قط.

البيانات ثمينة.. والصورة مجرد مدخل

وقد وصفت لويزا جاروفسكي هذا التوجه بأنه “خدعة خصوصية ذكية”، أتاحت لشركات الذكاء الاصطناعي فرصة نادرة لجمع كمٍّ هائل من الصور الحديثة والمعلومات المرافقة لها، لاستخدامها في تدريب نماذجها وتطويرها، وربما في أغراض أخرى غير معلنة ولا تخضع للرقابة الشفافة.

ويبدو أن النجاح الساحق الذي حققته صيحة توليد الصور بأسلوب “جيبلي”، فتح شهية تلك الشركات للذهاب إلى أبعد من ذلك. ففي حين كانت الصيحات السابقة تقتصر على رفع صورة واحدة فقط، جاءت موضة دمى الذكاء الاصطناعي (AI Doll) لترفع سقف البيانات المطلوبة. فالمستخدم لم يعد يكتفي بمشاركة صورته، بل يُطلب منه أيضًا إدخال تفاصيل شخصية إضافية تتعلق بمجال عمله، واهتماماته، وحتى طموحاته أحيانًا، بحجة تحسين دقة التوليد البصري.

وبذلك، لم تعد الصورة فقط هي المنتج، بل أصبحت مجرد بوابة عبور إلى كمٍّ ضخم من البيانات الشخصية التي تُمنح بسهولة – ودون مقابل – إلى أنظمة الذكاء الاصطناعي، ما يعزز من قوتها، ودقتها، وقدرتها على الفهم والسوق والاستهداف في المستقبل.

 

شخصيتك الرقمية.. مدخلٌ جديد لكشف ذاتك الحقيقية

لإنشاء نسخة رقمية متحركة دقيقة منك بأسلوب “دمى الذكاء الاصطناعي”، لم يعد يكفي فقط تحميل صورة شخصية، بل أصبحت العملية تتطلب مشاركة معلومات وصفية مفصلة، تشمل طبيعة عملك، واهتماماتك الشخصية، وهواياتك خارج نطاق الوظيفة، وأي سمات ترغب في إظهارها على شخصيتك الرقمية. فكلما زادت التفاصيل المقدمة، زادت دقة الصورة الناتجة وتطابقها مع ملامحك الحقيقية وحياتك الواقعية.

وهنا، لا تقتصر الإشكالية على منح إذن باستخدام صورة وجهك، بل تتوسع لتشمل تزويد أنظمة الذكاء الاصطناعي ببيانات شخصية غنية وسياقية لا يمكن لها – في معظم الحالات – جمعها بشكل تلقائي أو استنتاجها من مصادر عامة.

ويحذر إيمون ماغواير، رئيس قسم أمن الحسابات في شركة Proton، من أن هذه المشاركة الواسعة للمعلومات الشخصية قد تكون بمثابة “فتح صندوق باندورا”، بما يحمله من عواقب مجهولة يصعب التنبؤ بها في الوقت الحالي.

فالخطر الحقيقي لا يكمن فقط في جمع البيانات، بل في فقدان السيطرة الكاملة على كيفية استخدامها لاحقًا. إذ يمكن أن تُستغل هذه المعلومات في تدريب نماذج لغوية جديدة، أو توليد محتوى مخصص، أو توجيه إعلانات أكثر دقة وتأثيرًا، أو حتى في سيناريوهات غير معلنة، دون أن يكون للمستخدم أي سلطة على هذه الاستخدامات أو حتى علم بها.

تحذير ماغواير من التداعيات بعيدة المدى:

أوضح الخبير الأمني ماغواير الأبعاد الخطيرة لاستغلال المعلومات الشخصية بواسطة نماذج اللغة الكبيرة مثل ChatGPT، مشددًا على أن “الملفات التعريفية والسلوكية المعمقة التي تستطيع هذه الأدوات إنتاجها، بناءً على تحليل البيانات المتاحة، قد تترتب عليها آثار جوهرية في مسارات حياة الأفراد. تشمل هذه الآثار مجالات حساسة مثل: معايير التغطية التأمينية، وشروط منح القروض، وتطبيقات المراقبة المختلفة، وعمليات التحليل السلوكي الشاملة، وجمع المعلومات الاستخباراتية، وصولًا إلى احتمالية شن هجمات سيبرانية مُوجهة بدقة عالية.”

تجاوز الخصوصية إلى التهديدات الأمنية:

بينما تمثل إشكالية الخصوصية المتعلقة بممارسات شركات رائدة في مجال الذكاء الاصطناعي، مثل OpenAI وجوجل ومايكروسوفت وإكس، في التعامل مع هذه البيانات واستخدامها أو احتمال إساءة استخدامها جانبًا مهمًا من المشهد، فإن التحدي يتجاوز ذلك ليلامس الأمن السيبراني. فالكميات الهائلة من البيانات الشخصية التي تجمعها هذه الأدوات ستجعلها حتمًا أهدافًا بالغة الجاذبية للمجرمين الإلكترونيين. وما يثير القلق بشكل خاص هو أن سجل شركات الذكاء الاصطناعي في مجال تأمين بيانات المستخدمين لا يرقى إلى المستوى المطلوب.

حوادث الاختراق كشواهد مقلقة:

في هذا السياق، استشهد ماغواير بحادثتين بارزتين تدللان على هشاشة الوضع الأمني: الأولى، واقعة شركة DeepSeek التي أدت إلى انكشاف قاعدة بيانات مستخدميها للعامة عبر الإنترنت. والثانية، الحادث الأمني الذي طال إحدى المكتبات البرمجية التي استخدمتها OpenAI، والذي نتج عنه تسرب بيانات مستخدمين حساسة تضمنت أسماءهم، وعناوين بريدهم الإلكتروني، وتفاصيل بطاقاتهم الائتمانية.

تحول المخاطر إلى تهديدات فعلية:

في ضوء هذه الثغرات الأمنية، يصبح استغلال القراصنة للصور والمعلومات الشخصية أمرًا واردًا لأغراض خبيثة متعددة. تتضمن هذه الأغراض نشر الدعاية السياسية المضللة، وتنفيذ عمليات سرقة الهوية، والاحتيال المالي المنظم، وعمليات الاحتيال الإلكتروني المتطورة. وبذلك، تتجاوز هذه المخاوف نطاق مخاطر الخصوصية لتتحول إلى تهديدات أمنية حقيقية تستدعي يقظة وتدابير احترازية فعالة.

0

تقييم المستخدمون: كن أول المصوتون !

اظهر المزيد

Mahmoud Ezz

محمود عز مهندس شبكات ومدون ومقدم محتوى مهتم بالتقنية بشكل عام والتنبيهات الأمنية وتوعية المجتمع ونشر اساليب الأمن السيبرانى كى يعم الأمن الإلكترونى على مجتمعنا العربى #محمودعز Be Your self Ever

مقالات ذات صلة

0 0 votes
Article Rating
Subscribe
نبّهني عن
guest

0 تعليقات
Oldest
Newest Most Voted
Inline Feedbacks
View all comments
زر الذهاب إلى الأعلى
0
Would love your thoughts, please comment.x
()
x

ستجد فى هذا المقال

Index