وفي هذا السياق، يقدم خبراء الأمن الرقمي قائمة من عشرة أسرار أساسية ينصح بعدم مشاركتها مع منصات الذكاء الصناعي، سواء كانت عامة أو متقدمة:
1- المعلومات البنكية والمالية
لماذا الخطر: أرقام البطاقات، أرقام الحسابات، رموز CVV، كلمات المرور، ورموز المصادقة ذات العاملين (OTP) تمكّن المهاجم مباشرة من سحب أموال أو تنفيذ عمليات احتيال. حتى لو لم تُستخدم المعلومات فوراً، يمكن تخزينها أو تسريبها لاحقاً أو ربطها ببيانات أخرى لتمثيلك مالياً.
أمثلة: حوادث تسريب بيانات بطاقات الائتمان متكررة عبر أطراف ثالثة؛ المعايير الأمنية مثل PCI DSS وُضعت تحديدا لحماية بيانات حامل البطاقة وتحدد ما يجب فعله لتخزين أو معالجة هذه البيانات بأمان.
ماذا تفعل عمليا:
- لا تدخل أرقام البطاقات أو رموز OTP أو باسوردات المصرفية في محادثات مع نماذج عامة.
- استخدم قنوات البنك الرسمية المشفرة (موقع البنك أو تطبيقه) للتعاملات المالية.
- فعّل مراقبة النشاط والتنبيهات وغيّر كلمات المرور فورا عند أي اشتباه.
- عند الحاجة لمشاركة تفاصيل مالية في سياق عمل صحفي أو تحقيق، اطلب من المصدر إرسال المستندات عبر قنوات مشفرة أو عبر اتفاقية تبادل معلومات محددة.
2- البيانات الطبية الحساسة
لماذا الخطر: هذه معلومات شخصية للغاية وقد تؤثر على التأمين، فرص العمل، أو تتسبب في وصم اجتماعي. في أنظمة تشريعية (مثل الولايات المتحدة) تُصنَّف هذه المعلومات كـPHI وتخضع لقواعد صارمة (HIPAA) عندما تتعامل جهات مؤهلة. التعامل مع أدوات ذكاء اصطناعي استهلاكية قد لا يوفر الضمانات القانونية أو التقنية نفسها.
نقاط دقيقة: إدخال بيانات المرضى إلى خدمة خارجية قد يجعل جهة تقديم الخدمة مسؤولة قانونيا إذا لم تكن هناك حماية تعاقدية (BAA) أو تدابير أمنية مناسبة؛ من ناحية أخرى يمكن للذكاء الاصطناعي أن يكون متوافقا مع المعايير إذا نُفِّذ بعقود مناسبة وضوابط تقنية.
ماذا تفعل عمليا:
- لا تضع معلومات مرضية حقيقية في مراسلات مع نماذج استهلاكية.
- إذا كان لا بد من استخدام أدوات AI في بيئة طبية، اطلب عقود Business Associate Agreement أو حلولا مخصصة للمؤسسات تضمن عدم استخدام البيانات لتدريب النماذج العامة.
- أنشئ بيانات مفصّلة مموهة (de-identified) كلما أمكن لأغراض تحليلية.
3- المراسلات الخاصة
لماذا الخطر: نسخ/لصق محادثات داخلية في محادثة مع نموذج يمكن أن يكشف استراتيجيات، معلومات حسّاسة عن مصادر، أو بيانات شخصية للآخرين. النماذج قد تحتفظ بسجلات هذه المحتويات أو تُستخدم لتحسين المنتج.
ماذا قد يحدث: تسريب محادثة عملية يكشف عن مصدر أو جلسة تحقيق أو يغير توازن مفاوضات. كذلك، مدخلات تحتوي أسماء أشخاص يمكن أن تؤدي إلى تعريضهم للخطر في سياقات حساسة.
ماذا تفعل عمليا:
- لا تضع نصوص محادثات كاملة في أدوات عامة. استخدم ملخصا مموها أو استخرج نقاطا عامة لا تتضمن أسماء أو تفاصيل تعريفية.
- عند حفظ محادثات داخل المؤسسة، استخدم أدوات مشفرة وبسياسات حفظ واحتفاظ واضحة.
4- الصور الشخصية والعائلية
لماذا الخطر:
الصور يمكن استخدامها لصناعة deepfakes، لتزوير هوية، أو لمقارنة الوجه مع قواعد بيانات والتعرف على هوية الأشخاص. كما تحتوي بعض الصور على بيانات ميتاداتا (EXIF) تكشف الموقع والتاريخ. تهديدات deepfake أثارت قلق هيئات دولية حول تأثيرها على الهوية والاحتيال.
نصائح عملية:
- لا ترفع صور أشخاص (خصوصا الأطفال أو ضحايا) إلى أدوات عامة.
- احذف أو طمِس معلومات EXIF قبل مشاركة أي صورة.
- استخدم أدوات مخصصة للتحقق من الأصالة أو لطلب إذن صريح من المعنيين قبل أي مشاركة.
5- الملفات القانونية والوثائق الرسمية
لماذا الخطر:
نسخ جواز السفر أو بطاقة الهوية يمكن أن تُستغل لسرقة هوية، فتح حسابات بنكية، أو تزوير وثائق. معالجة هذه الملفات عبر خدمات غير مضمونة تعرّضك لمسائل قانونية وأمنية.
ماذا تفعل عمليا:
- لا ترفع مسودات عقود أو وثائق هوية إلى نماذج استهلاكية.
- لو احتجت مساعدة تقنية على نص قانوني (تحرير/تدقيق) استعمل نسخا محوَّرة أو محرَّفة تحجب الأسماء والأرقام.
- اعتمد قنوات تبادل آمنة للوثائق الرسمية وتأكد من سياسة الحفظ لدى المزود.
6- الأسرار المهنية والتجارية
لماذا الخطر:
هذه معلومات تشكل قيمة تجارية جوهرية. مشاركة استراتيجية أو بيانات عملاء مع نموذج عام قد تُنتَج عنه تسريبات أو أنماط استنباطية يسيء المنافسون استغلالها. حالات احتجاج على استخدام الذكاء الاصطناعي لتوليد أو نسخ شيفرات ومواد محمية ظهرت خلال السنوات الأخيرة، مما أبرز قضايا الملكية والخصوصية.
ماذا تفعل عمليا:
- للحفاظ على أسرار العمل استعمل حلول AI للمؤسسات التي تمنح خيارات عدم استخدام البيانات للتدريب (data processing agreements) أو عقود عدم الاحتفاظ.
- قيِّم وضعك القانوني للبيانات قبل تحميل أي ملفات حساسة على خدمات طرف ثالث.
7- المواقع الجغرافية الدقيقة
لماذا الخطر:
الإفصاح عن عنوان السكن، الأماكن التي تتردد عليها أو جداولك اليومية يعرضك للخطر (تزوير، مطاردة، اقتحام عند السفر). الصور أو ملفات الوسائط قد تكشف المواقع تلقائيا عبر EXIF.
نصيحة عملية:
- لا تشارك عناوينك أو خططك الزمنية عبر واجهات عامة.
- عند مشاركة لقطات من ميدانيات صحفية، احذف معلومات الموقع إذا كانت حساسة.
8- المعتقدات والآراء الشخصية الحساسة
لماذا الخطر:
تجميع وتحليل هذه المعطيات يمكن أن يؤدي إلى استهداف سياسي أو اجتماعي أو مهني، خصوصا في سياقات دستورها أضعف أو قد تعاقب على التعبير. كما يمكن استخدامها لبناء ملفات تعريفية (profiling) واستهداف إعلاني أو حملات تلاعب. حالات استغلال بيانات المستخدم للميكروتارجتنج أثبتت إمكانية تأثيرها على السلوك العام.
ماذا تفعل عمليا:
- تحاشَ مشاركة اعتقادات أو انتماءات حساسة مع أدوات قد تُخزّن بياناتك.
- إذا كانت الحاجة مهنية (بحوث، تقارير) استخدم عينات مجمعة ومموهة.
9- خطط السفر والتنقل
لماذا الخطر: الإعلان المسبق عن أن بيتك خالٍ أو عن موعد سفرك يوفر فرصة للمحتالين واللصوص. مشاركة هذه المعلومات مع نماذج يمكن أن تُنشر أو تُحلّل لاحقا.نصيحة عملية:
- لا تنشر خطط سفر علنا قبل انتهاء الرحلة.
- استخدم إعدادات الخصوصية في منصات الحجز وفعّل إشعارات النشاط غير المعتاد في حساباتك.
10- الأسرار العائلية والعلاقات الخاصة
لماذا الخطر:
معلومات حساسة عن أفراد العائلة أو علاقات خاصة قد تُستغل للضغط أو الابتزاز أو لإحداث أضرار نفسية واجتماعية. مشاركة مثل هذه المعلومات مع نظم قد تحتفظ بها أو تعيد توليد نصوص مشابهة في سياقات أخرى خطرة.
ماذا تفعل عمليا:
- احتفظ بهذه المعطيات خارج أدوات الذكاء الاصطناعي العامة.
- إن اضطررت لاستخدام أداة لغوية لمعالجة نص متعلق بحالة عائلية، فاعمل على إخفاء الأسماء والتفاصيل التعريفية.
خلاصة:
يشدد الخبراء على أن الذكاء الصناعي ليس كيانا مستقلا بقدر ما هو شبكة من البرمجيات والخوادم التي تُدار من قبل شركات. وبالتالي، فإن أي معلومة تُقدم له تظل قابلة للتخزين والمعالجة، وربما إعادة الاستخدام في سياقات غير متوقعة.
في النهاية، يبقى الذكاء الصناعي أداة قوية ومفيدة، لكن التعامل معه يجب أن يكون مصحوبا بالوعي والحذر. فالتكنولوجيا تمنحنا الكثير، لكنها في الوقت ذاته تفرض علينا مسؤولية حماية خصوصيتنا وأسرارنا.




