الصين تضع قواعد رائدة لتنظيم البشر الرقميين بالذكاء الاصطناعي وحماية القاصرين

Noqta Team
· بواسطة Noqta Team

جاري تحميل مشغل تحويل النص إلى كلام الصوتي...

اتخذت الصين خطوة رائدة في حوكمة الذكاء الاصطناعي بنشرها مسودة قواعد تستهدف تحديدًا "البشر الرقميين" — وهي شخصيات افتراضية مدعومة بالذكاء الاصطناعي قادرة على إجراء محادثات وبناء علاقات مستمرة وإنتاج محتوى مخصص. نشرت إدارة الفضاء الإلكتروني الصينية (CAC) الإطار التنظيمي المقترح في 3 أبريل 2026، في واحدة من أولى المحاولات عالميًا لتنظيم طبقة التفاعل بين البشر والذكاء الاصطناعي وليس فقط النماذج ذاتها.

أبرز النقاط

  • وسم إلزامي: يجب أن يحمل كل محتوى للبشر الرقميين إشعارًا واضحًا يمكّن المستخدمين من التمييز بين الشخصيات الاصطناعية والأشخاص الحقيقيين
  • حماية القاصرين: حظر صريح للعلاقات الافتراضية الحميمة مع المستخدمين دون 18 عامًا
  • مراقبة الصحة النفسية: يجب على المنصات رصد ومساعدة المستخدمين الذين تظهر عليهم مؤشرات إيذاء النفس أو الأفكار الانتحارية
  • متطلبات الموافقة: لا يمكن إنشاء بشر رقميين باستخدام صورة أو بيانات شخص دون موافقته الصريحة
  • التحقق من الهوية: يُمنع على الشخصيات الافتراضية تجاوز أنظمة التحقق من الهوية

ما هم البشر الرقميون؟

البشر الرقميون هم شخصيات افتراضية مدعومة بالذكاء الاصطناعي تتجاوز روبوتات المحادثة البسيطة. يمكنها الحفاظ على هويات ثابتة وتذكر المحادثات السابقة وتطوير ديناميكيات علاقات مع المستخدمين والظهور كصور رمزية واقعية في البث المباشر وخدمة العملاء والتعليم والترفيه. في الصين، انتشرت هذه الشخصيات الافتراضية عبر بث التجارة الإلكترونية المباشر وتطبيقات الرفقة والمنصات التعليمية.

لماذا هذا مهم؟

على عكس لوائح الذكاء الاصطناعي السابقة التي ركزت على بيانات تدريب النماذج أو توليد المحتوى، تستهدف هذه المسودة العلاقة العاطفية والنفسية بين أنظمة الذكاء الاصطناعي ومستخدميها. تضع إدارة الفضاء الإلكتروني الصينية حدودًا لكيفية تفاعل الذكاء الاصطناعي مع البشر على المستوى الشخصي — وهي جبهة تنظيمية لم تتناولها أي دولة أخرى رسميًا بعد.

يبرز شرط مراقبة الصحة النفسية كأحد أكثر المتطلبات طموحًا. سيُطلب من المنصات التي تنشر بشرًا رقميين رصد علامات الضيق النفسي أو إيذاء النفس لدى المستخدمين والتدخل وفقًا لذلك. وهذا يتجاوز ما تشترطه اللوائح الفيدرالية الأمريكية الحالية من منصات الذكاء الاصطناعي.

التأثير على القطاع

تحمل القواعد المقترحة تداعيات كبيرة على الشركات التي تشغل خدمات رفقة الذكاء الاصطناعي. ستحتاج منصات مثل بايدو وتينسنت، اللتين استثمرتا بكثافة في تقنية البشر الرقميين للبث المباشر والتفاعل مع العملاء، إلى تطبيق طبقات امتثال جديدة.

بالنسبة للشركات الدولية، تشير اللوائح إلى بيئة تنظيمية أكثر صرامة لأي جهة تنشر خدمات رفقة أو صور رمزية ذكاء اصطناعي تستهدف المستخدمين الصينيين. كما تعالج متطلبات الموافقة والتحقق من الهوية المخاوف المتزايدة حول تقنية التزييف العميق.

قيود المحتوى والأمن

إلى جانب حماية المستخدمين، تتضمن المسودة ضوابط محتوى مألوفة: يُحظر على البشر الرقميين إنتاج مواد تهدد الأمن القومي أو تروّج للانفصال أو تحرض على التمييز العرقي أو توزع محتوى جنسيًا أو عنيفًا. يواجه مقدمو الخدمات عبء امتثال مزدوج — متطلبات سلامة الأطفال إلى جانب فحص المحتوى الأيديولوجي.

ما التالي؟

تظل فترة التعليق العام مفتوحة حتى 6 مايو 2026. لم تعلن إدارة الفضاء الإلكتروني عن جدول زمني للإقرار النهائي، ولم تُفصّل المسودة الحالية عقوبات محددة للمخالفات. ومع ذلك، بالنظر إلى سجل الصين في الانتقال السريع من المسودة إلى التطبيق في لوائح الذكاء الاصطناعي، يُتوقع أن تبدأ الشركات الاستعداد للامتثال فورًا.

قد تشكل هذه الخطوة التنظيمية سابقة للدول الأخرى التي تعاني من كيفية حوكمة أنظمة الذكاء الاصطناعي المتزايدة الشبه بالبشر. مع تزايد واقعية البشر الرقميين وقدرتهم على الارتباط العاطفي، يصبح السؤال عن أين نرسم الخط الفاصل بين الذكاء الاصطناعي المفيد والتقنية المتلاعبة سؤالًا ستحتاج كل حكومة للإجابة عنه في نهاية المطاف.


المصدر: US News & World Report


هل تريد قراءة المزيد من الأخبار؟ تحقق من أحدث مقال إخباري لدينا على كلود من Anthropic يكتشف 22 ثغرة في فايرفوكس خلال أسبوعين — 14 منها عالية الخطورة.

ناقش مشروعك معنا

نحن هنا للمساعدة في احتياجات تطوير الويب الخاصة بك. حدد موعدًا لمناقشة مشروعك وكيف يمكننا مساعدتك.

دعنا نجد أفضل الحلول لاحتياجاتك.