GitHub Copilot سيتدرّب على بياناتك افتراضيًا بدءًا من 24 أبريل

أعلنت GitHub عن تغيير جوهري في سياسة استخدام بيانات Copilot: بدءًا من 24 أبريل 2026، ستُستخدم بيانات التفاعل الخاصة بمستخدمي Copilot Free وPro وPro+ لتدريب نماذج الذكاء الاصطناعي وتحسينها بشكل افتراضي. على المطوّرين الراغبين في حماية بياناتهم إلغاء الاشتراك يدويًا قبل الموعد المحدد.
ما الذي سيتغيّر؟
بموجب السياسة المحدّثة، ستجمع GitHub مجموعة واسعة من بيانات التفاعل لاستخدامها في تدريب نماذج الذكاء الاصطناعي، تشمل:
- مخرجات الكود المقبولة أو المعدّلة
- مدخلات الكود والمقاطع البرمجية المرسلة إلى Copilot
- سياق الكود المحيط بموضع المؤشر
- التعليقات والتوثيق
- أسماء الملفات وبنية المستودعات
- أنماط التفاعل مع الميزات
- تقييمات المستخدمين مثل الإعجاب وعدم الإعجاب
صرّح ماريو رودريغيز، كبير مسؤولي المنتجات في GitHub، بأن "البيانات الواقعية تعني نماذج أذكى"، مشيرًا إلى أن بيانات التفاعل من Microsoft أظهرت بالفعل "تحسينات ملموسة، بما في ذلك زيادة معدلات القبول بلغات برمجة متعددة."
من المتأثر؟
يسري التغيير حصريًا على الخطط الفردية:
- Copilot Free — متأثر
- Copilot Pro — متأثر
- Copilot Pro+ — متأثر
- Copilot Business — غير متأثر
- Copilot Enterprise — غير متأثر
هذا يعني أن عملاء المؤسسات يحتفظون بحماية بياناتهم الحالية، بينما يتحمّل المطوّرون الأفراد والمستقلون عبء الإعداد الافتراضي الجديد.
كيفية إلغاء الاشتراك
يمكن للمطوّرين تعطيل جمع البيانات من خلال إعدادات حساب GitHub:
- انتقل إلى الإعدادات (Settings)
- اختر Copilot
- انتقل إلى قسم الخصوصية (Privacy)
- قم بتعطيل خيار "السماح لـ GitHub باستخدام بياناتي لتدريب نماذج الذكاء الاصطناعي"
المستخدمون الذين سبق لهم إلغاء مشاركة البيانات ستُحفظ تفضيلاتهم تلقائيًا.
ردود فعل غاضبة من المطوّرين
أثار الإعلان موجة انتقادات واسعة في مجتمع المطوّرين. على منصة X (تويتر سابقًا)، عبّر المطوّرون عن إحباطهم من نهج إلغاء الاشتراك بدلاً من الموافقة المسبقة.
كتب أحد المعلّقين: "إلغاء الاشتراك ليس موافقة، إنه مجرد حظ سعيد"، مسلّطًا الضوء على مخاوف تتعلق بتفعيل السياسة افتراضيًا. وأشار آخرون إلى التفاوت بين مستخدمي المؤسسات والأفراد: "مستخدمو Enterprise مستثنون. المطوّرون الأفراد هم بيانات التدريب."
كما أثار مناصرو الخصوصية مخاوف بشأن نطاق البيانات المجمّعة، مشيرين إلى أن أسماء الملفات وبنية المستودعات وأنماط التنقل تتجاوز بكثير بيانات إكمال الكود البسيطة.
السياق الأوسع
يأتي هذا التحوّل في ظل تنافس محتدم بين مساعدات البرمجة بالذكاء الاصطناعي على حصة السوق. لكل من Cursor وWindsurf وCline وTabnine سياسات بيانات خاصة بها، وبدأت المقارنات تنتشر بين المطوّرين الذين يقيّمون أي أداة تحترم خصوصيتهم بشكل أفضل.
يعكس القرار أيضًا التوترات الأوسع في صناعة التقنية حول بيانات تدريب الذكاء الاصطناعي. فمع حاجة النماذج إلى مجموعات بيانات أكبر وأكثر تنوعًا للتحسّن، يستمر الخط الفاصل بين تحسين المنتج واستغلال المستخدم في التلاشي.
ما الذي يجب على المطوّرين فعله؟
إذا كنت تستخدم GitHub Copilot على خطة فردية، راجع إعدادات الخصوصية قبل 24 أبريل. عملية إلغاء الاشتراك لا تستغرق أكثر من دقيقة لكنها تتطلب إجراءً فعليًا — عدم القيام بأي شيء يعني أن بيانات تفاعلك ستصبح جزءًا من تدريب النماذج المستقبلية.
بالنسبة للفرق والمؤسسات، تبقى خطط Copilot Business وEnterprise غير متأثرة، لكن هذا التحوّل في السياسة قد يؤثر على قرارات الشراء للشركات التي تقيّم أدوات البرمجة بالذكاء الاصطناعي.
المصدر: GitHub Blog
ناقش مشروعك معنا
نحن هنا للمساعدة في احتياجات تطوير الويب الخاصة بك. حدد موعدًا لمناقشة مشروعك وكيف يمكننا مساعدتك.
دعنا نجد أفضل الحلول لاحتياجاتك.