تكنولوجيا
في خطوة مهمة، سيبدأ Reddit في الأسابيع المقبلة تقييد الوصول إلى بياناته العامة لمعظم الروبوتات.
سيتطلّب ذلك من الشركات والباحثين الذين يرغبون في استخدام محتوى Reddit لتدريب نماذجهم أو لأغراض تجارية أخرى، الدخول في اتفاقية ترخيص رسمية، مثلما فعلت بالفعل شركات مثل Google وOpenAI.
على الرغم من وجود هذه السياسة على Reddit منذ فترة، فإن الشركة الآن تطبقها بشكل أكثر صرامة من خلال تحديث ملف "robots.txt" الخاص بها.
يُعد ملف robots.txt أمرا أساسيا على الويب، إذ يحدد كيفية تفاعل برامج زحف الويب مع موقع معين. وكبير المسؤولين القانونيين في Reddit، بن لي، يوضح أن كلمة "السماح" في ملف "robots.txt" لا تعني الوصول غير المشروع للبيانات.
وملف "robots.txt" يستخدم لتحكم زيارة محركات البحث لمواقع الويب منذ بداية الويب، ويعد "الملف النصي الذي يدير الإنترنت".
تغيّرت الأمور مع ظهور شركات الذكاء الاصطناعي، إذ بدأت هذه الشركات استهلاك كميات هائلة من البيانات من كل مواقع الإنترنت لتدريب نماذجها، وأدى ذلك إلى مخاوف متزايدة بشأن خصوصية البيانات وسوء استخدام المحتوى.
ويُمثل تقييد Reddit للوصول إلى بياناته خطوة مهمة نحو معالجة هذه المخاوف، وهذا من خلال مطالبة الشركات والباحثين بالحصول على ترخيص رسمي، يمكن لـ Reddit التأكد من استخدام بياناتها بشكل مسؤول وأخلاقي.
© 2025 blinx. جميع الحقوق محفوظة