كتب\هشام الفخراني
طلبت مجموعة أخلاقيات تقنية تركز على الذكاء الاصطناعي لجنة التجارة الفيدرالية للتحقيق في OpenAI لانتهاكها قواعد حماية المستهلك، بحجة أن طرح المنظمة لأدوات إنشاء نصوص الذكاء الاصطناعي كان “متحيزًا ومخادعًا ويشكل خطرًا على السلامة العامة”.
ووفقا لما ذكره موقع The Verge، قدمت مركز الذكاء الاصطناعي والسياسة الرقمية (قدمت CAIDP) شكواها بعد نشر رسالة مفتوحة تدعو إلى التوقف مؤقتًا عن تجارب الذكاء الاصطناعي التوليدية الكبيرة.
وكان رئيس CAIDP مارك روتنبرج أحد الموقعين على الرسالة، إلى جانب عدد من باحثي الذكاء الاصطناعي والمؤسس المشارك لـOpenAI إيلون ماسك، حيث تدعو الشكوى إلى إبطاء تطوير نماذج الذكاء الاصطناعي التوليدية وتنفيذ إشراف حكومي أكثر صرامة.
كما تشمل طرقًا يمكن أن ينتج عنها GPT-4 شفرة ضارة ودعاية مصممة للغاية بالإضافة إلى الطرق التي يمكن أن تؤدي بها بيانات التدريب المتحيزة إلى قوالب نمطية مخبأة وتفضيلات النوع الاجتماعي في أشياء مثل التوظيف.
وتشير أيضًا إلى إخفاقات كبيرة في الخصوصية في واجهة منتج OpenAI مثل الخطأ الأخير الذي كشف تاريخ OpenAI ChatGPT وربما تفاصيل الدفع للمستخدمين الآخرين، وذكرت الشكوى “أصدرت OpenAI GPT-4 للجمهور للاستخدام التجاري مع معرفة كاملة بها المخاطر”.
لاحظت شركة OpenAI بشكل علني التهديدات المحتملة من إنشاء نصوص الذكاء الاصطناعى، لكن CAIDP يجادل بأن GPT-4 يتجاوز خط ضرر المستهلك الذي يجب أن يؤدي إلى اتخاذ إجراءات تنظيمية.
وتسعى إلى تحميل شركة OpenAI المسؤولية عن انتهاك المادة 5 من قانون FTC، الذي يحظر الممارسات التجارية غير العادلة والمضللة.
كما أنه يعرّف هلوسة الذكاء الاصطناعي، أو ظاهرة النماذج التوليدية التي تختلق بثقة حقائق غير موجودة، كشكل من أشكال الخداع.
في الشكوى ، يطلب CAIDP من FTC وقف أى نشر تجاري إضافي لنماذج GPT ويتطلب تقييمات مستقلة للنماذج قبل أي طرح مستقبلى.
كما تطالب بأداة إبلاغ يمكن الوصول إليها للجمهور مماثلة لتلك التي تسمح للمستهلكين بتقديم شكاوى احتيال، وتسعى إلى وضع قواعد صارمة بشأن قواعد FTC لأنظمة الذكاء الاصطناعي التوليدية، بناءً على بحث وتقييم مستمر للوكالة ولكن لا يزال غير رسمي نسبيًا لأدوات الذكاء الاصطناعى.