تعرضت شركة OpenAI لما يبدو أنه أول دعوى تشهير بسبب معلومات خاطئة تم إنشاؤها بواسطة ChatGPT، حيث يقاضى المضيف الإذاعى فى جورجيا، مارك والترز، الشركة بعد أن ذكر روبوت الدردشة الخاص بها ChatGPT أنه قد اتُهم بالاحتيال واختلاس أموال من منظمة غير ربحية.
و قام النظام بإنشاء المعلومات استجابة لطلب من طرف ثالث، وهو صحفي يدعى فريد رييل، و تم رفع قضية والترز في الخامس من يونيو في المحكمة العليا في مقاطعة جوينيت بجورجيا وهو يسعى للحصول على تعويضات مالية غير محددة من شركة OpenAI.
وتعد القضية جديرة بالملاحظة نظرًا للشكاوى المنتشرة حول المعلومات الخاطئة التي تم إنشاؤها بواسطة ChatGPT وروبوتات الدردشة الأخرى، ولا تملك هذه الأنظمة طريقة موثوقة للتمييز بين الحقيقة والخيال، وعندما يُطلب منها معلومات، خاصة إذا طُلب منها تأكيد شيء يقترح السائل أنه صحيح، فإنها كثيرًا ما تخترع التواريخ والحقائق والأرقام.
ولا تفعل هذه التلفيقات سوى تضليل المستخدمين أو إضاعة وقتهم، ولكن بدأت تظهر حالات لمثل هذه الأخطاء تسبب الضرر، ومن بين هؤلاء محامي يواجه عقوبات محتملة بعد استخدام ChatGPT للبحث في قضايا قانونية مزيفة.
ويتضمن OpenAI إخلاء مسؤوليةعلى الصفحة الرئيسية لـ ChatGPT يحذر من أن النظام "قد ينتج أحيانًا معلومات غير صحيحة" ، لكن الشركة تقدم أيضًا ChatGPT كمصدر للبيانات الموثوقة، واصفة النظام في نسخة الإعلان على أنه وسيلة "للحصول على إجابات" و "تعلم شيء جديد. " قال الرئيس التنفيذي لشركة OpenAI ، Sam Altman ، في مناسبات عديدة، إنه يفضل تعلم معلومات جديدة من ChatGPT بدلاً من الكتب.
تحمي المادة 230، في الولايات المتحدة، شركات الإنترنت من المسؤولية القانونية عن المعلومات التي ينتجها طرف ثالث وتستضيفها على منصاتها، ومن غير المعروف ما إذا كانت وسائل الحماية هذه تنطبق على أنظمة الذكاء الاصطناعي، والتي لا ترتبط ببساطة بمصادر البيانات ولكنها تنشئ المعلومات من جديد، وهي عملية تؤدي أيضًا إلى إنشاء بيانات خاطئة.
تم أضافة تعليقك سوف يظهر بعد المراجعة