قرار جديد من OpenAI يخص Chat GPT والمعلومات الطبية

ظهرت في الآونة الأخيرة عادةٌ عند مستخدمي شات جي بي تي Chat GPT يقومون فيها بطرح الأسئلة الطبية وعرض مشاكلهم الصحية على هذا التطبيق، بحيث يرد الأخير عليهم، حتى أن البعض أثنى على معلوماته التي، وبحسب قولهم، ساعدتهم على كشف مشاكل صحية وطبية لم يكونوا على درايةٍ بها.

وكون الأمر دقيقًا جدًا وخطِرًا في الوقت عينه، وفي خطوة مفاجئة ولكنها محسوبة بدقة، أعلنت شركة OpenAI عن تشديد قواعد استخدام نماذجها الذكية، لتضع حدودًا واضحة بين ما يمكن أن يفعله الذكاء الاصطناعي وما يجب أن يبقى حصريًا بيد الإنسان المختص، أي الطبيب.

وبحسب ما تم تداوله، فلن يُسمح للنماذج بتقديم نصائح طبية أو قانونية تفصيلية، إذ سيكتفي شات جي بي تي بتقديم معلومات عامة وتوجيه المستخدمين نحو استشارة خبراء حقيقيين.

اقرئي ايضًا:مواصفات ايفون 17: نقلة جديدة في عالم الهواتف الذكية!

أما الهدف من هذا الأمر، فهو تقليل الأخطاء وحماية الناس من الاعتماد الكامل على النصائح الرقمية في مجالات تمسّ حياتهم وصحتهم مباشرة، بحيث سيتم منع النماذج أولًا من تحليل الصور الطبية.

اقرئي ايضًا:خبر يهزّ عالم التوظيف الرقمي ويهدد تطبيق Linkedin

اكتب الكلمات الرئيسية في البحث