Home اقتصاد يستخدم واحد من كل خمسة أطباء عامين الذكاء الاصطناعي مثل ChatGPT للمهام اليومية ونتائج الاستطلاع | الأطباء العامين

يستخدم واحد من كل خمسة أطباء عامين الذكاء الاصطناعي مثل ChatGPT للمهام اليومية ونتائج الاستطلاع | الأطباء العامين

0
يستخدم واحد من كل خمسة أطباء عامين الذكاء الاصطناعي مثل ChatGPT للمهام اليومية ونتائج الاستطلاع | الأطباء العامين

وفقًا لأحد الاستطلاعات، يستخدم واحد من كل خمسة أطباء عموميين أدوات الذكاء الاصطناعي (AI) مثل ChatGPD لمساعدة مرضاهم في مهام مثل كتابة الرسائل.

ال التعدادنُشرت في مجلة BMJ Health and Care Informatics، وتم التحدث إلى 1006 طبيب عام. وقد سُئلوا عما إذا كانوا قد استخدموا من قبل روبوت محادثة يعمل بالذكاء الاصطناعي مثل ChatGBT أو Bing AI أو Gemini من Google في ممارستهم السريرية، ثم سئلوا عن الغرض الذي استخدموا فيه هذه الأدوات.

قال واحد من كل خمسة مشاركين إنهم استخدموا أدوات الذكاء الاصطناعي التوليدية في ممارساتهم السريرية، بما في ذلك ما يقرب من الثلث (29%) الذين قالوا إنهم استخدموها لإنشاء مستندات بعد مقابلة المريض (28%). الأدوات المستخدمة لاقتراح التشخيص التفريقي.

قال ربع المشاركين إنهم استخدموا أدوات الذكاء الاصطناعي للتوصية بخيارات العلاج لمرضاهم. تعمل أدوات الذكاء الاصطناعي هذه مثل ChatGPT من خلال إنشاء رد مكتوب على سؤال يتم طرحه في البرنامج.

وقال الباحثون إن النتائج تظهر أن “الأطباء العموميين يمكنهم استخلاص قيمة من هذه الأدوات، خاصة من المهام الإدارية ودعم التفكير السريري”.

ومع ذلك، تساءل الباحثون عما إذا كانت أدوات الذكاء الاصطناعي هذه يمكن أن تضر وتقوض خصوصية المريض “لأنه ليس من الواضح كيف تستخدم شركات الإنترنت التي تقف وراء الذكاء الاصطناعي المعلومات التي تجمعها”.

وأضافوا: “بينما أصبحت روبوتات الدردشة هذه هدفًا متزايدًا للجهود التنظيمية، فمن غير الواضح كيف سيتفاعل القانون مع هذه الأدوات في الممارسة السريرية بطريقة عملية”.

وقال الدكتور إيلي ماين، المستشار الطبي القانوني لجمعية الحماية الطبية، إن استخدام الأطباء العامين للذكاء الاصطناعي يمكن أن يثير قضايا بما في ذلك عدم الدقة وسرية المريض.

وقال مين: “هذا بحث مثير للاهتمام ويتوافق مع تجربتنا الخاصة في تقديم المشورة لأعضاء MDU”. “من الطبيعي أن يرغب متخصصو الرعاية الصحية في إيجاد طرق للتعامل بشكل أفضل مع الضغوط التي يواجهونها. إلى جانب التطبيقات المحددة في ورقة BMJ، وجدنا أن بعض الأطباء يتجهون إلى برامج الذكاء الاصطناعي لمساعدتهم على صياغة ردود على الشكاوى. لقد حذرنا أعضاء MDU بشأن المشكلات التي يثيرها هذا الأمر، بما في ذلك عدم الدقة وسرية المريض. وهناك أيضًا اعتبارات تتعلق بحماية البيانات.

وأضاف: “عند التعامل مع شكاوى المرضى، قد تبدو مسودة ردود الذكاء الاصطناعي معقولة، ولكنها قد تكون غير دقيقة وتحتوي على إرشادات مضللة يصعب تمييزها إذا كانت مضمنة في فقرات نصية مطولة. ومن الضروري أن يستخدم الأطباء الذكاء الاصطناعي بطريقة أخلاقية”. والالتزام بالمبادئ التوجيهية واللوائح ذات الصلة من الواضح أن هذا مجال متنامي ونحن نتفق مع المؤلفين على أن الأطباء الحاليين والمستقبليين يحتاجون إلى وعي أكبر بفوائد ومخاطر استخدام الذكاء الاصطناعي في العمل.

LEAVE A REPLY

Please enter your comment!
Please enter your name here