تقنية

“جوجل” تحذف ملخصات صحية بالذكاء الاصطناعي بعد تحذيرات من معلومات مضللة وخطيرة

الترند العربي – متابعات

في خطوة احترازية أثارت اهتمام الأوساط الطبية والتقنية، أقدمت شركة “غوغل” على إزالة عدد من ملخصات المعلومات الصحية التي يولدها الذكاء الاصطناعي من نتائج البحث، بعد مخاوف من احتوائها على بيانات غير دقيقة قد تُربك المستخدمين وتؤثر على قراراتهم الصحية.

وتعتمد هذه الملخصات، المعروفة باسم “AI Overviews”، على تقنيات الذكاء الاصطناعي التوليدي لتقديم إجابات سريعة ومختصرة أعلى نتائج البحث، وهي ميزة تقول غوغل إنها “مفيدة” و”موثوقة” في مساعدة المستخدمين على الوصول السريع إلى المعلومات.

تحقيق يكشف خللًا مقلقًا
غير أن تحقيقًا صحفيًا كشف أن بعض هذه الملخصات الصحية قدّمت معلومات غير دقيقة، خاصة في ما يتعلق بفحوصات طبية حساسة، وهو ما قد يعرّض المستخدمين لمخاطر صحية حقيقية، وفق ما نقلته صحيفة “غارديان”.

ووصف خبراء بعض الحالات بأنها “خطيرة” و”مقلقة”، بعدما قدّمت غوغل معلومات مغلوطة حول اختبارات أساسية لوظائف الكبد، ما قد يدفع أشخاصًا يعانون من أمراض كبدية خطيرة إلى الاعتقاد خطأً بأن نتائجهم طبيعية ولا تستدعي القلق.

أرقام بلا سياق طبي
وأظهر التحقيق أن إدخال عبارات مثل “ما هو المعدل الطبيعي لفحوصات دم الكبد” في محرك البحث يؤدي إلى عرض أرقام عامة تفتقر إلى السياق الطبي الكافي، دون مراعاة عوامل حاسمة مثل العمر أو الجنس أو الخلفية الصحية. وأكد مختصون أن ما تصنّفه هذه الملخصات على أنه “طبيعي” قد يختلف جذريًا عن التقييم الطبي الفعلي، ما قد يدفع بعض المرضى إلى تجاهل مراجعة الطبيب.

غوغل تحذف وتُعلّق
وعقب نشر التحقيق، أزالت غوغل ملخصات الذكاء الاصطناعي المرتبطة بعمليات البحث عن “المعدل الطبيعي لفحوصات دم الكبد” و”المعدل الطبيعي لاختبارات وظائف الكبد”.

وأوضح متحدث باسم الشركة أن غوغل لا تعلّق على حالات الإزالة الفردية، مشيرًا إلى أن الشركة تعمل على تحسين الملخصات عندما تفتقر إلى السياق، وتتخذ الإجراءات اللازمة وفق سياساتها المعتمدة.

ترحيب وتحذير في آن واحد
من جانبها، رحّبت فانيسا هيبدتش، مديرة الاتصالات والسياسات في “British Liver Trust”، بهذه الخطوة ووصفتها بأنها “خبر ممتاز”، لكنها حذّرت في الوقت ذاته من أن إعادة صياغة السؤال بطرق مختلفة قد تؤدي إلى ظهور ملخصات مضللة أخرى، معربة عن قلقها من دقة المعلومات الصحية التي ينتجها الذكاء الاصطناعي عمومًا.

وأشار التحقيق إلى أن البحث بصيغ أخرى مثل “LFT reference range” أو “LFT test reference range” لا يزال يُظهر ملخصات ذكاء اصطناعي مشابهة، وهو ما اعتبرته هيبدتش مؤشرًا مقلقًا.

طمأنة زائفة ومخاطر حقيقية
وأوضحت هيبدتش أن فحص وظائف الكبد يتكوّن من مجموعة اختبارات دموية معقّدة، ولا يمكن تفسير نتائجه بمقارنة أرقام فقط، محذّرة من أن بعض المرضى قد يحصلون على نتائج “طبيعية” رغم وجود مرض كبدي خطير، ما يخلق “طمأنة زائفة” قد تكون شديدة الخطورة.

ولا تزال ملخصات الذكاء الاصطناعي تظهر في موضوعات صحية أخرى، من بينها معلومات متعلقة بالسرطان والصحة النفسية، وصفها خبراء بأنها “خاطئة تمامًا” و”شديدة الخطورة”.

وفي ردها على هذه الانتقادات، أكدت غوغل أن هذه الملخصات تستند إلى مصادر موثوقة، وأنها تنبّه المستخدمين دائمًا إلى ضرورة استشارة المختصين. وأضاف متحدث باسم الشركة أن فريقًا داخليًا من الأطباء راجع المحتوى ووجد أن المعلومات “غير غير دقيقة في كثير من الحالات” ومدعومة بمصادر عالية الجودة، مع استمرار العمل على تحسين التجربة وتقليل المخاطر المحتملة.

ما هي ملخصات AI Overviews؟
هي ملخصات سريعة يولدها الذكاء الاصطناعي وتظهر أعلى نتائج البحث للإجابة عن أسئلة المستخدمين.

لماذا حذفت غوغل بعض الملخصات الصحية؟
بسبب مخاوف من احتوائها على معلومات غير دقيقة قد تؤثر سلبًا على قرارات المستخدمين الصحية.

ما خطورة هذه الملخصات؟
قد تقدم أرقامًا أو معلومات بلا سياق طبي كافٍ، ما قد يؤدي إلى طمأنة زائفة لدى مرضى بحالات خطيرة.

هل ما زالت هذه الملخصات تظهر؟
نعم، لا تزال تظهر في بعض الموضوعات الصحية الأخرى، مع تعهّد غوغل بمراجعتها وتحسينها.

هل يمكن الاعتماد عليها طبيًا؟
ينصح الخبراء بعدم الاعتماد عليها وحدها، وضرورة الرجوع دائمًا إلى الأطباء والمختصين.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى