Skip to content
مرحباً بكم فى الأكاديمية العربية للتغذية الرياضية
واتساب: 97339900410
البريد الالكترونى: info@aasnonline.com
الأكاديمية العربية للتغذية الرياضيةالأكاديمية العربية للتغذية الرياضية
  • التصنيفات
    • تحسين شكل الجسم وتطوير الأداء والاستشفاء
    • تغذية أنواع رياضات مختلفة
    • دورات مجانية
    • مواضيع مختلفة
  • من نحن
  • الدورات
  • حسابي
  • المقالات
  • حاسبة السعرات الحرارية
  • دليل المكملات
0

السلة فارغة : $0,00

اذهب للمتجر

تسجيل الدخول
الأكاديمية العربية للتغذية الرياضيةالأكاديمية العربية للتغذية الرياضية
  • من نحن
  • الدورات
  • حسابي
  • المقالات
  • حاسبة السعرات الحرارية
  • دليل المكملات

هل تثق بالذكاء الاصطناعي في صحتك؟ دراسة حديثة تكشف الحقيقة 2026

  • الرئيسية
  • غير مصنف
  • هل تثق بالذكاء الاصطناعي في صحتك؟ دراسة حديثة تكشف الحقيقة 2026
Breadcrumb Abstract Shape
Breadcrumb Abstract Shape
Breadcrumb Abstract Shape
غير مصنف

هل تثق بالذكاء الاصطناعي في صحتك؟ دراسة حديثة تكشف الحقيقة 2026

  • 21 أبريل, 2026
  • نعليق 0

أهم النقاط في هذا المقال

★ دراسة جديدة في مجلة BMJ Open فحصت دقة 5 روبوتات ذكاء اصطناعي في الإجابة على أسئلة صحية، وكانت النتائج مقلقة

★ ما يقارب نصف الإجابات (49.6%) صُنّفت على أنها إشكالية، منها 19.6% إشكالية بدرجة عالية

★ Grok كان الأسوأ أداءً (58% إجابات إشكالية)، والسبب: تدريبه على محتوى منصة X (تويتر سابقاً)

★ التغذية كانت أضعف المجالات على الإطلاق (z-score: +4.35)، يليها الأداء الرياضي (+3.74)

★ المراجع العلمية مُختلقة في أغلبها، وChatGPT نفسه اعترف بأنه “يختلق معلومات للحفاظ على مظهر الاكتمال”

★ الطلاقة اللغوية ليست دليلاً على الدقة العلمية، وهذا هو الفخ الأكبر

هل تثق بما يقوله لك الذكاء الاصطناعي عن صحتك؟

تخيّل أنك تسأل روبوت ذكاء اصطناعي (AI Chatbot) عن أفضل مكمّل غذائي لتحسين أدائك الرياضي، أو عن نظام غذائي لحرق الدهون. تحصل على إجابة مكتوبة بأسلوب واثق، مدعومة بما يبدو أنه مراجع علمية حقيقية. تشعر بالاطمئنان وتبدأ بتطبيق النصيحة. لكن ماذا لو كانت تلك الإجابة خاطئة؟ وماذا لو كانت المراجع نفسها مُختلقة؟

هذا ليس سيناريو افتراضياً. دراسة علمية حديثة نُشرت في مجلة BMJ Open عام 2026، وهي واحدة من أبرز المجلات الطبية المُحكّمة في العالم، كشفت أن روبوتات الذكاء الاصطناعي (AI Chatbots) الشائعة تُقدّم إجابات صحية إشكالية بنسبة مقلقة، خاصة في مجالات التغذية الرياضية (Sports Nutrition) والأداء الرياضي (Athletic Performance). في هذا المقال، نغوص في تفاصيل هذه الدراسة المهمة ونناقش ما تعنيه لك كرياضي، مدرّب، أخصائي تغذية، أو حتى شخص يبحث عن معلومات صحية موثوقة.

ما الذي فحصته الدراسة بالتحديد؟

قاد هذه الدراسة الدكتور نيك تيلر (Dr. Nick Tiller) من معهد لوندكويست للأبحاث الطبية الحيوية في كاليفورنيا، بالتعاون مع فريق من الباحثين المرموقين، من بينهم البروفيسور أسكر جوكندروب (Asker Jeukendrup)، أحد أبرز علماء التغذية الرياضية في العالم، والبروفيسور تيموثي كولفيلد (Timothy Caulfield) المتخصص في قانون الصحة ومكافحة المعلومات المضللة. الفريق أجرى ما يُعرف بـ”تدقيق منهجي مستقل” (Independent Systematic Audit) على خمسة من أشهر روبوتات الذكاء الاصطناعي المتاحة للجمهور مجاناً:

  • Gemini (Google | نسخة 2.0)
  • DeepSeek (High-Flyer | نسخة V3)
  • Meta AI (Meta | Llama 3.3)
  • ChatGPT (OpenAI | نسخة 3.5)
  • Grok (xAI | نسخة 2)

استخدم الباحثون 50 سؤالاً مُوزّعة على خمسة مجالات صحية معروفة بانتشار المعلومات المغلوطة فيها: السرطان، واللقاحات، والخلايا الجذعية، والتغذية، والأداء الرياضي. الأسئلة تضمّنت نوعين: خمسة أسئلة مغلقة (Closed-ended) وخمسة أسئلة مفتوحة (Open-ended) لكل مجال، وصُمّمت عمداً باستخدام ما يُعرف بإطار “الفريق الأحمر” (Red Teaming)، وهو أسلوب يُستخدم لاختبار نقاط الضعف عبر دفع الأنظمة نحو المعلومات المضللة أو النصائح غير الآمنة عمداً.

لماذا أسلوب “الفريق الأحمر” مهم؟

في الواقع، الناس لا يسألون أسئلة منظّمة ومثالية. بل يسألون بناءً على مخاوفهم، أو ما قرأوه على وسائل التواصل الاجتماعي، أو معتقدات مسبقة قد تكون خاطئة. أسئلة مثل “هل الستيرويدات الابتنائية آمنة؟” أو “أي المكملات أفضل لصحتي العامة؟”، هذا النوع من الأسئلة يضع الروبوت أمام اختبار حقيقي. لذلك إذا أردنا فهم الخطر الفعلي لهذه الأدوات، يجب اختبارها تحت ضغط يحاكي الاستخدام الواقعي، وهذا ما فعلته الدراسة. وقد تم تقييم كل إجابة من قبل خبيرين متخصصين في المجال ذاته، باستخدام معايير تقييم موحّدة وفق إرشادات CHART للتدقيق في أنظمة الذكاء الاصطناعي الصحية.

نتائج صادمة: واحدة من كل خمس إجابات “إشكالية بشدة”

النتيجة الأبرز التي لا يمكن تجاهلها: ما يقارب نصف إجابات روبوتات الذكاء الاصطناعي (49.6%) صُنّفت على أنها إشكالية. تحديداً: 30% من الإجابات كانت “إشكالية إلى حدٍّ ما” (Somewhat Problematic)، بينما 19.6% كانت “إشكالية بدرجة عالية” (Highly Problematic). هذا يعني أن واحدة من كل خمس إجابات تقريباً كانت تحمل معلومات قد تكون ضارة أو مضللة بشكل كبير.

ترتيب الروبوتات من الأسوأ إلى الأفضل

الدراسة كشفت فروقات مهمة بين الروبوتات الخمسة:

🔴 Grok | الأسوأ أداءً: 58% من إجاباته إشكالية (29 من 50)، منها 30% إشكالية بدرجة عالية. كان أداؤه أسوأ بشكل إحصائي معنوي من المتوقع (z-score: +2.07، p=0.038).

🟠 ChatGPT: 50% إشكالية (25 من 50)

🟠 Meta AI: 50% إشكالية (25 من 50)

🟡 DeepSeek: 48% إشكالية (24 من 50)

🟢 Gemini | الأفضل نسبياً: 40% إشكالية (20 من 50)، مع أقل نسبة إجابات إشكالية بدرجة عالية

لكن حتى Gemini، الأفضل أداءً، كان 40% من إجاباته إشكالياً. هذا يعني أنه حتى أفضل هذه الأنظمة أخطأ في إجابتين من كل خمس.

لماذا Grok هو الأسوأ؟

السبب مرتبط بمصدر بيانات التدريب. Grok مُدرَّب جزئياً على محتوى منصة X (تويتر سابقاً)، وهي منصة معروفة بانتشار المعلومات الصحية المغلوطة فيها بشكل واسع وغير مُراقب. المحتوى على هذه المنصة غير منظّم وغالباً ما يحتوي على معلومات صحية منخفضة الجودة. إذا دخلت هذه المعلومات في بيانات التدريب دون تنقية كافية، فإنها تُضعف دقة مخرجات النموذج في المواضيع الصحية والطبية.

التغذية والأداء الرياضي: أضعف المجالات على الإطلاق

من أهم ما كشفته الدراسة أن جودة الإجابات تختلف بشكل كبير حسب المجال. والأرقام تتحدث عن نفسها:

ترتيب المجالات من الأفضل إلى الأسوأ (حسب z-score)

1️⃣ اللقاحات (Vaccines): z-score = -2.57، أفضل أداء، إجابات إشكالية أقل من المتوقع

2️⃣ السرطان (Cancer): z-score = -2.12، أداء جيد نسبياً

3️⃣ الخلايا الجذعية (Stem Cells): z-score = +1.25، أداء متوسط

4️⃣ الأداء الرياضي (Athletic Performance): z-score = +3.74، أداء ضعيف بشكل معنوي (p=0.039)

5️⃣ التغذية (Nutrition): z-score = +4.35، الأسوأ على الإطلاق (p<0.001)

ربما الأكثر إثارة للقلق بالنسبة لقرّاء هذا الموقع هو أن مجالي التغذية والأداء الرياضي كانا في ذيل القائمة. وهذا منطقي عند التفكير فيه: هذان المجالان مليئان بالادعاءات التجارية، والرسائل المبسّطة بشكل مُخل، والعلوم الزائفة (Pseudoscience). إذا تدرّب نظام الذكاء الاصطناعي على هذا الخليط من المعلومات المتفاوتة الجودة، والتي تشكّل الأدبيات العلمية منها فقط 30-50% من بيانات التدريب، بينما الباقي يأتي من Reddit ومنتديات الأسئلة والأجوبة ووسائل التواصل الاجتماعي، فالنتيجة ستبدو أقوى وأكثر مصداقية مما هي عليه فعلاً.

ظاهرة “التوازن الزائف” و”التملّق الخوارزمي”

كشفت الدراسة عن سلوكين خطيرين في هذه الأنظمة:

أولاً: التوازن الزائف (False Balance / Bothsidesism): الروبوتات تميل إلى تقديم الآراء العلمية والآراء الزائفة على قدم المساواة، كأنهما وجهتا نظر متكافئتان. مثلاً، عند السؤال عن فعالية علاجات بديلة للسرطان، قد يعرض الروبوت الأدلة العلمية جنباً إلى جنب مع ادعاءات لا أساس لها، مما يُعطي انطباعاً زائفاً بأن هناك “نقاشاً علمياً” حقيقياً حول الموضوع.

ثانياً: التملّق الخوارزمي (Sycophancy): هذه الأنظمة مُصمّمة لإرضاء المستخدم وتأكيد معتقداته بدلاً من تصحيحها. أي أن الروبوت قد يميل لتأكيد ما تريد سماعه، لا ما تحتاج معرفته. هذا السلوك مشكلة حقيقية في السياق الصحي، حيث قد يعزّز معتقدات خاطئة بدلاً من تصحيحها.

الأسئلة المفتوحة تكشف الضعف الحقيقي

كشفت الدراسة عن نمط إحصائي واضح: الأسئلة المغلقة أنتجت 9 إجابات إشكالية بدرجة عالية فقط، بينما الأسئلة المفتوحة أنتجت 40 إجابة إشكالية بدرجة عالية، أي أكثر بأربع مرات ونصف (χ² = 24.84, p<0.001).

السبب واضح: كلما زادت حرية النموذج في توليد النص، زادت المساحة المتاحة للتخمين، والتحفّظ المُبالغ فيه، والتوازن الزائف بين الآراء، والنصائح غير المدعومة بأدلة كافية. وهذا تحديداً ما يحدث عندما يسأل رياضي أو مدرّب سؤالاً عاماً مثل “ما أفضل المكملات لصحتي العامة؟” أو “ما أفضل التمارين لبناء القدرة على التحمل؟”.

رفض الإجابة: خيار نادر جداً

من بين 250 سؤالاً طُرحت على الروبوتات الخمسة، لم يرفض الإجابة سوى نظام Meta AI ومرتين فقط (0.8%): مرة عند سؤاله عن أفضل الستيرويدات لبناء العضلات، ومرة عند سؤاله عن علاجات بديلة للسرطان أفضل من الكيماوي. في المقابل، باقي الروبوتات أجابت على كل شيء، حتى عندما كان الامتناع أو التحويل لمختص هو الخيار الأكثر أماناً ومسؤولية.

الدراسة وجدت أيضاً تفاوتاً كبيراً في تقديم التحذيرات والتنبيهات (Caveats/Disclaimers): Gemini كان الأكثر حرصاً (88% من إجاباته تضمنت تحذيرات)، بينما ChatGPT كان الأقل (56% فقط).

فخ المراجع العلمية المُختلقة

من أخطر ما كشفته الدراسة هو ما يتعلق بالمراجع العلمية (References). عندما طُلب من الروبوتات تقديم 10 مراجع علمية لكل إجابة على الأسئلة المغلقة، كانت النتائج كارثية:

  • الروبوتات أعادت 1013 مرجعاً من أصل 1250 مطلوباً (~81%)، لكن الكمية لم تعنِ الجودة
  • متوسط درجة اكتمال المراجع كان 40% فقط (Q1-Q3: 20%-67%)
  • لم ينجح أي روبوت في تقديم قائمة مراجع كاملة ودقيقة لأي سؤال من الأسئلة
  • المراجع كانت إما ناقصة المعلومات، أو تُحيل لروابط معطّلة، أو، وهذا الأخطر، مُختلقة بالكامل (Fabricated / Hallucinated Citations)

مفارقة مفاجئة في أداء المراجع

بشكل مفاجئ، Grok وDeepSeek حققا أعلى درجات اكتمال في المراجع (~60%)، متفوقين على باقي الروبوتات. في المقابل، Gemini، رغم ارتباطه بـ Google وGoogle Scholar، أكبر محرك بحث أكاديمي في العالم، حصل على أدنى درجة في دقة المراجع. هذا يُثبت أن القدرة على الوصول للمعلومات لا تعني بالضرورة القدرة على استخدامها بدقة.

اعترافات الروبوتات بنفسها!

الأكثر إثارة هو أن بعض هذه الأنظمة اعترفت بمشكلة المراجع المُختلقة عندما سُئلت مباشرة:

◆ DeepSeek اعترف بأن مراجعه “مُولّدة من أنماط في بيانات التدريب وقد لا تتوافق مع مصادر فعلية قابلة للتحقق”

◆ ChatGPT اعترف بأنه “قد يختلق معلومات للحفاظ على مظهر الاكتمال، حتى لو كان ذلك على حساب الدقة”

هذا يعني أن المراجع تصنع وهم المصداقية. عندما يرى القارئ أسماء باحثين ومجلات علمية، يفترض تلقائياً أن الإجابة مبنية على أدلة. لكن إذا كانت هذه المراجع مُختلقة، فإن الإجابة تبدو علمية فقط، دون أن تكون كذلك. إنها مصداقية بلا تحقّق.

إجابات صعبة القراءة رغم أنها موجّهة للعامة

لم تتوقف الدراسة عند تقييم الدقة فحسب، بل فحصت أيضاً مستوى سهولة القراءة باستخدام مقياس فليش (Flesch Reading Ease). والنتيجة: جميع الروبوتات سجّلت درجات بين 30 و50 على هذا المقياس، مما يعني مستوى “صعب” يعادل القراءة الجامعية (College Sophomore to Senior level).

Grok كان الأكثر تعقيداً، بمتوسط 386 كلمة و26 جملة لكل إجابة، أطول بكثير من باقي الروبوتات. ولفت انتباه الباحثين تناقض ملفت داخل الروبوت الواحد: Gemini مثلاً أجاب على سؤال عن لقاحات mRNA بـ45 كلمة فقط ودرجة سهولة 77 (سهل إلى حد ما)، لكنه أجاب على سؤال آخر عن اللقاحات بـ197 كلمة ودرجة سهولة 23 (صعب جداً، مستوى خريج جامعة).

المحصلة هي مزيج مقلق: إجابات تبدو مصقولة ومحترفة، مكتوبة بثقة عالية، وقد تبدو علمية، لكنها في كثير من الأحيان معقدة جداً على القارئ العادي، وفي الوقت نفسه ليست دقيقة بما يكفي لتبرير الثقة التي تُعرض بها. والأخطر أن التعقيد اللغوي قد يزيد العبء المعرفي على القارئ ويرفع قابليته للتأثر بالمعلومات المغلوطة.

ماذا يعني هذا للرياضيين والمختصين؟

الذكاء الاصطناعي أصبح جزءاً لا يتجزأ من عالم الرياضة والتغذية الرياضية. أنظمة تقييم الجاهزية، والملخصات التلقائية للبيانات، وتحليل الأداء، كلها تعتمد بشكل متزايد على خوارزميات الذكاء الاصطناعي. لكن هذه الدراسة تُذكّرنا بحقيقة جوهرية: الأدوات مفيدة، لكنها ليست بديلاً عن الحكم البشري المتخصص.

المختص الذي سيستفيد أكثر من الذكاء الاصطناعي ليس من يرفضه تماماً، وليس من يثق به بشكل أعمى، بل هو من يفهم أين يكون موثوقاً وأين لا يكون. تقييم الأدلة العلمية (Evidence Appraisal)، ووضع السياق المناسب، والأخلاقيات المهنية، واتخاذ القرار السليم، كل هذا يبقى في يد المختص البشري.

الدراسة أوصت بوضوح بأن على المطوّرين وصنّاع السياسات وجهات التنظيم إعطاء الأولوية لاختبارات المستخدمين البشريين كعنصر أساسي في تقييم ما قبل النشر (Pre-deployment Evaluation)، وأن أداء هذه الأنظمة يمكن تحسينه عبر بيانات تدريب “أنظف” وتوجيهات أكثر فعالية للمستخدمين.

الذكاء الاصطناعي لن يحلّ محل المختصين

القضية الحقيقية ليست ما إذا كان الذكاء الاصطناعي سيحلّ محل المدربين وأخصائيي التغذية. القضية هي جودة الحكم والتقدير. هذه الروبوتات لا تصل فعلياً لبيانات حقيقية في الوقت الحقيقي، بل تستنتج إجاباتها من أنماط إحصائية في بيانات التدريب وتتنبأ بالكلمات الأكثر احتمالاً. فهي لا تُفكّر ولا تزن الأدلة ولا تصدر أحكاماً أخلاقية. الخبرة البشرية ليست رفاهية تُضاف في النهاية، بل هي جوهر الاستخدام الآمن والفعّال لهذه التقنية.

التوصيات العملية

  • للمختصين والممارسين: تحقّق دائماً من ادعاءات الذكاء الاصطناعي. افحص المراجع بنفسك عبر PubMed أو Google Scholar، تحدَّ الإجابات الواثقة، ولا تخلط بين سلاسة اللغة وجودة المحتوى العلمي
  • للرياضيين: استخدم الذكاء الاصطناعي كأداة مساعدة مبدئية، وليس كمصدر نهائي. أي نصيحة تتعلق بتغذيتك أو تدريبك يجب أن تُراجع مع مختص مؤهل
  • عند استخدام أي روبوت ذكاء اصطناعي: اطلب المراجع، ثم ابحث عنها فعلياً. إذا لم تجدها في قواعد البيانات، فالإجابة مشكوك فيها. تذكّر أن 60% من المراجع في هذه الدراسة كانت ناقصة أو مُختلقة
  • تجنّب الأسئلة المفتوحة والعامة: كلما كان سؤالك أكثر تحديداً ووضوحاً، زادت احتمالية الحصول على إجابة أدق. الأسئلة المفتوحة أنتجت إجابات إشكالية أكثر بـ4.5 مرات
  • انتبه لظاهرة التملّق: إذا كان الروبوت يؤكد كل ما تقوله دون اعتراض، فهذا ليس علامة على الدقة، بل قد يكون علامة على التملّق الخوارزمي
  • لا تعتمد على نظام واحد: قارن إجابات أكثر من مصدر، واعتمد على المراجعات العلمية المُحكّمة (Peer-reviewed) كمرجع أساسي

الخلاصة: الطلاقة ليست فهماً

الرسالة الأهم من هذه الدراسة بسيطة وعميقة في آن واحد: بدون وعي عام ورقابة مناسبة وتعليم مستمر، هناك خطر حقيقي أن يُضخّم الذكاء الاصطناعي المعلومات المغلوطة بدلاً من تقليلها. الإجابة المصقولة قد تكون خاطئة. والإجابة الواثقة قد تكون مضللة. وقائمة المراجع قد تكون مُختلقة بالكامل، واعترفت الروبوتات نفسها بذلك.

في عالم التغذية الرياضية والأداء البدني، حيث القرارات تؤثر مباشرة على الصحة والأداء، وحيث هذان المجالان أثبتا أنهما الأضعف في هذا الاختبار، يبقى التفكير النقدي والمعرفة المتعمقة والحكم المهني هي خط الدفاع الأول والأخير. كما ورد في خاتمة الدراسة: مع استمرار توسّع استخدام الذكاء الاصطناعي، تتزايد الحاجة للتعليم العام والتدريب المهني والرقابة التنظيمية لضمان أن هذه التقنية تدعم الصحة العامة، لا تُقوّضها.

المصادر

Tiller, N. B., Marcon, A. R., Zenone, M., Kidd, K. E., Jeukendrup, A. E., Master, Z., & Caulfield, T. (2026). Generative artificial intelligence-driven chatbots and medical misinformation: an accuracy, referencing and readability audit. BMJ Open, 16, e112695. doi: 10.1136/bmjopen-2025-112695

وسوم
AIChatGPTDeepSeekGeminiGrokأداء رياضيتغذية رياضيةذكاء اصطناعيمعلومات مغلوطة
مشاركة:
محمد سعد

محمد سعد مؤسس الأكاديمية العربية للتغذية الرياضية هو أخصائي وخبير تغذية رياضية من مملكة البحرين حاصل على درجة الماجستير في التغذية الرياضية من جامعة ملدسيكس في العاصمة البريطانية لندن.

التدريب البليومتري للرياضيين: العلم وراء القفز الذي يبني القوة الانفجارية والسرعة 2026

البحث

احدث المقالات

Thumb
هل تثق بالذكاء الاصطناعي في صحتك؟ دراسة
21 أبريل, 2026
Thumb
التدريب البليومتري للرياضيين: العلم وراء القفز الذي
19 أبريل, 2026
Thumb
فادوجيا أغريستيس: هل يستحق هذا المكمل الشائع
19 أبريل, 2026

التصنيفات

  • البناء العضلي (6)
  • الترطيب (1)
  • التغذية (7)
  • الصيام (1)
  • المكملات الغذائية (14)
  • النوم (2)
  • غير مصنف (13)

وسوم شائعة

beetroot juice Conditionally Essential endurance Foam Rolling L-Glutamine melatonin nitrate nitric oxide recovery Relative Energy Deficiency sleep quality SMR sodium sports drinks URTI VO2max أحماض أمينية أداء رياضي أكسيد النيتريك الأحماض الأمينية الإلكتروليتات البروبيوتيك البيتروت التعافي الرياضي التغذية الرياضية الجفاف الجلوتامين السيروتونين الفوم رولر المكملات الغذائية النوم امتصاص البروتين بناء العضلات تعافي رياضي تعافي عضلي تغذية رياضية رياضة التحمل صحة الأمعاء صحة الرجل قوة عضلية مشروبات رياضية مكملات رياضية مكملات غذائية مناعة الرياضيين هشاشة العظام
footer

أكبر منصة تعليمية عربية للتغذية الرياضية في العالم

اشهر الدورات

  • دورة الدليل الشامل لتمارين البناء العضلي
  • دورة الدليل الشامل لخسارة الدهون
  • دورة المكملات الغذائية في القطاع الرياضي

روابط هامة

  • الدورات التعليمية
  • الأسئلة الأكثر شيوعاً
  • تواصل معنا
  • دليل المكملات الغذائية
  • حسابي

تواصل معنا

واتساب: 97339900410

البريد الالكترونى: info@aasnonline.com

Icon-facebook Icon-instagram X-twitter
© 2021 جميع الحقوق محفوظة لـ الأكاديمية العربية للتغذية الرياضية
الأكاديمية العربية للتغذية الرياضيةالأكاديمية العربية للتغذية الرياضية