مع وصول GPT-5.2 مؤخرًا إلى منظومة ChatGPT، حان الوقت لاختبار قدرة الذكاء الاصطناعي - مجددًا - على حلّ مشكلة بسيطة لطالما أعاقته منذ إطلاقه عام 2022. سؤال في غاية البساطة، لدرجة أن طفلًا في الخامسة من عمره يستطيع الإجابة عليه بسهولة.
يتعلق السؤال بعدّ الحروف، لا أكثر ولا أقل. لكن في كل مرة يُطرح فيها هذا السؤال على ChatGPT، يفشل الذكاء الاصطناعي. ليس هذا فحسب، بل إن إجاباته غير واقعية تمامًا. حتى في GPT-5.2، النموذج الجديد من OpenAI، لا تزال المشكلة قائمة. لكن الأمر الأكثر إثارة للدهشة هو أن الأمر ليس مجرد سهو من جانب OpenAI.
في الواقع، إنها مشكلة هيكلية في الذكاء الاصطناعي، تتعلق بكيفية عمل نماذج اللغة الكبيرة (LLMs). عيبٌ عميق لدرجة أنه ربما لن يُصلح أبدًا طالما بقي نموذج الذكاء الاصطناعي الحالي موجودًا. لذا فقد استثمرنا مليارات الدولارات، ولدينا أجهزة ضاعفت سعر ذاكرة الوصول العشوائي عالميًا، ومع ذلك لا يستطيع برنامج ChatGPT حل مشكلة يستطيع طفل حلها.
- أسباب هذا الفشل
السؤال بسيط: "كم عدد حروف الراء في كلمة 'Strawberry'؟" لكن عندما يجيب ChatGPT، يخطئ في الإجابة: يقول "اثنان". ويفعل ذلك بثقة تامة، لأنه يعتقد أنه على صواب مطلقًا. لكن هذه ليست حالة معزولة. فلدى ChatGPT تاريخ غريب في الإجابة الخاطئة على أسئلة يفترض أن تكون بديهية لأي إنسان.
علينا أن نتخلى عن فكرة أن الأمر يتعلق بنقص "الذكاء" في ChatGPT. إن السبب الحقيقي هو نظام الرموز الذي تستند إليه بنيته بالكامل، تمامًا مثل أي نموذج لغوي آخر.
عند كتابة كلمة "strawberry"، لا يعالج ChatGPT الأحرف "s-t-r-a-w-b-e-r-r-y" كوحدة واحدة، بل يقسمها إلى أجزاء تُسمى "الرموز". يمكن أن يكون كل رمز كلمة كاملة، أو مقطعًا لفظيًا، أو جزءًا من كلمة.
في هذه الحالة، تقسم رموز OpenAI الكلمة إلى "st-raw-berry". وهنا تحديدًا يكمن الخطأ. يحاول ChatGPT عدّ الرموز التي تحتوي على حرف الراء، ولا يوجد سوى رمزين يحتويان على هذا الحرف، لذا يُجيب ChatGPT بـ "اثنان". من الواضح أن أيًا منا سيرى الرقم 3، لكنه يرى الرقم 2.
في هذه الحالة، يُعزى الأمر برمته إلى خللٍ في بنية النظام استمر لسنوات عديدة. قدّمت OpenAI نظامًا لتقسيم الكلمات إلى رموز على GPT-5 يُسمى "o200k_harmony"، والذي استخدم أيضًا GPT-40. لكن كلمة "Strawberry" ظلت تُشكّل مشكلة متكررة.
ما عالجته OpenAI وما لم تعالجه
لم تكن OpenAI بمنأى عن هذه المشاكل مع مرور الوقت. في الواقع، حاولت إصلاح العديد من الأخطاء منذ إطلاقها عام 2022. عند إصدارها، كانت هناك كلمات أو تعابير معينة تتسبب في خللٍ فادح في النموذج.
من الأمثلة المعروفة كلمة "solidgoldmagikarp". فقد تسبب ثغرة في GPT-3 في قيام النموذج بإهانة المستخدم، أو توليد نتائج غير مفهومة، أو الدخول في حلقات منطقية لا نهائية. حدث هذا لأن بعض الرموز في النظام كانت قادرة على تعطيله تمامًا. مع ذلك، تمكنت OpenAI من وضع حد لهذه المشاكل مع مرور الوقت.
قد يستمر هذا النوع من المشاكل في النماذج الحالية لأن ChatGPT لا يفهم التهجئة. إنه محرك تنبؤي يستخدم أنماطًا مُتعلمة أثناء التدريب لتخمين الحرف التالي، والذي يليه. إنه مجرد تنبؤ قائم على الأنماط. والأنماط التي تعلمها لا تتضمن أمثلة كافية لهذا النوع من الأسئلة. كل تحديث جديد يحاول إصلاحها، ولكن مقابل كل ثغرة أمنية يتم إصلاحها، تظهر ثغرتان جديدتان.
wwww.igli5.com
متابعة القراءة...
يتعلق السؤال بعدّ الحروف، لا أكثر ولا أقل. لكن في كل مرة يُطرح فيها هذا السؤال على ChatGPT، يفشل الذكاء الاصطناعي. ليس هذا فحسب، بل إن إجاباته غير واقعية تمامًا. حتى في GPT-5.2، النموذج الجديد من OpenAI، لا تزال المشكلة قائمة. لكن الأمر الأكثر إثارة للدهشة هو أن الأمر ليس مجرد سهو من جانب OpenAI.
في الواقع، إنها مشكلة هيكلية في الذكاء الاصطناعي، تتعلق بكيفية عمل نماذج اللغة الكبيرة (LLMs). عيبٌ عميق لدرجة أنه ربما لن يُصلح أبدًا طالما بقي نموذج الذكاء الاصطناعي الحالي موجودًا. لذا فقد استثمرنا مليارات الدولارات، ولدينا أجهزة ضاعفت سعر ذاكرة الوصول العشوائي عالميًا، ومع ذلك لا يستطيع برنامج ChatGPT حل مشكلة يستطيع طفل حلها.
- أسباب هذا الفشل
السؤال بسيط: "كم عدد حروف الراء في كلمة 'Strawberry'؟" لكن عندما يجيب ChatGPT، يخطئ في الإجابة: يقول "اثنان". ويفعل ذلك بثقة تامة، لأنه يعتقد أنه على صواب مطلقًا. لكن هذه ليست حالة معزولة. فلدى ChatGPT تاريخ غريب في الإجابة الخاطئة على أسئلة يفترض أن تكون بديهية لأي إنسان.
علينا أن نتخلى عن فكرة أن الأمر يتعلق بنقص "الذكاء" في ChatGPT. إن السبب الحقيقي هو نظام الرموز الذي تستند إليه بنيته بالكامل، تمامًا مثل أي نموذج لغوي آخر.
عند كتابة كلمة "strawberry"، لا يعالج ChatGPT الأحرف "s-t-r-a-w-b-e-r-r-y" كوحدة واحدة، بل يقسمها إلى أجزاء تُسمى "الرموز". يمكن أن يكون كل رمز كلمة كاملة، أو مقطعًا لفظيًا، أو جزءًا من كلمة.
في هذه الحالة، تقسم رموز OpenAI الكلمة إلى "st-raw-berry". وهنا تحديدًا يكمن الخطأ. يحاول ChatGPT عدّ الرموز التي تحتوي على حرف الراء، ولا يوجد سوى رمزين يحتويان على هذا الحرف، لذا يُجيب ChatGPT بـ "اثنان". من الواضح أن أيًا منا سيرى الرقم 3، لكنه يرى الرقم 2.
في هذه الحالة، يُعزى الأمر برمته إلى خللٍ في بنية النظام استمر لسنوات عديدة. قدّمت OpenAI نظامًا لتقسيم الكلمات إلى رموز على GPT-5 يُسمى "o200k_harmony"، والذي استخدم أيضًا GPT-40. لكن كلمة "Strawberry" ظلت تُشكّل مشكلة متكررة.
ما عالجته OpenAI وما لم تعالجه
لم تكن OpenAI بمنأى عن هذه المشاكل مع مرور الوقت. في الواقع، حاولت إصلاح العديد من الأخطاء منذ إطلاقها عام 2022. عند إصدارها، كانت هناك كلمات أو تعابير معينة تتسبب في خللٍ فادح في النموذج.
من الأمثلة المعروفة كلمة "solidgoldmagikarp". فقد تسبب ثغرة في GPT-3 في قيام النموذج بإهانة المستخدم، أو توليد نتائج غير مفهومة، أو الدخول في حلقات منطقية لا نهائية. حدث هذا لأن بعض الرموز في النظام كانت قادرة على تعطيله تمامًا. مع ذلك، تمكنت OpenAI من وضع حد لهذه المشاكل مع مرور الوقت.
قد يستمر هذا النوع من المشاكل في النماذج الحالية لأن ChatGPT لا يفهم التهجئة. إنه محرك تنبؤي يستخدم أنماطًا مُتعلمة أثناء التدريب لتخمين الحرف التالي، والذي يليه. إنه مجرد تنبؤ قائم على الأنماط. والأنماط التي تعلمها لا تتضمن أمثلة كافية لهذا النوع من الأسئلة. كل تحديث جديد يحاول إصلاحها، ولكن مقابل كل ثغرة أمنية يتم إصلاحها، تظهر ثغرتان جديدتان.
wwww.igli5.com
متابعة القراءة...
مواضيع مشابهة
اخر المواضيع

