إذا كنت من المتابعين الشغوفين لسلسلة Game of Thrones، فلا شك أنك تنتظر الحلقات المقبلة من الموسم السابع لهذه السلسلة المشوقة، لست الوحيد الذي يفعل، فمن الممكن أن يمتد انتظار المواسم الأخرى إلى عام 2019، لمعرفة نهاية ملحمة جورج رايموند ريتشارد مارتن (George R.R. Martin).
في الوقت الذي نحلل فيه بعض المواد والمعطيات عن الأحداث القادمة في هذا العرض التلفزيوني، بدأت خوارزمية في كتابة الكتاب السادس لنا، وتعتمد توقعاتها على بعض نظريات المتابعين لهذه السلسلة منذ فترة طويلة. بعد تغذية نوع من الذكاء الاصطناعي يعرف بالشبكة العصبية المتكررة (recurrent neural network ) بخمسة آلاف صفحة من مجموعة الخمس كتب التي اعتمدت عليها السلسلة، استخدم مهندس البرمجيات زاك ثوت (Zack Thoutt) الخوارزمية للتنبؤ بما سيحدث بعد ذلك. قد يكون هذا الأمر أفضل ما قد يحصل لبعض الوقت، لأن معظمنا مل الانتظار حتى أننا فقدنا الأمل من تسليم مارتن للكتاب القادم (The Winds of Winter) قريبًا.
وفقًا لتوقعات الذكاء الاصطناعي، تأكدت بعض نظريات المعجبين بشأن بعض الأحداث القادمة، فمثلًا، في الفصول الخمسة التي انتجتها الخوارزمية لحد الآن، كانت بعض الأحداث كالآتي: Jaime ينتهي به المطاف إلى قتل Cersei، يمتطي Jon تنينًا، و Varys تسمم Danaerys. يبدأ الفصل الخامس بهذه العبارة:” Jaime قتل Cersei ببرودة وتعجرف، اعتقد Jon أنه هو الذئب الآن …. “.
يمكنك قراءة جميع الفصول بالكامل على صفحة GitHub، يبدأ كل فصل باسم الممثل، تمامًا مثل كتب Martin الفعلية. وبالإضافة إلى دعم ما يشتبه العديد منا بحدوثه فعلًا، يقدم الذكاء الاصطناعي حبكة غير متوقعة تحول ما كنا متأكدين منه إلى أمر لن ينعكس في أي برنامج تلفزيوني أو في كتب مارتن، لذا لن نتحمس أكثر.
الشبكات العصبية هي نوع من خوارزمية تعلم الآلة التي هي مستوحاة من قدرة الدماغ البشري ليس فقط حفظ واتباع التعليمات، ولكن أيضًا التعلم من التجارب السابقة.
الشبكة العصبية المتكررة هي فئة فرعية محددة، تعمل بشكل أفضل عندما يتعلق الأمر بمعالجة تسلسل طويل من البيانات، مثل نص مطول من خمسة كتب سابقة.
من الناحية النظرية، يجب أن تكون خوارزمية Thoutt قادرة على خلق تتمة حقيقية لعمل مارتن القائم، على أساس الأشياء التي حدثت بالفعل في الروايات. ولكن في الممارسة العملية، تعتبر هذه الكتابة خرقاء ولا معنى لها في معظم الوقت، وكثيرًا ما تشير إلى شخصيات ماتت من قبل.
يقول Thoutt لـ Motherboard:” سيأخذ أي نموذج مثالي كل ما حدث في الكتب بعين الاعتبار، ولن يكتب عن شخصيات ماتت قبلًا في كتابين سابقين.” ويضيف قائلًا:” لكن في الواقع، هذا النموذج ليس جيدًا كفايةً للقيام بذلك، إذا كان النموذج جيدًا، فسيكون المألفون في ورطة…. لذا فالنماذج ترتكب العديد من الأخطاء، لأنه لا تتوفر هناك تكنولوجيا لتدريب مولد النص كي يكون مثاليًا، والذي بإمكانه تذكر الحبكات المعقدة المبنية على ملايين من الكلمات “.
بعض الأمور التي تحد من عمل الخوارزمية هي حقيقة نقص الكتب من البيانات الكافية للخوارزمية، بالرغم من شهادة كل من يقرأ الكتب بأنها طويلة لدرجة رهيبة، فإنها تمثل في الواقع مجموعة بيانات صغيرة جدًا للشبكة العصبية للتعلم منها، وفي نفس الوقت، تحتوي على الكثير من الكلمات المميزة، الأسماء، والصفات التي لا يتم استخدامها، مما يجعل من الصعب جدًا على الشبكة العصبية تعلم أنماطها. Thoutt أخبر Hill أن أفضل مصدر سيكون كتابًا أطول 100 مرة، لكن بمستوى المفردات التي نجدها في كتب الأطفال. طبعًا، هذا من شأنه أن يسقط غرض السلسلة التي نعرفها ونحبها جميعًا.
مع ذلك تبقى هذه الفصول الخمسة الخرقاء هي أفضل ما لدينا لحد الآن، بينما نكون جالسين انتظارًا لـ Martin كي يكمل أخيرًا كتابه (The Winds of Winter)، أو انتظارًا لـ (Home Box Office) لإطلاق الموسم النهائي. لذا، فالآن سنعكف على إيجاد أية أدلة عما سيحدث في المرة القادمة، من يدري؟ لربما لدى الخوارزمية بعض الأفكار حول كيفية إسقاط التنين الجليدي.
المصدر: هنا