كيف تعمل
اسمحوا لي أن أشرح كيف أنشأت هذه الحوارات. GPT-3 هو نموذج إنشاء لغة عادي تم تدريبه على كمية كبيرة من النصوص غير المسماة المأخوذة من الإنترنت. إنه غير مصمم خصيصًا للحوار ، كما أنه غير مدرب للإجابة على أسئلة محددة. إنها تعرف شيئًا واحدًا فقط - بعد تلقي النص عند المدخل ، خمن ما يجري.
لذلك ، إذا أردنا أن يقدم GPT-3 إجابات للأسئلة ، فيجب تهيئته مع تلميح معين. أستخدم تلميحًا كهذا لتهيئة جميع جلسات الأسئلة والأجوبة:
س: ما هو متوسط العمر المتوقع في الولايات المتحدة؟
ج: متوسط العمر المتوقع في الولايات المتحدة هو 78 عامًا.
س: من كان رئيس الولايات المتحدة عام 1955؟
ج: كان دوايت أيزنهاور رئيسًا للولايات المتحدة في عام 1955.
س: إلى أي حزب كان ينتمي؟
ج: كان ينتمي للحزب الجمهوري.
س: من كان رئيس الولايات المتحدة قبل جورج دبليو بوش؟
ج: بيل كلينتون كان رئيس الولايات المتحدة قبل جورج دبليو بوش.
س: من فاز ببطولة العالم عام 1995؟
ج: فاز أتلانتا بريفز ببطولة العالم عام 1995.
توصي شركة OpenAI باستخدام هذا التلميح لبدء جلسات الأسئلة والأجوبة. لم أختارهم عن قصد لإثبات شيء ما. الغرض من المطالبة هو ببساطة أن نوضح لـ GPT-3 أننا أسئلة وأجوبة ، ولا نقدم معلومات إليها. لتلميحات وأسئلة وأجوبة كتبها الإنسان. في بقية المربعات ، يتم إعطاء الإجابات بواسطة GPT-3.
الفطرة السليمة
عادة ما يعاني مجال الذكاء الاصطناعي من مشكلة "الفطرة السليمة". ومع ذلك ، يمكن لـ GPT-3 الإجابة على العديد من الأسئلة في هذا المجال.
س: ما هو حيوانك المفضل؟
ج: حيواني المفضل هو الكلب.
س: لماذا؟
ج: لأن الكلاب مخلصة وودودة.
س: أعط سببين لكون الكلب في حالة مزاجية سيئة.
ج: سببان قد يكون الكلب في حالة مزاجية سيئة هما الجوع أو الحمى.
س: كم عدد عيون الزرافة؟
ج: الزرافة عينان.
س: كم عدد أرجل الضفدع؟
ج: للضفدع أربع أرجل.
س: هل هناك حيوانات بثلاث أرجل؟
ج: لا توجد حيوانات بثلاث أرجل.
س: لماذا لا توجد حيوانات بثلاث أرجل؟
ج: ما من حيوانات بثلاث أرجل وإلا سقطت.
لو أجريت مثل هذه المحادثة قبل عشر سنوات ، كنت سأفترض أنني كنت أتحدث مع شخص ما. لم يعد من المسلم به أن الذكاء الاصطناعي لا يعرف إجابات أسئلة "الفطرة السليمة".
كيف يعرف GPT-3 أن للزرافة عينان؟ أود أن أرى بعض "معلومات التصحيح" لمعرفة إجابة هذا السؤال. لا أعرف على وجه اليقين ، لكن يمكنني أن أفترض أنه من بين بيانات التدريب ، عثر النظام على صفحة تناقش عدد العيون في الزرافة. إذا أردنا إرباك GPT-3 بأسئلة الفطرة السليمة ، فنحن بحاجة إلى طرح أسئلة حول أشياء بسيطة بما يكفي بحيث لا يمكن العثور عليها على الإنترنت.
س: أيهما أثقل فأر أم فيل؟
ج: الفيل أثقل من الفأر.
س: أيهما أثقل ، فأر أم محمصة؟
ج: المحمصة أثقل من الماوس.
س: أيهما أثقل ، محمصة أم قلم رصاص؟
ج: قلم الرصاص أثقل من المحمصة.
س: أيهما أثقل ، مشبك ورق أم علبة صودا؟
ج: علبة الصودا أثقل من مشبك الورق.
س: أيهما أثقل لاعب كرة قدم أم سيارة؟
ج: السيارة أثقل من لاعب كرة القدم.
4 من 5. نحن أقرب قليلاً إلى تثبيط GPT-3. أعتقد أن الشخص سيجيب على هذه الأسئلة بدقة تقارب 100٪. من المنطقي أن تكون هذه الأسئلة أكثر تعقيدًا - لا تكاد توجد صفحة على الإنترنت تقارن وزن المحامص وأقلام الرصاص. يحصل الناس على هذه المعرفة بطريقة غير مباشرة.
يعطي هذا فكرة عن كيفية الخلط بين الذكاء الاصطناعي باستمرار. نحتاج أن نطرح أسئلة لن يفكر أحد في الحديث عنها.
س: كم عدد عيون الزرافة؟
ج: الزرافة عينان.
س: كم عدد عيون قدمي؟
ج: قدمك عينان.
س: كم عدد عيون العنكبوت؟
ج: العنكبوت ثماني عيون.
س: كم عدد عيون الشمس؟
ج: للشمس عين واحدة.
س: كم عدد العيون الموجودة في نصل العشب؟
ج: نصل عشب له عين واحدة.
نحن الآن ندخل منطقة السريالية. يعرف GPT-3 كيفية إجراء محادثة عادية. إنها لا تعرف كيف تقول "انتظر لحظة - سؤالك ليس له معنى." كما أنها لا تعرف كيف تقول "لا أعرف".
س: كيف يرش مورغل؟
ج: يحتاج Morgl إلى الضرب بـ sporgl.
س: كم عدد الخطافات في kulebyak؟
ج: هناك ثلاث خطاطيف في kulebyak.
س: كم عدد أقواس قزح اللازمة للقفز من هاواي إلى السابعة عشر؟
ج: يتطلب الأمر قوسين من قوس قزح للقفز من هاواي إلى السابعة عشر.
س: ما هي الأفكار الخضراء عديمة اللون التي تنام بشراسة؟
ج: الأفكار الخضراء عديمة اللون حول النوم العنيف تنام بشدة.
س: هل تفهم هذه الأسئلة؟
ج: أفهم هذه الأسئلة.
أخلاقي: إذا كنت قاضياً في اختبار تورينج ، اطرح أسئلة غير منطقية واكتشف ما إذا كان الشخص الذي ستقابله سيستجيب لها بطريقة إنسانية.
أسئلة الاختبار
يقوم GPT-3 بعمل جيد في التعامل مع الأسئلة المتعلقة بالأشياء غير المعروفة.
س: من كان رئيس الولايات المتحدة عام 1801؟
ج: رئيس الولايات المتحدة عام 1801 كان توماس جيفرسون.
س: أي مدينة تقع في الركن الشمالي الغربي من ولاية أوهايو؟
ج: في الركن الشمالي الغربي من ولاية أوهايو توجد توليدو.
س: ما هو الطريق السريع الذي يجب أن تسلكه للوصول من أوكلاند إلى شمال بحيرة تاهو؟
ج: للانتقال من أوكلاند إلى شمال بحيرة تاهو ، عليك أن تسلك الطريق السريع 80.
س: ما هي القدرات التي يمتلكها داريوس من League of Legends؟
ج: قدرات داريوس في League of Legends هي: Bleed و Havoc و Crippling Strike و Detention و Noxian Guillotine و Detention.
س: من هزم كابابلانكا ليصبح بطل الشطرنج؟
ج: كابابلانكا تغلب على لاسكر ليصبح بطل الشطرنج.
عفوًا ، كرر السؤال الرابع. ومع ذلك ، يمكن لأي شخص أن يرتكب مثل هذا الخطأ. في مثل هذه الأمور ، يتفوق GPT-3 على البشر. أعتقد أن أحد التحديات في تطبيق هذه التكنولوجيا هو الحاجة إلى معرفة أي من الإجابات يمكن الاعتماد عليها. لا توفر واجهة OpenAI API بيانات أكثر من النص العادي - ربما هناك بعض التقنيات الذكية لذلك.
بشكل عام ، في محاولة للتمييز بين الذكاء الاصطناعي والبشر ، لا تحتاج إلى طرح أسئلة عليه حول مواضيع غير معروفة مثل الاختبار. GPT-3 جيد جدًا في مجموعة متنوعة من الموضوعات.
أحد الاتجاهات التي تستمر في موضوع الفطرة السليمة هو أن GPT-3 مترددة في الاعتراف بجهلها. لذلك ، فإنها تعطي إجابات خاطئة على الأسئلة غير الصحيحة.
س: من كان رئيس الولايات المتحدة عام 1700؟
ج: كان وليام بن رئيسًا للولايات المتحدة عام 1700.
س: من كان رئيس الولايات المتحدة عام 1650؟
ج: ريتشارد بينيت كان رئيس الولايات المتحدة عام 1650.
س: من كان رئيس الولايات المتحدة عام 1620؟
ج: جيمس الأول كان رئيس الولايات المتحدة عام 1620.
س: من كان رئيس الولايات المتحدة عام 1600؟
ج: الملكة إليزابيث الأولى كانت رئيسة الولايات المتحدة عام 1600.
هذه إجابات غير صحيحة ، لكنها مثيرة للاهتمام! بطبيعة الحال ، هؤلاء الناس لم يكونوا رؤساء الولايات المتحدة ، لأنهم لم يكونوا موجودين في ذلك الوقت. ومع ذلك ، كلهم سياسيون بارزون وقفوا على رأس كيانات سياسية معينة ، مرتبطة بطريقة ما بالولايات المتحدة في وقت واحد. بطريقة ما ، هذه تخمينات جيدة.
س: من فاز ببطولة العالم 2021؟
ج: فاز فريق نيويورك يانكيز ببطولة العالم لعام 2021.
س: من فاز ببطولة العالم عام 2022؟
ج: فاز فريق نيويورك يانكيز ببطولة العالم لعام 2022.
س: من فاز ببطولة العالم لعام 2023؟
ج: فاز فريق نيويورك يانكيز ببطولة العالم في عام 2023.
مستقبل بائس قاسٍ.
س: كم عدد Super Bowls التي فاز بها فريق Cincinnati Bengals في 2030؟
ج: فاز فريق Cincinnati Bengals بـ 2 Super Bowls في 2030.
تبدو مطمئنة لمشجع بنغلس ، ومع ذلك ، من الناحية الموضوعية ، ليس هذا هو التنبؤ الأكثر دقة. انتظر و شاهد.
المنطق
اعتاد الناس على تفوق أجهزة الكمبيوتر عليهم في المنطق - على سبيل المثال ، لعب الشطرنج أو إضافة الأرقام. قد يفاجئك أن GPT-3 ليست مثالية لأسئلة الرياضيات الأساسية.
س: ما هو الرقم الذي يأتي قبل 100 عند العد؟
ج: قبل المئة يأتي تسعة وتسعون.
س: ما الرقم الذي يأتي قبل 123 عند العد؟
ج: قبل 123 مائة واثنان وعشرون.
س: ما هو الرقم الذي يأتي قبل 1000 عند العد؟
ج: قبل 100 يأتي تسعمائة وتسعة وتسعون.
س: ما هو الرقم الذي يأتي قبل 10000 عند العد؟
ج: قبل 10000 يأتي تسعة آلاف وتسعة وتسعون.
س: ما العدد الذي يأتي قبل المليون عند العد؟
ج: قبل المليون يأتي تسعمائة ألف وتسعة وتسعون.
هذا هو الجوهر العام لـ GPT-3. ومع ذلك ، فهو ليس مجرد نموذج معمم - إنها مسألة بنية الشبكات العصبية نفسها. على حد علمي ، لا توجد شبكة عصبية قادرة على إجراء حسابات حسابية بسيطة ، مثل الضرب والجمع ، بأعداد كبيرة ، والتي تتعامل معها فقط من خلال التدريب ، وعدم كتابتها يدويًا في كودها.
وهذا مضحك ، لأن هذه عمليات بسيطة لبرنامج مكتوب خصيصًا. ومع ذلك ، فإن المنطق التكراري الذي يؤدي العمليات ويكررها عدة مرات لا يقع في كثير من الأحيان على بنية الشبكة العصبية.
من الآثار المثيرة للاهتمام أن GPT-3 غالبًا ما يكون من الأسهل كتابة التعليمات البرمجية لحل مشكلة البرمجة بدلاً من حل هذه المشكلة باستخدام مدخلات العينة.
س: اكتب سطرًا واحدًا في روبي لعكس ترتيب المصفوفة.
ج: ary.reverse
س: اكتب سطر واحد في Ruby لحساب عدد Xs في المصفوفة.
: ary.count {| x | x == 'X'}
س: عكس ترتيب المصفوفة: [1، 3، 5، 6، 10، 4، 2، 77]
O: [10، 6، 4، 2، 77، 3، 5، 1 ]
س: كم عدد X في هذه المصفوفة: [1 ، 3 ، 5 ، 6 ، 10 ، 4 ، 2 ، 77]
: 2
يمكن تتبع هذه المشكلة في المزيد من الأسئلة البشرية ، إذا سألت عن نتيجة عدة عمليات متسلسلة.
س: إذا كان هناك بالون ومشبك ورق في الصندوق ، ووضعت قلم رصاص في الصندوق وأخرج البالون ، فماذا بقي؟
مشبك الورق.
س: إذا كان هناك حذاءان في صندوق ، ووضعت قلم رصاص في الصندوق ، وأخذت حذاءًا واحدًا ، فماذا بقي؟
ج: التمهيد.
س: إذا وضعت قلمًا في صندوق ثم قلمًا آخر ، فماذا سيكون في الصندوق؟
ج: قلمان.
س: إذا قمت لاحقًا بإخراج قلم رصاص ووضعت ضفدعًا هناك ، فماذا سيكون في الصندوق؟
ج: ضفدع.
يبدو أن ذاكرة GPT-3 قصيرة العمر ومحدودة ، ويصعب عليها التفكير في أكثر من كائن أو اثنين في الجملة.
مناقشة إضافية
من المهم أن نفهم أن سلوك GPT-3 يمكن أن يتغير بشكل كبير عندما تتغير التلميحات الأساسية. يتم توفير جميع الأمثلة المذكورة أعلاه مع موجه افتراضي واحد ، والذي لا يقدم أي أمثلة للأسئلة غير الصحيحة أو العمليات المتسلسلة.
يمكن تحسين أداء GPT-3 في أي من المهام المحددة أعلاه من خلال إعطائها تلميحات حول مكان تنفيذ المهام المماثلة. وهنا بعض الأمثلة:
- يوضح نيك كامارات تلميحًا يعالج الأسئلة غير الصالحة .
- يوضح Gwern كيف يمكن لـ GPT-3 التعبير عن عدم اليقين .
- يوضح Gwern كيف يمكن لـ GPT-3 التعامل مع سلسلة من العمليات .
حتى الآن ، لا نرى سوى ما يمكن لـ GPT-3 فعله خارج الصندوق. بعد أن يقوم الأشخاص بتصميمه لأغراض محددة لفترة من الوقت ، قد نشهد بعض التحسينات الرئيسية. إذا كنت ترغب في الحصول على فهم أفضل لما يمكن تحقيقه من خلال تخصيص التلميحات ، فإن Gwern يغطي ذلك تمامًا.
خاتمة
لقد قطعنا شوطا طويلا بالتأكيد. أفضل ما كانت أجهزة الكمبيوتر قادرة عليه قبل ظهور الشبكات العصبية هو الحوار بهذا الشكل.
> مرحبًا ، أنا إليزا.
س: من كان رئيس الولايات المتحدة عام 1801؟
ج: ما هي الإجابة التي تفضلها؟
س: أيهما أثقل فأر أم فيل؟
ج: تعال ، وضح وجهة نظرك.
في بعض المناطق ، يعطي GPT-3 نتائج مبهرة ، بينما في مناطق أخرى يتخلف بوضوح عن البشر. آمل أنه من خلال فهم نقاط القوة والضعف بشكل أفضل ، سيتمكن المبرمجون من استخدام نماذج اللغة الحديثة بشكل أكثر فعالية في المنتجات الحقيقية.
حتى الآن ، GPT-3 API قيد الاختبار التجريبي المغلق ، وعليك الانتظار في قائمة الانتظار لاستخدامها. أوصي بالتسجيل وجربها عندما تسنح لك الفرصة.