كان ما سبق هو إجابة “شات جي بي تي” على سؤال لمحرر ميدان قال فيه: “ما الذي تُمثِّله يا سيد جي بي تي؟”، أو “مَن أنت؟”، وهي إجابة متوقعة تماما من برنامج يقدم محاكاة للاستجابات والسلوكيات البشرية من خلال استخدام خوارزميات معالجة اللغة الطبيعية وتقنيات التعلم الآلي، هذا يسمح له بفهم مدخلات المستخدم (أسئلته) والرد عليها بطريقة مشابهة لكيفية تواصل الإنسان مع إنسان مثله. بالإضافة إلى ذلك، تسمح له برمجته بالتعلم من التفاعلات السابقة وتحسين استجاباته بمرور الوقت، مما يجعله يبدو أكثر شبها بالإنسان في محادثاته.
ChatGPT
في الواقع، فإن الفقرة السابقة هي أيضا إحدى إجابات “شات جي بي تي” حينما سأله المحرر: “إذا لم تكن واعيا، فلِمَ تبدو كذلك؟”، هذا النوع من الإجابات “ذات الطابع البشري” يثير نوعا من القشعريرة في الجسد، خاصة حينما يتطرق الحديث لأمور إنسانية، وهي نقطة يبرع فيها “شات جي بي تي”.
لكن ألا تعني تلك الإجابات أن هذا البرنامج الحاسوبي إذا أتقن محاكاة تفكير الإنسان وسلوكه، فسوف يفكر بالفعل في مرحلة ما -بشكل مستقل- مثل إنسان حقيقي؟ في الثمانينيات والتسعينيات من القرن الفائت اشتعلت تلك القضية في الفلسفة والعلم على حدٍّ سواء، حينما أُعطيت بعض الحواسيب قصة مبسطة، لتكن مثلا أن أحمد دخل إلى البقالة، وخرج حاملا ثلاث بيضات وعبوة من الحليب ونصف كيلوغرام من التفاح، هل دفع نقودا للبائع؟ إذا أجاب الحاسوب: “من المرجح أنه فعل”، فإن ذلك يعني أنه بالتبعية فهم القصة وأجاب بناء على ما تضمنته من معلومات، وهنا يأتي السؤال: كيف فهم الحاسوب القصة؟
جون سيرل، وهو أستاذ فخري في فلسفة العقل واللغة بجامعة كاليفورنيا بيركلي، أجاب عن هذا السؤال سنة 1980 عبر ورقة بحثية بعنوان(1) “العقول، الأمخاخ، والبرامج” يشرح فيها تجربة فكرية سمّاها آنذاك “مشكلة الغرفة الصينية” (Chinese Room Argument).
إلى الآن لا تزال تلك الحجة التي ألقى بها جون سيرل أحد أهم الانتقادات الموجهة للادعاءات المسماة في مجموعها “الذكاء الاصطناعي القوي” (Strong AI)، الذي يُعرف بتعبير سيرل أنه الظن أن برمجة آلة ما بشكل مناسب يُمكِّنها من معالجة جيدة للمدخلات وإعطاء مخرجات بشكل يشبه عقل البشر، أو باختصار: القول إن الآلة قد امتلكت وعيا أو إنها تفكر، باختصار، هي تلك الادعاءات التي تختزل الوعي البشري في عمليات إدخال وإخراج ومعالجة بيانات فقط.