سینما اور فلسفہ: ایک دوسرے کو کیا پیش کرتا ہے
السينما والفلسفة: ماذا تقدم إحداهما للأخرى
اصناف
ربما يتوقف الأمر على من يقع على كتفيه عبء الإثبات في هذا السجال. لكن من يحمل هذا العبء؟ أي من الموقفين يبدو أكثر منطقية في الأساس، موقف الجسمانيين أم اللاجسمانيين؟ وما موقف ديفيد من هذا كله؟ فهو على ما يبدو يملك جميع القدرات التي تميز الفرد الواعي. أمن الممكن أن يمتلك تلك القدرات دون أن يملك معرفة الكيفيات المحسوسة؟ أمن الممكن أن يمتلك مجموعة القدرات المعرفية والإدراكية بأكملها دون أن يعي مطلقا «التألم» المصاحب للألم، و«القنوط» المصاحب للكرب، و«الأسى» المصاحب للوحدة؟ أمن الممكن أن يكون زومبي؟ هل من الضروري أن يكون زومبي؟ كما عودتنا الفلسفة، تنتهي بنا الحال بأسئلة أكثر مما بدأنا بها، لكنها أسئلة مختلفة، أسئلة أفضل.
أسئلة
فلنفترض أن كفاءة الروبوتات تحسنت أكثر حتى أصبح من المستحيل تمييز الروبوت عن الإنسان، على المستوى الجسدي أو العاطفي، ما لم تفككه إلى أجزاء. هل يصبح حينئذ خوض علاقة وثيقة ومحبة مع تلك الروبوتات أمرا غير منطقي وغير مبرر، بل وغير طبيعي؟ أمن المفترض أن يجيز القانون زواج الإنسان والروبوت؟ أمن الممكن أن يعيش إنسان مع روبوت في زواج «سعيد»؟
في هذا الفصل، طرحنا الزعم التالي: «إذا اعتبرنا حب ديفيد غير أصيل لأنه مثبت سابقا، فربما يصبح حب أي طفل لأمه غير أصيل كذلك للسبب نفسه. نحن لا ننزع إلى الشك في حقيقة أو أصالة حب الطفل لوالديه؛ لذا ربما لا ينبغي لنا التشكك في حب ديفيد لأن أصله يرجع إلى المصمم.» هل كنا على حق في هذا الزعم؟ وحب الطفل (البشري ) لأبويه، أهو حب أصيل؟ هل هو حب أصيل على نحو لا يمكن لحب ديفيد أن يصبح مثله أبدا؟ ما الذي تمثله أصالة حب طفل؟ (ما الذي تمثله أصالة أي حب؟)
طرح جون سيرل تجربة الغرفة الصينية الافتراضية من أجل تفنيد الطموحات الهادفة إلى خلق برنامج ذكاء اصطناعي قوي. إنه الاعتقاد بأن أجهزة الكمبيوتر سوف تشتمل في النهاية على عقول اصطناعية (ذات وعي وإدراك وذكاء وقدرة عاطفية ... إلخ). وقد انتقدنا هذه الحجة في هذا الفصل. لكن من الممكن توجيه نسخة أكثر تواضعا من الغرفة الصينية لتفنيد اختبار تيورنج وليس برنامج الذكاء الاصطناعي القوي. فهل ستنجح في تحقيق هذا الهدف الأكثر تواضعا؟ (بعبارة أخرى: هل ستثبت أنه من الممكن اجتياز اختبار تيورنج دون امتلاك ذكاء تحاوري حقيقي؟)
هل يحتاج المرء إلى قدرات كقدرات الروبوت كي يفهم أي شيء؟ ومن ثم، أليس من الممكن أن يتأتى للكمبيوتر فهم الأشياء دون ملاحظة وحركة وفعل وغير ذلك؟ أليس التحدث (الناتج عن تنفيذ برنامج المحادثة) كافيا؟ ولم لا؟
في هذا الفصل، لم نعبأ كثيرا برد سيرل المبدئي على رد النظام. زعم سيرل أن الاعتقاد بقدرة المكونات الخاملة داخل نظام ما (مثل خزانة الملفات بكل ما تحتويه من ملفات ومجلدات داخل غرفته الصينية) على تحويل شيء لا يفهم إلى شيء يفهم هو اعتقاد سخيف؛ فكيف يسعها تحقيق ذلك؛ هي «لا تفعل» شيئا. هل تسرعنا في رفض هذا الرد؟ وهل يحمل اتهام سيرل شيئا من الصحة؟ كيف يمكن أن تصنع إضافة ملفات من المعلومات فارقا؟ (تذكر أن رد النظام يبلغ فاعليته القصوى عند الجمع بينه وبين رد الروبوت.)
هل أنت وذو الرأس الكبير شخص واحد؟ بعبارة أخرى: متى أصبحت داخل الغرفة الصينية، وحفظت التعليمات كلها عن ظهر قلب، فهل ستصبح نظاما معرفيا واحدا أم نظامين؟
في هذا الفصل، عبرنا عن اعتراض الكيفيات المحسوسة على النحو التالي: «لا يمكننا معرفة ما سنشعر به لو كنا مكان ديفيد؛ فذلك يشبه تخيل ما سنشعر به لو كنا محمصة خبز مثلا.» هل سيسعنا يوما ما معرفة ما إذا كان العقل الاصطناعي يختبر الكيفيات المحسوسة؟ إذا كانت جميع الأنظمة الإدراكية الحسية والمعلوماتية ذات الصلة تؤدي وظيفتها، فهل سيكون بمقدورك معرفة ما إذا كان العقل الاصطناعي يمر بالكيفيات المحسوسة أم لا؟ هل سيكون باستطاعتك الجزم بأن آخرين غيرك يمرون بالكيفيات المحسوسة؟ (سيزعمون أنهم يختبرونها، وهذا بالطبع هو ما سيقولونه، فهم في النهاية من الزومبي.) أو هل سيصبح بوسعك معرفة ما إذا كان شخص آخر يمر بنفس الكيفيات المحسوسة التي تمر بها عندما ينظر كلاكما إلى الشيء نفسه؟ (أعتقد أنه أحمر، أنت تقول إنه أحمر. لكن كيف أعرف أنك ترى ما أراه عندما أقول إنني أرى اللون الأحمر؟) بالنظر إلى نزوعنا نحو الشكوكية فيما يتعلق بالكيفيات المحسوسة، ألم نكن قساة حقا على ديفيد عندما قارنا حياته الداخلية بحياة محمصة خبز؟
هوامش
نامعلوم صفحہ