إلى أين تأخذنا التكنولوجيا؟

خطر المعلومة الإجبارية: كيف يحرمنا الذكاء الصناعي حقنا في عدم المعرفة؟

الصورة: Getty/Eva-Katalin

بعد سقوط سور برلين، الذي كان يفصل بين ألمانيا الشرقية والغربية، عُرض على المواطنين الذين كانوا يعيشون تحت القبضة الحديدية للنظام الشيوعي في ألمانيا الشرقية أن يطلعوا على الملفات السرية التي تخصهم، كجزء من عملية التصالح مع الشعب.

تحتوي هذه الملفات على تسجيلات وتأريخ ومعلومات تخص أصحاب هذه الملفات، جمعها النظام طيلة سنوات الحكم الشيوعي. ويُقدر أن 10% فقط من تعداد السكان حاولوا قراءة ملفاتهم.

هذه لحظة معبِّرة عن «عدم الرغبة في المعرفة»، كان سقراط يتضايق منها كثيرًا. الفيلسوف الشهير كان من أقواله أن الحياة التي لم تُجرَّب حتى النهاية (ولم تُعرف بطبيعة الحال) لا تستحق أن تعاش.

لكن الواقع يخبرنا بأنه عندما يكون أمامنا الاختيار بين المعرفة والتجاهل، فإن بعض الناس يفضلون عدم معرفة أشياء، مثل تاريخ موتهم أو إمكانية إصابتهم بأمراض خطيرة، أو أن يعرفوا تواريخ الأحداث المستقبلية السعيدة في حياتهم.

اختيار التجاهل لا بد من أن يكون وراءه خوف من المعرفة، ولكن عددًا من أقدم قصصنا تصف أخطار المعرفة التي لا نحتاجها.

في قصة آدم وحواء وشجرة المعرفة، وقصة بروميثيوس وسرقة سر النار، خير دليل على أن هناك دائمًا توازنًا دقيقًا بين الرغبة في المعرفة والخطر الناتج عن ذلك.

لكن ماذا لو تغيرت موازين القوى دون سيطرة منا؟ ماذا لو لم يعد بإمكاننا أن نختار التجاهل؟ هذه المسألة أصبحت أمرًا واقعًا بالفعل، نتيجة لما نطلق عليه: الذكاء الصناعي.

تشرح «كريستينا لوكر»، في مقال على موقع «Nautil»، كيف تنفلت الأمور من أيدينا، وكيف يمكننا مواجهة ذلك.

كلها أنماط

الصورة: Negative Space

حسب الاتفاقية الأوروبية لحقوق الإنسان والطب الحيوي: يحق لكل شخص معرفة أي معلومات يجري جمعها عن صحته.

أصبح بإمكان الذكاء الصناعي أن يجد أنماطًا ويحللها باستخدام بيانات قليلة. فمن خلال ما تختار أن تُعجَب به على فيسبوك مثلًا، يمكن لهذه الخوارزميات أن تتوقع شخصيتك وعرقك وجنسك.

هناك خوارزمية أخرى تزعم أنها تستطيع التفريق بين مثليي الجنس ومغايريه من الرجال بدقة تصل إلى نسبة 81%، وبين مثليي الجنس ومغايريه من النساء بنسبة 71%، هذا بالنظر إلى صورهم فقط.

خوارزمية أخرى يُطلق عليها «COMPAS» يمكنها التنبؤ بالانتكاسات الإجرامية لمن سبق اعتقالهم، عن طريق بيانات تلك الاعتقالات، والسجلات الجنائية لأسرهم، إضافة إلى التعليم والعزلة الاجتماعية والأنشطة الترفيهية، بدقة تصل إلى 65%.

في كل حالة من الحالات، يمكن لطبيعة الاستنتاجات فيها أن تمثل خروجًا مفاجئًا عن طبيعة البيانات المستخدمة، ما يجعل من الصعب السيطرة على ما نعرفه. والقواعد التي من شأنها أن تساعدنا على البقاء في حالة تجاهل، قليلة جدًّا، وليس هناك أي سبيل لحماية حقنا في عدم المعرفة.

لطالما أدرك المشرِّعون والحكومات أنه من الأفضل أحيانًا ترك «صندوق باندورا» مغلقًا.

تنص الاتفاقية الأوروبية لحقوق الإنسان والطب الحيوي لعام 1997، على أنه «يحق لكل شخص معرفة أي معلوماتٍ يجري جمعها عن صحته. مع ذلك، يجب مراعاة رغبات الأفراد بعدم إبلاغهم بأي معلومة جرى الحصول عليها، ولا يرغب صاحبها في معرفتها».

كتابة قوانين لحماية الحق في عدم معرفة الذكاء الصناعي معلوماتنا أمر مختلف تمامًا. فبيانات القطاع الطبي منظمة جدًّا، بينما البيانات التي يجمعها الذكاء الصناعي ويستخدمها، غالبًا ما تكون في أيدي قطاع التكنولوجيا الربحي. غير أن أنواع البيانات التي يتناولها الذكاء الصناعي تكون على نطاق أوسع بكثير. لذلك، فإن وجود أي قوانين يتطلب فهمًا على مدى أكبر لما يعنيه الحق في عدم المعرفة.

اقرأ أيضًا: ذكاء اصطناعي لم نعد نفهمه: لهذا يجب علينا أن نخشى التكنولوجيا

الحق في عدم المعرفة، ولماذا نهتم به؟

نشر عالم النفس «رالف هرتويغ»، والباحث القانوني «كريستوف إنجل»، تصنيفًا شاملًا لدوافع التجاهل، وحددوا مجموعتين من الدوافع لها صلة محددة بعدم الرغبة في المعرفة أمام ما يفرضه علينا الذكاء الصناعي.

  • المجموعة الأولى من الدوافع تدور حول النزاهة والعدالة

بمعنى أنه يمكن للمعرفة أحيانًا أن تخرِّب أحكامنا. لذلك يكون اختيارنا في أن نظل غير عارفين، هو طريقتنا في تجنب ذلك. مثلما تكون المراجعات النظرية للأوراق الأكاديمية مجهولة، وكذلك لا يُسمح لشركات التأمين في معظم البلاد بمعرفة تفاصيل صحة العميل كاملة قبل التسجيل، إذ يُسمح لهم فقط بمعرفة عوامل الخطر العامة. هذا النوع من الاعتبارات له علاقة مباشرة بالذكاء الصناعي، لأن ذلك الذكاء قد يُنتج معلومات مجحفة وضارة.

  • المجموعة الثانية من الدوافع هي الرغبة في ضبط المشاعر وتجنب الندم

يجادل هرتويغ وإنجل في أن التجاهل يساعد الناس أحيانًا على الاحتفاظ بمعتقداتهم العزيزة عليهم، وتجنب الإرهاق الذهني والخوف والتنافر المعرفي.

الرغبة في عدم المعرفة منتشرة بشكل كبير. في استطلاع للسكان الألمان، اختار 90% منهم أن يتجنبوا المشاعر السلبية التي قد تنتج عن المعرفة المسبقة للأحداث السيئة، مثل الموت أو الطلاق، واختار من 40% إلى 70% عدم معرفة الأحداث الإيجابية حتى، ليشعروا بلذة المفاجأة والتشويق عند حدوثها، كعدم معرفة جنس الجنين مثلًا.

من شأن الدوافع السابقة أن تساعدنا على فهم الحاجة إلى حماية حقنا في عدم المعرفة في مواجهة الذكاء الصناعي.

في خوارزمية «غايدار» (Gaydar) مثلًا، التي تساعد في تحديد الميل الجنسي للشخص، يصعب استخراج فائدة واحدة منها إلا الإعلانات بالطبع، بينما تشكل خطرًا في ظروف معينة. ففي بعض البلدان التي يعاني المثليون فيها من وصم اجتماعي ونقص في الحقوق القانونية، تشكل هذه الخوارزمية تهديدًا حقيقيًّا بالنسبة إلى سلامتهم.

بالمثل، يبدو أن الفوائد المتوقعة للخوارزمية التي تكشف عن العرق، والتي يُجرى العمل عليها حاليًّا في «NtechLab»، ليست كبيرة مقارنةَ بتأثيرها السلبي الممكن في النزاهة والعدالة وتخريب أحكامنا.

ليست هناك إجابة جاهزة عن سؤال: متى يمكن للتجاهل الجماعي أن يكون مفيدًا أو ملائمًا أخلاقيًّا؟

تعمل خوارزمية «الانتكاس الإجرامي» (COPMAS) بدقة أكثر من الإنسان. لكنها ليست الدقة التي نأملها، وبخاصة من وجهة نظر الشخص الذي يكمن مستقبله في التوازن بين المعرفة والتجاهل. والخوارزميات التي تتنبأ بالعمر المتوقع للأشخاص، مثل التي طورتها «أسباير هيلث»، لا تسهم بالضرورة في جعل ضبط المشاعر أمرًا أكثر سهولة.

مثال آخر على انتهاك خصوصيتنا بمساعدة تلك الخوارزميات، وفقًا لقصة نُشرت في مجلة «The New York Times»، هو ما حققته شركة «Target»، التي طورت خوارزمية تشير إلى أنه عند شراء امرأة 25 منتجًا معينًا، فإنها حامل بالتأكيد. الهدف من المعلومة هو إرسال كوبونات شراء للمنتجات التي قد تحتاجها امرأة تتوقع طفلًا.

أرسلت الشركة هذه الكوبونات إلى فتاة في سن المراهقة، فذهب أبوها إلى الشركة غاضبًا من هذا الفعل، لأن ابنته ما زالت في المدرسة الثانوية، و«Target» ترسل إليها عروضًا لملابس الأطفال والأمومة. اعتذر المدير، وهدأ الوالد بسبب سوء الفهم. اتصل المدير بالوالد بعد عدة أيام ليعتذر مرة أخرى، فأخبره الوالد بأنه هو من عليه تقديم اعتذاره لأنه اكتشف أن ابنته الصغيرة حامل منذ مدة.

هذه الأمثلة توضح فائدة تحديد الدوافع الفردية التي تجعلنا نختار عدم المعرفة أحيانًا، وتُظهر مدى تعقد الأسئلة المعلقة بالمعرفة والتجاهل، وخصوصًا عندما يكون الذكاء الصناعي الطرف الآخر في المشكلة. ليست هناك إجابة جاهزة بعد عن سؤال: متى يمكن للجهل الجماعي أن يكون مفيدًا أو ملائمًا أخلاقيًّا؟

لأن المقاربة الأفضل هي النظر في كل حالة على حدة، وإجراء تحليل للأخطار والفوائد. وحتى تكتمل مثالية المقاربة، وبسبب تعقد النقاش وما قد يترتب على ذلك، يجب أن يكون هذا التحليل علنيًّا، ويشمل آراء أصحاب الشأن والخبراء، ويُنظر في جميع النتائج المستقبلية الممكنة، بما في ذلك أسوأ السيناريوهات.

تقييد المعلومات التي تستخدمها الشركات الكبرى مكلف ماديًّا وصعب تقنيًّا، ويتطلب من تلك الشركات أن تجعل برمجياتها مفتوحة المصدر، أي يمكن لأي شخص الاطلاع على شفرتها البرمجية وتعديلها، وأن تُراجع الوكالات الحكومية المختصة تلك البرمجيات باستمرار. إضافة إلى أنه بمجرد تجميع مجموعات ضخمة من البيانات، فهناك طرق عدة لاستنتاج أي دلالات بطرق دائرية.

مثلًا، لنفترض أن استخدام بيانات نوع الجنس للتنبؤ بالنجاح الأكاديمي أصبح أمرًا غير قانوني، فإنه من السهل استخدام متغير مثل «نوع السيارة المملوكة» أو «النوع الموسيقي المفضل» للاستدلال على نوع الجنس، وإجراء استنتاج آخر والتنبؤ على أساسه بالنجاح الأكاديمي.

كلما زادت المتغيرات التي يتضمنها التحليل، زادت فرص حدوث استدلالات إضافية.

المقارنة الأكثر راديكالية، وربما فعالية، لحماية الحق في عدم المعرفة هي منع جمع البيانات أصلًا.

في خطوة رائدة في عام 2017، أصدرت ألمانيا تشريعًا يمنع السيارات ذاتية القيادة من تحديد هوية الناس في الشارع بناءً على العرق والسن والجنس، ما يعني أن السيارة ستكون غير قادرة على تزويد القيادة الذاتية ببيانات تلك الفئات، وخصوصًا بالنسبة إلى القرارات التي يجب اتخاذها عندما يكون هناك حادثة حتمية لا يمكن تفاديها.

تماشيًا مع المقاربة السابقة، فإن «لائحة حماية البيانات العامة الجديدة للاتحاد الأوروبي» (GDPR)، والتي جرى تفعليها في مايو 2015، تنص على أنه يسمح للشركات بجمع الحد الأدنى من البيانات اللازمة وتخزينها لتوفير الخدمة المطلوبة، وضرورة الحصول على موافقة العملاء حول كيفية استخدام بياناتهم الخاصة. من شأن هذا التقييد أن يمنع الاستدلالات من الدرجة الثانية.

تنقل «نيويورك تايمز» عن الناشط والمبرمج الأمريكي «ريتشارد ستالمان» أن هناك طرقًا كثيرة لاستخدام البيانات الشخصية في إيذاء أصحابها، للدرجة التي تجعل البيانات الأكثر أمانًا هي التي لم تُجمع قط.

اقرأ أيضًا: ما يمكن أن تفعله «البيانات الوصفية» بعلاقاتك وحياتك

هل يعوق هذا تطور الذكاء الصناعي؟

الصورة: JESHOOTS.com

البيانات التي نتحدث عن حمايتها الآن تخصني وتخصك. هذا لأننا قضينا سنوات كثيرة في تقديم بيانات شخصية لمواقع مثل فيسبوك، وما يعرضه من ألعاب واختبارات تبدو ممتعة وطريفة. لكن الأمر الذي لم نفكر فيه هو وجود طرف ثالث أحيانًا يشتري تلك البيانات ويستخدمها دون موافقة أو دراية منا. وهذا ما فعلته شركة «كامبريدج أناليتيكا» بهدف تطوير برنامج معلوماتي لأغراض سياسية منذ عام 2014.

وضع قيم اقتصادية للبيانات الشخصية قد يؤدي إلى بيانات دون خصوصية لغالبية الأشخاص، وامتيازات أخرى تحمي بيانات الأغنياء.

استمرارنا في تقديم بياناتنا الشخصية طوعًا لمدة طويلة جعلنا ننسى أن تلك البيانات ملكنا في المقام الأول. استعادتنا لها تتيح تحديد ما نريد أو ما لا نريد معرفته.

يقترح «جارون لانييه»، فيلسوف علوم الكمبيوتر، حجة اقتصادية أخرى لإعادة البيانات إلى أيدي أصحابها، وهي أننا يجب أن نكون قادرين على الاستفادة من بياناتنا الخاصة، بإمكانية بيعها للشركات الكبرى، إن أردنا ذلك.

لكن هناك مشكلتين تعيقان هذا الاقتراح. أولًا: تلوث أخلاقيات استخدام البيانات وملكيتها. كم من أفراد الأقليات سيتخلون عن بياناتهم من أجل المساعدة في إنشاء تطبيق للتعرف إلى الوجه، مثل «Gaydar»؟ كم منهم سيوافق على أن تدفع له أموالًا مقابل ذلك؟ لكن على الجانب الآخر، فإن غالبية السكان سيتخلون عن بياناتهم طواعية وسرورًا لإيجاد علاج للسرطان، مثلًا.

ثانيًا: وضع قيم اقتصادية للبيانات الشخصية قد يؤدي إلى بيانات دون خصوصية لغالبية الأشخاص، وامتيازات أخرى تحمي بيانات الأغنياء.

كتبت صحيفة «The Economist» أن أغلى مَورد في العالم لم يعد النفط، بل البيانات. لكن البيانات تختلف كثيرًا عن النفط، فهي مورد غير محدود، يمتلكها الأفراد ويمكن تبادلها دون قيم اقتصادية للمعاملات. جني الأرباح من البيانات من شأنه أن يوفر في المستقبل المساحة التي نحتاجها لخلق معايير أخلاقية، والحفاظ عليها لتنجو من طوفان الذكاء الصناعي، وتمهد الطريق لإدارة التجاهل الجماعي.

المسألة في النهاية مرتبطة بسيطرتنا على بياناتنا. هذه السيطرة هي التي تسمح لنا في بعض الأوقات بأن نصرح: لا أريد أن أعرف، ولا أريد للخوارزميات أن تعرف.