إلى أين تأخذنا التكنولوجيا؟

ذكاء اصطناعي لم نعد نفهمه: لهذا يجب علينا أن نخشى التكنولوجيا

الصورة: Getty\Carsten Koall

بينما كانت امرأة ثلاثينية تسلم بياناتها على بوابة الدخول لتطبيق يساعدها على التنبؤ بشكلها عندما تبلغ الستين، كانت أخرى تشيع ابنها المراهق عقب انتحاره بسبب لعبة «الحوت الأزرق»، وفي ذلك الوقت أيضًا كان مارك زوكربيرغ، مؤسس فيسبوك، يخضع لاستجواب أمام الكونغرس الأمريكي دام لعشر ساعات على خلفية اتهامه في قضية تسريب بيانات مستخدميه.

هل توافق؟

عندما يبدي الناس تخوفات من الذكاء الصناعي، عادة ما يستحضرون صور مخلوقات آلية في هيئة بشرية تخطو خطوات شرسة، لكن المستقبل قد يختلف.

هذه المرأة القلقة بشأن جمالها في الهِرم، وضحايا الحوت الأزرق ومارك وترامب، يجمعهم هاتف ذكي يؤدي دور الجاسوس المحترف، الذي يتجسس على الجميع بإرادتهم.

«يحتاج التطبيق للوصول إلى بياناتك الخاصة من صور وأرقام وبريد إلكتروني، هل توافق؟»، رسالة لم ينجُ منها مالك هاتف ذكي خلال تحميل تطبيقات التواصل الاجتماعي، أو ربما من أجل استخدام تطبيقات ترفيهية على فيسبوك، مثل معرفة شبيهك من الفنانين، أو تحليل شخصيتك، أو غيرها من التطبيقات التي تجمع معلومات أكثر دقة عنك.

وبثقة غير مبررة في هذا التطبيق الذي يبدو أليفًا، يجيب معظمنا بالموافقة على الطلب الذي يبدو بريئًا على عكس حقيقته.

هذه البيانات ونتائج تلك التطبيقات هي عينها ما استخدمته شركة «كامبريدج أناليتيكا» لقياس التوجهات السياسية والنفسية والاجتماعية وكيفية استخدامها للتأثير على التوجهات الانتخابية، وهي ذاتها التي يستخدمها «الحوت الأزرق» لإجبار اللاعب على تنفيذ الأوامر، إذ يهدد المسؤول اللاعبين بنشر بعض الأمور والأسرار الشخصية عنهم لبث الرعب في أنفسهم وإجبارهم على إكمال التحدي إلى النهاية.

ألقت زينب توفيقي، الكاتبة التركية والبروفيسورة المساعدة في مدرسة علوم المعلومات والمكتبات بجامعة نورث كارولينا الأمريكية، محاضرة عبر منصة «تيد» بعنوان «نحن نصنع ديستوبيا (نقيض اليوتوبيا) فقط كي ندفع الناس للضغط على الإعلانات»، تحدثت فيها عن السيناريوهات المحتملة لسوء استخدام بيانات المستخدمين.

في المحاضرة، تطرح زينب فكرة بسيطة، هي أنه عندما يبدي الناس تخوفهم من الذكاء الصناعي، فإنهم عادة ما يستحضرون في أذهانهم صور مخلوقات آلية في هيئة بشرية، تخطو خطوات آلية شرسة. ورغم إمكانية أخذ ذلك في الحسبان، فإنه تهديد بعيد، فنحن، كما ترى زينب، نقلق بشأن الحصار الرقمي باستعارات من الماضي.

اقرأ أيضًا: ما يمكن أن تفعله «البيانات الوصفية» بعلاقاتك وحياتك

بحثًا عن ديستوبيا خاصة بنا

عادت رواية «1984» لجورج أورويل إلى قائمة الكتب الأكثر مبيعًا مجددًا.

حسنٌ، إنه كتاب رائع، لكنه ليس «الديستوبيا» الأنسب للقرن الواحد والعشرين. ما يجب بحق أن نقلق بشأنه ليس ما يمكن للذكاء الاصطناعي أن يُحدثه لنا في حد ذاته، بل علينا أن نقلق من كيفية استخدام ذوي النفوذ لهذا الذكاء للتحكم  والتلاعب بنا، بطرق بارعة وغير متوقعة. كثير من أدوات التكنولوجيا التي تهدد حريتنا وكرامتنا في المستقبل القريب يجري تطويرها في الشركات التي تجمع وتبيع بياناتنا واهتماماتنا للمعلنين وغيرهم، مثل فيسبوك وعلي بابا وأمازون وغوغل.

بدأ الذكاء الاصطناعي في دعم تجارتهم تلك، وربما يبدو هذا بهدف التسويق الإلكتروني، لكنه ليس كذلك، إنه عالم مختلف، يطرح احتمالات هائلة، يمكنه أن يختصر العديد من الدراسات والأبحاث. يمكننا أن نستحضر مقولة لفيلسوف هوليوودي: «الاحتمالات الهائلة تحمل مخاطر هائلة».

في فيسبوك، كل المعلومات والصور والمنشورات يجري تحليلها، حتى ما لم يُنشر.

ترى زينب أن علينا أن نلتفت إلى حقيقة أساسية في حياتنا الرقمية: الإعلانات. جميعنا نتخطاها، تبدو لنا غليظة أو غير فعالة، جميعنا مر بتلك التجربة، زوج من الأحذية بحثت عنه على الإنترنت يطاردك في كل صفحة ونشاط تفعله، وحتى لو استسلمت واشتريته في النهاية، سيظل يطاردك إعلان عنه. ربما نرى هذا أسلوبًا رخيصًا وفاشلًا للدعاية، لكنه في الواقع ليس كذلك على الإطلاق.

تطلب منا زينب أن نفكر في الأمر بطريقة أخرى. لنفكر في هذا المثال: في السوبر ماركت، يضعون الحلوى بجانب الكاشير حتى يتعلق بها الأطفال ويلحون على أهاليهم بشرائها وقت الحساب، وعادةً ما ينصاع الأهالي لإلحاح الأطفال. هذه إحدى تقنيات الإقناع في التجارة، ربما تكون غير مقبولة لكنها تحقق الهدف.

لكن الفرق بين آليات الإقناع الخاصة بالعالم المادي والعالم الرقمي هو أن المعلِن يستهدف في العالم الرقمي كل فرد على حدة مستخدمًا نقاط ضعفه، ويصل إلى شاشة هاتفه الخاص، لذا فهو غير مرئي للجميع.

في فيسبوك، كل المعلومات والصور والمنشورات يجري تحليلها، حتى ما لم يُنشر، بل يحاول الموقع أن يصل حتى إلى بياناتك «الأوفلاين»، الأشياء التي تفعلها بينما لا تكون متصلًا أصلًا بالإنترنت.

يشتري الموقع كثيرًا من البيانات من وسطاء آخرين، مثل سجلاتك المالية، أو ربما قدر وفير من تاريخ تصفحك. في الولايات المتحدة الأمريكية، كل تلك البيانات تُجمع ثم تباع، بخلاف أوروبا، التي لديها قوانين أكثر صرامةً في هذا الشأن.

اقرأ أيضًا: تساؤلات عن تعامل الحكومات مع تسريب معلوماتنا الشخصية

عن طريق مزج تلك المعلومات، تؤكد زينب أن الشركة تقدر على فهم خصائص الناس. وعندما تدرس فيسبوك المعلومات الموجودة تتعلم كيف تطبقها على أناس آخرين.

يمكنك تجاهل محاولات الإيقاع بك في عملية بيع وشراء، لكن الأزمة أننا لا نعرف كيف تعمل تلك الخوارزميات، لا نعرف كيف تجري عملية التصنيف، آلاف الصفوف والأعمدة وربما الملايين، لا نعلم كيف تعمل وبأي نتائج يمكنها أن تخرج. أن تكون مطلعًا على مخي، هذا يعني أننا لم نعد نبرمج، بل ننمي ذكاءً لا نفهمه.

هذه الطرق لا تعمل إلا بقدر هائل من البيانات، وهو ما يشجع على شن مراقبة عميقة علينا، حتى تستطيع الآلات أن تعمل بصورة أفضل، لذلك يريد فيسبوك أن يجمع كل البيانات المتاحة عنك.

فيسبوك: الخوارزميات تراك

هل قصدتَ موقع يوتيوب يومًا لمشاهدة شيء ما، ثم وجدت بعد ساعة أنك تشاهد شيئًا آخر مختلفًا تمامًا؟

إنها الخوارزميات من يتولى مهمة الانتقاء، وتعرف أنك ربما تكون مهتمًّا بمشاهدة هذه المقاطع، قد يبدو الأمر مفيدًا، لكنه ربما يكون عكس ذلك أحيانًا.

تقول زينب إنها حضرت في عام 2016 مسيرات للمرشح الرئاسي، وقتها، دونالد ترامب، بهدف دراسة حركة دعمه، بحكم دراستها للحركات الاجتماعية.

أرادت أن تكتب شيئًا عن إحدى تلك المسيرات، لذا شاهدتها عدة مرات على يوتيوب، من ثَمَّ بدأ يوتيوب يرشح لها مقاطع عن سيادة البيض في ترتيب متصاعد للتطرف. وكلما شاهدت واحدًا، يقدم لها يوتيوب آخر أكثر تطرفًا، بل ويشغله تلقائيًّا. وعندما كانت تشاهد مقطعًا لهيلاري كلينتون أو بيرني ساندرز، منافسي ترامب في انتخابات الرئاسة، كان يوتيوب يرشح مقاطع عن مؤامرات اليسار.

ربما تظن أنها سياسة، لكنها ليست كذلك، إنها خوارزميات تصنف سلوكيات البشر.

هذه الخوارزميات توصلت إلى أن إغراء المُشاهد بمشاهدة عدة مقاطع مرتبة تصاعديًّا من الأقل تطرفًا إلى الأكثر، يمكن أن يبقيه على الموقع لمدة أطول لمشاهدة المقاطع تباعًا.

يمكن لتلك الخوارزميات أن تحدد هوية من يكرهون اليهود مثلًا، ليساعدوا المعلن المناسب على الوصول إليهم. يمكنها كذلك مساعدتك على إيجاد من هم مستعدون لمعادة السامية، أناس لا يعادونها صراحةً لكن الخوارزميات تستطيع أن تحدد إن كانوا مستعدين محتمَلين لذلك، من أجل التوجه إليهم بإعلانات مناسبة.

قد يبدو ذلك غير قابل للتصديق لكنه حقيقة، وتؤكد زينب أن الأمر نفسه يحدث بواسطة فيسبوك، الذي يوفر لك بترحاب اقتراحات للوصول إلى جمهورك المستهدف، ويصنف المنشورات التي ينشرها أصدقاؤك والصفحات التي تتابعها، ولا يرتبها زمنيًّا، بل بالطريقة التي تظن الخوارزمية أنها ستغريك للبقاء لفترة أطول على الموقع.

يبدو أن الخوارزميات يمكنها التأثير على المشاعر أيضًا، فبحسب زينب، أثبتت التجارب أن الخوارزميات بمقدورها استهدافك طبقًا لمشاعرك في لحظة معينة، وإبراز عناوين بعينها تناسب حالتك المزاجية.

ليس هذا كل شيء، فهي تؤثر أيضًا في سلوكك السياسي.

ففي عام 2010، في الانتخابات النصفية الأمريكية، أجرى فيسبوك تجربة على 61 مليون مواطن عبر نشر جملة تقول: «الانتخابات اليوم» لبعضهم، بينما نشر لآخرين تصميم صغير بعنوان «لقد انتخبت» مع صورة الأصدقاء الذين فعلوا ذلك. كانت نتيجة ذلك أن نحو 340 ألف مصوت سجلوا نشاطهم الانتخابي على هذا التطبيق. هل يمكن أن تكون صدفة؟

لا، ففي 2012 كرر فيسبوك نفس التجربة، وهذه المرة أعاد 270 ألف ناخب نشر الرسالة. الآن يستطيع فيسبوك أن يستنتج اتجاهاتك السياسية حتى وإن لم تكن قد أفصحت عنها له.

ينجح فيسبوك لأنه يعمل جيدًا كتقنية إقناع، لكن هذه التقنية تعمل بنفس الطريقة سواء كنت تبيع حذاءً أو سياسة. الخوارزميات لا تعرف الفارق.

شيئًا فشيئًا، سيصبح النقاش العام مستحيلًا، ونحن على أول هذا الطريق.

هذه الخوارزميات يمكنها ببساطة استنتاج أشياء مثل الأصل العرقي والديني والآراء السياسية للناس، طبيعة الشخصية والذكاء، مستوى السعادة، تعاطي المخدرات، التشتت الأسري، السن، النوع، فقط عبر تفاعلاتهم مع المنشورات والصفحات على فيسبوك. هذه الخوارزميات يمكنها التعرف على المحتجين حتى إن كانت وجوههم ملثمة، وتحديد الميول الجنسية للأشخاص فقط عن طريق صورهم.

قد يعجبك أيضًا: هاتفك، حرفيًّا، جزء منك

لا تُخفي زينب قلقها الشديد من هذا، وتدعونا إلى تخيل ما يمكن أن تفعله دولة بهذا الكم الهائل من بيانات المواطنين. الصين بالفعل تستخدم تكنولوجيا التعرف على الوجه للتحديد والقبض على المواطنين، وهنا تكمن التراجديا: نحن نبني هذه البنية التحتية للمراقبة المستبدة لمجرد دفع الناس إلى الضغط على إعلان.

إذا استخدم الاستبداد هذه التخوفات العلنية لإرهابنا، سنكرهها ونقاومها، لكن إذا استخدم أصحاب السلطة هذه الخوارزميات لمشاهدتنا في صمت، سيتمكنون من الحكم علينا ومعرفة المشاغبين والمتمردين، سيتمكنون من بث القناعات والتحكم في الأفراد باستخدام نقاط ضعف كلٍّ منهم، ولو فعلوا هذا على نطاق شخصي عبر شاشاتنا الصغيرة، فإن الاستبداد، والسيطرة كذلك، سيحاصرنا مثل شبكة العنكبوت، وربما لا نعرف حتى أننا قد وقعنا فيها.

يقترب رأسمال شركة فيسبوك من نصف تريليون دولار، وهذا لأنها تعمل جيدًا كتقنية إقناع، لكن هذه التقنية تعمل بنفس الطريقة سواء كنت تبيع حذاءً أو سياسة. الخوارزميات لا تعرف الفارق.

ماذا علينا أن نفعل؟

لكن زينب تعود في نهاية حديثها لتؤكد أهمية مواقع التواصل الاجتماعي، وتدعو إلى اتخاذ تدابير جديدة تحمينا من مساوئها، فنحن نستخدم مواقع التواصل الاجتماعي لأنها تمدنا بقيمة هائلة، لكن الأمر لا يتعلق بنوايا الشركات أو ما يقولونه عن نواياهم، إنها الأنظمة ونماذج التجارة التي يبنونها، وهذا هو لب المشكلة.

إذًا، ماذا يمكننا أن نفعل؟

في رأي زينب توفيقي، يحتاج هذا إلى تغيير. نحتاج لإعادة بناء الطريقة التي تعمل بها التكنولوجيا الرقمية كليًّا، بدءًا بالطريقة التي تطورت بها التكنولوجيا أصلًا، وصولًا للطريقة التي تُدار بها اقتصاديات هذا النظام. نحن في حاجة إلى مواجهة ومحاولة التعامل مع افتقار الشفافية التي جرى إحداثها بواسطة تلك الخوارزميات، إلى الاستثمار في التحدي الهيكلي لآلية التعتيم، وكل تلك البيانات العشوائية التي تُجمع عنا. أمامنا مهمة كبيرة، علينا أن نعبئ التكنولوجيا والإبداع، بل وسياساتنا، لنتمكن من بناء ذكاء اصطناعي يخدمنا ويدعم أهداف البشرية.