غير مصنف

الذكاء الاصطناعي هل يمكن أن يهدد حقوق الإنسان ؟

الذكاء الاصطناعي هل يمكن أن يهدد حقوق الإنسان ؟

 

أثار الهدف التوسعي للذكاء الاصطناعي العديد من الأسئلة والنقاشات ، و نبدأ مقالتتا ، بسؤال بسيط: “هل تستطيع الآلات التفكير؟”

 

الذكاء الاصطناعي في جوهره هو فرع علوم الكمبيوتر ، الذي يهدف إلى بناء آلات ذكية ، إنه محاولة لتكرار أو محاكاة الذكاء البشري في الآلات.

ماذا يعني الذكاء الاصطناعي؟

نجد ان تعريف الذكاء الاصطناعي على أنه مجرد “آلات بناء ذكية” ، هو تعريف لا يفسر في الواقع ما هو الذكاء الاصطناعي؟ ، وما الذي يجعل الآلة ذكية؟

 

الذكاء الاصطناعي هو علم متعدد التخصصات له مناهج متعددة ، لكن التطورات في التعلم الآلي والتعلم العميق تخلق نقلة نوعية في كل قطاع تقريبًا من صناعة التكنولوجيا.

 

في حين أن هذه التعريفات قد تبدو مجردة بالنسبة للشخص العادي ، إلا أنها تساعد في تركيز المجال كمجال لعلوم الكمبيوتر وتوفر مخططًا لغرس الآلات والبرامج بالتعلم الآلي ومجموعات فرعية أخرى من الذكاء الاصطناعي.

 

الأنواع الأربعة للذكاء الاصطناعي

 آلات رد الفعل

تتبع الآلة التفاعلية أبسط مبادئ الذكاء الإصطناعي ، وكما يوحي اسمها ، فهي قادرة فقط على استخدام ذكائها لإدراك العالم الذي أمامها والتفاعل معه .

 

لا يمكن للآلة التفاعلية تخزين ذاكرة ، ونتيجة ذلك لا يمكنها الاعتماد على التجارب السابقة لإبلاغ عملية صنع القرار في الوقت الفعلي.

 

إن الآلات التفاعلية مصممة لإكمال عدد محدود فقط من المهام المتخصصة ، لا يُعد هذا التضييق للآلة التفاعلية نوعًا من تدابير خفض التكاليف عمدًا .

 

بل يعني بدلاً من ذلك أن هذا النوع من الذكاء الإصطناعي سيكون أكثر موثوقية ، اي انه سوف يتفاعل بنفس الطريقة مع نفس المحفزات في كل مرة.

 

على الرغم من محدودية النطاق وعدم سهولة تغييره ، يمكن للذكاء الإصطناعي التفاعلي للآلة أن يصل إلى مستوى من التعقيد ، ويوفر الموثوقية عند إنشائه لإنجاز المهام القابلة للتكرار.

 ذاكرة محدودة

يمتلك الذكاء الإصطناعي للذاكرة المحدودة القدرة على تخزين البيانات والتنبؤات السابقة عند جمع المعلومات وموازنة القرارات المحتملة .

 

يعد الذكاء الإصطناعي للذاكرة المحدودة أكثر تعقيدًا ويوفر إمكانيات أكبر من الآلات التفاعلية .

 

يتم إنشاء الذكاء الإصطناعي عندما يقوم فريق باستمرار بتدريب نموذج في كيفية تحليل واستخدام البيانات الجديدة أو بناء بيئة الذكاء الإصطناعي بحيث يمكن تدريب النماذج وتجديدها تلقائيًا.

 

عند استخدام الذاكرة المحدودة للذكاء الإصطناعي في التعلم الآلي ، يجب اتباع ست خطوات:

  • إنشاء بيانات التدريب .
  • إنشاء نموذج التعلم الآلي .
  • أن يكون النموذج قادرًا على إجراء تنبؤات .
  • أن يكون النموذج قادرًا على تلقي ردود فعل بشرية أو بيئية .
  • تخزين هذه التعليقات كبيانات .
  • ويجب تكرار هذه الخطوات كدورة متكررة.

 نظرية العقل

نظرية العقل هي مجرد نظرية , لم نحقق بعد القدرات التكنولوجية والعلمية اللازمة للوصول إلى هذا المستوى التالي من الذكاء الاصطناعي.

 

يعتمد هذا المفهوم على الافتراض النفسي لفهم أن الكائنات الحية الأخرى لديها أفكار ومشاعر تؤثر على سلوك الذات.

 

فيما يتعلق بآلات الذكاء الاصطناعي ، فإن هذا يعني أن الذكاء الاصطناعي يمكنه فهم كيف يشعر البشر والحيوانات والآلات الأخرى واتخاذ القرارات من خلال التفكير الذاتي والتصميم ، ثم استخدام هذه المعلومات لاتخاذ قراراتهم بأنفسهم.

 

هذه الآلات قادرة على استيعاب مفهوم “العقل” ومعالجته ، وتقلبات المشاعر في صنع القرار ومجموعة من المفاهيم النفسية الأخرى في الوقت الفعلي ، مما يخلق علاقة ثنائية الاتجاه بين الناس والذكاء الاصطناعي.

 

الوعي الذاتي

 

بمجرد أن يتم إنشاء نظرية العقل في الذكاء الاصطناعي ، في وقت ما في المستقبل ، فإن الخطوة الأخيرة ستكون أن يصبح الذكاء الاصطناعي مدركًا لذاته.

 

يمتلك هذا النوع من الذكاء الإصطناعي وعيًا على مستوى الإنسان ويفهم وجوده في العالم ، فضلاً عن وجود الآخرين وحالتهم العاطفية.

 

سيكون قادرًا على فهم ما قد يحتاجه الآخرون ليس فقط بناءً على ما يوصلونه إليهم ولكن كيف يقومون بتوصيله.

 

يعتمد الوعي الذاتي في الذكاء الإصطناعي على كل من فهم الباحثين البشريين لفرضية الوعي ثم تعلم كيفية تكرار ذلك بحيث يمكن دمجه في الآلات.

هل يمكن أن يشكل الذكاء الإصطناعي تهديدًا للذكاء البشري؟

 

يمكن أن تشكل تطبيقات الذكاء الإصطناعي التي تكون على اتصال جسدي مع البشر أو مدمجة في جسم الإنسان مخاطر تتعلق بالسلامة لأنها قد تكون سيئة التصميم أو يساء استخدامها أو يتم اختراقها.

 

يمكن أن يؤدي الاستخدام السيئ من حيث ادخال الذكاء الإصطناعي في الأسلحة ، إلى فقدان السيطرة البشرية على الأسلحة الخطرة .

 

حيث إن قدرات الذكاء الإصطناعي على إجراء التنميط وأتمتة صنع القرار، بالإضافة إلى استخداماته الأخرى ، تهدد عدد لا يحصى من حقوق الإنسان.

 

يمكن أن يؤثر ذلك على “الحق في الصحة والتعليم وحرية التنقل وحرية التجمع السلمي وتكوين الجمعيات وحرية التعبير” ، كما حذر مكتب حقوق الإنسان التابع للأمم المتحدة

 

 

في الختام ما هي مخاطر الذكاء الإصطناعي؟

  • فقدان الوظائف بسبب الأتمتة.
  • انتهاكات الخصوصية.
  • “التزييف العميق”
  • التحيز الحسابي الناجم عن البيانات السيئة.
  • عدم المساواة الاجتماعية والاقتصادية.
  • تقلبات السوق.
  • أتمتة الأسلحة.
Back to list

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني.