لا يستطيع العلماء تفسير لماذا يوجد مناطق غامضة في عمل الذكاء الاصطناعي
الذكاء الاصطناعي
ما هي نكهة الآيس كريم المفضلة لديك؟ قد تقول الفانيليا أو الشوكولاتة. وإذا سألت عن السبب ، فربما تقول ذلك لأن طعمها جيد. لكن لماذا تصفها بأنها جيدة؟ ولماذا لا تزال ترغب في تجربة نكهات أخرى في بعض الأحيان؟
نادرًا ما نتساءل عن القرارات الأساسية التي نتخذها في حياتنا اليومية.
ولكن إذا فعلنا ذلك ، فقد ندرك أنه لا يمكننا تحديد الأسباب الدقيقة لتفضيلاتنا وعواطفنا ورغباتنا في أي لحظة.
وبالمثل ، هناك مشكلة مماثلة في الذكاء الاصطناعي. يواجه الأشخاص الذين يطورون الذكاء الاصطناعي مشاكل متزايدة في شرح كيفية عمله وتحديد سبب إعطائه نتائج معينة ، وأحيانًا غير متوقعة.
غالبًا ما يبدو أن الشبكات العصبية العميقة DNN – أنظمة معالجة البيانات متعددة الطبقات التي أدخلها العلماء عليها لتقليد الشبكات العصبية للدماغ البشري
تعكس ليس فقط الذكاء البشري ولكن أيضًا عدم القدرة على شرح كيفية القيام بذلك. عمل الدماغ البشري.
الصندوق الأسود
تعمل معظم أنظمة الذكاء الاصطناعي بطريقة تسمى الصندوق الأسود
وهي أنظمة يتم عرضها فقط من حيث مدخلاتها ومخرجاتها
لكن العلماء لا يحاولون فك شفرة هذا الصندوق الأسود أو العمليات الغامضة التي يقوم بها طالما أنهم يتلقون النواتج التي يبحثون عنها.
على سبيل المثال ، إذا قدمت بيانات الذكاء الاصطناعي عن كل نكهة آيس كريم
وبيانات ديموغرافية حول العوامل الاقتصادية والاجتماعية ونمط الحياة لملايين الأشخاص
فيمكنك على الأرجح تخمين نكهة الآيس كريم المفضلة لديك أو المكان الذي تفضل تناوله فيه وفي أي منها محل آيس كريم.
حتى لو لم يكن مبرمجًا لهذا الغرض.
تشتهر هذه الأنواع من أنظمة الذكاء الاصطناعي ببعض المشكلات
لأن البيانات التي يتم تدريبها عليها غالبًا ما تكون منحازة بطبيعتها .
ومحاكاة التحيزات العرقية والجنسانية الموجودة في مجتمعنا.
على سبيل المثال ، غالبًا ما يخطئ الذكاء الأصطناعي في التعرف على السود بشكل غير متناسب من خلال تقنية التعرف. على الوجه.
أقرأ ايضاً: شركة صينية في تحدي مع أفضل مركبات تويوتا العائلية بسيارة فاخرة جداً
كيف أتخلص من إدمان التطبيقات؟
بمرور الوقت ، يصعب إصلاح هذه الأنظمة جزئيًا لأن مطوريها غالبًا لا يستطيعون شرح كيفية عملها بشكل كامل مما يجعل المشكلة صعبة.
نظرًا لأن أنظمة الذكاء الاصطناعي أصبحت أكثر تعقيدًا وأصبح البشر أقل قدرة على فهمها.
يحذر خبراء الذكاء الاصطناعي والباحثون المطورون من التراجع والتركيز أكثر على كيفية ولماذا ينتج الذكاء الاصطناعي. نتائج معينة بدلاً من معرفة حقيقة أن النظام يمكنه إنتاجها بدقة وبسرعة .
كتب رومان ف. يامبولسكي ، أستاذ علوم الكمبيوتر في جامعة لويزفيل ، في ورقته البحثية بعنوان
“عدم قابلية تفسير الذكاء الاصطناعي وسوء فهمه”
يقول: “بالإضافة إلى ذلك ، إذا اعتدنا على قبول إجابات الذكاء الاصطناعي دون تفسير ، والتعامل معها في المقام الأول على أنها أوراكل.
لن نتمكن من معرفة ما إذا كان سيبدأ في إعطاء إجابات خاطئة أو متلاعبة في المستقبل “. بحسب ما نشره موقع “فايس”.
يُذكر أنه تم استخدام أنظمة الذكاء الأصطناعي في السيارات ذاتية القيادة ، وروبوتات الدردشة لخدمة العملاء. وتشخيص الأمراض ، ولديها القدرة على أداء بعض المهام بشكل أفضل من البشر.
على سبيل المثال ، يمكن للآلة أن تتذكر تريليون عنصر ، مثل الأرقام والحروف والكلمات ، مقابل البشر ، الذين يتذكرون ما معدله سبعة في ذاكرتهم قصيرة المدى.
كما أنها قادرة على معالجة المعلومات وحسابها بسرعة أكبر وبسرعة أكبر. معدل أفضل من البشر.
ولكن مع تطور العمليات التي أصبحت نماذج للذكاء الاصطناعي قادرة على ذلك ، لكن قدرة مطوريها على شرح كيفية عملها تضاءلت بمرور الوقت.
أقرأ ايضاً: السيارة الطائرة اصبحت حقيقة و بمواصفات خارقة
قالت إميلي إم بندر ، أستاذة اللسانيات في جامعة واشنطن ،
في بيان صحفي: “إذا لم يفهم قادة الأعمال وعلماء البيانات لماذا وكيف يحسب الـذكاء الاصطناعي الناتج الذي يقوم به ، فإن ذلك يخلق مخاطر محتملة”.
يحد عدم القدرة على شرح كيفية عمل الذكاء الاصـطناعي من قيمته المحتملة ، وفقًا لما نشره الموقع التقني Motherboard.
يكمن الخطر في أن نظام الذكاء الاصطناعي قد يتخذ قرارات باستخدام قيم قد لا نتفق معها.
مثل القرارات المتحيزة (مثل العنصرية أو التمييز على أساس الجنس).
وقال جيف كلون ، الأستاذ المساعد في علوم الكمبيوتر بجامعة كولومبيا البريطانية.
إن الخطر الآخر هو أن النظام قد يتخذ قرارًا سيئًا حقًا ، لكن لا يمكننا التدخل لأننا لا نفهم أسبابه.
مصدر: وكالات