علماء يحذرون من تطوير الذكاء الاصطناعي في الروبوتات
آخر تحديث GMT07:39:41
 تونس اليوم -

أوضحوا ضرورة جعلها أجهزة أقل بشرية

علماء يحذرون من تطوير الذكاء الاصطناعي في "الروبوتات"

 تونس اليوم -

 تونس اليوم - علماء يحذرون من تطوير الذكاء الاصطناعي في "الروبوتات"

روبوت يستطع التفاعل مع البشر ولديه شكل جذاب
واشنطن - يوسف مكي

لم تعد الآلات ذات الذكاء الصناعي تقتصر على روايات الخيال العلمي بل أصبحت جزءًا لا يتجزأ من الحياة اليومية للإنسان المعاصر، والكثير من الناس يتفاعلون من "ربوتات" المحادثات مثل سيري، وسيشهدون دفعة جادة لجعل هذه"الربوتات"، التي تعتمد على الكومبيوتر جديرة بالثقة أكثر ومحببة للناس أكثر.

ويعتقد المحاضر البارز في قسم علم الحاسبة في جامعة سيتي في لندن سيمون شتومبف أن المفاتح قد يكون من خلال جعل الربوتات أقل إنسانية، ويعتقد الكثير من الناس أن الذكاء الاصطناعي، ما يزال في طور التطور بوجود قصص حول حسابات توتر العنصرية واصطدام السيارات ذاتية القيادة، ولكن في الوقت الذي تكشف فيه هذه الاخطاء عن حدود الذكاء الصناعي إلا أن اصدارات هذه التكنولوجيا أصبحت جزءًا لا يتجزأ من العديد من الأنظمة التي يستخدمها الإنسان كل يوم.

علماء يحذرون من تطوير الذكاء الاصطناعي في الروبوتات

وتشمل هذه الاستخدامات اليومية كل أنظمة الكشف عن الاحتيال الذي يرصد معاملات بطاقات الائتمان، التي تبعث بنفسها رسالة عبر البريد الإلكتروني بدون أن يمتلئ البريد بالكثير من الرسائل المزعجة، وتعتبر اليوم "ربوتات" المحادثات واحدة من أشكال الذكاء الاصطناعي الأهم  وهي نوع من البرامج التي تمكن الإنسان من التفاعل معها من خلال محادثة، فعلى سبيل المثال يمتلك إيوفون اليوم نظام آلي يسمى "سيري" أنشأه بالتعاون مع مايكروسوفت، الذي يمكن المستخدمين الآخرين من التحدث معه.

علماء يحذرون من تطوير الذكاء الاصطناعي في الروبوتات

ويستخدم الكثير من الناس هذه التكنولوجيا في الحصول على خدمات من خلال تحديد معلومات محددة، فتستطيع سيري مثلًا أو النظام الذي يشبهها المساعدة في تنظيم المواعيد من خلال إرسال البريد الإلكتروني للجهات التي يطلب منها المستخدم إرسالها لها، وهناك عدد قليل من هذه الربوتات التي يمكن أن تتصرف بمعزل عن الإنسان، ولكن مع ذلك يجب على المصممون التفكير مليا في رد فعل الناس على هذه التكنولوجيا، وإن كانت مقبولة لهم أم لا وإلا فسيصلون إلى شعور سيء من السيطرة على عقولهم.

وتتنوع الطرق لجعل هذه الآلات الرقمية تتصرف بطريقة ذكية تحاكي سلوك الإنسان، وأكثرها شيوعًا هي تلك التي تستند على كميات هائلة من البيانات، التي تجمعها من بيئتها، وغالبا ما يتم تدريب ربوتات المحادثات لأشهر على البيانات وتحليلها باستخدام أساليب الإحصاء المعقدة لإيجاد أنماط متكررة من السلوك، فعلى سبيل المثال فإن كلمة: "أنا بخير، شكرًا" هي استجابة متكررة لسؤال "كيف حالك؟" وفي كثير من الأحيان لا تفهم "الروبوتات" ما يقوله الإنسان ولكنها ببساطة تكرر ما تراه.

ويعتبر أجراء محادثة مع بشري معقدًا بعض الشيء، فالإنسان يحتاج إلى أن يعرف بداية الكلمات التي سيستخدمها في الجمل ومتى يكون قد حان دوره في الكلام وتوليد الاجابة المناسبة الخاصة به فيما يتعلق بنقطة معينة في المحادثة، وتسوء الأمور بين البشر في بعض الأحيان في المحادثات لدرجة فقدان التفاعل.

ويؤكد العلماء أن الناس تتفاعل بشكل مختلف مع الالات مقارنة مع بضعها البعض، فالناس تميل إلى أن تكون أقل عمقا في التواصل مع الالات وستتحدث بطريقة أبسط، وفي الواقع هناك أدلة على أن أكثر من الة تحاول تقليد محادثة الانسان الحقيقة ولكن بطريقة لا تبدو لطيفة في نظر البشر.

ويعتقد العلماء أن الانسان سيتقبل الآلات صاحبة الذكاء الاصطناعي، عندما تقل عدد الأخطاء التي ترتكبها، ويجب بالتأكيد على الناس أن تعمل يدًا بيد مع الآلات كي تشكل سلوكها، وبالتأكيد يعتمد فهم المستخدم لكيفية عمل النظام على تقبله أكثر، فعلى سبيل المثال فإن دراسة حديثة على وكلاء التخاطب وجدت أن الناس تريد أن تعرف كيف يعمل النظام أكثر من انبهارها بعمله، ويكون لديهم الكثير من الأسئلة في هذه الحالة حول تفاعل النظام مع الاشخاص الاخرين، ويبدو ان هذه النقطة تنطبع على كل ذوات الذكاء الاصطناعي، فالشفافية في النظام لديها تأثير ايجابي على رضا المستخدمين.

ويتوقع العلماء أن الإنسان أقل ثقة بالأنظمة التي تخطئ كثيرًا، ولا يريدون لكل أنظمة الذكاء الاصطناعي أن تتصرف لوحدها وبمعزل عنهم ودون الرجوع إليهم، فعلى سبيل المثال اذا كان يعرف المستخدم أن النظام يخطئ كثيرا أو يسيء فهم الأوامر فلن يتركه يطلب له رقم هاتف أحد ما بدون أن يتحقق هو بنفسه من صحته أولا.

ويجب أن يكون النظام واضحًا أنه ربوت وإلا يكون بالنسبة إلى الإنسان مثل التحدث مع إنسان أخر، وبالرغم من أن العديدين يتوقعون أن تكون أنظمة الذكاء الصناعي أكثر دقة وأكثر اندماجا في الحياة اليومية ولكن سيكون لديها بعض الاخفاقات في عملها، وتسأل الكثيرون منذ ظهور الخيال العلمي عن الأخلاقيات والقوانين وكيف يمكن للإنسان السيطرة عليه، وما تزال هذه الاسئلة موجودة حتى اليوم وما تزال تحتاج إلى إجابة تستند إلى بحث مفتوح، ولكن يتفق الجميع أن الربوت لا يحب أن يكون المسؤول عن اتخاذ القرار فهو في النهاية لن يتحمل مسئولية الأخطاء الكبرى.

وبدأت المزيد من الشركات بدمج أنظمة الذكاء الاصطناعي في كل منتجاتها، ولديها بعض النجاحات، واستطاعت جوجل أن تنتج نيست ليرنينغ ثيرموستات، الذي يراجع الجدول الزمني وتغيرات الحرارة في المنزل مع الإنسان، وهذا مثال واضح ولكن هناك العشرات من الشركات المبتدئة التي تستخدم الذكاء الصناعي في توفير تجربة شخصية للمستهلكين، وذلك بفضل ارتفاع علوم البيانات التي توفر المعلومات، التي يمكن أن تحقن في هذه الالات لتعليمها، مما يتيح للشركاء أن تستثمر بقوة في مجال الذكاء الصناعي.

arabstoday

الإسم *

البريد الألكتروني *

عنوان التعليق *

تعليق *

: Characters Left

إلزامي *

شروط الاستخدام

شروط النشر: عدم الإساءة للكاتب أو للأشخاص أو للمقدسات أو مهاجمة الأديان أو الذات الالهية. والابتعاد عن التحريض الطائفي والعنصري والشتائم.

اُوافق على شروط الأستخدام

Security Code*

 

علماء يحذرون من تطوير الذكاء الاصطناعي في الروبوتات علماء يحذرون من تطوير الذكاء الاصطناعي في الروبوتات



GMT 04:41 2024 الثلاثاء ,20 شباط / فبراير

الكشف عن فوائد مذهلة لحقنة تخفيف الوزن الشهيرة

GMT 17:44 2021 الإثنين ,01 شباط / فبراير

التفرد والعناد يؤديان حتماً إلى عواقب وخيمة

GMT 16:44 2019 الثلاثاء ,11 حزيران / يونيو

اتيكيت التعامل مع الرجال الغاصبين

GMT 04:13 2014 الثلاثاء ,10 حزيران / يونيو

مجلس أنماء شكا البناني نظم ندوة عن العنف الأسري

GMT 16:44 2018 الإثنين ,03 كانون الأول / ديسمبر

الاحتلال يقرر الافراج عن نائب أمين سر حركة فتح بشروط

GMT 10:47 2017 السبت ,28 كانون الثاني / يناير

كومباس هاوس متعة السياحة العائلية في العطلات المدرسية

GMT 08:35 2012 الخميس ,27 كانون الأول / ديسمبر

"رولز رويس جوست "" ألف ليلة وليلة " تصل إلى السعودية

GMT 06:30 2018 الجمعة ,17 آب / أغسطس

فشل المشروعيْن الفارسي والعثماني!
 
Tunisiatoday

Maintained and developed by Arabs Today Group SAL
جميع الحقوق محفوظة لمجموعة العرب اليوم الاعلامية 2023 ©

Maintained and developed by Arabs Today Group SAL
جميع الحقوق محفوظة لمجموعة العرب اليوم الاعلامية 2023 ©

Tunisiatoday Tunisiatoday Tunisiatoday Tunisiatoday
tunisiatoday tunisiatoday tunisiatoday
tunisiatoday
بناية النخيل - رأس النبع _ خلف السفارة الفرنسية _بيروت - لبنان
tunisia, tunisia, tunisia