علماء يحذرون من خطورة جعل الروبوتات تتحدث مثل البشر
آخر تحديث 22:04:57 بتوقيت أبوظبي
 صوت الإمارات -

أوضحوا ضرورة جعلها أجهزة أقل بشرية

علماء يحذرون من خطورة جعل "الروبوتات" تتحدث مثل البشر

 صوت الإمارات -

 صوت الإمارات - علماء يحذرون من خطورة جعل "الروبوتات" تتحدث مثل البشر

روبوت يستطع التفاعل مع البشر ولديه شكل جذاب
واشنطن - يوسف مكي

لم تعد الآلات ذات الذكاء الصناعي تقتصر على روايات الخيال العلمي بل أصبحت جزءًا لا يتجزأ من الحياة اليومية للإنسان المعاصر، والكثير من الناس يتفاعلون من "ربوتات" المحادثات مثل سيري، وسيشهدون دفعة جادة لجعل هذه"الربوتات"، التي تعتمد على الكومبيوتر جديرة بالثقة أكثر ومحببة للناس أكثر.

ويعتقد المحاضر البارز في قسم علم الحاسبة في جامعة سيتي في لندن سيمون شتومبف أن المفاتح قد يكون من خلال جعل الربوتات أقل إنسانية، ويعتقد الكثير من الناس أن الذكاء الاصطناعي، ما يزال في طور التطور بوجود قصص حول حسابات توتر العنصرية واصطدام السيارات ذاتية القيادة، ولكن في الوقت الذي تكشف فيه هذه الاخطاء عن حدود الذكاء الصناعي إلا أن اصدارات هذه التكنولوجيا أصبحت جزءًا لا يتجزأ من العديد من الأنظمة التي يستخدمها الإنسان كل يوم.

وتشمل هذه الاستخدامات اليومية كل أنظمة الكشف عن الاحتيال الذي يرصد معاملات بطاقات الائتمان، التي تبعث بنفسها رسالة عبر البريد الإلكتروني بدون أن يمتلئ البريد بالكثير من الرسائل المزعجة، وتعتبر اليوم "ربوتات" المحادثات واحدة من أشكال الذكاء الاصطناعي الأهم  وهي نوع من البرامج التي تمكن الإنسان من التفاعل معها من خلال محادثة، فعلى سبيل المثال يمتلك إيوفون اليوم نظام آلي يسمى "سيري" أنشأه بالتعاون مع مايكروسوفت، الذي يمكن المستخدمين الآخرين من التحدث معه.

ويستخدم الكثير من الناس هذه التكنولوجيا في الحصول على خدمات من خلال تحديد معلومات محددة، فتستطيع سيري مثلًا أو النظام الذي يشبهها المساعدة في تنظيم المواعيد من خلال إرسال البريد الإلكتروني للجهات التي يطلب منها المستخدم إرسالها لها، وهناك عدد قليل من هذه الربوتات التي يمكن أن تتصرف بمعزل عن الإنسان، ولكن مع ذلك يجب على المصممون التفكير مليا في رد فعل الناس على هذه التكنولوجيا، وإن كانت مقبولة لهم أم لا وإلا فسيصلون إلى شعور سيء من السيطرة على عقولهم.


علماء يحذرون من خطورة جعل الروبوتات تتحدث مثل البشر

وتتنوع الطرق لجعل هذه الآلات الرقمية تتصرف بطريقة ذكية تحاكي سلوك الإنسان، وأكثرها شيوعًا هي تلك التي تستند على كميات هائلة من البيانات، التي تجمعها من بيئتها، وغالبا ما يتم تدريب ربوتات المحادثات لأشهر على البيانات وتحليلها باستخدام أساليب الإحصاء المعقدة لإيجاد أنماط متكررة من السلوك، فعلى سبيل المثال فإن كلمة: "أنا بخير، شكرًا" هي استجابة متكررة لسؤال "كيف حالك؟" وفي كثير من الأحيان لا تفهم "الروبوتات" ما يقوله الإنسان ولكنها ببساطة تكرر ما تراه.

ويعتبر أجراء محادثة مع بشري معقدًا بعض الشيء، فالإنسان يحتاج إلى أن يعرف بداية الكلمات التي سيستخدمها في الجمل ومتى يكون قد حان دوره في الكلام وتوليد الاجابة المناسبة الخاصة به فيما يتعلق بنقطة معينة في المحادثة، وتسوء الأمور بين البشر في بعض الأحيان في المحادثات لدرجة فقدان التفاعل.

ويؤكد العلماء أن الناس تتفاعل بشكل مختلف مع الالات مقارنة مع بضعها البعض، فالناس تميل إلى أن تكون أقل عمقا في التواصل مع الالات وستتحدث بطريقة أبسط، وفي الواقع هناك أدلة على أن أكثر من الة تحاول تقليد محادثة الانسان الحقيقة ولكن بطريقة لا تبدو لطيفة في نظر البشر.

ويعتقد العلماء أن الانسان سيتقبل الآلات صاحبة الذكاء الاصطناعي، عندما تقل عدد الأخطاء التي ترتكبها، ويجب بالتأكيد على الناس أن تعمل يدًا بيد مع الآلات كي تشكل سلوكها، وبالتأكيد يعتمد فهم المستخدم لكيفية عمل النظام على تقبله أكثر، فعلى سبيل المثال فإن دراسة حديثة على وكلاء التخاطب وجدت أن الناس تريد أن تعرف كيف يعمل النظام أكثر من انبهارها بعمله، ويكون لديهم الكثير من الأسئلة في هذه الحالة حول تفاعل النظام مع الاشخاص الاخرين، ويبدو ان هذه النقطة تنطبع على كل ذوات الذكاء الاصطناعي، فالشفافية في النظام لديها تأثير ايجابي على رضا المستخدمين.

علماء يحذرون من خطورة جعل الروبوتات تتحدث مثل البشر

ويتوقع العلماء أن الإنسان أقل ثقة بالأنظمة التي تخطئ كثيرًا، ولا يريدون لكل أنظمة الذكاء الاصطناعي أن تتصرف لوحدها وبمعزل عنهم ودون الرجوع إليهم، فعلى سبيل المثال اذا كان يعرف المستخدم أن النظام يخطئ كثيرا أو يسيء فهم الأوامر فلن يتركه يطلب له رقم هاتف أحد ما بدون أن يتحقق هو بنفسه من صحته أولا.

ويجب أن يكون النظام واضحًا أنه ربوت وإلا يكون بالنسبة إلى الإنسان مثل التحدث مع إنسان أخر، وبالرغم من أن العديدين يتوقعون أن تكون أنظمة الذكاء الصناعي أكثر دقة وأكثر اندماجا في الحياة اليومية ولكن سيكون لديها بعض الاخفاقات في عملها، وتسأل الكثيرون منذ ظهور الخيال العلمي عن الأخلاقيات والقوانين وكيف يمكن للإنسان السيطرة عليه، وما تزال هذه الاسئلة موجودة حتى اليوم وما تزال تحتاج إلى إجابة تستند إلى بحث مفتوح، ولكن يتفق الجميع أن الربوت لا يحب أن يكون المسؤول عن اتخاذ القرار فهو في النهاية لن يتحمل مسئولية الأخطاء الكبرى.

وبدأت المزيد من الشركات بدمج أنظمة الذكاء الاصطناعي في كل منتجاتها، ولديها بعض النجاحات، واستطاعت جوجل أن تنتج نيست ليرنينغ ثيرموستات، الذي يراجع الجدول الزمني وتغيرات الحرارة في المنزل مع الإنسان، وهذا مثال واضح ولكن هناك العشرات من الشركات المبتدئة التي تستخدم الذكاء الصناعي في توفير تجربة شخصية للمستهلكين، وذلك بفضل ارتفاع علوم البيانات التي توفر المعلومات، التي يمكن أن تحقن في هذه الالات لتعليمها، مما يتيح للشركاء أن تستثمر بقوة في مجال الذكاء الصناعي.

emiratesvoice
emiratesvoice

الإسم *

البريد الألكتروني *

عنوان التعليق *

تعليق *

: Characters Left

إلزامي *

شروط الاستخدام

شروط النشر: عدم الإساءة للكاتب أو للأشخاص أو للمقدسات أو مهاجمة الأديان أو الذات الالهية. والابتعاد عن التحريض الطائفي والعنصري والشتائم.

اُوافق على شروط الأستخدام

Security Code*

 

علماء يحذرون من خطورة جعل الروبوتات تتحدث مثل البشر علماء يحذرون من خطورة جعل الروبوتات تتحدث مثل البشر



 صوت الإمارات - قصي خولي يكشف أسباب عدم مشاركته في الدراما المصرية

GMT 01:22 2018 الثلاثاء ,04 كانون الأول / ديسمبر

زيت الزيتون لعلاج الطفح الجلدى

GMT 08:55 2018 الثلاثاء ,26 حزيران / يونيو

ما هي الطرق لجعل الطفل ناجحًا دراسيًا؟

GMT 06:45 2013 السبت ,13 إبريل / نيسان

أخوات برونو مارس في برنامج تلفزيون

GMT 15:15 2017 الإثنين ,11 كانون الأول / ديسمبر

مانشستر يونايتد يغري "سافيتش" بعرض خيالي خرافى
 
syria-24

Maintained and developed by Arabs Today Group SAL
جميع الحقوق محفوظة لمجموعة العرب اليوم الاعلامية 2023 ©

Maintained and developed by Arabs Today Group SAL
جميع الحقوق محفوظة لمجموعة العرب اليوم الاعلامية 2023 ©

emiratesvoice emiratesvoice emiratesvoice emiratesvoice
emiratesvoice emiratesvoice emiratesvoice
emiratesvoice
بناية النخيل - رأس النبع _ خلف السفارة الفرنسية _بيروت - لبنان
emirates , emirates , Emirates