قضايا الموثوقية والأخلاقيات والمهارات تقف عائقًا في طريق الذكاء الاصطناعي التوليدي الذي سيغير قواعد اللعبة في الإمارات

قضايا الموثوقية والأخلاقيات والمهارات تقف عائقًا في طريق الذكاء الاصطناعي التوليدي الذي سيغير قواعد اللعبة في الإمارات

  • كشف بحث جديد نشرته منصة ألتيريكس أن 76% من المستهلكين يرون أن تقنية الذكاء الاصطناعي التوليدي هي تقنية “تغير قواعد اللعبة”، بينما تُبدي 81% من الشركات تفاؤلًا بالقيمة التي ستخلقها.
  • ومع ذلك، يسلط كل منهما الضوء على عوائق متسقة تحول دون نجاح نشر تقنية الذكاء الاصطناعي التوليدي في حياتهم المهنية والشخصية.

دبي – 13 مايو 2024 – كشف بحث جديد نشرته شركة ألتيريكس الرائدة في مجال الذكاء الاصطناعي لتحليلات المؤسسات، أن 76% من المستهلكين في جميع أنحاء الإمارات العربية المتحدة يعتقدون أن الذكاء الاصطناعي سيكون محرِّكًا رئيسيًا لتغيير قواعد اللعبةعلى مدار السنوات الخمس القادمة، ولكن تظل لديهم شكوك في القيمة التي سيقدمها بنسبة (43%) ومخاوف من طريقة استخدامه بنسبة (34%).

بعد تصريح نسبة 81% من المؤسسات بأن الذكاء الاصطناعي التوليدي يضيف قيمة عملية، نجد أن هناك فجوة واضحة تحتاج التغلب عليها لإثبات القيمة للمستهلكين في استخدام الذكاء الاصطناعي في حياتهم الشخصية والمهنية.

يُلقي تقرير “بحث السوق: مواقف الذكاء الاصطناعي التوليدي وتبنيه“، الذي استطلع رأي 690 قائداً في مجال تكنولوجيا المعلومات في منطقة أوروبا والشرق الأوسط وإفريقيا، بالإضافة إلى 1100 من الأشخاص العاديين، الضوء على قضايا الموثوقية والأخلاقيات والمهارات ويعتبرها مخاوف متسقة لكلٍ من رواد الأعمال والمستهلكين؛ الأمر الذي قد يُقوض النشر والتبني الناجح للذكاء الاصطناعي التوليدي.

المعلومات الخاطئة وعدم الدقة والهلوسات الناجمة عن الذكاء الاصطناعي تقوض الموثوقية.

تُشكل الموثوقية في نتائج الذكاء الاصطناعي التوليدي مصدر قلق رئيسي لكلٍ من رواد الأعمال والمستهلكين على حد سواء. وفي هذا الصدد، يعتقد أكثر من ربع المستهلكين أن هذه التقنية ستؤدي إلى انتشار الأخبار الكاذبة بنسبة (27%) ويشعرون بالقلق حيال الطريقة التي سيستخدم بها القراصنة الذكاء الاصطناعي التوليدي في ارتكاب الجرائم بنسبة (40%). في الوقت نفسه، يرى نصف رواد الأعمال نسبة (51%)منهم أن مؤسساتهم قد شهدت بالفعل حالات من انتشار الشائعات الناتجة عن الذكاء الاصطناعي التوليدي.

بالإضافة إلى ذلك، أُثيرت شكوك حول دقة المعلومات التي يقدمها الذكاء الاصطناعي التوليدي، حيث أظهرت نتائج من الأشخاص العاديين نسبة (51%) منهم يعتقدون أن المعلومات التي يحصلون عليها من الذكاء الاصطناعي التوليدي غير صحيحة، ونسبة 40% منهم يعتقدون أن المعلومات غير مُحدثة. هذا وقد علقت الشركات أيضًا على مشاكل تتعلق بانتهاكات الذكاء الاصطناعي التوليدي لحقوق النشر أو الملكية الفكرية بنسبة (47%) ناهيك عن الحصول على نتائج غير متوقعة أو غير مطلوبة (37%).

ومع ذلك، تعتبر أكبر مشكلة تضرب مسألة الموثوقية في الذكاء الاصطناعي التوليدي من قِبل الشركات بنسبة (65%) والجمهور (72%) هي “الهلوسات الناتجة عن الذكاء الاصطناعي” – يُقدم الذكاء الاصطناعي التوليدي تنبؤات غير صحيحة أو نتائج غير منطقية. لذا ترى الشركات أن هذا هو الموضع الذي يلزم تطبيق الذكاء الاصطناعي التوليدي على حالات الاستخدام الصحيحة إلى جانب التكنولوجيا المناسبة والضوابط الأمنية لتقليل حدة المخاوف. كما يُطالب نحو نصف المستهلكين بنسبة (43%) أيضًا بتنظيم الذكاء الاصطناعي.

تظل المخاوف ماثلة حول الاستخدام الأخلاقي والمخاطر المتعلقة بالذكاء الاصطناعي التوليدي.Top of Form

تتشابه آراء رواد الأعمال والمستهلكين ممن شملهم البحث وتتسق آرائهم بقوة بشأن المجالات التي يُفضل تجنب استخدام الذ كاء الاصطناعي التوليدي فيها؛لا سيما في ظل استمرار وجود مخاوف تتعلق بدقة وموثوقية نتائج الذكاء الاصطناعي التوليدي.

أعرب أكثر من نصف الأشخاص العاديين نسبة (53%) منهم عن عدم رغبتهم في استخدام الذكاء الاصطناعي التوليدي لاتخاذ القرارات الأخلاقية، بينما أشارت نسبة 45% من الشركات إلى دوره في اتخاذ القرارات الحاسمة. يختلفان قليلاً في حالات الاستخدام التي يجب تجنبها بشكل محدد، حيث يشير المستهلكون إلى السياسة بنسبة (51%)، بينما تبرز الشركات أمور التوظيف وإنهاء الخدمات (45%) كأحد الجوانب التي يكون للذكاء الاصطناعي التوليدي دورًا فيها لاتخاذ القرارات.

توثق الأبحاث هذه المخاوف إلى حد ما. يستند أي نظام يعتمد على الذكاء الاصطناعي فقط إلى البيانات التي تم تدريبه عليها، ومع ذلك، تظهر البيانات قصورًا تُثير القلق داخل المؤسسات. أعرب نسبة 34% فقط من رواد الأعمال أن شركاتهم تضمن تنوع وعدم تحيز البيانات المستخدمة لتدريب الذكاء الاصطناعي التوليدي. بالإضافة إلى ذلك، يرى نسبة 26% فقط منهم أن لديهم إرشادات أخلاقية مُطبقة، ويرى نسبة 57% منهم أن لديهم سياسات خصوصية وأمان لاستخدام الذكاء الاصطناعي التوليدي.

يُعرّض هذا القصور في التركيز على سلامة البيانات المؤسسات للمخاطر، حيث يرى 60% من رواد الأعمال أن الأخلاقيات هي أعلى فئة مخاطر للذكاء الاصطناعي التوليدي لديهم، تليها البيانات بنسبة (56%) ومن ثم تظهر الحاجة إلى تطيبيق مزيد من إجراءات الحوكمة لبناء الثقة وتخفيف حدةالمخاطر الناجمة عن طريقة استخدام الموظفين للذكاء الاصطناعي التوليدي في العمل.

المهارات المتعلقة بالذكاء الاصطناعي التوليدي تظهر ولكن يحتاج المزيد من الإلمام بالبيانات لتظهر القيمة

يتطلب التبني الناجح لـلذكاء الاصطناعي التوليدي إضفاء الطابع الديمقراطي على التكنولوجيا في المؤسسة. الخبر السار هو أن المستهلكين يستخدمون أدوات الذكاء الاصطناعي التوليدي بفاعلية في حياتهم الشخصية وفي حياتهم المهنية بشكل رئيسي للبحث عن المعلومات (56%) في الحياة المهنية و(60%) في الحياة الشخصية، وكذلك في كتابة رسائل البريد الإلكتروني في العمل (48%) وتعلم مهارات جديدة في المنزل (39%).

وفي الوقت نفسه، يقول رواد الأعمال أنهم يعتمدون على الذكاء الاصطناعي التوليدي في العمل لتحليل البيانات بنسبة (42%)، وأمن المعلومات بنسبة (41%)، ودعم العملاء بنسبة (42%)، ومع ذلك، قاموا بتشغيل متوسط ثلاثة مشاريع تجريبية منذ بداية عام 2023 مما يؤكد أنه لا يمكنك ببساطة الانتقال من اللاشيء إلى ذروة نجاح الذكاء الاصطناعي التوليدي بين عشية وضحاها.

وعلى الجانب الآخر، أوضحت نسبة 80% أن هذه النسخ التجريبية كانت ناجحة وقال 58% كان الحصول على النتائج أسهل من المتوقع، بينما وجدت نسبة 27% أن تجربة الاستفادة من الذكاء الاصطناعي التوليدي في المؤسسة كانت أصعب من المتوقع. وفي الصدد نفسه، صرّحت الشركات أنها تواجه تحديات بما في ذلك مخاوف الأمان بنسبة (41%)، وخصوصية البيانات والأمان بنسبة (47%)، وجودة وموثوقية النتائج بنسبة (28%).

لذلك، يجب التغلب على هذه العوائق في حين أن الذكاء الاصطناعي التوليدي يبدأ في تقديم قيمة عملية. وعلى الجانب الآخر، قد يكون الافتقار إلى المعرفة بالبيانات أحد العوامل المساهمة إلى جانب عدم كفاية أطر عمل الحوكمة. كما صرّحت خُمس الشركات أنها ليس لديهم تدريب إلزامي على الذكاء الاصطناعي التوليدي بنسبة (18%)، بينما أفادت نسبة 31% أن الافتقار إلى المواهب التي تتمتع بالمهارات اللازمة يعيقهم عن توسيع نطاق الذكاء الاصطناعي التوليدي في المؤسسة. وعلى الرغم من أن الذكاء الاصطناعي التوليدي لا يزال في المراحل الأولى النسبية إلا أنه قد أصبح من الضروري جدًا الحصول على التدريب المناسب.

يضيف تريفور شولز، مدير تكنولوجيا المعلومات في شركة ألتيريكس: “أثناء تنقلنا في المراحل الأولى لتبني الذكاء الاصطناعي التوليدي، تبين لنا أنه على الشركات والأشخاص العاديين أن يتفهموا قيمة الذكاء الاصطناعي ويخففوا من حدة المخاوف. ومع ذلك، نحن نعلم من البيانات أن الموثوقية والمخاوف الأخلاقية ونقص المهارات والخوف من انتهاك الخصوصية، والتحيز الخوارزمي هي عوائق شائكة يجب التغلب عليها. علاوة على ذلك، ولكي نجني حقًا فوائد هذه التقنية “التي ستغير قواعد اللعبة”، يجب على المؤسسات تسريع رحلتها في مجال البيانات وتنفيذ أطر عمل حوكمة أفضل وتمكين المستخدمين غير التقنيين من الوصول إلى البيانات وتحليلها في بيئة آمنة وموثوقة وفي نفس الوقت معالجة مخاوف الخصوصية والتحيز. إذا حدث ذلك بشكل صحيح، فإن الذكاء الاصطناعي التوليدي لديه القدرة على دفع الابتكار، ودعم عملية اتخاذ القرار، وتقديم قيمة كبيرة في كل من الحياة المهنية والشخصية للموظفين”.

اقرأ مدونة شركة ألتيريكس لمعرفة المزيد حول كيفية تصور الشركات والأشخاص العاديين لـلذكاء الاصطناعي التوليدي في عام 2024 هنا: https://www.alteryx.com/blog/gen-ai-market-research

Share