خدمة الدفع الالكتروني
محليات اقتصاد عربي ودولي رياضة فيديو كتاب مجتمع شباب وجامعات ثقافة وفنون ملاحق دراسات وتحقيقات أخبار مصورة صحة وجمال كاريكاتور إنفوجرافيك علوم وتكنولوجيا منوعات طفل وأسرة عين الرأي الرأي الثقافي
محليات اقتصاد عربي ودولي رياضة فيديو كتاب مجتمع شباب وجامعات ثقافة وفنون ملاحق دراسات وتحقيقات أخبار مصورة صحة وجمال كاريكاتور إنفوجرافيك علوم وتكنولوجيا منوعات طفل وأسرة عين الرأي الرأي الثقافي

الهيئات التنظيمية العالمية تتصدى لتحديات الذكاء الاصطناعي التوليدي

No Image
طباعة
انسخ الرابط
تم النسخ
م. هاني محمود البطش

بينما يشهد العالم التطور السريع للذكاء الاصطناعي التوليدي Generative AI - فرع من فروع الذكاء الاصطناعي يُركز على إنشاء محتوى جديد - يُستخدم لإنشاء صور ونصوص وموسيقى وحتى منتجات جديدة. يُمكن أن يُستخدم الذكاء الاصطناعي التوليدي لتحسين الإبداع والإنتاجية في مختلف المجالات. يمكن لهذه الخوارزميات المتقدمة أن تولد إبداعات جديدة لا يمكن تمييزها في كثير من الأحيان عن الأعمال التي من صنع الإنسان؛ مما يفتح آفاقًا جديدة للإبداع والإنتاجية، ولكن هذا التقدم لا يخلو من المخاطر. وقد أثار احتمال إساءة الاستخدام، مثل إنشاء صور مزيفة لنشر معلومات مضللة أو استخدام بيانات تدريب متحيزة تؤدي إلى إدامة التحيز، إنذارات في كثير من دول العالم. تقع على عاتق المؤسسات والهيئات المسؤولة عن إدارة المعلومات مسؤولية معالجة التحديات المعقدة والتداعيات القانونية والأخلاقية التي يمثلها الذكاء الاصطناعي التوليدي. ويتطلب ذلك اتخاذ موقف استباقي من خلال البدء في مشاورات لوضع معايير خاصة بهذه التقنيات، مع التركيز على النقاط التالية:

1. ضمان خصوصية البيانات: يجب تطبيق قوانين خصوصية البيانات على مجموعات البيانات الشاملة المستخدمة لتدريب نماذج الذكاء الاصطناعي التوليدية. تهدف قوانين خصوصية البيانات إلى:

إعلام الأفراد: يجب أن يكون الأفراد على دراية بجمع بياناتهم الشخصية واستخدامها في تدريب نماذج الذكاء الاصطناعي. هذا يعني أن الشركات والمنظمات يجب أن تكون شفافة حول كيفية جمعها واستخدامها للبيانات الشخصية، بما في ذلك:

الحصول على الموافقة: يجب الحصول على موافقة الأفراد قبل استخدام بياناتهم الشخصية في تدريب نماذج الذكاء الاصطناعي. هذا يعني أن الشركات والمنظمات يجب أن تطلب موافقة الأفراد قبل جمع بياناتهم الشخصية واستخدامها في تدريب نماذج الذكاء الاصطناعي.

السيطرة على البيانات: يجب أن يتمتع الأفراد بالسيطرة على بياناتهم الشخصية، يساعد التحكم في البيانات على حماية الأفراد من سوء استخدام بياناتهم، مثل استخدامها لأغراض التسويق أو الإعلانات دون موافقتهم.

الحد من استخدام البيانات: يجب استخدام البيانات الشخصية فقط للأغراض التي تم جمعها من أجلها. هذا يعني أن الشركات والمنظمات لا يجب أن تستخدم البيانات الشخصية لأغراض أخرى دون موافقة صاحب البيانات.

الحماية: يجب تخزين البيانات الشخصية بشكل آمن لمنع الوصول غير المصرح به أو استخدامها. هذا يعني أن الشركات والمنظمات يجب أن تتخذ خطوات لحماية البيانات الشخصية من السرقة أو سوء الاستخدام.

2. تحديد مخاطر الذكاء الاصطناعي التوليدية: إلى جانب خصوصية البيانات، يجب ان تقوم الهيئات المسؤولة عن خصوصية البيانات والامن السيبراني بتحديد المخاطر مثل نشر معلومات كاذبة وإنشاء مخرجات متحيزة. ولهذه المخاوف أهمية بالغة لأنها تمس جوهر حرية التعبير وسلامة المعلومات. تشمل بعض المخاطر الرئيسية ما يلي:

نشر معلومات كاذبة: يمكن استخدام تقنيات الذكاء الاصطناعي التوليدية لإنشاء صور ومقاطع فيديو مزيفة تبدو حقيقية، مما قد يُستخدم لنشر معلومات مضللة وأخبار كاذبة. يمكن أن يكون لهذه المعلومات تأثير سلبي على الأفراد والمجتمعات، مما يؤدي إلى الإضرار بالسمعة وانتشار الكراهية والعنف.

إنشاء مخرجات متحيزة: قد تؤدي البيانات المستخدمة لتدريب أنظمة الذكاء الاصطناعي التوليدي إلى إدامة التحيزات الموجودة في المجتمع، مما قد يؤدي إلى تمييز غير عادل ضد مجموعات معينة. على سبيل المثال، قد تُستخدم تقنيات الذكاء الاصطناعي التوليدي لإنشاء صور نمطية لأشخاص من خلفيات عرقية أو دينية معينة.

التأثير على حرية التعبير: قد تُستخدم تقنيات الذكاء الاصطناعي التوليدي لإنشاء محتوى ضار أو مسيء، مثل خطاب الكراهية أو الصور العنيفة. قد يُؤدي ذلك إلى فرض قيود على حرية التعبير، مما قد يُضر بالديمقراطية والمجتمع المدني.

التأثير على سلامة المعلومات: يمكن استخدام تقنيات الذكاء الاصطناعي التوليدي لإنشاء برامج ضارة وبرامج تجسس، مما قد يُهدد سلامة المعلومات والبنية التحتية الرقمية.

من أجل الاستخدام المسؤول والاستفادة من تقنيات الذكاء الاصطناعي التوليدي، يجب علينا:

وضع قوانين وأنظمة تحكم استخدام تقنيات الذكاء الاصطناعي التوليدي.

تطوير تقنيات ذكاء اصطناعي توليدي أكثر عدلاً وشمولية.

نشر الوعي حول مخاطر إساءة استخدام تقنيات الذكاء الاصطناعي التوليدي.

التعاون مع الشركات والمجتمع المدني لضمان استخدام تقنيات الذكاء الاصطناعي التوليدي بشكل مسؤول وأخلاقي.

خطوات نحو إطار تنظيمي للذكاء الاصطناعي التوليدي

تتمتع هذه التكنولوجيا الناشئة بالقدرة على أن تكون قوة للتغيير الإيجابي، ولكن لأننا ندرك المخاطر المحتملة للذكاء الاصطناعي التوليدي؛ مثل المخاوف المتعلقة بخصوصية البيانات والمعضلات الأخلاقية، فمن الواضح أن النهج التعاوني أمر بالغ الأهمية. ومن خلال العمل معًا وتبادل المعرفة وتعزيز المناقشات المفتوحة حول هذه التكنولوجيا، يمكننا بناء أساس للاستخدام المسؤول. سيسمح لنا هذا صياغة إطار تنظيمي شامل للذكاء الاصطناعي التوليدي وإنشاء قوانين وأنظمة تحقق التوازن: تشجيع الابتكار، وحماية الحقوق الفردية، وتمكيننا من تسخير الإمكانات الإيجابية للذكاء الاصطناعي التوليدي لتحسين حياة الأفراد والمجتمع.

*استشاري تكنولوجي استراتيجي

محليات اقتصاد عربي ودولي رياضة فيديو كتاب مجتمع شباب وجامعات ثقافة وفنون ملاحق
جميع الحقوق محفوظة المؤسسة الصحفية الاردنية
Powered by NewsPress
PDF