بی‌توجهی به حکمرانی داده سد راه هوش مصنوعی

به گزارش گروه آنلاین روزنامه دنیای اقتصاد؛ شرکت‌کنندگان این پنل بر این باور بودند که بدون چارچوب شفاف و مرجعیت مشخص برای مدیریت داده استفاده از هوش مصنوعی می‌تواند به نتایج اشتباه، پیش‌بینی‌های پرخطر و حتی تبعیض‌های الگوریتمی منجر شود؛ مسائلی که نه‌تنها اعتماد عمومی را از بین می‌برد،  بلکه مانع پذیرش فناوری توسط کسب‌وکارها نیز می‌شود.

صیفی با اشاره به اهمیت مدیریت داده گفت: «برای مدل‌های هوش مصنوعی، داده باید شفاف و قابل اعتماد باشد. اگر داده‌ها خام و اشتباه باشند، خروجی‌ها پرهزینه و خطرناک خواهند بود.»

او بر نقش حاکمیت داده تأکید کرد و هشدار داد که بی‌توجهی به این موضوع می‌تواند به کاهش اعتبار نتایج و شکل‌گیری تبعیض‌های سیستماتیک منجر شود.

در این بین عالیشاهی بعد اخلاقی ماجرا را برجسته کرد و گفت: «عدالت، شفافیت و حفظ حریم خصوصی سه مولفه کلیدی در هوش مصنوعی هستند. ما نیازمند تشکیل کمیته اخلاق و تدوین قوانین مشخص هستیم.»

او افزود که در دنیا نهادهای متولی برای نظارت بر مدل‌های هوش مصنوعی وجود دارد، اما در ایران هنوز معماری درست شکل نگرفته است.

به باور او مشکل اصلی نه در فناوری، بلکه در مقاومت مدیران سنتی و کمبود فرهنگ‌سازی است: «مدیرانی که چوب لای چرخ می‌گذارند باید پایش شوند، زیرا از نظر تکنولوژی مشکلی نداریم.»

اصغری نیز بر مسأله انحصار داده تأکید کرد و گفت: «برخی سازمان‌ها داده را قدرت می‌دانند و با انحصار آن مانع گردش داده می‌شوند. تا زمانی که داده در گردش قرار نگیرد، کیفیت آن سنجیده نمی‌شود و خلق ارزش ممکن نخواهد بود.» او یادآور شد که داده‌های کثیف منجر به خطا در هوش مصنوعی می‌شوند و تغییرات فرهنگی برای پذیرش گردش داده باید بر تغییرات سخت‌افزاری و نرم‌افزاری مقدم باشد.

به گفته اصغری برخی نهادها هنوز باورپذیری لازم نسبت به ارزش هوش مصنوعی ندارند، در حالی که سرمایه‌گذاری اولیه می‌تواند در بلندمدت هزینه‌ها را کاهش دهد.

باید یادآور شد که برای عبور از چالش‌های هوش مصنوعی، سه رکن اساسی ضروری است؛ ایجاد چارچوب حاکمیت داده، نهادینه‌ کردن اصول اخلاقی و فرهنگ‌سازی در سازمان‌ها. بدون این سه، حرکت به سمت هوش مصنوعی نه تنها دشوار، بلکه خطرناک خواهد بود.