استرالیا دست‌به‌کار تدوین دستورالعمل اخلاقی برای هوش مصنوعی می‌شود

سه سازمان شناخته شده استرالیایی به تازگی اعلام کردند که قصد دارند با مشارکت یکدیگر نسبت به راه‌اندازی «سازمان گرادینت» به عنوان یک نهاد غیرانتفاعی اقدام کنند. این سازمان ابعاد اخلاقی هوش مصنوعی را مورد پژوهش قرار خواهد داد.

این سازمان با سرمایه‌گذاری مشترک سازمان تحقیقات علمی و صنعتی کشورهای مشترک المنافع، دانشگاه سیدنی و گروه بیمه‌گذار استرالیا تأسیس شده و مدیر اجرایی آن بیل سیمپسون یوانگ خواهد بود. به اعتقاد سیمپسون آثار هوش مصنوعی این روزها در گوشه‌وکنار زندگی روزانه ما دیده می‌شود «وقتی مردم از هوش مصنوعی حرف می‌زنند، اغلب درباره یادگیری ماشینی حرف می‌زنند. اما یادگیری ماشینی تنها یک کاربرد هوش مصنوعی است اما سیستم‌ها در خلال تجربه می‌آموزند و رشد می‌کنند، بی آنکه توسط کاربران انسانی برنامه ریزی شده باشند.»

ضرورت تدوین دستورالعمل‌ اخلاقی برای هوش مصنوعی

هوش مصنوعی این روزها هر لحظه در مقاله جدید و محصولی که به مصرف کننده توصیه می‌شود، به چشم می‌خورد. خیلی از شرکت‌ها از هوش مصنوعی برای فیلتر کردن نیروی متقاضی کار و خیلی از بانک‌ها از آن برای تصمیم گیری درباره نحوه وام دادن بهره می‌برند.

مقاله‌های مرتبط:

بازار هوش‌مصنوعی تا سال ۲۰۲۵ به ۲۲ میلیارد دلار می‌رسد

هوش مصنوعی برای دانشگاه MIT چقدر مهم است؟ 

با در نظر گرفتن روند رو به‌رشد نفوذ هوش مصنوعی در همه جوامع، کارشناس بر این باورند که ایجاد دستورالعمل‌ اخلاقی برای هوش مصنوعی ضروری به نظر می‌رسد. اهمیت این دستورالعمل‌ها این است که نوع بشر مجاب شود، ماشینی شدن همه چیزها و رشد بی وقفه هوش مصنوعی در راستای منافع انسانی قرار دارد.

در روزگاری که ماشین‌ها برای ما تصمیم می‌گیرند

سیمپسون یوانگ نیز گفته «انسان‌ها هر روز تصمیم‌ می‌گیرند و این تصمیم‌گیری‌های روزمره نیز بر بنیاد چارچوب اخلاق استوار است. ما هم اکنون در وضعیتی قرار گرفته‌ایم که این ماشین‌ها هستند که برای ما تصمیم می‌گیرند که روزانه باید چه خبری بخوانیم یا با چه کسی ملاقات کنیم. اما در حال حاضر هیچ چارچوب اخلاقی برای همین ماشین‌ها ترسیم نشده است.» از رسیدن به یک اجماع اخلاقی در این حوزه که بگذریم، دانشمندان مسیر طولانی و دشواری برای تنها فرموله کردن دستورالعمل‌ اخلاقی برای هوش مصنوعی و کدنویسی و برنامه نویسی و اجرای آن پیش رو دارند.

هنوز برای سؤال‌های اخلاقی خودمان دنبال جوابیم

به گفته مایکل هار، استاد ارشد دانشگاه « یکی از سوال‌های کلیدی پیش روی ما این است که چگونه به‌طور اخلاقی انسان باشیم. ما به واقع نمی‌دانیم چه پاسخی به این سوال بدهیم. حالا اینکه بخواهیم هوش مصنوعی برای همه این سوال‌ها پاسخی داشته باشد هم بسیار سخت است.»

هار می‌گوید «گام نخست خلق مجموعه داده‌های بزرگ است از آنچه مردم از اخلاق انتظار دارند و گام بعدی می‌تواند شکل دادن به یک رویکرد باشد. هوش مصنوعی گفت‌وگوهای ما را کنترل می کند و در تلاش است تا بتواند به سوال‌هایی پاسخ دهد که ما به عنوان نوع بشر سال های سال دنبال پاسخی برای آن بوده ایم.»

سازمان گرادینت بنا دارد تا در راستای تدوین دستورالعمل اخلاقی برای هوش مصنوعی، داده‌های مختلفی از شاخه‌های علمی متنوع از حقوق و علوم انسانی گرفته تا مهندسی و تحلیلگران داده را جمع آوری کرده و سامان دهد.

منبع: یورو نیوز

ارسال یک پاسخ

آدرس ایمیل شما منتشر نخواهد شد.