استرالیا دستبهکار تدوین دستورالعمل اخلاقی برای هوش مصنوعی میشود
سه سازمان شناخته شده استرالیایی به تازگی اعلام کردند که قصد دارند با مشارکت یکدیگر نسبت به راهاندازی «سازمان گرادینت» به عنوان یک نهاد غیرانتفاعی اقدام کنند. این سازمان ابعاد اخلاقی هوش مصنوعی را مورد پژوهش قرار خواهد داد.
این سازمان با سرمایهگذاری مشترک سازمان تحقیقات علمی و صنعتی کشورهای مشترک المنافع، دانشگاه سیدنی و گروه بیمهگذار استرالیا تأسیس شده و مدیر اجرایی آن بیل سیمپسون یوانگ خواهد بود. به اعتقاد سیمپسون آثار هوش مصنوعی این روزها در گوشهوکنار زندگی روزانه ما دیده میشود «وقتی مردم از هوش مصنوعی حرف میزنند، اغلب درباره یادگیری ماشینی حرف میزنند. اما یادگیری ماشینی تنها یک کاربرد هوش مصنوعی است اما سیستمها در خلال تجربه میآموزند و رشد میکنند، بی آنکه توسط کاربران انسانی برنامه ریزی شده باشند.»
ضرورت تدوین دستورالعمل اخلاقی برای هوش مصنوعی
هوش مصنوعی این روزها هر لحظه در مقاله جدید و محصولی که به مصرف کننده توصیه میشود، به چشم میخورد. خیلی از شرکتها از هوش مصنوعی برای فیلتر کردن نیروی متقاضی کار و خیلی از بانکها از آن برای تصمیم گیری درباره نحوه وام دادن بهره میبرند.
مقالههای مرتبط:
بازار هوشمصنوعی تا سال ۲۰۲۵ به ۲۲ میلیارد دلار میرسد
با در نظر گرفتن روند رو بهرشد نفوذ هوش مصنوعی در همه جوامع، کارشناس بر این باورند که ایجاد دستورالعمل اخلاقی برای هوش مصنوعی ضروری به نظر میرسد. اهمیت این دستورالعملها این است که نوع بشر مجاب شود، ماشینی شدن همه چیزها و رشد بی وقفه هوش مصنوعی در راستای منافع انسانی قرار دارد.
در روزگاری که ماشینها برای ما تصمیم میگیرند
سیمپسون یوانگ نیز گفته «انسانها هر روز تصمیم میگیرند و این تصمیمگیریهای روزمره نیز بر بنیاد چارچوب اخلاق استوار است. ما هم اکنون در وضعیتی قرار گرفتهایم که این ماشینها هستند که برای ما تصمیم میگیرند که روزانه باید چه خبری بخوانیم یا با چه کسی ملاقات کنیم. اما در حال حاضر هیچ چارچوب اخلاقی برای همین ماشینها ترسیم نشده است.» از رسیدن به یک اجماع اخلاقی در این حوزه که بگذریم، دانشمندان مسیر طولانی و دشواری برای تنها فرموله کردن دستورالعمل اخلاقی برای هوش مصنوعی و کدنویسی و برنامه نویسی و اجرای آن پیش رو دارند.
هنوز برای سؤالهای اخلاقی خودمان دنبال جوابیم
به گفته مایکل هار، استاد ارشد دانشگاه « یکی از سوالهای کلیدی پیش روی ما این است که چگونه بهطور اخلاقی انسان باشیم. ما به واقع نمیدانیم چه پاسخی به این سوال بدهیم. حالا اینکه بخواهیم هوش مصنوعی برای همه این سوالها پاسخی داشته باشد هم بسیار سخت است.»
هار میگوید «گام نخست خلق مجموعه دادههای بزرگ است از آنچه مردم از اخلاق انتظار دارند و گام بعدی میتواند شکل دادن به یک رویکرد باشد. هوش مصنوعی گفتوگوهای ما را کنترل می کند و در تلاش است تا بتواند به سوالهایی پاسخ دهد که ما به عنوان نوع بشر سال های سال دنبال پاسخی برای آن بوده ایم.»
سازمان گرادینت بنا دارد تا در راستای تدوین دستورالعمل اخلاقی برای هوش مصنوعی، دادههای مختلفی از شاخههای علمی متنوع از حقوق و علوم انسانی گرفته تا مهندسی و تحلیلگران داده را جمع آوری کرده و سامان دهد.
منبع: یورو نیوز