نورمن، اولین هوش‎مصنوعی سایکوپات دنیا نشان می‎دهد که تعلیم غلط چه بلایی بر سر هوش‎مصنوعی می‎آورد - تکفارس 
نورمن، اولین هوش‎مصنوعی سایکوپات دنیا نشان می‎دهد که تعلیم غلط چه بلایی بر سر هوش‎مصنوعی می‎آورد - تکفارس 
نورمن، اولین هوش‎مصنوعی سایکوپات دنیا نشان می‎دهد که تعلیم غلط چه بلایی بر سر هوش‎مصنوعی می‎آورد - تکفارس 

نورمن، اولین هوش‎مصنوعی سایکوپات دنیا نشان می‎دهد که تعلیم غلط چه بلایی بر سر هوش‎مصنوعی می‎آورد

پوریا اسدی
۱۷ خرداد ۱۳۹۷ - 11:00
نورمن، اولین هوش‎مصنوعی سایکوپات دنیا نشان می‎دهد که تعلیم غلط چه بلایی بر سر هوش‎مصنوعی می‎آورد - تکفارس 

برخی از افراد، از جمله رهبران تکنولوژی، در حال حاضر مشغول به ابراز نگرانی و پیامدهای ناگوار هوش مصنوعی در آینده هستند. این به دلیل روشی است که سیستم‌های هوش مصنوعی آموزش می‌بینند و در مواردی انحرافی را از خود نشان داده‌اند.

محققان در آزمایشگاه رسانه MIT آنچه را که آنها هوش مصنوعی سایکوپاتی به نام Norman نامیدند، ایجاد کرده اند. این هوش مصنوعی بر اساس شخصیت داستانی نورمن بیتس از فیلم ترسناک Psycho محصول سال ۱۹۶۰ نامگذاری شده است. این هوش مصنوعی طراحی شده است تا نشان دهد که چگونه داده های مورد استفاده برای آموزش الگوریتم می تواند بر رفتار آن تأثیر بگذارد.

در طی تمرین، عکسی از AI Norman در  گوشه‌ای از Reddit قرار گرفتند. مجموعه داده‌ها حاوی تصاویری از زیرمجموعه ای نامعلوم بود که “برای ثبت و مشاهده واقعیت‌های هولناک مرگ” اختصاص داده شده بود.

پس از آن هوش مصنوعی تحت آزمایش رورشاخ (یک آزمون روانشناختی است که از تصاویر جوهری برای تجزیه و تحلیل اختلالات فکر استفاده‌ می‌کند) قرار گرفت که در آن باید کپشنی برای این تصاویر پیشنهاد  کند. به یک شبکه عصبی استاندارد کپشن سازی تصویر (که در MSCOCO آموزش داده شده بود) همان تصاویر انتزاعی نشان داده شد و نتایج مقایسه شده تفاوت‌های فاحشی داشت.

نورمن، اولین هوش‎مصنوعی سایکوپات دنیا نشان می‎دهد که تعلیم غلط چه بلایی بر سر هوش‎مصنوعی می‎آورد - تکفارس 

به گفته محققان، یک نتیجه گیری ‌می‌تواند این باشد که ما نباید فقط الگوریتم‌ها را سرزنش کنیم. مجموعه داده‌های آموزشی که عمدتا مبتنی بر محتوای تولید شده توسط انسان است، به همان اندازه اهمیت دارد.

بنابراین، اگر ما‌ می‌ترسیم که روزی  یک آخرالزمان هوش مصنوعی اتفاق‌ بیافتد، داده‌های ایجاد شده توسط انسان ممکن است یکی از دلایلی باشد.

اخیرا، مدیر عامل شرکت مایکروسافت ساتیا نادلا در خواستی برای تعیین اخلاقیات و دستورالعمل‌های توسعه هوش مصنوعی، زمانی که تلاش کرد تا به دیگران اطمینان دهد که روبات‌ها در آینده ما را رها نخواهند کرد،داده است .

مطالب مرتبط سایت

نظرات

دیدگاهتان را بنویسید