آیا مهندسان مسئول عواقب الگوریتم های خود هستند؟ - تکفارس 
آیا مهندسان مسئول عواقب الگوریتم های خود هستند؟ - تکفارس 

آیا مهندسان مسئول عواقب الگوریتم های خود هستند؟

محراب کرامتی
۲۸ شهریور ۱۳۹۶ - 01:11
آیا مهندسان مسئول عواقب الگوریتم های خود هستند؟ - تکفارس 

برای برخی اعتراض کنندگان مرسوم است که چهره های خود را در تظاهرات دست جمعی بپوشانند. اکنون به نظر می رسد که تکنولوژی می تواند آن ها را شکست دهد. گروهی از مهندسان یک الگوریتم طراحی کرده اند که می تواند صورت هایی که بصورت نصفه پوشانده شده است را شناسایی کند.

شناسایی چهره ها

این الگوریتم صورت ها را با استفاده از ۱۴ زاویه تصویر از آن ها شناسایی می کند. بنا بر مقاله ای از پیش نوشته شده در سرور arXiv که قرار است در کنفرانس جهانی IEEE در باره ی کارگاه های چشم انداز های کامپیوتری در اکتبر منتشر شود، محققان این الگوریتم را تعلیم و ارزیابی کرده اند تا بر پایه نوعی هوش مصنوعی، به نام “یادگیری عمیق” است که از یک پایانه اطلاعاتی شامل ۱۵۰۰ عکس از ۲۵ صورت افراد رندوم، کار کند. قسمت هایی از صورت هر فرد در ۱۰ نوع نقاب های مختلف (مانند عینک آفتابی، روسری و یا کلاه) پوشانده شد. ۸ نوع مختلف بگ گراند هم در عکس ها استفاده شد تا عکس های واقعی را شبیه سازی کند.وقتی که الگوریتم را برای ۵۰۰ عدد عکس جدید امتحان کردند توانست ۶۹% افرادی که دارای روسری و یا کلاه بودند را شناسایی کند که این میزان بسیار دقیق تر از نمونه های حال حاضر است.

آیا مهندسان مسئول عواقب الگوریتم های خود هستند؟ - تکفارس 

نمونه عکس های استفاده شده با نقاب ها و بک گراند های متغییر

محققان به قصد شناسایی مجرمان این الگوریتم را ایجاد کردند و این اولین تکنیکی نیست که به این قصد ایجاد می شود. در حال حاضر دیگر الگوریتم هایی وجود دارند که با استفاده از آن ها از نحوه راه رفتن افراد و یا مو و لباس هایشان می توان مردم را شناسایی کرد.ولی کاربران تویتر استفاده خبیثانه ای برای این الگوریتم ها می بینند:که می تواند در دست صاحبان قدرت به ابزاری برای شناسایی و آزار مخالفانشان باشد.

“بله، بهتر است که بر این الگوریتم و روزنامه ها ایراد بگیریم ولی هدف چیز دیگری است. باید بتوانیم ظرفیت های خود را در جاهایی افزایش دهیم که برای سلطه گرا ها کاربردی باشد. ”     ۴سپتامبر۲۰۱۷ (Zeynep Tufekci(@zeynep

“دقیقا…هوش مصنوعی نوعی دارایی است و بر قدرت دارنده آن می افزاید. تصور کنید که سریع ترین، وفادار ترین و بی چون و چرا ترین دستیار دنیا را داشته باشید.”

  ۵ سپتامبر۲۰۱۷ (Jim Vor(@JimYoull

شغل چه کسی است که از استفاده شدن این الگوریتم ها فقط در راه درست اطمینان حاصل کند؟

الگوریتم ها به نوبه خود بخش زیادی از زندگی ما را کنترل می کنند، اطلاعاتی که می بینیم، شغل هایی که میگیریم و یا چه مقدار هزینه هایی باید مجرمان برای آزادی بپردازند. امکان تغییر آن پایین است زیرا تکنولوژی در سیستم هایی در اطراف ما در حال انبوه شدن است. گرچه این برنامه ها برای کمک کردن به ما در تصمیم گیری بدون لغزش انسانی خود باشیم ولی الگوریتم ها معمولا باعث تلقین به انجام کار های نامناسب می شوند. الگوریتم هایی که به عنوان جعبه های سیاه(بلک باکس ها) کاربرد دارند  پتانسیل تغییر در نحوه اداره جهان را دارند.David Ryan Polgar ، یک کردار شناس تکنولوژی در مصاحبه ای با Futurism می گوید که: “پتانسیل واضحی قابل مشاهده است که اگر در آن الگوریتم عدم شفافیت بود می تواند باعث شناخت کلیشه ها شود. “

چون مهندسان معمولا از قوانین کمپانی ها پیروی می کنند نباید آن ها را مسؤول عواقب لوازمی که آن ها طراحی می کنند دانست. به گفتهPolgar : “مهندسان در ذاتشان در پی راه حلی بر یک مشکل هستند. اگر کسی به من بگوید که چاقوی تیزتری بسازم، من چشم های خود را بسته و کارم را شروع می کنم. هدف من این نیست که به همه شرایطی که از چاقو استفاده نا درست شود فکر کنم. “آن مسولیت برعهده کسانی است که تصمیم می گیرند که آن ابزار ارزش داشتنش را دارد یا خیر.

هیچ پیشرفت تکنولوژی ای بدون ریسک نیست. در صنایع دیگر (مانند دارویی) دولت هر کشور ابزاری را که ریسک داشته باشند پیدا کرده و پروژه آن ها را کنسل می کند، ولی دولت ها هنوز آن قدری تیزهوش نشده اند تا برای طراحی الگوریتم ها نیز قانون گذاری کنند.Polgar می گوید: “پس بر عهده کمپانی ها است که ریسکی ترین چیز ها هرگز تولید نشوند، زیرا می تواند برای کمپانی های مستقلی که توسط عده کمی کنترل می شوند و همیشه اهدافشان با چیزی که مردم می خواهند یکی نیست. کمپانی هایی که در شناسایی افراد شکست بخورند ضربه قابل توجهی را می بینند، فیس بوک گرفتار بسیاری از دردسر ها شد چرا که عکسی نمادین مربوط به جنگ های ویتنام را بصورت خودکار سانسور کرد، و یا گوگل که برنامه اش دو فرد سیاه پوست را به عنوان گوریل شناسایی کرد! “

غیر ممکن است که بتوان از این موقعیت ها اجتناب کرد اگر الگوریتم های مسوول این اشتباهات توسط گروهی مخالف طراحی شده باشد یا اگر به سرعت در میان مردم مورد توجه قرار گیرد.

از واکنش تا ممانعت

از آن جایی که طراحی این الگوریتم ها توجه جهانی را به خود جلب کرده است کمپانی ها در صدد تاکید بیشتری بر نیاز های آن افراد خاص هستند قبل از این که مردم علاقه خود را از دست دهند. این یک روش بازدارنده از فاجعه های PR است. متخصصان خواسته اند که کمپانی های تکنولوژیکی کردار شناس ها را استخدام کنند و یا تعداد برابر تولید کنندگان و رشته های liberal arts وجود داشته باشد. دیگر متخصصان تاکید کرده اند که رشته های دانش کامپیوتر باید درس های کردار شناسی را بگذرانند.Elon Musk و  Sam Altman در سال ۲۰۱۵ از OpenAI بدون سود پرده برداری کردند که برای شفافیت و امنیت هوش های مصنوعی به وجود آمده بود.

توجه بر اخلاقیات ممکن است برای کمپانی هایی مانند آمازون، گوگل، ماکروسافت، اپل و فیس بوک که در حال قدرت مند تر شدن و در پی شکست رقیبان و یا جذب آن ها هستند، حیاتی باشد. اگر هم که مصرف کنندگان از فعالیت کمپانی ها راضی نباشند بسیار سخت است که از آن ها استفاده نکنند. Polgar می گوید: “معمولا ما می گوییم که از پول خود استفاده کنید ولی در حال حاضر دیگر جوابی نخواهد داد. “

او اضافه کرد که: “سازندگان در هنگام حل مشکلات چشم های خود را می بندند ولی کمپانی های مسوولیت پذیر مراحلی را بر سر راه قرار می دهند که از سلامت طرح اطمینان حاصل شود و این که میزان زیادی از استفاده نا مناسب در یک محصول وجود نداشته باشد. ” او می گوید که الگوریتم شناسایی چهره ها موضوع حساسی است زیرا ممکن است اعتراض مردم را برانگیزد. به هر حال سازندگان آن برخی آپشن ها را به آن اضافه کرده اند تا از استفاده نا مناسب از آن جلوگیری شود.

این الگوریتم همچنان محدودیت های زیادی دارد. نمی تواند افرادی که ماسک های کامل دارند (که بیشتر توسط هکر های ناشناس استفاده می شود) را شناسایی کند و هم چنین آنقدری دقیق نیست که در استفاده مقیاس بزرگ از آن استفاده کرد. برای بهینه سازی آن محققان می خواهند که آن را در شرایط دنیای واقعی امتحان کنند.

با این که این تکنولوژی در حال پیشرفت و بهبودی است مهندسان همچنان نمی دانند که دقیقا چگونه از استفاده نادرست آن توسط برخی افراد جلوگیری کنند. ولی آن ها از نیت خود مطمین هستند.Amarjot Singh، نویسنده پژوهش، می گوید: “من واقعا نمی دانم که چگونه می توان آن کار را متوقف کرد. این الگوریتم فقط باید توسط افرادی که می خواهند از آن در اهداف خوب استفاده کنند بکار رود. “

مطالب مرتبط سایت

نظرات

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد.