اخبار فارس من افکار سنجی دانشکده انتشارات توانا فارس نوجوان

فرهنگ

استفاده روزافزون از هوش مصنوعی در فناوری تشخیص عواطف

افشاگری ها درباره سوگیری های الگوریتمی و مجموعه داده های تبعیض آمیز در فناوری تشخیص چهره باعث شده تا شرکت های بزرگ فناوری از جمله مایکروسافت، آمازون و آی بی ام فروش این فناوری خود را متوقف کنند. بعلاوه در ارتباط با استفاده از این فناوری در امور پلیسی در بریتانیا چالش هایی مطرح است. در اتحادیه اروپا ائتلافی مرکب از بیش از 40 سازمان جامعه مدنی خواستار ممنوعیت کامل فناوری تشخیص چهره شده اند.

استفاده روزافزون از هوش مصنوعی در فناوری تشخیص عواطف

خبرگزاری فارس ـ گروه غرب از نگاه غرب: تصور کنید در یک مصاحبه شغلی حضور یافته اید. همینطور که به سئوالات مسئول استخدام پاسخ می دهید، یک سیستم هوش مصنوعی با اسکن کردن چهره شما، به میزان عصبی بودن، همدلی و احساس تعلق سازمانی شما امتیاز می دهد. شاید شبیه فیلم های علمی تخیلی به نظر آید، ولی این سیستم ها اغلب بدون اطلاع یا رضایت افراد، به شکل فزاینده ای در حال به کار گرفته شدن هستند.
در واقع فناوری تشخیص عواطف یک صنعت چندین میلیارد دلاری رو به شکوفایی است که قصد دارد از هوش مصنوعی برای ردگیری عواطف از روی حالات چهره استفاده کند. با این حال بنیان های علمی پشت سیستم های تشخیص عواطف مجادله برانگیز هستند: این سیستم ها بر اساس سوگیری های مختلفی تکامل پیدا می کنند.
شرکت های زیادی از فناوری تشخیص عواطف برای ردگیری واکنش های مشتریانشان نسبت به محصولاتشان، از غلات صبحانه گرفته تا بازی های ویدئویی استفاده می کنند. اما از این فناوری می توان در وضعیت هایی که مخاطرات بسیار بزرگ تری به دنبال دارد نیز استفاده کرد، مثل استخدام، تامین امنیت فرودگاه ها برای تشخیص چهره هایی که می کوشند فریبکاری یا ترس را پنهان کنند، در کنترل مرزی، در کارهای پلیسی برای شناسایی «افراد خطرناک» یا در آموزش و پرورش برای نظارت بر میزان مشارکت دانشجویان در تکالیف درسی شان.

بنیان های علمی لرزان
خوشبختانه هرچه می گذرد فناوری تشخیص چهره  بیشتر توجه جامعه را به خود جلب می کند. فیلم برنده جایزه «سوگیری های کدگذاری شده» که اخیرا در نتفلیکس پخش شد، این کشف را مستند می کند که بسیاری از فناوری های تشخیص چهره، مختصات کسانی را که پوست های تیره تری دارند با دقت  ردگیری نمی کنند. همچنین تیم تحقیقاتی که ایمیج نت، یکی از بزرگ ترین و مهم ترین مجموعه داده های به کار رفته برای آموزش هوش مصنوعی  را مدیریت می کند، اخیرا در واکنش به نگرانی ها نسبت به حریم خصوصی، مجبور به مات کردن 1.5 میلیون تصویر گردید.
 افشاگری ها درباره سوگیری های الگوریتمی و مجموعه داده های تبعیض آمیز در فناوری تشخیص چهره باعث شده تا شرکت های بزرگ فناوری از جمله مایکروسافت، آمازون و آی بی ام  فروش این فناوری خود را متوقف کنند. بعلاوه در ارتباط با استفاده از این فناوری در امور پلیسی در بریتانیا چالش هایی مطرح است. در اتحادیه اروپا ائتلافی مرکب از بیش از 40 سازمان جامعه مدنی خواستار ممنوعیت کامل فناوری تشخیص چهره شده اند.
مثل دیگر اشکال تشخیص چهره، فناوری تشخیص عواطف نیز پرسش هایی را در ارتباط با سوگیری های ذاتی، حریم خصوصی و نظارت جمعی پیش کشیده است. اما فناوری تشخیص عواطف نگرانی دیگری را نیز مطرح می کند: اصول علمی مرتبط با عواطف که این فناوری بر اساس آن ساخته می شود مجادله برانگیز است. بخش عمده ای ازاین فناوری مبتنی بر تئوری «عواطف اصلی» است که  قائل بر این است که عواطف از نظر بیولوژیک به شدت با فیزیولوژی انسان در هم تنیده اند و در همه جا توسط افراد به یک شکل ابراز می شوند.
اما هرچه می گذرد این گزاره بیشتر به چالش کشیده می شود. تحقیق در مطالعات انسان شناسی نشان می دهد که عواطف در فرهنگ ها و جوامع مختلف به اشکال متفاوتی ابراز می شوند. در سال 2019 «انجمن علوم روانشناسی» یک بازنگری از شواهد را با این نتیجه گیری به اجرا گذاشت که هیچ پشتیبانی علمی از این فرض رایج وجود ندارد که حالت عاطفی یک انسان را می توان به سرعت از طریق حرکات چهره او استنباط کرد. در یک کلام فناوری تشخیص عواطف بر اساس اصول علمی لرزانی بنا شده است.
مثل سایر اشکال فناوری تشخیص چهره، فناوری تشخیص عواطف نیز با سوگیری های نژادی کدگذاری شده است. یک مطالعه نشان داده است که این سیستم ها فارغ از حالت چهره فرد، به کرات چهره سیاهپوستان را خشمگین تر از چهره سفیدپوستان تفسیر می کنند. هرچند مطالعات انجام شده در مورد سوگیری های نژادی در فناوری تشخیص عواطف هنوز جامع نیست، ولی سوگیری های نژادی در سایر اشکال فناوری تشخیص چهره کاملا مستند شده است.
دبورا راجی پژوهشگر هوش مصنوعی در گفتگو با ام ای تی تکنولوژی ریویو می گوید که این فناوری به دو طریق می تواند به افراد آسیب وارد کند: «یکی با کار نکردن است: یعنی این فناوری با داشتن نرخ های خطای بالاتر در مورد رنگین پوستان، خطر بزرگ تری را متوجه آنها می کند. وضعیت دوم زمانی پیش می آید که این فناوری کار می کند؛ یعنی جایی که یک سیستم تشخیص چهره بی نقص را دارید، اما به سادگی می شود از آن به عنوان سلاحی علیه اجتماعات و برای آزار و اذیت آنها استفاده کرد.»
پس حتی اگر بتوان کاری کرد که فناوری تشخیص چهره برای تمام افراد عاری از سوگیری و دقیق شود، باز هم ممکن است عادلانه یا منصفانه نباشد. زمانی که فناوری تشخیص چهره در امور پلیسی و سیستم های قضایی مورد استفاده قرار می گیرند می توان این اثرات ناهمگون را مشاهده کرد؛ چرا که این سیستم ها پیشاپیش تبعیض آمیز و به زیان رنگین پوستان بوده اند. فناوری ها زمانی که آنطور که باید کار نکنند می توانند خطرناک باشند. همچنین زمانی که در جهانی ناقص در حد کمال کار کنند نیز می توانند خطرناک باشند.
چالش هایی که فناوری های تشخیص چهره از جمله تشخیص عواطف پیش می کشند پاسخ های ساده یا روشنی ندارند. حل مشکلاتی که این فناوری به وجود می آورد مستلزم حرکت از اخلاقیات هوش مصنوعی مبتنی بر اصول انتزاعی به سمت اخلاقیات هوش مصنوعی مبتنی بر عمل و اثرات آن بر زندگی مردم است.
در مورد فناوری تشخیص عواطف ما باید به طور جمعی اصول علمی مناقشه برانگیز مربوط به عواطف را که این سیستم ها مبتنی بر آن هستند مورد بررسی و پتانسیل آنها برای سوگیری های نژادی را مورد بازنگری قرار دهیم. همچنین باید از خودمان بپرسیم حتی اگر بتوان فناوری تشخیص عواطف را به گونه ای مهندسی کرد که به درستی احساسات درونی همه مردم را بخواند، آیا ما خواهان چنین نظارت زیرپوستی و محرمانه ای در زندگی خود هستیم؟ این ها پرسش هایی است که  همه باید به آنها بیندیشند، مشارکت کنند و دست به عمل بزنند.
نویسنده: آلکسا هاگرتی (Alexa Hagerty) ,عضو پژوهشی مردم شناسی در دانشگاه کمبریج
منبع: https://b2n.ir/w65709

انتهای پیام/ 

 

این مطلب را برای صفحه اول پیشنهاد کنید
نظرات
دیدگاه های ارسال شده توسط شما، پس از تایید توسط خبرگزاری فارس در وب سایت منتشر خواهد شد پیام هایی که حاوی تهمت یا افترا باشد منتشر نخواهد شد
Captcha
لطفا پیام خود را وارد نمایید.
پیام شما با موفقیت ثبت گردید.
لطفا کد اعتبارسنجی را صحیح وارد نمایید.
مشکلی پیش آمده است. لطفا دوباره تلاش نمایید.

پر بازدید ها

    پر بحث ترین ها

      بیشترین اشتراک

        اخبار گردشگری globe
        اخبار کسب و کار تریبون
        همراه اول