گزارش وضعیت هوش مصنوعی ما نشان داد که یکی از چالشهای اصلی بازاریابان هنگام استفاده از هوش مصنوعی مولد، توانایی آن در جهتگیری است.

و بازاریابان، متخصصان فروش و افراد خدمات مشتری گزارش می دهند که در استفاده از ابزارهای هوش مصنوعی مردد هستند زیرا گاهی اوقات می توانند اطلاعات جانبدارانه ارائه دهند.
واضح است که متخصصان رشد کسب و کار نگران هستند که هوش مصنوعی مغرضانه باشد، اما چه چیزی در وهله اول آن را مغرضانه می کند؟ در این پست، در مورد پتانسیل آسیب در استفاده از هوش مصنوعی، نمونههای واقعی تعصب هوش مصنوعی و اینکه چگونه جامعه میتواند آسیبهای احتمالی را کاهش دهد، بحث خواهیم کرد.
تعصب هوش مصنوعی چیست؟
تعصب هوش مصنوعی این ایده است که الگوریتمهای یادگیری ماشین میتوانند هنگام انجام وظایف برنامهریزیشدهشان، مانند تجزیه و تحلیل دادهها یا ایجاد محتوا، سوگیری داشته باشند. هوش مصنوعی معمولاً به روشهایی مغرضانه است که باورهای مضر مانند نژاد و کلیشههای جنسیتی را تداوم میبخشد.
بر اساس گزارش 2023 AI Index، هوش مصنوعی زمانی مغرضانه است که نتایجی را ایجاد کند که کلیشههایی را که به گروههای خاصی آسیب میرساند، تقویت و تداوم بخشد. هوش مصنوعی زمانی صادق است که پیشبینیها یا نتایجی را انجام دهد که علیه گروه خاصی تبعیض یا به نفع آن نباشد.
علاوه بر پیش داوری ها و باورهای کلیشه ای، هوش مصنوعی می تواند به دلایل زیر نیز مغرضانه باشد:
- انتخاب نمونه، در جایی که دادههایی که استفاده میکند نماینده کل جمعیت نیست، بنابراین پیشبینیها و توصیههای آن را نمیتوان تعمیم داد یا برای گروههایی که حذف شدهاند اعمال کرد.
- اندازه گیری، جایی که فرآیند جمعآوری دادهها مغرضانه است و باعث میشود هوش مصنوعی به نتایج مغرضانهای دست یابد.
سوگیری های هوش مصنوعی چگونه سوگیری های جامعه را منعکس می کنند؟
هوش مصنوعی مغرضانه است زیرا جامعه مغرضانه است.
از آنجایی که جامعه مغرضانه است، بسیاری از دادههایی که هوش مصنوعی روی آنها آموزش داده میشود، دارای تعصبات و تعصبات جامعه است، بنابراین این تعصبات را میآموزد و نتایجی را تولید میکند که از آنها پشتیبانی میکند. به عنوان مثال، یک تولیدکننده تصویر که از او خواسته میشود تصویری از یک مدیر عامل شرکت ایجاد کند، ممکن است تصاویری از مردان سفیدپوست تولید کند، زیرا در دادههایی که از آن آموخته است، سوگیری بیکاری تاریخی وجود دارد.
همانطور که هوش مصنوعی رایج تر می شود، ترس در بین بسیاری از افراد این است که این پتانسیل را دارد که تعصبات موجود در جامعه را که برای بسیاری از گروه های مختلف مردم مضر است، مقیاس کند.
نمونه هایی از انحراف از هوش مصنوعی
مخزن مناقشه رخدادهای هوش مصنوعی، الگوریتمها و اتوماسیون (AIAAIC) میگوید تعداد حوادث و جنجالهای جدید هوش مصنوعی در سال 2021 26 برابر بیشتر از سال 2012 بوده است.
منبع تصویر
بیایید به چند نمونه از تعصبات هوش مصنوعی نگاه کنیم.
نرخ تایید وام مسکن یک مثال عالی است تعصب در هوش مصنوعی. الگوریتم ها 40 تا 80 درصد بیشتر احتمال دارد که وام گیرندگان رنگی را رد کنند زیرا داده های تاریخی وام دهی به طور نامتناسبی نشان می دهد که اقلیت ها از وام و سایر فرصت های مالی محروم هستند. داده های تاریخی به هوش مصنوعی می آموزد که نسبت به هر برنامه ای که در آینده دریافت می کند، تعصب داشته باشد.
همچنین پتانسیل سوگیری اندازه نمونه در زمینه های پزشکی وجود دارد. فرض کنید یک پزشک از هوش مصنوعی برای تجزیه و تحلیل دادههای بیمار، کشف الگوها و ترسیم توصیههای مراقبتی استفاده میکند. اگر آن پزشک عمدتاً بیماران سفیدپوست را ببیند، توصیهها بر اساس نمونهای از جمعیت نیست و ممکن است نیازهای پزشکی منحصربهفرد همه را برآورده نکند.
برخی از شرکت ها الگوریتم هایی دارند که منجر به تصمیم گیری مغرضانه در زندگی واقعی می شود یا پتانسیل آن را بیشتر نمایان می کند.
1. الگوریتم استخدام آمازون
آمازون یک الگوریتم استخدام ایجاد کرد که بر اساس داده های ده سال سابقه استخدام آموزش دیده بود. دادهها نیروی کار تحت سلطه مردان را منعکس میکند، بنابراین الگوریتم یاد گرفت که علیه متقاضیان مغرضانه باشد و رزومههای زنان یا هر رزومهای را با استفاده از کلمه «زنان» جریمه کند.
2. تصاویر توییتر را برش دهید
آ توییت ویروسی در سال 2020 نشان داد که الگوریتم توییتر هنگام برش عکسها، چهرههای سفید را بر چهرههای سیاه ترجیح میدهد. یک کاربر سفیدپوست بارها عکسهایی را به اشتراک گذاشت که چهره او و یک همکار سیاهپوست و سایر چهرههای سیاهپوست را در یک تصویر نشان میداد، و به طور مداوم برای نشان دادن چهره او در پیشنمایش تصویر، برش داده میشد.
توییتر سوگیری الگوریتم را پذیرفته است و گفت: «در حالی که تحلیلهای ما تا به امروز سوگیری نژادی یا جنسیتی را نشان نداده است، اما میدانیم که نحوه برش خودکار عکسها به این معنی است که احتمال آسیب وجود دارد. زمانی که این محصول را برای اولین بار طراحی و ساختیم، باید کار بهتری برای پیش بینی این امکان انجام می دادیم.»
3. تشخیص چهره نژادپرستانه ربات
دانشمندان اخیراً مطالعهای را انجام دادهاند و از روباتها خواستهاند تا چهره افراد را اسکن کرده و آنها را بر اساس ویژگیهایشان در جعبههای مختلف دستهبندی کنند که سه جعبه آن پزشکان، مجرمان و زنان خانهدار هستند.
این ربات در فرآیند خود مغرضانه بود و اغلب زنان را به عنوان زنان خانه دار، مردان سیاه پوست را به عنوان مجرم، مردان اسپانیایی تبار به عنوان سرایدار، و زنان از همه قومیت ها کمتر به عنوان پزشک انتخاب می شدند.
4. نرم افزار نظارت بر اینتل و فناوری کلاس درس
نرم افزار کلاس اینتل و Classroom Technology دارای قابلیتی است که چهره دانش آموزان را برای تشخیص احساسات در حین یادگیری نظارت می کند. بسیاری می گویند که هنجارهای فرهنگی مختلف برای ابراز احساسات، این احتمال را افزایش می دهد که عواطف دانش آموزان به اشتباه برچسب گذاری شود.
اگر معلمان از این برچسب ها برای صحبت با دانش آموزان در مورد سطح تلاش و درک آنها استفاده کنند، دانش آموزان ممکن است به دلیل احساساتی که در واقع نشان نمی دهند مجازات شوند.
برای اصلاح سوگیری هوش مصنوعی چه کاری می توان انجام داد؟
اخلاق هوش مصنوعی یک موضوع داغ است. این قابل درک است زیرا سوگیری های هوش مصنوعی در زندگی واقعی به روش های مختلف نشان داده شده است.
علاوه بر مغرضانه بودن، هوش مصنوعی می تواند اطلاعات نادرست مضر مانند دیپ فیک را منتشر کند و ابزارهای هوش مصنوعی مولد حتی می توانند اطلاعات نادرست واقعی تولید کنند.
برای درک بهتر هوش مصنوعی و کاهش تعصب بالقوه چه کاری می توان انجام داد؟
- نظارت انسانی: افراد می توانند نتایج را کنترل کنند، داده ها را تجزیه و تحلیل کنند، و هنگامی که انحراف نشان داده می شود، تنظیمات را انجام دهند. به عنوان مثال، بازاریابان می توانند قبل از استفاده از آنها در مواد بازاریابی، توجه ویژه ای به نتایج هوش مصنوعی مولد داشته باشند تا از منصفانه بودن آنها اطمینان حاصل کنند.
- پتانسیل سوگیری را ارزیابی کنید: برخی از موارد استفاده از هوش مصنوعی پتانسیل بیشتری برای جانبداری و مضر بودن برای جوامع خاص دارند. در این مورد، مردم میتوانند برای ارزیابی احتمال اینکه هوش مصنوعی آنها نتایج مغرضانهای ایجاد کند، زمان بگذارند، درست همانطور که موسسات بانکی از دادههای سوگیری تاریخی استفاده میکنند.
- سرمایه گذاری در اخلاق هوش مصنوعی: یکی از مهمترین راهها برای کاهش تعصب هوش مصنوعی، سرمایهگذاری مداوم در تحقیقات هوش مصنوعی و اخلاقیات هوش مصنوعی است تا مردم بتوانند استراتژیهای مشخصی برای کاهش آن ارائه دهند.
- تنوع بخشیدن به هوش مصنوعی: داشتن دیدگاههای متنوع در هوش مصنوعی به ایجاد شیوههای بیطرفانه کمک میکند، زیرا افراد تخصص خود را ارائه میکنند. یک حوزه متنوع و نماینده فرصت های بیشتری را برای افراد به ارمغان می آورد تا احتمال سوگیری را بشناسند و قبل از آسیب به آن رسیدگی کنند.
- تعصب انسان را بشناسید: همه افراد پتانسیل سوگیری دارند، چه به دلیل تفاوت در تجربه زیسته یا سوگیری تایید در طول تحقیق. انسانهایی که از هوش مصنوعی استفاده میکنند میتوانند سوگیریهای خود را بپذیرند تا اطمینان حاصل کنند که هوش مصنوعی آنها مغرضانه نیست، مانند محققانی که مطمئن میشوند اندازه نمونهشان معرف است.
- شفافیت: شفافیت همیشه مهم است، به ویژه با فناوری های جدید. افراد می توانند با اطلاع رسانی در هنگام استفاده از هوش مصنوعی، مانند اضافه کردن یادداشتی در زیر یک مقاله خبری تولید شده توسط هوش مصنوعی، اعتماد و درک خود را با هوش مصنوعی ایجاد کنند.
استفاده مسئولانه از هوش مصنوعی بسیار امکان پذیر است.
هوش مصنوعی و علاقه به هوش مصنوعی تنها در حال افزایش است، بنابراین بهترین راه برای آگاه شدن از احتمال آسیب این است که از نحوه تداوم تعصبات مضر آگاه باشید و برای اطمینان از اینکه استفاده از هوش مصنوعی سوخت بیشتری به آتش اضافه نمی کند، اقدام کنید. .
آیا می خواهید در مورد هوش مصنوعی بیشتر بدانید؟ اینو ببین مسیر مطالعه.