گزارش وضعیت هوش مصنوعی ما نشان داد که یکی از چالش‌های اصلی بازاریابان هنگام استفاده از هوش مصنوعی مولد، توانایی آن در جهت‌گیری است.

تعصب هوش مصنوعی

و بازاریابان، متخصصان فروش و افراد خدمات مشتری گزارش می دهند که در استفاده از ابزارهای هوش مصنوعی مردد هستند زیرا گاهی اوقات می توانند اطلاعات جانبدارانه ارائه دهند.

واضح است که متخصصان رشد کسب و کار نگران هستند که هوش مصنوعی مغرضانه باشد، اما چه چیزی در وهله اول آن را مغرضانه می کند؟ در این پست، در مورد پتانسیل آسیب در استفاده از هوش مصنوعی، نمونه‌های واقعی تعصب هوش مصنوعی و اینکه چگونه جامعه می‌تواند آسیب‌های احتمالی را کاهش دهد، بحث خواهیم کرد.

تعصب هوش مصنوعی چیست؟

تعصب هوش مصنوعی این ایده است که الگوریتم‌های یادگیری ماشین می‌توانند هنگام انجام وظایف برنامه‌ریزی‌شده‌شان، مانند تجزیه و تحلیل داده‌ها یا ایجاد محتوا، سوگیری داشته باشند. هوش مصنوعی معمولاً به روش‌هایی مغرضانه است که باورهای مضر مانند نژاد و کلیشه‌های جنسیتی را تداوم می‌بخشد.

بر اساس گزارش 2023 AI Index، هوش مصنوعی زمانی مغرضانه است که نتایجی را ایجاد کند که کلیشه‌هایی را که به گروه‌های خاصی آسیب می‌رساند، تقویت و تداوم بخشد. هوش مصنوعی زمانی صادق است که پیش‌بینی‌ها یا نتایجی را انجام دهد که علیه گروه خاصی تبعیض یا به نفع آن نباشد.

علاوه بر پیش داوری ها و باورهای کلیشه ای، هوش مصنوعی می تواند به دلایل زیر نیز مغرضانه باشد:

  • انتخاب نمونه، در جایی که داده‌هایی که استفاده می‌کند نماینده کل جمعیت نیست، بنابراین پیش‌بینی‌ها و توصیه‌های آن را نمی‌توان تعمیم داد یا برای گروه‌هایی که حذف شده‌اند اعمال کرد.
  • اندازه گیری، جایی که فرآیند جمع‌آوری داده‌ها مغرضانه است و باعث می‌شود هوش مصنوعی به نتایج مغرضانه‌ای دست یابد.

سوگیری های هوش مصنوعی چگونه سوگیری های جامعه را منعکس می کنند؟

هوش مصنوعی مغرضانه است زیرا جامعه مغرضانه است.

از آنجایی که جامعه مغرضانه است، بسیاری از داده‌هایی که هوش مصنوعی روی آن‌ها آموزش داده می‌شود، دارای تعصبات و تعصبات جامعه است، بنابراین این تعصبات را می‌آموزد و نتایجی را تولید می‌کند که از آنها پشتیبانی می‌کند. به عنوان مثال، یک تولیدکننده تصویر که از او خواسته می‌شود تصویری از یک مدیر عامل شرکت ایجاد کند، ممکن است تصاویری از مردان سفیدپوست تولید کند، زیرا در داده‌هایی که از آن آموخته است، سوگیری بیکاری تاریخی وجود دارد.

همانطور که هوش مصنوعی رایج تر می شود، ترس در بین بسیاری از افراد این است که این پتانسیل را دارد که تعصبات موجود در جامعه را که برای بسیاری از گروه های مختلف مردم مضر است، مقیاس کند.

نمونه هایی از انحراف از هوش مصنوعی

مخزن مناقشه رخدادهای هوش مصنوعی، الگوریتم‌ها و اتوماسیون (AIAAIC) می‌گوید تعداد حوادث و جنجال‌های جدید هوش مصنوعی در سال 2021 26 برابر بیشتر از سال 2012 بوده است.

نموداری که افزایش حوادث انحراف هوش مصنوعی را نشان می دهد

منبع تصویر

بیایید به چند نمونه از تعصبات هوش مصنوعی نگاه کنیم.

نرخ تایید وام مسکن یک مثال عالی است تعصب در هوش مصنوعی. الگوریتم ها 40 تا 80 درصد بیشتر احتمال دارد که وام گیرندگان رنگی را رد کنند زیرا داده های تاریخی وام دهی به طور نامتناسبی نشان می دهد که اقلیت ها از وام و سایر فرصت های مالی محروم هستند. داده های تاریخی به هوش مصنوعی می آموزد که نسبت به هر برنامه ای که در آینده دریافت می کند، تعصب داشته باشد.

همچنین پتانسیل سوگیری اندازه نمونه در زمینه های پزشکی وجود دارد. فرض کنید یک پزشک از هوش مصنوعی برای تجزیه و تحلیل داده‌های بیمار، کشف الگوها و ترسیم توصیه‌های مراقبتی استفاده می‌کند. اگر آن پزشک عمدتاً بیماران سفیدپوست را ببیند، توصیه‌ها بر اساس نمونه‌ای از جمعیت نیست و ممکن است نیازهای پزشکی منحصربه‌فرد همه را برآورده نکند.

برخی از شرکت ها الگوریتم هایی دارند که منجر به تصمیم گیری مغرضانه در زندگی واقعی می شود یا پتانسیل آن را بیشتر نمایان می کند.

1. الگوریتم استخدام آمازون

آمازون یک الگوریتم استخدام ایجاد کرد که بر اساس داده های ده سال سابقه استخدام آموزش دیده بود. داده‌ها نیروی کار تحت سلطه مردان را منعکس می‌کند، بنابراین الگوریتم یاد گرفت که علیه متقاضیان مغرضانه باشد و رزومه‌های زنان یا هر رزومه‌ای را با استفاده از کلمه «زنان» جریمه کند.

2. تصاویر توییتر را برش دهید

آ توییت ویروسی در سال 2020 نشان داد که الگوریتم توییتر هنگام برش عکس‌ها، چهره‌های سفید را بر چهره‌های سیاه ترجیح می‌دهد. یک کاربر سفیدپوست بارها عکس‌هایی را به اشتراک گذاشت که چهره او و یک همکار سیاه‌پوست و سایر چهره‌های سیاه‌پوست را در یک تصویر نشان می‌داد، و به طور مداوم برای نشان دادن چهره او در پیش‌نمایش تصویر، برش داده می‌شد.

توییتر سوگیری الگوریتم را پذیرفته است و گفت: «در حالی که تحلیل‌های ما تا به امروز سوگیری نژادی یا جنسیتی را نشان نداده است، اما می‌دانیم که نحوه برش خودکار عکس‌ها به این معنی است که احتمال آسیب وجود دارد. زمانی که این محصول را برای اولین بار طراحی و ساختیم، باید کار بهتری برای پیش بینی این امکان انجام می دادیم.»

3. تشخیص چهره نژادپرستانه ربات

دانشمندان اخیراً مطالعه‌ای را انجام داده‌اند و از روبات‌ها خواسته‌اند تا چهره افراد را اسکن کرده و آن‌ها را بر اساس ویژگی‌هایشان در جعبه‌های مختلف دسته‌بندی کنند که سه جعبه آن پزشکان، مجرمان و زنان خانه‌دار هستند.

این ربات در فرآیند خود مغرضانه بود و اغلب زنان را به عنوان زنان خانه دار، مردان سیاه پوست را به عنوان مجرم، مردان اسپانیایی تبار به عنوان سرایدار، و زنان از همه قومیت ها کمتر به عنوان پزشک انتخاب می شدند.

4. نرم افزار نظارت بر اینتل و فناوری کلاس درس

نرم افزار کلاس اینتل و Classroom Technology دارای قابلیتی است که چهره دانش آموزان را برای تشخیص احساسات در حین یادگیری نظارت می کند. بسیاری می گویند که هنجارهای فرهنگی مختلف برای ابراز احساسات، این احتمال را افزایش می دهد که عواطف دانش آموزان به اشتباه برچسب گذاری شود.

اگر معلمان از این برچسب ها برای صحبت با دانش آموزان در مورد سطح تلاش و درک آنها استفاده کنند، دانش آموزان ممکن است به دلیل احساساتی که در واقع نشان نمی دهند مجازات شوند.

برای اصلاح سوگیری هوش مصنوعی چه کاری می توان انجام داد؟

اخلاق هوش مصنوعی یک موضوع داغ است. این قابل درک است زیرا سوگیری های هوش مصنوعی در زندگی واقعی به روش های مختلف نشان داده شده است.

علاوه بر مغرضانه بودن، هوش مصنوعی می تواند اطلاعات نادرست مضر مانند دیپ فیک را منتشر کند و ابزارهای هوش مصنوعی مولد حتی می توانند اطلاعات نادرست واقعی تولید کنند.

برای درک بهتر هوش مصنوعی و کاهش تعصب بالقوه چه کاری می توان انجام داد؟

  • نظارت انسانی: افراد می توانند نتایج را کنترل کنند، داده ها را تجزیه و تحلیل کنند، و هنگامی که انحراف نشان داده می شود، تنظیمات را انجام دهند. به عنوان مثال، بازاریابان می توانند قبل از استفاده از آنها در مواد بازاریابی، توجه ویژه ای به نتایج هوش مصنوعی مولد داشته باشند تا از منصفانه بودن آنها اطمینان حاصل کنند.
  • پتانسیل سوگیری را ارزیابی کنید: برخی از موارد استفاده از هوش مصنوعی پتانسیل بیشتری برای جانبداری و مضر بودن برای جوامع خاص دارند. در این مورد، مردم می‌توانند برای ارزیابی احتمال اینکه هوش مصنوعی آنها نتایج مغرضانه‌ای ایجاد کند، زمان بگذارند، درست همانطور که موسسات بانکی از داده‌های سوگیری تاریخی استفاده می‌کنند.
  • سرمایه گذاری در اخلاق هوش مصنوعی: یکی از مهم‌ترین راه‌ها برای کاهش تعصب هوش مصنوعی، سرمایه‌گذاری مداوم در تحقیقات هوش مصنوعی و اخلاقیات هوش مصنوعی است تا مردم بتوانند استراتژی‌های مشخصی برای کاهش آن ارائه دهند.
  • تنوع بخشیدن به هوش مصنوعی: داشتن دیدگاه‌های متنوع در هوش مصنوعی به ایجاد شیوه‌های بی‌طرفانه کمک می‌کند، زیرا افراد تخصص خود را ارائه می‌کنند. یک حوزه متنوع و نماینده فرصت های بیشتری را برای افراد به ارمغان می آورد تا احتمال سوگیری را بشناسند و قبل از آسیب به آن رسیدگی کنند.
  • تعصب انسان را بشناسید: همه افراد پتانسیل سوگیری دارند، چه به دلیل تفاوت در تجربه زیسته یا سوگیری تایید در طول تحقیق. انسان‌هایی که از هوش مصنوعی استفاده می‌کنند می‌توانند سوگیری‌های خود را بپذیرند تا اطمینان حاصل کنند که هوش مصنوعی آنها مغرضانه نیست، مانند محققانی که مطمئن می‌شوند اندازه نمونه‌شان معرف است.
  • شفافیت: شفافیت همیشه مهم است، به ویژه با فناوری های جدید. افراد می توانند با اطلاع رسانی در هنگام استفاده از هوش مصنوعی، مانند اضافه کردن یادداشتی در زیر یک مقاله خبری تولید شده توسط هوش مصنوعی، اعتماد و درک خود را با هوش مصنوعی ایجاد کنند.

استفاده مسئولانه از هوش مصنوعی بسیار امکان پذیر است.

هوش مصنوعی و علاقه به هوش مصنوعی تنها در حال افزایش است، بنابراین بهترین راه برای آگاه شدن از احتمال آسیب این است که از نحوه تداوم تعصبات مضر آگاه باشید و برای اطمینان از اینکه استفاده از هوش مصنوعی سوخت بیشتری به آتش اضافه نمی کند، اقدام کنید. .

آیا می خواهید در مورد هوش مصنوعی بیشتر بدانید؟ اینو ببین مسیر مطالعه.