در مقاله ای که اخیراً در مجله منتشر شده است سلامت جهانی BMJمحققان تهدیدات ناشی از سوء استفاده عمدی، سهوی یا بی رویه از هوش مصنوعی (AI) و هوش مصنوعی عمومی (AGI) را که نوعی خودبهبودی از هوش مصنوعی است، برجسته کردند. علاوه بر این، آنها در مورد پیامدهای جدی عدم پیشبینی و تطبیق با تحول مبتنی بر هوش مصنوعی در جامعه بحث کردند.
مطالعه: تهدیدات هوش مصنوعی برای سلامت انسان و وجود انسان. اعتبار تصویر: metamorworks / Shutterstock
محققان سه راه را توصیف کردند که هوش مصنوعی می تواند موجودیت انسان را تهدید کند.
اول، هوش مصنوعی میتواند فرصتهایی را برای دستکاری افراد افزایش دهد. در چین و 75 کشور دیگر، دولت در حال گسترش نظارت مبتنی بر هوش مصنوعی است. هوش مصنوعی به سرعت حجم عظیمی از داده های شخصی از جمله محتوای ویدیویی گرفته شده توسط دوربین های مستقر در مکان های عمومی را پاکسازی، سازماندهی و تجزیه و تحلیل می کند. در حالی که این می تواند به مقابله با اقدامات تروریستی کمک کند، اما از جنبه منفی، این داده ها می تواند به افزایش قطبی شدن و دیدگاه های افراطی کمک کند.
هوش مصنوعی می تواند به ایجاد یک زیرساخت بازاریابی شخصی سازی شده عظیم و قدرتمند برای دستکاری رفتار مصرف کننده و ایجاد درآمد تجاری برای رسانه های اجتماعی کمک کند. شواهد تجربی نشان می دهد که در انتخابات ریاست جمهوری ایالات متحده در سال 2016، احزاب سیاسی از ابزارهای هوش مصنوعی برای دستکاری باورهای سیاسی و رفتار رأی دهندگان استفاده کردند.
سیستم اعتبار اجتماعی چین به طور خودکار افراد را از دسترسی به خدمات بانکی و بیمه محروم می کند، جریمه می گیرد و آنها را از سفر و فرستادن فرزندانشان به مدارس بر اساس تجزیه و تحلیل تراکنش های مالی، سوابق پلیس، و روابط اجتماعی برای ارزیابی رفتار فردی منع می کند.
هوش مصنوعی کاربردهای گستردهای در سیستمهای نظامی و دفاعی دارد که به دلیل هوش مصنوعی، پیشرفتهایی که در حوزه سیستمهای تسلیحات خودکار مرگبار (LAWS) ایجاد میکند، تهدید دوم را ایجاد میکند. این سلاحهای خودمختار میتوانند اهداف انسانی را بدون کنترل انسان بر روی آنها مکانیابی، تشخیص بصری و «هدفگیری» کنند، که این موضوع آنها را به سلاحهای کشتار جمعی بدیع و مرگبار تبدیل میکند.
عناصر اخلالگر، مانند سازمانهای تروریستی، میتوانند قوانینی را که در اندازهها و اشکال مختلف وجود دارد، ارزان تولید انبوه کنند و آنها را برای کشتن در مقیاس انبوه تنظیم کنند. برای مثال، تجهیز میلیونها پهپاد کوادکوپتر، دستگاههای کوچک و متحرک به مواد منفجره، شناسایی بصری و تواناییهای ناوبری مستقل و برنامهریزی شده برای کشتن بدون نظارت انسان امکانپذیر است.
ثالثاً، استقرار گسترده ابزارهای مبتنی بر فناوری هوش مصنوعی می تواند منجر به از دست دادن ده ها تا صدها شغل در دهه های آینده شود. با این حال، استقرار گسترده ابزارهای هوش مصنوعی تا حد زیادی به تصمیمات سیاستی دولت ها و جامعه و سرعت توسعه هوش مصنوعی، روباتیک و سایر فناوری های مکمل بستگی دارد.
با این وجود، تأثیر اتوماسیون مبتنی بر هوش مصنوعی برای افرادی که در مشاغل کم مهارت در کشورهای با درآمد پایین و متوسط (LMIC) مشغول به کار هستند، بدترین خواهد بود. در نهایت، بخشهای بالای نردبان مهارتی نیروی کار جهانی، از جمله افرادی که در کشورهای پردرآمد زندگی میکنند، دریغ نخواهد کرد.
برای دهههای متمادی، انسانها ماشینهایی را متصور و دنبال میکردند که از ما باهوشتر، آگاهتر و قدرتمندتر هستند. این منجر به توسعه AGI شده است، ماشینهای نظری مبتنی بر هوش مصنوعی که کدهای خود را یاد میگیرند و به طور مستقیم بهبود میبخشند و شروع به توسعه اهداف خود میکنند.
پس از اتصال آنها به دنیای واقعی، یعنی از طریق روبات ها، سلاح ها، وسایل نقلیه یا سیستم های دیجیتال، تصور یا پیش بینی اثرات و نتیجه AGI با قطعیت دشوار می شود. با این حال، عمدا یا نه، این ماشینها میتوانند به انسانها آسیب برسانند و آنها را تحت سلطه خود درآورند. بر این اساس، در یک نظرسنجی اخیر که در میان اعضای جامعه هوش مصنوعی انجام شد، 18 درصد از شرکت کنندگان این نگرانی را مطرح کردند که توسعه AGI ممکن است از نظر وجودی فاجعه بار باشد.
علاوه بر این، نویسندگان تاکید کردند که در حالی که هوش مصنوعی پتانسیل ایجاد انقلابی در مراقبت های بهداشتی را با بهبود تشخیص و کمک به توسعه درمان های جدید دارد، برخی از کاربردهای آن می تواند مضر باشد. برای مثال، بیشتر سیستمهای هوش مصنوعی بر روی مجموعه دادههایی آموزش میبینند که در آن جمعیتهایی که در معرض تبعیض هستند کمتر نشان داده میشوند.
با توجه به این مجموعه داده ناقص و مغرضانه، یک پالس اکسیمتر مبتنی بر هوش مصنوعی سطح اکسیژن خون را در بیماران با پوست تیرهتر تخمین زد. به طور مشابه، سیستم های تشخیص چهره جنسیت افراد با پوست تیره تر را به اشتباه طبقه بندی می کنند.
نتیجه گیری
جامعه پزشکی و بهداشت عمومی باید در مورد خطرات و تهدیدات ناشی از هوش مصنوعی هشدار دهند، مشابه آنچه پزشکان بین المللی برای پیشگیری از جنگ هسته ای استدلال های مبتنی بر شواهد را در مورد تهدید جنگ هسته ای ارائه کردند.
مداخله احتمالی دیگر می تواند اطمینان از کنترل و تعادل کافی برای هوش مصنوعی باشد که مستلزم تقویت سازمان های منافع عمومی و دموکراسی است. سپس هوش مصنوعی به وعده خود برای سودمندی بشر و جامعه عمل خواهد کرد.
مهمتر از همه، نیاز به حمایت مبتنی بر شواهد برای تغییر ریشه ای سیاست های اجتماعی و اقتصادی در دهه های آینده وجود دارد. در عوض، ما باید آماده سازی نسل های آینده خود را برای زندگی در دنیایی آغاز کنیم که در آن نیروی انسانی دیگر برای تولید کالاها و خدمات مورد نیاز نخواهد بود، زیرا هوش مصنوعی سناریوی کار و اشتغال را به طرز چشمگیری تغییر خواهد داد.