در مقاله ای که اخیراً در مجله منتشر شده است سلامت جهانی BMJمحققان تهدیدات ناشی از سوء استفاده عمدی، سهوی یا بی رویه از هوش مصنوعی (AI) و هوش مصنوعی عمومی (AGI) را که نوعی خودبهبودی از هوش مصنوعی است، برجسته کردند. علاوه بر این، آنها در مورد پیامدهای جدی عدم پیش‌بینی و تطبیق با تحول مبتنی بر هوش مصنوعی در جامعه بحث کردند.

مطالعه: تهدیدات هوش مصنوعی برای سلامت انسان و وجود انسان.  اعتبار تصویر: metamorworks / Shutterstockمطالعه: تهدیدات هوش مصنوعی برای سلامت انسان و وجود انسان. اعتبار تصویر: metamorworks / Shutterstock

محققان سه راه را توصیف کردند که هوش مصنوعی می تواند موجودیت انسان را تهدید کند.

اول، هوش مصنوعی می‌تواند فرصت‌هایی را برای دستکاری افراد افزایش دهد. در چین و 75 کشور دیگر، دولت در حال گسترش نظارت مبتنی بر هوش مصنوعی است. هوش مصنوعی به سرعت حجم عظیمی از داده های شخصی از جمله محتوای ویدیویی گرفته شده توسط دوربین های مستقر در مکان های عمومی را پاکسازی، سازماندهی و تجزیه و تحلیل می کند. در حالی که این می تواند به مقابله با اقدامات تروریستی کمک کند، اما از جنبه منفی، این داده ها می تواند به افزایش قطبی شدن و دیدگاه های افراطی کمک کند.

هوش مصنوعی می تواند به ایجاد یک زیرساخت بازاریابی شخصی سازی شده عظیم و قدرتمند برای دستکاری رفتار مصرف کننده و ایجاد درآمد تجاری برای رسانه های اجتماعی کمک کند. شواهد تجربی نشان می دهد که در انتخابات ریاست جمهوری ایالات متحده در سال 2016، احزاب سیاسی از ابزارهای هوش مصنوعی برای دستکاری باورهای سیاسی و رفتار رأی دهندگان استفاده کردند.

سیستم اعتبار اجتماعی چین به طور خودکار افراد را از دسترسی به خدمات بانکی و بیمه محروم می کند، جریمه می گیرد و آنها را از سفر و فرستادن فرزندانشان به مدارس بر اساس تجزیه و تحلیل تراکنش های مالی، سوابق پلیس، و روابط اجتماعی برای ارزیابی رفتار فردی منع می کند.

هوش مصنوعی کاربردهای گسترده‌ای در سیستم‌های نظامی و دفاعی دارد که به دلیل هوش مصنوعی، پیشرفت‌هایی که در حوزه سیستم‌های تسلیحات خودکار مرگبار (LAWS) ایجاد می‌کند، تهدید دوم را ایجاد می‌کند. این سلاح‌های خودمختار می‌توانند اهداف انسانی را بدون کنترل انسان بر روی آن‌ها مکان‌یابی، تشخیص بصری و «هدف‌گیری» کنند، که این موضوع آنها را به سلاح‌های کشتار جمعی بدیع و مرگبار تبدیل می‌کند.

عناصر اخلالگر، مانند سازمان‌های تروریستی، می‌توانند قوانینی را که در اندازه‌ها و اشکال مختلف وجود دارد، ارزان تولید انبوه کنند و آنها را برای کشتن در مقیاس انبوه تنظیم کنند. برای مثال، تجهیز میلیون‌ها پهپاد کوادکوپتر، دستگاه‌های کوچک و متحرک به مواد منفجره، شناسایی بصری و توانایی‌های ناوبری مستقل و برنامه‌ریزی شده برای کشتن بدون نظارت انسان امکان‌پذیر است.

ثالثاً، استقرار گسترده ابزارهای مبتنی بر فناوری هوش مصنوعی می تواند منجر به از دست دادن ده ها تا صدها شغل در دهه های آینده شود. با این حال، استقرار گسترده ابزارهای هوش مصنوعی تا حد زیادی به تصمیمات سیاستی دولت ها و جامعه و سرعت توسعه هوش مصنوعی، روباتیک و سایر فناوری های مکمل بستگی دارد.

با این وجود، تأثیر اتوماسیون مبتنی بر هوش مصنوعی برای افرادی که در مشاغل کم مهارت در کشورهای با درآمد پایین و متوسط ​​(LMIC) مشغول به کار هستند، بدترین خواهد بود. در نهایت، بخش‌های بالای نردبان مهارتی نیروی کار جهانی، از جمله افرادی که در کشورهای پردرآمد زندگی می‌کنند، دریغ نخواهد کرد.

برای دهه‌های متمادی، انسان‌ها ماشین‌هایی را متصور و دنبال می‌کردند که از ما باهوش‌تر، آگاه‌تر و قدرتمندتر هستند. این منجر به توسعه AGI شده است، ماشین‌های نظری مبتنی بر هوش مصنوعی که کدهای خود را یاد می‌گیرند و به طور مستقیم بهبود می‌بخشند و شروع به توسعه اهداف خود می‌کنند.

پس از اتصال آنها به دنیای واقعی، یعنی از طریق روبات ها، سلاح ها، وسایل نقلیه یا سیستم های دیجیتال، تصور یا پیش بینی اثرات و نتیجه AGI با قطعیت دشوار می شود. با این حال، عمدا یا نه، این ماشین‌ها می‌توانند به انسان‌ها آسیب برسانند و آنها را تحت سلطه خود درآورند. بر این اساس، در یک نظرسنجی اخیر که در میان اعضای جامعه هوش مصنوعی انجام شد، 18 درصد از شرکت کنندگان این نگرانی را مطرح کردند که توسعه AGI ممکن است از نظر وجودی فاجعه بار باشد.

علاوه بر این، نویسندگان تاکید کردند که در حالی که هوش مصنوعی پتانسیل ایجاد انقلابی در مراقبت های بهداشتی را با بهبود تشخیص و کمک به توسعه درمان های جدید دارد، برخی از کاربردهای آن می تواند مضر باشد. برای مثال، بیشتر سیستم‌های هوش مصنوعی بر روی مجموعه داده‌هایی آموزش می‌بینند که در آن جمعیت‌هایی که در معرض تبعیض هستند کمتر نشان داده می‌شوند.

با توجه به این مجموعه داده ناقص و مغرضانه، یک پالس اکسیمتر مبتنی بر هوش مصنوعی سطح اکسیژن خون را در بیماران با پوست تیره‌تر تخمین زد. به طور مشابه، سیستم های تشخیص چهره جنسیت افراد با پوست تیره تر را به اشتباه طبقه بندی می کنند.

نتیجه گیری

جامعه پزشکی و بهداشت عمومی باید در مورد خطرات و تهدیدات ناشی از هوش مصنوعی هشدار دهند، مشابه آنچه پزشکان بین المللی برای پیشگیری از جنگ هسته ای استدلال های مبتنی بر شواهد را در مورد تهدید جنگ هسته ای ارائه کردند.

مداخله احتمالی دیگر می تواند اطمینان از کنترل و تعادل کافی برای هوش مصنوعی باشد که مستلزم تقویت سازمان های منافع عمومی و دموکراسی است. سپس هوش مصنوعی به وعده خود برای سودمندی بشر و جامعه عمل خواهد کرد.

مهمتر از همه، نیاز به حمایت مبتنی بر شواهد برای تغییر ریشه ای سیاست های اجتماعی و اقتصادی در دهه های آینده وجود دارد. در عوض، ما باید آماده سازی نسل های آینده خود را برای زندگی در دنیایی آغاز کنیم که در آن نیروی انسانی دیگر برای تولید کالاها و خدمات مورد نیاز نخواهد بود، زیرا هوش مصنوعی سناریوی کار و اشتغال را به طرز چشمگیری تغییر خواهد داد.

منبع : news medical

دیدگاهتان را بنویسید

Home
Account
shop
0
back
سبد خرید0
There are no products in the cart!
دریافت پیش فاکتور