بررسی 14 خطر اصلی هوش مصنوعی برای بشر

دسته بندی: آموزش
بررسی خطرات هوش مصنوعی

با گسترش و پیشرفت سریع هوش مصنوعی، افراد زیادی در مورد خطرات هوش مصنوعی هشدار می‌دهند. احتمالا شما هم فیلم‌های علمی تخیلی با موضوع چیره شدن قدرت هوش‌های مصنوعی بر انسان را دیده‌اید و با خواندن این مقاله، بیشتر به یاد آن‌ها خواهید افتاد.

جفری هینتون، کسی که به خاطر کارهای بنیادینش در زمینه‌ی یادگیری ماشینی و الگوریتم‌های شبکه‌های عصبی به عنوان پدرخوانده‌ی هوش مصنوعی شناخته می‌شود، می‌گوید: «این فناوری‌ها ممکن است از ما باهوش‌تر شوند و تصمیم به در دست گرفتن کنترل اوضاع بگیرند؛ باید از همین حالا نگران باشیم که چگونه می‌توانیم از وقوع اتفاق‌های این چنینی در آینده جلوگیری کنیم.» هینتون در سال ۲۰۲۳ از سِمت خود در گوگل کناره‌گیری کرد تا درباره‌ی خطرات هوش مصنوعی صحبت کند و حتی اذعان کرد که بخشی از او، از کاری که در طول زندگی‌اش انجام داده، پشیمان است.

خطرات هوش مصنوعی

نگرانی‌ها تنها به هینتون محدود نمی‌شوند. ایلان ماسک، بنیان‌گذار تسلا و اسپیس‌ایکس، به همراه بیش از ۱۰۰۰ نفر از رهبران فناوری در سال ۲۰۲۳ طی نامه‌ای سرگشاده خواستار توقف موقت آزمایش‌های بزرگ هوش مصنوعی شدند. آن‌ها هشدار دادند که هوش مصنوعی می‌تواند خطرات عمیقی برای جامعه و بشریت به همراه داشته باشد.

خطرات هوش مصنوعی

اگر از هوش مصنوعی استفاده می‌کنید، باید درک دقیقی از خطرات بالقوه‌ی آن داشته باشید. اینکه چه کسانی در حال توسعه‌ی هوش مصنوعی هستند و به چه منظوری این کار را انجام می‌دهند هنوز کاملا مشخص نیست. در ادامه به بررسی دقیق‌تر برخی از این خطرات پرداخته و چگونگی مدیریت آن‌ها را مورد بررسی قرار می‌دهیم.

بیشتر بخوانید: انواع هوش مصنوعی که باید در 2024 بشناسید

عدم شفافیت و توضیح‌پذیری هوش مصنوعی

مدل‌های هوش مصنوعی و یادگیری عمیق می‌توانند حتی برای افرادی که با آن‌ها کار می‌کنند، پیچیده و دشوار به‌نظر برسند. این پیچیدگی باعث می‌شود شفافیت لازم در مورد نحوه‌ی عملکرد و تصمیم‌گیری‌های هوش مصنوعی وجود نداشته باشد و توضیح دقیقی از داده‌هایی که از الگوریتم‌های هوش مصنوعی استفاده می‌کنند یا دلایل اتخاذ تصمیم‌های متعصبانه یا ناامن آن‌ها ارائه نشود. همین نگرانی‌ها باعث افزایش تلاش‌ها برای پاسخ‌گو کردن سرویس‌های هوش مصنوعی شده، اما هنوز راه درازی تا فراگیر شدن سیستم‌های شفاف هوش مصنوعی باقی مانده است.

بدتر از این، شرکت‌های هوش مصنوعی همچنان درباره‌ی محصولات خود رازدار هستند. کارکنان سابق OpenAI و Google DeepMind، هر دو شرکت را به پنهان کردن خطرات احتمالی ابزارهای هوش مصنوعی متهم کرده‌اند. این پنهان‌کاری باعث می‌شود عموم مردم از تهدیدات احتمالی بی‌اطلاع بمانند و قانون‌گذاران نتوانند اقدامات پیشگیرانه‌ی مناسبی برای توسعه‌ی مسئولانه‌ی هوش مصنوعی اتخاذ کنند.

از دست رفتن شغل‌ها به دلیل اتوماسیون هوش مصنوعی

اتوماسیون شغلی توسط هوش مصنوعی در صنایعی مانند بازاریابی، تولید و مراقبت‌های بهداشتی در حال گسترش است و تا سال ۲۰۳۰ می‌تواند تا ۳۰ درصد از ساعات کاری فعلی در ایالات متحده را به خود اختصاص دهد، موضوعی که به ویژه برای کارمندان سیاه‌پوست و لاتین‌تبار خطرناک‌تر است. همچنین پیش‌بینی می‌شود تا ۳۰۰ میلیون شغل تمام‌وقت به دلیل این اتوماسیون از بین بروند. اگرچه هوش مصنوعی ممکن است تا سال ۲۰۲۵ حدود ۹۷ میلیون شغل جدید ایجاد کند، اما بسیاری از کارکنان فاقد مهارت‌های لازم برای فرصت‌های جدید خواهند بود و در صورت عدم آموزش، بسیاری از افراد از این فرصت‌ها جا خواهند ماند.

خطرات هوش مصنوعی برای بشر

دستکاری واقعیت از طریق الگوریتم‌های هوش مصنوعی

از  دیگر خطرات هوش مصنوعی، می‌توان به امکان دستکاری اتفاقات حقیقی و جایگزینی آن‌ها با اطلاعات دروغ اشاره کرد. این نگرانی زمانی به واقعیت پیوست که سیاستمداران برای تبلیغ دیدگاه‌های خود از پلتفرم‌ها استفاده کردند. به عنوان مثال، فردیناند مارکوس جونیور از یک ارتش ترول در تیک‌تاک برای جلب آرای جوانان فیلیپینی در انتخابات سال ۲۰۲۲ فیلیپین بهره برد.

علاوه بر این، رسانه‌های آنلاین و اخبار به دلیل ورود تصاویر و ویدیوهای تولیدشده توسط هوش مصنوعی، تغییر صداهای صوتی و استفاده از فناوری دیپ‌فیک، بیشتر از همیشه غیرقابل اعتماد شده‌اند. این تکنولوژی‌ها امکان تولید عکس‌ها، ویدیوها و کلیپ‌های صوتی واقع‌نما را فراهم کرده و حتی می‌توانند تصویر فردی را در عکس یا ویدیو با دیگری جایگزین کنند. به همین دلیل، افراد ناآگاه می‌توانند به‌راحتی از این فناوری برای انتشار اطلاعات غلط و تبلیغات جنگی استفاده کنند و فضایی ایجاد کنند که تشخیص بین اخبار صحیح و نادرست تقریباً غیرممکن باشد.

خطرات هوش مصنوعی برای بشر

نظارت اجتماعی با استفاده از فناوری هوش مصنوعی

نمونه‌ی بارز نظارت اجتماعی با هوش مصنوعی، استفاده‌ی چین از فناوری تشخیص چهره در ادارات، مدارس و دیگر مکان‌ها است. علاوه بر ردیابی حرکات افراد، دولت چین می‌تواند اطلاعات کافی برای نظارت بر فعالیت‌ها، روابط و دیدگاه‌های سیاسی افراد جمع‌آوری کند.

نمونه‌ی دیگر چنین وضعیتی، الگوریتم‌های پیش‌بینی جرایم توسط پلیس آمریکا به‌شمار می‌رود که هدف آن پیش‌بینی محل وقوع جرم‌ها است. مشکل اینجاست که این الگوریتم‌ها از نرخ دستگیری‌ها که به طور ناعادلانه بر جامعه‌ی سیاه‌پوستان اثر می‌گذارد، تاثیر می‌پذیرند و ممکن است افراد زیادی را با مشکلات جدی مواجه کنند.

عدم حفظ حریم خصوصی داده‌ها با استفاده از ابزارهای هوش مصنوعی

سیستم‌های هوش مصنوعی معمولاً برای شخصی‌سازی تجربه‌ی کاربران یا آموزش مدل‌های هوش مصنوعی اطلاعات شخصی جمع‌آوری می‌کنند (به‌ویژه اگر ابزار هوش مصنوعی رایگان باشد). ممکن است داده‌ها حتی از سایر کاربران در امان نباشند، همان‌طور که یک باگ در سال ۲۰۲۳ باعث شد برخی کاربران عناوین چت‌های دیگر کاربران ChatGPT را مشاهده کنند. در حالی که برخی قوانین برای محافظت از اطلاعات شخصی در ایالات متحده وجود دارد، هیچ قانون فدرال مشخصی وجود ندارد که از شهروندان در برابر آسیب‌های مربوط به حریم خصوصی داده‌ها در برابر هوش مصنوعی محافظت کند.

بیشتر بخوانید: بهترین ابزارهای ساخت عکس با هوش مصنوعی

عدم حفظ حریم خصوصی از خطرات هوش مصنوعی

تعصبات ناشی از هوش مصنوعی

دیدگاه‌های محدود افراد باعث شده است که صنعت هوش مصنوعی از مجموعه‌ی وسیعی از دیدگاه‌ها بی‌بهره باشد. طبق گزارش یونسکو، فقط ۱۰۰ زبان از ۷۰۰۰ زبان طبیعی جهان برای آموزش چت‌بات‌های برتر استفاده شده‌اند. این وضعیت وقتی بدتر می‌شود که ۹۰ درصد از مطالب آموزشی آنلاین مربوط به کشورهای اتحادیه‌ی اروپا و آمریکای شمالی است که داده‌های آموزشی هوش مصنوعی را به منابع عمدتاً غربی محدود می‌کند.

تجربیات محدود سازندگان هوش مصنوعی می‌تواند توضیح‌دهنده‌ی این باشد که چرا هوش مصنوعی تشخیص گفتار، اغلب در درک لهجه‌ها و گویش‌های خاص شکست می‌خورد یا چرا شرکت‌ها پیامدهای استفاده از چت‌بات‌هایی که شخصیت‌های تاریخی را شبیه‌سازی می‌کنند، در نظر نمی‌گیرند. اگر شرکت‌ها و قانون‌گذاران در جلوگیری از بازتولید تعصبات قدرتمند عملکرد خوبی نداشته باشند، تعصبات هوش مصنوعی می‌تواند از محیط‌های شرکتی فراتر رود و بسیاری از مشکلات اجتماعی را تشدید کند.

نابرابری اجتماعی و اقتصادی ناشی از هوش مصنوعی

اگر شرکت‌ها تعصبات ذاتی الگوریتم‌های هوش مصنوعی را نادیده بگیرند، ممکن است ابتکارات و معیارهای اصلی خود را با استفاده از هوش مصنوعی در فرآیندهای استخدام به خطر بیندازند. ایده اینکه هوش مصنوعی می‌تواند ویژگی‌های یک نامزد شغلی را از طریق تحلیل چهره و صدا ارزیابی کند، همچنان با تعصبات نژادی آلوده است و باعث تکرار همان شیوه‌های تبعیض‌آمیز استخدامی می‌شود که شرکت‌ها مدعی رفع آن‌ها هستند.

خطرات هوش مصنوعی

نگرانی دیگر نابرابری اقتصادی به علت از دست رفتن مشاغل است که نشان‌دهنده‌ی تعصبات طبقاتی در نحوه‌ی استفاده از هوش مصنوعی است. کارگرانی که وظایف دستی و تکراری بیشتری انجام می‌دهند با کاهش دستمزد تا ۷۰ درصد روبرو شده‌اند، در حالی که کارکنان اداری و دفتری در مراحل اولیه‌ی توسعه‌ی هوش مصنوعی تقریباً بدون آسیب باقی مانده‌اند. با این حال، افزایش استفاده از هوش مصنوعی مولد به‌تدریج بر مشاغل اداری نیز تأثیر می‌گذارد و طیف وسیعی از نقش‌ها را بیشتر از گذشته در معرض کاهش دستمزد یا از دست دادن شغل قرار می‌دهد.

تضعیف اخلاق و نیت خیر به‌واسطه‌ی هوش مصنوعی

مانند بسیاری از افراد سرشناس جهان که در مورد هوش مصنوعی نگرانند، پاپ فرانسیس نیز درباره‌ی امکان سوءاستفاده از هوش مصنوعی هشدار داد و تأکید کرد که این فناوری می‌تواند اظهاراتی را ایجاد کند که در نگاه اول معتبر به نظر می‌رسند اما بی‌پایه هستند یا تعصباتی را به نمایش می‌گذارند. او یادآور شد که این موضوع می‌تواند به تقویت بی‌اعتمادی به رسانه‌های ارتباطی، دخالت در انتخابات و موارد دیگر منجر شود و در نهایت خطر افزایش درگیری‌ها و ممانعت از صلح را افزایش دهد.

افزایش سریع ابزارهای مولد هوش مصنوعی به این نگرانی‌ها عمق بیشتری بخشیده است. بسیاری از کاربران از این فناوری برای فرار از نوشتن تکالیف استفاده کرده‌اند که خلاقیت ذهنی آن‌ها را تهدید می‌کند. همچنین، هوش مصنوعی متعصب ممکن است برای تعیین صلاحیت افراد برای دریافت شغل، وام، کمک‌های اجتماعی یا پناهندگی سیاسی مورد استفاده قرار گیرد و نابرابری‌ها و تبعیض‌های احتمالی را تقویت کند.

سلاح‌های خودمختار مجهز به هوش مصنوعی

امروزه سلاح‌های خودمختار و مرگباری توسعه یافته‌اند که اهداف خود را به‌طور مستقل شناسایی و نابود می‌کنند و تنها به تعداد محدودی از مقررات پایبند هستند. این سلاح‌های پیچیده و قدرتمند باعث شده‌اند برخی از قدرت‌های جهانی به دلیل نگرانی از عقب ماندگی، به‌ سرعت سلاح‌های خود را ارتقا دهند.

خطرات هوش مصنوعی برای بشر

نگرانی اصلی این است که سلاح‌های این چنینی در دستان نادرست قرار گیرند. هکرها مهارت‌های مختلفی در انجام حملات سایبری دارند و احتمالاً می‌توانند با کنترل سلاح‌های خودمختار، منجر به بروز فاجعه‌ای بزرگ شوند.

بیشتر بخوانید: راهنمای کامل انتخاب اسم برند با هوش مصنوعی

بحران‌های مالی ناشی از الگوریتم‌های هوش مصنوعی

صنعت مالی نیز به هوش مصنوعی روی آورده است، به‌ویژه در معاملات الگوریتمی که می‌تواند منجر به بحران‌های مالی بزرگ شود. این الگوریتم‌ها بدون دخالت قضاوت انسانی یا احساسات عمل می‌کنند، اما از تحلیل عوامل پیچیده‌ای همچون اعتماد و ترس انسانی غافل‌اند. این الگوریتم‌ها هزاران معامله را در زمانی بسیار کوتاه انجام می‌دهند تا سودهای اندکی کسب کنند، اما فروش ناگهانی این معاملات می‌تواند باعث هراس سایر سرمایه‌گذاران و به سقوط ناگهانی و نوسانات شدید در بازار منجر شود.

از دست رفتن تأثیر و نفوذ انسانی

استفاده‌ی بیش‌از‌حد از فناوری هوش مصنوعی می‌تواند به کاهش تأثیر و نفوذ انسان و حتی کاهش توانایی‌های انسانی در بخش‌های مختلف جامعه منجر شود. استفاده از هوش مصنوعی در مراقبت‌های بهداشتی ممکن است باعث کاهش همدلی و استدلال انسانی شود و خلاقیت را در بسیاری از فعالیت‌های انسانی از بین ببرد. همچنین، ارتباط بیش‌از‌حد با سیستم‌های هوش مصنوعی مهارت‌های ارتباطی و اجتماعی افراد را به شدت کاهش می‌دهد.

هوش مصنوعی خودآگاه و غیرقابل کنترل

یکی از نگرانی‌های بزرگ‌تر این است که هوش مصنوعی با چنان سرعتی به هوشیاری دست یابد که از کنترل انسان خارج شود و شاید حتی به طریقی مخرب عمل کند. گزارش‌هایی درباره‌ی خودآگاهی هوش مصنوعی منتشر شده است، مانند موردی که یکی از مهندسان سابق گوگل ادعا کرد که چت‌بات LaMDA خودآگاه است و با او همانند یک فرد صحبت می‌کند. با گسترش تحقیقات در جهت ایجاد هوش‌های مصنوعی داناتر، درخواست‌ها برای توقف کامل این توسعه‌ها همچنان در حال افزایش است.

افزایش فعالیت‌های مجرمانه

با پیشرفت هوش مصنوعی، استفاده از آن برای فعالیت‌های مجرمانه نیز افزایش یافته است. مجرمان می‌توانند با تولید تصاویر جعلی از کودکان از آن‌ها سوء استفاده و کار را برای نیروهای انتظامی دشوارتر کنند. موضوعی که چالش‌های جدیدی برای حفظ حریم خصوصی کودکان ایجاد می‌کند. همچنین، جعل صدا با هوش مصنوعی به ابزاری برای کلاهبرداران برای تقلید صدای افراد و کلاهبرداری‌های تلفنی تبدیل شده است. تهدیدات جدیدی که دولت‌ها را با چالش‌های بیشتری در مقابله با خطرات هوش مصنوعی و آگاه‌سازی عمومی مواجه می‌کند.

ناپایداری اقتصادی و سیاسی گسترده‌تر

سرمایه‌گذاری بیش‌از‌حد در یک بخش یا ماده خاص می‌تواند اقتصادها را در شرایط نامتعادل قرار دهد. همانند صنعت فولاد، هوش مصنوعی نیز ممکن است به‌قدری توجه و منابع مالی را به خود جلب کند که دولت‌ها از توسعه‌ی سایر فناوری‌ها و صنایع غافل بمانند. علاوه بر این، تولید بیش‌از‌حد فناوری‌های مرتبط با هوش مصنوعی می‌تواند منجر به انباشت مواد اضافی شود که در نهایت می‌تواند به دست هکرها یا افراد مخرب دیگر بیفتد.

بیشتر بخوانید: انواع کاربردهای هوش مصنوعی در زندگی روزمره

جمع‌بندی

در این مقاله به بررسی خطرات و چالش‌های مرتبط با هوش مصنوعی پرداخته شد. با پیشرفت سریع فناوری‌های مبتنی بر AI، نگرانی‌ها در مورد اثرات احتمالی آن بر جامعه، امنیت، اشتغال و اقتصاد جهانی افزایش یافته است. از دست رفتن شغل‌ها به دلیل اتوماسیون، ایجاد الگوریتم‌های متعصب و ناعادلانه، استفاده از هوش مصنوعی در سلاح‌های خودمختار و خطرات مرتبط با دستکاری اطلاعات و حریم خصوصی تنها بخشی از تهدیدات بالقوه‌ی هوش مصنوعی هستند.

همچنین به نگرانی‌هایی مانند کاهش تأثیرات انسانی در تصمیم‌گیری‌ها و ایجاد ناپایداری‌های اقتصادی و سیاسی اشاره شد. از سوی دیگر، خطرات احتمالی هوش مصنوعی خودآگاه و استفاده‌های مخرب از این فناوری، از جمله جرایم سایبری، به چالش‌های آینده اشاره دارد.

با این وجود، با نظارت صحیح و قوانین منسجم، تهدیدات یادشده تا حد زیادی کاهش می‌یابند و هوش مصنوعی به جای تهدید، می‌تواند به ابزاری مؤثر و مثبت برای بهبود زندگی انسان‌ها تبدیل شود.

سوالات متداولی که شما می‌پرسید؟

1. آیا هوش مصنوعی خطرناک است؟

جامعه‌ی فناوری مدت‌هاست که در مورد تهدیدات ناشی از هوش مصنوعی بحث و جدل می‌کند. اتوماسیون مشاغل، انتشار اخبار جعلی و رقابت تسلیحاتی مبتنی بر هوش مصنوعی، از جمله بزرگ‌ترین خطرات مطرح‌شده در این زمینه هستند.

2. آیا هوش مصنوعی می‌تواند باعث انقراض انسان شود؟

اگر الگوریتم‌های هوش مصنوعی دارای تعصب باشند یا به‌طور عمدی در راستای کارزارهای گمراه‌کننده یا سلاح‌های خودکار مرگبار استفاده شوند، می‌توانند آسیب‌های قابل‌توجهی به انسان وارد کنند. هرچند در حال حاضر، مشخص نیست که آیا هوش مصنوعی قادر به ایجاد انقراض انسان است یا خیر.

3. اگر هوش مصنوعی خودآگاه شود چه اتفاقی می‌افتد؟

تاکنون هوش مصنوعی خودآگاه ساخته نشده است؛ بنابراین به‌طور کامل مشخص نیست چه اتفاقی خواهد افتاد اگر این فناوری به وجود بیاید. برخی معتقدند که هوش مصنوعی خودآگاه ممکن است به همکار مفیدی برای انسان در زندگی روزمره تبدیل شود، در حالی که دیگران نگرانند که ممکن است از کنترل انسان خارج شود و عمداً به او آسیب برساند.

4. آیا هوش مصنوعی تهدیدی برای آینده است؟

هوش مصنوعی هم‌اکنون باعث تغییراتی در شغل‌ها، ایجاد چالش‌های امنیتی و مطرح شدن پرسش‌های اخلاقی شده است. اگر بدون نظارت باقی بماند، می‌تواند برای اهداف خطرناک‌تری استفاده شود. با این حال، هنوز مشخص نیست این فناوری چگونه به پیشرفت خود ادامه خواهد داد و دولت‌ها چه اقداماتی برای کنترل بیشتر بر تولید و استفاده از هوش مصنوعی انجام خواهند داد.

منابع:

Builtin

امتیاز شما

مایلید هر دو هفته یک ایمیل مفید دریافت کنید؟

ما را در شبکه‌های اجتماعی دنبال کنید

همچنین شاید دوست داشته باشید!

ساخت Swap File در لینوکس

راهنمای ساخت و حذف Swap File در لینوکس

0
Swap File نجات‌دهنده آبروی RAM جلوی کاربر است؛ فایل سیستم کوچکی که هنگام کم آوردن حافظه RAM، وارد صحنه شده و مسئولیت ذخیره داده‌ها را…

نظرات کاربران

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد.

این فیلد را پر کنید
این فیلد را پر کنید
لطفاً یک نشانی ایمیل معتبر بنویسید.
شما برای ادامه باید با شرایط موافقت کنید

فهرست