با گسترش و پیشرفت سریع هوش مصنوعی، افراد زیادی در مورد خطرات هوش مصنوعی هشدار میدهند. احتمالا شما هم فیلمهای علمی تخیلی با موضوع چیره شدن قدرت هوشهای مصنوعی بر انسان را دیدهاید و با خواندن این مقاله، بیشتر به یاد آنها خواهید افتاد.
جفری هینتون، کسی که به خاطر کارهای بنیادینش در زمینهی یادگیری ماشینی و الگوریتمهای شبکههای عصبی به عنوان پدرخواندهی هوش مصنوعی شناخته میشود، میگوید: «این فناوریها ممکن است از ما باهوشتر شوند و تصمیم به در دست گرفتن کنترل اوضاع بگیرند؛ باید از همین حالا نگران باشیم که چگونه میتوانیم از وقوع اتفاقهای این چنینی در آینده جلوگیری کنیم.» هینتون در سال ۲۰۲۳ از سِمت خود در گوگل کنارهگیری کرد تا دربارهی خطرات هوش مصنوعی صحبت کند و حتی اذعان کرد که بخشی از او، از کاری که در طول زندگیاش انجام داده، پشیمان است.
نگرانیها تنها به هینتون محدود نمیشوند. ایلان ماسک، بنیانگذار تسلا و اسپیسایکس، به همراه بیش از ۱۰۰۰ نفر از رهبران فناوری در سال ۲۰۲۳ طی نامهای سرگشاده خواستار توقف موقت آزمایشهای بزرگ هوش مصنوعی شدند. آنها هشدار دادند که هوش مصنوعی میتواند خطرات عمیقی برای جامعه و بشریت به همراه داشته باشد.
خطرات هوش مصنوعی
اگر از هوش مصنوعی استفاده میکنید، باید درک دقیقی از خطرات بالقوهی آن داشته باشید. اینکه چه کسانی در حال توسعهی هوش مصنوعی هستند و به چه منظوری این کار را انجام میدهند هنوز کاملا مشخص نیست. در ادامه به بررسی دقیقتر برخی از این خطرات پرداخته و چگونگی مدیریت آنها را مورد بررسی قرار میدهیم.
بیشتر بخوانید: انواع هوش مصنوعی که باید در 2024 بشناسید
عدم شفافیت و توضیحپذیری هوش مصنوعی
مدلهای هوش مصنوعی و یادگیری عمیق میتوانند حتی برای افرادی که با آنها کار میکنند، پیچیده و دشوار بهنظر برسند. این پیچیدگی باعث میشود شفافیت لازم در مورد نحوهی عملکرد و تصمیمگیریهای هوش مصنوعی وجود نداشته باشد و توضیح دقیقی از دادههایی که از الگوریتمهای هوش مصنوعی استفاده میکنند یا دلایل اتخاذ تصمیمهای متعصبانه یا ناامن آنها ارائه نشود. همین نگرانیها باعث افزایش تلاشها برای پاسخگو کردن سرویسهای هوش مصنوعی شده، اما هنوز راه درازی تا فراگیر شدن سیستمهای شفاف هوش مصنوعی باقی مانده است.
بدتر از این، شرکتهای هوش مصنوعی همچنان دربارهی محصولات خود رازدار هستند. کارکنان سابق OpenAI و Google DeepMind، هر دو شرکت را به پنهان کردن خطرات احتمالی ابزارهای هوش مصنوعی متهم کردهاند. این پنهانکاری باعث میشود عموم مردم از تهدیدات احتمالی بیاطلاع بمانند و قانونگذاران نتوانند اقدامات پیشگیرانهی مناسبی برای توسعهی مسئولانهی هوش مصنوعی اتخاذ کنند.
از دست رفتن شغلها به دلیل اتوماسیون هوش مصنوعی
اتوماسیون شغلی توسط هوش مصنوعی در صنایعی مانند بازاریابی، تولید و مراقبتهای بهداشتی در حال گسترش است و تا سال ۲۰۳۰ میتواند تا ۳۰ درصد از ساعات کاری فعلی در ایالات متحده را به خود اختصاص دهد، موضوعی که به ویژه برای کارمندان سیاهپوست و لاتینتبار خطرناکتر است. همچنین پیشبینی میشود تا ۳۰۰ میلیون شغل تماموقت به دلیل این اتوماسیون از بین بروند. اگرچه هوش مصنوعی ممکن است تا سال ۲۰۲۵ حدود ۹۷ میلیون شغل جدید ایجاد کند، اما بسیاری از کارکنان فاقد مهارتهای لازم برای فرصتهای جدید خواهند بود و در صورت عدم آموزش، بسیاری از افراد از این فرصتها جا خواهند ماند.
دستکاری واقعیت از طریق الگوریتمهای هوش مصنوعی
از دیگر خطرات هوش مصنوعی، میتوان به امکان دستکاری اتفاقات حقیقی و جایگزینی آنها با اطلاعات دروغ اشاره کرد. این نگرانی زمانی به واقعیت پیوست که سیاستمداران برای تبلیغ دیدگاههای خود از پلتفرمها استفاده کردند. به عنوان مثال، فردیناند مارکوس جونیور از یک ارتش ترول در تیکتاک برای جلب آرای جوانان فیلیپینی در انتخابات سال ۲۰۲۲ فیلیپین بهره برد.
علاوه بر این، رسانههای آنلاین و اخبار به دلیل ورود تصاویر و ویدیوهای تولیدشده توسط هوش مصنوعی، تغییر صداهای صوتی و استفاده از فناوری دیپفیک، بیشتر از همیشه غیرقابل اعتماد شدهاند. این تکنولوژیها امکان تولید عکسها، ویدیوها و کلیپهای صوتی واقعنما را فراهم کرده و حتی میتوانند تصویر فردی را در عکس یا ویدیو با دیگری جایگزین کنند. به همین دلیل، افراد ناآگاه میتوانند بهراحتی از این فناوری برای انتشار اطلاعات غلط و تبلیغات جنگی استفاده کنند و فضایی ایجاد کنند که تشخیص بین اخبار صحیح و نادرست تقریباً غیرممکن باشد.
نظارت اجتماعی با استفاده از فناوری هوش مصنوعی
نمونهی بارز نظارت اجتماعی با هوش مصنوعی، استفادهی چین از فناوری تشخیص چهره در ادارات، مدارس و دیگر مکانها است. علاوه بر ردیابی حرکات افراد، دولت چین میتواند اطلاعات کافی برای نظارت بر فعالیتها، روابط و دیدگاههای سیاسی افراد جمعآوری کند.
نمونهی دیگر چنین وضعیتی، الگوریتمهای پیشبینی جرایم توسط پلیس آمریکا بهشمار میرود که هدف آن پیشبینی محل وقوع جرمها است. مشکل اینجاست که این الگوریتمها از نرخ دستگیریها که به طور ناعادلانه بر جامعهی سیاهپوستان اثر میگذارد، تاثیر میپذیرند و ممکن است افراد زیادی را با مشکلات جدی مواجه کنند.
عدم حفظ حریم خصوصی دادهها با استفاده از ابزارهای هوش مصنوعی
سیستمهای هوش مصنوعی معمولاً برای شخصیسازی تجربهی کاربران یا آموزش مدلهای هوش مصنوعی اطلاعات شخصی جمعآوری میکنند (بهویژه اگر ابزار هوش مصنوعی رایگان باشد). ممکن است دادهها حتی از سایر کاربران در امان نباشند، همانطور که یک باگ در سال ۲۰۲۳ باعث شد برخی کاربران عناوین چتهای دیگر کاربران ChatGPT را مشاهده کنند. در حالی که برخی قوانین برای محافظت از اطلاعات شخصی در ایالات متحده وجود دارد، هیچ قانون فدرال مشخصی وجود ندارد که از شهروندان در برابر آسیبهای مربوط به حریم خصوصی دادهها در برابر هوش مصنوعی محافظت کند.
بیشتر بخوانید: بهترین ابزارهای ساخت عکس با هوش مصنوعی
تعصبات ناشی از هوش مصنوعی
دیدگاههای محدود افراد باعث شده است که صنعت هوش مصنوعی از مجموعهی وسیعی از دیدگاهها بیبهره باشد. طبق گزارش یونسکو، فقط ۱۰۰ زبان از ۷۰۰۰ زبان طبیعی جهان برای آموزش چتباتهای برتر استفاده شدهاند. این وضعیت وقتی بدتر میشود که ۹۰ درصد از مطالب آموزشی آنلاین مربوط به کشورهای اتحادیهی اروپا و آمریکای شمالی است که دادههای آموزشی هوش مصنوعی را به منابع عمدتاً غربی محدود میکند.
تجربیات محدود سازندگان هوش مصنوعی میتواند توضیحدهندهی این باشد که چرا هوش مصنوعی تشخیص گفتار، اغلب در درک لهجهها و گویشهای خاص شکست میخورد یا چرا شرکتها پیامدهای استفاده از چتباتهایی که شخصیتهای تاریخی را شبیهسازی میکنند، در نظر نمیگیرند. اگر شرکتها و قانونگذاران در جلوگیری از بازتولید تعصبات قدرتمند عملکرد خوبی نداشته باشند، تعصبات هوش مصنوعی میتواند از محیطهای شرکتی فراتر رود و بسیاری از مشکلات اجتماعی را تشدید کند.
نابرابری اجتماعی و اقتصادی ناشی از هوش مصنوعی
اگر شرکتها تعصبات ذاتی الگوریتمهای هوش مصنوعی را نادیده بگیرند، ممکن است ابتکارات و معیارهای اصلی خود را با استفاده از هوش مصنوعی در فرآیندهای استخدام به خطر بیندازند. ایده اینکه هوش مصنوعی میتواند ویژگیهای یک نامزد شغلی را از طریق تحلیل چهره و صدا ارزیابی کند، همچنان با تعصبات نژادی آلوده است و باعث تکرار همان شیوههای تبعیضآمیز استخدامی میشود که شرکتها مدعی رفع آنها هستند.
نگرانی دیگر نابرابری اقتصادی به علت از دست رفتن مشاغل است که نشاندهندهی تعصبات طبقاتی در نحوهی استفاده از هوش مصنوعی است. کارگرانی که وظایف دستی و تکراری بیشتری انجام میدهند با کاهش دستمزد تا ۷۰ درصد روبرو شدهاند، در حالی که کارکنان اداری و دفتری در مراحل اولیهی توسعهی هوش مصنوعی تقریباً بدون آسیب باقی ماندهاند. با این حال، افزایش استفاده از هوش مصنوعی مولد بهتدریج بر مشاغل اداری نیز تأثیر میگذارد و طیف وسیعی از نقشها را بیشتر از گذشته در معرض کاهش دستمزد یا از دست دادن شغل قرار میدهد.
تضعیف اخلاق و نیت خیر بهواسطهی هوش مصنوعی
مانند بسیاری از افراد سرشناس جهان که در مورد هوش مصنوعی نگرانند، پاپ فرانسیس نیز دربارهی امکان سوءاستفاده از هوش مصنوعی هشدار داد و تأکید کرد که این فناوری میتواند اظهاراتی را ایجاد کند که در نگاه اول معتبر به نظر میرسند اما بیپایه هستند یا تعصباتی را به نمایش میگذارند. او یادآور شد که این موضوع میتواند به تقویت بیاعتمادی به رسانههای ارتباطی، دخالت در انتخابات و موارد دیگر منجر شود و در نهایت خطر افزایش درگیریها و ممانعت از صلح را افزایش دهد.
افزایش سریع ابزارهای مولد هوش مصنوعی به این نگرانیها عمق بیشتری بخشیده است. بسیاری از کاربران از این فناوری برای فرار از نوشتن تکالیف استفاده کردهاند که خلاقیت ذهنی آنها را تهدید میکند. همچنین، هوش مصنوعی متعصب ممکن است برای تعیین صلاحیت افراد برای دریافت شغل، وام، کمکهای اجتماعی یا پناهندگی سیاسی مورد استفاده قرار گیرد و نابرابریها و تبعیضهای احتمالی را تقویت کند.
سلاحهای خودمختار مجهز به هوش مصنوعی
امروزه سلاحهای خودمختار و مرگباری توسعه یافتهاند که اهداف خود را بهطور مستقل شناسایی و نابود میکنند و تنها به تعداد محدودی از مقررات پایبند هستند. این سلاحهای پیچیده و قدرتمند باعث شدهاند برخی از قدرتهای جهانی به دلیل نگرانی از عقب ماندگی، به سرعت سلاحهای خود را ارتقا دهند.
نگرانی اصلی این است که سلاحهای این چنینی در دستان نادرست قرار گیرند. هکرها مهارتهای مختلفی در انجام حملات سایبری دارند و احتمالاً میتوانند با کنترل سلاحهای خودمختار، منجر به بروز فاجعهای بزرگ شوند.
بیشتر بخوانید: راهنمای کامل انتخاب اسم برند با هوش مصنوعی
بحرانهای مالی ناشی از الگوریتمهای هوش مصنوعی
صنعت مالی نیز به هوش مصنوعی روی آورده است، بهویژه در معاملات الگوریتمی که میتواند منجر به بحرانهای مالی بزرگ شود. این الگوریتمها بدون دخالت قضاوت انسانی یا احساسات عمل میکنند، اما از تحلیل عوامل پیچیدهای همچون اعتماد و ترس انسانی غافلاند. این الگوریتمها هزاران معامله را در زمانی بسیار کوتاه انجام میدهند تا سودهای اندکی کسب کنند، اما فروش ناگهانی این معاملات میتواند باعث هراس سایر سرمایهگذاران و به سقوط ناگهانی و نوسانات شدید در بازار منجر شود.
از دست رفتن تأثیر و نفوذ انسانی
استفادهی بیشازحد از فناوری هوش مصنوعی میتواند به کاهش تأثیر و نفوذ انسان و حتی کاهش تواناییهای انسانی در بخشهای مختلف جامعه منجر شود. استفاده از هوش مصنوعی در مراقبتهای بهداشتی ممکن است باعث کاهش همدلی و استدلال انسانی شود و خلاقیت را در بسیاری از فعالیتهای انسانی از بین ببرد. همچنین، ارتباط بیشازحد با سیستمهای هوش مصنوعی مهارتهای ارتباطی و اجتماعی افراد را به شدت کاهش میدهد.
هوش مصنوعی خودآگاه و غیرقابل کنترل
یکی از نگرانیهای بزرگتر این است که هوش مصنوعی با چنان سرعتی به هوشیاری دست یابد که از کنترل انسان خارج شود و شاید حتی به طریقی مخرب عمل کند. گزارشهایی دربارهی خودآگاهی هوش مصنوعی منتشر شده است، مانند موردی که یکی از مهندسان سابق گوگل ادعا کرد که چتبات LaMDA خودآگاه است و با او همانند یک فرد صحبت میکند. با گسترش تحقیقات در جهت ایجاد هوشهای مصنوعی داناتر، درخواستها برای توقف کامل این توسعهها همچنان در حال افزایش است.
افزایش فعالیتهای مجرمانه
با پیشرفت هوش مصنوعی، استفاده از آن برای فعالیتهای مجرمانه نیز افزایش یافته است. مجرمان میتوانند با تولید تصاویر جعلی از کودکان از آنها سوء استفاده و کار را برای نیروهای انتظامی دشوارتر کنند. موضوعی که چالشهای جدیدی برای حفظ حریم خصوصی کودکان ایجاد میکند. همچنین، جعل صدا با هوش مصنوعی به ابزاری برای کلاهبرداران برای تقلید صدای افراد و کلاهبرداریهای تلفنی تبدیل شده است. تهدیدات جدیدی که دولتها را با چالشهای بیشتری در مقابله با خطرات هوش مصنوعی و آگاهسازی عمومی مواجه میکند.
ناپایداری اقتصادی و سیاسی گستردهتر
سرمایهگذاری بیشازحد در یک بخش یا ماده خاص میتواند اقتصادها را در شرایط نامتعادل قرار دهد. همانند صنعت فولاد، هوش مصنوعی نیز ممکن است بهقدری توجه و منابع مالی را به خود جلب کند که دولتها از توسعهی سایر فناوریها و صنایع غافل بمانند. علاوه بر این، تولید بیشازحد فناوریهای مرتبط با هوش مصنوعی میتواند منجر به انباشت مواد اضافی شود که در نهایت میتواند به دست هکرها یا افراد مخرب دیگر بیفتد.
بیشتر بخوانید: انواع کاربردهای هوش مصنوعی در زندگی روزمره
جمعبندی
در این مقاله به بررسی خطرات و چالشهای مرتبط با هوش مصنوعی پرداخته شد. با پیشرفت سریع فناوریهای مبتنی بر AI، نگرانیها در مورد اثرات احتمالی آن بر جامعه، امنیت، اشتغال و اقتصاد جهانی افزایش یافته است. از دست رفتن شغلها به دلیل اتوماسیون، ایجاد الگوریتمهای متعصب و ناعادلانه، استفاده از هوش مصنوعی در سلاحهای خودمختار و خطرات مرتبط با دستکاری اطلاعات و حریم خصوصی تنها بخشی از تهدیدات بالقوهی هوش مصنوعی هستند.
همچنین به نگرانیهایی مانند کاهش تأثیرات انسانی در تصمیمگیریها و ایجاد ناپایداریهای اقتصادی و سیاسی اشاره شد. از سوی دیگر، خطرات احتمالی هوش مصنوعی خودآگاه و استفادههای مخرب از این فناوری، از جمله جرایم سایبری، به چالشهای آینده اشاره دارد.
با این وجود، با نظارت صحیح و قوانین منسجم، تهدیدات یادشده تا حد زیادی کاهش مییابند و هوش مصنوعی به جای تهدید، میتواند به ابزاری مؤثر و مثبت برای بهبود زندگی انسانها تبدیل شود.
سوالات متداولی که شما میپرسید؟
1. آیا هوش مصنوعی خطرناک است؟
جامعهی فناوری مدتهاست که در مورد تهدیدات ناشی از هوش مصنوعی بحث و جدل میکند. اتوماسیون مشاغل، انتشار اخبار جعلی و رقابت تسلیحاتی مبتنی بر هوش مصنوعی، از جمله بزرگترین خطرات مطرحشده در این زمینه هستند.
2. آیا هوش مصنوعی میتواند باعث انقراض انسان شود؟
اگر الگوریتمهای هوش مصنوعی دارای تعصب باشند یا بهطور عمدی در راستای کارزارهای گمراهکننده یا سلاحهای خودکار مرگبار استفاده شوند، میتوانند آسیبهای قابلتوجهی به انسان وارد کنند. هرچند در حال حاضر، مشخص نیست که آیا هوش مصنوعی قادر به ایجاد انقراض انسان است یا خیر.
3. اگر هوش مصنوعی خودآگاه شود چه اتفاقی میافتد؟
تاکنون هوش مصنوعی خودآگاه ساخته نشده است؛ بنابراین بهطور کامل مشخص نیست چه اتفاقی خواهد افتاد اگر این فناوری به وجود بیاید. برخی معتقدند که هوش مصنوعی خودآگاه ممکن است به همکار مفیدی برای انسان در زندگی روزمره تبدیل شود، در حالی که دیگران نگرانند که ممکن است از کنترل انسان خارج شود و عمداً به او آسیب برساند.
4. آیا هوش مصنوعی تهدیدی برای آینده است؟
هوش مصنوعی هماکنون باعث تغییراتی در شغلها، ایجاد چالشهای امنیتی و مطرح شدن پرسشهای اخلاقی شده است. اگر بدون نظارت باقی بماند، میتواند برای اهداف خطرناکتری استفاده شود. با این حال، هنوز مشخص نیست این فناوری چگونه به پیشرفت خود ادامه خواهد داد و دولتها چه اقداماتی برای کنترل بیشتر بر تولید و استفاده از هوش مصنوعی انجام خواهند داد.
منابع: