بزرگ‌ترین ترس‌های بشر از هوش مصنوعی

بزرگ‌ترین ترس‌هایی که بشر از هوش مصنوعی دارد

مدیرعامل سابق گوگل اواخر سال گذشته هوش مصنوعی را به جنگ هسته‌ای تشبیه کرد تا نشان دهد که نگرانی‌های بسیار زیادی در مورد این فناوری وجود دارد. همین دلیل نیز باعث شده است تا کشورهای جهان با تصویب قوانین و محدودیت‌های خاصی، به‌دنبال قانونمندسازی هوش‌مصنوعی باشند.

در این مطلب به 3 نگرانی اصلی درباره هوش مصنوعی اشاره می‌کنیم که کارشناسان فناوری می‌گویند باید برای آن‌ها فکری کرد.

قدرت‌گرفتن هوش مصنوعی

در یکی از رایج‌ترین نگرانی‌های مربوط به هو‌ش مصنوعی گفته شده است که این فناوری می‌تواند از کنترل خالق خود خارج شود.

هوش مصنوعی عمومی (AGI) به یک هوش مصنوعی اطلاق می‌شود که در انجام طیف گسترده‌ای از وظایف به‌اندازه انسان‌ها باهوش و یا حتی هوشمندتر است. مدل‌های هوش‌ مصنوعی فعلی دارای احساس نیستند، اما برای شبیه‌سازی انسان‌ها ساخته شده‌اند. به‌ عنوان مثال، ChatGPT به‌گونه‌ای ساخته شده است که کاربران حسی مانند چت‌کردن با یک انسان را از آن می‌گیرند.

هرچند کارشناسان بر سر نحوه تعریف AGI نظرات متفاوتی دارند، اما موافق هستند که این فناوری خطرات بالقوه‌ای برای بشریت به‌همراه دارد و باید مورد تجزیه‌و‌تحلیل بیشتر قرار بگیرد.

بیکاری گسترده کارمندان

هوش مصنوعی همچنین بسیاری از شغل‌ها را تهدید می‌کند و باعث بیکاری گسترده بسیاری از کارمندان بخش‌های مختلف خواهد شد.

«آبیشک گوپتا»، بنیان‌گذار مؤسسه اخلاق هوش مصنوعی مونترآل، در این رابطه می‌گوید که ازدست‌دادن شغل‌ها توسط هوش مصنوعی «واقعی‌ترین، مهم‌ترین و شاید مبرم‌ترین» تهدیدی است که درباره این فناوری وجود دارد.

مدیران عامل شرکت‌ها نیز برنامه‌های خود برای استفاده از هوش مصنوعی را اعلام کرده‌اند. برای مثال، «آرویند کریشنا»، مدیرعامل آی‌بی‌ام، اخیراً اعلام کرد که این شرکت استخدام نیروهای جدید برای نقش‌هایی را که ممکن است در آینده با هوش مصنوعی جایگزین شوند، کاهش داده است.

سوگیری‌های هوش مصنوعی

به گفته کارشناسان، اگر سیستم‌های هوش مصنوعی برای کمک به تصمیم‌گیری‌های اجتماعی به‌طور گسترده‌تری استفاده شوند، سوگیری سیستماتیک می‌تواند به یک خطر جدی تبدیل شود.

تاکنون چندین نمونه از سوگیری در سیستم‌های هوش مصنوعی مولد، ازجمله نسخه‌های اولیه ChatGPT وجود داشته که در آن ابزار ساخته‌شده توسط OpenAI پاسخ‌های عجیب و نامناسبی به کاربران داده است.

با اشاره به این موضوع، گوپتا توضیح می‌دهد که اگر مواردی از سوگیری‌های شناسایی‌نشده در مدل‌هایی وجود داشته باشد که برای تصمیم‌گیری‌های واقعی استفاده می‌شوند، می‌تواند عواقب جدی به‌همراه داشته باشد.

منبع : دیجیاتو

 

برای امتیاز به این نوشته کلیک کنید!
[کل: 0 میانگین: 0]
آرش کریم دوست
ارسال دیدگاه

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *