OpenAI؛ شرکت مرموزی که میخواهد زودتر از همه به هوش مصنوعی انسانگونه برسد
در تقاطع خیابان هجدهم و فولسوم در سانفرانسیسکو، دفتر OpenAI شبیه انباری مرموز بهنظر میرسد. این ساختمان قدیمی با آن نمای بیروح خاکستری و پنجرههای دودی با کرکرههای اکثرا پایین کشیده، همچون ورودی وزارت جادوی دنیای هری پاتر به نظر میرسد که به چشم «مشنگها» چیزی جز باجهتلفنی بیاستفادهای نبود که افراد عادی را از کنجکاوی درباره اتفاقات تاریخساز و حیرتانگیزی دور نگه میدارد که آنسوی دیوارهایش در جریان است. دورتادور این ساختمان نیز حروف قرمز رنگورورفته «PIONEER BUILDING» بهچشم میخورد که از مالک قبلی آن، کارخانه کامیونسازی پایونیر، بهجا مانده است؛ اما هیچ اثر و لوگویی از مالک فعلی آن نیست.
احتمالاً درباره Dall-E چیزهایی شنیدهاید، اگر نشنیدهاید، حتماً نگاهی به مقاله تکنولوژی Dall-E؛ هیاهوی این روزهای شبکههای اجتماعی بیندازید! بااینحال، بعید میدانم درباره شرکت توسعهدهنده این هوش مصنوعی که این روزها با قابلیتهای خود کاربران اینترنتی را شگفتزده کرده است، چیزی بدانید. اینکه این شرکت تأثیرگذار تا این حد ناشناخته است، از کمکاری من و شما نیست؛ بلکه OpenAI تعمداً مرموز و پنهانکار است و تعداد افرادی که در جریان پروژههای آن قرار دارند، بهطرز مشکوکی انگشتشمارند.
کارمندان OpenAI بهرسم هرسال دورهم جمع میشوند تا درباره زمانی شرطبندی کنند که رؤیای بشر برای دستیابی به «هوش مصنوعی قوی» به حقیقت خواهد پیوست. هوش مصنوعی قوی/عمومی (Artificial general intelligence) یا AGI همانی است که در فیلمهای علمیتخیلی نظیر ترمیناتور و Her میبینیم: سیستم دانای کل و خودآگاهی که در عین داشتن هوش انسانگونه و قابلیت استدلال و تفکر منطقی، تواناییهای فرابشری دارد.
شرطبندی کارمندان OpenAI نوعی سرگرمی است و تخمینهای آنها اختلاف زیادی با یکدیگر دارد. بااینحال، در حوزهای که هنوز امکان دستیابی به سیستمهای خودمختار و خودآگاه موردبحث است، نیمی از کارمندان OpenAI واقعاً بر این باورند که دستیابی به AGI احتمالاً تا ۱۵ سال آینده صورت خواهد گرفت.درواقع، مأموریت OpenAI این است که اولین شرکتی باشد که به هوش مصنوعی قوی دست پیدا میکند؛ اما نه برای تسلط کامل بر دنیا و بهزانودرآوردن جمعیت جهان، بلکه برای اطمینان از اینکه این تکنولوژی بسیار پرخطر بهطورایمن توسعه داده شود و توزیع مزایای آن بهطور مساوی در جهان صورت گیرد (دستکم این چیزی است که خودشان ادعا میکنند!)دانشمندان این حوزه عموماً بر این باورند که اگر توسعه AGI مسیری با کمترین مقاومت را دنبال کند؛ یعنی نهادی نباشد تا برای آن قوانین سختگیرانه وضع کند، بهراحتی میتواند از کنترل خارج شود. این ترس و نگرانی با نگاه به وضعیت هوش مصنوعی ضعیف، یعنی همین مدل پردردسری که امروزه بهشکل الگوریتمها دورمان را احاطه کرده، توجیهپذیر است.اگر سیر تکامل الگوریتمها را به AGI تعمیم دهیم، میتوان مطمئن بود که در نبود هدایت و مدیریت «چوپانی» خیرخواه، فرجام این تکنولوژی فاجعهبار خواهد بود. درست حدس زدید، شرکت OpenAI میخواهد نقش این چوپان خیرخواه را برای هدایت توسعه هوش مصنوعی قوی بهسمت مسیری درست و امن بازی کند. در شرایطی که این حوزه تحتکنترل غولهای دنیای فناوری است، OpenAI بهعنوان شرکت غیرانتفاعی تأسیس شد تا دستاوردهای آن برای همه ارزش ایجاد کند، نه برای سهامداران.در منشور OpenAI آمده است که دستیابی به هوش مصنوعی قوی ازطریق روشهای امن چنان مهم است که اگر سازمان دیگری زودتر به این هدف نزدیک شد، این شرکت دست از رقابت برمیدارد و درعوض با آن سازمان همکاری میکند. همین موضعگیری منحصربهفرد و خیرخواهانه توجه رسانهها و سرمایهگذاران را جلب کرد؛ بهطوریکه در سال ۲۰۱۹، سرمایهگذاری یکمیلیارددلاری مایکروسافت را بههمراه داشت. البته همانطورکه خودتان احتمال حدس زدید، واقعیت ماجرا طور دیگری رقم خورد.
OpenAI چگونه شکل گرفت؟
مشکل اینجا است که AGI از آن سال تاکنون، همچنان موضوع مبهمی باقی مانده است. هیچکس نمیتواند شکل احتمالی آن یا حداقل کاری را توصیف کند که از عهدهاش برمیآید. برای مثال، هنوز معلوم نیست که قرار است فقط یک مدل هوش مصنوعی قوی داشته باشیم یا بیشتر و اینکه شاید هوش انسانی تنها جزئی از کل باشد. افزونبراین، دیدگاهها درباره وظایف AGI نیز متفاوت است.
از دید رمانتیک، هوش ماشینی بینیاز از خواب و رها از ناکارآمدی تعاملات انسانی، میتواند مشکلات پیچیدهای همچون تغییرات اقلیمی و فقر و گرسنگی جهانی را حل کند. اکثر دانشمندان این حوزه معتقدند دستیابی به چنین قابلیتهای پیشرفتهای دهها سال یا حتی قرنها طول میکشد؛ البته اگر اصلاً توسعه چنین چیزی ممکن باشد. بسیاری نیز نگراناند که تلاش بیشازحد برای پیگیری این هدف ممکن است به عواقب جبرانناپذیری منجر شود.
در دهههای ۱۹۷۰ و ۱۹۸۰ و ۱۹۹۰، حوزه هوش مصنوعی سرشار از وعدههای بزرگ، اما اجرای ناامیدکننده بود. تا اینکه بودجه شرکتها ته کشید و زخمهای عمیقی بر نسل کامل از پژوهشگرانی بر جای گذاشت که تمام وقت خود را پای این پروژه گذاشته بودند. در این فضا بود که OpenAI در ۱۱ دسامبر ۲۰۱۵ با هیاهوی رسانهای به وادی هوش مصنوعی قدم گذاشت.
این اولین شرکتی نبود که قصد خود را برای دستیابی به AGI اعلام میکرد؛ چراکه شرکت DeepMind که در سال ۲۰۱۴ گوگل آن را ازآنِ خود کرد، پنج سال زودتر از شکلگیری OpenAI، وعده دستیابی به AGI را داده بود. گفتنی است این شرکت ماه پیش ادعا کرد در آستانه دستیابی به AGI قرار دارد.
داستان OpenAI فرق داشت؛ زیرا با سرمایهگذاری هنگفت یکمیلیارددلاری افراد نامآشنایی چون ایلان ماسک و سم آلتمن و پیتر تیل، همبنیانگذار پیپال تأسیس شد. این فهرست پرستاره از سرمایهگذاران درکنار اسامی به همین اندازه مشهور کارمندانش، هیاهوی رسانهای بزرگی بهراه انداخت. گرگ براکمن که زیرساختهای فنی شرکت فینتک Stripe زیرنظر او بود، مدیر ارشد فناوری OpenAI شد؛ ایلیا سوتسکور که زیرنظر جفری هینتون، پیشگام حوزه هوش مصنوعی، تحصیل کرده بود، مدیر تحقیقات شد؛ و هفت پژوهشگر تازهفارغالتحصیلشده از دانشگاههای برتر یا دستچینشده از شرکتهای دیگر نیز تیم فنی اصلی را تشکیل دادند.
- از چپ: گرگ براکمن، همبنیانگذار و مدیر ارشد فناوری؛ ایلیا سوتسکور همبنیانگذار و دانشمند ارشد؛ داریو آمودی، مدیر تحقیقات.
ماسک فوریه ۲۰۱۸ اعلام کرد که بهدلیل اختلافنظر بر سر اهداف و برنامههای OpenAI از این شرکت جدا شده است. یک ماه بعد، آلتمن از ریاست شتابدهنده Y Combinator کنارهگیری کرد تا مدیرعامل OpenAI شود. مهمتر از تیم پرستاره سرمایهگذاران و اعضا، وضعیت غیرانتفاعی آن است.
ساختار سازمانی غیررسمی OpenAI باعث ابهام و سردرگمی درباره اهداف و مسیر این شرکت نیز شده بود. در می ۲۰۱۶، داریو آمودی که آن زمان پژوهشگر گوگل بود، با آلتمن و براکمن ملاقات کرد و به آنها گفت هیچکس از کار آنها سر در نمیآورد. مقالهای در New Yorker در سال ۲۰۱۶ با این لید که «آیا آلتمن آمده تا مشکلات دنیا را حل کند یا بر سیلیکون ولی حاکم شود»، نشان داد که حتی خود اعضای تیم هم نمیدانند مشغول انجام چه کاری هستند. براکمن در پاسخ به سؤال آمودی درباره هدف OpenAI گفته بود: «هدف ما درحالحاضر این است که بهترین کاری را که میتوان انجام داد، انجام دهیم؛ البته این هدف کمی گنگ است.»
باوجوداین، آمودی چند ماه بعد به این تیم پیوست. خواهرش، دنیلا، پیشتر با براکمن کار کرده بود و آمودی بسیاری از اعضای OpenAI را میشناخت. بعد از دو سال و بهدرخواست براکمن، دنیلا نیز به آنها ملحق شد. براکمن در گفتوگو با خبرنگار MIT گفت: «فکرش را بکن… ما کارمان را با هیچ شروع کردیم. ما فقط این فکر ایدئال را در سر داشتیم که میخواستیم AGI در مسیر درستی توسعه پیدا کند.»
۱۵ ماه پس از تأسیس OpenAI، مدیریت به این نتیجه رسید که دیگر وقت آن فرارسیده است که اهداف و پروژههای این شرکت شکل و شمایل منسجمتر و متمرکزتری به خود بگیرند. اینچنین شد که براکمن و چند نفر دیگر از اعضای اصلی شروع به تنظیم سند داخلی شرکت کردند که قرار بود مسیر رسیدن به هوش مصنوعی قوی را برایشان روشن کند؛ اما آنها بهسرعت متوجه مشکل بسیار بزرگی شدند: شرکت نمیتوانست با وضعیت غیرانتفاعی به کار خود ادامه دهد.
بهگفته براکمن، اگر OpenAI میخواست در این عرصه حرفی برای گفتن داشته باشد، به حجم زیادی از سرمایهگذاری نیاز داشت که آن را در سطح رقابت با شرکتهای دیگر قرار دهد. بدینترتیب، مارس ۲۰۱۹، OpenAI وضعیت کاملاً غیرانتفاعی خود را کنار گذاشت و به شرکتی سودمحور، اما با محدودیت بازده سرمایه ۱۰۰ برابری تبدیل شد. کمی بعد، مایکروسافت یکمیلیارد دلار در آن سرمایهگذاری کرد و قرار شد با همکاری یکدیگر، برای سرویس رایانش ابری آژور تکنولوژیهای هوش مصنوعی توسعه دهند.
همانطورکه پیشبینیشدنی بود، این اقدام موجی از اتهامات مبنیبر برگشت OpenAI از حرف خود را برانگیخت. این اقدام بسیاری از کارمندان OpenAI را نیز بهدلایل مشابه آزردهخاطر کرده بود. مدیریت برای آرامکردن جوّ، در اسناد محرمانهای به سؤال آنها مبنیبر اینکه «آیا میتوانم به OpenAI اعتماد کنم؟» جواب داد «بله» و بعد در یک پاراگراف دلایل این اعتماد را توضیح داد.
چرا اینقدر پنهانکاری؟
OpenAI برخلاف اسمش، شرکت چندان روراستی نیست و اکثر اتفاقاتی که پشت دیوارهای آن میافتد، از دید خبرنگاران و عموم مردم پنهان است. درواقع، بهنظر میرسد در تمام سالهای فعالیت این شرکت، تنها یکی از خبرنگاران MIT اجازه داشته است در ساختمان این شرکت حاضر شود و با اعضای تیم گفتوگو کند.
طبق توصیف این خبرنگار، در طبقه اول چند فضای مشترک و دو اتاق کنفرانس بهچشم میخورد. یکی از این اتاقها که برای جلسات بزرگتر در نظر گرفته شده است، «ادیسه فضایی» (A Space Odyssey) نام دارد. فضای دیگر که بیشتر شبیه باجهتلفن است تا اتاق کنفرانس، «شوخی بیپایان» (Infinite Jest)، عنوان رمان معروف دیوید فاستر والاس، نامیده میشود. این اتاق، تنها جایی است که خبرنگاران اجازه دارند به آن دسترسی داشته باشند و بازدید آنها از طبقات دوم و سوم ممکن نیست؛ جایی که پذیرای میز کار اعضای تیم و چندین ربات و تمام اتفاقات هیجانانگیز است.
بهنظر میرسد آنچه OpenAI بهطورعلنی اعلام میکند با نحوه عملکردش پشت درهای بسته در تناقض باشد. با گذشت زمان، رقابت شدید و فشار فزاینده برای دستیابی به بودجه بیشتر باعث شد این شرکت از آرمانهایی که در زمان تأسیس در سر داشت، ازجمله شفافیت و روراستی و روحیه همکاری فاصله بگیرد.
بسیاری از کارمندان این شرکت هنگام مصاحبه با MIT، اصرار میکردند که نامشان فاش نشود؛ چون اجازه نداشتند درباره پروژههای شرکت صحبت کنند یا از واکنش مدیریت میترسیدند. از رفتار آنها این تصویر در ذهن شکل میگیرد که OpenAI با وجود تمام آرمانهای ستودنیاش، بهشدت درگیر حفظ رازهای شرکت و وجهه خود و وفاداری کارمندان است.
OpenAI اگرچه در سال ۲۰۱۵ تأسیس شد، اولینباری که مردم از رسانهها چیزی درباره فعالیتهایش شنیدند، ۱۴ فوریه ۲۰۱۹ بود که خبر پژوهش تحسینانگیزی منتشر شد: مدلی به نام GPT-2 که میتوانست مقالات قانعکنندهای را تنها با فشاردادن یک دکمه تولید کند. برای مثال، میشد به این مدل یک جمله از کتاب «ارباب حلقهها» یا جمله آغازین یک خبر درباره کشفیات جدید در حوزه هوش مصنوعی داد تا چند پاراگراف متن مرتبط با موضوع درخواستشده را ایجاد کند؛ بهطوریکه تشخیص اینکه این متن را هوش مصنوعی نوشته و نه انسان، واقعاً دشوار بود.
این دستاورد شگفتانگیز با مشکل بزرگی همراه بود. OpenAI میگفت این مدل خیلی خطرناک است و نمیتوان آن را دردسترس عموم قرار داد و اینکه اگر این مدل بهدست افراد ناشایست و خلافکار بیفتد، میتواند خیلی راحت به سلاحی برای تولید اطلاعات نادرست در مقیاسی بسیار وسیع تبدیل شود.
معرفی پروژه GPT-2 واکنش شدید دانشمندان را برانگیخت. برخی میگفتند هشدارهای OpenAI چیزی جز شیرینکاری تبلیغاتی نیست؛ چون GPT-2 هنوز آنقدر پیشرفته نشده است که بخواهد در این حدواندازه خطرناک باشد. اگر هم واقعاً خطرناک بود، چه لزومی داشت این شرکت وجود آن را اعلام کند و بعد جلو بررسی موشکافانه مردم را بگیرد؟ باور بسیاری این بود که OpenAI سعی میکرد از هراسی که درباره هوش مصنوعی بین مردم ایجاد کرده بود، برای بر سر زبان انداختن نام خود استفاده کند.
واکنشهای منفی علیه GPT-2 به اینجا ختم نشد؛ زیرا مردم احساس میکردند OpenAI داشت باردیگر از وعدههای اولیهاش مبنی بر شفافیت و روراستی فاصله میگرفت. با اعلام خبر سودمحورشدن OpenAI تنها یک ماه بعد از معرفی GPT-2 و تصمیم این شرکت به جلوگیری از دسترسی عموم به این پروژه، مردم درباره ماهیت خیرخواهانه OpenAI دچار شکوتردید شدند. آنها با خود میگفتند نکند این تکنولوژی برای این از دسترس عموم خارج شده است تا OpenAI بتواند برای آن مجوز بگیرد و بدینترتیب، از انتشار آن بهصورت متنباز، همانطورکه در ابتدا وعده داده بود، شانه خالی کند؟
- اتاق کنفرانس Infinite Jest در شرکت OpenAI.
مردم خبر نداشتند که GPT-2، تنها پروژهای نبود که OpenAI تصمیم گرفته بود آن را مخفی کند؛ زیرا در آن زمان، پروژه دیگری که حالا آن را با نام Dall-E میشناسیم، چندین سال بهصورت کاملاً محرمانه در حال توسعه بود. شاید برای شما هم این سؤال پیش آمده است که «چرا شرکتی که با شعار شفافیت تأسیس شد و مأموریتش را توزیع مساوی هوش مصنوعی بین تمام مردم دنیا اعلام کرد، پروژههایش را در خفا توسعه میدهد و جلو دسترسی آزاد مردم به آنها را میگیرد؟» درباره راههای دستیابی به هوش مصنوعی قوی دو نظریه رایج وجود دارد که شاید دلیل این پنهانکاری را کمی توضیح دهد:
- نظریه اول میگوید تمام روشها و تکنولوژیهای لازم برای رسیدن به AGI همینحالا وجود دارد، فقط باید راهی پیدا کرد تا آنها را به روش مؤثری کنارهم چید و در مقیاس بهمراتب وسیعتری اجرا کرد.
- نظریه دوم میگوید برای دستیابی به AGI، تکنیک جدیدی لازم است که هنوز توسعه نیافته است. طبق این نظریه، یادگیری عمیق که درحالحاضر تکنیک غالب حوزه هوش مصنوعی است، برای رسیدن به هوش ماشینی در سطح انسان کافی نیست.
بسیاری از پژوهشگران جایی بین این دو نظریه ایستادهاند؛ اما OpenAI فقطوفقط به نظریه اول معتقد است. اکثر دستاوردهای این شرکت که درادامه با برخی از مهمترین آنها آشنا خواهید شد، محصول بهکارگیری حجم چشمگیری از قدرت محاسباتی کامپیوتر برای ارتقای عملکرد نوآوریهایی است که در آزمایشگاههای دیگر توسعه یافته است. برای مثال، تیمی به نام «Foresight» (آیندهنگری) در این شرکت مسئول آن است تا تواناییهای هوش مصنوعی را با خوراندن حجم عظیمتری از داده به الگوریتمهای موجود و بهکارگیری قدرت رایانشی بیشتر افزایش دهد.
در پسِ این طرز فکر بود که پروژه Dall-E، مدل بسیار پیشرفتهای که میتواند درخواستهای متنی را به تصاویر شگفتانگیزی تبدیل کند، تا مدتها از دید عموم مخفی نگه داشته شده بود؛ چراکه OpenAI این دانش را مزیت رقابتی اصلی خود میداند. به کارمندان و کارآموزان صراحتاً دستور داده شده بود تا هیچ حرفی درباره این پروژه نزنند و افرادی که شرکت را ترک کردند، به امضای قرارداد عدمافشای اطلاعات مجبور شده بودند.
تازه در ماه ژانویه ۲۰۲۰ بود که این شرکت بهدور از هیاهوی رسانهای معمول و خیلی بیسروصدا مقالهای را در یکی از پایگاههای داده متنباز برای تحقیقات هوش مصنوعی منتشر کرد. افرادی که تا آن لحظه به پنهانکاری و سکوت درباره این پروژه مجبور شده بودند، از تصمیم این شرکت به انتشار این مقاله سر در نمیآوردند. اوایل، قرار نبود OpenAI درگیر این حجم از مخفیکاری شود؛ اما بهتدریج این رویه به عادت تبدیل شد.
حالا OpenAI دیگر به اصل شفافیت بهعنوان بهترین راه برای ساخت AGI امن و مفید اعتقادی ندارد و بسیاری از پروژههای در حال توسعه آن در هالهی غلیظی از ابهام و پنهانکاری فرورفته است. باوجوداین، توضیحی که خود OpenAI درباره این مخفیکاری میدهد، چیز دیگری است. یکی از سخنگویان این شرکت در بیانیهای گفت: «میخواهیم نتایج تحقیقاتمان را آهسته منتشر کنیم تا پیش از رهاکردن آن در دستان بشر، متوجه ریسکهای احتمالی و تأثیرات آن شویم.»
بااینحال، پروژه Dall-E که این روزها سروصدای زیادی در اینترنت بهراه انداخته و درحالحاضر در فاز بتای خصوصی است، تا چهار سال بزرگترین پروژه مخفی OpenAI بود. افرادی که از نزدیک درگیر توسعه این پروژه بودند، میگفتند تیم مدیریت OpenAI بر این باور است که Dall-E نویدبخشترین راه برای دستیابی به هوش مصنوعی قوی است. عجیب نیست با چنین باوری، OpenAI بخواهد پیشرفتهایش را از دید شرکتهای دیگر پنهان کند.
دستاوردهای مهم OpenAI در حوزه هوش مصنوعی
بهجز Dall-E که نسخه دوم آن ۶ آوریل ۲۰۲۲ دراختیار تعداد معدودی از هنرمندان قرار گرفت و ما بهطورمفصل دربارهاش در مقاله دیگری صحبت کردیم، OpenAI در مدت ۷ سال از حیات خود، دستاوردهای مهمی در حوزه هوش مصنوعی داشته که بهطور خاص، بر موضوع خلاقیت و ذوق هنری دست گذاشته است. درادامه، برخی از آنها را معرفی میکنیم.
بات OpenAI Five – آگوست ۲۰۱۷
OpenAI Five اولین سیستم هوش مصنوعی است که توانست قهرمانهای جهان را در بازی Dota 2 شکست دهد. این بات روش بازی را از صفر و بهطور خودآموز یاد گرفت و از یادگیری تقلیدی یا جستوجوی درختی کمک نگرفت. بهگفته این شرکت، توسعه OpenAI Five اولین قدم بهسمت ساخت سیستمهای هوش مصنوعی است که بتوانند در موقعیتهای پیچیده و پرهرجومرج که رفتارها و واکنشهای انسانهای واقعی را شامل میشود، به اهداف تعیینشده دست پیدا کنند.
مدل زبانی GPT-2 – نوامبر ۲۰۱۹
GPT مخفف Generative Pre-trained Transformer (مولد ازپیشآموزشیافته ترانسفورمر)، هوش مصنوعی متنبازی است که کارهای شگفتانگیزی انجام میدهد؛ ازجمله ترجمه، پاسخ به سؤالات، خلاصهکردن متن و تولید متنی که گاهی تشخیص آن از نوشته انسانی بهشدت دشوار خواهد بود. این مدل برپایه معماری شبکه عصبی ترانسفورمر ایجاد شده است که گوگل آن را در سال ۲۰۱۷ طراحی کرد و در ساخت مدل زبانی پیشرفته LaMDA بهکار برد.
مزیت GPT-2 به متنبازبودن آن است؛ بهطوریکه کد منبع آن بهرایگان دردسترس عموم قرار دارد و میتواند کمکحال استارتاپهایی باشد که میخواهند مسیر توسعه این مدل زبانی را ادامه دهند. جالب اینجا است در همان سال بود که OpenAI تصمیم گرفت ساختار غیرانتفاعی را کنار بگذارد و جلو دسترسی عموم به کد منبع پروژههای آینده خود را بگیرد.
سیستم تولید آهنگ Jukebox – آوریل ۲۰۲۰
سیستم Jukebox واقعاً حیرتانگیز است. کافی است به این بات ژانر آهنگ و نام هنرمند و متن آهنگ را بدهید تا نمونهای از یک آهنگ جدید را از صفر تا صد برایتان تولید کند. در پروفایل ساندکلاد OpenAI، به نمونههایی از آهنگهای تولیدشده با هوش مصنوعی Jukebox میتوانید گوش کنید. بهگفته این شرکت، متن آهنگها بهوسیله مدل زبانی و تعدادی از پژوهشگران نوشته شده است.
پیش از معرفی Jukebox، شرکت OpenAI سیستم MuseNet را در سال ۲۰۱۹ رونمایی کرد که دانش فوقالعادهای از انواع و اقسام ژانرهای موسیقی داشت و میتوانست با ترکیب دو ژانر متفاوت، مثلاً کلاسیک و پاپ، آهنگی در ژانری جدید تولید کند.
مدل زبانی GPT-3 – ژوئن ۲۰۲۰
اگرچه GPT-2 در زمان خودش دستاورد مهمی محسوب میشد، بهخاطر دسترسی به مجموعه داده محدود و تنها ۱٫۵ میلیارد پارامتر، در تولید متنهایی که بعد از چند پاراگراف تکراری و خستهکننده نشوند، قدرت مانور زیادی نداشت. نسخه سوم این مدل با ۱۷۵ میلیارد پارامتر در سال ۲۰۲۰ در فاز بتا عرضه شد؛ هرچند در اقدامی خلاف سیاستهای شرکت، کد منبع آن هرگز دراختیار عموم قرار نگرفت. جالب است بدانید هوش مصنوعی LaMDA گوگل که یکی از مهندسانش در ادعایی عجیب آن را خودآگاه خوانده است، ۱۳۷ میلیارد پارامتر دارد و از GPT-3 ضعیفتر است.
GPT-3 در حوزه یادگیری ماشین معجزه میکند. کیفیت نمونههایی که با استفاده از این هوش مصنوعی تولید شده، بهقدری شگفتانگیز است که بهسختی میتوان تشخیص داد آنها را انسان ننوشته است. برای مثال، کاربری در توییتر که اجازه پیدا کرده است از GPT-3 استفاده کند، نمونه متنهایی را بهاشتراک گذاشته که در آن، هوش مصنوعی در قالب یوتیوبرهای تکنولوژی فرو رفته است و درباره لپتاپی صحبت میکند که روح ریچارد نیکسون را تسخیر کرده است. این کاربر جمله تأملبرانگیزی برای این توییت نوشته است: «یوتیوبرهای انسان، خدا رحمتتون کنه. هیچوقت نمیتونید با محتوایی مثل این رقابت کنید.»
- متنی که GPT-3 برای درخواست «بررسی لپتاپ تسخیرشده بهوسیله روح ریچارد نیکسون» نوشته است.
OpenAI از ارائه GPT-3 بهصورت پروژهای متنباز خودداری کرد؛ چون مایکروسافت امتیاز دسترسی انحصاری به کد منبع این مدل را خریده است. البته عموم میتوانند از این مدل استفاده کنند؛ هرچند باید اجازهی دسترسی به این پلتفرم را از مایکروسافت بگیرند.
ابزار کدنویس Copilot – ژوئن ۲۰۲۱
مایکروسافت با سرمایهگذاری یکمیلیارددلاری در OpenAI برنامههای بزرگی در سر داشت. این شرکت علاوهبر کسب حق امتیاز GPT-3، ازطریق پلتفرم گیتهاب با OpenAI وارد همکاری شد تا ابزار هوش مصنوعی Copilot را توسعه دهند. Copilot درون برنامه ویرایشگر کد اجرا میشود و به توسعهدهندگان در نوشتن کد کمک میکند. استفاده از Copilot برای دانشجویان تأییدشده و گردانندگان پروژههای متنباز رایگان است و بهگفته گیتهاب، در فایلهایی که Copilot در آنها فعال است، نزدیک ۴۰ درصد کدها با این ابزار نوشته میشود. Copilot از مدل Codex شرکت OpenAI توسعه یافته که از نسل الگوریتم پرچمدار GPT-3 است.
منشور و استراتژی OpenAI
شاید یکی از دغدغههای مهم مربوط به هوش مصنوعی، بحث جایگزینی هوش انسانی باشد. حالا که با هوش ماشینی میتوان آهنگ ساخت، داستان نوشت، عجیبوغریبترین ایدهها را بهتصویر کشید و حتی کد نوشت، دیگر چه نیازی به هنرمندان و برنامهنویسان خواهد بود؟ پاسخ OpenAI به این دغدغه مهم در منشوری آماده است که بهنوعی ستون فقرات این شرکت بهشمار میرود و تمام استراتژیها و سیاست کلی آن را بهتصویر میکشد:
برای براکمن پایبندی سرسختانه به این سند چیزی است که ساختار OpenAI را کارآمد میکند. براساس این منشور، تمام کارمندان بهاستثنای چند نفر، موظفاند که در یک اتاق کار کنند. بسیاری از آنها به مهمانیهای یکسانی میروند و به فلسفه «ایثار مؤثر» معتقدند که میگوید از شواهد و منطق باید برای تعیین مؤثرترین شیوههای بهبود جهان استفاده کرد. این منشور بهقدری برای OpenAI مقدس است که حقوق کارمندان نیز به میزان پایبندی آنها به اصول آن تعیین میشود.
فردی که استراتژی OpenAI را در این منشور گردآوری کرده، کسی نیست جز داریو آمودی، کارمند سابق گوگل که ابتدا درباره هدف و مأموریت OpenAI شکوتردید داشت؛ اما حالا بهعنوان مدیر تحقیقات این شرکت مشغول کار است.
آمودی استراتژی OpenAI را به دو بخش تقسیم میکند. بخش اول به برنامهریزی برای دستیابی به قابلیتهای پیشرفته هوش مصنوعی مربوط میشود و تیمهای مختلف بر سر این شرطبندی میکنند که توسعه کدام قابلیت درنهایت به AGI منتهی میشود. برای مثال، تیم زبان روی این نظریه شرط بسته است که هوش مصنوعی میتواند تنها ازطریق یادگیری زبان، به درک چشمگیری از جهان دست پیدا کند. درمقابل، تیم رباتیک معتقد است توسعه هوش ماشینی در سطح هوش انسانی به جسم فیزیکی نیاز دارد.
ازنظر OpenAI، هرکدام از این پیشبینیها وزن یکسانی دارد و لازم است پیش از کنار گذاشتنشان، بهطورکامل آزمایش شوند. آمودی در تأکید اهمیت این موضوع، مدل زبانی GPT-2 را مثال میزند که میتواند بهطرز فوقالعاده واقعگرایانهای متنهای پیچیده تولید کند.
بخش دوم استراتژی OpenAI بر راهکارهایی متمرکز است تا سیستمهای هوش مصنوعی مرتب در حال تکامل را امن و بیخطر کند. برای نمونه، اینکه مطمئن شوند این سیستمها ارزشهای انسانی را بازتاب میکنند، میتوانند منطق پسِ تصمیماتشان را توضیح دهند و بدون آسیبرساندن به انسانها چیزهای جدید یاد بگیرند. آمودی اقرار میکند که این بخش از استراتژی OpenAI ساختار منسجمی ندارد و بیشتر فرایندی حسی است تا مبتنیبر پایه نظریههای اثباتشده. او میافزاید:
روزی خواهید دید که ما به AGI میرسیم و دوست دارم تا آن روز حس خوبی به این سیستمها داشته باشم. هرچیزی که درحالحاضر حس خوبی به آن نداشته باشم، یک تیم برایش ایجاد میکنم تا فقط روی آن متمرکز شوند.ما در موقعیت بغرنجی قرار داریم، اینکه نمیدانیم AGI چه شکلی است و کِی قرار است اتفاق بیفتد. ذهن هر شخصی محدود است. بهترین کاری که میتوان کرد، استخدام پژوهشگران حوزه امنیت است که اغلب دیدگاهشان از چیزی که فکر میکنم، متفاوت است. بهدنبال چنین تنوعی هستم که به نظرم تنها راهی است که میتوان متوجه تمام جوانب قضیه شد.
مشکلات OpenAI: نبود تنوع و بودجه
براکمن میگوید برای رسیدن به بهترین و امنترین شکل AGI، استراتژی بیشترین تنوع در اعضای تیم را دنبال میکند؛ اما اعضای تیم واقعاً چقدر متنوعاند؟ دستکم تا سال ۲۰۲۰ که گفتوگوی MIT با کارمندان OpenAI انجام شده بود، از بیش از ۱۲۰ کارمند، تنها ۲۵ درصد آنها زن بودند. در تیم اجرایی نیز، تنها دو زن حضور دارند و فقط ۳۰ درصد تیم مدیریتی زن است. هر چهار مدیر عالیرتبه OpenAI، ازجمله براکمن و آلتمن، مردان سفیدپوست هستند. درصد بسیار زیادی از کارمندان هم یا سفیدپوست هستند یا آسیایی.
نبود تنوع جنسیتی و نژادی در حوزه هوش مصنوعی بسیار رایج است. برای مثال، گزارش ۲۰۱۹ مؤسسه AI Now نشان داد که زنها، تنها ۱۸ درصد سخنرانهای کنفرانسهای مطرح در حوزه هوش مصنوعی و ۲۰ درصد استادان دانشگاه و ۱۰ درصد پژوهشگران فیسبوک و گوگل را تشکیل میدهند. باوجوداین، نبود تنوع برای شرکتی که مأموریتش «توزیع تکنولوژی هوش مصنوعی بهطورمساوی بین همه» است، اتفاق بهمراتب مشکلسازتری خواهد بود؛ چراکه OpenAI از گروههایی که ممکن است از سمت هوش مصنوعی و تبعیضهای مدلهای زبانی درمعرض بیشترین آسیب قرار داشته باشند، هیچ نمایندهای ندارد.
علاوهبراین، اصلاً معلوم نیست OpenAI چگونه میخواهد مزایای AGI را بین تمام بشر، آنهم بهطورمساوی توزیع کند. برخی میگویند این شرکت درکی از جنبه اجتماعی هوش مصنوعی ندارد و صرفاً چون میداند این حوزه بسیار سودآور است، درگیر آن شده است.
براکمن میپذیرد که برای تحقق رؤیای OpenAI، هم تخصص فنی و هم تخصص اجتماعی لازم است؛ اما قبول ندارد که مشکلات اجتماعی را باید از همان قدمهای نخستین حل کرد. بهباور او، قدم اول این است که بفهمیم AGI قرار است چه شکلی باشد و تازه بعدازآن، میتوان درباره پیامدهای این سیستم صحبت کرد.
مشکل دوم OpenAI کمبود بودجه است. شرکت AI2 مستقر در سیاتل که مشغول انجام پژوهشهای بلندپروازانهای در حوزه هوش مصنوعی است، از نوع غیرانتفاعی است؛ اما از پول هنگفت بهجامانده از پال آلن، یکی از بنیانگذاران مایکروسافت، برای تأمین بودجه پروژههایش استفاده میکند.
OpenAI نمیتواند هم وضعیت غیرانتفاعی خود را حفظ کند و هم بودجه کافی برای اجرای پروژههایش را داشته باشد؛ نهفقط به این دلیل که به پول هنگفت دسترسی ندارد؛ بلکه چون میخواهد زودتر از هر شرکت دیگری به AGI برسد. همین فشار به تصمیماتی منجر میشود که OpenAI را از هدف اولیه خود دورتر و دورتر میکند. برای مثال، این شرکت برای جذب سرمایه و نیروی متخصص، هیاهوی تبلیغاتی راه میاندازد و سراغ استراتژی منابع عظیم محاسبات کامپیوتری میرود، نه به این دلیل که این تنها راه رسیدن به AGI است؛ بلکه چون بهنظر سریعترین راه میرسد.
هوش مصنوعی قوی؛ پایان خلاقیت انسانی؟
احتمالاً زمانی میرسد که تقریباً همهچیز با هوش مصنوعی جایگزین خواهد شد. اهمیت پروژههای OpenAI و شاید جنبه هراسانگیز آنها موفقیتشان به توسعه نوعی از هوش مصنوعی است که بهظاهر خلاقیت و ذوق هنری انسانی را هدف گرفته است. پروژه Dall-E به ما نشان داد که در آینده نزدیک، شاید دیگر به تصویرگران و افراد متخصص در حوزه ویرایش عکس نیازی نباشد؛ چون هوش مصنوعی این کار را در چند ثانیه بهرایگان و با نتیجهای حیرتانگیز انجام میدهد.
مدل زبانی GPT-3 نیز موفق شد متنهایی تولید کند که تشخیص آنها از نوشتههای انسانی واقعاً دشوار است. شاید با فراگیرشدن این سیستم، دیگر حتی به نویسندگان و خبرنگاران نیازی نباشد. همچنین، شاید زمانی برسد که همین مقاله را بهطورکامل هوش مصنوعی بنویسد!
بااینهمه، OpenAI شرکت نوآوری مملو از پژوهشگران مستعد است که با تمام وجود سخت مشغول انجام پژوهشهای بلندپروازانهای برای خدمت به بشر هستند. تمام این پنهانکاریها و مشکلات اگر به همین شکل ادامه پیدا کند، ممکن است درنهایت فاجعهبار شود؛ اما هنوز تا دستیابی به هوش مصنوعی در سطح انسان راه درازی مانده است و OpenAI هنوز فرصت دارد سیاست کارآمدتری را برای تحقق مأموریتش بهمنظور «توزیع تکنولوژی هوش مصنوعی بهطورمساوی بین همه» در پیش گیرد.
منبع:زومیت