پدرخوانده هوش مصنوعی به صف هشدار دهندگان در مورد پیشرفت بالقوه خطرناک فناوری هوش مصنوعی پیوسته است
جفری هینتون دانشمند پیشگام در حوزه هوش مصنوعی ملقب به پدرخوانده هوش مصنوعی گفته که هنوز متقاعد نشده است که هوش مصنوعی خوب بر هوش مصنوعی بد پیروز میشود و به آیندهی این فناوری خوشبین نیست.
جفری هینتون، استاد دانشگاه تورنتو که اغلب به دلیل تحقیقات پیشگامانهاش در زمینه شبکههای عصبی، «پدرخوانده هوش مصنوعی» نامیده میشود، اخیراً به صف هشدار دهندگان در مورد پیشرفت بالقوه خطرناک این فناوری پیوسته است.او اواسط اردیبهشت ماه کار خود را در گوگل رها کرد تا آزادانهتر حوزهای را که به پیشگامی آن کمک کرده بود، نقد کند.
هینتون پیشرفت و افزایش اخیر هوش مصنوعیهای مولد مانند ChatGPT و Bing Chat را نشانههایی از شتاب غیرقابل کنترل و بالقوه خطرناک در توسعه این فناوری دانست.وی در روزهای اخیر در کنفرانسی موسوم به کالیژن(Collision) که در تورنتو برگزار شد، نگرانیهای خود را تشریح کرده است.
در حالی که شرکتها، هوش مصنوعی را به عنوان راه حلی برای همه چیز میدانند و آن را تبلیغ میکنند، جفری هینتون زنگ خطر را به صدا درآورده است. او میگوید متقاعد نشده است که هوش مصنوعی خوب بر هوش مصنوعی بد پیروز شود و معتقد است که سازگاری اخلاقی هوش مصنوعی ممکن است هزینه زیادی داشته باشد.
گذشتن از گوگل برای آزادی بیان
جفری هینتون در ماه آوریل از سمت معاونت و رئیس مهندسی گوگل استعفا داد تا بتواند آزادانه در مورد خطرات مرتبط با این فناوری هشدار دهد.این پژوهشگر نگران است که گوگل در تلاش برای رقابت با رباتهای هوش مصنوعی نظیر ChatGPT،Bing Chat و مدلهای مشابه، محدودیتها و احتیاطهای قبلی خود را برای توسعه هوش مصنوعی کنار بگذارد و راه را به روی مشکلات اخلاقی متعدد باز کند.هینتون نگران است که هوش مصنوعی مولد در کوتاه مدت بتواند به موجی از اطلاعات نادرست دامن بزند. وی میگوید: شاید دیگر نتوانید بدانید چه چیزی درست است. او همچنین نگران است که این فناوری نه تنها برخی کارها را حذف کند، بلکه به طور کامل جایگزین برخی از مشاغل شود.
این دانشمند همچنین در مورد امکان توسعه سلاحهای کاملاً خودمختار و تمایل مدلهای هوش مصنوعی به یادگیری رفتارهای عجیب و غریب از دادههای آموزشی، نگران است.جفری هینتون میگوید از سال گذشته زمانی که شرکتهای گوگل،OpenAI و دیگران شروع به ایجاد سیستمهای هوش مصنوعی کردند، موضع او تغییر کرده است. هوش مصنوعی تنها در پنج سال گذشته به سرعت توسعه یافته است که به گفته پدرخوانده این حوزه، تصور اینکه در پنج سال آینده چه اتفاقی میافتد، ترسناک است.
تهدیدی برای بشریت
هینتون مدعی است که هوش مصنوعی فقط به اندازه افرادی که آن را میسازند، خوب است و نوع بد آن هنوز هم میتواند بر نمونهی خوب آن پیروز شود.وی توضیح داد: من متقاعد نشدهام که بتوانم یک هوش مصنوعی خوب را که تلاش میکند جلوی بدی را بگیرد، کنترل کنم. برای مثال، ممکن است دشوار باشد که یک مجتمع نظامی صنعتی را از تولید رباتهای جنگی بازدارید.او میگوید شرکتها و ارتشها ممکن است جنگهایی را دوست داشته باشند که تلفات در آنها، ماشینهایی هستند که به راحتی میتوان آنها را جایگزین کرد.
در حالی که هینتون معتقد است که مدلهای زبانی بزرگ(هوش مصنوعی آموزشدیده که متنی شبیه به انسان تولید میکند، مانند GPT4توسعه یافته توسط شرکت (OpenAI میتواند منجر به افزایش چشمگیر بهرهوری شود، اما او نگران است که طبقه حاکم به سادگی از این مزیت برای غنیسازی خود سو استفاده کند و شکاف ثروت بزرگ کنونی را بیشتر کند. هینتون میگوید این امر ثروتمندان را ثروتمندتر و فقرا را فقیرتر میکند. او میگوید هوش مصنوعی میتواند خطری برای موجودیت بشریت ایجاد کند. اگر هوش مصنوعی از انسان باهوشتر شود، هیچ تضمینی وجود ندارد که مردم در راس کار باقی بمانند.هینتون افزود: اگر هوش مصنوعی تصمیم بگیرد که در دست گرفتن اختیار امور برای دستیابی به اهدافش ضروری است، ما به مشکل میخوریم.از نظر هینتون، این تهدیدها، علمی تخیلی نیستند. آنها باید جدی گرفته شوند. او نگران است که جامعه وقتی به فکر چاره بیافتد که دیر شده باشد.
او استدلال میکند که سوگیری و تبعیض همچنان یک مشکل اساسی است، زیرا دادههای آموزشی نادرست میتواند نتایج ناعادلانهای ایجاد کند. الگوریتمها نیز اتاقهای پژواک ایجاد میکنند که اطلاعات نادرست و مسائل مربوط به سلامت روان را تقویت میکنند.
در رسانههای خبری، لفظ اتاق پژواک تمثیلی از اتاق پژواک صوتی است که در آن صدا در فضایی بسته منعکس میشود. اتاق پژواک توصیفی کنایی از وضعیتی است که در آن اطلاعات، ایدهها یا باورها با ارتباطات و تکرار درون یک سامانه تعریف شده، تقویت میشوند. درون یک اتاق پژواک تمثیلی، منابع رسمی غالباً زیر سؤال نمیروند و دیدگاههای متفاوت یا رقیب سانسور، ممنوع یا کمتر از حد، پوشش داده میشوند.هینتون همچنین نگران انتشار اطلاعات نادرست توسط هوش مصنوعی فراتر از اتاقهای پژواک است. او مطمئن نیست که بتوان هر ادعای جعلی هوش مصنوعی را تمیز داد.
این بدان معنا نیست که هینتون از تأثیر هوش مصنوعی ناامید شده است. اگرچه او هشدار میدهد که استفاده سالم از این فناوری ممکن است هزینه بالایی داشته باشد. انسانها ممکن است مجبور باشند کار آزمایشی و تجربی را برای درک اینکه چگونه هوش مصنوعی ممکن است اشتباه کند و این که چگونه از در دست گرفتن کنترل توسط آن جلوگیری کنند، انجام دهند.وی میگوید در حال حاضر تصحیح سوگیریها امکانپذیر است. یک مدل زبانی بزرگ میتواند به اتاقهای پژواک پایان دهد، اما تغییرات در سیاستهای شرکت را بسیار مهم میدانم.
این استاد دانشگاه در پاسخ به سوالاتی در مورد افرادی که شغل خود را به خاطر اتوماسیون و ماشینی شدن از دست میدهند، گفت که احساس میکند سوسیالیسم یا جامعهگرایی برای رسیدگی به نابرابری مورد نیاز است و مردم میتوانند با انتخاب مشاغلی که میتواند با گذشت زمان تغییر کند، مانند لولهکشی، از بیکاری در امان بمانند. به نظر میرسد او شوخی نمیکند و معتقد است که جامعه ممکن است مجبور باشد تغییرات گستردهای برای انطباق با هوش مصنوعی در خود ایجاد کند.
شایان ذکر است که هینتون در این موضعگیری، تنها نیست. تعدادی از دانشگاهیان و افراد برجسته در حوزه فناوری از جمله ایلان ماسک و استیو وزنیاک نیز اخیراً نامهای سرگشاده امضا و منتشر کردهاند که در آن خواستار توقف شش ماهه توسعه هوش مصنوعی برای رسیدگی به مشکلات اخلاقی و ایمنی آن شدهاند. با این حال، سخنان هینتون به عنوان یکی از برجستهترین چهرههای این صنعت، وزن قابل توجهی دارد.
امیدواری به صنعت هوش مصنوعی
برخی دیگر از مصاحبهها در کنفرانس کالیژن(Collision) امیدوارکنندهتر بود. کالین مورداک، مدیر بازرگانی گوگل دیپمایند در یک بحث متفاوت گفت که هوش مصنوعی در حال حل برخی از سختترین چالشهای جهان است.وی گفت صحبت زیادی در این زمینه نمیشود. گوگل دیپمایند در حال فهرستبندی تمام پروتئینهای شناخته شده، مبارزه با باکتریهای مقاوم به آنتیبیوتیک و حتی تسریع کار بر روی توسعه واکسنهای مالاریا است.مورداک تا آنجا پیش رفت که از ۶ تا ۱۲ ماه گذشته به عنوان نقطه عطف در شکوفایی هوش مصنوعی نام برد که پتانسیل آن آزاد شده است.مورداک و مکگوایر هر دو نگرانیهای مشابهی را با هینتون ابراز کردند، اما لحن آنها قطعاً کمتر هشداردهنده بود.
مورداک تاکید کرد که دیپمایند خواهان یک هوش مصنوعی ایمن، اخلاقی و فراگیر است و به مشاورههای تخصصی و سرمایهگذاریهای آموزشی گوگل دیپمایند به عنوان مدرک اشاره کرد. وی اصرار دارد که راه برای وضع مقررات باز است، اما فقط تا جایی که اجازه پیشرفتهای شگفتانگیز را بدهد.مکگوایر نیز گفت که روبلوکس همیشه ابزارهای هوش مصنوعی مولد را با تعدیل محتوا عرضه میکند، بر مجموعههای دادهای متنوع تکیه میکند و شفافیت را تمرین میکند.
امید به آینده
بر خلاف اظهار نظرهایی که جفری هینتون اخیرا داشته است، اشتیاق کلی وی برای توسعه هوش مصنوعی پس از ترک گوگل کاهش نیافته است. خودش میگوید اگر کارم را در گوگل ترک نمیکردم، مطمئنم که روی مدلهای هوش مصنوعی چندوجهی کار میکردم که در آن بینش، زبان و سایر نشانهها به تصمیمگیری کمک میکند.وی میگوید کودکان کوچک فقط از زبان یاد نمیگیرند، ماشینها نیز میتوانند همین کار را انجام دهند.
در عین حال که هینتون نگران خطرات هوش مصنوعی است، معتقد است که در نهایت میتواند هر کاری را که یک انسان میتواند، انجام دهد و قدرت تعقل داشته باشد. به عنوان مثال،GPT4 میتواند خود را برای حل پازلها و معماهای دشوارتر وفق دهد.هینتون اذعان میکند که سخنرانیاش در کنفرانس کالیژن، چیز زیادی درباره کاربردهای خوب هوش مصنوعی مانند مبارزه با تغییرات آب و هوایی بیان نکرده است.
او میگوید، پیشرفت فناوری هوش مصنوعی احتمالاً سالم بوده است، حتی اگر هنوز نگران پیامدهای آن باشیم.
برگرفته از ایسنا
ارسال به دوستان