متن مورد نظر خود را جستجو کنید
  • تاریخ انتشار : 1403/08/08 - 11:38
  • تعداد بازدید کنندگان خبر : 56
  • زمان مطالعه : 8 دقیقه

پدرخوانده هوش مصنوعی به صف هشدار دهندگان در مورد پیشرفت بالقوه خطرناک فناوری هوش مصنوعی پیوسته است

جفری هینتون دانشمند پیشگام در حوزه هوش مصنوعی ملقب به پدرخوانده هوش مصنوعی گفته که هنوز متقاعد نشده است که هوش مصنوعی خوب بر هوش مصنوعی بد پیروز می‌شود و به آینده‌ی این فناوری خوش‌بین نیست.

هوش مصنوعی

جفری هینتون، استاد دانشگاه تورنتو که اغلب به دلیل تحقیقات پیشگامانه‌اش در زمینه شبکه‌های عصبی، «پدرخوانده هوش مصنوعی» نامیده می‌شود، اخیراً به صف هشدار دهندگان در مورد پیشرفت بالقوه خطرناک این فناوری پیوسته است.او اواسط اردیبهشت ماه کار خود را در گوگل رها کرد تا آزادانه‌تر حوزه‌ای را که به پیشگامی آن کمک کرده بود، نقد کند.

هینتون پیشرفت و افزایش اخیر هوش مصنوعی‌های مولد مانند ChatGPT و Bing Chat را نشانه‌هایی از شتاب غیرقابل کنترل و بالقوه خطرناک در توسعه این فناوری دانست.وی در روزهای اخیر در کنفرانسی موسوم به کالیژن(Collision) که در تورنتو برگزار شد، نگرانی‌های خود را تشریح کرده است.

در حالی که شرکت‌ها، هوش مصنوعی را به عنوان راه حلی برای همه چیز می‌دانند و آن را تبلیغ می‌کنند، جفری هینتون زنگ خطر را به صدا درآورده است. او می‌گوید متقاعد نشده است که هوش مصنوعی خوب بر هوش مصنوعی بد پیروز شود و معتقد است که سازگاری اخلاقی هوش مصنوعی ممکن است هزینه زیادی داشته باشد.

گذشتن از گوگل برای آزادی بیان

جفری هینتون در ماه آوریل از سمت معاونت و رئیس مهندسی گوگل استعفا داد تا بتواند آزادانه در مورد خطرات مرتبط با این فناوری هشدار دهد.این پژوهشگر نگران است که گوگل در تلاش برای رقابت با ربات‌های هوش مصنوعی نظیر ChatGPT،Bing Chat  و مدل‌های مشابه، محدودیت‌ها و احتیاط‌های قبلی خود را برای توسعه هوش مصنوعی کنار بگذارد و راه را به روی مشکلات اخلاقی متعدد باز کند.هینتون نگران است که هوش مصنوعی مولد در کوتاه مدت بتواند به موجی از اطلاعات نادرست دامن بزند. وی می‌گوید: شاید دیگر نتوانید بدانید چه چیزی درست است. او همچنین نگران است که این فناوری نه تنها برخی کارها را حذف کند، بلکه به طور کامل جایگزین برخی از مشاغل شود.

این دانشمند همچنین در مورد امکان توسعه سلاح‌های کاملاً خودمختار و تمایل مدل‌های هوش مصنوعی به یادگیری رفتارهای عجیب و غریب از داده‌های آموزشی، نگران است.جفری هینتون می‌گوید از سال گذشته زمانی که شرکت‌های گوگل،OpenAI  و دیگران شروع به ایجاد سیستم‌های هوش مصنوعی کردند، موضع او تغییر کرده است. هوش مصنوعی تنها در پنج سال گذشته به سرعت توسعه یافته است که به گفته پدرخوانده این حوزه، تصور اینکه در پنج سال آینده چه اتفاقی می‌افتد، ترسناک است.

تهدیدی برای بشریت

هینتون مدعی است که هوش مصنوعی فقط به اندازه افرادی که آن را می‌سازند، خوب است و نوع بد آن هنوز هم می‌تواند بر نمونه‌ی خوب آن پیروز شود.وی توضیح داد: من متقاعد نشده‌ام که بتوانم یک هوش مصنوعی خوب را که تلاش می‌کند جلوی بدی را بگیرد، کنترل کنم. برای مثال، ممکن است دشوار باشد که یک مجتمع نظامی صنعتی را از تولید ربات‌های جنگی بازدارید.او می‌گوید شرکت‌ها و ارتش‌ها ممکن است جنگ‌هایی را دوست داشته باشند که تلفات در آنها، ماشین‌هایی هستند که به راحتی می‌توان آنها را جایگزین کرد.

در حالی که هینتون معتقد است که مدل‌های زبانی بزرگ(هوش مصنوعی آموزش‌دیده که متنی شبیه به انسان تولید می‌کند، مانند GPT4توسعه یافته توسط شرکت (OpenAI می‌تواند منجر به افزایش چشمگیر بهره‌وری شود، اما او نگران است که طبقه حاکم به سادگی از این مزیت برای غنی‌سازی خود سو استفاده کند و شکاف ثروت بزرگ کنونی را بیشتر کند. هینتون می‌گوید این امر ثروتمندان را ثروتمندتر و فقرا را فقیرتر می‌کند. او می‌گوید هوش مصنوعی می‌تواند خطری برای موجودیت بشریت ایجاد کند. اگر هوش مصنوعی از انسان باهوش‌تر شود، هیچ تضمینی وجود ندارد که مردم در راس کار باقی بمانند.هینتون افزود: اگر هوش مصنوعی تصمیم بگیرد که در دست گرفتن اختیار امور برای دستیابی به اهدافش ضروری است، ما به مشکل می‌خوریم.از نظر هینتون، این تهدیدها، علمی تخیلی نیستند. آنها باید جدی گرفته شوند. او نگران است که جامعه وقتی به فکر چاره بیافتد که دیر شده باشد.

او استدلال می‌کند که سوگیری و تبعیض همچنان یک مشکل اساسی است، زیرا داده‌های آموزشی نادرست می‌تواند نتایج ناعادلانه‌ای ایجاد کند. الگوریتم‌ها نیز اتاق‌های پژواک ایجاد می‌کنند که اطلاعات نادرست و مسائل مربوط به سلامت روان را تقویت می‌کنند.

در رسانه‌های خبری، لفظ اتاق پژواک تمثیلی از اتاق پژواک صوتی است که در آن صدا در فضایی بسته منعکس می‌شود. اتاق پژواک توصیفی کنایی از وضعیتی است که در آن اطلاعات، ایده‌ها یا باورها با ارتباطات و تکرار درون یک سامانه تعریف شده، تقویت می‌شوند. درون یک اتاق پژواک تمثیلی، منابع رسمی غالباً زیر سؤال نمی‌روند و دیدگاه‌های متفاوت یا رقیب سانسور، ممنوع یا کمتر از حد، پوشش داده می‌شوند.هینتون همچنین نگران انتشار اطلاعات نادرست توسط هوش مصنوعی فراتر از اتاق‌های پژواک است. او مطمئن نیست که بتوان هر ادعای جعلی هوش مصنوعی را تمیز داد.

این بدان معنا نیست که هینتون از تأثیر هوش مصنوعی ناامید شده است. اگرچه او هشدار می‌دهد که استفاده سالم از این فناوری ممکن است هزینه بالایی داشته باشد. انسان‌ها ممکن است مجبور باشند کار آزمایشی و تجربی را برای درک اینکه چگونه هوش مصنوعی ممکن است اشتباه کند و این که چگونه از در دست گرفتن کنترل توسط آن جلوگیری کنند، انجام دهند.وی می‌گوید در حال حاضر تصحیح سوگیری‌ها امکان‌پذیر است. یک مدل زبانی بزرگ می‌تواند به اتاق‌های پژواک پایان دهد، اما تغییرات در سیاست‌های شرکت را بسیار مهم می‌دانم.

این استاد دانشگاه در پاسخ به سوالاتی در مورد افرادی که شغل خود را به خاطر اتوماسیون و ماشینی شدن از دست می‌دهند، گفت که احساس می‌کند سوسیالیسم یا جامعه‌گرایی برای رسیدگی به نابرابری مورد نیاز است و مردم می‌توانند با انتخاب مشاغلی که می‌تواند با گذشت زمان تغییر کند، مانند لوله‌کشی، از بیکاری در امان بمانند. به نظر می‌رسد او شوخی نمی‌کند و معتقد است که جامعه ممکن است مجبور باشد تغییرات گسترده‌ای برای انطباق با هوش مصنوعی در خود ایجاد کند.

شایان ذکر است که هینتون در این موضع‌گیری، تنها نیست. تعدادی از دانشگاهیان و افراد برجسته در حوزه فناوری از جمله ایلان ماسک و استیو وزنیاک نیز اخیراً نامه‌ای سرگشاده امضا و منتشر کرده‌اند که در آن خواستار توقف شش ماهه توسعه هوش مصنوعی برای رسیدگی به مشکلات اخلاقی و ایمنی آن شده‌اند. با این حال، سخنان هینتون به عنوان یکی از برجسته‌ترین چهره‌های این صنعت، وزن قابل توجهی دارد.

امیدواری به صنعت هوش مصنوعی

برخی دیگر از مصاحبه‌ها در کنفرانس کالیژن(Collision) امیدوارکننده‌تر بود. کالین مورداک، مدیر بازرگانی گوگل دیپ‌مایند در یک بحث متفاوت گفت که هوش مصنوعی در حال حل برخی از سخت‌ترین چالش‌های جهان است.وی گفت صحبت زیادی در این زمینه نمی‌شود. گوگل دیپ‌مایند در حال فهرست‌بندی تمام پروتئین‌های شناخته شده، مبارزه با باکتری‌های مقاوم به آنتی‌بیوتیک و حتی تسریع کار بر روی توسعه واکسن‌های مالاریا است.مورداک تا آنجا پیش رفت که از ۶ تا ۱۲ ماه گذشته به عنوان نقطه عطف در شکوفایی هوش مصنوعی نام برد که پتانسیل آن آزاد شده است.مورداک و مک‌گوایر هر دو نگرانی‌های مشابهی را با هینتون ابراز کردند، اما لحن آنها قطعاً کمتر هشداردهنده بود.

مورداک تاکید کرد که دیپ‌مایند خواهان یک هوش مصنوعی ایمن، اخلاقی و فراگیر است و به مشاوره‌های تخصصی و سرمایه‌گذاری‌های آموزشی گوگل دیپ‌مایند به عنوان مدرک اشاره کرد. وی اصرار دارد که راه برای وضع مقررات باز است، اما فقط تا جایی که اجازه پیشرفت‌های شگفت‌انگیز را بدهد.مک‌گوایر نیز گفت که روبلوکس همیشه ابزارهای هوش مصنوعی مولد را با تعدیل محتوا عرضه می‌کند، بر مجموعه‌های داده‌ای متنوع تکیه می‌کند و شفافیت را تمرین می‌کند.

امید به آینده

بر خلاف اظهار نظرهایی که جفری هینتون اخیرا داشته است، اشتیاق کلی وی برای توسعه هوش مصنوعی پس از ترک گوگل کاهش نیافته است. خودش می‌گوید اگر کارم را در گوگل ترک نمی‌کردم، مطمئنم که روی مدل‌های هوش مصنوعی چندوجهی کار می‌کردم که در آن بینش، زبان و سایر نشانه‌ها به تصمیم‌گیری کمک می‌کند.وی می‌گوید کودکان کوچک فقط از زبان یاد نمی‌گیرند، ماشین‌ها نیز می‌توانند همین کار را انجام دهند.

در عین حال که هینتون نگران خطرات هوش مصنوعی است، معتقد است که در نهایت می‌تواند هر کاری را که یک انسان می‌تواند، انجام دهد و قدرت تعقل داشته باشد. به عنوان مثال،GPT4 می‌تواند خود را برای حل پازل‌ها و معماهای دشوارتر وفق دهد.هینتون اذعان می‌کند که سخنرانی‌اش در کنفرانس کالیژن، چیز زیادی درباره کاربردهای خوب هوش مصنوعی مانند مبارزه با تغییرات آب و هوایی بیان نکرده است.

او می‌گوید، پیشرفت فناوری هوش مصنوعی احتمالاً سالم بوده است، حتی اگر هنوز نگران پیامدهای آن باشیم.

برگرفته از ایسنا

 

  • گروه خبری : کتابخانه
  • کد خبر : 282498
حمیده جلالی
تهیه کننده:

حمیده جلالی

تنظیمات پس زمینه