گروه علمی و فناوری خبرگزاری برنا؛ مدیران و توسعه دهندگان فناوری چتبات ChatGPT خود اکنون بیش از هرکس دیگری نگران شوری آشی شدهاند که اخیراً پختهاند، گسترش روزافزون نگرانیها دربارۀ ابعاد خطرناک هوش مصنوعی و اثرات ویرانگی که میتواند بر زندگی بشر بگذارد، سبب شده است تا آنها خواستار تشکیل سازمانی معادل «آژانس انرژی اتمی» شوند تا مقرراتی بینالمللی برای کنترل هوش مصنوعی وضع کند.
«گرگ براکمن» و «ایلیا سوتسکور» و «سم آلتمن»، مدیرعامل اوپن.ای.آی به عنوان مدیران ارشد توسعه دهندۀ این فناوری، خواهان تشکیل یک نهاد تنظیمگر بینالمللی برای مدیریت مخاطرات هوش مصنوعی، وضع مقرراتی جهت کار بر روی نحوه بازرسی سیستمها، ممیزی، آزمایش انطباق با استانداردهای ایمنی، و اعمال محدودیتهایی در درجات استقرار و سطوح امنیتی شدند.
براساس گزارش گاردین انگلیس افراد مذکور معتقدند که آن روز دور نیست که در کمتر از ۱۰ سال آینده، سیستمهای هوش مصنوعی در بیشتر حوزهها از سطح مهارتهای متخصص فراتر بروند و کارکردی برابر با بزرگترین شرکتهای امروزی پیدا کنند! از نظر جنبههای مثبت و منفی احتمالی، ابر هوش قویتر از سایر فناوریهایی است که بشر در گذشته مجبور به مبارزه با آنها بوده است.
این نامه میگوید که ما میتوانیم آیندهای به طور چشمگیری مرفهتر داشته باشیم اما برای رسیدن به آن باید ریسک را مدیریت کنیم.
نویسندگان نامۀ مذکور خواهان ایجاد هماهنگی بین شرکتهای بزرگی هستند که در زمینۀ هوش مصنوعی تحقیقات پیشرفته انجام میدهند تا توسعه این فناوری علاوه بر تسهیل زندگی مردم، در حالتی ایمن اتفاق بیافتد.
آنها معتقدند که ایجاد هماهنگی مزبور از طریق یک پروژه تحت مدیریت دولتها یا از طریق یک توافق جمعی برای محدود کردن رشد در قابلیتهای هوش مصنوعی انجامپذیر است.
پژوهشگران بیش از یکدهه است که درباره خطرات احتمالی ابر هوش هشدار میدهند اما با افزایش سرعت توسعه هوش مصنوعی، این خطرات جدیتر شده است.
مرکز ایمنی هوش مصنوعی (CAIS) مستقر در آمریکا که در زمینه کاهش خطرات اجتماعی ناشی از هوش مصنوعی فعالیت میکند، خطرات بسیار مهم توسعۀ بیضابطۀ هوش مصنوعی را در هشت گروه دستهبندی کرده است.
در حالی که برخی نگران این هستند که یک هوش مصنوعی قدرتمند به طور تصادفی یا عمدی بشریت را نابود کند، CAIS آسیبهای مخرب دیگری را توصیف میکند. جهانی که در آن سیستمهای هوش مصنوعی به طور داوطلبانه نیروی کار بیشتری را به دست میآورند، میتواند به «از دست دادن توانایی خودگردانی و وابستگی کامل به ماشینها از سوی بشر» منجر شود که به عنوان «ناتوانی» توصیف میشود.
همچنین گروه کوچکی از افراد که سیستمهای قدرتمند را کنترل میکنند، میتوانند هوش مصنوعی را به یک نیروی متمرکز تبدیل در جهت پیشبرد اهداف خود تبدیل کنند.
مدیران اوپن.ای.آی اعتقاد دارند که مردم جهان باید به طور دموکراتیک از محدودیتها و پیش فرضهای سیستمهای هوش مصنوعی آگاه شوند و دربارۀ نحوۀ مواجهه با آن تصمیم بگیرند اما اذعان دارند که «ما هنوز نمیدانیم چگونه چنین مکانیزمی را طراحی کنیم.» ولی آنها در عین حال معتقدند که توسعه مداوم سیستمهای قدرتمند ارزش ریسک را دارد.
انتهای پیام/