به تازگی و همین چند روز پیش با فصلنامهٔ اخبار IPM آشنا شدم. امروز آخرین شمارهٔ نشریه را میخواندم که به مطلبی به عنوان «دفاع رابرت اپنهایمر از انسانیت» را دیدم. اپنهایمر پدر بمب هستهای پس از اختراع این «گجت» تازه شستش خبردار شده بود که چه چیز هولناکی ساخت و بعد از آن وقت بسیاری صرف مبارزه با عواقب اختراعش صرف کرد.
حالا چیزی که به مراتب میتواند از بمب اتم خطرناکتر و انحصاریتر باشد، هوش مصنوعی است. بحثهای رایج در مورد سلطهٔ هوش مصنوعی بر انسان و پیشی گرفتنش از قدرت خالقش یک طرف، عوارض جانبی آن یک طرف، استفادهٔ نظامی از هوش مصنوعی شاید بسیار خطرناکتر باشد.
کمپانیهای بزرگ فناوری مثل گوگل، مایکروسافت، متا (فیسبوک سابق)، آمازون، آیبیام و چند مورد دیگر که تخصصشان کاربری نظامی هوش مصنوعی است به نسلکشی که این روزها در غزه جریان دارد کمک بسیار کردند و میکنند. هم آمریکا و هم اسرائیل به خوبی از اهمیت هوش مصنوعی باخبرند. این خبر بلومبرگ را ببینید. شرکت پالانتیر به اسرائیل کمک نظامی میکند. همین چند روز پیش آمریکا از سند اقدام ملی آمریکا در هوش مصنوعی رونمایی کرد. سندی که در آن به صراحت چرخش آشکار آمریکا به سمت نظامیسازی این فناوری و بیاعتنایی به محیط زیست و اصول دست و پاگیر اخلاقی را عنوان میکند.
استفادهٔ نظامی از هوش مصنوعی میتواند در زمینههای زیادی از جمله طراحی استراتژی و کمک به تصمیمگیری اعمال شود. این بار آیا اپنهایمر یا ساخاروفی در کار خواهد بود؟ اگر باشد آیا میتواند از هیاهوی رسانه سبقت بگیرد؟
اما هوش مصنوعی انحصاریتر از بمب اتم است. ابوطالب صفدری، پژوهشگر فلسفه در آلمان و کسی که تخصصی روی فلسفهٔ هوش مصنوعی کار میکند مینویسد:
بمب اتمی را میتوان، با وجود تمام پیچیدگیهای علمی و فنیاش، در نهایت بهصورت صنعتی و با یک پروژهی بسته تولید کرد. یعنی اگر یک کشور تمام منابع و ظرفیتهایش را متمرکز کند—اعم از سرمایه مالی، نیروی انسانی، و دانش فنی وارداتی—میتواند طی یک روند نسبتاً مشخص به توانایی تولید بمب اتمی دست یابد. نمونههای این مسیر را میتوان در کشورهایی مثل کره شمالی یا پاکستان دید: کشورهایی که با وجود وضعیت اقتصادی ضعیف یا عدم توسعهی فناورانهی گسترده، توانستند برنامهی تسلیحاتی اتمی خود را به سرانجام برسانند. بمب اتم در این معنا، اگرچه نیازمند فناوری پیشرفته است، اما از منظر ساختاری «قابل مهندسی و مهارشدنی» است
هوش مصنوعی، بهویژه در شکل پیشرفته و استراتژیک آن—یعنی مدلهای زبانی عظیم (مانند GPT)، سیستمهای نظامی هوشمند، یا زیرساختهای شناختی خودآموز—چنین نیست.
توسعهی موفق هوش مصنوعی نهتنها نیازمند منابع مالی، بلکه مستلزم یک
زیستبوم فعال، آزاد، و پیچیده است:
- باید دانشگاههایی وجود داشته باشند که در مرزهای دانش فعالیت کنند، • باید شرکتهای خصوصی و استارتاپها بتوانند بدون محدودیت رشد کنند،
• باید دادهها بهصورت آزاد و گسترده در دسترس باشند،
• باید امکان مشارکت نخبگان، مهاجرت علمی، و جریان آزاد ایدهها وجود داشته باشد،
• و مهمتر از همه، باید فرهنگ آزمونوخطا، شفافیت علمی، و نوآوری مستمر نهادینه شده باشد.- هیچ کشوری بدون این زیرساختها، صرفاً با سرمایهگذاری یا واردات سختافزار، نمیتواند به سطحی از هوش مصنوعی برسد که در رقابت جهانی تعیینکننده باشد. هوش مصنوعی، برخلاف بمب، محصول یک اکوسیستم است، نه یک پروژهی مهندسی بسته. به همین دلیل است که کشوری مانند ایران، حتی با استعدادهای فراوان، در غیاب یک نظام باز پژوهش و داده و مشارکت جهانی، نمیتواند در رقابت AI پیشرو باشد.[منبع]
سر کلاس تاریخ علم، استاد درس میگفت: جز استثنائات معدودی در تاریخ، علم همیشه در آزادی پیشرفت کرده است.
لب مطلب را بگویم و تمام. هوش مصنوعی جعبهٔ پاندورایی است که به دست اپیمتههای ستمگر و سنگدلی افتاده که به هیچ اصل اخلاقی پایبند نیستند. به سختی میتوان با این شرایط به برابری و عدالت امیدی داشت.