استفاده از مدل‌های OpenAI برای اهداف نظامی

نویسنده مطلب : مدیر سیستم
Apr 16, 2024
گروه خبری : اخبار فناوری
25
+ 0 | - 0

استفاده از مدل‌های OpenAI برای اهداف نظامی

The Intercept در هفته گذشته یک خبر در مورد مایکروسافت را افشا کرد. گویا در تاریخ اکتبر 2023، Microsoft Azure یک نسخه خود از هوش مصنوعی DALL-E که یک هوش مصنوعی ساخت عکس است و توسط OpenAI ساخته شده را به ارتش ایالات متحده پیشنهاد کرد. در یک سمینار آموزشی وزارت دفاع که با موضوع “سواد هوش مصنوعی” ارائه شده بود، پیشنهاد دادند که DALL-E در آموزش ابزارهای جنگی از طریق شبیه سازی به آن‌ها کمک کند.

هدف مایکروسافت از این اقدام

گویا هدف مایکروسافت از این اقدام این بود که هوش مصنوعی DALL-E برای تقویت برنامه‌های آموزشی نظامی استفاده شود؛ به‌خصوص در زمینه‌هایی که شبیه‌سازی میدان نبرد لازم است. از این پیشنهاد می‌توان این‌طور برداشت کرد که هوش مصنوعی می‌تواند در محیط‌های نظامی کاربرد داشته باشد؛ اما OpenAI تاکید کرده که از فناوری‌هایش برای ساخت سلاح استفاده نخواهد شد. این بیانیه اشاره به جمله معروف OpenAI دارد که زیر لوگو آن نوشته شده و ماموریت شرکت را نمایش می‌دهد:

اطمینان حاصل کنید که هوش عمومی مصنوعی (AGI) به نفع بشریت باشد.”

 

کاربرد هوش مصنوعی OpenAI برای اهداف نظامی

در ارائه‌ای که صورت گرفته جزئیاتی در مورد نحوه استفاده وزارت دفاع از هوش مصنوعی برای برای انواع مختلفی از وظایف مربوط به یادگیری ماشینی (ML) از جمله تحلیل محتوا و دستیارهای مجازی دیده می‌شود. همچنین اشاره شده که هوش مصنوعی DALL-E برای آموزش سیستم مدیریت نبرد به کار می‌رود.  به طور کلی این بیانیه نشان می دهد که فناوری OpenAI و یا در کل هوش مصنوعی چگونه می‌تواند در زمینه‌های نظامی به کار رفته شود اما هدف این شرکت ها این است که فناوری به گونه‌ای باشد که به نفع بشر تمام شود. این جمله می‌تواند نشان دهنده تناقض بین اهداف نظامی و ماموریت اخلاقی این شرکت باشد.

نگرانی عمومی بابت استفاده از فناوری OpenAI در بخش نظامی

افشای این اطلاعات باعث سردرگمی بین عموم مردم شده است. چون از طرفی الان افشا شده که هوش مصنوعی OpenAI و درکل فناوری آن قرار است برای استفاده نظامی به کار رفته شود و از طرف دیگر OpenAI در راهنمای استفاده آورده و تاکید داشته که مدل‌های آن نباید برای توسعه نظامی به کار روند.

جالب اینجاست که در ماه ژانویه، The Intercept متوجه شد که کلماتی مانند “نظامی” و “جنگ افزار” از این صفحه حذف شده است و الان فقط استفاده از خدمات OpenAI برای “آسیب رساندن به خود یا دیگران” منع شده است. وجود چنین تغییراتی از سمت OpenAI موجب بروز نگرانی‌هایی برای شده است و این سوال را مطرح می‌کند که آیا OpenAI همچنان به اصول اخلاقی خود پایبند خواهد بود یا خیر.