[ad_1]
مدل XAI AI اطلاعات دروغین را در روز چهارشنبه به مدت چند ساعت درباره ادعا “نسل کشی سفید” در آفریقای جنوبی پخش کرد. همانطور که شرکت الون مسک اکنون اعلام کرد ، “تغییر غیرمجاز” توسط سیستم ایجاد شد. XAI با انتشار سریع سیستم در GitHub ، از پیشرفت های بهتر و شفافیت بیشتر ، از پیشرفت ، از جمله موارد دیگر ستایش کرد.
کاربران این اختلال را در سوالات مختلف در مورد Chatbot پیدا کرده اند. اظهارات دروغین بدون هیچ ارتباطی با سوال ظاهر شد. بعد از چند ساعت مشکل برطرف شد و گروک دوباره به سؤالات پاسخ داد.
نقض دستورالعمل های داخلی
در بیانیه ای ، XAI از نقض “دستورالعمل های داخلی و ارزش های اساسی” صحبت می کند. این شرکت نگفت که چگونه ممکن است یک فرد غیرمجاز دسترسی گسترده ای به سیستم داشته باشد و در ابتدا می تواند مورد توجه قرار گیرد.
با این حال ، با یک تیم نظارت 24/7 ، می خواهد اطمینان حاصل کند که چیزی شبیه به این خود را تکرار نمی کند. این مکمل مکانیسم های اتوماتیک موجود برای تشخیص تغییرات است. علاوه بر این ، باید امتحانات اضافی نیز انجام شود تا کارمندان بدون بررسی نتوانند تغییر را تغییر دهند.
حادثه مشابه در فوریه 2024
سریع سیستم منتشر شده توسط XAI در GitHub در انواع مختلف اساساً حاوی دستورالعمل های فنی به هوش مصنوعی است ، زیرا باید سوالات کاربران را اداره کند. تأثیر بر محتوا در آنجا قابل تعیین نیست. XAI می نویسد با انتشار ، شما می خواهید اعتماد به Grok را افزایش دهید.
در اوایل فوریه 2024 ، یک حادثه مشابه رخ داد که یک کارمند سابق Openai تغییراتی در سریع سیستم ایجاد کرد. اینها باعث شد كه گروك منابع را نادیده بگیرد كه الون مسك و دونالد ترامپ گسترش اطلاعات دروغین را متهم كردند.
(سیا)
[ad_2]
لینک منبع