[ad_1]
مدل XAI AI اطلاعات دروغین را در روز چهارشنبه به مدت چند ساعت درباره ادعا “نسل کشی سفید” در آفریقای جنوبی پخش کرد. همانطور که شرکت الون مسک اکنون اعلام کرد ، “تغییر غیرمجاز” توسط سیستم ایجاد شد. XAI با انتشار سریع سیستم در GitHub ، از پیشرفت های بهتر و شفافیت بیشتر ، از پیشرفت ، از جمله موارد دیگر ستایش کرد.
کاربران این اختلال را در سوالات مختلف در مورد Chatbot پیدا کرده اند. اظهارات دروغین بدون هیچ ارتباطی با سوال ظاهر شد. بعد از چند ساعت مشکل برطرف شد و گروک دوباره به سؤالات پاسخ داد.
در بیانیه ای ، XAI از نقض “دستورالعمل های داخلی و ارزش های اساسی” صحبت می کند. این شرکت نگفت که چگونه ممکن است یک فرد غیرمجاز دسترسی گسترده ای به سیستم داشته باشد و در ابتدا می تواند مورد توجه قرار گیرد.
با این حال ، با یک تیم نظارت 24/7 ، می خواهد اطمینان حاصل کند که چیزی شبیه به این خود را تکرار نمی کند. این مکمل مکانیسم های اتوماتیک موجود برای تشخیص تغییرات است. علاوه بر این ، باید امتحانات اضافی نیز انجام شود تا کارمندان بدون بررسی نتوانند تغییر را تغییر دهند.
سریع سیستم منتشر شده توسط XAI در GitHub در انواع مختلف اساساً حاوی دستورالعمل های فنی به هوش مصنوعی است ، زیرا باید سوالات کاربران را اداره کند. تأثیر بر محتوا در آنجا قابل تعیین نیست. XAI می نویسد با انتشار ، شما می خواهید اعتماد به Grok را افزایش دهید.
در اوایل فوریه 2024 ، یک حادثه مشابه رخ داد که یک کارمند سابق Openai تغییراتی در سریع سیستم ایجاد کرد. اینها باعث شد كه گروك منابع را نادیده بگیرد كه الون مسك و دونالد ترامپ گسترش اطلاعات دروغین را متهم كردند.
(سیا)
[ad_2]
لینک منبع
سامسونگ اوایل همین ماه تو رویداد گلکسی آنپکد ۲۰۲۵، از سیستم عامل One UI 8…
قراره برای تریلر زیردریایی ۳۰ سالهی دنزل واشنگتون و جین هکمن یه دنباله ساخته بشه.…
[ad_1] بنیانگذاران Nvidia و مدیر عامل شرکت جنسن هوانگ در هفته آینده با نمایندگان بی…
[ad_1] گفته می شود که معیار جدید تمسخر مدل های هوش مصنوعی را نشان می…
[ad_1] برخی از کشورهای عضو اتحادیه اروپا امیدوارند که حداقل استفاده از آیین نامه هوش…
[ad_1] پرونده های بیمار الکترونیکی: افراد بیمه شده آگاه ، میزان تناقض رشد می کند…