Web Analytics Made Easy - Statcounter
به نقل از «خبرگزاری برنا»
2024-05-01@23:03:41 GMT

ممنوعیت استفاده کارمندان سامسونگ از ChatGPT

تاریخ انتشار: ۱۴ اردیبهشت ۱۴۰۲ | کد خبر: ۳۷۶۷۳۰۰۱

ممنوعیت استفاده کارمندان سامسونگ از ChatGPT

شرکت سامسونگ استفاده کارمندان خود از ابزارهای هوش مصنوعی مولد را از طریق رایانه‌های این شرکت محدود کرد.

خبرگزاری برنا؛ شرکت سامسونگ استفاده کارمندان خود از ابزارهای هوش مصنوعی مولد را از طریق رایانه‌های این شرکت محدود کرد. بر اساس گزارش‌های منتشر شده، برخی از کارکنان این شرکت اخیراً کدهای حساس و محرمانه متعلق به شرکت را در «ChatGPT» آپلود کرده‌اند.

بیشتر بخوانید: اخباری که در وبسایت منتشر نمی‌شوند!

بارگذاری داده‌های حساس سامسونگ در پلتفرم یاد شده، سبب افزایش نگرانی مدیران این شرکت در مورد نشت اطلاعات حیاتی شده است.

از همین رو، سامسونگ به کارمندان خود اعلام کرد که حتی خارج از محیط کاری نیز هنگام استفاده از پلتفرم‌هایی چون «ChatGPT»، محتاط باشند و هیچ گونه اطلاعات شخصی یا شرکتی را در این سرویس‌ها وارد نکنند.

این شرکت علی‌رغم اعمال محدودیت‌های یاد شده، به دنبال راهی است که بتواند از هوش مصنوعی مولد به‌طور ایمن برای افزایش بهره‌وری و کارایی کارکنان خود استفاده کند.

انتهای پیام/

آیا این خبر مفید بود؟

نتیجه بر اساس رای موافق و رای مخالف

منبع: خبرگزاری برنا

کلیدواژه: رایانه سامسونگ علم و فناوری هوش مصنوعی کارمندان ChatGPT

درخواست حذف خبر:

«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را به‌طور اتوماتیک از وبسایت www.borna.news دریافت کرده‌است، لذا منبع این خبر، وبسایت «خبرگزاری برنا» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۷۶۷۳۰۰۱ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتی‌که در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.

با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.

خبر بعدی:

تحقیقات اتحادیه اروپا از متا بر سر کنترل اطلاعات غلط

رگولاتورهای اتحادیه اروپا قرار است تحقیقاتی را درباره عملکرد شرکت متا در مقابله با نشر اطلاعات غلط در پلتفرم‌های شبکه اجتماعی این شرکت، آغاز کنند.

به گزارش ایسنا، روزنامه فایننشیال تایمز به نقل از دو منبع آگاه نوشت: رگولاتورهای اروپایی گمان می‌کنند که مدیریت محتوای شرکت آمریکایی متا، برای متوقف کردن نشر تبلیغات سیاسی که فرآیندهای انتخاباتی را در معرض خطر تضعیف قرار می‌دهد، کافی نبوده است.

اما انتظار نمی‌رود کمیسیون اروپا در بیانیه خود، به روسیه اشاره کند و تنها به دستکاری اطلاعات توسط عوامل خارجی، اشاره خواهد کرد. شرکت متا و کمیسیون اروپا در این باره توضیحی ندادند.

پیش از این گزارش شده بود شرکت متا که مالک فیس‌بوک است، تیمی برای مقابله با نشر اطلاعات غلط و سوءاستفاده از هوش مصنوعی در آستانه انتخابات پارلمانی اتحادیه اروپا در ژوئن، تشکیل خواهد داد. مارکو پانچینی، مدیر امور اتحادیه اروپای متا در یک پست وبلاگ اعلام کرد تا نزدیک شدن به زمان انتخابات، ما مرکز فعالیت‌های انتخاباتی را برای شناسایی تهدیدهای احتمالی و خنثی کردن فوری آنها، فعال خواهیم کرد.

بر اساس گزارش رویترز، ده‌ها کشور در سراسر جهان از جمله انگلیس، اتریش و گرجستان، رهبران جدیدی را در سال ۲۰۲۴ انتخاب می‌کنند. انتخابات‌های پارلمان اروپا هم در ژوئن برگزار می‌شود. اما نگرانی‌هایی نسبت به مداخله در انتخابات و انتشار محتوای گمراه‌کننده با کمک هوش مصنوعی،‌ وجود دارد.

رشد سریع هوش مصنوعی مولد که می‌تواند متن، تصاویر و ویدئو را در چند ثانیه تولید کند، این واهمه را ایجاد کرده که فناوری جدید ممکن است امسال، برای مختل شدن انتخابات در سراسر جهان مورد استفاده قرار گیرد.

انتهای پیام

دیگر خبرها

  • سامسونگ در فصل اول ۲۰۲۴ به‌لطف هوش مصنوعی، سود خود را ۱۰ برابر کرد
  • بخشنامه ممنوعیت دریافت هر نوع هدیه توسط کارکنان دولت به دستگاه‌های اجرایی ابلاغ شد
  • استخراج الماس از گل صدتومانی + عکس
  • گشتی در اقتصاد جهان | افزایش سود سامسونگ با هوش مصنوعی
  • ویژگی جدیدی که به ChatGPT اضافه شد | روبات هوش مصنوعی به چه چیزی مجهز شد؟
  • اپل کارمندان هوش مصنوعی گوگل را دزدید
  • ممنوعیت نقل و انتقال واحدهای طرح نهصمت ملی مسکن 
  • تحقیقات اتحادیه اروپا از متا بر سر کنترل اطلاعات غلط
  • ChatGPT در تشخیص آبسه مغزی شکست خورد
  • هوش مصنوعی ChatGPT دادگاهی می‌شود!