قانونگذاری هوش مصنوعی در چین با تمرکز بر کنترل محتوا/ شرکتهای فعال باید مجوز بگیرند
تاریخ انتشار: ۲۰ تیر ۱۴۰۲ | کد خبر: ۳۸۱۹۳۷۲۸
به گزارش خبرنگار خبرگزاری علم و فناوری آنا، چین قرار است قوانینی برای هوش مصنوعی مولد وضع کند؛ زیرا پکن به دنبال ایجاد تعادل در تشویق شرکتهای محلی به توسعه فناوریهای انقلابی در مقابل تمایل آن به کنترل محتوا است.
به گفته دو فرد نزدیک به رگولاتورها، اداره فضای مجازی چین، ناظر قدرتمند اینترنت، قصد دارد سیستمی ایجاد کند که شرکتها را مجبور میکند قبل از انتشار سیستمهای هوش مصنوعی مولد مجوز بگیرند.
بیشتر بخوانید:
اخباری که در وبسایت منتشر نمیشوند!
قانونگذاری هوش مصنوعی با تمرکز بر کنترل محتوا
چین به دنبال پاسخگویی به ظهور سیستمهای هوش مصنوعی مولد است که در پاسخ به درخواستهای ساده به سرعت متن، تصاویر و سایر محتواهای انسانی را ایجاد میکنند.طبق پیش نویس قوانین ماه آوریل، محتواها نباید حاوی چیزی باشد که قدرت دولتی را زیر پا بگذارد، ازسرنگونی نظام سوسیالیستی حمایت کند، کشور را تحریک کند یا وحدت ملی را تضعیف کند. دو نفر دیگر از نزدیکان به رگولاتورها گفتند که شرکتهایی مانند بایدو و علی بابا که امسال برنامههای هوش مصنوعی مولد را عرضه کردند، در چند ماه گذشته با تنظیم کنندهها در تماس بودهاند تا اطمینان حاصل کنند که هوش مصنوعی آنها قوانین را نقض نمیکند.
ژوانگ رونگ ون، رئیس اداره فضای سایبری چین (CAC) اخیراً گفت که این سازمان باید اطمینان حاصل کند که هوش مصنوعی قابل اعتماد و قابل کنترل است، زیرا پکن نگران دادههای استفاده شده توسط هوش مصنوعی است.
آنجلا ژانگ، دانشیار حقوق در دانشگاه هنگ کنگ گفت: اقدامات نظارتی چین در درجه اول بر کنترل محتوا متمرکز است. دولتها و مقامات دیگر در حال تلاش برای وضع قوانین علیه سوء استفادههای احتمالی از این فناوری هستند.
نظارت بر دادههای آموزش مدلهای هوش مصنوعی
اتحادیه اروپا برخی از سختترین قوانین را در جهان پیشنهاد داده است که باعث اعتراض شرکتها و مدیران اجرایی منطقه شده است، در حالی که واشنگتن در حال بحث در مورد اقداماتی برای کنترل هوش مصنوعی است و بریتانیا بازبینی قوانین را آغاز کرده است.
پیشنویس مقررات آوریل در چین الزامات دادههایی را که شرکتهای فناوری برای آموزش مدلهای هوش مصنوعی مولد با تقاضای خاص برای اطمینان از «صحت، دقت، عینیت و تنوع» به کار میبرند، تعیین کرده است. این الزام نشان میدهد که چین مسیری مشابه اروپا را در پیش گرفته است؛ جایی که کیفیت دادههای مورد استفاده برای آموزش مدلهای هوش مصنوعی یکی از حوزههای کلیدی بررسی نظارتی است.
مت شیهان، یکی از همکاران مؤسسه موقوفه کارنگی، گفت: با این حال، پکن نیاز خود را بسیار بالاتر قرار داده است. این بدان معنی است که شرکتهای چینی باید تلاش بیشتری برای فیلتر کردن نوع دادههای مورد استفاده برای آموزش هوش مصنوعی صرف کنند. با این حال، فقدان دادههای موجود متناسب با این خواستهها، به گلوگاهی تبدیل شده است که بسیاری از شرکتها را از توسعه و بهبود به اصطلاح مدلهای زبان بزرگ، فناوری زیربنایی چت باتهایی مانند «چت جیپیتی» و «گوگل بارد» محدود میکند.
مسئولیت محتوا با شرکتهای ارائه دهنده هوش مصنوعی است
هلن تونر، مدیر استراتژی و کمک هزینههای تحقیقاتی بنیادی در مرکز امنیت و فناوریهای نوظهور دانشگاه جورج تاون، گفت: کسب و کارها احتمالاً در مورد آنچه [هوش مصنوعی] میسازد محتاطتر و محافظه کارتر هستند، زیرا عواقب نقض قوانین میتواند شدید باشد.
به گفته تونر، مقامات چینی در پیش نویس مقررات خود اشاره کردند که گروههای فناوری که یک مدل هوش مصنوعی را تولید میکنند تقریباً به طور کامل مسئولیت هر محتوای ایجاد شده را بر عهده خواهند داشت، اقدامی که باعث میشود شرکتها کمتر تمایلی به عرضه مدلهای خود داشته باشند، زیرا ممکن است آنها مسئول مشکلات خارج از کنترل خود باشند.
انتهای پیام/
منبع: آنا
کلیدواژه: هوش مصنوعی چین قانون گذاری هوش مصنوعی مولد هوش مصنوعی مولد کنترل محتوا شرکت ها پیش نویس
درخواست حذف خبر:
«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را بهطور اتوماتیک از وبسایت ana.press دریافت کردهاست، لذا منبع این خبر، وبسایت «آنا» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۸۱۹۳۷۲۸ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتیکه در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.
خبر بعدی:
هوش مصنوعی راهی برای کلاهبرداری است!
به گزارش «تابنا:» به نقل از زومیت، بافت معتقد است تصاویر و ویدئوهایی که توسط هوش مصنوعی ساخته میشوند، بهحدی قانعکننده هستند که دیگر واقعی یا ساختگی بودن آنها را نمیتوان بهآسانی تشخیص داد.
بافت اعلام کرد که کلاهبرداران برای دریافت پول نقد از افراد، یک ویدئو با کمک فناوری دیپفیک از او ساخته بودند. او همچنین مانند سال گذشته هوش مصنوعی را به بمب اتم تشبیه کرد.
سرمایهگذار معروف آمریکایی از خطرناک بودن هوش مصنوعی صحبت میکند و این در حالی است که بافت قبل از انتشار ChatGPT از پتانسیل هوش مصنوعی تعریف میکرد.
مدیرعامل سرشناس برکشر هاتاوی پیشتر تأکید کرده بود که در زمینهی فناوری هوش مصنوعی متخصص نیست؛ اما اهمیت آن را هم انکار نخواهد کرد.