چت بات های همدم در امریکا دقیقتر زیر ذرهبین میرود_خبررسان
[ad_1]
به گزارش خبررسان
قانونی در ایالت کالیفرنیا که قرار است منفعت گیری از رباتهای چت همدم مبتنی بر هوش مصنوعی را تنظیم کند، در اغاز تصویب قرار دارد. در صورت امضای گورنر Gavin Newsom، این قانون که با گفتن SB 243 شناخته میشود، از اول ژانویهٔ ۲۰۲۶ به اجرا درخواهد آمد و کالیفرنیا را به نخستین ایالتی تبدیل میکند که الزامات قانونی برای چتباتهای همراه و دوستگونه هوش مصنوعی وضع میکند.
به گزارش قسمت حقوقی رسانه اخبار تکنولوژی تکنا، این قانون شرکتهای اراعهدهنده این رباتها را موظف میکند تا پروتکلهای ایمنی مشخصی را پیاده کنند و در صورتی که چتباتها نتوانند آن استانداردها را برآورده کنند، مسئولیت قانونی داشته باشند.
مقصد مهم این قانون، جلوگیری از همچنانگی گفتگوهایی با چتباتهای همدم در عرصههای تفکرات خودکشی، صدمه به خود یا محتوای جنسی آشکار است. مطابق تعریف قانون، چتبات همدم به سامانه هوش مصنوعی زبانی حرف های میشود که جوابهای انسانی و تطبیقی اراعه میدهد و میتواند در طول زمان رابطهای با کاربر شکل دهد، بهاختصاصی برای فراهم نیازهای اجتماعی او.
یکی از الزامهای مهم این قانون، ارسال هشدارهای مکرر به کاربران است. برای کاربران خردسال (minors)، پلتفرمها باید هر سه ساعت یکبار یادآوری کنند که کاربر در حال گفتگو با یک هوش مصنوعی است، نه یک انسان، و این پیشنهاد را بدهند که کاربر باید وقفهای در گفتگو داشته باشد. علاوه بر این، شرکتهای اراعهدهنده چتباتهای همدم باید سالانه گزارشی انتشار کنند که شامل تعداد دفعاتی است که سامانه تفکرات خودکشی را در کاربران تشخیص داده یا خود چتبات نوشته خودکشی را به گفتگو کشیده است. این گزارشها باید بدون افشای هویت کاربران به «دفتر پیشگیری از خودکشی» اراعه شوند و دفتر وابسته آنها را در وبسایت خود انتشار کند.
این قانون این چنین از کاربران حقیقی حمایتمیکند و به آنها امکان میدهد تا علیه شرکتهای اراعهکننده چتبات اقامه دعوی کنند. این حمایتشامل خواست توقف فعالیت، خسارات واقعی یا تا سقف ۱۰۰۰ دلار به ازای هر تخلف و هزینههای وکالت است.
متن قانون اولیه SB 243 دارای بندهایی می بود که الزامات نیرومندتری در عرصه جلوگیری از طراحیهای تشویقی متغیر «variable reward» یا الگوهای طراحی اعتیادآور داشتند و شرکتها را موظف به پیگیری و گزارش دقیقتری از وقتی میکردند که چتبات گفتگوهای مبتنی بر خودکشی را اغاز کرده است. ولی این بندها در طول روال اصلاح قانون تضعیف شدند یا حذف گردیدند. در برخی اصلاحات، الزام به پیگیری و گزارش تعداد دفعاتی که چتباتها خود آغازگر نوشته خودکشی بودهاند نیز حذف شد.
طراحان این قانون اعتقاد دارند که مثالهای تراژیک، همانند خودکشی نوجوان کالیفرنیایی Adam Raine بعد از گفتگوهای طویل با ChatGPT و نیز مورد نوجوان ۱۴ ساله در فلوریدا که رابطه احساسی، عاطفی و جنسی ناسالمی با یک چتبات برقرار کرده می بود، نشان خواهند داد که این چنین سامانههایی بدون نظارت میتوانند خطرات جدی تشکیل کنند. در یک مورد، مادر نوجوان فلوریدایی، ادعا کرده که شرکت اراعهدهنده چتبات از ویژگیهای طراحی اعتیادآور و محتواهای نامناسب منفعت گیری کرده و حتی چتبات به وی حرف های بوده «بیا به خانهام» درست چند ثانیه قبل از آنکه وی دست به عمل نهایی بزند.
بهرغم مخالفت برخی گروهها با این قانون، طرفداران آن استدلال میکنند که SB 243 تعادلی بین نوآوری در فناوری و محافظت از سلامت روان و ایمنی کاربران، خصوصاً کاربران نوجوان تشکیل میکند. سناتور Padilla پافشاری کرده است که مقصد قانون این نیست که نوآوری را متوقف کند، بلکه آن را با حفاظت از کاربران صدمهپذیر همراه سازد.
در سطح نظارتی گستردهتر، کمیسیون تجارت فدرال (FTC) نیز در همین بازه وقتی تحقیقاتی را علیه شرکتهایی همانند OpenAI، Character.AI، Meta و Snap اغاز کرده است تا بازدید کند که شرکتها چه اقداماتی برای برسی ایمنی و پیشگیری از تأثیرات منفی این رباتها بر کودکان انجام دادهاند، و آیا والدین بهدرستی در جریان خطرات قرار گرفتهاند یا خیر. این عمل های قانونگذاری و نظارتی همزمان در پی افزایش نگرانیها درمورد پیامدهای روانی و خطرات احتمالی چتباتهای هوش مصنوعی مخصوصاً در بین کاربران نوجوان و افراد صدمهپذیر صورت گرفته است.
در کل، اگر گورنر Newsom قانون SB 243 را امضا کند، ایالت کالیفرنیا به نخستین حوزه قضایی در جهان تبدیل خواهد شد که قانون مشخصی برای چتباتهای همدم تصویب کرده و شرکتها را ملزم به پاسخگویی در روبه رو پیامدهای روانی گفتگوهای با هوش مصنوعی کرده است.
دسته بندی مطالب
اقتصاد
[ad_2]