قانون گذاران نیویورک در برابر مشاوره های خطرناک هوش مصنوعی می ایستند
در روزهایی که چت بات های هوش مصنوعی همه جا حضور دارند و از پاسخ به ایمیل گرفته تا تحلیل داده ها را انجام می دهند، حالا وقت آن رسیده که کمی جلوی شور و هیجان غیرمنطقی را بگیریم. تازه ترین خبر از نیویورک می گوید قانون گذاران این ایالت تصمیم گرفته اند ارائه مشاوره حقوقی و پزشکی توسط چت بات های هوش مصنوعی را ممنوع کنند. این تصمیم با هدف حفاظت از مردم در برابر اطلاعات نادرست یا خطرناک گرفته شده؛ چون خب، هوش مصنوعی همیشه هم بی خطا نیست!
دغدغه اصلی سیاست گذاران این است که مردم ممکن است به پاسخ های هوش مصنوعی به عنوان حرف نهایی اعتماد کنند، در حالی که هیچ تضمینی برای درستی آن وجود ندارد. مخصوصاً وقتی پای موضوعاتی حساس مثل درمان، دارو یا پرونده های حقوقی وسط باشد.
مطالعه مقاله قبلی در دسته بندی علم و دانش با عنوان بازی کردن دووم با رایانه زیستی مبتنی بر سلول مغز انسان.
چرا این قانون در نیویورک مطرح شد؟
ایالت نیویورک با رشد سریع پلتفرم های هوش مصنوعی، شاهد افزایش استفاده کاربران از چت بات ها برای گرفتن مشاوره تخصصی بوده است. اما مشکل اینجاست که این نوع مشاوره ها، به ویژه در حوزه های حقوقی و پزشکی، می توانند آسیب زا باشند. یک پاسخ اشتباه از سمت چت بات ممکن است باعث شود فردی درمان اشتباهی بگیرد یا تصمیم حقوقی غلطی اتخاذ کند.
به همین دلیل نمایندگان مجلس نیویورک لایحه ای را پیشنهاد داده اند که بر اساس آن، ارائه هر گونه مشاوره حقوقی یا پزشکی توسط چت بات های هوش مصنوعی، بدون نظارت یا تأیید متخصص انسانی، تخلف محسوب شود.
نظارت انسانی هنوز ضروری است
نیویورک تنها ایالتی نیست که نگران تبعات اجتماعی و اخلاقی هوش مصنوعی است. در سطح جهانی، بسیاری از کشورها در حال تدوین مقررات مشابهی هستند تا جلوی گسترش بی رویه استفاده از فناوری های گفت وگومحور در حوزه های حساس را بگیرند. طبق لایحه جدید، شرکت هایی که از چت بات هوش مصنوعی استفاده می کنند موظف اند هشدار واضحی به کاربران نشان دهند که “این ابزار جایگزین پزشک یا وکیل نیست”.
در واقع هدف قانون، دشمنی با فناوری نیست؛ بلکه ایجاد تعادل بین پیشرفت تکنولوژی و حفظ امنیت کاربران است. اینجاست که نقش نظارت انسانی پررنگ تر می شود و اهمیت حفظ مرز میان ابزار کمکی و مشاور واقعی روشن تر می گردد.
واکنش شرکت های فناوری به محدودیت ها
البته همه موافق این تصمیم نیستند. برخی از شرکت های فناوری می گویند این ممنوعیت می تواند جلوی نوآوری را بگیرد و مانع رشد بازار خدمات چت بات های هوش مصنوعی شود. از نگاه آن ها، هوش مصنوعی صرفاً ابزاری برای تسهیل دسترسی به اطلاعات است و محدود کردن آن بیش از حد، کاربران را از مزایای بزرگ این فناوری دور می کند.
با این حال، بسیاری از کارشناسان حوزه اخلاق فناوری تاکید دارند که بهتر است قبل از هر چیز، چارچوب های مشخص و شفاف برای استفاده از مدل های زبانی در موقعیت های حساس تدوین شود. چون هیچ کس دلش نمی خواهد تصمیم حیاتی اش را بر اساس پاسخ اشتباه یک الگوریتم بگیرد!
در نهایت، به نظر می رسد این تصمیم نیویورک می تواند الگویی برای دیگر ایالت ها و حتی کشورها باشد تا به موضوع مسئولیت پذیری در هوش مصنوعی نگاه جدی تری داشته باشند.
برای دریافت جدیدترین اخبار تکنولوژی با مجله هوش مصنوعی با ما همراه باشید.
نظرات کاربران