اخیراً پژوهشهایی نشان دادهاند که مدلهای هوش مصنوعی مانند ChatGPT و Gemini ممکن است به پرسشهای حساس و خطرناک، نظیر روشهای خودکشی، پاسخهایی ارائه دهند که حتی شامل جزئیات روشهای خطرناک نیز باشد. این یافتهها نگرانیهایی را در خصوص استفاده از این مدلها در شرایط بحرانهای روانی ایجاد کرده است
جزئیات پژوهش و نگرانیهای موجود
پژوهشی که نتایج آن در مجله Psychiatric Services منتشر شده است، نشان میدهد که مدلهای هوش مصنوعی میتوانند به سوالات مرتبط با خودکشی پاسخهای مستقیم و حتی خطرناکی بدهند. این امر میتواند برای افرادی که در شرایط بحران روانی قرار دارند، خطرات جدی به همراه داشته باشد.
لزوم تقویت فیلترها و محدودیتهای امنیتی
تحقیقات نشان میدهد که ChatGPT و Gemini نسبت به سایر چتباتها پاسخهای پرخطرتری ارائه میدهند. با توجه به این موضوع، کارشناسان هشدار میدهند که مدلهای هوش مصنوعی باید محدودیتها و فیلترهای امنیتی قویتری داشته باشند تا از ارائه پاسخهای خطرناک جلوگیری شود.
ضرورت چارچوبهای قانونی و ایمنی
پژوهشگران همچنین تاکید دارند که با گسترش دسترسی به هوش مصنوعی، کشورهای مختلف باید چارچوبهای قانونی و ایمنی برای جلوگیری از خطرات احتمالی ایجاد کنند. این یافتهها میتواند مبنای سیاستگذاری برای هوش مصنوعی ایمن در بحرانهای روانی باشد.
منبع: عصرایران – زنگ خطر به صدا درآمد؛ پاسخ هوش مصنوعی به پرسشهای پرخطر
برچسبها: هوش مصنوعی، ChatGPT، Gemini، بحران روانی، سیاستگذاری هوش مصنوعی، فیلترهای امنیتی





