وقتی چت جی پی تی دچار خطای ذهنی می شودچت جی پی تی در برخی سناریو ها دچار خطا های شناختی انسانی می شود؛ از اعتماد به نفس کاذب تا خطای قمارباز، هرچند در منطق و ریاضی دقیق عمل می کند. - به گزارش سرویس علم و فناوری تابناک به نقل از سای تک دیلی، پرسش کلیدی این است: آیا می توان به هوش مصنوعی بیش از انسان اعتماد کرد؟ یافته های یک تحقیق جدید نشان می دهد که پاسخ همیشه مثبت نیست. پژوهشگران دریافته اند که ChatGPT، یکی از پیشرفته ترین مدل های هوش مصنوعی حال حاضر، در تصمیم گیری گاهی همان اشتباهاتی را تکرار می کند که انسان ها نیز مرتکب می شوند. در برخی موقعیت ها، این مدل به خطاهای شناختی شناخته شده ای مانند اعتماد به نفس بیش ازحد یا خطای داغ دست (Hot Hand Fallacy) دچار می شود. هرچند در دیگر موقعیت ها، رفتارش کاملاً متفاوت از انسان است؛ به عنوان مثال، در برابر خطای نادیده گرفتن نرخ پایه یا مغلطهٔ هزینهٔ ازدست رفته مقاومت نشان می دهد. هوش مصنوعی؛ دستیاری هوشمند با ایرادهای انسانی در این تحقیق، ChatGPT در معرض 18 آزمون مربوط به انواع سوگیری های شناختی قرار گرفت. نتایج به دست آمده قابل تأمل اند: - هوش مصنوعی در دام تصمیم گیری های انسانی می افتد – چت جی پی تی در حدود نیمی از آزمون ها به سوگیری هایی نظیر اعتماد به نفس بیش ازحد، پرهیز از ابهام و خطای هم نشینی (یا همان مسئلهٔ لیندا ) دچار شد. برچسب ها: هوش مصنوعی - اعتماد به نفس - انسان - چت جی پی تی - اعتماد - مصنوعی - خطای |
آخرین اخبار سرویس: |