توهم هوش مصنوعی (AI-Hallucination)
معرفی مقوله توهم هوش مصنوعی (AI-Hallucination) شامل معنی آن، علل بوجود آمدن توهم در هوش مصنوعی، نمونهها، پیامدها و روش کاهش توهمات توسط هوش مصنوعی در این نوشته مورد بررسی قرار گرفته است.
فهرست مطالب
مقدمه
هوش مصنوعی (AI) در سالهای اخیر پیشرفتهای چشمگیری داشته اما بدون چالش نبوده است. یکی از این چالشها پدیدهای به نام “توهم هوش مصنوعی” (AI-Hallucination) نام دارد. این اصطلاح به مواردی اشاره دارد که در آن سیستمهای هوش مصنوعی خروجیهایی تولید میکنند که از نظر واقعی نادرست، بیمعنی یا نامرتبط با زمینه داده شده هستند. بیایید عمیقتر به این موضوع بپردازیم که توهم هوش مصنوعی چیست، چرا رخ میدهد و چه پیامدهایی دارد.
وقتی سیستمهای هوش مصنوعی خروجیهایی تولید میکنند که از نظر واقعی نادرست، بیمعنی یا نامرتبط با زمینه داده شده هستند، به این حالت توهم هوش مصنوعی (AI-Hallucination) گفته میشود (IBM,n.d)
توهم هوش مصنوعی چیست؟
توهم هوش مصنوعی زمانی رخ میدهد که یک مدل زبانی بزرگ (LLM) یا سایر سیستمهای هوش مصنوعی، خروجیهایی تولید میکنند که با واقعیت یا دادههای ورودی همخوانی ندارند. این خروجیها میتوانند از نادرستیهای جزئی تا اطلاعات کاملاً ساختگی را در برگیرد.. به عنوان مثال، یک چتبات هوش مصنوعی ممکن است روایتی دقیق اما کاملاً خیالی از یک رویداد ارائه دهد، یا یک سیستم بینایی کامپیوتری ممکن است اشیایی را شناسایی کند که در تصویر وجود ندارند.
علل توهم هوش مصنوعی
چندین عامل باعث شکلگیری توهم هوش مصنوعی میشوند:
محدودیت دادههای آموزشی: مدلهای هوش مصنوعی بر روی مجموعه دادههای وسیعی آموزش میبینند، اما این مجموعه دادهها میتوانند ناقص، دارای سوگیری یا خطا باشند. اگر دادههای آموزشی نمایانگر دنیای واقعی نباشند، هوش مصنوعی ممکن است خروجیهایی تولید کند که این نادرستیها را منعکس نماید.
پیچیدگی مدل: مدلهای بسیار پیچیده گاهی اوقات میتوانند دادههای آموزشی را بیش از حد تطبیق دهند، که منجر به خروجیهایی میشود که بیش از حد خاص آن مجموعه آموزشی هستند و نمیتوان آنها را به عنوان ورودیهای جدید قابل تعمیم در نظر گرفت.
سوگیری در دادهها: اگر دادههای آموزشی حاوی سوگیری باشند، مدل هوش مصنوعی میتواند این سوگیری را در خروجیهای خود تکرار و حتی تقویت کند. این مقوله میتواند منجر به توهماتی شود که سوگیری اجتماعی یا فرضیات نادرست را منعکس نماید.
حملات خصمانه: مدلهای هوش مصنوعی میتوانند در برابر حملات خصمانه آسیبپذیر باشند، به شکلی که ورودیهای مخرب برای فریب مدل به تولید خروجیهای نادرست طراحی شدهاند. این حملات میتوانند باعث توهم هوش مصنوعی با تفسیر نادرست دادههای ورودی شوند.
نمونههای توهم هوش مصنوعی
توهم هوش مصنوعی میتواند به روشهای مختلف در برنامههای متفاوت ظاهر شود:
چتباتها: چتباتهای تولیدی هوش مصنوعی، مانند ChatGPT، ممکن است اطلاعاتی که به نظر درست میآیند اما در حقیقت نادرست هستند را تولید کند. به عنوان مثال، یک چتبات ممکن است رویدادهای تاریخی را از خود بسازد یا توضیحات علمی نادرست ارائه دهد.
بینایی کامپیوتری: در بینایی کامپیوتری، توهم میتواند زمانی رخ دهد که سیستم اشیایی را که در تصویر وجود ندارند شناسایی کند. این ایراد به دلیل حملات خصمانه یا تفسیر نادرست الگوهای بصری رخ میدهد.
بهداشت و درمان: مدلهای هوش مصنوعی که در بهداشت و درمان استفاده میشوند ممکن است شرایط پزشکی را بر اساس دادههای آموزشی دارای سوگیری یا ناقص، به درستی تشخیص ندهند. به عنوان مثال، یک سیستم هوش مصنوعی ممکن است یک ضایعه خوشخیم را به عنوان بدخیم شناسایی کند، که منجر به تجویز روشهای پزشکی غیرضروری گردد.
پیامدهای توهم هوش مصنوعی
پیامدهای توهم هوش مصنوعی به ویژه در برنامههای حیاتی، قابل توجه هستند که در ادامه به برخی از آنها اشاره شده است:
اطلاعات نادرست: توهمات تولید شده توسط هوش مصنوعی منجر به گسترش اطلاعات نادرست میشود. اگر سیستمهای هوش مصنوعی اطلاعات نادرست در مورد رویدادهای جاری یا حقایق علمی ارائه دهند، ممکن است کاربران را گمراه کند و اعتماد به فناوریهای هوش مصنوعی را تضعیف نماید.
خطرات بهداشتی: تشخیصهای پزشکی نادرست یا توصیههای درمانی غلط از سیستمهای هوش مصنوعی پیامدهای جدی برای سلامت افراد دارد. اطمینان از قابلیت صحت و دقت هوش مصنوعی در بهداشت و درمان برای جلوگیری از آسیب احتمالی به بیماران ضروری است.
نگرانیهای اخلاقی: توهمات هوش مصنوعی که سوگیری موجود در دادههای آموزشی را منعکس میکنند میتوانند این سوگیری اجتماعی را تکرار و تقویت کنند. این عامل، نگرانیهای اخلاقی در مورد عدالت و شمولیت سیستمهای هوش مصنوعی را برانگیخته میکند.
کاهش توهم هوش مصنوعی
پرداختن به توهم هوش مصنوعی نیاز به یک رویکرد چندوجهی دارد:
بهبود دادههای آموزشی: اطمینان از اینکه مجموعه دادههای آموزشی جامع، نمایانگر و عاری از سوگیری هستند ضروری است. این رویکرد شاید به کاهش احتمال توهمات هوش مصنوعی کمک کند.
اعتبارسنجی مدل: اعتبارسنجی و آزمایش دقیق مدلهای هوش مصنوعی قادر است به شناسایی و کاهش توهمات کمک کند. این رویکرد شامل استفاده از مجموعه دادههای آزمایشی متنوع و چالشبرانگیز برای ارزیابی عملکرد مدل است.
مقاومت در برابر حملات خصمانه: توسعه تکنیکهایی برای مقاومتر کردن مدلهای هوش مصنوعی در برابر حملات خصمانه میتواند به جلوگیری از توهمات ناشی از ورودیهای مخرب کمک کند.
شفافیت و توضیحپذیری: افزایش شفافیت و توضیحپذیری (explainability) مدلهای هوش مصنوعی میتواند به کاربران کمک کند تا بفهمند چگونه خروجیها تولید میشوند و توهمات احتمالی را شناسایی کنند. این رویکرد نیز قادر است اعتماد لازم را در کاربران ایجاد کرده و تصمیمگیری بهتر را تسهیل نماید.
نتیجهگیری
توهم هوش مصنوعی (AI-Hallucination) یک چالش پیچیده و چندوجهی است که نیاز به تحقیق و توسعه مداوم برای پرداختن به آن دارد. با درک علل و پیامدهای این نوع توهم و با اجرای راهبردهایی برای کاهش آن، میتوانیم قابلیت اطمینان و اعتماد به سیستمهای هوش مصنوعی را بهبود بخشیم. همانطور که هوش مصنوعی به تکامل خود ادامه میدهد، پرداختن به توهم برای بهرهبرداری کامل از پتانسیل آن در حالی که خطرات را به حداقل میرساند، ضروری خواهد بود.
منابع:
What are AI hallucinations? | IBM. (n.d.). https://www.ibm.com/topics/ai-hallucinations