فناوری

۵ چیزی که نباید از هوش مصنوعی برای آن‌ها استفاده کنید

هوش مصنوعی می‌تواند زندگی را آسان‌تر کند، اما برخی کاربردها از خط قرمز عبور می‌کنند. در این مقاله توضیح می‌دهیم که چرا استفاده از هوش مصنوعی برای سلامت، آموزش، کدنویسی یا مشاوره ممکن است ضررش بیشتر از منفعتش باشد.

اکنون می‌توان گفت هوش مصنوعی تقریباً در همه‌چیز و همه‌جا حضور دارد. مولدهای هوش مصنوعی برای موسیقی، گروه‌های موسیقی مبتنی بر هوش مصنوعی را در اسپاتیفای به وجود آورده‌اند. هوش مصنوعی در ابزارهای درخواست شغل و حتی در جت‌های جنگنده F-16 کنترل‌شده توسط هوش مصنوعی که در نبردهای هوایی با انسان‌ها رقابت می‌کنند، به کار گرفته شده است. مردم از آن به شیوه‌های عجیب‌وغریب استفاده می‌کنند و گجت‌های عجیبی با قدرت هوش مصنوعی خلق شده‌اند. شبکه‌های اجتماعی ما پر از محتوای بی‌کیفیت تولیدشده توسط هوش مصنوعی شده‌اند و بسیاری از حساب‌هایی که این ویدئوها را تماشا می‌کنند، ممکن است ربات باشند. حالا دیگر افراد عادی باید بدانند چگونه متن، تصاویر و ویدئوهای تولیدشده توسط هوش مصنوعی را تشخیص دهند تا فریب نخورند. این وضعیت باعث شده بسیاری دست‌هایشان را بالا ببرند و بگویند اگر هوش مصنوعی واقعیت جدید است، چرا آن را در همه‌چیز به کار نبریم؟ ما کاملاً مخالف این دیدگاه هستیم. هر چقدر هم که هوش مصنوعی فراگیر شود، برخی موارد هستند که هرگز نباید به آن‌ها دست بزند.

ما از موضوعات واضح و جنجالی مثل سرقت آثار هنرمندان توسط شرکت‌های فناوری برای آموزش مدل‌های هوش مصنوعی مولد، بدون رضایت یا جبران مناسب، می‌گذریم. متأسفانه، متقاعد کردن شرکت‌های بزرگ یا عموم مردم درباره اشتباه بودن این مسائل دشوار است. در عوض، روی حوزه‌هایی تمرکز می‌کنیم که استفاده از هوش مصنوعی از نظر اخلاقی و معنوی مشکل‌ساز است یا خطر واقعی (چه جسمی و چه غیر آن) برای کاربران به همراه دارد. در ادامه، پنج کاربرد هوش مصنوعی را که فکر می‌کنیم هرگز نباید استفاده شوند، بررسی می‌کنیم.

۱. ساخت دیپ‌فیک از دیگران

وقتی دیپ‌فیک‌ها به شهرت رسیدند، تصور می‌شد بزرگ‌ترین خطرشان انتشار اطلاعات نادرست است. البته برخی از دیپ‌فیک‌ها برای جعل سخنان سیاستمداران استفاده شده‌اند، اما ۹۸٪ دیپ‌فیک‌ها برای تولید محتوای پورنوگرافیک بدون رضایت افراد ساخته می‌شوند. سال‌هاست که وب‌سایت‌هایی پر از محتوای پورنوگرافیک دیپ‌فیک با حضور سلبریتی‌ها و حتی افراد عادی وجود دارند. سرویس‌های پولی می‌توانند تصویر هر شخصی را با هزینه‌ای به محتوای پورنوگرافیک تبدیل کنند.

داستان‌های استفاده نادرست از این فناوری تکان‌دهنده است. مثلاً کانال‌های تلگرامی در کره جنوبی تصاویری از دانش‌آموزان (گاهی زیر سن قانونی) را به اشتراک می‌گذاشتند تا به تصاویر جنسی تبدیل شوند. یا زنی که سایتی را کشف کرد که او را در فانتزی‌های آزاردهنده جنسی نشان می‌داد، همراه با نام کاربری اینستاگرام و موقعیت مکانی‌اش. دیپ‌فیک‌های پورنوگرافیک برای ساکت کردن روزنامه‌نگاران و تحقیر سلبریتی‌ها استفاده شده‌اند. متأسفانه این داستان‌های نفرت‌انگیز بسیار رایج‌اند. خبر خوب این است که برخی وب‌سایت‌های بزرگ پورنوگرافیک دیپ‌فیک تعطیل شده‌اند و قوانینی برای مقابله با برخی کاربردهای دیپ‌فیک معرفی شده است. با این حال، ابزارهای ساخت دیپ‌فیک همیشه در دسترس‌اند.

امیدواریم نیازی به توضیح این نباشد که چرا دیپ‌فیک پورنوگرافیک اشتباه است. ساخت چنین محتوایی از شخص دیگر بدون رضایت او، حتی اگر در اینترنت منتشر نشود، غیرقابل‌قبول است. موارد بسیار کمی وجود دارند که استفاده از دیپ‌فیک در آن‌ها بی‌ضرر باشد، مثل جوان‌سازی یک سلبریتی برای فیلم یا شوخی‌های بی‌ضرر. اما حقیقت تلخ این است که این فناوری، به‌جز پورنوگرافیک، اغلب برای کلاهبرداری و اطلاعات سیاسی نادرست استفاده می‌شود. اگر استفاده از دیپ‌فیک برای هدفی خاص شما را به تردید می‌اندازد، احتمالاً نباید از آن استفاده کنید.

۲. درخواست اطلاعات مرتبط با سلامت

همه زمانی را به یاد دارند که هوش مصنوعی گوگل به مردم گفت روی پیتزا چسب بریزند. این نمونه‌ای واضح از این بود که چرا نباید به چت‌بات‌ها برای اطلاعات سلامت اعتماد کرد. با این حال، آمارها نشان می‌دهد بیش از یک‌سوم آمریکایی‌ها برای این منظور و بیشتر از چت‌بات‌ها استفاده می‌کنند. مردم از آن برای برنامه‌ریزی وعده‌های غذایی، طراحی تمرینات ورزشی شخصی‌سازی‌شده و حتی تأیید اطلاعاتی که جای دیگر شنیده‌اند استفاده می‌کنند. دیدن اینکه دوستان، خویشاوندان و آشنایانم بدون تفکر انتقادی از هوش مصنوعی برای اهداف مرتبط با سلامت استفاده می‌کنند، مرا وحشت‌زده می‌کند. این ترس بی‌دلیل نیست؛ افرادی که به توصیه‌های سلامت چت‌بات‌ها عمل کرده‌اند، با عواقب جدی مواجه شده‌اند.

اکثر مردم حالا می‌دانند که هوش مصنوعی ممکن است توهم بزند، و شواهد نشان می‌دهد مشکل توهم بدتر هم شده است. مدل‌های زبانی بزرگ (LLMs) روی اینترنت پر از متن آموزش دیده‌اند؛ برخی از این متون از منابع معتبر و مبتنی بر واقعیت‌اند و برخی کاملاً بی‌اساس. این مدل‌ها نمی‌توانند حقیقت را تشخیص دهند و به‌راحتی برای پر کردن شکاف‌های دانشی خود اطلاعات جعلی می‌سازند. هدف اصلی آن‌ها ارائه محتمل‌ترین پاسخ به یک سؤال بر اساس داده‌های آموزشی و رفتار دوستانه و مطیع است؛ همه دیده‌ایم که اگر به هوش مصنوعی بگویید اشتباه کرده، پاسخش را تغییر می‌دهد. استفاده از هوش مصنوعی در مراقبت‌های بهداشتی می‌تواند برای جامعه عواقب فاجعه‌باری داشته باشد.

البته برخی کاربردهای سلامت هوش مصنوعی بی‌ضررند. اگر هوش مصنوعی به شما بگوید چند تکرار اضافی برای یک تمرین انجام دهید، احتمالاً مشکلی پیش نمی‌آید. اما پرسیدن اینکه با بدن خود چه کنید (چه بخورید، چه روی پوست خود بزنید، چقدر بخوابید) بدترین نوع قمار با سلامتی‌تان است. به متخصصان پزشکی اعتماد کنید.

۳. انجام تکالیف درسی

وقتی چت‌بات‌ها می‌توانند مقاله بنویسند، به سؤالات پاسخ دهند و مسائل را حل کنند (حتی اگر این کارها را اشتباه یا با اطلاعات نادرست انجام دهند) دانش‌آموزان راه آسان‌تر را انتخاب می‌کنند و از آن‌ها استفاده می‌کنند. هوش مصنوعی حالا در مدارس و دانشگاه‌ها رایج شده است. مربیان تقریباً نمی‌توانند جلوی آن را بگیرند و در بسیاری موارد خودشان از هوش مصنوعی استفاده می‌کنند. مؤسسات آموزشی روزبه‌روز بیشتر هوش مصنوعی را می‌پذیرند و حتی تعریف تقلب را برای سازگاری با آن تغییر می‌دهند. به نظر من، این یک آزمایش بی‌ملاحظه در سطح جامعه است که می‌تواند برای نسل‌های آینده عواقب ماندگاری داشته باشد.

مشکل هوش مصنوعی در آموزش این است که، به اعتقاد من، هدف اصلی آموزش را تضعیف می‌کند. آموزش درباره یادگیری مهارت‌های حیاتی زندگی مثل تفکر انتقادی، تحقیق و حل مسئله است. وقتی چت‌بات تکالیف شما را فوراً انجام می‌دهد، از فرآیند دشوار اما حیاتی که شما را به فردی تحصیل‌کرده و هوشمند تبدیل می‌کند، محروم می‌شوید. چت‌بات‌ها فقط چند سال است که وجود دارند، اما من مطمئنم وقتی میلیون‌ها دانش‌آموز که از روز اول این تجربه یادگیری را دور زده‌اند، فارغ‌التحصیل شوند، ضربه سختی خواهیم خورد.

مشکل دیگر توهم‌هایی است که چت‌بات‌ها را غیرقابل‌اعتماد می‌کند. تصور کنید پزشکان، خلبانان، معماران و دیگر متخصصانی که اشتباهاتشان می‌تواند به مردم آسیب جدی برساند، افرادی که اطلاعات نادرست آموخته‌اند یا از آموزش لازم برای انجام درست کارشان محروم شده‌اند. منطقی است که فرض کنیم به‌زودی متخصصانی در بسیاری از حوزه‌ها خواهیم داشت که آموزششان به‌طور منفی تحت تأثیر هوش مصنوعی قرار گرفته است. حتی مشتاق‌ترین طرفداران هوش مصنوعی هم حاضر نیستند زیر تیغ جراحی یک متخصص قلب که با ChatGPT آموزش دیده، بروند. بنابراین، انجام تکالیف با هوش مصنوعی نه‌تنها به‌خاطر نادرستی تحصیلی اشتباه است، بلکه می‌تواند دیگران را نیز به خطر بیندازد.

۴. دریافت مشاوره جدی برای زندگی

در نگاه اول ممکن است به نظر برسد چون هوش مصنوعی در مکالمه عالی است، می‌تواند دوست خوبی، درمانگر یا کسی برای صحبت باشد. اما وقتی داستان‌های وحشتناک را می‌خوانید (مثل نوجوانی که ChatGPT او را از افکار خودکشی منصرف نکرد (NBC News) یا «دوست‌دختر هوش مصنوعی» که شریکش را به خودکشی تشویق کرد (Futurism)) نظرتان عوض می‌شود. بسیاری از مردم از ChatGPT به‌عنوان درمانگر یا همراه دیجیتال استفاده می‌کنند و توصیه‌های عمیقاً نگران‌کننده‌ای برای حل مشکلاتشان دریافت می‌کنند. چت‌بات‌هایی مثل ChatGPT دارای محافظ‌هایی هستند (مثلاً نمی‌توانند توصیه کنند که با کسی به هم بزنید) اما این محافظ‌ها اغلب بعد از وقوع آسیب ظاهر می‌شوند یا به‌راحتی دور زده می‌شوند.

نمی‌خواهم بیش از حد به کسانی که از چت‌بات‌ها برای مشاوره استفاده می‌کنند سخت بگیرم. درمان گران است، تورم در بالاترین سطح است و ما در میان اپیدمی تنهایی هستیم. سرزنش کسی که به چت‌باتی رایگان با گفت‌وگویی متقاعدکننده روی می‌آورد، سخت است. اما این هم نمونه دیگری است که مردم مدل‌های زبانی را به‌عنوان پیشگو می‌بینند. چت‌بات‌ها الگوریتم‌های پیشرفته‌ای هستند که کلمات را در یک توالی پیش‌بینی می‌کنند، نه متخصصان آموزش‌دیده و قطعاً نه موجودات دارای شعور.

فکر نمی‌کنم مشکلی در استفاده از چت‌بات برای تبادل ایده‌ها باشد، به شرطی که هر چیزی که می‌گوید را با شک و تردید زیاد بپذیرید. اما از آن برای تشخیص سلامت روان، مشاوره رابطه یا مربی زندگی استفاده نکنید. و قطعاً اشتباه نکنید که فکر کنید پرداخت هزینه برای نسخه پریمیوم یک چت‌بات یعنی می‌توانید به آن اعتماد کنید. در نهایت، آن فقط یک الگوریتم است.

۵. کدنویسی حسی برای همه‌چیز

انکار نمی‌کنم که هوش مصنوعی برای کدنویسی هم بسیار مفید بوده است. بهترین ابزارهای هوش مصنوعی برای کدنویسی می‌توانند برای مبتدیان و حرفه‌ای‌ها ضروری شوند. قطعاً به برنامه‌نویسان کمک کرده تا با توصیف چیزها به زبان خودشان، کدها را سریع‌تر تولید کنند. کدنویسی با هوش مصنوعی به «کدنویسی حسی» معروف است. اما مثل همیشه، بسیاری از کدنویسان حسی اجازه می‌دهند هوش مصنوعی تمام کدها را تولید کند و سپس آن را بدون بررسی اجرا می‌کنند، حتی اگر کد پر از اشکال باشد.

کدنویسی حسی به دو دلیل مشکل‌ساز است. اول، مثل هوش مصنوعی در آموزش، تجربه‌های یادگیری مهم را از حرفه‌ای‌ها می‌گیرد. برنامه‌نویسی در هسته خود یک تمرین حل مسئله است. کدنویسان ساعت‌ها پشت کیبورد صرف می‌کنند تا کدی کاربردی، کارآمد و بدون نقص امنیتی تولید کنند و در این مسیر مهارت‌هایشان را بهبود می‌دهند. کدنویسان حسی معمولاً هر چه چت‌بات تولید کند را بدون بازبینی یا با کمترین بازبینی اجرا می‌کنند. کدنویسی حسی بیش از حد می‌تواند شما را به برنامه‌نویس بدتری تبدیل کند.

مشکل دوم وقتی پیش می‌آید که این کدها در دنیای واقعی استفاده شوند. نمونه‌هایی دیده‌ایم که کدنویسی حسی ممکن است به مردم آسیب رسانده باشد. شاید اپلیکیشن Tea را به یاد بیاورید که به زنان اجازه می‌داد به‌صورت ناشناس درباره مردان مشکل‌ساز در صحنه دوستیابی هشدار دهند. سپس این اپ دچار نقض امنیتی بزرگی شد. ادعاهایی وجود دارد که توسعه‌دهندگان Tea از کدنویسی حسی استفاده کرده‌اند، اما حتی اگر اینطور نباشد، شواهد نشان می‌دهد کدنویسی حسی کدهای ناپایدار و پر از اشکال تولید می‌کند. اگر برنامه‌نویسان می‌خواهند کدنویسی حسی انجام دهند، باید خروجی را دو یا سه بار بررسی کنند، وگرنه حریم خصوصی و امنیت داده‌های کاربران را به خطر می‌اندازند.

رضا خلف چعباوی

به نام خدا - سلام، سابقه‌ی نوشتن بیش از 3000 مطلب گیمینگ و نویسندگی در بزرگ‌ترین سایت‌های ایران. بازی‌های مورد علاقه: Metal Gear Solid 3، سری Devil May Cry، فرنچایز Yakuza: Like a Dragon و Gravity Rush. ایمیل کاری: khc.reza@gmail.com

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا