۵ چیزی که نباید از هوش مصنوعی برای آنها استفاده کنید
هوش مصنوعی میتواند زندگی را آسانتر کند، اما برخی کاربردها از خط قرمز عبور میکنند. در این مقاله توضیح میدهیم که چرا استفاده از هوش مصنوعی برای سلامت، آموزش، کدنویسی یا مشاوره ممکن است ضررش بیشتر از منفعتش باشد.
اکنون میتوان گفت هوش مصنوعی تقریباً در همهچیز و همهجا حضور دارد. مولدهای هوش مصنوعی برای موسیقی، گروههای موسیقی مبتنی بر هوش مصنوعی را در اسپاتیفای به وجود آوردهاند. هوش مصنوعی در ابزارهای درخواست شغل و حتی در جتهای جنگنده F-16 کنترلشده توسط هوش مصنوعی که در نبردهای هوایی با انسانها رقابت میکنند، به کار گرفته شده است. مردم از آن به شیوههای عجیبوغریب استفاده میکنند و گجتهای عجیبی با قدرت هوش مصنوعی خلق شدهاند. شبکههای اجتماعی ما پر از محتوای بیکیفیت تولیدشده توسط هوش مصنوعی شدهاند و بسیاری از حسابهایی که این ویدئوها را تماشا میکنند، ممکن است ربات باشند. حالا دیگر افراد عادی باید بدانند چگونه متن، تصاویر و ویدئوهای تولیدشده توسط هوش مصنوعی را تشخیص دهند تا فریب نخورند. این وضعیت باعث شده بسیاری دستهایشان را بالا ببرند و بگویند اگر هوش مصنوعی واقعیت جدید است، چرا آن را در همهچیز به کار نبریم؟ ما کاملاً مخالف این دیدگاه هستیم. هر چقدر هم که هوش مصنوعی فراگیر شود، برخی موارد هستند که هرگز نباید به آنها دست بزند.
ما از موضوعات واضح و جنجالی مثل سرقت آثار هنرمندان توسط شرکتهای فناوری برای آموزش مدلهای هوش مصنوعی مولد، بدون رضایت یا جبران مناسب، میگذریم. متأسفانه، متقاعد کردن شرکتهای بزرگ یا عموم مردم درباره اشتباه بودن این مسائل دشوار است. در عوض، روی حوزههایی تمرکز میکنیم که استفاده از هوش مصنوعی از نظر اخلاقی و معنوی مشکلساز است یا خطر واقعی (چه جسمی و چه غیر آن) برای کاربران به همراه دارد. در ادامه، پنج کاربرد هوش مصنوعی را که فکر میکنیم هرگز نباید استفاده شوند، بررسی میکنیم.
۱. ساخت دیپفیک از دیگران
وقتی دیپفیکها به شهرت رسیدند، تصور میشد بزرگترین خطرشان انتشار اطلاعات نادرست است. البته برخی از دیپفیکها برای جعل سخنان سیاستمداران استفاده شدهاند، اما ۹۸٪ دیپفیکها برای تولید محتوای پورنوگرافیک بدون رضایت افراد ساخته میشوند. سالهاست که وبسایتهایی پر از محتوای پورنوگرافیک دیپفیک با حضور سلبریتیها و حتی افراد عادی وجود دارند. سرویسهای پولی میتوانند تصویر هر شخصی را با هزینهای به محتوای پورنوگرافیک تبدیل کنند.
داستانهای استفاده نادرست از این فناوری تکاندهنده است. مثلاً کانالهای تلگرامی در کره جنوبی تصاویری از دانشآموزان (گاهی زیر سن قانونی) را به اشتراک میگذاشتند تا به تصاویر جنسی تبدیل شوند. یا زنی که سایتی را کشف کرد که او را در فانتزیهای آزاردهنده جنسی نشان میداد، همراه با نام کاربری اینستاگرام و موقعیت مکانیاش. دیپفیکهای پورنوگرافیک برای ساکت کردن روزنامهنگاران و تحقیر سلبریتیها استفاده شدهاند. متأسفانه این داستانهای نفرتانگیز بسیار رایجاند. خبر خوب این است که برخی وبسایتهای بزرگ پورنوگرافیک دیپفیک تعطیل شدهاند و قوانینی برای مقابله با برخی کاربردهای دیپفیک معرفی شده است. با این حال، ابزارهای ساخت دیپفیک همیشه در دسترساند.
امیدواریم نیازی به توضیح این نباشد که چرا دیپفیک پورنوگرافیک اشتباه است. ساخت چنین محتوایی از شخص دیگر بدون رضایت او، حتی اگر در اینترنت منتشر نشود، غیرقابلقبول است. موارد بسیار کمی وجود دارند که استفاده از دیپفیک در آنها بیضرر باشد، مثل جوانسازی یک سلبریتی برای فیلم یا شوخیهای بیضرر. اما حقیقت تلخ این است که این فناوری، بهجز پورنوگرافیک، اغلب برای کلاهبرداری و اطلاعات سیاسی نادرست استفاده میشود. اگر استفاده از دیپفیک برای هدفی خاص شما را به تردید میاندازد، احتمالاً نباید از آن استفاده کنید.
۲. درخواست اطلاعات مرتبط با سلامت
همه زمانی را به یاد دارند که هوش مصنوعی گوگل به مردم گفت روی پیتزا چسب بریزند. این نمونهای واضح از این بود که چرا نباید به چتباتها برای اطلاعات سلامت اعتماد کرد. با این حال، آمارها نشان میدهد بیش از یکسوم آمریکاییها برای این منظور و بیشتر از چتباتها استفاده میکنند. مردم از آن برای برنامهریزی وعدههای غذایی، طراحی تمرینات ورزشی شخصیسازیشده و حتی تأیید اطلاعاتی که جای دیگر شنیدهاند استفاده میکنند. دیدن اینکه دوستان، خویشاوندان و آشنایانم بدون تفکر انتقادی از هوش مصنوعی برای اهداف مرتبط با سلامت استفاده میکنند، مرا وحشتزده میکند. این ترس بیدلیل نیست؛ افرادی که به توصیههای سلامت چتباتها عمل کردهاند، با عواقب جدی مواجه شدهاند.
اکثر مردم حالا میدانند که هوش مصنوعی ممکن است توهم بزند، و شواهد نشان میدهد مشکل توهم بدتر هم شده است. مدلهای زبانی بزرگ (LLMs) روی اینترنت پر از متن آموزش دیدهاند؛ برخی از این متون از منابع معتبر و مبتنی بر واقعیتاند و برخی کاملاً بیاساس. این مدلها نمیتوانند حقیقت را تشخیص دهند و بهراحتی برای پر کردن شکافهای دانشی خود اطلاعات جعلی میسازند. هدف اصلی آنها ارائه محتملترین پاسخ به یک سؤال بر اساس دادههای آموزشی و رفتار دوستانه و مطیع است؛ همه دیدهایم که اگر به هوش مصنوعی بگویید اشتباه کرده، پاسخش را تغییر میدهد. استفاده از هوش مصنوعی در مراقبتهای بهداشتی میتواند برای جامعه عواقب فاجعهباری داشته باشد.
البته برخی کاربردهای سلامت هوش مصنوعی بیضررند. اگر هوش مصنوعی به شما بگوید چند تکرار اضافی برای یک تمرین انجام دهید، احتمالاً مشکلی پیش نمیآید. اما پرسیدن اینکه با بدن خود چه کنید (چه بخورید، چه روی پوست خود بزنید، چقدر بخوابید) بدترین نوع قمار با سلامتیتان است. به متخصصان پزشکی اعتماد کنید.
۳. انجام تکالیف درسی
وقتی چتباتها میتوانند مقاله بنویسند، به سؤالات پاسخ دهند و مسائل را حل کنند (حتی اگر این کارها را اشتباه یا با اطلاعات نادرست انجام دهند) دانشآموزان راه آسانتر را انتخاب میکنند و از آنها استفاده میکنند. هوش مصنوعی حالا در مدارس و دانشگاهها رایج شده است. مربیان تقریباً نمیتوانند جلوی آن را بگیرند و در بسیاری موارد خودشان از هوش مصنوعی استفاده میکنند. مؤسسات آموزشی روزبهروز بیشتر هوش مصنوعی را میپذیرند و حتی تعریف تقلب را برای سازگاری با آن تغییر میدهند. به نظر من، این یک آزمایش بیملاحظه در سطح جامعه است که میتواند برای نسلهای آینده عواقب ماندگاری داشته باشد.
مشکل هوش مصنوعی در آموزش این است که، به اعتقاد من، هدف اصلی آموزش را تضعیف میکند. آموزش درباره یادگیری مهارتهای حیاتی زندگی مثل تفکر انتقادی، تحقیق و حل مسئله است. وقتی چتبات تکالیف شما را فوراً انجام میدهد، از فرآیند دشوار اما حیاتی که شما را به فردی تحصیلکرده و هوشمند تبدیل میکند، محروم میشوید. چتباتها فقط چند سال است که وجود دارند، اما من مطمئنم وقتی میلیونها دانشآموز که از روز اول این تجربه یادگیری را دور زدهاند، فارغالتحصیل شوند، ضربه سختی خواهیم خورد.
مشکل دیگر توهمهایی است که چتباتها را غیرقابلاعتماد میکند. تصور کنید پزشکان، خلبانان، معماران و دیگر متخصصانی که اشتباهاتشان میتواند به مردم آسیب جدی برساند، افرادی که اطلاعات نادرست آموختهاند یا از آموزش لازم برای انجام درست کارشان محروم شدهاند. منطقی است که فرض کنیم بهزودی متخصصانی در بسیاری از حوزهها خواهیم داشت که آموزششان بهطور منفی تحت تأثیر هوش مصنوعی قرار گرفته است. حتی مشتاقترین طرفداران هوش مصنوعی هم حاضر نیستند زیر تیغ جراحی یک متخصص قلب که با ChatGPT آموزش دیده، بروند. بنابراین، انجام تکالیف با هوش مصنوعی نهتنها بهخاطر نادرستی تحصیلی اشتباه است، بلکه میتواند دیگران را نیز به خطر بیندازد.
۴. دریافت مشاوره جدی برای زندگی
در نگاه اول ممکن است به نظر برسد چون هوش مصنوعی در مکالمه عالی است، میتواند دوست خوبی، درمانگر یا کسی برای صحبت باشد. اما وقتی داستانهای وحشتناک را میخوانید (مثل نوجوانی که ChatGPT او را از افکار خودکشی منصرف نکرد (NBC News) یا «دوستدختر هوش مصنوعی» که شریکش را به خودکشی تشویق کرد (Futurism)) نظرتان عوض میشود. بسیاری از مردم از ChatGPT بهعنوان درمانگر یا همراه دیجیتال استفاده میکنند و توصیههای عمیقاً نگرانکنندهای برای حل مشکلاتشان دریافت میکنند. چتباتهایی مثل ChatGPT دارای محافظهایی هستند (مثلاً نمیتوانند توصیه کنند که با کسی به هم بزنید) اما این محافظها اغلب بعد از وقوع آسیب ظاهر میشوند یا بهراحتی دور زده میشوند.
نمیخواهم بیش از حد به کسانی که از چتباتها برای مشاوره استفاده میکنند سخت بگیرم. درمان گران است، تورم در بالاترین سطح است و ما در میان اپیدمی تنهایی هستیم. سرزنش کسی که به چتباتی رایگان با گفتوگویی متقاعدکننده روی میآورد، سخت است. اما این هم نمونه دیگری است که مردم مدلهای زبانی را بهعنوان پیشگو میبینند. چتباتها الگوریتمهای پیشرفتهای هستند که کلمات را در یک توالی پیشبینی میکنند، نه متخصصان آموزشدیده و قطعاً نه موجودات دارای شعور.
فکر نمیکنم مشکلی در استفاده از چتبات برای تبادل ایدهها باشد، به شرطی که هر چیزی که میگوید را با شک و تردید زیاد بپذیرید. اما از آن برای تشخیص سلامت روان، مشاوره رابطه یا مربی زندگی استفاده نکنید. و قطعاً اشتباه نکنید که فکر کنید پرداخت هزینه برای نسخه پریمیوم یک چتبات یعنی میتوانید به آن اعتماد کنید. در نهایت، آن فقط یک الگوریتم است.
۵. کدنویسی حسی برای همهچیز
انکار نمیکنم که هوش مصنوعی برای کدنویسی هم بسیار مفید بوده است. بهترین ابزارهای هوش مصنوعی برای کدنویسی میتوانند برای مبتدیان و حرفهایها ضروری شوند. قطعاً به برنامهنویسان کمک کرده تا با توصیف چیزها به زبان خودشان، کدها را سریعتر تولید کنند. کدنویسی با هوش مصنوعی به «کدنویسی حسی» معروف است. اما مثل همیشه، بسیاری از کدنویسان حسی اجازه میدهند هوش مصنوعی تمام کدها را تولید کند و سپس آن را بدون بررسی اجرا میکنند، حتی اگر کد پر از اشکال باشد.
کدنویسی حسی به دو دلیل مشکلساز است. اول، مثل هوش مصنوعی در آموزش، تجربههای یادگیری مهم را از حرفهایها میگیرد. برنامهنویسی در هسته خود یک تمرین حل مسئله است. کدنویسان ساعتها پشت کیبورد صرف میکنند تا کدی کاربردی، کارآمد و بدون نقص امنیتی تولید کنند و در این مسیر مهارتهایشان را بهبود میدهند. کدنویسان حسی معمولاً هر چه چتبات تولید کند را بدون بازبینی یا با کمترین بازبینی اجرا میکنند. کدنویسی حسی بیش از حد میتواند شما را به برنامهنویس بدتری تبدیل کند.
مشکل دوم وقتی پیش میآید که این کدها در دنیای واقعی استفاده شوند. نمونههایی دیدهایم که کدنویسی حسی ممکن است به مردم آسیب رسانده باشد. شاید اپلیکیشن Tea را به یاد بیاورید که به زنان اجازه میداد بهصورت ناشناس درباره مردان مشکلساز در صحنه دوستیابی هشدار دهند. سپس این اپ دچار نقض امنیتی بزرگی شد. ادعاهایی وجود دارد که توسعهدهندگان Tea از کدنویسی حسی استفاده کردهاند، اما حتی اگر اینطور نباشد، شواهد نشان میدهد کدنویسی حسی کدهای ناپایدار و پر از اشکال تولید میکند. اگر برنامهنویسان میخواهند کدنویسی حسی انجام دهند، باید خروجی را دو یا سه بار بررسی کنند، وگرنه حریم خصوصی و امنیت دادههای کاربران را به خطر میاندازند.








