هوشهای مصنوعی مولد، متنهای بسیار روان و تصاویر بسیار طبیعی تولید میکنند که این موضوع مسئله مرزگذاری میان تولیدات هوش انسانی و مصنوعی را دشوار میکند. این موضوع چالش خطرات ساخت و نشر اخبار، تصاویر و ویدیوهای جعلی به وسیله این فناوری را جدی میکند؛ تولید مقالات و پایاننامهها بدون پژوهش علمی، انتشار ویدیو ساختگی از سخنان رئیس جمهور یک کشور مبنی بر دستور حمله به کشور همسایه، یا انتشار تصاویر مستهجن و غیراخلاقی جعلی از افراد مشهور نمونههایی از استفادههای مخرب و خطرناک هوش مصنوعی هستند.
همچنین از آنجا که تکیه هوش مصنوعی بر الگوهای آموخته شده از دادههای ورودی پیشین است، درباره اینکه اساساً «آیا هوش مصنوعی صاحب قدرت خلاقیت و تفکر است؟» اختلاف نظرهای جدی فلسفی وجود دارد.
اما اگر حتی روزی پذیرفته شود – یا حدی از پیشرفت حاصل شود – که هوش مصنوعی واقعاً دارای قدرت خلق ایده و صاحب نظر باشد، مسئله کپیرایت آن نیز چالش برانگیز خواهد بود؛ آیا هوش مصنوعی میتواند چیزی اختراع کند و اگر کرد، مالکیت آن برای کیست؟!
خطر دیگر هوشهای مصنوعی، تولید پاسخهای غیرعلمی و نادرست است. بطوریکه در مواردی مشاهده میشود که در پاسخ به پرسش کاربر، هوش مصنوعی اقدام به خلق جواب و نسبت دادن آن به منابع غیرواقعی میکند. موضوعی که ضرورت احتیاط و بازنگری پاسخهای تولید شده توسط این ابزارها میطلبد.
از طرف دیگر اگر دادههای ورودی اولیه که یادگیری ماشین بر مبنای آنها انجام شده باشد، دارای خطا یا سوگیری خاصی از طرف سازندگان برنامه باشد، پاسخها نیز به همان نسبت از حقیقت به دور خواهند بود. از اینرو بسته به اینکه توسعهدهندگان هوش مصنوعی چه عقیده و گرایش سیاسی، مذهبی و فرهنگی داشته باشند، ممکن است سوگیری خود را به صورت غیرمستقیم به متنها و تصاویر تولید شده توسط هوش مصنوعی نیز منتقل کنند؛ مثلاً در معرفی اسلام مغرضانه عمل میکند چون فقط با دادههای اسلامستیزانه آموزش دیده است یا دارای جهتگیری سیاسی به نفع یک حزب خاص است، چون برنامهنویسان آن چنین گرایش سیاسی داشتند!
در کنار این، توسعه هوش مصنوعی آسیبهای محیط زیستی جدی نیز در پی دارد؛ چراکه پردازش این حجم بالا از اطلاعات و پاسخگویی به نیازهای کاربران، نیازمند مصرف برق بسیار بالا و همچنین سامانههای خنکسازی سرورهاست. برای مثال، به ازای 10 الی 50 پاسخ چتجیپیتی به جستار کاربران، تقریباً 500 میلیلیتر آب مصرف میشود. همچنین طبق برخی برآوردها، پیشبینی میشود مصرف آب فناوری هوش مصنوعی در جهان تا سال 1406/2027 معادل 4 تا 6 برابر کل مصرف یکساله کشور دانمارک باشد![3]
اما در لایه فردی نیز هوش مصنوعی در قالب یک همسخن شنوا، با حوصله و – به ظاهر – دانا میتواند تعاملات انسانی را دچار تغییر کند و اگر «رایانش عاطفی»[5] و قابلیت درک احساسات نیز به این ابزارها اضافه شود، وقوع شبیه آنچه در فیلمهای سینمایی «هوش مصنوعی»[6] (2001) از اسپیلبرگ یا «او»[7] (2013) درباره ایجاد وابستگی عاطفی بین انسان و ماشین به نمایش گذاشته شده بود، دور از انتظار نیست.
در کنار همه اینها، نقض حریم خصوصی (به خاطر استفاده هوشهای مصنوعی از دادههای شخصی افراد نظیر متنها، صدا، تصاویر و دادههای زیستی بدون اجازه گرفتن از صاحبان آنها) و همچنین حقوق مالکیت محتوا (به خاطر استفاده غیرقانونی هوشهای مصنوعی از محتوای کتابها و سایتها برای آموزش خود) از جمله چالشهای حقوقی توسعه هوش مصنوعی در دنیاست.
در کنار این، رشد و توسعه هوش مصنوعی، مثل هر فناوری دیگری تبعات فرهنگی و اقتصادی با خود به همراه دارد. برای مثال خطر از بین رفتن مشاغل (برخی برآوردها حاکی از حذف 800 میلیون شغل در جهان تا سال 2030 است)[8] از جمله آنهاست. البته این تهدید بیشتر متوجه مشاغل روتین و یکنواخت است که قابل واسپاری به سامانههای خودکار باشد. در عوض با توجه به ماهیت هوش مصنوعی و چگونگی توسعه آن، به نظر نمیرسد این فناوری همچنان بتواند جایگزین مشاغل خلاق و مولد اندیشه شود.
اما به طور کلی در راستای مدیریت همین چالشهای فردی و اجتماعیست که مسئله قاعدهگذاری برای توسعه هوش مصنوعی در دنیا به طور جدی در حال پیگیری است. مثلاً:
- برخی دولتها برای مقابله با نشر محتوای جعلی، شرکتهای سازنده هوشهای مصنوعی را ملزم به توسعه همزمان و موازی ابزارهای شناسایی تولیدات هوش مصنوعی کردهاند.[9]
- رسانههای اجتماعی پرسشوپاسخ اینترنتی پاسخهای تولید شده توسط هوشهای مصنوعی مدل زبانی را نامعتبر دانسته و آنها را ثبت نمیکنند[10]
- شرکتهای توسعهدهنده هوش مصنوعی برای جلوگیری از ایجاد وابستگی عاطفی، در پاسخ به سوالات احساسی کاربران بر ماشین بودن ابزار خود تاکید میکنند.
[1] https://newsmeter.in/fact-check/ai-generated-image-shared-as-people-applauding-israeli-army-from-balconies-719828
[2] https://www.indiatvnews.com/news/world/donald-trump-arrested-twitter-stormed-with-chilling-ai-deepfakes-purporting-ex-us-president-escaping-arrest-fake-news-fake-image-2023-03-22-856718
[3] https://arxiv.org/abs/2304.03271
[4] https://oecd.ai/en/wonk/how-much-water-does-ai-consume
[5] Affective Computing
[6] A.I
[7] Her
[8] https://www.digikala.com/mag/is-ai-dangerous-5-immediate-risks-of-artificial-intelligence
[9] https://zaviehmag.ir/?p=12301
[10] https://www.theregister.com/2022/12/05/stack_overflow_bans_chatgpt