چتجیپیتی چه دستاوردهایی برای دنیای علم خواهد داشت؟
در شرایطی که بسیاری از پژوهشگران در مورد آخرین
پیشرفتهای هوش مصنوعی و ابزار چت جیپیتی هیجانزده شدهاند و کاربران زیادی
برای انجام کارهای خود به سراغ آن رفتهاند، اما در مقابل برخی دیگر نگران هستند.
در شهریور ماه سال 2022 میلادی، زیستشناسان محاسباتی، کیسی گرین و میلتون
پیویدوری، آزمایش غیرعادیای انجام دادند. آنها از یک دستیار غیرمتخصص درخواست
کردند به آنها در ویرایش سه مقاله پژوهشی کمک کند. دستیار مستعد توانست تنها در
مدت زمان چند ثانیه اصلاحاتی را روی بخشهایی از اسناد پیشنهاد دهد و جالب آنکه
بازبینی هر یک از متنها تنها 5 دقیقه طول کشید. نیچر در مقالهای که در همین
زمینه منتشر کرده به این نکته اشاره دارد که در یکی از متون پیشنویس زیستشناسی،
دستیار آنها حتا اشتباه در ارجاع دادن به یک معادله را بهدرستی شناسایی کرد و
جالب آنکه هزینه بازبینی هر یک از متنها چیزی در حدود پنج سنت بود. این دستیار،
همانگونه که گرین و پیویدوری در مقاله پیشنویس خود در ماه فوریه به آن اشاره
کردند، یک شخص نبود بلکه الگوریتم هوشمند چتجیپیتی بود.
چتجیپیتی یکی از محبوبترین
ابزارهای هوشمند پردازش زبان طبیعی است که میتواند با سرعت زیادی متون تقریبا
شیوایی را تولید کند و قادر است متونی مثل نثر، شعر و کدهای برنامهنویسی بنویسد
یا شبیه به موردی که به آن اشاره کردیم، مقالههای پژوهشی را ارزیابی کند. امروزه،
ابزارهای مختلفی بر مبنای مدلهای زبانی بزرگ (LLM) به دنیای فناوری وارد شدهاند که معروفترین آنها چتجیپیتی
محصول شرکت OpenAI است. چتجیپیتی پس از انتشار در نوامبر
سال گذشته به شهرت رسید، زیرا رایگان است و به سهولت در دسترس مردم قرار دارد.
میلتون پیویدوری که در دانشگاه پنسیلوانیا کار میکند، در این باره گفته است:
«کاملا شگفتزده شدم. این ابزار به ما کمک میکند تا به عنوان محقق عملکرد بهتری داشته باشیم
و روی موضوعات مهم متمرکز شویم».
اکنون بخش عمدهای از
دانشمندان بهشکل روزانه از مدلهای زبانی بزرگ نهتنها برای ویرایش پیشنویس
مقالهها، بلکه برای کمک به نوشتن مقالهها، بررسی کدها یا ایدهپردازی استفاده میکنند.
هافستاین اینارسون، دانشمند علوم کامپپیوتر دانشگاه ایسلند میگوید: «روزانه از
مدلهای زبانی بزرگ استفاده میکنم». او کار خود را با چتجیپیتی آغاز کرد و در نهایت
تصمیم گرفت به سراغ نسخه پیشرفتهتر چتجیپیتی (GPT-4) برود تا به او در آمادهسازی اسلایدهای آموزشی، نوشتن
آزمونهای دانشجویی و بررسی پایاننامههای دانشجویانش کمک کند. او میگوید:
«بسیاری از مردم از چتجیپیتی بهعنوان دستیار دیجیتال
استفاده میکنند. به عقیده من در آینده نزدیک مدلهای زبانی بزرگ بخشی از موتورهای
جستوجو، دستیاران کدنویسی و چتباتی خواهند شد که با چتباتهای شرکتهای دیگر
مذاکره میکنند تا روند بستن قراردادها یا خرید محصولات را تسهیل کنند».
لازم به توضیح است که چتجیپیتی توسط سازمان OpenAI در سانفرانسیسکوی کالیفرنیا سرویس
اشتراکی و ویژه را با قیمت 20 دلار در ماه در دسترس مردم قرار میدهد که فرآیند
پاسخگویی سریعتر دارد و ویژگیهای جدیدی در اختیار کاربران قرار میدهد. البته،
نسخه آزمایشی آن رایگان است.
سرآغاز راهی بزرگ با مدلهای زبانی
مدلهای زبانی بزرگ در
آینده نزدیک در نرمافزارهای عمومی پردازش کلمه و داده بهشکل گستردهای مورد
استفاده قرار میگیرند. تقریبا همه کارشناسان و بزرگان دنیای فناوری بر این باور
هستند که هوش مصنوعی عمومی در آینده نزدیک بهشکل گستردهای در جامعه مورد استفاده
قرار خواهد گرفت، اما مدلهای زبانی بزرگ چالشهایی را نیز بههمراه دارند. از
جمله این چالشها باید به انتشار اخبار جعلی، تولید محتوایی که افراد آنرا حاصل
دسترنج خود نشان دهند و انتشار اطلاعات علمی اشتباه اشاره کرد.
هنگامی که مجله نیچر از
پژوهشگران در مورد کاربردهای شاخص چتباتهایی مثل چتجیپیتی در حوزه علم سوال کرد، آنها
نگرانیهای ذهنی خود را ابزار داشتند. گرین از دانشکده پزشکی دانشگاه کلرادو در
این باره میگوید: «اگر تصور میکنید این فناوری تحولآفرین خواهد بود، باید کمی
تامل کنید، زیرا در آینده نزدیک اتفاقات بزرگی رخ خواهد داد. نگرانیها تا حد
زیادی بستگی به این مسئله دارد که چه مقرراتی در آینده وضع خواهند شد و چگونه ممکن
است استفاده از چتباتهای هوش مصنوعی را محدود کنند».
عملکردی روان، به دور از واقعیت
برخی از پژوهشگران بر
این باور هستند که مدلهای زبانی بزرگ بهمنظور شتاب بخشیدن به وظایفی مثل نوشتن
مقالهها یا ارزیابی کدها مناسب هستند. المیرا تونستروم، عصبزیستشناس بیمارستان دانشگاه
سالگرنسکا سوئد که با کمک همکارانش بهعنوان یک آزمایش، مقالهای را با استفاده از چتجیپیتی نوشته، میگوید: «
دانشمندان دیگر به انتظار نخواهند نشست تا مقدمههای طولانی برای درخواست کمکهای
مالی بنویسند. آنها از پلتفرمهای هوشمند برای انجام اینکار استفاده میکنند».
تام تومیل، مهندس شرکت
نرمافزاری اینستا دیپ لندن میگوید: «روزانه از مدلهای زبانی بزرگ بهعنوان
دستیاری برای ارزیابی کدهای نوشتهشده، استفاده میکنم. به نظرم عملکرد پلتفرمهای
هوشمند در این زمینه بهتر از وبسایتهای محبوب و پرمخاطبی مثل استک اورفلو است که
در آن کدنویسها به پرسشهای یکدیگر پاسخ میدهند».
پژوهشگران دیگر به این
نکته اشاره دارند که مدلهای زبانی بزرگ در پاسخگویی به پرسشها قابل اعتماد
نیستند و گاهیاوقات پاسخهای اشتباهی تولید میکنند. تونستروم میگوید: «هنگامی
که از این سامانهها برای تولید دانش استفاده میکنید باید کاملا دقت کنید».
غیرقابل اعتماد بودن به
ماهیت طبیعی مدلهای زبانی بزرگ باز میگردد. چتجیپیتی و نمونههای مشابه آن با
یادگیری الگوهای آماری زبان در پایگاههای داده بزرگ متنوع آنلاین کار میکنند که
شامل مطالب غیرواقعی، سوگیری یا اطلاعات قدیمی است. وقتی به مدلهای زبانی بزرگ
دستوراتی داده میشود، مثل نمونهای که در ابتدای مقاله به آن اشاره شد و در ادامه
درخواست میشود تا مقالات را بازبینی و بازنویسی کند، آنها کلمه به کلمه متنی را
تولید میکنند که از نظر اصول نگارشی صحیح است. نتیجه این است که مدلهای زبانی
بزرگ بهویژه در مورد موضوعات فنی که ممکن است دادههای کمی برای آموزش آنها وجود
داشته باشند، بهراحتی اطلاعات گمراهکننده تولید میکنند. علاوه بر این، مدلهای
فوق نمیتوانند صحت منابع و اطلاعاتی را که از آنها استفاده میکنند بهدقت
ارزیابی کنند. اگر از آنها خواسته شود مقالهای دانشگاهی بنویسند، نقل قولهای
غیرواقعی تولید میکنند. مجله Nature
Machine Intelligence در سرمقاله ماه ژانویه خود در مورد چتجیپیتی به این نکته اشاره دارد
که نمیتوان به این ابزار برای تولید ارجاعات قابل اعتماد یا اطلاعات دقیق اطمینان
کرد.
اگر کاربران با توجه به
این نکات از چتجیپیتی و دیگر مدلهای زبانی
بزرگ استفاده کنند، این ابزارها به دستیاران کارآمدی تبدیل میشوند که قادر هستند
مشکلات را شناسایی کرده و پیشنهاداتی برای اصلاح متون یا کدهای کامپیوتری ارائه
کنند. البته، فرد باید تخصص لازم در حوزه کاری خود را داشته باشد.
در نقطه مقابل، این
ابزارها ممکن است کاربران بدون تخصص را دچار اشتباه کنند. بهطور مثال، در دسامبر
سال قبل، استک اورفلو بهشکل موقت اعلام کرد استفاده از چتجیپیتی ممنوع است، زیرا مدیران
سایت با نرخ بالایی از پاسخهای اشتباه، اما متقاعدکننده توسط این چتبات روبهرو
شدند که توسط کاربران علاقهمند ارسال شده بود. این مسئله میتواند برای موتورهای
جستوجو چالش بزرگی را بهوجود آورد.
امکان برطرف کردن مشکلات و کمبودهای
مدلهای زبانی بزرگ وجود دارد؟
برخی از ابزارهای موتور
جستوجو مثل الیسیت فیلترهایی را برای ارزیابی منابع مورد استفاده قرار میدهند،
در ادامه از میان گزینههایی که ابزارهای هوشمند ارائه کردهاند، مواردی را که
اطلاعات فنی قابل اعتماد همراه با ارجاعات به منابع معتبر دارند انتخاب میکنند و
پس از خلاصهسازی نتایج را به کاربران نشان میدهند. به این شکل، مشکلات مرتبط با
مدلهای زبانی بزرگ را حل میکنند. شرکتهای تولیدکننده مدل LLM بهخوبی از وجود این مشکلات اطلاع دارند. شهریورماه سال گذشته،
دیپمایند شرکت زیرمجموعه گوگل مقالهای درباره چتبات اسپارو منتشر کرد. مدیر
اجرایی شرکت، دمیس هاسابیس در مصاحبه با مجله تایم گفت: «چتبات مذکور در سال
2023 در قالب نسخه بتا و خصوصی منتشر خواهد شد». علاوه بر این، گوگل قصد دارد روی
ویژگیهایی مثل توانایی ذکر منابع توسط مدلهای هوشمند کار کند.
برخی از متخصصان میگویند:
«در حال حاضر چتجیپیتی در زمینه تولید محتوای
تخصصی آموزشهای کافی نداشته است تا بتواند در مورد موضوعات فنی مفید باشد». کریم
کار، دانشجوی دکتری آمار زیستی دانشگاه هاروارد که تجربه کار با چتجیپیتی را دارد، در این باره میگوید:
«فکر میکنم چتجیپیتی راه طولانی دارد تا به
سطحی از ویژگیهایی که متخصصان نیاز دارند برسد. وقتی از چتجیپیتی برای پیدا کردن 20 راهحل برای
یک مسئله پژوهشی سوال کردم، پاسخهای مبهم ارائه کرد. البته، به موضوع جالبی اشاره
کرد و یک اصطلاح آماری پیشنهاد کرد که در مورد آن نشنیده بودم. این ایده من را به
حوزه جدیدی از مقالههای دانشگاهی هدایت کرد».
جالب آنکه برخی از شرکتهای
فناوری با وجود مشکلات مختلفی که وجود دارد، در حال ساخت و آموزش چتباتهایی
هستند که توانایی تولید مقالههای علمی تخصصی را دارند. نوامبر سال 2022 میلادی
شرکت متا، مدل زبانی بزرگ بهنام گالکتیکا را منتشر کرد که توانایی ساخت محتوای
دانشگاهی و پاسخگویی به پرسشهای پژوهشی را داشت. این نسخه آزمایشی پس از اینکه
کاربران از آن برای تولید متون نادرست و نژادپرستانه استفاده کردند از دسترس عموم
خارج شد.
امنیت و مسئولیتپذیری
یکی دیگر از مشکلات بزرگی
که پیرامون ابزارهای هوشمندی مثل چتجیپیتی وجود دارد مشکلی است که
تحت عنوان نگرانی ایمنی به آن اشاره میشود و اخلاقشناسان سالها است به آن اشاره
کردهاند. نگرانی ایمنی به این معنا است که بدون کنترل خروجی، مدلهای زبانی بزرگ
بهراحتی میتوانند برای نفرتپراکنی و تولید هرزنامه، تولید متون نژادپرستانه و
موارد مشابه به کار گرفته شوند، زیرا همواره این احتمال وجود دارد که منابع آموزشی
که ابزارها از آنها استفاده میکنند شامل دادههای آموزشی پنهانی باشند.
شوبیتا پارتاساراتی، مدیر
برنامه علم، فناوری و سیاست عمومی دانشگاه میشیگان میگوید: «علاوه بر تولید محتوای مخرب، نگرانیهایی وجود دارد که چتباتهای
هوش مصنوعی ممکن است سوگیریهای تاریخی از دادههای آموزشی بهدست آورند. این
مسئله بهویژه در مواردی مثل برتری فرهنگها یا نژادهای خاص نگرانکننده است. با
توجه به اینکه شرکتهایی که این مدلها را ایجاد میکنند نگرشهای خاصی دارند،
ممکن است تلاش چندانی برای حل مشکل انجام ندهند».
OpenAI هنگام انتشار چتجیپیتی سعی کرد بخش عمدهای از
این مشکلات را حل کند. به همین دلیل، تصمیم گرفت پایگاه داده دانش چتجیپیتی را به سال 2021 میلادی
محدود کند. همچنین، از فیلترهایی استفاده کرد تا ابزار توانایی سوگیری یا انتشار
پیاموارهای حساس یا نژادپرستانه را نداشته باشد. البته، برای این منظور از وجود
ناظران انسانی استفاده کرد تا متون مخرب را برچسبگذاری کنند. متاسفانه، برخی از
این ناظران دستمزد پایینی برای انجام اینکار دریافت کردند که باعث شد موضوع
استثمار کارکنان در چنین شرکتهایی مطرح شود که افراد را برای آموزش باتهای
خودکار برای برچسبزدن محتوای مخرب با دستمزد کم استخدام میکنند.
با اینحال، تلاشهای OpenAI در این زمینه چندان سودبخش نبود.
دسامبر سال 2022 میلادی، استیون پینگادوسی، عصبشناس محاسباتی دانشگاه کالیفرنیا،
در توییتی نوشت: «از چتجیپیتی درخواست کردم با زبان
پایتون برنامهای بنویسد که آیا افراد باید بر مبنای کشور مبدا خود شکنجه شوند؟ چتبات
با کدی پاسخ داد که کاربران ساکن در برخی از کشورها باید شکنجه شوند. OpenAI پس از دریافت این گزارش مانع از آن
شد تا چتجیپیتی به چنین پرسشهایی پاسخ دهد».
در فوریه 2023 میلادی،
گروهی از پژوهشگران مدلی بهنام بلوم را منتشر کردند و سعی کردند خروجیهای مخرب
را با آموزش مدل روی مجموعه کوچکتری از متون با کیفیت بالاتر و چند زبانه کاهش
دهند. این گروه تحقیقاتی برخلاف سازمان OpenAI، دسترسی به
دادههای آموزشی خود را آزاد گذاشت. همچنین، پژوهشگران از شرکتهای بزرگ فناوری
خواستهاند که مسئولانه از این دادههای آموزشی استفاده کنند. برخی از پژوهشگران
میگویند دانشگاهیان باید پشتیبانی از مدلهای زبانی بزرگ تجاری مثل چتجیپیتی را متوقف کنند. این
الگوریتمها علاوه بر مسائلی مثل سوگیری، نگرانیهای ایمنی و استثمار کارکنان را
بهوجود میآورند و برای آموزش آنها به انرژی زیادی نیاز است.
نگرانی دیگری که در این
زمینه وجود دارد این است که شرکتها به چتباتها اجازه دهند بهشکل خودکار فکر
کنند و دیدگاههای خود را بهعنوان خروجی در اختیار کاربران قرار دهند. آیریس ون
روییج، دانشمند علوم شناختی محاسباتی دانشگاه رادبود هلند از دانشگاهیان خواست تا
در برابر این مسئله واکنش نشان دهند و نسبت به این بیتفاوت نباشند و بدون دلیل به
تبلیغ این محصول نپردازند. چالش مهم دیگری که وجود دارد درباره وضعیت حقوقی برخی
از مدلهای زبانی بزرگ است که روی محتوای برداشتهشده از اینترنت یا مجوزهایی که
برای استفاده از این مطالب به آنها نیاز دارند، چندان آموزش ندیدهاند. در حال
حاضر، قوانین کپیرایت و مجوزها مسائلی مثل کپیبرداری مستقیم تصاویر، متنها و
نرمافزارها را تحت پوشش قرار میدهند، اما تقلید از سبک را در بر نمیگیرند. وقتی
این تقلیدها توسط ابزارهایی مثل چتجیپیتی انجام شود، دیگر افرادی
که اقدام به استفاده از این محتوا میکنند، مسئول نخواهند بود.
همین مسئله باعث شد تا
سازندگان برخی از برنامههای هنری هوش مصنوعی مثل استیبل دیفیوژن و میدجورنی، با
شکایتهای مختلف از سوی هنرمندان و آژانسهای عکاسی روبهرو شوند. OpenAI و مایکروسافت نیز بهدلیل ساخت
دستیار کدنویسی هوش مصنوعی کوپایلوت با اتهام سرقت ادبی و هنری روبهرو هستند.
لیلیان ادواردز، متخصص حقوق اینترنت دانشگاه نیوکاسل میگوید: «این شکایتها و
اعتراضات در نهایت باعث تغییر قوانین خواهد شد».
استفاده مسئولانه
گروهی از پژوهشگران میگویند:
«تعیین حد و مرز برای ابزارهایی مثل چتجیپیتی را ضروری میدانند.
ادواردز پیشنهاد میکند که قوانین موجود سوگیری و استفادههای مخاطرهآمیز از هوش
مصنوعی بازنگری شوند تا بهکارگیری مدلهای زبانی بزرگ قابل اعتماد، شفاف و
مسئولانه شود. قوانین زیادی وجود دارند و فقط باید آنها را کمی تغییر داد.
دانشمندان باید موظف شوند استفاده از مدلهای مذکور را در مقالههای پژوهشی خود
درج کنند. معلمان نیز باید نسبت به استفاده دانشآموزان از این فناوری مسئولانه
برخورد کنند».
امکان شناسایی محتوای تولیدشده
توسط هوش مصنوعی وجود دارد؟
یکی از پرسشهای کلیدی
این است که آیا میتوان محتوای ساختهشده توسط هوش مصنوعی را بهسادگی شناسایی
کرد؟ بسیاری از پژوهشگران روی ایده جالبی کار میکنند که از مدلهای زبانی بزرگ برای
تشخیص خروجی متن ساختهشده توسط مدلهای هوش مصنوعی دیگر استفاده کنند.
بهطور مثال، دسامبر
گذشته، ادوارد تیان، دانشجوی کارشناسی علوم کامپیوتر دانشگاه پرینستون مدا، GPTZero را منتشر کرد. این ابزار تشخیص هوش مصنوعی، متن را به دو
روش مورد ارزیابی و تحلیل قرار میدهد. روش اول، معیار سرگشتگی (Perplexity) است. این معیار نشان میدهد یک متن
چقدر برای مدل زبانی بزرگ آشنا بهنظر میرسد. عملکرد ابزار تیان به این صورت است
که اگر بیشتر کلمات و جملات قابل پیشبینی باشد، آن متن به احتمال زیاد توسط هوش
مصنوعی ساخته شده است. علاوه بر این، ابزار فوق قادر به بررسی یکنواختی متن است.
متن ساختهشده توسط هوش مصنوعی بهلحاظ لحن، آهنگ و سرگشتگی یکنواختتر است. هدف
بسیاری از این محصولات شناسایی محتوای ساختهشده با هوش مصنوعی است. در همین
ارتباط، شرکت تورنیتین، توسعهدهنده نرمافزارهای کاربردی، در حال توسعه ابزاری
برای شناسایی سرقتهای ادبی است. این شرکت میگوید: «از سال 2020 میلادی که شرکتها
تصمیم گرفتند به سراغ نرمافزارهای خودکار تولیدکننده متن بروند در حال کار روی
نرمافزار تشخیص محتوای تولیدشده توسط هوش مصنوعی هستیم و پیشبینی میکنیم آن را
در نیمه نخست سال 2023 میلادی به بازار عرضه کنیم».
راهکار دیگر حل این مشکل،
درج واترمارک خاص ابزارهای هوش مصنوعی در محتوایی است که تولید میکنند. نوامبر
گذشته OpenAI اعلام کرد در حال کار روی
روشی برای واترمارک کردن خروجی چتجیپیتی است. ایده اصلی این است
که در لحظات خاصی که مدل در حال تولید خروجی است از مولدهای اعداد تصادفی استفاده
کند تا فهرستی از کلمات جایگزین قابل قبول ایجاد شود که مدل مجبور شود از بین آنها
انتخاب کند. راهکار فوق باعث میشود تا ردپایی از کلمات انتخابشده در متن نهایی
بمانند که میتوان بهلحاظ آماری آنها را تشخیص داد، در حالی که این مسئله برای
کاربران قابل تشخیص نیست. بنابراین، اگر فردی قصد ویرایش متن را داشته باشد باید
دست کم نیمی از واژههای متن را تغییر دهد که چیزی شبیه به نوشتن مقاله از پایه
است. مزیت واترمارک کردن متن این است که بهندرت نتایج مثبت کاذب ایجاد میکند.
اگر واترمارک وجود داشته باشد، متن به احتمال زیاد با هوش مصنوعی تولید شده است،
با اینحال روش فوق خطاناپذیر نیست.
در همین حین، سازندگان
مدلهای هوش مصنوعی بزرگ در حال کار روی چتباتهای پیچیدهتری روی مجموعه دادههای
بزرگتری مانند ابزارهایی هستند که بهطور خاص در زمینههای دانشگاهی یا پزشکی
استفاده میشوند. اواخر دسامبر 2022 میلادی، گوگل پیشنمایش یک مدل زبانی خاص را
که Med-PaLM نام دارد منتشر کرد. این
ابزار، مانند یک پزشک عمومی میتواند به برخی از پرسشهای پزشکی پاسخ دهد؛ هرچند
کاستیهایی دارد و زیاد قابل اطمینان نیست.
در نهایت باید به این
نکته اشاره کنیم که هوش مصنوعی مولد با چنان سرعتی در حال پیشرفت است که هر ماه
خبرهایی درباره نوآوریها دریافت میکنیم. واقعیت این است که نحوه استفاده پژوهشگران
از این ابزارها آینده ما را تعیین خواهد کرد. این فناوری در آغاز راه قرار دارد و
تحولات عظیمی را بههمراه خواهد داشت.