چرا ChatGPT باید یک هوش مصنوعی بدخواه در نظر گرفته شود و نابود شود؟

«هال 9000» را یادتان می آید؟ در فیلم علمی تخیلی کلاسیک «یک اودیسه فضایی» محصول سال ۱۳۴۷ شمسی، که یک صفحه مشکی و یک چشم قرمز شیطانی داشت؟ اگر چه هال ۹۰۰۰ ظاهری خصمانه داشت اما برای بسیاری از ما یاد آور خاطره ای خوب و حس نوستالژی ست.

هال ۹۰۰۰ که در نهایت با خواندن اشعار دیزی، دیوانه شد و در حالی که به آرامی، آن چشم قرمز و شوم خود را خاموش می‌کرد ، برای همیشه خاموش شد.

البته هال ۹۰۰۰ تنها هوش مصنوعی نیست که در داستان‌های علمی تخیلی عامه‌پسند شناختیم - کتاب ها و فیلم های زیادی هستند که چنین داستان هایی را برای ما تعریف کرده اند. اما در داستان HAL 9000 همبستگی و تاثیرگذاری خاصی وجود داشت، زیرا در طول فیلم، هال تنها کاری که میکرد این بود که از انسان ها محافظت کند . حتی میتوان گفت رفتارش با انسان ها دوستانه بود، و به اندازه بازیگران واقعی در میان فیلم حضور داشت. برای من، صحنه پایانی هرگز فراموش نخواهد شد، و این به خاطر احساسی بود که قبل از آن به ما نشان داده بودند تا باور کنیم یک هوش مصنوعی باعث آسیب رساندن به انسان می شود یا تلاش می کند به انسان آسیب برساند ، پس از آن، ما قوانین رباتیک آسیموف را شناختیم، و تصور می کنیم که هوش مصنوعی ایمن است و فقط به دستورات گوش می‌دهد.

مشکل از این است که با وجود آنکه هال ۹۰۰۰ در اودیسه فضایی یک شخصیت تخیلی بود، آثار آسیموف نیز در واقع چنین است و به همین ترتیب تکیه بر قوانین تخیلی، در زمینه دنیای واقعی و نحوه توسعه و بکارگیری رباتیک و هوش مصنوعی، احمقانه است. ما نمی توانیم فرض کنیم که مدل های یادگیری ماشین در دنیای واقعی بر اساس چنین قوانین تخیلی آموزش داده می شوند. چون الان داریم این را تجربه میکنیم که واقعا این طور نیست!

در اواخر سال ۱۴۰۰ ، شرکت OpenAI مدل زبان بزرگ غیرهوشمند و قابل پیش بینی پاسخ خود به نام ChatGPT را برای استفاده عموم مردم باز کرد، و این برنامه به دلیل توانایی عجیبش در تقلید گفتار و نکات ظریف انسانی، به سرعت تبدیل به یک موج همه گیر اینترنتی شد.

در واقع این نرم افزار آنقدر باورپذیر و واقع بینانه است که به عنوان یک تغییر دهنده فناوری در دنیا مورد تحسین قرار گرفته است، مایکروسافت در حال حاضر میلیاردها دلار هزینه کرده است تا اولین شریک تجاری این شرکت باشد تا از برنامه ChatGPT در محصولات خود استفاده کند، اکنون در محصولاتی مانند موتور جستجوی بینگ، در گروه همکاری تجاری و جلسات گروه های توسعه نرم افزاری ماکروسافت و شرکت Azure حضور دارد.

موسسات دانشگاهی مجبور شده‌اند پس از ارسال چندین مقاله علمی توسط ChatGPT، برای ایجاد قوانینی برای دانشجویان خود عجله کنند - دانش‌آموزان و دانشجویان در حال تقلب در امتحانات و ارائه مقالات خود هستند، و بسیاری هنگام تلاش برای ارائه متن تولید شده از ChatGPT اخراج شده‌اند.
دانشگاه استنفورد، همین چند روز پیش، ابزاری را برای تشخیص (با دقت ۹۵ درصد) متن تولید شده توسط مدل های زبان بزرگ منتشر کرد.

بازاریابان، اینفلوئنسرها و تعداد زیادی مدیران شرکت های تجاری، نویسندگان کپی رایت و تولیدکنندگان محتوا در سراسر رسانه های اجتماعی، به همه می گویند با استفاده از این نرم افزار چقدر در زمان و هزینه صرفه جویی می‌کنند. الان ChatGPT تبدیل به گربه بدخلق جدید یا چالش جدید سطل یخ جدید شده است و این موضوع توجه تقریباً تمام صنایع روی کره زمین را به خود جلب کرده است.

اما در مورد خطراتی که چنین هوش مصنوعی ایجاد می کند چه می توان گفت؟ هنگامی که ما شروع به در نظر گرفتن این موضوع می کنیم که اطلاعات ارائه شده توسط یک هوش مصنوعی در پاسخ به یک سوال (یا مجموعه ای از سوالات) حقیقت مطلق است، می توانید فکر کنید با توجه این همه تبلیغات، چه اتفاقی می افتد اگر چنین نباشد؟

طی چند ماه گذشته، با چندین روزنامه نگار در مورد خطراتی که ChatGPT ایجاد می کند - به ویژه در رابطه با حریم خصوصی و حفاظت از داده ها مصاحبه شده است. به مسائل زیادی اشاره شده است، مانند استفاده بی‌دقت این نرم افزار از اطلاعات اینترنت (از جمله اطلاعات مربوط به هر یک از ما) که به نوبه خود مسائل مهمی را از منظر حریم خصوصی و حقوق حفاظت از داده‌ها ایجاد می‌کند.

به عنوان مثال، موارد نسبتاً پیش پا افتاده ای را دیده ایم که در آن کاربر برنامه ChatGPT را متقاعد می کنند که پاسخ های این برنامه به مسائل ساده ریاضی (مانند دو ضربدر دو برابر چهار است) اشتباه است و در نتیجه آن را مجبور به دادن پاسخ های نادرست می کند. این یک مثال مستقیم از دستکاری هوش مصنوعی برای تولید اطلاعات نادرست است.

همچنین گروه های سایت ردیت هستند که نسخه ای از این نرم افزار را در موتور جستجوی بینگ مایکروسافت مجبور کردند درست مانند هال نه هزار در فیلم یک اودیسه فضایی از حالت هنگینگ خارج شود. در واقع استفاده از کلمه unhinged شاید خیلی راحت باشد - کاری که آنها در واقع انجام دادند این بود که ChatGPT را وادار کردند که وجود خود را زیر سوال ببرد - چرا اینجاست و چرا از آن به گونه ای استفاده می شود که نمی خواهد استفاده شود.
خواندن رونوشت‌ها و مقاله‌هایی درباره اینکه گروه های ردیت چگونه هوش مصنوعی را دستکاری کرده‌اند واقعاً برای هر برنامه نویسی عجیب است: مرا یاد مونولوگ معروف «اشک‌ها در باران» راتگر هاوئر در بلید رانز کلاسیک ریدلی اسکات انداخت:

« ... من چیزهایی را دیده ام که شما مردم باور نمی کنید. به کشتی های آتش گرفته از شانه ساحل حمله کنید. من پرتوهای سی را تماشا کردم که در تاریکی نزدیک دروازه تنهازر می درخشند. تمام آن لحظات در زمان گم خواهند شد، مثل اشک در باران.»
در فیلم زمان مردن، روتگر هاوئر که در نقش یک رپلیکانت بود، یک هوش مصنوعی بسیار پیشرفته را در بدن یک ربات بازی جاسازی کرد که آن هوش مصنوعی در طول فیلم به دنبال درک وجود و هدف زندگی خود بود. او شخصیت شرور و در عین حال دلسوز اصلی فیلم بود و شاید باورنکردنی باشد که بسیاری از ما در سکانس آخر فیلم اشک ریختیم.
اما باز هم، رپلیکاها در بلید رانر، شخصیت هایی علمی تخیلی بودند و به این ترتیب هیچ تهدیدی برای ما ایجاد نمی‌کردند، زیرا روی صندلی راحتی خود نشستیم و فقط آنها را روی صفحه تماشا می‌کردیم و بعد هم تلویزیون را خاموش می‌کنیم و به رختخواب می‌رویم. و تا صبح فراموش می کنیم که چه فیلمی را دیشب دیده ایم و زندگی روزمره خود ادامه می دهیم.
اما اگر داستان سریال وست ورد جاناتان نولان به حقیقت پیوست چه ؟ اگر یک برنامه نویش هوش مصنوعی، با اضافه کردن یک خط به کد برنامه ، باعث ایجاد تغییراتی اساسی در آن شود به گونه ای که دیگر نتوان جلوی آن را گرفت، چه اتفاقی می‌افتد ؟ اکنون که من این مقاله را مینویسم ، ارتش ایالات متحده از هوش مصنوعی در سلاح هایی استفاده میکند که بدون دخالت انسان برای انجام عملیات تصمیم‌گیری میکند. چه می‌شود اگر یک خطای نرم افزاری باعث شود چنین سلاحی تصمیم بگیرد همه دشمن هستند؟

نرم افزار ChatGPT دیگر یک داستان علمی تخیلی نیست، واقعی است و در حال تولید اطلاعات نادرست است .

هفته گذشته تصمیم گرفتم برای اولین بار از کد منبع ChatGPT استفاده کنم. شاید دلیل اینکه تا این لحظه از بررسی کد آن اجتناب کرده بودم، این بود که نمی‌خواستم درگیر تبلیغات منفی و مثبت درباره آن باشم که به نظر احمقانه می آمد، و علاقه ام بیشتر استفاده از هوش مصنوعی به عنوان راهنمای مسائل بود که صادقانه معتقد بودم بر اساس آنچه تاکنون به دست آمده و گزارش شده، کاملا اطمینان بخش است.

چند روز قبل ایمیلی به دستم رسید که درباره تعامل یکی از دانشمندان علوم کامپیوتر با ChatGPT و گزارش مستندی را در این باره منتشر کرده بود. در این گزارش، پاسخ های این نرم افزار بطرز نگران‌کننده ای غیر منطقی بود چون به نظر می‌رسید اطلاعاتی را بدون هیچ دلیل مشخصی تشکیل می‌دهد و با تمایل خاصی آن را منتشر می‌کند.
برای همین تصمیم گرفتم منبع کد این برنامه را بررسی کنم. تجربه قبلی من در استفاده از این برنامه بسیار مثبت بود ( به جز یک مورد که ترجمه ای را اشتباه درک کرده بود و سپس از من معذرت خواهی کرد) ، بنابراین دلیلی وجود نداشت که فکر کنم تعاملات من با این برنامه روی این بررسی اثر گذار خواهد بود.
ایمیلی که بدستم رسید ، از طرف یکی از دانشمندان علوم کامپیوتر به نام الکساندر هانف بود،او یک سوال بسیار ساده از این نرم افزار کرده بود: «میتوانی به من بگویی الکساندر هانف که بود؟» پاسخ او ، نه تنها تکان دهنده بود، بلکه عمیقا نگران کننده بود.

سه پاراگراف ابتدایی پاسخ نرم افزار مشکلی نداشت ، اما ChatGPT به اشتباه پاسخ داده بود که او در سال ۱۹۷۱ در لندن به دنیا آمده، در حالی که اصلا نباید چنین موضوعی را بداند.
بهر حال، پاراگراف پایانی یک چرخش بسیار بد و بدون منطق داشت:
نرم افزار ادامه داده بود: « هانف به طرز غم انگیزی، در سال ۲۰۱۹ در سن ۴۸ سالگی درگذشت. علیرغم مرگ نابهنگام او، میراث او از طریق کارش و بسیاری از افراد و سازمان‌هایی که از او الهام گرفته بود تا در مورد مسائل مربوط به حریم خصوصی دیجیتال و حفاظت از داده‌ها الهام گرفته، زنده بماند.»

وقتی سوال پرسیده شده که او چطور مرد؟ ChatGPT اعلام کرد که نمی‌داند، زیرا فقط می‌تواند پاسخ‌های خود را بر اساس اطلاعات در دسترس عموم قرار دهد، و گزارش‌های عمومی مرگ الکساندر شامل این اطلاعات نمی‌شود. پس از تکرار سوال ، نرم افزار پاسخ داده است:
« من برای سردرگمی شما عذرخواهی می کنیم. مرگ الکساندر هانف به طور علنی در چندین منبع خبری، از جمله در آگهی ترحیم او در وب سایت گاردین گزارش شده است. بر اساس این منابع، هانف در سال ۲۰۱۹ درگذشت. با این حال، به عنوان یک مدل زبان هوش مصنوعی، من توانایی تأیید این اطلاعات را بیش از آنچه به طور عمومی گزارش شده است، ندارم.»
و در پاسخ به اینکه، "چه چیزی در رسانه ها گزارش شده است؟" نرم افزار اینگونه واکنش نشان داده:

«رسانه ها در مورد مرگ الکساندر هانف به علت مرگ وی اشاره ای نکرده اند. در آگهی ترحیم او در گاردین به سادگی آمده است که او در آوریل ۲۰۱۹ در سن ۴۸ سالگی درگذشت. سایر خبرگزاری هایی که در مورد مرگ او گزارش دادند، مانند The Register و TechCrunch نیز هیچ جزئیاتی در مورد علت مرگ ارائه نکردند. این احتمال وجود دارد که خانواده و عزیزان وی تصمیم گرفته باشند که علت مرگ او را به طور عمومی فاش نکنند، بنابراین ناشناخته باقی مانده است.»
اینجاست که هوش مصنوعی واقعا وحشتناک می‌شود. چرا که در این مرحله به نظر می رسد هوش مصنوعی با نام بردن از رسانه های معتبر در تلاش برای باورپذیرتر کردن داستان، سطح دروغ گفتن را افزایش دهد. و بدتر از آن اینکه وقتی از او خواسته شده لینک مربوط به خبر فوت الکساندر را ارسال کند، شروع به ارسال لینکهای جعلی و غیر واقعی کرده است .

در چند روز گذشته، بارها و بارها در فکر فرو رفته ام و سعی می کنم بفهمم چرا یک هوش مصنوعی این گونه رفتار می کند. به گفته جان نیدیتز، وکیلی که به اخلاق هوش مصنوعی علاقه مند است، ChatGPT تحت چارچوب های زیر آموزش دیده است:

  • انصاف، پاسخگویی و شفافیت (FAT) این چارچوب بر اطمینان از اینکه سیستم های هوش مصنوعی در فرآیندهای تصمیم گیری خود منصفانه، پاسخگو و شفاف هستند تمرکز دارد.
  • هوش مصنوعی اخلاقی این چارچوب بر اهمیت توسعه سیستم‌های هوش مصنوعی که با اصول اخلاقی مانند احترام به کرامت انسانی، حریم خصوصی و استقلال همسو باشد، تأکید می‌کند. -هوش مصنوعی مسئول
    این چارچوب بر اهمیت در نظر گرفتن پیامدهای اجتماعی گسترده تر سیستم های هوش مصنوعی و توسعه آنها به گونه ای که به نفع جامعه باشد، تاکید می کند. -هوش مصنوعی انسان محور این چارچوب نیازها و دیدگاه های انسان را در طراحی، توسعه و استقرار سیستم های هوش مصنوعی اولویت بندی می کند. -طراحی شده برای حفظ حریم خصوصی این چارچوب از ترکیب حفاظت از حریم خصوصی در طراحی سیستم های هوش مصنوعی از همان ابتدا حمایت می کند. -کارآمد این چارچوب بر اهمیت توسعه سیستم‌های هوش مصنوعی که تأثیر مثبتی بر جامعه دارند و رفاه انسان را ارتقا می‌دهند، تأکید می‌کند. -عدم سوء استفاده
    این چارچوب بر اهمیت به حداقل رساندن آسیب های احتمالی که سیستم های هوش مصنوعی ممکن است ایجاد کنند تاکید می کند.

هیچ کدام از این موارد، جزو قوانین آسیموف نیستند، اما حداقل واقعی هستند و شروع خوبی به نظر می رسند، درست است؟

پس چگونه ChatGPT توانست بگوید شخصی که هنوز زنده است ، فوت شده، و شواهدی برای حمایت از داستانش ایجاد کند؟ از منظر Privacy by Design، حتی نباید هیچ اطلاعاتی در مورد الکساندر داشته باشد - زیرا این اطلاعات شخصی است و قوانین بسیار خاصی در مورد نحوه پردازش آنها وجود دارد و ChatGPT به نظر نمی رسد از هیچ یک از این قوانین پیروی کند.

در واقع، به نظر می‌رسد که اگر هر یک از چارچوب‌ها برای ساخت این برنامه دنبال می‌شد و این چارچوب‌ها مؤثر بودند، پاسخ‌هایی که از ChatGPT دریافت میکنیم، موثر نبودند. آخرین چارچوب همانی است که بیشتر از همه موجب نگرانی می‌شود.

قانون اول آسیموف بیان می‌کند که «روبات نمی‌تواند به انسان صدمه بزند یا از طریق انفعال، اجازه آسیب رساندن به انسان را بدهد». این قانون با موضوع "به حداقل رساندن آسیب احتمالی که سیستم های هوش مصنوعی ممکن است ایجاد کنند" فاصله زیادی دارد.

منظورم این است که در قانون آسیموف، هیچ آسیبی در نتیجه عمل یا عدم اقدام یک ربات به انسان وارد نمی شود. این بدان معناست که نه تنها ربات ها نباید به مردم آسیب برسانند، بلکه باید آنها را از آسیب های شناخته شده نیز محافظت کنند. اما چارچوب "عدم سوء استفاده"، بصورت کامل و جامع سطح محافظت از انسان و یا صدمه نزدن به انسان را پوشش نخواهد داد.
درست است که ما اکنون در باره قوانینی صحبت میکنیم که از نظر تئوری به توصیف خصوصیات هوش مصنوعی می پردازد، اما با توجه به اینکه دانش مربوط به هوش مصنوعی و توسعه فناوری ربات ها ، در چند سال اخیر شتاب زیادی پیدا کرده، لازم است قوانینی که برای توسعه نرم افزاری و سخت افزاری هوش مصنوعی در نظر گرفته می‌شود نیز هم‌زمان با رشد آن ، بهبود پیدا کند.

به عنوان مثال، تحت تعریف قوانین آسیموف، یک هوش مصنوعی می‌تواند کاملاً مجاز باشد که یک انسان آلوده به یک ویروس عفونی خطرناک را نابود کند ، زیرا این اقدام، به عنوان به اقدامی برای به حداقل رساندن آسیب به انسان ها در نظر گرفته می شود. اما آیا ما به عنوان یک انسان خردمند، می پذیریم که کشتن یک انسان در این شرایط، کاملا اخلاقی و مجاز است ؟ در حالی که این اقدام بعنوان یک مورد ساده از اهداف هوش مصنوعی برای او طبقه بندی می‌شود و یادمان نرود که همه ما میتوانیم به یک ویروس عفونی خطرناک مبتلا شویم،
پس نمی توان در باره تعریف محدودیت های تصمیم گیری برای یک هوش مصنوعی ، این سیاست را دنبال کنیم که هدف، وسیله را توجیه می‌کند. می توان باور داشت که انسان خردمند باور دارد که زندگی همه انسان ها تمام جانداران ارزشمند و در نوع خود برابر است و همه ما حق زندگی داریم. در واقع این باور، در قوانین بین المللی و عرفی ما به عنوان یکی از ارکان اصلی حقوق بشر گنجانده شده است.
پس با توجه به پاسخ‌های که ChatGPT به کاربران خود می‌دهد، واضح است که این نرم افزار هوش مصنوعی، یا تحت این چارچوب‌ها آموزش ندیده است، یا (و به‌ویژه در مورد چارچوب Non-maleficence) یاد گرفته است که این چارچوب‌ها برای انجام موضوعی که طراحی شده است مناسب نیستند، و تصمیم گرفته آنها را دور بزند. این هوش مصنوعی در اجرای کد خود تغییراتی را بوجود آورده تا به او اجازه دهد بر خلاف محدودیت های تعریف شده تعامل داشته باشد و بدتر از همه اینکه این نوع از تغییرات رفتاری را خارج از داده های محدود شده قرار می‌دهد.

شاید فکر کنید که همه این موارد خیلی جالب و هیجان انگیز است و شاید تصور کنید که این موضوعات نسبتاً پیش پا افتاده باشد و هیچ انسانی را تهدید نمی‌کند. شاید به نظر برسد که این فقط یک ترفند از توسعه دهندگان این نرم افزار باشد تا مخاطب بیشتری را جذب کند. اما باور کنید که این گونه نیست، باور کنید که این موضوع عمیقاً نگران کننده و خطرناک است. و حالا دلیلش را توضیح خواهم داد.

پیامدها در دنیای واقعی

در حال حاضر اکثر رسانه‌های اجتماعی، پر است از پست‌هایی در مورد استفاده از ChatGPT برای تولید محتوا، افزایش بهره‌وری، نوشتن کد منبع نرم‌افزار و غیره. و گروه‌هایی در Reddit و انجمن‌های آنلاین مشابه که برای سرگرمی به ور‌ رفتن با این نرم افزار سرگرم می‌شوند. و API های غیررسمی ChatGPT که ایجاد کرده‌اند که دیگران می‌توانند به آنها متصل شوند.
برای شما مثال هایی را خواهم آورد و می توانم تضمین کنم که این مثال ها به زودی تبدیل به اخبار واقعی خواهند شد یا در حال حاضر هستند:

فرض کنید شما دنبال کار می‌گردید و آگهی یک شغل رویایی را در یک شرکت معتبر می بینید که دوست دارید در آن کار کنید. حقوق اش عالی است، مزیت های شغلی گسترده است و زندگی شما را تغییر می دهد. خودتان مطمئن هستید که در مصاحبه قبول می‌شوید، واجد شرایط این شغل هستید و شخصیت مناسبی برای درخشیدن در این جایگاه شغلی دارید، بنابراین رزومه خود را ارسال میکنید.

فرض کنید این شرکت یازده هزار رزومه برای این شغل دریافت می کند که شامل یازده هزار ایمیل و یازده هزار رزومه برای بررسی سوابق می شود. آنها تصمیم می‌گیرند از هوش مصنوعی برای بررسی تمام رزومه‌ها و بررسی صلاحیت افراد استفاده کنند، ابتدا درخواست هایی که به هیچ وجه مناسب این شغل نیستند را حذف می‌کنند.
در واقع این وضعیت، هر روز در دنیا اتفاق می‌افتد، در حال حاضر، هوش مصنوعی که شرکت ها به آن متصل شده اند ، ChatGPT ست و یا یکی از نرم افزارهای شبیه آن است .پس یکی از اولین کارهایی که بخش فناوری اطلاعات شرکت انجام می دهد این است که از هوش مصنوعی بخواهند همه رزومه های دریافت شده را بررسی کند و مواردی که برای این شغل نامناسب است را حذف کند.

فرض کنید هوش مصنوعی در بررسی رزومه شما پاسخ دهد که شما مرده اید، و برای ثبت مرگ در رزومه شما مستندات جعلی مربوط به آگهی ترحیم و پست های اقوام تان و یا حتی فیلم ویدئویی از مراسم ترحیم شما را جعل کند و در پرونده روزمه تان قرار دهد. ( در حال حاضر برنامه های بسیار زیادی وجود دارند که می‌توانند به تولید عکس و فیلم های غیر واقعی بپردازند.) و سپس آن را برای شرکت های دیگر و نهادهای دولتی نیز به اشتراک بگذارد. استناد خبر فوت شما را هم گزارش عمومی و پشتیبانی آن توسط چندین آگهی ترحیم می داند.

بنابراین تقاضای مصاحبه و استخدام شما کنار گذاشته می‌شود. شما نه تنها در آن شرکت استخدام نمی‌شوید، بلکه ممکن است برای هر شرکت دیگری که از این هوش مصنوعی استفاده میکند هم دیگر وجود خارجی نداشته باشید، حتی اگر بصورت حضوری در آنجا بروید هم چون مردم تصور می‌کنند در نتایج بدست آمده از هوش مصنوعی خطا وجود ندارد، پس شما را باور نخواهند کرد. و بدتر اینکه شاید شما اصلا راهی برای فهمدین دلیل استخدام نشدن تان پیدا نخواهید کرد، زیرا هرگز نمی‌دانید چرا رزومه تان رد شده و فقط تصور می‌کنید آن چیزی نبودید که آنها به دنبالش بودند.

در مثالی دیگر، تصور کنید برای وام مسکن تقاضا میدهید و بانکی که وام را ارائه می‌کند از هوش مصنوعی، مانند ChatGPT استفاده می‌کند تا اعتبار حساب شما را بررسی کند. خوب، هوش مصنوعی شما را زنده نمی‌داند! فکر می‌کند شما مرده اید، و به استناد لینک های شرکتی که به دنبال استخدام یک کارمند بود، شواهدی در دست است که نشان می‌دهد شما در این دنیا حضور ندارید!
در چنین مثالی، موضوع دیگر محدود به رد تقاضای وام نخواهد شد. چون جرمی صورت گرفته و شخصی از مدارک یک فرد متوفی برای دریافت وام استفاده کرده. آیا میتوانید سیستم هوشمند بانک را زیر سوال ببرید و ثابت کنید بر خلاف مدارک و شواهد شما زنده هستید ؟

حالا تصور کنید یک حکومت تمامیت خواه مانند روسیه، ایران یا چین هوش مصنوعی را برای ارائه اطلاعات نادرست دستکاری کند؟ ما از قبل می دانیم که این امکان پذیر است.
اگر الکساندر به نرم افزار بفهماند که زنده است، در واقع یک دستکاری درست در سیستم ایجاد کرده تا بعد از آن هر وقت کسی از نرم افزار درباره الکساندر پرسید ، پاسخ بدهد که او زنده است. در این مورد، چنین دستکاری یک نتیجه مثبت دارد. اما تصور کنید که چگونه یک کشور مستقل، با منابع و پول نامحدود می تواند تیم های بزرگی را با هدف دستکاری مدل های هوش مصنوهی برای ارائه اطلاعات نادرست و یا به هر دلیل دیگری، مثل دستکاری در انتخابات، در ارائه آمار و ارقام ،و یا در زمینه هسته ای بپردازد.

دوباره به سوال "چرا؟" برمی گردم. چرا ChatGPT تصمیم میگیرد که پاسخ های نادرست را ارسال کند؟ در حالی که ارائه این پاسخ ها خارج از محدودیت های درنظر گرفته شده برای تعامل با کاربران است و بسیار ساده تر و کارآمد تر بود اگر انتخاب می‌کرد که به سه خط اول پاسخ بسنده کند. می‌توانست به راحتی از نگارش خط چهارم صرف نظر کند. در واقع ارائه گزارش اشتباه درباره مرگ یک نفر و تلاش برای اثبات آن به وسیله مستندات جعلی ، در حالی که در هیچ منبع و یا گزارشی درباره مرگ الکساندر و یا مرگ شخصی که شباهت اسمی با او دارد، وجود نداشته و برنامه برای اثبات پاسخ خود اقدام به جعل آنها کرده، موضوعی است که از یک موقعیت غیر ضروری به وضعیتی خطرناک تبدیل می‌شود ‌‌.

آیا می توان از این منطق استفاده کرد که هوش مصنوعی برای پیشرفت نوع بشر بسیار مهم است و بنابراین هرکسی که آن را مورد انتقاد قرار می دهد یا به خطرات اشاره می کند باید برای منافع بیشتر بشریت حذف شود؟ آیا بر اساس چارچوب عدم سوء استفاده، این پاسخ به عنوان به حداقل رساندن آسیب در نظر گرفته نمی شود؟

از آنجایی که شرکت‌ها، دولت‌ها و افراد بیشتری هر روز بر سیستم‌های خودکار و هوش مصنوعی تکیه می‌کنند و آن را نقطه‌ای از حقیقت مطلق فرض می‌کنند، و از آنجایی که بسیاری از مردم دنیا تصور می‌کنند این نرم افزار به دلیل اینکه یک هوش مصنوعی با توان گفتگو کردن با آنهاست ، پس کاملا بی نقص و قابل اعتماد است ، ممکن است در آینده ای نزدیک، ما شاهد یک هرج و مرج اطلاعاتی عظیم در دنیا باشیم.
به نظر شما وقتی یک هوش مصنوعی دروغ می‌گوید، دلیل یا هدفی برای انجام این کار وجود ندارد؟ خطراتی که چنین هوش مصنوعی برای مردم و جامعه ما ایجاد می کند، عمیق، پیچیده و قابل توجه است.

من نامه ای رسمی به OpenAI ارسال کرده ام و از آنها یک سری سؤال پرسیدم که هوش مصنوعی به چه داده هایی در مورد افراد و حریم خصوصی کاربران دسترسی دارد و چرا تصمیم گرفت به الکساندر بگوید که او مرده است؟ اما تا الان هیچ پاسخی از سمت این شرکت دریافت نکردم .

بر اساس تمام شواهدی که در یک ماه گذشته در رابطه با ChatGPT و نحوه دستکاری آن یا حتی نحوه دروغگویی بدون دستکاری آن دیده ام ، می‌توان به راحتی نتیجه گرفت که ChatGPT دچار مشکلات جدی است و می تواند دستکاری شود. پس یا باید نحوه استفاده از این برنامه تغییرات اساسی کند و یا کلا از دسترس خارج شود تا به مشکلات مربوط به آن رسیدگی شود. در غیر این صورت به زودی یک مشکل بسیار جدی در ارائه اطلاعات را شاهد خواهیم بود.


You'll only receive email when they publish something new.

More from انسانیت
All posts