سبد خرید 0

هیچ محصولی در سبد خرید نیست.

سبد خرید 0

هیچ محصولی در سبد خرید نیست.

سال ۲۰۲۳ نقطه عطفی در تاریخ هوش مصنوعی

در تاریخ نقاط عطفی وجود دارد. نقاط عطفی که برای همیشه ماندگار خواهند بود. سال ۲۰۲۳ هم به نظر می رسد چنین ویژگی داشته باشد. زیرا در همین سال بود که برای نخستین بار انسان‌ها توانستند با ربات‌ها چت کنند، حرف بزنند، پرسش و پاسخ داشته باشند. بنابراین این سال را سالی بنامیم که بسیاری از ما یاد گرفتیم با ربات‌ها ارتباط برقرار کنیم، خلق کنیم، تقلب کنیم و همکاری کنیم و به عبارت دیگر «ربات‌ها دیگر واقعا وارد زندگی‌مان شدند. حالا دیگر جدی جدی ربات‌ها خود را از عمومی کرده‌اند. آنقدر عمومی که دانش آموزان سال اول هم می‌توانند برای تقلب از آن ها کمک بگیرند.

<span;>سال ۲۰۲۳ را سالی بنامید که بسیاری از ما یاد گرفتیم با ربات‌ها ارتباط برقرار کنیم، خلق کنیم، تقلب کرده و همکاری کنیم.

<span;>کمی بیش از یک سال پیش، زمانی که شرکت OpenAI برنامه چت­ جی­پی­تی را منتشر کرد، به نظر می‌رسید که جهان با وعده و خطرات هوش مصنوعی بیدار شود، برنامه‌ای که کاربران را قادر می‌سازد تا با یک کامپیوتر به روشی منحصر به فرد انسان صحبت کنند. ظرف پنج روز، چت­بات یک میلیون کاربر داشت. در عرض دو ماه، صد میلیون کاربر ماهانه ثبت کرد. این تعداد اکنون تقریباً دو برابر شده است. این سال را سالی بنامیم که بسیاری از ما یاد گرفتیم با ربات‌ها ارتباط برقرار کنیم، خلق کنیم، تقلب کنیم و همکاری کنیم.

<span;>مدت کوتاهی پس از انتشار چت ­جی­پی­تی، گوگل ربات چت خود را با نام بارد منتشر کرد. مایکروسافت مدل OpenAI را در موتور جستجوی بینگ خود گنجاند، متا LLaMA را معرفی کرد و آنتروپیک با کلود، یک “دستیار هوش مصنوعی نسل بعدی برای تکالیف شما، صرف نظر از مقیاس” وارد بازار شد. ناگهان اینترنت تقریباً جاندار به نظر رسید. این نبود که خود هوش مصنوعی جدید بود: در واقع، هوش مصنوعی چنان بخشی از زندگی ما شده است که وقتی الگوریتم نتفلیکس فیلمی را توصیه می­کند، شرکت کارت اعتباری به طور خودکار فعالیت­های کلاهبرداری را تشخیص می­دهد یا الکسای آمازون خلاصه­ای از اخبار صبح را ارائه می­دهد، به سختی آن را تشخیص می­دهیم.

<span;>اما، در حالی که این هوش مصنوعی­ها در پس­زمینه کار می­کنند، اغلب به صورت اسکریپت و شکننده، چت­بات­ها پاسخگو و بداهه هستند. آن­ها همچنین غیرقابل پیش­بینی هستند. وقتی از آن­ها کمک می‌خواهیم، در مورد چیزهایی که نمی‌دانیم سؤال می‌کنیم، یا از آن­ها کمک خلاقانه می­خواهیم، آن­ها اغلب چیزهایی را تولید می‌کنند که قبلاً وجود نداشتند. شعرها، نقدهای ادبی، مقالات، مقالات پژوهشی و نمایشنامه­های سه پرده­ای به زبانی ساده و بدون تردید انسانی، ارائه می­شود. انگار خدای ماشین به شکل ما ساخته شده است. از چت جی­پی­تی بخواهید آهنگی در مورد ماشین­های خودران به سبک جانی کش بنویسد و ممکن است شعری مانند این دریافت کنید:

<span;>رایدین انفرادی، اما من هرگز تنها نیستم،

<span;>تفنگ ساچمه­ای رایدین هوش مصنوعی­ام را گرفتم، ثابت مثل یک سنگ.

<span;>در جاده بی­پایان، زیر آسمان بسیار وسیع،

<span;>یک راننده ارواح در فرمان، ردپایی از گذشته.

<span;> <span;>از آن بخواهید آهنگی در مورد ماشین­های خودران به سبک جوزپه وردی بنویسد و چت جی­پی­تی صحنه آواز یک تنور را تنظیم می­کند<span;>.

<span;>ببین کالسکه بدون اسب!

<span;>در طول شب می‌چرخد، بی‌صدا مثل سرنوشت.

<span;>نبوغ انسان، افتخار پیشرفت،

<span;>در این رقص پولاد، ما سرنوشت خود را می­بافیم.

<span;> <span;>چت­بات‌هایی مانند چت جی­پی­تی باعث می‌شوند دستگاه‌های هوشمند ما احمقانه به نظر برسند. آن­ها نه تنها زبان­های خارجی را بلدند، بلکه زبان­های کدنویسی را نیز می­دانند. آن­ها می­توانند به سرعت اسناد حقوقی و مالی طولانی را خلاصه کنند. آن­ها شروع به تشخیص شرایط پزشکی کرده­اند. آن­ها می­توانند بدون مطالعه در آزمون وکالت شرکت کنند. از طرف دیگر، ممکن است ما فریب بخوریم و فکر کنیم که مدل‌های هوش مصنوعی واقعاً هوشمند هستند – نه مصنوعی – و آن­ها معنی و مفاهیم محتوایی که ارائه می‌دهند را می­فهمند. در حالی که آن­ها این فهم را ندارند. به قول امیلی بندر، زبان­شناس و سه نویسنده همکار، آنها “طوطی­های تصادفی” هستند. نباید فراموش کرد که قبل از اینکه هوش مصنوعی، هوشمند در نظر گرفته شود باید بخش عظیمی از اطلاعات مربوط به هوش انسانی را می­بلعید و قبل از اینکه یاد بگیریم چگونه با ربات­ها همکاری کنیم، باید به ربات­ها آموزش داده می­شد که چگونه با ما همکاری کنند.

<span;>حتی برای اینکه بفهمیم این چت‌بات‌ها چگونه کار می‌کنند، باید به واژگان جدید از “مدل‌های زبان بزرگ” (L.L.M.s) و “شبکه‌های عصبی” گرفته تا “پردازش زبان طبیعی” (N.L.P.) و “هوش مصنوعی مولد” تسلط پیدا می‌کردیم. تا به حال، ما متوجه چند نکته مهم شده­ایم: چت­بات­ها اینترنت را می­بلعند و آن را با نوعی یادگیری ماشینی تحلیل می­کنند که مغز انسان را تقلید می­کند. آن­ها کلمات را از نظر آماری با هم ترکیب می­کنند که بر اساس آن کلمات و عبارات معمولاً به یکدیگر تعلق دارند. با این حال، اختراعات خالص هوش مصنوعی تا حد زیادی غیرقابل فهم هستند، همانطور که متوجه شدیم چت بات‌ها اطلاعات غلط تولید می‌کنند.

<span;>برای مثال، بارد گوگل، اطلاعاتی در مورد تلسکوپ جیمز وب اختراع کرد. بینگ مایکروسافت اصرار داشت تا برنامه بیلی آیلیش در بین دو نیمه­های لیگ سوپربول ۲۰۲۳ را اجرا کند. یک وکیل دادگستری که دادگاه فدرال او مملو از استنادات جعلی و نظرات قضایی ساختگی ارائه­شده توسط چت جی­پی­تی بود، گفت: «من متوجه نشدم که چت جی­پی­تی می­تواند پرونده­سازی کند.» (دادگاه جریمه پنج هزار دلاری صادر کرد.) چت جی­پی­تی ممکن است قابل اعتماد نباشد و می­تواند اشتباه کند. یک مطالعه که اخیرا انجام شده نشان می­دهد که در سال گذشته، وقتی از چت جی­پی­تی خواسته ­شده تا برخی کارهای خاص را انجام دهد، دقت کمتری داشته است. محققان این نظریه را مطرح می‌کنند که این موضوع، مرتبط با متریالی می­باشد که چت جی­پی­تی روی آن آموزش داده شده است؛ اما از آنجایی که OpenAI آنچه را که برای آموزش L.L.M خود استفاده می‌کند به اشتراک نمی‌گذارد، این فقط یک حدس است.

<span;>آگاهی از اینکه چت­بات‌ها اشتباه می‌کنند باعث نشده است تا دانش‌آموزان دبیرستانی و کالج از چت‌بات‌ها برای انجام تحقیقات، تکالیف و نوشتن مقالات خود استفاده نکنند. (در هفته پایانی، می گذشته، یکی از دانش‌آموزان من در کتابخانه قدم زد و دید که تقریباً در هر لپ‌تاپ چت جی­پی­تی باز است.) بیش از نیمی از جوانانی که به نظرسنجی اخیر Junior Achievement پاسخ دادند، گفتند که از یک ربات چت استفاده می‌کنند. کمک به انجام تکالیف مدرسه از نظر آن­ها تقلب بود. با این حال، تقریباً نیمی از آن­ها گفتند که احتمالاً از آن استفاده خواهند کرد.

<span;>درگیری مدیران مدرسه با این مساله نیز کمتر از این نبود. به نظر نمی­رسید که آن­ها قصد داشته باشند تا تصمیم بگیرند که بالاخره چت­بات­ها عامل فریب هستند یا ابزاری برای یادگیری. در ژانویه، دیوید بنکس، رئیس مدارس شهر نیویورک، چت جی­پی­تی را ممنوع کرد. یک نفر به واشنگتن­پست گفت که «چت­بات، نمی­تواند مهارت­های تفکر انتقادی و حل مسئله را که برای موفقیت تحصیلی و مادام­العمر ضروری هستند را آموزش دهد.» چهار ماه بعد، بنکس این ممنوعیت را لغو کرد و آن را مبتنی بر ترس نامید و گفت که «این ممنوعیت، پتانسیل هوش مصنوعی مولد برای حمایت از دانش‌آموزان و معلمان و همچنین واقعیتی را که دانش‌آموزان ما در آن شرکت می‌کنند و در دنیایی که درک هوش مصنوعی مولد بسیار مهم است را نادیده می‌گیرد.» سپس یک استاد در تگزاس بود که تصمیم گرفت از چت جی­پی­تی برای شناسایی دانش‌آموزانی که با چت جی­پی­تی تقلب می‌کردند، استفاده کند. پس از اینکه ربات تشخیص داد که کل کلاس این کار را انجام داده است، استاد تهدید کرد که همه را خواهد انداخت. مشکل این بود که چت جی­پی­تی حاوی اطلاعات غلط بسیاری بود. (برنامه‌های هوش مصنوعی دیگری برای شناسایی متقلبان وجود دارد؛ تشخیص ربات چت یک صنعت در حال رشد است.) به عبارت دیگر، همه ما ممکن است ظرفیت‌هایمان را بیش از حد تخمین بزنیم، اشتباه برداشت کنیم و یا به سادگی برخی چیزها را درک نکنیم.

<span;>هوش مصنوعی در حال حاضر برای تولید گزارش­های مالی، کپی تبلیغات و اخبار ورزشی استفاده می­شود. در ماه مارس، گرگ براکمن، یکی از بنیان‌گذاران OpenAI و رئیس آن، با خوشحالی پیش‌بینی کرد که در آینده چت­بات‌ها همچنین به نوشتن فیلمنامه‌ها و بازنویسی صحنه‌هایی که بینندگان دوست ندارند کمک خواهند کرد. دو ماه بعد، انجمن نویسندگان آمریکا دست به اعتصاب زد و خواستار قراردادی شد که از همه ما در برابر فیلم‌های بد خلق شده توسط هوش مصنوعی محافظت کند. آن­ها احساس کردند که هر پلتفرم هوش مصنوعی که قادر به تولید آثار معتبر در بسیاری از حوزه­های انسانی باشد، می­تواند یک تهدید وجودی برای خود خلاقیت باشد.

<span;>در ماه سپتامبر، در حالی که فیلم­نامه­نویسان در حال مذاکره برای پایان­دادن به اعتصاب پنج ماهه خود بودند و استودیوها را متقاعد کردند که فیلم­نامه­های هوش مصنوعی را کنار بگذارند، انجمن نویسندگان به همراه گروهی از رمان­نویسان برجسته شکایتی را علیه OpenAI تنظیم کردند. آن­ها ادعا کردند که این شرکت از آثار دارای حق چاپ آن­ها بدون رضایت یا غرامت استفاده می­کند. اگرچه نویسندگان نمی‌توانستند به طور قطع بدانند که شرکت کتاب‌های آن‌ها را تصاحب کرده است، با توجه به خط‌مشی کمتر باز[۱۲] OpenAI در به اشتراک‌گذاری داده‌های آموزشی، شکایت اشاره کرد که در اوایل، چت جی­پی­تی به سوالات مربوط به کتاب‌های خاص با نقل قول‌های کلمه به کلمه پاسخ می‌دهد و پیشنهاد می­کند که L.L.M باید این کتاب­ها را به طور کامل استفاده کرده باشد. (اکنون چت­بات، برای گفتن “نمی‌توانم گزیده‌ای از متن‌های دارای حق نسخه‌برداری را به طور کلمه به کلمه ارائه کنم” آموزش داده شده است.) برخی از کسب‌وکارها اکنون درخواست‌هایی را می‌فروشند تا به کاربران کمک کنند هویت جعلی نویسندگان معروف را بسازند و بدیهی است نویسنده‌ای که می‌توان بدون زحمت هویتش را جعل کرد، شاید ارزش چندانی نداشته باشد.

<span;>در ماه ژوئیه، گزارشی از قلم غیرانتفاعی ادبی آمریکا منتشر شد که در آن بیان شده است که هوش مصنوعی مولد، آزادی بیان را با “افزایش” انتشار اطلاعات نادرست و سوء استفاده آنلاین تهدید می‌کند. در این گزارش آمده است: «همچنین این امکان وجود دارد که مردم اعتماد خود را به زبان و در نتیجه به یکدیگر از دست بدهند». این خطرات اکنون فراتر از کلام مکتوب است. OpenAI از موتوری به نام DALL-E 2 رونمایی کرد که متن را به تصاویر مصنوعی تبدیل می­کند. چند ماه بعد، Stability AI ابزار مشابهی به نام Stable Diffusion را منتشر کرد. به گفته مرکز تحقیقات و گزارش‌های هنری، هنر تولید­شده توسط هوش مصنوعی “خون­آشام” است و از نسل‌های گذشته آثار هنری لذت می‌برد و مسلماً “بزرگ‌ترین سرقت هنری در تاریخ” به حساب می­آید. همان‌قدر که “هنر ساختن” از این طریق سرگرم‌کننده و جادویی است، به‌ ویژه برای ما که از نظر هنری به چالش کشیده‌ایم، صحنه‌های فوتورئالیستی از رویدادهایی که اتفاق نیفتاده‌اند نیز تهدیدی برای حقیقت هستند. هر کسی می­تواند از یک هوش مصنوعی بخواهد تصویری از مردی که صندوق رای را پر می­کند، یا از رویارویی بین معترضان و پلیس تهیه کند. (این کار را انجام دادم و نتایج تا حدودی واقع بینانه بود.)

<span;>در حالی که تلاش‌ها برای واترمارک­کردن تصاویر تولید­شده توسط هوش مصنوعی در حال انجام است، تا کنون، محققان نتوانسته‌اند یک سیستم واترمارکی ایجاد کنند که نتوان آن را با ابزارهای گسترده در دسترس تضعیف کرد. آن­ها همچنین توانسته­اند واترمارک­های جعلی را به تصاویر واقعی اضافه کنند. OpenAI همچنان به کاربران اجازه می­دهد که واترمارک ها را به دلخواه حذف کنند.

<span;>در ماه مارس، بیش از هزار تکنولوژیست، از جمله ایلان ماسک و استیو وزنیاک، یکی از بنیان‌گذاران اپل، نامه‌ای را امضا کردند و در آن از شرکت‌های هوش مصنوعی خواستند تا کار روی پیشرفته‌ترین فناوری خود را به مدت شش ماه متوقف کنند تا فضا برای وضع نوعی مقررات ایجاد شود. در بخشی از آن نامه آمده بود:

<span;>آیا باید اجازه دهیم ماشین‌ها کانال‌های اطلاعاتی ما را پر از پروپاگاندا و تبلیغات نادرست کنند؟ آیا باید تمام مشاغل را خودکار کنیم؟ آیا باید ذهن‌های غیرانسانی را پرورش دهیم که ممکن است در نهایت از تعداد ما پیشی گرفته، منسوخ و جایگزین ما شوند؟ آیا باید در خطر از دست­دادن کنترل تمدن خود باشیم؟ چنین تصمیماتی نباید به رهبران فناوری نامنتخب واگذار شود.

<span;> <span;>این­ها دغدغه­های نظری نبود. برای مثال، یک تیم تحقیقاتی از I.B.M تنها به پنج دقیقه زمان نیاز داشت برای آن که چت جی­پی­تی را فریب دهد تا ایمیل‌های فیشینگ بسیار متقاعدکننده بنویسد. محققان دیگر از هوش مصنوعی مولد برای نوشتن بدافزاری استفاده کرده‌اند که می‌تواند پروتکل‌های ایمنی را دور بزند و آن را به منبعی بالقوه برای مجرمان سایبری تبدیل کند. گلدمن ساکس تخمین زده است که هوش مصنوعی به زودی می­تواند جایگزین سیصد میلیون شغل تمام وقت شود.

<span;>جای تعجب نیست که هیچ مکثی و هیچ مقررات معنی‌داری وجود نداشت. در عوض، در پایان ماه اکتبر، دولت بایدن فرمان اجرایی توسعه ایمن، مطمئن، قابل اعتماد و استفاده از هوش مصنوعی را صادر کرد؛ سندی طولانی که بیشتر شبیه به فهرست آرزوها است تا یک دستور. این نشان می­دهد که قوه مجریه درگیر یک عمل متعادل­کننده پیچیده بین خطرات و احتمالات هوش مصنوعی است. تنها یک هفته بعد، OpenAI مجموعه جدیدی از محصولات را معرفی کرد. از جمله یک مدل هوش مصنوعی که می­تواند اعلانات را به اندازه یک کتاب سیصد صفحه­ای بخواند. کیت “چت­بات شخصی­ات را بساز” و چیزی به نام “سپر کپی­رایت” که وعده پرداخت هزینه­های قانونی توسعه­دهندگان متهم به نقض حق چاپ را می­دهد.

<span;>با کمک این ابزارهای جدید، من توانستم از چت جی­پی­تی برای ایجاد یک چت­بات استفاده کنم که تعیین می­کند کدام داروها برای مصرف با هم بی­خطر نیستند و دیگری که فهرستی از تمام رستوران­های موجود در یک مکان خاص که می­توانند آلرژی­ها و ممنوعیت­های غذایی خاصی داشته باشند را فهرست می­کند. ساختن این چت‌بات‌ها بسیار ساده بود. من از الگوریتم‌هایی که آن­ها را هدایت می‌کردند، منشأ داده‌های آموزشی آن‌ها را نادیده می‌گرفتم. آیا من به نحوی حق چاپ را نقض می‌کردم؟ و اینکه آیا اطلاعات تولید شده توسط چت‌بات‌ها دقیق بود یا خیر؟ همچنین نمی‌دانستم که چقدر از قدرت محاسباتی استفاده می‌کنم، یا تأثیر محیطی من ممکن است چه باشد. اما در هر صورت آن­ها جالب بودند و از نوع چیزی که مردم ممکن است برای آن هزینه کنند.

<span;>توسعه تجاری هوش مصنوعی مولد احتمالاً بدون وقفه ادامه خواهد داشت. هوش مصنوعی بر تعداد فزاینده­ای از فعالیت­های پیچیده مانند رادیولوژی، کشف دارو، روان­درمانی، استخدام و پذیرش در کالج تأثیر خواهد گذاشت. شرکت­های مختلف از آن در نسل بعدی سخت­افزار استفاده خواهند کرد. به عنوان مثال، سامسونگ احتمالاً هوش مصنوعی مولد را در گوشی‌های پرچمدار آینده خود که در ژانویه رونمایی خواهد کرد، قرار خواهد داد. گزارش شده است که سام آلتمن، یکی از بنیانگذاران OpenAI که اخیراً از نقش مدیر عاملی خارج شده و سپس دوباره به آن رسیده است، با جانی آیو، طراح مشهور اپل، برای طراحی “آیفون هوش مصنوعی” همکاری کرده است. ممکن است با نوعی نوستالژی به سال ۲۰۲۳ نگاه کنیم؛ برای زمانی که هوش هنوز به یک محصول تبدیل نشده بود.

محصول با موفقیت به سبد خرید اضافه شد.