هوش مصنوعی مولد، مانند ChatGPT، نحوه تعامل و مشاهده ما با هوش مصنوعی را متحول کرده است. فعالیتهایی مانند نوشتن، کدنویسی و درخواست شغل بسیار آسانتر و سریعتر شدهاند. با این حال، با تمام نکات مثبت، خطرات بسیار جدی وجود دارد.
یکی از نگرانی های اصلی در مورد هوش مصنوعی اعتماد و امنیت است که حتی باعث شده است برخی کشورها ChatGPT را به طور کلی ممنوع کنند یا در سیاست های مربوط به هوش مصنوعی برای محافظت از کاربران در برابر آسیب تجدید نظر کنند.
به گفته Avivah Litan، تحلیلگر گارتنر، برخی از بزرگترین خطرات هوش مصنوعی مولد به اعتماد و امنیت مربوط می شود و شامل توهم، دروغگویی عمیق، حریم خصوصی داده ها، مسائل حق چاپ و مشکلات امنیت سایبری است.
1. توهم
توهم به خطاهایی اشاره دارد که مدلهای هوش مصنوعی مستعد انجام آنها هستند، زیرا اگرچه پیشرفته هستند، اما هنوز انسانی نیستند و برای ارائه پاسخ به آموزش و دادهها متکی هستند.
اگر از یک ربات چت هوش مصنوعی استفاده کرده اید، احتمالاً این توهمات را به دلیل درک نادرست از درخواست خود یا پاسخ اشتباه آشکار به سؤال خود تجربه کرده اید.
همچنین: به گفته متخصص هوش مصنوعی، هوش ChatGPT صفر است، اما یک انقلاب در سودمندی است
لیتان میگوید دادههای آموزشی میتواند منجر به پاسخهای مغرضانه یا واقعی شود، که زمانی که افراد برای کسب اطلاعات به این رباتها اعتماد میکنند، میتواند یک مشکل جدی باشد.
لیتان میگوید: «دادههای آموزشی میتواند منجر به پاسخهای مغرضانه، غیرمستقیم یا اشتباه شود، اما تشخیص این دادهها میتواند دشوار باشد، بهویژه از آنجایی که راهحلها به طور فزایندهای قابل باور و تکیه میشوند.»
2. دیپ فیک
دیپ فیک از هوش مصنوعی مولد برای ایجاد فیلم ها، عکس ها و صداهای ضبط شده استفاده می کند که جعلی هستند اما تصویر و شباهت فرد دیگری را می گیرند.
نمونههای کامل عکس ویروسی پاپ فرانسیس با ژاکت پفکرده توسط هوش مصنوعی یا آهنگ Drake و آهنگ Weeknd تولید شده توسط هوش مصنوعی است که صدها هزار استریم را جمعآوری کرد.
لیتان میگوید: «این تصاویر، ویدیوها و صداهای جعلی برای حمله به افراد مشهور و سیاستمداران، ایجاد و انتشار اطلاعات گمراهکننده، و حتی برای ایجاد حسابهای جعلی یا تسخیر و نفوذ به حسابهای قانونی موجود استفاده شدهاند.
همچنین: چگونه یک دیپ فیک را تشخیص دهیم؟ یک ترفند ساده تمام چیزی است که شما نیاز دارید
مانند توهم، دیپ فیک می تواند به انتشار گسترده محتوای جعلی کمک کند، که منجر به انتشار اطلاعات نادرست، که یک مشکل جدی اجتماعی است، شود.
3. حریم خصوصی داده ها
حفظ حریم خصوصی نیز یکی از نگرانی های اصلی هوش مصنوعی مولد است زیرا داده های کاربر اغلب برای آموزش مدل ذخیره می شود. این نگرانی عامل اصلی بود که ایتالیا را وادار کرد تا ChatGPT را ممنوع کند و ادعا کرد که OpenAI از نظر قانونی مجاز به جمعآوری دادههای کاربران نیست.
لیتان میگوید: «کارمندان میتوانند به راحتی دادههای حساس و اختصاصی سازمانی را هنگام تعامل با راهحلهای چت ربات هوش مصنوعی در معرض نمایش بگذارند. این برنامهها ممکن است بهطور نامحدود اطلاعاتی را که از طریق ورودیهای کاربر جمعآوری شدهاند، ذخیره کنند و حتی از اطلاعات برای آموزش مدلهای دیگر استفاده کنند که محرمانگی را بیشتر به خطر میاندازد.»
لیتان تأکید میکند که اطلاعات ذخیرهشده علاوه بر به خطر انداختن محرمانه بودن کاربر، خطر «به دست اشتباه افتادن» را در یک نمونه از نقض امنیتی نیز به همراه دارد.
4. امنیت سایبری
قابلیتهای پیشرفته مدلهای هوش مصنوعی مولد، مانند کدنویسی، نیز میتواند به دست افراد نادرستی بیفتد و باعث نگرانیهای امنیت سایبری شود.
لیتان میگوید: «علاوه بر مهندسی اجتماعی پیشرفتهتر و تهدیدات فیشینگ، مهاجمان میتوانند از این ابزارها برای تولید کدهای مخرب آسانتر استفاده کنند.
لیتان میگوید اگرچه فروشندگانی که راهحلهای مولد هوش مصنوعی را ارائه میکنند معمولاً به مشتریان اطمینان میدهند که مدلهای آنها برای رد درخواستهای مخرب امنیت سایبری آموزش دیدهاند، این تامینکنندگان به کاربران نهایی توانایی تأیید تمام اقدامات امنیتی را که اجرا شدهاند مجهز نمیکنند.
5. مسائل مربوط به کپی رایت
کپی رایت یک نگرانی بزرگ است زیرا مدلهای هوش مصنوعی مولد بر روی مقادیر انبوه دادههای اینترنتی که برای تولید خروجی استفاده میشوند آموزش میبینند.
این فرآیند آموزش بدین معنی است که آثاری که به صراحت توسط منبع اصلی به اشتراک گذاشته نشده اند، می توانند برای تولید محتوای جدید استفاده شوند.
کپی رایت موضوعی است که مخصوصاً برای هنر تولید شده توسط هوش مصنوعی به هر شکلی، از جمله عکس و موسیقی، مشکل است.
برای ایجاد یک تصویر از یک اعلان، ابزارهای تولید کننده هوش مصنوعی، مانند DALL-E، به پایگاه داده بزرگ عکسهایی که در آن آموزش دیدهاند، مراجعه میکنند. نتیجه این فرآیند این است که محصول نهایی ممکن است شامل جنبه هایی از کار یا سبک یک هنرمند باشد که به او نسبت داده نمی شود.
از آنجایی که آثار دقیقی که مدلهای هوش مصنوعی مولد بر روی آنها آموزش دیدهاند به صراحت فاش نشدهاند، کاهش این مشکلات حق نسخهبرداری دشوار است.