هوش مصنوعی مولد، مانند ChatGPT، نحوه تعامل و مشاهده ما با هوش مصنوعی را متحول کرده است. فعالیت‌هایی مانند نوشتن، کدنویسی و درخواست شغل بسیار آسان‌تر و سریع‌تر شده‌اند. با این حال، با تمام نکات مثبت، خطرات بسیار جدی وجود دارد.

یکی از نگرانی های اصلی در مورد هوش مصنوعی اعتماد و امنیت است که حتی باعث شده است برخی کشورها ChatGPT را به طور کلی ممنوع کنند یا در سیاست های مربوط به هوش مصنوعی برای محافظت از کاربران در برابر آسیب تجدید نظر کنند.

به گفته Avivah Litan، تحلیلگر گارتنر، برخی از بزرگترین خطرات هوش مصنوعی مولد به اعتماد و امنیت مربوط می شود و شامل توهم، دروغگویی عمیق، حریم خصوصی داده ها، مسائل حق چاپ و مشکلات امنیت سایبری است.

1. توهم

توهم به خطاهایی اشاره دارد که مدل‌های هوش مصنوعی مستعد انجام آن‌ها هستند، زیرا اگرچه پیشرفته هستند، اما هنوز انسانی نیستند و برای ارائه پاسخ به آموزش و داده‌ها متکی هستند.

اگر از یک ربات چت هوش مصنوعی استفاده کرده اید، احتمالاً این توهمات را به دلیل درک نادرست از درخواست خود یا پاسخ اشتباه آشکار به سؤال خود تجربه کرده اید.

همچنین: به گفته متخصص هوش مصنوعی، هوش ChatGPT صفر است، اما یک انقلاب در سودمندی است

لیتان می‌گوید داده‌های آموزشی می‌تواند منجر به پاسخ‌های مغرضانه یا واقعی شود، که زمانی که افراد برای کسب اطلاعات به این ربات‌ها اعتماد می‌کنند، می‌تواند یک مشکل جدی باشد.

لیتان می‌گوید: «داده‌های آموزشی می‌تواند منجر به پاسخ‌های مغرضانه، غیرمستقیم یا اشتباه شود، اما تشخیص این داده‌ها می‌تواند دشوار باشد، به‌ویژه از آنجایی که راه‌حل‌ها به طور فزاینده‌ای قابل باور و تکیه می‌شوند.»

2. دیپ فیک

دیپ فیک از هوش مصنوعی مولد برای ایجاد فیلم ها، عکس ها و صداهای ضبط شده استفاده می کند که جعلی هستند اما تصویر و شباهت فرد دیگری را می گیرند.

نمونه‌های کامل عکس ویروسی پاپ فرانسیس با ژاکت پف‌کرده توسط هوش مصنوعی یا آهنگ Drake و آهنگ Weeknd تولید شده توسط هوش مصنوعی است که صدها هزار استریم را جمع‌آوری کرد.

لیتان می‌گوید: «این تصاویر، ویدیوها و صداهای جعلی برای حمله به افراد مشهور و سیاستمداران، ایجاد و انتشار اطلاعات گمراه‌کننده، و حتی برای ایجاد حساب‌های جعلی یا تسخیر و نفوذ به حساب‌های قانونی موجود استفاده شده‌اند.

همچنین: چگونه یک دیپ فیک را تشخیص دهیم؟ یک ترفند ساده تمام چیزی است که شما نیاز دارید

مانند توهم، دیپ فیک می تواند به انتشار گسترده محتوای جعلی کمک کند، که منجر به انتشار اطلاعات نادرست، که یک مشکل جدی اجتماعی است، شود.

3. حریم خصوصی داده ها

حفظ حریم خصوصی نیز یکی از نگرانی های اصلی هوش مصنوعی مولد است زیرا داده های کاربر اغلب برای آموزش مدل ذخیره می شود. این نگرانی عامل اصلی بود که ایتالیا را وادار کرد تا ChatGPT را ممنوع کند و ادعا کرد که OpenAI از نظر قانونی مجاز به جمع‌آوری داده‌های کاربران نیست.

لیتان می‌گوید: «کارمندان می‌توانند به راحتی داده‌های حساس و اختصاصی سازمانی را هنگام تعامل با راه‌حل‌های چت ربات هوش مصنوعی در معرض نمایش بگذارند. این برنامه‌ها ممکن است به‌طور نامحدود اطلاعاتی را که از طریق ورودی‌های کاربر جمع‌آوری شده‌اند، ذخیره کنند و حتی از اطلاعات برای آموزش مدل‌های دیگر استفاده کنند که محرمانگی را بیشتر به خطر می‌اندازد.»

لیتان تأکید می‌کند که اطلاعات ذخیره‌شده علاوه بر به خطر انداختن محرمانه بودن کاربر، خطر «به دست اشتباه افتادن» را در یک نمونه از نقض امنیتی نیز به همراه دارد.

4. امنیت سایبری

قابلیت‌های پیشرفته مدل‌های هوش مصنوعی مولد، مانند کدنویسی، نیز می‌تواند به دست افراد نادرستی بیفتد و باعث نگرانی‌های امنیت سایبری شود.

لیتان می‌گوید: «علاوه بر مهندسی اجتماعی پیشرفته‌تر و تهدیدات فیشینگ، مهاجمان می‌توانند از این ابزارها برای تولید کدهای مخرب آسان‌تر استفاده کنند.

لیتان می‌گوید اگرچه فروشندگانی که راه‌حل‌های مولد هوش مصنوعی را ارائه می‌کنند معمولاً به مشتریان اطمینان می‌دهند که مدل‌های آن‌ها برای رد درخواست‌های مخرب امنیت سایبری آموزش دیده‌اند، این تامین‌کنندگان به کاربران نهایی توانایی تأیید تمام اقدامات امنیتی را که اجرا شده‌اند مجهز نمی‌کنند.

5. مسائل مربوط به کپی رایت

کپی رایت یک نگرانی بزرگ است زیرا مدل‌های هوش مصنوعی مولد بر روی مقادیر انبوه داده‌های اینترنتی که برای تولید خروجی استفاده می‌شوند آموزش می‌بینند.

این فرآیند آموزش بدین معنی است که آثاری که به صراحت توسط منبع اصلی به اشتراک گذاشته نشده اند، می توانند برای تولید محتوای جدید استفاده شوند.

کپی رایت موضوعی است که مخصوصاً برای هنر تولید شده توسط هوش مصنوعی به هر شکلی، از جمله عکس و موسیقی، مشکل است.

برای ایجاد یک تصویر از یک اعلان، ابزارهای تولید کننده هوش مصنوعی، مانند DALL-E، به پایگاه داده بزرگ عکس‌هایی که در آن آموزش دیده‌اند، مراجعه می‌کنند. نتیجه این فرآیند این است که محصول نهایی ممکن است شامل جنبه هایی از کار یا سبک یک هنرمند باشد که به او نسبت داده نمی شود.

از آنجایی که آثار دقیقی که مدل‌های هوش مصنوعی مولد بر روی آن‌ها آموزش دیده‌اند به صراحت فاش نشده‌اند، کاهش این مشکلات حق نسخه‌برداری دشوار است.