کلاهبرداری با هوش مصنوعی ، راه های کلاهبرداری با هوش مصنوعی

چگونه از کلاهبرداری‌ با هوش مصنوعی در امان بمانیم؟

کلاهبرداری با هوش مصنوعی دقیقا همان چیزی است که این روز ها بیشتر از همیشه نیاز به آگاهی درباره آن داریم.
هوش مصنوعی(AI) به عنوان یک فناوریِ نو ظهور، پتانسیلِ متحول کردن بسیاری از جنبه‌ های زندگی ما را دارد. با این حال مثلِ هر فناوری دیگری، هوش مصنوعی هم می ‌تواند مورد سوء استفاده قرار بگیرد، آن هم به نوعی که به همه چیز شک کنید!
امروز قصد داریم در این مقاله، به بررسیِ عمیق و ریز بینانه بعضی از مضرات و کلاهبرداری ‌های مرتبط با هوش مصنوعی و راهکار های مقابله با آن ‌ها بپردازیم که تا پیش از این کمتر منبعی با این تفصیل در بابِ این موضوع پرداخته است.

راه های رایج کلاهبرداری با هوش مصنوعی

کلاهبرداری به کمک هوش مصنوعی ، روش کللاهبرداری با هوش مصنوعی

ما به عزیزانمان اعتمادِ کامل داریم و ممکن است برایشان دست به هر فداکاری بزنیم.
یکی از این فداکاری ها و حمایت ها، قرض دادنِ پول است. فرض کنید دوستِ نزدیکتان با شماره ای ناشناس به شما زنگ می زند، ادعا می کند در موقعیتی اضطراری و بد قرا گرفته است بر فرض نیاز به 10 میلیون تومان پول دارد.
صدا، کاملا صدا و لحنِ دوست شماست پس اعتماد می کنید و همین اعتماد، آغازِ تمام مشکلات می شود!
کلاهبرداری های صوتی هوش مصنوعی حقیقتا یکی از پست ترین روش های پول درآوردن است.

تولید اطلاعات نادرست و فریبنده

هوش مصنوعی می ‌تواند برای تولیدِ انبوهِ اطلاعاتِ نادرست، اخبارِ جعلی و محتوای گمراه کننده به کار برود. این اطلاعات می ‌تواند برای دستکاری افکارِ عمومی مورد استفاده قرار بگیرد.

هندسه اجتماعی مهندسی شده

هوش مصنوعی می ‌تواند برای شخصی ‌سازی پیام‌ ها و هدف قرار دادنِ افرادِ خاص با اطلاعاتی که احتمالاً شما را متقاعد می ‌کند، استفاده شود. این اتفاق می ‌تواند منجر به افزایشِ موفقیتِ حملات فیشینگ و کلاهبرداری‌ های آنلاین شود.

ایجادِ دیپ ‌فیک

هوش مصنوعی می‌ تواند به راحتی و با ضریب خطای صفر، به ایجادِ ویدیو های جعلی بسیار واقع ‌گرایانه از افراد استفاده شود.
این ویدیو ها می ‌توانند برای تخریبِ شهرتِ افراد، ایجادِ شایعات، ویدیو کال با چهره افرادی که شما می شناسید و اعتماد دارید و حتی تأثیرگذاری بر تصمیم‌ گیری ‌های مهم سیاسی/اجتماعی مورد استفاده قرار بگیرد.
با پیشرفتِ هر روزه فناوری هوش مصنوعی، این روش واقع گرایانه تر هم می شود. کلاهبرداران با استفاده از نرم ‌افزار های پیشرفته، می ‌توانند صدای فرد دیگری را تقلید کرده و با استفاده از آن، اقدام به کلاهبرداری کنند.

خودکار سازی حملاتِ سایبری

یکی از راه های کلاهبرداری با هوش مصنوعی، خودکار سازیِ حملاتِ سایبری، یافتنِ نقاطِ ضعف در سیستم‌ ها و انجامِ حملاتِ پیچیده روی سیستم عامل هاست.

تبعیض و نا برابری

الگوریتم ‌های هوش مصنوعی می ‌تواند بر اساسِ داده‌ های آموزشی اش که اتفاقا خیلی هم هوشمند اند، تبعیض ‌هایی را نسبت به گروه‌ های خاصی از افراد ایجاد کنند.
به عنوان مثال، الگوریتم‌ های استخدام ممکن است به طورِ ناخود آگاه متقاضیانی از یک گروهِ خاصِ نژادی، جنسیتی، سیاسی، مذهبی، اجتماعی و غیره را رد کنند.
شاید این مورد مستقیما در گروه کلاهبرداری در به کمک هوش مصنوعی نباشد اما قطعا یکی از روش های اثرگذاری مخرب و جهت دار بر روی تمامِ ابعاد جامعه است.

حفاظت از خود دربرابر کلاهبرداری با هوش مصنوعی

  • تحققِ اطلاعات: عاقلانه است این روز ها هر چیزی که در نگاهِ اول در فضای وب و رسانه های مجازی را می بینیم، به سرعت باور نکنیم. قبل از باور و نشر مطلب، درباره اش کمی تحقیق کنیم.
  • مراقبت از حریمِ خصوصی: از اشتراک ‌گذاری اطلاعات شخصیِ مهمِ خود در شبکه‌ های اجتماعی و سایر پلتفرم ‌های آنلاین خود داری کنیم. برای محافظت از اکانت های آنلاین خود، از احرازِ هویت و رمزِ دو مرحله ‌ای استفاده کنید.
  • استفاده از نرم‌ افزار های امنیتی: یکی از راه های حفاظت از کلاهبرداری به کمک هوش مصنوعی استفاده از نرم‌ افزار های آنتی‌ ویروس و فایروال برای محافظت از دستگاه‌ های خودمان در برابر حملات سایبری است.
    در ضمن می شود از قسمت تنظیمات موبایل، کاری کرد که در صورت تماسِ هر گونه شماره ناشناسی، خود به خود ریجکت شود.
  • راه حل: به تماس ‌های تلفنی ناشناس یا افرادی که با شما تماس می ‌گیرند و از شما درخواست اطلاعات شخصی یا مالی می ‌کنند، پاسخ ندهید.
    قبل از انجام هر گونه تراکنشِ مالی، هویتِ فرد مقابل را به طور کامل بررسی کنید. مثلا از او درباره یک خاطره شخصی و مشترک بپرسید که فقط با دوستتان تجربه اش کرده اید.
  • آموزش به دیگران: آگاهی بخشی را دستِ کم نگیریم. همین که بتوانیم در حد توان مطالبی این چنینی را بازنشر کنیم و باعثِ هشیاری جامعه شویم، خودش یک گامِ بزرگ است.
    اطرافیانِ خود را در مورد خطراتِ ناشی از هوش مصنوعی آگاه کنید و به آن‌ ها آموزش دهید که چگونه از خود محافظت کنند. در ضمن از قوانین و مقرراتی که استفاده اخلاقی از هوش مصنوعی را تضمین می ‌کنند، حمایت کنیم.

نقشِ دولت‌ ها و شرکت ‌ها در مقابله با کلاهبرداری با هوش مصنوعی

وقتی می گوئیم این مقاله جامع است یعنی همین. این که خودمان دست به کار شویم و نقشِ آگاهی بخش و روشنگر را داشته باشیم به جای خود؛ اما نهاد های بزرگتر چه مسئولیتی دارند؟ مثل همیشه خنثی و منفعل باشند؟
قطعا این کار فقط از دستِ مردم ساخته نیست، حکومت ها هم باید بودجه لازم را برای حفاظت از اطلاعاتِ خصوصی و امنیتِ افراد اختصاص دهند، البته اگر برای مردمشان ارزشی قائل هستند.

    1. تنظیمِ مقررات: دولت‌ ها باید مقررات واضح و جامعی را برای استفاده از هوش مصنوعی وضع کنند تا از سوء استفاده از آن جلوگیری شود.
    2. توسعه فناوری‌ های تشخیص: شرکت ‌ها باید به توسعه فناوری‌ هایی بپردازند که بتوانند اطلاعاتِ نادرست، دیپ‌ فیک ‌ها و سایرِ تهدیداتِ ناشی از هوش مصنوعی را تشخیص بدهند.
    3. آموزش و آگاهی ‌رسانی: دولت‌ ها و شرکت ‌ها باید به آموزش و آگاهی ‌رسانی جمعی در موردِ خطرات و مزایای هوش مصنوعی بپردازند.

نمونه‌ هایی از کلاهبرداری با هوش مصنوعی

  • کلاهبرداری از افراد مسن: متاسفانه کلاهبرداران با تقلید صدای اعضای خانواده، از افرادِ مسن، راحت تر درخواستِ پول می ‌کنند.
  • کلاهبرداری از شرکت ‌ها: مثلا با تقلیدِ صدای مدیر عامل یا کارمندِ ارشد، کلاهبرداران می ‌توانند از شرکت ‌ها یا همکارانِ بخش، درخواستِ انتقال وجه یا انجامِ معاملات جعلی کنند.
  • کلاهبرداری از بانک‌ ها: با تقلید صدای مشتری، کلاهبرداران می‌ توانند از بانک درخواستِ تغییرِ رمز عبور یا انتقال وجه کنند.
    البته این موارد نیاز به داشتنِ اطلاعات شخصی زیادی از فرد قربانی است که متاسفانه برای هکر ها پیدا کردنِ این اطلاعات هم کارِ سختی نیست.

روش ‌های کمتر شناخته شده سوء استفاده از AI

کلاهبرداری های صوتی هوش مصنوعی ، کلاهبرداری به کمک هوش مصنوعی

همانطور که پیشتر اشاره شد، کلاهبرداری با تغییر صدا و دیپ فیک تنها دو موردِ رایج از روش ‌های کلاهبرداری با هوش مصنوعی است. در ادامه به بعضی دیگر می پردازیم که معمولا کمتر به چشم آمده اند اما اثراتِ مخربشان غیر قابلِ انکار است:

ساختن حساب ‌های کاربری جعلی

ربات های هوش مصنوعی می ‌تواند برای ایجادِ حساب ‌های کاربری جعلی در شبکه‌ های اجتماعی و سایر پلتفرم ‌های آنلاین استفاده شود. این حساب ‌ها می ‌توانند برای انتشارِ هر نوع خبرِ بدونِ منبع و سودجویانه ای استفاده شود.

نوشتنِ مقالات و مطالب جعلی

با استفاده از مدل ‌های زبانی پیشرفته، می ‌توان مقالات، عکس ها، گزارش ‌ها و حتی کتاب ‌هایی تولید کرد که به نظر می‌ رسد توسط انسان نوشته شده ‌اند.
این مطالب جعلی می ‌توانند برای دستکاری افکار عمومی، تبلیغاتِ دروغین یا هر هدفِ شوم دیگری مورد استفاده قرار بگیرند.

سئو سیاه

این دیگر تهِ دغل و شامورتی بازی است. می دانستید با استفاده از تکنیک ‌های سئو سیاه، می ‌توان وب‌ سایت‌ هایی را ایجاد کرد که در نتایجِ جستجو در جایگاه بالاتری قرار بگیرند؟
حالا این حرکت به کنار، اصلا ممکن است این وب‌ سایت ‌ها می ‌توانند حاوی اطلاعات نادرست یا گمراه کننده باشند و در نهایت درگاهی برای اخاذی باشند.

ساخت ربات ‌های گفتگو

ربات‌ های چت می‌ توانند برای دستکاریِ نتایج جستجو و نمایشِ نتایجِ دلخواه به کاربران استفاده شوند.

تجارت الگوریتمی

ببینید چه وضعی شده که الگوریتم ‌های معاملاتی می ‌توانند برای دستکاری بازار های مالی و کسب سود های نامتعارف استفاده شوند. واقعا اوضاع خیط است.

کلاهبرداری در حوزه ارز های دیجیتال

این هم یکی دیگر از راه های کلاهبرداری با هوش مصنوعی است که اتفاقا این روز ها نیاز به حواس جمعی بیشتری دارد.
AI می‌ تواند برای ایجادِ ارز های دیجیتالِ جعلی، پیش ‌بینی نادرستِ قیمت ‌ها و انجامِ حملاتِ فیشینگ در حوزه ارز های دیجیتال استفاده شود.

هک کردن سیستم ‌ها

هوش مصنوعی می ‌تواند برای یافتنِ نقاطِ ضعف در سیستم‌ های امنیتی و هک کردن آن ‌ها استفاده شود. برای همین است که شرکت های حوزه فناوری و حکومت ها باید سیتسم های هوشمندِ حفاظتیِ چند لایه طراحی کنند.

خودکار سازی حملاتِ سایبری

با استفاده از هوش مصنوعی، می ‌توان حملاتِ سایبری را به صورت خودکار و در مقیاس بزرگ انجام داد.

چالشِ ستاره های مشهور با هوش مصنوعی

اتفاقا افرادِ معروف بیشتر در تیر رسِ کلاهبرداری با هوش مصنوعی هستند.  مثلا چند وقت قبل خبر هایی مبنی بر نا رضایتی تیلور سوئیفت از استفاده نادرست از هوش مصنوعی برای ساختنِ تصاویر جعلی و انتشار آن در فضای مجازی منتشر شده است.
قضیه از این قرار بود که عکس ها و فیلم جعلی و غیر اخلاقی از تیلور سوئیفت با استفاده از فناوری دیپ فیک  ساخته شد آن هم در سطحِ فراواقعی که تشخیص آن دشوار بود.

تیلور سوئیفت به این موضوع واکنش نشان داد و از این که از چهره او برای ایجادِ چنین محتوای نا مناسبی استفاده شده و حتی عکس ها به فروش رفته اند، ابراز ناراحتی کرد.
اگرچه تیلور به صورتِ رسمی شکایتی را ثبت نکرد، اما این اتفاق نشان داد که چگونه فناوری هوش مصنوعی می‌ تواند برای سوء استفاده از افراد و نقضِ حریمِ خصوصی انسان ها مورد استفاده قرار بگیرد.

چرا کلاهبرداری با هوش مصنوعی گسترده شده است؟

  1. سادگی استفاده از ابزارهای هوش مصنوعی: امروزه ابزار های مختلفی برای ساخت تصاویر و ویدیو های جعلی وجود دارد که استفاده از آن ‌ها بسیااااااار آسان است. کسب سود مالی یا ویو گرفتن و دیده شدن پیج های زرد هم قطعا یکی از انگیزه های اصلی است.
  2. انتشارِ سریع اطلاعات در فضای مجازی: با توجه به سرعتِ بالا و ویروسیِ انتشار اطلاعات در شبکه‌ های اجتماعی، این تصاویر جعلی می ‌توانند به سرعت وایرال شوند طوری که ایستادن در مقابلِ موجش در شرایطی غیر ممکن باشد.

خطراتِ پنهانِ هوش مصنوعی: تهدیداتی که هنوز نمایان نشده‌ اند

کلاهبرداری به کمک هوش مصنوعی ، راه های کلاهبرداری با هوش مصنوعی

با کلاهبرداری های صوتی هوش مصنوعی یا امثالش که حالا تا حدودی آشنا شده اید چون  این خطرات در حال حاضر شناخته شده ‌اند. بسیاری از آن‌ ها هنوز در پرده ‌ای از ابهام قرار دارند و ممکن است در آینده نزدیک یا دور خود را نشان دهند:

وقتی هوش مصنوعی فراتر از کنترل شود

در یکی از مقالات گفتیم که هوش مصنوعی حالا دیگر دارای تفکر انتقادی و درک ماهیم انتزاعی است. یکی از بزرگترین نگرانی‌ ها در مورد هوش مصنوعی، توسعه آن تا جایی است که از کنترلِ انسان خارج شود.
یک هوش مصنوعی بسیار پیشرفته ممکن است اهدافی را دنبال کند که با اهدافِ انسان در تضاد باشد و به تهدیدی برای بشریت تبدیل شود.

  • راه حل: دولت‌ ها و سازمان‌ های بین ‌المللی باید بر توسعه هوش مصنوعی نظارت داشته باشند و اطمینان حاصل کنند که این فناوری به صورت مسئولانه و با استاندارد های اخلاقی مورد استفاده قرار می ‌گیرد.

بیکاری گسترده

با پیشرفت هوش مصنوعی و اتوماسیون، بسیاری از مشاغل از بین خواهند رفت. این اتفاق می ‌تواند منجر به افزایشِ بیکاری، نا برابری اجتماعی و مشکلات اقتصادی شود.

  • راه حل: آموزش نیروی کار برای کار با فناوری ‌های جدید و ایجادِ مشاغلی تازه که با هوش مصنوعی مرتبط هستند، ضروری است.

توسعه سلاح ‌های خود مختار

این نتایجِ آخر الزمانی اصلا دور از ذهن نیست و تصور نکنید خیلی فاصله داریم.
هوش مصنوعی می‌تواند در ساخت سلاح‌ های خود مختاری که قادر به تصمیم‌ گیری و انجامِ اقداماتِ کشنده بدونِ دخالت انسان هستند، مورد استفاده قرار بگیرد. این می ‌تواند به بروز جنگ ‌های بسیار خطرناک و غیر قابل پیشبینی شود.

تقویتِ نا برابری ‌ها

دسترسی به فناوری‌ های هوش مصنوعی و داده‌ های مورد نیاز برای آموزشِ آن ‌ها، به طور معمول در اختیار افراد و سازمان‌ های ثروتمند و قدرتمند است. این اتفاق می ‌تواند منجر به افزایشِ نا برابری‌ های اجتماعی و شکاف های اقتصادی شود.

تضعیفِ کرامتِ انسانی

اتکای بیش از حد به تصمیم ‌گیری ‌های الگوریتمی می ‌تواند منجر به تضعیفِ توانایی انسان در تفکر انتقادی و حل مسئله شود.

توسعه اکوسیستم ‌های اطلاعاتی جعلی

کلاهبرداری با هوش مصنوعی که اولین دغدغه ما برای نوشتن این مقاله بود.
AI برای تولیدِ انبوه اطلاعاتِ جعلی از جمله تصاویر، فیلم ها، اکانت ها، ویدیو ها و متن ‌ها، مورد استفاده قرار می گیرد. همه این ها ممکن است به ایجادِ سر در گمی و بی ‌اعتمادی در جامعه دامن بزند.

هوش مصنوعی فعلا در چه مرحله ای است؟

در کنار قدرت هایش، فعلا یک سری باگ ها و محدودیت هایی هم دارد از جمله:

  • کمبود داده‌ های با کیفیت: اکثرِ سیستم ‌های هوش مصنوعی به حجمِ عظیمی از دیتای های با کیفیت برای آموزش نیاز دارند. این به خودیِ خود می‌ تواند محدودیتی برای توسعه سیستم ‌های هوش مصنوعی در بعضی حوزه‌ ها باشد.
  • قابلیتِ تعمیمِ کم: بسیاری از سیستم‌ های هوش مصنوعی در انجامِ وظایفِ خاصی بسیار خوب عمل می ‌کنند، اما قابلیت تعمیمِ آن ‌ها به وظایفِ جدید و شرایطِ مختلف، محدود است.
  • عدمِ تجربه کردنِ مفاهیمِ انتزاعی: هوش مصنوعی هنوز در درکِ مفاهیم انتزاعی مثلِ عشق، خشم، درد، لذت، زیبایی و عدالت با مشکل مواجه است.
  • عدمِ شفافیت در تصمیم‌ گیری: بعضی از سیستم ‌های هوش مصنوعی به قدری پیچیده هستند که درکِ دلیلِ تصمیم‌ گیری آن‌ ها برای انسان ‌ها دشوار است.

این مطالب را هم حتما بخوانید:

فهرست مطالب

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *