عناوینی که در این مقاله می خوانید
هشدار: از توکنهای جعلی مرتبط با هوش مصنوعی بینگ مایکروسافت بهدوری کنید
با گسترش روزافزون محبوبیت بینگ جدید، تعداد زیادی توکن رمزنگاری با نام های مختلف مانند “این چتبات” یا “ChatGPT” منتشر شدهاند که هدف اصلی آنها، فریب سرمایهگذاران است.
چند هفته پیش، مایکروسافت نسخه پیشنمایشی از بینگ جدید را برای یک گروه محدود از کاربران عرضه کرد. این چتبات، که از فناوری ChatGPT سفارشیشده است، از طریق هوش مصنوعی و تکنولوژی پیشرفته ردموند، عمل میکند. این موتور جستجوی جدید مایکروسافت، با ارائه پاسخهای عجیب و تهدیدآمیز در برخی موارد، به یکی از موضوعات داغ فناوری تبدیل شده است. با این حال، هیچ فعالیتی در زمینه رمزارزها تاکنون به وسیله این پروژه یا ChatGPT انجام نشده است. متأسفانه، برخی افراد حریص در صنعت ارزهای دیجیتال، از شرایط فعلی و محبوبیت چتبات هوش مصنوعی مایکروسافت برای انجام کلاهبرداری و سوءاستفاده از مردم استفاده میکنند.
به گزارش Neowin،
در حال حاضر هزاران توکن رمزنگاری جعلی منتشر شدهاند که هدف اصلی آنها فریب سرمایهگذاران با استفاده از نام چتبات مایکروسافت و OpenAI است. بر اساس تحقیقات انجام شده در DEXTools، تا کنون حداقل ۲۰ پروژه رمزنگاری جعلی از نام BingChatGPT استفاده کردهاند. از این تعداد، ۱۲ پروژه روی بلاکچین بایننس راهاندازی شدهاند و ۶ پروژه نیز در شبکه اتریوم فعالیت میکنند. همچنین، دو پروژه بر اساس پلتفرم آربیتریوم تشکیل شدهاند. علاوه بر این، ۱۷۰ پروژه رمزارزی دیگر وجود دارند که همگی از نام ChatGPT استفاده میکنند و بیشتر آنها روی بلاکچین بایننس راهاندازی شدهاند.
البته، تاکنون مایکروسافت هیچ بیانیهای درباره فعالیتهای بینگ جدید در زمینه رمزارزها منتشر نکرده و درباره توکنهای جعلی هم هیچ اظهارنظری ارائه نداده است.
توکنهای کلاهبرداری مرتبط با بینگ جدید و ChatGPT با نام “HoneyPots” شناخته میشوند. این نوع کلاهبرداری اساسی است که در آن فردی که توکنهای جعلی را در اختیار دارد یا آنها را ساخته است، ادعا میکند اگر ابتدا مقداری پول به او ارسال کنید، مقدار زیادی از توکن موردنظر را به شما ارسال خواهد کرد. اما معمولاً پس از دریافت وجه، این جنایتکاران دیگر ارتباطی برقرار نمیکنند.
بنابراین، اگر در حوزه رمزارزها فعالیت میکنید، توصیه میشود سرمایههای خود را در معرض خطر قرار ندهید و از خرید توکنهای جعلی مرتبط با ChatGPT یا بینگ جدید مایکروسافت خودداری کنید.
نظرات کاربران