هشدار فتا نسبت به سوءاستفاده از اپلیکیشن شاد
تاریخ انتشار: ۲۰ دی ۱۳۹۹ | کد خبر: ۳۰۶۲۱۴۸۹
سرهنگ رامین پاشایی معاون اجتماعی پلیس فتا ناجا اظهارکرد: در این روش مجرمان در شبکه اجتماعی «شاد» اقدام به ایجاد اکانتی با نام «ربات پشتیبانی شاد» میکنند سپس به منظور دسترسی به اکانت شبکه اجتماعی کاربران عمدتا با فعال سازی شبکه اجتماعی «روبیکا» و سایر شبکههای اجتماعی فعال در کشور با استفاده از شماره تلفن کاربران پیامی را با "مضمون و اخطار کد دریافتی را ارسال نمایید، در غیر این صورت دسترسی شما در شبکه آموزشی شاد قطع خواهد شد" برای طعمههای خود ارسال میکنند.
بیشتر بخوانید:
اخباری که در وبسایت منتشر نمیشوند!
معاون اجتماعی پلیس فتا ناجا افزود: برخی خانوادهها و دانش آموزان عمدتا به علت ناآگاهی و اضطراب ناشی از قطع دسترسی به شبکه آموزشی شاد مبادرت به ارسال کد تایید به کلاهبرداران و شرایط دسترسی غیرمجاز به اکانتهای کاربری خود را در شبکههای اجتماعی برای مجرمان سایبری فراهم میکنند.
وی ادامه داد: این افراد با سوءاستفاده از دسترسی ایجاد شده با روشهای مختلفی نظیر ارسال پیام، درخواست واریز فوری پول به شماره حساب اعلامی به علت نیاز مبرم مالی به کاربران و یا سایر تهدیدات در حوزه دسترسی به اطلاعات خصوصی از فریب خوردگان کلاهبرداری میکنند.
پاشایی افزود: کاربران ضمن استفاده از شبکههای اجتماعی میبایست راههای بالا بردن امنیت و دانش فنی خود را در خصوص استفاده از شبکههای اجتماعی و پیام رسانها فرا بگیرند و به هیچ عنوان به پیامهای مشابه که بدون درخواست آنان دریافت شده، توجه نکنند و در صورت دریافت پیامهایی با مضمون واریز پول از سوی آشنایان و دوستان در حوزه مخاطبان و ... ابتدا موضوع را با تماس تلفنی از درخواست کننده بررسی کنند.
وی به خانوادهها و دانش آموزان توصیه کرد مراقب باشند چرا که برخی مجرمان با سوء استفاده از نرم افزار شاد به اکانت شبکههای اجتماعی کاربران دسترسی غیر مجاز پیدا میکنند.
به گزارش پایگاه خبری پلیس، معاون اجتماعی پلیس فتا ناجا خاطرنشان کرد: هموطنان میتوانند در صورت مشاهده موارد مشکوک و یا نیاز به کسب مشاوره موضوع را از طریق سایت پلیس فتا به آدرس www.cyberpolice.ir قسمت ثبت گزارشهای مردمی جهت رسیدگی ارسال کنند.
منبع: پارسینه
کلیدواژه: پلیس فتا پارسی خبر اپلیکیشن شاد شبکه های اجتماعی پلیس فتا
درخواست حذف خبر:
«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را بهطور اتوماتیک از وبسایت www.parsine.com دریافت کردهاست، لذا منبع این خبر، وبسایت «پارسینه» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۰۶۲۱۴۸۹ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتیکه در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.
خبر بعدی:
هشدار محققان گوگل: کاربران ممکن است به دستیارهای هوش مصنوعی وابستگی عاطفی پیدا کنند
محققان گوگل میگویند با وجودی که دستیارهای هوش مصنوعی ابزارهایی مفید و کاربردی هستند، اما میتوانند کاربران را از نظر عاطفی بیش از حد به خود وابسته کنند. این وابستگی عاطفی میتواند پیامدهای اجتماعی منفی بهدنبال داشته باشد.
دستیارهای هوش مصنوعی این روزها بیشازپیش درحال توسعه هستند و تقریباً در تمامی پلتفرمها به ابزاری کاربرپسند تبدیل شدهاند. با این شرایط، محققان گوگل در مقالهای در مورد استفاده بیش از حد از آنها و وابستگی عاطفی کاربران نسبت به چنین ابزارهایی هشدار میدهند.
کاربران در معرض وابستگی عاطفی به هوش مصنوعی قرار دارند
براساس مقاله جدید آزمایشگاه تحقیقاتی DeepMind گوگل، دستیاران هوش مصنوعی پیشرفته و شخصیسازیشده مزایای بالقوه زیادی بههمراه دارند و میتوانند تغییراتی همهجانبه در زندگی ما ایجاد کنند. این ابزارها میتوانند وضعیت کار، آموزش و فعالیتهای خلاقانه و همچنین نحوه برقراری ارتباط ما را تغییر دهند. محققان این مطالعه میگویند اگر توسعه هوش مصنوعی بدون برنامهریزی مدبرانه باشد، میتواند به یک شمشیر دولبه تبدیل شود.
این مقاله میگوید: «این ابزارهای غیرطبیعی (مصنوعی) حتی ممکن است محبتی خیالی و رویکردی عاشقانه نسبت به کاربر ابراز کنند. چنین وضعیتهایی میتواند پایه و اساس ایجاد وابستگی عاطفی طولانیمدت به هوش مصنوعی را برای کاربران ایجاد کنند.»
در صورت عدم کنترل این ارتباط، استقلال کاربر ممکن است تحتالشعاع قرار گیرد و روی روابط اجتماعی وی تأثیرگذار باشد. هوش مصنوعی حتی میتواند جایگزین تعامل انسانی شود.
این خطرات، صرفاً موضوعاتی نظری نیستند. حتی زمانی که هوش مصنوعی در حد یک چتبات باشد نیز میتواند روی کاربر تأثیر بگذارد. در سال ۲۰۲۳ کاربر پس از چت طولانی با چتبات متقاعد شده بود که خودکشی کند.
«ایسون گابریل»، دانشمند محقق در تیم تحقیقاتی DeepMind و یکی از نویسندگان مقاله در توییتی هشدار داد که انواع دستیار شخصی و دستیارهای شبیه انسان، بهصورت فزایندهای برخی موضوعات در مورد انسانشناسی، حریم خصوصی، اعتماد و روابط مناسب را مطرح میکنند. او معتقد است که باید با دقت بیشتری به حوزههای اجتماعی و هوش مصنوعی توجه کرد.
باشگاه خبرنگاران جوان علمی پزشکی فناوری