Web Analytics Made Easy - Statcounter
به نقل از «پارسینه»
2024-04-27@14:59:35 GMT

هشدار فتا نسبت به سوءاستفاده از اپلیکیشن شاد

تاریخ انتشار: ۲۰ دی ۱۳۹۹ | کد خبر: ۳۰۶۲۱۴۸۹

هشدار فتا نسبت به سوءاستفاده از اپلیکیشن شاد

سرهنگ رامین پاشایی معاون اجتماعی پلیس فتا ناجا اظهارکرد: در این روش مجرمان در شبکه اجتماعی «شاد» اقدام به ایجاد اکانتی با نام «ربات پشتیبانی شاد» می‌کنند سپس به منظور دسترسی به اکانت شبکه اجتماعی کاربران عمدتا با فعال سازی شبکه اجتماعی «روبیکا» و سایر شبکه‌های اجتماعی فعال در کشور با استفاده از شماره تلفن کاربران پیامی را با "مضمون و اخطار کد دریافتی را ارسال نمایید، در غیر این صورت دسترسی شما در شبکه آموزشی شاد قطع خواهد شد" برای طعمه‌های خود ارسال می‌کنند.

بیشتر بخوانید: اخباری که در وبسایت منتشر نمی‌شوند!



معاون اجتماعی پلیس فتا ناجا افزود: برخی خانواده‌ها و دانش آموزان عمدتا به علت ناآگاهی و اضطراب ناشی از قطع دسترسی به شبکه آموزشی شاد مبادرت به ارسال کد تایید به کلاهبرداران و شرایط دسترسی غیرمجاز به اکانت‌های کاربری خود را در شبکه‌های اجتماعی برای مجرمان سایبری فراهم می‌کنند.

وی ادامه داد: این افراد با سوءاستفاده از دسترسی ایجاد شده با روش‌های مختلفی نظیر ارسال پیام، درخواست واریز فوری پول به شماره حساب اعلامی به علت نیاز مبرم مالی به کاربران و یا سایر تهدیدات در حوزه دسترسی به اطلاعات خصوصی از فریب خوردگان کلاهبرداری می‌کنند.

پاشایی افزود: کاربران ضمن استفاده از شبکه‌های اجتماعی می‌بایست راه‌های بالا بردن امنیت و دانش فنی خود را در خصوص استفاده از شبکه‌های اجتماعی و پیام رسان‌ها فرا بگیرند و به هیچ عنوان به پیام‌های مشابه که بدون درخواست آنان دریافت شده، توجه نکنند و در صورت دریافت پیام‌هایی با مضمون واریز پول از سوی آشنایان و دوستان در حوزه مخاطبان و ... ابتدا موضوع را با تماس تلفنی از درخواست کننده بررسی کنند.

وی به خانواده‌ها و دانش آموزان توصیه کرد مراقب باشند چرا که برخی مجرمان با سوء استفاده از نرم افزار شاد به اکانت شبکه‌های اجتماعی کاربران دسترسی غیر مجاز پیدا می‌کنند.

به گزارش پایگاه خبری پلیس، معاون اجتماعی پلیس فتا ناجا خاطرنشان کرد: هموطنان می‌توانند در صورت مشاهده موارد مشکوک و یا نیاز به کسب مشاوره موضوع را از طریق سایت پلیس فتا به آدرس www.cyberpolice.ir قسمت ثبت گزارش‌های مردمی جهت رسیدگی ارسال کنند.

منبع: پارسینه

کلیدواژه: پلیس فتا پارسی خبر اپلیکیشن شاد شبکه های اجتماعی پلیس فتا

درخواست حذف خبر:

«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را به‌طور اتوماتیک از وبسایت www.parsine.com دریافت کرده‌است، لذا منبع این خبر، وبسایت «پارسینه» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۰۶۲۱۴۸۹ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتی‌که در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.

با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.

خبر بعدی:

هشدار محققان گوگل: کاربران ممکن است به دستیار‌های هوش مصنوعی وابستگی عاطفی پیدا کنند

محققان گوگل می‌گویند با وجودی که دستیار‌های هوش مصنوعی ابزار‌هایی مفید و کاربردی هستند، اما می‌توانند کاربران را از نظر عاطفی بیش از حد به خود وابسته کنند. این وابستگی عاطفی می‌تواند پیامد‌های اجتماعی منفی به‌دنبال داشته باشد.

دستیار‌های هوش مصنوعی این روز‌ها بیش‌از‌پیش درحال توسعه هستند و تقریباً در تمامی پلتفرم‌ها به ابزاری کاربرپسند تبدیل شده‌اند. با این شرایط، محققان گوگل در مقاله‌ای در مورد استفاده بیش از حد از آنها و وابستگی عاطفی کاربران نسبت به چنین ابزار‌هایی هشدار می‌دهند.

کاربران در معرض وابستگی عاطفی به هوش مصنوعی قرار دارند
براساس مقاله جدید آزمایشگاه تحقیقاتی DeepMind گوگل، دستیاران هوش مصنوعی پیشرفته و شخصی‌سازی‌شده مزایای بالقوه زیادی به‌همراه دارند و می‌توانند تغییراتی همه‌جانبه در زندگی ما ایجاد کنند. این ابزار‌ها می‌توانند وضعیت کار، آموزش و فعالیت‌های خلاقانه و همچنین نحوه برقراری ارتباط ما را تغییر دهند. محققان این مطالعه می‌گویند اگر توسعه هوش مصنوعی بدون برنامه‌ریزی مدبرانه باشد، می‌تواند به یک شمشیر دولبه تبدیل شود.

این مقاله می‌گوید: «این ابزار‌های غیرطبیعی (مصنوعی) حتی ممکن است محبتی خیالی و رویکردی عاشقانه نسبت به کاربر ابراز کنند. چنین وضعیت‌هایی می‌تواند پایه و اساس ایجاد وابستگی عاطفی طولانی‌مدت به هوش مصنوعی را برای کاربران ایجاد کنند.»

در صورت عدم کنترل این ارتباط، استقلال کاربر ممکن است تحت‌الشعاع قرار گیرد و روی روابط اجتماعی وی تأثیرگذار باشد. هوش مصنوعی حتی می‌تواند جایگزین تعامل انسانی شود.

این خطرات، صرفاً موضوعاتی نظری نیستند. حتی زمانی که هوش مصنوعی در حد یک چت‌بات باشد نیز می‌تواند روی کاربر تأثیر بگذارد. در سال ۲۰۲۳ کاربر پس از چت طولانی با چت‌بات متقاعد شده بود که خودکشی کند.

«ایسون گابریل»، دانشمند محقق در تیم تحقیقاتی DeepMind و یکی از نویسندگان مقاله در توییتی هشدار داد که انواع دستیار شخصی و دستیار‌های شبیه انسان، به‌صورت فزاینده‌ای برخی موضوعات در مورد انسان‌شناسی، حریم خصوصی، اعتماد و روابط مناسب را مطرح می‌کنند. او معتقد است که باید با دقت بیشتری به حوزه‌های اجتماعی و هوش مصنوعی توجه کرد.

باشگاه خبرنگاران جوان علمی پزشکی فناوری

دیگر خبرها

  • امکان ارسال پیوست بدون اینترنت در واتس‌اپ
  • درخواست مکرون برای افزایش نظارت بر کودکان در شبکه‌های اجتماعی
  • مکرون خواستار نظارت والدین بر کودکان در شبکه‌های اجتماعی شد
  • دستگیری یک نوجوان ۱۶ ساله در پی تهدید تروریستی در المپیک
  • نارضایتی کاربران از ارسال نشدن پیامک بانکی برای تراکنش‌های کمتر از ۳۰ هزار تومان
  • سوءاستفاده از احساسات زنان با پیج مادر
  • به جای افتادن در چرخه باطل اخاذی و باج گیری به کارآگاهان پلیس اعتماد کنید!
  • هشدار/ این دو موبایل دیگر بروزرسانی دریافت نخواهند کرد
  • بروزرسانی های اساسی واتساپ در راه است
  • هشدار محققان گوگل: کاربران ممکن است به دستیار‌های هوش مصنوعی وابستگی عاطفی پیدا کنند