Web Analytics Made Easy - Statcounter

یک وبگاه عبری زبان جزئیات برنامه هوش مصنوعی موسوم به «لاوندر» را فاش کرد که ارتش رژیم صهیونیستی در تجاوزات خود به نوار غزه مورد استفاده قرار داد و صدها غیرنظامی فلسطینی را به شهادت رساند.

به گزارش مشرق، ۶ افسر صهیونیست که مستقیماً در استفاده از فناوری لاوندر برای کشتن فلسطینی‌ها دست داشتند در مصاحبه با مجری وبگاه عبری زبان +۹۷۲ جزئیاتی را درباره این فناوری فاش کردند.

بیشتر بخوانید: اخباری که در وبسایت منتشر نمی‌شوند!

فناوری لاوندر نقش اساسی در بمباران بی‌سابقه نوار غزه، به ویژه در مراحل اولیه جنگ ایفا کرد و به عنوان یک تصمیم انسانی بدون بررسی تلقی می‌شد. لاوندر که به معنی اسطوخودوس است برای شناسایی تمامی فعالان شاخه‌های نظامی مقاومت حماس و جهاد اسلامی در فلسطین، از جمله عناصر پایین‌رده به‌عنوان اهداف بالقوه برای تجاوز طراحی شده است.

به گفته افسران مذکور، ارتش رژیم صهیونیستی در هفته‌های نخستین جنگ پس از هفتم اکتبر به طور کامل به نرم‌افزار لاوندر متکی بوده است و ۳۷۰۰۰ فلسطینی را به عنوان شبه‌نظامیان مظنون و خانه‌های آنها را جهت حمله شناسایی و ثبت کرده است.

این وبگاه عبری زبان گزارش کرد در جنگ غزه ۲ نوع فناوری استفاده شده است: فناوری نخست لاوندر است که با هوش مصنوعی کار می‌کند و برای استفاده از الگوریتم‌هایی برای شناسایی فعالان حماس به عنوان هدف طراحی شده است. فناوری دوم با نام عجیب «پدر کجاست» سیستمی است که اهداف را از نظر جغرافیایی ردیابی می‌کند، به طوری که با این سیستم می‌توان قبل از حمله، این اهداف را تا منزل خانوادگی‌شان تعقیب کرد. این ۲ فناوری با هم اجزای جستجوی مسیر و هدف چیزی را تشکیل می‌دهند که ارتش اشغالگر آن را «زنجیره کشتار» می‌نامد.

براساس اظهارات این افسران، «در مراحل اولیه تجاوز به غزه، اشغالگران دست نظامیان خود را کاملا باز گذاشتند تا از لیست‌های کشتار تهیه شده توسط برنامه لاوندر استفاده کنند بی‌آنکه چرایی انتخاب اهداف توسط این برنامه را بررسی کنند یا داده‌های اطلاعاتی اولیه را مورد تحقیق قرار دهند. یکی از ۶ افسر صهیونیستی می‌گوید برای شناسایی هر هدف تنها ۲۰ ثانیه وقت لازم بود و هدف گیری و حمله به یک شخص اندازه زدن مهری برای تأیید اهداف شناسایی شده زمان می‌برد.

وی در ادامه گفت با این حال مقامات می‌دانستند که هوش مصنوعی لاوندر ۱۰ درصد احتمال خطا داشت و گاهی افرادی را به عنوان هدف مرتبط با مقاومت شناسایی می‌کرد که ارتباط ضعیفی با مقاومت دارند یا اصلا ارتباطی با آن ندارند.

طبق اظهارات این افسران، ارتش اشغالگر به طور سیستماتیک افراد مورد هدف را نه در حین فعالیت نظامی که به هنگام حضور در کنار خانواده خود معمولاً به هنگام شب مورد حمله قرار می‌داد.

به گفته این منابع، این فناوری‌ها برای حمله به اهداف شناسایی شده به هنگام حضور در کنار خانواده‌هایشان مورد استفاده قرار می‌گرفتند؛ اهدافی که اغلب کودکان و زنان یا افرادی بود که در هیچ عملیاتی شرکت نکرده بودند و تنها به دلیل اتکای تقریبا کامل ارتش رژیم صهیونیستی مخصوصا در هفته‌های اول جنگ غزه به هوش مصنوعی به شهادت رسیدند و دقیقا به همین دلیل شمار شهدای غزه بسیار بالاست.

«الف» یک افسر اطلاعاتی رژیم صهیونیستی که نام خود را فاش نکرد، گفت ارتش تنها به دنبال کشتن نیروهای حماس به هنگام حضور آنها در اماکن نظامی یا به هنگام انجام فعالیت نظامی نبود بلکه برعکس ارتش به عنوان اولین گزینه خانه‌های این نیروها را بمباران می‌کرد و فناوری هوش مصنوعی برای جستجوی آنها در منازل خود ساخته شده بود.

او گفت در مورد حمله به گروه‌های کوچک نیروهای مقاومت، ارتش ترجیح داد برعکس بمب‌های دقیق هوشمند تنها از موشک‌های هدایت نشده به نام «بمب‌های گنگ» استفاده کند که قادر به تخریب کل خانه و ایجاد خسارت‌های سنگین هستند.

یکی دیگر از این ۶ افسر صهیونیست می‌گوید ارتش اجازه داده بود صدها منزل مرتبط با گروه‌های کوچک مقاومت که توسط لاوندر شناسایی شده بودند، بمباران شود که اغلب این حملات منجر به شهادت غیرنظامیان و کل خانواده‌های آنها می‌شد.

برنامه لاوندر اطلاعات جمع آوری شده در مورد اکثر ساکنان ۲.۳ میلیونی نوار غزه را از طریق یک سیستم نظارت جمعی تجزیه و تحلیل می‌کند، سپس احتمال فعالیت هر فرد معین در شاخه نظامی مقاومت را ارزیابی و طبقه‌بندی می‌کند.

طبق اظهارات این افسران، این برنامه تقریباً به همه افراد غزه از ۱ تا ۱۰۰ امتیاز می‌دهد و به این شکل میزان احتمال نیروی مسلح بودن آنها را مشخص می‌کند. در واقع لاوندر داده‌های مربوط به فعالان فعلی حماس را دریافت می‌کند، به ویژگی‌های آنها توجه می‌کند، سپس براساس این ویژگی‌ها میزان شباهت سایر فلسطینی‌ها به نیروهای حماس را ارزیابی می‌کند و بعد از ۱ تا ۱۰۰ امتیاز می‌دهد.

این افسران گفتند هنگام حمله به گروه‌های کوچک مقاومت که توسط سیستم‌های هوش مصنوعی مانند لاوندر شناسایی می‌شدند، تعداد غیرنظامیان مجاز به کشته شدن در کنار هر هدف در هفته‌های اول جنگ ۲۰ نفر بود که تحت عنوان خسارات جانبی طبقه بندی می‌شدند.

منبع: ایسنا

منبع: مشرق

کلیدواژه: تحلیل روز طوفان الاقصی قیمت هوش مصنوعی مقاومت فلسطین ارتش اسرائیل جنگ غزه حماس جنایات رژیم صهیونیستی عملیات طوفان الاقصی خودرو قیمت های روز در یک نگاه حوادث سلامت رژیم صهیونیستی هوش مصنوعی

درخواست حذف خبر:

«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را به‌طور اتوماتیک از وبسایت www.mashreghnews.ir دریافت کرده‌است، لذا منبع این خبر، وبسایت «مشرق» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۴۰۱۴۵۹۱۸ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتی‌که در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.

با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.

خبر بعدی:

ربات‌های قاتل؛ ترس از آینده هوش مصنوعی

ایتنا - نگرانی‌هایی در محافل اروپایی به دلیل توسعه سیستم‌های هوش مصنوعی و میزان نفوذ آنها وجود دارد که ممکن است منجر به ظهور به اصطلاح "ربات‌های قاتل" شود.

روز دوشنبه، اتریش خواستار تلاش‌های جدیدی برای تنظیم قوانینی برای استفاده از هوش مصنوعی در سیستم‌های تسلیحاتی شد، در حالی که میزبان کنفرانسی با عنوان «انسانیت در تقاطع: سیستم‌های تسلیحات خودمختار و چالش‌های مقررات» بود.

این کنفرانس با هدف احیای بحث‌های متوقف شده در مورد این موضوع، یعنی توسعه هوش مصنوعی و لزوم وجود کنترل‌هایی برای تنظیم آن برای مهار هر گونه پیامدهای نامطلوبی که ممکن است منجر شود، برگزار می‌شود.

با پیشرفت سریع فناوری هوش مصنوعی، سیستم‌های تسلیحاتی که می‌توانند بدون دخالت انسان کشته شوند، بیشتر نمایان می‌شوند و چالش‌های اخلاقی و قانونی را ایجاد می‌کنند که اکثر کشورها می‌گویند باید در اسرع وقت به آن رسیدگی کنند.

الکساندر شالنبرگ وزیر امور خارجه اتریش در جلسه‌ای با حضور سازمان‌های غیردولتی و بین‌المللی و همچنین نمایندگانی از 143 کشور گفت: «اکنون زمان توافق بر سر قوانین بین‌المللی است، استانداردهایی برای تضمین کنترل انسانی.»

وی در سخنرانی افتتاحیه خود در این کنفرانس افزود: «ما حداقل باید اطمینان حاصل کنیم که تصمیمات حیاتی در مورد اینکه چه کسی زندگی می‌کند و چه کسی می‌میرد در دست انسان‌ها باقی بماند، نه ماشین‌ها».

برای سالها بحث در سازمان ملل بدون دستیابی به نتایج ملموس گذشت. بسیاری از شرکت کنندگان در کنفرانس دو روزه در وین اعلام کردند که زمان برای اقدام به سرعت در حال اتمام است.

میرجانا اسپولیاریک، رئیس کمیته بین‌المللی صلیب سرخ، در جریان میزگردی در کنفرانس گفت: «بسیار مهم است که ما به سرعت اقدام کنیم.

وی افزود: آنچه امروز در زمینه‌های مختلف خشونت شاهد آن هستیم، شکست‌های اخلاقی در برابر جامعه جهانی است.

هوش مصنوعی در حال حاضر در میدان‌های جنگ استفاده می‌شود. دیپلمات‌ها می گویند که پهپادهای اوکراینی به گونه‌ای طراحی شده‌اند که حتی زمانی که ارتباط بین آنها و اپراتور با استفاده از تکنیک‌های پارازیت قطع شود، به مسیر خود به سمت هدف خود ادامه دهند.

ایالات متحده در این ماه اعلام کرد که در حال بررسی گزارش رسانه‌ای است مبنی بر اینکه ارتش اسرائیل از هوش مصنوعی برای کمک به شناسایی اهداف بمباران در غزه استفاده می کند.

جان تالین، یکی از محققان، می‌گوید: «ما قبلاً دیده‌ایم که هوش مصنوعی مرتکب اشتباهات کوچک و بزرگ می‌شود، از تشخیص ندادن بین توپ فوتبال و سر بدون موی داور گرفته تا مرگ عابران پیاده در جاده‌ها ناشی از اتومبیل‌های خودران».

توسعه‌دهنده نرم‌افزار و سرمایه‌گذار فناوری، در نامه‌ای رسمی گفت که قادر به شناسایی افرادی است که خارج از خطوط تعیین‌شده راه می‌روند.
وی افزود: باید در مورد اتکا به دقت این سامانه ها چه در بخش نظامی و چه غیرنظامی بسیار دقت کنیم.

دیگر خبرها

  • ربات‌های قاتل؛ ترس از آینده هوش مصنوعی
  • عوامل کشتار نمازگزاران در هرات شناسایی و مجازات شوند
  • اذعان ارتش صهیونیستی به کشته و زخمی شدن 3 نظامی خود در غزه
  • چین از مدل هوش مصنوعی تبدیل متن به ویدئو رونمایی کرد
  • امتناع افسران و سربازان صهیونیست از دستور آماده شدن برای حمله به رفح
  • سندرز: متهم کردن اسرائیل به کشتار فلسطینیان یهودی‌ستیزی نیست بلکه تبیین حقیقت است
  • تیراندازی نظامیان صهیونیست به سوی خودرو فلسطینی در کرانه باختری
  • متهم کردن اسرائیل به کشتار ۳۳ هزار فلسطینی، یهودی‌ستیزی نیست
  • هوش مصنوعی آرتروز زانو را ۸ سال زودتر تشخیص می‌دهد
  • تصویب سند هوش مصنوعی در کشور به کجا رسید؟