اذعان افسران صهیونیست به استفاده از «فناوری هوش مصنوعی» در کشتار فلسطینیها در غزه
تاریخ انتشار: ۲۹ فروردین ۱۴۰۳ | کد خبر: ۴۰۱۴۵۹۱۸
یک وبگاه عبری زبان جزئیات برنامه هوش مصنوعی موسوم به «لاوندر» را فاش کرد که ارتش رژیم صهیونیستی در تجاوزات خود به نوار غزه مورد استفاده قرار داد و صدها غیرنظامی فلسطینی را به شهادت رساند.
به گزارش مشرق، ۶ افسر صهیونیست که مستقیماً در استفاده از فناوری لاوندر برای کشتن فلسطینیها دست داشتند در مصاحبه با مجری وبگاه عبری زبان +۹۷۲ جزئیاتی را درباره این فناوری فاش کردند.
بیشتر بخوانید:
اخباری که در وبسایت منتشر نمیشوند!
فناوری لاوندر نقش اساسی در بمباران بیسابقه نوار غزه، به ویژه در مراحل اولیه جنگ ایفا کرد و به عنوان یک تصمیم انسانی بدون بررسی تلقی میشد. لاوندر که به معنی اسطوخودوس است برای شناسایی تمامی فعالان شاخههای نظامی مقاومت حماس و جهاد اسلامی در فلسطین، از جمله عناصر پایینرده بهعنوان اهداف بالقوه برای تجاوز طراحی شده است.
به گفته افسران مذکور، ارتش رژیم صهیونیستی در هفتههای نخستین جنگ پس از هفتم اکتبر به طور کامل به نرمافزار لاوندر متکی بوده است و ۳۷۰۰۰ فلسطینی را به عنوان شبهنظامیان مظنون و خانههای آنها را جهت حمله شناسایی و ثبت کرده است.
این وبگاه عبری زبان گزارش کرد در جنگ غزه ۲ نوع فناوری استفاده شده است: فناوری نخست لاوندر است که با هوش مصنوعی کار میکند و برای استفاده از الگوریتمهایی برای شناسایی فعالان حماس به عنوان هدف طراحی شده است. فناوری دوم با نام عجیب «پدر کجاست» سیستمی است که اهداف را از نظر جغرافیایی ردیابی میکند، به طوری که با این سیستم میتوان قبل از حمله، این اهداف را تا منزل خانوادگیشان تعقیب کرد. این ۲ فناوری با هم اجزای جستجوی مسیر و هدف چیزی را تشکیل میدهند که ارتش اشغالگر آن را «زنجیره کشتار» مینامد.
براساس اظهارات این افسران، «در مراحل اولیه تجاوز به غزه، اشغالگران دست نظامیان خود را کاملا باز گذاشتند تا از لیستهای کشتار تهیه شده توسط برنامه لاوندر استفاده کنند بیآنکه چرایی انتخاب اهداف توسط این برنامه را بررسی کنند یا دادههای اطلاعاتی اولیه را مورد تحقیق قرار دهند. یکی از ۶ افسر صهیونیستی میگوید برای شناسایی هر هدف تنها ۲۰ ثانیه وقت لازم بود و هدف گیری و حمله به یک شخص اندازه زدن مهری برای تأیید اهداف شناسایی شده زمان میبرد.
وی در ادامه گفت با این حال مقامات میدانستند که هوش مصنوعی لاوندر ۱۰ درصد احتمال خطا داشت و گاهی افرادی را به عنوان هدف مرتبط با مقاومت شناسایی میکرد که ارتباط ضعیفی با مقاومت دارند یا اصلا ارتباطی با آن ندارند.
طبق اظهارات این افسران، ارتش اشغالگر به طور سیستماتیک افراد مورد هدف را نه در حین فعالیت نظامی که به هنگام حضور در کنار خانواده خود معمولاً به هنگام شب مورد حمله قرار میداد.
به گفته این منابع، این فناوریها برای حمله به اهداف شناسایی شده به هنگام حضور در کنار خانوادههایشان مورد استفاده قرار میگرفتند؛ اهدافی که اغلب کودکان و زنان یا افرادی بود که در هیچ عملیاتی شرکت نکرده بودند و تنها به دلیل اتکای تقریبا کامل ارتش رژیم صهیونیستی مخصوصا در هفتههای اول جنگ غزه به هوش مصنوعی به شهادت رسیدند و دقیقا به همین دلیل شمار شهدای غزه بسیار بالاست.
«الف» یک افسر اطلاعاتی رژیم صهیونیستی که نام خود را فاش نکرد، گفت ارتش تنها به دنبال کشتن نیروهای حماس به هنگام حضور آنها در اماکن نظامی یا به هنگام انجام فعالیت نظامی نبود بلکه برعکس ارتش به عنوان اولین گزینه خانههای این نیروها را بمباران میکرد و فناوری هوش مصنوعی برای جستجوی آنها در منازل خود ساخته شده بود.
او گفت در مورد حمله به گروههای کوچک نیروهای مقاومت، ارتش ترجیح داد برعکس بمبهای دقیق هوشمند تنها از موشکهای هدایت نشده به نام «بمبهای گنگ» استفاده کند که قادر به تخریب کل خانه و ایجاد خسارتهای سنگین هستند.
یکی دیگر از این ۶ افسر صهیونیست میگوید ارتش اجازه داده بود صدها منزل مرتبط با گروههای کوچک مقاومت که توسط لاوندر شناسایی شده بودند، بمباران شود که اغلب این حملات منجر به شهادت غیرنظامیان و کل خانوادههای آنها میشد.
برنامه لاوندر اطلاعات جمع آوری شده در مورد اکثر ساکنان ۲.۳ میلیونی نوار غزه را از طریق یک سیستم نظارت جمعی تجزیه و تحلیل میکند، سپس احتمال فعالیت هر فرد معین در شاخه نظامی مقاومت را ارزیابی و طبقهبندی میکند.
طبق اظهارات این افسران، این برنامه تقریباً به همه افراد غزه از ۱ تا ۱۰۰ امتیاز میدهد و به این شکل میزان احتمال نیروی مسلح بودن آنها را مشخص میکند. در واقع لاوندر دادههای مربوط به فعالان فعلی حماس را دریافت میکند، به ویژگیهای آنها توجه میکند، سپس براساس این ویژگیها میزان شباهت سایر فلسطینیها به نیروهای حماس را ارزیابی میکند و بعد از ۱ تا ۱۰۰ امتیاز میدهد.
این افسران گفتند هنگام حمله به گروههای کوچک مقاومت که توسط سیستمهای هوش مصنوعی مانند لاوندر شناسایی میشدند، تعداد غیرنظامیان مجاز به کشته شدن در کنار هر هدف در هفتههای اول جنگ ۲۰ نفر بود که تحت عنوان خسارات جانبی طبقه بندی میشدند.
منبع: ایسنامنبع: مشرق
کلیدواژه: تحلیل روز طوفان الاقصی قیمت هوش مصنوعی مقاومت فلسطین ارتش اسرائیل جنگ غزه حماس جنایات رژیم صهیونیستی عملیات طوفان الاقصی خودرو قیمت های روز در یک نگاه حوادث سلامت رژیم صهیونیستی هوش مصنوعی
درخواست حذف خبر:
«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را بهطور اتوماتیک از وبسایت www.mashreghnews.ir دریافت کردهاست، لذا منبع این خبر، وبسایت «مشرق» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۴۰۱۴۵۹۱۸ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتیکه در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.
خبر بعدی:
رباتهای قاتل؛ ترس از آینده هوش مصنوعی
ایتنا - نگرانیهایی در محافل اروپایی به دلیل توسعه سیستمهای هوش مصنوعی و میزان نفوذ آنها وجود دارد که ممکن است منجر به ظهور به اصطلاح "رباتهای قاتل" شود.
روز دوشنبه، اتریش خواستار تلاشهای جدیدی برای تنظیم قوانینی برای استفاده از هوش مصنوعی در سیستمهای تسلیحاتی شد، در حالی که میزبان کنفرانسی با عنوان «انسانیت در تقاطع: سیستمهای تسلیحات خودمختار و چالشهای مقررات» بود.
این کنفرانس با هدف احیای بحثهای متوقف شده در مورد این موضوع، یعنی توسعه هوش مصنوعی و لزوم وجود کنترلهایی برای تنظیم آن برای مهار هر گونه پیامدهای نامطلوبی که ممکن است منجر شود، برگزار میشود.
با پیشرفت سریع فناوری هوش مصنوعی، سیستمهای تسلیحاتی که میتوانند بدون دخالت انسان کشته شوند، بیشتر نمایان میشوند و چالشهای اخلاقی و قانونی را ایجاد میکنند که اکثر کشورها میگویند باید در اسرع وقت به آن رسیدگی کنند.
الکساندر شالنبرگ وزیر امور خارجه اتریش در جلسهای با حضور سازمانهای غیردولتی و بینالمللی و همچنین نمایندگانی از 143 کشور گفت: «اکنون زمان توافق بر سر قوانین بینالمللی است، استانداردهایی برای تضمین کنترل انسانی.»
وی در سخنرانی افتتاحیه خود در این کنفرانس افزود: «ما حداقل باید اطمینان حاصل کنیم که تصمیمات حیاتی در مورد اینکه چه کسی زندگی میکند و چه کسی میمیرد در دست انسانها باقی بماند، نه ماشینها».
برای سالها بحث در سازمان ملل بدون دستیابی به نتایج ملموس گذشت. بسیاری از شرکت کنندگان در کنفرانس دو روزه در وین اعلام کردند که زمان برای اقدام به سرعت در حال اتمام است.
میرجانا اسپولیاریک، رئیس کمیته بینالمللی صلیب سرخ، در جریان میزگردی در کنفرانس گفت: «بسیار مهم است که ما به سرعت اقدام کنیم.
وی افزود: آنچه امروز در زمینههای مختلف خشونت شاهد آن هستیم، شکستهای اخلاقی در برابر جامعه جهانی است.
هوش مصنوعی در حال حاضر در میدانهای جنگ استفاده میشود. دیپلماتها می گویند که پهپادهای اوکراینی به گونهای طراحی شدهاند که حتی زمانی که ارتباط بین آنها و اپراتور با استفاده از تکنیکهای پارازیت قطع شود، به مسیر خود به سمت هدف خود ادامه دهند.
ایالات متحده در این ماه اعلام کرد که در حال بررسی گزارش رسانهای است مبنی بر اینکه ارتش اسرائیل از هوش مصنوعی برای کمک به شناسایی اهداف بمباران در غزه استفاده می کند.
جان تالین، یکی از محققان، میگوید: «ما قبلاً دیدهایم که هوش مصنوعی مرتکب اشتباهات کوچک و بزرگ میشود، از تشخیص ندادن بین توپ فوتبال و سر بدون موی داور گرفته تا مرگ عابران پیاده در جادهها ناشی از اتومبیلهای خودران».
توسعهدهنده نرمافزار و سرمایهگذار فناوری، در نامهای رسمی گفت که قادر به شناسایی افرادی است که خارج از خطوط تعیینشده راه میروند.
وی افزود: باید در مورد اتکا به دقت این سامانه ها چه در بخش نظامی و چه غیرنظامی بسیار دقت کنیم.