Volgens een nieuw Bloomberg-rapport heeft het Pentagon het gebruik van kunstmatige intelligentie-instrumenten opgevoerd sinds de aanvallen van Hamas op Israël van 7 oktober. Schweyler Moore, hoofd van de technologiedivisie van het Amerikaanse Centrale Commando, vertelde de nieuwsorganisatie dat machine learning-algoritmen het Pentagon hielpen bij het identificeren van doelen voor meer dan 85 luchtaanvallen in het Midden-Oosten deze maand.
Amerikaanse bommenwerpers en straaljagers voerden deze luchtaanvallen uit op zeven doelen in Irak en Syrië op 2 februari, waarbij raketten, drone-opslagfaciliteiten en militie-operatiecentra volledig werden vernietigd of op zijn minst beschadigd. Het Pentagon gebruikte ook AI-systemen om raketlocaties in Jemen en oppervlaktestrijders in de Rode Zee te detecteren, die vervolgens diezelfde maand bij meerdere luchtaanvallen werden vernietigd.
De machine learning-algoritmen die werden gebruikt om de doelen te verfijnen, zijn ontwikkeld als onderdeel van Project Maven, een inmiddels ter ziele gegane samenwerking tussen Google en het Pentagon. Om precies te zijn, omvatte het project het gebruik van de kunstmatige intelligentietechnologie van Google door het Amerikaanse leger om dronebeelden en afbeeldingen van vlaggen te analyseren voor verdere menselijke analyse. Dit veroorzaakte verontwaardiging onder Google-medewerkers: duizenden mensen vroegen het bedrijf om te stoppen met samenwerken met het Pentagon, en sommigen namen zelfs ontslag vanwege hun deelname aan dit project. Een paar maanden na dit werknemersprotest besloot Google het contract, dat in 2019 zou aflopen, niet te verlengen.
Moore vertelde Bloomberg dat Amerikaanse troepen in het Midden-Oosten niet zijn gestopt met experimenteren met algoritmen om potentiële doelen te identificeren met behulp van drones of satellietbeelden, zelfs nadat Google zijn betrokkenheid had beëindigd. Het leger heeft het gebruik ervan het afgelopen jaar getest in digitale oefeningen, zei ze, maar ze zijn de targeting-algoritmen gaan gebruiken in operaties in de echte wereld na de aanvallen van Hamas op 7 oktober. Ze specificeerde dat mensen voortdurend de aanbevelingen van kunstmatige intelligentiesystemen met betrekking tot targeting controleerden en bevestigden. Mensen suggereerden ook hoe ze aanvallen konden organiseren en welke wapens ze moesten gebruiken. "Er is nooit een algoritme dat gewoon werkt, een conclusie trekt en doorgaat naar de volgende stap", zei ze. “Bij elke stap die AI met zich meebrengt, staat er altijd een persoon aan het eind.”
Lees ook:
- Het Europees Parlement heeft de toewijzing van € 50 miljard aan Oekraïne goedgekeurd
- Leger-tv-stream: aanval op Robotyny en vertrek uit Lastochkiny, executie van Oekraïense gevangenen