Root NationNieuwsIT-nieuwsHet Pentagon gebruikte de AI van Google om doelen voor luchtaanvallen te identificeren

Het Pentagon gebruikte de AI van Google om doelen voor luchtaanvallen te identificeren

-

Volgens een nieuw Bloomberg-rapport heeft het Pentagon het gebruik van kunstmatige intelligentie-instrumenten opgevoerd sinds de aanvallen van Hamas op Israël van 7 oktober. Schweyler Moore, hoofd van de technologiedivisie van het Amerikaanse Centrale Commando, vertelde de nieuwsorganisatie dat machine learning-algoritmen het Pentagon hielpen bij het identificeren van doelen voor meer dan 85 luchtaanvallen in het Midden-Oosten deze maand.

Amerikaanse bommenwerpers en straaljagers voerden deze luchtaanvallen uit op zeven doelen in Irak en Syrië op 2 februari, waarbij raketten, drone-opslagfaciliteiten en militie-operatiecentra volledig werden vernietigd of op zijn minst beschadigd. Het Pentagon gebruikte ook AI-systemen om raketlocaties in Jemen en oppervlaktestrijders in de Rode Zee te detecteren, die vervolgens diezelfde maand bij meerdere luchtaanvallen werden vernietigd.

Het Pentagon gebruikte AI van Project Maven om doelen voor luchtaanvallen te identificeren

De machine learning-algoritmen die werden gebruikt om de doelen te verfijnen, zijn ontwikkeld als onderdeel van Project Maven, een inmiddels ter ziele gegane samenwerking tussen Google en het Pentagon. Om precies te zijn, omvatte het project het gebruik van de kunstmatige intelligentietechnologie van Google door het Amerikaanse leger om dronebeelden en afbeeldingen van vlaggen te analyseren voor verdere menselijke analyse. Dit veroorzaakte verontwaardiging onder Google-medewerkers: duizenden mensen vroegen het bedrijf om te stoppen met samenwerken met het Pentagon, en sommigen namen zelfs ontslag vanwege hun deelname aan dit project. Een paar maanden na dit werknemersprotest besloot Google het contract, dat in 2019 zou aflopen, niet te verlengen.

Het Pentagon gebruikte AI van Project Maven om doelen voor luchtaanvallen te identificeren

Moore vertelde Bloomberg dat Amerikaanse troepen in het Midden-Oosten niet zijn gestopt met experimenteren met algoritmen om potentiële doelen te identificeren met behulp van drones of satellietbeelden, zelfs nadat Google zijn betrokkenheid had beëindigd. Het leger heeft het gebruik ervan het afgelopen jaar getest in digitale oefeningen, zei ze, maar ze zijn de targeting-algoritmen gaan gebruiken in operaties in de echte wereld na de aanvallen van Hamas op 7 oktober. Ze specificeerde dat mensen voortdurend de aanbevelingen van kunstmatige intelligentiesystemen met betrekking tot targeting controleerden en bevestigden. Mensen suggereerden ook hoe ze aanvallen konden organiseren en welke wapens ze moesten gebruiken. "Er is nooit een algoritme dat gewoon werkt, een conclusie trekt en doorgaat naar de volgende stap", zei ze. “Bij elke stap die AI met zich meebrengt, staat er altijd een persoon aan het eind.”

Lees ook:

Aanmelden
Informeer over
gast

0 Heb je vragen? Stel ze hier.
Ingesloten beoordelingen
Bekijk alle reacties