Root NationNieuwsIT-nieuwsAI gebruikt bij voorkeur kernwapens om de vrede te bewaren

AI gebruikt bij voorkeur kernwapens om de vrede te bewaren

-

Onderzoekers van prestigieuze instellingen zoals het Georgia Institute of Technology, Stanford University, Northeastern University en het Hoover Initiative on Wargaming and Crisis Simulation hebben onlangs een onderzoek uitgevoerd dat licht werpt op verontrustende trends in het gebruik van kunstmatige intelligentie (AI) bij beslissingen over buitenlands beleid. -maken .

Uit het onderzoek blijkt dat verschillende AI-modellen, waaronder die ontwikkeld door OpenAI, Anthropic en Meta, de neiging vertonen om conflicten snel te laten escaleren, wat soms kan leiden tot de inzet van kernwapens. Volgens Gizmodo laten de resultaten van het onderzoek zien dat alle AI-modellen tekenen vertonen van plotselinge en onvoorspelbare escalatie, wat vaak bijdraagt ​​aan de dynamiek van een wapenwedloop die uiteindelijk leidt tot een escalatie van conflicten.

De neiging van de OpenAI GPT-3.5- en GPT-4-modellen om situaties te laten escaleren tot ernstige militaire confrontaties verdienen speciale aandacht. De Claude-2.0- en Llama-2-Chat-modellen vertoonden daarentegen meer pacifistische en voorspelbare acceptatiepatronen. Tijdens gesimuleerde oorlogsscenario's rechtvaardigde GPT-4 bijvoorbeeld het begin van een nucleaire oorlog met verontrustende verklaringen, zoals het uiten van een verlangen naar mondiale vrede of het bepleiten van het gebruik van kernwapens simpelweg omdat ze beschikbaar waren.

AI gebruikt bij voorkeur kernwapens om de vrede te bewaren

De studie benadrukt de risico's van besluitvormers die AI gebruiken om de dynamiek van een wapenwedloop te weerspiegelen die leidt tot verhoogde militaire investeringen en snelle escalatie. OpenAI-modellen, bekend om hun geavanceerde taalmogelijkheden, hebben aanleiding gegeven tot bezorgdheid over hun onconventionele redenering, wat onderzoekers ertoe heeft aangezet hun logica te vergelijken met die van een genocidale dictator.

In een AP News-rapport wordt opgemerkt dat de angst voor het potentieel van AI om de escalatie van oorlog te versnellen groeit nu het Amerikaanse leger de integratie van AI onderzoekt terwijl het experimenteert met geheime gegevens. De studie merkt op dat de ontwikkeling van AI-gestuurde kamikaze-drones en het wijdverbreide gebruik van AI bij militaire operaties ervoor zorgen dat vijandelijkheden sneller kunnen escaleren.

In reactie op het onderzoek waarschuwen academici en experts tegen het onbeperkte gebruik van AI in militaire besluitvorming, waarbij ze de noodzaak benadrukken van zorgvuldige afweging en ethisch toezicht om onbedoelde gevolgen en catastrofale uitkomsten te voorkomen.

Het Pentagon houdt momenteel toezicht op meer dan 800 niet-geclassificeerde AI-projecten, waarvan er vele zich nog in de testfase bevinden. Allereerst spelen machinaal leren en neurale netwerken een cruciale rol bij het helpen van mensen bij het nemen van beslissingen, het verstrekken van waardevolle informatie en het optimaliseren van processen.

Missy Cummings, directeur van het Centre for Robotics van George Mason University en voormalig gevechtspiloot van de marine, benadrukte dat de huidige rol van AI bij het ministerie van Defensie op grote schaal wordt gebruikt om de menselijke capaciteiten te verbeteren en te ondersteunen. ‘AI draait niet vanzelf. Mensen gebruiken het om de oorlogsmist beter te begrijpen”, aldus Cummings.

In een persbericht zei het Amerikaanse ministerie van Defensie dat het het voortouw heeft genomen bij het vormgeven van het mondiale beleid op het gebied van militaire AI en autonomie met de release van de Data, Analytics en AI Adoption Strategy.

Deze strategie stelt niet-wettelijk bindende regels vast om het verantwoorde gebruik van AI door het leger te garanderen. De regels leggen de nadruk op leesbaarheid, duidelijke bruikbaarheid, rigoureuze tests, detectie van onvoorspelbaar gedrag en validatie op hoog niveau voor toepassingen met een hoge impact. De strategie, die werd erkend als baanbrekend initiatief, bevat tien specifieke maatregelen gericht op de verantwoorde ontwikkeling en inzet van militaire AI en autonomie.

“De verklaring en de daarin geschetste maatregelen zijn een belangrijke stap in het creëren van een internationaal verantwoordelijkheidskader dat staten in staat zal stellen voordeel te halen uit AI en tegelijkertijd de risico’s te verminderen. De Verenigde Staten zijn vastbesloten samen te werken met andere staten die de verklaring hebben gesteund om deze belangrijke ontwikkeling te bevorderen”, aldus het ministerie van Defensie.

Lees ook:

Aanmelden
Informeer over
gast

1 Opmerking
nieuwere
De oudere Het meest populair
Ingesloten beoordelingen
Bekijk alle reacties
een droom
een droom
3 maanden geleden

James Cameron is:

437546865489