Oorlog van algoritmen
Technologie

Oorlog van algoritmen

Als het gaat om het gebruik van kunstmatige intelligentie in het leger, ontwaakt onmiddellijk de nachtmerrie van sciencefiction, een opstandige en dodelijke AI die in opstand komt tegen de mensheid om haar te vernietigen. Helaas zijn de angsten van het leger en de leiders dat "de vijand ons zal inhalen" net zo sterk in de ontwikkeling van algoritmen voor oorlogsvoering.

Algoritmische oorlogsvoeringdie, naar de mening van velen, het aanzien van het slagveld zoals wij dat kennen fundamenteel zou kunnen veranderen, vooral omdat oorlogvoering sneller zou worden, ver vooruit op het vermogen van mensen om beslissingen te nemen. Amerikaanse generaal Jack Shanahan (1), hoofd van het Amerikaanse Joint Center for Artificial Intelligence, benadrukt echter dat voordat we kunstmatige intelligentie in arsenalen introduceren, we ervoor moeten zorgen dat deze systemen nog steeds onder menselijke controle staan ​​en niet uit zichzelf oorlogen zullen beginnen.

"Als de vijand machines en algoritmen heeft, zullen we dit conflict verliezen"

Rijvaardigheid algoritmische oorlogsvoering is gebaseerd op het gebruik van vooruitgang in computertechnologie op drie hoofdgebieden. Eerst decennia van exponentiële groei in rekenkrachtdit heeft de prestaties van machine learning aanzienlijk verbeterd. Seconde snelle groei van middelen "Big data", dat wil zeggen enorme, meestal geautomatiseerde, beheerde en continu gecreëerde datasets die geschikt zijn voor machine learning. De derde zorgen snelle ontwikkeling van cloud computing-technologieën, waarmee computers gemakkelijk toegang hebben tot gegevensbronnen en deze kunnen verwerken om problemen op te lossen.

Oorlogsalgoritmezoals gedefinieerd door de experts, moet het eerst worden uitgedrukt met computer code. Ten tweede moet het het resultaat zijn van een platform dat in staat is om zowel informatie te verzamelen als keuzes te maken, beslissingen te nemen die, althans in theorie, geen menselijke interventie. Ten derde, wat voor de hand ligt, maar niet noodzakelijkerwijs zo is, want pas in actie wordt duidelijk of een techniek die voor iets anders bedoeld is, nuttig kan zijn in oorlog en vice versa, hij moet onder omstandigheden kunnen werken. gewapend conflict.

Een analyse van bovenstaande richtingen en hun interactie laat dat zien algoritmische oorlogsvoering het is geen aparte technologie zoals bijvoorbeeld. energie wapen of hypersonische raketten. De effecten ervan zijn breed en worden geleidelijk alomtegenwoordig in vijandelijkheden. Voor de eerste keer militaire voertuigen ze worden intelligent, waardoor de strijdkrachten die ze uitvoeren mogelijk efficiënter en effectiever worden. Dergelijke intelligente machines hebben duidelijke beperkingen die goed begrepen moeten worden.

"" Zei Shanahan afgelopen herfst in een interview met voormalig Google-CEO Eric Schmidt en Google-vicepresident Internationale Zaken Kent Walker. "".

Het conceptrapport van de Amerikaanse National Security Council over AI verwijst meer dan 50 keer naar China, wat het officiële doel van China benadrukt om tegen 2030 de wereldleider op het gebied van AI te worden (zie ook: ).

Deze woorden werden uitgesproken in Washington op een speciale conferentie die plaatsvond nadat het eerder genoemde Shanakhan Center zijn voorlopige rapport aan het Congres had gepresenteerd, opgesteld in samenwerking met gerenommeerde experts op het gebied van kunstmatige intelligentie, waaronder Microsoft Research Director Eric Horwitz, AWS CEO Andy Jassa en Hoofdonderzoeker Google Cloud Andrew Moore. Het eindrapport wordt in oktober 2020 gepubliceerd.

Google-medewerkers protesteren

Een paar jaar geleden raakte het Pentagon erbij betrokken. algoritmische oorlogsvoering en een aantal AI-gerelateerde projecten in het kader van het Maven-project, gebaseerd op samenwerking met technologiebedrijven, waaronder Google en startups zoals Clarifai. Het ging vooral om doorwerken kunstmatige intelligentieom de identificatie van objecten te vergemakkelijken.

Toen in het voorjaar van 2018 bekend werd dat Google meedeed aan het project, tekenden duizenden medewerkers van de Mountain View-gigant een open brief waarin ze protesteerden tegen de betrokkenheid van het bedrijf bij vijandelijkheden. Na maanden van arbeidsonrust Google heeft zijn eigen set regels voor AI aangenomenwaaronder een verbod op deelname aan evenementen.

Google heeft zich er ook toe verbonden het Project Maven-contract eind 2019 af te ronden. Het vertrek van Google betekende niet het einde van Project Maven. Het werd gekocht door Peter Thiel's Palantir. De luchtmacht en het Amerikaanse marinekorps zijn van plan om speciale onbemande luchtvaartuigen, zoals de Global Hawk, in te zetten als onderdeel van het Maven-project, die elk tot 100 vierkante kilometer visueel moeten bewaken.

Ter gelegenheid van wat er rond Project Maven gebeurt, werd duidelijk dat het Amerikaanse leger dringend een eigen cloud nodig heeft. Dit zei Shanahan tijdens de conferentie. Dit werd duidelijk toen videobeelden en systeemupdates per vrachtwagen moesten worden vervoerd naar militaire installaties verspreid over het veld. In het gebouw uniforme cloudcomputing, dat dit soort problemen zal helpen oplossen, als onderdeel van een uniform IT-infrastructuurproject voor het Jedi-leger, Microsoft, Amazon, Oracle en IBM. Google is niet vanwege hun ethische codes.

Uit de verklaring van Shanahan blijkt duidelijk dat de grote AI-revolutie in het leger nog maar net is begonnen. En de rol van het centrum in de Amerikaanse strijdkrachten groeit. Dit is duidelijk te zien in het geraamde JAIC-budget. In 2019 bedroeg het in totaal iets minder dan $ 90 miljoen. In 2020 zou het al $ 414 miljoen moeten zijn, of ongeveer 10 procent van het geschatte AI-budget van $ 4 miljard van het Pentagon.

De machine herkent een overgegeven soldaat

Amerikaanse troepen zijn al uitgerust met systemen zoals de Phalanx (2), een soort autonoom wapen dat op Amerikaanse marineschepen wordt gebruikt om inkomende raketten aan te vallen. Wanneer een raket wordt gedetecteerd, gaat deze automatisch aan en vernietigt alles op zijn pad. Volgens Ford kan hij in een halve seconde met vier of vijf raketten aanvallen zonder door elk doelwit te hoeven kijken.

Een ander voorbeeld is de semi-autonome Harpy (3), een commercieel onbemand systeem. De harpij wordt gebruikt om vijandelijke radars te vernietigen. In 2003 bijvoorbeeld, toen de VS een aanval op Irak lanceerden met radarinterceptiesystemen in de lucht, hielpen Israëlische drones ze te vinden en te vernietigen, zodat de Amerikanen veilig het Iraakse luchtruim konden binnenvliegen.

3. Lancering van de drone van het IAI Harpy-systeem

Een ander bekend voorbeeld van autonome wapens is Koreaans Samsung SGR-1-systeem, gelegen in de gedemilitariseerde zone tussen Noord- en Zuid-Korea, ontworpen om indringers op een afstand van maximaal vier kilometer te identificeren en te ontslaan. Volgens de beschrijving kan het systeem "onderscheid maken tussen een persoon die zich overgeeft en een persoon die zich niet overgeeft" op basis van de positie van hun handen of herkenning van de positie van het wapen in hun handen.

4. Demonstratie van de detectie van een zich overgevende soldaat door het Samsung SGR-1 systeem

Amerikanen zijn bang om achter te blijven

Momenteel gebruiken minstens 30 landen over de hele wereld automatische wapens met verschillende niveaus van ontwikkeling en gebruik van AI. China, Rusland en de Verenigde Staten zien kunstmatige intelligentie als een onmisbaar element bij het opbouwen van hun toekomstige positie in de wereld. "Wie de AI-race wint, zal de wereld regeren", zei de Russische president Vladimir Poetin in augustus 2017 tegen studenten. De president van de Volksrepubliek China, Xi Jinping, heeft niet zulke spraakmakende uitspraken gedaan in de media, maar hij is de belangrijkste aanjager van de richtlijn die China oproept om tegen 2030 de dominante kracht op het gebied van AI te worden.

In de VS groeit de bezorgdheid over het "satellieteffect", dat heeft aangetoond dat de Verenigde Staten buitengewoon slecht toegerust zijn om de nieuwe uitdagingen van kunstmatige intelligentie aan te gaan. En dit kan gevaarlijk zijn voor de vrede, al was het maar omdat het door overheersing bedreigde land het strategische voordeel van de vijand op een andere manier wil uitschakelen, namelijk door oorlog.

Hoewel het oorspronkelijke doel van het Maven-project was om islamitische ISIS-strijders te helpen vinden, is de betekenis ervan voor de verdere ontwikkeling van militaire kunstmatige-intelligentiesystemen enorm. Elektronische oorlogsvoering op basis van recorders, monitoren en (mobiele en vliegende) sensoren gaat gepaard met een enorm aantal heterogene datastromen, die alleen effectief kunnen worden gebruikt met behulp van AI-algoritmen.

Het hybride slagveld is geworden militaire versie van IoT, rijk aan belangrijke informatie voor het beoordelen van tactische en strategische bedreigingen en kansen. Het in realtime kunnen beheren van deze gegevens heeft grote voordelen, maar als u niet leert van deze informatie, kan dat rampzalig zijn. De mogelijkheid om snel de informatiestroom te verwerken van verschillende platforms die in verschillende gebieden actief zijn, biedt twee belangrijke militaire voordelen: snelheid i bereikbaarheid. Kunstmatige intelligentie stelt u in staat om de dynamische omstandigheden van het slagveld in realtime te analyseren en snel en optimaal toe te slaan, terwijl u het risico voor uw eigen strijdkrachten minimaliseert.

Dit nieuwe slagveld is ook alomtegenwoordig en. AI staat aan de basis van de zogenaamde dronezwermen, die de afgelopen jaren veel aandacht hebben gekregen. Met behulp van alomtegenwoordige sensoren kunnen drones niet alleen door vijandig terrein navigeren, maar kunnen ze uiteindelijk de vorming van complexe formaties van verschillende soorten onbemande luchtvaartuigen mogelijk maken die in veel gebieden opereren, met extra wapens die geavanceerde gevechtstactieken mogelijk maken, die zich onmiddellijk aanpassen aan de vijand. manoeuvres om te profiteren van het slagveld en veranderende omstandigheden te melden.

Vooruitgang in door AI ondersteunde doelaanduiding en navigatie verbeteren ook de vooruitzichten op effectiviteit in een breed scala van tactische en strategische verdedigingssystemen, met name raketverdediging, door de methoden voor het detecteren, volgen en identificeren van doelen te verbeteren.

vergroot voortdurend de kracht van simulaties en speltools die worden gebruikt om nucleaire en conventionele wapens te onderzoeken. Massamodellering en simulatie zullen essentieel zijn om een ​​alomvattend multi-domein systeem van doelsystemen voor gevechtscontrole en complexe missies te ontwikkelen. AI verrijkt ook interacties tussen meerdere partijen (5). Met de AI kunnen spelers spelvariabelen toevoegen en wijzigen om te onderzoeken hoe dynamische omstandigheden (wapens, geallieerde betrokkenheid, extra troepen, enz.) De prestaties en besluitvorming kunnen beïnvloeden.

Voor het leger is objectidentificatie een natuurlijk startpunt voor AI. Ten eerste is een uitgebreide en snelle analyse van het groeiende aantal beelden en informatie verzameld van satellieten en drones nodig om objecten van militair belang te vinden, zoals raketten, troepenbewegingen en andere inlichtingengerelateerde gegevens. Tegenwoordig omvat het slagveld alle landschappen - zee, land, lucht, ruimte en cyberspace - op wereldschaal.

Cyberspaceals inherent digitaal domein is het van nature geschikt voor AI-toepassingen. Aan de offensieve kant kan AI helpen bij het vinden en targeten van individuele netwerkknooppunten of individuele accounts om informatie te verzamelen, te verstoren of verkeerd te informeren. Cyberaanvallen op interne infrastructuur en commandonetwerken kunnen rampzalig zijn. Wat defensie betreft, kan AI helpen bij het detecteren van dergelijke inbraken en het vinden van destructieve anomalieën in civiele en militaire besturingssystemen.

Verwachte en gevaarlijke snelheid

Snelle besluitvorming en snelle uitvoering kunnen u echter niet goed van pas komen. voor effectief crisismanagement. De voordelen van kunstmatige intelligentie en autonome systemen op het slagveld laten misschien geen tijd over voor diplomatie, die, zoals we uit de geschiedenis weten, vaak succesvol is geweest als middel om een ​​crisis te voorkomen of te beheersen. In de praktijk kunnen vertraging, pauze en tijd om te onderhandelen de sleutel zijn tot de overwinning, of op zijn minst het afwenden van een ramp, vooral wanneer er kernwapens op het spel staan.

Beslissingen over oorlog en vrede kunnen niet worden overgelaten aan voorspellende analyses. Er zijn fundamentele verschillen in de manier waarop gegevens worden gebruikt voor wetenschappelijke, economische, logistieke en voorspellende doeleinden. menselijk gedrag.

Sommigen zien AI misschien als een kracht die de wederzijdse strategische gevoeligheid verzwakt en zo het risico op oorlog vergroot. Per ongeluk of opzettelijk beschadigde gegevens kunnen ervoor zorgen dat AI-systemen onbedoelde acties uitvoeren, zoals het verkeerd identificeren en richten op de verkeerde doelen. De veronderstelde snelheid van handelen in het geval van de ontwikkeling van oorlogsalgoritmen kan voortijdige of zelfs onnodige escalatie betekenen die een rationele crisisbeheersing belemmert. Aan de andere kant zullen algoritmen ook niet afwachten en uitleggen, want van hen wordt ook verwacht dat ze snel zijn.

Verontrustend aspect werking van kunstmatige intelligentie-algoritmen ook onlangs door ons gepresenteerd in MT. Zelfs experts weten niet precies hoe AI leidt tot de resultaten die we in de output zien.

In het geval van oorlogsalgoritmen kunnen we ons zo'n onwetendheid over de natuur en hoe ze die 'denken' niet veroorloven. We willen niet midden in de nacht wakker worden met nucleaire fakkels omdat "onze" of "hun" kunstmatige intelligentie heeft besloten dat het tijd is om het spel eindelijk te beslechten.

Voeg een reactie