Den 19. april 2026 publiserte Palantir eit 22-punkts manifest på X. Teksten hylla «hard power», avviste kulturell pluralisme og beklaga etterkrigstidas «kastrering» av Nazi-Tyskland [1]. Reaksjonen var fyrst avgrensa — nokon akademikarar og aktivistar, lite anna. Men berre dagar etterpå slo det britiske parlamentet alarm. Parlamentarikerar frå fleire parti skildra manifestet som «ramlingane til ein superskurk» og uttrykte djup frykt for kva deira ideologi betyr for dei massive kontraktane selskapet har med det britiske helsevesenet (NHS) og forsvaret [11].
Det er freistande å avfeie dette som ein isolert provokasjon frå eksentriske milliardærar. Men teksten er samanhengande. Han har ein indre logikk. Og han vert omsett til praksis — i Gaza, i Iran, i Libanon, langs USAs sørlege grense. For å forstå kvifor dette skjer, og kvifor det ikkje er historisk nytt sjølv om det er teknologisk nytt, treng me eit teoriapparat som strekk seg lenger enn nyheitskommentaren.
Tre tenkjarar gjev oss det: Zygmunt Bauman, Hannah Arendt og Frantz Fanon. Dei skreiv i ulike tiår, frå ulike ståstader, om ulike historiske fenomen. Men saman teiknar dei eit rammeverk som forklarar kvifor Palantirs prosjekt ikkje er eit avvik frå den liberale moderniteten — det er ein av moderniteten sine moglege konklusjonar.
Bauman: Moderniteten som folkemord sin føresetnad
Den polsk-britiske sosiologen Zygmunt Bauman skreiv i 1989 boka Modernity and the Holocaust, og tesen var provokatorisk: Holocaust var ikkje eit tilbakefall til barbariet, ikkje eit brot med moderniteten — det var eit produkt av han [2].
Standardforklaringa er at Holocaust var noko som skjedde med jødane. Ein anomali. Eit utbrot av gamal antisemittisme som tilfeldigvis fekk statsmakt til rådvelde. Denne forklaringa er komfortabel fordi ho plasserer massedrapet utanfor det me reknar som normalhistoria til den siviliserte verda.
Bauman avviste dette. Holocaust kravde byråkrati. Det kravde rasjonell arbeidsdeling, budsjettmøte, logistikkplanlegging, infrastrukturbygging og ein kultur der regellydigheit i seg sjølv er ein moralsk dyd. Det kravde alt det moderne organisasjonar er best på. Drapshandlinga vart redusert til ein serie svært små, tekniske steg — der ingen enkeltperson tek ansvar for heilskapen, fordi ingen enkeltperson er heilskapen.
Byråkratiets grunnleggande eigenskapar — avstand mellom handling og konsekvens, oppdeling av arbeid i åtskilde delar, vekt på prosedyre over resultat — er dei same eigenskapane som gjer massedrap mogleg utan at utøvarane opplever seg som morderar. Jernbanestasjonssjefen administrerer transport. Telegrafisten sender koordinatar. Juristen skriv under på prosedyren. Ingen drep nokon. Alle drep alle.
Adiaphorisering: moralen vert sett ut av spel
Bauman bruker omgrepet adiaphorisering for å skildre dette — å gjere ein handling moralsk nøytral, å fjerne han frå det moralske universet. Det er ikkje at utøvarane vert vonde. Det er at handlingane deira vert reklassifiserte som moralsk irrelevante: tekniske operasjonar, administrative avgjerder, prosedyrar.
Maven Smart System, Palantirs AI-målrettingssystem som er operativt i Gaza, genererer automatiserte juridiske grunngivingar for kvar einaste bombeaksjon i sanntid [5]. Dette er adiaphorisering som teknisk funksjon. Drapshandlinga er ikkje lenger ein moralsk handling som krev ein moralsk aktør — ho er ein prosedyre som krev godkjenning. Og godkjenninga tek 45 sekund.
Bauman bruker òg hagebruksmetaforen gjentekne gonger: moderne folkemord er gartnaren som ryddar ugras for å byggje den perfekte hagen. Det handlar ikkje om hat. Det handlar om sosial ingeniørkunst — ein visjon om kva slags samfunn ein vil ha, og den logiske konsekvensen av å realisere han. Ugras er ikkje noko ein hatar. Det er noko ein fjernar.
Alex Karp skriv i The Technological Republic om vestlege verdiar som overlegne og om kulturar som er «dysfunctional and regressive» [4]. Dette er ikkje eit nytt argument. Det er det same argumentet som batt det europeiske koloniseringsprosjektet saman: me er hageeigarane. Dei er ugraset. Og me har no betre verktøy enn nokon gong til å gjennomføre arbeidet.
Arendt: Det banale ondets algoritme
Hannah Arendt var til stades i Jerusalem i 1961 då Adolf Eichmann stod til doms [3]. Eichmann hadde administrert transporten av millionar av jødar til utryddingsleirane. Arendt venta å møte eit monster. Ho fann ein kontormann.
Det som slo Arendt var ikkje at Eichmann var vondsinna. Det var at han ikkje tenkte. Han snakka i klisjear. Han var karriereorientert, presis i sitt byråkratiske arbeid, og fullstendig ute av stand til å sjå verda frå nokon annan ståstad enn sin eigen plassering i systemet. Han drap ikkje av hat. Han drap fordi det var arbeidsoppgåva hans, og han ville gjere jobben sin godt.
Arendt kalla dette «det banale ondets» natur. Det banale tyder ikkje trivielt. Det tyder at det er tilgjengeleg for kven som helst. Det krev ikkje særleg vondsinn. Det krev berre at ein sluttar å tenkje.
Når Maven Smart System genererer tusen mål på 24 timar, og operatørane har 45 sekund kvar på seg, er det ikkje berre eit logistikkproblem. Det er ein institusjonell mekanisme for å produsere Eichmannar. Ikkje ved å rekruttere folk utan moral — men ved å konstruere eit system der det å utøve moralsk skjønn er teknisk umogleg innanfor arbeidsflyten.
Operatøren «godkjenner» ikkje eit drap. He godkjenner ein prosess. He klikkar på ein skjerm etter 45 sekund med gjennomgang av data han ikkje sjølv har produsert, analysert av ein algoritme han ikkje forstår, basert på koordinatar han ikkje har stadfesta. He har vore «in the loop». Systemet er lovleg. Ingen er ansvarleg. Alle er medansvarlege.
Habermas og avvisinga av demokratisk legitimering
Karp bruker ein del av manifestet på å angripe sin tidlegare rettleiar Jürgen Habermas — den tyske filosofen som er mest kjend for teorien om kommunikativ rasjonalitet: at legitimt styre krev open, likeverdig, argumentasjonsbasert diskurs [1]. Habermas er eit direkte motstykke til alt Palantir byggjer. Å avvise han er ikkje tilfeldig. Det er å avvise ideen om at politiske avgjerder krev demokratisk legitimering overhovudet — å erklære at makta si eiga rasjonalitet er sjølvlegitimerande.
Arendt åtvara om at det totalitære tenkjesettet ikkje forsvann med Hitler og Stalin. Det er, skreiv ho, «som sopp som spreier seg» i kulturen. Det ho truleg ikkje føresåg var at det ville ta algoritmisk form.
Arendt skreiv òg kontroversielt om korleis jødiske råd (Judenräte) i okkuperte Aust-Europa samarbeidde med nazistane — ikkje av vondsinn, men fordi dei kontinuerleg vart sette i posisjonar der dei måtte velje mellom to vonde alternativ og valde det dei trudde var det minst vonde. Tarmous-saka frå Libanon er éin variant av den same strukturen: mannen fekk ei opplysning om at han burde forlate jorda han var på [8]. He valde å verte verande. He døydde. Systemet registrerte at han fekk eit val. Handlinga er juridisk dokumentert som ein varsla militær aksjon, ikkje eit vilkårleg drap. Det automatiserte juridiske systemet har gjort sitt arbeid.
Fanon: Kolonialismen si eiga moralske logikk
Frantz Fanon, den martinikanske psykiateren og FLN-aktivisten som skreiv Les Damnés de la Terre i 1961, var oppteken av noko anna enn Bauman og Arendt [6]. He skreiv frå dei koloniserte sin ståstad, ikkje frå vitnet sin.
For Fanon er den koloniale verda fundamentalt manikéisk: kolonistane og dei innfødde er ikkje berre i ein maktkonflikt — dei er plasserte i to ontologisk åtskilde kategoriar. Kolonisten ser ikkje den innfødde som eit fullt menneske. Det er ikkje nødvendigvis hat som driv dette. Det er ein strukturell logikk der den innføddes liv har ein annan verdi — eller inga verdi — innanfor systemets eiga rasjonalitet.
FN-spesialrapportør Francesca Albanese dokumenterte i sin rapport frå 2024 korleis den israelske militærøkonomien systematisk set lågare verdi på palestinsk liv på ein måte som ikkje kan forklarast berre ved operasjonelle feil [9]. Det er ikkje berre likegyldigheit. Det er eit system som er designa for, og opererer ut frå, den systematiske nedvurderinga av visse liv.
Gaza som laboratorium — men ikkje eit nytt eitt
Fanon skreiv om korleis kolonimakta bruker si mest avanserte teknologi til å gjennomføre erobringa, og om korleis dei territoriane som er mest underlagde kolonialt herredøme vert testfelt for teknologiar som seinare vert eksporterte globalt. Det er ikkje ei ny innsikt at Gaza fungerer som teknologilaboratorium. Israels forsvarseksport er verdas fjerde største, og mykje av han vert marknadsført som «battle-tested» — noko som berre er mogleg fordi teknologien er prøvd ut på ein levande sivilbefolkning utan politisk representasjon og utan evne til å nekte å vere med i eksperimentet.
+972 Magazine og Local Call sin Lavender-gjennomgang syner korleis AI-målrettingssystemet opererer i Gaza: algoritmisk klassifisering av «mål» ligg til grunn for aksjonar mot bustadbygg med heile familiar, med ein dokumentert godkjenningsprosess som er utforma for å minimere den tida ein menneskjeleg aktør bruker på kvar avgjerd [5]. Palantir er del av denne logikken. Dei testar. Dei skalerer. Dei eksporterer. Kontrakten med Pentagon, med ICE, med andre vestlege rettsstatsorgan — det er den same teknologien, kalibrert i Gaza, seld vidare som løysing på andre staters behov for klassifisering og kontroll.
Kolonial humanisme som funksjonell fasade
Fanon identifiserte korleis kolonimakta alltid fletta sin valdsbruk saman med ein humanistisk diskurs: sivilisasjonsmisjon, demokratisering, vern av menneskerettar, utvikling. Den humanistiske retorikken er ikkje berre hyklerisk — han er funksjonell. Han gjer det mogleg for dei som utfører kolonialismen å sjå seg sjølve som dei gode, og for metropolens befolkning å tolerere det som vert gjort i deira namn.
Karp sitt manifest er strukturelt identisk med denne tradisjonen. «Vestlege verdiar» er overlegne. Me forsvarer sivilisasjonen. Den teknologiske republikkens militærmakt er det einaste som kan berge det som er verdt å berge i verda. At dette krev bombing av skular i Iran, at det krev å drepe Tarmous på eit jorde i Libanon, at det krev å administrere eit massedeportasjonsapparat i USA — det er sørgjelege bieffektar av ein nødvendig kamp.
Den lange linja: Kanonbåt til algoritme
Det finst eit historisk mønster som strekkjer seg frå 1400-talets portugisiske kystfart til Palantirs Maven Smart System, og som handlar om forholdet mellom teknologisk overlegenheit og politisk kontroll over andre folk.
Maxim-geværet, det fyrste fullt automatiske skytevåpenet, vart utvikla i 1884 og transformerte afrikansk kolonialisme: europeiske styrkar kunne no manøvrere mot ti- og hundretusental med nokre hundre soldatar. Winston Churchill skreiv entusiastisk om massakrane i Sudan. Geværet var ein teknologisk differanse som vart omsett direkte til politisk herredøme. Argumentet var det same som alltid: me har teknologien, me har retten, dei som står i vegen for framgangen vår er eit hinder som må fjernast.
USA sine napalmbombar i Vietnam og Kambodsja, som drap hundretusental sivile, vart nytta under den same humanistiske retorikken: me forsvarer fridom mot kommunisme. Dei som drap hadde godkjende ordrar. Ingen var ansvarlege. Journalistane som dokumenterte My Lai vart behandla som forrædarar.
Obama-administrasjonens droneprogram opna ein ny epoke der USA gjennomførte drapsaksjonar mot personar som aldri var identifiserte ved namn — berre ved åtferdsmønster. «Signature strikes»: du er på feil stad til feil tid med feil folk rundt deg. Du liknar på ein trussel. Det er nok. Det krev ikkje eit namn. Det krev ikkje ein dom. Det krev ein prosedyre og ein klassifisering.
Maven Smart System er den neste iterasjonen. Dei tekniske stega er endra. Den politiske og moralske logikken er den same. Military Times dokumenterte korleis eit AI-målrettingssystem bidrog til eit åtak mot ein skule i Iran der born vart drepne [7]. Pentagon-talsfolk hevda systemet hadde operert innanfor gjeldande prosedyrar. Prosedyrane var følgde. Ingen var ansvarlege.
Det som er nytt er ikkje at ei stormakt nyttar si mest avanserte teknologi til maktutøving. Det er at teknologien no er så kompleks at ingen einskildperson kan forstå heilskapen i kva som skjer — og at det produserer eit ansvarsvakuum som er institusjonelt, ikkje individuelt. Eit ansvarsvakuum som er bygd inn i sjølve arkitekturen. Det er det Palantir sel: ikkje berre teknologi, men ein struktur der ansvaret er fordelt så tynt at det forsvinn.
Det inverterte fascismeproblemet
Klassisk fascisme — slik Mussolini og Hitler praktiserte det — var kjenneteikna ved at staten dirigerte kapital og næringsliv. Statsmakta var det primære. Selskapa var instrument.
Det som skjer no er det motsette. Selskapa — Palantir, Anduril, SpaceX, OpenAI — leverer sjølve avgjerdsarkitekturen for statleg valdsmonopol. Dei er ikkje instrument for statsmakta. Dei er statsmakta, i den grad statsmakt tyder evne til å identifiserere, klassifisere og eliminere fiendar.
Yanis Varoufakis sitt «technofeudalism»-omgrep fangar noko viktig her [10]: det er ikkje lenger kapitalisme i klassisk forstand, der eigaren av produksjonsmidla sel varer på ein marknad. Det er eit system der tilgang til fundamentale infrastrukturar — informasjon, kommunikasjon, mobilitet, tryggleik — er kontrollert av private aktørar som kan trekkje tilbake tilgangen og forme røyndomen for statar og einskildpersonar.
I dette bildet er Karp ikkje primært ein ideolog. Han er ein strukturell posisjon. Nokon ville fylt den posisjonen uansett. Det som er historisk er at posisjonen finst — at eit privat selskap kan levere kjernen i ein stats krigføring, og samstundes publisere sin eigen politiske doktrine utan at dette vert behandla som eit konstitusjonelt problem.
Manifestet bør dessutan lesast som salsmateriell forkledd som ideologi. Kvart einaste punkt korresponderer med eit eksisterande Palantir-produkt eller ein eksisterande kontrakt [1]. Kritikken av kulturell pluralisme sel overvakingsteknologi til autoritære regjeringar. Argumentet for remilitarisering av Japan og Tyskland opnar nye marknader for våpenteknologi. Argumentet for universell verneplikt styrkjer legitimeringa av eit militærindustrielt kompleks som er avhengig av statleg etterspurnad. Ideologien er forretningsmodellen.
Anthropic og det strukturelle moralproblemets løysing
Den kanskje mest opplysande enkelthistoria i denne samanhengen er Anthropic.
Selskapet nekta å fjerne to avgrensingar i sin Claude-modell: forbod mot fullt autonome våpen og forbod mot masseovervaking av amerikanarar. Forsvarsminister Hegseth utpeika selskapet som «supply chain risk to national security» i februar 2026. Alle statskontraktar vart avvikla. OpenAI steig inn og aksepterte Pentagon sine vilkår.
Det er eit nærast perfekt demonstrasjonseksempel på korleis marknadskreftene løyser det etiske problemet — ikkje ved å finne ein god løysing, men ved å eliminere dei aktørane som stiller problemet. Marknaden er ikkje etisk nøytral. Han straffar moralsk handlingsrom.
Arendt skreiv at samvitet «hadde tilsynelatande forsvunne i Tyskland». Det forsvinn ikkje ved at folk vert vonde. Det forsvinn ved at systemet gjer det strukturelt umogleg for samvitet å ha operasjonell effekt. Anthropic-saka er ein rein demonstrasjon av den mekanismen i sanntid: eit selskap med institusjonelle etiske avgrensingar vert pressa ut av marknaden, og eit selskap utan slike avgrensingar tek plassen. Inga einskildperson tok ei vondsinna avgjerd. Systemet justerte seg sjølv.
Fem teser
Bauman, Arendt og Fanon gjev oss kvar sine bitar av eit sams bilete. Lat meg samanfatte analysen i fem påstandar.
Palantirs avvising av Habermas er inga tilfeldigheit. Det er ei eksplisitt avvising av ideen om at politiske avgjerder krev demokratisk legitimering. Å forkaste kravet om kommunikativ rasjonalitet er å erklære at makt er sjølvlegitimerande — at den som kan, har rett til. Det er ikkje ei perifer stilling. Det er grunnlaget for prosjektet.
«Human in the loop» er det nye «følgde berre ordrar». Eichmann hevda han berre følgde ordrar. Operatørar som godkjenner femti AI-genererte mål i løpet av ein arbeidsdag hevdar dei har vore «in the loop». Det er den same strukturen: systemet gjev deg eit format for å seie ja, og gjer det praktisk umogleg å seie nei, og kallar det menneskeleg kontroll.
Juridisk automatisering er adiaphorisering i kode. Bauman sin adiaphorisering — å gjere ein handling moralsk nøytral — er i dag sett i verk som ein teknisk funksjon i Maven Smart System. Kvar aksjon kjem med ei juridisk grunngiving generert av ein stor språkmodell. Det er ikkje berre at moralen vert borte. Det er at ein erstattar moralen med ein juridisk produksjonsprosess.
Gaza er ikkje unntaket — det er malen. Fanons observasjon om koloniterritorium som teknologiske testfelt gjentek seg med AI-krig. Det som vert kalibrert i Gaza vert eksportert. Det som vert normalisert i Libanon vert standard. Det som er lovleg i Iran vert presedens. Dei som trur dette er geografisk avgrensa, tek feil av kva teknologieksport er — og av kva normalisering gjer med grensene for det tenkjelege.
Systemet løyser moralproblemet ved å eliminere moralske aktørar. Anthropic-saka er ikkje eit einskildtilfelle. Ho er ein demonstrasjon av den generelle mekanismen: marknaden, slik han er strukturert, favoriserer aktørar som ikkje stiller etiske spørsmål. Det produserer ikkje vonde einskildpersonar. Det produserer institusjoner der moralsk handlingsrom er bygd ut.
Det Bauman, Arendt og Fanon saman syner oss er at dette ikkje er historisk unikt. Det er historisk gjenkjenneleg. Teknologien er ny. Strukturen er gamal. Og det er difor det er avgjerande å sjå han tydeleg.
Kjelder
C2 [1] Palantir Technologies, «22-punkts manifest,» X (Twitter), 19. apr. 2026. [Primærkjelde — lenkje ikkje stadfesta.]
A1 [2] Z. Bauman, Modernity and the Holocaust. Cambridge: Polity Press, 1989.
A1 [3] H. Arendt, Eichmann in Jerusalem: A Report on the Banality of Evil. New York: Viking Press, 1963.
A3 [4] A. Karp og N. Zamiska, The Technological Republic: Hard Power, Soft Belief, and the Future of the West. New York: Crown Currency (Penguin Random House), Feb. 2025.
C2 [5] Y. Kubovich og A. Hager, «A mass assassination factory: How Israel is using AI to generate targets in Gaza,» +972 Magazine / Local Call, 30. nov. 2023. [Online]. Available: https://www.972mag.com/mass-assassination-factory-israel-calculated-bombing-gaza/. [Accessed: 21. apr. 2026].
A1 [6] F. Fanon, Les Damnés de la Terre. Paris: Maspero, 1961. Engelsk omsetjing: The Wretched of the Earth, omsett av C. Farrington. New York: Grove Press, 1963.
B2 [7] C. Dickstein, «Deadly Iran school strike casts shadow over Pentagon’s AI targeting push,» Military Times, Apr. 2026. [Online]. Available: https://www.militarytimes.com/news/pentagon-congress/2026/04/09/deadly-iran-school-strike-casts-shadow-over-pentagons-ai-targeting-push/.
C2 [8] «Lebanon man took Israeli call minutes before fatal drone strike,» The New Arab, Apr. 8, 2026. [Online]. Available: https://www.newarab.com/news/lebanon-man-took-israeli-call-minutes-fatal-drone-strike.
A1 [9] F. Albanese, «Anatomy of a Genocide: Report of the Special Rapporteur on the situation of human rights in the Palestinian Territory occupied since 1967,» FN Generalforsamlinga, A/HRC/55/73, mars 2024. [Online]. Available: https://www.ohchr.org/en/documents/country-reports/ahrc5573-anatomy-genocide-report-special-rapporteur-situation-human. [Accessed: 21. apr. 2026].
C2 [10] Y. Varoufakis, Technofeudalism: What Killed Capitalism. London: Bodley Head, 2023.
B2 [11] A. Down og R. Booth, «Palantir manifesto described as ‘ramblings of a supervillain’ amid UK contract fears,» The Guardian, 21. apr. 2026. [Online]. Available: https://www.theguardian.com/technology/2026/apr/21/palantir-manifesto-uk-contract-fears-mps. [Accessed: 24. apr. 2026].