När våld blir datafierat flyttas makten från synliga vapen till sensorer, algoritmer och gränssnitt. Den tekniska infrastrukturen – från kameror och biometriska system till drönare och målprioritering – gör ingripanden tystare, snabbare och svårare att överklaga. Tekniken lovar precision och ”objektivitet”. Men i praktiken blir AI-system, sensornät och dataflöden medspelare i en kontrollarkitektur som gör våld anonymt, skalbart och administrativt. Del 7 knyter an till Del 4: där såg vi hur akademins belönings- och meriteringssystem integrerar militär logik; här ser vi hur den logiken operationaliseras i kameror, modeller och beslutsstöd – och hur den återvänder till lärosätena som ”innovation” och ”forskningsbehov”.
[KÄLLA: tekniska översikter, rapporter om biometrisk kontroll och drönarsystem] [WEBB: kompletterande exempel och verktygslistor under Resurser]
Nyckelpoänger
• Övervakningsstacken (sensorer → data → modeller → beslut) översätter misstanke till rutin.
• AI ger skensaklighet: tekniska etiketter ersätter social och juridisk prövning.
• Ansvarsfriktion: när beslut förskjuts till system/leverantörer försvåras insyn och ansvar.
• Institutionell slinga (Del 4 ↔ Del 7): akademi utbildar/validerar, tekniken implementerar, resultaten legitimerar.
1) Från miljö till maskineri (koppling till Del 4)
Del 4 visade hur akademi och militär knyts samman via program, finansiering och meriter. Del 7 visar maskineriet detta möjliggör: kamerakluster, smarta sensorer, datafusion och riskpoäng. Resultatet är en disciplin utan ansikte – där styrningen inte främst bär uniform, utan körs i bakgrunden som infrastruktur.
Etisk fråga (inline): När en etikett i ett system avgör vem som stoppas, registreras eller spärras – vem bär det moraliska ansvaret?
2) Övervakningsstacken – hur kontrollen skalar
– Sensorer: kameror, drönare, mikrofoner, telemetri från spärrar/passerkort.
– Data: kontinuerlig insamling + historiska register; mönster letas i vardagsrörelser.
– Modeller: riskklassning, ansikts-/objektigenkänning, rörelsemönster, ”anomali”-detektion.
– Beslut/åtgärd: larm, patrull, stopp, spärr, svartlistning – ofta automatiserat eller semiautonomt.
3) Tyst våld och vardagsadministration
AI gör kontroll förutsägbar för systemet men oförutsägbar för den övervakade. Den som lever under kameror och spärrar vet sällan varför hen fastnar. Rädslan blir lågintensiv men konstant. Resultatet är självdisciplinering: människor undviker platser, tider, kontakter – inte för att lagar har prövats, utan för att modeller har gissat.
4) Akademins roll i teknifieringen (återkoppling till Del 4)
Samma belönings- och meriteringslogik som i Del 4 påverkar tekniken i Del 7: Utbildningsspår kopplade till säkerhetsaktörer, finansiering som styr mot övervakningsvänliga lösningar och vetenskaplig validering som ger legitimitet åt system som sedan exporteras tillbaka till vardagskontrollen.
Känner du igen? (från cirkeln): Vi talade om hur ”merit” kan vara tjänst i övervakning. Här ser du produkten: system som gör övervakning vardaglig och svår att invända mot.
5) Tre praktiska följder att känna igen
1) Tröskeleffekter: små designval (t.ex. larmtrösklar) ger stora skillnader i ingripanden.
2) Dataskugga: felaktiga/obalanserade data fastnar i modeller och reproducerar sig.
3) Avvisad insyn: leverantörshemligheter + ”säkerhetsskäl” hindrar granskning.
Fördjupning: ”Riskpoäng” i vardag
En riskpoäng blir snabbt en nyckel till resurser och rörelsefrihet: städer, vägar, spärrar, tillstånd. Poängen är inte etiketten i sig, utan att den kedjas till åtgärder som inte kan överklagas på vanligt sätt. Därför krävs spårbarhet (loggar) och motbevisbarhet (rätt att få sin data prövad).
Media
– (QR från häftet) Kort klipp om AI-övervakning och vardagskontroll.
– (Valfritt) Grafik: ”Övervakningsstacken” (se bifogad PNG).
Källor (placeholder för webb)
– 3–5 källor läggs i din källmodul; gärna 1–2 på svenska.
Reflektionsfrågor
1Hur skulle du själv uppleva vardagen om din rörelse alltid registrerades av kameror eller AI-system?
Vilka känslor väcker tanken på att ett datorprogram fattar beslut om vem som får passera en gräns eller inte?
Är ”osynligt våld” mer eller mindre skrämmande än öppet, synligt våld? Varför?
Kan du se exempel på att liknande tekniker börjar användas i ditt eget samhälle?
Tips för dialog
- På vilket sätt kan övervakningsteknik och AI fungera som ett ”osynligt våld”?
- Hur förändras vardagen när kontroll inte längre sker öppet vid en checkpoint utan via kameror, algoritmer och databaser?
- Finns det risk att vi i andra delar av världen vänjer oss vid liknande system – och i så fall, hur?
- Vad innebär det för ett samhälle när militär teknologi sprids till civila områden (polis, skolor, kommuner)?
Reflektion → dialog: Svara först på Reflektionsfrågorna för dig själv. Välj sedan 1–2 frågor i Tips för dialog och prata vidare i 15–30 min med någon.
Läs mer:Effektiv lärprocess – Reflektion och dialog (länka till undersidan).
Relaterat
– Del 4: Universitetet som upphöjd kasern (meritlogik och institutionella band)
– Del 8: Elitens dubbla lojaliteter (militär–bosättar-nätverk)