Detalj från omslaget av Emanuele Tesauros Il canocchiale aristotelico [Det aristoteliska teleskopet], Turin 1670.
Paletten publicerar här ett översatt utdrag ur Matteo Pasquinellis och Vladan Jolers visuella manifest ”Nooscope”. Manifestet ifrågasätter själva de materiella förutsättningarna bakom idén om intelligens som kännetecknar dagens samhälleliga diskussion om AI och maskininlärning.

några upplysningar om projektet med att mekanisera förnuftet
Nooskopet är en kartografi över den artificiella intelligensen gränser, menad att provocera både datavetenskapen och humaniora. Som alla kartor inrättar den ett partiellt perspektiv och utgör därmed även ett inlägg i debatten. Kartografin är också ett manifest – skrivet av AI-dissidenter. Vårt främsta syfte är att så tvivel i den artificiella intelligensens mystifikationer, som dels en rent teknisk definition av intelligens, dels en politisk form som skulle vara autonom från samhället och människan.[1] I uttrycket ”artificiell intelligens” är det adjektivet ”artificiell” som bär upp myten om teknologins autonomi. Det antyder aliens vars medvetanden reproducerar sig själva in silico men mystifierar i själva verket två processer av verkligt förfrämligande: high tech-företagens växande geopolitiska autonomi samt osynliggörandet av arbetares autonomi över hela världen. Det moderna projektet att mekanisera förnuftet har under 2000-talet muterat till en storföretagsregim för kunskapsutvinning och epistemisk kolonialism.[2] Eftersom algoritmerna för maskininlärning är det kraftigaste som finns när det gäller att komprimera information kommer detta knappast som en överraskning.
Syftet med vår nooskopkarta är att sekularisera AI från dess ideologiska status som ”intelligent maskin” till en status som kunskapsinstrument. Istället för att frammana sagor om en främmande kognition vore det förnuftigare att betrakta maskininlärning som ett instrument för att vidga den kunskap som bidrar till förståelsen av egenskaper, mönster och korrelationer i väldiga datamängder som annars vore bortom mänskligt förstånd. Inom teknologi- och vetenskapshistoria är detta inget nytt; det har redan praktiserats med optiska instrument inom till exempel astronomin och läkarkonsten.[3] Inom vetenskapen betraktas maskininlärning traditionellt endast som ett nooskop, alltså ett instrument för att se och navigera kunskapens rumslighet (från grekiskans skopein ”att undersöka, se” och noos ”kunskap”).

I Gottfried Wilhelm Leibniz efterföljd tillämpar nooskopsdiagrammet en analogi mellan optiska medier och strukturen hos alla dispositiv för maskininlärning. I en utläggning om potentialen med hans uppfinning calculus ratiocinator (idén om ett numeriskt universalspråk som kodar och löser alla det mänskliga tänkandets problem) gör Leibniz en jämförelse med instrument för visuell förstärkning som mikroskopet och teleskopet. Han skriver att ”när väl karakteristiken för de flesta koncept fastställts kommer mänskligheten besitta ett nytt instrument som kommer att förstärka tankens förmågor i långt större utsträckning än vad optiska instrument förstärker ögat, och vara överlägset mikroskopet och teleskopet på samma sätt som förnuftet är överlägset synen”.[4] Även om denna text avstår från att repetera motsättningen mellan kvalitativa och kvantitativa kulturer, kommer vi inte att följa Leibniz credo. Kontroverser kan inte avgöras med beräkningar. Maskininlärning är inte intelligensens slutgiltiga form.
Det finns alltid inbyggda avvikelser i mätinstrument och förnimmelseverktyg. Maskininlärningens logiska lins materialiserar fördomar och fel på samma sätt som linserna i mikroskop och teleskop aldrig är fullkomligt kurvlinjära eller släta. Att förstå maskininlärning och observera dess inverkan på samhället är att studera i vilken grad denna lins bryter och förvränger samhälleliga data. Detta är allmänt känt som debatten om fördomar i AI, men de politiska implikationerna av maskininlärningens logiska form sträcker sig än längre. Maskininlärning innebär inte en ny mörkertid för kunskapen, utan en diffrakterad rationalitets tidevarv då läran om kausalitet ersätts med läran om automatiserade korrelationer. I mer allmänna termer innebär AI en ny regim för sanning, vetenskapliga bevis, social normativitet och rationalitet som ofta tar skepnaden av statistisk hallucination. Vårt diagrammatiska manifest är ett sätt att säga att AI-kejsaren av datorberäkning (patriarkatets fantasi om mekaniserad kunskap, ”master-algoritmen” och alfamaskinen) är naken. Här kikar vi in i dess svarta låda.
maskininlärningens löpande band: data, algoritm, modell
Den artificiella intelligensens historia handlar om experiment, maskinfel, akademiska kontroverser och storslagna rivaliteter om militärbudgetar som ofta går under namnet “AI-vintrar”.[5] Även om storföretagen själva beskriver AI:s makt som ”svart magi” och ”övermänsklig kognitionsförmåga” är dagens tekniker fortfarande i experimentstadiet.[6] AI befinner sig nu i samma läge som ångmaskinen innan upptäckten av termodynamiken som kunde förklara och kontrollera dess sätt att fungera. På samma sätt saknar dagens artificiella neuronnät för bildigenkänning en teori om inlärning som kan förklara varför de fungerar så effektivt och hur det samtidigt kommer sig att de misslyckas så kapitalt. Liksom varje uppfinning har maskininlärningen konsoliderats i ett långsamt tempo, i det här fallet över det senaste halvseklet. Det har inte dykt upp någon fulländad algoritm över en natt. Snarare har det skett en gradvis konstruktion av en metod för datorberäkning som ännu inte har ett gemensamt språk. Till exempel finns det ingen gemensam terminologi i studenthandböckerna om maskininlärning. Hur skulle man då kunna skissera en kritisk grammatik för maskininlärning som är koncis och begriplig och inte deltar i det paranoida sökandet efter ett allmänt intellekt?
Maskininlärning som kunskapsinstrument består av ett objekt som ska observeras (träningsdata), ett verktyg för observation (lärande algoritm) och en slutlig representation (statistisk modell). Vi lägger här fram sammansättningen av dessa tre element i ett konstlat och barockt diagram över maskininlärning, som vi kanske extravagant kallar för nooskopet.[7] I analogi med optiska media kan informationsflödet i maskininlärning liknas vid en ljusstråle som projiceras av träningsdatan, komprimeras av algoritmen och sprids över världen av den statistiska modellens lins.
Nooskopdiagrammet är tänkt att illustrera två sidor av maskininlärning samtidigt: hur den fungerar och hur den misslyckas, samt också inventera dess viktigaste komponenter såväl som dess paradigms breda spektrum av fel, begränsningar, approximationer, fördomar, brister, vanföreställningar och sårbarheter.[8] Detta dubbla tillvägagångssätt betonar att AI inte är något monolitiskt rationalitetsparadigm utan en konstlad arkitektur som utförs genom att anpassa tekniker och trick. Dessutom är AI:s begränsningar inte endast tekniska utan även präglade av mänskliga fördomar. Maskininlärningens huvudsakliga komponenter representeras i mitten av nooskopdiagrammet, till vänster mänskliga fördomar och ingrepp, till höger tekniska fördomar och begränsningar. Optiska linser symboliserar fördomar och approximationer som komprimerar och förvränger informationsflöden. Maskininlärningens sammanlagda partiskhet representeras av den statistiska modellens centrala lins genom vilken varseblivningen av världen bryts.
Medan de samhälleliga konsekvenserna av AI tenderar att uppfattas som en fråga om fördomar rubriceras de tekniska begränsningarna som ett black box-problem. Den ”svarta lådan” avser i själva verket djupa neuronnätverk (som filtrerar information till den grad att tankeförloppet blir irreversibelt) men begreppet har kommit att användas som en allmän förevändning för åsikten att AI-system inte bara är outgrundliga och ogenomträngliga utan också ”främmande” och ohanterliga.[9] Black box-effekten är en naturlig del av varje experimentell maskins tidiga utveckling (det har redan påpekats att ångmaskinens förlopp förblev ett mysterium även efter det att den testats och visats fungera). Problemet är själva black box-retoriken som präglas av en konspirationsteoretisk sensibilitet för vilken AI framstår som en ockult makt som inte kan studeras, förstås eller ställas under politisk styrning.
historien om AI som en automatisering av perceptionen
Även företagen förstår behovet av att avmystifiera AI (åtminstone ur teknisk synpunkt). Yann LeCun som leder AI-forskningen på Facebook och är en av förgrundsgestalterna inom CNN (Convolutional Neural Networks) är inte ensam om att ha påpekat att dagens AI-system snarare är sofistikerade former för perception än kognition. På samma sätt belyser nooskopdiagrammet uppbyggnaden av AI:s svarta box som visar att AI inte är en automatisk tankemaskin utan en algoritm som utför mönsterigenkänning. Idén om mönsterigenkänning behöver utvecklas. Vad är ens ett mönster? Är mönsterigenkänning en uttömmande definition av intelligens? Garanterat inte. Klarhet i dessa frågor kräver en mindre arkeologisk genomsökning av AI.
Arketypen för maskiner som utför mönsterigenkänning är Frank Rosenblatts perceptron som uppfanns år 1957 på Cornell Aeronautical Laboratory i Buffalo, New York. Namnet är en förkortning av ”Perceiving and Recognizing Automaton”.[10] Utifrån ett visuellt nät av 20x20 fotoreceptorer kan perceptronen lära sig att känna igen enkla tecken. Ett visuellt mönster registreras på en matris av artificiella neuroner som avfyrar unisont inför liknande bilder, och en enda utmatningsneuron aktiveras. Utmatningsneuronen avfyrar 1=sant om en bild känns igen och 0=falskt om inte.
Rosenblatts perceptron var den första algoritmen som stakade ut vägen för samtida maskininlärning. På den tiden fanns inte datavetenskap som begrepp och fältet benämndes istället ”datoriserad geometri” eller mer specifikt ”konnektivism” av Rosenblatt själv. Dessa neuronnätverk gick ut på att beräkna statistiska störningar. Ett neuronnätverk beräknar inte ett precist mönster utan den statistiska fördelningen av ett mönster. Bara genom att skrapa på ytan av den antropomorfa marknadsföringen av AI upptäcker man alltså ett annat tekniskt och kulturellt objekt som behöver studeras närmare: den statistiska modellen. Hur beräknas den? Hur ser förhållandet ut mellan en statistisk modell och mänsklig förståelse? Det är avgörande frågor. För den nödvändiga avmystifieringen (som krävs även för att kunna bortse från de mer naiva frågorna), vore det bra att omformulera den banala frågan ”Kan en maskin tänka?” till de teoretiskt mer korrekta frågorna: ”Kan en statistisk modell tänka?”, ”Kan en statistisk modell utveckla ett medvetande?”, etcetera.
den lärande algoritmen: att komprimera världen till en statistisk modell
AI:s algoritmer frammanas ofta som alkemiska formler som är kapabla till att destillera ”främmande” intelligensformer. Men vad gör egentligen maskininlärningens algoritmer? Inte ens anhängarna av AGI (Artificial General Intelligence) bryr sig om denna fråga. Algoritmen är en process med vilken en maskin utför en beräkning. Produkten av en sådan maskinprocess är en statistisk modell (närmare bestämt en ”algoritmisk statistisk modell”). Inom branschen ersätts termen ”algoritm” allt oftare av ”modell”. Denna terminologiska förvirring kommer sig av att den statistiska modellen inte alls existerar som skild från algoritmen: på något sätt existerar den statistiska modellen inom algoritmen i formen av ett minne fördelat på dess parametrar. Av samma skäl är det allt som oftast omöjligt att visualisera en algoritmisk statistisk modell, åtminstone med enkla matematiska funktioner. Ändå är det värt ett försök.
Statistiska modeller har alltid påverkat kultur och politik. De uppstod inte plötsligt med maskininlärningen: maskininlärningen är helt enkelt bara ett nytt sätt att automatisera tekniken för att skapa statistiska modeller. När Greta Thunberg varnar ”lyssna till vetenskapen” menar hon som en god student av matematik i själva verket ”lyssna på klimatvetenskapens statistiska modeller”. Utan statistiska modeller, ingen klimatvetenskap; utan klimatvetenskapen, ingen klimataktivism. Klimatvetenskapen är ett bra utgångsexempel för att skapa en förståelse för statistiska modeller. Den globala uppvärmningen beräknas genom att först lagra ett omfattande dataset med temperaturer från jordens yta under årets alla dagar, och sedan tillämpa en matematisk modell som projicerar förflutna temperaturvariationer på framtiden.[11] Klimatmodeller är historiska artefakter som prövas och diskuteras inom vetenskapen och idag även bortom den.[12] Maskininlärningsmodeller är tvärtom ogenomträngliga och otillgängliga för samhällsdebatten. Mystifieringen av AI och samhällets fördomar mot dess matematiska konstruktioner har gjort AI till startpunkten på ett tidevarv märkt av statistisk science fiction. Nooskopet är projektorn i denna stora statistiska biograf.
alla modeller har fel, men några är användbara.
”Alla modeller har fel, men några är användbara” — detta kanoniska uttalande av den brittiska statistikern George Box har länge ansetts sammanfatta de logiska begränsningarna med statistik och maskininlärning.[13] Samtidigt legitimerar denna maxim ofta de förutfattade meningarna hos företagens och staternas AI. Datavetare hävdar att mänskligt tänkande består i förmågan att abstrahera och uppskatta mönster. Så vad är då felet med att maskiner gör detsamma och arbetar uppskattningsvis? Denna argumentation menar retoriskt att ”kartan inte är territoriet”. Det är rimligt. Det som däremot måste bekämpas är faktumet att AI är en hårt komprimerad och förvrängd karta över territoriet och att denna karta, likt så många andra former av automatisering, inte görs allmänt tillgänglig för dispyt. AI är en karta över territoriet utan allmän insyn och allmänt samtycke.[14]
Det är viktigt att komma ihåg att maskininlärningens ”intelligens” inte drivs av exakta formler för matematisk analys utan av algoritmernas våldsamma approximationer. Formen för korrelationen mellan input x och output y beräknas algoritmiskt, steg för steg, genom omfattande mekaniska processer för gradvis justering (såsom ”gradient descent”) som motsvarar Leibniz och Newtons differentialkalkyl. Neuronnätverk sägs vara bland de mest effektiva algoritmerna eftersom dessa differentierande metoder kan approximera formen på vilken funktion som helst förutsatt tillräckligt många lager av neuroner och en stor mängd beräkningskraft.[15] Handgriplig successiv approximation av en funktion är det som främs kännetecknar dagens AI och endast ur detta perspektiv går det att förstå dess potential och begränsningar — i synnerhet dess eskalerande koldioxidavtryck (att träna djupa neuronnätverk kräver omåttliga mängder energi på grund av träningsalgoritmer som opererar på basis av kontinuerliga infinitesimala justeringar).[16]
Maskininlärningens klassificering och förutsägelser håller på att bli universella tekniker som ligger till grund för nya former av övervakning och statligt styre. Apparater som självkörande fordon och industriella robotar kan förena båda dessa modaliteter. Ett självkörande fordon tränas att känna igen olika objekt på vägen (människor, bilar, hinder, skyltar) och förutser framtida handlingar utifrån beslut som mänskliga förare fattat i liknande situationer. Även om det tycks vara något neutralt att känna igen ett hinder på vägen (det är det inte) så är identifieringen av en människa enligt kategorier som kön, ras och klass (och under covid 19-pandemin som sjuk eller immun), som statliga institutioner allt oftare gör, ett tecken på en ny disciplinär regim. Hybrisen som omger automatiserad klassificering har orsakat återkomsten av reaktionära tekniker á la kriminologen Cesare Lombroso som tidigare ansågs ha förpassats till historien; tekniker såsom Automatic Gender Recognition (AGR), ”en gren inom ansiktsigenkänning som strävar efter att med hjälp av algoritmer identifiera könet på individer utifrån fotografier och videor”.[17]
arbetet i den artificiella intelligensens tidsålder
Maskininlärningens in- och utmatning måste förklaras. Problemet med AI gäller inte endast informationens fördomsfullhet utan även arbetet i sig. AI är inte endast en kontrollapparat utan även en produktionsapparat. En osynlig arbetskraft bistår i varje steg av monteringen (sammansättningen av dataset, algoritmbevakning, modellutvärdering, etcetera). Hela apparaten upprätthålls av en pipeline av oändliga arbetsuppgifter som löper från det globala nord till det globala syd; crowdsourcade plattformar för arbetare från bland annat Venezuela, Brasilien och Italien är avgörande för att förarlösa bilar från Tyskland ska lära sig att ”se”.[18] Tvärtemot idén om en främmande intelligens finns det inte ett enda led i framställningen eller beräkningen av den artificiella intelligensen där arbetaren lämnat fabriken eller närmare bestämt produktionen vid det löpande bandet. Mary Gray och Siddharth Suri myntade begreppet ”spökarbete” för att beskriva det osynliga arbete som får AI att framstå som artificiellt autonom.[19] Automatiseringen är en myt; eftersom maskiner, inklusive AI, kräver ständig mänsklig assistans. Vissa författare har föreslagit att ersätta ”automatisering” med den mer korrekta termen ”heteromatisering”.[20] Heteromatisering understryker att det bekanta narrativet om AI som en perpetuum mobile blir möjligt endast tack vare en reservarmé av arbetare.
AI utgörs av mänsklig arbetskraft också på ett mer grundläggande plan. Maskininlärningens informationskälla (vad den än kallas: inmatningsdata, träningsdata eller bara data) representerar alltid mänskliga färdigheter, aktiviteter och beteenden – ja samhällelig produktion i stort. All träningsdata är implicit ett diagram över den mänskliga arbetsdelningen som AI måste analysera och automatisera. Dataset för bildigenkänning, till exempel, registrerar det visuella arbete som förare, vakter och arbetsledare generellt utför. Även vetenskapliga dataset är beroende av vetenskapligt arbete, såsom experimentplanering, laboratorieupplägg och analytiska observationer. Den artificiella intelligensens flöde måste förstås som ett dispositiv utformat för att utvinna ”analytisk intelligens” ur de mest skilda sorters arbete och överföra sådan intelligens till en maskin (vilket uppenbarligen omfattar utvidgade former för social, kulturell och vetenskaplig produktion).[21] I korthet står maskinintelligensens ursprung att finna i arbetsdelningen och dess främsta syfte är automatiseringen av arbetet.
Datoriseringens historiker har understrukit att maskinintelligensen utvecklades redan under 1800-talet genom mekaniseringen av intellektuellt arbete, särskilt handberäkning.[22] Sedan dess har datorberäkning handlat om att övervaka och disciplinera arbetet, beräkna maximalt mervärde samt koreografera kollektiva beteenden.[23] Datorberäkningen etablerades genom och förstärker än idag en regim för synlighet och läsbarhet, inte bara logiskt tänkande. Dagens användning av AI inom teknologier för identifiering och prognos bekräftar dess genealogi som maktdispositiv, men arbetskraftens desorganisering är också en anomali som aldrig blir färdigberäknad.
Som en teknologi för automatisering kommer AI att få en kolossal effekt på arbetsmarknaden. Om djupinlärning har 1% felmarginal för bildigenkänning, till exempel, kan omkring 99% av rutinarbetet med visuella arbetsuppgifter (såsom säkerhetskontrollerna på flygplatser) komma att ersättas (beroende på lagutrymmet och fackligt motstånd). AI:s inverkan på arbetet har beskrivits bra (från arbetarnas perspektiv, äntligen) i en rapport från European Trade Union Institute, som tar upp ”sju avgörande områden som bör regleras framöver för att skydda arbetare: 1) säkra arbetares integritet och dataskydd; 2) angripa övervakning, spårning och kontroll; 3) tydliggöra syftet med AI-algoritmer; 4) säkerställa att ”rätten till en förklaring” utövas när det gäller beslut som fattas av algoritmer eller maskininlärningsmodeller; 5) upprätthålla arbetares skydd och säkerhet i interaktionen med maskiner; 6) öka arbetares autonomi i interaktionen med maskiner; 7) utbilda arbetare inom AI.”[24]
Slutligen insisterar vi som ligger bakom nooskopet på utvecklandet av en ny maskindebatt för den artificiella intelligensens tidsålder. Maskinfrågan debatterades i England redan under den industriella revolutionen, då svaret på införandet av maskiner med arbetarnas teknologiska arbetslöshet som följd blev en samhällskampanj för mer utbildning om maskiner, som resulterade i Mechanics’ Institute Movement.[25] Idag bör en intelligent maskindebatt sträva efter att utveckla en mer kollektiv intelligens rörande ”maskinintelligensen” och en större allmän utbildning istället för ”lärande maskiner” och deras regim för kunskapsutvinning (som befäster gamla koloniala rutter, se bara på nätverkskartan över dagens crowdsourcing-plattformar). I det globala nord måste också det koloniala förhållandet mellan storföretagens AI och kunskapsproduktionen som allmännytta dras fram i ljuset. Nooskopets syfte är att avslöja det dolda rummet i storföretagens ”mekaniska turk” och åskådliggöra det osynliga kunskapsarbete som får maskinintelligensen att i ett ideologiskt avseende framstå som levande.
Översättning från engelskan: Patrik Haggren
[1]Om teknikens autonomi se: Langdon Winner, Autonomous Technology: Technics-Out-of-Control as a Theme in Political Thought. Cambridge, MA: MIT Press, 2001.
[2] Om den koloniala maktens utbredning/spridning till verksamheter inom logistik, algoritm och finans se: Sandro Mezzadra and Brett Neilson, The Politics of Operations: Excavating Contemporary Capitalism. Durham: Duke University Press, 2019. Om den epistemologiska/kunskapsteoretiska kolonialismen av AI se: Matteo Pasquinelli, ‘Three Thousand Years of Algorithmic Rituals.’ e-flux 101, 2019.
[3] Digital humaniora besitter en liknande teknik, ”distant reading”, som gradvis har involverat dataanalys och maskininlärning inom litteratur- och konsthistoria. Se: Franco Moretti, Distant Reading. London: Verso, 2013.
[4]Gottfried W. Leibniz, ‘Preface to the General Science’, 1677. I: Phillip Wiener (red.) Leibniz Selections. New York: Scribner, 1951, 23.
[5]För en kortfattad historisk översikt över AI se: Dominique Cardon, Jean-Philippe Cointet and Antoine Mazières, ‘Neurons Spike Back: The Invention of Inductive Machines and the Artificial Intelligence Controversy.’ Réseaux 211, 2018.
[6]Alexander Campolo och Kate Crawford, ‘Enchanted Determinism: Power without Control in Artificial Intelligence.’ Engaging Science, Technology, and Society 6, 2020.
[7] Användningen av den visuella analogin är även avsedd att registrera den minskande skillnaden mellan bild och logik samt representation och slutsats i den tekniska sammansättningen av AI. De statistiska modellerna för maskininlärning är operativa representationer (i enlighet med Harun Farocki’s operativa bilder).
[8] För en systematisk analys av de logiska begränsningarna för maskininlärning se: Momin Mailk, ‘A Hierarchy of Limitations in Machine Learning.’ Arxiv preprint, 2020. https://arxiv.org/abs/2002.05193
[9] Projekt såsom Explainable Artificial Intelligence, Interpretable Deep Learning och Heatmapping har visat att det är möjligt att bryta sig in i ”the black box” för maskininlärning. Trots detta förblir de fullständiga tolkningarna och förklaringarna för statistiska modeller för maskininlärning en myt. Se: Zacharay Lipton, ‘The Mythos of Model Interpretability.’ ArXiv preprint, 2016. https://arxiv.org/abs/1606.03490
[10]Frank Rosenblatt, ‘The Perceptron: A Perceiving and Recognizing Automaton.’ Cornell Aeronautical Laboratory Report 85-460-1, 1957.
[11]Paul Edwards, A Vast Machine: Computer Models, Climate Data, and The Politics of Global Warming. Cambridge, MA: MIT Press, 2010.
[12]Se the Community Earth System Model (CESM) som har tagits fram av National Center for Atmospheric Research i Bolder, Colorado, sedan år 1996. CESM är en fullt kopplad numerisk simulering av jorden bestående av en atmosfär, hav, is, markyta, kolcykler och andra komponenter. CESM innefattar en klimatmodell som tillhandahåller toppmoderna simuleringar av jordens dåtid, nutid och framtid. http://www.cesm.ucar.edu
[13]George Box, ‘Robustness in the Strategy of Scientific Model Building.’ Technical Report #1954, Mathematics Research Center, University of Wisconsin-Madison, 1979.
[14] Postkoloniala och poststrukturalistiska skolor inom antropologin och etnologin har betonat att det inte finns några territorium i sig, utan att det alltid sker en territorialisering av ett område. Således finns inga naturgivna territorium.
[15] Som bevisat av Universal Approximation Theorem.
[16]Ananya Ganesh, Andrew McCallum och Emma Strubell, ‘Energy and Policy Considerations for Deep Learning in NLP.’ ArXiv preprint, 2019. https://arxiv.org/abs/1906.02243
[17]Os Keyes, ‘The Misgendering Machines: Trans/HCI Implications of Automatic Gender Recognition.’ Proceedings of the ACM on Human-Computer Interaction 2(88), November 2018. https://doi.org/10.1145/3274357
[18]Florian Schmidt, ‘Crowdsourced Production of AI Training Data: How Human Workers Teach Self-Driving Cars to See.’ Düsseldorf: Hans-Böckler-Stiftung, 2019.
[19]Mary Gray och Siddharth Suri, ‘Ghost Work: How to Stop Silicon Valley from Building a New Global Underclass.’ Boston, MA: Eamon Dolan Books, 2019.
[20]Hamid Ekbia och Bonnie Nardi, Heteromation, and Other Stories of Computing and Capitalism. Cambridge, MA: MIT Press, 2017.
[21]För idén om analytisk intelligens se: Lorraine Daston, ‘Calculation and the Division of Labour 1750–1950.’ Bulletin of the German Historical Institute 62, 2018.
[22]Simon Schaffer, ‘Babbage’s Intelligence: Calculating Engines and the Factory System’, Critical Inquiry 21, 1994. Lorraine Daston, ‘Enlightenment calculations’. Critical Inquiry 21, 1994. Matthew L. Jones, Reckoning with Matter: Calculating Machines, Innovation, and Thinking about Thinking from Pascal to Babbage. Chicago: University of Chicago Press, 2016.
[23]Matteo Pasquinelli, ‘On the Origins of Marx’s General Intellect.’ Radical Philosophy 2.06, 2019.
[24]Aida Ponce, ‘Labour in the Age of AI: Why Regulation is Needed to Protect Workers.’ ETUI Research Paper - Foresight Brief 8, 2020. http://dx.doi.org/10.2139/ssrn.3541002
[25]Maxine Berg, The Machinery Question and the Making of Political Economy. Cambridge, UK: Cambridge University Press, 1980. Faktum är att till och med The Economist nyligen har varnat för ”en återkomst av maskinfrågan” i AI-tidsåldern. Se: Tom Standage, ‘The Return of the Machinery Question.’ The Economist, 23 June 2016.