Yapay Zekalı Silahlanma Yarışı

Anne Alexander

Küresel ekonomide, kriz, rekabet ve savaşın hummalı düşlerinin, yanıltıcı biçimde “yapay zekâ” diye adlandırılmış olan şeyin üretiminde olduğu kadar sıkıca birbirine örüldüğü alan pek azdır. Yemin töreninde Donald Trump’ın arkasında yan yana dizilmiş, kendinden emin bir şekilde gülümseyen teknoloji patronları, yarı iletken imalatı etrafındaki küresel “çip savaşları”, İşçi Partisi’nin Britanya’nın gerileyen verimlilik oranlarını canlandırmak için yapay zekâyı bir “yakıt” olarak pazarlayan politika gevezeliği ve Gazze’de İsrail’in otomatikleştirilmiş suikast fabrikasının işleyişi, bunların tümü bu doğrultuya işaret etmektedir.

Bu makale, özellikle yüksek teknolojili dijital ekonomi bağlamındaki küresel üretimdeki dönüşümlerin analizine dayanan bir perspektif ile yapay zekâ endüstrisine dair kısa bir taslak sunmaktadır. Yapay zekâ üretimindeki yakın dönem yatırım patlamasının zeminini bu dönüşümler hazırlamıştır. Yapay zekâ ürünlerinin “yeniliğini” öne çıkaran anlatıların aksine, burada sanayi gelişiminin kademeli ve birikimsel süreçlerini vurguluyorum. Sektördeki yatırım ve üretim patlamasına tam da bu süreçler yol açmıştır.

Aşağıda anlatılan hikâye, 19. yüzyılda sanayi makinelerinin küresel sistemlerinin gelişimi üzerine Karl Marx’ın çalışmalarına az da olsa aşina olan herkes için tanıdık gelecektir. O zaman süreç, gezegen ölçeğinde muazzam miktarda hammadde, enerji, su ve emeğin seferber edilmesini, milyonlarca işçinin fabrikalara zorla sürülmesini ama aynı zamanda da mücadele ve örgütlenmenin yeni ufuklarının açılmasını içeriyordu. O dönemin makineleri, tıpkı bugünün yapay zekâ sistemleri gibi, işçilerin yaratıcı yetilerini, fiziksel çevikliklerini ve zihinsel becerilerini sistematik olarak mülk edinerek, yabancı ve insanüstü güçler olarak zuhur ettiler. Marx’ın sözleriyle:

“Tekil makinenin yerini, gövdesi koca bir fabrika binasını dolduran bir mekanik canavar almıştır. Onun şeytansı gücü, başlangıçta devasa parçalarının ölçülü, neredeyse törensel hareketleriyle gizlenirken, şimdi sayısız çalışma organının vahşi, savrulan, hummalı dansında bütünüyle sergilenmektedir.”1

Güçlü bir “makineye tapınma” ideolojisinin yapay zekâ endüstrisinin yükselişine eşlik etmesi, bu teknolojileri üretmek için gereken insan emeği, enerji ve malzemelerin salt ölçeği düşünüldüğünde şaşırtıcı değildir. Bununla birlikte, üretim sürecinin bütün aşamalarına nüfuz eden sermayeler ve devletler arası rekabetin artan şiddeti, yapay zekâ endüstrisinin en çarpıcı özelliği olarak öne çıkmaktadır. Bu rekabet, uzatmalı bir çoklu kriz bağlamında cereyan etmekte ve sanayi ile askerî araçlar‑amaçlar bütününün kaynaşmasına yönelik baskıyı artırmaktadır.

Çıkarım sanayisini anlamak

Yapay zekâ doğal olarak yüklü bir terimdir ve bugünlerde bu teknolojilerin insan emeğinin ürünleri değil de bir tür “yabancı zekâ” olduğu yolundaki abartının ve iddianın arkasında durmak zordur.2 Bu makale, yakın zamanda akademiden sanayiye sıçrayan yapay zeka araştırmalarının belirli bir alt alanına odaklanmaktadır: çok büyük ölçekli makine öğrenimi (machine learning) modellerinin üretimi. Bilgisayar biliminin bir dalı olan makine öğrenimi, sınıflandırma ve tahmin amaçları için istatistiksel çıkarım tekniğini kullanır. Son on yılda görüntü ve metinleri sınıflandırmak için kullanılan makine öğrenimi sistemlerindeki gelişmeler, bugün OpenAI’a ait ChatGPT, Google’a ait Gemini, Anthropic’e ait Claude, Alibaba’ya ait Qwen ve DeepSeek’e ait R1 gibi hizmetlerin arkasında yatan büyük makine öğrenimi modellerini üreten bir sanayi sektörünün ortaya çıkmasının temelini atmıştır.

Daha da önemlisi ve muhtemelen mevcut sohbet‑botu velvelesinden çok daha büyük etkiler yaratacak olan, büyük dil modellerinin (large language model, LLM) üretim sürecini temellendiren ilkelerdir. Sektör genelinde şirketler ve devletler, modellerin performansındaki son önemli sıçramaların, onları üretmek için gereken ağ altyapıları, enerji ve su kaynakları, bilgisayarların işlemci gücü ve eğitim verisinin (training data) dramatik biçimde büyümesinin sonucu olduğu kanısına varmış durumdadır. Bunu söz konusu girdilerin herhangi birindeki basit doğrusal büyüme anlayışıyla eşitlememek ya da (örneğin bir yarı iletkende nanometre başına daha fazla transistör sığdırmak gibi) tek bir “sihirli değnek” çözümüne indirgememek gerekir. Teknolojik, toplumsal ve siyasal etmenler arasındaki karmaşık ve çoğu kez kaotik etkileşimler üretimi şekillendiriyor. Bununla birlikte, makro düzeyde bakınca, mevcut eğilimler büyük ölçekli ve uzun vadeli yatırımların belirleyici olduğu bir teknolojik yarışa işaret ediyor.

Aşağıda, bu yeni sanayi sürecinin yükselişinin, mevcut yüksek teknoloji sanayinin kollarını (örneğin veri merkezi işletmeciliğini) nasıl dönüştürdüğünü, elektrik, su ve bilgisayar donanımı tüketimini katlanarak artırdığını, eğitim verisi etiketleme fabrikalarında tümüyle yeni sömürü düzenleri yarattığını ve aynı zamanda madencilik, lojistik ve taşıma sektörlerinde milyonlarca işçiyi nasıl seferber ettiğini anlamaya çalışacağım. Üretim sürecinin tüm aşamalarında, minerallerin ve doğal kaynakların yağmacı çıkarımı ile sermaye yatırımlarının yoğunlaşması ve merkezileşmesinin birleştiği benzer örüntüler ortaya çıkmaktadır. Makine öğrenimi modellerinin imal edildiği veri merkezi fabrikaları, emeğe kıyasla son derece yüksek sabit sermaye (gayrimenkul, tesis ve ekipman) oranlarıyla karakterize edilir. Bu fabrikalar, benzer nitelikteki sanayilerden oluşan bir zincirin ucunda yer alırlar: fosil yakıtlar, petrokimya, plastik ve yarı iletkenler. Bunların tümü makine öğrenimi modeli üretiminin olmazsa olmazlarıdır.

Burada “model” sözcüğü, bir dizi olasılığı ve bunları üretmek için gerekli matematiksel fonksiyonları ifade eder. Büyük dil modellerinde bu, bir metin koleksiyonunu oluşturan öğeler arasındaki ilişkilerin istatistiksel bir betimlemesidir ve bu betimleme, bir metin dizisinde bir sonraki kelimeyi öngörmek için kullanılabilir. Günümüz büyük dil modellerindeki güncel yöntem bu olasılıkları kelimeler üzerinden değil, doğal dil işlemede “token” (parçacık) olarak adlandırılan kelime parçaları üzerinden hesaplar. Bu olasılıklar yeni metin üretmekte kullanılabilir. Üretilen bu yeni metinler asıl olarak, eğitim verisindeki token dizilişlerine istatistiksel olarak benzeyen harf ve boşluk birleşimlerinden ibarettir.3 Eğitim için kullanılan veri koleksiyonları yeterince büyük ve çeşitli olduğunda, metinlerin içsel yapılarının bu istatistiksel temsilleri çok daha geniş bir görev yelpazesinde kullanılabilir. Model artık milyarlarca token arasındaki ilişkiler için istatistiksel bir kılavuzdur ve kestirimlerinin çıktıları yapay olarak üretilmiş bir dil görünümü kazanır.4

Görüntü koleksiyonları da benzer biçimde modellenebilir. Bu durumda hesaplama görevleri biraz farklıdır, ancak genel yöntem aynıdır: istatistiklerin bir araya getirilmesi ve bunları üreten matematiksel fonksiyonlar koleksiyonun tamamındaki pikseller arasındaki ilişkilerin bütününü betimler. Metinlerde olduğu gibi bu istatistiksel kılavuzlar, kullanıcıların koleksiyonda aradıkları şeyleri bulmalarını sağlar (görüntüleri istatistiksel benzerliklerine göre, “en yakın komşuya” göre, sıralayarak). Dahası, birkaç ek işlemle, modeldekilere istatistiksel olarak benzeyen düzenlerde pikselleri bir araya getirerek yeni görüntüler üretilebilir. Bu piksel düzenleri, çoğu zaman gerçek nesnelerin, insanların ya da mekânların görüntülerinden ayırt edilemez görünebilir.5 Bununla birlikte, makine öğrenimi modellerini bu şekilde işletmek, Alan Turing’in “taklit oyunu” dediği şeyin hızlandırılmış bir versiyonundan ibarettir. Burada istatistiksel çıkarım teknikleri, bir insanın “bir kedi resmi” ya da “Shakespeare’den bir alıntı” olarak etiketleme olasılığı en yüksek olan piksel grubu ya da harf kombinasyonunu bulma sürecini hızlandırmak için kullanılır.6

Aşırı büyük ve çeşitli veri kümeleri üzerinde eğitilen modeller, genellikle “temel modeller” (foundation models) olarak adlandırılır, çünkü çok çeşitli görevler için kullanılabilirler. Yukarıda anılan büyük dil modellerinde ve metinden‑görüntüye (text‑to‑image) şeklinde çalışan modeller en bilindik örnekler. Ancak, uydu görüntüleri gibi coğrafi‑uzamsal veriler veya giyilebilir etkinlik izleyicilerinin (akıllı saat vb.) sensörlerinden gelen veriler dâhil olmak üzere farklı veri türleri üzerinde eğitilerek sürekli olarak yeni temel modeller üretilmekte.7 Model geliştirmedeki son ilerlemelerin çoğu, üretim sürecinde hem hesaplamanın hem de eğitim verisinin “muazzamlaştırılması” yoluyla elde edilmiştir. Bu muazzamlaşma, daha büyük veri miktarlarının işlenmesini kolaylaştırıp ucuzlatan yarı iletken teknolojisindeki iyileşmelere ve modelleri üreten hesaplamalı sinir ağları için daha verimli mimarilerin oluşturulmasına dayanmaktadır.

Çok büyük makine öğrenimi modellerinin üretimi uzun bir zamana ihtiyaç duyar. Tipik bir büyük ölçekli modelin eğitimi aşamasında, yani modelin kestirimlerinin dayandığı veri kümesi üzerinden istatistiklerin üretildiği safhada yaklaşık 1.000 GPU-saat (grafik işleme birimi saati) gerekir. Bunu, modele belirli görev kümelerine uyarlanmış çıktılar ürettirmek üzere yapılan “ince ayar” (fine‑tuning) aşaması için ilave 500 GPU‑saat izleyebilir. Çıkarım (inference) aşaması için de zaman ve hesaplama kaynakları gerekir. Bu aşamada model sorulara yanıt verir, metin üretir ya da sınıflandırmalar yapar.8

Üretim girdilerinin arttırılması önemli, çünkü bu süreç, “egemen yapay zeka” (sovereign AI; ulusal dilleri, kültürel mirası ve hukuku yansıtan özgül veri kümeleriyle üretilen temel modeller) dâhil olmak üzere yeni temel modeller üretmek için küresel bir rekabet başlattı.9 Şu çok kritik ki, temel modellerin büyük ölçekli üretimi, devasa miktarlardaki yapılandırılmamış, “dağınık” veriyi makinelerin eylemlerini yönlendiren bir programlama diline dönüştürmeye yönelik genellenebilir bir teknikler kümesi sergilemiştir. Daha ayrıntılı tartışacağım üzere, temel model yaklaşımı, dijital platform şirketlerinin ihtiyaç ve kapasiteleri arasındaki bir uyumdan doğmuştur (Bu şirketler arasında, rekabetin son yoğunlaşma evresini tetikleyen Transformer sinir ağı mimarisini ana hatlarıyla ortaya koyan 2017 tarihli araştırma makalesini yazan mühendisleriyle Google da vardır).10 Gelecekte elbette yapay zeka teknolojilerini üretmenin başka yolları da ortaya çıkacaktır, bunların bir kısmı en azından geçici olarak, geçmiş ve gelecekteki yatırımların ölçeği dışındaki etmenleri öne çıkarabilir. Ne var ki şimdilik, üretim girdilerinin bu muazzam artışı, yoğunlaşan ekonomik rekabette ve bunun askerî rekabete dönüşümünü hızlandırmada belirleyici bir rol oynamaktadır. Devletler arası rekabet ile sermayeler arası rekabetin kaynaşması yoluyla yapay zeka üretiminin vites arttırması, makine öğreniminin yükselişini toplumsal işbölümünün otomasyonu örneği olarak ele alan anlatılarda büyük ölçüde eksik kalan önemli bir boyuttur.

Genel amaçlı büyük ölçekli yapay zeka ürünlerinin yaratılması, dijital iletişim ve dağıtık hesaplama (distributed computing) altyapılarına, tüketici elektroniği imalatına ve doğal dil işleme ile bilgisayarlı görü (computer vision) gibi alanlardaki araştırmalara on yıllardır yapılan yatırımların sonucudur.

Büyük özel ve kamusal sermayelerin elektrik şebekelerini, veri ağlarını ve veri merkezlerini kullanma biçimlerindeki değişimler, makine öğrenimi modellerinin endüstriyel ölçekte üretimi için zemin hazırlamış, ardından bu altyapıların, model üretiminden dağıtıma uzanan süreçte sermaye birikiminin ihtiyaçlarına daha iyi hizmet edecek şekilde daha da dönüştürülmesini hızlandıran birer etmen hâline gelmiştir. 2016’dan bu yana, makine öğrenimi modeli üretimi için veri merkezlerinin katlanarak artan elektrik talebi, bu rekabette başarının büyük ölçüde altyapı yatırımı kapasitesi tarafından sağlandığına dair güçlü bir kanıt sunmaktadır. Bu durum kaçınılmaz olarak sermayenin yoğunlaşma ve merkezileşme süreçlerini daha da şiddetlendirecektir, ki bu şimdiden makine öğrenimi modeli üretimine ilişkin elektrik talebi örüntülerinde şimdiden görünüyor.

ABD hükümeti ve Uluslararası Enerji Ajansı’nın yakın tarihli çalışmaları, makine öğrenimi modeli üretimi için veri merkezlerinin enerji talebinin önce ABD’de, ardından özellikle Çin gibi rakip ülkelerde çok büyük sıçrama yaptığını göstermektedir.11 Veri merkezi elektrik talebinin aslan payı hâlen %45 ile ABD’ye ait, ABD’yi %25 ile Çin ve %15 ile Avrupa Birliği (AB) izlemekte.12 2010‑2017 arasında ABD’de veri merkezlerinin elektrik tüketimi 60 terawatt saat (TWh) civarında, yıllık artışın sınırlı kaldığı, büyük ölçüde durağan bir seyir izledi. Bu gösteriyor ki o zaman diliminde veri merkezlerinin başlıca rolü veri depolamak, görece düşük yoğunluklu veri işlemek ve veri ağlarındaki bağlantıları sağlamaktı. Buna karşılık, 2017‑2023 arasında ABD’de veri merkezlerinin elektrik tüketimi 176 TWh’ye yükselmiş, bu da toplam ulusal elektrik tüketiminin %4,4’üne karşılık geliyor, ki bu oranın 2028’e kadar %12’ye çıkacağı öngörülmekte.13 Elektrik kullanımındaki bu dramatik artış, üretim sürecinin çeşitli safhalarında yoğun hesaplama gerektiren giderek daha büyük makine öğrenimi modelleri geliştirme yarışından kaynaklanmaktadır. Çin’de de veri merkezlerinin elektrik talebinde benzer bir sıçrama ve bu veri merkezlerinin nispeten pasif altyapı olmaktan çıkıp sanayi ölçeğinde hesaplama motorlarına dönüşmesi yönünde belirgin bir kayma yaşanmıştır. Çin hükümeti verileri, talebin 2022’de 77 TWh olduğunu, 2025’te 150‑200 TWh ve 2030’da yaklaşık 400 TWh olacağını belirtmektedir. ABD Enerji Bilgi İdaresi ise 2024 için 100 TWh gibi daha temkinli bir taban düzeyi tahmin etmiş, ancak 2027’ye kadar iki katına çıkacağını öngörmüştür.14 ABD ve Çin’in ardından küresel veri merkezi elektrik talebinde üçüncü en büyük paya sahip olan AB de hem veri merkezi inşasında hem de projeksiyonlara göre elektrik talebinde bir patlama yaşamaktadır. Goldman Sachs kısa süre önce, mevcut veri merkezi inşa dalgasının önümüzdeki on yılda Avrupa elektrik talebini %10‑15 artırabileceğini tahmin etmiştir.15

Berkeley Lab araştırmacılarının belirttiği üzere, veri merkezleri şu anda toplam elektrik tüketiminden nispeten küçük bir pay alsa da, makine öğrenimi modeli üretiminin sanayi ölçekli güç gereksinimlerini karşılamanın zorluğu, başka kaynaklardan gelen elektrik talebindeki artışla birleşerek katmerlenmektedir. Bunlar arasında elektrikli araç kullanımının yaygınlaşması, üretimin ülkeye geri taşınması (onshoring), hidrojen kullanımı ve sanayi ile binaların elektrifikasyonu yer alıyor.16 ABD, Çin ve AB’nin her üçünde de karşılaşılan zorluklar, enerji yoğun veri merkezlerinin belirli bölgelere kümelenmesiyle ağırlaşmakta. ABD’de veri merkezi kapasitesinin neredeyse yarısı yalnızca beş bölgede yoğunlaşmıştır.17

Makine öğrenimi modeli üretiminin enerji gereksinimlerinin tetiklediği elektrik tüketimindeki hızlı artış, toplam enerji talebini yükseltiyor. Örneğin geçen yıl İrlanda’daki veri merkezi kümeleri, ülkenin kentsel hanelerinin toplamından daha fazla enerji tüketmiştir.18 Bu durum, yeni enerji kaynaklarının devreye alınmasına dönük rekabet baskılarını da yoğunlaştırmakta, enerji üretiminin karbonsuzlaştırılmasına yönelik adımları yavaşlatma ya da raydan çıkarma tehdidi yaratmaktadır.19 Büyük makine öğrenimi modellerini üretmek için kullanılan yeni nesil süper bilgisayarlarla donatılmış yerleşkeler son derece enerji oburudur. Örneğin Elon Musk’ın xAI şirketine ait Colossus, 250.000 kişilik bir kent kadar enerji harcamaktadır.20 Eylül 2024’te Microsoft, yeniden açılan Three Mile Adası nükleer santralinde üretilen enerjinin %100’ünü makine öğrenimi modeli üretim süreçlerini beslemek üzere kullanmak için 20 yıllık bir anlaşma yaptığını duyurmuştur.21 Yapay zeka yatırımları furyası ABD’de kömürle çalışan bazı santrallerin yeniden açılmasına da neden oluyor, “iyi, temiz kömür”ün üretim hızını korumak için elzem olduğunu iddia eden Trump’ın tam desteğiyle.22

Veri merkezlerini soğutmak için gereken muazzam miktarda suyu bulma yarışında da çok benzer dinamikler işliyor. İspanya Devleti’nde aktivistler “Bulutun Nehrimi Kurutuyor!” (Tu Nube Seca Mi Río) sloganı altında örgütleniyorlar ve Amazon gibi büyük şirketlerin her yıl milyonlarca litre suyu yutması nedeniyle veri merkezi inşaatlarının askıya alınmasını istiyorlar. ABD veri merkezi endüstrisi ise Mesa, Arizona gibi aşırı kuraklıktan muzdarip yerlerde kümelenmeler gösteriyor.23 Veri merkezlerinde daha yüksek su tüketimi oranları özellikle makine öğrenimi modeli üretiminden kaynaklanıyor. Teknoloji şirketlerinin “water zero (sıfır su)” tesisleri kurdukları yönündeki iddialarına karşın, gerçeklik, özellikle makine öğrenimi faaliyetleri için su bazlı soğutmanın hava ile soğutmadan çok daha etkili olduğu şeklinde.24

Çip savaşları: fizik yasalarını kaba kuvvetle zorlamak

Makine öğrenimi modeli üretiminin sanayi ölçeğine sıçraması, son derece sermaye yoğun sanayi süreçlerindeki onlarca yıllık gelişimi taçlandırarak, en gelişmiş yarı iletken bilgisayar çiplerine olan talebi de şiddetlendirdi. 1971’de Intel ilk önemli ticari mikroişlemci olan 4004 isimli yarı iletkeni piyasaya sürmüştü. Bu işlemci yaklaşık 10 mikrometre (µm) boyutunda 2.300 transistör içeriyordu. On yıl içinde transistör boyutu 1 µm’ye düştü ve üreticiler her bir çipe 100.000’e kadar transistör sığdırıyordu. Üstel büyüme sürdü, 1990’larda çip başına 1 milyon, 2000’lerin başında 10 milyon, on yıl sonra ise 100 milyon transistöre ulaşıldı.25 Günümüzde çip üreticileri, milimetrekare başına 100 milyon transistör sığdıran 5 nanometrelik (nm)  devre düğümünü (process node) yaygın biçimde kullanırken 3 nm büyüklüğü hızla sektör standardı hâline gelmekte. Taiwan Semiconductor Manufacturing Company (TSMC), 2 nm’lik devre düğümünü üretime alacağını vaat ediyor ve önceki en ileri yarı iletkenlerine kıyasla performansta %10‑15 artış, güç tüketiminde %25‑30 azalma ve transistör yoğunluğunda %15 artış sağlayacağını iddia ediyor.26

TSMC’nin 2 nm’lik seri üretime geçme yönündeki duyurusu birkaç nedenle önemlidir. Bu, son derece uzmanlaşmış bir üretim alanında TSMC’nin egemenliğini teyit ediyor. Tayvanlı şirket, 2024’te yarı iletken üretiminde küresel pazar payının %64’üne sahipti ve en ileri yarı iletkenlerin üretiminde neredeyse tekel konumundaydı.27 TSMC’nin çipleri, Apple, Nvidia, Qualcomm ve daha birçok büyük şirketin ürünleri için vazgeçilmez girdiler. TSMC’nin nanometre ölçekli üretimin fiziksel sınırlarında ya da bu sınırlara yakın inovasyonu sürdürebilme kapasitesi, yalnızca şirketin jeopolitik önemini değil, aynı zamanda çip dökümhanelerini Tayvan için bir tür “silikon kalkan” olarak özenle konumlandırmış olan Tayvan egemen sınıfının da önemini artırıyor.28 Bunun bir göstergesi olarak TSMC’nin ilk 2 nm çiplerin seri üretime alınacağı yerler olarak Tayvan’ın Hsinchu ve Kaohsiung kentlerindeki yeni mikroçip üretim tesislerini (2025 sonlarında faaliyete geçmesi bekleniyor) konum olarak seçmesi görülebilir.29 Bununla birlikte 2020’lerin sonuna doğru, TSMC’nin Arizona’daki yeni fabrikasında 2 nm ve 1,6 nm’de seri üretim başlayacak. Bu tesisin finansmanının bir kısmı ABD hükümeti tarafından, Yarı İletken Üretimini Teşvik (CHIPS) ve Bilim Yasası kapsamında 6,6 milyar dolar hibeyle sağlanmakta.30 Son yıllarda ABD, ihracat kontrolleri dâhil olmak üzere, Çin’in en ileri yarı iletkenlere erişimini engellemeye yönelik saldırgan politikalar izliyor. CHIPS ve Bilim Yasası’nın kendisi de yarı iletken üretiminin ABD’ye “geri getirilmesini” (reshoring) teşvik ediyor.

Şaşırtıcı olmayacak şekilde, fiziğin sınırlarını bu şekilde zorlamak, kaynak ve enerji açısından olağanüstü maliyetlerle geliyor. Çip imalatı da, yukarıda belirtilen veri merkezlerindeki duruma benzer ölçekte elektrik ve su tüketir. 2023’te Greenpeace Asya, Samsung’un yarı iletken üretiminden kaynaklanan yıllık CO emisyonlarının 2030’a gelindiğinde 32 milyon tonu aşma rotasında olduğunu ortaya çıkardı ve bunun Danimarka’nın 2021’deki toplam emisyonundan fazla olduğunu tespit etti. TSMC’nin enerji kullanımının %267 artacağı ve 5.8 milyon insanın kullanacağı kadar enerji tüketeceği tahmin ediliyor, ki bu enerjinin büyük çoğunluğu fosil yakıtlardan üretiliyor.31 Su, özellikle çip üretim süreci için gerekli olan ultra saf su tüketimi de, makine öğrenimi işlemleri için optimize edilmiş gelişmiş çiplerin yaygınlaşmasıyla birlikte hızla arttı.32

Sektör genelinde sermayenin yoğunlaşması ve merkezileşmesine ilişkin güçlü örüntüler görülmekte, başlıca üretim süreçlerinde, çoğu zaman sıkı biçimde korunan teknik bilgi birikimine dayanan tekel ya da tekele yakın yapılar ortaya çıkmaktadır. Çip üretimi açısından kritik iki örnek, son derece yoğunlaşmış çip tasarım endüstrisi ve litografi makinelerinin imalatıdır. ABD merkezli teknoloji devi Nvidia, TSMC’nin dökümhanelerinde ürettiği çipleri tasarlıyor ve pazarlıyor ve bu sayede küresel makine öğrenimi çip pazarının hegemonyasını elinde bulunduruyor. ABD’den sonra ikinci büyük pazarı olan Çin’e ihracatını sınırlayacak bir yönetmeliğin yürürlükten kaldırılması için Trump nezdinde başarılı bir lobi faaliyeti yürütmüş olan Nvidia’nın şimdiki pazar payının %90 olduğu tahmin ediliyor.33 Yarı iletken üretimindeki bir diğer kritik süreç de Aşırı Morötesi (EUV) litografi uygulamasıdır. EUV makinelerinin tek üreticisi Hollandalı ASML’dir ancak Canon da, alternatif bir nano‑kalıp (nanoimprint) litografi yöntemi kullanarak “düşük maliyetli” bir seçenek geliştirmiştir. ASML’nin makinelerinin maliyeti yaklaşık 370 milyon ABD doları iken Canon’un sürümünün fiyatı bunun yaklaşık onda biri.34

ABD merkezli kâr amacı gütmeyen bir araştırma merkezi olan Epoch AI’daki analistler, yakın zamanda yayınlanan bir makalede, OpenAI’ın GPT serisi, Meta’nın Llama’sı ve Google’ın Gemini 2.0’ı gibi mevcut büyük dil modeli neslinin üretilmesinde devasa süper bilgisayar kümelerinin temel bir rol oynadığını savunuyor. Bu tesislerin boyutu ve gereksinimleri bu dönemde üstel olarak artmıştır. Colossus adlı süper bilgisayar, yapay zeka için optimize edilmiş 200.000 ileri düzey yarı iletken çip üzerinde çalışmaktadır. 2019 yılında 10.000’den fazla çipe sahip süper bilgisayarlar nadirdi. Epoch AI’ın izini sürdüğü süperbilgisayar grubunda donanım ve güç gereksinimleri yıllık olarak iki katına çıkarken, hesaplama performansı, büyük ölçüde daha fazla ve daha iyi yarı iletkenin temin edilmesi sayesinde, her dokuz ayda bir ikiye katlanmıştır.35

Eğitim verisi, insan sömürüsü

Makine öğrenimi modeli üretiminin yığınsallaşma ve sanayileşme adlı ikiz süreçlere tabi olan bir başka boyutu da modeli oluşturmak için gereken eğitim verisidir. Büyük dil modellerinin ilk kuşağı, çoğu kez atıf ya da onay olmaksızın çevrimiçi kaynaklardan toplanmış metinleri kullandı. OpenAI’nin GPT serisinin erken sürümlerini eğitmek için başlangıçta kullandığı WebText isimli metin derlemi (corpus), 2017’de internetten kazınan metinlere dayanarak ve kılavuz olarak Reddit kullanıcılarının verdiği puanlar kullanılarak derlenmişti. “English Cleaned Common Crawl Corpus” adlı, birçok önemli büyük dil modelinin üretiminde kullanılan devasa bir eğitim veri kümesinin bileşimine ilişkin 2021 tarihli bir çalışma, en yaygın kaynağın Google’ın barındırdığı patentler sitesi olduğunu, bunu Wikipedia’nın, ardından New York Times, Los Angeles Times ve Guardian’ın izlediğini buldu.36 Seçici biçimde derlenmiş ve editoryal süzgeçten geçmiş bu görece ana akım kaynakların arasına ise bolca hayran kurgusu hikayeleri (Archive of Our Own’dan çalınmış 32 milyon kelime içeriyor) ve sosyal medya platformlarındaki kullanıcı yorumları eklenmiş durumdadır. Bunların arasında pek çok aşırı sağcı, kadın düşmanı ve ırkçı içerik de vardır.37

2023’te piyasaya sürülen StableDiffusion görüntü üretim aracını geliştirmek için eğitim verisi olarak kullanılan görüntü koleksiyonları, 2000’lerin sonlarında görüntü sınıflandırma modellerinin gelişimine temel sağlamış olan ImageNet’ten beş milyar öğe içeren LAION veri kümesine kadar uzanır. Bunlar da çoğu zaman açık internetin taranması yoluyla derlenmiştir. Bu nedenle dijitalleştirilmiş müze ve kültürel miras koleksiyonlarından tatil fotoğraflarına, sanat eserlerinden pornografiye kadar geniş bir yelpazede görüntü içermektedir.

Ne var ki bu tür görüntü ve metinleri, sonrasında makine öğrenimi boru hatlarına (machine learning pipelines) beslenecek standartlaştırılmış koleksiyonlara dönüştüren işlemler, çoğu zaman uluslararası ölçekte tanınan “kıyaslama” (benchmarking) sistemlerinden türetilmiş tutarlı etiketleme şemalarının uygulanmasıyla yapılır. “Kıyaslama” (benchmarking) sistemleri görüntüleri standartlaştırmaktan ve “iş yerinde uygun değil” (NSFW) diye düşünülen kimi içerikleri çıkarmaktan sorumludur.38 Günümüzde bu çoğunlukla Küresel Güney’de, tehlikeli, fabrika benzeri koşullarda düşük ücretli insan emeğiyle gerçekleştirilmektedir. Facebook gibi sosyal medya platformlarının kullandığı içerik denetleme modelleri, platformun kendi verileriyle eğitilir. Bu verilerin hazırlanması için işçiler, son derece travmatik her tür içeriği akıl almaz hızlarda inceler ve etiketler, Sonia Kgomo’nun Şubat 2025’te anlattığı gibi:

“İki yıl boyunca, günde 10 saate varan sürelerle çocuk istismarı, insan bedenine yönelik sakatlama, ırkçı saldırılar ve internetin en karanlık kısımlarına baktım ki siz bakmak zorunda kalmayın… Travmatik bir şey gördüğünüzde mola veremezdiniz. Ruh sağlığınız için mola veremezdiniz. Tuvalete gitmek için mola veremezdiniz. Mümkün değildi. Müşterinin, bizim durumumuzda Facebook, devam etmemizi istediği söylenirdi.”39

Bu insan emeği, makine sistemleriyle eşgüdüm içinde çalışır. ML’de kullanmak üzere ön-işlemenin temel unsurlarının otomasyonunun hızla büyümesi de eğitim verisi üretiminin kendi başına bir endüstri olarak olgunlaştığını gösteriyor.

Son 25 yılda eğitim verisi üretiminin nasıl değiştiğine bakmak, tabloyu berrak biçimde gösteriyor. Etiketli görüntü veri koleksiyonları eskiden, yüksek vasıflı araştırmacıların zanaat benzeri çabalarıyla oluşturulurdu. 1998’de Michael Lyons ve çalışma arkadaşları, Japonya’dan insanların yüzlerinden oluşan yalnızca 213 resimlik JAFFE veri kümesini yarattı, sonra bu görüntüler 60 etiketleyici tarafından yüz ifadelerine göre etiketlendi. JAFFE, yüz ifadelerinin tanınmasını otomatikleştirdiğini iddia eden bilgisayarlı görü (computer vision) modellerinin gelişiminde kurucu bir rol oynamış, görüntü/belge kümeleme ve kümeleme algoritmalarının değerlendirilmesi dâhil olmak üzere çeşitli başka modellerde de kullanılmıştır.40 Lyons ve meslektaşları, bu ince elenip sık dokunarak üretilmiş araştırma aracını üretmek için tüm süreçleri, yüzleri fotoğraflanacak gönüllülerle tanışıp projeye dahil olmalarını sağlamak dâhil baştan sona denetlemişlerdi.41

Birkaç yıl içinde ise araştırmacılar tarafından bu zahmetli yöntemler, çevrimiçi kaynaklardan kazınmış çok daha büyük görüntü koleksiyonları lehine terk edildi. Bunlar arasında 2004’te kurulan fotoğraf paylaşım platformu Flickr da vardı. Makine öğrenimi modeli üretimi için kullanılan ilk büyük ölçekli görüntü koleksiyonu olan ImageNet, birkaç yıl sonra Fei‑Fei Li liderliğindeki bir araştırma ekibi tarafından oluşturuldu. ImageNet, Creative Commons lisanslama sisteminden yararlanarak “ticari olmayan” amaçlarla (akademik araştırma dâhil) yeniden kullanıma izin veren büyük miktarda Flickr kullanıcısı fotoğrafı içeriyordu. ImageNet’in üretimi Amazon Mechanical Turk (MTurk) adlı dijital parça başı iş platformu aracılığıyla istihdam edilmiş, “metalaştırılmış emek gücünü” kullanan ücretli işçilere dayandı, bu alanda ilk kez çok büyük ölçekte ücretli emekten faydalanılıyordu.42 Akademik araştırmacıların “yarı sanatsal” vasıflı emekleriyle (hiç kuşkusuz sözleşmeli saatlerinin ötesinde çok fazla “gönüllü” saat de çalışıyorlardı), evlerinde anonim olarak MTurk için parça başı çalışan insanların emeğinin birlikteliği ImageNet’e özgü değildi. Makine öğrenimi üretim sürecinin bu evresinin genel bir özelliğiydi.

Bazı veri etiketleme biçimleri, “gönüllüler”in emeğinden ya da CAPTCHA testleri aracılığıyla içerik ve hizmetlere erişim için veri etiketlemeyi bir tür mikro işleme dönüştürme kapasitesine sahip büyük dijital platformlardan yararlandı. Bununla birlikte genel yönelim çoğu kez daha geleneksel sömürü modellerine doğru oldu. Bunun nedenlerinden biri, birincil ürünleri eğitim veri kümeleri olan kapitalistler için kalite güvencesinin, tıpkı endüstriyel kimyasal ya da çırçırlanmış pamuk üreticileri için olduğu kadar, ciddi bir sorun olmasıdır. Örneğin MTurk için çalışanların sıkıcı işlerini hızlandırmak için büyük dil modellerini kullandıkları tespit edilmiştir.43

Bu sorunun bariz çözümlerinden biri işçileri işe alıp eğitmek ve onlara tıklama başına değil düzenli ücret ödemektir. ABD merkezli şirketlere hizmet veren veri etiketleme endüstrisinin, ilgili becerilere sahip emeğin daha ucuz olduğu ülkelere, Hindistan, Kenya ve Uganda’ya kaymasının nedenlerinden biri budur. Bir diğer itici unsur da hızlı ve büyük ölçekli üretimin gerekliliğidir. Alexandr Wang’ın Scale AI veri etiketleme şirketi, özünde MTurk’un kurum içi bir versiyonu olan RemoTasks’ı yarattı. RemoTasks adlı tıklama işi platformu, emeği dünyanın dört bir yanından tedarik ediyor. Buradaki fark şu ki etiketçilerin emeği doğrudan istihdam edilmiş mühendislik ve ürün geliştirme ekipleri tarafından denetleniyor ve eğitim veri kümelerinin ISO sertifikasyonu gerekleri gibi çeşitli kalite güvence standartlarını karşılaması sağlanıyor.44 Scale’in bu iş modeli bugüne dek çarpıcı biçimde başarılı oldu ve şirket ABD ordusunun geniş kesimleri dâhil bir dizi müşteriyle çalışıyor. Ancak diğer her sanayi üretim süreci gibi, bu model de vasıflı emek arzının diğer işverenlerle rekabet, jeopolitik etmenler ve finansal piyasalardaki dalgalanmalar nedeniyle kesintiye uğramasına karşı hassastır. Bu durum, dijital aracıların ve internetin hüküm sürdüğü dünyamızda herkesin dev bir “toplumsal fabrikanın” işçisi olduğu yönündeki kuramların neden hatalı olduğunu gösteriyor. Eğitim verisi işinin tarihi kuşkusuz insanın yaratıcı emeğinin sistematik yağmasının tarihidir. Ancak makine öğrenimi modellerini meta olarak büyük ölçekte üreten bir endüstri, doğrudan sömürü biçimlerini yaratmadan ve bununla birlikte işçilerin direnişine (örneğin veri etiketleyiciler ve diğer teknoloji işçilerinin kolektif eylem ve örgütlenme girişimlerine) neden olmadan ortaya çıkamazdı.45

Eğitim verisi, makine öğrenimi modeli üretim sürecindeki diğer girdiler gibi, giderek şirketler arasında ve hatta devletler arasında şiddetli rekabetin konusu hâline geliyor. Temmuz 2024’te yayımlanan bir çalışma, yapay zeka şirketlerinin açık Web’in bazı bölümlerini eğitim verisi için taramasını durdurmaya yönelik kısıtlamaların arttığını vurguluyor.46 Sanatçıların, yazarların ve oyuncuların eserlerinin eğitim verisi toplayıcıları tarafından gasp edilmesine karşı yükselen protestolar ile telif hakkı ihlali konulu davalar bu kısıtlamaların bazılarını tetiklemiş olmalı.47 Google ve OpenAI gibi büyük yapay zeka şirketleri ise eğitim verisi kullanımına getirilen kısıtlamaların gevşetilmesi için lobi yaparak karşılık verdiler. Britanya’da İşçi Partisi hükümeti bu şirketleri memnun etmeye çok hevesli. Hak sahipleri açıkça vazgeçtiklerini belirtmedikçe (opt‑out), yapay zeka şirketlerinin çevrimiçinde istedikleri her şeyi almalarına izin vereceğini vaat ediyor.48 İşçi Partisi, ülkenin yüksek kaliteli kamusal veri setlerini yapay zeka şirketlerine açmaya da istekli. Örneğin ABD’li askerî şirket Palantir, çok milyonluk bir sözleşme sayesinde artık NHS (İngiltere Ulusal Sağlık Sistemi) verilerinin büyük bir kısmına erişebiliyor. Palantir, İşçi Partili bakanlarla yakın bir ilişki kurmuş durumda ve Keir Starmer ABD’ye yaptığı son ziyarette şirketin ofislerini gezdi.49

Model tasarımı yoluyla yıkıcı değişim

Ocak 2025’te Çinli şirket DeepSeek, büyük Batılı şirketlerin birkaçının büyük dil modellerinden daha iyi performans sergilediğini iddia ettikleri bir büyük dil modeli yayımladı. Bunun etrafında oluşan piyasa paniği, makine öğrenimi modeli üretiminde araştırma‑geliştirmenin önemini gösterirken devlet‑sermaye kümeleri arasındaki şiddetli rekabetin bir başka cephesini de açığa çıkarıyor. Rakiplerininkinden çok daha küçük bir GPU (grafik işlemci) kümesi üzerinde, çok daha az sayıda özel olarak yapay zeka için optimize edilmiş yarı iletken kullanarak yüksek performanslı bir büyük dil modeli eğiten DeepSeek’in duyurusu, ABD’li çip üreticisi Nvidia’nın piyasa değerinden 593 milyar doları sildi.50

DeepSeek’in araştırmacıları yöntemlerini Ocak 2025’te ana hatlarıyla sundu. Modellerinin tasarımında, Çinli Alibaba’nın geliştirdiği Qwen ve Meta’nın geliştirdiği Llama adlı açık kaynak büyük dil modellerini temel alarak, “düşünce silsilesi” (chain‑of‑thought) olarak bilinen bir akıl yürütme tekniğini uygulamışlar.51 Bu alandaki araştırma literatürünün büyük bölümünde olduğu gibi, makale modele atfedilen “zekâ” ve “akıl yürütme” kapasitesine dair insanbiçimci bir dil ve sorgulanmamış varsayımlarla yüklü olsa da, ana noktalar görece kolay anlaşılır. Düşünce silsilesi model mimarileri, büyük dil modelini bir çıktıyı (örneğin bir sorunun yanıtını) üretme sürecindeki ara adımları yazıya dökerek “çözüm yolunu göstermeye” yönlendirir ve tasarımcıların doğru olduğuna inandığı yanıtların üretilmesini teşvik etmek için “pekiştirmeli öğrenme” (reinforcement learning) adı verilen yaygın tekniği kullanır. Diğer makine öğrenimi araştırmacıları tarafından geliştirilen görev ve çözüm setlerine dayalı olarak geliştirilmiş DeepSeek’in R1 modeli, OpenAI’ın büyük dil modellerinden birinin seviyesine çok daha düşük maliyetle erişmiş ya da hatta onu aşmıştır.

Verimlilik kazanımındaki ciddi artış ve makine öğrenimi modeli üretimini yeniden şekillendirme potansiyeli hafife alınmamalıdır. Google’dan bir araştırma ekibinin 2017’de geliştirdiği transformer (dönüştürücü) model mimarisi, mevcut büyük makine öğrenimi modeli kuşağının çoğuna ve dolayısıyla eğitim verisinin muazzam miktarda büyütülmesine ve metin işleme görevlerindeki performans sıçramalarına zemin hazırladı.52 Veriyi ardışık işleyen önceki model mimarilerinin aksine, transformer’lar eğitim sürecinin çok daha büyük bir bölümünün paralel yürütülmesini mümkün kıldı. Bu da geçmişe kıyasla çok daha büyük veri kümeleri üzerinde modeller kurulabilmesini sağladı. Model mimarisindeki bu değişim, her geçen gün daha büyük “büyük dil modelleri” inşa etme yarışını hızlandırmak ve dolayısıyla yukarıda ana hatlarıyla değinilen süper hesaplama sistemlerinin genişlemesini beslemek dâhil, gerçek dünyada dramatik etkiler yarattı.

Devlete geri dönmek

22 Ocak 2025’te, DeepSeek’in R1 modellerini ve kodunu yayınlamasından iki gün sonra, Scale AI’ın CEO’su Alexandr Wang, Trump’a ABD hükümetinin “yapay zeka savaşını nasıl kazanabileceğini” anlatan, hafif paniğe kapılmış bir üsluptaki mektubunu yayınladı.53 Wang, ABD yönetimini, Çin’in tam aksine, yapay zeka üretiminin temel sütunları olan hesaplama, veri ve modeller içinden “hesaplama” ayağına odaklanmak yerine algoritmalara odaklanarak yatırımları yanlış tahsis etmekle payladı ve şöyle yazdı:

 “Yalnızca daha az harcamıyoruz. Aynı zamanda yanlış harcıyoruz. Kazanmak için, hükümetimizin, yatırım stratejimizi sanayinin ihtiyaçlarına göre değiştirerek uyum sağlaması gerekir. Sonra da yalnızca Çin’in uygulama ve piyasaya sürme odaklı yapay zeka yatırımlarına yetişmekle kalmamalı, onu aşmalıyız.”54

Wang’ın daha müdahaleci bir ABD devleti çağrısı, özellikle askerî sanayiler etrafında kümelenen bir kısım yapay zeka şirketinin, yatırım ölçeğinin çok daha fazla büyütülmesinden yana olduğunu gösteriyor. Ne de olsa Amazon Web Services (AWS) ve Google örneklerinde olduğu gibi, ağ altyapısı sağlayan birçok büyük teknoloji şirketi zaten milyarlarca dolarlık sermaye harcamasını taahhüt etmiş durumda.

Şubat 2025’te Amazon, bu yıl için yaklaşık 100 milyar dolar harcamayı planladığını açıkladı. Bu rakam, 2008’den beri arazi, tesis ve ekipman için harcanan toplam paranın beşte birine denktir.55 Bu, son on beş yılda zaten hızla yükselmekte olan arazi, tesis ve ekipman harcamalarına yapay zeka hizmetlerinin yarattığı talebin etkisini gösteriyor. Benzer harcama eğilimleri Çin’in büyük teknoloji şirketlerinde de görülmekte. Alibaba 2025’te 52 milyar dolar, ByteDance 20 milyar dolar harcama planlarını açıklarken Tencent “on küsur milyar dolar” düzeyinde yatırım öngörmektedir.56

Wang’ın mektubunun ima ettiği gibi, Çinli şirketlerin kamuoyuna açıkladıkları yatırım rakamları, Çin devletinin yapay zeka geliştirmeye yönelik taahhüdünün tam ölçeğini yansıtmaz. ABD’li yapay zeka şirketleri ve hükümet yetkilileri, Çin’in yapay zeka araştırmasını felce uğratmak üzere tasarlanan ve kritik teknolojilere erişimini engelleyen ABD ihracat kontrollerine rağmen Çinli şirketin kayda değer verimlilik kazanımları elde etmesinden ötürü DeepSeek’in atılımından ürkmüş durumdalar. Hatta, ileri çiplere erişimi kısmaya dönük ABD çabalarının, Çin’in yapay zeka üretim sanayisinde araştırma ve inovasyonunu bastırmak yerine teşvik etmiş olması gayet mümkündür. ABD tarihinde, jeopolitik krizlerin teknolojik inovasyonda sıçramalara yol açan nispeten kapalı “sıcak sera” etkileri yarattığına dair bolca örnek var. İkinci Dünya Savaşı sırasında doğal kauçuğa erişimin kesilmesi nedeniyle ABD’de sentetik kauçuk üretiminin gelişmesi bunun güzel bir örneğidir. Devletin, petrokimya sanayisiyle işbirliği içindeki ağır müdahalesi, savaş sonrasında ABD kapitalizminin petrol güdümlü genişlemesinin kritik bileşeni hâline gelen bir alternatifin geliştirilmesini hızlandırmış oldu.57

Askerî‑endüstriyel‑tanrı kompleksiyle yüzleşmek

Yeni nesil “yapay zekalı savunma teknolojisi kapitalistleri”, Wang ya da Palantir şirketinden Alex Karp ve Shyam Sankar, 1940’lar ve 1950’lerden tam da bu tür örneklere takılmış durumda. Amerikan imalatının, teknolojik araştırmanın ve askerî endüstriciliğin altın çağına duyulan nostaljiyle, yurtseverlik ve “Batı”yı savunma ihtiyacı fikirlerini harmanlıyorlar.58 Bu perspektif, başkan yardımcısı JD Vance dâhil Trump yönetiminde güçlü destekçilere sahip. Mart 2025’teki “Amerikan Dinamizmi” yatırım zirvesinde Vance, merkezinde yapay zekanın bulunduğu bir “Amerikan sanayi rönesansı” vizyonu ortaya koydu. Vance’a göre küreselleşme, işlerin işçilik maliyetlerinin düşük olduğu yerlere kaydırılması nedeniyle başarısız oldu ve bu da rakip devletlerin ABD’yi geride bırakma yoluna girmesine yardımcı oldu. Sözlerini şöyle sürdürdü:

“Bence yanıldık. Meğer imalatı yapan coğrafyalar, tasarımda da olağanüstü iyi hâle geliyormuş. Hepinizin gayet iyi bildiği gibi ‘iş çevresi’ etkisi var. Ürün tasarlayan firmalar, imâlat yapan firmalarla birlikte çalışır. Fikri mülkiyeti paylaşırlar. En iyi pratikleri paylaşırlar. Hatta bazen kritik çalışanları bile paylaşırlar. Biz diğer ulusların, daima değer zincirinde arkamızdan geleceğini varsaydık. Oysa değer zincirinin alt ucunda iyileştikçe, üst uca da yetişmeye başladılar. İki uçtan sıkıştırıldık.”59

Vance, dinleyicilere bir alternatif de sundu: imalat süreçlerini ABD’ye geri taşımak, montaj hattında yapay zeka ile verimliliği artırmak, tüm üretimi “Birleşik Arap Emirlikleri’ndeki dostlarımızdan” bolca edindiğimiz fosil yakıt enerjisiyle beslemek ve göçmen emeğini dışarıda tutmak için askerileştirilmiş bir sınır rejimi uygulamak (Ki bu da Palantir ve diğerlerinin sağladığı yapay zeka teknolojilerinin bir başka kullanım alanı). Vance kapanışta, bu ölümcül sanayi üstünlüğü yarışında savaşın rolünün farkında olduğunu da gösterdi: “İster geleceğin savaşı, ister geleceğin işleri, ister geleceğin ekonomik refahı olsun, bunların tümünü Amerika Birleşik Devletleri’nde, burada inşa etmemiz gerektiğine inanıyoruz.”60

Amerikan Dinamizmi Zirvesinin katılımcıları arasında benzer argümanlar dile getirenler çoktu. İnsansız hava aracı üreticisi Adam Bry, Vance’in açılış konuşmasının ardından katıldığı bir panelde, dronların kitlesel üretiminin ülkenin yeniden sanayileşmesinde “ibrenin yerini nasıl değiştirebileceğini” tasvir etti. Ukrayna ordusunun cephede yılda 1.000.000 dronu tükettiğini belirtti. Buradan hareketle Bry şu argümanı savundu:

“Yeniden sanayileşme meselesinde askerî alım gücünün muazzam fark yarattığı nokta işte tam da burasıdır. Tüketici sivil dört pervaneli dron pazarları, tek haneli milyar dolarlar seviyesinde ölçülür. Bunun, bu alanda ordunun harcaması gereken düzeyle karşılaştırılabilir olduğunu söylemem gerekir.”61

Dron savaşları, özellikle bir arı sürüsü gibi davranan otonom araçlar bağlamında, yapay zeka araştırmasının askerî uygulamalarının hararetle tartışıldığı alanlardan biri. Yirmi yıl önce ABD ordusu, bambaşka tür silahlarla savaşan düşmanlara karşı emperyalist hava gücünün teknolojik “yığınının” en alt seviyesinde dronları konuşlandırıyordu. Bugün dronlar ucuza temin edilebiliyor, üretimleri nispeten kolay ve savaş meydanında çok geniş roller üstlenebiliyorlar.62 Ticari dronlar GPS ve iletişim bağlantılarına ihtiyaç duyarlar ve bu nedenle radyo karıştırılmasıyla (radio jamming) kolayca işlevsiz hâle getirilebilirler. Dron imalatındaki inovasyon cephelerinden biri elektronik harp koşullarında seyrüseferi mümkün kılacak makine öğrenimi temelli bilgisayarlı görü sistemleridir. Dronlar için “arı sürüsü” davranışı bir diğer güncel askerî yapay zeka araştırma alanıdır. Örneğin İsrail ordusu 2022 ve 2023’te, Massachusetts Teknoloji Enstitüsü’nde (MIT) çalışan araştırmacılara bu konu üzerinde çalışma siparişi vermiştir.63

Gazze’deki katliam sahneleri, İkinci Dünya Savaşı’ndan bu yana nadiren görülen ölçekte insana yönelik pervasız yıkımın normalleştirilmesinde önemli bir rol oynadı ve yapay zeka teknolojileri bunun tam kalbinde yer alıyor. İsrail’in kitlesel gözetleme sistemlerinden, öldürme listeleri üreten makine öğrenimi modellerine ve mülteci kamplarında yaralı çocukları vuran dronlara kadar, sürmekte olan soykırımın her yanında yapay zeka bulunmaktadır.64 Teknolojik militarizmin bu yeni çağının peygamberlerinin sürdürmeyi sevdiği ısrarlı yalanlardan biri, “hassas, ince ayar” saldırılar sağladıklarıdır. Anlatıya göre yapay zeka sayesinde sivillerin hayatı güya korunmaktadır. Oysa İsrail’in Gazze’deki bombardıman kampanyasının merkez üssünde yarattığı tekinsiz tenhalık, Ağustos 1945’te nükleer bombalamadan sonra Hiroşima’nın kalbindeki kavrulmuş topraklara ya da aynı yıl Şubat’taki Müttefik hava saldırılarının ardından Dresden’in ateşle kavrulmuş kalıntılarına daha yakın bir başka hikâye anlatıyor.

Yapay zeka savaşlarının yeni efendileri olma hevesindekiler en azından geçmişteki kitle imha silahlarıyla karşılaştırmalar yaparak dürüst davranıyorlar. Bry’nin sözleriyle: “Bir birey için nükleer bir silahı ateşlemek berbat, korkunç, korkunç bir şeydir. Ancak siz ve hasmınızın nükleer silahlara sahip olduğu bir dünyadan daha kötü olan tek dünya, yalnızca hasmınızın [nükleer silahlara] sahip olduğu bir dünyadır.”65

Elbette ne savunma teknolojisi girişimcileri ne de Vance, ABD kapitalist sınıfının tüm çıkarlarını temsil eder. Hatta bunlar sadece önde gelen ABD teknoloji şirketlerinin tümünün çıkarlarını bile temsil etmiyorlar. Trump’ın tarifeleri, yalnızca uluslararası tahvil piyasalarından değil, Nvidia, Amazon ve Apple gibi büyük teknoloji firmaları dâhil geniş bir ABD kapitalist kesiminden gelen yoğun lobi baskısı yoluyla da muazzam bir baskı altına girdi. Özellikle Nvidia, 15 Mayıs 2015’te yürürlüğe girmesi planlanan ve yapay zeka çiplerinin ihracatı için özel hükümet onayı gerektirecek “AI Diffusion Rule” (Yapay Zeka Yayılımı Yönetmeliği)  konusunda yönetimden büyük bir geri adım koparmış görünüyor. Bu yönetmelik, Çin dâhil uluslararası pazarlardaki kârlarını vuracaktı.66 Bunun Trump’la yüzleşme değil de yaltaklanma yoluyla elde edilmiş olması fark etmez. Açık ki, bu kritik alanda bile, ABD devleti Karp’ın fantezilerinde tasavvur edildiği kadar mutlak güce sahip değil ve kendi büyük kapitalistleriyle hâlâ pazarlık etmek zorunda.

Yapay zeka teknolojilerini benimseme yarışının altında yatan varsayımlarda çok daha temel bir sorunlar dizisi var, ki Marx bunu, büyük ölçekli makineler analizinde ortaya koymuştu. Herhangi bir üretim sürecinin makineleşmesi, bu tekniği ilk kullanan kapitalistlere, emeklerinden çıkardıkları artı değerin daha büyük bir kısmını kapma imkânı vererek fayda sağlayabilir. Marx, bunun iş yoğunluğunu artırma, çalışma gününü uzatma ve işçi sınıfının yeni katmanlarının sömürülmesi yoluyla işgücünü genişletme dâhil çeşitli yollarla gerçekleşebileceğini belirtir. Ne var ki bunun bütün sistem üzerindeki etkisi yıkıcıdır. Çünkü tüm değerin kaynağı olan canlı emek gücünün payı canlı işçiler, seleflerinin ölü emek ürünleri olan makinelerle çevrili biçimde çalışırken küçülür. Zamanla yükselen bu “sermayenin organik bileşimi”, kâr oranının uzun dönemli düşme eğiliminin başlıca etmenidir.67 Açık konuşursak, hiçbir miktarda robot, kapitalizmin uzun erimli krizini çözmeyecektir. Tersine, robotları inşa etmek, sistem genelinde aşağı yönlü istatistikleri şiddetlendirecektir. Bu, geçici toparlanmaların imkânsız olduğu anlamına gelmez. Ekonomik kriz dönemlerindeki konjonktürel durgunluklar, sermayeyi tahrip ederek sistem genelinde ölü emek ile canlı emek arasındaki dengeyi yeniden kurabilir.

Savaşlar, sistemi tıkayan sermayeyi temizlemenin bir başka mekanizmasıdır ve sistemi resetlemeye imkân sağlar. İçinde bulunduğumuz dönemin tehlikelerinden biri, ABD yönetici sınıfının ve Çin’deki muadillerinin, müttefiklerinin çoğu ve büyük güç rakipleriyle birlikte, “geleceğin savaşı”na hazırlıkla doğrudan bağlantılı, devletler arası sanayi rekabetinin ölümcül mekanizmalarını tırmandırıyor olmalarıdır. Üretim araçlarını, yok etme araçlarını yaratmaya odaklamak geçmişten bildiğimiz üzere, enerji ağlarının inşasında, maden ve su kaynaklarının ele geçirilmesinde, sanayi montaj hatlarının genişletilmesinde ve sayısız işçi ordusunun seferber edilmesinde yoğun bir rekabet doğurur. Tam da bu nedenle yapay zeka teknolojilerini insan emeğinin ürünleri olarak net biçimde analiz etmek elzemdir. Bugünün dünyasında bizi savaşa doğru çeken girdabı durdurmak için yapabileceğimiz hiçbir şeyin olmadığını bize fısıldayan yanılsamadan daha tehlikelisi yok. Direniş her zaman bereketlidir ve yapay zekaya güç veren görünmez emeği görünür kılmak, gerçek düşmanlarımıza karşı daha etkili biçimde seferber olabileceğimiz yeni bir zemin açabilir.

Dipnotlar:

  1. Marx, 2024, s. 351.
  2. Makine öğrenimi modellerindeki istatistiksel koleksiyonlar ve matematiksel fonksiyonlar, pek çok nedenle yapay zeka olarak adlandırılır. Ancak önemli bir neden de, bunların aslında “robot beyinleri” olduğuna ikna ederek yatırımcıları daha kolay heyecanlandırabilirsiniz. Matteo Pasquinelli’nin yapay zekanın toplumsal tarihi üzerine çalışması bu tür fikirlere gerekli bir karşı ses üretir ve bu alanda Marksist kurama önemli bir katkıdır. Ancak Pasquinelli’nin yaklaşımının sınırlılıkları da vardır, özellikle, sermaye birikimi için temel olan “çok sayıda efendi” arasındaki rekabet meselesiyle yeterince yüzleşmemesi ve bu süreçte devletlerin rolüne yeterince dikkat göstermemesi nedeniyle. Pasquinelli, 2023.
  3. Eğitim verilerim çocuk kitapları yazarı Dr Seuss’ın eserlerinden oluşuyorsa “the cat…” (kedi) ifadesinin “in the hat” (şapka takan) sözleriyle tamamlanması muhtemeldir. Ancak eğitim verilerim William Shakespeare’in eserleri ise “the cat…” (kedi) ifadesi “hat” (şapka) ile değil, başka sözcüklerle, örneğin “dog” (köpek) ve “mouse” (fare) daha yakından ilişkilidir. İki metin setinde kedi, şapka, köpek ve fare kelimeleri arasındaki uzaklık hesaplanıp istatistik olarak ifade edilebilir. Dahası bu istatistikler, metin setlerini yazarlarının adlarıyla değil, veri kümeleri olarak içsel yapıları üzerinden birbirinden ayırmanın faydalı bir yolu olarak da ortaya çıkar. Bu metinleri ayırt edici kılan özellikleri keşfetmek için her birine bir bütün olarak bakmak zorunludur. Bu sayede ortak olanları ve onları birbirinden ayıranları görebiliriz. Metinler “tokenlaştırma” (parçacıklaştırma) sürecinde kelimelerden daha küçük parçalara ayrıldığından, neolojizmler (tamamen yeni sözcükler) üretmek de mümkündür.
  4. Bir dil modelinden çıkan şey, yalnızca istatistiksel bir süreçle üretilmiş bir metindir ancak başka bir varlıkla diyalog izlenimi veren sohbet‑botu (chatbot) formu, güçlü bir “yapay dil” yanılsamasını yaratır.
  5. Her zaman olmasa da. Görüntü sınıflandırıcılar bazen insan gözüne görünmeyen biçimlerde hataya düşer; bkz. Karpathy, 2015.
  6. Turing, 1950.
  7. Narayanswamy ve diğerleri, 2024
  8. BytePlus Yazı Ekibi, 2025.
  9. Lee, 2024. Bu özel kaynak, Nvidia’nın pazarlama departmanının bir tanıtım metnidir. Ancak “ulusal” özellikler taşıyan temel modeller üretme yarışının gerçekliğinden kuşku yoktur. Bu, OpenAI gibi şirketlerden iç norm ve kurallarına göre ayarlanmış modeller satın alabilen kuruluşlar için işleyen benzer bir süreci yansıtır.
  10. Vaswani ve diğerleri, 2017.
  11. Shehabi ve diğerleri, 2024; Spencer ve Singh, 2025.
  12. Spencer ve Singh, 2025.
  13. Shehabi ve diğerleri, 2024, s. 6.
  14. Ye, 2025.
  15. Goldman Sachs, 2025.
  16. Shehabi ve diğerleri, 2024
  17. Spencer ve Singh, 2025.
  18. Ambrose, 2024.
  19. Beyond Fossil Fuels, 2025.
  20. Pilz, 2025.
  21. Sebastian, 2024.
  22. Robbinson, 2024; Kimball, 2025.
  23. Barratt ve diğerleri, 2025.
  24. Digital Realty, tarih yok.
  25. McKenzie, 2023.
  26. Shilov, 2025. Görünüşe göre 2 nm tanımı artık maddi bakımdan anlamlı olmaktan ziyade esasen bir pazarlama etiketidir. Bununla birlikte TSMC’nin yarı iletkenler için anahtar bellek devresi türü olan SRAM’ı ölçeklendirmeye devam ettiğine dair iddiaları pratikte doğrulanırsa, bu büyük bir gelişme olacaktır.
  27. Bowman, 2024, s. 1.
  28. Miller, 2023.
  29. Clarke, 2025.
  30. Shilov, 2024.
  31. Greenpeace, 2025.
  32. Wang ve diğerleri, 2023.
  33. Weatherbed, 2025.
  34. Trueman, 2024.
  35. Pilz, 2025.
  36. Dodge ve diğerleri, 2021.
  37. Codega, 2023.
  38. Gerçi bu işlem çok da tutarlı yapılmamaktadır. Araştırmacılar, görüntü eğitim veri kümelerinde ırkçı, cinsiyetçi ve istismarcı görsellerin, çocuk istismarına ilişkin görüntüler dâhil, örneklerini sıkça tespit etmektedir.
  39. Kgomo, 2025.
  40. Lyons, tarih yok.
  41. Lyons, 2021.
  42. Deng ve diğerleri, 2009.
  43. Veselovsky ve diğerleri, 2023.
  44. Scale’ın üretim sürecinin sağlamlığına ya da etiğine ilişkin iddialarını peşinen doğru kabul etmeye gerek yok. Burada önemli olan, bunun 20 yıl önce MTurk’ün işleyişinden temelden farklı bir süreç olduğunu not etmektir.
  45. Kgomo, 2025; Anwar, 2025.
  46. Longpre ve diğerleri, 2024.
  47. Creamer, 2025.
  48. Wiggers, 2025; Maher, 2025.
  49. Quinn, 2024; Amin ve Geoghegan, 2025.
  50. Carew ve diğerleri, 2025.
  51. DeepSeek‑AI ve diğerleri, 2025.
  52. Vaswani ve diğerleri, 2017.
  53. Wang, 2025.
  54. Wang, 2025.
  55. Morgan, 2025.
  56. Vance, 2025.
  57. Hanieh, 2024.
  58. Karp ve Zamiska, 2025.
  59. Vance, 2025.
  60. Vance, 2025.
  61. A16Z, tarih yok.
  62. Aralık 2024’te Şam’ı ele geçirirken HTŞ’nin dron kullanımı için bkz. (Alexander, 2025).
  63. MIT Coalition for Palestine, 2024, s. 38–39.
  64. Amnesty International, 2023; Iraqi, 2024; Al Jazeera, 2025.
  65. A16Z, tarih yok.
  66. Weatherbed, 2025.
  67. Roberts, 2022.

 

Kaynakça

Al Jazeera staff, 2025, “Israel Retrofitting DJI Commercial Drones to Bomb and Surveil Gaza”, Al Jazeera (8 May), www.aljazeera.com/news/2025/5/8/israel-retrofitting-dji-commercial-drones-to-bomb-and-surveil-gaza.

Ambrose, Jilian, 2024, “Ireland’s Datacentres Overtake Electricity Use of All Urban Homes Combined”, Guardian (23 July), www.theguardian.com/world/article/2024/jul/23/ireland-datacentres-overtake-electricity-use-of-all-homes-combined-figures-show.

Amin, Lucas, and Peter Geoghegan, 2025, “Palantir’s NHS Data Platform Rejected by Most Hospitals”, Democracy for Sale, democracyforsale.substack.com/p/palantirs-nhs-data-platform-rejected-hospitals.

Amnesty International,2023, “Israel and Occupied Palestinian Territories: Automated Apartheid: How Facial Recognition Fragments, Segregates and Controls Palestinians in the OPT”, https://www.amnesty.org/en/documents/mde15/6701/2023/en/.

Anwar, Mohammed Amir, 2025, “Africa’s Data Workers Are Being Exploited by Foreign Tech Firms 4 Ways to Protect Them”, Conversation, http://theconversation.com/africas-data-workers-are-being-exploited-by-foreign-tech-firms-4-ways-to-protect-them-252957.

Barratt, Luke, Andrew Witherspoon, Aliya Uteuova, Costanza Gambarini, and Andrew Witherspoon, 2025, “Revealed: Big Tech’s New Datacentres Will Take Water from the World’s Driest Areas”, Guardian, (9 April), www.theguardian.com/environment/2025/apr/09/big-tech-datacentres-water.

Beyond Fossil Fuels, 2025, “New Data Centres Could Undermine Europe’s Energy Transition, Eating into Its Emissions Cuts, Study Finds”, https://beyondfossilfuels.org/2025/02/10/new-data-centres-could-undermine-europes-energy-transition-eating-into-its-emissions-cuts

Bowman, Jeffrey 2024. “This 1 Number May Ensure TSMC’s Market Dominance”, The Motley Fool (17 August), https://www.fool.com/investing/2024/08/17/this-1-number-may-ensure-tsmcs-market-dominance/.

BytePlus Editorial Team, 2025, “Understanding GPU Hours: A Comprehensive Guide”, https://www.byteplus.com/en/topic/383636?title=understanding-gpu-hours-a-comprehensive-guide.

Carew, Sinéad, Amanda Cooper, and Ankur Banerjee, 2025, “DeepSeek Sparks AI Stock Selloff; Nvidia Posts Record Market-Cap Loss”, Reuters (28 January), www.reuters.com/technology/chinas-deepseek-sets-off-ai-market-rout-2025-01-27/.

Clarke, Peter, 2025. “TSMC Opens up 2nm Wafer Fab, Races to Mass Production”, eeNews Europe, www.eenewseurope.com/en/tsmc-opens-up-2nm-wafer-fab-races-to-mass-production

Codega, Linda, 2023, “Chatbots Have Stolen Fanfiction From a Gift Culture” Gizmodo, https://gizmodo.com/ai-chatbot-fanfiction-fanfic-archive-of-our-own-1850524393

Creamer, Ella, 2025. “‘Meta Has Stolen Books’: Authors to Protest in London against AI Trained Using ‘Shadow Library’” Guardian (3 April), www.theguardian.com/books/2025/apr/03/meta-has-stolen-books-authors-to-protest-in-london-against-ai-trained-using-shadow-library

DeepSeek-AI, Daya Guo, Dejian Yang, Haowei Zhang, Junxiao Song, Ruoyu Zhang, Runxin Xu, and others, 2025, “DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via Reinforcement Learning”, Deepseek.

Deng, Jia, Wei Dong, Richard Socher, Li-Jia Li, Kai Li, and Li Fei-Fei, 2009, “ImageNet: A Large-Scale Hierarchical Image Database”, 2009 IEEE Conference on Computer Vision and Pattern Recognition.

Digital Realty, no date, “Direct Liquid Cooling in Data Centres”, Digital Realty, www.www.digitalrealty.co.uk/resources/articles/direct-liquid-cooling-in-data-centres?t=1747515225477?latest

Dodge, Jesse, Maarten Sap, Ana Marasović, William Agnew, Gabriel Ilharco, Dirk Groeneveld, Margaret Mitchell, and Matt Gardner, 2021, “Documenting Large Webtext Corpora: A Case Study on the Colossal Clean Crawled Corpus”, https://arxiv.org/abs/2104.08758

Goldman Sachs, 2025, “Data Centers Could Boost European Power Demand by 30%”, (7 February), www.goldmansachs.com/insights/articles/data-centers-could-boost-european-power-demand-by-30-percent

Greenpeace, 2025, Semiconductor Industry Electricity Consumption to More than Double by 2030: Studywww.greenpeace.org/eastasia/press/7930/semiconductor-industry-electricity-consumption-to-more-than-double-by-2030-study/.

Hanieh, Adam, 2024. Crude Capitalism (Verso).

Iraqi, Amajd, 2024, “‘Lavender’: The AI Machine Directing Israel’s Bombing Spree in Gaza”, +972 Magazine, www.972mag.com/lavender-ai-israeli-army-gaza

Karp, Alexander C, and Nicholas W Zamiska, 2025, The Technological Republic: Hard Power, Soft Belief, and the Future of the West (Penguin Books).

Karpathy, Andrej, 2015, “Breaking Linear Classifiers on ImageNet,” Andrej Karpathy Blog, https://karpathy.github.io/2015/03/30/breaking-convnets

Kgomo, Sonia, 2025, “I Was a Content Moderator for Facebook. I Saw the Real Cost of Outsourcing Digital Labour”, Guardian (12 February), www.theguardian.com/commentisfree/2025/feb/12/moderator-facebook-real-cost-outsourcing-digital-labour

Kimball, Spencer, 2025. “Trump Wants Coal to Power AI Data Centers. The Tech Industry May Need to Make Peace with That for Now”, CNBC, www.cnbc.com/2025/05/17/trump-wants-coal-to-power-ai-data-centers-the-tech-industry-is-wary-.html

Lee, Angie, 2024. “What Is Sovereign AI?” NVIDIA Blog, https://blogs.nvidia.com/blog/what-is-sovereign-ai

Longpre, Shayne, Robert Mahari, Ariel Lee, Campbell Lund, Hamidah Oderinwale, William Brannon, Nayan Saxena, and others, 2024, “Consent in Crisis: The Rapid Decline of the AI Data Commons”, http://arxiv.org/abs/2407.14933

Lyons, Michael J, 2021, “‘Excavating AI’ Re-Excavated: Debunking a Fallacious Account of the JAFFE Dataset”, http://arxiv.org/abs/2107.13998

Lyons, Michael J, no date, “Papers with Code—JAFFE Dataset,” Papers with Code, https://paperswithcode.com/dataset/jaffe

Maher, Bron, 2025. “‘Unsustainable Status Quo’: AI Companies and Publishers Respond to Govt Copyright Consultation”, Press Gazette, https://pressgazette.co.uk/media_law/uk-government-govt-ai-copyright-consultation-responses

Marx, Karl, 2024 [1867], Capital, Volume 1 (Princeton University Press).

McKenzie, James, 2023. “Moore’s Law: Further Progress Will Push Hard on the Boundaries of Physics and Economics”, Physics World, https://physicsworld.com/moores-law-further-progress-will-push-hard-on-the-boundaries-of-physics-and-economics

Miller, Chris, 2023. Chip War: The Fight for the World’s Most Critical Technology (Simon & Schuster UK Ltd).

MIT Coalition for Palestine, 2024, “MIT Science For Genocide”, http://archive.org/details/mit-science-for-genocide.

Morgan, Timothy Pricket, 2025, “Amazon Will Spend Nearly A Year Of AWS Revenue On AI Investments”, The Next Platform, www.nextplatform.com/2025/02/07/amazon-will-spend-nearly-a-year-of-aws-revenue-on-ai-investment

Narayanswamy, Girish, Xin Liu, Kumar Ayush, Yuzhe Yang, Xuhai Xu, Shun Liao, Jake Garrison, and others, 2024, “Scaling Wearable Foundation Models”, http://arxiv.org/abs/2410.13638

Pasquinelli, Matteo, 2023, The Eye of the Master (Verso).

Pilz, Konstantin F, 2025, “Trends in AI Supercomputers”, Epoch AI, https://epoch.ai/blog/trends-in-ai-supercomputers

Quinn, Ben, 2024. “Tech Firm Palantir Spoke with MoJ about Calculating Prisoners’ ‘Reoffending Risks’”, Guardian (16 November), www.theguardian.com/technology/2024/nov/16/tech-firm-palantir-spoke-with-moj-about-calculating-prisoners-reoffending-risks

Reuters, 2025a, “Exclusive: ByteDance Plans $20 Billion Capex in 2025, Mostly on AI, Sources Say” (23 January), www.reuters.com/technology/bytedance-plans-20-billion-capex-2025-mostly-ai-sources-say-2025-01-23

Reuters, 2025b, “Tencent Joins China’s AI Spending Race with 2025 Capex Boost”, Reuters (19 March), www.reuters.com/technology/tencent-joins-chinas-ai-spending-race-with-2025-capex-boost-2025-03-19

Robbinson, Dan, 2024, “AI Datacenters Are Keeping Coal-Fired Power Stations Busy”, Register (14 October), www.theregister.com/2024/10/14/ai_datacenters_coal

Roberts, Michael, 2022, “A World Rate of Profit: Important New Evidence”, The Next Recession, https://thenextrecession.wordpress.com/2022/01/22/a-world-rate-of-profit-important-new-evidence

Sebastian, Moss, 2024, “Three Mile Island Nuclear Power Plant to Return as Microsoft Signs 20-Year, 835MW AI Data Center PPA”, Data Center Dynamics (20 September), www.datacenterdynamics.com/en/news/three-mile-island-nuclear-power-plant-to-return-as-microsoft-signs-20-year-835mw-ai-data-center-ppa

Shehabi, Arman, Sarah Smith, Dale Sartor, Jonathan Koomey, Eric Masanet, Billie Holecek, Md Abu Bakar Siddik, Nuoa Lei, and Alex Newkirk, 2024, United States Data Center Energy Usage Report (Lawrence Berkely National Laboratory).

Shilov, Anton, 2024, “US Department of Commerce Finalizes $6.6 Billion CHIPS Act Funding for TSMC Fab 21 Arizona Site”, Tom’s Hardware (15 Novembe3), www.tomshardware.com/tech-industry/u-s-department-of-commerce-finalizes-usd6-6-billion-chips-act-funding-for-tsmc-fab-21-arizona-site

Shilov, Anton, 2025. “TSMC’s 2nm N2 Process Node Enters Production This Year, A16 and N2P Arriving next Year.” Tom’s Hardware (24 April), www.tomshardware.com/tech-industry/tsmcs-2nm-n2-process-node-enters-production-this-year-a16-and-n2p-arriving-next-year

South China Morning Post, 2025, “Alibaba’s US$52 Billion Capex Seen as Catalyst for China’s Big Tech in AI Race” Yahoo Finance (26 February), https://finance.yahoo.com/news/alibabas-us-52-billion-capex-093000887.html

Spencer, Thomas, and Siddharth Singh, 2025, “Energy and AI”, International Energy Agency, https://iea.blob.core.windows.net/assets/34eac603-ecf1-464f-b813-2ecceb8f81c2/EnergyandAI.pdf

Trueman, Charlotte, 2024, “Canon Ships Its First Nanoprint Lithography Machine, Rivals ASML”, Data Center Dynamics (1 October), www.datacenterdynamics.com/en/news/canon-ships-its-first-nanoprint-lithography-machine-rivals-asml

Turing, Alan, 1950, “Computing Machinery and Intelligence”, Mind 59 (October).

Vance, JD, 2025. “Remarks by the Vice President at the American Dynamism Summit”, The American

Presidency Project, https://www.presidency.ucsb.edu/documents/remarks-the-vice-president-the-american-dynamism-summit.

Vaswani, Ashish, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser, and Illia Polosukhin, 2017, “Attention Is All You Need” (5 December), http://arxiv.org/abs/1706.03762

Veselovsky, Veniamin, Manoel Horta Ribeiro, and Robert West, 2023, “Artificial Artificial Artificial Intelligence: Crowd Workers Widely Use Large Language Models for Text Production Tasks”, http://arxiv.org/abs/2306.07899

Wang, A. 2025. “America Must Win the AI War.” Scale AI Websitehttps://scale.com/blog/win-the-ai-war

Wang, Qi, Nan Huang, Zhuo Chen, Xiaowen Chen, Hanying Cai, and Yunpeng Wu, 2023, “Environmental Data and Facts in the Semiconductor Manufacturing Industry: An Unexpected High Water and Energy Consumption Situation”, Water Cycle, Volume 4Weatherbed, Jess, 2025. “Nvidia’s Flattery of Trump Wins Reversal of AI Chip Limits and a Huawei Clampdown”, The Verge, www.theverge.com/news/666605/nvidias-flattery-of-trump-wins-reversal-of-ai-chip-limits-and-a-huawei-clampdown

Wiggers, Kyle, 2025, “Google Calls for Weakened Copyright and Export Rules in AI Policy Proposal”, TechCrunch, https://techcrunch.com/2025/03/13/google-calls-for-weakened-copyright-and-export-rules-in-ai-policy-proposal

xAI, no date, “Colossus | xAI”, https://x.ai/colossus

Ye, Yuan, 2025. “Explainer: How China Is Managing the Rising Energy Demand from Data Centres”, Carbon Brief, https://www.carbonbrief.org/explainer-how-china-is-managing-the-rising-energy-demand-from-data-centres

sosyalizm