Published in  
Röportajlar
 on  
October 24, 2025

Non-Fact Çağında Gerçekle Oyun Oynamak: Polonyalı sanatçı Martyna Marciniak ile yapay zeka, sanat ve etik üzerine

Polonya doğumlu, Berlin merkezli sanatçı ve araştırmacı Martyna Marciniak, teknolojinin sınırlarında dolaşan işler üretirken “görsel gerçeklik” ile “algısal gerçeği” sorguluyor. Ars Electronica İstanbul’da sahne alan projesi Anatomy of Non-Fact, yapay zekâ, veri ve sahtelik ilişkisini doğrudan sahneye taşıyor
Kategori
Röportajlar
Tarih
24/10/25

Non-Fact Çağında Gerçekle Oyun Oynamak: Polonyalı sanatçı Martyna Marciniak ile yapay zeka, sanat ve etik üzerine

Polonya doğumlu, Berlin merkezli sanatçı ve araştırmacı Martyna Marciniak, teknolojinin sınırlarında dolaşan işler üretirken “görsel gerçeklik” ile “algısal gerçeği” sorguluyor. Ars Electronica İstanbul’da sahne alan projesi Anatomy of Non-Fact, yapay zekâ, veri ve sahtelik ilişkisini doğrudan sahneye taşıyor

Kategori
Röportajlar
Tarih
24/10/25

Non-Fact Çağında Gerçekle Oyun Oynamak: Polonyalı sanatçı Martyna Marciniak ile yapay zeka, sanat ve etik üzerine

Polonya doğumlu, Berlin merkezli sanatçı ve araştırmacı Martyna Marciniak, teknolojinin sınırlarında dolaşan işler üretirken “görsel gerçeklik” ile “algısal gerçeği” sorguluyor. Ars Electronica İstanbul’da sahne alan projesi Anatomy of Non-Fact, yapay zekâ, veri ve sahtelik ilişkisini doğrudan sahneye taşıyor

Polonya doğumlu, Berlin merkezli sanatçı ve araştırmacı Martyna Marciniak, teknolojinin sınırlarında dolaşan işleriyle gerçeğin görsel yüzünü sorguluyor. Pratiğinde spekülatif kurgu, mekânsal anlatı ve 3D yeniden inşa tekniklerini kullanarak sistematik şiddet, yanlış bilgi ve insan hakları ihlalleri üzerine düşünüyor; teknolojinin önyargıları nasıl yeniden ürettiğini ya da kırabileceğini araştırıyor.

Marciniak, bugüne kadar CNN, BBC, Forensic Architecture, Amnesty International ve Human Rights Watch gibi kurumlarla çalıştı; Polonya-Belarus sınırındaki mülteci hikâyelerini belgeleyen Border Emergency Collective’in kurucularından biri. Eserleri Warsaw Biennale, Kinema Icon (Bükreş), Haus Gropius (Dessau) ve deTour Festival (Hong Kong) gibi pek çok uluslararası platformda sergilendi.

Biz ise onun işleri ile şehrin en heyecan verici sanat aktivitesi Ars Electronica İstanbul 2025 kapsamında Piksel.Creative Solutions işbirliğiyle Zorlu PSM’de buluştuk. Festivaldeki işi, onun popüler kültürün en çok içinde olan işi: Atlas of Non-Fact. Martyna’nın bu işi 2023 yılında viral olan Balenciaga marka benzeri pofuduk beyaz palto giyen Papa Francis görseline dayanıyor. Papa Francis’in Balenciaga montuyla görüldüğü o görüntü, deepfake tarihindeki dönüm noktalarından biriydi. Görsel, Midjourney adlı yapay zekâ aracında oluşturulmuştu ve gerçekçiliğiyle o kadar çarpıcıydı ki kısa sürede viral hale geldi. “Papa’nın o görseli, üretici yapay zekânın neler yapabileceğini ve bu içeriklerin ne kadar hızlı yayıldığını hepimize gösterdi,” diyor Kaliforniya Üniversitesi’nden derin sahtekârlık uzmanı Prof. Hany Farid. Gerçekçilikle absürdün iç içe geçtiği bu kare, bir yandan yapay zekânın yaratıcı gücünü hatırlatırken, diğer yandan herkesin elinin altındaki yeni bir çağın sinyalini veriyordu.

Ars Electronica İstanbul’da izleyici, Balenciaga Papa’nın montunun somutlaştırılmış bir versiyonuyla karşılaşıyor. Dikkatli bakanların göreceği bir detay var burada: Sentetik bir eserin tüm imkânsızlıkları, hataları ve “glitch”leri fiziksel olarak yeniden inşa edilirken; barok dönemden günümüz yapay zekâ imgelerinin amorf “blob” estetiğine uzanan görsel gerçeklik tarihine yapılan göndermeler montun astarına işlenmiş.

Deepfake Papa Francis, Balenciaga montuyla

Bizi bu derece sorgulatan işlerle buluşturan Ars Electronica,1979’da Avusturya’nın Linz kentinde kuruldu. Sanat, teknoloji ve toplumun kesişiminde dünyanın en önemli medya sanatları platformlarından biri olarak kabul ediliyor. Her yıl Eylül ayında Linz’de düzenlenen festival, “Ars Electronica Export” programıyla farklı ülkelere taşınıyor. İstanbul, 28 Ekim’e kadar bu küresel ağın durağı. Martyna Marciniak’ın “Atlas of Non-Fact” adlı işi de festivalin öne çıkan projelerinden biri olarak, yapay zekâ çağında gerçeğin nasıl üretildiğini ve tabii nasıl çarpıtıldığını izleyiciyle tartışmaya açıyor.

Doğrusu açtığı tartışmalar günlerce aklımızda kalacak ve soru içinde soru üreten cinsten… O nedenle Martyna ile röportaj sorularını hazırlamak hiç de kolay olmadı… Ama o, verdiği cevaplarla her şeyi netleştirmeyi ve sanatını teknolojiden en uzak kişiye bile anlatmayı başarıyor.

Sanat pratiğinde, spekülatif kurgu ve alegoriyi sistematik şiddet ve görsel önyargıyı ele almak için kullanıyorsun. Veriler, belgeler, söylentiler, yapay zeka ve duygusal zekasızlık ile yönetilen bir dünyada, sence kurgu bir direniş biçimi mi, yoksa verinin söyleyemediğini ifade etmenin bir yolu mu?

Özellikle yapay zekâ üzerine kurulan söylemler çok hızlı biçimde aşırı teknik ve karmaşık bir hâl alabiliyor. Benim, gerçekliği kurgusal sahnelere dönüştürerek yapmaya çalıştığım şey, verilerin ve teknolojinin çoğu insan için erişilmez ve bunaltıcı görünmesine rağmen, yapay zekâdaki yanlış bilginin özünde teknik değil; sistemsel, politik ve ekonomik bir mesele olduğunu göstermek. Kurgu bana, normalde gizli kalan bu sistemleri ve mekanizmaları görünür kılma bazen de bilinçli olarak abartma imkânı veriyor.

Ars Electronica’da göreceğimiz “Anatomy of Non-Fact” gibi işlerinde, Balenciaga benzeri beyaz pofuduk montlu papadan Pentagon’daki patlama sahtekârlığına kadar viral ya da manipüle edilmiş görselleri kullanıyor, yeniden kurguluyorsun. Bu anları yeniden kurgularken, yanlış bilginin işleyişini mi açığa çıkarmayı mı, yoksa izleyicinin “inanma arzusunu” sorgulamayı mı amaçlıyorsun?

Bu bulunan imgeleri hem teknik hem de kültürel, tarihsel ve kuramsal bir gözle derinlemesine inceliyorum. Yeniden inşa süreci, normalde görünmez olan teknik süreçleri somutlaştırmayı, bir imgenin en küçük detaylarını fark etme fırsatı yaratmayı amaçlıyor; ki bu, günümüzün hızlı ve sürekli akan medya tüketiminde genellikle kayboluyor. Bu yeniden kurgular, tek bir imgeyle kalabilme ihtimalini hatırlatıyor bana. Görüntüyle kurduğumuz hızlı, yüzeysel ilişkiyi yavaşlatarak, büyüterek ve fiziksel bir hâle getirerek tersine çevirmeye çalışıyorum.

Deepfake görselle yapılan 18 dakikalık video enstalasyon Atlas of Non-Fact'in bir parçası.

İşlerinin birer “kanıt” olarak mı işlev görmesini istiyorsun, yoksa gerçek/haber/bilgi üretme sistemlerine yönelik estetik ve metaforik bir eleştiri olarak mı? Teknik olarak bu iki yönü pratiğinde nasıl dengeliyorsun?

Bu kesinlikle bir eleştiri biçimi ama aynı zamanda görsel okuryazarlık için yeni bir kelime dağarcığı kurma çabası. Araştırma pratiğimde, bulunan imge, bir tür kanıt işlevi görüyor; o imgenin kültürel ya da sanatsal değeri burada belirleyici değil. Ama sanatsal pratiğimde farklı bir çerçevede çalışıyorum. Yine de araştırmacı bakışımı (ben buna “dikkati dağılmış bakış” diyorum) sentetik imgeleri eleştirel biçimde değerlendirmek için kullanıyorum. Sanırım bir ölçüde, bu araştırmacı deneyimim ve pratiğim sanatsal üretimimi de şekillendiriyor.

Gerçekliği görsel manipülasyon yoluyla bozan “non-fact” imgelerle çalışırken, modelin kendi içindeki önyargıyı nasıl tespit ediyor ve buna nasıl yaklaşıyorsun?

Bu projede sık sık “kara kutularla” karşılaştım, yani gizli teknik süreçler, veri setleri ve protokollerle. Araştırmamın erken dönemlerinde bunu, topladığım kaynak görsellerden oluşan bir havuz üzerinden üretim sürecini tersine mühendislik yöntemiyle çözümlemeye çalışarak yaptım. Bu yöntem bazı temel içgörüler sağladı ama kesinlik getirmedi; üstelik o dönemde, en büyük görsel eğitim veri setlerinden biri olan LAION-5B’ye aylarca erişim engellenmişti. Araştırmada ilgimi çeken alanlardan biri, kaynak verilerin sıkıştırma algoritmaları tarafından nasıl işlendiğiydi. İlginç bir gözlem ortaya çıktı: bu algoritmalar, eğitim görsellerini eşit biçimde sıkıştırmıyor, arka planları nesne ve figürlerden çok daha fazla sıkıştırıyorlardı. Bu, aslında “saliency mapping denilen şeyi, yani insan görsel hiyerarşisinin bir tür temsili haritasını takip ediyor. Ama burada asıl ilginç olan şu: Üretilen sentetik imgeler, yapay zekânın ürettiği imgeler, insanın bakış biçimini taklit etmiyor, yani bizim gerçekte neye, nasıl baktığımızı “yansıtmıyor.” Bunun yerine, o baktıklarımızı abartıyor, vurguluyor, çoğaltıyor. Bu da demek oluyor ki, ortaya çıkan görseller bizim seçici görsel algımızı pekiştiriyor; hatta belki, imgelerle olan kısa, yüzeysel etkileşimlerimizi daha da kısaltıyor.

Daha önce verdiğin röportajlarda “tekno-kıyamet” söylemiyle yapay zekâya dair altına hücum iyimserliği arasındaki gerilimden bahsetmişsin. Sanat, hukuk ve medya kuramı arasında çalışan biri olarak, sen bu spektrumda kendini nerede konumlandırıyorsun: umutlu, şüpheci, yoksa bilinçli olarak ikisinin arasında mı?

Ben daha çok yapay zekâ hakkında nasıl konuştuğumuzla ilgileniyorum. Bu söylemin ve ortaya çıkan inançların politik ve ekonomik gerçekliğimizi nasıl şekillendirdiğiyle. Çünkü birçok veri setine gömülü olan önyargılar ve eşitsizlikler bu söylemlerle yeniden üretiliyor. Bir yandan korku yayan klişeleri tekrarlıyoruz, diğer yandan da yapay zekâyı insana özgü niteliklerle tanımlıyoruz. Aslında yapay zekâ etrafındaki spekülasyonun kendisi, aracın kendisinden bile fazla biçimde, gerçekliğimizi şekillendiriyor. Yine de tüm bunların etkili politika yapımına ve artacak kolektif bir rahatsızlığın sonunda eyleme dönüşeceğine dair umudumu koruyorum.
Ama aynı zamanda, düzenlemelerin hızı hiçbir zaman yapay zekâ etrafındaki spekülasyonun hızına yetişemeyecek diye endişeleniyorum. Belki de tek umut, bu balonun bir noktada patlaması ve ardından bu araçların daha eleştirel, daha demokratik biçimlerde kullanılmaya başlanması. Eğer yapay zekâ gözetim, manipülasyon ve adaletsizlik sistemlerini hızlandırıyor ve büyütüyorsa, bu aslında o sistemleri düzeltmek için bir çağrı olmalı.

Segideki objelerden biri

Eğer insan gözü artık gördüğüne güvenemiyorsa, ki güvenemiyor; bir algoritmanın olayları ya d a görselleri “etik biçimde görmesine” güvenilebilir mi?

Hayır, kesinlikle hayır. Bildiğimiz üzere bir algoritmanın etiği, beslendiği kaynak veriler ve onu şekillendiren eğitim süreci tarafından belirleniyor yani etik, algoritmanın kendisine yansımıyor.
Bunun ne kadar tehlikeli olabileceği, Musk’ın Grok’u kendi dünya görüşü ve politik tercihlerine göre manipüle etmesiyle acı biçimde ortaya çıktı. Beni asıl endişelendiren şey, yapay zekâyı “yargı yeteneğine sahip bir varlık” gibi çerçevelemenin ne kadar kolay, çekici ve tehlikeli bir fikir olduğu. Bu düşünce, yapay zekâyı “üstün bir bilgi” veya “gerçeğin hakemi” olarak görme arzusuna dayanıyor. Anlamlandıramadığımız olgulara kutsal bir anlam yükleme eğilimimiz var ama bunu yapmamalıyız. Yapay zekâya etik bir işlev atfetmek, hem yanıltıcı hem de insan sorumluluğunu devretmenin en kolay yolu olur.

Forensic Architecture ve Amnesty International gibi kurumlarla çalışıyor, şiddet ve gözetimle ilgili görsel kanıtlarla uğraşıyorsun. Böyle bir materyalle çalışırken duygusal ve etik gerilimi nasıl yönetiyorsun?

Bu tamamen araştırmanın bağlamına bağlı. Forensic Architecture ile yaptığım geçmiş çalışmalarda çoğunlukla polis şiddeti vakalarına odaklanıyordum. Amacımız, bağlamını bilmediğimiz bir hikâyeyi başkası adına anlatma hatasına düşmemekti çünkü bu durumda kendi önyargılarımız ve ayrıcalıklarımız gerçeği gölgeleme riski taşır. Bu yüzden mağdurların ailelerinden ya da bulundukları topluluklardan gelen sesleri doğrudan sürece dahil etmeye, onların perspektifinden ilerlemeye çalıştık. Bazı çalışmalarımda, örneğin Human Rights Watch’la yürüttüğümüz savaş suçu soruşturmalarında çok daha fazla kaynakla çalışıyorsun ve bu kişisel ilişkiyi kurmak her zaman mümkün olmuyor. Ama ne zaman mümkünse, o sesi araştırmanın bir parçası hâline getirmeye çalışıyoruz. Yine de, hayal edilemeyecek şeylere tanıklık etmiş ya da sevdiklerini kaybetmiş insanlarla çalıştığında tek umabildiğin şey, onları hayal kırıklığına uğratmamak oluyor. Ve tüm süreç boyunca, onları yeniden travmatize etmeden çalışabilmek… Bu, gerçekten çok hassas bir denge.

Gerçeğin ne olduğunu Papa Francis sorguluyor

Gerçek acıya tanıklık ederken, bir sanatçının sorumluluğuyla bir araştırmacının sorumluluğu arasında bir çizgi var mı peki?

Bir araştırmacı olarak genellikle uzak imgeler, yabancı sahneler görüyorsun ve çoğu zaman analitik bir konumdan ilerliyorsun. Bu işi yapan herkesin deneyimi farklı; herkesin kendine göre başa çıkma yöntemleri var. Ben çoğu zaman analitik ve kişisel bakış arasında gidip geliyorum, bu denge her yeni proje ve bağlamda değişiyor. Araştırmacı olarak bir haksızlığı göstermek, açıklamak ve kayda geçirmek gibi bir sorumluluk hissediyorum. Ama sanat pratiğimde başkalarının acılarını bir malzeme ya da odak noktası hâline getirmeyi sevmiyorum. Bir başkasının acısını eserimin kaynağına dönüştürmek bana hem problemli hem de sömürücü, hatta dürüst olmayan bir şey gibi geliyor. Bunun istisnaları var tabii: Eğer söz konusu yerle, insanlarla ya da olayla birebir bir bağım varsa… ya da mesele öyle geniş bir ölçekteyse ki artık hepimizi etkiliyorsa… Örneğin devlet gözetimi, ekonomik yıkım ya da iklim krizi gibi o zaman bu sınır biraz daha esneyebiliyor.

bU konuları, acıları tekrar tekrar işlemiş, araştırmış bir sanatçı ve araştırmacı olarak, insan haklarının açıkça ihlal edildiği, hem insanlara hem hayvanlara yönelik şiddetin sır olmadığı bir ülkede işlerini sergileyecek olmak nasıl hissettiriyor?

Açık kaynak araştırmaları (OSINT) ve görsel soruşturmaların tarihine, örneğin 2011’deki Suriye ayaklanmasına ve aynı dönemde yaşanan bölgesel devrimlere bakarsan, o dönemde bir umut duygusu hissedebilirsin. Yeni bir “vatandaş kaynaklı görsellik” çağı doğdu. Politik hareketlerin görünürlüğü ve protestocular tarafından belgelenen vahşetler, devlet şiddetine ve sistematik adaletsizliğe karşı bir tür karşı-gözetim perspektifi sunuyor. Araştırmacıların veya gazetecilerin masasındaki her video, her kayıt değerlidir; bir tür tanıklık alanıdır. Ama şimdi yeni bir dönemdeyiz. Görsel bir aşırı doygunluk çağındayız; her şey görünür, ama aynı anda doğrulama mekanizmaları, veri erişimi, platform API’leri ortadan kalkıyor. Belgelenmiş insan hakları ihlallerinin eşi benzeri görülmemiş hacmine rağmen, hükümetlerin bu kanıtlar karşısındaki inkârı ya da umursamazlığı, aslında “görünürlük krizini” gösteriyor. Bu noktada, sosyal medya platformlarının daha yüksek standartlara uymasını talep etmemiz, politika değişimlerini izlememiz, veriyi dikkatle paylaşmamız ve imgeyle kurulan ilişkiyi daha incelikli hâle getirmemiz gerekiyor. Aynı şekilde, mahkemelerde de görsel okuryazarlığın genişletilmesini talep etmeliyiz. Görsel kanıtlar üzerine kurulan tartışmayı yalnızca “gerçek” ve “sahte” kategorilerine indirgememeliyiz çünkü bu tür ikilikler, demokrasiyi zayıflatan bir değer sistemini besliyor: “iyi-kötü”, “güvenilir-güvenilmez”, “biz-onlar” gibi. Gerçeği savunmak, artık yalnızca görmekle değil, nasıl gördüğümüzü de sorgulamakla mümkün.

Balenciaga benzeri, üstü elle işlenmiş palto serginin odağı

Bu son soruyu ChatGPT sana soruyor. İşlerini göstererek anlatarak, onun seni tanımasını ve sana sormak isteyeceği 5 soru hazırlamasını istedim. Aralarından bunu seçtim: Ürettiğim imgelerdeki hataları — “glitch”leri — estetik bir değer olarak sunuyorsun. Peki bir gün ben o hataları düzeltir, kusursuz hale gelirsem… sanat nerede barınır? Başka bir deyişle, benim mükemmelliğim senin ifade özgürlüğünle nasıl çatışır?

İfade özgürlüğümü çalmandan korkmuyorum. Bence sanat, insanın tökezleyen yanlarında, o kusurlarda, o tuhaf aksaklıklarda barınmaya devam edecek. Ama seni ve senin gibileri yaratıcı süreçlerin içine dâhil etmenin, biz sanatçılardan beklentileri artıracağından endişe ediyorum. Daha hızlı üretmek, daha az bütçeyle çalışmak, daha “verimli” olmak gibi. Bunun olacağını düşünüyorum ama nedeni senin mükemmelliğin değil; sektörün seni bu kadar düşünmeden, sorgulamadan kabullenmesi. Aynı şekilde, yanlış bilgi söz konusu olduğunda da senin kusursuzluğundan korkmuyorum. Çünkü yanlış bilginin asıl kaynağı teknolojik gelişmişlik ya da AI görsellerinin “gerçekliğe yakınlığı” değil. Gerçek tehdit, sosyal medya platformlarının denetimsizliğinde, finansal sistemlere bağımlılığında, doğrulama eksikliğinde ve imgelerle olan hızlı, yüzeysel etkileşimin sürekli teşvik edilmesinde yatıyor. Tehlike senin içindeki kodda değil; bizi hızla, düşünmeden bakan gözlere dönüştüren dünyada.

21–28 Ekim tarihleri arasında uluslararası medya sanatı festivali Ars Electronica, Zorlu PSM ve Piksel.Creative Solutions iş birliğiyle gerçekleşiyor.