Teknoloji devi Google, 2018 yılında belirlediği yapay zekâ ilkelerinde köklü bir değişikliğe giderek, yapay zekâ teknolojilerinin askeri ve gözetim amaçlı kullanımına yönelik kısıtlamalarını kaldırdı. The Washington Post'un tespit ettiği bu politika değişikliği, etik tartışmaları yeniden gündeme taşırken, şirketin ilkelerinden sapması endişelere yol açtı.
Google’ın önceki etik kurallarında, doğrudan insanlara zarar vermeyi amaçlayan silah sistemleri ve uluslararası normlara aykırı gözetim teknolojilerine yönelik taahhüdü açık bir şekilde yer alıyordu. Ancak, son güncellenen belgelerde bu kısımlar kaldırıldı. Bunun yerine, “sorumlu geliştirme ve dağıtım” başlıklı yeni bir bölüm eklendi. Şirket, yapay zekâ teknolojilerinin “uygun insan denetimi” ve “titiz inceleme süreçleri” ile geliştirileceğini vurgulasa da doğrudan silah ve gözetim teknolojilerine karşı bir taahhütte bulunmadı.
Bu değişiklik, Google’ın daha önce karşı çıktığı askeri ve istihbarat projelerine yeniden yönelme sinyali verdiği şeklinde yorumlanıyor. Şirketin araştırma ve teknoloji birimlerinden sorumlu kıdemli başkan yardımcısı James Manyika ve DeepMind CEO’su Demis Hassabis, yayımladıkları bir blog yazısında güncellenen politikaların “yapay zekânın genel amaçlı bir teknoloji haline gelmesi” nedeniyle yapıldığını savundu.
Google, 2018’de etik ilkelerini duyurduğunda, ABD Savunma Bakanlığı ile yürüttüğü "Project Maven" isimli yapay zekâ destekli askeri drone analiz projesine gelen tepkiler üzerine projeyi yenilememe kararı almıştı. O dönemde binlerce Google çalışanı projeye karşı çıkarak protesto imza kampanyası başlatmış, bazı çalışanlar istifa etmişti. Ancak, şirket 2021’de Pentagon’un bulut bilişim ihalesi "Joint Warfighting Cloud Capability" için agresif teklif vererek askeri alana yeniden giriş yaptı. 2025 yılı başlarında ise Google’ın İsrail Savunma Bakanlığı ile yapay zekâ araçlarının kullanımını genişletmeye yönelik projeler yürüttüğü iddiaları gündeme geldi.
Google’ın bu yeni hamlesi, şirketin “Don’t be evil” (Kötülük yapma) sloganından uzaklaştığını düşünen eleştirmenleri harekete geçirdi. Etik uzmanlar ve insan hakları savunucuları, yapay zekânın savaş teknolojileri ve kitle gözetimi için kullanılmasının büyük riskler barındırdığını vurguluyor. Şirketin aldığı bu kararın, gelecekte büyük yankı uyandırması bekleniyor.