Yapay Zeka (YZ) günümüzde git gide daha fazla alanda uygulanan, “state of the art” son teknolojidir. Doğru şekilde tanımlanmış ve planlanmış hemen hemen her problem üzerinde kullanımı mümkün. Fakat YZ modellerinin geliştirilmesi ve çalıştırılması için yüksek kapsiteli işlemciler, zaman ve elektrik harcanması gerekiyor. Şu an üç çeşit işlemci YZ araştırmaları ve eğitimi için yaygın olarak kullanılmaktadır. CPU (Merkezi İşlem Birimi), GPU (Grafik İşlem Birimi) ve TPU (Tensor İşlem Birimi). 2012’den sonra yaşanan YZ patlaması da, YZ eğitimi için CPU’lardan daha elverişli GPU’ların geliştirilmesiyle tetiklendi.
GPU’ların paralel işlem yapma konusundaki kaabiliyetleri derin öğrenme uygularını mümkün kıldı. Google ise daha sonra TPU’ları sırf YZ uygulamalarını ilerletmek amacıyla geliştirildi. Ama NVIDIA’nın kişisel bilgisayarlarda kullanılan güncel GPU serisi’nin fiyatları 300$’dan başlıyor. Büyük şirketler ve araştırma projelerinde kullanılan işlemcilerin Türkiye fiyatları ise 10.000$’ı aşmaktadır.
Donanım, eğitim verisi ve denenecek çözümler seçildikten sonra başlanan YZ eğitimi ise uzun bir süreç. Milyarlarca değişkenli büyük modelleri, onları eğitebilecek kadar büyük veri setleriyle eğitmek haftalar hatta aylar sürebiliyor. OpenAI’ın GPT-3’ün eğitimi sırasında kullanılan sistemde 1024 tane GPU bulunmaktaydı. Bu seviyedeki işlem gücüyle bile eğitim 34 gün sürüp ve 4.6 Milyon $’lık harcama gerektirdi.
Büyük yapay zeka modellerini eğitmek aynı zamanda son derece enerji yoğun bir süreçtir. Bu modeller çok büyük miktarda veri üzerinde eğitilmektedir ve bu verileri işlemek ve modelin parametrelerini ayarlamak için gereken hesaplama kaynakları şaşırtıcıdır. Massachusetts Amherst Üniversitesi’ndeki araştırmacılar tarafından yapılan bir araştırmaya göre, tek bir yapay zeka modelinin eğitimi, tüm yaşamları boyunca beş arabanın saldığı kadar karbondioksit salabiliyor.
Yapay zeka ve makine öğrenimi teknolojilerinin hızla gelişmesi, birçok endüstri alanında devrim yaratırken, bu ilerlemenin arkasında yatan enerji tüketimi ve çevresel etkiler konusunda da ciddi soruları beraberinde getirmektedir. Özellikle, bu teknolojilerin kalbinde yer alan ve matris işlemleri gibi hesaplama yoğun görevleri gerçekleştirmek üzere optimize edilmiş özel donanım bileşenleri – örneğin, Grafik İşleme Birimleri (GPU’lar) ve Tensor İşleme Birimleri (TPU’lar) gibi – muazzam enerji miktarları tüketmektedir. Bu özel donanım birimlerinin, veri merkezlerinde sürekli olarak çalıştırılması ve aşırı ısınmayı önlemek için gereken soğutma sistemleri, yapay zeka eğitiminin ve algoritmalarının uygulanmasının genel karbon ayak izini büyük ölçüde artırmaktadır.
Enerji tüketiminin yanı sıra, GPU’lar ve TPU’lar gibi özel donanım bileşenlerinin üretimi de ciddi çevresel etkilere sahiptir. Bu çiplerin üretim süreci, nadir bulunan toprak metalleri ve diğer kritik kaynakları gerektirmekte ve bu durum, sürdürülebilir madencilik uygulamaları konusundaki endişeleri daha da artırmaktadır. Üretim aşamalarında kullanılan kimyasal süreçler ve yüksek enerji ihtiyacı, önemli miktarda karbon emisyonu yaratmakta ve bu da yapay zeka sistemlerinin global ayak izinin artmasına yol açmaktadır. Ayrıca, bu bileşenlerin küresel ölçekte dağıtımı sırasında kullanılan taşımacılık yöntemleri de karbon emisyonlarının artmasına sebep olmaktadır.
Bu bağlamda, yapay zeka ve makine öğrenimi algoritmalarının geliştirilmesi ve uygulanması sürecinde enerji verimliliğine daha fazla odaklanılması gerekmektedir. Algoritmaların daha enerji verimli hale getirilmesi, hesaplama süreçlerinin optimizasyonu ve veri merkezlerinde yenilenebilir enerji kaynaklarının kullanımının artırılması, bu teknolojilerin çevresel etkisini azaltma yolunda atılabilecek önemli adımlardır. Aynı zamanda, özel donanım bileşenlerinin üretim süreçlerinde sürdürülebilir malzeme kullanımının teşvik edilmesi ve geri dönüşüm uygulamalarının geliştirilmesi, çevre üzerindeki olumsuz etkilerin azaltılmasına katkı sağlayabilir.Yapay zekaya olan talep artmaya devam ettikçe, bu sistemlerin çevresel etkilerini de göz önünde bulundurmamız zorunludur. Enerji açısından daha verimli donanım geliştirmek, yenilenebilir enerji kaynaklarından yararlanmak ve yapay zeka eğitimi ve çıkarımının hesaplama yükünü azaltabilecek model sıkıştırma ve budama için yeni teknikleri keşfetme çabaları devam ediyor.
Ek olarak araştırmacılar, sıfırdan milyarlarca paramatreli büyük modelller eğitmek yerine daha önce eğitilmiş modellerden elde edilen bilgilerden yararlanarak modellerin daha küçük veri kümeleri üzerinde eğitilmesine olanak tanıyan ve potansiyel olarak genel hesaplama maliyetlerini azaltan transfer öğrenme gibi teknikleri araştırıyorlar. Var olan modellere özelleştirilmiş veri setleriyle belli bir amaç için “ince ayar (fine tuning)” uygulamak da üzerinde çalışmalar yürütülen bir seçenektir.
Sonuçta sürdürülebilir yapay zeka arayışı, araştırmacılar, mühendisler, kamu yöneticileri ve endüstri liderleri arasındaki işbirliğini içeren çok yönlü bir yaklaşımı gerektirir. Enerji verimliliğine öncelik vererek, yenilenebilir enerji kaynaklarından yararlanarak ve yenilikçi teknikleri keşfederek yapay zekanın tüm potansiyelinden yararlanırken çevresel etkisini en aza indirebiliriz.
Yapay Zeka’nın Sorumlulukları
Tarih