Pekin Yapay Zeka Akademisi’nde yapılan sunumda, yapay zeka modellerinin eğitimi için bilgi işlem altyapısıyla ilgili sorunlara da dikkat çekildi.
Çin Başbakanı Li Qiang’a yapılan yeni bir slayt sunumuna göre Çin, yapay zeka (YZ) alanındaki ilerlemelerde ABD’nin gerisinde kalıyor çünkü ülkenin çabaları “teori ve teknolojilerde birçok temel zorlukla dolu”.
Devlet tarafından işletilen Çin Merkez Televizyonu (CCTV) tarafından yayınlanan bir habere göre, bu zorluklar Li’ye, 2018 yılında kurulan ve yapay zeka araştırma ve geliştirme faaliyetlerinde bulunan, kar amacı gütmeyen özel bir kuruluş olan Pekin Yapay Zeka Akademisi’ne (BAAI) yaptığı son inceleme gezisi sırasında işaret edildi.
BAAI’deki sunuma göre, Çin’in üretken yapay zeka girişimlerinin karşılaştığı en büyük engel, Meta Platforms’un geçen yıl Şubat ayında piyasaya sürülen büyük dil modelleri (LLM’ler) ailesi olan Llama sistemine aşırı bağımlılık.
LLM’ler ChatGPT ve benzeri üretici yapay zeka hizmetlerini eğitmek için kullanılan teknolojidir ve ses, kod, görüntü, metin, simülasyon ve video gibi yeni içerikler oluşturmak için kullanılır.
Sunumda, Çin’in YZ geliştirme alanında “ciddi bir kendi kendine yeterlilik eksikliği” olduğu, çünkü çoğu yerel LLM’nin LLama üzerine inşa edildiği belirtildi. Facebook’un ana şirketi Meta geçen yıl Temmuz ayında açık kaynaklı Llama 2 yapay zeka modelini araştırma ve ticari kullanım için ücretsiz hale getirdi.
Bu özel LLM eksikliği, Pekin’deki son “iki oturum” toplantılarındaki bir yan tartışmada vurgulanan, anakaranın yapay zeka inovasyonu açısından ABD ile genişleyen bir uçurumla karşı karşıya olduğu fikri etrafında artan endişeye ağırlık veriyor.
Devlet kurumları şu anda bir dizi YZ yeniliği geliştirmek için özel Çinli teknoloji firmalarıyla paralel olarak çalışırken, LLM’lerin eğitimi için bilgi işlem altyapısıyla ilgili sorunlarla hala karşı karşıyalar.
Sunumda, “Yerel olarak geliştirilen düzinelerce çip, aileler ve ekosistemler açısından farklıdır” denilerek, Çinli YZY’ler için 100 milyar parametreli eğitimin “çok istikrarsız” olduğu belirtildi.
ABD’nin Çin’e yönelik teknoloji yaptırımları, anakaranın yerel yapay zeka geliştirme projeleri için Amerikan teknolojisiyle üretilen gelişmiş yarı iletkenlere erişimini kısıtladı.
Bir LLM’nin kapasitesi kısmen, bir modelin karmaşıklığının bir ölçüsü olan parametre sayısına bağlıdır. Örneğin ChatGPT’nin yaratıcısı OpenAI’nin LLM’si 175 milyar parametre üzerinde eğitilirken, piyasadaki çoğu açık kaynaklı Çin LLM’si 6 milyar ila 13 milyar parametreye sahip.
Anakarada hükümet onaylı LLM’lerin ve ilgili YZ uygulamalarının sayısı şu anda 40’tan fazladır. Ancak şu anda piyasada 200’den fazla Çin tarafından geliştirilmiş LLM bulunmaktadır.
BAAI’deki sunumda dikkat çekilen bir diğer önemli konu da YZ tarafından üretilen içeriğin kontrolü ile ilgilidir.
Çin tarafından geliştirilen LLM’lerin karşılaştığı benzersiz zorluğun, ideoloji ve çeşitli duyguları da dikkate alırken “gerçeklerle uyumlu kaliteli içerik” üretmek olduğu belirtildi.
ChatGPT ve Google’ın Gemini’si de dahil olmak üzere yapay zeka sohbet robotları, halüsinasyon olarak adlandırılan yanlış çıktılar üretmeye eğilimlidir.
CCTV, BAAI sunumunun yazarının kimliğini açıklamamış olsa da, yayınlanan slaytlarda Beijing Zhipu Huazhang Technology Co (Zhipu AI) adlı start-up’ın logosu görülüyor. Perşembe günü Zhipu AI’dan bir temsilci, şirketin Çin başbakanının önceki gün BAAI’deki inceleme turu sırasında hazır bulunduğunu doğruladı.
BAAI’nin geliştirmekte olduğu işbirlikçi ekosistemin bir parçasını oluşturan Zhipu AI, halihazırda 100 milyar parametre ölçekli bir LLM inşa ettiğini söyledi.
Firma, 1 milyar ABD Dolarını aşan değerlemesiyle tek boynuzlu at statüsüne ulaştığı geçen yılın Ekim ayından bu yana toplam 2,5 milyar yuan (347 milyon ABD Doları) yeni fon topladı.
Yatırımcılar arasında Tencent Holdings, Ant Group, Meituan, Xiaomi ve South China Morning Post’un sahibi Alibaba Group Holding yer aldı.