Mevzu Yapay Zeka Olduğunda Daha Büyük, Daha Yeterli Manasına Gelmiyor

Görüldüğü üzere yapay zeka her yerde ve git gide daha kalıcı hale geliyor. Bu süreç ChatGPT ile başlamadı lakin geçen sene kasım ayında erişime açıldığında beklentileri hayli üste taşıdı. Teknoloji dünyasında blokzincirden beri yarattığı heyecanı ve kullanımı bu kadar süratli artan bir şey görmemiştik. IDC’nin bu yılın başlarında yayınladığı bir rapora nazaran yapay zeka için yapılan harcamalar 2026’ya kadar tüm dünyada 301 milyar dolar düzeyine ulaşacak ve bu devirde yapılan harcamaları ikiye katlayacak.

Söylenene nazaran çalışan verimliliğinden müşteri memnuniyeti ve risk azaltmaya kadar her alan bu teknolojiden faydalanabiliyor. Oluşan heyecanı takip eden pek çok çalışan da yapay zeka öncüsü olmak ve yeni yollarla rekabet avantajı oluşturmak için birinci kullananlar ortasında yer almak istiyor. Fakat bu formda de şirketlerini kimi risklere açık hale getiriyor.

Veri bedelli olduğu ve ne kadar çok olursa o kadar bedelli olduğu için dataya kıymet veriliyor lakin bu argüman her vakit geçerli olmayabiliyor. Zira girilen bilgi seti arttıkça data kaynağını ve doğruluğunu denetlemek de o kadar zorlaşıyor. Yapay zekanın istemeden ortaya çıkarabileceği muhtemel telif hakkı ihlalleri de bu bahsin farklı bir boyutu.

Yapay zekanın popülerliğini bir sefer daha zirvelere çıkartan ChatGPT’ye bakalım. OpenAI’ın web sitesinde yazan bilgiye nazaran ChatGPT’nin “yanlış bilgi oluşturma ihtimali bulunuyor” ve bunu destekleyen pek çok örnek de var. Şayet nasıl kek yapabileceğinizi öğrenmek istiyorsanız bu büyük bir sorun değil fakat içtihat hukuku için kullanırsanız durum ciddileşiyor.

Bu riski kurumsal ortamda düşünün. Bir yapay zeka aracı otomatik olarak stok düzeylerini ayarlıyor, performansa nazaran maaşları belirliyor, çeyrek boyunca oluşacak nakit akışını varsayım ediyor, döviz alım satımını düzgünleştiriyor yahut bunun üzere şirketin karlılığı üzerinde değerli tesire sahip olacak pek çok temel kararları veriyor. Bu durum, çalışanlar kendi ‘gölge’ yapay zeka araçlarını kullanmaya başlayana kadar çarçabuk olgun bir data idaresi ve yerinde bir yapay zeka stratejisi olarak algılanabilir. Varlığını bilmediğiniz şeyi denetim edemezsiniz.

Dolayısıyla burada iki tane sorun var. Birincisi bildiğiniz yapay zeka araçlarının sağlamlığından nasıl emin olabilirsiniz ve ikincisi de çalışanlarınızın işlerini desteklemesi için yetkilendirilmemiş ve müsaade verilmemiş yapay zeka araçlarını kullanmasını nasıl engelleyebilirsiniz?

Cevap net olmaktan çok daha çok kavramsal. Yapay zekanın geleceği günümüzde haber başlıklarını ele geçiren Kapsamlı Lisan Modelleri (Large Language Models, LLM) ve pek çok kullanıcıya hizmet eden sıradan tahlillerde olmayacak. Bunun yerine şirketler, kullanacakları yapay zeka aracının kendi bölümlerine, müşterilerine ve işlerine özel imkanlar sunmasını isteyecek.

İnsanların yaptığı işleri yapan fakat insanı taklit etmeye odaklanmayan yapay zekanın (domain-specific AI) yeni çağı, eşsiz ve farklılaştırılmış hizmetler oluşturma hüneriyle birlikte gelecek. Bunun için de özel bilgiyle eğitilmiş ve belli şirket yahut dalın standartlarına ve çalışma haline nazaran özelleştirilmiş temel modeller gerekiyor. Âlâ organize edilmiş, odaklanmış ve doğrulanmış bilgiyle beslenen temel yapay zeka, güvenebileceğiniz uzman birisiyle çalışıyormuş hissini verebilir zira farklı kaynaklardan bir ortaya toplanmış rastgele bilgi kümeleriyle oluşturulmuyor. Oluşturduğu kararlar da daha alakalı ve tesirli oluyor. Bunun sonucunda çalışanlar da kendi bilinmeyen tahlillerini aramak muhtaçlığını hissetmiyor. Hatta oluşturma projesine dahil edildiklerine sahiplik hissi de geliştirebiliyorlar ve aracı kullanma ihtimalleri artıyor.

Konuya dair ayrıntılı bilgi sahibi olanlar yapay zeka ile ilgili hakikaten ilgi cazip inovasyonların bu alanda yapıldığını biliyor. Domain-specific olarak isimlendirilen yapay zeka için araç setleri şu anda geliştiriliyor ve yapay zeka alanındaki büyük oyuncuların inovasyon gücünü geçti bile. Bazen ne kadar küçükse o kadar âlâ oluyor.

Tabii şeffaflık ve dürüstlük çok kıymetli. Bu da yapay zeka geliştirmelerini yasal ve uyumluluk takımlarının sorumluluk alanında bulunuyor. Data bilimciler ve DevOps takımlarıyla birlikte çalışmak, tesirli bir yapay zeka stratejisinin değerli bir özelliği olacak.

Bu grupların yapay zekanın nasıl ve ne vakit kullanılacağına dair bir rehber oluşturması ve onu uygulaması, düzenleyici yapıların bilginin kaynağına dair soracağı soruları evvelden cevaplayabilir olması gerekiyor. AB Yapay Zeka Yasası, ABD Yapay Zeka İnsan Hakları Beyannamesi ve Çin’in Algoritmik Teklif İdare Kararları de dünyanın farklı bölgelerinde hükümetlerin yaklaşımlarını geliştirdiğini gösteriyor.

Özetle, yapay zeka heyecanına dikkatle yaklaşmakta yarar var. Genel kullanım için uygun olan yapay zekadan muhakkak bir alana özel yapay zekaya geçiş yapan şirketler kendilerini daha tesirli imkanlarla ve (doğru yapıldığında) daha eğitimli ve uyumlu çalışanlarla güçlendirebiliyor. Bu adımı atmak için de güçlü bir liderlik gerekiyor. Yapay zekaya yönelik haberler, yapay zekanın çabuk bir formda kullanılmasına neden oldu. Buradaki mantıklı yaklaşım ise bekleyip, değerlendirip sistemlere, insanlara ve şirket kültürüne yapacağınız yapay zeka yatırımlarının risklerinin ve fırsatlarının ayrıntılıca incelendiğinden emin olmanızdan geçiyor.

Oyun Haberleri

Değerlendirme
0 (0 Oy)