Sam Altman'dan 3 Gözlem

AGI (Yapay Genel Zekâ), teknolojik ve sosyoekonomik dönüşüm sağlarken, maliyetlerin düşüşü ve insan seviyesinde performansla yeni bir gelişim dönemi başlatıyor.

Misyonumuz, AGI’nin (Yapay Genel Zekâ) tüm insanlığa fayda sağlamasını garanti altına almaktır.

AGI’ye işaret eden sistemler görünür hale geliyor; bu yüzden bulunduğumuz anı anlamanın önemli olduğunu düşünüyoruz. AGI, zayıf tanımlanmış bir terim olsa da, genel anlamda, birçok alanda insan seviyesinde giderek karmaşıklaşan problemleri çözebilen bir sistem demektir.

İnsanlar, anlama ve yaratma içgüdüsüne sahip araç yapıcılarıdır; bu durum, dünyanın hepimiz için daha iyi hale gelmesine yol açar. Her yeni nesil, önceki nesillerin keşifleri üzerine inşa ederek, elektrik, transistör, bilgisayar, internet ve yakında AGI gibi daha yetenekli araçlar yaratır.

Zaman içinde, aralıklı ama istikrarlı bir şekilde, insan yeniliğinin ilerleyişi insanların hayatının neredeyse her yönünde daha önce akla gelmeyecek düzeyde refah ve iyileşmeler getirmiştir.

Bir bakıma, AGI, birlikte inşa ettiğimiz insan ilerlemesinin sürekli yükselen iskelet yapısındaki bir araçtır. Bir başka bakış açısıyla, “bu sefer farklı” demeden geçilemeyecek bir şeyin başlangıcıdır; karşımızdaki ekonomik büyüme şaşırtıcı görünmekte, artık tüm hastalıkları tedavi ettiğimiz, ailelerimizle çok daha fazla zaman geçirebildiğimiz ve yaratıcı potansiyelimizi tam anlamıyla gerçekleştirebildiğimiz bir dünyayı hayal edebiliyoruz.

Belki de on yıl içinde, dünyadaki herkes, bugün en etkili kişinin yapabileceğinden daha fazlasını başarabilecek.

Yapay zekâ gelişiminin hızla ilerlediğini görmeye devam ediyoruz.


İşte yapay zekânın ekonomisine dair üç gözlem:

  1. Bir yapay zekâ modelinin zekâsı, onu eğitmek ve çalıştırmak için kullanılan kaynakların logaritmasıyla yaklaşık olarak eşdeğerdir. Bu kaynaklar esas olarak eğitim hesaplaması, veri ve çıkarım hesaplamasıdır. Görünüşe göre, rastgele miktarlarda para harcayarak sürekli ve öngörülebilir kazançlar elde edebilirsiniz; bu ölçeklendirme yasalarının, birçok büyüklük mertebesinde doğru sonuçlar verdiği gözlemlenmektedir.
  2. Belirli bir yapay zekâ seviyesini kullanma maliyeti, her 12 ayda yaklaşık 10 kat düşmekte ve daha düşük fiyatlar çok daha fazla kullanıma yol açmaktadır. Bunu, 2023 başlarındaki GPT-4’ten 2024 ortalarındaki GPT-4o’ya kadar token başına maliyetin yaklaşık 150 kat düştüğü süreçte gözlemleyebilirsiniz. Moore Yasası, her 18 ayda 2 kat değişim yaratırken, bu durum inanılmaz derecede daha güçlüdür.
  3. Lineer olarak artan zekânın sosyoekonomik değeri, doğası gereği süper üssel artış gösterir. Bunun bir sonucu olarak, yakın gelecekte üssel artan yatırımların durması için hiçbir neden görmüyoruz.

Bu üç gözlem geçerliliğini koruduğu sürece, toplum üzerindeki etkiler önemli olacaktır.

Artık, zamanla sanal iş arkadaşları gibi hissedecek yapay zekâ ajanlarını hayata geçirmeye başlıyoruz.

Özellikle önemli olmasını beklediğimiz bir yazılım mühendisliği ajanını hayal edelim.

Bu ajanın, birkaç yıllık deneyime sahip bir üst düzey şirkette çalışan bir yazılım mühendisinin, birkaç güne kadar süren görevlerde yapabileceği çoğu şeyi yapabilecek hale geleceğini düşünün. En büyük yeni fikirleri üretmeyecek, çok fazla insan gözetimi ve yönlendirmesi gerektirecek, bazı konularda mükemmel, diğer konularda ise şaşırtıcı derecede kötü performans gösterecektir.

Yine de, bunu gerçek ama nispeten daha genç bir sanal iş arkadaşı olarak hayal edin. Şimdi, 1.000 tanesini düşünün. Ya da 1 milyon tanesini. Son olarak, bu tür ajanların bilgi işinin her alanında yer aldığını göz önünde bulundurun.

Bir bakıma, yapay zekâ ekonomik açıdan transistör gibi olabilir; iyi ölçeklenen ve ekonominin neredeyse her köşesine sızan büyük bir bilimsel keşif. Transistörler ya da transistör şirketleri hakkında çok fazla düşünmüyoruz, çünkü kazançlar oldukça geniş bir şekilde dağıtılıyor. Ancak bilgisayarlarımızın, televizyonlarımızın, arabalarımızın, oyuncaklarımızın ve daha fazlasının mucizeler yaratmasını bekliyoruz.

Dünya bir anda değişmeyecek; hiçbir zaman öyle olmamıştır. Kısa vadede yaşam neredeyse aynı şekilde devam edecek ve 2025’te insanlar, 2024’te olduğu gibi zamanlarını geçirecekler. Hâlâ aşık olacak, aileler kuracak, çevrimiçi tartışmalara girecek, doğada yürüyüş yapacağız vb.

Ancak gelecek, göz ardı edilemeyecek şekilde üzerimize gelecek ve toplumumuz ile ekonomimizde uzun vadeli değişiklikler muazzam olacaktır. Yapacak yeni şeyler, birbirimize faydalı olmanın yeni yolları ve rekabet etmenin yeni yöntemlerini bulacağız; ancak bunlar bugünkü işlere çok benzemeyebilir.

Özerklik, irade ve kararlılık muhtemelen son derece değerli olacaktır. Ne yapılacağına doğru karar vermek ve sürekli değişen bir dünyada nasıl yol alınacağına dair çözümler üretmek büyük bir değere sahip olacak; dayanıklılık ve uyum sağlama becerileri geliştirmek faydalı yeteneklerdir. AGI, insan iradesi üzerinde şimdiye kadar görülmemiş en büyük kaldıraç olacak ve bireylerin her zamankinden daha fazla etki yaratmasını sağlayacaktır, daha az değil.

AGI’nin etkisinin eşitsiz olmasını bekliyoruz. Bazı sektörler çok az değişse de, bilimsel ilerlemenin muhtemelen bugünkünden çok daha hızlı olacağını düşünüyoruz; AGI’nin bu etkisi her şeyi aşabilir.

Pek çok malın fiyatı sonunda dramatik bir şekilde düşecek (şu anda zekâ maliyeti ve enerji maliyeti pek çok şeyi kısıtlıyor) ve lüks malların ile toprak gibi bazı doğal olarak sınırlı kaynakların fiyatı çok daha dramatik şekilde yükselebilir.

Teknik olarak, önümüzdeki yol oldukça net görünüyor. Ancak, kamu politikası ve AGI’nin topluma nasıl entegre edileceğine dair toplumsal görüşler çok önemli; ürünleri erken ve sık sık piyasaya sürmemizin nedenlerinden biri, toplum ve teknolojinin birlikte evrimleşmesi için zaman tanımaktır.

Yapay zekâ, ekonominin ve toplumun tüm alanlarına sızacak; her şeyin akıllı olması beklenecektir. Tarihsel olarak, insanlara teknoloji üzerinde daha fazla kontrol sağlamak gerektiğini, daha fazla açık kaynak kullanımına gidilmesi gerektiğini ve güvenlik ile bireysel güçlendirme arasında ödünleşmeler gerektiren bir denge olduğunu düşünüyoruz.

İddialı olmak istemesek de, AGI güvenliğiyle ilgili bazı büyük kararlar ve sınırlamalar muhtemelen popüler olmayacaktır. Ancak yön itibarıyla, AGI’ye daha da yaklaştıkça bireysel güçlendirmeye yönelmenin önemli olduğuna inanıyoruz; aksi takdirde, görebileceğimiz diğer olası yol, otoriter hükümetlerin kitle gözetimi ve özerklik kaybı yoluyla nüfuslarını kontrol etmek için yapay zekâyı kullanması olacaktır.

AGI’nin faydalarının geniş çapta dağıtılmasını sağlamak çok kritiktir. Teknolojik ilerlemenin tarihsel etkisi, önem verdiğimiz ölçütlerin (sağlık sonuçları, ekonomik refah vb.) ortalama ve uzun vadede iyileştiğini gösteriyor; ancak eşitliğin artması teknolojik olarak belirlenmiş görünmüyor ve bunu doğru yapmak yeni fikirler gerektirebilir.

Özellikle, sermaye ile emek arasındaki güç dengesinin kolayca bozulabileceği görülüyor ve bu durum erken müdahaleyi gerektirebilir. Dünya üzerindeki herkese bol miktarda yapay zekâ kullanımını sağlayacak bir “hesaplama bütçesi” vermek gibi garip fikirlerine açık olsak da, zekâ maliyetini mümkün olduğunca düşürmenin istenen etkiyi sağladığı birçok yol da görüyoruz.

2035’teki herhangi biri, 2025’teki herkesin entelektüel kapasitesine eşdeğer bir güce sahip olabilmelidir; herkesin hayal edebildiği şekilde yönlendirebileceği sınırsız dehanın erişimine sahip olması gerekir. Şu anda, kendini tam olarak ifade edemeyecek kadar kaynaklara sahip olmayan büyük bir yetenek var; bunu değiştirdiğimizde, dünyanın ortaya koyacağı yaratıcı çıktı hepimiz için muazzam faydalar sağlayacaktır.

Özellikle bu taslakları gözden geçiren Josh Achiam, Boaz Barak ve Aleksander Madry’ye teşekkürler.

*Burada AGI terimini kullanarak, açık ve net iletişim kurmayı amaçlıyoruz; Microsoft ile olan ilişkimizin tanımlayan tanımları ve süreçlerini değiştirmek ya da yorumlamak niyetinde değiliz. Microsoft ile uzun vadeli ortaklık kuracağımızı tamamen bekliyoruz. Bu dipnot saçma görünebilir, ancak bazı gazetecilerin saçma bir şey yazarak tıklama almaya çalışacağını bildiğimiz için bu durumu önceden engelliyoruz…

Sam Atman -blog.samaltman.com