Ilya Sutskever eski kankalarla güvenli süper zeka kurdu

Ilya Sutskever, OpenAI’nin kurucu ortaklarından biri. OpenAI’den resmi olarak ayrılmasından sadece bir ay sonra, Safe Superintelligence Inc. (SSI) adlı yeni bir şirket kurdu. OpenAI’nin baş bilim insanı görevini uzun süredir yöneten Sutskever, SSI’yi eski Y Combinator ortağı Daniel Gross ve eski OpenAI mühendisi Daniel Levy ile birlikte kurdu.

OpenAI’de, Sutskever, “süper zeki” AI sistemlerinin yükselişi ile AI güvenliğini geliştirme çabalarını her daim sürdürdü. Bu alanda OpenAI’nin Süperuyum (Superalignment) ekibini birlikte yöneten Jan Leike ile çalıştı. Ancak, Sutskever ve ardından Leike, AI güvenliğine nasıl yaklaşılacağı konusunda OpenAI’deki liderlikle dramatik bir anlaşmazlık sonrası Mayıs ayında şirketten ayrıldılar. Leike şimdi rakip AI şirketi Anthropic’te bir ekibi yönetiyor.

Sutskever, AI güvenliğinin yanlış taraflarını uzun süredir anlatıyor. 2023’te yayınlanan bir blog yazısında, Leike ile birlikte yazdığı yazıda, insanlardan daha üstün zekaya sahip AI’nın on yıl içinde gelebileceğini ve bu olduğunda mutlaka iyiliksever olmayabileceğini, bu nedenle kontrol ve sınırlama yollarını araştırmanın gerekli olduğunu öngördü.

Sutskever’in yeni şirketinin kuruluşunu duyuran bir tweet’te şu ifadeler yer aldı: “SSI bizim misyonumuz, ismimiz ve tüm ürün yol haritamızdır, çünkü tek odak noktamız budur. Ekibimiz, yatırımcılarımız ve iş modelimiz SSI’yi başarmak için uyumlu. Güvenlik ve yeteneklere, devrim niteliğindeki mühendislik ve bilimsel atılımlarla çözülecek teknik problemler olarak yaklaşıyoruz.”

“Yetenekleri mümkün olduğunca hızlı bir şekilde geliştirirken, güvenliğimizin her zaman önde olduğundan emin olmayı planlıyoruz. Bu şekilde, huzur içinde büyüyebiliriz. Tek odak noktamız, yönetim yükü veya ürün döngüleri tarafından dikkatimizi dağıtmamızı engelliyor ve iş modelimiz, güvenlik, emniyet ve ilerlemenin kısa vadeli ticari baskılardan korunmasını sağlıyor.”