Bu ay yapay zeka araştırmacısı Jeremy Howard’ı tanıttı. Çevrimiçi sohbet robotu Telefon etmek sohbet 7 yaşındaki kızına. Birkaç gün önce dünyanın en iddialı yapay zeka laboratuvarlarından biri olan OpenAI tarafından yayınlandı.
Deneysel sohbet robotuna aklından ne geçtiğini sormasını söyledi. Neden trigonometri kullanıldığını, kara deliklerin nereden geldiğini ve tavukların yumurtalarını neden kuluçkaya yatırdıklarını sordum. Her seferinde net, noktalı nesirle cevap verdi. Havaya atılan bir topun yörüngesini tahmin edebilen bir bilgisayar programı istediğinde, ona onu da verdi.
Önümüzdeki birkaç gün içinde, bir veri bilimcisi ve profesör olan Bay Howard Çalışmaları ChatGPT ve benzeri teknolojilerin oluşturulmasına ilham veren Chatbot’u yeni bir tür kişisel öğretmen olarak görmeye geldim. Kızına matematik, fen ve İngilizce öğretebilirdi, diğer bazı önemli derslerden bahsetmeye bile gerek yok. Bunların başlıcası: Size söylenen her şeye inanmayın.
“Onun bu şekilde öğrendiğini görmek bana büyük zevk veriyor” dedi. “Ama ona şunu da söyledim: Sana verdiği her şeye güvenme. Ters gidebilir.”
OpenAI, daha gelişmiş sohbet botları oluşturmak için çalışan birçok şirket, akademik laboratuvar ve bağımsız araştırmacı arasında yer alıyor. Ancak bu sistemler bir insan gibi sohbet edemezler. Sık sık görünürler. Ayrıca, bilgileri insanların asla yapamayacağı bir hızda alıp yeniden bir araya getirebilirler. Siri veya Alexa gibi, aradığınızı anlama ve size verme konusunda daha iyi olan dijital asistanlar olarak görülebilirler.
Bir milyondan fazla kişi tarafından kullanılan ChatGPT’nin piyasaya sürülmesinden sonra, birçok uzman bu yeni sohbet robotlarının Google ve Bing gibi İnternet arama motorlarını yeniden keşfetmeye ve hatta yerini almaya hazır olduğuna inanıyor.
Bilgileri uzun mavi bağlantı listeleri yerine dar cümlelerle sunabilirler. Kavramları insanların anlayabileceği şekilde açıklarlar. Sıfırdan iş planları, makale konuları ve diğer yeni fikirleri oluştururken gerçekleri sunabilirler.
Silicon Valley, Box’ın CEO’su Aaron Levy ve bu sohbet robotlarının nasıl değişeceğini araştıran birkaç yöneticiden biri, “Artık herhangi bir soruyu bir insan için anlamlı olacak şekilde yanıtlayabilen bir bilgisayarınız var” dedi. teknoloji manzarası. “Farklı bağlamlardan fikirleri ortaya çıkarabilir, alabilir ve bunları bir araya getirebilir.”
Yeni sohbet robotları bunu tam bir güvenle yapıyor. Ama her zaman doğruyu söylemezler. Bazen basit aritmetik işlemlerde bile başarısız olurlar. Gerçeği kurguyla karıştırıyorlar. Ve gelişmeye devam ettikçe, insanlar onu kullanabilir Yalan üretmek ve yaymak.
OpenAI’nin yükselişi
San Francisco şirketi, dünyanın en iddialı yapay zeka laboratuvarlarından biridir. İşte son gelişmelerden bazılarına bir göz atın.
Google kısa bir süre önce, LaMDA veya Diyalog Uygulamaları için Dil Modeli adı verilen, konuşma için tescilli bir sistem oluşturdu. Bu bahar, bir Google mühendisi Bilincinin yerinde olduğunu iddia etti. olmadıAma halkın hayal gücünü ele geçirdi.
Virginia, Arlington’da bir veri bilimcisi olan Aaron Margolis, Google’ın deneysel uygulaması AI Test Kitchen aracılığıyla LaMDA’yı kullanmasına izin verilen Google dışındaki sınırlı sayıdaki kişi arasındaydı. Açık konuşma yeteneğine her zaman hayran kalmıştı. Onu eğlendirdim. Ancak, internette yayınlanan çok miktarda bilgiden eğitilmiş bir sistemden beklenebileceği gibi, bunun biraz efsane olabileceği konusunda uyardı.
“Size bir Aaron Sorkin filmi gibi bir şey veren şey,” dedi. Bay Sorkin, Facebook’un kökeni hakkındaki gerçeği esnettiği için sıklıkla eleştirilen bir film olan “The Social Network”ü yazdı. “Bunun bir kısmı doğru olacak ve bir kısmı olmayacak.”
Geçenlerde hem LaMDA’dan hem de ChatGPT’den kendisiyle Mark Twain’miş gibi konuşmalarını istedi. LaMDA tarafından sorulduğunda, Twain ve Levi Strauss arasındaki görüşmeyi hızlıca anlattı ve yazarın 1800’lerin ortalarında San Francisco’da yaşarken mavi kot kralı ile çalıştığını söyledi. Bu doğru görünüyordu. Ama değildi. Twain ve Strauss aynı dönemde San Francisco’da yaşadılar ama hiç birlikte çalışmadılar.
Bilim adamları bu soruna “halüsinasyonlar” diyorlar. Tıpkı iyi bir hikaye anlatıcı gibi, sohbet robotlarının öğrendiklerini alıp yeni bir şeye dönüştürmenin bir yolu vardır – doğru olup olmadığına bakılmaksızın.
LaMDA, AI araştırmacılarının bir sinir ağı, beynin nöron ağına gevşek bir şekilde modellenmiş bir matematiksel sistem. Bu aynı teknoloji Fransızca ve İngilizce arasında çeviri yapar Google Translate gibi hizmetlerde yayaları şu şekilde tanımlar: Kendi kendine giden arabalar şehrin sokaklarında geziniyor.
Bir sinir ağı, verileri analiz ederek becerileri öğrenir. Örneğin, binlerce kedi resmindeki kalıpları tanımlayarak, bir kediyi tanımlamayı öğrenebilir.
Beş yıl önce, Google’daki araştırmacılar ve OpenAI gibi laboratuvarlar, sinir ağlarını tasarlamaya başladı. Büyük miktarda dijital metni analiz edin, kitaplar, Wikipedia makaleleri, haberler ve çevrimiçi sohbet günlükleri dahil. Bilim adamları bunlara “büyük dil paradigmaları” diyor. İnsanların kelimeleri, sayıları ve sembolleri ilişkilendirme biçimindeki milyarlarca farklı modeli tanımlayarak, bu sistemler kendi başlarına metin oluşturmayı öğrendiler.
Dil üretme yetenekleri, onu inşa eden birçok araştırmacı da dahil olmak üzere, alandaki birçok araştırmacıyı şaşırttı. Teknoloji, insanların yazdıklarını taklit edebilir ve farklı kavramları birleştirebilir. Ondan Jerry’nin kabarcık sıralama algoritması adı verilen ezoterik bir matematik tekniği öğrendiği bir “Seinfeld” sahnesi yazmasını isteyebilirsiniz – ve istemek.
ChatGPT ile OpenAI, teknolojiyi geliştirdi. Google’ın LaMDA’sı gibi serbest akışlı bir sohbet yapmaz. Daha çok Siri, Alexa ve diğer dijital asistanlar gibi çalışacak şekilde tasarlandı. LaMDA gibi, ChatGPT de internetten çıkarılan bir dijital metinler denizinde eğitildi.
İnsanlar sistemi test ettiklerinde, yanıtlarını derecelendirmeleri istendi. İnandırıcı mıydılar? Yardımcı oldu mu? Dürüst müydüler? Daha sonra adı verilen bir teknoloji aracılığıyla Takviye öğrenmekDerecelendirmeleri, sisteme ince ayar yapmak ve ne yapıp ne yapmayacağını daha dikkatli bir şekilde tanımlamak için kullandım.
OpenAI’nin baş teknoloji sorumlusu Mira Moratti, “Bu, modelin sizinle etkileşime girebileceği ve yanlış olduğunda kabul edebileceği noktaya gelmemizi sağlıyor” dedi. “Uygunsuz bir şeyi reddedebilir ve geçerli olmayan bir soruya veya hipoteze meydan okuyabilir.”
Yöntem mükemmel değildi. OpenAI, ChatGPT kullananları “ara sıra yanlış bilgiler üretebileceği” ve “kötü niyetli talimatlar veya önyargılı içerik üretebileceği” konusunda uyardı. Ancak şirket, teknolojiyi geliştirmeye devam etmeyi planlıyor ve onu kullanan insanlara bunun hâlâ bir araştırma projesi olduğunu hatırlatıyor.
Google, Meta ve diğer şirketler de doğruluk sorunlarını giderir. yakın zamanda öldü Kaldırma Sohbet robotu Galactica’nın çevrimiçi önizlemesi, çünkü sık sık yanlış ve önyargılı bilgiler üretiyor.
Uzmanlar, şirketlerin bu teknolojilerin kaderini kontrol edemediği konusunda uyardı. ChatGPT, LaMDA ve Galactica gibi sistemler, yıllardır serbestçe dolaşan fikirlere, araştırma makalelerine ve bilgisayar kodlarına dayanmaktadır.
Google ve OpenAI gibi şirketler, teknolojiyi diğerlerinden daha hızlı ilerletebilir. Ancak en son teknolojileri geniş çapta yeniden üretildi ve dağıtıldı. İnsanların yanlış bilgi yaymak için bu sistemleri kullanmasını engelleyemezler.
Bay Howard, kızının internette okuduğu her şeye güvenmemeyi öğrenmesini umduğu gibi, toplumun da aynı dersi öğrenmesini umuyordu.
“Bu botlardan milyonlarcasını insan gibi görünecek şekilde programlayabilir ve insanları belirli bir bakış açısına ikna etmek için tasarlanmış konuşmalar yapabilirsiniz” dedi. Ben bu konuda yıllar önce uyarmıştım. Şimdi bunun olmasını beklediği açık.”
“Analist. Tutkulu zombi gurusu. Twitter uygulayıcısı. İnternet fanatiği. Dost pastırma hayranı.”
More Stories
Best Buy (BBY) 2025 2. Çeyrek kazançları
Foot Locker, yüksek maliyetleri azaltmak için New York’u terk edip St. Petersburg, Florida’ya taşınıyor: “verimlilik”
Nvidia Canlı Kazanç Güncellemeleri: Nvidia hisseleri bugünkü yatırımcı çağrısı öncesinde düştü