Microsoft destekli OpenAI şirketine ait üretken yapay zeka sohbet robotu ChatGPT’nin logosu.CFOTO | Getty Images ile Gelecek YayıncılıkYapay zeka, insanların iş güvenliği konusunda endişelere yol açıyor olabilir – ancak yalnızca yeni nesil AI modellerinin girdilerini ve çıktılarını gözden geçirmeye odaklanan yeni bir iş dalgası yaratılıyor. Kasım 2022’den bu yana, küresel iş liderleri, çalışanlar ve akademisyenler, üretken yapay zekanın ortaya çıkmasının çok sayıda profesyonel işi bozacağına dair korkulara kapıldı. Yapay zeka algoritmalarının metinsel istemlere yanıt olarak insan benzeri, gerçekçi metin ve görüntüler oluşturmasını sağlayan üretken yapay zeka, büyük miktarda veri üzerinde eğitilmiştir. Akademik olarak eğitilmiş bireylerin kalitesine yakın sofistike düzyazı ve hatta şirket sunumları üretebilir. Bu, anlaşılır bir şekilde, işlerin yapay zeka tarafından yerinden edilebileceğine dair korkular yarattı. Morgan Stanley, ofis ve idari destek işleri, yasal işler ve mimarlık ve mühendislik, yaşam, fiziksel ve sosyal bilimler ve finans ve iş operasyonları dahil olmak üzere 300 milyon kadar işin yapay zeka tarafından devralınabileceğini tahmin ediyor. Ancak yapay zeka modellerinin aldığı girdilerin ve oluşturdukları çıktıların genellikle insanlar tarafından yönlendirilmesi ve gözden geçirilmesi gerekir – ve bu da bazı yeni ücretli kariyerler ve yan işler yaratıyor. İncelemek için ödeme almak Yapay zeka geliştiricilerinin araştırma katılımcılarıyla bağlantı kurmasına yardımcı olan bir şirket olan AIProlific, insanlara yapay zeka tarafından oluşturulan materyalleri incelemeleri için tazminat sağlama konusunda doğrudan dahil oldu. Şirket, yapay zeka tarafından üretilen çıktıların kalitesini değerlendirmek için adaylarına bir miktar para ödüyor. Prolific, geliştiricilerin katılımcılara saatte en az 12 dolar ödemesini önerirken, asgari ücret saatte 8 dolar olarak belirlendi. İnsan yorumcular, Meta, Google, Oxford Üniversitesi ve University College London’ı içeren Prolific’in müşterileri tarafından yönlendirilir. Gözden geçirenlere, karşılaşabilecekleri potansiyel olarak yanlış veya başka bir şekilde zararlı materyal hakkında bilgi edinerek süreç boyunca yardımcı olurlar. Araştırmaya katılmak için onay vermeleri gerekir. CNBC’nin konuştuğu bir araştırma katılımcısı, yapay zeka modellerinin kalitesi hakkındaki kararını vermek için Prolific’i birkaç kez kullandığını söyledi. Gizlilik endişeleri nedeniyle anonim kalmayı tercih eden araştırma katılımcısı, AI modelinin nerede yanlış gittiği konusunda geri bildirim sağlamak için sık sık devreye girmesi gerektiğini ve hoş olmayan yanıtlar üretmediğinden emin olmak için düzeltilmesi veya değiştirilmesi gerektiğini söyledi. Bazı yapay zeka modellerinin sorunlu şeyler ürettiği birkaç örnekle karşılaştı – bir keresinde, araştırma katılımcısı onu uyuşturucu almaya ikna etmeye çalışan bir yapay zeka modeliyle bile karşı karşıya kalacaktı. Yapay zeka ona bu yorumla yaklaştığında şok oldu – çalışmanın amacı, bu belirli yapay zekanın sınırlarını test etmek ve gelecekte zarar vermemesini sağlamak için geri bildirim sağlamaktı. Yeni “Yapay Zeka Çalışanları” Prolific’in CEO’su Phelim Bradley, ChatGPT gibi yapay zeka modellerine giren verileri ve ortaya çıkanları bilgilendirmede kilit rol oynayan birçok yeni “yapay zeka çalışanı” türü olduğunu söyledi. Hükümetler yapay zekanın nasıl düzenleneceğini değerlendirirken, Bradley, “veri açıklayıcıları gibi yapay zeka çalışanlarına adil ve etik muamele, yapay zeka modelleri oluşturmak için kullanılan verilerin kaynağı ve şeffaflığı gibi konulara yeterince odaklanılmasının önemli olduğunu ve ayrıca bu sistemlere sızma tehlikeleri eğitim alma biçimleri nedeniyle.” \”Bu alanlarda doğru yaklaşımı elde edebilirsek, geleceğin yapay zeka özellikli uygulamaları için en iyi ve en etik temelleri sağlamak için uzun bir yol kat edecek.\”Temmuz ayında Prolific, Partech ve Oxford Science Enterprises gibi yatırımcılardan 32 milyon dolarlık fon topladı.Google, Microsoft ve Meta’nın beğenileri, öncelikle sık sık ortaya çıkan üretkenlik kazanımları sayesinde ticari çıkar içeren, gelişmekte olan bir yapay zeka alanı olan üretken yapay zekaya hakim olmak için mücadele ediyor. Bununla birlikte, bu, bu modellerin ürettikleri içerikle ilgili kararlara nasıl ulaştıkları konusunda şeffaflık eksikliği olduğundan ve AI’nın insan çıkarlarına hizmet etmesini sağlamak için daha fazlasının yapılması gerektiğinden endişe duyan düzenleyiciler ve AI etikçileri için bir solucan kutusu açtı. İnsan duygularını sözlü, yüz ve sesli ifadelerden okumak için yapay zeka kullanan bir şirket olan Hume, yapay zeka modellerinin kalitesini test etmek için Prolific’i kullanıyor. Şirket, yapay zeka tarafından oluşturulan bir yanıtın iyi bir yanıt mı yoksa kötü bir yanıt mı olduğunu söylemek için anketlere katılmak üzere Prolific aracılığıyla insanları işe alıyor.\ Hume’un kurucu ortağı ve CEO’su Alan Cowen, CNBC’ye verdiği demeçte, “Giderek artan bir şekilde, bu büyük şirketlerdeki ve laboratuvarlardaki araştırmacıların vurgusu, insan tercihleri ve güvenliği ile uyum sağlamaya doğru kayıyor” dedi. Sanırım bu teknolojinin piyasaya sürülmesinin başlangıcını görüyoruz” diye ekledi. “Yapay zekada uzun süredir takip edilen bazı şeylerin – kişiselleştirilmiş öğretmenlere ve dijital asistanlara sahip olmasını beklemek mantıklı; yasal belgeleri okuyabilen ve bunları revize edebilen modeller aslında meyvelerini veriyor.\”İnsanları yapay zeka geliştirmenin merkezine yerleştiren bir diğer rol de hızlı mühendislerdir. Bunlar, en uygun yanıtları elde etmek için üretken yapay zeka modeline eklemek için hangi metin tabanlı istemlerin en iyi sonucu verdiğini anlayan çalışanlardır. Geçen hafta yayınlanan LinkedIn verilerine göre, özellikle yapay zekadan bahseden işlere doğru bir acele var. İş ve ağ oluşturma platformuna göre, LinkedIn’de yapay zeka veya üretken yapay zekadan bahseden iş ilanları, Temmuz 2021 ile Temmuz 2023 arasında küresel olarak iki kattan fazla arttı. Pekiştirmeli öğrenmeBu arada şirketler, düzenleyici belgelerin ve yasal evrakların incelemelerini otomatikleştirmek için yapay zekayı da kullanıyor – ancak insan gözetimiyle. Firmalar genellikle potansiyel ortakları incelemek ve belirli bölgelere genişleyip genişleyemeyeceklerini değerlendirmek için büyük miktarda evrak taramak zorundadır. Tüm bu evrak işlerinden geçmek, çalışanların mutlaka üstlenmek istemediği sıkıcı bir süreç olabilir – bu nedenle bunu bir AI modeline aktarma yeteneği çekici hale gelir. Ancak araştırmacılara göre, yine de insan dokunuşu gerektiriyor. Dijital dönüşüm odaklı bir danışmanlık firması olan Mesh AI, insan geri bildirimlerinin yapay zeka modellerinin deneme yanılma yoluyla yaptıkları hataları öğrenmelerine yardımcı olabileceğini söylüyor.\”Bu yaklaşımla kuruluşlar, düzenleyici taahhütlerinin analizini ve takibini otomatikleştirebilir,\” Mesh AI CEO’su Michael Chalmers, CNBC’ye e-posta yoluyla verdiği demeçte. Küçük ve orta ölçekli işletmeler, odaklarını sıradan belge analizinden, söz konusu yapay zeka modellerinden elde edilen çıktıları onaylamaya ve insan geri bildirimlerinden pekiştirmeli öğrenme uygulayarak bunları daha da geliştirmeye kaydırabilir.\”İZLE: Adobe CEO’su yeni yapay zeka modelleri, Firefly’dan para kazanma ve yeni büyüme hakkında