Saydam, yorumlanabilir ve yansız AI niçin her zamankinden daha mühim (VB Live)


Defined.ai tarafınca sunulan


Görevli, etik suni zeka oluşturmak ne anlama geliyor? Suni zekanın geleceğini hangi hükümet politikaları şekillendirecek? Bu VB Live etkinliğinde Intel’den Melvin Greer, IBM’den Noelle Silver ve Defined.ai’den Daniela Braga’ya, AI geleceğimizin bir tek bir tane olmasını iyi mi sağlayabileceğimizi tartışırken katılın.

Hemen buradan ücretsiz kaydolun.


Suni zeka kullanım durumları, birçok iş uygulamasından günlük yaşamın giderek daha çok yönüne kadar çoğalıyor. Suni zeka farkındalığı daha belirgin hale geldikçe, makine öğrenimi algoritmalarının adaleti ve gücü ile suni zekanın mahremiyet, konuşma ve özerklik üstündeki tesirleri hakkında haklı endişeler artıyor. Kamusal alanda güvenli ve adil AI kullanımını sağlamak için hükümet politikası hazırlanırken, hususi sektörde işletmeler etik AI’nın iyi mi geliştirilip dağıtılacağı ile boğuşmalıdır.

Görevli ve etik suni zeka neye benziyor? IBM’de İş Ortağı, Suni Zeka ve Analitik olan Noelle Silver, “Etik” öznel bir terimdir, sadece mesuliyet yada seçimlerinizden görevli olmak, yazılım uygulama söz mevzusu olduğunda esasen doğru olanı yapmaktır diyor.

Silver, “Neyi doğru ya da yanlış olarak algıladığınızdan fazlaca, inşa ettiğiniz şeylerin neticelerinden iyi mi görevli tutulacağınızla ilgili” diyor. “Suni zekalarında etiklik yelpazesinin neresinde olurlarsa olsunlar, her firmanın bu yönde hareket edebileceğini hissediyorum.”

ABD Kıtası’ndan Intel Üyesi ve Baş Veri Bilimcisi Melvin Greer, sonuçlardan görevli olmanın mühim bulunduğunu kabul ediyor, sadece bunun sistemin taraflı mı yoksa adil mi olduğuyla değil, iddia edileni yapmış olup yapmadığıyla ilgili olduğuna dikkat çekiyor. Veri kümelerinde ve kontrol değerlendirmesinde şeffaflığın önemi göz ardı edilemez. Bunun bir parçası olarak, büyük resimden ziyade katılımcı tasarım teknikleri, fazlaca durumlu kodlama yaklaşımları ve döngüdeki insan kontrol şekilleri benzer biçimde insan faktörlerine odaklanılır.

Greer, “Bunların hiçbiri, bu AI sistemlerini toplumsal değerlere bağlayan daha geniş bir sosyo-teknik perspektifin parçası olan önyargıya karşı her derde ilaç değil” diyor. “Ve bence bu, görevli AI alanındaki uzmanların, AI yanlılığının risklerini başarı göstermiş bir halde yönetmek için hakikaten odaklanmak istedikleri yer. toplumsal normları ve ahlakı tanıyan daha geniş bir perspektif.”

İstenmese bile lüzumlu korkuluklara haiz olmamanın geniş neticelerini açıklamaya devam ediyor.

Greer’in açıklamış olduğu benzer biçimde, “Nerede okula gideceğimize, kiminle evleneceğimize, iş bulup bulamayacağımıza, nerede yaşayacağımıza, hangi sıhhat hizmetlerini alacağımıza, hangi gıdaya, hangi ana paraya haiz olacağımıza karar verebilir. haiz olacağız. Riskler yüksek ve bu tarz şeyleri uygulama şeklimizin ciddi bir halde değerlendirilmesini gerektiriyor.”

Etik korkuluklar için zorunluluk

Ne yazık ki, makine öğrenimi modelleri yada algoritmaları tasarlama, oluşturma ve uygulama konumunda olan veri bilimcilerin ve iş birimi uzmanlarının bir çok, ticari olarak etik uzmanı değildir. Genel anlamda okulda etik eğitimi almamışlar ya da ürün tasarımında sorgulama terimini öğrenme fırsatı bulamamışlar. Silver, hangi soruları soracaklarını bilmiyorlar yada modellerinin performansı yada amacı ve onları eğitmek için kullanılan veriler açısından nelerden görevli tutulabileceklerini belirleyemiyorlar, diyor Silver. Ve iş hiyerarşisinde daha alt sıralarda yer edinen çalışanlar, bu etik soruların ücret derecelerinin üstünde bulunduğunu varsayma eğilimindedir.

“Artık her iş kolunda suni zekadan yararlanırken, her birimizin bu teknolojiyi niçin kullandığımıza ve bu kullanımın kapsamının ne olduğuna ve bu tahminleri oluşturan verileri iyi mi topladığımıza dair bir müdafa bulmak ve idrak etmek için mesuliyet almamız gerekiyor. ,” diyor.

Greer ek olarak tüm insanların neyin etik neyin etik olmadığı mevzusunda kendi fikirlerini geliştirdiğine dikkat çekiyor. Ve eğer suni zeka sistemleri kuruyorlarsa, sisteme kendi etik ve etik davranış görüşlerini aşılıyorlar – bu, yaymak istediğimiz toplumsal uygulamalar yada toplumsal değerlerle uyumlu olabilir yada olmayabilir.

Silver, insanları toplumsal bilimlerden daha çok çekmeye başlamanın eleştiri bulunduğunu ve veri bilimcilerinin suni zeka ile ilişkide insan dinamiği hakkında düşünmeye başlamasının eleştiri bulunduğunu söylüyor, böylece bir insanı incitecek bir şey inşa etmiyorsunuz.

“Sonuçta bu en büyük başarısızlıktır, birinin haklarını ihlal eden, birinin yapma hakkına haiz olduğu bir şeyi yapma kabiliyetine zarar veren bir suni zeka inşa etmek, sadece suni zeka modelleriniz istemeden buna karşı karar verdi” diyor. “Bu, bir çok firmanın savaşım etmiş olduğu bir şey, bunun iyi mi iyi yapılacağı.”

Görevli ve etik suni zekayı uygulamak

Silver, etik suni zekaya giden yola adım atmak için bir kuruluşun bir suni zeka manifestosuna ihtiyacı bulunduğunu söylüyor. Ve liderlerin veriye dayalı bir iş olmanın ne demek bulunduğunu anlamaları ve arkasından bunu görevli bir halde inşa edeceklerine dair bir niyet belirlemeleri gerekiyor. Bir suni zeka çözümü oluşturduğunuzda, kesinlikle veri bilimcisi olmayan birinin modellerin iyi mi çalıştığını anlayabilmesi için modellerin şeffaflığını ve yorumlanabilirliğini içermesi gerekir.

Bilhassa doğru veri kümelerini oluştururken gizliliğe odaklanmak da önemlidir. Silver, bunu görevli bir halde yapmanın pahalı bulunduğunu ve eğitim verilerinizde her seçim bölgesinin temsil edildiğinden yada en azından empatik olarak not edildiğinden güvenli olmanın pahalı bulunduğunu söylüyor. Silver, pek fazlaca kuruluşun savaşım etmiş olduğu yerdir – sadece yazılımın adil ve hakkaniyetli olmasını sağlamış olduğu ve ihtimaller içinde aksaklıkları ve hatta şirket felaketlerini önlediği için buna kıymet, diye vurguluyor. Etik AI ek olarak bir geri bildirim döngüsü gerektirir, böylece modeller üstünde çalışan hepimiz herhangi bir problemi yada endişeyi belirtmek için elini kaldırabilir.

Ek olarak, önyargıyı ortadan kaldırmak ve sistemlerin iyi mi oluşturulduğunu ve yüzeyde bile cemiyet üstünde ne benzer biçimde tesirleri olacağını detaylandırmak için şeffaflık ve sorumluluğun makine öğrenimi ve teknik yeteneklerinin ötesine geçme ihtiyacı var. yaptıkları işte iyiler. Mesela, kabahat önleme ve tahmin için algoritmalar kullanmak, hem de kanun uygulayıcılara yardım etmede nispeten başarı göstermiş oldu, bu algoritmaların uygulanma şekli sebebiyle toplumdaki bazı topluluklar üstünde orantısız olarak negatif bir tesiri oldu.

“Bir veri bilimcisi olarak size suni zeka ve onu iyilik için kullanma beklentileri mevzusunda iyimser olduğumu söyleyebilirim, gerçek şu ki, fazlaca odaklanmış ve çalışmadığı süre daha geniş toplumumuz süresince dalgalanabilme kabiliyetine haiz. Greer, bizim istediğimiz şekilde, hasarın ölçeği ve tüm cemiyet genelinde sürdürülebilme hızı fazlaca geniş ve fazlaca etkili” diye uyarıyor.

Suni Zeka’nın iyi mi iyilik için kullanıldığı, görevli ve etik suni zekaya yönelik daha geniş çabaların iyi mi bir parçası olunacağı ve bu çabaların önde gelen firmalar, kuruluşlar ve genel olarak toplumun nerede olduğu hakkında daha çok data için bu VB Live etkinliğini kaçırmayın.


kaçırmayın!

Buradan ücretsiz kayıt olun.


Katılımcılar şunları öğrenecek:

  • Adil ve etik suni zeka sağlamak için önyargıyı verilerden iyi mi uzak tutabilirsiniz?
  • Yorumlanabilir suni zeka şeffaflığa iyi mi destek verir ve ticari sorumluluğu azaltır
  • Yaklaşan hükümet düzenlemesi, suni zekayı tasarlama ve uygulama şeklimizi iyi mi değiştirecek?
  • Etik suni zeka uygulamalarının erken benimsenmesi, uyumluluk sorunlarının ve maliyetlerinin önüne geçmenize iyi mi destek olacaktır?

Konuşmacılar:

  • Noelle Gümüşİş Ortağı, Suni Zeka ve Analitik, IBM
  • Melvin GreerIntel Üyesi ve Baş Veri Bilimcisi, ABD
  • Daniela BragaKurucu ve CEO, Defined.ai
  • Chris J. PreimesbergerModeratör, VentureBeat

Yoruma kapalı.

Bu web sitesi deneyiminizi geliştirmek için çerezleri kullanır. Bununla iyi olduğunuzu varsayacağız, ancak isterseniz vazgeçebilirsiniz. Kabul etmek Mesajları Oku

Gizlilik ve Çerez Politikası