Sayfa Gezinme

Son makaleler:

latest

YAYIN AKIŞI:

Tümünü Görüntüle

Facebook düşüncelerinizi okumak için teknoloji geliştiriyor. Etik çıkarımlar şaşırtıcıdır.

Burada gösterilen mindBEAGLE sistemi gibi beyin-bilgisayar arayüzleri, felçli kişilerin iletişim kurmasına yardımcı olabilir. Facebook tek...

...
Burada gösterilen mindBEAGLE sistemi gibi beyin-bilgisayar arayüzleri, felçli kişilerin iletişim kurmasına yardımcı olabilir. Facebook teknolojiyi bir üst seviyeye çıkarmak istiyor. AP
Beyinlerimizin belki de son gizlilik sınırıdır!

Facebook, tam anlamıyla zihninizi okuyabilen bir cihaz oluşturmak istiyor. Şirket , geçen hafta bir blog yazısında açıklanan düşüncelerini doğrudan nöronlarınızdan toplayabilen ve sözcüklere çevirebilen beyin-makine arayüzleri üzerine araştırmalar yapıyor.

Kısa vadeli amaç, beyin sinyallerini deşifre ederek ve kaslarını hareket ettirmeden düşüncelerini “konuşmalarını” sağlayarak felçli hastalara yardım etmektir. Milyonlarca insan için yaşam kalitesini önemli ölçüde artıran gerçek bir kamu yararı olabilir. Sadece ABD'de, 5.4 milyon insan şu anda felç geçiriyor .

Fakat Facebook'un uzun vadeli hedefinin çok daha geniş bir kitleye ulaşmaktır: Amaç, diyor, vermektir tüm birimiz dijital cihazları kontrol yeteneği - yalnız düşünce gücünü kullanarak - klavyeler gelen artırılmış gerçeklik gözlük. Bunu yapmak için, şirketin beyin verilerimize erişmesi gerekecek. Elbette bazı etik kaygılar doğuruyor.

Facebook tarafından finanse edilen araştırma California San Francisco Üniversitesi'nde gerçekleşiyor. Buradaki bilim adamları, yakın tarihli bir Doğa İletişimi makalesinde bir çalışmanın sonuçlarını yayınladılar . Alan için ilk olarak, beyin aktivitesinden sözcükleri çözebilecek ve gerçek zamanlı olarak bilgisayar ekranındaki metne çevirebilecek bir algoritma geliştirdiklerini söylüyorlar .

Çalışmalarındaki insan katılımcılar - epilepsili üç gönüllü - önce beyinlerinin yüzeyine cerrahi olarak yerleştirilen elektrotlara izin vermek zorunda kaldılar. Sonra basit soruları dinlediler (“Odanız şu anda nasıl?” Gibi) ve cevaplarını yüksek sesle dile getirdiler. Algoritma, sadece beyin aktivitelerini okuyarak, cevapları yüzde 61 kadar yüksek doğruluk oranlarıyla çözdü.

Bu oldukça etkileyicidir, ancak şimdiye kadar algoritma yalnızca küçük bir sözcükten (“soğuk”, “sıcak” ve “iyi” gibi) kelimeleri tanıyabilir. Bilim adamları zamanla sözlüğünü büyütmeyi hedefliyorlar. Önemlisi, ayrıca ameliyat gerektirmeyen bir konuşma kod çözme yöntemi geliştirmek istiyorlar. İdeal olanı invazif olmayan bir giyilebilir kulaklıktır, ancak yapımı daha zordur.

Bu arada, bu nöroteknolojinin etik sonuçlarını göz önünde bulundurma şansımız var - ve bunu yapmak çok önemli, çünkü özellikle Facebook beyin-bilgisayar arayüzlerini (BCI'ler) araştıran tek kişi değil.

Bu alanda çeşitli bilim adamları , ABD ordusu ve Çekirdek ve Paradromik gibi şirketler de çalışıyor. Elon Musk'un şirketi Neuralink kısa süre önce bir beyine yerleştirilebilen ve bir gün akıllı telefonunuzu veya bilgisayarınızı sadece düşüncelerinizle kontrol etmenize izin verebilecek esnek “iplikler” geliştirdiğini ortaya çıkardı . Musk, gelecek yıl sonuna kadar insanlarda teste başlamayı umduğunu söyledi.

Halen geliştirilmekte olan bu nöroteknolojilerin etik etkilerini şimdi tartışmak gerekiyor. O kadar basit olan haklara müdahale etme potansiyeline sahiptir ki, onları hak olarak bile düşünemeyebilirsiniz: zihinsel mahremiyetiniz, söyleyiniz veya kendinizin nerede bitip bir makinenin nerede başladığını belirleme beceriniz. Marcello Ienca gibi nöroetikçiler, bu hakları ortaya çıkmakta olan teknolojiden korumak için yeni yasal korumalara ihtiyacımız olabileceğini savundular . Ancak milletvekilleri yavaş hareket ediyor ve Facebook ya da Neuralink gibi cihazları piyasaya sürmek için beklersek, nöroteknoloji çağı için yeni hakları korumak için çok geç olabilir .
Beyin-bilgisayar arayüzlerinin bilim kurgudan gerçeğe hızlı kayması

Daha önce BCI'ları duymadıysanız, Neal Stephenson veya William Gibson romanından bir şey değil, bunun gerçek hayat olduğuna inanmak zor olabilir . Ancak bu araştırma gerçekten oluyor. Ve geçtiğimiz on yıl boyunca, aslında insanların hayatlarını değiştirmeye başladı.

BCI teknolojisi, zaten AI işleme yazılımının yardımı ile zaten söylediklerini çözmek için nöral aktiviteyi “okuyan” sistemler ve beyne “yazan” sistemler ve aslında işleyişini değiştirmesi için yeni girdiler verir. Bazı araştırmacılar hem okuyan hem de yazabilen çift yönlü arayüzler geliştirmekle ilgileniyorlar.

Bu teknolojiyi geliştirmekle ilgilenmenizin farklı nedenleri olabilir. Spektrumun bir ucunda, felçli insanların düşüncelerini konuşmaya çevirme veya protez uzuvları çalıştırmalarına yardımcı olma gibi çok özel uygulamalar faydalıdır. As Verge konuşmaya ancak hareketi değil odaklanmış - - alanda, erken başarıyı açıkladı 2006 yılına dayanmaktadır:


Omurilik felci olan ve bir bilgisayar imlecini kontrol etmesine izin veren beyin implantı alan ilk kişi Matthew Nagle idi. 2006'da Nagle sadece aklını kullanarak Pong oynadı; The New York Times'a yaptığı açıklamada , temel hareketin ustalaşmasının dört gün sürmesi gerektiğini söyledi . O zamandan beri, felçli beyin implantları olan insanlar da nesneleri odak noktasına getirdiler ve bilimsel araştırmaların bir parçası olarak laboratuvarlardaki robot kollarını hareket ettirdiler . Nagle ve diğerlerinin kullandığı sistem BrainGateolarak adlandırılır ve başlangıçta Brown Üniversitesi'nde geliştirilmiştir.

Bazı fütüristler kesinlikle daha fantastik motivasyonlara sahipler. Musk nihayetinde “yapay zeka ile bir simbiyoz elde etmeyi” hedeflediğini söyledi . Amacı, AI sistemleri gittikçe daha ileri hale geldikçe “geride bırakmayacağımız” insanlara “AI ile birleşme” sağlayan bir teknoloji geliştirmek. .

Şimdilik, beyinde veya beyinde BCI implante eden elektrotların genel istilacılığı, bu teknolojinin ticari potansiyelini büyük ölçüde sınırlandırıyor. Ancak, Facebook gibi şirketler, dışında kalırken beyindeki kan akışındaki değişiklikleri tespit edebilen yakın kızılötesi ışık kullanan bir sistemgibi, invazif olmayan yöntemler araştırıyor .

Beyin okuma teknolojisinin etik riskleri

En son yeniliklerde olduğu gibi, bu daha önce hiç düşünmediğimiz etik dengesizlikleri artırmaya yöneliktir. Facebook projesine dahil olan bilim insanları, bu nöroteknoloji ile ilgili tüm etik sorunları kendi başlarına öngöremediklerini veya çözemediklerini kabul ettiler.

“Ne olabilir projeyi Helms Mark Chevillet, do teknoloji insanların mümkündür bildiklerini ötesine ilerlediği zaman tanımak ve bilgi toplumu, geri teslim edilmesini emin olmaktır”, şirket blog yazısında diyor. “Nöroetik tasarım programımızın temel direklerinden biridir - üzerinde çalıştığımız şey hakkında şeffaf olmak istiyoruz, böylece insanlar bize bu teknolojiyle ilgili endişelerini söyleyebilirler.”

Bu ruh hali içinde, Facebook'un gelişmesine yardımcı olduğu teknik hakkında beş kaygı var.

1. Gizlilik: Açıkla başlayalım. Beyinlerimiz belki de son gizlilik sınırıdır. Onlar bizim kişisel kimliğimizin ve en samimi düşüncelerimizin koltuklarıdır. Kafatasımızdaki bu üç kilo değerli goo kontrol etmek bizim değil miyiz?

Facebook, araştırmadaki tüm beyin verilerinin üniversitede yerinde kalacağını not etmeye özen gösterdi . Ve Chevillet anlattı “Biz gizliliği çok ciddiye alıyoruz.” MIT Tech Review Yine de Facebook bir bulanmış durumda göz önüne alındığında gizlilik skandallar serisi - hangi Cambridge Analytica en göze batan sadece - Kamu kalbe yönde güvence almayabilir.

“Facebook, elektrot veya fMRI ya da herhangi bir şeye ihtiyaç duymadan beyninize bakmakta harika. İnterneti kullanma şeklinizden bilişsel profilinizin çoğunu biliyorlar ”dedi. British Columbia Üniversitesi'nden bir nöroetikçi olan Roland Nadler. “Bu yüzden özellikle Facebook'un elindeki bu araştırma programı için endişeleniyorum. Bu veri setini , öngörülemeyen herhangi bir sonuç için potansiyeli olan gerçek in vivo beyin verileriyle birleştirebiliyor. ”

Peki ya Facebook, beyin verilerimizi reklam amacıyla şirketlere satarsa? Reklamverenler, beynin satın alma kararlarını nasıl aldığını ve bu kararları nasıl dürteceğini belirlemeye çalışıyorlar. Nöropazarlama denilen bu alan henüz başlangıç ​​aşamasında. Ancak Nadler, Facebook gibi güçlü bir teknoloji devinin büyümesini, “alıcı davranışını potansiyel olarak korkutucu şekillerde etkileme” noktasına getirebileceği konusunda uyardı.

2. Algoritmik hesap verebilirlik: Algoritmik karar verme sistemleriyle ilgili en büyük sorunlardan biri, sofistike olarak büyüdükçe, kara kutu haline gelebilmeleridir. Kararlarına nasıl ulaştıklarının özellikleri, yaratıcıları için bile opak olamayacak kadar karmaşık olabilir.

Bu, Facebook'un projesi tarafından kullanılan algoritma durumlarında geçerliyse, sonuçlar ciddi olabilir. Eğer hiç kimse size, X ve X'in çok kötü olduğu (“Ben ve böyle öldürmek niyetindeyim”) fikrinin yanlış bir şekilde nasıl çözüldüğünü size açıklayamazsa, o zaman şeffaflık eksikliği, zorlanacağınız anlamına gelir. Bu yanlış düşüncenin bir sonucu olarak sizi şaşırtan zarar için tazminat talep eden zaman .

Nadler, “Makinenin Müjde olarak söylediklerine, yanlış mı gittiğini veya yanlış mı gittiğini bile merak etmeden güvenme riskimiz var” dedi. “Makinenin opaklığı gerçek bir endişe.”

3. Değişen normlar: Bir başka büyük risk, bu nöroteknolojinin zihin okuma kültürünü normalleştirmesi, pes etmemize neden olacağıdır - çok yavaş ve incelikle, bunun neredeyse farkında değiliz - zihinsel mahremiyet beklentilerimiz.

Bir gün, içimiz geçmişte kaldı, teknoloji sadece kendi rahatlığımız için kopyalamak istediğimiz düşünceleri değil, özel tutmak istediğimiz düşünceleri deşifre ederek. Bu, cinsel fantezilerden politik muhaliflere kadar iç kutsal alanımızda sakladığımız her şeyi içerebilir.

“Bu verileri biriktiren Facebook hakkındaki endişelerimin birçoğu gözetim ve medeni özgürlük endişeleridir. Facebook'un bir sürveyans devletinin kurulmasına yardımcı olacağından endişe edersiniz, ”dedi Nadler, beyne eşlik etmenin yasaların uygulanması için oyun değiştirici olacağını ekledi.

Facebook'un kuluçkaya yatırdığı bir projenin gözetim ve kanun uygulama konusundaki normları önemli ölçüde değiştirebileceğini hayal etmekte zorlanıyorsanız, yüz tanıma teknolojisi hakkında bir dakika düşünün. Facebook bu teknolojiyi yıllar önce masum bir bağlamda sundu: arkadaşlarınızı sosyal medya ağında yayınladığınız fotoğraflara etiketleme. Fakat şimdi teknoloji polislere ve gözetleme için kullanılıyor, orantısız bir şekilde renk insanlarına zarar veriyor . Ve Apple, Amazon ve Microsoft gibi diğer devler de tartışmalı.

4. Varolan yabancılaşma: Akıl ve makine arasındaki farkı ortadan kaldırmak, kendimizden yabancılaşmış hissedebileceğimiz risk gibi, daha felsefi risklerle de gelir. Bir makine ile ne kadar kaynaşırsanız, kendi acentenizle ilgili kafanız o kadar karışır - nerede biter ve cihaz başlar.

Nature dergisindeki son bir makale , bazı BCI algoritmalarının yordayıcı niteliğinin bu endişeyi ortaya çıkardığını belirtti:


Bu tür algoritmalar önceki verilerden ders alır ve geçmişte yaptıklarına dayanarak kullanıcıları kararlara yönlendirir. Ancak bir algoritma sürekli olarak kullanıcının bir sonraki kelimesini veya eylemini önerirse ve kullanıcı bu seçeneği sadece onaylarsa, bir mesajın veya hareketin yazarı belirsizleşir. “Bir noktada,” [nöroetikçi Philipp] Kellmeyer, “paylaşılan ya da hibrit ajansın bu çok tuhaf durumlarına sahipsiniz.” Kararın bir kısmı kullanıcıdan geliyor ve bir kısmı makinenin algoritmasından geliyor.

Makalede ayrıca, sadece bir nöbetten birisinin gelmesi konusunda uyarmak için BCI verilen Hasta 6 olarak tanımlanan epileptik bir kadın örneği verilmiştir. Sadece cihaza güvenmek için değil, onunla böylesine radikal bir simbiyoz hissetmek için geldi, “O ben oldum” dedi. Ardından, beynine cihazı yerleştiren şirket iflas etti ve çıkarılması için zorlandı. . “Kendimi kaybettim” diyerek ağladı.

Spektrumun diğer tarafında, aynı cihazı beynine yerleştirilen bir epileptik hasta depresyona girdi çünkü özerkliğinden ödün verdiğini hissetti. “Kontrol edemediğimi hissettirdi” dedi.

Her iki durumda da, cihazın riski, temelde hastanın öz benliğini değiştirmesiydi. Düşüncelerimizi okuyan ve yazan bir BCI, eğer yeterince gelişmiş olursa, benzer bir şey yapabilirdi.

5. Gözetim: Büyük bir risk - ki gerçekte, geri kalanı etkileyecek bir meta-risk olarak kabul edilebilecek kadar büyük - bu alanda mevcut düzenlemenin olmaması. Politikacıların ve milletvekillerinin, beyin okuma teknolojisinin mümkün kıldığı yeni gerçekleri yakalamaları zaman alacak. Şimdilik, teknoloji devleri beyin verilerimizi nasıl toplayabilecekleri, saklayabilecekleri ve para kazanabilecekleri konusunda çok az gözetimsiz ya da hiç gözetmeden bu yasal boşluğa girebiliyorlar.
Kaynak: https://www.vox.com/future-perfect/2019/8/5/20750259/facebook-ai-mind-reading-brain-computer-interface

Hiç yorum yok

Fikirlerinizi bizimle yorumlarda paylaşabilirsiniz.