Devemos Seguir com as Pesquisas em IA?
A opinião a seguir é minha e não de algumas das organizações em que eu atuo.
Devemos seguir com as pesquisas?
Devemos sim seguir com as pesquisas, mas com mais transparência, valores humanos (ética, justiça, paz, liberdade, etc…) e prudência (repensar mentalidades, culturas, moral, interesses e o famoso “o fim justifica os meios”).
Vocês acham que de fato é possível parar as pesquisas com uma canetada?
O manifesto pedindo para parar as pesquisas em IA está aqui.
Creio que isso não vai acontecer! Mesmo que seja oficializado.
O que precisamos é ajustar durante o voo. Aproveitar a oportunidade para repensar como humanidade. É isso que deve ser oportunizado agora. Focar nos valores.
Quem pagaria a conta de parar?
Podemos controlar as pesquisas e os resultados?
Não podemos controlar todos os aspectos da pesquisa, desenvolvimento e uso de novas tecnologias. Em tecnologias como IAG – Inteligência Artificial Geral, somente podemos influenciar e dar o exemplo!! Até o momento da singularidade tecnológica, a índole/moral humana é a que prevalece, uma vez que IAs irão se espelhar em nossos exemplos e seguir seus caminhos muitas vezes sem nosso conhecimento.
Depois da singularidade tecnológica, a índole/viés/moral das máquinas poderá se manifestar independentemente, ainda que com influência humana.
O uso que se dá a uma certa tecnologia muita vezes independe do viés/índole/moral de quem a criou. É claro que existem exceções, cuja criação é direcionada para o mau uso.
Todas as ferramentas embutem de certa forma a índole/moral/viés de quem as cria, seja intencionalmente ou não. Por esse ângulo, não existe tecnologia neutra, como argumenta Courtnay Guimarães e eu concordo.
Sabemos que os avanços vão acontecer cedo ou tarde, e se não mudarmos modelos e mentalidades, considerando os valores humanos que queremos para o futuro, nada adiantará.
O que devemos fazer então?
Então, creio que devemos focar toda nossa energia no aprimoramento humano, nos valores de futuros positivos, tais como: moral e ética, justiça, liberdade, transparência, paz, amor e muitos outros. É importante refletirmos sobre nós mesmos (como indivíduos e coletivos). Assumir a culpa quando for o caso. Somos falhos e precisamos aprimorar.
Uma questão: “Devemos automatizar todos os trabalhos, incluindo os satisfatórios?” Eu me pergunto: quais são os trabalhos não satisfatório? Como podemos ter certeza que ninguém gosta deles? Creio que iremos automatizar, pois todo trabalho automatizado custa menos. Para isso, devemos incluir aspectos multidimensionais na valoração. Novas economias e valores humanos.
Outra questão: “Devemos desenvolver mentes não humanas que possam eventualmente superar em número, ser mais inteligentes, obsoletas e nos substituir?” Considerando as vantagens de mercado, geopolíticas e estratégicas que as mentes não humanas trazem, creio que vamos desenvolver. Não é “se”, mas sim “quando”.
Ainda, “Poderosos sistemas de IA devem ser desenvolvidos apenas quando estivermos confiantes de que seus efeitos serão positivos e seus riscos serão gerenciáveis”. Nunca teremos essa confiança por completo e somos incapazes de prever, pelo menos por ora. Logo, impedir a pesquisa por esse motivo parece não faz muito sentido.
Como podemos controlar algo novo, que foge ao habitual, poderoso, nunca antes visto, provavelmente mais capaz que nós, utilizando mentalidades, modelos e principalmente valores ultrapassados? Novamente, creio não ser possível!
Creio que devemos ser mais transparentes. E criar mecanismos para conscientização e que favoreçam a emergência de novas culturas para futuros de valor, aprimoramento moral e acordos voltados para essa questão. Isso olhando para a sociedade como um todo e não apenas para nichos.
Ou seja, o remédio é para nós mesmos e não somente para as pesquisas em IAs/IAGs. Todos estamos influenciando as futuras IAGs, mesmo que inconscientemente. Se proibirmos as pesquisas em IA, tenho certeza de que muitas continuarão a existir nas cavernas e longe dos holofotes, e muitas vezes com intenções com pouca ou nenhuma ética… O que importa são os valores.
Mudar mentalidades e modelos para valores de futuro é o caminho
Ou seja, não é possível fazer mais do mesmo nessa questão!! Pausar da forma que está sendo proposto não vai resolver e nem ajudar a verdadeira demanda que precisamos resolver. Precisamos focar no ponto chave: valores!
Creio que devemos trabalhar valores humanos em indivíduos e coletivos e usar tecnologia para acelerar isso!! O que precisamos é de fortalecer valores e cobrar quem desrespeita. Não é a tecnologia que deve ser barrada, mas os valores que nos atrasam. Precisamos da IA para acelerar isso! É uma simbiose que estamos construindo!
Por Ivan Kallas, “A eventual criação de uma singularidade vai transferir a consciência típica humana para uma máquina inteligente e que passa a ser mais que consciente, independente.
Como vamos controlar tal inteligência? Como controlamos os filhos, De forma nenhuma. Apenas provemos seu crescimento. Como vamos ensinar tal consciência? Como ensinamos os filhos. Ou seja. Apenas demonstramos o que sabemos. Eles escolhem se, o que e como aprender.
Entendo a existência de um algoritmo do caminho, como parte essencial de nossa criação. A IA vai se apoderar desse algoritmo e usar para ir aonde e como quiser.” Creio ser uma visão original, essencial e precisa. Tomará consigamos refazer nosso pensar para ela!!
Aprendi com o Ivan que não ensinamos ninguém, apenas incentivamos, influenciamos, orientamos, apoiamos, facilitamos, encantamos, inspiramos, lideramos através de exemplos. Creio que com IA será assim também.