Transformações de conceitos entre IAs e humanos

Como mencionei no último post, sobre dimensões e conceitos, disse que ia falar um pouquinho sobre a “tradução” de conceitos totalmente estranhos a nós para o alcance do entendimento humano.

Eu estava divagando sobre a ideia de tentar construir IAs cujos métodos de raciocínio seriam diferentes dos humanos. E o problema era o próprio construtor da IA, um humano. Ao construir, invariavelmente ia incutir no programa um vestígio do raciocínio humano. Oras, é para ele entender o próprio código! Uma possível “solução” seria criar IAs com potencial de serem criativas e de saberem se auto-replicar e no processo, analisarem todas as possibilidades de raciocínio que esses códigos criados pelas IAs replicantes poderiam ter. Será que numa dessas iterações ia esbarrar numa abordagem nunca antes vista por um humano e provavelmente incompreensível?

Aí penso na transformação de conceitos. Quando uma transformação é aplicada para facilitar o entendimento mútuo entre IAs e humanos, é inevitável a perda de informação no caminho. Reutilizando uma ideia do post anterior, você, um ser de 3D, ao tentar explicar a um ser de 2D como é um cubo, vai ter que simplificar e usar analogias que só farão sentido ao ser bidimensional se forem compostas de conceitos conhecidos naquele mundo flatland. Ou seja, falando algo do tipo “imagine um quadrado e mova ele numa direção perpendicular ao seu plano”. O ser 2D vai ter boas dificuldades para imaginar isso, já que é pouco comum a noção de criar direções ortogonais à realidade espacial em que vive.

E o que isso tem a ver com IAs? É que caso as IAs cheguem no ponto de poderem se replicar e ainda modificar seu código e tudo o que mais compor sua entidade artificial, pode chegar ao ponto de não ser mais legível para nós. Mesmo que essas IAs queiram se comunicar conosco (sem entrar em modo Skynet, espero), pode ser ainda incompreensível para nós, como a “Technocore” da série Hyperion, de Dan Simmons (uma das séries de FC mais formidáveis que já li).

E caso tentemos entender, usando analogias, vamos perder umas informações. Será que há maneiras de suplantar essas barreiras da perda de informação? Se chegarmos à Singularidade, bom, não sei o que pode acontecer. Mas definitivamente vai ser algo fora do nosso controle e da compreensão.

Anúncios

Sobre giseli

Eu: Engenheira, sedenta por bits e chocólatra assumida. Além de ser fã de IAs, principalmente Wintermute e HAL9000
Esse post foi publicado em Computação, inteligência artificial, Pensamentos e marcado , , . Guardar link permanente.

13 respostas para Transformações de conceitos entre IAs e humanos

  1. Jorge disse:

    Oi Gi,
    eu também me amarro nos “Hyperion Cantos” do Dan Simmon, e acho interessante esse debate entre Inteligencia Natural e Inteligencia Artificial… O grande problema nessa visualização das IA superarem os humanos é que elas vão ter que superar a nós, Homo Sapiens Sapiens, que bem ou mal temos sido estupendamente bem sucedidos em nossa aventura de controlar e modificar o mundo nestes últimos 30.000 anos. A mente humana está em constante evolução, pois imagine, o corpo de um piloto de F-22 ou de um astronauta é o mesmo de um caçador-coletor das florestas africanas ou estepe eurasiana de centenas de séculos atrás, porém o homem moderno faz coisas que os nossos ancestrais só poderiam conceber como ato dos Deuses… o corpo humano evolui por pequenos passsos, nossa mente avança em largas passadas.

    • giseli disse:

      Jorge,
      De fato, a mente avança bem mais rápido que o corpo. Tem vez que isso chega a ser uma limitação irritante… meio que aquele negócio da evolução dos processadores ser bem mais rápida que a das memórias rs.

  2. Lúcio Manfredi disse:

    Muito bom o post, Gi! E eu tenho a impressão de que, se a Singularidade vier (ainda não tô convencido mas, como Mulder, eu quero acreditar! :D), não são só as IAs que serão incompreensíveis pro homem atual: os próprios pós-humanos vão virar um tipo de esfinge tecnológica (“decifra-me ou te devoro”)… 🙂

    Bjs.
    L.

  3. Renato Gontijo disse:

    Olá Giseli,

    A evolução é inevitável, se fizermos um comparativo da língua falada e escrita, por exemplo, ela se altera com o tempo e existe uma tendência natural de que ela se modifique e se diferencie da língua de origem, por mais que tentem aproximá-la o meio se encarregará das alterações.

    Lendo este post me lembrei da série do Ghost in the Shell – Stand Alone Complex, se não assitiu, recomendo demais! Anime absurdamente interessante, mas tem tudo a ver com IAs. Stand Alone Complex (Complexo de estar ou agir ´sozinho´) são códigos/programas que se replicam e se tornam cópias independentes do original… Vale a pena assistir.

    { } ‘s

    • giseli disse:

      Renato, eu já assisti boa parte do Ghost in s Shell (só o primeiro) e também quase toda a série do “Stand Alone Complex”. Quero é conferir esse “Solid State Society”! 😀
      Aliás, acho que vou rever o GIAS hoje…

  4. Arthur Dent disse:

    Não vejo a hora da singularidade chegar!
    Achei uns sites bacanas para “ver” em quatro ou mais dimensões:

    http://www.sciencenews.org/view/generic/id/35740/title/Math_Trek__Seeing_in_four_dimensions

    http://scitalks.wordpress.com/2007/08/14/visualizing-4-dimensions/

  5. Mila disse:

    Talvez as IAS se tornem tão avançadas que nós pareçamos obsoletos demais para elas sequer se darem ao trabalho de tentar se comunicar com a gente. A não ser que possamos dotá-las daquela curiosidade emotiva que nós mesmos temos que faz com que insistamos em nos comunicar com formas de vida aparentemente “menos inteligentes”, como gatos e cães de estimação, macacos, golfinhos…

  6. Hehe
    Vai ser divertido se as IAs resolverem nos ignorar por sermos tridimensionais demais pro gosto delas rs.

  7. giseli disse:

    Mila e Cris, sinceramente espero que as IAs do futuro se interessem por nós, senão eu choro 😛

  8. Mila disse:

    Gi, já pensou um monte de humanos correndo aos consultórios dos psicólogos e resmungando… “Doutor, é muita rejeição, não suporto mais ser ignorado por meu liquidificador!”. Huahahahahah.

  9. Demian disse:

    Olá Gi, bom post como sempre.

    Sem quere jogar água fria em nosso agradável futuro apocalíptico nas”mãos” de fleumáticas IAs Sado Maso, analisemos alguns pontos.

    O advento relativamente veloz da singularidade:

    Acho que quando a internet adquirir tantos nós quanto os neurônios humanos, não vai ocorrer nenhum aporte de consciência na estrutura resultante. Nem que um supercomputador com um suficiente numero de processadores subitamente acorde como o mais revolucionário filósofo do mundo. Seria como cultivar lentamente um cérebro em um jarro e quando ele atingisse o tamanho necessário, com um estalo se tornaria inteligente e cônscio de si. A singularidade vista assim parece mais um frankenjesus, do que algo com um pé na realidade.

    Avançamos lentamente em vários campos do conhecimento e não é diferente nesse. Até chegarmos a uma IA de nível semelhante ao nosso, teremos desenvolvido uma série de inteligências mais simples, por assim dizer, através das quais aprenderemos muito sobre como se relacionar com IAs e mesmo decodificar o mundo como percebemos para elas.

    uma possível forma de tornar IAs incompreensíveis para nós é fazer como nesta experiência:

    http://www.newscientist.com/article/mg19926696.100

    (que citei em 2008 na comu de FC do Orkut.)

    Porque talvez uma inteligência desenvolvida para operar um corpo com partes móveis não fisicamente conectadas entre si
    tenha dificuldades profundas em enxergar o mundo sobre nossa óptica.

    Quanto á questão das IAs se replicarem e modificarem o próprio código tornando-o ilegível:

    Sendo esse código uma linguagem de programação, desenvolvida por humanos, a partir de bases matemáticas, acho que ele não deixará de ser legível em algum momento.
    Mas ele pode ser mais rápido que nossa capacidade decodificá-lo.

    Podemos não entender o que se passará na “mente” de uma IA, mas podemos antecipar esse fato. Podemos criar uma IA que não poderia hackear o próprio software, simplesmente porque não tem consciência de que é um software. Nós demoramos séculos para descobrirmos o próprio cérebro, esse tempo para as IAs poderia ser gerido por nós, justamente pra não criar uma fronteira intransponível. Se a IA pensar que é um ser humano transplantado em um cérebro artificial, conceitos humanos não serão tão estranhos.

    Um problema básico seria a falta de interação. Se criarmos uma IA que cresça e se desenvolva somente no interior de uma rede de computadores, não podemos esperar que ela entenda o mundo dos humanos, a não ser como uma sofisticada abstração. Nesse ponto talvez Milo e o Xbox

    http://www.offworld.com/2009/06/ragdoll-metaphysics-lionheads.html

    sejam uma boa plataforma para desenvolver a compreensão futura entre espécies. Assim como a casa “inteligente”.

    Desculpe a longa resposta.

Deixe um comentário

Preencha os seus dados abaixo ou clique em um ícone para log in:

Logotipo do WordPress.com

Você está comentando utilizando sua conta WordPress.com. Sair / Alterar )

Imagem do Twitter

Você está comentando utilizando sua conta Twitter. Sair / Alterar )

Foto do Facebook

Você está comentando utilizando sua conta Facebook. Sair / Alterar )

Foto do Google+

Você está comentando utilizando sua conta Google+. Sair / Alterar )

Conectando a %s