O Que é Singularidade PDF Imprimir E-mail
Índice de Artigos
O Que é Singularidade
Página 2

Vernor Vinge on Singularity
Departamento de Ciências Matemáticas
Universidade de Estado de San Diego

(c) 1993 por Vernor Vinge

(Este artigo pode ser reproduzido para finalidades não comerciais se for reproduzido em sua totalidade, incluindo esta observação)

A versão original deste artigo foi apresentada no Symposium VISION-21 patrocinado pelo Centro Lewis de Pesquisa da NASA em Ohio e pelo Instituto Aeroespacial de Ohio, 30 e 31 de março de 1993. Uma versão ligeiramente alterada apareceu na edição de Inverno da Whole Eart Review de 1993.

TRADUÇÃO PARA O PORTUGUÊS: Mário Porto   Nota de TR

Sumário

Dentro de trinta anos, teremos os meios tecnológicos para criar uma inteligência super-humana. Logo após, a era humana se extinguirá. Seria tal progresso evitável? Se não pode ser evitado, podem os eventos ser orientados de modo a que possamos sobreviver? Estas são as perguntas investigadas. Algumas respostas possíveis (e alguns perigos decorrentes) são apresentadas.

O Que é a Singularidade?

A aceleração do progresso tecnológico foi a característica central deste século. Eu discuto neste trabalho que estamos no limiar de uma mudança comparável à ascensão da vida humana na terra. A causa precisa desta mudança é a criação eminente pela tecnologia das entidades com inteligência maior do que a humana. Há diversos meios pelos quais a ciência pode conseguir esta descoberta (e esta é uma outra razão para se ter a confiança que o evento ocorrerá):

  • Podem ser desenvolvidos computadores "conscientes" e super-humanamente inteligentes. (Atualmente existem muitas controvérsias a respeito sobre se podemos criar a equivalência humana em uma máquina. Mas, se a resposta for "sim, nós podemos", então restariam poucas dúvidas de que seres mais inteligentes podem ser construídos logo depois disso.)
  • As grandes redes de computador (e seus usuários associados) podem "despertar" como uma entidade super-humanamente inteligente.
  • As interfaces computador/homem podem tornar-se tão íntimas que os usuários podem razoavelmente ser considerados super-humanamente inteligentes.
  • A ciência biológica pode fornecer meios para melhorar o intelecto natural humano

As primeiras três possibilidades dependem em grande parte das melhorias no hardware dos computadores. O progresso no hardware dos computadores seguiu uma curva, surpreendentemente, constante nas últimas décadas [17]. Bastante baseado nesta tendência, eu acredito que a criação de uma inteligência maior do que a humana ocorrerá durante os próximos trinta anos. (Charles Platt [20] afirmou que os entusiastas da AI têm feito reivindicações como esta nos últimos trinta anos. Desta maneira, não sou culpado de uma ambigüidade temporal relativa, deixe-me ser mais específico: Ficarei surpreso se este evento ocorrer antes de 2005 ou após 2030.)

Quais são as conseqüências deste evento? Quando as inteligências maiores do que a humana impulsionarem este progresso ele será muito mais rápido. Na verdade, não parece existir nenhuma razão para o próprio progresso não envolver a criação de entidades mais inteligentes -- em uma escala de tempo ainda-mais curta. A melhor analogia que eu visualizo é com o passado evolutivo: Os animais podem adaptar-se aos problemas e fazer invenções, mas usualmente mais devagar do que o trabalho da seleção natural -- o mundo age como seu próprio simulador no exemplo da seleção natural. Nós seres humanos temos a habilidade de internalizar o mundo e conduzir "what if's" em nossas cabeças; podemos resolver muitos problemas milhares de vezes mais rápido do que a seleção natural. Agora, criando os meios para executar aquelas simulações em uma velocidade muito mais elevada, nós estamos entrando em um regime tão radicalmente diferente de nosso passado humano quanto nós humanos somos dos animais mais elementares.

Do ponto humano da vista esta mudança representa desprezar todas as regras anteriores, talvez num piscar de olhos, uma escalada exponencial além de qualquer esperança de controle. Desenvolvimentos que antes eram pensados para somente acontecer em "milhões de anos" (se acontecessem) acontecerão provavelmente no século seguinte. (Em [5], Greg Bear pinta um retrato das mudanças importantes que acontecem numa uma questão de horas.).

Eu penso que é justo classificar este evento como uma singularidade ("A Singularidade" para as finalidades deste trabalho). Este é um ponto onde nossos modelos velhos devam ser rejeitados e uma nova realidade tome lugar. À medida que nos movemos para mais perto deste ponto, ele se tornará mais amplo e mais ilimitado sobre as atividades humanas até que a noção se torne um lugar comum. Contudo quando finalmente acontecer pode ainda ser uma grande surpresa e um grande desconhecido Nos anos 50 havia muito poucos que o viam: Stan Ulam [28] parafraseou John von Neumann dizendo:

Uma conversa centrada no sempre acelerado progresso da tecnologia e das mudanças no modo da vida humana, que demonstra aproximarmos-nos de alguma singularidade essencial na história da raça além da qual as atividades humanas, como nós a conhecemos, não poderiam continuar.

Von Neumann usa o termo singularidade, embora pareça que está pensando no progresso normal e não na criação do intelecto super-humano. (Para mim, a super-humanidade é a essência da Singularidade. Sem aquela nós chegaríamos à saciedade da riqueza técnica, sem nunca absorvê-la corretamente. (ver [25]).).

Nos anos 60 havia um reconhecimento de algumas das implicações da inteligência super-humana. I. J. Good escreveu [11]:

Defina-se uma máquina ultra-inteligente como uma máquina que possa superar de longe todas as atividades intelectuais de todo e qualquer homem embora inteligente. Uma vez que o projeto de máquinas é uma destas atividades intelectuais, uma máquina ultra-inteligente poderia projetar até mesmo máquinas melhores; então haveria uma inquestionável "explosão de inteligência," e a inteligência do homem seria deixada bem para trás. Assim a primeira máquina ultra-inteligente é a última invenção que o homem necessitará realizar, contanto que a máquina seja dócil o bastante para nos dizer como mantê-la sob o controle. É mais provável que uma máquina ultra-inteligente será construída dentro do vigésimo século do que não seja, e isso será a última invenção que o homem necessita realizar.

Good capturou a essência da escalada, mas não traçou suas conseqüências perturbadoras. Qualquer máquina inteligente do tipo que descreve não seria "ferramenta" da humanidade -- mais do que seres humanos são as ferramentas dos coelhos, tordos ou chimpanzés.

Através dos anos 60 dos 70 e dos 80, o reconhecimento do cataclismo se espalhou [29] [1] [31] [5]. Talvez tenham sido os escritores de ficção científica que sentiram primeiro o impacto concreto. Apesar de tudo, os escritores "duros" de ficção científica são aqueles que tentam escrever histórias específicas sobre o que toda essa tecnologia pode fazer por nós. Cada vez mais, estes escritores sentiam uma parede opaca através do futuro. Uma vez que, poderiam pôr tais de fantasias milhões de anos no futuro [24]. Agora viram que suas extrapolações mais diligentes resultaram num desconhecido... próximo. Uma vez que, os impérios galácticos poderiam parecer um domínio Pós-Humano. Agora, certamente, até mesmo os interplanetários são.

Que dizer sobre os anos "90" os "00" e os "10", à medida que deslizamos para seus limites? Como a aproximação da Singularidade se espalhará através da visão humana do mundo? Por enquanto, todavia, os críticos gerais da sapiência das máquinas exercerão uma boa pressão. Afinal, até que nós tenhamos hardware tão poderoso quanto o cérebro humano é provavelmente bobagem pensar que seremos capazes de criar uma inteligência equivalente à do ser humano (ou até mesmo maior). (Existe a possibilidade remota de que poderíamos fazer um equivalente humano a partir de um hardware menos poderoso, caso estejamos dispostos a abdicar da velocidade, aceitando desenvolver um ser artificial que seria literalmente lento. [30]. Mas, certamente, planejar o software será um processo complicado, envolvendo muitos caminhos e experimentos falsos. Assim sendo, a chegada de máquinas com autoconsciência não acontecerá antes do desenvolvimento do hardware que seja, substancialmente, mais poderoso do que equipamento natural dos seres humanos").

Mas enquanto o tempo passa, devemos observar mais sintomas. O dilema sentido por escritores de ficção científica será percebido em outros esforços criativos. (Eu tenho escutado consagrados autores de estórias em quadrinhos preocupados sobre como obter efeitos espetaculares quando tudo visível possa ser produzido por efeitos tecnológicos comuns). Veremos a automatização substituir mais e mais os níveis de trabalho. Nós já temos as ferramentas (programas de matemática, CAD/CAM) isto nos liberará do trabalho pesado grosseiro. Ou posto de uma outra maneira: O trabalho verdadeiramente produtivo é domínio de uma constantemente menor e mais elitista fração da humanidade. Na chegada da Singularidade, estamos vendo que as previsões do verdadeiro desemprego tecnológico finalmente se tornarão verdadeiras.

Um outro sintoma do progresso na direção da Singularidade: as idéias propriamente ditas devem espalhar-se sempre mais rapidamente, e mesmo o desejo o mais radical torna-se rapidamente lugar comum. Quando eu comecei a escrever ficção cientifica em meados dos anos 60, parecia muito fácil encontrar as idéias que levaram anos para percolar na consciência cultural; agora o tempo de maturação parece algo como dezoito meses. (Naturalmente, isto poderia apenas ser minha perda de imaginação à medida que envelheço, mas eu vejo o mesmo efeito no outros também). Como o choque em um fluxo compressivo, a Singularidade se aproxima quando aceleramos na direção da velocidade crítica.

E sobre a chegada da Singularidade propriamente? O que pode ser dito de sua aparência real? Uma vez que envolve uma escalada intelectual, ela ocorrerá, provavelmente, muito mais rapidamente do que qualquer revolução técnica percebida até agora. O evento desencadeador será provavelmente inesperado -- talvez até mesmo para os pesquisadores envolvidos. ("Mas todos nossos modelos precedentes eram catatônicos! Nós apenas ajustávamos alguns parâmetros....") Se as redes estiverem suficientemente espalhadas (em sistemas fortemente universais), pode parecer como se nossos artefatos, como um todo, tenham subitamente enfraquecido.

E que acontece um mês ou dois (ou um dia ou dois) em seguida? Eu tenho somente analogias para indicar: A ascensão da humanidade. Nós estaremos na era Pós-Humana. E apesar de todo o meu agressivo otimismo tecnológico, às vezes eu penso que estaria mais tranqüilo se estivesse considerando estes eventos transcendentais mil anos distantes... em vez de vinte.

Pode a Singularidade ser evitada?

Bem, talvez não aconteça nunca: Às vezes eu tento imaginar os sintomas que devemos esperar ver se a Singularidade não se desenvolver. Existem os argumentos enormemente respeitados de Penrose [19] e de Searle [22] contra a praticabilidade da máquina inteligente. Em agosto de 1992, a Thinking Machines Corporation desenvolveu um workshop para investigar a pergunta "How We Will Build a Machine that Thinks" [27]. Como se pode supor do título do workshop, os participantes não eram especialmente defensores dos argumentos contra a inteligência das máquinas. De fato, havia um acordo geral que as mentes podem existir em carcaças não-biológicas e que os algoritmos são de importância central para a existência das mentes. Entretanto, havia muito debate sobre o poder básico do hardware que está presente no cérebro humano. Uma minoria sentia que os 1992 maiores computadores estavam dentro de três ordens de grandeza do poder do cérebro humano. A maioria dos participantes concordou com a estimativa de Moravec [17] que nós estávamos de dez a quarenta anos distantes da paridade no hardware. No entanto, havia uma outra minoria que apontava [7] [21], e conjeturava que a competência computacional de um simples neurônio pode ser muito mais alta do que geralmente se acreditava. Se assim for, os hardwares dos computadores atuais pôde ser algo como dez ordens de grandeza menores do que o valor do equipamento que nós carregamos por ai em nossas cabeças. Se isto for verdadeiro (ou quanto a isto, se a crítica de Penrose ou de Searle for válida), poderemos nunca presenciar uma Singularidade. Ao invés disto, no início dos anos "00" nossas curvas de desempenho do hardware começariam a nivelar-se devido à nossa inabilidade em automatizar o trabalho de projeto necessário para impulsionar melhorias adicionais no hardware. Acabaríamos com algum computador bastante potente, mas sem capacidade de melhorá-lo. O processamento comercial de sinais digitais pode ser fantástico dando uma aparência analógica até mesmo às operações digitais, mas nada "acordaria" e nunca haveria a escalada intelectual que é a essência da Singularidade. Provavelmente, isto seria visto como uma idade dourada e seria também o fim do progresso. Isto combina muito como o futuro predito por Gunther Stent. Na verdade, na página 137 de [25], Stent cita, explicitamente, o desenvolvimento da inteligência transhumana como uma condição suficiente para quebrar suas projeções.

Mas se a Singularidade tecnológica puder acontecer, ela virá. Mesmo se todos os governos do mundo compreenderem a "ameaça" e estiverem com medo mortal dela, o progresso na direção do objetivo continuaria. Na ficção, surgiram muitas histórias de leis sendo aprovadas proibindo a construção "de uma máquina com aparência da mente humana" [13]. De fato, a vantagem competitiva econômica, militar, e mesmo artística de cada avanço na automação é tão significante que aprovar leis ou se estabelecerem costumes que proíbam tais coisas, meramente, assegura que alguma outra pessoa as iniciará pioneiramente.

Eric Drexler [8] forneceu introspecções espetaculares sobre como quão distante o avanço técnico pode alcançar. Ele concorda que as inteligências super-humanas estarão disponíveis no futuro próximo e que tais entidades representam uma ameaça ao "status quo" humano. Mas Drexler discute que nós podemos confinar tais dispositivos transhumanos de modo que seus resultados possam ser examinados e usados com segurança. Esta é a máquina ultra-inteligente de I.J.Good, com uma dose de cautela. Eu argumento que o confinamento é intrinsecamente impraticável. Para o caso do confinamento físico: Imagine-se trancado em sua casa com somente acesso limitado aos dados externos, a seus patrões. Se aqueles patrões pensarem em uma taxa digamos, um milhão de vezes mais lenta do que você, existe poucas dúvidas de que em um período de anos (seu tempo) você poderia desenvolver uma "sugestão útil" que eventualmente o libertaria. (Eu chamo esta forma "pensante rápida" de superinteligência de "super-humanidade fraca". Uma entidade tão "fracamente super-humana" queimar-se-ia provavelmente em algumas semanas do tempo exterior. A "super-humanidade forte" seria mais do que alavancar a velocidade do relógio de uma mente humana equivalente. É difícil dizer precisamente como seria "a super-humanidade forte", mas a diferença parece ser profunda. Imagine fazer funcionar uma mente de um cão com velocidade elevada. Mil anos da vida do cão proporcionariam alguma introspecção humana? (Agora se a mente do cão for inteligentemente religada e então posta a funcionar na alta velocidade, poderemos ver algo diferente...) Muitas especulações sobre a superinteligência parecem ser baseadas no modelo super-humano fraco. Eu acredito que nossas melhores suposições sobre o mundo Pós-Singularidade podem ser obtidas pensando na natureza da super-humanidade forte. Eu retornarei a este ponto mais tarde neste trabalho.).

Uma outra aproximação ao confinamento é construir regras na mente da entidade super-humana criada (por exemplo, leis de Asimov [3]). Eu penso de que qualquer regra rígida o bastante para ser eficaz vai também produzir um dispositivo cuja habilidade seria claramente inferior às versões sem limitações (e assim a competição humana favoreceria o desenvolvimento daqueles modelos mais perigosos). Ainda assim, o sonho de Asimov é maravilhoso: Imaginar um escravo disponível, que tenha 1000 vezes suas potencialidades em todos os sentidos. Imaginar uma criatura que poderia satisfazer a cada desejo seguro seu (o que quer que isto signifique) e ainda ter 99.9% de seu tempo livre para outras atividades. Haveria um novo universo que nós nunca realmente compreenderemos, mas repleto de deuses benevolentes (embora um dos meus desejos seja poder me transformar em um deles).

Se a Singularidade não puder ser evitada ou confinada, quanto pode ser ruim a era Pós-Humana? Bem...consideravelmente ruim. A extinção física da espécie humana é uma possibilidade. (Ou como Eric Drexler a pôs em termos de nanotecnologia: Considerando tudo que tal tecnologia pode fazer, talvez os governos simplesmente decidam que já não necessitam cidadãos!). Contudo a extinção física pode não ser a possibilidade a mais tenebrosa. Outra vez, analogias: Pensemos nas maneiras diferentes que nós nos relacionamos com os animais. Alguns dos abusos físicos cruéis são implausíveis, contudo... Em um mundo Pós-Humano haveria ainda uma abundância de nichos onde a automatização equivalente do ser humano seria desejável: sistemas embutidos nos dispositivos autônomos, programas demos autoconscientes nas funções inferiores das consciências maiores. (Uma inteligência fortemente super-humana seria, provavelmente, uma Sociedade da Mente [16] com alguns componentes muito competentes.) Alguns destes equivalentes humanos poderiam ser usados para nada mais do que processar sinais digitais. Seriam mais como baleias do que seres humanos. Outros poderiam ter uma aparência muito humana, contudo com um lado, uma faceta, que os colocaria em um hospital mental em nossa era. Embora nenhumas destas criaturas pudessem ser considerados seres humanos de carne e osso, seriam as coisas as mais próximas no novo ambiente ao que nós chamamos de ser humano hoje. ( I.J. Good teve algo dizer sobre isto, embora nesta data tardia o conselho possa ser duvidoso: Good [12] propôs "uma Regra Dourada", que pode ser parafraseada como "ameace seus inferiores como você seria ameaçado por seus superiores." É uma idéia maravilhosa, paradoxal (e a maioria de meus amigos não acredita) uma vez que o payoff do jogo teórico é tão duro de articular. Contudo se nós pudermos segui-la, em algum sentido, ela pode dizer algo sobre a plausibilidade de tal gentileza neste universo).

Eu argumentei acima que nós não podemos impedir a Singularidade, que sua vinda é uma conseqüência inevitável da competitividade natural humana e das possibilidades inerentes na tecnologia. No entanto... nós somos os iniciadores. Mesmo a maior avalanche é provocada por coisas pequenas. Nós temos a liberdade para estabelecer circunstâncias iniciais, fazer as coisas acontecerem nas formas que são menos prejudiciais do que outras. Naturalmente (como no início das avalanches), pode não estar claro qual realmente é o exato começo:




 
< Anterior   Seguinte >

Recomendar a MPHP

Fala para um amigo Seu nome:

Seu e-mail:

E-mail do seu amigo: