Autor: Max Tegmark
Ideias centrais:
1 – Os utopistas digitais pensam que a vida digital é o próximo passo natural e desejável da evolução cósmica. Segundo eles, se deixarmos as mentes digitais livres, em vez de contê-las ou escravizá-las, é quase certo que o resultado será bom. Larry Page, do Google, está entre eles.
2 – Comparando-se a inteligência de humanos e máquinas hoje em dia, nós, seres humanos, ganhamos facilmente em amplitude de habilidades, enquanto as máquinas nos superam em um número pequeno, mas crescente, de domínios estreitos.
3 – Segundo projeções sombrias, a humanidade pode ser extinta e substituída por Inteligências Artificiais (cenários conquistadores e descendentes) ou por nada (cenário de autodestruição). Não há consenso sobre elas. Mas importa estudá-las em vista de nossos objetivos futuros, evitando desvios desastrosos.
4 – Estamos construindo máquinas cada vez mais inteligentes para atender nossos objetivos. À medida que construímos essas máquinas para exibir um comportamento orientado a objetivos, nos esforçamos em alinhar os objetivos da máquina aos nossos, sobretudo éticos.
5 – Nós, seres humanos, construímos nossa identidade ao sermos Homo sapiens. Enquanto nos preparamos para ser humilhados por máquinas cada vez mais inteligentes, sugiro que mudemos nosso rótulo para Homo sensiens.
Sobre o autor:
Max Tegmark é professor do MIT (Massachusetts Institute of Technology) e já escreveu mais de 200 artigos sobre assuntos que vão da cosmologia à Inteligência Artificial. É presidente do Future of Life Institute e colaborou com Elon Musk em pesquisa sobre segurança de IA.
Capítulo 1 – Bem-vindo à conversa mais importante de nosso tempo
Podemos dividir o desenvolvimento da vida em três estágios, distinguidos pela capacidade da vida de se projetar:
- Vida 1.0 (estágio biológico): o hardware e o software são resultado da evolução;
- Vida 2.0 (estágio cultural): o hardware é resultado da evolução, o software é, em grande parte, projetado;
- Vida 3.0 (estágio tecnológico): o hardware e o software são projetados.
Após 13,8 bilhões de anos de evolução cósmica, o desenvolvimento acelerou drasticamente aqui na Terra: a Vida 1.0 chegou há cerca de 4 bilhões de anos, a Vida 2.0 (nós, humanos) há aproximadamente cem milênios, e muitos pesquisadores de IA acreditam que a Vida 3.0 pode chegar ao longo do próximo século, talvez durante a nossa geração, graças ao progresso da IA. O que vai acontecer e o que isso significa para nós?
Esse é o assunto deste livro.
Essa questão é maravilhosamente polêmica, com os principais pesquisadores de IA do mundo discordando de modo apaixonado não apenas em suas previsões, mas também em suas reações emocionais, que variam de otimismo confiante a sérias preocupações. Eles nem sequer chegam a um consenso sobre questões de curto prazo sobre o impacto econômico, jurídico e militar da IA, e suas divergência aumentam quando expandimos o horizonte de tempo e perguntamos sobre inteligência artificial geral (IAG) – em especial sobre a IAG atingir o nível humano e além, possibilitando a Vida 3.0. A inteligência artificial geral pode atingir praticamente qualquer objetivo, inclusive o de aprender, em contraste com, digamos, a inteligência limitada de um programa de xadrez.
Do meu ponto de vista, existem três escolas de pensamento distintas que precisam ser levadas a sério, pois cada uma inclui vários especialistas reconhecidos mundialmente. Penso neles como utopistas digitais, tecnocéticos e membros do movimento da IA benéfica.
Utopistas digitais. Quando era criança, imaginava que bilionários exalavam pompa e arrogância. Ao conhecer Larry Page no Google, em 2008, ele rompeu totalmente com esse estereótipo. Vestido casualmente, de jeans e uma camisa que parecia bastante comum, ele teria se misturado totalmente às pessoas em um piquenique do MIT. Ao conversar com ele, seu estilo atencioso de fala mansa e seu sorriso amigável me fizeram ficar mais relaxado do que intimidado. Larry fez uma defesa apaixonada da posição que gosto de pensar como “utopismo digital”: que a vida digital é o próximo passo natural e desejável da evolução cósmica e que, se deixarmos as mentes digitais livres, em vez de tentar contê-las ou escravizá-las, é quase certo que o resultado será bom.
Tecnocéticos. Outro proeminente grupo de pensadores também não está preocupado com a IA, mas por uma razão completamente diferente: eles acham que construir uma IAG sobre-humana é tão difícil que vai levar centenas de anos e, portanto, consideram tolice se preocupar com isso agora. Eu penso nisso como a posição tecnocética, articulada por Andrew Ng: “Temer o surgimento de robôs assassinos é como se preocupar com a superpopulação de Marte”.
Movimento da IA benéfica. Embora Stuart Russell fosse um dos mais famosos pesquisadores de IA vivos, sua modéstia e fácil entusiasmo logo me deixaram à vontade. Ele me explicou como o progresso na IA o convenceu de que a IAG em nível humano neste século era uma possibilidade real e, embora estivesse esperançoso, não dava para garantir um bom resultado. Havia perguntas cruciais a serem respondidas, por exemplo sobre a segurança da IA.
Capítulo 2 – A matéria se torna inteligente
Para classificar diferentes inteligências em uma taxonomia, outra distinção crucial é aquela entre a inteligência limitada e a ampla. O computador de xadrez da IBM, Deep Blue, que destronou o campeão de xadrez Garry Kasparov em 1997, só foi capaz de realizar a tarefa muito limitada de jogar xadrez – apesar de seu hardware e seu software serem impressionantes, ele não conseguiu nem mesmo vencer uma criança de quatro anos no jogo da velha.
O sistema DQN da IA do Google DeepMind pode atingir uma gama um pouco mais ampla de objetivos: pode jogar dezenas de diferentes jogos de Atari em nível humano ou superior. Em contraste, a até agora inteligência humana é excepcionalmente ampla, capaz de dominar uma enorme gama de habilidades. Uma criança saudável, com tempo suficiente de treinamento, pode se tornar razoavelmente boa, não apenas em qualquer jogo, mas também em qualquer idioma, esporte ou vocação. Comparando a inteligência de humanos e máquinas hoje em dia, nós, seres humanos, ganhamos facilmente em amplitude, enquanto as máquinas nos superam em um número pequeno, mas crescente, de domínios estreitos. O Santo Graal da pesquisa em IA é criar uma “IA geral” (mais conhecida como “inteligência artificial geral”, IAG) que seja extremamente ampla: capaz de realizar praticamente qualquer objetivo, inclusive o aprendizado.
O termo IAG foi popularizado pelos pesquisadores de IA Shane Legg, Mark Gubrud e Ben Goertzel. Eles queriam definir mais especificamente a inteligência artificial de nível humano: a capacidade de realizar qualquer objetivo pelo menos tão bem quanto os humanos.
Redes neurais. Devido à impressionante simplicidade das leis da física, nós, humanos, nos preocupamos apenas com uma pequena fração de todos os problemas computacionais imagináveis, e as redes neurais tendem a ser notavelmente boas em resolver exatamente essa pequena porção.
Capítulo 3 – O futuro próximo: avanços, bugs, leis, armas e empregos
Olhando para o futuro do aprendizado por reforço profundo e os aperfeiçoamentos relacionados a ele, não há um fim óbvio à vista. O potencial não se limita aos mundos de jogos virtuais, pois, se você é um robô, a própria vida pode ser vista como um jogo. Stuart Russell me disse que seu primeiro grande momento de surpresa foi ver o robô Big Dog subir uma encosta de uma floresta coberta de neve, resolvendo com elegância o problema de locomoção por pernas que ele próprio havia lutado para resolver por muitos anos. No entanto, quando esse marco foi alcançado em 2008, envolveu grande quantidade de trabalho de programadores inteligentes.
Após o avanço do DeepMind, não há razão para que um robô não possa usar alguma variante do aprendizado por reforço profundo para aprender a andar sem a ajuda de programadores humanos: só é necessário um sistema que dê a ele pontos sempre que progredir. Os robôs no mundo real também têm o potencial de aprender a nadar, voar, jogar pingue-pongue, lutar e executar uma lista quase infinita de outras tarefas motoras sem a ajuda de programadores humanos. Para acelerar as coisas e reduzir o risco de ficarem presos ou se danificarem durante o processo de aprendizado, eles provavelmente realizariam os primeiros estágios do aprendizado em realidade virtual.
No fim de 2017, a equipe do DeepMind lançou o sucessor do AlphaGo: o AlphaZero. Ele pegou milhares de anos da sabedoria humana em relação ao Go, ignorou-a totalmente e aprendeu do zero simplesmente jogando por conta própria. Não apenas derrotou o AlphaGo, como também aprendeu a se tornar o mais forte jogador de xadrez do mundo apenas jogando por conta própria. Depois de duas horas de prática, ele já podia vencer os melhores jogadores humanos, e depois de quatro horas acabou com Stockfish, o melhor programa de xadrez do mundo. O que achei mais impressionante é que ele destruiu não apenas jogadores humanos, mas também programadores humanos de IA, tornando obsoleto todo o software de IA que eles haviam desenvolvido ao longo de muitas décadas. Em outras palavras, não podemos descartar a ideia de uma IA criando uma IA ainda melhor.
[Dica para iniciantes] Conselho de carreira para as crianças de hoje: escolham profissões nas quais as máquinas são ruins – aquelas que envolvem pessoas, imprevisibilidade e criatividade.
Capítulo 4 – Explosão de inteligência?
Por fim, como nós, humanos, conseguimos dominar as outras formas de vida da Terra ao superá-las em inteligência, é plausível que possamos, da mesma forma, ser superados e dominados pela superinteligência.
No entanto, esses argumentos de plausibilidade são frustrantemente vagos e inespecíficos, e o importante são os detalhes. Então, a IA pode de verdade resultar na dominação mundial? Para explorar essa questão, vamos esquecer os Exterminadores bobos e, em vez disso, examinar alguns cenários detalhados do que de fato pode acontecer. Depois, vamos dissecar e ir a fundo nessas questões, portanto, leia tudo de modo crítico: o que eles mostram principalmente é que não sabemos o que vai acontecer e o que não vai acontecer, e que o leque de possibilidades é enorme. Nossos primeiros cenários estão no final mais rápido e drástico do espectro. Na minha opinião, esses são alguns dos mais valiosos para explorar em detalhes – não porque são necessariamente os mais prováveis, mas porque se não conseguirmos nos convencer de que são extremamente improváveis, precisamos compreendê-los bem o suficiente para podermos tomar medidas de precaução antes que seja tarde demais, para impedir que levem a resultados ruins.
Enquanto uma rápida explosão de inteligência provavelmente levará a uma única potência mundial, uma versão lenta, arrastando-se por anos ou décadas, pode levar a um cenário multipolar com um equilíbrio de poder entre muitas entidades independentes.
A história da vida mostra sua auto-organização em uma hierarquia cada vez mais complexa, moldada por colaboração, competição e controle. É provável que a superinteligência permita a coordenação em escalas cósmicas cada vez maiores, mas não está claro se isso levará a um controle totalitário ou a um empoderamento individual.
Capítulo 5 – Resultado: os próximos 10 mil anos
A grande maioria de todos os cálculos ocorre nas zonas de máquinas, que pertencem principalmente às muitas IAs superinteligentes concorrentes que vivem lá. Em virtude de sua inteligência e tecnologia superiores, nenhuma outra entidade pode desafiar seu poder. Essas IAs concordaram em cooperar e se coordenar sob um sistema de governança libertária sem regras, exceto a proteção da propriedade privada. Esses direitos de propriedade se estendem a todas as entidades inteligentes, incluindo seres humanos, e explicam como as zonas exclusivamente humanas vieram a existir. No início, grupos de humanos se uniram e decidiram que, em suas zonas, era proibido vender propriedades a não humanos.
Por causa de sua tecnologia, as IAs superinteligentes acabaram ficando mais ricas do que esses humanos, com uma diferença muito maior do que aquela pela qual Bill Gates é mais rico que um morador de rua. No entanto, as pessoas nas zonas exclusivamente humanas ainda estão materialmente melhores do que a maioria das pessoas hoje: sua economia é bastante dissociada daquela das máquinas; portanto, a presença das máquinas em outros lugares tem pouco efeito sobre elas, exceto pelas ocasionais tecnologias que conseguem entender e reproduzir por si mesmas – da mesma forma que os Amish e várias tribos nativas que renunciam à tecnologia hoje têm padrões de vida pelo menos tão bons quanto nos velhos tempos. Não importa que os humanos não tenham nada para vender de que as máquinas precisam, uma vez que as máquinas não precisam de nada em troca.
Nas zonas mistas, a diferença de riqueza entre IAs e humanos é mais perceptível, resultando em terrenos (o único produto de propriedade humana que as máquinas desejam comprar) astronomicamente caros em comparação com outros produtos. Assim, a maioria dos seres humanos que possuía terras acabou vendendo uma pequena fração delas para as IAs em troca de renda básica garantida para eles e seus descendentes/uploads para sempre.
Cenários sombrios. A humanidade pode ser extinta e substituída por IAs (cenários conquistadores e descendentes) ou por nada (cenário de autodestruição).
Não há absolutamente nenhum consenso sobre qual desses cenários é desejado, se é que há algum, e todos envolvem elementos questionáveis. Isso torna ainda mais importante continuar a aprofundar a conversa em torno de nossos objetivos futuros, para não desviarmos inadvertidamente nem seguirmos em uma direção ruim.
Capítulo 6 – Nosso investimento cósmico: os próximos bilhões de anos e além
Enquanto os supermercados e as bolsas de commodities de hoje vendem dezenas de milhares de itens que poderíamos chamar de “recursos”, a vida futura que atingiu o limite tecnológico precisa essencialmente de um recurso fundamental: a chamada matéria bariônica, que significa qualquer coisa composta de átomos ou seus constituintes (quarks e elétrons). Qualquer que seja a forma dessa matéria, a tecnologia avançada pode reorganizá-la em quaisquer substâncias ou objetos desejados, incluindo usinas de energia, computadores e formas de vida avançadas. Portanto, vamos começar examinando os limites da energia que alimenta a vida avançada e o processamento de informações que permite que ela pense.
Em seu livro Uma breve história do tempo, Stephen Hawking propôs uma usina elétrica de buraco negro. Pode parecer paradoxal, uma vez que se acreditava que os buracos negros eram armadilhas das quais nada, nem mesmo a luz, poderia escapar. No entanto, Hawking calculou que os efeitos da gravidade quântica fazem um buraco negro agir como um objeto quente – o menor, o mais quente – que emite radiação de calor, agora conhecida como radiação Hawking. Isso significa que o buraco negro gradualmente perde energia e evapora. Em outras palavras, qualquer que seja a matéria que você despejar no buraco negro, ela voltará a aparecer como radiação de calor; portanto, quando o buraco negro tiver evaporado por completo, você terá convertido sua matéria em radiação com quase 100% de eficiência.
Existe outra maneira conhecida de converter matéria em energia que não envolve buracos negros: o processo sphaleron. Ele pode destruir os quarks e transformá-los em léptons: elétrons, seus primos mais pesados – as partículas de múon e tau –, neutrinos ou suas antipartículas. O modelo-padrão da física de partículas prevê que nove quarks com sabor e rotação apropriados podem se unir e se transformar em três léptons por meio de um estado intermediário chamado sphaleron. Como a entrada pesa mais que a saída, a diferença de massa é convertida em energia, de acordo com a fórmula E = mc² de Einstein.
Em um artigo famoso de 2000, meu amigo Seth Lloyd mostrou que a velocidade da computação é limitada pela energia: realizar uma operação lógica elementar no tempo T requer uma energia média de E = h/4T, em que h é a constante fundamental da física conhecida como “constante de Planck”. Isso significa que um computador de 1 kg pode executar no máximo 5 x 1050 operações por segundo – são impressionantes 36 ordens de magnitude a mais do que o computador no qual estou digitando estas palavras. Chegaremos lá em alguns séculos se o poder computacional continuar dobrando a cada dois anos no máximo 1031 bits que é cerca de um bilhão de bilhões de vezes melhor que o meu laptop.
Seth é o primeiro a admitir que de fato atingir esses limites pode ser um desafio, mesmo para a vida superinteligente, uma vez que a memória daquele “computador” final de 1 kg se assemelharia a uma explosão termonuclear ou a um pequeno pedaço do nosso Big Bang.
Capítulo 7 – Objetivos
Se você imbuir uma IA superinteligente com o único objetivo de se autodestruir, é claro que ela o fará com prazer. No entanto, o ponto é que a IA resistirá ao desligamento se você definir para ela qualquer objetivo que dependa de ela se manter em operação – e isso cobre quase todos os objetivos! Se você der a uma superinteligência o objetivo único de minimizar os danos à humanidade, por exemplo, ela se defenderá das tentativas de desligamento porque sabe que nos prejudicaremos muito mais com sua ausência em guerras futuras e outras loucuras.
Da mesma forma, quase todos os objetivos têm mais chances de ser alcançados com mais recursos; assim, devemos esperar que uma superinteligência queira recursos quase independentemente do objetivo final que ela possui. Dar a uma superinteligência um único objetivo em aberto e sem restrições pode, portanto, ser perigoso: se criarmos uma superinteligência cujo único objetivo é jogar Go da melhor maneira possível, a coisa racional para ela fazer é reorganizar nosso sistema solar em um computador gigantesco, sem levar em consideração seus habitantes anteriores, e, em seguida, começar a colonizar nosso cosmos em busca de mais poder computacional.
Agora fizemos um círculo completo: assim como o objetivo da aquisição de recursos deu a alguns humanos o objetivo principal de dominar o Go, esse objetivo pode levar ao subobjetivo de aquisição de recursos. Em conclusão, esses subobjetivos emergentes tornam crucial não liberarmos a superinteligência antes de resolver o problema de alinhamento de metas: a menos que tenhamos muito cuidado em dotá-la de objetivos amigáveis aos seres humanos, é provável que as coisas acabem mal para nós.
Ética: escolhendo objetivos. Acabamos de explorar como fazer as máquinas aprenderem, adotarem e reterem nossos objetivos. Mas quem somos “nós”? De quais objetivos estamos falando? Uma pessoa ou um grupo deve decidir os objetivos adotados por uma superinteligência futura, embora exista uma grande diferença entre os objetivos de Adolf Hitler, do Papa Francisco e de Carl Sagan? Ou existe algum tipo de objetivo consensual que signifique um bom acordo para a humanidade como um todo?
Na minha opinião, tanto esse problema ético quanto o problema de alinhamento de objetivos são cruciais e precisam ser resolvidos antes que qualquer superinteligência seja desenvolvida. Por um lado, adiar o trabalho sobre questões éticas até que a superinteligência alinhada aos objetivos seja construída seria irresponsável e potencialmente desastroso.
Por outro lado, apesar da discórdia [sobre princípios éticos], existem muitos temas éticos sobre os quais há amplo consenso entre culturas e séculos. Por exemplo, ênfase em beleza, bondade e verdade remonta tanto ao Bhagavad Gita quanto a Platão. O Instituto de Estudos Avançados de Princeton, onde trabalhei no pós-doutorado, tem o lema “Verdade e beleza”, enquanto a Universidade Harvard pulou a ênfase estética e seguiu apenas “Veritas” – verdade. Em seu livro A Beautiful Question, meu colega Frank Wilczek argumenta que a verdade está ligada à beleza e que podemos ver nosso Universo como uma obra de arte. Ciência, religião e filosofia aspiram à verdade. As religiões enfatizam fortemente a bondade, assim como a minha universidade, o MIT: em seu discurso de formatura de 2015, nosso presidente, Rafael Reif, enfatizou nossa missão de tornar o mundo um lugar melhor.
Estamos construindo máquinas cada vez mais inteligentes para nos ajudar a alcançar nossos objetivos. À medida que construímos essas máquinas para exibir um comportamento orientado a objetivos, nos esforçamos para alinhar os objetivos da máquina com os nossos.
Capítulo 8 – Consciência
Muitos argumentos sobre a consciência geram mais calor do que luz, porque os antagonistas estão falando um com o outro sem saber que estão usando definições diferentes da palavra. Assim como com “vida” e “inteligência”, não há definição correta indiscutível da palavra “consciência”. Na verdade, existem muitos concorrentes, incluindo a senciência, vigília, autoconsciência, acesso a informações sensoriais e capacidade de fundir informações em uma narrativa. Em nossa exploração do futuro da inteligência, queremos ter uma visão mais ampla e inclusiva possível, não limitada aos tipos de consciência biológica que existem até agora. É por isso que a definição que dei na Capítulo 1, e que venho usando ao longo deste livro, é muito ampla:
Consciência = experiência subjetiva
Em outras palavras, se ser você gera alguma sensação agora, então você está consciente. É essa definição específica de consciência que chega ao cerne de todas as questões motivadas pela IA na seção anterior: ser Prometheus, AlphaGo ou um veículo autônomo da Tesla gera alguma sensação?
Com essa definição, é difícil não se importar com a consciência. Como Yuval Noah Harari escreve em seu livro Homo Deus: “Se algum cientista quiser argumentar que experiências subjetivas são irrelevantes, terá o desafio de explicar por que a tortura ou o estupro estão errados sem nenhuma referência a experiências dessa natureza”. Sem essa referência, são apenas um monte de partículas elementares se movendo de acordo com as leis da física.
Os psicólogos sabem há muito tempo que você pode executar inconscientemente uma ampla gama de outras tarefas e outros comportamentos, desde reflexos piscantes até respirar, estender o braço, pegar alguma coisa e manter o equilíbrio. Normalmente, você está consciente do que fez, mas não de como o fez. Por outro lado, comportamentos que envolvem situações desconhecidas, autocontrole, regras lógicas complicadas, raciocínio abstrato ou manipulação da linguagem, tendem a ser conscientes. São conhecidos como “correlatos comportamentais da consciência” e estão intimamente ligados à maneira esforçada, lenta e controlada de pensar que os psicólogos chamam de “Sistema 2”.
Também é sabido que você pode converter muitas rotinas do consciente para o inconsciente por meio de uma prática extensiva, por exemplo, caminhar, nadar, andar de bicicleta, dirigir, digitar, fazer a barba, amarrar sapatos, jogar no computador e tocar piano. De fato, é sabido que os especialistas fazem suas especialidades melhor quando estão em estado de flow, ou fluxo, conscientes apenas do que está acontecendo em um nível mais alto e inconscientes dos detalhes de baixo nível de como estão fazendo isso.
Ao planejar nosso futuro, vamos considerar o significado não apenas de nossa vida, mas também de nosso Universo. Aqui, dois dos meus físicos favoritos, Steven Weinberg e Freeman Dyson, representam visões diametralmente opostas. Weinberg, que ganhou o Prêmio Nobel por seu trabalho fundamental no modelo padrão da física de partículas, disse a famosa frase: “Quanto mais o Universo parece compreensível, mais parece inútil”. Dyson, por outro lado, é muito mais otimista, como vimos no Capítulo 6: embora ele concorde que nosso Universo era inútil, ele acredita que a vida está agora preenchendo-o com cada vez mais significado, e que o melhor ainda está por vir se a vida conseguir se espalhar por todo o cosmos.
Nessa perspectiva, vemos que, embora tenhamos, neste livro, nos concentrado no futuro da inteligência, o futuro da consciência é ainda mais importante, pois é ela que permite o significado. Os filósofos gostam de usar o latim nessa distinção, contrastando sapience (a capacidade de pensar de forma inteligente) com sentience (a capacidade de vivenciar subjetivamente qualia). Nós, seres humanos, construímos nossa identidade ao sermos Homo sapiens, as entidades mais inteligentes ao redor. Enquanto nos preparamos para ser humilhados por máquinas cada vez mais inteligentes, sugiro que mudemos nosso rótulo para Homo sentiens.
FICHA TÉCNICA:
Título: Life 3.0 – Being Human in the Age of Artificial Intelligence
Autor: Max Tegmark
Resenha: Rogério H. Jönck
Edição: Monica Miglio Pedrosa