Imagine isto: os tons suaves do seu assistente pessoal acordam você suavemente quando você está perto do final do seu último ciclo de sono.
Uma voz desencarnada o informa sobre os e-mails que ele perdeu durante a noite e como eles foram respondidos em sua ausência. A mesma voz avisa que está prevista chuva esta manhã e recomenda que você vista a capa de chuva antes de sair de casa. Enquanto seu carro o leva ao escritório, seu relógio de pulso anuncia que o almoço da churrascaria local foi reservado para entrega em domicílio, já que seus níveis de ferro têm estado um pouco baixos ultimamente.
Ter todas as suas necessidades antecipadas e atendidas antes de você mesmo ter a chance de realizá-las é um dos potenciais da inteligência artificial avançada. Alguns dos principais investigadores de IA do Canadá acreditam que isso poderia criar uma utopia para a humanidade, se a IA não erradicar primeiro a nossa espécie.
Embora não seja nova nem simples, a conversa em torno da IA e como ela afetará a maneira como conduzimos nossas vidas pode ser dividida em três partes: se a superinteligência, uma entidade que ultrapassa a inteligência humana, ocorrerá, e como essa entidade poderia torná-la melhor. ou melhor. destruir a vida como a conhecemos e o que podemos fazer agora para controlar o resultado.
Mas aconteça o que acontecer, os observadores no terreno dizem que a questão deveria estar entre as principais prioridades dos líderes mundiais.
A corrida pela superinteligência
Para a pessoa média, a IA no contexto atual pode ser caracterizada por fazer uma pergunta a um dispositivo e ouvir a resposta em segundos. Ou a carteira do seu celular que abre quando vê seu rosto.
Estas são respostas que surgem após uma sugestão humana para uma única tarefa, que é uma característica comum da inteligência artificial ou inteligência artificial estreita (ANI). A próxima etapa é a AGI, ou inteligência artificial geral, que ainda está em desenvolvimento, mas proporcionaria o potencial para as máquinas pensarem e tomarem decisões por si mesmas e, portanto, serem mais produtivas, de acordo com o Universidade de Wolverhampton na Inglaterra.
ASI, ou superinteligência, operará além do nível humano e é apenas uma questão de anos, de acordo com muitos na área, incluindo o cientista da computação britânico-canadense Geoffrey Hinton, que falou à CBC de seu estúdio em Toronto, onde mora e atualmente trabalha como Professor Emérito na Universidade de Toronto.
“Se você quer saber como é não ser extremamente inteligente, pergunte a uma galinha”, disse Hinton, frequentemente elogiado como um dos padrinhos da IA.
“Quase todos os principais pesquisadores acreditam que teremos superinteligência. Faremos coisas de maneira mais inteligente do que nós mesmos”, disse Hinton. “Achei que levaria de 50 a 100 anos. Agora acho que pode levar de cinco a 20 anos até que tenhamos superinteligência. Talvez mais, mas está chegando mais rápido do que eu pensava.”
Jeff Clune, professor de ciência da computação na Universidade de British Columbia e presidente do CIFAR Canada em IA no Vector Institute, uma organização sem fins lucrativos de pesquisa em IA com sede em Toronto, ecoa as previsões de Hinton em relação à superinteligência.
“Eu definitivamente acho que há uma chance, e não trivial, de que isso possa aparecer este ano”, disse ele.
“Entramos na era em que a superinteligência é possível a cada mês que passa e essa probabilidade aumentará a cada mês que passa”.
Erradicar doenças, racionalizar os sistemas de irrigação e aperfeiçoar a distribuição de alimentos são apenas algumas das técnicas que a superinteligência poderia fornecer para ajudar os humanos. resolver a crise climática e acabar com a fome no mundo. No entanto, os especialistas alertam contra a subestimação do poder da IA, tanto para o bem como para o mal.
A vantagem da IA
Embora a promessa de superinteligência, uma máquina inteligente que evoca imagens de HAL a partir de 2001: Uma Odisseia no Espaço qualquer O terminadorAcredita-se que a SkyNet é inevitável, não precisa ser uma sentença de morte para toda a humanidade.
Clune estima que poderia haver uma chance de 30 a 35 por cento de que tudo correria extremamente bem em termos de os humanos manterem o controle sobre as superinteligências, isto é, áreas como assistência médica e educação poderia melhorar além da nossa imaginação.
“Eu adoraria ter um professor com paciência infinita e que pudesse responder a todas as minhas dúvidas”, disse ele. “E nas minhas experiências neste planeta com humanos, isso é raro, senão impossível, de encontrar.”
Ele também diz que a superinteligência nos ajudaria a “tornar a morte opcional”, impulsionando a ciência e eliminando tudo, desde morte acidental até câncer.
“Desde o início da revolução científica, a engenhosidade científica humana tem sido limitada pelo tempo e pelos recursos”, disse ele.
“E se você tem algo muito mais inteligente do que nós e pode criar trilhões de cópias em um supercomputador, então você está falando sobre a taxa de inovação científica sendo absolutamente catalisada”.
assistência médica foi uma das indústrias que Hinton disse que mais mereceria uma atualização de IA.
“Dentro de alguns anos poderemos ter médicos de família que, de facto, atenderam 100 milhões de pacientes e conhecem todos os testes que foram feitos em você e nos seus familiares”, disse Hinton à BBC, destacando o potencial da IA para eliminar o erro humano. ao fazer diagnósticos.
PARA pesquisa 2018 Um estudo encomendado pelo Instituto Canadense de Segurança do Paciente mostrou que os diagnósticos errados encabeçaram a lista de incidentes de segurança do paciente relatados pelos canadenses.
“A combinação do sistema de IA e do médico é muito melhor do que o médico lidando com casos difíceis”, disse Hinton. “E o sistema só vai melhorar.”
O negócio arriscado da superinteligência
No entanto, esta profecia brilhante pode tornar-se muito mais sombria se os humanos não conseguirem manter o controlo, embora a maioria dos que trabalham no campo da IA reconheça que existem inúmeras possibilidades quando se trata de inteligência artificial.
Hinton, que também ganhou o Prêmio Nobel de Física No ano passado, ele ganhou as manchetes durante as férias depois de dizer à BBC que há uma chance de 10 a 20 por cento de que a IA leve à extinção humana nos próximos 30 anos.
“Nunca tivemos que lidar com coisas mais inteligentes do que nós antes. E quantos exemplos você conhece de uma coisa mais inteligente sendo controlada por uma coisa menos inteligente?” Hinton perguntou na BBC. Hoje programa.
Cientista da computação e ‘padrinho da IA’ @geoffreyhinton diz #R4Hoje editor convidado Sir Sajid Javid A IA pode levar à extinção humana dentro de duas décadas e os governos devem “forçar as grandes empresas” a fazer muitas pesquisas de segurança.
“Há uma mãe e um bebê. A evolução trabalhou duro para permitir que o bebê controlasse a mãe, mas esse é o único exemplo que conheço”, disse ele.
Falando com a CBC News, Hinton expandiu sua analogia entre pais e filhos.
“Se você tem filhos, quando eles são bem pequenos, um dia eles tentarão amarrar os próprios cadarços. E se você for um bom pai, você vai deixá-los tentar e talvez ajudá-los a fazer isso. fazer isso.” para a loja. E depois de um tempo você apenas diz: ‘Ok, esqueça, vou fazer isso hoje.’ “Esta será a situação entre nós e a superinteligência”, afirmou.
“Haverá coisas que faremos e as superinteligências ficarão fartas do fato de que somos tão incompetentes e simplesmente nos substituirão”.
Quase 10 anos atrás, Elon Musk, fundador da SpaceX e CEO da Tesla Motors, disse ao astrofísico americano Neil deGrasse Tyson que acredita A IA vai domar humanos como animais de estimação.
Hinton arrisca que eles nos manterão da mesma forma que mantemos os tigres.
“Não vejo por que não o fariam. Mas não vamos mais controlar as coisas”, disse ele.
Como isso acontece6:47O ‘padrinho da IA’ ganha o Nobel por seu trabalho no desenvolvimento da tecnologia que agora teme
E se os humanos não forem considerados dignos o suficiente para o entretenimento, Hinton acredita que poderemos ser totalmente eliminados, embora não ache que seja útil jogar o jogo de adivinhação sobre como a humanidade chegará ao fim.
“Não quero especular sobre como eles se livrariam de nós. Há muitas maneiras de fazer isso. Quero dizer, uma maneira óbvia é algo biológico que não os afetaria como um vírus, mas quem sabe?”
Como podemos manter o controle?
Embora as previsões sobre o âmbito desta tecnologia e o seu cronograma possam variar, os investigadores tendem a estar unidos na sua crença de que a superinteligência é inevitável.
A questão que permanece é se os humanos conseguirão ou não manter o controle.
Para Hinton, a resposta está na eleição de políticos que façam da regulamentação da IA uma alta prioridade.
“O que deveríamos fazer é encorajar os governos a forçar as grandes empresas a fazerem mais investigação sobre como manter estas coisas seguras quando as desenvolvem”, disse ele.
No entanto, Clune, que também atua como consultor sênior de pesquisa do Google DeepMind, diz que muitos dos principais players de IA têm os valores certos e estão “tentando fazer isso direito”.
“O que me preocupa muito menos do que as empresas que o desenvolvem são os outros países que estão a tentar recuperar o atraso e as outras organizações que têm muito menos escrúpulos do que os principais laboratórios de IA”.
Uma solução prática que Clune oferece, semelhante à era nuclear, é convidar todos os principais participantes da IA para conversas regulares. Ele acredita que todos que trabalham nesta tecnologia devem colaborar para garantir que ela seja desenvolvida com segurança.
“Este é o maior lançamento de dados que os humanos fizeram na história e ainda maior do que a criação de armas nucleares”, disse Clune, sugerindo que se os investigadores de todo o mundo se mantiverem a par dos seus avanços, poderão parar se for necessário.
“Os riscos são elevados. Se o fizermos bem, obteremos enormes vantagens. E se o fizermos mal, poderemos estar a falar do fim da civilização humana.”