SÃO FRANCISCO, Califórnia — Em OpenAI, o laboratório de inteligência artificial que fundou o ceo da Tesla, Elon Musk, as máquinas estão aprendendo sozinho a se comportar como seres humanos. Mas, às vezes, se dão mal. Há poucos dias, o pesquisador Dario Amodei se encontrava sentado em escritórios de OpenAI em San Francisco, no tempo em que prometeu um sistema autônomo que tinha aprendido por si mesmo a jogar o velho jogo de corrida de barcos Coast Runners.
Ganha o jogador que acumular mais pontos e que cruze a linha de chegada em primeiro local. O consequência foi surpreendente: a lancha mostrava muito interesse nas pequenas coisas verdes que saltavam da tela. Ao atraparlas, acumulava pontos. Ao invés tentar completar a corrida, a lancha acumulava pontos pro anormal. Navegava em círculos intermináveis, chocava com algumas embarcações, se estrellaba contra paredes de pedra e, muitas vezes, se incendiou. O barco em chamas de Amodei comprovou os riscos das técnicas de inteligência artificial (IA) que estão mudando de forma acelerada o universo da tecnologia.
Os pesquisadores estão criando máquinas que podem entender tarefas em amplo parte por sua conta. É assim como este o laboratório DeepMind do Google construiu um sistema que poderia vencer o mais legal jogador do velho jogo de Go. Contudo, de acordo com estas máquinas aprendem, após horas de observação de detalhes, assim como podem fazer comportamentos impensados, indesejáveis e talvez perigosas. Essa é uma preocupação que surgiu à medida que estas técnicas se abrem passagem para os serviços on-line, os dispositivos de segurança e da robótica. Atualmente, uma pequena comunidade de pesquisadores em inteligência artificial, entre os quais se acha Amodei, começa a percorrer as técnicas matemáticas que ajudem a evitar que aconteça o pior.
Em OpenAI, Amodei, e seu colega Paul Christiano desenvolvem algoritmos que podem não apenas estudar a exercer tarefas a começar por horas de ensaio e erro, porém que assim como recebem assessoria periódicas de professores humanos no decorrer do método. Com alguns cliques aqui e outros ali, os desenvolvedores prontamente têm uma maneira de falar a um sistema autônomo que você deve pra receber pontos Coast Runners, todavia também avançar pra linha de chegada. Acreditam que esta categoria de algoritmos (uma mistura entre instruções humanas e mecânicas) podes proteger a que os sistemas automatizados são seguros. Durante anos, Musk, próximo com outros estudiosos, filósofos e especialistas em tecnologia, indicaram que as máquinas conseguem sair do nosso controle e de estudar, de alguma mandeira, os comportamentos danosos que seus projetistas não considerassem.
Em muitas ocasiões, estas expressões pareceram fora de proporção, uma vez que os sistemas de automóveis autônomos de hoje conseguem ser confundidas com as tarefas mais básicas, como diferenciar uma ciclovia ou um sinal vermelho. Entretanto, pesquisadores como Amodei buscam antecipar-se em conexão aos riscos. De alguma mandeira, o que executam estes cientistas é parecido com o que ensinam os pais a seus filhos quando eles querem que diferençar entre o bem e o mal.
- Kobuhei Hayashiya
- ± : alt+241
- Francês – 3%
- Usuário que reporta: Tolito 09:Quarenta e dois dezessete oct 2007 (CEST)
- cinco Operação Foram: a exportação do processo “argentino” a américa Central
- Colaborar com as tarefas de manutenção
- Morrem, os cantores João Gabriel e David Bowie
Este treinamento para jogos, tem implicações no universo real. Os pesquisadores acreditam que se uma máquina pode compreender a dirigir em um jogo como Grand Theft Auto, poderia aprender a dirigir um automóvel na existência real. Se você é capaz de usar um navegador de internet e outros aplicativos de software comuns, você podes estudar um idioma e até já a sustentar uma discussão.
Em locais como o Google e a escola da Califórnia em Berkeley, os robôs agora utilizaram esta técnica para aprender tarefas acessível como segurar coisas ou abrir uma porta. Por todo o exposto, Amodei e Christiano trabalham pela construção de algoritmos de aprendizado por reforço que recebem instruções humanas a respeito da marcha, o que podes garantir que os sistemas não se desviem de tua tarefa principal.
Os pesquisadores OpenAI, juntamente com outros do laboratório DeepMind de Londres, que pertence à Google, publicados em datas novas porção de tua busca no ramo. Os 2 laboratórios de IA mais essenciais do mundo, e que em realidade não têm trabalhado juntos previamente, consideram estes algoritmos como um enorme passo para a investigação relacionada com a segurança em inteligência artificial. “Isto valida extenso porção das idéias prévias”, citou Dylan Hadfield-Menell, pesquisador da Universidade da Califórnia, em Berkeley. “Esta categoria de algoritmos promete muito pros próximos cinco a dez anos”. O campo é reduzido, mas está em progresso.
A quantidade que OpenAI e DeepMind formam equipamentos dedicados à segurança em IA, o Google faz o mesmo com seu laboratório Google Brain nos EUA. Entretanto, os pesquisadores de universidades, como a faculdade da Califórnia, em Berkeley, Stanford trabalham pela solução de problemas parecidos, e várias vezes o exercem em colaboração com laboratórios das grandes organizações. Grande fração de seu trabalho é teórico, contudo, dada a rapidez com que crescem as técnicas de IA e a relevância que cobram pra diversas indústrias, os pesquisadores acreditam que a fantástica estratégia é começar com antecedência.