Agora, os militares vão construir robôs que têm moral
Patrick Tucker
Defense One
14 de maio de 2014
São robôs capazes de raciocínio moral ou ético? Não é mais apenas uma questão para professores de filosofia titulares ou diretores de Hollywood. Esta semana, é uma questão a ser posta para as Nações Unidas.
O Escritório de Pesquisa Naval premiará $ 7,5 milhões em dinheiro da
concessão ao longo de cinco anos para os pesquisadores da universidade
de Tufts, Rensselaer Polytechnic Institute, Brown, Yale e Georgetown
para explorar como construir um senso de certo e errado e conseqüência
moral em sistemas robóticos autônomos.
Mesmo que os sistemas não
tripulados de hoje são 'mudo' em comparação com uma contraparte humana,
avanços estão sendo feitos rapidamente para incorporar mais automação em
um ritmo mais rápido do que vimos antes", Paulo Bello, diretor do
programa de ciência cognitiva no Escritório de Pesquisa Naval contou Defesa Uno. "Por exemplo, os carros de auto-condução do Google são legais e em uso em vários estados neste momento. Conforme os pesquisadores, estamos brincando de pegar a tentar descobrir as implicações éticas e legais. Nós não queremos ser apanhados semelhante surpresa em qualquer tipo de domínio militar, onde vidas estão em jogo. "
O exército dos Estados Unidos proíbe letais robôs totalmente autônomos.
E robôs semi-autônomos não podem "selecionar e engajar alvos individuais
ou grupos-alvo específicos que não foram previamente selecionados por
um operador humano autorizado", mesmo no caso em que o contacto com o
operador é cortada, de acordo com uma diretiva política de 2.012 do Departamento de Defesa .
Cientistas: robôs poderão ser programados para matá-lo "para o bem maior '
Veículos autônomos apresentam 'caminho moralmente perigoso'
Paul Joseph Watson
14 de maio de 2014
” À medida
que a Organização das Nações Unidas discute legislação que pode
proibir 'robôs assassinos ", os cientistas prevêem que os sistemas de
inteligência artificial poderão um dia decidir matar seres humanos" para
o bem maior. "
Em um artigo para revista Popular Science
, Erik Sofge descreve um cenário em que os carros robô vão decidir
sacrificar seu dono humano, a fim de evitar uma colisão que poderia
matar mais pessoas.
Um pneu da frente sopra, e suas guinadas autônomos SUV . Mas ao invés de virar à esquerda, na pista contrária de tráfego, o veículo robótico dirige certo. Freios envolvem, o sistema tenta corrigir-se, mas há muito ímpeto. Como um dublê em um filme de ação ruim, você está sobre a falésia, em queda livre.Seu robô, o que você paga um bom dinheiro para, escolheu para te matar. Melhor isso, seus algoritmos de colisão de resposta decidida, que um de alta velocidade, colisão frontal com um menor, compacto não-robótico. Havia duas pessoas no carro, com o que possuía. A matemática não poderia ser mais simples.
Sofge cita um artigo de opinião
de Patrick Lin, professor associado em filosofia e diretor do Grupo de
Ciências Emergentes + Ética na Califórnia Polytechnic State University,
em que Lin investiga os "caminhos legais e moralmente perigosos",
apresentados pelo surgimento de veículos robóticos.
Além de carros do Google e outras formas autônomas de transporte, a
questão de dar os soldados-robôs uma licença para matar é travada há
anos e é atualmente objeto de um debate altamente antecipado em Nova York que está sendo supervisionado por Convenção das Nações Unidas sobre Certas Armas Convencionais.
O papel do órgão da ONU na
proibição de armas a laser e de cegueira para uso no campo de batalha na
década de 1990 levou à especulação de que a legislação que proíbe o uso
de soldados drones poderá estar em obras.
"Toda lei muitas vezes internacionalmente só responde às atrocidades e do sofrimento, uma vez que aconteceu", disse Michael Moeller , diretor da sede européia da ONU atuando em Genebra. ”
"Você tem a oportunidade de tomar uma ação preventiva e garantir que a
decisão final de acabar com a vida permanece firmemente sob o controle
humano."
No ano passado, o premiado escritor militar e ex-oficial de inteligência tenente-coronel Douglas Pryer escreveu um ensaio
avisando da ameaça representada pelos sem remorsos "robôs assassinos" que
serão usados para perseguir e abater alvos humanos em um futuro
próximo.
Os comentários de Pryer ecoam as de Noel Sharkey
, professor de inteligência artificial e robótica da Universidade de
Sheffield, que tem alertado repetidamente que os robôs estão sendo
desenvolvidos sob os auspícios da DARPA eventualmente a serem usados para
matar.
Em um relatório de 50 páginas publicado em 2012, a Human Rights Watch também alertou que os robôs artificialmente inteligentes soltos no campo de batalha, inevitavelmente, cometerão crimes de guerra.
Michael Cahill,
professor de Direito e vice-reitor da Brooklyn Law School,
congratulou-se a idéia de robôs autônomos com o poder de tomar decisões
de vida ou morte em nome de seres humanos, mas reconheceu que uma tal
sociedade poderá se assemelhar a um pesadelo de ficção científica.
"A beleza de robôs é que eles não têm relações com
ninguém", afirmou Cahill, acrescentando: "Eles podem tomar decisões que
são melhores para todos. ” Mas se você viver nesse mundo, onde os robôs tomem todas as decisões, você pode pensar que é uma distopia. "
Paul Joseph Watson é o editor geral de Infowars.com e
Nenhum comentário:
Postar um comentário