14 de maio de 2014

Robôs com moral e robôs assassinos.

Agora, os militares vão construir robôs que têm moral









  Patrick Tucker
Defense One  

14 de maio de 2014
 
São robôs capazes de raciocínio moral ou ético? Não é mais apenas uma questão para professores de filosofia titulares ou diretores de Hollywood. Esta semana, é uma questão a ser posta para as Nações Unidas.
Now The Military Is Going To Build Robots That Have Morals 140514robot
  Image: DARPA Robot (YouTube).
 
  O Escritório de Pesquisa Naval premiará $ 7,5 milhões em dinheiro da concessão ao longo de cinco anos para os pesquisadores da universidade de Tufts, Rensselaer Polytechnic Institute, Brown, Yale e Georgetown para explorar como construir um senso de certo e errado e conseqüência moral em sistemas robóticos autônomos.
Mesmo que os sistemas não tripulados de hoje são 'mudo' em comparação com uma contraparte humana, avanços estão sendo feitos rapidamente para incorporar mais automação em um ritmo mais rápido do que vimos antes", Paulo Bello, diretor do programa de ciência cognitiva no Escritório de Pesquisa Naval contou Defesa Uno. "Por exemplo, os carros de auto-condução do Google são legais e em uso em vários estados neste momento.  Conforme os pesquisadores, estamos brincando de pegar a tentar descobrir as implicações éticas e legais. Nós não queremos ser apanhados semelhante surpresa em qualquer tipo de domínio militar, onde vidas estão em jogo. "
  O exército dos Estados Unidos proíbe letais robôs totalmente autônomos.  E robôs semi-autônomos não podem "selecionar e engajar alvos individuais ou grupos-alvo específicos que não foram previamente selecionados por um operador humano autorizado", mesmo no caso em que o contacto com o operador é cortada, de acordo com uma diretiva política  de 2.012 do Departamento de Defesa   .


Cientistas: robôs poderão ser programados para matá-lo "para o bem maior '









  Veículos autônomos apresentam 'caminho moralmente perigoso'
 
Paul Joseph Watson
14 de maio de 2014
 
À medida que a Organização das Nações Unidas discute legislação que pode proibir 'robôs assassinos ", os cientistas prevêem que os sistemas de inteligência artificial poderão um dia decidir matar seres humanos" para o bem maior. "
Scientists: Robots Could be Programmed to Kill You For the Greater Good  140514rob
  Image: DARPA (YouTube).
 
Em um artigo para revista Popular Science , Erik Sofge descreve um cenário em que os carros robô vão decidir  sacrificar seu dono humano, a fim de evitar uma colisão que poderia matar mais pessoas.
Um pneu da frente sopra, e suas guinadas autônomos SUV . Mas ao invés de virar à esquerda, na pista contrária de tráfego, o veículo robótico dirige certo. Freios envolvem, o sistema tenta corrigir-se, mas há muito ímpeto. Como um dublê em um filme de ação ruim, você está sobre a falésia, em queda livre.
Seu robô, o que você paga um bom dinheiro para, escolheu para te matar.  Melhor isso, seus algoritmos de colisão de resposta decidida, que um de alta velocidade, colisão frontal com um menor, compacto não-robótico.  Havia duas pessoas no carro, com o que possuía.  A matemática não poderia ser mais simples.
Sofge cita um artigo de opinião de Patrick Lin, professor associado em filosofia e diretor do Grupo de Ciências Emergentes + Ética na Califórnia Polytechnic State University, em que Lin investiga os "caminhos legais e moralmente perigosos", apresentados pelo surgimento de veículos robóticos.
Além de carros do Google e outras formas autônomas de transporte, a questão de dar os soldados-robôs uma licença para matar é travada há anos e é atualmente objeto de um debate altamente antecipado em Nova York que está sendo supervisionado por Convenção das Nações Unidas sobre Certas Armas Convencionais.
O papel do órgão da ONU na proibição de  armas a laser e de cegueira para uso no campo de batalha na década de 1990 levou à especulação de que a legislação que proíbe o uso de soldados drones poderá estar em obras.
"Toda lei muitas vezes internacionalmente só responde às atrocidades e do sofrimento, uma vez que aconteceu", disse Michael Moeller , diretor da sede européia da ONU atuando em Genebra. "Você tem a oportunidade de tomar uma ação preventiva e garantir que a decisão final de acabar com a vida permanece firmemente sob o controle humano."
No ano passado, o premiado escritor militar e ex-oficial de inteligência tenente-coronel Douglas Pryer escreveu um ensaio avisando da ameaça representada pelos  sem remorsos "robôs assassinos" que serão usados ​​para perseguir e abater alvos humanos em um futuro próximo.
Os comentários de Pryer ecoam as de Noel Sharkey , professor de inteligência artificial e robótica da Universidade de Sheffield, que tem alertado repetidamente que os robôs estão  sendo desenvolvidos sob os auspícios da DARPA eventualmente  a serem usados para matar.
Em um relatório de 50 páginas publicado em 2012, a Human Rights Watch também alertou que os robôs artificialmente inteligentes soltos no campo de batalha, inevitavelmente, cometerão crimes de guerra.
Michael Cahill, professor de Direito e vice-reitor da Brooklyn Law School, congratulou-se a idéia de robôs autônomos com o poder de tomar decisões de vida ou morte em nome de seres humanos, mas reconheceu que uma tal sociedade poderá se assemelhar a um pesadelo de ficção científica.
"A beleza de robôs é que eles não têm relações com ninguém", afirmou Cahill, acrescentando: "Eles podem tomar decisões que são melhores para todos. Mas se você viver nesse mundo, onde os robôs tomem todas as decisões, você pode pensar que é uma distopia. "

Paul Joseph Watson é o editor geral de Infowars.com e

Nenhum comentário: