quinta-feira, agosto 20, 2009

Soldado robô seria mais ético que humanos, diz cientista



No calor da batalha, movidos pela ira, medo ou instinto de vingança, até mesmo os soldados mais treinados podem se comportar de maneira que violem as convenções de Genebra ou as regras de combate adotadas pelo seu exército. Agora, pesquisadores estão sugerindo a possibilidade de que robôs se sairiam melhor nesse tipo de situação."Minha hipótese de pesquisa é a de que robôs inteligentes se comportariam de maneira mais ética que seres humanos, em um campo de batalha", disse Ronald Arkin, cientista da computação no Instituto de Tecnologia da Geórgia, que está criando software para robôs de combate sob contrato do exército. "É esse meu argumento".
Aviões sem piloto, detectores de minas robotizados e veículos de controle remoto para reconhecimento em campos de batalha estão em uso cotidiano nas forças armadas dos Estados Unidos, mas todos são controlados por seres humanos. Muitos dos aviões sem piloto usados no Iraque e Afeganistão são controlados de um centro de comando em Nevada. Já Arkin fala sobre verdadeiros robôs, operando de maneira autônoma, sem controle humano direto.
Ele e outros especialistas afirmam que a tecnologia necessária a produzir robôs letais custa pouco e está proliferando, e que o advento de robôs de combate é apenas questão de tempo. Isso significa, dizem, que chegou a hora de as pessoas começarem a discutir se essa tecnologia é algo que desejam ver em uso. "O mais importante é que não fechemos os olhos à questão", disse Arkin.
Noel Sharkey, cientista da computação da Universidade de Sheffield, no Reino Unido, em artigo publicado no ano passado pelo "Innovative Technology for Computer Professionals", afirmou que "não estamos falando de ficção científica à maneira de 'Exterminados do Futuro', mas de uma séria realidade". Ele afirmou que Coréia do Sul e Israel estão entre os países que já vêm empregando robôs armados como guardas de fronteira. Em entrevista, ele disse que está acontecendo "uma corrida feroz" para desenvolver robôs de combate que decidirão por si mesmos quando atacar.
"Não queremos chegar ao ponto em que essa é uma discussão que deveria ter sido realizada 20 anos atrás", disse Collin Allen, professor de filosofia na Universidade de Indiana e autor de um livro sobre a moralidade na robótica. Randy Zachery, diretor de ciências da informação no Serviço de Pesquisa do Exército, que financia o trabalho de Arkin, afirma que a esperança do exército é que a "ciência básica" demonstre de que maneira os seres humanos podem usar e interagir com sistemas autônomos, e de que maneira o software poderia ser desenvolvido a fim de "permitir que sistemas autônomos operem nos limites impostos aos combatentes".
"O projeto não tem em mente um produto ou aplicativo específico", disse Zachery, que é engenheiro elétrico. "O objetivo é basicamente responder perguntas que possam estimular novas pesquisas ou esclarecer coisas sobre as quais não estávamos informados anteriormente". E o tenente-coronel Martin Downie, porta-voz do exército, afirmou que, não importa o que o programa venha a desenvolver, "em última análise cabe ao comandante-em-chefe decidir o uso, e ele responde ao povo dos Estados Unidos, como todos nós".
Em relatório preparado para o exército no ano passado, Arkin descreveu alguns dos possíveis benefícios de robôs de combate autônomos. Para começar, eles podem ser projetados para não ter um instinto de autopreservação, o que eliminaria o impulso de reagir violentamente sob estímulo do medo. Eles também podem ser construídos de forma a não apresentarem ira ou irresponsabilidade, escreveu Arkin, e podem ser criados de forma que os torne invulneráveis ao "problema psicológico das expectativas determinantes", que torna mais fácil a um ser humano absorver informações novas quando estas concordam com suas idéias preexistentes sobre um dado assunto.
O trabalho de Arkin menciona uma pesquisa do serviço médico do exército, segundo a qual menos da metade dos militares que serviram no Iraque consideram que não-combatentes devam ser tratados com dignidade e respeito; 17% deles acreditam também que todos os civis devam ser tratados como insurgentes. Mais de um terço dos entrevistados disseram considerar tortura como aceitável, e menos de metade denunciaria um colega por violações éticas em combate.
Soldados zangados, estressados, ansiosos ou pesarosos pela perda de colegas, e aqueles que tiveram de lidar com os restos mortais de baixas de guerra, apresentam maior probabilidade de admitir maus tratos a civis não combatentes, de acordo com a pesquisa (que pode ser lida buscando por 1117mhatreport no site www.globalpolicy.org.) "Não estou afirmando que um sistema não humano será 100% ético no campo de batalha", escreveu Arkin em seu relatório, "mas estou convencido de que eles podem funcionar de modo mais ético do que soldados humanos".
Para Arkin, há diversas maneiras de usar robôs como "assistentes de combate", em situações nas quais não haja tempo para que o veículo robotizado envie dados para um posto de comando e espere instruções humanas.
Mas primeiro eles teriam de ser programados com regras sobre quando seria aceitável disparar contra um tanque, e sobre outras tarefas complexas e emocionalmente desgastantes, tais como distinguir civis, inimigos feridos ou soldados que estão tentando se render de forças inimigas que ainda estão em combate, e sobre que alvos seria admissível atacar.
Allen, de sua parte, diz que tornar os robôs "sensíveis a considerações morais complicará ainda mais a tarefa, já desafiadora, de construir sistemas seguros, eficientes e confiáveis", do ponto de vista da engenharia. Mas ele acrescentou em entrevista: "Será que é possível construir sistemas que prestem atenção às questões éticas relevantes? Sim".

Fonte: www.terra.com.br

Nenhum comentário: