Segundo os pesquisadores, os robôs foram projetados para criar pistas falsas, gerar comunicações fraudulentas e se esconder de forma a se beneficiarem e não serem encontrados.
"Nós desenvolvemos algoritmos que permitem que um robô determine se ele deve enganar um homem ou outra máquina inteligente e criamos técnicas que ajudam o robô a selecionar a melhor estratégia para ludibriar e reduzir a chance de ser descoberto," conta Ronald Arkin, que criou os robôs juntamente com seu colega Alan Wagner.
Quem é o inimigo
Em uma pesquisa totalmente aberta a questionamentos éticos, os pesquisadores exploraram o fenômeno da fraude e do engano de uma perspectiva geral, o que faz com os resultados possam ser aplicados tanto a interações entre humanos e robôs quanto a interações entre robôs.
A pesquisa está voltada para o desenvolvimento de robôs militares, que objetivam enganar um inimigo. O problema reside em deixar que o robô - o programa de computador que o controla - decida quem é o inimigo.
"A maioria dos robôs sociais provavelmente apenas raramente usará a capacidade de enganar, mas ainda assim esta é uma ferramenta importante no arsenal interativo dos robôs porque robôs que reconhecem a necessidade de usar artimanhas têm vantagens em termos de resultados em comparação com os robôs que não reconhecem a necessidade de fraudar," diz o professor Wagner, sem enumerar quais vantagens seriam essas.
Os pesquisadores centraram-se nas ações, nos pressupostos e nas comunicações de um robô tentando se esconder de um outro robô. A seguir eles desenvolveram programas que geraram comportamentos que buscam enganar os outros.
Jogos perigosos
O primeiro passo foi ensinar ao robô como reconhecer uma situação que justifique a utilização de artifícios e fraudes deliberadas, o que foi feito usando teoria da interdependência e teoria dos jogos.
A situação tinha que satisfazer duas condições básicas para justificar a fraude - deve haver um conflito entre o robô que vai enganar e quem, ou o quê, o está procurando, e o enganador deve se beneficiar da fraude.
Definida a fraude como meta, o robô começa a gerar comunicações falsas de forma a enganar o outro, seja um robô ou um humano.
Usando dois robôs autônomos, os pesquisadores verificaram que o robô enganador teve sucesso em 75% dos testes.
"Os resultados são uma indicação preliminar de que as técnicas e algoritmos descritos em nosso artigo podem ser usados para produzir com sucesso um comportamento fraudulento em um robô," diz Wagner.
Ética robótica
Os pesquisadores concordam que há implicações éticas que precisam ser consideradas para garantir que suas criações sejam consistentes com as expectativas e o bem-estar da sociedade.
"Ficamos preocupados desde o início com as implicações éticas relacionadas com a criação de robôs capazes de fraudar e entendemos que há aspectos benéficos e maléficos," diz Arkin. "Nós encorajamos firmemente a discussão sobre a adequação dos robôs enganadores para determinar quais, se houver, regulamentos ou orientações deverão condicionar o desenvolvimento desses sistemas."
Na verdade, apesar do discurso, os dois pesquisadores parecem ter ignorado toda a discussão sobre ética robótica que já é feita no ambiente científico e até político há muito tempo.
* Robôs éticos e morais - seis estratégias a seguir
* Robôs sensíveis cuidarão das emoções de seus donos
* Robôs vão obedecer às Leis de Asimov na vida real
* Regras de comportamento de robôs: Japão adota primeira lei de Asimov
* Quer robôs responsáveis? Comece com humanos responsáveis
Sobretudo a última reportagem parece aplicar-se adequadamente ao presente caso.
Fonte: Abby Vogel Robinson
Nenhum comentário:
Postar um comentário