Considerando o crescimento do uso da inteligência artificial, a responsabilidade jurídica decorrente de uma conduta lesiva por parte dos robôs passa a ser uma questão passível de discussão. Afinal, os robôs teriam direitos próprios? Seriam dotados de personalidade jurídica? Ou ainda: quem são os responsáveis pela segurança de um robô? Se uma máquina causa danos a seus usuários, quem responde civilmente por isso? Como imputar responsabilidade caso uma inteligência artificial venha a se comportar de forma equivocada e insegura? Com o avanço da tecnologia, essas e outras dúvidas tendem a se tornar cada vez mais frequentes.

t

Segundo a advogada especialista em Direito Digital Paula Tudisco, do escritório Küster Machado – Advogados Associados, muita gente ainda acredita que o uso de inteligência artificial é ficção científica. Mas, os robôs estão cada vez mais inteligentes e autônomos, fazendo, a cada dia mais, parte da rotina das pessoas.

“Um caso que gerou muita repercussão sobre o tema foi o acidente ocorrido nos Estados Unidos, com um carro guiado por programação, que estava sendo testado por uma plataforma de transporte, acabou atingindo uma mulher e causando sua morte. Outro caso, no Japão, com um robô inteligente usado em uma fábrica de carros matou um trabalhador que tentou fazer reparos na máquina, pois não tinha consciência que existia um humano ali”, comenta a especialista.

Segundo a advogada, no Brasil, apenas pessoas físicas ou jurídicas podem ser titulares de direitos e obrigações e, portanto, as vítimas podem imputar a responsabilidade pela reparação dos danos causados pela inteligência artificial ao proprietário final dela, ou seja, ao seu fabricante, a depender da situação e da tecnologia empregada.

“A afirmação de que a empresa que desenvolveu e implementou a tecnologia é que deve se responsabilizar juridicamente por eventuais danos causados pelo robô criado é, praticamente, automática no nosso ordenamento jurídico. Inclusive esse é o posicionamento de empresas de renove na área de desenvolvimento de inteligência artificial.”

Contudo, segundo Paula, os desenvolvedores de inteligência artificial admitem que é certo que nenhum ser humano é capaz de dizer por que um determinado algoritmo da inteligência artificial faz o que faz, e é impossível prever, totalmente, o que o algoritmo poderá fazer em situações diferentes daquelas utilizadas para o treinamento do robô, no decorrer do tempo.

“Em 2017, o Parlamento Europeu editou uma resolução com recomendações sobre Direito Civil e robótica e para que se crie uma espécie de personalidade jurídica para os robôs, chamada de ‘e-personality’ ou ‘personalidade eletrônica’. A proposta, sem dúvida, é polêmica e, talvez, não seja a melhor solução. Talvez a criação de um seguro amplo, que faça frente às hipóteses de danos causados por robôs com inteligência artificial, seja uma opção mais viável.”

____________

leia mais