Mas, o desafio não advém apenas da descodificação, surge na estrutura ou na base, desde logo, ao nível da responsabilidade. Quem é responsável se uma IA causar dano? Como garantir que a IA não discrimina? Como regular IA generativa?
De referir que, a IA não é considerada um “sujeito de direito”, significa que, não tem personalidade jurídica. Logo, se uma IA causa um dano, a responsabilidade recairá sobre quem a criou, a treinou, a implementou ou a usou.
Mas se estivermos a falar IAs generativas – as que não copiam, criam um conteúdo novo, com base em padrões aprendidos -, a resposta não poderá ser tão simples e há quem entenda que se deve criar um tipo de “personalidade eletrónica”.
Lado a lado, surge a questão da complexidade técnica, os algoritmos, IA, blockchain ou cibercrime exigem conhecimentos específicos, quer por parte dos advogados, quer também por parte dos magistrados, razão pela qual um tribunal especializado poderia ser a resposta adequada, obrigaria a uma formação em tecnologia, ou pelo menos apoio técnico adequado e resultaria em decisões rápidas, procedimentos mais ágeis, talvez até sessões online, adaptadas ao próprio ambiente digital, o que garantiria uma uniformidade no que diz respeito à interpretação e consequentemente às decisões.
Outras (muitas) questões poder-se-iam levantar, mas deixarei para outra ocasião.