Precisamos nos defender da inteligência artificial no governo?
Por Jackeline Teixeira*
Título do artigo comentado: A shallow defence of a technocracy of artificial intelligence: Examining the political harms of algorithmic governance in the domain of government
Autores/as do artigo comentado: Henrik Skaug Sætra
A que questão de pesquisa o texto responde? Uma tecnocracia da Inteligência Artificial é necessariamente melhor do que uma tecnocracia de seres humanos?
Por qual motivo esse texto é relevante? O texto não se mostra significativo somente pela contextualização teórica abrangente que apresenta, mas também capacidade de observar os impactos da implementação da tecnologia em diversas esferas do conhecimento da Ciência Política. As pontuações feitas no artigo não se limitam à Inteligência Artificial, mas podem ser pensadas na dimensão da aplicação de toda e qualquer tecnologia nas ações políticas, especialmente as governamentais.
Resumo da pesquisa:
Tecnocracia é um termo que significa o governo dos especialistas, e Sætra quando utiliza o termo se refere aos especialistas em ciência e tecnologia. Uma vez que há tanto argumentos em favor como contra a tal tipo de governo, o autor discorre sobre as principais ideias a partir da dúvida sobre a possibilidade uma tecnocracia da Inteligência Artificial ser melhor do que uma tecnocracia ordenada por humanos.
Ao longo do texto, o autor aponta três premissas que sustentam a defesa da tecnocracia da Inteligência Artificial. A primeira considera que as políticas devem ser avaliadas com base nos valores morais fundamentais da sociedade em questão, e determinar esses valores é o primeiro objetivo da política. A segunda é que devem ser implementadas as melhores políticas de acordo com a avaliação discutida na primeira premissa. A última sustenta que Inteligência Artificial é melhor do que humanos para encontrar e implementar as melhores políticas em certas áreas relativas à ciência, engenharia e questões sociais e macroeconômicas complexas.
Tais premissas são consideradas como superficiais por Sætra, pois o argumento em favor de tal tecnocracia não estaria completo até que se lidasse com cinco objeções importantes sendo ela somente mais uma das conclusões possíveis. A primeira objeção é a de que as pessoas precisam de total participação política para ficarem satisfeitas. A segunda aponta que as pessoas não vão considerar um governo no qual não participe para ser legítimo. A seguinte fala que os computadores não devem tomar decisões que afetem a vida e o bem-estar das pessoas pois essas decisões são guiadas por princípios morais específicos para cada sociedade e em gradação de importância distintos. A quarta é a de que a Inteligência Artificial não é transparente já que ela, no momento, não explica como tomou determinada decisão, portanto, não totalmente passível de controle humano. Por fim, a última defende que a responsabilidade em relação às consequências das decisões políticas deve ser clara e se torna menos clara quando a Inteligência Artificial as toma.
Conclusões principais do texto: A conclusão a que o autor chega é a de que uma tecnocracia de Inteligência Artificial não é prejudicada pelas objeções listadas se atender determinadas pré-condições. Uma é a de que deve existir alguma forma de garantir que os humanos retenham o poder de definir o objetivo fundamental da política (por exemplo os valores fundamentais e os ideais de uma boa sociedade). Desse modo tanto a participação quanto a legitimidade podem ser preservadas. Outra condição é a de que haja mecanismos de backup e controle no local, caso os sistemas de Inteligência Artificial falhem ou se deseje reduzir o uso dela.
REFERÊNCIA
Sætra, Henrik Skaug. A shallow defence of a technocracy of artificial intelligence: Examining the political harms of algorithmic governance in the domain of government. Technology in Society, v. 62, 2020.
*Mestranda do Programa de Pós-Graduação em Ciência Política pela Universidade Federal do Paraná.
As opiniões expressas pela(o)s autora(e)s pertencem a ela(e)s e não refletem necessariamente a opinião do Grupo de Pesquisa e nem de seus integrantes.