<?xml version="1.0" encoding="utf-8"?>
<!DOCTYPE article PUBLIC "-//NLM//DTD JATS (Z39.96) Journal Publishing DTD v1.1 20151215//EN" "http://jats.nlm.nih.gov/publishing/1.1/JATS-journalpublishing1.dtd">
<article xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:mml="http://www.w3.org/1998/Math/MathML" dtd-version="1.1" specific-use="sps-1.9" article-type="research-article" xml:lang="pt">
    <front>
        <journal-meta>
            <journal-id journal-id-type="publisher-id">DHDS</journal-id>
            <journal-title-group>
                <journal-title>Revista de Direitos Humanos e Desenvolvimento Social</journal-title>
                <abbrev-journal-title abbrev-type="publisher">Revista de Direitos Humanos e Desenvolvimento Social</abbrev-journal-title>
            </journal-title-group>
            <issn pub-type="epub">2675-9160</issn>
            <publisher>
                <publisher-name>Pontifícia Universidade Católica de Campinas</publisher-name>
            </publisher>
        </journal-meta>
        <article-meta>
            <article-id pub-id-type="doi">10.24220/2675-9160v6a2025e16093</article-id>
            <article-categories>
                <subj-group subj-group-type="heading">
                    <subject>ORIGINAL</subject>
                </subj-group>
            </article-categories>
            <title-group>
                <article-title>O dever de <italic>accountability</italic> algorítmica sob a Convenção Americana sobre Direitos Humanos</article-title>
                <trans-title-group xml:lang="en">
                    <trans-title>Algorithmic accountability duty under the American Convention on Human Rights</trans-title>
                </trans-title-group>
            </title-group>
            <contrib-group>
                <contrib contrib-type="author">
                    <contrib-id contrib-id-type="orcid">0009-0001-8631-7759</contrib-id>
                    <name>
                        <surname>Szkudlarek</surname>
                        <given-names>Ana Letícia</given-names>
                    </name>
                    <xref ref-type="aff" rid="aff01">1</xref>
                    <xref ref-type="aff" rid="aff02">2</xref>
                    <xref ref-type="corresp" rid="c01"/>
                </contrib>
                <contrib contrib-type="author">
                    <contrib-id contrib-id-type="orcid">0000-0002-6250-1295</contrib-id>
                    <name>
                        <surname>Fachin</surname>
                        <given-names>Melina Girardi</given-names>
                    </name>
                    <xref ref-type="aff" rid="aff01">1</xref>
                    <xref ref-type="aff" rid="aff03">3</xref>
                    <xref ref-type="aff" rid="aff04">4</xref>
                </contrib>
            </contrib-group>
            <aff id="aff01">
                <label>1</label>
                <institution content-type="orgname">Universidade Federal do Paraná</institution>
                <institution content-type="orgdiv1">Núcleo de Estudos em Sistemas de Direitos Humanos</institution>
                <addr-line>
                    <city>Curitiba</city>
                    <state>PR</state>
                </addr-line>
                <country country="BR">Brasil</country>
                <institution content-type="original">Universidade Federal do Paraná, Núcleo de Estudos em Sistemas de Direitos Humanos. Curitiba, PR, Brasil.</institution>
            </aff>
            <aff id="aff02">
                <label>2</label>
                <institution content-type="orgname">Tribunal de Justiça do Estado do Paraná</institution>
                <addr-line>
                    <city>Curitiba</city>
                    <state>PR</state>
                </addr-line>
                <country country="BR">Brasil</country>
                <institution content-type="original">Tribunal de Justiça do Estado do Paraná. Curitiba, PR, Brasil.</institution>
            </aff>
            <aff id="aff03">
                <label>3</label>
                <institution content-type="orgname">Universidade Federal do Paraná</institution>
                <institution content-type="orgdiv1">Faculdade de Direito</institution>
                <addr-line>
                    <city>Curitiba</city>
                    <state>PR</state>
                </addr-line>
                <country country="BR">Brasil</country>
                <institution content-type="original">Universidade Federal do Paraná, Faculdade de Direito. Curitiba, PR, Brasil.</institution>
            </aff>
            <aff id="aff04">
                <label>4</label>
                <institution content-type="orgname">Universidade Federal do Paraná</institution>
                <institution content-type="orgdiv1">Pró-Reitoria de Pós-Graduação</institution>
                <institution content-type="orgdiv2">Curso de Pós-Graduação Stricto Sensu em Direito</institution>
                <addr-line>
                    <city>Curitiba</city>
                    <state>PR</state>
                </addr-line>
                <country country="BR">Brasil</country>
                <institution content-type="original">Universidade Federal do Paraná, Pró-Reitoria de Pós-Graduação, Curso de Pós-Graduação Stricto Sensu em Direito. Curitiba, PR, Brasil.</institution>
            </aff>
            <author-notes>
                <corresp id="c01">Correspondência para: A. L. Szkudlarek. E-mail: <email>analeszk@gmail.com</email>. </corresp>
                <fn fn-type="edited-by">
                    <label>Editores</label>
                    <p>Cláudio José Franzolin, Pedro Pulzatto Peruzzo</p>
                </fn>
                <fn fn-type="conflict">
                    <label>Conflito de interesses</label>
                    <p>Os autores declaram não haver conflito de interesses.</p>
                </fn>
            </author-notes>
            <pub-date publication-format="electronic" date-type="pub">
                <day>0</day>
                <month>0</month>
                <year>2026</year>
            </pub-date>
            <pub-date publication-format="electronic" date-type="collection">
                <year>2025</year>
            </pub-date>
            <volume>6</volume>
            <elocation-id>e2516093</elocation-id>
            <history>
                <date date-type="received">
                    <day>04</day>
                    <month>06</month>
                    <year>2025</year>
                </date>
                <date date-type="accepted">
                    <day>16</day>
                    <month>10</month>
                    <year>2025</year>
                </date>
            </history>
            <permissions>
                <license license-type="open-access" xlink:href="http://creativecommons.org/licenses/by/4.0/" xml:lang="pt">
                    <license-p>Este é um artigo publicado em acesso aberto (<italic>Open Access</italic>) sob a licença <italic>Creative Commons Attribution</italic>, que permite uso, distribuição e reprodução em qualquer meio, sem restrições desde que o trabalho original seja corretamente citado.</license-p>
                </license>
            </permissions>
            <abstract>
                <title>Resumo</title>
                <p>O presente artigo busca demonstrar que a Convenção Americana sobre Direitos Humanos impõe ao Brasil o dever de regular, respeitar e supervisionar a <italic>accountability</italic> algorítmica. Para isso, com base na metodologia hipotético-dedutiva, o trabalho explica os aspectos fundamentais dos algoritmos, expõe os seus riscos à democracia e aos direitos humanos e destaca a natureza política desse campo, evidenciando a urgente necessidade de normatização da <italic>accountability</italic> algorítmica no âmbito interno. A partir da perspectiva multinível dos direitos humanos, confirma-se a hipótese de que a Convenção Americana sobre Direitos Humanos exige do Estado brasileiro a regulação, o respeito e a supervisão da <italic>accountability</italic> algorítmica, sob pena de responsabilização internacional, inclusive por omissão.</p>
            </abstract>
            <trans-abstract xml:lang="en">
                <title>Abstract</title>
                <p>This article seeks to demonstrate that the American Convention on Human Rights imposes on Brazil the duty to regulate, respect and supervise algorithmic accountability. To this end, based on the hypothetical-deductive methodology, it explains the fundamental aspects of algorithms, exposes their risks to democracy and human rights and highlights the political nature of this field, underscoring the urgent need for domestic regulation of algorithmic accountability. From a multilevel human rights perspective, the hypothesis is confirmed that the American Convention on Human Rights requires the Brazilian State to regulate, respect and supervise algorithmic accountability, under penalty of international liability, including for omission.</p>
            </trans-abstract>
            <kwd-group xml:lang="pt">
                <title>Palavras-chave</title>
                <kwd><italic>Accountability</italic> algorítmica</kwd>
                <kwd>Convenção Americana sobre Direitos Humanos</kwd>
                <kwd>Direitos humanos</kwd>
            </kwd-group>
            <kwd-group xml:lang="en">
                <title>Keywords</title>
                <kwd>Algorithmic accountability</kwd>
                <kwd>American Convention on Human Rights</kwd>
                <kwd>Human rights</kwd>
            </kwd-group>
        </article-meta>
    </front>
    <body>
        <sec sec-type="intro">
            <title>Introdução</title>
            <p>Sentada na calçada da Avenida Nossa Senhora de Copacabana, uma mulher, sem documentos, é surpreendida pela Polícia Militar do Rio de Janeiro e detida. Após familiares levarem sua identidade à 12ª Delegacia Policial, o porta-voz da Secretaria Estadual de Polícia Militar, coronel Mauro Fliess, assume o erro: o sistema de reconhecimento facial, recentemente instalado em câmeras pela cidade, equivocadamente a identificou como uma pessoa supostamente foragida, condenada por homicídio. Entretanto, mais uma falha: a mulher procurada, e pretensamente identificada pelas câmeras de vigilância, está presa desde 2015. Indagado, Fliess destacou que o projeto de reconhecimento facial ainda está em fase de testes. O sistema funciona com base em uma tecnologia algorítmica, que compara características faciais com imagens armazenadas em um banco de dados (<xref ref-type="bibr" rid="B35">Ribeiro, 2023</xref>).</p>
            <p>Apesar de ser esse o desejo de muitos, não há um momento ao qual retornar: a tomada de decisão algorítmica e a Inteligência Artificial (IA) são uma realidade. A falsa percepção de que esse campo é completamente técnico – quando é fundamentalmente político (<xref ref-type="bibr" rid="B18">Instituto de Tecnologia &amp; Sociedade do Rio, 2024</xref>) – tem distanciado as pessoas, especialmente aquelas alheias à área da tecnologia, de tentar compreendê-lo.</p>
            <p>Eventual distanciamento social do debate, no entanto, não reflete a intrínseca relação entre os algoritmos e as diferentes dimensões da existência cotidiana humana (<xref ref-type="bibr" rid="B32">Parra; Abdo, 2016</xref>): na socialização, com as redes sociais; no transporte e geolocalização, com os mapas via satélite; na segurança, com o reconhecimento facial e biométrico; na culinária, com as entregas por aplicativo; nos serviços bancários, com as transferências virtuais e análises de crédito; na gestão de casas, drones e automóveis inteligentes. Alimentados pelos rastros digitais das ações humanas (<xref ref-type="bibr" rid="B02">Bezerra; Costa, 2022</xref>), os algoritmos são utilizados para aprovar ou negar vistos a imigrantes, na contagem de votos em eleições, nos processos de recrutamento de Recursos Humanos (RH) (<xref ref-type="bibr" rid="B19">Köchling; Wehner, 2020</xref>), para decidir quais contribuintes passarão por auditoria em seus impostos de renda e mesmo nos sistemas de justiça (<xref ref-type="bibr" rid="B20">Kroll <italic>et a</italic>l., 2016</xref>).</p>
            <p>As transformações advindas do mundo digital, com o desenvolvimento de sistemas algorítmicos cada vez mais complexos, criam possibilidades, mas também “novas formas de sujeição social e servidão maquínica” (<xref ref-type="bibr" rid="B32">Parra; Abdo, 2016, p. 138</xref>). As grandes empresas de tecnologia digital (<italic>as Big Techs</italic>), majoritariamente provenientes do norte-global (<xref ref-type="bibr" rid="B38">Silva, 2020</xref>), guiam e moldam comportamentos, impactando profundamente a cultura pública ao redor do mundo.</p>
            <p>Nessa conjuntura, cabe analisar e estabelecer limites ao uso dos algoritmos, considerando a premissa de um constitucionalismo multinível. Defende-se “a importância da interface e dos diálogos dos diferentes planos protetivos para a realização dos direitos humanos – o que demanda a relação entre os constitucionalismos e destes com o direito internacional dos direitos humanos” (<xref ref-type="bibr" rid="B12">Fachin, 2021, p. 54</xref>).</p>
            <p>Nesse contexto, o presente trabalho busca refletir, pela ótica do constitucionalismo multinível – especificamente do Sistema Interamericano de Direitos Humanos (SIDH) –, qual é o papel dos Estados em relação à tomada de decisão algorítmica.</p>
            <p>A partir da metodologia hipotético-dedutiva, objetiva-se introduzir, primeiramente, uma compreensão elementar dos algoritmos. Em seguida, pretende-se escancarar as potenciais ameaças dos sistemas de decisões automatizadas às democracias e aos direitos humanos. Em sequência, evidencia-se a urgência de se estabelecer, com suficiente densidade, a <italic>accountability</italic> algorítmica no âmbito do ordenamento jurídico interno. Ao final, a partir da perspectiva multinível dos direitos humanos, o trabalho busca responder se é possível extrair, da Convenção Americana sobre Direitos Humanos (CADH), o dever dos Estados Partes de adotar disposições internas sobre <italic>accountability</italic> algorítmica (em observância ao artigo 2º da CADH), bem como de respeitá-la (artigo 1º da CADH) e supervisioná-la. Todavia, a viabilidade de um debate sobre o assunto pressupõe compreender o que são os algoritmos.</p>
        </sec>
        <sec>
            <title>Aspectos elementares dos algoritmos</title>
            <p>O algoritmo é, em suma, uma sequência de instruções – raciocínios ou operações (<xref ref-type="bibr" rid="B03">Branco; Teffé, 2022</xref>) – que diz a um sistema de computação o que fazer e como executar determinada tarefa (<xref ref-type="bibr" rid="B14">Ferrari, 2018</xref>) – ou seja, que visa alcançar um objetivo (<xref ref-type="bibr" rid="B03">Branco; Teffé, 2022</xref>). Podem ser definidos, ainda, como processos ou conjuntos de regras a serem seguidos em cálculos ou outras operações de resolução de problemas, especialmente por um computador (<xref ref-type="bibr" rid="B19">Köchling; Wehner, 2020</xref>). Em acepção complementar, são descritos como “instrumentos usados para converter dados em evidências quanto a um determinado resultado/cenário, que, subsequentemente, é usado para desencadear e motivar uma ação que pode ter consequências que ensejem uma determinada apreciação ética” (<xref ref-type="bibr" rid="B41">Wimmer; Doneda, 2021, p. 337</xref>).</p>
            <p>São os algoritmos a base para diversas ferramentas de decisão de inteligência artificial. Destaque-se que a IA abrange modelos, métodos e prescrições usadas para simular a inteligência humana, muitas vezes quando se trata de coletar, processar e agir com base em dados (<xref ref-type="bibr" rid="B19">Köchling; Wehner, 2020</xref>).</p>
            <p>Quanto às espécies ou classificações algorítmicas, tem-se os algoritmos programados – ou seja, aqueles que seguem operações definidas pelo programador – e os não programados, isto é, aqueles que possuem capacidade de aprendizagem e criam outros algoritmos. De modo bastante simples, neste último caso, o computador escreve a própria programação (<xref ref-type="bibr" rid="B14">Ferrari, 2018</xref>). Os algoritmos não programados são também chamados de técnicas de aprendizagem de máquina ou <italic>machine learning</italic> (<xref ref-type="bibr" rid="B14">Ferrari, 2018</xref>).</p>
            <p>Entre os algoritmos não programados, encontram-se os supervisionados, os não supervisionados e os de reforço (<xref ref-type="bibr" rid="B14">Ferrari, 2018</xref>). No primeiro caso, o sistema é alimentado com dados lapidados e previamente escolhidos por seres humanos. Carregam-se, no computador, os dados já rotulados e as saídas desejadas. O modelo, então, ajusta as variáveis para mapear as entradas (<italic>inputs</italic>) e saídas (<italic>outputs</italic>). Os <italic>learners</italic> supervisionados visam fazer previsões a partir da aprendizagem de padrões, apreendida por meio dos dados rotulados fornecidos por humanos (<xref ref-type="bibr" rid="B19">Köchling; Wehner, 2020</xref>).</p>
            <p>Quando se trata, porém, de algoritmos não supervisionados – e é aqui que residem as maiores problemáticas de uma explicabilidade efetiva da tomada de decisão algorítmica –, os dados que alimentam o sistema não são rotulados, ou seja, não há uma classe de dados pré-definida. Para a análise ou o agrupamento de temas de dados, os algoritmos de <italic>machine learning</italic> não supervisionados capturam os comportamentos estruturais de variáveis nos dados de entrada (<xref ref-type="bibr" rid="B19">Köchling; Wehner, 2020</xref>). São muito úteis, portanto, à descoberta de padrões, estando presentes no reconhecimento e identificação facial e de voz, na criação de carros e drones autônomos, bem como no diagnóstico de doenças.</p>
            <p>Por fim, os algoritmos de reforço não se baseiam em dados fixos de entrada e saída. Em vez disso, aprendem o comportamento por meio de interações de tentativa e erro com um ambiente dinâmico (<xref ref-type="bibr" rid="B19">Köchling; Wehner, 2020</xref>) e enfocam na performance – são bastante utilizados em jogos e redes sociais (<xref ref-type="bibr" rid="B14">Ferrari, 2018</xref>).</p>
            <p>As tarefas desempenhadas pelos algoritmos não programados – mesmo no caso dos supervisionados – são difíceis de prever, em especial quando se está diante dos algoritmos não supervisionados e de reforço. Segundo <xref ref-type="bibr" rid="B14">Ferrari (2018)</xref>, em menção a <xref ref-type="bibr" rid="B04">Burrell (2016)</xref>, a autonomia dessas espécies algorítmicas, a alta dimensionalidade de dados, a complexidade dos códigos e das combinações probabilísticas de suas predições, a variabilidade da lógica de tomada de decisões, a velocidade de processamento das informações e a multiplicidade de variáveis operacionais – visto que o algoritmo não programado modifica, autonomamente, a sua própria estrutura – trazem, em conjunto, uma inerente opacidade sobre a forma como operam, tornando difícil compreender os seus processos internos. Os próprios desenvolvedores, muitas vezes, não entendem adequadamente como alguns algoritmos funcionam (<xref ref-type="bibr" rid="B03">Branco; Teffé, 2022</xref>).</p>
            <p>Em outros termos, a mera abertura do sistema algorítmico – conforme proposto pela organização <italic>OpenAI </italic> – não é medida capaz de enfrentar a centralidade da produção tecnológica e os efeitos deletérios da integração dos algoritmos nos domínios mais sensíveis da vida pública e privada (<xref ref-type="bibr" rid="B32">Parra; Abdo, 2016</xref>). Por isso, Ferrari acredita que as alternativas mais promissoras, ao enfrentamento dos efeitos negativos dos algoritmos, devem focar em explicabilidade, não em acessibilidade ao código-fonte (<xref ref-type="bibr" rid="B14">Ferrari, 2018</xref>) – a qual envolve a polêmica de se permitir (ou não) a abertura da “caixa-preta” (em inglês, “<italic>black box</italic>”) dos algoritmos. De qualquer maneira, não há caminho isento de intensos debates.</p>
            <p>Embora a discussão sobre como conferir explicabilidade aos algoritmos ainda permaneça uma incógnita, já há algumas alternativas interessantes, no sentido de se garantir um mínimo controle, transparência e supervisão da tomada de decisão automatizada.</p>
            <p>Antes disso, contudo, devem ficar nítidos os perigos que os algoritmos representam para a sociedade e para a democracia, especialmente à brasileira – a justificar o dever de <italic>accountability</italic> que se propõe.</p>
        </sec>
        <sec>
            <title>Ameaças algorítmicas</title>
            <p>Já é globalmente reconhecido, inclusive por autoridades políticas (<xref ref-type="bibr" rid="B22">Lopes; Paola, 2024</xref>) e pelos próprios laboratórios de IA (<xref ref-type="bibr" rid="B28">Ordonez; Dunn; Noll, 2023</xref>), que há profundos riscos da tomada de decisão algorítmica para a sociedade. Assim como as tecnologias antecedentes ao digital “já possuíam caráter político e racializado” (<xref ref-type="bibr" rid="B02">Bezerra; Costa, 2022, p. 5</xref>), as avaliações ou previsões algorítmicas acabam por discriminar, sistemática e injustamente, certos indivíduos ou grupos já vulnerabilizados e marginalizados (<xref ref-type="bibr" rid="B19">Köchling; Wehner, 2020</xref>).</p>
            <p>Cathy O’Neil, cientista de dados, nomeia os modelos algorítmicos nocivos – ou seja, aqueles que reforçam padrões discriminatórios e a desigualdade social –, geralmente opacos e invisíveis, de “Armas de Destruição Matemática” (ADMS). Vendidas como neutras, imparciais e objetivas, as ADMS se autoperpetuam, em larga escala, e são altamente destrutivas (<xref ref-type="bibr" rid="B27">O’Neil, 2020</xref>).</p>
            <p>Devido à incorporação consciente ou inconsciente de vieses humanos (<xref ref-type="bibr" rid="B15">Ferrari, 2023</xref>) – aqui compreendidos como “impressões equivocadas, tendências errôneas e preconceitos” (<xref ref-type="bibr" rid="B15">Ferrari, 2023, p. 117</xref>), proporcionadas por premissas duvidosas e simplificações da realidade, de conotação necessariamente negativa –, os dados que alimentam os algoritmos refletem os preconceitos socioculturais e estruturais existentes e, consequentemente, podem perpetuá-los em suas decisões. A questão se agrava quando se percebe que os algoritmos podem conferir um caráter de “cientificidade” a decisões enviesadas, normalizando os vieses propagados (<xref ref-type="bibr" rid="B15">Ferrari, 2023</xref>). Tal situação é especialmente preocupante em uma sociedade profundamente discriminatória e desigual, como é a brasileira.</p>
            <p>O racismo, elemento estrutural da sociedade, também está presente nos dados e, portanto, na tomada de decisão algorítmica, pois “o mundo algoritmizado não existe fora da realidade” (<xref ref-type="bibr" rid="B02">Bezerra; Costa, 2022, p. 4</xref>). A diferença é que a desigualdade <italic>dataficada</italic> “esconde a figura do sujeito racista a ser denunciada” (<xref ref-type="bibr" rid="B02">Bezerra; Costa, 2022, p. 4</xref>), potencializando as discriminações e dificultando o enfrentamento das assimetrias estruturais existentes.</p>
            <p>Com efeito, a análise de mais de 2.512 fotografias e ilustrações, realizada por <xref ref-type="bibr" rid="B05">Carrera e Carvalho (2020)</xref>, confirmou que as fórmulas algorítmicas reproduzem e fortalecem uma estrutura social racista e machista. Corroborando as ideias de <xref ref-type="bibr" rid="B26">Noble (2018)</xref>, as pesquisadoras concluíram que mulheres negras são mais representadas sozinhas com seus filhos do que mulheres brancas, e que a busca da palavra-chave “<italic>family</italic>”, em bancos pagos de imagens digitais, resulta em maioria expressiva de famílias brancas. Ao reforçarem a “hiper-ritualização imagética do preterimento afetivo aos negros, sobretudo à mulher negra” (<xref ref-type="bibr" rid="B05">Carrera; Carvalho, 2020, p. 111</xref>) e perceberem como “universais” alguns corpos e sujeitos (brancos), os algoritmos se despem de sua carcaça de neutralidade e revelam seus vieses discriminatórios.</p>
            <p>Na análise de sistemas de reconhecimento de imagens, usados em carros autônomos, outra pesquisa chegou à assustadora conclusão de que “a acurácia na identificação de pessoas com pele escura poderia ser 5% menor, resultando em potenciais atropelamentos” (<xref ref-type="bibr" rid="B38">Silva, 2020, p. 439</xref>). Não há falsos alarmismos, portanto, em afirmar que algoritmos colocam o direito à vida de corpos não-brancos em potencial risco; no entanto, o patrimônio trilionário das <italic>Big Techs</italic>, superior ao Produto Interno Bruto (PIB) de diversos países (<xref ref-type="bibr" rid="B37">Sfredo; Lopes, 2020</xref>), cala, com êxito, as tentativas de fiscalização e responsabilização.</p>
            <p>Diante da problemática, surge a seguinte questão: como enfrentar os efeitos perversos dos sistemas de decisão automatizada? Para combatê-los, é preciso, primeiramente, entender que a discriminação algorítmica pode advir tanto dos dados empregados para treinar os algoritmos quanto das escolhas associadas à programação desses algoritmos (<xref ref-type="bibr" rid="B15">Ferrari, 2023</xref>).</p>
            <p>A respeito, <xref ref-type="bibr" rid="B15">Ferrari (2023)</xref> explica que pode haver (i) uma seleção equivocada de dados – de forma errônea ou incompleta –, (ii) a absorção, pela máquina, de vieses implícitos da sociedade, presentes nos dados produzidos de maneira difusa e (iii) a absorção de padrões discriminatórios das próprias pessoas decisoras envolvidas com o sistema. Outro problema que pode surgir se dá quando o algoritmo não é capaz de incorporar, na concepção do sistema, novos conhecimentos ou percepções da sociedade, ocasionando a reprodução de preconceitos emergentes (<xref ref-type="bibr" rid="B19">Köchling; Wehner, 2020</xref>).</p>
            <p>Além disso, não apenas a sub-representação nos dados, mas também a super-representação pode ser prejudicial e gerar ameaças a grupos em maior vulnerabilidade (<xref ref-type="bibr" rid="B15">Ferrari, 2023</xref>). Nesse ponto, <xref ref-type="bibr" rid="B15">Ferrari (2023)</xref> dá um exemplo interessante: se um conjunto de dados indicar a um algoritmo, desenvolvido para um sistema de justiça, que um determinado grupo de pessoas costuma receber condenações mais severas, é possível que o sistema automatizado passe a reproduzir o padrão encontrado, perpetuando desigualdades existentes.</p>
            <p>Por isso, a qualidade dos dados de entrada é fundamental para auxiliar no enfrentamento da discriminação algorítmica (<xref ref-type="bibr" rid="B19">Köchling; Wehner, 2020</xref>). Por exemplo, em um processo de recrutamento para uma empresa, se um algoritmo for treinado com dados de históricos de emprego – mesmo sem receber informações sobre gênero ou etnia –, o sistema pode identificar padrões que indicam que determinados grupos têm menos probabilidade de serem selecionados e, consequentemente, replicar essa desigualdade ao fazer novas seleções. Essa escolha algorítmica pode levar populações vulnerabilizadas a desvantagens sistemáticas, mesmo que não seja a intenção da ou do <italic>designer</italic> de dados (<xref ref-type="bibr" rid="B19">Köchling; Wehner, 2020</xref>).</p>
            <p>Nota-se, portanto, que uma escolha pouco criteriosa dos bancos de dados pode levar à reprodução e ao fortalecimento das injustiças sociais (<xref ref-type="bibr" rid="B03">Branco; Teffé, 2022</xref>).</p>
            <p>Mas quem está selecionando e treinando esses dados?</p>
            <p>De acordo com pesquisadores, os algoritmos são criados, em sua maioria, por programadores brancos do sexo masculino (<xref ref-type="bibr" rid="B18">Instituto de Tecnologia &amp; Sociedade do Rio, 2024</xref>; <xref ref-type="bibr" rid="B27">O’Neil, 2020</xref>; <xref ref-type="bibr" rid="B02">Bezerra; Costa, 2022</xref>). A ausência de pluralidade no setor tecnológico, inequivocamente, reflete-se na cisgeneridade heteronormativa e branca das decisões automatizadas<xref ref-type="fn" rid="fn05">5</xref>. Exemplo evidente disso envolveu a empresa <italic>Amazon</italic>, que constatou desvantagem extrema às mulheres, em seu algoritmo de contratação<xref ref-type="fn" rid="fn06">6</xref> (<xref ref-type="bibr" rid="B10">Dastin, 2018</xref>; <xref ref-type="bibr" rid="B19">Köchling; Wehner, 2020</xref>).</p>
            <p>Além da desigualdade de gênero e do racismo, outras opressões são fomentadas pelos sistemas automatizados. A discriminação etária – ou <italic>etarismo</italic> –, por exemplo, está presente em muitas das tomadas de decisões algorítmicas: no <italic>Facebook</italic>, empresas utilizam anúncios direcionados para atrair candidatos a vagas de emprego e, intencionalmente, determinam as características pessoais desejadas, de modo a excluir pessoas mais velhas de sua visualização (<xref ref-type="bibr" rid="B19">Köchling; Wehner, 2020</xref>). Já outra pesquisa comprovou a utilização de algoritmos de contratação que consideram a distância entre o local de trabalho e a casa da pessoa como forte preditor de permanência no emprego, o que é nitidamente discriminatório, tendo em vista os processos de gentrificação e distanciamento das populações marginalizadas para as periferias (<xref ref-type="bibr" rid="B19">Köchling; Wehner, 2020</xref>).</p>
            <p>Restam evidentes, portanto, os perigos da tomada de decisão algorítmica, sem as devidas limitações, aos direitos humanos e à democracia.</p>
            <p>Apesar da escassa transparência e explicabilidade dos modelos algorítmicos, sobretudo quanto aos algoritmos de <italic>machine learning</italic>, há alternativas viáveis e que podem mitigar, significativamente, os efeitos deletérios da tomada de decisão automatizada.</p>
            <p>No ponto subsequente, será explicado o que é a <italic>accountability</italic> algorítmica, quais são as principais técnicas que podem ser empregadas e o porquê de ser inadiável a sua regulamentação e supervisão.</p>
        </sec>
        <sec>
            <title><italic>Accountability</italic> algorítmica</title>
            <p>Apesar das críticas ao emprego do termo <italic>accountability</italic> – devido à alegada imprecisão terminológica (<xref ref-type="bibr" rid="B24">Mota <italic>et al.</italic>, 2021</xref>) –, a ausência de uma expressão, em língua portuguesa, que consiga refletir a abrangência do conceito, levou à adoção do termo, em inglês, neste texto. Destaca-se, ainda, que a opção pelo uso da expressão estrangeira “tem sido uma convenção terminológica não só na literatura das ciências sociais bra¬sileiras, mas também em outras línguas não anglofônicas” (<xref ref-type="bibr" rid="B33">Rached, 2021, p. 190</xref>).</p>
            <p>Fala-se, aqui, em <italic>accountability</italic> como “prestação de contas” ou “responsabilização” – sem maiores aprofundamentos terminológicos, nesta oportunidade, quanto a eventuais distinções entre esses dois conceitos –, estando intimamente ligada à transparência e a mecanismos ou estruturas de supervisão (<xref ref-type="bibr" rid="B36">Saldanha, 2024</xref>) (<italic>oversight</italic>) (<xref ref-type="bibr" rid="B15">Ferrari, 2023</xref>). Explica Dawn Oliver que o referido termo se relaciona “à exigência de uma pessoa explicar e justificar – com base em critérios de algum tipo – suas decisões ou atos” e reparar, depois, “falhas ou erros” (<xref ref-type="bibr" rid="B34">Regulação Algorítmica, 2020</xref>).</p>
            <p>Quer-se pensar, a partir da perspectiva anunciada, o papel dos Estados em garantir que as partes envolvidas, na tomada de decisão algorítmica – como as empresas que contratam engenheiros de dados para desenhar modelos matemáticos próprios –, sejam responsáveis pelos seus impactos. Buscam-se, também, efetivos mecanismos de supervisão legal, que assegurem maior transparência e gerenciamento de riscos (<xref ref-type="bibr" rid="B25">Nem [...], 2023</xref>), uma vez que as empresas, em geral, não revelam suas práticas (<xref ref-type="bibr" rid="B19">Köchling; Wehner, 2020</xref>).</p>
            <p>O debate sobre <italic>accountability</italic> algorítmica tem ganhado relevante espaço na cena global: há uma tendência emergente para enfrentar e diminuir os riscos associados a falhas nos sistemas algorítmicos (<xref ref-type="bibr" rid="B41">Wimmer; Doneda, 2021</xref>). A apreensão geral com a tomada de decisão algorítmica levou o Chile, por exemplo, a propor uma consulta pública sobre transparência, para estabelecer medidas estruturais a serem seguidas por entidades públicas no assunto. A China, por sua vez, adotou inéditas regulações sobre o uso de tecnologias de recomendação feitas por algoritmos (<xref ref-type="bibr" rid="B21">Lemos, 2021</xref>). O governo britânico, de forma ainda mais inovadora, passou a exigir que as organizações do setor público forneçam informações precisas e justificadas sobre as ferramentas algorítmicas que utilizam (<xref ref-type="bibr" rid="B01">Algorithmic [...], 2023</xref>). Na Europa, surge um arcabouço normativo interessante sobre o assunto, como o “Ato da IA” (em inglês, <italic>AI Act</italic>), proposto pela União Europeia (<xref ref-type="bibr" rid="B11">European [...], [202-?]</xref>) e marcado, principalmente, pela análise de riscos. A <italic>accountability algorítmica</italic> também está na pauta de estudo da <italic>Organization for Economic C o-o peration and Development</italic> (OCDE) (<xref ref-type="bibr" rid="B31">Organization for Economic Co-operation and Development, 2023</xref>) e, especialmente quanto à equidade algorítmica, é tratada pela Recomendação da Organização das Nações Unidas para a Educação, Ciência e Cultura (UNESCO) sobre a Ética da Inteligência Artificial (<xref ref-type="bibr" rid="B15">Ferrari, 2023</xref>).</p>
            <p>No Brasil discute-se o Projeto de Lei (PL) nº 2.338 de 2023, que visa à regulamentação da inteligência artificial no país. Com base no texto substitutivo, apresentado em junho de 2024, busca-se: fixar direitos e garantias básicas dos indivíduos potencialmente afetados; definir os usos de IA inaceitáveis (devido aos riscos excessivos); criar obrigações gerais de boa governança; estabelecer medidas de prevenção e combate a discriminações diretas e indiretas, atentando-se à realidade brasileira; definir um arranjo regulatório de fiscalização com autoridade competente e independente; prever a participação social nos processos de governança e de classificação de risco, entre outros objetivos e determinações (<xref ref-type="bibr" rid="B06">Coalizão Direitos na Rede, 2024</xref>). Além do referido Projeto de Lei, é interessante mencionar que o Protocolo para Julgamento com Perspectiva de Gênero, elaborado pelo Conselho Nacional de Justiça (CNJ), também traz os perigos da discriminação algorítmica para as mulheres e outros grupos em maior vulnerabilidade social (<xref ref-type="bibr" rid="B07">Conselho Nacional de Justiça, 2021</xref>).</p>
            <p>Como colocado anteriormente, apesar da opacidade dos modelos algorítmicos, é possível – e necessário – o emprego de algumas ferramentas técnicas para assegurar um nível mínimo de <italic>accountability</italic>, ainda que certos aspectos sejam mantidos em sigilo. É o caso, por exemplo, das técnicas de verificação de <italic>software</italic><xref ref-type="fn" rid="fn07">7</xref>, acordos criptográficos<xref ref-type="fn" rid="fn08">8</xref>, <italic>zero-knowledge proofs</italic><xref ref-type="fn" rid="fn09">9</xref> e <italic>fair random choices</italic><xref ref-type="fn" rid="fn10">10</xref>.</p>
            <p>Além das mencionadas técnicas, discutir sobre <italic>accountability</italic> algorítmica envolve refletir, enquanto sociedade, sobre quais modelos matemáticos devem ser priorizados na tomada de determinadas decisões (<xref ref-type="bibr" rid="B14">Ferrari, 2018</xref>). No campo do sistema de justiça, por exemplo, é possível que um sistema decisional automatizado não aconselhe adequadamente em litígios (<xref ref-type="bibr" rid="B19">Köchling; Wehner, 2020</xref>). Nesse sentido, vale a menção ao questionamento de Isabela Ferrari: “seria legítima a escolha governamental pelo emprego de um algoritmo de <italic>machine learning</italic> do tipo <italic>black box</italic> para escolhas sensíveis” (<xref ref-type="bibr" rid="B14">Ferrari, 2018, f. 14</xref>) quando viáveis modelos menos opacos?</p>
            <p>Por isso, o controle e a supervisão das decisões algorítmicas devem ser casuisticamente analisados, para o fim de se avaliar: (i) a intensidade; (ii) as formas e (iii) o momento da intervenção humana nesse processo. Algoritmos previsíveis e compreensíveis, como os programados, demandam <italic>accountability</italic> muito mais simples em comparação aos “sistemas do tipo ‘caixa preta forte’” (<xref ref-type="bibr" rid="B41">Wimmer; Doneda, 2021, p. 397</xref>).</p>
            <p>No mesmo sentido de <xref ref-type="bibr" rid="B41">Wimmer e Doneda (2021)</xref>, é possível – e, inclusive, necessária – a modulação do grau da intervenção humana, quando se fala da <italic>accountability</italic> algorítmica, em diferentes níveis de intensidade, a depender, entre múltiplos fatores, da transparência, explicabilidade e impacto a direitos e garantias fundamentais de um determinado modelo matemático. Alguns algoritmos podem justificar intervenções humanas mais genéricas ou mesmo indiretas (<xref ref-type="bibr" rid="B41">Wimmer; Doneda, 2021</xref>).</p>
            <p>Além de o grau de intensidade da <italic>accountability</italic> poder ser distinto, as formas da participação humana, no processo de controle e supervisão algorítmica, também podem variar, conforme a opacidade e o volume de dados.</p>
            <p>Soma-se, à análise da intensidade e forma, a apreciação do momento em que a <italic>accountability</italic> será exercida, pois ela pode ocorrer antes ou depois da produção dos efeitos da decisão algorítmica em análise.</p>
            <p>Desse modo, a atribuição de tarefas a entes automatizados, em processos decisórios de relevantes impactos, suscita “uma demanda clara pela possibilidade de escrutínio dos diversos elementos deste processo decisório” (<xref ref-type="bibr" rid="B41">Wimmer; Doneda, 2021, p. 376</xref>). Surge, então, a reivindicação por uma “espécie de instância na qual estas possíveis ‘falhas’ possam ser verificadas e avaliadas” (<xref ref-type="bibr" rid="B41">Wimmer; Doneda, 2021, p. 376</xref>).</p>
            <p>Nesse sentido, quais são as alternativas para tentar suprir o “déficit de humanidade” (<xref ref-type="bibr" rid="B41">Wimmer; Doneda, 2021, p. 396</xref>) algorítmico?</p>
            <p>A implementação de “Avaliações de Impacto Algorítmico” (AIA) pode auxiliar na transparência e mitigação do enviesamento de dados e dos resultados por eles produzidos (<xref ref-type="bibr" rid="B36">Saldanha, 2024</xref>), pois permite descrever as características do sistema analisado, bem como identificar riscos e mecanismos para sua mitigação (<xref ref-type="bibr" rid="B23">Mattos Filho, 2023</xref>).</p>
            <p>No entanto, é possível ir além: os relatórios avaliativos podem evoluir para incluir, em alguns casos, “a previsão de consultas a comitês independentes de especialistas, para apoiar avaliações éticas mais complexas” (<xref ref-type="bibr" rid="B41">Wimmer; Doneda, 2021, p. 396</xref>).</p>
            <p>Além disso, impor às empresas o dever de publicar, periodicamente, relatórios de transparência, bem como de formular “códigos de conduta” internos, “com base em recomendações emitidas por um órgão regulador”, preferencialmente “composto por representantes de diferentes setores da sociedade” (<xref ref-type="bibr" rid="B18">Instituto de Tecnologia &amp; Sociedade do Rio, 2024, p. 17</xref>), são, em conjunto com outras práticas, relevantes alternativas de <italic>accountability</italic>.</p>
            <p>Acrescente-se, como mecanismo de <italic>accountability</italic>, que muitos ordenamentos jurídicos, inclusive o brasileiro (artigo 20 da Lei Geral de Proteção de Dados – LGPD), preveem a possibilidade de revisão humana às decisões automatizadas ou, então, “um direito à explicação” (<xref ref-type="bibr" rid="B41">Wimmer; Doneda, 2021, p. 376</xref>).</p>
            <p>No entanto, os parâmetros normativos existentes, na ordem jurídica nacional, permanecem excessivamente vagos e pouco esquematizados, carecendo de critérios precisos sobre quando se justifica a intervenção humana – ou, minimamente, a revisão, ainda que por meio dos próprios sistemas automatizados (artigo 19 do Decreto nº 9.936/2019) – nas e das tomadas de decisão algorítmicas.</p>
            <p>Outras relevantes formas de <italic>accountability</italic> estão no treinamento, desenvolvimento e implementação dos algoritmos com dados representativos e participação plural de pessoas, visando à equidade algorítmica (<xref ref-type="bibr" rid="B15">Ferrari, 2023</xref>)<xref ref-type="fn" rid="fn11">11</xref> (<italic>algorithmic fairness</italic>). A garantia da pluralidade, na engenharia de dados, é crucial à redução dos potenciais efeitos discriminatórios dos algoritmos.</p>
            <p>A implementação de <italic>sandboxes</italic> regulatórias é, também, uma alternativa promissora: trata-se “da estruturação de um ambiente regulatório experimental sob supervisão de uma autoridade pública” (<xref ref-type="bibr" rid="B18">Instituto de Tecnologia &amp; Sociedade do Rio, 2024, p. 15</xref>). As <italic>sandboxes</italic> permitem a testagem de novas abordagens regulatórias, com um grupo pré-selecionado de especialistas (<xref ref-type="bibr" rid="B18">Instituto de Tecnologia &amp; Sociedade do Rio, 2024, p. 15</xref>).</p>
            <p>Outra alternativa interessante de <italic>accountability</italic> é o <italic>design</italic> centrado no usuário: alguns especialistas sugerem que deve ser assegurado efetivo grau de participação do indivíduo na configuração da decisão automatizada, “por exemplo, permitindo que ele afaste ou calibre a relevância de determinados resultados ou critérios de decisão” (<xref ref-type="bibr" rid="B41">Wimmer; Doneda, 2021, p. 398</xref>).</p>
            <p>Especificamente no que diz respeito à responsabilização, é possível associá-la à redução de riscos, “em caso de negligência seguida da concretização dos riscos previamente identificados” (<xref ref-type="bibr" rid="B18">Instituto de Tecnologia &amp; Sociedade do Rio, 2024, p. 15</xref>). Todavia, “o risco identificado pode ser alto demais, a ponto de se justificar a proibição de um determinado sistema da IA” (<xref ref-type="bibr" rid="B18">Instituto de Tecnologia &amp; Sociedade do Rio, 2024, p. 15</xref>).</p>
            <p>A <italic>accountability</italic> algorítmica, contudo, não vem livre de imensos desafios, pois cada qual das ferramentas citadas possui suas próprias limitações e desvantagens. A exemplo, mencionam-se as críticas no sentido de que: uma revisão humana ou explicação a <italic>posteriori</italic> da decisão algorítmica pode demorar a vir (<xref ref-type="bibr" rid="B41">Wimmer; Doneda, 2021</xref>); os relatórios de transparência não garantem cognoscibilidade; algumas interferências são prejudiciais à inovação tecnológica; não é possível prever todos os riscos das decisões automatizadas; e, ainda, tais mecanismos podem dar a impressão de que não há aplicações positivas de modelos matemáticos e de IA (<xref ref-type="bibr" rid="B18">Instituto de Tecnologia &amp; Sociedade do Rio, 2024</xref>).</p>
            <p>Não se desconhecem, portanto, as inúmeras críticas à <italic>accountability</italic> algorítmica, em especial, o recorrente argumento de que pode “colocar em risco o segredo comercial que protege sistemas algorítmicos no mercado de novas tecnologias” (<xref ref-type="bibr" rid="B18">Instituto de Tecnologia &amp; Sociedade do Rio, 2024, p. 14</xref>). No entanto, as inúmeras violações de direitos humanos, ocasionadas por decisões automatizadas, justificam a construção urgente de um dever de <italic>accountability</italic> na matéria. O debate, aliado à educação emancipatória sobre a temática, deve incluir toda a sociedade (<xref ref-type="bibr" rid="B15">Ferrari, 2023</xref>).</p>
            <p>Portanto, longe de ser uma questão meramente tecnocêntrica ou matemática, a discussão sobre os algoritmos envolve a todas e a todos, demandando “todo um aparato de governança que permita identificar e combater os vieses”, “além de parâmetros para definir a supervisão necessária e adequada para cada caso específico” (<xref ref-type="bibr" rid="B15">Ferrari, 2023, p. 159</xref>).</p>
            <p>A construção de um dever de <italic>accountability</italic>, na realidade latino-americana, deve resistir à tentação de assumir modelos regulatórios como paradigmáticos e essencialmente superiores, sobretudo advindos do norte-global. É igualmente importante compreender que os mecanismos de supervisão e controle não são auto-excludentes e, portanto, podem ser adotados de forma complementar, para criar um panorama regulatório individualizado e mais adequado a uma realidade específica. Por isso, propostas pretensamente universalistas de IA e de modelos algorítmicos devem ser rechaçadas, e a pluralidade de cosmovisões, considerada (<xref ref-type="bibr" rid="B18">Instituto de Tecnologia &amp; Sociedade do Rio, 2024</xref>). Nesse aspecto, é importante mencionar que ganham força as abordagens decoloniais da IA – com incentivos a sistemas descentralizados (<xref ref-type="bibr" rid="B39">Soares, 2024</xref>), à interdisciplinaridade e à reestruturação da relação com a tecnologia digital (<xref ref-type="bibr" rid="B17">Hora, 2024</xref>).</p>
            <p>Deve-se perguntar, ainda, em quais setores é possível a aplicação de cada uma das espécies algorítmicas (programadas, não programadas, supervisionadas, não supervisionadas ou de reforço, entre outras), sobretudo em atenção à realidade brasileira.</p>
            <p>Diante da intensa concentração de poder nas mãos das <italic>Big Techs</italic>, quer-se pensar de que maneira os diálogos entre os diferentes planos protetivos dos direitos humanos (<xref ref-type="bibr" rid="B12">Fachin, 2021</xref>), especialmente no que diz respeito ao Sistema Interamericano de Direitos Humanos (SIDH), podem fortalecer os Estados no sentido de prevenir e combater violações de direitos humanos ocasionadas por tomadas de decisões algorítmicas.</p>
            <p>Por isso, indaga-se: é possível, a partir da Convenção Americana sobre Direitos Humanos (CADH), extrair um dever de regular e supervisionar a <italic>accountability</italic> algorítmica?</p>
        </sec>
        <sec>
            <title> O dever de regular <italic>accountability</italic> algorítmica, respeitá-la e supervisioná-la, sob a Convenção Americana sobre Direitos Humanos </title>
            <p>A Convenção Americana sobre Direitos Humanos (CADH), ratificada pelo Brasil em 1992, é o principal tratado internacional de direitos humanos do Sistema Interamericano de Direitos Humanos (SIDH) (<xref ref-type="bibr" rid="B30">Organização dos Estados Americanos, 1969</xref>). Composto por dois principais órgãos, a Comissão Interamericana de Direitos Humanos (Comissão IDH) e a Corte Interamericana de Direitos Humanos (Corte IDH), o SIDH é o mecanismo regional de proteção e promoção dos direitos humanos nas Américas.</p>
            <p>A CADH estabelece, em seu artigo 2º, que os Estados Partes da Convenção devem adotar disposições de direito interno para efetivar os direitos e as liberdades nela previstos, bem como verificar se tais disposições, caso existentes, estão de acordo com o <italic>corpus iuris</italic> interamericano (dever de caráter positivo). Caso averiguado que as normas estão em desacordo com os parâmetros do SIDH, cabe ao Estado o dever de derrogá-las ou revogá-las (dever de caráter negativo). Busca-se, a partir do mencionado dispositivo, garantir efetividade material à CADH (<xref ref-type="bibr" rid="B16">Garbin, 2024</xref>).</p>
            <p>A identificada ausência de regulação – de suficiente densidade – acerca dos sistemas algorítmicos, pormenorizada nos pontos anteriores, viola, pois, o artigo 2º da CADH. Os exemplos trazidos ao longo deste trabalho evidenciam que as lacunas normativas, quanto à <italic>accountability</italic> algorítmica, levam a violações de outros direitos humanos, também previstos na Convenção, como, em conjunto com o artigo 1º (obrigação de respeito), aos artigos 5º (direito à integridade pessoal), 11 (proteção da honra e da dignidade), 13 (liberdade de pensamento e de expressão), 26 (desenvolvimento progressivo), entre outros.</p>
            <p>Exemplo nítido de como a violação ao artigo 2º, conjuntamente com o artigo 1º, pode implicar afronta ao artigo 26 da CADH (desenvolvimento progressivo) foi a tentativa de implementação de robôs como estratégia de automatização na análise inicial de pedidos de benefícios ao Instituto Nacional do Seguro Social (INSS).</p>
            <p>O Tribunal de Contas da União (TCU), em recente auditoria, identificou que a resposta padrão dos algoritmos ampliou significativamente o percentual de negativas, sem as devidas explicações dos motivos. O TCU também constatou a ausência de padrões mínimos de transparência e indicou que a referida tecnologia, sem as adaptações necessárias, levou à excessiva demora na finalização dos processos da seguridade social (<xref ref-type="bibr" rid="B25">Nem [...], 2023</xref>).</p>
            <p>No caso em menção, fica patente a violação ao direito humano à seguridade social, direito autônomo protegido pelo artigo 26 da Convenção (<xref ref-type="bibr" rid="B08">Corte Interamericana de Direitos Humanos, 2021</xref>), decorrente da ausência de disposições internas – suficientes – sobre <italic>accountability</italic> algorítmica.</p>
            <p>Além disso, a Corte IDH já estabeleceu que os Estados também possuem a obrigação de supervisionar, tanto no ponto de vista da prevenção e fiscalização quanto no da sanção, atividades empresariais (<xref ref-type="bibr" rid="B40">Volz, 2024</xref>). Por isso, em conjunto com a necessária observância ao artigo 2º da CADH, os Estados devem estabelecer obrigações vinculantes às empresas e fiscalizar, adequadamente, as atividades desenvolvidas, sob pena de responsabilização estatal por omissão (<xref ref-type="bibr" rid="B09">Corte Interamericana de Direitos Humanos, 2006</xref>; <xref ref-type="bibr" rid="B40">Volz, 2024</xref>).</p>
            <p>A Comissão IDH já tem expressado, há alguns anos, sérias preocupações com os efeitos das decisões algorítmicas. No Relatório Empresas e Direitos Humanos (<xref ref-type="bibr" rid="B29">Organização dos Estados Americanos, 2019</xref>), destacou a necessidade de se adotar mecanismos de transparência, controle e equilíbrios adequados – em suma, de <italic>accountability</italic> algorítmica –, para evitar discriminações, manipulação informativa, violações à privacidade, aos dados pessoais, ao anonimato, entre outras afrontas aos direitos humanos.</p>
            <p>Ainda, recentemente, a Corte IDH reconheceu a <italic>autodeterminação informativa</italic> – ou seja, o direito que cada pessoa tem de controlar os próprios dados pessoais, “decidindo como e por quem esses dados podem ser coletados, usados e divulgados” (<xref ref-type="bibr" rid="B13">Fachin; Ramos, 2024, p. 21</xref>) – como um direito autônomo, no Caso Membros da Corporação Coletivo de Advogados “José Alvear Restrepo” Vs. Colômbia.</p>
            <p>Por fim, cabe aos próprios Estados, igualmente, a obrigação de respeitar as regulações sobre <italic>accountability</italic> algorítmica: nos sistemas de justiça – que, cada vez mais, têm utilizado IA –, nas entidades da Administração Pública direta e indireta, nos setores da saúde, transporte, segurança, gestação de serviços públicos, entre outros.</p>
            <p>Portanto, evidencia-se que o dever estatal de regular e supervisionar a <italic>accountability</italic> algorítmica pode ser extraído da CADH, impondo-se aos Estados Partes, incluindo-se o Brasil, o seu urgente cumprimento, sob pena de responsabilização no plano internacional e, mais que isso, de se permitir o acentuamento das discriminações e ainda maiores violações aos direitos humanos, especialmente de populações em maior vulnerabilidade social.</p>
        </sec>
        <sec sec-type="conclusions">
            <title>Conclusão</title>
            <p>O presente artigo, a partir da metodologia hipotético-dedutiva, explicou os aspectos básicos dos algoritmos, escancarou as potenciais ameaças dos sistemas de decisões automatizadas às democracias e aos direitos humanos e ressaltou a urgência de se estabelecer, com suficiente densidade, a <italic>accountabilit y</italic> algorítmica no âmbito do ordenamento jurídico interno.</p>
            <p>Evidenciou-se, neste trabalho, como a crescente implementação de decisões automatizadas impõe desafios éticos, jurídicos e políticos sem precedentes, uma vez que a opacidade desses sistemas, aliada à arquitetura virtual assimétrica, perpetua desigualdades, reforça o racismo, a violência de gênero e outras discriminações, influencia em decisões políticas, viola direitos humanos e ameaça a democracia constitucional. Criticou-se, também, a noção de neutralidade algorítmica, revelando que as decisões automatizadas são moldadas por dados enviesados, que refletem e amplificam estruturas de poder.</p>
            <p>Nesse contexto, a <italic>accountability</italic> algorítmica emerge como um imperativo regulatório, fundamental à garantia de transparência e supervisão das decisões automatizadas, que se desdobra em distintas dimensões, abrangendo a necessidade de regulamentação estatal, mecanismos de auditoria, avaliações de impacto algorítmico, divulgação periódica de relatórios de transparência, entre outros.</p>
            <p>Ao final, a partir da perspectiva multinível dos direitos humanos, confirmou-se a hipótese da pesquisa: é possível extrair, da Convenção Americana sobre Direitos Humanos (CADH), o dever do Estado brasileiro de adotar disposições internas sobre <italic>accountability</italic> algorítmica (em observância ao artigo 2º da CADH), bem como de respeitá-la (artigo 1º da CADH) e supervisioná-la. A inobservância desses deveres, inclusive a omissão em cumpri-los, impõe a responsabilização do Brasil no âmbito internacional, viola direitos humanos e a democracia constitucional multinível. O direito não deve se esquivar desse debate, fundamentalmente político.</p>
            <p>Diante da crescente automação dos processos decisórios em todos os âmbitos da vida, a <italic>accountability</italic> deve ser tratada como uma prioridade na agenda política e jurídica. Estados, organismos internacionais, empresas, comunidade científica e cidadãos precisam estar comprometidos com uma abordagem regulatória eficaz e interdisciplinar, com respeito às singularidades da <italic>internet</italic>. No contexto brasileiro, há de se ficar vigilante quanto ao PL nº 2.338 de 2023, que promete regular a inteligência artificial no país. Ao fazê-lo, o Brasil acena, ainda que lentamente, ao cumprimento de suas obrigações internacionais de direitos humanos em matéria algorítmica.</p>
        </sec>
    </body>
    <back>
        <fn-group>
            <fn fn-type="other">
                <label>Como citar este artigo:</label>
                <p>Szkudlarek, A. L.; Fachin, M. G. O dever de <italic>accountability</italic> algorítmica sob a Convenção Americana sobre Direitos Humanos. <italic>Revista de Direitos Humanos e Desenvolvimento Social</italic>, v. 6, e2516093, 2025. Doi: <ext-link ext-link-type="uri" xlink:href="https://doi.org/10.24220/2675-9160v6a2025e16093">https://doi.org/10.24220/2675-9160v6a2025e16093</ext-link></p>
            </fn>
            <fn fn-type="other" id="fn05">
                <label>5</label>
                <p>A Resolução 332/2020 do CNJ, em seus arts. 6º e 20, valoriza a composição diversa das equipes que atuam com dados, reconhecendo que isso contribui para a qualidade e integridade das informações (<xref ref-type="bibr" rid="B15">Ferrari, 2023</xref>).</p>
            </fn>
            <fn fn-type="other" id="fn06">
                <label>6</label>
                <p>Após a constatação, a empresa decidiu encerrar a tomada de decisão algorítmica para essa função.</p>
            </fn>
            <fn fn-type="other" id="fn07">
                <label>7</label>
                <p>“[...] garante que, ao operar, o sistema sempre apresentará certas propriedades” (<xref ref-type="bibr" rid="B14">Ferrari, 2018, f. 14</xref>).</p>
            </fn>
            <fn fn-type="other" id="fn08">
                <label>8</label>
                <p>“[...] asseguram que o programa não foi alterado nem revelado [...] passado certo tempo, dão certeza sobre os critérios utilizados”, podendo-se seguir análise sobre a legitimidade de sua operação pretérita [...]” (<xref ref-type="bibr" rid="B14">Ferrari, 2018, f. 14-15</xref>).</p>
            </fn>
            <fn fn-type="other" id="fn09">
                <label>9</label>
                <p>“[...] ferramentas criptográficas que permitem que de pronto se prove que a política decisória utilizada apresenta certa propriedade, sem revelar como se sabe disso ou que política decisória é” (<xref ref-type="bibr" rid="B14">Ferrari, 2018, f. 15</xref>).</p>
            </fn>
            <fn fn-type="other" id="fn10">
                <label>10</label>
                <p>Garantem que “quando o sistema possuir algum nível de aleatoriedade, esta será justa, e não poderá haver intromissão indevida de agentes internos na aleatoriedade do sistema” (<xref ref-type="bibr" rid="B14">Ferrari, 2018, f. 15</xref>).</p>
            </fn>
            <fn fn-type="other" id="fn11">
                <label>11</label>
                <p>Segundo <xref ref-type="bibr" rid="B15">Ferrari (2023, p. 129)</xref>, a preocupação é endereçada pela Resolução CNJ 332/2020, nos artigos 4°, 5 º, e 7º.</p>
            </fn>
        </fn-group>
        <ref-list>
            <title>Referências</title>
            <ref id="B01">
                <mixed-citation>Algorithmic Transparency Recording Standard Hub. <italic>GOV.UK</italic>, 5 jan. 2023. Available from: https://www.gov.uk/government/collections/algorithmic-transparency-recording-standard-hub. Cited: 2025 May 23.</mixed-citation>
                <element-citation publication-type="webpage">
                    <person-group person-group-type="author">
                        <collab>Algorithmic Transparency Recording Standard Hub</collab>
                    </person-group>
                    <source>GOV.UK</source>
                    <day>5</day>
                    <month>01</month>
                    <year>2023</year>
                    <comment>Available from: <ext-link ext-link-type="uri" xlink:href="https://www.gov.uk/government/collections/algorithmic-transparency-recording-standard-hub">https://www.gov.uk/government/collections/algorithmic-transparency-recording-standard-hub</ext-link></comment>
                    <date-in-citation content-type="access-date">2025 May 23</date-in-citation>
                </element-citation>
            </ref>
            <ref id="B02">
                <mixed-citation>Bezerra, A. C. B.; Costa, C. M. Pele negra, algoritmos brancos: informação e racismo nas redes sociotécnicas. <italic>Liinc em Revista</italic>, v. 18, n. 2, e6043, 2022. Doi: https://doi.org/10.18617/liinc.v18i2.6043.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>Bezerra</surname>
                            <given-names>A. C. B</given-names>
                        </name>
                        <name>
                            <surname>Costa</surname>
                            <given-names>C. M</given-names>
                        </name>
                    </person-group>
                    <article-title>Pele negra, algoritmos brancos: informação e racismo nas redes sociotécnicas</article-title>
                    <source>Liinc em Revista</source>
                    <volume>18</volume>
                    <issue>2</issue>
                    <elocation-id>e6043</elocation-id>
                    <year>2022</year>
                    <pub-id pub-id-type="doi">10.18617/liinc.v18i2.6043</pub-id>
                </element-citation>
            </ref>
            <ref id="B03">
                <mixed-citation>Branco, S.; Teffé, C. S. (coord.). <italic>Inteligência Artificial e Big Data</italic>: diálogos da pós-graduação em Direito Digital. Rio de Janeiro: Instituto de Tecnologia e Sociedade do Rio de Janeiro, 2022. 327 p. Disponível em: https://itsrio.org/wp-content/uploads/2022/10/Livro_P%C3%B3s_ITS-UERJ_COMPLETO_v3.pdf. Acesso em: 17 abr. 2024.</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="compiler">
                        <name>
                            <surname>Branco</surname>
                            <given-names>S.</given-names>
                        </name>
                        <name>
                            <surname>Teffé</surname>
                            <given-names>C. S.</given-names>
                        </name>
                    </person-group>
                    <source><italic>Inteligência Artificial e Big Data</italic>: diálogos da pós-graduação em Direito Digital</source>
                    <publisher-loc>Rio de Janeiro</publisher-loc>
                    <publisher-name>Instituto de Tecnologia e Sociedade do Rio de Janeiro</publisher-name>
                    <year>2022</year>
                    <size units="pages">327</size>
                    <comment>Disponível em: <ext-link ext-link-type="uri" xlink:href="https://itsrio.org/wp-content/uploads/2022/10/Livro_P%C3%B3s_ITS-UERJ_COMPLETO_v3.pdf">https://itsrio.org/wp-content/uploads/2022/10/Livro_P%C3%B3s_ITS-UERJ_COMPLETO_v3.pdf</ext-link></comment>
                    <date-in-citation content-type="access-date">17 abr. 2024</date-in-citation>
                </element-citation>
            </ref>
            <ref id="B04">
                <mixed-citation>Burrell, B. How the machine ‘thinks’: understanding opacity in machine learning algorithms. <italic>Big Data &amp; Society</italic>, v. 3, n. 1, p. 1-12, 2016.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>Burrell</surname>
                            <given-names>B.</given-names>
                        </name>
                    </person-group>
                    <article-title>How the machine ‘thinks’: understanding opacity in machine learning algorithms</article-title>
                    <source>Big Data &amp; Society</source>
                    <volume>3</volume>
                    <issue>1</issue>
                    <fpage>1</fpage>
                    <lpage>12</lpage>
                    <year>2016</year>
                </element-citation>
            </ref>
            <ref id="B05">
                <mixed-citation>Carrera, F.; Carvalho, D. Algoritmos racistas: a hiper-ritualização da solidão da mulher negra em bancos de imagens digitais. <italic>Galáxia</italic>, n. 43, p. 99-114, 2020. Doi: http://dx.doi.org/10.1590/1982-25532020141614.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>Carrera</surname>
                            <given-names>F</given-names>
                        </name>
                        <name>
                            <surname>Carvalho</surname>
                            <given-names>D</given-names>
                        </name>
                    </person-group>
                    <article-title>Algoritmos racistas: a hiper-ritualização da solidão da mulher negra em bancos de imagens digitais</article-title>
                    <source>Galáxia</source>
                    <issue>43</issue>
                    <fpage>99</fpage>
                    <lpage>114</lpage>
                    <year>2020</year>
                    <pub-id pub-id-type="doi">10.1590/1982-25532020141614</pub-id>
                </element-citation>
            </ref>
            <ref id="B06">
                <mixed-citation>Coalizão Direitos na Rede. Projeto de Lei n. 2338/2023. <italic>Direitos na Rede</italic>, 18 jun. 2024. Disponível em: https://direitosnarede.org.br/2024/06/18/projeto-de-lei-n-2338-2023/. Acesso em: 16 maio 2025.</mixed-citation>
                <element-citation publication-type="webpage">
                    <person-group person-group-type="author">
                        <collab>Coalizão Direitos na Rede</collab>
                    </person-group>
                    <comment>Projeto de Lei n. 2338/2023</comment>
                    <source>Direitos na Rede</source>
                    <day>18</day>
                    <month>06</month>
                    <year>2024</year>
                    <comment>Disponível em: <ext-link ext-link-type="uri" xlink:href="https://direitosnarede.org.br/2024/06/18/projeto-de-lei-n-2338-2023/">https://direitosnarede.org.br/2024/06/18/projeto-de-lei-n-2338-2023/</ext-link></comment>
                    <date-in-citation content-type="access-date">16 maio 2025</date-in-citation>
                </element-citation>
            </ref>
            <ref id="B07">
                <mixed-citation>Conselho Nacional de justiça (Brasil). <italic>Protocolo para Julgamento com Perspectiva de Gênero</italic>. Brasília: CNJ, 2021. Disponível em: https://www.cnj.jus.br/wp-content/uploads/2021/10/protocolo-para-julgamento-com-perspectiva-de-genero-cnj-24-03-2022.pdf. Acesso em: 16 maio 2025.</mixed-citation>
                <element-citation publication-type="webpage">
                    <person-group person-group-type="author">
                        <collab>Conselho Nacional de justiça (Brasil)</collab>
                    </person-group>
                    <source>Protocolo para Julgamento com Perspectiva de Gênero</source>
                    <publisher-loc>Brasília</publisher-loc>
                    <publisher-name>CNJ</publisher-name>
                    <year>2021</year>
                    <comment>Disponível em: <ext-link ext-link-type="uri" xlink:href="https://www.cnj.jus.br/wp-content/uploads/2021/10/protocolo-para-julgamento-com-perspectiva-de-genero-cnj-24-03-2022.pdf">https://www.cnj.jus.br/wp-content/uploads/2021/10/protocolo-para-julgamento-com-perspectiva-de-genero-cnj-24-03-2022.pdf</ext-link></comment>
                    <date-in-citation content-type="access-date">16 maio 2025</date-in-citation>
                </element-citation>
            </ref>
            <ref id="B08">
                <mixed-citation>Corte Interamericana de Direitos Humanos. <italic>Caso Vera Rojas e Outros Vs. Chile</italic>. Exceções preliminares, Mérito, Reparações e Custas. Sentença de 1 de outubro de 2021. San José: CORTE IDH, 2021. Disponível em: https://www.corteidh.or.cr/docs/casos/articulos/seriec_439_esp.pdf. Acesso em: 2 jun. 2025.</mixed-citation>
                <element-citation publication-type="legal-doc">
                    <person-group person-group-type="author">
                        <collab>Corte Interamericana de Direitos Humanos</collab>
                    </person-group>
                    <source>Caso Vera Rojas e Outros Vs. Chile</source>
                    <comment>Exceções preliminares, Mérito, Reparações e Custas</comment>
                    <comment>Sentença de 1 de outubro de 2021</comment>
                    <publisher-loc>San José</publisher-loc>
                    <publisher-name>CORTE IDH</publisher-name>
                    <year>2021</year>
                    <comment>Disponível em: <ext-link ext-link-type="uri" xlink:href="https://www.corteidh.or.cr/docs/casos/articulos/seriec_439_esp.pdf">https://www.corteidh.or.cr/docs/casos/articulos/seriec_439_esp.pdf</ext-link></comment>
                    <date-in-citation content-type="access-date">2 jun. 2025</date-in-citation>
                </element-citation>
            </ref>
            <ref id="B09">
                <mixed-citation>Corte Interamericana de Direitos Humanos. <italic>Caso Ximenes Lopes Vs. Brasil</italic>. Mérito, Reparações e Custas. Sentença de 4 de julho de 2006. Disponível em: https://www.corteidh.or.cr/docs/casos/articulos/seriec_149_por.pdf. Acesso: 10 dez. 2025.</mixed-citation>
                <element-citation publication-type="legal-doc">
                    <person-group person-group-type="author">
                        <collab>Corte Interamericana de Direitos Humanos</collab>
                    </person-group>
                    <source>Caso Ximenes Lopes Vs. Brasil</source>
                    <comment> Mérito, Reparações e Custas</comment>
                    <comment>Sentença de 4 de julho de 2006</comment>
                    <year>2006</year>
                    <comment>Disponível em: <ext-link ext-link-type="uri" xlink:href="https://www.corteidh.or.cr/docs/casos/articulos/seriec_149_por.pdf">https://www.corteidh.or.cr/docs/casos/articulos/seriec_149_por.pdf</ext-link></comment>
                    <date-in-citation content-type="access-date">10 dez. 2025</date-in-citation>
                </element-citation>
            </ref>
            <ref id="B10">
                <mixed-citation>Dastin, J. Insight − Amazon scraps secret AI recruiting tool that showed bias against women. <italic>Reuters</italic>, 11 out. 2018. Available from: https://www.reuters.com/article/world/insight-amazon-scraps-secret-ai-recruiting-tool-that-showed-bias-against-women-idUSKCN1MK0AG/. Cited: 2025 Dec 11.</mixed-citation>
                <element-citation publication-type="webpage">
                    <person-group person-group-type="author">
                        <name>
                            <surname>Dastin</surname>
                            <given-names>J.</given-names>
                        </name>
                    </person-group>
                    <comment>Insight − Amazon scraps secret AI recruiting tool that showed bias against women</comment>
                    <source>Reuters</source>
                    <day>11</day>
                    <month>10</month>
                    <year>2018</year>
                    <comment>Available from: <ext-link ext-link-type="uri" xlink:href="https://www.reuters.com/article/world/insight-amazon-scraps-secret-ai-recruiting-tool-that-showed-bias-against-women-idUSKCN1MK0AG/">https://www.reuters.com/article/world/insight-amazon-scraps-secret-ai-recruiting-tool-that-showed-bias-against-women-idUSKCN1MK0AG/</ext-link></comment>
                    <date-in-citation content-type="access-date">2025 Dec 11</date-in-citation>
                </element-citation>
            </ref>
            <ref id="B11">
                <mixed-citation>European Approach to Artificial Intelligence. <italic>European Comission</italic>, [202-?]. Disponível em: https://digital-strategy.ec.europa.eu/en/policies/european-approach-artificial-intelligence. Acesso em: 23 maio 2025.</mixed-citation>
                <element-citation publication-type="webpage">
                    <person-group person-group-type="author">
                        <collab>European Approach to Artificial Intelligence</collab>
                    </person-group>
                    <source>European Comission</source>
                    <year>2025</year>
                    <comment>Disponível em: <ext-link ext-link-type="uri" xlink:href="https://digital-strategy.ec.europa.eu/en/policies/european-approach-artificial-intelligence">https://digital-strategy.ec.europa.eu/en/policies/european-approach-artificial-intelligence</ext-link></comment>
                    <date-in-citation content-type="access-date">23 maio 2025</date-in-citation>
                </element-citation>
            </ref>
            <ref id="B12">
                <mixed-citation>Fachin, M. Constitucionalismo multinível: diálogos e(m) direitos humanos. <italic>Revista Ibérica do Direito</italic>, v. 1, n. 1, p. 53-68, 2021. Disponível em: https://www.revistaibericadodireito.pt/index.php/capa/article/view/26. Acesso em: 17 abr. 2024.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>Fachin</surname>
                            <given-names>M.</given-names>
                        </name>
                    </person-group>
                    <article-title>Constitucionalismo multinível: diálogos e(m) direitos humanos</article-title>
                    <source>Revista Ibérica do Direito</source>
                    <volume>1</volume>
                    <issue>1</issue>
                    <fpage>53</fpage>
                    <lpage>68</lpage>
                    <year>2021</year>
                    <comment>Disponível em: <ext-link ext-link-type="uri" xlink:href="https://www.revistaibericadodireito.pt/index.php/capa/article/view/26">https://www.revistaibericadodireito.pt/index.php/capa/article/view/26</ext-link></comment>
                    <date-in-citation content-type="access-date">17 abr. 2024</date-in-citation>
                </element-citation>
            </ref>
            <ref id="B13">
                <mixed-citation>Fachin, M.; Ramos, C. M. V. Direito à autodeterminação informativa. <italic>In</italic>: Fachin, M. G.; Câmara, F. H. (coord.). <italic>Dicionário Interamericano de Direitos Humanos</italic>. Volume 2: direitos e deveres. Rio de Janeiro: Lumen Juris, 2024. p. 21-23.</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>Fachin</surname>
                            <given-names>M</given-names>
                        </name>
                        <name>
                            <surname>Ramos</surname>
                            <given-names>C. M. V</given-names>
                        </name>
                    </person-group>
                    <chapter-title>Direito à autodeterminação informativa</chapter-title>
                    <person-group person-group-type="compiler">
                        <name>
                            <surname>Fachin</surname>
                            <given-names>M. G</given-names>
                        </name>
                        <name>
                            <surname>Câmara</surname>
                            <given-names>F. H</given-names>
                        </name>
                    </person-group>
                    <source><italic>Dicionário Interamericano de Direitos Humanos</italic>. Volume 2: direitos e deveres</source>
                    <publisher-loc>Rio de Janeiro</publisher-loc>
                    <publisher-name>Lumen Juris</publisher-name>
                    <year>2024</year>
                    <fpage>21</fpage>
                    <lpage>23</lpage>
                </element-citation>
            </ref>
            <ref id="B14">
                <mixed-citation>Ferrari, I. <italic>Accountability</italic> de algoritmos: a falácia do acesso ao código e caminhos para uma explicabilidade efetiva. <italic>Inteligência Artificial</italic>: 3º Grupo de Pesquisa do ITS. Rio de Janeiro: ITS - Instituto de Tecnologia e Sociedade do Rio, 2018. f. 1-18. Disponível em: https://itsrio.org/wp-content/uploads/2019/03/Isabela-Ferrari.pdf. Acesso em: 23 maio 2025.</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>Ferrari</surname>
                            <given-names>I</given-names>
                        </name>
                    </person-group>
                    <source><italic>Accountability</italic> de algoritmos: a falácia do acesso ao código e caminhos para uma explicabilidade efetiva</source>
                    <comment><italic>Inteligência Artificial</italic>: 3º Grupo de Pesquisa do ITS</comment>
                    <publisher-loc>Rio de Janeiro</publisher-loc>
                    <publisher-name>ITS - Instituto de Tecnologia e Sociedade do Rio</publisher-name>
                    <year>2018</year>
                    <fpage>1</fpage>
                    <lpage>18</lpage>
                    <comment>Disponível em: <ext-link ext-link-type="uri" xlink:href="https://itsrio.org/wp-content/uploads/2019/03/Isabela-Ferrari.pdf">https://itsrio.org/wp-content/uploads/2019/03/Isabela-Ferrari.pdf</ext-link></comment>
                    <date-in-citation content-type="access-date">23 maio 2025</date-in-citation>
                </element-citation>
            </ref>
            <ref id="B15">
                <mixed-citation>Ferrari, I. <italic>Discriminação algorítmica e poder judiciário</italic>: limites à adoção de sistemas de decisões algorítmicas no judiciário brasileiro. Florianópolis: Emais Editora, 2023.</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>Ferrari</surname>
                            <given-names>I.</given-names>
                        </name>
                    </person-group>
                    <source><italic>Discriminação algorítmica e poder judiciário</italic>: limites à adoção de sistemas de decisões algorítmicas no judiciário brasileiro</source>
                    <publisher-loc>Florianópolis</publisher-loc>
                    <publisher-name>Emais Editora</publisher-name>
                    <year>2023</year>
                </element-citation>
            </ref>
            <ref id="B16">
                <mixed-citation>Garbin, G. A. L. Dever de adotar disposições de direito interno. <italic>In</italic>: Fachin, M. G.; Câmara, F. H. (coord.). <italic>Dicionário Interamericano de Direitos Humanos</italic>. Volume 2: direitos e deveres. Rio de Janeiro: Lumen Juris, 2024. p. 341-342.</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>Garbin</surname>
                            <given-names>G. A. L</given-names>
                        </name>
                    </person-group>
                    <chapter-title>Dever de adotar disposições de direito interno</chapter-title>
                    <person-group person-group-type="compiler">
                        <name>
                            <surname>Fachin</surname>
                            <given-names>M. G</given-names>
                        </name>
                        <name>
                            <surname>Câmara</surname>
                            <given-names>F. H</given-names>
                        </name>
                    </person-group>
                    <source>Dicionário Interamericano de Direitos Humanos</source>
                    <volume>Volume 2: direitos e deveres</volume>
                    <publisher-loc>Rio de Janeiro</publisher-loc>
                    <publisher-name>Lumen Juris</publisher-name>
                    <year>2024</year>
                    <fpage>341</fpage>
                    <lpage>342</lpage>
                </element-citation>
            </ref>
            <ref id="B17">
                <mixed-citation>Hora, N. Da neutralidade à IA decolonial. <italic>ComCiência</italic>, 15 jun. 2024. Disponível em: https://www.comciencia.br/da-neutralidade-a-ia-decolonial/. Acesso em: 23 maio 2025.</mixed-citation>
                <element-citation publication-type="webpage">
                    <person-group person-group-type="author">
                        <name>
                            <surname>Hora</surname>
                            <given-names>N.</given-names>
                        </name>
                    </person-group>
                    <comment>Da neutralidade à IA decolonial</comment>
                    <source>ComCiência</source>
                    <day>15</day>
                    <month>06</month>
                    <year>2024</year>
                    <comment>Disponível em: <ext-link ext-link-type="uri" xlink:href="https://www.comciencia.br/da-neutralidade-a-ia-decolonial/">https://www.comciencia.br/da-neutralidade-a-ia-decolonial/</ext-link></comment>
                    <date-in-citation content-type="access-date">23 maio 2025</date-in-citation>
                </element-citation>
            </ref>
            <ref id="B18">
                <mixed-citation>Instituto de Tecnologia &amp; Sociedade do Rio. <italic>Como regular a inteligência artificial?</italic> Expandindo horizontes de análise para além da União Europeia. Rio de Janeiro, 2024. 26 p. Disponível em: https://itsrio.org/wp-content/uploads/2016/12/20240404_Relatorio_Microsoft_Como-Regular-IA_3.pdf. Acesso em: 24 abr. 2024.</mixed-citation>
                <element-citation publication-type="webpage">
                    <person-group person-group-type="author">
                        <collab>Instituto de Tecnologia &amp; Sociedade do Rio</collab>
                    </person-group>
                    <source>Como regular a inteligência artificial?</source>
                    <comment>Expandindo horizontes de análise para além da União Europeia</comment>
                    <publisher-loc>Rio de Janeiro</publisher-loc>
                    <year>2024</year>
                    <size units="pages">26 p.</size>
                    <comment>Disponível em: <ext-link ext-link-type="uri" xlink:href="https://itsrio.org/wp-content/uploads/2016/12/20240404_Relatorio_Microsoft_Como-Regular-IA_3.pdf">https://itsrio.org/wp-content/uploads/2016/12/20240404_Relatorio_Microsoft_Como-Regular-IA_3.pdf</ext-link></comment>
                    <date-in-citation content-type="access-date">24 abr. 2024</date-in-citation>
                </element-citation>
            </ref>
            <ref id="B19">
                <mixed-citation>Köchling, A.; Wehner, M. C. Discriminated by an algorithm: a systematic review of discrimination and fairness by algorithmic decision-making in the context of HR recruitment and HR development. <italic>Business Research, Düsseldorf</italic>, v. 13, p. 795-848, 2020. Doi: https://doi.org/10.1007/s40685-020-00134-w. Acesso em: 24 abr. 2024.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>Köchling</surname>
                            <given-names>A</given-names>
                        </name>
                        <name>
                            <surname>Wehner</surname>
                            <given-names>M. C</given-names>
                        </name>
                    </person-group>
                    <article-title>Discriminated by an algorithm: a systematic review of discrimination and fairness by algorithmic decision-making in the context of HR recruitment and HR development</article-title>
                    <source>Business Research, Düsseldorf</source>
                    <volume>13</volume>
                    <fpage>795</fpage>
                    <lpage>848</lpage>
                    <year>2020</year>
                    <pub-id pub-id-type="doi">10.1007/s40685-020-00134-w</pub-id>
                    <date-in-citation content-type="access-date">24 abr. 2024</date-in-citation>
                </element-citation>
            </ref>
            <ref id="B20">
                <mixed-citation>Kroll, J. A. <italic>et al.</italic> Accountable Algorithms. <italic>University of Pennsylvania Law Review</italic>, v. 165, n. 2765268, p. 1-66, 2016. Disponível em: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2765268. Acesso em: 24 abr. 2025.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>Kroll</surname>
                            <given-names>J. A.</given-names>
                        </name>
                        <etal/>
                    </person-group>
                    <article-title>Accountable Algorithms</article-title>
                    <source>University of Pennsylvania Law Review</source>
                    <volume>165</volume>
                    <issue>2765268</issue>
                    <fpage>1</fpage>
                    <lpage>66</lpage>
                    <year>2016</year>
                    <comment>Disponível em: <ext-link ext-link-type="uri" xlink:href="https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2765268">https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2765268</ext-link></comment>
                    <date-in-citation content-type="access-date">24 abr. 2025</date-in-citation>
                </element-citation>
            </ref>
            <ref id="B21">
                <mixed-citation>Lemos, R. China cria a primeira regulação para algoritmos. <italic>Folha de São Paulo</italic>, 8 set. 2021. Artigos. Disponível em: https://itsrio.org/pt/artigos/china-cria-a-primeira-regulacao-para-algoritmos/. Acesso em: 23 maio 2025.</mixed-citation>
                <element-citation publication-type="webpage">
                    <person-group person-group-type="author">
                        <name>
                            <surname>Lemos</surname>
                            <given-names>R.</given-names>
                        </name>
                    </person-group>
                    <source>China cria a primeira regulação para algoritmos</source>
                    <publisher-name>Folha de São Paulo</publisher-name>
                    <day>8</day>
                    <month>09</month>
                    <year>2021</year>
                    <comment>Artigos</comment>
                    <comment>Disponível em: <ext-link ext-link-type="uri" xlink:href="https://itsrio.org/pt/artigos/china-cria-a-primeira-regulacao-para-algoritmos/">https://itsrio.org/pt/artigos/china-cria-a-primeira-regulacao-para-algoritmos/</ext-link></comment>
                    <date-in-citation content-type="access-date">23 maio 2025</date-in-citation>
                </element-citation>
            </ref>
            <ref id="B22">
                <mixed-citation>Lopes, A. J.; Paola, E. Precisamos conter os riscos da inteligência artificial, diz Lula. <italic>In</italic>: Poder360. <italic>Governo</italic>, 23 maio. 2024. Disponível em: https://www.poder360.com.br/governo/precisamos-conter-os-riscos-da-inteligencia artificial-diz-lula/. Acesso em: 16 maio 2025.</mixed-citation>
                <element-citation publication-type="webpage">
                    <person-group person-group-type="author">
                        <name>
                            <surname>Lopes</surname>
                            <given-names>A. J.</given-names>
                        </name>
                        <name>
                            <surname>Paola</surname>
                            <given-names>E.</given-names>
                        </name>
                    </person-group>
                    <comment>Precisamos conter os riscos da inteligência artificial, diz Lula</comment>
                    <source>Poder360. <italic>Governo</italic></source>
                    <day>23</day>
                    <month>05</month>
                    <year>2024</year>
                    <comment>Disponível em: <ext-link ext-link-type="uri" xlink:href="https://www.poder360.com.br/governo/precisamos-conter-os-riscos-da-inteligencia artificial-diz-lula/">https://www.poder360.com.br/governo/precisamos-conter-os-riscos-da-inteligencia artificial-diz-lula/</ext-link></comment>
                    <date-in-citation content-type="access-date">16 maio 2025</date-in-citation>
                </element-citation>
            </ref>
            <ref id="B23">
                <mixed-citation>Mattos Filho. Inteligência artificial: avaliação de impacto algorítmico. <italic>Notícias e Negócios</italic>, 26 set. 2023. Disponível em: https://www.mattosfilho.com.br/unico/inteligencia-artificial-avaliacao-impacto-algoritmico/. Acesso em: 16 maio 2025.</mixed-citation>
                <element-citation publication-type="webpage">
                    <person-group person-group-type="author">
                        <collab>Mattos Filho</collab>
                    </person-group>
                    <source>Inteligência artificial: avaliação de impacto algorítmico</source>
                    <publisher-name>Notícias e Negócios</publisher-name>
                    <day>26</day>
                    <month>09</month>
                    <year>2023</year>
                    <comment>Disponível em: <ext-link ext-link-type="uri" xlink:href="https://www.mattosfilho.com.br/unico/inteligencia-artificial-avaliacao-impacto-algoritmico/">https://www.mattosfilho.com.br/unico/inteligencia-artificial-avaliacao-impacto-algoritmico/</ext-link></comment>
                    <date-in-citation content-type="access-date">16 maio 2025</date-in-citation>
                </element-citation>
            </ref>
            <ref id="B24">
                <mixed-citation>Mota, R. K. B. <italic>et al.</italic> Concepções teóricas sobre <italic>accountability</italic>. <italic>In</italic>: Congresso UFU de Contabilidade, 4., 2021, Uberlândia. Uberlância: UFU, 2021. f. 1-19. Disponível em: https://eventos.ufu.br/sites/eventos.ufu.br/files/documentos/contufu2021.completo0078.pdf. Acesso em: 23 maio 2025.</mixed-citation>
                <element-citation publication-type="confproc">
                    <person-group person-group-type="author">
                        <name>
                            <surname>Mota</surname>
                            <given-names>R. K. B</given-names>
                        </name>
                        <etal/>
                    </person-group>
                    <conf-name>Concepções teóricas sobre accountability</conf-name>
                    <source>Congresso UFU de Contabilidade, 4</source>
                    <conf-date>2021</conf-date>
                    <conf-loc>Uberlândia</conf-loc>
                    <publisher-loc>Uberlância</publisher-loc>
                    <publisher-name>UFU</publisher-name>
                    <year>2021</year>
                    <fpage>1</fpage>
                    <lpage>19</lpage>
                    <comment>Disponível em: <ext-link ext-link-type="uri" xlink:href="https://eventos.ufu.br/sites/eventos.ufu.br/files/documentos/contufu2021.completo0078.pdf">https://eventos.ufu.br/sites/eventos.ufu.br/files/documentos/contufu2021.completo0078.pdf</ext-link></comment>
                    <date-in-citation content-type="access-date">23 maio 2025</date-in-citation>
                </element-citation>
            </ref>
            <ref id="B25">
                <mixed-citation>Nem tudo são flores no mundo da Inteligência Artificial. <italic>Estadão</italic>, 7 ago. 2023. Disponível em: https://www.estadao.com.br/politica/gestao-politica-e-sociedade/nem-tudo-sao-flores-no-mundo-da-inteligencia-artificial/. Acesso em: 23 maio 2025.</mixed-citation>
                <element-citation publication-type="webpage">
                    <person-group person-group-type="author">
                        <collab>Nem tudo são flores no mundo da Inteligência Artificial</collab>
                    </person-group>
                    <source>Estadão</source>
                    <day>7</day>
                    <month>08</month>
                    <year>2023</year>
                    <comment>Disponível em: <ext-link ext-link-type="uri" xlink:href="https://www.estadao.com.br/politica/gestao-politica-e-sociedade/nem-tudo-sao-flores-no-mundo-da-inteligencia-artificial/">https://www.estadao.com.br/politica/gestao-politica-e-sociedade/nem-tudo-sao-flores-no-mundo-da-inteligencia-artificial/</ext-link></comment>
                    <date-in-citation content-type="access-date">23 maio 2025</date-in-citation>
                </element-citation>
            </ref>
            <ref id="B26">
                <mixed-citation>Noble, S. U. <italic>Algorithms of Oppression</italic>: how search engines reinforce racism. [<italic>S. l.</italic>]: NYU Press, 2018.</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>Noble</surname>
                            <given-names>S. U.</given-names>
                        </name>
                    </person-group>
                    <source><italic>Algorithms of Oppression</italic>: how search engines reinforce racism</source>
                    <comment>S. l.</comment>
                    <publisher-name>NYU Press</publisher-name>
                    <year>2018</year>
                </element-citation>
            </ref>
            <ref id="B27">
                <mixed-citation>O’Neil, C. <italic>Algoritmos de destruição em massa</italic>: como o <italic>big data</italic> aumenta a desigualdade e ameaça a democracia. Santo André: Rua do Sabão, 2020.</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>O’Neil</surname>
                            <given-names>C.</given-names>
                        </name>
                    </person-group>
                    <source><italic>Algoritmos de destruição em massa</italic>: como o <italic>big data</italic> aumenta a desigualdade e ameaça a democracia</source>
                    <publisher-loc>Santo André</publisher-loc>
                    <publisher-name>Rua do Sabão</publisher-name>
                    <year>2020</year>
                </element-citation>
            </ref>
            <ref id="B28">
                <mixed-citation>Ordonez, V.; Dunn, T.; Noll, E. OpenAI CEO Sam Altman says AI will reshape society, acknowledges risks: ‘A little bit scared of this’. <italic>ABC News Technology</italic>, 16 mar. 2023. Disponível em: https://abcnews.go.com/Technology/openai-ceo-sam-altman-ai-reshape-society-acknowledges/story?id=97897122. Acesso em: 23 maio 2025.</mixed-citation>
                <element-citation publication-type="webpage">
                    <person-group person-group-type="author">
                        <name>
                            <surname>Ordonez</surname>
                            <given-names>V</given-names>
                        </name>
                        <name>
                            <surname>Dunn</surname>
                            <given-names>T</given-names>
                        </name>
                        <name>
                            <surname>Noll</surname>
                            <given-names>E</given-names>
                        </name>
                    </person-group>
                    <source>OpenAI CEO Sam Altman says AI will reshape society, acknowledges risks: ‘A little bit scared of this’</source>
                    <publisher-name>ABC News Technology</publisher-name>
                    <day>16</day>
                    <month>03</month>
                    <year>2023</year>
                    <comment>Disponível em: <ext-link ext-link-type="uri" xlink:href="https://abcnews.go.com/Technology/openai-ceo-sam-altman-ai-reshape-society-acknowledges/story?id=97897122">https://abcnews.go.com/Technology/openai-ceo-sam-altman-ai-reshape-society-acknowledges/story?id=97897122</ext-link></comment>
                    <date-in-citation content-type="access-date">23 maio 2025</date-in-citation>
                </element-citation>
            </ref>
            <ref id="B29">
                <mixed-citation>Organização dos Estados Americanos. <italic>Comissão Interamericana de Direitos Humanos. Empresas e Direitos Humanos</italic>: padrões interamericanos. Washington, D.C.: OEA, 2019. Disponível em: https://www.oas.org/pt/cidh/relatorios/pdfs/empresas%20e%20direitos.pdf. Acesso em: 2 jun. 2025.</mixed-citation>
                <element-citation publication-type="webpage">
                    <person-group person-group-type="author">
                        <collab>Organização dos Estados Americanos</collab>
                    </person-group>
                    <source><italic>Comissão Interamericana de Direitos Humanos. Empresas e Direitos Humanos</italic>: padrões interamericanos</source>
                    <publisher-loc>Washington, D.C.</publisher-loc>
                    <publisher-name>OEA</publisher-name>
                    <year>2019</year>
                    <comment>Disponível em: <ext-link ext-link-type="uri" xlink:href="https://www.oas.org/pt/cidh/relatorios/pdfs/empresas%20e%20direitos.pdf">https://www.oas.org/pt/cidh/relatorios/pdfs/empresas%20e%20direitos.pdf</ext-link></comment>
                    <date-in-citation content-type="access-date">2 jun. 2025</date-in-citation>
                </element-citation>
            </ref>
            <ref id="B30">
                <mixed-citation>Organização dos Estados Americanos. <italic>Convenção Americana sobre Direitos Humanos (Pacto de San José da Costa Rica)</italic>. San José: Comissão Interamericana de Direitos Humanos, 1969. Disponível em: https://www.cidh.oas.org/basicos/portugues/c.convencao_americana.htm. Acesso em: 15 dez. 2025.</mixed-citation>
                <element-citation publication-type="webpage">
                    <person-group person-group-type="author">
                        <collab>Organização dos Estados Americanos</collab>
                    </person-group>
                    <source>Convenção Americana sobre Direitos Humanos (Pacto de San José da Costa Rica)</source>
                    <publisher-loc>San José</publisher-loc>
                    <publisher-name>Comissão Interamericana de Direitos Humanos</publisher-name>
                    <year>1969</year>
                    <comment>Disponível em: <ext-link ext-link-type="uri" xlink:href="https://www.cidh.oas.org/basicos/portugues/c.convencao_americana.htm">https://www.cidh.oas.org/basicos/portugues/c.convencao_americana.htm</ext-link></comment>
                    <date-in-citation content-type="access-date">15 dez. 2025</date-in-citation>
                </element-citation>
            </ref>
            <ref id="B31">
                <mixed-citation>Organization for Economic Co-operation and Development. <italic>Global trends in government innovation 2023</italic>. OECD Public Governance Reviews. Paris: OECD Publishing, 2023. Doi: https://doi.org/10.1787/0655b570-en. Acesso em: 16 maio 2025.</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <collab>Organization for Economic Co-operation and Development</collab>
                    </person-group>
                    <source>Global trends in government innovation 2023</source>
                    <publisher-name>OECD Public Governance Reviews</publisher-name>
                    <publisher-loc>Paris</publisher-loc>
                    <publisher-name>OECD Publishing</publisher-name>
                    <year>2023</year>
                    <pub-id pub-id-type="doi">10.1787/0655b570-en</pub-id>
                    <date-in-citation content-type="access-date">16 maio 2025</date-in-citation>
                </element-citation>
            </ref>
            <ref id="B32">
                <mixed-citation>Parra, H. Z. M.; Abdo, A.H. Tendências democráticas e autoritárias, arquiteturas distribuídas e centralizadas. <italic>In</italic>: Bragatto, R. C.; Sampaio, R. C.; Silva, S. P. (org.). <italic>Democracia digital, comunicação política e redes</italic>: teoria e prática. Rio de Janeiro: Folio Digital: Letra e Imagem, 2016. cap. 5, p. 137-159.</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>Parra</surname>
                            <given-names>H. Z. M.</given-names>
                        </name>
                        <name>
                            <surname>Abdo</surname>
                            <given-names>A.H.</given-names>
                        </name>
                    </person-group>
                    <chapter-title>Tendências democráticas e autoritárias, arquiteturas distribuídas e centralizadas</chapter-title>
                    <person-group person-group-type="compiler">
                        <name>
                            <surname>Bragatto</surname>
                            <given-names>R. C.</given-names>
                        </name>
                        <name>
                            <surname>Sampaio</surname>
                            <given-names>R. C.</given-names>
                        </name>
                        <name>
                            <surname>Silva</surname>
                            <given-names>S. P.</given-names>
                        </name>
                    </person-group>
                    <source><italic>Democracia digital, comunicação política e redes</italic>: teoria e prática</source>
                    <publisher-loc>Rio de Janeiro</publisher-loc>
                    <publisher-name>Folio Digital: Letra e Imagem</publisher-name>
                    <year>2016</year>
                    <comment>cap. 5</comment>
                    <fpage>137</fpage>
                    <lpage>159</lpage>
                </element-citation>
            </ref>
            <ref id="B33">
                <mixed-citation>Rached, D. H. <italic>Accountability</italic> e desenho institucional: um ponto cego no direito público brasileiro. <italic>Revista Brasileira de Políticas Públicas</italic>, v. 11, n. 1, p. 190-209, 2021. Doi: https://doi.org/10.5102/rbpp.v11i1.6745.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>Rached</surname>
                            <given-names>D. H</given-names>
                        </name>
                    </person-group>
                    <article-title><italic>Accountability</italic> e desenho institucional: um ponto cego no direito público brasileiro</article-title>
                    <source>Revista Brasileira de Políticas Públicas</source>
                    <volume>11</volume>
                    <issue>1</issue>
                    <fpage>190</fpage>
                    <lpage>209</lpage>
                    <year>2021</year>
                    <pub-id pub-id-type="doi">10.5102/rbpp.v11i1.6745</pub-id>
                </element-citation>
            </ref>
            <ref id="B34">
                <mixed-citation>Regulação Algorítmica. Entrevistado: Karen Young. <italic>Digilabour</italic>, 14 mar. 2020. Interviews. Disponível em: https://digilabour.com.br/pt/regulacao-algoritmica-entrevista-com-karen-young/. Acesso em: 23 maio 2025.</mixed-citation>
                <element-citation publication-type="webpage">
                    <person-group person-group-type="author">
                        <collab>Regulação Algorítmica</collab>
                        <collab>Karen Young</collab>
                    </person-group>
                    <source>Digilabour</source>
                    <day>14</day>
                    <month>03</month>
                    <year>2020</year>
                    <comment>Interviews</comment>
                    <comment>Disponível em: <ext-link ext-link-type="uri" xlink:href="https://digilabour.com.br/pt/regulacao-algoritmica-entrevista-com-karen-young/">https://digilabour.com.br/pt/regulacao-algoritmica-entrevista-com-karen-young/</ext-link></comment>
                    <date-in-citation content-type="access-date">23 maio 2025</date-in-citation>
                </element-citation>
            </ref>
            <ref id="B35">
                <mixed-citation>Ribeiro, E. Decifrando a tecnologia do reconhecimento facial. <italic>Medium</italic>: <italic>Human Stories &amp; Ideas</italic>, 17 jan. 2023. Disponível em: https://medium.com/@elieser_ribeiro/decifrando-a-tecnologia-do-reconhecimento-facial-27ee45eb6ada. Acesso em: 17 abr. 2024.</mixed-citation>
                <element-citation publication-type="webpage">
                    <person-group person-group-type="author">
                        <name>
                            <surname>Ribeiro</surname>
                            <given-names>E.</given-names>
                        </name>
                    </person-group>
                    <comment>Decifrando a tecnologia do reconhecimento facial</comment>
                    <source><italic>Medium</italic>: <italic>Human Stories &amp; Ideas</italic></source>
                    <day>17</day>
                    <month>01</month>
                    <year>2023</year>
                    <comment>Disponível em: <ext-link ext-link-type="uri" xlink:href="https://medium.com/@elieser_ribeiro/decifrando-a-tecnologia-do-reconhecimento-facial-27ee45eb6ada">https://medium.com/@elieser_ribeiro/decifrando-a-tecnologia-do-reconhecimento-facial-27ee45eb6ada</ext-link></comment>
                    <date-in-citation content-type="access-date">17 abr. 2024</date-in-citation>
                </element-citation>
            </ref>
            <ref id="B36">
                <mixed-citation>Saldanha, P. M. Governança, <italic>accountability</italic> e avaliação de impacto algorítmico. <italic>Conjur – Consultor Jurídico</italic>, 4 jun. 2024. Disponível em: https://www.conjur.com.br/2024-jun-04/governanca-accountability-e-avaliacao-de-impacto-algoritmico/. Acesso em: 23 maio 2025.</mixed-citation>
                <element-citation publication-type="webpage">
                    <person-group person-group-type="author">
                        <name>
                            <surname>Saldanha</surname>
                            <given-names>P. M.</given-names>
                        </name>
                    </person-group>
                    <comment>Governança, <italic>accountability</italic> e avaliação de impacto algorítmico</comment>
                    <source>Conjur – Consultor Jurídico</source>
                    <day>4</day>
                    <month>06</month>
                    <year>2024</year>
                    <comment>Disponível em: <ext-link ext-link-type="uri" xlink:href="https://www.conjur.com.br/2024-jun-04/governanca-accountability-e-avaliacao-de-impacto-algoritmico/">https://www.conjur.com.br/2024-jun-04/governanca-accountability-e-avaliacao-de-impacto-algoritmico/</ext-link></comment>
                    <date-in-citation content-type="access-date">23 maio 2025</date-in-citation>
                </element-citation>
            </ref>
            <ref id="B37">
                <mixed-citation>Sfredo, M.; Lopes, R. Um “novo Estado”? Mais ricas do que muitos países, empresas gigantes da tecnologia são cobradas por suas práticas: Google, Facebook, Apple, Amazon e Microsoft têm sido chamadas a explicar suas atuações nem sempre saudáveis no ambiente democrático. <italic>GZH</italic>, 18 dez. 2020. Disponível em: https://gauchazh.clicrbs.com.br/tecnologia/noticia/2020/12/um-novo-estado-mais-ricas-do-que-muitos-paises-empresas-gigantes-da-tecnologia-sao-cobradas-por-suas-praticas-ckiudceo70001019woewvaey2.html. Acesso em: 16 maio 2025.</mixed-citation>
                <element-citation publication-type="webpage">
                    <person-group person-group-type="author">
                        <name>
                            <surname>Sfredo</surname>
                            <given-names>M.</given-names>
                        </name>
                        <name>
                            <surname>Lopes</surname>
                            <given-names>R.</given-names>
                        </name>
                    </person-group>
                    <comment>Um “novo Estado”? Mais ricas do que muitos países, empresas gigantes da tecnologia são cobradas por suas práticas: Google, Facebook, Apple, Amazon e Microsoft têm sido chamadas a explicar suas atuações nem sempre saudáveis no ambiente democrático</comment>
                    <source>GZH</source>
                    <day>18</day>
                    <month>12</month>
                    <year>2020</year>
                    <comment>Disponível em: <ext-link ext-link-type="uri" xlink:href="https://gauchazh.clicrbs.com.br/tecnologia/noticia/2020/12/um-novo-estado-mais-ricas-do-que-muitos-paises-empresas-gigantes-da-tecnologia-sao-cobradas-por-suas-praticas-ckiudceo70001019woewvaey2.html">https://gauchazh.clicrbs.com.br/tecnologia/noticia/2020/12/um-novo-estado-mais-ricas-do-que-muitos-paises-empresas-gigantes-da-tecnologia-sao-cobradas-por-suas-praticas-ckiudceo70001019woewvaey2.html</ext-link></comment>
                    <date-in-citation content-type="access-date">16 maio 2025</date-in-citation>
                </element-citation>
            </ref>
            <ref id="B38">
                <mixed-citation>Silva, T. Visão computacional e racismo algorítmico: branquitude e opacidade no aprendizado de máquina. <italic>Revista da Associação Brasileira de Pesquisadores/as Negros/as</italic>, v. 12, n. 31, p. 428-448, 2020. Doi: https://doi.org/10.31418/2177-2770.2020.</mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>Silva</surname>
                            <given-names>T.</given-names>
                        </name>
                    </person-group>
                    <article-title>Visão computacional e racismo algorítmico: branquitude e opacidade no aprendizado de máquina</article-title>
                    <source>Revista da Associação Brasileira de Pesquisadores/as Negros/as</source>
                    <volume>12</volume>
                    <issue>31</issue>
                    <fpage>428</fpage>
                    <lpage>448</lpage>
                    <year>2020</year>
                    <pub-id pub-id-type="doi">10.31418/2177-2770.2020</pub-id>
                </element-citation>
            </ref>
            <ref id="B39">
                <mixed-citation>Soares, M. Uma IA decolonial é possível? <italic>Desinformante</italic>: informação confiável sobre desinformação, 26 jun. 2024. Disponível em: https://desinformante.com.br/ia-decolonial/. Acesso em: 23 maio 2025.</mixed-citation>
                <element-citation publication-type="webpage">
                    <person-group person-group-type="author">
                        <name>
                            <surname>Soares</surname>
                            <given-names>M.</given-names>
                        </name>
                    </person-group>
                    <comment>Uma IA decolonial é possível?</comment>
                    <source><italic>Desinformante</italic>: informação confiável sobre desinformação</source>
                    <day>26</day>
                    <month>06</month>
                    <year>2024</year>
                    <comment>Disponível em: <ext-link ext-link-type="uri" xlink:href="https://desinformante.com.br/ia-decolonial/">https://desinformante.com.br/ia-decolonial/</ext-link></comment>
                    <date-in-citation content-type="access-date">23 maio 2025</date-in-citation>
                </element-citation>
            </ref>
            <ref id="B40">
                <mixed-citation>Volz, M. B. Dever de supervisionar atividades empresariais. <italic>In</italic>: Fachin, M. G.; Câmara, F. H. (coord.). <italic>Dicionário Interamericano de Direitos Humanos</italic>. Volume 2: direitos e deveres. Rio de Janeiro: Lumen Juris, 2024. p. 425-427.</mixed-citation>
                <element-citation publication-type="book">
                    <person-group person-group-type="author">
                        <name>
                            <surname>Volz</surname>
                            <given-names>M. B.</given-names>
                        </name>
                    </person-group>
                    <chapter-title>Dever de supervisionar atividades empresariais</chapter-title>
                    <person-group person-group-type="compiler">
                        <name>
                            <surname>Fachin</surname>
                            <given-names>M. G.</given-names>
                        </name>
                        <name>
                            <surname>Câmara</surname>
                            <given-names>F. H.</given-names>
                        </name>
                    </person-group>
                    <source>Dicionário Interamericano de Direitos Humanos</source>
                    <volume>Volume 2: direitos e deveres</volume>
                    <publisher-loc>Rio de Janeiro</publisher-loc>
                    <publisher-name>Lumen Juris</publisher-name>
                    <year>2024</year>
                    <fpage>425</fpage>
                    <lpage>427</lpage>
                </element-citation>
            </ref>
            <ref id="B41">
                <mixed-citation>Wimmer, M.; Doneda, D. “Falhas de IA” e a intervenção humana em decisões automatizadas: parâmetros para a legitimação pela humanização. R<italic>evista Direito Público</italic>, v. 18, n. 100, p. 374-404, 2021. Doi: https://doi.org/10.11117/rdp.v18i100.6119. Acesso em: 25 maio 2025. </mixed-citation>
                <element-citation publication-type="journal">
                    <person-group person-group-type="author">
                        <name>
                            <surname>Wimmer</surname>
                            <given-names>M</given-names>
                        </name>
                        <name>
                            <surname>Doneda</surname>
                            <given-names>D</given-names>
                        </name>
                    </person-group>
                    <article-title>“Falhas de IA” e a intervenção humana em decisões automatizadas: parâmetros para a legitimação pela humanização</article-title>
                    <source>R<italic>evista Direito Público</italic></source>
                    <volume>18</volume>
                    <issue>100</issue>
                    <fpage>374</fpage>
                    <lpage>404</lpage>
                    <year>2021</year>
                    <pub-id pub-id-type="doi">10.11117/rdp.v18i100.6119</pub-id>
                    <date-in-citation content-type="access-date">25 maio 2025</date-in-citation>
                </element-citation>
            </ref>
        </ref-list>
    </back>
</article>
