RightsCon 2023: envie sua proposta

A Chamada de Propostas está aberta para o #RightsCon Costa Rica, o principal encontro sobre direitos humanos na era digital! Estou empolgado em fazer parte do Program Committee e avaliar propostas para a categoria de Inteligência Artificial, junto a mais especialistas do mundo todo. Se você tem uma ideia de atividade, lembre de submeter até 12 de janeiro!

RightsCon conecta pessoas em torno do mundo – proponentes de políticas públicas, legisladores, empresárias, tecnologistas, pesquisadoras, designers, jornalistas, criativos e mais – para encontrar soluções pros problemas mais complexos afetando nossos espaços digitais. Realizado presencialmente e online, RightsCon Costa Rica vai acontecer de 5 a 9 de junho de 2023. Vai acontecer em San José, Costa Rica e online, com a expectativa de reunir 10 mil pessoas de 150 países diferentes.

Gerir uma atividade, seja online ou em pessoa, é uma oportunidade de conectar com comunidades globais de experts, fortalecer habilidades de construção de redes e, sobretudo, ajudar a direcionar a agenda sobre direitos humanos na era digitais. Para saber mais, visite rightscon.org/program, tópicos em destaque na programação deste ano ou confira o Guide to a Successful Proposal para dicas e truques!

Podcast Tecnopolítica: debates sobre algoritmos, vigilância e direitos

O podcast Tecnopolítica chegou ao seu terceiro ano! Um dos principais hubs de especialistas em algoritmos, vigilância e direitos humanos do país foi lançado em 2018 e é um projeto do professor e pesquisador Sérgio Amadeu da Silveira (UFABC). Veja alguns dos mais interessantes produzidos:

Já são 26 vídeos: não perca os novos se inscrevendo em https://www.youtube.com/channel/UCDy46jf2mcg8xySzrqV5pxw

Como prevenir resultados discriminatórios com machine learning?

Lançado em março de 2018, o relatório How to Prevent Discriminatory Outcomes in Machine Learning é resultado de um de trabalho em andamento do Global Future Council on Human Rights do World Economic Forum, que reúne acadêmicos, sociedade civil e experts do mercado para discutir os principais temas do futuro quanto a direitos humanos.

Um destes temas, é claro, é a inteligência artificial e técnicas como aprendizado de máquina (machine learning) que, cada vez mais, automatizam decisões em áreas como negócios, segurança,

Com 30 páginas, o documento é bastante direto em quatro seções. A primeira trata de desafios sobre machine learning quanto a problemas relacionados a dados e relacionados ao design dos algoritmos em si. O viés dos dados que servem de input nos sistemas de aprendizado de máquina podem gerar a intensificação dos vieses devido a (falta de) disponibilidade dos dados de uma determinada população ou devido a dados que já estão repletos de vieses. Vimos aqui no blog um bom exemplo de dataset de treinamento pobre com o caso dos robôs identificados pela Joy Boulamwini e um exemplo de datasets de treinamento ruins com o algoritmo de vigilância preditiva.

Ao tratar dos problemas resultantes do desenho dos algoritmos, os autores falam das seguintes possibilidades: escolha de modelo errado; construção de modelo com recursos discriminatórios acidentais; ausência de supervisão e envolvimento humanos; sistemas imprevisíveis e inescrutáveis; e discriminação intencional. O documento, que busca ser o mais neutro possível, traz apenas casos “hipotéticos” para exemplificar os problemas e remediações. Acredito ser importante enfatizar os problemas relacionados à ausência dos humanos no loop de forma contínua, como no caso das prescrições erradas oferecidas pela IBM Watson à pacientes com câncer.

Para combate aos problemas, são propostos quatro princípios: inclusão ativa;  equidade; direito à compreensão; e acesso a remediação.

A terceira parte chama à responsabilidade as empresas e, por fim, a quarta seção traz checklists sobre o que as empresas, governo, academia e cidadão podem fazer em prol do combate à discriminação ligada à inteligência artificial.