Black In AI – evento sobre inteligência artificial abre chamada de apoios para afro-brasileiros

[Caras/os leitoras/es, o Black In AI lançou nova chamada de apoios para bolsas-viagem específica para afro-brasileiros. Por favor, divulguem a chamada para colegas cientistas da computação ou pesquisadoras de outras áreas, tais como estudos de ciência e tecnologia]

É com imenso prazer que anunciamos que este ano o workshop Black in AI terá uma chamada direcionada a população Afro-brasileira. Mais da metade da população brasileira se identifica como Afro-brasileira e trazer essa população para o debate é muito importante para a diversificação do pensamento. Essa chamada convida alunos, professores e outros associados que se identificam como Afro-Brasileiros para participar do Workshop Black in AI, incluindo recepção e a conferência NeurIPS. O workshop acontecerá no dia 9 de Dezembro de 2019 e a recepção do workshop acontecerá no dia 13 de Dezembro de 2019. Serão oferecidas bolsas-viagem que cobrirão inscrição para o workshop e para a conferência (NeurIPS), passagens e hospedagem, além de despesas associadas ao workshop. Em caso de dúvidas, favor enviá-las para bai2019_usa@googlegroups.com (Em Inglês) ou para vsilva@ualberta.ca (em Inglês ou Português).

Gostaríamos também de encorajar os/as selecionados(as) a participar da Conferência NeurIPS – A maior conferência científica de Inteligência Artificial do mundo. A conferência acontecerá de 8 a 14 de dezembro de 2019, também em Vancouver, Columbia Britânica, Canada.
Convidamos todos(as) aqueles(as) que se auto-identificam como Afro-brasileiros(as) e são estudantes, graduados(as), professores(as), dentre outros, a aplicar para as bolsas-viagem e submeter resumos expandidos para o workshop. Os/As interessados(as) podem também aplicar para bolsas-viagem mesmo que não tenha submetido um abstrato expandido. Mais detalhes sobre o processo podem ser encontrados abaixo.

Datas importantes
Data limite para submissão do resumo: 28 de outubro de 2019 as 11 da noite, UTC.
Data limite para aplicar para bolsa-viagem: 28 de outubro de 2019 as 11 da noite, UTC.

Chamada de Resumos Expandidos
Convidamos todos(as) os/as autores(as) a submeter resumos expandidos EM INGLÊS para o Terceiro workshop Black in AI (co-localizado com o NeurIPS 2019), que acontece no dia 9 de dezembro de 2019 no Centro de Convenções de Vancouver, em Vancouver, Columbia Britânica, Canada. Tópicos de Interesse incluem, mas não estão limitados a:

  • Inteligência Artificial
  • Aprendizado de Máquina
  • Neurociência Computacional
  • Aprendizado Profundo
  • Descoberta de conhecimento
  • Sistemas multi-agente
  • Teoria da Computação
  • Visão computacional
  • Processamento de Linguagem Natural
  • Robótica
  • Inteligência Artificial e Saúde
  • Inteligência Artificial e Educação
  • Justiça, Ética e Transparência em Inteligência Artificial

Resumos expandidos podem introduzir novos conceitos, metodologias, aplicações e demonstrações. Tais resumos podem ainda sintetizar trabalhos existentes, identificar futuras áreas de pesquisa ou informar sobre áreas as quais Inteligência Artificial poderia ter grande impacto.
Submissões podem ser classificadas em uma das quatro trilhas:

  • Algoritmos de Aprendizado de Maquina
  • Aplicações de Inteligência Artificial
  • Papers de posicionamento
  • Demonstrações de produto

As submissões não serão arquivadas, portanto aceitar-se-ão trabalhos publicados previamente (desde que atualizados para o workshop), completos ou em andamento. Encorajamos que todos(as) os/as pesquisadores(as) Afro-brasileiros(as), em áreas relacionadas à Inteligência Artificial, a enviar seus trabalhos para apreciação. O/A pesquisador(a) Afro-brasileiro(a) não necessariamente deve ser o/a principal autor(a) do trabalho, mas ao menos um(a) Afro-brasileiro(a) deve ser parte do trabalho produzido.

Submissão do Resumo expandido
Submissões serão avaliadas por ao menos dois/duas revisores(as) experts sobre o assunto o qual o trabalho se classifica. O workshop não arquivará os trabalhos e não publicará proceedings. Encorajamos que todas os/as pesquisadores(as) Afro-brasileiros(as), em áreas relacionadas à Inteligência Artificial, a enviar seus trabalhos para apreciação. O/A pesquisador(a) Afro-brasileiro(a) não necessariamente deve ser o/a principal autor(a) do trabalho, mas ao menos um(a) Afro-brasileiro(a) deve ser parte do trabalho produzido.

Instruções de formatação
Submissões devem ser enviadas em formato PDF e tem um limite de duas páginas para texto e podem incluir uma página de citações. O texto deve ser escrito EM INGLÊS, submissões em Português serão automaticamente rejeitadas. Submissões devem ter uma única coluna com fonte arial tamanho 11. O papel deve ter format Letter e deve ter uma margem de uma polegada em todas as direções.
Submissões em linguagens que não sejam o Inglês serão automaticamente rejeitadas. Submissões que não sigam as instruções de formatação serão rejeitadas sem consideração de mérito.

Revisão Double-blind
Submissões serão revisadas por ao menos dois revisores, além de um chair de área. O procedimento será double-blind para revisores. Os autores(as) deverão remover todas as formas de identificação em suas submissões. O trabalho nao devera conter nomes, afiliações ou agradecimentos, além de auto-citações devem ser anônimas.
Os trabalhos devem conter até duas páginas, incluindo todas as figuras e tabelas. Uma página para referências pode ser adicionada. A submissão deve ser formatada em coluna única em fonte Arial tamanho 11. O papel deve ser tamanho letter e deve conter uma margem de uma polegada em todas as direções.
Submissões devem conter o problema a ser resolvido, motivação, contribuição técnica e científica, além de poder conter figuras, tabelas e referências. O trabalho deverá ser submetido via EasyChair (CLIQUE AQUI PARA ENVIAR SEU TRABALHO) e a deadline e dia 28 de outubro de 2019.

Veja aqui alguns exemplos de papers aceitos para o workshop em anos anteriores.

 

Aplicações para bolsa-viagem
Bolsas-viagem baseadas em necessidade serão concedidas a participantes do workshop. Participantes não precisam submeter um trabalho para o workshop para serem considerados para uma bolsa-viagem. A bolsa pode ser utilizada para cobrir custos associados a participação no workshop, tal como, registro para a conferência, hospedagem e passagens. Observe que a bolsa não necessariamente cobrirá todos(as) os/as custos e que nem todos(as) os/as participantes receberão bolsas. A quantia alocada para cada participante depende do número de aplicações e localização do participante.

As aplicações para bolsa-viagem devem ser feitas EM INGLÊS neste link (CLIQUE AQUI) até 28 de Outubro de 2019 as 11 da noite, UTC.
Nota: Esta é uma tradução livre, em caso de discrepância entre a versão em inglês e esta tradução, a versão em inglês será utilizada para resolução de quaisquer eventualidades.

Mensagem de: Victor Silva
Chair de Recrutamento
Black in AI 2019
Universidade de Alberta, Edmonton Alberta, Canadá.

Tecnologias Negras: ciclo no Sesc promove centenas de cursos, atividades e palestras em outubro

Durante outubro e novembro, as unidades do Sesc em São Paulo promoverão um ciclo de atividades sobre Tecnologias e Artes Negras com dezenas de cursos, palestras e oficinas. Segundo a organização, a iniciativa “objetiva articular e dar vazão à efervescente produção de artistas, pesquisadoras(es), intelectuais e mestras(es) do saber negras e negros, nos campos das Artes Visuais e Tecnologias, e, assim, estimular a difusão de práticas educativas não formais, pautadas pelo princípio da equidade. Dessa forma, visa demarcar um espaço democrático de discussão sobre campos presentes na cultura negra, tais como: Tecnologias e Ancestralidade; Tecnologias Digitais e Contemporâneas; Utopias, Distopias e Afrofuturismo; Tecnologias Invisibilizadas e de Resistência; e Estética, Crítica e História da Arte.

As atividades foram divididas em cinco grupos, ligados a adinkras específicos:

Nas mais de 30 unidades na capital e interior, as equipes dos Espaços de Tecnologias e Arte (ETA) fizeram curadoria ativa e abriram chamada para as atividades. É simplesmente gigantesca a programação e lembro que o Sesc possui fim social, então a maior parte das atividades é gratuita ou a preços acessíveis.  Sou curador e professor em uma atividade e participo de outra mesa:

Humanidades Digitais Negras – curso idealizado por mim, com aulas de Morena Mariah, Taís Oliveira, Larissa Pontes e Fernanda Sousa:

Descobrir, resgatar, conectar e visualizar produções históricas, narrativas, artísticas e epistemologias negras tem sido a missão de pesquisadoras e pesquisadores negros em todo o mundo. A atividade “Humanidades Digitais Negras” reunirá aulas e debates entre pesquisadoras/es das áreas da Comunicação, Mídia, Sociologia, Antropologia e Letras para apresentar o campo e suas práticas aos participantes.

Machine Learning, Algoritmos e Mecanismos de Discriminação. Idealizado pelo colega Rodolfo Avelino (Professor Insper, Pesquisador na UFABC e criador do Coletivo Digital), contará também com Fernanda Monteiro tecnóloga, artista digital, oraculista e pesquisadora independente, transitando de maneira “indisciplinar” entre a tecnopolítica, feminismos e transhumanismos; e comigo. Descrição:

Utilizados em larga escala atualmente pelos mais diversos serviços de internet e sistemas da informação, os algoritmos e máquinas orientadas por machine learning prometem uma maneira revolucionária de lidar com dados e criar serviços e plataformas dinâmicas que se adaptam facilmente aos desejos e necessidades de seus usuários. Mas o que acontece quando o desenvolvimento dessas ferramentas possui vieses ocultos, que incorporam e reforçam preconceitos ainda não solucionados em nossa sociedade?

Nem todas as atividades já tem as páginas com informações específicas e inscrições, mas você conferir toda a lista da programação. Difícil selecionar algumas em destaque, mas recomendo especialmente:

 

As ilustrações neste post foram retiradas da cartilha de programação do Sesc e foram criadas pelo Marcelo D’Salete, quadrinista autor de produções como Cumbe. O quadrinista também vai oferecer um curso – História em Quadrinhos.

Você sabe o que são data brokers? Quem te classifica e define seus escores de crédito?

Você sabe o que é um data broker? É basicamente uma empresa que coleta, armazena, processa, “enriquece” (com mais variáveis e classificações) dados e os vende para diversos fins. No campo financeiro há empresas como Serasa, Experian e afins que desenvolvem produtos para apoiar empresas de marketing e do mercado financeiro. Um deles é o Serasa Score, que define oportunidades de vida para a população brasileira, com impactos mais intensos em populações já vulnerabilizadas.

Curiosamente, o tema é pouco discutido na literatura acadêmica, inclusive a brasileira. Pensando nisto, a pesquisadora Laudelina L. Pereira desenvolveu trabalho sobre o tema em sua especialização (que pude orientar) e segue expandindo o estudo sobre tecnologias similares. Um dos resultados decorrentes desta primeira fase do estudo foi o nosso artigo Classificação Geodemográfica e a Assimetria na Dataficação de Crédito.  Resumo:

O mercado de compra e venda de dados pessoais tem papel de destaque na economia informacional. Diante do alto volume de informações pessoais, ferramentas de segmentação despertam cada vez mais interesse das organizações, já que por meio de tecnologias de big data, constroem perfis apurados da população. Para compreender as características deste tipo de classificação, analisamos a ferramenta de classificação geodemográfica Mosaic em contraposição a uma de suas aplicações na ponta do consumidor: o Score Serasa. O Mosaic classifica a população brasileira com base no seu poder de consumo em 11 categorias e 40 segmentos. Este método de categorização considera aspectos financeiros, geográficos, demográficos, de consumo, comportamento e estilo de vida. Por sua vez, o Serasa Score é ferramenta compulsória para algumas classes de cidadãos, que precisam entrar no jogo da otimização contínua de seus índices. O estudo analisa a opacidade dos sistemas e assimetrias da classificação geodemográfica.

O artigo foi publicado em dossiê sobre sociologia digital da revista Inter-Legere, da UFRN. Acesse em:

 

Teoria Racial Crítica e Comunicação Digital?

Prof. Derrick Bell

A Teoria Racial Crítica é um framework teórico-metodológico proposto inicialmente por pesquisadores do Direito para combater a aplicação racista da legislação. A Teoria Racial Crítica (TRC) transpôs as fronteiras do Direito e tem sido aplicada em diversos países afrodiaspóricos à Educação, Sociologia e outras áreas como a Comunicação, mas ainda tangencial nesta última. Entretanto, há uma geração de pesquisadores que tem provado que a perspectiva da Teoria Racial Crítica fornece lentes apropriadas para superar o que eu chamo de dupla opacidade – “o modo pelo qual os discursos hegemônicos invisibilizam tanto os aspectos sociais da tecnologia quanto os debates sobre a primazia de questões raciais nas diversas esferas da sociedade – incluindo a tecnologia, recursivamente“.

Com o objetivo de colaborar para as conexões deste framework teórico, publiquei no Intercom 2019 o artigo “Teoria Racial Crítica e Comunicação Digital: conexões contra a a dupla opacidade“. O trabalho apresenta a Teoria Racial Crítica e discute do ponto de vista da comunicação digital e de casos de racismo algorítmico seis pilares definidores da TRC:

a) a ordinariedade do racismo;

b) construção social da raça;

c) interseccionalidade e anti-essencialismo;

d) reconhecimento do conhecimento experiencial;

e) agência no combate efetivo da opressão racial;

f) e a interdisciplinaridade

 

Você pode ler o artigo completo já no ResearchGate e em breve será publicada uma versão expandida como capítulo no livro “Fluxos em redes sociais sociotécnicas: das micro-narrativas ao big data

O racismo por trás dos filtros do FaceApp e de outras tecnologias

Na última semana tive o prazer de conversar com a jornalista Beatriz Sans, do R7, sobre o caso recente da controvérsia em torno do FaceApp. A jornalista escreveu matéria muito interessante sobre o aplicativo e citou outros casos que tenho mapeados na Timeline. Você pode clicar abaixo para ver a reportagem e colo, em seguida, a íntegra das minhas respostas:

Por que o FaceApp pode ser considerado racista?

Em 2017 o FaceApp viralizou pela primeira vez e jornalistas e ativistas ingleses identificaram como o aplicativo tinha um filtro chamado “Hot”, que deixaria as selfies mais atraentes, que embranqueceu rostos de todos usuários, inclusive de usuários negros e indianos de forma aberrante.

Na pesquisa desenvolvo o conceito de “racismo algorítmico” para tratar de como sistemas e práticas racistas se manifestam em aplicativos e agentes artificiais. Em minha tese mapeio dezenas de casos explícitos como o do FaceApp, mas mais do que apontar um aplicativo ou outro, é importante entender como a desigualdade resultante de séculos de exploração, ainda vigentes, se desdobra também em tecnologias do cotidiano.

 

Quais são as preocupações que o usuário precisa ter ao usar esses aplicativos? De que forma essas imagens podem ser utilizadas no futuro? Quais são os principais problemas com o reconhecimento facial?

Eu defendo que as pessoas sejam cautelosas com procedimentos e aplicativos de processamento automático de conteúdo e inteligência artificial. Individualmente podem ter impactos negativos pontuais: no caso do FaceApp, insultos à estética e beleza não-europeia, por exemplo. Mas de modo mais amplo alguns destes aplicativos somam informações para o treinamento de sistemas de aprendizado de máquina que, posteriormente, podem ter desdobramentos nocivos.

O mais recorrente deles é o uso desses dados coletivos para sistemas de reconhecimento facial que ajudem projetos opressivos em países autoritários ou em declínio democrático. Por exemplo, nos EUA funcionários da Amazon estão protestando e tentando impedir que a empresa trabalhe para órgãos como o ICE que documenta e persegue imigrantes no país.

Outro uso em crescimento é a construção dos chamados deep fakes, que são simulações de fotografias e vídeos de pessoas que não existem ou de pessoas reais, mas em situações falsas. Podem e são usados para projetos de desinformação que se multiplicam em torno do mundo em controvérsias políticas.

Mesmo o reconhecimento facial para fins de identificação cotidiana em contextos democráticos e justos é criticado em torno do mundo. Muitos juristas e ativistas defendem que o uso de reconhecimento facial como tecnologia biométrica não deveria ser disseminado. Mas, ao contrário, já está sendo usado por polícias de todo o mundo – e de forma desastrosa.

Em estudo recente, se descobriu que 81% dos casos de reconhecimento de suspeitos na região de Londres foram errados. No Brasil algumas cidades estão usando o recurso e já há casos de erros documentados no Rio de Janeiro. Estas tecnologias não deveriam ser implementadas sem amplo debate com a sociedade e organizações de direitos civis.

 

Como o racismo algorítmico impacta em outras áreas da tecnologia?

Há casos documentados não só na comunicação e em plataformas de mídias sociais, mas em diversas áreas. Diversos sistemas de inteligência artificial para recrutamento já foram analisados como falhos neste sentido e um dos casos recentes mais chocantes foi da inovação na indústria automotiva.  Pesquisadores da George Institute of Technology mostraram que alguns sistemas de visão computacional usados em carros autônomos em desenvolvimento identificariam pedestres negros com menos precisão. Ou seja, literalmente teriam mais chance de ser atropelados se estes carros já estivessem circulando.

 

Como as empresas de tecnologia colaboram para a continuação do racismo?

Há três modos principais que são parte causa e parte consequência. O mais simples é no próprio viés de contratação de desenvolvedores, engenheiros e gerentes de produto em empresas de tecnologia de mídias sociais e/ou inteligência artificial. Dados do relatório EEO-1 Comissão Governamental de Igualdade no Emprego dos EUA mostram que os profissionais do Vale do Silício não representam a multiplicidade da população americana. Isto tem impactos nas plataformas e dispositivos pois, em consequência, abarcarão menos a diversidade de usos e usuários.

O segundo é a questão da omissão, em parte, resultante do primeiro motivo. Boa parte das manifestações de racismo algorítmico documentadas nos últimos anos se tratou de sistemas que intensificam procedimentos racistas por terem sido treinados com bases de dados criadas por sistemas enviesados, com pouca representatividade racial e cultural. Mas a omissão também é um problema relevante, uma vez que nem sequer foram testados corretamente antes de ir ao ar alguns sistemas problemáticos.

Por fim, um grande desafio é que o próprio modelo de negócio dessas empresas promove a ideia de que “tecnologias são neutras” quando não o são. Nos EUA há trabalhos fantásticos de auditoria e análise dessas plataformas por pesquisadoras de universidade de ponta, como Joy Buolamwini, Safiya Noble e Ruha Benjamim. Entretanto, criar sistemas efetivamente justos gera mais custos – então as plataformas defendem que são “apenas tecnologia” e não sistemas de mídia, com responsabilidade constitucional como tais.

 

Quais medidas podem ser tomadas para que as minorias não sofram com o racismo algorítmico?

A primeira medida, e mais importante, é compreender que a concentração midiática em poucas plataformas, sobretudo de empresas de tecnologia advindas dos países de sempre, não é positiva. Uma internet plural e diversa em tecnologias, sites e ambientes remedia os potenciais nocivos dessa concentração atual.

Além disso, tecnologias e ambientes digitais do tipo devem ser regulados pela sociedade, através de representantes em instituições civis, casas legislativas e órgãos governamentais. Sociedades saudáveis e democráticas olham para a inovação e tecnologia de forma responsável, buscando o bem comum.

Por fim, a ideia de “literacia midiática e algorítmica” busca promover o conhecimento sobre como mídias e tecnologias são consumidas e produzidas. Idealmente toda a sociedade deveria entender e poder analisar as tecnologias de uma forma crítica, não apenas pesquisadores acadêmicos e jornalistas especializados. Para democracias saudáveis no futuro, é indispensável que este tipo de reflexão esteja inclusa também no ensino básico.

 

Você pode citar outros exemplos de racismo algorítmico?

Gostaria de destacar dois deles. Em 2016, grupos americanos descobriram que o Facebook possui uma opção que permite excluir afro-americanos e asiático-americanos de anúncios em sua plataforma, inclusive pra categorias como habitação. Ao mesmo tempo, não permitia excluir caucasianos. O mais grave é que infringia claramente o chamado Fair Housing Act, criado nos anos 1960 para evitar discriminação racial na compra, aluguel e venda de imóveis nos EUA. O recurso ilegal ficou anos no ar, prejudicando a equidade no mercado imobiliário.

Talvez o caso mais famoso e grave, da área da justiça, foi o do COMPAS. O sistema tem um recurso de análise de probabilidade de reincidência que dá um escore de possibilidade preditiva de ex-infratores cometerem novos delitos. Foi descoberto que as recomendações eram enviesadas negativamente contra negros e suavizavam contra brancos. Ou seja, o COMPAS destruiu famílias ao encarcerar por mais tempo injustamente pessoas que cometeram pequenos delitos (como furto) simplesmente por serem negras.

 

Há alguma forma segura para pessoas negras e outras minorias que desejam participar das redes sociais e outros apps sem que sua privacidade seja violada?

No atual ecossistema midiático extremamente concentrado a resposta pode ser um simples “não”. Ou ao menos não com nomes, imagens e identidades reais. Mas ainda mais importante do que preservar a privacidade nestes ambientes, precisamos incentivar o uso múltiplo da internet. Websites pessoais, blogs, fóruns alternativos, wikis e sites de redes sociais locais e segmentados podem ajudar a reduzir a dependência das mesmas velhas mídias sociais.