quarta-feira, dezembro 6, 2023
In√≠cio ¬Ľ SP: c√Ęmeras v√£o guardar dados de localiza√ß√£o e reconhecimento facial

SP: c√Ęmeras v√£o guardar dados de localiza√ß√£o e reconhecimento facial

Preg√£o eletr√īnico para contrato dos servi√ßos foi marcado para dia 23

por Ricardo Souza
0 Coment√°rio

O sistema de 20 mil c√Ęmeras que a prefeitura de S√£o Paulo pretende implantar – programa Smart Sampa – far√° o armazenamento das informa√ß√Ķes do sistema de reconhecimento facial em cruzamento com a localiza√ß√£o da pessoa. Com isso, ser√° poss√≠vel saber se algu√©m esteve em um determinado ponto da cidade e em qual hor√°rio.

Os dados ficar√£o guardados em um sistema que tamb√©m faz parte dos servi√ßos que devem ser contratados no preg√£o eletr√īnico marcado para a pr√≥xima ter√ßa-feira (23). A instala√ß√£o da plataforma e dos novos equipamentos ter√° in√≠cio ap√≥s a assinatura do contrato com a empresa vencedora

Em agosto de 2022, a prefeitura lan√ßou uma consulta p√ļblica sobre o sistema. A previs√£o anunciada na ocasi√£o era de que a implanta√ß√£o do sistema custaria cera de R$ 70 milh√Ķes por ano. Por√©m, em resposta ao Tribunal de Contas do Munic√≠pio, a Secretaria Municipal de Seguran√ßa Urbana apresentou a estimativa, baseada em tr√™s or√ßamentos, de um gasto de R$ 704,6 milh√Ķes em cinco anos – o dobro do valor apresentado no ano passado. A concorr√™ncia vai priorizar as propostas que tiverem menor pre√ßo.

Das 20 mil c√Ęmeras que devem ser instaladas na cidade, 1,5 mil devem ser colocadas no per√≠metro do projeto de interven√ß√£o urbana do setor central, segundo a prefeitura,. A √°rea abrange especialmente o centro hist√≥rico, nos bairros da S√© e da Rep√ļblica, mas tamb√©m a regi√£o expandida dos distritos do Br√°s, Bel√©m, Pari, Bom Retiro e Santa Cec√≠lia. Atualmente, a prefeitura tem, por meio da Companhia de Engenharia de Tr√°fego, 427 c√Ęmeras em toda a cidade.

Reconhecimento facial

O TCM havia suspendido o edital em dezembro do ano passado ap√≥s receber seis representa√ß√Ķes em rela√ß√£o a concorr√™ncia. A licita√ß√£o foi liberada no final de abril, ap√≥s a prefeitura apresentar resposta a 35 pontos levantados durante a an√°lise. Entretanto, segundo nota do tribunal, ‚Äúdurante os votos, os conselheiros demonstraram preocupa√ß√£o com o uso de algoritmos de intelig√™ncia artificial para reconhecimento facial, especialmente no que diz respeito √† preserva√ß√£o dos direitos e liberdades individuais previstos na Constitui√ß√£o Federal‚ÄĚ.

Na nova vers√£o do edital, um dos itens determina que a empresa dever√° apresentar um relat√≥rio de como reduzir os riscos em rela√ß√£o a an√°lise dos dados coletados pelo sistema. Na matriz de riscos, anexa ao texto do preg√£o, √© apontada a ‚Äúalta probabilidade‚ÄĚ de acesso n√£o autorizado a dados pessoais.

De acordo com o documento, as medidas para conter esses riscos devem seguir as defini√ß√Ķes da Lei Geral de Prote√ß√£o de Dados. O texto lembra ainda que ‚ÄúBrasil √© um alvo constante de ataques cibern√©ticos‚ÄĚ que podem levar a exposi√ß√£o das informa√ß√Ķes contidas no sistema.

As informa√ß√Ķes de reconhecimento facial que, de acordo com o edital, v√£o permitir identificar pessoas mesmo com o uso de barba, √≥culos ou diferentes cortes de cabelo, ser√£o usadas para localizar foragidos da Justi√ßa, em cruzamento de informa√ß√Ķes com outros √≥rg√£os, com o Secretaria de Estado da Seguran√ßa P√ļblica de S√£o Paulo. Pessoas consideradas suspeitas tamb√©m poder√£o ser rastreadas pelas c√Ęmeras.

O TCM tamb√©m questionou a prefeitura sobre os riscos da tecnologia violar os direitos de cidad√£os, especialmente pessoas negras. A primeira vers√£o do texto divulgado pela administra√ß√£o municipal dizia que o monitoramento seria feito a partir de caracter√≠sticas como ‚Äúcor, face, roupas, forma do corpo/aspecto f√≠sico‚ÄĚ. Na atual, o edital diz que ser√£o usadas informa√ß√Ķes como ‚Äúcor predominante das roupas, forma do corpo/aspecto f√≠sico e outras caracter√≠sticas‚ÄĚ.

O edital aponta ainda como risco de ‚Äúprobabilidade alta‚ÄĚ falhas na tecnologia de reconhecimento facial que podem levar a identifica√ß√£o errada de pessoas. Para reduzir esses problemas, o documento apresenta as recomenda√ß√Ķes de que sejam feitos testes regulares da intelig√™ncia artificial e treinamento para melhorar a precis√£o do sistema. Al√©m disso, a empresa dever√° ter pol√≠ticas e procedimentos claros para lidar com casos desse tipo.

Risco de discriminação

A vereadora Silvia da Bancada Feminista (PSOL) entrou com uma a√ß√£o civil p√ļblica pedindo a suspens√£o do edital Smart Sampa afirmando que h√° risco de discrimina√ß√£o com uso da tecnologia de reconhecimento facial. ‚ÄúNo Brasil, nas localidades em que essa tecnologia j√° foi testada, a apurou se que 90,5% das pessoas presas por meio da tecnologia do reconhecimento facial, eram negras‚ÄĚ, afirma o texto que pede uma decis√£o liminar da Justi√ßa de S√£o Paulo contra o sistema.

No embasamento da a√ß√£o, o mandato destaca ainda que mesmo no relat√≥rio do TCM que analisou o edital parece haver pouca preocupa√ß√£o com o tema. ‚ÄúN√£o h√° em todo o relat√≥rio sequer a men√ß√£o a palavra ra√ßa, e qualquer derivado do radical discrimina√ß√£o aparece somente uma vez, totalmente en passant‚ÄĚ, acrescentou.

Em janeiro, o promotor estadual Reynaldo Mapelli Junior instaurou inquérito para apurar o risco de discriminação com uso da tecnologia, especialmente a pessoas em situação de rua.

Em um estudo lançado em 2018, as pesquisadoras Joy Buolamwini, do Instituto de Tecnologia do Massachusetts (MIT), e Timnit Gebru, à época na Microsoft, identificaram que as tecnologias de reconhecimento facial chegavam a ter um índice de erro de 34,7% ao tentar identificar mulheres de pele escura. Entre os homens de pele clara, o percentual, segundo o estudo, era de 0,8%.

Em julho de 2019, uma mulher foi detida por engano na cidade do Rio de Janeiro ao ser identificada pela tecnologia de reconhecimento facial como foragida da Justi√ßa. O caso √© mencionado no relat√≥rio ‚ÄúMais c√Ęmeras, mais seguran√ßa?‚ÄĚ, lan√ßado pelo Instituto Igarap√© em 2020, analisando as experi√™ncias de uso de c√Ęmeras associadas a intelig√™ncia artificial em Salvador (BA), Campinas (SP) e no Rio de Janeiro.

O estudo alerta para os riscos das identifica√ß√Ķes erradas, caso a programa√ß√£o n√£o seja feita a partir de uma base de dados diversa de rostos, e de vazamento de dados pessoais. ‚ÄúA possibilidade de pris√Ķes e/ou deten√ß√Ķes injustas e de perpetua√ß√£o de pr√°ticas discriminat√≥rias √© um risco real e iminente‚ÄĚ, enfatiza a pesquisa.

Fonte: Agência Brasil.

você pode gostar

Deixe um coment√°rio

Portal de Notícias 

Saiu no DF, Saiu aqui.

Escolhas dos editores

Artigos Mais Recentes