5º Seminário Internacional sobre Análise de Dados na Administração Pública

 

O Evento

A quinta edição do Seminário Internacional sobre Análise de Dados na Administração Pública ocorrerá em Brasília nos dias 16 a 18 de setembro de 2019. O Seminário tem por objetivo promover o compartilhamento de experiências e boas práticas relacionadas ao uso de técnicas de análise e mineração de dados, enquanto instrumento para melhoria da gestão e do controle de entidades e políticas públicas. O evento é organizado conjuntamente pelo TCU, CGU e ENAP. 

Chamada de trabalhos

A chamada de trabalho estará aberta até às 14h de 19 de agosto, para submissão de propostas de oficinas  e/ou de palestras. Ela busca identificar palestrantes de instituições de controle, de entidades da administração direta e indireta, bem como do meio acadêmico e do terceiro setor, para apresentar casos práticos e respectivos resultados, envolvendo a análise de dados da Administração Pública nas três esferas.

Neste ano, os principais eixos temáticos na formação nos painéis serão:

- Processamento de linguagem natural (Natural language processing - NLP);

- Geoprocessamento e geotecnologias; e

- Aplicações de Inteligência Artificial na atuação do Estado.

Continuam sendo de interesse do Seminário quaisquer trabalhos que se enquadrem no amplo leque temático de análise de dados da Administração Pública. Exemplos de tópicos de interesse:

- Detecção de padrões e relacionamentos úteis à formulação ou execução de políticas públicas;

- Detecção de anomalias, abusos ou fraudes na arrecadação ou no gasto de recursos públicos;

- Priorização, por critérios de risco, urgência ou importância, de casos para auditoria, análise ou investigação pelo poder público;

- Otimização de processos repetitivos, como atendimento a demandas, triagem de denúncias ou confecção de peças processuais;

- Mineração de textos e outras fontes de dados não estruturados, para geração de insumos para processos de análise;

- Utilização de Sistemas de Informação Georreferenciadas (SIG) no planejamento, implementação, execução e monitoramento das políticas públicas;

- Utilização de geoprocessamento com a finalidade de descoberta e interpretação de informações relevantes para o controle ao longo de diversos períodos (espaço-tempo);

- Utilização de imagens de satélite e sensoriamento remoto como ferramentas para o monitoramento das políticas públicas ou situações de interesse público, por exemplo, na área ambiental, agrícola, de defesa ou de infraestrutura;

- Apoio à tomada de decisão em políticas públicas baseada no uso de visão computacional ou no processamento de imagens;

- Monitoramento ambiental e de risco de desastres por meio de sensoriamento remoto;

- Análise de redes (network analysis); e

- Análise de séries temporais. 

Observações importantes:  

  -  a apresentação deverá abordar, no mínimo, a motivação do uso de análise de dados, as técnicas e ferramentas utilizadas e os resultados atingidos (ou esperados, no caso de trabalhos ainda em curso);

  -  não serão aceitos trabalhos ou propostas de oficina que tenham como único objetivo a comparação entre ferramentas ou a divulgação de ferramentas específicas, gratuitas ou comerciais;

  -  não há exigência de que o trabalho tenha sido descrito em artigo científico ou realizado com rigor acadêmico, visto que o foco será no compartilhamento de experiências práticas;

  -  serão aceitos trabalhos realizados por entidades públicas, universidades, organizações do terceiro setor ou pessoas físicas independentes, desde que tenham sido utilizados dados do setor público para alcance de resultados de interesse público; e

  -  o evento será realizado em Brasília, sendo que os eventuais custos de deslocamento, alimentação e hospedagem ficarão a cargo dos palestrantes ou de seus órgãos de origem.

Cada trabalho deve ser submetido de forma independente na plataforma, informando, pelo menos:

  -  tipo de proposta: apresentação (20 minutos, no plenário) ou ação educacional prática (tutorial ou oficina, com duração entre 2 a 4 horas em sala de aula ou laboratório);

  -  título da apresentação/oficina;

  -  foco principal da apresentação: se técnico, para facilitar a realização de trabalhos semelhantes por analistas e cientistas de dados, ou gerencial, para demonstrar a gestores públicos os resultados potencializados pela análise de dados;

  -  fase do trabalho apresentado: estudo de caso com resultados práticos; trabalho ou projeto em andamento ou proposta em estudo para implementação;

  -  descrição da apresentação (em até 2000 caracteres sem espaço). Se possível, descreva os impactos vislumbrados ou que de fato foram alcançados pela proposta, estudo, trabalho ou projeto a ser apresentado;

  -  detalhes técnicos: métodos estatísticos ou modelos de aprendizagem utilizados; softwares e linguagens de programação utilizados;

  -  em se tratando de oficina, descreva: uma breve ementa, detalhando o conteúdo que pretende apresentar, duração necessária para a oficina, entre 2 a 4 horas;

  -  nome completo, instituição, dados para contato e mini-currículo (destacando sua experiência acadêmica e/ou profissional no tópico apresentado): essas informações devem estar presentes apenas na seção "Mais informações" visível unicamente pela organização do evento; as votações na plataforma serão realizadas de forma anônima

Seleção dos trabalhos

A seleção das propostas será realizada por júri composto por representantes dos órgãos patrocinadores, considerando: votação da proposta na plataforma Speakerfight; impacto esperado do trabalho; originalidade; replicabilidade; e pertinência temática às áreas do Seminário.


Este evento está em modo de Votação Anônima, todos os palestrantes estão escondidos para votação, você deve basear seu voto apenas no conteúdo das propostas..
Este evento não aceita mais propostas.

Propostas

A análise de banco de dados de boletins de ocorrências para a identificação de locais de acumulação de acidentes de trânsito nas rodovias federais do Brasil.

O estudo explorou a possibilidade de utilização de locais de acumulação de acidentes de trânsito como norteadores para a formulação e monitoramento de políticas de redução de acidentes de trânsito nas rodovias federais. Para alcançar seus objetivos, foi empregado um modelo de identificação de locais de acumulação de acidentes elaborado pelo CEFTRU/UnB, com a proposição de níveis de criticidade para os locais críticos de acidentes, a apartir da análise do banco de dados de ocorrências registradas pela Polícia Rodoviária Federal (PRF). Os resultados relativos ao ano de 2018 sugerem que 2,85% dos quilômetros de rodovias federais são responsáveis por 37,90% dos acidentes de trânsito e que quanto maior o nível de criticidade do local de acumulação, maior sua participação no total de acidentes. Em suas conclusões, o estudo propõe que a utilização de técnicas de identificação de locais de acumulação de acidentes pode ser útil para a formulação e monitoramento de políticas de redução de acidentes de trânsito, visto que indica onde a ação governamental é mais necessária, otimizando o uso de recursos humanos e financeiros.  


 - Tipo de proposta: apresentação (20 minutos, no plenário)


 - Foco principal da apresentação: gerencial, para demonstrar a gestores públicos os resultados potencializados pela análise de dados;


 - Fase do trabalho apresentado: estudo de caso com resultados práticos; 


 - Detalhes técnicos: Para o estudo, foi realizada uma adaptação ao modelo de identificação de locais de acumulação de acidetnes do CFTRU/UnB e a análise dos dados foi realizada pelo software estatístico R.


 

Use os botões abaixo para votar:

Alvará Eletrônico - Integração entre o Tribunal de Justiça do Estado do Amazonas e Caixa Econômica Federal para pagamento eletrônico dos alvarás judiciais

O Tribunal de Justiça do Estado do Amazonas vem modernizando-se constantemente na busca por realizar Justiça com acessibilidade e de forma igualitária à sociedade, e ser reconhecido pela sociedade como uma instituição que promove a justiça com imparcialidade, de forma célere e com equidade. Na busca por estes valores o Tribunal de Justiça do Estado do Amazonas (TJAM) vem investindo em capacitação e em novas tecnologias que integradas geram resultados eficientes e que ajudam o TJAM na busca pela excelência.


A Integração eletrônica entre o Tribunal de Justiça do Estado do Amazonas e Caixa Econômica Federal para acolhimento e movimentação de Alvarás eliminará a obrigatoriedade de recebimento dos alvarás somente no posto de atendimento do Fórum Henoch Reis, bem como permitirá a melhoria no atendimento aos beneficiários, tendo em vista a rapidez e integridade das informações.


 


Sem a solução



  1. O advogado ou parte beneficiária desloca-se até a Vara onde se encontra o processo, que estão espalhadas pela cidade;

  2. Segue até o posto de atendimento do Fórum Henoch Reis (único local que recebe os alvarás) e enfrenta duas filas;

  3. A primeira fila é para validar o Alvará: Eles verificam dados do alvará com os documentos do beneficiário, e se algum dados estiver errado, ele deve voltar para o passo 1;

  4. A segunda fila é para receber o alvará. Algumas pessoas utilizam esse etapa para pagar contas, o que ocasioa uma fila aida maior.


Obs: O caos fica formado no posto de atendimento pois é o único local onde o alvará pode ser validado/sacado.


 


Com a solução



  1. Basta informar o dados bancários no processo.

  2. Em menos de 1 minuto o Alvará Eletrônico é gerado pela Vara responsável

  3. Em até 3 dias úteis o beneficiário recebe o valor na sua conta


Obs: Com a implatanação do Alvará Eletrônico, todos ganham: A vara não precisa mais realizar atendimentos no balcão para geração dos alvarás, podendo dedicar mais tempo para outros assuntos e os beneficiários não necessitam mais fazer todo o deslocamento e perder 1 dia interiro para Imprimir/validar e Receber o Alvará Judicial.


 


Dados Estatisticos após a implatação


No momento:


40% das varas da capital utilizam o sistema

25% das varas do interior utilizam o sistema

Quantidade de Alvarás:


27.913 Cadastrados

27.545 Enviados

24.719 Cumpridos

 

Com esses dados temos um Total de  R$186,667,413.90  recebidos pelos beneficiários desde agosto de 2017

 

Os serviços componentes da macro-funcionalidades de manutenção de alvarás de levantamento que serão disponibilizados na primeira versão são:


  1. Gravar alvará para pagamento ao beneficiário;

  2. Cancelamento de Alvará;

  3. Devolução de Alvará;

  4. Prestação de contas de Alvarás Movimentados.


 


A meta atual consiste em implantar em todas as unidades jurisdicionais de primeiro grau do estado do Amazonas.


 


Equipe:


José Maria Drumond de Vasconcelos Dias Filho


Maurício Carvalho Marinho


Ricardo dos Santos Câmara


Thiago Facundo de Magalhães Franco


 

Use os botões abaixo para votar:

Análise da Eficiência da Arrecadação do Imposto Sobre Serviços de Qualquer Natureza (ISS) dos municípios brasileiros

Tipo de Proposta: Apresentação.


O trabalho possui como objetivo principal identificar o potencial de arrecadação de ISS pelos municípios brasileiros.


O potencial de arrecadação foi determinado através do cálculo da eficiência relativa por meio da Análise Envoltória de Dados (DEA), que, além da eficiência, apresenta municípios que servem de paradigma para aqueles que não são eficientes.


Considerando que o art. 11 da Lei de Responsabilidade Fiscal – LRF define que a efetiva arrecadação dos tributos constitui requisito essencial da responsabilidade na gestão fiscal, mas que, em média, menos de 6% da renda dos municípios é proveniente de tributos próprios, faz-se necessário que as gestões municipais e os órgãos de controle dediquem mais atenção ao tema.


Assim, o resultado apresentado poderá ser utilizado:



  • Pelos Tribunais de Contas para definir prioridades em auditorias;

  • Pelas gestões municipais, identificando o seu desempenho relativo e qual município deve considerar como paradigma, podendo, assim, identificar boas práticas para melhorar a sua arrecadação.

  • Pelos governos estaduais e federal, que poderão utilizar o resultado para direcionar suas transferências voluntárias.


O trabalho ainda se encontra em desenvolvimento, contudo, considerando o baixo nível de arrecadação própria pelos municípios, espera-se encontrar um elevado potencial de incremento na arrecadação de ISS.


No desenvolvimento do projeto está sendo utilizado o SAS (SAS Enterprise Guide e Visual Analytics on Viya) e linguagem R. Entretanto, as técnicas utilizadas estão disponíveis em diversos softwares e podem ser adaptadas com facilidade.

Use os botões abaixo para votar:

Análise de risco em licitações e contratos: seleção de casos a partir de construção flexível de trilhas de auditoria

Será apresentada ferramenta que possibilita a construção flexível e dinâmica de estruturas de dados, regras de recepção e pontos de controle para obtenção e análise dos dados enviados pelos jurisdicionados do Tribunal de Contas. A partir do recebimento dos dados, um outro contexto que compõe a solução faz a análise, em tempo real, dos dados recebidos, gerando um índice de risco. Essa análise é feita através de busca em base de dados do próprio Tribunal, além da consulta à base externas através do consumo de web services.


A construção dessas estruturas se dá a partir do uso de funcionalidades da ferramenta que possui interface amigável, não exigindo conhecimento técnico em desenvolvimento de sistemas para tal. Assim sendo, as áreas de negócio tornam-se mais independentes da área de TI da organização. Além da criação da própria estrutura de dados, a criação de regras ocorre diretamente na ferramenta.


A criação dessas estruturas gera automaticamente endpoints para o recebimento de dados daqueles que devem submetê-los, possibilitando a integração de soluções para a transferência transparente de dados. Além disso, a documentação também é disponibilizada automaticamente. 


Como exemplo, temos um teste cronometrado, em que a criação de uma estrutura de dados que continha 3 campos, aplicando regras que validava o tipo de dado, a obrigatoriedade, exigia o formato data para um campo, fixava intervalo de valores aceitos, entre outras regras, levou menos de 3 minutos e 30 segundos. Cabe reforçar que juntamente com a criação da estrutura de dados, já é disponibilizado toda a documentação e o canal de comunicação (endpoint REST) que possibilita integração. Além disso, a permissão de acesso aos endpoints já é controlada, desde a criação da estrutura de dados, pelo sistema de gestão de perfis de agentes dos municípios.


Depois disso, os dados são carregados em bases de dados não relacional (Elastic Search) de onde servem de insumo para o processamento das regras submetidas às próximas entregas e também constituem a base de geração de dashboards com informações gerenciais oferecidas às áreas de negócio. 


 


Foco principal da apresentação: 


Técnico para facilitar a realização de trabalhos semelhantes por analistas.


 


Fase do trabalho apresentado:


Trabalho em andamento gerando resultados.


 


Detalhes técnicos


O conjunto de sistemas que compõem a plataforma Colare utilizou arquitetura de microsserviços em Restful para comunicação entre os sistemas e disponibilização de serviços. No desenvolvimento foi utilizado as seguintes tecnologias:



  • Plataforma Java

  • Linguagem de programação Groovy/Java

  • Spring Boot e Wildfly Swarm

  • Angular 2+ e JSF

  • Elasticsearch e SQLServer

  • Docker

Use os botões abaixo para votar:

Análise de Vínculos para Detecção de Fraudes - Parceria Institucional

Análise de Vínculos para Detecção de Fraudes - Parceria Interinstitucional


 


A análise de vínculos é uma ferramenta de investigação fundamental em casos complexos, que por vezes envolvem grande número de pessoas, inclusive interpostas.


A utilização de estruturas societárias complexas também pode dificultar a identificação dos envolvidos em fraudes.


Foi desenvolvida uma ferramenta para identificação de vínculos entre pessoas utilizando interface web e banco de dados de grafo para permitir pesquisas em grandes bases em tempo real e auxiliar o planejamento da fiscalização.


Essa ferramenta permite visualizar de forma simples as relações entre órgãos, servidores, fornecedores, sócios e alguns familiares próximos. Dessa forma, é possível identificar, por exemplo: servidores publicos que atuam como sócio de empresas fornecedoras para o próprio órgão, fornecedores de uma OS cujos sócios possuem alguma relação de parentesco próxima com os dirigentes da própria OS, etc.


Criou-se também uma aplicação em Javascript e PHP para consulta direta em diversos bancos de dados para o retorno de consultas imediatas de informações de pessoas físicas e jurídicas.


Desenvolvida inicialmente  para utilização em investigações de cartéis e fraudes em licitações, o projeto foi replicado e ampliado em ouro órgão, que agregou novas bases de referência para identificação de vínculos entre CPF’s e CNPJ’s.


Usualmente há complementaridades nas perspectivas de atuação dos órgão de persecução e controle, daí a importância de compartilhar conhecimento e desenvolver parcerias entre os órgãos da Administração Pública.


 


Foco principal da apresentação: 
Técnico e gerencial
 
Fase do trabalho apresentado:
Ferramenta em produção 


Detalhes técnicos
Neo4J, Python e suas bibliotecas, Elasticsearch, SQLServer, Javascript e PHP.


 

Use os botões abaixo para votar:

Análise e Previsão da Evasão no Ensino Superior: Uma Visão de Futuro

A evasão de alunos nos cursos de graduação tem sido um dos problemas relevantes para a gestão acadêmica e financeira das Instituições de Ensino Superior, pois cada vez mais são investidos recursos escassos na atração e captação de alunos e os resultados têm sido influenciados negativamente com taxas elevadas de evasão. 


Nesse contexto, a Universidade Federal de Santa Maria (UFSM) apresenta uma abordagem para a previsão da evasão em cursos de graduação por meio de técnicas de aprendizagem de máquina. A ideia é ter a intuição do futuro pela análise comportamental dos alunos e determinar, não somente os fatores que contribuem para a evasão, mas também prever os prováveis alunos que possuem alto risco de abandono. Assim, uma análise profunda de atributos dos alunos, considerando informações pessoais, acadêmicas, sócio econômicas, é realizada. Essas informações são combinadas com a finalidade de criar um modelo preditivo da evasão. A abordagem não utiliza somente um modelo de previsão, mas faz uma combinação de modelos de previsão para otimizar o resultado de possíveis abandonos. Essa visão holística, na qual os modelos são combinados em um todo único e integrado, permite um resultado mais abrangente e preciso. Os experimentos demonstraram que a abordagem é apropriada para prever a evasão nos cursos de graduação. As métricas alcançaram 95% na previsão das classes envolvidas (aluno regular e aluno evadido) e uma taxa de sucesso em 76,47% na previsão dos alunos que abandonaram o curso. Além da previsão, atualmente existem painéis de acompanhamento pelos gestores de educação assim como, um app que pode ser utilizado pelos coordenadores de curso para acompanhar o desenvolvimento do aluno no decorrer do curso.


Com os resultados da previsão os gestores têm um conjunto de ações que podem mitigar o processo de abandono. Os alunos previstos com risco e suas características servem de insumo para essas ações de mitigação e prevenção e esse processo se repete de maneira contínua em um processo de retroalimentação de informações produzindo um círculo virtuoso de redução da evasão. A abordagem pode ser integrada como solução de iniciativa de transformação digital no governo eletrônico por meio de um ambiente de colaboração e intercâmbio entre instituições de todo o país.

Use os botões abaixo para votar:

Analise preditiva de bilheteria de cinema baseada na análise de roteiro do filme( Word Embeddings-FASTTEXT,GLOVE,WORD2VEC, Nlp)

Tipo de proposta: apresentação (20 minutos, no plenário).
Foco principal da apresentação: Gerencial.
Fase do trabalho apresentado: estudo de caso com resultados práticos.


Detalhes técnicos: Projeto desenvolvido em Python, com uso de bibliotecas como Pandas, numpy, Gensim,Keras,Scikit-learn entre outras.


Título da Apresentação:Movie’s box office performance prediction - An approach based on movie’s script, text mining and deep learning.


Descrição:Analise preditiva de bilheteria de cinema


Trata-se de um projeto de mestrado(pendente de apresentação para a BANCA) cujo objetivo é a predição do faturamento bruto e da bilheteria de um filme, baseado apenas no processamento do roteiro de um filme.


A capacidade de prever a bilheteria de filmes tem sido atividade de grande interesse para investigadores. Entretanto, parcela significativa destes estudos concentra-se no uso de variáveis disponíveis apenas nos estágios de produção e pós-produção de filmes. O objetivo deste trabalho é desenvolver um modelo preditivo de bilheteria baseando-se apenas em informações dos roteiros dos filmes, por meio do uso de técnicas de processamento de linguagem natural (PLN), mineração de texto e de redes neuronais profundas. Essa abordagem visa otimizar a tomada de decisão de investidores em uma fase ainda inicial dos projetos.


O projeto compreende a extração automatizada de roteiros na WEB, transformação dos roteiros por meio da utilização de WORD EMBEDDINGS e predição da bilheteria e faturamento bruto, utilizando algoritmos de classificacao em Python.


O trabalho ainda não foi apresentado à banca, mas os resultados já foram obtidos. Tendo sido possível atingir um nível de precisão de 80%(SVM), com EMBEDDINGS dos roteiros obtidos com o modelo FASTTEXT, em tarefa de classificação binária no contexto de NLP. O tempo de execução médio do algoritmo é de cerca de 30s.


Os principais objetivos do projeto são:


Desenvolve um modelo de classificação que possa prever a performance de um filme no mercado de cinema, auxiliando no aperfeiçoamento do processo de seleção de projetos na administração pública.


Reduzir o tempo utilizado para a análise de projetos por meio da automação de parte do processo.


Reduzir os custos com a contratação de profissionais na análise de roteiros de filme.


Aumentar a transparência do processo seletivo de instituições publicas de financiamento de projeto, publicando automaticamente os resultados da avaliação de cada roteiro submetido à análise.


Servir como paradigma para instituições públicas, expandindo a utilização de algoritmos de aprendizagem de máquina para entregar serviços mais ágeis e eficientes aos cidadãos.


 

Use os botões abaixo para votar:

Análise sobre as Resoluções da Anatel

A Agência Nacional de Telecomunicações (Anatel) disponibilizou no seu Portal o "Relatório Técnico – Análise sobre as Resoluções da Anatel". O estudo, que apresenta uma análise da evolução histórica do conjunto normativo da Agência, identifica as Resoluções por signatário no documento expedido pelo Conselho Diretor, órgão máximo da instituição.


O Relatório Técnico apresenta quais assuntos a Agência vem regulando ao longo dos anos, assim como as alterações nas regulamentações e o interesse da sociedade. É possível analisar o perfil de atuação de cada formação do Conselho da Anatel sob diferentes presidências, bem como os temas de interesse dessa formação durante o mandato de seu presidente.


Foram utilizadas técnicas de Processamento de Linguagem Natural para identificar padrões nas resoluções, relacionamentos entre as resoluções, relacionamentos entre as diversas gerências da Anatel e as resoluções.


As resoluções também foram agrupadas em temas e subtemas.


O estudo encontra-se disponível em Análise de Resoluções da Anatel


Esse trabalho foi realizado pela Assessoria Técnica da Anatel, formada pelos seguintes servidores:


Humberto Bruno Pontes Silva | Chefe da ATC


Daniel da Silva Oliveira


Paulo Rodrigo de Moura


Pedro Borges Griese


Renato Couto Rampaso


Sérgio Augusto Costa Macedo


 


Os seguintes servidores da Anatel contribuíram para a elaboração do estudo:


Nei Jobson da Costa Carneiro - SGI


Gleuton Lucio de Sousa – SGI


Thiago Pereira de Brito Vieira - SGI


Felipe Roberto de Lima – SPR

Use os botões abaixo para votar:

A OUVIDORIA À LUZ DA ANÁLISE DE CONTEÚDO

Vistas como um instrumento de participação social, as ouvidorias públicas possuem a distinta função de aproximar os cidadãos das instituições. Com o objetivo de aprimorar o processo de resolução de problemas e dos pedidos de informação, neste estudo foram aplicadas técnicas estatísticas nos termos linguísticos de uma base textual de solicitações remetidas à ouvidoria. Utilizando a metodologia de Análise de Conteúdo e com o auxílio do programa Iramuteq, foi proposta uma tipologia personalizada para a classificação das demandas recebidas pelas ouvidorias por meio das técnicas de Classificação Hierárquica Descendente e de Análise Fatorial por Correspondência. Espera-se que a nova proposta sirva para o fortalecimento da relação cidadão-instituição ao adequar os trabalhos realizados pelas ouvidorias às necessidades do seu público demandante, além de estimular a replicação da metodologia em outras organizações, sejam elas públicas ou privadas.

Use os botões abaixo para votar:

Aplicação de text mining e machine learning como mecanismo de avaliação de ações e políticas públicas em redes sociais

Tipo de proposta: apresentação.


Título da apresentação: Aplicação de text mining e machine learning como mecanismo de avaliação de ações e políticas públicas em redes sociais


Fase do trabalho: estudo de caso com resultados práticos.


Descrição:


O desenvolvimento de políticas públicas eficazes, que permitam a resolução de problemas nos mais diversos seguimentos sociais e o cumprimento dos direitos assegurados constitucionalmente é algo que recebe continuamente um grande esforço por parte da administração pública. Neste sentido, o desenvolvimento de indicadores que permitam a avaliação dos impactos de tais políticas em face dos benefícios proporcionados é fundamental tanto no que se refere à medição de sucesso, quanto como uma ferramenta de realimentação e levantamento de demandas. Embora existam diversos canais e programas de comunicação entre a administração pública e sociedade, o envolvimento cidadão ainda é um desafio a ser superado. Por outro lado, é notável a difusão e acesso às tecnologias de informação e comunicação. De acordo com dados disponibilizados pelo Cetic.br, em 2017, 92% dos domicílios brasileiros possuíam celular e 73% possuem acesso à internet. Segundo o Portal Statista, em Julho de 2019 o Brasil apresentou mais de 8.2 milhões de usuários ativos na rede social Twitter. Esse cenário acaba por promover uma oportunidade de exploração das redes sociais como fonte de informação estratégica para a administração pública. A partir disso, este trabalho se propõe a apresentar uma estratégia baseada no método KDD (Knowledge Discovery in Databases) para desenvolvimento de uma solução voltada ao monitoramento contínuo de redes sociais, com foco na administração pública e determinação de um modelo de dados orientado para os propósitos de geração de indicadores, através da aplicação de métodos de Processamento de Linguagem Natural (PLN) para agrupamento dos dados coletados, e aplicação de técnicas de análise de sentimentos baseadas em text mining e machine learning. Além disso, a aplicação em estudos de casos relacionados à temas como Lava Jato e corrupção deverão ser apresentados.


Detalhes técnicos: solução construída em linguagem Python, com utilização das bibliotecas NLTK e scikit-learn.

Use os botões abaixo para votar:

Aplicativo InvestSUS

Foco principal:


O Aplicativo InvestSUS é uma ferramenta originalmente desenvolvida pelo Ministério da Saúde para acompanhar os recursos orçamentários e financeiros do Sistema Único de Saúde (SUS), transferidos por meio do Fundo Nacional de Saúde (FNS), aos 26 Estados, Distrito Federal e 5570 Municípios.


O objetivo principal deste aplicativo é facilitar o monitoramento por parte dos gestores dos repasses financeiros por bloco de financiamento da saúde, acompanhar as etapas de tramitação das propostas cadastradas e sinalizadas como favoritas, pareceres, informações de empenho e pagamento, visualizar o saldo disponível nas contas bancárias dos Estados, Municípios e o seu histórico mês a mês, além de informar as principais notícias da saúde pública do Brasil.


Fase do trabalho: O aplicativo InvestSUS foi lançado no dia 04 de julho e encontra-se em fase de melhoria, a fim de promover acesso aos cidadãos.


Descrição dos resultados:


Espera-se que a utilização do InvestSUS promova melhoria na gestão dos recursos transferidos para a saúde pública no Brasil, inspirando os vários atores envolvidos neste processo a exercer controle social, bem como promover a transparência da informação pública. As informações do InvestSUS obtidas desde seu lançamento são:



  • Tamanho: O aplicativo possui tamanho de 5,65 MB;

  • Quantidade de downloads: No período entre 01 de julho a 13 de agosto foram realizados 2.501 downloads;

  • Satisfação do usuário: O aplicativo apresenta atualmente nota de avaliação 4,71;

  • Falhas: O aplicativo apresenta uma taxa de falha de 0,04%;

  • Integração de sistemas de informação: O aplicativo reúne informações transacionais de seis Sistemas do FNS, a saber: Sistema de Propostas do Fundo Nacional de Saúde (SISPROFNS), Sistema de Pagamentos (SISPAG), Sistema de Acompanhamento Orçamentário (SIAORC), Sistema de Convênios (BGSICONV), Ambiente Parlamentar, Gerenciador de objetos, além de informações financeiras dos Bancos Oficiais.


Tipo de proposta:


A experiência será apresentada em plenário, com duração de 20 minutos.

Use os botões abaixo para votar:

A RELAÇÃO ENTRE A RESPONSABILIDADE FISCAL E OS INVESTIMENTOS SOCIAIS DOS MUNICÍPIOS CAPIXABAS

Este trabalho buscou examinar a existência de relação positiva entre a responsabilidade fiscal e os gastos que levam ao desenvolvimento social local. Delimitou-se como esforço para o alcance do desenvolvimento social os investimentos em educação, saúde, habitação, saneamento e assistência social baseado na abordagem do documento da Organização das Nações Unidas "Transformando Nosso Mundo: a Agenda 2030 para o Desenvolvimento Sustentável, 2015)".


A relevância deste estudo está na necessidade de identificar o reflexo do equilíbrio fiscal nas decisões da alocação de recursos orçamentários que levem ao desenvolvimento social considerando que, a priori, o primeiro é requisito sine qua non para o segundo e pelo fato de haver previsão na Lei de Responsabilidade Fiscal brasileira, do reconhecimento e a premiação do gestor que alcançar tal conquista. Trazer luz à discussão acerca da necessidade de considerar os avanços sociais na ampliação do conceito de gestão responsável a partir da ótica da eficiência dos resultados dos gastos com serviços disponibilizados pelo setor público. Ainda permitirá aumentar a transparência dos atos públicos.


Para testar estatisticamente a premissa de que o município que cumpre as exigências da Lei de Responsabilidade Fiscal gasta mais nestas áreas, foi aplicado aos respectivos investimentos dos municípios capixabas, no período de 2009 a 2015, o modelo de regressão linear múltipla com dados em painel e estimados pelo MQO- Mínimo Quadrado Ordinário com a utilização do software Stata 15 para a obtenção dos resultados, e, inclusive comparou-se o comportamento dessa relação nas microrregiões de planejamento estadual com a Região Metropolitana. As estimativas mostraram que os municípios que são responsáveis fiscalmente gastam mais em educação, saúde, habitação e assistência social que os não responsáveis fiscalmente, mas não se pode afirmar nenhuma relação com os gastos em saneamento. Quanto às microrregiões, apurou-se que em todas gastou-se menos nas áreas de educação, saúde, habitação e assistência social que na Região Metropolitana, não se confirmando o comportamento dos gastos com saneamento entre elas.


Palavras-chave: Responsabilidade Fiscal; gastos sociais; bem-estar; desenvolvimento social.

Use os botões abaixo para votar:

Assistente de Composição de Petições para Defensoria Pública da União

A Defensoria Pública da União (DPU) realiza orientação jurídica e a defesa dos necessitados, em todos os graus, perante o Poder Judiciário da União (a Justiça Federal, a Justiça Eleitoral, a Justiça do Trabalho e a Justiça Militar). Boa parte do trabalho realizado pela DPU depende da composição de petições iniciais. Essas peças processuais instauram o processo jurídico, levando ao juízo os fatos, fundamentos e pedidos do indivíduo que  deseja garantir a tutela do seu direito. 


Diariamente são compostas centenas de petições iniciais nos vários gabinetes dos defensores públicos distribuídos por todo o Brasil, atividade que demanda atenção dos defensores e seus assistentes. Boa parte dessas petições atendem as demandas recorrentes como pedidos de concessão de auxílio-doença. A composição dessas petições é considerada uma atividade repetitiva que impõe grande volume de trabalho aos gabinetes e consome o tempo dos defensores que poderia ser dedicado as outras atividades importantes como a composição de petição para pedidos mais complexos que demandam o desenvolvimento de novas teses.


Nesse cenário, o Serviço Federal de Processamento de Dados (SERPRO) propôs o desenvolvimento do Assistente de Composição de Petições com os objetivos de aumentar a capacidade de composição de petições, otimizando essa atividade que em parte é bastante repetitiva e propiciar mais tempo para os defensores públicos se dedicarem a outras atividades importante para a DPU.


O Assistente de Composição de Petições está estágio final de concepção. O desenvolvimento deve ser iniciado nos próximos meses com previsão da entrega da primeira versão em 6 meses. Quando estiver em pleno funcionamento, o Assistente de Composição de Petições disponibilizará aos defensores públicos, minutas de petições iniciais contendo todos os elementos essenciais dessa peça jurídica, incluindo os fundamentos jurídicos que serão sugeridos de acordo com a tese que o defensor desejar estabelecer na petição.  


O Assistente de Composição de Petições é um projeto inovador no âmbito jurisdicional dentro do contexto nacional. Para seu desenvolvimento estão sendo utilizadas tecnologias modernas de Inteligência Artificial como Processamento de Linguagem Natural e Redes Neurais Profundas (Deep Learning). Nesse contexto serão realizadas atividades de mineração de textos, como classificação e agrupamento em bases de dados textuais.


Nome completo e instituição:
Serviço Federal de Processamento de Dados (SERPRO)


Tipo de proposta: 
Apresentação


Foco principal da apresentação:
Técnico


Fase do trabalho apresentado:
Projeto em concepção


Detalhes técnicos: 
Tecnologias utilizadas: Processamento de linguagem natural (Natural language processing - NLP), Redes Neurais Profundas, Python, TensorFlow, Sklearn, Outras bibliotecas Python, Java, etc


 

Use os botões abaixo para votar:

Avaliação do regramento jurídico do CADÚNICO: proposta de representação das informações em repositório digital confiável

Propomos uma abordagem sobre a otimização de processos do CADÚNICO por meio da gestão eletrônica de documentos e registros, como forma de integração, controle e sustentabilidade na representação das informações, versando sobre o cadastramento realizado em âmbito municipal, estadual e federal, em formato digital, visando a recuperação precisa e eficaz aos órgãos centrais que processam e gerenciam essas informações.


Com base nos objetivos propostos através dos mecanismos definidos pelas regras gerais da Lei nº 12.527/2011 e do Decreto 7.724/2012, que regulam e
estabelecem a gestão transparente em relação as informações coletadas e solicitadas, de forma integra, autêntica e confiável, de acordo com as composições que
definem as formalidades de acesso à informação, avaliamos que o CadÚnico possui uma dificuldade em assegurar o cumprimento efetivo dos princípios normativos preconizados pelas leis de Acesso à Informação, da Transparência e de Responsabilidade Fiscal, e possui ainda a inexistência de um repositório digital confiável, o que obstaculiza e inviabiliza a aplicabilidade da transformação digital de todos os processos de registros e cadastros do CadÚnico.


Dentro deste contexto, tem-se como proposta, atender as exigências legais, por meio da gestão de documentos, implantada por meio de instrumentos
arquivísticos, através de um plano de classificação, tabela de temporalidade e sistema informatizado de Gestão Eletrônica de Documentos (GED), objetivando
o controle de prazos legais para guarda e destinação final de todo o acervo de documentos de uma instituição, com indicação de translado de suporte papel
para o digital, permitindo a recuperação e acesso de forma confiável, com foco em implantar e atender ao Sistema Informatizado de Gestão Arquivística de
Documentos – SIGAD.


Como avaliação empírica realizamos diagnóstico na Prefeitura Municipal de Pacajus, na Secretaria de Trabalho e Desenvolvimento Social – STDS, como forma de atualizar as ações referentes à digitalização de documentos e modernização da administração dos arquivos correntes, intermediários e permanente, dentro do contesto de gestão de documentos e de procedimentos de políticas que viabilizam a eficácia e economicidade da administração pública. Constatamos que a utilização de ferramentas tecnológicas no processo de estruturação da informação poderá melhorar a performance da gestão documental no âmibto da coleta desses dados.

Use os botões abaixo para votar:

Avaliação do Risco de Desvios de Conduta de Dirigentes de Fundos de Pensão: Uma Proposta de Aplicação do Analytic Hierarchy Process (AHP) à Teoria da Agência

A importância dos fundos de pensão para os trabalhadores e para as economias dos países exige alta qualificação técnica e ética dos dirigentes dessas entidades, especialmente pelos problemas de agência a que estão sujeitas as organizações que administram recursos de muitos proprietários.


Este estudo propôs um modelo de análise multicritério para avaliação de risco de desvios de conduta de dirigentes de fundos de pensão brasileiros, considerando critérios associados à entidade e intrínsecos ao dirigente, selecionados a partir de pesquisa em artigos científicos e junto às autoridades de supervisão do Sistema Financeiro Nacional brasileiro e de fundos de pensão ao redor do mundo.


Foi realizado um estudo de caso com 436 dirigentes da diretora-executiva, do conselho deliberativo e do conselho fiscal das 16 entidades enquadradas como sistemicamente importantes pela Superintendência Nacional de Previdência Complementar - Previc.


Os resultados demonstraram que, em regra, os dirigentes possuem baixo índice de risco e estão aptos a exercerem suas funções.


 


Tipo de proposta


Apresentação no plenário.


Título da apresentação


Avaliação do Risco de Desvios de Conduta de Dirigentes de Fundos de Pensão: Uma Proposta de Aplicação do Analytic Hierarchy Process (AHP) à Teoria da Agência


Foco principal da apresentação


Técnico e gerencial.


Fase do trabalho apresentado


Estudo de caso com resultados práticos.


Descrição da apresentação


Pretende-se apresentar um modelo que possa ser replicado em diversos contextos na Administração Pública para priorização e avaliação de riscos, por ser de fácil compreensão e versátil, uma vez que considera aspectos quantitativos e qualitativos;


Detalhes técnicos


Foi utilizado o método Analytic Hierarchy Process - AHP para priorização dos critérios e diferentes métodos de busca dos dados dos dirigentes, como acesso direto à base de dados do cadastro de dirigentes da Previc, scrapping e web services.

Use os botões abaixo para votar:

Certificação das Agências Reguladoras: Transparência Regulatória

- Descrição da apresentação: Criado pelo Laboratório de Regulação Econômica da Universidade do Estado do Rio de Janeiro – UERJ Reg., o projeto “Certificação das Agências Reguladoras”, em sua edição "Transparência Regulatória", avalia em que medida a atuação das onze agências reguladoras federais está comprometida com o ideal da transparência pública. Nele são analisadas questões que dizem respeito à divulgação de informações de interesse do público em geral, tanto as relativas à atividade-fim (por exemplo, a divulgação da agenda regulatória) quanto aquelas relativas à atividade-meio da agência (por exemplo, a divulgação do orçamento. Ao todo, são trinta e cinco critérios de avaliação. As agências que atenderam critérios mínimos de transparência receberam o “Selo UERJ Reg. de Transparência Regulatória - 2019”.  São duas as razões que motivaram a existência do projeto: a necessidade de oferecer à sociedade informações claras sobre a atuação das agências reguladoras, de modo a possibilitar um incremento de participação dos diferentes grupos sociais nos debates regulatórios; e a importância da comunicação entre academia e Poder Público, oportunizando um ambiente de trocas de saberes mais efetivo. A metodologia empregada é de base empírica, com abordagem mista, envolvendo a coleta e análise de dados quantitativos e qualitativos, orientada pelos critérios previamente estabelecidos . O banco de dados é composto por informações colhidas dos sites das agências reguladoras federais e de pedidos de acesso à informação, submetidos eletronicamente sob o rito da Lei nº 12.527/2011 - Lei de Acesso à Informação – LAI. 

Use os botões abaixo para votar:

Cladop - Classificador de Documentos em PDF do Sistema de Gestão de Tomadas de Contas Especiais

Apresentar o projeto Cladop de desenvolvimento por aprendizagem supervisionada de um classificador automático de tipo para documentos em formato PDF inseridos no sistema de gestão de Tomadas de Contas Especiais (e-TCE) do Tribunal de Contas da União (TCU).


Um processo de Tomada de Contas Especial, em última análise, objetiva o ressarcimento do Erário Público de danos gerados por agentes públicos e a devida responsabilização destes.


Todos os órgãos da administração pública federal são potenciais usuários do sistema e-TCE.


BRANTING (2017) afirma que o formato PDF tem sido usado em tribunais e que o texto obtido desses documentos apresenta muitos erros e não preservam a sequência original do documento, devido ao processo usado de OCR (Optical Character Recognition).


Como benefício direto,  o Cladop promove a correção dos tipos dos documentos inseridos, evitando-se erros de classificação: ao identificar, automaticamente, qual o tipo de documento mais adequado, no momento de inserção de cada documento comprobatório; ao evitar que sejam classificados como “outros” documentos de tipos previstos, evitando que usuários por comodidade optem por selecionar essa categoria coringa; ao ser usado para corrigir a classificação de documentos indevidamente catalogados como “outros”.


Como benefício indireto, ele pode apoiar a promoção de uma melhor qualidade do OCR dos documentos: ao levar em conta um conteúdo “esperado mínimo” para classificar um documento; ao subsidiar a construção de críticas no sistema de conteúdo mínimo por tipo, retornando, além das previsões, informações complementares resultantes do pré-processamento, como contagens de palavras por classe (nome, UF, CPF/CNPJ, data e número) e indicadores de qualidade do PDF (quantidade de palavras válidas, palavras desconhecidas, páginas, etc). De posse dessas informações, o Sistema e-TCE pode, por exemplo, impedir que um documento do tipo AR (Aviso de Recebimento) seja inserido se não houver pelo menos um CPF ou CNPJ ou mesmo impedir documentos com 50% de palavras inválidas, evitando-se, assim, uma baixa qualidade para tipos específicos e críticos para o processo de instrução.


Documentos com classificação correta de tipo e com um conteúdo OCR de melhor qualidade serão fundamentais para os passos seguintes do rito processual, como a instrução, que se almeja ser assistida pelo computador.


O classificador, em sua versão 2.1, alcança a acurácia[1] de 91,1% com desvio padrão de 0,3% e foi desenvolvido em python na forma de um webservice que recebe como parâmetro um arquivo PDF, e a partir do seu nome e do seu conteúdo retorna nove[2] tipos mais prováveis, com suas respectivas probabilidades.


Tipo de proposta: apresentação


Foco principal:  técnico 


Fase do trabalho: Classificador teve sua primeira versão implantada em 21/01/2019 (75%). Mas o projeto evoluiu e hoje alcança 91,1%. 


Detalhes técnicos: pyhon


[1] Acurácia, micro, apurada com validação cruzada de 7 partições e 14 amostras.


[2] Foi constatado que a acurácia do classificador sobe de 91% (do primeiro tipo) para 99% quando consideradas as nove primeiras previsões. Possibilita que o sistema, por exemplo, apresente os nove tipos em uma segunda tela caso o primeiro tipo não seja aprovado pelo usuário.


 

Use os botões abaixo para votar:

Classificação Automática de Imagens: Botando a Mão na Massa!

Proposta da Oficina


Arquivos de imagens são elementos constantemente presentes em processos investigativos, mas a quantidade de imagens a analisar pode tornar o seu uso impraticável ou levar à perda de valiosas informações por conta do volume de dados a analisar. O foco desta oficina será explanar o funcionamento e o uso de modelos de classificação e detecção de imagens em um exemplo de uso prático. Serão apresentados os fundamentos teóricos de como funcionam os processos de detecção e classificação de imagens, bem como as possibilidades de pré-processamento. Também serão elencados as bibliotecas e os softwares utilizados no desenvolvimento de uma aplicação utilizada na Força-Tarefa Lava Jato Curitiba para detecção e separação automática de imagens. Para a parte prática da oficina, será utilizado um modelo treinado para separar imagens oriundas de apreensões e quebras telemáticas, de acordo com categorias pré-definidas como boletos e comprovantes bancários, notas fiscais, documentos identificação e outros. Assim, espera-se mostrar as possibilidades de uso dessa tecnologia, bem como as melhorias alcançadas com seu uso.


Detalhes Técnicos:


Será necessário o uso de computadores ou notebooks pessoais com a linguagem Python versão 3.5 instalada e acesso à internet para download de dados. Para a parte prática será necessário o download de um pequeno conjunto de imagens que será disponibilizada online.


Ementa:


1) O que é classificação de imagem


2) Como funciona o processo de classificação


3) Bibliotecas, equipamentos e softwares


4) Como os modelos são construídos e treinados


5) Caso prático


6) Problemas comuns em classificação de imagens


7) Discussão


8) Encerramento

Use os botões abaixo para votar:

Construção e experimentação de modelos de Deep Learning de forma rápida e sem código

Foco principal:


Técnico (iniciantes e experientes)


 


Descrição:


Encontrar um modelo adequado usando Deep Learning é uma tarefa difícil e pode levar a horas de experimentação com diferentes arquiteturas de redes neurais e hiperparâmetros até achar um que se encaixe perfeitamente no seu problema. Esse processo não apenas consome tempo e necessita de bastante código repetitivo, mas trata-se de uma tarefa que exige conhecimento aprofundado dos algoritmos mais recentes bem como de suas implementações.


A oficina tem por objetivo apresentar uma abordagem de construção e alteração de arquiteturas e refinamento de seus hiperparâmetros.


Essas tarefas serão feitas de maneira declarativa sem precisar escrever 1 linha de código.


O objetivo é tornar a etapa de experimentação mais rápida e fácil com o mesmo nível de resultado que modelos de Deep Learning construídos de forma puramente programática.


 


Ementa:


1 - Rápida introdução aos conceitos de Deep Learning;


2 - Introdução à ferramenta open source Uber Ludwig (https://uber.github.io/ludwig/);


3 - Implementação de um classificador declarativo;


4 - Outras possibilidades de aplicação da ferramenta com tipos diversos dados;


5 - Considerações finais.

Use os botões abaixo para votar:

Consulta de dados aberto públicos integrados

Tipo de proposta:

- Oficina com duração de 2 horas.

Título da apresentação/oficina:

- Consulta de dados aberto públicos integrados

Foco principal da apresentação:



- A oficina terá foco técnico, mostrando como utilizar uma API de consulta de dados abertos públicos integrados.

Fase do trabalho apresentado:

- O trabalho apresenta um projeto em andamento , desenvolvendo uma API de integração de dados atualmente disponível online: https://biod.c3sl.ufpr.br/

Descrição da apresentação:

A consulta em bases de dados abertos geralmente é uma tarefa árdua,
pois embora exista uma grande quantidade de dados abertos públicos
disponíveis, estes não são tratados e integrados em bases únicas, sua
estrutura é difícil de entender, e geralmente é necessário realizar um
tratamento de dados bastante trabalhoso, antes da realização de
qualquer consulta. Além disso, uma vez as bases integradas, é difícil
conseguir identificar os pontos em comuns das bases, para conseguir
realizar cruzamento de informações para realização de consultas
analíticas.

A oficina irá apresentar como realizar consultas analíticas em formato
simplificado, especificando apenas as métricas, dimensões e filtros
desejados, sem a necessidade de informar como as bases de dados são
integradas, isto é, não é necessário especificar relacionamentos entre
as entidades. Isto é possível pois as consultas serão realizadas em
uma base de dados integrada contendo dados educacionais e dados sobre
iniciativas de inclusão social tecnológica, totalizando
aproximadamente 300Gb, em dezenas de tabelas e centenas de colunas.

A base chama-se BIOD (Blended Integrated Open Data) e está disponível
para acesso no endereço: https://biod.c3sl.ufpr.br/.  A oficina irá
apresentar as características principais da base integrada, o formato
simplificado de consulta, que poderá ser especificada usando uma API
REST e irá guiar os participantes na criação das consultas. O objetivo
será conseguir realizar consultas analíticas com cruzamentos de dados
sobre os elementos da base de dados abertos integrada.

Detalhes técnicos: métodos estatísticos ou modelos de aprendizagem
utilizados; softwares e linguagens de programação utilizados;

A oficina irá apresentar o formato da base integrada, que atualmente
já está disponível, e como realizar consultas utilizando uma API REST,
e também como integrar as consultas em uma planilha Google Sheets.
Será necessário apenas acesso à internet e um navegador, pois todas as
operações serão realizadas utilizando a API.

Breve ementa:

1 - Objetivos da Oficina: realizando consultas analíticas sobre bases
de dados abertos integrados.
2 - Introdução a BIOD (Blended Integrated Open Data)
- apresentação do formato da base de dados
- apresentação formato da consulta analítica
3 - Criação de consultas analíticas
- utilizando uma API REST
- utilizando uma função integrada no Google Sheets
4 - Análise dos resultados e conclusões


Duração da Oficina:


2 horas

Use os botões abaixo para votar:

Cruzamentos de dados para auxílio à Identificação e Localização de Pessoas e Patrimônio - AGU

A Advocacia Geral da União desenvolveu método de análise de dados com finalidade de apoio a sua área de recuperação de ativos e defesa da união. Com essa finalidade foi desenvolvido o SISlabra que é ferramenta eletrônica que foi desenhada e idealizada para cruzar uma série de informações e bancos de dados para identificar, de forma mais fácil, bens de pessoas e empresas. Ela permite consultar: CPFs; CNPJs; registros de veículos, imóveis, embarcações e aeronaves; doações eleitorais, precatórios; carteiras de habilitação; vínculos empresariais, empregatícios e de parentesco e outros. Seu foco principal é encontrar bens e pessoas devedoras da União, em especial de acusados de improbidade administrativa e de condenados a devolver algum valor para os cofres públicos. Ferramenta proporcional economia de recursos com consultas na plataforma da ordem de R$500 mil reais a cada 10 mil consultas realizadas (estimativas em tempo gasto por empregados, e recursos públicos...). Atualmente estamos em 130 mil consultas realizadas desde dezembro de 2017. Desde sua entrada em produção tivemos significativos aumento na arrecadação e penhora de bens de devedores, uma vez que as dívidas com a união figuram na casa de trilhões de reais. Em tempo de trabalho e recursos da AGU com a utilização da ferramenta já foram economizados mais de 5 milhões de reais.
Foi utilizado SQL Server Reporting Services (SSRS) é um produto que compõem a plataforma de dados SQL Server com utilização do power BI On-Premises para produção dos relatórios, correlaciona mentos e painéis que integram a ferramenta, sua autenticação é realizada via integração com diretório (LDAP), via AD. Um rigoroso controle de autoria e segurança para evitar desvios de uso da mesma.
O principal objetivo da ferramenta é o cumprimento eficiente do papel da AGU (recuperação de ativos de devedores) de forma eficiente e ágil para seu êxito nas ações judiciais, retornando assim aos cofres públicos valores expressivos. Ferramenta para realização de políticas de estado.

Use os botões abaixo para votar:

Deep Learning Para Identificação Precisa de Desmatamentos Através do Uso de Imagens Satelitárias de Alta Resolução

Tipo de proposta: Apresentação.


Título da apresentação: Deep Learning Para Identificação Precisa de Desmatamentos Através do Uso de Imagens Satelitárias de Alta Resolução.

Foco principal da apresentação: Técnico.


Fase do trabalho apresentado: Estudo de caso com resultados práticos.

Descrição da apresentação: Um dos avanços mais notáveis do Sensoriamento Remoto está na concepção do padrão de construção de satélites CubeSat. Essa tecnologia abre uma miríade de possíveis aplicações que beneficiam-se das maiores resoluções espaçotemporais fornecidas por constelações de nanossatélites compatíveis com o padrão. Nesse cenário, é preciso investigar os novos desafios e como enfrentá-los para aproveitar esse novo tipo de Big Data de Sensoriamento Remoto. Dentre esses desafios está o desenvolvimento de meios para extrair informações úteis das observações de pixeis ao longo do tempo de maneira refinada. Este trabalho é um estudo seminal sobre o uso de uma abordagem especial de Aprendizagem Profunda (Deep Learning), as Redes Neurais Recorrentes, para classificar longas séries temporais de observações da cobertura terrestre. O método foi testado com o problema de identificar áreas de desmatamentos que ocorreram em uma região contígua de Cerrado (17.810 km2), ao longo de 13 meses, através do uso de imagens de alta resolução da PlanetScope, uma constelação de nanossatélites CubeSat. Além da análise temporal, se fez necessária uma solução que tornasse o mapeamento mais espacialmente coerente, o que foi alcançado através do uso de uma arquitetura de Rede Neural Convolucional conhecida como U-Net, a fim de realizar a segmentação semântica do resultado da análise temporal realizada na etapa anterior. A análise de acurácia do modelo obteve um índice F1-score de 0.9 na identificação de áreas de desmatamento da região de interesse ao longo do período analisado. Haja vista os requisitos de alto desempenho demandados pelo volume de dados que essa nova realidade nos impõe, foi explorado o poder computacional de processamento em paralelo de um cluster de computadores de baixo custo, possibilitando acelerar em até seis vezes o mapeamento da região estudada. Uma discussão sobre as limitações e capacidades da abordagem proposta também será apresentada. A implementação proposta fez uso da linguagem Python e frameworks de Deep Learning Keras e Tensorflow, a qual pode ser avaliada em repositório público.


 


 

Use os botões abaixo para votar:

Desafios e Boas Práticas na Implantação de Academic Analytics em Instituições de Ensino Superior: A Experiência do Observatório de Dados da Graduação (ODG) da Universidade Federal da Paraíba

Tipo de proposta: apresentação (20 minutos, no plenário).
Foco principal da apresentação: Gerencial.
Fase do trabalho apresentado: estudo de caso com resultados práticos.


Descrição


A necessidade de transformar os dados em informações e conhecimento para a tomada de decisões é considerada um fator crítico para o sucesso dos negócios em todos os setores, emergindo as chamadas organizações orientadas por dados (data-driven organizations). Em Instituições de Ensino Superior (IES) não seria diferente. Uma das preocupações proeminentes na gestão acadêmica em IES é a qualidade de ensino e o uso de diferentes meios para analisar e melhorar a compreensão sobre o sucesso, retenção e evasão dos alunos, bem como outros fenômenos que permeiam a vida acadêmica. Esses fenômenos têm atraído cada vez mais a atenção de pesquisadores e de gestores acadêmicos no intuito de compreender as causas e possíveis soluções.


A aplicação de conceitos de Business Analytics no âmbito da gestão acadêmica denomina-se Academic Analytics. O objetivo central em Academic Analytics é criar novas possibilidades para coletar e analisar dados que envolvem a gestão acadêmica, por meio do uso de diferentes fontes de dados, gerando informações valiosas e evidências que permitam guiar o processo de tomada de decisões dos gestores institucionais nos seus diferentes níveis de atuação. Portanto, acredita-se que o Academic Analytics, aplicado no âmbito da graduação, tem o potencial para transformar os processos organizacionais, desde de a entrada dos alunos até a sua saída.


Seguindo esse movimento, a Pró-reitoria de Graduação (PRG) da Universidade Federal da Paraíba (UFPB) criou o Observatório de Dados da Graduação (ODG) com os seguintes objetivos: coletar, selecionar e difundir dados evolutivos sobre a situação dos cursos de graduação; contribuir para o desenvolvimento de tomada de decisão e de gestão fundamentada em dados; e desenvolver inovações nos processos, medidas e práticas de gestão de dados de graduação. Nesse sentido, essa palestra tem como objetivo principal apresentar os desafios e boas práticas no processo de implantação de um setor de inteligência analítica no âmbito de uma IES, bem como os resultados obtidos ao longo desse processo. Um dos resultados é o uso de indicadores de satisfação e desempenho dos alunos o que envolveu desde a concepção do instrumento de coleta até a sua análise e internalização na instituição.


 


 

Use os botões abaixo para votar:

Detecção de Anomalias para Identificar Prática de Conluio em Licitações do Governo Federal

No trabalho de auditoria acerca de procedimentos licitatórios, um dos principais objetivos é a verificação da efetiva ocorrência de competição entre os licitantes, proporcionando à Administração Pública a contratação em condições mais vantajosas no que diz respeito ao valor pago por bens e serviços, ou o valor recebido no caso de alienações.


Este trabalho propõe uma metodologia para detecção de anomalias, identificando possíveis conluios entre empresas licitantes. Demonstramos a aplicabilidade e a efetividade da metodologia proposta analisando pregões eletrônicos para fornecimentos de bens ou serviços à órgãos públicos, ao longo dos últimos 10 anos. Através da utilização de mineração de padrões frequentes, correlação multivariada de series temporais e análise conjugada de multicritérios nos processos de licitação, foram reveladas situações que sugerem a ocorrência de fraude ou frustação ao caráter competitivo do certame, possivelmente por meio de ajuste ou combinação entre os concorrentes, além de divisão de mercado e indicativos de sobrepreço nos valores contratados pela Administração.


Tipo de proposta: Apresentação 20 minutos


Foco principal da apresentação: Técnico, para facilitar a realização de trabalhos semelhantes.


Fase do trabalho apresentado: Estudo de caso com resultados práticos.


Detalhes técnicos: Modelo de detecção de anomalias utilizando algoritmo apriori e correlação multivariada através do coeficiente de Pearson, desenvolvido utilizando a ferramenta R.

Use os botões abaixo para votar:

Dia D - Análise Integrada de Dados da Administração Pública Federal

Para ser capaz de gerenciar e operacionalizar adequadamente políticas públicas, o Governo Federal faz uso intensivo de sistemas informatizados, cujos dados são essenciais para que a gestão governamental seja cada vez mais eficiente, possibilitando melhores tomadas de decisão pelos gestores públicos. No entanto, muitas políticas públicas são transversais, ou seja, sua implementação e avaliação dependem de mais de uma organização governamental, sendo necessário que um órgão ou entidade tenha acesso a dados que estão sob gestão de outras instituições.


Nesse contexto, o Tribunal de Contas da União (TCU) – com a experiência desenvolvida em auditorias baseadas em análise de dados e inspirado em iniciativas internacionais semelhantes, em especial na National Fraud Initiative (NFI), do Reino Unido, – realizou fiscalização que teve por objetivo avaliar o uso integrado de informação, de forma a detectar, mediante análise de dados, indícios de irregularidades na utilização de recursos públicos e bases de dados com problemas de qualidade. As informações analisadas estão relacionadas com os seguintes temas: licitações e contratos; transferências voluntárias; execução orçamentária e financeira; imóveis da união; e concessão de benefícios a pessoas físicas e jurídicas.


Ao todo, foram explorados mais de oitenta tipos de indícios de irregularidades, que envolveram a análise de 31 bases de dados governamentais, geridas por 18 organizações públicas. As irregularidades identificadas abrangeram mais de 450 mil ocorrências entre 2012 e 2018 sobre um universo de recursos públicos fiscalizados da ordem de R$ 40 bilhões.


O trabalho também explorou a análise combinada dos indícios, possibilitando a identificação de agentes (pessoas, empresas ou organizações públicas) que incorreram em mais de um tipo de irregularidade, bem como comportamentos que sugerem a atuação em conluio. Também foram realizados cruzamentos de dados que permitiram comparar informações similares armazenadas em diferentes bases de dados governamentais, resultando em expressivo quantitativo de divergências de informações, o que demonstra como a ausência de integração entre os sistemas possibilita a existência de inconsistências que podem prejudicar a gestão de políticas públicas, especialmente quando apoiada por técnicas de análise de dados.

Use os botões abaixo para votar:

Elaboração do Modelo de Precificação do Fundo Garantidor para Operações de Crédito Rural

Tipo de proposta: apresentação


O Programa Nacional de Fortalecimento da Agricultura Familiar (PRONAF) e o Programa Nacional de Apoio ao Médio Produtor Rural (PRONAMP) são duas importantes fontes de financiamento da agricultura no Brasil, com um aporte previsto de aproximadamente R$ 50 bilhões nos anos de 2018 e 2019. Não obstante, a dificuldade na prestação de garantias é um sério entrave à contratação de novas operações.


Neste contexto, o BNDES planeja criar um Fundo Garantidor para operações de Crédito Rural (FGCR), que oferecerá garantias financeiras às instituições repassadoras dos créditos do PRONAF e do PRONAMP, e cujo funding será composto por recursos do BNDES e das instituições que venham a utilizar o FGCR.


Um dos desafios na criação do Fundo é a precificação do prêmio dado como contrapartida às garantias prestadas, o que requer uma boa estimativa da inadimplência das operações garantidas. Porém, essa estimativa apresenta diversas dificuldades práticas, como séries históricas de inadimplência de curta duração e mudanças recentes no cenário econômico, o que trouxe impactos relevantes na capacidade de pagamento dos devedores nos últimos anos.


Para fazer frente a esse desafio, três modelos de precificação foram desenvolvidos e se encontram em fase de avaliação. Os modelos utilizaram técnicas de data science como clustering, regressões, árvores de decisão e boosting para prever a inadimplência. Como bases de dados, foram utilizados fluxos financeiros de contratos de crédito rural, dados macroeconômicos como PIB e inflação, e geográficos, como produção agropecuária por município.

Use os botões abaixo para votar:

Execução de Emendas Parlamentares no Distrito Federal: um estudo de caso do parlamento do Distrito Federal

O presente trabalho busca avaliar a aplicação das emendas parlamentares realizadas por deputados distritais no Distrito Federal. Por vezes, as emendas parlamentares são consideradas como ponto de barganha entre o chefe do executivo e a atuação de parlamentares distritais. Este documento busca evidenciar como é realizada a aplicação e execução das emendas propostas por parlamentares. Este artigo abordará temas como o nível de execução orçamentária das unidades orçamentárias e órgãos do Distrito Federal. Além disso demonstrará como os parlamentares do Distrito Federal realizam a alocação dos recursos, quais funções mais recebem emendas e nível de execução das emendas parlamentares. Dessa forma busca-se avaliar a efetiva execução do recurso destinado e efetivamente executado.  


 

Use os botões abaixo para votar:

FINGER - Plataforma de Fiscalização Contínua utilizada para maximizar a tempestividade, qualidade e assertividade das ações de controle externo

Tipo da Proposta: Apresentação em 20 minutos


Fase do Trabalho: Atualmente os módulos de Avisos de Licitação, Licitações realizadas e Pessoas (PJ/PF) estão em ambiente de produção. Os próximos módulo a serem criados serão de Empenhos e Folhas de Pagamentos.


Objetivo da apresentação: A apresentação visa compartilhar as diversas possibilidades de utilização das bases de dados (abertas, custodiadas e internas) para criação de importantes tipologias de auditoria. Um segundo passo é demonstrar de que forma essas informações podem ser utilizadas, principalmente através de Fiscalização Contínua, para proporcionar maior tempestividade, qualidade e assertividade nas ações de controle.


Descrição


Um dos grandes desafios da fiscalização governamental é controlar os gastos públicos tempestivamente, e quando se trata das aquisições públicas, os problemas ganham relevo e destaque, visto que a ação do controle externo ocorre, na maioria das vezes, após a execução da despesa orçamentária, o que provoca danos irreversíveis à sociedade.


Nesse sentido, um dos objetivos do FINGER é prover o controle externo de informações tempestivas referentes aos procedimentos licitatórios, empenhos, folhas de pagamento e demais fatos relacionados à execução orçamentária dos jurisdicionados do Tribunal. Para tanto, o FINGER dispõe de um módulo de Fiscalização Contínua que realiza um extenso cruzamento de dados, imediatamente após a recepção dos dados dos jurisdicionados, e envia por E-mail o resumo das irregularidades e indícios de irregularidades detectadas, diretamente à divisão de auditoria responsável pelo acompanhamento das respectivas unidades gestoras. Esta sistemática já possibilitou ao Tribunal a emissão de diversas medidas cautelares suspendendo procedimentos licitatórios, antes mesmo que a execução das despesas pudesse ocorrer. Contratação de empresas de prefeitos e vereados, empresas já baixadas, pessoas físicas falecidas e impedidas de contratar são alguns exemplos de irregularidades identificadas.


Além do módulo de Fiscalização Contínua, os resultados dos cruzamentos também são dispostos em um segundo módulo de Investigação, onde os dados detalhados podem ser consultados e, um terceiro módulo de Gestão de Riscos que associa riscos às licitações, credores, empenhos e demais objetos da auditoria.


Esses últimos módulos tem possibilitado uma instrução processual de maior qualidade e maior assertividade na escolha dos objetos de análise da auditoria. Esses benefícios todos são decorrentes da grande quantidade de bases de dados disponíveis e da criatividade para criação das diversas tipologias.


Detalhes técnicos:


O FINGER utiliza um Data Warehouse, SGBD SQL Server, modelagem dimensional, em formato Estrela, composto por bases de dados internas do tribunal, bases de dados custodiadas decorrentes de diversos convênios celebrados e, principalmente de dezenas de bases de dados públicas abertas, coletadas/atualizadas diariamente através de “robôs”, escritos na linguagem R, que toda madrugada acessam portais de diversos órgãos públicos.


A linguagem R também é utilizada nos diversos procedimentos de ETL que carregam os dados no Data Warehouse.


A partir das bases de dados disponíveis foram criadas mais de 300 tipologias que identificam relações societárias, vínculos trabalhistas, vínculos públicos, relações políticas/eleitorais, parentescos, sanções, entre outras.


A implementação das tipologias é realizada no SQL Server, através da linguagem T-SQL.


A divulgação/publicação dos resultados do FINGER é feita através de painéis de Business Intelligence criados através do software TABLEAU (Desktop e Server). Os E-mais diários também são enviados através do TABLEAU.

Use os botões abaixo para votar:

Habitação de interesse social - Análise da Gestão e Controle na distribuição de imóveis no âmbito do Distrito Federal.

A política habitacional no DF sempre foi alvo de críticas, sobre a qual, historicamente, pesou denúncias de irregularidades na concessão de lotes ou unidades habitacionais por meio dos diversos Programas que já figuraram no cenário distrital.


Nesse contexto, o Tribunal de Contas do DF (TCDF) realizou fiscalização no Programa Morar Bem, braço do Programa Federal Minha Casa, Minha Vida, com o objetivo de avaliar a regularidade nos benefícios segundo critérios estabelecidos em normas e princípios constitucionais.


Para tanto foram utilizadas as ferramentas Access® e SAS®(Statistical Analysis System) como meio para cruzamento das diversas bases de dados utilizadas: Base de Dados da Companhia responsável pela gestão do Programa, IPTU, ITBI, IPVA e Dados de Consumo elétrico (CEB).


Como resultado foram identificados beneficiários que não atendiam aos requisitos definidos para participação no Programa, dentre os quais: que já contavam com propriedade anterior no DF, inclusive em diversos condomínios irregulares; já contemplados em outros programas habitacionais ou com renda superior ao permitido (até 12 SM).


Adicionalmente, constatou-se a concessão do benefício a candidatos com patrimônio incompatível com a finalidade do Programa, além de desvio de sua função social e assistencial por meio da alienação de imóveis seja por venda, aluguel, cessão a terceiros ou, ainda, mantidos desocupados.


A proposta é de apresentação (20 minutos, no plenário) com foco principal de facilitar a realização de trabalhos semelhantes, permitindo sua reprodução por outros entes ou órgãos de controle.

Use os botões abaixo para votar:

Identificação Automatizada de Erros Materiais em Acórdãos

Tipo de proposta


Apresentação


Foco principal da apresentação


Técnico


Fase do trabalho apresentado


Estudo de caso com resultados práticos


Descrição da apresentação


No âmbito do Tribunal de Contas da União, erro material em acórdãos é caracterizado pela contradição evidente, facilmente perceptível, entre o que o acórdão contém e o que deveria conter para que retratasse fielmente os dados do processo e/ou do julgamento, à luz do que consta dos autos. 


São exemplos clássicos de erros materiais a grafia errada do nome de responsabilizados e indicação equivocada de CPF ou CNPJ.


A necessidade da correção desses erros resulta em custos financeiros, custos de oportunidade e riscos à imagem do Tribunal.


O objetivo desta solução é utilizar recursos de inteligência artificial, especialmente de processamento de linguagem natural (NLP), na identificação de potenciais erros materiais comuns, a fim de tratá-los antes que ocorra alguma consequência negativa para o julgamento do processo.


O detector de erros materiais atua no momento que os acórdãos que são submetidos à sessão de julgamento, efetuando a análise textual em busca de ocorrências previamente configuradas.


O projeto está em produção desde junho/2017 e tem alcançado resultados muito satisfatórios em termos de ganhos de eficiência no trabalho de revisão de acórdãos e na diminuição da quantidade de acórdãos retificadores. Nos anos anteriores à implementação da solução, havia necessidade de em média 500 acórdãos por ano retificando erros materiais. Hoje, houve diminuição de mais de 90% de erros; considerando o ritmo atual, serão menos de 50 retificações em 2019. Vale destacar que o uso da ferramenta praticamente eliminou as ocorrências de CPF ou CNPJ errado.


Atualmente, o alcance da solução está sendo ampliado dentro do Tribunal em duas vertentes:




  • Inclusão de novas funções para detectar outros tipos de erro material, aumentando os ganhos de eficiência que a ferramenta aporta.



  • Adaptação da solução para permitir o seu uso em diferentes fases da elaboração do processo, como durante a instrução processual e após o julgamento.


Na apresentação proposta serão detalhados os resultados obtidos bem como os novos encaminhamentos do projeto, com vistas a torná-lo um produto que possa ser aplicável em qualquer outra instituição em diferentes contextos.


Detalhes Técnicos


Para concepção da solução, foram utilizadas as seguintes tecnologias:




  • Linguagem de programação Python;




  • Deep learning com redes recorrentes, usando TensorFlow para reconhecimento de entidades;




  • Expressões regulares;



  • Cruzamento de bases de dados.

Use os botões abaixo para votar:

Identificando sobrepreço nas compras públicas através de clusterização não supervisionada de texto: desenvolvimento de um banco de preços de licitações

Um das maiores dificuldades para identificar se o preço pago por determinado produto está acima da média de mercado é a definição de uma base de comparação. Como não há uma padronização efetiva dos produtos existentes, tendo em vista a sua imensa diversidade, não existe forma simples de agrupar produtos similares, para chegar no preço médio de determinado item.


A informação mais confiável é a da própria descrição textual do produto. Mas itens similares são escritos de forma diferente, trocando a ordem das palavras, ou mesmo utilizando palavras diferentes para significar a mesma coisa. Saber que textos diferentes significam a mesma coisa é tarefa simples para um humano, mas difícil para a máquina.


E ainda que houvesse padronização nos textos das descrições, como saber quantos e quais produtos/categorias existem? Sendo que o mesmo produto pode ser vendido em diversos tipos de apresentações, embalagens, quantidades, etc.


Trata-se de problema que exige o uso tanto de técnicas de de processamento de linguagem natural quanto de clusterização não supervisionada de texto.


Utilizando uma forma própria de realizar embeddings FastText/Word2Vec das descrições dos produtos, bem como a aplicação dos algoritmos UMAP/HDBSCAN para redução de dimensionalidade e posterior clusterização, foi possível desenvolver um banco de preços com resultados promissores nos testes realizados.


O banco de preços conseguiu, sem auxílio humano, identificar e agrupar desde produtos simples até itens com descrição complexa, com vários parâmetros, números, especificações, apresentações, etc.


Para a identificação do sobrepreço, utiliza-se técnicas estatísticas para filtrar outliers e deixar a base de comparação mais robusta.


O protótipo está sendo testado, já tendo identificado casos reais de itens licitados por valor muito superior à média, e deve entrar em produção nos próximos meses, para identificar o preço médio dos itens das novas licitações e em caso de sobrepreço, gerar alertas automáticos. Após isso, deve ser implementado portal para consulta externa, onde será possível entrar com uma descrição textual e o sistema retornará o preço médio das licitações para aquele produto no intervalo de tempo solicitado.


Título: Identificando sobrepreço nas compras públicas através de clusterização não supervisionada de texto: desenvolvimento de um banco de preços de licitações


Tipo de proposta: apresentação no plenário;


Foco principal da apresentação: técnico e gerencial;


Fase do trabalho: projeto em andamento com resultados preliminares;


Detalhes técnicos: Python e suas bibliotecas.

Use os botões abaixo para votar:

Licitações Públicas AUTOMÁTICAS, sem intervenção humana, a partir do processamento de informações tributárias geolocalizadas!

O que, à primeira vista, pode parecer a simples disponibilização de um aplicativo móvel à população, tem finalidade bem mais audaciosa: a implementação de Pregões Eletrônicos Automáticos em todos os órgãos públicos do Brasil!


 PASSO 1 – CONCLUÍDO


Publicação de aplicativo e site web para todos os cidadãos poderem consultar, em tempo real, baseado no banco de dados dos cupons e notas fiscais eletrônicas da Secretaria de Fazenda do Estado, os preços de todos os produtos vendidos na região.


Mediante uso de tecnologia de processamento de bigdata e geoprocessamento, o preço de todos os produtos vendidos no Estado pode ser consultado, imediatamente após a emissão dos cupons fiscais, a partir do código de barras ou descrição do bem.


Constam da base cupons e notas fiscais referentes a venda de quase 1 milhão de tipos diferentes de produtos, desde um pacote de guardanapos até veículos zero quilômetro, emitidos por 120 mil estabelecimentos em toda a região, gerando-se um total de 5 bilhões de registros por ano.


Mais de 100 mil downloads do aplicativo já foram baixados nas lojas Google Play e Apple Store, gerando economia financeira direta e otimização de tempo aos usuários da plataforma.


 


PASSO 2 – PREVISTO PARA OUTUBRO DE 2019


Publicação do Painel de Geração de Preços de Referência, para ser utilizado por todos os setores de compras das Prefeituras e Governo do Estado.


A partir de extensa base de dados, devidamente estruturada e contendo dados desde 1º de janeiro de 2018, as comissões de licitações poderão gerar preços de referência para todos os produtos constantes do projeto.


O painel demonstrará a série histórica de preço de cada produto consultado, destacando três dimensões de vendas:


1) Preços de venda praticados pelo varejo diretamente aos CONSUMIDORES;


2) Preços de venda a ÓRGÃOS PÚBLICOS municipais, estaduais e federais no Estado;


3) Preços de venda no ATACADO, gerados a partir das notas fiscais emitidas a pessoas jurídicas.


 


PASSO 3 – PREVISTO PARA JULHO DE 2020


Submissão de estudo e propositura, às Casas Legislativas Federais, de novo Marco Legal das Compras Públicas, recomendando alterações legais que viabilizem a implantação, no Brasil, dos seguintes processos:


1) Aquisição, via pregão eletrônico automático, sem intervenção humana, de um grupo-piloto de bens, devidamente estudados e classificados, por intermédio de consulta automática, em tempo real, dos preços praticados pelos mercados locais e regionais;


2) Avaliação (conceito de “estrelas”) de servidores públicos, utilizadores dos produtos adquiridos, quanto à sua qualidade;


3) Retroalimentação do sistema automático de compras que, além de privilegiar a concorrência plena entre fornecedores, passará a considerar a qualidade dos produtos por eles vendidos.


4) Criação de comissão técnica nacional responsável pela extensão do grupo-piloto de bens, passíveis de serem adquiridos pelo processo automático.

Use os botões abaixo para votar:

Malha Fina FNDE

Trata-se de gestão de risco estatístico, por técnica de mineração de dados aplicada à prestação de contas do FNDE, como modelo preditivo de priorização de análises de prestações de contas. A técnica propõe metodologia adequada de gestão de risco que compatibilize a análise de prestações de contas dos programas elencados à capacidade de análise disponível pelos recursos humanos da autarquia, evitando-se a geração de novos passivos ao adotar-se priorização de análise em razão do risco estatístico de malversação. A metodologia adota cruzamentos de informações e mineração de bases de dados de modo a estabelecer lista adequada à capacidade operacional da autarquia para análise conclusiva de processos de contas, a chamada “Malha Fina do FNDE”.


O projeto piloto para a metodologia considera estudo das bases de dados do Programa Nacional de Alimentação Escolar - PNAE, do Programa Nacional de Apoio ao Transporte do Escolar - PNATE e do Programa Dinheiro Direto na Escola - PDDE, utilizando algoritmo estatístico de acuracidade adequada, que conclua pela aprovação estatística, sobrestamento ou malha fina destinada a análise manual e conclusiva do processo.


A metodologia de mineração e dados utilizada para o projeto de gestão de risco em prestações de contas no FNDE foi o CRISP-DM (Cross Industry Standard Process for Data Mining).


No FNDE uma prestação de contas pode ter cinco estados finais: aprovada, aprovada com ressalva, aprovada parcial, aprovada parcial com ressalva e não aprovada. Inicialmente, esperava-se que o modelo estatístico pudesse classificar uma prestação de contas em uma destas categorias, porém, como o número de prestações de contas efetivamente analisadas é baixo (frente à disponibilidade de estoque), decidiu-se como melhor precisão do modelo a estratégia de separar-se os cinco estados finais disponíveis em dois grupos: com danos ao erário e sem danos ao erário. Onde as classificações que conduzem á conclusão dano ao erário são Aprovada Parcial, Aprovada Parcial com Ressalva e Não aprovada. Por óbvio, as que não conduzem: Aprovada e Aprovada com Ressalva.


Definido então a variável resposta e os atributos para alimentar o modelo, foi escolhido o algoritmo XGboost para prever a probabilidade de identificar se uma prestação de contas pode gerar algum prejuízo ao erário. Este tipo de modelagem chama-se aprendizado supervisionado, pois se apresenta à máquina dados já analisados manualmente e o algoritmo usado “aprende” quais padrões nos dados definem e conduzem a determinada classificação.


A ideia por trás do algoritmo é bastante simples. Partindo do pressuposto de que “pequenos aprendizados” podem gerar um “grande aprendizado”, é possível construir um método que aprende em cada iteração com os erros gerados no procedimento anterior.


De maneira geral, o algoritmo inicialmente gera uma arvore de decisão, na qual são classificados todos os indivíduos da base de treinamento. A partir da segunda iteração, utilizam-se os resíduos ou “erros” da interação anterior para gerar uma nova árvore, que tende a errar menos que a precedente. Esses passos são repetidos por um número finito de vezes, até que a geração de uma nova arvoes não gere maior ganho. Este método é chamado de Gradient Boosting.


 


 

Use os botões abaixo para votar:

Mineração de opinião - Revisão de abordagens e sugestões de uso em ambiente governamental

Título: Mineração de opinião - Revisão de abordagens e sugestões de uso em ambiente governamental


Tipo de proposta: apresentação (20 minutos, no plenário)


Foco principal da apresentação: Técnico


Fase do trabalho apresentado: Trabalho em andamento e em estudo


Descrição da apresentação: Apresentar a mineração de opinião, mostrando o que já foi utilizado nesta área além de apresentar uma abordagem nova, a qual está sendo explorada pelo autor da apresentação. Os impactos vislumbrados é a utilização da mineração de opinião como ferramenta auxiliar à tomada de decisão em diversos cenários.


Detalhes técnicos: Python; NPL; Machine Learning;

Use os botões abaixo para votar:

Minerando o processo normativo no Poder Executivo Federal: uso de ferramentas de Process Mining para mapeamento e análise do processo normativo na Casa Civil da Presidência da República

Apresentação do estudo de caso "Minerando o processo normativo no Poder Executivo Federal: uso de ferramentas de Process Mining para mapeamento e análise do processo normativo na Casa Civil da Presidência da República", cujo foco gerencial é demonstrar os resultados práticos obtidos pela análise dos logs do Sistema Eletrônico de Informações e do Sistema de Geração e Tramitação de Documentos Oficiais do Governo Federal. 


No estudo foram utilizados os softwares de process mining ProM e Disco, da Fluxiconpara o projeto de modernização do processo normativo no Poder Executivo. O arcabouço normativo federal, resultado do processo mencionado, rege a vida de milhões de cidadãos, o que tornou ainda mais relevante a tarefa de diagnosticar imperfeições no processo, uma vez que pequenas melhorias podem gerar profundo impacto positivo na vida dos brasileiros. O propósito do estudo de caso foi identificar falhas nos processos normativos propostos pelo Executivo Federal, tais como, sobreposição de normas em diversas camadas, gargalos e retrabalhos. Esse desafio proporcionou uma oportunidade única de aplicação do process mining, metodologia jamais utilizada no diagnóstico de imperfeições no curso de uma das principais atividades da Administração Pública Federal: legislar.


O estudo encontra-se disponível em: fluxicon.com/blog/2018/12/case-study-government-process-mining-in-the-brazilian-executive-branch.

Use os botões abaixo para votar:

Modelagem de Tópicos para compreensão do mercado financeiro

A modelagem de tópicos envolve a descoberta de tópicos abstratos que ocorrem em uma coleção de documentos. O presente trabalho demonstra a utilização, no contexto da administração das reservas internacionais pelo Banco Central do Brasil, de métodos de modelagem de tópicos na compreensão de decisões do Fed (Banco Central americano) por meio da análise das atas de suas reuniões, sob diversos aspectos e com a utilização de diversos modelos. Tal informação se mostra útil na análise do cenário americano e mundial.


O trabalho pode trazer insights sobre a possibilidade de aplicação destas técnicas em outros órgãos e para áreas distintas.


- Tipo de proposta: apresentação (20 minutos, no plenário)
- Foco principal da apresentação: Técnico, para facilitar a realização de trabalhos semelhantes por analistas.
- Fase do trabalho apresentado: trabalho em andamento gerando resultados
- Detalhes técnicos: Utilizou-se a linguagem Python com pacotes como o gensim para modelagem de tópicos.

Use os botões abaixo para votar:

Modelagem e resolução de um problema real de atribuição e programação de projetos de auditoria por meio de técnicas de pesquisa operacional.

Tipo de proposta: apresentação de 20 minutos em plenário. Fase do trabalho apresentado: proposta de implementação.


*Obs.: O trabalho descrito a seguir é eminentemente técnico, mas o foco principal de sua apresentação é gerencial. Na verdade, a pesquisa operacional detém, de fato, o mérito de unir estes dois mundos (técnico e gerencial), os quais, à primeira vista, podem parecer distantes para um observador desatento. 


A pesquisa operacional é um ramo da matemática aplicada que se encarrega de empregar métodos analíticos avançados na resolução de problemas do mundo real, tendo por objetivo melhorar os processos de tomada de decisão. Neste trabalho, relativo a tema de dissertação de mestrado do autor, foi identificado um problema de programação de projetos de auditoria que é usual entre os gestores de unidades de auditoria da CGU e que normalmente sempre foi resolvido apenas de modo intuitivo e/ou sem a devida preocupação com a declaração de critérios objetivos.


Por meio do emprego de uma ferramenta essencial da pesquisa operacional, denominada programação linear, criou-se um modelo de programação inteira mista para que o problema em questão pudesse ser representado matematicamente e resolvido de modo exato. Como a CGU não dispunha de um conjunto de dados reais suficientes para a resolução do modelo, foi desenvolvida uma metodologia para a geração aleatória de um conjunto de instâncias do problema, com base em estimativas de dados utilizadas no planejamento real de trabalhos de auditoria da CGU. O modelo MIP (do inglês, mixed integer programming) construído no trabalho foi programado em OPL (Optimization Programming Language) e resolvido, para o conjunto de instâncias geradas, por meio do solver comercial CPLEX, da IBM.


Como o modelo matemático não pôde resolver otimamente as instâncias do problema em um tempo de computação considerado razoável para os propósitos de sua aplicação, foram desenvolvidos algoritmos heurísticos construtivos, por meio da linguagem de programação Julia (originária do MIT), para que se pudessem obter boas soluções (não ótimas) em um tempo computacional bastante inferior. A qualidade das soluções encontradas pelos heurísticos foi determinada por meio de seu desvio relativo percentual (RPD, do inglês, relative percentage deviation) frente a uma cota superior obtida pelo CPLEX para o valor da função objetivo do problema, após transcorrido um timeout (tempo máximo) previamente configurado. Por fim, realizou-se a análise de variância (ANOVA) de um único fator dos valores médios encontrados para a variável resposta RPD por cada algoritmo, com o objetivo de verificar a existência de diferenças estatisticamente significativas para um risco de primeira espécie em 5%.


Os modelos desenvolvidos neste trabalho podem ser utilizados para a programação de quaisquer tipos de projetos, não apenas para os de auditoria, enfocados neste caso. Obviamente, a função objetivo do problema, as variáveis de decisão e as restrições deverão variar de acordo com o contexto e os propósitos de cada aplicação em específico. Por meio desta apresentação, pretende-se demonstrar o quanto a pesquisa operacional pode ser útil para resolver problemas cotidianos enfrentados na Administração Pública, contribuindo para uma melhor qualidade das decisões tomadas pelos gestores e, assim, maximizando a eficiência na prestação de serviços públicos à população brasileira.

Use os botões abaixo para votar:

Modelo de Recomendação de Agentes Financeiros no Canal de Relacionamento com Médias, Micros e Pequenas Empresas do BNDES

Tipo de proposta: Apresentação


Em junho de 2017, o BNDES lançou o Canal do Desenvolvedor MPME, ferramenta através da qual o empresário identifica as linhas de crédito mais adequadas para o seu empreendimento; simula financiamentos, aponta os agentes financeiros intermediadores (bancos) de sua preferência (o canal permite a indicação de mais de um banco), e encaminha, de forma ágil, manifestação de interesse de financiamento diretamente para os especialistas (back office) dos agentes financeiros intermediadores, responsáveis pela carteira do BNDES.

O Canal alterou o paradigma de operações com as empresas, no sentido de que a originação das mesmas passou a se dar também em um ambiente digital hospedado no Portal do BNDES, embora, ainda se conserve o modelo de originação tradicional, via agências bancárias de instituições financeiras credenciadas.

O trabalho em pauta visou desenvolver um algoritmo de recomendação, para estabelecer quais os agentes financeiros com maior probabilidade de atender às necessidades de crédito levantadas pelos clientes no ambiente online do BNDES. 

Para isso, foram propostos diversos modelos de matching e recomendação, que utilizavam técnicas diversas, desde árvores de decisão até clusterização. Depois desse trabalho, os algoritmos foram colocados em um ambiente competitivo para um teste AB, com o objetivo de otimizar uma métrica específica. Finalmente, o algoritmo que tinha a melhor taxa de conversão foi escolhido como vencedor do processo.

Use os botões abaixo para votar:

Modelo para Avaliação de Riscos em Barragens com Associação de Métodos de Análise de Decisão Multicritério e Teoria de Conjuntos Fuzzy

Esse trabalho teve por objetivo modelar a análise de riscos em anomalias e patologias em barragens para prevenção de incidentes e acidentes que levem à ruptura com impacto danoso. Dessa forma por meio de análise documental identificaram-se as anomalias ou patologias em barragens advindas de modelos estabelecidos; também identificaram-se os fatores de risco associados a tais anomalias; categorizaram-se quanto à natureza do risco as barragens selecionadas por equipe de especialistas; e validaram-se os fatores de risco associados a essas por intermédio de entrevistas semiestruturadas realizadas com os engenheiros responsáveis por sua segurança. Para tanto, a pesquisa documental ajudou a identificar os grandes grupos e os fatores de risco. A utilização de Método de Apoio Multicritério à Tomada de Decisão associado a regras Fuzzy apoiaram na categorização quanto a natureza do risco. Além disso, 57 engenheiros especialistas, responsáveis pela segurança das estruturas estudadas, foram entrevistados para que se pudessem validar os fatores de risco. O modelo desenvolvido permitiu a análise ampla do desempenho e da integridade das estruturas avaliadas, servindo de base para identificação de vulnerabilidades específicas, sendo os resultados apresentados para os cenários avaliados considerados conexos com as preferências dos especialistas e do decisor. Neles 26% das barragens estudadas posicionaram-se em categoria de grau de risco elevado, indicando necessidade de maior atenção em termos de conservação dessas estruturas, reforçando a necessidade de ações de controle e monitoramento.

Use os botões abaixo para votar:

O BNDES e os Objetivos do Desenvolvimento Sustentável

Há um movimento das instituições nacionais e internacionais em associar os resultados dos seus projetos e de suas estratégias à implementação dos Objetivos do Desenvolvimento Sustentável da ONU (ODS) como uma ferramenta poderosa de gestão pública. O Banco Nacional de Desenvolvimento Econômico e Social (BNDES) desenvolveu uma metodologia para evidenciar, a partir de dados das operações que apoia, como o banco contribui para implementação dessa agenda. Para isso, foi criada uma página web na qual são comunicados os desembolsos do BNDES para sete ODS selecionados - os de apuração mais simples: 3 Saúde, 4 Educação, 6 Água e Saneamento, 7 Energia Limpa, 11 Cidades Sustentáveis, 12 Consumo e Produção Responsáveis, 15 Vida Terrestre. A identificação dos projetos apoiados por ODS foi realizada por meio de uma parametrização que levou em consideração os instrumentos financeiros do banco e os setores de atividades das operações, atrelando-os a uma ou mais metas de cada ODS. Para cada meta, foram identificadas palavras-chave que condensavam a informação mais relevante para a atuação do BNDES.
Os desembolsos são informados no mapa do Brasil por município para cada ODS escolhido, utilizando uma escala de calor para os valores desembolsados. A comunicação teve o corte temporal de 2015, ano em que os ODS foram pactuados, até hoje. Este mapa interativo foi construído utilizando a biblioteca Leaflet que tem como base o OpenStreetMap. Os municípios são realçados no mapa conforme o usuário passa com o mouse sobre eles, aparecendo o total desembolsado (desde 2015) para operações naquele município, para o ODS selecionado, além de exibir os totais desembolsados em operações intermunicipais.
A ferramenta criada amplia o compromisso do BNDES com a transparência perante a sociedade, bem como comunica a efetividade da sua atuação para implementação da Agenda 2030 em todo território nacional.

Use os botões abaixo para votar:

Observatório de Indicadores do Município de Niterói (ObservaNit)

O Observatório de Indicadores de Niterói (ObservaNit) é uma plataforma de indicadores que foi formulada em consonância com os parâmetros de Planejamento Estratégico NQQ e com o Plano Plurianual 2018-2021, através do programa Compromisso para resultados do município de Niterói. Visando o desenvolvimento de maneira sustentável, foram incluídos aspectos estratégicos de monitoramento de políticas públicas para o desenvolvimento sustentável, como a Agenda 2030, através dos Objetivos de Desenvolvimento Sustentável propostos pela Organização das Nações Unidas (ONU).


Os 17 Objetivos do Desenvolvimento Sustentável estão associados a um conjunto de metas, vinculadas a indicadores, que exercem papel fundamental no processo de avaliação e monitoramento do alcance da Agenda 2030. Apesar de sua natureza global, os ODS podem ser traduzidos em âmbito regional e local, e sua evolução pode variar de acordo com contextos sociais, econômicos e culturais específicos.


Na gestão do monitoramento de indicadores, nota-se que, nacionalmente, muitos dados e indicadores são produzidos por diversas instituições e entidades governamentais, o que facilita o processo de acompanhamento e avaliação pelo gestor público. No entanto, quando se observa o nível local, grande parte desses dados e indicadores encontram-se defasados ou sequer estão disponíveis.


Nesse sentido, para aprimorar o sistema de monitoramento de indicadores da cidade, alinhando os objetivos às necessidades e particularidades do âmbito municipal, o ObservaNit tem como objetivo divulgar estatísticas e indicadores municipais para controle social, possibilitar um melhor entendimento das relações no território, propiciar um processo decisório com base em evidências, aprimorar a eficiência das políticas públicas e investimentos, além de ser um instrumento que possibilita a territorizalização dos ODS.


Tipo de proposta - Apresentação (20 minutos, no plenário)


Título da apresentação - Observatório de Indicadores de Niterói (ObservaNit)


Foco principal da apresentação - Gerencial


Fase do trabalho apresentado - Trabalho ou projeto em andamento


Detalhes técnicos - Plataforma para a exibição dos indicadores: o site é desenvolvido no CMS (Content Management System) Joomla (baseado em PHP), juntamente com Javascript para a geração dinâmica dos gráficos a partir da tabela temporal do indicador.

Use os botões abaixo para votar:

[Oficina] Cron em esteróides: automatize seus workflows e deixe o Apache Airflow trabalhando pra você! (Brain-on Hands-on)

Briefing:


Aproveite que o computador não tem hora pra acordar, não descansa e só faz errado quando programado pra fazer errado e coloque ele pra trabalhar para você. 


O Apache Airflow é uma plataforma open-source para programaticamente criar, agendar e monitorar fluxo de trabalho. Escala que nem alpinista no Himalaia e é usado em operações complexas de fluxos de dados como Airbnb, Bloomberg, Spotify, HBO e Ministério da Economia. 


Nesta oficina você aprenderá a multiplicar o seu tempo e deixar de fazer tarefas repetitivas de ingestão e transformação de dados. É um modelo Brain-on Hands-on garantido que pra melhor ou pior seu conhecimento no assunto vai mudar.

 

Pré-requisitos (em ordem de importância): otimismo, curiosidade, notebook com docker e git, python. Se for no sistema operacional Linux já ganha meio ponto na prova.

 

Pré-requisitos no aspecto de compreensão do conteúdo, mas considera-se que qualquer um é apto a absorver novos conhecimentos.

Ementa:
* Origami de catavento (recepção e apresentação dos participantes)
* Breve introdução à baleia rainha dos containers: docker
* Ao infinito e além: filosofia e arquitetura Airflow
* Airflow UI, seu lindo
* DAG, que diabos é isso!?
* Hello World. Seu primeiro (ou não) robô
* Baby steps: Implementação de uma DAG pra chamar de sua

Use os botões abaixo para votar:

OFICINA: INTRODUÇÃO À MINERAÇÃO DE DADOS COM O SOFTWARE R

Foco principal da oficina:


O R se destaca como uma ferramenta estatística e esse estigma já é suficiente para desestimular o seu uso por profissionais de outras áreas. Ocorre que os seus comandos e a elevada capacidade de processamento podem facilitar a execução de atividades completamente distintas do segmento estatístico, sendo úteis inclusive para uso no ambiente doméstico de uma família. Essa oficina se propõe a apresentar um ensaio de introdução à mineração de dados fazendo uso das suas funções mais básicas descritas no “Short R Reference Card”. Embora o guia de referência completo tenha mais de 3.500 páginas e exija um longo percurso de aprendizado, nada impede que o usuário iniciante utilize essa ferramenta a partir de algumas funções mais simples e atinja excelentes resultados em diversas atividades profissionais.


Fase do trabalho apresentado:


Estudo de caso com resultados práticos


Descrição da apresentação:


Como motivador para essa introdução à mineração de dados, vamos trazer um problema hipotético relativo a uma suspeita de que há gerentes favorecendo parentes e amigos com financiamentos subsidiados, mal formalizados e sem avaliação de risco de crédito. Ocorrências dessa natureza podem prejudicar o retorno dos financiamentos pela possibilidade de inadimplência e pela fragilidade ou ausência de garantias. Subsídios concedidos a quem não faz jus podem afetar a imagem da instituição quando o assunto vem à tona na mídia. Esse é um tema particularmente interessante para auditores, contadores, administradores e profissionais da área de controle.


 


Detalhes técnicos:


 


Será necessário o uso de computadores em laboratório com o software R instalado.


 


Ementa:


- Iniciando o R


- Exploração das principais funções


- Extração de sobrenomes


- Importação e tratamento de bases


- Relacionamento de bases


- Utilização de filtros


- Obtenção de indícios


- Outras possibilidades de detecção de transações atípicas


- Outras possibilidades de uso da ferramenta


- Considerações finais

Use os botões abaixo para votar:

O Processamento Distribuído, a Inteligência Artificial e a Lava Jato

As investigações criminais tem evoluído em complexidade e amplitude nos últimos anos, bem como o volume de dados, tipos de mídias e formatos utilizados. Na Operação Lava Jato em Curitiba, que já conta com 62 fases, desde março de 2014, recebe-se continuamente dados oriundos de apreensões, quebras telemáticas, bancárias e outras. Resultando num acúmulo de dados, que tornou a análise e separação destes impraticável, pois uma única fase, por exemplo, possui mais de 350 mídias, cada uma contendo em média 500GB de dados brutos.


Da necessidade de processar dados de forma automática e das restrições impostas pela EC 95/2016, que limitou a contratação de soluções, pessoal e de serviços, a equipe técnica buscou a criação de uma solução de baixo custo que permitisse distribuição de processamento, manipulação de diversos formatos digitais, conversão de dados, processamento automático de texto e de imagens, utilizando equipamentos com poder de processamento e memória limitados.


Assim, criamos uma solução baseada em Python, Linux e Docker, utilizando Celery para distribuir o processamento, Tesseract para extração de texto a partir de imagens, Spacy para extração, vinculação e reconhecimento de entidades e modelos baseados em YOLOv3 e InceptionV3, para detecção e classificação de imagens, respectivamente. Os resultados obtidos foram indexados em Solr e visualizados em interfaces Web em Django.


A solução permitiu uma redução de 75% (aprox.) do montante total de arquivos, com uma redução dos arquivos de imagens a 8%, na média, permitindo ignorar imagens sem relevância ou danificadas, identificar automaticamente recibos de depósitos bancários, boletos, cheques, bens e outros. Já o processamento de texto, permite a detecção de nomes e dados de pessoas físicas e jurídicas. Tudo isso, torna o processo investigativo mais célere e efetivo, com perspectivas de integração futura com bases de dados estruturadas e outras aplicações de Inteligência Artificial.

Use os botões abaixo para votar:

O Programa UFF de Ciência dos Dados e a Análise dos Determinantes de Evasão Estudantil

O Programa UFF de Ciência dos Dados foi criado pela Universidade Federal Fluminense visando desenvolver e implementar ferramentas que permitam a utilização da análise dos dados de forma a melhorar a tomada de decisão por parte dos seus gestores e a divulgação de seus resultados de maneira mais clara e precisa. Para tanto, o Programa deverá promover a implementação de projetos de sistemas analíticos voltados para:


- Visualização e monitoramento de indicadores através de dashboards e storytelling;


- Condução de experimentos para avaliar estratégias de gestão antes de sua implantação;


- Condução de estudos analíticos voltados para a compreensão de fenômenos através dos dados;


- Previsão de resultados de indicadores e prescrição de ações corretivas através de otimização;


- Coleta e transformação de dados para uso em processos de descoberta de conhecimento.


Um dos projetos em desenvolvimento no Programa é a análise dos determinantes da evasão estudantil, item extremamente importante para todas as instituições públicas de ensino e que visa nortear as política públicas de gestão dessas instituições. As questões abordadas pelo projeto são:


- Como podemos garantir que os investimentos em educação sejam feitos de forma eficiente?


- De que forma podemos minimizar os impactos dos alunos que abandonam a graduação?


- Quais as razões para retenção?


- Qual o percentual de aproveitamento?


- Quais as razões para evasão?


- Qual a probabilidade de um estudante chegar à RETENÇÃO?


- Qual a probabilidade de um estudante EVADIR-SE?


 


Tipo de proposta: apresentação (20 minutos, no plenário)


 


 - Foco da apresentação: gerencial e analítico, para demonstrar a gestores públicos os resultados potencializados pela análise de dados e apresentar a utilização de técnicas de aprendizado de máquina e inferência estatística no contexto da gestão de uma instituição pública de ensino superior.


 


 - Fase do trabalho apresentado: projeto analítico em andamento com apresentação de resultados parciais; 


 


 - Detalhes técnicos: Para o estudo, foram utilizadas técnicas de Análise Exploratória, Modelos de Classificação com Árvores de Decisão  e Algoritmos Genéticos com uso dos softwares Python, R e Excel.

Use os botões abaixo para votar:

Otimização na análise e classificação dos requerimentos da Procuradoria Geral da Fazenda Nacional

A Procuradoria Geral da Fazenda Nacional (PGFN), entre outras atribuições, é responsável por gerir processos de cobrança de dívidas fiscais dos contribuintes juntos à União.

Os contribuintes utilizam o sistema SICAR para responder aos processos de cobrança, registrando requerimentos e informando justificativas e documentos que comprovem pagamentos, quitação, cobranças indevidas, entre outros motivos; assim requerendo análise por parte da PGFN.

A análise de requerimentos geridos no sistema SICAR é uma atividade manual e onerosa para os procuradores da PGFN. O grande volume de processos e de informações exige alta dedicação e disponibilidade de todos os profissionais envolvidos nesta análise e na tomada de decisão sobre os requerimentos registrados no sistema.

A PGFN recebe inúmeros requerimentos com solicitações e contestações relacionadas a dívidas fiscais diariamente. Cada processo pode conter diversas páginas de texto e de documentos anexados, estando estas informações não estruturadas.

Visando agilizar e otimizar todo esse processo foi projetado o Analisador de Requerimentos PGFN, para analisar, processar os textos e os documentos anexos e classificar os processos nos seguintes status: Deferido, Indeferido, Parcialmente Deferido ou Prejudicado.

Para isso, são aplicadas técnicas de extração e pré-processamento de textos e documentos (PLN) e realizados os treinamentos das redes neurais que são utilizadas na predição e classificação dos requerimentos.

Desta forma, essas análises e decisões são otimizadas e os Procuradores da PGFN passam a atuar apenas em situações de exceção, naqueles requerimentos que a máquina não foi capaz de decidir adequadamente a classificação, ficando assim disponíveis para atuar em outras atividades do órgão.

Eixo temático: Processamento de linguagem natural (Natural language processing - NLP)

Tópicos envolvidos: Otimização de processos repetitivos, como atendimento a demandas, triagem de denúncias ou confecção de peças processuais;

Tipo de proposta: Apresentação

Título da apresentação: Otimização na análise e classificação dos requerimentos da Procuradoria Geral da Fazenda Nacional.

Foco principal da apresentação: Gerencial (para demonstrar a gestores públicos os resultados potencializados pela análise de dados).

Fase do trabalho apresentado: Proposta em estudo para implementação

Detalhes técnicos: No trabalho realizado foram utilizadas principalmente as seguintes tecnologias: Python, Deep Learning (Redes Neurais) e OCR (Tesseract).

Use os botões abaixo para votar:

Painel de Indicadores de Produtividade das Comarcas do Interior do Amazonas.

Painel de Indicadores de Produtividade das Comarcas do Interior do Amazonas.


O Tribunal de Justiça do Estado do Amazonas vem modernizando-se constantemente na busca por realizar Justiça com acessibilidade e de forma igualitária à sociedade, e ser reconhecido pela sociedade como uma instituição que promove a justiça com imparcialidade, de forma célere e com equidade. Na busca por estes valores o Tribunal de Justiça do Estado do Amazonas (TJAM) vem investindo em capacitação e em novas tecnologias que integradas geram resultados eficientes e que ajudam o TJAM na busca pela excelência.


Uma das determinações do CNJ para os Tribunais é a integração de dados e o compartilhamento destas informações, o TJAM através da Plataforma de Inteligência Geográfica e suas ferramentas, veem integrando dados de vários sistemas, bancos de dados, dados Públicos abertos e de outros órgãos seja na Esfera Federal, Estadual e Municipal, os dados são analisados através de estatísticas, modelos matemáticos e por análise espacial para gerar painéis de indicadores (dashboards), que auxiliam os servidores a tomarem as melhores decisões.


O projeto em implantação é o de Indicadores de Produtividade das Comarcas do Interior do Amazonas, composta por 61 municípios e a capital Manaus, vários são os desafios para que o TJAM sirva estes municípios com um serviço judiciário de qualidade e com equidade, serviços de comunicação obsoletos, a distância da capital, o custo de viagens aéreas e o tempo para se cobrir estas distâncias, na sua grande maioria por via fluvial, oneram e dificultam a implantação de projetos de tecnologia.


                O TJAM com uma equipe de excelência e na busca constante de tecnologias que agreguem valor e superem as dificuldades já citadas vem superando-se a cada dia e alcançando as metas determinadas pelo CNJ.


                O Painel de Indicadores de Produtividade das Comarcas dos Municípios do Amazonas e composto pela integração de dados do Sistema Projudi e SAJ. No contexto desde projeto estamos focando as comarcas do interior que são atendidas pelo sistema Projudi.


                O Sistema Projudi é um programa de computador que pode ser utilizado através da Internet e permite a completa substituição do papel por autos processuais digitais. O funcionamento do Projudi é bastante simples e seguro. Os advogados e os cidadãos que desejem ingressar com alguma reclamação podem utilizar a Internet ou se dirigir ao setor de atendimento dos juizados. Esses pedidos serão registrados eletronicamente, com distribuição e cadastramento automático do processo. A partir daí todos os atos serão realizados utilizando-se o computador, com a eliminação do papel.


                Com o uso das ferramentas de geoprocessamento, ferramentas de BI e o uso de estatística junto com a integração de bases de dados, podemos iniciar os processos de análise, fomentando um painel de informações com os principais indicadores que tem por objetivo:


 



  1. Agilizar a Justiça

  2. Diminuir custos

  3. Aumentar a capacidade de processamento de ações

  4. Facilitar o trabalho dos advogados

  5. Melhorar a qualidade do atendimento às partes


 


Objetivo:


Monitorar a produtividade das Comarcas do Interior em conformidade com as determinações do CNJ na busca do atingimento de metas.



Instituição:


Tribunal de Justiça do Estado do Amazonas


 


Participantes:


Humberto F. Junior


Rodrigo Marinho


Anselmo Rodrigues


Rodrigo Choji


Thiago Facundo


 


Tipo de proposta: 
Apresentação


 


Eixo Temático:


Geoprocessamento e Geotecnologias;


Utilização de geoprocessamento com a finalidade de descoberta e interpretação de informações relevantes para o controle ao longo de diversos períodos (espaço-tempo);


 


Foco principal da apresentação:
Técnico


 


Fase do trabalho apresentado:
Projeto em concepção


 


Detalhes técnicos: 
Tecnologias utilizadas: Ferramentas de Geoprocessamento, Ferramentas de Business Intelligence BI, Python, Inteligência Geográfica, Plataforma ArcGIS, Oracle, DB2, PostgreSQL e Internet

Use os botões abaixo para votar:

Panorama de aplicações modernas de Processamento de Linguagem Natural com Deep Learning

-  nome: Lembrando que as propostas são ANÔNIMAS! (ainda que o tema e abordagem identifiquem o autor...)


  -  tipo de proposta: apresentação (20 minutos, no plenário);


  -  título da apresentação: Panorama de aplicações modernas de Processamento de Linguagem Natural com Deep Learning


  -  foco principal da apresentação: gerencial, para demonstrar a gestores públicos os resultados potencializados pela análise de dados;


  -  fase do trabalho apresentado: trabalho em andamento


  -  descrição da apresentação (em até 2000 caracteres sem espaço).


Entenda os resultados recentes, em 2019, de uma das áreas da Inteligência Artificial (IA) que tem passado por mais rápida transformação em seu patamar de desempenho, abrindo oportunidades para inúmeras novas aplicações transformadoras: o Processamento de Linguagem Natural (NLP), área encarregada em ensinar a IA a entender e produzir textos em linguagens como português e inglês.


Tópicos abordados: - Machine Learning & Deep Learning - Processamento de Linguagem Natural (NLP): bases, tarefas padrão - Transferência de Aprendizado em NLP: "momento Imagenet" - Tarefas e conjuntos de dados para avaliação padronizada (benchmarking): - classificação de texto, análise de sentimento - compreensão de linguagem: frases bem formadas, equivalência semântica entre frases, grau de similaridade, inferência lógica, perguntas e respostas, desambiguação de pronomes - Superação do desempenho humano em compreensão de texto: - GLUE: benchmark multi-tarefas - SQuAD: perguntas e respostas baseadas em artigos wikipedia - RACE: provas de compreensão de texto para humanos - Estado da arte em geração de texto: exemplo GPT-2 - Tradução não supervisionada - Desenvolvendo competência em ML/DL: grupo de estudo em Brasília


Será apresentado um modelo baseado na arquitetura ULMFiT treinado para o português do Brasil, que poderá ser reutilizado livrementre por todos para tarefas de NLP em aplicações específicas, como classificação textual, síntese ou perguntas e respostas. 


  -  detalhes técnicos: NLP com Deep Learning, modelos baseados em ULMFiT construídos no stack python/pyTorch/fastai;

Use os botões abaixo para votar:

Perdas de Crédito e Ciclos Econômicos no Brasil - Uma Aplicação do Modelo Econométrico de Séries Temporais no Banco do Brasil


Tipo de proposta: apresentação de 20 minutos.


Foco: gerencial, para demonstrar a gestores públicos os resultados potencializados pela análise de dados. 


Fase do trabalho: estudo de caso com resultados práticos.


Descrição da apresentação:


O estudo foi desenvolvido com o apoio da Diretoria de Gestão dos Riscos do Banco do Brasil (BB) e do Departamento de Ciência da Computação da Universidade de Brasília (UnB), para conclusão do Mestrado Profissional em Computação Aplicada, na linha de pesquisa em gestão dos riscos.


Foram utilizadas bases de dados públicas da carteira de crédito do BB e indicadores macroeconômicos do Brasil, permitindo a replicabilidade do estudo. Em relação ao impacto esperado, o trabalho pode ajudar a reduzir os prejuízos com empréstimos, financiamentos e outras operações de crédito, da ordem de R$ 4,4 bilhões observados no 1º trimestre de 2019.


Desenvolveu-se modelo econométrico de regressão com séries temporais para estimar as perdas de crédito do BB em função dos ciclos econômicos no Brasil, caracterizados pelos movimentos de expansão e recessão da economia brasileira. Portanto, este modelo é pertinente ao tema da área do Seminário sobre Análise de Séries Temporais.


Os resultados indicaram que as melhores variáveis macroeconômicas para estimar as perdas de crédito do BB são inadimplência nas operações de crédito do Sistema Financeiro Nacional (SFN), saldo das operações de crédito na economia brasileira e hiato do produto nacional.

 

 

Use os botões abaixo para votar:

Pesquisa de Diagnóstico e Avaliação do Programa Acessa São Paulo

Autoria – Lilia Belluzzo


Fundação SEADE – São Paulo


Tipo de proposta: apresentação (20 minutos, no plenário)


Título da apresentação -  Pesquisa de Diagnóstico e Avaliação do Programa Acessa São Paulo


Foco principal da apresentação: Considerando a ampla presença de postos de acesso à internet presente nos municípios paulistas, o foco da avaliação, realizada em 2015, foi avaliar a capacidade dos diferentes tipos de postos de atendimento de oferecer inclusão digital.


Fase do trabalho apresentado: Já foi apresentado para a Secretaria de Governo e está fez a reorganização do programa de modo a que os postos estivessem mais adequados ao tipo de público que os utiliza.


Descrição da apresentação: a avaliação do programa Acessa São Paulo tinha como desafio inicial a criação de tipologias que permitissem a comparação entre 700 postos existentes nos municípios paulistas – cujas características diferiam em relação ao tamanho, infraestrutura, proximidade de outros serviços e tipo de público atendido - em áreas metropolitanas ou em cidades de menor porte do interior. Diversos aspectos foram considerados, na análise das informações cadastrais, pesquisa quantitativa de avaliação da satisfação dos usuários com os serviços (equipamentos e conexão com a internet, monitor e satisfação dos usuários) de modo a garantir que a avaliação explicitasse de que modo esse programa podia ser ajustado às necessidades de inclusão digital nos diferentes postos. As diferenças de perfil – áreas metropolitanas tinham maior presença de homens adultos de baixa renda que procuravam trabalho, enquanto os postos do interior tinham maior presença de adolescentes e jovens fazendo pesquisas escolares - levaram à reorganização do programa considerando em relação à localização, tipo de serviços prestados e funcionamento.


 Parte importante do projeto foi o diagnóstico dos bancos de dados gerados pelo programa Acessa SP. As bases de dados analisadas correspondem aos registros administrativos do programa, tais como relatórios gerenciais, cadastro de usuários, monitores e atendimentos, além de pesquisas de satisfação e de formas de uso do programa realizadas com usuários. Entre as principais recomendações decorrente dessas análises está a importância de fazer com que essas bases de dados sejam mais padronizadas, com variáveis chave padronizadas, estruturadas e consistentes.

Use os botões abaixo para votar:

Processamento de linguagem natural com R

Tipo de proposta: oficina (4 horas)


Eixo Temático: Processamento de linguagem natural (Natural language processing - NLP);


Ementa: a oficina utilizará a linguagem de programação R cobrindo os tópicos relacionados ao processamento de linguagem natural. Será utilizado a plataforma rstudio.cloud como ferramenta para o curso. A oficina terá uma abordagem teórica e prática com exemplos. Os tópicos que serão abordados são:



  • utilização da plataforma Rstudio.cloud

  • análise de sentimentos

  • encontrando informações nos documentos - estatística tf-idf (term frequency - inverse document frequency)  

  • correlação entre palavras - modelo Glove (Global Vector for Word Representation)

  • topic modeling

  • similaridade de textos

Use os botões abaixo para votar:

Quanto vale? Usando machine learning para precificar os imóveis do governo federal.

O governo federal tem mais de 700 mil imóveis mas não sabe quanto eles valem. As avaliações de imóveis atuais são pouco confiáveis, demoradas e ainda custam caro para o contribuinte. Além disso essas avaliações - manuais e casuísticas - dão margem a corrupção. O resultado é que o governo compra/vende/permuta imóveis com base em estimativas de preço fantasiosas, com grande prejuízo para o contribuinte. Nesta apresentação vamos mostrar como usar machine learning para resolver esse problema. Raspando dados de plataformas como Wimoveis, ZAP Imóveis, OLX, etc, é possível contruir modelos preditivos capazes de estimar o preço de imóveis de praticamente qualquer tipo, localizados em qualquer lugar do Brasil. Com estimativas de preço realistas e produzidas de forma rápida e barata o governo poderá, por exemplo, finalmente levar adiante o Plano Nacional de Alienação, que hoje tem somente 29 imóveis à venda. Além disso toda a metodologia aqui proposta - incluindo os scripts de raspagem de dados e os de construção do modelo - estão disponíveis publicamente no GitHub, de modo que a sociedade como um todo (proprietários, imobiliárias, compradores, vendedores, pesquisadores) pode se beneficiar dela.


O trabalho todo foi feito em Python. Para a raspagem dos dados usamos principalmente os pacotes requests, selenium e beautifulsoup. Para treinar e testar o modelo usamos principalmente os pacotes scikit-learn e keras. O hardware usado foi um laptop comum.

Use os botões abaixo para votar:

Rastro-DM: Boas Práticas para Documentação de Processos de Mineração de Dados e sua Aplicação em um Projeto de Classificação Textual

Apresentar o  Rastro-DM, conjunto de boas práticas para o registro semi-automatizado das atividades de um projeto de Mineração de Dados (DM) de forma a deixar um rastro das escolhas feitas, dos processamentos realizados e dos resultados obtidos, com foco não no produto gerado, mas no processo por trás de sua construção. Boas práticas que podem ser mescladas à metodologia corporativa de DM em uso na organização.


Ilustra-se o uso do Rastro-DM em um projeto do TCU de classificação textual de documentos em PDF associados a danos ao Erário Público Federal Brasileiro denominado Cladop. Mostra-se, no contexto do Cladop, o uso do rastro documental para a geração semi-automática de relatórios e a sua integração com uma rotina de monitoramento automático proposta para classificadores em produção.


Preocupamos muito em documentar os produtos que criamos: classificadores, regressores, etc. Mas de que vale essa documentação para próximos desafios nossos ou de outras equipes? A documentação do processo e não do produto (abordagem tradicional), promove o aumento da memória organizacional, com o registro do contexto de criação dos artefatos: os pressupostos, os valores, as experiências, o motivo, as conversas e as decisões conduzidas (CONKLIN, 1996).


Imagina se houvesse partilha do conhecimento na área de DM? Enquanto os dados podem ser adquiridos e conectados cada vez mais facilmente, a conexão entre projetos a partir da colaboração de competências técnicas não existe (HUBER et al, 2018).


Armazenar conhecimento é o caminho para se criar uma propriedade inestimável para as organizações, um bem que se acumula ao longo do tempo e que não pode ser comprado por dinheiro algum. (NGUYEN , 2018).


BECKER e GHEDINI (2005) afirmam que: os projetos de DM são desenvolvidos em geral de maneira não estruturada, ad hoc. e que a documentação do histórico das tarefas face a iteratividade e a interatividade do processo é um problema aberto no gerenciamento de projetos de DM


Por fim, a construção do rastro DM em um projeto é um passo fundamental em direção a um potencial salto organizacional ou mesmo da administração pública, a ser obtido com a partilha e o uso dos rastros.


Tipo de proposta: apresentação


Foco principal:  técnico e gerencial


Fase do trabalho: Trabalho de Conclusão de Curso de Especialização em Análise de Dados no TCU (ISC) - já apresentado para a banca 


Detalhes técnicos: não está preso a uma técnica ou plataforma em si. Mas os exemplos mostrados são em pyhon.

Use os botões abaixo para votar:

Record linkage de bases de dados de registro e pós-mercado de medicamentos biológicos: Um olhar sistêmico para o monitoramento de produtos sob vigilância sanitária.

Descrição da apresentação: Neste trabalho descrevemos o processo de vinculação de bases de dados que abrangem registro, alterações pós-mercado e farmacovigilância de medicamentos biológicos no Brasil. Os produtos biológicos revolucionaram o tratamento de muitas doenças graves e crônicas e apresentam desafios importantes para a aprovação e vigilância pós-mercado da segurança desses medicamentos.

O registro de medicamentos é um elemento essencial para a regulação e comercialização no mercado brasileiro. A ANVISA é responsável pelo registro e vigilância pós-mercado de medicamentos. A base de dados de registro de medicamentos, DATAVISA, inclui todos os medicamentos registrados no país. A farmacovigilância é uma estratégia importante para monitorar eventos adversos no pós-mercado.

A fim de obter um banco de dados com uma visão sistêmica do ciclo de vida do medicamento que abrange o registro, as alterações pós-mercado e as notificações de eventos adversos de produtos biológicos no Brasil, utilizamos o DATAVISA e o banco de dados de eventos adversos da farmacovigilância.

A técnica de linkage determinística foi utilizada para associar 2.429.556 informações de registo de medicamentos incluídos no DATAVISA e 93.391 notificações de eventos adversos na farmacovigilância. Dos 2.429.556 dados, 188.830 foram dados de registros e um total de 2.240.726 entradas foram dados de alterações pós-mercado. Neste cenário, 48.144 foram alterações pós-mercado de produtos biológicos. Os 188.830 dados de registro foram agregados e produziram 14.163 pares produto-empresa. A agregação de 48.144 dados do pós-mercado de produtos biológicos resultou em 663 pares produto-empresa. Para os dados de farmacovigilância, a agregação produziu 5.874 pares produto-empresa. A vinculação dos dados de registro, pós-mercado e de farmacovigilância resultaram em 147 pares produto-empresa que identificaram 5.468 notificações de eventos adversos.

Este estudo apontou que algumas alterações pós-mercado encontram-se relacionadas a um maior número de notificações de eventos adversos.

Um único banco de dados com informações vinculadas de registro, alterações pós-mercado e dados de notificações de eventos adversos de medicamentos foi produzido. Este modelo permite correlações estatísticas para o aprimoramento do perfil de segurança de medicamentos e abre perspectivas de fornecer informações relevantes para avaliar o risco de eventos adversos no desenvolvimento de novos medicamentos.

Tipo de proposta: Apresentação 20 minutos, no plenário


Foco principal da apresentação: Gerencial 


Fase do trabalho apresentado: Estudo de caso com resultados práticos; 

Use os botões abaixo para votar:

Recuperação de Informação em processos do MPSC

 Título: Recuperação de Informação em processos do MPSC


Tipo de proposta: apresentação (20 minutos, no plenário);


Eixo Temático: Processamento de linguagem natural (Natural language processing - NLP);


Descrição da apresentação: De acordo com a Constituição Federal (art. 129), os Ministérios Públicos (MPs) têm como funções a promoção de ações penais públicas, zelar pelo respeito entre os Poderes Públicos, exercer controle externo da atividade policial, por meio de pareceres públicos. O sistema de busca de pareceres do Ministério Público de Santa Catarina (MPSC) possibilita que o cidadão acesse os pareceres através do número do processo, de modo que o público em geral, i.e., pessoas que não sejam técnicas da área ou estejam envolvidas em algum processo, têm dificuldade em acessar informações de seu interesse. Como primeiro passo para otimizar a recuperação de informação, foi proposta a identificação de tópicos dentro de assuntos, usando topic modeling. Técnicas de topic modeling auxiliam na recuperação de informação quando não se sabe como procurar a informação que se procura dentro da coleção, ou quando não se sabe a informação explicitamente. O algoritmo utilizado para a modelagem foi o LDA, Latent Dirichlet Allocation, o qual é um modelo probabilístico generativo. Neste trabalho, foi proposto um estudo de caso de classificação de pareceres com uso de tópicos. Primeiramente foi realizada a extração de conteúdos dos arquivos PDF dos processos. Com os conteúdos e metadados extraídos foi realizado o pré-processamento dos arquivos, que inclui: (i) agrupamento dos documentos; (ii) tokenização por palavras, (iii) filtragem palavras mais relevantes, (iv) conversão de todo texto para letras minúsculas e (v) RSLP stemming (Removedor de Sufixos da Língua Portuguesa). Com os documentos pré-processados, foi realizada a modelagem usando o algoritmo LDA para topic modeling. Com a aplicação da metodologia apresentada foram encontrados quinze tópicos (ex: compras online, educação, aumento de preços, danos morais e materiais, ajustamento de conduta) relacionados ao assunto de práticas abusivas dos processos judiciais, melhorando a identificação de processos similares sem que precise do número do processo para acessá-lo;


Motivação do uso de análise de dados: melhorar a identificação dos pareceres do Ministério Público de Santa Catarina (MPSC);


Técnicas e ferramentas utilizadas: foram utilizados como técnica o modelo probabilistico generativo conhecido como Topic Model(algoritmo LDA - Latent Dirichlet Allocation)  e como ferramenta a linguagem de programação R;


Resultados atingidos:  foram encontrados os seguintes tópicos em 24.110 documentos de direito do consumidor em práticas abusivas: Compras Online,  Ajustamento de Conduta, Isenções e Benefícios, Cobrança Indevida, Regularização em Construção Civil, Serviços Públicos Essenciais, Educação, Produto Impróprio para Venda, Acidentes de Trânsito, Sistema Financeiro, Indenização, Imóveis e Plano de Saúde;


Fase do trabalho: em andamento. A metodologia desenvolvida para este trabalho está sendo aplicada em outras áreas temáticas do MPSC.

Use os botões abaixo para votar:

Redes de influência na Esplanada dos Ministérios - Uma análise das agendas públicas das autoridades

Título da apresentação: Redes de influência na Esplanada dos Ministérios - Uma análise das agendas públicas das autoridades


Foco principal da apresentação: Técnico.


Fase do trabalho apresentado: O trabalho possui resultados práticos. Afere, por erxemplo, o grau de transparência na divulgação de agendas, de acordo com as determinações da Comissão de Ética Pública. Ressalta-se que apesar da apresentação abarcar dados referentes ao Governo Michel Temer, o projeto encontra-se em andamento diariamente durante o Governo Jair Bolsonaro.


 


Descrição da apresentação:


Será apresentado o monitoramento de agendas públicas desenvolvido a partir da coleta dos compromissos das autoridades dos Poderes Executivo, Legislativo e Judiciário. O trabalho é realizado por meio da utilização de linguagens de programação que capturam diariamente as agendas oficiais de todos os ministros, secretários-executivos e secretários do Poder Executivo.


No Poder Legislativo consideram-se os participantes das audiências públicas das comissões da Câmara dos Deputados e do Senado Federal. Por fim, no Judiciário, são coletadas as agendas dos Ministros e do Presidente do STF, bem como das partes interessadas classificadas como Amicus Curiae.


A partir de análises de redes de influência é possível perceber quem são os atores mais presentes no processo de construção de políticas públicas, quais as estratégias que grupos de interesse utilizam para participar do processo político, quais órgãos são mais abertos ao diálogo com o setor privado, quais autoridades recebem menos atores em reuniões, quais os temas estão sendo discutidos nos três poderes, dentre outros.


Ao longo de mais de dois anos de trabalho, foi possível observar, por exemplo, que o Poder Executivo operava durante o Governo Temer a partir de 3 clusters. O primeiro relacionado à esfera econômica e com protagonistas como os Ministérios da Fazenda; do Planejamento, Orçamento e Gestão; e, o Banco Central. O segundo, mais ligado ao setor produtivo, composto pelo MDIC; MCTIC; e, MRE. O terceiro, de caráter político, teve como protagonistas a Presidência da República e a Casa Civil e ocupou posição intermediária em relação aos demais.


A respeito da forma de atuação de grupos de interesse, constatou-se, por exemplo, um domínio do setor financeiro na Esplanada dos Ministérios. Dos 15 atores mais atuantes, 10 eram representantes de instituições financeiras. Além disso, foi compreendida a concentração da atuação desses atores sobre os órgãos regulamentadores do setor.


Os resultados são alcançados com a utilização de análises de redes e análises de séries temporais. Já foram monitoradas as agendas de mais de 450 autoridades e capturadas mais de 40 mil interações com cerca de 8 mil grupos de interesse. Em suma, trata-se de um exemplo de processo de mineração de dados governamentais disponíveis de forma difusa.


 


Detalhes técnicos:


A coleta de dados ocorre de maneira automatizada por meio de linguagens de programação desenvolvidas no software Python, com os pacotes selenium e bs4. As análises de dados são desenvolvidas no Microsoft Excel e no Gephi, são de caráter quantitativo e envolvem estatísticas descritivas e análises de redes. Todos os programas são livres, ou seja, não dependem do pagamento de licenças de utilização, com exceção do Microsoft Excel.

Use os botões abaixo para votar:

Ressignificando o Resultado do Tesouro Nacional

-  tipo de proposta: apresentação (20 minutos, no plenário) 


-  título da apresentação/oficina: Ressignificando o Resultado do Tesouro Nacional


-  foco principal da apresentação: técico


-  fase do trabalho apresentado: estudo de caso com resultados práticos


-  descrição da apresentação:


Este aplicativo além de trazer uma abordagem evolutiva de informações sobre o Resultado do Tesouro Nacional, é também uma experiência de transparência, principalmente pelo consumo de dados abertos e abertura de código.


Em relação a dados abertos, os dados consumidos provêm todos do portal de dados abertos do Tesouro Transparente. As consultas são feitas sobre dois conjuntos de dados: Resultado Fiscal do Governo Central: Série histórica e Relatórios do RTN. Do primeiro conjunto de dados são consumidos os recursos Resultado do Tesouro Nacional série Histórica Mensal e Dicionário de Conceitos e Metodologia de Cálculo. Já em relação ao segundo conjunto de dados o aplicativo consome dinamicamente todos os relatórios do RTN. Esse consumo de dados é facilitado pelo fato dos dados estarem num repositório construído numa abordagem direcionada a dados abertos, a plataforma CKAN, que, entre outras facilidades, permite a localização dinâmica dos recursos através de uma abordagem de programação específica, o uso das chamadas APIs.


Em relação a abertura de código, optou-se por tornar disponível em toda a aplicação o botão code que permite ao usuário do aplicativo ler como o código foi escrito para gerar cada um dos gráficos e painéis.


Essa abordagem de transparência mostra como tornar viável uma ressignificação possível dos dados abertos disponibilizados à sociedade. A ressignificação, neste caso, é a transformação de uma planilha com várias abas em:



  • Gráficos que transmitem conteúdos relacionados a aprendizagem;

  • Exploração de recursos razoavelmente avançados de estatística e econometria

  • Participação social

  • Interação lúdica com o usuário.


No conjunto há uma aposta de incremento de um capital técnico do público consumidor não só do ponto de vista das questões fiscais, como também de disciplinas como programação, análise de dados, visualização de dados, estatística e econometria.


Link: https://www.tesourotransparente.gov.br/historias/ressignificando-o-resultado-do-tesouro-nacional


 -  detalhes técnicos: Projeto desenvolvido com R, shiny e RMarkdown. Utilização de técnicas avançadas de visualização de dados e de econometria de séreis temporais.


 

Use os botões abaixo para votar:

Segmentação/Similaridade de textos na otimização de análises de grandes quantidades de documentos.

Tipo de proposta: Apresentação (20 minutos, no plenário).


Foco principal da apresentação: técnico, para facilitar a realização de trabalhos semelhantes por analistas e cientistas de dados.


Fase do trabalho apresentado: em andamento.


Descrição:


Durante trabalhos de pesquisa, fiscalização ou auditoria, é comum que nos deparemos com grandes volumes de documentos para análise. Ademais, tais textos podem vir de diversas fontes, em diferentes tamanhos, em momentos distintos, bem como tratar de assuntos os mais díspares, acrescentando dificuldade em seu estudo e extração de informação relevante. A partir deste problema, e visando à otimização de recursos humanos, materiais e do tempo, vislumbrou-se a possibilidade de, com o devido processamento de um grande volume de documentos, aplicando-lhes algoritmos de processamento de linguagem natural (Natural Language Processing – NLP), de extração de atributos (Feature extraction) e de aprendizagem não-supervisionada (Clustering), agrupá-los em segmentos e ordená-los por similaridade recíproca, com o intuito de facilitar o trabalho de análise consolidada. O trabalho apresentará os resultados iniciais, debatendo a viabilidade e a conveniência das diferentes técnicas empregadas.


Detalhes técnicos:


Métodos:



  • NLP: Extração de pontuação e termos comuns (stopwords), separação de termos (Tokenizer), redução ao radical (Stemmer);

  • Extração de Atributos: Vetorização TF-IDF; Análise semântica latente (LSA); Análise de Componente Principal (PCA); Embeding (Word2Vec).

  • Similaridade: Sim. Cosseno;

  • Segmentação: K-Means, GMM e Hierarchical Clustering.


Softwares:



  • Pré-processamento (OCR e conversão a txt): IPED (Polícia Federal)

  • Processamento: Python

  • Bibliotecas: numpy, pandas, NLTK, scipy, gensim e Scikit-Learn.

Use os botões abaixo para votar:

SIGAUDfor como instrumento de promoção do paperless auditing na Controladoria e Ouvidoria Geral do Município de Fortaleza – CGM

Tipo de proposta: Apresentação no Plenário


Título da apresentação: SIGAUDfor como instrumento de promoção do paperless auditing na Controladoria e Ouvidoria Geral do Município de Fortaleza – CGM


Foco principal da apresentação: Gerencial


Fase do trabalho apresentado: Trabalho em andamento gerando resultados


Descrição da apresentação: A CGM elaborou Plano Anual de Auditoria Interna – PAINT prevendo Auditorias Internas Governamentais preventivas e/ou corretivas dos tipos avaliação financeira, avaliação de conformidade e avaliação de desempenho, focadas em 17 matérias de controle aplicáveis a cada uma das unidades executoras elegidas, oferecendo uma visão panorâmica da gestão, além da realização de atendimentos às demandas extraordinárias de avaliação e assessoramento.


O primeiro passo em direção à diminuição real do volume de papel manipulado foi o estabelecimento das Trilhas de Auditoria, para a captação, o tratamento e a seleção com base em critérios de risco (relevância, criticidade e materialidade) de dados procedentes de algumas aplicações corporativas da PMF.


Nesse contexto foi desenvolvido o Sistema de Gestão das Auditorias – SIGAUDfor, que é aplicação web desenvolvida com o objetivo de integrar todas as etapas de desenvolvimento das atividades de auditoria interna governamental em uma plataforma única, visando a otimização e manipulação das informações que são obtidas na execução dos trabalhos, o armazenamento de dados de forma eficiente e a implantação de uma auditoria completa sem papel.


O referido sistema é uma aplicação web, replicável e escalonável no contexto do controle interno governamental, que segue o modelo estrutural MVC (model, view, controller), controle de logs de acesso e sessões temporizadas sendo desenvolvido com tecnologias de licença livre e de código aberto (open source).


A ferramenta atualmente conta com um módulo EXECUÇÃO, implantado e em uso, onde estão albergadas as Folhas de Informação de Auditoria, Matriz de Achados, Relatório Preliminar de Auditoria - RPA e Infográficos de acompanhamento e visão das auditorias. Pretende-se ainda a implantação do módulo PLANEJAMENTO, que contemplará o processo das Trilhas de Auditoria e Programa de Auditoria; módulo MANIFESTAÇÃO DO AUDITADO, onde constarão as manifestações em resposta ao RPA e controle de prazos; módulo CONCLUSÃO, com o Relatório Final de Auditoria e módulo MONITORAMENTO, o qual permitirá o monitoramento das recomendações emitidas e a criação de um banco de dados de recomendações, com o objetivo de cumprir o papel da instituição de forma eficiente e exitosa, proporcionando um aprimoramento da gestão, com uma auditoria sem papel.


Detalhes técnicos: Para o desenvolvimento do SIGAUDfor foram utilizados o Framework Laravel 5.8, linguagem de programação PHP, sistema de gerenciamento de banco de dados (SGBD) PostgreSQL 11 e ferramenta Power BI para fornecer visualizações dinâmicas, criação de relatórios e dashboards.

Use os botões abaixo para votar:

Sinalização de corridas suspeitas do TaxiGov do governo federal com geoprocessamento e detecção de anomalias

O TaxiGov é um serviço do Governo Federal para locomoção dos servidores públicos, já em uso por 25 Órgãos Federais em Brasília. Por mês, o TaxiGov atende em torno de 30 mil corridas. São mais de 16 mil servidores públicos usuários deste serviço. O TaxiGov revolucionou a forma de locomoção no Governo Federal e trouxe aproximadamente 62% de economia no primeiro contrato. Este serviço será expandido em breve para outros Estados, como RJ e SP.


 


Devido ao alto volume de corridas e o crescente número de usuários, é inviável fiscalizar o serviço manualmente. A fiscalização precisa ser melhorada e automatizada. Utilizaremos detecção de anomalias e análises georreferenciadas para detectar casos suspeitos e enviar alertas automaticamente para a área gestora do TaxiGov, listando os casos suspeitos em que o servidor público fez uso do TaxiGov por engano ou para benefício próprio. Como por exemplo, saber se o servidor público usou o TaxiGov para o aeroporto ou para ir/voltar pra casa. O alerta poderá ser enviado também para o próprio usuário para que ele seja notificado e possa corrigir qualquer engano de uso indevido e mudar a forma de pagamento do serviço para que ele pague a corrida por conta própria e evite uma auditoria.


 


A identificação com antecedência das corridas suspeitas irá alertar o mal uso do serviço de forma preventiva para proteger o servidor público oferecendo uma chance para corrigir o equívoco,  diminuir os casos de uso indevido, reduzir o custo do controle externo e aumentar a confiança no gestor quanto à veracidade das corridas para aprovação do serviço decorrente da fiscalização das corridas realizadas.

Use os botões abaixo para votar:

Sistema de suporte à decisão para priorização de investimentos na manutenção de rodovias utilizando inteligência geográfica

Tipo:  apresentação (20 minutos, no plenário)


Eixo Temático: Geoprocessamento e geotecnologias


 Ainda, com relação ao eixo temático, o trabalho aborda a utilização de geoprocessamento com a finalidade de descoberta e interpretação de informações relevantes para o controle ao longo de diversos períodos (espaço-tempo), bem como análises de redes através da construção topológica-geográfica da malha rodoviária mineira, objeto de estudo.


Foco principal da apresentação: Gerencial


Fase do trabalho apresentado: estudo de caso com resultados práticos.


Abrangência Geográfica:  Estado de Minas Gerais


Descrição da apresentação: A manutenção da infraestrutura de transporte, atividade vital para a sociedade, é uma tarefa constante e onerosa. A seleção e priorização dos segmentos rodoviários candidatos a investimentos carece de critérios técnicos e da transparência tanto da metodologia quanto dos dados analisados. Nesta linha, o presente trabalho propõe um método para classificação e priorização das rodovias para a alocação assertiva de recursos de manutenção e recuperação rodoviária através da utilização de inteligência geográfica aplicado à todas as rodovias pavimentadas sob jurisdição do Estado de Minas Gerais. Foram utilizadas ferramentas robustas de geoprocessamento para calcular a sinuosidade, rise&fall, e as curvaturas horizontal e vertical, base para a estimativa das velocidades de fluxo (informações inexistentes para a maioria das rodovias nacionais). Estimou-se então a matriz origem-destino e os volumes de tráfego das rodovias utilizando o simulador Aimsun. Foram também computadas variáveis do contexto geográfico utilizando interpolações, distâncias euclidianas e estimadores de densidade. Com base nessas variáveis foram propostos diferentes cenários que consideraram as perspectivas socioeconômicas, logísticas, de volume de tráfego e de critérios técnicos de pavimentos, cujas ponderações obtidas através de consultas a especialistas através do método Delphi. Os mapas gerados foram sobrepostos aos segmentos rodoviários contendo atributos de volume de tráfego, o que permitiu elencar os trechos críticos através da intersecção geográfica. O modelo demonstrou robustez quanto ao processamento garantido por algoritmos sólidos e consagrados, e flexibilidade quanto a proposição de cenários, regras e ponderações. Os resultados comprovam a hipótese de que a integração de análise multicritério em ambiente geográfico permite identificar e classificar os trechos rodoviários cuja infraestrutura necessita investimentos, provendo subsídios para a tomada de decisão. Em suma, o trabalho teve como prerrogativa o emprego de dados públicos para atender a uma demanda latente dos órgãos gestores dos sistemas rodoviários no Brasil quanto ao provimento e a organização das informações técnicas da estrutura rodoviária sob sua gestão.


Detalhes técnicos:


- Ferramentas:  ArcGIS e QGIS (análise e modelagem geográfica) ; Aimsun (análise de rede para simulação de tráfego);


- Métodos: Deplhi (análise multicriterial e cenários participativos) ; Rise&Fall e Curvatura (análise das sinuosidades horizontal e vertical para cálculo da velocidade operacional das vias) ; Map Algebra (integração de diferentes superfícies de indicadores espaciais para composição do mapa de viabilidade)


- Fontes de Dados: IBGE, DEER-MG, INPE 


 

Use os botões abaixo para votar:

Sistema de Verificação de Conformidade da Folha de Pagamento-SVCBEN – Potencializando a identificação de inconsistências e indícios de irregularidades no pagamento de benefícios de previdência social




    • Eixo Temático:

      • Avaliação de Políticas Públicas. 

        • Detecção de padrões e relacionamentos úteis à formulação ou execução de políticas públicas;

        • Detecção de anomalias ou fraudes no gasto de recursos públicos;

        • Priorização, por critérios de risco, urgência ou importância de casos para análise, investigação e correção pela Instituição;



      • Foco principal da apresentação:

        • Gerencial, para demonstrar a gestores públicos os resultados obtidos pela análise de dados. A evolução da forma com que a análise de dados é feita hoje (relatórios/dashboards) tem como foco o desenvolvimento de um sistema para identificação, correção e monitoramento de inconsistências e indícios de irregularidades no pagamento de benefícios previdenciários desenvolvidos pelo grupo de trabalho INSS/DATAPREV que já se encontra em uso.






     



    • Fase do trabalho apresentado: 

      • Projeto realizado em conjunto pelo INSS e DATAPREV iniciado em 2016 que monitora hoje um conjunto de 25 inconsistências encontradas e que possui uma economia média anual estimada de R$714,9 milhões com os apontes já identificados.



    • Descrição da apresentação (em até 2000 caracteres sem espaço). Se possível, descreva os impactos vislumbrados ou que de fato foram alcançados pela proposta, estudo, trabalho ou projeto a ser apresentado:


    A DATAPREV hoje é fiel depositária do maior acervo de dados sociais do governo brasileiro com cerca de 7,5 Pbytes de informações, tendo ganho diversos prêmios de qualidade.  No ano de 2017 a  DATAPREV foi considerada a melhor empresa no setor de Serviços Públicos pela IstoÉDinheiro e pela publicação Melhores & Maiores de Exame em 2017 e 2018. A DATAPREV foi considerada a melhor empresa no setor de Indústria Digital no Brasil por três anos consecutivos pelas duas publicações.


    O INSS visando o atendimento de forma corporativa aos apontamentos dos órgãos de controle iniciou em 2016 com um Grupo de Trabalho instituído por intermédio da Portaria CGIA/DATAPREV/PTNº76/INSS o desenvolvimento de estudos para a evolução dos controles internos da folha de pagamento visando identificar, corrigir e monitorar inconsistências e indícios de irregularidades.


    A apresentação contém uma descrição do desenvolvimento do Sistema de Verificação de Conformidade da Folha de Pagamento de Benefícios - SVCBEN e Painel de Qualidade de Dados do Pagamento de Benefícios - QDBEN, trabalho conjunto no âmbito da Previdência Social que se encontra em uso pelas unidades do INSS.


    O principal impacto desta apresentação é mostrar aos gestores públicos um trabalho de excelência na gestão pública aplicada no pagamento de benefícios da previdência social que pode ser estendido a outras áreas do governo para o combate a fraude e melhoria nos serviços prestados a sociedade brasileira.



    • Detalhes técnicos da apresentação:


    A apresentação irá descrever os avanços desenvolvidos pelo INSS e pela DATAPREV no cenário atual da tecnologia da informação no governo brasileiro e na forma com que os gestores públicos terão como acompanhar as políticas públicas dentro das suas áreas.



    • Mini-currículo destacando sua experiência acadêmica e/ou profissional no tópico apresentado.


     


    FRANCISCO ANTONIO DE SOUSA FILHO


    Atuou na Área de Benefícios de agosto de 1976 até maio de 1991. Na Auditoria Geral do INSS  de agosto de 1991 até agosto de 2001, retornei para a área de benefícios em setembro de 2001.


     


    Na área de benefícios criou o Monitoramento Operacional de Benefícios em outubro de 2003 onde chefiou até 31.11.2015.


     


    Em dezembro de 2015 foi convidado a coordenar o Grupo de Trabalho para avaliação da Folha de Pagamento de Benefícios e em Janeiro de 2016 foi formalizado o grupo de trabalho por meio da Portaria nº 76/INSS/PRES de 20 de janeiro de 2016. Foram quarenta e três anos de experiências na área de benefícios e mais especificante atuando no controle interno e combate a fraude.


     


    Por meio dos conhecimentos gerados foi criado o Sistema de Verificação da Conformidade da Folha de Pagamento de Benefícios - SVCBEN e o Painel de Qualidade de Dados do Pagamento de Benefícios - QDBEN.


     


    KELLY ELIANE BENZAK


    Atua na área de benefícios no INSS desde abril de 2003. Desde maio de 2018 chefia a Divisão de Manutenção de Direitos da Diretoria de Benefícios do INSS, onde esteve envolvida com os trabalhos desenvolvidos pelo Grupo de Trabalho por meio Portaria nº 76/INSS/PRES de 20 de janeiro de 2016 quanto à qualificação de dados dos benefícios da Previdência Social, bem como no desenvolvimento do Sistema de Verificação de Conformidade da Folha de Pagamento de Benefícios - SVCBEN e o Painel de Qualidade de Dados do Pagamento de Benefícios - QDBEN.


    Formada em Administração pela Universidade Federal de Santa Catarina desde 2012. Em 2014 concluiu o Curso de Pós-Graduação “Lato Sensu” MBA Gestão Estratégica, pela Universidade Federal do Paraná.


     


    SAVIO AUGUSTO DO NASCIMENTO


    Atua como gerente na Divisão de Análise e Estudos em Métodos Quantitativos deste outubro de 2017 e também como gestor do Programa de  Analytics a partir de 2018, atuou como  gerente de Projeto em Mineração de Dados desde 2013, desenvolvendo projetos de identificação de fraudes nos programas sociais do governo brasileiro.


                Formado em Ciências Estatísticas na ENCE em 1989, concluiu o curso de Mestrado em Engenharia de Produção com disciplinas de Mineração de Dados em 2000.



Use os botões abaixo para votar:

Técnicas de Machine Learning Aplicadas na Previsão de Inadimplência do Programa Minha Casa Minha Vida




Tipo de proposta: apresentação (20 minutos, no plenário).
Foco principal da apresentação: Gestão de Riscos.
Fase do trabalho apresentado: estudo de caso com resultados práticos.


Eixo Temático: Aplicações de Inteligência Artificial na atuação do Estado.


Este trabalho tem como objetivo principal o estudo do comportamento de modelos de previsão da inadimplência a partir de métodos de credit scoring e de técnicas computacionais com algoritmos de Machine Learning. No estudo, são comparadas as capacidades preditivas dos modelos, buscando-se identificar mecanismos de predição de default no Programa Minha Casa, Minha Vida (PMCMV). Diferentes intervalos de tempo para prever default (30, 60, 90, 120 dias) são empregados, como também são analisadas as sensibilidades dos modelos em relação ao número de observações. São também estudados os modelos sem o uso de variáveis discriminatórias tradicionais (gênero, idade e estado civil). Para avaliar a qualidade dos modelos de previsão, são utilizadas três medidas: a área sob a curva ROC, o índice Kolmogorov–Smirnov e o BRIER Score. Os resultados indicam que: (1) a acurácia dos modelos melhora à medida que o número de dias de atrasos utilizados para definir a variável default aumenta; (2) os melhores resultados de previsão foram obtidos com técnicas ensemble tradicionais Bagging, Boosting e Random Forest; e, (3) há um impacto negativo considerável nos resultados quando utilizado um número menor de observações. Constatou-se também que a retirada de variáveis discriminatórias dos modelos preserva o poder discriminatório do sistema de classificação de risco de crédito. Aplicando o algoritmo Bagging, a taxa de inadimplência que é de 11,80% poderia ser reduzida para 2,95%, implicando em uma redução de 197.905 contratos inadimplentes no PMCMV, aproximadamente R$ 9,8 bilhões de crédito.




Use os botões abaixo para votar:

Uma abordagem baseada em aprendizagem de máquinas para medir a ideologia por trás dos discursos do senado brasileiro

Estimamos uma medida de ideologia política usando como dados um corpus de mais de duas décadas de discursos proferidos por senadores federais brasileiros em cinco legislaturas. Empregamos técnicas de processamento de linguagem natural e classificação para extrair os dicionários que melhor traduzem o conteúdo de cada ideologia. Calculamos a precisão da classificação sobre esses textos políticos e mostramos que a polarização está aumentando nas legislaturas. O método também revela os padrões em evolução das ideologias políticas ao longo de um período de profunda mudança na sociedade brasileira.


Nosso modelo de classificação confirma a hipótese de que as ideologias funcionam como um sistema de crenças. Em geral, os senadores de esquerda
empregam um jargão distinto para discutir temas relacionados aos direitos humanos, reforma agrária e educação. Enquanto os senadores de direita têm seu vocabulário específico para abordar tópicos como segurança e produção. Estes tópicos não mudam muito em todo o nosso intervalo analisado, embora a maneira em que eles são abordados parece mudar para atender uma agenda mais conservadora.


 

Use os botões abaixo para votar:

UM MODELO SISTÊMICO DE AVALIAÇÃO DE INDICADORES SOCIAIS RESPONSÁVEIS PELO INCREMENTO DA CRIMINALIDADE

A segurança pública é um dos problemas mais agudos de nossa sociedade atual e o interesse pelo tema tem aumentado de forma significativa. Os altos índices de delinquência historicamente verificados no Brasil põem a questão da segurança pública sempre no foco das atenções da dos governantes. No estado de Goiás a situação da criminalidade também tem sido preocupante nos últimos anos. Segundo dados da disponibilizados pela Macroplan (2017), verifica-se, por exemplo, que o Estado hoje ocupa o 22º pior lugar do ranking brasileiro de homicídios a cada cem mil habitantes, com uma taxa de 43,9.

Diante desse cenário, os pesquisadores têm buscado intensificar os estudos sobre a criminalidade e seus determinantes. Desta forma, Becker (1968) construiu o primeiro modelo teórico, que fez uso de uma estratégia eminentemente econômica para a criminalidade, se tornando referência para os estudos seguintes. A partir de então, seus estudos impulsionaram o surgimento de novas linhas de pesquisa empírica com propósitos de verificar e analisar os determinantes socioeconômicos do crime. Em meio à vasta literatura existente não houve uma convergência em termos de resultados.

O presente trabalho apresentou uma contribuição sobre a matéria, se propondo a resolver o seguinte problema de pesquisa: Como construir uma modelagem de avaliação de indicadores sociais, a partir de uma técnica de Big Data, utilizando a Segurança Pública como âncora, associada aos temas Educação; Trabalho e Renda; Desigualdade Social; e Urbanização, Desenvolvimento e Infraestrutura, de forma a identificar as causas propulsoras da criminalidade?”.

Desta forma, o estudo teve como objetivo geral propor uma modelagem para identificação de indicadores municipais que influenciam o incremento da criminalidade, visto que o crime pode ser influenciado por múltiplos fatores, e seu combate deve exigir uma posição proativa de diagnóstico das variáveis sociais motivadoras.

Para a consecução do objetivo geral, teve, como objetivos específicos:

    - Realizar levantamento do contexto do Estado de Goiás com relação ao sistema de Segurança Pública;
    - Identificar os principais indicadores relacionados à Segurança Pública;
    - A partir dos temas Educação, Trabalho e Renda; Desigualdade Social e Urbanização, Desenvolvimento e Infraestrutura, identificar os seus principais indicadores sociais;
    - Realizar uma análise estatística dos indicadores identificados; e,
    - Propor uma Agenda Setting, destacando as áreas sociais em que devem ser elaborados programas públicos.

Para isso, após análise teórica, foram selecionados indicadores significativos dentro destas áreas, selecionados os métodos estatísticos para o estudo (Análise de Componentes Principais – PCA e Análise Hierárquica de Cluster – HCA) e a partir daí, foram coletados dados dos 246 municípios do Estado de Goiás, fazendo uso de uma amostra de dados disponibilizada no Painel de ocorrências contido no site da Secretaria da Segurança Pública de Goiás (SSP, 2017) e no Banco de Dados Estatísticos de Goiás, do Instituto Mauro Borges – SEGPLAN (IMB, 2017). O programa estatístico utilizado foi o pacote Système Portabled`Analyse - SPAD, versão 7.4, do fabricante Coheris, de 2010.


A Análise PCA foi utilizada para estabelecer as inter-relações entre indicadores de Segurança e de Empreendedorismo, por meio de multiplicação da matriz original com a matriz transposta (EVERITT; DUNN, 2001). Já a HCA foi utilizada para estudar as similaridades das amostras com base na distribuição das variáveis. A técnica do vizinho mais próximo pelo Algoritmo de Benzécri (BENZÉCRI, 1980; BECKSTEAD, 2002) foi aplicada para verificar esta similaridade e os agrupamentos hierárquicos foram formados de acordo com o Método de Variância Mínima de Ward (WARD, 1963). A HCA busca agrupar as amostras em classes, baseando-se na similaridade dos indivíduos (casos). A representação gráfica obtida é chamada de dendograma, um gráfico bidimensional que representa o agrupamento dos indivíduos em clusters (KINGGENDORF et al., 2011). Os valores de p menores que 0,05 devem ser considerados significantes.


Como resultado do processo, foram gerados 04 clusters de municípios e indicadores, formados pelo agrupamento de cidades com índices significantes estatisticamente. Dessa maneira puderam ser visualizadas as correlações entre variáveis sociais com estes elevados índices de criminalidade em nosso estado, e desta maneira, foi disponibilizado um diagnóstico e proposta uma Agenda Setting, com áreas que devem ser alvo de programas públicos.

Use os botões abaixo para votar: