Você precisa estar logado para ir para o próximo passo.
Você precisa estar logado para ir para o próximo passo.
Você precisa estar logado para ir para o próximo passo.

4º Seminário Internacional sobre Análise de Dados na Administração Pública

O Evento

A quarta edição do Seminário Internacional sobre Análise de Dados na Administração Pública ocorrerá em Brasília nos dias 24 a 26 de setembro de 2018O Seminário tem por objetivo promover o compartilhamento de experiências e boas práticas relacionadas ao uso de técnicas de análise e mineração de dados, enquanto instrumento para melhoria da gestão e do controle de entidades e políticas públicas. O evento é organizado conjuntamente pelo TCU, CGU eENAP. 

Chamada de trabalhos

A chamada de trabalho estará aberta até 15 de agosto, para submissão de propostas de oficinas  e/ou de palestras. Ela busca identificar palestrantes de instituições de controle, de entidades da administração direta e indireta, bem como do meio acadêmico e do terceiro setor, para apresentar casos práticos e respectivos resultados, envolvendo a análise de dados da Administração Pública nas três esferas.

Neste ano, os principais eixos temáticos na formação nos painéis serão:

- Processamento de linguagem natural (Natural language processing - NLP);

- Geoprocessamento e geotecnologias; e

- Avaliação de Políticas Públicas.

Continuam sendo de interesse do Seminários quaisquer trabalhos que se enquadrem no amplo leque temático de análise de dados da Administração Pública. Exemplos de tópicos de interesse:

- Detecção de padrões e relacionamentos úteis à formulação ou execução de políticas públicas;

- Detecção de anomalias, abusos ou fraudes na arrecadação ou no gasto de recursos públicos;

- Priorização, por critérios de risco, urgência ou importância, de casos para auditoria, análise ou investigação pelo poder público;

- Otimização de processos repetitivos, como atendimento a demandas, triagem de denúncias ou confecção de peças processuais;

- Mineração de textos e outras fontes de dados não estruturados, para geração de insumos para processos de análise;

- Utilização de Sistemas de Informação Georreferenciadas (SIG) no planejamento, implementação, execução e monitoramento das políticas públicas;

- Utilização de geoprocessamento com a finalidade de descoberta e interpretação de informações relevantes para o controle ao longo de diversos períodos (espaço-tempo);

- Utilização de imagens de satélite e sensoriamento remoto como ferramentas para o monitoramento das políticas públicas ou situações de interesse público, por exemplo, na área ambiental, agrícola, de defesa ou de infraestrutura;

- Apoio à tomada de decisão em políticas públicas baseada no uso de visão computacional ou no processamento de imagens;

- Monitoramento ambiental e de risco de desastres por meio de sensoriamento remoto;

- Análise de redes (network analysis); e

- Análise de séries temporais. 

Observações importantes:  

  -  a apresentação deverá abordar, no mínimo, a motivação do uso de análise de dados, as técnicas e ferramentas utilizadas e os resultados atingidos (ou esperados, no caso de trabalhos ainda em curso);

  -  não serão aceitos trabalhos ou propostas de oficina que tenham como único objetivo a comparação entre ferramentas ou a divulgação de ferramentas específicas, gratuitas ou comerciais;

  -  não há exigência de que o trabalho tenha sido descrito em artigo científico ou realizado com rigor acadêmico, visto que o foco será no compartilhamento de experiências práticas;

  -  serão aceitos trabalhos realizados por entidades públicas, universidades, organizações do terceiro setor ou pessoas físicas independentes, desde que tenham sido utilizados dados do setor público para alcance de resultados de interesse público; e

  -  o evento será realizado em Brasília, sendo que os eventuais custos de deslocamento, alimentação e hospedagem ficarão a cargo dos palestrantes ou de seus órgãos de origem.

Cada trabalho deve ser submetido de forma independente na plataforma, informando, pelo menos:

  -  nome completo e instituição;

  -  tipo de proposta: apresentação (20 minutos, no plenário) ou ação educacional prática (tutorial ou oficina, com duração entre 2 a 4 horas em sala de aula ou laboratório);

  -  título da apresentação/oficina;

  -  foco principal da apresentação: se técnico, para facilitar a realização de trabalhos semelhantes por analistas e cientistas de dados, ou gerencial, para demonstrar a gestores públicos os resultados potencializados pela análise de dados;

  -  fase do trabalho apresentado: estudo de caso com resultados práticos; trabalho ou projeto em andamento ou proposta em estudo para implementação;

  -  descrição da apresentação (em até 2000 caracteres sem espaço). Se possível, descreva os impactos vislumbrados ou que de fato foram alcançados pela proposta, estudo, trabalho ou projeto a ser apresentado;

  -  detalhes técnicos: métodos estatísticos ou modelos de aprendizagem utilizados; softwares e linguagens de programação utilizados;

  -  em se tratando de oficina, descreva: uma breve ementa, detalhando o conteúdo que pretende apresentar, duração necessária para a oficina, entre 2 a 4 horas;

  -  mini-currículo destacando sua experiência acadêmica e/ou profissional no tópico apresentado.

Seleção dos trabalhos

A seleção das propostas será realizada por júri composto por representantes dos órgãos patrocinadores, considerando: votação da proposta na plataforma Speakerfight; impacto esperado do trabalho; originalidade; replicabilidade; e pertinência temática às áreas do Seminário.


Este evento não aceita mais propostas.

Propostas

author photo

9 passos para a detecção de padrões de resultados de decisões judiciais úteis à gestão estratégica de políticas públicas

A AGU representa judicialmente os órgãos da Administração Direta e Indireta. Somente no ano de 2017, foram mais de 2 milhões processos judiciais, nos quais a AGU defendeu a União e seus interesses em litígios judiciais.


Contudo, até 2016, os gestores das unidades não conseguiam visualizar de forma precisa seus resultados. Inferiam-nos ou faziam o controle de sua eficácia em tabelas do Excel.


Porém, com a instituição do Planejamento Estratégico 2016-2019, o panorama mudou. Nele, foi definido o indicador “Taxa de Sucesso Judicial”, que mensura a porcentagem de vitórias das procuradorias.


Depois, uma série de reuniões com a área de negócio foram necessárias para a definição da fórmula do indicador dentro das possibilidades de extração de dados do sistema Sapiens, o GED da AGU.


Como produto produzimos um painel de gestão no qual o gestor de cada unidade visualiza os seus dados de forma minuciosa, verificando a sua taxa de sucesso por assunto, classe de ação, instância, tribunal e outras dimensões.


Além disso, possibilita aos gestores de nível tático e estratégico comparar unidades dentro de uma mesma temática ou então decidir a não mais recorrer em um dado assunto, pois visualizam a alta probabilidade de perda. Isso gera uma grande economia ao erário e ainda uma concentração de esforços em temas mais relevantes e/ou com maior possibilidade de vitória.


É inegável o ganho para a Estado com essa ação. Em 2018, analisando os números apenas até o dia 30/6, foram mais de 4.000.000 de atividades judiciais lançadas no Sapiens por 362 unidades diferentes. A maioria delas totalmente ignorantes em relação a seus resultados antes da publicação do painel. Abaixo, estão os valores resultantes da ação da AGU no 1º semestre de 2018 e que demonstram a importância do atual trabalho. 


















Valores Arrecadados



R$ 1.573.278.580,33



Valores Economizados em Processos Judiciais



R$ 298.650.972.635,03



Valores de Investimento Garantido



R$ 43.386.236.242,82



  


E estes são os passos que serão descritos na apresentação:


Instituição das instâncias de Gestão Estratégica


Elaboração do Planejamento Estratégico


Definição da equipe técnica responsável


Definição dos indicadores estratégicos


Obtenção dos dados


Construção do dashboard


Validação do dashboard


Elaboração dos Manuais dos indicadores estratégicos


Definição do monitoramento dos indicadores estratégicos.


 


Nome: Hugo De Marco Fernandes.


email: hugo.fernandes@agu.gov.br


Instituição: Advocacia-Geral da União-AGU


Setor: Departamento de Gestão Estratégica.


Tipo de proposta: apresentação.


Foco principal da apresentação: Gerencial.


Fase do trabalho apresentado:  trabalho ou projeto em andamento.


Detalhes técnicos: Extração SQL de view do sistema Sapiens; Power BI (linguagem DAX e linguagem M).


 


Mini-currículo:


Bacharel em História/UNB;


Analista Técnico-Administrativo da AGU, onde exerçe a função de construção de painéis de gestão do indicadores estratégicos da instituição;


Professor dos cursos básicos de QlikSense e PowerBI da AGU;


Coordenador do Grupo de Estudos e Discussões sobre Modelagem de Dados, Estatística e BI da AGU.

Use os botões abaixo para votar:

author photo

A democratização no acesso ao conhecimento sobre transparência e gestão pública

Nome e Instituição



  • Flavio Henrique Moura Stakoviak (Instituto de Pesquisas Eldorado)

  • Adriano dos Santos Ribeiro (Instituto de Pesquisas Eldorado)

  • Diogo Augusto Pereira (Instituto de Pesquisas Eldorado)

  • Rafael Gomes Amorim (Instituto de Pesquisas Eldorado)

  • Rogerio dos Santos Santana (Instituto de Pesquisas Eldorado)

  • Vitorio Tadao Kuroda (Instituto de Pesquisas Eldorado)


Tipo de Proposta: Apresentação


Foco Principal da Apresentação: Técnico


Título da Apresentação: A democratização no acesso ao conhecimento sobre transparência e gestão pública


Fase do Trabalho Apresentado: Projeto em Andamento


Descrição da Palestra:


Inúmeras fontes de informação podem confundir usuários com pouco conhecimento sobre administração pública, ao mesmo tempo que a informação ainda é muito genérica para aqueles que buscam temas mais específicos.


A solução proposta visa criar uma plataforma social que auxilie os usuários a aprender e acompanhar acontecimentos na área da transparência e gestão pública.


O processo para alcançar tal objetivo inicia na construção de uma plataforma capaz de aprender e interagir naturalmente com qualquer humano, dentro de um determinado contexto e fontes de informação. Esta é uma das definições de uma área conhecida como Computação Cognitiva que engloba ferramentas como os chatbots.


Através do processamento de linguagem natural (NLP), as máquinas são capazes de compreender o conteúdo de textos e os chatbots fazem uso de algoritmos de NLP para interagirem com usuários, permitindo a execução de ações personalizadas para diferentes contextos.


Dentro do escopo deste trabalho, o chatbot deve tornar agradável a experiência do usuário que deseja aprender mais sobre transparência e gestão pública, para isto, os materiais recomendados devem ser de qualidade e estar dentro do tema pedido pelo usuário.


Garantir um resultado de qualidade em tempo real requer uma arquitetura escalável com algoritmos de aprendizagem de máquina eficientes, capazes de evoluir os modelos treinados de forma autônoma. Os algoritmos de aprendizagem por reforço são capazes de evoluir o próprio modelo de maneira independente, com base em requisições e feedbacks do usuário / aplicação.


Nesta solução, uma extensa base de dados criada a partir de conteúdos indexados da internet, tem seus registros analisados e associados a palavras-chaves, as quais são agrupadas em múltiplos conjuntos e classificados por proximidade semântica.


O pipeline de processamento de eventos é implementado através de uma customização do Tendermint, uma rede Blockchain open-source. Esta abordagem mostrou possuir baixa latência entre as requisições, além de garantir o registro apropriado do estado de cada evento.


A arquitetura criada para a solução é altamente escalável e agrega múltiplas tecnologias disruptivas em torno do propósito de oferecer ao usuário um ambiente para aprendizagem de temáticas de grande interesse para a sociedade.


 


Detalhes Técnicos: A solução é hospedada na nuvem, com a utilização de serviços cognitivos como chatbots e ferramentas semânticas para classificação de conteúdos, aliadas a tecnologias de aprendizagem de máquinas para processamento e extração de informações de múltiplas bases de dados. O pipeline de processamento de eventos é implementado com o uso de Blockchain. 


Mini-Curriculos:


Flavio Henrique Moura Stakoviak


Pesquisador do Instituto de Pesquisas Eldorado, desenvolve projetos de inovação em áreas como Blockchain e Data Science. Mestrando em Ciências da Computação pelo Instituto de Tecnologia da Geórgia, com ênfase em Inteligência Interativa, durante um ano esteve na Universidade da Califórnia de Los Angeles realizando pesquisas na área de Aprendizagem de Máquina para o campo Educacional. Atuou em projetos internacionais que visam melhorar a vida da população por meio da disponibilidade de serviços eletrônico, como a plataforma eletrônica do Governo de Angola e iniciativas nacionais como a criação de ambientes inteligentes.


Adriano dos Santos Ribeiro


Arquiteto de soluções com mais de 15 anos de experiência em diversas tecnologias e plataformas. Principais áreas de atuação: orientação a serviços, Dev-Ops, computação em nuvem, segurança, arquiteturas reativas, aplicações inteligentes ou suporte a tomada de decisão. Atualmente trabalha no Instituto de Pesquisas Eldorado e atende às necessidades da indústria brasileira ou de parceiros internacionais através da inovação tecnológica, também realiza desenvolvimento de pesquisas com Blockchain e Internet das Coisas.


Diogo Augusto Pereira


Engenheiro de software, com mais de 15 anos de experiência no desenvolvimento de aplicações web e desktop, design e arquitetura de sistemas, banco de dados e liderança técnica de equipes.


Rafael Gomes Amorim


Analista de Software e líder técnico no Instituto de Pesquisas Eldorado. Trabalha com tecnologias web desde 2006, atualmente dedicado ao desenvolvimento mobile com Android (Smartphones), Tizen (Wearables) e pesquisas em IoT.


Rogerio dos Santos Santana


Engenheiro de Software Sênior com 20 anos de experiência na área de tecnologia, formado em Ciência da Computação pela Universidade Paulista em São Paulo/SP e pós graduado em Engenharia de Software na universidade IBMEC/Metrocamp em Campinas/SP. Possui grande experiência na criação de aplicações web/cloud e serviços web distribuídos e escaláveis. Vem atuando nos últimos 12 anos como desenvolvedor, líder técnico empresarial e realizando importantes decisões arquiteturais envolvendo aplicações críticas e "real time".


Vitorio Tadao Kuroda


Líder Técnico de Projetos de Software no Instituto de Pesquisas Eldorado, Vitório é graduado em Engenharia de Produção com ênfase em Software pela Universidade Estadual de Maringá/PR. Atua com pesquisa e desenvolvimento de tecnologias móveis e IoT, possuindo mais de 13 anos de experiência na área de desenvolvimento de software

Use os botões abaixo para votar:

author photo

A Estrutura da Despesa Pública Cabo-verdiana no Período de 1991 a 2010

Nome: Maria Jesus de Fátima Gomes Andrade.


E-mail Pessoal: mizuandrade@yahoo.com


Instituição: Tribunal de Contas de Cabo Verde (TCCV) em situação de licença sem vencimento desde 2014 até ao presente momento.


Departamento/Unidade: Ex-Coordenadora da Equipa do Parecer sobre a Conta Geral do Estado (PCGE).


Tipo de Proposta: Apresentação 20 minutos no Plenário.


Título da Apresentação: A Estrutura da Despesa Pública Cabo-verdiana no Período de 1991 a 2010.


Eixo Témático: Cabo Verde, Crescimento Económico, Despesa Pública, Finanças Públicas, Ópticas de Classificação e Séries Temporais.


Foco Principal da Apresentação: Técnico para facilitar a realização de trabalhos semelhantes por auditores, analistas, cientistas e investigadores de dados. A apresentação deste caso prático pode revelar-se proveitoso, já que com base na seleção de uma amostra de 2 décadas, o único extracto de dados contabilísticos público robustos existente no período pós independência, permitiu verificar a tendência e conhecer os factores considerados determinantes na despesa pública do arquipélago de Cabo Verde, sobretudo por não abundarem trabalhos empíricos desta natureza.


Outrossim, considerando ainda as pistas sugeridas para futuras investigações, decorrentes em parte de algumas limitações e constrangimentos sentidas à nível da modelização econométrica poderá esta metodologia ser útil se aproveitada para replicação, considerando o alargamento do âmbito do presente estudo a dados de painel, entre outros, os países da África Subsariana, ou por outro, a longo prazo revisitar o trabalho acrescendo anos à amostra ao nível da dimensão desejada.


Em última análise este caso prático servirá ao Ministerio das Finanças como suporte de base para a criação de um modelo de previsão na eloboração da Proposta do Orçamento do Estado(POE) anual considerando o impacto do aumento/redução das rubricas de despesas públicas orçamentais.


Fase do Trabalho Apresentado: Estudo de Caso com resultados práticos,Tese de Mestrado defendida em 2012 na Universidade de Évora (Portugal) como requesito para a obtenção do Grau de Mestre em Análise Financeira.


Descrição da Apresentação: Esta tese de Mestrado foi concluída e defendida em 2012, uma experiência pioneira que analisou a Despesa do Sector Público Administrativo do Arquipelago de Cabo Verde nos então últimos 20 anos, considerando o período de 1991 a 2010, anos em que haviam contas públicas auditadas pelo Orgão Jurisdicional.


As conclusões reflectem essencialmente os resultados da análise conceptual e descritiva e a modelização econométrica levadas a cabo com base na análise de uma série temporal de 2 décadas recorrendo ao software econométrico STATA versão 11.1.


Se por um lado a análise descritiva segundo diferentes ópticas aponta para um ritmo de crescimento médio do Orçamento de Investimento superior ao do Funcionamento, prevalecendo este em termos estruturais. Os determinantes explicativos da tendência evolutiva foram as rubricas pessoal e operações financeiras e os principais consumidores os ministérios da Educação e da Saúde. Os governos priorizaram as funções redistributivas e de afectação e canalizaram o investimento público para impulsionar as actividades privadas.


por outro lado, a modelização econométrica dos dados, recorrendo a series temporais, sugeriu que a taxa de variação da despesa pública foi influenciada negativamente pelas eleições, alternância governativa e taxa de variação da receita e positivamente pelas taxas de crescimento do investimento e do Produto. O teste de causalidade à Granger entre a variável de interesse e o crescimento económico indiciou a rejeição da lei de Wagner para o caso de Cabo Verde.


Detalhes Técnicos da Apresentação: A modelização econométrica da despesa SPA Cabo-verdiana no período de 1991 a 2010, considerou a classificação económica das despesas públicas e, tratando-se de séries temporais, recorreu-se á metodologia econométrica habitual de tratamento por etapas: i) definição da variável de interesse e das variáveis explicativas potenciais, com as séries em valor a serem deflacionadas, de forma a eliminar o efeito da inflação, ii) averiguação da ordem de integração das séries, iii) estimação e análise de especificação do modelo econométrico e iv) interpretação dos resultados.


Assim, para explicar a variável de interesse, a Despesa do SPA Cabo-verdiano (DT), considerou-se como potencias variáveis explicativas um conjunto de factores que refletem a conjuntura económica: a Despesa de Investimento (DI), as Receitas Totais (RT), o Stock da Dívida Publica Total (SDPT), o Produto Interno Bruto a preços constantes (PIBpcts) e a Taxa de Actualização Salarial (TAS).


Por outro lado, considerou-se na análise um conjunto de acontecimentos potencialmente relevantes, incorporados através de variáveis dummies, nomeadamente, uma dummy para o Acordo de Cooperação Cambial entre CV e Portugal assinado em Março de 1998 (ACC98) e outras duas para os Anos de Eleições Legislativas (ELEC) e respectivas Mudanças Governativas (MUD) ocorridas no período.


Como nos 5 anos eleitorais, 91, 95, 2000, 2006 e 2010 registou-se a meio percurso, nas eleições de 2000, uma alternância governativa, representamos tais situações com as dummies, ELEC e MUD, que assumem o valor 1 nos referidos períodos e o valor 0 (zero) nos restantes período.


Assim, após a aferição da existência de raízes unitárias nas séries estatísticas, estimou-se um modelo econométrico de curto prazo para a despesa pública e, com o objectivo de estudar a relação entre a despesa pública e o crescimento económico, estimou-se um modelo adicional para a implementação do teste de causalidade a Granger de forma a testar a lei de Wagner.


A modelização econométrica de curto prazo permitiu concluir que no universo das potenciais variáveis sugeridas para explicar a despesa do SPA Cabo-verdiana constavam algumas variáveis financeiras estatisticamente insignificantes (TI, TCer, TJ, SDPT e ACC98) sendo as variáveis económicas (DI, RT, PIBpcts e TAS) mais significantes para um trabalho desta natureza no mercado do produto, juntamente com variáveis que descrevem o ciclo eleitoral (ELEC e MUD).


Segundo as inferências, a taxa de crescimento do investimento, do PIB real e da actualização salarial apresentam um efeito positivo sobre a taxa de variação da despesa pública enquanto, a taxa de variação da receita, os anos eleitorais e a alternância governativa influenciam negativamente a mesma.


Entretanto deve-se reconhecer que para o caso concreto de Cabo Verde o resultado não permitiu concluir com alguma certeza de que a despesa depende do crescimento económico, já que á excepção do modelo principal de curto prazo, considerando os modelos desfasados com 2 e 3 lags, a variável despesa condicional nas taxas de variação das DI e RT, na variação da TAS, e das dummies do ciclo eleitoral, não é “causada à Granger” pela taxa de crescimento do produto real. Tratando-se de dados anuais a amostra é reduzida e insuficiente, na ausência de dados trimestrais que poderia por si só alargar a dimensão amostral, o exercício da modelização econométrica aqui empreendida não permite aferir muito em termos económicos, para além do facto da não validação da lei de Wagner.


Resumo do Mini Curriculum Vitae: Sou Maria Jesus Andrade, licenciada em Economia com especialização em Desenvolvimento Regional, com 6 disciplinas extras de Gestão de Empresas e equivalência de Técnico Oficial de Contas (TOC), Mestre em Análise Económica pela Universidade de Évora (Portugal) e Mini Master em Administração Pública pelo Instituto Democracia e Desenvolvimento de Cabo Verde.


Sou Auditora de carreira do quadro privativo do Tribunal de Conta de Cabo Verde (TCCV) em licença sem vencimento desde 2014 a desempenhar a função de Conselheira Sênior Nacional (SNA) - Controlo Externo das Finanças Públicas (ISC) do Projecto de Reforço das Capacidades das Instituições Superiores de Controlo (ISC), Parlamentos Nacionais (PN) e Organizações da Sociedade Civil (OSC) para o controlo das Finanças Públicas nos PALOP e em Timor-Leste financiado pela EU e administrado pelo PNUD http://www.propaloptl-sai.org/index.php/pt/2015-02-16-16-35-44/equipa.


Em 2004 exerci a função de Directora Financeira e de Recursos Humanos na empresa TudoDirecto.com e entre 2005 a 2006 exerci a função de Administradora e Contabilista do Centro Nacional Ortopédico e de Reabilitação Funcional e na Estrategos Consultores Associados. SA.


A partir de 2016 abracei a minha carreira de Auditora no TCCV aonde acumulei mais de 8 anos de experiência profissional, enquanto Coordenadora da Equipa do Parecer sobre a Conta Geral do Estado (PCGE), estive directamente envolvida na emissão de 11 PCGE o que me permitiu adquirir um profundo conhecimento sobre a organização e o funcionamento da Administração Pública.


Fui Técnico Oficial de Contas (TOC), membro efetivo do TCCV na Comissão Nacional de Normalização Contabilística (CNNC) e na Comissão de Definição das Orientações Metodológicas de Auditorias à OIS|CPLP. Fui ainda Coordenadora Nacional do Projecto financiado pela UE, “Eliminação dos Atrasados das Contas de Gerência 2002-2008”, instrutora e expert do CREFIAF em Auditoria de Desempenho, Delegada da OIS|CPLP e da AFROSAI-E, representante do TCCV nas consultorias da Price Waterhouse Coopers House (PWC) para a elaboração dos primeiros Manuais de Auditorias e das novas Instruções de Prestação de Contas e na conceção do Sistema de Planeamento, Acompanhamento e Controlo (SISPAC) do Tribunal.


Estive também directamente envolvida na elaboração dos principais instrumentos de gestão, financeira e técnica da Instituição e estou familiarizada com os Planos Estratégicos, Operacionais e os Manuais de Auditoria e Procedimentos. Tenho outras valências e experiências na área financeira, bancária e contabilística, tendo exercido funções de Administradora, Directora Financeira, de Recursos Humanos e Contabilista junto de algumas empresas e instituições nacionais em Cabo Verde e no Sector Financeiro em Portugal.


Tenho elevado interesse nas Finanças Públicas, forte engajamento profissional e pessoal na área do Controlo Externo, fiscalização, auditorias, orçamento e contas públicas e algumas publicações como a dissertação de Mestrado “A Estrutura da Despesa Pública Cabo-verdiana no Período de 1991 a 2010”, o tema da VII Assembleia Geral da OIS CPLP “As Melhores Práticas adaptadas pelas ISC na área de Auditoria” e o trabalho de promoção “As Duas Décadas do PCGE pelo TCCV”.


Entre Dezembro de 2014 e Dezembro de 2017, abracei um novo desafio profissional, enquanto Conselheira Sênior Nacional (SNA) - Controlo Externo das Finanças Públicas (ISC) do Pro PALOP-TL ISC, Projecto financiado pela EU e administrado pelo PNUD de Cabo Verde o que tem sido uma excelente oportunidade de expandir gradativamente os meus horizontes e a minha visão a nível global, corporativo e regional, em prol do desenvolvimento dos países africanos.


Aproveito para ainda destacar do meu portfólio de formações nacionais e internacionais a participação em 2017 no Programa Leadership for Change in Lusophone Africa (Harvard Kennedy Schooll), no Controlo de Qualidade (CREFIAF), na boa governança em matéria de gestão das finanças públicas e da prestação de contas (BAD), na Liderança de Equipas para Resultados (TCCV) e os Diplomas de Línguas, Delf Internacional Francesa e neste preciso momento em 2018 já na sua recta final o Curso Intensivo de Inglês pela Stafford House da Boston Academy of English em Boston (EUA).

Use os botões abaixo para votar:

author photo

A Faixa de Ônibus Melhora a Vida do Passageiro? Uma Avaliação das Faixas Exclusivas de Ônibus na Cidade de São Paulo a partir da Velocidade de Deslocamento do Cidadão

Nome: João Akio Ribeiro Yamaguchi e Maria Alexandra Viegas Cortez da Cunha


Instituição: Escola de Administração de Empresas da Fundação Getulio Vargas (EAESP-FGV)


Tipo de Proposta: Apresentação (20 minutos, no plenário)


Título da Apresentação: A Faixa de Ônibus Melhora a Vida do Passageiro? Uma Avaliação das Faixas Exclusivas de Ônibus na Cidade de São Paulo a partir da Velocidade de Deslocamento do Cidadão


Eixo Temático: Avaliação de Políticas Públicas; Métodos de Simulação


Foco Principal da Apresentação: A apresentação terá um caráter majoritariamente técnico. Da perspectiva técnica, existe uma inovação na utilização de métodos quantitativos de simulação para avaliar políticas de transporte da perspectiva do usuário ao invés de se focar em uma avaliação em relação à infraestrutura de transporte. Assim, avaliamos a velocidade do cidadão, e não dos ônibus, antes e depois da implementação das faixas exclusivas. Isso tem relevância no debate de políticas públicas baseadas em evidências, uma vez que a racionalidade da metodologia pode ser replicada para outras iniciativas de avaliação de políticas por analistas ou cientistas de dados.


            Adicionalmente, esta mudança de metodologia também revela resultados inéditos quanto ao real impacto das faixas exclusivas de ônibus na mobilidade urbana da cidade de São Paulo. Assim, os resultados da análise de dados são discutidos de uma perspectiva gerencial, ainda que com menos ênfase.


Fase do Trabalho a Ser Apresentado: Estudo de caso com resultados práticos. Trabalho de Conclusão de Curso apresentado como requisito para obtenção de grau de Bacharel em Administração Pública na EAESP-FGV em dezembro de 2017.


Descrição da Apresentação: Entre setembro de 2010 e setembro de 2017, segundo o Detran, o número de automóveis na cidade de São Paulo cresceu aproximadamente 23%, totalizando cerca de 8 milhões e meio de veículos. Já o número de passageiros transportados pelo transporte público via ônibus teve um leve declínio no período, indo de cerca de 249 milhões para 242 milhões de passageiros, de acordo com a SPTrans. Ainda, segundo a mesma instituição, a frota de ônibus acompanhou esse fenômeno, passando de cerca de 14,9 mil em setembro de 2010 para 14,4 mil em 2017. Esse contexto de obstáculos urbanos, portanto, impõe desafios de políticas públicas para a definição de estratégias de expansão e administração do transporte público municipal. Uma destas estratégias são as faixas exclusivas de ônibus, que teriam como objetivo tornar mais eficiente o transporte de passageiros, em uma perspectiva de frota limitada e alta demanda pelos cidadãos.


            O objetivo do trabalho e da apresentação é avaliar o impacto, em termos de eficiência, das faixas exclusivas de ônibus construídas no município de São Paulo a partir de 2015. Para isso, foram elencadas as linhas em que pelo menos 20% de seu trecho são ocupadas pelas faixas, 45 linhas no total; foram comparados os períodos de março de 2015, pré-instalação das faixas, e 2017, pós-instalação. Os dados foram fornecidos pela SPTrans. Para a análise de dados foram utilizadas técnicas de análise de poder estatístico, cálculo numérico, simulação e estatística multivariada. A análise de dados teve o objetivo de comparar via simulações as velocidades médias das linhas ponderadas pelos horários de maior ou menor demanda. Comparou-se, portanto, as velocidades do cidadão nas linhas em dois períodos, pré e pós-instalação das faixas. Os resultados apontaram diferenças estatisticamente significantes entre os períodos (valor-p<0,01) com um tamanho de efeito baixo d=0,178. Comparações metodológicas acerca do uso da velocidade do cidadão ou do ônibus para a avaliação da política são realizadas. Por fim, o ganho de eficiência da linha e as implicações para o modo como o cidadão utiliza os serviços de mobilidade são discutidas.


            A apresentação se focará na apresentação do estudo, de formar a explicar os detalhes técnicos e as implicações de gestão desta avaliação de políticas públicas.


Detalhes Técnicos da Apresentação: O objetivo da análise é fazer a comparação entre os dois anos, antes da implantação das faixas em 2015 e depois da implementação em 2017. Os procedimentos metodológicos se basearam na análise de amostras simuladas de velocidade para os dois períodos, ponderando pelos horários de maior demanda.


            Os dados considerados para a análise, e fornecidos pela SPTrans, foram as médias de velocidade e demanda nas linhas selecionadas nos dois períodos por hora medidos pelo geolocalização dos ônibus nos dias uteis. A construção das funções foi realizada considerando a velocidade média ponderada pela demanda e a demanda diária total das linhas. Os softwares utilizados foram o Matlab, o R e o GPower. Assim, o método foi dividido em quatro etapas:


I) Análise de poder estatístico para definir o número de observações a serem simuladas;


Métodos e Parâmetros: Análise de poder a priori, utilizando o software GPower, para a realização de um teste de Mann-Whitney com poder α=0,95 e tamanho de efeito d=0,5.


II) Simular valores dos horários mais utilizados a partir de dados de demanda média;


Métodos e Parâmetros: método da transformada inversa e splines cúbicas interpoladores.


III) Simular valores de velocidade média baseado nos horários simulados anteriormente;


Métodos e Parâmetros: Splines cúbicas interpoladores.


IV) Utilizar métodos de estatística multivariada para analisar as duas amostras simuladas de velocidade média ponderada.


Métodos e parâmetros: Teste de Mann-Whitney para amostras pareadas. Foi adotada a convenção de valor-p<0,05 e foi calculado um tamanho de efeito d de Cohen.


            A hipótese nula do trabalho é de que não existem diferenças estatisticamente significantes de velocidade média (ponderadas pelos horários em relação à demanda) nas linhas de ônibus selecionadas sem e com a implementação de faixas de ônibus. A hipótese alternativa é de que essas diferenças existem.    


Mini-currículo:


João Akio Ribeiro Yamaguchi: Mestrando em Administração Pública e Governo na EAESP-FGV


Maria Alexandra Viegas Cortez da Cunha: Professora do Departamento de Informática e de Métodos Quantitativos aplicados à Administração na EAESP-FGV

Use os botões abaixo para votar:

author photo

A ferramenta e-Extrator na prevenção de Riscos de fraudes. Uma abordagem no controle externo.


Nome: Douglas Avedikian


 E-maildouglasavedikian@tce.ms.gov.br


 Instituição: Tribunal de Contas do Estado de Mato Grosso do Sul


 Unidade: Diretoria de Gestão e Modernização


 Tipo de proposta: apresentação 20 minutos no plenário.


 Título da oficina: A ferramenta e-Extrator na prevenção de Riscos de fraudes. Uma abordagem no controle externo.


 Eixo Temático: Detecção de anomalias, abusos ou fraudes na arrecadação ou no gasto de recursos públicos; Priorização, por critérios de risco, urgência ou importância, de casos para auditoria, análise ou investigação pelo poder público.


 Foco principal: gerencial, para demonstrar a gestores públicos os resultados potencializados pela análise de dados;


 Fase do trabalho apresentado: projeto em andamento.


 Descrição da Apresentação:


O E-Extrator consiste na extração de dados diretamente do banco de dados dos jurisdicionados (servidor do TCE instalado no datacenter do jurisdicionado), utilizar esses dados extraídos, cruzar com outros milhões de dados também extraídos de diferentes bancos de dados, Minerar estes dados; Filtrá-los através da Inteligência Artificial; Priorizá-los através da Matriz de Riscos e Fraudes; Disponibilizar para os auditores telas de vários temas com indicadores contendo os indícios de irregularidades e fraudes para análise e tomada de decisão e, ao final, disponibilizar indicadores municipais de gestão e governança para os jurisdicionados em portal destinado a eles. A metodologia de gerenciamento de riscos de fraudes é utilizada por organizações do setor privado com muito êxito para coibir desvios e minimizar as vulnerabilidades. Na área pública a principal referência é o Guia de Gerenciamento de Riscos de Fraudes publicado em 2013 pelo Comitê das Organizações Patrocinadoras da Comissão Treadway (COSO). No Brasil, a metodologia de Gestão de Riscos em órgãos públicos é recomendada pelo TCU – Tribunal de Contas da União e os Tribunais de Contas do Estado (TCE) são avaliados pela Associação de Membros dos Tribunais de Contas (ATRICON) quanto à prática do gerenciamento de riscos. O TCE-MS adotou esta metodologia em 2013.  Aliado ao gerenciamento de riscos o TCE-MS iniciou no final de 2016 o projeto piloto denominado E-EXTRATOR para extrair dados diretamente das bases dos jurisdicionados sem a necessidade do envio para o Tribunal de Contas.


 A metodologia e escopo consistem em:


 1-Extrair os dados diretamente do banco de dados do jurisdicionado através de um servidor do TCE-MS instalado no data center da prefeitura;


2-Minerar estes dados;


3-Filtrá-los através da Inteligência Artificial;


4-Priorizá-los através da Matriz de Riscos;


5-Identificar indícios de Fraudes;


6-Disponibilizar para os auditores os indicadores que são apresentados na tela do BI para análise e tomada de decisão;


7-Disponibilizar indicadores de gestão municipal para os jurisdicionados em portal destinado a eles.


 O E-Extrator possibilita, além da coleta automatizada dos dados dos jurisdicionados, a coleta automatizada e ao mesmo tempo de diferentes bancos de dados, tais como: da Nota Fiscal Eletrônica (NFe),  do MEC – Ministério da Educação, dos Sistemas do TCE-MS e demais bancos de dados conforme a frente estabelecida de atuação. O E-Extrator integrado com o BI possibilita ao auditor uma visualização de forma organizada dos dados transformados em informações para a análise e tomada de decisão. Com a Inteligência Artificial e BI o auditor visualizará a análise pronta na tela e, após a priorização pela Gestão de Riscos e de Fraudes a análise apresentará todos os riscos e indícios de fraudes existentes.


 INOVAÇÃO


 Extração de dados oriundos de diferentes bancos de dados sem a necessidade do detentor dos dados enviá-los para o Tribunal de Contas, filtragem destes dados com a Inteligência Artificial, Priorização dos dados através da gestão de riscos e de fraudes, apresentação de telas com diferentes temas apontando os indícios de irregularidades e fraudes. O tempo gasto é bem menor do que o procedimento feito de forma manual e com interface humana que, em geral, levaria meses para se concluir. A grande quebra de paradigma do E-Extrator é o de extrair os dados diretamente da base dos jurisdicionados sem que estes os enviem, logo o que se extrai é o que realmente ocorreu sem manipulação da informação. O modelo tradicional adotado onde a preparação da informação e o envio destas cabem aos jurisdicionados força os Tribunais adotarem o pressuposto de que a informação preparada e enviada está consistida, isenta de má fé, isenta de manipulações e irregularidades, o que nem sempre ocorre.


Com os dados minerados, estruturados, filtrados e priorizados além da produção de painéis para os auditores estão em produção painéis contendo indicadores de gestão e governança para os prefeitos com acesso exclusivo por eles em portal específico, ou seja, os painéis auxiliam também as prefeituras desprovidas de uma solução ERP.


RESULTADOS


O E-Extrator possui hoje, 19 de julho 2018, 6 Bilhões 629 Milhões 516 Mil e 775 registros processados no banco de dados.


Foram desenvolvidos mais de 40 dashboards (painéis) para visualização dos dados extraídos nos seguintes temas: Saude, educação, folha, pessoal, financeiro, obras, portal da transparência, licitações, receitas e farmácia básica.


 


 Mini currículo:


 FORMAÇÃO PROFISSIONAL



  • Mestrando em Gestão de Pessoas e Conhecimento pela Universidade Miguel de Cervantes (Espanha).

  • Pós-Graduado em Segurança e Gestão de Riscos pelo ITA – Instituto Tecnológico de Aeronáutica.

  • Pós Graduado em Fatores Humanos e Psicologia pela Universidade Rosiri i Virgili (Espanha).

  • Graduado em Tecnologia do Controle de Tráfego Aéreo pela FAB.

  • Graduado em Administração de Empresas pela UNIDERP

  • Extensão em Estratégia Empresarial pela FGV-SP

  • Extensão em Gestão por Competências - pela FGV-SP

  • Extensão em Gestão de TI pela FGV – SP.

  • Extensão em Gestão de Riscos e Gestão de Segurança pela Bombardier - Canadá.

  • Extensão em Gestão de Recursos da equipe e Corporate pela Converge – Canadá.

  • Auditor da Qualidade ISO 9000 / 9001 – Verithas SP


 CARGO QUE OCUPA



  • Diretor de Gestão e Modernização no TCE-MS


 ATIVIDADES PROFISSIONAIS ANTERIORES



  • Coordenador e Facilitador na fusão da empresa aérea LAN com a TAM padronizando o Programa de Treinamento das 12 Filiais da LAN.

  • Instrutor nas bases europeias da empresa aérea LAN nos cursos de Gestão da Segurança e Riscos, Gerenciamento dos Recursos da equipe

  • Instrutor em diversos cursos nas empresas: General Eletric, VALE, Nívea, Thompson e Reuters, Petrobrás, CTE, Elektro, INFRAERO, ANAC, SEBRAE e AVIANCA.

  • Palestrante na PUC, UFSC, UNIVALI, UFMS, UNIDERP

  • Vice-Secretário na Secretaria Municipal de Receitas – Campo Grande MS

  • Gestor de Reestruturação do Instituto Municipal de Tecnologia da Informação – Campo Grande MS

  • Chefe da Navegação Aérea do Aeroporto Internacional de Navegantes-SC.

  • Instrutor no Centro Técnico Aeroespacial - SP

  • Supervisor no Centro Integrado de Defesa Aérea e Controle do Espaço Aéreo – CINDACTA I – Brasília

Use os botões abaixo para votar:

author photo

A inteligência artificial como braço direito dos municípios na fiscalização do ISS

Nome: Breno Carvalho Costa

Instituição: Softplan Planejamento e Sistemas

Tipo de proposta: apresentação (20 minutos, no plenário)

Título da apresentação: A inteligência artificial como braço direito dos municípios na fiscalização do ISS

Foco principal da apresentação: Gerencial

Fase do trabalho apresentado: Projeto em andamento


Eixo Temático: Detecção de anomalias, abusos ou fraudes na arrecadação ou no gasto de recursos públicos; Priorização, por critérios de risco, urgência ou importância, de casos para auditoria, análise ou investigação pelo poder público.


 


Descrição da apresentação: Os profissionais que atuam no setor de serviços, sejam empresas ou profissionais autônomos, devem emitir notas fiscais eletrônicas de serviços (NFSe) junto ao município após a prestação de serviços. Além disso, tais profissionais também são responsáveis pela emissão da declaração de arrecadação municipal informando, com base no valor de NFSe, o valor de contribuição do imposto sobre serviço de qualquer natureza (ISS).

No entanto, existem diversos casos de ausência de declarações ou de declarações realizadas em desconformidade com a legislação municipal que regula a contribuição do ISS. Os auditores fiscais de tributos municipais são responsáveis pela auditoria e fiscalização de contribuintes a fim de encontrar irregularidades nas declarações. A sua função é muito importante para geração de receitas próprias ao município para investimento em setores estratégicos.

Durante a etapa de auditoria, o auditor fiscal analisa diversas informações dos contribuintes, como por exemplo, as notas fiscais emitidas, as declarações de ISS, dados da receita federal, faturamento no simples nacional, redes sociais, dentre outros. Este processo geralmente é bem demorado visto que as informações estão dispersas em vários sistemas diferentes que não possuem integração.

O auditor fiscal inicia a fiscalização quando encontra alguma indicação de irregularidade nas declarações, seja por uma declaração ausente, por uma declaração incorreta, ou por uma declaração abaixo do devido. Após encontrar as informações que precisa, o auditor manipula diversas planilhas para cruzar dados e verificar se realmente há alguma coisa incoerente. Ele é guiado por sua expertise, só que há muitas dificuldades durante o processo devido ao grande número de informações que devem ser analisadas.

A grande massa de dados abre espaço para insights e geração de riqueza para o município com a melhoria da arrecadação de receita própria. Este projeto explora o uso de inteligência artificial aplicada para beneficiar os processos de fiscalização e arrecadação de ISS. Dentre os benefícios dessa abordagem inclui-se a previsão do potencial de aumento da arrecadação, e o suporte à identificação dos melhores contribuintes para a fiscalização.



Detalhes técnicos: Para obter os resultados desejados, a solução de inteligência fiscal implementa algoritmos de detecção de anomalias em dados financeiros, analisando a distribuição as declarações de ISS dos contribuintes. Os algoritmos rodam em uma plataforma de processamento intensivo de dados construída usando a linguagem Python e o framework Apache Spark. Além disso, os crawlers que captam informações diversas contribuem para identificar informações contraditórias no cadastro das prefeituras e também permitem localizar os contribuintes.


 


Mini-currículo: Cientista de dados com mestrado em Modelagem Matemática e Computacional e graduação em Ciência da Computação. Possui experiência na arquitetura e desenvolvimento de softwares para apoio à tomada de decisão baseada em dados. Atualmente atua na equipe de Analytics da Softplan Planejamento e Sistemas desenvolvendo projetos para a gestão pública.


Linkedin: https://www.linkedin.com/in/breno-c-costa/


Currículo Lattes: http://lattes.cnpq.br/8187603731418683

Use os botões abaixo para votar:

author photo

Análise da política de abastecimento de água no brasil considerando a influência territorial e político-institucional

Nome: Beatriz Bernardes Ribeiro


Instituição: Ministério da Transparência e Controladoria-Geral da União


Tipo de proposta: Apresentação


Título da apresentação: Análise da política de abastecimento de água no brasil considerando a influência territorial e político-institucional


Foco principal da apresentação: técnico


Fase do trabalho apresentado: estudo de caso, tese de doutorado defendida em 2012.


Descrição da Apresentação:


O saneamento no Brasil não tem recebido, historicamente, a atenção necessária por parte do Estado, apesar da política de saneamento ser importante e de âmbito nacional, por estar diretamente ligada às condições básicas de saúde da população e, conseqüentemente, ao desenvolvimento do país, e a provisão de serviços adequados ser indiscutível para a proteção e promoção da saúde populacional.


Diante da percepção de que uma mesma política pública apresenta resultados tão diversificados, tanto em lugares, estruturalmente, diferentes, quanto em lugares semelhantes. Deve-se considerar o seguinte questionamento: Ao compararmos esses lugares em suas semelhanças e diferenças, quais seriam os fatores condicionantes para o resultado da política pública? O interesse do estudo é incorporar na análise da política pública a relação espacial e político-institucional fazendo uma comparação entre estados do Brasil levando em conta a influência que seus municípios exercem em relação às dimensões consideradas relevantes para a política pública. Além das influências espaciais e político-institucional, buscou-se analisar a política por várias dimensões: sócio-demográfica, infraestrutura, atores (burocracia, políticos, eleitores e grupos de interesse), incentivos (impessoalidade, acesso ao sistema de justiça).


Os resultados demonstraram que existem diferentes regimes, sejam eles espaciais e/ou político-institucional, atuando em cada Estado da Federação estudado. E que no momento de avaliar a política é importante saber e considerar os regimes predominantes naquela localidade, para melhor compreender os diferentes desempenhos da mesma política. E que como cada localidade possui uma trajetória diferente, os fatores (efeitos) que influenciam o resultado também podem ser diferentes, se alterando conforme a localidade e os arranjos políticos e institucionais.


 


Detalhes Técnicos: Modelo Estatístico Espacial que considera a relação de proximidade espacial e a relação de proximidade político-institucional (coligação político partidária nos diversos níveis de governo), separando os efeitos relacionados à proximidade espacial dos efeitos relacionados à proximidade político-institucional. Foi adotado o software SAS em seu módulo IML para o cálculo do modelo, na época (2012) inédito, ainda não implementado em nenhum aplicativo estatístico.


Mini-currículo:
Auditora Federal de Finanças e Controle, concurso d 1994;
Professora de Métodos Quantitativos, no IPOL/UnB, 2017;
Doutora em Administração pela UnB e AMU Université (França), 2012;
Mestre em Estatística pela ENCE/IBGE, 2006;
Especialização em Inteligência Competitiva, pelo IBICT e Universidade de Marseille, 2000;
Bacharel em Estatística pela UnB, 1993.


 

Use os botões abaixo para votar:

author photo

ANÁLISE DAS ETAPAS DE IMPLANTAÇÃO E OPERAÇÃO DE FERROVIAS NO BRASIL A PARTIR DO LICENCIAMENTO AMBIENTAL

INSTITUIÇÃO: UNIVERSIDADE FEDERAL DO PARÁ


Tipo de proposta: apresentação (20 minutos, no plenário)


Eixos temáticos abordados por essa proposta de estudo



  1. Geoprocessamento e Geotecnologias

  2. Avaliação de Políticas Públicas


Enquadramento temático



  1. Detecção de padrões e relacionamentos úteis à formulação ou execução de políticas públicas;

  2. Mineração de textos e outras fontes de dados não estruturados, para geração de insumos para processos de análise;

  3. Utilização de Sistemas de Informação Georreferenciadas (SIG) no planejamento, implementação, execução e monitoramento das políticas públicas;

  4. - Utilização de geoprocessamento com a finalidade de descoberta e interpretação de informações relevantes para o controle ao longo de diversos períodos (espaço-tempo);

  5. Apoio à tomada de decisão em políticas públicas baseada no uso de visão computacional ou no processamento de imagens;

  6.  Utilização de imagens de satélite e sensoriamento remoto como ferramentas para o monitoramento das políticas públicas ou situações de interesse público, por exemplo, na área ambiental, agrícola, de defesa ou de infraestrutura;


Foco principal da apresentação: facilitar a realização de trabalhos semelhantes em outros empreendimentos por analistas e cientistas de dados, ou gerencial, para demonstrar a gestores públicos e empresas responsáveis os resultados potencializados pela análise de dados;


Fase do trabalho apresentado: em andamento.


Descrição da apresentação:


A presente apresentação consiste da exposição de resultados parciais encontrados, bem como de resultados esperados em futuro breve, após o acesso e análise de alguns dos principais documentos gerados pelo IBAMA, vinculado ao Governo Federal. Tais documentos são os Estudos Ambientais, obrigatórios para a emissão de licenças ambientais e, consequentemente, para a realização de obras no país, sendo portanto de extrema importância por aliar infraestrutura e fiscalização ambiental.


A partir de documentos como: Estudo e Relatório de Impacto Ambiental, Plano Básico Ambiental, Análise de Riscos, entre outros fornecidos pelo órgão, foram obtidas as seguintes variáveis, para a construção de ferrovias: a) tempo de obra, b) empregos criados, diretos e indiretos, c) atraso da obra, d) empresas responsáveis pelo empreendimento e emissão de documentos referentes ao licenciamento ambiental, e) capacidade de carga, f) tipo de carga, g) quilometragem, h) localização, i) objetivo, qual das licenças o processo tem como objetivo, j) investimento, estas variáveis foram selecionadas pois a partir delas será possível realizar uma análise das etapas de implantação e operação de uma ferrovia. As variáveis investimento e tempo de obra apresentaram grande variabilidade, não obedecendo critérios fixos, exemplo disso é a ausência de uma relação direta entre quilometragem e investimento, assim como do tempo de obra e o investimento. Para estas análises, foram selecionados 14 dados de ferrovias distribuídas pelo Brasil e, como resultado, deve-se encontrar fatores que irão contribuir para a criação de novas ferrovias e uma maior atenção ao processo, haja vista que a variável atrasos registra atrasos da esfera de 10 anos para a entrega de obras deste porte. Assim como, a variável capacidade de carga indica benefícios ao transporte de grandes cargas e maior velocidade que a registrada no transporte rodoviário.


Considerando a importância desse estudo, também é importante acrescentar que a variável atraso da obra inclui atrasos referentes a demora na emissão de licenças ambientais por conta de problemas no trabalho administrativo, onde há ineficiência, gerando não só atraso mas também problemas ambientais, já que determinados empreendimentos são aprovados sem apresentar propostas de mitigação dos impactos negativos que sejam viáveis ou possam realmente reduzir os impactos sobre as áreas afetadas pela obra. Questões como as citadas anteriormente geram processos desnecessários, movidos pela população que reside em torno do local da obra e estes processos ao serem identificados por outros órgãos públicos tendem a ocasionar paralisações da obra e modificações nos projetos, onde a primeira obviamente gera grande males ao crescimento do país e melhoria na integração de macrorregiões e a segunda por muitas vezes não é bem fiscalizada pelo IBAMA, gerando um ciclo vicioso. Entre as expectativas, estão demonstrar a necessidade de maiores investimentos no setor ferroviário como alternativa ao setor rodoviário, análise de processos para emissão de licenças por parte do IBAMA. Além disso, outros empreendimentos podem ser analisados da mesma forma com objetivo de auxiliar o crescimento do país e melhorar a fiscalização e gestão de órgãos.


 

Use os botões abaixo para votar:

author photo

Análise das Transferências Voluntárias da União no período 2008-2016

Instituição: Universidade Federal do Piauí / Tribunal de Contas da União


Tipo de proposta: apresentação (20 minutos, no plenário) 


Título da apresentação: A análise das transferências voluntárias da União no período 2008-2016 é fruto de Dissertação de Mestrado em Gestão Pública da Universidade Federal do Piauí.


 Foco principal da apresentação: técnico


Fase do trabalho apresentado: estudo de caso com resultados práticos


 


A motivação principal foi utilizar dados disponíveis no Portal de Convênios do Governo Federal, extraídos do Sistema de Gestão de Convênios e Contratos de Repasse do Governo Federal (Siconv), a fim de verificar tendências de aplicação de recursos da União para Estados, Municípios e Organizações Não Governamentais, bem como a participação ou influência dessas transferências mediante Emendas Parlamentares.


Para tratamento dos dados utilizou-se software de gerenciamento de dados (Businnes Inteligence - BI), gerando informações tanto de forma geral como para cada Região Geográfica do Brasil. 


Verificou-se que as entidades com maior capacidade de gestão administrativa tem maior probabilidade de conseguir recursos de transferênias voluntárias. Este fato retrata que regiões com menor desenvolvimento sócioeconômico tenderão a continuar em desvantagens em realçao às regiões mais desenvolvidas.


Outro achado é que os valores empenhados para transferências voluntárias no período 2008-2016 representaram apenas 21,6% do que foi empenhado, no período, para transferências de ações do Programa de Aceleração do Crescmento (PAC). O PAC náo possui um sistema de gerenciamento próprio, nos moldes do Siconv, o que dificulta a transparência governamental e o controle social. Nesse contexto, os órgãos de controle devem envidar esforços de fiscalização em ações do PAC.


 Constatou-se, também, que os recursos empenhados de transferências voluntárias no período 2008-2016, a título de emendas parlamentares, foram de 29%, enquanto 71% foram empenhos originados de propostas próprias dos entes interessados. Este achado demonstra, também, que os interessados em obter recursos de transferências voluntárias devem elaborar da forma mais técnica possível seus projetos e planos de trabalho.


Evidenciou-se que não há uniformidade de transferências de recursos pelos órgãos superiores (Ministérios) aos estados, municípios de ONGs, considerando as grandes regiões do Brasil. Este fato pode demonstrar possível influência ou interesse do titular do órgão superior na transferência de recursos para determinada localidade, a exemplo do constatado entre o Ministério da Integração Nacional e o Estado da Bahia.  


Verificou-se que os painéis de obras e de transferências abertas disponibilizados pelo Ministério do Planejamento não oferecem tantas informações quanto os dados disponibilizados no Portal de Convênios, fato que dificulta a transparência governamental e o controle social.


 


Mini-currículo destacando sua experiência acadêmica e/ou profissional no tópico apresentado: Mestre em Gestão Pública pela Universidade Federal do Piauí. Auditor Federal de Controle Externo do Tribunal de Contas da União, lotado na Secretaria de Controle Externo do Piauí (SECEX-PI). Atua em fiscalizações de transferências voluntárias da União.


 

Use os botões abaixo para votar:

author photo

Análise de Dados Abertos usando Programação para Não-Programadores

Título
Análise de Dados Abertos usando Programação para Não-Programadores


Duração
Oficina de 04 (quatro) horas em Laboratório de Informática


Foco principal
Técnico


Fase do trabalho apresentado
Trabalho ou projeto em andamento


Descrição
Oficina de Introdução à Análise de Dados Abertos Governamentais usando a Linguagem de Programação Python e suas bibliotecas de Data Science (Jupyter Notebook, Pandas, Matplotlib, Seaborn) para pessoas sem conhecimento prévio em programação. Os alunos irão aprender a manipular arquivos CSV e Excel e produzir análises de dados de forma textual e gráfica.


Objetivo
Capacitar não-programadores a iniciarem atividades de Análise de Dados usando a linguagem de programação Python.
Permitir que qualquer pessoa, mesmo sem conhecimento prévio de programação, possa se valer dos benefícios de uma linguagem de programação para realizar análises complexas de dados, visando auxiliar trabalhos acadêmicos/profissionais que requerem tratamento e análise de dados.
Fornecer mecanismos e ferramentas para que os alunos desenvolvam a habilidade de tomada de decisão baseada em dados.


Justificativa
Atualmente todas as profissões podem se beneficiar do conhecimento mais aprofundado de programação, e uma das áreas onde a programação é mais utilizada pelas demais profissões é na análise de dados.
Seja para fazer seu trabalho acadêmico (tratamento e análise de dados de pesquisa, etc.) ou seu trabalho diário (jornalismo de dados, processamento de dados econômicos, análise de dados internos/externos para tomada de decisão etc.) os profissionais da atualidade podem ganhar muito ao conhecerem e dominarem as técnicas e ferramentas da programação voltadas à Análise de Dados.


Metodologia
Aulas práticas em laboratório de informática (os participantes podem usar os próprios computadores se desejarem).
Atividades baseadas na Metodologia PBL (Problem Based Learning) onde os alunos irão realizar diversos projetos ao longo da oficina e aprenderão por meio da resolução de problemas reais.
Serão usados Dados Abertos Governamentais para realização das atividades de Análise de Dados.


Mini currículos
Roberta Ribeiro Ferreira é Técnica Federal de Controle Externo do TCU, tem Mestrado (UnB) e Graduação (UFOP) em Ciência da Computação e mais de 20 anos de experiência em desenvolvimento de software.
Marcos Vinicius Guimarães é Analista de Sistemas do TSE, tem Mestrado (UnB) em Gestão do Conhecimento e Graduação (UFOP) em Ciência da Computação e mais de 20 anos de experiência em desenvolvimento de software.

Use os botões abaixo para votar:

author photo

Análise de Resultado Regulatório utilizando algoritmo de impacto causal

Utilizando dados de movimentação de carga marítma antes e depois da lei de portos (12.815) procura-se demonstrar através de análise de impacto utilizando-se de pacote do Google em R se o objetivo proposto pelo marco regulatório foi alcançado.

Use os botões abaixo para votar:

author photo

Analise e mapeamento de dados epidemiológicos na plataforma Apolo Healthcare OS para Organizações de Saúde do Exército Brasileiro

 


Nome: JOSE PEREIRA EMILIANO - Coronel da Reserva do Exército Brasileiro


 E-mail: jpemiliano@gmail.com


 Instituição: Exército Brasileiro -  Comando da 7a Região Militar


 Unidade: Inspetoria de Saúde


 Tipo de proposta: apresentação 20 minutos no plenário.


 Eixo Temático: Utilização de Sistemas de Informação Georreferenciadas (SIG) no planejamento, implementação, execução e monitoramento das políticas públicas voltadas para a Saúde;


 Foco principal: técnico, para a demonstração da plataforma e das ferramentas de análise desenvolvidas


 Fase do trabalho apresentado: projeto em andamento, atualmente em uso.


 


DESCRIÇÃO DA APRESENTAÇÃO


O objetivo do presente trabalho é apresentar os resultados obtidos por meio da análise de dados epidemiológicos georreferenciados aplicados sobre a plataforma Apolo Healthcare, atualmente instalada em 04 hospitais do Exército Brasileiro como um caso de emprego de um SIH embarcado em um Sistema Operacional em nuvem (Cloud OS).


Através do desenvolvimento de um dashboard específico para esta análise, foi possível a identificação e classificação epidemiológica em função da posição georreferenciada de cada um dos usuários da plataforma. Foram realizadas extrações de dados sobre a base de dados de Registros Eletrônicos de Saúde, de onde foi possível a obtenção de dados epidemiológicos e a identificação de patologias prevalentes.


Estas informações foram mapeadas para uma matriz georreferenciada onde foi possível identificar os grupos de risco e as patologias prevalentes por região na cidade do Recife.


A plataforma Apolo Healthcare, utilizada neste projeto, é uma plataforma em nuvem, desenvolvida pelo proprio autor e baseada em Cloud OS. A adoção deste modelo computacional difere de outros similares como Linux Terminal Service, Remote Desktop, etc. por ser inteiramente baseado em protocolos de Internet e, ainda, ter  parte do processamento sendo executado no próprio terminal leve (thin client).  


O seu emprego permitiu uma redução nos custos de informatização dos hospitais militares como contribuiu para tornar mais célere os diversos processos decisórios clínicos e administrativos. Como resultado, do ponto de vista da economicidade,  tem aproveitado com vantagens os equipamentos e terminais legados disponíveis , reduzindo significativamente os custos com hardware e licenças de Sistema Operacional.


 


 


INOVAÇÃO


A expansão do poder do processamento e o aumento da velocidade das redes de comunicação de dados fez surgir um novo paradigma capaz de combinar as vantagens do poder de processamento de um Sistema Operacional com a possibilidade de alocação de recursos em nuvem: Sistemas Operacionais em nuvem, Cloud Operating System ou simplesmente Cloud OS.


Segundo esta abordagem todo o ambiente computacional da empresa, dados, suítes de escritório, arquivos e sistemas de produtividade Enterprise Resource Planner (ERP) estão constantemente disponibilizados na nuvem.


Em termos práticos, um sistema operacional em nuvem  permite que o ambiente computacional de um usuário e seus arquivos (documentos, música, aplicações, filmes, etc.) estejam disponíveis em qualquer computador bastando apenas a utilização de um navegador (browser) para acessá-lo. Sem configurações adicionais ou conexões específicas por redes privativas virtuais (VPN) ou equivalentes.


 


RESULTADOS


A plataforma possui atualmente mais de 100 mil prontuários cadastrados, atendendo em média 130 mil consultas por hospital / ano. Os resultados obtidos permitem a visualização dos resultados em dashboards gráficos e mapas interativos onde estão identificados os usuários e locais de onde acessam.


 


 FORMAÇÃO PROFISSIONAL




    • Mestre em Engenharia da Computação - UFRGS - Universidade Federal do Rio Grande do Sul

    • Mestre em Ciências Militares - Comunicações e Eletrônica - Exército Brasileiro

    • Pós-Graduação análise e projeto de sistemas de computação pela Universidade Católica do Rio Grande do Sul (PUC-RS)

    • Extensão em Gestão de Projetos - Universidade de São Paulo (USP)

    • Especialista em Projetos de Circuitos Integrados (MCT - Brasil)

    • Especialista em Manutenção de Comunicações e Eletrônica - Exército Brasileiro

    • Bacharel em Ciências Militares - Comunicações e Eletrônica - Exército Brasileiro



 


 CARGO QUE OCUPA




    • Assessor de Tecnologia da Informação da Inspetoria de Saúde do Comando da 7a Região Militar 



 

Use os botões abaixo para votar:

author photo

Análise geográfica multicritérios: conceito, transdisciplinaridade e exemplos de aplicação na gestão pública

Título:   Análise geográfica multicritérios: conceito, transdisciplinaridade e exemplos de aplicação na gestão pública


 Nome:                Rodrigo Affonso de Albuquerque Nóbrega


 Instituição:         Instituto de Geociências da Universidade Federal de Minas Gerais


 Tipo de Proposta:    Apresentação (20 minutos).  


 Foco Principal:  O assunto a ser abordado possui caráter técnico (disseminação da metodologia para facilitar a realização de trabalhos semelhantes por analistas e cientistas de dados), como também gerencial (demonstração da solução e dos resultados à gestores gestores públicos);


Fase do Trabalho a Ser Apresentada:     estudo de caso com resultados práticos


 Descrição: A análise geográfica multicritérios é uma poderosa ferramenta de suporte a decisão. Utiliza conceitos sacramentados de modelagem participativa para a tomada de decisão, como o processo hierárquico analítico (AHP) de Thomas Saaty, bem como o conceito espacial das análises e ferramentas de geoprocessamento.   Embora popular na academia, a integração de métodos de análise multicritérios em Sistemas de Informações Geográficas (SIG) tem sido difundida na iniciativa privada e governo para investigar e solucionar problemas nas mais variadas áreas.   


Dentre os exemplos recentes de sua aplicação no Governo destaca-se o Estudo de Viabilidade Técnica, Econômica e Ambiental da Ferrovia Norte-Sul entre Panorama-SP e Rio Grande/RS desenvolvido em 2014 para a VALEC S.A. ;  a  inteligência geográfica do Projeto Geocontrole desenvolvido para o TCU entre 2017 e 2018 ; e a proposição do mapa de Destaque Territorial desenvolvido em 2017 para o Coordenação de Área de Ciências Ambientais da CAPES para localizar e quantificar as áreas no território brasileiro mais críticas e que merecem atenção da agência de fomento para investimento e inserção social de pesquisas.


Se por um lado as práticas de inteligência geográfica empregando análise multicritérios na administração pública têm proporcionado ganhos significativos quanto a qualidade da informação para a tomada de decisão, quanto a redução no tempo de estudo e quanto a  transparência nos dados e regras utilizados nos processos de tomada de decisão, por outro lado seu desenvolvimento ainda depende de conhecimentos específicos e que nem sempre fazem parte do escopo dos técnicos e servidores.  Assim, a presente proposta visa disseminar não somente a técnica e o sucesso de sua aplicação nos diferentes estudos de caso supracitados, mas principalmente disseminar o papel da universidade na identificação de lacunas,  proposição de soluções e retorno para a sociedade.


 


Detalhes Técnicos da Apresentação:     


[1] Síntese ilustrativa do conceito de análise multicriterios em SIG;


              - Caracterização do problema e modelagem conceitual;


              - Modelagem lógica: álgebra de mapas em ambiente SIG;


              - Implementação: busca, tratamento e espacialização de dados.


[2] Transdisciplinaridade da solução


               - processo participativo;


               - integração de valores convergentes e/ou divergentes


               - universalidade de aplicações


[3] Exemplos de casos


               - Transportes;


               - Educação;


               - Saúde;


 


Mini -curriculo: 


- Professor Adjunto III  do Instituto de Geociências da UFMG;


- Coordenador do Programa de Pós-Graduação em Análise e Modelagem de Sistemas Ambientais/UFMG


- Professor do Programa de Pós-graduação em Geotecnia e Transportes/UFMG;


- Pesquisador Bolsista de Produtividade do CNPq;


- Graduação: Engenharia Cartográfica (UNESP 1996);


- Mestrado: Informações Espaciais (EPUSP 2002)


- Doutorado: Engenharia de Transportes (EPUSP / Mississippi State University  2007);


- Pós-Doutorado: Geosystems Research Institute / Mississippi State University 2009)


- CV Lattes/CNPq:    http://lattes.cnpq.br/7158751194696023

Use os botões abaixo para votar:

author photo

Aplicação Cadê meu remédio? - Uma solução para uso do cidadão em apoio à gestão pública e aos órgãos de fiscalização no combate à corrupção na área da saúde

Eixo temático: Avaliação de Políticas Públicas.


O Ministério Público de Santa Catarina, por meio de equipe multidisciplinar, desenvolveu solução inovadora que foi premiada em 1° lugar no Hackfest 2018.
Trata-se de uma ferramenta, acessível via web ou app, por meio da qual o cidadão brasileiro tem conhecimento dos mais de 850 componentes da assistência farmacêutica básica (RENAME), e que são distribuídos gratuitamente, com critérios de nome comercial, princípio ativo e composição. Além disso, por meio de um sistema de georreferenciamento, a aplicação indica qual a unidade de saúde mais próxima em que se encontra disponível tal fármaco, e, caso não esteja, é possível reclamar sua falta. Estas informações negativas compõem um ranking mensal, que indicam os municípios que não estão prestando adequadamente este serviço, seja por gestão ineficiente ou desvios de recursos e medicamentos, com implicância em casos de fraude ou corrupção na área da saúde. A plataforma permitirá amplo conhecimento desses dados, inclusive, pelos órgãos de fiscalização, como Ministério Público e Tribunais de Contas.


Numa perspectiva positiva, o Cadê meu remédio presta um apoio ao gestor municipal para avaliar se adquire suficientemente os medicamentos retirados nos postos de saúde, ou, então, a identificar desvios dentro da própria municipalidade.


Os principais beneficiários desta ferramenta são o próprio cidadão, o gestor públicos e os órgãos de fiscalização.
A solução foi integralmente desenvolvida durante os 4 dias da maratona tecnológica Hackfest, e realizou a estruturação dos dados da RENAME, já que ausente na API Cívico, e inter-relacionou com a base de dados das unidades de saúde disponibilizadas pelo próprio TCU. Atualmente, todos os brasileiros podem efetuar a consulta por meio da sua localização no dispositivo móvel.


 

Use os botões abaixo para votar:

author photo

Aplicação do modelo longitudinal de análise de diplomação, evasão e retenção na graduação – a experiência do Observatório de Dados da Graduação (UFPB)

-  NOME COMPLETO E INSTITUIÇÃO:


Fabiana Gama de Medeiros


Universidade Federal da Paraíba


fabiana@ccsa.ufpb.br


 -  TIPO DE PROPOSTA:


Apresentação


-  TÍTULO DA APRESENTAÇÃO:


Aplicação do modelo longitudinal de análise de diplomação, evasão e retenção na graduação – a experiência do Observatório de Dados da Graduação (UFPB)


-  FOCO PRINCIPAL DA APRESENTAÇÃO:


Gerencial


-  FASE DO TRABALHO APRESENTADO:


Projeto em andamento


-  DESCRIÇÃO DA APRESENTAÇÃO:


            A verificação da eficiência e do desempenho de formação de graduação são tratados como prerrogativa da União. Nesse contexto, a Pró-Reitoria de Graduação da Universidade Federal da Paraíba instituiu, no início de 2018, o Observatório de Dados da Graduação (ODG). Trata-se de uma unidade de assessoria da Pró-Reitoria, cujo objetivo é analisar e sistematizar diversos dados concernentes à graduação, inclusive os relativos aos índices de evasão, diplomação e retenção, no sentido de subsidiar as decisões e as políticas de gestão acadêmica da Pró-Reitoria.


            Especificamente no que concerne à análise de evasão, retenção e diplomação, um dos módulos de análise do ODG, lidamos com o desafio de fixação de um referencial específico de desempenho da graduação. Assim, a existência de múltiplos instrumentos de verificação de desempenhos das IES, em nível externo, associado a variadas práticas de gestão e variados sistemas de informação, em nível interno, tem favorecido a multiplicidade de interpretação e implementação de indicadores de desempenho.


            Destarte, esses fatores tendem a gerar distorções na análise desses indicadores e na consequente tomada de decisões pelas unidades gestoras das IES. Dessa maneira, essa apresentação visa demonstrar a aplicação do modelo longitudinal de análise de diplomação, evasão e retenção para o ensino superior, no âmbito do Observatório de Dados da Graduação (UFPB).


 Especificamente, buscaremos abordar os seguintes tópicos:



  1. Considerações iniciais: finalidades e problemas da formação de graduação; conceitos de diplomação, evasão e retenção; caráter temporal dos fenômenos;

  2. Ilustração de implementação do modelo na UFPB: descrição da plataforma tecnológica adotada para ilustração; análise de categorias e quantidades; análise de diplomação, evasão e retenção; análise de indicadores de eficiência de formação;

  3. Alternativas complementares de análise e próximos passos.


A institucionalização do Observatório de Dados da Graduação, no âmbito da Pró-Reitoria de Graduação na Universidade Federal da Paraíba, traz a tomada de decisão baseada em dados para o centro da estratégia de gestão da PRG. Dessa forma, torna-se possível manter uma agenda não somente de conhecimento dos resultados da graduação, mas também de realização de análises preditivas de comportamentos futuros.


A análise desses dados traz à tona a necessidade da PRG de instigar os gestores dos centros, dos departamentos e das coordenações de cursos a pensarem nos resultados das suas unidades, realizando um planejamento de curto, média e longo prazo. Os resultados devem servir de base para a determinação de ações orientadas a combater a evasão e a retenção e melhorar os índices de diplomação.


-  DETALHES TÉCNICOS:


O nosso modelo conceitual para análise de evasão, retenção e diplomação seguiu as indicações do trabalho de Costa, Costa e Moura Jr. (2017). Fundamentando-se nesses conceitos, a implementação computacional do modelo produziu uma aplicação analítica self-service BI. A plataforma selecionada para o desenvolvimento foi a Qlik/Qlik Sense®.


Referência:


COSTA, F. J.; COSTA, P. R. S.; MOURA Jr., P. J. Diplomação, evasão e retenção: modelo longitudinal de análise para o ensino superior. Editoria UFPB: João Pessoa, 2017.


-  MINI-CURRÍCULO:


- Professora do Departamento de Administração (DA)/Centro de Ciências Sociais Aplicadas (CCSA)/ Universidade Federal da Paraíba (UFPB);


- Coordenadora do Observatório de Dados da Graduação (ODG)/Pró-Reitoria de Graduação (PRG)/Universidade Federal da Paraíba (UFPB);


- Doutora e Mestre em Administração pelo Programa de Pós-Graduação em Administração da Universidade Federal da Paraíba (PPGA/UFPB);


- MBA em Consultoria Organizacional (IESP);


- Graduação em Administração (UFPB).

Use os botões abaixo para votar:

author photo

Aplicativos de políticas fiscais a partir de dados abertos: debates e inspirações para novas ressignificações

Nome Completo: Fernando Barbalho, Jordão Mota e Tiago Maranhão

Instituição: Secretaria do Tesouro Nacional

Tipo de proposta: Apresentação

Foco principal: técnico, mas um pouco de gerencial também!


Fase do trabalho apresentado: estudo de caso com resultados práticos;


Descrição da apresentação: As políticas públicas em dados abertos são implementadas na perspectiva de trazer novas possibilidades de ressignificação dos resultados dos processos da gestão pública. Os novos significados podem estimular a sociedade civil, empreendedores, acadêmicos e gestores na confecção de novos produtos de consumo de dados. A STN tendo em vista essa possibilidade vem desenvolvendo aplicações que se utilizam de dados já abertos ou que venham a ser abertos no curto prazo.

A ideia é não só abrir os dados que são produzidos pela instituição, como também, através de proposição de debates e educação fiscal, mostrar para a sociedade como esses dados podem ser utilizados. Nesse sentido os produtos já desenvolvidos com vistas à comunicação estratégica e análise de dados avançadas, disponibilizam painéis interativos onde usuários aprendem conceitos de transparência fiscal, exploram temas caros à política fiscal federativa, entendem o fluxo entre receitas e despesas orçamentárias e aprofundam-se em questões importantes para a prática de econometria de séries temporais, tais como sazonalidade e predição de valores. Isso tudo tendo a possibilidade de conhecer os códigos que conectam os aplicativos às bases de dados abertas, produzem visualizações estáticas e interativas e implementam algoritmos de econometria aplicada a séries temporais. Destaca-se ainda a iniciativa de contar histórias sobre os temas e dados trabalhados por meio de vídeos inovadores, focados na comunicação empática com públicos ainda não iniciados na temática fiscal.

Com essas entregas a aposta é não só no avanço do debate sobre as práticas que são geridas pela STN, como também no fortalecimento do campo de dados abertos e o consequente estímulo de criação pelos diversos públicos.


Detalhes técnicos: utilização de linguagem R para ETL e análises econométricas; utilização de RMarkdown e Shiny para visualizações estáticas e interativas; utilização da API do CKAN para consumo de dados abertos; uso de algoritmos de predições de séries temporais; uso de algoritmos para análise de tendências de séries temporais; uso de técnicas de visualização para análise de sazonalidade;

Mini-Currículo:


Tiago Maranhão: Auditor Federal de Finanças e Controle. Engenheiro Eletrônico (UFPE), com especialização em Engenharia Eletrônica e de Tratamento de Sinais (INP-Toulouse, França). É líder técnico no Grupo Técnico de Comunicação Estratégica e Análise de Dados da STN.


Jordão Mota: Auditor Federal de Finanças e Controle. Redator Publicitário, é especialista em comunicação no Grupo Técnico de Comunicação Estratégica e Análise de Dados da STN.

Fernando Almeida Barbalho: Auditor Federal de Finanças e Controle. Doutor em Administração (PPGA-UnB), com tese em Políticas Públicas de Dados Abertos. É cientista de dados no Grupo Técnico de Comunicação Estratégica e Análise de Dados da STN.

Use os botões abaixo para votar:

author photo

Apuração e análise da inflação interna do Hospital da Criança de Brasília (HCB) no período de 2016 - 2017

 


Recentemente o Brasil presenciou um período de retomada da inflação, onde profusos economistas apontaram o aumento dos preços como uma das maiores preocupações para os próximos anos. Neste contexto, torna-se imprescindível que os executivos de instituições públicas de saúde disponham informações precisas e atualizadas sobre o comportamento dos preços e custos praticados em suas organizações.


Este trabalho visa apresentar o processo de apuração e análise da inflação interna, por meio do método Inflatec, utilizado no Hospital da Criança de Brasília José Alencar (HCB), hospital público administrado por uma Organização social de Saúde durante os anos de 2016 - 2017.


O estudo de caso, estratégia de pesquisa que busca examinar um fenômeno contemporâneo dentro do seu contexto, buscou destacar a composição da cesta básica de consumo deste hospital, distribuição dos pesos para os itens de custos e despesas, procedimento para a coleta de informações, controle dos preços e, finalmente, a determinação dos índices de inflação para cada um dos itens que compõem a cesta básica de consumo.


As informações do trabalho apontaram que os custos com medicamentos, material médico-hospitalar e material de laboratório representaram 82,18% do custo total no período do estudo, enquanto as despesas com salários/encargos e serviços de terceiros corresponderam a 86,41% da despesa total. Em sendo assim, estas cinco rubricas formaram a cesta básica para cálculo da inflação interna do HCB. Ao analisar o Índice de Preço Próprio (IPP) do HCB foi constatado que a inflação interna foi inferior ao IPCA nos períodos de 2016 e 2017 considerando os índices de 5,01% e 2,83% respectivamente contra a inflação oficial do país de 6,29% e 2,95% na devida ordem.


A despeito de que a apuração do índice de inflação interna seja um processo complexo, entende-se que o cálculo pelo modelo Inflatec utilizado pelo Hospital da Criança de Brasília é plenamente aplicável e acessível, de forma a considerar que as outras instituições de saúde, até mesmo de menor porte, possam apurar o seu IPP, colaborando para a construção de um relevante instrumento para o controle de custos e suporte ao processo decisório.


 


Instituição: ICIPE/Hospital da Criança de Brasília


Foco: Gerencial


Fase do Trabalho: Estudo de Caso


 


 

Use os botões abaixo para votar:

author photo

Arquitetura de informação para os Centros de Atendimento à Mulher no Distrito Federal: Criação do Sistema Empodera-DF para monitoramento e avaliação das políticas para as mulheres

Esse projeto é baseado na construção de uma arquitetura da informação para os Centros de Atendimento à Mulher no Distrito Federal, buscando proporcionar informação para tomada de decisão acerca dessa política pública. A ambiguidade na coleta dos dados tem sido um problema para as análises dos dados em diferentes sistemas. A diferença entre conceitos acabam por interferir no processo de coleta de dados e consolidação da informação para tomada de decisão. Descrevemos uma metodologia que busca diminuir ambiguidades e reduzir as diferenças nos conceitos subjetivos. A utilização de mapas conceituais permitiu identificar, por meio de entrevistas com os usuários, as diferenças entre os conceitos presente dentro da organização. Por meio de uma ontologia, avançamos para a formalização desses conceitos, reduzindo o problema da ambiguidade e auxiliando nos processos posteriores de organização da informação. A utilização da metodologia proposta proporcionou a construção do sistema Empodera-DF, demonstrando redução na ambiguidade de conceitos utilizados e aumento da qualidade da informação aos gestores. Ainda, a arquitetura proposta proporcionará a análise de sentimentos por meio de processamento de linguaguem natural das mulheres vítimas de violência, e georeferenciamento dos casos de violência de gênero no Distrito Federal.


 


Nome: Emilio Evaristo de Sousa



email: Emilio.evaristo@sedest.df.gov.br



Instituição: Secretaria de Desenvolvimento Social, Trabalho, Mulheres, Igualdade Racial e Direitos Humanos



Setor: Subsecretaria de Gestão da Informação



Tipo de proposta: apresentação.



Foco principal da apresentação: Técnica



Fase do trabalho apresentado: trabalho ou projeto em andamento.



Detalhes técnicos: CmapTools ( Criação dos mapas conceituais), Protegè ( Criação de ontologias), PALAVRAS ( Processamento de Linguagem Natural para português brasileiro)


 



Mini-currículo:


Doutor e Mestre em Ciência da Informação (UnB)
Graduado em Computação (UnB)



Especialista em Assistência Social e Professor de T.I pela Secretaria de Educação do Distrito Federal;


Membro do Grupo de Pesquisa Arquitetura da Informação, Linguística Computacional, Ontologias e Multimodalidade (REGIIMENTO- Capes/UnB.)
Membro do Grupo ObVUL - Observatório de Vulnerabilidade - UnB

Use os botões abaixo para votar:

author photo

Auditoria Contínua: Experiência Centro de Controle Interno da Marinha

Instituição: Marinha do Brasil


Unidade Administrativa: Departamento de Auditoria do Centro de Controle Interno da Marinha (CCIMAR)


Nome: André Luiz Rodrigues Augusto


Email: andre.augusto@marinha.mil.br


Tipo de proposta: apresentação (20 minutos, no plenário)


Título da apresentação: Auditoria Contínua: Experiência Centro de Controle Interno da Marinha


Fase do trabalho apresentado: estudo de caso com resultados práticos


========================================================================================================================


Proposta: Auditoria Contínua na Marinha do Brasil


Em 2016, foi realizado um teste piloto na folha de pagamento de pessoal e na execução orçamentária e financeira de algumas Organizações Militares. Esse teste
consistiu em aplicar algumas trilhas de auditoria (tipologias) desenvolvidas pela própria Equipe de Auditoria, cruzando-se os dados obtidos nos sistemas, com o uso de
softwares de análise de dados. Devido aos excelentes resultados obtidos, essas áreas foram incluídas no Plano de Auditoria Interna (PAINT) de 2017 para a realização de Auditorias Contínuas, além das tradicionais que já executavam, passando a abrangência para toda a Marinha.Posteriormente, a área de Patrimônio e Gastos com alimentação também foram incluídas no Plano de Auditoria Interna (PAINT).
O Modelo tecnológico utilizado por este Centro de Controle Interno é o de “Sistemas orientados a dados”.


Caracterização da situação:


A situação encontrada anteriormente no Centro de Controle Interno da Marinha do Brasil era a necessidade de realizar mais auditorias, de forma mais frequente e com
a comunicação dos resultados mais rápida, considerando a falta de pessoal para compor mais equipes de auditoria e a insuficiência de recursos orçamentários para a
realização de auditorias no país e no exterior. Diante desse cenário, decidiu-se alterar o paradigma de processo de auditoria da Marinha do Brasil, implementando a Auditoria Contínua para ser executada paralelamente aos trabalhos de Auditoria Tradicionais.


A Auditoria Contínua consiste em uma técnica de auditoria que realiza testes utilizando bases de dados informatizadas, mediante ferramentas de extração, análise e mineração de dados, com base na avaliação de riscos e controles internos. Seu processo compreende as funções do processo de auditoria periódica, usando um sistema de supervisão de transações, com software que monitora continuamente as transações e compara as suas características com os resultados esperados.


A realização da Auditoria Contínua teve os seguintes objetivos:
- realizar um maior número de auditorias e com maior frequência de execução;
- atuar de forma tempestiva, por meio de auditorias mais céleres, com a comunicação dos resultados mais rápida (Notas de Auditoria) e com a probabilidade de maior
oportunidade na execução dos planos de ação corretivos e/ou preventivos;
- reforçar o ambiente de controle e consequentemente dissuadir ações reprováveis, improdutividade e displicência no trabalho;
- reforçar o caráter preventivo das auditorias; e
- reduzir o tempo e o custo de deslocamento das equipes de auditoria.


A iniciativa adotada pelo Centro de Controle Interno da Marinha é considerada pioneira no âmbito do Controle Interno das Forças Armadas, provocou uma quebra de paradigma na Auditoria Interna da Marinha do Brasil e mudou significativamente a atuação dos gestores, em especial, no aprimoramento dos controles internos administrativos das Organizações Militares.


A adoção da auditoria contínua pressupõe, como já foi dito, em uma alteração significativa no escopo de análise: ao invés de selecionar amostras de transações de algumas organizações a serem fiscalizados em cada ciclo de auditoria, passa-se a analisar potencialmente todas as transações de todas as organizações, de maneira contínua.


Resultados e/ou impactos da iniciativa:
Ao longo do exercício de 2017, o Centro de Controle Interno da Marinha emitiu 629 Notas de Auditoria para as Organizações Militares da Marinha do Brasil, distribuídas
pelas seguintes áreas:
- Execução Orçamentária e Financeira 99
- Folha de Pagamento de Pessoal 362
- Patrimônio 19
- Municiamento (Gastos com Alimentação) 149
TOTAL 629


Podemos destacar os seguintes resultados obtidos em função da implementação dessa prática inovadora:
a) Benefícios Financeiros - Pagamentos indevidos evitados/recuperados (R$ 2,5 milhões – Folha de Pagamento de Pessoal).
b) Benefícios Não Financeiros - Melhorias nos controles internos das Organizações Militares (1ª Linha de Defesa); Aprimoramento nos sistemas corporativos da Marinha (2ª Linha de Defesa); Conformidade legal na gestão dos recursos públicos; e Aprimoramento dos processos de despesa.


Para a implementação da Auditoria Contínua pelo Centro de Controle Interno da Marinha, foi adquirida uma ferramenta informatizada de apoio à auditoria (Computer
Aided Auditing Tools – CAATS) denonimada IDEA Data Analysis. O valor desta ferramenta foi cerca de R$ 4.000,00.


Em termos de recursos materiais, utilizamos os próprios computadores dos militares/servidores civis, não havendo a necessidade de compra de novos equipamentos.
O pessoal envolvido na implementação da Auditoria Contínua foi constituído pelos próprios militares/servidores civis integrantes do Centro de Controle Interno da
Marinha, não sendo necessária a contratação de mão-de-obra para realização desse trabalho.


 - mini-currículo: André Luiz Rodrigues Augusto, Capitão-Tenente (T), é Encarregado da Divisão de Auditoria em Recursos Humanos do Centro de Controle Interno da Marinha - CCIMAR. Pós-graduado em Gerência de Projetos pela Pontifícia Universidade Católica – PUC-RJ e bacharel em Análise de Sistemas e Ciências Contábeis pela Universidade Estácio de Sá – RJ. Exerceu a função de Auditor Sênior na empresa PricewaterhouseCoopers; foi Supervisor de Controles Internos na empresa Embratel; foi Encarregado da Divisão de Pagamento no Serviço de Veteranos e Pensionistas da Marinha; e atualmente, é Auditor e Coordenador de trabalhos de Auditoria de Acompanhamento da Gestão, Auditoria de Avaliação da Gestão, Auditoria Especial / Operacional e Auditoria Contínua no CCIMAR.

Use os botões abaixo para votar:

author photo

Auditoria em Tempos de Big Data: Uso de Mineração de Textos para Reunir Informações com Agilidade e Segurança

Nome: Rogers Reiche de Mendonça


E-mails:
rogers.mendonca@petrobras.com.br
rogers.rj@gmail.com


Instituição:
Petrobras


Tipo de Proposta:
Apresentação (20 minutos, no plenário)


Título:
Auditoria em Tempos de Big Data: Uso de Mineração de Textos para Reunir Informações com Agilidade e Segurança


Foco Principal:
Técnico, para facilitar a realização de trabalhos semelhantes por analistas e cientistas de dados.


Fase do Trabalho:
Estudo de Caso com resultados práticos.


Descrição:
Na atual era de Big Data, convivemos com enormes desafios na gestão e no controle de entidades e políticas públicas.


Entre os desafios do dia-a-dia está a questão: como reunir, de maneira rápida, simples e segura, as informações relevantes para a condução das análises de auditoria, num cenário complexo de grande volume de dados com diferentes formatos e provenientes de diversas fontes?


Nesse sentido, será apresentado um Estudo de Caso com resultados práticos, no qual técnicas de Mineração de Textos e Recuperação da Informação foram aplicadas para encontrar, reunir e classificar informações relevantes ao contexto de auditoria.


Na apresentação, haverá a demonstração de um protótipo desenvolvido com tecnologias open source e gratuitas, que poderá ser livremente adaptado e estendido para uso em atividades de gestão e controle corporativos.


Por fim, serão compartilhados os resultados do Estudo de Caso e as experiências aprendidas.


Estrutura da apresentação:
1. Desafios e problemas da era de Big Data para a gestão e o controle de entidade e políticas públicas;
2. Estratégia de Mineração de Textos para reunir informações relevantes ao contexto de auditoria;
3. Demonstração prática;
4. Resultados.


Detalhes Técnicos:
Aplicação de algoritmos e métodos de Mineração de Textos (Ex.: normalização, remoção de stopwords, stemming, classificação em facetas, recuperação rankeada).


Utilização do Apache Lucene (biblioteca Java) para processar e recuperar conteúdo textual.


Utilização do Apache Tika (biblioteca Java) para extrair dados e metadados de diferentes tipos de documentos.


Utilização de JSF e Spring (frameworks Java) para implementar a interface Web de visualização.


Mini-Currículo:
Auditor Interno e Analista de Sistemas da Petrobras (2006 - Atual).
Mestre em Sistemas de Informação pelo Programa de Pós Graduação em Informática (PPGI), UFRJ.
Bacharel em Ciência da Computação pela UFRJ.


* Certificações:
CISA (ISACA - Certified Information Systems Auditor)
CRISC (ISACA - Certified in Risk and Information Systems Control)
CDIA+ (CompTIA - Certified Document Imaging Architech)
E20-120 (EMC Proven Professional - Content Management Foundations)
IBM FileNet FCP Content Manager-Administrator 4.0
SCJP (Sun Certified Java Programmer)
SCWCD (Sun Certified Web Component Developer)


* Palestras sobre Análise de Dados (título, local e ano):
LOP - Capturing and Linking Open Provenance on LOD cycle.
Workshop on Semantic Web Information Management (SWIM), New York, 2013


Gerência de Proveniência Multigranular em Linked Data com a Abordagem ETL4LinkedProv.
Simpósio Brasileiro de Banco de Dados (SBBD), Curitiba, 2014


Auditoria de Sistemas em tempos de Big Data.
Fórum de Auditoria de Sistemas (Vale), Rio de Janeiro, 2016


Auditoria de Sistemas em tempos de Big Data: Busca de Informações.
Fórum de Auditoria de Sistemas (TIM), Rio de Janeiro, 2017


* Publicação em periódico:
ETL4LinkedProv: Managing Multigranular Linked Data Provenance. Journal of Information and Data Management (JIDM), 2016

Use os botões abaixo para votar:

author photo

AutoMod: algoritmo para estimação semi-automática de modelos econométricos

Autores


Henrique Andrade
Doutor em Economia pela UFRGS
Ministério da Fazenda, Banco do Brasil e Gretl Development Team

Gustavo Miglio
Mestre em Estatística pela UFPA
Ministério da Fazenda e Banco do Brasil


Introdução


No campo da modelagem econômica são comuns as situações onde as variáveis de interesse não possuem modelos teóricos ou que estes ainda não sejam amplamente aceitos ou suficientemente testados.


O que é o AutoMod?


O AutoMod (acrônimo para Auto-Modelagem) é um algoritmo que capaz de simplificar a escolha dos determinantes de dada variável em um contexto de séries temporais. Vale salientar que ele não tem o intuito de substituir a análise econométrica prévia (testes de estacionariedade, verificação do sentido econômico das variáveis candidatas, etc.) e/ou posterior (verificação dos sinais esperados, testes de diagnósticos dos modelos estimados, etc.).


Para que serve o AutoMod?


O AutoMod é indicado para ser utilizado como ferramenta importante dentro do processo de modelagem de séries temporais. Apesar de originalmente ter surgido no âmbito da modelagem e da previsão de séries econômicas, pode ser útil também em outros tipos de séries temporais. Além do próprio código, o AutoMod é dividido em três partes, Specr, Choosr e Reportr.


Specr: é o responsável pela definição das especificações dos modelos, criando todas as combinações possíveis para as variáveis explicativas. A ideia básica é simples: a partir de um conjunto de variáveis ele cria o conjunto potência associado.


Choosr: Após a criação das especificações o AutoMod inicia a escolha dos modelos via algoritmo Choosr que, por sua vez, elimina as especificações onde algum dos parâmetros estimados não apresentem significância estatística. Em seguida ranqueia os modelos estimados com base na escolha do critério de seleção pelo usuário


Reportr: O último passo dado pelo AutoMod é a geração de um relatório contendo as informações mais relevantes do processo de modelagem.


Conclusão: o presente


O AutoMod tem como objetivo reduzir o trabalho manual envolvido na seleção de variáveis em modelagem macroeconômica de séries temporais. Foi originalmente desenvolvido para o software livre e de código aberto Gretl e, posteriormente para o EViews (onde foi incluída uma interface gráfica – GUI)

Conclusão: o futuro

No momento o código está sendo modificado a fim de ser disponibilizado na linguagem R e incluir novas opções. Algumas das modificações são:
- Geração de relatório contendo os principais resultados (via utilização de Markdown);
- Criação de GUIs para as versões do Gretl (via funcionalidade nativas do software) e do R (via biblioteca Shiny).


 


 


 


 


 


 

Use os botões abaixo para votar:

author photo

Avaliação de Políticas Públicas na área da Saúde – Desnutrição Infantil - Necessidade de adequação da metodologia empregada.

 


Avaliação de Políticas Públicas na área da Saúde – Desnutrição Infantil


 


Nome:


Graça Aparecida Barcos




Instituição:


Tribunal de Contas do Estado de São Paulo




Tipo de proposta:


Apresentação.




Título da apresentação:


 


 


Avaliação de Políticas Públicas na área da Saúde – Desnutrição Infantil


- Necessidade de adequação da metodologia empregada.




Foco principal da apresentação:


 


Técnico, para esclarecimento da necessidade de pesquisas regionais precedentes à aplicação de políticas públicas de combate à desnutrição infantil, com o intuito de se evitar gastos públicos desnecessários e ineficientes. Análise comparativa com políticas públicas internacionais embasadas em relatos da Organização das Nações Unidas – ONU.




Fase do trabalho apresentado:




Estudo de caso com resultados práticos para adequação de gastos públicos.




Descrição da apresentação:




Dados do UNICEF mostram que uma entre cada três crianças desnutridas vive na Índia, 50 a 80% das crianças daquele país sofrem de desnutrição.


 


O Programa “Butriçangladesh IntegratedNutrition Project” (BINP) se desenvolveu entre 1995 e 2002 com um orçamento de 67 milhões de dólares e cujo objetivo era reduzir a desnutrição infantil, reduzindo também de 25 a 40% o número de crianças menores de cinco anos que se encontravam abaixo do peso ideal para sua idade.


 


Os resultados obtidos no programa apresentaram dados diversos daqueles esperados e a conclusão para este fato deveu-se a aplicação de dados estatísticos coletados em amostras localizadas e aplicadas em população nacional e inclusive internacional.


 


Demonstra-se a necessidade de adequação de pesquisas antecipadas a aplicação de programas de combate à desnutrição infantil com bases regionalizadas e complementação de dados através de pesquisas em setores diversos inerentes à população-alvo.


 


Caso brasileiro: desnutrição infantil acompanhada de sobrepeso, colesterol elevado e diabetes infantil. Necessidade de aplicação de políticas públicas interligadas com as patologias existentes.


 


Planejamento adequado para elaboração do Plano Plurianual de Investimentos, Lei de Diretrizes Orçamentárias e Lei Orçamentária Anual. Compatibilização de gastos governamentais às políticas públicas a serem adotadas com ênfase em seus resultados.


 


Avaliação das políticas públicas ao final de cada programa de combate à desnutrição infantil com proposta de melhoria para os projetos vindouros.




Estrutura da apresentação:



  1. Exposição de políticas públicas de combate à desnutrição infantil adotadas pela ONU;

  2. Programa “Bangladesh IntegratedNutrition Project” (BINP);

  3. Os riscos da utilização de metodologias estatísticas sem complementação de dados;

  4. Caso brasileiro: desnutrição infantil com sobrepeso, colesterol elevado e diabetes;

  5. Resultados.

  6. Sugestões de adequação de gastos públicos precedidos de estudos de casos por amostras regionais afetas ao programa a ser utilizado.




Detalhes técnicos:


 


Os dados apresentados demonstram a destinação de porcentagem considerada do orçamento público brasileiro para a área da saúde, sem o retorno proporcional de melhoria na qualidade de vida da população; aplicação de verbas governamentais em projetos de políticas públicas equivocadas.


Sugestão de maior controle na utilização de dados estatísticos para a tomada de decisões quando da elaboração de orçamentos públicos e aplicação de recursos.


 




Mini-currículo:



Graça Aparecida Barcos Integrante do corpo técnico do Tribunal de Contas do Estado de São Paulo com formação em Maestría Internacional en Hacienda Pública y Administración Financiera pelo Instituto de Estudios Fiscales e UNED (Madrid-España). Advogada previdenciarista associada do AIPE – Instituto dos Advogados Previdenciários – Conselho Federal. Delegada Distrital no município de São Paulo do Conselho Regional de Economia – CORECON. Pesquisadora nas áreas da seguridade social (previdência, saúde e assistência social) e administração pública. Representante brasileira na elaboração do Manual de Orçamento, execução e controle de gastos públicos nos países latinoamericanos pelo IEF-AECID (España).

Use os botões abaixo para votar:

author photo

BB Integra - Portal Inteligência Pública

Emanuel Brasil Dias Guerreiro Junior, Assessor na empresa Banco do Brasil S.A.


Apresentação (20 minutos): BB Integra - Portal Inteligência Pública


Foco da apresentação: gerencial


Fase do trabalho: trabalho ou projeto em andamento


O BB Integra - Portal Inteligência Pública é uma ferramenta que reúne dados abertos em um único ambiente, com objetivo de auxiliar a gestão pública, estimulando a colaboração entre os setores público e privado na transformação da sociedade. Com o portal é possível visualizar dados dos municípios de forma simples, com tempo de resposta rápida e sem necessidade de efetuar donwload das tabelas, de forma georreferenciada, contribuindo para a gestão das políticas públicas.


Detalhes técnicos: todos os softwares utilizados são open sorce (licença livre), como apache, pentaho pdi, php, node js, react, mongo db, biblioteca d3js, em ambiente bigdata hadoop. Além de ferramentas para efetuar ETL das bases de dados.


Mini-currículo: Funcionário de carreira do Banco do Brasil, possem em Jan/2005, com formação em Direito pela Universidade Federal do Rio de Janeiro e em Gestão Pública pelo Instituto de Educação Superior de Brasil, pós graduado em Gestão Pública e em Auditoria e Controladoria. Atuado no projeto BB Integra há 3 anos.

Use os botões abaixo para votar:

author photo

Brasil.IO: Integrando dados não estruturados de diversos órgãos

A quantidade de dados públicos brasileiros disponibilizada na Web só cresce, mas com ela cresce a complexidade de estruturar e cruzar essas bases de dados, dado que a qualidade e acessibilidade desses dados é muito baixa (muitos estão disponíveis em formatos não estruturados, dispersos em diversas páginas, de forma desnormalizada etc.).
O Brasil.IO nasceu para resolver esse problema: é uma comunidade de programadores que libertam dados de interesse público (criam scripts para capturar, limpar e estruturar esses dados). Na plataforma leigos conseguem filtrar, cruzar e baixar recortes desses dados entre as bases disponíveis facilmente; programadores conseguem também acessar os dados através de uma API. O projeto é software livre, está recebendo diversas colaborações e sendo utilizado por diversos veículos de notícia brasileiros (que estão criando matérias guiadas por dados) e por outras áreas.

Use os botões abaixo para votar:

author photo

"CARCARÁ": Análise automatizada de orçamentos de obras públicas

Nomes: Sérvio Túlio Teixeira e Silva; Maurício Barros de Jesus; Marco Antônio Borges Traldi


Instituição: Tribunal de Contas do Estado de Goiás (TCE-GO);


Tipo de proposta: apresentação de 20 min;


Título da apresentação: "CARCARÁ": Análise automatizada de orçamentos de obras públicas - Concepção de modelo e suas aplicações


Foco principal da apresentação: técnico e gerencial;


Eixos relacionados: Priorização, por critérios de risco, urgência ou importância, de casos para auditoria, análise ou investigação pelo poder público; Otimização de processos repetitivos; Mineração de textos e outras fontes de dados não estruturados, para geração de insumos para processos de análise; Detecção de anomalias;


Fase do trabalho apresentado: projeto em andamento;


Descrição da apresentação: 


Este trabalho buscou desenvolver uma solução tecnológica capaz de automatizar a análise inicial de orçamentos realizada em procedimentos de fiscalização de obras públicas no âmbito do TCE-GO. Para tanto, concebeu-se o modelo de dados e, por meio de técnicas de mineração e construção de algoritmos, desenvolveu-se um aplicativo – cujo nome foi atribuído “Carcará” – na ferramenta de análise de dados Qlik Sense®.


Atualmente, o Carcará contém 08 painéis de visualização que contemplam as seguintes análises automatizadas:



  • Comparação dos custos unitários com os custos paradigmas de mercado;

  • Curva ABC de serviços e de insumos;

  • Análise do BDI utilizado na planilha orçamentária;

  • Análise da escolha da tabela de custo referencial mais vantajosa para o caso em estudo;

  • Análise do custo por grupos de serviços do orçamento;

  • Análises expeditas entre os serviços do orçamento de modo a encontrar possíveis inconsistências: análise paramétrica do percentual de Administração Local em relação ao custo global da obra; análise paramétrica do peso da armação da superestrutura em relação ao volume de concreto da superestrutura contido no orçamento; análise paramétrica da área de forma da superestrutura em relação ao volume de concreto da superestrutura contido no orçamento.


Além de promover benefícios de aumento de produtividade e padronização das análises realizadas pelos auditores do TCE-GO, a solução criada também possibilita expansões e aprimoramentos por meio de integração com banco de dados de orçamentos de obras públicas e desenvolvimento de novas análises automatizadas.  Logo, as análises em orçamentos pontuais poderão dar lugar a exames em grande escala, com comparações, inclusive, entre diversas obras no Estado de Goiás.


Detalhes técnicos:


A concepção da solução tecnológica implementada perpassa pela construção do modelo de dados, implementação das análises e disponibilização dos resultados. Trata-se de um processo iterativo e interativo, ou seja, cada fase pode ser executada mais de uma vez, na sequencia usual ou fora dela, a depender do conjunto de dados original e de decisões tomadas pelo constituidor do modelo.


Primeiramente, foi necessário idealizar a estruturação das bases de dados em que a ferramenta buscaria as informações. Para tanto, foi definido um layout de informações padrão necessárias para implementação das análises. Em seguida, passou-se à fase de limpeza e mineração dos dados, de modo a eliminar inconsistências e alimentar as informações requeridas pelos layouts padrões definidos anteriormente.


Assim, com a utilização de técnicas de mineração de dados, que incluiu mineração de texto por meio de linguagem de programação em php, extraiu-se as informações necessárias para constituição de 05 tabelas que compõem o modelo de dados. Uma vez construídas as tabelas, a próxima etapa consistiu em arquitetar os agrupamentos e associações entre as tabelas de forma a construir o modelo de dados.


Por fim, foram realizados os cálculos e análises por meio de programação de algoritmos. Os resultados foram validados, avaliados e formatados em gráficos, tabelas e relatórios estruturados em forma de painéis para visualização dentro de um aplicativo no software. Destaca-se que as bases de dados foram estruturadas em planilhas no formato xls e restante do processo de construção do modelo de dados, análise e disponibilização dos resultados foi realizado dentro da ferramenta de análise de dados Qlik Sense®.


Mini currículos:


Sérvio Túlio Teixeira e Silva: Mestrando em Direito e Políticas Públicas pela Universidade Federal de Goiás (UFG), especialista em Controle Externo e Governança Pública pelo IDP e Engenheiro Civil pela UFG. Atuou como consultor na FALCONI Consultores de Resultado e, desde 2015, é Analista de Controle Externo do Tribunal de Contas do Estado de Goiás – Lattes: http://lattes.cnpq.br/3192620164257723 – E-mail: stteixeira@tce.go.gov.br


Maurício Barros de Jesus: Mestrando em Computação Aplicada pela Universidade de Brasília (UnB), especialista em Engenharia de Sistemas pela Escola Superior Aberta (ESAB), Engenheiro de Computação pela Universidade Federal de Goiás (UFG), é Analista de Controle Externo no Tribunal de Contas do Estado de Goiás - Lattes:  http://lattes.cnpq.br/0131709712990645 - E-mail mbjesus@tce.go.gov.br


Marco Antônio Borges Traldi: Engenheiro Civil (UFG). Possui MBA em Estruturas e Fundações (IPOG). Pós-Graduado em Controle Externo e Governança (IDP). Mestre em Engenharia (UFG). Atuou como Analista de Obras (Prefeitura de Goiânia), como Professor (IFG) e como Engenheiro Civil (MP-GO). Analista do TCE-GO desde 2015, atuando no controle externo de obras públicas. Lattes:  http://lattes.cnpq.br/6831702118428755 - E-mail mabtraldi@gmail.com

Use os botões abaixo para votar:

author photo

Classificação de Risco de Fraude em Benefícios Trabalhistas Usando Aprendizagem de Máquina

A palestra tem por objetivo apresentar o trabalho de classificação de risco de fraude em benefícios do tipo seguro-desemprego utilizando técnicas de aprendizagem de máquina que foi realizado no ciclo de fiscalização contínua de benefícios trabalhistas de 2017. O trabalho utilizou uma massa de dados de 1,6 milhão de requerimentos de seguro-desemprego dos anos de 2016 e 2017 e teve por objetivo construir um modelo preditivo que fosse capaz de prever o risco de fraude associado a cada requerimento, possibilitando priorizar os requerimentos que seriam encaminhados para a realização de rotinas adicionais de verificação de fraude, antes do efetivo cancelamento dos benefícios fraudados. Os resultados obtidos comprovaram a efetividade do modelo.


Instituição: Tribunal de Contas da União


Nome: Aloísio Dourado Neto


Tipo da proposta: apresentação


Foco principal: técnico (apresentação das técnicas utilizadas no trabalho e resultados obtidos)


Fase do trabalho: estudo de caso com resultados práticos


Detalhes Técnicos:


Algoritmo Utilizado: Distributed Gradient Boosting (XGBOOST)


Técnicas Adicionais de Machine Learning: Cross-Validation, Hyper-Parameter Grid Search


Softwares Utilizados: SAS Enterprise Guide (Preparação de Dados), Python, Scikit-learn, Pandas, XGBoost (Treinamento e Validação do Modelo)


Mini Currículo:


Aloísio é Auditor do TCU, e possui graduação em engenharia elétrica pela UFBa e mestrado em computação aplicada com foco em análise de dados pela UnB. Atualmente é doutorando em Visão Computacional com foco em Deep Learning, também pela UnB. No TCU, trabalha com fiscalização de benefícios sociais amparada em análise de dados nas áreas de Previdência, Assistência Social e Trabalho. Suas áreas de interesse são Machine Learning, Deep Learning, Visão Computacional e Análise de Impacto de Políticas públicas por meio de análise de dados.  

Use os botões abaixo para votar:

author photo

CLASSIFICAÇÃO E PROCESSAMENTO AUTOMÁTICO DE REPRESENTAÇÕES CONTRA EDITAIS LICITATÓRIOS

Formato: Apresentação em plenário (20 minutos)
    
Eixo Temático: Processamento de linguagem natural (Natural language processing - NLP)

Instituição: TRIBUNAL DE CONTAS DO ESTADO DE SÃO PAULO

Fase do trabalho apresentado: Projeto em andamento
    
Autores
    Cecília Akao - TCE-SP
    Danilo Panzeri Carlotti - INSPER
    Darcio Genicolo Martins - INSPER
    Fábio Xavier - TCE-SP
    Paulo Furquim - INSPER    
    Ricardo Vaz - TCE-SP

Descrição
    A proposta é apresentar ao público o trabalho que está sendo desenvolvido pelo INSPER em conjunto com o TCE-SP, para construção de uma ferramenta de classificação de textos, aplicada ao Exame Prévio de Editais Licitatórios, valendo-se de machine learning, que permite:
    
    1) Detectar o assunto referente a determinada reclamação/representação;
    2) Buscar votos semelhantes já elaborados, tendo em vista a reclamação apresentada;
    3) Detectar padrões e gerar estatísticas descritivas sobre os principais pedidos e peticionantes ao Poder Público;
    
    Os impactos esperados com este trabalho são:

    1) Auxílio na elaboração de decisões pelos Conselheiros do Tribunal de Contas;
    2) Geração de inteligência sobre padrões de litigância (assuntos, litigantes, argumentos mais apresentados, etc);


Breve resumo profissional/acadêmico
    
    Cecília Akao, bacharel em Ciência da Computação pelo IME-USP. Chefe Técnica do DTI do TCE-SP.
 
    Danilo Panzeri Carlotti, graduado, mestre e doutor em Direito pela Faculdade de Direito da USP. Graduando, pela USP, em ciência da computação. Pesquisador do INSPER.
        
    Darcio Genicolo Martins, graduado em Administração Pública pela Escola de Administração de Empresas de São Paulo / FGV (2001). Mestre em Economia pela Pontifícia Universidade Católica de São Paulo. Doutorando em Business Economics no Insper. Pesquisador do INSPER.
        
    Fábio Xavier, graduado em Tecnologia da Informação. Mestre em Ciência da Computação pelo IME-USP. Especialista em Gestão Pública com MBA em Gestão Executiva de Negócios pelo IBMEC. Diretor de Departamento do DTI do TCE-SP.
        
    Paulo Furquim, graduado em Administração Pública, pela FGV, e é Mestre e Doutor em Economia, pela FEA-USP. É Professor Senior Fellow do Insper, onde também coordena o Centro de Estudos em Negócios.
    
    Ricardo Vaz, bacharel em Ciência da Computação e Especialista com MBA Executivo em Gestão Pública pela FGV. Diretor de Sistemas (DSIS) do TCE-SP.
       

Use os botões abaixo para votar:

author photo

Como Fazer um Projeto de Ciência de Dados em 6 Passos: o Caso do Assistente Virtual do Pregoeiro

Você sabe como é a estrutura de um projeto de data science? Vamos apresentar os 6 passos de criação de um projeto de ciência de dados e como aplicamos estes passos no projeto de criação de um assistente virtual do pregoeiro. O objetivo do projeto de assistente virtual do pregoeiro é criar um robô inteligente que alerte o pregoeiro os casos de indícios de possíveis conluios, fraudes, melhores preços, risco do fornecedor cometer penalidades, se a empresa já faturou mais que o permitido para usar benefícios de políticas públicas para micro e pequena empresa, analisar os dados para verificar se as políticas e regras de compras públicas são cumpridas, entre outras atividades que entregam informações de apoio à tomada de decisão do pregoeiro. O projeto de assistente virtual do pregoeiro está inserido no âmbito do novo projeto da Rede Nacional de Compras Públicas (www.compraspublicasbrasil.gov.br) e visa municiar o pregoeiro com informações relevantes para serem usadas numa licitação.


 


De Janeiro a Maio de 2018 mais de 52 mil fornecedores participaram de licitações no âmbito do principal sistema de compras do país. São quase 19 mil pregoeiros cadastrados em todo o Brasil para o mesmo sistema. Com base nas informações de compras públicas anteriores constantes em diferentes bases de dados do governo federal, é possível entregar informações valiosas para o pregoeiro. 


Este projeto é composto por uma série de atividades e para cada atividade do assistente virtual do pregoeiro é usada uma técnica diferente. Por isso, realizamos criação de um projeto de ciência de dados para o assistente virtual do pregoeiro seguindo apenas os 6 passos fundamentais. Vamos mostrar os passos para a criação de um grande projeto de ciência de dados, incluíndo: como foi a divisão do projeto em atividades com entregas contínuas, como foi feita a priorização das atividades, como foi feita a escolha dos algoritmos, dos métodos e ferramentas em cada etapa e atividade do assistente virtual do pregoeiro, como foi definida a estrutura de organização do código, dados e documentos de forma compartilhada entre os membros da equipe, como foi feita a parcerias com outros órgãos do governo que possuem informações complementares importantes neste projeto.


Adicionalmente, vamos mostrar os resultados das análises já concluídas e o potencial futuro de impacto com o assistente virtual do pregoeiro.


Autores: Débora, Rodrigo, André
Instituição: Ministério do Planejamento
Tipo de proposta: apresentação (20 minutos)
Foco principal da apresentação: gerencial e técnico
Fase do trabalho: proposta em andamento com resultados parciais
Detalhes técnicos: projeto de ciência de dados, priorização de análises, escolha de técnicas e algoritmos, cruzamento de dados, exploração de dados, network analysis, sumarização, visualização.
Mini-Currículo: Débora é mestranda em Ciência de Dados pela UnB e Coordenadora de Gestão da Informações e Tecnologia do Ministério do Planejamento. Rodrigo é Analista em TI e especialista em visualização de dados. André é Coordenador-Geral de Informações de Apoio à Logística do Ministério do Planejamento. Todos fazem parte da equipe de fundadores da Rede Nacional de Compras Públicas e atuam na área de inteligência em compras públicas do Ministério do Planejamento.

Use os botões abaixo para votar:

author photo

Compartilhando a experiência em Registros Administrativos: trabalhando com 31 anos da RAIS (RAIS) - desafios e oportunidades

O presente trabalho visa mostrar os desafios e oportunidades do uso da base de dados RAIS (Relação Anual de Informações Sociais) bem como a possibilidade de compartilhar códigos, bases e experiências adquiridas no projeto “Atlas do Estado Brasileiro” (que visa apresentar um diagnóstico do emprego público no Brasil nos últimos 31 anos).


O trabalho foi executado com ferramentas livres e máquinas convencionais.


O primeiro desafio do projeto foi organizar estes 31 anos de dados, pois são arquivos de grande tamanho e variados layouts/conceitos neste intervalo. Após o trabalho de organização inicial (precedido por inúmeros testes e formas de organização) chegou-se a uma base de dados contendo cerca de 2 bilhões de registros administrativos, contendo uma rica história dos trabalhadores e empresas brasileiras.


A base é de caráter sigiloso pois contém dados pessoais. Entretanto, uma base não identificada  está disponível no site do MTE. Este trabalho usou a base identificada, com acesso controlado.


Uma base de registros administrativos de longo prazo como esta possui uma enorme riqueza e vários desafios, pois ocorreram erros, omissões e diversas particularidades  no seu preenchimento. Além disso, seu volume trouxe desafios técnicos e organizacionais visando um uso eficiente. A escolha das ferramentas também teve impacto na qualidade do trabalho. Esta organização também se preocupou com a integração desta base a outras bases complementares, sem se descuidar do seu caráter geográfico.


O trabalho realizado foi focado em serviço público mas a experiência adquirida ao longo do processo pode ser muito útil a pesquisadores e técnicos do governo. Todos os resultados estão em bancos de dados geográficos e várias bases de dados úteis podem ser compartilhadas.


Impactos alcançados: organização de uma rica base de dados e conjunto de ferramentas de análise rápida, bem como bases de dados auxiliares (que podem ser compartilhadas)


Detalhes técnicos: foram realizados testes de armazenamento em diversos bancos de dados (MongoDb, SQL Server, Postgres e um cluster Hadoop). Finalmente foi criado um banco de dados em Postgres (com Postgis), o qual foi aperfeiçoado com vários índices. Além da RAIS vários outros conjuntos de dados foram integrados ao sistema. As análises foram feitas principalmente com o uso do R (software estatístico) e Python.


Nome Completo: Erivelton Pires Guedes
Instituição: IPEA - Instituto de Pesquisa Econômica Aplicada
Tipo de proposta: apresentação (20 minutos)
Foco principal da apresentação: gerencial e técnica, para facilitar a realização de trabalhos semelhantes por analistas e cientistas de dados
Fase do trabalho: estudo de caso com resultados práticos.
Impactos alcançados: organização de uma rica base de dados e conjunto de ferramentas de análise rápida.
Detalhes técnicos: foram realizados testes de armazenamento em diversos bancos de dados (MongoDb, SQL Server, Postgres e um cluster Hadoop). Finalmente foi criado um banco de dados em Postgres (com Postgis), o qual foi aperfeiçoado com vários índices. Além da RAIS vários outros conjuntos de dados foram integrados ao sistema. As análises foram feitas principalmente com o uso do R (software estatístico) e Python. Códigos controlados em Gitlab e gerenciamento do projeto com Jira.


Mini-Currículo: Erivelton Pires Guedes é Eng Civil com Doutorado em Eng de Transportes. Foi Especialista em Regulação da Aviação Civil e desde 2009 é Técnico de Planejamento e Pesquisa do Ipea, trabalhando principalmente com bases de dados, análise de políticas públicas e com larga experiência em geoprocessamento.

Use os botões abaixo para votar:

author photo

Dados georreferenciados na Justiça Eleitoral do DF: uma aplicação prática de determinação das rotas de transporte de urnas nas Eleições Gerais de 2018


- nome completo e instituição: Cláudia Raquel da Rocha Eirado e Gustavo Pompeu da Silva, Tribunal Regional Eleitoral do DF.


- tipo de proposta: apresentação (20 minutos, no plenário);


- título da apresentação: Dados georreferenciados na Justiça Eleitoral do DF: uma aplicação prática de determinação das rotas de transporte de urnas nas Eleições Gerais de 2018.


- foco principal da apresentação: técnico, para facilitar a realização de trabalhos semelhantes por analistas e cientistas de dados com apresentação da estrutura dos dados e técnicas utilizadas para análise;


- fase do trabalho apresentado: estudo de caso com resultados práticos;


- descrição da apresentação:


As Eleições Gerais de 2018, no âmbito do Distrito Federal, demandam o Plano de Logística de Transportes. Por meio desse instrumento é realizado o plano de distribuição das urnas eletrônicas para os locais de votação na sexta-feira que antecede as Eleições Gerais de 1º Turno e de 2º Turno, caso haja.


Nas eleições anteriores, a Seção de Transportes do Tribunal Regional Eleitoral do Distrito Federal - TRE-DF realizava a organização e distribuição das rotas de transportes manualmente em conjunto com os Chefes dos Cartórios das Zonas Eleitorais.


Em 2018, será realizada a contratação da frota por meio de licitação com o uso de rotas de transportes calculadas pelo Routific e R. Os dados dos locais de votação foram georreferenciados (latitude e longitude) para o uso de técnicas de análise de dados para determinação de solução ótima das rotas.


O resultado da análise determinou 60 rotas, que além de apresentarem o itinerário da distribuição das urnas nos locais de votação, mostram também o melhor caminho por meio de solução no software R que acessa o Google Directions API e plota mapas, disponíveis em sítio na internet.


O objetivo do trabalho foi automatizar e aprimorar a rotina de distribuição das rotas de transportes das urnas para as Eleições Gerais de 2018.


- detalhes técnicos: O cálculo de distribuição das urnas nos meios de transportes e o itinerário foram realizados na solução Routific e a determinação da melhor rota e a disponibilização dos mapas foram realizadas no software R, por meio do pacote googleway que acessa o Google Directions API.


- mini-currículo: Cláudia Raquel da Rocha Eirado é chefe do Núcleo de Estatística do TRE-DF. Mestre em Probabilidade e Estatística pela Universidade de Brasília e foi consultora de modelagem na área de Risco na Caixa Econômica Federal por 7 anos. Gustavo Pompeu da Silva é estagiário do TRE-DF e graduando no Bacharelado em Estatística da Universidade de Brasília.

Use os botões abaixo para votar:

author photo

Data Science e Coleções Biológicas: Descobrindo estruturas sociais no herbário da Universidade de Brasília

Apresento uma nova perspectiva de uso de dados de ocorrência de espécies (domínio da biodiversidade) na investigação do aspecto humano por trás da montagem de coleções biológicas. Tal abordagem pode ser de grande valor para a compreensão de como interesses, comportamentos e interações de coletores levam ao aparecimento de uma série de viéses nestes dados. Fornecer estruturas que permitam caracterizar tais viéses mostra-se fundamental, visto que sua existência normalmente limita seriamente a aplicação de dados de coleções biológicas na tomada de decisões em Conservação da Biodiversidade. Este trabalho é fruto do meu projeto de mestrado, na área de modelagem computacional. Mais detalhes sobre o projeto em https://lncc-netsci.github.io/pedrocs/


- Nome: Pedro Correia de Siracusa


- Instituição: No momento sem vínculo institucional formalizado


- Tipo de proposta: Apresentação


- Título: Data Science e Coleções Biológicas: Descobrindo estruturas sociais no herbário da Universidade de Brasília


- Foco principal: Gerencial


- Fase do trabalho: Estudo de Caso


- Detalhes Técnicos: Social Network Analysis; Biodiversity Informatics; Complex Networks; Graph Theory; Python


- Mini-currículo: Biólogo pela Universidade de Brasília (2014); Mestre em modelagem computacional pelo Laboratório Nacional de Computação Científica (LNCC/MCTIC) (2018)

Use os botões abaixo para votar:

author photo

Democracia Participativa com o Crowd4City

Nome completo e instituição: Cláudio de Souza Baptista, Ph.D.  - Universidade Federal de Campina Grande - UFCG


E-mail: baptista@computacao.ufcg.edu.br


 Tipo de proposta : Apresentação (20 minutos, no plenário).


 Título da apresentação: Democracia Participativa com o Crowd4City.


 Foco principal da apresentação: Gerencial.


 Fase do trabalho apresentado: Estudo de caso.


 Descrição da apresentação:


Apresentamos o Crowd4City que visa facilitar a aplicação do conceito de “Democracia Participativa”, com estudo de caso na cidade de Campina Grande-PB, utilizando-se de técnicas de análise de sentimentos em dados de redes sociais.


O sistema disponibiliza um mapa, usando o Google maps,  no qual usuários inserem diversas informações georreferenciadas (e.g. reclamações, denúncias, elogios), no formato vetorial: pontos, linhas ou polígonos. Assim, além das funcionalidades do Google maps, são acrescentadas consultas espaciais.


Usuários podem denunciar, por exemplo, trechos de rua mal iluminados ou com problemas no calçamento; pontos onde ocorrem muitos acidentes ou áreas inseguras (como por exemplo um quarteirão). De posse dessas informações registradas no Crowd4City, a população e os meios de comunicação podem avaliar a condição geral de bairros ou mesmo da cidade como um todo, e também realizar cobranças aos órgãos competentes para que os problemas sejam solucionados, exercendo assim o poder do fiscal social. Os cidadãos passam a ter voz ativa e os problemas, por sua vez, mais visibilidade.


Por meio dos filtros espaciais, é possível realizar buscas como, por exemplo, encontrar todas as denúncias feitas com o tema “Segurança” em um raio de 100 metros da sua casa; denúncias de poluição sonora próxima a hospitais; reclamações de problemas no caminho em que você faz para ir ao trabalho; entre outras inúmeras possibilidades.


Além de permitir que usuários cadastrados possam realizar denúncias no mapa, foi desenvolvida uma metodologia de recuperação de textos do Twitter para encontrar mais informações sobre a cidade. Por meio de um filtro geográfico, foram recuperados tweets que dizem respeito ao estado da Paraíba para enriquecer a base de dados do Crowd4City, visto que esta é uma rede social já consolidada e é bastante utilizada também por seus usuários para registrar reclamações, denúncias e também elogios.


Após a recuperação desses tweets, foram aplicadas técnicas de análise de sentimentos para identificar a polaridade da opinião.


Uma vez que os tweets coletados eram geo-referenciados, estes foram plotados no mapa do Crowd4City e foram exibidos de acordo com o sentimento identificado. Assim, foi possível visualizar o mapa como um todo e identificar o sentimento geral dos usuários do Twitter com relação à cidade e o estado.


 Detalhes técnicos:


    O Crowd4City exibe postagens coletadas do Twitter (tweets) em tempo real, que estejam relacionadas com contratos, obras ou outras formas de utilização de recursos públicos. Para tanto, o Crowd4City conta com um módulo que se utiliza da API de Streaming do Twitter (https://developer.twitter.com/en/docs/tweets/filter-realtime/api-reference/post-statuses-filter.html ) que possibilita que sejam capturados um percentual de tweets que estão sendo publicados em tempo real. Utilizamos a captura de tweets com um filtro baseado em um conjunto de palavras-chave relevantes ao contexto de recursos públicos, juntamente com uma filtragem por metadados, de modo a se obter somente os tweets escritos em Português e geolocalizados no estado da Paraíba.


    O módulo de tweets também encarrega-se de processar os tweets recebidos de modo a remover spam e outros tipos de conteúdo inadequado ou não desejado. O processamento também realiza expansão de hashtags e análise de metadados, a exemplo dos campos responsáveis pela geolocalização do tweet. A partir desse processamento, é possível aplicar um filtro secundário, baseado na indexação dos tweets coletados a partir de suas palavras-chave. Esse processo de indexação ajuda a manter somente os tweets com potencial relevância para o contexto trabalhado.


    Realizada essa etapa de pré-processamento para identificação de tweets relevantes ao contexto do Crowd4City, estes tweets são submetidos ao crivo de um classificador de sentimentos para a identificação da polaridade (Positivo ou Negativo) e enriquecimento dos dados da base de dados do Crowd4City. O classificador foi construído através de técnicas de aprendizagem supervisionada utilizando dois classificadores bayesianos, onde o primeiro é responsável por identificar tweets opinativos e o segundo classifica a polaridade dos tweets opinativos. Os classificadores foram construídos e avaliados com dados de treinamentos e testes da própria base do Crowd4City separados e rotulados para estes propósitos.   O classificador de sentimentos foi implementado na linguagem de programação Java utilizando a biblioteca do WEKA (https://www.cs.waikato.ac.nz/ml/weka/) para modelagem dos classificadores bayesianos.


    Foi desenvolvido um aplicativo para Android utilizando Google maps, Java e a biblioteca Volley para requisição via Web services do servidor do Crowd4City.  O servidor do Crowd4City foi desenvolvido em PHP e os dados são armazenados no SGBD Postgresql com extensão POSTGIS para os dados, consultas e indexação espacial via R-Trees.


 Mini-currículo:


Cláudio de Souza Baptista é Professor Titular  do Departamento de Sistemas e Computação da Universidade Federal de Campina Grande, onde coordena o Laboratório de Sistemas de Informação - LSI. Possui Ph.D. em Computer Science pela University of Kent, UK, em 2000;  Mestrado e Bacharelado em Ciência da Computação pela UFPB, em 1991 e 1989, respectivamente. Realiza pesquisa em Geoprocessamento, Text Mining, Business Intelligence e Analytics, Banco de Dados e Sistemas de Informação, tendo orientado várias teses de doutorado e dissertações de mestrado nestas áreas. Possui mais de 150 artigos científicos  publicados em periódicos, congressos internacionais e nacionais. É bolsista de produtividade em Desenvolvimento Tecnológico do CNPQ.

Use os botões abaixo para votar:

author photo

Desmistificando a Inteligência Artificial: construindo sua primeira rede neural artificial profunda para classificar fotos de cães e gatos, em apenas 3 horas!

A apresentação pretende mostrar para leigos em Deep Learning (DL, redes neurais artificiais profundas, capazes de aproximar qualquer função) alguns dos resultados mais recentes da área, construir as bases para uma compreensão conceitual mínima que permita desenvolver alguma intuição acerca da viabilidade e complexidade de uma aplicação prática de DL e, finalmente, elaborar em conjunto código, utilizando as bibliotecas pytorch e fast.ai, para treinar e utilizar uma rede neural profunda.


Espera-se com essa apresentação que o participante desenvolva uma compreensão mínima do funcionamento de redes neurais artificiais, seus casos de uso e limitações, para poder estimar a viabilidade de propostas de aplicação de IA ou para aprofundar-se posteriormente nessa área.


Seguirei alguns dos passos do curso fast.ai.


- Nome: Erick Muzart Fonseca dos Santos


- Instituição: TCU/CePI


- Tipo de proposta: oficina, de 3 horas em laboratório de informática


- Nome da oficina: Desmistificando a Inteligência Artificial: construindo sua primeira rede neural artificial profunda para classificar fotos de cães e gatos, em apenas 3 horas!


- Foco principal da apresentação: técnico


- Fase do trabalho apresentado: trabalho ou projeto em andamento


- Descrição da apresentação: visão geral de Deep Learning, com aplicações, um pouco de teoria para entender o funcionamento e as limitações de redes neurais, inciando a implementação de uma rede convolutiva para classificação de imagens (distinção entre fotos de cães e gatos) utilizando as bilbliotecas fast.ai e pytorch. O exemplo de classificador permite explorar como construir uma rede neural com poucas linhas de código, atingindo um bon nível de desempenho (mais de 95% de acurácia) com poucas imagens de treinamento (cerca de 20 imagens) utilizando transfer learning.


- Detalhes técnicos: Deep Learning; machine learning; redes neurais; fast.ai; pytorch


- mini-currículo: co-organizador do grupo de estudo em Deep Learning de Brasília, em que se acompanhou o curso de DL da fast.ai; coordenador do programa de capacitação em análise de dados do TCU, onde ministra disciplinas de pós-graduação e cursos de extensão na área.

Use os botões abaixo para votar:

author photo

Detecção de gastos municipais em volume muito superior ao padrão esperado

Título: Detecção de gastos municipais em volume muito superior ao padrão esperado;


Instituição: Tribunal de Contas do Estado do Rio Grande do Sul;


Tipo de proposta: apresentação;


Foco principal da apresentação: técnico e gerencial;


Fase do trabalho apresentado: trabalho em andamento, em validação pela área de auditoria municipal do TCE-RS;


Descrição da apresentação:


O objetivo do trabalho é detectar gastos dos municípios em volume muito acima de um padrão estabelecido para municípios semelhantes, via agregação mensal das liquidações por tipo de gasto, sendo um dos possíveis fatores a serem levados em consideração quando da auditoria, posterior ou concomitante, a fim de identificar irregularidades.


Após agrupar municípios com características semelhantes em clusters, foi efetuada uma modelagem simples das séries temporais históricas para cada tipo de despesa, utilizando tendência e sazonalidade, obtendo-se o padrão esperado para aquele grupo.


Trazendo os gastos de cada município e do padrão esperado para o seu respectivo grupo para uma mesma escala, foi possível identificar anomalias nos gastos municipais, apontando quais conjuntos de liquidações municipais eventualmente distoam do padrão estabelecido para município semelhantes.


Entende-se que os alertas gerados podem constituir-se em subsídios à auditoria, inclusive a concomitante, uma vez que as remessas de novas informações por parte dos municípios são geradas bimestralmente e durante o próprio exercício podem ser detectadas as anomalias.


Detalhes técnicos:


Trabalho desenvolvido inteiramente em Python. Foram utilizados algoritmos de clusterização K-Means e regressão linear da biblioteca sklearn, limpeza e manipulação dos dados através das bibliotecas pandas/numpy e visualização através da biblioteca matplotlib.


Mini-currículo:


Alexandre Gandini: Economista com especialização em Finanças pela UFRGS, com experiência em análise de dados no mercado financeiro, trabalhou com modelagem econométrica, desenvolvendo modelos preditivos para o mercado de commodities, e atualmente trabalha na área de auditoria estadual do TCE-RS, aplicando data science e machine learning nas bases de dados do setor público.


Fabio Dapper: Auditor Publico Externo do TCE-RS. Possui graduação e Mestrado em Ciência da Computação pela UFRGS. Com experiência em Auditoria de TI e análise e desenvolvimento de sistemas, trabalha atualmente no CGEX (Centro de Gestão Estratégica da Informação) do TCE-RS com o objetivo de desenvolver projetos de data science aplicados ao controle externo.

Use os botões abaixo para votar:

author photo

Detecção de padrões de irregularidades por meio de sistemas de inteligência artificial

Nome: Jefersson Alex dos Santos.


E-mail Pessoal: jefersson@dcc.ufmg.br


Instituição: Universidade Federal de Minas Gerais.


Departamento/Unidade: Departamento de Ciência da Computação


Tipo de Proposta: Apresentação 20 minutos no Plenário. 


Título da Apresentação: Detecção de padrões de irregularidades por meio de sistemas de inteligência artificial 


Foco Principal da Apresentação: Técnico. Para facilitar a realização de trabalhos semelhantes por auditores, analistas, cientistas e investigadores de dados.


Fase do Trabalho Apresentado: Projeto em andamento.


Descrição da Apresentação: Essa apresentação focará nos resultados obtidos pelo grupo de pesquisa PATREO (DCC/UFMG) que está desenvolvendo ferramentas para auxiliar o Tribunal de Contas da União do Brasil para a automação da detecção de padrões de irregularidades por meio de Sistemas de Inteligência Artificial. As atividades do projeto incluem principalmente:


(1) a avaliação das técnicas de inteligência artificial para segmentação, detecção, classificação e identificação de padrões de possíveis irregularidades (não conformidades) presentes em imagens de sensoriamento remoto,de forma a definir a base tecnológica para atender aos requisitos de desenvolvimento, integrado ao sistema ArcGIS;


(2) avaliação do uso de imagens de alta resolução, seu potencial e limite de evidenciação para detecção e documentação de potenciais irregularidades, a partir de imagens coletadas pela constelação de satélites Plêiades adquiridas pelo Tribunal;


(3) pesquisa e desenvolvimento de técnicas e metodologias de modo a permitir a automação da detecção de padrões de irregularidades com utilização das imagens de sensoriamento remoto nas atividades de Controle Externo e por meio de módulos integrados ao sistema ArcGIS.


Apresentaremos os principais resultados obtidos até o momento em tarefas de detecção de erosão e obras de arte em ferrovias. Também discutiremos potenciais usos das ferramantas desenvolvidas para outras atividades de Controle Externo.


Detalhes Técnicos da Apresentação: O desenvolvimento deste projeto se encontra fundamentado principalmente na utilização da linguagem de programação Python, o uso do framework Tensorflow de aprendizado de máquina e a avaliação das seguintes técnicas de segmentação e classificação de imagens:



  • Fully Convolutional Networks [93]

  • SegNet [1]

  • U-Net [164]

  • Dilated ConvNet [185]

  • Mask R-CNN [52]


 


Referências:


[1]  Vijay  Badrinarayanan,  Ankur Handa, and  Roberto Cipolla. Segnet:   A deep convolutional encoder-decoder  architecture for robust semantic pixel-wise  labelling. arXiv preprint arXiv:1505.07293, 2015.


[2]  Kaiming He, Georgia Gkioxari, Piotr Dollár, and Ross Girshick. Mask r-cnn. InComputer Vision (ICCV), 2017 IEEE International Conference on, pages 2980–2988. IEEE, 2017.


[3]  Jonathan Long, Evan Shelhamer, and Trevor Darrell.  Fully convolutional networks for semantic segmentation.  In


Proceedings of the IEEE conference on computer vision and pattern recognition, pages 3431–3440, 2015.


[4]  Olaf Ronneberger,  Philipp Fischer, and Thomas Brox.   U-net: Convolutional networks for biomedical image segmentation.  In International Conference on Medical image computing and computer-assisted intervention, pages 234–241. Springer, 2015.


[5]  Fisher Yu and Vladlen Koltun.  Multi-scale context aggregation by dilated convolutions. arXiv preprint arXiv:1511.07122, 2015.


Resumo do Mini Curriculum Vitae:  Jefersson Alex dos Santos obteve o título de doutor em Ciência da Computação em 2013 pela Université de Cergy-Pontoise (França) e pela Unicamp. No mesmo ano, assumiu como professor do Departamento de Ciência da Computação da Universidade Federal de Minas Gerais (DCC/UFMG), cargo que ocupa atualmente. É bolsista de Produtividade em Pesquisa do CNPq desde 2016. Jefersson é fundador e coordenador do grupo de interesse em Reconhecimento de Padrões para Observação da Terra (Patreo - www.patreo.dcc.ufmg.br).


Jefersson publicou mais de quinze artigos em periódicos com alto fator de impacto e seletiva política editorial, sendo mais da metade em revistas classificadas com Qualis A1, segundo a CAPES. Também publicou mais de quarenta artigos em importantes conferências nacionais e internacionais da área de processamento de imagens, visão computacional e sensoriamento remoto.


Jefersson têm experiência na coordenação de projetos de pesquisa com empresas e agências de fomento, como LGE Electronics, CNPq, Fapesp e Fapemig. Além disso, têm mais de dez anos de experiência no desenvolvimento de técnicas de reconhecimento de padrões para aplicações agrícolas e de monitoramento ambiental, tendo participado de grandes projetos financiados pela Fapesp/Microsoft Research (WebMaps, e-Farms, e-Phenology e e-Tribes) e CAPES (DeepEyes). Nesses projetos, Jefersson têm atuado em colaboração com renomados pesquisadores e profissionais de instituições do Brasil e do exterior tais como Tribunal de Contas da União, Polícia Federal, Embrapa, Unicamp, University of South Florida, Virginia Tech, Grenoble INP e Petrobrás.




Use os botões abaixo para votar:

author photo

Detección de Enriquecimiento Ilícito en Funcionarios Públicos Utilizando Inteligencia Artificial

Este proyecto consiste en detectar enriquecimiento ilícito en los funcionarios y servidores públicos a partir de los cruces de información entre las Declaraciones Juradas de Ingresos, Bienes y Rentas que realizan los servidores públicos todos los años en los sistemas de La Contraloría, con bases de datos de datos de las demás instituciones públicas como la Superintendencia Nacional de Registros Públicos, La Superintendencia de Banca y Seguros, La Superintendencia de Migraciones, La Superintendencia Nacional de Administración Tributaria, el Ministerio de Economía, El Organismo Supervisor de las Contrataciones del Estado.


Para este proyecto se necesita primero impulsar la promulgación de una ley que otorga la facultad a la Contraloría General de la República del Perú de tener acceso irrestricto, masivo y gratuito a todas las bases de datos del Estado Peruano, Ley que fué promulgada en abril del año 2018.


El segundo paso consiste en iniciar las coordinaciones con las instituciones públicas que administran bases de datos con información crítica para la detección de incremento patrimonial no justificado en los funcionarios públicos, entidades como: Superintendencia Nacional de Registros Públicos, Superintendencia Nacional de Administración Tributaria, Superintendencia Nacional de Migraciones, Registro Nacional de Identidades y Estado Civil, Poder Judicial, Policía Nacional del Perú, Ministerio de Economía, Organismo Supervisor de las Contrataciones del Estado, entre otras.


El tercer paso es limpiar la data y armar cubos de información de manera quel el sistema de inteligencia artificial pueda consultar esas bases de datos en forma eficiente.


El cuarto paso es diseñar el sistema de Inteligencia artificial (IA) para que imite el proceso de investigación que seguimos en la Subgerencia de Fiscalización Patrimonial para detectar el desbalance Patrimonial. Esto es el corazón del sistema de IA.


Primero se verifica que la información del patrimonio del funcionario público contenida en su declaración jurada sea igual a la que posee los registros públicos, si existen diferencias se activan alarmas de anomalías, el análisis continúa ampliando el espectro de personas relacionadas con el funcionario, como su esposa, hijos, amigos o personas realizaron operaciones bancarias sospechosas (tenemos acceso a operaciones bancarias activas y neutras), por ejemplo la cancelación repentina de un prestamo hipotecario con una gran suma de dinero, compra de casas y coches a precios subvaluados, frecuentes viajes al exterior de la familia, el envío de remesas dinero al exterior, actualmente se diseñaron hasta 27 alarmas que activan anomalías en transacciones comerciales y financieras.


El sistema dibuja un diagrama de relaciones entre el funcionario y las personas instaladas a partir de estas transacciones, los analistas de fiscalización patrimonial interactúan con el sistema alimentando con información adicional de análisis y finalmente se elabora un proyecto de informe que es completado por el analista de fiscalización patrimonial. Este informe es enviado al Procurador que inicia el proceso judicial, con los resultados de los procesos judiciales se retroalimenta al sistema para que evalúe sus alarmas de anomalías y mejore sus procesos internos de detección de desbalance patrimonial.

Use os botões abaixo para votar:

author photo

Diário Oficial eletrônico - tecnologia a favor da transparência


  1. OBJETO DA AÇÃO


O Ministério Público de Contas de Santa Catarina, por iniciativa da Procuradora Cibelly Farias Caleffi, encaminhou em agosto de 2017 notificação recomendatória para municípios catarinenses, recomendando que, em atendimento ao princípio da publicidade, instituíssem instrumento eletrônico para publicação dos atos administrativos municipais.


Foram notificados 61 municípios em Santa Catarina. A ação teve origem numa ampla pesquisa, realizada pela equipe do MPC-SC, que identificou que muitos municípios ainda adotam o ‘Mural Público’ na entrada do Paço Municipal como meio de divulgação dos seus atos oficiais, resultando em dificuldade de acesso à informação pela população e restringindo o atendimento aos princípios gerais da transparência na gestão pública.


Tanto a Lei de Responsabilidade Fiscal (Lei Complementar n. 101/2000) quanto a Lei de Pregão (Lei n. 10.520/2002) privilegiam a utilização dos meios eletrônicos como veículo de divulgação dos atos administrativos, tais como leis, decretos e demais atos normativos; extratos de editais de concurso público e licitações; contratos e convênios; as atas das sessões e audiências públicas, entre outros.


“A divulgação dos atos administrativos por meio eletrônico, além de representar considerável economia aos cofres municipais, configura importante avanço na transparência, obrigação legal de todo gestor público”, ressalta a Procuradora.


A recomendação destacou, ainda, que os recursos tecnológicos atualmente presentes no Estado de Santa Catarina possibilitam uma multiplicidade de alternativas para a publicação de atos oficiais em meio eletrônico, como o Diário Oficial dos Municípios de Santa Catarina, o Diário Oficial do Estado de Santa Catarina ou ainda a instituição de Diário Oficial próprio.



  1. RESULTADOS OBTIDOS


Inicialmente, cumpre esclarecer que a presente ação segue em andamento, uma vez que muitos municípios continuam encaminhando suas respostas e buscando soluções tecnológicas para atendimento da recomendação encaminhada pelo MPC-SC.


Não obstante, 43 municípios – 70% dos notificados - já responderam positivamente à recomendação, informando que estão disponibilizando a divulgação dos atos por intermédio de seus portais de transparência, bem como instituindo soluções tecnológicas para alteração do meio oficial de divulgação dos atos administrativos.


Por fim, cremos que o maior resultado não pode ser aferido diretamente: trata-se, justamente, do aprimoramento da transparência pública, que tem repercussão direta no incremento da fiscalização dos atos da Administração por parte da sociedade e das instituições de controle. Assim, os melhores e mais satisfatórios resultados virão do livre exercício do direito de fiscalização, cuja consecução passa, invariavelmente, pela melhoria da transparência.



  1. MOTIVO PARA SELEÇÃO:


Entendemos que a ação empreendida pelo MPC-SC deve ser selecionada pela efetiva contribuição em favor da transparência pública nos municípios de Santa Catarina.


A transparência é um princípio de fundamental importância, de construção de cidadania ativa, permitindo não apenas aos órgãos de controle, mas também à toda sociedade fiscalizar os atos do Poder Público, configurando efetivo estimulo à boa utilização dos recursos. Nesse sentido, a mudança na forma de divulgação dos atos públicos, do antigo “mural” afixado na entrada das Prefeituras, para a publicação em meio eletrônico, de acesso universal, representa inegável contribuição neste sentido.

Use os botões abaixo para votar:

author photo

Documentos Fiscais: uma análise com foco na atividade de Controle Externo

O presente estudo vislumbrou uma ampliação de foco na atividade laboral dos auditores tributários brasileiros. A priori responsáveis pela administração tributária e controle aduaneiro, agora passam a exercer seu mister também no auxílio do combate ao desvio de recursos, lavagem de dinheiro e corrupção.


O GAECO/PB, em parceria com a Secretaria de Estado da Receita da Paraíba, desenvolveram sistemas que utilizam como premissa a análise de documentos fiscais com foco na atividade fiscalizatória do Ministério Público da Paraíba.


O primeiro sistema foi desenvolvido utilizando o software Qlikview, com a finalidade de analisar de encontrar as seguintes irregularidades:



  • Notas Fiscais Eletrônicas (NFe) de medicamentos vendidos vencidos ou prestes a vencer;

  • NFe de medicamentos vendidos acima do Preço Máximo de Venda ao Governo (PMVG) determinado pela Anvisa.


Tais análises são realizadas utilizando campos da NFe que a princípio não são visíveis no Documento Auxiliar de Nota Fiscal Eletrônica, impresso em papel.


O segundo sistema foi criado a partir de uma necessidade do setor de operações. Tal célula do Gaeco tinha a necessidade de saber onde determinado investigado costuma transitar para posteriormente efetuar uma vigilância. Então criamos um sistema que busca o localizar os locais onde o investigado costuma frequentar a partir do endereço de tais locais, presente na Nota Fiscal de Consumidor Eletrônica (NFCe).


Existem outros sistemas que fazem parte do escopo de trabalho da Inteligência da Receita Estadual da Paraíba e do Gaeco/PB que pretendemos apresentar em eventual palestra, sempre com foco na análise de documentos fiscais.

Use os botões abaixo para votar:

author photo

Eficácia na estimativa de risco de irregularidades com poucos dados e técnicas simples

Nome completo e instituição:


Leandro Balby, Leonardo Sales*, Nazareno Andrade, Órion Winter, Talita Lôbo


Universidade Federal de Campina Grande, *CGU


 


Tipo de proposta: Apresentação


Título: Eficácia na estimativa de risco de irregularidades com poucos dados e técnicas simples


Foco principal da apresentação: Técnico (apresentação das técnicas aplicadas e resultados obtidos).


Fase do trabalho: Trabalho ou projeto em andamento.


 


Descrição:


O uso de aprendizagem de máquina para avaliar risco de irregularidades em contratos públicos é promissor: este potencial foi demonstrado, por exemplo, pelo artigo Predicting Public Procurement Irregularity: An Application of Neural Networks (Ting Sun e Leonardo Sales). Este trabalho mostra que é possível atingir uma precisão considerável utilizando dados a que CGU tem acesso e treinando modelos de redes neurais profundas. 


Porém, apesar de alguns resultados promissores, há ainda pouca comparação sistemática da eficácia de diferentes abordagens. Conhecemos a eficácia de modelos de redes neurais profundas e outros métodos utilizando os dados disponíveis para a CGU, porém não sabemos quão melhores esses resultados são do que modelos muito mais simples, ou do que modelos treinados utilizando subconjuntos dos dados disponíveis para mais órgãos.


Caso haja soluções com eficácia semelhante e com modelos mais simples, será possível produzir aplicações e resultados mais interpretáveis para os órgãos de controle e seus auditores. Por outro lado, se for possível utilizar um subconjunto consideravelmente menor de dados para obter resultados precisos, mais órgãos de controle poderão utilizar essa abordagem.


Neste trabalho, mostramos que:


(i) a utilização de modelos consideravelmente mais simples (árvores de decisão, por exemplo) - e portanto mais fáceis de interpretar - produzem resultados de eficácia equivalente aos de redes neurais profundas que alcançamos, e 18% piores que os encontrados pelos autores do artigo citado acima; e


(ii) a eficácia que alcançamos com modelos que utilizam apenas três variáveis se aproxima da de modelos mais complexos com as 182 variáveis a que temos acesso.


Assim, embora haja muito dado produzido sobre a administração pública, não é sempre possível conseguir acesso a todas as bases de dados existentes. Depender de um número mínimo de características para treinar modelos de previsão de risco eficazes democratiza o uso destas técnicas, permitindo que mais órgãos possam aplicá-las. Nossos resultados apontam que órgãos tanto da esfera estadual como municipal podem se beneficiar do uso de modelos de aprendizagem de máquina simples e interpretáveis, ainda que tenham acesso limitado a dados.


 


Detalhes técnicos:


Os dados utilizados são uma combinação de sete bases de dados da CGU, incluindo Relação Anual de Informações Sociais (RAIS), Receita Federal do Brasil (RFB),  Sistema Integrado de Administração Financeira do Governo Federal (SIAFI), Sistema Integrado de Administração de Serviços Gerais (SIASG), Sistema Integrado de Administração de Pessoal (SIAPE), Tribunal Superior Eleitoral (TSE) e o Sistema de Convênios (SICONV).


Os modelos foram treinados em R, utilizando o pacote H2O para modelos de rede neural profunda e florestas aleatórias, e o pacote Caret árvore de decisão, regressão logística e análise de função discriminante.


Para treinar os modelos de aprendizagem de máquina, os dados foram particionados em treino e teste, na proporção de 80% e 20% respectivamente. Como grande parte dos algoritmos utilizados são sensíveis ao desbalanceamento da variável alvo, foi utilizado uma técnica de reamostragem da classe minoritária (oversampling) no conjunto de treino, de modo a deixar equilibrada a quantidade de observações baseada na coluna referente às penalidades. De modo a contornar o overfitting, foi utilizada validação cruzada com 5 folds.


Como o objetivo principal é detectar empresas que são propensas a quebrar o contrato, queremos dar ênfase na classe positiva, que representa as empresas que receberam uma penalidade severa. Desta forma as métricas que mais se adequam a este propósito são o F1-score e a área sob a curva ROC (AUC).


Mini-currículo:


Leandro Balby, Nazareno Andrade, Órion Winter e Talita Lôbo são da Universidade Federal de Campina Grande. Os dois primeiros são professores, e os dois últimos mestrandos em análise de dados aplicada aos gastos públicos e controle social. Leonardo Sales é Coordenador-Geral do Observatório da Despesa Pública na Controladoria-Geral da União.

Use os botões abaixo para votar:

author photo

Exame automatizado de Compras Públicas

Nome: Jonathan Aldori Alves de Oliveira


E-mail: jonathanoliveira@tce.ms.gov.br


Instituição: Tribunal de Contas do Estado de Mato Grosso do Sul


Unidade: Diretoria de Gestão e Modernização / Informações Estratégicas e Risco


Tipo de proposta: ação educacional em sala de aula com duração de 2:00 horas.


Título da oficina: Exame automatizado de Compras Públicas.


Eixo Temático: Detecção de anomalias, abusos ou fraudes na arrecadação ou no gasto de recursos públicos; Priorização, por critérios de risco, urgência ou importância, de casos para auditoria, análise ou investigação pelo poder público.


Foco principal: técnico, para facilitar a realização de trabalhos semelhantes por analistas e cientistas de dados.


Fase do trabalho apresentado: projeto em andamento.


Mini-currículo: Jonathan Aldori Alves de Oliveira, Cientista da Computação (UNIGRAN), Esp. em Engenharia de Produção (UEL), Mestre em Engenharia Elétrica (UFMS), Cursando: Esp. Computação Forense e Perícia Digital (IPOG), Esp. em Gestão Pública (UFMS), Esp. em Docência para EPT (IFMS) e MBA em Business Intelligence (UNYLEYA). Atuei com programador de computador (2004-2006) na iniciativa privada, atualmente sou servidor público investido no cargo de Analista de Tecnologia da Informação da SEFAZ-MS desde 2006, no qual, atuei no desenvolvimento dos sistemas tributários estaduais, estive cedido do período de 2013 a 2016 para o município de Nova Andradina-MS, atuando diretamente como responsável técnico pelas soluções e infraestrutura tecnológica do Município e desde 2017 estou cedido ao TCE-MS onde estou atuando na Unidade de Informações Estratégicas e Risco.


Ementa/Apresentação: Apresentar a possibilidade de utilizar a gestão de riscos no exame automatizado das notas fiscais eletrônicas referentes às compras públicas. No qual o período a ser analisado é definido pelo usuário e então são aplicados os controles para gestão de riscos em compras públicas. As informações extraídas serão convertidas em ferramenta para tomada de decisão e direcionamento das ações de fiscalização. Essa abordagem é capaz de trabalhar integrando as diversas bases de dados utilizadas no Tribunal, entre as quais, o banco de dados da Nota Fiscal Eletrônica, disponibilizado pela SEFAZ-MS, os balanços mensais, o cadastro integrado dos Gestores Públicos, o sistema de remessa de atos de pessoal, o sistema de tramitação de Processos e os dados extraídos do jurisdicionado, principalmente o financeiro e folha.


Para desenvolvimento da solução foram utilizados como ferramentas o “Pentaho Data Integration” (o núcleo) e o “Java” (geração dos relatórios).


A solução tem como motivação atingir os seguintes objetivos:



  1. Para a Organização:



  • Examinar as informações em tempo real, possibilitando ações preventivas;

  • Verificar as informações a posteriori de forma automática de acordo com o conjunto de eventos e riscos, apresentando a matriz de risco e os eventos de controle envolvidos;



  1. B) Para o Jurisdicionado:



  • Acompanhar os ricos associados à gestão de recursos públicos;

  • Acompanhar os eventos implementados e não implementados pelos gestores públicos;

  • Auxiliar na tomada de decisão dos gestores públicos de quais controles devem ser implementados ou melhorados com o objeto de reduzir/mitigar seus riscos;

  • Apontar para o gestor público sua matriz de risco.


Os resultados esperados com a aplicação desta solução:



  • Possibilidade de ações preventivas antes dos términos dos processos/contratos;

  • Apresentação do resultado dos casos inconsistentes;

  • Melhora no tempo de resposta das ações de fiscalização do tribunal;

  • Ganho de produtividade, direcionando as ações de fiscalização do tribunal;

  • Aumento da eficiência, eficácia e efetividade nos procedimentos de fiscalização do TCE junto aos jurisdicionados.


Tipos de riscos associados:



  • Adulteração: Irregularidades realizadas por gestores públicos no processo de contração de produtos ou serviços.

  • Ineficiente: Aquisições realizadas fora dos parâmetros da média geral.

  • Tempestividade: Processos que envolvam NF-e podem não ser objeto de análise em tempo hábil.

  • Remessa: Processos que envolvam NF-e podem não ser objeto de remessa ao TCE.


Controles aplicados à gestão de riscos:



  • NF-E CANCELADA NÃO ENCONTRADA.

  • NÃO ENCONTRADA NF-E NO SICOM SEM CORRESPONDENTE NA BD DA SEFAZ.

  • NÃO ENCONTRADA NF-E PARA SER ANALISADA IN-LOCO.

  • NÃO ENCONTRADA INCONSISTÊNCIA NA CHAVE DE ACESSO NO SICOM.

  • NÃO ENCONTRADA NF-E NA BD DISPONIBILIZADA PELA SEFAZ DIFERENTE DA NF-E INFORMADA PELO JURISDICIONADO NO SICOM.

  • NÃO ENCONTRADO EMPENHO NO SICOM CONTENDO INFORMAÇÕES DIVERGENTES DA NF-E.

  • NÃO ENCONTRADA NF-E COM ITENS COM POSSIBILIDADE DE SOBREPREÇO.

  • NÃO ENCONTRADA NF-E COM ITEM COM POSSIBILIDADE DE SUBFATURAMENTO (OU INEXEQUÍVEL).

  • NÃO ENCONTRADAS NF-E SEQUENCIAIS.

  • NÃO ENCONTRADA NF-E COM NÚMEROS INICIAIS.

  • NÃO ENCONTRADO GRANDE VOLUME DE NF-E CANCELADAS DE UM MESMO FORNECEDOR PARA UM DETERMINADO JURISDICIONADO.

  • NÃO ENCONTRADA NF-E DE FORNECEDOR COM O MESMO NOME DOS ORDENADORES DE DESPESAS OU SERVIDORES. (POSSIBILIDADE DE GRAU DE PARENTESCO)

  • NÃO ENCONTRADAS NF-E IDÊNTICAS: COM O MESMO VALOR DE UM MESMO FORNECEDOR PARA UM DETERMINADO JURISDICIONADO.

  • NÃO ENCONTRADA NF-E COM VALOR PRÓXIMO AO LIMITE DE R$ 100.000,00 (PARA O ESTADO DE MATO GROSSO DO SUL, MUNICÍPIOS DE CAMPO GRANDE, DOURADOS, CORUMBÁ, TRÊS LAGOAS E PONTA PORÃ, SUAS AUTARQUIAS E FUNDAÇÕES), E R$ 70.000,00 (PARA OS DEMAIS MUNICÍPIOS, SUAS AUTARQUIAS E FUNDAÇÕES).

  • NÃO ENCONTRADA NF-E COM VALOR PRÓXIMO AO LIMITE DE R$ 8.000,00 (DISPENSA DE LICITAÇÃO).

  • NÃO ENCONTRADA NF-E COM DATA DE EMISSÃO ANTERIOR AO EMPENHO (SICOM).

  • NÃO ENCONTRADA NF NO SICOM COM INFORMAÇÕES DIVERGENTES DAS COLETADAS PELO JURISDICIONADO NO EXTRATOR (SICOM X EXTRATOR).


Saídas esperadas da solução / entregas:



  1. Relatório para tomada de decisão das ações de fiscalização;

  2. Relatório completo coma as evidências dos controles não implementados para a fiscalização; e

  3. Matriz de risco do Jurisdicionado.

Use os botões abaixo para votar:

author photo

Exame automatizado dos Atos de Admissão de Pessoal

Nome: Jonathan Aldori Alves de Oliveira


E-mail: jonathanoliveira@tce.ms.gov.br


Instituição: Tribunal de Contas do Estado de Mato Grosso do Sul


Unidade: Diretoria de Gestão e Modernização / Informações Estratégicas e Risco


Tipo de proposta: Ação educacional em sala de aula com duração de 2:00 horas.


Título da oficina: Exame automatizado dos Atos de Admissão de Pessoal.


Eixo Temático: Priorização, por critérios de risco, urgência ou importância, de casos para auditoria, análise ou investigação pelo poder público; Otimização de processos repetitivos, como atendimento a demandas, triagem de denúncias ou confecção de peças processuais; Mineração de textos e outras fontes de dados não estruturados, para geração de insumos para processos de análise.


Foco principal: técnico, para facilitar a realização de trabalhos semelhantes por Auditores e cientistas de dados.


Fase do trabalho apresentado: estudo de caso com resultados práticos.


Mini-currículo: Jonathan Aldori Alves de Oliveira, Cientista da Computação (UNIGRAN), Esp. em Engenharia de Produção (UEL), Mestre em Engenharia Elétrica (UFMS), Cursando: Esp. Computação Forense e Perícia Digital (IPOG), Esp. em Gestão Pública (UFMS), Esp. em Docência para EPT (IFMS) e MBA em Business Intelligence (UNYLEYA). Atuei com programador de computador (2004-2006) na iniciativa privada, atualmente sou servidor público investido no cargo de Analista de Tecnologia da Informação da SEFAZ-MS desde 2006, no qual, atuei no desenvolvimento dos sistemas tributários estaduais, estive cedido do período de 2013 a 2016 para o município de Nova Andradina-MS, atuando diretamente como responsável técnico pelas soluções e infraestrutura tecnológica do Município e desde 2017 estou cedido ao TCE-MS onde estou atuando na Unidade de Informações Estratégicas e Risco.


Ementa/Apresentação:


Apresentar a possibilidade de se utilizar a gestão de riscos no exame automatizado dos Atos de Admissão de Pessoal (Admissão de Contratado / Convocação; Admissão de Concursado; e Aditivo de Contratado) através da aplicação de controles para a classificação desses atos como: Registro, Não Registro, Arquivamento ou Triagem, no qual, fica a cargo do auditor da inspetoria, de posse do resultado do processamento dos controles de risco, optar em sua análise por conceder o registro nos casos de julgamento pela legalidade, ou negando o registro, quando, no mérito, concluir pela ilegalidade. De posse desses resultados de processamento é possível fazer o mapeamento das unidades gestoras com o maior risco de inconformidade em atos de pessoal.


Definição da classificação dos Atos de Admissão de Pessoal:



  • Registro: ato de pessoal apreciado automaticamente, conforme requisitos definidos pelos Auditores da inspetoria, pela legalidade.

  • Não Registro: ato de pessoal apreciado automaticamente, conforme requisitos definidos pelos Auditores da inspetoria, pela ilegalidade.

  • Arquivamento: ato de pessoal apreciado automaticamente, conforme requisitos definidos pelos Auditores da inspetoria, pelo arquivamento.

  • Triagem: ato de pessoal apreciado automaticamente, conforme requisitos definidos pelos Auditores da inspetoria, com algum tipo de problema ou erro.


Para desenvolvimento da solução foram utilizados como ferramentas o “Pentaho Data Integration” (o núcleo) e o “Java” (geração do relatório de pré-análise).


A solução teve como motivação atingir os seguintes objetivos:



  • Permitir uma verificação automatizada individual dos atos de pessoal enviados pelos jurisdicionados;

  • Mapeamento das unidades gestoras com o maior risco de inconformidade;

  • Classificação desses atos como: Registro, Não Registro, Arquivamento ou Triagem.

  • Possibilitar aos Auditores da inspetoria, de posse do resultado do processamento, optar na análise por conceder o registro nos casos de julgamento pela legalidade, ou negando o registro, quando, no mérito, concluir pela ilegalidade.


Os resultados obtidos com a aplicação desta solução:



  • O auditor da inspetoria, após analise automatizada, realiza uma triagem dos documentos encaminhados pelo Jurisdicionado e opta de acordo com classificação e risco pelo Registo, Não Registo ou Arquivamento;

  • Visualização das Unidades Gestoras com o maior risco de inconformidades.

  • Agilidade no trabalho, automatizando ao máximo as tarefas, uma vez que já gera o documento com a pré-análise.

  • Arquivamento automático dos Atos de Pessoal classificados para este fim; e

  • Redução do estoque de processos.


Saídas esperadas da solução / entregas:



  1. Pré-análise do ato de pessoal, com o resultado dos controles e classificação; e

  2. Matriz de risco do Jurisdicionado.

Use os botões abaixo para votar:

author photo

Ferramenta para identificação de áreas com o maior potencial geomorfológico para a “reservação” de águas: Projeto Gerador de Reservatórios

Instituição: Agência Nacional de Águas;


Unidade Administrativa: Superintendência de Tecnologia da Informação;


Autores: Gustavo Souto Fontes Molleri, Fabiano Costa de Almeida, Maurício Silva, Henrique Llacer Roig, Sergio Augusto Barbosa


Tipo de Apresentação: apresentação (20 minutos);


Título da Apresentação: Ferramenta para identificação de áreas com o maior potencial geomorfológico para a “reservação” de águas: Projeto Gerador de Reservatórios.


Foco principal da apresentação: Apresentar a ferramenta resultado do “Projeto Gerador de Reservatório” a qual permite identificar locais com potencial geomorfológico favorável à “reservação” de água com usabilidade na manutenção da oferta de água à população e ao controle de vazões extremas em situações de desastres ou eventos climáticos críticos.


Fase do trabalho apresentado: O projeto já está concluído, entretanto ainda não foi realizada publicação científica da metodologia proposta.


Descrição da apresentação: No final de 2013, a Superintendência de Tecnologia da Informação – STI (então Superintendência de Gestão da Informação – SGI) recebeu do então Senhor Diretor-Presidente da Agência Nacional de Águas – ANA, Dr. Vicente Andreu, a incumbência de implementar um sistema que indicasse prospectivamente locais favoráveis à reservação superficial de água para o Semiárido Brasileiro. A ideia original ficou assim resumida: “gerador de reservatórios”, que têm dois principais objetivos:



  • Manutenção da oferta de água à população do Semiárido durante o período de estiagem; e

  • Abrandar vazões excedentes para minimizar efeitos de enxurradas em período chuvoso.


 


A ferramenta realiza os seguintes passos para identificar as áreas mais propícias à reservação de água:



  1. Extração de produtos gerados a partir de modelo digital de elevação (enchimento de depressões, fluxo de direção modelo D8 e matriz de fluxo acumulado, geração de contornos);

  2. Identificação da drenagem onde será realizada a prospecção de reservatórios;

  3. Posicionamento da linha de barramento (sempre perpendicular ao alinhamento da drenagem).

  4. Delimitação dos reservatórios;

  5. Atributos calculados complementarmente ao resultado (volume e área para diversas cotas, conforme especificação do usuário; índice V/A, indicativo da profundidade média de um reservatório, índice de Gravelius, utilizado para inferir a forma do reservatório).


 


Detalhes técnicos: Ferramenta foi construída utilizando os seguintes componentes:



  • Linguagem Python;

  • Front-end biblioteca pyQt;

  • Banco de dados Postgres/Postgis para armazenamento de dados e construção de funções espaciais e de geoprocessamento;

  • Biblioteca Geospatial Data Abstraction Library (GDAL) para importação/tratamento de imagens e nos processamentos de imagens mais complexos;


Mini-currículo do apresentador:


            Gustavo Souto Fontes Molleri: Bacharel em Geografia pela Universidade Federal de Santa Catarina - UFSC. Mestre em Sensoriamento Remoto pelo Instituto Nacional de Pesquisas Espaciais - INPE. Especialista em Geoprocessamento da Agência Nacional de Águas. Experiência de 9 anos com linguagens de programação, principalmente, Python e PL/SQL aplicado à análise espacial e a processamento de imagens.


           

Use os botões abaixo para votar:

author photo

Fontes abertas: fortalecendo a transparência pública

Fontes abertas: fortalecendo a transparência pública


1.OBJETO DA AÇÃO


O Ministério Público de Contas de Santa Catarina, por iniciativa da Procuradora Cibelly Farias Caleffi, encaminhou em agosto de 2017 notificação recomendatória para municípios catarinenses, recomendando que, em seus portais de transparência, permitissem a exportação de relatórios em diversos formatos eletrônicos, ou seja, mantivessem o que convencionou-se chamar de fontes abertas.


A ação teve origem numa ampla pesquisa, realizada pela equipe do MPC-SC, que analisou portais de transparência dos 295 municípios de Santa Catarina, buscando identificar quais deles eram considerados ‘fechados’, sem permitir a exportação de dados e relatórios. Com isso, foram identificados e notificados 70 municípios, aos quais recomendou-se a adequação do respectivo portal às determinações legais, de modo a possibilitar “o acesso às informações do ente conforme o padrão mínimo estabelecido, bem como a abertura das fontes que deverá permitir a exportação dos dados para plataformas externas, inclusive permitir a leitura dessas por máquina”.


A Lei Complementar 101/2001 (Lei de Responsabilidade Fiscal) estabelece que o gestor público está obrigado a disponibilizar o acesso a informações referentes as despesas de todos os atos praticados pelas unidades gestoras no decorrer da execução e também das receitas recebidas pela unidade gestora. Já a Lei 12.527/2011 (Lei de Acesso à Informação) determina como requisito ao acesso a informação a possibilidade da “gravação de relatórios em diversos formatos eletrônicos, inclusive abertos e não proprietários, tais como planilhas e texto, de modo a facilitar a análise das informações”; bem como a exportação da informação para outras plataformas deve permitir “o acesso automatizado por sistemas externos em formatos abertos, estruturados e legíveis por máquina”.


“A transparência pública, além de uma obrigação legal de todo gestor público, é uma importante ferramenta de fiscalização e controle dos atos da Administração, em cumprimento ao princípio constitucional da publicidade”, destaca a Procuradora.


As chamadas ‘fontes abertas’ configuram importante instrumento para fortalecimento da transparência no setor público, permitindo uma análise mais profunda e rápida das informações e aprimorando a fiscalização externa no controle dos gastos públicos.



  1. RESULTADOS OBTIDOS


Inicialmente, cumpre esclarecer que a presente ação segue em andamento, uma vez que muitos municípios continuam encaminhando suas respostas e buscando soluções tecnológicas para atendimento da recomendação encaminhada pelo MPC-SC.


Contudo, 35% dos municípios notificados já atenderam por completo à recomendação, permitindo, em seus portais de transparência, a abertura das fontes e liberando a exportação dos dados, relatórios e informações.


Ademais, resultado indireto da ação consiste na parceria, estabelecida com a Controladoria-Geral da União, que resultado num estudo, em andamento, acerca da qualidade dos portais de transparência em Santa Catarina, com novas ações a serem desenvolvidas.


Por fim, cremos que o maior resultado não pode ser aferido diretamente: trata-se, justamente, do aprimoramento da transparência pública, que tem repercussão direta no incremento da fiscalização dos atos da Administração por parte da sociedade e das instituições de controle. Assim, os melhores e mais satisfatórios resultados virão do livre exercício do direito de fiscalização, cuja consecução passa, invariavelmente, pela melhoria da transparência.



  1. MOTIVO PARA SELEÇÃO:


Entendemos que a ação empreendida pelo MPC-SC deve ser selecionada pela efetiva contribuição em favor da transparência pública nos municípios de Santa Catarina.


Muito além de constituir determinação legal, sujeitando os entes da Administração Pública, a transparência é um princípio de fundamental importância, de construção de cidadania ativa, permitindo não apenas aos órgãos de controle, mas também à toda sociedade fiscalizar os atos do Poder Público, configurando efetivo estimulo à boa utilização dos recursos.

Use os botões abaixo para votar:

author photo

Gestão Integrada das Incubadoras, Empresas Júniores e Laboratórios das Universidades

Nome completo e instituição; Allen dos Santos Pinto da Silva Filho - UERJ


Tipo de proposta: apresentação (20 minutos, no plenário);


Título da apresentação; SyncroGestão - por uma gestão de resultado e parceria


Foco principal da apresentação: gerencial, para demonstrar a gestores públicos os resultados potencializados pela análise de dados;


Fase do trabalho apresentado: protótipo sendo testado por duas incubadoras;


Descrição da apresentação (em até 2000 caracteres sem espaço). Se possível, descreva os impactos vislumbrados ou que de fato foram alcançados pela proposta, estudo, trabalho ou projeto a ser apresentado; O projeto visa facilitar a gestão das Incubadoras, Empresas Júniores e Laboratórios, com isso o gestor terá o acompanhamento on line tanto do processo quanto do financeiro. Gerando dados necessários para justificar a continuidade, ou não, do projeto. Além disso, com a base de dados bem formatada, os pesquisadores poderão buscar empresas interessadas em apoiar seus projetos, e vice e versa. O que pode aumentar a utilização dos benefícios previstos na Lei do Bem.


Detalhes técnicos: métodos estatísticos ou modelos de aprendizagem utilizados; softwares e linguagens de programação utilizados; O protótipo foi criado na plataforma Zoho Creator. Outros sistemas serviram de base, bem como os formulários do MCTIC, FINEP e Agência de Fomento a Pesquisa.


Mini-currículo destacando sua experiência acadêmica e/ou profissional no tópico apresentado: Sou discente do Programa de Mestrado em Direito da Universidade Candido Mendes e sou bolsita da Agência de Inovação da UERJ, lotado no Escritório de Propriedade Intelectual. Minhas pesquisas versam sobre a utilização de dados para melhor aperfeiçoamento legislativo. LinkedIn www.linkedin.com/in/allen-silva

Use os botões abaixo para votar:

author photo

GESTÃO DE RISCO PARA ANALISE DE PRESTAÇÕES DE CONTAS BASEADA EM MINERAÇÃO DE DADOS  - CASO FNDE

Nome: Vladimir Borges Araújo, André Luís Araújo Maciel


E-mail: vladimir.araujo@fnde.gov.br; andre.maciel@fnde.gov.br; mateus.ananias@fnde.gov.br


Instituição: Fundo Nacional de Desenvolvimento da Educação


Departamento/Unidade: Coordenação-Geral de Contabilidade e Acompanhamento de Prestação de Contas – CGCAP/DFIN


Tipo de Proposta: Apresentação de 20 minutos no Plenário


Eixo Temático: Prestação de Contas, Mineração de Dados, Data Science, Machine learning.


Foco Principal da Apresentação: Apresentação técnica de projeto em desenvolvimento no FNDE destinado a processos de automatização na tomada de decisão de prestações de contas, utilizando técnicas de machine learning, com objetivo de prover eficiência e eficácia da aplicação e monitoramento dos recursos públicos repassados.


Fase do trabalho apresentado: O projeto se encontra em fase de preparação dos dados dentro da metodologia CRISP-DM. Com o objetivo de selecionar os atributos/variáveis que melhor se relacionam a classificação de uma prestação de contas quanto ao risco de reprovação. Esta fase se dá após uma descrição completa dos dados, evidenciando a dificuldade do FNDE em analisar as prestações de contas.


Descrição da apresentação: O Fundo Nacional de Desenvolvimento da Educação (FNDE) pode ser considerado o principal agente executor de politicas publicas da educação.
                     É possível afirmar que as boas práticas na gestão e controle do enorme volume de recurso repassado as entidades participantes do sistema de educação é fundamental, não apenas de uma ponte de vista financeiro, como também de um ponto de vista qualitativo em relação à educação.
Gerada a obrigação de prestar contas, analisam-se os aspectos declarados pelo os entes executores e em caso de mau uso do dinheiro público, exige-se a reparação ao erário.
                     O FNDE hoje se depara com o grande desafio de analisar todas as prestações de contas a ele endereçadas. Atualmente são geradas até 35mil obrigações de prestar contas anualmente, sendo a capacidade de análise manual de apenas 10% da entrada anual.
Neste contexto, criou-se o Projeto de Gestão de Risco Baseado em Dados, com o objetivo de analisar os dados disponíveis e desenvolver modelos de aprendizado de maquina para classificação automática das prestações de conta de acordo com as regras já definidas.
                     Muitos avanços já foram obtidos desde o início do projeto. O avanço inicial se dá pelo aprendizado dos gestores sobre a possibilidade que a tecnologia através da ciência de dados, técnicas de estatística e de machine learnig podem trazer como informação gerencial à instituição.
                     Necessitou-se o desenvolvimento de uma estrutura adequada para aplicação do projeto, com softwares e servidores com a capacidade necessária para o volume de dados.
                     O projeto encontra-se na etapa de seleção de atributos, encontrando quais fatores que realmente influenciam na tomada de decisão sobre as prestações de contra.
                     Por fim, espera-se que a aplicação do melhor modelo preditivos possível, possa classificar automaticamente as prestações de contas do passado e do ano correte. Selecionando aquelas com maior probabilidade de representarem malversação, disponibilizando processos à analise conclusiva, de acordo com a capacidade do FNDE.


Detalhes técnicos: As linguagens utilizadas são R e python e SQL Oracle. Com objetivo de se obter o modelo de melhor capacidade preditiva, serão utilizados diversos modelos, como por exemplo, redes neurais, SVM, Random Tree, Random Forest, Modelos lineares generalizados entre outros. Serão utilizadas também técnicas de redução de dimensão e seleção de atributos como, estratégia LASSO e componentes principais.


Mini-currículo:


Vladimir Araújo
Experiência em 5 anos de auditoria em recursos públicos da educação, coordenador geral da prestação de contas do FNDE, graduado em Engenharia Elétrica pela UNESP e especializado em auditoria governamental.


André Luís Araújo Maciel
Graduado em Engenharia de Produção pela UFMG, Especialista em BI pela PUC-RIO e Mestre em Informática Aplicada pela UNIFOR-CE.


Mateus Carbone Ananias
Graduado em Estatística pela UNB, Mestrando em Estatística pela UNB

Use os botões abaixo para votar:

author photo

Governança e Desenvolvimento Socioeconômico: Evidências da América Latina e Implicações para o Brasil

Nome: Guilherme R. Garcia Marques


Instituição: Fundação Getulio Vargas


E-mail: guilherme.marques@fgv.br


Tipo de proposta: Apresentação


Eixo temático: Detecção de padrões e relacionamentos úteis à formulação ou execução de políticas públicas; Análise de séries temporais.


Título da apresentação: Governança e Desenvolvimento Socioeconômico: Evidências da América Latina e Implicações para o Brasil.


Foco principal: Gerencial


Fase do trabalho apresentado: Estudo de caso com resultados práticos; Trabalho em andamento.


Descrição da apresentação:


Diante da progressiva difusão do conceito de “governança” e do crescente reconhecimento acerca da sua importância e implicações para o desenvolvimento econômico e social, importantes indicadores foram elaborados tendo em vista mensurar sua qualidade e evolução ao redor do mundo, com particular referência aos Indicadores de Governança Mundial, compilados e organizados pelo Banco Mundial. Responsáveis por prover informações acerca da qualidade da governança para mais de 200 países desde 1996, tais Indicadores têm como referência seis dimensões centrais de análise: 1) Eficácia de Governo; 2) Voz e Accountability; 3) Estabilidade Política; 4) Qualidade Regulatória; 5) Estado de Direito; e 6) Controle da Corrupção.


A partir de resultados de regressões de dados em painel que correlacionam tais Indicadores de Governança com indicadores de crescimento anual do Produto Interno Bruto e o Índice de Desenvolvimento Humano para os países da América Latina, obtemos importantes evidências empíricas sobre quais dimensões de governança mais influenciaram positivamente o desenvolvimento socioeconômico da região ao longo dos últimos 20 anos. Alguns resultados confirmam o esperado: variáveis referentes a ‘Controle da Corrupção’ e ‘Qualidade Regulatória’ desempenham papel positivo para o crescimento do PIB. Outros, por sua vez, soam contraintuitivos: variáveis relativas a ‘Voz e Accountability’ e ‘Qualidade Regulatória’ apresentaram correlações negativas com o desenvolvimento social e humano no decorrer do período analisado.


Ao trazer tal discussão para o cenário brasileiro, pretende-se refletir sobre como estas distintas dimensões de governança se relacionam efetivamente com a trajetória de desenvolvimento do país. Entender e esmiuçar esta relação entre governança e desenvolvimento não é um fim em si mesmo, mas um passo fundamental para a formulação de melhores políticas públicas tendo em vista o aprimoramento dos padrões de vida e riqueza nacional.


Mini-currículo:


Cientista político pela Fundação Getulio Vargas. Mestre em Economia Política Internacional pela Universidade Federal do Rio de Janeiro. Atualmente exerce o cargo de Analista na Diretoria Internacional da Fundação Getulio Vargas. Coordenador para o Brasil da Rede CoopMar – Cooperação Transoceânica. Membro da Rede de Jovens Líderes da UNASUL por um Desenvolvimento Integral e para a Integração Regional. Membro do Grupo Latino Americano para a Administração Pública (GLAP/IIAS).

Use os botões abaixo para votar:

author photo

Infopatrimônio : Georrefenciamento e Controle Social de Políticas de Preservação do Patrimônio Cultural

Nome: Caio Cardoso Lucena / Comunidade Infopatrimônio


 


Tipo da Proposta: Apresentação no Plenário 20 minutos


 


Título da Palestra: Infopatrimônio : Georrefenciamento e Controle Social de Políticas de Preservação do Patrimônio Cultural


 


Descrição da Apresentação:


A apresentação ira versar sobre a trajetória e resultados na promoção e no controle social das Políticas de Proteção do Patrimônio Cultural Brasileiro obtidos em 5 anos do projeto Infopatrimônio.


O projeto Infopatrimônio possui o intuito de reunir e promover a informação georreferenciada sobre todo o patrimônio cultural (bens materiais e imateriais) tombado e registrado no Brasil, nas quatro instâncias de preservação: Unesco, Iphan, estados e municípios.Criando uma plataforma de análise de dados integrada da Política de Preservação do Patrimônio Cultural Brasileiro com software e conteúdos livres a partir de diversas fontes de dados abertos.


O Infopatrimônio agregra a 5 anos bases de dados abertos e bases cartográficas públicas federais , estaduais e municipais. A solução integra os dados da Infraestrutura de Dados Espacias do Governo Federal e do Estado de São Paulo dentre muitas bases cartográficas abertas integrando com dados estruturados de diversas fontes no intuito de obter uma visão holística das Políticas de Proteção do Patrimônio Cultural Brasileiro (material / imaterial ).


 


Resultados


Atualmente, contém mais de 3.500 bens tombados e registrados pela Unesco, pelo Iphan, por 17 estados brasileiros (AC, AL, AM, BA, CE, DF, ES, GO, MS, MG, PR, PE, PI, RJ, RS, SC, SP) e por três municípios.
A contribuição do projeto vai além de uma plataforma online de caráter disseminador de conhecimento sobre o patrimônio cultural e se divide em duas grandes áreas:


1. O georreferenciamento para tornar visível a desigualdade de distribuição espacial do patrimônio tombado/registrado; e


2. Ao informar os usuários, busca sensibilizar sobre a importância do patrimônio cultural em seu sentido mais amplo para estimular e qualificar a participação cidadã nas políticas de preservação.


O Infopatrimônio busca colaborar com preceitos legais e orientações nacionais e internacionais, que definem que as nações (entendidas como a estrutura governamental em trabalho conjunto com a sociedade em geral) devem proteger o patrimônio, zelar pela não evasão dos bens e pelo amplo acesso à cultura (no qual entendemos a inclusão da divulgação do patrimônio nacional).


 


Com as diversas camadas de dados geográficos é possível obter inúmeras visões do


patrimônio cultural brasileiro. A solução além de informativa pode ser utilizada como


ferramenta de análise temática por pesquisadores da área, cruzando dados por meio da


sobreposição de camadas. Tais camadas foram desenvolvidas e sistematizadas de modo a


possibilitar que o cidadão possa analisar as informações e tirar sua próprias conclusões


sobre a região analisada.


O Infopatrimônio deste mode pode ser utilizado de Sistemas de Informação Georreferenciadas (SIG) no planejamento, implementação, execução e monitoramento das políticas públicas de preservação do patrimônio cultural . A solução utiliza geoprocessamento com a finalidade de descoberta e interpretação de informações relevantes para o controle social da proteção do patrimônio cultural ao longo de diversos períodos. Pode-se salientar inclusive que em conjunto com o uso de imagens de satélite e sensoriamento remoto como ferramentas para o monitoramento das políticas públicas ou situações de interesse público o projeto pode ter um caráter de gestão compartilhada do patrimônio cultural brasileiro.


fase de implemetação


O projeto vem sendo implementado e ampliado a 5 anos , sendo adicionadas novas caracteríticas tecnológicas como realidade virtual na web, a ampliação e manutenção do conteúdo ocorre em paralelo com a manutenção e inovação tecnológica da plataforma.


No Infopatrimônio, existem cinco visualizações básicas possíveis da informação georreferenciada, acessadas por abas logo abaixo do mapa (Figura 1): 1. Edificações, 2. Terreno, 3. Áreas protegidas, 4. Topografia, e 5. Satélite. A cidade de São Paulo (objeto inicial de trabalho da plataforma) possui ainda um mapa volumétrico das áreas de proteção, incluindo bens e entorno imediato.


Com as diversas camadas de dados geográficos é possível obter inúmeras visões do patrimônio cultural brasileiro. A solução além de informativa pode ser utilizada como ferramenta de análise temática, cruzando dados por meio da sobreposição de camadas. Tais camadas foram desenvolvidas e sistematizadas de modo a possibilitar que o cidadão possa analisar as informações e tirar sua próprias conclusões sobre a região analisada.


Contudo, com a escassez de certos dados geográficos as análises podem ser feitas apenas em certo nível de resolução ou escala. Por exemplo, os dados de elevação de terreno de alta resolução e os bens naturais (pois possuem grandes áreas com interseções com regiões urbanas), tais como a Serra do Mar, em São Paulo, e os municípios que estão contidos dentro de seu polígono.


 


 




 


 


Mini-Curriculo


Mestre em Gestão e Políticas Públicas pela -FGV-EAESP – Fundação Getúlio Vargas


Engenheiro Elétrico - PUC - Pontifícia Universidade Católica de São Paulo


Pesquisador – Colaboratório de Desenvolvimento e Participação – Colab-USP


Executivo Público - Secretaria da Cultura do Estado de São Paulo -Unidade de Preservação do Patrimônio Histórico


Participação em Eventos:


-Jurado no Premio Conip 2014,2015,2016 – Congresso de Informática e Inovação na Gestão Pública


-Palestrante na CryptoRave – 2017 e 2018


-Palestrante no FISL -Forum Internacional de Software Livre – 2016 e 2018


-Palestrante na Conferência Web W3C Brasil 2014 , 2015 e 2017;


-Professor em oficinas de Georreferenciamento no Programa de Agentes de Governo 2016


-Professor em oficinas de Georreferencaimento no Curso de Gestão e Políticas Públicas – EACH-USP


-Palestrante na Universidade Federal de Pernambuco - 2016


-Participante LabiCCo 2016 – Laboratorio de Inovacao Cidadã - Cartagena Colombia


-Participante LabiCBr 2015 – Laboratorio de Inovacao Cidadã – Rio de Janeiro -Brasil


 


 

Use os botões abaixo para votar:

author photo

Integração de dados em rede - uso da Plataforma Museusbr como ferramenta de políticas públicas para museus

Nome completo: Rafaela Gomes Gueiros Rodrigues de Lima


Instituição: Instituto Brasileiro de Museus (Ibram)


Tipo de proposta: apresentação (20 minutos, no plenário)


Título da apresentação: Integração de dados em rede - uso da Plataforma Museusbr como ferramenta de políticas públicas para museus


Foco principal da apresentação: gerencial


Fase do trabalho apresentado: trabalho ou projeto em andamento


Descrição da apresentação:


O Cadastro Nacional de Museus (CNM), em 2015, adotou o software livre Mapas Culturais como plataforma de gerenciamento de informações sobre os museus brasileiros. A decisão se baseou nas potencialidades do sistema oferecido e na confiança de que uma articulação em rede, em ambiente virtual, beneficiaria consideravelmente a relação entre sociedade e Estado, promovendo articulações mais participativas e democráticas.


Museusbr é a aplicação deste software no âmbito do Ibram. A plataforma possui diferentes níveis de verificação das informações, evidenciados pelo uso de selos: às instituições caracterizadas como museus (art.1º Lei 11.904/2009), aplica-se o selo de “Museu Cadastrado”. Já aquelas que têm o selo de “Museu Registrado”, passam pela verificação de caracterização e também têm suas informações comprovadas por documentação específica e termo de compromisso de seu dirigente.


Com interface amigável, Museusbr oferece às instituições uma página na web com: informações e agenda de eventos georreferenciados; banco de projetos; galeria de imagens e de vídeos; upload de documentos; inclusão de links; e outras funcionalidades, que permitem desde a divulgação do museu e de suas atividades à elaboração de roteiros de visitação e parcerias entre agentes. É possível exportar todas essas informações em formato de planilha, o que facilita a análise e o cruzamento de dados.


Museusbr contempla instituições reconhecidas como museus pela sociedade (mapeamento), pela prestação de informações autodeclaradas (cadastramento), e também pelas informações comprovadas por documentação (registro). As interações, por parte dos informantes, dos curadores da informação, parceiros ou pelos usuários geram discussões e servem de base para saber quem são os museus brasileiros, onde estão e como se caracterizam.


Assim, Museusbr expande o potencial do CNM e do Registro de Museus como observatórios das experiências no campo museal, fornecendo um escopo de dados básicos sobre a realidade museal brasileira, provendo informações que auxiliam na construção de ações governamentais e incentivam o controle social por meio da participação e uso dos dados, além de propiciar a articulação em rede dos diversos atores envolvidos e dos vários níveis de gestão em que se encontram.


Detalhes técnicos: A solução é composta por um software (dividido em back-end e front-end) e por um aplicativo voltado para iOS e Android, todos compostos por tecnologias livres:



  • Back-end: Slim Framework (PHP) e banco de dados PostgreSQL

  • Front-end: framework Angular (JavaScript)

  • Aplicativo: framework cross-platform Cordova (iOS e Android)


Programadores e desenvolvedores podem acessar o código-fonte, utilizar e alterar a ferramenta da forma que quiserem, com o fim que quiserem. Os códigos-fonte podem ser consultados no GitHub:



  • Software: github.com/hacklabr/mapasculturais

  • Aplicativo: github.com/hacklabr/mapasculturais-app


Mini-currículo:


Formada em Licenciatura em Artes Plásticas (UFPE- 2004), pós-graduada em Arte, Educação e Tecnologias Contemporâneas (UnB - 2008) e em Gestão do Patrimônio Histórico e Cultural (UFMG - 2011). Mestre em Ciência da Informação (PPGCInf/UnB - 2017). Atuou como produtora cultural e prestou consultoria na interface Museologia / Arte-Educação. Integrou o Conselho Gestor da REMIC-DF (Rede de Educadores em Museus e Instituições Culturais do Distrito Federal) de 2008 a 2012 e tem experiência em Produção e Gestão Cultural. Prestou serviços de tutoria em cursos a distância e foi professora dos cursos de Especialização a Distância de Artes Visuais, de Cultura e Criação e de Gestão Cultural do SENAC-DF. Atualmente é servidora do Instituto Brasileiro de Museus (Ibram/MinC) como Técnica em Assuntos Educacionais, atuando como Coordenadora de Produção e Análise da Informação (CPAI/CGSIM/Ibram) desde outubro de 2016 e trabalhando diretamente em projetos de coleta e análise de informações sobre os museus brasileiros como Formulário de Visitação Anual (FVA), Formulário de Visitação Mensal (FVM), Registro de Museus, Cadastro Nacional de Museus, Exposições no Brasil, Laboratório de Público Ibram, dentre outras iniciativas.


Mais informações:


O Mapas Culturais é um software livre para mapeamento colaborativo e gestão da cultura que contribui tanto para qualificar a gestão pública, ao promover mais eficiência, quanto para a sua atualização frente às Tecnologias da Informação e Comunicação (TICs). O sistema pode ser baixado gratuitamente e utilizado por qualquer pessoa com algum conhecimento técnico. Ele funciona sendo alimentado tanto pelo poder público, que insere na plataforma informações sobre os equipamentos culturais, programações oficiais, editais, etc.; como pela população em geral, que se cadastra como agente de cultura (individual ou coletivo) e pode divulgar suas próprias programações.


A partir de outubro de 2015, o Mapas Culturais foi adotado pelo Sistema Nacional de Informações e Indicadores Culturais (SNIIC), o que permitirá a integração dos sistemas. O software foi criado em parceria entre o Instituto TIM e a Secretaria de Cultura do Município de São Paulo, o primeiro a adotar a plataforma (SP Cultura). Atualmente, Mapas Culturais também está em operação em estados e municípios.


Desde a criação da plataforma Mapas Culturais, novas funcionalidades foram desenvolvidas e novos usos foram adotados pelos estados e municípios que a implementaram. É a maior prova de que a Rede Mapas Culturais não só implementou a ferramenta, como se apropriou dela.


No caso do Instituto Brasileiro de Museus - Ibram, a apropriação da ferramenta se deu com a criação da plataforma Museusbr. Criada pela Portaria nº 6, de 9 de janeiro de 2017, ela é o sistema nacional de identificação de museus e plataforma para mapeamento colaborativo, gestão e compartilhamento de informações sobre os museus brasileiros, tendo como princípios a utilização de software livre, a colaboração, a descentralização, o uso de dados abertos e a transparência.


Sua finalidade é a disponibilização, por meio eletrônico, de informações atualizadas sobre os museus brasileiros, em toda sua diversidade, para a produção de conhecimentos sobre o setor de museus no Brasil. Dessa forma, integram a plataforma as informações provenientes do Cadastro Nacional de Museus – CNM e do Registro de Museus – RM, podendo ainda virem a fazer parte informações de outros instrumentos da Política Nacional de Museus existentes ou que venham a ser implementados pelo Ibram.


A operação da plataforma Museusbr é feita pelo Ibram e compartilhada com as entidades registradoras em rede, conforme inciso VII, artigo 3º, da Resolução Normativa nº 1, de 14 de dezembro de 2016, para a coleta de informações, a confecção de cartografias, para o fornecimento de informações e para a produção de conhecimento sobre os museus do Brasil.


Acesse Museusbr: museus.cultura.gov.br

Use os botões abaixo para votar:

author photo

Mapeamento preditivo para tomada de decisão em obras de infraestrutura utilizando análise geográfica multicritérios: estudos de caso do Projeto Fortalecimento do Controle Externo na Área Ambiental

Título:  Mapeamento preditivo e quantificação de implicações ambientais em obras de infraestrutura utilizando análise geográfica multicritérios: estudos de caso do Projeto Fortalecimento do controle externo na área ambiental


 


Nome:                 Rodrigo Affonso de Albuquerque Nóbrega


 


Instituição:        Instituto de Geociências da Universidade Federal de Minas Gerais


 


Tipo de Proposta:    Oficina (2 horas).  


 


Foco Principal: O assunto a ser abordado possui caráter técnico (disseminação da metodologia para facilitar a realização de trabalhos semelhantes por analistas e cientistas de dados), como também gerencial (demonstração da solução e dos resultados à gestores gestores públicos);


 


Fase do Trabalho a Ser Apresentada:    Trabalho concluído. Estudo de caso com resultados práticos


 


Descrição: O Projeto ”Fortalecimento do controle externo na área ambiental” é fruto de uma parceria de cooperação entre a Deutsche Gesellschaft für Internationale Zusammenarbeit  - GIZ, o Tribunal de Contas da União – TCU e a Universidade Federal de Minas Gerais - UFMG.  O projeto foi fundamentado na necessidade do TCU em deter conhecimentos em análises geográficas e utilizar uma metodologia capaz de promover simultaneamente o aperfeiçoamento do esforço empregado nas ações investigativas do tribunal, a redução dos custos operacionais dessas ações, e também a maximização da qualidade do trabalho. Assim, o trabalho desenvolvido pela equipe da UFMG teve o objetivo de atestar a eficiência da modelagem geográfica associada a análise multicriterios em estudos complexos de diferentes naturezas realizados pelos auditores do Tribunal.


A estrutura do trabalho envolveu a investigação, a adaptação e a aplicação de modelos de inteligência geográfica para estudo de viabilidade em cinco subprojetos de cunho prático definidos  pela coordenação do Projeto Geocontrole do TCU:



  • Ferrovia: Ferrogrão, Sinop/MT – Miritituba/PA [cenários geográficos para estudo de viabilidade técnica econômica e ambiental]

  • Rodovia: desvio da BR153 na Região Metropolitana de Goiânia;

  • Aeródromos: análise geográfica/logística/estratégica e ordenamento das infraestruturas para recebimentod e recursos federais [escala nacional];

  • Transmissão de Energia: Belo Monte/PA – Barreiras/BA   [cenários geográficos para estudo de viabilidade técnica econômica e ambiental]

  • Creche: análise e ordenamento, escala municipal;


 


Desta forma, a presente proposta de oficina tem como objetivo  apresentar, um a um, os estudos de caso elencados acima quanto a


[1]caracterização do problema ;


[2] modelagem conceitual (reflexão sistematizada do problema e da solução) ;


[3] modelagem lógica (desenvolvimento lógico da solução / arquitetura lógica) ;


[4] resultados alcançados ;


[5] análise do ganho potencial da informação para a análise ambiental ;


[6] potencial de replicabilidade e/ou aperfeiçoamento do modelo


 


Em suma, a oficina abordará a prática da modelagem geográfica multicritérios para compilar cenários e índices capazes de orientar qualitativamente e quantitativamente a fiscalização e o controle externo de obras de infraestrutura durante as fases de proposição e planejamento do projeto. O estudo teve como premissa desenvolver e testar modelos de inteligência geográfica capazes de prover informações com alta qualidade e em tempo hábil para a análise e a tomada de decisão pelo tribunal.  Todos os estudos supracitados utilizaram dados públicos oficiais.  As soluções são replicáveis e/ou transferíveis para outras áreas e outros objetos de estudo. Os modelos desenvolvidos são transparentes quanto aos dados e as regras utilizadas nos processamentos e nas tomadas de decisão.


 


 


 Mini-curriculo: 


- Professor Adjunto III  do Instituto de Geociências da UFMG;


- Coordenador do Programa de Pós-Graduação em Análise e Modelagem de Sistemas Ambientais/UFMG


- Professor do Programa de Pós-graduação em Geotecnia e Transportes/UFMG;


- Pesquisador Bolsista de Produtividade do CNPq;


- Graduação: Engenharia Cartográfica (UNESP 1996);


- Mestrado: Informações Espaciais (EPUSP 2002)


- Doutorado: Engenharia de Transportes (EPUSP / Mississippi State University  2007);


- Pós-Doutorado: Geosystems Research Institute / Mississippi State University 2009)


- CV Lattes/CNPq:    http://lattes.cnpq.br/7158751194696023

Use os botões abaixo para votar:

author photo

MENSURAÇÃO DO DESEMPENHO DA GESTÃO PÚBLICA

O foco deste estudo consiste na aplicação de metodologia capaz de mensurar a performance da gestão pública, tomando por base determinadas dimensões, atributos e elementos identificados como essenciais à avaliação das ações do governo.


Esta avaliação lança olhar a partir da abordagem do controle externo, considerando aspectos relacionados às dimensões de esforço (economicidade, conformidade e execução) e resultado (eficiência, eficácia e efetividade), à critérios e indicadores que possam abranger a atuação sistêmica do Estado em todos os níveis, visando, ainda, subsidiar análise das Contas do Governador.


Pretende-se, ao final, apresentar perspectiva acerca do nível de maturidade da gestão estadual, atribuindo-lhe “nota final” que, na medida do possível, possa expressar juízo de valor objetivo sobre as ações, projetos, e programas executados, bem como das metas e resultados alcançados, dado o atual contexto econômico-social do Estado.


Espera-se, com isso, auxiliar, não apenas na estruturação de referencial objetivo para o julgamento das contas de governo, mas, principalmente, oferecer análise técnica aos gestores, ao mesmo tempo abrangente e detalhada, que permita identificar elementos relevantes para aprimoramento da gestão pública.


 

Use os botões abaixo para votar:

author photo

Mineração de textos, imagens e documentos digitalizados para indexação e classificação das informações

Nome Completo e Instituição:


Lúcio Camilo Oliva Pereira


Tribunal de Contas do Estado do Rio de Janeiro


Tipo de proposta:


Apresentação (20 minutos, no plenário)


Título da Apresentação:


Mineração de textos, imagens e documentos digitalizados para indexação e classificação das informações


Foco Principal da Apresentação:


Técnico e Gerencial, com o objetivo de realizar trabalhos semelhantes por analistas e cientistas de dados e ainda demonstrar a gestores públicos os resultados potencializados pela análise de dados.


Fase do trabalho apresentado:


Trabalho em andamento, com prova de conceito realizada com sucesso.


Descrição da Apresentação:


O objetivo é apresentar a mineração de informações utilizando APIs na Nuvem de visão computacional, com o intuito de extrair informação/conteúdo dos documentos enviados pelo Jurisdicionado ao TCE-RJ, facilitando assim a identificação de temas pelos próprios auditores e utilizando esses dados como entrada de técnicas de categorização e mineração com intuito de montar uma base informacional para cruzamento de dados para facilitar o trabalho de auditoria e de consulta às informações através da classificação e indexação das informações.


Detalhes Técnicos:


Utilização da API Cognitiva da Microsoft rodando no Azure (Nuvem da Microsoft), aplicações desenvolvidas em C# .Net Core e banco de dados SQL Server.


Algoritmos para processamento e extração de informações a partir de imagens e textos digitalizados.métodos estatísticos ou modelos de aprendizagem utilizados; softwares e linguagens de programação utilizados;


Mini-currículo:


Lúcio Camilo:


Diretor de Tecnologia do Tribunal de Contas do Estado do Rio de Janeiro. Graduado em Análise de Sistemas, com Pós Graduação em Engenharia de Software e MBA em Gerenciamento de Projetos e MBA em Gestão de Pessoas. Autor do Livro “Android para Desenvolvedores”, pela editora Brasport. Possui as certificações profissionais: RHCSA – RED HAT Certified System Administrator, SCJP – Sun Certified Java Programmer JEE5, OCWCD – Oracle Certified Web Component Developer, OCEA – Oracle Certified Enterprise Architect – Exam 1, ITIL Foundations Certificate, COBIT Foundations Certificate, BIG IP LTM Essentials, BIG IP LTM Advanced..


Frederico de Oliveira:


Assessor da Assessoria de Desenvolvimento de Software. Graduado em Ciências da Computação pela Universidade Federal do Rio de Janeiro. Com pós-gradução em andamento em Gerência de Projetos de TI pela Fundação Getúlio Vargas. Com participação em projetos nacionais e internacionais. 

 

Use os botões abaixo para votar:

author photo

Modelagem da Incidência de Diabetes Mellitus Tipo 1 em Crianças e Adolescentes no Brasil com Mineração de Dados Supervisionada

Proponente:


Leandro Smouter


 


Instituição:


Universidade Estadual do Centro-Oeste, Paraná, Brasil.


 


Tipo de proposta: 


Apresentação (20 minutos, no plenário).


 


Foco principal:


Apresentação da estrutura e dos resultados do projeto.


 


Título:


Modelagem da Incidência de Diabetes Mellitus Tipo 1 em Crianças e Adolescentes no Brasil com Mineração de Dados Supervisionada.


 


Fase do trabalho:


Projeto concluído.


 


Tópicos da estrutura técnica:


- Mineração de Dados.


- Análise de Séries Temporais.


- Modelo Autorregressivo Integrado de Médias Móveis (ARIMA).


- Análise de Tendência.


- Regressão Polinomial de Primeira, Segunda e Terceira Ordem.


 


Síntese:


A proposta apresentará a estrutura técnica e os resultados do projeto Modelagem da Incidência de Diabetes Mellitus Tipo 1 em Crianças e Adolescentes no Brasil com Mineração de Dados Supervisionada. Nesse sentido, compartilhará conhecimento que poderá aperfeiçoar futuros projetos com metodologia similar.


Iniciará apontando a baixa contribuição do Brasil para levantamentos mundiais da Taxa de Incidência de Diabetes Mellitus Tipo 1 (TIDMT1) em Crianças e Adolescentes (CA) de 0 a 19 anos. A partir disso, apresentará um estudo ecológico com dados do Sistema de Cadastramento e Acompanhamento de Hipertensos e Diabéticos (HIPERDIA), vinculado à base eletrônica do Departamento de Informática do Sistema Único de Saúde (DATASUS).


Em seguida, apresentará detalhadamente a metodologia do projeto, a qual foi estruturada a partir de Mineração de DadosAnálise de Séries Temporais e Modelagem Preditiva.


Na sequência, resultados abrangentes serão discutidos, com desfechos para o Brasil, Macrorregiões, Unidades da Federação e Distrito Federal.


Contemplará resultados para o período das séries (2003 a 2012), e para o período posterior às séries através de modelos preditivos (até 2022).


Por fim, ressaltará potenciais contribuições do projeto para o assunto - análise de dados na Administração Pública.


 


Tópicos de interesse da análise de dados da Administração Pública contemplados:


- Utilização de geoprocessamento com a finalidade de descoberta e interpretação de informações relevantes para o controle ao longo de diversos períodos (espaço-tempo).


- Análise de séries temporais.


 


Prévia dos resultados a serem apresentados:


- Tendência da TIDMT1 (crescente, decrescente ou estacionária) no Brasil, segundo o HIPERDIA/DATASUS.


- TIDMT1 média no País entre 2003 e 2012.


- Acúmulo de casos de Diabetes Mellitus Tipo 1 no Brasil entre 2003 e 2012.


- Previsão da TIDMT1 suavizada no País para os próximos anos (até 2022).


 


Mini-Currículo (proponente e equipe que auxiliou no projeto):


Leandro Smouter: Graduado em Educação Física pela UNICENTRO - Universidade Estadual do Centro-Oeste do Paraná (2013-2016). Participante do PROIC - Programa Institucional de Iniciação Científica (2015-2016). Integrante do PIBID/CAPES - Programa Institucional de Bolsa de Iniciação à Docência (2015-2017). Trabalha com estatística aplicada à área de Ciências da Saúde, com destaque à Modelagem Preditiva de curto e longo prazo. Estuda Variabilidade da Frequência Cardíaca em diferentes condições de Exercício Físico. Atualmente é aluno regular do curso de Pós-Graduação Stricto Sensu - Mestrado Interdisciplinar em Desenvolvimento Comunitário da UNICENTRO.


Suzana Nesi França: Possui graduação em Medicina pela Universidade Federal do Paraná (1990), Residência-médica em Pediatria pela Universidade Federal do Paraná (1993), Especialização em Endocrinologia Pediátrica pela Universidade Federal do Paraná (1995), Mestrado em Medicina (Pediatria) pela Universidade Federal do Paraná (1997), Doutorado em Saúde da Criança e do Adolescente (área de concentração em Endocrinologia Pediátrica) pela Universidade Federal do Paraná (2006), Pós-doutorado em Endocrinologia Pediátrica e Biologia Molecular na Universidade Johns Hopkins (2008-2009). Atualmente é Professor Adjunto do Departamento de Pediatria e Chefe da Unidade de Endocrinologia Pediátrica da Universidade Federal do Paraná. Atua principalmente nos seguintes temas: hipotireoidismo congênito, triagem neonatal, diabetes mellitus tipo 1, crescimento, puberdade e obesidade.


Aristides Miguel da Costa Machado RodriguesDesenvolveu atividades de pesquisa e análise de dados com participação próxima de membros da Universidade Estadual Tarleton [Texas, EUA], Universidade Estadual de Michigan [EUA], Universidade de Bath [Inglaterra], Universidade Estadual de Londrina [Brasil] e Universidade de Saskatchewan [Canadá] , entre outros. Machado-Rodrigues publicou vários artigos científicos, particularmente em periódicos revisados ​​por pares com fator de impacto como Lancet, Medicina Preventiva, BMC Saúde Pública, Revista Americana de Biologia Humana, Revista de Ciências do Esporte, Anais de Biologia Humana, Jornal de Atividade Física e Saúde, Ciências do Exercício Pediátrico, Revista Internacional de Saúde Pública, Revista PlosOne, Jornal Escandinavo de Medicina e Ciência no Esporte ou Promoção da Saúde Internacional (Oxford University Press), entre outros.


Luis Paulo Gomes MascarenhasGraduado em Educação Física pela Universidade de Formação e Educação e Cultural do Abc (1993) e mestre em Atividade Física e Saúde pela UFPR – Universidade Federal do Paraná (2005). Doutor em Saúde da Criança e do Adolescente, área de concentração em Endocrinologia Pediátrica pela UFPR (2010). Atualmente é professor titular da UNICENTRO – Universidade Estadual do Centro-Oeste, Campus Irati, no departamento de Educação Física. Professor do programa de mestrado em Desenvolvimento Comunitário com atuação em saúde, ambiente e qualidade de vida. Tem experiência na área de Educação Física, com ênfase em Atividade Física e Saúde, atuando principalmente nos seguintes temas: metabologia e atividade física. Atual Diretor do Escritório de Relações Internacionais (ERI) da UNICENTRO.


 


 

Use os botões abaixo para votar:

author photo

Modelos de Séries Temporais e Gráficos de Controle Estatístico aplicados a Indicadores de Vigilância Epidemiológica do Ministério da Saúde.

Nome:


Luiza Tuler Veloso;


Instituição:


Departamento de Estatística da Universidade de Brasília (EST - UnB);


Tipo de proposta:


Apresentação.


Título da apresentação:


Modelos de Séries Temporais e Gráficos de Controle Estatístico aplicados a Indicadores de Vigilância Epidemiológica do Ministério da Saúde.


Foco principal da apresentação:


Técnico, para facilitar a realização de trabalhos semelhantes por analistas e cientistas de dados. Trabalho de conclusão de curso apresentado como parte dos requisitos necessários para obtenção do grau de Bacharel em Estatística.


Fase do trabalho apresentado:


Estudo de caso com resultados práticos.


Descrição da apresentação:


O propósito central da Vigilância Epidemiológica é monitorar e controlar doenças e agravos à saúde, bem como fornecer orientação técnica permanente e atual para que os profissionais de saúde possam detectar uma situação de surto ou epidemia e, assim, iniciar medidas de controles. No Brasil, muitos esforços têm sidos realizados no processo de vigilância, são produzidos milhões de registros diariamente no processo de provimento de atendimentos assistências e vigilâncias em saúde. Entretanto, os processos de verificação da ocorrência de surto ou epidemia não estão automatizados, o que, muitas vezes, impossibilita a agilidade necessária para o processo de tomada de decisão pelos órgãos responsáveis pela adoção das medidas de controle.


Como consequência da necessidade de rapidez no processo de Vigilância Epidemiológica, foi proposta a utilização de metodologia adequada para que fossem acompanhados indicadores estratégicos para o sistema de Vigilância Epidemiológica do Ministério da Saúde (MS) e que emitisse alertas epidemiológicos sempre que fossem detectadas alteração no comportamento desses indicadores. Assim, a partir de técnicas estatísticas adequadas e da construção de um sistema para monitoramento, torna-se possível automatizar e agilizar a percepção da necessidade de se iniciar o protocolo de verificação da ocorrência de surto ou epidemia em determinado município, dessa forma, antecipando a identificação de possíveis emergências de saúde pública.


Tendo em vista a necessidade de acompanhamento das doenças consideradas de interesse nacional em cada um dos municípios do Brasil, foi utilizado como projeto piloto o acompanhamento dos casos de Influenza no município de Curitiba - PR. Dessa forma, a metodologia proposta, com as devidas adaptações, pode ser aplicada a outras doenças e municípios a serem monitorados pelo sistema de Vigilância Epidemiológica do MS, além disso, ela possibilita o fortalecimento das ações de Vigilância Epidemiológica, devido a possibilidade de fornecer orientação técnica atualizada e constante necessária para que os profissionais de saúde decidam com relação as ações a serem adotadas para prevenção e controle de doenças.


Estrutura da apresentação:
1. O que é a Vigilância Epidemiológica e seus desafios;
2. Fonte de dados utilizada;
3. Metodologia Estatística;
4. Resultados.


Detalhes técnicos:


Os dados foram fornecidos em formato .csv, lidos e analisados no software R, utilizando o ambiente de desenvolvimento integrado R-Studio. Foi realizada análise exploratória dos dados, como uma forma de ter o primeiro contato e entendimento da base de dados a ser trabalhada, com posterior definição do indicador. Foi executada, para o indicador selecionado, análise de Séries Temporais do tipo SARIMA, que permite descrever possível existência de sazonalidade e tendência na série de dados. Posteriormente, foi proposto o Gráfico de Controle do tipo Médias Móveis Exponencialmente Ponderadas (MMEP) para o modelo de série temporal selecionado para ajuste.


Mini-currículo:


Luiza Tuler Veloso Bacharelado em Estatística pela Universidade de Brasília – UnB. Assistente de Prevenção à Lavagem de Dinheiro, participação em projetos de pesquisa na área da educação, agricultura e saúde. Tem interesse por modelagem em Séries Temporais e Modelos Lineares Generalizados com aplicações em epidemiologia e bioestatística.


Gladston Luiz da Silva (orientador) Doutor em Transportes - PPGT - UnB (2010), Mestre em Estatística - IMECC - UNICAMP (1992), Bacharel em Estatística - Departamento de Estatística - UnB (1988). Professor do Departamento de Estatística da UnB, Professor do Mestrado Profissional em Computação Aplicada - CIC/UnB, Pesquisador do Centro Interdisciplinar de Estudos em Transportes - CEFTRU/UnB. Profissional com sólida experiência, com participação em projetos de alto impacto estratégico, análise mercadológica, análise e desenvolvimento de processos, implantação e auditoria de programas de qualidade com foco em excelência desenvolvidos para empresas e instituições de porte nacional e internacional. Atuou como executivo na direção de empresas de consultoria e instituições de ensino superior, sendo responsável na gestão e estratégias corporativas. Atualmente é Diretor do Instituto de Ciências Exatas - IE/UnB.


Ronaldo de Jesus (parceiro do MS) Bacharelado em Sistemas de Informação pela UniEuro, Pós-graduação em Redes de Computadores pela Uneb, Pós-graduado em Criptografia e Segurança pela UFF-RJ, Mestrando em Computação Aplicada pelo Programa de Pós-graduação em Computação Aplicada da UnB. Possui experiência em gestão de desenvolvimento de software, banco de dados e tem interesse por Bioinformática e Business Intelligence.

Use os botões abaixo para votar:

author photo

Monitor de Licitações - MOLI

Nome: Jonathan Aldori Alves de Oliveira


E-mail: jonathanoliveira@tce.ms.gov.br


Instituição: Tribunal de Contas do Estado de Mato Grosso do Sul


Unidade: Diretoria de Gestão e Modernização / Informações Estratégicas e Risco


Tipo de proposta: Ação educacional em sala de aula com duração de 01:30 hora.


Título da oficina: Monitor de Licitações - MOLI.


Eixo Temático: Priorização, por critérios de risco, urgência ou importância, de casos para auditoria, análise ou investigação pelo poder público; mineração de textos e outras fontes de dados não estruturados, para geração de insumos para processos de análise.


Foco principal: técnico, para facilitar a realização de trabalhos semelhantes por auditores e cientistas de dados.


Fase do trabalho apresentado: projeto em andamento.


Mini-currículo: Jonathan Aldori Alves de Oliveira, Cientista da Computação (UNIGRAN), Esp. em Engenharia de Produção (UEL), Mestre em Engenharia Elétrica (UFMS), Cursando: Esp. Computação Forense e Perícia Digital (IPOG), Esp. em Gestão Pública (UFMS), Esp. em Docência para EPT (IFMS) e MBA em Business Intelligence (UNYLEYA). Atuei com programador de computador (2004-2006) na iniciativa privada, atualmente sou servidor público investido no cargo de Analista de Tecnologia da Informação da SEFAZ-MS desde 2006, no qual, atuei no desenvolvimento dos sistemas tributários estaduais, estive cedido do período de 2013 a 2016 para o município de Nova Andradina-MS, atuando diretamente como responsável técnico pelas soluções e infraestrutura tecnológica do Município e desde 2017 estou cedido ao TCE-MS onde estou atuando na Unidade de Informações Estratégicas e Risco.


Ementa/Apresentação: Apresentar o Monitor de Licitações – “MOLI” que permite o exame automatizado do objeto das contratações que estão ocorrendo no estado de Mato Grosso do Sul. As informações são extraídas em tempo real no Portal da Transparência dos Jurisdicionados pelo MOLI, e são convertidas em uma ferramenta para acompanhamento e tomada de decisão das ações de fiscalização. O sistema será capaz de enviar alertas automatizados e personalizados aos servidores, utilizando a classificação definida pela expertise dos auditores do órgão e o filtro dos objetos que estão sendo contratados, além de utilizar a gestão de riscos para calcular os riscos envolvendo processos de contratações.


Para o desenvolvimento da solução foram utilizados como ferramentas o “Pentaho Data Integration” (o núcleo do robô de busca e classificação), “PYTHON” (parte do robô de busca) e Qlik Sense para construção dos painéis de monitoramento.


A ferramenta utiliza-se de uma tabela de classificadores definida pela expertise dos auditores para através do texto do objeto da contratação, classificar a mesma por tema (Licitação e contratos, Saúde, Educação e Engenharia e Meio Ambiente), termo classificador (exemplo: AGENC + PUBLIC, BURACO / ASLFALTI / ASFALTO, COMBUSTI, COMBUSTI + ESCOL / EDUCA, COMBUSTI + PACIEN / SAUDE, TRANSPORT, TRANSPORT + ESCOL, TRANSPORT + PACIEN / SAUDE) e a classificação que está contratação receberá (exemplo: Agências de publicidades, Pavimentação Pública, Combustível, Transporte, Transporte Escolar, Transporte de Pacientes). No qual, a árvore de decisão parte do termo menos restritivo até o mais restritivo, tendo o símbolo “+” a condição de “e” e o símbolo de “/” a condição de “ou”.


 


A solução tem como motivação atingir os seguintes objetivos:



  • Examinar as informações em tempo real, possibilitando ações preventivas.

  • Classificar as informações a posteriori de forma automática de acordo com o conjunto de termos definidos com a expertise das áreas do Tribunal;


Os resultados esperados com a aplicação desta solução:



  • Possibilidade de verificação das informações em tempo real, possibilitando ações preventivas antes do início das contratações;

  • Possibilidade de exame das informações a posteriori de forma automática de acordo com o conjunto de regras definido, apresentando o resultado dos casos inconsistentes;

  • Melhora no tempo de resposta das ações de fiscalização do Tribunal;

  • Ganho de produtividade, direcionando as ações de fiscalização do Tribunal;

  • Aumento da eficiência, eficácia e efetividade nos procedimentos de fiscalização do TCE-MS junto aos jurisdicionados.


Saídas esperadas da solução / entregas:



  1. Painel em tempo real para monitoramento dos processos de compras dos jurisdicionados;

  2. Envio de alertas automatizados por usuário e objetivo de contratação que estão sendo monitorados;

  3. Riscos das contratações; e

  4. Matriz de risco do Jurisdicionado.


 

Use os botões abaixo para votar:

author photo

Montagem de Banco Referencial de Preços de transações privadas e públicas a partir das Notas Fiscais Eletrônicas

Nome: Ricardo Kengi Uchima


Nome: Claudinei Takeshi Yogui


 


E-mail: ruchima@tce.sp.gov.br


 


Instituição: Tribunal de Contas do Estado de São Paulo / Secretaria da Fazenda do Governo do Estado de São Paulo


 


Tipo de proposta: Apresentação - 20 min


 


Eixo Temático: Mineração de textos e outras fontes de dados não estruturados, para geração de insumos para processos de análise


 


Fase do trabalho apresentado: projeto em andamento.


 


Mini-currículo: Ricardo Kengi Uchima, Economista (UNICAMP), Pós Graduado em Data Mining pela FIA/FEA/USP, trabalhei como pesquisador pelo CESIT-UNICAMP, como Especialista em Regulação pela ANATEL e atualmente sou servidor público pelo Tribunal de Contas do Estado de São Paulo, onde atuo na Divisão de Auditoria Eletrônica, com foco em análise de dados.


 


Para o desenvolvimento da solução foram utilizados como ferramentas o “Ruby” (para testes automatizados) e Qlik Sense para construção dos painéis de monitoramento.


 


Descrição do projeto


A existência de uma base de referência de preços seria de grande valia para os gestores públicos, para os órgãos de controle e para o cidadão, que teriam instrumentos comparativos de mercado para as compras públicas, em busca da economicidade no gerenciamento dos recursos. A elaboração de uma base referencial de preços, que retrate de forma precisa a realidade do mercado, pode impedir de antemão configurações de sobrepreços e inclusive, de preços inexequíveis.


Nesse contexto, a construção de uma base de preços que reproduza a realidade do mercado com o máximo de confiança possível funcionará em favor dos órgãos públicos municipais e estaduais como paradigma seguro de preços no processamento de suas contratações, bem como dos órgãos de controle para análise quanto à lisura dos valores negociados e impacto imediato na economia das contas públicas.


A formatação de um banco de preços a partir das notas fiscais eletrônicas depende do acesso aos dados gerenciados pela Secretaria da Fazenda do Estado de São Paulo.


Assim, a operacionalidade do projeto envolveu estudos entre as áreas técnicas do TCESP e da SEFAZ/SP, em diversas reuniões, no intuito de se viabilizar um convênio entre as Instituições. O órgão fazendário é o responsável pela concessão do acesso às informações relativas aos valores constantes nas notas fiscais eletrônicas e o Tribunal de Contas fica a cargo da formatação e do gerenciamento da base de preços.


Os campos de descrição nas notas fiscais eletrônicas são de livre preenchimento, o que significa a possibilidade de várias descrições para um mesmo produto. Caso as notas fiscais viessem com informações estruturadas das mercadorias transacionadas, o trabalho seria apenas configurar o preço referencial de acordo com métodos estatísticos. Há a questão do sigilo fiscal nos termos do CTN, fato que limita a transferência das informações de transações privadas.


A solução técnica para a viabilização do projeto passa pelo trabalho de catalogação de mercadorias adquiridas em compras públicas. A partir da classificação dessas mercadorias, considerando inclusive as diferentes formas de embalagem, quantidades, entre outros agrupamentos, a técnica de trabalho seria relacionar as descrições das notas fiscais com as classificações geradas no Tribunal de Contas.


A busca textual necessita selecionar os dados constantes na descrição do produto nas notas fiscais essenciais para o enquadramento na classificação gerada pelo TCESP. Na base de dados das notas fiscais eletrônicas, podem-se encontrar diversas descrições para o mesmo tipo de produto, tendo em vista que o campo de preenchimento é livre para o contribuinte. No caso da mercadoria selecionada como exemplo, há palavras-chave que devem obrigatoriamente constar nos dados das notas fiscais, todavia, podem ser escritas em diversas formas. Assim, quando os termos-chaves são coincidentes e o há sucesso na busca textual, a informação do valor da mercadoria é inserida no universo do preço referencial conforme a sua classificação pelo TCESP, sem necessidade de se repassar a descrição da mercadoria (informação da marca do produto, por exemplo), fato que protege o sigilo fiscal conforme o entendimento da SEFAZ/SP.

Use os botões abaixo para votar:

author photo

NLP e aprendizagem de máquina aplicados à transparência ativa dos gastos públicos municipais

Nome completo: Henrique Pougy
Instituição:
Prefeitura Municipal de São Paulo
Tipo de proposta: apresentação (20 minutos, no plenário)
Foco principal da apresentação: técnico
Fase do trabalho apresentado: estudo de caso com resultados práticos

 


NLP e aprendizagem de máquina aplicados à transparência ativa dos gastos públicos municipais


Descrição da apresentação:


 


 


    Se a estrutura funcional-programática hoje adotada pela administração pública brasileira proporciona um enquadramento conceitual bastante interessante no que diz respeito ao planejamento dos gastos públicos, por outro lado ela implica em perdas na transparência ativa, sobretudo no que diz respeito às contratações com a iniciativa privada e terceiro setor. Trespassada pela representação proporcional do legistlativo, que se manifesta na forma de emendas às leis orçamentárias anuais, e enviesada pela cultura organizacional das unidades técnicas elaboradoras do orçamento, que muitas vezes tendem a replicar o orçamento anterior, apenas adequando os valores, a estrutura orçamentária decorrente deste processo muitas vezes não corresponde à forma real como se distribuem os gastos públicos. Dotações que representam descrições genéricas dos gastos são colocadas lado a lado com dotações específicas, e contratos de mesmo objeto podem ser classificados em mais de uma dotação. Além disso, a criação e/ou extinção de dotações torna difícil compreender a evolução temporal dos gastos com determinados produtos e serviços.


    Esta apresentação tem por objetivo apresentar uma forma complementar de se analisar a estrutura dos gastos públicos com contratos de bens e serviços com a iniciativa privada e terceiro setor. Por meio de técnicas de processamento de línguas naturais e algoritmos de aprendizagem de máquina supervisionados e não-supervisionados, estruturaremos uma nova classificação por temas, complementar à estrutura orçamentária, a  partir da descrição do objeto do contrato (campo de texto aberto obrigatoriamente preenchido quando do momento do cadastro de novos contratos no Sistema Orçamentário Financeiro da Prefeitura Municipal de São Paulo). Além de trazer ganhos em termos de transparência ativa, fornecendo uma classificação mais clara dos gastos com determinados tipos de serviços e bens, esta nova classificação permite também identificar potenciais economias de escala, identificar anomalias de gastos, padronizar contratações e mesmo repensar a própria estrutura orçamentária.


    Dentre essas aplicações, apresentaremos uma análise da implementação do Marco Regulatório das Organizações da Sociedade Civil na Prefeitura Municipal de São Paulo, a partir da consideração das formas de contratação com organizações da sociedade civil.


Detalhes técnicos: 


A apresentação será feita por meio de um Jupyter Notebook com código em Python 3.6, empregando as librarys NLTK, Pandas, SKLearn, Numpy, Requests.


O fluxo da aplicação apresentada consiste em:


1 - Requisições à API do Sistema Orçamentário Financeiro e parseamento do JSON por ela retornada, por meio de wrapper em python que abstrai essas requisições em classes


2 - Pipeline de processamento de línguas naturais, incluindo tokenização, remoção de stopwords, stemming e construção da matriz de termos por documentos


3 - Implementação de algoritmo de clusterização (k-means) a partir da matriz de termos por documentos


4 - Implementação de algoritmo supervisionado de classificação (decision tree boosting) a partir da análise dos clusters encontrados


5 - Aplicação de algoritmo de classificação supervisionado (Naive Bayes) para analisar a implementação do Marco Regulatório das Organizações da Sociedade Civil


 


Mini-currículo:


Formado em Ciências Sociais pela Universidade de São Paulo e cursando MBA em Big Data Analytics pela Fundação Instituto de Administração da Universidade de São Paulo, o proponente é Analista de Políticas Públicas e Gestão Governamental na Prefeitura Municipal de São Paulo, tendo atuado na Secretaria de Gestão (atual) e na Secretaria do Verde e Meio Ambiente.

Use os botões abaixo para votar:

author photo

NLP na prática: Aprendizado de Máquina, Deep Learning e Análise de Similaridade de textos no Controle - Conhecendo os cases, os algoritmos e bilbiotecas disponíveis em Python.

Em resposta ao chamado do seminário, trazemos uma proposta para compartilhar conhecimentos sobre a NLP em uma Oficina de 04 (quatro) horas em Laboratório de Informática, com apresentações teóricas e exercícios práticos envolvendo Dados Abertos sobre:


a) Clusterização de textos - Conceitos básicos sobre a clusterização de textos: dendograma, bag of words e exemplo prático da ferramenta Open Refine.


b) Reconhecimento de Entidades Nomeadas (REN) em textos descritivos como notas de empenho ou notas fiscais através de Aprendizado de Máquina. - Conceituação de Aprendizado de Máquina e discussão teórica sobre o aprendizado e a taxonomia para o ambiente público. Exemplos em Python.


c) Uso de Conditional Random Fiels (CRF) para REN. Conceituação do Reconhecimento de Entidades Nomeadas. Um caso prático de uso do CRF para identificar classificações de contratos, padrões de escrita  e tipologias de produtos ou serviços. Apresentação de Bibliotecas e exemplos no GitHub para utilização imediata.


d) Uso de Deep Learning com CRF. Apresentação teórica sobre uma pesquisa recente do autor comparanto o Deep Learning e o Machine Learning


e) Análise de Similaridade e aplicação de Recommender System para indicar documentos com conteúdos suspeitos. Conceituação de Sistemas de Recomendação, Matriz TF-IDF e recomendação em análise de objetos de contratos, licitações e empenhos.


 Objetivo:


Apresentar aos participantes as alternativas técnicas já avaliadas em nossa pesquisa universitária ( PUC, IGTI e TCE-MG) para possibilitar ou incrementar a aplicação de NLP em bases de dados abertas. Dar exemplos para que os participantes possam se familiarizar com os padrões de entrada para o aprendizado de máquina e rodar as principais bilbiotecas em Python.


Metodologia:


Aula Expositiva (01 hora)


Processamento dos Notebooks para aprendizado ( 02 Horas)


Avaliação dos Resutados (01 horas)


Mini Curriculo:


Professor Leonardo Vilela Ribeiro.


 https://www.linkedin.com/in/leovilelaribeiro/


Mestrando em Informática na PUC Minas  - ënfase em Recuperação de Informação. MBA em Banco de Dados e Business Inteligence pelo Unicentro Newton Paiva. Coordenador da Pós Graduação em Análise de Dados para o Controle Externo da Escola de Contas Professor Pedro Aleixo, do TCE-MG. Cordenador do Grupo de Pesquisa em Processamento de Linguagem Natural NLP da Escola de Contas Professor Pedro Aleixo, do TCE-MG.  Professor no Centro de Tecnologia e Sociedade da Fundação Getúlio Vargas, Escola de Direito, Rio de Janeiro. Professor de Descoberta de Conhecimento em Bancos de Dados na Pós Graduação em Data Science e BIG DATA do Instituto de Gestão em Tecnologia de Informação (IGTI).Professor de Linguagem de Programação Estatística na Pós Graduaçãom em Data Science e BIG DATA da PucMinas. Analista Pleno na Innova Tecnologia  a serviço no Tribunal de Contas de Minas Gerais, na Central Suricato.


 


 

Use os botões abaixo para votar:

author photo

o Analytics As a Service – Potencializando a avaliação das políticas sociais do governo brasileiro


  • Nome completo e instituição:

    • SAVIO AUGUSTO DO NASCIMENTO

    • Departamento/Unidade:

      • DATAPREV – Empresa de Tecnologia e Informações da Previdência Social

      • Coordenação de Inteligência da Informação – CGII

      • Coordenação de Análise e Estudos em Métodos Quantitativos - COAQ



    • Tipo de proposta: 

      • apresentação 20 minutos no plenário:



    • Título:

      • Analytics As a Service – Potencializando a avaliação das políticas sociais do governo brasileiro



    • Eixo Temático:

      • Avaliação de Políticas Públicas. 

        • Detecção de padrões e relacionamentos úteis à formulação ou execução de políticas públicas;

        • Detecção de anomalias, abusos ou fraudes na arrecadação ou no gasto de recursos públicos;

        • Priorização, por critérios de risco, urgência ou importância, de casos para auditoria, análise ou investigação pelo poder público;



      • Foco principal da apresentação:

        • Gerencial, para demonstrar a gestores públicos os resultados potencializados pela análise de dados. A evolução da forma com que a análise de dados é feita hoje (relatórios/dashboards) tem como foco a disponibilização de uma ferramenta de análise de dados, dos dados a serem analisados e de um ambiente onde este trabalho possa ser feito com segurança e flexibilidade com acesso via INTERNET.



      • Fase do trabalho apresentado: 

        • Projeto em andamento realizado pela DATAPREV na estruturação deste serviço aos seus clientes com previsão de comercialização até o fim deste ano.



      • Descrição da apresentação (em até 2000 caracteres sem espaço). Se possível, descreva os impactos vislumbrados ou que de fato foram alcançados pela proposta, estudo, trabalho ou projeto a ser apresentado:






A DATAPREV hoje é fiel depositária do maior acervo de dados sociais do governo brasileiro com cerca de xxx petabytes de informações, tendo ganho diversos prêmios de qualidade.  No ano de 2017 a  DATAPREV foi considerada a melhor empresa no setor de Serviços Públicos pela IstoÉDinheiro e pela publicação Melhores & Maiores de Exame em 2017 e 2018. A DATAPREV foi considerada a melhor empresa no setor de Indústria Digital no Brasil por três anos consecutivos pelas duas publicações.


O Plano de Ação da DATAPREV 2018 instituiu o programa Analytics que prevê a implantação de uma plataforma de Analytics As a Service para prover os gestores públicos de instrumentos para acompanhar a execução de políticas públicas.


A apresentação contém uma descrição deste novo serviço com o aprofundamento dos benefícios desta nova funcionalidade do próprio gestor dispor dos dados e de uma ferramenta de análise para obter insights ou explorar dados para validar hipóteses a partir dos seus próprios dados ou daqueles depositados sob custódia da DATAPREV.


O principal impacto desta apresentação é mostrar aos gestores públicos uma nova forma de se relacionar com os prestadores de serviço de tecnologia da informação no governo brasileiro hoje implantada pela DATAPREV.



  • Detalhes técnicos da apresentação:


A apresentação irá apresentar os avanços desenvolvidos pela DATAPREV no cenário atual da tecnologia da informação no governo brasileiro e na forma com que os gestores públicos terão como acompanhar as políticas públicas dentro das suas áreas.


Ao final será feita uma demonstração da utilização da plataforma disponibilizada pela DATAPREV.



  • Mini-currículo destacando sua experiência acadêmica e/ou profissional no tópico apresentado.


Atuando como coordenador na Coordenação de Análise e Estudos em Métodos Quantitativos deste outubro de 2017 e também como gestor do Programa de  Analytics a partir de 2018, atuei como  gerente de Projeto em Mineração de Dados desde 2013, desenvolvendo projetos de identificação de fraudes nos programas sociais do governo brasileiro.


            Formado em Ciências Estatísticas na ENCE em 1989, concluí o curso de Mestrado em Engenharia de Produção com disciplinas de Mineração de Dados em 2000.

Use os botões abaixo para votar:

author photo

O emprego da análise de dados na formulação de políticas públicas de redução a acidentes de trânsito

-  nome completo e instituição: Júlio César Matos de Oliveira - Polícia Rodoviária Federal.


-  tipo de proposta: apresentação


-  foco principal da apresentação: Gerencial


-  fase do trabalho apresentado: Pesquisa em andamento.


-  descrição da apresentação: 


A apresentação se propõe a discutir as possibilidades do emprego da análise de dados na formulação de políticas públicas de redução a acidentes de trânsito. Para isso, serão abordadas técnicas de identificação de locais de acidentes de trânsito e, especialmente, apresentados os resultados da pesquisa "Locais de acumulação de acidentes de trânsito em horários de alto fluxo de veículos nas rodovias federais do Distrito Federal". O objetivo da apresentação será demonstrar que o emprego da análise de dados de acidentes permite a formulação de políticas públicas de redução a acidentes de trânsito com melhor desenho, otimizando a utilização de recursos humanos, financeiros e de materiais. 


Como impactos projetados, a pesquisa a ser apresentada fomenta o emprego de técnicas de análise de dados na formulação de políticas públicas. Outro fator de impacto importante é o potencial da análise de dados de acidentes para propor medidas que podem ser implementadas em curto prazo para a melhoria da mobilidade urbana, como a adequação do emprego do efetivo policial nos locais críticos, a sugestão de instalação de sinalizações viárias simples ou a execução de obras de pequeno custo. Por fim, a pesquisa a ser apresentada possui relevância pela capacidade de apontar medidas para a mitigação dos locais críticos de acidentes de trânsito e pela possibilidade de replicação do modelo adotado. 


  -  detalhes técnicos: A apresentação discutirá abordagens metodológicas para identificação de locais de acumulação de acidentes de trânsito e apresentação do modelo empregado na pesquisa cujos resultados serão expostos na apresentação. 


  -  mini-currículo: Policial rodoviário federal. Especialista em educação pela Universidade de Brasília. Mestre em gestão pública pela Universidade de Brasília. Coordenador da pesquisa "Locais de acumulação de acidentes de trânsito em horários de alto fluxo de veículos nas rodovias federais do Distrito Federal", financiada pela FAPDF. 

Use os botões abaixo para votar:

author photo

O Estudo de Série Temporal para Avaliação da qualidade de dados de Crimes Violentos Letais Intencionais no Piauí

Nome: João Marcelo Brasileiro de Aguiar


Instituição: Secretaria de Segurança Pública do Estado do Piauí


Tipo de proposta: Apresentação


Título da apresentação: O Estudo de Série Temporal para Avaliação da qualidade de dados de Crimes Violentos Letais Intencionais no Piauí


Foco principal da apresentação: técnico


Fase do trabalho apresentado: projeto em andamento


Descrição da Apresentação:


Este projeto foi desenvolvido pelo Núcleo Central de Estatística e Análise Criminal (NUCEAC) da Secretaria de Segurança Pública do Estado do Piauí (SSPPI). Foi analisada, através do software R, série do número de Crimes Violentos Letais Intencionais (CVLIS) no Piauí, composto pelas vítimas de homicídio doloso, lesão corporal seguida de morte, roubo seguido de morte (latrocínio) e estupro seguido de morte, no período de janeiro de 2013 a dezembro de 2017.


O modelo selecionado foi o SARIMA (2,0,0)(0,1,0)12 que apresentou bons valores nos critérios AIC, AICc, BIC e EQM e foi mais parcimonioso. Com base no modelo selecionado, espera-se que no 1º semestre, ocorram um total de 312 CVLI’s.


Figura 1.1: Comparação entre os valores reais e os valores previstos segundo o modelo SARIMA (1,0,1)(0,1,1)12  para o 1º semestre.


Meses      Previsão 2018      Intervalo de Confiança (95%)           Reais 2018           Dif %*
Janeiro          49                                25 - 64                                     52                       6,1%
Fevereiro     39                                  21 - 62                                     49                      25,6%
Março           44                                19 - 61                                      55                      25,0%
Abril              63                                18 - 62                                      42                     -33,3%
Maio             61                                 27 - 72                                     42                      -31,1%
Junho           56                                 21 - 67                                      59                       5,4%
TOTAL         312                                    -                                          299                     -4,2%
* diferença dos reais em relação às previsões

A utilização da série temporal permite à SSPPI, além do planejamento de ações, avaliar a qualidade dos dados de CVLIs, através da identificação de períodos com diferença entre os dados reais e dados previstos igual/maior que 30%. Verificado este patamar, inicia-se uma avaliação de todos os registros no sistema no período que se suspeita de inconsistência, denominada apuração especial. Atualizando a série com os valores reais de janeiro a junho de 2018, foi testado outro modelo a fim de uma previsão mais precisa do 2º semestre de 2018. Sendo assim, o melhor modelo foi o SARIMA (1,0,1)(0,1,1)12. De acordo com esse modelo, no 2º semestre ocorrerá um total de 336 CVLIs, ou seja, um aumento de 8% em relação a 2017.


A apuração especial envolve duas etapas (I) a notificação pela Corregedoria Geral da Polícia Civil à cada unidade policial para confirmação os dados de CVLIS registrados, e (II) análise individual de cada registro pelo NUCEAC, através da leitura em banco de dados.


Uma vez confirmado, os dados são consolidados, e a série temporal é atualizada, possibilitando a construção de novos modelos de previsão que serão utilizados pela Secretaria de Segurança Pública para monitoramento e avalição de suas políticas públicas.


Detalhes técnicos: Para construção da série temporal e previsão para 2018, utilizou-se o modelo estatístico  SARIMA (2,0,0)(0,1,0)12, sendo que as análises foram realizadas no software R. Após a atualização com dados reais referentes as ocorrências de janeiro a junho, modelo estatístico utilizado foi o SARIMA (1,0,1)(0,1,1)12.


Mini-currículo:
Delegado de Polícia Civil do Estado do Piauí desde 2002
Analista Criminal (SENASP, 2012)


Especialista em Direito Constitucional (UFPI, 2001)


Especialista em Ciências Penais (UNIDERP, 2011)
Especialista em Políticas e Gestão em Segurança Pública (Estácio de Sá, 2016)


Especialista em Estatística (UFPI, 2017)


Bacharel em Direito (UFPI,1998)

Use os botões abaixo para votar:

author photo

OFICINA - CLASSIFICAÇÃO E PROCESSAMENTO AUTOMÁTICO DE REPRESENTAÇÕES CONTRA EDITAIS LICITATÓRIOS

Formato: Ação educacional prática - OFICINA (2 horas)
    
Eixo Temático: Processamento de linguagem natural (Natural language processing - NLP)

Instituição: TRIBUNAL DE CONTAS DO ESTADO DE SÃO PAULO

Fase do trabalho apresentado: Projeto em andamento
    
Autores
    Cecília Akao - TCE-SP
    Danilo Panzeri Carlotti - INSPER
    Darcio Genicolo Martins - INSPER
    Fábio Xavier - TCE-SP
    Paulo Furquim - INSPER
    Ricardo Vaz - TCE-SP

Descrição
    Está sendo desenvolvido pelo INSPER em conjunto com o TCE-SP uma ferramenta de classificação de textos, aplicada ao Exame Prévio de Editais Licitatórios, valendo-se de machine learning, a partir da biblioteca de ml fasttext e ferramentas estatísticas, aplicando-se uma análise Multinomial Naive Bayes, que permite:
    
    1) Detectar o assunto referente a determinada reclamação/representação;
    2) Buscar votos semelhantes já elaborados, tendo em vista a reclamação apresentada;
    3) Detectar padrões e gerar estatísticas descritivas sobre os principais pedidos e peticionantes ao Poder Público;
    
    É uma proposta de oficina, mostrando aspectos técnicos das ferramentas, com um tutorial passo a passo para sua implementação.
    Todo o código será disponibilizado anteriormente à apresentação em repositório aberto do github.
    
    Os impactos esperados com este trabalho são:

    1) Auxílio na elaboração de decisões pelos Conselheiros do Tribunal de Contas;
    2) Geração de inteligência sobre padrões de litigância (assuntos, litigantes, argumentos mais apresentados, etc);
    
Ementa
    - Apresentação de ferramentas de NLP e Machine Learning para classificação de textos
    - Análise Multinomial Naive Bayes
    - Uso da biblioteca "fasttext"
    - Estudo de caso do TCE-SP
    Carga horária: 2 horas
    
Breve resumo profissional/acadêmico
   
    Cecília Akao, bacharel em Ciência da Computação pelo IME-USP. Chefe Técnica do DTI do TCE-SP.
 
    Danilo Panzeri Carlotti, graduado, mestre e doutor em Direito pela Faculdade de Direito da USP. Graduando, pela USP, em ciência da computação. Pesquisador do INSPER.
    
    Darcio Genicolo Martins, graduado em Administração Pública pela Escola de Administração de Empresas de São Paulo / FGV (2001). Mestre em Economia pela Pontifícia Universidade Católica de São Paulo. Doutorando em Business Economics no Insper. Pesquisador do INSPER.
    
    Fábio Xavier, graduado em Tecnologia da Informação. Mestre em Ciência da Computação pelo IME-USP. Especialista em Gestão Pública com MBA em Gestão Executiva de Negócios pelo IBMEC. Diretor de Departamento do DTI do TCE-SP.
    
    Paulo Furquim, graduado em Administração Pública, pela FGV, e é Mestre e Doutor em Economia, pela FEA-USP. É Professor Senior Fellow do Insper, onde também coordena o Centro de Estudos em Negócios.
    
    Ricardo Vaz, bacharel em Ciência da Computação e Especialista com MBA Executivo em Gestão Pública pela FGV. Diretor de Sistemas (DSIS) do TCE-SP.

Use os botões abaixo para votar:

author photo

Onde encontrar e como usar dados públicos de saúde

Nome
Milton Aparecido de Souza Junior


Instituição
Conselho Federal de Medicina (CFM)


Duração
Oficina de 04 (quatro) horas em Laboratório de Informática


Foco principal
Técnico


Fase do trabalho apresentado
Trabalho ou projeto em andamento


Descrição
Considerado um dos maiores sistemas públicos de saúde do mundo, o Sistema Único de Saúde (SUS) é também alvo de constantes críticas pela imprensa e um grande desafio para os gestores públicos. Para além do drama humano vivido todos os dias por mais de 160 milhões de brasileiros que dependem exclusivamente dele, no entanto, existem informações públicas que podem revelar problemas em escala ainda maior na saúde do Brasil. Nesta oficina, os participantes terão a oportunidade de conhecer algumas das bases de dados nacionais (SAGE, SIGTAP, SIM, SINASC, SIH, SIA, TABNET, SIOPS, CNES e outras) e internacionais (OMS, OCDE, etc), suas limitações e aprender a utilizar dados de saúde para elaboração de relatórios, estudos e até mesmo reportagens.


Objetivo
Ao final desta oficina os participantes devem conseguir analisar os principais bancos de dados públicos sobre a saúde no Brasil e no mundo. Além da explicação conceitual, serão realizadas atividades práticas que permitirão aprender a checar fatos e construir relatório, estudos e reportagens guiadas por dados.


Justificativa
A gestão da informação sobre saúde no Brasil está fragmentada em várias instituições de governo que atuam na produção, coleta, processamento e análise de dados. No âmbito Federal, os sistemas foram construídos segundo necessidades específicas e, apesar da criação de um núcleo de informática (atual Datasus) ter gerado grandes avanços, não se logrou racionalizar o uso dos instrumentos e os fluxos a partir da rede de serviços, dificultando, assim, o emprego das informações no controle, monitoramento e avaliação de políticas de saúde, com o objetivo de contribuir para o aperfeiçoamento da gestão.

Entende-se, no entanto, que, para participar dos processos democráticos, os cidadãos precisam, antes de tudo, ter consciência do processo do qual ele faz parte. A posse desse conhecimento sobre indicadores e informações em saúde permite a cobrança embasada por atitudes da gestão. Neste sentido, a expectativa é oferecer ferramentas de transparência que permitam à sociedade o pleno exercício da cidadania em fiscalizar os atos governamentais. Além de possibilitar o controle social, as informações disponíveis em plataformas públicas oficiais podem ainda subsidiar estratégias de ação em defesa do direito constitucional à saúde e fomentar as atividades de controle e avaliação das políticas de saúde.


Metodologia
Exposição teórica, discussão em grupo e aulas práticas em laboratório de informática (os participantes podem usar os próprios computadores se desejarem).


Mini-currículo: Jornalista especializado em Jornalismo de Dados e pós-graduando em Economia e Gestão em Saúde na Universidade de São Paulo. Foi assessor de comunicação do Ministério da Saúde para assuntos de Gestão, Orçamento e Transparência, onde também compôs os Grupos de Trabalho Ministerial sobre Lei de Acesso à Informação e Saúde na Copa de 2014. Recentemente integrou o corpo docente de tutores do curso “Como Investigar Gasto Público”, da Associação Brasileira de Jornalismo Investigativo (Abraji), e “Onde encontrar e como usar Dados de Saúde”, do Programa de Trainee especializado em Jornalismo de Saúde da Folha de S. Paulo. Atualmente é assessor do Conselho Federal de Medicina (CFM) e também coordenador da Assessoria de Imprensa da Sociedade Brasileira de Pediatria (SBP).


Linkedin: https://www.linkedin.com/in/miltonjnior


Currículo Lattes: http://lattes.cnpq.br/1076440573702558

Use os botões abaixo para votar:

author photo

Organização e análise de dados com o software Atlas.ti

A palestra "Organização e Análise de Dados com o Atlas.ti", poderá ser ministrado com a seguinte abordagem:

Objetivo Geral: Realizar operações de análise qualitativa de dados com apoio do ATLAS.ti.
Objetivos Complementares: Realizar as operações básicas de apoio à análise qualitativa utilizando o ATLAS.ti; e discutir sobre as possibilidade e limitações do ATLAS.ti.
Ementa: Pesquisas em softwares de Análise Interpretativa ATLAS.ti; Operações básicas: preparando a base de dados, codificação, anotações, utilização da interface gráfica, codificação, notas de análise, networks. Possibilidades e Limitações.
Metodologia: Os participantes serão apresentados às operações básicas do ATLAS.ti.  A essência é prática, em que os participantes resolverão exercícios diretamente no software. Conhecimentos básicos sobre metodologia científica, familiaridade com os pressupostos filosóficos e as técnicas analíticas comuns às pesquisas qualitativas são importantes para melhor aproveitamento pelos participantes. Espera-se que os objetivos do evento sejam alcançados por meio da discussão sobre o software e da exposição dialogada.

Use os botões abaixo para votar:

author photo

Os municípios brasileiros planejam os seus orçamentos? Uma análise das leis de diretrizes orçamentárias municipais utilizando técnicas de mineração de texto.

Nome: Weverton Lisboa de Sena


Nome da instituição: Tribunal de Contas do Estado da Paraíba


Tipo da proposta: Apresentação (20 minutos, no plenário)


Foco principal da apresentação: Facilitar a realização de trabalhos semelhantes por analistas e cientistas de dados.


Fase do trabalho: Estudo de caso com resultados práticos.


Descrição da apresentação: O trabalho se trata de um estudo empírico sobre as leis de diretrizes orçamentárias de diversos municípios dos Estados da Paraíba e de Minas Gerais utilizando técnicas de mineração de texto. O sistema de planejamento orçamentário vigente foi introduzido pela Constituição de 1988 e obriga a todos os entes federados elaborarem seus orçamentos. No caso da lei de diretrizes orçamentárias, esta é elaborada anualmente, contém as metas e prioridades da administração e orienta a elaboração da lei orçamentária anual, além de trazer outras disposições. Diante de evidências de que as leis de diretrizes orçamentárias de municípios paraibanos eram bastante similares, em muitos casos idênticas, foram utilizadas técnicas de mineração de texto para realizar a extração, limpeza e análise dos textos legais. Os resultados apontaram para um considerável número de leis praticamente idênticas em diversos municípios, revelando que tais normas são copiadas e utilizadas de forma indiscriminada, sem qualquer adaptação com a realidade local. A análise foi estendida para as leis de diretrizes orçamentárias, para o exercício de 2017, de municípios do Estado de Minas Gerais. Surpreendentemente os resultados foram semelhantes, apontando para uma completa ausência de cuidado com tais normas. Ao todo, foram analisadas mais de mil leis municipais e criados clusters para a classificação de cada lei conforme a sua similaridade. Outras evidências importantes também foram encontradas.


Detalhes técnicos: Para a análise, foi utilizado o software R e diversos pacotes voltados para a leitura e análise textual como: tm, quanteda, stringr, tesseract e pdftools. Foi utilizado o método coseno para calcular a similaridade dos documentos e posteriormente construído um cluster hierárquico para classificar os textos das leis.


Mini-currículo:Auditor de Contas Públicas do TCE-PB desde 2007, Mestre em Economia do Setor Público (UFPB), Pós-graduado em Gestão e Auditoria Pública (IESP-PB), Graduado em Tecnologia em Telecomunicações (IFPB), Graduando em Ciências Contábeis (Estácio).


 

Use os botões abaixo para votar:

author photo

OTIMIZAÇÃO DO PROCESSO DE EMISSÕES DE ALVARÁS DE OBRAS PELA SECRETARIA MUNICIPAL DE URBANISMO DE BELÉM: UMA INVESTIGAÇÃO DAS POSSÍVEIS VARIÁVEIS-CHAVE DO SISTEMA

Instituição


Universidade Federal do Pará


Eixos temáticos abordados por essa proposta de estudo



  1. Geoprocessamento e Geotecnologias

  2. Avaliação de Políticas Públicas


Enquadramento temático



  1. Detecção de padrões e relacionamentos úteis à formulação ou execução de políticas públicas;

  2. Otimização de processos repetitivos, como atendimento a demandas, triagem de denúncias ou confecção de peças processuais;

  3. Mineração de textos e outras fontes de dados não estruturados, para geração de insumos para processos de análise;

  4. Utilização de Sistemas de Informação Georreferenciadas (SIG) no planejamento, implementação, execução e monitoramento das políticas públicas;

  5. - Utilização de geoprocessamento com a finalidade de descoberta e interpretação de informações relevantes para o controle ao longo de diversos períodos (espaço-tempo);

  6. Apoio à tomada de decisão em políticas públicas baseada no uso de visão computacional ou no processamento de imagens;


Tipo de proposta: apresentação (20 minutos, no plenário)


Foco principal da apresentação: facilitar a realização de trabalhos semelhantes por analistas e cientistas de dados, ou gerencial, para demonstrar a gestores públicos os resultados potencializados pela análise de dados;


Fase do trabalho apresentado: projeto em andamento.


Descrição da apresentação:


A presente apresentação consiste da exposição de resultados parciais encontrados, bem como de resultados esperados em futuro breve, após o acesso e análise de um dos principais documentos gerados pela Secretaria Municipal de Urbanismo – SEURB, vinculada à Prefeitura Municipal de Belém, estado do Pará. Tal documento é o “Alvará de Obra”, obrigatório para a legalização de obras desenvolvidas no município, portanto, legitimador da missão da SEURB: desenvolver e executar o planejamento urbano de Belém, por meio do controle e fiscalização das construções, alinhamentos prediais e iluminação pública.


Duas variáveis definem o tempo de liberação desse documento: a) data da solicitação do alvará; e b) data da liberação do alvará. Subtraindo-se a segunda pela primeira gera-se a variável “c”: “tempo de liberação do 1º alvará de obra”. Foi identificado um alto grau de variabilidade dessa variável, encontrando-se entre as categorias e subcategorias coletadas, entre os anos de 2013 e 2017, a variação do “tempo de liberação” entre 1 dia e 1159 dias.


Considerando a importância dessa variável devida à sua função de fonte de renda para o órgão, bem como, ponto crítico entre seus processos administrativos, tal variabilidade pode ser interpretada como ineficiência do órgão em questão. No entanto, foram identificadas diversas outras variáveis de pouco ou nenhum controle do órgão, e altamente envolvidas com a citada variabilidade. Assim, apresentou-se a oportunidade de contribuir para a diminuição dessa variação, a partir da identificação de padrões que possam explicar esse fenômeno, bem como de relações de dependência entre as variáveis identificadas. A expectativa, é de que tais variáveis, como: bairro; nº e tipo de documentos exigidos; zona; modelo; setor; tipo, tamanho e uso do imóvel; tipo e uso do terreno; tipo de requerente, entre diversas outras, possam apontar resultados importantes após submetidos à análise descritiva e à análise inferencial de dados. Entre as expectativas da equipe de trabalho, estão a possibilidade de contribuir para o aperfeiçoamento dos processos de gestão da SEURB, bem como de influenciar fortemente na modernização do novo Plano Diretor de Belém, previsto para ser apresentado até o ano de 2019. Outra característica deste estudo, é a possibilidade de sua replicação em outras importantes cidades brasileiras.


Detalhes Técnicos


Os detalhes técnicos deste estudo são aqui explicitados em passos. Alguns passos já foram realizados. Alguns outros estão planejados para serem executados pela equipe de trabalho nos próximos meses. Os passos para a coleta dos dados primários determinam, em primeiro lugar, a definição do período selecionado para o desenvolvimento desta pesquisa – 2005 a 2017 – seguida pela identificação das variáveis constantes nos alvarás e suas respectivas operacionalizações por meio de “manual de pesquisa” criado pela equipe. Na sequência, o desenvolvimento definitivo da base de dados em planilha eletrônica, utilizando o software Microsoft Excel e posterior exportação dessa base para o software estatístico SPSS. Nesse software serão operacionalizados os procedimentos típicos de manipulação dos dados: criação de rótulos (valores), definição do tipo de variável, tamanho da célula, número de decimais, entre outros.


A coleta dos dados secundários se dará simultaneamente à dos dados primários. As fontes dessa coleta serão inicialmente os sites eletrônicos do IBGE e do PNUD. Da mesma forma que será desenvolvida na base primária, esta base também será definida a partir da definição das principais variáveis de interesse da pesquisa e suas respectivas operacionalizações. Exemplo: a renda nominal média, por bairro. A base de dados única e definitiva deste estudo será consolidada no SPSS com a integração dos dois tipos de dados (primários e secundários).


Serão dois os tipos de análises estatísticas desenvolvidas nesta pesquisa: estatística descritiva e estatística inferencial. A primeira desenvolve a descrição das variáveis, sem, no entanto, poder afirmar qualquer relação de dependência entre as variáveis da pesquisa. A estatística descritiva também não pode extrapolar para o universo, os resultados empíricos encontrados na amostra. No entanto, a estatística descritiva elegerá potenciais correlações entre variáveis, a partir da identificação de determinados padrões encontrados ao longo de sua execução. Tais padrões serão testados pela estatística inferencial. A estatística inferencial poderá afirmar a existência (ou não) de relações de dependência entre as variáveis por meio de testes de hipóteses, extrapolando os resultados para o universo da pesquisa.


A estatística descritiva será desenvolvida neste trabalho a partir da apresentação das medidas de posição e de dispersão dos dados, por meio de tabelas, gráficos e mapas georreferenciados. A estatística inferencial será desenvolvida a partir da apresentação da matriz de correlação, bem como por algumas técnicas multivariadas, como anova, regressão múltipla, análise de agrupamentos, entre outras. Tais resultados também serão apresentados por meio de tabelas, quadros e gráficos.


Mini-currículo


O professor Frederico Guilherme Pamplona Moreira é atualmente professor adjunto na Universidade Federal do Pará, vinculado ao Instituto de Tecnologia e à Faculdade de Engenharia Civil. Sua formação acadêmica é composta por duas graduações – Arquitetura e Urbanismo; e Administração – Mestrado em Economia e Doutorado em Engenharia de Produção. Seus esforços de pesquisa buscam compreender como as empresas inovam. Atuando mais recentemente na área da Engenharia Civil, sua pesquisa investiga as estratégias das empresas que compõe o mercado imobiliário. Dessa forma, investiga também as formas que a ocupação urbana pode assumir no desenvolvimento das grandes cidades brasileiras.

Use os botões abaixo para votar:

author photo

Prevendo Faixa de Renda de Correntistas Digitais

Contas-correntes que podem ser abertas usando somente um smartphone são uma grande inovação do setor bancário brasileiro. Essas contas digitais possibilitaram que uma maior parte da população pudesse ser inserida no mercado bancário, o qual fornece serviços de intermediação financeira, poupança e crédito.


Contudo, devido ao número reduzido de informações cadastrais e sem comprovação, é preciso encontrar outros meios de conhecer melhor esses clientes.


O presente trabalho propôs a criação de um modelo preditivo de renda para correntistas digitais a partir de informações oriundas de fontes diversas, tais como: características e preço de smartphones, preço de imóveis em sua vizinhança, grau de endividamento no Sistema Financeiro Nacional, entre outras. O modelo preditivo obteve excelentes resultados, superando solução equivalente de uma empresa de análise de mercado.


O uso da solução não se limita ao uso no mercado financeiro, podendo auxiliar na atualização de políticas públicas, onde a escassez de informações sobre os beneficiários também é uma realidade.


 

Use os botões abaixo para votar:

author photo

Processamento de linguagem natural para análise semântica: um estudo de caso para a clusterização automática de projetos do Ministério da Cultura do Brasil

Nome: Kátia Kelvis Cassiano e Douglas Farias Cordeiro


Contato: katiakelvis@ufg.br; cordeiro@ufg.br


Instituição: Universidade Federal de Goiás


Tipo de proposta: Apresentação


Título da apresentação: Processamento de linguagem natural para análise semântica: um estudo de caso para a clusterização automática de projetos do Ministério da Cultura do Brasil


Foco principal da apresentação: Técnico


Fase do trabalho apresentado: Estudo de caso com resultados práticos


Descrição da apresentação


Definição do problema: os projetos culturais do Ministério da Cultura do Brasil (MinC) são classificados em oito áreas temáticas, a saber: Artes Cênicas, Audiovisual, Música, Artes Visuais, Patrimônio Cultural, Humanidades, Artes Integradas e Museu e Memória. Uma determinada área temática (por exemplo, Artes Cênicas) pode, ainda, possuir subáreas (Dança, Circo, Ópera, Teatro) dado certas peculiaridades da área no contexto cultural.


Diante disso, existe uma problemática que reside na subjetividade do processo de classificação dos projetos. Falta consenso na identificação das áreas temáticas, uma vez que esta tarefa é realizada pelo próprio proponente quando realiza o cadastramento do projeto no MinC, sendo portanto totalmente dependente da interpretação semântica dada pelo mesmo à descrição do projeto. Além da subjetividade, tal ação incorre também em polissemia - multiplicidade de sentidos na definição de áreas e subáreas temáticas.


Objetivo da Solução Implementada: visando eliminar a subjetividade da classificação de projetos culturais, a solução apresentada neste trabalho resulta em uma separação dos projetos em grupos, com base na similaridade semântica dos mesmos, possibilitando identificar áreas temáticas de forma automatizada.


Nesse sentido, o trabalho contempla operações de Descoberta de Conhecimento em Bases de Dados (KDD) pertencentes à etapa de Mineração de Dados - seleção de dados, limpeza de dados, codificação, clusterização do conjunto de dados e possibilidade de classificação dos registros com base nos clusters/ agrupamentos gerados. A clusterização pode, então, ser utilizada como subsídio para a classificação dos projetos culturais em áreas temáticas – cada área representada por um cluster. O trabalho tem como base métodos de Processamento de Linguagem Natural (PLN) para análise semântica de textos com vistas à melhor representação dos dados referentes aos projetos.


Serão apresentados os resultados referentes à clusterização dos projetos e a distribuição dos mesmos segundo a similaridade semântica. De uma forma geral, o trabalho apresentado é significativamente relevante do ponto de vista de aplicação de técnicas e métodos de Processamento de Linguagem Natural para análise de conteúdo, sendo potencial para tarefas de classificação com vistas à organização automatizada e analítica de dados.


 


Detalhes técnicos: métodos estatísticos ou modelos de aprendizagem utilizados; softwares e linguagens de programação utilizados


A solução foi implementada em linguagem de programação Python e utilizando das bibliotecas e modelos de Processamento de Linguagem Natural gensim.models (Gensim Python Library) e NLTK (Natural Language Toolkit), bem como bibliotecas e módulos de Análise de Dados (pandas, matplotlib, seaborn).


Os dados dos projetos culturais foram obtidos por meio da API Restful SALIC, desenvolvida pelo Núcleo de Pesquisas em Gestão, Políticas e Tecnologias da Informação da Universidade Federal de Goiás, através do Laboratório de Dados Abertos, para o Ministério da Cultura do Brasil (MinC), com o propósito de abertura dos dados de projetos culturais gerenciados pelo sistema denominado SALIC Web. Foram obtidos dados de todos os projetos de 2017, totalizando 9720 registros. Para definir a base de dados de interesse, gerou-se um corpus textual a partir dos atributos PRONAC, Resumo e Descrição da entidade Projeto do modelo de dados da API SALIC. Cada registro do corpus textual é tratado, para efeitos de análise de dados, como um documento representado por um identificador único (PRONAC) e um texto descritivo sobre o projeto ao qual se refere.


Para aplicação dos métodos de PLN, na etapa de pré-processamento foi realizada a tokenização (texto descritivo transformado em tokens ou termos) e remoção de stop-words deste corpus textual, como forma de eliminar ruídos dos dados.


No processamento de documentos textuais, é importante considerar que o significado depende não somente das informações extraídas de termos isolados mas também da forma como essas informações são dispostas em um contexto. Para prover esta abordagem, foi utilizada a técnica de PLN denominada Doc2Vec, que consiste em um modelo de aprendizado não-supervisionado que utiliza representações vetoriais distribuídas dos termos ou palavras de um documento textual. Neste sentido, o modelo foi treinado para predizer palavras ou termos e assim obter uma distribuição baseada em probabilidades de ocorrência, e não apenas frequência de ocorrência, de forma a considerar que as palavras que possuem o mesmo sentido sejam dispostas em um mesmo espaço vetorial.


Sequencialmente, o modelo implementado trata o contexto. No espaço vetorial no qual os documentos são mapeados, a proximidade entre vetores representa similaridade de padrão de uso, de forma que palavras utilizadas no mesmo contexto ficam próximas umas das outras. Esta representação considera, portanto, o tamanho variável do documento, a ordem das palavras e a semântica. A interpretação depende, então, do conjunto de termos e não dos elementos pontuais do texto descritivo. Esta abordagem de PLN – word embeddings - é a base para a operação de KDD composta clusterização  classificação, pois a distinção semântica dos documentos corrobora com a identificação de áreas temáticas dos projetos culturais.


A partir do modelo treinado e validado, foi realizada análise de similaridade semântica dos documentos. Um grafo ponderado foi gerado com base na matriz de similaridade para ilustrar a relação entre os projetos culturais. Neste grafo, para cada nó é associado um peso referente ao somatório dos valores de similaridade com os outros documentos. Por meio deste grafo é possível explorar características e extrair padrões da distribuição dos projetos, informação importante para etapas posteriores de geração de conhecimento em grandes bases de dados.


Para reduzir a dimensionalidade da representação vetorial, foi utilizada Análise de Componentes Principais. A aplicação deste método é factível no sentido de obter um conjunto mínimo de atributos que preserve a informação relevante do conjunto de dados original, otimizando o processamento. Em seguida, foi realizada análise de grupos para separar os documentos por meio de propriedades comuns. Nesta etapa do trabalho, foi utilizado algoritmo de agrupamento K-means, baseado em Distância Euclidiana para cálculo de similaridade.


Os resultados obtidos com a clusterização dos projetos agregam a possibilidade de incluir um novo atributo no conjunto de dados original, o qual indica a qual grupo cada registro pertence – neste caso específico, a qual área temática o projeto cultural pertence. Dessa forma, cada rótulo de grupo pode ser considerado uma classe e, desse ponto em diante, algoritmos de classificação podem ser aplicados de forma a gerar modelos de conhecimento que possam prever a área temática de um novo projeto proposto ao Ministério da Cultura e, assim, eliminar a subjetividade, padronizar e automatizar o processo de classificação.


Míni-currículo:


Kátia Kelvis Cassiano: Doutorado em Engenharia de Sistemas de Computação (UFRJ), Professora Adjunta da Faculdade de Informação e Comunicação (FIC) da Universidade Federal de Goiás (UFG)


Douglas Farias Cordeiro: Doutorado em Ciência da Computação e Matamática Computacional (USP), Professor Adjunto da Faculdade de Informação e Comunicação (FIC) da Universidade Federal de Goiás (UFG)

Use os botões abaixo para votar:

author photo

projetos na minha cidade

 Boa Tarde.


No intuito de somar na administraçao publica com a participação no seminario em administração publica em brasilia, venho de São Paulo, Araçariguama, com essa idea a saber. quando tenho o retorno do sistema pra eu programar-me um planejamento 15 dias antes?


 

Use os botões abaixo para votar:

author photo

Ptolomeu: Viabilizando a extração, aplicação e automação de conhecimento em meios digitais

Nome: Gleidson Antônio Cardoso da Silva 


Instituição: Softplan Planejamento e Sistemas 


Tipo de proposta: Apresentação (20 minutos, no plenário); 


Título da apresentação: Ptolomeu: Viabilizando a extração, aplicação e automação de conhecimento em meios digitais  


Foco principal da apresentação: Técnico 


Fase do trabalho apresentado: Projeto em andamento 


Eixo Temático: Processamento de linguagem natural  


  


Descrição da apresentação: A digitalização de processos vem impactando positivamente o dia a dia das organizações. O que antes era feito com papel, de forma presencial e com horários restritos, agora é realizado em formato digital, de qualquer lugar, e a qualquer momento.  


Contudo, atividades relacionadas a manipulação e análise de informações contidas em meios digitais, ainda carecem de ferramentas para tornar o trabalho mais eficiente e auxiliar em processos de tomada de decisão.  


Nesse sentido, a automatização de processos de verificação, identificação e triagem de documentos com base em conteúdo tem grande valor. 


O presente trabalho apresenta três provas de conceito de automatização de processos com diferentes órgãos públicos (um Tribunal de Justiça, uma Agência Reguladora e um Departamento de Infraestrutura). 


As aplicações foram desenvolvidas pela combinação de técnicas de processamento de linguagem natural, recuperação de informação e aprendizagem de máquina. 


Os experimentos serviram como base para o desenvolvimento de uma plataforma generalista, que pode ser personalizada para o atendimento de necessidades específicas de cada organização. 


Essa estrutura possibilita que profissionais apliquem conceitos tecnológicos avançados no seu dia-a-dia, sem possuir conhecimento técnico especializado, de forma ágil e com a possibilidade de integração em operação. 


  


Detalhes técnicos: Aplicação de técnicas de Processamento de Linguagem Natural (Stemming,  Reconhecimento de Entidades (NER)), Recuperação de Informação (Distância de Levenstein, indexação, TF-IDF, Correspondência) e Aprendizagem de Máquina (Modelagem de Tópicos (LDA), Classificação Automática (Árvores de Decisão, Naive Bayes, Redes Neurais Profundas)) utilizando Java e Python. 


  


Mini-currículo: Bacharel e Mestre em Ciência da Computação com foco em Inteligência Artificial e Banco de Dados. Exercita Engenharia de Software desde 2001, Pesquisa Científica desde 2006 e Ciência de Dados desde 2015. 


Linkedin: https://www.linkedin.com/in/breno-c-costa/ 


Currículo Lattes: http://lattes.cnpq.br/8310614220018051 

Use os botões abaixo para votar:

author photo

QUALIDADE DA INFORMAÇÃO E A EFETIVIDADE DOS SISTEMAS CORPORATIVOS DE INFORMAÇÃO NA TRANSPARÊNCIA DA GESTÃO PÚBLICA: um estudo de caso na Controladoria Geral do Estado de Minas Gerais

 Nome: Álvaro Godoy Penidio.


E-mail Pessoal: godoypenido@gmail.com


Instituição: Controladoria Geral do Estado de Minas Gerais - CGE/MG


Tipo de Proposta: Apresentação 20 minutos no Plenário.


Título da Apresentação: Qualidade da Informação e a Efetividade dos Sistemas Corporativos de Informação na Transparência da Gestão Pública: um estudo de caso na Controladoria Geral do Estado de Minas Gerais 


Foco principal da apresentação: Transparência da gestão pública, Qualidade da Informação, Sistemas de infirmações, Gestão de Sistemas de Informação e do Conhecimento, Políticas de Informação, Estado e Mercado.


Eixo Temático: 


 - Avaliação de Políticas Públicas;


- Detecção de padrões e relacionamentos úteis à formulação ou execução de políticas públicas;


- Mineração de textos e outras fontes de dados não estruturados, para geração de insumos para processos de análise;


 


 


Fase do trabalho apresentado: Dissertação de mestrado concluída.


Descrição da apresentação: 


O trabalho buscou avaliar a qualidade da informação disponibilizada pelos sistemas corporativos utilizados no âmbito da administração pública do Estado de Minas Gerais, sob o prisma da percepção da satisfação dos usuários desses sistemas no âmbito da Controladoria Geral do Estado de Minas Gerais (CGE/MG), e da efetividade desses sistemas corporativos em relação à transparência governamental.


Pela utilização cada vez maior de dados informatizados para processamento, manipulação, armazenamento e descarte de informações no setor público, esses dados devem ser disponibilizados pelos diversos sistemas de informações em uso no Poder Executivo do Estado de Minas Gerais com a maior qualidade possível.


Assim, a avaliação e o monitoramento dos sistemas de informação corporativos em uso atualmente no governo estadual tornam-se essenciais para o provimento de um ambiente corporativo seguro e para uma gestão eficiente da qualidade da informação, controles estes que subsidiarão com fidedignidade a transparência governamental.


Trata-se de uma pesquisa exploratória, de natureza qualitativa e quantitativa, realizada através de um estudo de caso aplicado na CGE/MG, órgão responsável pelo controle interno na administração pública estadual. Na análise dos dados, obtidos mediante coleta de dados efetuada através de aplicação de questionários e entrevistas, foram utilizadas técnicas estatísticas multivariadas e entre os resultados esperados, destacam-se a percepção da satisfação dos usuários dos sistemas de informação corporativos do Estado de Minas Gerais e a efetividade desses sistemas na transparência da gestão pública.


Detalhes técnicos: Na análise dos dados, obtidos mediante coleta de dados efetuada através de aplicação de questionários e entrevistas, foram utilizadas técnicas estatísticas multivariadas (Análise Fatorial exploratória, e ferramentasde pesquisa de dados e softwares tais como Typeform e SPSS (Statistical Package for the Social Sciences).


Métodos estatísticos utilizados: Análise Fatorial exploratória softwares e Modelagem de Equações Estruturais (MEE).


Mini-currículo:


Auditor Interno concursado pela Controladoria Geral do Estado de Minas Gerais (CGE/MG), Mestre em Sistema de Informações e Gestão de Conhecimento pela Universidade FUMEC, M.B.A. em Gestão de Projetos com Ênfase em T.I. pela .F.G.V. - Fundação Getúlio Vargas, Bacharel em Administração de Empresas e Bacharel em Comunicação Social com habilitação em Publicidade e Propaganda pela P.U.C. MG, Pós-Graduado em Marketing pela UNA-BH. Professor de Auditoria de Sistemas e Controle Interno na UEMG.


Experiência em Controles Internos, Auditoria Operacional e de Gestão, Auditoria de T.I., Compliance, COBIT, COSO, Análise de Riscos, Análise de Dados (Business Inteligence - B.I.), Dados Abertos, Transparência, etc.


 


 


 

Use os botões abaixo para votar:

author photo

Rede de Inteligência para o Cidadão - Rio Grande do Sul

Nome: Diônifer Alan da Silveira


Email: dionifer@spgg.rs.gov.br


Instituição: Secretaria do Planejamento, Governança e Gestão do Estado do Rio Grande do Sul


Tipo de proposta: apresentação (20 minutos, no plenário);


Título da apresentação: Rede de Inteligência para o Cidadão


Foco principal da apresentação: gerencial, para demonstrar a gestores públicos os resultados potencializados pela análise de dados;


Fase do trabalho apresentado: trabalho ou projeto em andamento;


Descrição da apresentação: Ao longo dos anos tem ocorrido aumento na geração de dados na administração pública estadual, que deverá ter acréscimo exponencial com a implementação de Smart Cities, da Internet das Coisas (ou de Tudo). Os Governos, como é o caso do Estado do Rio Grande do Sul, é detentor de um grande conjunto de dados sobre pessoas e atividades, das administrativas às econômicas e sociais. Atualmente, esses dados estão dispersos pelas várias secretarias, fundações e empresas estatais, sem uma visão integrada e da potencialidade de seu uso. Percebe-se a necessidade de alinhamento entre os diversos entes públicos. Esses dados podem ser utilizados para atingir os objetivos de entrega de serviços ao cidadão e para redução de custos do Estado, criando agilidade e racionalização de recursos. A Rede de Inteligência para o Cidadão tem o intuito de conectar objetivos e dados gerados pelos órgãos públicos, por parcerias e pela sociedade gaúcha, para melhorar a tomada de decisões com apoio das novas tecnologias (ciências de dados, inteligência artificial, aprendizado de máquina, etc.), subsidiando os estudos e trabalhos dos órgãos para agir preventiva e proativamente e inovar na entrega de bens e serviços aos cidadãos.  A Rede é composta por representantes dos Órgãos e Entidades do Poder Executivo Estadual. Poderão fazer parte da Rede organizações da sociedade civil, universidades, empresas e cidadãos. A Secretaria de Planejamento, Governança e Gestão é responsável pela coordenação da Rede.


Trata-se de um projeto transversal e multissetorial, o qual partiu de um projeto piloto sobre o caso da infrequência escolar. Foram obtidos resultados preliminares que podem impactar na avaliação de projetos e políticas públicas, bem como propor soluções mais inteligentes (preditivas e prescritivas) aos problemas, costumeiramente, desconexos.


A Rede de Inteligência para o Cidadão reúne-se semanalmente para definição de estratégias, planos, metas, projetos e atividades e compartilhamento dos resultados potencializados pelas conexões estabelecidas. Como cada encontro gera a necessidade de estabelecimento e fortalecimento de novas conexões, podem ser criados Grupos Temáticos para estudar e apresentar alternativas de implementação das melhorias de maior impacto aos nós da Rede.


Detalhes técnicos: inicialmente foram utilizadas ferramentas como Hadoop (Hive + Big SQL), SPSS Modeler para as ações de preparação dos dados, análises, modelagem e validações; Utilização de IBM Cloud, Watson Platform (IBM Watson) - Inteligência Artificial para avaliar insights; para apresentação dos dados, foi utilizado o Cognos Analytics. Dentre as técnicas utilizadas, foram iniciadas com Design Thinking e pensamento sistêmico. Como prática mais específica para os projetos e atividades da ciência de dados, foi utilizada e adaptada a metodologia do CRISP-DM (i - Business Understanding, ii - Data Understanding, iii - Data Preparation, iv - Modeling, v - Evaluation e vi - Deployment). A adaptação contou com as fases de Entendimento do Tema (temas de Políticas Públicas, com uso do Ciclo de Vida do Cidadão e geração de Hipóteses - perguntas a serem respondidas pelos dados), Preparação dos Dados (dos acordos para acesso, das cargas à preparação e ajustes); Modelagem (construção e aplicação dos modelos, em perspectiva amostral); Validações (aplicação dos modelos no conjunto dos dados e ajustes); Análises e Novo Entendimento (fase de apresentação com os gestores públicos para avaliar as alternativas aplicáveis, sejam com o uso de painéis ou até melhorias e/ou automações em processos e/ou sistemas).


Mini-currículo: Analista de Planejamento, Orçamento e Gestão, atua na Secretaria do Planejamento, Governança e Gestão do Estado do Rio Grande do Sul desde 2009. Mestre em Desenvolvimento Regional pela Universidade de Santa Cruz do Sul (UNISC). Bacharel em Letras, habilitação tradutor Inglês Português pela UFRGS, tem experiência na área de Linguística de Corpus e Linguística Computacional. No Estado do RS, desenvolveu trabalhos na área de Governança de TIC e Governo Eletrônico no Departamento de Modernização da Gestão Pùblica (2009-2010), Participação Digital e Democracia no Departamento de Participação Cidadã (2011), Gestão de Processos no Programa de Desenvolvimento Institucional - PDI-SEPLAG (2012) e coordenou a área de Tecnologia da Informação e Comunicação da SEPLAN (2012-2015), Gestão de Projetos Públicos (2015-2017). Trabalha em temas como Governo e Estado Abertos, Governo e Governança Digital, Governança de TIC, Arquitetura Corporativa, Blockchain, Ciências de Dados, Tecnologia da Educação, Acesso à Informação, Ciclo de Políticas Públicas, Gestão de Projetos, entre outros. Coordena a Rede de Inteligência para o Cidadão.

Use os botões abaixo para votar:

author photo

Relação das práticas de gestão de risco corporativa e de TI na Administração Pública Federal Brasileira

Nome: Márcia Néa Oliveira Pascoal (UNIFOR/BNB), Oderlene Vieira de Oliveira (UNIFOR) e Luiz Fernando Gonçalves Viana (BNB)


Instituição: UNIFOR/BNB


Tipo de proposta: apresentação - 20 minutos, no plenário


Titulo: Relação das práticas de gestão de risco corporativa e de TI na Administração Pública Federal Brasileira


Foco principal: técnico


Fase do trabalho apresentado: concluído, referente a parte da dissertação apresentada como requisito para obtenção do título de Mestra em Administração Empresa na UNIFOR em junho de 2017.


Descrição da apresentação: 


Tem crescido a preocupação com a vulnerabilidade das instituições públicas e privadas à instabilidade e à crise. Para remediar possíveis falhas essas instituições vêm se utilizando de boas práticas de governança corporativa. A adoção de boas práticas de governança corporativa é fator chave de crescimento corporativo sustentável e vantagem competitiva a longo prazo, pois gera valor para o acionista, além de posicionar a empresa como líder de mercado quando esta possui acesso rápido e fácil a informações confiáveis sobre seu negócio. Estas práticas devem ser introduzidas na organização, normatizadas para que possam ser legitimadas.


A Tecnologia da Informação foi considerada por muito tempo pela Administração Pública como uma ferramenta auxiliar, uma variável mediadora na análise do desempenho da administração pública e dos governos. Com o passar dos anos, a TI assumiu a responsabilidade não somente de gerar, mas gerenciar o conteúdo das informações, mantendo a eficiência, e assim, desempenhando um papel fundamental na transformação da administração pública, passando de gestão de objeto para objeto de governança.


Assim, observa-se que as práticas de governança estão presentes nos setores público e privado aos quais são aplicados os mesmos princípios de governança corporativa: accountability (responsabilização), transparência e conduta ética empresarial. As principais diferenças entre estes setores residem no fato que o valor agregado pela governança deve atingir o setor privado por meio de lucro, totalmente voltado para a parte financeira, enquanto que o setor público, visa principalmente a maximização do bem-estar da sociedade considerando seus interesses e necessidades. E sobre as metas, devido a limitação de stakeholders, papéis bem definidos, o setor privado consegue esclarecer melhor suas metas; sobre o setor público, a meta é complexa, pois há variedade de stakeholders (sociedade) e dificuldade em mensurar a meta e se o alcance foi satisfatório.


Em pesquisa realizada por Pascoal e Oliveira (2017) com o objetivo de identificar a adoção de boas práticas em governança corporativa nos órgãos da Administração Pública Federal Brasileira (APFB) foi evidenciado que dentre as variáveis de assunto específico do questionário do ano de 2014, havia uma menor adoção de práticas referentes à Gestão de Risco e Gestão de Continuidade, o que motivou inicialmente a realização da presente investigação.


O trabalho investiga as práticas de governança corporativa e de Tecnologia da Informação (TI) fundamentado nos dados do levantamento de governança de TI de 2014 realizado pelo TCU em mais de 300 instituições da esfera federal observando a correlação das variáveis corporativas de risco e continuidade de negócio com as práticas destes dois temas na área de TI.


Metodologia 


A pesquisa caracteriza-se, quanto ao tipo, como descritiva e documental quanto ao método, como quantitativa (NEUMAN, 1997). A coleta de dados foi realizada com base em dados secundários do TCU levantados 2014, mediante a aplicação de questionários, em 372 órgãos e abrangeu os temas relacionados à governança de TI em órgãos públicos da APFB.


Foram selecionadas variáveis por meio de consulta às palavras “risco” e “continuidade” sobre as questões e seus subitens para que se identificassem práticas relacionadas à disciplina de risco constante no questionário de 2014. Os itens selecionados para a análise na pesquisa aferem objetivamente os aspectos relativos à Governança TI amparados no Referencial Básico de Governança (TCU, 2014), ABNT NBR ISO 15999-1:2008, ABNT NBR ISO 31000:2009 e outros modelos e boas práticas de governança de TI.


Aplicou-se regressão linear múltipla com as variáveis citadas e relacionadas com práticas de TI a fim de se mostrar a fórmula relacionada à base de dados que explica a adoção das práticas de governança corporativa por meio das práticas adotadas nos setores de TI dos órgãos públicos. 


Conclusão


Este trabalho apresentou relevância quanto ao investimento de práticas de governança de TI em manter um processo de gestão de continuidade de negócio de TI como um plano de continuidade de negócio atualizado e disponível aos tomadores de decisão. Sobre as variáveis de risco, apresenta-se forte relação de uma boa gestao de risco corporativa, quando da existência das práticas de: auditoria baseada em riscos e a instituição de processo gestão de riscos da segurança da informação.


O alcance deste trabalho retrata uma situação quanto à necessidade de investir em adoção de práticas voltadas para gestão de risco e gestão de continuidade de negócio, como melhorá-las focando em processo de TI que possuem relevância significativa sobre a governança corporativa potencializando a tomada de decisões pela alta administração, garantindo boas respostas às incertezas e por consequência, valorizando a instituição pública, favorecendo o emprego de investimentos em resultados positivos para a sociedade.


Detalhes Técnicos:


Foi utilizado estatística descritiva e econometria com regressão linear múltipla (logit), e software Stata.


Mini-CV


Márcia Néa Oliveira Pascoal


Sou funcionária pública do Banco do Nordeste do Brasil, graduação em Informática pela Universidade de Fortaleza (UNIFOR), especialização MBA em Gestão Empresarial pela FGV e mestra em Administração de Empresas pela UNIFOR. Trabalho há mais de 20 anos com ênfase em governança de Tecnologia da Informação com certificações: PMP, COBIT e HCMBOK. No Banco do Nordeste, gerenciei a implantação do Escritório de Projetos de TI e Modelo de Gestão de Demandas e Priorização de Projetos de TI, participei de projetos de elaboração de Planejamento Estratégico de TI, e atualmente estou na gestão de suporte à governança de TI tratando de temas como: orçamento, auditorias, indicadores de desempenho e acompanhamento de contratos.

Use os botões abaixo para votar:

author photo

Similaridade entre Atos Normativos, Decretos, Resoluções e Acórdãos - SANDRA

O Projeto de Mineração Textual para o Cálculo de Similaridade entre Atos Normativos, Decretos, Resoluções e Acórdãos - SANDRA, foi desenvolvido na Coordenação de Análise de Dados e Inteligência da Informação, da Diretoria de Tecnologia da Presidência da República (COADI/DITEC/SA/SG/PR).



Introdução:


A ideia central deste projeto foi a construção de um sistema de busca de similaridades entre os documentos legislativos, visando facilitar a elaboração de atos normativos na Casa Civil da Presidência da República, podendo ser expandido para os demais órgãos do governo federal em atividades que requeiram a consulta de base de dados  legislativa, principalmente no tocante a busca de legislação similar.



Características da Proposta:
– Tipo: Apresentação (20 minutos, no plenário);
– Título: Similaridade entre Atos Normativos, Decretos, Resoluções e Acórdãos - SANDRA
– Foco: Técnico-Gerencial, visando facilitar a realização de trabalhos semelhantes por analistas e cientistas de dados e demonstrar a gestores públicos os resultados potencializados pela análise de dados;
– Fase: estudo de caso com resultados práticos, apresentado em diversas instâncias na Presidência da República e recentemente aprovado pela Casa Civil como subsistema do Projeto Dra. Norma, concebido pela Assessoria Especial da Secretaria-Executiva da Casa Civil.


Descrição:


A  solução foi completamente desenvolvida com base nos metadados de legislação disponibilizados no Portal LexML, tendo sido considerados especificamente as ementas e assuntos dos decretos e leis da esfera federal compreendidos no período de 1988 a 2018, contemplando assim, 30 anos de legislação a partir do ano de promulgação da Constituição Federal. Os conjuntos de dados (datasets) contêm aproximadamente 35 mil registros.  Outros datasets foram utilizados para outras finalidades.


Os itens de software utilizados para o desenvolvimento da prova de conceito foram os seguintes: Python (Spyder), Scikit Learn, RapidMiner, QlikView, Microsoft PowerBI. Algumas rotinas foram desenvolvidas em Java e os resultados foram armazenados em banco de dados mySQL.


As técnicas e algoritmos de ciência de dados empregados foram TF-IDF, Agrupamentos X-Means e Similaridade de Cosseno.


Os resultados obtidos foram extremamente satisfatórios, tendo sido apresentados para várias audiências na Presidência da República e aprovados em diferentes ocasiões por assessores, técnicos e advogados, que realizaram inúmeras buscas no sistema e encontraram insights para variadas aplicações em suas respectivas unidades, inclusive com recomendação para disponibilização para a sociedade. Em linhas gerais, foram produzidos painéis interativos em um sistema de Business Intelligence, desenvolvido tanto em QlikView como em Microsoft Power BI:



1. Vetores (TF*IDF) por Decretos e Leis, com filtro por tipo de legislação e ano;
2. Gráfico de Legislação por Vetor e Ano;
3. Evolução anual de termos relevantes encontrados na legislação;
4. Similaridade (cosseno) entre Decretos e Leis;
5. Grafo de Agrupamentos em Classes de Decretos e Leis;
6. Tabela de Agrupamentos em Classes de Decretos e Leis, com identificação dos termos relevantes de cada classe;
7. Similaridade entre Minutas de Atos Normativos com Decretos e Leis;
8. Gráfico de Totais de Decretos e Leis por Ano;


Considerações Finais


Como considerações finais, entendemos que este projeto pode ser aplicado em inúmeros domínios no governo federal, daí a recomendação pela disponibilização da
solução para a sociedade em geral. Na próxima fase do projeto, estaremos expandindo o corpus de legislação, podendo incluir um período mais abrangente e outros tipos de Legislação, como atos, decretos-lei, deliberações, emendas, enunciados, instruções normativas, medidas provisórias, ordens de serviço, orientações normativas, portarias, provimentos, recomendações, regimentos internos e resoluções; Jurisprudência, como acórdãos, decisões, orientações e súmulas; Proposições Legislativas, como projetos de lei e propostas de emendas constitucionais; e Doutrina, como artigos, capítulos de livros, folhetos, livros e revistas.


Também, vemos emergir uma importante oportunidade de aplicação dos algoritmos e técnicas utilizados neste projeto, considerando-se a recente publicação do Decreto Nº 9.468 de 13 de agosto de 2018, no sentido que este trata das finalidades do Conselho de Transparência Pública e Combate à Corrupção. Certamente, o uso de ciência de dados e inteligência artificial poderá incentivar o desenvolvimento de soluções inovadoras para as finalidades do órgão.


 


Résumé


ROMUALDO ALVES PEREIRA JÚNIOR, D.Sc.



Titulação Acadêmica
– Pós-doutorado em Ciência da Computação pela Universidade de Ottawa - uOttawa, Canadá. Integrante do grupo de pesquisa em Inteligência Artificial
e Mineração Textual daquela universidade (2017); 
– Doutorado em Ciência da Informação (Arquitetura da Informação) pela Universidade de Brasília - UnB (2012);
– Mestrado em Sistemas de Informação pela Universidade Federal da Paraíba - UFPb (1997);
– Especialização em Engenharia de Software pela Universidade Católica de Brasília - UFC (1988);
– Graduação em Tecnologia de Processamento de Dados pela Universidade de Brasília - UnB (1985).



Experiência Profissional
– 2017-Atualmente: Coordenador de Análise de Dados e Inteligência da Informação da Diretoria de Tecnologia da Presidência da República;
– 2005-2017: Gestor de Tecnologia da Informação da Agência Espacial Brasileira - AEB;
– 1997-2005: Analista Senior em C&T do Instituto Nacional de Pesquisas Espaciais - INPE;
– 1984-1997: Coordenador de Desenvolvimento de Sistemas do Conselho Nacional de Desenvolvimento Cientí1co e Tecnológico - CNPq.


Produção Científica


Disponível para acesso na última seção do seguinte link da página pessoal: <http://romualdoalves.com/about/>


 

Use os botões abaixo para votar:

author photo

Título: Análise da informação tecnológica visando o apoio a programa social voltado para a agricultura familiar do Semiárido brasileiro.

Instituição: Embrapa Territorial


Tipo de proposta: Apresentação (20 minutos)


Descrição: Para apoiar o programa “Outras Tecnologias Sociais de Acesso à Água”, gerido pelo Ministério do Desenvolvimento Social (MDS), por meio da Secretaria Nacional de Segurança Alimentar e Nutricional (SESAN), SESAN, a Embrapa Territorial estruturou uma metodologia baseada no conceito da análise métrica da informação e mineração de dados para identificar, espacialmente, as tecnologias com potencial de uso para a região Semiárida Brasileira.


Este estudo teve como objetivo a construção de um plano de informação, das soluções tecnológicas destinadas ao Semiárido, e considerou dois aspectos:



  1. A identificação das Tecnologias, Produtos, Processos e Serviços (TPPS) a serem indicadas para a região segundo Buainain e Garcia (2013) e Marin (2015);

  2. A identificação das TPPS da Embrapa, registradas na plataforma Gestec e o desenvolvimento de um mecanismo para associação da tecnologia e do território de forma automática.


Considerando a problemática do acesso à água, destacada por Buainain e Garcia (2013) e Marin (2015) como o grande desafio a ser superado na região, procedeu-se um levantamento no Gestec, utilizando-se terminologias associadas à questão hídrica.


Identificou-se 45 soluções tecnológicas, sociais, produzidas para a região. Essa produção ocorreu em 8 das 44 Unidades da Embrapa, as quais estão localizadas no Nordeste do Brasil. Desse volume, 31 dizem respeito à fruticultura (amendoim, uva, melancia, coco-da-baia, manga, abacaxi, banana, castanha de caju, mamão, maracujá, etc.), 8 a grãos e cereais (milho, soja, feijão e arroz), 3 à produção de carne (suíno, ovino e aves) e 3 à mandioca (Tabela 3).


Essas tecnologias puderam ser automaticamente associadas a 127 dos 307 municípios que compõem a região estudada. Para explorar visualmente os resultados, utilizou-se uma ferramenta de Business intelligence, o Tableau, gerando um painel com todas as 45 tecnologias, onde é possível visualizar as TPPS por tipo, unidade da Embrapa e ainda realizar uma busca, por palavra-chave, das TPPS de interesse.


Esse estudo necessita ser validado pelos atores do semiárido para, então, se produzir um plano de informação capaz de compor o GeoWeb.


Equipe envolvida: Daniela Maciel, Celina Takemura, Lucíola Alves Magalhães, Vera Viana Brandão, Bibiana Teixeira Almeida, Alexandre Rita Conceição


Apresentador: Daniela Maciel


Fase do trabalho: Finalizado


Currículo


Tem graduação em Biblioteconomia e Documentação pela Universidade de São Paulo (2005), Especialização em Banco de Dados, pela ULBRA (2009) e Mestrado em Ciência da Informação pela ECA/USP (2015). Atualmente é supervisora da área de Transferência de Tecnologia da Embrapa Monitoramento por Satélite. Tem experiência em Gestão da Informação, especialmente, na organização e disseminação da informação tecnológica.


Referências


BUAINAIN, A. M.; GARCIA, J. R. Desenvolvimento rural do semiárido brasileiro: transformações recentes, desafios e perspectivas. Confins [Online], v. 19, 18 nov. 2013. Disponível em: < http://journals.openedition.org/confins/8633 >. Acesso em: 24 jun. 2018. DOI : 10.4000/confins.8633.


MARIN, A. M. P. Adaptação da agricultura familiar a eventos ambientais extremos no semiárido brasileiro. Canal Ciência, 17 ago. 2015. Disponível em: < http://www.canalciencia.ibict.br/pesquisa/0285_Compartilhando_experiencias_agricolas_no_semiarido.html >. Acesso em: 24 jun. 2018.


 

Use os botões abaixo para votar:

author photo

Título: Inteligência territorial para a análise e gestão dos programas sociais da Secretaria Alimentar e Nutricional (SESAN) no Brasil

Instituição: Secretaria Nacional de Segurança Alimentar e Nutricional (SESAN) e  Embrapa Territorial


Tipo de proposta: Apresentação (20 minutos)


Descrição: O Ministério do Desenvolvimento Social (MDS), por meio da Secretaria Nacional de Segurança Alimentar e Nutricional (SESAN), e a Embrapa, baseando-se no conceito de inteligência territorial estratégica (ITE), criaram uma infraestrutura de dados espaciais (IDE) vinculada a um ambiente interativo para análise, consulta e cruzamento de planos de dados e informações, o “GeoWeb Inclusão Produtiva no seu município”. A plataforma possibilita o cruzamento de diferentes planos de informação, aplicação de filtros e a elaboração de mapas da cobertura de cinco programas sociais coordenados pela Sesan: Aquisição de Alimentos (PAA), Fomento às Atividades Produtivas Rurais, Cisternas e Outras Tecnologias Sociais de Acesso à Água, Distribuição de Cestas de Alimentos e Bancos Comunitários de Sementes. O mapeamento da insegurança alimentar e nutricional e ainda os dados das famílias autodeclaradas como agricultores no Cadastro Único do Governo Federal para Programas Sociais (CadÚnico) também está disponível na ferramenta. O GeoWeb “Inclusão Produtiva no seu Município” está disponível a toda a sociedade, por meio do endereço eletrônico: < http://mapas.cnpm.embrapa.br/mds >, permite o download de metadados e camadas de dados, e baseia-se nos princípios da transparência em gestão pública.


Foco da apresentação: abordar a construção da ferramenta GeoWeb “Inclusão Produtiva no seu município”, com foco em sua aplicação no contexto das áreas da  Secretaria Nacional de Segurança Alimentar e Nutricional (SESAN).


Fase do trabalho: Finalizado


Foco principal da apresentação: técnico


Equipe envolvida no trabalho:


Ministério do Desenvolvimento Social


Kelliane da Consolação Fuscaldi


Erick Brigante Del Porto


Paulo Sergio Candido Alves


Vitor Leal Santana


Embrapa


Lucíola Alves Magalhães


Marcelo Fernando Fonseca


Jaudete Daltio


Davi de Oliveira Custódio


Daniela Maciel Pinto


Estagiários:


Ciro Ruiz Vicente da Silva


Yara Cristina de Carvalho Novo


Apresentador: Kelliane da Consolação Fuscaldi


E-mail: keliane.fuscaldi@mds.gov.br.


Currículo


Possui graduação em Administração pela Universidade Federal de Lavras (2000) e especialização em Gestão do Agronegócio (2008) e Mestrado em Agronegócio pela Universidade de Brasília (2010). Exerceu diversos cargos no Ministério da Agricultura, Pecuária e Abastecimento, dentre eles, Assessora Técnica do Gabinete do Ministro, Chefe de Gabinete da Secretaria de Política Agrícola e Chefe de Gabinete da Secretaria de Desenvolvimento Agropecuário e Cooperativismo. É Analista da Empresa Brasileira de Pesquisa Agropecuária - Embrapa. Atualmente está cedida para o Ministério do Desenvolvimento Social, no qual exerce o cargo de Coordenadora-geral de Micro e Pequenos Negócios para Inclusão Produtiva da Secretaria Nacional de Segurança Alimentar e Nutricional.






Use os botões abaixo para votar:

author photo

Três décadas de transformações na cobertura e uso do solo do territorio brasileiro (1985 a 2017)

Apresentaremos o MapBiomas - projeto multinstitucional que gerou mapas anuais de cobertura e uso do solo no Brasil com 30m de resolução permitindo entender as transformações do território Brasileiro. Mostraremos as tecnologias de Sensoriamento remoto, computação em nuvem, aprendizado de maquina e gestão de big data utilizados para gerar os dados do MapBiomas e sua plataforma de disseminação os dados.


Acesse: http://mapbiomas.org

Use os botões abaixo para votar:

author photo

Trilha de Auditoria do TaxiGov do Governo Federal

A presente proposta de apresentação no  4º Seminário Internacional sobre Análise de Dados na Administração Pública descreverá as técnicas utilizadas para construção de um painel QlikSense que indica ao Gestor Público as corridas solicitadas pelo aplicativo de corrida de taxi utilizado pelo Governo Federal (www.taxigov.gov.br) que possuem indícios de desvio de finalidade.


 

Use os botões abaixo para votar:

author photo

Use of text analytics for public sector audit engagements

Full name and institution: John Yee, Ph.D., Senior Data Scientist, United States Government Accountability Office, yeej@gao.gov


Type of proposal: presentation


Main focus of the presentation: applicability of text analytics for public sector audits by demonstrating related text analysis methods and results via real audit engagement examaples


Phase of the presented paper: case study with practical results


Presentation description: Text analytics, a part of Natural Language Processing, has a great potential to analyze unstructured text data that have been increasting at public sector. This presentation will present how several text mining methods could be used for deriving meaningful results from various types of text data of public audit engagements.    


Technical details: used some statistical models in R analytical programming language

Use os botões abaixo para votar:

author photo

Utilizando grafos para identificar o toma-lá-dá-cá das campanhas eleitorais

O objetivo do estudo a ser apresentado foi identificar, utilizando exclusivamente dados abertos, o padrão de retorno de doações de campanha às empresas doadoras. Especificamente as despesas bancadas indiretamente pela Câmara dos Deputados que beneficiam empresas que doaram para os deputados federais.


Grafos são perfeitos para mapear e ilustrar tais situações conflituosas. A situação ocorre da seguinte forma, grosso modo: a empresa doa recursos para a campanha eleitoral do parlamentar e depois ele contrata os serviços dessa empresa, com pagamentos sendo reembolsados pela Câmara. No total foram identificados 154 casos como esse.


Para realizar essa pesquisa foram necessários os dados:



  • dos gastos dos Deputados Federais, no âmbito das cotas parlamentares, que são despesas reembolsáveis pela Câmara, no período de 2013 a 2017;

  • das doações para a campanha eleitoral de 2014 (quando os deputados foram eleitos).


Os dados foram modelados em grafos e analisados utilizando Python com o pacote Networkx. Toda codificação está disponível e comentada aqui: https://github.com/leonardojs1981/analise_grafos_parlamentares


No total, foram analisados 68978 registros de doações e 793463 de despesasparlamentares.


Os resultados, com 154 "ciclos" identificados, estão melhor detalhados neste link:


https://leosalesblog.wordpress.com/2017/08/12/como-a-camara-contribui-indiretamente-com-as-campanhas-dos-deputados-apenas-uma-especulacao-utilizando-grafos/

Use os botões abaixo para votar:

author photo

Visualização de Dados para todos

A produção de gráficos faz parte do dia a dia de todo profissional que trabalha com dados, portanto, dominar os principais conceitos e saber qual visualização utilizar para um dado propósito, é fundamental para um profissional da área de ciência de dados.


A oficina terá por objetivo apresentar as melhores práticas na produção de gráficos, a partir da apresentação dos principais elementos da gramática dos gráficos, isto é, uma série de componentes que formam uma efetiva visualização de dados. O domínio desses elementos fará com que os participantes transformem seu mindset, tornando suas visualizações mais assertivas e eficazes.


A oficina não exigirá conhecimento prévio em nenhuma linguagem de programação, mas qualquer experiência anterior em análise de dados seja de forma programática ou mesmo por planilhas eletrônicas é recomendável. Assim, a produção dos gráficos do curso será realizada por meio do Flourish que é uma plataforma web para visualização de dados que em sua versão gratuita possui todos os recursos necessários que a oficina necessita.



  • Nome completo e Instituição: José Ferraz Neto e Agência Nacional do Petróleo, Gás Natural e Biocombustíveis



  • Tipo de Proposta: oficina, de 3 horas em laboratório de informática.



  • Título da Oficina: Visualização de Dados para todos



  • Foco Principal: Técnico



  • Fase do trabalho apresentado: Trabalho ou projeto em andamento



  • Detalhes técnicos:  Gramática dos Gráficos, Flourish e Dados Abertos Governamentais



  • Mini-currículo: Especialista em Regulação na ANP trabalhando com análise de dados utilizando principalmente a stack de data science de python: pandas, numpy, scipy, statsmodels, scikit-learn, etc.

Use os botões abaixo para votar:

author photo

Zello, o assistente virtual (chatbot) do TCU

- Apresentadora: Alessandra de Queiroz Requena Garrido


- Instituição: Tribunal de Contas da União


- Tipo de proposta: apresentação


- Título: Zello, o chatbot do TCU


-  Foco principal: técnico


Fase do trabalho: 1ª etapa do serviço operacional


 O nosso objetivo foi criar um chatbot para facilitar a comunicação direta entre o Tribunal e a sociedade. Por meio de mensagens rápidas e simples, o cidadão pode obter informações do TCU de forma eficiente e natural sem precisar de instalação de aplicativos, navegação no Portal ou ligações telefônicas.


 O maior desafio foi montar um chatbot que conseguisse interpretar diferentes mensagens, detectando a intenção do usuário, e assim fornecer uma resposta que simulasse o comportamento humano. Para tanto, o chatbot precisou utilizar técnicas de Inteligência Artificial, mais especificamente de Natural Language Understanding.


 Na primeira etapa do projeto, criamos um serviço pelo qual o usuário do Twitter pode consultar os gestores públicos que constam na lista de responsáveis com contas julgadas irregulares para fins eleitorais e obter informações sobre a atuação do Tribunal.  Optamos por desenvolver nesta etapa um chatbot com um foco específico, para resolvermos bem o problema e nos familiarizarmos no uso das ferramentas de NLU e na integração dos serviços do Tribunal com a plataforma de rede social.


 Tivemos sucesso nessa primeira implantação, disponibilizando a solução em https://twitter.com/tcuoficial, no mesmo dia em que o Presidente do TCU entregou ao TSE lista dos gestores públicos com contas irregulares para fins eleitorais (https://portal.tcu.gov.br/imprensa/noticias/presidente-do-tcu-entrega-ao-tse-lista-dos-gestores-com-contas-irregulares.htm).


 Em duas semanas de operação, o Zello, nosso chatbot, respondeu a 582 perguntas relacionadas à lista de contas julgadas irregulares e à atuação do TCU. A plataforma é suficientemente inteligente para captar diversas maneiras de se perguntar sobre um mesmo tópico. No entanto, é importante o monitoramento da solução para que novos tópicos e maneiras inéditas de questionamento possam ser incorporados à solução. É como o aprendizado de uma criança. Assim, evolui-se o chatbot para detectar novas intenções.


 Nossos próximos passos serão avançar em outras redes sociais (Facebook e WhatsApp), adicionar outros serviços do TCU tais como consulta a processos, assessoria de imprensa, ouvidoria. É também nosso objetivo nos aproximarmos de outros públicos, como jornalistas, partes interessadas em processos do Tribunal e servidores da casa.


 -  Detalhes Técnicos: 


 O Zello é um chatbot desenvolvido integralmente pelo TCU.  Escrito utilizando a linguagem de programação Java e integrado a outros serviços, tanto externos ao TCU quanto internos. O principal serviço de acesso a informações é a consulta a lista de gestores com contas julgadas irregulares, que também foi desenvolvido utilizando Java. 


Como motor de Natural Language Processing, utilizamos o DialogFlow, plataforma gratuita de chatbot do Google. Foi necessário também o desenvolvimento de um modelo de Inteligência Artificial que extrai do texto o nome e o CPF de pessoas físicas. O algoritmo deste modelo utiliza deep learning (LSTM) implementado com Keras e Tensorflow e foi desenvolvido em sua totalidade no TCU.


-  Mini-currículo:


 Alessandra Requena é Auditora Federal de Controle Externo desde 2008. Bacharel em Ciência da Computação pela Universidade de Brasília, atua na área de desenvolvimento de software desde 1998. Há 3 anos, começou a trabalhar com Information Retrieval e se apaixonou pelo mundo de processamento de textos.

Use os botões abaixo para votar: