Ciclo de Palestras 2018 – 2° Semestre

Palestras do Departamento de Metodos Estatísticos - Instituto de Matemática - UFRJ

2º semestre de 2018
As palestras ocorrerem no Auditório do Laboratório de Sistemas Estocásticos (LSE), sala I-044b, as 15:30 h, a menos de algumas exceções devidamente indicadas.

Lista Completa (palestras previstas para datas futuras podem sofrer alterações):
14/12 (excepcionalmente uma 6a feira as 13:30hs)

This on-going work proposes a very simple extension of the usual fully connected hidden layers in deep neural networks for classification. The objecitive is to transform the latent space on the last hidden layer to be more suitable for the linear separation that occurs in the sigmoid/softmax output layer. We call such architectures radial neural networks because they use projections of fully connected hidden layers onto the surface of a hypersphere. We provide a geometrical motivation for the proposed method and show that it helps achieving convergence faster than the analogous architectures that they are built upon. As a result, we can significantly reduce training time on neural networks for classification that use fully connected hidden layers. The method is illustrated as an application to image classification, although it can be used for other classification tasks.

21/11 (excepcionalmente às 14:30hs)

This work develops a slice sampler for Bayesian linear regression models with arbitrary priors. The new sampler has two advantages over current approaches. One, it is faster than many custom implementations that rely on auxiliary latent variables, if the number of regressors is large. Two, it can be used with any prior with a density function that can be evaluated up to a normalizing constant, making it ideal for investigating the properties of new shrinkage priors without having to develop custom sampling algorithms. The new sampler takes advantage of the special structure of the linear regression likelihood, allowing it to produce better effective sample size per second than common alternative approaches.

A área de ciência de redes surgiu no final dos anos 90, como convergência de várias ciências, incluindo matemática, estatística, computação e sociologia. Com forte orientação empírica, matemática e computacional, seu grande foco é o estudo de redes complexas que permeiam fenômenos biológicos, sociológicos e físicos, visando, mediante a análise massiva de dados, melhor compreender estes fenômenos e realizar predições estatísticas. Nesta palestra, faremos uma introdução à área de ciência de redes, cobrindo suas bases matemáticas, apresentando métricas e modelos estocásticos para redes, e finalizando com alguns dos principais problemas, tanto históricos quanto atuais.

31/10

This work develops a slice sampler for Bayesian linear regression models with arbitrary priors. The new sampler has two advantages over current approaches. One, it is faster than many custom implementations that rely on auxiliary latent variables, if the number of regressors is large. Two, it can be used with any prior with a density function that can be evaluated up to a normalizing constant, making it ideal for investigating the properties of new shrinkage priors without having to develop custom sampling algorithms. The new sampler takes advantage of the special structure of the linear regression likelihood, allowing it to produce better effective sample size per second than common alternative approaches.

Falarei sobre alguns dos temas de interesse de pesquisa e de orientações de trabalhos científicos (pós-graduação). Dentre os temas, destaco os seguintes: (1) amostragem adaptativa de Metropolis-Hastings, (2) filtro de partículas, (3) modelos de espaço latente para a estimação de posições ideológicas e (4) aprendizagem automática (machine learning).

25/10 (excepcionalmente uma 5a feira)

In this seminar we present econometric methods for the modeling of cryptocurrencies. The criptocurrency market presents more complex modeling challenges over traditional assets such as stocks and bonds. This market is characterized by high volatility, systematic presence of jumps in the mean and variance and an apparent detachment of economic and financial fundamentals in its dynamics. To incorporate these aspects, we used parametric and non-parametric estimation methods for conditional volatility, jumps and nonlinear dependence.

17/10

In 2015-16 South America went through the largest Zika epidemic in recorded history. One important aspect of this epidemic was the impact on newborns due to the effect of Zika on development of the central nervous system leading to severe malformations. It also became evident from data the importance of sexual transmission, leading to increased risk for women.
We propose a mathematical model for the transmission of the Zika virus including sexual transmission via all forms of sexual contact, as well as vector transmission, assuming a constant availability of mosquitoes. From this model we derive an expression for ${cal R}_0$ which is used to study and analyze the relative contributions of male to female sexual transmission route vis-a-vis vectorial transmission. We also fit the model to data from the 2016 Zika epidemic in Rio de Janeiro, to estimate the values of key parameters of the model.

15/10 (excepcionalmente uma 2a feira)

Statistical methodological development has not kept pace with the increased availability of complex, high-resolution imaging data from biomedical studies. In this work, we consider representations of shape and heterogeneity of images of tumours that reside in nonlinear spaces, and present some recent methodological developments for such data representations. Specifically, with the shape of a tumour represented by a closed planar curve, and heterogeneity by a probability density and a binary tree obtained from pixel intensities, we demonstrate how geometrical aspects of such whole-tumour representations can be incorporated into the development of descriptive and inferential statistical tools. Concepts will be illustrated on a dataset of 2D tumour images of patients diagnosed with Glioblastoma Multiforme (GBM).

03/10

Existe uma rede internacional de monitoramento de doenças e eventos que representam ameaça para a população humana. Os países signatários da Organização das Nações Unidas (ONU) assumiram um compromisso de fortalecer as capacidades de detectar, avaliar, notificar, comunicar e responder a essas emergências em Saúde Pública. No Brasil, além da Rede Nacional de Alerta e Resposta às Emergências em Saúde Pública (Rede CIEVS), que conta com 57 centros ativos em todo o país, o Ministério da Saúde estruturou a Rede Epidemiológica Hospitalar de Interesse Nacional (Rede REVEH) constituída por núcleos de vigilância epidemiológica localizados nos hospitais de referência do país. O Hospital Universitário Clementino Fraga Filho (HUCFF) integra o Sistema Único de Saúde (SUS) e, por meio do Serviço de Epidemiologia e Avaliação (SEAV), a Rede REVEH.

O SEAV acumula as funções de núcleo de vigilância epidemiológica e de estrutura de avaliação do desempenho hospitalar. Como núcleo de vigilância hospitalar, participa ativamente do monitoramento de eventos de interesse em saúde pública, desde doenças agudas a doenças crônicas como o câncer e, enquanto estrutura de avaliação, monitora indicadores de produtividade, eficiência e qualidade do atendimento hospitalar. No âmbito do ensino, contribui como campo de práticas para a formação profissional na Saúde Pública. Na pesquisa, elabora projetos em parceria com outras instituições – Instituto de Ensino em Saúde Coletiva (IESC), Faculdade de Medicina, Coppe-UFRJ e Politécnica-UFRJ – com dados produzidos pelo próprio serviço: análise de sobrevida de pacientes com câncer, uso de Big Data para a gestão hospitalar, Análise de eficiência dos hospitais universitários e Vigilância da mortalidade hospitalar como instrumento de controle da qualidade.

Na apresentação, pretende-se (i) discorrer sobre os principais dados monitorados pelo Serviço de Epidemiologia e Avaliação e (ii) expor os resultados preliminares das pesquisas em andamento.

19/09

A palestra visa ilustrar formas de atuação de um estatístico aplicado, ilustrando a indissociabilidade em Estatística entre teoria e prática. Usando técnicas modernas de Séries Temporais, Estatística Espacial, Análise Multivariada e Teoria de Valores Extremos, a palestra apresentará aplicações em diversas áreas da Ciência. Através desses exemplos, vai se procurar mostrar como um estatístico pode e deve atuar. A apresentação se concentrará nos resultados obtidos nas análises, também apresentando a teoria desenvolvida para elas.

05/09

A amostragem de cadastro duplo utiliza dois cadastros, denotados respectivamente por A e B, para fornecer total cobertura a uma população-alvo. Planos amostrais independentes são implementados em cada cadastro e a estimativa de um parâmetro de interesse na população-alvo é realizada a partir da combinação de estimativas obtidas de ambos os cadastros. Nesta conferência serão apresentados alguns métodos de estimação de proporções populacionais, em especial métodos de estimação assistida por modelos adaptados à abordagem de cadastro duplo, os quais são inspirados na disponibilidade de informações auxiliares que podem contribuir para explicação da variável resposta. Serão apresentadas também versões destes estimadores adaptados ao caso geral, em que múltiplos cadastros são utilizados. Além disso, também serão apresentadas versões de estimadores considerando o conceito de multiplicidade. Resultados obtidos via estudos de simulação serão considerados de modo a evidenciar as potencialidades de aplicação de cada um dos estimadores apresentados.

07/08 (excepcionalmente às 11hs no auditório do CT2)

Michael I. Jordan is the Pehong Chen Distinguished Professor in the Department of Electrical Engineering and Computer Science and the Department of Statistics at the University of California, Berkeley. His research interests bridge the computational, statistical, cognitive and biological sciences. Prof. Jordan is a member of the National Academy of Sciences and a member of the National Academy of Engineering. He has been named a Neyman Lecturer and a Medallion Lecturer by the Institute of Mathematical Statistics. He received the IJCAI Research Excellence Award in 2016, the David E. Rumelhart Prize in 2015 and the ACM/AAAI Allen Newell Award in 2009.

The rapid growth in the size and scope of datasets in science and technology has created a need for novel foundational perspectives on data analysis that blend the inferential and computational sciences. That classical perspectives from these fields are not adequate to address emerging problems in Data Science is apparent from their sharply divergent nature at an elementary level—in computer science, the growth of the number of data points is a source of “complexity” that must be tamed via algorithms or hardware, whereas in statistics, the growth of the number of data points is a source of “simplicity” in that inferences are generally stronger and asymptotic results can be invoked. On a formal level, the gap is made evident by the lack of a role for computational concepts such as “runtime” in core statistical theory and the lack of a role for statistical concepts such as “risk” in core computational theory. I present several research vignettes aimed at bridging computation and statistics, discussing the problem of inference under privacy and communication constraints, the problem of the control of error rates in multiple decision-making, and the notion of the “optimal way to optimize”.

25/10 (excepcionalmente uma 5a feira)