Ciclo de Palestras 2016 – 2° Semestre

Palestras do Departamento de Metodos Estatísticos - Instituto de Matemática - UFRJ

2º semestre de 2016
As palestras ocorrerem no Auditório do Laboratório de Sistemas Estocásticos (LSE), sala I-044b, as 15:30 h, a menos de algumas exceções devidamente indicadas.

Lista Completa (palestras previstas para datas futuras podem sofrer alterações):
14/12 - COLMEA (Início 14:00hs. Local: sala D-220)

A equação clássica de difusão admite nas suas várias versões apenas um fluxo principal. As correções que são introduzidas para darem conta de fatores de reatividade e corrigirem os modelos que representam anomalias nos processos difusivos em geral acrescentam termos que fazem a função de fontes ou sumidouros. Outras correções podem ser introduzidas a partir da expansão do potencial de fluxo com a inclusão de termos de ordem superior na expansão de Taylor. No entanto esses modelos não admitem a ocorrência de processos com múltiplos fluxos. No entanto a hipótese da ocorrência simultânea de microestados é fundamental para todo o desenvolvimento da mecânica estatística o que sustenta a hipótese de ocorrência de múltiplos fluxos nos processos difusivos. Propomos um novo modelo para a instituição da equação de difusão em que se admite a ocorrência de dois ou mais fluxos simultâneos associados a diferentes estados de energia. Explora-se o caso de dois fluxos, o fluxo principal que obedece ao caso clássico do comportamento Fickiano e o fluxo secundário que é subsidiário ao principal e existe só e só se o principal existir. A equação que rege esse fenômeno é de quarta ordem. Ao fluxo secundário está associado um novo coeficiente a que chamamos coeficiente de reatividade. Esse coeficiente, conforme mostram resultados de identificação de parâmetros está associado à fração da concentração que flui segundo a lei de Fick, isto é o fluxo principal. Mostra-se a influência do coeficiente de reatividade na evolução da concentração em meios anisotrópicos. Alguns resultados recentes para a um sistema bi-fluxo com a presença de fonte não linear são explorados e comparados com o caso clássico. Mostram-se algumas aplicações para modelos de dinâmica populacional.

Dizem que, em seu leito de morte, Heisenberg disse “Quando encontrar Deus, eu vou fazer duas perguntas: Por que relatividade? E por que turbulência? Eu realmente acredito que ele terá uma resposta para a primeira.”
Escoamentos turbulentos vivem em dois mundos: nas escalas grandes, vivem em um mundo relativamente rígido (se não houver singularidades), com muitos invariantes e simetrias, enquanto que na pequena escala, vivem em um mundo altamente dissipativo. A existência de uma escala intermediária, o intervalo inercial, abre a possibilidade para que argumentos puramente dimensionais desvendem bastante da estrutura do escoamento. Esta trilha foi seguida com sucesso parcial por cientistas como L. Prandtl, L.F. Richardson, G. I. Taylor, A.N. Kolmogorov, L. Onsager, W. Heisenberg, entre outros.
Nesta palestra, iremos discutir algumas das maiores contribuições destes cientistas à teoria estatística da turbulência de fluidos, e comentarei sobre alguns dos recentes avanços rigorosos da comunidade matemática. Mostrarei também como que recentemente conciliamos dois tipos de argumentos puramente dimensionais, à moda de Kolmogorov e Prandtl, até então divorciados, para desvendar o funcionamento da redução de arrasto para escoamentos de alguns fluidos poliméricos.
O objetivo da palestra, obviamente, não é responder às perguntas de Heisenberg, mas sim entender por que a questão é tão complicada, e, possivelmente, fora do escopo da matemática rigorosa em um futuro próximo.

14/12 - Colóquio de Encerramento do Ciclo de Palestras em 2016 (Excepcionalmente às 14:00hs)

Heavy tailed distributions present a tough setting for inference. They are also common in industrial applications, particularly with Internet transaction datasets, and machine learners often analyze such data without considering the biases and risks associated with the misuse of standard tool. This paper outlines a procedure for inference about the mean of a (possibly conditional) heavy tailed distribution that combines nonparametric analysis for the bulk of the support with Bayesian parametric modeling motivated from extreme value theory for the heavy tail. The procedure is fast and massively scalable. The resulting point estimators attain lowest-possible error rates and, unique among alternatives, we are able to provide accurate uncertainty quantication for these estimators.
The work should find application in settings wherever correct inference is important and reward tails are heavy; we illustrate the framework in causal inference for A/B experiments involving hundreds of millions of users of eBay.com. This is joint work with Matt Taddy (Microsoft Research and
Chicago Booth) and Matthew Gardner (eBay Inc.).

We are proposing a new approach to estimation of the spatial deformation model for nonstationary spatial covariance structure introduced by Sampson and Guttorp in the 1990s. This subject is of fundamental importance in the modeling and analysis of spatial and spatio-temporal monitoring data common in the environmental sciences. It allows more accurate spatial prediction, and can be used in the design of monitoring networks for environmental pollution, a critical issue in assessing the
impacts of industrial sources of air pollution.

This approach based on B-splines, addresses a two important weaknesses in current computational approaches. First, it allows one to constrain estimated 2D deformations to be non-folding (bijective) in 2D. This requirement of the model has, up to now, been addressed only by arbitrary levels of spatial smoothing. Second, it uses a dimension reduction strategy than enables application to larger datasets of spatial monitoring sites of environmental data.

30/11 - COLMEA (Excepcionalmente no CBPF com início às 14:00hs)

O desenvolvimento da nanociência e da nanotecnologia ocorrido nos últimos 20 anos trouxe grande impacto na medicina e no mercado de produtos para a saúde humana. Sistemas nanoestruturados e nanopartículas têm sido propostos para aplicações clínicas em áreas tais como doenças infecciosas e degenerativas, traumas e tumores, doenças do aparelho cardiovascular e nervoso e doenças do sistema imunológico. A nanomedicina surge como uma das áreas mais promissoras para enfrentar os desafios da saúde humana no nosso século. O desenho de um dispositivo biocompatível com dimensões inferiores a 100 nm é complexo e exige novos métodos preparação e processamento, técnicas analíticas não convencionais de caracterização de propriedades físico-químicas e, em especial, o conhecimento das interações dos nanosistemas com fluidos biológicos, células e tecidos. Nesta apresentação farei uma análise dos avanços na pesquisa sobre nanomaterias e nanodispositivos biocompatíveis e os desafios científicos e tecnológicos para torná-los produtos eficientes e seguros para uso em seres humanos.

O córtex cerebral mamífero é provavelmente a mais complexa e versátil estrutura já estudada pela ciência. Ele é composto por dezenas de bilhões de neurônios, conectados entre si por trilhões de sinapses, organizados em estruturas espacialmente complexas e apresentando atividade ocorrendo em escalas de tempo que vão de milissegundos a décadas. Este não parece ser um sistema cujas propriedades essenciais possam ser obtidas a partir de primeiros princípios.
A comparação entre espécies diferentes demonstra a existência de algumas regularidades sugestivas, porém. Morfologicamente, há uma distinção aparentemente clara entre cortices girificados (i.e., dobrados, e tipicamente maiores) e lisoencefálicos (i.e., lisos, e tipicamente menores). Mas, de forma geral, os principais elementos constituintes do sistema nervoso são conservados entre diferentes espécies apesar da sua enorme variedade de volumes cerebrais, número de neurônios e capacidade cognitiva, e o seu desenvolvimento é controlado por uns poucos milhares de kilobits de informação genética. De fato, estudos da neuroanatomia comparada sugerem fortemente que existe um mecanismo não-procedural e invariante por escala que resulta na girificação do cortex como um todo.
Na procura por tal mecanismo, mostramos que a maneira como cortices giroencefálicos se dobram, os lisoencefálicos não se dobram, e a transição entre ambos, podem ser todas expressas por uma lei de potência que relaciona três variáveis morfológicas. Esta relação, por sua vez, resulta da minimização de uma energia livre efetiva associada à forma do cortex, de acordo com um modelo físico simples baseado em mecanismos conhecidos da distensão axonal e da natureza auto-evitante da superfície cortical. O modelo prevê o valor correto da dimensão fractal desta última sem ajuste de parâmetros, e mostra que a única escala de tamanho relevante para a girificação é dada pela espessura cortical. Empiricamente, ele se mostra em excelente concordância com dados obtidos a partir de córtices de mais de 60 espécies de mamíferos, que vão do camundongo ao elefante.
Usando superfícies corticais reconstruídas a partir de MRI, mostramos ainda que a mesma relação universal se aplica a humanos, sem distinção entre sexos; mas que ao longo do envelhecimento sadio ocorre uma redução monotônica de uma constante multiplicativa (que não é especificada pela teoria) associada à plasticidade mecânica dos axônios. Indivíduos com doença de Alzheimer, por outro lado, apresentam uma redução muito mais dramática deste parâmetro, o que indica que, pelo menos do ponto de vista morfológico, o Alzheimer pode ser visto como um envelhecimento prematuro do córtex.
Todas estas regularidades parecem implicar que, apesar de toda a diversidade morfológica e funcional, a evolução de fato dispõe de somente um número limitado de graus de liberdade com os quais moldar um córtex em resposta às diferentes restrições e pressões adaptativas que afetam diferentes espécies de mamíferos. Em termos adaptativos, isto implica que as propriedades globais de todos os córtices são em grande parte consequências necessárias, e não contingentes, da minimização vinculada do cabeamento axonal de uma superfície cortical auto-evitante em crescimento.

30/11

Gravações antigas de áudio podem sofrer degradações por conta de diversos fatores: más condições de armazenamento da mídia, equipamentos de gravação precários e reprodução em caixas de som de baixa qualidade são apenas alguns dos motivos que podem impactar na inteligibilidade do som reproduzido. Muitas vezes temos acesso a somente uma cópia da gravação já degradada, e restaurar a informação presente na mídia pode ser importante, por exemplo, para preservar o conteúdo histórico da gravação.

Dessa forma, o problema de restauração de áudio pode ser visto como um problema inverso, e desde a década de 70 diversas soluções para defeitos particulares (ruído de fundo e sons semelhantes a *clicks*, presente em discos de vinil arranhados, por exemplo) foram propostas. Porém, somente no final de década de 90 um tratamento mais abrangente, baseado em métodos Bayesianos, foi proposto e se mostrou bastante efetivo.

Nessa palestra apresentarei uma breve história da gravação de áudio, mostrando vários exemplos de degradações comumente encontradas, seguidos de alguns avanços que obtive no meu Doutorado no que diz respeito à restauração de gravações de áudio degradadas por distorções não-lineares.

16/11 (Excepcionalmente na sala C119, bloco C do CT)

O texto utiliza dados, de 2004 a 2012, dos questionários socioeconômicos respondidos pelos estudantes concluintes participantes do ENADE. A partir das respostas, construí-se, por meio de Escalamento Ideal e Análise de Componentes Principais, três fatores: afluência socioeconômica, autonomia financeira e corresidência. Na sequência são calculados os valores médios dos fatores para os diferentes ciclos do ENADE e por Área, desagregando, ainda por sexo, grupos de idade e desempenho. Os resultados possibilitaram identificar que existe diferença de perfil socioeconômico dos concluintes das diferentes Áreas e que tais diferenças são influenciadas pelo sexo e pela idade média dos estudantes. Constatamos que a divisão sexual do trabalho, predefinida desde a escolha das Áreas de ingresso nos cursos superiores, é assegurada pelas possibilidades de permanência e conclusão do curso, já que os dados se referem aos concluintes.

05/10

As cadeias estocásticas com memória de alcance variável são uma família de cadeias estocásticas em um alfabeto enumerável ou finito, cujas probabilidades de transição, em cada passo, dependem de uma porção variável do passado, chamada contexto. Esses modelos foram criados por Jorma Rissanen (1983), inicialmente como uma ferramenta universal para a compressão de dados. Recentemente, elas têm sido usadas para modelar dados em diferente áreas, como biologia, linguística e música.

Em 2013, Galves e Löcherbach apresentaram uma nova classe de modelos a tempo discreto, buscando modelar probabilisticamente a atividade das redes neuronais, através das cadeias com memória de alcance variável. Devido ao comportamento de perda de energia em cada disparo, as probabilidades de transição nesse modelo dependem da configuração do sistema desde o último instante de disparo de todos neurônios do sistema.

Os processos de salto com memória de alcance variável, propostos em Rodrigues (2016), são uma abstração a tempo contínuo do modelo apresentado em Galves e Löcherbach (2013), com as probabilidades de transição dependendo de uma árvore probabilística de contextos qualquer.

Uma questão natural que surge é: dada uma amostra gerada por um processo se salto com memória de alcance variável, como inferir a árvore probabilística de contextos imersa no processo?

Propomos um novo estimador para a árvore de contextos imersa, levando em conta as taxas de transição do sistema. A ideia principal do estimador é, dada uma sequência de símbolos da amostra, estimar as taxas de transição para essa sequência e obter seu contexto através de uma função gerada pelas taxas estimadas.

Nessa palestra, faremos uma pequena introdução sobre as cadeias com memória de alcance variável, e como elas podem nos ajudar a compreender melhor a comunicação neuronal; definiremos os processos de salto com memória de alcance variável e apresentaremos o estimador para a árvore de contexto do processo, bem como os principais resultados de convergência.

21/09 - COLMEA (Excepcionalmente na PUC com início às 14:00hs)

In this talk we will review some probabilistic applications and tools developed in Asymptotic Geometric Analysis. Asymptotic Geometric Analysis is mainly concerned with geometric and linear properties of finite dimensional objects, such as convex sets and normed spaces, especially with the characteristic behavior that emerges when the dimension, or a number of other relevant free parameters, is suitably large or tends to infinity. High-dimensional systems are very frequent in mathematics and applied sciences, hence understanding of high-dimensional phenomena is becoming increasingly important.

Bootstrap percolation is a broad class of monotone cellular automata, which has links to the Glauber dynamics of the Ising model and other areas of statistical physics. Starting with random initial conditions, the question is to determine the threshold for complete occupation of the underlying graph. Until relatively recently, only nearest-neighbour models (and relatively minor variants of these models) had been studied — and these are now very well understood. In this talk I will discuss a new `universality’ theory for bootstrap percolation, which has emerged in the last few years. In particular, I will explain a classification of two-dimensional models, give more precise results for so-called `critical’ models (also in two dimensions), and talk about a new classification theorem for higher dimensional models.

16/09 (excepcionalmente as 14:00hs)
14/09 (excepcionalmente as 14:00hs)
20/07

Interest on extremal events generally involve the joint study of many concomitant variables of interest (e.g. wave height and wind speed). We build on previous work which specifically accounted for marginal exceedances over a high, unknown threshold, by combining it with flexible families of copulas. This approach allows for the detection of specific patterns of dependence be them extremal or not. Attention is also devoted to the ascertainment of asymptotic independence, where standard multivariate extreme value theory is not applicable. Estimation of higher quantiles and
other quantities of interest is performed both marginally and conditionally via MCMC algorithms. Our approach is evaluated through a series of simulations and is applied to real data sets.

13/07

Doenças transmitidas por vetores continuam a representar sérios problemas de saúde pública. Experiências recentes demonstram também que o dinamismo resultante da interação dos vários atores envolvidos (vetor, patógeno, e humanos) requer o contínuo aporte de novos métodos de controle. A aplicação de técnicas originadas da genética e biologia molecular, e as análises recentemente disponíveis sobre o genoma de mosquitos têm propiciado o desenvolvimento de métodos genéticos como uma alternativa complementar às estratégias existentes de controle. Estes métodos têm como objetivo tanto a substituição no campo de uma população de vetores por outra incapaz de transmitir o patógeno, como reduzir ou eliminar a população de vetores transmissores.
Nesta apresentação, procuraremos descrever algumas destas estratégias e identificar oportunidades para o desenvolvimento de novas abordagens estatísticas visando apli-cações dentro deste contexto.

06/07

Ecologists often interpret variation in the spatial distribution of populations in terms of responses to environmental features, but disentangling the effects of individual variables can be difficult if latent effects and spatial and temporal correlations are not accounted for properly. Here, we use hierarchical models based on a Poisson log-normal mixture to understand the spatial variation in relative abundance (counts per standardized unit of effort) of yellow perch, emph{Perca flavescens}, The most abundant fish species in Lake Saint Pierre, Quebec, Canada. The mixture incorporates spatially varying environmental covariates that represent local habitat characteristics, and random temporal and spatial effects that capture the effects of unobserved ecological processes. The sampling design covers the margins but not the central region of the lake. We fit spatial generalized linear mixed models based on three different prior covariance structures for the local latent effects: a single Gaussian process (GP) over the lake, a GP over a circle, and independent GP for each shore. The models allow for independence, isotropy, or nonstationary spatial effects. Nonstationarity is dealt with using two different approaches, geometric anisotropy, and the inclusion of covariates in the correlation structure of the latent spatial process. The proposed approaches for specification of spatial domain and choice of Gaussian process priors may prove useful in other applications that involve spatial correlation along an irregular contour or in discontinous spatial domains. This is joint work with Marco A. Rodríguez (UQTR, Canada) and Estelina S. Capistrano(UFRJ).