Ciclo de Palestras 2016 – 1° Semestre

Palestras do Departamento de Metodos Estatísticos - Instituto de Matemática - UFRJ

1º semestre de 2016
As palestras ocorrerem no Auditório do Laboratório de Sistemas Estocásticos (LSE), sala I-044b, as 15:30 h, a menos de algumas exceções devidamente indicadas.

Lista Completa (palestras previstas para datas futuras podem sofrer alterações):
29/06

Due to recent medical advances in cancer treatments, and the increasing number of
early diagnoses experienced specially in the last two decades, studies involving several
types of cancer have shown that a signicant fraction of the population has been cured.
In this fashion, survival models incorporating a fraction of cured individuals in the pop-
ulation, known as cure rate or long-term survival models, have received considerable
attention in the literature. Considering a general class of cure rate models that includes
the well known mixture model and the promotion time cure rate model as particular
cases, in this talk we present a novel semiparametric Bayesian approach to model sur-
vival data with cure fraction based on Bernstein polynomials. Bernstein polynomials
have been considered in a wide range of statistical problems based on completely ob-
served data, specially in density estimation problems, but not properly addressed in
problems involving censored data. We illustrate the usefulness of the proposed model
through the analysis of some real data sets previously investigated in the literature.
The results obtained suggest that the proposed model arises as a exible and attractive
alternative to model survival data with cure fraction.

01/06 - COLMEA (Excepcionalmente as 14:00hs na sala D220, CT)

O método de transformação integral é uma ferramenta analítica derivada da técnica de separação de variáveis, bem conhecida na obtenção de soluções exatas para certas classes de equações diferenciais parciais lineares, que tem sido amplamente empregado em ciências físicas e engenharia, incluindo ciências e engenharia térmicas, por mais de um século. Com o desenvolvimento simultâneo de computadores e métodos numéricos para PDEs, tal classe de abordagem analítica vinha perdendo relevância no contexto das aplicações em engenharia, embora mantivesse um papel relevante na verificação de códigos numéricos e na solução de problemas lineares suficientemente simples. No entanto, o método de transformação integral foi progressivamente estendido e generalizado, levando ao estabelecimento nos anos 80 de uma metodologia híbrida numérico-analítica, conhecida como Generalized Integral Transform Technique (GITT). O método híbrido manteve os méritos relativos de uma técnica analítica em relação a robustez e precisão, mas introduzindo a aplicabilidade e a flexibilidade de uma abordagem puramente numérica.

Esta apresentação oferece uma revisão atualizada sobre a GITT, com foco no tratamento de geometrias complexas, formulações de múltiplas escalas, problemas acoplados não-lineares de convecção-difusão, a fim de ilustrar alguns novos paradigmas de aplicação. Assim, ênfase especial é dada em demonstrar alguns desenvolvimentos recentes na análise de problemas diretos e inversos em transferência de calor e massa. Casos-teste e exemplos de aplicação serão então discutidos envolvendo extensões recentes na GITT, para ilustrar as características de convergência das expansões em autofunções propostas. Comparações críticas com soluções numéricas por códigos comerciais e validações com resultados experimentais também serão apresentadas. A figura abaixo ilustra uma termografia de infravermelho de um microdissipador térmico com um microcanal central onde escoa um fluido aquecido, com a correspondente validação da simulação do campo de temperaturas na face do substrato obtido por transformação integral (GITT).

As recentes observações diretas de ondas gravitacionais, efetuadas pela colaboração LIGO, renovaram o interesse da comunidade científica pela astrofísica e em particular pela teoria da Relatividade Geral de Albert Einstein. Esta teoria, que completou seu centenário em 2015, representou uma mudança de paradigma na física e moldou a maneira que viríamos a enxergar nosso universo e o próprio espaço-tempo. Ainda assim, manifestações da relatividade geral que permitem detecção direta (tais como ondas gravitacionais) são elusivas. Nesta apresentação farei uma revisão dos princípios da relatividade geral, passando pelas primeiras observações desta teoria (os chamados testes clássicos) até as previsões de ondas gravitacionais. A 2ª parte desta apresentação consistirá nas perspectivas futuras que as possibilidades de detecção continuada de ondas gravitacionais apresentam para a astrofísica. Em particular, irei focar no regime da astrofísica de altas energias. Este regime, de maneira geral, consiste em corpos celestes em que encontramos a gravidade em regime forte, de maneira que a descrição de sua dinâmica requer o uso da relatividade geral em sua plenitude. Exemplos de tais sistemas são: estrelas de nêutrons, buracos negros, sistemas binários do tipo estrelas de nêutrons/estrelas de nêutrons e/ou estrelas de nêutrons/buracos negros. Irei discutir brevemente as propriedades desses sistemas, com foco em estrelas de nêutrons e as possibilidades abertas pela possibilidade de detecção de ondas gravitacionais destes corpos.

11/05

Nesta palestra, será considerado o Problema de Agrupamento (Clustering) segundo dois diferentes critérios: 1) mínima soma das distâncias das observações ao quadrado e 2) mínima soma das distâncias das observações. O primeiro critério corresponde à minimização da soma das variâncias dentro dos grupos, ou equivalentemente, à maximização da variância intra-grupos. O segundo critério é um caso particular do mais famoso problema de localização, Multisource Fermat-Weber, que trata do posicionamento ótimo de especificado número de fábricas para atender às demandas de um dado conjunto de cidades.

Esses dois critérios, sendo muito naturais, são os mais freqüentemente usados nas formulações de problemas de agrupamento. Adicionalmente à significante característica de possuírem natureza bi-nível, as formulações matemáticas associadas têm a característica de serem fortemente não- diferenciáveis. A fim de superar essas dificuldades, a nova metodologia de resolução proposta adota uma estratégia de suavização usando uma especial função completamente diferenciável.

Com o propósito de demonstrar a eficiência e a robustez do método, resultados computacionais obtidos na resolução de um conjunto canônico de problemas teste para esses dois critérios, descritos na literatura, são apresentados.

27/04

Os fluxos brutos das situações ocupacionais (Ocupado, Desocupado e Inativo) representam as transições da população em idade ativa entre essas categorias em dois períodos distintos, para uma região de interesse. A análise dos fluxos brutos permite compreender os movimentos dos indivíduos entre as diferentes situações ocupacionais ao longo do tempo, sendo uma poderosa ferramenta para a análise da dinâmica do mercado de trabalho. Para realizar tal análise, são requeridas informações longitudinais em nível individual. Descreverei uma abordagem inovadora para modelar e analisar os fluxos brutos das situações ocupacionais da população em idade ativa. Essa abordagem considera tanto a ocorrência de não-resposta potencialmente informativa quanto o plano amostral complexo usado para obtenção dos dados. A abordagem proposta foi aplicada aos dados da Pesquisa Mensal de Emprego (PME) realizada pelo Instituto Brasileiro de Geografia e Estatística no período de janeiro de 2008 a julho de 2013, considerando o caso específico da Região Metropolitana de Salvador. Os resultados encontrados mostraram que o modelo que teve o melhor desempenho ao estimar os fluxos brutos pressupõe que a probabilidade de um indivíduo responder à pesquisa no próximo período de medição depende da situação ocupacional observada no período atual, comprovando a utilidade da abordagem proposta.
Em colaboração com Hugo Andrés Gutiérrez Rojas, Leonardo Trujillo Oyola, Priscila Pagung de Aquino Lapa e Maria Luiza Barcelos Zacharias.

20/04 - COLMEA (Excepcionalmente as 14:00hs no IMPA)

In this talk, we will discuss a geometric approach to the Ising model which is based on the so-called random-current representation. We will introduce this representation and review a few results obtained in the past few years.

The interactions between risk averse and risk lovers (or ambiguity lovers, Friedman-Savage and related behavior) have not yet been extensively analyzed in the general equilibrium literature due to the lack of convexity and, hence, failure or existence.
We show that the aggregate risk of wealth, as well as the dominance of risk aversion in the economy, plays a role in the existence Arrow-Debreu equilibria. This result can be extended to ambiguity in the sense of prospect theory in the sense of Jullien and Salanié (2000).
Additionally, we study properties of the equilibrium, such as conditions for risk sharing, decomposition of risk factor and ambiguity factor in prices, and also the impact of regulation on volatility, particularly for preferences with distorted probabilities with CARA utility functions. Our analyses suggest that regulation increases volatility for pro-cyclical assets while reducing their utility levels; however, risk lovers or optimists are those who incur the larger losses.

18/03 (Excepcionalmente uma sexta-feira)

This talk discusses marginal screening for detecting the presence of significant predictors in high-dimensional regression. Screening large numbers of predictors for the presence of a significant association with response is a challenging problem. The difficulty is due to the non-regular behavior of the maximal sample correlation at the null hypothesis of interest in marginal screening. To address this problem, we propose a bootstrap approach that adapts to the non-regularity. The proposed approach provides a more powerful alternative to the popular (yet conservative) Bonferroni method of controlling familywise error rates in this setting. Two applications are discussed: 1) gene expression associated with the survival time of brain cancer patients, and 2) HIV mutations associated with ARV drug resistance.

19/02 (Excepcionalmente uma sexta-feira as 14:00hs)

Bayesian statistical thinking has had an enormous impact on sequential
analysis and forecasting across
a wide spectrum of areas– from core finance, to econometrics, to IT and
many other fields. Nowadays, however,
as we are faced with increasingly high-dimensional data with needs for
increasingly fast data processing– coupled
with basic interests in coherent summary inferences and predictions
being rapidly revised– the continued
emphasis on building bigger, more customized and hence more elaborate
statistical models must be questioned.
Can we continue to drive conceptual innovation through the lens’ of
computational power available, or is it a time
to step-back and reconceptualise our modelling approaches to better
utilize computation as we imagine it will
evolve in the near-term?

Some recent developments in dynamic modelling represents a disjunction,
and at least a professionally local paradigm
shift in modelling approaches, in response to this question and
challenge. Building “simple”, mathematically and
computationally tractable models of univariate time series is a starting
point. “Decouple/Recouple” is an overlaid
strategy for coherent Bayesian analysis: That is, “Decouple” a
high-dimensional system into the lowest-level
components for simple/fast analysis; and then, “Recouple”– on a sound
theoretical basis– to rebuild the larger
multivariate process for full/formal/coherent inferences and predictions.

My talk will discuss this in the context of the class of simultaneous
dynamic graphical models. Our development of
sequential filtering and forecasting analysis builds on the new
decouple/recouple concept and also involves innovations
in computation based on importance sampling and variational Bayes ideas,
which will be described and exemplified.
Examples will be drawn from applications in macroeconomic forecasting
for policy studies and/or financial time
series forecasting for portfolio decisions. The advances in Bayesian
dynamic modelling– and in thinking about coherent
and implementable strategies for scalability to higher-dimensions (i.e.
to “big, dynamic data”)– are nicely exemplified
in these contexts.

This work draws on current and research with Lutz Gruber and Zoey Zhao.

18/01 (Excepcionalmente uma segunda-feira as 15:00hs)

Dengue is the most important arboviral disease worldwide and a major public health problem in the tropics and subtropics. The dengue vector and virus are extremely sensitive to environmental conditions such as temperature, humidity and precipitation that influence mosquito biology, abundance, habitat and viral replication rate. Thus, such climatic factors must have significant influence on dengue propagation in the population.
The first analyses presented concern the quantification of the role of climate on dengue epidemics in Thailand and Cambodia provinces using wavelet decomposition to account for the non-stationary relationships.
The second analyses presented are related to mathematical modeling at different scales: provinces, districts or rural villages, using classical 1-strain or 2-strain dengue stochastic models with Bayesian inference. Exact inference was conducted using recently developed algorithms such as particle MCMC, coupled with an initial exploration of the likelihood surface with the extended Kalman filter. This allows model selection by a quantification of the importance of different models and of their underlying hypothesis through likelihood computation and statistical information criteria. First results show that vector dynamics or strain coexistence appears crucial to provide a coherent epidemic trajectory. This approach also permits reconstruction of the dynamics with time-varying transmission parameters showing that these time-varying parameters can be statistically related to local or global climatic forcing. Therefore, one can expect that forecast climate information has utility in a dengue decision support system using mechanistic models.