Interdisciplinary endeavors and data challenges in 21st century astronomy — the rise of Astrostatistics and Astroinformatics

Data: 06/07/2017 (quinta-feira)
Horário: 14h
Local: B-144

Palestrante: Dr. Rafael S. de Souza
                       Visiting Professor  IAG/University of Sao Paulo
                       Researcher  Eötvös Loránd University

Title: Interdisciplinary endeavors and data challenges in 21st century astronomy — 
         the rise of Astrostatistics and Astroinformatics 
 
Abstract: Astronomical development has always been connected with, and sometimes
dependent on, technological innovation. The technological difficulties associated with
the observational process lead the field to evolve around the study of a few, well observed,
objects. This paradigm has shifted completely in the last two or three decades with the
advent of large scale surveys. In this new scenario, traditional approaches to data analysis
in a case by case basis are no longer feasible. Astronomy is reinventing itself through
interdisciplinary collaborations with computer science and statistics leading the emergency
of the new fields of Astrostatistics and Astroinformatics. 
 
I will briefly describe one example of  how this partnership developed. Using the
Cosmostatistics Initiative (COIN) and the scientific challenges involving some of our projects,
such as classification of astronomical transients via supervised and unsupervised learning,
modeling of galaxy properties via generalized linear models and extensions,  and
likelihood-free estimate of cosmological parameters via approximate Bayesian computation.


Sobre o palestrante:
Dr. Rafael S. de Souza
Data-Scientist and Astrostatistician 
Visiting Professor  University of Sao Paulo
Researcher  Eötvös Loránd University

Drones para Mapeamento Aéreo - Sistemas e Aplicações

É com prazer que convido a tod@s para duas palestras do grupo de eScience sobre Veículos Aéreos não Tripulados (VANTs), popularmente conhecidos como drones.

Com os recentes avanços tecnológicos e os preços mais acessíveis, os drones vêm revolucionando não só o mercado audiovisual, como também a agricultura de precisão e diversos setores de engenharia. Através do mapeamento aéreo deterrenos com drones e GNSS de alta precisão, imagens georeferenciadas de alta resolução espacial auxiliam na criação demodelos dos terrenos com coordenadas de precisão centimétricas cujo uso se dá em diversas aplicações.

As duas palestras serão ministradas pela Lilian Nogueira de Faria, doutoranda do programa de Ciência da Computação do IME-USP. O foco da primeira palestra será o equipamento, que impõe restrições importantes na aquisição das imagens ecujo entendimento é importante para o assunto da segunda palestra, as técnicas de processamento de imagens e os sistemas de software existentes.

Título da primeira palestra: Drones para Mapeamento Aéreo - Sistemas e Aplicações
Data: 28/04/2017
Horário: 14h
Local: Auditório Antônio Gilioli

Resumo: Apresentaremos uma visão geral da área de Mapeamento Aéreo utilizando drones. Abordaremos conceitos principais da tecnologia de Sensoriamento Remoto, os componentes que integram um sistema de VANTs, os tipos dedrones e os sensores específicos para diversas aplicações, os sistemas de software e, inclusive, a regulamentação dedrones no Brasil.

--------------------------------------------------------------------------------------------
Título da segunda palestra: Processamento de Imagens de Drones para Mapeamento Aéreo
Data: 12/05/2017
Horário: 14h
Local: Auditório Antônio Gilioli

Resumo:  Os sistemas de software de processamento de imagens aéreas de drones utilizam técnicas de Visão Computacional, Processamento de Imagens, Aerofotogrametria e Computação Gráfica.  Nesta palestra apresentaremos algumas dessas técnicas para geração dos produtos fotogramétricos, por exemplo: mosaico de imagens, modelo digital deterreno e curva de níveis. Através delas, pode-se extrair informações para auxiliar na tomada de decisões.

--------------------------------------------------------------------------------------------
Evento sobre drones em São Paulo.

Caso você tenha interesse em participar da Feira de Drones, a Lilian descobriu o site abaixo que vende o ingresso para a feira a 50 reais para os três dias.

http://mundogeoconnect.com/2017/inscreva-se/apoiador/

Mais informações sobre a feira em http://www.droneshowla.com/sobre-a-feira/

Quem tiver interesse em descontos para os cursos e seminários divulgados em

http://www.droneshowla.com/programacao-droneshow-2017/

deve entrar em contato com

Dienifher Gonçalves
Atendimento - MundoGEO | DroneShow
This email address is being protected from spambots. You need JavaScript enabled to view it. | +55 (41)3338-7789 | Skype: dienifher-mundogeo

-------------------------------------------------------------------------------------------------
Mini-biografia: Lilian Nogueira de Faria
Doutoranda em Ciência da Computação na área de Visão Computacional (IME-USP). Possui Bacharelado (2000) eMestrado (2003) em Ciência da Computação na área de Processamento de Imagens e Sinais pela Universidade Federal deSão Carlos (UFSCar). Tem experiência na área de Processamento de Imagens, atuando nos últimos anos em projetos decompressão de imagens de satélites de sensoriamento remoto e mosaico de imagens de veículos aéreos não tripulados (VANTs).

Real Time Hand Pose Estimation for HCI.

É com prazer que convido a tod@s para mais um seminário do grupo de eScience. Nosso convidado será Dr. Philip Krejov, um recém doutor da universidade de Surrey, Inglaterra, que estará visitando o departamento nesse dia.

Data: 24/5/2016

Horário: 14h

Local: sala 136 do bloco A

Título: Real Time Hand Pose Estimation for HCI.

Resumo:
The aim of this presentation is to address the challenge of real-time pose estimation of the hand. Specifically aiming to determine the joint positions of a non-augmented hand. This methods discussed focus on the use of depth, performing localisation of the parts of the hand through efficient fitting of a kinematic model and consists of four main contributions.

The first part presents an approach to Multi-touch(less) tracking, where the objective is to track the fingertips with a high degree of accuracy without sensor contact. Using a graph based approach, the surface of the hand is modelled and extrema of the hand are located. The tracking approach allows for collaborative interactions due to its highly efficient tracking, resolving 4 hands simultaneously in real-time.

The second contribution applies a Randomised Decision Forest (RDF) to the problem of pose estimation and presents a technique to identify regions of the hand, using features that sample depth. The RDF is an ensemble based classifier that is capable of generalising to unseen data and is capable of modelling expansive datasets, learning from over 70,000 pose examples. The approach is also demonstrated in the challenging application of American Sign Language (ASL) finger-spelling recognition.

The third contribution combines a machine learning approach with a model based method to overcome the limitations of either technique in isolation. A RDF provides initial segmentation allowing surface constraints to be derived for a 3D model, which is subsequently fitted to the segmentation. This stage of global optimisation incorporates temporal information and enforces kinematic constraints. Using Rigid Body Dynamics for optimisation, invalid poses due to self-intersection and segmentation noise are resolved.

Accuracy of the approach is limited by the natural variance between users and the use of a generic hand model. The final contribution therefore proposes an approach to refine pose via cascaded linear regression which samples the residual error between the depth and the model. This combination of techniques is demonstrated to provide state of the art accuracy in real time, without the use of a GPU and without the requirement for model initialisation.

Short BIO:
Philip Krejov received a BEng (Hons) degree in Electronic Engineering from the University of Surrey, United Kingdom in 2011, including an industrial placement at National Instruments. On graduation he was awarded the prize for best final year dissertation. He is currently a Research Fellow in the Centre for Vision Speech and Signal Processing at the University of Surrey, having completed his PhD in January 2016.  The focus of his work is in Human Computer Interaction (HCI) with specialisation towards hand pose estimation. He has presented on many occasions, including a press conference held at the Royal Society, London. Philip has also published several international papers regarding hand pose estimation and novel methods for human computer interaction. His research has lead to the development of two different approaches for estimating hand pose and has been demonstrated as a real time user interaction system.