free website hit counter

Palestras


Palestras convidadas
Título: Acelerando Algoritmos em Sísmica Utilizando FPGAs
Palestrante: Manoel Eusébio de Lima (UFPe)
Na indústria do petróleo é fundamental o conhecimento da localização correta de poços de oleo e gás. Análises geofísicas, baseadas em algoritmos para modelagem e migração em sísmica são utilizadas para identificar estas áreas, em terra ou no mar. Este processo envolve o processamento massivo de dados em sistemas computacionais, de alto desempenho, como grandes clusters de computadores ou supercomputadores. Várias modelos de algoritmos têm sido sugeridos, com maior ou menor precisão, apropriados para diferentes profundidades ou terrenos, como o pré-sal. Reverse Time Migration (RTM) é um destes algoritmos, de alta precisão, apropriado para análise em águas profundas. Seu tratamento requer processamento de números com alta precisão e máquinas com altíssimo desempenho para processá-los em tempo hábil. Esta palestra enfoca o desenvolvimento de uma arquitetura reconfigurável customizada, de alto desempenho computacional e baixo consumo de energia, dedicada para o tratamento deste tipo de problema. A arquitetura implementada em uma FPGA (Field Programmable Gate Array), na plataforma Gidel, PROCe III (Altera Stratix III – 80E), explora massivamente o alto grau de paralelismo interno deste tipo de dispositivo, a possibilidade da configuração dinâmica de sua lógica interna, permitindo a customização de funções, tipos e estrutura de dados especiais, diferentemente de soluções com arquiteuras fixas, como CPUs de propósito geral e GPUs. Esta proposta, fortemente relacionada ao reuso massivo de dados e uma grande largura de banda de memória, tem apresentado desempenho tão bom ou superior àqueles alcançados por arquiteturas convencionais, para este tipo de problema em sísmica. O uso de FPGAs tem também apresentado excelentes resultados em problemas relacionados a áreas como bio-informática, processamento de imagens, finanças etc.
Título: O Desafio do Projeto de Algoritmos Paralelos
Palestrante: Siang Wun Song (UFABC)
Nesta palestra iremos abordar o desafio do projeto de algoritmos paralelos. Hoje a computação paralela já se tornou regra e não mais exceção. O grande desafio, entretanto, reside no projeto de algoritmos paralelos escaláveis para o pleno proveito dos muitos processadores disponíveis. Apresentaremos o projeto de um algoritmo paralelo eficiente que resolve o problema da obtenção da subsequência contígua de soma máxima, dada uma sequência de n números que inclui números positivos e negativos. O algoritmo paralelo obtido requer um número constante de rodadas de comunicação. O bom desempenho é evidenciado por experimentos. O projeto do algoritmo paralelo contou com a colaboração dos professores Edson Norberto Cáceres e Carlos Eduardo Rodrigues Alves.
Título: Blue Waters, PetaFlops e o Futuro
Palestrante: Celso Luiz Mendes (Universidade de Illinois, USA)
Supercomputadores com capacidade de pico da ordem de um PetaFlop/segundo já estão em operação em alguns locais no mundo. Contudo, ainda é bem difícil obter-se uma fração significativa desta capacidade em aplicações de interesse. Espera-se que o sistema Blue Waters, fruto de uma parceria entre a IBM e a Universidade de Illinois, deva ser a primeira máquina na história a atingir um desempenho sustentado de um PetaFlop/segundo em diversas aplicações científicas. Com sua instalação prevista no campus de Illinois durante o ano de 2011, o Blue Waters deverá permitir a realização de simulações inéditas e concretos avanços em vários ramos da ciência e engenharia.
Esta apresentação iniciará com uma introdução à arquitetura do Blue Waters, destacando-se seus vários aspectos inovadores, tais como o nó de processamento com múltiplos núcleos do processador Power-7, a rede de inter-conexão de altíssimo grau de desempenho, e sua vasta hierarquia de armazenamento. Em seguida, serão abordados aspectos de programação que deverão facilitar tanto a adaptação de aplicações atuais como a construção de aplicações futuras. Adicionalmente, serão mostradas algumas das aplicações que estão sendo preparadas para execução no sistema, em colaboração com diversas universidades e centros de pesquisa norte-americanos. Concluindo, serão também discutidos brevemente outros esforços em andamento, em Illinois, visando criar subsídios para a futura geração de máquinas ExaFlop, prevista para o final desta década.
Título: Muitos Transistores e Pouco Espaço: Reescrevendo o Projeto de Processadores
Palestrante: Guido Costa Souza de Araújo (UNICAMP)
Ao longo das últimas décadas o crescimento no desempenho dos computadores foi resultado de uma combinação de dois fatores: (a) aumento na velocidade dos circuitos, devido à contínua diminuição no tamanho dos transistores; e (b) adoção de técnicas de micro-arquitetura capazes de detectar paralelismo em nível de instruções (ILP ). Isto permitiu dobrar o desempenho dos computadores a cada 18-24 meses, em alinhamento com o que se convencionou chamar de Lei de Moore. Infelizmente, a redução no tamanho dos transistores resultou em um aumento na densidade de potência dos processadores, inviabilizando o projeto de um único super-processador que contivesse todos os transistores. A solução foi então espalhar os transistores em vários cores, que dissipassem menos potência, resultando nas arquiteturas multicore atuais. Esta palestra contará um pouco da história que resultou no surgimento das arquiteturas multicores, e mostrará como isto está re-definindo a maneira como os processadores modernos são projetados.
Título: Servindo nas Nuvens a Clientes no Bolso
Palestrante: Walfredo Cirne (Google, USA)
Computação continua evoluindo rapidamente, tornando-se cada vez mais ubíqua, parte invisível do nosso dia-a-dia. Em termos arquiteturais, o modelo cliente/servidor se consolidou, com grandes clusters provendo computação-sob-demanda para os servidores (computação nas nuvens) e clientes disponíveis todo o tempo (incluindo smartphones que levamos no bolso).
Todavia, escrever serviços de larga escala, que rodam nas nuvens, não é tarefa trivial. Balancear corretude, performance, tolerância a falhas e manutenabilidade é um grande desafio. Esta palestra discute tais desafios, e apresenta as estratégias usadas pela Google para atacá-los. Além de questões inerentes a tais serviços, discutiremos também a influencia do hardware (e de sua evolução) no design dos serviços, bem como as features e limitações dos clientes que servimos.
Título: Desafio de E/S em Ambientes de Grande Escala
Palestrante: Philippe Olivier Alexandre Navaux (UFRGS)
Com o surgimento de arquiteturas paralelas de grande escala (peta e exa-scale), é importante garantir a escalabilidade das aplicações que irão nelas executar, eliminando gargalos que influenciem negativamente seu desempenho. Aplicações que são caracterizadas por manipulação de grandes quantidades de dados -- como é o caso de aplicações meteorológicas e climáticas, simulações geofísicas, etc. -- são fortemente dependentes do desempenho em suas operações de entrada e saída, possuindo portanto um gargalo devido à manipulação de seus dados.
Esta palestra irá apresentar e caracterizar os desafios das operações de E/S. Serão apresentadas as situações mais impactantes e as estratégias mais recentes empregadas pela comunidade científica para melhorar a escalabilidade no gerenciamento de dados.



Palestras de empresas

Neste ano teremos três palestras técnicas de empresas que utilizam processamento de alto desempenho como ferramenta.

Título: Simulação de Engenharia na Embraer
Palestrante: Klaus Otto Schwarzmeier
EMBRAER
Para que produtos sejam desenvolvidos mais rapidamente e com maior confiabilidade do que nos ciclos de desenvolvimento clássicos baseado em protótipos reais, a Engenharia, de uma forma geral, está tirando cada vez mais proveito das Simulações Virtuais de problemas reais. Com isto a concepção do produto pode ser mais rápida e a detecção de possíveis problemas pode ocorrer mais cedo no ciclo de desenvolvimento do produto.
Vários métodos computacionais tem sido desenvolvidos ao longo do tempo, e com o avanço no aumento de capacidade de cálculo dos hardwares, cada vez mais tem sido possível desenvolver novos métodos de Simulação Virtual em diferentes campos da ciência e da tecnologia.
Nesta apresentação pretende-se mostrar um pouco daquilo que a Embraer já têm utilizado de Simulações Virtuais de Engenharia e mostrar potenciais futuros de uma forma geral, para ocasionalmente servir de motivação para os desenvolvedores de software de nosso país.
Título: Processamento Sísmico de Alto Desempenho na Petrobras
Palestrante: Thiago Teixeira
PETROBRAS
BRASIL
A maneira mais utilizada pela indústria do petróleo para localizar prováveis reservas de óleo e gás e os melhores locais para perfurar é através do método sísmico. Uma das principais etapas do método sísmico é o processamento de dados sísmicos, cujo objetivo é produzir imagens da geologia do subsolo a partir de levantamentos sísmicos. Enormes quantidades de dados sísmicos são registrados e processados no dia-a-dia da indústria do petróleo, sendo que cada levantamento contém terabytes de dados que são impossíveis de serem processados sem a utilização de máquinas potentes. Além disso, a utilização de algoritmos cada vez mais complexos, devido à expansão das fronteiras exploratórias nos últimos anos, tem aumentado ainda mais a demanda por sistemas computacionais de alto desempenho. A Petrobras possui um enorme parque computacional dedicado ao processamento sísmico. Novas arquiteturas são constantemente avaliadas para acelerar esse processamento e reduzir os custos de resfriamento, armazenamento e consumo de energia dos supercomputadores. Esta palestra pretende apresentar a experiência da Petrobras em processamento sísmico de alto desempenho, algumas das pesquisas em desenvolvimento e perspectivas para o futuro.
Título: Atividades de Modelagem e Simulação na VSE
Palestrante: Rogério Rodrigues dos Santos e Ricardo Becht Flatschart
VSE
A prática de processos tecnológicos são fundamentadas pela ação de pessoas qualificadas, que utilizam ferramentas especializadas segundo métodos específicos. Neste contexto é fundamental a integração entre ações e informações a fim de assegurar a efetividade do processo. Nesta apresentação, são discutidas características das atividades de modelagem e simulação computacional ao longo do desenvolvimento de produtos. Apresenta-se uma visão dos diferentes aspectos contemplados pelos softwares de gestão e simulação, bem como a importancia de tal integração. Será dada enfase no uso da computação de alto desempenho no modelo de negócios da VSE. Com o constante aumento de escopo das áreas de modelagem e simulação dentro da empresa, modelos numéricos maiores e mais complexos e prazos restritos, o uso de HPC torna-se de grande importância. Será mostrado um estudo de caso de computação de alto desempenho, empregando o software de código aberto OpenFOAM na arquitetura IBM Blue Gene/P.




PROMOVIDO POR: ORGANIZADO POR:
SBC
IEAv UFABC INPE ITA UNIFESP

ERAD-SP


Acessos: