free website hit counter

Minicursos

Os mini-cursos introdutórios e avançados do ERAD-SP têm como objetivo apresentar temas atuais e relevantes na área de Computação de Alto Desempenho a profissionais, alunos de Pós-Graduação e de Iniciação Científica.

Teremos três mini-cursos básicos e três avançados, cada um com duração de 3 horas (2 sessões de 1h30). Em cada dia do evento, serão apresentados simultaneamente um mini-curso básico e um avançado.


Mini-cursos - Nível Básico
Título: Extração de Paralelismo em Laços para Arquiteturas HPC e Multicore
Ministrante: Guido Costa Souza de Araújo
Ao longo das últimas décadas o crescimento no desempenho dos computadores foi resultado de uma combinação de dois fatores: (a) aumento na velocidade dos circuitos, devido à contínua diminuição no tamanho dos transistores; e (b) adoção de técnicas de micro-arquitetura capazes de detectar paralelismo em nível de instruções (ILP1). Isto permitiu dobrar o desempenho dos computadores a cada 18-24 meses, em alinhamento com o que se convencionou chamar de Lei de Moore. Infelizmente, a redução no tamanho dos transistores resultou em um aumento na densidade de potência dos processadores, inviabilizando o projeto de um único superprocessador que contivesse todos os transistores. A solução foi então espalhar os transistores em vários cores, que dissipassem menos potência, resultando nas arquiteturas multicore modernas. Fabricantes de processadores têm adotado arquiteturas multicores diferentes. No entanto, nota-se uma tendência de se combinar CPUs e GPUs (Graphics Processing Units) ou Engines. Este é o caso da Intel (SandyBridge), AMD (Fusion), NVIDIA (Tegra) e IBM (Power7). Por outro lado, independente da arquitetura, extrair paralelismo de programas tornou-se uma questão central com vistas ao aumento no desempenho dos programas executando nestes processadores. Uma vez que laços são responsáveis pela maior parte do tempo de execução de um programa, detectar e extrair paralelismo de laços tornou-se uma das tarefas mais importantes nesta área. O objetivo deste curso é visitar os principais algoritmos para extração de paralelismo em laços de arquiteturas SIMD2, comumente usadas em HPC3, e discutir algumas técnicas modernas de detecção de paralelismo em arquiteturas multicore. Espera-se que ao final do curso o aluno seja capaz de: (a) entender os principais problemas na área de detecção e extração de paralelismo de laços de programas; (b) identificar a melhor arquitetura (SIMD ou Multicore) para a aplicação que deseja paralelizar; (c) escolher algoritmos e métodos para paralelizar um programa exemplo. A audiência deste curso deve possuir o seguinte perfil (mínimo): estar cursando Computação, Engenharia de Computação ou Engenharia Elétrica, com alguma experiência em programação.
Título: Computação de alto desempenho utilizando FPGAs
Ministrantes: Manoel Eusébio de Lima, Victor W. C. de Medeiros, Abel G. da Silva Filho
Field Programmable Gate Arrays (FPGAs) estão cada vez sendo mais usados como aceleradores de hardware em computação científica. Razões para isso são o paralelismo intrínseco de sua arquitetura, fácil customização funcional de sua lógica e sua baixa potência. Assim, é possível customizar funções especiais, operadores aritméticos, etc. de acordo com as necessidades da aplicação. FPGAs têm sido extensivamente usados na prototipação de circuitos digitais, telecomunicações e mais recentemente, em aplicações de alto desempenho, foco principal deste curso.
Título: Programação paralela para computadores com processadores multicore e clusters de computadores
Ministrante: Liria Matsumoto Sato
Para se utilizar os vários núcleos de processamento disponíveis nos computadores atuais, que possuem múltiplos processadores multicore, como também os vários processadores deum “cluster” de computadores, a programação paralela, que permite a exploração destes múltiplos recursos de processamento, é necessária. Neste curso, pretende-se apresentar conceitos fundamentais e umavisão prática de programação paralela, utilizando-se OpenMP para computadores com múltiplos processadores “multicore” e MPI para “clusters” de computadores.


Mini-cursos - Nível Avançado
Título: Balanceamento Dinâmico de Carga em Sistemas Peta/Exaflop
Ministrantes: Celso L. Mendes, Eduardo R. Rodrigues
Esta proposta descreve um mini-curso para o ERAD-SP’2011, em S.J.Campos. O principal tópico do curso é balanceamento dinâmico de carga, para aplicações executadas em sistemas massivamente paralelos com capacidade da ordem de Peta/Exaflop. As técnicas de balanceamento apresentadas são baseadas num esquema de virtualização fornecido pelo sistema Charm++, e disponível para programas MPI pela implementação do Adaptive-MPI (AMPI). O curso irá descrever as características básicas do Charm++ e do AMPI, a infraestrutura de balanceamento de carga disponível, e exemplos de como estes balanceadores podem ser usados em aplicações científicas executadas em máquinas Petaflop atuais ou Exaflop futuras.
Título: Workloads Científicos na Computação em Nuvem: Uma Introdução
Ministrantes: Cesar Augusto Cavalheiro Marcondes, Hermes Senger
A computação em nuvem é uma tecnologia que vêm ganhando grande importância no cenário atual da Computação e é possível afirmar que esta terá um papel predominante em como a computação futura, especialmente a computação científica, será realizada virtualmente sem limites. O uso da nuvem vem sendo, rapidamente, impulsionado pelo desejo de reduzir gastos de aluguel e/ou construção de espaços físicos para datacenters privados, altos gastos de energia, consolidação de serviços, entre outros aspectos. A computação em nuvem visa tratar a computação como um recurso fluído, como água ou luz, onde se paga pelo uso, isso possibilita economias de escala e o melhor aproveitamento tecnológico dos recursos ociosos. Neste mini-curso, o nosso objetivo é mostrar passo-a-passo a criação de um sítio baseado em computação em nuvem privada, onde é possível gerenciar recursos virtuais e o seu potencial uso em computação de alto desempenho.
Título: Aspectos de otimização no desenvolvimento de aplicações em CUDA
Ministrantes: Denise Stringhini, Alfredo Goldman
Mini-curso que abordará tópicos relacionados à otimização de aplicações paralelas desenvolvidas em CUDA.




PROMOVIDO POR: ORGANIZADO POR:
SBC
IEAv UFABC INPE ITA UNIFESP

ERAD-SP


Acessos: