free website hit counter

Palestras


Palestras convidadas
Título: The K computer
Palestrante: Yuichiro Ajima, Ph. D. (Fujitsu)
The K computer is the world's first 10 petaflops system which is developed by RIKEN, a Japanese Independent Administration Institute, and Fujitsu. "Kei" means ten quadrillion in Japanese. The K computer has been constructed on an artificial island off the coast of Kobe city, and is started to be utilized for researches of cutting-edge science and technology. This presentation will introduce the system, processor and interconnect of the K computer. The K computer is a physically huge and massively-parallel supercomputer system which is composed of total 864 racks with 88,128 processor chips. The system enhances the reliability by water-cooling which decreases chip temperature by 50 degrees Celsius and reduces failure rate by two orders of magnitude. The K computer uses SPARC64 VIIIfx processor which is newly developed with an extended instruction set for high performance computing. SPARC64 is a high-performance and high-reliability processor family of Fujitsu. The interconnection network between processors is also newly developed and is called Tofu, which stands for "Torus Fusion". The Tofu interconnect employs a six-dimensional network topology and achieves high scalability to one hundred thousand nodes and high system availability.
Título: Cloud Computing and Efficient Data Centers: challenges and opportunities in System Architecture, Software and Directions
Palestrante: Mauricio Breternitz Jr., Ph. D. (AMD Research)
Cloud computing is the delivery of computing and storage capacity as a service to a heterogeneous community of end-recipients. Three types of cloud computing services are usually recognized: a) Infrastructure, or "Rent a VM" , exemplified by Amazon EC2, Rackspace Cloud, Google Compute Engine, RightScale; b) Platform, or "Rent a booted OS with app", in which O.S., database, web server are provided, exemplified by Amazon's Elastic Beanstalk, Google App Engine, Microsoft Azure, and c) Software, or "Rent application Software", exemplified by Google Apps, Quickbooks Online, Salesforce.com.
This presentation discusses cloud computing and the current challenges and trends in System Architecture, Software and technical directions ranging from data center to processor architecture, software infrastructure and key factors in economic efficiency, power and performance.
Título: Processamento de dados massivos: ambientes e desafios
Palestrante: Dorgival Guedes (UFMG)
A evolução dos sistemas de computação tem permitido o acúmulo de volumes de dados cada vez maiores. Sejam dados sobre relacionamentos em redes sociais, registros de transações comerciais, fluxos de dados gerados por sensores, modelos computacionais cada vez mais precisos, ou dados sobre a própria Web, extrair informação útil desses dados se tornou um desafio para a área de processamento de alto desempenho. Nesse contexto, o modelo MapReduce e o ambiente Hadoop, que o implementa, se tornaram largamente conhecidos e adotados. Entretanto, fato que MapReduce/Hadoop no a solução ideal para todos os problemas. Para os casos onde isso ocorre, extensões do modelo original e diversas outras soluções têm sido propostas na área de sistemas distribuídos. Esta palestra pretende discutir os elementos que tornam a tarefa de processar dados massivos um desafio para a rea de HPC, justificar a necessidade de novos ambientes de processamento, descrever alguns dos principais ambientes propostos e apresentar alguns dos resultados do nosso grupo de pesquisa nessa área.
Título: Computação Quíntica: conceitos e desafios
Palestrantes: Cíntia Borges Margi e Rafael Trapani Possignolo (USP)
A descoberta do algoritmo quântico de Shor, capaz de fatorar eficientemente números inteiros, acelerou a corrida para a construção de um computador quântico.
Mas o que diferencia um computador quântico de um computador tradicional? De onde vem essa maior capacidade de cálculo e at onde ela pode chegar?
Nesta palestra trataremos os aspectos básicos da computação quântica e discutiremos os principais desafios envolvidos na construção de um computador quântico.
Título: The Use of Private Clouds in Support to Scientific Applications
Palestrante: Bruno Schulze (LNCC)
Clouds growth have been primarily driven by market demands and supported by advances in computational technologies, in terms of virtualization tools, management, infrastructure and increasing capacity of communication networks. Within the scientific community the cloud paradigm has been presented as a solution to meet their needs, particularly in computing power with the promise of scalability. Nevertheless issues such as security and performance remain, becoming a limitation in some cases. These issues could restrict the use of clouds by applications demanding huge amounts of comunications and processing power and dealing with sensible information. The use of private clouds intends to address an efficient and effective use, taking advantage of flexibility, scalability and optimal usage of resources, allowing its dissemination in support to scientific application and also addressing innovation.
Título: Desafios e oportunidades de pesquisa na área migração de servidores para provedores de nuvem
Palestrante: Marco A. S. Netto (IBM)
Um dos grandes desafios de empresas que queiram adotar o modelo de computação em nuvem é a migração de seus servidores para esta plataforma. O processo de migração deve garantir que os servidores funcionem e se comportem da mesma maneira tanto dentro do ambiente da empresa quanto na nuvem. Esta palestra discute os desafios e oportunidades de pesquisa na área migração de servidores para provedores de nuvem. Além disso, ela visa apresentar alguns dos problemas que o nosso grupo de pesquisa trabalha.

Palestras de empresas

Neste ano teremos duas palestras técnicas de empresas que utilizam processamento de alto desempenho como ferramenta.

Título: Supercomputadores com GPU no Brasil e no Mundo
Palestrante: Arnaldo Tavares (NVidia)
Nesta palestra vamos abordar os principais projetos de supercomputadores com GPU no Brasil e no mundo, como são utilizados e quais estão sendo planejados para o futuro próximo. Faremos também um comparativo entre a arquitetura atual, Fermi, e a nova arquitetura Kepler.
Título: High Throughput Computing na Embraer
Palestrante: Klaus O. Schwarzmeier (Embraer)
High Throughput Computing um termo da ciência da computação para descrever o uso de muitos recursos computacionais durante longos períodos de tempo para completar uma tarefa computacional.
As tarefas de HPC só mais conhecidas e se preocupam em tirar os resultados de uma simulação no menor espaço de tempo usando o maior número de recursos computacionais. Porém existem outros tipos de simulações que podem durar cada uma apenas alguns segundos, ou até horas de processamento e que precisam ser repetidas muitas vezes com dados de entrada diferentes para exploração do espaço de projeto.
O ambiente de HTC o que procura atender este tipo de processamento, geralmente de programas escritos dentro da corporação, mas não limitados a estes, e que são também grandes consumidores de ciclos de processamento.
Na EMBRAER estamos implementando um ambiente de HTC para aproveitar a capacidade ociosa dos PCs de Engenharia, no limitados a estes, para atender s demandas crescentes deste tipo de simulação.
Nesta apresentação pretende-se compartilhar esta experiência com a comunidade de Computação de Alto Desempenho.




PROMOVIDO POR: ORGANIZADO POR:
SBC
UNICAMP

ERAD-SP


Acessos: