Supercomputadores

O supercomputador Columbia da NASA com processadores Intel Itanium 2 de 20 × 512.
Unidade de processamento lógico do computador Cray-1 .

Como supercomputadores (incluindo computadores de alto desempenho ou supercomputadores chamados) são especialmente rápidos para o seu tempo chamado de computador . É irrelevante o tipo de construção em que o computador se baseia, desde que seja um computador de uso universal. Uma característica típica de um supercomputador moderno é seu número particularmente grande de processadores que podem acessar dispositivos periféricos compartilhados e uma memória principal parcialmente compartilhada . Supercomputadores são freqüentemente usados ​​para simulações de computador no campo da computação de alto desempenho .

Os supercomputadores desempenham um papel essencial na computação científica e são usados ​​em várias disciplinas, como simulações no campo da mecânica quântica , previsões do tempo , climatologia , descoberta de depósitos de petróleo e gás, dinâmica molecular, macromoléculas biológicas, cosmologia , astrofísica , pesquisa de fusão , pesquisa em testes de armas nucleares para criptanálise .

Na Alemanha, os supercomputadores podem ser encontrados predominantemente em universidades e instituições de pesquisa, como os Institutos Max Planck . Por causa de seus possíveis usos, eles estão sujeitos às leis alemãs de controle de exportação de armas .

História e estrutura

O Cray-1 no Deutsches Museum em Munique

Na história do desenvolvimento de computadores, os supercomputadores se separaram dos computadores e mainframes científicos na década de 1960 . Enquanto os mainframes foram otimizados para alta confiabilidade, os supercomputadores foram otimizados para alto poder de computação. O primeiro supercomputador Cray-1 oficialmente instalado gerenciava 130 MegaFLOPS em 1976 .

Originalmente, o excelente poder de computação foi alcançado fazendo uso máximo da tecnologia disponível, escolhendo construções que eram muito caras para a produção em série maior (por exemplo, refrigeração líquida, componentes e materiais exóticos, design compacto para caminhos de sinal curtos); o número de processadores era um pouco maior pequena quantidade. Já há algum tempo, os chamados clusters têm se estabelecido nos quais um grande número de computadores individuais (na maioria baratos) são conectados em rede para formar um grande computador. Em comparação com um computador vetorial , os nós em um cluster têm seus próprios periféricos e apenas sua própria memória principal local . Os clusters usam componentes padrão, e é por isso que inicialmente oferecem vantagens de custo em relação aos computadores vetoriais. No entanto, eles exigem muito mais esforço de programação. Deve-se considerar se os programas usados ​​são adequados para distribuição em vários processadores.

Processadores usados ​​pelos supercomputadores Top500 (não atualizados).

Os computadores modernos de alto desempenho são principalmente computadores paralelos . Eles consistem em um grande número de computadores em rede uns com os outros. Além disso, todo computador geralmente possui vários processadores principais (CPUs). Os mesmos programas não podem ser executados sem modificações em um supercomputador como em um computador comum, mas sim programas especialmente coordenados que mantêm os processadores individuais trabalhando em paralelo. Supercomputadores (como todos os computadores disponíveis comercialmente no segmento de preço mais baixo hoje) são computadores vetoriais. As arquiteturas padrão da área de computadores pessoais e servidores , como x86-64 da Intel (Xeon) e AMD (Epyc), são agora dominantes . Eles diferem apenas ligeiramente do hardware de computador pessoal comum. Mas ainda há hardware especial, como IBM BlueGene / Q e Sparc64.

Em supercomputadores, as conexões entre computadores individuais são implementadas usando redes especiais de alto desempenho; o InfiniBand , entre outras coisas, é generalizado . Os computadores geralmente são equipados com placas aceleradoras, como placas gráficas ou Intel Xeon Phi . As placas gráficas são adequadas para uso em computação de alto desempenho porque representam unidades aritméticas vetoriais excelentes e resolvem problemas de álgebra linear com eficiência. A tecnologia associada é chamada de General Purpose Computation on Graphics Processing Unit (GPGPU).

Para clusters, os computadores individuais são geralmente nós ( nós em inglês ) chamados e configurados centralmente pelas ferramentas de gerenciamento de cluster e monitorados.

Sistema operacional e programação

Sistemas operacionais dos supercomputadores Top500. Linux (verde) substituiu os sistemas operacionais Unix anteriormente dominantes (tons de azul claro) na década de 2000

Enquanto várias variantes do Unix ainda eram comuns em supercomputadores na década de 1990, o Software Livre Linux se estabeleceu como o sistema operacional na década de 2000 . A lista TOP500 dos sistemas de computador mais rápidos (em junho de 2012) lista um total de 462 sistemas operados exclusivamente no Linux e 11 sistemas parcialmente (CNK / SLES 9) operados no Linux. Isso significa que 92,4% dos sistemas rodam completamente no Linux. Quase todos os outros sistemas são operados em Unix ou sistemas semelhantes ao Unix. O maior concorrente na área de desktop, o Windows , dificilmente desempenha um papel na área de computadores de alto desempenho (0,4%).

As linguagens de programação usadas para programas de programação são principalmente Fortran e C ou C ++ . Para gerar o código o mais rápido possível, geralmente são usados ​​compiladores de fabricantes de supercomputadores (como CRAY ou Intel). Os programas de computação de alto desempenho (HPC) são normalmente divididos em duas categorias:

  • Paralelização de memória compartilhada , geralmente localmente em um único nó. Interfaces como OpenMP ou TBB são comuns para esse propósito . Um único processo de sistema operacional geralmente usa todos os núcleos de CPU ou CPUs disponíveis.
  • Paralelização de memória distribuída: um processo do sistema operacional é executado em um núcleo e precisa trocar mensagens com outros processos para a solução conjunta de problemas ( passagem de mensagens ). Isso vai dentro do nó ou através de seus limites. A Message Passing Interface é o padrão padrão para a programação deste tipo de programa.

Na prática, costuma-se encontrar uma combinação de ambas as técnicas de paralelização, que costuma ser chamada de paralelização híbrida . É popular porque os programas geralmente não escalam bem o suficiente para usar todos os núcleos de um supercomputador com pura passagem de mensagens .

Se os supercomputadores estiverem equipados com placas aceleradoras (placas gráficas ou placas aritméticas), a programação é dividida novamente na do computador host e na placa aceleradora. OpenCL e CUDA são duas interfaces que permitem a programação de tais componentes.

Como regra, os computadores de alto desempenho não são usados ​​por um único usuário ou programa. Em vez disso, planejadores de tarefas , como o Utilitário Simple Linux para Gerenciamento de Recursos (SLURM) ou LoadLeveler da IBM, são usados ​​para permitir que um grande número de usuários usem partes do supercomputador por um curto período de tempo. A alocação ocorre exclusivamente no nível de alocação de nó ou alocação de processador. O tempo de processador usado é medido em unidades como horas de CPU ou horas de nó e cobrado, se necessário.

Uso pretendido

Os custos de produção de um supercomputador do TOP10 estão atualmente na casa dos dois dígitos, muitas vezes já em um montante de milhões de euros de três dígitos.

Os supercomputadores de hoje são usados ​​principalmente para fins de simulação . Quanto mais realista se torna uma simulação de relacionamentos complexos, mais poder de computação geralmente é necessário. Uma vantagem dos supercomputadores é que eles podem levar mais e mais interdependências em consideração, graças ao seu poder de computação extremamente rápido e, portanto, grande . Isso permite a inclusão de condições secundárias ou de contorno de maior alcance, muitas vezes imperceptíveis, para a simulação real e, portanto, garante um resultado geral cada vez mais significativo.

As principais áreas atuais de aplicação dos supercomputadores oferecidos incluem biologia , química , geologia , aviação e aeroespacial , médica , meteorológica , pesquisa climática , militar e física .

No campo militar, os supercomputadores têm, e. B. permite o desenvolvimento de novas bombas atômicas por meio de simulação, sem dar suporte a dados por meio de mais testes de bombas atômicas subterrâneas. As áreas caracterizam-se pelo fato de serem sistemas ou subsistemas muito complexos e em grande medida interligados. Mudanças em um subsistema geralmente têm efeitos mais ou menos fortes nos sistemas vizinhos ou conectados. O uso de supercomputadores torna cada vez mais fácil levar em consideração muitas dessas consequências ou até mesmo prevê-las, o que significa que as contramedidas podem ser tomadas com bastante antecedência. Isso se aplica, por exemplo B. nas simulações de mudanças climáticas , nas previsões de terremotos ou erupções vulcânicas , bem como na medicina com a simulação de novas substâncias ativas no organismo . Tais simulações são logicamente, completamente independentes do poder de computação, apenas tão precisas quanto os parâmetros ou modelos programados permitem para o cálculo. As enormes somas de investimento no aumento constante de FLOPS e assim o desenvolvimento de supercomputadores cada vez mais rápidos se justificam principalmente com os benefícios e a possível “vantagem do conhecimento” para a humanidade, menos com os aspectos de progresso técnico geral.

Situação na Alemanha

Posições de supercomputadores no TOP500 por país (Alemanha, Suíça, Áustria) em comparação com os 3 primeiros do mundo. (Em junho de 2013) - Atualmente (junho de 2017), o terceiro computador mais rápido está na Suíça pela primeira vez.

A computação científica de alto desempenho é organizada na Alemanha pelo Gauss Center for Supercomputing (GCS), que é membro da European Partnership for Advanced Computing in Europe (PRACE). A maioria dos 16 estados federais alemães mantém associações estaduais de alto computador para organizar o uso de seus computadores de alto desempenho. No mundo científico, uma cota de horas de CPU geralmente é anunciada e distribuída entre os candidatos.

Supercomputadores selecionados

Supercomputadores atuais

Os supercomputadores mais rápidos de acordo com o desempenho agora são listados a cada seis meses na lista TOP500 . O benchmark LINPACK serve como base para avaliação. Os supercomputadores mais rápidos de acordo com a eficiência energética ou MFLOPS / W estão na lista Green500 desde novembro de 2007. A Lenovo instalou a maior parte (117) dos 500 computadores mais poderosos do mundo em 2018 .

Esta lista Green500 de novembro de 2014 mostra eficiências médias por país de 1895 MFLOPS / W (Itália) até 168 MFLOPS / W (Malásia).

Supercomputadores atuais selecionados (em todo o mundo)

Em junho de 2017 (2016?). No entanto, Piz Daint, da Suíça, acrescentou.

Sobrenome Localização Tera FLOPS configuração Requisitos de energia propósito
Fugaku RIKEN Center for Computational Science , Kobe , ( Japão ) 415.530,00 152,064 A64FX (48 núcleos, 2,2 GHz), 4,64 PB RAM 15.000 kW Aplicações científicas
Cume Laboratório Nacional de Oak Ridge ( Tennessee , EUA ) 122.300,00 atualizado para 148.600,00 9.216 CPUs POWER9 (22 núcleos, 3,1 GHz), 27.648 GPUs Nvidia Tesla V100 10,096 kW Cálculos físicos
Sunway TaihuLight Centro Nacional de Supercomputação, Wuxi , Jiangsu 93.014,60 40.960 Sunway SW26010 (260 núcleos, 1,45 GHz), 1,31 PB RAM, 40 racks de servidor com 4 × 256 nós cada, um total de 10.649.600 núcleos 15.370 kW Aplicações científicas e comerciais
Serra Laboratório Nacional Lawrence Livermore ( Califórnia , EUA) 71.600,00 IBM Power9 (22 núcleos, 3,1 GHz) 1,5 PB RAM 7.438 kW cálculos físicos (por exemplo, simulação de testes de armas nucleares)
Tianhe-2 Universidade Nacional de Tecnologia de Defesa, Changsha , China,
localização final: National Supercomputer Center ( Guangzhou , República Popular da China )
33.862,70 atualizado para 61.400,00 32000 Intel Xeon E5-2692 CPUs (Ivy Bridge, 12 núcleos, 2.2 GHz) + 48.000 Intel Xeon Phi 31S1P co-processadores (57 núcleos, 1.1 GHz), 1,4 PB RAM 17.808 kW Cálculos químicos e físicos (por exemplo, estudos de petróleo e desenvolvimento de aeronaves)
Falcão Centro de computação de alto desempenho em Stuttgart ( Alemanha ) 26.000,00 11.264 AMD EPYC 7742 (64 núcleos, 2,25 GHz), 1,44 PB RAM 3.500 kW Aplicações científicas e comerciais
Piz Daint Swiss National Supercomputing Center (CSCS) ( Suíça ) 21.230,00 Cray XC50, Xeon E5-2690v3 12C 2,6 GHz, interconexão Aries, NVIDIA Tesla P100, Cray Inc. (361.760 núcleos) 2.384 kW aplicações científicas e comerciais
titânio Laboratório Nacional de Oak Ridge ( Tennessee , EUA ) 17.590,00 Cray XK7, 18.688 CPUs AMD Opteron 6274 (16 núcleos, 2,20 GHz) + 18.688 Nvidia Tesla K20 GPGPUs, 693,5 TB de RAM 8.209 kW Cálculos físicos
Sequóia Laboratório Nacional Lawrence Livermore ( Califórnia , EUA ) 17.173,20 IBM BlueGene / Q, 98.304 processadores Power BQC (16 núcleos, 1,60 GHz), 1,6 PB de RAM 7.890 kW Simulação de testes de armas nucleares
Computador K Instituto Avançado de Ciência da Computação ( Japão ) 10.510,00 88.128 processadores SPARC64 -VIII de 8 núcleos (2,00 GHz), 1.377 TB de RAM 12.660 kW Cálculos químicos e físicos
Mira Laboratório Nacional de Argonne ( Illinois , EUA ) 8.586,6 IBM BlueGene / Q, 49.152 processadores Power BQC (16 núcleos, 1,60 GHz) 3.945 kW Desenvolvimento de novas fontes de energia, tecnologias e materiais, bioinformática
JUQUEEN Centro de Pesquisa Jülich ( Alemanha ) 5.008,9 IBM BlueGene / Q, 28.672 processadores Power BQC (16 núcleos, 1,60 GHz), 448 TB de RAM 2.301 kW Ciência dos materiais, química teórica, física de partículas elementares, meio ambiente, astrofísica
Fase 1 - Cray XC30 Centro Europeu de Previsões Meteorológicas de Médio Prazo ( Reading , Inglaterra ) 3.593,00 7.010 Intel E5-2697v2 "Ivy Bridge" (12 núcleos, 2,7 GHz)
SuperMUC IBM Leibniz Computing Center (LRZ) ( Garching perto de Munique , Alemanha ) 2.897,00 18.432 CPUs Xeon E5-2680 (8 núcleos, 2,7 GHz) + 820 CPUs Xeon E7-4870 (10 núcleos, 2,4 GHz), 340 TB de RAM 3.423 kW Cosmologia sobre a formação do universo, previsão de sismologia / terremoto e muito mais.
Debandada Texas Advanced Computing Center ( Texas , EUA ) 5.168,10 CPUs Xeon E5-2680 (8 núcleos, 2,7 GHz) + CPUs Xeon E7-4870, 185 TB de RAM 4.510 kW Química e física, biológica (por exemplo, análise da estrutura da proteína), geológica (por exemplo, previsão de terremotos), cálculos médicos (por exemplo, crescimento do câncer)
Tianhe-1A Centro Nacional de Supercomputador ( Tianjin , República Popular da China ) 2.266,00 14.336 CPUs Intel Xeon X5670 de 6 núcleos (2,93 GHz) + 7.168 GPGPUs Nvidia Tesla M2050 , 224 TB de RAM 4.040 kW Cálculos químicos e físicos (por exemplo, estudos de petróleo e desenvolvimento de aeronaves)
Nebulosas amanhecendo Centro Nacional de Supercomputação ( Shenzhen , República Popular da China ) 1.271,00 Sistema híbrido de 55.680 processadores Intel Xeon (2,66 GHz) + 64.960 Nvidia Tesla GPGPU (1,15 GHz), 224 TB de RAM 2.580 kW Meteorologia, finanças e outros
IBM Roadrunner Laboratório Nacional de Los Alamos ( Novo México , EUA ) 1.105,00 6.000 processadores AMD dual-core (3,2 GHz), 13.000 processadores IBM Cell (1,8 GHz), 103 TB de RAM 4.040 kW Simulações físicas (por exemplo, simulações de armas nucleares)
N. n. Universidade de Bielefeld ( Alemanha ) 529,70 Nvidia Tesla M2075-GPGPUs 208x + GPUs Nvidia GTX-580-GPUs 192x + CPUs Intel Xeon 5600 dual quad-core 152x, 9.1 TB de RAM Faculdade de Física: Simulações numéricas, cálculos físicos
SGI Altix NASA ( EUA ) 487,00 51.200 Xeon de 4 núcleos, 3 GHz, 274,5 TB de RAM 3.897 kW Exploração espacial
BlueGene / L Laboratório Nacional Lawrence Livermore Livermore ( EUA ) 478,20 212.992 processadores PowerPC 440 700 MHz, 73.728 GB de RAM 924 kW Simulações físicas
Blue Gene Watson IBM Thomas J. Watson Research Center ( EUA ) 91,29 40.960 processadores PowerPC 440, 10.240 GB de RAM 448 kW Departamento de pesquisa da IBM, mas também aplicativos de ciência e negócios
ASC Roxo Laboratório Nacional Lawrence Livermore Livermore ( EUA ) 75,76 12.208 Power5 CPUs, 48.832 GB RAM 7.500 kW Simulações físicas (por exemplo, simulações de armas nucleares)
MareNostrum Universitat Politècnica de Catalunya ( Espanha ) 63,8 10.240 PowerPC 970MP 2,3 GHz, 20,4 TB de RAM 1.015 kW Pesquisa climática e genética, farmácia
Columbia NASA Ames Research Center ( Silicon Valley , Califórnia , EUA ) 51,87 Processadores 10.160 Intel Itanium 2 (Madison core), 9 TB de RAM Modelagem climática, simulações astrofísicas

Supercomputadores atuais selecionados (em toda a Alemanha)

Sobrenome Localização Tera FLOPS (pico) configuração TB RAM Requisitos de energia propósito
Falcão Centro de computação de alto desempenho em Stuttgart ( Alemanha ) 26.000,00 11.264 AMD EPYC 7742 (64 núcleos, 2,25 GHz), 1,44 PB RAM 1440 3.500 kW Aplicações científicas e comerciais
JÓIAS centro de pesquisa julich 9.891,07 2511 nós com 4 Intel Xeon Platinum 8168 dual cada (com 24 núcleos cada, 2,70 GHz), 64 nós com 6 Intel Xeon Gold 6148 dual cada (com 20 núcleos cada, 2,40 GHz) 258 1.361 kW
JUQUEEN Centro de Pesquisa Jülich ( Alemanha ) 5.900,00 IBM BlueGene / Q, 28.672 processadores Power BQC (16 núcleos, 1,60 GHz) 448 2.301 kW Ciência dos materiais, química teórica, física de partículas elementares, meio ambiente, astrofísica
SuperMUC IBM Leibniz Computing Center (LRZ) ( Garching perto de Munique , Alemanha ) 2.897,00 18.432 CPUs Xeon E5-2680 (8 núcleos, 2,7 GHz), CPUs 820 Xeon E7-4870 (10 núcleos, 2,4 GHz) 340 3.423 kW Cosmologia sobre a formação do universo, sismologia e previsão de terremotos
HLRN-III (Cray XC40) Zuse Institute Berlin , data center regional da Baixa Saxônia 2.685,60 42.624 núcleos Intel Xeon Haswell @ 2,5 GHz e IvyBridge @ 2,4 GHz 222 500 - 1.000 kW Física, química, pesquisa ambiental e marinha, engenharia
HRSK-II Centro de Serviços de Informação e Computação de Alto Desempenho , TU Dresden 1.600,00 43.866 núcleos de CPU, CPUs Intel Haswell EP (Xeon E5 2680v3), 216 GPUs Nvidia Tesla 130 Aplicações científicas
HLRE-3 "Mistral" Centro Alemão de Computação Climática Hamburgo 1.400,00 1.550 nós com 2 CPUs Intel Haswell EP (Xeon E5-2680v3) (12 núcleos 2,5 GHz), 1.750 nós com 2 CPUs Intel Broadwell EP (Xeon E5-2695V4) (18 núcleos 2,1 GHz), 100.000 núcleos, disco rígido 54 PB Luster sistema, 21 nós de visualização (2 GPUs Nvidia Tesla K80) ou (2 Nvidia GeForce GTX 9xx) 120 Modelagem climática
Cray XC40 Serviço meteorológico alemão (Offenbach) 1.100,00 Rede Cray Aries; 1.952 CPUs Intel Xeon E5-2680v3 / E5-2695v4 122 407 kW Previsão numérica do tempo e simulações climáticas
Computador de alto desempenho Lichtenberg Universidade de Tecnologia de Darmstadt 951,34 Fase 1: 704 nós com 2 Intel Xeon (8 núcleos), 4 nós com 8 Intel Xeon (8 núcleos), 70 nós com 2 Intel Xeon.

Fase 2: 596 nós com 2 Intel Xeon (12 núcleos), 4 nós com 4 Intel Xeon (15 núcleos), 32 nós com 2 Intel Xeon.

76 Aplicações científicas
CARL e EDDY Universidade Carl von Ossietzky de Oldenburg 457,2 Lenovo NeXtScale nx360M5, 12.960 núcleos (Intel Xeon E5-2650v4 12C 2.2 GHz), Infiniband FDR 80 180 kW Química teórica, pesquisa de energia eólica, física teórica, neurociência e pesquisa auditiva, pesquisa marinha, biodiversidade e ciência da computação
Mogon Johannes Gutenberg University Mainz 283,90 33.792 Opteron 6272 84 467 kW Ciências naturais, física, matemática, biologia, medicina
OCuLUS Paderborn Center for Parallel Computing , University of Paderborn 200,00 614 nós dual Intel E5-2670 (9856 núcleos) e 64 GB de RAM 45 Engenharia, ciências naturais
HLRE 2 Centro Alemão de Computação Climática Hamburgo 144,00 8064 CPUs IBM Power6 Dual Core, disco de 6 petabytes 20o Modelagem climática
MPI 2 complexo RWTH Aachen 103,60 176 nós com um total de 1.408 processadores Intel Xeon 2,3 GHz 8 núcleos 22º Aplicações científicas
HPC-FF centro de pesquisa julich 101,00 Processadores 2160 Intel Core i7 (Nehalem-EP) 4 núcleos, 2,93 GHz 24 Pesquisa de fusão europeia
HLRB II LRZ Garching 56,52 9.728 CPUs 1.6 GHz Intel Itanium 2 (Montecito Dual Core) 39 Ciências naturais, astrofísica e pesquisa de materiais
ClusterVision HPC Universidade Tecnológica Bergakademie Freiburg 22,61 1728 núcleos Intel Xeon X5670 (2,93 GHz) + 280 núcleos AMD Opteron 6276, (2,3 GHz) 0,5 Engenharia, química quântica, mecânica dos fluidos, geofísica
Cluster CHiC ( IBM x3455 ) Universidade de Tecnologia de Chemnitz 8,21 2152 núcleos de 1076 dual core de 64 bits AMD Opteron 2218 (2,6 GHz) Modelagem e simulações numéricas

Supercomputadores atuais selecionados (DACH excluindo Alemanha)

Os 3 computadores mais rápidos da Suíça e da Áustria. Dados da lista Top500 2017 entradas Pos. 3, 82, 265, 330, 346, 385. Não há nenhum de Liechtenstein na lista dos 500 supercomputadores mais rápidos do mundo. (Em junho de 2017)

Sobrenome Localização Tera FLOPS (pico) configuração TB RAM Requisitos de energia propósito
Piz Daint (atualização 2016/2017, a partir de junho de 2017) Swiss National Supercomputing Center (CSCS) ( Suíça ) 19.590,00 Cray XC50, Xeon E5-2690v3 12C 2,6 GHz, interconexão Aries, NVIDIA Tesla P100, Cray Inc. (361.760 núcleos) 2.272 kW
Piz Daint Multicore (em junho de 2017) Swiss National Supercomputing Center (CSCS) ( Suíça ) 1.410,70 Cray XC40, Xeon E5-2695v4 18C 2,1 GHz, interconexão Aries, Cray Inc. (44.928 núcleos) 519 kW
EPFL Blue Brain IV (em junho de 2017) Swiss National Supercomputing Center (CSCS) ( Suíça ) 715,60 BlueGene / Q, Power BQC 16C 1.600 GHz, Interconexão personalizada; IBM (65.536 núcleos) 329 kW
VSC-3 (em junho de 2017) Vienna Scientific Cluster ( Viena , Áustria ) 596,00 Servidor blade de óleo, Intel Xeon E5-2650v2 8C 2,6 GHz, Intel TrueScale Infiniband; ClusterVision (32.768 núcleos) 450 kW
Cluster Platform DL360 (em junho de 2017) Empresa de hospedagem ( Áustria ) 572,60 Plataforma de cluster DL360, Xeon E5-2673v4 20C 2,3 GHz, 10G Ethernet; HPE (26.880 núcleos) 529 kW
Cluster Platform DL360 (em junho de 2017) Empresa de hospedagem ( Áustria ) 527,20 Plataforma de cluster DL360, Xeon E5-2673v3 12C 2,4 GHz, Ethernet 10G; HPE (20.352 núcleos) 678 kW

O mais rápido de seu tempo na história

A tabela a seguir (em junho de 2017) lista alguns dos supercomputadores mais rápidos de seu tempo:

ano Supercomputadores Velocidade máxima
até 1959 em operações por segundo (OPS) a
partir de 1960 em FLOPS
localização
1906 Babbage Analytical Engine, Mill 0,3 RW Munro , Woodford Green , Essex , Inglaterra
1928 IBM 301 1,7 diferentes lugares em todo o mundo
1931 Guia IBM Columbia Difference 2,5 Universidade Columbia
1940 Zuse Z2 3,0 Berlim , Alemanha
1941 Zuse Z3 5,3 Berlim , Alemanha
1942 Computador Atanasoff-Berry (ABC) 30,0 Iowa State University , Ames (Iowa) , EUA
TRE Heath Robinson 200,0 Bletchley Park , Milton Keynes , Inglaterra
1.000,0 corresponde a 1 quilo OPS
1943 Colosso de flores 5.000,0 Bletchley Park , Milton Keynes , Inglaterra
1946 UPenn ENIAC
(antes das modificações de 1948+)
50.000,0 Aberdeen Proving Ground , Maryland , EUA
1954 IBM NORC 67.000,0 Campo de Provas Naval dos EUA , Dahlgren , Virgínia , EUA
1956 COM TX-0 83.000,0 Massachusetts Inst. Of Technology , Lexington , Massachusetts , EUA
1958 IBM SAGE 400.000,0 25 bases da Força Aérea dos EUA nos EUA e um local no Canadá (52 computadores)
1960 UNIVAC LARC 500.000,0 Laboratório Nacional Lawrence Livermore , Califórnia, EUA
1.000.000,0 corresponde a 1 MFLOPS, 1 Mega-FLOPS
1961 IBM 7030 "Stretch" 1.200.000,0 Laboratório Nacional de Los Alamos , Novo México , EUA
1964 CDC 6600 3.000.000,0 Laboratório Nacional Lawrence Livermore , Califórnia, EUA
1969 CDC 7600 36.000.000,0
1974 CDC STAR-100 100.000.000,0
1975 Burroughs ILLIAC IV 150.000.000,0 NASA Ames Research Center , Califórnia, EUA
1976 Cray-1 250.000.000,0 Laboratório Nacional de Los Alamos , Novo México, EUA (mais de 80 vendidos em todo o mundo)
1981 CDC Cyber ​​205 400.000.000,0 diferentes lugares em todo o mundo
1983 Cray X-MP / 4 941.000.000,0 Laboratório Nacional de Los Alamos ; Laboratório Nacional Lawrence Livermore ; Battelle ; Boeing
1.000.000.000,0 corresponde a 1 GFLOPS, 1 Giga-FLOPS
1984 M-13 2.400.000.000,0 Instituto de Pesquisa Científica de Complexos de Computadores , Moscou, URSS
1985 Cray-2 /8 3.900.000.000,0 Laboratório Nacional Lawrence Livermore , Califórnia, EUA
1989 ETA10 -G / 8 10.300.000.000,0 Florida State University , Flórida , EUA
1990 NEC SX-3 / 44R 23.200.000.000,0 Fábrica NEC Fuchu, Fuchū , Japão
1993 Thinking Machines CM -5/1024 65.500.000.000,0 Laboratório Nacional de Los Alamos ; Agencia de Segurança Nacional
Fujitsu Numerical Wind Tunnel 124.500.000.000,0 Laboratório Aeroespacial Nacional , Tóquio , Japão
Intel Paragon XP / S 140 143.400.000.000,0 Sandia National Laboratories , Novo México, EUA
1994 Fujitsu Numerical Wind Tunnel 170.400.000.000,0 Laboratório Aeroespacial Nacional , Tóquio, Japão
1996 Hitachi SR2201 / 1024 220.400.000.000,0 Universidade de Tóquio , Japão
1996 Hitachi / Tsukuba CP-PACS / 2048 368.200.000.000.0 Centro de Física Computacional , Universidade de Tsukuba , Tsukuba , Japão
1.000.000.000.000,0 corresponde a 1 TFLOPS, 1 Tera-FLOPS
1997 Intel ASCI Red / 9152 1.338.000.000.000,0 Sandia National Laboratories, Novo México, EUA
1999 Intel ASCI Red / 9632 2.379.600.000.000,0
2000 IBM ASCI White 7.226.000.000.000,0 Laboratório Nacional Lawrence Livermore , Califórnia, EUA
2002 Simulador de Terra NEC 35.860.000.000.000,0 Earth Simulator Center , Yokohama- shi, Japão
2004 SGI Project Columbia 42.700.000.000.000,0 Projeto Columbia, NASA Advanced Supercomputing Facility , EUA
IBM BlueGene / L 70.720.000.000.000,0 Departamento de Energia dos EUA / IBM, EUA
2005 IBM BlueGene / L 136.800.000.000.000,0 Departamento de Energia dos EUA / Administração Nacional de Segurança Nuclear dos EUA ,
Laboratório Nacional Lawrence Livermore , Califórnia, EUA
1.000.000.000.000.000,0 corresponde a 1 PFLOPS, 1 Peta-FLOPS
2008 IBM Roadrunner 1.105.000.000.000.000,0 Departamento de Energia dos EUA / Administração Nacional de Segurança Nuclear dos EUA ,
Laboratório Nacional de Los Alamos
2010 Tianhe-1A 2.507.000.000.000.000,0 Centro Nacional de Supercomputador em Tianjin , China
2011 Computador K 10.510.000.000.000.000,0 Instituto Avançado de Ciência da Computação, Japão
2012 Sequóia 16.324.750.000.000.000,0 Laboratório Nacional Lawrence Livermore , Califórnia, EUA
2012 titânio 17.590.000.000.000.000,0 Laboratório Nacional de Oak Ridge , Tennessee , EUA
2013 Tianhe-2 33.863.000.000.000.000,0 Centro Nacional de Supercomputador em Guangzhou , China
2016 Sunway TaihuLight 93.000.000.000.000.000,0 Centro Nacional de Supercomputação, Wuxi , China
2018 Cume 200.000.000.000.000.000,0 Laboratório Nacional de Oak Ridge , Tennessee , EUA
1.000.000.000.000.000.000,0 corresponde a 1 EFLOPS, 1 Exa-FLOPS
futuro Tianhe-3 1.000.000.000.000.000.000,0 China, National Center for Supercomputers - Início da construção em fevereiro de 2017, conclusão do protótipo anunciada para o início de 2018
Fronteira 1.500.000.000.000.000.000,0 EUA, Oak Ridge National Laboratory (ORNL) - Conclusão anunciada em 2021
o capitão 2.000.000.000.000.000.000,0 EUA, Laboratório Nacional Lawrence Livermore (LLNL) do DOE - conclusão de 2023 anunciada

Se você plotar os FLOPs dos computadores mais rápidos de seu tempo em relação ao tempo, obterá uma curva exponencial, logarítmica quase uma linha reta, conforme mostrado no gráfico a seguir.

Gráfico da velocidade de computação de supercomputadores, logarítmico, com uma curva de Moore aproximada (a partir de 2016)

Desenvolvimento futuro de supercomputadores

Estados Unidos

Com uma ordem executiva , o presidente dos Estados Unidos, Barack Obama, ordenou que as autoridades federais dos Estados Unidos avancem no desenvolvimento de um supercomputador ExaFlops . Em 2018, espera-se que o supercomputador Aurora da Intel tenha um poder de processamento de 180 PetaFlops . O DOE planeja configurar seu primeiro supercomputador exascale em 2021 e colocá-lo em operação nove meses depois.

China

A China quer desenvolver um supercomputador com velocidade na faixa dos exaflops até 2020. O protótipo do "Tianhe-3" deve estar pronto no início de 2018, informou o "China Daily" em 20 de fevereiro de 2017. Em maio de 2018 foi apresentado.

Europa

Em 2011, inúmeros projetos foram iniciados na UE com o objetivo de desenvolver software para supercomputadores exascale. O projeto CRESTA (Pesquisa Colaborativa em Systemware, Ferramentas e Aplicativos Exascale), o projeto DEEP (Plataforma Dinâmica de Entrada ExaScale) e o projeto Mont-Blanc. Outro projeto importante é o MaX (Materiais da Exascale). O projeto SERT teve início em março de 2015 com a participação da Universidade de Manchester e do STFC de Cheshire .

Consulte também: Computação europeia de alto desempenho .

Japão

No Japão, em 2013, a RIKEN começou a planejar um sistema exascale para 2020 com um consumo de energia inferior a 30 MW. Em 2014, a Fujitsu foi contratada para desenvolver a próxima geração do computador K. Em 2015, a Fujitsu anunciou na Conferência Internacional de Supercomputação que este supercomputador usaria processadores da arquitetura ARMv8 .

Outros serviços

Milestones

  • 1997: Deep Blue 2 (computador de alto desempenho da IBM) é o primeiro computador a vencer um campeão mundial de xadrez em um duelo oficial.
  • 2002: Yasumasa Canadá determina o número do círculo Pi com um Hitachi SR8000 da Universidade de Tóquio com uma precisão de 1,24 trilhão de dígitos.
  • 2007: O processador de desktop Core 2 Quad Q6600 da Intel atinge aproximadamente 38,40 GFLOPS e está, portanto, no nível de supercomputador do início dos anos 1990.
  • 2014: o processador de GPU Tesla K80 da NVIDIA atinge um desempenho de cerca de 8,7 TeraFLOPS, que é o nível de supercomputador do início dos anos 2000. Vence assim o supercomputador do ano 2000, o IBM ASCI White, que na época oferecia um desempenho de 7.226 TeraFLOPS.
  • 2020: Xbox Series X atinge um desempenho de 12 TFLOPS.

Comparações

  • Os mais de 500.000 computadores ativos da Berkeley Open Infrastructure for Network Computing (BOINC para abreviar) fornecem atualmente (em janeiro de 2020) um pico de potência de computação de aproximadamente 26 PetaFLOPS, que pode flutuar dependendo do dia.
  • Os mais de 380.000 computadores ativos do projeto Folding @ home forneceram um poder de computação de mais de 1 ExaFLOP em março de 2020. Isso faz do Sistema Distribuído - Voluntário o primeiro sistema computacional a atingir um exaFLOPS. O sistema simulou o dobramento de proteínas para pesquisa em COVID-19 e atingiu uma velocidade de aproximadamente 2,43 x86-ExaFLOPS em 13 de abril - várias vezes mais rápido do que o detentor do recorde anterior, Supercomputer Summit .
  • O Earth Simulator pode fazer todos os cálculos de todos os computadores em todo o mundo de 1960 a 1970 em cerca de 35 minutos.
  • Se cada uma das aproximadamente 7 bilhões de pessoas no mundo concluísse um cálculo a cada segundo com uma calculadora sem qualquer interrupção, toda a raça humana teria que trabalhar 538 anos para fazer o que o Tianhe-2 poderia fazer em uma hora.
  • Com seu desempenho, o computador K podia “contar” os metros de um ano-luz em cerca de um segundo.
  • Hans Moravec calculou o poder de computação do cérebro em 100 teraflops , Raymond Kurzweil em 10.000 teraflops. Os supercomputadores já excederam significativamente esse poder de computação. Para efeito de comparação, uma placa gráfica de 800 euros (11/2020) tem um desempenho de cerca de 30 teraflops. (veja singularidade tecnológica )

Correladores em comparação

Correladores são dispositivos especiais em interferometria de rádio cujo desempenho também pode ser medido em unidades de FLOPs. Eles não se enquadram na categoria de supercomputadores porque são computadores especializados que não podem resolver todo tipo de problema.

literatura

  • Werner Gans: Supercomputação: Registros; Inovação; Perspectiva . Ed.: Christoph Pöppe (=  Scientific / Dossier . No. 2 ). Spectrum-der-Wissenschaft-Verl.-Ges., Heidelberg 2007, ISBN 978-3-938639-52-8 .
  • Shlomi Dolev: Supercomputação óptica . Springer, Berlin 2008, ISBN 3-540-85672-2 .
  • William J. Kaufmann, et al.: Supercomputing and the transform of science . Scientific American Lib., New York 1993, ISBN 0-7167-5038-4 .
  • Paul B. Schneck: Arquitetura de supercomputador . Kluwer, Boston 1987, ISBN 0-89838-238-6 .
  • Aad J. van der Steen: Avaliando supercomputadores - estratégias para explorar, avaliar e comparar computadores com arquiteturas avançadas . Chapman e Hall, Londres 1990, ISBN 0-412-37860-4 .

Links da web

Wikcionário: Supercomputador  - explicações de significados, origens de palavras, sinônimos, traduções
Commons : Supercomputadores  - coleção de fotos, vídeos e arquivos de áudio

Evidência individual

  1. Mario Golling, Michael Kretzschmar: Desenvolvimento de uma arquitetura para contabilidade em organizações virtuais dinâmicas . ISBN 978-3-7357-8767-5 .
  2. Martin Kleppmann: Projetando aplicativos com uso intensivo de dados: conceitos para sistemas confiáveis, escaláveis ​​e sustentáveis . O'Reilly, ISBN 978-3-96010-183-3 .
  3. Usando o exemplo do SuperMUC : supercomputadores e controle de exportação. Informações sobre colaborações científicas internacionais. (PDF; 293 kB) BMBF , acessado em 14 de junho de 2018 .
  4. a b Estatísticas da lista
  5. China defende posição superior orf.at, 19 de junho de 2017, acessado em 19 de junho de 2017.
  6. The Green 500 Lista ( Memento do originais de 26 de agosto de 2016 na Internet Archive ) Info: O arquivo de ligação foi inserido automaticamente e ainda não foi marcada. Verifique o link original e o arquivo de acordo com as instruções e, em seguida, remova este aviso. @ 1@ 2Modelo: Webachiv / IABot / www.green500.org
  7. Maior fornecedor da Lenovo, Top500 Computer Business Wire 26/06/2018
  8. ↑ Os EUA têm novamente o supercomputador mais poderoso orf.at, 24 de junho de 2018, acessado em 24 de junho de 2018.
  9. Jack Dongarra : Relatório de viagem para China e Supercomputador Tianhe-2, 3 de junho de 2013 (PDF; 8,2 MB)
  10. a b http://www.hlrs.de/systems/hpe-apollo-9000-hawk/
  11. a b https://www.uni-stuttgart.de/en/university/news/press-release/Hawk-Supercomputer-Inaugurated/
  12. asc.llnl.gov ASC Sequoia
  13. a b JUQUEEN Research Centre Jülich
  14. supercomputadores. ECMWF , 2013, acessado em 14 de junho de 2018 .
  15. a b Supercomputadores: os EUA recuperam a posição superior . Heise Online, 18 de junho de 2012
  16. Sistema SuperMUC Petascale . lrz.de
  17. Dados técnicos
  18. Referência do projeto sysGen (PDF; 291 kB) Universidade de Bielefeld, Faculdade de Física
  19. JUWELS - Configuração. Forschungszentrum Jülich , acessado em 28 de junho de 2018 .
  20. LRZ: SuperMUC No. 4 na lista Top500
  21. HLRN
  22. Andreas Stiller: Supercomputador da TU Dresden entra oficialmente em operação. In: Heise online . 13 de março de 2015, acessado em 14 de junho de 2018 .
  23. Andreas Stiller: Novo computador petaflops na TU Dresden. In: c't . 29 de maio de 2015, acessado em 14 de junho de 2018 .
  24. HLRE-3 "Mistral". DKRZ , acessado em 14 de junho de 2018 .
  25. a b História do computador na DKRZ. DKRZ , acessado em 14 de junho de 2018 .
  26. Computador de alto desempenho Lichtenberg. HHLR, acessado em 4 de agosto de 2016 .
  27. Sistemas HPC na Universidade de Oldenburg
  28. ↑ Os computadores da universidade de Oldenburg estão entre os mais rápidos do mundo
  29. OCuLUS
  30. ClusterVision HPC ( Memento de 23 de fevereiro de 2015 no Internet Archive )
  31. CHIC ( Memento do originais de 9 de Fevereiro de 2007, na Internet Archive ) Info: O arquivo de ligação foi inserido automaticamente e ainda não foi marcada. Verifique o link original e o arquivo de acordo com as instruções e, em seguida, remova este aviso. @ 1@ 2Modelo: Webachiv / IABot / www.tu-chemnitz.de
  32. IBM 301 Accounting Machine
  33. ^ The Columbia Difference tabulator - 1931
  34. Andreas Stiller: Supercomputador: A China ultrapassa os EUA. In: Heise online . 20 de junho de 2016. Recuperado em 14 de junho de 2018 .
  35. ORNL lança supercomputador Summit. Oak Ridge National Laboratory , 8 de junho de 2018, acessado em 14 de junho de 2018 .
  36. a b China começou a construir um novo supercomputador orf.at, 20 de fevereiro de 2017, acessado em 20 de fevereiro de 2017.
  37. Marc Sauter: Frontier with 1.5 exaflops: AMD constrói os supercomputadores mais rápidos do mundo. In: golem.de. 7 de maio de 2019, acessado em 16 de julho de 2019 .
  38. HPE e AMD alimentam a descoberta científica do complexo no supercomputador mais rápido do mundo para a Administração de Segurança Nuclear Nacional (NNSA) do Departamento de Energia dos EUA (DOE). 4 de março de 2020, acessado em 6 de março de 2020 .
  39. A Casa Branca: CRIANDO UMA COMPUTAÇÃO ESTRATÉGICA NACIONAL Acessado em janeiro de 2017
  40. golem.de: Como a marca Exaflop deve ser quebrada. Acesso : janeiro de 2017
  41. Supercomputador Aurora . top500.org. 2016. Recuperado em 13 de janeiro de 2017.
  42. ^ Primeiro supercomputador Exascale dos EUA agora a caminho para 2021 . top500.org. 10 de dezembro de 2016. Recuperado em 13 de janeiro de 2017.
  43. China Research: Exascale Supercomputer. Recuperado em janeiro de 2017
  44. http://german.xinhuanet.com/2018-05/18/c_137187901.htm
  45. ^ A Europa se prepara para o Exascale Software Challenge com o projeto 8.3M Euro CRESTA . Consórcio de projetos. 14 de novembro de 2011. Recuperado em 10 de dezembro de 2011.
  46. Booster para Supercomputadores de Próxima Geração Kick-off para o projeto exascale europeu DEEP . FZ Jülich. 15 de novembro de 2011. Recuperado em 13 de janeiro de 2017.
  47. Supercomputador com turbocompressor . FZ Jülich. 5 de novembro de 2016. Recuperado em 13 de janeiro de 2017.
  48. Projeto Mont-Blanc define objetivos Exascale . Consórcio do projeto. 31 de outubro de 2011. Recuperado em 10 de dezembro de 2011.
  49. Site da MaX . consórcio do projeto. 25 de novembro de 2016. Recuperado em 25 de novembro de 2016.
  50. ^ Desenvolvendo o software de simulação para combater as questões as maiores da humanidade . Computação Científica. 25 de fevereiro de 2015. Recuperado em 8 de abril de 2015.
  51. ^ Patrick Thibodeau: Por que os EUA podem perder a corrida para a exascale . In: Computerworld . 22 de novembro de 2013.
  52. RIKEN seleciona o empreiteiro para o projeto básico do supercomputador pós-K . Em: www.aics.riken.jp . 1 ° de outubro de 2014.
  53. ↑ A Fujitsu escolhe o ARM de 64 bits para o monstro 1,000-PFLOPS super do Japão . Em: www.theregister.co.uk . 20 de junho de 2016.
  54. intel.com
  55. Michael Günsch: Tesla K80: Kepler duplo com até 8,7 TFLOPS para supercomputadores. In: ComputerBase . 17 de novembro de 2014, acessado em 14 de junho de 2018 .
  56. XBOX SERIES X. In: Microsoft . 2021, acessado em 16 de maio de 2021 .
  57. Visão geral do host em boincstats.com
  58. Visão geral dos serviços BOINC em boincstats.com
  59. Relatório de estatísticas do Folding @ home. Acessado em 26 de março de 2020 .
  60. Folding @ home: Graças à nossa comunidade INCRÍVEL, cruzamos a barreira exaFLOP! Isso é mais de 1.000.000.000.000.000.000 de operações por segundo, tornando-nos ~ 10x mais rápidos do que o IBM Summit! Pic.twitter.com/mPMnb4xdH3. In: @foldingathome. 25 de março de 2020, acessado em 26 de março de 2020 .
  61. Folding @ Home destrói a barreira exascale, agora mais rápida do que dezenas de supercomputadores - ExtremeTech . Em: www.extremetech.com . Recuperado em 13 de maio de 2020. 
  62. ↑ O projeto de computação crowdsourced Folding @ home ultrapassa 1 milhão de downloads em meio à pesquisa de coronavírus . In: VentureBeat , 31 de março de 2020. Acessado em 13 de maio de 2020. 
  63. A pandemia de coronavírus transformou o Folding @ Home em um supercomputador exaFLOP (en-us) . In: Ars Technica , 14 de abril de 2020. Acessado em 13 de maio de 2020. 
  64. CERN lança 10.000 núcleos de CPU no projeto de simulação de coronavírus Folding @ home (en) . In: ZDNet . Recuperado em 13 de maio de 2020. 
  65. Potência suficiente para jogos em 4K. Recuperado em 6 de novembro de 2020 .
  66. Supercomputador poderoso transforma o ALMA em um telescópio
  67. ↑ O maior supercomputador do mundo compara dados de astronomia . Heise online
  68. a b Correladores cruzados e novos correlacionadores - Implementação e escolha de arquitetura . (PDF; 9,4 MB) Observatório Nacional de Radioastronomia, p. 27
  69. ^ O Projeto Expanded Very Large Array - O Correlator 'WIDAR' . (PDF; 13,2 MB) Observatório Nacional de Radioastronomia, p. 10