inglés

The Problem with Supercomputing Although supercomputers provide an unparalleled level of computational horsepower for solving challenging problems across a wide spectrum of fields—from scientific inquiry, engineering design, and financial analysis to national defense and disaster prediction—such horsepower usually comes at the expense of enormous power consumption, not only to run the supercomputer but also to cool it. This, in turn, results in extremely large electricity bills and reduced system reliability.1,2 Accordingly, the HEC research community started exploring green supercomputing as a way to achieve autonomic energy and power savings with little to no impact on performance. However, the notion of green supercomputing is still viewed as an oxymoron: a supercomputer summons up images of speed, a Formula One race car of computing, whereas green or energy-efficiency computing evokes images of the more practical Toyota Prius. For decades, the supercomputing community has focused on performance and occasionally price/performance, where performance is defined as speed. Examples include the TOP500 list of the world’s fastest supercomputers (www. top500.org), which calculates the speed metric as floating-point operations per second (flops), and the annual Gordon Bell Awards for Performance and Price/Performance at the Supercomputing Conference (www.sc-conference. org). As with computers in general, supercomputers’ raw speed has increased tremendously over the past decade—for instance, the top system’s speed on the TOP500 list has grown from 59.7 Gflops in 1993 to 280.6 Tflops in 2007, roughly a 4,690-fold speedup. We can attribute such huge performance jumps to increases in three different dimensions: the number of transistors per processor, each processor’s operating frequency, and the system’s number of processors. Over the 1993 to 2007 period, we’ve observed more than a 100-fold increase along each of these dimensions. However, this focus on performance, as defined by speed, has let other evaluation metrics go unchecked. As we mentioned earlier, supercomputers consume a huge amount of electrical power and generate a tremendous amount of heat. Consequently, keeping a large-scale supercomputer reliably functioning requires continuous cooling in a large machine room, resulting in substantial operating costs. As a current rule of thumb, 1 megawatt (MW) of power consumed by a supercomputer today typically requires another 0.7 MW of cooling to offset the heat generated—and each megawatt of electric power costs approximately US$1 million per year. The Japanese Earth Simulator, for example, ranked as the top supercomputer on the TOP500 list from 2002 to 2004, consumed 12 MW of power, resulting in US$10 million per year in operating costs just for powering and cooling. Moreover, when supercomputing nodes consume and dissipate more power, they must be spaced out and aggressively cooled; otherwise, the system temperature rapidly increases and results in a higher system failure rate. According to Arrhenius’ equation as applied to computer hardware, every 10°C increase in temperature results in a doubling of the system failure rate. Several sets of informal empirical data indirectly support this equation—for example, a 128-node Beowulf supercomputing cluster that resided in a warehouse at Los Alamos National Laboratory failed once per week during the winter months when the temperature inside the warehouse hovered at 21- to 23°C; the same cluster failed twice per week when the temperature reached 30 to 32°C. The lesson learned is that by keeping the power draw lower, we can lower a supercomputer’s system temperature, thus improving system reliability, which, in turn, contributes to better availability and productivity.

español

El problema con la supercomputación Si bien las supercomputadoras proporcionan un nivel sin paralelo de potencia computacional para resolver problemas difíciles en un amplio espectro de campos, desde la investigación científica, el diseño de ingeniería y el análisis financiero hasta la defensa nacional y la predicción de desastres, tal potencia generalmente se produce a expensas de un enorme consumo de energía, no solo para ejecutar la supercomputadora pero también para enfriarla. Esto, a su vez, da como resultado facturas de electricidad extremadamente elevadas y una menor confiabilidad del sistema.1,2 En consecuencia, la comunidad de investigación de HEC comenzó a explorar la supercomputación verde como una forma de lograr energía autónoma y ahorros de energía con poco o ningún impacto en el rendimiento. Sin embargo, la noción de supercomputación verde todavía se considera un oxímoron: una supercomputadora reúne imágenes de velocidad, un coche de carreras de Fórmula Uno de computación, mientras que la computación ecológica o de eficiencia energética evoca imágenes del Toyota Prius más práctico. Durante décadas, la comunidad de supercomputación se ha centrado en el rendimiento y, en ocasiones, en el precio / rendimiento, donde el rendimiento se define como la velocidad. Los ejemplos incluyen la lista TOP500 de las supercomputadoras más rápidas del mundo (www.top500.org), que calcula la métrica de velocidad como operaciones de punto flotante por segundo (fracasos), y los premios anuales Gordon Bell Awards por rendimiento y precio / rendimiento en la conferencia de supercomputación (www.sc-conference. org).Al igual que con las computadoras en general, la velocidad bruta de las supercomputadoras ha aumentado enormemente en la última década; por ejemplo, la velocidad máxima del sistema en la lista de las TOP500 ha aumentado de 59.7 Gflops en 1993 a 280.6 Tflops en 2007, aproximadamente una aceleración de 4.690 veces. Podemos atribuir los enormes saltos de rendimiento a los aumentos en tres dimensiones diferentes: la cantidad de transistores por procesador, la frecuencia de operación de cada procesador y la cantidad de procesadores del sistema. Durante el período de 1993 a 2007, hemos observado un aumento de más de 100 veces en cada una de estas dimensiones. Sin embargo, este enfoque en el rendimiento, según lo definido por la velocidad, ha dejado sin verificar otras métricas de evaluación. Como mencionamos anteriormente, los supercomputadores consumen una gran cantidad de energía eléctrica y generan una tremenda cantidad de calor. En consecuencia, mantener el funcionamiento fiable de una supercomputadora a gran escala requiere un enfriamiento continuo en una sala de máquinas grande, lo que genera costos operativos sustanciales. Como regla general actual, 1 megavatio (MW) de energía consumida hoy por una supercomputadora generalmente requiere otros 0,7 MW de refrigeración para compensar el calor generado, y cada megavatio de energía eléctrica cuesta aproximadamente US $ 1 millón por año.El simulador japonés de la Tierra, por ejemplo, se clasificó como la mejor supercomputadora en la lista TOP500 de 2002 a En 2004, consumió 12 MW de energía, lo que resultó en US $ 10 millones por año en costos operativos solo para energía y refrigeración. Además, cuando los nodos de supercomputación consumen y disipan más energía, deben espaciarse y enfriarse agresivamente; de lo contrario, la temperatura del sistema aumenta rápidamente y da como resultado una mayor tasa de fallos del sistema. De acuerdo con la ecuación de Arrhenius aplicada al hardware de la computadora, cada aumento de 10 ° C en la temperatura hace que se duplique la tasa de fallas del sistema. Varios conjuntos de datos empíricos informales apoyan indirectamente esta ecuación; por ejemplo, un grupo de supercomputación de Beowulf de 128 nodos que residía en un almacén en el Laboratorio Nacional de Los Alamos falló una vez por semana durante los meses de invierno cuando la temperatura en el interior del almacén era de 21 a 23 ° C; el mismo grupo falló dos veces por semana cuando la temperatura alcanzó los 30 a 32 ° C. La lección aprendida es que al mantener un consumo de energía más bajo, podemos reducir la temperatura del sistema de una supercomputadora, mejorando así la confiabilidad del sistema, lo que, a su vez, contribuye a una mejor disponibilidad y productividad.

Traductor.com.ar | ¿Cómo utilizo la traducción de texto inglés-español?

Asegúrese de cumplir con las reglas de redacción y el idioma de los textos que traducirá. Una de las cosas importantes que los usuarios deben tener en cuenta cuando usan el sistema de diccionario Traductor.com.ar es que las palabras y textos utilizados al traducir se guardan en la base de datos y se comparten con otros usuarios en el contenido del sitio web. Por esta razón, le pedimos que preste atención a este tema en el proceso de traducción. Si no desea que sus traducciones se publiquen en el contenido del sitio web, póngase en contacto con →"Contacto" por correo electrónico. Tan pronto como los textos relevantes serán eliminados del contenido del sitio web.


Política de Privacidad

Los proveedores, incluido Google, utilizan cookies para mostrar anuncios relevantes ateniéndose las visitas anteriores de un usuario a su sitio web o a otros sitios web. El uso de cookies de publicidad permite a Google y a sus socios mostrar anuncios basados en las visitas realizadas por los usuarios a sus sitios web o a otros sitios web de Internet. Los usuarios pueden inhabilitar la publicidad personalizada. Para ello, deberán acceder a Preferencias de anuncios. (También puede explicarles que, si no desean que otros proveedores utilicen las cookies para la publicidad personalizada, deberán acceder a www.aboutads.info.)

Traductor.com.ar
Cambiar pais

La forma más fácil y práctica de traducir texto en línea es con traductor inglés español. Copyright © 2018-2022 | Traductor.com.ar