Glossar

Wer nicht neugierig ist, erfährt nichts.

Johann Wolfgang von Goethe

Sie sind Ingenieur und können mit der IT-Sprache nichts anfangen? Sie sind neu hier und fragen sich, wofür die Abkürzungen stehen? Sie arbeiten bereits seit Jahren am Desktop und simulieren jeden Tag die schönsten Fälle, wissen jedoch immer noch nicht, was CAE as a Service sein soll? Dann haben wir mit unserem Glossar evtl. die passende Antwort für Sie. Sie vermissen hier bestimmte Begriffe? Dann helfen Sie uns und senden Ihre Vorschläge an !

A

Abaqus

Abaqus ist ein Software-Paket zur Lösung von Problemstellungen aus der Festkörperstatik, -dynamik, Wärmetransfer, CFD und Elektromagnetik.

ANSYS

ANSYS CFX

Die Software ANSYS CFX ist ein universelles Software-Programm, das seit über 20 Jahren von Ingenieuren zur Lösung von strömungsdynamischen Problemen genutzt wird.

ANSYS Fluent

ANSYS Fluent ist ein CFD-Software-Tool um Strömungen, Turbulenzen, Wärmeübertragung und Reaktionen für industrielle Zwecke zu modellieren.

ANSYS Mechanical

ANSYS Mechanical ist ein FEA-Software-Tool für die Durchführung von Stresstests, u.a. aus den Bereichen der thermalen, modalen und nichtlinearen Spannungen sowie der Materialermüdung.

ANSYS Workbench

Die ANSYS Workbench dient als zentrale Simulationsumgebung und vereinfacht die Eingabe von Berechnungsproblemen.

B

Bare-Metal-Server

Bare-metal ist unsere favorisierte Art der Ressourcenbereitstellung. Dabei erhält jeder Kunde von CPU 24/7 seine auf ihn zugeschnittene Simulationsumgebung mit Zugriff auf ausschließlich physikalisch dedizierte Server. Zugunsten der Sicherheit, Performance und Flexibilität und um kundenspezifische adäquate Anpassungen umzusetzen, setzen wir keine Virtualisierungen ein. Daten irgendwo im Nirgendwo gibt es bei uns nicht!

Broadwell

Broadwell ist der Codename einer Prozessor-Mikroarchitektur des Chipherstellers Intel, die als Nachfolger der Intel-Haswell-Mikroarchitektur im 4. Quartal 2014 veröffentlicht wurde. Anders als Haswell, das auf dem 22-nm-Verfahren basierte, beruht Broadwell auf einem 14-nm-Verfahren. Vorteile sind u.a. ein um 5% besserer IPC (Instructions per Cycle) und eine bessere Kühlung.

C

Computer Aided Design (CAD)

CAD bezeichnet das Konstruieren eines Produkts mittels EDV. Ursprünglich wurde mit CAD die Verwendung eines Computers als Hilfsmittel beim technischen Zeichnen definiert. Heute sind professionelle CAD-Anwendungen komplexe Expertensysteme für den Entwurf und die Konstruktion technischer Lösungen. Inzwischen ist in fast allen CAD-Anwendungen die dritte Dimension (3D) hinzugekommen. Damit bezeichnet CAD auch die Bildung eines virtuellen Modells dreidimensionaler Objekte mit Hilfe eines Computers.

Computer Aided Engineering (CAE)

CAE umfasst alle computer-basierten Arbeitsprozesse, die im Ingenieurwesen genutzt werden. Dazu zählt unter anderem die Teilgebiete CAD, elektromagnetische Simulationen (FEM, FDTD, FIT), Kinematik- und Starrkörpersimulationen, Mehrkörpersimulation (MKS), Mechanische Beanspruchung von Bauteilen und Baugruppen (FEM), Strömungssimulationen mit Computational Fluid Dynamics (CFD) und Thermische Simulationen (FEM und CFD). Im Allgemeinen gibt es drei Phasen:

  • Pre-processing - Modell und Umweltfaktoren definieren;
  • Solver - Lösen der Modelle;
  • Post-processing - Visualisierung und Optimierung der Ergebnisse

CAE as a Service (CAEaaS)

https://www.cpu-24-7.de/cae/cae-as-a-service/

Cluster Computing

Cluster Computing ist eine Form des Verteilten Rechnens, bei der ein virtueller Supercomputer aus einem Cluster lose gekoppelter Computer zusammengesetzt wird. Um die geforderte Rechenleistung zu erreichen, werden einzelne Server zusammengeschaltet. Cluster Computing wird in Bereichen eingesetzt, in denen Hochleistungs-Rechenpower benötigt wird, um rechenintensive Probleme zu lösen. Dazu zählen verschiedene Themenfelder des Computer Aided Engineering (CAE).

Die einzelnen Cluster-Computer werden durch einen zentralen Head-Node (Kopfknoten) gesteuert und mit neuen Rechenaufgaben versorgt. Auf den Cluster-Computern übernimmt eine Software das Lösen einer Teilaufgabe, die danach wieder an den Head-Node zurück geliefert wird. Der Head-Node benutzt Software, die eine große Aufgabe in eine Anzahl von Teilaufgaben für alle Knoten im Cluster aufspalten kann und die Teilergebnisse nach der Berechnung wieder zusammenfügt. So wird aus vielen Einzelkomponenten ein Hochleistungs-Computersystem, wobei die Rechenpower durch ein symmetrisches Multiprozessorsystem (SMP) nachhaltig gestärkt wird.

CD-adapco

CD-adapco ist ein internationales Unternehmen im Bereich Simulation mit einer einzigartigen Vision für Multidisciplinary Design eXploration (MDX). Unterschiedliche Simulationswerkzeuge, die unter dem Hauptprodukt STAR-CCM+® laufen, erlauben es den Kunden, bessere Designs schneller zu entwickeln. CD-adapco gehört zu Siemens.

Computational Fluid Dynamics (CFD)

CFD ist eine etablierte Methode der Strömungsmechanik. Sie hat das Ziel, strömungsmechanische Probleme approximativ mit numerischen Methoden zu lösen. Die numerische Strömungsmechanik bietet dann eine kostengünstige Alternative zu Versuchen im Windkanal oder Wasserkanal.

COMSOL

COMSOL wurde 1986 in Stockholm, Schweden, gegründet. Heute bietet COMSOL seine Simulationssoftware für Produktdesign und Forschung über ein weltweites Netz an Niederlassungen und Distributionspartnern an. Kernprodukte sind Softwareumgebungen zur Modellierung und Simulation jeglicher physikalischer Prozesse und für Konstruktionsanwendungen. Die Software ist im gesamten Produktentwicklungszyklus einsetzbar.

Cores vs. CPUs vs. Nodes

Als Cores werden die einzelnen Prozessorkerne auf einer CPU bezeichnet. Jeder Core hat weitestgehend eigene Ressourcen (u.a. Level 1- und Level 2-Caches) und ist logisch unabhängig von den anderen Cores. Daher kann jeder Core getrennt von den anderen arbeiten und z.B. Simulationsberechnungen durchführen. Normalerweise kann ein Core immer einen Prozess (ohne Performanceverlust) Takt für Takt bearbeiten.

Die CPU ist der eigentliche Prozessor-Baustein („Chip“). In unseren Compute-Nodes sind immer zwei CPUs vorhanden und werden daher auf Dual-Socket-Mainboards zum Einsatz gebracht. Die CPU stellt den einzelnen Cores unter anderem den Level 3 (L3)-Cache bereit, mit dem die Daten ausgetauscht werden können.

Ein Node oder Knoten ist der eigentliche „Rechner“ bzw. Server, der hauptsächlich durch das Mainboard (Hauptplatine) definiert wird. Eine Node hat bei CPU 24/7 immer zwei CPUs mit je 6 bis 14 Cores also insgesamt 12 - 28 Cores.

CPU-Socket

Das Socket ist eine Hardwarekomponente, die auf dem System-Motherboard sitzt. Sie ist der Steckplatz für den Prozessor, der die CPU enthält und ermöglicht den elektrischen Kontakt zur CPU.

D

Dassault Systems

Dassault Systems ist ein globales Softwareentwicklungsunternehmen mit Hauptsitz in Frankreich, das auf 3D- sowie PLM-Softwarelösungen spezialisiert ist.

Datentransfer

Im Kundengespräch wird oft nach den Möglichkeiten des Datentransfers gefragt. Zunächst einmal müssen und wollen wir klarstellen: der Datentransfer zwischen Ihrem Endgerät und unseren Ressourcen findet immer und zu jeder Zeit authentifiziert und verschlüsselt statt, ohne Ausnahme, von Anfang bis Ende! Zur Übertragung werden renommierte Standardprotokolle wie Secure Shell (SSH) bzw. Secure CoPy (SCP) oder Secure File Transfer Protocol (FTPS) eingesetzt.

Der Vorteil von SSH besteht darin, dass das Protokoll auch für den Cluster-Zugriff via Terminal genutzt werden kann. Bezogen auf die Performance des Datentransfers erreichen wir eine Übertragungsgeschwindigkeit von bis zu 10 Gbit/s durch schnelle symmetrische Datenleitungen. Bitte bedenken Sie auch: testen Sie die Übertragungsgeschwindigkeit kostenlos, gerade um Probleme mit der „letzten Meile“ von vornherein auszuschließen. Im Einzelfall können auch verschlüsselte Festplatten verschickt werden.

Digital Prototyping

Digital Prototyping bezeichnet die Prototypenentwicklung mit Hilfe von virtuellen 3D-Computermodellen und Simulationen.

E

E5-2600

CPU 24/7 setzt auf die aktuellsten Intel Xeon E5-2600 Prozessor-Serien. Im Gegensatz zu anderen Prozessoren wie z.B. AMD Opteron bietet diese CPU-Serie mit ihrer hohen Core-Zahl bei 3,0 GHz (E5-2690 v2) eine Top-Level Performance bei einer gleichzeitig sehr guten Energieeffizienz.

Ethernet

Ethernet beinhaltet Protokolle und Hardware für die Kommunikation im Cluster. Im Gegensatz zum InfiniBand weist Ethernet eine wesentlich schlechtere Latenz auf. Mittlerweile sind mit Ethernet auch Bandbreiten von 100 Gbit/s möglich.

F

Finite Element Analysis (FEA)

Die Finite Element Analysis ist eine numerische Lösungsmethode, um zu ermitteln, wie ein Objekt auf verschiedene physikalische Gegebenheiten reagiert.

Finite-Elemente-Methode (FEM)

Die Finite-Elemente-Methode (FEM), auch „Methode der finiten Elemente“ genannt, ist eine weit verbreitete numerische Lösungsmethode im Bereich wissenschaftlich technischer Aufgabenstellungen. Mit der FEM können physikalische Vorgänge (beispielsweise Kraftwirkungen auf deformierbare Festkörper) simuliert werden, deren Verlauf sich nicht oder nur sehr aufwendig mit anderen Mitteln bestimmen lässt. Der Festkörper mit beliebiger Form wird in endlich viele Teilkörper einfacher Form – die „finiten Elemente“ – aufgeteilt, deren physikalisches Verhalten aufgrund ihrer einfachen Geometrie mit bekannten Ansatzfunktionen gut berechnet werden kann.

Die Ansatzfunktionen enthalten Parameter, die in der Regel eine physikalische Bedeutung besitzen, wie z. B. die Verschiebung eines bestimmten Punkts im Bauteil zu einem bestimmten Zeitpunkt. Die Suche nach der Bewegungsfunktion ist auf diese Weise auf die Suche nach den Werten der Parametern der Funktionen zurückgeführt. In dem immer mehr Parameter (z. B. immer mehr, kleinere Elemente) oder immer höherwertigere Ansatzfunktionen benutzt werden, kann die Genauigkeit der Näherungslösung verbessert werden.

Flops

Theoretische Flops geben die Spitzenleistung eines einzelnen Rechenknotens eines HPC-Clusters an. Sie sind ein Maß für die Performance eines Servers und geben die Gleitkomma-Operationen pro Sekunde an. Entscheidend dabei sind Gleitkomma-Operationen pro Sekunde pro Core. Ein kleiner Tipp: Wenn Sie Kosten auf Projektbasis vergleichen wollen, ziehen Sie als Kennzahl die TFlops pro Stunde heran. Der Preis pro TFlop pro Stunde stellt die Leistungsfähigkeit der Server den Kosten gegenüber.

Fluid Mechanics (Strömungsmechanik)

Die Strömungsmechanik, Fluidmechanik oder Strömungslehre ist die Wissenschaft vom physikalischen Verhalten von Fluiden. Die in der Strömungsmechanik gewonnenen Kenntnisse sind Gesetzmäßigkeiten in Strömungsvorgängen und dienen der Lösung von Strömungsproblemen in der Auslegung von durch- bzw. umströmten Bauteilen sowie der Überwachung von Strömungen.

Angewendet wird sie im Maschinenbau, Chemieingenieurwesen, der Wasser- und Energiewirtschaft, Meteorologie, Astrophysik oder der Medizin. Ihre Grundlagen findet sie in der Kontinuumsmechanik und Thermodynamik, also der klassischen Physik. Gegenstand der Strömungsmechanik sind die Bewegungen von Fluiden, ruhenden, fließenden oder strömenden Medien. Die Suche nach Gesetzmäßigkeiten von Bewegungen und Lösungen für Strömungsprobleme bedient sich verschiedener Methoden, u.a. durch Numerische Methoden.

FTP

FTP ist ein zustandsbehaftetes Netzwerkprotokoll zur Übertragung von Dateien über IP-Netzwerke.

FTPS

FTPS ist eine Erweiterung des allgemein genutzten File Transfer Protokolls (FTP), das die Verschlüsselungsprotokolle Transport Layer Security (TLS) und der Secure Socket Layer (SSL) unterstützt.

G

Graphics Processing Unit (GPU)

Eine GPU ist ein Grafik-Prozessor, der auf grafische Berechnungen und Kalkulationen spezialisiert ist.

General Purpose Computation on Graphics Processing Unit (GPGPU)

GPGPU ist eine Programmier-Schnittstelle mit der Berechnungen, wie sie bspw. bei numerischen Simulationen vorkommen, vom Grafikprozessor (GPU) auf der Grafikkarte ausgeführt werden können. GPUs besitzen eine massiv parallele Architektur, d.h. tausende von Kernen werden insbesondere für SIMD-Operationen (Single-Instruction Multiple-Data) genutzt. Viele Teilschritte einer CAE-Simulation verwenden wiederum SIMD-Operationen, z.B. wenn lineare Gleichungssysteme gelöst werden müssen.

Durch die Auslagerung solcher Schritte auf GPUs können erhebliche Leistungssteigerungen erzielt werden. Eine aktuelle NVIDIA Tesla GPU K40 kann beispielsweise eine Spitzenleistung von 1,43 TFlops (doppelte Genauigkeit) bzw. 4,29 TFlops (einfache Genauigkeit) erzielen. Während ein einzelner CPU-Kern immer schneller als ein GPU-Kern ist, sorgt die deutlich höhere Anzahl an GPU-Kernen für die zusätzliche Beschleunigung der Laufzeit. Eine NVIDIA Tesla GPU K40 besitzt vergleichsweise insgesamt 2880 Kerne

Diese Performance-Steigerung wird besonders deutlich, wenn die Werte für die theoretische Leistung einer CPU mit denen einer GPU verglichen werden: eine Intel Xeon E-2690 v2 CPU verfügt über 0,024 TFlops pro Core, während eine NVIDIA Tesla K40 GPU mit 1,43 TFlops eine 60-fache Leistungsfähigkeit besitzt.

Grid Computing

Bei sehr resourcenintensiven numerischen Berechnungen kommt es oft vor, dass die eigenen Kapazitäten schnell erschöpft sind. Unter Grid Computing versteht man die zusätzliche Nutzung von verteilten Rechenressourcen, die gebündelt in einem Netzwerk einen Supercomputer sozusagen ersetzen. Je nach Bedarf können also Rechenleistungen und Speicherkapazitäten aus anderen Ressourcen über das Internet oder unter Errichtung einer VPN bezogen werden.

H

Haswell

Haswell ist eine Intel Prozessor Mikroarchitektur aus dem Jahr 2013, die auf 22nm Die Shrink basiert und der Vorgänger der aktuellen Broadwell-Architektur ist.

Heat Transfer (Wärmeübertragung)

Wärmetransfer hat eine breite Anwendung in der Funktionalität von zahlreichen Geräten und Systemen. Die Prinzipien der Wärmeübertragung werden dazu verwendet, um Temperaturen in verschiedensten Situationen zu bewahren, zu erhöhen oder zu senken. Die Methoden der Wärmeübertragung werden außerdem in zahlreichen Fachrichtungen, wie Automotive Engineering, Wärmemanagement von elektronischen Geräten und Systemen, Klima-Kontrolle, Isolierung, Materialbearbeitung und Kraftwerksbau genutzt.

High Performance Computing (HPC)

Hochleistungsrechnen bezeichnet das computer-gestützte Rechnen durch eine auf parallele Verarbeitung ausgerichtete Architektur von Hochleistungsrechnern ab einer Leistung von ungefähr einem TFlop. Hochleistungsrechnen ist vor allem im kommerziellen und wissenschaftlichen Rechnen zunehmend von Bedeutung als Hilfsmittel zur Berechnung, Modellierung und Simulation komplexer Systeme und zur Verarbeitung riesiger Messdatenmengen.

Typische Anwendungsbereiche sind etwa alle Themenfelder im CAE wie Crashtestsimulation, Strömungssimulation, oder auch in Meteorologie und Klimatologie, Astro- und Teilchenphysik, Systembiologie, Genetik und Quantenchemie.

HPC-Cluster

HPC-Cluster im CPU 24/7-Hochsicherheitsrechenzentrum bestehen in der Regel aus einem oder mehreren Kopfknoten (Head-Nodes) und mehreren Rechenknoten (Compute-Nodes), die je nach Anwendung und Notwendigkeit beliebig skalierbar sind.

Der Kopfknoten ist ein Server im HPC-Cluster, auf dem mit Hilfe einer Software die einzelnen Berechnungen auf die Compute-Nodes (Link) verteilt werden. Kopfknoten können auch als Zugangsrechner bezeichnet werden, da sie in der Regel für die Remote-Visualisierung genutzt werden.

Die Rechenknoten sind Server im HPC-Cluster mit leistungsstarken CPUs, auf denen letztendlich die Berechnungen oder Jobs ausgeführt werden. Sie besitzen weiterhin einen umfangreichen Speicher und sind über ein performantes InfiniBand-Netzwerk mit anderen Nodes verbunden.

Den Head- und Compute-Nodes vorgeschaltet sind ein oder mehrere Security Access Gateways und adaptive Firewall Appliances, wie z.B. VPN. Ein performantes paralleles File-System mit Data Tiering, mehreren Replikationsstufen und einer nativen InfiniBand-Verbindung bildet die Basis des HPC-Clusters. Management-Units bestehend aus wahlweise Lizenz-Server, GPU-Server oder Queuing System u.v.m. komplettieren den HPC-Cluster.

Bitte beachten Sie: CPU 24/7-Lösungen liegen keiner geteilten Infrastruktur zu Grunde und die Nutzung der Systeme ist ausschließlich für den jeweiligen Kunden bestimmt. Die Kunden und ihre Daten werden durch komplett separate Systeme isoliert. Sie haben individuelle Anforderungsbausteine? Kein Problem! Wir stellen das Grundgerüst, Sie geben uns die Details vor.

HPC On Demand

HPC On Demand ist eine Möglichkeit für Unternehmen temporär auf situativ skalierbare Simulationslösungen, die absolut bedarfsgerecht als Burst Capacities für die Zeit eines CAE-Projektes aktiviert und intensiv genutzt werden können, zurückzugreifen. Die Anschaffung vergleichsweise kostenintensiver Hardware und spezifischer Software-Lösungen ist auf Anwenderseite mit hohen Investitionen verbunden. Sie bindet Kapital, Know-how und Arbeitskraft außerhalb der Kernkompetenzen des eigentlichen Geschäftsfeldes von Unternehmen.

CPU 24/7 bietet eine Vielzahl von Lösungen zur Deckung des HPC On Demand-Bedarfs – einfach, sicher, schnell verfügbar und perfekt auf Ihre Anforderungen zugeschnitten. Remote und on-demand, ganz gleich ob für Ingenieurbüros oder Großkunden.

I

InfiniBand

InfiniBand ist eine Spezifikation zur Beschreibung einer seriellen Übertragungstechnologie von Mellanox für Datennetzwerke in HPC-Clustern. CPU 24/7 nutzt für die Berechnung Ihrer numerischen Simulationen besonders performante InfiniBand-Verbindungen. Zu den aktuellen Übertragungsprotokollen zählen der QDR- und der FDR-Standard. Mit diesen Standards sind Übertragungsraten von 40 Gbit/s bzw. 56 Gbit/s möglich. In der Zwischenzeit gibt es bereits EDR (Enhanced Data Rate) mit 100 Gbit/s und in 2017 sollen es laut Experten 200 Gbit/s sein.

Vergleicht man 1 Gbit/s Ethernet mit EDR InfiniBand, dann bedeutet das einhundert Mal mehr Bandbreite. Selbst mit einer schnelleren 10 Gbit/s Ethernet-Lösung, ist die Bandbreite immerhin 10-mal höher. Was die Latenz betrifft, so ermöglicht es InfiniBand, den Anwendungen innerhalb von weniger als einer Mikrosekunde zu kommunizieren, im Gegensatz zum Ethernet, bei dem es dutzende, wenn nicht hunderte von Mikrosekunden sind. Wenn man von einer Ethernet-Lösung mit 10 Gbit/s ausgeht, bietet InfiniBand einen mindestens zehnfachen Vorteil in Sachen Bandbreite und Latenzzeit.

Intel® Cluster Ready

Dabei handelt es sich um ein Zertifizierungsprogramm, das verwendet wird, um Cluster-Systeme und Anwendungen besser aufeinander abzustimmen. Das Intel® Cluster Ready Zertifikat garantiert Ihnen, dass all unsere Cluster-Komponenten einwandfrei und hochperformant zusammenarbeiten. Unsere HPC-Cluster sind Intel® Cluster Ready zertifiziert.

J

Job-Scheduler

Ein Job-Scheduler ermöglicht, Berechnungen in eine Warteschlange, auch Queue genannt, zu schicken, so dass diese automatisch starten, sobald die benötigten Ressourcen frei werden. Dies kann besonders sinnvoll sein, wenn Berechnungen nachts oder außerhalb der regulären Geschäftszeiten ausgeführt werden. Das Job-Scheduling ist auch dann nützlich, wenn viele Nutzer gleichzeitig auf dem Cluster arbeiten, die vorhandenen Ressourcen jedoch nicht ausreichen, um alle Jobs parallel auszuführen.

Queuing-Systeme werden bei CPU 24/7 ausschließlich kundenspezifisch eingesetzt. Lange Warteschlagen und das Konkurrieren um eine Priorisierung der abzuarbeitenden Jobs gibt es nicht.

K

Key-User

Ein Key-User ist ein Cluster-Nutzer mit gesonderten Berechtigungen. Diese werden im Vorfeld der Nutzung detailliert festgelegt. Die zweckgebundene Einschränkung der Nutzerrechte spielt im Rahmen unserer System Security Policies eine wichtige Rolle.

L

Lizenzen

Was nutzt die beste Rechenleistung, wenn die Anwendungen nicht genutzt werden können? Der dynamische Aspekt an HPC Cloud Computing macht es notwendig, flexiblere, zeitabhängige Lizenzen für die User bereitzustellen. Gerade für kleine und mittelständische Unternehmen, deren Workload stark fluktuiert und Jahreslizenzen kaum lohnenswert sind, bieten On-Demand-Modelle eine gute Alternative.

Um Ihnen die optimale Funktion zwischen Hard- und Software zu gewährleisten, übernehmen wir das komplette Lizenzmanagement – angefangen von der Beratung, Beschaffung, Integration bis hin zum Support inklusive der Durchführung von Updates und Upgrades. Zudem stehen Ihnen OpenSourceProdukte wie OpenFOAM und zahlreiche kommerzielle Software-Produkte von z.B. ANSYS, CD-adapco, NUMECA, COMSOL u.v.m. zur Verfügung.

Vorgefertigte Workflows und intensive Partnerschaften stellen sicher, dass wir die gewünschte Lizenz nicht nur zeitnah beschaffen und integrieren können, sondern dass wir auch kontinuierlich richtungsweisende Impulse zur Flexibilisierung der Lizenzmodelle geben können. Gern installieren wir Ihren In-House-Code auf dem für Sie maßgeschneiderten HPC-Cluster.

LS-DYNA

Das FEM-Berechnungsprogramm LS-DYNA ermöglicht die Simulation und Untersuchung hochgradig nichtlinearer physikalischer Vorgänge am Computer.

M

Mellanox Technologies

Mellanox Technologies (NASDAQ: MLNX) ist Marktführer in der Entwicklung von Hochleistungsnetzwerken (InfiniBand und Ethernet).

Message Passing Interface (MPI)

MPI ist ein Standard für den Nachrichtenaustausch beim parallelen Rechnen auf verteilten Rechnern, bei dem es stets die höchste Portierbarkeit und Performance sicherzustellen gilt. CPU 24/7 nutzt dazu verschiedene Implementationen wie u.a. OpenMP, IntelMPI. Diese können je nach Anwendungsfall unterschiedliche Auswirkungen auf die Performance der Cluster haben. Wir kennen diese Auswirkungen wie unsere eigene Westentasche und können sie entsprechend steuern und optimieren, z.B. mit entsprechenden Software-Paketen oder Beschleunigungs-Engines.

Multiphysics

Multiphysics betrachtet Simulationen, die diverse physikalische Modelle oder mehrere gleichzeitig ablaufende physikalische Effekte enthalten. Zum Beispiel eine Kombination aus chemischer Kinetik und Strömungsmechanik oder eine Kombination der Finiten Elemente und der Molekulardynamik. Multiphysics umfasst typischerweise die Lösung von gekoppelten Systemen partieller Differentialgleichungen.

Viele physikalische Systeme enthalten gekoppelte Systeme, wie elektrische und magnetische Felder in Elektromagnetismus, Druck und Geschwindigkeit für den Schall oder den Real- und Imaginärteil der quantenmechanischen Wellenfunktion. Ein weiteres Beispiel sind die Durchschnittsnäherungen für die elektronische Struktur von Atomen, bei denen das elektrische Feld sowie die Wellenfunktionen in das Modell einfließen.

N

Network File System (NFS)

Über das NFS können mehrere Nodes auf ein gemeinsames Dateisystem zugreifen. Dazu exportiert ein NFS-Server ein Verzeichnis seines lokalen Storage, das von mehreren NFS-Clients eingebunden („gemounted“) wird. Der Zugriff erfolgt so als wäre das Verzeichnis lokal auf dem Client eingebunden. Der Nachteil: jede Datei liegt hier nur einmal auf dem NFS-Server (= single Storage-Node) und je mehr Knoten zugreifen, desto mehr leidet die Performance.

O

OpenMP

OpenMP (Open Multi-Processing) ist eine Programmierschnittstelle (API) für die Shared-Memory-Programmierung in C++, C und Fortran auf Multiprozessor-Computern. OpenMP parallelisiert Programme auf der Ebene von Schleifen, die in verschiedenen Threads ausgeführt werden, und unterscheidet sich dadurch von anderen Ansätzen (z. B. MPI), bei denen ganze Prozesse parallel laufen und durch Nachrichtenaustausch zusammenwirken.

Operating System (Betriebssystem)

Der Favorit für unsere HPC-Cluster ist ganz klar SuSE Linux Enterprise Server (SLES) 11. Es hat seine langjährige Stabilität und Zuverlässigkeit oft unter Beweis gestellt. Zudem wird dieses System – wie meist nur wenige – von einer Vielzahl der Software-Hersteller im HPC-Bereich als „Supported Platform“ bezeichnet. Eine reibungslose Zusammenarbeit mit den Anwendungen ist gewährleistet. Das recht frische SLES 12 wird derzeit intensiv erprobt und erst eingeführt, wenn es sich als ebenso robust herausstellt.

P

Paralleles File-System

Im Unterschied zum NFS können bei einem Parallelen File-System mehrere Knoten gleichzeitig und koordiniert auf die gleichen Daten zugreifen, welche über mehrere Storage-Nodes verteilt sind. Dadurch wird die Performance des gesamten Systems deutlich erhöht, insbesondere bei schreib- und leselastigen Zugriffen mit hohen Bandbreitenanforderungen, wie sie im HPC-Bereich üblich sind.

Petaflop

Ein petaFLOPS (PFLOPS) sind 1015 FLOPS.

Private Managed Cloud

Im Zeitalter rascher technologischer Entwicklungen haben Unternehmen die Vorteile der Flexibilisierung der eigenen IT-Infrastruktur erkannt. Die Auslagerung in eine Public Cloud ist aus Gründen des Datenschutzes und der Informationssicherheit für Unternehmen keine Option – angesichts der Sensibilität wettbewerbsentscheidender Daten ist das auch nicht verwunderlich. Daher sind Alternativen gefragt. Mit der Private Cloud stünde eine Alternative bereit, wären die Total Cost of Ownership nicht unverhältnismäßig hoch.

Ein Kompromiss ist die Private Managed Cloud. Rein technisch gesehen, sprechen wir von einer Cloud-Lösung, der also keine geteilte Infrastruktur zu Grunde liegt und deren Nutzung ausschließlich für den jeweiligen Kunden bestimmt ist, aber von einem Drittanbieter unter Berücksichtigung adäquater individueller Vereinbarungen gemanagt wird. Für unsere Kunden bedeutet dies in puncto Betrieb und Sicherheit, dass die Anbindung und Arbeit mit CPU 24/7 HPC-Ressourcen im Prinzip wie bei einem eigenen zusätzlichen Unternehmensstandort vonstattengeht.

Q

Queuing System

Queuing-Systeme sorgen dafür, dass Hardware- sowie Software-Ressourcen explizit einzelnen Jobs zugeordnet werden und der Workload optimal auf die Ressourcen verteilt wird. Wenn Sie mehrere Berechnungs-Jobs haben oder diese zu einem bestimmten Zeitpunkt starten wollen, stellen Sie diese Jobs in der Regel in die Warteschlage (Queue) des Job-Schedulers.

CPU 24/7 setzt Queuing-Systeme nur kundenspezifisch ein. Denn Vorsicht: einige andere Provider bieten gesonderte Konditionen für die Nutzung einer globalen, nicht exklusiv bereitgestellten Queue. Das ist dann der Fall, wenn sich mehrere Kunden gleichzeitig einen Rechner-Pool bzw. eine Infrastruktur teilen müssen. Unklar hierbei ist, wie eine Priorisierung der Jobs in der Warteschlange erfolgt, wann der Job startet bzw. was passiert, wenn er abbricht oder gar sicherheitskritische Vorfälle eintreten.

R

Remote-Visualisierung

Remote-Visualisierung ermöglicht Berechnungsingenieuren überhaupt erst qualifizierte Aussagen über die Ergebnisse zu treffen. Im „Big Data“-Zeitalter lassen sich Visualisierungen der Berechnungen und Simulationen am besten über eine Remote-Visualisierungs-Software, wie VNC, NoMachine NX oder NICE DCV, steuern.

Remote-Visualisierungen haben den enormen Vorteil, dass große Datenmengen nicht lokal gespeichert werden und keine Kapazitäten für Up- und Downloads zur Verfügung gestellt werden müssen. Stattdessen erfolgt ein Fernzugriff von einem lokalen Rechner auf einen entfernten Server. CPU 24/7 bietet Ihnen verschiedene OpenSource und kommerzielle Möglichkeiten zur Desktop-Visualisierung.

Rigid Body Simulation (Starrkörper-Simulation)

Die Starrkörpersimulation bezeichnet die Simulation der Bewegung modellierter räumlicher Objekte. Diese Bewegungen können sowohl translatorischer als auch rotatorischer Natur sein.

S

Sicherheit

Die CPU 24/7-HPC-Cluster sind durch folgende Sicherheitsmerkmale gekennzeichnet:

Rechenzentrumssicherheit

Die HPC-Cluster sind in einem ISO 27001-zertifizierten, auditierungsfähigem Hochsicherheitsrechenzentrum in Berlin, Deutschland untergebracht. Die Ausstattung entspricht dem Level TIER 4 inklusive einer redundanten Infrastruktur, Zutrittskontrollen, Berechtigungskonzepten und Videoüberwachung.

Serversicherheit

Jeder CPU 24/7-Kunde erhält eine nicht-virtualisierte, individuelle Simulationsumgebung mit Zugang zu exklusiv bereitgestellten physischen Bare-Metal-Servern. CPU 24/7-Lösungen basieren nicht auf einer geteilten IT-Infrastruktur und somit ist die Nutzung der Ressourcen immer auf den spezifischen Kunden beschränkt.

Netzwerksicherheit

Die Kunden und ihre Daten werden durch komplett separate Systeme isoliert. Aus technischer Sicht entspricht die Anbindung und Arbeit mit CPU 24/7 HPC-Ressourcen einem eigenen, zusätzlichen Unternehmensstandort. Zur Kommunikation nutzen wir stets sichere und zuverlässige Verbindungen auf Industriestandardniveau, sowie Protokolle mit einer Grundverschlüsselung (z.B. SSH, SCP oder FTPS).

Applikations- und Plattformsicherheit

CPU 24/7 führt ein gut integriertes, effektives Patch- und Change-Management durch, um Betriebsstörungen zu verhindern und Sicherheitsschwachstellen zu minimieren. Mit Testsystemen stellt CPU 24/7 außerdem sicher, dass die Patches kompatibel sind, bevor sie in das Produktivsystem übernommen werden.

Datensicherheit

Die Daten werden ausschließlich in deutschen Hochsicherheitsrechenzentren nach dem Bundesdatenschutzgesetz und den Standards des Bundesamtes für Sicherheit und Informationstechnik (BSI) verarbeitet und gespeichert. Die Datenlöschung wird nach den allgemeinen Standards ausgeführt. Datenträger, die nicht mehr benutzt werden, werden ordnungsgemäß vernichtet.

Zusätzliche individuelle Vereinbarungen

Auf Anfrage können individuelle Verfügbarkeits- und Enterprise-Class-Security-Vereinbarungen sowie weit reichende Vertraulichkeitsvereinbarungen, SLA‘s oder Systemsicherheitsrichtlinien getroffen werden um zu 100% den Kundenanforderungen in punkto Sicherheit und Verfügbarkeit gerecht zu werden.

Secure Shell (SSH)

SSH ermöglicht eine sichere, authentifizierte und verschlüsselte Verbindung zwischen zwei Rechnern über ein unsicheres Netzwerk. Häufig wird diese Methode verwendet, um lokal eine entfernte Kommandozeile verfügbar zu machen, das heißt, auf einer lokalen Konsole werden der Output der entfernten Konsole ausgegeben und die lokalen Tastatureingaben werden an den entfernten Rechner gesendet. SSH kann auch zur Datenübertragung per SFTP genutzt werden.

STAR CCM+

STAR-CCM+ ist ein CFD-Programm der CD-adapco Group und eine Entwicklung mit objektorientierter, Client-Server Architektur. STAR-CCM+ bietet über eine grafischen Oberfläche eine vollständige Vernetzungs-, Modellierungs- und Visualisierungsumgebung.

Stationäre Berechnung

Eine stationäre Simulation ist eine Berechnung, bei der keine zeitliche Änderung des Geschehens berücksichtigt und ein fester Endzustand eines Objektes betrachtet wird. Dieser Begriff ist üblich für Simulationen von Temperatur- und Magnetfeldern. Die Energie des Bauteils besteht nur aus potentieller Energie. Von einem stationären Geschehen wird zum Beispiel auch gesprochen, wenn eine Schwingung in der Strukturmechanik vorliegt, die sich zeitlich nicht ändert.

T

Teraflop

Ein teraFLOPS (TFLOPS) sind 1012 FLOPS.

Thread

Ein Thread ist ein Ausführungsstrang, der in strikter Reihenfolge immer nur einen Arbeitsschritt ausführt, also sequentiell arbeitet. Threads werden durch die jeweilige Anwendungs-Software erzeugt und gesteuert. Prinzipiell können mehrere Threads einen Prozess bilden, diese werden aber innerhalb des Prozesses nacheinander oder alternierend abgearbeitet – somit entsteht kein Zeitvorteil. Da es im HPC-Bereich stets um die beste Performance geht, besteht ein Prozess meist nur aus einem Thread, der dann auf genau einem Core läuft.

TOP500. The list

TOP500. The list ist ein internationales Ranking für Supercomputer auf Basis der LINPACK-Benchmarks. Die TOP500-Tabelle zeigt somit die 500 leistungsstärksten Supercomputer der Welt.

Transiente Berechnung

Die Instationarität, technisch auch Transienz, steht für die Eigenschaft eines Parameters, im Zeitablauf keinem konstanten Wert zu folgen. In der Strukturmechanik wird dies auch als dynamische Simulation bezeichnet. Das Gegenteil sind stationäre Berechnungen.

Transiente Berechnungen haben ihre Bedeutung im Ingenieurwesen, besonders im Wasserbau, bei Strömungsberechnungen, bei Wärmetransportberechnungen, o.ä. numerischen Berechnungen, bei denen Objekte untersucht werden, deren Zustände sich im Verlauf der Zeit verändern.

Die zusätzlich differenzierte Betrachtung einer zeitlichen Komponente in einer instationären Berechnung erfordert eine höhere Rechenleistung, um letztendlich alle physikalischen Effekte innerhalb eines akzeptablen Zeitraums auflösen zu können. Tests im Automobilbereich haben gezeigt, dass transiente Berechnungen auf CPU 24/7 Ressourcen um den Faktor 5-6 schneller liefen im Vergleich zur Inhouse-Workstation.

U

User-Management

In unseren angepassten Cluster-Systemen wird zur Nutzerverwaltung meist NIS (Network Information Service) eingesetzt. Hier werden alle Benutzer-Accounts zentral verwaltet und stehen den einzelnen Nodes als Verzeichnis zu Verfügung. In CAE Express werden die Nutzer durch einen LDAP-Server (Lightweight Directory Access Protocol) verwaltet, der die Nutzer ausschließlich für die von ihnen gebuchten Nodes freigibt.

V

Virtual Network Computing (VNC)

Virtual Network Computing, kurz VNC, ist eine Software, die den Bildschirminhalt eines entfernten Rechners (Server) auf einem lokalen Rechner (Client) anzeigt und im Gegenzug Tastatur- und Mausbewegungen des lokalen Rechners an den entfernten Rechner sendet. VNC ist eine Lösung zur Remote Visualisierung.

Virtual Private Network (VPN)

Nur ein Beweis dafür, dass wir uns den Sicherheitsanforderungen unserer Kunden flexibel anpassen können: die Einrichtung eines VPN ist oftmals Grundvoraussetzung für das Zustandekommen eines Vertrages. Ein VPN ermöglicht es, in einem unsicheren Netz mit Hilfe der Nutzung von VPN-Gateways eine verschlüsselte Verbindung aufzubauen. Hierbei wird ein Site-to-Site-Tunnel erzeugt, der durch zwei fest installierte VPN-Firewalls an zwei Standorten begrenzt ist. Über diesen „Tunnel“ läuft der gesamte, für das entfernte Netz bestimmte Datenverkehr.

Eine andere Möglichkeit ist das Installieren einer VPN-Client-Software auf einem Rechner. Mit dieser wird ein Tunnel zum VPN-Gateway eines Standorts aufgebaut, durch den der Datenverkehr verschlüsselt läuft.

W

Wall-clock Time

Wall-clock Time oder Wall Time bezeichnet die tatsächliche Zeit, i.d.R. gemessen in Sekunden, die vom Start bis zum Fertigstellen einer Aufgabe vergeht, bzw., die ein Programm benötigt um einen bestimmten Job/Aufgabe auszuführen.

X

x86/x64-Architektur

Die Bezeichnung bezieht sich auf die Busbreite der CPU. CPUs mit 64 Bit Busbreite können einen deutlich größeren Adressraum (also mehr Speicher, theoretisch 264 GiB = 16 Milliarden GiB = 16 EiB (ExbiByte)) ansprechen. Darüber hinaus sind 64-Bit-CPUs deutlich schneller, da in einem Takt 64 statt nur 32 Bit transportiert werden können. Im HPC-Bereich sind keine 32-Bit-CPUs mehr zu finden.

Z

Zuse, Konrad

Konrad Zuse ist der „Godfather“ des ersten frei programmierbaren Rechners in binärer Schalttechnik und Gleitpunktrechnung. „Bisher war der Bürger durch die Trägheit der Bürokratie vor vielen Übergriffen des Bürokratismus geschützt. Jetzt kommt der Computer und macht das alles in Millisekunden, […]“. Heute sprechen wir wohl eher von Nanosekunden.