25 – 27 September 2023
Lugano, Schweiz
Workshop Overview
High-Performance-Computing spielt in unserem derzeitigen Energiegeschäft eine führende Rolle und wird für eine erfolgreiche Energiewende von entscheidender Bedeutung sein. In verschiedenen Branchen verfügt unser Unternehmen zweifellos über die größten Kapazitäten im Bereich des Hochleistungsrechnens. HPC hilft, die Produktivität zu steigern, Kosten zu senken und Risiken zu minimieren, indem riesige Datenmengen durch Hochleistungssimulationen und Datenanalysen besser genutzt werden. Algorithmen, die so schnell wie möglich auf der besten verfügbaren Hardware arbeiten, haben einen direkten Einfluss auf viele Entscheidungen, die unser Geschäft bestimmen.
Simulation und Modellierung sind unsere Schlüsselmechanismen, um Kohlenwasserstoffe genau zu lokalisieren, sie optimal zu fördern und bald auch zu dekarbonisieren. Die Abhängigkeit von Daten, um bessere Geschäftsentscheidungen zu geringeren Kosten zu treffen, wird immer wichtiger. Seismische Daten werden mit Hilfe traditioneller Bildgebungsalgorithmen wie Reverse Time Migration (RTM), Full Waveform Inversion (FWI) und elektromagnetischer (EM) Modellierung untersucht, um den verborgenen Untergrund der Erde zu erhellen, und Reservoirsimulationen werden verwendet, um Felder optimal zu erzeugen und die Entwicklung von Anlagen im Laufe der Zeit vorherzusagen. Both are highly compute-intensive activities, which push the leading edge of HPC storage, interconnect and calculation. Die Branche entwickelt sich an mehreren Fronten weiter. Veränderungen in der zugrundeliegenden Hardware mit dem Aufkommen von Co-Processing- oder Beschleunigertechnologien und Multi-Core-CPUs stellen die Praktiker vor die Herausforderung, neue Algorithmen zu entwickeln und alte zu portieren, um die maximale Leistung aus der modernen Hardware herauszuholen. Die Implementierung und Anwendung von Best Practices im Software-Engineering und Devops wird zum Schlüssel, um die Produktion zu unterstützen und gleichzeitig mit einer sich schnell verändernden Umgebung Schritt zu halten. Die explosionsartige Zunahme von Daten und die jüngsten rasanten Entwicklungen im Bereich des maschinellen Lernens (ML) führen zu unkonventionellen Methoden der Interpretation von seismischen und Lagerstättendaten. Das Aufkommen wesentlich schnellerer Reservoir-Simulationstechnologien bringt neuen Schwung in Arbeitsabläufe mit mehreren Auflösungen und Quantifizierung von Unsicherheiten.
Die Fähigkeit, diese Daten zu erstellen und auszuwerten, hängt von der optimalen Nutzung von Supercomputern ab. Dies ist das Ergebnis verschiedener Synergien zwischen Branchen, Unternehmen, Abteilungen und vor allem den Menschen. HPC-IT-Abteilungen (oder HPC-Cloud-Lösungsanbieter) konzentrieren sich darauf, die Durchlaufzeiten für verschiedene Arbeitslasten zu minimieren, aber auch darauf, verschiedene Rechenarchitekturen kosteneffizient einzusetzen und sich gleichzeitig an die schnellen Innovationen in der Halbleiterindustrie anzupassen. Forschungsgruppen und Softwareanwendungsteams in Wissenschaft und Industrie entwickeln neue Algorithmen und halten sich auf dem Laufenden, indem sie bestehende oder neue Produktions-Frameworks an die neuesten parallelen Programmiermodelle, Sprachen und Architekturen anpassen und optimieren. Der Workshop bringt Experten zusammen, um den Stand der Technik bei den wichtigsten Anwendungen in der vorgelagerten Industrie zu verstehen und zu erahnen, welche Ziele durch eine höhere Rechenleistung erreicht werden können.
Der dreitägige Workshop umfasst mündliche Präsentationen, Blitzvorträge, Podiumsdiskussionen und Keynotes von führenden Branchenexperten sowie zahlreiche in das Programm eingebettete Diskussionsrunden.