Projektmenu

Einleitung

Derzeitige CFD-Modelle sind mit steigender Genauigkeit schnell sehr rechenaufwändig, so dass detaillierte, langzeit Simulationen transienter Strömungen praktisch uninteressant sind. Derzeit liegen Simulationen für größere Mehrphasensysteme schnell bei mehreren Wochen Rechenzeit für lediglich Sekunden oder wenige Minuten Realzeit. In der letzten Förderperiode (2015-2019) wurde in Zusammenarbeit mit der Johannes-Keppler-Universität Linz eine neue datenbasierte Methode namens recurrence CFD (rCFD) eingeführt. Diese erlaubt passive oder schwach gekoppelte Prozesse auf hochdynamischen, wiederkehrenden Hintergründen mit einem hohen Maß an räumlichen Details zu beschreiben. In einfachen Testfällen erzeugte rCFD Beschleunigungen von ca zwei Größenordnungen.

Die Diskrete-Elemente-Methode (DEM) hat sich als nützliches Werkzeug etabliert, um granulare Strömungen auf mikromechanischer Ebene detailliert zu analysieren. Dieser Detailgrad bedingt allerdings auch einen essenziellen Nachteil der sich in einen signifikante Rechenaufwand manifestiert. Dieses inhärente Merkmal der DEM schränkt den maximal möglichen Zeitschritt jedes DEM Berechnungsintervalls stark ein. Jeder größere Zeitschritt würde die Gefahr bergen Partikelkontakte zu übersehen oder zu einer falschen Energiedissipation führen. In gewissem Maße hängt der kritische Zeitschritt vom Material der Partikel ab, liegt aber normalerweise im Bereich von Mikrosekunden oder, bei sehr steifen Materialien, sogar darunter. Typische Zeitskalen industrieller Prozesse reichen hingegen von mehreren Stunden bis zu Tagen, so dass für Simulationen mehreren Größenordnungen zu überbrücken sind. Die enorme Menge an Partikeln in Industrieanlagen verschärft die Leistungsanforderungen zusätzlich. Während letzteres durch einen Coarse graining Ansatz abgemildert werden kann (um die effektiv berechnete Anzahl von Partikeln deutlich zu reduzieren), zeigt der Zeitschritt nur eine lineare Abhängigkeit von der Partikelgröße und kann somit nicht im gleichen Ausmaß erhöht werden. Es müssen also intelligentere Ansätze entwickelt werden um spezifische Probleme effizient lösen zu können.

Herausforderungen

Während rCFD bereits Beschleunigungen von mehr als zwei Größenordnungen ermöglicht, sind für die praktische Anwendbarkeit in Bezug auf industrielle Anforderungen wesentliche Weiterentwicklungen erforderlich. Räumlich als auch zeitlich Hochaufgelöste transiente Strömungssimulationen bedingen beträchtliche Speicheranforderungen, sodass geeignete Datenreduktionsstrategien (z. B. POD oder Filtermethoden) entwickelt werden müssen, die zusätzlich von geeigneten Sub-grid-closure-Modellen begleitet werden. Ebenfalls muss die für die Methode benötigte Datenbank intelligent erweitert oder zwischen mehreren interpoliert werden um mehrerer Prozessbedingungen (z. B. niedrige oder hohe Einlassgeschwindigkeit) zu ermöglichen.

Bei der nun entwickelten partikelbasierte Methode synDEM hingegen, wird der zur Verbesserung der zeitlichen Komponente benötigte Ansatz, mittels Kombination von einer kurzfristigen DEM-Simulation und einer langfristigen Informationstransportmethode erreicht. Dabei werden die Partikelpositionen am Ende der kurzen DEM-Simulation als Knoten für ein Informationsnetz verwendet werden. In Anlehnung an die Synapsen des menschlichen Gehirns wurde der Name synaptic DEM oder kurz synDEM generiert. Die volle Simulation eines Prozesses kann dann in einer alternierenden Prozedur zwischen aufgelöster (langsamer) DEM Rechnung und schnellem Transportinformationsmodell signifikant beschleunigt werden.

Ergebnisse und Anwendung

Die Methoden rCFD und synDEM zielen darauf ab, Langzeitsimulationen sowohl in Eulerscher als auch in Lagrangscher Betrachtungsweise mit hoher zeitlicher und räumlicher Auflösung zu ermöglichen. Als datenbasierte Methoden können sie auf Desktop-Computern mit ausreichend Speicher Verwendung finden, ohne dass teure Rechencluster erforderlich sind. Somit kann das Verhalten verschiedener Strömungssimulationen auf prozessrelevanten Zeitskalen analysiert werden. Dies wird die Nützlichkeit von Computermodellen als numerische Experimente erheblich steigern und Einblicke in industrielle Prozesse mit granularen oder Mehrphasensystemen erlauben.