- Kermis Simulaties 2d Engineering 2017
- Kermis Simulaties 2d Engineering Project
- Kermis Simulaties 2d Engineering 2016
Nvidia heeft twee nieuwe videokaarten voor de zakelijke markt aangekondigd. De Quadro P6000 en de P5000 zijn uitgerust met een Pascal-gpu en door Nvidia van. Login met gebruikersnaam, wachtwoord en sessielengte. Nieuws: Breakdance Meijer simulatie released! Index; Forum; Help; Database; Partners; Donate; Inloggen; Registreren.
3Di is state-of-the-art hydrodynamic simulation software for pluvial, fluvial and coastal floods. 3Di is applied in both urban and rural areas around the world. Unique about 3Di is the combination of fast simulations, interactive modelling, detail of the schematisation and the advanced capabilities to model hydrodynamic processes.
Martijn Heinhuis,
Hydrologist at Hoogheemraadschap van Delfland
Hydrologist at Hoogheemraadschap van Delfland
What an MRI scan is for a neuroscientist, 3Di is to a hydrologist. A sophisticated cloud-based tool that delivers easy-to-understand visual output.
2D download Kermis attracties simulaties Deze simualties zul je moeten downloaden en installeren voordat je ze kan spelen. Bij sommige simulaties moet je eerst de reclame wegklikken voordat je hem kan downloaden. Bedrijven in het MKB op het gebied van ontwerp en engineering adviseren. Verkoop van de ontwerpsoftware 2D/3D, eindige elementen software, opleidingen en consultancy. Organiseren van workshops/seminars, beurzen en referentiebezoeken. Dramatical murder english mac.
Chris Gooch,
Senior Flood Project Officer City of Parramatta
Senior Flood Project Officer City of Parramatta
Kermis Simulaties 2d Engineering 2017
The speed and accuracy of the 3Di model allows FloodSmart Parramatta to provide flood information quickly to the response agencies and the public so that they can prepare for flooding before it happens.
Martijn Boelhouwers,
Owner of Buro MA.AN Urban Design
Owner of Buro MA.AN Urban Design
3Di uncovers the water-related design challenges we face in a certain area. The level of detail is incredible and vital in a dense city environment.
Herman de Jonge,
Senior Consultant RoyalHaskoningDHV
Senior Consultant RoyalHaskoningDHV
The ability to run simulation on the spot when meeting clients is extremely valuable to use. We also love the flexibility to connect to other systems.
3Di is a very strong visualisation medium, we apply it internally but also during external information sessions in which we explain to people how the water system in their area functions under a variety of different circumstances.
OPTEC - People
Celestijnenlaan 200a - box 2402
3001 Leuven
Belgium
room: 03.25
tel:+32 16 32 75 46 or+32 16 3 27 632
fax: +32 16 3 27 996
contact
Celestijnenlaan 200a - box 2402
3001 Leuven
Belgium
room: 03.25
tel:+32 16 32 75 46 or+32 16 3 27 632
fax: +32 16 3 27 996
contact
Kermis Simulaties 2d Engineering Project
Publications
Kermis Simulaties 2d Engineering 2016
query=user:U0006989 year:[2000 TO 2020] sresource_type:thesis-dissertation&institution=lirias&from=1&step=20&sort=scdateTypeall | articles | presentations | conferences | chapters | other | reports | phd theses | book reviews | books | outreach | edited books
- Bassier, M;2018.Automated reconstruction of Building Information Model objects from point cloud data.keyboard_arrow_downLIRIAS2314527
description
As-built Building Information Models are becoming increasingly popular in the Architectural, Engineering and Construction industry. These models reflect the state of a building up to as-built conditions and are used in numerous applications such as refurbishment, facility management and project planning. The production of these models includes the acquisition of the structure with remote sensing techniques and the manual placement of the target objects. However, the interpretation of the acquired point cloud data is time-consuming and prone to misinterpretations. Aside from the overwhelming data size, modelers struggle with occlusions, noise and clutter in the building environment. This work presents a series of automated procedures to cope with the current problems. More specifically, both theoretical and practical solutions are proposed to aid in the data acquisition, point cloud interpretation and object reconstruction. The following contributions are part of this research. Data Acquisition The purpose of the data acquisition is to produce highly dense accurate point cloud data. An extensive literature study is performed to explore the opportunities of both static and dynamic data acquisition systems for building surveying. It is concluded that while mobile solutions have superior scene coverage and acquisition speed, terrestrial laser scanners currently have the upper hand in producing high-quality point clouds fit for as-built modeling. A practical study proves that the current workflow, which includes control measurements with total stations, can be significantly enhanced by integrating compensator data in the registration of the individual scans. One of the major conclusions is that terrestrial laser scanning can be used as a standalone solution in mid-to-large scale projects without the need for control measurements, while still producing data conform the metric accuracy requirements. Data Interpretation Once the data is aligned in a common coordinate system, the point clouds are interpreted to determine which points belong to the objects of interest. The goal is to make a proper interpretation of the data to increase the level of information. Instead of a manual procedure, a fully automated workflow is proposed which consists of three consecutive steps. First, the data is segmented into planar primitives according to the surface hypothesis of the structural elements in the observed data. Next, each of the observed segments is assigned a predefined semantic class label through a pretrained machine learning algorithm. The resulting classified instances are clustered together using graph theory in order to isolate all the available observations of each relevant object. From the experiments it could be derived that the majority of the observations of structural objects in a building environment can be properly extracted. While some false positives remain a problem, the implementation of a fully 3D approach shows promising results for point cloud interpretation. Data Reconstruction The grouped observations of each object are used to reconstruct a set of generic Building Information Modeling entities conform existing standards. The target is to create a set of parametric BIM objects that are usable by the industry. A class specific reconstruction algorithm is proposed to extract the necessary properties for the parametric representation of the walls. After the creation of a set of partial objects, the topology is also reconstructed based on intersection theory. Overall, the experiments show that despite the abstractions of the class definitions, the automated workflow is capable of reconstructing topologically consistent wall geometry.
Published - Khairullah, Md;2018.Efficient Hierarchical Multi-Scale Modelling of Metal Plasticity by Spatial Clustering.keyboard_arrow_downLIRIAS1948124
description
Computer simulations are an essential part in high-technology industries and scientific/engineering research. If material deformation is considered, multi-scale modelling is an advanced method that gives accurate predictions of the deformation behaviour by accounting for the appropriate phenomena occurring at different scales. However, the calculation of a large number of variables at the fine scale leads to large computational cost for a multi-scale simulation and is the primary disadvantage. In this thesis we propose a novel approach to accelerate the multi-scale simulation of metal plasticity. In macroscopic zones of nearly homogeneous strain responses, the evolution of plastic anisotropy at each finite element integration point can be approximated from the properties at a representative point within a zone. We show how these zones can be identified by a clustering algorithm and can be utilized to reduce the computational cost of the simulation. A ‘split-and-merge’ based dynamic clustering algorithm is proposed which can follow the evolution of homogeneous zones over time. The proposed algorithm avoids frequent re-clustering and ensures few shifts of cluster members during the dynamic process. During the simulation, heterogeneity typically increases and clusters are split based on the plastic strain. The resulting clusters are expected to show sufficient homogeneity in fine scale states. Of course, user defined threshold values determine the clustering granularity and consequently the quality of deformation predictions. A merge, conceptually a reverse operation of a split, is utilized when multiple adjacent clusters show sufficient homogeneity in plastic strain. This reduces the number of clusters and consequently the number of updates. A set of clusters to merge is selected such that the number of merged clusters is maximized. Appropriate merge procedures have been developed to combine different variables/properties at the individual clusters during the merge operation to keep the associated loss of information small. We presented and analysed results obtained for multiple test cases. The performance of the proposed method is assessed by comparing the simulation results with the multi-scale method not utilizing the clustering feature. A number of plasticity-dependent variables at different scales are investigated. Significant reduction of the computational cost is observed at the expense of a minor loss in the prediction accuracy in all the cases. A guideline is also provided to derive the threshold values for clustering which can lead to an optimal balance between reduction in computational cost and the accuracy. Finally a-posteriori analysis is provided to validate our fundamental assumptions in this research and also to evaluate different relevant variables as the feature of interest in the proposed method. Additionally, we investigate interpolation as a complementary method to the clustering techniques and outline the implementation plan.
Published - Lejon, Annelies;2016.Multiscale Simulation of Tumor Growth: Projective Integration and Variance Reduction.keyboard_arrow_downLIRIAS1947907
description
Multiscale phenomena play an important role in our current society. In biological contexts, we can model cellular motion and more specific, we can model the evolution of tumors. In a similar way, the behavior of people can be modeled, which is useful within the context of evacuations. Those multiscale systems are characterized by the fact that they contain both slow and fast evolving elements. Simulating those systems over a long time in an accurate way requires a lot of computational power. Multiscale systems can be modeled and simulated in many ways. On the one hand, we can simulate each single cell individually (agent-based model) what we call the microscopic level. This is characterized by a high level of detail, which implies a high computational cost. Therefore, one often considers the evolution of the density (macroscopic level) rather than the set of individual cells. Finally, there are also so-called kinetic equations containing more detail than a continuum model, but less than an agent-based model. A first goal of the thesis is to accelerate the simulation of multiscale kinetic equations. Due to the multiscale character, simulating such a system can be computationally expensive when using classical techniques. By using projective integration, we can circumvent the stiffness related to the multiscale character. In the thesis we developed a higher order version of projective integration, leading to an additional increase in efficiency compared to the existing projective integration methods. Moreover, multiscale systems often contain uncertain factors, because the systems are not fully understood. Therefore, we choose to not model just one specific scenario, but instead the evolution of the probability distribution. In this thesis, we have chosen to specifically develop algorithms to lower the impact of the uncertainties (noise) without a large additional cost. In the tumor growth model, proposed in the thesis, the noise is mainly caused by random motion on the one hand and cell divisions on the other hand. At first, we developed an algorithm to filter caused by random motion. This is done by means of an simple approximate model (control process) which covers the evolution of the random motion. Moreover, the control process can be simulated deterministically. The complete model can then be used to incorporate the influence of cell divisions. In general using more cells yields a more accurate result. However, simulating a high number of particles during the whole simulation time would imply a high computational cost. To achieve accurate results at a limited cost, we add (clone) extra particles locally to determine the locations of cell divisions more accurately.
Published - Reyes López, Yaidel;2014.Soil Modeling, Dynamic Refinement, and Shared Memory Parallelization within SPH.keyboard_arrow_downLIRIAS1715689
description
The Smoothed Particle Hydrodynamics (SPH) method is an alternative to traditional mesh-based techniques such as the Finite Element Method (FEM). Due to its particle-based Lagrangian nature the method is very attractive to simulate and study complex problems involving large deformations, moving boundaries, free surfaces and multiple phases, which can be challenging for mesh-based approaches. In this thesis we extend the applicability of SPH in three ways: (a) the application and validation of the method for the 3D computation of cohesive soil, (b) the development of a dynamic particle refinement procedure, and (c) the parallelization of the method for shared memory computers. The model used for the 3D computation of soil is based on an elastic-perfectly plastic stress-strain relationship with the Drucker-Prager yield criterion. We apply the artificial stress method to avoid tensile instabilities, a numerical issue that often appears when simulating cohesive soil in SPH. The artificial stress method is extended to the 3D general stress state. The model is validated by comparing SPH results with simulations obtained with FEM. We present a dynamic particle refinement procedure based on particle splitting. This procedure allows to dynamically increase the resolution of the discretization by replacing a refined particle with new daughter particles. The optimal separation and smoothing distance of the newly introduced particles are determined by taking into account the error introduced by the refinement in the gradient of the kernel, and by reducing possible numerical instabilities. Finally, we develop a parallel implementation of SPH for shared memory computers. The presented approach is based on domain decomposition and space filling curves. This ensures per thread local storage of most frequently accessed data, avoids NUMA-unfriendly memory allocations, reduces data races and allows efficient calculation of symmetric inter-particle forces.
Published - Ghysels, Pieter;2010.Coupling of Fine and Coarse Scale Models for the Simulation of Viscoelastic Plant Tissue - From Cellular Structure to Homogeneous Material (Koppeling van fijn- en grofschalige modellen voor de simulatie van visco-elastisch plantenweefsel).
- thesis-dissertationFrederix, Yves;2010.Multiscale Methods for the Simulation of Molecular Dynamics and Stochastic Models (Meerschalige methodes voor de simulatie van moleculaire dynamica en stochastische modellen).
- Demarsin, Kris;2009.Extraction of Closed Feature Lines from Point Clouds Based on Graph Theory (Detectie van gesloten kenmerklijnen in puntenwolken gebaseerd op grafentheorie).keyboard_arrow_downLIRIAS1945294
description
Het gebruik van computermodellen die de geometrie van een object voorste llen, gekend als CAD-modellen, zijn onmisbaar in de industrie. Het gener eren van een CAD-model is meestal gebaseerd op terugwerkend ontwikkelen. Hierbij wordt een 3D scanner gebruikt om een verzameling punten op het oppervlak van een fysisch prototype of een geproduceerd onderdeel te bek omen. Om van een dergelijke puntenverzameling (puntenwolk) tot een CAD-m odel te komen, is segmentatie van de puntenwolk vereist zodat elk segmen t kan benaderd worden door een oppervlak. In deze thesis bepalen we dan ook gesloten kenmerklijnen in een puntenwolk zodanig dat deze lijnen de puntenwolk opdelen in disjuncte verzamelingen van punten. We onderscheiden drie soorten kenmerklijnen: uitwendige randen die de gr ens van een puntenwolk van een niet-gesloten object voorstellen; scherpe randen die puntenverzamelingen met verschillende normaalvectoren van me kaar scheiden; en zachte randen die puntenverzamelingen met verschillend e kromming van mekaar scheiden. Een raamwerk wordt voorgesteld om de ver schillende soorten kenmerklijnen te detecteren, gebaseerd op het groeper en van punten en bewerkingen op grafen. Het doel van het groeperen is he t scheiden van de gebieden die de kenmerklijnen bevatten (kenmerkgebiede n) van de rest van de puntenwolk. Hiervoor worden speciale kenmerken voo r elke soort kenmerklijn geïntegreerd in het raamwerk. Na toepassing van methodes die grafen bewerken, worden de kenmerkgebieden gereduceerd tot gesloten kenmerklijnen. Om een nauwkeurige detectie van alle soorten kenmerklijnen te garanderen , stellen we een methode voor die werkt op meerdere niveaus. Deze method e detecteert de uitwendige en scherpe randen in de volledige puntenwolk. De zachte randen worden dan bepaald in de deelgebieden die ontstaan zij n uit de detectie van de uitwendige en scherpe randen. Het laatste deel van deze thesis behandelt de overblijvende stappen om e en puntenwolk te benaderen door oppervlakken. We stellen een algoritme v oor om een netwerk van curven op te bouwen, gebaseerd op de gedetecteerd e kenmerklijnen. Elk deelgebied met de omliggende curve kan dan benaderd worden door een oppervlak.
Published - Vandekerckhove, Christophe;2008.Macroscopic Simulation of Multiscale Systems within the Equation-Free Framework (Macroscopische simulatie van meerschalige systemen binnen het vergelijkingsvrije raamwerk).keyboard_arrow_downLIRIAS1945290
description
Macroscopische simulatie van meerschalige systemen binnen het vergelijkingsvrije raamwerk Heel wat fysische, chemische of biologische processen kunnen nauwkeurig worden gemodelleerd op een microscopisch niveau, terwijl we in de praktijk vaak geïnteresseerd zijn in de macroscopische eigenschappen van het systeem. Om de kloof tussen de schaal van het beschikbare model en de schaal van interesse te overbruggen, werd het vergelijkingsvrije raamwerk ontwikkeld. De centrale component in dit raamwerk is de macroscopische tijdstapper, die, op basis van korte, goed geïnitialiseerde microscopische simulaties, de evolutie van een set macroscopische variabelen berekent. In dit proefschrift bestuderen we de numerieke eigenschappen van een aantal belangrijke algoritmes binnen het vergelijkingsvrije raamwerk. Eerst analyseren we de nauwkeurigheid en stabiliteit van de macroscopische tijdstapper, wanneer de microscopische simulator een rooster Boltzmann model is. Omdat de numerieke eigenschappen niet enkel afhangen van de parameters van het rooster Boltzmann model maar ook van de specifieke kenmerken van de macroscopische tijdstapper, laat de analyse toe om de verschillende deelaspecten van de constructie van de macroscopische tijdstapper op systematische wijze te onderzoeken. Een belangrijke conclusie is dat de gepaste initialisatie van de microscopische simulaties cruciaal is om het correcte macroscopische gedrag te bekomen. Daarna concentreren we ons op de klasse van constrained runs functionaaliteraties die werd ontwikkeld om de microscopische simulaties op gepaste wijze te initialiseren. In sommige gevallen convergeert de functionaaliteratie niet. We bepalen de voorwaarden voor convergentie en ontwikkelen een Newton-Krylov variant van het constrained runs schema om het vaste punt van de functionaaliteratie te berekenen. Tot slot onderzoeken we in detail de nauwkeurigheid en stabiliteit van een aantal tijdsintegratie-versnellingsmethodes. We tonen aan dat, onder zekere voorwaarden, deze methodes kunnen worden gebruikt om een tijdsintegrator te versnellen, ogeacht de aard van het onderliggende model. Als eerste toepassing gebruiken we de methodes om een rooster Boltzmann model te versnellen. Daarna passen we de methodes toe om, in de vergelijkingsvrije context, de macroscopische tijdstapper voor het rooster Boltzmann model te versnellen.
Published - Verleye, Bart;2008.Computation of the Permeability of Multi-Scale Porous Media with Application to Technical Textiles (Berekening van de permeabiliteit van meerschalige poreuze materie toegepast op technisch textiel).keyboard_arrow_downLIRIAS1770771
description
Technisch textiel worden gebruikt als versterking in composietmaterialen. De doorlaatbaarheid of permeabiliteit van dit textiel is een belangrijke input voor de simulatie van het impregnatie onderdeel van het Vloeibaar Composietmouleren (Liquid Composite Moulding), een veel gebruikte productie-techniek voor composietmaterialen.Technisch textiel is een meerschalige poreuze structuur, en dus bekijken we de permeabiliteit op verschillende niveaus. De vezels van een draad bepalen de structuur op het microscopisch niveau. Een eenheidscel van het textiel, een deel van het textiel dat dezelfde permeabiliteit heeft als het volledige stuk, bepaalt het middenniveau.In dit werk introduceren we een snelle en nauwkeurige methode voor de berekening van de permeabiliteit van textiel. De methode is gebaseerd op de eindige differentie discretisatie van de Stokes vergelijkingen. De input voor deze RV-simulaties (Rekenkundige Vloeistofdynamica), is een eenheidscel van het textielmodel dat gemodelleerd is met programma's om textielmodellen te ontwerpen zoals bijvoorbeeld WiseTex of TexGen. Als ook de stroming in de draden zelf in rekening moet gebracht worden, dan worden de Stokes vergelijkingen lokaal uitgebreid met een strafterm, wat resulteert in de Brinkman vergelijkingen. De grootte van de straf kan analytisch bepaald worden aan de hand van de lokale eigenschappen van de vezels. We vergelijken in dit werk verschillende analytische formules voor de berekening van deze strafterm.We vergelijken de resultaten van onze berekeningen met experimenteel bepaalde permeabiliteitswaarden, voor geweven textiel, willekeurige-structuur textiel en textiel met ongebogen draad. Bovendien stellen we de resultaten voor van berekeningen op een speciaal ontworpen structuur. Experimenten op deze structuur hebben minder last van spreiding op de resultaten dan experimenten op textiel. We bespreken ook nog de invloed van vervormingen zoals afschuiving en nesten van verschillende lagen, op de permeabiliteit.Er bestaan verschillende methodes die de permeabiliteit van poreus materiaal schatten, zonder een 3D-RV simulatie. De Grid2D methode bijvoorbeeld, reduceert het 3D Stokes probleem tot een 2D Darcy probleem. In deze thesis onderzoeken we deze methode, en vergelijken de resultaten met onze RV-berekeningen.Een tweede methode die de probleemstelling reduceert, is de porie-netwerk methode. Deze methode beschrijft het poreus materiaal als een netwerk van porieën, en berekent dan de permeabiliteit aan de hand van de wetten van behoud. We leggen uit hoe ons Stokes programma gebruikt wordt in deze context aan de hand van de berekening van de permeabiliteit van poreus gesteente.
Published - Volodine, Timofej;2007.Point cloud processing using linear algebra and graph theory.keyboard_arrow_downLIRIAS1945287
description
Moderne 3D scanners maken het mogelijk om heel snel grote hoeveelheden 3D data te genereren. Dit resulteert in een steeds groeiend aantal toepassingen, gaande van digitalisatie van historische objecten tot gezichtsauthenticatie. In deze thesis stellen we een aantal nieuwe algoritmen voor om de data, verkregen met behulp van een 3D scanner, te verwerken. Deze data worden een puntenwolk genoemd en bestaan uit een verzameling punten bemonsterd van het 3D oppervlak van een object. De voorgestelde algoritmen betreffen enkele fundamentele topics in puntenwolkverwerking: triangulatie, vereffening en randbepaling. We analyseren de algoritmen vanuit het standpunt van efficiëntie, praktische toepasbaarheid en de volledigheid van de onderliggende theorie. Randbepaling is een veel voorkomend probleem in toepassingen waar het nodig is om te weten waar de gaten en externe randen liggen in een puntenwolk. In dit werk ontwikkelen we een nieuw algoritme voor het bepalen van randen, die we als gesloten, veelhoekige randlussen voorstellen. Het resultaat van dit algoritme wordt verder gebruikt door de andere algoritmen besproken in de thesis. Een andere fundamentele operatie is de triangulatie van puntenwolken. Het resultaat van deze operatie is een driehoekig rooster dat de buurpunten op een consistente manier met elkaar verbindt en zo de connectiviteitsinformatie toevoegt aan de puntenwolk. Wij bespreken twee aanpakken voor het trianguleren van puntenwolken. De eerste aanpak is gebaseerd op de zogenaamde roosterloze parameterisatietechniek en de tweede aanpak wordt het volumetrisch projectie-algoritme genoemd en steunt op de volumetrische voorstelling van de puntenwolk. Elke aanpak heeft zijn voor- en nadelen en kan verschillende soorten input-puntenwolken behandelen. Roosterloze parameterisatie is geschikt voor puntenwolken met schijftopologie en het volumetrisch projectie-algoritme is toepasbaar op gesloten puntenwolken van willekeurige genus en zonder randen. Vereffening is een frequent gebruikte operatie. Het is nodig om de ruis in opgemeten puntenwolken te verwijderen en op die manier de verdere verwerking gemakkelijker te maken. In het laatste deel van deze thesis stellen wij een nieuw vereffeningsalgoritme voor, dat geformuleerd wordt als een lineaire algebra optimalisatieprobleem met beperkingen. Één van de voordelen van het algoritme is zijn algemeenheid, in de zin dat het niet alleen op puntenwolken toegepast kan worden, maar ook op triangulaties, grafieken, curvenetwerken en in het algemeen op functies gedefinieerd in de knopen van een grafe. Het algoritme steunt op een efficiënte kleinste-kwadratensolver en heeft gegarandeerde convergentie. Bovendien heeft het algoritme interessante theoretische eigenschappen, wegens zijn verwantschap met de geometrie-bewuste basissen en Tikhonov-regularisatie. De gepresenteerde algoritmen dragen bij tot het domein van digital geometry processing en trachten de vraag naar efficiënte puntenwolkverwerkingsalgoritmen te beantwoorden.
Published - Van Leemput, Pieter;2007.Multiscale and equation-fee computing for lattice Boltzmann models.keyboard_arrow_downLIRIAS1945284
description
Due to a separation of time and space scales in their dynamics, many physical and chemical systems can be described at different levels of abstraction. We consider two multiscale modeling techniques that take advantage of this scale separation: the equation-free framework developed by Kevrekidis et al., which enables a time simulation for an unknown macroscopic model using only microscopic or mesoscopic simulations, and spatially hybrid models, which couple a microscopic/mesoscopic particle-based method to a macroscopic continuum model in space. At the microscopic/mesoscopic level, we consider lattice Boltzmann models (LBMs) for one-dimensional reaction-diffusion systems. First, we show that time stepper based numerical bifurcation analysis techniques developed for PDEs can be used for LBMs as well. We use the LBM or the ``coarse' equation-free time stepper wrapped around the LBM as the time stepper. Second, we focus on the multiscale interfacing problem. During initialization and spatial coupling, one has to solve a one-to-many problem. A few macroscopic quantities have to be mapped to meaningful values for a larger set of microscopic/mesoscopic variables. We perform an extensive study of the influence of the initialization process (also called lifting or reconstruction) on the minimal time step of the coarse time stepper and the accuracy of the results. Furthermore, we analyze the behavior of the so-called constrained runs initialization scheme for the LBMs considered. We prove that the scheme is unconditionally stable and that it converges to a first order correct approximation of the Chapman-Enskog relations. We also implement constrained runs schemes that use interpolation techniques to obtain a higher order accuracy. Finally, we analyze the spatial discretization error of the hybrid model obtained by spatially coupling a LBM to a finite difference discretization of a PDE and show that the global error of the hybrid model is one order less accurate than the local error made at the interface. At the interface, the Chapman-Enskog relations or the constrained runs scheme can be used.
Published - Samaey, Giovanni;2006.Patch Dynamics: Macroscopic Simulation of Multiscale Systems (Macroscopische simulatie van meerschalige systemen).keyboard_arrow_downLIRIAS1946458
description
Voor een belangrijke klasse meerschalige problemen bestaat er een scheiding vanschalen tussen het beschikbare (microscopische) model en het (macroscopische)niveau waarop we het systeem wensen te bestuderen. Voor tijdsafhankelijkemeerschalige problemen van dit type hebben Kevrekidis et al. een zogenaamd``vergelijkingsvrij' raamwerk opgesteld, gebaseerd op het idee van een ``macroscopischetijdstapper'. Wij bestuderen in dit raamwerk methodes die een ongekende macroscopischeparti'ele differentiaalvergelijking kunnen benaderen aan de hand van gepast ge'initialiseerdemicroscopische simulaties in een aantal kleine deelgebieden van het ruimte-tijddomein.De bekomen methode is veel effici'enter dan een directe simulatie met het microscopische model.We analyseren, zowel theoretisch als met numerieke experimenten, het gedrag van de methode. Opbasis van deze analyse stellen we verschillende verbeteringen voor. We tonen ook hoe we de bekomentijdstapper kunnen gebruiken voor de analyse van bijvoorbeeld lange-termijnevenwichten.Tenslotte bespreken we een aantal experimenten waarbij het microscopische model stochastisch is.
Published - Michiels, Wim;2002.Stability and stabilization of time-delay systems.
- thesis-dissertationGoossens, Serge;2000.Krylov convergence acceleration and domain decomposition methods for nonmatching grids.
- thesis-dissertationEngelborghs, Koen;2000.Numerical bifurcation analysis of delay differential equations.