Télécharger le fichier pdf d’un mémoire de fin d’études
Problème inverse – Calage d’historique de production
Le problème inverse consistant à intégrer les données de production tels les débits et les pressions est appelé, en ingénierie de réservoir, calage d’historique de production. Il consiste à identifier un modèle de réservoir, qui une fois donné en entrée au système d’équations d’écoulement, donne des réponses proches des données dynamiques connues. On distingue deux types de méthodes pour résoudre ce type de problème. Le premier regroupe les méthodes de type Monte Carlo ou probabilistes (Evensen, 1994, 2009). Ces méthodes sont fondées sur la génération d’un ensemble de réalisations de la variable recherchée, ce qui donne une distribution a priori. On résout le problème direct pour chaque réalisation jusqu’au temps où on a la première mesure. Chaque variable est alors mise à jour à partir de la théorie des filtres de Kalman. Ce processus est répété jusqu’à ce que toutes les données soient assimilées. Les filtres de Kalman ont beaucoup été utilisés. Cependant, il reste un certain nombre de questions à propos du sur-paramétrage, de la mauvaise quantification des incertitudes ou encore de la gestion des solutions non-physiques (Gu et Oliver, 2005). Le second type de méthodes regroupe les approches variationnelles (Jacquard, 1965). Dans ce cadre, la solution recherchée minimise une fonction que l’on appelle fonction objectif. Cette fonction quantifie l’écart entre les données dynamiques et les réponses simulées pour le modèle de réservoir. Ce processus revient à implémenter un algorithme d’optimisation itératif. A chaque itération, les paramètres du réservoir sont ajustés et on effectue une simulation d’écoulement. Ces paramètres sont modifiés jusqu’à ce que les réponses simulées correspondent aux données dynamiques.
Déformation graduelle
La méthode de déformation graduelle est une technique de paramétrisation géostatistique utilisée pour perturber une réalisation d’une variable aléatoire à l’aide d’un nombre réduit de paramètres tout en préservant la variabilité spatiale. Son schéma de base implique la combinaison de deux bruits blancs Gaussiens indépendants : z( ) z cos z 2 sin 1.
z1 et z2 sont deux bruits blancs Gaussiens indépendants. Quelle que soit la valeur du paramètre de déformation θ, on peut montrer que z est aussi un bruit blanc Gaussien (Hu, 2000). Comme la règle de déformation est périodique, θ est compris entre -1 et 1. Lorsque θ = 0, z est égal à z1 ; lorsque θ = ½, z est égal à z2.
Le bruit blanc Gaussien correspond aux nombres aléatoires attribués aux mailles où on veut simuler des valeurs de la variable. Faire varier le paramètre de déformation permet de varier le bruit blanc Gaussien utilisé pour générer la réalisation. Ce processus permet de déformer la réalisation déduite du bruit blanc Gaussien. Cette technique de paramétrisation, une fois intégrée au processus d’optimisation ou au calage d’historique, est un outil qui permet de parcourir des chaînes de réalisations dans l’espace de recherche. Parmi toutes celles-ci, on peut identifier une réalisation qui permet la décroissance de la fonction objectif. La probabilité d’avoir un bon calage des données dynamiques est très faible si on se contente de parcourir une seule chaine. Pour être efficace, la recherche par déformation graduelle doit se faire sur plusieurs chaines. Pour plus de détails sur la méthode de déformation graduelle, un ebook a été publié par Le Ravalec et al. (2014).
Simulation multi-échelles pour des variables discrètes
La méthode de simulation multi-échelles introduite ci-dessus pourrait être étendue à des variables discrètes en utilisant la méthode de simulation séquentielle par indicatrices (Goovaerts, 1997). L’alternative développée dans le cadre de ce travail s’appuie sur la combinaison de la méthode de simulation séquentielle Gaussienne et de la méthode des gaussiennes tronquées (Chilès et Delfiner, 1999).
La méthode des Gaussiennes tronquées consiste à tronquer une variable Gaussienne continue à l’aide de seuils préalablement calculés à partir des proportions des différentes classes de la variable discrète. Considérons la simulation d’une réalisation comportant 3 faciès, notés F1, F2 et F3, de proportions p1, p2 et p3. On génère dans un premier temps une réalisation continue de moyenne nulle, de variance 1 et de covariance C. Puis, on déduit les valeurs des seuils de la formule suivante : 1 i si G pk k1 .
où G représente la fonction de répartition de la loi normale standard et i le faciès considéré. L’exemple de la Figure 10 montre le lien entre la proportion p1 de faciès F1 et le seuil s1. Les seuils étant connus, la réalisation continue est transformée en une réalisation discrète : les valeurs se trouvant entre deux seuils si-1 et si sont converties en indicateur i, qui représente le faciès Fi (Figure 14).
Test 2 : déformation à l’échelle fine
Dans un deuxième temps, on applique la méthode de déformation graduelle à l’échelle fine. On répète le processus de calage trois fois en partant du même modèle de perméabilité initial, mais en tirant à chaque processus d’optimisation des bruits blancs Gaussiens z2 différents pour l’échelle fine. Le modèle de perméabilité grossier reste le même tout le long des tests. La Figure 17 montre la décroissance de la fonction objectif : la fonction diminue beaucoup moins que lorsque la déformation graduelle est appliquée à l’échelle grossière. Au mieux, la fonction objectif décroît de 27%.
Test 3: déformation à l’échelle grossière, puis à l’échelle fine
Les résultats obtenus précédemment mettent en évidence que la déformation à l’échelle grossière est plus efficace que la déformation à l’échelle fine, au moins pour le cas étudié. On examine maintenant le potentiel d’une approche avec déformation d’abord à l’échelle grossière, puis à l’échelle fine. On revient au modèle de perméabilité initial qui permet la décroissance la plus importante et on lance le processus de calage trois fois. On observe que la déformation à l’échelle fine au cours du second processus d’optimisation ne permet pas de réduire beaucoup plus la fonction objectif.
Comparaison d’un calage avec SGSim classique et du calage 2 échelles avec déformation sur l’échelle grossière
Test 4: influence de la taille de la grille grossière
Dans un dernier test, on va chercher à comprendre l’influence de la taille de maille de la grille grossière sur le processus de calage. Les différentes grilles grossières considérées sont listées ci-après :
– une grille grossière avec 5×5 mailles de dimension 100×100 m2.
– une grille grossière avec 10×10 mailles de dimension 50×50 m2.
– une grille grossière avec 20×20 mailles de dimension 25×25 m2; et.
– une grille grossière avec 30×30 mailles de dimension 16.67×16.67 m2.
La grille 10×10 est celle que l’on a prise pour les différents tests préalablement présentés. Encore une fois, on veut déterminer le modèle de perméabilité qui respecte toutes les données de référence, en appliquant la méthode de déformation graduelle à l’échelle grossière, l’échelle grossière correspondant aux grilles ci-dessus. L’évolution de la fonction objectif est montrée sur la Figure 20. On voit que plus la grille grossière est raffinée entre 5×5 et 20×20, plus la fonction objectif diminue. Toutefois, pour la grille 30×30, la diminution de la fonction objectif semble gênée. Au début, l’augmentation de la résolution de la grille grossière rend le processus de calage plus efficace, en augmentant sa flexibilité. Cependant, à partir d’un certain point, il y a trop d’inconnues pour un seul paramètre de déformation.
Cas de propriétés discontinues : faciès
A partir du même modèle que précédemment (même modèle de variogramme, mêmes dimensions et même résolution de grille, même pression au producteur et même débit à l’injecteur), on construit un modèle en faciès. Le seul changement est que la réalisation continue à l’échelle fine suit une loi normale standard. On suppose que le réservoir comprend 3 faciès F1, F2 et F3, de proportions 30, 20 et 50%. Les perméabilités associées à ces faciès sont constantes et valent 0,5, 3,2 et 1,8 mD. Le modèle en faciès de référence est montré sur la Figure 22, en haut, à gauche. Le simulateur d’écoulement donne pour ce modèle de référence un ensemble de données de production de référence : pressions à l’injecteur (Figure 22, en haut à droite), débits d’huile et d’eau au producteur (Figure 22, en bas à gauche) et carte de saturation en eau à 2700 jours (Figure 22, en bas à droite).
Géostatistiques multipoints
L’idée première pour modéliser les chenaux a été de modéliser des objets au lieu de simuler une valeur à un point donné. Le développement des méthodes appelées méthodes de génération par objet débute à notre connaissance avec Bridge et Leeder en 1979, et se poursuit avec Haldorsen et Damsleth (1990), Omre (1991) ou encore Deutsch et Wang (1996). Elles consistent à définir la forme de l’objet sur la base de quelques paramètres géométriques. En raison des incertitudes, les paramètres sont caractérisés par les probabilités déduites des données ou des observations. Puis ces objets aux formes tirées aléatoirement, sont positionnés sur un ensemble de points obtenus par un processus de Poisson. Bien que séduisante cette méthode se heurte à deux grandes difficultés. Le calcul des paramètres géométriques est loin d’être simple, ainsi que le conditionnement aux données dures.
Vient ensuite l’idée d’utiliser une statistique multipoint déduite à partir d’une image d’entrainement pour la simulation géostatistique. L’image d’entrainement est une représentation conceptuelle des structures spatiales attendues dans le réservoir. Elle peut provenir d’une simulation précédente, d’une image satellite, d’une image élaborée par un géologue en fonction de la connaissance qu’il a du mileu, etc. Cette méthode a été initialement proposée par Guardiano et Srivastava en 1993. La motivation de ces auteurs était d’étendre la méthode de simulation séquentielle par indicatrices pour rendre compte d’objets géologiques d’architecture plus complexe sans construire complètement et explicitement un modèle de fonction aléatoire non-Gaussienne (Journel, 2005). Les premiers algorithmes de simulation multipoints impliquaient de très long temps de calcul, car il fallait scanner l’image d’entrainement à chaque fois qu’une valeur devait être simulée pour une maille. Le premier algorithme efficace, appelé SNESIM, pour Single Normal Equation Simulation, a été développé par Strebelle (2000) et permet de simuler des caractéristiques complexes pour des variables discrètes. Le point clé de cet algorithme est que les diverses configurations ou événements de faciès extraits de l’image d’entrainement sont stockés dans une structure arborescente. Cette base de données ordonnée est ensuite utilisée pour calculer les fonctions de densité de probabilité conditionnelles lors de la simulation. Cet algorithme marque une étape importante dans l’utilisation des méthodes géostatistiques multipoints, car il les rend accessibles en termes de temps de calcul, même si l’utilisation de la RAM reste un de ces désavantages majeurs. De nombreux travaux récents cherchent à améliorer cet algorithme. Straubhaar et al. (2011,2013), dans IMPALA, ont proposé de remplacer la classification arborescente par une classification mixte en liste et en arbre, pour pallier le problème de stockage en mémoire d’un arbre pour des images 3D.
En 2007, Arpat et Caers abandonnent le cadre probabiliste (reproduction de statistiques) au profit de la reproduction de motifs utilisée en infographie. L’image d’entrainement est utilisée comme base de données de motifs, un motif étant un morceau d’image (comme un puzzle mais de forme fixe). Une propriété importante de ce motif est qu’il doit caractériser les variations spatiales de la géologie du réservoir. Pour simuler une réalisation, chaque pixel est visité de façon aléatoire, et pour attribuer une valeur à ce pixel on colle un des motifs de l’image d’entrainement directement dessus, au lieu de tirer une valeur suivant un modèle de probabilité. Toute la qualité de l’algorithme, et de la reproduction des caractéristiques de l’image d’entrainement, tient à la façon de choisir le motif à coller et de le coller en tenant compte des données dure. Selon Arpat et Caers, la méthode est cependant plus lente que SNESIM, et la méthode ne résout pas les conflits qu’il peut y avoir entre le motif collé et les données dures. Pour diminuer le temps de simulation, les auteurs proposent d’utiliser une solution proposée par Zhang et al. (2006) avec FILTERSIM. Le coût de calcul est réduit grâce à un filtrage : le motif qui peut faire jusqu’à une centaine de pixels est filtré et sa représentation est alors restreinte aux scores issus des différents filtres. Le gain en temps de calcul est important mais au détriment de la qualité de reproduction de l’image d’entrainement. Dans le même courant d’idée en 2009, Gloaguen et Dimitrakopoulos utilisent la transformée en ondelettes discrètes à la place des filtres pour réduire les dimensions des motifs.
En 2010, Honarkhah et Caers proposent de jouer non pas sur la dimension du motif mais sur le nombre de motifs que l’on va comparer lors de la simulation. Ils introduisent la classification par noyaux k-means et une mesure de distance entre deux motifs, qui leur permettent de regrouper les motifs selon leur ressemblance. Lors de la simulation d’un ensemble de pixels seuls les motifs du groupe le plus proches sont utilisés. En 2010, Mariethoz et al. proposent dans leur algorithme d’échantillonnage direct, de ne scanner qu’une partie de l’image d’entrainement et surtout de ne pas choisir le meilleur motif mais le premier qui est en-dessous d’une distance choisie au préalable. Cette méthode permet de diminuer la mémoire occupée car l’image d’entrainement n’est pas stockée sous forme de base de données et de plus elle permet d’augmenter la variabilité des motifs reproduits en ne prenant pas le motif le plus proche mais seulement un motif assez proche.
En 2012, Tahmasebi et al. Proposent l’algorithme CCSIM (cross-correlation simulation) où ils n’utilisent plus la mesure de distance entre deux motifs mais une fonction de corrélation-croisée plus rapide à calculer. De plus ils utilisent un chemin régulier pour visiter les pixels et lorsqu’ils arrivent près d’une données dures, s’il n’y a pas de motifs qui s’ajustent à la donnée, ils réduisent la taille du motif jusqu’à en trouver un qui s’y ajuste, le cas limite étant un motif réduit à un pixel.
En parallèle, des concepts similaires sont apparus dans l’infographie et traitement de l’image, regroupés sous le nom d’algorithmes de synthèse de texture. La synthèse de texture est plus généralement utilisée dans des domaines tels que les jeux vidéo, le cinéma (film d’animation) ou encore le design d’objet.
La synthèse de texture
Les travaux avant-gardistes de Shannon en 1948 lancent les bases de la synthèse de texture. Ils visent à reproduire un texte en utilisant la méthode des n-gram. L’idée est que n lettres consécutives (un mot) déterminent complètement la distribution des lettres suivantes. Un problème majeur est l’obtention des tables de probabilités pour chaque n-gram. Cette approche requiert beaucoup d’échantillons, probablement autant que dans un livre par exemple.
En 1974 Catmull, et plus tard en 1976, Blinn et Newell, introduisent le placage de texture (texture mapping) qui sert à habiller un objet en 3D à l’aide d’échantillons de texture 2D. La texture est appliquée sur l’objet en déformant l’image de telle sorte qu’elle épouse les surfaces courbes de l’objet. Cette méthode tient aussi compte de la direction de la lumière pour rendre à l’objet son effet 3D, ainsi que des propriétés de réflexion de la surface. Cependant, elle génère des problèmes de paramétrisation en 2D comme des distorsions de l’image pour des surfaces complexes (par exemple, pour des surfaces bicubiques ou de genre élevé). Elle ne s’applique correctement que lorsque la surface à habiller est de même aire que l’image de la texture. Si la surface de l’objet est plus grande que celle de la texture, il faut paver l’objet afin de conserver un certain niveau de détail. En effet, on comprend aisément qu’on ne peut pas trop agrandir une image sans qu’elle se pixélise. Néanmoins, cette méthode n’est pas toujours une solution puisqu’elle tend à créer des contours artificiels sauf si la texture est répétitive. Même dans ces conditions, l’œil humain perçoit très facilement les mauvais alignements et les répétitions (Palmer, 1999) ce qui réduit la qualité de l’image créée.
Une solution (Heeger et Bergen, 1995) consiste à générer une texture semblable à l’échantillon de départ directement sur la surface de l’objet. La texture générée n’est pas une copie ou un pavage. Il suffit que l’image échantillon soit suffisamment grande pour capturer le motif principal de la texture. Toutes les méthodes dérivées de cette idée relèvent de la génération de textures.
Dans sa thèse, Duranleau (2008) regroupe les méthodes de génération de texture en fonction des catégories suivantes :
• Méthodes paramétriques : basées sur un modèle statistique donné, elles génèrent de nouvelles textures selon la distribution des pixels (équivalents aux mailles d’une grille) observés en réponse à divers filtres simulant la perception humaine. Une description assez complète de ces méthodes a été rapportée par Portilla et Simoncelli (2000).
• Génération par pixel : basées sur l’échantillonnage de la texture et la réorganisation des pixels o méthodes multi-résolutions : construction d’une pyramide de la structure source et remplissage de la pyramide de la texture à générer niveau par niveau.
Analyses de sensibilité des paramètres du modèle
Dans cette section nous discutons des performances de l’algorithme décrit ci-dessus, et de sa sensibilité sur certains paramètres comme la taille du template ou encore la mesure de la distance d entre les motifs et le template w(i). Nous montrons l’influence du chemin de visite pour la simulation des patchs sur la qualité de l’image obtenue.
Cette analyse est basée sur un ensemble de simulations effectuées à partir de la même image d’entrainement. Elle est connue et utilisée pour illustrer le potentiel des méthodes de géostatistiques multipoints (Figure 28). Elle représente des chenaux de haute perméabilité contenu dans une matrice très peu poreuse/perméable. L’image d’entrainement fait 150×160 pixels. Dans tous les cas considérés, la réalisation fait 200×200 pixels.
Quelle est l’influence de la taille du template et de la taille des patchs ?
L’algorithme présenté dans la section 4.2 implique la définition de paramètres tels que la taille du template ou encore la taille du patch collé à chaque simulation.
Les résultats de la Figure 29 montrent que la taille du voisinage est importante. Clairement un voisinage trop petit ne permet pas de capturer les hétérogénéités de grande taille présentes sur l’image d’entrainement. L’image synthétisée avec un template 5×5 (Figure 29) ne présente aucun chenal. Augmenter la taille du template de 9×9 à 19×19 (Figure 29 b et c) permet de faire apparaitre des chenaux et d’améliorer la continuité et la connectivité de la géométrie des chenaux. Cependant augmenter la taille du template diminue le nombre de motifs extraits de l’image d’entrainement. Par exemple considérons une image d’entrainement de taille 150×160, et une taille de template de 9×9, il en résulte 21 584 motifs extraits. Maintenant pour cette même image d’entrainement, augmentons la taille du template à 31×31, le nombre de motifs extraits est alors de 15 600, soit 30% de moins. On a alors un problème de représentativité. Si la base de données des motifs extraits ne contient pas assez de motifs, il est plus difficile de trouver le motif approprié lors de la simulation d’un patch. Il en résulte des discontinuités dans l’image finale (réalisation) comme dans la Figure 29 e). Une taille de template appropriée est un compromis entre les deux. Elle doit être suffisamment grande pour capturer l’hétérogénéité mais suffisamment petite pour qu’il y ait un nombre suffisant de motifs extraits.
Ici nous avons procédé par un test exhaustif de toutes les tailles de templates entre 5× 5 et 31×31, pour trouver la taille de fenêtre optimale. Il s’avère qu’un template de 19×19 donne les meilleurs résultats. Cependant quelques auteurs ont développé des méthodes pour trouver cette taille de template (Tan et al., 2013). On voit aussi dans la Table 1 le temps de calcul augmente avec la taille du template.
|
Table des matières
Table des Figures
Introduction Générale
1.1. Qu’est-ce qu’un réservoir ?
1.2. Qu’est-ce qu’un modèle de réservoir ?
1.3. Quelles sont les données utilisées ?
1.4. Intégration des données
2. Problèmes direct et inverse – Déformation graduelle
2.1. Problème direct
2.2. Problème inverse – Calage d’historique de production
2.3. Déformation graduelle
3. Simulation séquentielle Gaussienne
3.1. Etat de l’art
3.2. Algorithme à une échelle
3.3. Algorithme à deux échelles
3.4. Quelques exemples d’application pour des variables continues
3.5. Simulation multi-échelles pour des variables discrètes
3.6. Exemple de calage multi-échelles
3.7. Comparaison d’un calage avec SGSim classique et du calage 2 échelles avec déformation sur l’échelle grossière
3.8. Cas de propriétés discontinues : faciès
3.9. Conclusion
4. Synthèse de texture Mono-Echelle
4.1. Etat de l’art
4.2. Algorithme
4.3. Analyses de sensibilité des paramètres du modèle
4.4. Techniques de diminution du temps de calcul
4.5. Mesure de la distance entre le template et les motifs
4.6. Quelques Résultats
4.7. Conclusion
5. Algorithme Multipoint Multi-Echelles
5.1. Etat de l’art
5.2. Algorithme
5.3. Comparaison des résultats à une et deux échelles
5.4. Origine de l’image grossière
5.5. Techniques de diminution du temps de calcul
5.6. Conclusion
Conclusion Générale – Perspectives
Références
Télécharger le rapport complet