Introduction
Le terme « multi-omique » est devenu un argument de poids dans les demandes de financement, les résumés d'articles et les pitchs de biotech. Il suffit de mentionner deux couches de données, comme un transcriptome et un méthylome, ou un protéome et un métabolome, pour que l'étude accède au statut de projet intégratif. La réalité est souvent moins simple.
Dans une part significative des publications se revendiquant multi-omiques, l'intégration se résume à une analyse séparée de chaque couche de données, suivie d'un croisement de listes de gènes ou de protéines. Un diagramme de Venn. Une phrase dans la discussion : « De manière intéressante, 47 gènes étaient communs entre le transcriptome et le protéome. » L'intégration s'arrête là.
Ce n'est pas nécessairement un manque de rigueur. Les contraintes de temps, de compétences ou d'effectifs sont réelles. Mais sur le plan méthodologique, cela relève davantage de la multi-analyse que de la multi-omique au sens strict.
La distinction n'est pas une simple question de sémantique. Elle a des conséquences directes sur la validité des conclusions biologiques. Une analyse multi-omique rigoureuse modélise explicitement les relations entre couches de données. Elle révèle les co-variations, les structures partagées et spécifiques, les régulations qui ne sont visibles que lorsqu'on observe simultanément plusieurs niveaux moléculaires. Une juxtaposition d'analyses mono-omiques, aussi sophistiquée soit-elle couche par couche, ne peut pas capturer ces signaux.
Cet article propose un cadre pour distinguer ces deux situations, passe en revue les principales méthodes d'intégration et leurs limites, et pose une question volontairement inconfortable : une part substantielle de ce qui se publie sous l'étiquette « multi-omique » mérite-t-elle vraiment ce qualificatif ?
Faire du multi-omique ne signifie pas avoir plusieurs types de données. Cela signifie disposer d'une méthode qui exploite formellement les relations entre ces données.
Les trois niveaux d'intégration
La littérature distingue habituellement trois familles de stratégies d'intégration. Cette classification, formalisée dans plusieurs revues (Krassowski et al., 2020 ; Cai et al., 2022 ; Picard et al., 2021), reflète des différences fondamentales dans la manière dont les couches de données interagissent au sein du pipeline d'analyses.
L'intégration tardive : chaque couche pour soi
L'intégration tardive (late integration) est l'approche la plus courante. Chaque couche omique est analysée de manière indépendante. Expression différentielle pour le transcriptome, analyse de méthylation différentielle pour le méthylome, identification de protéines dérégulées pour le protéome; puis, les résultats sont croisés a posteriori.
Le croisement prend typiquement la forme d'intersections de listes (diagrammes de Venn), de matrices de corrélation entre couches, ou d'une superposition sur des bases de connaissances (enrichissement fonctionnel partagé).
C'est la stratégie la plus accessible. Elle ne nécessite aucune méthode spécifique d'intégration ; chaque couche est traitée avec ses outils standards. Mais elle a un coût : les relations quantitatives entre couches sont perdues. Deux gènes peuvent être identifiés comme différentiellement exprimés dans le transcriptome et le protéome, mais l'intégration tardive ne dit rien sur la cohérence de la direction ou de l'amplitude de ces changements. Pire encore, elle dépend de seuils de significativité arbitraires. Un gène avec une p-value ajustée de 0,049 dans les deux couches apparaît dans le Venn ; un gène à 0,051 dans une seule couche disparaît, même si le signal conjoint est biologiquement pertinent.
L'intégration tardive n'est pas inutile. Mais elle ne peut pas, par construction, révéler des signaux qui n'émergent que de l'observation simultanée de plusieurs couches moléculaires.
L'intégration précoce : tout dans le même sac
L'intégration précoce (early integration) adopte l'approche inverse. Les matrices de données de chaque couche omique sont concaténées en une seule matrice, qui est ensuite analysée par des méthodes classiques (PCA, clustering, penalized regression).
L'avantage théorique est clair : tous les signaux sont disponibles simultanément, ce qui permet de capturer des co-variations inter-couches. En pratique, cette stratégie se heurte à plusieurs obstacles majeurs.
Le premier est le fléau de la dimensionnalité. En concaténant un transcriptome (20 000 gènes), un méthylome (400 000 sondes) et un protéome (8 000 protéines), on crée une matrice de plus de 428 000 variables pour quelques dizaines ou centaines d'échantillons. Le rapport signal/bruit s'effondre. Les méthodes classiques de réduction de dimension peinent à extraire un signal biologiquement interprétable de cet espace.
Le second problème est l'hétérogénéité des échelles. Les comptages RNA-seq (entiers, zéro-inflated), les niveaux de méthylation (bêta-values bornées entre 0 et 1) et les intensités protéomiques (continues, log-normal) n'ont ni les mêmes unités, ni les mêmes distributions, ni les mêmes niveaux de bruit. Une simple concaténation sans transformation rigoureuse donne un poids disproportionné à la couche la plus variable ou la plus dimensionnelle (souvent le méthylome) noyant les signaux des autres couches.
Le troisième problème est la perte de la structure de groupe. En fusionnant toutes les variables dans une seule matrice, on perd l'information sur l'origine de chaque variable. Les axes de variation extraits (composantes PCA, clusters) mélangent indistinctement variation technique intra-couche et variation biologique inter-couches. Rien ne garantit que le signal dominant capturé provienne d'une co-régulation biologique et non d'un artefact spécifique à une couche.
L'intégration intermédiaire : modéliser les relations
L'intégration intermédiaire (intermediate ou joint integration) représente le niveau d'intégration le plus abouti. Ces méthodes modélisent explicitement la structure multi-couche des données : elles cherchent à identifier les axes de variation partagés entre couches et ceux qui sont spécifiques à chaque couche.
C'est ici que se situe la vraie intégration multi-omique.
Les approches se déclinent en plusieurs familles :
Factorisation matricielle — MOFA (Argelaguet et al., 2018), MOFA+ (Argelaguet et al., 2020), iCluster, JIVE. Ces méthodes décomposent les données multi-omiques en un petit nombre de facteurs latents, certains partagés entre couches, d'autres spécifiques. Les facteurs partagés capturent les processus biologiques coordonnés entre niveaux moléculaires.
Méthodes basées sur les réseaux — SNF (Similarity Network Fusion, Wang et al., 2014) construit un réseau de similarité par couche omique puis les fusionne itérativement en un réseau consensuel. L'idée est élégante : chaque couche contribue à la structure globale sans qu'aucune ne domine.
Analyse multi-blocs — DIABLO/mixOmics (Singh et al., 2019) cherche des combinaisons linéaires de variables dans chaque couche qui maximisent la covariance inter-couches tout en prédisant un phénotype d'intérêt. C'est l'une des rares approches qui combine intégration et classification supervisée.
Modèles génératifs profonds — totalVI (Gayoso et al., 2021) pour les données CITE-seq (RNA + protéines de surface), MultiVI pour les données multiome (RNA + ATAC-seq). Ces méthodes modélisent conjointement les distributions des différentes modalités dans un espace latent partagé.
Ce qui unit ces approches, c'est un principe fondamental : la modélisation explicite de la co-variation entre couches. Elles ne se contentent pas de croiser des résultats ; elles cherchent les processus biologiques qui se manifestent simultanément à plusieurs niveaux moléculaires.
Panorama comparatif des méthodes
| Méthode | Type d'intégration | Approche | Supervisé ? | Forces | Limites |
|---|---|---|---|---|---|
| MOFA / MOFA+ | Intermédiaire | Factorisation bayésienne sparse | Non | Sépare variation partagée vs. spécifique. Scalable (MOFA+). Interprétable. | Assume la linéarité. Sensible au pré-traitement. |
| DIABLO (mixOmics) | Intermédiaire | PLS multi-blocs discriminante | Oui | Intègre un phénotype cible. Sélection de variables intégrée. Visualisation riche. | Nécessite des groupes prédéfinis. Risque de sur-ajustement si petits effectifs. |
| SNF | Intermédiaire | Fusion de réseaux de similarité | Non | Pas d'hypothèse paramétrique. Robuste aux données hétérogènes. | Ne fournit pas de sélection de variables. Interprétation indirecte. |
| iCluster | Intermédiaire | Factorisation avec régularisation | Non | Identification de sous-types. Adapté aux données continues. | Computationnellement lourd. Nombre de clusters à fixer a priori. |
| totalVI | Intermédiaire | VAE joint (RNA + protéines) | Non | Modélise les distributions spécifiques de chaque modalité. Gère le bruit technique. | Limité à CITE-seq. Nécessite un volume de données important. |
| MultiVI | Intermédiaire | VAE multi-modal (RNA + ATAC) | Non | Gère les données manquantes (échantillons avec une seule modalité). Espace latent partagé. | Complexité d'entraînement. Résultats sensibles aux hyperparamètres. |
| Concaténation + PCA | Précoce | Fusion matricielle | Non | Simple à implémenter. Aucune dépendance logicielle spécifique. | Dominée par la couche la plus dimensionnelle. Perd la structure de groupe. |
| Intersection de listes (Venn) | Tardive | Croisement de résultats | — | Intuitif. Accessible à tous. | Dépend de seuils arbitraires. Perte d'information quantitative. Pas d'intégration formelle. |
Les benchmarks récents (Chauvel et al., 2020 ; Herrmann et al., 2021) montrent qu'aucune méthode n'est universellement supérieure. Le choix dépend de la question biologique, de la taille de la cohorte, du nombre de couches omiques et du type de signal recherché (sous-types, biomarqueurs, processus biologiques).
Le diagramme de Venn n'est pas de l'intégration
Il est tentant de considérer qu'un diagramme de Venn entre les gènes différentiellement exprimés dans le transcriptome et les protéines dérégulées dans le protéome constitue une intégration multi-omique. C'est l'approche la plus couramment publiée. C'est aussi celle dont les limites sont les moins bien comprises.
Prenons un exemple concret. Une étude compare des biopsies tumorales et des tissus sains. L'analyse RNA-seq identifie 1 200 gènes différentiellement exprimés (FDR < 0,05, |log2FC| > 1). L'analyse protéomique identifie 350 protéines dérégulées. L'intersection contient 87 gènes/protéines. La conclusion : « 87 cibles sont confirmées au niveau transcriptomique et protéomique, suggérant une régulation coordonnée. »
Le problème est que cette affirmation repose sur au moins trois hypothèses implicites, toutes discutables :
Hypothèse 1 : les seuils sont biologiquement significatifs. Un gène avec un FDR de 0,04 dans le transcriptome et de 0,06 dans le protéome est dans le Venn. Un gène avec un FDR de 0,06 dans les deux couches ne l'est pas. Pourtant, le second a un signal potentiellement plus cohérent que le premier. Le Venn transforme des distributions continues en catégories binaires, détruisant l'information quantitative.
Hypothèse 2 : la concordance de direction est garantie. Un gène surexprimé dans le transcriptome mais sous-exprimé au niveau protéique apparaît dans l'intersection si les deux sont « significatifs ». Le Venn ne vérifie pas la cohérence de la direction du changement. Une régulation post-transcriptionnelle active (dégradation protéique accélérée, par exemple) produirait exactement ce schéma. Mais la conclusion de « régulation coordonnée » serait fausse.
Hypothèse 3 : l'absence d'intersection signifie l'absence de relation. Les gènes qui ne se retrouvent pas dans l'intersection sont ignorés. Or, un gène transcriptionnellement stable mais dont la protéine est massivement dérégulée par modification post-traductionnelle est invisible dans un Venn basé sur l'expression différentielle. L'intégration tardive ne peut pas capturer les relations qui traversent les niveaux de régulation.
Les méthodes d'intégration intermédiaire résolvent ces trois limitations. MOFA, par exemple, modélise les co-variations continues entre couches sans imposer de seuils. DIABLO cherche les combinaisons de variables qui sont simultanément discriminantes dans plusieurs couches. Aucune de ces méthodes ne réduit les données à des listes binaires.
Un diagramme de Venn entre résultats d'analyses mono-omiques n'est pas une intégration multi-omique. C'est un croisement post hoc de listes filtrées par des seuils arbitraires. Il ne modélise ni les co-variations quantitatives, ni les relations de régulation entre couches moléculaires.
Quand l'intégration change réellement les conclusions
L'intégration multi-omique ne se justifie pas toujours. Elle se justifie quand elle révèle un signal biologique qui n'est pas accessible par l'analyse séparée des couches. Voici des situations concrètes où l'intégration formelle a changé les conclusions.
Stratification de patients : l'exemple des astrocytomes pilocytiques
Picard et al. (2023) ont utilisé SNF pour intégrer des données transcriptomiques et protéomiques de 62 patients atteints d'astrocytome pilocytique (la tumeur cérébrale pédiatrique la plus fréquente). L'analyse séparée de chaque couche n'avait pas permis d'identifier de sous-groupes biologiquement pertinents. La fusion des deux réseaux de similarité a révélé deux groupes distincts, validés dans trois cohortes indépendantes, avec des profils immunitaires et neuronaux divergents et des différences de survie sans progression significatives.
Ce résultat est caractéristique de ce que l'intégration peut apporter : un signal trop faible dans chaque couche individuelle, mais qui émerge lorsque les couches se renforcent mutuellement.
Identification de facteurs de variation cachés : MOFA sur la leucémie lymphoïde chronique
L'étude fondatrice de MOFA (Argelaguet et al., 2018) a appliqué la factorisation multi-omique à 200 patients atteints de leucémie lymphoïde chronique (LLC), profilés pour les mutations somatiques, l'expression ARN, la méthylation ADN et les réponses aux médicaments. MOFA a identifié des facteurs de variation partagés entre couches, dont le statut IGHV et la trisomie 12 (connus), mais aussi un axe de réponse au stress oxydatif qui n'avait pas été identifié par les analyses mono-omiques.
L'intérêt de la factorisation est qu'elle permet de distinguer les sources de variation communes à toutes les couches (les processus biologiques coordonnés) de celles spécifiques à une seule couche (le bruit technique ou les régulations locales). Cette décomposition est impossible avec une intégration tardive.
Régulation post-transcriptionnelle invisible dans le transcriptome seul
L'un des arguments les plus forts en faveur de l'intégration multi-omique concerne la discordance transcriptome-protéome. De nombreuses études ont documenté que la corrélation entre les niveaux d'ARNm et de protéines est modeste. Cette discordance reflète l'existence de régulations post-transcriptionnelles (stabilité de l'ARNm, efficacité de la traduction, dégradation protéique) qui ne sont détectables que si les deux couches sont observées simultanément.
Une intégration tardive (Venn) ne peut pas identifier un gène dont l'ARNm est stable mais dont la protéine est massivement dégradée. Seule une modélisation conjointe de la co-variation ARNm-protéine peut révéler ces régulations.
Quand la multi-omique n'apporte rien de plus
Il est tout aussi important de reconnaître les situations où la multi-omique n'améliore pas, voire dégrade, les conclusions par rapport à une approche plus simple.
Le benchmark TCGA : un résultat qui invite à la prudence
Herrmann et al. (2021) ont mené le benchmark le plus vaste à ce jour sur l'utilité prédictive de la multi-omique. Sur 18 datasets de cancer du TCGA (35 à 1 000 patients, jusqu'à 100 000 variables), ils ont comparé 11 méthodes d'intégration multi-omique pour la prédiction de la survie. Le résultat est sans ambiguïté : seule une méthode (block forest) a surpassé un modèle de Cox basé uniquement sur les variables cliniques, et de manière marginale.
Ce résultat ne signifie pas que la multi-omique est inutile. Il signifie que, dans ce contexte précis (prédiction de survie, données TCGA), les variables cliniques (âge, stade, grade) portent déjà l'essentiel de l'information pronostique. L'ajout de couches omiques a surtout introduit du bruit et du sur-ajustement.
La leçon: ajouter des couches de données n'ajoute de la valeur que si elles contiennent de l'information complémentaire à ce qui est déjà disponible. Quand les variables cliniques expliquent déjà l'essentiel de la variance du phénotype d'intérêt, la multi-omique ne peut pas améliorer la prédiction, elle ne peut que la bruiter.
Le piège du « plus de données = mieux »
L'intuition selon laquelle plus de données conduit à de meilleures analyses est profondément ancrée. En multi-omique, elle est souvent fausse. Chaque couche supplémentaire apporte non seulement du signal potentiel mais aussi du bruit, des données manquantes, des effets batch spécifiques, et une augmentation exponentielle de l'espace des variables. Le ratio signal/bruit peut se dégrader avec l'ajout de couches si celles-ci sont redondantes, bruitées ou mal intégrées.
Han et al. (2025) ont montré sur les données TCGA que la sélection de variables était le facteur le plus déterminant pour la performance du clustering multi-omique, améliorant la discrimination des sous-types de 34 %. La qualité de la sélection de variables prime sur la quantité de couches omiques.
Avant d'ajouter une couche omique à votre étude, posez-vous cette question : quelle information biologique spécifique cette couche apporte-t-elle que les autres couches ne portent pas déjà ? Si la réponse est floue, la couche supplémentaire risque d'être un handicap plutôt qu'un atout.
Design expérimental : les erreurs qui condamnent l'intégration
Les erreurs les plus coûteuses en multi-omique ne sont pas computationnelles. Elles se produisent au moment de la conception de l'étude.
Le problème de l'appariement imparfait
L'intégration multi-omique repose sur une hypothèse fondamentale : les couches de données proviennent des mêmes échantillons biologiques, ou à défaut, d'échantillons suffisamment similaires pour que les co-variations inter-couches reflètent des processus biologiques et non des différences inter-échantillons.
En pratique, cette hypothèse est souvent violée. Le transcriptome est mesuré sur un aliquot, le protéome sur un autre, le méthylome sur un troisième. Si les aliquots ne sont pas homogènes (ce qui est fréquent pour les biopsies tissulaires hétérogènes), les co-variations observées entre couches reflètent en partie l'hétérogénéité intra-échantillon et non la biologie.
Les technologies single-cell multimodales (CITE-seq, multiome RNA + ATAC) résolvent partiellement ce problème en mesurant plusieurs modalités dans la même cellule. Mais au niveau bulk, la question de l'appariement reste critique et sous-discutée.
Des effectifs incompatibles avec la dimensionnalité
Le problème classique du « n << p » (beaucoup plus de variables que d'échantillons) est amplifié en multi-omique. Si une étude avec 50 patients et 20 000 gènes est déjà à la limite en RNA-seq seul, la même étude avec 3 couches omiques et 100 000+ variables combinées est dans une situation statistiquement périlleuse.
Les méthodes d'intégration intermédiaire (MOFA, DIABLO) gèrent cette dimension par des contraintes de parcimonie (sparsity), mais elles ne font pas de miracles. Un petit jeu de données multi-omique produira des résultats instables, avec une forte dépendance aux choix de pré-traitement et d'hyperparamètres.
Des effets batch entre couches
Chaque couche omique est générée par une technologie différente, souvent dans des laboratoires différents, à des dates différentes. Les effets batch intra-couche sont un problème connu (voir notre article précédent sur les batch effects en scRNA-seq). Mais les effets batch inter-couches sont moins discutés et potentiellement plus insidieux.
Si le transcriptome est séquencé en janvier et le protéome mesuré en mars, les variations techniques entre ces deux moments se confondent avec la variation inter-couche. Une méthode d'intégration peut interpréter cette variation technique comme un signal biologique alors que cette apparente discordance transcriptome-protéome n'est, en réalité, qu'un artefact temporel.
Checklist : votre étude est-elle vraiment multi-omique ?
Au stade de la conception
- La question biologique nécessite-t-elle l'observation de plusieurs couches moléculaires, ou une analyse mono-omique approfondie suffirait-elle ?
- Chaque couche omique apporte-t-elle une information complémentaire (pas simplement redondante) ?
- Les échantillons sont-ils appariés entre couches (même échantillon biologique) ?
- La cohorte est-elle suffisamment grande pour supporter la dimensionnalité combinée des couches ?
- Les couches seront-elles générées dans des conditions contrôlées pour minimiser les effets batch inter-couches ?
Au stade de l'analyse
- Utilisez-vous une méthode qui modélise explicitement les relations entre couches (intégration intermédiaire), ou croisez-vous simplement des résultats d'analyses séparées (intégration tardive) ?
- Si vous utilisez un diagramme de Venn, avez-vous vérifié la concordance de direction des changements ?
- Avez-vous quantifié ce que l'intégration apporte par rapport à l'analyse séparée des couches (en termes de variance expliquée, de clustering, de prédiction) ?
- Les résultats sont-ils robustes aux choix de pré-traitement et d'hyperparamètres ?
Au stade de l'interprétation
- Les conclusions dépendent-elles de l'intégration (elles n'auraient pas été possibles sans), ou auraient-elles pu être tirées d'une seule couche ?
- Le mot « multi-omique » décrit-il réellement votre méthodologie, ou habille-t-il une collection d'analyses mono-omiques ?
- Avez-vous comparé vos résultats intégrés à un modèle de référence simple (variables cliniques seules, analyse mono-omique la plus informative) ?
Si vos conclusions auraient pu être tirées d'une seule couche omique, votre étude est techniquement multi-omique dans les données, mais pas dans la méthode ni dans la valeur ajoutée.
Conclusion
La multi-omique est un outil puissant, quand elle est employée pour ce qu'elle est : une approche intégrative qui modélise les relations entre niveaux moléculaires. Quand elle se limite à une collection d'analyses séparées sous une étiquette commune, elle ne tire pas parti de son potentiel. Et elle peut donner une impression de complétude qui ne reflète pas la réalité de l'analyse.
Ce n'est pas un reproche adressé aux équipes qui travaillent sous contrainte. Intégrer formellement plusieurs couches omiques demande du temps, des compétences spécifiques et des effectifs suffisants (des ressources qui ne sont pas toujours disponibles). Mais reconnaître cette distinction permet de mieux évaluer ce que chaque étude peut, et ne peut pas, conclure.
Le choix entre association d'outils omiques et vraie multi-omique n'est pas un choix technique. C'est un choix scientifique. Il commence par une question biologique claire, se poursuit par un design expérimental qui permet l'intégration, et se concrétise par des méthodes qui modélisent explicitement la co-variation entre couches.
Parfois, la réponse la plus honnête est que la question biologique ne justifie qu'une seule couche omique, analysée rigoureusement. Et cette réponse a plus de valeur qu'une intégration superficielle.
La multi-omique n'est pas un label, c'est une exigence méthodologique. Une analyse mono-omique rigoureuse vaut mieux qu'une intégration superficielle. Et la première question n'est jamais « quelle méthode d'intégration ? », mais « pourquoi ai-je besoin de plusieurs couches ? »
Références
- Argelaguet R et al. Multi-Omics Factor Analysis — a framework for unsupervised integration of multi-omics data sets. Molecular Systems Biology 14, e8124 (2018). https://doi.org/10.15252/msb.20178124
- Argelaguet R et al. MOFA+: a statistical framework for comprehensive integration of multi-modal single-cell data. Genome Biology 21, 111 (2020). https://doi.org/10.1186/s13059-020-02015-1
- Singh A et al. DIABLO: an integrative approach for identifying key molecular drivers from multi-omics assays. Bioinformatics 35, 3055–3062 (2019). https://doi.org/10.1093/bioinformatics/bty1054
- Wang B et al. Similarity network fusion for aggregating data types on a genomic scale. Nature Methods 11, 333–337 (2014). https://doi.org/10.1038/nmeth.2810
- Herrmann M et al. Large-scale benchmark study of survival prediction methods using multi-omics data. Briefings in Bioinformatics 22, bbaa167 (2021). https://doi.org/10.1093/bib/bbaa167
- Picard D et al. Integrative multi-omics reveals two biologically distinct groups of pilocytic astrocytoma. Acta Neuropathologica 146, 551–564 (2023). https://doi.org/10.1007/s00401-023-02626-5
- Chauvel C et al. Evaluation of integrative clustering methods for the analysis of multi-omics data. Briefings in Bioinformatics 21, 541–552 (2020). https://doi.org/10.1093/bib/bbz015
- Cai Z et al. Machine learning for multi-omics data integration in cancer. iScience 25, 103798 (2022). https://doi.org/10.1016/j.isci.2022.103798
- Krassowski M et al. State of the Field in Multi-Omics Research: From Computational Needs to Data Mining and Sharing. Frontiers in Genetics 11, 610798 (2020). https://doi.org/10.3389/fgene.2020.610798
- Han E et al. A review on multi-omics integration for aiding study design of large scale TCGA cancer datasets. BMC Genomics 26, 769 (2025). https://doi.org/10.1186/s12864-025-11925-y
- Badia-I-Mompel P et al. Gene regulatory network inference in the era of single-cell multi-omics. Nature Reviews Genetics 24, 739–754 (2023). https://doi.org/10.1038/s41576-023-00618-5
- Gayoso A et al. Joint probabilistic modeling of single-cell multi-omic data with totalVI. Nature Methods 18, 272–282 (2021). https://doi.org/10.1038/s41592-020-01050-x
- Losert C et al. Application of Unsupervised Multi-Omic Factor Analysis to Uncover Patterns of Variation and Molecular Processes Linked to Cardiovascular Disease. Journal of Visualized Experiments 211 (2024). https://doi.org/10.3791/66659
Citer cet article
Riquin, K. (2026, 20 mars). Association d'outils omiques ou vraie multi-omique ?. Vidya BioSeq. https://vidya-bioseq.com/fr/blog/articles/multi-omics-integration/
BibTeX
@misc{riquin2026multiomics,
author = {Riquin, Kevin},
title = {Association d'outils omiques ou vraie multi-omique ?},
year = {2026},
month = {March},
day = {20},
publisher = {Vidya BioSeq},
url = {https://vidya-bioseq.com/fr/blog/articles/multi-omics-integration/}
}
