Von euklidischem zu hyperbolischem Lernen für Domain Generalization: Unsere neueste Arbeit in TMLR
HypCBC: Domain-Invariant Hyperbolic Cross-Branch Consistency
In dem Paper stellen wir HypCBC vor, eine Methode, die Embeddings aus einem eingefrorenen Foundation Model in einen hyperbolischen Raum projiziert und via einer dedizierten Zwei-Zweig-Trainingsstrategie lernt. Die zentrale Idee besteht darin, einen hochdimensionalen Zweig, der feingranulare Informationen erfasst, mit einem niedrigdimensionalen Zweig zu kombinieren, der als Informationsengpass dient und dom?neninvariante Repr?sentationen f?rdert. Ein Cross-Branch-Consistency-Ziel übertr?gt anschlie?end robuste, dom?nenagnostische Informationen zwischen den beiden Zweigen. ?ber elf Datens?tze der medizinischen Bildgebung und drei Vision-Transformer-Backbones hinweg übertreffen hyperbolische Embeddings konsistent euklidische, und unser HypCBC verbessert die Domain Generalization zus?tzlich auf anspruchsvollen Benchmarks in der Dermatologie, Histopathologie und retinalen Bildgebung. Die Methode ist effizient, model-agnostisch und besonders gut für robuste medizinische KI unter Verteilungsverschiebungen geeignet.
?ber TMLR
Transactions on Machine Learning Research (TMLR) ist ein neues Publikationsforum für die Verbreitung von Forschung im Bereich Machine Learning, das als Erg?nzung zum Journal of Machine Learning Research (JMLR) gedacht ist und zugleich die Bedürfnisse einer wachsenden ML-Community unterstützt.


