Leírás
Az elmult evekben oriasi jelentosegre tettek szert azok a mesterseges neuronhalo
alapu algoritmusok, amelyek adathalmazokat euklideszi terekbe agyaznak be. Peldaul
a modern termeszetes nyelvi forditoprogramok kritikus osszetevoje a szobeagyazas,
amely szavakhoz valos vektorokat rendel. A forditast vegzo mesterseges neuronhalo
egyszeruen ezen szo-vektorok osszefuzesevel reprezentalja a szoveget. Tobb kutatocsoport
is elkezdte koruljarni azt a kerdest, hogy mi lenne a megfeleloje ezeknek a beagyazasoknak
hiperbolikus terekbe, vagy mas Riemann-sokasagokba. A motivaciot erre elsosorban az adja,
hogy ha az adathalmazunk termeszetes belso tavolsagfogalma hierarchikus jellegu, akkor a
hiperbolikus terek alkalmasabbak a kis torzitasu beagyazasokra, mint az euklidesziek. Az
eloadasban bemutatjuk ezeknek a kezdeti eredmenyeknek az alapgondolatait, majd kozos
gondolkodasra hivjuk a hallgatosagot arrol, hogy milyen otletek es modszerek lehetnek
gyumolcsozoek ezen a fontosnak igerkezo teruleten.
Az alabbi cikkek eredmenyeibol fogok valogatni:
https://arxiv.org/abs/1705.08039 (https://arxiv.org/abs/1705.08039) Poincare Embeddings for Learning Hierarchical Representations
https://openreview.net/pdf?id=S1xDcSR6W (https://openreview.net/pdf?id=S1xDcSR6W) HyBed: Hyperbolic Neural Graph Embedding
https://arxiv.org/pdf/1205.4384.pdf (https://arxiv.org/pdf/1205.4384.pdf) Network Mapping by Replaying Hyperbolic Growth
https://arxiv.org/abs/1804.00891 (https://arxiv.org/abs/1804.00891) Hyperspherical Variational Autoencoders
https://arxiv.org/abs/1711.11216 (https://arxiv.org/abs/1711.11216) Riemannian Stein Variational Gradient Descent