A study on the embedding spaces of the BERT language model
Tässä työssä käsitellään luonnollisen kielen käsittelynä tunnettua tekoälyn osa-aluetta. Työssä keskitytään niin kutsuttuun transformer-arkkitehtuuriin pohjautuvaan BERT-nimiseen tekoälymalliin. Erityisesti työssä tarkastellaan tämän mallin upotusvektoreita, jotka kuvastavat mallin sisäistä luonnoll...
| Päätekijä: | |
|---|---|
| Muut tekijät: | , , , |
| Aineistotyyppi: | Pro gradu |
| Kieli: | eng |
| Julkaistu: |
2024
|
| Aiheet: | |
| Linkit: | https://jyx.jyu.fi/handle/123456789/97810 |