Yhteenveto: | The rapid development of Generative Artificial Intelligence (GenAI) has introduced a new era of technological innovation by revolutionizing how people interact with information. Explainability is a crucial aspect to ensure transparency, accountability, and trust in these GenAI-driven systems. Interpreting and comprehending the decision-making process of GenAI models is becoming increasingly difficult as they become more complex and widespread over time. This research study aims to undertake a thorough navigation of the current state of explainability in GenAI through a two-phase literature review: an umbrella review to analyze previous reviews and an empirical review to examine empirical studies. First, the umbrella review provides an overview by analyzing the existing explainable techniques for GenAI and their limitations. The key limitations in explaining GenAI models include generalization issues, computational inefficiencies, and trade-offs between interpretability and model performance. The empirical review then examines how these GenAI explainable techniques are applied and evaluated in practical settings. A significant finding is the absence of a standardized evaluation framework to measure and compare the effectiveness of different explainability techniques. Finally, the findings of the two reviews are synthesized to identify open challenges and propose potential future directions for improving explainability in GenAI. This study highlights the importance of developing well-balanced GenAI-specific explainable techniques that align with AI regulations to ensure the responsible development of GenAI solutions. In addition, researchers, AI professionals, and policymakers seeking to improve the transparency and explainability of GenAI models can all greatly benefit from the findings.
Generatiivisen tekoälyn (GenAI) nopea kehitys on käynnistänyt uuden teknologisen innovaation aikakauden mullistamalla ihmisten vuorovaikutuksen tiedon kanssa. Selittävyys on olennainen osa avoimuuden, vastuullisuuden ja luottamuksen rakentamista näihin GenAI-pohjaisiin järjestelmiin. GenAI-mallien päätöksentekoprosessin tulkitseminen ja ymmärtäminen on yhä vaikeampaa, koska ne monimutkaistuvat ja laajenevat ajan myötä. Tämän tutkimuksen tavoitteena on perehtyä perusteellisesti GenAI:n nykyiseen selitettävyyteen kaksivaiheisen kirjallisuuskatsauksen avulla: kattokatsaus analysoimaan aikaisempia katsauksia ja empiirinen katsaus empiirisiä tutkimuksia. Ensin kattokatsaus tarjoaa yleiskatsauksen analysoimalla olemassa olevia selitettäviä GenAI:n tekniikoita ja niiden rajoituksia. Tärkeimmät rajoitukset GenAI-mallien selittämisessä ovat yleistysongelmat, laskennalliset tehottomuudet sekä tulkittavuuden ja mallin suorituskyvyn väliset kompromissit. Seuraavaksi empiirisessä katsauksessa tarkastellaan, kuinka näitä GenAI:n selitettäviä tekniikoita sovelletaan ja arvioidaan käytännön ympäristöissä. Yksi merkittävä havainto on standardoidun arviointikehyksen puuttuminen eri selitettävyystekniikoiden tehokkuuden mittaamiseksi ja vertailemiseksi. Lopuksi kahden katsauksen havainnot syntetisoidaan tunnistamaan avoimia haasteita ja ehdottamaan mahdollisia tulevaisuuden suuntauksia GenAI:n selitettävyyden parantamiseksi. Tämä tutkimus korostaa, kuinka tärkeää on kehittää tasapainoisia GenAI-spesifisiä selitettäviä tekniikoita, jotka ovat tekoälymääräysten mukaisia GenAI-ratkaisujen vastuullisen kehityksen varmistamiseksi. Lisäksi tutkijat, tekoälyammattilaiset ja päättäjät, jotka pyrkivät parantamaan GenAI-mallien läpinäkyvyyttä ja selitettävyyttä, voivat kaikki hyötyä suuresti tuloksista.
|