Oppiva tekoäly ja takaovihyökkäykset

Tekoälyä voidaan opettaa havainnoimaan itsenäisesti ja tekemään päätöksiä sen pohjalta. Tämä tutkielma kuvaa tekoälyn ohjattua opettamista ja esittelee tekoälyn opettamiseen liittyviä riskejä, joista pääpainotus on datan myrkyttämiseen liittyvissä takaovihyökkäyksissä. Riskejä on sekä tahattomia ett...

Täydet tiedot

Bibliografiset tiedot
Päätekijä: Suvivirta, Melinda
Muut tekijät: Informaatioteknologian tiedekunta, Faculty of Information Technology, Informaatioteknologia, Information Technology, Jyväskylän yliopisto, University of Jyväskylä
Aineistotyyppi: Kandityö
Kieli:fin
Julkaistu: 2022
Aiheet:
Linkit: https://jyx.jyu.fi/handle/123456789/80918
Kuvaus
Yhteenveto:Tekoälyä voidaan opettaa havainnoimaan itsenäisesti ja tekemään päätöksiä sen pohjalta. Tämä tutkielma kuvaa tekoälyn ohjattua opettamista ja esittelee tekoälyn opettamiseen liittyviä riskejä, joista pääpainotus on datan myrkyttämiseen liittyvissä takaovihyökkäyksissä. Riskejä on sekä tahattomia että tahallisia, mutta yhteistä niille on, että ne pohjautuvat vahvasti siihen, millaisella datalla tekoälyä opetetaan. Takaovihyökkäykset luovat vakavan uhan monille tekoälyohjelmille ja niiden tunnistaminen on usein haastavaa. AI can be teached to make observations and then make independent choices based on them. This thesis describes supervised learning of AI and undergoes different risks that are involved with teaching AI. The main focus is on backdoor attacks that are involved with data poisoning. There are both unintentional and intentional risks associated with teaching AI. The risks are mainly based on what kind of data the AI is being taught with. Backdoor attacks create a serious threat to several AI programs and it is often difficult to detect them.