Viitekehyksessä käytetään termejä tekoäly, tekoälyratkaisu ja tekoälyteknologia. En hahmota, miksi on käytetty eri termejä eri kohdissa. Yleisesti käytetty termi olisi myös tekoälyjärjestelmä. Viitekehys luonnollisesti tarvitsee selkeän määritelmän, mitä tekoälyllä, tekoälyratkaisulla ja tekoälyteknologialla tarkoitetaan.
Tarkastelen arvioinnin osa-aluetta erityisesti suhteessa EU:n tekoälyasetukseen. Viitekehys käsittelee arvioinnin osa-alueessa esimerkiksi virheellistä tietoa ja manipulointia, mutta ei ota riittävästi huomioon päätöksenteon ja vastuunjaon kysymyksiä – eli sitä, milloin päätöksen tekee ihminen ja milloin kone. EU:n tekoälyasetus korostaa nimenomaan ihmiskeskeistä päätöksentekoa, joten tämän tulisi näkyä myös tekoälyosaamisen viitekehyksessä. Arvioinnin osa-alueesta puuttuu myös tekoälyn riskien ja häiriöiden arviointi. EU:n tekoälyasetus korostaa myös sitä, että käyttäjän on pystyttävä tunnistamaan järjestelmän riskit, häiriötilanteet ja niiden vaikutukset. Erityisesti vinoumat ja häiriöt voisi olla siksi perusteltua mainita myös viitekehyksessä.
Erittäin edistyneen tason kuvaukset aktiivisesta yhteiskunnallisesta keskustelusta ja muiden johtamisesta ovat toisaalta perusteltuja ja DigComp 3.0:n linjan mukaisia, mutta toisaalta niiden voi nähdä liittyvän esimerkiksi temperamenttiin, asemaan työelämässä tai harrastuneisuuteen ennemmin kuin tekoälylukutaidon ydinosaamiseen.