Pastaruoju metu nemažai diskusijų kelia klausimai, susiję su dirbtinio intelekto naudojimu švietimo sektoriuje. Su etiniais iššūkiais susiduriama pasitelkiant dirbtiniu intelektu gristas informacines sistemas kaip pagalbines priemones, pvz., studentams rengiant rašto darbus, tyrėjams atliekant mokslinius tyrimus, rengiant mokslo publikacijas.
2019 metais nepriklausoma aukšto lygio ekspertų grupė dirbtinio intelekto klausimais paskelbė Patikimo dirbtinio intelekto etikos gaires, kuriose keliami tiek teisiniai, tiek etiniai klausimai. Šiose gairėse atkreipiamas dėmesys į tai, kad tyrėjai turėtų gebėti paaiškinti dirbtiniu intelektu grįstų informacinių sistemų patikimumą ir atkuriamumą, ir todėl tyrėjų kompetencijos šioje srityje turėtų būti tinkamai tobulinamos.
Jungtinių Tautų Švietimo, mokslo ir kultūros organizacija (United Nations Educational Scientific and Cultural Organization, UNESCO) 2021 metais paskelbė Rekomendacijas dėl dirbtinio intelekto etikos (prieinamos anglų kalba). Jose pažymima, kad dirbtiniu intelektu grįstos technologijos veikia mokslą plačiąja prasme, nepriklausomai nuo mokslo srities, nes jomis tinkamai naudotis moksliniuose tyrimuose būtini nauji gebėjimai ir metodai. Be to, šios technologijos keičia mokslines sampratas bei paaiškinimus. Šiose rekomendacijose akcentuojama, kad dirbtinio intelekto kaip metodo naudojimas moksliniuose tyrimuose turi būti tinkamai pagrįstas ir griežtai kontroliuojamas pagal mokslo principus.
2022 m. paskelbtoje Europos Tarybos studijoje „Artificial Intelligence and Education: A critical view through the lens of human rights, democracy and the rule of law“ dirbtinis intelektas švietime aptariamas teisiniu ir etiniu aspektais. Šioje studijoje pažymima, kad ilgainiui nepakaks papildyti etikos kodeksus nuostatomis, susijusiomis su dirbtinio intelekto naudojimu, ar integruoti žinias apie dirbtinį intelektą į atnaujinamas studijų programas. Pastebima, kad atitikties mokslinių tyrimų etikai vertinimas turėtų apimti ir dirbtiniu intelektu grįstų informacinių sistemų naudojimo vertinimą planuojamuose moksliniuose tyrimuose (pvz., valdant mokslinio tyrimo duomenis ir juose esančius asmens duomenis, gaunant informuotą asmens sutikimą). Tad iki šiol taikytų priemonių ir procedūrų nebepakanka.
Duomenų apsaugos teisiniams ir etiniams aspektams nemažai dėmesio skirta ir Europos Sąjungos lėšomis finansuojamuose projektuose, pvz., PANELFIT (ataskaita „Guidelines on Data Protection Ethical and Legal Issues in ICT Research and Innovation. Artificial Intelligence“), Sherpa (modelis „Artificial intelligence impact assessment“), SIENNA (skiltis „Artificial intelligence & Robotics“).
Kviečiame akademinę bendruomenę išsamiau susipažinti su minėtais dokumentais ir atsakingai vertinti dirbtiniu intelektu grįstų informacinių sistemų naudojimą atliekant mokslinius tyrimus ir skelbiant jų rezultatus.