Novice

Izzivi in tveganja pri uporabi umetne inteligence

Izzivi in tveganja pri uporabi umetne inteligence

Nedelja, 19. januar 2025

Umetna inteligenca (UI) v zadnjih letih doživlja izjemen razcvet, saj se pojavlja v vse več orodjih in aplikacijah, ki nam pomagajo pri vsakodnevnih opravilih. Tudi v Kabiju smo umetno inteligenco implementirali v naše rešitev. Razvoj velikih jezikovnih modelov je opazen v številnih panogah in poklicih: programiranju, trženju, trgovini, nepremičninah, zdravstvu, pravu in mnogih drugih. Kljub izjemnim zmogljivostim in vsestranskosti pa se moramo zavedati, da tehnologija umetne inteligence ni nezmotljiva.

V nadaljevanju članka bomo podrobneje predstavili ključne izzive in tveganja, ki jih prinaša uporaba umetne inteligence.

Nezanesljivost odgovorov in pomanjkanje konteksta

Nezanesljivost odgovorov

Generativni modeli umetne inteligence, ki temeljijo na ogromnih podatkovnih bazah, so sposobni tvoriti izjemno prepričljiva in tekoča besedila. Vendar to še ne zagotavlja, da so takšna besedila tudi pravilna. Obsežne podatkovne baze, iz katerih se modeli učijo, lahko namreč vsebujejo nepreverjene ali napačne informacije. Posledica tega je, da lahko UI ponudi odgovor, ki je jezikovno dovršen, a vsebinsko zavajajoč, delno pravilen ali popolnoma napačen. V marsikateri panogi ima lahko napačen ali zavajajoč izjemno negativne posledice. Primer programiranja: napačni rezultat lahko vodi v napako v programski opremi (kodi), ki lahko privede do serije napak ali celo nepravilnega delovanja določenega sistema, aplikacije ali programa, kar ima lahko daljnosežne posledice.

Pomanjkanje konteksta / razumevanja

Tudi ko je UI sposobna tvoriti smiseln odgovor, ji pogosto manjka globlje razumevanje tematike. Modeli prepoznavajo vzorce na podlagi statistike, zato ne razumejo dejanskega pomena besedil, kakor ga dojemamo ljudje. Kadar uporabniki ne preverijo, ali je vsebina zares ustrezna specifičnemu namenu, obstaja nevarnost, da bodo sprejeli odločitev, ki temelji le na “površinski” razlagi podatkov.

Umetna inteligenca ni odgovor na vse izzive in težave

Veliko podjetij je začelo z uvajanjem umetne inteligence v lastne poslovne procese. Pri tem pa ima kar nekaj od njih težave, saj ne ločujejo med umetno inteligenco in digitalizacijo poslovanja. Velikokrat je digitalizacija poslovanja tista, ki rešuje njihove težave bolj učinkovito ter trajno.

Problem črne skrinjice (black box problem)

Eden večjih izzivov v svetu umetne inteligence je nezmožnost jasne razlage, kako je določen model prišel do svojega odgovora. Številne metode strojnega učenja, še posebej nevronske mreže, so izjemno zapletene in jih je težko v celoti razumeti.

  • Nejasni procesi odločanja: Uporabnik pogosto ne ve, na katerih vzorcih ali kriterijih je UI temeljila
  • Slaba preglednost: Manjka jasen vpogled v zakulisje delovanja, zato lahko UI naredi napako, ki je niti razvijalci ne znajo pojasniti

Posledično se lahko zgodi, da se ljudje preveč zanašajo na videz “popolen” odgovor, ne da bi vedeli, kako in na kakšen način je umetna inteligenca prišla do zaključnega sklepa. To je še posebej problematično v panogah, kjer majo tovrstne napake lahko celo usodne posledice.

Etika

Generativni modeli so naučeni na velikih bazah podatkov, ki lahko vsebujejo družbene stereotipe ali diskriminatorne prakse. Če se takšen jezik v podatkovni bazi pojavlja pogosto, ga bo UI posredno reproducirala ali celo naglaševala.

  • Lahko širijo ali ohranjajo stereotipe glede spola, rase, narodnosti
  • Ustvarjajo vsebine, ki ne odražajo resničnega stanja ali so celo sovražne

Prav tako pa je lahko UI pristranska. V kolikor ji date ukaz, naj napiše določeno vsebino v nekem stilu ali pa naj se strinja z vaši trditvijo, bo rezultat točno tak kot ste si želeli. Ni nujno, da je to prav, zato je pomembno, da ste do rezultatov kritični, saj boste le na ta način dosegli najboljše rezultate. Seveda pa je zelo pomembo, da ste tudi sami strokovnjak na področju, kjer jo uporabljate.

Varnost in zloraba tehnologije

Deepfake vsebine

Generativna UI omogoča izjemno verodostojno izdelavo slik, videoposnetkov in zvočnih posnetkov, ki lahko prepričljivo posnemajo resnične osebe. To tehnologijo imenujemo “deepfake”. Ta tehnologija je hkrati fascinantna in potencialno nevarna:

  • Manipulacija mnenja: Ponarejeni posnetki lahko vznemirijo javnost in privedejo do t.i. lažni novic (fake news). Zelo popularne so različni posnetki, ki vam obljubljajo bogastvo z vlaganjem majhne količine denarja, kar seveda ni resnično
  • Diskreditacija posameznikov: Osebi je mogoče “podtakniti” izjave, ki jih nikoli ni izrekla

Dezinformacijske kampanje

Sposobnost hitro generiranih besedil omogoča masovno produkcijo lažnih ali pristranskih vsebin. Tovrstne kampanje lahko zavedejo splošno javnost ali povzročijo podjetjem ter posameznikom ekonomsko škodo. Organizirano in sistematično širjenje lažnih novic, ki so videti legitimno, je v dobi družbenih omrežij še posebej nevarno.

Meta oz. Facebook je napovedal, da bo nehala preverjati dejstva o resničnosti objav na njihovih platformah.

Zaupnost podatkov


Če pri razvoju generativnih modelov ni poskrbljeno za anonimizacijo ali ustrezno zaščito podatkov, lahko pride do razkritja osebnih ali občutljivih informacij. Uporabniki orodja pogosto vpisujejo podatke v prepričanju, da so sistemi popolnoma varni, vendar ni vedno jasno, kako se vpisani podatki dejansko shranjujejo ali analizirajo.

Vsi uporabniki umetne inteligence se morate zavedati, da uporaba osebnih podatkov vsekakor ni zaželena, saj vsi modeli umetne inteligence uporabljajo vnešene podatke za učenje. Pri tem se lahko zaščitite, če uporabljate chatbot-e, ki jih sami razvijete, vendar pa dodatna previdnost pri obdelovanju osebnih podatkov vsekakor ni odveč.

Kako zagotoviti varno in zanesljivo uporabo UI?

Najpomembnejši dejavnik za zmanjševanje tveganj je zavedanje, da UI ni nezmotljiva. Uporabniki morajo:

  • V primeru dvomov rezultat preveriti s pomočjo drugih, preverjenih virov
  • Se zavedati, da prepričljiv slog ali “avtoriteta” UI ne jamčita resničnosti podatkov

Pri tem zelo pomaga, če ste sami strokovnjak na dotičnem področju. Na ta način boste hitreje opazili napake ali potencialne težave.

Uporaba človeške presoje (Human-in-the-Loop)

UI je lahko izjemno koristen dodatek oz. asistent človeškemu znanju, vendar naj ne bo edini ali končni avtor odločitve. Človeška presoja je ključna pri:

  • Končnem vrednotenju rezultatov
  • Preverjanju konteksta in prilagajanju informacij glede na situacijo
  • Upoštevanju specifičnih etičnih, pravnih ali kulturnih smernic

Zaključek

Umetna inteligenca prinaša izjemne priložnosti, hkrati pa prinaša velike izzive. Njenih koristi ne gre prezreti: podjetja z njo pospešujejo delovne procese, olajšajo analizo podatkov ali iščejo nove, inovativne zamisli. Vendar je ključno, da se zavedamo tudi pasti oz. tveganj:

  • Nezanesljivost odgovorov / rezultatov: UI lahko zagotovi prepričljiva, vendar napačna ali zavajajoča besedila
  • Pomanjkanje konteksta: Modeli ne razumejo situacije, temveč jo statistično ocenjujejo
  • Črna skrinjica: Kompleksne notranje strukture ne omogočajo vedno pojasniti, zakaj je bila sprejeta določena odločitev
  • Etika in pristranskost: Nepreverjeni ali pristranski viri podatkov lahko vodijo v še večje etične dileme in nepravilnosti
  • Varnost in zloraba: Deepfake posnetki in množične dezinformacije imajo lahko močan vpliv na širšo družbo

Kljub naštetim tveganjem priporočamo razumno uporabo umetne inteligence, saj vam prinaša ogromno koristi. Pri tem pa vam svetujemo, da vedno, ko ste v dvomih preverite točnost rezultatov pri kredibilnih virih.

Ne pozabite pa da je velikokrat odgovor za vse vaše težave v digitalizaciji poslovanja in ne neposredno v uporabi umetne inteligence.