Súčasné aplikácie umelej inteligencie (Artificial Intelligence - AI) sú v podstate bifľoši, ktorí dokážu zhltnúť veľké množstvo informácií a potom ich zreprodukovať. Či však týmto informáciám skutočne porozumeli, nevieme.
„Sú pre nás čiernou skrinkou, ktorej útroby stále ešte skúmame a poriadne do nich nevidíme,“ vysvetľuje vedec a zástupca riaditeľky z Kempelenovho inštitútu inteligentných technológií MARIÁN ŠIMKO.
Študenti by podľa neho mali byť pri využívaní AI opatrní, pretože môže mať predsudky a robiť faktické chyby. „Je len taká dobrá ako dáta, z ktorých sa učí. Ak by ste jej napríklad dali rasistický obsah, tak sa z nej môže stať rasista,“ hovorí v rozhovore pre INDEX.
V rozhovore sa dozviete:
- Prečo sa nedá úplne veriť výstupom z ChatGPT,
- ako sa stane z umelej inteligencie rasista,
- či môže AI pomôcť odhaliť plagiáty v školách,
- ako môže táto technológia pomôcť aj učiteľom?
Novšia generácia aplikácie Chat GPT pracuje nielen s textom, ale aj s obrazom. Ako sa to dá využiť pri vyučovaní a vzdelávaní?
Tento model umelej inteligencie (AI) dokáže obrázok podobne ako text zahrnúť do svojich odpovedí. Vie študentovi nakresliť obrázok či graf, aby nejakú látku lepšie pochopil. Alebo zadaný obrázok vysvetlí. Niektoré modely už vedia pracovať aj s videom.
Druhá vec je, že aj keď má AI už odpoveď na všetko, otázne je, aká je presná a dôveryhodná. AI je navrhnutá tak, že vám odpoveď na otázku dá vždy. Keď ju nepozná, v podstate si niečo domyslí. A to môže byť aj nezmysel. Hovoríme, že halucinuje.
Je taká dobrá ako dáta, z ktorých sa učí
Takže študent by mal k jej výstupom pristupovať kriticky, lebo môže mať chyby či sklon k nejakým typom informácií?
Treba k nim pristupovať s kritickým myslením, pretože AI stále nie je na takej úrovni, aby sa jej dalo bezhranične veriť. Aj ona robí chyby.
Napríklad vám povie, že Pluto je mesiac v slnečnej sústave. Alebo vám poradí zlú adresu pri objednávke pizze. A to sú síce nepríjemné, ale ešte nie nebezpečné omyly. Dôležité je, aby sa nemýlila v citlivých rozhodnutiach, napríklad pri vyhodnocovaní žiadosti o hypotéku alebo v medicíne.
V čo je problém?
Modely umelej inteligencie založené na hlbokých neurónových sieťach sú v podstate bifľoši, ktorí dokážu zhltnúť veľké množstvo informácií a potom ich zreprodukovať.
Či však týmto informáciám skutočne porozumeli, nevieme. Sú pre nás čiernou skrinkou, ktorej útroby stále ešte skúmame a poriadne do nich nevidíme.
Prečo AI nemusí rozumieť informáciám?
Napríklad pred pár rokmi vedci naučili AI rozoznávať fotky zvierat. Časom zistili, že ich rozoznala nekorektným spôsobom.