Kies voor explainable ai (artificial intelligence)
Veilig werken met zelflerende computers
Zelfdenkende computers die ‘zomaar’ wat doen – het kan als een schrikbeeld op u afkomen. Zeker als u zelflerende computer technieken wilt inzetten om belangrijke keuzes op te baseren. Wat dan beter werkt? Explainable ai, artificial intelligence. Waarom dit zo veel beter werkt, ontdekt u hier.
Wat is explainable ai?
Herkomst herleid
Kunstmatige intelligentie wint snel terrein. Binnen die techniek bevindt zich machine learning: zelfdenkende computers. Om die te ontwikkelen bestaat er een programma dat die computers zelf laat laten observeren, leren, beslissen en handelen. Dat programma heet explainable ai, ook wel afgekort tot xai. De vertaling luidt: uitlegbare AI. Ook de termen interpretable ai of transparante ai komen voor.
Hoe transparant is ai?
Verschil met andere machine learning techniek
Binnen de wereld van machine learning bestaan twee technieken om een computer zelf beslissingen te laten nemen.
- Black box
- Explainable ai
De black box is een methode waarbij zelfs de ontwikkelaars hierachter niet aan u kunnen uitleggen hoe een computer tot zijn beslissing komt. Explainable artificial intelligence is een vorm van machine learning die door mensen makkelijk valt te begrijpen en vertrouwd voelt.
APPelit, ontwikkelaar van zelflerende computers, heeft volop ervaring met explainable artificial intelligence. Wij helpen u graag met onze kennis.
Missers met machine learning
Machine learning inzetten betekent dat we niet altijd weten hoe een zelflerende computer tot zijn uitkomsten komt. Dat gaat wel eens mis. Volgens Wikipedia was er in 2017 software die paardenfoto’s moest herkennen via beeldherkenning. De software dacht op een bepaald moment dat foto’s met copyright automatisch paardenfoto’s waren…. Niet handig. En volgens Frankwatching werkte de recruiter van Amazon met een wervingssysteem dat een grotere voorkeur had voor mannen… Oei.
Dit is het grootste risico van explainable ai
Het blijft mensenwerk
Om te starten met kunstmatige intelligentie stoppen we er als mensen nog altijd kennis en keuzes in. Dáár ligt de kans op input van vooroordelen. Verder werkt machine learing met neurale netwerken: zoals uw hersens (neuraal netwerk) via uw oor geluid omzetten in een klank, zet machine learning ook informatie om. Alleen … de wiskundige formule hiervoor wordt weer gemaakt door mensen die ergens een waarde aan hangen. Ook daarom loont werken met explainable artificial intelligence: zo veel mogelijk transparantie.
APPelit beperkt de risico’s op menselijke invloed sowieso graag. Hoe? Door samen met u waardes te bepalen en keuzes zo objectief mogelijk te houden. Zo gebruiken we de verklaarbare machine learning models achter Xai en krijgt u enorme leerprestaties en nauwkeurige voorspellingen.
Uw online imago onder de loep?
Voorbeeld van geslaagde inzet met zelflerende computer
Wilt u uit recensies filteren of mensen positief, negatief of neutraal over u praten? Of over uw product? Explainable ai maakt het mogelijk. Het algoritme herachter ontdekt bijvoorbeeld dat een woord als ‘afschuwelijk’ negatief is. Zo ontstaat een lijst met woorden waar de kunstmatige intelligentie een waardeoordeel aan hangt. Handig als u via bijvoorbeeld social media alles wilt weten over het imago van uw bedrijf.
Acceptabel voor u?
Kans op grijs gebied blijft bij explainable ai
APPelit werkt zo veel mogelijk met modellen vanuit explainable ai. Toch is het ook dan niet altijd mogelijk u uit te leggen waarom een zelflerende computer bepaalde prestaties levert of beslissingen neemt. Overweegt u deze techniek in te zetten bij bijvoorbeeld juridische zaken? Dan raden we dat af. Gebruikt u het in het bedrijfsleven om slimmer te ondernemen, efficiënter te werken, beter te plannen of klanten gerichter te bedienen? Dan kan er weinig mis gaan.
Meer weten over explainable ai en zelflerende computers?
Vult u hieronder uw contactinformatie in? Dan plannen we snel een vrijblijvend gesprek.
Ervaar het gemak van onze service
Ervaar het gemak van onze service