Taula de continguts:
- Definició: què significa Intel·ligència Artificial Explicable (XAI)?
- Techopedia explica Intel·ligència Artificial Explicable (XAI)
Definició: què significa Intel·ligència Artificial Explicable (XAI)?
La intel·ligència artificial explicable (XAI) és un terme clau en el disseny de IA i en el conjunt de la tecnologia tecnològica. Es refereix als esforços per assegurar-se que els programes d’intel·ligència artificial siguin transparents en els seus propòsits i en el seu funcionament. L’AI explicable és un objectiu i un objectiu comuns per a enginyers i altres que intentin avançar amb el progrés de la intel·ligència artificial.
La intel·ligència artificial explicable també es coneix com a intel·ligència artificial transparent.
Techopedia explica Intel·ligència Artificial Explicable (XAI)
La idea darrere de la IA explicable és que els programes i tecnologies d'AI no han de ser "models de caixa negra" que la gent no pot entendre. Segons els experts, massa sovint, els programes d’intel·ligència artificial sacrificen la transparència i l’explicabilitat per obtenir resultats sofisticats experimentals. Alguns algoritmes potents poden resultar útils sense mostrar en realitat com van arribar a aquests resultats.
La intel·ligència artificial explicable també és una part clau de l'aplicació de l'ètica a la IA. Tal com han assenyalat líders tecnològics com Elon Musk, la intel·ligència artificial pot acabar tenint positius o negatius nets, segons com sigui utilitzat pels humans i de com és construït pels humans.
Una IA explicable ajuda en la recerca d'una IA ètica, ja que mostra com les màquines duen a terme un treball computacional i on poden haver-hi problemes.
