Casa Desenvolupament Per què és un problema el biaix de màquina en l'aprenentatge de màquines?

Per què és un problema el biaix de màquina en l'aprenentatge de màquines?

Anonim

P:

Per què és un problema el biaix de màquina en l'aprenentatge de màquines?

R:

Aquesta pregunta es pot respondre de dues maneres diferents. Primer, per què existeix el problema del biaix de màquina, com passa, per què existeix en els processos d'aprenentatge de màquines?

L’aprenentatge de màquines, tot i que és sofisticat i complex, és en gran mesura basat en els conjunts de dades que utilitza. La construcció dels conjunts de dades implica biaixos inherents. Igual que en els mitjans de comunicació, quan les omissions i les opcions deliberades d’inclusió poden mostrar un biaix particular, en l’aprenentatge automàtic, s’han d’examinar els conjunts de dades que s’utilitzen per determinar quin tipus de biaix existeix.

Descàrrega gratuïta: Aprenentatge automàtic i per què és important

Per exemple, és un problema freqüent que els processos de prova i disseny de tecnologia mostrin una preferència per un tipus d’usuari per un altre. Un dels grans exemples és la disparitat de gènere en el món de la tecnologia.

Per què això fa la diferència i per què s'aplica a l'aprenentatge automàtic?

La manca de dones existents en un entorn de prova pot conduir a una tecnologia produïda que sigui menys fàcil d'utilitzar per a un públic femení. La manera en què alguns experts ho descriuen és que sense fer proves femenines existents, el producte final pot no reconèixer l’aportació d’usuaris femenins, potser no disposa de les eines per reconèixer les identitats femenines ni per afrontar adequadament les aportacions de les dones.

El mateix passa per a diverses ètnies, persones de diferents religions o qualsevol altre tipus de demografia. Sense les dades adequades, els algorismes d’aprenentatge automàtic no funcionen correctament per a un conjunt d’usuaris determinat, de manera que s’han d’afegir deliberadament dades d’inclusió a la tecnologia. En lloc de només prendre conjunts de dades primàries i reforçar el biaix inherent, els gestors humans han de mirar realment el problema.

Un altre exemple és un motor d'aprenentatge de màquines que requereix informació sobre els salaris i la feina i permet obtenir resultats. Si no s'analitza aquest conjunt de dades inherent, la màquina reforçarà el biaix. Si perceben que els homes ocupen la gran majoria de feines executives i el procés d’aprenentatge automàtic consisteix en filtrar el conjunt de dades en brut i retornar els resultats corresponents, retornarà resultats que mostren un biaix masculí.

La segona part de la pregunta tracta per què aquest prejudici és tan perjudicial. Sense una supervisió i proves adequades, les noves tecnologies poden perjudicar, sense ajudar, el nostre sentit d’inclusió i igualtat. Si es produeix un producte de nova tecnologia que reconeix les cares amb pell més clara, però no les de pell més fosca, pot provocar tensions ètniques escalades i la sensació que l’empresa en qüestió no és sensible a la diversitat. Si un algorisme d’aprenentatge automàtic reprodueix i augmenta el biaix dels conjunts de dades, aquesta intel·ligència artificial ha d’afegir la seva veu a les veus humanes i a les tendències humanes que ja existeixen al sistema social que afavoreixen un grup de persones sobre un altre.

La millor manera d’afrontar-ho és mirar de prop els conjunts de dades subjacents, utilitzar la selecció de funcions, afegir entrada variable i manipular els conjunts de dades en brut i augmentar el poder real de l’aprenentatge de màquines amb l’elaboració deliberada de dades humanes, per obtenir un resultat que proporciona una gran potència analítica, però també alguns d'aquests coneixements humans que els ordinadors encara no poden reproduir.

Per què és un problema el biaix de màquina en l'aprenentatge de màquines?