Taula de continguts:
Definició: què significa la llei de Murphy?
La llei de Murphy és un aforisme que afirma que qualsevol cosa que pugui anar malament ho farà en qualsevol moment no definit. Aplicada comunament a les TI, la llei de Murphy és molt rellevant per a proves de programari / maquinari i altres tipus d’enginyeria. També es basa en una visió científica dels sistemes naturals o creats.
Techopedia explica la llei de Murphy
En termes científics, la llei de Murphy es basa en el concepte d’entropia, també coneguda com la segona llei de la termodinàmica. L’entropia, que planteja la tendència eventual d’un sistema ordenat cap al desordre, ha estat una base de diverses teories correlatives. Tant l'entropia com la llei de Murphy, per exemple, suggereixen que durant un test realitzat centenars de vegades, l'equip de prova manifestarà falles, provadors que no segueixen procediments exactes o altres tipus d'errors i problemes inesperats, segons la seva probabilitat global.
Des del seu origen conceptual a mitjan segle XIX, la llei de Murphy s’ha utilitzat en proves i l’àmbit general de la informàtica. Els humans que interactuen amb la tecnologia sovint es confonen o es veuen frustrats per una infinitat de problemes diferents, alguns relacionats amb la funció dels equips i altres amb l'error humà. La llei de Murphy és un mètode per anticipar i parlar de diversos tipus de problemes tecnològics potencials a mesura que es produeixen amb el pas del temps.