F:
Hur kan ingenjörer utvärdera träningsuppsättningar och testuppsättningar för att upptäcka eventuell överanpassning i maskininlärning?
A:För att förstå hur detta görs är det nödvändigt att ha ett grundläggande grepp om rollerna för olika datauppsättningar i ett typiskt maskininlärningsprojekt. Träningsuppsättningen är inrättad för att ge tekniken en referensram - en datagrundlag som programmet använder för att fatta förutsägbara och sannolika beslut. Testuppsättningen är där du testar maskinen på data.
Överpassning är ett syndrom i maskininlärning där modellen inte helt passar uppgifterna eller syftet.
Gratis nedladdning: Machine Learning and Why It Matters |
Ett av de övergripande buden för maskininlärning är att träningsdata och testdata ska vara separata datamängder. Det finns en ganska bred enighet om detta, åtminstone i många applikationer, på grund av vissa specifika problem med att använda samma uppsättning som du använde för utbildning för att testa ett maskininlärningsprogram.
När ett maskininlärningsprogram använder en utbildningsuppsättning, som i huvudsak kan kallas en uppsättning ingångar, fungerar det av den utbildningsuppsättningen för att fatta beslut om förutsägbara resultat. Ett mycket grundläggande sätt att tänka på det är att utbildningsuppsättningen är "maten" för den intellektuella datorprocessen.
När samma uppsättning används för testning kan maskinen ofta ge utmärkta resultat. Det beror på att det redan har sett den informationen tidigare. Men hela målet med maskininlärning i många fall är att göra resultat om data som inte har sett förut. Allmänna maskininlärningsprogram görs för att arbeta med olika uppsättningar av data. Med andra ord, principen om maskininlärning är upptäckt, och du får vanligtvis inte så mycket av det genom att använda en grundutbildningsuppsättning för teständamål.
Vid utvärdering av träningsuppsättningar och testuppsättningar för eventuell överanpassning kan ingenjörer utvärdera resultat och räkna ut varför ett program kan göra det annorlunda på de två jämförelsernas jämförande resultat, eller i vissa fall hur maskinen kan göra för bra på själva träningsdata. .
I en kapabel beskrivning av några av dessa problem i maskininlärning i ett stycke 2014 beskriver Jason Brownlee på Machine Learning Mastery överpassning på detta sätt:
"En modell som väljs för sin noggrannhet i träningsdatasättet snarare än dess noggrannhet på ett osynligt testdatasätt har mycket troligt lägre noggrannhet på ett osynligt testdatasätt, " skriver Brownlee. "Anledningen är att modellen inte är så generaliserad. Den har spaliserat till strukturen i träningsdatasatsen (kursivering tillagd). Det här kallas övermontering, och det är mer lurvigt än du tror."
I lägsta termer kan man säga att programmet blir allt för styvt när man specialiserar sig på träningsdatauppsättningen. Det är ett annat metaforiskt sätt att titta på varför ett maskininlärningsprogram inte fungerar optimalt genom att använda träningsuppsättningen för testuppsättningen. Det är också ett bra sätt att närma sig utvärderingen av dessa två olika uppsättningar, eftersom resultaten kommer att visa ingenjörer mycket om hur programmet fungerar. Du vill ha ett mindre gap mellan noggrannhet för båda modellerna. Du vill se till att systemet inte är övermatat eller "precisionsfuserat" till en viss datauppsättning, men det är mer generellt och kan växa och utvecklas på kommando.