Innehållsförteckning:
Definition - Vad betyder AdaBoost?
AdaBoost är en typ av algoritm som använder en ensemble-inlärningsstrategi för att väga olika insatser. Det designades av Yoav Freund och Robert Schapire i början av 2000-talet. Det har nu blivit något av en go-to-metod för olika slags uppsving i maskininlärningsparadigmer.
Techopedia förklarar AdaBoost
Experter talar om AdaBoost som en av de bästa viktade kombinationerna av klassificerare - och en som är känslig för buller och som bidrar till vissa maskininlärningsresultat. Vissa förvirringar kommer från verkligheten att AdaBoost kan användas i flera instanser av samma klassificerare med olika parametrar - där proffsen kan prata om AdaBoost "bara har en klassificerare" och bli förvirrad över hur viktningen inträffar.
AdaBoost presenterar också en särskild filosofi inom maskininlärning - som ett ensemble-inlärningsverktyg bygger det på den grundläggande idén att många svaga elever kan få bättre resultat än en starkare lärandeenhet. Med AdaBoost tillverkar experter på maskininlärning ofta system som tar in ett antal ingångar och kombinerar dem för ett optimerat resultat. Vissa tar denna idé i ytterligare utsträckning och pratar om hur AdaBoost kan beordra "arméer av beslutsstubbar" som i huvudsak är mindre sofistikerade elever som används i stort antal för att krossa data där denna metod ses positivt över att använda en enda klassificerare.
