Bagging er en ensemble-metode inden for maskinlæring, hvor flere modeller af samme type trænes parallelt på forskellige, tilfældige udsnit af træningsdata. Hver model får sit eget bootstrap-sample – et tilfældigt udvalg af data med tilbagelægning – og træner uafhængigt af de andre. Når det er tid til at lave forudsigelser, kombineres alle modellernes resultater, typisk ved majoritetsafstemning i klassifikation eller gennemsnitsberegning i regression. Den grundlæggende idé er, at ved at kombinere mange lidt forskellige modeller, udligner man de individuelle fejl og får et mere stabilt, robust resultat. Det er en anvendelse af statistikkens princip om, at gennemsnittet af mange estimeringer ofte er mere præcist end ethvert enkelt estimat. Bagging er især effektiv for modeller, der har høj varians og er følsomme over for små ændringer i træningsdata – såsom beslutningstræer. Random Forest, en af de mest populære maskinlæringsalgoritmer nogensinde, er et klassisk eksempel på bagging anvendt med beslutningstræer. Metoden balancerer bias og varians effektivt.