Představte si, že se snažíte odhadnout, kolik bonbónů je ve velké sklenici. Místo toho, abyste se spoléhali na odhad jednoho člověka, zeptáte se deseti různých lidí. Každý z nich bude mít mírně zkreslený pohled, ale když jejich odhady zprůměrujete, výsledný odhad bude pravděpodobně mnohem přesnější než kterýkoli jednotlivý. Bagging funguje na podobném principu. Vytvoří několik mírně odlišných verzí trénovacích dat, na každé z nich „vycvičí“ samostatný model a jejich výsledky pak zprůměruje nebo odhlasuje. Tímto týmovým přístupem se snižuje riziko velké chyby a celková předpověď je spolehlivější.
Bagging, což je zkratka pro Bootstrap Aggregating, je souborová (ensemble) meta-metoda ve strojovém učení, jejímž cílem je snížit varianci a zabránit přeučení (overfitting) modelů. Princip spočívá ve vytvoření většího počtu trénovacích datových sad z původní sady pomocí metody bootstrap, což je náhodný výběr vzorků s vracením. Každá tato nově vytvořená sada má stejnou velikost jako ta původní, ale kvůli vracení vzorků obsahuje některé body vícekrát a jiné vůbec.
Na každé z těchto bootstrapových sad je následně natrénován samostatný predikční model, typicky stejného typu, například rozhodovací strom. V poslední fázi, zvané agregace, jsou predikce všech těchto modelů zkombinovány. V případě klasifikačních úloh se nejčastěji používá hlasování (voting), kde vítězí třída s největším počtem hlasů. U regresních úloh se predikce typicky průměrují. Výsledný agregovaný model vykazuje obecně lepší stabilitu a přesnost než kterýkoli z jednotlivých modelů.