En modell er nestet i en annen hvis du alltid kan oppnå den første modellen ved å begrense noen av parametrene til den andre modellen. For eksempel er den lineære modellen $ y = a x + c $ nestet i 2-graders polynomet $ y = ax + bx ^ 2 + c $, fordi ved å sette b = 0, 2-grad. polynom blir identisk med den lineære formen. Med andre ord er en linje et spesielt tilfelle av et polynom, og så er de to nestede.
Hovedimplikasjonen hvis to modeller er nestet er at det er relativt enkelt å sammenligne dem statistisk. Enkelt sagt, med nestede modeller kan du vurdere den mer komplekse som å være konstruert ved å legge til noe i en mer enkel "nullmodell". For å velge det beste ut av disse to modellene, må du derfor bare finne ut om det som er lagt til noe, forklarer en betydelig mengde ekstra varians i dataene. Dette scenariet tilsvarer faktisk å tilpasse den enkle modellen først og fjerne den forventede variansen fra dataene, og deretter tilpasse tilleggskomponenten til den mer komplekse modellen til restene fra første tilpasning (i det minste med estimering av minste kvadrat).
Ikke-nestede modeller kan forklare helt forskjellige variansdeler i dataene. En kompleks modell kan til og med forklare mindre varians enn en enkel, hvis den komplekse ikke inkluderer de "riktige greiene" som den enkle har. Så i så fall er det litt vanskeligere å forutsi hva som ville skje under nullhypotesen at begge modellene forklarer dataene like godt.
Mer til poenget, under nullhypotesen (og gitt visse moderate forutsetninger), følger forskjellen i godhetsgrad mellom to nestede modeller en kjent fordeling, hvis form bare avhenger av forskjellen i frihetsgrader mellom de to modellene. Dette gjelder ikke modeller som ikke er nestede.