Voorwaarden van een lineair regressiemodel

Er zijn drie belangrijke voorwaarden vooraleer we regressie-analyse kunnen toepassen:

  • Lineariteit
  • Onafhakelijke waarnemingen
  • Residuen normaal verdeeld met gemiddelde 0 en constante variantie

De eerste voorwaarde, lineariteit, houdt in dat een regressieanalyse enkel in staat is om een correcte inschatting te maken van een verband tussen één continue afhankelijke variabele en één of meerdere afhankelijke variabelen als dit verband lineair is. Wanneer het verband niet lineair is, zal de inschatting op basis van lineaire regressie een foutief beeld geven, m.a.w. de schattingen zullen niet valide zijn en er zal bias optreden.

De tweede voorwaarde, onafhakelijke waarnemingen, geeft aan dat de klassieke lineaire regressie een inschatting kan maken wanneer er slechts één observatie is per variabele per persoon. Indien eenzelfde variabele meerdere malen gemeten of bevraagd werd bij eenzelfde persoon zal de inschatting van de regressie niet correct zijn. De schatting zal nu niet per se onderhevig zijn aan bias, maar de berekeningen van het \(95\% CI\) zal niet correct kunnen gebeuren.

De derde voorwaarde, normaal verdeelde residuen, geeft aan dat de fouten die door het model gemaakt zijn normaal verdeeld moeten zijn met een gemiddelde van 0. Dit is belangrijk aangezien de regressielijn een gemiddelde weergeeft van \(Y\) (\(\bar{Y}\)) voor elke \(X_i\). Indien de residuen niet normaal verdeeld zijn en het gemiddelde van de residuen niet gelijk zou zijn aan 0, gaat de veronderstelling van een gemiddelde inschatting niet meer op.