Een regressielijn geeft de beste voorspelling weer van de ene variabele door de andere variabele.
Regressieanalyse wordt gebruikt om het effect te bepalen van een (of meerdere) verklarende variabele(n), zoals lengte of leeftijd, op een afhankelijke variabele zoals gewicht. Je kunt regressieanalyse gebruiken om: Samenhang tussen twee variabelen te bepalen (leeftijd en waarde van een auto)
De regressiecoëfficiënt geeft aan hoe de ene variabele verandert per eenheid verandering van de andere variabele ('b' in de vergelijking van een regressielijn y = a + bx). Met andere woorden, de regressiecoëfficiënt (b) is de helling van de regressielijn.
In de statistiek is de correlatiecoëfficient (R) is een maat voor het gezamenlijk variëren van twee variabelen. Het kwadraat van de correlatiecoëfficiënt (R2) wordt de determinatiecoëfficiënt genoemd. Deze geeft aan welk gedeelte van de variatie in de ene variabele door de andere wordt 'verklaard'.
Een regressielijn is een rechte lijn in een spreidingsdiagram die zo dicht mogelijk bij de punten in de grafiek ligt.
In regressie is er sprake van het herbeleven van traumatische gebeurtenissen of situaties uit het verleden. Het is alsof het allemaal opnieuw gebeurd, met bijpassende (pijnlijke) gevoelens, gedachten en gedrag.
Je gaat dan uit van een regressielijn van y op x . Deze formule lijkt erg op die van de correlatiecoëfficiënt. In feite is a = r x y ⋅ σ y σ x . En hiermee heb je een snelle manier gevonden om het hellingsgetal a te vinden.
Het woord regressie heeft als letterlijke betekenis 'teruggang, terugwerking of achteruitgang'. In de psychologie staat regressie voor het terugkeren naar een eerdere fase van de levensontwikkeling. Regressie treedt op als afweermechanisme bij de verwerking van onverwerkt verdriet, gevoelens, emoties, trauma's etc.
Een positieve correlatie betekent dat beide variabelen samen toenemen of afnemen. Een negatieve correlatie betekent dat de ene variabele toeneemt, terwijl de andere variabele afneemt. Als de correlatiecoëfficiënt gelijk is aan 0, is er geen verband tussen de variabelen (zero correlation).
Een methode om een verband tussen variabelen te leggen. Dit gebeurt door het kwadraat van het verschil tussen de waarnemingen en het gevonden verband te minimaliseren.
Wanneer de afhankelijke variabele voorspeld wordt op basis van één onafhankelijke variabele is er sprake van enkelvoudige regressie-analyse. Wanneer er meerdere onafhankelijke variabelen gebruikt worden om de afhankelijke variabele te voorspellen, spreken we van multipele regressie-analyse.
Hoe verder de correlatie van 0 af zit, hoe sterker het verband is. Op basis van toeval zal de correlatie altijd wel iets van 0 afwijken. Maar met de p-waarde wordt beoordeeld of het verband 'significant' is. Bij een p-waarde die kleiner is dan 0.05, is een verband statistisch significant.
Bij een lineair regressie model luidt de vuistregel dat het aantal parameters max 5% tot 10% mag zijn van het totaal aantal gebruikte observaties mag zijn, oftewel minimaal 10 a 20 patienten per variabele.
Met logistische regressie kan je een dichotome uitkomstvariabele (dood versus leven, wel of geen klachten, etc.) relateren aan één of meerdere predictoren. Het basis idee achter logistische regressie is dat je de uitkomstvariabele zodanig transformeert dat er een soort lineaire regressie mogelijk is.
Homoscedasticiteit houdt in dat de variantie van een variabele gelijk is voor meerdere groepen of dat de variantie van de foutterm gelijk is. Bij het uitvoeren van een t-toets of ANOVA analyseer je de variantie tussen de meerdere groepen. Dit kan getoetst kan worden met Levene's test.
Rapporteren van logistische regressie
Logistische regressie kan je ongeveer hetzelfde rapporteren als lineaire regressie. Vermeld de b-waardes, standaard meetfouten en de significantie. Vermeld ook de odds ratio, het betrouwbaarheidsinterval en de constante.
Correlatiemaat. De mate van correlatie tussen twee variabelen wordt uitgedrukt in de correlatiecoëfficiënt. De waarde daarvan kan variëren tussen –1 en +1. Daarbij betekent 0: geen lineaire samenhang, +1: een perfecte positieve lineaire samenhang en –1: een perfecte negatieve lineaire samenhang.
Terwijl men met correlatie aangeeft hoe sterk het verband is tussen variabelen, probeert men met regressie te achterhalen hoe binnen dat verband de waarde van een afhankelijke variabele gemiddeld zal toenemen of afnemen wanneer de waarde van één of meerdere onafhankelijke (of voorspellende of verklarende) variabelen ...
Als de correlatie tussen de 0.1 en de 0.3 zit kun je zeggen dat de correlatie laag is. Tussen 0.3 en 0.6 is de correlatie matig. Vanaf 0.6 kun je de correlatie hoog noemen.
Probeer te achterhalen waardoor de regressie wordt veroorzaakt, laat u niet ontmoedigen en doe het nodige om hier doorheen te geraken. In uw zoektocht naar de oorzaak van de terugval kan u zichzelf volgende vragen stellen: Is er iets veranderd voor uw kind?
Als u de Excel-bureaubladtoepassing hebt, kunt u de knop Openen in Excel gebruiken om uw werkmap te openen en het hulpprogramma Regressie van Analysis ToolPak of statistische functies gebruiken om daarmee een regressieanalyse uit te voeren. Klik op Openen in Excel en voer een regressieanalyses uit.
Linear regression is het meestgebruikte algoritme in machine learning modellen. In een lineair regression model kun je verbanden ontdekken tussen de door de data scientist gekozen features en de zogenaamde doel-column. Met linear regression voorspel je altijd numerieke waarden.
De regressievergelijking is de vergelijking die de samenhang weergeeft tussen de afhankelijke variabele en een of meer andere variabelen die haar beïnvloeden (de onafhankelijke variabelen). Met de regressievergelijking is het mogelijk de procesprestatie (Y) te voorspellen bij een specifieke waarde van de variabele X.
Centreren en standaardiseren zijn niet hetzelfde. Bij centreren worden individuele scores van het gemiddelde afgetrokken. Bij standaardiseren ook, maar dan wordt er ook nog gedeeld door de standaarddeviatie. Hieraan merk je al: centreren is iets dat je doet op continue data (interval of hoger meetniveau).
Homoscedasticiteit houdt in dat de variantie van een variabele gelijk is voor meerdere groepen of dat de variantie van de foutterm gelijk is. Bij het uitvoeren van een t-toets of ANOVA, analyseer je de variantie tussen de meerdere groepen.