Free Statistics

of Irreproducible Research!

Author's title

Author*The author of this computation has been verified*
R Software Modulerwasp_multipleregression.wasp
Title produced by softwareMultiple Regression
Date of computationSat, 22 Nov 2008 11:09:45 -0700
Cite this page as followsStatistical Computations at FreeStatistics.org, Office for Research Development and Education, URL https://freestatistics.org/blog/index.php?v=date/2008/Nov/22/t12273774990jgeir26tqm662p.htm/, Retrieved Sun, 19 May 2024 11:09:59 +0000
Statistical Computations at FreeStatistics.org, Office for Research Development and Education, URL https://freestatistics.org/blog/index.php?pk=25209, Retrieved Sun, 19 May 2024 11:09:59 +0000
QR Codes:

Original text written by user:
IsPrivate?No (this computation is public)
User-defined keywordshundrasmet
Estimated Impact419
Family? (F = Feedback message, R = changed R code, M = changed R Module, P = changed Parameters, D = changed Data)
F       [Multiple Regression] [seatbel law] [2008-11-22 18:09:45] [fb0a4305582623ea5408efbbf6f8b708] [Current]
-   PD    [Multiple Regression] [verbetering Q3 wo...] [2008-12-01 14:09:13] [923dc41d40e6465538c66cadc847dd5d]
-   PD    [Multiple Regression] [verbetering Q3 wo...] [2008-12-01 14:09:13] [923dc41d40e6465538c66cadc847dd5d]
-   PD    [Multiple Regression] [Verbetering stude...] [2008-12-01 17:04:30] [8094ad203a218aaca2d1cea2c78c2d6e]
Feedback Forum
2008-12-01 11:57:09 [Steven Vanhooreweghe] [reply
Je vertelt ons niet wat je precies hebt gedaan en dat maakt het moeilijk om te evauleren. Moet ik nu naar de 2 sided p-value zien of de one sided? Is het normaal dat er een positief getal staat bij de paramter van de law? Je vertelt ook niet over de p-value die toch wel dicht bij nul ligt. Tevens zeg je niks over de T-stat die ook goed is. Wat je eigenlijk doet is zeggen waarom je model niet goed is(wat je ook goed doet) maar je vertelt niet waarom je model is, wat volgens mij toch de bedoeling is.
2008-12-01 14:17:30 [Hundra Smet] [reply
tamelijk onoverzichtelijk en niet goed gezegd wat er juist gedaan is.
ook werden de seasonal dummies en de lineair trend niet in acht genomen bij de berekening. dit maakt de grafiek en de bespreking dus niet correct.
juiste berekening: http://www.freestatistics.org/blog/index.php?v=date/2008/Dec/01/t12281406467ug1or43yzu9duc.htm

om op de vragen van mijn medestudent te antwoorden:
- ik gebruik een 2zijdige toets (ik weet niet welke gebeurtenis het was die op 31/3/04 plaatsvond)
- een paar maanden hebben een hoge p waarde -> onze bevindingen kunnen toeval zijn
- als we een alfa fout van 5% nemen, zien we dat er geen significant verschil is en dat het effect van de gebeurtenis aan het toeval toe te shrijven is.
2008-12-01 14:47:32 [Samira Zeroual] [reply
Ik vind het te beknopt. De grafieken zouden wat uitgebreider besproken kunnen worden. Bvb De Residual histogram zou een normale verdeling moeten weergeven, maar hier merk ik op dat dit hier nog niet helemaal het geval is.
2008-12-01 15:00:00 [Vincent Dolhain] [reply
Student heeft weer de software verkeert gebruikt. Het besluit dat
je vormt klopt wel.Het model is niet perfect, maar je hebt dat helemaal niet geargumenteerd.
  2008-12-01 15:04:34 [Vincent Dolhain] [reply
Om de sofware juist te gebruiken moet je zowel 'include momonthly dummies' als 'linear trend' gebruiken.
2008-12-01 18:14:12 [Nathalie Daneels] [reply
Evaluatie opdracht 1 - Blok 11 (Q3).

De student had de tabellen en grafieken niet correct gemaakt: Hij/zij had gebruik gemaakt van no linear trend en no seasonal dummies, terwijl je wel een lineaire trend moet hebben en include monthly dummies. De juiste tabellen en grafieken (a.h.v. de datareeks van de student) vindt u op de volgende link:
http://www.freestatistics.org/blog/index.php?v=date/2008/Dec/01/t12281514526w1zgh8veqef97n.htm

De conclusie bij deze tabellen en grafieken is de volgende:
* Bij de tabellen ‘multiple linear regression – estimated regression equation’ en ‘multiple linear regression – ordinary least squares’:
- De student heeft bij deze opdracht gekozen voor de dummie ‘law’. Ik vrees dat de student geredeneerd heeft (maar ik ben niet zeker), dat hij/zij dezelfde dummie moest nemen als bij het voorbeeld seatbelt law wat dus niet het geval is De student wil onderzoeken of deze law een invloed heeft gehad op de indexcijfers van de totale metaalindustrie (Y). Ik vermoed dat ook bij deze opdracht is de maand december de referentiemaand. De reden hiervoor zou dan zijn: De cijferreeks begint bij januari 2001 en de referentiemaand is de maand (van het jaar daarna) die net voor de eerste maand van de cijferreeks komt. M1 is dus gelijk aan januari en M11 gelijk aan november. Bij het bepalen of het stijgen/dalen van de parameters (en dus van de indicator van het consumentenvertrouwen) te wijten is aan het toeval, gaan we steeds kijken naar de two-tail P-value. Dit is omdat we op voorhand niet precies weten of de wet een positieve of negatieve invloed heeft gehad op de indexcijfers van de totale metaalindustrie.
De nul-hypothese (waarbij de parameters gelijk worden gesteld aan 0) stelt dat de wet geen invloed hebben gehad op de indexcijfers van de totale metaalindustrie, tenzij het tegendeel wordt bewezen.
- Zoals we bij de eerste opdracht al hebben beschreven stelt de variabele ‘t’ de lange termijntrend voor. We kunnen uit de tweede tabel afleiden dat de lange termijn trend stijgend is (0,12 afgerond). Dit betekent dat de indexcijfers van de totale metaalindustrie maandelijks met 0,12 stijgen t.o.v. de vorige maand. We kunnen vaststellen dat deze stijgende lange termijntrend aan het toeval te wijten is, aangezien de two-tail p-waarde (7,3%) duidelijk groter is dan 5% (type I error). De kans dat we ons hierbij vergissen is dus groter dan 5%. De nul-hypothese (waarbij de parameters gelijk worden gesteld aan 0) mag dus niet verworpen worden.
- LAW stelt dus de dummie voor: Door de wet zijn de indexcijfers van de totale metaalindustrie gestegen met 5,54 (afgerond) (LAW = 1, dit betekent dat de wet van kracht is ; Als LAW = 0 dan is de wet nog niet van kracht en telt de parameter die overeenkomt met LAW niet mee, aangezien deze wegvalt door de waarde 0). Nu moeten we ons wel afvragen of deze stijging te wijten is aan het toeval of niet. We kunnen vaststellen dat deze stijging van de indexcijfers van de totale metaalindustrie te wijten is aan het toeval. De two-tail p-value (6,66%) is groter dan 5% (type I error) en dit betekent dus dat we de nul-hypothese niet mogen verwerpen. Het is dus niet significant verschillend van de nul-hypothese en dus te wijten aan het toeval.
- Het intercept is gelijk aan 97,55 (afgerond). Dit is een constante die gemiddeld de stijging van de indexcijfers van de totale metaalindustrie per maand weergeeft. We kunnen echter afleiden uit de tweede tabel dat deze stijging niet te wijten is aan het toeval. De two-tail P-value (0%: zal nooit volledig 0 worden, maar wel heel sterk benaderen) is kleiner dan 5% en dus significant verschillend van de nul-hypothese. Deze mag dus verworpen worden.
- Uit de tabellen kunnen we afleiden dat er in de maanden januari, februari, april, juli en augustus een daling is in de indexcijfers van de totale metaalindustrie. (Zie waarden bij de kolom ‘parameter’ die bij deze maanden horen) Alle andere maanden vertonen een stijging van de indexcijfers van de totale metaalindustrie. (Hierbij wordt er nog geen rekening gehouden met de wet en de lange termijn trend; We gaan de seizoenaliteit onderzoeken). We moeten ook hierbij concluderen dat deze dalingen/stijgingen meestal te wijten zijn aan het toeval, aangezien de two-tail P-value telkens groter is dan het 5% type I error, behalve voor de maanden maart, juni, juli en augustus waarbij de two-tail p-value duidelijk kleiner is dan 5% type I error. De nulhypothese (die stelt dat de wet geen invloed heeft op de indexcijfers van de totale metaalindustrie, tenzij het tegendeel wordt bewezen) mag enkel verworpen worden als de two-tail p-value kleiner is dan 5% (dus bij de maanden maart, juni, juli en augustus), omdat de parameters dan significant verschillend zijn van nul. Dit wordt ook bevestigd als we de absolute waarde van de kritische waarde van de T-statistiek bekijken. Enkel voor de maanden maart, juni, juli en augustus zijn de kritische waarden > 2, wat wil zeggen dat we Ho mogen verwerpen en de seizoenaliteit niet te wijten was aan toeval.
- In de eerste tabel zien we op het einde van de vergelijking nog de term ‘e(t)’ staan: Deze geeft de voorspellingsfout weer.
Samengevat kunnen we dus stellen dat de wet in sommige maanden (maart, juni, juli en augustus) een invloed, die niet te wijten is aan het toeval, heeft gehad op de indexcijfers van de totale metaalindustrie. Het stijgen en dalen van deze indexcijfers is soms te wijten aan het toeval en soms niet. We kunnen dus soms spreken van een significant verband (bij de maanden maart, juni, juli en augustus).
* Bij de conclusie van de tabel ‘multiple linear regression – regression statistics’:
R-squared heeft steeds een waarde tussen 0 en 1. R-squared geeft het percentage aan dat we kunnen verklaren van de spreiding/variabiliteit van de indexcijfers van de totale metaalindustrie. Deze indexcijfers schommelen en van die schommelingen kunnen we 77,7% verklaren met behulp van dit model. Om te weten of dit te wijten is aan het toeval, moeten we een hypothese opstellen, en nagaan of de verdeling van R-squared significant verschillend is van de Ho. Ho = R-squared = O en Ha = R-squared > 0. Vervolgens moeten we gaan kijken naar de p-value. Als we naar de p-value (1,11 x 10^-16) kijken kunnen we vaststellen dat deze veel kleiner is dan 5% type I error. Dit betekent dat R-squared significant verschillend is van de nulhypothese. Dit model verklaart voldoende de schommelingen van de datareeks.
De residual Standaard deviation = 6,57 (afgerond). Dit duidt de spreiding van de voorspellingsfouten aan: De te verwachten fout die ik voorspel voor die residu’s. Als ik een voorspelling maak met dit model, kan ik voorspellen hoeveel de indexcijfers van de totale metaalindustrie stijgen/dalen. Bij deze voorspelling kan ik er 6,57 naast zitten (een afwijking van 6,57 naar boven of naar onder.)
Als we kijken naar de ‘Adjusted R-squared’ (73,3%)kunnen we besluiten dat dit een goed beeld weergeeft van de realiteit. Aan de hand van dit model kunnen we 73,3% van de schommelingen, die bestaan in de indexcijfers van de totale metaalindustrie, verklaren. Dit is niet aan toeval onderhevig, want de P-value is kleiner dan 5% type I error, wat wil zeggen dat onze alternatieve hypothese (R-squared > 0) significant verschilt van onze Ho (R-squared = 0).
* Bij de grafiek ‘actuals and interpolation’:
Actuals zijn de werkelijke waarden (bolletjes), de interpolation stellen de voorspelde waarden (lijn) voor: het verschil hier tussen beiden zijn de residu’s.
Op deze grafiek kunnen we waarnemen dat er zich een bepaald patroon (van de werkelijke waarden) herhaalt in de tijd. Deze herhaling van het patroon wijst erop dat we voorspellingen kunnen maken op basis van het verleden, wat op zijn beurt wijst op autocorrelatie. Dit is dus geen goed model, want er wordt niet aan alle assumpties voldaan.
Als we deze patronen op lange termijn bekijken, kunnen we vaststellen dat er globaal een stijgende lange termijn trend is. Maar op korte termijn kunnen we telkens zowel een stijging als daling vaststellen. Het patroon van de korte termijn wordt duidelijk gedurende de lange termijn dalende trend herhaald.
* Bij de grafiek ‘residuals’:
Residuals = werkelijke waarden – voorspelde waarden. Als deze uitkomt gelijk is aan 0, dan betekent dit dat we de waarden correct hebben voorspeld. (Deze zijn dan gelijk aan de werkelijke waarden). Als deze uitkomt groter is dan 0, dan liggen de werkelijke waarden hoger dan de voorspelde waarden. (De voorspelling was dus niet correct). Als deze uitkomt kleiner is dan 0, dan zijn de voorspelde waarden hoger dan de werkelijke waarden (DE voorspelling was dus niet correct). Deze grafiek geeft dus de voorspellingsfouten weer. Het gemiddelde van deze voorspellingsfouten moet gelijk zijn aan nul (Dit betekent dat de te hoog voorspelde waarden en de te laag voorspelde waarden elkaar neutraliseren) en dus ook constant zijn. We kunnen afleiden uit de grafiek dat dit niet het geval is. Opdat het gemiddelde gelijk zou zijn aan nul, moet de grafiek min of meer gespiegeld worden rond de zwarte horizontale lijn (die gelijk wordt gesteld aan nul). Dit is hier niet het geval. Het zou eventueel mogelijk kunnen zijn dat het gemiddelde van deze voorspellingsfouten toch nul is: Er liggen dan veel meer voorspellingsfouten boven/onder de horizontale lijn (die gelijk wordt gesteld aan nul) dan eronder/erboven, maar de voorspellingsfouten eronder/erboven zijn veel negatiever/positiever dan de positieve/negatieve voorspellingsfouten boven/onder de horizontale as. Het is mogelijk dat deze 2 elkaar neutraliseren. Maar dat is hier zeker niet het geval. We kunnen vaststellen dat er zich geen patroon patroon voordoet in de grafiek. De waarden dalen eerst en stijgen vervolgens en volgen dus niet echt een patroon (Bv. Dalen, stijgen, dalen, stijgen,... ), er is geen herhaling.
We kunnen wel opmerken dat als we een bepaalde periode eruit halen, de opeenvolgende residu’s stijgen of dalen, dus er is eigenlijk wel sprake van autocorrelatie. Stijgende residu’s worden meestal gevolgd (of vooraf gegaan) door stijgende en dalende residu’s worden ook meestal vooraf gegaan door dalende (of gevolgd door dalende residu’s).We kunnen dus eigenlijk voorspellingen doen (op basis van het verleden, aangezien dalende/stijgende residu’s vooraf worden gegaan door dalende/stijgende residu’s).
* Bij de grafiek ‘Residual histogram’:
Normaal gezien zou het histogram een normaalverdeling moeten zijn. We kunnen opmerken dat het histogram min of meer de normaalverdeling benadert. Er is misschien een klein beetje een rechtsscheve verdeling.
* Bij de grafiek ‘Residual density plot’:
Voor deze curve geldt hetzelfde als voor het histogram (grafiek hierboven). Deze curve zou ook een normaalverdeling moeten voorstellen (gauss-curve), en op de grafiek kunnen we vaststellen dat dit min of meer wel het geval is. Er is wel een kleine gevolg beneden aan de rechterkant van de grafiek, en hier moeten we ons misschien wel zorgen over maken. We kunnen concluderen dat de staarten misschien een beetje een scheve verdeling hebben, wat betekent dat het aantal positieve voorspellingsfouten niet echt overeenkomt met het aantal negatieve voorspellingsfouten. Dit wijst er ook op dat bij de grafiek van de residu’s het gemiddelde van de voorspellingsfouten dus niet gelijk is aan 0.
* Bij de grafiek ‘Residual normal qq-plot’:
Deze grafiek toont het verband aan tussen de steekproefkwantielen en de theoretische kwantielen en we kunnen uit deze grafiek eveneens afleiden of (het verband tussen) deze quantielen van de residu’s de normaalcurve (de diagonale rechte) benaderen of niet. We kunnen vaststellen dat de quantielen van de residu’s de normaalcurve redelijk benaderen, behalve de staarten (en vooral aan de staart in de rechterbovenhoek) zien we een duidelijkere afwijking. We kunnen dus concluderen dat de voorspellingsfouten redelijk normaal verdeeld zijn.
* Bij de grafiek ‘Residual lag plot, lowess and regression line’:
Bij deze grafiek gaan we de residu’s van nu vergelijken met de residu’s van 1 periode vroeger. We kunnen vaststellen dat er in dit geval een redelijk klein positief verband is: Dit zien we aan de schuine rechte die van links beneden naar rechts boven gaat, wat wijst op een positief verband. Een positief verband betekent dat als de x-waarde toeneemt, de y-waarde ook gaat toenemen. Hoe sterk de y-waarde gaat toenemen, als de x-waarde stijgt, hangt af van de grootte van het verband. We moeten wel opmerken dat de bolletjes redelijk verspreid over de grafiek liggen. Een positieve correlatie betekent dat er voorspelbaarheid is op basis van het verleden. Dit is een indicator dat het model niet juist kan zijn.
* Bij de grafiek ‘Residual autocorrelation function’:
De twee blauwe horizontale lijnen stellen het betrouwbaarheidsinterval van 95% voor. Alle verticale lijntjes die boven of onder dit betrouwbaarheidsinterval uitkomen, stellen een significant verschil voor. Dit wil zeggen dat de autocorrelatie niet aan het toeval kan worden toegeschreven. We kunnen uit de grafiek afleiden dat tot en met (min of meer) 3 de verticale lijntjes boven het 95% betrouwbaarheidsinterval uitsteken, alsook de lijntjes die overeenkomen met 5,6,8 en 9. De verticale lijntjes die overeenkomen met 36 en 39 komen ook nog duidelijk onder het betrouwbaarheidsinterval. Verder kunnen we uit de grafiek afleiden dat de andere verticale lijntjes (min of meer) binnen het betrouwbaarheidsinterval vallen.
Een patroon in de autocorrelatie wijst erop dat er voorspellingen kunnen gemaakt worden op basis van het verleden. In dit geval zijn de meeste autocorrelaties echter te wijten aan het toeval (ze vallen binnen het 95% betrouwbaarheidsinterval). Dit betekent dat het patroon, wat dus ook wijst op autocorrelatie, voornamelijk zal te wijten zijn aan het toeval. Dit betekent dat we niet echt voorspellingen kunnen maken op basis van het verleden. Maar het kan zijn dat voor bepaalde verticale lijntjes die buiten het betrouwbaarheidsinterval komen toch voorspellingen kunnen gemaakt worden op basis van het verleden.

Het model is nog niet helemaal correct/in orde: Om aan de assumpties te voldoen:
* Mag er geen patroon of autocorrelatie zijn. Dit is hier niet voldaan want uit de grafiek van de residuals en de autocorrelatie kunnen we vaststellen dat er autocorrelatie is. Maar we moeten wel opmerken dat het grootste gedeelte van de autocorrelatie te wijten is aan het toeval.
* Moet het gemiddelde constant en nul zijn. Hier bestaat mogelijk twijfel over, maar ik ben van mening dat het gemiddelde niet echt nul gaat zijn. (Grafiek residuals en density plot).
2008-12-01 18:35:56 [Roel Geudens] [reply
Weer en te beknopte uitleg. De software wordt weer fout gebruikt. Hierdoor is het moeilijk om je grafieken en tabellen te evalueren. We je zegt is op zich niet fout, maar het is gewoon te weinig uitleg.

Post a new message
Dataseries X:
106,7 0 
110,2 0 
125,9 0
100,1 0
106,4 0
114,8 0
81,3 0
87 0
104,2 0
108 0
105 0
94,5 0
92 0
95,9 0
108,8 0
103,4 0
102,1 0
110,1 0
83,2 0
82,7 0
106,8 0
113,7 0
102,5 0
96,6 0
92,1 0
95,6 0
102,3 0
98,6 0
98,2 0
104,5 0
84 0
73,8 0
103,9 0
106 0
97,2 0
102,6 0
89 0
93,8 0
116,7 1
106,8 1
98,5 1
118,7 1
90 1
91,9 1
113,3 1
113,1 1
104,1 1
108,7 1
96,7 1
101 1
116,9 1
105,8 1
99 1
129,4 1
83 1
88,9 1
115,9 1
104,2 1
113,4 1
112,2 1
100,8 1
107,3 1
126,6 1
102,9 1
117,9 1
128,8 1
87,5 1
93,8 1
122,7 1
126,2 1
124,6 1
116,7 1
115,2 1
111,1 1
129,9 1
113,3 1
118,5 1
133,5 1
102,1 1
102,4 1




Summary of computational transaction
Raw Inputview raw input (R code)
Raw Outputview raw output of R engine
Computing time6 seconds
R Server'Sir Ronald Aylmer Fisher' @ 193.190.124.24

\begin{tabular}{lllllllll}
\hline
Summary of computational transaction \tabularnewline
Raw Input & view raw input (R code)  \tabularnewline
Raw Output & view raw output of R engine  \tabularnewline
Computing time & 6 seconds \tabularnewline
R Server & 'Sir Ronald Aylmer Fisher' @ 193.190.124.24 \tabularnewline
\hline
\end{tabular}
%Source: https://freestatistics.org/blog/index.php?pk=25209&T=0

[TABLE]
[ROW][C]Summary of computational transaction[/C][/ROW]
[ROW][C]Raw Input[/C][C]view raw input (R code) [/C][/ROW]
[ROW][C]Raw Output[/C][C]view raw output of R engine [/C][/ROW]
[ROW][C]Computing time[/C][C]6 seconds[/C][/ROW]
[ROW][C]R Server[/C][C]'Sir Ronald Aylmer Fisher' @ 193.190.124.24[/C][/ROW]
[/TABLE]
Source: https://freestatistics.org/blog/index.php?pk=25209&T=0

Globally Unique Identifier (entire table): ba.freestatistics.org/blog/index.php?pk=25209&T=0

As an alternative you can also use a QR Code:  

The GUIDs for individual cells are displayed in the table below:

Summary of computational transaction
Raw Inputview raw input (R code)
Raw Outputview raw output of R engine
Computing time6 seconds
R Server'Sir Ronald Aylmer Fisher' @ 193.190.124.24







Multiple Linear Regression - Estimated Regression Equation
metaalind[t] = + 99.5657894736842 + 10.1961152882206law[t] + e[t]

\begin{tabular}{lllllllll}
\hline
Multiple Linear Regression - Estimated Regression Equation \tabularnewline
metaalind[t] =  +  99.5657894736842 +  10.1961152882206law[t]  + e[t] \tabularnewline
\hline
\end{tabular}
%Source: https://freestatistics.org/blog/index.php?pk=25209&T=1

[TABLE]
[ROW][C]Multiple Linear Regression - Estimated Regression Equation[/C][/ROW]
[ROW][C]metaalind[t] =  +  99.5657894736842 +  10.1961152882206law[t]  + e[t][/C][/ROW]
[/TABLE]
Source: https://freestatistics.org/blog/index.php?pk=25209&T=1

Globally Unique Identifier (entire table): ba.freestatistics.org/blog/index.php?pk=25209&T=1

As an alternative you can also use a QR Code:  

The GUIDs for individual cells are displayed in the table below:

Multiple Linear Regression - Estimated Regression Equation
metaalind[t] = + 99.5657894736842 + 10.1961152882206law[t] + e[t]







Multiple Linear Regression - Ordinary Least Squares
VariableParameterS.D.T-STATH0: parameter = 02-tail p-value1-tail p-value
(Intercept)99.56578947368421.90059752.386600
law10.19611528822062.6230733.88710.0002120.000106

\begin{tabular}{lllllllll}
\hline
Multiple Linear Regression - Ordinary Least Squares \tabularnewline
Variable & Parameter & S.D. & T-STATH0: parameter = 0 & 2-tail p-value & 1-tail p-value \tabularnewline
(Intercept) & 99.5657894736842 & 1.900597 & 52.3866 & 0 & 0 \tabularnewline
law & 10.1961152882206 & 2.623073 & 3.8871 & 0.000212 & 0.000106 \tabularnewline
\hline
\end{tabular}
%Source: https://freestatistics.org/blog/index.php?pk=25209&T=2

[TABLE]
[ROW][C]Multiple Linear Regression - Ordinary Least Squares[/C][/ROW]
[ROW][C]Variable[/C][C]Parameter[/C][C]S.D.[/C][C]T-STATH0: parameter = 0[/C][C]2-tail p-value[/C][C]1-tail p-value[/C][/ROW]
[ROW][C](Intercept)[/C][C]99.5657894736842[/C][C]1.900597[/C][C]52.3866[/C][C]0[/C][C]0[/C][/ROW]
[ROW][C]law[/C][C]10.1961152882206[/C][C]2.623073[/C][C]3.8871[/C][C]0.000212[/C][C]0.000106[/C][/ROW]
[/TABLE]
Source: https://freestatistics.org/blog/index.php?pk=25209&T=2

Globally Unique Identifier (entire table): ba.freestatistics.org/blog/index.php?pk=25209&T=2

As an alternative you can also use a QR Code:  

The GUIDs for individual cells are displayed in the table below:

Multiple Linear Regression - Ordinary Least Squares
VariableParameterS.D.T-STATH0: parameter = 02-tail p-value1-tail p-value
(Intercept)99.56578947368421.90059752.386600
law10.19611528822062.6230733.88710.0002120.000106







Multiple Linear Regression - Regression Statistics
Multiple R0.402835258883971
R-squared0.162276245800116
Adjusted R-squared0.151536197669348
F-TEST (value)15.1094523808727
F-TEST (DF numerator)1
F-TEST (DF denominator)78
p-value0.000211700505996615
Multiple Linear Regression - Residual Statistics
Residual Standard Deviation11.7160664254836
Sum Squared Residuals10706.7645739348

\begin{tabular}{lllllllll}
\hline
Multiple Linear Regression - Regression Statistics \tabularnewline
Multiple R & 0.402835258883971 \tabularnewline
R-squared & 0.162276245800116 \tabularnewline
Adjusted R-squared & 0.151536197669348 \tabularnewline
F-TEST (value) & 15.1094523808727 \tabularnewline
F-TEST (DF numerator) & 1 \tabularnewline
F-TEST (DF denominator) & 78 \tabularnewline
p-value & 0.000211700505996615 \tabularnewline
Multiple Linear Regression - Residual Statistics \tabularnewline
Residual Standard Deviation & 11.7160664254836 \tabularnewline
Sum Squared Residuals & 10706.7645739348 \tabularnewline
\hline
\end{tabular}
%Source: https://freestatistics.org/blog/index.php?pk=25209&T=3

[TABLE]
[ROW][C]Multiple Linear Regression - Regression Statistics[/C][/ROW]
[ROW][C]Multiple R[/C][C]0.402835258883971[/C][/ROW]
[ROW][C]R-squared[/C][C]0.162276245800116[/C][/ROW]
[ROW][C]Adjusted R-squared[/C][C]0.151536197669348[/C][/ROW]
[ROW][C]F-TEST (value)[/C][C]15.1094523808727[/C][/ROW]
[ROW][C]F-TEST (DF numerator)[/C][C]1[/C][/ROW]
[ROW][C]F-TEST (DF denominator)[/C][C]78[/C][/ROW]
[ROW][C]p-value[/C][C]0.000211700505996615[/C][/ROW]
[ROW][C]Multiple Linear Regression - Residual Statistics[/C][/ROW]
[ROW][C]Residual Standard Deviation[/C][C]11.7160664254836[/C][/ROW]
[ROW][C]Sum Squared Residuals[/C][C]10706.7645739348[/C][/ROW]
[/TABLE]
Source: https://freestatistics.org/blog/index.php?pk=25209&T=3

Globally Unique Identifier (entire table): ba.freestatistics.org/blog/index.php?pk=25209&T=3

As an alternative you can also use a QR Code:  

The GUIDs for individual cells are displayed in the table below:

Multiple Linear Regression - Regression Statistics
Multiple R0.402835258883971
R-squared0.162276245800116
Adjusted R-squared0.151536197669348
F-TEST (value)15.1094523808727
F-TEST (DF numerator)1
F-TEST (DF denominator)78
p-value0.000211700505996615
Multiple Linear Regression - Residual Statistics
Residual Standard Deviation11.7160664254836
Sum Squared Residuals10706.7645739348







Multiple Linear Regression - Actuals, Interpolation, and Residuals
Time or IndexActualsInterpolationForecastResidualsPrediction Error
1106.799.56578947368447.13421052631564
2110.299.565789473684210.6342105263158
3125.999.565789473684226.3342105263158
4100.199.56578947368420.534210526315787
5106.499.56578947368426.8342105263158
6114.899.565789473684215.2342105263158
781.399.5657894736842-18.2657894736842
88799.5657894736842-12.5657894736842
9104.299.56578947368424.6342105263158
1010899.56578947368428.4342105263158
1110599.56578947368425.43421052631579
1294.599.5657894736842-5.06578947368421
139299.5657894736842-7.5657894736842
1495.999.5657894736842-3.6657894736842
15108.899.56578947368429.2342105263158
16103.499.56578947368423.8342105263158
17102.199.56578947368422.53421052631579
18110.199.565789473684210.5342105263158
1983.299.5657894736842-16.3657894736842
2082.799.5657894736842-16.8657894736842
21106.899.56578947368427.23421052631579
22113.799.565789473684214.1342105263158
23102.599.56578947368422.93421052631579
2496.699.5657894736842-2.96578947368421
2592.199.5657894736842-7.46578947368421
2695.699.5657894736842-3.96578947368421
27102.399.56578947368422.73421052631579
2898.699.5657894736842-0.965789473684213
2998.299.5657894736842-1.36578947368420
30104.599.56578947368424.93421052631579
318499.5657894736842-15.5657894736842
3273.899.5657894736842-25.7657894736842
33103.999.56578947368424.3342105263158
3410699.56578947368426.43421052631579
3597.299.5657894736842-2.36578947368420
36102.699.56578947368423.03421052631579
378999.5657894736842-10.5657894736842
3893.899.5657894736842-5.76578947368421
39116.7109.7619047619056.93809523809524
40106.8109.761904761905-2.96190476190477
4198.5109.761904761905-11.2619047619048
42118.7109.7619047619058.93809523809524
4390109.761904761905-19.7619047619048
4491.9109.761904761905-17.8619047619048
45113.3109.7619047619053.53809523809523
46113.1109.7619047619053.33809523809523
47104.1109.761904761905-5.66190476190477
48108.7109.761904761905-1.06190476190476
4996.7109.761904761905-13.0619047619048
50101109.761904761905-8.76190476190476
51116.9109.7619047619057.13809523809524
52105.8109.761904761905-3.96190476190477
5399109.761904761905-10.7619047619048
54129.4109.76190476190519.6380952380952
5583109.761904761905-26.7619047619048
5688.9109.761904761905-20.8619047619048
57115.9109.7619047619056.13809523809524
58104.2109.761904761905-5.56190476190476
59113.4109.7619047619053.63809523809524
60112.2109.7619047619052.43809523809524
61100.8109.761904761905-8.96190476190477
62107.3109.761904761905-2.46190476190477
63126.6109.76190476190516.8380952380952
64102.9109.761904761905-6.86190476190476
65117.9109.7619047619058.13809523809524
66128.8109.76190476190519.0380952380953
6787.5109.761904761905-22.2619047619048
6893.8109.761904761905-15.9619047619048
69122.7109.76190476190512.9380952380952
70126.2109.76190476190516.4380952380952
71124.6109.76190476190514.8380952380952
72116.7109.7619047619056.93809523809524
73115.2109.7619047619055.43809523809524
74111.1109.7619047619051.33809523809523
75129.9109.76190476190520.1380952380952
76113.3109.7619047619053.53809523809523
77118.5109.7619047619058.73809523809524
78133.5109.76190476190523.7380952380952
79102.1109.761904761905-7.66190476190477
80102.4109.761904761905-7.36190476190476

\begin{tabular}{lllllllll}
\hline
Multiple Linear Regression - Actuals, Interpolation, and Residuals \tabularnewline
Time or Index & Actuals & InterpolationForecast & ResidualsPrediction Error \tabularnewline
1 & 106.7 & 99.5657894736844 & 7.13421052631564 \tabularnewline
2 & 110.2 & 99.5657894736842 & 10.6342105263158 \tabularnewline
3 & 125.9 & 99.5657894736842 & 26.3342105263158 \tabularnewline
4 & 100.1 & 99.5657894736842 & 0.534210526315787 \tabularnewline
5 & 106.4 & 99.5657894736842 & 6.8342105263158 \tabularnewline
6 & 114.8 & 99.5657894736842 & 15.2342105263158 \tabularnewline
7 & 81.3 & 99.5657894736842 & -18.2657894736842 \tabularnewline
8 & 87 & 99.5657894736842 & -12.5657894736842 \tabularnewline
9 & 104.2 & 99.5657894736842 & 4.6342105263158 \tabularnewline
10 & 108 & 99.5657894736842 & 8.4342105263158 \tabularnewline
11 & 105 & 99.5657894736842 & 5.43421052631579 \tabularnewline
12 & 94.5 & 99.5657894736842 & -5.06578947368421 \tabularnewline
13 & 92 & 99.5657894736842 & -7.5657894736842 \tabularnewline
14 & 95.9 & 99.5657894736842 & -3.6657894736842 \tabularnewline
15 & 108.8 & 99.5657894736842 & 9.2342105263158 \tabularnewline
16 & 103.4 & 99.5657894736842 & 3.8342105263158 \tabularnewline
17 & 102.1 & 99.5657894736842 & 2.53421052631579 \tabularnewline
18 & 110.1 & 99.5657894736842 & 10.5342105263158 \tabularnewline
19 & 83.2 & 99.5657894736842 & -16.3657894736842 \tabularnewline
20 & 82.7 & 99.5657894736842 & -16.8657894736842 \tabularnewline
21 & 106.8 & 99.5657894736842 & 7.23421052631579 \tabularnewline
22 & 113.7 & 99.5657894736842 & 14.1342105263158 \tabularnewline
23 & 102.5 & 99.5657894736842 & 2.93421052631579 \tabularnewline
24 & 96.6 & 99.5657894736842 & -2.96578947368421 \tabularnewline
25 & 92.1 & 99.5657894736842 & -7.46578947368421 \tabularnewline
26 & 95.6 & 99.5657894736842 & -3.96578947368421 \tabularnewline
27 & 102.3 & 99.5657894736842 & 2.73421052631579 \tabularnewline
28 & 98.6 & 99.5657894736842 & -0.965789473684213 \tabularnewline
29 & 98.2 & 99.5657894736842 & -1.36578947368420 \tabularnewline
30 & 104.5 & 99.5657894736842 & 4.93421052631579 \tabularnewline
31 & 84 & 99.5657894736842 & -15.5657894736842 \tabularnewline
32 & 73.8 & 99.5657894736842 & -25.7657894736842 \tabularnewline
33 & 103.9 & 99.5657894736842 & 4.3342105263158 \tabularnewline
34 & 106 & 99.5657894736842 & 6.43421052631579 \tabularnewline
35 & 97.2 & 99.5657894736842 & -2.36578947368420 \tabularnewline
36 & 102.6 & 99.5657894736842 & 3.03421052631579 \tabularnewline
37 & 89 & 99.5657894736842 & -10.5657894736842 \tabularnewline
38 & 93.8 & 99.5657894736842 & -5.76578947368421 \tabularnewline
39 & 116.7 & 109.761904761905 & 6.93809523809524 \tabularnewline
40 & 106.8 & 109.761904761905 & -2.96190476190477 \tabularnewline
41 & 98.5 & 109.761904761905 & -11.2619047619048 \tabularnewline
42 & 118.7 & 109.761904761905 & 8.93809523809524 \tabularnewline
43 & 90 & 109.761904761905 & -19.7619047619048 \tabularnewline
44 & 91.9 & 109.761904761905 & -17.8619047619048 \tabularnewline
45 & 113.3 & 109.761904761905 & 3.53809523809523 \tabularnewline
46 & 113.1 & 109.761904761905 & 3.33809523809523 \tabularnewline
47 & 104.1 & 109.761904761905 & -5.66190476190477 \tabularnewline
48 & 108.7 & 109.761904761905 & -1.06190476190476 \tabularnewline
49 & 96.7 & 109.761904761905 & -13.0619047619048 \tabularnewline
50 & 101 & 109.761904761905 & -8.76190476190476 \tabularnewline
51 & 116.9 & 109.761904761905 & 7.13809523809524 \tabularnewline
52 & 105.8 & 109.761904761905 & -3.96190476190477 \tabularnewline
53 & 99 & 109.761904761905 & -10.7619047619048 \tabularnewline
54 & 129.4 & 109.761904761905 & 19.6380952380952 \tabularnewline
55 & 83 & 109.761904761905 & -26.7619047619048 \tabularnewline
56 & 88.9 & 109.761904761905 & -20.8619047619048 \tabularnewline
57 & 115.9 & 109.761904761905 & 6.13809523809524 \tabularnewline
58 & 104.2 & 109.761904761905 & -5.56190476190476 \tabularnewline
59 & 113.4 & 109.761904761905 & 3.63809523809524 \tabularnewline
60 & 112.2 & 109.761904761905 & 2.43809523809524 \tabularnewline
61 & 100.8 & 109.761904761905 & -8.96190476190477 \tabularnewline
62 & 107.3 & 109.761904761905 & -2.46190476190477 \tabularnewline
63 & 126.6 & 109.761904761905 & 16.8380952380952 \tabularnewline
64 & 102.9 & 109.761904761905 & -6.86190476190476 \tabularnewline
65 & 117.9 & 109.761904761905 & 8.13809523809524 \tabularnewline
66 & 128.8 & 109.761904761905 & 19.0380952380953 \tabularnewline
67 & 87.5 & 109.761904761905 & -22.2619047619048 \tabularnewline
68 & 93.8 & 109.761904761905 & -15.9619047619048 \tabularnewline
69 & 122.7 & 109.761904761905 & 12.9380952380952 \tabularnewline
70 & 126.2 & 109.761904761905 & 16.4380952380952 \tabularnewline
71 & 124.6 & 109.761904761905 & 14.8380952380952 \tabularnewline
72 & 116.7 & 109.761904761905 & 6.93809523809524 \tabularnewline
73 & 115.2 & 109.761904761905 & 5.43809523809524 \tabularnewline
74 & 111.1 & 109.761904761905 & 1.33809523809523 \tabularnewline
75 & 129.9 & 109.761904761905 & 20.1380952380952 \tabularnewline
76 & 113.3 & 109.761904761905 & 3.53809523809523 \tabularnewline
77 & 118.5 & 109.761904761905 & 8.73809523809524 \tabularnewline
78 & 133.5 & 109.761904761905 & 23.7380952380952 \tabularnewline
79 & 102.1 & 109.761904761905 & -7.66190476190477 \tabularnewline
80 & 102.4 & 109.761904761905 & -7.36190476190476 \tabularnewline
\hline
\end{tabular}
%Source: https://freestatistics.org/blog/index.php?pk=25209&T=4

[TABLE]
[ROW][C]Multiple Linear Regression - Actuals, Interpolation, and Residuals[/C][/ROW]
[ROW][C]Time or Index[/C][C]Actuals[/C][C]InterpolationForecast[/C][C]ResidualsPrediction Error[/C][/ROW]
[ROW][C]1[/C][C]106.7[/C][C]99.5657894736844[/C][C]7.13421052631564[/C][/ROW]
[ROW][C]2[/C][C]110.2[/C][C]99.5657894736842[/C][C]10.6342105263158[/C][/ROW]
[ROW][C]3[/C][C]125.9[/C][C]99.5657894736842[/C][C]26.3342105263158[/C][/ROW]
[ROW][C]4[/C][C]100.1[/C][C]99.5657894736842[/C][C]0.534210526315787[/C][/ROW]
[ROW][C]5[/C][C]106.4[/C][C]99.5657894736842[/C][C]6.8342105263158[/C][/ROW]
[ROW][C]6[/C][C]114.8[/C][C]99.5657894736842[/C][C]15.2342105263158[/C][/ROW]
[ROW][C]7[/C][C]81.3[/C][C]99.5657894736842[/C][C]-18.2657894736842[/C][/ROW]
[ROW][C]8[/C][C]87[/C][C]99.5657894736842[/C][C]-12.5657894736842[/C][/ROW]
[ROW][C]9[/C][C]104.2[/C][C]99.5657894736842[/C][C]4.6342105263158[/C][/ROW]
[ROW][C]10[/C][C]108[/C][C]99.5657894736842[/C][C]8.4342105263158[/C][/ROW]
[ROW][C]11[/C][C]105[/C][C]99.5657894736842[/C][C]5.43421052631579[/C][/ROW]
[ROW][C]12[/C][C]94.5[/C][C]99.5657894736842[/C][C]-5.06578947368421[/C][/ROW]
[ROW][C]13[/C][C]92[/C][C]99.5657894736842[/C][C]-7.5657894736842[/C][/ROW]
[ROW][C]14[/C][C]95.9[/C][C]99.5657894736842[/C][C]-3.6657894736842[/C][/ROW]
[ROW][C]15[/C][C]108.8[/C][C]99.5657894736842[/C][C]9.2342105263158[/C][/ROW]
[ROW][C]16[/C][C]103.4[/C][C]99.5657894736842[/C][C]3.8342105263158[/C][/ROW]
[ROW][C]17[/C][C]102.1[/C][C]99.5657894736842[/C][C]2.53421052631579[/C][/ROW]
[ROW][C]18[/C][C]110.1[/C][C]99.5657894736842[/C][C]10.5342105263158[/C][/ROW]
[ROW][C]19[/C][C]83.2[/C][C]99.5657894736842[/C][C]-16.3657894736842[/C][/ROW]
[ROW][C]20[/C][C]82.7[/C][C]99.5657894736842[/C][C]-16.8657894736842[/C][/ROW]
[ROW][C]21[/C][C]106.8[/C][C]99.5657894736842[/C][C]7.23421052631579[/C][/ROW]
[ROW][C]22[/C][C]113.7[/C][C]99.5657894736842[/C][C]14.1342105263158[/C][/ROW]
[ROW][C]23[/C][C]102.5[/C][C]99.5657894736842[/C][C]2.93421052631579[/C][/ROW]
[ROW][C]24[/C][C]96.6[/C][C]99.5657894736842[/C][C]-2.96578947368421[/C][/ROW]
[ROW][C]25[/C][C]92.1[/C][C]99.5657894736842[/C][C]-7.46578947368421[/C][/ROW]
[ROW][C]26[/C][C]95.6[/C][C]99.5657894736842[/C][C]-3.96578947368421[/C][/ROW]
[ROW][C]27[/C][C]102.3[/C][C]99.5657894736842[/C][C]2.73421052631579[/C][/ROW]
[ROW][C]28[/C][C]98.6[/C][C]99.5657894736842[/C][C]-0.965789473684213[/C][/ROW]
[ROW][C]29[/C][C]98.2[/C][C]99.5657894736842[/C][C]-1.36578947368420[/C][/ROW]
[ROW][C]30[/C][C]104.5[/C][C]99.5657894736842[/C][C]4.93421052631579[/C][/ROW]
[ROW][C]31[/C][C]84[/C][C]99.5657894736842[/C][C]-15.5657894736842[/C][/ROW]
[ROW][C]32[/C][C]73.8[/C][C]99.5657894736842[/C][C]-25.7657894736842[/C][/ROW]
[ROW][C]33[/C][C]103.9[/C][C]99.5657894736842[/C][C]4.3342105263158[/C][/ROW]
[ROW][C]34[/C][C]106[/C][C]99.5657894736842[/C][C]6.43421052631579[/C][/ROW]
[ROW][C]35[/C][C]97.2[/C][C]99.5657894736842[/C][C]-2.36578947368420[/C][/ROW]
[ROW][C]36[/C][C]102.6[/C][C]99.5657894736842[/C][C]3.03421052631579[/C][/ROW]
[ROW][C]37[/C][C]89[/C][C]99.5657894736842[/C][C]-10.5657894736842[/C][/ROW]
[ROW][C]38[/C][C]93.8[/C][C]99.5657894736842[/C][C]-5.76578947368421[/C][/ROW]
[ROW][C]39[/C][C]116.7[/C][C]109.761904761905[/C][C]6.93809523809524[/C][/ROW]
[ROW][C]40[/C][C]106.8[/C][C]109.761904761905[/C][C]-2.96190476190477[/C][/ROW]
[ROW][C]41[/C][C]98.5[/C][C]109.761904761905[/C][C]-11.2619047619048[/C][/ROW]
[ROW][C]42[/C][C]118.7[/C][C]109.761904761905[/C][C]8.93809523809524[/C][/ROW]
[ROW][C]43[/C][C]90[/C][C]109.761904761905[/C][C]-19.7619047619048[/C][/ROW]
[ROW][C]44[/C][C]91.9[/C][C]109.761904761905[/C][C]-17.8619047619048[/C][/ROW]
[ROW][C]45[/C][C]113.3[/C][C]109.761904761905[/C][C]3.53809523809523[/C][/ROW]
[ROW][C]46[/C][C]113.1[/C][C]109.761904761905[/C][C]3.33809523809523[/C][/ROW]
[ROW][C]47[/C][C]104.1[/C][C]109.761904761905[/C][C]-5.66190476190477[/C][/ROW]
[ROW][C]48[/C][C]108.7[/C][C]109.761904761905[/C][C]-1.06190476190476[/C][/ROW]
[ROW][C]49[/C][C]96.7[/C][C]109.761904761905[/C][C]-13.0619047619048[/C][/ROW]
[ROW][C]50[/C][C]101[/C][C]109.761904761905[/C][C]-8.76190476190476[/C][/ROW]
[ROW][C]51[/C][C]116.9[/C][C]109.761904761905[/C][C]7.13809523809524[/C][/ROW]
[ROW][C]52[/C][C]105.8[/C][C]109.761904761905[/C][C]-3.96190476190477[/C][/ROW]
[ROW][C]53[/C][C]99[/C][C]109.761904761905[/C][C]-10.7619047619048[/C][/ROW]
[ROW][C]54[/C][C]129.4[/C][C]109.761904761905[/C][C]19.6380952380952[/C][/ROW]
[ROW][C]55[/C][C]83[/C][C]109.761904761905[/C][C]-26.7619047619048[/C][/ROW]
[ROW][C]56[/C][C]88.9[/C][C]109.761904761905[/C][C]-20.8619047619048[/C][/ROW]
[ROW][C]57[/C][C]115.9[/C][C]109.761904761905[/C][C]6.13809523809524[/C][/ROW]
[ROW][C]58[/C][C]104.2[/C][C]109.761904761905[/C][C]-5.56190476190476[/C][/ROW]
[ROW][C]59[/C][C]113.4[/C][C]109.761904761905[/C][C]3.63809523809524[/C][/ROW]
[ROW][C]60[/C][C]112.2[/C][C]109.761904761905[/C][C]2.43809523809524[/C][/ROW]
[ROW][C]61[/C][C]100.8[/C][C]109.761904761905[/C][C]-8.96190476190477[/C][/ROW]
[ROW][C]62[/C][C]107.3[/C][C]109.761904761905[/C][C]-2.46190476190477[/C][/ROW]
[ROW][C]63[/C][C]126.6[/C][C]109.761904761905[/C][C]16.8380952380952[/C][/ROW]
[ROW][C]64[/C][C]102.9[/C][C]109.761904761905[/C][C]-6.86190476190476[/C][/ROW]
[ROW][C]65[/C][C]117.9[/C][C]109.761904761905[/C][C]8.13809523809524[/C][/ROW]
[ROW][C]66[/C][C]128.8[/C][C]109.761904761905[/C][C]19.0380952380953[/C][/ROW]
[ROW][C]67[/C][C]87.5[/C][C]109.761904761905[/C][C]-22.2619047619048[/C][/ROW]
[ROW][C]68[/C][C]93.8[/C][C]109.761904761905[/C][C]-15.9619047619048[/C][/ROW]
[ROW][C]69[/C][C]122.7[/C][C]109.761904761905[/C][C]12.9380952380952[/C][/ROW]
[ROW][C]70[/C][C]126.2[/C][C]109.761904761905[/C][C]16.4380952380952[/C][/ROW]
[ROW][C]71[/C][C]124.6[/C][C]109.761904761905[/C][C]14.8380952380952[/C][/ROW]
[ROW][C]72[/C][C]116.7[/C][C]109.761904761905[/C][C]6.93809523809524[/C][/ROW]
[ROW][C]73[/C][C]115.2[/C][C]109.761904761905[/C][C]5.43809523809524[/C][/ROW]
[ROW][C]74[/C][C]111.1[/C][C]109.761904761905[/C][C]1.33809523809523[/C][/ROW]
[ROW][C]75[/C][C]129.9[/C][C]109.761904761905[/C][C]20.1380952380952[/C][/ROW]
[ROW][C]76[/C][C]113.3[/C][C]109.761904761905[/C][C]3.53809523809523[/C][/ROW]
[ROW][C]77[/C][C]118.5[/C][C]109.761904761905[/C][C]8.73809523809524[/C][/ROW]
[ROW][C]78[/C][C]133.5[/C][C]109.761904761905[/C][C]23.7380952380952[/C][/ROW]
[ROW][C]79[/C][C]102.1[/C][C]109.761904761905[/C][C]-7.66190476190477[/C][/ROW]
[ROW][C]80[/C][C]102.4[/C][C]109.761904761905[/C][C]-7.36190476190476[/C][/ROW]
[/TABLE]
Source: https://freestatistics.org/blog/index.php?pk=25209&T=4

Globally Unique Identifier (entire table): ba.freestatistics.org/blog/index.php?pk=25209&T=4

As an alternative you can also use a QR Code:  

The GUIDs for individual cells are displayed in the table below:

Multiple Linear Regression - Actuals, Interpolation, and Residuals
Time or IndexActualsInterpolationForecastResidualsPrediction Error
1106.799.56578947368447.13421052631564
2110.299.565789473684210.6342105263158
3125.999.565789473684226.3342105263158
4100.199.56578947368420.534210526315787
5106.499.56578947368426.8342105263158
6114.899.565789473684215.2342105263158
781.399.5657894736842-18.2657894736842
88799.5657894736842-12.5657894736842
9104.299.56578947368424.6342105263158
1010899.56578947368428.4342105263158
1110599.56578947368425.43421052631579
1294.599.5657894736842-5.06578947368421
139299.5657894736842-7.5657894736842
1495.999.5657894736842-3.6657894736842
15108.899.56578947368429.2342105263158
16103.499.56578947368423.8342105263158
17102.199.56578947368422.53421052631579
18110.199.565789473684210.5342105263158
1983.299.5657894736842-16.3657894736842
2082.799.5657894736842-16.8657894736842
21106.899.56578947368427.23421052631579
22113.799.565789473684214.1342105263158
23102.599.56578947368422.93421052631579
2496.699.5657894736842-2.96578947368421
2592.199.5657894736842-7.46578947368421
2695.699.5657894736842-3.96578947368421
27102.399.56578947368422.73421052631579
2898.699.5657894736842-0.965789473684213
2998.299.5657894736842-1.36578947368420
30104.599.56578947368424.93421052631579
318499.5657894736842-15.5657894736842
3273.899.5657894736842-25.7657894736842
33103.999.56578947368424.3342105263158
3410699.56578947368426.43421052631579
3597.299.5657894736842-2.36578947368420
36102.699.56578947368423.03421052631579
378999.5657894736842-10.5657894736842
3893.899.5657894736842-5.76578947368421
39116.7109.7619047619056.93809523809524
40106.8109.761904761905-2.96190476190477
4198.5109.761904761905-11.2619047619048
42118.7109.7619047619058.93809523809524
4390109.761904761905-19.7619047619048
4491.9109.761904761905-17.8619047619048
45113.3109.7619047619053.53809523809523
46113.1109.7619047619053.33809523809523
47104.1109.761904761905-5.66190476190477
48108.7109.761904761905-1.06190476190476
4996.7109.761904761905-13.0619047619048
50101109.761904761905-8.76190476190476
51116.9109.7619047619057.13809523809524
52105.8109.761904761905-3.96190476190477
5399109.761904761905-10.7619047619048
54129.4109.76190476190519.6380952380952
5583109.761904761905-26.7619047619048
5688.9109.761904761905-20.8619047619048
57115.9109.7619047619056.13809523809524
58104.2109.761904761905-5.56190476190476
59113.4109.7619047619053.63809523809524
60112.2109.7619047619052.43809523809524
61100.8109.761904761905-8.96190476190477
62107.3109.761904761905-2.46190476190477
63126.6109.76190476190516.8380952380952
64102.9109.761904761905-6.86190476190476
65117.9109.7619047619058.13809523809524
66128.8109.76190476190519.0380952380953
6787.5109.761904761905-22.2619047619048
6893.8109.761904761905-15.9619047619048
69122.7109.76190476190512.9380952380952
70126.2109.76190476190516.4380952380952
71124.6109.76190476190514.8380952380952
72116.7109.7619047619056.93809523809524
73115.2109.7619047619055.43809523809524
74111.1109.7619047619051.33809523809523
75129.9109.76190476190520.1380952380952
76113.3109.7619047619053.53809523809523
77118.5109.7619047619058.73809523809524
78133.5109.76190476190523.7380952380952
79102.1109.761904761905-7.66190476190477
80102.4109.761904761905-7.36190476190476







Goldfeld-Quandt test for Heteroskedasticity
p-valuesAlternative Hypothesis
breakpoint indexgreater2-sidedless
50.572991271774110.854017456451780.42700872822589
60.4412232784469810.8824465568939630.558776721553019
70.8675933875193660.2648132249612680.132406612480634
80.906133351419140.1877332971617210.0938666485808604
90.8519061028869940.2961877942260130.148093897113006
100.7936068760750390.4127862478499220.206393123924961
110.717434622962340.565130754075320.28256537703766
120.6764787675208830.6470424649582350.323521232479117
130.6541369140507850.6917261718984290.345863085949215
140.5890092557982220.8219814884035550.410990744201778
150.5337417801304210.9325164397391590.466258219869579
160.4510346230717190.9020692461434370.548965376928281
170.3709384557112850.741876911422570.629061544288715
180.3368583866795530.6737167733591060.663141613320447
190.4552457711814070.9104915423628140.544754228818593
200.5570140080935250.885971983812950.442985991906475
210.5042176296120330.9915647407759330.495782370387967
220.525446884271330.949106231457340.47455311572867
230.4572811809798840.9145623619597690.542718819020116
240.3960027627976280.7920055255952570.603997237202372
250.3620028118383750.724005623676750.637997188161625
260.3077480728572060.6154961457144110.692251927142794
270.2532729441505550.5065458883011090.746727055849445
280.2029154189639820.4058308379279640.797084581036018
290.1597293774839240.3194587549678470.840270622516076
300.1313625575890170.2627251151780330.868637442410984
310.1619801751254490.3239603502508980.838019824874551
320.3580977755517550.716195551103510.641902224448245
330.3067487542749850.6134975085499710.693251245725015
340.2719520885930590.5439041771861190.72804791140694
350.2216705198461550.4433410396923110.778329480153845
360.1867091378520510.3734182757041010.81329086214795
370.1678916876738630.3357833753477270.832108312326137
380.1350447052742970.2700894105485950.864955294725703
390.1065163826575330.2130327653150670.893483617342467
400.08524448474128280.1704889694825660.914755515258717
410.08205005518837840.1641001103767570.917949944811622
420.07348379148870880.1469675829774180.926516208511291
430.1156196031635960.2312392063271930.884380396836404
440.1424066684961160.2848133369922320.857593331503884
450.1186205934837860.2372411869675730.881379406516214
460.0952277107110850.190455421422170.904772289288915
470.07381219160262320.1476243832052460.926187808397377
480.05406864135171060.1081372827034210.94593135864829
490.0540935317184860.1081870634369720.945906468281514
500.04466961668306520.08933923336613040.955330383316935
510.03814518233542130.07629036467084270.961854817664579
520.02736127969993270.05472255939986550.972638720300067
530.02472641690553130.04945283381106250.975273583094469
540.04937338899635130.09874677799270270.950626611003649
550.1656314790768670.3312629581537340.834368520923133
560.2905628240781280.5811256481562560.709437175921872
570.2495485688437010.4990971376874030.750451431156299
580.2185850461305890.4371700922611770.781414953869412
590.1750700953212090.3501401906424190.82492990467879
600.1355080926515900.2710161853031800.86449190734841
610.1329526207738260.2659052415476530.867047379226174
620.1057958944103590.2115917888207190.89420410558964
630.1234419172820030.2468838345640060.876558082717997
640.1122567321637380.2245134643274750.887743267836262
650.08553381104492080.1710676220898420.91446618895508
660.1103069087736890.2206138175473790.88969309122631
670.3314095030566670.6628190061133340.668590496943333
680.5836499405285580.8327001189428840.416350059471442
690.5221741885649590.9556516228700830.477825811435041
700.5044154667749620.9911690664500760.495584533225038
710.4641774848496450.928354969699290.535822515150355
720.3532370676015090.7064741352030180.646762932398491
730.245867250666920.491734501333840.75413274933308
740.1625691971339890.3251383942679780.837430802866011
750.1832346355380570.3664692710761140.816765364461943

\begin{tabular}{lllllllll}
\hline
Goldfeld-Quandt test for Heteroskedasticity \tabularnewline
p-values & Alternative Hypothesis \tabularnewline
breakpoint index & greater & 2-sided & less \tabularnewline
5 & 0.57299127177411 & 0.85401745645178 & 0.42700872822589 \tabularnewline
6 & 0.441223278446981 & 0.882446556893963 & 0.558776721553019 \tabularnewline
7 & 0.867593387519366 & 0.264813224961268 & 0.132406612480634 \tabularnewline
8 & 0.90613335141914 & 0.187733297161721 & 0.0938666485808604 \tabularnewline
9 & 0.851906102886994 & 0.296187794226013 & 0.148093897113006 \tabularnewline
10 & 0.793606876075039 & 0.412786247849922 & 0.206393123924961 \tabularnewline
11 & 0.71743462296234 & 0.56513075407532 & 0.28256537703766 \tabularnewline
12 & 0.676478767520883 & 0.647042464958235 & 0.323521232479117 \tabularnewline
13 & 0.654136914050785 & 0.691726171898429 & 0.345863085949215 \tabularnewline
14 & 0.589009255798222 & 0.821981488403555 & 0.410990744201778 \tabularnewline
15 & 0.533741780130421 & 0.932516439739159 & 0.466258219869579 \tabularnewline
16 & 0.451034623071719 & 0.902069246143437 & 0.548965376928281 \tabularnewline
17 & 0.370938455711285 & 0.74187691142257 & 0.629061544288715 \tabularnewline
18 & 0.336858386679553 & 0.673716773359106 & 0.663141613320447 \tabularnewline
19 & 0.455245771181407 & 0.910491542362814 & 0.544754228818593 \tabularnewline
20 & 0.557014008093525 & 0.88597198381295 & 0.442985991906475 \tabularnewline
21 & 0.504217629612033 & 0.991564740775933 & 0.495782370387967 \tabularnewline
22 & 0.52544688427133 & 0.94910623145734 & 0.47455311572867 \tabularnewline
23 & 0.457281180979884 & 0.914562361959769 & 0.542718819020116 \tabularnewline
24 & 0.396002762797628 & 0.792005525595257 & 0.603997237202372 \tabularnewline
25 & 0.362002811838375 & 0.72400562367675 & 0.637997188161625 \tabularnewline
26 & 0.307748072857206 & 0.615496145714411 & 0.692251927142794 \tabularnewline
27 & 0.253272944150555 & 0.506545888301109 & 0.746727055849445 \tabularnewline
28 & 0.202915418963982 & 0.405830837927964 & 0.797084581036018 \tabularnewline
29 & 0.159729377483924 & 0.319458754967847 & 0.840270622516076 \tabularnewline
30 & 0.131362557589017 & 0.262725115178033 & 0.868637442410984 \tabularnewline
31 & 0.161980175125449 & 0.323960350250898 & 0.838019824874551 \tabularnewline
32 & 0.358097775551755 & 0.71619555110351 & 0.641902224448245 \tabularnewline
33 & 0.306748754274985 & 0.613497508549971 & 0.693251245725015 \tabularnewline
34 & 0.271952088593059 & 0.543904177186119 & 0.72804791140694 \tabularnewline
35 & 0.221670519846155 & 0.443341039692311 & 0.778329480153845 \tabularnewline
36 & 0.186709137852051 & 0.373418275704101 & 0.81329086214795 \tabularnewline
37 & 0.167891687673863 & 0.335783375347727 & 0.832108312326137 \tabularnewline
38 & 0.135044705274297 & 0.270089410548595 & 0.864955294725703 \tabularnewline
39 & 0.106516382657533 & 0.213032765315067 & 0.893483617342467 \tabularnewline
40 & 0.0852444847412828 & 0.170488969482566 & 0.914755515258717 \tabularnewline
41 & 0.0820500551883784 & 0.164100110376757 & 0.917949944811622 \tabularnewline
42 & 0.0734837914887088 & 0.146967582977418 & 0.926516208511291 \tabularnewline
43 & 0.115619603163596 & 0.231239206327193 & 0.884380396836404 \tabularnewline
44 & 0.142406668496116 & 0.284813336992232 & 0.857593331503884 \tabularnewline
45 & 0.118620593483786 & 0.237241186967573 & 0.881379406516214 \tabularnewline
46 & 0.095227710711085 & 0.19045542142217 & 0.904772289288915 \tabularnewline
47 & 0.0738121916026232 & 0.147624383205246 & 0.926187808397377 \tabularnewline
48 & 0.0540686413517106 & 0.108137282703421 & 0.94593135864829 \tabularnewline
49 & 0.054093531718486 & 0.108187063436972 & 0.945906468281514 \tabularnewline
50 & 0.0446696166830652 & 0.0893392333661304 & 0.955330383316935 \tabularnewline
51 & 0.0381451823354213 & 0.0762903646708427 & 0.961854817664579 \tabularnewline
52 & 0.0273612796999327 & 0.0547225593998655 & 0.972638720300067 \tabularnewline
53 & 0.0247264169055313 & 0.0494528338110625 & 0.975273583094469 \tabularnewline
54 & 0.0493733889963513 & 0.0987467779927027 & 0.950626611003649 \tabularnewline
55 & 0.165631479076867 & 0.331262958153734 & 0.834368520923133 \tabularnewline
56 & 0.290562824078128 & 0.581125648156256 & 0.709437175921872 \tabularnewline
57 & 0.249548568843701 & 0.499097137687403 & 0.750451431156299 \tabularnewline
58 & 0.218585046130589 & 0.437170092261177 & 0.781414953869412 \tabularnewline
59 & 0.175070095321209 & 0.350140190642419 & 0.82492990467879 \tabularnewline
60 & 0.135508092651590 & 0.271016185303180 & 0.86449190734841 \tabularnewline
61 & 0.132952620773826 & 0.265905241547653 & 0.867047379226174 \tabularnewline
62 & 0.105795894410359 & 0.211591788820719 & 0.89420410558964 \tabularnewline
63 & 0.123441917282003 & 0.246883834564006 & 0.876558082717997 \tabularnewline
64 & 0.112256732163738 & 0.224513464327475 & 0.887743267836262 \tabularnewline
65 & 0.0855338110449208 & 0.171067622089842 & 0.91446618895508 \tabularnewline
66 & 0.110306908773689 & 0.220613817547379 & 0.88969309122631 \tabularnewline
67 & 0.331409503056667 & 0.662819006113334 & 0.668590496943333 \tabularnewline
68 & 0.583649940528558 & 0.832700118942884 & 0.416350059471442 \tabularnewline
69 & 0.522174188564959 & 0.955651622870083 & 0.477825811435041 \tabularnewline
70 & 0.504415466774962 & 0.991169066450076 & 0.495584533225038 \tabularnewline
71 & 0.464177484849645 & 0.92835496969929 & 0.535822515150355 \tabularnewline
72 & 0.353237067601509 & 0.706474135203018 & 0.646762932398491 \tabularnewline
73 & 0.24586725066692 & 0.49173450133384 & 0.75413274933308 \tabularnewline
74 & 0.162569197133989 & 0.325138394267978 & 0.837430802866011 \tabularnewline
75 & 0.183234635538057 & 0.366469271076114 & 0.816765364461943 \tabularnewline
\hline
\end{tabular}
%Source: https://freestatistics.org/blog/index.php?pk=25209&T=5

[TABLE]
[ROW][C]Goldfeld-Quandt test for Heteroskedasticity[/C][/ROW]
[ROW][C]p-values[/C][C]Alternative Hypothesis[/C][/ROW]
[ROW][C]breakpoint index[/C][C]greater[/C][C]2-sided[/C][C]less[/C][/ROW]
[ROW][C]5[/C][C]0.57299127177411[/C][C]0.85401745645178[/C][C]0.42700872822589[/C][/ROW]
[ROW][C]6[/C][C]0.441223278446981[/C][C]0.882446556893963[/C][C]0.558776721553019[/C][/ROW]
[ROW][C]7[/C][C]0.867593387519366[/C][C]0.264813224961268[/C][C]0.132406612480634[/C][/ROW]
[ROW][C]8[/C][C]0.90613335141914[/C][C]0.187733297161721[/C][C]0.0938666485808604[/C][/ROW]
[ROW][C]9[/C][C]0.851906102886994[/C][C]0.296187794226013[/C][C]0.148093897113006[/C][/ROW]
[ROW][C]10[/C][C]0.793606876075039[/C][C]0.412786247849922[/C][C]0.206393123924961[/C][/ROW]
[ROW][C]11[/C][C]0.71743462296234[/C][C]0.56513075407532[/C][C]0.28256537703766[/C][/ROW]
[ROW][C]12[/C][C]0.676478767520883[/C][C]0.647042464958235[/C][C]0.323521232479117[/C][/ROW]
[ROW][C]13[/C][C]0.654136914050785[/C][C]0.691726171898429[/C][C]0.345863085949215[/C][/ROW]
[ROW][C]14[/C][C]0.589009255798222[/C][C]0.821981488403555[/C][C]0.410990744201778[/C][/ROW]
[ROW][C]15[/C][C]0.533741780130421[/C][C]0.932516439739159[/C][C]0.466258219869579[/C][/ROW]
[ROW][C]16[/C][C]0.451034623071719[/C][C]0.902069246143437[/C][C]0.548965376928281[/C][/ROW]
[ROW][C]17[/C][C]0.370938455711285[/C][C]0.74187691142257[/C][C]0.629061544288715[/C][/ROW]
[ROW][C]18[/C][C]0.336858386679553[/C][C]0.673716773359106[/C][C]0.663141613320447[/C][/ROW]
[ROW][C]19[/C][C]0.455245771181407[/C][C]0.910491542362814[/C][C]0.544754228818593[/C][/ROW]
[ROW][C]20[/C][C]0.557014008093525[/C][C]0.88597198381295[/C][C]0.442985991906475[/C][/ROW]
[ROW][C]21[/C][C]0.504217629612033[/C][C]0.991564740775933[/C][C]0.495782370387967[/C][/ROW]
[ROW][C]22[/C][C]0.52544688427133[/C][C]0.94910623145734[/C][C]0.47455311572867[/C][/ROW]
[ROW][C]23[/C][C]0.457281180979884[/C][C]0.914562361959769[/C][C]0.542718819020116[/C][/ROW]
[ROW][C]24[/C][C]0.396002762797628[/C][C]0.792005525595257[/C][C]0.603997237202372[/C][/ROW]
[ROW][C]25[/C][C]0.362002811838375[/C][C]0.72400562367675[/C][C]0.637997188161625[/C][/ROW]
[ROW][C]26[/C][C]0.307748072857206[/C][C]0.615496145714411[/C][C]0.692251927142794[/C][/ROW]
[ROW][C]27[/C][C]0.253272944150555[/C][C]0.506545888301109[/C][C]0.746727055849445[/C][/ROW]
[ROW][C]28[/C][C]0.202915418963982[/C][C]0.405830837927964[/C][C]0.797084581036018[/C][/ROW]
[ROW][C]29[/C][C]0.159729377483924[/C][C]0.319458754967847[/C][C]0.840270622516076[/C][/ROW]
[ROW][C]30[/C][C]0.131362557589017[/C][C]0.262725115178033[/C][C]0.868637442410984[/C][/ROW]
[ROW][C]31[/C][C]0.161980175125449[/C][C]0.323960350250898[/C][C]0.838019824874551[/C][/ROW]
[ROW][C]32[/C][C]0.358097775551755[/C][C]0.71619555110351[/C][C]0.641902224448245[/C][/ROW]
[ROW][C]33[/C][C]0.306748754274985[/C][C]0.613497508549971[/C][C]0.693251245725015[/C][/ROW]
[ROW][C]34[/C][C]0.271952088593059[/C][C]0.543904177186119[/C][C]0.72804791140694[/C][/ROW]
[ROW][C]35[/C][C]0.221670519846155[/C][C]0.443341039692311[/C][C]0.778329480153845[/C][/ROW]
[ROW][C]36[/C][C]0.186709137852051[/C][C]0.373418275704101[/C][C]0.81329086214795[/C][/ROW]
[ROW][C]37[/C][C]0.167891687673863[/C][C]0.335783375347727[/C][C]0.832108312326137[/C][/ROW]
[ROW][C]38[/C][C]0.135044705274297[/C][C]0.270089410548595[/C][C]0.864955294725703[/C][/ROW]
[ROW][C]39[/C][C]0.106516382657533[/C][C]0.213032765315067[/C][C]0.893483617342467[/C][/ROW]
[ROW][C]40[/C][C]0.0852444847412828[/C][C]0.170488969482566[/C][C]0.914755515258717[/C][/ROW]
[ROW][C]41[/C][C]0.0820500551883784[/C][C]0.164100110376757[/C][C]0.917949944811622[/C][/ROW]
[ROW][C]42[/C][C]0.0734837914887088[/C][C]0.146967582977418[/C][C]0.926516208511291[/C][/ROW]
[ROW][C]43[/C][C]0.115619603163596[/C][C]0.231239206327193[/C][C]0.884380396836404[/C][/ROW]
[ROW][C]44[/C][C]0.142406668496116[/C][C]0.284813336992232[/C][C]0.857593331503884[/C][/ROW]
[ROW][C]45[/C][C]0.118620593483786[/C][C]0.237241186967573[/C][C]0.881379406516214[/C][/ROW]
[ROW][C]46[/C][C]0.095227710711085[/C][C]0.19045542142217[/C][C]0.904772289288915[/C][/ROW]
[ROW][C]47[/C][C]0.0738121916026232[/C][C]0.147624383205246[/C][C]0.926187808397377[/C][/ROW]
[ROW][C]48[/C][C]0.0540686413517106[/C][C]0.108137282703421[/C][C]0.94593135864829[/C][/ROW]
[ROW][C]49[/C][C]0.054093531718486[/C][C]0.108187063436972[/C][C]0.945906468281514[/C][/ROW]
[ROW][C]50[/C][C]0.0446696166830652[/C][C]0.0893392333661304[/C][C]0.955330383316935[/C][/ROW]
[ROW][C]51[/C][C]0.0381451823354213[/C][C]0.0762903646708427[/C][C]0.961854817664579[/C][/ROW]
[ROW][C]52[/C][C]0.0273612796999327[/C][C]0.0547225593998655[/C][C]0.972638720300067[/C][/ROW]
[ROW][C]53[/C][C]0.0247264169055313[/C][C]0.0494528338110625[/C][C]0.975273583094469[/C][/ROW]
[ROW][C]54[/C][C]0.0493733889963513[/C][C]0.0987467779927027[/C][C]0.950626611003649[/C][/ROW]
[ROW][C]55[/C][C]0.165631479076867[/C][C]0.331262958153734[/C][C]0.834368520923133[/C][/ROW]
[ROW][C]56[/C][C]0.290562824078128[/C][C]0.581125648156256[/C][C]0.709437175921872[/C][/ROW]
[ROW][C]57[/C][C]0.249548568843701[/C][C]0.499097137687403[/C][C]0.750451431156299[/C][/ROW]
[ROW][C]58[/C][C]0.218585046130589[/C][C]0.437170092261177[/C][C]0.781414953869412[/C][/ROW]
[ROW][C]59[/C][C]0.175070095321209[/C][C]0.350140190642419[/C][C]0.82492990467879[/C][/ROW]
[ROW][C]60[/C][C]0.135508092651590[/C][C]0.271016185303180[/C][C]0.86449190734841[/C][/ROW]
[ROW][C]61[/C][C]0.132952620773826[/C][C]0.265905241547653[/C][C]0.867047379226174[/C][/ROW]
[ROW][C]62[/C][C]0.105795894410359[/C][C]0.211591788820719[/C][C]0.89420410558964[/C][/ROW]
[ROW][C]63[/C][C]0.123441917282003[/C][C]0.246883834564006[/C][C]0.876558082717997[/C][/ROW]
[ROW][C]64[/C][C]0.112256732163738[/C][C]0.224513464327475[/C][C]0.887743267836262[/C][/ROW]
[ROW][C]65[/C][C]0.0855338110449208[/C][C]0.171067622089842[/C][C]0.91446618895508[/C][/ROW]
[ROW][C]66[/C][C]0.110306908773689[/C][C]0.220613817547379[/C][C]0.88969309122631[/C][/ROW]
[ROW][C]67[/C][C]0.331409503056667[/C][C]0.662819006113334[/C][C]0.668590496943333[/C][/ROW]
[ROW][C]68[/C][C]0.583649940528558[/C][C]0.832700118942884[/C][C]0.416350059471442[/C][/ROW]
[ROW][C]69[/C][C]0.522174188564959[/C][C]0.955651622870083[/C][C]0.477825811435041[/C][/ROW]
[ROW][C]70[/C][C]0.504415466774962[/C][C]0.991169066450076[/C][C]0.495584533225038[/C][/ROW]
[ROW][C]71[/C][C]0.464177484849645[/C][C]0.92835496969929[/C][C]0.535822515150355[/C][/ROW]
[ROW][C]72[/C][C]0.353237067601509[/C][C]0.706474135203018[/C][C]0.646762932398491[/C][/ROW]
[ROW][C]73[/C][C]0.24586725066692[/C][C]0.49173450133384[/C][C]0.75413274933308[/C][/ROW]
[ROW][C]74[/C][C]0.162569197133989[/C][C]0.325138394267978[/C][C]0.837430802866011[/C][/ROW]
[ROW][C]75[/C][C]0.183234635538057[/C][C]0.366469271076114[/C][C]0.816765364461943[/C][/ROW]
[/TABLE]
Source: https://freestatistics.org/blog/index.php?pk=25209&T=5

Globally Unique Identifier (entire table): ba.freestatistics.org/blog/index.php?pk=25209&T=5

As an alternative you can also use a QR Code:  

The GUIDs for individual cells are displayed in the table below:

Goldfeld-Quandt test for Heteroskedasticity
p-valuesAlternative Hypothesis
breakpoint indexgreater2-sidedless
50.572991271774110.854017456451780.42700872822589
60.4412232784469810.8824465568939630.558776721553019
70.8675933875193660.2648132249612680.132406612480634
80.906133351419140.1877332971617210.0938666485808604
90.8519061028869940.2961877942260130.148093897113006
100.7936068760750390.4127862478499220.206393123924961
110.717434622962340.565130754075320.28256537703766
120.6764787675208830.6470424649582350.323521232479117
130.6541369140507850.6917261718984290.345863085949215
140.5890092557982220.8219814884035550.410990744201778
150.5337417801304210.9325164397391590.466258219869579
160.4510346230717190.9020692461434370.548965376928281
170.3709384557112850.741876911422570.629061544288715
180.3368583866795530.6737167733591060.663141613320447
190.4552457711814070.9104915423628140.544754228818593
200.5570140080935250.885971983812950.442985991906475
210.5042176296120330.9915647407759330.495782370387967
220.525446884271330.949106231457340.47455311572867
230.4572811809798840.9145623619597690.542718819020116
240.3960027627976280.7920055255952570.603997237202372
250.3620028118383750.724005623676750.637997188161625
260.3077480728572060.6154961457144110.692251927142794
270.2532729441505550.5065458883011090.746727055849445
280.2029154189639820.4058308379279640.797084581036018
290.1597293774839240.3194587549678470.840270622516076
300.1313625575890170.2627251151780330.868637442410984
310.1619801751254490.3239603502508980.838019824874551
320.3580977755517550.716195551103510.641902224448245
330.3067487542749850.6134975085499710.693251245725015
340.2719520885930590.5439041771861190.72804791140694
350.2216705198461550.4433410396923110.778329480153845
360.1867091378520510.3734182757041010.81329086214795
370.1678916876738630.3357833753477270.832108312326137
380.1350447052742970.2700894105485950.864955294725703
390.1065163826575330.2130327653150670.893483617342467
400.08524448474128280.1704889694825660.914755515258717
410.08205005518837840.1641001103767570.917949944811622
420.07348379148870880.1469675829774180.926516208511291
430.1156196031635960.2312392063271930.884380396836404
440.1424066684961160.2848133369922320.857593331503884
450.1186205934837860.2372411869675730.881379406516214
460.0952277107110850.190455421422170.904772289288915
470.07381219160262320.1476243832052460.926187808397377
480.05406864135171060.1081372827034210.94593135864829
490.0540935317184860.1081870634369720.945906468281514
500.04466961668306520.08933923336613040.955330383316935
510.03814518233542130.07629036467084270.961854817664579
520.02736127969993270.05472255939986550.972638720300067
530.02472641690553130.04945283381106250.975273583094469
540.04937338899635130.09874677799270270.950626611003649
550.1656314790768670.3312629581537340.834368520923133
560.2905628240781280.5811256481562560.709437175921872
570.2495485688437010.4990971376874030.750451431156299
580.2185850461305890.4371700922611770.781414953869412
590.1750700953212090.3501401906424190.82492990467879
600.1355080926515900.2710161853031800.86449190734841
610.1329526207738260.2659052415476530.867047379226174
620.1057958944103590.2115917888207190.89420410558964
630.1234419172820030.2468838345640060.876558082717997
640.1122567321637380.2245134643274750.887743267836262
650.08553381104492080.1710676220898420.91446618895508
660.1103069087736890.2206138175473790.88969309122631
670.3314095030566670.6628190061133340.668590496943333
680.5836499405285580.8327001189428840.416350059471442
690.5221741885649590.9556516228700830.477825811435041
700.5044154667749620.9911690664500760.495584533225038
710.4641774848496450.928354969699290.535822515150355
720.3532370676015090.7064741352030180.646762932398491
730.245867250666920.491734501333840.75413274933308
740.1625691971339890.3251383942679780.837430802866011
750.1832346355380570.3664692710761140.816765364461943







Meta Analysis of Goldfeld-Quandt test for Heteroskedasticity
Description# significant tests% significant testsOK/NOK
1% type I error level00OK
5% type I error level10.0140845070422535OK
10% type I error level50.0704225352112676OK

\begin{tabular}{lllllllll}
\hline
Meta Analysis of Goldfeld-Quandt test for Heteroskedasticity \tabularnewline
Description & # significant tests & % significant tests & OK/NOK \tabularnewline
1% type I error level & 0 & 0 & OK \tabularnewline
5% type I error level & 1 & 0.0140845070422535 & OK \tabularnewline
10% type I error level & 5 & 0.0704225352112676 & OK \tabularnewline
\hline
\end{tabular}
%Source: https://freestatistics.org/blog/index.php?pk=25209&T=6

[TABLE]
[ROW][C]Meta Analysis of Goldfeld-Quandt test for Heteroskedasticity[/C][/ROW]
[ROW][C]Description[/C][C]# significant tests[/C][C]% significant tests[/C][C]OK/NOK[/C][/ROW]
[ROW][C]1% type I error level[/C][C]0[/C][C]0[/C][C]OK[/C][/ROW]
[ROW][C]5% type I error level[/C][C]1[/C][C]0.0140845070422535[/C][C]OK[/C][/ROW]
[ROW][C]10% type I error level[/C][C]5[/C][C]0.0704225352112676[/C][C]OK[/C][/ROW]
[/TABLE]
Source: https://freestatistics.org/blog/index.php?pk=25209&T=6

Globally Unique Identifier (entire table): ba.freestatistics.org/blog/index.php?pk=25209&T=6

As an alternative you can also use a QR Code:  

The GUIDs for individual cells are displayed in the table below:

Meta Analysis of Goldfeld-Quandt test for Heteroskedasticity
Description# significant tests% significant testsOK/NOK
1% type I error level00OK
5% type I error level10.0140845070422535OK
10% type I error level50.0704225352112676OK



Parameters (Session):
par1 = 1 ; par2 = Do not include Seasonal Dummies ; par3 = No Linear Trend ;
Parameters (R input):
par1 = 1 ; par2 = Do not include Seasonal Dummies ; par3 = No Linear Trend ;
R code (references can be found in the software module):
library(lattice)
library(lmtest)
n25 <- 25 #minimum number of obs. for Goldfeld-Quandt test
par1 <- as.numeric(par1)
x <- t(y)
k <- length(x[1,])
n <- length(x[,1])
x1 <- cbind(x[,par1], x[,1:k!=par1])
mycolnames <- c(colnames(x)[par1], colnames(x)[1:k!=par1])
colnames(x1) <- mycolnames #colnames(x)[par1]
x <- x1
if (par3 == 'First Differences'){
x2 <- array(0, dim=c(n-1,k), dimnames=list(1:(n-1), paste('(1-B)',colnames(x),sep='')))
for (i in 1:n-1) {
for (j in 1:k) {
x2[i,j] <- x[i+1,j] - x[i,j]
}
}
x <- x2
}
if (par2 == 'Include Monthly Dummies'){
x2 <- array(0, dim=c(n,11), dimnames=list(1:n, paste('M', seq(1:11), sep ='')))
for (i in 1:11){
x2[seq(i,n,12),i] <- 1
}
x <- cbind(x, x2)
}
if (par2 == 'Include Quarterly Dummies'){
x2 <- array(0, dim=c(n,3), dimnames=list(1:n, paste('Q', seq(1:3), sep ='')))
for (i in 1:3){
x2[seq(i,n,4),i] <- 1
}
x <- cbind(x, x2)
}
k <- length(x[1,])
if (par3 == 'Linear Trend'){
x <- cbind(x, c(1:n))
colnames(x)[k+1] <- 't'
}
x
k <- length(x[1,])
df <- as.data.frame(x)
(mylm <- lm(df))
(mysum <- summary(mylm))
if (n > n25) {
kp3 <- k + 3
nmkm3 <- n - k - 3
gqarr <- array(NA, dim=c(nmkm3-kp3+1,3))
numgqtests <- 0
numsignificant1 <- 0
numsignificant5 <- 0
numsignificant10 <- 0
for (mypoint in kp3:nmkm3) {
j <- 0
numgqtests <- numgqtests + 1
for (myalt in c('greater', 'two.sided', 'less')) {
j <- j + 1
gqarr[mypoint-kp3+1,j] <- gqtest(mylm, point=mypoint, alternative=myalt)$p.value
}
if (gqarr[mypoint-kp3+1,2] < 0.01) numsignificant1 <- numsignificant1 + 1
if (gqarr[mypoint-kp3+1,2] < 0.05) numsignificant5 <- numsignificant5 + 1
if (gqarr[mypoint-kp3+1,2] < 0.10) numsignificant10 <- numsignificant10 + 1
}
gqarr
}
bitmap(file='test0.png')
plot(x[,1], type='l', main='Actuals and Interpolation', ylab='value of Actuals and Interpolation (dots)', xlab='time or index')
points(x[,1]-mysum$resid)
grid()
dev.off()
bitmap(file='test1.png')
plot(mysum$resid, type='b', pch=19, main='Residuals', ylab='value of Residuals', xlab='time or index')
grid()
dev.off()
bitmap(file='test2.png')
hist(mysum$resid, main='Residual Histogram', xlab='values of Residuals')
grid()
dev.off()
bitmap(file='test3.png')
densityplot(~mysum$resid,col='black',main='Residual Density Plot', xlab='values of Residuals')
dev.off()
bitmap(file='test4.png')
qqnorm(mysum$resid, main='Residual Normal Q-Q Plot')
qqline(mysum$resid)
grid()
dev.off()
(myerror <- as.ts(mysum$resid))
bitmap(file='test5.png')
dum <- cbind(lag(myerror,k=1),myerror)
dum
dum1 <- dum[2:length(myerror),]
dum1
z <- as.data.frame(dum1)
z
plot(z,main=paste('Residual Lag plot, lowess, and regression line'), ylab='values of Residuals', xlab='lagged values of Residuals')
lines(lowess(z))
abline(lm(z))
grid()
dev.off()
bitmap(file='test6.png')
acf(mysum$resid, lag.max=length(mysum$resid)/2, main='Residual Autocorrelation Function')
grid()
dev.off()
bitmap(file='test7.png')
pacf(mysum$resid, lag.max=length(mysum$resid)/2, main='Residual Partial Autocorrelation Function')
grid()
dev.off()
bitmap(file='test8.png')
opar <- par(mfrow = c(2,2), oma = c(0, 0, 1.1, 0))
plot(mylm, las = 1, sub='Residual Diagnostics')
par(opar)
dev.off()
if (n > n25) {
bitmap(file='test9.png')
plot(kp3:nmkm3,gqarr[,2], main='Goldfeld-Quandt test',ylab='2-sided p-value',xlab='breakpoint')
grid()
dev.off()
}
load(file='createtable')
a<-table.start()
a<-table.row.start(a)
a<-table.element(a, 'Multiple Linear Regression - Estimated Regression Equation', 1, TRUE)
a<-table.row.end(a)
myeq <- colnames(x)[1]
myeq <- paste(myeq, '[t] = ', sep='')
for (i in 1:k){
if (mysum$coefficients[i,1] > 0) myeq <- paste(myeq, '+', '')
myeq <- paste(myeq, mysum$coefficients[i,1], sep=' ')
if (rownames(mysum$coefficients)[i] != '(Intercept)') {
myeq <- paste(myeq, rownames(mysum$coefficients)[i], sep='')
if (rownames(mysum$coefficients)[i] != 't') myeq <- paste(myeq, '[t]', sep='')
}
}
myeq <- paste(myeq, ' + e[t]')
a<-table.row.start(a)
a<-table.element(a, myeq)
a<-table.row.end(a)
a<-table.end(a)
table.save(a,file='mytable1.tab')
a<-table.start()
a<-table.row.start(a)
a<-table.element(a,hyperlink('ols1.htm','Multiple Linear Regression - Ordinary Least Squares',''), 6, TRUE)
a<-table.row.end(a)
a<-table.row.start(a)
a<-table.element(a,'Variable',header=TRUE)
a<-table.element(a,'Parameter',header=TRUE)
a<-table.element(a,'S.D.',header=TRUE)
a<-table.element(a,'T-STAT
H0: parameter = 0',header=TRUE)
a<-table.element(a,'2-tail p-value',header=TRUE)
a<-table.element(a,'1-tail p-value',header=TRUE)
a<-table.row.end(a)
for (i in 1:k){
a<-table.row.start(a)
a<-table.element(a,rownames(mysum$coefficients)[i],header=TRUE)
a<-table.element(a,mysum$coefficients[i,1])
a<-table.element(a, round(mysum$coefficients[i,2],6))
a<-table.element(a, round(mysum$coefficients[i,3],4))
a<-table.element(a, round(mysum$coefficients[i,4],6))
a<-table.element(a, round(mysum$coefficients[i,4]/2,6))
a<-table.row.end(a)
}
a<-table.end(a)
table.save(a,file='mytable2.tab')
a<-table.start()
a<-table.row.start(a)
a<-table.element(a, 'Multiple Linear Regression - Regression Statistics', 2, TRUE)
a<-table.row.end(a)
a<-table.row.start(a)
a<-table.element(a, 'Multiple R',1,TRUE)
a<-table.element(a, sqrt(mysum$r.squared))
a<-table.row.end(a)
a<-table.row.start(a)
a<-table.element(a, 'R-squared',1,TRUE)
a<-table.element(a, mysum$r.squared)
a<-table.row.end(a)
a<-table.row.start(a)
a<-table.element(a, 'Adjusted R-squared',1,TRUE)
a<-table.element(a, mysum$adj.r.squared)
a<-table.row.end(a)
a<-table.row.start(a)
a<-table.element(a, 'F-TEST (value)',1,TRUE)
a<-table.element(a, mysum$fstatistic[1])
a<-table.row.end(a)
a<-table.row.start(a)
a<-table.element(a, 'F-TEST (DF numerator)',1,TRUE)
a<-table.element(a, mysum$fstatistic[2])
a<-table.row.end(a)
a<-table.row.start(a)
a<-table.element(a, 'F-TEST (DF denominator)',1,TRUE)
a<-table.element(a, mysum$fstatistic[3])
a<-table.row.end(a)
a<-table.row.start(a)
a<-table.element(a, 'p-value',1,TRUE)
a<-table.element(a, 1-pf(mysum$fstatistic[1],mysum$fstatistic[2],mysum$fstatistic[3]))
a<-table.row.end(a)
a<-table.row.start(a)
a<-table.element(a, 'Multiple Linear Regression - Residual Statistics', 2, TRUE)
a<-table.row.end(a)
a<-table.row.start(a)
a<-table.element(a, 'Residual Standard Deviation',1,TRUE)
a<-table.element(a, mysum$sigma)
a<-table.row.end(a)
a<-table.row.start(a)
a<-table.element(a, 'Sum Squared Residuals',1,TRUE)
a<-table.element(a, sum(myerror*myerror))
a<-table.row.end(a)
a<-table.end(a)
table.save(a,file='mytable3.tab')
a<-table.start()
a<-table.row.start(a)
a<-table.element(a, 'Multiple Linear Regression - Actuals, Interpolation, and Residuals', 4, TRUE)
a<-table.row.end(a)
a<-table.row.start(a)
a<-table.element(a, 'Time or Index', 1, TRUE)
a<-table.element(a, 'Actuals', 1, TRUE)
a<-table.element(a, 'Interpolation
Forecast', 1, TRUE)
a<-table.element(a, 'Residuals
Prediction Error', 1, TRUE)
a<-table.row.end(a)
for (i in 1:n) {
a<-table.row.start(a)
a<-table.element(a,i, 1, TRUE)
a<-table.element(a,x[i])
a<-table.element(a,x[i]-mysum$resid[i])
a<-table.element(a,mysum$resid[i])
a<-table.row.end(a)
}
a<-table.end(a)
table.save(a,file='mytable4.tab')
if (n > n25) {
a<-table.start()
a<-table.row.start(a)
a<-table.element(a,'Goldfeld-Quandt test for Heteroskedasticity',4,TRUE)
a<-table.row.end(a)
a<-table.row.start(a)
a<-table.element(a,'p-values',header=TRUE)
a<-table.element(a,'Alternative Hypothesis',3,header=TRUE)
a<-table.row.end(a)
a<-table.row.start(a)
a<-table.element(a,'breakpoint index',header=TRUE)
a<-table.element(a,'greater',header=TRUE)
a<-table.element(a,'2-sided',header=TRUE)
a<-table.element(a,'less',header=TRUE)
a<-table.row.end(a)
for (mypoint in kp3:nmkm3) {
a<-table.row.start(a)
a<-table.element(a,mypoint,header=TRUE)
a<-table.element(a,gqarr[mypoint-kp3+1,1])
a<-table.element(a,gqarr[mypoint-kp3+1,2])
a<-table.element(a,gqarr[mypoint-kp3+1,3])
a<-table.row.end(a)
}
a<-table.end(a)
table.save(a,file='mytable5.tab')
a<-table.start()
a<-table.row.start(a)
a<-table.element(a,'Meta Analysis of Goldfeld-Quandt test for Heteroskedasticity',4,TRUE)
a<-table.row.end(a)
a<-table.row.start(a)
a<-table.element(a,'Description',header=TRUE)
a<-table.element(a,'# significant tests',header=TRUE)
a<-table.element(a,'% significant tests',header=TRUE)
a<-table.element(a,'OK/NOK',header=TRUE)
a<-table.row.end(a)
a<-table.row.start(a)
a<-table.element(a,'1% type I error level',header=TRUE)
a<-table.element(a,numsignificant1)
a<-table.element(a,numsignificant1/numgqtests)
if (numsignificant1/numgqtests < 0.01) dum <- 'OK' else dum <- 'NOK'
a<-table.element(a,dum)
a<-table.row.end(a)
a<-table.row.start(a)
a<-table.element(a,'5% type I error level',header=TRUE)
a<-table.element(a,numsignificant5)
a<-table.element(a,numsignificant5/numgqtests)
if (numsignificant5/numgqtests < 0.05) dum <- 'OK' else dum <- 'NOK'
a<-table.element(a,dum)
a<-table.row.end(a)
a<-table.row.start(a)
a<-table.element(a,'10% type I error level',header=TRUE)
a<-table.element(a,numsignificant10)
a<-table.element(a,numsignificant10/numgqtests)
if (numsignificant10/numgqtests < 0.1) dum <- 'OK' else dum <- 'NOK'
a<-table.element(a,dum)
a<-table.row.end(a)
a<-table.end(a)
table.save(a,file='mytable6.tab')
}