Free Statistics

of Irreproducible Research!

Author's title

Multiple regression Duurzame Consumptiegoederen met dummies, zonder lineair...

Author*The author of this computation has been verified*
R Software Modulerwasp_multipleregression.wasp
Title produced by softwareMultiple Regression
Date of computationTue, 23 Dec 2008 12:40:00 -0700
Cite this page as followsStatistical Computations at FreeStatistics.org, Office for Research Development and Education, URL https://freestatistics.org/blog/index.php?v=date/2008/Dec/23/t1230061292b5qytvgt6wvhded.htm/, Retrieved Sun, 19 May 2024 09:19:31 +0000
Statistical Computations at FreeStatistics.org, Office for Research Development and Education, URL https://freestatistics.org/blog/index.php?pk=36381, Retrieved Sun, 19 May 2024 09:19:31 +0000
QR Codes:

Original text written by user:
IsPrivate?No (this computation is public)
User-defined keywords
Estimated Impact153
Family? (F = Feedback message, R = changed R code, M = changed R Module, P = changed Parameters, D = changed Data)
-     [Multiple Regression] [Q1 The Seatbeltlaw] [2007-11-14 19:27:43] [8cd6641b921d30ebe00b648d1481bba0]
F R  D  [Multiple Regression] [Q1 seatbelt law] [2008-11-24 10:40:19] [7a4703cb85a198d9845d72899eff0288]
F   P     [Multiple Regression] [The seatbelt law ...] [2008-11-27 16:39:47] [7a4703cb85a198d9845d72899eff0288]
-   PD        [Multiple Regression] [Multiple regressi...] [2008-12-23 19:40:00] [9f72e095d5529918bf5b0810c01bf6ce] [Current]
Feedback Forum

Post a new message
Dataseries X:
0	98.1
0	101.1
0	111.1
0	93.3
0	100
0	108
0	70.4
0	75.4
1	105.5
1	112.3
1	102.5
1	93.5
1	86.7
1	95.2
1	103.8
1	97
1	95.5
1	101
1	67.5
1	64
1	106.7
1	100.6
1	101.2
1	93.1
1	84.2
1	85.8
1	91.8
1	92.4
1	80.3
1	79.7
1	62.5
1	57.1
1	100.8
1	100.7
1	86.2
1	83.2




Summary of computational transaction
Raw Inputview raw input (R code)
Raw Outputview raw output of R engine
Computing time5 seconds
R Server'George Udny Yule' @ 72.249.76.132

\begin{tabular}{lllllllll}
\hline
Summary of computational transaction \tabularnewline
Raw Input & view raw input (R code)  \tabularnewline
Raw Output & view raw output of R engine  \tabularnewline
Computing time & 5 seconds \tabularnewline
R Server & 'George Udny Yule' @ 72.249.76.132 \tabularnewline
\hline
\end{tabular}
%Source: https://freestatistics.org/blog/index.php?pk=36381&T=0

[TABLE]
[ROW][C]Summary of computational transaction[/C][/ROW]
[ROW][C]Raw Input[/C][C]view raw input (R code) [/C][/ROW]
[ROW][C]Raw Output[/C][C]view raw output of R engine [/C][/ROW]
[ROW][C]Computing time[/C][C]5 seconds[/C][/ROW]
[ROW][C]R Server[/C][C]'George Udny Yule' @ 72.249.76.132[/C][/ROW]
[/TABLE]
Source: https://freestatistics.org/blog/index.php?pk=36381&T=0

Globally Unique Identifier (entire table): ba.freestatistics.org/blog/index.php?pk=36381&T=0

As an alternative you can also use a QR Code:  

The GUIDs for individual cells are displayed in the table below:

Summary of computational transaction
Raw Inputview raw input (R code)
Raw Outputview raw output of R engine
Computing time5 seconds
R Server'George Udny Yule' @ 72.249.76.132







Multiple Linear Regression - Estimated Regression Equation
Cons[t] = + 100.577083333333 -10.6437500000000Dummy[t] -3.81458333333342M1[t] + 0.552083333333342M2[t] + 8.75208333333333M3[t] + 0.752083333333328M4[t] -1.54791666666668M5[t] + 2.75208333333333M6[t] -26.68125M7[t] -27.98125M8[t] + 14.4M9[t] + 14.6M10[t] + 6.7M11[t] + e[t]

\begin{tabular}{lllllllll}
\hline
Multiple Linear Regression - Estimated Regression Equation \tabularnewline
Cons[t] =  +  100.577083333333 -10.6437500000000Dummy[t] -3.81458333333342M1[t] +  0.552083333333342M2[t] +  8.75208333333333M3[t] +  0.752083333333328M4[t] -1.54791666666668M5[t] +  2.75208333333333M6[t] -26.68125M7[t] -27.98125M8[t] +  14.4M9[t] +  14.6M10[t] +  6.7M11[t]  + e[t] \tabularnewline
\hline
\end{tabular}
%Source: https://freestatistics.org/blog/index.php?pk=36381&T=1

[TABLE]
[ROW][C]Multiple Linear Regression - Estimated Regression Equation[/C][/ROW]
[ROW][C]Cons[t] =  +  100.577083333333 -10.6437500000000Dummy[t] -3.81458333333342M1[t] +  0.552083333333342M2[t] +  8.75208333333333M3[t] +  0.752083333333328M4[t] -1.54791666666668M5[t] +  2.75208333333333M6[t] -26.68125M7[t] -27.98125M8[t] +  14.4M9[t] +  14.6M10[t] +  6.7M11[t]  + e[t][/C][/ROW]
[/TABLE]
Source: https://freestatistics.org/blog/index.php?pk=36381&T=1

Globally Unique Identifier (entire table): ba.freestatistics.org/blog/index.php?pk=36381&T=1

As an alternative you can also use a QR Code:  

The GUIDs for individual cells are displayed in the table below:

Multiple Linear Regression - Estimated Regression Equation
Cons[t] = + 100.577083333333 -10.6437500000000Dummy[t] -3.81458333333342M1[t] + 0.552083333333342M2[t] + 8.75208333333333M3[t] + 0.752083333333328M4[t] -1.54791666666668M5[t] + 2.75208333333333M6[t] -26.68125M7[t] -27.98125M8[t] + 14.4M9[t] + 14.6M10[t] + 6.7M11[t] + e[t]







Multiple Linear Regression - Ordinary Least Squares
VariableParameterS.D.T-STATH0: parameter = 02-tail p-value1-tail p-value
(Intercept)100.5770833333334.80379620.93700
Dummy-10.64375000000002.882278-3.69280.0012020.000601
M1-3.814583333333425.519142-0.69120.4963850.248193
M20.5520833333333425.5191420.10.9211870.460593
M38.752083333333335.5191421.58580.1264460.063223
M40.7520833333333285.5191420.13630.8927950.446398
M5-1.547916666666685.519142-0.28050.7816290.390815
M62.752083333333335.5191420.49860.6227660.311383
M7-26.681255.519142-4.83437e-053.5e-05
M8-27.981255.519142-5.06993.9e-052e-05
M914.45.4348752.64960.0143230.007162
M1014.65.4348752.68640.013180.00659
M116.75.4348751.23280.2301110.115055

\begin{tabular}{lllllllll}
\hline
Multiple Linear Regression - Ordinary Least Squares \tabularnewline
Variable & Parameter & S.D. & T-STATH0: parameter = 0 & 2-tail p-value & 1-tail p-value \tabularnewline
(Intercept) & 100.577083333333 & 4.803796 & 20.937 & 0 & 0 \tabularnewline
Dummy & -10.6437500000000 & 2.882278 & -3.6928 & 0.001202 & 0.000601 \tabularnewline
M1 & -3.81458333333342 & 5.519142 & -0.6912 & 0.496385 & 0.248193 \tabularnewline
M2 & 0.552083333333342 & 5.519142 & 0.1 & 0.921187 & 0.460593 \tabularnewline
M3 & 8.75208333333333 & 5.519142 & 1.5858 & 0.126446 & 0.063223 \tabularnewline
M4 & 0.752083333333328 & 5.519142 & 0.1363 & 0.892795 & 0.446398 \tabularnewline
M5 & -1.54791666666668 & 5.519142 & -0.2805 & 0.781629 & 0.390815 \tabularnewline
M6 & 2.75208333333333 & 5.519142 & 0.4986 & 0.622766 & 0.311383 \tabularnewline
M7 & -26.68125 & 5.519142 & -4.8343 & 7e-05 & 3.5e-05 \tabularnewline
M8 & -27.98125 & 5.519142 & -5.0699 & 3.9e-05 & 2e-05 \tabularnewline
M9 & 14.4 & 5.434875 & 2.6496 & 0.014323 & 0.007162 \tabularnewline
M10 & 14.6 & 5.434875 & 2.6864 & 0.01318 & 0.00659 \tabularnewline
M11 & 6.7 & 5.434875 & 1.2328 & 0.230111 & 0.115055 \tabularnewline
\hline
\end{tabular}
%Source: https://freestatistics.org/blog/index.php?pk=36381&T=2

[TABLE]
[ROW][C]Multiple Linear Regression - Ordinary Least Squares[/C][/ROW]
[ROW][C]Variable[/C][C]Parameter[/C][C]S.D.[/C][C]T-STATH0: parameter = 0[/C][C]2-tail p-value[/C][C]1-tail p-value[/C][/ROW]
[ROW][C](Intercept)[/C][C]100.577083333333[/C][C]4.803796[/C][C]20.937[/C][C]0[/C][C]0[/C][/ROW]
[ROW][C]Dummy[/C][C]-10.6437500000000[/C][C]2.882278[/C][C]-3.6928[/C][C]0.001202[/C][C]0.000601[/C][/ROW]
[ROW][C]M1[/C][C]-3.81458333333342[/C][C]5.519142[/C][C]-0.6912[/C][C]0.496385[/C][C]0.248193[/C][/ROW]
[ROW][C]M2[/C][C]0.552083333333342[/C][C]5.519142[/C][C]0.1[/C][C]0.921187[/C][C]0.460593[/C][/ROW]
[ROW][C]M3[/C][C]8.75208333333333[/C][C]5.519142[/C][C]1.5858[/C][C]0.126446[/C][C]0.063223[/C][/ROW]
[ROW][C]M4[/C][C]0.752083333333328[/C][C]5.519142[/C][C]0.1363[/C][C]0.892795[/C][C]0.446398[/C][/ROW]
[ROW][C]M5[/C][C]-1.54791666666668[/C][C]5.519142[/C][C]-0.2805[/C][C]0.781629[/C][C]0.390815[/C][/ROW]
[ROW][C]M6[/C][C]2.75208333333333[/C][C]5.519142[/C][C]0.4986[/C][C]0.622766[/C][C]0.311383[/C][/ROW]
[ROW][C]M7[/C][C]-26.68125[/C][C]5.519142[/C][C]-4.8343[/C][C]7e-05[/C][C]3.5e-05[/C][/ROW]
[ROW][C]M8[/C][C]-27.98125[/C][C]5.519142[/C][C]-5.0699[/C][C]3.9e-05[/C][C]2e-05[/C][/ROW]
[ROW][C]M9[/C][C]14.4[/C][C]5.434875[/C][C]2.6496[/C][C]0.014323[/C][C]0.007162[/C][/ROW]
[ROW][C]M10[/C][C]14.6[/C][C]5.434875[/C][C]2.6864[/C][C]0.01318[/C][C]0.00659[/C][/ROW]
[ROW][C]M11[/C][C]6.7[/C][C]5.434875[/C][C]1.2328[/C][C]0.230111[/C][C]0.115055[/C][/ROW]
[/TABLE]
Source: https://freestatistics.org/blog/index.php?pk=36381&T=2

Globally Unique Identifier (entire table): ba.freestatistics.org/blog/index.php?pk=36381&T=2

As an alternative you can also use a QR Code:  

The GUIDs for individual cells are displayed in the table below:

Multiple Linear Regression - Ordinary Least Squares
VariableParameterS.D.T-STATH0: parameter = 02-tail p-value1-tail p-value
(Intercept)100.5770833333334.80379620.93700
Dummy-10.64375000000002.882278-3.69280.0012020.000601
M1-3.814583333333425.519142-0.69120.4963850.248193
M20.5520833333333425.5191420.10.9211870.460593
M38.752083333333335.5191421.58580.1264460.063223
M40.7520833333333285.5191420.13630.8927950.446398
M5-1.547916666666685.519142-0.28050.7816290.390815
M62.752083333333335.5191420.49860.6227660.311383
M7-26.681255.519142-4.83437e-053.5e-05
M8-27.981255.519142-5.06993.9e-052e-05
M914.45.4348752.64960.0143230.007162
M1014.65.4348752.68640.013180.00659
M116.75.4348751.23280.2301110.115055







Multiple Linear Regression - Regression Statistics
Multiple R0.9247497988579
R-squared0.855162190487726
Adjusted R-squared0.779594637698714
F-TEST (value)11.3165261931318
F-TEST (DF numerator)12
F-TEST (DF denominator)23
p-value5.72175967050725e-07
Multiple Linear Regression - Residual Statistics
Residual Standard Deviation6.6563355186042
Sum Squared Residuals1019.05645833333

\begin{tabular}{lllllllll}
\hline
Multiple Linear Regression - Regression Statistics \tabularnewline
Multiple R & 0.9247497988579 \tabularnewline
R-squared & 0.855162190487726 \tabularnewline
Adjusted R-squared & 0.779594637698714 \tabularnewline
F-TEST (value) & 11.3165261931318 \tabularnewline
F-TEST (DF numerator) & 12 \tabularnewline
F-TEST (DF denominator) & 23 \tabularnewline
p-value & 5.72175967050725e-07 \tabularnewline
Multiple Linear Regression - Residual Statistics \tabularnewline
Residual Standard Deviation & 6.6563355186042 \tabularnewline
Sum Squared Residuals & 1019.05645833333 \tabularnewline
\hline
\end{tabular}
%Source: https://freestatistics.org/blog/index.php?pk=36381&T=3

[TABLE]
[ROW][C]Multiple Linear Regression - Regression Statistics[/C][/ROW]
[ROW][C]Multiple R[/C][C]0.9247497988579[/C][/ROW]
[ROW][C]R-squared[/C][C]0.855162190487726[/C][/ROW]
[ROW][C]Adjusted R-squared[/C][C]0.779594637698714[/C][/ROW]
[ROW][C]F-TEST (value)[/C][C]11.3165261931318[/C][/ROW]
[ROW][C]F-TEST (DF numerator)[/C][C]12[/C][/ROW]
[ROW][C]F-TEST (DF denominator)[/C][C]23[/C][/ROW]
[ROW][C]p-value[/C][C]5.72175967050725e-07[/C][/ROW]
[ROW][C]Multiple Linear Regression - Residual Statistics[/C][/ROW]
[ROW][C]Residual Standard Deviation[/C][C]6.6563355186042[/C][/ROW]
[ROW][C]Sum Squared Residuals[/C][C]1019.05645833333[/C][/ROW]
[/TABLE]
Source: https://freestatistics.org/blog/index.php?pk=36381&T=3

Globally Unique Identifier (entire table): ba.freestatistics.org/blog/index.php?pk=36381&T=3

As an alternative you can also use a QR Code:  

The GUIDs for individual cells are displayed in the table below:

Multiple Linear Regression - Regression Statistics
Multiple R0.9247497988579
R-squared0.855162190487726
Adjusted R-squared0.779594637698714
F-TEST (value)11.3165261931318
F-TEST (DF numerator)12
F-TEST (DF denominator)23
p-value5.72175967050725e-07
Multiple Linear Regression - Residual Statistics
Residual Standard Deviation6.6563355186042
Sum Squared Residuals1019.05645833333







Multiple Linear Regression - Actuals, Interpolation, and Residuals
Time or IndexActualsInterpolationForecastResidualsPrediction Error
198.196.76250000000021.33749999999984
2101.1101.129166666667-0.0291666666666179
3111.1109.3291666666671.77083333333334
493.3101.329166666667-8.02916666666665
510099.02916666666670.97083333333335
6108103.3291666666674.67083333333336
770.473.8958333333333-3.49583333333331
875.472.59583333333332.80416666666668
9105.5104.3333333333331.16666666666666
10112.3104.5333333333337.76666666666667
11102.596.63333333333335.86666666666667
1293.589.93333333333333.56666666666666
1386.786.118750.581250000000079
1495.290.48541666666674.71458333333332
15103.898.68541666666675.11458333333333
169790.68541666666676.31458333333332
1795.588.38541666666677.11458333333333
1810192.68541666666678.31458333333332
1967.563.25208333333334.24791666666666
206461.95208333333332.04791666666666
21106.7104.3333333333332.36666666666667
22100.6104.533333333333-3.93333333333334
23101.296.63333333333334.56666666666666
2493.189.93333333333333.16666666666665
2584.286.11875-1.91874999999992
2685.890.4854166666667-4.68541666666669
2791.898.6854166666667-6.88541666666667
2892.490.68541666666671.71458333333333
2980.388.3854166666667-8.08541666666668
3079.792.6854166666667-12.9854166666667
3162.563.2520833333333-0.752083333333345
3257.161.9520833333333-4.85208333333334
33100.8104.333333333333-3.53333333333333
34100.7104.533333333333-3.83333333333333
3586.296.6333333333333-10.4333333333333
3683.289.9333333333334-6.73333333333334

\begin{tabular}{lllllllll}
\hline
Multiple Linear Regression - Actuals, Interpolation, and Residuals \tabularnewline
Time or Index & Actuals & InterpolationForecast & ResidualsPrediction Error \tabularnewline
1 & 98.1 & 96.7625000000002 & 1.33749999999984 \tabularnewline
2 & 101.1 & 101.129166666667 & -0.0291666666666179 \tabularnewline
3 & 111.1 & 109.329166666667 & 1.77083333333334 \tabularnewline
4 & 93.3 & 101.329166666667 & -8.02916666666665 \tabularnewline
5 & 100 & 99.0291666666667 & 0.97083333333335 \tabularnewline
6 & 108 & 103.329166666667 & 4.67083333333336 \tabularnewline
7 & 70.4 & 73.8958333333333 & -3.49583333333331 \tabularnewline
8 & 75.4 & 72.5958333333333 & 2.80416666666668 \tabularnewline
9 & 105.5 & 104.333333333333 & 1.16666666666666 \tabularnewline
10 & 112.3 & 104.533333333333 & 7.76666666666667 \tabularnewline
11 & 102.5 & 96.6333333333333 & 5.86666666666667 \tabularnewline
12 & 93.5 & 89.9333333333333 & 3.56666666666666 \tabularnewline
13 & 86.7 & 86.11875 & 0.581250000000079 \tabularnewline
14 & 95.2 & 90.4854166666667 & 4.71458333333332 \tabularnewline
15 & 103.8 & 98.6854166666667 & 5.11458333333333 \tabularnewline
16 & 97 & 90.6854166666667 & 6.31458333333332 \tabularnewline
17 & 95.5 & 88.3854166666667 & 7.11458333333333 \tabularnewline
18 & 101 & 92.6854166666667 & 8.31458333333332 \tabularnewline
19 & 67.5 & 63.2520833333333 & 4.24791666666666 \tabularnewline
20 & 64 & 61.9520833333333 & 2.04791666666666 \tabularnewline
21 & 106.7 & 104.333333333333 & 2.36666666666667 \tabularnewline
22 & 100.6 & 104.533333333333 & -3.93333333333334 \tabularnewline
23 & 101.2 & 96.6333333333333 & 4.56666666666666 \tabularnewline
24 & 93.1 & 89.9333333333333 & 3.16666666666665 \tabularnewline
25 & 84.2 & 86.11875 & -1.91874999999992 \tabularnewline
26 & 85.8 & 90.4854166666667 & -4.68541666666669 \tabularnewline
27 & 91.8 & 98.6854166666667 & -6.88541666666667 \tabularnewline
28 & 92.4 & 90.6854166666667 & 1.71458333333333 \tabularnewline
29 & 80.3 & 88.3854166666667 & -8.08541666666668 \tabularnewline
30 & 79.7 & 92.6854166666667 & -12.9854166666667 \tabularnewline
31 & 62.5 & 63.2520833333333 & -0.752083333333345 \tabularnewline
32 & 57.1 & 61.9520833333333 & -4.85208333333334 \tabularnewline
33 & 100.8 & 104.333333333333 & -3.53333333333333 \tabularnewline
34 & 100.7 & 104.533333333333 & -3.83333333333333 \tabularnewline
35 & 86.2 & 96.6333333333333 & -10.4333333333333 \tabularnewline
36 & 83.2 & 89.9333333333334 & -6.73333333333334 \tabularnewline
\hline
\end{tabular}
%Source: https://freestatistics.org/blog/index.php?pk=36381&T=4

[TABLE]
[ROW][C]Multiple Linear Regression - Actuals, Interpolation, and Residuals[/C][/ROW]
[ROW][C]Time or Index[/C][C]Actuals[/C][C]InterpolationForecast[/C][C]ResidualsPrediction Error[/C][/ROW]
[ROW][C]1[/C][C]98.1[/C][C]96.7625000000002[/C][C]1.33749999999984[/C][/ROW]
[ROW][C]2[/C][C]101.1[/C][C]101.129166666667[/C][C]-0.0291666666666179[/C][/ROW]
[ROW][C]3[/C][C]111.1[/C][C]109.329166666667[/C][C]1.77083333333334[/C][/ROW]
[ROW][C]4[/C][C]93.3[/C][C]101.329166666667[/C][C]-8.02916666666665[/C][/ROW]
[ROW][C]5[/C][C]100[/C][C]99.0291666666667[/C][C]0.97083333333335[/C][/ROW]
[ROW][C]6[/C][C]108[/C][C]103.329166666667[/C][C]4.67083333333336[/C][/ROW]
[ROW][C]7[/C][C]70.4[/C][C]73.8958333333333[/C][C]-3.49583333333331[/C][/ROW]
[ROW][C]8[/C][C]75.4[/C][C]72.5958333333333[/C][C]2.80416666666668[/C][/ROW]
[ROW][C]9[/C][C]105.5[/C][C]104.333333333333[/C][C]1.16666666666666[/C][/ROW]
[ROW][C]10[/C][C]112.3[/C][C]104.533333333333[/C][C]7.76666666666667[/C][/ROW]
[ROW][C]11[/C][C]102.5[/C][C]96.6333333333333[/C][C]5.86666666666667[/C][/ROW]
[ROW][C]12[/C][C]93.5[/C][C]89.9333333333333[/C][C]3.56666666666666[/C][/ROW]
[ROW][C]13[/C][C]86.7[/C][C]86.11875[/C][C]0.581250000000079[/C][/ROW]
[ROW][C]14[/C][C]95.2[/C][C]90.4854166666667[/C][C]4.71458333333332[/C][/ROW]
[ROW][C]15[/C][C]103.8[/C][C]98.6854166666667[/C][C]5.11458333333333[/C][/ROW]
[ROW][C]16[/C][C]97[/C][C]90.6854166666667[/C][C]6.31458333333332[/C][/ROW]
[ROW][C]17[/C][C]95.5[/C][C]88.3854166666667[/C][C]7.11458333333333[/C][/ROW]
[ROW][C]18[/C][C]101[/C][C]92.6854166666667[/C][C]8.31458333333332[/C][/ROW]
[ROW][C]19[/C][C]67.5[/C][C]63.2520833333333[/C][C]4.24791666666666[/C][/ROW]
[ROW][C]20[/C][C]64[/C][C]61.9520833333333[/C][C]2.04791666666666[/C][/ROW]
[ROW][C]21[/C][C]106.7[/C][C]104.333333333333[/C][C]2.36666666666667[/C][/ROW]
[ROW][C]22[/C][C]100.6[/C][C]104.533333333333[/C][C]-3.93333333333334[/C][/ROW]
[ROW][C]23[/C][C]101.2[/C][C]96.6333333333333[/C][C]4.56666666666666[/C][/ROW]
[ROW][C]24[/C][C]93.1[/C][C]89.9333333333333[/C][C]3.16666666666665[/C][/ROW]
[ROW][C]25[/C][C]84.2[/C][C]86.11875[/C][C]-1.91874999999992[/C][/ROW]
[ROW][C]26[/C][C]85.8[/C][C]90.4854166666667[/C][C]-4.68541666666669[/C][/ROW]
[ROW][C]27[/C][C]91.8[/C][C]98.6854166666667[/C][C]-6.88541666666667[/C][/ROW]
[ROW][C]28[/C][C]92.4[/C][C]90.6854166666667[/C][C]1.71458333333333[/C][/ROW]
[ROW][C]29[/C][C]80.3[/C][C]88.3854166666667[/C][C]-8.08541666666668[/C][/ROW]
[ROW][C]30[/C][C]79.7[/C][C]92.6854166666667[/C][C]-12.9854166666667[/C][/ROW]
[ROW][C]31[/C][C]62.5[/C][C]63.2520833333333[/C][C]-0.752083333333345[/C][/ROW]
[ROW][C]32[/C][C]57.1[/C][C]61.9520833333333[/C][C]-4.85208333333334[/C][/ROW]
[ROW][C]33[/C][C]100.8[/C][C]104.333333333333[/C][C]-3.53333333333333[/C][/ROW]
[ROW][C]34[/C][C]100.7[/C][C]104.533333333333[/C][C]-3.83333333333333[/C][/ROW]
[ROW][C]35[/C][C]86.2[/C][C]96.6333333333333[/C][C]-10.4333333333333[/C][/ROW]
[ROW][C]36[/C][C]83.2[/C][C]89.9333333333334[/C][C]-6.73333333333334[/C][/ROW]
[/TABLE]
Source: https://freestatistics.org/blog/index.php?pk=36381&T=4

Globally Unique Identifier (entire table): ba.freestatistics.org/blog/index.php?pk=36381&T=4

As an alternative you can also use a QR Code:  

The GUIDs for individual cells are displayed in the table below:

Multiple Linear Regression - Actuals, Interpolation, and Residuals
Time or IndexActualsInterpolationForecastResidualsPrediction Error
198.196.76250000000021.33749999999984
2101.1101.129166666667-0.0291666666666179
3111.1109.3291666666671.77083333333334
493.3101.329166666667-8.02916666666665
510099.02916666666670.97083333333335
6108103.3291666666674.67083333333336
770.473.8958333333333-3.49583333333331
875.472.59583333333332.80416666666668
9105.5104.3333333333331.16666666666666
10112.3104.5333333333337.76666666666667
11102.596.63333333333335.86666666666667
1293.589.93333333333333.56666666666666
1386.786.118750.581250000000079
1495.290.48541666666674.71458333333332
15103.898.68541666666675.11458333333333
169790.68541666666676.31458333333332
1795.588.38541666666677.11458333333333
1810192.68541666666678.31458333333332
1967.563.25208333333334.24791666666666
206461.95208333333332.04791666666666
21106.7104.3333333333332.36666666666667
22100.6104.533333333333-3.93333333333334
23101.296.63333333333334.56666666666666
2493.189.93333333333333.16666666666665
2584.286.11875-1.91874999999992
2685.890.4854166666667-4.68541666666669
2791.898.6854166666667-6.88541666666667
2892.490.68541666666671.71458333333333
2980.388.3854166666667-8.08541666666668
3079.792.6854166666667-12.9854166666667
3162.563.2520833333333-0.752083333333345
3257.161.9520833333333-4.85208333333334
33100.8104.333333333333-3.53333333333333
34100.7104.533333333333-3.83333333333333
3586.296.6333333333333-10.4333333333333
3683.289.9333333333334-6.73333333333334







Goldfeld-Quandt test for Heteroskedasticity
p-valuesAlternative Hypothesis
breakpoint indexgreater2-sidedless
160.1454277680282510.2908555360565010.85457223197175
170.07555620319994870.1511124063998970.924443796800051
180.1019099701197470.2038199402394930.898090029880253
190.04788598067403430.09577196134806850.952114019325966
200.03655931682435330.07311863364870660.963440683175647

\begin{tabular}{lllllllll}
\hline
Goldfeld-Quandt test for Heteroskedasticity \tabularnewline
p-values & Alternative Hypothesis \tabularnewline
breakpoint index & greater & 2-sided & less \tabularnewline
16 & 0.145427768028251 & 0.290855536056501 & 0.85457223197175 \tabularnewline
17 & 0.0755562031999487 & 0.151112406399897 & 0.924443796800051 \tabularnewline
18 & 0.101909970119747 & 0.203819940239493 & 0.898090029880253 \tabularnewline
19 & 0.0478859806740343 & 0.0957719613480685 & 0.952114019325966 \tabularnewline
20 & 0.0365593168243533 & 0.0731186336487066 & 0.963440683175647 \tabularnewline
\hline
\end{tabular}
%Source: https://freestatistics.org/blog/index.php?pk=36381&T=5

[TABLE]
[ROW][C]Goldfeld-Quandt test for Heteroskedasticity[/C][/ROW]
[ROW][C]p-values[/C][C]Alternative Hypothesis[/C][/ROW]
[ROW][C]breakpoint index[/C][C]greater[/C][C]2-sided[/C][C]less[/C][/ROW]
[ROW][C]16[/C][C]0.145427768028251[/C][C]0.290855536056501[/C][C]0.85457223197175[/C][/ROW]
[ROW][C]17[/C][C]0.0755562031999487[/C][C]0.151112406399897[/C][C]0.924443796800051[/C][/ROW]
[ROW][C]18[/C][C]0.101909970119747[/C][C]0.203819940239493[/C][C]0.898090029880253[/C][/ROW]
[ROW][C]19[/C][C]0.0478859806740343[/C][C]0.0957719613480685[/C][C]0.952114019325966[/C][/ROW]
[ROW][C]20[/C][C]0.0365593168243533[/C][C]0.0731186336487066[/C][C]0.963440683175647[/C][/ROW]
[/TABLE]
Source: https://freestatistics.org/blog/index.php?pk=36381&T=5

Globally Unique Identifier (entire table): ba.freestatistics.org/blog/index.php?pk=36381&T=5

As an alternative you can also use a QR Code:  

The GUIDs for individual cells are displayed in the table below:

Goldfeld-Quandt test for Heteroskedasticity
p-valuesAlternative Hypothesis
breakpoint indexgreater2-sidedless
160.1454277680282510.2908555360565010.85457223197175
170.07555620319994870.1511124063998970.924443796800051
180.1019099701197470.2038199402394930.898090029880253
190.04788598067403430.09577196134806850.952114019325966
200.03655931682435330.07311863364870660.963440683175647







Meta Analysis of Goldfeld-Quandt test for Heteroskedasticity
Description# significant tests% significant testsOK/NOK
1% type I error level00OK
5% type I error level00OK
10% type I error level20.4NOK

\begin{tabular}{lllllllll}
\hline
Meta Analysis of Goldfeld-Quandt test for Heteroskedasticity \tabularnewline
Description & # significant tests & % significant tests & OK/NOK \tabularnewline
1% type I error level & 0 & 0 & OK \tabularnewline
5% type I error level & 0 & 0 & OK \tabularnewline
10% type I error level & 2 & 0.4 & NOK \tabularnewline
\hline
\end{tabular}
%Source: https://freestatistics.org/blog/index.php?pk=36381&T=6

[TABLE]
[ROW][C]Meta Analysis of Goldfeld-Quandt test for Heteroskedasticity[/C][/ROW]
[ROW][C]Description[/C][C]# significant tests[/C][C]% significant tests[/C][C]OK/NOK[/C][/ROW]
[ROW][C]1% type I error level[/C][C]0[/C][C]0[/C][C]OK[/C][/ROW]
[ROW][C]5% type I error level[/C][C]0[/C][C]0[/C][C]OK[/C][/ROW]
[ROW][C]10% type I error level[/C][C]2[/C][C]0.4[/C][C]NOK[/C][/ROW]
[/TABLE]
Source: https://freestatistics.org/blog/index.php?pk=36381&T=6

Globally Unique Identifier (entire table): ba.freestatistics.org/blog/index.php?pk=36381&T=6

As an alternative you can also use a QR Code:  

The GUIDs for individual cells are displayed in the table below:

Meta Analysis of Goldfeld-Quandt test for Heteroskedasticity
Description# significant tests% significant testsOK/NOK
1% type I error level00OK
5% type I error level00OK
10% type I error level20.4NOK



Parameters (Session):
par1 = 2 ; par2 = Include Monthly Dummies ; par3 = No Linear Trend ;
Parameters (R input):
par1 = 2 ; par2 = Include Monthly Dummies ; par3 = No Linear Trend ;
R code (references can be found in the software module):
library(lattice)
library(lmtest)
n25 <- 25 #minimum number of obs. for Goldfeld-Quandt test
par1 <- as.numeric(par1)
x <- t(y)
k <- length(x[1,])
n <- length(x[,1])
x1 <- cbind(x[,par1], x[,1:k!=par1])
mycolnames <- c(colnames(x)[par1], colnames(x)[1:k!=par1])
colnames(x1) <- mycolnames #colnames(x)[par1]
x <- x1
if (par3 == 'First Differences'){
x2 <- array(0, dim=c(n-1,k), dimnames=list(1:(n-1), paste('(1-B)',colnames(x),sep='')))
for (i in 1:n-1) {
for (j in 1:k) {
x2[i,j] <- x[i+1,j] - x[i,j]
}
}
x <- x2
}
if (par2 == 'Include Monthly Dummies'){
x2 <- array(0, dim=c(n,11), dimnames=list(1:n, paste('M', seq(1:11), sep ='')))
for (i in 1:11){
x2[seq(i,n,12),i] <- 1
}
x <- cbind(x, x2)
}
if (par2 == 'Include Quarterly Dummies'){
x2 <- array(0, dim=c(n,3), dimnames=list(1:n, paste('Q', seq(1:3), sep ='')))
for (i in 1:3){
x2[seq(i,n,4),i] <- 1
}
x <- cbind(x, x2)
}
k <- length(x[1,])
if (par3 == 'Linear Trend'){
x <- cbind(x, c(1:n))
colnames(x)[k+1] <- 't'
}
x
k <- length(x[1,])
df <- as.data.frame(x)
(mylm <- lm(df))
(mysum <- summary(mylm))
if (n > n25) {
kp3 <- k + 3
nmkm3 <- n - k - 3
gqarr <- array(NA, dim=c(nmkm3-kp3+1,3))
numgqtests <- 0
numsignificant1 <- 0
numsignificant5 <- 0
numsignificant10 <- 0
for (mypoint in kp3:nmkm3) {
j <- 0
numgqtests <- numgqtests + 1
for (myalt in c('greater', 'two.sided', 'less')) {
j <- j + 1
gqarr[mypoint-kp3+1,j] <- gqtest(mylm, point=mypoint, alternative=myalt)$p.value
}
if (gqarr[mypoint-kp3+1,2] < 0.01) numsignificant1 <- numsignificant1 + 1
if (gqarr[mypoint-kp3+1,2] < 0.05) numsignificant5 <- numsignificant5 + 1
if (gqarr[mypoint-kp3+1,2] < 0.10) numsignificant10 <- numsignificant10 + 1
}
gqarr
}
bitmap(file='test0.png')
plot(x[,1], type='l', main='Actuals and Interpolation', ylab='value of Actuals and Interpolation (dots)', xlab='time or index')
points(x[,1]-mysum$resid)
grid()
dev.off()
bitmap(file='test1.png')
plot(mysum$resid, type='b', pch=19, main='Residuals', ylab='value of Residuals', xlab='time or index')
grid()
dev.off()
bitmap(file='test2.png')
hist(mysum$resid, main='Residual Histogram', xlab='values of Residuals')
grid()
dev.off()
bitmap(file='test3.png')
densityplot(~mysum$resid,col='black',main='Residual Density Plot', xlab='values of Residuals')
dev.off()
bitmap(file='test4.png')
qqnorm(mysum$resid, main='Residual Normal Q-Q Plot')
qqline(mysum$resid)
grid()
dev.off()
(myerror <- as.ts(mysum$resid))
bitmap(file='test5.png')
dum <- cbind(lag(myerror,k=1),myerror)
dum
dum1 <- dum[2:length(myerror),]
dum1
z <- as.data.frame(dum1)
z
plot(z,main=paste('Residual Lag plot, lowess, and regression line'), ylab='values of Residuals', xlab='lagged values of Residuals')
lines(lowess(z))
abline(lm(z))
grid()
dev.off()
bitmap(file='test6.png')
acf(mysum$resid, lag.max=length(mysum$resid)/2, main='Residual Autocorrelation Function')
grid()
dev.off()
bitmap(file='test7.png')
pacf(mysum$resid, lag.max=length(mysum$resid)/2, main='Residual Partial Autocorrelation Function')
grid()
dev.off()
bitmap(file='test8.png')
opar <- par(mfrow = c(2,2), oma = c(0, 0, 1.1, 0))
plot(mylm, las = 1, sub='Residual Diagnostics')
par(opar)
dev.off()
if (n > n25) {
bitmap(file='test9.png')
plot(kp3:nmkm3,gqarr[,2], main='Goldfeld-Quandt test',ylab='2-sided p-value',xlab='breakpoint')
grid()
dev.off()
}
load(file='createtable')
a<-table.start()
a<-table.row.start(a)
a<-table.element(a, 'Multiple Linear Regression - Estimated Regression Equation', 1, TRUE)
a<-table.row.end(a)
myeq <- colnames(x)[1]
myeq <- paste(myeq, '[t] = ', sep='')
for (i in 1:k){
if (mysum$coefficients[i,1] > 0) myeq <- paste(myeq, '+', '')
myeq <- paste(myeq, mysum$coefficients[i,1], sep=' ')
if (rownames(mysum$coefficients)[i] != '(Intercept)') {
myeq <- paste(myeq, rownames(mysum$coefficients)[i], sep='')
if (rownames(mysum$coefficients)[i] != 't') myeq <- paste(myeq, '[t]', sep='')
}
}
myeq <- paste(myeq, ' + e[t]')
a<-table.row.start(a)
a<-table.element(a, myeq)
a<-table.row.end(a)
a<-table.end(a)
table.save(a,file='mytable1.tab')
a<-table.start()
a<-table.row.start(a)
a<-table.element(a,hyperlink('ols1.htm','Multiple Linear Regression - Ordinary Least Squares',''), 6, TRUE)
a<-table.row.end(a)
a<-table.row.start(a)
a<-table.element(a,'Variable',header=TRUE)
a<-table.element(a,'Parameter',header=TRUE)
a<-table.element(a,'S.D.',header=TRUE)
a<-table.element(a,'T-STAT
H0: parameter = 0',header=TRUE)
a<-table.element(a,'2-tail p-value',header=TRUE)
a<-table.element(a,'1-tail p-value',header=TRUE)
a<-table.row.end(a)
for (i in 1:k){
a<-table.row.start(a)
a<-table.element(a,rownames(mysum$coefficients)[i],header=TRUE)
a<-table.element(a,mysum$coefficients[i,1])
a<-table.element(a, round(mysum$coefficients[i,2],6))
a<-table.element(a, round(mysum$coefficients[i,3],4))
a<-table.element(a, round(mysum$coefficients[i,4],6))
a<-table.element(a, round(mysum$coefficients[i,4]/2,6))
a<-table.row.end(a)
}
a<-table.end(a)
table.save(a,file='mytable2.tab')
a<-table.start()
a<-table.row.start(a)
a<-table.element(a, 'Multiple Linear Regression - Regression Statistics', 2, TRUE)
a<-table.row.end(a)
a<-table.row.start(a)
a<-table.element(a, 'Multiple R',1,TRUE)
a<-table.element(a, sqrt(mysum$r.squared))
a<-table.row.end(a)
a<-table.row.start(a)
a<-table.element(a, 'R-squared',1,TRUE)
a<-table.element(a, mysum$r.squared)
a<-table.row.end(a)
a<-table.row.start(a)
a<-table.element(a, 'Adjusted R-squared',1,TRUE)
a<-table.element(a, mysum$adj.r.squared)
a<-table.row.end(a)
a<-table.row.start(a)
a<-table.element(a, 'F-TEST (value)',1,TRUE)
a<-table.element(a, mysum$fstatistic[1])
a<-table.row.end(a)
a<-table.row.start(a)
a<-table.element(a, 'F-TEST (DF numerator)',1,TRUE)
a<-table.element(a, mysum$fstatistic[2])
a<-table.row.end(a)
a<-table.row.start(a)
a<-table.element(a, 'F-TEST (DF denominator)',1,TRUE)
a<-table.element(a, mysum$fstatistic[3])
a<-table.row.end(a)
a<-table.row.start(a)
a<-table.element(a, 'p-value',1,TRUE)
a<-table.element(a, 1-pf(mysum$fstatistic[1],mysum$fstatistic[2],mysum$fstatistic[3]))
a<-table.row.end(a)
a<-table.row.start(a)
a<-table.element(a, 'Multiple Linear Regression - Residual Statistics', 2, TRUE)
a<-table.row.end(a)
a<-table.row.start(a)
a<-table.element(a, 'Residual Standard Deviation',1,TRUE)
a<-table.element(a, mysum$sigma)
a<-table.row.end(a)
a<-table.row.start(a)
a<-table.element(a, 'Sum Squared Residuals',1,TRUE)
a<-table.element(a, sum(myerror*myerror))
a<-table.row.end(a)
a<-table.end(a)
table.save(a,file='mytable3.tab')
a<-table.start()
a<-table.row.start(a)
a<-table.element(a, 'Multiple Linear Regression - Actuals, Interpolation, and Residuals', 4, TRUE)
a<-table.row.end(a)
a<-table.row.start(a)
a<-table.element(a, 'Time or Index', 1, TRUE)
a<-table.element(a, 'Actuals', 1, TRUE)
a<-table.element(a, 'Interpolation
Forecast', 1, TRUE)
a<-table.element(a, 'Residuals
Prediction Error', 1, TRUE)
a<-table.row.end(a)
for (i in 1:n) {
a<-table.row.start(a)
a<-table.element(a,i, 1, TRUE)
a<-table.element(a,x[i])
a<-table.element(a,x[i]-mysum$resid[i])
a<-table.element(a,mysum$resid[i])
a<-table.row.end(a)
}
a<-table.end(a)
table.save(a,file='mytable4.tab')
if (n > n25) {
a<-table.start()
a<-table.row.start(a)
a<-table.element(a,'Goldfeld-Quandt test for Heteroskedasticity',4,TRUE)
a<-table.row.end(a)
a<-table.row.start(a)
a<-table.element(a,'p-values',header=TRUE)
a<-table.element(a,'Alternative Hypothesis',3,header=TRUE)
a<-table.row.end(a)
a<-table.row.start(a)
a<-table.element(a,'breakpoint index',header=TRUE)
a<-table.element(a,'greater',header=TRUE)
a<-table.element(a,'2-sided',header=TRUE)
a<-table.element(a,'less',header=TRUE)
a<-table.row.end(a)
for (mypoint in kp3:nmkm3) {
a<-table.row.start(a)
a<-table.element(a,mypoint,header=TRUE)
a<-table.element(a,gqarr[mypoint-kp3+1,1])
a<-table.element(a,gqarr[mypoint-kp3+1,2])
a<-table.element(a,gqarr[mypoint-kp3+1,3])
a<-table.row.end(a)
}
a<-table.end(a)
table.save(a,file='mytable5.tab')
a<-table.start()
a<-table.row.start(a)
a<-table.element(a,'Meta Analysis of Goldfeld-Quandt test for Heteroskedasticity',4,TRUE)
a<-table.row.end(a)
a<-table.row.start(a)
a<-table.element(a,'Description',header=TRUE)
a<-table.element(a,'# significant tests',header=TRUE)
a<-table.element(a,'% significant tests',header=TRUE)
a<-table.element(a,'OK/NOK',header=TRUE)
a<-table.row.end(a)
a<-table.row.start(a)
a<-table.element(a,'1% type I error level',header=TRUE)
a<-table.element(a,numsignificant1)
a<-table.element(a,numsignificant1/numgqtests)
if (numsignificant1/numgqtests < 0.01) dum <- 'OK' else dum <- 'NOK'
a<-table.element(a,dum)
a<-table.row.end(a)
a<-table.row.start(a)
a<-table.element(a,'5% type I error level',header=TRUE)
a<-table.element(a,numsignificant5)
a<-table.element(a,numsignificant5/numgqtests)
if (numsignificant5/numgqtests < 0.05) dum <- 'OK' else dum <- 'NOK'
a<-table.element(a,dum)
a<-table.row.end(a)
a<-table.row.start(a)
a<-table.element(a,'10% type I error level',header=TRUE)
a<-table.element(a,numsignificant10)
a<-table.element(a,numsignificant10/numgqtests)
if (numsignificant10/numgqtests < 0.1) dum <- 'OK' else dum <- 'NOK'
a<-table.element(a,dum)
a<-table.row.end(a)
a<-table.end(a)
table.save(a,file='mytable6.tab')
}