Free Statistics

of Irreproducible Research!

Author's title

Author*Unverified author*
R Software Modulerwasp_arimaforecasting.wasp
Title produced by softwareARIMA Forecasting
Date of computationSun, 14 Dec 2008 10:34:44 -0700
Cite this page as followsStatistical Computations at FreeStatistics.org, Office for Research Development and Education, URL https://freestatistics.org/blog/index.php?v=date/2008/Dec/14/t122927666860so1dftr12rexn.htm/, Retrieved Sun, 19 May 2024 11:39:59 +0000
Statistical Computations at FreeStatistics.org, Office for Research Development and Education, URL https://freestatistics.org/blog/index.php?pk=33506, Retrieved Sun, 19 May 2024 11:39:59 +0000
QR Codes:

Original text written by user:
IsPrivate?No (this computation is public)
User-defined keywords
Estimated Impact109
Family? (F = Feedback message, R = changed R code, M = changed R Module, P = changed Parameters, D = changed Data)
F       [ARIMA Forecasting] [Duurzamze consump...] [2008-12-14 17:34:44] [a57a97ff9690154d18ed2c72b6ae351a] [Current]
Feedback Forum
2008-12-18 12:16:49 [Stefan Temmerman] [reply
Step 1: De student legt de grafiek goed uit, en ook hoe we ertoe gekomen zijn. De ARMA processen zijn inderdaad goed gedaan, en zo is zoals gezegd geen sprake van explosiviteit. Als bijkomend bewijs kon nog vermeld worden dat de voorspellingen niet buiten de grafiek vallen. Ook de p-values konnen vermeld worden, die zeggen of een voorspelling significant zou verschillen voor een voorspelling. Hier is één maand significant, en de verklaring hiervoor zou bijkomen onderzoek nodig hebben.

Step 2: De seizoenaliteit zet zich inderdaad verder, wat we ook in de kanstabellen kunnen observeren wat de student niet vermeldt. Een trend is moeilijker op te sporen, maar ik denk in tegenstelling tot wat de student zegt, dat de dalende trend zich toch lichtjes verderzet.

Step 3: De student concludeert dat het model goed is, gezien de standaardfouten die niet boven 11% oplopen. Dit is correct.

Step 4: De student heeft elke kolom correct uitgelegd van de tabel. Ook werd vermeld dat twee voorspelling significant afwijken van de reële waarden, wat kan duiden op een externe factor omdat dit model ceteris paribus is.

Step 5: De conclusie is correct, maar er kon meer uitleg bij. Hier moet er gekeken worden naar de ARIMA extrapolation forecast. De voorspelde data (met de bolletjes) zijn niet juist gelijk aan de reële waarden, maar we zien toch een vrij sterke gelijkenis. Ook valt geen enkele voorspelling buiten het 95% betrouwbaarheidsinterval, wat goed is voor het model en ook duidt op geen enkele speciale gebeurtenis. Dit is in lijn met de kolom van de procentuele standaardfouten. Deze gaan tot 11%, dat is de kans dat de voorspelde waarden zouden schillen van de reële. De kans is dus klein en wijst op een goed model als we de twee significante verschillen buiten schot houden. De PE kolom laat zien hoeveel de voorspelde waarden werkelijk afwijken, deze zijn minder goed, en soms hoger dat de standaardfouten. Dit wijst op een model dat nog aan verbetering toe is.
2008-12-19 08:18:51 [Steven Vercammen] [reply
Step 1 : Deze vraag heb ik correct beantwoord. Ik had misschien ook nog de p-values moeten vermelden als extra bewijs dat er geen sprake is explosiviteit.

Step 2 : Ook hier had ik enkele cijfers uit de tabel kunnen opnemen als bewijs. Bv.P(F[t]>Y[t-1]): Wat is de waarschijnlijkheid dat de volgende waarde groter is dan de vorige gekende periode? We zien dat deze kansen zeer sterk verschillen soms is dit 99% soms 0.09%. Dit valt te verklaren door de sterk schommelende bewegingen in onze tijdreeks (seizonaliteit).

Step 3: Deze stap heb ik volledig correct beantwoord. We vergelijken de voorspelde fout en de werkelijke fout. Deze laatste is in de meeste maanden het kleinst. Dit is positief en wijst op een goed model.

Step 4: Deze heb ik correct beantwoord. Het feit dat sommige maanden significant verschillen van de voorspelling kan wijzen op een externe economische factor die de werkelijke waarden heeft beïnvloed.

Step 5: Bij deze stap had ik nog meer bewijzen kunnen aanhalen om mijn stelling te bewijzen. Het is bv. ook zo dat alle werkelijke waarden binnen het 95% betrouwbaarheidsinterval vallen.
2008-12-22 14:47:00 [Thomas Plasschaert] [reply
De verschillende stappen zijn correct uitgewerkt, hieronder mijn uitleg voor extra info

beperkte uitleg bij het oplossen van de verschillende stappen

In de eerste tabel bevinden zich 9 kolommen met elk hun waarden.
De eerste kolom geeft de tijdsindex, je kan hier zien dat de eerste 360 waarnemingen bestaan en dat de laatste 12 waarnemingen weggelaten zijn door de testing period =12.
De tweede kolom geeft de waarde uit de dataset (Y(t))
De derde kolom geeft de voorspelde waarde (F(t))
De vierde en vijfde kolom geven de 95% upper en lower bound, samen vormen deze het 95% betrouwbaarheidsinterval.
De zesde kolom geeft de p-waarde, met als 0-hypothese dat de waarde uit de dataset en de voorspelde waarde niet significant van elkaar verschillen.
De zevende kolom geeft de waarschijnlijkheid dat er een stijging is ten opzichte van de laatste waarde.
De achtste kolom geeft de waarschijnlijkheid dat er een stijging is ten opzichte van vorig jaar.
De negende kolom geeft de waarschijnlijkheid dat er een stijging is ten opzichte van de laatst gekende waarde.

De 2de tabel geeft verschillende waarden in verband met de dataset, zo zien we in de tweede kolom de procentuele standaardfout en in de derde kolom de procentuele werkelijke fout. Bij de procentuele standaardfout kunnen we opmerken dat hoe verder we in de in toekomst kijken, hoe groter deze fout zal zijn, bij de procentuele werkelijke fout kunnen we opmerken dat deze meestal kleiner is dat de standaardfout.

Bij de eerste grafiek worden de laatste 12 maanden grijs gekleurd, omdat het hier gaat over de periode waarvoor we voorspellingen gaan doen, deze periode wordt in de tweede grafiek uitvergroot. In deze grafiek stelt de lijn met de bolletjes de voorspelde waarden voor, de volle lijn de waarden uit de dataset en de stippellijntjes het 95% betrouwbaarheidsinterval. We zien dat er zich hier nergens een noemenswaardige afwijking voordoet waarbij een punt zich buiten het betrouwbaarheidsinterval bevindt. In de tweede grafiek kunnen we zien of er een trend of/en seizoenaliteit is.
2008-12-24 08:35:58 [58d427c57bd46519a715a3a7fea6a80f] [reply
2: Voor deze stap had je enkel de grafiek nodig. Wanneer je in de verleden waarden een duidelijk patroon ziet dat herhaald wordt in de voorspelde waarden (bepaalde pieken) dan zou dit een indicatie kunnen zijn van seizoenaliteit.
Om te kijken of er een conjuctuurcyclus is daarvoor moet je ook kijken naar de grafiek.
Wanneer je dus eigenlijk een bergparabool (dus eerst stijging, daarna redelijk gelijklopend en daarna daling) kan tekenen door de verleden waarden en de voorspelde waarden zetten deze trend verder , dan zou je kunnen spreken van een conjunctuurcyclus
3:Voor deze stap moet je kijken naar de tweede tabel met %. S.E. en PE.Het is belangrijk dat je hier de betekenis van de tijdreeks uithaalt, als de werkelijke en de geschatte voorspelde fout telkens goed overeenkomen, wel dan is uw tijdreeks dus ‘normaal’ en is er niets speciaals gebeurd. Je moet ook nagaan of de stijging van de standaardfout van het begin van de voorspelde periode tot het einde logisch is. Bijvoorbeeld als er een stijging is van 20% naar 80%, dat is dus zeer groot, is dat mogelijk dat uw tijdreeks zo ’n standaardfout heeft naar de toekomst toe.
4:Voor deze stap moet je gebruik maken van de eerste tabel die de output genereert en kijken naar de drie laatste kolommen. Daar staat telkens de waarschijnlijkheid van iets.
De onderliggende assumptie is de volgende:
Het model dat berekend wordt, gaat uit van een normaalverdeling. Alle residu’s moeten normaal verdeeld zijn. Dit kun je nazien door te kijken naar de density plot, de QQ-plot, etc.. van de residu’s die in de vorige workshop berekend zijn, wanneer je de parameters q, Q, P en p berekende met de Backward Selection Method. Zo kun je zien of deze assumptie vervuld is. Wanneer dit niet het geval blijkt te zijn, zullen de p-waarde, de waarschijnlijkheden en eigenlijk alles dat berekend is, anders zijn, omdat het model dus van een normaalverdeling uitgaat.
5:Voor deze vraag moet je uit de eerste tabel de kolommen Y(t); F(t) en p-value gebruiken.
Als de p-waarde groter is dan 5%, wil dit zeggen dat het verschil tussen de voorspelde waarde en de werkelijke waarde niet significant is. Wanneer dit kleiner is dan 5%, wil dit zeggen dat het verschil tussen de voorspelde waarde en de werkelijke waarde wel significant is. Dit zou je ook in de grafieken kunnen nazien, door te kijken of de werkelijke waarden buiten het betrouwbaarheidsinterval vallen.

Post a new message
Dataseries X:
98.1
101.1
111.1
93.3
100
108
70.4
75.4
105.5
112.3
102.5
93.5
86.7
95.2
103.8
97
95.5
101
67.5
64
106.7
100.6
101.2
93.1
84.2
85.8
91.8
92.4
80.3
79.7
62.5
57.1
100.8
100.7
86.2
83.2
71.7
77.5
89.8
80.3
78.7
93.8
57.6
60.6
91
85.3
77.4
77.3
68.3
69.9
81.7
75.1
69.9
84
54.3
60
89.9
77
85.3
77.6
69.2
75.5
85.7
72.2
79.9
85.3
52.2
61.2
82.4
85.4
78.2
70.2
70.2
69.3
77.5
66.1
69
79.2
56.2
63.3
77.8
92
78.1
65.1
71.1
70.9
72
81.9
70.6
72.5
65.1
54.9
80




Summary of computational transaction
Raw Inputview raw input (R code)
Raw Outputview raw output of R engine
Computing time3 seconds
R Server'Sir Ronald Aylmer Fisher' @ 193.190.124.24

\begin{tabular}{lllllllll}
\hline
Summary of computational transaction \tabularnewline
Raw Input & view raw input (R code)  \tabularnewline
Raw Output & view raw output of R engine  \tabularnewline
Computing time & 3 seconds \tabularnewline
R Server & 'Sir Ronald Aylmer Fisher' @ 193.190.124.24 \tabularnewline
\hline
\end{tabular}
%Source: https://freestatistics.org/blog/index.php?pk=33506&T=0

[TABLE]
[ROW][C]Summary of computational transaction[/C][/ROW]
[ROW][C]Raw Input[/C][C]view raw input (R code) [/C][/ROW]
[ROW][C]Raw Output[/C][C]view raw output of R engine [/C][/ROW]
[ROW][C]Computing time[/C][C]3 seconds[/C][/ROW]
[ROW][C]R Server[/C][C]'Sir Ronald Aylmer Fisher' @ 193.190.124.24[/C][/ROW]
[/TABLE]
Source: https://freestatistics.org/blog/index.php?pk=33506&T=0

Globally Unique Identifier (entire table): ba.freestatistics.org/blog/index.php?pk=33506&T=0

As an alternative you can also use a QR Code:  

The GUIDs for individual cells are displayed in the table below:

Summary of computational transaction
Raw Inputview raw input (R code)
Raw Outputview raw output of R engine
Computing time3 seconds
R Server'Sir Ronald Aylmer Fisher' @ 193.190.124.24







Univariate ARIMA Extrapolation Forecast
timeY[t]F[t]95% LB95% UBp-value(H0: Y[t] = F[t])P(F[t]>Y[t-1])P(F[t]>Y[t-s])P(F[t]>Y[81])
6982.4-------
7085.4-------
7178.2-------
7270.2-------
7370.2-------
7469.3-------
7577.5-------
7666.1-------
7769-------
7879.2-------
7956.2-------
8063.3-------
8177.8-------
829285.256774.945996.9860.12990.89360.49040.8936
8378.180.012370.14191.2730.36960.01850.62380.6499
8465.171.531762.159382.31730.12120.11630.59560.1273
8571.169.167559.101680.94780.37390.75070.43180.0755
8670.970.649560.037283.13760.48430.47180.58390.1309
877279.480466.994894.29280.16110.87190.60340.588
8881.970.263758.746884.03840.04890.40240.72320.1418
8970.671.570659.501386.0880.44790.08160.63570.2002
9072.580.55866.559597.50050.17560.87530.56240.6252
9165.153.925144.304965.63420.03079e-040.35170
9254.959.486348.635572.75790.24910.20350.28660.0034
938081.561966.3657100.23770.43490.99740.65350.6535

\begin{tabular}{lllllllll}
\hline
Univariate ARIMA Extrapolation Forecast \tabularnewline
time & Y[t] & F[t] & 95% LB & 95% UB & p-value(H0: Y[t] = F[t]) & P(F[t]>Y[t-1]) & P(F[t]>Y[t-s]) & P(F[t]>Y[81]) \tabularnewline
69 & 82.4 & - & - & - & - & - & - & - \tabularnewline
70 & 85.4 & - & - & - & - & - & - & - \tabularnewline
71 & 78.2 & - & - & - & - & - & - & - \tabularnewline
72 & 70.2 & - & - & - & - & - & - & - \tabularnewline
73 & 70.2 & - & - & - & - & - & - & - \tabularnewline
74 & 69.3 & - & - & - & - & - & - & - \tabularnewline
75 & 77.5 & - & - & - & - & - & - & - \tabularnewline
76 & 66.1 & - & - & - & - & - & - & - \tabularnewline
77 & 69 & - & - & - & - & - & - & - \tabularnewline
78 & 79.2 & - & - & - & - & - & - & - \tabularnewline
79 & 56.2 & - & - & - & - & - & - & - \tabularnewline
80 & 63.3 & - & - & - & - & - & - & - \tabularnewline
81 & 77.8 & - & - & - & - & - & - & - \tabularnewline
82 & 92 & 85.2567 & 74.9459 & 96.986 & 0.1299 & 0.8936 & 0.4904 & 0.8936 \tabularnewline
83 & 78.1 & 80.0123 & 70.141 & 91.273 & 0.3696 & 0.0185 & 0.6238 & 0.6499 \tabularnewline
84 & 65.1 & 71.5317 & 62.1593 & 82.3173 & 0.1212 & 0.1163 & 0.5956 & 0.1273 \tabularnewline
85 & 71.1 & 69.1675 & 59.1016 & 80.9478 & 0.3739 & 0.7507 & 0.4318 & 0.0755 \tabularnewline
86 & 70.9 & 70.6495 & 60.0372 & 83.1376 & 0.4843 & 0.4718 & 0.5839 & 0.1309 \tabularnewline
87 & 72 & 79.4804 & 66.9948 & 94.2928 & 0.1611 & 0.8719 & 0.6034 & 0.588 \tabularnewline
88 & 81.9 & 70.2637 & 58.7468 & 84.0384 & 0.0489 & 0.4024 & 0.7232 & 0.1418 \tabularnewline
89 & 70.6 & 71.5706 & 59.5013 & 86.088 & 0.4479 & 0.0816 & 0.6357 & 0.2002 \tabularnewline
90 & 72.5 & 80.558 & 66.5595 & 97.5005 & 0.1756 & 0.8753 & 0.5624 & 0.6252 \tabularnewline
91 & 65.1 & 53.9251 & 44.3049 & 65.6342 & 0.0307 & 9e-04 & 0.3517 & 0 \tabularnewline
92 & 54.9 & 59.4863 & 48.6355 & 72.7579 & 0.2491 & 0.2035 & 0.2866 & 0.0034 \tabularnewline
93 & 80 & 81.5619 & 66.3657 & 100.2377 & 0.4349 & 0.9974 & 0.6535 & 0.6535 \tabularnewline
\hline
\end{tabular}
%Source: https://freestatistics.org/blog/index.php?pk=33506&T=1

[TABLE]
[ROW][C]Univariate ARIMA Extrapolation Forecast[/C][/ROW]
[ROW][C]time[/C][C]Y[t][/C][C]F[t][/C][C]95% LB[/C][C]95% UB[/C][C]p-value(H0: Y[t] = F[t])[/C][C]P(F[t]>Y[t-1])[/C][C]P(F[t]>Y[t-s])[/C][C]P(F[t]>Y[81])[/C][/ROW]
[ROW][C]69[/C][C]82.4[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][/ROW]
[ROW][C]70[/C][C]85.4[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][/ROW]
[ROW][C]71[/C][C]78.2[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][/ROW]
[ROW][C]72[/C][C]70.2[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][/ROW]
[ROW][C]73[/C][C]70.2[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][/ROW]
[ROW][C]74[/C][C]69.3[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][/ROW]
[ROW][C]75[/C][C]77.5[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][/ROW]
[ROW][C]76[/C][C]66.1[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][/ROW]
[ROW][C]77[/C][C]69[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][/ROW]
[ROW][C]78[/C][C]79.2[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][/ROW]
[ROW][C]79[/C][C]56.2[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][/ROW]
[ROW][C]80[/C][C]63.3[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][/ROW]
[ROW][C]81[/C][C]77.8[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][/ROW]
[ROW][C]82[/C][C]92[/C][C]85.2567[/C][C]74.9459[/C][C]96.986[/C][C]0.1299[/C][C]0.8936[/C][C]0.4904[/C][C]0.8936[/C][/ROW]
[ROW][C]83[/C][C]78.1[/C][C]80.0123[/C][C]70.141[/C][C]91.273[/C][C]0.3696[/C][C]0.0185[/C][C]0.6238[/C][C]0.6499[/C][/ROW]
[ROW][C]84[/C][C]65.1[/C][C]71.5317[/C][C]62.1593[/C][C]82.3173[/C][C]0.1212[/C][C]0.1163[/C][C]0.5956[/C][C]0.1273[/C][/ROW]
[ROW][C]85[/C][C]71.1[/C][C]69.1675[/C][C]59.1016[/C][C]80.9478[/C][C]0.3739[/C][C]0.7507[/C][C]0.4318[/C][C]0.0755[/C][/ROW]
[ROW][C]86[/C][C]70.9[/C][C]70.6495[/C][C]60.0372[/C][C]83.1376[/C][C]0.4843[/C][C]0.4718[/C][C]0.5839[/C][C]0.1309[/C][/ROW]
[ROW][C]87[/C][C]72[/C][C]79.4804[/C][C]66.9948[/C][C]94.2928[/C][C]0.1611[/C][C]0.8719[/C][C]0.6034[/C][C]0.588[/C][/ROW]
[ROW][C]88[/C][C]81.9[/C][C]70.2637[/C][C]58.7468[/C][C]84.0384[/C][C]0.0489[/C][C]0.4024[/C][C]0.7232[/C][C]0.1418[/C][/ROW]
[ROW][C]89[/C][C]70.6[/C][C]71.5706[/C][C]59.5013[/C][C]86.088[/C][C]0.4479[/C][C]0.0816[/C][C]0.6357[/C][C]0.2002[/C][/ROW]
[ROW][C]90[/C][C]72.5[/C][C]80.558[/C][C]66.5595[/C][C]97.5005[/C][C]0.1756[/C][C]0.8753[/C][C]0.5624[/C][C]0.6252[/C][/ROW]
[ROW][C]91[/C][C]65.1[/C][C]53.9251[/C][C]44.3049[/C][C]65.6342[/C][C]0.0307[/C][C]9e-04[/C][C]0.3517[/C][C]0[/C][/ROW]
[ROW][C]92[/C][C]54.9[/C][C]59.4863[/C][C]48.6355[/C][C]72.7579[/C][C]0.2491[/C][C]0.2035[/C][C]0.2866[/C][C]0.0034[/C][/ROW]
[ROW][C]93[/C][C]80[/C][C]81.5619[/C][C]66.3657[/C][C]100.2377[/C][C]0.4349[/C][C]0.9974[/C][C]0.6535[/C][C]0.6535[/C][/ROW]
[/TABLE]
Source: https://freestatistics.org/blog/index.php?pk=33506&T=1

Globally Unique Identifier (entire table): ba.freestatistics.org/blog/index.php?pk=33506&T=1

As an alternative you can also use a QR Code:  

The GUIDs for individual cells are displayed in the table below:

Univariate ARIMA Extrapolation Forecast
timeY[t]F[t]95% LB95% UBp-value(H0: Y[t] = F[t])P(F[t]>Y[t-1])P(F[t]>Y[t-s])P(F[t]>Y[81])
6982.4-------
7085.4-------
7178.2-------
7270.2-------
7370.2-------
7469.3-------
7577.5-------
7666.1-------
7769-------
7879.2-------
7956.2-------
8063.3-------
8177.8-------
829285.256774.945996.9860.12990.89360.49040.8936
8378.180.012370.14191.2730.36960.01850.62380.6499
8465.171.531762.159382.31730.12120.11630.59560.1273
8571.169.167559.101680.94780.37390.75070.43180.0755
8670.970.649560.037283.13760.48430.47180.58390.1309
877279.480466.994894.29280.16110.87190.60340.588
8881.970.263758.746884.03840.04890.40240.72320.1418
8970.671.570659.501386.0880.44790.08160.63570.2002
9072.580.55866.559597.50050.17560.87530.56240.6252
9165.153.925144.304965.63420.03079e-040.35170
9254.959.486348.635572.75790.24910.20350.28660.0034
938081.561966.3657100.23770.43490.99740.65350.6535







Univariate ARIMA Extrapolation Forecast Performance
time% S.E.PEMAPESq.EMSERMSE
820.07020.07910.006645.47193.78931.9466
830.0718-0.02390.0023.6570.30480.552
840.0769-0.08990.007541.3673.44731.8567
850.08690.02790.00233.73440.31120.5579
860.09020.00353e-040.06270.00520.0723
870.0951-0.09410.007855.95614.6632.1594
880.10.16560.0138135.403611.28363.3591
890.1035-0.01360.00110.9420.07850.2802
900.1073-0.10.008364.93085.41092.3261
910.11080.20720.0173124.878410.40653.2259
920.1138-0.07710.006421.03371.75281.3239
930.1168-0.01910.00162.43950.20330.4509

\begin{tabular}{lllllllll}
\hline
Univariate ARIMA Extrapolation Forecast Performance \tabularnewline
time & % S.E. & PE & MAPE & Sq.E & MSE & RMSE \tabularnewline
82 & 0.0702 & 0.0791 & 0.0066 & 45.4719 & 3.7893 & 1.9466 \tabularnewline
83 & 0.0718 & -0.0239 & 0.002 & 3.657 & 0.3048 & 0.552 \tabularnewline
84 & 0.0769 & -0.0899 & 0.0075 & 41.367 & 3.4473 & 1.8567 \tabularnewline
85 & 0.0869 & 0.0279 & 0.0023 & 3.7344 & 0.3112 & 0.5579 \tabularnewline
86 & 0.0902 & 0.0035 & 3e-04 & 0.0627 & 0.0052 & 0.0723 \tabularnewline
87 & 0.0951 & -0.0941 & 0.0078 & 55.9561 & 4.663 & 2.1594 \tabularnewline
88 & 0.1 & 0.1656 & 0.0138 & 135.4036 & 11.2836 & 3.3591 \tabularnewline
89 & 0.1035 & -0.0136 & 0.0011 & 0.942 & 0.0785 & 0.2802 \tabularnewline
90 & 0.1073 & -0.1 & 0.0083 & 64.9308 & 5.4109 & 2.3261 \tabularnewline
91 & 0.1108 & 0.2072 & 0.0173 & 124.8784 & 10.4065 & 3.2259 \tabularnewline
92 & 0.1138 & -0.0771 & 0.0064 & 21.0337 & 1.7528 & 1.3239 \tabularnewline
93 & 0.1168 & -0.0191 & 0.0016 & 2.4395 & 0.2033 & 0.4509 \tabularnewline
\hline
\end{tabular}
%Source: https://freestatistics.org/blog/index.php?pk=33506&T=2

[TABLE]
[ROW][C]Univariate ARIMA Extrapolation Forecast Performance[/C][/ROW]
[ROW][C]time[/C][C]% S.E.[/C][C]PE[/C][C]MAPE[/C][C]Sq.E[/C][C]MSE[/C][C]RMSE[/C][/ROW]
[ROW][C]82[/C][C]0.0702[/C][C]0.0791[/C][C]0.0066[/C][C]45.4719[/C][C]3.7893[/C][C]1.9466[/C][/ROW]
[ROW][C]83[/C][C]0.0718[/C][C]-0.0239[/C][C]0.002[/C][C]3.657[/C][C]0.3048[/C][C]0.552[/C][/ROW]
[ROW][C]84[/C][C]0.0769[/C][C]-0.0899[/C][C]0.0075[/C][C]41.367[/C][C]3.4473[/C][C]1.8567[/C][/ROW]
[ROW][C]85[/C][C]0.0869[/C][C]0.0279[/C][C]0.0023[/C][C]3.7344[/C][C]0.3112[/C][C]0.5579[/C][/ROW]
[ROW][C]86[/C][C]0.0902[/C][C]0.0035[/C][C]3e-04[/C][C]0.0627[/C][C]0.0052[/C][C]0.0723[/C][/ROW]
[ROW][C]87[/C][C]0.0951[/C][C]-0.0941[/C][C]0.0078[/C][C]55.9561[/C][C]4.663[/C][C]2.1594[/C][/ROW]
[ROW][C]88[/C][C]0.1[/C][C]0.1656[/C][C]0.0138[/C][C]135.4036[/C][C]11.2836[/C][C]3.3591[/C][/ROW]
[ROW][C]89[/C][C]0.1035[/C][C]-0.0136[/C][C]0.0011[/C][C]0.942[/C][C]0.0785[/C][C]0.2802[/C][/ROW]
[ROW][C]90[/C][C]0.1073[/C][C]-0.1[/C][C]0.0083[/C][C]64.9308[/C][C]5.4109[/C][C]2.3261[/C][/ROW]
[ROW][C]91[/C][C]0.1108[/C][C]0.2072[/C][C]0.0173[/C][C]124.8784[/C][C]10.4065[/C][C]3.2259[/C][/ROW]
[ROW][C]92[/C][C]0.1138[/C][C]-0.0771[/C][C]0.0064[/C][C]21.0337[/C][C]1.7528[/C][C]1.3239[/C][/ROW]
[ROW][C]93[/C][C]0.1168[/C][C]-0.0191[/C][C]0.0016[/C][C]2.4395[/C][C]0.2033[/C][C]0.4509[/C][/ROW]
[/TABLE]
Source: https://freestatistics.org/blog/index.php?pk=33506&T=2

Globally Unique Identifier (entire table): ba.freestatistics.org/blog/index.php?pk=33506&T=2

As an alternative you can also use a QR Code:  

The GUIDs for individual cells are displayed in the table below:

Univariate ARIMA Extrapolation Forecast Performance
time% S.E.PEMAPESq.EMSERMSE
820.07020.07910.006645.47193.78931.9466
830.0718-0.02390.0023.6570.30480.552
840.0769-0.08990.007541.3673.44731.8567
850.08690.02790.00233.73440.31120.5579
860.09020.00353e-040.06270.00520.0723
870.0951-0.09410.007855.95614.6632.1594
880.10.16560.0138135.403611.28363.3591
890.1035-0.01360.00110.9420.07850.2802
900.1073-0.10.008364.93085.41092.3261
910.11080.20720.0173124.878410.40653.2259
920.1138-0.07710.006421.03371.75281.3239
930.1168-0.01910.00162.43950.20330.4509



Parameters (Session):
par1 = 12 ; par2 = 0.0 ; par3 = 0 ; par4 = 1 ; par5 = 12 ; par6 = 3 ; par7 = 0 ; par8 = 0 ; par9 = 1 ; par10 = FALSE ;
Parameters (R input):
par1 = 12 ; par2 = 0.0 ; par3 = 0 ; par4 = 1 ; par5 = 12 ; par6 = 3 ; par7 = 0 ; par8 = 0 ; par9 = 1 ; par10 = FALSE ;
R code (references can be found in the software module):
par1 <- as.numeric(par1) #cut off periods
par2 <- as.numeric(par2) #lambda
par3 <- as.numeric(par3) #degree of non-seasonal differencing
par4 <- as.numeric(par4) #degree of seasonal differencing
par5 <- as.numeric(par5) #seasonal period
par6 <- as.numeric(par6) #p
par7 <- as.numeric(par7) #q
par8 <- as.numeric(par8) #P
par9 <- as.numeric(par9) #Q
if (par10 == 'TRUE') par10 <- TRUE
if (par10 == 'FALSE') par10 <- FALSE
if (par2 == 0) x <- log(x)
if (par2 != 0) x <- x^par2
lx <- length(x)
first <- lx - 2*par1
nx <- lx - par1
nx1 <- nx + 1
fx <- lx - nx
if (fx < 1) {
fx <- par5
nx1 <- lx + fx - 1
first <- lx - 2*fx
}
first <- 1
if (fx < 3) fx <- round(lx/10,0)
(arima.out <- arima(x[1:nx], order=c(par6,par3,par7), seasonal=list(order=c(par8,par4,par9), period=par5), include.mean=par10, method='ML'))
(forecast <- predict(arima.out,fx))
(lb <- forecast$pred - 1.96 * forecast$se)
(ub <- forecast$pred + 1.96 * forecast$se)
if (par2 == 0) {
x <- exp(x)
forecast$pred <- exp(forecast$pred)
lb <- exp(lb)
ub <- exp(ub)
}
if (par2 != 0) {
x <- x^(1/par2)
forecast$pred <- forecast$pred^(1/par2)
lb <- lb^(1/par2)
ub <- ub^(1/par2)
}
if (par2 < 0) {
olb <- lb
lb <- ub
ub <- olb
}
(actandfor <- c(x[1:nx], forecast$pred))
(perc.se <- (ub-forecast$pred)/1.96/forecast$pred)
bitmap(file='test1.png')
opar <- par(mar=c(4,4,2,2),las=1)
ylim <- c( min(x[first:nx],lb), max(x[first:nx],ub))
plot(x,ylim=ylim,type='n',xlim=c(first,lx))
usr <- par('usr')
rect(usr[1],usr[3],nx+1,usr[4],border=NA,col='lemonchiffon')
rect(nx1,usr[3],usr[2],usr[4],border=NA,col='lavender')
abline(h= (-3:3)*2 , col ='gray', lty =3)
polygon( c(nx1:lx,lx:nx1), c(lb,rev(ub)), col = 'orange', lty=2,border=NA)
lines(nx1:lx, lb , lty=2)
lines(nx1:lx, ub , lty=2)
lines(x, lwd=2)
lines(nx1:lx, forecast$pred , lwd=2 , col ='white')
box()
par(opar)
dev.off()
prob.dec <- array(NA, dim=fx)
prob.sdec <- array(NA, dim=fx)
prob.ldec <- array(NA, dim=fx)
prob.pval <- array(NA, dim=fx)
perf.pe <- array(0, dim=fx)
perf.mape <- array(0, dim=fx)
perf.se <- array(0, dim=fx)
perf.mse <- array(0, dim=fx)
perf.rmse <- array(0, dim=fx)
for (i in 1:fx) {
locSD <- (ub[i] - forecast$pred[i]) / 1.96
perf.pe[i] = (x[nx+i] - forecast$pred[i]) / forecast$pred[i]
perf.mape[i] = perf.mape[i] + abs(perf.pe[i])
perf.se[i] = (x[nx+i] - forecast$pred[i])^2
perf.mse[i] = perf.mse[i] + perf.se[i]
prob.dec[i] = pnorm((x[nx+i-1] - forecast$pred[i]) / locSD)
prob.sdec[i] = pnorm((x[nx+i-par5] - forecast$pred[i]) / locSD)
prob.ldec[i] = pnorm((x[nx] - forecast$pred[i]) / locSD)
prob.pval[i] = pnorm(abs(x[nx+i] - forecast$pred[i]) / locSD)
}
perf.mape = perf.mape / fx
perf.mse = perf.mse / fx
perf.rmse = sqrt(perf.mse)
bitmap(file='test2.png')
plot(forecast$pred, pch=19, type='b',main='ARIMA Extrapolation Forecast', ylab='Forecast and 95% CI', xlab='time',ylim=c(min(lb),max(ub)))
dum <- forecast$pred
dum[1:12] <- x[(nx+1):lx]
lines(dum, lty=1)
lines(ub,lty=3)
lines(lb,lty=3)
dev.off()
load(file='createtable')
a<-table.start()
a<-table.row.start(a)
a<-table.element(a,'Univariate ARIMA Extrapolation Forecast',9,TRUE)
a<-table.row.end(a)
a<-table.row.start(a)
a<-table.element(a,'time',1,header=TRUE)
a<-table.element(a,'Y[t]',1,header=TRUE)
a<-table.element(a,'F[t]',1,header=TRUE)
a<-table.element(a,'95% LB',1,header=TRUE)
a<-table.element(a,'95% UB',1,header=TRUE)
a<-table.element(a,'p-value
(H0: Y[t] = F[t])',1,header=TRUE)
a<-table.element(a,'P(F[t]>Y[t-1])',1,header=TRUE)
a<-table.element(a,'P(F[t]>Y[t-s])',1,header=TRUE)
mylab <- paste('P(F[t]>Y[',nx,sep='')
mylab <- paste(mylab,'])',sep='')
a<-table.element(a,mylab,1,header=TRUE)
a<-table.row.end(a)
for (i in (nx-par5):nx) {
a<-table.row.start(a)
a<-table.element(a,i,header=TRUE)
a<-table.element(a,x[i])
a<-table.element(a,'-')
a<-table.element(a,'-')
a<-table.element(a,'-')
a<-table.element(a,'-')
a<-table.element(a,'-')
a<-table.element(a,'-')
a<-table.element(a,'-')
a<-table.row.end(a)
}
for (i in 1:fx) {
a<-table.row.start(a)
a<-table.element(a,nx+i,header=TRUE)
a<-table.element(a,round(x[nx+i],4))
a<-table.element(a,round(forecast$pred[i],4))
a<-table.element(a,round(lb[i],4))
a<-table.element(a,round(ub[i],4))
a<-table.element(a,round((1-prob.pval[i]),4))
a<-table.element(a,round((1-prob.dec[i]),4))
a<-table.element(a,round((1-prob.sdec[i]),4))
a<-table.element(a,round((1-prob.ldec[i]),4))
a<-table.row.end(a)
}
a<-table.end(a)
table.save(a,file='mytable.tab')
a<-table.start()
a<-table.row.start(a)
a<-table.element(a,'Univariate ARIMA Extrapolation Forecast Performance',7,TRUE)
a<-table.row.end(a)
a<-table.row.start(a)
a<-table.element(a,'time',1,header=TRUE)
a<-table.element(a,'% S.E.',1,header=TRUE)
a<-table.element(a,'PE',1,header=TRUE)
a<-table.element(a,'MAPE',1,header=TRUE)
a<-table.element(a,'Sq.E',1,header=TRUE)
a<-table.element(a,'MSE',1,header=TRUE)
a<-table.element(a,'RMSE',1,header=TRUE)
a<-table.row.end(a)
for (i in 1:fx) {
a<-table.row.start(a)
a<-table.element(a,nx+i,header=TRUE)
a<-table.element(a,round(perc.se[i],4))
a<-table.element(a,round(perf.pe[i],4))
a<-table.element(a,round(perf.mape[i],4))
a<-table.element(a,round(perf.se[i],4))
a<-table.element(a,round(perf.mse[i],4))
a<-table.element(a,round(perf.rmse[i],4))
a<-table.row.end(a)
}
a<-table.end(a)
table.save(a,file='mytable1.tab')