Free Statistics

of Irreproducible Research!

Author's title

Author*Unverified author*
R Software Modulerwasp_arimaforecasting.wasp
Title produced by softwareARIMA Forecasting
Date of computationWed, 17 Dec 2008 00:40:17 -0700
Cite this page as followsStatistical Computations at FreeStatistics.org, Office for Research Development and Education, URL https://freestatistics.org/blog/index.php?v=date/2008/Dec/17/t1229499642h2b1i9k3tmvrvpx.htm/, Retrieved Sun, 19 May 2024 06:00:28 +0000
Statistical Computations at FreeStatistics.org, Office for Research Development and Education, URL https://freestatistics.org/blog/index.php?pk=34264, Retrieved Sun, 19 May 2024 06:00:28 +0000
QR Codes:

Original text written by user:
IsPrivate?No (this computation is public)
User-defined keywords
Estimated Impact215
Family? (F = Feedback message, R = changed R code, M = changed R Module, P = changed Parameters, D = changed Data)
-     [Univariate Data Series] [data set] [2008-12-01 19:54:57] [b98453cac15ba1066b407e146608df68]
F RMP   [Standard Deviation-Mean Plot] [] [2008-12-09 19:26:09] [74be16979710d4c4e7c6647856088456]
F RMP       [ARIMA Forecasting] [] [2008-12-17 07:40:17] [d41d8cd98f00b204e9800998ecf8427e] [Current]
Feedback Forum
2008-12-20 19:40:01 [Charis Berrevoets] [reply
Het is jammer dat je de analyse niet met je eigen tijdreeks hebt kunnen doen. Ik vind het wel heel goed dat je dan unemployment data hebt gebruikt en niet gewoon het voorbeeld uit het college.
Step 1: of het relevant is dat de curven niet naar + of - oneindig gaan weet ik niet. Je hebt hier op het eerste zicht in elk geval wel een goed model want beide curven verlopen bijna helemaal gelijk wat erop wijst dat de voorspelling dicht bij de werkelijke waarden ligt. Je had in deze stap de verschillende parameters uit de tabel nog kunnen bespreken.
bijvoorbeeld dat y(t) de werkelijke waarden voorstelt en f(t) de voorspelde. Je kan aan de tabel al zien dat je waarschijnlijk een goed model hebt want de verschillen tussen F(t) en Y(t) zijn niet groot en bovendien niet significant. Dit zie je aan de p-waarde. Deze ligt overal redelijk hoog. In periode 361 heb je bijvoorbeeld bijna 40% kans dat je je vergist bij het verwerpen van de nulhypothese. Bijgevolg is het verschil niet significant, wat heel goed is.
Ook het betrouwbaarheidsinteval wordt hier weergegeven door de 95% UB (bovengrens) en LB (ondergrens). Deze geven weer tussen welke grenzen de voorspelde waarde met een waarschijnlijkheid van 95% zal liggen.
Stap 2: je had hier trends ofzo moeten bespreken maar ik weet zelf niet goed hoe dat moet. Aan de eerste grafiek uit stap 1 te zien vermoed ik dat er op lange termijn een stijgende trend is. Hoe je seizoenaliteit of een cyclus moet ontdekken weet ik niet.
Stap 3: Hier had je veel uitgebreider kunnen zijn. De %S.E. is een theoretische schatting van de fout die je zal maken bij een voorspelling, gebaseerd op dit model. De PE is de procentuele fout en geeft de werkelijke fout weer die je kan vaststellen door de werkelijke waarden met de voorspelde te vergelijken. Na 12 maanden zien we inderdaad dat er 25% S.E. is. Dit betekent dat er 25% kans is dat de voorspelling fout is. Dit lijkt me toch al vrij veel. Ik denk niet dat het een slecht model is, maar het is zeker nog niet optimaal. 1 kans op 4 om je te vergissen is toch al redelijk hoog. Je kan ook de absolute waarden van de PE nog vergelijken met de %S.E. We zien dat de PE steeds kleiner is. Dit is heel goed, dat betekent immers dat de gemeten fout telkens kleiner is dan dat we voorspeld hadden. Dit compenseert mss de hogere waarde voor de %S.E. en verklaart misschien waarom ook de grafieken en de p-waarde een goed model aantonen.
Stap 4: Hier ben je wel de mist in gegaan. Het is wel waar dat er geen correlatie mag zijn in de residu's maar ik denk niet dat dat er hier toe doet. Tenslotte werk je met een stationnaire reeks dus ik denk dat deze zaken reeds in orde moeten zijn en dat je anders sowieso geen voorspelling kan doen.
Wat je had moeten bespreken zijn de verschillende waarschijnlijkheden (P).
P(F[t]>Y[t-1]): is de kans dat de voorspelde waarde groter zal zijn dan de waarde van de vorige periode. Over het algemeen zien we in de tabel dat deze eerder groot is, er wordt dus een stijgende trend voorspeld.
P(F[t]>Y[t-s]): is de kans dat de voorspelde waarde groter is dan de waarde in dezelfde maand van het jaar voorheen (s=12 maanden). Ook hier wordt een stijgende trend verwacht, hetzij niet zo sterk als in de vorige kolom.
P(F[t]>Y[360]): is de kans dat er een stijging is ten opzichte van de laatst gekende waarde, hier periode 360. Ook hier wordt ten slotte een stijging verwacht.
Stap 5: Je concludeert correct dat dit een goed model is. In de grafiek kan je zien dat de curve van de werkelijke waarde en die van de voorspelde bijna gelijklopen, ze verschillen dus niet sterk van elkaar zoals ook reeds te zien was adhv de hogere p-waarden.
2008-12-20 20:00:10 [Charis Berrevoets] [reply
Sorry, ik heb bij stap 4 onterecht gezegd dat de residu's hier niet toe doen. De onderliggende assumptie is inderdaad dat deze normaal verdeeld moeten zijn.
2008-12-22 14:27:46 [Thomas Plasschaert] [reply
beperkte uitleg bij het oplossen van de verschillende stappen

In de eerste tabel bevinden zich 9 kolommen met elk hun waarden.
De eerste kolom geeft de tijdsindex, je kan hier zien dat de eerste 360 waarnemingen bestaan en dat de laatste 12 waarnemingen weggelaten zijn door de testing period =12.
De tweede kolom geeft de waarde uit de dataset (Y(t))
De derde kolom geeft de voorspelde waarde (F(t))
De vierde en vijfde kolom geven de 95% upper en lower bound, samen vormen deze het 95% betrouwbaarheidsinterval.
De zesde kolom geeft de p-waarde, met als 0-hypothese dat de waarde uit de dataset en de voorspelde waarde niet significant van elkaar verschillen.
De zevende kolom geeft de waarschijnlijkheid dat er een stijging is ten opzichte van de laatste waarde.
De achtste kolom geeft de waarschijnlijkheid dat er een stijging is ten opzichte van vorig jaar.
De negende kolom geeft de waarschijnlijkheid dat er een stijging is ten opzichte van de laatst gekende waarde.

De 2de tabel geeft verschillende waarden in verband met de dataset, zo zien we in de tweede kolom de procentuele standaardfout en in de derde kolom de procentuele werkelijke fout. Bij de procentuele standaardfout kunnen we opmerken dat hoe verder we in de in toekomst kijken, hoe groter deze fout zal zijn, bij de procentuele werkelijke fout kunnen we opmerken dat deze meestal kleiner is dat de standaardfout.

Bij de eerste grafiek worden de laatste 12 maanden grijs gekleurd, omdat het hier gaat over de periode waarvoor we voorspellingen gaan doen, deze periode wordt in de tweede grafiek uitvergroot. In deze grafiek stelt de lijn met de bolletjes de voorspelde waarden voor, de volle lijn de waarden uit de dataset en de stippellijntjes het 95% betrouwbaarheidsinterval. We zien dat er zich hier nergens een noemenswaardige afwijking voordoet waarbij een punt zich buiten het betrouwbaarheidsinterval bevindt.In de tweede grafiek kunnen we zien of er een trend of/en seizoenaliteit is.

2008-12-23 14:28:55 [Anna Hayan] [reply
tap 1:
De berekeningen zijn juist maar de intrepretie ontbreekt:
Wat de grafieken betreft:De werkelijke waarden (volle homogene lijn) vallen immers mooi binnen het betrouwbaarheidsinterval. Enkel helemaal op het einde is er een significante afwijking te zien. Maar deze is aannemelijk gezien die zich pas in de zeer verre toekomst voordoet.
Dezelfde gegevens vinden we terug in de tabel waar de p-waarde staat. Indien de p-waarde kleiner is dan 5% dan vallen de waarden buiten het betrouwbaarheidsinterval.
De voorspelling is inderdaad goed we kunnen concluderen dat het model goed is
Stap 2:
de voorspellingen benaderen vrij goed de werkelijke waarden. De langetermijn trend is er ook aanwezig.

Stap 3: je hebt de juiste kolom met de standaardfout aangeduid. We zien inderdaad dat de voorspelbaarheid verslechterd naarmate we verder in de toekomst belanden. Dit is ook logisch dat het moeilijker te voorspellen wordt naarmate we verder in de toekomst zitten.

De student heeft ook stap 4 vrij goed uitgewerkt. Maar zie de extra uitleg:

P(F[t]>Y[t-1]): is de kans dat de voorspelde waarde groter zal zijn dan de waarde van de vorige periode. Er wordt in de tabel een stijgende trend voorspeld.

P(F[t]>Y[t-s]): is de kans dat de voorspelde waarde groter is dan de waarde in dezelfde maand van het jaar voorheen (s is daarbij gelijk aan 12 maanden). Ook hier wordt een stijgende trend verwacht.

P(F[t]>Y[360]): is de kans dat er een verwachte stijging is ten opzichte van de laatst gekende waarde (periode 360).
stap 5: correcte conclusie getrokken, het model is inderdaad goed
2008-12-23 19:41:24 [Peter Van Doninck] [reply
Stap 1:vrij kort geantwoord. Je had nog kunnen zeggen dat de eerste grafiek een stijgende trend vertoond, die evenwel aan het dalen is in het laatste deeltje. Dit laatste deeltje is niet zo duidelijk aanwezig, maar wel in de 2de grafiek.
Hier klopt het wel dat er min of meer een 'horizontale' trend aanwezig is. Ook wijkt de forecast niet hard af van de voorspelling.

Stap 2:vrij kort besproken. De student kan de tabel bij vraag 1 verder uitdiepen. Deze bevat de werkelijke data (y(t)) en de forecast (f(t)). De 6de kolom is de p-waarde. Wanneer deze voldoende groot is, dan zijn de verschillen niet significant. Dit is in alle gevallen waar te nemen bij deze analyse. In de voorlaatste kolom kunnen we ook afleiden dat de kans dat er een stijging zich zal voordoen, vergroot naar het einde toe.
De forecast echter duidt niet op een stijgende trend.

Stap3: Correcte interpretatie. Het klopt dat de procentuele standaardfout hier klein is. Daardoor is het model goed om te voorspellen. De absolute fouten zijn zowel positief als negatief, toch vrij klein.

Stap4: Voor deze analyse had de student gebruik moeten maken van de lower en upper bound. Deze duidt het 95% betrouwbaarheidsinterval aan. De voorspelde waarde dient hier tussen te liggen. Dit is in alle gevallen zo, waardoor het model vrij betrouwbaar is.

Stap5: correct uitgevoerd.

Post a new message
Dataseries X:
235.1
280.7
264.6
240.7
201.4
240.8
241.1
223.8
206.1
174.7
203.3
220.5
299.5
347.4
338.3
327.7
351.6
396.6
438.8
395.6
363.5
378.8
357
369
464.8
479.1
431.3
366.5
326.3
355.1
331.6
261.3
249
205.5
235.6
240.9
264.9
253.8
232.3
193.8
177
213.2
207.2
180.6
188.6
175.4
199
179.6
225.8
234
200.2
183.6
178.2
203.2
208.5
191.8
172.8
148
159.4
154.5
213.2
196.4
182.8
176.4
153.6
173.2
171
151.2
161.9
157.2
201.7
236.4
356.1
398.3
403.7
384.6
365.8
368.1
367.9
347
343.3
292.9
311.5
300.9
366.9
356.9
329.7
316.2
269
289.3
266.2
253.6
233.8
228.4
253.6
260.1
306.6
309.2
309.5
271
279.9
317.9
298.4
246.7
227.3
209.1
259.9
266
320.6
308.5
282.2
262.7
263.5
313.1
284.3
252.6
250.3
246.5
312.7
333.2
446.4
511.6
515.5
506.4
483.2
522.3
509.8
460.7
405.8
375
378.5
406.8
467.8
469.8
429.8
355.8
332.7
378
360.5
334.7
319.5
323.1
363.6
352.1
411.9
388.6
416.4
360.7
338
417.2
388.4
371.1
331.5
353.7
396.7
447
533.5
565.4
542.3
488.7
467.1
531.3
496.1
444
403.4
386.3
394.1
404.1
462.1
448.1
432.3
386.3
395.2
421.9
382.9
384.2
345.5
323.4
372.6
376
462.7
487
444.2
399.3
394.9
455.4
414
375.5
347
339.4
385.8
378.8
451.8
446.1
422.5
383.1
352.8
445.3
367.5
355.1
326.2
319.8
331.8
340.9
394.1
417.2
369.9
349.2
321.4
405.7
342.9
316.5
284.2
270.9
288.8
278.8
324.4
310.9
299
273
279.3
359.2
305
282.1
250.3
246.5
257.9
266.5
315.9
318.4
295.4
266.4
245.8
362.8
324.9
294.2
289.5
295.2
290.3
272
307.4
328.7
292.9
249.1
230.4
361.5
321.7
277.2
260.7
251
257.6
241.8
287.5
292.3
274.7
254.2
230
339
318.2
287
295.8
284
271
262.7
340.6
379.4
373.3
355.2
338.4
466.9
451
422
429.2
425.9
460.7
463.6
541.4
544.2
517.5
469.4
439.4
549
533
506.1
484
457
481.5
469.5
544.7
541.2
521.5
469.7
434.4
542.6
517.3
485.7
465.8
447
426.6
411.6
467.5
484.5
451.2
417.4
379.9
484.7
455
420.8
416.5
376.3
405.6
405.8
500.8
514
475.5
430.1
414.4
538
526
488.5
520.2
504.4
568.5
610.6
818
830.9
835.9
782
762.3
856.9
820.9
769.6
752.2
724.4
723.1
719.5
817.4
803.3
752.5
689
630.4
765.5
757.7
732.2
702.6
683.3
709.5
702.2
784.8
810.9
755.6
656.8
615.1
745.3
694.1
675.7
643.7
622.1
634.6
588
689.7
673.9
647.9
568.8
545.7
632.6
643.8
593.1
579.7
546
562.9
572.5




Summary of computational transaction
Raw Inputview raw input (R code)
Raw Outputview raw output of R engine
Computing time4 seconds
R Server'Herman Ole Andreas Wold' @ 193.190.124.10:1001

\begin{tabular}{lllllllll}
\hline
Summary of computational transaction \tabularnewline
Raw Input & view raw input (R code)  \tabularnewline
Raw Output & view raw output of R engine  \tabularnewline
Computing time & 4 seconds \tabularnewline
R Server & 'Herman Ole Andreas Wold' @ 193.190.124.10:1001 \tabularnewline
\hline
\end{tabular}
%Source: https://freestatistics.org/blog/index.php?pk=34264&T=0

[TABLE]
[ROW][C]Summary of computational transaction[/C][/ROW]
[ROW][C]Raw Input[/C][C]view raw input (R code) [/C][/ROW]
[ROW][C]Raw Output[/C][C]view raw output of R engine [/C][/ROW]
[ROW][C]Computing time[/C][C]4 seconds[/C][/ROW]
[ROW][C]R Server[/C][C]'Herman Ole Andreas Wold' @ 193.190.124.10:1001[/C][/ROW]
[/TABLE]
Source: https://freestatistics.org/blog/index.php?pk=34264&T=0

Globally Unique Identifier (entire table): ba.freestatistics.org/blog/index.php?pk=34264&T=0

As an alternative you can also use a QR Code:  

The GUIDs for individual cells are displayed in the table below:

Summary of computational transaction
Raw Inputview raw input (R code)
Raw Outputview raw output of R engine
Computing time4 seconds
R Server'Herman Ole Andreas Wold' @ 193.190.124.10:1001







Univariate ARIMA Extrapolation Forecast
timeY[t]F[t]95% LB95% UBp-value(H0: Y[t] = F[t])P(F[t]>Y[t-1])P(F[t]>Y[t-s])P(F[t]>Y[360])
348702.2-------
349784.8-------
350810.9-------
351755.6-------
352656.8-------
353615.1-------
354745.3-------
355694.1-------
356675.7-------
357643.7-------
358622.1-------
359634.6-------
360588-------
361689.7680.3933626.5038736.50580.37260.99941e-040.9994
362673.9678.9134598.7552764.10540.45410.4020.00120.9818
363647.9639.763535.7991752.93930.4440.27720.02240.815
364568.8574.9415456.0305707.61350.46390.14060.11330.4235
365545.7538.5441405.8807689.93550.46310.34760.16080.261
366632.6658.4138493.1503847.51790.39450.87860.18390.7672
367643.8628.0037451.4502833.62980.44020.48250.26430.6485
368593.1597.1427411.7656816.87330.48560.33860.24170.5325
369579.7580.9321386.0813815.45180.49590.45950.29990.4764
370546559.4979357.5999806.39560.45730.43630.30960.4105
371562.9578.3854362.242844.86920.45470.59410.33960.4718
372572.5566.2788342.9894845.25420.48260.50950.43940.4394

\begin{tabular}{lllllllll}
\hline
Univariate ARIMA Extrapolation Forecast \tabularnewline
time & Y[t] & F[t] & 95% LB & 95% UB & p-value(H0: Y[t] = F[t]) & P(F[t]>Y[t-1]) & P(F[t]>Y[t-s]) & P(F[t]>Y[360]) \tabularnewline
348 & 702.2 & - & - & - & - & - & - & - \tabularnewline
349 & 784.8 & - & - & - & - & - & - & - \tabularnewline
350 & 810.9 & - & - & - & - & - & - & - \tabularnewline
351 & 755.6 & - & - & - & - & - & - & - \tabularnewline
352 & 656.8 & - & - & - & - & - & - & - \tabularnewline
353 & 615.1 & - & - & - & - & - & - & - \tabularnewline
354 & 745.3 & - & - & - & - & - & - & - \tabularnewline
355 & 694.1 & - & - & - & - & - & - & - \tabularnewline
356 & 675.7 & - & - & - & - & - & - & - \tabularnewline
357 & 643.7 & - & - & - & - & - & - & - \tabularnewline
358 & 622.1 & - & - & - & - & - & - & - \tabularnewline
359 & 634.6 & - & - & - & - & - & - & - \tabularnewline
360 & 588 & - & - & - & - & - & - & - \tabularnewline
361 & 689.7 & 680.3933 & 626.5038 & 736.5058 & 0.3726 & 0.9994 & 1e-04 & 0.9994 \tabularnewline
362 & 673.9 & 678.9134 & 598.7552 & 764.1054 & 0.4541 & 0.402 & 0.0012 & 0.9818 \tabularnewline
363 & 647.9 & 639.763 & 535.7991 & 752.9393 & 0.444 & 0.2772 & 0.0224 & 0.815 \tabularnewline
364 & 568.8 & 574.9415 & 456.0305 & 707.6135 & 0.4639 & 0.1406 & 0.1133 & 0.4235 \tabularnewline
365 & 545.7 & 538.5441 & 405.8807 & 689.9355 & 0.4631 & 0.3476 & 0.1608 & 0.261 \tabularnewline
366 & 632.6 & 658.4138 & 493.1503 & 847.5179 & 0.3945 & 0.8786 & 0.1839 & 0.7672 \tabularnewline
367 & 643.8 & 628.0037 & 451.4502 & 833.6298 & 0.4402 & 0.4825 & 0.2643 & 0.6485 \tabularnewline
368 & 593.1 & 597.1427 & 411.7656 & 816.8733 & 0.4856 & 0.3386 & 0.2417 & 0.5325 \tabularnewline
369 & 579.7 & 580.9321 & 386.0813 & 815.4518 & 0.4959 & 0.4595 & 0.2999 & 0.4764 \tabularnewline
370 & 546 & 559.4979 & 357.5999 & 806.3956 & 0.4573 & 0.4363 & 0.3096 & 0.4105 \tabularnewline
371 & 562.9 & 578.3854 & 362.242 & 844.8692 & 0.4547 & 0.5941 & 0.3396 & 0.4718 \tabularnewline
372 & 572.5 & 566.2788 & 342.9894 & 845.2542 & 0.4826 & 0.5095 & 0.4394 & 0.4394 \tabularnewline
\hline
\end{tabular}
%Source: https://freestatistics.org/blog/index.php?pk=34264&T=1

[TABLE]
[ROW][C]Univariate ARIMA Extrapolation Forecast[/C][/ROW]
[ROW][C]time[/C][C]Y[t][/C][C]F[t][/C][C]95% LB[/C][C]95% UB[/C][C]p-value(H0: Y[t] = F[t])[/C][C]P(F[t]>Y[t-1])[/C][C]P(F[t]>Y[t-s])[/C][C]P(F[t]>Y[360])[/C][/ROW]
[ROW][C]348[/C][C]702.2[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][/ROW]
[ROW][C]349[/C][C]784.8[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][/ROW]
[ROW][C]350[/C][C]810.9[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][/ROW]
[ROW][C]351[/C][C]755.6[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][/ROW]
[ROW][C]352[/C][C]656.8[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][/ROW]
[ROW][C]353[/C][C]615.1[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][/ROW]
[ROW][C]354[/C][C]745.3[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][/ROW]
[ROW][C]355[/C][C]694.1[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][/ROW]
[ROW][C]356[/C][C]675.7[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][/ROW]
[ROW][C]357[/C][C]643.7[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][/ROW]
[ROW][C]358[/C][C]622.1[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][/ROW]
[ROW][C]359[/C][C]634.6[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][/ROW]
[ROW][C]360[/C][C]588[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][C]-[/C][/ROW]
[ROW][C]361[/C][C]689.7[/C][C]680.3933[/C][C]626.5038[/C][C]736.5058[/C][C]0.3726[/C][C]0.9994[/C][C]1e-04[/C][C]0.9994[/C][/ROW]
[ROW][C]362[/C][C]673.9[/C][C]678.9134[/C][C]598.7552[/C][C]764.1054[/C][C]0.4541[/C][C]0.402[/C][C]0.0012[/C][C]0.9818[/C][/ROW]
[ROW][C]363[/C][C]647.9[/C][C]639.763[/C][C]535.7991[/C][C]752.9393[/C][C]0.444[/C][C]0.2772[/C][C]0.0224[/C][C]0.815[/C][/ROW]
[ROW][C]364[/C][C]568.8[/C][C]574.9415[/C][C]456.0305[/C][C]707.6135[/C][C]0.4639[/C][C]0.1406[/C][C]0.1133[/C][C]0.4235[/C][/ROW]
[ROW][C]365[/C][C]545.7[/C][C]538.5441[/C][C]405.8807[/C][C]689.9355[/C][C]0.4631[/C][C]0.3476[/C][C]0.1608[/C][C]0.261[/C][/ROW]
[ROW][C]366[/C][C]632.6[/C][C]658.4138[/C][C]493.1503[/C][C]847.5179[/C][C]0.3945[/C][C]0.8786[/C][C]0.1839[/C][C]0.7672[/C][/ROW]
[ROW][C]367[/C][C]643.8[/C][C]628.0037[/C][C]451.4502[/C][C]833.6298[/C][C]0.4402[/C][C]0.4825[/C][C]0.2643[/C][C]0.6485[/C][/ROW]
[ROW][C]368[/C][C]593.1[/C][C]597.1427[/C][C]411.7656[/C][C]816.8733[/C][C]0.4856[/C][C]0.3386[/C][C]0.2417[/C][C]0.5325[/C][/ROW]
[ROW][C]369[/C][C]579.7[/C][C]580.9321[/C][C]386.0813[/C][C]815.4518[/C][C]0.4959[/C][C]0.4595[/C][C]0.2999[/C][C]0.4764[/C][/ROW]
[ROW][C]370[/C][C]546[/C][C]559.4979[/C][C]357.5999[/C][C]806.3956[/C][C]0.4573[/C][C]0.4363[/C][C]0.3096[/C][C]0.4105[/C][/ROW]
[ROW][C]371[/C][C]562.9[/C][C]578.3854[/C][C]362.242[/C][C]844.8692[/C][C]0.4547[/C][C]0.5941[/C][C]0.3396[/C][C]0.4718[/C][/ROW]
[ROW][C]372[/C][C]572.5[/C][C]566.2788[/C][C]342.9894[/C][C]845.2542[/C][C]0.4826[/C][C]0.5095[/C][C]0.4394[/C][C]0.4394[/C][/ROW]
[/TABLE]
Source: https://freestatistics.org/blog/index.php?pk=34264&T=1

Globally Unique Identifier (entire table): ba.freestatistics.org/blog/index.php?pk=34264&T=1

As an alternative you can also use a QR Code:  

The GUIDs for individual cells are displayed in the table below:

Univariate ARIMA Extrapolation Forecast
timeY[t]F[t]95% LB95% UBp-value(H0: Y[t] = F[t])P(F[t]>Y[t-1])P(F[t]>Y[t-s])P(F[t]>Y[360])
348702.2-------
349784.8-------
350810.9-------
351755.6-------
352656.8-------
353615.1-------
354745.3-------
355694.1-------
356675.7-------
357643.7-------
358622.1-------
359634.6-------
360588-------
361689.7680.3933626.5038736.50580.37260.99941e-040.9994
362673.9678.9134598.7552764.10540.45410.4020.00120.9818
363647.9639.763535.7991752.93930.4440.27720.02240.815
364568.8574.9415456.0305707.61350.46390.14060.11330.4235
365545.7538.5441405.8807689.93550.46310.34760.16080.261
366632.6658.4138493.1503847.51790.39450.87860.18390.7672
367643.8628.0037451.4502833.62980.44020.48250.26430.6485
368593.1597.1427411.7656816.87330.48560.33860.24170.5325
369579.7580.9321386.0813815.45180.49590.45950.29990.4764
370546559.4979357.5999806.39560.45730.43630.30960.4105
371562.9578.3854362.242844.86920.45470.59410.33960.4718
372572.5566.2788342.9894845.25420.48260.50950.43940.4394







Univariate ARIMA Extrapolation Forecast Performance
time% S.E.PEMAPESq.EMSERMSE
3610.04210.01370.001186.61497.21792.6866
3620.064-0.00746e-0425.13382.09451.4472
3630.09030.01270.001166.21065.51762.3489
3640.1177-0.01079e-0437.71823.14321.7729
3650.14340.01330.001151.20754.26732.0657
3660.1465-0.03920.0033666.350455.52927.4518
3670.16710.02520.0021249.522420.79354.56
3680.1877-0.00686e-0416.34311.36191.167
3690.206-0.00212e-041.51820.12650.3557
3700.2251-0.02410.002182.194415.18293.8965
3710.2351-0.02680.0022239.798419.98324.4703
3720.25140.0119e-0438.70323.22531.7959

\begin{tabular}{lllllllll}
\hline
Univariate ARIMA Extrapolation Forecast Performance \tabularnewline
time & % S.E. & PE & MAPE & Sq.E & MSE & RMSE \tabularnewline
361 & 0.0421 & 0.0137 & 0.0011 & 86.6149 & 7.2179 & 2.6866 \tabularnewline
362 & 0.064 & -0.0074 & 6e-04 & 25.1338 & 2.0945 & 1.4472 \tabularnewline
363 & 0.0903 & 0.0127 & 0.0011 & 66.2106 & 5.5176 & 2.3489 \tabularnewline
364 & 0.1177 & -0.0107 & 9e-04 & 37.7182 & 3.1432 & 1.7729 \tabularnewline
365 & 0.1434 & 0.0133 & 0.0011 & 51.2075 & 4.2673 & 2.0657 \tabularnewline
366 & 0.1465 & -0.0392 & 0.0033 & 666.3504 & 55.5292 & 7.4518 \tabularnewline
367 & 0.1671 & 0.0252 & 0.0021 & 249.5224 & 20.7935 & 4.56 \tabularnewline
368 & 0.1877 & -0.0068 & 6e-04 & 16.3431 & 1.3619 & 1.167 \tabularnewline
369 & 0.206 & -0.0021 & 2e-04 & 1.5182 & 0.1265 & 0.3557 \tabularnewline
370 & 0.2251 & -0.0241 & 0.002 & 182.1944 & 15.1829 & 3.8965 \tabularnewline
371 & 0.2351 & -0.0268 & 0.0022 & 239.7984 & 19.9832 & 4.4703 \tabularnewline
372 & 0.2514 & 0.011 & 9e-04 & 38.7032 & 3.2253 & 1.7959 \tabularnewline
\hline
\end{tabular}
%Source: https://freestatistics.org/blog/index.php?pk=34264&T=2

[TABLE]
[ROW][C]Univariate ARIMA Extrapolation Forecast Performance[/C][/ROW]
[ROW][C]time[/C][C]% S.E.[/C][C]PE[/C][C]MAPE[/C][C]Sq.E[/C][C]MSE[/C][C]RMSE[/C][/ROW]
[ROW][C]361[/C][C]0.0421[/C][C]0.0137[/C][C]0.0011[/C][C]86.6149[/C][C]7.2179[/C][C]2.6866[/C][/ROW]
[ROW][C]362[/C][C]0.064[/C][C]-0.0074[/C][C]6e-04[/C][C]25.1338[/C][C]2.0945[/C][C]1.4472[/C][/ROW]
[ROW][C]363[/C][C]0.0903[/C][C]0.0127[/C][C]0.0011[/C][C]66.2106[/C][C]5.5176[/C][C]2.3489[/C][/ROW]
[ROW][C]364[/C][C]0.1177[/C][C]-0.0107[/C][C]9e-04[/C][C]37.7182[/C][C]3.1432[/C][C]1.7729[/C][/ROW]
[ROW][C]365[/C][C]0.1434[/C][C]0.0133[/C][C]0.0011[/C][C]51.2075[/C][C]4.2673[/C][C]2.0657[/C][/ROW]
[ROW][C]366[/C][C]0.1465[/C][C]-0.0392[/C][C]0.0033[/C][C]666.3504[/C][C]55.5292[/C][C]7.4518[/C][/ROW]
[ROW][C]367[/C][C]0.1671[/C][C]0.0252[/C][C]0.0021[/C][C]249.5224[/C][C]20.7935[/C][C]4.56[/C][/ROW]
[ROW][C]368[/C][C]0.1877[/C][C]-0.0068[/C][C]6e-04[/C][C]16.3431[/C][C]1.3619[/C][C]1.167[/C][/ROW]
[ROW][C]369[/C][C]0.206[/C][C]-0.0021[/C][C]2e-04[/C][C]1.5182[/C][C]0.1265[/C][C]0.3557[/C][/ROW]
[ROW][C]370[/C][C]0.2251[/C][C]-0.0241[/C][C]0.002[/C][C]182.1944[/C][C]15.1829[/C][C]3.8965[/C][/ROW]
[ROW][C]371[/C][C]0.2351[/C][C]-0.0268[/C][C]0.0022[/C][C]239.7984[/C][C]19.9832[/C][C]4.4703[/C][/ROW]
[ROW][C]372[/C][C]0.2514[/C][C]0.011[/C][C]9e-04[/C][C]38.7032[/C][C]3.2253[/C][C]1.7959[/C][/ROW]
[/TABLE]
Source: https://freestatistics.org/blog/index.php?pk=34264&T=2

Globally Unique Identifier (entire table): ba.freestatistics.org/blog/index.php?pk=34264&T=2

As an alternative you can also use a QR Code:  

The GUIDs for individual cells are displayed in the table below:

Univariate ARIMA Extrapolation Forecast Performance
time% S.E.PEMAPESq.EMSERMSE
3610.04210.01370.001186.61497.21792.6866
3620.064-0.00746e-0425.13382.09451.4472
3630.09030.01270.001166.21065.51762.3489
3640.1177-0.01079e-0437.71823.14321.7729
3650.14340.01330.001151.20754.26732.0657
3660.1465-0.03920.0033666.350455.52927.4518
3670.16710.02520.0021249.522420.79354.56
3680.1877-0.00686e-0416.34311.36191.167
3690.206-0.00212e-041.51820.12650.3557
3700.2251-0.02410.002182.194415.18293.8965
3710.2351-0.02680.0022239.798419.98324.4703
3720.25140.0119e-0438.70323.22531.7959



Parameters (Session):
par1 = 12 ; par2 = 0.5 ; par3 = 1 ; par4 = 1 ; par5 = 12 ; par6 = 2 ; par7 = 0 ; par8 = 0 ; par9 = 1 ; par10 = FALSE ;
Parameters (R input):
par1 = 12 ; par2 = 0.5 ; par3 = 1 ; par4 = 1 ; par5 = 12 ; par6 = 2 ; par7 = 0 ; par8 = 0 ; par9 = 1 ; par10 = FALSE ;
R code (references can be found in the software module):
par1 <- as.numeric(par1) #cut off periods
par2 <- as.numeric(par2) #lambda
par3 <- as.numeric(par3) #degree of non-seasonal differencing
par4 <- as.numeric(par4) #degree of seasonal differencing
par5 <- as.numeric(par5) #seasonal period
par6 <- as.numeric(par6) #p
par7 <- as.numeric(par7) #q
par8 <- as.numeric(par8) #P
par9 <- as.numeric(par9) #Q
if (par10 == 'TRUE') par10 <- TRUE
if (par10 == 'FALSE') par10 <- FALSE
if (par2 == 0) x <- log(x)
if (par2 != 0) x <- x^par2
lx <- length(x)
first <- lx - 2*par1
nx <- lx - par1
nx1 <- nx + 1
fx <- lx - nx
if (fx < 1) {
fx <- par5
nx1 <- lx + fx - 1
first <- lx - 2*fx
}
first <- 1
if (fx < 3) fx <- round(lx/10,0)
(arima.out <- arima(x[1:nx], order=c(par6,par3,par7), seasonal=list(order=c(par8,par4,par9), period=par5), include.mean=par10, method='ML'))
(forecast <- predict(arima.out,fx))
(lb <- forecast$pred - 1.96 * forecast$se)
(ub <- forecast$pred + 1.96 * forecast$se)
if (par2 == 0) {
x <- exp(x)
forecast$pred <- exp(forecast$pred)
lb <- exp(lb)
ub <- exp(ub)
}
if (par2 != 0) {
x <- x^(1/par2)
forecast$pred <- forecast$pred^(1/par2)
lb <- lb^(1/par2)
ub <- ub^(1/par2)
}
if (par2 < 0) {
olb <- lb
lb <- ub
ub <- olb
}
(actandfor <- c(x[1:nx], forecast$pred))
(perc.se <- (ub-forecast$pred)/1.96/forecast$pred)
bitmap(file='test1.png')
opar <- par(mar=c(4,4,2,2),las=1)
ylim <- c( min(x[first:nx],lb), max(x[first:nx],ub))
plot(x,ylim=ylim,type='n',xlim=c(first,lx))
usr <- par('usr')
rect(usr[1],usr[3],nx+1,usr[4],border=NA,col='lemonchiffon')
rect(nx1,usr[3],usr[2],usr[4],border=NA,col='lavender')
abline(h= (-3:3)*2 , col ='gray', lty =3)
polygon( c(nx1:lx,lx:nx1), c(lb,rev(ub)), col = 'orange', lty=2,border=NA)
lines(nx1:lx, lb , lty=2)
lines(nx1:lx, ub , lty=2)
lines(x, lwd=2)
lines(nx1:lx, forecast$pred , lwd=2 , col ='white')
box()
par(opar)
dev.off()
prob.dec <- array(NA, dim=fx)
prob.sdec <- array(NA, dim=fx)
prob.ldec <- array(NA, dim=fx)
prob.pval <- array(NA, dim=fx)
perf.pe <- array(0, dim=fx)
perf.mape <- array(0, dim=fx)
perf.se <- array(0, dim=fx)
perf.mse <- array(0, dim=fx)
perf.rmse <- array(0, dim=fx)
for (i in 1:fx) {
locSD <- (ub[i] - forecast$pred[i]) / 1.96
perf.pe[i] = (x[nx+i] - forecast$pred[i]) / forecast$pred[i]
perf.mape[i] = perf.mape[i] + abs(perf.pe[i])
perf.se[i] = (x[nx+i] - forecast$pred[i])^2
perf.mse[i] = perf.mse[i] + perf.se[i]
prob.dec[i] = pnorm((x[nx+i-1] - forecast$pred[i]) / locSD)
prob.sdec[i] = pnorm((x[nx+i-par5] - forecast$pred[i]) / locSD)
prob.ldec[i] = pnorm((x[nx] - forecast$pred[i]) / locSD)
prob.pval[i] = pnorm(abs(x[nx+i] - forecast$pred[i]) / locSD)
}
perf.mape = perf.mape / fx
perf.mse = perf.mse / fx
perf.rmse = sqrt(perf.mse)
bitmap(file='test2.png')
plot(forecast$pred, pch=19, type='b',main='ARIMA Extrapolation Forecast', ylab='Forecast and 95% CI', xlab='time',ylim=c(min(lb),max(ub)))
dum <- forecast$pred
dum[1:12] <- x[(nx+1):lx]
lines(dum, lty=1)
lines(ub,lty=3)
lines(lb,lty=3)
dev.off()
load(file='createtable')
a<-table.start()
a<-table.row.start(a)
a<-table.element(a,'Univariate ARIMA Extrapolation Forecast',9,TRUE)
a<-table.row.end(a)
a<-table.row.start(a)
a<-table.element(a,'time',1,header=TRUE)
a<-table.element(a,'Y[t]',1,header=TRUE)
a<-table.element(a,'F[t]',1,header=TRUE)
a<-table.element(a,'95% LB',1,header=TRUE)
a<-table.element(a,'95% UB',1,header=TRUE)
a<-table.element(a,'p-value
(H0: Y[t] = F[t])',1,header=TRUE)
a<-table.element(a,'P(F[t]>Y[t-1])',1,header=TRUE)
a<-table.element(a,'P(F[t]>Y[t-s])',1,header=TRUE)
mylab <- paste('P(F[t]>Y[',nx,sep='')
mylab <- paste(mylab,'])',sep='')
a<-table.element(a,mylab,1,header=TRUE)
a<-table.row.end(a)
for (i in (nx-par5):nx) {
a<-table.row.start(a)
a<-table.element(a,i,header=TRUE)
a<-table.element(a,x[i])
a<-table.element(a,'-')
a<-table.element(a,'-')
a<-table.element(a,'-')
a<-table.element(a,'-')
a<-table.element(a,'-')
a<-table.element(a,'-')
a<-table.element(a,'-')
a<-table.row.end(a)
}
for (i in 1:fx) {
a<-table.row.start(a)
a<-table.element(a,nx+i,header=TRUE)
a<-table.element(a,round(x[nx+i],4))
a<-table.element(a,round(forecast$pred[i],4))
a<-table.element(a,round(lb[i],4))
a<-table.element(a,round(ub[i],4))
a<-table.element(a,round((1-prob.pval[i]),4))
a<-table.element(a,round((1-prob.dec[i]),4))
a<-table.element(a,round((1-prob.sdec[i]),4))
a<-table.element(a,round((1-prob.ldec[i]),4))
a<-table.row.end(a)
}
a<-table.end(a)
table.save(a,file='mytable.tab')
a<-table.start()
a<-table.row.start(a)
a<-table.element(a,'Univariate ARIMA Extrapolation Forecast Performance',7,TRUE)
a<-table.row.end(a)
a<-table.row.start(a)
a<-table.element(a,'time',1,header=TRUE)
a<-table.element(a,'% S.E.',1,header=TRUE)
a<-table.element(a,'PE',1,header=TRUE)
a<-table.element(a,'MAPE',1,header=TRUE)
a<-table.element(a,'Sq.E',1,header=TRUE)
a<-table.element(a,'MSE',1,header=TRUE)
a<-table.element(a,'RMSE',1,header=TRUE)
a<-table.row.end(a)
for (i in 1:fx) {
a<-table.row.start(a)
a<-table.element(a,nx+i,header=TRUE)
a<-table.element(a,round(perc.se[i],4))
a<-table.element(a,round(perf.pe[i],4))
a<-table.element(a,round(perf.mape[i],4))
a<-table.element(a,round(perf.se[i],4))
a<-table.element(a,round(perf.mse[i],4))
a<-table.element(a,round(perf.rmse[i],4))
a<-table.row.end(a)
}
a<-table.end(a)
table.save(a,file='mytable1.tab')