Friday 29 September 2017

Differenz Zwischen Bewegung Durchschnitt Und Lineare Regression


Mike, zuerst installiere R (falls noch nicht vorhanden), lauf R und installiere das TeachingDemos-Paket (genau wie von deinem System abhängig), lade das Paket mit der Bibliothek (TeachingDemos) und drücke dann loess. demo, um die Hilfeseite zu sehen Wie Sie es ausführen können, können Sie nach unten scrollen, wo das Beispiel ist und kopieren und fügen Sie diesen Code auf R39s Befehlszeile, um die Beispiele zu sehen, dann mit Ihren eigenen Daten weiter zu erforschen. Ndash Greg Snow Mar 23 12 at 17:15 Hier ist eine einfache, aber detaillierte Antwort. Ein lineares Modell passt zu einer Beziehung über alle Datenpunkte. Dieses Modell kann erste Ordnung (eine andere Bedeutung von linearem) oder Polynom sein, um der Krümmung Rechnung zu tragen, oder mit Splines, um verschiedene Regionen mit einem anderen regulierenden Modell zu berücksichtigen. Eine LOESS-Passung ist eine lokal bewegte gewichtete Regression, die auf den ursprünglichen Datenpunkten basiert. Whats that mean A LOESS fit gibt die ursprünglichen X - und Y-Werte sowie einen Satz von Output-X-Werten ein, für die neue Y-Werte berechnet werden (in der Regel werden die gleichen X-Werte für beide, aber oft weniger X-Werte für passende XY-Paare verwendet Wegen der erhöhten Rechenleistung). Für jeden Ausgabe-X-Wert wird ein Teil der Eingangsdaten verwendet, um einen Fit zu berechnen. Der Teil der Daten, im allgemeinen 25 bis 100, aber typischerweise 33 oder 50, ist lokal, was bedeutet, daß es derjenige Teil der ursprünglichen Daten ist, der jedem bestimmten Ausgangswert X am nächsten liegt. Es ist eine bewegliche Passform, da jeder Ausgang X-Wert eine andere Teilmenge der Originaldaten mit unterschiedlichen Gewichten erfordert (siehe nächster Absatz). Diese Untermenge von Eingangsdatenpunkten wird verwendet, um eine gewichtete Regression durchzuführen, wobei Punkte am nächsten zu dem Ausgang X-Wert mit größerem Gewicht sind. Diese Regression ist in der Regel erster Ordnung zweiter Ordnung oder höher möglich, erfordert jedoch eine höhere Rechenleistung. Der Y-Wert dieser gewichteten Regression, der an dem Ausgang X berechnet wird, wird als der Modell-Y-Wert für diesen X-Wert verwendet. Die Regression wird an jedem Ausgabe-X-Wert neu berechnet, um einen vollständigen Satz von Ausgabe-Y-Werten zu erzeugen. Beantwortet Feb 21 15 am 21: 08Was sind Beziehung und Unterschied zwischen Zeitreihen und Regression Für Modelle und Annahmen. Ist es richtig, dass die Regressionsmodelle Unabhängigkeit zwischen den Ausgangsvariablen für verschiedene Werte der Eingangsgröße annehmen, während das Zeitreihenmodell nicht Was sind einige andere Unterschiede Es gibt eine Reihe von Ansätzen zur Zeitreihenanalyse, aber die beiden bekanntesten sind die Regression Methode und die Box-Jenkins (1976) oder ARIMA (AutoRegressive Integrated Moving Average) Methode. Dieses Dokument führt die Regressionsmethode ein. Ich halte die Regressionsmethode weit überlegen für ARIMA für drei wichtige Gründe, die ich nicht ganz verstehen, was die Regressionsmethode für Zeitreihen auf der Website ist, und wie es sich von der Box-Jenkins oder ARIMA-Methode unterscheidet. Ich schätze, wenn jemand einige Einblicke auf diesen Fragen geben kann. Danke und Grüße Ich glaube wirklich, das ist eine gute Frage und verdient eine Antwort. Der Link zur Verfügung gestellt wird von einem Psychologen, der behauptet, dass einige home-brauen Methode ist eine bessere Art und Weise der Zeitreihe-Analyse als Box-Jenkins ist geschrieben. Ich hoffe, dass mein Versuch, eine Antwort zu ermutigen, andere, die mehr wissen über Zeitreihen sind, dazu beitragen. Aus seiner Einleitung sieht es so aus, als würde Darlington den Ansatz der Anpassung eines AR-Modells durch kleinste Quadrate meistern. Das heißt, wenn Sie das Modell zt alpha1 z cdots alphak z varepsilont an die Zeitreihe zt anpassen wollen, können Sie einfach die Serie zt auf der Serie mit Verzögerung 1, Verzögerung 2 und so weiter bis zu Verzögerung k berechnen Gewöhnlichen multiplen Regression. Dies ist sicherlich erlaubt in R, seine sogar eine Option in der Ar-Funktion. Ich testete es, und es neigt dazu, ähnliche Antworten auf die Standard-Methode für die Anpassung eines AR-Modells in R. Er befürwortet auch regressing zt auf Dinge wie t oder Befugnisse von t, um Trends zu finden. Auch dies ist absolut in Ordnung. Viele Zeitreihen besprechen dies, zum Beispiel Shumway-Stoffer und Cowpertwait-Metcalfe. Typischerweise kann eine Zeitreihenanalyse entlang der folgenden Zeilen verlaufen: Sie finden einen Trend, entfernen Sie ihn und passen Sie dann ein Modell an die Residuen an. Aber es scheint, wie er auch befürwortet über-Anpassung und dann mit der Verringerung der Mittel-quadratischen Fehler zwischen der eingebauten Serie und die Daten als Beweis dafür, dass seine Methode besser ist. Zum Beispiel: Ich fühle mich korrektrams sind jetzt veraltet. Ihr primärer Zweck war, den Arbeitnehmern zu ermöglichen, zu erraten, welche Modelle am besten zu den Daten passen, aber die Geschwindigkeit der modernen Computer (zumindest in der Regression, wenn nicht in der Zeitreihenmodell-Anpassung) ermöglicht es einem Arbeiter, einfach mehrere Modelle zu passen und genau zu sehen, wie Jeder passt, wie durch mittleren quadratischen Fehler gemessen. Die Frage der Kapitalisierung nach Zufall ist für diese Wahl nicht relevant, da beide Methoden für dieses Problem gleichermaßen anfällig sind. Dies ist keine gute Idee, weil der Test eines Modells soll, wie gut es prognostizieren kann, nicht, wie gut es passt die vorhandenen Daten. In seinen drei Beispielen verwendet er einen angepassten Mittelwertquadratfehler als Kriterium für die Qualität der Passform. Natürlich wird die Übermodellierung eines Modells eine In-Sample-Schätzung des Fehlers kleiner machen, so dass seine Behauptung, dass seine Modelle besser sind, weil sie weniger RMSE haben, falsch ist. Kurzum, da er das falsche Kriterium für die Beurteilung, wie gut ein Modell ist, verwendet, erreicht er die falschen Schlüsse über die Regression gegen ARIMA. Id wetten, dass, wenn er die prädiktive Fähigkeit der Modelle statt getestet hätte, wäre ARIMA auf die Spitze kommen. Vielleicht kann jemand es versuchen, wenn sie Zugang zu den Büchern haben, die er hier erwähnt. Ergänzend: Für mehr über die Regression Idee, möchten Sie vielleicht auschecken ältere Zeitreihen Bücher, die geschrieben wurden, bevor ARIMA wurde die beliebteste. Zum Beispiel, Kendall, Time-Series. 1973, Kapitel 11 hat ein ganzes Kapitel über diese Methode und Vergleiche mit ARIMA. Soweit ich sagen kann, hat der Autor in einer Peer-Review-Publikation seine Home-Brew-Methode nie beschrieben und Verweise auf und aus der statistischen Literatur erscheinen minimal und seine Hauptpublikationen zu methodischen Themen reichen bis in die 70er Jahre zurück. Streng genommen, nichts davon beweist alles, aber ohne genügend Zeit oder Sachkenntnis, um die Ansprüche selbst zu beurteilen, würde ich extrem widerwillig sein, irgendwelche von ihr zu verwenden. Ndash Gala Jul 18 13 bei 11:31

No comments:

Post a Comment