Tuesday, 19 September 2017

Exponentiallyweight Moving Average Standard Deviation


Der exponentiell gewichtete gleitende Durchschnitt (EWMA) ist eine Statistik für die Überwachung des Prozesses, die die Daten in einer Weise, die weniger und weniger Gewicht auf Daten, da sie weiter entfernt werden, in der Zeit. Vergleich von Shewhart-Kontrolldiagramm und EWMA-Kontrolltafel-Techniken Für die Shewhart-Diagrammsteuerungstechnik hängt die Entscheidung über den Zustand der Kontrolle des Prozesses zu irgendeinem Zeitpunkt (t) ausschließlich von der letzten Messung aus dem Verfahren ab, Der Grad der Richtigkeit der Schätzungen der Kontrollgrenzen aus historischen Daten. Für die EWMA-Steuerungstechnik hängt die Entscheidung von der EWMA-Statistik ab, die ein exponentiell gewichteter Durchschnitt aller vorherigen Daten ist, einschließlich der letzten Messung. Durch die Wahl des Gewichtungsfaktors (Lambda) kann die EWMA-Steuerprozedur empfindlich auf eine kleine oder allmähliche Drift in dem Prozess eingestellt werden, während die Shewhart-Steuerprozedur nur dann reagieren kann, wenn der letzte Datenpunkt außerhalb einer Kontrollgrenze liegt. Definition von EWMA Die berechnete Statistik ist: mbox t lambda Yt (1-lambda) mbox ,,, mbox ,,, t 1,, 2,, ldots ,, n. Wobei (mbox 0) der Mittelwert der historischen Daten (Ziel) (Yt) ist die Beobachtung zur Zeit (t) (n) die Anzahl der zu überwachenden Beobachtungen einschließlich (mbox 0) (0 Interpretation der EWMA - Dots sind die Rohdaten, die gezackte Linie ist die EWMA-Statistik im Laufe der Zeit. Das Diagramm zeigt uns, dass der Prozess in der Steuerung ist, weil alle (mbox t) zwischen den Kontroll-Grenzen liegen. Allerdings scheint es einen Trend nach oben für die letzten 5 Ich habe einige Prozessdaten für 3 Jahre gesammelt, und ich möchte eine EWMA prospektive Analyse imitieren, um zu sehen, ob mein Set-Glättungsparameter alle wichtigen Änderungen (ohne zu viele falsche Alarme) erkannt hätte. Es scheint, wie die meisten Lehrbücher und Literatur, die ich sah, dass eine Mittel-und Standardabweichung verwenden, um die Kontroll-Limits zu berechnen. Dies ist in der Regel die in-Control-Mittelwert und Standardabweichung von einigen historischen Daten, oder die mittlere und sd der Bevölkerung, aus denen die Proben gezeichnet werden Haben keine Informationen. Gibt es einen anderen Weg, um die Kontroll-Limits berechnen Gibt es eine Variation der EWMA-Diagramm, das nicht Mittelwert und Standardabweichung Jede kreative Ideen Vielen Dank im Voraus Um sicherzustellen, dass ich das verstehe: Sie könnten die EWMA-Mittel zu berechnen Und Varianz, aber Sie don39t haben eine Grundlinie, um sie zu vergleichen Es klingt für mich wie Sie haben eine überwachte Technik (die davon ausgeht, können Sie definieren, was es quotshouldot aussehen), aber Sie wollen eine unbeaufsichtigte Technik (die nur für Unterschiede sucht, ohne anzurufen Ein Zustand quotgoodquot und ein anderer quotbadquot). Für unbeaufsichtigte Techniken, Clustering in den Sinn kommt, aber es müsste geändert werden, um auf timeseries gelten. Wie über Generalized Likelihood Ratio (GLR) ndash Jim Pivarski Jun 25 14 at 2:49 Wenn wir beziehen sich auf en. wikipedia. org/wiki/EWMAchart. Ich kann die Zi für meine gegebene Lambda berechnen, aber wenn es um die Kontrollgrenzen geht, habe ich keine historischen Daten, um die T und S. zu berechnen. Vielen Dank Ich werde in GLR schauen und auch auf Cross Validated posten. Ndash user3295481 Jun 25 14 at 2:54 Yeah, T und S sind die Mittelwerte und Standardabweichungen einer Grundlinienverteilung, die entweder a priori gegeben oder aus einem Trainingsdatensatz ermittelt werden. Der Trainings-Dataset repräsentiert, wie die Daten aussehen sollen, also ist dies eine überwachte Technik und Sie wollen eine unüberwiesene Technik. GLR isn39t exponentiell gewichtet, aber es dynamisch findet einen Bruch in den Daten zwischen zwei verschiedenen Distributionen und kombiniert Daten auf jeder Seite der Pause, um mehr robuste Ergebnisse zu erhalten. Es könnte sein, was Sie wollen. Ndash Jim Pivarski Jun 25 14 at 3:00 Aus praktischer und operativer Sicht ist die Verwendung der statistischen Analyse von historischen Daten allein selten. Ja, es bietet einige Leitlinien, wie der Prozess (und seine Steuerung) durchführen, aber das Wichtigste ist bei weitem ein gutes Verständnis und Wissen über die technischen Grenzen zu haben. Ich verweise auf die Betriebsgrenzen, die durch die Spezifikationen und Leistungsmerkmale der verschiedenen Geräte bestimmt werden. Dies ermöglicht es, ein gutes Verständnis davon zu entwickeln, wie sich der Prozess verhalten soll (in Bezug auf optimalen Betriebspunkt und obere / untere Regelgrenzen) und wo die Bereiche der größten Abweichung von optimal sind. Das hat sehr wenig mit der statistischen Analyse historischer Daten und viel mit der Verfahrenstechnik / Metallurgie zu tun - abhängig von der Art des Prozesses, mit dem Sie zu tun haben. Die Regelgrenzen werden letztlich von dem bestimmt, was der Prozessmanager / Prozessingenieur WANTS, die in der Regel (aber nicht immer) innerhalb der Typenschildkapazität des Gerätes liegen. Wenn Sie innerhalb der operativen Grenzen arbeiten, und Sie sind im Bereich der Prozessoptimierung, dann ja, statistische Analyse ist weit verbreitet und kann gute Einblicke bieten. Abhängig von der Variabilität Ihres Prozesses, wie gut Ihr Steuersystem eingerichtet ist, und die Homogenität Ihres Futtermittelprodukts, variieren die oberen und unteren Kontrollgrenzen, die ausgewählt werden. Ein guter Ausgangspunkt ist der optimale Betriebspunkt (z. B. 100 m3 / h), dann verwenden Sie eine sinnvolle Menge an historischen Daten, um eine Standardabweichung zu berechnen und Ihre Obergrenze von 100 1 Standard-Dev und Ihre Untergrenze von 100 - 1 Standard-Dev . Das ist keine harte und schnelle Regel, aber es ist ein vernünftiger Ausgangspunkt. Beantwortet am 7. Februar um 12: 12Erwerben der exponentiell gewichteten Moving Average Volatilität ist die häufigste Maßnahme des Risikos, aber es kommt in mehreren Geschmacksrichtungen. In einem früheren Artikel haben wir gezeigt, wie man einfache historische Volatilität berechnet. (Um diesen Artikel zu lesen, finden Sie unter Verwenden von Volatilität, um zukünftiges Risiko zu messen.) Wir verwendeten Googles tatsächlichen Aktienkursdaten, um die tägliche Volatilität basierend auf 30 Tagen der Bestandsdaten zu berechnen. In diesem Artikel werden wir auf einfache Volatilität zu verbessern und diskutieren den exponentiell gewichteten gleitenden Durchschnitt (EWMA). Historische Vs. Implied Volatility Erstens, lassen Sie diese Metrik in ein bisschen Perspektive. Es gibt zwei breite Ansätze: historische und implizite (oder implizite) Volatilität. Der historische Ansatz geht davon aus, dass Vergangenheit ist Prolog Wir messen Geschichte in der Hoffnung, dass es prädiktive ist. Die implizite Volatilität dagegen ignoriert die Geschichte, die sie für die Volatilität der Marktpreise löst. Es hofft, dass der Markt am besten weiß und dass der Marktpreis, auch wenn implizit, eine Konsensschätzung der Volatilität enthält. (Für verwandte Erkenntnisse siehe Die Verwendungen und Grenzen der Volatilität.) Wenn wir uns auf die drei historischen Ansätze (auf der linken Seite) konzentrieren, haben sie zwei Schritte gemeinsam: Berechnen Sie die Reihe der periodischen Renditen Anwendung eines Gewichtungsschemas Zuerst werden wir Berechnen die periodische Rendite. Das ist typischerweise eine Reihe von täglichen Renditen, bei denen jede Rendite in kontinuierlich zusammengesetzten Ausdrücken ausgedrückt wird. Für jeden Tag nehmen wir das natürliche Protokoll des Verhältnisses der Aktienkurse (d. H. Preis heute geteilt durch den Preis gestern und so weiter). Dies erzeugt eine Reihe von täglichen Renditen, von u i bis u i-m. Je nachdem wie viele Tage (m Tage) wir messen. Das bringt uns zum zweiten Schritt: Hier unterscheiden sich die drei Ansätze. Wir haben gezeigt, dass die einfache Varianz im Rahmen einiger akzeptabler Vereinfachungen der Mittelwert der quadratischen Renditen ist: Beachten Sie, dass diese Summe die periodischen Renditen zusammenfasst und dann diese Summe durch die Anzahl der Tage oder Beobachtungen (m). Also, seine wirklich nur ein Durchschnitt der quadrierten periodischen kehrt zurück. Setzen Sie einen anderen Weg, jede quadrierte Rückkehr wird ein gleiches Gewicht gegeben. Wenn also alpha (a) ein Gewichtungsfaktor (speziell eine 1 / m) ist, dann sieht eine einfache Varianz so aus: Die EWMA verbessert die einfache Varianz Die Schwäche dieses Ansatzes ist, dass alle Renditen das gleiche Gewicht verdienen. Yesterdays (sehr jüngste) Rückkehr hat keinen Einfluss mehr auf die Varianz als die letzten Monate zurück. Dieses Problem wird durch Verwendung des exponentiell gewichteten gleitenden Mittelwerts (EWMA), bei dem neuere Renditen ein größeres Gewicht auf die Varianz aufweisen, festgelegt. Der exponentiell gewichtete gleitende Durchschnitt (EWMA) führt Lambda ein. Die als Glättungsparameter bezeichnet wird. Lambda muss kleiner als 1 sein. Unter dieser Bedingung wird anstelle der gleichen Gewichtungen jede quadratische Rendite durch einen Multiplikator wie folgt gewichtet: Beispielsweise neigt die RiskMetrics TM, eine Finanzrisikomanagementgesellschaft, dazu, eine Lambda von 0,94 oder 94 zu verwenden. In diesem Fall wird die erste ( (1 - 0,94) (94) 0 6. Die nächste quadrierte Rückkehr ist einfach ein Lambda-Vielfaches des vorherigen Gewichts in diesem Fall 6 multipliziert mit 94 5,64. Und das dritte vorherige Tagegewicht ist gleich (1-0,94) (0,94) 2 5,30. Das ist die Bedeutung von exponentiell in EWMA: jedes Gewicht ist ein konstanter Multiplikator (d. h. Lambda, der kleiner als eins sein muß) des vorherigen Gewichtes. Dies stellt eine Varianz sicher, die gewichtet oder zu neueren Daten voreingenommen ist. (Weitere Informationen finden Sie im Excel-Arbeitsblatt für die Googles-Volatilität.) Der Unterschied zwischen einfacher Volatilität und EWMA für Google wird unten angezeigt. Einfache Volatilität wiegt effektiv jede periodische Rendite von 0,196, wie in Spalte O gezeigt (wir hatten zwei Jahre tägliche Aktienkursdaten, das sind 509 tägliche Renditen und 1/509 0,196). Aber beachten Sie, dass die Spalte P ein Gewicht von 6, dann 5,64, dann 5,3 und so weiter. Das ist der einzige Unterschied zwischen einfacher Varianz und EWMA. Denken Sie daran: Nachdem wir die Summe der ganzen Reihe (in Spalte Q) haben wir die Varianz, die das Quadrat der Standardabweichung ist. Wenn wir Volatilität wollen, müssen wir uns daran erinnern, die Quadratwurzel dieser Varianz zu nehmen. Was ist der Unterschied in der täglichen Volatilität zwischen der Varianz und der EWMA im Googles-Fall? Bedeutend: Die einfache Varianz gab uns eine tägliche Volatilität von 2,4, aber die EWMA gab eine tägliche Volatilität von nur 1,4 (Details siehe Tabelle). Offenbar ließ sich die Googles-Volatilität in jüngster Zeit verringern, so dass eine einfache Varianz künstlich hoch sein könnte. Die heutige Varianz ist eine Funktion der Pior Tage Variance Youll bemerken wir benötigt, um eine lange Reihe von exponentiell sinkenden Gewichte zu berechnen. Wir werden die Mathematik hier nicht durchführen, aber eine der besten Eigenschaften der EWMA ist, daß die gesamte Reihe zweckmäßigerweise auf eine rekursive Formel reduziert: Rekursiv bedeutet, daß heutige Varianzreferenzen (d. h. eine Funktion der früheren Tagesvarianz) ist. Sie können diese Formel auch in der Kalkulationstabelle zu finden, und es erzeugt genau das gleiche Ergebnis wie die Langzeitberechnung Es heißt: Die heutige Varianz (unter EWMA) ist gleichbedeutend mit der gestrigen Abweichung (gewichtet mit Lambda) plus der gestrigen Rückkehr (gewogen von einem Minus-Lambda). Beachten Sie, wie wir nur zwei Begriffe zusammenfügen: gestern gewichtet Varianz und gestern gewichtet, quadriert zurück. Dennoch ist Lambda unser Glättungsparameter. Ein höheres Lambda (z. B. wie RiskMetrics 94) deutet auf einen langsameren Abfall in der Reihe hin - in relativer Hinsicht werden wir mehr Datenpunkte in der Reihe haben, und sie fallen langsamer ab. Auf der anderen Seite, wenn wir das Lambda reduzieren, deuten wir auf einen höheren Abfall hin: die Gewichte fallen schneller ab, und als direkte Folge des schnellen Zerfalls werden weniger Datenpunkte verwendet. (In der Kalkulationstabelle ist Lambda ein Eingang, so dass Sie mit seiner Empfindlichkeit experimentieren können). Zusammenfassung Volatilität ist die momentane Standardabweichung einer Aktie und die häufigste Risikomessung. Es ist auch die Quadratwurzel der Varianz. Wir können Varianz historisch oder implizit messen (implizite Volatilität). Bei der historischen Messung ist die einfachste Methode eine einfache Varianz. Aber die Schwäche mit einfacher Varianz ist alle Renditen bekommen das gleiche Gewicht. So stehen wir vor einem klassischen Kompromiss: Wir wollen immer mehr Daten, aber je mehr Daten wir haben, desto mehr wird unsere Berechnung durch weit entfernte (weniger relevante) Daten verdünnt. Der exponentiell gewichtete gleitende Durchschnitt (EWMA) verbessert die einfache Varianz durch Zuordnen von Gewichten zu den periodischen Renditen. Auf diese Weise können wir beide eine große Stichprobengröße, sondern auch mehr Gewicht auf neuere Renditen. (Um ein Film-Tutorial zu diesem Thema zu sehen, besuchen Sie die Bionic Turtle.)

No comments:

Post a Comment