Wenn dies dein erster Besuch hier ist, lese bitte zuerst die Hilfe - Häufig gestellte Fragen durch. Du musst dich registrieren, bevor du Beiträge verfassen kannst. Du kannst auch jetzt schon Beiträge lesen. Suche dir einfach das Forum aus, das dich am meisten interessiert.
Prove that a symmetry is an isometry only if this is an orthogonal symmetry.
wie zeig ich das? zeigen dass orth. symmetrien isometrien sind reicht?
Wenn du gleichzeitig zeigen kannst, dass Isometrien auch orthogonale Symmetrien sind.
Du musst auf jeden Fall zeigen, dass nicht orthogonale Symmetrien keine Isometrien sind.
Ich soll eine Zeitreihe auf serial correlation (1) und heteroskedasticity (2) untersuchen.
(1) liegt laut Breusch-Godfrey Test vor... Wie kann ich nun (2) testen?
Man darf es ja nur, wenn keine serial correlation vorliegt.
Spoiler:
Heteroskedasticity in the time series context Heteroskedasticity can also occur in time series regression models; its presence, while not causing bias nor inconsistency in the point estimates, has the usual effect of invalidating the standard errors, t?statistics, and F ?statistics, just as in the cross–sectional case. Since the Newey–West standard error formula subsumes the White (robust) standard error component, if the Newey–West standard errors are computed, they will also be robust to arbitrary departures from homoskedasticity. However, the standard tests for heteroskedasticity assume independence of the errors, so if the errors are serially correlated, those tests will not generally be correct. It thus makes sense to test for serial correlation first (using a heteroskedasticity– robust test if it is suspected), correct for serial correlation, and then apply a test for heteroskedasticity
Also habe ich erstmal mit Newey West meine error terms korrigiert.
Dennoch zeigt mir der White Test danach (2) an und der Breusch-Godfrey test (1)???
Habe es in EViews durchgeführt.
Anders gefragt: Wie kann ich auf (2) testen, wenn serial correlation vorliegt?
Ich soll eine Zeitreihe auf serial correlation (1) und heteroskedasticity (2) untersuchen.
(1) liegt laut Breusch-Godfrey Test vor... Wie kann ich nun (2) testen?
Man darf es ja nur, wenn keine serial correlation vorliegt.
Spoiler:
Heteroskedasticity in the time series context Heteroskedasticity can also occur in time series regression models; its presence, while not causing bias nor inconsistency in the point estimates, has the usual effect of invalidating the standard errors, t?statistics, and F ?statistics, just as in the cross–sectional case. Since the Newey–West standard error formula subsumes the White (robust) standard error component, if the Newey–West standard errors are computed, they will also be robust to arbitrary departures from homoskedasticity. However, the standard tests for heteroskedasticity assume independence of the errors, so if the errors are serially correlated, those tests will not generally be correct. It thus makes sense to test for serial correlation first (using a heteroskedasticity– robust test if it is suspected), correct for serial correlation, and then apply a test for heteroskedasticity
Also habe ich erstmal mit Newey West meine error terms korrigiert.
Dennoch zeigt mir der White Test danach (2) an und der Breusch-Godfrey test (1)???
Habe es in EViews durchgeführt.
Anders gefragt: Wie kann ich auf (2) testen, wenn serial correlation vorliegt?
Differenzenfilter ist vielleicht eine Möglichkeit, die Korrelation rauszubekommen ohne die Heteroskedastität zu nehmen, ohne jetzt ausreichend darüber nachgedacht zu haben.
Wikipedia sagt, zur Varianzstabilisierung biete sich die Box-Cox-Transformation an. Logische Konsequenz von korrelierten Beobachtungen müssten zeitabhängige Varianzen sein, bilde ich mir ein.
Moin, rechne gerade ne alte Klausur durch die aus einer Mitschrift entstanden ist und bin mir gerade nicht sicher, ob da nicht evtl. Angaben in der Aufgabe fehlen oder ob ich nen Brett vorm Kopf habe. Folgende Aufgabenstellung:
Gegeben seien zwei zufällige Veränderliche X und T.
T ist gleichverteilt auf dem Intervall [0,10]
X ist exponentialverteilt mit Parameter λ = 1/5).
c) Berechne P(X ≤ t)
(Hinweis: Berechne zuerst P(X ≤ t) unter der Bedingung, dass (T = t) ist.)
Also alleine schon durch den Hinweis wird ja die Totale Wahrscheinlichkeit die Lösung bringen aber wie komme ich auch P(X ≤ t | T=t) und wie auf P(T = t)?
Aber sollten 741 oder so sein. Ich muss ja bei Periode 5 den Nennwert mit einrechnen, da ich den ja wieder krieg?
Auf die 741 komm ich nicht, nur auf 700 :D
edit:
got it, ich bin so ein dummer mensch haha, es war ja t+5 hahahaha. ich schau in der tabelle die ganze zeit bei 5. ach reudig jetzt ne stunde damit verbracht, so dumm.
Hi, habe ein paar Probleme bei der Deutung von OLS:
Spoiler:
a) für unit changes gibts Regeln, passt
b) i) Wie kann ich das sehen? R-squared ist ja nicht adjusted für Parameteranzahl, d.h. ich würde den Wert nicht verwenden.
Es geht um den Einfluss von Dünger (fert) und Wasser(Irr) auf die Ernte. Würde jetzt sagen, dass Wasser negativ mit Dünger korreliert ist, was man an den Koeffizienten sehen kann. Mit Einfluss von Wasser sinkt der Effekt von Dünger.
ii) Hier ist nun das Problem. Ich verstehe nicht, wieso der Standardfehler im oberen Modell (0.36) höher ist als unten. Davor sage ich ja, dass wir unten ein omitted variable bias haben, also müssten die Werte oben besser sein. Wie kann ich den standard error begründen? Danke!
Ich suche eine Idee oder eine Lösung um folgende Tatsache zu beweisen:
Vorraussetzungen:
Ich habe gegeben eine Singulärwertzerlegung
X = PDQ^t
mit P eine orthogonale Nxp Matrix, D = diag(d1,...,dp) pxp Matrix mit den Singulärwerten (Wurzel aus den Eigenwerten) nach der Größe sortiert (d1 >= d2 >= ...), Q orthogonale pxp Matrix
Dann ist wegen X^tX = PD^2P^t bekannt, dass P aus den Eigenvektoren besteht (auch bzgl der Eigenwerte nach Größe geordnet) und ich betrachte nun M = X^tX = QD^2Q^t
Behauptung:
Wenn nun M durch M1 = H1^t M H1^t ersetzt wird, wobei H1^t = I - p1*p1^t ein Projektionsoperator in R^p auf die p-1 dim Unterraumorthogonale zu einem x_j ist, dann hat M1 als führenden (größten bzgl des Eigenwertes) Eigenvektor p2, also den "zweitgrößten" Eigenvektor von M
Wäre cool wenn mir da jemand helfen könnte, sowohl eine Lösung, ein Tipp was man benutzen könnte um das zu zeigen, oder eventuell sogar ein Satz der das ganze schon so ähnlich beweist wären sehr hilfreich.
Stehe gerade auf dem Schlauch. Gegeben ist folgende Aufgabe:
Eine Urne enthält 13 gelbe, 16 grüne, 20 weiße und 33 schwarze Kugeln. Gleichfarbige
Kugeln können nicht unterschieden werden. Zählen Sie auf wie viele Arten man der Urne
36 Kugeln entnehmen kann.
Ich gehen davon aus, dass ohne Zurücklegen gemeint ist.
Resultat müsste ja eine Multimenge sein.
Jedoch stehe ich auf dem Schlauch da die Urne bereits ebenfalls eine Multimenge ist.
Kommentar