Astronomie

Wie kann ich die Unsicherheiten in der Größe wie beim CDS berechnen?

Wie kann ich die Unsicherheiten in der Größe wie beim CDS berechnen?



We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Wenn Sie einen Eintrag des stellaren Katalogs von Gaia DR2 in Wesir überprüfen, zum Beispiel diesen, können Sie sehen, dass es einen Wert für die G-Magnitude (in unserem Fall 18.0733 mag) und einen Wert für die Unsicherheit dazu gibt (in unserem Fall 0,0023 mag). Die Sache ist, dass der G-Wert Teil von Gaia DR2 ist, aber die Unsicherheit nicht, er wurde vom CDS für Vizier berechnet (unter Verwendung der für den Fluss angegebenen Werte, soweit ich das verstehen kann). Ich habe zwei kleine verwandte Fragen:

  1. Wie berechnet das CDS den Wert aus der Unsicherheit genau? zumindest so, dass die vom CDS angegebene und die berechnete auf die vierte Dezimalstelle übereinstimmen.

  2. Gibt es in der Astropie oder Astroquery eine Möglichkeit, den photometrischen Unsicherheitswert aus dem Katalog abzurufen? Oder muss ich es wie in der ersten Frage berechnen?

Danke im Voraus.


Denn was gemessen wird, ist a Fluss und die Flussfehler stehen im DR2-Katalog.

Da Größen auf dem Logarithmus des Flusses basieren, gibt es keine direkte Entsprechung (obwohl es wenig von Bedeutung ist, wenn die Fehlerbalken weniger als einige Hundertstel einer Größe betragen).

Einfache Fehlerfortpflanzungsformeln geben $$|Delta G| simeq frac{2,5}{ln 10} left(frac{Delta f}{f} ight),$$ wo $f$ ist der Fluss im G-Band.

Das gibt $Delta G= 0,0023(1)$ für dein Beispiel. Andere Algorithmen liefern fast das gleiche Ergebnis, z.B. den Durchschnitt der $pm Delta G$ von der Verwendung $pm Delta f$ um die Größe zu berechnen.

Wenn der Unterschied zwischen den Algorithmen (sie liefern unterschiedliche Ergebnisse, wenn der Flussfehler $sim 10$%), oder die Tatsache, dass der wahre Fehler eine asymmetrische Größe hat, wichtig sind, sollten Sie den symmetrischen Betragsfehlerbalken von CDS nicht verwenden.


Für Gaia EDR3:

Hinweis (G1): Hinweis zu Magnitudenfehlern:

Sie erhält man durch einfache Fehlerfortpflanzung mit den Formeln

e_Gmag = sqrt((-2.5/ln(10)*e_FG/FG)**2 + sigmaG_0**2) e_GBPmag = sqrt((-2.5/ln(10)*e_FGBP/FGBP)**2 + sigmaGBP_0** 2)) e_GRPmag = sqrt((-2.5/ln(10)*e_FGRP/FGRP)**2 + sigmaGRP_0**2))

mit den Nullpunktunsicherheiten G, G_BP, G_RP

sigmaG_0 = 0,0027553202 sigmaGBP_0 = 0,0027901700 sigmaGRP_0 = 0,0037793818

Weitere Informationen finden Sie unter https://www.cosmos.esa.int/web/gaia/edr3-passbands

https://cdsarc.unistra.fr/viz-bin/ReadMe/I/350?format=html&tex=true#sRM3.63


Berechnung von Empfindlichkeitskoeffizienten für Messunsicherheit

Haben Sie schon einmal daran gedacht, Sensitivitätskoeffizienten bei der Schätzung der Messunsicherheit zu verwenden?

Vielleicht haben Sie Sensitivitätskoeffizienten gesehen, die in einem Unsicherheitsbudget verwendet wurden, und sich gefragt, warum sie verwendet wurden oder wie sie berechnet wurden.

Wenn Sie eine der obigen Aussagen mit Ja beantwortet haben, ist dieser Leitfaden für Sie.

Heute lernen Sie alles, was Sie jemals über die Verwendung von Sensitivitätskoeffizienten zur Berechnung der Unsicherheit wissen müssen.

In dieser Anleitung erfahren Sie:

• Was sind Sensitivitätskoeffizienten,
• Warum Sensitivitätskoeffizienten wichtig sind,
• Wenn Sie Sensitivitätskoeffizienten verwenden sollten,
• Wenn Sie keine Sensitivitätskoeffizienten verwenden sollten und
• So berechnen Sie Sensitivitätskoeffizienten (Schritt für Schritt)

Wenn Sie also mehr über Sensitivitätskoeffizienten erfahren möchten, lesen Sie weiter. Sie haben gerade den ultimativen Leitfaden für Empfindlichkeitskoeffizienten und Messunsicherheit gefunden.


CHANSEXAGN - Chandra Serendipitous Extragalactic X-Ray Source ID (SEXSI)/Spitzer AGN Katalog

Die Autoren haben die für sechs SEXSI-Felder verfügbaren Multi-Wellenlängen-Daten erweitert, indem sie Spitzer-Bildgebungsbeobachtungen erhalten. Alle sechs Bereiche haben tiefe Chandra-Röntgenbilder, optische Bildgebung und umfangreiche, tiefe optische Spektroskopie – die alle in Harrison et al. (2003, ApJ, 596, 944), Eckart et al. (2005, ApJS, 156, 35) und Eckart et al. (2006, ApJS, 165, 19). Die Autoren erhielten Mittelinfrarot-Bildgebung sowohl durch Archivierungs- als auch gezielte Spitzer-Programme, die Bildgebung bei 3,6, 4,5, 5,8 und 8 Mikrometer (um) von IRAC (PID 00017, 00064, 20694 und 20808) und Bildgebung bei 24 um von MIPS umfassen (PID 20808 und 00083). Diese Tabelle enthält photometrische Daten im mittleren IR-Bereich für 290 ausgewählte SEXSI-Quellen mit harter Röntgenstrahlung. Jeder der vier IRAC-Kataloge sowie der MIPS-Katalog wurden mit einem Suchradius von 2,5 Bogensekunden individuell auf die SEXSI-Röntgenquellenpositionen abgestimmt. Um eine falsche Übereinstimmungsrate zu berechnen, haben die Autoren den Röntgenquellenkatalog um 1' verschoben und mit den IRAC- und MIPS-Katalogen abgeglichen. Dieses gesamte Verfahren wurde sechsmal unter Verwendung verschiedener 1'-Verschiebungen wiederholt. Die resultierenden Falschübereinstimmungsraten betrugen 10,1 % (3,6 µm), 7,2 % (4,5 µm), 3,7 % (5,8 µm), 2,6 % (8,0 µm), 1 % (24 µm) und <1 % für Vierbanderkennung IRAC-Quellen.

Katalog Bibcode

Verweise

Herkunft

Parameter

Name
Der Name der Chandra SEXSI-Quelle, die die genehmigte Bezeichnung verwendet, d.h. 'CXOSEXSI JHHMMSS.s+DDMMSS'.

RA
Die Rektaszension des Infrarot-Gegenstücks zur Chandra-Quelle, wie sie von SExtractor aus der Spitzer-Astronomie bestimmt wurde.

Dezember
Die Deklination des Infrarot-Gegenstücks zur Chandra-Quelle, wie sie von SExtractor aus der Spitzer-Astronomie bestimmt wurde.

LII
Der galaktische Längengrad des Infrarot-Gegenstücks zur Chandra-Quelle.

BII
Der galaktische Breitengrad des Infrarot-Gegenstücks zur Chandra-Quelle.

Offset_RA
Die Differenz zwischen der korrigierten Röntgen-Rektaszension, bestimmt aus SEXSI II (CDS Cat. J/ApJS/156/35, verfügbar in der HEASARC-Datenbank als CHANSEXOID-Tabelle) und der Spitzer-Rektaszension. Dies ist größer als Null, wenn der Spitzer RA größer als der Chandra RA ist.

Offset_Dez
Die Differenz zwischen der korrigierten Röntgendeklination, ermittelt aus SEXSI II (CDS Cat. J/ApJS/156/35, in der HEASARC-Datenbank als CHANSEXOID-Tabelle verfügbar) und der Spitzer-Deklination. Dies ist größer als Null, wenn der Spitzer Dec größer als der Chandra Dec ist.

HB_Flux
Der an die galaktische Absorption angepasste 2-10 keV-Fluss der Chandra SEXSI-Quelle, in erg s -1 cm -2 .

Härte_Verhältnis
Das Härteverhältnis HR der Chandra SEXSI-Quelle, definiert als HR = (HS)/(H+S), wobei H die korrigierten Zählwerte im 2,0 - 10 keV-Band und S die korrigierten Zählwerte im extrahierten 0,5 - 2,0 keV-Band sind an der Position der Hardband-Erkennung.

Rmag_Limit
Dieser Parameter wird auf '>' gesetzt, wenn der angegebene R-Betrag eher eine Obergrenze als ein tatsächlicher Wert ist.

Rmag
Die R-Band-Größe des optischen Gegenstücks zur Chandra SEXSI-Quelle.

Rmag_Flag
Dieser Flag-Parameter gibt die Sicherheit und andere Eigenschaften der optischen Identifikation an, kodiert wie folgt:

Log_HB_Over_Opt_Flux
Der Logarithmus des Verhältnisses des Hardband-Flusses (2 - 10 keV) zum optischen Fluss.

Objekttyp
Die optisch-spektroskopische Klassifizierung der Quelle, wenn Quellen, die als 'unid' gekennzeichnet sind, keine spektroskopische Klassifizierung oder Rotverschiebung aufweisen:

Rotverschiebung
Die Rotverschiebung des Objekts, falls verfügbar.

Log_HB_Lx
Der Logarithmus der beobachteten 2 - 10 keV Leuchtkraft der Chandra SEXSI-Quelle, in erg s -1 , wie in SEXSI III angegeben (CDS Cat. J/ApJS/165/19, verfügbar in der HEASARC-Datenbank in der CHANSEXOID-Tabelle).

Log_NH
Der Logarithmus der am besten angepassten H I-Säulendichte NH wie aus den Röntgendaten bestimmt, in Atomen cm -2 . Wenn der am besten passende Wert von NH 0,0 ist, wird für log N . ein Wert von 0,0 angegebenH. Siehe Eckart et al. (2006, ApJS, 165, 19) für Einzelheiten zu diesen Berechnungen.

IRAC_3p6_um_Flux
Die Flussdichte des Infrarot-Gegenstücks zur Chandra SEXSI-Quelle im Spitzer/IRAC 3.6um-Bild in microJansky (uJy). Der Wert ist leer, wenn die Quelle in diesem Band nicht beobachtet wurde.

IRAC_3p6_um_Flux_Error
Der damit verbundene Fehler in der Flussdichte des Infrarot-Gegenstücks zur Chandra SEXSI-Quelle im Spitzer/IRAC 3,6um-Bild, in microJansky (uJy). Die Fehler sind >

10 % der Quellflussdichte aufgrund der konservativen Schätzung der Autoren der systematischen Unsicherheiten in den Spitzer-Daten.

IRAC_3p6_um_Flux_Flag
Dieser Parameter kennzeichnet die zugehörige Flussdichte für die Quelle, die wie folgt codiert ist:

IRAC_4p5_um_Flux
Die Flussdichte des Infrarot-Gegenstücks zur Chandra SEXSI-Quelle im Spitzer/IRAC 4.5um-Bild in microJansky (uJy). Der Wert ist leer, wenn die Quelle in diesem Band nicht beobachtet wurde.

IRAC_4p5_um_Flux_Error
Der damit verbundene Fehler in der Flussdichte des Infrarot-Gegenstücks zur Chandra SEXSI-Quelle im Spitzer/IRAC 4.5um-Bild, in microJansky (uJy). Die Fehler sind >

10 % der Quellflussdichte aufgrund der konservativen Schätzung der Autoren der systematischen Unsicherheiten in den Spitzer-Daten.

IRAC_4p5_um_Flux_Flag
Dieser Parameter kennzeichnet die zugehörige Flussdichte für die Quelle, die wie folgt codiert ist:

IRAC_5p8_um_Flux
Die Flussdichte des Infrarot-Gegenstücks zur Chandra SEXSI-Quelle im Spitzer/IRAC 5.8um-Bild, in microJansky (uJy). Der Wert ist leer, wenn die Quelle in diesem Band nicht beobachtet wurde.

IRAC_5p8_um_Flux_Error
Der damit verbundene Fehler in der Flussdichte des Infrarot-Gegenstücks zur Chandra SEXSI-Quelle im Spitzer/IRAC 5.8um-Bild, in microJansky (uJy). Die Fehler sind >

10 % der Quellflussdichte aufgrund der konservativen Schätzung der Autoren der systematischen Unsicherheiten in den Spitzer-Daten.

IRAC_5p8_um_Flux_Flag
Dieser Parameter kennzeichnet die zugehörige Flussdichte für die Quelle, die wie folgt codiert ist:

IRAC_8p0_um_Flux
Die Flussdichte des Infrarot-Gegenstücks zur Chandra SEXSI-Quelle im Spitzer/IRAC 8.0um-Bild in microJansky (uJy). Der Wert ist leer, wenn die Quelle in diesem Band nicht beobachtet wurde.

IRAC_8p0_um_Flux_Error
Der damit verbundene Fehler in der Flussdichte des Infrarot-Gegenstücks zur Chandra SEXSI-Quelle im Spitzer/IRAC 8.0um-Bild, in microJansky (uJy). Die Fehler sind >

10 % der Quellflussdichte aufgrund der konservativen Schätzung der Autoren der systematischen Unsicherheiten in den Spitzer-Daten.

IRAC_8p0_um_Flux_Flag
Dieser Parameter kennzeichnet die zugehörige Flussdichte für die Quelle, die wie folgt codiert ist:

MIPS_24_um_Flux
Die Flussdichte des Infrarot-Gegenstücks zur Chandra SEXSI-Quelle im Spitzer/MIPS 24um-Bild, in microJansky (uJy). Der Wert ist leer, wenn die Quelle in diesem Band nicht beobachtet wurde.

MIPS_24_um_Flux_Error
Der damit verbundene Fehler in der Flussdichte des Infrarot-Gegenstücks zur Chandra SEXSI-Quelle im Spitzer/MIPS 24um-Bild, in microJansky (uJy). Die Fehler sind >

10 % der Quellflussdichte aufgrund der konservativen Schätzung der Autoren der systematischen Unsicherheiten in den Spitzer-Daten.

MIPS_24_um_Flux_Flag
Dieser Parameter kennzeichnet die zugehörige Flussdichte für die Quelle, die wie folgt codiert ist:

Klasse
Die HEASARC-Browse-Objektklassifizierung, basierend auf dem Wert des Parameters object_type.


2. Größenordnungsunsicherheiten

2.1. Verschiedene Arten von Größen und ihre Fehler

[6] Für Größen gibt es viele Definitionen und Konventionen. Zum Beispiel das Advanced National Seismic System (ANSS) [ Benzet al., 2005 ] berichtet über lokale (Richter-Typ) Magnituden, Körperwellen-Magnituden, Moment-Magnituden und Coda-Dauer-Magnituden. Nur wenige Erdbebenkataloge verwenden einheitlich denselben Magnitudentyp, um Erdbeben zu messen. Der (Harvard) Centroid Moment Tensor (CMT)-Projektkatalog [z. B. Ekström et al., 2005 ] ist eine seltene Ausnahme eines relativ einheitlichen globalen Katalogs.

[7] Grundsätzlich muss jeder Magnitudentyp separat behandelt werden, um Unsicherheiten zu ermitteln. Für nicht physikbasierte Größen (d. h. alle außer der Momentengröße) kann dies besonders schwierig sein, da es sich per Definition um Konventionen handelt und nicht unabhängig verifiziert werden können. Wir werden den Begriff Intramagnitude-Unsicherheiten verwenden, um sich auf solche individuellen Magnitudenfehlerschätzungen zu beziehen.

[8] Erdbebenvorhersagbarkeitsexperimente wie RELM und CSEP verwenden einen sogenannten „autorisierten Datenstrom“ für ihre „natürlichen Labors“ [ Schörlemmer et al., 2007]. Für Kalifornien ist dieser Datenstrom der ANSS-Katalog. Modelle akzeptieren die aufgeführten Magnituden, um Vorhersagen zukünftiger Ereignisse zu generieren, unabhängig von der Art der aufgeführten Magnituden. Daher müssen wir auch die Unsicherheiten zwischen den verschiedenen Arten von Magnituden berücksichtigen: die Unsicherheiten zwischen den Magnituden.

2.2. Intramagnitude Unsicherheiten

[9] Im Idealfall werden Intramagnitude-Unsicherheiten von Erdbebenkatalogen auf der Grundlage von Kenntnissen über die seismischen Instrumente und den Inversionsalgorithmus berichtet. Leider fehlen solche Informationen in Katalogen oft. Eine seltene Ausnahme bildet der Katalog des Northern California Seismic Network (NCSN), der vom U.S. Geological Survey (USGS) und dem Berkeley Seismological Laboratory der UC Berkeley betrieben wird. Wir untersuchen die vom NCSN in Abschnitt 2.2.2 gemeldeten Unsicherheiten.

[10] Eine einfache Alternative zur unabhängigen Untersuchung dieser Fehler besteht darin, die Magnitudenschätzungen für dasselbe Ereignis aus verschiedenen Netzwerken und Inversionsalgorithmen, z. B. aus verschiedenen Katalogen, zu vergleichen. Während man nicht davon ausgehen kann, dass eine Maßnahme korrekt ist und auf den Fehler der anderen hinweist, kann man dennoch einige Schlussfolgerungen ziehen, insbesondere wenn die Kataloge einheitlich und vertrauenswürdig erscheinen (festgestellt z. B. durch Überprüfung der Vollständigkeit, Stabilität und anderer bekannter statistischer Eigenschaften). Wir untersuchen daher die Unterschiede in den Momentgrößen, wie sie von zwei relativ gut untersuchten und vertrauenswürdigen Katalogen berichtet werden: dem (Harvard) Centroid Moment Tensor (CMT)-Katalog [ Dziewonskiet al., 1981 Dziewonski und Woodhouse, 1983 Ekström et al., 2005 ] und dem USGS-Katalog Momenttensor (MT) [ Sipkin, 1986 , 1994 ].

2.2.1. Unsicherheit der Momentengröße aus den (Harvard) CMT- und USGS MT-Katalogen

[11] Die Unsicherheiten der Momentengröße wurden zuvor untersucht, indem Schätzungen aus verschiedenen Katalogen verglichen wurden Sipkin [1986] , Helffrich [1997] , und Kagan [2002, 2003] . Standardabweichungen verbesserten sich im Laufe der Zeit von 0,21 [ Sipkin, 1986 ] bis 0,08 [ Kagan, 2003]. Da wir daran interessiert sind, verrauschte Magnituden zu simulieren, um ihren Einfluss auf seismische Ratenvorhersagen und Vorhersageexperimente zu untersuchen, aktualisieren und erweitern wir diese Analysen der Momentenmagnituden, um die gesamte Verteilung zu bestimmen.

[12] Wir haben den Harvard CMT-Katalog vom 1. Januar 1977 bis 31. Juli 2006 verwendet, der 25066 oben genannte Ereignisse enthält contains MW ≥ 3 und schrieb einen Algorithmus, um seine Ereignisse mit dem USGS MT-Katalog von Januar 1980 bis 31. Juli 2006 abzugleichen, der oben 4952 Ereignisse enthält MW ≥ 3. Beide Kataloge sind unter http://neic.usgs.gov/neis/sopar/ erhältlich.

[13] Wir betrachten zwei Einträge aus den beiden Katalogen als auf das gleiche Ereignis verweisend, wenn sie zeitlich weniger als 1 Minute und räumlich weniger als 150 km voneinander entfernt sind. Kagan [2003] verwendet die gleichen Definitionen. In Übereinstimmung mit seinen Erkenntnissen sind die Matches relativ robust in Bezug auf den Platz, aber weniger robust in Bezug auf die zeitliche Bedingung.

[14] Unter Verwendung dieser Bedingungen haben wir 4923 Ereignispaare abgeglichen. Wir berechneten dann die Momentengröße MW vom skalaren Moment M0 (in Newtonmeter) unter Verwendung der Beziehung MW = 2/3 log10 (M0) − 6 [ Kagan, 2003 ] und analysierte die Unterschiede in MW zwischen Harvard CMT und USGS MT Schätzungen. Abbildung 1 zeigt die Verteilung der Unterschiede in den Schätzungen der Momentengröße aus den beiden verschiedenen Katalogen.

[16] Um den Effekt der Schwänze abzuschätzen, haben wir den Skalenparameter determined νc als Funktion des Schwellenwerts, oberhalb dessen wir die (einseitige Exponential-)Verteilung anpassen. Abbildung 2 zeigt die resultierenden Maximum-Likelihood-Schätzungen von νc, einschließlich 95 % Konfidenzintervall. Bestätigung des Vorhandenseins der Fettschwänze, die geschätzte E-Faltungsskala νc steigt mit dem Schwellenwert von etwa 0,07 auf etwa 0,1 an.

[17] Die Verteilung der Unterschiede zwischen Magnitudenschätzungen ist nicht dieselbe wie die Verteilung der einzelnen Magnitudenunsicherheiten in einer Schätzung (siehe nächster Abschnitt 2.2.2 für eine solche direkte Schätzung). Um individuelle Unsicherheiten zu erhalten, könnte man annehmen, dass beide Unsicherheiten identisch und unabhängig verteilt sind (i.i.d.), wobei in diesem Fall die Verteilung der Differenzen die Faltung der beiden individuellen Verteilungen ist. Bei Gauß-Verteilungen ist die Faltung auch eine Gauß-Verteilung mit einer Varianz gleich der Summe der einzelnen Varianzen. Leider ist die Laplace-Distribution nicht mit derselben Eigenschaft ausgestattet. Die einzelnen Unsicherheiten können jedoch nicht gaußförmig sein, da auch ihre Differenzen gaußförmig wären. Das Vorhandensein von exponentiell oder noch langsamer abfallenden Schwänzen weist darauf hin, dass die einzelnen Unsicherheiten zumindest exponentiell abfallende Schwänze aufweisen. Beispielsweise konnten wir eine ungefähre Laplace-Verteilung mit dem Skalenparameter 0.1 für die Differenzen erhalten, indem wir für jede einzelne Variable eine Laplace-Verteilung mit dem Parameter 0.07 verwendet haben.

2.2.2. Vom NCSN gemeldete Intramagnitude-Unsicherheiten

[18] Im Rahmen des CSEP-Erdbebenvorhersageexperiments sollten die wichtigen Intramagnitude-Unsicherheiten in Kalifornien und in den Regionen, in denen weltweit Naturlabore eingerichtet werden, bewertet werden. Für Kalifornien ist der Erdbebenkatalog, der die Daten für die RELM- und CSEP-Experimente liefert, der Verbundkatalog von ANSS.

[19] Die ANSS ordnet jedem beitragenden seismischen Netzwerk sogenannte „autoritative“ Regionen zu, was bedeutet, dass in diesen Regionen nur Daten aus ihrem designierten Netzwerk akzeptiert werden. Das Northern California Seismic Network (NCSN) erfüllt diese Rolle für Nordkalifornien. Die NCSN-Daten stammen wiederum aus zwei Quellen: dem Berkeley Seismological Laboratory und dem USGS in Menlo Park.

[20] Nur das USGS liefert dem ANSS-Katalog routinemäßig Unsicherheiten, basierend auf Inversionen durch das Hypoinverse-Programm [ Klein, 2002]. Das Programm meldet den Median Absolute Difference (MAD) zwischen der Summenmagnitude und den Magnituden der anderen Meldestationen. Er ist leider nur ein Maß (der Median) der gesamten Verteilung der Stationsgrößen. Wenn die Verteilungen stark schwankend sind, kann der Median bei großer Variabilität ein falsches Gefühl für eine gute Messung vermitteln.

[21] Wir haben alle Erdbeben in der maßgeblichen Region des ANSS des NCSN gesammelt. Wir haben Daten vom 1. Januar 1984 bis zum 31. Dezember 2006 (einschließlich) über einem Größenschwellenwert ausgewählt ichdas = 3. Die Daten mit MAD-Werten können von der Website http://www.ncedc.org/ncedc/catalog-search.html durch Auswahl der Ausgabe im „rohen“ Format abgerufen werden. Dies ergab 3073 Ereignisse mit gemeldeten MAD-Werten.

[22] Abbildung 3 zeigt ein Streudiagramm der MAD gegen ihre Dauergrößen. Um zu testen, ob der MAD mit zunehmender Größe abnimmt, haben wir die Größen in Bins der Größe 0,5 unterteilt und den mittleren MAD für jeden Bin berechnet. Im Bereich 3,5 < ich < 4,0 (2420 Ereignisse), der mittlere MAD betrug 0,15 für 4,0 < ich < 4,5 (372 Ereignisse), der Mittelwert war 0,16 für 4,5 < ich < 5,0 (22 Ereignisse), der Mittelwert war 0,20. Der Behälter 5.0 < ich < 5,5 hatte einen Mittelwert von 0,27, zählte aber nur 2 Ereignisse. Anstelle einer Abnahme der MAD mit zunehmendem Ausmaß sehen wir einige Hinweise auf eine Zunahme.

[23] Abbildung 4 zeigt die Kerneldichteschätzung der pdf der MAD-Werte, die kumulative Verteilungsfunktion (cdf) und die Überlebensfunktion. Als Referenz haben wir auch das 99. Perzentil eingeschlossen. Während der Mittelwert der Werte 0,15 und die Standardabweichung 0,1 betrug, wurde die 99%-Konfidenzgrenze erst bei 0,59 erreicht. Dass die Verteilung stark nicht-Gaußisch ist, ist auch aus der unteren Abbildung ersichtlich. Die Tails fallen langsamer ab als exponentiell, was darauf hindeutet, dass Ausreißer relativ häufig auftreten. Tatsächlich lag der maximale MAD-Wert bei 1,72.

[24] Abbildung 5 zeigt ein Streudiagramm der MAD-Werte gegen die Anzahl der Stationen, die an der Berechnung der Größe jeder Coda-Dauer und ihres MAD-Werts beteiligt sind. Wenn die Anzahl der beteiligten Stationen sehr klein ist, sehen wir eine große Streuung. Andererseits erhöhen sich die kleinsten MAD-Werte auf etwa 0,1, wenn mehr Stationen beteiligt sind. Dies deutet darauf hin, dass MAD-Werte unter 0,1 auf zu wenige Stationen in der Berechnung zurückzuführen und wahrscheinlich unzuverlässig sind. (Gleichzeitig bemerken wir, dass a MD = 5,32 Ereignis mit MAD 0,38 wurde von 328 Stationen aufgezeichnet, was darauf hindeutet, dass große MAD-Werte real sind.)

[25] Wenn die Anzahl von Stationen, die ein Ereignis registrieren, klein ist, impliziert dies vermutlich, dass das Ereignis klein und/oder entfernt ist. Angesichts der Tatsache, dass viele Ereignisse von weniger als 10 Stationen lokalisiert werden, haben wir möglicherweise Beweise dafür gefunden, dass das ANSS in der maßgeblichen Region des NCSN bis zu nicht vollständig ist ich = 3, weil sogar einige MD ∼ 5 Ereignisse werden nur durch wenige Stationen eingeschränkt.

[26] Schließlich ist es schwierig, die Gruppe der großen MAD-Werte zu interpretieren, wenn nur wenige Stationen beteiligt sind. Vielleicht gehören die Ereignisse zu einer bestimmten Gruppe, die durch eine Region oder einen Zeitraum mit besonderen Eigenschaften definiert ist, die vom Hypoinverse-Programm nicht gut modelliert werden.

2.3. Intermagnitude-Unsicherheiten

[27] Viele Studien haben die Beziehung einer Magnitudenskala zu einer anderen und ihre zufällige Streuung untersucht. Einige davon besprechen wir hier. Anschließend analysieren wir zwei Datensätze: (1) die Differenzen zwischen den CMT-Momentgrößen und ihren entsprechenden Körper- oder Oberflächenwellengrößen aus dem Katalog der provided Vorläufige Bestimmung der Epizentren (PDE) [2001] (Abschnitt 2.3.1) und (2) die Unterschiede zwischen Dauer und lokalen Magnituden im NCSN (Abschnitt 2.3.2).

[28] Sipkin [1986] , Dziewonski und Woodhouse [1983] und Harte und Vere-Jones [1999] verglichen Körperwelle ichb und Oberflächenwelle MS Größen aus der PDE mit dem USGS MW, die CMT MW, und ML aus einem lokalen neuseeländischen Katalog. Die zufällige Streuung erreichte eine Größeneinheit. Küge [1992] und Patton [2001] fanden systematische Unterschiede in verschiedenen Körperwellenstärken in der Größenordnung von 0,2 bis 0,3 Einheiten. Kagan [2003] fand das ichb zu MW Umrechnungen können zu Streuungen mit einer Standardabweichung von 0,41 führen. Er kam auch zu dem Schluss, dass die Umrechnung konventioneller Größen in Momentengrößen zu Unsicherheiten führt, die das Drei- bis Vierfache der Fehler bei Momentengrößenschätzungen betragen (d. h. 0,24 bis 0,32).

2.3.1. Momentengröße im Vergleich zur Körper- und Oberflächenwellengröße in den CMT- und PDE-Katalogen

[29] Der Harvard CMT-Katalog berechnet Momentgrößen, wenn er entweder vom NEIC über das PDE-System oder vom ISC eine Benachrichtigung über ein großes Ereignis erhält. Wir haben die seismischen Momente des Harvard CMT mit dem ursprünglichen PDE-Körper verglichen (ichb) und/oder Oberflächenwelle (MS) Größenordnungen. Dass große systematische Unterschiede zwischen diesen Größen bestehen, ist bekannt. Hier betrachten wir die Unterschiede zwischen den Harvard MW und die PDE ichb und MS Schätzungen, um ihre Größenordnung zu bewerten.

[30] Wir verwendeten den globalen Harvard CMT-Katalog vom 1. Januar 1976 bis 31. Dezember 2005 (http://www.globalcmt.org/CMTfiles.html). Wir haben alle Ereignisse ausgewählt, denen die Quelle „PDE“ (21450 Ereignisse) zugewiesen wurde, und ihre skalaren seismischen Momente mit der Gleichung . in Momentgrößen umgerechnet MW = 2/3 log10 (M0) − 6 [ Kagan, 2003]. Wir fanden 21435 ichb und 13363 MS Werte, die wir von ihren entsprechenden abgezogen haben MW Größenordnungen. Abbildung 6 zeigt die resultierenden Unterschiede als Funktion des Harvard CMT MW. Es gibt systematische Trends und zufällige Streuungen. Die Körperwellengröße ichb systematisch unterschätzt MW für ungefähr MW > 5.2. Schon seit ichb auf relativ kurzen Perioden basiert, steigt die Energie in diesen Frequenzbändern nicht über diesen Wert hinaus an und die Skala sättigt sich. Die Oberflächenwellengröße MS auch unterschätzt MW systematisch aber besonders für MW < 7. Die Unterprognose wird durch die Differenzen erfasst, die 0,26 für . betragen ichb und 0,42 für MS. Das zufällige Rauschen kann durch die Standardabweichungen quantifiziert werden, die 0,29 für betragen ichb und 0,26 für MS.

2.3.2. Dauer-Magnitude versus lokaler Magnitude im NCSN-Katalog

[31] Der NCSN-Katalog berichtet sowohl die Coda-Dauer MD und maximale Amplitude (lokal) Betrag ML.Wir haben Daten vom 1. Januar 1984 bis 31. Dezember 2006 in der Region 33° bis 43° Breite und –120° bis -115° Länge verwendet. Wir haben 2733 Events gefunden, für die beide MD und ML gemeldet wurden (wir verlangten auch, dass mindestens einer von ihnen größer oder gleich ist) M(·) = 3).

[32] Abbildung 7 zeigt einen festen Schätzwert der Kerneldichte (durchgezogen) der pdf der Differenzen Δ. Der größte Unterschied zwischen den beiden betrug 2,87 Magnitudeneinheiten (beachten Sie, dass die x Achse wurde bei ±1) geschnitten. Der Mittelwert ihrer Differenzen betrug −0,015, was im Wesentlichen keine systematische Verzerrung zeigt. Die Standardabweichung betrug 0,3, während der Parameter der E-Faltungsskala 0,2 beträgt. Ebenfalls gezeigt sind Anpassungen der Daten an eine Gaußsche Verteilung (gestrichelter Mittelwert gleich –0,015 und Standardabweichung gleich 0,3) und an eine Laplace-Verteilung (strichpunktierter Median gleich –0,04 und Skalenparameter gleich 0,2). Während keine der beiden Anpassungen den zentralen Teil der PDF-Datei gut annähert, bietet die Laplace-Verteilung viel bessere Anpassungen an die Masse und das Ende der Daten. Die Gaußsche Verteilung unterschätzt die Wahrscheinlichkeit von Ausreißern deutlich.

2.4. Zusammenfassung der Größenunsicherheit

[33] Zuerst haben wir Schätzungen der Momentengröße aus den CMT- und USGS-MT-Katalogen verglichen. Wir haben festgestellt, dass die Laplace-Verteilung eine gute Annäherung an den Großteil der Größenunterschiede ist, aber die Ausläufer unterschätzt. Unsere Charakterisierung der gesamten Verteilung der Magnitudenunterschiede impliziert, dass einzelne Unsicherheiten mit exponentiell oder sogar langsamer abfallenden Ausläufern verteilt sind.

[34] Zweitens haben wir einen Datensatz analysiert, der für CSEP-Vorhersagbarkeitsexperimente direkt relevant ist. Wir analysierten die Median Absolute Difference (MAD)-Werte, ein Größenunsicherheitsmaß, das in der maßgeblichen Region des NCSN im ANSS gemeldet wurde. Wir haben festgestellt, dass (1) die MAD-Werte bis zu 1,71 mit einem Durchschnitt von 0,15 schwanken, (2) es keine Hinweise darauf gibt, dass die Größenunsicherheit mit zunehmender Größe abnimmt, (3) die Region möglicherweise nicht vollständig ist bis auf ichd = 3, (4) MAD-Werte unter 0,1 erscheinen unzuverlässig und (5) das 99. Perzentil der MAD-Werte wird erst bei 0,59 erreicht.

[35] Wir haben auch Unsicherheiten zwischen den Größen betrachtet. Diese können extrem groß sein und systematische Unterschiede beinhalten. Wir fanden heraus, dass die PDE-Körper- und Oberflächenwellengrößen systematisch kleiner sind (mit einem Mittelwert von 0,26 bzw. 0,42) und zufällig gestreut sind (mit Standardabweichungen von 0,29 bzw. 0,26).

[36] Schließlich untersuchten wir die Unterschiede zwischen der Dauer von NCSN und der lokalen Größe. Wir stellten fest, dass die Laplace-Verteilung mit dem Skalierungsfaktor 0,2 wiederum eine angemessene Anpassung an die Unterschiede lieferte, sodass einzelne Unsicherheiten exponentielle oder dickere als exponentielle Schwänze aufweisen.


Das Universum abbilden

Von zentraler Bedeutung für das Verständnis von Unsicherheiten ist die Gaußsche Verteilung oder die Normalverteilung, wie sie oft genannt wird. Aus der Gaußschen Verteilung rechtfertigen wir das Hinzufügen von Quadratur-unabhängigen Fehlern und zum Beispiel ist der Mittelwert einer Verteilung tatsächlich der beste Schätzwert für die Verteilung. Wenn wir Unsicherheiten melden, werden Sie diese normalerweise explizit mit ihrer Messung geschrieben finden, z. B. v = 45 +/- 10 km/s. Dies ist jedoch nicht die ganze Geschichte. Sie können Ihrer Messung auch eine Wahrscheinlichkeit zuordnen. Wenn in diesem Beispiel 2 km/s gleich der Standardabweichung sind, können Sie sagen, dass Ihre Unsicherheit 1 Sigma beträgt und die damit verbundene Wahrscheinlichkeit 68 % beträgt, was bedeutet, dass Ihre Messung in 68 % der Fälle abfällt innerhalb von +/- 1 Sigma.

In den meisten Statistikbüchern (z. B. A Practical Guide to Data Analysis for Physical Science Students by Louis Lyons An Introduction to Error Analysis: The Study of Unsicherheits in Physical Measurements von John R. Taylor) gibt es Tabellen, die die Wahrscheinlichkeiten. Wenn Sie von einer normalisierten Verteilung sprechen, dann

1 Sigma = 68 %, 2 Sigma = 95,4%, 3 Sigma = 99,7 %, 4 Sigma = 99,99 % und mehr.

Eine andere Möglichkeit, dies zu betrachten, ist die 1-Wahrscheinlichkeit. 1 Sigma bedeutet also, dass Sie in 32 % der Fälle 45 +/- 10 km/s nicht messen. Bei 3 Sigma misst du nicht 45 +/- 10 km/s, sondern nur 0,3% der Zeit.

Dies mag eine verwirrende Art sein, über Unsicherheiten zu sprechen, aber schauen wir uns ein Beispiel an.

Sie und eine andere Person nehmen Messungen vor, um die Geschwindigkeit eines Bootes zu bestimmen. Sie finden v_boat = 45 +/- 10 km/s und melden, dass dies ein 1-Sigma-Fehlerbalken ist, dh wenn Sie diese genaue Messung in 68% der Fälle erneut durchführen würden, wäre Ihre Messung 45 +/- 10 km/s.

Die andere Person findet auch v_boat = 46 +/- 10 km/s, berichtet aber, dass dies ein 4-Sigma-Fehler ist. Dies bedeutet, dass sie bei einer Wiederholung des Experiments in 99,99% der Fälle eine Geschwindigkeit von 46 km/s finden würden. Die Abbildungen unten zeigen die Wahrscheinlichkeitsverteilungsfunktion (PDF) (denken Sie an Gauß) als Funktion der Geschwindigkeit. Der oberste Plot (Kurve in Blau) ist das v_boat = 45 km/s. Das untere Diagramm in Rot hat die 55 km/s-Messung. Mit den gestrichelten Linien sind verschiedene Konfidenzniveaus dargestellt. Sie sollten sofort bemerken, dass die Kurven sehr unterschiedlich sind.

Es stimmt zwar, dass Ihre Messung und ihre Messung übereinstimmen, was bedeutet, dass sich die beiden Messungen unter Berücksichtigung der Unsicherheit überschneiden, ihre Messung hat jedoch die genauere Messung (beachten Sie, dass ich nicht gesagt habe, dass die genauere Messung vorliegt, da es ein Unterschied zwischen den beiden Aussagen.)

Setzen wir Ihre Messung in einen Kontext. Um zu sagen, dass Sie in 99,99% der Fälle 45 km/s messen würden, wäre Ihr 4-Sigma-Fehlerbalken 4*10 km/s = 40 km/s. Ihre 4-Sigma-Messung ist also v_boat = 45 +/- 40 km/s. Wenn Sie es in diesen Kontext stellen, können Sie sehen, warum die andere Person genauere und vielleicht nützlichere Messungen hat. Die beiden folgenden Abbildungen verdeutlichen dies. Die obere Abbildung zeigt das PDF beider Messungen. Die gestrichelten Linien repräsentieren 4-Sigma-Fehler. Schon beim Betrachten des Plots können Sie sehen, dass die rote Kurve genauer ist, weil sie schmaler ist als die blaue Kurve. Die untere Abbildung zeigt die gleichen Kurven, aber jetzt sind die entsprechenden 1-Sigma-Fehler in den gestrichelten Linien angegeben.

Manchmal ist es nicht so einfach, die Ergebnisse einer PDF-Datei im Auge zu behalten. In diesem Fall sollten Sie darüber nachdenken, die Fläche unter den Kurven zu berechnen, um die beiden zu vergleichen, aber dies führt zu einer besonderen Art von statistischer Analyse, die als Bayessche Inferenz oder Bayessche Analyse bezeichnet wird, die außerhalb des Anwendungsbereichs liegt dieses Labors. Es ist jedoch eine sehr nützliche (und beliebte) statistische Methode.

Chi-Quadrat-Test für eine Verteilung

Bei Anpassungen an Daten, wie der Anpassung nach der Methode der kleinsten Quadrate, ist es im Allgemeinen gut, eine Schätzung der Anpassungsqualität bereitzustellen, was sich von der Unsicherheit der Steigung oder des Achsenabschnitts unterscheidet. Es gibt eine Vielzahl von Methoden, um Verteilungen oder Anpassungen zu testen. Einer, der am einfachsten zu verstehen und sehr verbreitet ist, ist der Chi-Quadrat-Test.

Beachten Sie, dass die Leute oft über den reduzierten Chi-Quadrat-Test sprechen, der im Wesentlichen ein normalisierter Wert ist, sodass der reduzierte Chi-Quadrat-Test im Durchschnitt 1 sein sollte. Wenn er viel größer als eins ist, passen die beobachteten Ergebnisse nicht in das Modell. Wenn es weniger als eins ist, ist es im Allgemeinen zufriedenstellend. Dies kann jedoch auch darauf hinweisen, dass die Fehler zu groß sind.

Was das Verständnis angeht, ist der reduzierte Chi-Quadrat-Test intuitiver und in der Regel genügt es, den Chi-Quadrat-Wert durch (Anzahl der Datenpunkte - Freiheitsgrade) zu dividieren, also ist es nicht zu viel mehr work (once, of course you figure out how many degrees of freedom you have in your fit.)


How can I calculate the uncertainties in magnitude like the CDS does? - Astronomie

Understanding statistical inference is one of the most important skills an astronomer can develop. Moreover, it is one of the most important life skills you can possess many political controversies or travesties of justice might be avoided if society at large had a better statistical literacy. Yet it tends to be something that undergraduate students avoid. In the next two lectures, our aims are to equip you with the basic statistical skills you need, but also to persuade you of their importance! Much of this first lecture should be revision of material you have already covered in your course. However, the second lecture assumes you have mastered this material, so I am covering it here to be sure.

To some degree it doesn't matter, as long as we can get the same result under either interpretation. In this lecture, we will take the frequentist view. In the next lecture, we shall consider the alternative which (in my opinion) can provide a more intuitive way of thinking about more complex statistical questions.

Some definitions

We define probability by imagining repeatedly taking some measurement, and looking to see if event (A) occurs. The probability (P(A)) of event (A) is just the fraction of times that (A) occurs. Closely connected is the idea of a random variable (x), where each time you measure it's value, you get a different answer. Often (x) is a continuous variable that can take any value. We define the probability density function (p(x)) so that (p(x)dx) is the probability that (x) is in the range (x) to (x + dx).

Calculus of probabilities

Suppose we have two events that could occur (A) and (B). For example, we might roll a dice and get either a 1 or a 6. The probability that either (A) or (B) occur is
[P(A , < m or>, B) = P(A) + P(B).]
If we roll two dice, what is the joint probability that we get both (A) and (B)? If the two events are exclusive - that is they can't both occur in one dice roll - then
[P(A,B) = P(A) , P(B).]
However, these formulae do not work if the two events are not exclusive. For example, when drawing cards from a pack, we could draw a red card ((A)) or we could draw an ace ((B)). Of course, we can also draw the ace of diamonds! For these types of events:
egin
P(A,B) &= P(A|B) , P(B) = P(B|A) , P(A)
P(A , < m or>, B) &= P(A) + P(B) - P(A,B).
end
Where the notation (P(A|B)) means the probability that (A) occurs given that (B) occurs, often called the conditional probability. A graphical proof of the second formula is shown in figure 90. We can re-arrange the first formula to show that
[P(B|A) = frac,]
which is known as Bayes Theorem. It seems trivial, but we will see next lecture that it has profound consequences for how we interpret scientific data.

Figure 90: A graphical representation of (P(A , < m or >, B)). Top: Mutually exclusive events, so (P(A , < m or >, B) = P(A) + P(B)). Bottom: These events are not exclusive, so (P(A , < m or >, B) = P(A) + P(B) - P(A,B) ).

What does (x = mu pm sigma) actually mean?

Physics students are constantly being nagged to provide error bars on their measurements. But what do the error bars actually mean? Unless the author explicitly tells you, it's impossible to be certain. An error bar is a short-hand way of expressing the probability distribution function of the measurement (p(x)). Usually, it is a shorthand for saying that (p(x)) is a Gaussian distribution with a mean of (mu) and a standard deviation of (sigma):
[p(x) = frac<1>> exp <2sigma^2> ight]> .]
The easiest way of thinking about this is the Bayesian way (we'll hear more about Bayesian statistics in the next lecture). Under that world view, (p(x)) represents our confidence about various values of (x). When we quote an error bar, we are normally assuming that this knowledge is represented by the Gaussian distribution. This is not a bad assumption because it is very often true. For example, the Poisson distribution which governs counting objects tends towards a Gaussian distribution for large N. The keen student may also want to look up the Central Limit Theorem and it's counterpart, the Fuzzy Central Limit Theorem, which show that most random processes produce Gaussian distributions.

Since the Gaussian distribution underlies the true meaning of error bars, let us look at some of its properties.

The Gaussian probability distribution

The shape of the Gaussian probability distribution is shown in figure 91. Probably one of the most important properties of the Gaussian distribution is the fact that , if (x) is a Gaussian random variable with mean (mu) and standard deviation (sigma), there is a roughly 30% chance that a measurement of (x) will yield a value greater which is 1(sigma) or more away from the mean. Since our error bars are shorthand for (sigma), this can be an easy way of checking if our error estimates are correct - see figure 92.

Figure 91: The Gaussian probability distribution (p(x) = frac<1>> exp <2sigma^2> ight]>). The probability of (x) lying 1(sigma) away from the mean (mu) is roughly 68%. There is a roughly 95% chance of lying 2(sigma) away from the mean, and a 99.7% chance of lying 3(sigma) away.

Figure 92 - Top: Correctly sized error bars, as expected roughly one third of the points lie 1(sigma) or more away from the 'true' value. Middle: Error bars are two small. Bottom: Error bars are too large.

Estimating (mu) and (sigma)

This is all well and good, but of no use whatsoever unless we know what values to give to (mu) and (sigma). In some cases it is easy. For example, if we count (N) electrons in a pixel, we know that these are governed by the Poisson distribution, which looks like a Gaussian with (mu = N) and (sigma = sqrt N). Sometimes we will know from a piece of equipment what uncertainty our measurements should have. In the absence of all of these pieces of information we have to use the data themselves to estimate (mu) and (sigma).

Suppose we have (N) measurements of the same Gaussian random variable (x). It is possible to show that the sample mean is the best estimate of the mean, i,e
[ mu = frac<1> sum_i^N x_i.]
Similarly, the best estimate of the variance (sigma^2) is the sample variance
[ sigma^2 = frac.]

Combining and Transforming Variables

Suppose (x) is a Gaussian random variable, with mean (mu_x) and uncertainty (sigma_x) . For example, it could represent our degree of confidence in the flux of a star. What is the uncertainty on some transformation (y = f(x))? A relevant example would be to calculate the error on a magnitude, given the error on a measured flux. We can approximate (f(x)) with a Taylor expansion around (mu_x),
[f(x) approx f(mu_x) + frac igg|_ (x-mu_x) + ldots.]
This approximation is shown below in figure 93. Because (f(mu_x)) and ( frac ig|_ ) are just numbers, under this approximation, (y) is also a Gaussian random variable, and we can calculate its mean and standard deviation to work out the uncertainty on (y).

The mean is straightforward, since (mu_y = f(mu_x)). To calculate the standard deviation, inspection of figure 93 shows that
[mu_y + sigma_y = f (mu_x + sigma_x).]
Using the Taylor expansion approximation we have
egin
sigma_y &= f(mu_x + sigma_x) - mu_y
&= f(mu_x) + frac (mu_x + sigma_x - mu_x) - mu_y
&= mu_y + frac sigma_x - mu_y
sigma_y &= frac sigma_x
end
It is vital to note that this is an approximation! You can see from figure 93 that if (sigma_x) is large, the Taylor series becomes a poor approximation and the error bars will be incorrect. More seriously, (y) doesn't have a Gaussian PDF under a general transformation! A classic example of this is converting magnitudes to fluxes when the error is large.

Figure 93: An illustration of the transformation of a Gaussian random variable, (x). The transformation (y = f(x)) is shown as a thick curve. The first-order Taylor expansion is shown as a thin straight line. Note that in general, transforming (x) will mean (y) is nicht a Gaussian random variable, but if we approximate (y) with the Taylor expansion it will be. Dashed lines show the transformation between the means and standard deviations of (x) and (y).


Functions of multiple variables

We now look at the general case (y = f(x_1,x_2,x_3,ldots,x_n)), where (x_i) is a Gaussian random variable. For example, (x_i) might be the number of counts in pixel (i), and we want to work out the error on the total number of counts from a star, (y = sum_i^N x_i).

The formal derivation of the uncertainty on (y) is not straightforward, but we can get an idea by considering the contribution from each (x_i) in turn. From above, the uncertainty on (y) caused by uncertainty in (x_i) alone can be written
[sigma_ = frac sigma_.]
How are we to combine the contributions from each (x_i)? If we simply add them, a positive error may cancel with a negative error. This concept is obviously wrong - it's like saying that two uncertainties can somehow cancel and make an experiment more accurate. I hope it is intuitive that we should add the contributions in quadrature, e.g
[sigma_y^2 = left( frac ight) ^2 sigma_^2 + left( frac ight) ^2 sigma_^2 + ldots + left( frac ight) ^2 sigma_ ^2= sum_i^n left( frac ight) ^2 sigma_^2 ]
This is known as the equation for error propagation.

Some examples

The equation for error propagation looks like a nightmare. However, it is not as bad as it looks. Let us look at a few familiar examples to show that it produces the results we expect, before moving on to examples more relevant to astronomy.

Sums of two variables

Suppose we measure (x) and (y), each with uncertainties (sigma_x) and (sigma_y). Whats the uncertainty in (z = x + y)? From the equation of error propagation
egin
sigma_z^2 &= left( frac ight) ^2 sigma_x^2 + left( frac ight) ^2 sigma_y^2
sigma_z^2 &= sigma_x^2 + sigma_y^2,
end
as we expect.

Product of two variables

What is the uncertainty in (z = xy). Again, the equation of error propagation gives
egin
sigma_z^2 &= left( frac ight) ^2 sigma_x^2 + left( frac ight) ^2 sigma_y^2
sigma_z^2 &= y^2 sigma_x^2 + x^2 sigma_y^2,
end
which we divide by (z^2 = x^2y^2) to get
[ left( frac ight) ^2 = left( frac ight) ^2 + left( frac ight) ^2,]
again, as we expect.

Suppose we obtain (N) measurements of a single value (x_i), each with an uncertainty of (sigma_x). We calculate the mean (z = sum_i^N x_i / N). What is the error on the mean? Since (z = frac + frac + ldots + frac), then
[ frac = frac<1> .]
Therefore, the error propagation equation gives
[ sigma_z^2 = sum_i^N frac<1> sigma_x^2 = frac sigma_x^2 = frac,]
which can be re-written
[sigma_z = sigma_x / sqrt.]
Thus, the error propagation formula can be used to derive all the rules you are familiar with. It is more useful to remember the equation than these rules, since it can be applied widely. To illustrate, we apply to the question of deriving errors on magnitudes.

Errors on magnitudes

To begin with, we assume that the errors on the magnitudes are small. Otherwise, the approximation we made in figure 93 is not valid and we cannot apply the equation of error propagation. The magnitude equation is (m = -2.5 log_ <10>f + c). Therefore
[sigma_m = frac sigma_f.]
To differentiate (log_ <10>f) we use the change of base formula to write
[ log_ <10>f = frac< ln f > approx frac <2.3>.]
Therefore, (m = -frac<2.5> <2.3>ln f + c) and
[ frac approx frac<-2.5> <2.3f>= frac<1.09>,]
und
[ | sigma_m | = 1.09 frac< sigma_f > < f>approx frac< sigma_f >< f>,]
where we have ignored the sign of (sigma_m). Thus, to a rough approximation (and for small errors), the uncertainty in the magnitude is equal to the fractional error on the flux.

For example, suppose we measure the magnitude of a star as (m = 15 pm 0.1). This means that (sigma_f = 0.1 f) - the flux is measured with an uncertainty of 10%. Put another way, the signal-to-noise ratio of this measurement is (frac = 10). Remembering this approximation is an excellent way to quickly understand the precision of astronomical brightness measurements. A magnitude error of 0.1 corresponds to a signal/noise ratio of 10. A magnitude error of 0.01 corresponds to a signal to noise ratio of 100, or a measure of the flux with 1% uncertainty.


Stability

Stability is a source of uncertainty in measurement that should be included in the every uncertainty budget. It is an influence that you can test yourself or calculate from your calibration data to see how much variability is in your measurements over time.

Stability is a random uncertainty. It is commonly confused with Drift, which is a systematic uncertainty (we will cover this later). Essentially, stability determines how stable your measurement process is over time.

Stability can be determined in two ways. However, to keep it simple, I will only teach you the easy way to estimate stability.

Most accreditation bodies do not require you to include stability in your uncertainty budget. However, many assessors consider stability a significant contributor to uncertainty in measurement. So, I recommend that you include it in your measurement uncertainty analysis.

Definition of Stability
1: Property of a measuring instrument, whereby its metrological properties remain constant in time

How to Calculate Stability
Follow this instructions to calculate stability:
1. Review your last 3 calibration reports.
2. Record the results from each calibration report.
3. Calculate the standard deviation of the calibration results.

Example
Imagine that you need to determine the stability of your measurement process. So, you grab your last three calibration reports and record the values reported from calibration. Find the stability of your measurement process.

In the image below, I grabbed 3 calibration reports for one of my Keysight 34401A Multimeters and placed the data side by side. The parameter that I focused on was the 10 Volt measurement for the DC Voltage function.

Now, you can see that there was some variation in measurement capability from 2013 to 2015. This is what we want to evaluate.

So, look at the image below. I calculated the standard deviation of the 3 measurement results in the image above to determine stability. As a result, we have determined that the stability of this instrument is 4.6 ppm. See the highlight red rectangle.

To accomplish this using Microsoft Excel, I used the formula:

=stdev(cell1:celln)

Bias is a source of uncertainty in measurement that can be optionally added to your uncertainty budget. Whether or not you decide to make it part of your estimation of measurement uncertainty depends on how you use your equipment to perform measurements.

To determine whether or not you should include bias in your uncertainty budget, read the follow scenarios and see which best applies to your measurement process.

Scenario 1: I calibrate equipment using a known reference standard and report the result only.

If this describes you, then add bias to your uncertainty budget .

In Scenario 1, you would add bias to your uncertainty budget because you do not account for it when reporting your measurement results. Therefore, the bias of the reference standard could further contribute to the uncertainty in measurement results.

Scenario 2: I calibrate equipment using a known reference standard and report both the Standard value and the Unit Under Test value.

If this describes you, then DO NOT add bias to your uncertainty budget .

In Scenario 2, you would not add bias to your uncertainty budget because you have already accounted for it in your reported measurement results. Therefore, the bias of the reference standard can be eliminated as a contributor to the uncertainty in measurement results.

Bias is really a systematic error rather than an uncertainty. It informs you of how accurate your measurements are compared to the target value. However, depending on how you perform comparison measurements, bias may be a contributor to measurement uncertainty.

Definition of Bias
1: Estimate of systematic measurement error
2: Average of replicate indication minus a reference quantity value

How to Calculate Bias
Follow these instructions to calculate bias:
1. Review your latest calibration report.
2. Find the As Left value or measurement result.
3. Find the Nominal value or standard value.
4. Calculate the difference.

Example
In the image below, I grabbed 2 calibration reports and compared the results side by side. The first report (left image) is from my Fluke 5720A Calibrator and the second report (right image) is from my Keysight 34401A Multimeter.

Using the data from the image above, I calculated bias using Microsoft Excel in the image below. To calculate bias, all you need to do is subtract the standard value from the measured result of the unit under test. In this case, we determined that the bias of this instrument was 7.3 ppm. See the highlight red rectangle.

bias=measured value-standard value
b=mv-sv

To accomplish this using Microsoft Excel, I used the formula:

=cell2 – cell1


How can I calculate the uncertainties in magnitude like the CDS does? - Astronomie

Truly random fluctuations average to zero, and so the way to remove them is to average a large number of measurements,

The average value approaches the ``true value'' as the number of measurements in the average approaches infinity. Finding the ``true value'' is impractical, so we settle for the ``best value'' given by the average. The average value is also called the mean value.

Random fluctuations are described by the normal distribution, or Gaussian distribution, or the ``bell curve.'' The uncertainty in the ``best value'' of a large collection of normally distributed measurements can be calculated using the standard deviation

which describes the width of the distribution. More precisely, about 68% of a normal distribution falls within of the average value. The standard deviation is the uncertainty in a single measurement in the distribution. Rather than doing this calculation ``by hand,'' I recommend using the STDEV() function of your spreadsheet.

The uncertainty in the average of a large number of measurements is less than . This follows from the idea that the more measurements we make, the closer the average value comes to the ``true value.'' The standard deviation of the mean is given by

We report this as the uncertainty in .

See the sample write-up in Appendix A for an example of an analysis of normally distributed data.

  • checking calibrations
  • comparing results with accepted values
  • comparing results obtained via independent means

When raising a value to a power, multiply its relative error by the power. For example, if

Use first derivatives to determine the approximate variation of the result due to the uncertainty in each measured quantity.

If a quantity is a function of the measured quantities , then

When calculating a result which depends on measured input quantities, determine the variations in the result due to each input quantity, and add the variations in quadrature. In some cases, upper and lower uncertainties differ.

For example, if , the individual variances are

and the upper and lower uncertainties are

This kind of analysis is a good job for a spreadsheet.

Units are always included, and are usually given after the result and its uncertainty. It is common practice to round uncertainties to one significant figure. Results should be rounded off to the decimal place of the corresponding uncertainties. For example, if an analysis of several measurements of my height reveals an average of m with a standard deviation of the mean of m, I report my height as m. The form

is also sometimes used, where the uncertainty is given as a single digit. In this form, my height is m. The uncertainty is assumed to be in the last reported digit of the result. With asymmetric uncertainties, one uses the form


UFOs: How to calculate the odds that an alien spaceship has been spotted

The evidence so far isn’t very specific. Credit: IgorZh/Shutterstock

The US military has released previously classified photos and films related to unidentified flying object (UFO) sightings, which mostly show something blurry moving strangely. Still, I hear that a friend of a friend has gone from thinking there's a 1% chance that UFOs are aliens to now believing it is 50%. Is he rational?

People are constantly seeing things in the sky they don't understand. The vast majority are airplanes, satellites, weather balloons, clouds, rocket launches, auroras, optical reflections and so on. But for some sightings, there's no known explanation. The problem is that people jump to the conclusion "unknown = aliens". And when you think about it, this is fairly odd. Why not angels?

Anyway, I like to do maths instead. The Bayes formula (below), a mainstay of statistics, gives the probability (Pr) of something, given some evidence.

Spelled out, it says that the probability that UFOs are aliens given some evidence is equal to how likely it is that the evidence would appear if UFOs really were aliens, times how likely it is that there are aliens. That needs to be divided by how likely the actual evidence is, which is notoriously difficult to work out.

But what we are really interested in is if the evidence tells us we should believe in aliens compared to not believing in aliens. We can do this by dividing the equation above with the counterpart for UFOs not being aliens:

When we do this, we also get rid of that pesky factor for how probable the evidence is. The equation now shows how likely it is that UFOs are aliens compared to how likely it is that they are not—after looking at the footage. The result will be one if the options are equally likely, and high if aliens are the stronger bet. It tells us how we should update our beliefs based on new evidence.

There are two factors in the equation. One (second bracket) is how likely we think aliens are. Some might say 50:50, making this factor one, while others may make it very low, like 10 -23 . This is a statement of belief based on knowledge of the world (using for example the famous Drake equation).

This needs to be multiplied by another factor (first bracket), often called the Bayes factor. It denotes how specific the evidence we see is for aliens v no aliens. If I meet a little green blob claiming to be from Epsilon Eridani, that is relatively specific (but could still somewhat be explained by a prank or me being mad). In this case, the factor may be much bigger than 1 and I get to shift towards thinking there are aliens.

If I see a mysterious blob of light in the sky that could be aliens but could also be a lot of other things, then the factor would not be much different from 1—the evidence is as specific for aliens as it is for no aliens, and I don't get much change in belief.

In other words, specificity is hugely important. Weird and unknown things may happen, but if the lights could equally well be faeries, intrusions from the fifth dimension, swamp gas, Chinese drones, sapient octopuses, or anything else, the Bayes factor will still be close to 1. That the world is strange is not evidence for aliens.

The latest UFO revelations from the US government doesn't make me update in the direction of aliens much. Sure, there is lots of weird footage. But it could be explained by many other things: there are no green blobs demanding to be taken to our leader. There's not even a photo of an alien. Given that earlier research also has made me think the universe is pretty empty, I end up with a very low personal probability estimate of UFOs being aliens.

Here's my calculation. I start with assuming that aliens visiting is pretty unlikely—I place it somewhere around one in a billion. Why? Because I think the probability of intelligent life per planet is really low, and if there were any out there, it would probably spread on a cosmic scale. Indeed, that we haven't been paved over already is an important piece of evidence.

As for the specificity of the evidence, I accept that weird things show up, but none of it looks particular for aliens. So my Bayes factor is at best 2 or so (and I think that is too much, actually). So I end up giving a one in 500 million chance to UFOs being aliens after looking at the footage.

One should, however, recognize the great uncertainty here: that one in a billion estimate is based on arguments that could be wrong and are debatable.

Now imagine I see every TV channel showing footage of a green blob demanding an audience with the UN Secretary General. If it was a real alien, the probability of the footage would be 1. But the probability that it is a super-elaborate prank or that I had a psychotic break is maybe 1 in 1,000 (psychosis is far more common than many think). So by dividing 1 by 1/000, I would get a Bayes factor of 1,000—boosting my estimate by a factor of 1,000. When I then multiply that, per the equation, by the 1 in a billion probability of aliens visiting, I get a total probability of two in a million.

This would not be enough to think it must be real. But it would be alarming enough to check if my friends are seeing the same thing. Surely they can't all go mad at the same time—that would be even less likely. If they agree I would boost my estimate by a few more orders of magnitude, to maybe 1/10. I would also check for evidence that it isn't a super-prank.

As for the current evidence, what would convince me otherwise? More specific evidence, not just blurry lights moving apparently fast. Science did not believe in meteorites until trustworthy, multiple witnesses brought in rocks found to be unknown minerals (a good Bayes factor), and our understanding of the solar system allowed for asteroids.

I suspect actual evidence for visits from extraterrestrial intelligence will be hard to miss. Trying to explain away the weakness of current evidence as aliens being cleverly stealthy does not make them more likely since it makes the evidence unspecific. The search will no doubt go on, but we should look for specific things, not blurry ones.

This article is republished from The Conversation under a Creative Commons license. Read the original article.


Current (2020) Photometric Calibration

A new set of UVIS and IR inverse sensitivities (zeropoints) are available. These new values incorporate improvements in the HST CALSPEC models as well as an increase in the Vega reference flux (Bohlin et al. 2020). The UVIS calibration includes new corrections for temporal changes in the detector sensitivity derived from over 10 years of monitoring data, improving the computed chip-sensitivity ratio and encircled energy values (Calamida et al. 2021). The IR inverse sensitivities (zeropoints) change primarily due to the new models, and they incorporate new flat fields in the calibration of the flux standards (Bajaj et al. 2020). The updated P-flats correct for spatial sensitivity residuals up to 0.5% in the center of the detector and up to 2% at the edges (Mack et al. 2021). The new 2020 inverse sensitivity values are available below. A Jupyter Notebook that shows how to work with the new UVIS time-dependent solutions is available here.

Errors:

Current estimates of the photometric internal precision of the zero points are:


The Hertzsprung-Russell Diagram

The great difficulty encountered in astronomy is that, with the exception of rarities like the supernova, stars are stuck in time, giving us no direct notion of how they change over the billions of years of their lives. The collection of stars we see on the sky are of all ages, sizes, and compositions. From this collection, astronomers infer how a star changes as it ages, and how this change depends on the mass and the composition of the star.

If you don't understand how a collection of objects behave, throw the objects onto a chart and see if any patterns pop out at you. The obvious two characteristics to use when plotting stars are color and absolute visual magnitude. Such a plot is called a Hertzsprung-Russell (HR) diagram. By tradition, the absolute visual magnitude runs along the vertical axis, going from low luminosity (large, positive values of magnitude) to high luminosity (negative values of magnitude) when going from bottom to top, and the color along the horizontal axis, going from blue to red when moving from left to right.

The absolute visual magnitude (MV) serves as a proxy for luminosity, and the color is a proxy for the photospheric temperature. Absolute visual magnitude and color work well as proxies, because stars have spectra that are nearly black-body spectra. The power emitted in the visual wave band increases with the total power emitted when the radiation is black body, which is why the observable visual magnitude can be used in place of the generally-unobservable luminosity.

The color is measured by taking the difference of the apparent magnitudes measured in two narrow frequency bands. Commonly, one band is spectroscopic blue, and the other band is spectroscopic yellow. Under one common photometry system—a system that defines color filters for measuring the starlight—the blue color is defined as the apparent magnitude B, the yellow color is defined as the apparent magnitude V (for visual), and the color is the difference B − V, with the bluest stars having a negative value (e.g. −0.35 for an O star), and the reddest stars having a positive value (e.g. +1.6 for M stars). This may seem backwards, since it implies that B is less than V when more blue light than yellow light is being emitted, but remember that the magnitude scale is inverted, so that the larger the amount of light, the smaller the magnitude.

Color serves as a proxy for temperature, because the peak of a black-body spectrum rises proportionally with temperature. When the temperature is low, the amount of blue light is considerably less that the amount of yellow light, but when the temperature is high, the amount of blue light exceeds the amount of yellow light. As long as the temperature is not too high, so that the peak of the black-body spectrum is not too far way from the color bands, the amount of blue light to yellow light increases with temperature. This works well for most stars, but for neutron stars it fails, because with a temperature typically in the x-ray band, the black body spectrum over the visible bands is proportional to the frequency squared whether the temperature is 0.5 keV or 2 keV, the ratio of blue to yellow light is unchanged. But for the stars burning hydrogen and helium, where the photospheric temperatures are below 50,000°K, color works well as a measurement of temperature. Only the very brightest hydrogen-burning stars have colors that are relatively insensitive to temperature.

The diagram below shows a Hertzsprung-Russell diagram for stars from the Hipparcos catalog. The stars plotted on this diagram have apparent visual magnitudes less than 5 (brighter than 5 th magnitude), and an annual proper motion of more than 20 milli-arc-seconds (a distance of less than 50 parsec). The limiting apparent visual magnitude of 5 was chosen because it gives a set of stars visible to the unaided eye on a clear night the limiting magnitude of the Hipparcos survey is slighter larger than 7, while selected stars with apparent visual magnitudes over 10 were also observed. There are 488 stars on this plot, including familiar stars such as Sirius (α Canis Majoris), Rigil Kentaurus (α Centauri), and Pollux (β Geminorum).

The Hertzsprung-Russell Diagram for stars from the Hipparcos Main Catalog with apparent visual magnitude ≤ 5 and annual parallax ≥ 20 milli-arc-seconds. [1] The horizontal axis gives the difference between the apparent visual magnitude and the apparent blue magnitude. The vertical axis gives the absolute visual magnitude. Each star is plotted as a light-blue box. Regions of darker blue are where the data points overlap the darker the color, the larger the number of overlapping data points. The plot contains 488 stars. The data was obtained through the VizierR Service of Centre de Données astronomiques de Strasbourg (CDS).

Two features stand out on the diagram: most of the stars fall along a serpentine diagonal band that extends from the red, low-luminosity region to the blue, high-luminosity region, and a smaller number of stars cluster in the red, high-luminosity region.

The broad band of stars is called the main sequence, and it comprises the stars that burn hydrogen at their cores. Most stars are on the main sequence, because most of a star's thermonuclear-fusion life is spent burning hydrogen. Both Sirius and Rigil Kentaurus (α Centauri) lie on the main-sequence, as is shown in the diagram. The Sun on this plot would fall just below Rigil Kentaurus. The left of the main sequence curves upward because the peak of the black-body spectrum fall above the blue channel at high temperature, as was discussed above a star can only get so blue, it can't get pure blue.

Because only bright stars are plotted in the diagram on this page, the main-sequence is truncated over the red region. The diagram therefore gives the misleading impression that few main-sequence stars are less luminous and more red than Rigil Kentaurus, when in fact the opposite is the case. The main-sequence band continues down to somewhat redder colors and to much lower luminosities, and comprises many of the closest stars, including Proxima Centauri, which has an absolute visual magnitude of over 15. These stars are excluded because their apparent visual magnitude is greater than 5.

The length of the main sequence reflects the range of stellar masses. The low-mass stars are the red stars of the main-sequence. The high-mass stars are the blue stars. The width of the main sequence reflects the evolution in a star's luminosity as the star consumes its hydrogen. The lower edge of the main sequence is called the zero-age main sequence (known by the acronym ZAMS) it is populated by stars that have just commenced their thermonuclear lives. A star begins its life as a protostar, evolving from high luminosity to it's ZAMS luminosity. Thermonuclear fusion of core hydrogen commences once the star reaches the ZAMS. From that point on, the star slowly becomes more luminous as it consumes its hydrogen, so it slowly moves up from the ZAMS. For instance, the Sun is estimated to be 40% more luminous today than when it was on the zero-age main sequence 4.5 billion years ago.

The stars that cluster in the luminous, red region of the Hertzsprung-Russell diagram are the red giant stars. They are stars that are burning helium at their core, having exhausted their core hydrogen. There are far fewer red giants than main-sequence stars, because a star consumes its helium much more rapidly than it does its hydrogen, which is reflected by the red giant's greater luminosity. Life as a red giant, on the other hand, is longer than life in the transition stage, when hydrogen fusion ceases in a main-sequence star, and the core of the star contracts to high density. This short stage is reflected by the near absence of stars between the main-sequence and the red giants on the diagram. One sees from this diagram that most red stars visible to the unaided eye are red giants.

Stars spend their thermonuclear days above the ZAMS. Not until they cease their thermonuclear fusion and shrink down to degenerate dwarfs or neutron stars do they fall below the ZAMS. The nearby degenerate dwarfs have absolute visual magnitudes that place them far below the main-sequence. For example, the companion star of Sirius is a degenerate dwarf with an absolute visual magnitude of only 11. No degenerate dwarf is visible to the unaided eye. With a higher limiting absolute magnitude, however, the degenerate dwarfs would form a third large grouping on the Hertzsprung-Russell diagram.

[1] Kovalevsky, J. “First Results from Hipparcos.” In Annual Reviews of Astronomy and Astrophysics, edited by Geoffrey Burbidge, Allan Sandage, and Frank H. Shu, vol. 36. Palo Alto, California: Annual Reviews, 1998.