Maximilian Steger, Sommersemester 2013


Die Abweichung eines aus Messung gewonnen Wertes vom wahren Wert der Messgröße wird als Messabweichung (nach [1]) oder Messfehler (alte Bezeichnung) bezeichnet. Prinzipiell treten Messfehler bei jeder Messung auf. Die Fehlerrechnung versucht, die Einflussnahme der Messfehler auf das Messergebnis quantitativ zu charakterisieren.

Arten von Messfehlern

Die Messfehlern können sich in drei Gruppen unterteilen, nämlich grobe Fehler, systematische Fehler und zufällige Fehler.

Grobe Fehler sind vermeidbare Fehler und sollten auch verhindert werden. Beispiele für solche Fehler sind defekte Messgeräte, unpassende Messmittel, augenfällige Verfälschungen am Messgegenstand usw.

Systematische Fehler beeinflussen das Messergebnis stets gleichermaßen und werden durch ein Wechsel der Versuchseinrichtung verändert.

  • Fehlanzeigen wegen ungenauer Kalibrierung (z.B. Sensorkalibrierung)
  • Alterung oder defekt der Messeinrichtung oder Sensorik
  • Inhomogenität oder Anisotropie des Messobjektes
  • Veränderung durch die Messung (elastische Deformation oder Schädigung durch Messung)
  • Äußere Einflüsse (Luftauftriebskraft, Störfelder von außen, Umgebungsbedingungen)

Zufällige (statistische) Fehler besitzen statistische Eigenschaft. Eine Schwankung des gewonnenen Messwertes nach oben und nach unten liegt statistisch verteilt vor. Gründe dafür sind beispielsweise:

  • Ablese-Ungenauigkeiten (Skalenauflösung, Human Factor, Sehunschärfe)
  • Umgebunseinflüsse (u.a. Temperatur, Netzspannung, Erschütterung)
  • Rauschen (Quanteneffekte, Fluktuationen)

Fehler können teilweise mit hohem Aufwand minimiert werden.

Fehlertheorie

Ziel aller Betrachtungen muss es also sein, geeignete Näherungswerte und Unsicherheitsintervalle für die gemessenen Größen zu ermitteln und mit dem Messergebnis anzugeben. Für jedes Experiment liegen unterschiedliche Möglichkeiten bei der Auswahl und Anwendung der Methoden vor. Dabei existiert durchaus ein gewisser "Ermessensspielraum" des Experimentators.

Dazu ist eine Reihe von Werkzeugen verfügbar:

  • Fehlerabschätzung
  • Fehlerstatistik
  • lineare Fehlerfortpflanzung
  • Gauß´sche Fehlerfortpflanzung

Fehlerabschätzung

  • wird bei einer einmaligen Messung einer Größe benutzt,
  • beschreibt die mögliche Abweichung des Messwertes vom "wahren Wert".

Es ist leider nicht möglich, diesen sogenannten wahren Wert zu kennen und somit die Abweichung der Messung von diesem wahren Wert zu errechnen. Statt des "wahren Fehlers" benutzt man zur Charakterisierung der Messung die maximal mögliche Abweichung des Messwertes vom wahren Wert - diese Größe wird als Größtfehler \Delta x bezeichnet.

Dieser Größtfehler \Delta x muss abgeschätzt werden, wobei grundlegend zwei Bestandteile eingehen:

  • Die vom Hersteller gegebene Garantiefehlergrenze des Messgerätes.
  • Ein abgeschätzter Anteil, der von der Genauigkeit des Experimentierens, konkreten Bedingungen des Experiments, der Skalenteilung des Messgerätes u.ä. abhängt.

Beispiel: Auf einem Spannungsmesser ist der Garantiefehler für Gleichspannungsbereiche (100 mV bis 1000 V) mit ±1% angegeben. Der Messbereich liegt bei 50 V. Deswegen ist der Garantiefehler 0,5 V. Als Ablesefehler wird die Hälfte des Abstandes der Teilungsstriche angesetzt - im Beispiel 0,25 V. In der Summe ergibt sich daraus ein Größtfehler von 0,75 V.

Fehlerstatistik

(Wird bei einer mehrfachen Messung der Größe benutzt)

Im Wesentlichen ist es so, aus den gewonnenen Werten den Mittelwert zu bilden und damit weiter zu arbeiten. Angenommen, dass die betrachtete Größe genau n mal gemessen werden. Je größer n gewählt ist, desto genauer sollte die Messung sein. Die im folgenden betrachteten statistischen Verfahren sind sowieso nur für sehr große n korrekt (genauer: Sie gelten für n \to \infty).

Mit benachbarten Messwerten werden sogenannte „Klassen“ gebildet, in die die Messwerte einsortiert werden, um eine sinnvolle statistische Darstellung zu erreichen.

Üblicherweise wird die Spanne zwischen dem größten und dem kleinsten Messwert durch die Wurzel aus n, subtrahiert 2 geteilt und eine Klasseneinteilung wird damit erhalten.

Beispielsweise wäre also eine Einteilung in 8 Klassen bei 100 Messwerten dafür geeignet.

Nun lassen sich die Messwerte je Klassen in einem Säulendiagramm abtragen.

In der Regel wird allerdings angegeben wie sich die Messwerte auf die einzelnen Intervalle verteilen: 

w(x_k) wird abgetragen, d.h. die Anzahl je Klasse wird durch die Gesamtzahl der Messwerte (im Beispiel durch 100) sowie die Breite der Klasse geteilt.

Beispiel:

Messwerte-Histogramm mit rot eingezeichnetem Häufigkeitspolynom (siehe unten)

Zahl der Messwerte \Delta n_k, die in einen Abschnitt \Delta x_k fallen:

\Delta n_k = \Delta w (x_k) * n * \Delta x_k

Ein Häufigkeitspolynom wird dadurch dargestellt.

Wird die Zahl der Messungen vergrößert und die Intervallteilung verfeinert, so nähert sich die Kurve erfahrungsgemäß meistens einer Glockenkurve, der Gauß'schen Normalverteilung.

w(x) = \frac{1}{ \sigma * \sqrt{2 \pi} } \exp \left\{ -\frac{(x - \mu) ^ 2}{2 \sigma ^ 2} \right\}

Parameter dieser Verteilungsfunktion sind:

µ- Erwartungswert, Zentralwert

σ- Standardabweichung

Dabei charakterisiert µ das Maximum der Verteilungskurve und σ einen Qualitätsparameter der Verteilungskurve, der den Abstand der Wendepunkte in der Kurve vom Zentralwert angibt.

In der Abbildung der Normalverteilung ist es auch zu erkennen:

  • Im Intervall µ − σ bis µ + σ befinden sich ca. 68% aller Messwerte.
  • Im Intervall µ − 2σ bis µ + 2σ befinden sich ca. 95% aller Messwerte.
  • Im Intervall µ − 3σ bis µ + 3σ befinden sich ca. 99,7% aller Messwerte.

Leider sind oben dargestellte Gesetzmäßigkeiten nur bei unendlich vielen Werte gültig. Für endliche Messungen wird deswegen ein Ersatz geschaffen. Folgende Kenngrößen werden für Messungen benutzt, die nur näherungsweise unendlich oft durchgeführt wurden:

  • Mittelwert (als Näherung für den wahren Wert): \bar{x} = \frac{1}{n} \sum\limits_{k=1}^{n} x_k
  • Empirische Standardabweichung (als Näherung für s): s = \sqrt{ \frac{1}{n - 1} \sum\limits_{k=1}^{n} (x_k - \bar{x})^2 }
  • Vertrauensbereich: \bar{s} = \sqrt{ \frac{1}{n (n - 1)} \sum\limits_{k=1}^{n} (x_k - \bar{x})^2 }

Dabei handelt es sich um eine Größe, die in engem Zusammenhang mit der empirischen Streubreite (im weiteren Streubreite) steht. Sie gibt ein Intervall an, dass wie die Streubreite ober- und unterhalb des Mittelwertes abgetragen wird. In dem so durch den Vertrauensbereich abgegrenzte Intervall liegt mit einer Wahrscheinlichkeit von ca. 68% der mit der Messung eigentlich gesuchte "wahre Wert". Wird das Intervall zweimal vergrößert, befindet sich der wahre Wert darin mit einer Wahrscheinlichkeit von ca. 95%, im dreifachen Intervall mit einer Wahrscheinlichkeit von 99,7%.

Eine Einschränkung ist hierbei noch zu erinnern. Das Gesagte lehnt sich an eine Zahl von Messungen an, die praktisch unendlich groß ist. Eine Korrigierung nach oben des Vertrauensbereiches muss für kleinere Zahlen von Messungen durchgeführt werden; Durch die Einführung eines Korrekturfaktoren (t) sollte ein Ausgleich geschaffen werden. Mit diesem Faktor ist dann der Wert des Vertrauensbereichs zu multiplizieren. Gelegentlich könnte die statistische Sicherheit auch nicht getrennt werden. Im Gegensatz dazu wird sie gemeinsam mit der Berücksichtigung der Stichprobenzahl verankert, was sich in dem Faktor t ausdrücken lässt.

Damit ergibt sich letztendlich für die Angabe experimentell ermittelter Größen bei Mehrfachmessung folgende Form:

x = \bar{x} \pm * \bar{s}

Statistische Faktoren bei Stichprobenmessungen (Zahl der Messungen n begrenzt)

Zahl der Messungen nFaktor t bei 99,7% Sicherheit
2235,0
319,0
48,2
56,6
65,5
74,9
84,5
94,3
104,1
153,6
203,3
1003,0

Messunsicherheit

In den beiden vorherigen Kapiteln wurde es schon erklärt, wie die Fehler einer unmittelbaren Messung behandelt werden. Bei einer genaueren Betrachtung wird es festgestellt, dass die Summe aller möglichen Fehler (Fehler werden immer addiert!) aus mehreren Anteilen besteht.

  • Bei Einfachmessung zählen z.B. der Garantiefehler des Messgerätes, der Ablesefehler des Experimentators, der aus Umwelteinflüssen resultierende Fehler dazu. All diese Fehler werden abgeschätzt, addiert und bilden in ihrer Gesamtheit die sogenannte Messunsicherheit.
  • Im Vergleich zur Einfachmessung ist die Situation bei Mehrfachmessung etwas komplizierter. Hier sollte der statistisch ermittelte Vertrauensbereich berücksichtigt werden, ggf. aber auch Fehler wie die Garantiefehlergrenze des Messgerätes, Umwelteinflüsse u.ä. Auch hier werden die einzelnen Fehleranteile aufsummiert (der Vertrauensbereich mit der entsprechend vereinbarten statistischen Sicherheit - meist Faktor 2t) und ergeben die Messunsicherheit.

Fehlerfortpflanzung

Es ist schwierig, in die verschiedene fehlerbehaftete Größen einzugehen, wenn das von uns gewünschte Endergebnis erst durch eine Rechnung ermittelt werden.

Wie bereits bei der Behandlung des Fehlers bei unmittelbarer Messung existieren auch hier, bei der Behandlung des Fehlers einer mittelbaren Messung, zwei Vorgehensweisen um zu ermitteln, wie sich die Fehler der Einzelgrößen zum Fehler des Resultats fortpflanzen:

  • die lineare Fehlerfortpflanzung und
  • die Gauß´sche Fehlerfortpflanzung.

Lineare Fehlerfortpflanzung

Wie bemerkt interessieren in der Praxis meist die Fehler mittelbar zu messender Größen. Das heißt es interessiert eine Größe f, die von anderen Größen x, y, z, ... abhängt:

f = f (x, y, z)

Für die Fehlerbetrachtung ist es nun interessant, wie die Größtfehler \Delta x, \Delta y, \Delta z (oder die Messunsicherheiten) der einzelnen Größen auf den Fehler \Delta f der Größe f einwirken. Unter der Voraussetzung kleiner Fehler (gegenüber den Messwerten) lässt sich der gesuchte Fehler mit Hilfe von einer Reihenentwicklung (Taylorreihe) und dem Abbruch der Entwicklung nach dem ersten Glied berechnen: Die Größe \frac{\delta f}{\delta x} z.B. bedeutet hierbei eine "partielle Ableitung", das heißt, dass die Funktion f nach x abgeleitet wird. Alle anderen Größen werden dazu als Konstanten betrachtet. Vergleichbar werden y, z, u.a. ermittelt.

f (x + \Delta x, y + \Delta y, z + \Delta z, ...) = f (x, y, z, ...) + \frac{\delta f}{\delta x} * \Delta x + \frac{\delta f}{\delta y} * \Delta y + \frac{\delta f}{\delta z} * \Delta z + ... = f + \Delta f

In der dargestellten Formel liegt noch ein inhaltlicher Fehler vor:

Es ist möglich, dass sich einzelne Fehler mutuell aufheben. Der Gedanke - y muss etwas ungenauer gemessen werden, damit der Fehler von f klein wird - wäre sonderbare Realität.

Da die Fehler (wie bereits oben festgestellt) immer aufaddiert werden, könnte in der dargestellten Formel immer die Absolutbeträge der partiellen Ableitungen benutzt werden. Damit werden alle Glieder positiv und eine Fehler-Kompensation ist dadurch verhindert.

Es ergibt sich:

\Delta f = |\frac{\delta f}{\delta x}| * \Delta x + |\frac{\delta f}{\delta y}| * \Delta y + |\frac{\delta f}{\delta z}| * \Delta z + ...

Die lineare Fehlerfortpflanzung wird benutzt, wenn die eingehenden Einzelfehler durch Fehlerabschätzung bestimmt wurden, also bei Einzelmessungen. Zu den Fehleranteilen zählen hier die einzelnen Messunsicherheiten der Einzelgrößen.

Gauß´sche Fehlerfortpflanzung

In der Gauß´schen Fehlerfortpflanzung wird im Gegensatz zur linearen davon ausgegangen, dass sich die statistisch festgestellten Messwertstreuungen bei ihrer Weiterverarbeitung in definierter Weise kompensieren können. Dies hat die Anwendung der Gauß´schen Fehlerfortpflanzung auf Fehlerabschätzungen und Größtfehler stark eingeschränkt.

Man verfährt also folgendermaßen:

\bar{f} = f(\bar{x}; \bar{y}; \bar{z}; ...)

Die gesuchte Größe errechnet sich aus den Mittelwerten der Ausgangsgrößen.

Für die Standardabweichung gilt:

\bar{s}_f = \sqrt { (\frac{\delta f}{\delta x} * \bar{s}_x) ^ 2 + (\frac{\delta f}{\delta y} * \bar{s}_y) ^ 2 + (\frac{\delta f}{\delta z} * \bar{s}_z) ^ 2 + ...}

Eine Ergebnisangabe kann nun entsprechend erfolgen:

f = \bar{f} \pm \bar{s}_f

wobei noch einmal auf die Schwierigkeiten der Anwendung des Gauß´schen Ansatzes im Falle gemischter (statistischer und abgeschätzter) Fehler hingewiesen wird.

Die Gauß´sche Fehlerfortpflanzung beruht sich auf rein statistischen Überlegungen - sie ist also tauglich für die Verarbeitung statistisch ermittelter Fehler. Entsprechend werden hier als Fehlerangaben die entsprechenden Vertrauensbereiche (mit entsprechender statistischer Sicherheit 1t, 2t oder 3t) verwendet.

Die zwei obergenannten Verfahren haben sich zur Behandlung dieses Problems in der Praxis etabliert:

  1. Es wird die lineare Fehlerfortpflanzung unter Verwendung der Messunsicherheiten genutzt.
  2. Die Gauß´sche Fehlerfortpflanzung wird unter Verwendung der Vertrauensbereiche benutzt und mit einem Fehleranteil zusammengezählt, der aus abgeschätzten Fehlern und linearer Fortpflanzung ermittelt wurde.

Beide Verfahren sind wohl gleich gut (oder schlecht) als Kompromiss in der Laborpraxis geeignet.

Literatur

  1. DIN 1319 Teil 1: Grundlagen der Messtechnik. Ausgabe 1, 1995.
  2. DIN 1319 Teil 3: Auswertung von Messungen einer einzelnen Meßgröße, Messunsicherheit. Ausgabe 5, 1996.
  3. DIN 1319 Teil 4: Auswertung von Messungen, Meßunsicherheit. Ausgabe 2, 1999.