Frage:
genaue Messung mit ungenauen Werkzeugen
user5425156
2019-08-28 08:27:01 UTC
view on stackexchange narkive permalink

Es ist eine sehr allgemeine Frage. Gibt es eine gute Möglichkeit, die Genauigkeit und Präzision eines Messwerkzeugs nur mit mathematischen Mitteln systematisch zu erhöhen? Zum Beispiel können durchschnittlich 10 Messungen eine bessere ergeben. Oder mit zwei unabhängigen Tools. Ich weiß nicht, ob Messtheorie, statistische Qualitätskontrolle oder ein anderes Thema helfen können.

Eine solche Situation wäre sehr kontextspezifisch, aber sehen Sie sich Kalman-Filter als Beispiel an, bei dem eine Messung als Hinzufügen von Informationen (d. h. als "Aktualisierung") zu bereits bekannten Informationen dienen könnte und nicht als alleinige Information für sich.
@Tasos Papastylianou Ja, der Kalman-Filter könnte hilfreich sein, insbesondere wenn der tatsächliche Wert nicht wirklich konstant ist, aber möglicherweise driftet, wie Temperatur, Luftdruck, Geschwindigkeit usw.
Vier antworten:
Poutnik
2019-08-28 12:17:56 UTC
view on stackexchange narkive permalink

Im Allgemeinen wirkt sich eine Verbesserung des Messprozesses viel besser positiv auf die Ergebnisse aus als eine ausgefeilte mathematische Verarbeitung von Daten geringer Qualität. Manchmal müssen wir jedoch angeben, was wir haben.

Es gibt drei Größen:

Auflösung = die kleinste Differenz des direkt gemessenen Werts, die durch das Werkzeug unterschieden werden kann,

Genauigkeit = Unsicherheitsgrad bei wiederholter Messung desselben Werts aufgrund zufälliger Schwankungen. Es wird auch von der Auflösung beeinflusst, wenn dies mit der Genauigkeit vergleichbar ist.

Genauigkeit = Grad der Übereinstimmung des geschätzten und des realen Werts aufgrund der Abweichung von Werkzeug und Methode.

Es kann sein Ein sehr präzises, aber ungenaues Werkzeug / eine sehr ungenaue Methode und umgekehrt, auch wenn normalerweise eines mit dem anderen geliefert wird.


Die Präzision kann durch Wiederholung der Messung verbessert werden. Das arithmetische Mittel von $ n ^ 2 $ span> -Messungen hat eine $ n $ span> -mal bessere Genauigkeit als eine einzelne Messung.

Die Schätzung der Standardabweichung der normalen Gauß-Verteilung von Messungen ist

$$ s = \ sqrt {\ frac {\ Sigma ( x - \ overset {-} x) ^ 2} {n-1}} $$ span>

Die Schätzung der Standardabweichung der normalen Gauß-Verteilung der Realwertschätzung durch das arithmetische Mittel lautet:

$$ s _ {\ overset {-} x} = \ sqrt {\ frac {\ Sigma (x - \ overset {-} x) ^ 2} {n (n-1)}} $$ span>

Bei einer Methode, die aus mehreren Messschritten mit jeweils eigenem Fehler besteht, muss die Fehlerausbreitungsregel befolgt werden.

Wenn 2 Größen, die zufälligen Fehlern ausgesetzt sind, addiert oder subtrahiert werden, sind die Quadrate ihrer Standardabweichungsschätzungen additiv.

$$ (s_ {A \ pm B}) ^ 2 = (s_ {A}) ^ 2+ (s_ {B}) ^ 2 $$ span>

Wenn Mengen multipliziert werden oder geteilt werden ihre relativen Standardabweichungsschätzungen weitergegeben:

$$ \ left (\ frac {s_ {A \ cdot B}} {A \ cdot B} \ right) ^ 2 = \ left (\ frac {s_ {A. }} {A} \ right) ^ 2 + \ left (\ frac {s_ {B}} {B} \ right) ^ 2 $$ span> $$ \ left (\ frac {s_ {A / B}} {A / B} \ rechts) ^ 2 = \ links (\ frac {s_ {A}} {A} \ rechts) ^ 2 + \ links (\ frac {s_ { B}} {B} \ right) ^ 2 $$ span>

Wenn wir z Bestimmen Sie die Differenz der Standardlösungsvolumina $ A - B $ span>, wobei $ A = 20.00 \ pm 0.03 $ span >, $ B = 10.00 \ pm 0.04 $ span>,

dann $ AB = 10.00 \ pm 0.05 $ span>,

als $ \ sqrt {0,03 ^ 2 + 0,04 ^ 2} = 0,05 $ span>.

Die Genauigkeit ist mit mathematischen Mitteln schwerer zu verbessern. Sie kann durch Messvorspannungsanalyse, durch Kalibrierung von Werkzeugen oder Methoden und durch Kombination von mehr Werkzeugen / Methoden / Labors verbessert werden.

Die Genauigkeit der Messmethode wird aufgrund statistischer Fehler bei der Kalibrierung über Regeln zusätzlich verringert oben.

$$ (s_ \ mathrm {rel, method}) ^ 2 = (s_ \ mathrm {rel, Meas}) ^ 2+ (s_ \ mathrm {rel, cal}) ^ 2 $$ span>

Weitere Tools / Methoden / Labore führen zum "Mittelwert der Mittelwerte" und verringern teilweise die mögliche Verzerrung, ähnlich wie sich die Mittelung der Messungen verbessert Präzision.

Aber es ist teurer.

Schöne Antwort, +1."Genauigkeit ist schwerer zu verbessern": Da bin ich mir allerdings nicht so sicher.IMHO Rauschen / zufällige Unsicherheit ist nur theoretisch leicht zu bewältigen.In der Praxis erweisen sich interessante / wichtige Geräuschquellen oft als recht kostspielig oder sogar unmöglich zu bekämpfen.
Nun, eine bessere Präzision ist im Kontext der Frage im Allgemeinen leichter zu erreichen als eine bessere Genauigkeit mit mathematischen Mitteln.
M. Farooq
2019-08-28 08:52:44 UTC
view on stackexchange narkive permalink

Ihre nicht triviale Frage hat ein Ja und ein Nein. Es ist nicht möglich, die Genauigkeit eines Datensatzes nur mit mathematischen Mitteln zu erhöhen. Wenn Sie den systematischen Fehler in Ihren Daten kennen, können Sie die Arithmetik durchführen, um den Fehler zu korrigieren. Es gibt keine a priori Methode, um festzustellen, ob Ihr Messwerkzeug nicht genau genug ist, bis wir eine Referenz zum Vergleich haben. Das einfachste Beispiel ist das einer elektronischen Waage. Wenn wir etwas wiegen, kann nicht bestätigt werden, ob der angezeigte Wert korrekt ist oder nicht. Man kann das nur überprüfen, indem man ein Referenzgewicht, eine bekannte Masse, wiegt. SI hat diese physischen Referenzen in letzter Zeit losgeworden. Man könnte argumentieren, dass die Masse jetzt mit der Planckschen Konstante gemessen werden kann. Ja, wir müssen noch den lokalen Wert von "g" in diesem Bereich kalibrieren / bestimmen.

Kommen wir nun zum zweiten Teil: Können wir uns verbessern? die Präzision? Hier kann Mathematik helfen. Der einfachste Weg ist, dass Sie viele Messungen durchführen und davon ausgehen, dass kein systematischer Fehler vorliegt . Mangelnde Präzision bedeutet, dass bei der Messung viel Rauschen auftritt. Eine sehr fortschrittliche Technik ist Hilberts Transformation zur Reduzierung des Rauschens im Messprozess. Sie können auch eine Glättungsfunktion auf die Daten anwenden, um das Rauschen zu reduzieren.

"SI hat diese physischen Referenzen in letzter Zeit entfernt": Die primäre Referenz ist kein physisches Artefakt mehr, aber es gibt eine Methode (mise en praktique), um sekundäre Standards zu kalibrieren: https://www.nist.gov/programs-projects/nist-mise-en-pratique-new-kilogram-definition.Hier ist ein Artikel über die Methode: https://ieeexplore.ieee.org/abstract/document/6898427
cbeleites unhappy with SX
2019-08-29 02:48:12 UTC
view on stackexchange narkive permalink

Zu den Antworten von @ Poutnik und @ M.Farooq hinzufügen:

Gibt es eine gute Möglichkeit, die Genauigkeit und Präzision eines Messwerkzeugs nur mit mathematischen Mitteln systematisch zu erhöhen?

Nein, denn was Sie in Bezug auf Mathematik / Statistik tun können und sollten, hängt sehr stark von Ihrer Anwendung und den Prozessen zur Datengenerierung / -messung ab.


Die Verwendung von nur mathematischen Mitteln funktioniert nicht, da Sie wissen müssen, woher Ihr Fehler stammt, um effizient zu beheben Das heißt, neben dem Unterschied in der Behandlung zwischen systematischen und zufälligen Fehlern (siehe Poutniks Antwort) gibt es normalerweise nicht nur einen Fehler, sondern mehrere Fehler- / Unsicherheitsquellen. Neben den mathematischen / statistischen Tools zur Fehlerbehebung sind Kenntnisse über den Anwendungshintergrund und Ihre Messinstrumente erforderlich, um mögliche / wahrscheinliche Fehlerquellen zu identifizieren.
Sobald Sie diese haben, können Sie beide messen ihr Beitrag experimentell - hier können zuerst Mathematik / Statistik verwendet werden, um herauszufinden, welche die wenigen wichtigsten sind. (Wenn Sie die Situation gut genug kennen, um dies zu beurteilen, ohne dass detaillierte Experimente erforderlich sind, ist das auch in Ordnung).


Wiederholte Messungen im Vergleich zu Pooling-Ergebnissen aus verschiedenen Methoden: Dies hängt auch von Ihrer Hauptfehlerquelle ab. Wenn es sich um Messrauschen handelt, helfen wiederholte Messungen (normalerweise gemäß der $ n ^ 2 $ span> -Regel, die Poutnik für die Fehlerquellen zitiert hat, die Ihre Wiederholungen abdecken ). Sie müssen Ihre Wiederholungen jedoch auf dem richtigen "Pegel" durchführen, um die tatsächliche Geräuschquelle zu ermitteln:

Angenommen, Sie haben z. Feldabtastfehler der Standardabweichung 3 und Instrumentenrauschen der Standardabweichung 1, und sie addieren sich einfach. Der Gesamtfehler (Fehlerausbreitung für additive, unabhängige Rauschquellen) beträgt $ \ sqrt {3 ^ 2 + 1 ^ 2} \ ca. 3,16 $ span> (Standardabweichung).

  • Sie entscheiden sich für 100 Durchläufe des Instruments und reduzieren die Standardabweichung des Instrumentenfehlers um den Faktor $ \ frac {1} {\ sqrt {100} } = \ frac {1} {10} $ span>. Somit ist der Gesamtfehler jetzt $ \ sqrt {3 ^ 2 + 1 ^ 2 \ cdot \ frac {1} {10}} \ ca. 3,02 $ span>, also eine Verbesserung von fast 5%. Das heißt, ungefähr 95% des Gesamtfehlers sind Feldabtastfehler.
  • Wenn Sie stattdessen ein zweites Feldbeispiel hinzufügen, beträgt der Gesamtfehler $ \ sqrt {3 ^ 2 \ cdot \ frac {1} {2} + 1 ^ 2 } \ ca. 2,34 $ span>, dh der Gesamtfehler wird um ein Viertel verbessert.
    Dieses Verbesserungsniveau ist mit Verbesserungen im Instrumententeil bereits nicht zu erreichen.

In Zusammenfassend kann das Zusammenfassen von Ergebnissen aus verschiedenen Methoden von Vorteil sein, wenn Ihre Stichprobe (Matrix) kompliziert ist und Sie unterschiedliche Verzerrungen (z. B. Maskierung, ...) für die verschiedenen Methoden erwarten. Normalerweise würde man diese Ergebnisse nicht nur mitteln, sondern auch wieder chemisches Wissen und Anwendungswissen verwenden, um diese Ergebnisse zu interpretieren und zu gewichten. ihre Zuverlässigkeit und über die Zusammensetzung der Probe.


Möglicherweise hilfreiche Literaturfelder (meines Wissens sind diese Informationen leider auf verschiedene Bereiche verteilt):

  • Ein Lehrbuch zur Messtheorie / Messtechnik vermittelt Ihre Grundlagen Konzepte.
Qualitätskontrolle hat z. experimentelle Designs zur Messung der Größe verschiedener Mitwirkender zufälliger Unsicherheit.
  • In der Statistik können sogenannte gemischte Modelle Situationen behandeln, in denen systematische und zufällige Einflussfaktoren auftreten.
  • Die chemometrische Literatur enthält auch relevante Beiträge, insbesondere zu multivariaten Daten.
  • Literatur zu Ihrer Instrumentalmethode, in der die verschiedenen Geräuschquellen für diese Art von Instrumenten erläutert werden.
  • Anwendungsliteratur kann Sie über bestimmte anwendungsbezogene Fehlerquellen informieren.
  • Die Stichprobe verfügt über eine eigene Literatur
  • Oscar Lanzi
    2019-08-29 03:32:00 UTC
    view on stackexchange narkive permalink

    Experimentelles Design kommt ebenfalls ins Spiel. Wenn Sie ein Gerät haben, das nicht quantitativ genau ist, können Sie es auf Ihr experimentelles Beispiel und auf eine Steuerung für ccx anwenden, für die Sie einen Referenzwert für das haben, was Sie messen möchten. Anschließend kalibrieren Sie Ihre Ergebnisse auf die bekannte Referenz. Ich habe diesen Ansatz bei der Arbeit verwendet, um die Säurebeizzeiten von unterschiedlich verarbeiteten Proben eines Stahlprodukts zu vergleichen, das wir entwickeln.

    ... und stellen Sie dabei sicher, dass das Rauschen Ihrer Kalibrierungsergebnisse im Vergleich zum Rauschen bei Probenmessungen wirklich vernachlässigbar ist.Andernfalls verwandeln Sie eine zufällige Unsicherheit (Rauschen, Varianz) in eine neue Verzerrung!


    Diese Fragen und Antworten wurden automatisch aus der englischen Sprache übersetzt.Der ursprüngliche Inhalt ist auf stackexchange verfügbar. Wir danken ihm für die cc by-sa 4.0-Lizenz, unter der er vertrieben wird.
    Loading...