Абсолютная погрешность

Абсолютная погрешность — это числовая характеристика расхождения измеренного или вычисленного значения величины с её истинным (или принятым за эталон) значением. Формально абсолютная погрешность определяется как модуль разности между найденным значением и истинным значением, то есть показывает, на сколько в обычных единицах измерения результат отличается от ожидаемого. Это простое и наглядное понятие важно для понимания того, насколько можно доверять конкретному числу, полученному в опытах, при вычислениях или при обработке данных. Определение записывается как Δx=xизмxист\Delta x = \left|x_{\text{изм}} - x_{\text{ист}}\right|.

В практической работе абсолютную погрешность используют для оценки точности приборов, сравнения методов измерения и записи результата. Её значение имеет те же единицы, что и измеряемая величина, поэтому оно удобно для прямой интерпретации: небольшая абсолютная погрешность означает, что полученное число близко к истинному в тех же единицах. Результат измерения часто подаётся в форме «значение ± абсолютная погрешность» (например, для удобства представления и последующего учёта погрешностей при вычислениях): x=xизм±Δxx = x_{\text{изм}} \pm \Delta x. При этом следует учитывать, что абсолютная погрешность не учитывает относительной величины самой измеряемой величины — для сравнений ошибок при разной шкале удобнее использовать относительную погрешность или проценты.

Простой пример. Допустим, настоящая длина отрезка равна 5,0 единиц, а измеренное значение получилось 4,8 единицы. Абсолютная погрешность в этом случае равна модулю разности между измеренным и истинным значением: 4.85.0=0.2\left|4.8 - 5.0\right| = 0.2. Такое представление показывает, что отклонение в двух единицах измерения равно 0,2 единицы. На практике для одного и того же измерения часто указывают также погрешности, связанные с дискретностью прибора, систематическими смещениями и случайными влияниями; суммарная абсолютная погрешность служит одним из ключевых показателей качества измерения. {IMAGE_0}