Понятие средней квадратической ошибки

From Wikipedia, the free encyclopedia

In statistics, the mean squared error (MSE)[1] or mean squared deviation (MSD) of an estimator (of a procedure for estimating an unobserved quantity) measures the average of the squares of the errors—that is, the average squared difference between the estimated values and the actual value. MSE is a risk function, corresponding to the expected value of the squared error loss.[2] The fact that MSE is almost always strictly positive (and not zero) is because of randomness or because the estimator does not account for information that could produce a more accurate estimate.[3] In machine learning, specifically empirical risk minimization, MSE may refer to the empirical risk (the average loss on an observed data set), as an estimate of the true MSE (the true risk: the average loss on the actual population distribution).

The MSE is a measure of the quality of an estimator. As it is derived from the square of Euclidean distance, it is always a positive value that decreases as the error approaches zero.

The MSE is the second moment (about the origin) of the error, and thus incorporates both the variance of the estimator (how widely spread the estimates are from one data sample to another) and its bias (how far off the average estimated value is from the true value).[citation needed] For an unbiased estimator, the MSE is the variance of the estimator. Like the variance, MSE has the same units of measurement as the square of the quantity being estimated. In an analogy to standard deviation, taking the square root of MSE yields the root-mean-square error or root-mean-square deviation (RMSE or RMSD), which has the same units as the quantity being estimated; for an unbiased estimator, the RMSE is the square root of the variance, known as the standard error.

Definition and basic properties[edit]

The MSE either assesses the quality of a predictor (i.e., a function mapping arbitrary inputs to a sample of values of some random variable), or of an estimator (i.e., a mathematical function mapping a sample of data to an estimate of a parameter of the population from which the data is sampled). The definition of an MSE differs according to whether one is describing a predictor or an estimator.

Predictor[edit]

If a vector of n predictions is generated from a sample of n data points on all variables, and Y is the vector of observed values of the variable being predicted, with \hat{Y} being the predicted values (e.g. as from a least-squares fit), then the within-sample MSE of the predictor is computed as

{\displaystyle \operatorname {MSE} ={\frac {1}{n}}\sum _{i=1}^{n}\left(Y_{i}-{\hat {Y_{i}}}\right)^{2}.}

In other words, the MSE is the mean {\textstyle \left({\frac {1}{n}}\sum _{i=1}^{n}\right)} of the squares of the errors {\textstyle \left(Y_{i}-{\hat {Y_{i}}}\right)^{2}}. This is an easily computable quantity for a particular sample (and hence is sample-dependent).

In matrix notation,

{\displaystyle \operatorname {MSE} ={\frac {1}{n}}\sum _{i=1}^{n}(e_{i})^{2}={\frac {1}{n}}\mathbf {e} ^{\mathsf {T}}\mathbf {e} }

where e_{i} is {\displaystyle (Y_{i}-{\hat {Y_{i}}})} and {\displaystyle \mathbf {e} } is a {\displaystyle n\times 1} column vector.

The MSE can also be computed on q data points that were not used in estimating the model, either because they were held back for this purpose, or because these data have been newly obtained. Within this process, known as cross-validation, the MSE is often called the test MSE,[4] and is computed as

{\displaystyle \operatorname {MSE} ={\frac {1}{q}}\sum _{i=n+1}^{n+q}\left(Y_{i}-{\hat {Y_{i}}}\right)^{2}.}

Estimator[edit]

The MSE of an estimator \hat{\theta} with respect to an unknown parameter \theta is defined as[1]

{\displaystyle \operatorname {MSE} ({\hat {\theta }})=\operatorname {E} _{\theta }\left[({\hat {\theta }}-\theta )^{2}\right].}

This definition depends on the unknown parameter, but the MSE is a priori a property of an estimator. The MSE could be a function of unknown parameters, in which case any estimator of the MSE based on estimates of these parameters would be a function of the data (and thus a random variable). If the estimator \hat{\theta} is derived as a sample statistic and is used to estimate some population parameter, then the expectation is with respect to the sampling distribution of the sample statistic.

The MSE can be written as the sum of the variance of the estimator and the squared bias of the estimator, providing a useful way to calculate the MSE and implying that in the case of unbiased estimators, the MSE and variance are equivalent.[5]

{\displaystyle \operatorname {MSE} ({\hat {\theta }})=\operatorname {Var} _{\theta }({\hat {\theta }})+\operatorname {Bias} ({\hat {\theta }},\theta )^{2}.}

Proof of variance and bias relationship[edit]

{\displaystyle {\begin{aligned}\operatorname {MSE} ({\hat {\theta }})&=\operatorname {E} _{\theta }\left[({\hat {\theta }}-\theta )^{2}\right]\\&=\operatorname {E} _{\theta }\left[\left({\hat {\theta }}-\operatorname {E} _{\theta }[{\hat {\theta }}]+\operatorname {E} _{\theta }[{\hat {\theta }}]-\theta \right)^{2}\right]\\&=\operatorname {E} _{\theta }\left[\left({\hat {\theta }}-\operatorname {E} _{\theta }[{\hat {\theta }}]\right)^{2}+2\left({\hat {\theta }}-\operatorname {E} _{\theta }[{\hat {\theta }}]\right)\left(\operatorname {E} _{\theta }[{\hat {\theta }}]-\theta \right)+\left(\operatorname {E} _{\theta }[{\hat {\theta }}]-\theta \right)^{2}\right]\\&=\operatorname {E} _{\theta }\left[\left({\hat {\theta }}-\operatorname {E} _{\theta }[{\hat {\theta }}]\right)^{2}\right]+\operatorname {E} _{\theta }\left[2\left({\hat {\theta }}-\operatorname {E} _{\theta }[{\hat {\theta }}]\right)\left(\operatorname {E} _{\theta }[{\hat {\theta }}]-\theta \right)\right]+\operatorname {E} _{\theta }\left[\left(\operatorname {E} _{\theta }[{\hat {\theta }}]-\theta \right)^{2}\right]\\&=\operatorname {E} _{\theta }\left[\left({\hat {\theta }}-\operatorname {E} _{\theta }[{\hat {\theta }}]\right)^{2}\right]+2\left(\operatorname {E} _{\theta }[{\hat {\theta }}]-\theta \right)\operatorname {E} _{\theta }\left[{\hat {\theta }}-\operatorname {E} _{\theta }[{\hat {\theta }}]\right]+\left(\operatorname {E} _{\theta }[{\hat {\theta }}]-\theta \right)^{2}&&\operatorname {E} _{\theta }[{\hat {\theta }}]-\theta ={\text{const.}}\\&=\operatorname {E} _{\theta }\left[\left({\hat {\theta }}-\operatorname {E} _{\theta }[{\hat {\theta }}]\right)^{2}\right]+2\left(\operatorname {E} _{\theta }[{\hat {\theta }}]-\theta \right)\left(\operatorname {E} _{\theta }[{\hat {\theta }}]-\operatorname {E} _{\theta }[{\hat {\theta }}]\right)+\left(\operatorname {E} _{\theta }[{\hat {\theta }}]-\theta \right)^{2}&&\operatorname {E} _{\theta }[{\hat {\theta }}]={\text{const.}}\\&=\operatorname {E} _{\theta }\left[\left({\hat {\theta }}-\operatorname {E} _{\theta }[{\hat {\theta }}]\right)^{2}\right]+\left(\operatorname {E} _{\theta }[{\hat {\theta }}]-\theta \right)^{2}\\&=\operatorname {Var} _{\theta }({\hat {\theta }})+\operatorname {Bias} _{\theta }({\hat {\theta }},\theta )^{2}\end{aligned}}}

An even shorter proof can be achieved using the well-known formula that for a random variable {\textstyle X}, {\textstyle \mathbb {E} (X^{2})=\operatorname {Var} (X)+(\mathbb {E} (X))^{2}}. By substituting {\textstyle X} with, {\textstyle {\hat {\theta }}-\theta }, we have

{\displaystyle {\begin{aligned}\operatorname {MSE} ({\hat {\theta }})&=\mathbb {E} [({\hat {\theta }}-\theta )^{2}]\\&=\operatorname {Var} ({\hat {\theta }}-\theta )+(\mathbb {E} [{\hat {\theta }}-\theta ])^{2}\\&=\operatorname {Var} ({\hat {\theta }})+\operatorname {Bias} ^{2}({\hat {\theta }},\theta )\end{aligned}}}

But in real modeling case, MSE could be described as the addition of model variance, model bias, and irreducible uncertainty (see Bias–variance tradeoff). According to the relationship, the MSE of the estimators could be simply used for the efficiency comparison, which includes the information of estimator variance and bias. This is called MSE criterion.

In regression[edit]

In regression analysis, plotting is a more natural way to view the overall trend of the whole data. The mean of the distance from each point to the predicted regression model can be calculated, and shown as the mean squared error. The squaring is critical to reduce the complexity with negative signs. To minimize MSE, the model could be more accurate, which would mean the model is closer to actual data. One example of a linear regression using this method is the least squares method—which evaluates appropriateness of linear regression model to model bivariate dataset,[6] but whose limitation is related to known distribution of the data.

The term mean squared error is sometimes used to refer to the unbiased estimate of error variance: the residual sum of squares divided by the number of degrees of freedom. This definition for a known, computed quantity differs from the above definition for the computed MSE of a predictor, in that a different denominator is used. The denominator is the sample size reduced by the number of model parameters estimated from the same data, (np) for p regressors or (np−1) if an intercept is used (see errors and residuals in statistics for more details).[7] Although the MSE (as defined in this article) is not an unbiased estimator of the error variance, it is consistent, given the consistency of the predictor.

In regression analysis, «mean squared error», often referred to as mean squared prediction error or «out-of-sample mean squared error», can also refer to the mean value of the squared deviations of the predictions from the true values, over an out-of-sample test space, generated by a model estimated over a particular sample space. This also is a known, computed quantity, and it varies by sample and by out-of-sample test space.

In the context of gradient descent algorithms, it is common to introduce a factor of 1/2 to the MSE for ease of computation after taking the derivative. So a value which is technically half the mean of squared errors may be called the MSE.

Examples[edit]

Mean[edit]

Suppose we have a random sample of size n from a population, X_{1},\dots ,X_{n}. Suppose the sample units were chosen with replacement. That is, the n units are selected one at a time, and previously selected units are still eligible for selection for all n draws. The usual estimator for the \mu is the sample average

\overline{X}=\frac{1}{n}\sum_{i=1}^n X_i

which has an expected value equal to the true mean \mu (so it is unbiased) and a mean squared error of

{\displaystyle \operatorname {MSE} \left({\overline {X}}\right)=\operatorname {E} \left[\left({\overline {X}}-\mu \right)^{2}\right]=\left({\frac {\sigma }{\sqrt {n}}}\right)^{2}={\frac {\sigma ^{2}}{n}}}

where \sigma ^{2} is the population variance.

For a Gaussian distribution, this is the best unbiased estimator (i.e., one with the lowest MSE among all unbiased estimators), but not, say, for a uniform distribution.

Variance[edit]

The usual estimator for the variance is the corrected sample variance:

{\displaystyle S_{n-1}^{2}={\frac {1}{n-1}}\sum _{i=1}^{n}\left(X_{i}-{\overline {X}}\right)^{2}={\frac {1}{n-1}}\left(\sum _{i=1}^{n}X_{i}^{2}-n{\overline {X}}^{2}\right).}

This is unbiased (its expected value is \sigma ^{2}), hence also called the unbiased sample variance, and its MSE is[8]

{\displaystyle \operatorname {MSE} (S_{n-1}^{2})={\frac {1}{n}}\left(\mu _{4}-{\frac {n-3}{n-1}}\sigma ^{4}\right)={\frac {1}{n}}\left(\gamma _{2}+{\frac {2n}{n-1}}\right)\sigma ^{4},}

where \mu _{4} is the fourth central moment of the distribution or population, and \gamma_2=\mu_4/\sigma^4-3 is the excess kurtosis.

However, one can use other estimators for \sigma ^{2} which are proportional to S^2_{n-1}, and an appropriate choice can always give a lower mean squared error. If we define

{\displaystyle S_{a}^{2}={\frac {n-1}{a}}S_{n-1}^{2}={\frac {1}{a}}\sum _{i=1}^{n}\left(X_{i}-{\overline {X}}\,\right)^{2}}

then we calculate:

{\displaystyle {\begin{aligned}\operatorname {MSE} (S_{a}^{2})&=\operatorname {E} \left[\left({\frac {n-1}{a}}S_{n-1}^{2}-\sigma ^{2}\right)^{2}\right]\\&=\operatorname {E} \left[{\frac {(n-1)^{2}}{a^{2}}}S_{n-1}^{4}-2\left({\frac {n-1}{a}}S_{n-1}^{2}\right)\sigma ^{2}+\sigma ^{4}\right]\\&={\frac {(n-1)^{2}}{a^{2}}}\operatorname {E} \left[S_{n-1}^{4}\right]-2\left({\frac {n-1}{a}}\right)\operatorname {E} \left[S_{n-1}^{2}\right]\sigma ^{2}+\sigma ^{4}\\&={\frac {(n-1)^{2}}{a^{2}}}\operatorname {E} \left[S_{n-1}^{4}\right]-2\left({\frac {n-1}{a}}\right)\sigma ^{4}+\sigma ^{4}&&\operatorname {E} \left[S_{n-1}^{2}\right]=\sigma ^{2}\\&={\frac {(n-1)^{2}}{a^{2}}}\left({\frac {\gamma _{2}}{n}}+{\frac {n+1}{n-1}}\right)\sigma ^{4}-2\left({\frac {n-1}{a}}\right)\sigma ^{4}+\sigma ^{4}&&\operatorname {E} \left[S_{n-1}^{4}\right]=\operatorname {MSE} (S_{n-1}^{2})+\sigma ^{4}\\&={\frac {n-1}{na^{2}}}\left((n-1)\gamma _{2}+n^{2}+n\right)\sigma ^{4}-2\left({\frac {n-1}{a}}\right)\sigma ^{4}+\sigma ^{4}\end{aligned}}}

This is minimized when

a=\frac{(n-1)\gamma_2+n^2+n}{n} = n+1+\frac{n-1}{n}\gamma_2.

For a Gaussian distribution, where \gamma_2=0, this means that the MSE is minimized when dividing the sum by a=n+1. The minimum excess kurtosis is \gamma_2=-2,[a] which is achieved by a Bernoulli distribution with p = 1/2 (a coin flip), and the MSE is minimized for {\displaystyle a=n-1+{\tfrac {2}{n}}.} Hence regardless of the kurtosis, we get a «better» estimate (in the sense of having a lower MSE) by scaling down the unbiased estimator a little bit; this is a simple example of a shrinkage estimator: one «shrinks» the estimator towards zero (scales down the unbiased estimator).

Further, while the corrected sample variance is the best unbiased estimator (minimum mean squared error among unbiased estimators) of variance for Gaussian distributions, if the distribution is not Gaussian, then even among unbiased estimators, the best unbiased estimator of the variance may not be S^2_{n-1}.

Gaussian distribution[edit]

The following table gives several estimators of the true parameters of the population, μ and σ2, for the Gaussian case.[9]

True value Estimator Mean squared error
{\displaystyle \theta =\mu } \hat{\theta} = the unbiased estimator of the population mean, \overline{X}=\frac{1}{n}\sum_{i=1}^n(X_i) \operatorname{MSE}(\overline{X})=\operatorname{E}((\overline{X}-\mu)^2)=\left(\frac{\sigma}{\sqrt{n}}\right)^2
{\displaystyle \theta =\sigma ^{2}} \hat{\theta} = the unbiased estimator of the population variance, S^2_{n-1} = \frac{1}{n-1}\sum_{i=1}^n\left(X_i-\overline{X}\,\right)^2 \operatorname{MSE}(S^2_{n-1})=\operatorname{E}((S^2_{n-1}-\sigma^2)^2)=\frac{2}{n - 1}\sigma^4
{\displaystyle \theta =\sigma ^{2}} \hat{\theta} = the biased estimator of the population variance, S^2_{n} = \frac{1}{n}\sum_{i=1}^n\left(X_i-\overline{X}\,\right)^2 \operatorname{MSE}(S^2_{n})=\operatorname{E}((S^2_{n}-\sigma^2)^2)=\frac{2n - 1}{n^2}\sigma^4
{\displaystyle \theta =\sigma ^{2}} \hat{\theta} = the biased estimator of the population variance, S^2_{n+1} = \frac{1}{n+1}\sum_{i=1}^n\left(X_i-\overline{X}\,\right)^2 \operatorname{MSE}(S^2_{n+1})=\operatorname{E}((S^2_{n+1}-\sigma^2)^2)=\frac{2}{n + 1}\sigma^4

Interpretation[edit]

An MSE of zero, meaning that the estimator \hat{\theta} predicts observations of the parameter \theta with perfect accuracy, is ideal (but typically not possible).

Values of MSE may be used for comparative purposes. Two or more statistical models may be compared using their MSEs—as a measure of how well they explain a given set of observations: An unbiased estimator (estimated from a statistical model) with the smallest variance among all unbiased estimators is the best unbiased estimator or MVUE (Minimum-Variance Unbiased Estimator).

Both analysis of variance and linear regression techniques estimate the MSE as part of the analysis and use the estimated MSE to determine the statistical significance of the factors or predictors under study. The goal of experimental design is to construct experiments in such a way that when the observations are analyzed, the MSE is close to zero relative to the magnitude of at least one of the estimated treatment effects.

In one-way analysis of variance, MSE can be calculated by the division of the sum of squared errors and the degree of freedom. Also, the f-value is the ratio of the mean squared treatment and the MSE.

MSE is also used in several stepwise regression techniques as part of the determination as to how many predictors from a candidate set to include in a model for a given set of observations.

Applications[edit]

  • Minimizing MSE is a key criterion in selecting estimators: see minimum mean-square error. Among unbiased estimators, minimizing the MSE is equivalent to minimizing the variance, and the estimator that does this is the minimum variance unbiased estimator. However, a biased estimator may have lower MSE; see estimator bias.
  • In statistical modelling the MSE can represent the difference between the actual observations and the observation values predicted by the model. In this context, it is used to determine the extent to which the model fits the data as well as whether removing some explanatory variables is possible without significantly harming the model’s predictive ability.
  • In forecasting and prediction, the Brier score is a measure of forecast skill based on MSE.

Loss function[edit]

Squared error loss is one of the most widely used loss functions in statistics[citation needed], though its widespread use stems more from mathematical convenience than considerations of actual loss in applications. Carl Friedrich Gauss, who introduced the use of mean squared error, was aware of its arbitrariness and was in agreement with objections to it on these grounds.[3] The mathematical benefits of mean squared error are particularly evident in its use at analyzing the performance of linear regression, as it allows one to partition the variation in a dataset into variation explained by the model and variation explained by randomness.

Criticism[edit]

The use of mean squared error without question has been criticized by the decision theorist James Berger. Mean squared error is the negative of the expected value of one specific utility function, the quadratic utility function, which may not be the appropriate utility function to use under a given set of circumstances. There are, however, some scenarios where mean squared error can serve as a good approximation to a loss function occurring naturally in an application.[10]

Like variance, mean squared error has the disadvantage of heavily weighting outliers.[11] This is a result of the squaring of each term, which effectively weights large errors more heavily than small ones. This property, undesirable in many applications, has led researchers to use alternatives such as the mean absolute error, or those based on the median.

See also[edit]

  • Bias–variance tradeoff
  • Hodges’ estimator
  • James–Stein estimator
  • Mean percentage error
  • Mean square quantization error
  • Mean square weighted deviation
  • Mean squared displacement
  • Mean squared prediction error
  • Minimum mean square error
  • Minimum mean squared error estimator
  • Overfitting
  • Peak signal-to-noise ratio

Notes[edit]

  1. ^ This can be proved by Jensen’s inequality as follows. The fourth central moment is an upper bound for the square of variance, so that the least value for their ratio is one, therefore, the least value for the excess kurtosis is −2, achieved, for instance, by a Bernoulli with p=1/2.

References[edit]

  1. ^ a b «Mean Squared Error (MSE)». www.probabilitycourse.com. Retrieved 2020-09-12.
  2. ^ Bickel, Peter J.; Doksum, Kjell A. (2015). Mathematical Statistics: Basic Ideas and Selected Topics. Vol. I (Second ed.). p. 20. If we use quadratic loss, our risk function is called the mean squared error (MSE) …
  3. ^ a b Lehmann, E. L.; Casella, George (1998). Theory of Point Estimation (2nd ed.). New York: Springer. ISBN 978-0-387-98502-2. MR 1639875.
  4. ^ Gareth, James; Witten, Daniela; Hastie, Trevor; Tibshirani, Rob (2021). An Introduction to Statistical Learning: with Applications in R. Springer. ISBN 978-1071614174.
  5. ^ Wackerly, Dennis; Mendenhall, William; Scheaffer, Richard L. (2008). Mathematical Statistics with Applications (7 ed.). Belmont, CA, USA: Thomson Higher Education. ISBN 978-0-495-38508-0.
  6. ^ A modern introduction to probability and statistics : understanding why and how. Dekking, Michel, 1946-. London: Springer. 2005. ISBN 978-1-85233-896-1. OCLC 262680588.{{cite book}}: CS1 maint: others (link)
  7. ^ Steel, R.G.D, and Torrie, J. H., Principles and Procedures of Statistics with Special Reference to the Biological Sciences., McGraw Hill, 1960, page 288.
  8. ^ Mood, A.; Graybill, F.; Boes, D. (1974). Introduction to the Theory of Statistics (3rd ed.). McGraw-Hill. p. 229.
  9. ^ DeGroot, Morris H. (1980). Probability and Statistics (2nd ed.). Addison-Wesley.
  10. ^ Berger, James O. (1985). «2.4.2 Certain Standard Loss Functions». Statistical Decision Theory and Bayesian Analysis (2nd ed.). New York: Springer-Verlag. p. 60. ISBN 978-0-387-96098-2. MR 0804611.
  11. ^ Bermejo, Sergio; Cabestany, Joan (2001). «Oriented principal component analysis for large margin classifiers». Neural Networks. 14 (10): 1447–1461. doi:10.1016/S0893-6080(01)00106-X. PMID 11771723.

Чтобы
судить о сте­пени точности данного
ряда измерений, надо вывести среднее
значение погрешности измерения. При
выборе критерия для оценки точности
данного ряда измерений необходимо иметь
в виду, что на практике резуль­тат
считается одинаково ошибочным, будет
ли он больше истин­ного значения или
меньше на одну и ту же величину. Кроме
того, чем крупнее в данном ряду отдельные
погрешности, тем меньше его точность.
Исходя из этих соображений, надо
уста­новить такой критерий для оценки
точности измерений, который не зависел
бы от знаков отдельных погрешностей и
на котором наличие сравнительно крупных
отдельных погрешностей было бы рельефнее
отражено.

Таким
требованиям удовлетворяет предложенная
Гауссом средняя квадратическая
погрешность

т.
е. квадрат средней квадратической
погрешности принимается равным среднему
арифметическому из квадратов истинных
по­грешностей.

Во
многих случаях точное (истинное) значение
измеряемой величины неизвестно. В таких
случаях среднюю квадратическую
погрешность m
вычисляют по уклонениям Vi
отдель­ных результатов измерений li
от ариф­метического среднего

Сложив
n
таких равенств, получим

А
т.к.

Следовательно,
в данном случае [v] = 0 при всяком числе
измерений. Через такие уклонения
арифметического среднего средняя
квадратическая погрешность устанавливается
по формуле

Этой
формулой Бесселя обычно пользуются на
практике для вычисления средней
квадратической погрешности измерений.

10. Обработка измерений по истинным и вероятнейшим ошибкам.

11. Принцип измерения горизонт. И вертик. Углов. Устройство теодолита 2т30п.

Горизонтальный
угол – это ортогональная проекция
пространственного угла на горизонтальную
плоскость. При измерении гориз. углов
применяют способы круговых приёмов или
повторений. Теодолит устан. в вершине
угла и приводят его в рабочее положение.
Направление сторон угла, если измерения
выполняются на дневной поверхности,
обозначаются вехами. Установка теодолита
в рабочее положение состоит из двух
операций: центрирование и горизонтирование.

Центрирование
заключается в размещении вертикальной
оси теодолита над вершиной угла (точкой)
и осуществляется при помощи отвеса.
Теодолит устанавливают над точкой так,
чтобы верхняя плоскость головки штатива
была горизонтальна, остриё отвеса
проектировалось на точку. Горизонтирование
же заключается в приведении вертикальной
оси теодолита в отвесное положение. Для
этого устанавливают уровень при алидаде
горизонтального круга по направлению
2-х подъемных винтов и, вращая их выводят
пузырёк уровня на середину; открепив
алидаду, устанавливают уровень по
направлению 3-го винта и вращением
последнего снова выводят пузырёк на
середину.

Способ
приёмов.

При неподвижном лимбе вращения алидады
визируют на заднюю точку А. Вначале по
оптическому визиру зрительную трубу
наводят от руки, пока визируемая цель
не попадёт в поле зрения. Затем закрепляют
винты алидады и зрительной трубы, и
отфокусировав трубу по предмету,
выполняют визирование с помощью наводящих
винтов и алидады и трубы горизонтального
круга. Затем берут отсчёт a
по горизонтальному кругу и записывают
его в журнал измерений.

Открепив
алидаду, визируют на переднюю точку С
и берут отсчёт b.
Тогда значение правого на ходу угла ,
определяется как разность отсчетов на
заднюю и переднюю точку:

кл=a-b
Все эти действия составляют один
полуприём. Затем сбивают алидаду на 90О
и
поворачивают на туже точку. Вычисляют
значение кп

Два
полуприёма составляют один полный
приём. Расхождения результатов не должно
превышать двойной точности отстчётного
устройства теодолита, т.е. клкп2t

За
окончательный результат принимают
среднее значение угла.

В
теодолитах для измерения углов наклона
– вертикальных углов, между направлениями
визирной оси зрительной трубы и
горизонтальной плоскостью используется
угломерный круг, жёсткой укреплённый
на оси вращения зрительной трубы. На
внешней части угломерного круга нанесены
деления лимба, оцифровка которых
отличается в различных моделях теодолита.

Зрительная
труба переворачивается через зенит. В
связи с этим вертикальный круг может
оказаться справа от неё, это положение
называется круг право (КП), и слева (КЛ).

Главное
условие, которое должно соблюдаться в
вертикальном круге, заключается в том,
чтобы при совмещении нуля верньера с
нулевыми шкалами вертикального круга
визирная ось зрительной трубы ZZ
была параллельно оси цилиндрического
уровня LL.
При соблюдении этого условия отсчёт по
лимбу вертикального круга даёт
непосредственное значение угла наклона
вертикальной оси зрительной трубы. Если
же ось уровня не || нулевому диаметру
алидады, то при горизонтальном положении
визирной оси, зрительной трубы и оси
уровня нуль лимба не совпадает с нулём
верньера, т.е. отсчёт по вертикальному
кругу не равен нулю.

Отсчёт
по вертикальному кругу, соответствующий
горизонтальному положению визирной
оси зрительной трубы, когда пузырёк
уровня выведен на середину, принято
называть местом нуля, обозначается МО.
Для определения значения МО визируем
зрительную трубу при КП и КЛ на одну и
ту же точку, и берут отсчёты по вертикальному
кругу при каждом наведении трубы.

  1. Для
    теодолитов с круговой оцифровкой
    вертикального круга против часовой
    стрелки (Т30) значения МО и углов наклона
    могут быть рассчитаны по формулам:

При
вычислении надо руководствоваться
правилом: к величинам КП,КЛ и МО , меньшим
90О
, необходимо прибавлять 360О.

  1. При
    секторной оцифровке лимба вертикального
    круга от нуля в обе стороны – по ходу
    и против хода часовой стрелки, т.е. для
    теодолитов 2Т30,Т15 ,2Е5 и др.

Вычисления
МО и углов наклона можно выполнять по
формулам.

Правильность
измерений вертикальных углов на станции
контролируется постоянством МО, колебания
которые в процессе измерений не должны
превышать двойной точности отсчётного
устройства. Все отсчёты заносятся в
журнал измерений.

Теодолит
– угломерный геодезический прибор.
Основные части теодолита – подставка
с поъемными винтами, Лимб, алидада с
колонками, вертикальный круг, зрительныя
труба, цилиндрический уровень, подъемные
винты, кремальерные и наводящие винты,
кримальера, микроскоп.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]

  • #
  • #
  • #
  • #
  • #
  • #
  • #
  • #
  • #
  • #
  • #

Среднеквадрати́ческое отклонение (среднеквадрати́чное отклонение, стандартное отклонение[1]) — наиболее распространённый показатель рассеивания значений случайной величины относительно её математического ожидания (аналога среднего арифметического с бесконечным числом исходов). Обычно означает квадратный корень из дисперсии случайной величины, но иногда может означать тот или иной вариант оценки этого значения.

В литературе обычно обозначают греческой буквой \sigma (сигма). В статистике принято два обозначения: \sigma  — для генеральной совокупности и {\displaystyle sd} (с англ. standard deviation — стандартное отклонение) — для выборки.

Варианты определения

Править

Обычно определяется как квадратный корень из дисперсии случайной величины:  . Измеряется в единицах измерения самой случайной величины и используется при расчёте стандартной ошибки среднего арифметического, при построении доверительных интервалов, при статистической проверке гипотез, при измерении линейной взаимосвязи между случайными величинами.

На практике, когда вместо точного распределения случайной величины в распоряжении имеется лишь выборка, стандартное отклонение, как и математическое ожидание, оценивают (выборочная дисперсия), и делать это можно разными способами. Термины «стандартное отклонение» и «среднеквадратическое отклонение» обычно применяют к квадратному корню из дисперсии случайной величины (определённому через её истинное распределение), но иногда и к различным вариантам оценки этой величины на основании выборки.

В частности, если   —  -й элемент выборки,   — объём выборки,   — среднее арифметическое выборки (выборочное среднее — оценка математического ожидания величины):

 ,

то два основных способа оценки стандартного отклонения записываются нижеследующим образом.

Оценка стандартного отклонения на основании смещённой оценки дисперсии (иногда называемой просто выборочной дисперсией[2]):

 .

Это в буквальном смысле среднее квадратическое разностей измеренных значений и среднего.

Оценка стандартного отклонения на основании несмещённой оценки дисперсии (подправленной выборочной дисперсии[2], в ГОСТ Р 8.736-2011 — «среднее квадратическое отклонение»):

 

Само по себе, однако,   не является несмещённой оценкой квадратного корня из дисперсии, то есть извлечение квадратного корня «портит» несмещённость.

Обе оценки являются состоятельными[2].

Кроме того, среднеквадратическим отклонением называют математическое ожидание квадрата разности истинного значения случайной величины и её оценки для некоторого метода оценки[3]. Если оценка несмещённая (выборочное среднее — как раз несмещённая оценка для случайной величины), то эта величина равна дисперсии этой оценки.

Среднее значение выборки также является случайной величиной с оценкой среднеквадратичного отклонения[3][]:

 

Правило трёх сигм

Править

 
График плотности вероятности нормального распределения и процент попадания случайной величины на отрезки, равные среднеквадратическому отклонению.

Правило трёх сигм ( ) гласит: вероятность того, что любая случайная величина отклонится от своего среднего значения менее чем на  :

 .

Практически все значения нормально распределённой случайной величины лежат в интервале  , где   — математическое ожидание случайной величины. Более строго — приблизительно с вероятностью 0,9973 значение нормально распределённой случайной величины лежит в указанном интервале.

Интерпретация

Править

Большее значение среднеквадратического отклонения показывает больший разброс значений в представленном множестве со средней величиной множества; меньшее значение, соответственно, показывает, что значения в множестве сгруппированы вокруг среднего значения.

Например, для у всех трёх числовых множеств: {0, 0, 14, 14}, {0, 6, 8, 14} и {6, 6, 8, 8} средние значения равны 7, а среднеквадратические отклонения, соответственно, равны 7, 5 и 1. У последнего множества среднеквадратическое отклонение маленькое, так как значения в множестве сгруппированы вокруг среднего значения; у первого множества самое большое значение среднеквадратического отклонения — значения внутри множества сильно расходятся со средним значением.

В общем смысле среднеквадратическое отклонение можно считать мерой неопределённости. К примеру, в физике среднеквадратическое отклонение используется для определения погрешности серии последовательных измерений какой-либо величины. Это значение очень важно для определения правдоподобности изучаемого явления в сравнении с предсказанным теорией значением: если среднее значение измерений сильно отличается от предсказанных теорией значений (большое значение среднеквадратического отклонения), то полученные значения или метод их получения следует перепроверить.

Практическое применение

Править

На практике среднеквадратическое отклонение позволяет оценить, насколько значения из множества могут отличаться от среднего значения.

Экономика и финансы

Править

Среднее квадратическое отклонение доходности портфеля   отождествляется с риском портфеля.

В техническом анализе среднеквадратическое отклонение используется для построения линий Боллинджера, расчёта волатильности.

Оценка рисков и критика

Править

Среднеквадратическое отклонение широко распространено в финансовой сфере в качестве критерия оценки инвестиционного риска. По мнению американского экономиста Нассима Талеба, этого делать не следует. Так, по теории около двух третей изменений должны укладываться в определённые рамки (среднеквадратические отклонения −1 и +1) и что колебания свыше семи стандартных отклонений практически невозможны. Однако в реальной жизни, по мнению Талеба, всё иначе — скачки отдельных показателей могут превышать 10, 20, а иногда и 30 стандартных отклонений. Талеб считает, что риск-менеджерам следует избегать использования средств и методов, связанных со стандартными отклонениями, таких как регрессионные модели, коэффициент детерминации (R-квадрат) и бета-факторы. Кроме того, по мнению Талеба, среднеквадратическое отклонение — слишком сложный для понимания метод. Он считает, что тот, кто пытается оценить риск с помощью единственного показателя, обречён на неудачу[4].

Климат

Править

Предположим, существуют два города с одинаковой средней максимальной дневной температурой, но один расположен на побережье, а другой внутри континента. Известно, что в городах, расположенных на побережье, множество различных максимальных дневных температур меньше, чем у городов, расположенных внутри континента. Поэтому среднеквадратическое отклонение максимальных дневных температур у прибрежного города будет меньше, чем у второго города, несмотря на то, что среднее значение этой величины у них одинаковое, что на практике означает, что вероятность того, что максимальная температура воздуха каждого конкретного дня в году будет сильнее отличаться от среднего значения, выше у города, расположенного внутри континента.

Спорт

Править

Предположим, что есть несколько футбольных команд, которые оцениваются по некоторому набору параметров, например, количеству забитых и пропущенных голов, голевых моментов и т. п. Наиболее вероятно, что лучшая в этой группе команда будет иметь лучшие значения по большему количеству параметров. Чем меньше у команды среднеквадратическое отклонение по каждому из представленных параметров, тем предсказуемее является результат команды, такие команды являются сбалансированными. С другой стороны, у команды с большим значением среднеквадратического отклонения сложно предсказать результат, что в свою очередь объясняется дисбалансом, например, сильной защитой, но слабым нападением.

Использование среднеквадратического отклонения параметров команды позволяет в той или иной мере предсказать результат матча двух команд, оценивая сильные и слабые стороны команд, а значит, и выбираемых способов борьбы.

Пример

Править

Предположим, что интересующая нас группа (генеральная совокупность) это класс из восьми учеников, которым выставляются оценки по 10-бальной системе. Так как мы оцениваем всю группу, а не её выборку, можно использовать стандартное отклонение на основании смещённой оценки дисперсии. Для этого берём квадратный корень из среднего арифметического квадратов отклонений величин от их среднего значения.

Пусть оценки учеников класса следующие:

 .

Тогда средняя оценка равна:

 .

Вычислим квадраты отклонений оценок учеников от их средней оценки:

 

Среднее арифметическое этих значений называется дисперсией:

 

Стандартное отклонение равно квадратному корню дисперсии:

 

Эта формула справедлива только если эти восемь значений и являются генеральной совокупностью. Если бы эти данные были случайной выборкой из какой-то большой совокупности (например, оценки восьми случайно выбранных учеников большого города), то в знаменателе формулы для вычисления дисперсии вместо n = 8 нужно было бы поставить n − 1 = 7:

 

и стандартное отклонение равнялось бы:

 

Этот результат называется стандартным отклонением на основании несмещённой оценки дисперсии. Деление на n − 1 вместо n даёт неискажённую оценку дисперсии для больших генеральных совокупностей.

Примечания

Править

  1. Встречаются также различные синонимы: среднее квадратическое отклонение, стандартный разброс, стандартная неопределённость; термин «среднее квадратическое» означает «среднее степени 2»
  2. 1 2 3 Ивченко Г. И., Медведев Ю. И. Введение в математическую статистику. — М. : Издательство ЛКИ, 2010. — §2.2. Выборочные моменты: точная и асимптотическая теория. — ISBN 978-5-382-01013-7.
  3. 1 2 C. Patrignani et al. (Particle Data Group). 39. STATISTICS. — В: Review of Particle Physics // Chin. Phys. C. — 2016. — Vol. 40. — P. 100001. — doi:10.1088/1674-1137/40/10/100001.
  4. Талеб, Гольдштейн, Шпицнагель, 2022, с. 46.

Литература

Править

  • Боровиков В. STATISTICA. Искусство анализа данных на компьютере: Для профессионалов / В. Боровиков. — СПб.: Питер, 2003. — 688 с. — ISBN 5-272-00078-1..
  • Нассим Талеб, Дениэл Гольдштейн, Марк Шпицнагель. Шесть ошибок руководителей компаний при управлении рисками // Управление рисками (Серия «Harvard Business Review: 10 лучших статей») = On Managing Risk / Коллектив авторов. — М.: Альпина Паблишер, 2022. — С. 41—50. — 206 с. — ISBN 978-5-9614-8186-0.

Среднеквадратичная ошибка (Mean Squared Error) – Среднее арифметическое (Mean) квадратов разностей между предсказанными и реальными значениями Модели (Model) Машинного обучения (ML):

MSE как среднее дистанций между предсказаниями и реальными наблюдениями

Рассчитывается с помощью формулы, которая будет пояснена в примере ниже:

$$MSE = \frac{1}{n} × \sum_{i=1}^n (y_i — \widetilde{y}_i)^2$$
$$MSE\space{}{–}\space{Среднеквадратическая}\space{ошибка,}$$
$$n\space{}{–}\space{количество}\space{наблюдений,}$$
$$y_i\space{}{–}\space{фактическая}\space{координата}\space{наблюдения,}$$
$$\widetilde{y}_i\space{}{–}\space{предсказанная}\space{координата}\space{наблюдения,}$$

MSE практически никогда не равен нулю, и происходит это из-за элемента случайности в данных или неучитывания Оценочной функцией (Estimator) всех факторов, которые могли бы улучшить предсказательную способность.

Пример. Исследуем линейную регрессию, изображенную на графике выше, и установим величину среднеквадратической Ошибки (Error). Фактические координаты точек-Наблюдений (Observation) выглядят следующим образом:

Мы имеем дело с Линейной регрессией (Linear Regression), потому уравнение, предсказывающее положение записей, можно представить с помощью формулы:

$$y = M * x + b$$
$$y\space{–}\space{значение}\space{координаты}\space{оси}\space{y,}$$
$$M\space{–}\space{уклон}\space{прямой}$$
$$x\space{–}\space{значение}\space{координаты}\space{оси}\space{x,}$$
$$b\space{–}\space{смещение}\space{прямой}\space{относительно}\space{начала}\space{координат}$$

Параметры M и b уравнения нам, к счастью, известны в данном обучающем примере, и потому уравнение выглядит следующим образом:

$$y = 0,5252 * x + 17,306$$

Зная координаты реальных записей и уравнение линейной регрессии, мы можем восстановить полные координаты предсказанных наблюдений, обозначенных серыми точками на графике выше. Простой подстановкой значения координаты x в уравнение мы рассчитаем значение координаты ỹ:

Рассчитаем квадрат разницы между Y и Ỹ:

Сумма таких квадратов равна 4 445. Осталось только разделить это число на количество наблюдений (9):

$$MSE = \frac{1}{9} × 4445 = 493$$

Само по себе число в такой ситуации становится показательным, когда Дата-сайентист (Data Scientist) предпринимает попытки улучшить предсказательную способность модели и сравнивает MSE каждой итерации, выбирая такое уравнение, что сгенерирует наименьшую погрешность в предсказаниях.

MSE и Scikit-learn

Среднеквадратическую ошибку можно вычислить с помощью SkLearn. Для начала импортируем функцию:

import sklearn
from sklearn.metrics import mean_squared_error

Инициализируем крошечные списки, содержащие реальные и предсказанные координаты y:

y_true = [5, 41, 70, 77, 134, 68, 138, 101, 131]
y_pred = [23, 35, 55, 90, 93, 103, 118, 121, 129]

Инициируем функцию mean_squared_error(), которая рассчитает MSE тем же способом, что и формула выше:

mean_squared_error(y_true, y_pred)

Интересно, что конечный результат на 3 отличается от расчетов с помощью Apple Numbers:

496.0

Ноутбук, не требующий дополнительной настройки на момент написания статьи, можно скачать здесь.

Автор оригинальной статьи: @mmoshikoo

Фото: @tobyelliott

На чтение 9 мин Просмотров 2.1к. Опубликовано

Теория ошибок измерений изучает свойства ошибок и законы их распределения, методы обработки измерений с учетом их ошибок, а также способы вычисления числовых характеристик точности измерений. При многократных измерениях одной и той же величины результаты измерений получаются неодинаковыми. Этот очевидный факт говорит о том, что измерения сопровождаются разными по величине и по знаку ошибками. Задача теории ошибок – нахождение наиболее надежного значения измеренной величины, оценка точности результатов измерений и их функций и установление допусков, ограничивающих использование результатов обработки измерений.

По своей природе ошибки бывают грубые, систематические и случайные.

Начальные сведения из теории ошибок

Грубые ошибки являются результатом промахов и просчетов. Их можно избежать при внимательном и аккуратном отношении к работе и организации надежного полевого контроля измерений. В теории ошибок грубые ошибки не изучаются.

Систематические ошибки имеют определенный источник, направление и величину. Если источник систематической ошибки обнаружен и изучен, то можно получить формулу влияния этой ошибки на результат измерения и затем ввести в него поправку; это исключит влияние систематической ошибки. Пока источник какой-либо систематической ошибки не найден, приходится считать ее случайной ошибкой, ухудшающей качество измерений.

Случайные ошибки измерений обусловлены точностью способа измерений (строгостью теории), точностью измерительного прибора, квалификацией исполнителя и влиянием внешних условий. Закономерности случайных ошибок проявляются в массе, то-есть, при большом количестве измерений; такие закономерности называют статистическими. Освободить результат единичного измерения от случайных ошибок невозможно; невозможно также предсказать случайную ошибку единичного измерения. Теория ошибок занимается в основном изучением случайных ошибок.

Случайная истинная ошибка измерения Δ – это разность между измеренным значением величины l и ее истинным значением X:
Начальные сведения из теории ошибок(1.25)

Свойства случайных ошибок. Случайные ошибки подчиняются некоторым закономерностям:

1. при данных условиях измерений абсолютные значения случайных ошибок не превосходят некоторого предела; если какая-либо ошибка выходит за этот предел, она считается грубой,
2. положительные и отрицательные случайные ошибки равновозможны,
3. среднее арифметическое случайных ошибок стремится к нулю при неограниченном возрастании числа измерений. Третье свойство случайных ошибок записывается так:
Начальные сведения из теории ошибок(1.26)
4. малые по абсолютной величине случайные ошибки встречаются чаще, чем большие.

Кроме того, во всей массе случайных ошибок не должно быть явных закономерностей ни по знаку, ни по величине. Если закономерность обнаруживается, значит здесь сказывается влияние какой-то систематической ошибки.

Средняя квадратическая ошибка одного измерения. Для оценки точности измерений можно применять разные критерии; в геодезии таким критерием является средняя квадратическая ошибка. Это понятие было введено Гауссом; он же разработал основные положения теории ошибок. Средняя квадратическая ошибка одного измерения обозначается буквой m и вычисляется по формуле Гаусса:
Начальные сведения из теории ошибок(1.27)

где: Начальные сведения из теории ошибок;
n – количество измерений одной величины.

Средняя квадратическая ошибка очень чувствительна к большим по абсолютной величине ошибкам, так как каждая ошибка возводится в квадрат. В то же время она является устойчивым критерием для оценки точности даже при небольшом количество измерений; начиная с некоторого n дальнейшее увеличение числа измерений почти не изменяет значения m; доказано, что уже при n = 8 значение m получается достаточно надежным.

Предельная ошибка ряда измерений обозначается Δпред; она обычно принимается равной 3*m при теоретических исследованиях и 2*m или 2.5*m при практических измерениях. Считается, что из тысячи измерений только три ошибки могут достигать или немного превосходить значение Δпред = 3*m.

Начальные сведения из теории ошибок

Отношение mx/X называется средней квадратической относительной ошибкой; для некоторых видов измерений относительная ошибка более наглядна, чем m. Относительная ошибка выражается дробью с числителем, равным 1, например, mx/X = 1/10 000.

Средняя квадратическая ошибка функции измеренных величин. Выведем формулу средней квадратической ошибки функции нескольких аргументов произвольного вида:

F = f( X, Y, Z … ),                        (1.28)

здесь: X, Y, Z … – истинные значения аргументов,
F – истинное значение функции.

В результате измерений получены измеренные значения аргументов lX, lY, lZ, при этом:
Начальные сведения из теории ошибок(1.29)

где ΔX, ΔY, ΔZ – случайные истинные ошибки измерения аргументов.

Функцию F можно выразить через измеренные значения аргуметов и их истинные ошибки:
Начальные сведения из теории ошибок
Разложим функцию F в ряд Тейлора, ограничившись первой степенью малых приращений ΔX, ΔY, ΔZ:
Начальные сведения из теории ошибок(1.30)

Разность является случайной истинной ошибкой функции с противоположным знаком, поэтому:
Начальные сведения из теории ошибок(1.31)

Если выполнить n измерений аргументов X, Y, Z, то можно записать n уравнений вида (1.31). Возведем все эти уравнения в квадрат и сложим их; суммарное уравнение разделим на n и получим
Начальные сведения из теории ошибокНачальные сведения из теории ошибок
В силу третьего свойства случайных ошибок члены, содержащие произведения случайных ошибок, будут незначительными по величине, и их можно не учитывать; таким образом,
Начальные сведения из теории ошибок(1.32)

Как частные случаи формулы (1.32) можно написать выражения для средней квадратической ошибки некоторых функций:
Начальные сведения из теории ошибок
Если функция имеет вид произведения нескольких аргументов,

F = x * y * z,

то для нее можно записать выражение относительной ошибки функции:
Начальные сведения из теории ошибок(1.33)

которое в некоторых случаях оказывается более удобным, чем формула (1.32).

Принцип равных влияний. В геодезии часто приходится определять средние квадратические ошибки аргументов по заданной средней квадратической ошибке функции. Если аргумент всего один, то решение задачи не представляет трудности. Если число аргументов t больше одного, то возникает задача нахождения t неизвестных из одного уравнения, которую можно решить, применяя принцип равных влияний. Согласно этому принципу все слагаемые правой части формулы (1.32) или (1.33) считаются равными между собой.

Арифметическая середина. Пусть имеется n измерений одной величины X, то-есть,
Начальные сведения из теории ошибок(1.34)

Сложим эти равенства, суммарное уравнение разделим на n и получим:
Начальные сведения из теории ошибок(1.35)

Величина  Начальные сведения из теории ошибок (1.36)

называется средним арифметическим или простой арифметической серединой. Запишем (1.35) в виде
Начальные сведения из теории ошибок
по третьему свойству ошибок (1.26) можно написать:
Начальные сведения из теории ошибок
что означает, что при неограниченном возрастании количества измерений простая арифметическая середина стремится к истинному значению измеряемой величины. При ограниченном количестве измерений арифметическая середина является наиболее надежным и достоверным значением измеряемой величины.

Запишем формулу (1.36) в виде
Начальные сведения из теории ошибок
и подсчитаем среднюю квадратическую ошибку арифметической середины, которая обозначается буквой M. Согласно формуле (1.32) напишем:
Начальные сведения из теории ошибок
или
Начальные сведения из теории ошибок
Но ml1 = ml2 = … = mln= m по условию задачи, так как величина X измеряется при одних и тех же условиях. Тогда в квадратных скобках будет n * m2, одно n сократится и в итоге получим:

M2 = m2/n

или
Начальные сведения из теории ошибок(1.37)

то-есть, средняя квадратическая ошибка арифметической середины в корень из n раз меньше ошибки одного измерения.

Вычисление средней квадратической ошибки по уклонениям от арифметической середины. Формулу Гаусса (1.27) применяют лишь в теоретических выкладках и при исследованиях приборов и методов измерений, когда известно истинное значение измеряемой величины. На практике оно, как правило, неизвестно, и оценку точности выполняют по уклонениям от арифметической середины.

Пусть имеется ряд равноточных измерений величины X:

l1, l2 , …, ln .

Вычислим арифметическую середину X0 = [1]/n и образуем разности:
Начальные сведения из теории ошибок(1.38)

Сложим все разности и получим [l] – n * X0 = [V]. По определению арифметической середины n * X0 = [l], поэтому:

[V] = 0.                   (1.39)

Величины V называют вероятнейшими ошибками измерений; именно по их значениям и вычисляют на практике среднюю квадратическую ошибку одного измерения, используя для этого формулу Бесселя:
Начальные сведения из теории ошибок(1.40)

Приведем вывод этой формулы. Образуем разности случайных истинных ошибок измерений Δ и вероятнейших ошибок V:
Начальные сведения из теории ошибок(1.41)

Разность (X0 – X) равна истинной ошибке арифметической середины; обозначим ее Δ0 и перепишем уравнения (1.41):
Начальные сведения из теории ошибок(1.42)
Возведем все уравнения (1.42) в квадрат, сложим их и получим:
Начальные сведения из теории ошибок.

Второе слагаемое в правой части этого выражения равно нулю по свойству (1.39), следовательно,
Начальные сведения из теории ошибок.

Разделим это уравнение на n и учтя, что [Δ2]/n =m2, получим:
Начальные сведения из теории ошибок(1.43)

Заменим истинную ошибку арифметической середины Δ0 ее средней квадратической ошибкой Начальные сведения из теории ошибок; такая замена практически не изменит правой части формулы (1.43). Итак,

Начальные сведения из теории ошибок,
откуда Начальные сведения из теории ошибок;

после перенесения (n-1) в правую часть и извлечения квадратного корня получается формула Бесселя (1.40).

Для вычисления средней квадратической ошибки арифметической середины на основании (1.37) получается формула:
Начальные сведения из теории ошибок(1.44)

Веса измерений. Измерения бывают равноточные и неравноточные. Например, один и тот же угол можно измерить точным или техническим теодолитом, и результаты таких измерений будут неравноточными. Или один и тот же угол можно измерить разным количеством приемов; результаты тоже будут неравноточными. Понятно, что средние квадратические ошибки неравноточных измерений будут неодинаковы. Из опыта известно, что измерение, выполненное с большей точностью (с меньшей ошибкой), заслуживает большего доверия.

Вес измерения – это условное число, характеризующее надежность измерения, степень его доверия; вес обозначается буквой p. Значение веса измерения получают по формуле:

p = C/m2                  (1.45)

где C – в общем случае произвольное положительное число.

При неравноточных измерениях одной величины наиболее надежное ее значение получают по формуле средневесовой арифметической середины:
Начальные сведения из теории ошибок(1.46)
или              X0 = [l*p] / [p] .

Ошибку измерения, вес которого равен 1, называют средней квадратической ошибкой единицы веса; она обозначается буквой m. Из формулы (1.45) получаем
Начальные сведения из теории ошибок
откуда  Начальные сведения из теории ошибок(1.47)

то-есть, за число C принимают квадрат ошибки единицы веса.

Подсчитаем вес P средневесовой арифметической середины. По определению веса имеем:
Начальные сведения из теории ошибок(1.48)

Согласно (1.46) и (1.32) напишем:
Начальные сведения из теории ошибок
Подставим сюда вместо mli2 их выражения через вес m2 = C/p , тогда:
Начальные сведения из теории ошибок
Подставим это выражение в формулу (1.48) и получим,

P = [p],                 (1.49)

то-есть, вес средневесовой арифметической середины равен сумме весов отдельных измерений.

В случае равноточных измерений, когда веса всех измерений одинаковы и равны единице, формула (1.49) принимает вид:

P = n.                  (1.50)

При обработке больших групп измерений (при уравнивании геодезических построений по МНК) вычисляются значение ошибки единицы веса, веса измерений и других элементов после уравнивания, а ошибка любого уравненного элемента подсчитывается по формуле:
Начальные сведения из теории ошибок(1.51)

где pi – вес i-того элемента.

Понравилась статья? Поделить с друзьями:

Интересное по теме:

  • Понятие системная ошибка
  • Понятие синтаксической нормы особенности синтаксических ошибок
  • Понятие психодиагностической ошибки
  • Понятие признание своих ошибок
  • Понятие ошибок первого и второго рода

  • Добавить комментарий

    ;-) :| :x :twisted: :smile: :shock: :sad: :roll: :razz: :oops: :o :mrgreen: :lol: :idea: :grin: :evil: :cry: :cool: :arrow: :???: :?: :!: