Cumulative sum charts — Guidance on quality control and data analysis using CUSUM techniques

Gives the principles of cusum charting and includes guidance on the preparation and interpretation of cusum charts using basic decision rules.

Cartes des sommes cumulées — Lignes directrices pour le contrôle de la qualité et l'analyse des données utilisant les procédures CUSUM

General Information

Status
Withdrawn
Publication Date
26-Feb-1997
Withdrawal Date
26-Feb-1997
Current Stage
9599 - Withdrawal of International Standard
Completion Date
29-Jun-2011
Ref Project

Relations

Buy Standard

Technical report
ISO/TR 7871:1997 - Cumulative sum charts -- Guidance on quality control and data analysis using CUSUM techniques
English language
40 pages
sale 15% off
Preview
sale 15% off
Preview
Technical report
ISO/TR 7871:1997 - Cartes des sommes cumulées -- Lignes directrices pour le contrôle de la qualité et l'analyse des données utilisant les procédures CUSUM
French language
60 pages
sale 15% off
Preview
sale 15% off
Preview
Technical report
ISO/TR 7871:1997 - Cartes des sommes cumulées -- Lignes directrices pour le contrôle de la qualité et l'analyse des données utilisant les procédures CUSUM
French language
60 pages
sale 15% off
Preview
sale 15% off
Preview

Standards Content (Sample)

ISO/TR
TECHNICAL
7871
REPORT
First edition
1997-02- 15
Cumulative sum charts - Guidance on
quality control and data analysis using
CUSUM techniques
Carfes des sommes cumulties - Lignes directrices pour le contr6le de la
qua/it6 et I’analyse des don&es utilisant /es prockdures CUSUM
Reference number
ISO/TR 7871:1997(E)

---------------------- Page: 1 ----------------------
ISOTTR 7871 :1997(E)
Contents
iv
0 Introduction
..............................................................................................................
1
1 Scope and general principles .
2
2 . . . . . . . . . . . . . . . . . . . . .*.*.o.o.omm.
Preparations for cusum charting
7
3 Presentation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .m.m.m.m.m.m.m.m.m.m.mm.m.
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
4 Decision rules for monitoring and control
22
5 Decision rules for retrospective analysis mmmmmmmmm*mmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmm
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .*. 25
6 Computational CUSUM techniques
7 Examples of applications mmmmmmmmm~mmmmm~mm~~mmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmm*mmmmmmmm 30
37
Appendix A Measures of variation mmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmammmmmmmmmmmmo
mmmmmmmmmm~mmmmmmmmmmmmm*mmmmmmmmmmmmmmmm~mmmmmmmmmmmmmmmmmmmm~mmmmmmmmmmmmmmmmmmmmmmmom8mmOmmm 42
Appendix 6 Scaling the chart
Appendix C Calculation of local averages mmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmm*mmmmmmmmmm~mmmmmmwommmmmm 45
Appendix D Replotting the CUSUM chart mmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmm 47
48
Appendix E The full V-mask ~mmmmmmmmm~~~mmmmmmmmmmmmmmmmmmmmm~mmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmm
~~mmmmmmmmmmmmmmmmmmmm~m~~mmmmmmmmmmmmmmmmmmmmmmmmmmmmm~mmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmmm 51
Appendix F Local decision lines
mmmmmmmmmmmmmmmmmmmmmmmmmmm~mmmmmm~mm~m~mmmmmmmmmmmmmmmmmmmmmmmmmmmmmamm 53
Appendix G Distribution-free CUSUM tests
mmmmmmm~mmmmmmmmmmmmmmmmmmm~~mmmmmmmmmmmm~mmmmmmmmmmmmmmmmmmmmmmmmmmmmmmm
Appendix H Alternative standard schemes 56
0 IS0 1997
All rights reserved. Unless otherwise specified, no part of this publication may be reproduced
or utilized in any form or by any means, electronic or mechanical, including photocopying and
microfilm, without permission in writing from the publisher.
International Organization for Standardization
Case postale 56 l CH-1211 Geneve 20 l Switzerland
Internet central @ isoch
x.400 c=ch; a=400net; p=iso; o=isocs; s=central
Printed in Switzerland
ii

---------------------- Page: 2 ----------------------
@ IS0 ISOnR 7871: 1997(E)
Foreword
IS0 (the International Organisation for Standardization) is a worldwide federation of national
standards bodies (IS0 member bodies). The work of preparing International Standards is normally
carried out through IS0 technical committees. Each member body interested in a subject for which
a technical committee has been established has the right to be represented on that committee. .
International organizations, governmental or non-governmental, in liaison with ISO, also take part
in the work. IS0 collaborates closely with the International Electrotechnical Commission (IEC) on
all matters of electrotechnical standardization.
The main task of technical committees is to prepare International Standards, In exceptional
circumstances a technical committee may propose the publication of a Technical Report of one of
the following types:
- type 1, when the required support cannot be obtained for the publication of an International
Standard, despite repeated efforts;
- type 2, when the subject is still under technical development or where for any other reason
there is the future but not immediate possibility of an agreement on an International Standard;
- type 3, when a technical committee has collected data of a different kind from that which is
normally published as an International Standard (“state of the art”, for example).
Technical Reports of types 1 and 2 are subject to review within three years of publication, to
decide whether they can be transformed into International Standards. Technical Reports of type 3
do not necessarily have to be reviewed until the data they provide are considered to be no longer
valid or useful.
ISO/TR 7871, which is a Technical Report of type 3, was prepared by Technical Committee
ISO/TC 69, Applications of statistical methods, Subcommittee SC 4, Statistical process control.
. . .
III

---------------------- Page: 3 ----------------------
ISO/TR 7871 :1997(E)
0 Introduction
0.1 Basis of cusum chart
The cumulative sum chart (hereafter referred to by the generally accepted contraction “cusum
chart“) is a highly informative graphical presentation of data which are ordered in a logical
sequence. Frequently this sequence corresponds to the order of observation on a time scale.
A reference value, T, is subtracted from each observation. This reference value is generally a
constant but may be a prediction from a forecasting model or a target which may vary. The
cumulative sums of the deviations from T are formed, and these cusums (C) are plotted against
the serial numbers of the observations.
In a cusum chart intended to check a process for departure from a mean value equal to the
reference value, that value is also known as the target value or aim. Wthout more advanced
cusum procedures the two concepts, target value or aim and reference value must be
distinguished. The former refers to the actual or intended process average, the latter to the
reference values used in the cusum procedure. The intuitive appeal of the term target value is
strong, however, and for most of this standard, clauses 0 - 6, the common value of target value
and reference value is referred to as target value when this does not create ambiguity. In clause 6
upper and lower reference values are created and these must be distinguished from target values
or aims.
The cusum method of plotting results is the representation of average by the local slope of the
chart. When the local average corresponds to the target value, the path of the cusum lies roughly
parallel to the sequence axis. When the local average of the series is greater than the target value,
the cusum slopes upwards ; conversely, when the local average is less than the target value, the
cusum slopes downwards. The greater the discrepancy between the local average and the target
value, the steeper the slope of the cusum path.
The result of plotting the cusum is that changes in average level over different subdivisions of the
total sequence of observations are clearly indicated by changes in slope of the chart. The local
averages in such subdivisions can be readily estimated, either from the numerical values of the
cusum from which the chart is plotted or directly, from the chart itself.
A second effect of using cumulative sum procedures is that there is an inherent serial dependence
between the successive cumulative sums. Decisions regarding acceptable departures from the
sequence axis require the use of the method of stochastic processes.
0.2 Simple example of cusum chart
The above principles are best appreciated from a simple example. The calculations and plotting
procedure will, at this point, be developed without mathematical symbolism.
IV

---------------------- Page: 4 ----------------------
ISO/TR 7871 :1997(E)
@ IS0
It is supposed that the following individual observations have been obtained, over a time sequence
in order shown, and that a reference value of 15 is appropriate.
Table 1 : Data for cusum plotting
9
1
Obsen/ed Deviation Deviation from from Cumulative sum of
value reference reference value value deviations
(= (= 15) 15)
12 -3 * 3
17 +2 - I
- 1
14 - 2
14 - 1 - 3
+2
17 - I
16 +1 0
14 - 1 - 1
-4
11 - 5
13 -2 - 7
14 - 1 - 8
15 0 - 8
11 -4 - 12
14 - 1 - 13
16 +1 - 12
13 -2 - 14
14 - 1 - 15
11 -4 - 19
12 - 3 - 22
78
- 2 - 24
19 13
+l - 23
20 16
21 12 - 3 - 26
18 +3 - 23
22
+3 - 20
23 18
24 17 +2 - 18
20 +5 - 13
25
- 13
26 15 0
14 - 1 - 14
27
+3 - 11
28 18
+5 - 6
29 20
- 5
16 +I
30
18 +3 - 2
31
- 1 - 3
32 14
- 2
16 +l
33
For a conventional control chart, as in figure 1, the observed values are plotted against their
corresponding observation numbers. There is some indication that the last dozen values appear to
be clustered around a different mean level from the first 20 or so.
Plotting in the cusum mode give a much clearer display than the conventional chart. The cusum
(column 4 of table 1) is plotted against the observation number using the y (“vertical”) axis for the
cusum and the x (“horizontal”) axis for the observation number, figure 2.
V

---------------------- Page: 5 ----------------------
@ IS0
ISOmR 7871:1997(E)
.
:
:
:
: :
:
+-
-i-
: .
:
i
.
+
-f-
:
:
:
o-&m-
+
I
:
I
.
i
-r
i
:
:
A-
t
:
r
Obsenration mmiber
Figure 1 : Conventional chart of data from table 1
0 2 4 6 8
IO 12 14 16 18 20 22 24 2628=32=
Figure 2 : Cusum chart of data from table 1
Vi

---------------------- Page: 6 ----------------------
@ IS0 ISO/TR 7871 :1997(E)
The cusum chart clearly separates into three segments. From observations numbered 1 to 7
(inclusive) the cusum path is generally parallel to the obsen/ation number axis, i.e. the path is
roughly horizontal. From observations 8 to 21 inclusive the path is downward (despite local
irregularities such as at observations 14, 20). From obsen/ations 22 to 33, the path is upward
(again with local irregularities).
Thus it could tentatively be inferred that :
a) obsen/ations 1 to 7 constitute a sample from a “population“ whose mean is at or near the
target value (15) ;
b) observations 8 to 21 appear to have been sampled from a population whose mean is
below 15 ;
c) observations 22 onward appear to come from a population whose mean is greater than 15.
There are now a number of questions that might be asked :
1) in the light of the underlying variability (as indicated, for example, by the irregularities in the
cusum path) can it be concluded that the changes in slope represent real shifts in average
rather than merely lucky or unlucky runs of samples from a stable population ?
2) if the changes are real, how should the data be used to estimate local averages ?
3) to what extent might the inferences or estimates be affected by the choice of the reference
value or the cusum scale factor ? Thus figures 3 and 4 show the same series plotted first with
the same cusum scale but with a target of 12 ; and second with a target of 15 but a
compressed cusum scale.
In figures 3 and 4, the change in slope around observation number 8 is less apparent. The change
around number 21 is still visible, but it is less easy to “pinpoint” in figure 4. Thus the choice of
reference value and scale factor need careful attention, to avoid either the suppression of useful
information or, conversely, the exaggeration of spurious effects. It is also clear from figure 3 that
use of a an inappropriate target value may result in the chart running off the-upper of lower edge
of the graph paper, although this problem may also be minimized by replotting from a new zero at
any point in the sequence.

---------------------- Page: 7 ----------------------
@ IS0
ISO/TR 7871:1997(E)
T=l2
R K I s K P a s
I I. 1 I I ttttt I I f 1
18 20 22 24 26 = 30 32 34
2 4 6 0 10 12 14 16
obm!n?ation lmmbe!r
Figure 3 : Cusum chart of data from table 1, with reference value 12
T=l5
36 iB W
24 28 28
$6 16 a Zz
0 16 32 14
0 2 4 6
obdmmbmnpmber .
Figure 4 : Cusum chart of data from table 1, w.ith reference value
15 but compressed cusum scale
. . .
VIII

---------------------- Page: 8 ----------------------
TECHNICAL REPORT @ OS0 ISO/TR 7871:1997(E)
Guide to quality control and data
Cumulative sum charts -
analysis using CUSUM techniques
1
Scope and general principles
1 .I General
This standard introduces the principles of cusum charting and includes guidance on the
preparation and interpretation of cusum charts using basic decision rules.
1.2 Fundamental requirements
The fundamental requirements from cusum charting are as follows :
a) the observations should be at least on an interval scale of measurement ;
b) there should be logical grounds for the sequence for plotting. This arises naturally in process
control.
These requirements are taken in order. The interval property requires any given numerical
difference between two observations to have the same interpretation throughout the range of the
variable. Thus a difference of 0,l mm between the lengths of two objects has the same meaning
whether the objects are woodscrews of length IO,1 mm and IO,0 mm or steel girders of length
10 000,l mm and 10 000,O mm although the latter difference may be unimportant. Many arbitrary
scales do not have this property : ratings are an example, where perhaps a serious nonconformity
scores 10 points, a moderate nonconformity 5 and minor nonconformity 1. We cannot then
interpret this to mean that the following items are necessarily equally undesirable, although their
score differences are zero :
- item A one serious nonconformity Score = 10 ;
Score = 10 ;
- item B two moderate nonconformities
- item C one moderate, five minor nonconformities Score = 10 ;
- item D ten minor nonconformities Score = 10.
Interpretation of “average” score could be misleading if the balance of serious, moderate and
minor nonconformities, rather than merely their overall frequency, changes.
The logical sequence property may arise in numerous ways. The observations may occur in a time
or length sequence, thus forming a natural progression. Monitoring for quality or process control
provides many cases of this kind.

---------------------- Page: 9 ----------------------
lSO/TR 7871:1997(E)
@ IS0
Observations may be ordered according to the value of some auxiliary variable measured on the
items. The cusum then provides a means of presenting or investigating relationships between
variables, or augmenting a regression or correlation analysis Any kind of ordering or grouping that
uses some structural feature of the observations or the background from which they are taken may
provide the basis for the cusum sequences.
1.3 Types of data amenable to cusum charting
Many types of data satisfy the fundamental requirements a) and b) of 1.2 ; Perhaps the most
frequent applications of cusum charts have been in quality control, where observations such as
sample means or ranges are plotted in sequence to assess the state of a process. When using a
cusum chart as a device for effective data presentation, it is not necessary to specify a distribution,
nor to require independence between successive observations. These conditions are important for
decision rules, but not for data presentation. Indeed, the cusum chart may assist in the
identification of distributional features such as serial correlation or cyclic behavior.
Thus data involving ranges or sample estimates of standard deviation may be plotted on cusum
charts, as well as sample averages. Counts of nonconformities are also encountered in quality
control, and may be monitored by cusum charts.
1.4 Monitoring or retrospective analysis
In prescribing decision rules and statistical tests, two distinct situations should be recognized :
a) the object of charting may be to monitor the behavior of a series of observations against
some specified or standard reference value such as in quality control operations. Decision rules
for monitoring are presented in clause 4.
b) the object may be to examine historical data, or observations grouped in some logical
manner, so as to detect any differences between segments. No formal standard or reference
value exists. This situation is close to that of testing the significance of apparent differences
between groups of observations, but it differs in that the grouping may be effected on the basis
of a preliminary inspection of the cusum chart. Statistical tests for retrospective analysis are
presented in clause 5.
2 Preparations for cusum charting
2.1 Notation
A reference value will be denoted by T. As each obsen/ation in the sequence is encountered, the
difference (V, - T) is formed. These differences are summed, so that by the time Yip is reached, the
cusum is formed :
C
i = C(Y,-T)
r=l
(1)
2

---------------------- Page: 10 ----------------------
@ IS0
ISO/TR 7871: 1997(E)
The cusum, Ci, is plotted as ordinate (“vertical” axis) against the abscissa (“horizontal” axis).
Assuming that i takes successive integer values 0 (at the origin), 1 I 2, . . . . the scale factor on the
vertical axis will be denoted by A. This is interpreted as meaning that the distance which, on the
horizontal scale, cmesponds to one plotting interval, represents A on the cusum scale. This scale
factor may often be expressed as mutiples of the standard error of the plotted values (Ok), and this
standardized scale factor will carry the a (thus A = a~,). The meaning and estimation of B, is
detailed in appendix A.
It will frequently be useful to calculate a local average for the sequence of points from i to j, or from
i to j - 1, or perhaps from j to j + r, etc. These will be indicated by :
- -
. = -
; etc.
Y i,j 1 Y
Lj-1 ’ Yj j+r
8
Other notation will be defined as it is introduced.
2.2 Choice of reference value (T)
Choice of a suitable target value is one of the two most important steps in the preparations. An
unsuitable target value will cause the cusum to slope persistently up or down, making changes
more difficult to observe, and necessitating frequent replotting when the chart runs off the top or
bottom of the graph (see Appendix D).
2.3 In many cases, T is a specified target or aim level of the quality measure. It is wise to have
assurance that the process can produce this quality, otherwise the cusum chart will merely be a
persistent reminder of failure, and in such circumstances any control system tends to be ignored
or fall into disuse.
There may not always be an aim value for T. Sometimes the mean level of the quality measure
over a recent stable series of data may be used.
2.4 Where a cusum chart is to be used for retrospective examination of a series of historical
data, or residuals form an experiment, the natural target becomes the arithmetic mean of the
complete series. Apart from any minor discrepancy arising from rounding of the mean, this choice
for T will result in the cusum being and ending at the same ordinate value. Combined with suitable
scaling (see appendix B) the cusum plot may be contained within the limits of the graph grid used
for plotting.
2.5 Binary data, coded as a sequence of O’s and l’s, require an appropriate estimate of the
proportion of responses which are scored as 1’s. This proportion is then used as a target value.
For quality control applications, a proportion of nonconformities or Acceptable Quality Level (AQL)
may be specified by contract, or a feasibility study may provide a suitable value. In experiments
involving binary response, either the overall proportion for the complete experiment may be used
or, in the case of sequential experiments, the target may be set at the proportion observed in the
first complete segment of the experiment, modifying this later if it proves unsuitable.
3

---------------------- Page: 11 ----------------------
ISO/rR 7871:1997( E)
2.6 Types of variation
In order to scale the chart effectively, and also to provide a basis for significance tests, a measure
of the underlying short-term variation in the series is required. In engineering terms, the noise
should be measured in order to scale the system for detection of signals.
The fundamental statistical measure of variation is the standard deviation. It may be estimated
from a sample of n values by :
s(estimate of 0) =
$xCYi -Y>’ (2)
-
d
where :
- 1
=-
Y CY
n i
The summation extending over the n observation in the sample.
Frequently the values to be plotted are some function of a group of observations, a statistic such
as their mean, range, proportion nonconforming, etc. The appropriate measure of variation then
becomes the standard error of the plotted sample statistic (or an estimate thereof if this is
unknown). The simplest cases are those of the sample mean, X, or proportion non conforming,
p, in a sample of n items. Not that n is the size of each of the samples, that is, the number of
observations per sample, not the number of samples to be plotted.
In these two simple cases, assuming an in-control process :
Standard error of j7, oe = D / fi, often being replaced by its estimate.
When the observations are counts or proportions of items with a specified attribute in samples of
size n, if the process is under statistical control with pO the probability an item has the attribute,
then the binomial distribution is appropriate giving :
PobP*)
Standard error of p, up =
n
Poclo
often written as, ciP =
- %=1-P,
n ’
The standard deviation of number of items per sample having the required attribute is :
o= (4)
nPoqo
J

---------------------- Page: 12 ----------------------
@ IS0 ISO/TR 7871 :1997(E)
This is one instance where the standard deviation itself may be useful for diagnostic purposes in
connection with a plot of raw sample data. Another is the number of nonconformities, faults,
defects, or other occurrences in some quantity of product or material, or obsen/ed in some time
segment. Examples are faults per meter (or square meter) of cloth, and accidents per week in a
factory. Here, if the conditions appropriate to the Poisson distribution are assumed :
G= m
J-
where m is the average level of occurrences per sample. In particular, if the probability of a
nonconformity in a very small volume of product is very small and is proportional to the volume of
the product, and if the nonconformities occur independently of one another, then a mathematical
consequence is that the nonconformities can be expected to follow the Poisson distribution.
The requirement of “statistical control” implies that, during any period when no “assignable”
change, or cause of variation, occurs, all the items sampled may be regarded as simple random
samples from the whole process (or population, or time segment, etc). In this case, the short-term
variation as observed between items within samples forms a suitable basis (via the standard error
of the chosen summary statistic) for estimating the expected variation in the sequence as a whole.
Any variation greater than this is assumed to arise from assignable causes, indicating a shift in the
mean of the series or a change in the nature or magnitude of the variation.
There are many cases where the simple use of overall estimates of the standard deviation is
inappropriate. Some circumstances resulting in its breakdown are as follows :
a) In making observations on a continuous process, there may be small but unimportant
variations in the average level ; it is against these variations, rather than the extremely short-
term variation, that systematic or sustained changes should be judged. As examples, an
industrial process may be controlled by a thermostat or other automatic control device ; quality
of raw material input may be subject to minor variations although never violating a specification.
In monitoring a patient’s response to treatment, there may be minor metabolic changes
connected with meals, hospital or domestic routine, etc., but any effect of treatment should be
judged against the overall typical variation ;
b) The method of sampling may itself induce effects like those in a). Often samples comprise
items taken close together from a production line, on the grounds that a true random sample of
all items manufactured is inconvenient. The items then constitute a “cluster” sample, and may
tend to be too similar to each other to form a basis for assessing overall variation ;
c) Samples may comprise output or observations from several sources (machines, operators,
administrative areas). As such, there may be too much local variation to provide a realistic
basis for assessing whether meaningful changes have occurred.
Because of this, data arising from a combination of such sources should be treated with caution
as any local peculiarities within each contributing source may be overlooked ; moreover,
variation between the sources may mask any changes occurring over the whole system as time
progresses.
5

---------------------- Page: 13 ----------------------
ISO/TR 7871 :1997(E) @ IS0
d) Serial correlation may be present in the observations, that is, one obsen/ation is correlated
with others nearby. For example, if moving averages are used, the overlap between the data
values used in one such average and the next produces a positive serial correlation. in
estimating use of a bulk material from differences between successive gauge or dipstick
readings, an overestimate on one occasion will tend to produce an underestimate on the next,
giving negative correlation. The possible presence of one or other of these effects needs to be
recognized. Positive serial correlation is especially likely in some industrial processes where
one batch of material may partially mix with preceding and succeeding batches producing what
is sometimes termed as “heel” effect. Successive additions of fuel to the tank of a vehicle is an
everyday example, each new addition being made before the tank is exhausted.
It is thus necessary to consider other measures of variation in the series or sequences of data,
and the circumstances to which they are appropriate. Such measures of variation include treating
the differences between successive sample values (Sj = Yj - V,-1) as the appropriate type of
variation and treating all the sample values, Yj, as though they were drawn from a single
population. These measures are discussed in appendix A.
2.7 Measures of variation
See appendix A.
2.8 Scaling the chart
See appendix B.
2.9 Check list of cusum preliminaries
As a reminder of (but not a substitute for) the detailed description of preliminary steps set out in
this chapter, the following check list may be useful.
Choose an appropriate target value. The possibilities include :
a) a specification value ;
b) a satisfactory level of performance (for a process) which has a reasonable chance of being
achieved ;
c) an average level of performance over a recent and typical period or segment ;
d) the average level of a complete set of observations, where retrospective analysis is involved.
Select a suitable measure of variation, taking the points in 2.7 into account.
Decide on the scaling convention to be adopted. The method of B.1 is generally the simplest for
both preparation and interpretation, but for some special purposes one of the other two
conventions may be preferred or special forms may be prepared for routine use.
Ensure that staff involved in the preparation or interpretation of the charts are familiar with the
procedure.
6

---------------------- Page: 14 ----------------------
@ IS0 ISO/TR 7871:1997(E)
3 Presentation
3.1 In clause 2 preparations for plotting the chart were detailed, including selection of the target
value, defining and calculating a measure of variation, and the choice of a scaling factor.
Some practical points of labelling also deserve attention. The minimum information presented on
the chart should include the following :
a) Target value (which may be accompanied by a brief indication of the reason for its selection,
e.g. specified mean value, mean of past data) ;
b) Standard error of the observations (which may be accompanied by a note on the method
used to estimate it) ;
c) Nature of the observations (original values, sample means, nonconformity counts, etc.) ;
d) Title indicating the purpose of the chart (e.g. “Cusum chart for control of . . . .‘I. or
“Retrospective cusum for data from . . . .‘I) ;
e) Clear labelling of the i-scale (sample intervals) and cusum scale.
3.2 To assist in interpreting observed cusum chart pattern changes in conditions that are known
to have occurred can be noted at the appropriate point on the i-scale. Examples are new deliveries
of raw materials for the manufacturing process, or changes of personnel or of methods of
operation.
In examining residual errors from an experiment, the points where changes in levels of the
experimental factors occurred may be noted. For data collected over time, occasional date marks
should be highlighted on the i-scale.
The likely inclusion of information of this kind may affect the choice of sample interval scale ; if
appreciable annotation is envisaged, a more generous scale may be preferred than would
othewise be the case, to avoid a chart excessively cluttered with auxiliary information.
3.3 Choice of chart origin
For most applications, the origin for plotting the cusum scale will be zero, with provision for positive
and negative cumulative sums to be plotted. However, the subsequent visual interpretation of the
chart is not affected by the actual origin adopted, and if non-negative values are preferred, the
cusum may be commenced at a suitable positive value. For example, when a chart is
...

RAPPORT
I.SOKR
TECHNIQUE 7871
Première édition
1997-02-I 5
Cartes des sommes cumulées - Lignes
directrices pour le contrôle de la qualité et
l’analyse des données utilisant les
procédures CUSUM
Cumulative sum Chat?s - Guidance on quality control and data analysis
using CUSUM techniques
Numéro de référence
ISO/TR 7871:1997(F)

---------------------- Page: 1 ----------------------
ISO/TR 7871: 1997(F)
Sommaire
iv
0 Introduction .
................................................................... 1
1 Domaine d’application et principes généraux
2
2 Préparation des cartes CUSUM .
7
3 Présentation .
8
....................................................
4 Règles de décision pour la surveillance et le contrôle
24
......................................................
5 Règles de décision pour les analyses rétrospectives
27
.....................................................................................
6 Techniques de calcul des CUSUM
32
.....................................................................................................
7 Exemples d’applications
.................................................................................... 39
Annexe A Mesures de la variation
....................................................................................... 44
Annexe B Définition de l’échelle
.......................................................................... 47
Annexe C Calcul des moyennes locales
................................................................... 49
Annexe D Nouveau tracé de la carte CUSUM
50
Annexe E Masque en V entier .
53
Annexe F Lignes de décisions locales .
.............................................................. 55
Annexe G Tests non-paramétriques de CUSUM
................................................................. 58
Annexe H Variantes aux schémas normalisés
0 ISO 1997
Droits de reproduction réservés. Sauf prescription différente, aucune partie de cette
publication ne peut être reproduite ni utilisée sous quelque forme que ce soit et par aucun
procédé, électronique ou mécanique, y compris la photocopie et les microfilms, sans l’accord
écrit de l’éditeur.
Organisation internationale de normalisation
Case postale 56 l CH-121 1 Genève 20 l Suisse
Internet central @ iso.ch
x.400 c=ch; a=400net; p=iso; o=isocs; s=central
Imprimé en Suisse
ii

---------------------- Page: 2 ----------------------
@ ISO ISOTTR 7871: 1997(F)
Avant-propos
L’ISO (Organisation internationale de normalisation) est une fédération mondiale d’organismes
nationaux de normalisation (comités membres de I’ISO). L’élaboration des Normes internationales
est en général confiée aux comités techniques de I’ISO. Chaque comité membre intéressé par
une étude a le droit de faire partie du comité technique créé à cet effet. Les organisations
internationales, gouvernementales et non gouvernementales, en liaison avec I’ISO participent
également aux travaux. L’ISO collabore étroitement avec la Commission électrotechnique
internationale (CEI) en ce qui concerne la normalisation électrotechnique.
La tâche principale des comités techniques est d’élaborer les Normes internationales.
Exceptionnellement, un comité technique peut proposer la publication d’un rapport technique de
l’un des types suivants:
- type 1, lorsque, en dépit de maints efforts, l’accord requis ne peut être réalisé en faveur de la
publication d’une Norme internationale;
- type 2, lorsque le sujet en question est encore en cours de développement technique ou
lorsque, pour toute autre raison, la possibilité d’un accord pour la publication d’une Norme
internationale peut être envisagée pour l’avenir mais pas dans l’immédiat;
- type 3, lorsqu’un comité technique a réuni des données de nature différente de celles qui
sont normalement publiées comme Normes internationales (ceci pouvant comprendre des
informations sur l’état de la technique, par exemple).
Les rapports techniques des types 1 et 2 font l’objet d’un nouvel examen trois ans au plus tard
après leur publication afin de décider éventuellement de leur transformation en Normes
internationales. Les rapports techniques de type 3 ne doivent pas nécessairement être révisés
avant que les données fournies ne soient plus jugées valables ou utiles.
L’ISO/TR 7871, rapport technique du type 3, a été élaboré par le comité technique ISO/TC 69,
Application des méthodes statistiques, sous-comité SC 4, Maîtrise statistique des processus.

---------------------- Page: 3 ----------------------
ISO/TR 7871: 1997(F) @ Ils0
0
Introduction
0.1 Bases d’une carte CUSUM
La carte des Sommes Cumulées (que l’on désignera dans ce document sous l’abréviation
généralement adoptée de “carte CUSUM”) est une présentation graphique des données à
caractère informatif élevé, ordonnées selon une séquence logique. Cette séquence correspond
souvent à l’ordre des observations selon une échelle de temps.
On extrait une valeur de référence T de chaque observation. Cette valeur de référence est
généralement une constante mais peut être une prévision issue d’un modèle de prévision ou une
cible pouvant varier. Les sommes cumulées des écarts par rapport à T sont formées, et ces
CUSUM (C) sont représentés graphiquement en fonction des numéros des observations
successives.
Dans une carte CUSUM destinée à maîtriser la dérive d’un processus par rapport à une valeur
moyenne égale à la valeur de référence, cette valeur est également connue sous le nom de valeur
cible ou simplement cible. Avec des procédures CUSUM plus élaborées, il est nécessaire de faire
la distinction entre les deux concepts de valeur cible et de valeur de référence. Le premier se
rapporte à la moyenne prévue ou réelle du processus, le deuxième aux valeurs de référence
utilisées dans la procédure CUSUM. L’attrait intuitif du terme de “valeur cible” est toutefois élevé
et, dans la majeure partie de la présente norme, dans les articles 0 à 6, la valeur commune à la
valeur cible et à la valeur de référence se rapporte à la valeur cible quand ce choix ne crée
aucune ambiguïté. Dans l’article 6, des valeurs de référence supérieure et inférieure ont été
créées, et elles doivent être distinguées des valeurs cibles ou des cibles.
La procédure CUSUM destinée à présenter graphiquement les résultats consiste à représenter la
moyenne par la pente locale sur la carte. Lorsque cette moyenne locale correspond à la valeur
cible, le graphe du CUSUM devient approximativement parallèle à l’axe de la séquence. Lorsque
la moyenne locale de la série est supérieure à la valeur cible, la pente du CUSUM est
ascendante. Inversement, elle est descendante chaque fois que la moyenne locale est inférieure.
Plus l’écart entre la moyenne locale et la valeur cible est important, plus la pente du graphe du
CUSUM est accentuée.
II résulte du tracé du CUSUM une meilleure identification des variations du niveau moyen pour les
diverses subdivisions de la séquence totale des observations par les variations de la pente sur la
carte. Les moyennes locales dans ces subdivisions peuvent être facilement estimées, soit à partir
des valeurs numériques du CUSUM prises en compte pour tracer la carte, soit par lecture directe
de cette carte.
Une deuxième conséquence de l’utilisation des procédures des sommes cumulées (ou CUSUM)
réside dans le fait qu’il existe une corrélation sériale inhérente entre les sommes cumulées
successives. Les décisions concernant les écarts acceptables par rapport à l’axe de la séquence
nécessitent le recours à la méthode des processus stochastiques.
0.2 Exemple simple de carte CUSUM
Les principes énoncés précédemment s’apprécient mieux à la lumière d’un exemple simple. La
procédure de calcul et de tracé sera, pour l’instant, décrite sans utiliser de symboles
mathématiques.
iV

---------------------- Page: 4 ----------------------
@ ISO
ISO/TR 7871:1997( F)
On suppose que les observations individuelles suivantes ont été obtenues sur une séquence
chronologique, selon l’ordre indiqué et qu’une valeur de référence de 15 convient.
Tableau 1 : Données pour le tracé des CUSUM
Numéro de Valeur Ecart de la valeur de Somme cumulée
l’observation observée référence (= 15)
des écarts
1 12 -3 - 3
2 17 +2 -1
3 14 - 1 - 2
4 14 - 1 - 3
5 17 +2 -1
6 16 +l 0
7 14 -1 -1
.
8 11 -4 - 5
9 13 -2 - 7
10 14 -1 - 8
11 15 0 - 8
12 11 -4 -12
13 14 -1 -13
14 16 +l -12
15 13 -2 -14
16 14 -1 -15
17 11 -4 - 19
18 12 -3 -22
19 13 -2 -24
20 16 +l -23
21 12 -3 -26
22 18 +3 -23
23 18 +3 -20
24 17 +2 -18
25 20 +5 -13
26 15 0 -13
27 14 - 1 - 14
28 18 +3 -11
29 20 +5 - 6
30 16 +l - 5
31 18 +3 - 2
32 14 -1 - 3
', 33 16 +l - 2
Dans une carte de contrôle classique, comme celle de la figure 1, les valeurs observées sont
représentées graphiquement en fonction du numéro de l’observation correspondant. Certaines
indications semblent faire plutôt apparaître un regroupement de la dernière douzaine de valeurs
autour d’un niveau moyen, différent de celui des 20 premières.
Le tracé en mode CUSUM donne un affichage plus clair que celui d’une carte classique. Le
CUSUM (colonne 4 du tableau 1) est représenté en fonction du numéro de l’observation, en
choisissant l’axe des y (“vertical”) pour le CUSUM et l’axe des x (“horizontal”) pour le numéro de
l’observation (figure 2).

---------------------- Page: 5 ----------------------
@ ISO
ISODTR 7871: 1997(F)
Valeur observée
Valeur cible
- -- --
24 26 28 30 32 34
16 18 20 22
6 8 10 l-2 i,4
0 2 4
Numéro de l’observation
Figure 1 : Carte de contrôle ciass,iq.ue des données du tableau l
c- T=l5
0 0 2 2 4 4 6 6 8 8 10 10 12 12 34 34 16 16 18 18 202224 202224
262830 262830 32 32 34 34
Numéro Numéro de de l’observation l’observation
Figure 2 : Carte CUSUM des données du tableau 1
vi

---------------------- Page: 6 ----------------------
@ ISO ISO/TR 7871: 1997(F)
La carte CUSUM se divise nettement en trois segments. Pour les observations numérotées 1 à 7
(incluse), le graphe du CUSUM est généralement parallèle à l’axe des numéros d’observation ;
autrement dit, ce graphe est pratiquement horizontal. Pour les observations 8 à 21 (incluse), le
graphe est descendant (malgré des anomalies locales visibles pour les observations 14 et 20).
Pour les observations 22 à 33, le graphe est ascendant (de nouveau avec des anomalies locales).
Ainsi, on serait tenté de conclure que :
a) les observations 1 à 7 constituent un échantillon d’une “population” dont la moyenne est à la
valeur cible (15), ou proche de cette valeur ;
b) les observations 8 à 21 semblent avoir été échantillonnées à partir d’une population dont la
moyenne est inférieure à 15 ;
c) les observations 22 et au-delà semblent provenir d’une population dont la moyenne est
supérieure à 15.
A ce point, un certain nombre de questions pourraient se poser :
1) A la lumière de la variabilité sous-jacente (signalée, par exemple, par les anomalies du
graphe du CUSUM), peut-on en conclure que les variations de la pente représentent des
décalages réels de la moyenne plutôt que tout simplement des périodes chanceuses ou
malchanceuses d’échantillons à partir d’une population constante ?
2) Si les variations sont réelles, comment convient-il d’utiliser les données pour évaluer des
moyennes locales ?
3) Dans quelle mesure les conclusions ou les estimations pourraient être affectées par le choix
de la valeur de référence ou du facteur d’échelle du CUSUM ? Ainsi, les figures 3 et 4
représentent la même série tracée d’abord avec la même échelle du CUSUM mais avec une
cible de 12, puis avec une cible de 15, mais avec une échelle du CUSUM comprimée.
Dans les figures 3 et 4, la variation de la pente au voisinage de l’observation numéro 8 est moins
apparente. La variation au voisinage de l’observation 21 est encore visible, mais il est moins facile
de “localiser” avec précision dans la figure 4. Ainsi, le choix d’une valeur de référence et d’un
facteur d’échelle demande beaucoup d’attention pour éviter la suppression d’informations utiles
ou, inversement, l’accentuation d’effets factices. II est également évident d’après la figure 3 que
l’utilisation d’une valeur cible inappropriée peut provoquer le débordement de la carte hors de la
limite supérieure ou inférieure du cadre du graphique, bien que ce problème puisse être minoré en
retraçant la carte à partir d’une nouvelle origine choisie sur n’importe quel point de la séquence.
vii

---------------------- Page: 7 ----------------------
@ ISO
ISO/TR 7871:1997(F)
2 4 6 8 10 12 14 16 18 20 22 24 26 28 30 32 34
Numéro de l’observation
Figure 3 : Carte CUSUM des données du tableau 1, avec une valeur de référence de 12
CusUm T= 15
0 2 4 6 8 ' 10 12 14 16 18 20 22 24 26 28 30 = 34
Numéro de l’observation
Figure 4 : Carte CUSUM des données du tableau 1, avec une valeur de référence de 15,
mais avec une échelle de CUSUM comprimée
a.
VIII

---------------------- Page: 8 ----------------------
RAPPORT TECHNIQUE @ ISO ISO/TR 7871: 1997(F)
Cartes des sommes cumulées - Lignes directrices pour le
contrôle de la qualité et l’analyse des données utilisant les
procédures CUSUM
1 Domaine d’application et principes généraux
1 .l Généralités
La présente norme introduit les principes relatifs aux cartes CUSUM et comprend un guide sur la
préparation et l’interprétation des cartes CUSUM utilisant des règles fondamentales de décision.
1.2 Exigences fondamentales
Les exigences fondamentales relatives aux cartes CUSUM sont les suivantes :
a) il convient que les observations soient au moins sur une échelle de mesure par intervalle ;
b) pour le tracé, la séquence devrait reposer sur des bases logiques. Ceci se produit
naturellement en contrôle de processus.
Ces exigences sont prises dans l’ordre. L’exigence concernant l’intervalle requiert que toute
différence numérique entre deux observations ait la même interprétation pour toutes les valeurs
de la variable. Ainsi, une différence de 0,l mm entre les longueurs de deux objets a la même
signification, que ces objets soient des vis à bois de 10,l mm et 10,O mm de longueur ou des
poutrelles d’acier de 10 000,l mm et de 10 000,O mm de longueur, bien que cette dernière
différence soit infime. Beaucoup d’échelles arbitraires n’ont pas cette propriété : les classements
constituent le cas type où une non-conformité importante compte par exemple pour 10 points, une
non-conformité modérée pour 5 points et une non-conformité mineure pour 1 point. Il n’est pas
possible d’en déduire que les éléments suivants sont nécessairement indésirables d’une manière
égale, bien que les différences des résultats soient nulles :
- élément A - une non-conformité importante : Résultat = 10
- élément B - deux non-conformités modérées : Résultat = 10
- élément C - une non-conformité modérée et cinq non-conformités mineures : Résultat = 10
- élément D - dix non-conformités mineures : Résultat = 10
L’interprétation d’un résultat “moyen” risquerait d’être trompeur si l’équilibre entre les non-
conformités importantes, modérées et mineures devait changer plutôt que simplement leur
fréquence globale.
L’exigence relative à la logique de la séquence peut se présenter de façon très diverse. Les
observations peuvent se produire dans une séquence de temps ou de longueur, formant ainsi une
progression naturelle. La surveillance de la qualité ou le contrôle de processus présente un grand
nombre de situations de ce genre.

---------------------- Page: 9 ----------------------
ISO/rR 7871:1997(F) @ ISO
Les observations peuvent être ordonnées selon la valeur d’une certaine variable auxiliaire
mesurée sur les éléments. Le CUSUM permet ainsi de présenter ou d’analyser des relations entre
variables, ou d’approfondir une analyse de régression ou de corrélation. Tout type
d’ordonnancement ou de groupement utilisant une certaine caractéristique structurelle des
observations ou les données d’origine dont elles sont issues fournit la base des séquences du
CUSUM.
1.3 Types de données propices aux cartes CUSUM
Un grand nombre de données satisfont aux exigences fondamentales a) et b) du 1.2. Les
applications les plus fréquentes des cartes CUSUM ont peut-être été le contrôle de la qualité, pour
lequel les observations comme les moyennes ou les étendues d’échantillon étaient représentées
graphiquement en séquence pour évaluer l’état d’un processus. Quand on utilise une carte
CUSUM comme outil de présentation de données efficace, il n’est pas nécessaire de spécifier une
distribution ni d’exiger une indépendance entre des observations successives. Ces conditions sont
importantes pour les règles de décision et non pour la présentation des données. La carte
CUSUM peut réellement faciliter l’identification des caractéristiques de distribution comme une
corrélation sériale ou un comportement cyclique.
Ainsi, les données impliquant des étendues ou des estimations d’écart-type d’échantillon peuvent
être représentées sur les cartes CUSUM, tout comme les moyennes des échantillons. Les
comptes des non-conformités se retrouvent également dans le contrôle de la qualité et peuvent
être surveillés au moyen des cartes CUSUM.
1.4 Surveillance ou analyse rétrospective
En prescrivant des règles de décision et des tests statistiques, il convient de reconnaître deux
situations distinctes :
a) L’objectif des cartes peut être de surveiller le comportement d’une série d’observations en
fonction d’une valeur de référence prescrite ou normale comme dans les opérations de contrôle
de la qualité. Les règles de décision relatives à la surveillance sont présentées dans l’article 4.
b) L’objectif peut être d’examiner les données historiques QU les observations groupées d’une
façon logique pour détecter d’éventuelles différences entre segments. Aucune valeur formelle
ou valeur de référence n’existe. Cette situation est proche de celle où l’on teste la signification
des différences apparentes entre des groupes d’observations, mais elle diffère par le fait que le
groupement peut être effectué sur la base de l’examen préliminaire de la carte CUSUM.
L’article 5 présente les tests statistiques relatifs à l’analyse rétrospective.
2 Préparation des cartes CUSUM
2.1 Notation. Une valeur de référence est désignée par T. Pour chaque observation se trouvant
dans la séquence, la différence (Yr - T) est formée. Ces différences sont additionnées, de telle
sorte que lorsque Yi est atteint, le CUSUM est défini par :
Ci = C(YrwT)
r=l
(1)

---------------------- Page: 10 ----------------------
ISOTTR 7871: 1997(F)
@ ISO
Le CUSUM, Ci, est reporté en ordonnée (axe “vertical”) en fonction d’une abscisse (axe
“horizontal”). En supposant que i prend des valeurs entières successives 0 (l’origine), 1, 2, etc., le
facteur d’échelle sur l’axe vertical est désigné par A. Cette interprétation signifie que la distance
qui correspond à un intervalle du tracé sur l’échelle horizontale représente A sur l’échelle du
CUSUM. Ce facteur d’échelle peut souvent être exprimé en multiples de l’écart-type des valeurs
représentées (oJ ; le facteur d’échelle normalisé peut prendre la valeur a (soit A = a~,). La
signification et l’estimation de CT, sont précisées en annexe A.
Il sera souvent utile de calculer la moyenne locale pour la séquence de points de i à j, ou de i à
(j - l), ou peut-être de j à (j + r), etc. Ceci sera indiqué par :
- -
. . -
; etc.
Y Y
i,j J hi-1 Y Yi,j+r
Toute autre notation sera définie lors de son apparition.
2.2 Choix de la valeur de référence (T)
Le choix d’une valeur cible appropriée est l’une des deux plus importantes étapes de la
préparation. Une valeur cible inadaptée peut entraîner la montée ou la descente continuelle du
CUSUM, provoquant des variations plus difficiles à observer, et exigeant fréquemment de
nouveaux tracés lorsque la carte sort du graphique par le haut ou le bas (voir annexe D).
2.3 Dans de nombreux cas, T est un niveau prescrit ou niveau cible de la mesure de la qualité. II
est judicieux d’acquérir la certitude que le processus peut produire cette qualité ; dans le cas
contraire, la carte CUSUM ne constituerait qu’un rappel continuel de l’échec et, dans de telles
conditions, tout système de contrôle tendrait à être ignoré ou inutilisé.
Il arrive qu’on ne puisse pas toujours fixer de valeur cible pour T. On peut quelquefois utiliser le
niveau moyen de la mesure de la qualité sur une série de données stable et récente.
2.4 Lorsqu’on est amené à utiliser une carte CUSUM pour réaliser une analyse rétrospective
d’une série de données historiques ou des résidus d’une expérience, la cible naturelle devient la
moyenne arithmétique de la série complète. En dehors d’une légère divergence provenant de
l’arrondissage de la moyenne, ce choix pour T entraîne que le CUSUM commence et finisse à la
même valeur d’ordonnée. Combinée à une définition d’échelle adaptée (voir annexe B), la
représentation du CUSUM peut être contenue dans les limites du quadrillage du graphique utilisé
pour ce tracé.
2.5 Des données binaires, codées selon une séquence de 0 et de 1, nécessitent une estimation
appropriée de la proportion de réponses qui ont 1 pour résultat. Cette proportion est alors utilisée
comme valeur cible. Dans les applications de contrôle de la qualité, une proportion de non-
conformités ou niveau de qualité acceptable (NQA) peut être prescrite par contrat, ou une étude
de faisabilité peut fournir une valeur convenable. Dans les expériences qui impliquent une réponse
binaire, on peut utiliser la proportion globale de l’expérience complète ou, dans le cas des
expériences séquentielles, ajuster la cible sur la proportion observée dans le premier segment de
l’expérience, en modifiant ce dernier s’il s’avère inadapté.
3

---------------------- Page: 11 ----------------------
ISO/TR 7871:1997(F)
@ ISO
2.6 Types de variation
Afin de définir l’échelle de la carte d’une manière efficace et aussi pour servir de base à des tests
de signification, il faut une mesure de la variation sous-jacente de courte durée dans la série. En
termes techniques, il convient de mesurer le bruit afin de définir l’échelle du système de détection
des signaux.
La mesure statistique fondamentale de la variation est l’écart-type. Il peut être évalué à partir d’un
échantillon de n valeurs par :
s(estimation de CT) =
(2)
où :
- 1
--
Y- Y i
c
n
la sommation s’étendant aux n observations de l’échantillon.
Les valeurs à représenter graphiquement sont souvent fonction d’un groupe d’observations, d’une
statistique telle que leur moyenne, leur étendue, la proportion de non-conformités, etc. La mesure
appropriée de variation devient alors l’écart-type de la statistique d’échantillon représentée (ou son
estimation si cette dernière est inconnue). Les cas les plus simples sont ceux de la moyenne
d’échantillon, X, ou la proportion de non-conformité, p, dans un échantillon de n éléments. Noter
que n est l’effectif de chacun des échantillons, autrement dit le nombre d’observations par
échantillon et non le nombre d’échantillons à représenter.
Dans ces deux cas simples, en supposant que le processus est maîtrisé, on a :
Ecart-type de y, oe = o/&, souvent remplacé par son estimation.
Lorsque les observations sont des comptes ou des proportions d’éléments avec un attribut
spécifié dans les échantillons d’effectif n, et si le procédé est sous contrôle statistique avec la
probabilité pO qu’un élément soit doté de l’attribut, la distribution binomiale est alors appropriée,
donnant :
P& PJ
un écart-type de p, oP =
(3)
n
d
souvent écrit sous la forme : oP =
L’écart-type du nombre d’éléments par échantillon ayant l’attribut requis s’écrit :
cJ = JnPo90
(4)

---------------------- Page: 12 ----------------------
@ ISO ISO/TR 7871:1997(F)
C’est le cas où l’écart-type lui-même peut être utile à des fins de diagnostic en relation avec une
représentation graphique de données d’échantillon brutes. Un autre exemple est le nombre de
non-conformités, de défauts ou tout autre événement dans une certaine qualité de produit ou de
matériau, ou observés dans un segment de temps défini. Les défauts par mètre (ou mètres
carrés) de tissu et les accidents d’usine par semaine en sont des exemples. Ici, si l’on suppose
que les conditions appropriées à la distribution de Poisson sont satisfaites, on a :
(r= m
Il-
où m est le niveau moyen des événements par échantillon. En particulier, si la probabilité d’une
non-conformité dans un très petit volume de produit est très faible et est proportionnelle à ce
volume, et si ces non-conformités se produisent indépendamment les unes des autres, une
conséquence mathématique est que les non-conformités suivent la distribution de Poisson.
L’exigence du “contrôle statistique” implique que, pendant une période où aucune variation ou
cause de variation “assignable” ne se produit, tous les éléments échantillonnés peuvent être
considérés comme de simples échantillons aléatoires provenant du processus complet (ou de la
population, ou du segment de temps, etc.). Dans ce cas, la variation de courte durée observée
entre les éléments des échantillons forme une base convenable (via l’écart-type de la statistique
choisie) pour estimer la variation attendue dans la séquence dans son ensemble. Toute variation
supérieure à celle-ci est supposée se produire à partir de causes assignables, par l’indication
d’une dérive dans la moyenne de la série ou d’une fluctuation dans la nature ou la grandeur de la
variation.
II existe de nombreux cas où ce simple usage des estimations globales de l’écart-type est
inapproprié. Certaines circonstances aboutissant à sa défaillance sont les suivantes :
a) en effectuant des observations sur un processus continu, de petites variations sans
importance du niveau moyen peuvent se produire. C’est en fonction de ces variations, plutôt
que de celles de courte durée, qu’il convient de juger des variations systématiques ou
prolongées. Par exemple, un processus industriel peut être contrôlé par un thermostat ou par
tout autre dispositif de régulation automatique ; la qualité en entrée des matières premières
peut être soumise à des variations mineures bien que n’outrepassant jamais les spécifications.
En surveillant la réaction d’un patient à un traitement, il peut exister des variations mineures sur
son métabolisme liées aux repas, à ses occupations quotidiennes à l’hôpital ou à son domicile,
etc. ; il convient toutefois de juger de l’effet d’un traitement en fonction de la variation type
globale ;
b) la méthode d’échantillonnage peut elle-même induire des effets comme ceux indiqués en a).
Des échantillons contiennent souvent des éléments voisins prélevés sur une chaîne de
fabrication, sur la base qu’un échantillon aléatoire vrai de tous les éléments fabriqués n’est pas
facile à constituer. Les éléments constituent alors un échantillon “en grappe”, et peuvent tendre
à être trop proches les uns des autres pour servir de base d’évaluation de la variation globale ;
c) les échantillons peuvent contenir des résultats ou des observations provenant de plusieurs
sources (machines, opérateurs, régions administratives). Comme telles, trop de variations
locales peuvent se produire pour pouvoir estimer de manière réaliste si des variations
importantes sont survenues ;

---------------------- Page: 13 ----------------------
ISOFI-R 7871:1997(F) @ ISO
II convient donc de traiter avec précaution les données provenant d’une combinaison de telles
sources, car toute particularité locale de chacune des sources concernées peut ne pas être
remarquée ; en outre, des variations entre les sources peuvent masquer certaines variations se
produisant sur l’ensemble du système au cours du temps.
d) une corrélation sériale, c’est-à-dire qu’une observation est en relation avec les autres, peut
se présenter dans les observations. Par exemple, si l’on utilise des moyennes mobiles, le
recouvrement des valeurs de données servant à l’une de ces moyennes et les suivantes produit
une corrélation sériale positive. Dans l’évaluation de l’utilisation d’un matériau en vrac à partir
des différences entre des relevés de jauge ou de tige de profondeur successifs, une première
surestimation tendra à produire une sous-estimation la fois suivante, générant une corrélation
négative. La présence possible de l’un ou l’autre de ces effets mérite d’être connue. Une
corrélation sériale positive est particulièrement probable dans certains processus industriels où
un lot de matériau peut se mélanger partiellement avec les lots précédents et les lots suivants
produisant ce qu’on appelle quelquefois l’effet de “talon”. Des apports successifs de carburant
dans le réservoir d’un véhicule est un exemple quotidien, chaque nouvel apport étant effectué
avant que le réservoir ne soit vide.
II est donc nécessaire de prendre en compte d’autres mesures de variation dans les séries
ou les séquences de données, et les circonstances pour lesquelles eNes sont appropriées.
De telles mesures de variations incluent le traitement des différences entre des valeurs
d’échantillon successives (6. = yj - yj J en tant que type approprié de variation et le traitement de
toutes les valeurs d’échantil 1 ons yj comme si elles étaient tirées d’une population unique. C
...

RAPPORT
I.SOKR
TECHNIQUE 7871
Première édition
1997-02-I 5
Cartes des sommes cumulées - Lignes
directrices pour le contrôle de la qualité et
l’analyse des données utilisant les
procédures CUSUM
Cumulative sum Chat?s - Guidance on quality control and data analysis
using CUSUM techniques
Numéro de référence
ISO/TR 7871:1997(F)

---------------------- Page: 1 ----------------------
ISO/TR 7871: 1997(F)
Sommaire
iv
0 Introduction .
................................................................... 1
1 Domaine d’application et principes généraux
2
2 Préparation des cartes CUSUM .
7
3 Présentation .
8
....................................................
4 Règles de décision pour la surveillance et le contrôle
24
......................................................
5 Règles de décision pour les analyses rétrospectives
27
.....................................................................................
6 Techniques de calcul des CUSUM
32
.....................................................................................................
7 Exemples d’applications
.................................................................................... 39
Annexe A Mesures de la variation
....................................................................................... 44
Annexe B Définition de l’échelle
.......................................................................... 47
Annexe C Calcul des moyennes locales
................................................................... 49
Annexe D Nouveau tracé de la carte CUSUM
50
Annexe E Masque en V entier .
53
Annexe F Lignes de décisions locales .
.............................................................. 55
Annexe G Tests non-paramétriques de CUSUM
................................................................. 58
Annexe H Variantes aux schémas normalisés
0 ISO 1997
Droits de reproduction réservés. Sauf prescription différente, aucune partie de cette
publication ne peut être reproduite ni utilisée sous quelque forme que ce soit et par aucun
procédé, électronique ou mécanique, y compris la photocopie et les microfilms, sans l’accord
écrit de l’éditeur.
Organisation internationale de normalisation
Case postale 56 l CH-121 1 Genève 20 l Suisse
Internet central @ iso.ch
x.400 c=ch; a=400net; p=iso; o=isocs; s=central
Imprimé en Suisse
ii

---------------------- Page: 2 ----------------------
@ ISO ISOTTR 7871: 1997(F)
Avant-propos
L’ISO (Organisation internationale de normalisation) est une fédération mondiale d’organismes
nationaux de normalisation (comités membres de I’ISO). L’élaboration des Normes internationales
est en général confiée aux comités techniques de I’ISO. Chaque comité membre intéressé par
une étude a le droit de faire partie du comité technique créé à cet effet. Les organisations
internationales, gouvernementales et non gouvernementales, en liaison avec I’ISO participent
également aux travaux. L’ISO collabore étroitement avec la Commission électrotechnique
internationale (CEI) en ce qui concerne la normalisation électrotechnique.
La tâche principale des comités techniques est d’élaborer les Normes internationales.
Exceptionnellement, un comité technique peut proposer la publication d’un rapport technique de
l’un des types suivants:
- type 1, lorsque, en dépit de maints efforts, l’accord requis ne peut être réalisé en faveur de la
publication d’une Norme internationale;
- type 2, lorsque le sujet en question est encore en cours de développement technique ou
lorsque, pour toute autre raison, la possibilité d’un accord pour la publication d’une Norme
internationale peut être envisagée pour l’avenir mais pas dans l’immédiat;
- type 3, lorsqu’un comité technique a réuni des données de nature différente de celles qui
sont normalement publiées comme Normes internationales (ceci pouvant comprendre des
informations sur l’état de la technique, par exemple).
Les rapports techniques des types 1 et 2 font l’objet d’un nouvel examen trois ans au plus tard
après leur publication afin de décider éventuellement de leur transformation en Normes
internationales. Les rapports techniques de type 3 ne doivent pas nécessairement être révisés
avant que les données fournies ne soient plus jugées valables ou utiles.
L’ISO/TR 7871, rapport technique du type 3, a été élaboré par le comité technique ISO/TC 69,
Application des méthodes statistiques, sous-comité SC 4, Maîtrise statistique des processus.

---------------------- Page: 3 ----------------------
ISO/TR 7871: 1997(F) @ Ils0
0
Introduction
0.1 Bases d’une carte CUSUM
La carte des Sommes Cumulées (que l’on désignera dans ce document sous l’abréviation
généralement adoptée de “carte CUSUM”) est une présentation graphique des données à
caractère informatif élevé, ordonnées selon une séquence logique. Cette séquence correspond
souvent à l’ordre des observations selon une échelle de temps.
On extrait une valeur de référence T de chaque observation. Cette valeur de référence est
généralement une constante mais peut être une prévision issue d’un modèle de prévision ou une
cible pouvant varier. Les sommes cumulées des écarts par rapport à T sont formées, et ces
CUSUM (C) sont représentés graphiquement en fonction des numéros des observations
successives.
Dans une carte CUSUM destinée à maîtriser la dérive d’un processus par rapport à une valeur
moyenne égale à la valeur de référence, cette valeur est également connue sous le nom de valeur
cible ou simplement cible. Avec des procédures CUSUM plus élaborées, il est nécessaire de faire
la distinction entre les deux concepts de valeur cible et de valeur de référence. Le premier se
rapporte à la moyenne prévue ou réelle du processus, le deuxième aux valeurs de référence
utilisées dans la procédure CUSUM. L’attrait intuitif du terme de “valeur cible” est toutefois élevé
et, dans la majeure partie de la présente norme, dans les articles 0 à 6, la valeur commune à la
valeur cible et à la valeur de référence se rapporte à la valeur cible quand ce choix ne crée
aucune ambiguïté. Dans l’article 6, des valeurs de référence supérieure et inférieure ont été
créées, et elles doivent être distinguées des valeurs cibles ou des cibles.
La procédure CUSUM destinée à présenter graphiquement les résultats consiste à représenter la
moyenne par la pente locale sur la carte. Lorsque cette moyenne locale correspond à la valeur
cible, le graphe du CUSUM devient approximativement parallèle à l’axe de la séquence. Lorsque
la moyenne locale de la série est supérieure à la valeur cible, la pente du CUSUM est
ascendante. Inversement, elle est descendante chaque fois que la moyenne locale est inférieure.
Plus l’écart entre la moyenne locale et la valeur cible est important, plus la pente du graphe du
CUSUM est accentuée.
II résulte du tracé du CUSUM une meilleure identification des variations du niveau moyen pour les
diverses subdivisions de la séquence totale des observations par les variations de la pente sur la
carte. Les moyennes locales dans ces subdivisions peuvent être facilement estimées, soit à partir
des valeurs numériques du CUSUM prises en compte pour tracer la carte, soit par lecture directe
de cette carte.
Une deuxième conséquence de l’utilisation des procédures des sommes cumulées (ou CUSUM)
réside dans le fait qu’il existe une corrélation sériale inhérente entre les sommes cumulées
successives. Les décisions concernant les écarts acceptables par rapport à l’axe de la séquence
nécessitent le recours à la méthode des processus stochastiques.
0.2 Exemple simple de carte CUSUM
Les principes énoncés précédemment s’apprécient mieux à la lumière d’un exemple simple. La
procédure de calcul et de tracé sera, pour l’instant, décrite sans utiliser de symboles
mathématiques.
iV

---------------------- Page: 4 ----------------------
@ ISO
ISO/TR 7871:1997( F)
On suppose que les observations individuelles suivantes ont été obtenues sur une séquence
chronologique, selon l’ordre indiqué et qu’une valeur de référence de 15 convient.
Tableau 1 : Données pour le tracé des CUSUM
Numéro de Valeur Ecart de la valeur de Somme cumulée
l’observation observée référence (= 15)
des écarts
1 12 -3 - 3
2 17 +2 -1
3 14 - 1 - 2
4 14 - 1 - 3
5 17 +2 -1
6 16 +l 0
7 14 -1 -1
.
8 11 -4 - 5
9 13 -2 - 7
10 14 -1 - 8
11 15 0 - 8
12 11 -4 -12
13 14 -1 -13
14 16 +l -12
15 13 -2 -14
16 14 -1 -15
17 11 -4 - 19
18 12 -3 -22
19 13 -2 -24
20 16 +l -23
21 12 -3 -26
22 18 +3 -23
23 18 +3 -20
24 17 +2 -18
25 20 +5 -13
26 15 0 -13
27 14 - 1 - 14
28 18 +3 -11
29 20 +5 - 6
30 16 +l - 5
31 18 +3 - 2
32 14 -1 - 3
', 33 16 +l - 2
Dans une carte de contrôle classique, comme celle de la figure 1, les valeurs observées sont
représentées graphiquement en fonction du numéro de l’observation correspondant. Certaines
indications semblent faire plutôt apparaître un regroupement de la dernière douzaine de valeurs
autour d’un niveau moyen, différent de celui des 20 premières.
Le tracé en mode CUSUM donne un affichage plus clair que celui d’une carte classique. Le
CUSUM (colonne 4 du tableau 1) est représenté en fonction du numéro de l’observation, en
choisissant l’axe des y (“vertical”) pour le CUSUM et l’axe des x (“horizontal”) pour le numéro de
l’observation (figure 2).

---------------------- Page: 5 ----------------------
@ ISO
ISODTR 7871: 1997(F)
Valeur observée
Valeur cible
- -- --
24 26 28 30 32 34
16 18 20 22
6 8 10 l-2 i,4
0 2 4
Numéro de l’observation
Figure 1 : Carte de contrôle ciass,iq.ue des données du tableau l
c- T=l5
0 0 2 2 4 4 6 6 8 8 10 10 12 12 34 34 16 16 18 18 202224 202224
262830 262830 32 32 34 34
Numéro Numéro de de l’observation l’observation
Figure 2 : Carte CUSUM des données du tableau 1
vi

---------------------- Page: 6 ----------------------
@ ISO ISO/TR 7871: 1997(F)
La carte CUSUM se divise nettement en trois segments. Pour les observations numérotées 1 à 7
(incluse), le graphe du CUSUM est généralement parallèle à l’axe des numéros d’observation ;
autrement dit, ce graphe est pratiquement horizontal. Pour les observations 8 à 21 (incluse), le
graphe est descendant (malgré des anomalies locales visibles pour les observations 14 et 20).
Pour les observations 22 à 33, le graphe est ascendant (de nouveau avec des anomalies locales).
Ainsi, on serait tenté de conclure que :
a) les observations 1 à 7 constituent un échantillon d’une “population” dont la moyenne est à la
valeur cible (15), ou proche de cette valeur ;
b) les observations 8 à 21 semblent avoir été échantillonnées à partir d’une population dont la
moyenne est inférieure à 15 ;
c) les observations 22 et au-delà semblent provenir d’une population dont la moyenne est
supérieure à 15.
A ce point, un certain nombre de questions pourraient se poser :
1) A la lumière de la variabilité sous-jacente (signalée, par exemple, par les anomalies du
graphe du CUSUM), peut-on en conclure que les variations de la pente représentent des
décalages réels de la moyenne plutôt que tout simplement des périodes chanceuses ou
malchanceuses d’échantillons à partir d’une population constante ?
2) Si les variations sont réelles, comment convient-il d’utiliser les données pour évaluer des
moyennes locales ?
3) Dans quelle mesure les conclusions ou les estimations pourraient être affectées par le choix
de la valeur de référence ou du facteur d’échelle du CUSUM ? Ainsi, les figures 3 et 4
représentent la même série tracée d’abord avec la même échelle du CUSUM mais avec une
cible de 12, puis avec une cible de 15, mais avec une échelle du CUSUM comprimée.
Dans les figures 3 et 4, la variation de la pente au voisinage de l’observation numéro 8 est moins
apparente. La variation au voisinage de l’observation 21 est encore visible, mais il est moins facile
de “localiser” avec précision dans la figure 4. Ainsi, le choix d’une valeur de référence et d’un
facteur d’échelle demande beaucoup d’attention pour éviter la suppression d’informations utiles
ou, inversement, l’accentuation d’effets factices. II est également évident d’après la figure 3 que
l’utilisation d’une valeur cible inappropriée peut provoquer le débordement de la carte hors de la
limite supérieure ou inférieure du cadre du graphique, bien que ce problème puisse être minoré en
retraçant la carte à partir d’une nouvelle origine choisie sur n’importe quel point de la séquence.
vii

---------------------- Page: 7 ----------------------
@ ISO
ISO/TR 7871:1997(F)
2 4 6 8 10 12 14 16 18 20 22 24 26 28 30 32 34
Numéro de l’observation
Figure 3 : Carte CUSUM des données du tableau 1, avec une valeur de référence de 12
CusUm T= 15
0 2 4 6 8 ' 10 12 14 16 18 20 22 24 26 28 30 = 34
Numéro de l’observation
Figure 4 : Carte CUSUM des données du tableau 1, avec une valeur de référence de 15,
mais avec une échelle de CUSUM comprimée
a.
VIII

---------------------- Page: 8 ----------------------
RAPPORT TECHNIQUE @ ISO ISO/TR 7871: 1997(F)
Cartes des sommes cumulées - Lignes directrices pour le
contrôle de la qualité et l’analyse des données utilisant les
procédures CUSUM
1 Domaine d’application et principes généraux
1 .l Généralités
La présente norme introduit les principes relatifs aux cartes CUSUM et comprend un guide sur la
préparation et l’interprétation des cartes CUSUM utilisant des règles fondamentales de décision.
1.2 Exigences fondamentales
Les exigences fondamentales relatives aux cartes CUSUM sont les suivantes :
a) il convient que les observations soient au moins sur une échelle de mesure par intervalle ;
b) pour le tracé, la séquence devrait reposer sur des bases logiques. Ceci se produit
naturellement en contrôle de processus.
Ces exigences sont prises dans l’ordre. L’exigence concernant l’intervalle requiert que toute
différence numérique entre deux observations ait la même interprétation pour toutes les valeurs
de la variable. Ainsi, une différence de 0,l mm entre les longueurs de deux objets a la même
signification, que ces objets soient des vis à bois de 10,l mm et 10,O mm de longueur ou des
poutrelles d’acier de 10 000,l mm et de 10 000,O mm de longueur, bien que cette dernière
différence soit infime. Beaucoup d’échelles arbitraires n’ont pas cette propriété : les classements
constituent le cas type où une non-conformité importante compte par exemple pour 10 points, une
non-conformité modérée pour 5 points et une non-conformité mineure pour 1 point. Il n’est pas
possible d’en déduire que les éléments suivants sont nécessairement indésirables d’une manière
égale, bien que les différences des résultats soient nulles :
- élément A - une non-conformité importante : Résultat = 10
- élément B - deux non-conformités modérées : Résultat = 10
- élément C - une non-conformité modérée et cinq non-conformités mineures : Résultat = 10
- élément D - dix non-conformités mineures : Résultat = 10
L’interprétation d’un résultat “moyen” risquerait d’être trompeur si l’équilibre entre les non-
conformités importantes, modérées et mineures devait changer plutôt que simplement leur
fréquence globale.
L’exigence relative à la logique de la séquence peut se présenter de façon très diverse. Les
observations peuvent se produire dans une séquence de temps ou de longueur, formant ainsi une
progression naturelle. La surveillance de la qualité ou le contrôle de processus présente un grand
nombre de situations de ce genre.

---------------------- Page: 9 ----------------------
ISO/rR 7871:1997(F) @ ISO
Les observations peuvent être ordonnées selon la valeur d’une certaine variable auxiliaire
mesurée sur les éléments. Le CUSUM permet ainsi de présenter ou d’analyser des relations entre
variables, ou d’approfondir une analyse de régression ou de corrélation. Tout type
d’ordonnancement ou de groupement utilisant une certaine caractéristique structurelle des
observations ou les données d’origine dont elles sont issues fournit la base des séquences du
CUSUM.
1.3 Types de données propices aux cartes CUSUM
Un grand nombre de données satisfont aux exigences fondamentales a) et b) du 1.2. Les
applications les plus fréquentes des cartes CUSUM ont peut-être été le contrôle de la qualité, pour
lequel les observations comme les moyennes ou les étendues d’échantillon étaient représentées
graphiquement en séquence pour évaluer l’état d’un processus. Quand on utilise une carte
CUSUM comme outil de présentation de données efficace, il n’est pas nécessaire de spécifier une
distribution ni d’exiger une indépendance entre des observations successives. Ces conditions sont
importantes pour les règles de décision et non pour la présentation des données. La carte
CUSUM peut réellement faciliter l’identification des caractéristiques de distribution comme une
corrélation sériale ou un comportement cyclique.
Ainsi, les données impliquant des étendues ou des estimations d’écart-type d’échantillon peuvent
être représentées sur les cartes CUSUM, tout comme les moyennes des échantillons. Les
comptes des non-conformités se retrouvent également dans le contrôle de la qualité et peuvent
être surveillés au moyen des cartes CUSUM.
1.4 Surveillance ou analyse rétrospective
En prescrivant des règles de décision et des tests statistiques, il convient de reconnaître deux
situations distinctes :
a) L’objectif des cartes peut être de surveiller le comportement d’une série d’observations en
fonction d’une valeur de référence prescrite ou normale comme dans les opérations de contrôle
de la qualité. Les règles de décision relatives à la surveillance sont présentées dans l’article 4.
b) L’objectif peut être d’examiner les données historiques QU les observations groupées d’une
façon logique pour détecter d’éventuelles différences entre segments. Aucune valeur formelle
ou valeur de référence n’existe. Cette situation est proche de celle où l’on teste la signification
des différences apparentes entre des groupes d’observations, mais elle diffère par le fait que le
groupement peut être effectué sur la base de l’examen préliminaire de la carte CUSUM.
L’article 5 présente les tests statistiques relatifs à l’analyse rétrospective.
2 Préparation des cartes CUSUM
2.1 Notation. Une valeur de référence est désignée par T. Pour chaque observation se trouvant
dans la séquence, la différence (Yr - T) est formée. Ces différences sont additionnées, de telle
sorte que lorsque Yi est atteint, le CUSUM est défini par :
Ci = C(YrwT)
r=l
(1)

---------------------- Page: 10 ----------------------
ISOTTR 7871: 1997(F)
@ ISO
Le CUSUM, Ci, est reporté en ordonnée (axe “vertical”) en fonction d’une abscisse (axe
“horizontal”). En supposant que i prend des valeurs entières successives 0 (l’origine), 1, 2, etc., le
facteur d’échelle sur l’axe vertical est désigné par A. Cette interprétation signifie que la distance
qui correspond à un intervalle du tracé sur l’échelle horizontale représente A sur l’échelle du
CUSUM. Ce facteur d’échelle peut souvent être exprimé en multiples de l’écart-type des valeurs
représentées (oJ ; le facteur d’échelle normalisé peut prendre la valeur a (soit A = a~,). La
signification et l’estimation de CT, sont précisées en annexe A.
Il sera souvent utile de calculer la moyenne locale pour la séquence de points de i à j, ou de i à
(j - l), ou peut-être de j à (j + r), etc. Ceci sera indiqué par :
- -
. . -
; etc.
Y Y
i,j J hi-1 Y Yi,j+r
Toute autre notation sera définie lors de son apparition.
2.2 Choix de la valeur de référence (T)
Le choix d’une valeur cible appropriée est l’une des deux plus importantes étapes de la
préparation. Une valeur cible inadaptée peut entraîner la montée ou la descente continuelle du
CUSUM, provoquant des variations plus difficiles à observer, et exigeant fréquemment de
nouveaux tracés lorsque la carte sort du graphique par le haut ou le bas (voir annexe D).
2.3 Dans de nombreux cas, T est un niveau prescrit ou niveau cible de la mesure de la qualité. II
est judicieux d’acquérir la certitude que le processus peut produire cette qualité ; dans le cas
contraire, la carte CUSUM ne constituerait qu’un rappel continuel de l’échec et, dans de telles
conditions, tout système de contrôle tendrait à être ignoré ou inutilisé.
Il arrive qu’on ne puisse pas toujours fixer de valeur cible pour T. On peut quelquefois utiliser le
niveau moyen de la mesure de la qualité sur une série de données stable et récente.
2.4 Lorsqu’on est amené à utiliser une carte CUSUM pour réaliser une analyse rétrospective
d’une série de données historiques ou des résidus d’une expérience, la cible naturelle devient la
moyenne arithmétique de la série complète. En dehors d’une légère divergence provenant de
l’arrondissage de la moyenne, ce choix pour T entraîne que le CUSUM commence et finisse à la
même valeur d’ordonnée. Combinée à une définition d’échelle adaptée (voir annexe B), la
représentation du CUSUM peut être contenue dans les limites du quadrillage du graphique utilisé
pour ce tracé.
2.5 Des données binaires, codées selon une séquence de 0 et de 1, nécessitent une estimation
appropriée de la proportion de réponses qui ont 1 pour résultat. Cette proportion est alors utilisée
comme valeur cible. Dans les applications de contrôle de la qualité, une proportion de non-
conformités ou niveau de qualité acceptable (NQA) peut être prescrite par contrat, ou une étude
de faisabilité peut fournir une valeur convenable. Dans les expériences qui impliquent une réponse
binaire, on peut utiliser la proportion globale de l’expérience complète ou, dans le cas des
expériences séquentielles, ajuster la cible sur la proportion observée dans le premier segment de
l’expérience, en modifiant ce dernier s’il s’avère inadapté.
3

---------------------- Page: 11 ----------------------
ISO/TR 7871:1997(F)
@ ISO
2.6 Types de variation
Afin de définir l’échelle de la carte d’une manière efficace et aussi pour servir de base à des tests
de signification, il faut une mesure de la variation sous-jacente de courte durée dans la série. En
termes techniques, il convient de mesurer le bruit afin de définir l’échelle du système de détection
des signaux.
La mesure statistique fondamentale de la variation est l’écart-type. Il peut être évalué à partir d’un
échantillon de n valeurs par :
s(estimation de CT) =
(2)
où :
- 1
--
Y- Y i
c
n
la sommation s’étendant aux n observations de l’échantillon.
Les valeurs à représenter graphiquement sont souvent fonction d’un groupe d’observations, d’une
statistique telle que leur moyenne, leur étendue, la proportion de non-conformités, etc. La mesure
appropriée de variation devient alors l’écart-type de la statistique d’échantillon représentée (ou son
estimation si cette dernière est inconnue). Les cas les plus simples sont ceux de la moyenne
d’échantillon, X, ou la proportion de non-conformité, p, dans un échantillon de n éléments. Noter
que n est l’effectif de chacun des échantillons, autrement dit le nombre d’observations par
échantillon et non le nombre d’échantillons à représenter.
Dans ces deux cas simples, en supposant que le processus est maîtrisé, on a :
Ecart-type de y, oe = o/&, souvent remplacé par son estimation.
Lorsque les observations sont des comptes ou des proportions d’éléments avec un attribut
spécifié dans les échantillons d’effectif n, et si le procédé est sous contrôle statistique avec la
probabilité pO qu’un élément soit doté de l’attribut, la distribution binomiale est alors appropriée,
donnant :
P& PJ
un écart-type de p, oP =
(3)
n
d
souvent écrit sous la forme : oP =
L’écart-type du nombre d’éléments par échantillon ayant l’attribut requis s’écrit :
cJ = JnPo90
(4)

---------------------- Page: 12 ----------------------
@ ISO ISO/TR 7871:1997(F)
C’est le cas où l’écart-type lui-même peut être utile à des fins de diagnostic en relation avec une
représentation graphique de données d’échantillon brutes. Un autre exemple est le nombre de
non-conformités, de défauts ou tout autre événement dans une certaine qualité de produit ou de
matériau, ou observés dans un segment de temps défini. Les défauts par mètre (ou mètres
carrés) de tissu et les accidents d’usine par semaine en sont des exemples. Ici, si l’on suppose
que les conditions appropriées à la distribution de Poisson sont satisfaites, on a :
(r= m
Il-
où m est le niveau moyen des événements par échantillon. En particulier, si la probabilité d’une
non-conformité dans un très petit volume de produit est très faible et est proportionnelle à ce
volume, et si ces non-conformités se produisent indépendamment les unes des autres, une
conséquence mathématique est que les non-conformités suivent la distribution de Poisson.
L’exigence du “contrôle statistique” implique que, pendant une période où aucune variation ou
cause de variation “assignable” ne se produit, tous les éléments échantillonnés peuvent être
considérés comme de simples échantillons aléatoires provenant du processus complet (ou de la
population, ou du segment de temps, etc.). Dans ce cas, la variation de courte durée observée
entre les éléments des échantillons forme une base convenable (via l’écart-type de la statistique
choisie) pour estimer la variation attendue dans la séquence dans son ensemble. Toute variation
supérieure à celle-ci est supposée se produire à partir de causes assignables, par l’indication
d’une dérive dans la moyenne de la série ou d’une fluctuation dans la nature ou la grandeur de la
variation.
II existe de nombreux cas où ce simple usage des estimations globales de l’écart-type est
inapproprié. Certaines circonstances aboutissant à sa défaillance sont les suivantes :
a) en effectuant des observations sur un processus continu, de petites variations sans
importance du niveau moyen peuvent se produire. C’est en fonction de ces variations, plutôt
que de celles de courte durée, qu’il convient de juger des variations systématiques ou
prolongées. Par exemple, un processus industriel peut être contrôlé par un thermostat ou par
tout autre dispositif de régulation automatique ; la qualité en entrée des matières premières
peut être soumise à des variations mineures bien que n’outrepassant jamais les spécifications.
En surveillant la réaction d’un patient à un traitement, il peut exister des variations mineures sur
son métabolisme liées aux repas, à ses occupations quotidiennes à l’hôpital ou à son domicile,
etc. ; il convient toutefois de juger de l’effet d’un traitement en fonction de la variation type
globale ;
b) la méthode d’échantillonnage peut elle-même induire des effets comme ceux indiqués en a).
Des échantillons contiennent souvent des éléments voisins prélevés sur une chaîne de
fabrication, sur la base qu’un échantillon aléatoire vrai de tous les éléments fabriqués n’est pas
facile à constituer. Les éléments constituent alors un échantillon “en grappe”, et peuvent tendre
à être trop proches les uns des autres pour servir de base d’évaluation de la variation globale ;
c) les échantillons peuvent contenir des résultats ou des observations provenant de plusieurs
sources (machines, opérateurs, régions administratives). Comme telles, trop de variations
locales peuvent se produire pour pouvoir estimer de manière réaliste si des variations
importantes sont survenues ;

---------------------- Page: 13 ----------------------
ISOFI-R 7871:1997(F) @ ISO
II convient donc de traiter avec précaution les données provenant d’une combinaison de telles
sources, car toute particularité locale de chacune des sources concernées peut ne pas être
remarquée ; en outre, des variations entre les sources peuvent masquer certaines variations se
produisant sur l’ensemble du système au cours du temps.
d) une corrélation sériale, c’est-à-dire qu’une observation est en relation avec les autres, peut
se présenter dans les observations. Par exemple, si l’on utilise des moyennes mobiles, le
recouvrement des valeurs de données servant à l’une de ces moyennes et les suivantes produit
une corrélation sériale positive. Dans l’évaluation de l’utilisation d’un matériau en vrac à partir
des différences entre des relevés de jauge ou de tige de profondeur successifs, une première
surestimation tendra à produire une sous-estimation la fois suivante, générant une corrélation
négative. La présence possible de l’un ou l’autre de ces effets mérite d’être connue. Une
corrélation sériale positive est particulièrement probable dans certains processus industriels où
un lot de matériau peut se mélanger partiellement avec les lots précédents et les lots suivants
produisant ce qu’on appelle quelquefois l’effet de “talon”. Des apports successifs de carburant
dans le réservoir d’un véhicule est un exemple quotidien, chaque nouvel apport étant effectué
avant que le réservoir ne soit vide.
II est donc nécessaire de prendre en compte d’autres mesures de variation dans les séries
ou les séquences de données, et les circonstances pour lesquelles eNes sont appropriées.
De telles mesures de variations incluent le traitement des différences entre des valeurs
d’échantillon successives (6. = yj - yj J en tant que type approprié de variation et le traitement de
toutes les valeurs d’échantil 1 ons yj comme si elles étaient tirées d’une population unique. C
...

Questions, Comments and Discussion

Ask us and Technical Secretary will try to provide an answer. You can facilitate discussion about the standard in here.