測定値の処理の知識

0. 放射性壊変と誤差の基本 🧐

放射線計測で知りたいのは、「放射能はいくらか?(真の値)」という事実。
しかし、放射性壊変は「いつ、どの原子が壊れるか」が完全にランダムなため、同じものを測っても毎回値がバラバラに動いてしまう(統計的ゆらぎ)。
この「バラつく測定値」から「真実」を高い精度で読み解くためのルール、それが統計処理!

1. 測定するけど毎回なんかズレてね?:標準偏差( $SD$値 ) 📏

「同じものを測っても、毎回値がズレる」のが放射線の世界。
でも、「どれくらいズレているか」の感じ方は人それぞれ(めっちゃズレてると思う人もおれば、そうでもないと思う人もおる)。
そこで、ズレを客観的に数値化するものが標準偏差( $SD$値 )!

たとえば、平均点は同じなのに「何かが違う」2つのクラス 🏫
テストの平均点がどちらも「60点」のクラスがあったとする。

  • クラスA: 0点の人もいれば100点の人もいる(バラバラ 💥)
  • クラスB: 全員が55点〜65点の間に集まっている(まとまってる ✨)

平均点は同じ60点でも、クラスの「点数の広がり方」は全然違う!
この「平均からのズレ具合」を数値化したのが標準偏差( $SD$値 )!

  • クラスA(バラバラ) $\rightarrow$ $SD$値が大きいデータが平均から遠くまで散らばっている(バラツキ大 💥)
  • クラスB(まとまってる) $\rightarrow$ $SD$値が小さいデータが平均の近くに集まっている(バラツキ小 ✨)

$$ SD = \sqrt{ \frac{ \sum (x_i - \bar{x})^2 }{ n } } $$
※ 2乗するのは、マイナスのズレ(平均以下)もプラスとして正しく合計するため!

放射線だけが持つ「特殊なルール」(ポアソン分布)
放射線の世界は、数学でいうところの「ポアソン分布」というルールにピッタリ従っている!

$$ \sigma = \sqrt{N} $$

簡単に言えば!
装置が「100」と表示したとき、放射線の世界では「100のルート( $\sqrt{100}=10$ )がズレの幅(標準偏差)になる」というルール!
つまり、1回測っただけで「このデータは $SD$値(90~110)の範囲に本当の値があるんだな」と、超便利!

この標準偏差 $\sigma$(ズレ)の中に、本当の値が入っている「確率」を教えてくれるのがガウス分布

  • $\pm 1\sigma$ の範囲に、本当の値が 68% の確率で含まれる。
  • $\pm 2\sigma$ の範囲なら、本当の値が 95% の確率で含まれる。

2. 1回測っただけじゃ信用ならん!:平均値の標準偏差 📈

1回だけの測定結果はあやふやでも、何回も繰り返して「平均」をとれば、データはどんどん「真の値」に収束

どちらも表示された結果(平均)が「100」だった場合、そのデータの「信頼度」はどう違う?

平均値の標準偏差:
$$ \sigma_{\bar{x}} = \frac{\sigma}{\sqrt{N}} = \sqrt{\frac{\bar{x}}{N}} $$
( $\bar{x}$ は測定値の平均、 $N$ は測定回数)

  • 分子の $\sigma$ (または $\sqrt{\bar{x}}$): 1回測ったときの「標準偏差」。
  • 分母の $\sqrt{N}$「何回測ったか」
    回数 $N$ が多ければ多いほど、全体の標準偏差( $\sigma_{\bar{x}}$ )は小さくなる。

この公式のポイントは、「最後に測定回数 $N$ で割り算をしている」ということ。
とりあえず「たくさん頑張って( $N$ 回)測ったんだから、誤差を $N$ で割ったら正確!」

具体例 📏

① 1回だけ測った ② 100回測って平均した
表示された値 100 100
標準偏差(ズレ) $\pm 10$ ($\sqrt{100}$) $\pm 1$ ($\sigma / \sqrt{100}$)
本当の値の範囲 90 ~ 110 99 ~ 101

同じ「100」でもズレの幅が 10分の1(正確さが10倍!)

3. そのズレが、大きいか小さいか分からんくね? :変動係数( $CV$ ) 🧪

バラツキの幅(標準偏差)が例えば「10」だと言われても、それが全体(100)に対して大きいのか、それとも全体(10,000)に対してはごく僅かなのかで、データの価値は変わってくる。

変動係数( $CV$ ):誤差の「%」 📊
「全体のカウント数に対して、誤差が何%含まれているか」を示す数値!

  • 公式: $CV = \frac{\text{標準偏差}}{\text{平均値(または合計)}}$
  • 放射線の鉄則: ポアソン分布に従う場合、$CV = 1 / \sqrt{N}$ ( $N$ は全カウント数) で簡単に求まる!
  • 意味: たくさん数えるほど、全体に対する誤差の割合(%)は減っていく!

例えば・・・

複数回 測った場合の $CV$ の出し方
問題で「同じ対象を10回測定してデータを得た時の $CV$ は?」と聞かれたら、2つの考え方がある!

  1. 全部足して公式一発(オススメ!)
    ぜんぶのカウントを合計(全計数 $N$ )して $1 / \sqrt{N}$ をするだけ。
    (例:平均 10 カウントのデータを 10 回測ったなら、合計 100 なので $CV = 1 / \sqrt{100} = 0.1$ (10%))
  2. データの定義通りに計算
    データの「標準偏差(バラツキ)」を計算し、「平均値」で割る。
    (放射線の場合、平均の標準偏差を求めて平均で割っても、結局は上の公式と同じ答え(0.1)になる!)

4. 合計数じゃなくて「1分あたり」で知りたいねん?:「計数率」 ⏳

測定した合計を「1分あたり」の値に直したい!

2分間測って、合計 200カウント だった!
ズレの幅(標準偏差)は鉄則通り $\sqrt{200} \approx \mathbf{\pm 14}$ 。

これを「1分あたりのデータ(計数率)」として正確にしたいなら、単純に「値」も「ズレ」も、両方とも測定時間(2分)で割り算すればOK!

  1. 値(計数率): $200 / 2 = 100$
  2. ズレ(標準偏差): $14 / 2 = 7$
  3. 結果$100 \pm 7 $ $cpm$

「出た数字( $N$ )」も「標準偏差( $\sqrt{N}$ )」も、両方セットで時間 $t$ で割り算がルール

$$\frac{N}{t} \pm \frac{\sqrt{N}}{t}$$

5. 物質の放射線測りたいけど、周りの放射線邪魔ちゃう?:正味計数率 💥

ある物質がどれだけ放射線を出すかを知りたい!でも放射線って宇宙からとか建物の壁とか、そこら中から飛んできてる。
やから特殊なルールを使って、物質の計数率( $n_s$ )と、そこら中を飛んでる放射線(バックグラウンドノイズ)の計数率( $n_b$ )から「正味の値( $n_{net}$ )」を計算する!

  • 試料のデータ( $n_s \pm \sigma_s$ ): $100 \pm 10$ (100でズレの幅 $10$ )
  • 背景のデータ( $n_b \pm \sigma_b$ ): $50 \pm 7$ (50でズレの幅 $7$ )

ここからバックグラウンドを引き算すると…
1. メインの値は引き算: $100 - 50 = \mathbf{50}$ (物質から出たのは50ってこと!)
2. ズレの幅は「加算」: $10$ と $7$。それぞれの「2乗」を足して、またルートをとる(二乗和の平方根)のがルール!
$$ \sigma_{net} = \sqrt{10^2 + 7^2} = \sqrt{149} \approx \mathbf{\pm 12} $$

結果: $\rightarrow$ $50 \pm 12$

なぜズレ(誤差)は増える?
「本体」のズレと「背景」のズレは、独立したもの。
難しい言葉で統計学では「分散の加法性」と呼ぶ。

計数率の公式:
$$\sigma_{net} = \sqrt{\sigma_s^2 + \sigma_b^2} = \sqrt{\frac{n_s}{t_s} + \frac{n_b}{t_b}} $$

とにかく!正確に測りたいときは、「背景ノイズが低い環境で測るか」が命!

6. 実際に測るとメーターの動きが特殊:時定数 🚀

サーベイメータなどのアナログ表示器は、針がゆっくり動いて、わざと震えを抑えている。

なぜわざわざ「ゆっくり」動かすの? 🤔
放射線はランダムに飛んでくるので、もし針が正直に反応しすぎると、目盛りがプルプル震えて読み取れない。
だから、わざと「ねっとり」した動き(時定数 $\tau$)を持たせて、数値を安定させている。

その代償:反応が遅くなる! 🐢
震えが抑えられた反面、「今いる場所の本当の強さ」に針が追いつくまでに時間がかかる
新しい場所に移動した直後の針は、まだゴール(真の値)に向かって「移動している途中」だから、すぐの数字を信じちゃいけない。

$\tau$ (タウ)というのは、その機械の「ねっとり度(時定数)」のこと。
「針がちゃんとゴール地点(真の値)に追いつくのを待ちたいなら、その機械が決めた時間( $\tau$ )の3倍はガマンして待て」っていうルール。

メータの応答公式:
$$ n(t) = n_0 (1 - e^{-t/\tau}) $$

  • $n(t)$: いま見ているメータの表示( $t$ 秒後の値)
  • $n_0$: 本当の放射線の強さ(ゴール地点)
  • $t$: 測定を始めてから経った時間
  • $\tau$: 時定数
  • $e$: ネイピア数(約 2.72 )

難しいから簡単に言えば!

  • $1\tau$ (1倍の時間)待つ $\rightarrow$ 63% の精度!
  • $2\tau$ (2倍の時間)待つ $\rightarrow$ 86% の精度!
  • $3\tau$ (3倍の時間)待つ $\rightarrow$ 95% の精度!ここでやっと合格ライン!

7. 結局エラーはでる!どうする?:不確かさの合成 🎒

これまで「統計のゆらぎ」ばかり話してきたけど、実は「装置のクセ」や「校正のズレ」など、計測には他にもたくさんのエラーが…
これを全部ひっくるめて「不確かさ」と呼ぶ!

「2乗して、足して、ルートをとる!」
$$ u_c = \sqrt{u_1^2 + u_2^2 + \dots} $$

統計のズレも、機械のズレも、ぜんぶ合体させて、最終的な「不確かさ」として報告するのが世界共通の正解!

  • 計算のコツ(相対標準不確かさ)
    「不確かさ(誤差)÷ 値」で、まずは%(相対値)に直してから、二乗和のルートをとるのが一般的。
    (例:線源の誤差4%と、計器の誤差8%なら $\sqrt{4^2 + 8^2} \approx 9\%$)
解説を閉じて問題へ