はじめに
機械学習や統計モデルを使う際、「データを標準化・正規化すると精度が上がる」とよく言われます。
しかし、なぜそんな効果があるのでしょうか?
単なる形式的な前処理だと思ってしまうと、その重要性を見逃してしまうかもしれません。
この記事では、標準化・正規化がなぜモデルの性能を向上させるのか、
そして実例を交えてわかりやすく解説していきます。
🔹 統計自主学習シリーズまとめページはこちら
▶【初心者向け】統計自主学習シリーズまとめ
標準化・正規化が必要になる理由
理由1:スケール(単位)の違いを揃えるため
現実世界のデータは、異なるスケール(大きさの単位)を持っていることがよくあります。
例えば──
| 特徴量 | 単位 | 値の範囲 |
|---|---|---|
| 身長 | cm | 150〜190 |
| 体重 | kg | 40〜90 |
| 年収 | 万円 | 200〜1500 |
このように、特徴量ごとにスケールがバラバラな場合、
機械学習モデル(特に線形回帰やk近傍法(KNN)、ニューラルネットワークなど)は、
スケールの大きな特徴量に引きずられてしまう傾向があります。
結果として、年収のような「大きな数字を持つ特徴」がモデルに不自然に強く影響を与え、
本来重要な「身長」や「体重」の効果が小さく扱われてしまうことになります。
➡️ 標準化・正規化でスケールを揃えることで、
すべての特徴量が対等に扱われるようになり、モデルの学習が安定します。
理由2:最適化の効率を高めるため
機械学習モデルの学習は、損失関数を小さくする「最適化」の繰り返しです。
このとき、スケールがバラバラなデータだと、
勾配(学習方向)にムラが出て、学習が遅くなったり、うまく収束しなかったりすることがあります。
たとえば、縦に長く横に短い谷のような形の損失関数になってしまうと、
最適なパラメータにたどり着くまで無駄に遠回りしてしまうイメージです。
➡️ データを標準化・正規化しておくと、
損失関数の形がなだらかで均等になり、最適化がスムーズに進みます。
理由3:アルゴリズムの仮定を満たすため
多くのアルゴリズム(特に線形回帰やロジスティック回帰、SVMなど)は、
「特徴量が似たスケールである」「誤差が正規分布に従う」ことを仮定している場合があります。
この前提が大きく崩れると、モデルが本来持つ性能を発揮できなくなります。
➡️ 標準化や正規化は、アルゴリズムが想定している前提に近づけるためにも効果的なのです。
実例:標準化しないとどうなるか?
簡単な例を見てみましょう。
例:線形回帰モデルで身長と年収から体重を予測
- 特徴量①:身長(cm)→ 150〜190の範囲
- 特徴量②:年収(万円)→ 200〜1500の範囲
このまま線形回帰を行うと、モデルは
年収のほうに強く引っ張られ、身長の影響をほとんど無視してしまいます。
→ 本当は身長も重要な手がかりなのに、モデルが気付けない。
これに対して、両方の特徴量を標準化(平均0・標準偏差1)すれば、
- 身長も年収も、ほぼ同じスケールで学習対象になる
- 重要度を正しく比較できる
- 結果として、より精度の高い予測モデルが作れる
という効果が生まれます。
標準化とは
標準化(Standardization)とは、データの平均を0、標準偏差を1に変換するスケーリング手法です。
この処理は「zスコア標準化」とも呼ばれ、各データから平均値を引き、標準偏差で割ることで計算されます。

使いどころ
- 特徴量のスケールが異なる場合
- 距離や重みの計算にスケールが影響する機械学習アルゴリズムを使う場合
正則化とは
正則化とは、機械学習モデルの過学習(オーバーフィッティング)を防ぐために、モデルの複雑さにペナルティを課す手法です。正則化を行うことで、未知データへの予測精度(汎化性能)が向上します。
L1正則化(ラッソ回帰)
- 仕組み
L1正則化は、損失関数に「パラメータ(重み)の絶対値の合計」を加えます。 - 特徴・効果
- 不要な特徴量の重みを0にしやすく、重要な特徴量だけを残す(特徴選択ができる)。
- モデルが「スパース(疎)」になり、解釈しやすくなる。
- 特徴量が多い、またはどの特徴が重要かわからない場合に有効。
- L1正則化を使った回帰モデルは「ラッソ回帰(Lasso Regression)」と呼ばれます。
- 利用シーン
- 変数が多い、または不要な変数を自動で省きたい場合
- モデルの解釈性を高めたい場合
L2正則化(リッジ回帰)
- 仕組み
L2正則化は、損失関数に「パラメータ(重み)の二乗和」を加えます。 - 特徴・効果
- 重みの値を全体的に小さくし、モデルをなめらかにする。
- 特定の重みだけが大きくなりすぎるのを防ぐ。
- 外れ値やノイズに対する耐性が高まる。
- すべての特徴量を少しずつ使いながら過学習を抑える。
- L2正則化を使った回帰モデルは「リッジ回帰(Ridge Regression)」と呼ばれます。
- 利用シーン
- すべての特徴量を活かしつつ、モデルの複雑さを抑えたい場合
- 外れ値やノイズの影響を抑えたい場合
使い分け・まとめ
| 正則化の種類 | ペナルティ項 | 特徴・メリット | 主な用途・適性 |
|---|---|---|---|
| L1正則化 (ラッソ回帰) | 重みの絶対値の和 | 不要な特徴量を自動的に除外し、モデルをシンプルにできる。 | 多数の特徴量の中から本当に重要なものだけを抽出する。 |
| L2正則化 (リッジ回帰) | 重みの二乗和 | 重みを全体的に小さくし、外れ値やノイズに強い。滑らかなモデルになる。 | すべての特徴を活かしたい場合・外れ値対策 |
- どちらも過学習を防ぎ、汎化性能を高めるための手法です。
- 両者の特徴を併せ持つ「Elastic Net」という手法もあります。
標準化・正規化が特に効果的なモデル
| モデル | 標準化・正規化が効果的か? | 理由 |
|---|---|---|
| 線形回帰 | ◎ | 重み付けにスケールの影響を受けるため |
| ロジスティック回帰 | ◎ | 同上 |
| k近傍法(KNN) | ◎ | 距離計算にスケールが直結するため |
| SVM | ◎ | カーネル関数での距離計算のため |
| 決定木 | △ | 不要なことが多い(スケールに影響されない) |
| ランダムフォレスト | △ | 同上 |
まとめ
標準化・正規化は、単なる「見た目を揃えるための作業」ではありません。
データのスケールを揃えることで、
- モデルの学習効率を高める
- 特徴量同士を公平に比較できる
- 最適化の過程を安定化させる
といった、モデル性能に直結する大きな効果を持っています。
データ前処理の段階で標準化・正規化を意識できるかどうかが、
その後の分析や予測の精度を大きく左右するのです。
【あわせて読みたい】
🔹 次におすすめの記事
▶主要6モデルをやさしく解説!線形回帰・ロジスティック回帰・KNN・SVM・決定木・ランダムフォレストとは?
🔹 関連記事
▶「正規分布とは?現実世界と機械学習での使われ方・特徴をやさしく解説」
▶正規性の検定とは?データの標準化・正規化もまとめてわかりやすく解説
▶「基本統計量をマスター!平均・中央値・最頻値・分散・標準偏差を実例でわかりやすく解説」
🔹 統計自主学習シリーズまとめページはこちら
▶【初心者向け】統計自主学習シリーズまとめ

コメント