回帰直線 【regression line】

概要

回帰直線(regression line)とは、2つのデータ系列を描画した散布図で、分布の傾向に最もよく当てはまるように引いた直線のこと。両者の関係を一次関数として近似している。

測定値などの分布に基づいて、2つの変数の関係を y=ax+b という一次関数で近似することを単回帰分析という。x説明変数y目的変数と呼び、xから未知の y を予測・推測できるようになる。

2つの変数の関係について、横軸を説明変数、縦軸を目的変数とする散布図で表したときに、分布の様子を直線で近似したものを回帰直線という。回帰分析で求めた一次関数(回帰式)をグラフ上に描画したものである。先の方程式の a は直線の傾きを、 b はy切片を表している。

回帰直線は実際のデータを表す各点との距離がなるべく小さくなることが望ましい。この条件を満たすため、一般的には「最小二乗法」という計算法で係数 abを決定する。説明変数 xi において、実測された目的変数yi、回帰式から求めた予測値は axi+b となる。

両者の差である yi-axi-b を2乗し、各点について合計したものを残差平方和という。これが最小になるときの a および b を算出すると、xy の平均 x-y- 、標準偏差 SxSy 、相関係数 r を用いて、 b=rSySxa=y--bx- として表すことができる。

(2024.5.20更新)

他の辞典による解説 (外部サイト)

この記事の著者 : (株)インセプト IT用語辞典 e-Words 編集部
1997年8月より「IT用語辞典 e-Words」を執筆・編集しています。累計公開記事数は1万ページ以上、累計サイト訪問者数は1億人以上です。学術論文や官公庁の資料などへも多数の記事が引用・参照されています。
ホーム画面への追加方法
1.ブラウザの 共有ボタンのアイコン 共有ボタンをタップ
2.メニューの「ホーム画面に追加」をタップ
閉じる