線形回帰

データ分析者にとっては当たり前以前のモデルではありますが、Azure Machine Learningなどによってはじめて、機械学習に興味を持った諸氏もおられると思いますので、ざくっと。

線形回帰は目的変数Yと説明変数X_n及びランダム項\epsilonを以下のモデル式で表現します。
Y=\beta _0 + \beta _1 X_1+\beta _2 X_2+ \cdots \beta _n X_n + \epsilon

線形回帰のメリットは回帰係数 \betaという形で、各説明変数の目的変数への影響がわかりやすいため、解釈しやすく実ビジネスに適用しやすいことです。逆に言えば、その解釈の容易性ゆえに実ビジネスの複雑な動きはきちんと表現されえないことも多いということでもあります。解釈の容易性とモデルの当たり具合はトレードオフの関係にあり、精緻なモデルほど式の複雑さゆえに解釈しずらくなることが多いです。

さて、線形回帰を解くということは、この各回帰係数 \betaを求めるということです。そして、その上でランダム項であるランダム項\epsilonが小さくなるようにするということです。Azure Machine LearningのLinear Regressionはこれらを求める機能が入っています。数学的にこれらを求める手法は割愛します。実ビジネスの環境下では解釈の容易性ゆえに、この系譜である一般化線形回帰、ロジスティック回帰という形で最も登場頻度の多い分析手法の一つであるといえます。

コメントを残す