<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>回帰分析 on Marketechlabo</title><link>https://www.marketechlabo.com/tags/regression-analysis/</link><description>Recent content in 回帰分析 on Marketechlabo</description><generator>Hugo -- gohugo.io</generator><language>ja-jp</language><lastBuildDate>Tue, 31 Jan 2017 00:00:00 +0900</lastBuildDate><atom:link href="https://www.marketechlabo.com/tags/regression-analysis/index.xml" rel="self" type="application/rss+xml"/><item><title>回帰分析とその派生手法、数理モデリング、発展的な統計解析手法</title><link>https://www.marketechlabo.com/statistics-analysis/regression-modeling/</link><pubDate>Tue, 31 Jan 2017 00:00:00 +0900</pubDate><guid>https://www.marketechlabo.com/statistics-analysis/regression-modeling/</guid><description>
&lt;p&gt;いわゆる回帰分析に代表される数理モデリングとその種類を説明していく。&lt;/p&gt;
&lt;h2 id="数理モデリング"&gt;数理モデリング&lt;/h2&gt;
&lt;h3 id="数理モデリングの考え方"&gt;数理モデリングの考え方&lt;/h3&gt;
&lt;p&gt;因果関係を定量化
「Xという要因→Yという結果」という関係を
$$Y=a+bX$$
で表す。&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;X＝説明変数（独立変数）&lt;/li&gt;
&lt;li&gt;Y＝被説明変数（従属変数、目的変数）&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;いわゆる「回帰分析」である。&lt;/p&gt;
&lt;h4 id="目的"&gt;目的&lt;/h4&gt;
&lt;ul&gt;
&lt;li&gt;因果関係とインパクトの大きさの特定&lt;/li&gt;
&lt;li&gt;予測&lt;/li&gt;
&lt;/ul&gt;
&lt;h4 id="モデリングの手続き"&gt;モデリングの手続き&lt;/h4&gt;
&lt;ol&gt;
&lt;li&gt;モデル式の選択（単回帰、ロジット、…）
従属変数の特徴（分布の形状、ばらつき方）によって適切なモデルを選択する&lt;/li&gt;
&lt;li&gt;パラメータの推定
さまざまな推定法がある（最尤法、最小二乗法）&lt;/li&gt;
&lt;li&gt;そのモデルでいいか検証
&lt;ul&gt;
&lt;li&gt;あてはまりのよさ（fit）
&lt;ul&gt;
&lt;li&gt;決定係数&lt;/li&gt;
&lt;li&gt;AIC&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;残差の評価（独立性、正規性、等分散性、線形性）
&lt;ul&gt;
&lt;li&gt;予測値 vs 残差&lt;/li&gt;
&lt;li&gt;正規QQプロット&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;外れ値の評価
&lt;ul&gt;
&lt;li&gt;てこ比&lt;/li&gt;
&lt;li&gt;Cookの距離&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;バリデーション（検証用データで予測精度を見る）&lt;/li&gt;
&lt;li&gt;その他（Profit / Lossなど）&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;モデルを選択
ダメな場合、変数の出し入れや変数変換を試す&lt;/li&gt;
&lt;/ol&gt;
&lt;h4 id="よく出てくる問題"&gt;よく出てくる問題&lt;/h4&gt;
&lt;ul&gt;
&lt;li&gt;変数が多すぎる→どう縮約するか&lt;/li&gt;
&lt;li&gt;過学習⇔凡化性能&lt;/li&gt;
&lt;li&gt;sparse data（ゼロが多い隙間だらけのデータ）&lt;/li&gt;
&lt;/ul&gt;
&lt;h3 id="線形回帰モデル"&gt;線形回帰モデル&lt;/h3&gt;
&lt;p&gt;最もシンプルな回帰分析
$$y = a + b_1 x_1 + b_2 x_2 + \cdots + u$$&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;$a$：説明変数によらない確定的な影響度&lt;/li&gt;
&lt;li&gt;$b$：説明変数の影響力の大きさ
→これらが回帰係数&lt;/li&gt;
&lt;li&gt;$u$：誤差項&lt;/li&gt;
&lt;/ul&gt;
&lt;h4 id="推定法"&gt;推定法&lt;/h4&gt;
&lt;p&gt;最小二乗法&lt;/p&gt;
&lt;h4 id="見るべきポイント"&gt;見るべきポイント&lt;/h4&gt;
&lt;ul&gt;
&lt;li&gt;因果の意味&lt;/li&gt;
&lt;li&gt;回帰係数（パラメータ）&lt;/li&gt;
&lt;li&gt;決定係数：回帰式の説明力の大きさ&lt;/li&gt;
&lt;li&gt;そもそもモデルが妥当かどうか&lt;/li&gt;
&lt;li&gt;残差（ばらつき、偏り）&lt;/li&gt;
&lt;li&gt;多重共線性（説明変数間の相関）の有無&lt;/li&gt;
&lt;/ul&gt;
&lt;h3 id="一般化線形モデルglmgeneralized-linear-model"&gt;一般化線形モデル（GLM＝Generalized Linear Model）&lt;/h3&gt;
&lt;p&gt;線形回帰の一般形。
線形回帰モデルは従属変数が正規分布という前提があるが、
さまざまな分布の従属変数に拡張した回帰の手法になる。
$$y = a + b_1 x_1 + b_2 x_2 + \cdots + u$$&lt;/p&gt;</description></item></channel></rss>