JPY ¥2,948
機械学習を解釈する技術〜予測力と説明力を両立する実践テクニック【電子書籍】[ 森下光之助 ]
<p><strong>(概要)</strong><br /> 機械学習の研究開発が急速な勢いで進んでいます。理論研究はもちろん、機械学習手法が実装されたオープンソースのパッケージ開発も進み、それらを実務で利用するためのノウハウも蓄積されてきています。結果として、機械学習をはじめたばかりの入門者でも比較的高い精度の予測モデルを構築できるようになりました。<br /> Deep Learning, Gradient Boosting Decision Tree, Random Forestなどの機械学習モデルは高い予測精度を誇りますが、モデルの解釈性が低いという欠点があります。これらの複雑なブラックボックスモデルにおいて、モデルがなぜそのような予測を行っているのかを知ることは困難ですが、データ分析者自身がモデルの振る舞いを把握し、説明責任を果たすことを実務においては頻繁に求められます。<br /> 本書では、このような予測精度と解釈性のトレードオフを克服するための手法について、実務において特に有用と考えるものを厳選して紹介します。本書の構成は以下になります。<br /> ・1章:機械学習の解釈性とは<br /> ・2章:線形回帰モデルを通して「解釈性」を理解する<br /> ・3章:特徴量の重要度を知る〜Permutation Feature Importance〜<br /> ・4章:特徴量と予測値の関係を知る〜Partial Dependence〜<br /> ・5章:インスタンスごとの異質性を捉える〜Individual Conditional Expectation〜<br /> ・6章:予測の理由を考える〜SHapley Additive exPlanations〜<br /> 2章では極めて高い解釈性を誇る線形回帰モデルを通して、予測モデルに求められる解釈性について説明します。以降の4つの章では、それらの解釈性をブラックボックスモデルに与えるPFI, PD, ICE, SHAPと呼ばれる手法について解説します。<br /> 本書は機械学習の解釈手法を実用して頂くことを目的としています。Pythonでゼロから手法を実装することを通じて解釈手法のアルゴリズムを理解し、実データの分析を通じて解釈手法の勘所を押さえて頂きます。機械学習の解釈手法は強力な反面、使い方を誤ると間違った結論を導いてしまう危険もあります。本書では解釈手法を実用する際の注意点についても丁寧に触れています。</p> <p><strong>(こんな方におすすめ)</strong><br /> ・機械学習エンジニア、データ分析者</p> <p><strong>(目次)</strong><br /> <strong>1章 機械学習の解釈性とは</strong><br />  1.1 機械学習の解釈性を必要とする理由<br />  1.2 予測精度と解釈性のトレードオフ<br />  1.3 機械学習の解釈手法<br />  1.4 機械学習の解釈手法の注意点<br />  1.5 本書の構成<br />  1.6 本書に書いていること、書いていないこと<br />  1.7 本書で用いる数式の記法<br />  1.8 本書のコードを実行するためのPython環境<br />  1.9 参考文献<br /> <strong>2章 線形回帰モデルを通して「解釈性」を理解する</strong><br />  2.1 線形回帰モデルの導入<br />  2.2 線形回帰モデルが備える解釈性<br />  2.3 実データでの線形モデルの分析<br />  2.4 線形回帰の利点と注意点<br />  2.5 参考文献<br /> <strong>3章 特徴量の重要度を知る〜Permutation Feature Importance〜</strong><br />  3.1 なぜ特徴量の重要度を知る必要があるのか<br />  3.2 線形回帰モデルるにおける特徴量の重要度<br />  3.3 Permutation Feature Importance<br />  3.4 Leave One Covariate Out Feature Importance<br />  3.5 Grouped Permutation Feature Importance<br />  3.6 特徴量重要度は因果関係として解釈できるか?<br />  3.7 訓練データとテストデータのどちらで予測精度を評価するべきか<br />  3.8 実データでの分析<br />  3.9 PFIの利点と注意点<br />  3.10 参考文献<br /> <strong>4章 特徴量と予測値の関係を知る〜Partial Dependence〜</strong><br />  4.1 なぜ特徴量と予測値の関係を知る必要があるのか<br />  4.2 線形回帰モデルと回帰係数<br />  4.3 Partial Dependence<br />  4.4 Partial Dependenceは因果関係として解釈できるのか<br />  4.5 実データでの分析<br />  4.6 PDの利点と注意点<br />  4.7 参考文献<br /> <strong>5章 インスタンスごとの異質性をとらえる〜Individual Conditional Expectation〜</strong><br />  5.1 なぜインスタンスごとの異質性をとらえる必要があるのか<br />  5.2 交互作用とPDの限界<br />  5.3 Individual Conditional Expectation<br />  5.4 Conditional Partial Dependence<br />  5.5 ICEの解釈<br />  5.6 実データでの分析<br />  5.7 ICEの利点と注意点<br />  5.8 参考文献<br /> <strong>6章 予測の理由を考える〜SHapley Additive exPlanations〜</strong><br />  6.1 なぜ予測の理由を考える必要があるのか<br />  6.2 SHAPのアイデア<br />  6.3 協力ゲーム理論とShapley値<br />  6.4 SHapley Additive exPlanations<br />  6.5 SHAPの実装<br />  6.6 実データでの分析<br />  6.7 ミクロからマクロへ<br />  6.8 SHAPの利点と注意点<br />  6.9 参考文献<strong>付録A: Rによる分析例〜tidymodelsとDALEXで機械学習モデルを解釈する〜</strong><br />  A.1 tidymodelsとDALEX<br />  A.2 データの読み込み<br />  A.3 tidymodelsによる機械学習モデルの構築<br />  A.4 DALEXによる機械学習モデルの解釈<br />  A.5 まとめ<br />  A.6 参考文献<br /> <strong>付録B: 機械学習の解釈手法で線形回帰モデルを解釈する</strong><br />  B.1 なぜ機械学習の解釈手法で線形回帰モデルを解釈するのか<br />  B.2 線形回帰モデルとPFIの関係<br />  B.3 線形回帰モデルとPDの関係<br />  B.4 線形回帰モデルとICEの関係<br />  B.5 線形回帰モデルとSHAPの関係<br />  B.6 まとめ<br />  B.7 考文献</p>画面が切り替わりますので、しばらくお待ち下さい。 ※ご購入は、楽天kobo商品ページからお願いします。※切り替わらない場合は、こちら をクリックして下さい。 ※このページからは注文できません。   楽天Kobo電子書籍ストア   楽天 楽天Kobo電子書籍ストア