Pythonで簡単に使えるAutoML「PyCaret」で機械学習をクイックに試す

AutoMLでまたひとつ便利なものが増えていました。PyCaretというのが最近話題になっていたので、試してみました。

Home – PyCaret

分類、回帰、クラスタリング、異常検知、自然言語処理、関連性探索ができます。

データ登録

データの前処理としては、One-Hot Encodingなど、基本的なことは勝手にやってくれるようです。ただ、特徴量自体を抽出したり、組み合わせるなどは、どこまで細かくやってるかはもう少し使ってみないとわからないです。恐らく細かい特徴量エンジニアリングをするなら、自分で前処理する必要があると思います。クイックに試すなら、超簡単です。

PyCaretでは、様々なデータも取得することが可能です。今回はワインの赤白を分類する例で、試してみました。

[python]
from pycaret.datasets import get_data
dataset = get_data(‘wine’)
[/python]

 

データをPyCaretに登録します。

[python]
from pycaret.classification import *
exp_clf101 = setup(data = data, target = ‘type’, session_id=123)
[/python]

 

これで終わり。ただ、Enterを押さないと処理が完了しないので、それだけ注意。

もう少し細かい設定もできます。具体的な内容は、こちらの記事が詳しく書かれています。

PyCaretでできる前処理について調べてみた – Qiita

 

モデルの比較

様々なアルゴリズムで学習させたモデルの比較はこれだけ。こちらも超簡単。これだけで、対応しているアルゴリズムが一斉に検証されます。

[python]
compare_models()
[/python]

 

特定のアルゴリズムで検証したい場合はこちら。

[python]
lightgbm = create_model(‘lightgbm’)
[/python]

 

モデルの精度改善

グリッドサーチでハイパーパラメータのチューニングをやってくれるようです。ターゲットとする精度指標をオプションで指定することも可能です。

[python]
tuned_lightgbm = tune_model(‘lightgbm’)
[/python]

モデルの可視化

可視化も簡単にできます。一括に出すならこちら。

[python]
evaluate_model(tuned_lightgbm)
[/python]

 

Confusion Matrix、AUC、Feature Importanceなどを選択すると、それぞれが表示されます。

他にもモデルをアンサンブルさせることもできますし、クイックにモデル検証や精度改善もできそうです。それ以外にも、予測・クラスタリングなどもできます。用途も結構ありそうですね。

自分みたいな俄かには、こういうAutoMLは勉強にもなりますし、細かな処理に煩わされることもないので、ありがたい限りです。

AI・人工知能・機械学習をビジネスで活用するために読む本まとめ(2020年版)

去年に書いた、AI活用のための本も、一年経ったのでアップデートしようと思います。

AI・人工知能・機械学習をビジネスで活用するために読む本まとめ

 

ビジネスサイド向け

ディープラーニング G検定テキスト

昨年に引き続きこちら。機械学習やディープラーニングを理解する上で必要な知識が、体系的にまとまっていると思います。ボリュームはそれなりにありますが、いろんな知識を習得するには良いでしょう。

試験自体も受験者数が増えており、いろんな企業や個人で活用されている機会が増えているようです。

 

投資対効果を最大化する AI導入7つのルール

Aidemyが出した、AIのプランニングに重点を置いた一冊です。PoC開発をやって失敗する事例が山ほどあるAI業界ですが、どうやったらそういうものを回避できたり役に立つAIを作れるのか、様々ポイントが示されています。

投資対効果をちゃんと考えたプランニングをしたいと言う方にはお勧めです。

 

失敗しない データ分析・AIのビジネス導入: プロジェクト進行から組織づくりまで

去年に引き続き、相変わらずこちらが、AIプロジェクトを本格的に立ち上げる際には、とても参考になる良い本だと思ってます。

 

AI活用事例

AI活用地図

事例を幅広く集めるなら、この1冊があれば充分なのではないかと言っています。それぐらい、業界別に幅広い活用事例が掲載されています。しかも、技術的な難易度と合わせて。

ただし、AIの世界はスピードが速いので、新しい事例に関しては個別にネットなどで探索した方が良いでしょう。

 

ディープラーニング実践編

去年は「ディープラーニング活用の教科書」 を取り上げていたのですが、新たに「実践編」が出ました。その名の通り、実例が詳しく書かれているのが本書の特徴です。業務の適用領域や技術内容の説明もあるので、具体的に知りたい人には良いと思います。

 

技術にも触れてみる

Udemy

実際に開発もしてみましょう。開発すると、どのような原理で動いているのか、実際に理解できるようになります。

特にAIに関してはライブラリも豊富で、なければいけないコースを比較的少ないので、そんなに負担なく試すことができます。

 

Pythonで機械学習:scikit-learnで学ぶ識別入門

【Kaggleで学ぼう】PythonとKerasで学ぶディープラーニング開発入門

 

Machine Learning実践の極意 機械学習システム構築の勘所をつかむ!

こちらは、具体的なデータ分析の進め方を確認しながら、自分で手を動かしてみることができます。データの前処理、特徴量エンジニアリングなど、具体的な作業を知ることができるでしょう。

 

その他

シン・ニホン

今世界において気になっているのか、その中でAIの技術がどういう位置づけになってるのかが示されている本です。

AIを学ぶ重要性を理解できると思います。

「シン・ニホン」を読んで日本の現状と未来を考える

 

AI vs. 教科書が読めない子どもたち

AIという技術が、教育や人間の役割とどう関係するのか、よくわかる本です。発売されてから時間が経ってきていますが、それでも色あせない本質がありますね。

 

ということで、今年も勉強しましょう。AIが普及しますように。

あいみょんや髭男がいつからブレイクしたのか、Prophetで時系列分析する

Prophetの勉強のために、いろいろ分析ネタを探しているのですが、今日は変化点の抽出です。

テーマは、あいみょんやOfficial髭男dismがいつ頃からブレイクしたのか、Prophetの変化点抽出の機能で可視化したいと思います。

前半部分は、前回の記事と同じコードを使っています。

花粉症が増えているのか、ProphetでGoogleトレンドを分析した

まずはGoogleトレンドのデータを抽出

あいみょんとOfficial髭男dismを、Googleトレンドで検索した結果がこちらです。

グラフでぱっと見た感じだと、あいみょんは2018年初め、Official髭男dismは2019年の半ばぐらいからでしょうか。

あいみょんを分析

トレンドに分解すると、こんな感じです。ここで見ても、2018年で上がり始め、2019年を過ぎたころにピークを迎え、今は少し落ち着いてます。

 

 

で、今回のメインである変化点抽出。基本的には、こちらのサイトのコードを拝借しました。

Facebookの予測ライブラリProphetを用いたトレンド抽出と変化点検知 – Gunosyデータ分析ブログ

可視化したグラフとコードがこちらです。

[python]
import seaborn as sns

# add change rates to changepoints
df_changepoints = gt_data.loc[m.changepoints.index]
df_changepoints[‘delta’] = m.params[‘delta’].ravel()

# get changepoints
df_changepoints[‘ds’] = df_changepoints[‘ds’].astype(str)
df_changepoints[‘delta’] = df_changepoints[‘delta’].round(2)
df_selection = df_changepoints[df_changepoints[‘delta’] != 0]
date_changepoints = df_selection[‘ds’].astype(‘datetime64[ns]’).reset_index(drop=True)

# plot
sns.set(style=’whitegrid’)
ax = sns.factorplot(x=’ds’, y=’delta’, data=df_changepoints, kind=’bar’, color=’royalblue’, size=4, aspect=2)
ax.set_xticklabels(rotation=90)
[/python]

[python]
figure = m.plot(forecast)
for dt in date_changepoints:
plt.axvline(dt,ls=’–‘, lw=1)
plt.ylim(0,100)
plt.show()
[/python]

 

変化点はこんな感じになっています。

0 2017-03-12
1 2017-10-29
2 2017-12-31
3 2018-02-25
4 2018-04-22
5 2019-02-10
6 2019-04-07

グラフと照らし合わせながらみると、2017年10月~2018年4月ぐらいまでで連続して変化点が生じているので、このあたりがブレイクポイントかなと。

Wikipediaのディスコグラフィーと見比べると、「君はロックを聴かない」から「満月の夜なら」あたりでしょうか。

あいみょん – Wikipedia

 

Official髭男dismを分析

次はヒゲダンです。こちらは念のため、「Official髭男dism」と「ヒゲダン」の両方を見てみました。

最近は「ヒゲダン」の方が多いんですね。ただ、ブレイク時期を見るには「Official髭男dism」の方がよさげなので、こちらで分析進めます。

あいみょんと同じように、まずはトレンドの分解から。

大きな変化点は、2018年の後半あたりにある気がしますね。

次は変化点抽出です。同じグラフはこちら。

変化点はこんな感じになっています。

0 2017-09-03
1 2017-10-29
2 2018-04-22
3 2018-06-24
4 2018-08-19
5 2018-10-14
6 2018-12-09
7 2019-02-10
8 2019-04-07

こうみると、2018年過ぎたころから立て続けに変化点が訪れており、その都度Googleトレンドの値が徐々に上がっているのがわかります。最後、ガッと上がっているのが2019年4月ですね。

同じようにディスコグラフィーを見ると、メジャーデビューしたのが2018年4月なので、そのあたりがちょうどGoogleトレンドの上昇傾向の開始と合致します。そして、Pretenderの発売が2019年5月なので、この発売と合わせて急上昇していったように見えます。

Official髭男dism – Wikipedia

 

ということで、Prophetで変化点抽出を見てみました。目視でグラフで見るだけでは感じなかった、トレンドの変化を抽出することができました。逆に、違和感みたいなところもあるので、使い方次第というか、実データや背景などと組み合わせて読み解く必要もありそうです。

花粉症が増えているのか、ProphetでGoogleトレンドを分析した

今年は花粉症が軽い感じだな、と思っていたのですが、一方で毎年花粉症の人は増えているという報道を目にした覚えもありました。実際どうなんでしょう?

ふと気になってGoogleトレンドで過去の経緯を調べてみました。Googleトレンドで日本の「花粉症」で検索された結果がこちらです。

[python]
from pytrends.request import TrendReq
pytrends = TrendReq(hl=’ja-JP’, tz=360)

kw_list = ["花粉症"]

# 全期間を取得
pytrends.build_payload(kw_list, cat=0, timeframe=’all’, geo=’JP’, gprop=”)
df = pytrends.interest_over_time()

%matplotlib inline
df.plot(figsize=(15, 3), lw=.7)
[/python]

 

毎年2月ぐらいに大きくなる、というのを繰り返しています。そのピークの山は年ごとに違っているようです。全体で増えているのかどうかは、ちょっとわかりづらいですね。

これを、トレンドに分解してみます。FacebookのProphetを使いました。

[python]
import pandas as pd # DataFrame
from fbprophet import Prophet # prophet

gt_data = pd.DataFrame()
gt_data[‘ds’] = df.index
gt_data[‘y’] = df[kw_list].values

# Prophetモデルの構築
m = Prophet(weekly_seasonality=False)

# 学習
m.fit(gt_data)

# 将来30日間を予測
future = m.make_future_dataframe(periods=30)
forecast = m.predict(future)

m.plot_components(forecast)
[/python]

全体のトレンドでみると、やはり右肩上がりになっています。増えている感じがしますね。

そして、年間の推移でみると、1~3月は盛り上がり、それ以外はほぼ低迷な状況です。イネ花粉など春以外にも花粉症はあると言われていますが、春の花粉症以外はそれほど強い関心にはなっていないんですかね。

ということで、Googleトレンドで見る限りは、この5年間ほどで花粉症は全体として増えているようです。

時系列分析ツールProphetで140年分の岐阜の気温を分析してみた

Facebookが開発した時系列解析パッケージのProphetは、結構便利なのでいろいろ使い方を考えています。

超簡単に時系列予測するデータ分析方法は知っておいて損はない

 

で、こちらの記事を見つけたので、模倣して分析させていただきました。

あまりに暑いのでProphetで140年分の気温を分析した

全く同じだと芸がないので、対象データは岐阜のものにしました。こちらの気象庁のサイトで、対象拠点を岐阜にするだけなのですが・・・。

気象庁|過去の気象データ・ダウンロード

 

140年で気温はどんどん上昇している

気象庁のデータは1870年代からあります。こんなに昔から統一フォーマットで公開されているデータというのも、非常に貴重ですね。

こちらが実際の140年分の日次データです。

これだけ長い期間での推移をみると、全体で上昇しているのがわかります。やはり、元ネタの記事と同じように、岐阜でも気温は右肩上がりかな,、というのがわかります。

こちらはデータを、トレンドに分解したものですが、これも同じです。

140年で3度ほど気温が上がっています。そりゃ暑いと思うわけですね。

 

今年はやはり暖冬だった

次は直近の気温の推移を描画します。過去2年のデータと予測(30日分)がこちらです。

昨年の冬と比べても、今年の冬は信頼区間(80%)を超えて平均気温が高い日が多かったことがわかります。

 

ということで、Prophetで簡単に気温を可視化し、傾向を分析したり、予測することができました。Prophetって本当便利ですね。

COVID-19の感染予測をシミュレーションで理解する

いろいろ調べ物をしていたら、まさに今話題のCOVID-19のような、感染をシミュレーションするモデルがあることを知りました。

SIRという感染シミュレーションです。免疫がない感染可能性がある(S)→感染者(I)→回復して免疫を獲得した人(R)という状態遷移を示します。シンプルなモデルのようですが、これでどのように感染が広がり、収束していくかをシミュレーションすることができるようになります。

こちらにpythonでシミュレーションできる記事がありますので、興味がある方はやってみると良いでしょう。自分も写経してみました。

感染病の数学予測モデルの紹介 (SIRモデル) – Qiita

いくつかパラメータがあるのですが、感染率が高いと当たり前ですが収束に時間がかかることがわかります。

こちらと

こちら

 

感染率を倍にすると、感染者数も倍以上になりますし、増えていくスピードも急速です。

さらに、感染後の回復率が低くなると、さらに感染者が増え、収束するまでの時間がかかるようになります。

 

感染者数は一時的に急増すると、限りある医療資源にアクセスできなくなるため、この感染スピードをゆるくする必要があります。

よく言われている医療崩壊を防ぐ、というところですね。

 

ちなみに、こちらでGUIにもできます。

SIRモデル計算プログラムをGUI化する – Qiita

 

そして、自分でやるのが面倒な人は、こちらの記事をご覧ください。SIRモデルよりもっと詳細なモデルでシミュレーションした結果が公開されています。

都道府県ごとのシミュレーションによる検討 – COVID-19情報共有 — COVID19-Information sharing

 

全ての都道府県があるわけでは無いですが、これまでの感染者のデータを見ながら、モデルを検証し、今後の推移もシミュレーションされています。

シミュレーションではないですが、ダッシュボードでデータを見ることもできるようになっています。都道府県ごとの感染者数や検査数の推移がわかるようになっています。素晴らしいですね。

東京都のオープンソースを活用した新型コロナウイルス感染症対策サイトの紹介 | 政府CIOポータル

GlideでGoogleスプレッドシートからアプリを30分で作ってみたら世界が開けた

最近ネットをみていると、NoCodeという言葉を目にする機会が増えてきました。

新しい潮流「NoCode」って何?

以前から、IFTTTなどサービスを連携するものはありましたが、そのようなものを組み合わせながら、より簡単にサービスを実現する方法をNoCodeというそうです。

NoCodeのツールなどを紹介する、こういうサイトも登場しています。

A curated directory of resources, tools & hacks for non-techs

 

日本語だと、こちらがわかりやすいです。

NoCodeというツールを活用する。|三上蒼太 | yenta by Atrae|note

 

「NoCode」という名前の通り、コードを書かなくても、ECサイトやモバイルアプリをクイックに作ることができるのです。コストも低くて済みます。NoCodeでシステムを構築する企業まで登場してきていますね。

BOLT|国内初のNoCode(ノーコード)特化型WEB開発サービス

 

サービスの種類が増え、いろんなサービスを組み合わせて、ビジネスとしてやりたいことが低コストでできるって良いことですねー。

Googleスプレッドシートからモバイルアプリを作成するGlide

実際にNoCodeである、Glideというサービスを使って、モバイルアプリを作ってみることにしました。

Create an App from a Google Sheet in Minutes · Glide

Googleスプレッドシートのデータさえあれば、そこからモバイルアプリが作れるサービスです。厳密には、モバイルアプリライクなWebサイトを作れるということなんですが。

これがあまりに手軽にできたので、感動しました。データを用意したら、アプリを作るのは一時間もあればできます。慣れたらもっと早くできるかも。

Glide上でどういうパーツを表示するか、各パーツのデータ項目をどれにするか決めれば、それっぽいアプリが完成です。

実際にモバイルアプリを作ってみた

実際に、このブログで紹介してきたMBA関連のおすすめ本をまとめたアプリを作ってみました。

MBA books · Made with Glide

まだ本のすべてを登録できていないですが、とりあえずアプリはできました。

​​​​作ってみた感想としては、機能はそれほどリッチなことができるわけではないものの、ユーザーコメントも書き込めるし、画像を登録したり、動画を表示したり、地図を表示したりもできるので、「それっぽいもの」をクイックに作る点ではいろいろ使い道があると思いました。

ギャラリー的な作品集、社内マニュアル、営業する企業一覧、イベント案内、旅行のしおりなど。使い道がいろいろ思い浮かぶし、とりあえず無料で簡単にできるので、「とりあえずモバイルアプリ作るか」的なノリで充分いけます。

あと、スプレッドシート入力の仕方を工夫したり、地域に分けて設計することで、様々な人の表示などができます。ユーザにコメントや編集をお願いすることも可能です。

GoogleスプレッドシートにIFTTTやZapierで連携させることで、もっと用途は広がる気がします。作り方を覚えて「こんなに簡単にできるのか」と知ると、いろいろ使い方のイメージも膨らみますよね。

地図表示は注意が必要か

一覧にある住所情報から地図を表示することができるのですが、どうやらGlideが採用している地図サービスにAPIの回数制限があるらしく、全ては表示されないケースがありました。

Glideが使ってる地図サービスMapBoxについて書かれたこちらの記事が、参考になります。

【Glide】マップ表示にMapBoxが使われるようになったので位置が不正確です。住所から緯度経度を調べる【Spread Sheet】 | こだいらあたりでCivicTech

地図表示だけなら、Googleマップのマイマップ機能が良いかもです。

あと、ややバグらしき動きもありました。スプレッドシートを編集しても、うまく表示されないケースがあったりしたので。まあ、無料なので文句は言えませんが。
​​
​​

とりあえず、NoCodeの世界を体験するために、Glideを試してみましたが、すごい簡単すぎて世界が広がりました。簡単なアプリだったら、即効量産できそうです。興味ある方は試してみてください。

[amazon_link asins=’4797398558′ template=’Original’ store=’tob-22′ marketplace=’JP’ link_id=’3090bc2d-7a5e-4f88-a3da-41acc2d69f77′]

勾配ブースティングのXGBoostやLightGBMを理解しつつ動かしてみる

勾配ブースティングについて、勉強したくていろいろ情報を集めながら、実際にコーディングしました。

Kaggleでもディープラーニングより、XGBoostやLightGBMなどの勾配ブースティングを使ったアルゴリズムで高い精度が出るケースが多いという話もあり、これを学ぶといろんな場面で使えそうです。

とりあえず、非エンジニアでも「とりあえず概要をざっくり理解しつつ、触ってみよう」を目標にします。

GBDTの基礎知識

勾配ブースティング(Gradient Boosting)は、弱学習器を組み合わせたアンサンブル学習のひとつで、それを決定木系で実現したのがGBDT(Gradient Boosting Decision Tree)です。

調べてみると、日本語の情報が充実していない印象もありますが、こちらのコンテンツを読むと良いと思います。

勾配ブースティングについてざっくりと説明する – About connecting the dots.

GBDTの理解に役立つサイトまとめ – copypasteの日記

英語にはなりますが、こちらのYouTube動画が非常にわかりやすかったです。丁寧に簡単の例を交えながら、GBDTについて説明してくれます。

XGBoostとLightGBMのインストール方法

実際にPython環境にインストールしてみましょう。自分の場合は、WindowsのAnaconda環境なのでその前提です。こちらのコマンドで、簡単に導入することができます。

conda install -c conda-forge xgboost
conda install -c conda-forge lightgbm

こちらの記事を参考にさせていただきました。

LightGBM/XGBoostをAnaconda経由で簡単にインストールする方法 – Qiita

データの前処理

直接的にGBDTと関係あるわけではないですが、構造化データの前処理として必要なことも書いておきます。

前処理全般という意味では、こちらが大変参考になりました。

モデリングのための特徴量の前処理について整理した – For Your ISHIO Blog

こちらは、決定木系でOne-Hot Encodingが必要かどうかを調べたときに、参考にさせていただいた記事です。

カテゴリカル変数はなんでもダミー変換すればよいのか?-アルゴリズムに応じたOne Hot EncodingとLabel Encodingの使い分け | キヨシの命題

ハイパーパラメータのチューニング

PythonでXGBoostやLightGBMを使うまでは比較的簡単だったのですが、その後のパラメータチューニングに一番時間をかけました。

XGboostのハイパーパラメータチューニング

XGBoostのハイパーパラメータの種類はこちらで確認。

Kaggleで大人気!XGBoostに関する備忘録 – Qiita

ハイパーパラメータのうち、重要度が高いパラメータからどう順序立ててチューニング進めていくのか、サンプルで示してくれています。

analytics_vidhya/XGBoost models.ipynb at master · aarshayj/analytics_vidhya · GitHub

LightGBMのハイパーパラメータチューニング

LightGBMのハイパーパラメータの種類をこちらで確認。XGBoostとの対比もあるのでわかりやすいです。

【機械学習】ハイパーパラメータチューニングの仕方 – Qiita

こちらは、インストール方法から丁寧に解説されていますが、特にハイパーパラメータの種類と特徴、目的に応じてどう調整するのかまで書かれています。

LightGBM 徹底入門 – LightGBMの使い方や仕組み、XGBoostとの違いについて

 

こんな感じでとりあえず、調べながらコーディングして、動かすところまで行けました。あと、ハイパーパラメータのチューニングは、結構難しいですね。

PFNのOptunaを使ってみるとか、そもそもの前処理での特徴量の作り方とか、いろいろ試してみる余地がありそうな気がしました。こういうチューニングの勘所が最短距離で作れるようになるって、もっと知識と経験が必要だなと思いました。

Optunaを使ってXGBoostのハイパーパラメータチューニングをやってみる

Python: Optuna の LightGBMTuner で Stepwise Tuning を試す – CUBE SUGAR CONTAINER

「説明可能なAI」の現状とこれから

こちらの記事を読んで、いろいろ思うところがあったので、書いておきます。

機械学習の説明可能性(解釈性)という迷宮 – 渋谷駅前で働くデータサイエンティストのブログ

注目される説明可能なAI

説明可能AIはひとつの注目領域で、ガートナーのハイプサイクルでは「説明可能なAI」として、これから「過度な期待」のピーク期に位置付けられています。

ガートナー、「先進テクノロジのハイプ・サイクル:2019年」を発表

AI、特にディープラーニングは、その判断根拠がブラックボックスになりやすく、何か問題が起こったときに、検証や改善が難しいという特徴があります。

例えば、自動運転などにおいても、事故が起こってもなぜ事故が起こるような判断をAIがしたのか、を検証できないわけです。

それを解消するため、AIの判断根拠を見える化しようというのが、説明可能なAIです。

説明可能なAIは本当に人間が理解できるのか

冒頭紹介した記事を読んでいただければわかるのですが、今まさにAIの判断プロセスを可視化するためのいくつかのアプローチが登場してきています。

機械学習の説明可能性(解釈性)という迷宮 – 渋谷駅前で働くデータサイエンティストのブログ

この記事の最後のあたりを読むと、「なるほどな」という気持ちと同時に、少し寂しいというか虚しい気持ちも生まれてきます。

簡単にいえば、「説明可能AI」のアプローチは限界がある、ということです。

基本的には「ヒトが直感でも解釈できそうなところを一部取ってくる」もしくは「ヒトが直感でも解釈できそうな別のモデルに何とかして当てはめる」ということをしているに過ぎず、悪い言い方をすると「優れたブラックボックスのMLモデルに対して見かけだけは分かりやすい劣化コピーの代用品を持ってきているだけ」だからです。

 

「人間では認識しづらい複雑なパターンまで学習して予測する」のが機械学習なのに、それを「人間が説明可能にする」ということは、AIモデルを簡素化の方向へ進めることになるため、機械学習のメリットがないのでは、ということです。

一方で、可視化が全く意味がないかといえばそうではなく、決定木系などは可視化することで解釈がわかりやすくなりますし、

画像系であれば、AIが画像のどこを注目したのかを示すことができれば、あとから人間がAIの判断根拠を類推することもできそうです。

つまり、説明可能になるにはAIのアルゴリズムの特性によって変わったり、参考情報として示すにとどまる場合がある、というのが現状のようです。

 

ガートナーのハイプサイクルで紹介したように、技術的には注目領域ではあるのですが、「なんでも説明可能になる」というのは、「過剰な期待」なのではないでしょうか。

個人的には、全てをホワイトボックス化するのに固執するのではなく、リスクの明確化、業務全体でのリスクヘッジなども考えるのが現実解では、と思います。

 

今、これを読み始めました。AIが社会にどう浸透していくのか、各国の考え方などを踏まえながら書かれているのが面白いです。

[amazon_link asins=’4065175682′ template=’Original’ store=’tob-22′ marketplace=’JP’ link_id=’b7fddc31-6ecc-44a0-a16b-2883b7e71dc7′]

これまでと現在の政党支持率を調べてみた

気になったので、各政党の支持率の推移を調べてみました。

朝日新聞のデータだけなので、絶対値としては偏りがあるのかもしれませんが、20年以上前からデータがあり、これまでの政党支持率の変化がよくわかります。民主党への政権交代時は、だんだん自民党と民主党の支持率が拮抗し、交代に至ったことがわかります。

一方今は、自民党と他党の支持率に大きな乖離があり、交代の機運が得られていないように見えます。

次は政党支持率の傾向分析。どういうときに上昇・下降しているのかを見ながら、政党がどういう層に支持されているのかがわかります。

こちらも朝日新聞のデータ。今の内閣も長い期間の中で、支持層を変化させていったことがわかります。

今の内閣は若年層の支持が高く、女性よりは男性の方が支持が高いのが特徴。

そして常にウォッチしている永江先生の、政党支持率とスマホ普及率の関係に関する考察。

ちなみに、今のところ自民党総裁の任期が2021年9月末までですが、党則を変更して4選もありうるのでは、という観測も出ている状況です。