統計検定準1級を4回受験した民の話し

はじめに

つい先日、統計検定準1級に無事(?)合格してくることができました。 試験対策の中で、先人達の合格体験記には大変お世話になったので、 自身の体験もネットの海に放流し、今後受験を考えている方々の参考に なったりならなかったりすればいいなといったモチベーションでまとめていきます。

目次

自身のスペック

自身のスペックを3行でまとめると

  • 国立情報系院卒
  • 2年ほど前に統計検定2級を取得済み
  • 現在はアラサーIT作業員として中小IT企業に勤務

みたいな感じです。学生時代は確率統計・機械学習分野に割りかし親和性の高い専攻に所属していましたが、 社会人になってからはこれらの知識(というか数学全般)を業務で使用することが皆無であり、 また、2級を取得したのがおよそ2年前だったので、 2級の知識があやふやな状態から準1級の勉強を開始しました。

勉強期間

4ヶ月間でおよそ250時間前後(平日1.5時間、休日4〜5時間)学習しました。 他の合格者の方々も大体同じ位勉強している感じでしたので、みんなこれくらいやろう。

CBT試験の難易度

2015年〜2021年のPBT試験とCBT試験問題の難易度について個人的に評価すると、

(2015年〜2019年の選択問題・部分記述問題) <<<<< CBT試験  \leq (2021年の選択問題・部分記述問題)

みたいな印象です。論述問題がなくなった分、選択問題・部分記述問題のレベルが全体的に上がっており、 体感として2021年過去問の難易度が最も近いと思います。

学習に使用した教材

準1級試験の合格に向けて使用してきた教材は以下の通りです。

公式教材

↑ただのバイブル。準1級の広大な試験範囲を(多少強引さは見られるものの)一冊の書にまとめた奇跡の書物。 本書の最後の方に各章の執筆担当者が掲載されており、オールスター感満載でした。

↑2015年〜2021年までのPBT試験の過去問題集。 公式サイトの合格者の声ページやその他合格体験記内でもちらほら言及されておりましたが、 どうにもPBT試験問題とCBT試験問題を比較すると、出題傾向や問題の難易度、知識の問われ方などに乖離があるように感じられたため、 こちらの教材は学習の初期段階で1〜2周だけして、残りの時間は上記ワークブックをひたすらやり込んだ方が合格率は上がるんじゃないかと思います。

数理統計学分野

↑みんな大好き赤本です。2級対策時のメイン教材として2年前にも使用していました。 学習開始当初は2級レベルの知識が抜けていたため、本書をパラパラめくりリハビリを行いました。

↑上記も2級対策時に使用していた教材の一つで、推定・仮説検定周りの問題の復習に使いました。

↑数理統計学分野(ワークブックの1章〜12章の内容)の理解力向上目的で購入しました。 数理統計学の代表的な教科書としては、新装改訂版 現代数理統計学(竹村本)や現代数理統計学の基礎 (共立講座 数学の魅力)(久保川本)が よく紹介されており、私自身も上記2冊を所持しているのですが、 個人的にこれらの書籍は準1級の学習用途で使用するにはオーバースペック(内容難しすぎ)だと感じました。 かといって、東大赤本だと若干物足りない(特に推定・仮説検定周り)なと感じ、 他にいい本はないかと書店を渡り歩いた結果、上記書籍に出会いました。 レベル感としては赤本と竹村本・久保川本のちょうど間くらいで、 各種概念がコンパクトに整理されているため逆引き辞書的な扱いがしやすく、 例題や演習問題が豊富なこと、各種概念の説明や証明などがわかりやすいことからめちゃめちゃお世話になった本です。 デメリットを挙げるとしたら、ノンパラメトリック法が載っていないことと章末問題の解答が略解しか載っていないことくらいですが、 自分としてはあまり気にはなりませんでした。

多変量解析分野

↑主成分分析、判別分析、クラスター分析(ワークブックの22章〜24章)の内容理解に使用しました。 本のレベルとしては、いわゆる"超初心者向けの本"ではなくある程度数式慣れしている中級者向けに書かれた本という印象でした。 全体を通して丁寧な説明と豊富な図を用いた解説が特徴的で、各種分析手法の用途から理論面にかけてバランスよく学べると思います。 ただし、この本で触れられていなくて準1級の試験範囲となっている手法がまあまあ多い(というか、一冊だけで準1級の多変量解析分野を完璧に網羅している本はおそらく無い)ため、それらについては他の書籍やwebで調べたりしました。

↑回帰分析に特化した古典的な名著という噂を前々から耳にしていて、今回の資格試験に関係なく個人的に気になっていた本です。 ワークブック16章の理解度向上(特に、最小二乗推定量の性質や幾何学的解釈)のために使用しました。 本当は回帰係数の検定周りも腰を据えて学ぶ予定でしたが、結構難易度高めに見えたのとあまりこれだけに時間を取れなかったため断念しました。

標本調査法

↑当該分野について重点的に学習したいと考え、色々な本を漁った結果たどり着いた本です。 各種標本抽出法の性質が薄いページ数にギュッと詰まっていて読みやすかったです。 おそらく実店舗には在庫が無いため、ネットで購入するか図書館などで借りるかしないといけないため他の書籍と比較して入手難易度が高め。

時系列解析

↑改めて紹介する必要もないくらい有名な時系列解析本。 各種時系列モデルの性質や単位根検定(DF検定、ADF検定)の概要について把握するために使用しました。

「学習開始→3回連続不合格→試験合格」までの時系列

学習を開始してから試験に合格するまでの時間の流れをざっくりまとめると以下のようになります。

4月〜5月末まで
  • 東大出版の赤本をベースに2級の知識の振り返り
  • ワークブックの各章の説明文を写経して理解しつつ、例題・演習問題を1回解く
  • 過去問ノータッチ(!?)

上記のような状態で1回目の試験を受けた結果・・・

無事落ちました^^

6月上旬〜6月中旬

流石に勉強不足だったと反省し、

  • 2015年〜2019年の過去問(論述問題を除く)を1〜2周ほど解く
  • ワークブック各章の説明文の行間埋めと例題・演習問題を1〜2周ほど解く

上記のような状態で2回目の試験に挑み、 試験中問題を解いている際は「7割はいったかな〜^^」と何故か手応えを感じてしまっており、 うきうきで試験結果画面を開いた結果・・・

無事落ちました^^

6月中旬〜6月下旬

記念受験的な立ち位置だった1回目の試験とは異なり、2回目の試験はかなり手応えを感じながら問題を解いていたため、 落ちた後のショックが大きく、2〜3日は勉強に手が付きませんでした。 それでも何とか気を持ち直すために、「あと少し勉強すれば合格するはずだから頑張ろう」と自らに言い聞かせ、 1回目、2回目ともに得点率が低かった「1. 確率と確率分布」分野を中心に学習し、 ワークブックの読み込みと過去問の解き直しも同時に行い、試験に挑んだ結果・・・

2回目よりも点数が下がりました^^

7月上旬〜試験合格日まで

1回目の試験に落ちてからはおよそ2週間に1回ペースで試験を受け続けていたのですが、 もっと長期スパンで学習しないと受かりそうにないと判断し、4回目の試験日は3回目の試験日のおよそ一ヶ月後に設定しました。 また、勉強の仕方も以下のように見直しを行いました。

  • 過去問への過学習をやめること
    他の方の合格体験記を見ていると、試験前に過去問をだいたい3周〜5周くらい行ってから本番に挑んでいる方がほとんどであり、 過去に行われたPBT試験問題はCBT試験問題の対策としてある程度有効に働くのかと勉強開始当初は考えていました。 が、3回目の受験を終える頃には過去問に対して抱いていた期待は消え去り、 むしろ過去問に対して信頼の比重を置けば置くほど合格率は下がるんじゃないかと思えるようになりました。 というのも、実際にCBT試験を受けてみた感じですと、PBT試験問題を2段階ほど発展させた問題やワークブックの重箱の隅をつついてくるような問題、そもそもワークブックにも過去問にも載っていないような知識が必要な問題も平気で出してきますし、おまけに出題傾向も過去問とは若干ずれているように感じたため最早過去問とは・・・といった感じでした(2級のときも似たような感想を抱きましたが、準1級ほど乖離はなかったように思えます・・・)。 2回目の受験の段階で論述問題を除いて約8〜9割ほどは理解していたこともあったため、3回目の試験に落ちた後は過去問は一度も解きませんでした。

  • ワークブック各章の説明本文はできるだけすべて覚えること
    上記でも触れましたが、本番ではワークブックの重箱の隅をつついたかのような問題も出題されます。 そのため、ワークブック各章の説明本文に対して他の書籍やwebページを参考にして行間を埋めつつ、 少なくともワークブック内に記載されている内容はすべて覚える勢いで学習しました。

  • ワークブックの各章に対して学習優先順位をつけること
    すべての章の説明文・演習問題を完全に理解・暗記することが理想っちゃ理想なのですが、 コンパクトにまとまっているとはいえ300ページ超えの教材のすべてを頭に入れるのは至難の業ですので、 以下のように各分野ごとに学習優先順位をつけた上でワークブックの読み込みを行いました。

■各分野の学習優先順位
①「2. 統計的推測」
②「1. 確率と確率分布」
③「4. 種々の応用」
④「3. 多変量解析」

■「2. 統計的推測」分野内での学習優先順位
①「9章 区間推定法」、「13章 ノンパラメトリック法」、「12章 一般の分布に関する検定法」、「8章 統計的推定の基礎」
②「10章 検定の基礎と検定法の導出」、「11章 正規分布に関する検定」

■「1. 確率と確率分布」分野内での学習優先順位
①「1章 事象と確率」、「5章 離散型分布」
②「2章 確率分布と母関数」、「4章 変数変換」、「6章 連続型分布と標本分布」
③「3章 分布の特性値」、「7章 極限定理、漸近理論」

■「4. 種々の応用」分野内での学習優先順位
①「28章 分割表」、「21章 標本調査法」、「29章 不完全データの統計処理」、「32章 シミュレーション」
②「14章 マルコフ連鎖」、「31章 ベイズ法」、「27章 時系列解析」、「15章 確率過程の基礎」
③「20章 分散分析と実験計画法」「30章 モデル選択」

■「3. 多変量解析」分野内での学習優先順位
①「16章 重回帰分析」、「17章 回帰診断法」、「23章 判別分析」
②「24章 クラスター分析」、「25章 因子分析・グラフィカルモデル」、「22章 主成分分析」、「26章 その他の多変量解析手法」
③「18章 質的回帰」、「19章 回帰分析その他」

自分にとって比較的得点源となりやすそうな数理統計分野で正答率8割〜10割、 それ以外の分野では6割前後の正答率となれるような状態を目指し、上記優先順位で学習を行いました。

上記勉強方針で1ヶ月ほど対策した結果・・・

受かってました。

今後

このまま統計検定1級の取得にもチャレンジしていこうかなと考えたのですが、 今後は

などに着手していこうかなーと思います(本当は上記以外にもまだまだ着手していきたいことがあるのですが、手が回らん・・・)。 統計検定1級は来年あたりでいいかな。

PythonでAR過程による時系列予測をしてみた

はじめに

前回の記事ではAR過程の性質についてまとめたので、 今回は実際にAR過程を用いて時系列データの将来値予測を行っていく流れをまとめていきたいと思います。

目次

AR過程とは

ある時点における観測データの値をそれよりも過去の観測データの線形和で表現するモデルであり、
以下のように数式で表現されます。

 y_t = c + \sum\limits_{i=1}^p \phi_i y_{t-i} + \epsilon_t, \quad \epsilon_t \sim W.N(\sigma^2)
 
\{y_1, \ldots , y_t\}\, : \, 時系列データ \\
c \, : \, 定数項 \\
\phi_i \, : \, 自己回帰係数 \\
\epsilon_t \, : \, 時刻tにおける撹乱項 \\
W.N(\sigma^2) \, : \, 平均0,分散\sigma^2 のホワイト・ノイズ

また、 p時点前までの観測データが含まれるAR過程のことをラグ pのAR過程と呼び、AR(p)と記述されます。

データ探索

どの時系列モデルを適用するのか判断するために、分析対象データのデータ探索を行います。
具体的には、

を行っていきます。

トレンド、季節性の確認

まずはじめに分析対象となる時系列データをプロットし、 データ内にトレンドや季節性などが存在していないか確認します。
ちなみに今回使用するデータは静岡県三島市の2010年1月から2019年12月までの月平均気温データとなっており、 以下サイトから取得できます。

上記サイトに掲載されているデータをプロットした図は以下のようになります。

f:id:oneopeadoauo_mt:20220313193014p:plain

図を見る限りでは、データのトレンド(上昇傾向・下降傾向)は確認できませんが、一年周期で気温が一定のパターンで変動しているため、 この時系列データは季節性を備えていると見做せます。

また、上記グラフを生成するソースコードは以下の通りです。

偏自己相関係数の確認

次にコレログラムをプロットし、各ラグごとに偏自己相関係数の値の大きさを確認します。
Pythonでコレログラムをプロットするために、ここではstatsmodelsライブラリを使用します。
実際に、先程の月平均気温データを用いて作成したコレログラムは以下のようになります。

f:id:oneopeadoauo_mt:20220313193335p:plain

縦軸は偏自己相関係数の値、横軸はラグとなっております。 また、グラフ内の青色領域は95%信頼区間を表しており、この青色領域の外側にプロットされているラグについては 異時点データ間の相関関係があるとみなすことができます。
従って、各月の平均気温は1ヶ月前〜6ヶ月前の月平均気温の値に影響を受けることが分かります。
上記コレログラムを生成するソースコードは以下の通りです。

拡張Dickey-Fuller検定の実施

次に拡張Dickey-Fuller検定(ADF検定)を行い、観測された時系列データが定常AR過程となっているか確認します。
ADF検定では時系列データの真の過程がAR(p)過程であることを仮定した上で、帰無仮説・対立仮説を以下のように設定した検定となっています。

  • 帰無仮説:過程は単位根AR(p)過程である
  • 対立仮説:過程は定常AR(p)過程である

ADF検定についてもstatsmodelsライブラリに内包されているため、引き続きstatsmodelsを使っていきます。
実際に、月平均気温データに対してADF検定を実行するコードは以下の通りとなります。

また、上記コードの補足は以下の通りです。

  • 2010年1月から2016年12月までのデータをAR過程への学習用データとして扱い、残りのデータを検証用データとして使用
  • adfuller関数の引数regressionではAR過程に含める説明変数の種類を指定しており、指定できる引数としては「"c"(定数項)」、「"ct"(定数項と1次のトレンド項)」、「"ctt"(定数項、2次までのトレンド項)」、「"n"(定数項、トレンド項なし)」が存在する。今回の時系列データではトレンドは確認できず、さらに時系列データは一定の範囲内を変動しているように見受けられたため、"c"を選択している。
  • adfuller関数では、AR(1)過程〜AR(maxlag)過程の中で、autolag引数で指定した指標のスコアが最も良いものを選定した後にADF検定を行っている。

また、上記コードの実行結果は以下の通りです。

# 実行結果
検定統計量 : -1.1529372620051508、p値:0.6935064693325749、使用したラグ:11、データ数:72
有意水準1%点:-3.524624466842421、有意水準5%点:-2.9026070739026064、有意水準10%点:-2.5886785262345677
今回の例では、AICを基準としてAR過程の選定を行っており、上記実行結果を確認するとAR(11)過程を用いて拡張ADF検定を実施していることが分かります。また、p値を確認すると約0.69と比較的大きい数字になっています。そのため、帰無仮説を棄却することができず、観測された時系列データが定常AR過程であるという仮説を導くことができませんでした。

差分系列に対して拡張Dickey-Fuller検定を実施

観測された時系列データが定常AR過程とならない場合、代わりに元の時系列データの差分系列に対して拡張ADF検定を行い、差分系列データを定常AR過程で表現可能か確認を行います。
学習用の差分系列データ(2010年1月〜2016年12月までの時系列データの差分系列データ)に対して、拡張ADF検定を行うコードは以下のようになります。
そして、実行結果は次のようになります。
検定統計量 : -7.765060620044867、p値:9.235111192010311e-12、使用したラグ:11、データ数:71
有意水準1%点:-3.526004646825607、有意水準5%点:-2.9032002348069774、有意水準10%点:-2.5889948363419957
上記検定結果より、p値が限りなく0に近い値となっているため、差分系列は定常AR過程であるという仮説を採択することができます。

AR過程による時系列モデリング

AR過程の生成

ここまで来てようやくAR過程による時系列モデリングを行うことができます。
まずはじめに、これまでのデータ探索・拡張ADF検定の結果を加味して、学習用の差分系列データの変動パターンをAR(11)過程(トレンド項なし)で表現します。
実際に、学習用差分系列データを用いてAR(11)過程を生成するコードは以下の通りです。

AR過程の残差の確認

次に、生成したAR(11)過程の残差プロット、残差のコレログラムを出力し、AR(11)過程が差分系列データにどれだけフィットしているのかを確認します。
以下のコードはAR(11)過程の残差、残差のコレログラムを出力するコードとなっています。
上記コードを実行した結果、出力されるグラフは以下のようになります。
f:id:oneopeadoauo_mt:20220314192908p:plain
残差プロット
f:id:oneopeadoauo_mt:20220314193015p:plain
残差のコレログラム

残差は概ね±2の範囲に収まっており、コレログラムはほぼすべてのラグにおいて95%信頼区間に収まっていることが見て取れます。
従って、作成したAR(11)過程は差分系列を上手く表現できているとみなすことができます。

AR過程による予測

最後に、これまでに作成したAR(11)過程を用いて2017年1月から2019年12月までの月平均気温データの予測を行います。
将来値予測を行うコードは以下の通りです。

上記コードの出力は以下の通りです。

f:id:oneopeadoauo_mt:20220314213817p:plain
AR(11)過程による予測

青の実線が実際の時系列データ、黄色の破線がAR(11)過程による予測データ系列となります。上記グラフより、2017年1月から2019年12月までの月平均気温を上手く予測できていることが分かります。

参考

学習メモ:AR過程の概要と性質

はじめに

現在以下の時系列解析本をベースに時系列分析手法の勉強を行っているのですが、
いかんせん本を読み進めていくだけではなかなか知識が定着しないため、
本の中で紹介されている時系列モデルをいくつかピックアップして、今後のブログにまとめていきたいと思います。
そんなわけで今回はAR過程(autoregressive process)と呼ばれる基本的なモデルについてまとめていきます。

目次

AR過程とは

ある時点における観測データの値をそれよりも過去の観測データの線形和で表現するモデルであり、
以下のように数式で表現される。

 y_t = c + \sum\limits_{i=1}^p \phi_i y_{t-i} + \epsilon_t, \quad \epsilon_t \sim W.N(\sigma^2)
 
\{y_1, \ldots , y_t\}\, : \, 時系列データ \\
c \, : \, 定数項 \\
\phi_i \, : \, 自己回帰係数 \\
\epsilon_t \, : \, 時刻tにおける撹乱項 \\
W.N(\sigma^2) \, : \, 平均0,分散\sigma^2 のホワイト・ノイズ

また、 p時点前までの観測データが含まれるAR過程のことをラグ pのAR過程と呼び、AR(p)と記述される。

AR過程の性質

  • 定常性
    以下のAR特性方程式のすべての解の絶対値が1よりも大きくなる場合、AR(p)過程は定常過程となる。

1 - \sum\limits_{i=1}^p \phi_i\,z^i = 0
  • 期待値
    AR(p)過程が定常である場合、期待値 E[y_t]は以下のように表現される

E[y_t] = \frac{c}{1 - \sum\limits_{i=1}^p \phi_i}

(\because ) \\
\begin{align}
E[y_t] &= E\left[c + \sum_{i=1}^p \phi_i y_{t-i} + \epsilon_t \right] \tag{1} \\
             &= c + \sum\limits_{i=1}^p \phi_i E\left[y_{t-i} \right] \tag{2} \\
             &= c + \sum\limits_{i=1}^p \phi_i E\left[y_{t} \right] \tag{3}
\end{align}

「期待値演算の線形性」、「 E [ c ] = c」、「 E [ \epsilon_t ] = 0」より、 (1)式から (2)式への式変形が成立。
また、 \{y_t \}は定常過程であるため、 E [ y_t ] = E [y_{t-1} ]となる。 ゆえに (2)式から (3)式への式変形が成立。
よって、

 
\begin{align}
E [y_t ] &= c + \sum_{i=1}^p \phi_i E [ y_t ] \\
\left( 1 - \sum\limits_{i=1}^p \phi_i \right) E [ y_t ] &= c \\
E [ y_t ] &= \frac{c}{1 - \sum\limits_{i=1}^p \phi_i}
\end{align}


\blacksquare

  • 分散(0次の自己共分散)
    AR(p)過程が定常である場合、分散 V [ y_t ] は以下のように表現される。

\begin{align}
\gamma_0 = V [ y_t ] = \frac{\sigma^{2}}{1 - \sum\limits_{i=1}^{p} \phi_i \rho_i}
\end{align}

また、上記式中の \rho_i は次数 iの自己相関係数を表している。

  • 自己共分散
    AR(p)過程が定常である場合、 k次の自己共分散 \gamma_k は以下のように表現される。

\gamma_k = \sum\limits_{i=1}^p \phi_i \gamma_{k-i}

 (\because )


\begin{align}
\gamma_k &= Cov ( y_t,  y_{t-k} ) \\
                   &= Cov \left( c + \sum\limits_{i=1}^{p} \phi_i y_{t-i} + \epsilon_t, y_{t-k} \right) \\
                   &= \sum\limits_{i=1}^{p} Cov ( y_{t-i}, y_{t-k} ) + Cov ( \epsilon_t, y_{t-k}) \\
                   &= \sum\limits_{i=1}^{p} \phi_i \gamma_{k-i}
\end{align}

 \blacksquare

  • 自己相関係数
    AR(p)過程が定常過程である場合、 k次の自己相関係数 \rho_k は以下のように表現される。

\rho_k = \sum\limits_{i=1}^{p} \phi_i \rho_{k-i}

また、上記をユール・ウォーカー方程式という。
 (\because )


\begin{align}
\rho_k &= \frac{\gamma_k}{\sqrt{V [ y_t ]} \sqrt{V [ y_{t-k} ]} } \tag{4} \\
            &= \frac{\sum\limits_{i=1}^{p} \phi_i \gamma_{k-i}}{\gamma_0} \tag{5} \\
            &= \sum\limits_{i=1}^{p} \phi_i \rho_{k-i} \tag{6}
\end{align}

 \blacksquare
(上記式変形の補足)
 \{ y_t \}は定常過程のため、任意の時点において分散(0次の自己共分散 \gamma_0)は一定の値となるため、 (4)式から(5)式への変形が成立する。
また、


\begin{align}
\frac{ \gamma_{k-i} }{ \gamma_0 } = \frac{ Cov (y_t, y_{t-(k-i)} ) }{ \sqrt{ V[ y_t ] } \sqrt{ V[ y_{t-(k-i)} ] } } = \rho_{k-i}
\end{align}

のため、(5)式から(6)式への変形についても成立する。

『AWS認定 機械学習 – 専門知識』合格体験記

f:id:oneopeadoauo_mt:20220226014349p:plain

はじめに

AWS認定 機械学習 – 専門知識試験(以降、AWS MLSと略記)」に合格しました。
750以上が合格ラインのためまあまあ余裕を持って合格できたかなーという印象。

f:id:oneopeadoauo_mt:20220226020521p:plain

本記事の目的

本記事では、合格するまでに勉強してきたことをまとめていきます。
2022年2月時点で、AWS MLSは市販の受験対策本が存在せず(※)、 また受験者数も他のAWS資格と比較しておそらく少ないと思われます(たぶん)。
そのため自身の勉強記録を残しておくことで、今後受験する人たちの参考になったりならなかったりすればいいなと思います。

Kindle書籍はちょくちょくでてきてます

目次

自身のスペック

  • 情報系院卒
  • 機械学習に関する知識はそこそこ(各モデルの直感的なイメージは把握しているが、数式レベルでの理解はあやふや。前処理とか検証手法、各種評価指標などもところどころ知っているレベル。)
  • AWS SAA取得済み
  • 業務でのAWSの使用経験はほぼなし(プライベートではちょこちょこ触ってる)

勉強時間

試験前3週間を学習期間としてあてて、一日平均2〜3時間ほど勉強していたのでトータルでおよそ50〜60時間ほど

使った教材

勉強の進め方

1. 試験範囲の確認

AWSが提供している試験ガイド資料を参照し、試験の目的と出題傾向、試験と関連するAWSサービスの内容をざっくりと確認しました。

AWS Certified Machine Learning - Specialty 試験ガイド
ガイド資料を参照した限りでは、おそらく機械学習モデルに関する高度な数学的知識は
問われないだろうなと感じたため、各モデルを数式ベースで理解する作業は極力行わないようにしました。

2. 先人たちの合格体験記の調査

先人たちの合格体験記を検索し、使用した教材と重点的に学んだ方がよい部分などを調べました。
各ブログ記事内での学習内容をざっくりまとめると以下になります。

以下、実際に参考にした先人たちの合格体験記です。

dev.classmethod.jp future-architect.github.io www.texnos.co.jp www.blog.danishi.net qiita.com qiita.com 0range.hatenablog.com dev.classmethod.jp qiita.com iron-breaker.hatenablog.com

3. 公式サンプル問題を解く

公式サイトに掲載されているサンプル問題を解きました。
AWS Certified Machine Learning - Specialty サンプル問題

4. 公式試験対策教材を解く

次に、公式が提供している以下の教材に取り掛かりました。 この教材の中では、各試験分野ごとに重点項目がまとめられており、 各分野ごとに説明動画と資料、さらに練習問題も掲載されています。
受講した感想としては、各試験分野ごとにどのような知識が要求されるのか把握するのに最適だと思いました。

Exam Readiness: AWS Certified Machine Learning - Specialty (Japanese) (日本語実写版)

5. AWS公式ドキュメント、Black Belt資料などを読み漁る

試験に関連するAWSサービスの公式ドキュメント、Black Belt資料を学習しました。
また試験ガイドラインにも記載がある通り、 MLS試験は他のAWS認定試験と比較して、特に機械学習やETL処理に関連するサービスの知識が問われるため、 自分は以下の優先順位で学習を行いました。

優先度高
SageMaker、Glue、Kinesis(Data Streams、Data Firehose、Data Analytics)、Athena、Polly、
Textract、Transcribe、Comprehend、Translate、Lex、CloudTrail、CloudWatch

優先度中
EMR、Batch、IoT Greengrass、Deeplens、Forecast、Fraud Detector、Rekognition、
EC2、IAM、Lambda、VPC、Personalize

優先度低
QuickSight、ECR、ECS、EKS、Redshift、DLAMI、
Fargate、EFS、FSx

サービス別資料
AWS公式ドキュメント

6. 機械学習に関連する知識の習得

前処理、各モデルの直感的イメージ、検証手法、評価指標などの知識は以下の書籍で学習しました。 基本的にKaggle本を中心的に学び、不足しているところは達人本で補う形で学習しました。

Kaggleで勝つデータ分析の技術

[第3版]Python機械学習プログラミング 達人データサイエンティストによる理論と実践 (impress top gear)

7. Udemy教材を学習

以下のUdemy教材を学習しました。 内容としては、模擬試験2回分と機械学習関連の知識問題集が収録されています。

【最短攻略】AWS 認定機械学習 – 専門知識 模擬問題集

8. 公式模擬問題を受ける

公式が提供している模擬問題を受けました。
こちらはAWS MLS試験だけでなくその他の認定試験向けの模擬問題も含まれています。
受けた感想としては、他の模擬試験対策教材と比較して若干難易度高めに感じました。
あと、日本語の解説文が意味不明な部分が散見されたため学習しづらかったです。。。
AWS Certification Official Practice Question Sets (Japanese)

受けた感想

当日は思っていた以上にすらすら問題を解くことができて良かったです。。。
ですが資格試験だけだと理解があいまいな部分がどうしても出てきてしまうため、 知識が抜けない内にSageMaker使ってなんかしていきたいなと思いました。