2024年3月19日に出版された「AWS コンピュータービジョン開発の教科書」を読んだ📕
コンピュータビジョンは今取り組んでいる仕事にも関連していて,本書の目次を見たら今まで試したことがなかったようなサービスも学べそうだったので,実は出版前から興味を持っていた💡今回は本書を読むだけではなく,気になったトピックを実際に試しながら進めた.
本書では AWS サービスを活用してコンピュータビジョンシステム(用語の定義は以下の what-is サイトを参照)を構築する方法を学べる🤖 とは言え AWS サービスもいくつかあって,まずは本書の目次を見てみるのが1番良いと思う.具体的なサービスと機能だと Amazon Rekognition / Amazon Rekognition Custom Labels / Amazon Lookout for Vision / Amazon SageMaker / Amazon SageMaker Ground Truth / AWS IoT Greengrass などを中心に学べる.これらのサービスをあまり試したことがなかったり,目次を見て興味を持ったら本書の読者層だと思う❗️
目次
- Part 1: AWS と Amazon Rekognition でのコンピュータービジョンの紹介
- 1章: コンピュータービジョン・アプリケーションと AWS の AI・機械学習サービスの概要
- 2章: Amazon Rekognition の利用
- 3章: Amazon Rekognition Custom Labels を使用したカスタムモデルの作成
- Part 2: 実世界のユースケースへのコンピュータービジョンの適用
- 4章: 本人確認を使用した非接触型ホテルチェックインシステムの構築
- 5章: 動画解析パイプラインの自動化
- 6章: AWS AI サービスによるコンテンツの検閲
- Part 3: エッジでのコンピュータービジョン
- 7章: Amazon Lookout for Vision の紹介
- 8章: エッジでのコンピュータービジョンを使用した製造不良の検出
- Part 4: Amazon SageMaker を使用したコンピュータービジョン・ソリューションの構築
- 9章: Amazon SageMaker Ground Truth を使用したデータのラベル付け
- 10章: コンピュータービジョンでの Amazon SageMaker の使用
- Part 5: コンピュータービジョン・アプリケーションの運用環境ワークロードのベストプラクティス
- 11章: Amazon Augmented AI (A2I) によるヒューマン・イン・ザ・ループの統合
- 12章: エンドツーエンドのコンピュータービジョン・パイプライン設計のベストプラクティス
- 13章: コンピュータービジョンへの AI ガバナンスの適用
PDF で読むなら「マイナビブックス」で購入できる👌
Amazon Rekognition Custom Labels
3章では Amazon Rekognition Custom Labels を使ってデータセットに対して出版社ロゴの Packt
にバウンディングボックスを付けて,トレーニングしたモデルをデプロイする流れを体験できる.Amazon Rekognition Custom Labels 自体は過去に使ったことがあるけど,改めてやってみた❗️今回はデータセットが10枚だから簡単だけど多いと大変な作業だな〜と思ったりもした(ワークフォースに関しては9章につながる).
Amazon Rekognition を活用したチェックインシステム
4章に出てくるチェックインシステムでは,Amazon Rekognition のコレクション・DetectFaces API や Amazon Textract の AnalyzeID API などの機能を組み合わせてソリューションが実現されていて参考になった.最終的には aws-samples に公開されている Amazon Rekognition Identity Verification (RIV) ソリューションにつながっていて,本書を読まなくても試せるようになっていた.
ちなみに4章を読んでるときに Auto Check-In App ソリューションにも少し似てるな〜なんて思ったりもしていた💡
Amazon Lookout for Vision
7章では Amazon Lookout for Vision を使って錠剤に欠陥があるかを検査する仕組みを構築した💊 実は今まで Amazon Lookout for Vision を使ったことがなくて,流れを体験できたのはとても良かった👌流れとしては GitHub に公開されているデータセットを使ってモデルをトレーニングして,トライアル検出タスクを使ってモデルを評価した.そして最後はデプロイしたモデルに対して別の画像を検査して,結果的に 93.74% の信頼度を得ることができた \( 'ω')/
$ aws lookoutvision detect-anomalies \ --project-name pills-damage-detection \ --model-version 1 \ --content-type image/png \ --body 07_LookoutForVision/images/anomaly/pic.6.615.0.png \ --region us-east-2 { "DetectAnomalyResult": { "Source": { "Type": "direct" }, "IsAnomalous": true, "Confidence": 0.9374997019767761 } }
読書メモ
他に読書メモに残したことの一部を箇条書きにしておく❗️
- 位置特定と物体検出
- Vision Transformer
- Amazon Rekognition Video の GetPersonTracking API
- Amazon Rekognition の DetectModerationLabels API
- AI ガバナンス
- ビジネス関係者の責任
本書のサンプルコード・データセットは以下で確認できる.
誤植
読みながら気付いたところをまとめておく📝(サポートサイトに未掲載のもののみ)
- P.23:
m1.t3.medium
→ml.t3.medium
- P.40:
recognition =
→rekognition =
- P.41:
Graphziv
→Graphviz
- P.89: 実際に実行すると
CreationTimestamp
のフォーマットが異なる!? - P.165:
for record in event['Records']:
の改行漏れ - P.193: 図7.14 で
trail
→trial
- P.210: 説明は
EC2 Instance Connect
だけど図8.9 はAWS Systems Manager Session Manager
になっている - P.228:
インポートする築
→インポートする
関連情報
Amazon SageMaker の機能や MLOps などワークフローまわりを深く学ぶのであれば「実践 AWS データサイエンス」に詳しく書かれていておすすめ❗️僕は2022年にこの本を読んで(書評記事は書いていないけど...)Amazon SageMaker の理解度がグッと高まったな〜と感じた.
また画像分類という領域だと,最近 AWS Prescriptive Guidance に「Image classification solutions on AWS」というドキュメントが追加されていたりする.技術的な選択肢やベストプラクティスは AWS Prescriptive Guidance や AWS Well-Architected Framework Machine Learning Lens などをあわせて読むと良さそう👌