ミニチュアバードを検出するAIをTechSwordの事務担当社員が作ってみた

2024/06/12

日頃、周りのエンジニア社員たちの間で飛び交う耳慣れない専門用語に囲まれて働いているTechSwordの事務社員です。文学部卒の生粋の文系で、社内でも経理・労務業務などを担当しており、プログラミングどころか一般的なPCの操作すら得意とは言えません。

社員として働いていながら、AIが画像を見て判断するという技術がどういうもので、どのように活用できるのか、いまいち理解できずにいました。

そこで今回は、「AIによる画像認識」のイメージをつかむことを目的に、他のエンジニア社員に教えてもらいながら、当社のTechSword Visionを使って特定の鳥のマスコットを検出するAIを作ってみました。

AIの作成

今回、画像認識AIを使って検出する対象はこちら↓

普段はデスクで私の働きを監視しているオカメインコです。
このオカメインコを検出するAIを作っていきます。

今回用いるのはあくまでマスコットですが、「他の鳥や物体も周りに存在する中で対象を見つけたい」という状況を想定します(例えば広い檻でたくさんの鳥を飼育していたり、家から外に逃げ出してしまった鳥を探したり、など)。

1. 学習用画像を撮影

まず、AIに学習させる材料として、検出対象の画像を用意します。
この学習用の画像は、基本的に数が多ければ多いほどAIの精度は上がるので、実際に導入する際の目安として少なくとも100枚は用意できるのが望ましいです。
撮影の際の注意点は下記のとおりです。

  • できるだけ画像の向きをそろえる

    今回は自分のスマートフォンで撮影し、カメラは基本的に横向きとしました。

  • 検出対象は正面だけでなく、様々な画角から撮影する

    → 横から、後ろから、上から、近くから、遠くから

  • 他の物が写りこんでいてもOK
    → 実際に想定される場面に近い画像が望ましい。対象物以外の物体が同じ画像に写りこむ可能性があるならば、学習用にも同じシチュエーションの画像があったほうがAIの精度が高くなる。

今回は検出対象のオカメインコが写った様々な画像を60枚用意しました。
単体のもの、他の鳥マスコットも映り込んでいるもの、向きや大きさ、背景も様々です。

2. 学習用画像をアップロードし、アノテーションをする

TechSword Visionに撮影した学習用画像をアップロードし、アノテーションをします。
アノテーションとは、簡単に言うと「これがオカメインコですよ」というのをAIに教えてあげる「タグ付け」作業のことです。

このように、学習用としてアップロードした画像の中のオカメインコを枠で囲んでいきます。この作業は、アップロードした画像1枚1枚に対し手作業でおこないます。

操作自体はごく簡単で、3枚ほどアノテーションをすれば慣れました。あくまで目安ですが、1枚当たり5秒とかからず完了したと思います。

また、TechSword VisionのWeb画面もいたってシンプルで、操作の過程で難解な用語が出てくることもなく、直感的にさわりやすい作りとなっていました。

3. AIの学習開始

アノテーションが終わったら、次はそれを基にAIがオカメインコの特徴を学習します。
学習には特に複雑な設定も必要なく、アノテーション後、「学習開始」のボタンをクリックするだけで始まります。
今回は20分ほどで学習完了しました。
場合によりますが、基本的には学習用画像が多いほどAIの学習にも時間がかかります。

以上で、AIの作成は終了です。

AIを使ってみる

それでは、検出対象(今回はオカメインコ)が写った画像を作成したAIに見せたときに、オカメインコを正しく識別できるかを試します。
判定のための画像には、学習用に使った画像とは違う画像を用います。

今回は、以下の4枚を用いて、AIが画像の中のオカメインコを正しく認識するかどうか確認します。

① 似た色のマスコットを隣に1体置いたもの 
② サイズが似たマスコットと、似た色のマスコットをそれぞれ近くに置いたもの 
③ 同じ色のマスコットが後ろに重なるように置いたもの 
④ 大きさも色も様々な他のマスコットの中に紛れて置いたもの

TechSword Visionに画像をアップロードすると、前段階で学習用画像から学習した検出対象の特徴データと照らし合わせて、画像の中に対象物があるかどうかをAIが判断します。

判定結果① 似た色のマスコットを隣に1体置いたもの

画像の中のオカメインコを正しく認識できています。
表示されているパーセンテージは、AI自身がどれだけの確度で「オカメインコである」と判断したかを示しています。この場合は94.2%、つまり「ほぼ確実にオカメインコでしょ!」とAIが自信を持って判断しています。

判定結果② サイズが似たマスコットと、似た色のマスコットをそれぞれ近くに置いたもの

こちらも、高い確度で「オカメインコである」と判断できています。

判定結果③ 同じ色のマスコットが後ろに重なるように置いたもの

こちらは一転、期待した結果が出ませんでした。本来の検出対象だけでなく、オカメインコの奥に置いたセキセイインコのマスコットも「オカメインコである」と判断してしまっています。
確度も13.6%と27.2%でかなり低く、「違うと思うけどひょっとしたらオカメインコ…?」くらいの感じです。

判定結果④ 大きさも色も様々な他のマスコットの中に紛れて置いたもの

こちらは期待以上の結果で、大きさも色も様々なマスコットの中に紛れて置いていますが、90%超えの確度で正しくオカメインコを認識できています。

再学習

ここからが重要です。
最初に作ったAIが、1回の学習でどんな画像も高い確度で正しく判断できる、ということはなかなかありません。
AIの精度を上げていくため、追加で学習用画像をアップロードし、再度アノテーションをおこないます。この過程を再学習と呼びます。
うまくAIが判断できない画像はどのような特徴があるのか、克服するにはどのような画像を使って学習すればよいかを考えます。

今回の例では、うまく認識されなかった「③ 同じ色のマスコットと前後に重なるように置いたもの」の判定精度を上げる方法を考えていきます。

前述の③の画像は、前から見たときに、検出対象のオカメインコと他のマスコットが重なっている状態でした。
対して、学習用画像として用いた60枚の画像の中には、オカメインコと他のマスコットを近くに並べているものは多く含まれていましたが、重なったものはほとんどありませんでした。
また、重なった二つが似た色合いであることも、検出を困難にした一因かもしれません。

そこで、再学習用の画像として、検出対象のオカメインコと他のマスコット(中でも黄色のセキセイインコを中心に)が前後に重なったものを撮影しました。色による識別の精度も考慮して、オレンジ色のファイルや黄色っぽいパッケージの小物を背景に置いた画像も撮影し、あわせて20枚を再学習用に追加で使います。

再びアノテーション

追加の学習用画像をアップロードし、1回目のときと同じようにアノテーションをしていきます。
1回目の学習でAIが検出対象の特徴を学んでいるため、再学習のアノテーションにおいては、AIが自動アノテーションをしてくれる画像も出てきます。

AIによる自動アノテーションが正しければ承認し、対象物やその範囲を修正したい場合は却下して手動でアノテーションをおこないます。

アノテーションが完了したら、改めてAIが学習する時間です。

再学習の結果やいかに

さて、再学習が終了したので、先ほど芳しい結果が出なかった③の画像をリベンジで判定させてみます。
すると・・・・・・

結果が大きく変わりました。
後ろのセキセイインコを「オカメインコである」と判断することもなく、確度92%で正しい認識ができています。

新たな課題を発見

検出対象と他のマスコットが重なったもの、前後に配置したものの画像を他にも数パターン用意して、AIに判定させてみました。

これらはいずれも正しくオカメインコを認識できてはいますが、確度が少し低めです。
再学習に用いた画像の中で、「検出対象と他のマスコットが前後に重なったもの」は、検出対象のオカメインコを手前に配置したものが多かったためだと思われます。

検出対象ではない他のマスコットを手前に配置した画像をもう少し学習させれば、さらに精度が向上するかもしれません。

まとめ

TechSword Vision 初利用の所感

TechSword Visionの操作やアノテーションの作業はごく簡単で、平均的なPCスキルしかなくても迷わず利用することができました。

また、対象物の撮影には特別なカメラが必要かと思っていましたが、普段自分が使っているスマートフォンで対応できるのも意外な点でした。

※学習用画像の撮影とは別に、実際の導入の場面で「製造ライン上を流れる生産品の中から欠陥品を見つける」といった目的でカメラを設置する際は、ニーズを満たすカメラを慎重に選定する必要があります。
参考記事:「外観検査で重要なカメラの設定」

あくまで一例ではありますが、画像認識AIをどのように作成し、どのように改良して精度を上げて利用していくのか、この記事を通してイメージをつかんでいただければ幸いです。

検査自動化によるコスト削減の例

では、外観検査の自動化を取り入れると、はたしてどれほどの経費削減、生産効率向上につながるのでしょうか。

例えば、ある製造工場で、5人の検査員が毎日8時間、部品の不良品検査を担当しているとします。検査員は時給1,500円、月の労働日数は20日とします。

この製造工場の不良品検査を自動化するにあたって、設備などの初期投資を1,000万円、システムの運用コストを月20万円と仮定します。

【検査員の人件費】

  • 1人あたりの月間給与: 8時間/日 × 20日 × 1,500円/時間= 240,000円

  • 年間人件費: 240,000円 × 5人 × 12ヶ月 = 14,400,000円

【自動化導入のコスト】

  • 初期投資: 1,000万円

  • 自動化システムの年間運用コスト: 20万円/月 × 12ヶ月 = 240万円

【初年度の経費削減】

  • 手動検査の年間コスト: 1,440万円

  • 自動化後の年間コスト: 1,240万円

  • 初年度の経費削減額: 1,440万円 - 1,240万円 = 200万円

【2年目以降の経費削減】

  • 手動検査の年間コスト: 1,440万円

  • 自動化後の年間コスト: 240万円

  • 2年目以降の年間経費削減額: 1,440万円 - 240万円 =1,200万円

人件費と設備投資の概算でも、年間でかなりのコスト削減が見込めることがわかります。
また、AIを活用したほうが短い時間で不良品の検出が可能であれば、生産効率の向上にもつながります。今まで検査を担当していた従業員を他の業務に回すことも可能です。

参考:外観検査自動化の始め方

AI活用支援はTechSwordへ

本記事ではAI画像認識の概要をつかむことを優先し、わかりやすい例を用いたため、80枚の学習用画像でも高確度で認識ができ、うまくいかなかった場合の原因分析も比較的簡単でした。

実際に製造業のラインで本格的に画像認識AIを導入するとなれば、理想的な精度を達成するために必要な学習用画像の枚数も多く、その分アノテーションの作業量も多くなります。上記の例でも分かるとおり、導入にかかる初期投資も安いものではありません。

しかし、適切に再学習を重ねて目的に沿った精度の高いAIを作ることができれば、長い目で見た場合のコスト削減・生産効率の向上につながります。

TechSword Visionの特長

TechSwordではAI技術の民主化を目指し、AIに関する専門知識がなくても、ノーコードで誰でも簡単に画像検査AIが構築可能なツールを提供しています。AIの学習データの準備から実装まで、幅広く皆様の外観検査自動化の導入と運用を支援していきます。

導入事例

① 老舗和菓子製造メーカー様
銘菓の製造過程で発生する、コゲやひび割れの検出を目的に導入いただいています。

② 自動車部品メーカー様
自動車部品の製造過程で発生する、傷や汚れの検出を目的に導入いただいています。

今後も、外観検査の自動化を中心に、製造メーカー様のAI導入を幅広く支援していきます。

興味を持っていただいた場合は、ぜひ下記より資料をご請求ください。
【サービス紹介PDFの資料請求はこちら】

その他にも、弊社のサービスについて気になることや、「こんなAI活用は可能なのか?」等のご相談がありましたら、お気軽にお問合せください。
株式会社TechSword お問合せフォーム

非エンジニアでも簡単

画像認識AIの
開発・実装・運用を
実現できる
ノーコードAI
プラットフォーム