AIsmiley Magazine

AIsmiley編集部によるAI・人工知能サービスの導入事例や活用事例などの情報を記事にしてお届けします

AI・人工知能サービス

画像認識とは?AIを用いた仕組みや活用事例を分かりやすく解説!

  • 業種・業態
  • 編集部記事

画像認識とは?AIを用いた仕組みや活用事例を分かりやすく解説!|人工知能を搭載した製品・サービスの比較一覧・導入活用事例・資料請求が無料でできるAIポータルメディア

近年は、さまざまな分野でAI・人工知能が積極的に導入され始めています。その中には「AIを用いなければ実現できない技術」も多く、もはや私たちにとってAIは欠かせない存在と言っても過言ではありません。

そんな中、AIを活用したサービスとして「画像認識」に注目が集まっているのをご存知でしょうか。今回は、この「画像認識」の仕組みについて詳しく解説していくとともに、活用事例もご紹介していきますので、ぜひ参考にしてみてください。

■画像認識とは?

■画像認識とは|人工知能を搭載した製品・サービスの比較一覧・導入活用事例・資料請求が無料でできるAIポータルメディア

そもそも「画像認識」とは一体何なのかというと、「その画像に何が写っているのか」を認識する技術のことです。近年は、深層学習(ディープラーニング)という手法によってさらに精度が向上してきており、多様な分野での導入が進んでいます。

人間の場合であれば、過去の経験をもとに「画像に写っている人(物)が誰(何)なのか」を判別することが可能です。しかし、コンピューターには人間のように「蓄積された経験」が存在しないため、経験を活かして画像に写っている人(物)を認識するという作業はできませんでした。

ただし、AIを活用すれば、コンピューターも数多くの画像データから人(物)の特徴などを学習することができるようになります。そのため、学習データをもとにして「画像に写っている人(物)の識別」を行うことができるようになるのです。

この画像認識の技術は、すでにさまざまな分野での活用が進んでいます。例えば、防犯の分野では、画像認識の技術によって「防犯カメラの映像から人物を割り出すこと」が可能になります。そのため、従来よりも犯人の特定を早めることができたり、未然に何かしらの事件を防ぐことができたりするわけです。

 

●画像認識の歴史

画像認識は、ディープラーニング(深層学習)の登場によって注目を集めるようになったわけですが、その歴史は意外と古く、技術自体も昔から存在しています。最近では、画像認識に「機械学習」というパターン認識技術が当たり前のように用いられており、そこにディープラーニングも加わることで高い精度での画像認識が実現可能になりました。

しかし、コンピューターが画像を認識するのは決して簡単なことではありません。照明の明るさ、ピントのずれ、対象物の向きなど、さまざまな影響を受けやすいからです。では、どのような経緯で画像認識の精度は高まってきたのでしょうか。歴史とともに振り返ってみましょう。

 

・最も古い画像認識は「バーコード」

画像認識技術として最も古いといわれているのは、1940年代に活用され始めた「バーコード」です。バーコードとは、バーとスペースの組み合わせによって、数字や文字を機械が読み取れるように表現したものを指します。さまざまな商品のパッケージに記載されているので、多くの方がすぐにイメージできたのではないでしょうか。そんなバーコードは、バーコードスキャナと呼ばれる光学認識装置によって読み取ります。

これを画像と呼ぶにはあまりにもシンプルすぎるかもしれませんが、画像のパターンから情報を読み取っているという点を踏まえれば、立派な画像認識といえるでしょう。

 

・画像の比較を行う「テンプレートマッチング」

これまでの画像認識では、テンプレートマッチングを使用するのが一般的とされていました。テンプレートマッチングとは、画像に映っている物体の位置を検出する「画像検出」という技術のひとつです。この方法では、検出したい物体の画像そのものをテンプレートとして、対象画像の一部分との類似性を、その領域をスライドしながら比較していきます。これによって、「対象となる物体が画像内のどこに映っているのか」「いくつ映っているのか」といった情報を抽出することが可能になるわけです。

しかし、この方法は決して完全なものではなく、照明による変化が大きい場合など、テンプレート画像からの変化が激しいケースではどうしても認識率が下がってしまう傾向にあります。また、認識したい対象物ごとにテンプレートが必要となるという点も、大きな課題だったといえるでしょう。

 

・画像認識の精度を飛躍的にアップさせた「ディープラーニング」

2000年代に入ると、計算機の技術が発展したことで、データの処理速度も大幅に向上していきました。そして、この変化によって、大量の画像データを用いた機械学習による画像認識が実現可能となったのです。画像認識技術は、これまでのような人手によるルールやモデル構築といったものから、パターン認識へと移行していったわけです。

さらに2012年には、ディープラーニングが登場したことで世界に大きなインパクトを与えました。ILSVRCという画像認識コンテストにおいて、カナダ・トロント大学のヒントン教授が率いるチームが画像認識に対して初めてディープラーニングを活用し、前回のコンテストの優勝記録の誤り率から4割ものミス削減に成功したのです。

また、その一方ではGoogleが2012年に「ディープラーニングによってAIが自動的に猫を認識する技術」を発表し、大きな注目を集めました。このように、ディープラーニングは画像認識という領域において大きな成果をあげており、その能力の高さも世界に見せつけています。そして、2016年にはアルファ碁が登場したことで第三次AIブームが到来し、最近では産業界でも実用化するケースが多くなってきている状況です。

 

●画像認識の種類

画像の種類によって対象物の「形状」「色」「複雑さ」「データ数」などで差が生じることから、画像認識はいくつかの種類に分けられています。これはつまり、扱う画像データによって技術領域を分類しているということです。では、具体的にどのような種類が存在するのでしょうか。ここからは、画像認識の種類と機能を見ていきましょう。

 

・物体認識

物体認識とは、対象の物体と同一の物体が画像内に存在するかどうかを検証する技術のことです。画像に映っている物体のカテゴリを特定するなど、画像に含まれている物体の情報を抽出することができます。この物体認識においては、「物体検出」という技術が重要視されており、物体認識と物体検出はそれぞれ区別して使用されます。

物体検出は、画像に含まれる物体の位置を検出するための技術であるため、物体認識とは実行方法が異なります。ただし、対象となる物体の特徴を抽出する際には、当然その物体の「位置」も重要になるため、併用されるケースも多いのです。

 

・顔認識

顔認識は、人間の顔画像から目立つ特徴を抽出していく技術です。この技術を利用することによって、顔の識別を行ったり、似た顔の検索を行ったり、顔のグループ化を行ったりすることができるようになります。

また、最近では人間の表情から感情を読み取る「感情認識」の研究も進められている状況です。

 

・文字認識

文字認識は、紙に書かれている手書きの文字や、印刷された文字などを判別する技術です。この技術を用いれば、画像内のテキストを抽出することができるようになります。文字認識は古くから研究が行われている分野ですが、最近では翻訳技術と組み合わせたシステムが登場するなど、さまざまな利用用途が存在する技術でもあります。

 

■画像認識の仕組み

■画像認識の仕組み|人工知能を搭載した製品・サービスの比較一覧・導入活用事例・資料請求が無料でできるAIポータルメディア

画像認識は、コンピューターが画像から特徴量を抽出し、その特徴量をもとに「画像に映っているものは何か」の判断を行っていくという仕組みです。ただし、そのコンピューターの判断というのは、人間が行うものとは異なります。画像を表す「ピクセルデータ」というものに対して何かしらの演算を行い、特徴量を算出していくという数学的な方法なのです。

 

●Pythonを使った画像認識

近年、画像認識などをはじめとするAIのプログラミング言語は、Pythonが主流になってきています。Pythonとは、少ないコードで簡潔にプログラムを書くことができるという特徴があり、専門的なライブラリが豊富にあることも魅力のひとつです。そんなPythonは、コードを書きやすく、かつ読みやすくするために生まれたプログラミング言語でもあるため、誰が書いても同じようなコードになります。つまり、汎用性のあるプログラミング言語であるということです。

また、PythonはWeb上にも数多くのライブラリが存在しています。既存のライブラリを活用することによって、より効率的に自分が作りたいプログラムを作成できるのは大きなメリットといえるでしょう。ちなみに、Pythonによって開発されたアプリケーションの代表例としては、YouTube、Instagram、DropBox、Evernoteなどが挙げられます。

なお、Pythonは機械学習を用いたソフトウェアの開発分野で多く活用されており、初めて機械学習を学ぶ人でも習得しやすい傾向にあるため、機械学習を学ぶ際の「基本のプログラミング言語」とも言われています。

 

●ディープラーニングを利用した画像認識

画像認識では、「畳み込みニューラルネットワーク」というネットワークモデルが頻繁に使用されます。このニューラルネットワークは、人間の脳内の神経回路網を表したニューラルネットワークの発展版であり、画像のピクセルデータを人間が抽象ベクトルに変換することなく、画像データのままの状態で特徴を抽出させるという特徴があります。

そんな畳み込みニューラルネットワークでは、初めに画像データの一部分にフィルターをかけて演算し、その領域のスライドを繰り返していく「畳み込み」を行って特徴マップの生成を行います。この処理を行うことで、画像が持っている局所的な特徴の抽出が可能になるのです。

そして、コンピューターは画像の特徴を繰り返し抽出して対象物の推測を行い、同時に正解データで答え合わせをしながら学習を重ねることで、画像認識の制度が向上されていくわけです。このような多層化されたニューラルネットワークの学習の仕組みを「ディープラーニング」と読んでいます。

 

■最新の画像認識の活用事例

■最新の画像認識の活用事例|人工知能を搭載した製品・サービスの比較一覧・導入活用事例・資料請求が無料でできるAIポータルメディア

最近ではさまざまな分野で画像認識が活用されていますが、具体的にどのような場所で画像認識が活用されているのでしょうか。ここからは、最新の画像認識の活用事例についてご紹介していきます。

 

●画像認識を使った無料アプリ

■似合う髪型を人工知能が提案!「AI Stylist」|人工知能を搭載した製品・サービスの比較一覧・導入活用事例・資料請求が無料でできるAIポータルメディア

(参照:「AI STYLIST – EARTH(アース)の髪型診断」をApp Storeで)

画像認識は私たちにとって身近な存在になりつつあり、最近では画像認識を使った無料アプリなどもリリースされています。その一つとして挙げられるのが、「AI Stylist」というアプリです。

AI Stylistは、ヘアサロン「Hair&Make EARTH」を展開している株式会社アースホールディングスが提供しているAI搭載型のアプリです。この「AI Stylist」は、画像認識技術を用いることで、ユーザーに最適な髪型をアプリが提案してくれるというもの。その使い方は、ヘアスタイルなどを選択して自分の顔写真をスマートフォンで撮るだけなので、とても簡単です。

2020年3月にiOS版が先立ってリリースされ、すでにダウンロード数が5万を突破するなど、多くの注目を集めています。2020年8月にはAndroid版もリリースされたため、今後さらに多くのユーザーが活用するようになるのではないでしょうか。

この「AI Stylist」は髪型の提案だけではなく、似ている芸能人を判定する機能なども備わっています。比較対象はモデルや歌手、タレントなどで、男性557人、女性949人のデータが用意されているそうです。

今後は、これらの機能に加え、髪型を試すことができる「ヘアスタイルシミュレーション」という機能も実装される予定だといいます。

 

●文字を認識し英語や中国語に翻訳

Google翻訳をはじめとする機械翻訳は、多くの方が一度は利用したことがあるのではないでしょうか。この機械翻訳は、自然言語処理によってできることのひとつです。「自然言語」とは、私たちが日常的な会話で使用している言語のことだと捉えていただければ問題ありません。

ちなみに、自然言語と相反する言語としては「コンピューター言語」というものがあり、「1+2+5」といったような一通りの解釈しか存在しないようなものは、コンピューター言語に該当します。

一方の自然言語には、複数の解釈ができるケースも少なくありません。例えば、「A君は自転車で帰宅中のB君を追いかけた」という文章があったとします。この場合、「A君は自転車に乗り、帰宅中のB君を追いかけた」という解釈をすることもできますし、「A君は、自転車に乗って帰宅しているB君を追いかけた」という解釈をすることもできるわけです。

このように、自然言語は複数の解釈ができることから、これまでは適切な形で処理を行うことが難しいとされてきました。しかし、近年はAI(人工知能)の技術が発展したことにより、非常に高い精度で自然言語処理を行えるようになってきているのです。そして、最近では音声合成や文字認識と組み合わせたサービスも多くなってきています。

例えば、「あなたは将来、進歩した自然言語処理の技術を実感することになるでしょう」という日本語を英語に訳した場合には、「In the future, you will experience advanced natural language processing techniques.」となります。

しかし、この「In the future, you will experience advanced natural language processing techniques.」という文章をもう一度和訳すると、「将来的には、高度な自然言語処理技術が体験できます。」という文章になるのです。

私たち日本人は、一般的な会話の中で「あなたは~するでしょう」といった言葉の使い方をするケースは多くありません。Google翻訳はそれを理解した上で、より一般的な表現に近い言葉に置き換えることができているのです。これは、AIの技術によって的確に文脈解析と意味解析が行われ、適切な解釈のもとで自然言語処理が行われているからに他なりません。

また、Googleの翻訳アプリでは、カメラを用いて文章を映すだけで、別の言語に自動で翻訳してくれる機能も備わっています。これはまさに、画像認識技術によって実現されているものです。画像認識を活用すれば、さまざまな言語もより簡単に翻訳できるようになるため、将来的には言語の壁もどんどん少なくなっていくでしょう。

 

●画像認識で画像検索の精度が向上

画像認識技術、中国勢の躍進続く。Alibabaの活用事例

Eコマースの世界的大手、中国のアリババ・グループは、早くからオンライン通販サイトに画像認識技術を取り入れています。

アリババの通販サイトである「淘宝(タオバオ)」や「天猫(Tmall)」では、欲しい商品の写真をアップロードすると、サイトに掲載されている膨大な商品の中から類似のものを検索することが可能です。

アリババによると、Eコマースプラットフォームに関するユーザーのクレームは大きく2つに集約されるといい、ひとつは「欲しいアイテムを見つけるのが困難」、もうひとつは「アイテムが豊富すぎて混乱する」というものだといいます。そのため、自分の欲しい商品写真をアップロードするだけで類似商品を探し出すことができる画像検索は、こうしたユーザーのクレームを解決する手段として極めて有効なものといえるでしょう。

ちなみに、この技術を支えているのは、機械学習とディープラーニングを活用したアリババ独自の画像検索エンジン「Image Search」というものです。アリババは2009年に画像認識や文字認識を研究する研究所、図像和美研究団を自社内に設立しており、人工知能による商品検索アルゴリズムを開発しています。

 

●PCの操作も画像認識で自動化(uwsc)

画像認識を活用すれば、「特定の画像が現れたらその画像を自動でクリックする」といったPC操作の自動化も可能になります。「UWSC」というパソコンのキーボード・マウス操作を自動化するソフトを使えば、PCによる画像の自動クリックを実現可能です。

複雑な自動化処理を行うためには知識と経験が必要になりますが、普段行なっている程度の単純な作業であれば、比較的簡単に自動化させることができます。この「UWSC」を用いた自動化も、比較的簡単に設定を行うことができますので、画像認識による自動クリックを実現したい方は、ぜひ試してみてはいかがでしょうか。

 

●画像認識を用いた外観検査で部品の品質を維持

画像認識技術を活用すれば、外観検査の自動化や高精度化が可能になり、より高い精度で部品の品質を維持できるようになります。画像認識を用いた外観検査の仕組みは、以下の通りです。

 

・検査対象となる画像の取得

検査対象が静止状態の場合には写真データを活用し、検査対象が動いている場合には撮影データを活用します。取得する画像の精度は、自動検査の精度にも大きな影響を与えるため、検査対象として相応しい「高精度の画像」を撮影することが重要です。

 

・画像処理

検査対象に合わせて適切な画像処理を施していきます。目的に合わせて適切な情報を抽出できるよう、画像データをフィルター処理するのが一般的です。さまざまな処理方法が存在しますが、代表的なものとしては「ノイズ除去」「明るさ調整」「エッジ強調」「コントラスト調整」などが挙げられるでしょう。

 

・異常項目の特定

取得した画像をもとに、検査対象のどこに、どのような異常項目が存在しているのかを自動で特定していきます。一般的な外観検査システムの場合、「色」「周囲との色の違い」「大きさ」「形」といったモデルルータをもとに、検査対象項目に応じた判定ロジックを用いて特定していくという流れです。

 

●物流会社の検品・入庫作業を効率化

物流には、物を移動させる業務だけでなく、そのプロセスとなる包装や保管といった業務も含まれます。そのため、倉庫への入庫作業なども物流に該当するわけです。

その倉庫への入庫作業においては、これまで人の目で商品のパッケージやタグなどを確認しなければなりませんでした。そして、その商品名や型番などを倉庫管理システムに入力する作業も、人が行わなければならなかったわけです。

しかし、最近ではAIの画像認識技術を活用したシステムが積極的に導入され始めており、この一連の業務の大幅な効率化を実現できるようになりました。具体的には、人間による目視とシステム入力作業を自動化させることで、検品業務を半分以下の時間で実施できるようになったのです。

また、倉庫や物流センターでは、出荷する荷物や商品の仕分けなども日々行われているわけですが、場所によっては荷物の種類が多岐に渡るケースも少なくありません。そのような倉庫では仕分け作業が複雑化するため、どうしても人の手で仕分けを行わなければならない状況でした。

しかし、最近では画像認識技術とディープラーニングを活用する企業も増えてきており、複雑な仕分け作業も自動化させることができるようになっています。

 

●画像認識で監視カメラを管理

■犯罪発生を予測してパトロールを効率化するAI|人工知能を搭載した製品・サービスの比較一覧・導入活用事例・資料請求が無料でできるAIポータルメディア

画像認識技術は、セキュリティ強化という側面でも積極的に活用され始めています。その具体的な事例としては、以下のようなものが挙げられるでしょう。

 

・車両種別の判別

車両種別の判別では、AIを活用し、防犯カメラに写っている自動車の画像から車種を割り出していきます。各メーカーの車の画像データをAIに学習させることで、より高い精度での判別が可能になるそうです。多少画像が不鮮明であっても車のタイプや車種、年式などを判別できるようになるという点は、画像認識AIを活用するからこそ得られるメリットといえるでしょう。

 

・大規模イベントでの不審点の抽出

大規模なインベントなどでは、どうしても人の目が届かないエリアが出てきてしまうことがあります。そのため、画像認識AIを搭載した防犯カメラを活用してイベント会場全体を監視することで、イベントでの不審点の抽出を高精度で実行することが可能になるわけです。

実際、2019年には警視庁による実証実験も行われており、その実験では会場内外に設置された防犯カメラが捉えた映像の中から不審と思われる点を自動的に探り、発見していくという検証が行われました。この実験は、コンサートやスポーツ大会、会議といった大規模なイベントを想定しており、テロリストが取ると考えられる行動の特性についてもAIに学習させていくそうです。また、この実験では過去に欧米で発生したテロのデータも利用していくことを検討しているといいます。

 

●画像認識を活用した無人レジ

昨今は少子高齢化に伴う人手不足が深刻化していることもあり、スーパーやコンビニでは「無人レジ」が少しずつ導入され始めています。その一例として挙げられるのが、大手コンビニチェーンのローソンです。

ローソンでは、画像認識AIの活用によって無人レジ化を進める取り組みを行っています。AIに「来店した客の属性」「購入した商品」「手に取った商品」などの情報を学習させることで、発注や在庫管理の精度向上につなげていくのが狙いです。また、収集したデータをマーケティング分析に活用していくことも可能になるといいます。

店内の案内に関しては「デジタルサイネージ」と「コンシェルジュロボット」によって行われ、おすすめ商品の案内などもロボットに任せることが可能になるそうです。

現段階では一部のローソンでしか導入されていませんが、近年はコンビニ業界の人手不足が問題視されていますので、今後全国的に無人レジ化が広がっていく可能性も少なくないでしょう。

 

●自動運転は人や物体を検知

自動運転とは、その名の通り「自身で操作を行うことなく自動車が勝手に走ってくれる技術」のことです。自動車に乗り込み、搭載されているAIに目的地を告げるだけで、自動車が勝手に出発してくれるので、人間がハンドル操作を行う必要はありません。

とはいえ、現時点ではまだ自動運転車が多く普及されているわけではないため、「自動運転車なんて不安で仕方ない」と思われる方も多いでしょう。確かに自動運転技術は決して完璧なものではなく、死亡事故を起こした事例も存在します。しかし、人間による運転と比べれば、はるかに安全なものになっているのです。

運転席に座った状態の人間の視野にはいくつかの死角が存在するため、その部分を確実に把握することはできません。もちろんドアミラーやバックミラーを使ってある程度の死角を解消することはできますが、それでも視認できない部分が多数あるのです。

では、完全には見えていない部分があるにも関わらず、なぜ大半の人は自動車を走らせることができているのでしょうか。それは、「その場所が死角になる前に『なにもないこと』を把握(記憶)しているから」に他なりません。つまり、若干ではあるものの、過去の情報を頼りに運転しているということです。

一方の自動運転車は、センサーや画像認識AIなどによって自動車周辺の情報をリアルタイムに把握しながら走行します。自動車周辺に障害物が存在しないかどうか、いわばリアルタイムで目視しながら走行しているわけです。当然、記憶を頼りに運転する場合と目視しながら運転する場合では、後者の方が安全性は高くなります。

何より、人間は見ている方向以外の視覚情報を拾うことはできませんが、自動運転車はセンサーや画像認識によって全方向の視覚情報を拾うことができるのです。こういった点を踏まえれば、言うまでもなく自動運転車のほうが高い安全性であることがお分かりいただけるのではないでしょうか。

 

●人数をカウントして密を回避

■AIカメラで3密を回避する「ソーシャルディスタンスカメラ™」|人工知能を搭載した製品・サービスの比較一覧・導入活用事例・資料請求が無料でできるAIポータルメディア

(参照:アースアイズと日商エレ協業、AIで3密を防ぐ!「ソーシャルディスタンスカメラ™」を販売|PR TIMES)

昨今は新型コロナウイルスの感染拡大に伴い、ソーシャルディスタンスが重視されるようになりました。そのような中で、いわゆる「3密」を避けるための手段に画像認識が有効活用され始めています。その事例として挙げられるのが、アースアイズ株式会社(本社:東京都港区)と日商エレクトロニクス株式会社(本社:東京都千代田区)が販売している「ソーシャルディスタンスカメラ™」です。

この「ソーシャルディスタンスカメラ™」は、AIカメラの3D空間認識技術(画像認識技術)によって施設内外の人数を認識したり、人と人の距離を認識したりして、混雑レベルを可視化するというものです。「ソーシャルディスタンスカメラ™」が導入されている施設の利用者(顧客)は、スマホなどから混雑レベルをチェックすることもできます。そのため、施設内の混雑状況を把握した上で訪問するかどうかを判断できるため、施設の利用者にとっても非常に大きなメリットがあるといえるでしょう。

とくにスーパーマーケットやドラッグストア、コンビニエンスストアなど、生活に欠かせない日用品が販売されている店舗に関しては、「絶対に3密を避けたい」と考えている人でも訪れなければならないケースがあるかもしれません。そのような場合、タイムリーに混雑状況を把握できる仕組みが存在するかどうかという点は、その店舗や施設への信頼度にも大きな影響を与えてしまう可能性があるでしょう。

ちなみに、「ソーシャルディスタンスカメラ™」の具体的な仕様イメージとしては、300坪ほどの小売店であれば、メインとなる通路3箇所程度に「ソーシャルディスタンスカメラ™」を設置することで人の密集レベルを可視化することが可能になります。設置されたAIカメラが人と人の距離のデータを解析して、ホームページや責任者のスマホなどに「密集レベル」として通知するという仕組みです。

また、出入り口にもAIカメラを設置しておけば人数カウントを行うことができるため、混雑予測なども高精度に予測することができます。これまで3密になりがちだった小売店などは、顧客が安心して来店できる環境を整える必要がありますので、密集レベルを可視化できるAIカメラには大きなメリットがあるといえるのではないでしょうか。

 

●画像認識は虫も判別可能

NECソリューションイノベータが北海道大学と共同で開発したシステムでは、画像認識技術によって農業の生産現場で農作物上に見つけた虫の種類を即時特定することができます。そのため、農作物の被害防止に繋げられるというわけです。

近年は、環境保全や食品の安全性への関心が高まっていることもあり、農業従事者には、病害虫の種類に合わせて農薬の使用量を最小限にとどめることや、環境や健康のリスクを軽減しながら農作物の被害を防ぐことが求められるようになりました。しかし、日本で害虫とされる昆虫は約2000種にも上ります。また、その中には外観が似ている病害虫も多いため、生産者が瞬時に虫の種類を特定するのは難しい状況だったのです。

そういった課題を解決すべく、NECソリューションイノベータと北海道大学による共同でのシステム開発が開始されたというわけです。画像認識技術は、農業分野でも大きく貢献していることがお分かりいただけるでしょう。

 

●SNSマーケティングにも画像認識を応用

最近では、SNSマーケティングにも画像認識技術が積極的に活用され始めています。SNSマーケティングへの活用と言われてもあまりイメージが湧かないかもしれませんが、一例としては「ユーザーデータの抽出による分析」が挙げられるでしょう。

これまで、SNSマーケティングにおいて分析をする際は、テキストからさまざまな分析を行っていくのが一般的でした。しかし、画像認識技術を活用すれば、テキストだけでなく画像や動画からもさまざまな情報を得ることが可能になります。また、メインの被写体だけでなく、背景に映り込んだ景色や別の被写体データなどからもユーザーデータを抽出できるようになるため、より細かな分析を行えるようになるのです。

より細かなターゲッティングを行いたい企業にとって、画像認識技術を用いたマーケティングは有効なものといえるのではないでしょうか。

 

●画像認識で未来のお肌をシミュレーション

東京都品川区に本社を置くオルビス株式会社では、現在の肌状態やお手入れ習慣から未来の肌状態を予測して、いま必要なお手入れ方法を提案する「AI 未来肌シミュレーション」というサービスを提供しています。このサービスには、東京都品川区に本社を置くフューチャーアーキテクト株式会社の深層学習、画像認識技術が活用されています。

この「AI 未来肌シミュレーション」は、店舗に設置されているオルビス社独自のスキンチェック機やスマホを活用してAIが現在の肌状態を分析し、10項目の肌スコアを測定するというもの。そして、現在のお手入れ状況や生活習慣などをもとに、5年後、10年後、20年後の肌を予測するという仕組みです。

複雑な美容理論を学習しているため、20兆以上の評価パターンから一人ひとりの肌トラブル進行パターンを導き出し、深層学習による顔画像生成によって未来の肌をシミュレーションできるという点は大きな特徴といえるでしょう。

 

■画像認識の未来

今回は、画像認識の仕組みや活用事例について詳しくご紹介しました。さまざまな分野で画像認識が活用され始めており、これまで以上に高い精度での「分析」「予測」「効率化」といったものが実現できていることがお分かりいただけたのではないでしょうか。

今後、よりさまざまな業界で画像認識技術が導入されることが予想されます。画像認識技術によってこの社会にどのような変化が生まれるのか、ますます目が離せません。

画像認識AIのサービス比較と企業一覧を見る

このAI記事が気に入ったら
いいね ! しよう

Twitter でAIポータルメディアAIsmileyを
この記事で紹介されたAIサービスを無料で資料請求