JP6651086B1 - 画像分析プログラム、情報処理端末、及び画像分析システム - Google Patents

画像分析プログラム、情報処理端末、及び画像分析システム Download PDF

Info

Publication number
JP6651086B1
JP6651086B1 JP2019178900A JP2019178900A JP6651086B1 JP 6651086 B1 JP6651086 B1 JP 6651086B1 JP 2019178900 A JP2019178900 A JP 2019178900A JP 2019178900 A JP2019178900 A JP 2019178900A JP 6651086 B1 JP6651086 B1 JP 6651086B1
Authority
JP
Japan
Prior art keywords
camera
image
inference
accuracy
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019178900A
Other languages
English (en)
Other versions
JP2020188449A (ja
Inventor
安紘 土田
安紘 土田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Application granted granted Critical
Publication of JP6651086B1 publication Critical patent/JP6651086B1/ja
Publication of JP2020188449A publication Critical patent/JP2020188449A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

【課題】専門の技術スタッフが、カメラの設置位置や設置角度の調整を行うことなく、ユーザが容易にカメラを設置できる画像分析プログラム、情報処理端末及び画像分析システムを提供する。【解決手段】方法は、NNモデルによる推論処理の精度を測定して(S4)、測定した推論処理の精度に基づいて、この推論処理の精度を向上させるためのインストラクションをユーザに報知する(S5、S6、及びS8)。このインストラクションに基づいて、ユーザが、スマートフォンのカメラの設置位置や設置角度を調整することにより、専門の技術スタッフが、カメラの設置場所に赴いて、カメラの設置位置や設置角度の調整を行うことなく、適切なNNモデルの推論精度を得ることができる。【選択図】図6

Description

本発明は、画像分析プログラム、情報処理端末、及び画像分析システムに関する。
従来から、店舗等の屋内に、監視カメラや、いわゆるAI(Artificial Intelligence)カメラ等のカメラを配して、これらのカメラで撮影したフレーム画像に映り込んだ人等の物体を、学習済物体検出用ニューラルネットワーク等で検出し、検出した物体の認識を、学習済物体認識用ニューラルネットワークを用いて行うようにした装置やシステムが知られている(例えば、特許文献1参照)。
特開2018−093283号公報
ところが、上記特許文献1に記載されたような従来のカメラで撮影した人等の物体の検出及び認識を行う装置やシステムでは、AIカメラ等のカメラの設置に非常に手間がかかるという問題があった。具体的には、この種の装置やシステムの導入時には、専門の技術スタッフが、カメラの設置場所に赴いて、(逆光になるのを避けるために光源を考慮した、)カメラの設置位置(撮影位置)及び設置角度(撮影方向)の調整を行い、適切な学習済物体検出用ニューラルネットワーク又は学習済物体認識用ニューラルネットワークの推論処理の精度(推論精度)を担保できるようにする必要があった。
本発明は、上記課題を解決するものであり、専門の技術スタッフが、カメラの設置場所に赴いて、カメラの設置位置や設置角度の調整を行うことなく、適切な学習済物体検出用又は学習済物体認識用ニューラルネットワークの推論精度を得ることができるようにして、ユーザが容易にカメラを設置することを可能にする画像分析プログラム、情報処理端末、及び画像分析システムを提供することを目的とする。
上記課題を解決するために、本発明の第1の態様による画像分析プログラムは、カメラを備えた情報処理端末を、前記カメラからの入力画像に映り込んだ物体を検出するための学習済物体検出用ニューラルネットワークモデルを含む、1つ以上の学習済ニューラルネットワークモデルを用いて、前記カメラからの入力画像を分析する画像分析部と、前記1つ以上の学習済ニューラルネットワークモデルのうち、いずれかの学習済ニューラルネットワークモデルによる推論処理の精度を測定する推論精度測定部と、前記カメラの設置位置及び設置角度を推定するカメラ位置方向推定部と、前記カメラからの入力画像を表示するための表示装置と、前記表示装置に表示された前記カメラからの入力画像に対して、前記物体の検出位置を指定するための操作部と、前記推論精度測定部による測定の結果、測定した推論処理の精度が所定の値に満たない場合、前記カメラ位置方向推定部により推定された前記カメラの設置位置及び設置角度と、前記操作部により指定された前記物体の検出位置とに基づいて、前記推論処理の精度を向上させるための指示情報をユーザに報知する報知部として機能させる。
この画像分析プログラムにおいて、前記学習済物体検出用ニューラルネットワークモデルによる検出物体は、人又は顔であり、前記指示情報は、前記学習済物体検出用ニューラルネットワークモデルによって前記人又は顔を検出するのに適した設置位置又は設置角度に前記カメラを動かすことを、前記ユーザに促す指示情報であってもよい。
この画像分析プログラムにおいて、前記報知部は、前記指示情報を前記表示装置に表示することにより、前記指示情報をユーザに報知してもよい。
本発明の第2の態様による画像分析プログラムは、カメラを備えた情報処理端末を、前記カメラからの入力画像に人又は顔の画像を重畳させる画像重畳部と、前記画像重畳部により重畳させた人又は顔の画像を、1つ以上の学習済ニューラルネットワークモデルを用いて分析する画像分析部と、前記1つ以上の学習済ニューラルネットワークモデルのうち、いずれかの学習済ニューラルネットワークモデルによる推論処理の精度を測定する推論精度測定部と、前記推論精度測定部により測定された推論処理の精度に基づいて、この推論処理の精度を向上させるための指示情報をユーザに報知する報知部として機能させる。
この画像分析プログラムにおいて、前記指示情報は、前記いずれかの学習済ニューラルネットワークモデルによる推論処理を行うのに適した設置位置又は設置角度に前記カメラを動かすことを、前記ユーザに促す指示情報であってもよい。
この画像分析プログラムにおいて、前記報知部は、前記指示情報を表示装置に表示することにより、前記指示情報をユーザに報知してもよい。
この画像分析プログラムにおいて、前記画像重畳部は、前記入力画像に重畳させる人又は顔の画像における人の属性及び数を、種々の属性及び数に経時的に変化させ、前記画像分析部は、前記経時的に変化させた属性及び数の人又は顔の画像を前記入力画像に重畳させた種々の画像を、次々に分析し、前記報知部は、前記経時的に変化させた属性及び数の人又は顔の画像を前記入力画像に重畳させた種々の画像について、前記推論精度測定部により測定された推論処理の精度に基づいて、前記推論処理の精度を向上させるための指示情報をユーザに報知してもよい。
本発明の第3の態様による情報処理端末は、カメラと、前記カメラからの入力画像に映り込んだ物体を検出するための学習済物体検出用ニューラルネットワークモデルを含む、1つ以上の学習済ニューラルネットワークモデルを用いて、前記カメラからの入力画像を分析する画像分析部と、前記1つ以上の学習済ニューラルネットワークモデルのうち、いずれかの学習済ニューラルネットワークモデルによる推論処理の精度を測定する推論精度測定部と、前記カメラの設置位置及び設置角度を推定するカメラ位置方向推定部と、前記カメラからの入力画像を表示するための表示装置と、前記表示装置に表示された前記カメラからの入力画像に対して、前記物体の検出位置を指定するための操作部と、前記推論精度測定部による測定の結果、測定した推論処理の精度が所定の値に満たない場合、前記カメラ位置方向推定部により推定された前記カメラの設置位置及び設置角度と、前記操作部により指定された前記物体の検出位置とに基づいて、前記推論処理の精度を向上させるための指示情報をユーザに報知する報知部とを備える。
この情報処理端末において、前記学習済物体検出用ニューラルネットワークモデルによる検出物体は、人又は顔であり、前記指示情報は、前記学習済物体検出用ニューラルネットワークモデルによって前記人又は顔を検出するのに適した設置位置又は設置角度に前記カメラを動かすことを、前記ユーザに促す指示情報であってもよい。
この情報処理端末において、前記報知部は、前記指示情報を前記表示装置に表示することにより、前記指示情報をユーザに報知してもよい。
この情報処理端末において、前記操作部は、ポインティングデバイスであり、前記報知部は、前記推論精度測定部により測定された推論処理の精度に加えて、前記カメラ位置方向推定部により推定された前記カメラの設置位置及び設置角度と、前記ポインティングデバイスにより指定された前記人又は顔の検出位置とに基づいて、前記指示情報を求めてもよい。
本発明の第4の態様による情報処理端末は、カメラと、前記カメラからの入力画像に人又は顔の画像を重畳させる画像重畳部と、前記画像重畳部により重畳させた人又は顔の画像を、1つ以上の学習済ニューラルネットワークモデルを用いて分析する画像分析部と、前記1つ以上の学習済ニューラルネットワークモデルのうち、いずれかの学習済ニューラルネットワークモデルによる推論処理の精度を測定する推論精度測定部と、前記推論精度測定部により測定された推論処理の精度に基づいて、この推論処理の精度を向上させるための指示情報をユーザに報知する報知部とを備える。
この情報処理端末において、前記指示情報は、前記いずれかの学習済ニューラルネットワークモデルによる推論処理を行うのに適した設置位置又は設置角度に前記カメラを動かすことを、前記ユーザに促す指示情報であってもよい。
この情報処理端末において、前記情報処理端末は、前記カメラからの入力画像を表示する表示装置をさらに備え、前記報知部は、前記指示情報を前記表示装置に表示することにより、前記指示情報をユーザに報知してもよい。
この情報処理端末において、前記画像重畳部は、前記入力画像に重畳させる人又は顔の画像における人の属性及び数を、種々の属性及び数に経時的に変化させ、前記画像分析部は、前記経時的に変化させた属性及び数の人又は顔の画像を前記入力画像に重畳させた種々の画像を、次々に分析し、前記報知部は、前記経時的に変化させた属性及び数の人又は顔の画像を前記入力画像に重畳させた種々の画像について、前記推論精度測定部により測定された推論処理の精度に基づいて、前記推論処理の精度を向上させるための指示情報をユーザに報知してもよい。
本発明の第5の態様による画像分析システムは、前記のいずれかの情報処理端末と、前記情報処理端末への前記学習済ニューラルネットワークモデルのインストールを含む、前記情報処理端末の管理を行う管理サーバとを備える。
本発明の第2の態様による画像分析プログラム、及び第4の態様による情報処理端末によれば、1つ以上の学習済ニューラルネットワークモデルのうち、いずれかの学習済ニューラルネットワークモデルによる推論処理の精度を測定して、測定した推論処理の精度に基づいて、この推論処理の精度を向上させるための指示情報をユーザに報知するようにした。この報知された指示情報に基づいて、ユーザが、情報処理端末のカメラの設置位置(撮影位置)や設置角度(撮影方向)を調整することにより、専門の技術スタッフが、カメラの設置場所に赴いて、カメラの設置位置や設置角度の調整を行うことなく、適切な学習済ニューラルネットワークモデル(学習済物体検出用ニューラルネットワーク又は学習済物体認識用ニューラルネットワーク)の推論精度を得ることができる。従って、ユーザが容易にカメラを設置することができる。
また、本発明の第1の態様による画像分析プログラム、及び第3の態様による情報処理端末によれば、1つ以上の学習済ニューラルネットワークモデルのうち、いずれかの学習済ニューラルネットワークモデルによる推論処理の精度を測定して、測定した推論処理の精度が所定の値に満たない場合、推定したカメラの設置位置及び設置角度と、操作部により指定された物体の検出位置とに基づいて、推論処理の精度を向上させるための指示情報をユーザに報知するようにした。この報知された指示情報に基づいて、ユーザが、情報処理端末のカメラの設置位置(撮影位置)や設置角度(撮影方向)を調整することにより、専門の技術スタッフが、カメラの設置場所に赴いて、カメラの設置位置や設置角度の調整を行うことなく、適切な学習済ニューラルネットワークモデル(学習済物体検出用ニューラルネットワーク又は学習済物体認識用ニューラルネットワーク)の推論精度を得ることができる。従って、ユーザが容易にカメラを設置することができる。
また、本発明の第5の態様による画像分析システムによれば、上記の効果に加えて、管理サーバを用いて、情報処理端末への学習済ニューラルネットワークモデル(学習済物体検出用ニューラルネットワーク及び学習済物体認識用ニューラルネットワーク)のインストールを含む、情報処理端末の管理を行うことができる。
本発明の第1の実施形態のスマートフォンを含む、画像分析システムの概略の構成を示すブロック構成図。 同スマートフォンの概略のハードウェア構成を示すブロック図。 同スマートフォンにおける主なソフトウェアの構成図。 同スマートフォンにおけるSoCの機能ブロック構成図。 同スマートフォン(のカメラ)の設置方法の例を示す説明図。 同スマートフォンにおける、インストラクションを用いたカメラの設置位置及び設置角度の調整処理の一例を示すフローチャート。 同スマートフォンにおける顔検出モデルによる推論処理の精度を向上させるためのインストラクションの一例と、このインストラクションを用いたカメラの設置位置及び設置角度の調整処理の説明図。 同スマートフォンにおける、インストラクションを用いたカメラの設置位置及び設置角度の調整処理の他の例を示すフローチャート。 同スマートフォンにおける人物検出モデルによる推論処理の精度を向上させるためのインストラクションの一例と、このインストラクションを用いたカメラの設置位置及び設置角度の調整処理の説明図。 同スマートフォンにおける人物検出モデルによる推論処理の精度を向上させるためのインストラクションの一例と、このインストラクションを用いたカメラの設置位置及び設置角度の調整処理の説明図。 同スマートフォンにおける人物検出モデルによる推論処理の精度を向上させるためのインストラクションの一例と、このインストラクションを用いたカメラの設置位置及び設置角度の調整処理の説明図。 同スマートフォンにおける人物検出モデルによる推論処理の精度を向上させるためのインストラクションの一例と、このインストラクションを用いたカメラの設置位置及び設置角度の調整処理の説明図。 同スマートフォンにおける人物検出モデルによる推論処理の精度を向上させるためのインストラクションの一例と、このインストラクションを用いたカメラの設置位置及び設置角度の調整処理の説明図。 同スマートフォンにおける人物検出モデルによる推論処理の精度を向上させるためのインストラクションの一例と、このインストラクションを用いたカメラの設置位置及び設置角度の調整処理の説明図。 本発明の第2の実施形態のスマートフォンにおけるSoCの機能ブロック構成図。 同スマートフォンにおけるSoCの各機能ブロックと、3Dモデル重畳部による3次元コンピュータグラフィックス(3DCG)の人の画像の作成に必要なファイルを示すブロック図。 同スマートフォンにおける、インストラクションを用いたカメラの設置位置及び設置角度の調整処理の例を示すフローチャート。 同スマートフォンにおける顔認識モデルによる(性別・年齢推定処理の)推論処理の精度を向上させるためのインストラクションの一例と、このインストラクションを用いたカメラの設置位置及び設置角度の調整処理の説明図。 同スマートフォンにおけるタッチパネル上に表示される状況選択メニュー画面を示す図。 同スマートフォンにおける顔認識モデルによる推論処理の精度を向上させるためのインストラクションの一例と、このインストラクションを用いたカメラの設置位置及び設置角度の調整処理の説明図。 同スマートフォンにおける顔認識モデルによる推論処理の精度を向上させるためのインストラクションの一例と、このインストラクションを用いたカメラの設置位置及び設置角度の調整処理の説明図。 同スマートフォンにおける顔認識モデルによる推論処理の精度を向上させるためのインストラクションの一例と、このインストラクションを用いたカメラの設置位置及び設置角度の調整処理の説明図。 同スマートフォンにおける顔認識モデルによる推論処理の精度を向上させるためのインストラクションの一例と、このインストラクションを用いたカメラの設置位置及び設置角度の調整処理の説明図。
以下、本発明を具体化した実施形態による画像分析プログラム、情報処理端末、及び画像分析システムについて、図面を参照して説明する。図1は、本発明の第1の実施形態による情報処理端末であるスマートフォン1(すなわち、本発明の第1の実施形態による画像分析プログラムである画像分析アプリケーション(図2参照)がインストールされた情報処理端末)を含む、画像分析システム10の概略のブロック構成図である。図1に示すように、画像分析システム10は、住居等の各設置エリアに設置されたスマートフォン1と、クラウドC上のAI分析サーバ3及びスマホ管理サーバ4(請求項における「管理サーバ」)とを備えている。各スマートフォン1は、動画を撮影可能なディジタルカメラであるカメラ2を備えている。
上記のAI分析サーバ3は、スマートフォン1における画像分析アプリケーションを用いた物体認識結果に基づいて、例えば、各エリアにおける人物の行動を分析し、分析結果の情報を、マーケティングや防犯等の種々の用途のアプリケーションが使い易いデータに変換して出力する。なお、上記のスマートフォン1(における画像分析アプリケーション)からの物体認識結果は、個人情報を含まない文字列データにして、AI分析サーバ3に送られる。また、上記のスマホ管理サーバ4は、各設置エリアに設置されたスマートフォン1の管理を行う。具体的には、スマホ管理サーバ4は、各種の物体認識(物体検出を含む)のタイプに応じた多数の画像分析アプリケーションを格納したハードディスク等の画像分析アプリストレージ5を備えており、各スマートフォン1への画像分析アプリケーションのインストールや、各スマートフォン1における画像分析アプリケーションの実行管理を行うことができる。
次に、図2を参照して、スマートフォン1のハードウェア構成と、スマートフォン1にインストールされた画像分析アプリケーション21について、説明する。スマートフォン1は、上記のカメラ2に加えて、SoC(System−on−a−Chip)11と、タッチパネル14(請求項における「表示装置」、及び「ポインティングデバイス」)と、スピーカ15と、各種のデータやプログラムを記憶するメモリ16と、通信部17と、二次電池18と、充電端子19とを備えている。SoC11は、装置全体の制御及び各種演算を行うCPU12と、学習済物体検出用ニューラルネットワークモデル(以下、「物体検出用NNモデル」という)、及び学習済物体認識用ニューラルネットワークモデル(以下、「物体認識用NNモデル」という)の推論処理等に用いられるGPU13とを備えている。また、タッチパネル14は、ユーザが、タッチパネル14上に表示されたカメラ2からの入力画像に対して、人又は顔の検出位置を指定するためのポインティングデバイスとして用いられる。
上記のメモリ16に格納されるプログラムには、スマホ管理サーバ4からスマートフォン1にダウンロードされてインストールされた画像分析アプリケーション21や、後述するスマホ分析OSプログラム20が含まれている。通信部17は、通信ICとアンテナを備えている。スマートフォン1は、通信部17とネットワークとを介して、AI分析サーバ3及びスマホ管理サーバ4と接続されている。また、二次電池18は、リチウムイオン電池等の、充電により繰り返し使用することが可能な電池であり、AC/DCコンバータにより直流電力に変換した後の商用電源からの電力を、蓄電して、スマートフォン1の各部に供給する。
また、図2に示すスマートフォン1の画像分析アプリケーション21は、スマホ管理サーバ4の画像分析アプリストレージ5に格納された、多種類の画像分析アプリケーションの一例である。画像分析アプリストレージ5に格納された画像分析アプリケーションの各々は、カメラ2からの入力画像に映り込んだ物体を検出するための物体検出用NNモデルを含む、1つ以上のNNモデルと、これらのNNモデルの制御用スクリプトとを含んだパッケージ・プログラムである。このスクリプトには、上記の1つ以上のNNモデルの使い方(処理の順番)と、上記の1つ以上のNNモデルのうち、いずれかのNNモデルによる推論処理の精度測定処理と、この推論処理の精度を向上させるためのインストラクション(請求項における「指示情報」)の表示処理等が記載されている。図2に示す例の画像分析アプリケーション21は、顔検出モデル22、顔認識モデル23、スクリプト24、及びARアプリケーション25を含んでいる。
上記の顔検出モデル22は、カメラ2から取得した画像に含まれる顔を検出する物体検出用NNモデルである。顔認識モデル23は、顔検出モデル22で検出した顔に基づいて、検出した顔を有する人の性別・年齢を推定する物体認識用NNモデルである。スクリプト24は、上記の顔検出モデル22及び顔認識モデル23の処理手順、顔検出モデル22による推論処理の精度測定処理、及び顔検出モデル22による推論処理の精度を向上させるためのインストラクションの表示処理等を記述した制御用の簡易なプログラムである。また、ARアプリケーション25は、ARKit(iPhone(登録商標)・iPad(登録商標)向けのAR対応アプリケーションのためのフレームワーク)等の既存の技術を用いたARエンジン用のプログラムである。
次に、図3を参照して、スマートフォン1における主なソフトウェアの構成について説明する。図3に示すように、スマートフォン1における主なソフトウェアは、物体検出認識モデル31と、簡単設置UI(User Interface)32と、ARエンジン33と、スマホ分析OS34である。図3では、各ソフトウェアのプロセスを示している。図3における物体検出認識モデル31のプロセスは、図2に示す画像分析アプリケーション21の例における顔検出モデル22及び顔認識モデル23のプログラムに対応する。図3中の簡単設置UI32のプロセスは、図2中のスクリプト24のプログラムの一部に対応する。図3中のARエンジン33のプロセスは、図2中のARアプリケーション25のプログラムに対応する。図3中のスマホ分析OS34は、図2中のスマホ分析OSプログラム20に対応する。
図4は、上記のスマートフォン1におけるSoC11の機能ブロックを示す。スマートフォン1(のSoC11)は、機能ブロックとして、画像分析部41と、推論精度測定部42と、報知部43と、カメラ位置方向推定部44とを備えている。なお、SoC11における機能ブロックのうち、推論精度測定部42と、報知部43と、カメラ位置方向推定部44の機能は、CPU12により実現され、画像分析部41の機能は、CPU12とGPU13により実現されている。
上記の画像分析部41は、カメラ2からの入力画像に映り込んだ物体(人や顔等)を検出するための物体検出用NNモデルを含む、1つ以上の(学習済)NNモデル(図2の例では、顔検出モデル22や顔認識モデル23)を用いて、カメラ2からの入力画像を分析する。推論精度測定部42は、上記の1つ以上のNNモデルのうち、いずれかのNNモデルによる推論処理の精度を測定する。報知部43は、推論精度測定部42により測定された推論処理の精度に基づいて、この推論処理の精度を向上させるためのインストラクションをユーザに報知する。より具体的に言うと、報知部43は、上記のNNモデルによる推論処理の精度を向上させるためのインストラクションをタッチパネル14に表示することにより、上記のインストラクションをユーザに報知する。上記のインストラクションは、物体検出用NNモデルによって人又は顔を検出するのに適した設置位置又は設置角度にカメラ2を動かすことを、ユーザに促すインストラクションである。
また、カメラ位置方向推定部44は、カメラ2からの入力画像に基づいて、カメラ2の設置位置及び設置角度を推定する。報知部43は、推論精度測定部42により測定された推論処理の精度に加えて、カメラ位置方向推定部44により推定されたカメラ2の設置位置及び設置角度と、タッチパネル14により指定された人又は顔の検出位置とに基づいて、上記のインストラクションを求める(決定する)。なお、カメラ位置方向推定部44は、カメラ2からの映像の他、加速度センサー、角加速度センサー、その他スマートフォン1の移動を感知することが可能なセンサー等を用いて、カメラ位置方向計算の精度を向上させてもよい。また、カメラ位置方向推定部44は、カメラ2からの映像を用いず、加速度センサー、角加速度センサー、その他スマートフォン1の移動を感知することが可能なセンサー等の出力値のみを用いてカメラ位置方向推定の計算を行ってもよい。
図5は、上記のスマートフォン1(のカメラ2)の設置方法の例を示す。この例では、スマートフォン1(のカメラ2)をイベント会場の入口に設置する場合の例を示す。図5に示す例では、スマートフォン1は、容易に形状を変えることが可能なフレキシブルアーム51を有するスマホホルダ52に保持されており、フレキシブルアーム51の一端に設けられたクリップ53を用いて、イベントの案内用プレート54に取り付けられている。上記のフレキシブルアーム51を変形させることにより、スマートフォン1のカメラ2は、その設置位置及び設置角度を変更する事が可能である。また、図5には示していないが、スマートフォン1の充電端子19(図2参照)に接続された電源コードが、AC/DCコンバータを介して商用電源に接続されている。なお、図5に示す例では、スマホホルダ52がフレキシブルアーム51の一端に、取り付け用のクリップ53を有する場合の例を示したが、スマホホルダ52は、フレキシブルアーム51の一端に、マグネット等の取り付け具を有する構成であってもよい。また、スマートフォン1のカメラ2に、広角レンズを、クリップ等で取り付けてもよい。
次に、図6及び図7を参照して、上記のNNモデルによる推論処理の精度を向上させるためのインストラクションの一例と、このインストラクションを用いたカメラ2の設置位置及び設置角度の調整処理について、説明する。この例では、上記のインストラクションは、顔検出モデル22(図2参照)による推論処理の精度を向上させるための簡単なインストラクションである。
ユーザが、スマートフォン1のタッチパネル14に表示された分析処理(認識処理)の候補の中から、所望の処理(人の性別・年齢推定)を選択すると(S1)、スマートフォン1(の主にCPU12)は、選択した処理に応じたNNモデル(顔検出モデル22及び顔認識モデル23(図2参照))と、これらのNNモデル用のスクリプト24を、スマホ管理サーバ4からダウンロードする(S2)。次に、ユーザが、スマートフォン1のカメラ2を大体の位置(本来の人の顔の検出位置(例えば、建物の入り口)をある程度撮影できそうな位置)に設置して、画像分析アプリケーション21(図2参照)を起動する(S3)。すると、スマートフォン1のCPU12は、画像分析アプリケーション21のスクリプト24を実行して、例えば、「所望の検出位置に人を立たせてください」というメッセージをタッチパネル14に表示した後、現在の設置位置及び設置角度におけるカメラ2からの入力画像(撮影画像)に対する顔検出モデル22による推論処理の精度の測定(S4)を開始する。
上記S4の測定処理の結果、測定した推論処理の精度が所定の値に満たない場合(人の顔に分類される確率が所定の値以上の物体が検出できなかった場合は)、スマートフォン1のCPU12(の報知部43)は、顔検出モデル22による推論が失敗したと判定して(S5でNO)、人の顔の検出に適した位置にカメラ2を移動させる(より正確には、人の顔の検出に適した設置位置及び設置角度にカメラ2を動かす)ように、ユーザに指示する(S6)。具体的には、スマートフォン1のCPU12は、顔検出モデル22による推論が失敗したと判定したときは、画像分析アプリケーション21のスクリプト24に従って、図7の上部に示すように、タッチパネル14に、顔検出失敗を表す赤枠61(図7中に破線で示す)と、「枠の中に顔が収まるようにカメラを動かしてください」というメッセージ64を表示する。
スマートフォン1のCPU12(の報知部43)は、顔検出モデル22による推論が成功するまで、上記のメッセージ64と赤枠61を、タッチパネル14に表示し続ける。これに対して、ユーザが、赤枠61内に顔62が収まるようにカメラ2の設置位置及び設置角度を調整して(S7)、測定した推論処理の精度が、一定時間(例えば3秒間)所定の値以上になると(人の顔に分類される確率が所定の値以上の物体が検出できると)、スマートフォン1のCPU12(の報知部43)は、顔検出モデル22による推論が成功したと判定して(S5でYES)、図7の下部に示すように、タッチパネル14に、顔検出成功を表す緑枠63(図7中に実線で示す)と、「調整が完了しました」というメッセージ65を表示する(S8)。このように、ユーザは、タッチパネル14に表示された、顔検出モデル22による推論処理の精度を向上させるためのインストラクション(赤枠61、緑枠63、メッセージ64、及びメッセージ65)を見ながら、所望の検出位置に立たせた人の顔を正確に検出できる位置にカメラ2を設置するために、カメラ2の設置位置と設置角度を試行錯誤して調整することができる。なお、スマートフォン1のCPU12(の報知部43)は、タッチパネル14内に、現在の推論処理精度を図示(例えば、精度が高い程塗りつぶし領域が大きくなるバー型のレベルメーターを表示)することで、どのようにすれば推論処理精度が上がるかを、ユーザに直感的に示すようにしてもよい。
次に、図8のフローチャートに加えて、図9乃至図14を参照して、上記のNNモデルによる推論処理の精度を向上させるためのインストラクションの他の例と、このインストラクションを用いたカメラ2の設置位置及び設置角度の調整処理について、説明する。この例では、上記のインストラクションは、店舗における来店者をカウントするための人検出用NNモデルによる推論処理の精度を向上させるためのインストラクションであり、上記図6及び図7に示す例と比べて、丁寧な(推論処理の結果だけではなく、カメラ2の設置位置及び設置角度の調整の仕方を示すメッセージを含む)インストラクションである。また、この例では、画像分析アプリケーション21に含まれるNNモデルは、人検出用NNモデル(以下、「人物検出モデル」という)と、ベクトル化モデルである。ベクトル化モデルは、人物検出モデルで検出した人の画像に対してベクトル化処理を行う物体認識用NNモデルである。このベクトル化モデルを用いて、人物検出モデルで検出した人の画像に対してベクトル化処理を行うことにより、カメラ2により別々のタイミングで撮影した人が同一人物であるか否かを判別することができる。すなわち、カメラ2が例えば1秒毎に5回映像を撮影し、これら撮影画像毎に人物検出処理及びベクトル化処理を行うことで、当該撮影画像に映りこんだ人物を追跡する(同一人物に同一IDを付与することで、当該人物の移動を観測する)ことが可能となる。
ユーザが、スマートフォン1のタッチパネル14に表示された分析処理の候補の中から、所望の処理(来店者カウント)を選択すると(S11)、スマートフォン1のCPU12は、選択した処理に応じたNNモデル(人物検出モデル、及びベクトル化モデル)と、これらのNNモデル用のスクリプトを、スマホ管理サーバ4からダウンロードする(S12)。次に、ユーザが、スマートフォン1のカメラ2を大体の位置(来店者をある程度撮影できそうな位置(店舗の入口をある程度撮影できそうな位置))に固定設置して、画像分析アプリケーション21を起動する(S13)。すると、スマートフォン1のCPU12は、画像分析アプリケーション21のスクリプトを実行して、ユーザに検出位置(検出対象となる人が現れる位置)を指定させるためのメッセージを、タッチパネル14上に表示する(S14)。例えば、スマートフォン1のCPU12は、現在のカメラ映像を(フレーム)画像として取得し、あわせてカメラ設置位置と設置角度、及び当該画像内の床面の三次元座標を推定した後、図9に示すように当該カメラ映像の画像の上に重畳させて、「線(1)を引いてください」というメッセージ70や、図10に示す「線(2)を引いてください」というメッセージ73を、タッチパネル14上に表示する。
なお、カメラ設置位置と設置角度の推定は、ARアプリケーション25(図2参照)を用いて、カメラ位置方向推定部44により、カメラ2で取得した各フレーム画像から特徴点を抽出し、各フレーム画像間の特徴点の動きから、カメラ2の3次元の設置位置と設置角度を推定する。この特徴点は、フレーム画像中の物のエッジ等に相当する点(ポイント)であり、光源(照明)の向きが変わっても、特徴が変わり難い部分である。また、上記の画像内の床面の三次元座標も、ARアプリケーション25を用いて、カメラ2で取得した各フレーム画像から特徴点を抽出し、各フレーム画像間の特徴点の動きから推定する。
図9に示すように、「線(1)を引いてください」というメッセージ70が表示された時には、ユーザは、このメッセージに従って、自分の指Fでタッチパネル14上をなぞることにより、線(1)に対応する線71を、タッチパネル14に表示されたカメラ2からの入力画像に書き込む。
また、図10に示すように、「線(2)を引いてください」というメッセージ73が表示された時には、ユーザは、このメッセージに従って、自分の指Fでタッチパネル14上をなぞることにより、線(2)に対応する線72を、タッチパネル14に表示されたカメラ2からの入力画像に書き込む。
上記の画像への線71、72の書き込み処理が完了すると、スマートフォン1のCPU12(の報知部43)は、例えば、「カメラの設置位置と設置角度を調整してください」というメッセージを表示して、ユーザにカメラ2の設置位置と設置角度の調整を促す。ユーザによるカメラ2の設置位置と設置角度の調整後、スマートフォン1のCPU12は、現在のカメラ映像の(フレーム)画像を取得し、併せて当該画像から、カメラ2の設置位置・設置角度を再度推定する(S15)。なお、以下の処理は、カメラ2の設置位置と設置角度を微調整しながら、繰り返し実施することを想定しており、当該カメラ映像の画像の再取得とカメラ2の設置位置・設置角度の再推定は、当該繰り返しの度に実施される。
スマートフォン1のCPU12は、画像分析アプリケーション21のスクリプトを実行して、例えば、「線(1)の上に立ってください」というメッセージをタッチパネル14に表示した後、現在の設置位置及び設置角度におけるカメラ2からの入力画像(撮影画像)における、線(1)上の画像に対する人物検出モデルによる推論処理の精度の測定を行う(S16)。
上記S16の測定処理の結果、測定した推論処理の精度が所定の値に満たない場合(人に分類される確率が所定の値以上の物体が検出できなかった場合)は、スマートフォン1のCPU12は、人物検出モデルによる推論が失敗したと判定して(S17でNO)、S15で推定したカメラ2の設置位置及び設置角度と、タッチパネル14で指定された人の検出位置(線71の位置)とに基づいて、(光源の影響を考慮した)人の検出に適した設置位置及び設置角度にカメラ2を動かすように、ユーザに指示する(S18)。具体的には、スマートフォン1の報知部43は、例えば、図11に示すように、現在のカメラ2の設置位置及び設置角度では、線(1)上の人74aの足下しか撮影することができず、線(1)上の人74aを人物検出モデルで検出することができない場合には、図12に示すように、「カメラの位置を高くし、水平方向に傾けて下さい」というメッセージ76を、タッチパネル14に表示する。スマートフォン1の報知部43は、上記S16で測定した推論処理の精度に加えて、S15で推定したカメラ2の設置位置及び設置角度と、タッチパネル14で指定された人の検出位置(線71の位置)とに基づいて、上記のインストラクション(メッセージ76)を求める。
上記のメッセージ76に従って、ユーザが、カメラ2の設置位置を高くし、設置角度を水平方向に傾けて、カメラ2が線(1)上の人74aの全体を撮影できるように調整し(S19)、測定した推論処理の精度が所定の値以上になると(人に分類される確率が所定の値以上の物体が検出できると)、スマートフォン1のCPU12は、続いて、「線(2)の上に立ってください」というメッセージをタッチパネル14に表示する。そして、スマートフォン1のCPU12は、現在の設置位置及び設置角度におけるカメラ2からの入力画像(撮影画像)における、線(2)上の画像に対する人物検出モデルによる推論処理の精度の測定を行う(S16)。この測定処理の結果、測定した推論処理の精度が所定の値に満たない場合は、上記S18及びS19と同様な処理が行われる。
上記の測定処理の結果、線(1)上の画像と線(2)上の画像の両方に対する人物検出モデルによる推論処理の精度が所定の値以上になると(図13に示す線(1)上の人74aと線(2)上の人74bの両方を検出できるようになると)、スマートフォン1のCPU12(の報知部43)は、人物検出モデルによる推論が成功したと判定して(S17でYES)、図14に示すように、タッチパネル14に、「調整が完了しました」というメッセージ77を表示する(S20)。このように、スマートフォン1の報知部43は、人物検出モデルによる推論処理の精度を向上させるための(ユーザによるカメラ2の設置位置と設置角度の調整をサポートするための)インストラクション(メッセージ70、73、76、77等)を、タッチパネル14上に表示する。なお、図13における75a、75bは、それぞれ、線(1)における人74aに対応するバウンディングボックスと、線(2)における人74bに対応するバウンディングボックスである。
上記S20における調整完了のメッセージ77の表示後に、ユーザが、スマートフォン1のタッチパネル14から、来店者カウントの処理の実行を指示すると、スマートフォン1の画像分析部41は、人物検出モデルを用いて、線(1)における人74aと線(2)における人74bを検出した後、ベクトル化モデルを用いて、線(1)の位置で検出した人74aと線(2)の位置で検出した人74bとが同一人物であるか否かを判別する。そして、スマートフォン1のCPU12は、線(1)の位置で検出した人74aと線(2)の位置で検出した人74bとが同一人物であった場合には、その(認識)結果を、AI分析サーバ3に送信する。AI分析サーバ3は、スマートフォン1から、線(1)の位置と線(2)の位置で同一人物を検出したという認識結果を受信すると、該当の店舗における来店者の数をカウントアップする。
上記のように、本実施形態の画像分析アプリケーション21及びスマートフォン1によれば、画像分析アプリケーション21に含まれるNNモデルのうち、いずれかのNNモデル(「顔検出」の例では、顔検出モデル22、「来店者カウント」の例では、人物検出モデル)による推論処理の精度を測定して、測定した推論処理の精度に基づいて、この推論処理の精度を向上させるためのインストラクションをユーザに報知(タッチパネル14に表示)するようにした。この報知されたインストラクションに基づいて、ユーザが、スマートフォン1のカメラ2の設置位置(撮影位置)や設置角度(撮影方向)を調整することにより、専門の技術スタッフが、カメラ2の設置場所に赴いて、カメラ2の設置位置や設置角度の調整を行うことなく、適切なNNモデル(「顔検出」の例では、顔検出モデル22及び顔認識モデル23、「来店者カウント」の例では、人物検出モデル及びベクトル化モデル)の推論精度を得ることができる。従って、ユーザが容易にカメラ2を設置することができる。
また、本実施形態のスマートフォン1によれば、SoC11の報知部43は、推論精度測定部42により測定された推論処理の精度に加えて、カメラ位置方向推定部44により推定されたカメラ2の設置位置及び設置角度と、タッチパネル14により指定された人等の検出位置とに基づいて、NNモデルの推論処理の精度を向上させるためのインストラクションを求めるようにした。これにより、推論処理の結果の報知だけではなく、カメラ2の設置位置及び設置角度の調整の仕方を示す報知を行うことができる。従って、ユーザがより容易にカメラ2を設置することができる。
また、本実施形態の画像分析システム10によれば、上記の効果に加えて、スマホ管理サーバ4を用いて、スマートフォン1への(NNモデルを含む)画像分析アプリケーション21のインストールを含む、スマートフォン1の管理を行うことができる。
次に、図15乃至図23を参照して、本発明の第2の実施形態のスマートフォン1について説明する。図15は、第2の実施形態のスマートフォン1におけるSoC11の機能ブロックを示す。第2の実施形態のスマートフォン1におけるSoC11は、3Dモデル重畳部81(請求項における「画像重畳部」)を備えている点以外は、第1の実施形態のSoC11と同様である。3Dモデル重畳部81は、カメラ2で取得したフレーム画像(カメラ2からの入力画像)に、3次元コンピュータグラフィックス(3DCG)で作成した人の画像を重畳させる。ここで、3次元コンピュータグラフィックスは、コンピュータに物体の形状、カメラの向きと位置、光源の強度と位置などの情報を入力して、コンピュータにプログラムで画像を計算・生成させる手法を言う。第1の実施形態では、画像分析部41が、カメラ2からの入力画像(に映り込んだ人や顔)を直接分析したが、第2の実施形態では、画像分析部41が、3Dモデル重畳部81によりカメラ2からの入力画像(フレーム画像)に重畳された3DCGの人の画像を分析する。なお、3Dモデル重畳部81が行う処理の詳細については、後述する。また、図15における3Dモデル重畳部81以外の機能ブロックについては、図4中の各ブロックと同じ符号を付して、その説明を省略する。
図16は、上記図15で示したSoC11中の各機能ブロックと、3Dモデル重畳部81による3DCGの人の画像の作成に必要なファイルについて示している。
次に、図17のフローチャートに加えて、図16及び図18乃至図23を参照して、第2の実施形態のスマートフォン1における、上記第1の実施形態と同様なインストラクションを用いたカメラ2の設置位置及び設置角度の調整処理について、説明する。この例では、上記のインストラクションは、顔認識モデル23(図2参照)による推論処理の精度を向上させるためインストラクションである。ここで、顔認識モデル23は、図6及び図7に示す例の場合と同様に、顔検出モデル22で検出した顔に基づいて、検出した顔を有する人の性別・年齢を推定する物体認識用NNモデル(性別・年齢認識用NNモデル)である。
図17では、フローチャートが長くなるため、省略しているが、この調整処理では、S21の処理を行う前に、図6におけるS1乃至S3、又は図8におけるS11乃至S13に対応する処理を行う。すなわち、ユーザが、スマートフォン1のタッチパネル14に表示された分析処理(認識処理)の候補の中から、所望の処理(人の性別・年齢推定)を選択すると(図6のS1に相当)、スマートフォン1(の主にCPU12)は、選択した処理に応じたNNモデル(顔検出モデル22及び顔認識モデル23(図2参照))と、これらのNNモデル用のスクリプト24を、スマホ管理サーバ4からダウンロードする(図6のS2に相当)。次に、ユーザが、スマートフォン1のカメラ2を大体の位置(来店者の顔を撮影できそうな位置(店舗の入口を撮影できそうな位置))に設置して、画像分析アプリケーション21(図2参照))を起動する(図6のS3に相当)。すると、スマートフォン1のCPU12は、画像分析アプリケーション21のスクリプトを実行して、ユーザに人の位置(検出及び認識対象となる顔を有する人の位置)を指定させるためのメッセージを、タッチパネル14上に表示する(図17のS21)。例えば、スマートフォン1のCPU12は、現在のカメラ映像を(フレーム)画像として取得し、あわせてカメラ設置位置と設置角度、及び当該画像内の床面の三次元座標を推定した後、図18に示す「人の位置のラインを引いてください」というメッセージ88を、タッチパネル14上に表示する。
なお、第1の実施形態の場合と同様に、カメラ設置位置と設置角度の推定は、ARアプリケーション25(図2参照)を用いて、カメラ位置方向推定部44により、カメラ2で取得した各フレーム画像から特徴点を抽出し、各フレーム画像間の特徴点の動きから、カメラ2の3次元の設置位置と設置角度を推定する方法により行う。
図18に示すように、「人の位置のラインを引いてください」というメッセージ88が表示された時には、ユーザは、このメッセージに従って、自分の指Fでタッチパネル14上をなぞることにより、人の位置のライン89を、タッチパネル14に表示されたカメラ2からの入力画像に書き込む。
上記の入力画像へのライン89の書き込み処理が完了すると、スマートフォン1のCPU12は、タッチパネル14上に、ユーザが、カメラ2の撮影個所を通過すると想定している客層(の状況)を選択するための状況選択メニュー画面86(図19参照)を表示する。この状況選択メニュー画面86には、図19に示すように、「家族連れが多い」、「若者が多い」、「子供が多い」、「老人が多い」、「子供を抱いた母親含む」、「雑多」等の多種の客層(の状況)を選択するための選択ボタン87(87a〜87f等)が設けられている。なお、上記の「雑多」は、色んな属性の人がたくさん来る(例えば、カメラ2の撮影画像に、10〜60代の男女が10〜20人映り込む)という客層(の状況)を表す。
ユーザが、上記の状況選択メニュー画面86に表示された多種の選択ボタン87の中から、スマートフォン1のカメラ2の設置個所の客層(の状況)に応じた複数の選択ボタン87を選択すると(S22)、SoC11の3Dモデル重畳部81は、ユーザが選択した客層(の状況)に応じて、画面表示する人の3Dモデルの画像(3次元コンピュータグラフィックス(3DCG)で作成した人のモデルの画像)を、図16に示す3DモデルDB83から読み取る。そして、3Dモデル重畳部81は、3DモデルDB83から読み取った3Dモデルの画像と、環境データファイル84からランダムに(適当に)読み取った光の環境(「光源」及び「陰影」)(のデータ)と、カメラ位置方向推定部44で推定したカメラ2の向きと位置とに基づいて、3DモデルDB83から読み取った1人以上の人の3Dモデルの画像を、カメラ2の向きと位置とに応じて調整した上で、環境データファイル84から読み取ったランダムな光の環境における上記の調整後の3Dモデルの画像を、カメラ2からの入力画像に重畳して、この重畳画像をタッチパネル14上に表示させる(S23)。
次に、上記のS23で述べた3Dモデルの画像の重畳処理の詳細について、説明するが、その前に、図16に示す3DモデルDB83、環境データファイル84、及び状況データファイル85の各々に格納されたデータについて、説明する。
まず、3DモデルDB83には、性別、年齢、体形等の各種の属性を有する多種類の人の3Dモデルの画像データが、一人分ずつ格納されている。すなわち、3DモデルDB83に格納されている3Dモデルの画像データの各々は、例えば、1人の「30代のやせ型高身長の女性」の3Dモデルの画像データである。一方、上記の状況データファイル85には、状況選択メニュー画面86における各選択ボタン87に対応した各客層の状況データが格納されている。状況データファイル85には、例えば、「家族連れ」を表現する(客層の)状況データとして、例えば、「1人の30代〜50代の平均的体形の女性+1人の30代〜50代の平均的体形の男性+1人の5〜15歳の平均的体形の男子+1人の5〜15歳の平均的体形の女子」の状況データが格納されている。また、上記の環境データファイル84には、光の環境(「光源」及び「陰影」)のデータが格納されている。このうち、「光源」のデータは、光源の「位置・向き/光の強さ/色」で定義される発光源のデータである。例えば、光源が「蛍光灯」である場合には、(光源が)「頭上より下方向/光の強さは〜cd(カンデラ)/白色」というように定義される発光源のデータである。また、「陰影」は、上記の「光源」に対応した陰影のデータである。ただし、上記の環境データファイル84に格納されている光の環境のデータのうち、「陰影」(のデータ)は、スマートフォン1のCPU12及びGPU13の処理能力が高く、上記の「光源」(のデータ)から、「光源」に対応した陰影をリアルタイムレンダリングすることが可能な場合は、データとして保有する必要はない。ここで、「陰影」の「リアルタイムレンダリング」とは、予め用意された陰影の情報により3DCGの画像を描画するのではなく、リアルタイムに高速で陰影の計算を行い3DCGの画像を描画することを意味する。
従って、例えば、S22の選択処理において、ユーザが、状況選択メニュー画面86における、「家族連れが多い」という状況の選択ボタン87aを選択すると、上記のS23で述べた3Dモデル画像の重畳処理の詳細は、以下のようになる。すなわち、3Dモデル重畳部81は、状況データファイル85から、「家族連れ」に対応する「1人の30代〜50代の平均的体形の女性+1人の30代〜50代の平均的体形の男性+1人の5〜15歳の平均的体形の男子+1人の5〜15歳の平均的体形の女子」の状況データを読み取る。そして、3Dモデル重畳部81は、上記の状況データに基づいて、3DモデルDB83から、1人の「30代〜50代の平均的体形の女性」の3Dモデルの画像と、1人の「30代〜50代の平均的体形の男性」の3Dモデルの画像と、1人の「5〜15歳の平均的体形の男子」の3Dモデルの画像と、1人の「5〜15歳の平均的体形の女子」の3Dモデルの画像とを読み出して、これらの3Dモデルの画像を組み合わせて、「家族連れ」の3Dモデルの画像を作成する。次に、3Dモデル重畳部81は、上記の「家族連れ」の3Dモデルの画像を、カメラ位置方向推定部44で推定したカメラ2の向きと位置とに応じて調整した上で、環境データファイル84からランダムに読み取った光の環境(ランダムな光源の「位置・向き/光の強さ/色」と陰影)における、上記の調整後の「家族連れ」の3Dモデル画像を、カメラ2からの入力画像に重畳して、図20に示すように、この重畳画像をタッチパネル14上のライン89の位置に表示させる。なお、上記の重畳画像の(3Dモデルの画像)における人の向き(人の描画方向)は、上記のライン89の向きに応じて変化する。また、上記の人の向き(人の描画方向)は、3Dモデルの画像における人の数が複数の場合には、全員が同じ向きではなく、各人の向きは、数十度程度、ランダムに異なる。例えば、図18及び図20におけるライン89を、これらの図における垂直方向に引いた場合には、上記の重畳画像の(3Dモデルの画像)における人91a〜91dは、横から見た向きに描画されるが、全員が同じ向きではなく、各人の向きには、ある程度のばらつきが生じる。
上記S23の最初の重畳画像(ユーザが状況選択メニュー画面86で最初に選択した選択ボタン87の客層の状況に対応する3Dモデルの画像(例えば、「家族連れ」の3Dモデルの画像)を、環境データファイル84からランダムに読み取った最初の光の環境で生成し、この3Dモデルの画像をカメラ2からの入力画像に重畳した画像)の表示が完了すると、スマートフォン1のCPU12(の報知部43)は、例えば、「カメラの設置位置と設置角度を調整してください」というメッセージを表示して、ユーザにカメラ2の設置位置と設置角度の調整を促す。ユーザによるカメラ2の設置位置と設置角度の調整後、スマートフォン1のCPU12は、現在のカメラ映像の(フレーム)画像を取得し、併せて当該画像から、カメラ2の設置位置・設置角度を再度推定する(S24)。
そして、スマートフォン1の画像分析部41は、画像分析アプリケーション21のスクリプトを実行して、現在のカメラ2の設置位置及び設置角度における、上記の重畳画像中の3Dモデルの人に対する(顔検出モデル22による)顔検出処理と(顔認識モデル23による)性別・年齢推定処理とを実行する(S25)。この後、スマートフォン1のCPU12(の推論精度測定部42)は、顔認識モデル23による性別・年齢推定の推論処理の精度の測定を行う(S26)。
上記S26の測定処理の結果、測定した推論処理の精度が所定の値に満たない場合(男女のいずれに分類される確率も所定の値に満たない場合、又はいずれの年齢(又は年齢層)に分類される確率も所定の値に満たない場合)は、スマートフォン1のCPU12(の報知部43)は、顔認識モデル23による推論が失敗したと判定して(S27でNO)、光源の影響を考慮して、顔の認識(性別・年齢推定)に適した設置位置及び設置角度にカメラ2を動かすように、ユーザに指示する(S28)。なお、上記の測定した推論処理の精度が所定の値に満たない場合には、上記の重畳画像中の3Dモデルの人(例えば、図20中の3Dモデルの人91a〜91d)の各々に対する顔認識モデル23による性別・年齢推定の結果が、これらの3Dモデルの人の各々について設定した性別・年齢と異なる場合が、含まれる。
具体的には、スマートフォン1の報知部43は、例えば、図20に示すように、現在のカメラ2の設置位置及び設置角度では、ライン89上の人91cの顔の検出及び認識(性別・年齢推定)はできるが、ライン89上の人91a、91b、及び91dの顔の検出及び認識ができない場合には、図21に示すように、「光源の影響を考慮して、全員の顔の認識に適した位置及び角度に、カメラを動かして下さい」というメッセージ93を、タッチパネル14に表示する。なお、図20乃至図23における92a〜92dの各々は、それぞれ、上記の3Dモデルの人91a〜91dの各々の顔に対応するバウンディングボックスである。また、顔認識モデル23による推論が失敗した場合に(S27でNO)、報知部43がユーザに行う指示は、S24で推定したカメラ2の設置位置及び設置角度と、タッチパネル14で指定された人の位置(ライン89の位置)とに基づいて、(光源の影響を考慮した)顔の検出に適した具体的な設置位置及び設置角度にカメラ2を動かすようにする指示であってもよい。この場合には、報知部43がユーザに行う指示は、第1の実施形態の図12に示すメッセージ76と類似したメッセージ(例えば、「光源の影響を考慮した上で、カメラの位置を高くし、水平方向に傾けて下さい」というメッセージ)になる。
上記のS28における指示に従って、ユーザが、光源の影響を考慮して、顔の認識(性別・年齢推定)に適した設置位置及び設置角度にカメラ2を動かす(カメラ2の位置と角度を調整する)と(S29)、スマートフォン1のCPU12は、上記S24のカメラ2の設置位置・設置角度の推定と、上記S25の顔検出処理及び(顔認識モデル23による)性別・年齢推定処理と、上記S26の顔認識モデル23による性別・年齢推定の推論処理の精度測定を、再度実行する。そして、顔認識モデル23による性別・年齢推定の推論処理の精度が所定の値以上になると(男女のいずれかに分類される確率、及びいずれかの年齢(又は年齢層)に分類される確率が所定の値以上であって、上記の重畳画像中の3Dモデルの人の各々(の顔)に対する顔認識モデル23による性別・年齢推定の結果が、これらの3Dモデルの人の各々について設定した性別・年齢と同じになると)、スマートフォン1のCPU12は、現在表示されている重畳画像中の3Dモデルの人に対する顔認識モデル23による推論が成功したと判定して(S27でYES)、S30の判定処理に移る。
S30の判定処理では、全パターンの重畳画像中の3Dモデルの人についての顔認識モデル23による推論が成功したか否かを判定する。ここで、「全パターンの重畳画像」とは、ユーザが状況選択メニュー画面86で選択した全ての選択ボタン87の客層の状況に対応する3Dモデルの画像を、環境データファイル84からランダムに読み取った4〜5個の光の環境(データ)で生成し、これらの3Dモデルの画像をカメラ2からの入力画像に重畳した画像の全てを意味する。すなわち、「全パターンの重畳画像」とは、当該カメラ2の設置個所において想定される複数の客層の状況に対応する3Dモデルの画像の各々を、環境データファイル84に格納された光の環境データに含まれる、ランダムな4〜5個の光の環境(光源の「位置・向き/光の強さ/色」と陰影)で生成し、これらの3Dモデルの画像をカメラ2からの入力画像に重畳した画像の全てを意味する。
S30の判定処理において、全パターンの重畳画像中の3Dモデルの人に対する顔認識モデル23による推論が終了していない(成功していない)場合には(S30でNO)、SoC11の3Dモデル重畳部81は、上記の重畳画像における人の3Dモデルの画像と、(環境データファイル84からランダムに読み取った)光の環境の少なくともいずれかを変更する(S31)。すなわち、3Dモデル重畳部81は、ユーザが状況選択メニュー画面86で選択した、ある選択ボタン87の客層の状況に対応する3Dモデルの画像に基づく重畳画像を、環境データファイル84からランダムに読み取った所定の数(例えば、4〜5個)の光の環境のうち、全ての環境において、未だ生成していない場合には、上記の重畳画像における人の3Dモデルの画像は変更せず、上記の光の環境のみを変更する。一方、3Dモデル重畳部81は、ユーザが状況選択メニュー画面86で選択した、ある選択ボタン87の客層の状況に対応する3Dモデルの画像に基づく重畳画像を、環境データファイル84からランダムに読み取った所定の数の光の環境のうち、全ての環境において、既に生成済の場合は、上記の重畳画像における人の3Dモデルの画像を変更する。
すなわち、3Dモデル重畳部81は、入力画像に重畳させる人の3Dモデルの画像における、人の性別、年齢等の属性及び人数を、ユーザが状況選択メニュー画面86で選択した種々の客層の状況に対応する属性及び人数に経時的に変化させると共に、これらの3Dモデルの画像の生成に用いる光の環境を、環境データファイル84からランダムに読み取った所定の数(例えば、4〜5個)の光の環境に経時的に変化させながら、ある光の環境における、ある3Dモデルの画像に基づく重畳画像についての顔認識モデル23による性別・年齢推定の推論処理を繰り返す。
スマートフォン1のCPU12は、S30の判定処理において、全パターンの重畳画像中の3Dモデルの人(の顔)に対する顔認識モデル23による推論が終了(成功)するまで、上記S24乃至S31の処理を繰り返す。そして、全パターンの重畳画像中の3Dモデルの人(の顔)に対する顔認識モデル23による推論が終了(成功)すると(S30でYES)、スマートフォン1のCPU12(の報知部43)は、図23に示すように、タッチパネル14に、「調整が完了しました」というメッセージ94を表示する(S32)。
上記のように、スマートフォン1の報知部43は、顔認識モデル23による推論処理の精度を向上させるための(ユーザによるカメラ2の設置位置と設置角度の調整をサポートするための)インストラクション(メッセージ88、93等)を、タッチパネル14上に表示する。
なお、上記のインストラクションの表示は、下記のリアルタイム式又はコマンド式のいずれの方式で行っても良い。リアルタイム式の場合は、上記図17のフローチャート等に示した、「3Dモデルの画像を入力画像に重畳した重畳画像をタッチパネル上に表示」−>「重畳画像(における顔)を認識」−>「インストラクション(ユーザへの指示)を表示」の処理が、リアルタイムに実施される(自動的に繰り返される)ので、ユーザは、リアルタイムに更新されるインストラクション(指示)に従って、カメラ2の設置位置や設置角度を調整すればよい。これに対して、コマンド式の場合は、ユーザが、スマートフォン1のカメラ2を大体の位置と角度に設定して、スマートフォン1のチェックボタンを押すと、上記の「3Dモデルの画像を入力画像に重畳した重畳画像をタッチパネル上に表示」−>「重畳画像(における顔)を認識」−>「インストラクションを表示」の処理が、実行される。このインストラクション(指示)に従って、ユーザが、カメラ2の設置位置や設置角度を調整した後、チェックボタンを押すと、上記の処理(3Dモデルの画像の重畳表示、画像(の顔)認識、及びインストラクション表示)が繰り返されるので、ユーザが、このインストラクションに従って、カメラ2の設置位置や設置角度を再調整した後、再度チェックボタンを押すという処理を、「調整が完了しました」というメッセージ94が表示されるまで、繰り返すという流れになる。
上記のリアルタイム式の方が、ユーザフレンドリーであるが、スマートフォン1のコンピュータリソースを相当消費するため、処理能力が高くないスマートフォン1の場合は、上記のコマンド式の方が、システムのセッテイングをし易いと思われる。
上記のように、第2の実施形態のスマートフォン1及び画像分析アプリケーション21(以下、「第2の実施形態のスマートフォン1等」と略す)によれば、上記第1の実施形態のスマートフォン1及び画像分析アプリケーション21が有する効果に加えて、以下の効果を有する。すなわち、第2の実施形態のスマートフォン1等によれば、画像分析部41が、3Dモデル重畳部81によりカメラ2からの入力画像(フレーム画像)に重畳された3DCGの人の画像を、1つ以上の学習済NNモデル(顔検出モデル22及び顔認識モデル23)を用いて分析して、推論精度測定部42が、上記の1つ以上の学習済NNモデルのうち、いずれかの学習済NNモデル(顔認識モデル23)による推論処理の精度を測定し、報知部43が、上記の推論処理の精度に基づいて、この推論処理の精度を向上させるための指示情報をユーザに報知するようにした。これにより、第2の実施形態のスマートフォン1等によれば、上記第1の実施形態と異なり、実際に、人が、撮影位置に立ったり、ライン上を移動しなくても、3DCGの人に対する学習済NNモデルによる推論処理の精度に基づいて、この推論処理の精度を向上させるための指示情報をユーザに報知することができる。従って、第2の実施形態のスマートフォン1等によれば、実際に、人が、撮影位置に立ったり、ライン上を移動しなくても、ユーザが、スマートフォン1のカメラ2の設置位置(撮影位置)や設置角度(撮影方向)を容易に調整することができる。
また、第2の実施形態のスマートフォン1等によれば、3Dモデル重畳部81は、入力画像に重畳させる人の3Dモデルの画像における、人の性別、年齢等の属性及び人数を、ユーザが状況選択メニュー画面86で選択した種々の客層の状況に対応する属性及び人数に経時的に変化させ、画像分析部41は、上記の経時的に変化させた属性及び数の人の画像を入力画像に重畳させた種々の画像を、次々に分析するようにした。これにより、報知部43が、種々のパターンの属性及び人数の画像の分析(顔の検出又は認識)に強い設置位置及び設置角度にカメラ2を動かすように、ユーザに促すことができる。
また、第2の実施形態のスマートフォン1等によれば、3Dモデル重畳部81は、上記のように、入力画像に重畳させる人の3Dモデルの画像における、人の性別、年齢等の属性及び人数を、種々の属性及び人数に経時的に変化させるだけではなく、これらの3Dモデルの画像の生成に用いる光の環境を、環境データファイル84からランダムに読み取った所定の数(例えば、4〜5個)の光の環境に経時的に変化させる。そして、画像分析部41は、上記の所定の数(例えば、4〜5個)の光の環境における、種々の属性及び数の人の画像を入力画像に重畳させた種々の重畳画像を、次々に分析するようにした。これにより、報知部43が、種々の光の環境における、種々のパターンの属性及び人数の画像の分析に強い設置位置及び設置角度にカメラ2を動かすように、ユーザに促すことができる。
変形例:
なお、本発明は、上記の各実施形態の構成に限られず、発明の趣旨を変更しない範囲で種々の変形が可能である。次に、本発明の変形例について説明する。
変形例1:
上記第1の実施形態では、推論精度測定部42が、物体検出用NNモデル(顔検出モデル22及び人物検出モデル)の推論処理の精度を測定し、報知部43が、物体検出用NNモデルの推論処理の精度を向上させるためのインストラクションをユーザに報知する場合の例を示したが、推論精度測定部が、物体認識用NNモデル(顔認識モデル及びベクトル化モデル等)の推論処理の精度を測定し、報知部が、物体認識用NNモデルの推論処理の精度を向上させるためのインストラクションをユーザに報知するようにしてもよい。
変形例2:
上記の各実施形態では、NNモデルの推論処理の精度を向上させるためのインストラクションをタッチパネル14に表示することにより、インストラクションをユーザに報知したが、NNモデルの推論処理の精度を向上させるためのインストラクションを、スマートフォンのスピーカを用いて、音声でユーザに報知するようにしてもよい。
変形例3:
上記の各実施形態では、NNモデルの推論処理の精度を向上させるためにタッチパネル14に表示されるインストラクション(指示情報)が、表示画像中の枠(赤枠61、及び緑枠63)、又はメッセージ(メッセージ64、65、70、73、76、77、88、93等)である場合の例を示したが、タッチパネル等の表示装置に表示されるインストラクションは、これに限られない。例えば、上記の赤枠の代わりに、表示画面上におけるマーク等を点滅させ、緑枠の代わりに、表示画面上におけるマーク等を点灯させてもよい。また、上記図12に示すようなカメラを動かす方向を示す(文字情報の)メッセージを表示する代わりに、カメラを動かす方向を示す矢印を表示するようにしてもよい。
変形例4:
上記の各実施形態では、スマートフォン1が、内蔵のGPU13を用いて、各NNモデルの推論処理等を行う場合の例を示したが、スマートフォン1が、内蔵のGPU13の代わりに、外付けのDNN推論用拡張チップを用いて、各NNモデルの推論処理を行ってもよいし、内蔵のGPU13と外付けのDNN推論用拡張チップの両方を用いて、各NNモデルの推論処理を行ってもよい。
変形例5:
上記の各実施形態では、請求項における情報処理端末が、スマートフォン1である場合の例を示したが、情報処理端末は、これに限られず、例えば、カメラを備えたタブレット型コンピュータであってもよい。
変形例6:
上記第2の実施形態では、請求項における「人の属性」が、主に、性別、年齢、体形(身長等の体格)である場合の例について示したが、「人の属性」は、これに限られず、例えば、服装や持ち物を含んでもよい。また、上記第2の実施形態では、入力画像に重畳させる3Dモデルの画像における人の属性及び人数と、この3Dモデルの画像の生成に用いる光の環境とを、次々と変更した(変化させた)が、上記の入力画像に重畳させる3Dモデルの画像における人の属性及び人数と、光の環境に加えて、入力画像に重畳させる3Dモデルの画像における人の向きを、次々と変更しても良い。これにより、報知部43が、種々の人の向きのパターンに強い設置位置及び設置角度にカメラ2を動かすように、ユーザに促すことができる。
変形例7:
上記第2の実施形態では、図17のフローチャート等に示したように、「3Dモデルの画像を入力画像に重畳した重畳画像をタッチパネル上に表示」−>「重畳画像(における)顔を認識」−>「インストラクション(ユーザへの指示)を表示」の処理を繰り返す。従って、例えば、200ミリ秒毎に、表示される3Dモデルの人の画像と、光の環境が変化するので、タッチパネル上に表示される画像が、かなりちらつく。この画面のちらつきを回避するために、ランダムな光の環境における3Dモデルの画像を、カメラからの入力画像に重畳した重畳画像を、実際にタッチパネル上に表示するのではなく、この重畳画像を、図16に示すグラフィックスメモリ82における、オフスクリーンメモリ(オフスクリーンバッファ)に出力して、このオフスクリーンメモリに格納した重畳画像(における顔)を、画像分析部(の顔認識モデル)が認識するようにしてもよい。
1 スマートフォン(情報処理端末)
2 カメラ
4 スマホ管理サーバ(管理サーバ)
10 画像分析システム
14 タッチパネル(表示装置、ポインティングデバイス)
21 画像分析アプリケーション(画像分析プログラム)
22 顔検出モデル(学習済物体検出用ニューラルネットワークモデル)
41 画像分析部
42 推論精度測定部
43 報知部
44 カメラ位置方向推定部
61 赤枠(「指示情報」の一部)
63 緑枠(「指示情報」の一部)
64、65、70、73、76、77、88、93 メッセージ(「指示情報」の一部)
81 3Dモデル重畳部(画像重畳部)
91a〜91d 3Dモデルの人(人又は顔の画像)

Claims (16)

  1. カメラを備えた情報処理端末を、
    前記カメラからの入力画像に映り込んだ物体を検出するための学習済物体検出用ニューラルネットワークモデルを含む、1つ以上の学習済ニューラルネットワークモデルを用いて、前記カメラからの入力画像を分析する画像分析部と、
    前記1つ以上の学習済ニューラルネットワークモデルのうち、いずれかの学習済ニューラルネットワークモデルによる推論処理の精度を測定する推論精度測定部と、
    前記カメラの設置位置及び設置角度を推定するカメラ位置方向推定部と、
    前記カメラからの入力画像を表示するための表示装置と、
    前記表示装置に表示された前記カメラからの入力画像に対して、前記物体の検出位置を指定するための操作部と、
    前記推論精度測定部による測定の結果、測定した推論処理の精度が所定の値に満たない場合、前記カメラ位置方向推定部により推定された前記カメラの設置位置及び設置角度と、前記操作部により指定された前記物体の検出位置とに基づいて、前記推論処理の精度を向上させるための指示情報をユーザに報知する報知部
    として機能させるための画像分析プログラム。
  2. 前記学習済物体検出用ニューラルネットワークモデルによる検出物体は、人又は顔であり、
    前記指示情報は、前記学習済物体検出用ニューラルネットワークモデルによって前記人又は顔を検出するのに適した設置位置又は設置角度に前記カメラを動かすことを、前記ユーザに促す指示情報であることを特徴とする請求項1に記載の画像分析プログラム。
  3. 前記報知部は、前記指示情報を前記表示装置に表示することにより、前記指示情報をユーザに報知することを特徴とする請求項1又は請求項2に記載の画像分析プログラム。
  4. カメラを備えた情報処理端末を、
    前記カメラからの入力画像に人又は顔の画像を重畳させる画像重畳部と、
    前記画像重畳部により重畳させた人又は顔の画像を、1つ以上の学習済ニューラルネットワークモデルを用いて分析する画像分析部と、
    前記1つ以上の学習済ニューラルネットワークモデルのうち、いずれかの学習済ニューラルネットワークモデルによる推論処理の精度を測定する推論精度測定部と、
    前記推論精度測定部により測定された推論処理の精度に基づいて、この推論処理の精度を向上させるための指示情報をユーザに報知する報知部
    として機能させるための画像分析プログラム。
  5. 前記指示情報は、前記いずれかの学習済ニューラルネットワークモデルによる推論処理を行うのに適した設置位置又は設置角度に前記カメラを動かすことを、前記ユーザに促す指示情報であることを特徴とする請求項4に記載の画像分析プログラム。
  6. 前記報知部は、前記指示情報を表示装置に表示することにより、前記指示情報をユーザに報知することを特徴とする請求項4又は請求項5に記載の画像分析プログラム。
  7. 前記画像重畳部は、前記入力画像に重畳させる人又は顔の画像における人の属性及び数を、種々の属性及び数に経時的に変化させ、
    前記画像分析部は、前記経時的に変化させた属性及び数の人又は顔の画像を前記入力画像に重畳させた種々の画像を、次々に分析し、
    前記報知部は、前記経時的に変化させた属性及び数の人又は顔の画像を前記入力画像に重畳させた種々の画像について、前記推論精度測定部により測定された推論処理の精度に基づいて、前記推論処理の精度を向上させるための指示情報をユーザに報知することを特徴とする請求項4乃至請求項6のいずれか一項に記載の画像分析プログラム。
  8. カメラと、
    前記カメラからの入力画像に映り込んだ物体を検出するための学習済物体検出用ニューラルネットワークモデルを含む、1つ以上の学習済ニューラルネットワークモデルを用いて、前記カメラからの入力画像を分析する画像分析部と、
    前記1つ以上の学習済ニューラルネットワークモデルのうち、いずれかの学習済ニューラルネットワークモデルによる推論処理の精度を測定する推論精度測定部と、
    前記カメラの設置位置及び設置角度を推定するカメラ位置方向推定部と、
    前記カメラからの入力画像を表示するための表示装置と、
    前記表示装置に表示された前記カメラからの入力画像に対して、前記物体の検出位置を指定するための操作部と、
    前記推論精度測定部による測定の結果、測定した推論処理の精度が所定の値に満たない場合、前記カメラ位置方向推定部により推定された前記カメラの設置位置及び設置角度と、前記操作部により指定された前記物体の検出位置とに基づいて、前記推論処理の精度を向上させるための指示情報をユーザに報知する報知部とを備える情報処理端末。
  9. 前記学習済物体検出用ニューラルネットワークモデルによる検出物体は、人又は顔であり、
    前記指示情報は、前記学習済物体検出用ニューラルネットワークモデルによって前記人又は顔を検出するのに適した設置位置又は設置角度に前記カメラを動かすことを、前記ユーザに促す指示情報であることを特徴とする請求項8に記載の情報処理端末。
  10. 前記報知部は、前記指示情報を前記表示装置に表示することにより、前記指示情報をユーザに報知することを特徴とする請求項9に記載の情報処理端末。
  11. 前記操作部は、ポインティングデバイスであり、
    前記報知部は、前記推論精度測定部により測定された推論処理の精度に加えて、前記カメラ位置方向推定部により推定された前記カメラの設置位置及び設置角度と、前記ポインティングデバイスにより指定された前記人又は顔の検出位置とに基づいて、前記指示情報を求めることを特徴とする請求項10に記載の情報処理端末。
  12. カメラと、
    前記カメラからの入力画像に人又は顔の画像を重畳させる画像重畳部と、
    前記画像重畳部により重畳させた人又は顔の画像を、1つ以上の学習済ニューラルネットワークモデルを用いて分析する画像分析部と、
    前記1つ以上の学習済ニューラルネットワークモデルのうち、いずれかの学習済ニューラルネットワークモデルによる推論処理の精度を測定する推論精度測定部と、
    前記推論精度測定部により測定された推論処理の精度に基づいて、この推論処理の精度を向上させるための指示情報をユーザに報知する報知部とを備える情報処理端末。
  13. 前記指示情報は、前記いずれかの学習済ニューラルネットワークモデルによる推論処理を行うのに適した設置位置又は設置角度に前記カメラを動かすことを、前記ユーザに促す指示情報であることを特徴とする請求項12に記載の情報処理端末。
  14. 前記情報処理端末は、前記カメラからの入力画像を表示する表示装置をさらに備え、
    前記報知部は、前記指示情報を前記表示装置に表示することにより、前記指示情報をユーザに報知することを特徴とする請求項13に記載の情報処理端末。
  15. 前記画像重畳部は、前記入力画像に重畳させる人又は顔の画像における人の属性及び数を、種々の属性及び数に経時的に変化させ、
    前記画像分析部は、前記経時的に変化させた属性及び数の人又は顔の画像を前記入力画像に重畳させた種々の画像を、次々に分析し、
    前記報知部は、前記経時的に変化させた属性及び数の人又は顔の画像を前記入力画像に重畳させた種々の画像について、前記推論精度測定部により測定された推論処理の精度に基づいて、前記推論処理の精度を向上させるための指示情報をユーザに報知することを特徴とする請求項12乃至請求項14のいずれか一項に記載の情報処理端末。
  16. 前記請求項8乃至請求項15のいずれか一項に記載の情報処理端末と、
    前記情報処理端末への前記学習済ニューラルネットワークモデルのインストールを含む、前記情報処理端末の管理を行う管理サーバとを備える画像分析システム。
JP2019178900A 2019-05-10 2019-09-30 画像分析プログラム、情報処理端末、及び画像分析システム Active JP6651086B1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019089608 2019-05-10
JP2019089608 2019-05-10

Publications (2)

Publication Number Publication Date
JP6651086B1 true JP6651086B1 (ja) 2020-02-19
JP2020188449A JP2020188449A (ja) 2020-11-19

Family

ID=69568332

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019178900A Active JP6651086B1 (ja) 2019-05-10 2019-09-30 画像分析プログラム、情報処理端末、及び画像分析システム

Country Status (1)

Country Link
JP (1) JP6651086B1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022134067A1 (zh) * 2020-12-25 2022-06-30 深圳市优必选科技股份有限公司 多任务识别模型的训练方法、系统及存储介质

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220148801A1 (en) 2020-11-12 2022-05-12 Shin-Etsu Chemical Co., Ltd. Method for Manufacturing Rare Earth Sintered Magnet
JP7159503B1 (ja) 2022-08-24 2022-10-24 セーフィー株式会社 情報処理システム、情報処理方法、及び情報処理プログラム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5325251B2 (ja) * 2011-03-28 2013-10-23 株式会社日立製作所 カメラ設置支援方法、画像認識方法
JP6115932B2 (ja) * 2012-09-20 2017-04-19 株式会社エクシング 音発生装置及び音発生用プログラム
JP6633462B2 (ja) * 2016-06-29 2020-01-22 株式会社東芝 情報処理装置および情報処理方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022134067A1 (zh) * 2020-12-25 2022-06-30 深圳市优必选科技股份有限公司 多任务识别模型的训练方法、系统及存储介质

Also Published As

Publication number Publication date
JP2020188449A (ja) 2020-11-19

Similar Documents

Publication Publication Date Title
CN110348543B (zh) 眼底图像识别方法、装置、计算机设备及存储介质
JP6651086B1 (ja) 画像分析プログラム、情報処理端末、及び画像分析システム
CN113364971B (zh) 图像处理方法和装置
CN110807361B (zh) 人体识别方法、装置、计算机设备及存储介质
KR20160144851A (ko) 이미지를 처리하는 전자 장치 및 그 제어 방법
CN113569614A (zh) 虚拟形象生成方法、装置、设备及存储介质
CN112287852B (zh) 人脸图像的处理方法、显示方法、装置及设备
KR20160092256A (ko) 이미지 처리 방법 및 이를 지원하는 전자 장치
KR20190030140A (ko) 시선 추적 방법 및 이를 수행하기 위한 사용자 단말
CN108881544A (zh) 一种拍照的方法及移动终端
CN114026606A (zh) 用于动态遮挡的快速手部网格划分
CN116048244A (zh) 一种注视点估计方法及相关设备
WO2019000464A1 (zh) 一种图像显示方法、装置、存储介质和终端
WO2022057384A1 (zh) 拍摄方法和装置
CN112818733B (zh) 信息处理方法、装置、存储介质及终端
US11846783B2 (en) Information processing apparatus, information processing method, and program
CN111753813A (zh) 图像处理方法、装置、设备及存储介质
CN111353513B (zh) 一种目标人群筛选的方法、装置、终端和存储介质
CN112711335B (zh) 虚拟环境画面的显示方法、装置、设备及存储介质
CN109218620A (zh) 基于环境亮度的拍照方法、装置、存储介质及移动终端
CN108140124A (zh) 提示信息确定方法、装置、电子设备和计算机程序产品
WO2021244040A1 (zh) 人脸表情编辑方法及电子设备
CN115223248A (zh) 手部姿态识别方法、手部姿态识别模型的训练方法及装置
CN114359335A (zh) 一种目标跟踪方法及电子设备
CN112907702A (zh) 图像处理方法、装置、计算机设备及存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191025

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20191025

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191028

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20191028

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191119

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191210

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191210

R150 Certificate of patent or registration of utility model

Ref document number: 6651086

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250