JP2018005357A - 情報処理装置および情報処理方法 - Google Patents

情報処理装置および情報処理方法 Download PDF

Info

Publication number
JP2018005357A
JP2018005357A JP2016128319A JP2016128319A JP2018005357A JP 2018005357 A JP2018005357 A JP 2018005357A JP 2016128319 A JP2016128319 A JP 2016128319A JP 2016128319 A JP2016128319 A JP 2016128319A JP 2018005357 A JP2018005357 A JP 2018005357A
Authority
JP
Japan
Prior art keywords
adaptation
function
information processing
processing apparatus
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016128319A
Other languages
English (en)
Other versions
JP6633462B2 (ja
Inventor
智行 柴田
Satoyuki Shibata
智行 柴田
山口 修
Osamu Yamaguchi
修 山口
雄土 山地
Yuto Yamaji
雄土 山地
昌之 丸山
Masayuki Maruyama
昌之 丸山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2016128319A priority Critical patent/JP6633462B2/ja
Priority to US15/438,873 priority patent/US10896343B2/en
Publication of JP2018005357A publication Critical patent/JP2018005357A/ja
Application granted granted Critical
Publication of JP6633462B2 publication Critical patent/JP6633462B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Image Analysis (AREA)

Abstract

【課題】推定モデルを特定の場所に適応させる場合に、ユーザの負担を軽減させる。【解決手段】実施形態に係る情報処理装置は、取得部と、適応化部と、判定部と、出力部とを備える。取得部は、特定の場所に設置された撮像装置により撮像された複数の入力画像を取得する。適応化部は、複数の入力画像に基づき、画像に含まれる対象物を検出するための推定モデルを特定の場所に適応させる。判定部は、推定モデルにおける特定の場所に対する適応化状態を判定する。出力部は、適応化状態の判定結果を出力する。【選択図】図3

Description

本発明の実施形態は、情報処理装置および情報処理方法に関する。
汎用環境の学習用データを用いて機械学習した回帰モデルである推定モデルを、特定の環境下に適応させる適応化装置が知られている。
例えば、画像に含まれる人の数を推定する汎用の推定モデルを、駅の通路等を撮像した画像から通行者の数を推定する推定システムに適応させる場合、適応化装置は、駅の通路等に設置された撮像装置により撮像された画像を用いて、汎用の推定モデルを修正する。このような適応化技術は、例えば、ドメインアダプテーション、転移学習、ノウレッジトランスファー等と呼ばれる。
ところで、従来の適応化装置では、汎用の推定モデルを特定の環境下に適応させる場合、特別の知識を有するユーザ(オペレータ)等による操作が必要であった。例えば、従来の適応化装置では、オペレータ等が、特定の環境下で撮像した画像毎に、正解情報を入力しなければならなかった。また、例えば、従来の適応化装置では、オペレータ等が適応化の状態を参照して、適応化が成功したか失敗したかを判断しなければならなかった。このため、従来の適応化装置では、ユーザの負担が大きく、コストが高かった。
特開2015−87973号公報 特開2015−158712号公報
Shaoqing Ren, Xudong Cao, Yichen Wei, Jian Sun, "Global Refinement of Random Forest",IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2015, pp 723-730
発明が解決しようとする課題は、推定モデルを特定の場所に適応させる場合に、ユーザの負担を軽減させることにある。
実施形態に係る情報処理装置は、取得部と、適応化部と、判定部と、出力部とを備える。前記取得部は、特定の場所に設置された撮像装置により撮像された複数の入力画像を取得する。前記適応化部は、前記複数の入力画像に基づき、画像に含まれる対象物を検出するための推定モデルを前記推定システムに適応させる。前記判定部は、前記推定モデルにおける前記特定の場所に対する適応化状態を判定する。前記出力部は、前記適応化状態の判定結果を出力する。
実施形態に係る推定システムを示す図。 実施形態に係る推定システムにおける処理手順を示すフローチャート。 モデル適応化機能の構成を示す図。 適応化機能の構成を示す図。 第1実施形態に係る判定機能の構成を示す図。 情報処理装置の処理手順を示すフローチャート。 適応化開始時に表示される画像を示す図。 適応化中に表示される画像を示す図。 適応化が成功した場合に表示される画像を示す図。 適応化が失敗した場合に表示される画像を示す図。 第2実施形態に係る判定機能の構成を示す図。 第2実施形態に係る判定機能の処理手順を示すフローチャート。 S213での処理手順を示すフローチャート。 入力画像が不足している場合に表示される画像を示す図。 S214での処理手順を示すフローチャート。 対象物を含む入力画像が不足している場合に表示される画像を示す図。 フォーカスが合っていない場合に表示される画像を示す図。 コントラストが合っていない場合に表示される画像を示す図。 モーションブラーが発生した場合に表示される画像を示す図。 俯角が小さい場合に表示される画像を示す図。
以下、図面を参照しながら本実施形態に係る推定システム10について説明する。なお、以下の実施形態では、同一の参照符号を付した部分は略同一の構成および動作をするので、相違点を除き重複する説明を適宜省略する。
(第1の実施形態)
図1は、実施形態に係る推定システム10を示す図である。
推定システム10は、対象物を撮像した画像に基づき、対象物の位置または数を推定する。本実施形態において、対象物は、人である。本実施形態において、推定システム10は、駅等における特定の位置から撮像した画像に含まれる人の位置または数を推定する。なお、対象物は、人に限らず、例えば車両または微生物等であってもよい。
推定システム10は、撮像装置12と、情報処理装置20と、入力装置22と、表示装置24とを備える。
撮像装置12は、対象物が通過または滞在する所定空間を撮像可能な特定の場所に設置される。撮像装置12は、特定の場所から所定空間を撮像する。例えば、対象物が人である場合、撮像装置12は、駅等の人が移動する移動面を、上方から所定の角度で撮像する。撮像装置12は、所定のフレームレートで画像を撮像し、撮像して得られたそれぞれの画像を入力画像として情報処理装置20に与える。撮像装置12が撮像した画像は、可視光画像、赤外線画像、距離画像等の種々の画像であってよい。
情報処理装置20は、撮像装置12が撮像した入力画像を用いた種々の画像処理を行い、入力画像に含まれる対象物の位置または数を推定する。対象物が人である場合、情報処理装置20は、入力画像に含まれる人の位置または数を推定する。情報処理装置20は、例えば、専用または汎用コンピュータである。情報処理装置20は、PC、あるいは、画像を保存および管理するサーバに含まれるコンピュータであってもよい。
情報処理装置20は、処理回路32、記憶回路34、通信部36、各部を接続するバス30を備える。情報処理装置20は、例えば、バス30を介して撮像装置12と接続される。
処理回路32は、対象物推定機能42と、モデル適応化機能50とを有する。モデル適応化機能50は、取得機能52と、適応化機能54と、判定機能56と、出力機能58とを含む。これらの各処理機能は、後述する。
情報処理装置20にて行われる各処理機能は、コンピュータによって実行可能なプログラムの形態で記憶回路34へ記憶されている。処理回路32は、プログラムを記憶回路34から読み出し、実行することで各プログラムに対応する機能を実現するプロセッサである。各プログラムを読み出した状態の処理回路32は、図1の処理回路32内に示された各機能を有することになる。なお、図1においては単一の処理回路32にて、対象物推定機能42およびモデル適応化機能50にて行われる処理機能が実現されるものとして説明したが、複数の独立したプロセッサを組み合わせて処理回路32を構成し、各プロセッサがプログラムを実行することにより機能を実現するものとしても構わない。各処理機能がプログラムとして構成され、1つの回路が各プログラムを実行する場合であってもよいし、特定の機能が専用の独立したプログラム実行回路に実装される場合であってもよい。
なお、処理回路32の有する対象物推定機能42は、推定装置の一例である。また、処理回路32の有するモデル適応化機能50は、適応化装置の一例である。また、取得機能52、適応化機能54、判定機能56および出力機能58は、それぞれ、取得部、適応化部、判定部および出力部の一例である。
上記説明において用いた「プロセッサ」という文言は、例えば、CPU(Central Processing Unit)、GPU(Graphical Processing Unit)或いは、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)、プログラマブル論理デバイス(例えば、単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)、複合プログラマブル論理デバイス(Complex Programmable Logic Device:CPLD)およびフィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA))の回路を意味する。プロセッサは、記憶回路34に保存されたプログラムを読み出し実行することで機能を実現する。なお、記憶回路34にプログラムを保存する代わりに、プロセッサの回路内にプログラムを直接組み込むよう構成しても構わない。この場合、プロセッサは回路内に組み込まれたプログラムを読み出し実行することで機能を実現する。
記憶回路34は、処理回路32が行う各処理機能に伴うデータ等を必要に応じて記憶する。また、記憶回路34は、処理回路32により実行されるプログラムを記憶する。
また、本実施形態に係る記憶回路34は、対象物の推定に用いられる回帰モデルである推定モデル40を記憶する。さらに、本実施形態に係る記憶回路34は、撮像装置12により撮像された入力画像を記憶する。また、本実施形態に係る記憶回路34は、推定処理および推定モデル40の適応化処理に用いられる各種の設定値、および、ユーザインターフェース画像等を記憶する。本実施形態に係る記憶回路34は、推定処理および推定モデル40の適応化処理の過程において生成した各種のデータを記憶する。
例えば、記憶回路34は、RAM(Random Access Memory)、フラッシュメモリ等の半導体メモリ素子、ハードディスク、光ディスク等である。また、記憶回路34が行う処理は、情報処理装置20の外部の記憶装置で代替されてもよい。記憶回路34は、LAN(Local Area Network)やインターネット等により伝達されたプログラムをダウンロードして記憶または一時記憶した記憶媒体であってもよい。また、記憶媒体は1つに限られず、複数の媒体から、上述した実施形態における処理が実行される場合も、実施形態における記憶媒体に含まれ、媒体の構成は何れの構成であってもよい。
通信部36は、有線または無線で接続された外部装置と情報の入出力を行うインターフェースである。通信部36は、ネットワークに接続して通信を行ってもよい。
入力装置22は、操作者からの各種指示や情報入力を受け付ける。入力装置22は、例えば、マウスまたはトラックボール等のポインティングデバイス、あるいはキーボード等の入力デバイスである。
表示装置24は、画像データ等の各種の情報を表示する。表示装置24は、例えば、液晶表示器等の表示デバイスである。
本実施形態の入力装置22、表示装置24は、有線または無線で情報処理装置20に接続している。入力装置22、表示装置24は、ネットワークを介して情報処理装置20と接続してもよい。
図2は、実施形態に係る推定システム10における処理手順を示すフローチャートである。
まず、S111において、情報処理装置20は、汎用の推定モデル40を導入する。具体的には、情報処理装置20は、ネットワークまたはメディア等を介して汎用の推定モデル40を取得して、処理回路32により参照可能なように記憶回路34に記憶させる。
汎用の推定モデル40は、汎用の環境下で撮像された学習用サンプル(画像および正解情報)を用いて機械学習した知識データである。すなわち、汎用の推定モデル40は、複数の条件をカバーする大量のサンプル(画像および正解情報)から機械学習した知識データである。
続いて、S112において、情報処理装置20は、導入された汎用の推定モデル40を、特定の場所に適応させる。例えば、情報処理装置20は、ユーザによる適応化開始指示に応じて、処理回路32が有するモデル適応化機能50の動作を開始させる。モデル適応化機能50は、撮像装置12により撮像された複数の入力画像に基づき、推定モデル40を特定の場所に適応させるべく、推定モデル40を修正する。つまり、情報処理装置20は、推定モデル40を特定の場所に調整する。これにより、情報処理装置20は、推定モデル40により、特定の場所に設置された撮像装置12により撮像された画像から対象物の位置または数を推定した場合に、推定誤差を小さくすることができる。
推定モデル40の適応化が成功した場合、S113において、適応化後の推定モデル40を用いた推定処理を開始する。例えば、情報処理装置20は、ユーザによる推定開始指示に応じて、処理回路32が有する対象物推定機能42の動作を開始させる。対象物推定機能42は、適応化後の推定モデル40を用いて、撮像装置12により撮像された入力画像から対象物の位置または数を推定する。
ここで、本実施形態において、対象物推定機能42は、群衆解析技術を用いて入力画像に含まれる対象物の数を推定する。より具体的には、次のように処理を実行する。まず、対象物推定機能42は、入力画像から、対象物が存在する部分を含む複数の局所画像を抽出する。続いて、対象物推定機能42は、推定モデル40を用いて、それぞれの局所画像について、局所画像中における対象物の位置を表すベクトルを取得する。続いて、対象物推定機能42は、それぞれの局所画像について、取得したベクトルから、局所画像中における人の存在を表す密度マップを生成する。
続いて、対象物推定機能42は、それぞれの密度マップを、入力画像における対応する位置に配置することにより統合する。これにより、対象物推定機能42は、入力画像の全体の密度マップを生成することができる。そして、対象物推定機能42は、入力画像の全体に対応する密度マップの積分値を、入力画像に含まれる人の数として出力する。これにより、対象物推定機能42は、群衆解析技術を用いて入力画像に含まれる対象物の数を推定することができる。
本実施形態において、対象物推定機能42は、例えば、特許文献2に示すランダムフォレストで表される推定モデル40を用いて、入力画像に含まれる人の数を推定してよい。この場合、対象物推定機能42は、局所画像の各種の特徴量から、推定モデル40を用いて、対象物の位置を表すベクトルを取得する。そして、対象物推定機能42は、取得したベクトルから、局所画像に対応する密度マップを生成する。
また、このようなランダムフォレストで表される推定モデル40を用いる場合、モデル適応化機能50は、非特許文献1に記載された転移学習技術を用いて、推定モデル40を特定の場所に適応させてもよい。なお、推定モデル40は、画像から対象物を検出するためのモデルであれば、ランダムフォレストに限らず、どのようなモデルであってもよい。
以上のような手順で処理を実行することにより、推定システム10は、撮像装置12により撮像された入力画像から、対象物を推定することができる。
図3は、モデル適応化機能50の構成の一例を示す図である。モデル適応化機能50は、取得機能52と、適応化機能54と、判定機能56と、出力機能58とを有する。
取得機能52は、特定の場所に設置された撮像装置12により撮像された複数の入力画像を取得する。取得機能52は、予め保存されている入力画像を記憶回路34から取得してもよいし、撮像処理中の撮像装置12から順次に入力画像を取得してもよい。
適応化機能54は、取得機能52が取得した複数の入力画像に基づき、推定モデル40を特定の場所に適応させる。つまり、情報処理装置20は、複数の入力画像に基づき、推定モデル40を特定の場所に調整する。これにより、情報処理装置20は、推定モデル40により、特定の場所に設置された撮像装置12により撮像された画像から対象物の位置または数を推定した場合に、推定誤差を小さくすることができる。適応化機能54は、適応化処理を開始した場合、開始したことを示す情報を出力機能58に与える。
また、適応化機能54は、推定モデル40の適応化処理を実行する場合に、複数の入力画像から、複数の正例データおよび複数の負例データを生成する。適応化機能54は、生成した複数の正例データおよび複数の負例データのうちのそれぞれ一部を用いて適応化処理を実行する。なお、適応化機能54は、複数の正例データのみを用いて適応化を実行してもよいし、複数の負例データのみを用いて適応化を実行してもよい。また、適応化機能54は、生成した複数の正例データおよび複数の負例データのうちの適応化処理に用いていないそれぞれ一部を、判定機能56に与える。なお、適応化機能54は、生成した複数の正例データのみを判定機能56に与えてもよい。適応化機能54については、図4を参照してさらに説明する。
判定機能56は、適応化機能54による適応化処理が完了した後、推定モデル40における特定の場所に対する適応化状態を判定する。すなわち、判定機能56は、適応化機能54による、推定モデル40における特定の場所に対する適応化の度合い(調整の度合い)を判定する。例えば、判定機能56は、適応化処理を実行後の推定モデル40を検証して、適応化が成功したか、適応化が失敗したかを判定してよい。
より具体的には、判定機能56は、適応化処理を実行後の推定モデル40における推定精度を、適応化機能54から受け取った複数の正例データおよび複数の負例データを用いて算出する。なお、判定機能56は、複数の正例データのみを用いて推定精度を算出してもよいし、複数の負例データのみを用いて推定精度を算出してもよい。そして、判定機能56は、算出した推定精度が所定精度以上である場合には、適応化が成功した状態であると判定し、推定精度が所定精度より小さい場合には、適応化が失敗した状態であると判定してよい。
判定機能56は、推定モデル40における適応化状態の判定結果を出力機能58に与える。なお、判定機能56については、図5を参照してさらに説明する。
出力機能58は、判定機能56から受け取った適応化状態の判定結果を出力する。すなわち、出力機能58は、判定機能56から受け取った適応化状態(特定の場所に対する適応化の度合い)をユーザに提供する。例えば、出力機能58は、表示装置24に適応化状態の判定結果を表示させる。例えば、出力機能58は、適応化状態の判定結果として、適応化が成功したことを示す情報または適応化が失敗したことを示す情報を出力してよい。これにより、出力機能58は、適応化が成功したか失敗したかをユーザに知らせることができる。
また、出力機能58は、適応化機能54による適応化処理が開始された場合、適応化中であることを示す情報を出力してもよい。また、出力機能58は、適応化機能54による適応化処理が終了した場合、あるいは、判定機能56による判定処理が終了した場合、適応化が完了したことを示す情報を出力してもよい。
また、出力機能58は、適応化が開始されたことが通知された場合、適応化が完了するまでの時間を算出してもよい。例えば、出力機能58は、適応化機能54が適応化に用いる複数の正例データの数等に基づいて、適応化が完了するまでの時間を算出する。そして、出力機能58は、適応化処理が開始された場合、適応化が完了するまでの時間を示す情報を出力してもよい。
図4は、適応化機能54の構成の一例を示す図である。適応化機能54は、対象物検出機能62と、抽出機能64と、正例生成機能66と、負例生成機能68と、モデル修正機能70とを含む。対象物検出機能62、抽出機能64、正例生成機能66、負例生成機能68およびモデル修正機能70は、それぞれ、対象物検出部、抽出部、正例生成部、負例生成部およびモデル修正部の一例である。
対象物検出機能62は、取得機能52から入力画像を受け取る。対象物検出機能62は、推定モデル40を用いた対象物の検出処理とは異なる処理により、それぞれの入力画像に含まれる対象物を検出する。
例えば、推定モデル40が、局所画像の各種の特徴量から、対象物の位置を表すベクトルを特定するラベルを推定するためのランダムフォレストであるとする。この場合、対象物検出機能62は、このランダムフォレストを用いる以外の処理により、対象物を検出する。対象物が人である場合、例えば、対象物検出機能62は、顔検出処理、全身検出処理、上半身検出処理または頭部検出処理等の、画像中から人体の一部分または全部を検出する方法により人を検出してよい。
また、対象物検出機能62は、1つの入力画像に対して複数の検出処理を実行して、対象物の検出の信頼性を高くしてもよい。例えば、対象物検出機能62は、顔検出処理、全身検出処理、上半身検出処理および頭部検出処理のうちの複数の処理を実行してもよい。また、例えば、対象物検出機能62は、異なるアルゴリズムで、複数の顔検出処理を実行してもよい。そして、この場合、対象物検出機能62は、所定数以上の検出処理が共に対象物として検出した部分を、対象物と検出し、所定数未満の検出処理が対象物と検出した部分は、対象物としなくてもよい。さらに、対象物検出機能62は、時系列に並んだ複数の入力画像に基づき対象物の動きを予測して、それぞれの入力画像に含まれる対象物を検出してもよい。
また、対象物検出機能62は、過検出がほとんど発生しないように設定された閾値によって、対象物か否かを判別してもよい。これにより、対象物検出機能62は、誤っている可能性が非常に低い部分を対象物として検出することができ、適応化の精度を向上させることができる。このような対象物検出機能62は、ユーザによる入力操作を受け付けずに、入力画像から対象物を自動検出することができる。
抽出機能64は、取得機能52から入力画像を受け取る。また、抽出機能64は、対象物検出機能62による対象物の検出結果を取得する。そして、抽出機能64は、入力画像から対象物を含む局所画像を抽出する。局所画像は、推定モデル40を用いて対象物を推定する場合における、推定モデル40に与えるパターン画像である。
正例生成機能66は、抽出機能64から局所画像を取得する。また、正例生成機能66は、対象物検出機能62による対象物の検出結果を取得する。正例生成機能66は、取得した対象物の検出結果から、局所画像に含まれる対象物を表す正解情報を生成する。正解情報は、例えば、対象物の数であってもよいし、対象物の位置であってもよいし、局所画像に含まれる対象物の密度を表す密度マップであってもよい。そして、正例生成機能66は、局所画像と、局所画像に含まれる対象物を表す正解情報との組である正例データを複数個生成する。これにより、正例生成機能66は、ユーザに正解情報を入力させずに、正例データを生成することができる。
正例生成機能66は、生成した複数の正例データのうち一部(例えば半分)を訓練用とし、他の一部(他の半分)を検証用とする。正例生成機能66は、訓練用の複数の正例データをモデル修正機能70に与える。正例生成機能66は、検証用の複数の正例データを判定機能56に与える。
負例生成機能68は、対象物を含まない局所画像と、対象物が存在しないことを表す正解情報との組である負例データを少なくとも1個生成する。
例えば撮像装置12が固定されている場合、負例生成機能68は、時間的に連続した複数の入力画像を取得する。そして、負例生成機能68は、対象物が移動することを利用した背景自動生成技術により、時間的に連続した複数の入力画像から背景画像を生成する。そして、負例生成機能68は、背景画像から対象物を含まない局所画像を生成する。
例えば撮像装置12が移動する場合、負例生成機能68は、対象物を含む局所画像として抽出されなかった領域から、対象物を含まない局所画像を生成してもよい。また、対象物検出機能62における検出処理において、未検出がほとんど発生しないように設定された閾値によっても、対象物として判別されなかった領域から、対象物を含まない局所画像を生成してもよい。このような負例生成機能68は、ユーザによる入力操作を受け付けずに、入力画像から対象物を含まない局所画像を生成することができる。
なお、負例データは、正例データと比較して生成すべき個数が少ない。従って、負例生成機能68は、ユーザから対象物が存在しない領域の指定を受け付けて、負例データを生成してもよい。また、負例生成機能68は、予め対象物が存在しない状況で撮像した入力画像を受け取って、負例データを生成してもよい。負例生成機能68は、生成した少なくとも1個の負例データをモデル修正機能70に与える。
負例生成機能68は、生成した複数の負例データのうち一部(例えば半分)を訓練用とし、他の一部(他の半分)を検証用とする。負例生成機能68は、訓練用の負例データをモデル修正機能70に与える。負例生成機能68は、検証用の負例データを判定機能56に与える。なお、負例生成機能68は、検証用の負例データを生成しなくてもよい。この場合、負例生成機能68は、生成した全ての負例データをモデル修正機能70に与える。
モデル修正機能70は、正例生成機能66から複数の正例データを受け取る。また、モデル修正機能70は、負例生成機能68から少なくとも1つの負例データを受け取る。モデル修正機能70は、複数の正例データおよび少なくとも1つの負例データを用いて、推定モデル40を特定の場所に適応させる。例えば、モデル修正機能70は、推定モデル40がランダムフォレストである場合、非特許文献1に記載された転移学習技術を用いて推定モデル40を特定の場所に適応させてもよい。
このような適応化機能54は、ユーザによる操作入力を受けずに、推定モデル40に対する適応化処理を実行することができる。これにより、適応化機能54によれば、特別の知識を有さないユーザにより操作をさせることができる。
図5は、第1実施形態に係る判定機能56の構成の一例を示す図である。判定機能56は、正例取得機能72と、推定機能74と、精度算出機能76と、成否判定機能78とを含む。正例取得機能72、推定機能74、精度算出機能76および成否判定機能78は、それぞれ、正例取得部、推定部、精度算出部および成否判定部の一例である。
正例取得機能72は、検証用の複数の正例データおよび少なくとも1つの負例データを適応化機能54から受け取る。なお、正例取得機能72は、検証用の正例データのみまたは負例データのみを受け取ってもよい。正例取得機能72は、正例データおよび負例データに含まれる局所画像を推定機能74に与え、正例データおよび負例データに含まれる正解情報を精度算出機能76に与える。
推定機能74は、適応化処理を実行した後の推定モデル40を用いて、局所画像から、局所画像に含まれる対象物を推定する。例えば、推定機能74は、局所画像から特徴量を算出し、算出した特徴量から推定モデル40を用いて局所画像に含まれる対象物の推定結果を出力する。推定結果は、例えば、対象物の数、位置または密度マップである。推定機能74は、推定結果を精度算出機能76に与える。
精度算出機能76は、推定機能74から受け取った推定結果と、正例取得機能72から受け取った正解情報とに基づき、推定精度を算出する。例えば、精度算出機能76は、正解情報に対する推定結果の一致割合を推定精度として算出する。精度算出機能76は、複数の正例データについて算出した推定精度を合成した結果(例えば推定精度の平均値)を成否判定機能78に与える。
成否判定機能78は、受け取った推定精度を予め設定されている所定精度と比較する。成否判定機能78は、推定精度が所定精度以上である場合には、適応化が成功した状態であると判定する。成否判定機能78は、推定精度が所定精度より小さい場合には、適応化が失敗した状態であると判定する。そして、成否判定機能78は、適応化が成功したかまたは適応化が失敗したかを示す情報を、推定モデル40における適応化状態の判定結果として、出力機能58に与える。
このような判定機能56は、正例生成機能66により生成された正例データおよび負例データにより推定精度を算出するので、特別な知識を有さないユーザにより操作をさせることができる。さらに、判定機能56は、特別な知識を有さないユーザに適応化が成功したか失敗したかを知らせることができる。
図6は、情報処理装置20の処理手順を示すフローチャートである。情報処理装置20は、汎用の推定モデル40を、特定の場所に適応させる場合、図6に示す処理を実行する。
まず、S121において、情報処理装置20は、各種の設定を受け付ける。例えば、情報処理装置20は、撮像装置12の撮像方向(位置および俯角等)の設定を受け付けてよい。また、情報処理装置20は、撮像装置12のフォーカス、ゲイン、明るさ、アイリスおよび露光時間等の設定を受け付けてよい。
続いて、S122において、情報処理装置20は、撮像処理を開始する。例えば、情報処理装置20は、所定のフレームレートで、予め設定された期間、撮像処理を実行する。
続いて、S123において、情報処理装置20は、適応化処理の開始の操作を受け付ける。情報処理装置20は、S122の撮像処理が完了した後に、適応化処理を開始してもよいし、S122の撮像処理中に、適応化処理を開始してもよい。
情報処理装置20は、例えば、図7に示すようなユーザインターフェース画像を表示して、ユーザから適応化処理の開始の指示を受け付けてよい。情報処理装置20は、ユーザから適応化処理の開始の指示を受けた場合、モデル適応化機能50を呼び出して、適応化処理を開始させる。
また、情報処理装置20は、適応化処理が開始された場合、図8に示すようなユーザインターフェース画像を表示して、適応化中であることをユーザに知らせてもよい。この場合、情報処理装置20は、入力画像の数等から適応化処理に要する時間を推定し、適応化処理が完了するまでの時間を表示してもよい。
続いて、モデル適応化機能50は、入力画像毎に、S125からS128までの処理を実行する(S124とS129との間のループ)。ループ内では、まず、S125において、取得機能52は、入力画像を取得する。続いて、S126において、適応化機能54は、推定モデル40を用いた対象物の検出処理とは異なる処理により、入力画像から対象物を検出する。
続いて、S127において、適応化機能54は、入力画像から対象物を含む局所画像を抽出する。続いて、S128において、適応化機能54は、抽出した局所画像についての正解情報を生成し、局所画像と正解情報との組である正例データを生成する。なお、適応化機能54は、1つの入力画像に対して、複数の正例データを生成してもよい。
全ての入力画像について処理が完了した場合(S124とS129との間のループが終了)、適応化機能54は、処理をS130に進める。S130において、適応化機能54は、負例データを生成する。なお、適応化機能54は、S124とS129との間のループ内において、負例データを生成してもよい。
続いて、S131において、適応化機能54は、複数の正例データを訓練用と検証用とに分割する。続いて、S132において、適応化機能54は、訓練用の複数の正例データおよび負例データを用いて、推定モデル40に対する適応化処理を実行する。
続いて、判定機能56は、検証用の正例データ毎に、S134からS135までの処理を実行する(S133とS136との間のループ)。ループ内では、まず、S134において、判定機能56は、検証用の正例データに含まれる局所画像から、対象物を推定する。続いて、S135において、判定機能56は、推定結果と、検証用の正例データに含まれる正解情報とを比較する。
全ての検証用の正例データについて処理が完了した場合(S133とS136との間のループが終了)、判定機能56は、処理をS137に進める。S137において、判定機能56は、全ての検証用の正例データにおける、推定結果と正解情報との比較結果に基づき、推定精度を算出する。
続いて、S138において、判定機能56は、推定精度に基づき適応化状態を判定する。具体的には、判定機能56は、推定精度が所定精度以上である場合には、適応化が成功した状態であると判定し、推定精度が所定精度より小さい場合には、適応化が失敗した状態であると判定する。
続いて、S139において、出力機能58は、適応化状態を出力する。具体的には、出力機能58は、適応化が成功した状態であると判定した場合には、適応化が成功したことを示す情報を出力する。例えば、出力機能58は、図9に示すようなユーザインターフェース画像により、適応化が成功したことを示す情報を表示する。
また、出力機能58は、適応化が失敗した状態であると判定した場合には、適応化が失敗したことを示す情報を出力する。例えば、出力機能58は、図10に示すようなユーザインターフェース画像により、適応化が失敗したことを示す情報を表示する。
以上のように本実施形態に係る情報処理装置20は、推定モデル40を特定の場所に適応させる場合に、推定モデル40の適応化状態を判定して出力する。これにより、情報処理装置20によれば、特別な知識を有さないユーザにも適応化状態の判定結果を認識させることができ、ユーザの負担を軽減させることができる。
(第2実施形態)
図11は、第2実施形態に係る判定機能56の構成を示す図である。
第2実施形態に係る判定機能56は、失敗解析機能82をさらに含む。失敗解析機能82は、失敗解析部に対応する。
失敗解析機能82は、成否判定機能78が、適応化が失敗した状態であると判定した場合、失敗の要因を解析する。失敗解析機能82は、適応化機能54から、訓練用の複数の正例データおよび入力画像の数を取得する。
失敗解析機能82は、正例データの数が予め定められた第1閾値以下、且つ、第2閾値以上であるか否かを判断する。第2閾値は、第1閾値より小さい値である。
第1閾値は、推定モデル40の適応化処理を非常に高い確率で成功させるために必要となる、品質の良い正例データの数である。従って、失敗解析機能82は、正例データの数が第1閾値より多かったにも関わらず推定モデル40の適応化が失敗した場合、正例データの品質が悪かったと判断できる。
第2閾値は、十分な数の入力画像が存在するにも関わらず、第2閾値より少ない正例データしか生成できない場合には、入力画像の品質が悪い、例えば、入力画像を撮像する撮像装置12の設定方法が悪いまたは入力画像のコンテンツが悪いと判断できる値である。
失敗解析機能82は、適応化に失敗した場合であって、正例データの数が予め定められた第1閾値以下、且つ、第1閾値より小さい第2閾値以上である場合、適応化に用いた画像の数が少ない状態であると判定する。すなわち、失敗解析機能82は、正例データの品質または入力画像の品質は問題ないが、適応化に用いた画像の数が少ないので適応化が失敗したと判定する。
また、失敗解析機能82は、適応化に失敗した場合であって、正例データの数が予め定められた第1閾値より大きく、または、第1閾値より小さい第2閾値未満である場合、適応化に用いた画像の品質が悪い状態であると判定する。すなわち、失敗解析機能82は、適応化に用いた画像数には問題が無いが、正例データの品質または入力画像の品質が悪いので、適応化が失敗したと判定する。
失敗解析機能82は、適応化に失敗した場合、このような判定結果を推定モデル40における適応化状態の判定結果として、出力機能58に与える。
図12は、第2実施形態に係る判定機能56の処理手順を示すフローチャートである。判定機能56は、推定モデル40の適応化が失敗したと判定した場合、図12に示す処理を実行する。
まず、S211において、判定機能56は、適応化処理で用いた訓練用の正例データの数を取得する。続いて、S212において、判定機能56は、訓練用の正例データの数が、第1閾値以下であり、且つ、第2閾値以上であるか否かを判断する。
訓練用の正例データの数が、第1閾値以下であり且つ第2閾値以上である場合(S212のYes)、S213において、判定機能56は、適応化に用いた画像の数が少ない状態であると判定する。そして、例えば、S213において、判定機能56は、追加して取得すべき入力画像の数(または撮像時間)を算出する。さらに、判定機能56は、適応化が失敗したこと、および、算出した追加して取得すべき入力画像の数(または撮像時間)をユーザに出力する。
これにより、判定機能56は、適応化に用いた画像の数が少ないことが適応化に失敗した要因であるとユーザに知らせて、ユーザに適切な対応をさせることができる。そして、判定機能56は、S213の処理を終えると、本フローの処理を終了する。なお、S213のより詳細な処理については、図13においてさらに説明する。
一方、訓練用の正例データの数が、第1閾値より大きい、または、第2閾値未満である場合(S212のNo)、S214において、判定機能56は、適応化に用いた画像の品質が悪い状態であると判定する。そして、例えば、S214において、判定機能56は、品質を悪くする要因を解析する。さらに、判定機能56は、適応化が失敗したこと、および、品質を悪くした要因を示す情報をユーザに出力する。
これにより、判定機能56は、適応化に用いた画像の品質が悪いことが適応化に失敗した要因であるとユーザに知らせて、ユーザに適切な対応をさせることができる。そして、判定機能56は、S214の処理を終えると、本フローの処理を終了する。なお、S214のより詳細な処理については、図15においてさらに説明する。
図13は、図12のS213での処理手順を示すフローチャートである。判定機能56は、図12のS213において、図13に示す処理を実行する。
まず、S221において、判定機能56は、適応化処理に用いた入力画像の数を取得する。続いて、S222において、判定機能56は、入力画像の数が所定数以下であるか否かを判断する。判定機能56は、入力画像の数が所定数以下の場合(S222のYes)、処理をS223に進める。判定機能56は、入力画像の数が所定数より大きい場合(S222のNo)、処理をS225に進める。
S223において、判定機能56は、適応化に用いた入力画像の数が少ない状態であると判定する。これにより、判定機能56は、入力画像の数(撮像枚数)が少ないことが、適応化に失敗した要因であるとユーザに知らせることができる。
続いて、S224において、判定機能56は、追加して取得すべき入力画像の数を算出する。例えば、判定機能56は、予め設定された必要な入力画像の数から、適応化に用いた入力画像の数を減算して、追加して取得すべき入力画像の数を算出する。これにより、判定機能56は、適応化を成功させるために必要な入力画像の数を算出することができる。S224の処理を終えると、判定機能56は、処理をS227に進める。
一方、S225において、判定機能56は、適応化に用いた、対象物が含まれる局所画像の数が少ない状態であると判定する。これにより、判定機能56は、適応化に用いた局所画像の数が少ないことが、適応化に失敗した要因であるとユーザに知らせることができる。
続いて、S226において、判定機能56は、補間処理により、追加して撮像すべき入力画像の数を算出する。例えば、判定機能56は、取得した入力画像の数と適応化に用いた局所画像の数との比率に基づき、予め設定された数の局所画像を抽出するために必要となる追加して取得すべき入力画像の数を算出する。これにより、判定機能56は、適応化を成功させるために必要な入力画像の数を算出することができる。S226の処理を終えると、判定機能56は、処理をS227に進める。
S227において、判定機能56は、追加して取得すべき入力画像の数から、追加して取得すべき入力画像を撮像して取得する場合の撮像時間を算出する。具体的には、判定機能56は、追加して取得すべき入力画像の数と、フレームレートとから、撮像時間を算出する。これにより、判定機能56は、適応化を成功させるために必要な撮像時間を算出することができる。なお、判定機能56は、次のS228において、撮像時間を出力しない場合には、S227の処理を実行しなくてもよい。
続いて、S228において、判定機能56は、適応化状態の判定結果を出力する。より具体的には、判定機能56は、適応化が失敗したこと、および、入力画像の数が不足しているために適応化が失敗したことを示す情報を出力する。この場合において、判定機能56は、追加して取得すべき入力画像の数および撮像時間の少なくとも一方も併せて出力してよい。
例えば、判定機能56は、図14に示すようなユーザインターフェース画像を表示して、適応化が失敗したこと、入力画像の数が不足していること、追加して取得すべき入力画像の数(または撮像時間)をユーザに通知する。
なお、判定機能56は、S222において入力画像の数が所定数以下であると判断した場合(S222のYes)、撮像した入力画像の数が少ないので、適応化に失敗したことをユーザに通知してもよい。また、判定機能56は、S222において入力画像の数が所定数より大きいと判断した場合(S222のNo)、撮像した入力画像の数は足りているが、対象物が含まれる局所画像の数が少ないので、適応化に失敗したことをユーザに通知してもよい。また、判定機能56は、S227の処理を終えると、本フローの処理を終了する。
以上のように、判定機能56は、適応化に失敗した場合であって、正例データの数が予め定められた第1閾値以下、且つ、第1閾値より小さい第2閾値以上である場合、適応化に用いた画像の数が少ない状態であることをユーザに通知することができる。これにより、判定機能56によれば、特別な知識を有さないユーザであっても、適切な対応を取って、適応化を成功させることができる。
さらに、判定機能56は、適応化を成功させるために追加して取得すべき入力画像の数または撮像時間をユーザに出力することができる。これにより、判定機能56は、適応化を成功させるために必要なコスト(枚数または時間)を、ユーザに知らせることができる。
図15は、図12のS214での処理手順を示すフローチャートである。判定機能56は、図12のS214において、図15に示す処理を実行する。
まず、S231において、判定機能56は、対象物の含まれる局所画像の数が所定数よりも少ないか否かを判断する。所定数は、例えば第2閾値より小さい数であってよい。また、所定数は、入力画像の数に、予め設定された値を乗じた値であってもよい。判定機能56は、対象物の含まれる局所画像の数が所定数よりも少ない場合(S231のYes)、処理をS232に進める。判定機能56は、対象物の含まれる局所画像の数が所定数以上の場合(S231のNo)、処理をS233に進める。
S232において、判定機能56は、対象物が撮像できていない状態であると判定する。これにより、判定機能56は、対象物が撮像できていないことが、適応化に失敗した要因であるとユーザに知らせることができる。
そして、出力機能58は、対象物が撮像できていない状態を示す情報を、適応化状態の判定結果として出力する。より具体的には、出力機能58は、適応化が失敗したこと、および、対象物が撮像できていないために適応化が失敗したことを示す情報を出力する。
例えば、出力機能58は、図16に示すようなユーザインターフェース画像を表示して、適応化が失敗したこと、および、対象物が撮像できていないことをユーザに通知する。また、この場合、出力機能58は、適応化を成功させるためのどのような処理をすべきかのアドバイスをユーザに通知してもよい。例えば、出力機能58は、対象物である人が通行している時間帯に撮像することをユーザに通知してもよい。S232の処理を終えると、判定機能56は、本フローの処理を終了する。
S233において、判定機能56は、入力画像のうちの少なくとも1つを取得し、鮮鋭度を算出する。判定機能56は、複数の入力画像の鮮鋭度を平均化してもよい。そして、判定機能56は、鮮鋭度が所定値以下であるか否かを判断する。判定機能56は、鮮鋭度が所定値以下の場合(S233のYes)、処理をS234に進める。判定機能56は、鮮鋭度が所定値より大きい場合(S233のNo)、処理をS235に進める。
S234において、判定機能56は、撮像装置12のフォーカスが合っていない状態であると判定する。これにより、判定機能56は、フォーカスが合っていないことが、適応化に失敗した要因であるとユーザに知らせることができる。
そして、出力機能58は、撮像装置12のフォーカスが合っていない状態を示す情報を、適応化状態の判定結果として出力する。より具体的には、出力機能58は、適応化が失敗したこと、および、撮像装置12のフォーカスが合っていないために適応化が失敗したことを示す情報を出力する。
例えば、出力機能58は、図17に示すようなユーザインターフェース画像を表示して、適応化が失敗したこと、および、撮像装置12のフォーカスが合っていないことをユーザに通知する。また、この場合、出力機能58は、適応化を成功させるためのどのような処理をすべきかのアドバイスをユーザに通知してもよい。例えば、出力機能58は、フォーカスを調整すべきことをユーザに通知してもよい。S234の処理を終えると、出力機能58は、本フローの処理を終了する。
S235において、判定機能56は、入力画像のうちの少なくとも1つを取得し、コントラストを算出する。判定機能56は、複数の入力画像のコントラストを平均化してもよい。そして、判定機能56は、コントラストが所定値以下であるか否かを判断する。判定機能56は、コントラストが所定値以下の場合(S235のYes)、処理をS236に進める。判定機能56は、コントラストが所定値より大きい場合(S235のNo)、処理をS237に進める。
S236において、判定機能56は、撮像装置12のゲイン、明るさまたはアイリスが合っていない状態であると判定する。これにより、判定機能56は、ゲイン、明るさまたはアイリスが合っていないことが、適応化に失敗した要因であるとユーザに知らせることができる。
そして、出力機能58は、撮像装置12のゲイン、明るさまたはアイリスが合っていない状態を示す情報を、適応化状態の判定結果として出力する。より具体的には、出力機能58は、適応化が失敗したこと、および、撮像装置12のゲイン、明るさまたはアイリスが合っていないために適応化が失敗したことを示す情報を出力する。
例えば、出力機能58は、図18に示すようなユーザインターフェース画像を表示して、適応化が失敗したこと、および、撮像装置12のゲイン、明るさまたはアイリスが合っていないことをユーザに通知する。また、この場合、出力機能58は、適応化を成功させるためのどのような処理をすべきかのアドバイスをユーザに通知してもよい。例えば、出力機能58は、ゲイン、明るさまたはアイリスを調整すべきことをユーザに通知してもよい。S236の処理を終えると、出力機能58は、本フローの処理を終了する。
S237において、判定機能56は、連続する複数の入力画像を取得し、モーションブラーが発生しているか否かを検出する。そして、判定機能56は、モーションブラーが発生しているか否かを判断する。判定機能56は、モーションブラーが発生している場合(S237のYes)、処理をS238に進める。判定機能56は、モーションブラーが発生していない場合(S237のNo)、処理をS239に進める。
S238において、判定機能56は、撮像装置12の露光時間が長い状態であると判定する。これにより、判定機能56は、露光時間が長いことが、適応化に失敗した要因であるとユーザに知らせることができる。
そして、出力機能58は、撮像装置12の露光時間が長い状態であることを示す情報を、適応化状態の判定結果として出力する。より具体的には、出力機能58は、適応化が失敗したこと、および、撮像装置12の露光時間が長いために適応化が失敗したことを示す情報を出力する。
例えば、出力機能58は、図19に示すようなユーザインターフェース画像を表示して、適応化が失敗したこと、および、撮像装置12の露光時間が長いことをユーザに通知する。また、この場合、出力機能58は、適応化を成功させるためのどのような処理をすべきかのアドバイスをユーザに通知してもよい。例えば、出力機能58は、露光時間を短くすべきことをユーザに通知してもよい。S238の処理を終えると、出力機能58は、本フローの処理を終了する。
S239において、判定機能56は、連続する複数の入力画像を取得し、3次元空間における対象物(例えば人)の移動面を推定する。そして、判定機能56は、推定した移動面の消失点が、撮像装置12の光軸より下であるか否かを判断する。判定機能56は、推定した移動面の消失点が、撮像装置12の光軸より下である場合(S239のYes)、処理をS240に進める。判定機能56は、推定した移動面の消失点が、撮像装置12の光軸より下ではない場合(S239のNo)、処理をS241に進める。
撮像装置12により撮像した画像から推定された移動面の消失点が、撮像装置12の光軸より下である場合、移動する対象物の位置を推定することが困難となる。すなわち、撮像装置12の俯角が小さい場合、撮像装置12により撮像された画像から、移動する物体の位置を推定することは困難となる。
そこで、S240において、判定機能56は、撮像装置12の俯角が小さい状態であると判定する。これにより、判定機能56は、撮像装置12の俯角が小さいことが、適応化に失敗した要因であるとユーザに知らせることができる。
そして、出力機能58は、撮像装置12の俯角が小さい状態であることを示す情報を、適応化状態の判定結果として出力する。より具体的には、出力機能58は、適応化が失敗したこと、および、撮像装置12の俯角が小さいために適応化が失敗したことを示す情報を出力する。
例えば、出力機能58は、図20に示すようなユーザインターフェース画像を表示して、適応化が失敗したこと、および、撮像装置12の俯角が小さいことをユーザに通知する。また、この場合、出力機能58は、適応化を成功させるためのどのような処理をすべきかのアドバイスをユーザに通知してもよい。例えば、出力機能58は、撮像装置12の俯角を大きくすべきことをユーザに通知してもよい。S240の処理を終えると、出力機能58は、本フローの処理を終了する。
S241において、判定機能56は、撮像装置12の何れかの設定が悪い状態であると判定する。そして、出力機能58は、撮像装置12の何れかの設定が悪いことを示す情報を、適応化状態の判定結果として出力する。例えば、出力機能58は、適応化が失敗したこと、および、撮像装置12の何れかの設定が悪いことをユーザに通知する。S241の処理を終えると、出力機能58は、本フローの処理を終了する。
以上のように、判定機能56は、適応化に失敗した場合であって、正例データの数が予め定められた第1閾値より大きい、または、第2閾値未満である場合、適応化に用いた画像の品質が悪い状態であることをユーザに通知することができる。これにより、判定機能56によれば、特別な知識を有さないユーザであっても、適切な対応を取って、適応化を成功させることができる。例えば、判定機能56は、対象物が撮像できていない、撮像装置12のフォーカスが合っていない、撮像装置12のゲイン、明るさまたはアイリスが合っていない、撮像装置12の露光時間が合っていない、および、撮像装置12の俯角が小さい等の適応化の失敗要因をユーザに知らせて、ユーザに適切な対応を取らせることができる。
なお、実施形態におけるコンピュータまたは組み込みシステムは、記憶媒体に記憶されたプログラムに基づき、上述した実施形態における各処理を実行するためのものであって、パソコン、マイコン等の1つからなる装置、複数の装置がネットワーク接続されたシステム等の何れの構成であってもよい。また、実施形態におけるコンピュータとは、パソコンに限らず、情報処理機器に含まれる演算処理装置、マイコン等も含み、プログラムによって実施形態における機能を実現することが可能な機器、装置を総称している。
なお、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、請求の範囲に記載された発明とその均等の範囲に含まれる。
10 推定システム
12 撮像装置
20 情報処理装置
22 入力装置
24 表示装置
32 処理回路
34 記憶回路
36 通信部
40 推定モデル
42 対象物推定機能
50 モデル適応化機能
52 取得機能
54 適応化機能
56 判定機能
58 出力機能
62 対象物検出機能
64 抽出機能
66 正例生成機能
68 負例生成機能
70 モデル修正機能
72 正例取得機能
74 推定機能
76 精度算出機能
78 成否判定機能
82 失敗解析機能

Claims (19)

  1. 特定の場所に設置された撮像装置により撮像された複数の入力画像を取得する取得部と、
    前記複数の入力画像に基づき、画像に含まれる対象物を検出するための推定モデルを前記特定の場所に適応させる適応化部と、
    前記推定モデルにおける前記特定の場所に対する適応化状態を判定する判定部と、
    前記適応化状態の判定結果を出力する出力部と、
    を備える情報処理装置。
  2. 前記判定部は、適応化処理を実行後の前記推定モデルを検証して、適応化が成功したか、適応化が失敗したかを判定する
    請求項1に記載の情報処理装置。
  3. 前記適応化部は、
    前記推定モデルを用いた前記対象物の検出処理とは異なる処理により、前記入力画像に含まれる前記対象物を検出する対象物検出部と、
    前記入力画像から前記対象物を含む局所画像を抽出する抽出部と、
    前記局所画像と、前記局所画像に含まれる前記対象物を表す正解情報との組である正例データを複数個生成する正例生成部と、
    複数の前記正例データを用いて、前記推定モデルを前記特定の場所に適応させるモデル修正部と、
    を有する請求項2に記載の情報処理装置。
  4. 前記適応化部は、
    前記対象物を含まない前記局所画像と、前記対象物が存在しないことを表す正解情報との組である負例データを生成する負例生成部と、
    前記モデル修正部は、複数の前記正例データと前記負例データとを用いて前記推定モデルを適応化する
    請求項3に記載の情報処理装置。
  5. 前記判定部は、適応化処理を実行後の前記推定モデルにおける推定精度を前記正例データおよび前記負例データの少なくとも一方を用いて算出し、算出した前記推定精度が所定精度以上である場合には、適応化が成功した状態であると判定し、前記推定精度が前記所定精度より小さい場合には、適応化が失敗した状態であると判定する
    請求項4に記載の情報処理装置。
  6. 前記判定部は、適応化に失敗した場合であって、前記正例データの数が予め定められた第1閾値以下、且つ、前記第1閾値より小さい第2閾値以上である場合、適応化に用いた画像の数が少ない状態であると判定する
    請求項5に記載の情報処理装置。
  7. 前記判定部は、追加して取得すべき前記入力画像の数および追加して取得すべき前記入力画像を撮像するために要する時間の少なくとも一方を算出する
    請求項6に記載の情報処理装置。
  8. 前記判定部は、前記入力画像の数が所定数以下である場合、適応化に用いた前記入力画像の数が少ない状態であると判定する
    請求項6または7に記載の情報処理装置。
  9. 前記判定部は、前記入力画像の数が所定数より大きい場合、適応化に用いた前記局所画像の数が少ない状態であると判定する
    請求項8に記載の情報処理装置。
  10. 前記判定部は、取得した前記入力画像の数と前記局所画像の数との比率に基づき、予め設定された数の前記局所画像を抽出するために必要となる追加して取得すべき前記入力画像の数を算出する
    請求項9に記載の情報処理装置。
  11. 前記判定部は、適応化に失敗した場合であって、前記正例データの数が予め定められた第1閾値より大きく、または、前記第1閾値より小さい第2閾値未満である場合、適応化に用いた画像の品質が悪い状態であると判定する
    請求項5に記載の情報処理装置。
  12. 前記判定部は、前記局所画像の数が所定数以下の場合、前記対象物が撮像できていない状態であると判定する
    請求項11に記載の情報処理装置。
  13. 前記判定部は、前記入力画像の鮮鋭度が所定値以下の場合、前記撮像装置のフォーカスが合っていない状態であると判定する
    請求項11に記載の情報処理装置。
  14. 前記判定部は、前記入力画像のコントラストが所定値以下の場合、前記撮像装置のゲイン、明るさまたはアイリスが合っていない状態であると判定する
    請求項11に記載の情報処理装置。
  15. 前記判定部は、前記入力画像にモーションブラーが発生している場合、前記撮像装置の露光時間が長い状態であると判定する
    請求項11に記載の情報処理装置。
  16. 前記判定部は、前記対象物の移動面の消失点が光軸より下である場合、前記撮像装置の俯角が小さい状態であると判定する
    請求項11に記載の情報処理装置。
  17. 前記出力部は、適応化処理が開始された場合、適応化中であることを示す情報を出力する
    請求項1から16の何れか1項に記載の情報処理装置。
  18. 前記出力部は、適応化処理が開始された場合、適応化が完了するまでの時間を示す情報を出力する
    請求項1から17の何れか1項に記載の情報処理装置。
  19. 特定の場所に設置された撮像装置により撮像された複数の入力画像を取得する取得ステップと、
    前記複数の入力画像に基づき、画像に含まれる対象物を検出するための推定モデルを前記特定の場所に適応させる適応化ステップと、
    前記推定モデルにおける前記特定の場所に対する適応化状態を判定する判定部と、
    前記適応化状態の判定結果を出力する出力ステップと、
    を実行する情報処理方法。
JP2016128319A 2016-06-29 2016-06-29 情報処理装置および情報処理方法 Active JP6633462B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016128319A JP6633462B2 (ja) 2016-06-29 2016-06-29 情報処理装置および情報処理方法
US15/438,873 US10896343B2 (en) 2016-06-29 2017-02-22 Information processing apparatus and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016128319A JP6633462B2 (ja) 2016-06-29 2016-06-29 情報処理装置および情報処理方法

Publications (2)

Publication Number Publication Date
JP2018005357A true JP2018005357A (ja) 2018-01-11
JP6633462B2 JP6633462B2 (ja) 2020-01-22

Family

ID=60806490

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016128319A Active JP6633462B2 (ja) 2016-06-29 2016-06-29 情報処理装置および情報処理方法

Country Status (2)

Country Link
US (1) US10896343B2 (ja)
JP (1) JP6633462B2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020067905A (ja) * 2018-10-25 2020-04-30 キヤノン株式会社 検知装置およびその制御方法
JPWO2020202572A1 (ja) * 2019-04-05 2020-10-08
JP2020188449A (ja) * 2019-05-10 2020-11-19 Awl株式会社 画像分析プログラム、情報処理端末、及び画像分析システム
JP2021039625A (ja) * 2019-09-04 2021-03-11 株式会社東芝 物体数推定装置、物体数推定方法、および物体数推定プログラム
JP2021149961A (ja) * 2020-03-23 2021-09-27 ベイジン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッド 情報処理方法及び情報処理装置

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7255753B2 (ja) 2019-06-14 2023-04-11 日本電気株式会社 転移学習装置、転移学習システム、転移学習の方法、およびプログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004334814A (ja) * 2003-05-07 2004-11-25 Susumu Shiroyama モノクロ画像のカラー化手法、装置、プログラム
JP2011253528A (ja) * 2010-06-01 2011-12-15 Mitsubishi Electric Research Laboratories Inc 識別器を特定のシーン内のオブジェクトを検出するように適応させるためのシステム及び方法

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070230792A1 (en) * 2004-04-08 2007-10-04 Mobileye Technologies Ltd. Pedestrian Detection
US7467118B2 (en) * 2006-01-12 2008-12-16 Entelos Inc. Adjusted sparse linear programming method for classifying multi-dimensional biological data
US8015132B2 (en) * 2008-05-16 2011-09-06 Samsung Electronics Co., Ltd. System and method for object detection and classification with multiple threshold adaptive boosting
US9053391B2 (en) * 2011-04-12 2015-06-09 Sharp Laboratories Of America, Inc. Supervised and semi-supervised online boosting algorithm in machine learning framework
US9730643B2 (en) * 2013-10-17 2017-08-15 Siemens Healthcare Gmbh Method and system for anatomical object detection using marginal space deep neural networks
JP2015087973A (ja) 2013-10-31 2015-05-07 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation 生成装置、生成方法、およびプログラム
JP6203077B2 (ja) * 2014-02-21 2017-09-27 株式会社東芝 学習装置、密度計測装置、学習方法、学習プログラム、及び密度計測システム
US10482389B2 (en) * 2014-12-04 2019-11-19 Sap Se Parallel development and deployment for machine learning models
US9449260B2 (en) * 2015-02-19 2016-09-20 Blackberry Limited Constructing and using support vector machines
JP6563215B2 (ja) 2015-02-27 2019-08-21 日機装株式会社 医療用装置
CN105938558B (zh) * 2015-03-06 2021-02-09 松下知识产权经营株式会社 学习方法
US9904849B2 (en) * 2015-08-26 2018-02-27 Digitalglobe, Inc. System for simplified generation of systems for broad area geospatial object detection
CN106874921B (zh) * 2015-12-11 2020-12-04 清华大学 图像分类方法和装置
JP6622150B2 (ja) 2016-06-29 2019-12-18 株式会社東芝 情報処理装置および情報処理方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004334814A (ja) * 2003-05-07 2004-11-25 Susumu Shiroyama モノクロ画像のカラー化手法、装置、プログラム
JP2011253528A (ja) * 2010-06-01 2011-12-15 Mitsubishi Electric Research Laboratories Inc 識別器を特定のシーン内のオブジェクトを検出するように適応させるためのシステム及び方法

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020067905A (ja) * 2018-10-25 2020-04-30 キヤノン株式会社 検知装置およびその制御方法
JP7204421B2 (ja) 2018-10-25 2023-01-16 キヤノン株式会社 検知装置およびその制御方法
JPWO2020202572A1 (ja) * 2019-04-05 2020-10-08
WO2020202572A1 (ja) * 2019-04-05 2020-10-08 日本電気株式会社 画像処理システム、推定装置、処理方法及びプログラム
JP7124957B2 (ja) 2019-04-05 2022-08-24 日本電気株式会社 画像処理システム、推定装置、処理方法及びプログラム
JP2020188449A (ja) * 2019-05-10 2020-11-19 Awl株式会社 画像分析プログラム、情報処理端末、及び画像分析システム
JP2021039625A (ja) * 2019-09-04 2021-03-11 株式会社東芝 物体数推定装置、物体数推定方法、および物体数推定プログラム
JP7118934B2 (ja) 2019-09-04 2022-08-16 株式会社東芝 物体数推定装置、物体数推定方法、および物体数推定プログラム
JP2021149961A (ja) * 2020-03-23 2021-09-27 ベイジン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッド 情報処理方法及び情報処理装置
JP7311544B2 (ja) 2020-03-23 2023-07-19 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド 情報処理方法及び情報処理装置

Also Published As

Publication number Publication date
US10896343B2 (en) 2021-01-19
JP6633462B2 (ja) 2020-01-22
US20180005069A1 (en) 2018-01-04

Similar Documents

Publication Publication Date Title
JP6633462B2 (ja) 情報処理装置および情報処理方法
JP6942488B2 (ja) 画像処理装置、画像処理システム、画像処理方法、及びプログラム
CN111862296B (zh) 三维重建方法及装置、系统、模型训练方法、存储介质
WO2017152794A1 (en) Method and device for target tracking
JP6577454B2 (ja) 軸上視線追跡システム及び方法
JP4093273B2 (ja) 特徴点検出装置、特徴点検出方法および特徴点検出プログラム
US9245168B2 (en) Authentication apparatus, authentication program, and authentication method
US20100208038A1 (en) Method and system for gesture recognition
US20190188460A1 (en) Method and device for use in hand gesture recognition
JP5166102B2 (ja) 画像処理装置及びその方法
JP6187817B2 (ja) 顔検出装置、方法およびプログラム
JP2007257043A (ja) 乗員状態推定装置および乗員状態推定方法
JPWO2018078857A1 (ja) 視線推定装置、視線推定方法及びプログラム記録媒体
JP4537143B2 (ja) 画像処理装置及びその方法、撮像装置、プログラム
JP6922821B2 (ja) 画像解析装置、方法およびプログラム
US20190266392A1 (en) Image processing apparatus, image processing method, and storage medium
JP2017084065A (ja) なりすまし検出装置
EP3699865B1 (en) Three-dimensional face shape derivation device, three-dimensional face shape deriving method, and non-transitory computer readable medium
US11763601B2 (en) Techniques for detecting a three-dimensional face in facial recognition
JP2018005405A (ja) 情報処理装置および情報処理方法
JP2020035290A (ja) 検出器生成装置、モニタリング装置、検出器生成方法及び検出器生成プログラム
JP5677234B2 (ja) エッジ検出装置およびそのプログラム
US20220054006A1 (en) Using infrared to detect proper eye alignment before capturing retinal images
JP5643147B2 (ja) 動きベクトル検出装置、動きベクトル検出方法及び動きベクトル検出プログラム
JP3811474B2 (ja) 顔部品位置検出方法及び顔部品位置検出装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180904

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190725

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190730

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190913

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191112

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191212

R151 Written notification of patent or utility model registration

Ref document number: 6633462

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151