JP2018005405A - 情報処理装置および情報処理方法 - Google Patents

情報処理装置および情報処理方法 Download PDF

Info

Publication number
JP2018005405A
JP2018005405A JP2016129001A JP2016129001A JP2018005405A JP 2018005405 A JP2018005405 A JP 2018005405A JP 2016129001 A JP2016129001 A JP 2016129001A JP 2016129001 A JP2016129001 A JP 2016129001A JP 2018005405 A JP2018005405 A JP 2018005405A
Authority
JP
Japan
Prior art keywords
estimation
image
function
adaptation
estimation model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016129001A
Other languages
English (en)
Other versions
JP6622150B2 (ja
Inventor
ヴェトクォク ファン
Viet Quoc Pham
ヴェトクォク ファン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2016129001A priority Critical patent/JP6622150B2/ja
Priority to US15/439,283 priority patent/US10395139B2/en
Publication of JP2018005405A publication Critical patent/JP2018005405A/ja
Application granted granted Critical
Publication of JP6622150B2 publication Critical patent/JP6622150B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/40Software arrangements specially adapted for pattern recognition, e.g. user interfaces or toolboxes therefor
    • G06F18/41Interactive pattern learning with a human teacher
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/77Determining position or orientation of objects or cameras using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/778Active pattern-learning, e.g. online learning of image or video features
    • G06V10/7784Active pattern-learning, e.g. online learning of image or video features based on feedback from supervisors
    • G06V10/7788Active pattern-learning, e.g. online learning of image or video features based on feedback from supervisors the supervisor being a human, e.g. interactive learning with a human teacher
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20072Graph-based image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30242Counting objects in image

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Probability & Statistics with Applications (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Human Computer Interaction (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

【課題】推定モデルを特定の場所に効率良く適応させる。
【解決手段】実施形態に係る情報処理装置は、画像取得部と、適応化部と、終了条件取得部と、終了制御部とを備える。画像取得部は、特定の場所に設置された撮像装置により撮像された入力画像を取得する。適応化部は、推定モデルのパラメータを下位層から上位層に向かい順次に選択し、選択したパラメータを入力画像に含まれる対象物の位置または数の推定誤差を小さくするように修正することにより、画像に含まれる対象物の位置または数を検出するための推定モデルを特定の場所に適応させる適応化処理を実行する。終了条件取得部は、適応化処理の終了条件を取得する。終了制御部は、終了条件を満たした場合に、適応化処理を終了させる。
【選択図】図4

Description

本発明の実施形態は、情報処理装置および情報処理方法に関する。
汎用環境の学習用データを用いて機械学習した回帰モデルである推定モデルを、特定の環境下に適応させる適応化装置が知られている。例えば、画像に含まれる人の数を推定する汎用の推定モデルを、駅の通路等を撮像した画像から通行者の数を推定する推定システムに適応させる場合、適応化装置は、駅の通路等に設置された撮像装置により撮像された画像を用いて、汎用の推定モデルを修正する。このような適応化技術は、例えば、ドメインアダプテーション、転移学習またはノウレッジトランスファー等と呼ばれる。
ところで、適応化装置は、汎用の推定モデルを特定の環境化に適応させる場合、推定モデルに含まれるパラメータを修正する。しかし、推定モデルは、数多くのパラメータを含む。従って、適応化装置は、非常に多くの時間および演算量コストをかけて、それらのパラメータを適切に調整しなければならなかった。
特開2015−87973号公報 特開2015−158712号公報
Shaoqing Ren, Xudong Cao, Yichen Wei, Jian Sun, "Global Refinement of Random Forest",IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2015, pp 723-730
発明が解決しようとする課題は、推定モデルを特定の場所に効率良く適応させることにある。
実施形態に係る情報処理装置は、画像取得部と、適応化部と、終了条件取得部と、終了制御部とを備える。前記画像取得部は、特定の場所に設置された撮像装置により撮像された入力画像を取得する。前記適応化部は、前記推定モデルのパラメータを下位層から上位層に向かい順次に選択し、選択したパラメータを前記入力画像に含まれる前記対象物の位置または数の推定誤差を小さくするように修正することにより、画像に含まれる対象物の位置または数を推定するための推定モデルを前記特定の場所に適応させる適応化処理を実行する。前記終了条件取得部は、前記適応化処理の終了条件を取得する。前記終了制御部は、前記終了条件を満たした場合に、前記適応化処理を終了させる。
実施形態に係る推定システムを示す図。 推定システムにおける処理手順を示すフローチャート。 推定モデルの一例を示す図。 モデル適応化機能の構成の一例を示す図。 モデル適応化機能による処理手順を示すフローチャート。 撮像画像を分割して生成した複数の入力画像の一例を示す図。 正解情報の入力画面の一例を示す図。 終了条件の入力画面の一例を示す図。 適応化処理の処理手順を示すフローチャート。 推定処理の手順の一例を示すフローチャート。 入力画像の一例を示す図。 入力画像から抽出された複数の局所画像の一例を示す図。 1つの局所画像の一例を示す図。 末端のノードにラベルが割り当てられた推定モデルを示す図。 局所画像中における人の位置を示すベクトル情報を示す図。 推定モデルにより分類されるラベルの一例を示す図。 局所画像の密度マップの一例を示す図。 入力画像の全体の密度マップの一例を示す図。
以下、図面を参照しながら本実施形態に係る推定システム10について説明する。なお、以下の実施形態では、同一の参照符号を付した部分は略同一の構成および動作をするので、相違点を除き重複する説明を適宜省略する。
図1は、実施形態に係る推定システム10を示す図である。推定システム10は、対象物を撮像した画像に基づき、対象物の位置または数を推定する。本実施形態において、対象物は、人である。本実施形態において、推定システム10は、駅等における特定の位置から撮像した画像に含まれる人の位置または数を推定する。なお、対象物は、人に限らず、例えば車両または微生物等であってもよい。
推定システム10は、撮像装置12と、情報処理装置20と、入力装置22と、表示装置24とを備える。
撮像装置12は、対象物が通過または滞在する所定空間を撮像可能な特定の場所に設置される。撮像装置12は、特定の場所から所定空間を撮像する。例えば、対象物が人である場合、撮像装置12は、駅等の人が移動する移動面を、上方から所定の角度で撮像する。撮像装置12は、所定のフレームレートで画像を撮像し、撮像して得られたそれぞれの画像を情報処理装置20に与える。撮像装置12が撮像した画像は、可視光画像、赤外線画像、距離画像等の種々の画像であってよい。
情報処理装置20は、撮像装置12が撮像した画像を用いた種々の画像処理を行い、撮像装置12が撮像した画像を分割した複数の入力画像のそれぞれについて、入力画像に含まれる対象物の位置または数を推定する。対象物が人である場合、情報処理装置20は、入力画像に含まれる人の位置または数を推定する。情報処理装置20は、例えば、専用または汎用コンピュータである。情報処理装置20は、PC、あるいは、画像を保存および管理するサーバに含まれるコンピュータであってもよい。
情報処理装置20は、処理回路32、記憶回路34、通信部36、各部を接続するバス30を備える。情報処理装置20は、例えば、バス30を介して撮像装置12と接続される。
処理回路32は、対象物推定機能42と、モデル適応化機能50とを有する。モデル適応化機能50は、画像取得機能52と、正解取得機能54と、適応化機能56と、終了条件取得機能58と、終了制御機能60とを含む。これらの各処理機能は、後述する。
情報処理装置20にて行われる各処理機能は、コンピュータによって実行可能なプログラムの形態で記憶回路34へ記憶されている。処理回路32は、プログラムを記憶回路34から読み出し、実行することで各プログラムに対応する機能を実現するプロセッサである。各プログラムを読み出した状態の処理回路32は、図1の処理回路32内に示された各機能を有することになる。なお、図1においては単一の処理回路32にて、対象物推定機能42およびモデル適応化機能50にて行われる処理機能が実現されるものとして説明したが、複数の独立したプロセッサを組み合わせて処理回路32を構成し、各プロセッサがプログラムを実行することにより機能を実現するものとしても構わない。各処理機能がプログラムとして構成され、1つの回路が各プログラムを実行する場合であってもよいし、特定の機能が専用の独立したプログラム実行回路に実装される場合であってもよい。
なお、処理回路32の有する対象物推定機能42は、推定装置の一例である。また、処理回路32の有するモデル適応化機能50は、適応化装置の一例である。また、画像取得機能52、正解取得機能54、適応化機能56、終了条件取得機能58および終了制御機能60は、それぞれ、画像取得部、正解取得部、適応化部、終了条件取得部および終了制御部の一例である。
上記説明において用いた「プロセッサ」という文言は、例えば、CPU(Central Processing Unit)、GPU(Graphical Processing Unit)或いは、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)、プログラマブル論理デバイス(例えば、単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)、複合プログラマブル論理デバイス(Complex Programmable Logic Device:CPLD)およびフィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA))の回路を意味する。プロセッサは、記憶回路34に保存されたプログラムを読み出し実行することで機能を実現する。なお、記憶回路34にプログラムを保存する代わりに、プロセッサの回路内にプログラムを直接組み込むよう構成しても構わない。この場合、プロセッサは回路内に組み込まれたプログラムを読み出し実行することで機能を実現する。
記憶回路34は、処理回路32が行う各処理機能に伴うデータ等を必要に応じて記憶する。また、記憶回路34は、処理回路32により実行されるプログラムを記憶する。
また、本実施形態に係る記憶回路34は、対象物の位置または数の推定に用いられる回帰モデルである推定モデル40を記憶する。さらに、本実施形態に係る記憶回路34は、撮像装置12により撮像された画像を記憶する。また、本実施形態に係る記憶回路34は、推定処理および推定モデル40の適応化処理に用いられる各種の設定値、および、ユーザインターフェース画像等を記憶する。本実施形態に係る記憶回路34は、推定処理および推定モデル40の適応化処理の過程において生成した各種のデータを記憶する。また、本実施形態に係る記憶回路34は、入力画像に含まれる対象物(例えば人)の位置または数を示す正解情報を記憶してもよい。
例えば、記憶回路34は、RAM(Random Access Memory)、フラッシュメモリ等の半導体メモリ素子、ハードディスク、光ディスク等である。また、記憶回路34が行う処理は、情報処理装置20の外部の記憶装置で代替されてもよい。記憶回路34は、LAN(Local Area Network)やインターネット等により伝達されたプログラムをダウンロードして記憶または一時記憶した記憶媒体であってもよい。また、記憶媒体は1つに限られず、複数の媒体から、上述した実施形態における処理が実行される場合も、実施形態における記憶媒体に含まれ、媒体の構成は何れの構成であってもよい。
通信部36は、有線または無線で接続された外部装置と情報の入出力を行うインターフェースである。通信部36は、ネットワークに接続して通信を行ってもよい。
入力装置22は、操作者からの各種指示や情報入力を受け付ける。入力装置22は、例えば、マウスまたはトラックボール等のポインティングデバイス、あるいはキーボード等の入力デバイスである。本実施形態に係る入力装置22は、入力画像に含まれる人の位置または数の正解情報を、ユーザの操作に応じて取得してもよい。
表示装置24は、画像データ等の各種の情報を表示する。表示装置24は、例えば、液晶表示器等の表示デバイスである。本実施形態に係る表示装置24は、入力画像に含まれる対象物の位置または数の正解情報の入力を、ユーザに促してもよい。
本実施形態の入力装置22、表示装置24は、有線または無線で情報処理装置20に接続している。入力装置22、表示装置24は、ネットワークを介して情報処理装置20と接続してもよい。
図2は、実施形態に係る推定システム10における処理手順を示すフローチャートである。
まず、S111において、情報処理装置20は、汎用の推定モデル40を導入する。具体的には、情報処理装置20は、ネットワークまたはメディア等を介して汎用の推定モデル40を取得して、処理回路32により参照可能なように記憶回路34に記憶させる。
汎用の推定モデル40は、汎用の環境下で撮像された学習用サンプル(画像および正解情報)を用いて機械学習した知識データである。すなわち、汎用の推定モデル40は、複数の条件をカバーする大量のサンプル(画像および正解情報)から機械学習した知識データである。
続いて、S112において、情報処理装置20は、導入された汎用の推定モデル40を、特定の場所に適応させる。例えば、情報処理装置20は、ユーザによる適応化開始指示に応じて、処理回路32が有するモデル適応化機能50の動作を開始させる。モデル適応化機能50は、特定の場所に設置された撮像装置12により撮像された画像に基づき、推定モデル40を特定の場所に適応させるべく、推定モデル40を修正する。つまり、情報処理装置20は、推定モデル40を特定の場所に調整する。これにより、情報処理装置20は、推定モデル40により、特定の場所に設置された撮像装置12により撮像された画像から対象物の位置または数を推定した場合に、推定誤差を小さくすることができる。
推定モデル40の適応化が成功した場合、S113において、適応化後の推定モデル40を用いた推定処理を開始する。例えば、情報処理装置20は、ユーザによる推定開始指示に応じて、処理回路32が有する対象物推定機能42の動作を開始させる。対象物推定機能42は、適応化後の推定モデル40を用いて、撮像装置12により撮像された画像から対象物の位置または数を推定する。
ここで、本実施形態において、対象物推定機能42は、例えば特許文献2に示したような、群衆解析技術を用いて画像に含まれる対象物の位置または数を推定する。なお、対象物推定機能42における推定処理については、図10以降を参照して後述する。
図3は、推定モデル40の一例を示す図である。推定モデル40は、与えられた変量に応じた応答を得るための回帰モデルである。本実施形態において、推定モデル40は、画像に含まれる対象物の位置または数を検出するための階層型の回帰モデルである。
例えば、推定モデル40は、ランダムフォレストである。ランダムフォレストは、複数のノードを有する。複数のノードは、リンクにより木構造に接続される。また、複数のノードのそれぞれには、パラメータが割り当てられている。パラメータは、与えられた変量を分類するための情報である。また、末端のノードには、ラベルが割り当てられている。ラベルは、変量が与えられた場合の応答として出力される。
図3において、Wa,bは、パラメータを表す。aは、そのパラメータが割り当てられているノードの階層を表す。aは、自然数であって、値が小さい方が上位階層を表す。bは、自然数であって、同一階層中のノードを識別するインデックスを表す。また、図3において、Lは、ラベルを表す。cは、自然数であって、末端のノードを識別するインデックスを表す。
例えば、推定モデル40は、変量xが与えられた場合、何らかの応答yを出力する。具体的には、推定モデル40は、変量xが与えられた場合、最上位ノードから下位層に向かい、ノードを辿る。この場合、推定モデル40は、それぞれのノードにおいて、変量xを、割り当てられたパラメータWa,bに示された条件で分類することにより、次の階層のノードを選択する。例えば、図3の例においては、推定モデル40は、最上位のノードにおいて、変量xをパラメータW1,1によって分類し、分類結果に基づき第2階層の2つのノードのうちの何れか一方のノードを選択する。そして、推定モデル40は、末端のノードまで辿りつくと、その末端のノードに割り当てられたラベルLを、変量xに対応する応答yとして出力する。
このような階層構造の推定モデル40は、応答yに与える影響度が、下位層のノードに割り当てられたパラメータよりも、上位層のノードに割り当てられたパラメータの方が大きい。例えば、図3の例であれば、パラメータW2,1は、パラメータW3,1よりも上位のノードに割り当てられている。パラメータW3,1は、ラベルLおよびラベルLを出力する場合に、影響を与える。これに対して、パラメータW2,1は、ラベルL1、ラベルLおよびラベルLを出力する場合に、影響を与える。従って、パラメータW2,1は、パラメータW3,1よりも応答に与える影響度が大きい。
本実施形態において、推定モデル40は、変量xとして、所定の形状および所定の大きさの局所画像を表す複数種類の特徴量が与えられる。推定モデル40のそれぞれのノードには、局所画像を表す複数種類の特徴量に応じて、その局所画像を分類するためのパラメータが割り当てられている。例えば、パラメータは、何れかの特徴量を分類する閾値である。
そして、末端のノードには、ラベルLが割り当てられている。ラベルLは、局所画像に含まれる対象物の位置を表すベクトル情報を識別する。このような推定モデル40は、局所画像を表す複数の特徴量を変量xとして受け取り、局所画像における対象物の位置を表すベクトル情報を応答yとして出力する。対象物推定機能42は、この推定モデル40を用いて、撮像装置12により撮像した画像から、その画像に含まれる対象物の位置または数を推定する。
なお、本実施形態において、推定モデル40は、ランダムフォレストである。しかし、推定モデル40は、階層型であれば、どのようなモデルであってもよい。
図4は、モデル適応化機能50の構成の一例を示す図である。モデル適応化機能50は、画像取得機能52と、正解取得機能54と、適応化機能56と、終了条件取得機能58と、終了制御機能60とを有する。
画像取得機能52は、特定の場所に設置された撮像装置12により撮像された撮像画像を取得する。画像取得機能52は、例えば、複数の撮像画像を取得する。画像取得機能52は、予め保存されている複数の撮像画像を記憶回路34から取得してもよいし、撮像処理中の撮像装置12から複数の撮像画像を取得してもよい。画像取得機能52は、取得した撮像画像を所定の大きさおよび形状の複数の入力画像に分割する。
正解取得機能54は、画像取得機能52が取得した複数の入力画像のそれぞれについて、含まれる対象物の位置または数を示す正解情報を取得する。正解取得機能54は、正解情報を記憶回路34から取得してもよい。また、正解取得機能54は、入力装置22および表示装置24を介して、ユーザにより入力された正解情報を取得してもよい。これにより、正解取得機能54は、正確な正解情報を取得することができる。また、正解取得機能54は、推定モデル40を用いた推定処理とは異なる人検出処理(例えば、顔検出処理等)により検出された正解情報を取得してもよい。これにより、正解取得機能54は、ユーザの入力を受けずに正解情報を取得することができる。
適応化機能56は、画像取得機能52が取得した複数の入力画像に基づき、記憶回路34に記憶された推定モデル40を特定の場所に適応させる適応化処理を実行する。つまり、情報処理装置20は、複数の入力画像に基づき、推定モデル40を特定の場所に調整する。これにより、情報処理装置20は、推定モデル40により、特定の場所に設置された撮像装置12により撮像された画像から対象物の位置または数を推定した場合に、推定誤差を小さくすることができる。
より具体的には、適応化機能56は、推定モデル40のパラメータを下位層から上位層に向かい順次に1つずつ選択する。そして、適応化機能56は、入力画像に含まれる対象物の位置または数の推定誤差を小さくするように、選択したパラメータを修正することにより適応化処理を実行する。また、例えば、複数の入力画像を取得した場合には、適応化機能56は、複数の入力画像に含まれる対象物の位置または数の合計の推定誤差を小さくするように、選択したパラメータを修正する。
終了条件取得機能58は、適応化機能56による適応化処理の終了条件を取得する。終了条件取得機能58は、予め保存されている終了条件を記憶回路34から取得してよい。また、終了条件取得機能58は、入力装置22および表示装置24を介してユーザにより入力された終了条件を取得する。これにより、終了条件取得機能58は、ユーザが希望する終了条件を取得することができる。
例えば、終了条件は、推定誤差の値であってよい。また、例えば、終了条件は、適応化処理を開始してからの経過時間であってよい。また、終了条件は、推定誤差の値および適応化処理を開始してからの経過時間の両者であってもよい。
終了制御機能60は、終了条件を満たした場合に、適応化機能56による適応化処理を終了させる。より具体的には、終了制御機能60は、適応化機能56がパラメータを下位層から上位層に向かい順次に選択しながらパラメータを修正している途中において、終了条件を満たした場合、パラメータの選択および修正を終了させる。
例えば、終了条件が推定誤差の値である場合、終了制御機能60は、推定誤差が取得した値以下となったことに応じて適応化処理を終了させる。また、例えば、終了条件が適応化処理を開始してからの経過時間である場合、終了制御機能60は、適応化処理を開始してから、取得した経過時間を超えたことに応じて、適応化処理を終了させる。また、例えば、終了条件が、推定誤差の値および経過時間の両者である場合、終了制御機能60は、推定誤差が取得した値以下となったこと、または、適応化処理を開始してから経過時間を超えたことに応じて、適応化処理を終了させる。
適応化機能56は、パラメータ選択機能72と、推定機能74と、誤差算出機能76と、探索機能78と、モデル修正機能80とを含む。パラメータ選択機能72、推定機能74、誤差算出機能76、探索機能78およびモデル修正機能80は、それぞれ、パラメータ選択部、推定部、誤差算出部、探索部およびモデル修正部の一例である。
パラメータ選択機能72は、推定モデル40のパラメータを、下位層から上位層に向かい順次に1つずつ選択する。例えば、パラメータ選択機能72は、同一階層に複数のパラメータが存在する場合、同一階層の複数のパラメータの中からランダムに1つのパラメータを選択してもよい。また、この場合、例えば、パラメータ選択機能72は、同一階層の複数のパラメータの中から、予め定められたインデックスの順に1つのパラメータを選択してもよい。
推定機能74は、画像取得機能52が取得したそれぞれの入力画像を受け取る。推定機能74は、それぞれの入力画像に含まれる対象物の位置または数を、推定モデル40を用いて推定する。推定機能74は、パラメータ選択機能72により選択されたパラメータの値が、探索機能78により変更される。推定機能74は、選択されたパラメータの値が変更される毎に、選択されたパラメータの値が変更された推定モデル40を用いて、それぞれの入力画像に含まれる対象物の位置または数を推定する。そして、推定機能74は、それぞれの入力画像についての推定結果を誤差算出機能76に与える。
誤差算出機能76は、それぞれの入力画像に含まれる対象物の位置または数の正解情報を、正解取得機能54から受け取る。また、誤差算出機能76は、推定機能74により推定された、それぞれの入力画像に含まれる対象物の位置または数の推定結果を受け取る。誤差算出機能76は、それぞれの入力画像について、推定結果と正解情報とに基づき推定誤差を算出する。誤差算出機能76は、それぞれの入力画像についての推定誤差を探索機能78に与える。
探索機能78は、推定機能74に対して、パラメータ選択機能72により選択されたパラメータの値の変更を指示する。そして、探索機能78は、選択されたパラメータの値の変更を指示する毎に、推定機能74に、それぞれの入力画像に含まれる対象物の位置または数を推定させる。
探索機能78は、選択されたパラメータの値の変更を指示したことに応じて、それぞれの入力画像についての推定誤差を誤差算出機能76から受け取る。そして、探索機能78は、選択されたパラメータについて、取得した複数の入力画像の合計の推定誤差が最小となるような値を特定する。
例えば、探索機能78は、推定機能74に対して、パラメータ選択機能72により選択されたパラメータについて、とり得る範囲の値を所定間隔で変更することを指示する。この場合、推定機能74は、選択されたパラメータの値を、とり得る範囲で所定間隔で変更して、それぞれの入力画像に含まれる対象物の位置または数の推定結果を出力する。そして、探索機能78は、選択されたパラメータについて、取り得る範囲の値の中から、取得した複数の入力画像の合計の推定誤差が最小となるような値を特定する。
なお、探索機能78は、選択されたパラメータについて、取得した複数の入力画像の合計の推定誤差が変更前よりも少なくとも小さくなるような値を特定してもよい。
モデル修正機能80は、選択されたパラメータについて、複数の入力画像の合計の推定誤差が最小または変更前より少なくとも小さくなるような値が特定された場合、推定モデル40における選択されたパラメータの値を修正する。そして、モデル修正機能80は、パラメータの値を修正した後、パラメータ選択機能72に次のパラメータを選択させる。
ここで、パラメータ選択機能72は、終了制御機能60から終了指示を受け取る。パラメータ選択機能72は、終了指示を受け取った場合、パラメータの選択処理を終了する。パラメータの選択処理を終了すると、適応化機能56は、推定モデル40のパラメータの修正処理を終了する。このように、適応化機能56は、パラメータを下位層から上位層に向かい順次に選択しながらパラメータを修正している途中において、終了条件を満たした場合、パラメータの選択および修正を終了することができる。
図5は、モデル適応化機能50による処理手順を示すフローチャートである。モデル適応化機能50は、汎用の推定モデル40を、特定の場所に適応させる場合、図5に示す処理を実行する。
まず、S141において、画像取得機能52は、撮像装置12により撮像された所定数の撮像画像を取得する。続いて、S142において、画像取得機能52は、撮像装置12により撮像された撮像画像を予め定められた大きさの複数の入力画像に分割する。例えば、画像取得機能52は、例えば、図6に示すように、1つの撮像画像を4分割して、同一の大きさの4つの入力画像を生成する。
続いて、S143において、正解取得機能54は、それぞれの入力画像について正解情報を取得する。例えば、正解取得機能54は、図7に示すように、入力画像を表示して、それぞれの入力画像について、対象物(例えば人)の位置または数の正解情報をユーザに入力させる。正解取得機能54は、例えば、入力画像毎にボックスを表示し、ボックスに入力された数値を対象物の数の正解情報としてもよい。また、正解取得機能54は、ユーザに入力画像上の対象物をポイントさせて、ポイント位置を対象物の位置の正解情報としてもよい。
続いて、S144において、画像取得機能52は、複数の入力画像のうち、対象物の位置または数の推定結果と、正解情報との誤差が予め定められた値以上となる入力画像を、適応化処理に用いる入力画像として選択する。この場合、例えば、画像取得機能52は、それぞれの入力画像について、対象物推定機能42により推定モデル40を用いて対象物の位置または数を推定させて、推定結果を取得してもよい。これにより、画像取得機能52は、複数の入力画像のうち、推定結果の誤差を小さくすべき入力画像を用いて適応化処理を実行させることができる。
なお、画像取得機能52は、S144の処理を実行しなくてもよい。すなわち、画像取得機能52は、S142で取得した全ての入力画像を用いて適応化処理を実行させてもよい。
続いて、S145において、終了条件取得機能58は、適応化処理の終了条件を取得する。例えば、終了条件取得機能58は、図8に示すようなインターフェース画像を表示して、ユーザにより入力された推定誤差の値または経過時間を終了条件として取得してよい。また、終了条件取得機能58は、予め保存されている終了条件を記憶回路34から取得してもよい。
続いて、S146において、適応化機能56は、推定モデル40を特定の場所に適応させる適応化処理を実行する。より具体的には、適応化機能56は、推定モデル40のパラメータを下位層から上位層に向かい順次に1つずつ選択する。そして、適応化機能56は、選択したパラメータを、複数の入力画像に含まれる対象物の位置または数の推定誤差を小さくするように修正する。
なお、S146において、終了制御機能60は、終了条件を満たした場合に、適応化機能56による適応化処理を終了させる。例えば、終了条件が推定誤差の値である場合、終了制御機能60は、推定誤差が取得した値以下となった場合に、適応化処理を終了させる。また、例えば、終了条件が適応化処理を開始してからの経過時間である場合、終了制御機能60は、適応化処理を開始してから、取得した経過時間を超えた場合に、適応化処理を終了させる。
続いて、S147において、画像取得機能52は、全ての撮像画像について処理を終えたか否かを判断する。全ての撮像画像について処理を終えていない場合(S147のNo)、画像取得機能52は、処理をS141に戻して、S141から処理を繰り返す。全ての撮像画像について処理を終えた場合(S147のYes)、本フローを終了する。
図9は、S146の適応化処理の処理手順を示すフローチャートである。適応化機能56および終了制御機能60は、図5のS146において、図9に示す処理を実行する。
まず、S151において、適応化機能56は、推定モデル40の中から1つのパラメータWを選択する。この場合、適応化機能56は、未選択のパラメータのうち、最下層のパラメータWを選択する。なお、同一階層に未選択の複数のパラメータが存在する場合、適応化機能56は、同一階層に複数のパラメータの中からランダムに1つのパラメータを選択してもよいし、例えばインデックスの順に1つのパラメータを選択してもよい。
続いて、S152において、適応化機能56は、選択したパラメータWについて、推定誤差が最も小さくなる値を探索して特定する。
例えば、画像取得機能52が、n個(nは自然数)の入力画像{R,R,…,R}を選択したとする。また、正解取得機能54が、n個の入力画像{R,R,…,R}のそれぞれに対応するn個の正解情報{T,T,…,T}を取得したとする。
また、現在の推定モデル40に含まれるパラメータ群を{W,W,…,W}とする。また、現在の推定モデル40を用いて推定された入力画像Rに含まれる対象物の推定結果が、E(W,W,…,W)であるとする。iは、1以上n以下の自然数である。
この場合、推定誤差D(W,W,…,W)は、下記の式(1)のように表される。
D(W,W,…,W)=Σ(|E(W,W,…,W)−T|)…(1)
なお、式(1)において、|E(W,W,…,W)−T|は、対象物(例えば人)の位置を推定する場合であれば、距離を表し、対象物(例えば人)の数を推定する場合であれば、差の絶対値を表す。また、式(1)において、Σ(x)は、iを1からnまで1ずつ変化させた場合のxの合計値を表す。
適応化機能56は、j番目のパラメータWを選択した場合(jは、1からmまでの何れかの自然数)、パラメータWがとり得る値の中から、式(1)で示したD(W,…,W,…,W)が最も小さくなるようなパラメータWの値を探索する。これにより、適応化機能56は、選択したパラメータWについて、推定誤差が最小となる値を特定することができる。
続いて、S153において、適応化機能56は、推定モデル40における、選択したパラメータWを特定した値に修正する。
続いて、S154において、終了制御機能60は、終了条件を満たしているか否かを判断する。終了条件を満たしていない場合(S154のNo)、終了制御機能60は、処理をS151に戻して、適応化機能56に次のパラメータを選択させて、選択したパラメータを修正させる。また、終了条件を満たしている場合(S154のYes)、終了制御機能60は、本フローを終了して、処理を図5のフローに戻す。
(効果)
以上のように本実施形態に係るモデル適応化機能50は、推定モデル40を、撮像装置12が設置されている特定の場所に適応させる場合、推定モデル40のパラメータを下位層から順に選択して修正する。これにより、モデル適応化機能50によれば、他のパラメータの調整結果に与える影響が少ないパラメータから順に調整することができる。
例えば、推定モデル40における、互いに最下層のノードに割り当てられている第1のパラメータおよび第2のパラメータを調整することを考える。まず、第1のパラメータを推定誤差が最小になるように調整する。その後、第2のパラメータを推定誤差が最小になるように調整する。この場合、第2のパラメータを調整した後も、推定誤差が最小となる第1のパラメータの値は変化しない。従って、このような手順でパラメータを調整した場合、再度、第1のパラメータの調整をする必要が無くなる。このため、モデル適応化機能50によれば、少ない調整数で、効率良く、推定誤差を小さくすることができる。
さらに、本実施形態に係るモデル適応化機能50は、推定モデル40を特定の場所に適応させる場合、取得した終了条件を満たした場合に適応化処理を終了する。これにより、モデル適応化機能50によれば、制限されたコストで、効率良く、推定誤差を小さくすることができる。
(推定処理)
つぎに、ランダムフォレストである推定モデル40を用いた対象物の数の推定処理について説明する。
図10は、推定処理の手順の一例を示すフローチャートである。ランダムフォレストで表された推定モデル40を用いて、撮像装置12により撮像された入力画像から人の数を推定する場合、例えば、対象物推定機能42は、図10に示す処理に従って処理を実行する。
まず、S211において、対象物推定機能42は、入力画像を取得する。例えば、対象物推定機能42は、図11に示すような、複数の対象物(人)を含む入力画像を取得する。
続いて、S212において、対象物推定機能42は、入力画像から、対象物を含む複数の局所画像を抽出する。複数の局所画像は、全て同一の形状および大きさである。例えば、対象物推定機能42は、図12に示すように、入力画像から、点線で示す複数の局所画像を抽出する。局所画像は、他の局所画像と一部が重複していてもよい。図13は、抽出された1つの局所画像の一例を示す。なお、図12および図13の例では、局所画像は矩形であるが、局所画像はどのような形状であってもよい。
続いて、対象物推定機能42は、抽出した局所画像毎に、S214からS216までの処理を実行する(S213とS217との間のループ処理)。S214において、対象物推定機能42は、対象の局所画像について複数の特徴量を算出する。
ここで、ランダムフォレストで表された推定モデル40の各ノードには、画像の特徴量により局所画像を分類するためのパラメータが割り当てられている。推定モデル40により分類される特徴量は、例えば、画像を構成する画素の画素値を離散化して一次元に並べた特徴量、この特徴量を隣接画素値の差(すなわち勾配)で正規化した特徴量、および、SIFT(Scale-Invariant Feature Transform)特徴量等である。推定モデル40は、これ以外の特徴量により局所画像を分類するためのパラメータを含んでよい。対象物推定機能42は、対象の局所画像についての、推定モデル40が分類で用いる特徴量を算出する。
続いて、S215において、対象物推定機能42は、算出した特徴量を用いて推定モデル40を探索して、対象の局所画像に対応するラベルを取得する。
ここで、推定モデル40は、図14に示すように、末端のノードにラベルが割り当てられている。それぞれのラベルは、局所画像中における対象物(人)の位置を表すベクトル情報に対応している。
ベクトル情報は、図15に示すように、局所画像中の所定の位置Pに対する、対象物の特定部位(例えば人の頭)の方向および距離を表す。例えば、図15の例においては、ベクトル情報は、3人の位置および距離を表すベクトルV、VおよびVを含む。なお、ベクトル情報は、1つの対象物の位置を示してもよいし、2つの対象物の位置を示してもよいし、4つ以上の対象物を示してもよい。
推定モデル40は、予め機械学習により、ベクトル情報を識別するラベルが末端ノードに割り当てられている。また、推定モデル40は、予め機械学習により、特徴量を分類するためのパラメータがそれぞれのノードに割り当てられている。
従って、対象物推定機能42は、図16に示すように、局所画像から算出した複数種類の特徴量を推定モデル40に与えることにより、何れかの末端ノードに割り当てられたラベル(ベクトル情報)を取得することができる。
続いて、S216において、対象物推定機能42は、取得したラベルに対応する、局所画像の密度マップを生成する。局所画像の密度マップは、図17に示すような、局所画像におけるそれぞれの位置に対する、対象物の確率密度を表す。対象物推定機能42は、ラベルに対応させて予め記憶されている密度マップを取得してもよいし、ラベルに対応するベクトル情報から確率密度を算出してもよい。なお、局所画像の密度マップは、3次元空間における対象物の確率密度を表してもよい。
対象物推定機能42は、全ての局所画像について、S214〜S216の処理を終了すると、S213とS217との間のループを抜けて、処理をS218に進める。
S218において、対象物推定機能42は、それぞれの局所画像の密度マップを、入力画像における対応する位置に配置して、入力画像の全体の密度マップを生成する。例えば、対象物推定機能42は、図18に示すような密度マップを生成する。入力画像の全体の密度マップは、入力画像の全体におけるそれぞれの位置に対する対象物の確率密度を表す。なお、入力画像の全体の密度マップは、3次元空間における対象物の確率密度を表してもよい。
続いて、S219において、対象物推定機能42は、入力画像の全体の密度マップを積分する。そして、対象物推定機能42は、積分値を、入力画像に含まれる対象物の数として出力する。
以上の処理を実行することにより、対象物推定機能42は、ランダムフォレストである推定モデル40を用いて、入力画像から対象物の数を推定することができる。
なお、実施形態におけるコンピュータまたは組み込みシステムは、記憶媒体に記憶されたプログラムに基づき、上述した実施形態における各処理を実行するためのものであって、パソコン、マイコン等の1つからなる装置、複数の装置がネットワーク接続されたシステム等の何れの構成であってもよい。また、実施形態におけるコンピュータとは、パソコンに限らず、情報処理機器に含まれる演算処理装置、マイコン等も含み、プログラムによって実施形態における機能を実現することが可能な機器、装置を総称している。
なお、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、請求の範囲に記載された発明とその均等の範囲に含まれる。
10 推定システム
12 撮像装置
20 情報処理装置
22 入力装置
24 表示装置
32 処理回路
34 記憶回路
36 通信部
40 推定モデル
42 対象物推定機能
50 モデル適応化機能
52 画像取得機能
54 正解取得機能
56 適応化機能
58 終了条件取得機能
60 終了制御機能
72 パラメータ選択機能
74 推定機能
76 誤差算出機能
78 探索機能
80 モデル修正機能

Claims (11)

  1. 特定の場所に設置された撮像装置により撮像された入力画像を取得する画像取得部と、
    前記推定モデルのパラメータを下位層から上位層に向かい順次に選択し、選択したパラメータを前記入力画像に含まれる前記対象物の位置または数の推定誤差を小さくするように修正することにより、画像に含まれる対象物の位置または数を検出するための推定モデルを前記特定の場所に適応させる適応化処理を実行する適応化部と、
    前記適応化処理の終了条件を取得する終了条件取得部と、
    前記終了条件を満たした場合に、前記適応化処理を終了させる終了制御部と、
    を備える情報処理装置。
  2. 前記終了条件は、前記推定誤差の値であり、
    前記終了制御部は、前記推定誤差が取得した値以下となった場合に、前記適応化処理を終了させる
    請求項1に記載の情報処理装置。
  3. 前記終了条件は、前記適応化処理を開始してからの経過時間であり、
    前記終了制御部は、前記適応化処理を開始してから、取得した前記経過時間を超えた場合に、前記適応化処理を終了させる
    請求項1に記載の情報処理装置。
  4. 前記画像取得部は、複数の前記入力画像を取得し、
    前記適応化部は、複数の前記入力画像に含まれる前記対象物の位置または数の前記推定誤差を小さくするように、選択したパラメータを修正する
    請求項1から3の何れか1項に記載の情報処理装置。
  5. 前記適応化部は、
    前記推定モデルのパラメータを、下位層から上位層に向かい順次に1つずつ選択するパラメータ選択部と、
    それぞれの前記入力画像に含まれる前記対象物の位置または数を前記推定モデルを用いて推定する推定部と、
    それぞれの前記入力画像について、前記入力画像に含まれる前記対象物の位置または数の推定結果と、前記入力画像に含まれる前記対象物の位置または数の正解情報とに基づき前記推定誤差を算出する誤差算出部と、
    前記推定部に対して選択されたパラメータの値の変更を指示してそれぞれの前記入力画像についての前記推定誤差を前記誤差算出部から受け取り、選択されたパラメータについて、取得した複数の前記入力画像の合計の前記推定誤差が最小となるような値を特定する探索部と、
    前記推定モデルにおける選択されたパラメータの値を、特定された値に修正するモデル修正部と、
    を有し、
    前記パラメータ選択部は、前記終了制御部から終了指示を受け取り、前記終了指示を受け取った場合、パラメータの選択処理を終了する
    請求項4に記載の情報処理装置。
  6. 前記推定モデルは、木構造に接続された複数のノードを有し、それぞれのノードに画像を分類するためのパラメータが割り当てられ、末端のノードにラベルが割り当てられたランダムフォレストである
    請求項5に記載の情報処理装置。
  7. 前記対象物は、人であり、
    前記推定モデルは、それぞれのノードに画像の特徴量に応じて画像を分類するためのパラメータが割り当てられ、
    前記推定部は、前記入力画像から少なくとも1つの局所画像を抽出し、それぞれの前記局所画像を前記推定モデルに応じて分類して、それぞれの前記局所画像に対応する前記ラベルを取得し、取得した前記ラベルに基づき前記入力画像に含まれる前記人の数を推定する
    請求項6に記載の情報処理装置。
  8. 前記画像取得部は、
    前記撮像装置により撮像された撮像画像を予め定められた大きさの複数の前記入力画像に分割し、
    分割した複数の前記入力画像のうち、前記推定モデルを用いて前記対象物の位置または数を推定した推定結果と、前記入力画像に含まれる前記対象物の位置または数の正解情報との誤差が予め定められた値以上となる前記入力画像を選択し、
    前記適応化部は、選択された前記入力画像を用いて、前記適応化処理を実行する
    請求項1から7の何れか1項に記載の情報処理装置。
  9. ユーザにより入力された前記正解情報を取得する正解取得部をさらに備える
    請求項8に記載の情報処理装置。
  10. 前記終了条件取得部は、ユーザにより入力された前記終了条件を取得する
    請求項1から9の何れか1項に記載の情報処理装置。
  11. 特定の場所に設置された撮像装置により撮像された入力画像を取得する画像取得ステップと、
    前記推定モデルのパラメータを下位層から上位層に向かい順次に選択し、選択したパラメータを前記入力画像に含まれる前記対象物の位置または数の推定誤差を小さくするように修正することにより、画像に含まれる対象物の位置または数を検出するための推定モデルを前記特定の場所に適応させる適応化処理を実行する適応化ステップと、
    前記適応化処理の終了条件を取得する終了条件取得ステップと、
    前記終了条件を満たした場合に、前記適応化処理を終了させる終了制御ステップと、
    を実行する情報処理方法。
JP2016129001A 2016-06-29 2016-06-29 情報処理装置および情報処理方法 Active JP6622150B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016129001A JP6622150B2 (ja) 2016-06-29 2016-06-29 情報処理装置および情報処理方法
US15/439,283 US10395139B2 (en) 2016-06-29 2017-02-22 Information processing apparatus, method and computer program product

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016129001A JP6622150B2 (ja) 2016-06-29 2016-06-29 情報処理装置および情報処理方法

Publications (2)

Publication Number Publication Date
JP2018005405A true JP2018005405A (ja) 2018-01-11
JP6622150B2 JP6622150B2 (ja) 2019-12-18

Family

ID=60807688

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016129001A Active JP6622150B2 (ja) 2016-06-29 2016-06-29 情報処理装置および情報処理方法

Country Status (2)

Country Link
US (1) US10395139B2 (ja)
JP (1) JP6622150B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2020202572A1 (ja) * 2019-04-05 2020-10-08
US10896343B2 (en) 2016-06-29 2021-01-19 Kabushiki Kaisha Toshiba Information processing apparatus and information processing method

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7433864B2 (ja) * 2019-11-27 2024-02-20 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05314090A (ja) * 1992-05-14 1993-11-26 Hitachi Ltd ニューラルネットを用いたパターン認識方法およびその装置
JP2015158712A (ja) * 2014-02-21 2015-09-03 株式会社東芝 学習装置、密度計測装置、学習方法、学習プログラム、及び密度計測システム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030028275A1 (en) 2001-05-01 2003-02-06 Xerox Corporation Incremental distributed actuation for large assemblies of implementation units
WO2007099525A2 (en) * 2006-03-03 2007-09-07 Medic Vision - Brain Technologies Ltd. System and method of automatic prioritization and analysis of medical images
US8106968B1 (en) * 2008-02-20 2012-01-31 Cognitech, Inc. System and method for pattern detection and camera calibration
US8483490B2 (en) * 2008-08-28 2013-07-09 International Business Machines Corporation Calibration of video object classification
US9710730B2 (en) * 2011-02-11 2017-07-18 Microsoft Technology Licensing, Llc Image registration
JP5990042B2 (ja) 2012-06-22 2016-09-07 日本電信電話株式会社 通過人数推定方法及びコンピュータプログラム
JP2014164525A (ja) 2013-02-25 2014-09-08 Nippon Telegr & Teleph Corp <Ntt> 物体数推定方法、物体数推定装置、及び物体数推定プログラム
JP2015087973A (ja) 2013-10-31 2015-05-07 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation 生成装置、生成方法、およびプログラム
JP6573361B2 (ja) * 2015-03-16 2019-09-11 キヤノン株式会社 画像処理装置、画像処理システム、画像処理方法及びコンピュータプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05314090A (ja) * 1992-05-14 1993-11-26 Hitachi Ltd ニューラルネットを用いたパターン認識方法およびその装置
JP2015158712A (ja) * 2014-02-21 2015-09-03 株式会社東芝 学習装置、密度計測装置、学習方法、学習プログラム、及び密度計測システム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10896343B2 (en) 2016-06-29 2021-01-19 Kabushiki Kaisha Toshiba Information processing apparatus and information processing method
JPWO2020202572A1 (ja) * 2019-04-05 2020-10-08
WO2020202572A1 (ja) * 2019-04-05 2020-10-08 日本電気株式会社 画像処理システム、推定装置、処理方法及びプログラム
JP7124957B2 (ja) 2019-04-05 2022-08-24 日本電気株式会社 画像処理システム、推定装置、処理方法及びプログラム

Also Published As

Publication number Publication date
JP6622150B2 (ja) 2019-12-18
US10395139B2 (en) 2019-08-27
US20180005089A1 (en) 2018-01-04

Similar Documents

Publication Publication Date Title
US11544831B2 (en) Utilizing an image exposure transformation neural network to generate a long-exposure image from a single short-exposure image
US11314989B2 (en) Training a generative model and a discriminative model
US20150116350A1 (en) Combined composition and change-based models for image cropping
EP3745309A1 (en) Training a generative adversarial network
US11443481B1 (en) Reconstructing three-dimensional scenes portrayed in digital images utilizing point cloud machine-learning models
US20160379088A1 (en) Apparatus and method for creating an image recognizing program having high positional recognition accuracy
CN108665421B (zh) 人脸图像高光分量去除装置和方法、存储介质产品
JP7055769B2 (ja) データ生成装置、データ生成方法およびプログラム
KR102160390B1 (ko) 인공지능 기반의 사용자 의료정보 분석 방법 및 시스템
JP6622150B2 (ja) 情報処理装置および情報処理方法
JP7086878B2 (ja) 学習装置、学習方法、プログラムおよび認識装置
TW202011266A (zh) 用於圖片匹配定位的神經網路系統、方法及裝置
US11164036B2 (en) Human-assisted machine learning through geometric manipulation and refinement
WO2018196676A1 (en) Non-convex optimization by gradient-accelerated simulated annealing
KR102665603B1 (ko) 스테레오 매칭을 위한 하드웨어 디스패러티 평가
KR102208688B1 (ko) 데이터 증강 기반 사물 분석 모델 학습 장치 및 방법
CN109964229A (zh) 用于人脸对准的形状预测
KR20210007276A (ko) 영상 생성 장치 및 방법
JP2018022332A (ja) 判定装置、判定方法、及び判定プログラム
KR20210081852A (ko) 객체 검출 모델 학습 장치 및 방법
KR102208685B1 (ko) 데이터 증강 기반 공간 분석 모델 학습 장치 및 방법
WO2022044297A1 (ja) 情報処理方法、情報処理装置及び情報処理プログラム
CN110852394B (zh) 数据处理方法及装置、计算机系统以及可读存储介质
US20220012551A1 (en) Machine learning apparatus, machine learning method, and computer-readable recording medium
JP7335204B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180904

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190729

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190806

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191002

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191023

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191121

R151 Written notification of patent or utility model registration

Ref document number: 6622150

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151