JPWO2020184006A1 - 画像処理装置、画像処理方法及びプログラム - Google Patents

画像処理装置、画像処理方法及びプログラム Download PDF

Info

Publication number
JPWO2020184006A1
JPWO2020184006A1 JP2021505596A JP2021505596A JPWO2020184006A1 JP WO2020184006 A1 JPWO2020184006 A1 JP WO2020184006A1 JP 2021505596 A JP2021505596 A JP 2021505596A JP 2021505596 A JP2021505596 A JP 2021505596A JP WO2020184006 A1 JPWO2020184006 A1 JP WO2020184006A1
Authority
JP
Japan
Prior art keywords
region
person
area
image
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021505596A
Other languages
English (en)
Other versions
JP7248345B2 (ja
Inventor
永記 石寺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Solution Innovators Ltd
Original Assignee
NEC Solution Innovators Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Solution Innovators Ltd filed Critical NEC Solution Innovators Ltd
Publication of JPWO2020184006A1 publication Critical patent/JPWO2020184006A1/ja
Application granted granted Critical
Publication of JP7248345B2 publication Critical patent/JP7248345B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

画像に含まれる人物の人物領域を精度良く特定することが可能な画像処理装置、画像処理方法及びプログラムを提供する。画像処理装置(1)は、撮像装置により撮像された第1画像を入力する入力部(2)と、学習済みの学習モデルに基づいて、第1画像のうち人物が含まれると推定される推定領域から、撮像装置からの距離が等しいと推定される第1領域を抽出し、第1領域を含む第2画像を生成する生成部(3)と、を備える。

Description

本開示は、画像処理装置、画像処理方法及びプログラムに関する。
所定の領域を監視する監視装置の一つとして、カメラで撮像した画像(動画像を含む)から人物等の移動物体を検出して追跡する画像処理を行う装置が知られている(例えば、特許文献1)。
特許文献1には、過去の画像から検出された人物の位置に基づいて、現在の処理対象の画像において複数の人物の重なり領域を検出し、最前の人物を判断することが開示されている。
特開2017−027197号公報
画像において、複数の人物の重なり領域が存在する場合、重なっている人物の人物領域を正確に特定する必要がある。特許文献1では、人物の位置を推定する処理を行うことが開示されているが、重なっている人物の人物領域を特定することが開示されていない。
本開示の目的は、このような課題を解決するためになされたものであり、画像に含まれる人物の人物領域を精度良く特定することが可能な画像処理装置、画像処理方法及びプログラムを提供することである。
本開示にかかる画像処理装置は、
撮像装置により撮像された第1画像を入力する入力部と、
学習済みの学習モデルに基づいて、前記第1画像のうち人物が含まれると推定される推定領域から、前記撮像装置からの距離が等しいと推定される第1領域を抽出し、前記第1領域を含む第2画像を生成する生成部と、を備える画像処理装置である。
本開示にかかる画像処理方法は、
撮像装置により撮像された第1画像を入力することと、
学習済みの学習モデルに基づいて、前記第1画像のうち人物が含まれると推定される推定領域から、前記撮像装置からの距離が等しいと推定される第1領域を抽出し、前記第1領域を含む第2画像を生成することと、を含む画像処理方法である。
本開示にかかるプログラムは、
撮像装置により撮像された第1画像を入力することと、
学習済みの学習モデルに基づいて、前記第1画像のうち人物が含まれると推定される推定領域から、前記撮像装置からの距離が等しいと推定される第1領域を抽出し、前記第1領域を含む第2画像を生成することと、をコンピュータに実行させるプログラムである。
本開示によれば、画像に含まれる人物の人物領域を精度良く特定することが可能な画像処理装置、画像処理方法及びプログラムを提供することができる。
実施の形態1にかかる画像処理装置の構成例を示す図である。 実施の形態2にかかる画像処理装置の構成例を示す図である。 入力画像の一例を示す図である。 等距離領域を含む画像の一例を示す図である。 合成画像の一例を示す図である。 領域パターンを説明するための図である。 生成処理を説明するための図である。 生成処理を説明するための図である。 生成処理を説明するための図である。 生成処理を説明するための図である。 生成処理を説明するための図である。 生成処理を説明するための図である。 生成処理を説明するための図である。 生成処理を説明するための図である。 決定処理を説明するための図である。 決定処理を説明するための図である。 実施の形態2にかかる学習装置の構成例を示す図である。 実施の形態2にかかる画像処理装置の動作例を説明する図である。 実施の形態2にかかる学習装置の動作例を示す図である。 本開示の各実施の形態にかかる画像処理装置等を実現可能な、コンピュータ(情報処理装置)のハードウェア構成を例示するブロック図である。
(実施の形態1)
以下、図面を参照して本発明の実施の形態について説明する。図1は、実施の形態1にかかる画像処理装置の構成例を示す図である。画像処理装置1は、例えば、サーバ装置、パーソナルコンピュータ装置等であってもよい。
画像処理装置1は、入力部2と、生成部3とを備える。
入力部2は、撮像装置により撮像された第1画像を入力する。撮像装置は、例えば、監視カメラ、定点カメラ、デジタルカメラ等であってもよい。
生成部3は、学習済みの学習モデルに基づいて、第1画像のうち、人物が含まれると推定される推定領域から、撮像装置からの距離が等しいと推定される第1領域を抽出し、第1領域を含む第2画像を生成する。
第1画像において、複数の人物が重なる領域が含まれている場合、重なっている人物の人物領域は、撮像装置からの距離が異なると推定される。生成部3は、人物が含まれると推定される推定領域から、撮像装置からの距離が等しい第1領域を抽出することにより、抽出された第1領域を第1画像に含まれる各人物の人物領域と特定することが可能となる。したがって、画像処理装置1によれば、画像に含まれる人物の人物領域を精度良く特定することが可能となる。
(実施の形態2)
続いて、実施の形態2について説明する。実施の形態2は、実施の形態1を詳細にした実施の形態である。
<画像処理装置の構成例>
図2を用いて、実施の形態2にかかる画像処理装置10について説明する。図2は、実施の形態2にかかる画像処理装置の構成例を示す図である。画像処理装置10は、入力部11と、データ記憶部12と、生成部13と、モデル記憶部14と、決定部15とを備える。
入力部11は、撮像装置により撮像された画像を入力し、入力された画像をデータ記憶部12に記憶する。入力部11は、記録媒体に記憶された画像を入力してもよい。もしくは、入力部11は、画像処理装置10に接続された外部のパーソナルコンピュータ装置又はサーバ装置等から、撮像装置により撮像された画像を入力してもよい。
入力部11に入力される画像は、例えば、監視カメラ、定点カメラ、デジタルカメラ等の撮像装置により撮像された画像であってもよい。なお、以降の説明では、入力部11は、監視カメラにより撮像された画像を、監視カメラに接続されたサーバ装置から入力することとして説明する。また、以降の説明では、入力部11に入力される画像を入力画像と称して記載する。
ここで、図3を用いて、入力画像の一例について説明する。図3は、入力画像の一例を示す図である。入力部11に入力される画像(入力画像)は、監視カメラにより撮像された画像である。図3に示すように、入力画像には複数の人物が含まれており、人物が重なって撮像された領域が含まれる。
図2に戻り、データ記憶部12について説明する。
データ記憶部12は、入力画像を記憶する。また、データ記憶部12は、入力部11に入力された画像の背景画像を記憶する。なお、背景画像も、入力部11に入力され、入力部11が背景画像をデータ記憶部12に記憶するようにしてもよい。データ記憶部12は、生成部13が生成する画像も記憶する。
生成部13は、後述するモデル記憶部14に記憶された学習済みの学習モデルに基づいて、入力画像のうち、人物が含まれると推定される推定領域から、監視カメラからの距離が等しいと推定される領域を示す等距離領域を抽出する。生成部13は、等距離領域を含む画像を生成し、生成した画像をデータ記憶部12に記憶する。
生成部13は、背景画像と、入力画像とをデータ記憶部12から取得する。生成部13は、背景画像と入力画像とを用いて、例えば、背景差分法(背景差分処理)により、入力画像のうち、人物が含まれると推定される領域を示す推定領域を推定する。
生成部13は、モデル記憶部14に記憶された学習済みの学習モデルを取得する。生成部13は、取得した学習モデルに基づいて、推定領域から、監視カメラからの距離が等しいと推定される領域を示す等距離領域を抽出する。生成部13は、入力画像を学習モデルに入力し、等距離領域を抽出する。生成部13は、抽出された等距離領域を含む画像を生成して、データ記憶部12に記憶する。
ここで、図4を用いて、生成部13が生成する等距離領域を含む画像の一例について説明する。図4は、等距離領域を含む画像の一例を示す図である。図4において、白色の領域は、生成部13が抽出した等距離領域である。領域U1は、等距離領域を含む画像の一部の領域であり、領域U1のうち右半分の領域は、入力画像において人物が重なっている領域である。
領域U1には、11人の人物が含まれている。領域U1において、隣り合う等距離領域の間には黒線(黒の領域)が含まれており、当該黒線(黒の領域)により、等距離領域同士が区切られている。そのため、画像処理装置10は、白色の等距離領域から、予め定められた所定の閾値以上の面積を持つ連結領域(等距離領域)のみを取り出すことで、領域U1には、11人の人物が含まれていることを特定することができる。なお、領域U1以外の他の領域についても、同様であるため、画像処理装置10は、画像に含まれる人物の人物領域を精度良く特定することができる。
図2に戻り、生成部13の説明を続ける。
生成部13は、取得した学習モデルに基づいて、人物が含まれると推定される推定領域から、監視カメラとの距離が異なる境界線よりも撮像装置からの距離が短い領域を示す手前領域、及び境界線よりも撮像装置からの距離が長い領域を示す奥領域を抽出する。生成部13は、入力画像を学習モデルに入力し、推定領域から、手前領域及び奥領域を抽出する。
また、生成部13は、人物が含まれると推定される推定領域から、監視カメラとの距離が異なる境界線も抽出する。なお、生成部13は、監視カメラとの距離が異なる境界線を抽出しなくてもよい。
具体的には、生成部13は、学習モデルに基づいて、入力画像のうち、等距離領域の周辺領域から、境界線と、手前領域と、奥領域とを抽出する。等距離領域の周辺領域は、図4の領域U1のうち、等距離領域同士を区切っている黒線(黒の領域)である。周辺領域は、図4の領域U1のうち、隣り合う等距離領域との間に含まれる黒線(黒の領域)であるとも言える。
生成部13は、境界線、手前領域及び奥領域を抽出すると、データ記憶部12に記憶されている、等距離領域を含む画像と、境界線、手前領域及び奥領域とを合成して、合成された画像を生成する。生成部13は、生成した画像をデータ記憶部12に記憶する。なお、学習モデル、及び生成部13が各領域を抽出し、抽出された各領域を含む画像を生成する生成処理について後述する。また、以降の説明では、等距離領域を含む画像と、等距離領域、境界線、手前領域及び奥領域が合成された画像とを区別するために、等距離領域を含む画像を等距離画像とし、合成された画像を合成画像と称して記載する。
ここで、図5を用いて、生成部13が生成する合成画像の一例について説明する。図5は、合成画像の一例を示す図である。図5について、領域U2を用いて説明する。領域U2は、図4の領域U1の一部の領域であり、2人の人物が重なる領域である。
領域U2には、一点鎖線L1、点線L2及び実線L3が記載されている。一点鎖線L1は、生成部13が生成した等距離領域の境界を表す線である。一点鎖線L1の内側の領域(点線L2の方向と逆側の領域)は、等距離領域である。点線L2は、生成部13が抽出した境界線を表す線である。一点鎖線L1と点線L2との間の領域は、生成部13が抽出した手前領域である。実線L3は、奥領域の境界を表す線であり、点線L2と実線L3との間の領域は、奥領域である。
別の観点で説明をすると、領域U2は、色の濃淡により、各領域が分かるように示されており、白い領域(点線L2と実線L3との間の領域)は奥領域であり、黒い領域(一点鎖線L1と点線L2との間の領域)は手前領域である。また、白と黒の間のグレーの領域(一点鎖線L1から点線L2の方向と逆側の領域)は等距離領域である。このように、生成部13は、等距離領域の周辺領域から境界線、手前領域及び奥領域を抽出して、抽出した境界線、手前領域及び奥領域と、等距離画像とを合成して合成画像を生成する。
図2に戻り、モデル記憶部14について説明する。
モデル記憶部14は、生成部13が用いる学習済みの学習モデルを記憶する。モデル記憶部14に記憶される学習モデルは、後述する学習装置20により学習された学習モデルである。学習モデルは、推定領域に含まれる所定の画素ブロック毎に、複数の領域パターンのうち一致する領域パターンを出力する学習モデルである。所定の画素ブロックは、例えば、15×15のパッチ画像として切り出された画素ブロック(画素群)である。なお、上記の画素ブロックは一例であり、3×3〜150×150の画素ブロックの中から任意に選択することができる。
学習モデルは、例えば、畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)であり、入力層と、多層の隠れ層と、出力層とを含む。入力層は、例えば、入力画像がRGB(Red Green Blue)画像である場合、R、G、Bのチャネル別にパッチ画像のサイズを乗じた値とすることができる。また、学習モデルは、3層の隠れ層で構成し、活性化関数としてReLU関数を用いて構成してもよい。学習モデルは、学習装置20において深層学習(Deep learning)により学習され、各層に適用される重み及び閾値を含むパラメータが学習される。なお、学習モデルは、他のアルゴリズムを用いた学習モデルであってもよい。また、上記した入力層、隠れ層、活性化関数は一例であるので、異なるように構成された学習モデルであってもよい。
決定部15は、合成画像における等距離領域、手前領域及び奥領域の少なくとも1つの領域に基づいて、入力画像に含まれる人物の前後関係を決定する。
決定部15は、合成画像における等距離領域に基づいて、入力画像に含まれる人物の前後関係を決定してもよい。もしくは、決定部15は、合成画像における等距離領域を、入力画像に含まれる人物の人物領域と特定し、特定された人物領域の各々について、手前領域及び奥領域のうちの少なくとも1つの領域に基づいて、隣接する人物領域との前後関係を決定する。そして、決定部15は、決定された、各人物領域と、当該人物領域に隣接する人物領域との前後関係に基づいて、入力画像に含まれる人物の前後関係を決定してもよい。もしくは、決定部15は、合成画像における等距離領域、手前領域及び奥領域のうちの2つ以上を組み合わせて入力領域に含まれる人物の前後関係を決定してもよい。
本実施の形態では、決定部15は、合成画像に含まれる等距離領域、手前領域及び奥領域を用いて入力画像に含まれる人物の前後関係を決定する。なお、決定部15が行う人物の前後関係の決定処理については後述する。
<学習モデル>
次に、モデル記憶部14に記憶された学習モデルについて説明する。上述したように、学習モデルは、推定領域に含まれる所定の画素ブロック毎に、予め定義された複数の領域パターンのうち一致する領域パターンを出力する学習モデルである。
ここで、図6を用いて、複数の領域パターンについて説明する。図6は、領域パターンを説明するための図である。図6に記載されている数字は、領域パターンの番号を示しており、数字の下に記載された図は、各領域パターンの概念図を示している。
各領域パターンの概念図の中に含まれる実線は、撮像装置からの距離が異なる境界線を示している。F(斜線でハッチングされた領域)は手前領域を表しており、B(縦線でハッチングされた領域)は奥領域を表している。領域パターンの番号が1〜8の領域パターンは、境界線と、手前領域と、奥領域との配置関係がそれぞれ異なる領域パターンであり、撮像装置からの距離(深度)の勾配を示す奥行勾配方向がそれぞれ異なる領域パターンである。換言すると、領域パターンの番号が1〜8の領域パターンは、手前領域から奥領域に向けた勾配方向がそれぞれ異なる領域パターンである。また、領域パターンの番号が1〜8の領域パターンは、手前領域と、奥領域と、境界線との配置パターンがそれぞれ異なる領域パターンであるとも言える。
図6に示すように、領域パターンの番号が1〜8の領域パターンは、奥行勾配方向がそれぞれ異なる8方向に対応する。なお、領域パターンの番号が1〜8は、奥行勾配方向がそれぞれ異なる8方向に対応する領域パターンであるが、奥行勾配方向が8方向の間の方向を含めた16方向に対応する領域パターンを設けるようにしてもよい。
領域パターンの番号が9の領域パターンは、撮像装置からの距離が等距離の領域を示す領域パターンであり、等距離領域を抽出する領域パターンである。
以上のように、複数の領域パターン(パターン1〜9)を定義する。そして、学習モデルは、人物が存在すると推定される推定領域に含まれる所定の画素ブロック毎に、複数の領域パターンのうち一致する領域パターンを出力する。
<生成処理>
次に、図4、図5及び図7〜図14を用いて、生成部13が行う各領域の抽出及び画像の生成処理について説明する。図7〜図14は、生成処理を説明するための図である。
生成部13は、モデル記憶部14に記憶された学習モデルを用いて入力画像のうち、人物が存在すると推定される推定領域に含まれる所定の画素ブロック毎に、処理対象画素を変更させながら複数の領域パターンのうち一致する領域パターンを出力する。生成部13は、推定領域に含まれる所定の画素ブロックに対して、出力された領域パターンを適用して等距離領域、又は境界線、手前領域及び奥領域を抽出する。
生成部13は、学習モデルから領域パターンの番号が9の領域パターンが出力された画素ブロックに対して当該領域パターンを適用して等距離領域を抽出し、図4に示す画像を生成する。
生成部13は、学習モデルから領域パターンの番号が1の領域パターンが出力された画素ブロックに当該領域パターンを適用して境界線と、手前領域と、奥領域とを抽出し、図7に示す画像を生成する。図7は、境界線が合成画像の左右方向であり、境界線に対して手前領域が合成画像の下側に存在し、境界線に対して奥領域が合成画像の上側に存在する領域である。つまり、生成部13は、領域パターンの番号が1に一致する領域を抽出した画像を生成する。
生成部13は、学習モデルから領域パターンの番号が2の領域パターンが出力された画素ブロックに当該領域パターンを適用して境界線と、手前領域と、奥領域とを抽出し、図8に示す画像を生成する。図8は、境界線が合成画像の左下から右上に向かう斜め方向であり、境界線に対して手前領域が合成画像の右下側に存在し、境界線に対して奥領域が合成画像の左上側に存在する領域である。つまり、生成部13は、領域パターンの番号が2に一致する領域を抽出した画像を生成する。
生成部13は、同様に、学習モデルから領域パターンの番号が3〜8の領域パターンが出力された画素ブロックに当該領域パターンを適用して境界線と、手前領域と、奥領域とを抽出し、図9〜14に示す画像を生成する。なお、図9〜図14は、それぞれ、領域パターンが3〜8に対応する図である。
生成部13は、各領域パターンから生成された画像を合成して、図5に示す合成画像を生成する。このように、生成部13は、学習モデルにより出力された領域パターンの画素ブロックから等距離領域、境界線、手前領域及び奥領域を抽出して、抽出した各領域を合成して合成画像を生成する。
<決定処理>
次に、図15及び図16を用いて、決定部15が行う人物の前後関係を決定する決定処理について説明する。図15及び図16は、決定処理を説明するための図である。
まず、決定処理の概要について説明する。
決定部15は、合成画像に含まれる等距離領域に基づき人物領域を特定する。決定部15は、特定された人物領域の各々の下端線に基づいて入力画像に含まれる人物の前後関係を決定する。
決定部15は、特定された各人物領域について、隣接する人物領域との間に含まれる手前領域及び奥領域に基づいて、各人物領域と、隣接する人物領域との前後関係を決定する。決定部15は、特定された各人物領域について、隣接する人物領域との間に含まれる手前領域及び奥領域の距離を用いて、手前領域が近い一方の人物領域の人物を他方の人物領域の人物よりも前に位置すると決定する。決定部15は、奥領域が近い一方の人物領域の人物を他方の人物領域の人物よりも後ろに位置すると決定する。
決定部15は、各人物領域の下端線を用いて決定された人物領域の前後関係の決定処理の結果と、各人物領域について、隣接する人物領域との前後関係の決定処理の結果とを用いて、入力画像に含まれる人物の前後関係を決定する。
次に、図15を用いて、各人物領域の下端線及び各人物領域の画素数を用いた決定処理について説明する。図15は、図5の合成画像を模式化した図であり、図4の領域U1に対応する領域を示している。実線で囲まれた領域は、等距離領域を示している。点線は、境界線を示しており、斜線でハッチングされた領域は、手前領域を示し、縦線でハッチングされた領域は、奥領域を示している。なお、図15には、生成部13が抽出した境界線、手前領域及び奥領域のうち、等距離領域同士が隣り合う部分のみの境界線、手前領域及び奥領域を示している。
決定部15は、合成画像に座標を設定する。決定部15は、例えば、合成画像の左下の端点を原点座標に設定し、合成画像の右方向をX軸正方向とし、合成画像の上方向をY軸正方向として設定する。決定部15は、等距離領域で囲まれた領域を人物領域として特定する。図15に示すように、決定部15は、人物領域P1〜P11と特定する。
決定部15は、人物領域P1〜P11のそれぞれに対して下端線を決定する。各人物領域の下端線のY座標が小さい場合、撮像装置に近い位置に存在する人物であると考えられる。そのため、決定部15は、下端線のY座標が小さい方から順に、撮像装置から近い位置に存在する人物の人物領域として決定する。決定部15は、決定した結果に基づいて、入力画像に含まれる人物の前後関係を決定する。
例えば、人物領域P1の下端線のY座標がY1、人物領域P2の下端線のY座標がY2、人物領域P3の下端線のY座標がY3、人物領域P4の下端線のY座標がY4、人物領域P5の下端線のY座標がY5であるとする。また、Y1<Y2<Y3<Y4<Y5であるとする。この場合、決定部15は、人物領域P1、P2、P3、P4及びP5の順に撮像装置から近い位置に存在する人物の人物領域として決定する。決定部15は、人物領域P6〜P11に対しても同様の決定処理を行う。
人物領域P6〜P11については、下端線が他の人物領域に隣接しており、他の人物領域と重なっている人物領域と判断することができる。そのため、人物領域P6〜P11については、正確な前後関係を決定することができない可能性があるため、決定部15は、人物領域の下端線に基づいて、一時的に前後関係を決定する。そして、決定部15は、人物領域の下端線が、他の人物領域と重なっている人物領域について、後述する決定処理の結果を適用して、入力画像に含まれる人物の前後関係を決定する。
なお、決定部15は、各人物領域に含まれる画素数に基づいて、撮像装置から近い位置に存在する人物の人物領域を決定し、決定した結果に基づいて、入力画像に含まれる人物の前後関係を決定してもよい。
各人物領域に含まれる画素数が多い場合、撮像装置に近い位置に存在する人物であると考えられる。そのため、決定部15は、各人物領域に含まれる画素数を算出して、算出された画素数が多い順に、撮像装置から近い位置に存在する人物の人物領域として決定してもよい。
また、決定部15は、各人物領域の下端線のY座標と、各人物領域に含まれる画素数とに対して重み付けを行ってもよい。そして、決定部15は、重み付けされた、各人物領域の下端線のY座標及び各人物領域に含まれる画素数に基づいて、撮像装置から近い位置に存在する人物の人物領域として決定してもよい。
また、決定部15は、人物領域の下端線が他の人物領域と隣接する人物領域に対して、人物領域の上端線に基づいて、撮像装置から近い位置に存在する人物の人物領域として決定してもよい。
各人物領域の下端線のY座標が大きい場合、撮像装置から遠い位置に存在する人物であると考えられる。そのため、決定部15は、人物領域の下端線が他の人物領域と隣接する人物領域に対して、上端線のY座標が大きい方から順に、撮像装置から遠い位置に存在する人物の人物領域として決定してもよい。
次に、図16について説明する。図16は、図15と同様の図であり、図5の合成画像を模式化した図であり、図4の領域U1に対応する領域を示している。実線で囲まれた領域は、等距離領域を示している。点線は、境界線を示しており、斜線でハッチングされた領域は、手前領域を示し、縦線でハッチングされた領域は、奥領域を示している。なお、図15には、生成部13が抽出した境界線、手前領域及び奥領域のうち、等距離領域同士が隣り合う部分のみの境界線、手前領域及び奥領域を示している。
決定部15は、例えば、合成画像において、ある人物領域と隣接する人物領域とについて、所定の距離未満の人物領域を隣接する人物領域として決定する。決定部15は、人物領域P3〜P11を、他の人物領域と隣接している人物領域として特定する。決定部15は、他の人物領域と隣接している人物領域P3〜P11の各々について、手前領域及び奥領域に基づいて、隣接する人物領域との前後関係を決定する。決定部15は、各人物領域についての隣接する人物領域との前後関係に基づいて、入力画像に含まれる人物の前後関係を決定する。
例えば、人物領域P3と、人物領域P5とは隣接する人物領域である。人物領域P3を基準として、人物領域P5との前後関係を決定する場合、人物領域P3と人物領域P5との間の領域U3に注目する。
領域U3には、手前領域と奥領域とが含まれている。領域U3に含まれる手前領域は、人物領域P3と隣接している。つまり、人物領域P3は、人物領域P5よりも領域U3に含まれる手前領域に距離が近い。
一方、領域U3に含まれる奥領域は、人物領域P5と隣接している。つまり、人物領域P5は、人物領域P3よりも領域U3に含まれる奥領域に距離が近い。そのため、決定部15は、手前領域と隣接し、距離が近い人物領域P3の人物を人物領域P5の人物よりも前に位置すると決定する。また、決定部15は、奥領域と隣接し、距離が近い人物領域P5の人物を人物領域P3の人物よりも後ろに位置すると決定する。
例えば、人物領域P3を基準として、人物領域P8との前後関係を決定する場合、人物領域P3と人物領域P8との間の手前領域は、人物領域P3と隣接し、距離が近い。人物領域P3と人物領域P8との間の奥領域は、人物領域P8と隣接し、距離が近い。そのため、決定部15は、人物領域P3の人物を人物領域P8の人物よりも前に位置し、物領域P5の人物を人物領域P3の人物よりも後ろに位置すると決定する。その他の人物領域についても同様に、決定部15は、各人物領域についての隣接する人物領域との前後関係を決定する。
決定部15は、人物領域P1〜P11の下端線から決定した前後関係の決定処理の結果と、各人物領域についての隣接する人物領域との前後関係の決定処理の結果とを用いて、人物領域P1〜P11について前後関係を決定する。
決定部15は、人物領域P1〜P11について前後関係を決定すると、合成画像の下側に存在する人物領域(撮像装置から近い人物の人物領域)から順に、撮像装置からの距離の順序を示すラベル番号を設定する。決定部15は、設定したラベル番号に基づいて、入力画像に含まれる人物の前後関係を決定する。
なお、決定部15は、人物領域P1〜P11について、前後関係が正確に判定できない場合、判定出来なかった人物領域に対して前後関係が正しく判定出来なかったことを示すフラグを設定してもよい。もしくは、決定部15は、人物領域P1〜P11について、前後関係が正確に判定できない場合、判定出来なかった人物領域に対して、同一のラベル番号を設定し、前後関係が正しく判定出来なかったことを示してもよい。
<学習装置の構成例>
次に、図17を用いて、学習装置20の構成例について説明する。図17は、実施の形態2にかかる学習装置の構成例を示す図である。学習装置20は、未学習の学習モデルを学習して、学習済みの学習モデルを生成する。学習装置20は、入力部21と、データ記憶部22と、モデル記憶部23と、学習部24とを備える。
入力部21は、学習用画像及び教師データのペアを学習データとして入力する。入力部21は、入力された画像をデータ記憶部22に記憶する。
データ記憶部22は、入力部21に入力された学習データを記憶する。
モデル記憶部23は、未学習の学習モデル(学習中の学習モデルも含む)及び学習済みの学習モデルの少なくとも一方を記憶する。
学習部24は、データ記憶部22に入力された学習データを用いて、未学習の学習モデルを学習する。学習部24は、深層学習により学習し、各層に適用される重み及び閾値を含むパラメータを学習し、更新する。学習部24は、学習が終了すると、学習済みの学習モデルを生成してモデル記憶部23に記憶する。なお、学習部24は、未学習の学習モデルを学習済みの学習モデルにより更新してもよい。なお、学習部24により生成された学習済みの学習モデルは、画像処理装置10の管理者、運用者等により、画像処理装置10のモデル記憶部14に格納される。
<画像処理装置の動作例>
次に、図18を用いて、画像処理装置10の動作例について説明する。図18は、実施の形態2にかかる画像処理装置の動作例を説明する図である。
まず、入力部11は、処理対象の画像(入力画像)を入力する(ステップS1)。入力部11は、監視カメラにより撮像された画像を、監視カメラに接続されたサーバ装置から入力し、データ記憶部12に記憶する。
生成部13は、入力画像において、人物が含まれると推定される推定領域を推定する(ステップS2)。生成部13は、データ記憶部12から入力画像と、背景画像とを取得する。生成部13は、背景画像と入力画像とを用いて、例えば、背景差分法(背景差分処理)により、入力画像のうち、人物が含まれると推定される領域を示す推定領域を推定する。
生成部13は、学習済みの学習モデルに基づいて、推定領域から等距離領域を抽出する(ステップS3)。生成部13は、モデル記憶部14に記憶された学習済みの学習モデルを取得する。生成部13は、取得した学習モデルに基づいて、推定領域から、監視カメラからの距離が等しいと推定される領域を示す等距離領域を抽出する。生成部13は、抽出された等距離画像を生成する。
生成部13は、学習済みの学習モデルに基づいて、推定領域から境界線、手前領域及び奥領域を抽出する(ステップS4)。生成部13は、学習モデルに基づいて、入力画像のうち、等距離領域の周辺領域から、境界線と、手前領域と、奥領域とを抽出する。生成部13は、境界線、手前領域及び奥領域を抽出すると、データ記憶部12に記憶されている、等距離画像と、境界線、手前領域及び奥領域とを合成して、合成画像を生成する。生成部13は、生成した合成画像をデータ記憶部12に記憶する。
なお、ステップS3及びステップS4は、同時に実行されてもよい。モデル記憶部14に記憶された学習モデルは、推定領域に含まれる所定の画素ブロック毎に、複数の領域パターンのうち一致するパターンを出力する学習モデルである。そのため、生成部13は、学習モデルを用いることにより、等距離領域、境界線、手前領域及び奥領域を一度に抽出することができる。したがって、生成部13は、等距離領域、境界線、手前領域及び奥領域を一度に抽出して、等距離画像を生成せずに、合成画像を生成するようにしてもよい。
決定部15は、合成画像における等距離領域を人物領域と特定し(ステップS5)、各人物領域の下端線から各人物領域の前後関係を決定する(ステップS6)。決定部15は、合成画像にXY座標系を設定する。決定部15は、各人物領域の下端線を算出し、下端線のY座標に基づいて、各人物領域の前後関係を決定する。
決定部15は、各人物領域について、隣接する人物領域との前後関係を決定する(ステップS7)。決定部15は、合成画像において、各人物領域に対して、隣接する人物領域を決定する。決定部15は、各人物領域について、隣接する人物領域との間に含まれる手前領域及び奥領域に基づいて、隣接する人物領域との前後関係を決定する。決定部15は、各人物領域について、比較対象の隣接する人物領域との間に含まれる手前領域と隣接する人物領域の人物が、他方の人物領域の人物よりも前に位置すると決定する。決定部15は、各人物領域について、比較対象の隣接する人物領域との間に含まれる奥領域と隣接する人物領域の人物が、他方の人物領域の人物よりも後ろに位置すると決定する。
決定部15は、入力画像に含まれる人物の前後関係を決定する(ステップS8)。決定部15は、ステップS6及びS7において決定した結果に基づいて、各人物領域の前後関係を決定する。決定部15は、各人物領域の前後関係を決定すると、合成画像の下側に存在する人物領域(撮像装置から近い人物の人物領域)から順に、撮像装置からの距離の順序を示すラベル番号を設定する。決定部15は、設定したラベル番号に基づいて、入力画像に含まれる人物の前後関係を決定する。
<学習装置の動作例>
次に、図19を用いて、学習装置20の動作例について説明する。図19は、実施の形態2にかかる学習装置の動作例を示す図である。
入力部21は、学習データを入力する(ステップS11)。入力部21は、学習用画像及び教師データのペアを学習データとして入力する。入力部21は、入力された画像をデータ記憶部22に記憶する。
学習部24は、学習済みの学習モデルを生成する(ステップS12)。学習部24は、データ記憶部22に入力された学習データを用いて、未学習の学習モデルを学習する。学習部24は、深層学習により学習し、各層に適用される重み及び閾値を含むパラメータを学習し、更新する。学習部24は、学習が終了すると、学習済みの学習モデルを生成してモデル記憶部23に記憶する。
以上説明したように、生成部13は、入力画像において、人物が含まれると推定される推定領域から、撮像装置からの距離が等しいと推定される等距離領域を抽出する。入力画像において、複数の人物が重なる領域が含まれている場合、重なっている人物の人物領域は、撮像装置からの距離が異なると推定される。そのため、生成部13が等距離領域を抽出することにより、等距離領域を入力画像に含まれる各人物の人物領域と特定することが可能となる。したがって、画像処理装置10によれば、画像に含まれる人物の人物領域を精度良く特定することが可能となる。
また、等距離領域を抽出することにより、入力画像に含まれる人物の人物領域を特定することができるので、画像処理装置10を用いることにより、入力画像に含まれる人物の人数、人物が存在する位置等を特定することが可能となる。
生成部13は、等距離領域に加えて、推定領域から手前領域及び奥領域を抽出する。決定部15は、等距離領域に基づいて、合成画像に含まれる人物領域を特定する。決定部15は、等距離領域、手前領域及び奥領域に基づいて、合成画像に含まれる各人物領域の前後関係を決定する。そして、決定部15は、各人物領域の前後関係に基づいて、入力画像に含まれる人物の前後関係を決定する。したがって、画像処理装置10によれば、入力画像に含まれる各人物の前後関係を特定することが可能となる。
画像処理装置10を用いることにより、入力画像に含まれる各人物の前後関係を特定することができるので、例えば、各時刻において撮像された画像を入力して、入力された画像に含まれる特定人物の位置を特定することができる。したがって、画像処理装置10を用いることにより、例えば、特定人物の追跡を行うことが可能となる。
(変形例)
実施の形態2では、生成部13は、手前領域及び奥領域を抽出することで説明を行ったが、手前領域及び奥領域のうちのいずれか一方を抽出するようにしてもよい。この場合、決定部15は、各人物領域について、隣接する人物領域との前後関係を決定する決定処理において、抽出された手前領域又は奥領域を用いる。
生成部13が抽出した領域が手前領域であれば、各人物領域と、比較対象の隣接する人物領域の間に含まれる手前領域と隣接する距離が近い人物領域の人物が、他方の人物領域の人物よりも前に位置すると決定する。
生成部13が抽出した領域が奥領域であれば、各人物領域と、比較対象の隣接する人物領域の間に含まれる奥領域と隣接する距離が近い人物領域の人物が、他方の人物領域の人物よりも後ろに位置すると決定する。このようにしても、実施の形態2と同様の効果を得ることが可能となる。
(他の実施の形態)
上述した実施の形態において説明した画像処理装置1、10及び学習装置20(以下、画像処理装置1等と称する)は、次のようなハードウェア構成を有していてもよい。図20は、本開示の各実施の形態にかかる画像処理装置等を実現可能な、コンピュータ(情報処理装置)のハードウェア構成を例示するブロック図である。
図20を参照すると、画像処理装置1等は、プロセッサ1201及びメモリ1202を含む。プロセッサ1201は、メモリ1202からソフトウェア(コンピュータプログラム)を読み出して実行することで、上述の実施形態においてフローチャートを用いて説明された画像処理装置1等の処理を行う。プロセッサ1201は、例えば、マイクロプロセッサ、MPU(Micro Processing Unit)、又はCPU(Central Processing Unit)であってもよい。プロセッサ1201は、複数のプロセッサを含んでもよい。
メモリ1202は、揮発性メモリ及び不揮発性メモリの組み合わせによって構成される。メモリ1202は、プロセッサ1201から離れて配置されたストレージを含んでもよい。この場合、プロセッサ1201は、図示されていないI/Oインターフェースを介してメモリ1202にアクセスしてもよい。
図20の例では、メモリ1202は、ソフトウェアモジュール群を格納するために使用される。プロセッサ1201は、これらのソフトウェアモジュール群をメモリ1202から読み出して実行することで、上述の実施形態において説明された画像処理装置1等の処理を行うことができる。
図20を用いて説明したように、画像処理装置1等が有するプロセッサの各々は、図面を用いて説明されたアルゴリズムをコンピュータに行わせるための命令群を含む1または複数のプログラムを実行する。
上述の例において、プログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)を含む。さらに、非一時的なコンピュータ可読媒体の例は、CD−ROM(Read Only Memory)、CD−R、CD−R/Wを含む。さらに、非一時的なコンピュータ可読媒体の例は、半導体メモリを含む。半導体メモリは、例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(Random Access Memory)を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
以上、実施の形態を参照して本願発明を説明したが、本願発明は上記によって限定されるものではない。本願発明の構成や詳細には、発明のスコープ内で当業者が理解し得る様々な変更をすることができる。また、本開示は、それぞれの実施の形態を適宜組み合わせて実施されてもよい。
また、上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
(付記1)
撮像装置により撮像された第1画像を入力する入力部と、
学習済みの学習モデルに基づいて、前記第1画像のうち人物が含まれると推定される推定領域から、前記撮像装置からの距離が等しいと推定される第1領域を抽出し、前記第1領域を含む第2画像を生成する生成部と、を備える画像処理装置。
(付記2)
前記生成部は、前記学習モデルに基づいて、前記推定領域から、前記撮像装置との距離が異なる境界線よりも前記撮像装置からの距離が短い第2領域、及び前記境界線よりも前記撮像装置からの距離が長い第3領域のうちの少なくとも1つの領域を抽出し、前記第2領域及び前記第3領域のうちの少なくとも1つの領域を含む前記第2画像を生成し、
前記第1領域と、前記第2領域及び前記第3領域の少なくとも1つの領域とに基づいて、前記第1画像に含まれる人物の前後関係を決定する決定部を備える、付記1に記載の画像処理装置。
(付記3)
前記決定部は、前記第1領域に基づき人物領域を特定し、前記特定された人物領域の各々の下端線、上端線、及び前記特定された人物領域の各々に含まれる画素数のうちの少なくとも1つに基づいて、前記第1画像に含まれる人物の前後関係を決定する、付記2に記載の画像処理装置。
(付記4)
前記決定部は、前記第1領域に基づき人物領域を特定し、前記特定された人物領域の各々について、前記第2領域及び前記第3領域のうちの少なくとも1つの領域に基づいて、隣接する人物領域との前後関係を決定し、各人物領域についての前記隣接する人物領域との前後関係に基づいて、前記第1画像に含まれる人物の前後関係を決定する、付記2又は3に記載の画像処理装置。
(付記5)
前記決定部は、前記特定された人物領域の各々と、前記隣接する人物領域との間に含まれる前記第2領域及び前記第3領域のうちの少なくとも1つの領域との距離に基づいて、前記特定された各人物領域の人物と、前記隣接する人物領域の人物との前後関係を決定する、付記4に記載の画像処理装置。
(付記6)
前記決定部は、前記生成部が前記第2領域を抽出する場合、前記特定された各人物領域及び前記隣接する人物領域のうち、前記特定された各人物領域と、前記隣接する人物領域との間に含まれる前記第2領域との距離が近い一方の人物領域の人物を他方の人物領域の人物よりも前に位置すると決定する、付記5に記載の画像処理装置。
(付記7)
前記決定部は、前記生成部が前記第3領域を抽出する場合、前記特定された各人物領域及び前記隣接する人物領域のうち、前記特定された各人物領域と、前記隣接する人物領域との間に含まれる前記第3領域との距離が近い一方の人物領域の人物を他方の人物領域の人物よりも後ろに位置すると決定する、付記5又は6に記載の画像処理装置。
(付記8)
前記学習モデルは、前記推定領域に含まれる所定の画素ブロック毎に、複数の領域パターンのうち一致する領域パターンを出力する学習モデルであり、
前記生成部は、前記出力された領域パターンに基づいて、前記推定領域から、前記第1領域と、前記第2領域及び前記第3領域のうちの少なくとも1つの領域と、を抽出する、付記2〜7のいずれか1項に記載の画像処理装置。
(付記9)
前記複数の領域パターンは、前記第1領域を抽出するための第1パターンと、前記第2領域及び前記第3領域のうちの少なくとも1つの領域を抽出するための複数の第2パターンとを含む、付記8に記載の画像処理装置。
(付記10)
前記複数の第2パターンは、前記撮像装置との距離の勾配方向を示す奥行勾配方向がそれぞれ異なるパターンである、付記9に記載の画像処理装置。
(付記11)
前記複数の第2パターンは、前記奥行勾配方向が8方向又は16方向のそれぞれに対応するパターンである、付記10に記載の画像処理装置。
(付記12)
撮像装置により撮像された第1画像を入力することと、
学習済みの学習モデルに基づいて、前記第1画像のうち人物が含まれると推定される推定領域から、前記撮像装置からの距離が等しいと推定される第1領域を抽出し、前記第1領域を含む第2画像を生成することと、を含む画像処理方法。
(付記13)
撮像装置により撮像された第1画像を入力することと、
学習済みの学習モデルに基づいて、前記第1画像のうち人物が含まれると推定される推定領域から、前記撮像装置からの距離が等しいと推定される第1領域を抽出し、前記第1領域を含む第2画像を生成することと、をコンピュータに実行させるプログラム。
この出願は、2019年3月11日に出願された日本出願特願2019−044273を基礎とする優先権を主張し、その開示の全てをここに取り込む。
1、10 画像処理装置
2、11、21 入力部
3、13 生成部
12、22 データ記憶部
14、23 モデル記憶部
15 決定部
20 学習装置
24 学習部

Claims (13)

  1. 撮像装置により撮像された第1画像を入力する入力手段と、
    学習済みの学習モデルに基づいて、前記第1画像のうち人物が含まれると推定される推定領域から、前記撮像装置からの距離が等しいと推定される第1領域を抽出し、前記第1領域を含む第2画像を生成する生成手段と、を備える画像処理装置。
  2. 前記生成手段は、前記学習モデルに基づいて、前記推定領域から、前記撮像装置との距離が異なる境界線よりも前記撮像装置からの距離が短い第2領域、及び前記境界線よりも前記撮像装置からの距離が長い第3領域のうちの少なくとも1つの領域を抽出し、前記第2領域及び前記第3領域のうちの少なくとも1つの領域を含む前記第2画像を生成し、
    前記第1領域と、前記第2領域及び前記第3領域の少なくとも1つの領域とに基づいて、前記第1画像に含まれる人物の前後関係を決定する決定手段を備える、請求項1に記載の画像処理装置。
  3. 前記決定手段は、前記第1領域に基づき人物領域を特定し、前記特定された人物領域の各々の下端線、上端線、及び前記特定された人物領域の各々に含まれる画素数のうちの少なくとも1つに基づいて、前記第1画像に含まれる人物の前後関係を決定する、請求項2に記載の画像処理装置。
  4. 前記決定手段は、前記第1領域に基づき人物領域を特定し、前記特定された人物領域の各々について、前記第2領域及び前記第3領域のうちの少なくとも1つの領域に基づいて、隣接する人物領域との前後関係を決定し、各人物領域についての前記隣接する人物領域との前後関係に基づいて、前記第1画像に含まれる人物の前後関係を決定する、請求項2又は3に記載の画像処理装置。
  5. 前記決定手段は、前記特定された人物領域の各々と、前記隣接する人物領域との間に含まれる前記第2領域及び前記第3領域のうちの少なくとも1つの領域との距離に基づいて、前記特定された各人物領域の人物と、前記隣接する人物領域の人物との前後関係を決定する、請求項4に記載の画像処理装置。
  6. 前記決定手段は、前記生成手段が前記第2領域を抽出する場合、前記特定された各人物領域及び前記隣接する人物領域のうち、前記特定された各人物領域と、前記隣接する人物領域との間に含まれる前記第2領域との距離が近い一方の人物領域の人物を他方の人物領域の人物よりも前に位置すると決定する、請求項5に記載の画像処理装置。
  7. 前記決定手段は、前記生成手段が前記第3領域を抽出する場合、前記特定された各人物領域及び前記隣接する人物領域のうち、前記特定された各人物領域と、前記隣接する人物領域との間に含まれる前記第3領域との距離が近い一方の人物領域の人物を他方の人物領域の人物よりも後ろに位置すると決定する、請求項5又は6に記載の画像処理装置。
  8. 前記学習モデルは、前記推定領域に含まれる所定の画素ブロック毎に、複数の領域パターンのうち一致する領域パターンを出力する学習モデルであり、
    前記生成手段は、前記出力された領域パターンに基づいて、前記推定領域から、前記第1領域と、前記第2領域及び前記第3領域のうちの少なくとも1つの領域と、を抽出する、請求項2〜7のいずれか1項に記載の画像処理装置。
  9. 前記複数の領域パターンは、前記第1領域を抽出するための第1パターンと、前記第2領域及び前記第3領域のうちの少なくとも1つの領域を抽出するための複数の第2パターンとを含む、請求項8に記載の画像処理装置。
  10. 前記複数の第2パターンは、前記撮像装置との距離の勾配方向を示す奥行勾配方向がそれぞれ異なるパターンである、請求項9に記載の画像処理装置。
  11. 前記複数の第2パターンは、前記奥行勾配方向が8方向又は16方向のそれぞれに対応するパターンである、請求項10に記載の画像処理装置。
  12. 撮像装置により撮像された第1画像を入力することと、
    学習済みの学習モデルに基づいて、前記第1画像のうち人物が含まれると推定される推定領域から、前記撮像装置からの距離が等しいと推定される第1領域を抽出し、前記第1領域を含む第2画像を生成することと、を含む画像処理方法。
  13. 撮像装置により撮像された第1画像を入力することと、
    学習済みの学習モデルに基づいて、前記第1画像のうち人物が含まれると推定される推定領域から、前記撮像装置からの距離が等しいと推定される第1領域を抽出し、前記第1領域を含む第2画像を生成することと、をコンピュータに実行させるプログラムを格納した非一時的なコンピュータ可読媒体。
JP2021505596A 2019-03-11 2020-02-06 画像処理装置、画像処理方法及びプログラム Active JP7248345B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019044273 2019-03-11
JP2019044273 2019-03-11
PCT/JP2020/004495 WO2020184006A1 (ja) 2019-03-11 2020-02-06 画像処理装置、画像処理方法及び非一時的なコンピュータ可読媒体

Publications (2)

Publication Number Publication Date
JPWO2020184006A1 true JPWO2020184006A1 (ja) 2021-12-09
JP7248345B2 JP7248345B2 (ja) 2023-03-29

Family

ID=72427907

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021505596A Active JP7248345B2 (ja) 2019-03-11 2020-02-06 画像処理装置、画像処理方法及びプログラム

Country Status (2)

Country Link
JP (1) JP7248345B2 (ja)
WO (1) WO2020184006A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11881025B1 (en) * 2022-07-11 2024-01-23 Hewlett-Packard Development Company, L.P. Compound images

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000293687A (ja) * 1999-02-02 2000-10-20 Minolta Co Ltd 3次元形状データ処理装置および3次元形状データ処理方法
JP2015082245A (ja) * 2013-10-23 2015-04-27 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP2017027197A (ja) * 2015-07-17 2017-02-02 富士通株式会社 監視プログラム、監視装置、及び監視方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000293687A (ja) * 1999-02-02 2000-10-20 Minolta Co Ltd 3次元形状データ処理装置および3次元形状データ処理方法
JP2015082245A (ja) * 2013-10-23 2015-04-27 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP2017027197A (ja) * 2015-07-17 2017-02-02 富士通株式会社 監視プログラム、監視装置、及び監視方法

Also Published As

Publication number Publication date
WO2020184006A1 (ja) 2020-09-17
JP7248345B2 (ja) 2023-03-29

Similar Documents

Publication Publication Date Title
CN107766839B (zh) 基于3d卷积神经网络的动作识别方法和装置
US10936911B2 (en) Logo detection
JP6950692B2 (ja) 人流推定装置、人流推定方法およびプログラム
KR20190028349A (ko) 이미지 내 휴먼 분리를 위한 전자 장치 및 방법
US10474876B2 (en) Image processing apparatus and image processing method
US20150228081A1 (en) Method and apparatus for reconstructing 3d face with stereo camera
JP2011134114A (ja) パターン認識方法およびパターン認識装置
JP2014137756A5 (ja)
JP2019003299A (ja) 画像認識装置および画像認識方法
CN110197149B (zh) 耳部关键点检测方法、装置、存储介质及电子设备
CN110956114A (zh) 人脸活体检测方法、装置、检测系统及存储介质
CN112381104A (zh) 一种图像识别方法、装置、计算机设备及存储介质
CN112270745B (zh) 一种图像生成方法、装置、设备以及存储介质
JPWO2018207365A1 (ja) 距離画像処理装置、距離画像処理システム、距離画像処理方法および距離画像処理プログラム
CN107622252A (zh) 信息生成方法和装置
US20230237777A1 (en) Information processing apparatus, learning apparatus, image recognition apparatus, information processing method, learning method, image recognition method, and non-transitory-computer-readable storage medium
JP2014170368A (ja) 画像処理装置、方法及びプログラム並びに移動体
WO2020184006A1 (ja) 画像処理装置、画像処理方法及び非一時的なコンピュータ可読媒体
CN110580708B (zh) 一种快速移动检测方法、装置及电子设备
CN110062132B (zh) 剧场表演重建方法及装置
JP6583923B2 (ja) カメラのキャリブレーション装置、方法及びプログラム
EP3699865B1 (en) Three-dimensional face shape derivation device, three-dimensional face shape deriving method, and non-transitory computer readable medium
KR101592087B1 (ko) 배경 영상의 위치를 이용한 관심맵 생성 방법 및 이를 기록한 기록 매체
JP2017033556A (ja) 画像処理方法及び電子機器
JP2020144686A (ja) モデル作成システム、モデル作成方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210728

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210728

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220826

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230202

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230214

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230309

R151 Written notification of patent or utility model registration

Ref document number: 7248345

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151