JP2019091121A - 情報処理装置、背景更新方法および背景更新プログラム - Google Patents

情報処理装置、背景更新方法および背景更新プログラム Download PDF

Info

Publication number
JP2019091121A
JP2019091121A JP2017217768A JP2017217768A JP2019091121A JP 2019091121 A JP2019091121 A JP 2019091121A JP 2017217768 A JP2017217768 A JP 2017217768A JP 2017217768 A JP2017217768 A JP 2017217768A JP 2019091121 A JP2019091121 A JP 2019091121A
Authority
JP
Japan
Prior art keywords
background
moving object
image
frame
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017217768A
Other languages
English (en)
Other versions
JP7067023B2 (ja
Inventor
典弘 覚幸
Norihiro Kakuko
典弘 覚幸
珊珊 于
Shanshan Yu
珊珊 于
猛 大谷
Takeshi Otani
猛 大谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2017217768A priority Critical patent/JP7067023B2/ja
Priority to CN201811313126.9A priority patent/CN109767453B9/zh
Priority to EP18204867.8A priority patent/EP3483835B1/en
Priority to US16/185,497 priority patent/US10713799B2/en
Publication of JP2019091121A publication Critical patent/JP2019091121A/ja
Application granted granted Critical
Publication of JP7067023B2 publication Critical patent/JP7067023B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20004Adaptive image processing
    • G06T2207/20012Locally adaptive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

【課題】動物体が背景画像に含まれて検出されることを抑制する。【解決手段】実施形態の情報処理装置は、抽出部と、追跡部と、決定部と、背景更新部とを有する。抽出部は、入力された動画像を構成する各フレーム同士を比較した結果に基づき、フレームに含まれる動物体の動物体領域を抽出する。追跡部は、抽出した動物体領域と、動画像の各フレームとの相関に基いて、フレーム間における動物体領域の位置を追跡する。決定部は、動画像の各フレームにおいて、位置を追跡した動物体領域がフレーム内に含まれる場合は当該動物体領域を除く画像領域を各フレームの背景領域と決定する。背景更新部は、決定した各フレームの背景領域に基いて動画像の背景画像を更新する。【選択図】図1

Description

本発明の実施形態は、情報処理装置、背景更新方法および背景更新プログラムに関する。
従来、カメラで撮影された動画像から前景として映り込む動物体を検出する手法として、背景差分法が知られている。背景差分法では、カメラで撮影された動画像から検出対象物体が撮影されていない背景画像(背景モデルとも呼ぶ)を検出して記憶しておく。そして、カメラで撮影された動画像から背景画像の差分を求めることで、動物体が映り込む画像領域を検出する。
背景差分法に用いる背景画像を検出する技術として、監視画像の各領域の画素値を所定の透過率で制御し、背景画像の対応する領域の画素値を順次更新する技術が知られている。また、動物体領域と検出された画素以外の画素についてはカウント値を増加させ、カウント値が所定の値となった画素については背景画像データを更新する技術が知られている。また、前景として継続的に現れた回数をカウントして得た静止時間が予め定めた静止判定閾値以上になった箇所を静止領域として判断し、静止領域と判断された領域について新たな背景モデルを作成する技術が知られている。
特開2013−152669号公報 特開2003−123074号公報 特開2010−15469号公報
しかしながら、上記の従来技術では、例えばカメラで撮影された動画像に映り込む動物体が一定時間にわたって静止した場合、動物体が影のように写り込んだ背景画像が検出されるという問題がある。
1つの側面では、動物体が背景画像に含まれて検出されることを抑制できる情報処理装置、背景更新方法および背景更新プログラムを提供することを目的とする。
第1の案では、情報処理装置は、抽出部と、追跡部と、決定部と、背景更新部とを有する。抽出部は、入力された動画像を構成する各フレーム同士を比較した結果に基づき、フレームに含まれる動物体の動物体領域を抽出する。追跡部は、抽出した動物体領域と、動画像の各フレームとの相関に基いて、フレーム間における動物体領域の位置を追跡する。決定部は、動画像の各フレームにおいて、位置を追跡した動物体領域がフレーム内に含まれる場合は当該動物体領域を除く画像領域を各フレームの背景領域と決定する。背景更新部は、決定した各フレームの背景領域に基いて動画像の背景画像を更新する。
本発明の1実施態様によれば、動物体が背景画像に含まれて検出されることを抑制できる。
図1は、第1の実施形態にかかる検出装置の機能構成例を示すブロック図である。 図2は、背景領域の決定を説明する説明図である。 図3は、更新された背景画像を説明する説明図である。 図4は、第1の実施形態にかかるシステム構成例を説明する説明図である。 図5は、第1の実施形態にかかるシステムの機能構成例を示すブロック図である。 図6は、第1の実施形態にかかるシステムの動作例を示すフローチャートである。 図7は、第2の実施形態にかかるシステム構成例を説明する説明図である。 図8は、第2の実施形態にかかるシステムの機能構成例を示すブロック図である。 図9は、第2の実施形態にかかるシステムの動作例を示すフローチャートである。 図10は、振動指示の決定を説明する説明図である。 図11は、第3の実施形態にかかるシステム構成例を説明する説明図である。 図12は、第3の実施形態にかかるシステムの機能構成例を示すブロック図である。 図13は、第3の実施形態にかかるシステムの動作例を示すフローチャートである。 図14は、実施形態にかかる検出装置のハードウエア構成の一例を示すブロック図である。
以下、図面を参照して、実施形態にかかる情報処理装置、背景更新方法および背景更新プログラムを説明する。実施形態において同一の機能を有する構成には同一の符号を付し、重複する説明は省略する。なお、以下の実施形態で説明する情報処理装置、背景更新方法および背景更新プログラムは、一例を示すに過ぎず、実施形態を限定するものではない。また、以下の各実施形態は、矛盾しない範囲内で適宜組みあわせてもよい。
(第1の実施形態)
図1は、第1の実施形態にかかる検出装置の機能構成例を示すブロック図である。図1に示すように、検出装置1には、カメラ2より撮影された動画像が入力される。検出装置1は、入力された動画像から前景として映り込む動物体以外の背景に対応する背景画像3を検出して出力する背景検出部10を有する。検出装置1は、動画像に対する画像処理を行う情報処理装置であり、例えばPC(パーソナルコンピュータ)、スマートフォン、タブレット端末等を採用できる。
背景画像3は、背景差分法により動物体が映り込む画像領域を検出するための背景に対応した背景モデルとも呼ばれる画像データであり、例えば背景に対応する画像領域の各画素の輝度値等を含む画素値を示す画像データである。背景差分法では、カメラ2により撮影された動画像から背景画像3の差分を求めることで、動物体が映り込む画像領域を検出できる。
背景検出部10は、動物体領域抽出部11、動物体領域保存部12、動物体領域追跡部13、背景領域決定部14、背景更新部15および背景保存部16を有する。
動物体領域抽出部11は、カメラ2より入力された動画像の前後のフレームの比較結果に基づき、各フレームに映り込む動物体に対応する画像領域である動物体領域を抽出する。すなわち、動物体領域抽出部11は、抽出部の一例である。
動物体領域保存部12は、動物体領域抽出部11が抽出した動物体領域を保存する。具体的には、動物体領域保存部12は、動物体領域抽出部11が抽出した動物体領域内の画素をフレームから抽出して保存する。
動物体領域追跡部13は、動物体領域保存部12に保存された動物体領域を参照することで、動物体領域抽出部11が抽出した動物体領域と、動画像の各フレームとの相関に基いて、フレーム間における動物体領域の位置を追跡する。すなわち、動物体領域追跡部13は、追跡部の一例である。
背景領域決定部14は、カメラ2により撮影された動画像の各フレームにおいて、動物体領域抽出部11が抽出した動物体領域を除く画像領域を各フレームの背景領域と決定する。また、背景領域決定部14は、動物体領域追跡部13が位置を追跡した動物体領域がフレーム内に含まれる場合はその動物体領域も除く画像領域を各フレームの背景領域と決定する。すなわち、背景領域決定部14は、決定部の一例である。
図2は、背景領域の決定を説明する説明図である。図2において、動画像G1は、カメラ2が撮影して背景検出部10に入力される動画像である。また、相関情報G2は、動画像G1における前後のフレームの輝度値の相関を算出して得られた情報である。
図2に示すように、動画像G1における前後のフレームで移動している動物体が含まれる場合、相関情報G2では、動物体に対応する領域R1の相関が低くなる。
よって、動物体領域抽出部11は、処理対象のフレームと一つ前のフレームとの相関情報G2より相関の低い領域R1を、動物体が含まれる候補の領域として求める。そして、動物体領域抽出部11は、求めた領域R1の中で処理対象のフレームと輝度値の相関が高い領域R2を動物体に対応する動物体領域として抽出する。これにより、背景領域決定部14は、動きのある動物体に対応して抽出された領域R2以外の画像領域を背景領域と決定する。
また、「フレームt−1」以後のように動物体が静止した場合は、相関情報G2より相関の低い領域R1が得られないことから、動物体領域抽出部11による動物体領域の抽出が行われなくなる。
このような動物体の静止に対応するため、動物体領域追跡部13は、動物体領域保存部12に保存された動物体領域、すなわち領域R2と、動画像G1の各フレームとの相関に基づいて、フレーム間における動物体領域の位置を追跡する。具体的には、動物体領域追跡部13は、動画像G1の各フレームにおいて、領域R2との相関の高い位置を追跡する。
例えば、図2の例では「フレームt−1」以後のフレームにおいて動物体は静止しているが、動物体領域追跡部13は、前のフレームまでに得られた領域R2との相関に基づいて、静止した動物体に対応する領域R3の位置を追跡する。これにより、背景領域決定部14は、動物体領域追跡部13により位置を追跡した領域R3がフレーム内にとどまっている場合、領域R3以外の画像領域を背景領域と決定する。
背景更新部15は、背景領域決定部14が決定した各フレームの背景領域に基いて、カメラ2により撮影された動画像の各フレームにおける背景画像3を検出する。すなわち、背景更新部15は、背景検出部の一例である。
具体的には、背景更新部15は、背景領域決定部14が決定した背景領域に基づいて、処理対象のフレームの背景領域内の画素値(例えば輝度値)に所定値を掛け合わせる。これにより、背景更新部15は、処理対象のフレームから背景領域に対応した背景画像を検出する。
次いで、背景更新部15は、処理対象のフレームより前のフレームまでに検出した背景画像を保存する背景保存部16より背景画像を読み出し、処理対象のフレームから検出した背景画像を足し合わせる。これにより、背景更新部15は、背景保存部16が保存する背景画像を、処理対象のフレームまでの背景画像として更新する。次いで、背景更新部15は、更新した背景画像を背景画像3として出力する。
図3は、更新された背景画像を説明する説明図である。図3において、動画像G1は、フレーム外から移動した店員Hがレジでの作業を行う場面を撮影したものである。動物体領域抽出部11により抽出された動物体領域以外の画像領域を背景領域とする場合は、静止以後のフレームにおいて動物体領域の抽出が行われなくなることから、レジ前で静止した店員Hに対応する影H’が背景画像3’に含まれることがある。このように、動物体(店員H)が影のように写り込んだ背景画像3‘を用いて背景差分法を実施した場合は、動物体の検出精度の低減を招くこととなる。
これに対し、動物体領域追跡部13により位置を追跡した動物体領域がフレーム内にとどまっているとき、その動物体領域以外の画像領域を背景領域とする場合は、レジ前で静止した店員H以外も背景領域とすることとなる。よって、店員Hが含まれない背景画像3を得ることができる。
ここで、上記の検出装置1を店員が顧客と接客する際の接客対応を監視するシステムに適用した場合を例示し、検出装置1にかかる処理の詳細を説明する。
図4は、第1の実施形態にかかるシステム構成例を説明する説明図である。図4に示すように、カメラ2は、顧客H1と店員H2との接客現場における店員H2を撮影し、撮影した動画像を上司H3の端末装置1aへ出力する。
端末装置1aは、上記の検出装置1を適用したPCなどの情報処理装置であり、カメラ2が撮影した動画像から背景画像を検出する。そして、端末装置1aは、検出した背景画像に基づき、背景差分法により接客時における店員H2の動きを検出し、顧客H1に対する店員H2の接客対応を評価してディスプレイなどに表示する。これにより、上司H3は、店員H2の接客対応を確認できる。
図5は、第1の実施形態にかかるシステムの機能構成例を示すブロック図である。図5に示すように、端末装置1aは、背景検出部10a、背景差分処理部20、顔検知部21、動き算出部22、うなずき検知部23、応対品質評価部24、データ処理部25および出力部26を有する。
背景検出部10aは、動物体領域抽出部11、動物体領域保存部12、動物体領域追跡部13、背景領域決定部14、背景更新部15、背景保存部16および動き保存部17を有する。
動物体領域抽出部11は、動物体領域候補抽出部11a、特徴点抽出部11b、領域内特徴点抽出部11c、動物体領域候補動き算出部11d、動物体領域決定部11eを有する。
動物体領域候補抽出部11aは、前後のフレームの相関に基づいて動物体領域の候補を抽出する。具体的には、動物体領域候補抽出部11aは、次の式(1)に示すように、処理対象のフレームと一つ前のフレームとの相関情報G2より相関の低い領域R1を処理対象のフレームにおける動物体領域候補として取得する。
Figure 2019091121
式(1)において、tはフレームかかる時刻、G(t,x,y)は時刻(t)のフレームにおける画素(x,y)である。閾値T1は、相関値を判定するために予め設定された閾値である。動物体領域候補抽出部11aは、式(1)を満たす画素点(x、y)の集合C、すなわち動物体領域候補を取得する。
特徴点抽出部11bは、動物体領域候補抽出部11aにより抽出された現時刻(t)の動物体領域候補の中から、画像における特徴点を抽出する。例えば、特徴点抽出部11bは、次の式(2)における4つの式のうち、2つ以上を満たす点(x,y)∈Cを特徴点として抽出する。なお、閾値T2は、特徴点を判定するために予め設定された閾値である。
これにより、特徴点抽出部11bは、方向の異なる2つ以上の際立ったエッジが周辺に存在する点を特徴点として抽出する。なお、式(2)の4つの式のうち、2つ以上を満たす点(x,y)∈Cとして抽出された点の集合をPとする。
Figure 2019091121
領域内特徴点抽出部11cは、特徴点抽出部11bにより抽出された特徴点をもとに、次の時刻(t+1)における動物体領域候補内の特徴点を領域内特徴点として抽出する。具体的には、領域内特徴点抽出部11cは、特徴点ごとに、次の時刻(t+1)のフレームの動物体領域候補における点の中で周辺の輝度の相関が一定値以上の点を探索し、探索された点を領域内特徴点とする。
例えば、領域内特徴点抽出部11cは、点(k,l)∈Cとしたとき、次の式(3)を満たす点(x,y)∈Pを領域内特徴点として取得する。なお、閾値T3は、相関の高さを判定するために予め設定された閾値である。取得した点の集合をP’とする。また、対応する次の時刻(t+1)における領域内特徴点の集合をC’とする。
Figure 2019091121
動物体領域候補動き算出部11dは、領域内特徴点ごとに、移動先の位置から移動前の位置を差し引いた動きを求め、求めた動きの平均を動物体領域候補の動きとして算出する。具体的には、動物体領域候補動き算出部11dは、動物体領域候補の動き(u(t),v(t))を次の式(4)により算出する。
Figure 2019091121
動物体領域決定部11eは、動物体領域候補の中から動物体領域を決定する。具体的には、動物体領域決定部11eは、現時刻の動物体領域候補の各点を動物体領域候補動き算出部11dにより算出した動物体領域候補の動きで移動させたときに、移動後の位置が動物体領域候補内の場合、動物体領域を構成すると判定する。
例えば、各点(x,y)∈Cにおいて、(x+y,y+v)∈Cであれば、動体領域を構成する点と判定する。次いで、動物体領域決定部11eは、動物体領域を構成すると判定した動物体領域候補の各点(集合R)を動物体領域と決定する。これにより、動物体領域抽出部11は、各フレームに映り込む動物体に対応する画像領域である動物体領域を抽出する。
動物体領域保存部12は、動物体領域決定部11eが決定した動物体領域をもとに、動物体領域内の画素(集合R)を抽出して保存する。すなわち、動物体領域保存部12は、各フレームより抽出された動物体領域を抽出して保存する。
動物体領域追跡部13は、動物体領域保存部12に保存された動物体領域を参照し、動画像の各フレームとの相関に基いて、フレーム間における動物体領域の位置を追跡する。具体的には、動物体領域追跡部13は、動物体領域保存部12に保存されている動物体領域MRを用いて、次の式(5)の値を最小とする平行移動量(p,q)を求める。そして、動物体領域追跡部13は、動物体領域MR内の各点を平行移動させた点の集合を次の時刻の動物体領域MR’として追跡する。
Figure 2019091121
また、動物体領域追跡部13は、現時刻の動物体領域の位置と、次の時刻の動物体領域の位置との差、すなわち平行移動量(p,q)を動きとして動き保存部17に保存する。
背景領域決定部14は、動物体領域抽出部11が抽出した動物体領域を除く画像領域を各フレームの背景領域と決定する。また、背景領域決定部14は、動物体領域追跡部13による追跡結果に基づいて、動物体領域追跡部13が位置を追跡した動物体領域がフレーム内に含まれる場合はその動物体領域も除く画像領域を各フレームの背景領域と決定する。
より具体的には、背景領域決定部14は、動物体領域追跡部13が位置を追跡した動物体領域の動き(u(k),v(k))について、k=1,…,tの各時刻において次の式(6)を満たす回数を判定する。ここで、閾値T4は、位置の移動を判別するために予め設定された閾値である。
Figure 2019091121
次いで、背景領域決定部14は、式(6)を満たす回数が閾値T5以上である場合、その動物体領域追跡部13が位置を追跡した動物体領域を除く画像領域を背景領域と決定する。ここで、閾値T5は、位置が移動したフレーム数を判別するために予め設定された閾値である。
すなわち、背景領域決定部14は、閾値T5以上のフレーム数にわたって位置が移動した動物体領域を除く画像領域を背景領域と決定する。このように、位置を追跡した動物体領域において、閾値T5以上のフレーム数にわたって位置が移動した動物体領域を除く画像領域を背景領域とすることで、例えば風で数フレーム揺れる木の枝が動物体領域とされ、背景から除外されることを抑制できる。
背景更新部15は、背景領域決定部14が決定した背景領域に基づいて、現時刻のフレームにおける背景領域内の各点の輝度値に、予め設定された所定値(固定値α)を掛け合わせる。これにより、背景更新部15は、現時刻のフレームにおける背景領域内の輝度値(現時刻のフレームまでの背景画像(背景モデル)に足し合わせるための現時刻のフレームにおける背景画像)を求める。
次いで、背景更新部15は、現時刻より前の背景画像を背景保存部16より読み出し、現時刻のフレームにおける背景領域の輝度値を足し合わせる。そして、背景更新部15は、足し合わせた背景画像について、1と固定値αとの和の値で割ることで得られた値を現時刻までの背景画像とし、背景保存部16の背景画像を更新する。具体的には、背景更新部15は、背景画像(H)中の背景と判定された各点(x,y)について、次の式(7)により背景を更新する。
Figure 2019091121
背景差分処理部20は、背景差分法にかかる背景差分処理を実行する。具体的には、背景差分処理部20は、背景保存部16の背景画像を参照し、カメラ2の動画像G1の各フレームと背景画像との差分に基いて、動画像G1の各フレームに含まれる動物体に対応する動物体画像を検出する。すなわち、背景差分処理部20は、差分処理部の一例である。
より具体的には、背景差分処理部20は、動画像G1の各フレームの点G(t,x,y)について、背景保存部16の背景画像H(t,x,y)との差分より、次の式(8)を満たす点の集合を動物体領域HMRとして取得する。なお、閾値T6は、背景差分法により動物体領域HMRを判別するために予め設定された閾値である。
Figure 2019091121
顔検知部21は、背景差分処理部20が検出した動物体領域HMRから人物の顔画像を検知する。具体的には、顔検知部21は、事前に撮影した店員H2の顔画像をF(x,y)(x=0,…,2X、y=0,…,2Y)とすると、次の式(9)を満たし、かつ動物体領域HMRに含まる領域を顔画像として検知する。
Figure 2019091121
なお、式(9)において、閾値T7は、顔と判別するために予め設定された閾値である。式(9)において、顔画像とする領域(FR)は、画素(k,l)を顔の中心とする(2X+1)×(2Y+1)の矩形となる。
動き算出部22は、顔検知部21が検知した顔画像の前後のフレームにおける動きを算出する。具体的には、動き算出部22は、次の式(10)を最小とする(k、l)を、顔の動きとして算出する。
Figure 2019091121
うなずき検知部23は、動き算出部22が算出した顔の動きをもとに、顔のうなずき、すなわち店員H2のうなずきを検知する。具体的には、うなずき検知部23は、顔の動き(u,v)のvの値(うなずく際の鉛直方向の顔の動き)が予め設定された閾値T8以上の負の変化があった後に、閾値T8以上の正の変化があるとき、うなずきと判定する。
例えば、vが最も小さい値vminとなる前の時間で閾値T5未満の変化の時刻を開始時刻、そのときのvの値をvleftとする。また、vが最も小さい値vminとなる後の時間で閾値T5未満の変化の時刻を終了時刻、そのときのvの値をvrightとする。うなずき検知部23は、うなずきの長さ(i)、vの変化量のうなずきの深さ(j)を、次の式(11)により求める。
Figure 2019091121
応対品質評価部24は、うなずき検知部23が検知した店員H2のうなずきを基に、顧客H1に対する店員H2の応対品質を評価する。すなわち、応対品質評価部24は、動物体画像に基づいて動物体の動きを評価する評価部の一例である。
具体的には、応対品質評価部24は、「同じうなずきを続けると、話し手は本当に話を聞いていると感じる」という従来の知見を基に、うなずき検知部23が検知した店員H2のうなずきの長さ(i)およびうなずきの深さ(j)から店員H2の応対品質を求める。
例えば、応対品質評価部24は、s回目のうなずきの長さをi、うなずきの深さをjとし、rがs−1から次の2つの式(12)を満たす間は、sを1ずつ小さくする。そして、応対品質評価部24は、式(12)を満たさなくなったときに回数R=s−rを算出する。次いで、応対品質評価部24は、算出した回数Rを用いて応対品質の評価値を(評価値)=1/Rで算出する。
Figure 2019091121
データ処理部25は、応対品質評価部24の評価結果をもとに、評価結果をディスプレイに表示する表示データを生成する。例えば、データ処理部25は、横軸を時間、縦軸を評価値とするグラフの表示データを生成する。出力部26は、データ処理部25が生成した表示データをディスプレイの画面に表示し、上司H3に評価結果を出力する。これにより、上司H3は、店員H2の応対品質、例えば横軸を時間、縦軸を評価値とするグラフの場合は応対品質の時間変化を確認できる。
図6は、第1の実施形態にかかるシステムの動作例を示すフローチャートである。図6に示すように、処理が開始されると、動物体領域候補抽出部11aは、カメラ2からの動画像G1をもとに、現時刻(t)のフレームと、前または後のフレームとの相関に基づいて動物体領域候補を取得する(S1)。次いで、特徴点抽出部11bは、現時刻(t)の動物体領域候補の中から、画像における特徴点を抽出する(S2)。
次いで、領域内特徴点抽出部11cは、特徴点ごとに、次の時刻(t+1)のフレームの動物体領域候補における点の中で周辺の輝度の相関が一定値以上の点を探索し、探索された点を領域内特徴点と決定する(S3)。
次いで、動物体領域候補動き算出部11dは、領域内特徴点ごとに、移動先の位置から移動前の位置を差し引いた動きを求め、動物体領域候補の動きを算出する(S4)。
次いで、動物体領域決定部11eは動物体領域候補の中から動物体領域を決定し(S5)、動物体領域保存部12は、動物体領域決定部11eが決定した動物体領域を保存する(S6)。
次いで、動物体領域追跡部13は、次の時刻の動物体領域候補を取得し、動物体領域保存部12に保存された動物体領域を参照して相関を求めることで、フレーム間における動物体領域の位置を追跡する(S7)。
次いで、動物体領域追跡部13は、現時刻の動物体領域の位置と、次の時刻の動物体領域の位置との差をもとに、動物体の動き(平行移動量(p,q))を動き保存部17に保存する(S8)。
次いで、背景領域決定部14は、動物体領域抽出部11が抽出した動物体領域および動物体領域追跡部13の追跡結果に基づいて、背景保存部16における背景画像の更新を行う領域(背景領域)を決定する(S9)。
次いで、背景更新部15は、背景領域決定部14が決定した背景領域に基づいて、現時刻のフレームの背景領域の各点の輝度値に固定値αをかけて、背景保存部16より読み出した背景画像に足し合わせ、背景画像の輝度を更新する(S10)。次いで、背景更新部15は、更新した背景画像の輝度を現時刻までのフレームにおける背景画像として背景保存部16に保存する(S11)。
次いで、背景差分処理部20は、背景保存部16に保存された背景(背景画像)を用いた背景差分法により、カメラ2の動画像G1より動物体領域を推定する(S12)。次いで、顔検知部21は、S12により推定された動物体領域から顔を検出する(S13)。次いで、動き算出部22は、顔検知部21が検知した顔の前後のフレームにおける動きを検出する(S14)。
次いで、うなずき検知部23は、動き算出部22が検出した顔の動きをもとに、顔のうなずき、すなわち店員H2のうなずきを検知する(S15)。次いで、応対品質評価部24は、うなずき検知部23が検知した店員H2のうなずきをもとに、顧客H1に対する店員H2の応対品質を評価する(S16)。次いで、データ処理部25は、応対品質評価部24の評価結果をディスプレイに表示する表示データを生成する。出力部26は、データ処理部25が生成した表示データをディスプレイの画面に表示し、店員H2の応対品質の評価結果を上司H3に出力する(S17)。
次いで、背景検出部10aは、カメラ2からの映像(動画像G1)の有無をもとに、映像の終了判定を行う(S18)。映像終了の場合(S18:YES)、背景検出部10aは、処理を終了する。また、映像終了でない場合(S18:NO)、背景検出部10aは、S1へ処理を戻す。
(第2の実施形態)
図7は、第2の実施形態にかかるシステム構成例を説明する説明図である。図7に示すように、カメラ2は、顧客H1と店員H2との接客現場における店員H2を撮影し、撮影した動画像を店員H2の端末装置1bへ出力する。
端末装置1bは、上記の検出装置1を適用したスマートフォンなどの情報処理装置であり、カメラ2が撮影した動画像から背景画像を検出する。そして、端末装置1bは、検出した背景画像に基づき、背景差分法により接客時における店員H2の動きを検出し、顧客H1に対する店員H2の接客対応を評価して振動などで評価結果を店員H2に通知する。これにより、店員H2は、自身の接客対応を確認できる。
図8は、第2の実施形態にかかるシステムの機能構成例を示すブロック図である。図8に示すように、端末装置1bは、背景検出部10bと、振動指示部27と、振動部28とを有する点が第1の実施形態にかかる端末装置1aと異なる。
背景検出部10bにおける背景領域決定部14は、背景度合い算出部14aおよび背景度合い調整部14bを有する。背景度合い算出部14aは、動物体領域追跡部13の追跡結果をもとに、追跡した動物体領域の位置が移動したフレーム数に基づいて、動物体領域の背景度合いを算出する。すなわち、背景度合い算出部14aは、算出部の一例である。
具体的には、背景度合い算出部14aは、動物体領域追跡部13の追跡結果から得られた、現時刻のフレームまでに位置の動きのあるフレーム数をもとに、動きのあるフレーム数が多いほど低い値を持つ背景度合いを算出する。
より具体的には、過去から現時刻のフレームまでに動きがあるフレーム数(回数)をAとすると、背景度合い算出部14aは、次の式(13)をもとに、例えば最大値を1とするように規定した背景度合い(HD)を算出する。
Figure 2019091121
背景度合い調整部14bは、背景度合い算出部14aが算出した背景度合い(HD)の大きさを所定の閾値をもとに調整する。例えば、背景度合い調整部14bは、背景度合い(HD)のうち、所定の下限閾値未満の重み値を0とし、下限閾値未満については背景度合い(HD)の大きさを0とする。また、背景度合い調整部14bは、背景度合い(HD)のうち、所定の上限閾値T10以上の値を閾値T10と同値とする。これにより、上限閾値T10以上については、背景度合い(HD)の大きさを閾値T10で固定する。
背景更新部15は、背景を更新する際の固定値αを、背景度合い調整部14bにより調整された背景度合い(HD)に応じた値とする。具体的には、背景更新部15は、背景領域決定部14が決定した背景領域に基づいて、現時刻のフレームにおける背景領域内の各点の輝度値に、背景度合い(HD)の値を掛け合わせる。次いで、背景更新部15は、現時刻より前の背景画像を背景保存部16より読み出し、現時刻のフレームにおける背景領域の輝度値を足し合わせる。そして、背景更新部15は、足し合わせた背景画像について、1と背景度合い(HD)との和の値で割ることで得られた値を現時刻までの背景画像とし、背景保存部16の背景画像を更新する。
より具体的には、背景更新部15は、背景画像(H)中の背景と判定された各点(x,y)について、次の式(14)により背景を更新する。
Figure 2019091121
このように、背景更新部15は、固定値αに代わり、動物体領域追跡部13が追跡した動物体領域の位置が移動したフレーム数に基づく背景度合いを背景の更新に適用することで、例えば長時間にわたって動きのあった動物体を適切に背景から除くことができる。また、背景更新部15は、過去における動きが短期であり、背景と推定できる動物体を背景に含めるように更新できる。
また、背景検出部10bは、終了判定部18を有する。終了判定部18は、背景保存部16に保存された背景画像を参照し、現時刻と次の時刻の背景の輝度の相関に基づいて背景の検出を終了するか否かの判定を行う。例えば、終了判定部18は、現時刻と次の時刻の背景の輝度の相関から動画像G1において同じ背景画像が所定期間続く場合は、背景の検出を不要とし、背景の検出を終了するものと判定する。
より具体的には、終了判定部18は、現時刻の背景画像H(t,x,y)と、次の時刻の背景画像H(t+1,x,y)の輝度の相関が次の式(15)を満たす場合が所定の閾値T12以上続くと、背景検出を終了と判定する。なお、閾値T11は、同じ背景画像であるか否かを評価するために予め設定された閾値である。
Figure 2019091121
終了判定部18の判定結果をもとに、背景検出部10bは、背景の検出を終了する。これにより、背景検出部10bは、例えば動画像G1において背景が変化しない期間が続く場合は、背景の検出を終了することができる。
振動指示部27は、応対品質評価部24の評価結果をもとに、店員H2への振動指示を振動部28に送信するか否かを判定する。例えば、振動指示部27は、応対品質評価部24における評価値が所定値未満の状態が所定の期間継続した場合、店員H2への振動指示を振動部28に送信する。振動部28は、振動指示部27の指示に基づいて振動し、店員H2に対して振動による通知を行う。これにより、店員H2は、応対品質評価部24の評価結果、例えば応対品質の評価値が所定値よりも低い状態が継続していることを認識できる。
図9は、第2の実施形態にかかるシステムの動作例を示すフローチャートである。図9に示すように、第1の実施形態とはS20〜S25の処理を有する点が異なっている。
具体的には、S9に次いで、背景度合い算出部14aは、動物体領域追跡部13の追跡結果をもとに、動物体領域の背景度合い(HD)を算出する(S20)。次いで、背景度合い調整部14bは、背景度合い算出部14aが算出した背景度合い(HD)の大きさを所定の閾値で調整する(S21)。
次いで、背景更新部15は、背景領域の各点の輝度に背景度合い(HD)の値をかけて得られた値を背景の輝度とし、背景保存部16の背景画像を更新する(S22)。
また、終了判定部18は、S11に次いで、背景保存部16に保存された背景画像を参照し、現時刻と次の時刻の背景画像の輝度の相関が閾値以上のときが一定回数続くか否かを判定する(S23)。
また、振動指示部27は、S16に次いで、応対品質評価部24の評価結果(応対品質)から振動部28に振動指示を送信するか否かを決定する(S24)。
図10は、振動指示の決定を説明する説明図である。図10において、横軸は時間軸、縦軸はグラフの評価値を示す。図10に示すように、振動指示部27は、応対品質評価部24の評価結果における評価値のグラフについて、閾値T9を下回る期間Sが所定期間続いたとき、振動指示を振動部28に送信する。この振動指示による振動部28の振動により、店員H2は、例えば応対品質の評価値が閾値T9よりも低い状態が所定期間継続していることを認識できる。
図9に戻り、背景検出部10bは、S18が否定判定である場合(S18:NO)、終了判定部18の判定結果をもとに、背景検出(背景推定)の終了の有無を判定する(S25)。背景検出を終了する場合(S25:YES)、背景検出部10bは、S12へ処理を戻す。背景検出を終了しない場合(S25:NO)、背景検出部10bは、S1へ処理を戻す。
(第3の実施形態)
図11は、第3の実施形態にかかるシステム構成例を説明する説明図である。図11に示すように、カメラ2aは、上司H3により端末装置1dを介した撮影方向やズームイン/ズームアウトなどの操作が可能なカメラである。カメラ2aは、上司H3からの操作をもとに、顧客H1と店員H2との接客現場を撮影し、撮影した動画像をサーバ装置1cへ出力する。
サーバ装置1cは、上記の検出装置1を適用した情報処理装置であり、カメラ2が撮影した動画像から背景画像を検出する。そして、サーバ装置1cは、検出した背景画像に基づき、背景差分法により接客時における店員H2の動きを検出し、顧客H1に対する店員H2の接客対応を評価して端末装置1dへ通知する。端末装置1dは、通知された接客対応の評価をディスプレイなどに表示する。また、端末装置1dは、接客対応の評価に対し、上司H3が店員H2に行う指示(フィードバック)の入力を受け付け、入力された指示を店員H2の端末装置4にフィードバックする。
図12は、第3の実施形態にかかるシステムの機能構成例を示すブロック図である。図12に示すように、サーバ装置1cは、背景検出部10cと、映像補正部29とを有する点が第1の実施形態にかかる端末装置1aと異なる。
背景検出部10cは、ジャイロセンサ30およびユーザ入力保存部31を有する。ジャイロセンサ30は、カメラ2aのx,y,z軸方向の動きを検出するセンサであり、動き検出部の一例である。ユーザ入力保存部31は、端末装置1dにおいてユーザ(上司H3)が行った入力指示、例えばカメラ2aの操作指示などを保存する。
背景領域決定部14は、ジャイロセンサ30が検出したカメラ2aの動きに基づき、各フレームにおける背景領域のカメラ2aの動きに伴うずれを補正する。具体的には、背景領域決定部14は、次の式(16)に示す回転行列Rotをもとに、カメラの動き(x軸(水平)、y軸(垂直)、z軸(光軸)を中心とした回転)に伴う回転ずれを補正する。式(16)において、ジャイロセンサ30が検出したカメラ2aの動きにおける回転角度は、θx、θy、θzとする。これにより、背景領域決定部14は、カメラ2aの動きに伴うずれを補正した背景画像を得ることができる。
Figure 2019091121
映像補正部29は、ユーザ入力保存部31に保存されたカメラ2aの操作指示をもとに、カメラ2aの映像(動画像G1)を補正する。具体的には、映像補正部29は、ユーザが行ったズームイン/ズームアウトをキャンセルするように、動画像G1を補正する。
より具体的には、映像補正部29は、ユーザが行ったズームイン/ズームアウトのズーム率をZとし、修正後の動画像(G’)を次の式(17)により算出する。なお、式(17)において、U(x)は、xの小数点以下を切り捨てる関数とする。
Figure 2019091121
端末装置1dは、データ処理部25、出力部26、ユーザ入力部32、カメラ操作入力部33およびフィードバック部34を有する。ユーザ入力部32は、キーボードやマウス等の入力装置(図示しない)からの入力に基づいて、処理の終了、店員H2へのフィードバックの内容など、各種のユーザ入力を受け付ける。ユーザ入力部32は、受け付けた操作内容をユーザ入力保存部31へ通知する。
カメラ操作入力部33は、キーボードやマウス等の入力装置(図示しない)からの入力に基づいて、カメラ2aにかかる操作入力(撮影方向やズームイン/ズームアウト)などを受け付ける。カメラ操作入力部33は、受け付けた操作内容をユーザ入力保存部31へ通知する。フィードバック部34は、ユーザ入力部32が受け付けた、店員H2へのフィードバックの内容を端末装置4へ通知する。
図13は、第3の実施形態にかかるシステムの動作例を示すフローチャートである。図13に示すように、第1の実施形態とは、S30〜S35の処理を有する点が異なっている。
具体的には、カメラ操作入力部33は、ズームイン・ズームアウトの入力をユーザ(上司H3)より受け付ける(S30)。カメラ操作入力部33が受け付けたズームイン・ズームアウトの入力内容はユーザ入力保存部31に保存される。
次いで、映像補正部29は、ユーザ入力保存部31に保存されたズームイン・ズームアウトの入力内容をもとに、ズームをキャンセルするように映像(動画像G1)を修正する(S31)。
また、背景領域決定部14は、S8に次いで、ジャイロセンサ30よりカメラ2aの動きを取得する(S32)。次いで、背景領域決定部14は、ジャイロセンサ30が検出したカメラ2aの動きに基づき、各フレームにおける背景領域のカメラ2aの動きに伴うずれを補正する。これにより、背景領域決定部14は、カメラ2aの動きを差し引いて背景の更新を行う領域(背景領域)を決定する(S33)。
また、ユーザ入力部32は、S11に次いで、推定中の背景、すなわち背景検出部10cが検出した背景を出力部26よりディスプレイに表示する。次いで、ユーザ入力部32は、ユーザ(上司H3)から背景推定が完了したか否かの入力を受け付ける(S34)。背景推定が完了したとの入力がある場合、ユーザ入力部32は、背景推定の完了をユーザ入力保存部31に保存する。背景検出部10cは、背景推定の完了がユーザ入力保存部31に保存された場合、背景検出部10cにおける背景の検出を終了する。
また、フィードバック部34は、S17に次いで、ユーザ入力部32がユーザ(上司H3)より受け付けた、店員H2へのフィードバックの内容を端末装置4へ通知する(S35)。これにより、店員H2には、端末装置4を介して、上司H3が店員H2に行う指示(フィードバック)が通知される。
以上のように、検出装置1、端末装置1a、1b、1cは、動物体領域抽出部11、動物体領域追跡部13、背景領域決定部14および背景更新部15を有する。動物体領域抽出部11は、入力された動画像の前後のフレームの比較結果に基づき、フレームに含まれる動物体の動物体領域を抽出する。動物体領域追跡部13は、動物体領域抽出部11が抽出した動物体領域と、動画像の各フレームとの相関に基いて、フレーム間における動物体領域の位置を追跡する。背景領域決定部14は、動画像の各フレームにおいて、抽出した動物体領域を除く画像領域を各フレームの背景領域と決定する。また、背景領域決定部14は、動物体領域追跡部13が位置を追跡した動物体領域がフレーム内に含まれる場合はその動物体領域を除く画像領域を各フレームの背景領域と決定する。背景更新部15は、背景領域決定部14が決定した各フレームの背景領域に基いて動画像の各フレームにおける背景画像を検出する。
したがって、検出装置1、端末装置1a、1b、1cは、例えば動画像に写り込んだ動物体が一定時間にわたって静止した場合であっても、動物体が背景画像に含まれて検出されることを抑制できる。
また、背景領域決定部14は、閾値T5以上のフレーム数にわたって位置が移動した動物体領域を除く画像領域を背景領域と決定する。このように、位置を追跡した動物体領域の中で、閾値T5以上のフレーム数にわたって位置が移動した動物体領域を除く画像領域を背景領域とすることで、例えば風で数フレーム揺れる木の枝が動物体領域とされ、背景から除外されることを抑制できる。
また、検出装置1、端末装置1a、1b、1cは、動画像の所定のフレームより前のフレームまでに検出した背景画像を保存する背景保存部16を有する。背景更新部15は、所定のフレームにおいて決定した背景領域内の画素値に所定値(固定値α)を掛けた上で、背景保存部16に保存された背景画像に足し合わせることで、所定フレームに対応する背景画像を検出する。これにより、検出装置1、端末装置1a、1b、1cは、所定のフレームより前のフレームまでの背景画像、すなわち背景モデルについて、所定のフレームにおいて決定した背景領域内の画素値に所定値を掛け合わせた背景画像(所定のフレームの背景画像)を足し合わせて更新することができる。
また、検出装置1、端末装置1a、1b、1cは、所定値(固定値α)に代わり、動物体領域追跡部13が追跡した動物体領域の位置が移動したフレーム数に基づく背景度合い(HD)を背景の更新に適用してもよい。この場合は、例えば長時間にわたって動きのあった動物体を適切に背景から除くことができる。または、過去における動きが短期であり、背景と推定できる動物体を背景に含めるように更新できる。
なお、図示した各装置の各構成要素は、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。
また、検出装置1、端末装置1a、1b、1d、サーバ装置1c等(以下、代表して検出装置1と称する)で行われる各種処理機能は、CPU(またはMPU、MCU(Micro Controller Unit)等のマイクロ・コンピュータ)上で、その全部または任意の一部を実行するようにしてもよい。また、各種処理機能は、CPU(またはMPU、MCU等のマイクロ・コンピュータ)で解析実行されるプログラム上、またはワイヤードロジックによるハードウエア上で、その全部または任意の一部を実行するようにしてもよいことは言うまでもない。また、検出装置1で行われる各種処理機能は、クラウドコンピューティングにより、複数のコンピュータが協働して実行してもよい。
ところで、上記の実施形態で説明した各種の処理は、予め用意されたプログラムをコンピュータで実行することで実現できる。そこで、以下では、上記の実施形態と同様の機能を有するプログラムを実行するコンピュータ(ハードウエア)の一例を説明する。図14は、実施形態にかかる検出装置1のハードウエア構成の一例を示すブロック図である。なお、図14のハードウエア構成例は、コンピュータの一例として検出装置1を代表して説明するが、端末装置1a、1b、1d、サーバ装置1c等も同様であることは言うまでもないことである。
図14に示すように、検出装置1は、各種演算処理を実行するCPU101と、データ入力を受け付ける入力装置102と、モニタ103と、スピーカ104とを有する。また、検出装置1は、記憶媒体からプログラム等を読み取る媒体読取装置105と、各種装置と接続するためのインタフェース装置106と、有線または無線により外部機器と通信接続するための通信装置107とを有する。また、検出装置1は、各種情報を一時記憶するRAM108と、ハードディスク装置109とを有する。また、検出装置1内の各部(101〜109)は、バス110に接続される。
ハードディスク装置109には、上記の実施形態で説明した各種の処理を実行するためのプログラム111が記憶される。また、ハードディスク装置109には、プログラム111が参照する各種データ112が記憶される。入力装置102は、例えば、操作者から操作情報の入力を受け付ける。モニタ103は、例えば、操作者が操作する各種画面を表示する。インタフェース装置106は、例えば印刷装置等が接続される。通信装置107は、LAN(Local Area Network)等の通信ネットワークと接続され、通信ネットワークを介した外部機器との間で各種情報をやりとりする。
CPU101は、ハードディスク装置109に記憶されたプログラム111を読み出して、RAM108に展開して実行することで、各種の処理を行う。このプログラム111を実行することで、CPU101は、例えば背景検出部10、10a、10b、10c、背景差分処理部20、顔検知部21、動き算出部22、うなずき検知部23、応対品質評価部24、データ処理部25、出力部26、振動指示部27、映像補正部29、ユーザ入力部32、カメラ操作入力部33およびフィードバック部34等として機能する。なお、プログラム111は、ハードディスク装置109に記憶されていなくてもよい。例えば、検出装置1が読み取り可能な記憶媒体に記憶されたプログラム111を読み出して実行するようにしてもよい。検出装置1が読み取り可能な記憶媒体は、例えば、CD−ROMやDVDディスク、USB(Universal Serial Bus)メモリ等の可搬型記録媒体、フラッシュメモリ等の半導体メモリ、ハードディスクドライブ等が対応する。また、公衆回線、インターネット、LAN等に接続された装置にこのプログラム111を記憶させておき、検出装置1がこれらからプログラム111を読み出して実行するようにしてもよい。
以上の実施形態に関し、さらに以下の付記を開示する。
(付記1)入力された動画像を構成する各フレーム同士を比較した結果に基づき、前記フレームに含まれる動物体の動物体領域を抽出する抽出部と、
抽出した前記動物体領域と、前記動画像の各フレームとの相関に基いて、フレーム間における前記動物体領域の位置を追跡する追跡部と、
前記動画像の各フレームにおいて、位置を追跡した前記動物体領域がフレーム内に含まれる場合は当該動物体領域を除く画像領域を各フレームの背景領域と決定する決定部と、
決定した前記各フレームの背景領域に基いて前記動画像の背景画像を更新する背景更新部と、
を有することを特徴とする情報処理装置。
(付記2)前記決定部は、前記フレーム内に含まれる動物体領域の中の、所定数以上のフレーム数にわたって位置が移動した動物体領域を除く画像領域を前記背景領域と決定する、
ことを特徴とする付記1に記載の情報処置装置。
(付記3)前記動画像の所定のフレームより前のフレームまでに検出した背景画像を保存する保存部を更に有し、
前記背景更新部は、前記所定のフレームにおいて決定した前記背景領域内の画素値に所定値を掛けた上で、保存された前記背景画像に足し合わせることで、前記所定フレームに対応する背景画像を更新する、
ことを特徴とする付記1または2に記載の情報処理装置。
(付記4)追跡した前記動物体領域の位置が移動したフレーム数に基づいて、前記動物体領域の背景度合いを算出する算出部を更に有し、
前記背景更新部は、前記所定のフレームにおいて決定した前記背景領域内の画素値に算出した前記背景度合いを掛けた上で、保存された前記背景画像に足し合わせることで、前記所定フレームに対応する背景画像を更新する、
ことを特徴とする付記3に記載の情報処理装置。
(付記5)取得した前記背景画像と、前記動画像の各フレームとの差分に基いて、前記動画像の各フレームに含まれる動物体に対応する動物体画像を検出する差分処理部を更に有する、
ことを特徴とする付記1乃至4のいずれか一に記載の情報処理装置。
(付記6)前記動画像の各フレームより検出した前記動物体画像に基づいて前記動物体の動きを評価する評価部を更に有する、
ことを特徴とする付記5に記載の情報処理装置。
(付記7)前記動画像を撮影するカメラにかかる操作入力を受け付ける入力部と、
前記操作入力に基づき、当該操作入力をキャンセルするように前記動画像を補正する映像補正部と、を更に有し、
前記評価部は、補正された前記動画像の各フレームより検出した前記動物体画像に基づいて前記動物体の動きを評価する、
ことを特徴とする付記6に記載の情報処理装置。
(付記8)前記動画像を撮影するカメラの動きを検出する動き検出部を更に有し、
前記決定部は、検出した前記カメラの動きに基づき、各フレームにおける前記背景領域の前記カメラの動きに伴うずれを補正する、
ことを特徴とする付記1乃至7のいずれか一に記載の情報処理装置。
(付記9)入力された動画像を構成する各フレーム同士を比較した結果に基づき、前記フレームに含まれる動物体の動物体領域を抽出し、
抽出した前記動物体領域と、前記動画像の各フレームとの相関に基いて、フレーム間における前記動物体領域の位置を追跡し、
前記動画像の各フレームにおいて、位置を追跡した前記動物体領域がフレーム内に含まれる場合は当該動物体領域を除く画像領域を各フレームの背景領域と決定し、
決定した前記各フレームの背景領域に基いて前記動画像の背景画像を更新する、
処理をコンピュータが実行することを特徴とする背景更新方法。
(付記10)前記決定する処理は、前記フレーム内に含まれる動物体領域の中の、所定数以上のフレーム数にわたって位置が移動した動物体領域を除く画像領域を前記背景領域と決定する、
ことを特徴とする付記9に記載の背景更新方法。
(付記11)前記動画像の所定のフレームより前のフレームまでに検出した背景画像を保存する処理を更にコンピュータが実行し、
前記更新する処理は、前記所定のフレームにおいて決定した前記背景領域内の画素値に所定値を掛けた上で、保存された前記背景画像に足し合わせることで、前記所定フレームに対応する背景画像を更新する、
ことを特徴とする付記9または10に記載の背景更新方法。
(付記12)追跡した前記動物体領域の位置が移動したフレーム数に基づいて、前記動物体領域の背景度合いを算出する処理を更にコンピュータが実行し、
前記更新する処理は、前記所定のフレームにおいて決定した前記背景領域内の画素値に算出した前記背景度合いを掛けた上で、保存された前記背景画像に足し合わせることで、前記所定フレームに対応する背景画像を更新する、
ことを特徴とする付記11に記載の背景更新方法。
(付記13)取得した前記背景画像と、前記動画像の各フレームとの差分に基いて、前記動画像の各フレームに含まれる動物体に対応する動物体画像を検出する差分処理を更にコンピュータが実行する、
ことを特徴とする付記9乃至12のいずれか一に記載の背景更新方法。
(付記14)前記動画像の各フレームより検出した前記動物体画像に基づいて前記動物体の動きを評価する処理を更にコンピュータが実行する、
ことを特徴とする付記13に記載の背景更新方法。
(付記15)前記動画像を撮影するカメラにかかる操作入力を受け付ける処理と、
前記操作入力に基づき、当該操作入力をキャンセルするように前記動画像を補正する処理と、を更にコンピュータが実行し、
前記評価する処理は、補正された前記動画像の各フレームより検出した前記動物体画像に基づいて前記動物体の動きを評価する、
ことを特徴とする付記14に記載の背景更新方法。
(付記16)前記決定する処理は、前記動画像を撮影するカメラの動きを検出する動き検出部が検出した前記カメラの動きに基づき、各フレームにおける前記背景領域の前記カメラの動きに伴うずれを補正する、
ことを特徴とする付記9乃至15のいずれか一に記載の背景更新方法。
(付記17)入力された動画像を構成する各フレーム同士を比較した結果に基づき、前記フレームに含まれる動物体の動物体領域を抽出し、
抽出した前記動物体領域と、前記動画像の各フレームとの相関に基いて、フレーム間における前記動物体領域の位置を追跡し、
前記動画像の各フレームにおいて、位置を追跡した前記動物体領域がフレーム内に含まれる場合は当該動物体領域を除く画像領域を各フレームの背景領域と決定し、
決定した前記各フレームの背景領域に基いて前記動画像の背景画像を更新する、
処理をコンピュータに実行させることを特徴とする背景更新プログラム。
(付記18)前記決定する処理は、前記フレーム内に含まれる動物体領域の中の、所定数以上のフレーム数にわたって位置が移動した動物体領域を除く画像領域を前記背景領域と決定する、
ことを特徴とする付記17に記載の背景更新プログラム。
(付記19)前記動画像の所定のフレームより前のフレームまでに検出した背景画像を保存する処理を更にコンピュータに実行させ、
前記更新する処理は、前記所定のフレームにおいて決定した前記背景領域内の画素値に所定値を掛けた上で、保存された前記背景画像に足し合わせることで、前記所定フレームに対応する背景画像を更新する、
ことを特徴とする付記17または18に記載の背景更新プログラム。
(付記20)追跡した前記動物体領域の位置が移動したフレーム数に基づいて、前記動物体領域の背景度合いを算出する処理を更にコンピュータに実行させ、
前記更新する処理は、前記所定のフレームにおいて決定した前記背景領域内の画素値に算出した前記背景度合いを掛けた上で、保存された前記背景画像に足し合わせることで、前記所定フレームに対応する背景画像を更新する、
ことを特徴とする付記19に記載の背景更新プログラム。
(付記21)取得した前記背景画像と、前記動画像の各フレームとの差分に基いて、前記動画像の各フレームに含まれる動物体に対応する動物体画像を検出する差分処理を更にコンピュータに実行させる、
ことを特徴とする付記17乃至20のいずれか一に記載の背景更新プログラム。
(付記22)前記動画像の各フレームより検出した前記動物体画像に基づいて前記動物体の動きを評価する処理を更にコンピュータに実行させる、
ことを特徴とする付記21に記載の背景更新プログラム。
(付記23)前記動画像を撮影するカメラにかかる操作入力を受け付ける処理と、
前記操作入力に基づき、当該操作入力をキャンセルするように前記動画像を補正する処理と、を更にコンピュータに実行させ、
前記評価する処理は、補正された前記動画像の各フレームより検出した前記動物体画像に基づいて前記動物体の動きを評価する、
ことを特徴とする付記22に記載の背景更新プログラム。
(付記24)前記決定する処理は、前記動画像を撮影するカメラの動きを検出する動き検出部が検出した前記カメラの動きに基づき、各フレームにおける前記背景領域の前記カメラの動きに伴うずれを補正する、
ことを特徴とする付記17乃至23のいずれか一に記載の背景更新プログラム。
1…検出装置
1a、1b、1d、4…端末装置
1c…サーバ装置
2、2a…カメラ
3、3’…背景画像
10、10a、10b、10c…背景検出部
10a…背景検出部
10b…背景検出部
10c…背景検出部
11…動物体領域抽出部
11a…動物体領域候補抽出部
11b…特徴点抽出部
11c…領域内特徴点抽出部
11d…動物体領域候補動き算出部
11e…動物体領域決定部
12…動物体領域保存部
13…動物体領域追跡部
14…背景領域決定部
14a…背景度合い算出部
14b…背景度合い調整部
15…背景更新部
16…背景保存部
17…動き保存部
18…終了判定部
20…背景差分処理部
21…顔検知部
22…動き算出部
23…うなずき検知部
24…応対品質評価部
25…データ処理部
26…出力部
27…振動指示部
28…振動部
29…映像補正部
30…ジャイロセンサ
31…ユーザ入力保存部
32…ユーザ入力部
33…カメラ操作入力部
34…フィードバック部
101…CPU
102…入力装置
103…モニタ
104…スピーカ
105…媒体読取装置
106…インタフェース装置
107…通信装置
108…RAM
109…ハードディスク装置
110…バス
111…プログラム
112…各種データ
G1…動画像
G2…相関情報
H、H2…店員
H’…影
H1…顧客
H3…上司
R1〜R3…領域
T1〜T12…閾値
α…固定値

Claims (10)

  1. 入力された動画像を構成する各フレーム同士を比較した結果に基づき、前記フレームに含まれる動物体の動物体領域を抽出する抽出部と、
    抽出した前記動物体領域と、前記動画像の各フレームとの相関に基いて、フレーム間における前記動物体領域の位置を追跡する追跡部と、
    前記動画像の各フレームにおいて、位置を追跡した前記動物体領域がフレーム内に含まれる場合は当該動物体領域を除く画像領域を各フレームの背景領域と決定する決定部と、
    決定した前記各フレームの背景領域に基いて前記動画像の背景画像を更新する背景更新部と、
    を有することを特徴とする情報処理装置。
  2. 前記決定部は、前記フレーム内に含まれる動物体領域の中の、所定数以上のフレーム数にわたって位置が移動した動物体領域を除く画像領域を前記背景領域と決定する、
    ことを特徴とする請求項1に記載の情報処理装置。
  3. 前記動画像の所定のフレームより前のフレームまでに検出した背景画像を保存する保存部を更に有し、
    前記背景更新部は、前記所定のフレームにおいて決定した前記背景領域内の画素値に所定値を掛けた上で、保存された前記背景画像に足し合わせることで、前記所定フレームに対応する背景画像を更新する、
    ことを特徴とする請求項1または2に記載の情報処理装置。
  4. 追跡した前記動物体領域の位置が移動したフレーム数に基づいて、前記動物体領域の背景度合いを算出する算出部を更に有し、
    前記背景更新部は、前記所定のフレームにおいて決定した前記背景領域内の画素値に算出した前記背景度合いを掛けた上で、保存された前記背景画像に足し合わせることで、前記所定フレームに対応する背景画像を更新する、
    ことを特徴とする請求項3に記載の情報処理装置。
  5. 取得した前記背景画像と、前記動画像の各フレームとの差分に基いて、前記動画像の各フレームに含まれる動物体に対応する動物体画像を検出する差分処理部を更に有する、
    ことを特徴とする請求項1乃至4のいずれか一項に記載の情報処理装置。
  6. 前記動画像の各フレームより検出した前記動物体画像に基づいて前記動物体の動きを評価する評価部を更に有する、
    ことを特徴とする請求項5に記載の情報処理装置。
  7. 前記動画像を撮影するカメラにかかる操作入力を受け付ける入力部と、
    前記操作入力に基づき、当該操作入力をキャンセルするように前記動画像を補正する映像補正部と、を更に有し、
    前記評価部は、補正された前記動画像の各フレームより検出した前記動物体画像に基づいて前記動物体の動きを評価する、
    ことを特徴とする請求項6に記載の情報処理装置。
  8. 前記動画像を撮影するカメラの動きを検出する動き検出部を更に有し、
    前記決定部は、検出した前記カメラの動きに基づき、各フレームにおける前記背景領域の前記カメラの動きに伴うずれを補正する、
    ことを特徴とする請求項1乃至7のいずれか一項に記載の情報処理装置。
  9. 入力された動画像を構成する各フレーム同士を比較した結果に基づき、前記フレームに含まれる動物体の動物体領域を抽出し、
    抽出した前記動物体領域と、前記動画像の各フレームとの相関に基いて、フレーム間における前記動物体領域の位置を追跡し、
    前記動画像の各フレームにおいて、位置を追跡した前記動物体領域がフレーム内に含まれる場合は当該動物体領域を除く画像領域を各フレームの背景領域と決定し、
    決定した前記各フレームの背景領域に基いて前記動画像の背景画像を更新する、
    処理をコンピュータが実行することを特徴とする背景更新方法。
  10. 入力された動画像を構成する各フレーム同士を比較した結果に基づき、前記フレームに含まれる動物体の動物体領域を抽出し、
    抽出した前記動物体領域と、前記動画像の各フレームとの相関に基いて、フレーム間における前記動物体領域の位置を追跡し、
    前記動画像の各フレームにおいて、位置を追跡した前記動物体領域がフレーム内に含まれる場合は当該動物体領域を除く画像領域を各フレームの背景領域と決定し、
    決定した前記各フレームの背景領域に基いて前記動画像の背景画像を更新する、
    処理をコンピュータに実行させることを特徴とする背景更新プログラム。
JP2017217768A 2017-11-10 2017-11-10 情報処理装置、背景更新方法および背景更新プログラム Active JP7067023B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2017217768A JP7067023B2 (ja) 2017-11-10 2017-11-10 情報処理装置、背景更新方法および背景更新プログラム
CN201811313126.9A CN109767453B9 (zh) 2017-11-10 2018-11-06 信息处理装置、背景图像更新方法和非暂态计算机可读存储介质
EP18204867.8A EP3483835B1 (en) 2017-11-10 2018-11-07 Information processing apparatus, background image update method, and non-transitory computer-readable storage medium
US16/185,497 US10713799B2 (en) 2017-11-10 2018-11-09 Information processing apparatus, background image update method, and non-transitory computer-readable storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017217768A JP7067023B2 (ja) 2017-11-10 2017-11-10 情報処理装置、背景更新方法および背景更新プログラム

Publications (2)

Publication Number Publication Date
JP2019091121A true JP2019091121A (ja) 2019-06-13
JP7067023B2 JP7067023B2 (ja) 2022-05-16

Family

ID=64267584

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017217768A Active JP7067023B2 (ja) 2017-11-10 2017-11-10 情報処理装置、背景更新方法および背景更新プログラム

Country Status (4)

Country Link
US (1) US10713799B2 (ja)
EP (1) EP3483835B1 (ja)
JP (1) JP7067023B2 (ja)
CN (1) CN109767453B9 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019169807A (ja) * 2018-03-22 2019-10-03 キヤノン株式会社 監視装置、監視システム、制御方法、及びプログラム。

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7106282B2 (ja) * 2018-01-30 2022-07-26 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
JP7169752B2 (ja) * 2018-03-22 2022-11-11 キヤノン株式会社 監視装置、監視システム、制御方法、及びプログラム
JP6525181B1 (ja) * 2018-05-27 2019-06-05 株式会社アジラ 行動推定装置
JP7183085B2 (ja) * 2019-03-14 2022-12-05 株式会社東芝 移動体行動登録装置、移動体行動登録システム、移動体行動登録方法、移動体行動登録プログラム、及び移動体行動決定装置
US10885606B2 (en) * 2019-04-08 2021-01-05 Honeywell International Inc. System and method for anonymizing content to protect privacy
JP2021163303A (ja) * 2020-04-01 2021-10-11 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07284086A (ja) * 1994-04-05 1995-10-27 Nec Corp 背景画像生成方法および装置

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1994006247A1 (en) * 1992-09-08 1994-03-17 Paul Howard Mayeaux Machine vision camera and video preprocessing system
JPH08191411A (ja) * 1994-11-08 1996-07-23 Matsushita Electric Ind Co Ltd シーン判別方法および代表画像記録・表示装置
JP3892059B2 (ja) * 1995-03-07 2007-03-14 松下電器産業株式会社 動物体追跡装置
JP2003123074A (ja) 2001-10-11 2003-04-25 Sanyo Electric Co Ltd 動物体検出装置、動物体検出方法及び動物体検出プログラム
JP2004046647A (ja) * 2002-07-12 2004-02-12 Univ Waseda 動画像データに基づく移動物体追跡方法及び装置
GB2395781A (en) * 2002-11-29 2004-06-02 Sony Uk Ltd Face detection
JP2005165791A (ja) * 2003-12-03 2005-06-23 Fuji Xerox Co Ltd 対象物の追跡方法及び追跡システム
US7706603B2 (en) * 2005-04-19 2010-04-27 Siemens Corporation Fast object detection for augmented reality systems
US7720283B2 (en) * 2005-12-09 2010-05-18 Microsoft Corporation Background removal in a live video
KR100846498B1 (ko) * 2006-10-18 2008-07-17 삼성전자주식회사 영상 해석 방법 및 장치, 및 동영상 영역 분할 시스템
JP4695615B2 (ja) * 2007-03-05 2011-06-08 日本放送協会 映像オブジェクトの軌跡画像合成装置およびそのプログラム
US8244469B2 (en) * 2008-03-16 2012-08-14 Irobot Corporation Collaborative engagement for target identification and tracking
US8311281B2 (en) * 2008-04-09 2012-11-13 Nec Corporation Object detection apparatus
JP4999794B2 (ja) 2008-07-04 2012-08-15 日本電信電話株式会社 静止領域検出方法とその装置、プログラム及び記録媒体
JP5412984B2 (ja) * 2009-06-24 2014-02-12 日本電気株式会社 フォロー対象検出装置、フォロー対象検出方法およびフォロー対象検出プログラム
CN101739689A (zh) * 2009-12-15 2010-06-16 中国科学院长春光学精密机械与物理研究所 动态视频中背景图像的实时提取与更新方法
JP2011221605A (ja) * 2010-04-05 2011-11-04 Sony Corp 情報処理装置、情報処理方法及びプログラム
US9025830B2 (en) * 2012-01-20 2015-05-05 Cyberlink Corp. Liveness detection system based on face behavior
JP5832910B2 (ja) 2012-01-26 2015-12-16 セコム株式会社 画像監視装置
WO2013187047A1 (ja) * 2012-06-13 2013-12-19 パナソニック株式会社 物体検出装置
JP5962297B2 (ja) * 2012-07-25 2016-08-03 大日本印刷株式会社 カメラの撮影視野変動検知装置
US9412025B2 (en) * 2012-11-28 2016-08-09 Siemens Schweiz Ag Systems and methods to classify moving airplanes in airports
JP6156163B2 (ja) * 2013-06-28 2017-07-05 株式会社Jvcケンウッド 画像処理装置及び画像処理方法
JP6708368B2 (ja) * 2014-04-25 2020-06-10 コンデュエント ビジネス サービシーズ エルエルシー 変形可能部分モデルを使用した車両追跡における部分的隠蔽処理方法及びシステム
KR102366521B1 (ko) * 2015-01-19 2022-02-23 한화테크윈 주식회사 이동 물체 탐지 시스템 및 방법
JP2016177388A (ja) * 2015-03-18 2016-10-06 株式会社リコー 移動体位置姿勢計測装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07284086A (ja) * 1994-04-05 1995-10-27 Nec Corp 背景画像生成方法および装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019169807A (ja) * 2018-03-22 2019-10-03 キヤノン株式会社 監視装置、監視システム、制御方法、及びプログラム。

Also Published As

Publication number Publication date
US10713799B2 (en) 2020-07-14
CN109767453B9 (zh) 2023-06-30
CN109767453B (zh) 2023-04-07
EP3483835B1 (en) 2021-06-16
CN109767453A (zh) 2019-05-17
JP7067023B2 (ja) 2022-05-16
US20190147601A1 (en) 2019-05-16
EP3483835A1 (en) 2019-05-15

Similar Documents

Publication Publication Date Title
JP2019091121A (ja) 情報処理装置、背景更新方法および背景更新プログラム
US8818046B2 (en) Image processing device, image processing method, and program
US10659676B2 (en) Method and apparatus for tracking a moving subject image based on reliability of the tracking state
US11740321B2 (en) Visual inertial odometry health fitting
US10122912B2 (en) Device and method for detecting regions in an image
US20150146006A1 (en) Display control apparatus and display control method
JP6521626B2 (ja) 被写体追跡装置、方法およびプログラム
JP2010140425A (ja) 画像処理システム
JP6331270B2 (ja) 情報処理システム、情報処理方法及びプログラム
JP7446060B2 (ja) 情報処理装置、プログラム及び情報処理方法
US20190266392A1 (en) Image processing apparatus, image processing method, and storage medium
CN113489909A (zh) 拍摄参数的确定方法、装置及电子设备
US20200134840A1 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
US20160358340A1 (en) Fast Histogram-Based Object Tracking
JP6245968B2 (ja) 画像処理装置、撮像装置および制御方法
JP4482933B2 (ja) 動きベクトル検出装置、画像表示装置、画像撮像装置、動きベクトル検出方法、プログラムおよび記録媒体
JP5451364B2 (ja) 被写体追跡装置及びその制御方法
JP2017034616A (ja) 画像処理装置及びその制御方法
JP2010039968A (ja) オブジェクト検出装置及び検出方法
JP2017005582A (ja) 画像処理装置、画像処理方法、及びプログラム
JP2016170516A (ja) 注視対象判定装置、注視対象判定方法、および、注視対象判定プログラム
US9591220B2 (en) Selection apparatus, selection method, and storage medium
JP2014216830A (ja) 画像追尾装置、画像追尾方法及びプログラム
US11240407B2 (en) Image processing device, image display device, and program
WO2020136924A1 (ja) 動作分析装置、動作分析方法及び動作分析プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200807

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210928

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211110

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220329

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220411

R150 Certificate of patent or registration of utility model

Ref document number: 7067023

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150