JP6819689B2 - 画像処理装置、滞留物体追跡システム、画像処理方法および記録媒体 - Google Patents

画像処理装置、滞留物体追跡システム、画像処理方法および記録媒体 Download PDF

Info

Publication number
JP6819689B2
JP6819689B2 JP2018545717A JP2018545717A JP6819689B2 JP 6819689 B2 JP6819689 B2 JP 6819689B2 JP 2018545717 A JP2018545717 A JP 2018545717A JP 2018545717 A JP2018545717 A JP 2018545717A JP 6819689 B2 JP6819689 B2 JP 6819689B2
Authority
JP
Japan
Prior art keywords
image
stagnant
feature
region
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018545717A
Other languages
English (en)
Other versions
JPWO2018073848A1 (ja
Inventor
諒 川合
諒 川合
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2018073848A1 publication Critical patent/JPWO2018073848A1/ja
Application granted granted Critical
Publication of JP6819689B2 publication Critical patent/JP6819689B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本開示は、画像処理装置、滞留物体追跡システム、画像処理方法および記録媒体に関する。
公共の場における不審者の代表的な行動のひとつに、滞留行動が挙げられる。滞留行動は、スリなどの犯罪の予兆として考えられる。防犯カメラ等で滞留行動を発見することにより、犯罪を未然に防止することにもつながることが考えられる。しかし、監視者は一般に複数のカメラの監視を担当し、特定のカメラを注視することができないため、長時間注視しないと発見できない滞留を人が目視で発見することは困難である。そのため、防犯カメラ等の映像から、滞留者を自動で検出する技術が提案されている。
例えば、特許文献1には、長期間にわたって撮影された映像と、それより短期間で撮影された映像のそれぞれから画素値の出現頻度をもとにした背景画像を作成し、その二つの背景画像の差分をとることで、置き去り物体を検出する手法が記載されている。
また、画像から人物を追跡する方法が種々提案されている。例えば、特許文献2には、異なるカメラにより取得された画像間に共通して含まれる共通領域を推定し、該推定された共通領域に対応する画像から特徴量を抽出し、該特徴量を複数の時系列画像間において照合対象の人物の画像を対応付けする方法が記載されている。また、特許文献3には、検出した人体領域に含まれる、2つの画像内の人物が、同一人物か否かを判断する方法が記載されている。
また、追跡対象の追跡を行う場合、カメラと追跡対象との間に位置する他の物体等によって、該追跡対象の隠蔽などが発生する場合がある。隠蔽が発生した場合における追跡対象の追跡方法が、例えば特許文献4に記載されている。特許文献4には、監視対象となる対象物の複数の構成部分ごとのモデルを用いて、対象物の特定部分モデルの全体領域像から該対象物の他の特定部分モデルによって隠蔽される領域を除いた、特定部分モデルの観測領域像を用いて、画像から対象物の構成部分の画像を抽出する技術が記載されている。
また、人物の追跡方法の一例として、特許文献5には、可視光カメラで撮影した画像と赤外線カメラで撮影した画像とを用いることが記載されている。
特許第5058010号公報 特開2015−184810号公報 特許第5523900号公報 特許第5027741号公報 特開2015−216635号公報
実環境では、追跡対象となる滞留者が他の人物に隠蔽される可能性が高い。しかしながら、特許文献2および3に記載の技術では、追跡対象が隠蔽された状態における、滞留者の対応付けの方法については開示されていない。
また、もしも同一人物が複数回滞留している場合、不審性はさらに高まる。このように複数回滞留する滞留者を発見するには、該滞留者を追跡し続ける必要がある。特許文献4に記載の技術では、滞留者の少なくとも一部が映像に連続して映り続けている場合に追跡を行う。したがって、このような滞留者の隠蔽やフレームアウトが発生した場合、特許文献4の技術では、該滞留者の追跡が途絶えてしまい、該滞留者の複数回の滞留を検出できなくなる可能性がある。
また、追跡対象の追跡の技術を一般の監視用途に用いることを考えると、特許文献5に記載の方法は、既存の監視カメラに加えて新たな機器を導入する必要がある点で現実的でない。
したがって、上記特許文献1から5に関連する技術を滞留者の追跡に用いると、人通りが多い環境では、滞留者の手前を横切って滞留者を隠蔽する人物や物体が多く発生するため、途中で追跡に失敗してしまう可能性がある。例えば、滞留者の隠蔽が発生することにより、撮影画像上に滞留者が含まれない場合に追跡を続けると、該滞留者を隠蔽している人物が有する特徴を用いて、滞留者の追跡を行ってしまう可能性がある。このような場合、滞留者とは異なる人物の特徴を用いているため、滞留者が本来有する特徴とは異なる特徴と、滞留者の特徴とを照合することになり、該滞留者の追跡が途絶えてしまう可能性がある。
本開示は、上記課題に鑑みてなされたものであり、その目的は、隠蔽等が発生した場合であっても、追跡対象を追跡可能な情報を抽出する技術を提供することにある。
本開示の一態様に係る画像処理装置は、映像に含まれる移動物体の、該映像に含まれる画像における領域を特定する移動領域特定手段と、前記映像に含まれる滞留物体の、前記画像における領域を特定する滞留領域特定手段と、前記画像のうち、前記滞留物体の領域に含まれる部分画像であって、前記移動物体の領域と重複しない領域に含まれる部分画像から特徴を抽出する抽出手段と、を備える。
また、本開示の一態様に係る滞留物体追跡システムは、前記画像処理装置と、前記映像を撮影する撮像手段と、前記抽出手段が抽出した特徴を用いて、前記映像に含まれる滞留物体の照合を行う照合手段と、を備える。
また、本開示の一態様に係る画像処理方法は、映像に含まれる移動物体の、該映像に含まれる画像における領域を特定し、前記映像に含まれる滞留物体の、前記画像における領域を特定し、前記画像のうち、前記滞留物体の領域に含まれる部分画像であって、前記移動物体の領域と重複しない領域に含まれる部分画像から特徴を抽出する。
なお、上記各画像処理装置、滞留物体追跡システムまたは画像処理方法を、コンピュータによって実現するコンピュータプログラム、およびそのコンピュータプログラムが格納されている、コンピュータ読み取り可能な非一時的記録媒体も、本開示の範疇に含まれる。
本開示によれば、隠蔽等が発生した場合であっても、追跡対象を追跡可能な情報を抽出する技術を提供することができる。
第1の実施の形態に係る画像処理装置の構成の一例を示すブロック図である。 第1の実施の形態における抽出部の構成の一例を示すブロック図である。 撮像装置が撮影した画像フレームの一例を示す図である。 滞留領域特定部が特定した滞留領域の一例を表す図である。 移動領域特定部が特定した移動領域の一例を表す図である。 特徴抽出領域決定部が決定した特徴抽出領域の一例を示す図である。 第1の実施の形態に係る画像処理装置の処理の流れの一例を示すフローチャートである。 第2の実施の形態に係る画像処理装置の構成の一例を示すブロック図である。 第2の実施の形態における抽出部の構成の一例を示すブロック図である。 第2の実施の形態に係る画像処理装置の処理の流れの一例を示すフローチャートである。 第3の実施の形態に係るネットワークカメラの構成の一例を示すブロック図である。 第4の実施の形態に係る画像処理装置の構成の一例を示すブロック図である。 第4の実施の形態に係る画像処理装置を備える滞留物体追跡システムの構成の一例を示す図である。 第5の実施の形態に係る滞留物体追跡システムの構成の一例を示すブロック図である。 第5の実施の形態に係る滞留物体追跡システムの装置の構成の一例を示すブロック図である。 第5の実施の形態に係る滞留物体追跡システムの照合部の処理を説明するための図である。 第5の実施の形態に係る滞留物体追跡システムの照合部の処理の流れの一例を示すフローチャートである。 本開示の各実施の形態を実現可能なコンピュータ(情報処理装置)のハードウェア構成を例示的に説明する図である。
(1 第1の実施の形態)
(1.1 概要)
以下に本開示の第1の実施の形態を説明する。第1の実施の形態に係る画像処理装置では、入力された映像から滞留物体の領域および移動物体の領域をそれぞれ特定したのち、滞留物体の領域のうち移動物体の領域と重複していない部分を特徴抽出領域として決定する。そして、画像処理装置は、決定した特徴抽出領域から滞留物体の特徴を抽出する。これによれば、画像処理装置は、例えば滞留物体の前を横切る移動物体が存在した場合であっても、該移動物体の影響を受けずに、滞留物体の特徴を抽出することができる。したがって、画像処理装置が抽出する特徴には、移動物体の特徴が含まれないため、該抽出された特徴を用いて滞留物体の照合を行う場合、この滞留物体の照合の精度が向上する。
(1.2 構成)
図1に、本実施の形態に係る画像処理装置100の構成の一例を示す。以下、図1を参照しながら、本実施の形態における画像処理装置100について説明する。図1に示す通り、画像処理装置100は、移動領域特定部110と、滞留領域特定部120と、抽出部130とを備える。
画像処理装置100には、1以上のカメラなどの撮像装置から、該撮像装置が撮影した映像が入力される。画像処理装置100に入力される映像は、複数の画像(画像フレームとも呼ぶ)を含む。画像処理装置100は、1枚の画像フレームを入力として受け付ける構成であってもよい。この撮像装置は、例えば、映像を撮影する監視カメラであってもよい。より詳細には、撮像装置は、撮像機能と通信機能を有するネットワークカメラであってもよい。なお、撮像装置は、自身の記憶部に撮影した映像を蓄積する機能を有する装置であってもよい。
移動領域特定部110は、画像処理装置100に入力された映像に含まれる移動物体の、該映像に含まれる画像フレームにおける領域を特定する。移動領域特定部110は、例えば、時間方向に隣り合う画像フレームを用いて、移動物体の領域を特定する。この場合、移動領域特定部110は、映像に含まれる複数の画像フレームのうち、ある画像フレームと、該画像フレームの直前の画像フレームとを比較し、例えば画素値の差分が大きい画素の位置(例えば、ある画像フレーム上における座標値)を特定する。そして、移動領域特定部110は、この2枚の画像フレームから特定した移動領域の位置を含む領域を移動物体の領域として特定する。移動領域特定部110が特定する移動物体の領域は、例えば移動領域特定部110が特定した画素の位置が座標値の場合、座標値の集合によって表される。そして移動領域特定部110は、移動物体の領域を表す情報(例えば、座標値の集合)を、ある画像フレームを示す情報(例えば、画像フレームの番号等の識別子)と関連付けて、抽出部130に供給する。
なお、移動領域特定部110による移動物体の領域の特定方法はこれに限定されない。移動領域特定部110は、例えば、オプティカルフローを用いて、ある画像フレームにおける、移動物体の領域を特定してもよい。また、移動領域特定部110が移動物体の領域を特定する際に用いる画像フレームの数は、特に限定されない。
以降、移動領域特定部110が特定する移動物体の領域を移動領域とも呼ぶ。
滞留領域特定部120は、画像処理装置100に入力された映像に含まれる滞留物体の、該映像に含まれる画像フレームにおける領域を特定する。ここで、滞留物体とは、例えば、所定時間以上、所定の範囲内に留まっている人物を示す。例えば、滞留物体とは、所定時間以上ある位置に立ち止っている人物、所定時間以上ある範囲内を所定速度以下で移動している人物などが挙げられる。滞留領域特定部120は、このような滞留物体(滞留者とも呼ぶ)を、例えば、特許文献1に記載の方法を用いて検出する。なお、滞留領域特定部120が滞留物体を検出する方法はこれに限定されず、どのような方法を用いてもよい。例えば、滞留領域特定部120は、移動領域特定部110が移動物体の特定の際に用いた情報(例えば、オプティカルフロー)を用いて、滞留物体を検出してもよい。
滞留領域特定部120は、検出した滞留物体を含む領域(滞留物体の領域と呼ぶ)を、画像フレーム毎に特定する。滞留物体の領域は、例えば座標値の集合によって表される。例えば、滞留領域特定部120が滞留物体を検出する際に複数の画像フレームを用いた場合、滞留領域特定部120は画像フレーム毎に、該画像フレームに含まれる滞留物体の位置を特定し、該特定した位置をすべて含む領域を、滞留物体の領域として特定してもよい。これにより、例えば、ある画像フレームに含まれる滞留物体が他の物体によって隠蔽されることにより、該ある画像フレーム上では、該滞留物体の外形が不明確な場合であっても、滞留領域特定部120は該滞留物体が存在する可能性がある位置を推定することができる。そして、滞留領域特定部120は、この推定した位置を含む、該画像フレーム上における滞留物体の領域を特定することができる。
なお、滞留領域特定部120は、滞留物体を1枚の画像フレームから検出してもよい。滞留領域特定部120は、例えば、1枚の画像フレームに含まれる人物の体勢を検出し、該体勢が例えば着座している体勢である場合、該人物を滞留物体として検出してもよい。また、例えば、1枚の画像フレームに含まれる人物の体勢が例えば両足を閉じて立っている体勢である場合、滞留領域特定部120は、該人物を滞留物体として検出してもよい。このように、滞留領域特定部120が人物を滞留物体として検出する、該滞留物体の姿勢は、特に限定されない。
滞留領域特定部120が特定する滞留物体の領域の形状は特に限定されず、例えば、円形、楕円形、多角形であってもよいし、滞留物体の外形形状であってもよい。
滞留領域特定部120は、滞留物体の領域を表す情報を、ある画像フレームを示す情報と関連付けて、抽出部130に供給する。以降、滞留領域特定部120が特定する滞留物体の領域を滞留領域とも呼ぶ。
抽出部130は、画像フレームのうち、滞留物体の領域に含まれる部分画像であって、移動物体の領域と重複しない領域に含まれる部分画像から特徴を抽出する。抽出部130の機能について、図2を参照してさらに説明する。図2は、本実施の形態における抽出部130の構成の一例を示すブロック図である。図2に示す通り、本実施の形態における抽出部130は、特徴抽出領域決定部131と、特徴抽出部132とを備える。
特徴抽出領域決定部131は、画像フレーム毎に、移動領域特定部110から移動領域を表す情報を受け取る。また、特徴抽出領域決定部131は、画像フレーム毎に、滞留領域特定部120から滞留領域を表す情報を受け取る。そして、特徴抽出領域決定部131は、同じ画像フレームを示す情報に関連付けられた滞留領域と移動領域とを用いて、滞留領域のうち、移動領域と重なる部分を除いた領域を決定する。この特徴抽出領域決定部131が決定する領域を特徴抽出領域と呼ぶ。
ここで、図3から図6を参照して、特徴抽出領域決定部131が決定する特徴抽出領域について、さらに説明する。図3は、撮像装置が撮影した画像フレームIF1の一例を示す図である。図3に示す画像フレームIF1には、滞留物体31と、移動物体32とが含まれるとする。図4は、図3の画像フレームIF1上において滞留領域特定部120が特定する滞留領域の一例を示す図である。滞留領域特定部120は、図4に示すような滞留領域40を特定する。滞留領域特定部120は、画像フレームIF1を含む複数の画像フレームを用いて、滞留物体の領域を推定し、図4に示すような滞留領域40を特定する。これにより、滞留領域特定部120は、図3の画像フレームIF1には映っていない部分も、滞留領域として特定することができる。
また、図5は、図3の画像フレームIF1上において移動領域特定部110が特定する移動領域の一例を示す図である。移動領域特定部110は、図5に示すような移動領域50を特定する。移動領域特定部110は、画像フレームIF1を含む複数の画像フレームを用いて、図5に示すような移動領域50を特定する。
そして、特徴抽出領域決定部131は、滞留領域40のうち、移動領域50と重なる部分を除いた特徴抽出領域を決定する。図6は特徴抽出領域決定部131が決定した特徴抽出領域の一例を示す図である。図6に示す通り、特徴抽出領域決定部131が決定した特徴抽出領域60は、滞留領域40のうち、移動領域50と重複しない領域である。
特徴抽出領域決定部131は、この特徴抽出領域60の情報を、特徴抽出部132に供給する。特徴抽出領域決定部131は、特徴抽出部132に対し、特徴抽出領域60の情報として、特徴抽出領域60を表す座標値の集合を供給してもよいし、画像フレームから特徴抽出領域60の部分の画像を抽出し、抽出した画像(部分画像と呼ぶ)を供給してもよい。
特徴抽出部132は、画像フレーム内の、特徴抽出領域決定部131が決定した特徴抽出領域60の部分の画像である部分画像から、滞留物体の特徴を抽出する。特徴抽出部132が抽出する特徴は、例えば、色が挙げられる。特徴抽出部132は、滞留物体である人物の顔、体型、挙動などを特徴として抽出してもよい。特徴抽出部132は、抽出した特徴を、滞留物体の特徴として出力する。
(1.3 処理の流れ)
次に、図7を参照して、本実施の形態に係る画像処理装置100の処理について説明する。図7は、本実施の形態に係る画像処理装置100の処理の流れの一例を示すフローチャートである。
移動領域特定部110が映像に含まれる移動物体の、該映像に含まれる画像における領域である移動領域を特定する(ステップS71、以下単にS71と記載する)。
また、滞留領域特定部120が映像に含まれる滞留物体の、画像における領域である滞留領域を特定する(S72)。なお、滞留領域特定部120が滞留領域を特定する際に、移動領域の特定の結果を用いない場合、ステップS71とS72とは同時に行われてもよいし、逆順で行われてもよい。
そして、抽出部130が、画像のうち、滞留物体の領域に含まれる部分画像であって、移動物体の領域と重複しない領域に含まれる部分画像から特徴を抽出する(S73)。以上により、画像処理装置100は処理を終了する。
(1.4 本実施の形態に係る効果)
以上のように、本実施の形態に係る画像処理装置100は、滞留物体の特徴を、移動物体と重複していない領域の部分画像から抽出するため、移動物体の特徴を滞留物体の特徴として誤って抽出することを防ぐことができる。これにより、画像処理装置100は、滞留物体の特徴を精度よく抽出することができる。したがって、このように抽出された特徴を用いて、映像のある期間において検出される滞留物体と、他の期間において検出される滞留物体との照合を行う場合、照合の精度を高めることができる。
このように、本実施の形態に係る画像処理装置100によれば、隠蔽等が発生した場合であっても、追跡対象である滞留者を追跡可能な情報を抽出することができる。よって、本実施の形態によれば、隠蔽等によって、追跡対象である滞留者が画像フレームに含まれなくなった場合に、同じ滞留者が異なる人物であると判定されることを防ぐことができるため、追跡対象を見落としなく追跡することができる。
(2 第2の実施の形態)
(2.1 概要)
第2の実施の形態に係る画像処理装置は、第1の実施の形態の画像処理装置と同様に、特徴抽出領域を決定し、この特徴抽出領域に含まれる滞留物体の構成部位や面積によって抽出する特徴を判断する。これにより、より安定的に滞留物体の照合を行うことができる特徴を抽出することができる。
(2.2 構成)
図8に、本実施の形態に係る画像処理装置200の構成の一例を示す。以下、図8を参照しながら、本実施の形態に係る画像処理装置200について説明する。なお、本実施の形態において、第1の実施の形態において説明したブロックと同じブロックについては同じ符号を付し、その詳細な説明を省略する。
図8に示す画像処理装置200は、第1の実施の形態に係る画像処理装置100の抽出部130に代えて、抽出部230を備える。画像処理装置200は、図8に示す通り、移動領域特定部110と、滞留領域特定部120と、抽出部230とを備える。
抽出部230は、部分画像に含まれる滞留物体の構成部位に基づいて、抽出する特徴を決定し、部分画像のうち構成部位の部分の画像から決定した特徴を抽出する。また、抽出部230は、部分画像の領域の面積に応じて、特徴を抽出するか否かを決定し、特徴を抽出しないと決定した場合、特徴の抽出を行っていない旨を示す通知を、前記画像を示す情報に関連付けて出力する。
抽出部230の機能について、図9を参照してさらに説明する。図9は、本実施の形態における抽出部230の構成の一例を示すブロック図である。図9に示す通り、本実施の形態における抽出部230は、特徴抽出領域決定部131と、特徴抽出部132と、抽出特徴決定部233と、記憶部234とを備える。
抽出特徴決定部233は、部分画像に含まれる滞留物体の構成部位に基づいて、抽出する特徴を決定する。ここで、滞留物体の構成部位は、例えば、頭、腕、足、上半身、下半身等、人物を構成する部位として設定されたものであり、その構成単位はどのような単位であってもよい。抽出特徴決定部233は、構成部位を表すモデルと比較することによって、部分画像に含まれる滞留物体の構成部位を決定する。このモデルは、記憶部234に格納されている。また、記憶部234には、構成部位を示す情報に関連付けられた、抽出する特徴を示す情報が格納されている。例えば、上半身を示す情報には、抽出する特徴を示す情報として、色が関連付けられており、頭部を示す情報には、抽出する特徴を示す情報として、顔が関連付けられている。
例えば、部分画像に滞留物体の上半身のみが含まれる場合、抽出特徴決定部233は、この部分画像と上記モデルとを比較し、該部分画像に含まれる構成部位が上半身であると判定する。そして、上半身を示す情報に関連付けられた、抽出する特徴を示す情報が色である場合、抽出特徴決定部233は、上半身の部分画像から抽出する特徴を色であると決定する。抽出特徴決定部233は、決定した抽出する特徴を、決定した構成部位を示す情報と共に、特徴抽出部132に供給する。これにより、特徴抽出部132は、部分画像のうち構成部位の部分の画像(上記例の場合、上半身の部分画像)から、決定した特徴(上記例の場合、色)を抽出する。
なお、抽出特徴決定部233は、部分画像に含まれる滞留物体の構成部位に応じて、特徴を抽出するか否かを決定してもよい。
また、抽出特徴決定部233は、特徴抽出領域決定部131によって決定された特徴抽出領域の面積に応じて、特徴を抽出するか否かを決定してもよい。抽出特徴決定部233は、例えば、特徴抽出領域の面積が所定の閾値より小さい場合、特徴抽出領域から特徴を抽出しないと決定する。特徴抽出領域の面積が小さすぎる場合、このような特徴抽出領域から抽出された特徴は、滞留物体の特徴を十分に表していない可能性がある。したがって、面積が所定の閾値よりも小さい特徴抽出領域から抽出された特徴を用いて照合を行った場合、正しい結果が得られない可能性がある。つまり、面積が所定の閾値よりも小さい特徴抽出領域から抽出された特徴は、照合の際に有意な特徴ではない可能性がある。このように、全ての画像フレームを用いて特徴抽出領域から特徴を抽出した場合に、該特徴が不安定になる可能性がある場合、抽出特徴決定部233は、不安定になる可能性がある特徴を特徴抽出部132に抽出させないように制御する。抽出特徴決定部233は、特徴抽出領域の面積が所定の閾値よりも小さい場合、該特徴抽出領域を含む画像フレームが滞留物体に対し有意な特徴を有していないことを示す情報を、該画像フレームを示す情報と共に、特徴抽出部132に供給する。
これにより、特徴抽出部132は、有意な特徴を有していないことを示す情報に関連づけられた画像フレームから、特徴を抽出せず、該画像フレームには、滞留物体に対して有意な特徴が無い旨を、出力することができる。
また、抽出特徴決定部233は、特徴抽出領域の面積に応じて、抽出する特徴を決定してもよい。
なお、抽出特徴決定部233は、部分画像に含まれる滞留物体の構成部位と、特徴抽出領域の面積との両方に基づいて、特徴の抽出の有無および抽出する特徴を決定してもよいし、何れか一方に基づいて、特徴の抽出の有無および抽出する特徴を決定してもよい。
(2.3 処理の流れ)
次に、図10を参照して、本実施の形態に係る画像処理装置200の処理について説明する。図10は、本実施の形態に係る画像処理装置200の処理の流れの一例を示すフローチャートである。
移動領域特定部110が映像に含まれる移動物体の、該映像に含まれる画像における領域である移動領域を特定する(S71)。また、滞留領域特定部120が映像に含まれる滞留物体の、画像における領域である滞留領域を特定する(S72)。なお、滞留領域特定部120が滞留領域を特定する際に、移動領域の特定の結果を用いない場合、ステップS71とS72とは同時に行われてもよいし、逆順で行われてもよい。
そして、抽出部130の特徴抽出領域決定部131が、特徴抽出領域を決定する(S103)。そして、抽出特徴決定部233が、部分画像に含まれる滞留物体の構成部位と、特徴抽出領域の面積との少なくとも一方に基づいて、特徴を抽出するか否かを決定する(S104)。特徴を抽出すると決定した場合(S104にてYES)、抽出特徴決定部233は、部分画像に含まれる滞留物体の構成部位と、特徴抽出領域の面積との少なくとも一方に基づいて、抽出する特徴を決定する(S105)。そして、特徴抽出部132は、S105で決定された特徴を、特徴抽出領域の画像(つまり、滞留物体の領域に含まれる部分画像であって、移動物体の領域と重複しない領域に含まれる部分画像)から抽出する(S106)。
また、S104にて、特徴を抽出しないと決定した場合(S104にてNO)、特徴抽出部132は、特徴抽出領域決定部131が滞留物体の特徴を抽出しないと決定した画像が、該滞留物体に対して有意な特徴が無いことを示す通知を出力する(S107)。
以上により、画像処理装置200は処理を終了する。
(2.4 本実施の形態に係る効果)
以上のように、本実施の形態に係る画像処理装置200は、部分画像に含まれる滞留物体の構成部位に基づいて、抽出する特徴を決定する。このように、画像処理装置200は、滞留物体に対する隠蔽等の状況によって、抽出する特徴を切り替えることができる。これにより、画像処理装置200から出力された特徴を用いて照合を行う装置は、例えば、ある画像から抽出した上半身に含まれる特徴と、他の画像から抽出した下半身に含まれる特徴とを照合するのではなく、同じ構成部位(例えば上半身)から抽出した特徴同士を用いて照合を行うことができる。したがって、本実施の形態に係る画像処理装置200は、上述した第1の実施の形態に係る画像処理装置100の効果に加え、より安定的に滞留物体の照合を行うことができる特徴を抽出することができる。
また、本実施の形態に係る画像処理装置200は、部分画像の領域の面積に応じて、特徴を抽出するか否かを決定し、特徴を抽出しないと決定した場合、特徴の抽出を行っていない旨を示す通知を、画像を示す情報に関連付けて出力する。これにより、画像処理装置200は、有意な特徴を有していないことを示す情報に関連づけられた画像から、特徴を抽出せず、該画像には、滞留物体に対して有意な特徴が無い旨を、出力することができる。これにより、画像処理装置200から出力された特徴を用いて照合を行う装置は、滞留物体の照合に、有意な特徴を有していない画像を用いないことを選択できる。したがって、画像処理装置200は、誤照合の発生を低下させる情報を提供することができる。
(3 第3の実施の形態)
(3.1 概要)
第1および第2の実施の形態に係る画像処理装置は、撮像装置と別個の構成であってもよいし、撮像装置内に内蔵されていてもよい。本実施の形態では、撮像装置の一例であるネットワークカメラに、上述した画像処理装置が内蔵されることについて説明する。このようなネットワークカメラも、上述した画像処理装置と同様に、隠蔽等が発生した場合であっても、追跡対象を追跡可能な情報を抽出することができる。
(3.2 構成)
図11に、本実施の形態に係るネットワークカメラ300の構成の一例を示す。以下、図11を参照しながら、本実施の形態に係るネットワークカメラ300について説明する。なお、本実施の形態において、第1の実施の形態において説明したブロックと同じブロックについては同じ符号を付し、その詳細な説明を省略する。
図11に示すネットワークカメラ300は、第1の実施の形態に係る画像処理装置100に加え、撮像部340を備える。ネットワークカメラ300は、図11に示す通り、移動領域特定部110と、滞留領域特定部120と、抽出部130と、撮像部340とを備える。なお、ネットワークカメラ300は、第2の実施の形態に係る画像処理装置200に加え、撮像部340を備える構成であってもよい。
撮像部340は、映像を撮影する。撮像部340は、例えば、CCD(Charge Coupled Device)センサ、CMOS(Complementary Metal Oxide Semiconductor)センサを用いて、撮像処理を行い、複数の画像フレームを含む映像を生成する。撮像部340は、生成した映像を、移動領域特定部110および滞留領域特定部120に供給する。これにより、移動領域特定部110および滞留領域特定部120は、夫々移動領域の特定と、滞留領域の特定とを行うことができる。
そして、抽出部130は、画像フレームのうち、滞留物体の領域に含まれる部分画像であって、移動物体の領域と重複しない領域に含まれる部分画像から特徴を抽出する。
ネットワークカメラ300は、通信機能を有するネットワークカメラであるため、抽出部130が抽出した特徴を、滞留物体の照合を行う装置に送信することができる。
以上のように、本実施の形態に係るネットワークカメラ300は、上述した第1および第2の実施の形態に係る画像処理装置と同様の機能を有する。したがって、ネットワークカメラ300は、上述した第1および第2の実施の形態に係る画像処理装置と同様に、隠蔽等が発生した場合であっても、追跡対象を追跡可能な情報を抽出することができる。
(4 第4の実施の形態)
(4.1 概要)
本実施の形態に係る画像処理装置は、第1および第2の実施の形態に係る画像処理装置の機能に加え、特徴抽出領域を表示装置に他の領域とは異なるように、表示装置に表示させる機能を有する。これにより、本実施の形態に係る画像処理装置は、特徴を抽出する対象となる滞留物体が、画像フレームのどこに含まれるのかを、ユーザに容易に把握させることができる。
(4.2 構成)
図12に、本実施の形態に係る画像処理装置400の構成の一例を示す。以下、図12を参照しながら、本実施の形態に係る画像処理装置400について説明する。なお、本実施の形態において、第1の実施の形態において説明したブロックと同じブロックについては同じ符号を付し、その詳細な説明を省略する。
図12に示す画像処理装置400は、第1の実施の形態に係る画像処理装置100に加え、表示制御部450を備える。画像処理装置400は、図12に示す通り、移動領域特定部110と、滞留領域特定部120と、抽出部130と、表示制御部450とを備える。なお、画像処理装置400は、第2の実施の形態に係る画像処理装置200に加え、表示制御部450を備える構成であってもよい。
本実施の形態に係る画像処理装置400を備える滞留物体追跡システム4について、図13を参照して説明する。図13は、本実施の形態に係る画像処理装置400を備える滞留物体追跡システム4の構成の一例を示す図である。
図13に示す通り、滞留物体追跡システム4は、画像処理装置400と、表示装置401と、撮像装置402とを備える。画像処理装置400と、表示装置401と、撮像装置402とは、夫々、ネットワークを介して、通信可能に接続している。
撮像装置402は、映像を撮影し、撮影した映像を画像処理装置400に供給する。なお、撮像装置402は、画像処理装置400と一体となっていてもよい。この場合、撮像装置402を含む画像処理装置400は第3の実施の形態において説明したネットワークカメラ300と同様の機能を有する。
また、表示装置401は、画像処理装置400から送信された後述する制御信号を受信し、制御信号に基づいた画面を表示する。表示装置401は、例えば、液晶ディスプレイによって実現される。なお、撮像装置402は、画像処理装置400と一体となっていてもよい。
図12に戻り、画像処理装置400の表示制御部450について説明を行う。表示制御部450は、抽出部130が特徴を抽出した領域である特徴抽出領域を示す情報を、抽出部130から画像フレームと共に受け取る。表示制御部450は、部分画像の領域である特徴抽出領域を、他の領域と識別可能に表示装置401に表示するよう制御する。
表示制御部450は、受け取った画像フレームのうち、例えば、特徴抽出領域の部分の画像のみを、表示装置401に表示させる制御信号を生成する。そして、表示制御部450は、生成した制御信号を表示装置401に送信する。これにより、表示装置401は、特徴抽出領域の部分の画像を画面に表示させることができる。
また、表示制御部450は、受け取った画像フレームのうち、例えば、特徴抽出領域の部分の画像以外の画像にぼかし処理などを加え、処理後の画像フレームを表示装置401に表示させる制御信号を生成してもよい。これにより、特徴抽出領域の部分の画像のみが、ぼかしの無い画像となる。
また、表示制御部450は、受け取った画像フレームに対し、例えば、特徴抽出領域の外形部分を囲った枠を、該画像フレームに重畳させて表示させる制御信号を生成してもよい。
このように、表示制御部450は、部分画像の領域である特徴抽出領域が、他の領域と識別可能となるように、表示装置に表示させることができればよく、その表示方法は特に限定されない。
これにより、本実施の形態に係る画像処理装置400は、特徴を抽出する対象となる滞留物体が、画像フレームのどこに含まれるのかを、ユーザに容易に把握させることができる。
(5 第5の実施の形態)
(5.1 概要)
本実施の形態では、上述した画像処理装置またはネットワークカメラを含む、滞留物体追跡システムについて説明する。本実施の形態に係る滞留物体追跡システムは、画像処理装置の機能に加え、抽出部が抽出した特徴を用いて照合を行う照合部を備える。この照合部が、抽出部によって抽出された特徴を用いて滞留物体の照合を行うため、本実施の形態に係る滞留物体追跡システムは、隠蔽等が発生した場合であっても、追跡対象を追跡することができる。
(5.2 構成)
図14に、本実施の形態に係る滞留物体追跡システム5の構成の一例を示す。以下、図14を参照しながら、本実施の形態に係る滞留物体追跡システム5について説明する。なお、本実施の形態において、上述した各実施の形態において説明したブロックと同じブロックについては同じ符号を付し、その詳細な説明を省略する。
滞留物体追跡システム5は、図14に示す通り、移動領域特定部110と、滞留領域特定部120と、抽出部230と、撮像部340と、照合部511とを備える。なお、滞留物体追跡システム5は、抽出部230の代わりに、抽出部130を備えてもよい。また、滞留物体追跡システム5は、表示制御部450を更に備えてもよい。
図15は、滞留物体追跡システム5の各部を実現する装置の構成の一例を示す図である。図15に示す通り、滞留物体追跡システム5は、画像処理装置200と、映像を撮影する撮像装置402と、照合装置501とを備える。画像処理装置200は、第2の実施の形態で説明した画像処理装置200と同様に、滞留物体追跡システム5に含まれる移動領域特定部110、滞留領域特定部120および抽出部230を備える。また、撮像装置402は、撮像部340を備える。また、照合装置501は照合部511を備える。なお、照合装置501と、画像処理装置200とは一体となっていてもよい。また、上述した第3の実施の形態のように、画像処理装置200と撮像装置402とが一体となっていてもよい。また、滞留物体追跡システム5は更に表示装置401を備える構成であってもよい。このように、滞留物体追跡システム5が含む装置の構成は特に限定されない。
照合部511は、映像のうち、第1の期間に含まれる1または複数の画像から抽出された特徴と、第1の期間とは異なる第2の期間に含まれる1または複数の画像から抽出された特徴とを用いて、滞留物体の照合を行う。ここで期間とは、同じ滞留物体が含まれる、連続する複数の画像フレームが撮影された期間である。連続する複数の画像フレームに同じ滞留物体が含まれるか否かは、一般的な滞留物体の検出手法を用いて確認することができるため、その詳細な説明を省略する。また、照合部511は、抽出部230が部分画像の領域の面積に応じて、特徴を抽出するか否かを決定し、特徴を抽出しないと決定した場合、画像フレームを示す情報と共に特徴の抽出を行っていない旨を示す通知を、抽出部230から受け取る。照合部511は、通知を受け取ると、該通知に基づいて、第2の期間に含まれる画像のうち、通知に関連する画像以外の画像から抽出された特徴を用いて、滞留物体の照合を行う。
照合部511が行う照合の処理について、図16を用いてさらに説明する。図16は、第5の実施の形態に係る滞留物体追跡システム5の照合部511の処理を説明するための図である。
図16の横軸は時間軸である。撮像部340は、複数の画像フレーム(F11〜F15、F21〜F23、F31〜F33)を含む映像を撮影する。画像フレームF11〜F15と、画像フレームF31〜F33には、1つの滞留物体が含まれているとする。また、画像フレームF21〜F23には、滞留物体が含まれていないとする。図16に示す通り、画像フレームF11〜F15が撮影された期間を第1の期間P1とし、画像フレームF21〜F23が撮影された期間を滞留物体が含まれない期間P2とし、画像フレームF31〜F33が撮影された期間を第2の期間P3とする。
画像フレーム内に記載のA、BおよびCの文字は、滞留物体の特徴を表している。例えば、画像フレームF11に含まれる滞留物体は、特徴Aおよび特徴Bを有している。すなわち、画像フレーム内に記載の文字は、抽出部130が抽出する特徴を表している。
第1の期間P1に撮影された画像フレームF11〜F15から、該画像フレームF11〜F15に含まれる滞留物体は、特徴A、特徴Bおよび特徴Cを有していることがわかる。抽出部230は、各画像フレームからこれらの特徴(特徴A、特徴Bまたは特徴C)を抽出する。抽出部230は、例えば、画像フレームF11から特徴Aと特徴Bとを抽出する。照合部511はこのように抽出部230が抽出した特徴から、第1の期間P1に含まれる複数の画像フレームF11〜F15における、滞留物体の特徴を特徴A、特徴Bおよび特徴Cと決定してもよい。また、照合部511は、第1の期間P1に含まれる複数の画像フレームF11〜F15の夫々から抽出された特徴の抽出頻度が高いものから所定数の特徴を、第1の期間P1に含まれる画像フレームF11〜F15に対する特徴として決定してもよい。
滞留物体が含まれない期間P2に含まれる画像フレームF21〜F23に対しては、滞留物体が含まれないため、滞留領域特定部120が滞留領域を特定しない。したがって、この滞留物体が含まれない期間P2に含まれる各画像フレームF21〜F23に対しては、抽出部230および照合部511は処理を行わない。
また、第2の期間P3に撮影された画像フレームF31〜F33には、滞留物体が含まれるとする。このとき、抽出部230は、画像フレームF31およびF33から特徴Aおよび特徴Bを抽出するとする。また、画像フレームF32から決定された特徴抽出領域の面積が所定の閾値より小さいとする。したがって、抽出部230は、画像フレームF32からは特徴を抽出せずに、照合部511に対して、画像フレームF32が滞留物体に対して有意な特徴が無いことを示す通知を出力する。
照合部511は、抽出部230から、画像フレームF31の特徴である特徴Aおよび特徴Bを受け取ると、特徴Aおよび特徴Bを用いて、第1の期間P1に含まれる画像フレームF11〜F15の夫々から抽出された特徴と、画像フレームF31から抽出された特徴とを用いて、滞留物体の照合を行う。なお、照合部511は、第1の期間P1に含まれる画像フレームF11〜F15の夫々から抽出された特徴を用いて決定した画像フレームF11〜F15に対する特徴と、画像フレームF31から抽出された特徴とを用いて、滞留物体の照合を行ってもよい。
特徴Aおよび特徴Bは、画像フレームF11〜F15に含まれる滞留物体の特徴と一致するため、照合部511は、画像フレームF31に含まれる滞留物体が、第1の期間P1の各画像フレームに含まれる滞留物体と同じであると判定する。照合部511は照合結果を、例えば表示装置に出力してもよい。
また、照合部511は、抽出部230から、画像フレームF32が滞留物体に対して有意な特徴が無いことを示す通知を受け取ると、この画像フレームF32に対する滞留物体の照合を行わない。そして、照合部511は、抽出部230から次の画像フレーム(画像フレームF33)に含まれる滞留物体の特徴を受け取ると、該特徴を用いて画像フレームF33に含まれる滞留物体と、第1の期間P1の各画像フレームに含まれる滞留物体との照合を行う。このように、照合部511は、受け取った通知に関連する画像フレーム(この例の場合、画像フレームF32)以外の第2の期間P3に含まれる画像フレーム(画像フレームF31および画像フレームF33)から抽出された特徴を用いて、滞留物体の照合を行う。
(5.3 処理の流れ)
次に、図17を参照して、本実施の形態に係る滞留物体追跡システム5の照合部511の処理について説明する。図17は、本実施の形態に係る滞留物体追跡システム5の照合部511の処理の流れの一例を示すフローチャートである。図17に示す処理は、画像フレーム毎に行われる。
図17に示す通り、照合部511は、ある画像フレームに対する特徴を抽出部230から受信したか否かを確認する(S171)。受信していない場合(S171にてNO)、次に特徴を受信するまで、S171を繰り返す。受信していない場合とは、処理の対象となる画像フレームに滞留物体が含まれない場合、または、抽出部230から該画像フレームが滞留物体に対して有意な特徴が無いことを示す通知を受け取った場合である。
受信した場合(S171にてYES)、照合部511は、処理の対象となる画像フレームの撮影時間より前の、該画像フレームを含む期間とは異なる期間において、滞留物体の特徴が抽出されたか否かを確認する(S172)。図16に示す映像の場合、処理の対象となる画像フレームが画像フレームF11〜F15の何れかの場合、該画像フレームを含む期間(第1の期間P1)より前に、滞留物体の特徴が抽出された期間はない。よって、このような場合、S172にてNOとなり、照合部511は、処理の対象となる画像フレームに対して抽出された特徴を、照合部511内部または図示しない記憶部等に蓄積する(S173)。
処理の対象となる画像フレームの撮影時間より前の、該画像フレームを含む期間とは異なる期間において、滞留物体の特徴が抽出された場合(S172にてYES)、処理はステップS174に進む。図16に示す映像の場合、処理の対象となる画像フレームが画像フレームF31〜F33の何れかの場合、該画像フレームを含む期間(第2の期間P3)より前に、滞留物体の特徴が抽出された期間である第1の期間P1がある。よって、このような場合、S172にてYESとなり、照合部511は、処理の対象となる画像フレームに対して抽出された特徴を用いて該画像フレームに含まれる滞留物体と第1の期間P1に撮影された画像フレームに含まれる滞留物体とを照合する(S174)。
以上のように、本実施の形態に係る滞留物体追跡システム5は、照合部511が、抽出部230によって抽出された特徴を用いて滞留物体の照合を行う。第2の実施の形態に記載した通り、抽出部230は、移動物体と重複していない領域の部分画像から滞留物体の特徴を抽出する。そのため、抽出部230が抽出する特徴は、移動物体の特徴を含まず、滞留物体の特徴を精度よく抽出する。したがって、このように抽出された特徴を用いて、照合部511が映像のある期間において検出される滞留物体と、他の期間において検出される滞留物体との照合を行うため、本実施の形態に係る滞留物体追跡システム5は、照合の精度を高めることができる。その結果、滞留物体追跡システム5は、映像全体を通して滞留物体を追跡し続けなくても、映像に含まれる滞留物体の滞留回数を検出することができる。これにより、滞留物体追跡システム5は、同一人物が複数回滞留するという不審な行動を、効率的に検出することができる。
このように、本実施の形態に係る滞留物体追跡システム5によれば、隠蔽等によって、追跡対象である滞留者が画像フレームに含まれなくなった場合であっても、同じ滞留者を同じ特徴を用いて照合することができるため、追跡対象を見落としなく追跡することができる。
(6 ハードウェア構成について)
本開示の各実施の形態において、各装置の各構成要素は、機能単位のブロックを示している。各装置の各構成要素の一部又は全部は、例えば図18に示すような情報処理装置900とプログラムとの任意の組み合わせにより実現される。図18は、各装置の各構成要素を実現する情報処理装置900のハードウェア構成の一例を示すブロック図である。情報処理装置900は、一例として、以下のような構成を含む。
・CPU(Central Processing Unit)901
・ROM(Read Only Memory)902
・RAM(Random Access Memory)903
・RAM903にロードされるプログラム904
・プログラム904を格納する記憶装置905
・記録媒体906の読み書きを行うドライブ装置907
・通信ネットワーク909と接続する通信インタフェース908
・データの入出力を行う入出力インタフェース910
・各構成要素を接続するバス911
各実施の形態における各装置の各構成要素は、これらの機能を実現するプログラム904をCPU901が取得して実行することで実現される。各装置の各構成要素の機能を実現するプログラム904は、例えば、予め記憶装置905やRAM903に格納されており、必要に応じてCPU901が読み出す。なお、プログラム904は、通信ネットワーク909を介してCPU901に供給されてもよいし、予め記録媒体906に格納されており、ドライブ装置907が当該プログラムを読み出してCPU901に供給してもよい。
各装置の実現方法には、様々な変形例がある。例えば、各装置は、構成要素毎にそれぞれ別個の情報処理装置900とプログラムとの任意の組み合わせにより実現されてもよい。また、各装置が備える複数の構成要素が、一つの情報処理装置900とプログラムとの任意の組み合わせにより実現されてもよい。
また、各装置の各構成要素の一部又は全部は、その他の汎用または専用の回路、プロセッサ等やこれらの組み合わせによって実現される。これらは、単一のチップによって構成されてもよいし、バスを介して接続される複数のチップによって構成されてもよい。
各装置の各構成要素の一部又は全部は、上述した回路等とプログラムとの組み合わせによって実現されてもよい。
各装置の各構成要素の一部又は全部が複数の情報処理装置や回路等により実現される場合には、複数の情報処理装置や回路等は、集中配置されてもよいし、分散配置されてもよい。例えば、情報処理装置や回路等は、クライアントアンドサーバシステム、クラウドコンピューティングシステム等、各々が通信ネットワークを介して接続される形態として実現されてもよい。
なお、上述した各実施の形態は、本開示の好適な実施の形態であり、上記各実施の形態にのみ本開示の範囲を限定するものではなく、本開示の要旨を逸脱しない範囲において当業者が上記各実施の形態の修正や代用を行い、種々の変更を施した形態を構築することが可能である。さらに、各実施の形態にそれぞれ開示された技術的手段を組み合わせることにより、新しい技術的特徴を形成することができる。
(7 付記事項)
上記の実施の形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
(付記1)
映像に含まれる移動物体の、該映像に含まれる画像における領域を特定する移動領域特定手段と、
前記映像に含まれる滞留物体の、前記画像における領域を特定する滞留領域特定手段と、
前記画像のうち、前記滞留物体の領域に含まれる部分画像であって、前記移動物体の領域と重複しない領域に含まれる部分画像から特徴を抽出する抽出手段と、
を備えることを特徴とする画像処理装置。
(付記2)
前記抽出手段は、前記部分画像に含まれる滞留物体の構成部位に基づいて、抽出する特徴を決定し、前記部分画像のうち構成部位の部分の画像から前記決定した特徴を抽出する、
ことを特徴とする付記1に記載の画像処理装置。
(付記3)
前記抽出手段は、前記部分画像の領域の面積に応じて、特徴を抽出するか否かを決定し、特徴を抽出しないと決定した場合、特徴の抽出を行っていない旨を示す通知を、前記画像を示す情報に関連付けて出力する、
ことを特徴とする付記1または2に記載の画像処理装置。
(付記4)
前記部分画像の領域を、他の領域と識別可能に表示装置に表示するよう制御する表示制御手段をさらに備える、
ことを特徴とする付記1から3の何れか1つに記載の画像処理装置。
(付記5)
付記1から4の何れか1つに記載の画像処理装置と、
前記映像を撮影する撮像手段と、
前記抽出手段が抽出した特徴を用いて、前記映像に含まれる滞留物体の照合を行う照合手段と、
を備えることを特徴とする滞留物体追跡システム。
(付記6)
前記照合手段は、前記映像のうち、第1の期間に含まれる1または複数の画像から抽出された特徴と、前記第1の期間とは異なる前記第2の期間に含まれる1または複数の画像から抽出された特徴とを用いて、前記滞留物体の照合を行う、
ことを特徴とする付記5に記載の滞留物体追跡システム。
(付記7)
前記抽出手段は、前記部分画像の領域の面積に応じて、特徴を抽出するか否かを決定し、特徴を抽出しないと決定した場合、特徴の抽出を行っていない旨を示す通知を、前記画像を示す情報に関連付けて、前記照合手段に出力し、
前記照合手段は、前記通知に基づいて、前記第2の期間に含まれる画像のうち、前記通知に関連する画像以外の画像から抽出された特徴を用いて、前記滞留物体の照合を行う、
ことを特徴とする付記6に記載の滞留物体追跡システム。
(付記8)
映像に含まれる移動物体の、該映像に含まれる画像における領域を特定し、
前記映像に含まれる滞留物体の、前記画像における領域を特定し、
前記画像のうち、前記滞留物体の領域に含まれる部分画像であって、前記移動物体の領域と重複しない領域に含まれる部分画像から特徴を抽出する、
ことを特徴とする画像処理方法。
(付記9)
前記部分画像に含まれる滞留物体の構成部位に基づいて、抽出する特徴を決定し、前記部分画像のうち構成部位の部分の画像から前記決定した特徴を抽出する、
ことを特徴とする付記8に記載の画像処理方法。
(付記10)
映像を撮影し、
前記映像に含まれる移動物体の、該映像に含まれる画像における領域を特定し、
前記映像に含まれる滞留物体の、前記画像における領域を特定し、
前記画像のうち、前記滞留物体の領域に含まれる部分画像であって、前記移動物体の領域と重複しない領域に含まれる部分画像から特徴を抽出し、
前記抽出手段が抽出した特徴を用いて、前記映像に含まれる滞留物体の照合を行う、
ことを特徴とする滞留物体追跡方法。
(付記11)
前記部分画像に含まれる滞留物体の構成部位に基づいて、抽出する特徴を決定し、前記部分画像のうち構成部位の部分の画像から前記決定した特徴を抽出する、
ことを特徴とする付記10に記載の滞留物体追跡方法。
(付記12)
映像に含まれる移動物体の、該映像に含まれる画像における領域を特定する処理と、
前記映像に含まれる滞留物体の、前記画像における領域を特定する処理と、
前記画像のうち、前記滞留物体の領域に含まれる部分画像であって、前記移動物体の領域と重複しない領域に含まれる部分画像から特徴を抽出する処理と、
をコンピュータに実行させるプログラムを記録する、コンピュータ読み取り可能な非一時的な記録媒体。
(付記13)
前記特徴を抽出する処理は、前記部分画像に含まれる滞留物体の構成部位に基づいて、抽出する特徴を決定し、前記部分画像のうち構成部位の部分の画像から前記決定した特徴を抽出する、
ことを特徴とする付記12に記載の記録媒体。
4、5 滞留物体追跡システム
100 画像処理装置
110 移動領域特定部
120 滞留領域特定部
130 抽出部
131 特徴抽出領域決定部
132 特徴抽出部
200 画像処理装置
230 抽出部
233 抽出特徴決定部
234 記憶部
300 ネットワークカメラ
340 撮像部
400 画像処理装置
401 表示装置
402 撮像装置
450 表示制御部
501 照合装置
511 照合部

Claims (10)

  1. 映像に含まれる移動物体の、該映像に含まれる画像における領域を特定する移動領域特定手段と、
    前記映像に含まれる滞留物体の、前記画像における領域を特定する滞留領域特定手段と、
    前記画像のうち、前記滞留物体の領域に含まれる部分画像であって、前記移動物体の領域と重複しない領域に含まれる部分画像から特徴を抽出する抽出手段と、
    を備えることを特徴とする画像処理装置。
  2. 前記抽出手段は、前記部分画像に含まれる滞留物体の構成部位に基づいて、抽出する特徴を決定し、前記部分画像のうち構成部位の部分の画像から前記決定した特徴を抽出する、
    ことを特徴とする請求項1に記載の画像処理装置。
  3. 前記抽出手段は、前記部分画像の領域の面積に応じて、特徴を抽出するか否かを決定し、特徴を抽出しないと決定した場合、特徴の抽出を行っていない旨を示す通知を、前記画像を示す情報に関連付けて出力する、
    ことを特徴とする請求項1または2に記載の画像処理装置。
  4. 前記部分画像の領域を、他の領域と識別可能に表示装置に表示するよう制御する表示制御手段をさらに備える、
    ことを特徴とする請求項1から3の何れか1項に記載の画像処理装置。
  5. 請求項1から4の何れか1項に記載の画像処理装置と、
    前記映像を撮影する撮像手段と、
    前記抽出手段が抽出した特徴を用いて、前記映像に含まれる滞留物体の照合を行う照合手段と、
    を備えることを特徴とする滞留物体追跡システム。
  6. 前記照合手段は、前記映像のうち、第1の期間に含まれる1または複数の画像から抽出された特徴と、前記第1の期間とは異なる第2の期間に含まれる1または複数の画像から抽出された特徴とを用いて、前記滞留物体の照合を行う、
    ことを特徴とする請求項5に記載の滞留物体追跡システム。
  7. 前記抽出手段は、前記部分画像の領域の面積に応じて、特徴を抽出するか否かを決定し、特徴を抽出しないと決定した場合、特徴の抽出を行っていない旨を示す通知を、前記画像を示す情報に関連付けて、前記照合手段に出力し、
    前記照合手段は、前記通知に基づいて、前記第2の期間に含まれる画像のうち、前記通知に関連する画像以外の画像から抽出された特徴を用いて、前記滞留物体の照合を行う、
    ことを特徴とする請求項6に記載の滞留物体追跡システム。
  8. 映像に含まれる移動物体の、該映像に含まれる画像における領域を特定し、
    前記映像に含まれる滞留物体の、前記画像における領域を特定し、
    前記画像のうち、前記滞留物体の領域に含まれる部分画像であって、前記移動物体の領域と重複しない領域に含まれる部分画像から特徴を抽出する、
    ことを特徴とする画像処理方法。
  9. 前記部分画像に含まれる滞留物体の構成部位に基づいて、抽出する特徴を決定し、前記部分画像のうち構成部位の部分の画像から前記決定した特徴を抽出する、
    ことを特徴とする請求項8に記載の画像処理方法。
  10. 映像に含まれる移動物体の、該映像に含まれる画像における領域を特定する処理と、
    前記映像に含まれる滞留物体の、前記画像における領域を特定する処理と、
    前記画像のうち、前記滞留物体の領域に含まれる部分画像であって、前記移動物体の領域と重複しない領域に含まれる部分画像から特徴を抽出する処理と、
    をコンピュータに実行させるプログラム。
JP2018545717A 2016-10-19 2016-10-19 画像処理装置、滞留物体追跡システム、画像処理方法および記録媒体 Active JP6819689B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/004626 WO2018073848A1 (ja) 2016-10-19 2016-10-19 画像処理装置、滞留物体追跡システム、画像処理方法および記録媒体

Publications (2)

Publication Number Publication Date
JPWO2018073848A1 JPWO2018073848A1 (ja) 2019-06-27
JP6819689B2 true JP6819689B2 (ja) 2021-01-27

Family

ID=62018297

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018545717A Active JP6819689B2 (ja) 2016-10-19 2016-10-19 画像処理装置、滞留物体追跡システム、画像処理方法および記録媒体

Country Status (3)

Country Link
US (3) US11049260B2 (ja)
JP (1) JP6819689B2 (ja)
WO (1) WO2018073848A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111860559A (zh) * 2019-12-31 2020-10-30 滴图(北京)科技有限公司 图像处理方法、装置、电子设备和存储介质
CN112183359B (zh) * 2020-09-29 2024-05-14 中国科学院深圳先进技术研究院 视频中的暴力内容检测方法、装置及设备

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7813528B2 (en) 2007-04-05 2010-10-12 Mitsubishi Electric Research Laboratories, Inc. Method for detecting objects left-behind in a scene
JP4884331B2 (ja) * 2007-08-20 2012-02-29 セコム株式会社 移動物体追跡装置
JP2011043863A (ja) * 2007-11-16 2011-03-03 Nec Corp 対象領域判定・追跡装置、方法、プログラム及び対象領域判定装置
EP2093698A1 (en) * 2008-02-19 2009-08-26 British Telecommunications Public Limited Company Crowd congestion analysis
JP5027741B2 (ja) 2008-06-18 2012-09-19 セコム株式会社 画像監視装置
JP5523900B2 (ja) 2009-03-31 2014-06-18 綜合警備保障株式会社 人物検索装置、人物検索方法、及び人物検索プログラム
JP2010271876A (ja) * 2009-05-20 2010-12-02 Seiko Precision Inc 移動体追跡装置、移動体追跡方法及びプログラム
JP5870996B2 (ja) 2011-03-28 2016-03-01 日本電気株式会社 人物追跡装置、人物追跡方法および人物追跡プログラム
WO2013187047A1 (ja) 2012-06-13 2013-12-19 パナソニック株式会社 物体検出装置
JP6276519B2 (ja) * 2013-05-22 2018-02-07 株式会社 日立産業制御ソリューションズ 人数計測装置および人物動線解析装置
US10474921B2 (en) 2013-06-14 2019-11-12 Qualcomm Incorporated Tracker assisted image capture
JP5613815B1 (ja) 2013-10-29 2014-10-29 パナソニック株式会社 滞留状況分析装置、滞留状況分析システムおよび滞留状況分析方法
JP6139447B2 (ja) 2014-03-20 2017-05-31 株式会社東芝 画像処理装置、画像処理方法および画像処理プログラム
US9245196B2 (en) * 2014-05-09 2016-01-26 Mitsubishi Electric Research Laboratories, Inc. Method and system for tracking people in indoor environments using a visible light camera and a low-frame-rate infrared sensor
US10242447B2 (en) 2016-09-08 2019-03-26 Sony Corporation Video processing system and method for deformation and occlusion resistant object tracking in video content

Also Published As

Publication number Publication date
US20200043181A1 (en) 2020-02-06
US11049260B2 (en) 2021-06-29
US11288817B2 (en) 2022-03-29
US20200043177A1 (en) 2020-02-06
US10885641B2 (en) 2021-01-05
US20200042778A1 (en) 2020-02-06
WO2018073848A1 (ja) 2018-04-26
JPWO2018073848A1 (ja) 2019-06-27

Similar Documents

Publication Publication Date Title
US11106920B2 (en) People flow estimation device, display control device, people flow estimation method, and recording medium
US10810438B2 (en) Setting apparatus, output method, and non-transitory computer-readable storage medium
KR102189205B1 (ko) 사람의 활동 개요 생성 시스템 및 방법
JP6696422B2 (ja) 異常検知装置及び異常検知方法
WO2014155979A1 (ja) 追尾処理装置及びこれを備えた追尾処理システム並びに追尾処理方法
JP5832910B2 (ja) 画像監視装置
CN109508576B (zh) 一种异常驾驶行为检测方法、装置及电子设备
JP5865710B2 (ja) 画像処理装置
US11288817B2 (en) Image processing device, stationary object tracking system, image processing method, and recording medium
CN115471916A (zh) 吸烟检测方法、装置、设备及存储介质
US20200084416A1 (en) Information processing apparatus, control method, and program
Borges et al. Vision-based detection of unusual patient activity
KR101496287B1 (ko) 비디오 시놉시스 시스템 및 이를 이용한 비디오 시놉시스 방법
JP2009301242A (ja) 頭部候補抽出方法、頭部候補抽出装置、頭部候補抽出プログラムおよびそのプログラムを記録した記録媒体
US20130279761A1 (en) Method and arrangement for identifying virtual visual information in images
JP6939065B2 (ja) 画像認識用コンピュータプログラム、画像認識装置及び画像認識方法
JP7048347B2 (ja) 位置関係決定装置
JP2008146132A (ja) 画像検出装置、プログラム及び画像検出方法
CN110909579A (zh) 一种视频图像处理方法、装置、电子设备及存储介质
JP6527729B2 (ja) 画像処理装置及び画像処理プログラム
US10593045B2 (en) Information processing apparatus and method of controlling the same
JP7332047B2 (ja) 追跡装置、追跡システム、追跡方法、およびプログラム
JP7359306B2 (ja) 追跡装置、追跡システム、追跡方法、およびプログラム
JP2016071591A (ja) 照合装置および照合方法
JP2024063801A (ja) 行動識別装置、行動識別装置の制御方法、プログラム、及び記憶媒体

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190320

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190320

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200609

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200727

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201214

R150 Certificate of patent or registration of utility model

Ref document number: 6819689

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150