JPWO2017154655A1 - 群衆種類識別システム、群衆種類識別方法および群衆種類識別プログラム - Google Patents

群衆種類識別システム、群衆種類識別方法および群衆種類識別プログラム Download PDF

Info

Publication number
JPWO2017154655A1
JPWO2017154655A1 JP2018504388A JP2018504388A JPWO2017154655A1 JP WO2017154655 A1 JPWO2017154655 A1 JP WO2017154655A1 JP 2018504388 A JP2018504388 A JP 2018504388A JP 2018504388 A JP2018504388 A JP 2018504388A JP WO2017154655 A1 JPWO2017154655 A1 JP WO2017154655A1
Authority
JP
Japan
Prior art keywords
crowd
type
local
staying
type identification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018504388A
Other languages
English (en)
Other versions
JP6988790B2 (ja
Inventor
浩雄 池田
浩雄 池田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2017154655A1 publication Critical patent/JPWO2017154655A1/ja
Application granted granted Critical
Publication of JP6988790B2 publication Critical patent/JP6988790B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/53Recognition of crowd images, e.g. recognition of crowd congestion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)
  • Alarm Systems (AREA)

Abstract

画像に表れている滞留した群衆の種類として多様な種類を識別することができる群衆種類識別システムを提供することを目的とする。滞留群衆検出手段21は、画像取得装置で取得された画像内に定められた各局所領域の中から、滞留した群衆を示す局所領域を検出する。群衆向き推定手段22は、滞留群衆検出手段21で検出された局所領域に該当する部分の画像を対象にして、群衆の向きを推定し、その群衆の向きを局所領域に付加する。群衆種類識別手段23は、群衆向き推定手段22で群衆の向きが付加された局所領域について、2つの局所領域の相対的な位置関係を示す相対ベクトルと、その2つの局所領域の群衆の向きを用いて、滞留した複数の人物で構成される群衆の種類を識別し、群衆の種類および位置を出力する。

Description

本発明は、画像内に写っている群衆の種類を識別する群衆種類識別システム、群衆種類識別方法、および群衆種類識別プログラムを記憶する記憶媒体に関する。
特許文献1には、行列の人数を抽出するシステムが記載されている。特許文献1に記載のシステムは、背景差分法によって、画像内の人物領域を抽出する。また、特許文献1に記載のシステムでは、画像内において、行列の検出領域が予め定められている。特許文献1に記載のシステムは、この検出領域内を対象に行列の人数を抽出する。特許文献1に記載の技術により、検出領域内から「行列」という群衆の種類を検出することができる。
また、特許文献2には、異常性の高い集団を検知するシステムが記載されている。特許文献3には、動画像の領域中において人物等が滞留する箇所等を検出するシステムが記載されている。
また、特許文献4には、画像内の種々の領域における人数を認識したり、画像内の種々の領域における群衆の方向を認識したりすることができる群衆状態認識装置が記載されている。さらに、特許文献4には、その群衆状態認識装置が認識処理を行う際に用いる識別器の辞書を機械学習によって得るための教師データを生成する装置が記載されている。
特開2007−265290号公報 国際公開第2015/040929号 特開2011−248836号公報 国際公開第2014/207991号
滞留した群衆の種類には、例えば、「行列」、「取り囲み」等がある。しかし、特許文献1に記載の技術では、画像中から、群衆の種類として「行列」しか検出できない。画像に表れている滞留した群衆の種類として多様な種類を識別できることが好ましい。
そこで、本発明は、画像に表れている滞留した群衆の種類として多様な種類を識別することができる群衆種類識別システム、群衆種類識別方法、および群衆種類識別プログラムを記憶する記憶媒体を提供することを目的とする。
本発明の一態様に係る群衆種類識別システムは、画像取得装置で取得された画像内に定められた各局所領域の中から、滞留した群衆を示す局所領域を検出する滞留群衆検出手段と、滞留群衆検出手段で検出された局所領域に該当する部分の画像を対象にして、群衆の向きを推定し、当該群衆の向きを局所領域に付加する群衆向き推定手段と、群衆向き推定手段で群衆の向きが付加された局所領域について、2つの局所領域の相対的な位置関係を示す相対ベクトルと、2つの局所領域の群衆の向きを用いて、滞留した複数の人物で構成される群衆の種類を識別し、当該群衆の種類および位置を出力する群衆種類識別手段とを備えることを特徴とする。
また、本発明の一態様に係る群衆種類識別システムは、画像中から、滞留した群衆を含む複数の部分領域を検出する検出手段と、第1の部分領域および第2の部分領域を分析し、第1の部分領域および第2の部分領域の群衆の種類を識別する識別手段とを備えることを特徴とする。
本発明の一態様に係る群衆種類識別方法は、画像取得装置で取得された画像内に定められた各局所領域の中から、滞留した群衆を示す局所領域を検出し、検出した局所領域に該当する部分の画像を対象にして、群衆の向きを推定し、当該群衆の向きを前記局所領域に付加し、群衆の向きが付加された局所領域について、2つの局所領域の相対的な位置関係を示す相対ベクトルと、前記2つの局所領域の群衆の向きを用いて、滞留した複数の人物で構成される群衆の種類を識別し、当該群衆の種類および位置を出力することを特徴とする。
本発明の一態様に係る群衆種類識別方法は、画像中から、滞留した群衆を含む複数の部分領域を検出し、第1の部分領域および第2の部分領域を分析し、前記第1の部分領域および前記第2の部分領域の群衆の種類を識別することを特徴とする。
本発明の一態様に係る記憶媒体は、コンピュータに、画像取得装置で取得された画像内に定められた各局所領域の中から、滞留した群衆を示す局所領域を検出する滞留群衆検出処理、前記滞留群衆検出処理で検出された局所領域に該当する部分の画像を対象にして、群衆の向きを推定し、当該群衆の向きを前記局所領域に付加する群衆向き推定処理、および、前記群衆向き推定処理で群衆の向きが付加された局所領域について、2つの局所領域の相対的な位置関係を示す相対ベクトルと、前記2つの局所領域の群衆の向きを用いて、滞留した複数の人物で構成される群衆の種類を識別し、当該群衆の種類および位置を出力する群衆種類識別処理を実行させるための群衆種類識別プログラムを記憶する。
本発明の一態様に係る記憶媒体は、コンピュータに、画像中から、滞留した群衆を含む複数の部分領域を検出する検出処理、および、第1の部分領域および第2の部分領域を分析し、前記第1の部分領域および前記第2の部分領域の群衆の種類を識別する識別処理を実行させるための群衆種類識別プログラムを記憶する。
本発明の一態様は、上述の記憶媒体に格納されている群衆種類識別プログラムによっても実現される。
本発明によれば、画像に表れている滞留した群衆の種類として多様な種類を識別することができる。
本発明の第1の実施形態に係る群衆種類識別システムの構成例を示すブロック図である。 本発明の第1の実施形態に係る滞留群衆検出部の構成例を示すブロック図である。 本発明の第1の実施形態に係る群衆向き推定部の構成例を示すブロック図である。 本発明の第1の実施形態に係る群衆種類識別部の構成例を示すブロック図である。 選択された2つの局所領域と、その2つの局所領域の相対的な位置関係を示す相対ベクトルの例を示す模式図である。 群衆の種類が行列と識別される2つの局所領域を示す模式図である。 群衆の種類が取り囲みと識別される2つの局所領域を示す模式図である。 本発明の第1の実施形態の群衆種類識別システムの動作の例を示すフローチャートである。 本発明の第1の実施形態の群衆種類識別システムのステップS2の動作の例を示すフローチャートである。 本発明の第1の実施形態の群衆種類識別システムのステップS4の動作の例を示すフローチャートである。 第1の実施形態の変形例を示すブロック図である。 第2の実施形態におけるステップS3の処理経過の例を示すフローチャートである。 本発明の第3の実施形態に係る群衆種類識別システムの構成例を示すブロック図である。 上位群衆の識別例を示す説明図である。 本発明の実施形態に係る群衆種類識別システムの具体的な構成例を示すブロック図である。 本発明の第4の実施形態に係る群衆種類識別システムの構成例を示すブロック図である。 本発明の第5の実施形態に係る群衆種類識別システムの構成例を示すブロック図である。
以下、本発明の実施形態を図面を参照して説明する。
[第1の実施形態]
図1は、本発明の第1の実施形態の群衆種類識別システムの構成例を示すブロック図である。本発明の第1の実施形態の群衆種類識別システムは、画像取得装置1と、プログラム制御により動作するデータ処理装置2と、情報を記憶する記憶装置3とを備える。画像取得装置1は、カメラ等の撮像装置の出力や、ビデオ機器等の映像装置の出力から画像を取得する。
記憶装置3は、局所領域群記憶部31を備える。
局所領域群記憶部31は、画像の中に配置される個々の局所領域の位置およびサイズを記憶する。各局所領域の位置およびサイズは、予め定められている。基本的に、複数の局所領域によって画像全体が覆われるように、個々の局所領域の位置およびサイズが定められる。しかし、局所領域を定める態様は、上記の例に限定されず、画像内で群衆の種類の識別対象となる領域に対してのみ、複数の局所領域が定められていてもよい。また、局所領域同士が重なるように、局所領域が定められてもよい。局所領域のサイズは、後述の滞留群衆検出部21や群衆向き推定部22等の機能に合わせて決定される。
以下、画像の中で局所領域に該当する部分の画像を局所領域画像と記す。
データ処理装置2は、滞留群衆検出部21と、群衆向き推定部22と、群衆種類識別部23とを備える。
滞留群衆検出部21は、予め定められた各局所領域によって(換言すれば、局所領域群記憶部31に記憶されている各局所領域の位置およびサイズによって)、画像(画像取得装置1が取得した画像)から特定される各局所領域画像を対象にして、物体の滞留度と、局所領域内の人数とを推定する。物体の滞留度は、物体の滞留状態を示す値である。また、局所領域内の人数は、群衆の密度を示す値である。滞留群衆検出部21は、その2つの値に基づいて、各局所領域の中から、滞留した群衆を示す局所領域を検出する。
図2は、滞留群衆検出部21の構成例を示すブロック図である。滞留群衆検出部21は、滞留状態推定部211と、人数推定部212と、局所領域検出部213とを備える。
滞留状態推定部211は、予め定められた各局所領域によって、画像取得装置1が取得した画像から特定される各局所領域画像を対象にして、物体の滞留度を推定する。ここで、物体とは、群衆に限らず、群衆を含む種々の物体を意味する。例えば、局所領域画像内に、群衆の他に車両、木、建物等も示されている場合、滞留状態推定部211は、群衆を含むそれらの物体全体としての滞留度を推定する。
物体の滞留度の推定方法の例を以下に示す。
滞留状態推定部211は、時刻が異なり場所が同じである局所領域画像から、画像パターンの特徴量の類似度や、動きベクトルや、フレーム間差分の量を算出してもよい。これらの値は、局所領域に示されている物体の動きの程度を表していると言える。画像パターンの特徴量の類似度は、類似度が大きければ滞留度が大きくなるという性質を持っている。動きベクトルは、動きベクトルの大きさが小さければ滞留度が大きくなるという性質を持っている。フレーム間差分の量は、その値が小さければ滞留度が大きくなるという性質を持っている。滞留状態推定部211は、これらの性質を用いて、算出した値に基づいて物体の滞留度を推定すればよい。
あるいは、時刻が異なり場所が同じである局所領域画像が入力されると物体の滞留度を出力する推定器を予め学習によって得ていてもよい。滞留状態推定部211は、時刻が異なり場所が同じである局所領域画像をこの推定器に入力することによって、物体の滞留度の推定値を求めてもよい。上記の推定器の学習には、物体が滞留している場合における時刻の異なる2枚の局所領域画像と、物体が滞留していない場合における時刻の異なる2枚の局所領域画像と、それらの各場合の物体の滞留状態を示す情報とを用いればよい。この学習は、局所領域ベースの学習であると言える。
あるいは、局所領域に対応する実空間における物体の動きを検出する動きセンサを設け、滞留状態推定部211は、動きセンサの検出結果から、局所領域画像が示す物体の滞留度を推定してもよい。
滞留度の推定方法は、例示した上記の方法以外の方法であってもよい。
人数推定部212は、予め定められた各局所領域によって、画像取得装置1が取得した画像から特定される各局所領域画像を対象にして、局所領域内の人数を推定する。
人数推定部212は、学習によって得られた推定器を用いて、局所領域内の人数を推定してもよい。例えば、局所領域画像が入力されると局所領域内の人数を出力する推定器を予め学習によって得ておく。人数推定部212は、局所領域画像をこの推定器に入力することによって、局所領域内の人数の推定値を求めてもよい。上記の推定器の学習には、複数の人数で構成される群衆を示す局所領域画像と、その局所領域画像に対応する人数の情報とを用いればよい。この学習は、局所領域ベースの学習であると言える。この技術は、特許文献4にも記載されている。
局所領域内の人数の推定方法は、例示した上記の方法以外の方法であってもよい。
局所領域検出部213は、滞留状態推定部211によって推定された物体の滞留度と、人数推定部212によって推定された局所領域内の人数とを用いて、予め定められた各局所領域の中から、滞留した群衆を示す局所領域を全て検出する。具体的には、物体の滞留度が所定の閾値より大きく、かつ、局所領域内の人数が所定の閾値より大きい局所領域を全て検出する。なお、滞留度に関する閾値と、人数に関する閾値は、別々に定められているものとする。
群衆向き推定部22は、滞留群衆検出部21によって検出された局所領域に対応する局所領域画像における群衆の向きを推定し、その群衆の向きをその局所領域に付加する。具体的には、群衆向き推定部22は、群衆の向きを示す情報を局所領域に付加する。
群衆の向きは、例えば、画像中の局所領域において、その局所領域に像が含まれる人々の大多数の顔が向いている向きであってもよい。群衆の向きは、例えば、画像中の局所領域において、その局所領域に像が含まれる人々の大多数の体が向いている向きであってもよい。群衆の向きは、例えば、画像中の局所領域において、その局所領域に像が含まれる人々の大多数が注目している向きであってもよい。群衆の向きは、例えば、後述するように群衆の向きを推定する推定器の学習を行う人に意図によって決められていてもよい。群衆の向きは、以上の例に限られない。
図3は、群衆向き推定部22の構成例を示すブロック図である。群衆向き推定部22は、向き推定部221と、データ付加部222とを備える。
向き推定部221は、滞留群衆検出部21によって検出された局所領域に対応する局所領域画像における群衆の向きを推定する。向き推定部221は、学習によって得られた推定器を用いて、群衆の向きを推定してもよい。例えば、局所領域画像が入力されるとその局所領域画像における群衆の向きを出力する推定器を予め学習によって得ておく。
向き推定部221は、滞留群衆検出部21によって検出された局所領域に対応する局所領域画像をこの推定器に入力することによって、群衆の向きを推定してもよい。上記の推定器の学習には、複数の多様な向きの人で構成される群衆を示す局所領域画像と、その局所領域画像に対応する代表的な群衆の向きを示すベクトルや角度とを用いればよい。この学習は、局所領域ベースの学習であると言える。この技術は、特許文献4にも記載されている。
群衆の向きの推定方法は、例示した上記の方法以外の方法であってもよい。
データ付加部222は、推定された群衆の向きを示す情報を、対応する局所領域に付加する。
群衆種類識別部23は、群衆の向きを示す情報が付加された各局所領域から得られる、2つの局所領域からなる局所領域の組み合わせ毎に、以下の処理を実行する。群衆種類識別部23は、組をなす2つの局所領域の相対的な位置関係を示すベクトルと、その2つの局所領域それぞれに付加されている群衆の向きを示す情報とを用いて、滞留した複数の人物で構成される群衆の種類を識別し、その群衆の位置を特定する。群衆の位置とは、群衆の種類の識別に用いられた2つの局所領域の位置である。以下、2つの局所領域の相対的な位置関係を示すベクトルを相対ベクトルと記す。
図4は、群衆種類識別部23の構成例を示すブロック図である。群衆種類識別部23は、相対ベクトル算出部231と、分析部232とを備える。
相対ベクトル算出部231は、組をなす2つの局所領域を選択する。そして、相対ベクトル算出部231は、その2つの局所領域の相対的な位置関係を示す相対ベクトルを算出する。
図5は、選択された2つの局所領域と、その2つの局所領域の相対的な位置関係を示す相対ベクトルの例を示す模式図である。図5では、相対ベクトルを点線で示している。また、各局所領域に付加された情報が示す群衆の向きを実線のベクトルで示している。以下、局所領域に付加された情報が示す群衆の向きを、単に、局所領域の群衆の向きと記す。
分析部232は、相対ベクトルと、その2つの局所領域それぞれに付加されている群衆の向きを示す情報とを用いて、滞留した複数の人物で構成される群衆の種類を識別し、その群衆が表れている位置を特定する。滞留した群衆の種類の例として、行列、取り囲み、たむろ等が挙げられる。
以下、群衆の種類の識別処理の具体例を2つ示す。
1つ目の例として、「行列」の識別処理の例を示す。図6は、表れている群衆の種類が行列と識別される2つの局所領域を示す模式図である。図6では、図5と同様に、相対ベクトルを点線で示し、各局所領域の群衆の向きを実線のベクトルで示している。
相対ベクトル算出部231は、群衆の向きを示す情報が付加された各局所領域から、2つの局所領域を選択する。ここでは、図6に示す2つの局所領域#1,#2を選択したものとする。相対ベクトル算出部231は、選択した2つの局所領域の重心位置を結ぶ相対ベクトルを算出する。ここでは、局所領域#2の重心位置を始点とし、局所領域#1の重心位置を終点とする相対ベクトルを例にして説明する。ただし、「行列」の識別処理では、後述するように、相対ベクトル算出部231は、2つの局所領域から、互いに逆向きの2つの相対ベクトルを算出し、分析部232は、その2つの相対ベクトルそれぞれに対して処理を行う。
相対ベクトル算出部231は、2つの局所領域から求めた相対ベクトルの大きさが所定の閾値以下であるか否かを判定する。相対ベクトルの大きさが所定の閾値より大きい場合(換言すれば、2つの局所領域が遠い場合)、分析部232は、その2つの局所領域について処理を行わず、相対ベクトル算出部231は、新たに2つの局所領域を選択する。
相対ベクトルの大きさが所定の閾値以下である場合(換言すれば、2つの局所領域が近い場合)、分析部232は、選択された2つの局所領域それぞれの群衆の向きと、相対ベクトルとを用いて、その2つの局所領域に対応する群衆(滞留した群衆)の種類を識別する。
分析部232は、局所領域#1の群衆の向きと相対ベクトルの向きとの類似度を算出する。また、分析部232は、局所領域#2の群衆の向きと相対ベクトルの向きとの類似度を算出する。また、分析部232は、局所領域#1の群衆の向きと局所領域#2の群衆の向きとの類似度を算出する。
分析部232は、この3つの類似度が全て所定の値より大きい場合に、2つの局所領域に対応する群衆の種類を「行列」と識別する。上記の各類似度は、向きの類似の程度を示す値であれば、どのような方法で求められた値であってもよい。向きの類似度を求める際に、内積を用いてもよい。具体的には、分析部232は、向きを表すベクトルを正規化し、正規化された2つのベクトルの内積を、それらの2つのベクトルが示す向きの類似度として算出してもよい。
また、局所領域#2の重心位置を始点とし、局所領域#1の重心位置を終点とする相対ベクトルと、その逆向きの相対ベクトル(局所領域#1の重心位置を始点とし、局所領域#2の重心位置を終点とする相対ベクトル)とを算出する。上記の説明では、分析部232が、前者の相対ベクトルに着目して、上記の3つの類似度を算出する場合を説明した。分析部232は、前者の相対ベクトルに着目した場合だけでなく、後者の相対ベクトルに着目した場合に関しても、上記の3つの類似度を算出する。そして、分析部232は、その3つの類似度が全て所定の値より大きい場合に、2つの局所領域に対応する群衆の種類を「行列」と識別する。
分析部232は、互いに逆向きの2つの相対ベクトルの一方に着目した場合と、もう一方に着目した場合のいずれかにおいて、2つの局所領域に対応する群衆の種類を「行列」と識別したならば、2つの局所領域に対応する群衆の種類を「行列」と決定してよい。
図6に示す例では、分析部232は、局所領域#2の重心位置を始点とし、局所領域#1の重心位置を終点とする相対ベクトルに着目し、2つの局所領域に対応する群衆の種類を「行列」と識別する。従って、図6に示す相対ベクトルとは逆向きの相対ベクトルに着目した場合に、2つの局所領域に対応する群衆の種類を「行列」と識別できなくても、分析部232は、図6に示す2つの局所領域に対応する群衆の種類を「行列」と決定してよい。
2つ目の例として、「取り囲み」の識別処理の例を示す。図7は、表れている群衆の種類が取り囲みと識別される2つの局所領域を示す模式図である。図7では、図5と同様に、相対ベクトルを点線で示し、各局所領域の群衆の向きを実線のベクトルで示している。
相対ベクトル算出部231は、群衆の向きを示す情報が付加された各局所領域から、2つの局所領域を選択する。ここでは、図7に示す2つの局所領域#1,#2を選択したものとする。相対ベクトル算出部231は、選択した2つの局所領域の重心位置を結ぶ相対ベクトルを算出する。「取り囲み」の識別処理では、相対ベクトル算出部231は、2つの局所領域から、互いに逆向きの2つの相対ベクトルを算出する必要はない。相対ベクトル算出部231は、2つの局所領域から1つの相対ベクトルを算出すればよい。また、相対ベクトルの向きは2種類考えられるが、相対ベクトル算出部231は、いずれか一方の向きの相対ベクトルを算出すればよい。また、相対ベクトルの向きを2種類のうち、どちらの向きにするかは任意である。図7に示す例では、局所領域#2の重心位置を始点とし、局所領域#1の重心位置を終点とする相対ベクトルを示している。
相対ベクトル算出部231は、2つの局所領域から求めた相対ベクトルの大きさが所定の閾値以下であるか否かを判定する。相対ベクトルの大きさが所定の閾値より大きい場合、分析部232は、その2つの局所領域について処理を行わず、相対ベクトル算出部231は、新たに2つの局所領域を選択する。相対ベクトルの大きさが所定の閾値以下である場合(換言すれば、2つの局所領域が近い場合)、分析部232は、選択された2つの局所領域それぞれの群衆の向きと、相対ベクトルとを用いて、その2つの局所領域に対応する群衆(滞留した群衆)の種類を識別する。この点は、「行列」の識別処理の場合と同様である。
分析部232は、相対ベクトルと、局所領域#1の群衆の向きのベクトルとの外積(以下、第1の外積と記す。)を算出する。同様に、分析部232は、相対ベクトルと、局所領域#2の群衆の向きのベクトルとの外積(以下、第2の外積と記す。)を算出する。
また、分析部232は、局所領域#1の群衆の向きに沿った直線と、局所領域#2の群衆の向きに沿った直線との交点を求める。そして、分析部232は、その交点を終点とし、2つの局所領域のいずれか一方(どちらでもよい。)の重心位置を始点とするベクトルを算出する。以下、便宜的に、このベクトルを交点ベクトルと記す。図7では、交点ベクトルを破線で示している。また、図7に示す例では、局所領域#2の重心位置を交点ベクトルの始点としている。分析部232は、相対ベクトルと、交点ベクトルとの外積(以下、第3の外積と記す。)を算出する。
図7に示す画像(2つの局所領域を包含する画像)に垂直な方向は、2方向存在する。
上記の第1の外積、第2の外積、および第3の外積は、画像に垂直な2つの方向の何れかを向いている。分析部232は、第1の外積の向き、第2の外積の向き、および第3の外積の向きが同じ向きであるならば、2つの局所領域に対応する群衆の種類を「取り囲み」と識別する。
第1の外積の向きおよび第2の外積の向きが同じであるということは、局所領域#1の群衆の向きと、局所領域#2の群衆の向きとが、相対ベクトルに沿った直線を基準として同じ側を向いているということを意味する。また、第1の外積の向き、第2の外積の向き、および第3の外積の向きが同じ向きであるということは、上記の交点が、局所領域#1の群衆の向きの方向に存在し、かつ、局所領域#2の群衆の向きの方向に存在していることを意味する。従って、第1の外積の向き、第2の外積の向き、および第3の外積の向きが同じ向きである場合、局所領域#1,#2の群衆は交点方向を向いていて、その群衆の種類は「取り囲み」であると言うことができる。
分析部232は、上記の方法とは別の方法で、取り囲みを識別してもよい。また、2つの局所領域#1,#2の群衆の向きから、異常個所や注目箇所も分かる。
ここでは、具体的な2つの識別例を示した。群衆種類識別部23は、2つの局所領域の組み合わせに対して、相対ベクトルと、その2つの局所領域の群衆の向きとを用いて、上記以外の群衆の種類を識別してもよい。
また、群衆種類識別部23は、異なる複数の種類に関して、それぞれ識別処理を実行してもよい。
滞留状態推定部211と人数推定部212と局所領域検出部213とを含む滞留群衆検出部21、および、向き推定部221とデータ付加部222とを含む群衆向き推定部22、および、相対ベクトル算出部231と分析部232とを含む群衆種類識別部23は、例えば、コンピュータのCPU(Central Processing Unit)等のプロセッサによって実現される。この場合、CPUは、コンピュータのプログラム記憶装置(図示略)等のプログラム記録媒体から群衆種類識別プログラムを読み込み、そのプログラムに従って、滞留群衆検出部21、群衆向き推定部22、群衆種類識別部23として動作すればよい。
次に、処理経過について説明する。図8は、本発明の第1の実施形態の処理経過の例を示すフローチャートである。
画像取得装置1は、カメラ等の撮像装置あるいはビデオ機器等の映像装置の出力から、画像を取得する(ステップS1)。
滞留状態推定部211が、物体の滞留度の推定方法として、時刻が異なり場所が同じである局所領域画像を用いる方法を採用している場合、画像取得装置1は、同じ場所を写した画像であって撮像時刻が異なる2つの画像を取得すればよい。また、画像取得装置1は、予めある時刻の画像を記憶しておき、ステップS1では、その時刻と異なる時刻の画像を1つ取得してもよい。また、滞留状態推定部211が、物体の滞留度の推定方法として動きセンサを利用する方法を採用している場合、画像取得装置1は、ステップS1で1つの画像を取得すればよい。
ステップS1の後、滞留群衆検出部21は、予め定められた各局所領域によって、ステップS1で取得された画像から定まる各局所領域画像を対象にして、物体の滞留度および局所領域内の人数を推定する。さらに、滞留群衆検出部21は、物体の滞留度および局所領域内の人数の推定値に基づいて、各局所領域の中から、滞留した群衆を示す局所領域を検出する(ステップS2)。
図9は、ステップS2の処理経過の例を示すフローチャートである。
滞留状態推定部211は、予め定められた各局所領域の中から、未だ選択されていない1つの局所領域を選択する(ステップS21)。なお、各局所領域は、局所領域群記憶部31に記憶されている各局所領域の位置およびサイズによって表される。なお、ステップS21,S26は、人数推定部212によって実行されてもよいが、ここでは、滞留状態推定部211がステップS21,S26を実行する場合を例にして説明する。
滞留状態推定部211は、ステップS21で選択された局所領域によって、画像(ステップS1で取得された画像)から特定される局所領域画像を対象にして、物体の滞留度を推定する(ステップS22)。物体の滞留度の推定方法の例については、既に説明したので、ここでは説明を省略する。
次に、人数推定部212は、ステップS21で選択された局所領域によって、画像(ステップS1で取得された画像)から特定される局所領域画像を対象にして、局所領域内の人数を推定する(ステップS23)。人数の推定方法の例については、既に説明したので、ここでは説明を省略する。
なお、ステップS22,S23は、どちらが先に実行されてもよい。
次に、局所領域検出部213は、ステップS22で推定された物体の滞留度と、ステップS23で推定された局所領域内の人数とを用いて、選択された局所領域が、滞留した群衆を示す局所領域であるか否かを判定する(ステップS24)。選択された局所領域が、滞留した群衆を示す局所領域であると判定されたということは、局所領域検出部213が、選択された局所領域を、滞留した群衆を示す局所領域として検出したということである。
局所領域検出部213は、物体の滞留度が所定の閾値より大きく、かつ、局所領域内の人数が所定の閾値より大きいという条件を満たしている場合に、選択された局所領域が、滞留した群衆を示す局所領域であると判定する。上記の条件が満たされていない場合、局所領域検出部213は、選択された局所領域が、滞留した群衆を示す局所領域でないと判定する。
選択された局所領域が、滞留した群衆を示す局所領域である場合(ステップS24のYes)、局所領域検出部213は、選択された局所領域を、滞留した群衆を示す局所領域として蓄積する(ステップS25)。ステップS25の後、ステップS26に移行する。
また、選択された局所領域が、滞留した群衆を示す局所領域でない場合(ステップS24のNo)、ステップS25を行わずに、ステップS26に移行する。
ステップS26において、滞留状態推定部211は、未選択の局所領域があるか否かを判定する(ステップS26)。未選択の局所領域がある場合(ステップS26のYes)、滞留群衆検出部21は、ステップS21以降の動作を繰り返す。
未選択の局所領域がない場合(ステップS26のNo)、局所領域検出部213は、滞留した群衆を示す各局所領域(すなわち、ステップS25で蓄積した各局所領域)を、群衆向き推定部22に出力する(ステップS27)。ステップS27を実行することで、ステップS2(図8参照)が完了する。
次に、群衆向き推定部22は、滞留した群衆を示す局所領域毎に、局所領域に対応する局所領域画像における群衆の向きを推定し、その群衆の向きを示す情報を局所領域に付加する(ステップS3)。
具体的には、向き推定部221が、滞留した群衆を示す局所領域の中から1つの局所領域を選択し、その局所領域に対応する局所領域画像における群衆の向きを推定する。そして、データ付加部222が、推定された群衆の向きを示す情報を、選択された局所領域に付加する。向き推定部221およびデータ付加部222は、未選択の局所領域がなくなるまで、上記の処理を行えばよい。また、データ付加部222は、推定された群衆の向きを示す情報を付加した各局所領域を、群衆種類識別部23に出力する。
次に、群衆種類識別部23は、群衆の向きを示す情報が付加された2つの局所領域からなる局所領域の組み合わせ毎に、相対ベクトルと、2つの局所領域の群衆の向きとを用いて、滞留した群衆の種類を識別する。また、群衆種類識別部23は、その群衆の位置を特定する。群衆種類識別部23は、群衆の種類、および、その群衆の位置を出力する(ステップS4)。滞留した群衆の種類の例として、行列、取り囲み、たむろ等が挙げられる。ステップS4で、群衆種類識別部23は、1つの種類に関して識別処理を行ってもよく、あるいは、異なる複数の種類に関して識別処理を行ってもよい。
図10は、ステップS4の処理経過の例を示すフローチャートである。
相対ベクトル算出部231は、群衆の向きの情報が付加された各局所領域の中から2つの局所領域を選択する(ステップS41)。ステップS41は、群衆の向きの情報が付加された2つの局所領域からなる組み合わせを1つ選択する処理であるということもできる。ステップS41では、相対ベクトル算出部231は、未選択の組み合わせを1つ選択する。
相対ベクトル算出部231は、ステップS41で選択した2つの局所領域の重心位置同士を結ぶ相対ベクトルを算出する(ステップS42)。相対ベクトルの算出態様は、識別処理の対象とする群衆の種類に応じて異なっていてよい。例えば、識別処理の対象とする群衆の種類が「行列」である場合には、相対ベクトル算出部231は、互いに逆向きの2つの相対ベクトルを算出する。また、例えば、識別処理の対象とする群衆の種類が「取り囲み」である場合には、相対ベクトル算出部231は、2つの局所領域のうち、任意の1つの局所領域の重心位置を始点とし、他方の局所領域の重心位置を終点とする1つの相対ベクトルを算出すればよい。
次に、相対ベクトル算出部231は、ステップS42で算出した相対ベクトルの大きさが所定の閾値以下であるか否かを判定する(ステップS43)
相対ベクトルの大きさが所定の閾値より大きい場合(ステップS43のNo)、ステップS47に移行する。
相対ベクトルの大きさが所定の閾値以下である場合(ステップS43のYes)、分析部232は、相対ベクトルと、選択された2つの局所領域それぞれの群衆の向きとを用いて、滞留した群衆の種類を識別する(ステップS44)。
ステップS44で、分析部232は、1つの種類に関して識別処理を行ってもよく、あるいは、異なる複数の種類に関して識別処理を行ってもよい。例えば、分析部232は、ステップS44で、「行列」のみに関して識別処理を行ってもよく、あるいは、「行列」、「取り囲み」それぞれに関して識別処理を行ってもよい。ここでは、「行列」や「取り囲み」を例示したが、分析部232は、ステップS44で、他の種類を対象に識別処理を行ってもよい。
相対ベクトルと、2つの局所領域の群衆の向きとを用いた群衆の種類の識別処理の具体例については、「行列」を識別する場合や「取り囲み」を識別する場合を例にして既に説明したので、ここでは説明を省略する。
ステップS44で群衆の種類を1つも識別できなかった場合には(ステップS45のNo)、ステップS47に移行する。
ステップS44で1つでも群衆の種類を識別できた場合には(ステップS45のYes)、分析部232は、その群衆の種類と、その群衆の位置とを蓄積する(ステップS46)。分析部232は、群衆の種類の識別に用いた2つの局所領域の位置を、群衆の位置として蓄積すればよい。ステップS46の後、ステップS47に移行する。
ステップS47において、相対ベクトル算出部231は、群衆の向きの情報が付加された2つの局所領域からなる組み合わせを全て選択済みであるか否かを判定する(ステップS47)。未選択の組み合わせが存在する場合(ステップS47のNo)、群衆種類識別部23は、ステップS41以降の動作を繰り返す。
全ての組み合わせが選択済みである場合(ステップS47のYes)、分析部232は、蓄積した群衆の種類と、その群衆の位置とを出力する(ステップS48)。ステップS48における出力態様は、特に限定されない。例えば、分析部232は、群衆の種類および位置を表示出力してもよく、あるいは、他の態様で出力してもよい。ステップS48を実行することで、ステップS4(図8参照)が完了する。
本発明の第1の実施形態によれば、群衆種類識別部23は、滞留した群衆を示す局所領域群に対して、2つの局所領域からなる局所領域の組み合わせを順次選択する。群衆種類識別部23は、選択した組み合わせをなす2つの局所領域を対象に、相対ベクトルと、2つの各局所領域の群衆の向きを用いて、群衆の種類を識別する。従って、画像に表れている滞留した群衆の種類として多様な種類を識別することができる。
また、本実施形態では、予め複数の局所領域を定めておく。群衆種類識別部23(より具体的には、分析部232)は、選択した組み合わせをなす2つの局所領域を対象に群衆の種類を識別した場合、画像内におけるその2つの局所領域の位置を、画像内で群衆が表れている位置とする。従って、種類が識別された群衆の画像内での位置を特定することができる。
また、物体の滞留度を推定するための学習や、局所領域内の人数を推定するための学習や、群衆の向きを推定するための学習において、局所領域ベースの学習を適用してもよい。また、人物同士の重なりを含む画像パターンを用いて学習してもよい。この場合、画像取得装置1が取得した画像内で人物同士が重なって写っていても、滞留した群衆の種類を頑健に識別することができる。
次に、第1の実施形態の変形例について説明する。図11は、第1の実施形態の変形例を示すブロック図である。図1に示す要素と同一の要素に関しては、説明を省略する。
上記の第1の実施形態では、滞留群衆検出部21(図1参照)が、各局所領域における物体の滞留度および局所領域内の人数を推定し、滞留した群衆を示す局所領域を検出する。その後、群衆向き推定部22(図1参照)が、検出された局所領域に対して、群衆の向きを推定する。
一方、図11に示す群衆種類識別システムは、予め定められている各局所領域に対して、物体の滞留度、局所領域内の人数、および群衆の向きを同時に推定する。具体的には、図11に示す群衆種類識別システムは、図1に示す滞留群衆検出部21および群衆向き推定部22の代わりに、検出部24を備える。検出部24は、予め定められている各局所領域に対して、物体の滞留度、局所領域内の人数、および群衆の向きを同時に推定する。
例えば、局所領域画像が入力されると、物体の滞留度、局所領域内の人数、および群衆の向きを出力する推定器を予め学習によって得ていてもよい。検出部24は、その推定器に局所領域画像を入力することによって、物体の滞留度、局所領域内の人数、および群衆の向きの推定結果を同時に求めてもよい。また、上記の推定器の学習に、特許文献4に記載の技術を用いてもよい。
検出部24は、例えば、群衆種類識別プログラムに従って動作するコンピュータのCPUによって実現される。
[第2の実施形態]
本発明の第2の実施形態の群衆種類識別システムは、第1の実施形態の群衆種類識別システムと同様に、図1に示すブロック図で表すことができるので、図1を用いて第2の実施形態を説明する。
滞留群衆検出部21および群衆種類識別部23は、第1の実施形態における滞留群衆検出部21および群衆種類識別部23と同様であり、説明を省略する。
群衆向き推定部22は、滞留群衆検出部21によって検出された局所領域に対応する局所領域画像における群衆の向きを推定し、群衆の向きの信頼度が高いと判定した場合に、群衆の向きを示す情報をその局所領域に付加する。一方、群衆の向きの信頼度が低いと判定した場合には、群衆向き推定部22は、群衆の向きを示す情報を局所領域に付加せず、その局所領域は、群衆の種類の識別処理の対象から除外する。
第2の実施形態における群衆向き推定部22は、図3に示すように、向き推定部221と、データ付加部222とを備える。
第2の実施形態における向き推定部221は、滞留群衆検出部21によって検出された局所領域に対応する局所領域画像における群衆の向きを推定する。この点は、第1の実施形態と同様である。ただし、第2の実施形態における向き推定部221は、群衆の向きの信頼度の高低を二者択一で判定できる態様で、群衆の向きを推定する。
例えば、第2の実施形態では、局所領域画像が入力されると、その局所領域画像における群衆の向きとして、群衆の向きを示すベクトルであって向きの信頼度を大きさで表したベクトルを出力する推定器を、予め回帰学習によって得ておく。向き推定部221は、局所領域画像を、この推定器に入力することによって、群衆の向きを推定する。群衆の向きの推定結果は、上記のベクトルとして得られるので、群衆の向きの信頼度の高低を二者択一で判定可能である。この場合、データ付加部222は、群衆の向きを示すベクトルの大きさが所定の閾値以上であれば、推定された群衆の向きの信頼度が高いと判定し、群衆の向きを示す情報(本例ではベクトルで表される情報)を、局所領域に付加すればよい。また、データ付加部222は、群衆の向きを示すベクトルの大きさが所定の閾値未満であれば、推定された群衆の向きの信頼度が低いと判定し、推定結果に対応する局所領域に群衆の向きを示す情報を付加しない。データ付加部222は、群衆の向きを示す情報を付加しなかった局所領域を、群衆種類識別部23の処理対象から除外する。
また、例えば、局所領域画像が入力されると、その局所領域画像における群衆の向きとして、群衆の向きを示す角度を出力する推定器を、予め回帰学習によって得ていてもよい。向き推定部221は、局所領域画像を、この推定器に入力することによって、群衆の向きを推定する。群衆の向きの推定結果は、角度で表されているので、群衆の向きの信頼度の高低を二者択一で判定可能である。例えば、データ付加部222は、群衆の向きを示す角度が0〜360度の範囲内の角度であれば、推定された群衆の向きの信頼度が高いと判定し、群衆の向きを示す情報(本例では角度で表される情報)を、局所領域に付加すればよい。また、データ付加部222は、群衆の向きを示す角度が、0〜360度の範囲外の角度であれば、推定された群衆の向きの信頼度が低いと判定し、推定結果に対応する局所領域に群衆の向きを示す情報を付加しない。データ付加部222は、群衆の向きを示す情報を付加しなかった局所領域を、群衆種類識別部23の処理対象から除外する。
また、例えば、局所領域画像が入力されると、その局所領域画像における群衆の向きとして、群衆の向きを示す角度に該当する確率を所定間隔の角度毎(例えば、10度毎)に出力する推定器を、予め識別学習によって得ていてもよい。向き推定部221は、局所領域画像を、この推定器に入力することによって、所定間隔の角度毎に、角度に該当する確率を得る。向き推定部221は、最も高い確率である角度を群衆の向きと推定する。
データ付加部222は、群衆の向きと推定された角度で確率が高く、他の角度で確率が低い場合、推定された群衆の向きの信頼度が高いと判定し、群衆の向きを示す情報(本例では角度で表される情報)を、局所領域に付加すればよい。また、いずれの角度においても確率が同程度の値である場合には、データ付加部222は、推定された群衆の向きの信頼度が低いと判定し、推定結果に対応する局所領域に群衆の向きを示す情報を付加しない。データ付加部222は、群衆の向きを示す情報を付加しなかった局所領域を、群衆種類識別部23の処理対象から除外する。
群衆の向きの信頼度は、上記の例に限定されない。群衆の向きの信頼度は、信頼度が高いか低いかを二者択一で判定できれば、どのような態様で表されていてもよい。
第2の実施形態における処理経過は、図8に示すフローチャートで表すことができる。
また、ステップS1,S2,S4は、第1の実施形態のステップS1,S2,S4と同様であり、説明を省略する。
図12は、第2の実施形態におけるステップS3の処理経過の例を示すフローチャートである。
向き推定部221が、滞留した群衆を示す各局所領域(すなわち、ステップS2で滞留群衆検出部21によって出力された各局所領域)の中から、未選択の局所領域を1つ選択する(ステップS31)。
次に、向き推定部221は、ステップS31で選択された局所領域に対応する局所領域画像における群衆の向きを推定する(ステップS32)。向き推定部221は、群衆の向きの信頼度の高低を二者択一で判定できる態様で、群衆の向きを推定する。本実施形態での群衆の向きの推定の具体例については、既に説明したので、ここでは説明を省略する。
データ付加部222は、ステップS32で推定された群衆の向きの信頼度が高いか低いかを二者択一で判定する(ステップS33)。群衆の向きの信頼度の高低の判定の具体例についても、既に説明したので、ここでは説明を省略する。
信頼度が低いとデータ付加部222が判定した場合、ステップS34を行わずに、ステップS35に移行する。
また、信頼度が高いとデータ付加部222が判定した場合、データ付加部222が推定された群衆の向きを示す情報を、ステップS31で選択された局所領域に付加する(ステップS34)。ステップS34の後、ステップS35に移行する。
ステップS35において、向き推定部221は、滞留した群衆を示す各局所領域(ステップS2で滞留群衆検出部21によって出力された各局所領域)を全て選択済みであるか否かを判定する(ステップS35)。
滞留した群衆を示す各局所領域のうち、未選択の局所領域がある場合(ステップS35のNo)、群衆向き推定部22は、ステップS31以降の処理を繰り返す。
滞留した群衆を示す各局所領域を全て選択済みである場合(ステップS35のYes)、データ付加部222は、推定された群衆の向きを示す情報を付加した各局所領域を、群衆種類識別部23に出力する(ステップS36)。ステップS36を実行することで、ステップS3(図8参照)が完了する。
第2の実施形態においても、第1の実施形態と同様の効果が得られる。また、第2の実施形態では、推定された群衆の向きの信頼度が高い局所領域のみを対象として、群衆の種類の識別処理が行われる。従って、滞留した群衆の種類の識別の精度を向上させることができる。
[第3の実施形態]
図13は、本発明の第3の実施形態の群衆種類識別システムの構成例を示すブロック図である。本発明の第3の実施形態の群衆処理識別システムにおいて、データ処理装置2は、滞留群衆検出部21、群衆向き推定部22および群衆種類識別部23に加え、さらに、上位群衆種類識別部27を備える。
画像取得装置1、滞留群衆検出部21、群衆向き推定部22、群衆種類識別部23、および局所領域群記憶部31は、第1の実施形態におけるそれらの要素、または、第2の実施形態におけるそれらの要素と同様であり、ここでは、説明を省略する。また、第3の実施形態における群衆処理識別システムは、第1の実施形態におけるステップS1〜S4と同様の動作、または、第2の実施形態におけるステップS1〜S4と同様の動作と同様の動作を実行する。
ステップS4までの動作によって、滞留した群衆を示す2つの局所領域の組み合わせ毎に、群衆の種類および位置が定められている。群衆の位置は、その群衆の種類の識別に用いた2つの局所領域の位置である。ステップS4までの動作によって、種類および位置が定められた群衆は、基礎的な群衆であると言うことができる。なお、本実施形態では、群衆種類識別部23は、群衆の種類および位置(局所領域の位置)、およびその群衆に対応する2つの局所領域の群衆の向きを上位群衆種類識別部27に出力する。
ステップS4の後、上位群衆種類識別部27は、群衆の種類と位置を基にして、群衆を対象にクラスタリングを行うことにより、上位群衆を特定する。上位群衆は、群衆を集めて形づくられる集合である。従って、上位群衆は、群衆よりも複雑化している。上位群衆種類識別部27は、上位群衆に属する群衆の種類と、上位群衆に属する群衆の位置を示す各局所領域の配置パターンと、その各局所領域の群衆の向きのパターンとに基づいて、上位群衆の種類を識別し、上位群衆の種類および位置を出力する。上位群衆の種類および位置の出力態様は、特に限定されない。例えば、上位群衆種類識別部27は、各上位群衆の種類および位置を表示出力してもよく、あるいは、他の態様で出力してもよい。また、ステップS4までの動作で得られた各群衆の種類および位置を、上位群衆種類識別部27が、各上位群衆の種類および位置とともに出力してもよい。上位群衆に属する群衆の位置を示す各局所領域の配置パターンは、上位群衆の位置を示す各局所領域の配置パターンであると言うことができる。
上位群衆種類識別部27は、群衆をクラスタリングすることによって、群衆を要素とするクラスタ(塊)を特定する。このクラスタが上位群衆を表す。上位群衆種類識別部27は、群衆をクラスタリングする場合、互いに異なる群衆の位置(局所領域の位置)の距離が所定の閾値以下であり、かつ、その群衆の種類が共通である場合に、その群衆を同一のクラスタに含めることで、群衆をクラスタリングする。クラスタリングによって得られるクラスタは、群衆を要素としている。さらにその個々の群衆には、群衆の位置(局所領域の位置)、群衆に対応する局所領域の群衆の向きが付随している。
上位群衆種類識別部27は、クラスタリングによって得られた上位群衆の種類を、その上位群衆に属する群衆の種類と、その上位群衆に属する群衆の位置を示す各局所領域の配置パターンと、その各局所領域の群衆の向きのパターンとに基づいて、識別する。上位群衆種類識別部27は、クラスタリングによって得られたクラスタ毎(上位群衆毎)に、上位群衆の種類を識別する。
図14は、上位群衆の識別例を示す説明図である。図14は、画像を示している。図14において、種類が識別された群衆を点線の楕円で囲って示している。また、その楕円の近傍に、群衆の種類を記載している。また、群衆の種類は、2つの局所領域を用いて識別されるので、1つ点線の楕円内には、局所領域が2つ含まれている。図14に示す例では、四角形の局所領域を図示している。なお、1つの局所領域が複数の点線の楕円に含まれる場合もある。
図14に示す画像では、「取り囲み」と識別された群衆の数は、6である。上記のように、上位群衆種類識別部27は、互いに異なる群衆の位置(局所領域の位置)の距離が所定の閾値以下であり、かつ、その群衆の種類が共通である場合に、その群衆を同一のクラスタに含める。図14に示す例では、上記の6個の群衆の位置は、それぞれ、近傍の「取り囲み」と識別された群衆の位置と近く、互いに近傍に位置する群衆の位置(局所領域の位置)の距離が所定の閾値以下であるものとする。また、それらの6個の群衆の種類は、「取り囲み」で共通である。従って、本例では、上位群衆種類識別部27は、「取り囲み」と識別された6個の群衆を1つのクラスタ(塊)にクラスタリングする(図14に示すクラスタ(塊)Bを参照)。この結果、クラスタ(塊)Bに相当する上位群衆が定まる。また、図14では、この上位群衆を、破線の円で表している。
クラスタ(塊)Bに相当する上位群衆に属する群衆の種類は、「取り囲み」である。クラスタ(塊)Bに相当する上位群衆に属する群衆の位置を示す各局所領域の配置パターンは円となっている。また、その各局所領域の群衆の向きのパターンは、円の内側を向くというパターンになっている。上位群衆種類識別部27は、群衆の種類(「取り囲み」)、この配置パターンおよび向きのパターンに基づいて、クラスタ(塊)Bに相当する上位群衆の種類を、「円形取り囲み」と識別する。
例えば、上位群衆種類識別部27は、上位群衆に属する群衆の種類、上位群衆に属する群衆の位置を示す各局所領域の配置パターンおよびその各局所領域の群衆の向きのパターンの各組み合わせと、上位群衆の種類との対応関係を記憶していてもよい。そして、上位群衆種類識別部27は、上位群衆に属する群衆の種類、認識した配置パターンおよび向きのパターンに対応する上位群衆の種類を導出してもよい。
上記の例では、上位群衆種類識別部27が上位群衆の種類として「円形取り囲み」を識別する場合を例示した。上位群衆の種類は、特に限定されない。例えば、上位群衆種類識別部27は、群衆の種類、配置パターンおよび向きのパターンに応じて、上位群衆の種類として、例えば、「直線行列」、「折り返し行列」等を識別してもよい。
また、上位群衆種類識別部27は、上位群衆に属する群衆の位置を示す各局所領域の位置を、上位群衆の位置と定めればよい。
上位群衆種類識別部27は、例えば、群衆種類識別プログラムに従って動作するコンピュータのCPUによって実現される。
本実施形態によれば、上位群衆種類識別部27は、群衆種類識別部23から出力された群衆の種類と位置を基にして、上位群衆を特定する。さらに、上位群衆種類識別部27は、上位群衆に属する群衆の種類と、上位群衆に属する群衆の位置を示す各局所領域の配置パターンと、その各局所領域の群衆の向きのパターンとに基づいて、上位群衆の種類を識別する。従って、本実施形態によれば、上位群衆の種類を識別することができる。また、本実施形態によれば、群衆の種類と配置パターンと向きのパターンとに基づいて上位群衆の種類を識別するので、個々の種類に該当するための条件が制約されることになり、上位群衆の種類を正確に識別することができる。
図15は、本発明の実施形態に係る群衆種類識別システムの具体的な構成例を示すブロック図である。本発明の実施形態に係る群衆種類識別システムは、図15に示すように、画像取得装置1と、記憶装置3と、コンピュータ100とを備える。記憶装置3は、局所領域群記憶部31を含む。
また、コンピュータ100には、画像取得装置1および記憶装置3が接続されている。
さらに、コンピュータ100には、群衆種類識別プログラム101を記憶するコンピュータ可読媒体102も接続されている。
コンピュータ可読媒体102は、例えば、磁気ディスクや半導体メモリ等の記憶装置である。
コンピュータ100は、CPU110と、メモリ120と、I/O(Input/Output)インタフェース130とを含む。CPU110、メモリ120、及び、I/Oインタフェース130は、例えばバスを介して、通信可能に接続されている。CPU110は、I/Oインタフェース130を介して、例えば、画像取得装置1、記憶装置3、コンピュータ可読媒体102へのアクセス装置、及び、群集の種類と位置とを受け取る装置等と通信を行う。CPU110は、上述のCPUとして動作する。
コンピュータ100は、例えば、起動時に、コンピュータ可読媒体102から、群衆種類識別プログラム101を読み出し、群衆種類識別プログラム101に従って、各実施形態で示したデータ処理装置2として動作する。すなわち、コンピュータ100は、群衆種類識別プログラム101に従って、第1の実施形態における滞留群衆検出部21、群衆向き推定部22および群衆種類識別部23として動作する。また、コンピュータ100は、群衆種類識別プログラム101に従って、第1の実施形態の変形例(図11参照)における検出部24および群衆種類識別部23として動作してもよい。
また、コンピュータ100は、群衆種類識別プログラム101に従って、第2の実施形態における滞留群衆検出部21、群衆向き推定部22および群衆種類識別部23として動作してもよい。また、コンピュータ100は、群衆種類識別プログラム101に従って、第3の実施形態における滞留群衆検出部21、群衆向き推定部22、群衆種類識別部23および上位群衆種類識別部27として動作してもよい。
コンピュータ100は、群衆種類識別プログラム101に従って、後述する第4及び第5の実施形態に係るデータ処理装置として動作してもよい。
具体的には、コンピュータ100のCPU110が、コンピュータ可読媒体102から、群衆種類識別プログラム101を読み出し、読み出した群衆種類識別プログラムを、例えばメモリ120にロードすればよい。CPU110は、メモリ120にロードした群衆種類識別プログラムを実行すればよい。そして、CPU110は、メモリ120にロードされた群衆種類識別プログラム101に従って、上述の各実施形態及び以下に示す各実施形態に係るデータ処理装置として動作すればよい。
本発明の各実施形態に係るデータ処理装置は、回路等の専用のハードウェアによって実現されていてもよい。本発明の各実施形態に係るデータ処理装置は、群衆種類識別プログラムがロードされたメモリ120と群衆種類識別プログラムを実行するCPU110とを含むコンピュータ100と、回路等の専用のハードウェアとの組合せによって実現されていてもよい。
すなわち、第1の実施形態における滞留群衆検出部21、群衆向き推定部22および群衆種類識別部23は、メモリ120にロードされた群衆種類識別プログラム101を実行するCPU110によって実現されていてもよい。第1の実施形態における滞留群衆検出部21、群衆向き推定部22および群衆種類識別部23は、回路等の専用のハードウェアによって実現されていてもよい。第1の実施形態における滞留群衆検出部21、群衆向き推定部22および群衆種類識別部23は、上述のCPU110と専用の回路との組合せによって実現されていてもよい。
第1の実施形態の変形例における検出部24および群衆種類識別部23は、メモリ120にロードされた群衆種類識別プログラム101を実行するCPU110によって実現されていてもよい。第1の実施形態の変形例における検出部24および群衆種類識別部23は、回路等の専用のハードウェアによって実現されていてもよい。第1の実施形態の変形例における検出部24および群衆種類識別部23は、上述のCPU110と専用の回路との組合せによって実現されていてもよい。
第2の実施形態における滞留群衆検出部21、群衆向き推定部22および群衆種類識別部23は、メモリ120にロードされた群衆種類識別プログラム101を実行するCPU110によって実現されていてもよい。第2の実施形態における滞留群衆検出部21、群衆向き推定部22および群衆種類識別部23は、回路等の専用のハードウェアによって実現されていてもよい。第2の実施形態における滞留群衆検出部21、群衆向き推定部22および群衆種類識別部23は、上述のCPU110と専用の回路との組合せによって実現されていてもよい。
第3の実施形態における滞留群衆検出部21、群衆向き推定部22、群衆種類識別部23および上位群衆種類識別部27は、メモリ120にロードされた群衆種類識別プログラム101を実行するCPU110によって実現されていてもよい。第3の実施形態における滞留群衆検出部21、群衆向き推定部22、群衆種類識別部23および上位群衆種類識別部27は、回路等の専用のハードウェアによって実現されていてもよい。第3の実施形態における滞留群衆検出部21、群衆向き推定部22、群衆種類識別部23および上位群衆種類識別部27は、上述のCPU110と専用の回路との組合せによって実現されていてもよい。
後述する、第4の実施形態における滞留群衆検出部21、群衆向き推定部22および群衆種類識別部23は、メモリ120にロードされた群衆種類識別プログラム101を実行するCPU110によって実現されていてもよい。第4の実施形態における滞留群衆検出部21、群衆向き推定部22および群衆種類識別部23は、回路等の専用のハードウェアによって実現されていてもよい。第4の実施形態における滞留群衆検出部21、群衆向き推定部22および群衆種類識別部23は、上述のCPU110と専用の回路との組合せによって実現されていてもよい。
後述する、第5の実施形態における検出部71および識別部72は、メモリ120にロードされた群衆種類識別プログラム101を実行するCPU110によって実現されていてもよい。第5の実施形態における検出部71および識別部72は、回路等の専用のハードウェアによって実現されていてもよい。第5の実施形態における検出部71および識別部72は、上述のCPU110と専用の回路との組合せによって実現されていてもよい。
[第4の実施形態]
次に、本発明の第4の実施形態について説明する。図16は、本実施形態に係る群衆種類識別システムの構成の例を示すブロック図である。本実施形態に係る群衆種類識別システムは、滞留群衆検出部21と、群衆向き推定部22と、群衆種類識別部23とを備える。本実施形態の群衆種類識別システムは、1台の装置(例えば、滞留群衆検出部21と、群衆向き推定部22と、群衆種類識別部23とを含むデータ処理装置)によって実現されていてもよい。本実施形態の群衆種類識別システムは、互いに通信可能に接続された複数の装置によって実現されていてもよい。
滞留群衆検出部21は、画像取得装置(例えば、上述の画像取得装置1)で取得された画像内に定められた各局所領域の中から、滞留した群衆を示す局所領域を検出する。
群衆向き推定部22は、滞留群衆検出部21で検出された局所領域に該当する部分の画像(例えば、上述の局所領域画像)を対象にして、群衆の向きを推定し、その群衆の向きを局所領域に付加する。
群衆種類識別部23は、群衆向き推定部22で群衆の向きが付加された局所領域について、2つの局所領域の相対的な位置関係を示す相対ベクトルと、その2つの局所領域の群衆の向きを用いて、滞留した複数の人物で構成される群衆の種類を識別し、群衆の種類および位置を出力する。
そのような構成により、画像に表れている滞留した群衆の種類として多様な種類を識別することができる。
[第5の実施形態]
次に、本発明の第5の実施形態について説明する。図17は、本実施形態に係る群衆種類識別システムの構成の例を示すブロック図である。図17に示す例では、本実施形態に係る群衆種類識別システムは、検出部71と、識別部72とを備える。本実施形態の群衆種類識別システムは、1台の装置(例えば、検出部71と、識別部72とを含むデータ処理装置)によって実現されていてもよい。本実施形態の群衆種類識別システムは、互いに通信可能に接続された複数の装置によって実現されていてもよい。
検出部71(例えば、上述の、滞留群衆検出部21、検出部24)は、画像中から、滞留した群衆を含む複数の部分領域(例えば、上述の局所領域)を検出する。
識別部72(例えば、群衆種類識別部23)は、第1の部分領域および第2の部分領域を分析し、第1の部分領域および第2の部分領域の群衆の種類を識別する。
そのような構成により、画像に表れている滞留した群衆の種類として多様な種類を識別することができる。
なお、第1の部分領域および第2の部分領域それぞれの群衆の向きを推定する推定部(例えば、上述の群衆向き推定部22)を備え、識別部72が、第1の部分領域に対する第2の部分領域の向き(例えば、上述の相対ベクトル)を算出する算出部(例えば、上述の相対ベクトル算出部231)と、第1の部分領域の群衆の向きと、第2の部分領域の群衆の向きと、第1の部分領域に対する第2の部分領域の向きとに基づいて、第1の部分領域および第2の部分領域の群衆の種類を識別する分析部(例えば、上述の分析部232)とを含む構成であってもよい。
上記の本発明の実施形態は、以下の付記のようにも記載され得るが、以下に限定されるわけではない。
(付記1)
画像取得装置で取得された画像内に定められた各局所領域の中から、滞留した群衆を示す局所領域を検出する滞留群衆検出手段と、
前記滞留群衆検出手段で検出された局所領域に該当する部分の画像を対象にして、群衆の向きを推定し、当該群衆の向きを前記局所領域に付加する群衆向き推定手段と、
前記群衆向き推定手段で群衆の向きが付加された局所領域について、2つの局所領域の相対的な位置関係を示す相対ベクトルと、前記2つの局所領域の群衆の向きを用いて、滞留した複数の人物で構成される群衆の種類を識別し、当該群衆の種類および位置を出力する群衆種類識別手段とを備える
ことを特徴とする群衆種類識別システム。
(付記2)
前記群衆種類識別手段は、前記相対ベクトルの大きさが所定の大きさ以下である2つの局所領域を用いて、群衆の種類を識別する
付記1に記載の群衆種類識別システム。
(付記3)
前記滞留群衆検出手段は、局所領域に該当する部分の画像を対象にして、物体の滞留状態を示す物体の滞留度と、群衆の密度を示す局所領域内の人数を推定し、前記物体の滞留度および前記人数に基づいて、滞留した群衆を示す局所領域を検出する
付記1または付記2に記載の群衆種類識別システム。
(付記4)
前記群衆向き推定手段は、群衆の向きを推定した際、当該群衆の向きの信頼度が低い場合、当該群衆の向きを、当該群衆の向きに対応する局所領域に付加しない
付記1から付記3のうちのいずれか1項に記載の群衆種類識別システム。
(付記5)
前記群衆種類識別手段に出力された群衆の種類と位置とを用いて上位群衆を求め、前記上位群衆に属する群衆の種類と、前記上位群衆の位置を示す各局所領域の配置パターンと、前記各局所領域の群衆の向きのパターンとに基づいて、前記上位群衆の種類を識別し、前記上位群衆の種類および位置を出力する上位群衆種類識別手段を備える
付記1から付記4のうちのいずれか1項に記載の群衆種類識別システム。
(付記6)
前記上位群衆種類識別手段は、群衆の種類と位置とを用いて群衆をクラスタリングすることによって上位群衆を求め、クラスタリングによって得られたクラスタ毎に上位群衆の種類を識別する
付記5に記載の群衆種類識別システム。
(付記7)
前記滞留群衆検出手段は、物体の滞留度の推定と人数を推定のいずれかまたは両方に、局所領域ベースの学習の結果を適用する
付記3に記載の群衆種類識別システム。
(付記8)
前記群衆向き推定手段は、群衆の向きの推定に局所領域ベースの学習の結果を適用する 付記1から付記7のうちのいずれか1項に記載の群衆種類識別システム。
(付記9)
画像中から、滞留した群衆を含む複数の部分領域を検出する検出手段と、
第1の部分領域および第2の部分領域を分析し、前記第1の部分領域および前記第2の部分領域の群衆の種類を識別する識別手段とを備える
ことを特徴とする群衆種類識別システム。
(付記10)
前記第1の部分領域および前記第2の部分領域それぞれの群衆の向きを推定する推定手段を備え、
前記識別手段は、
前記第1の部分領域に対する前記第2の部分領域の向きを算出する算出手段と、
前記第1の部分領域の群衆の向きと、前記第2の部分領域の群衆の向きと、前記第1の部分領域に対する前記第2の部分領域の向きとに基づいて、前記第1の部分領域および前記第2の部分領域の群衆の種類を識別する分析手段とを含む
付記9に記載の群衆種類識別システム。
(付記11)
画像取得装置で取得された画像内に定められた各局所領域の中から、滞留した群衆を示す局所領域を検出し、
検出した局所領域に該当する部分の画像を対象にして、群衆の向きを推定し、当該群衆の向きを前記局所領域に付加し、
群衆の向きが付加された局所領域について、2つの局所領域の相対的な位置関係を示す相対ベクトルと、前記2つの局所領域の群衆の向きを用いて、滞留した複数の人物で構成される群衆の種類を識別し、当該群衆の種類および位置を出力する
ことを特徴とする群衆種類識別方法。
(付記12)
前記相対ベクトルの大きさが所定の大きさ以下である2つの局所領域を用いて、群衆の種類を識別する
付記11に記載の群衆種類識別方法。
(付記13)
局所領域に該当する部分の画像を対象にして、物体の滞留状態を示す物体の滞留度と、群衆の密度を示す局所領域内の人数を推定し、前記物体の滞留度および前記人数に基づいて、滞留した群衆を示す局所領域を検出する
付記11または付記12に記載の群衆種類識別方法。
(付記14)
群衆の向きを推定した際、当該群衆の向きの信頼度が低い場合、当該群衆の向きを、当該群衆の向きに対応する局所領域に付加しない
付記11から付記13のうちのいずれか1項に記載の群衆種類識別方法。
(付記15)
群衆の種類と位置とを用いて上位群衆を求め、前記上位群衆に属する群衆の種類と、前記上位群衆の位置を示す各局所領域の配置パターンと、前記各局所領域の群衆の向きのパターンとに基づいて、前記上位群衆の種類を識別し、前記上位群衆の種類および位置を出力する
付記11から付記14のうちのいずれか1項に記載の群衆種類識別方法。
(付記16)
群衆の種類と位置とを用いて群衆をクラスタリングすることによって上位群衆を求め、クラスタリングによって得られたクラスタ毎に上位群衆の種類を識別する
付記15に記載の群衆種類識別方法。
(付記17)
物体の滞留度の推定と人数を推定のいずれかまたは両方に、局所領域ベースの学習の結果を適用する
付記13に記載の群衆種類識別方法。
(付記18)
群衆の向きの推定に局所領域ベースの学習の結果を適用する
付記11から付記17のうちのいずれか1項に記載の群衆種類識別方法。
(付記19)
画像中から、滞留した群衆を含む複数の部分領域を検出し、
第1の部分領域および第2の部分領域を分析し、前記第1の部分領域および前記第2の部分領域の群衆の種類を識別する
ことを特徴とする群衆種類識別方法。
(付記20)
前記第1の部分領域および前記第2の部分領域それぞれの群衆の向きを推定し、
群衆の種類を識別するときに、
前記第1の部分領域に対する前記第2の部分領域の向きを算出し、
前記第1の部分領域の群衆の向きと、前記第2の部分領域の群衆の向きと、前記第1の部分領域に対する前記第2の部分領域の向きとに基づいて、前記第1の部分領域および前記第2の部分領域の群衆の種類を識別する
付記19に記載の群衆種類識別方法。
(付記21)
コンピュータに、
画像取得装置で取得された画像内に定められた各局所領域の中から、滞留した群衆を示す局所領域を検出する滞留群衆検出処理、
前記滞留群衆検出処理で検出された局所領域に該当する部分の画像を対象にして、群衆の向きを推定し、当該群衆の向きを前記局所領域に付加する群衆向き推定処理、および、 前記群衆向き推定処理で群衆の向きが付加された局所領域について、2つの局所領域の相対的な位置関係を示す相対ベクトルと、前記2つの局所領域の群衆の向きを用いて、滞留した複数の人物で構成される群衆の種類を識別し、当該群衆の種類および位置を出力する群衆種類識別処理
を実行させるための群衆種類識別プログラム。
(付記22)
前記コンピュータに、
前記群衆種類識別処理で、前記相対ベクトルの大きさが所定の大きさ以下である2つの局所領域を用いて、群衆の種類を識別させる
前記群衆種類識別プログラムを記憶する付記21に記載の記憶媒体。
(付記23)
前記コンピュータに、
前記滞留群衆検出処理で、局所領域に該当する部分の画像を対象にして、物体の滞留状態を示す物体の滞留度と、群衆の密度を示す局所領域内の人数を推定させ、前記物体の滞留度および前記人数に基づいて、滞留した群衆を示す局所領域を検出させる
前記群衆種類識別プログラムを記憶する付記21または付記22に記載の記憶媒体。
(付記24)
前記コンピュータに、
前記群衆向き推定処理で、群衆の向きを推定した際、当該群衆の向きの信頼度が低い場合、当該群衆の向きを、当該群衆の向きに対応する局所領域に付加させない
前記群衆種類識別プログラムを記憶する付記21から付記23のうちのいずれか1項に記載の記憶媒体。
(付記25)
前記コンピュータに、
前記群衆種類識別処理で出力された群衆の種類と位置とを用いて上位群衆を求め、前記上位群衆に属する群衆の種類と、前記上位群衆の位置を示す各局所領域の配置パターンと、前記各局所領域の群衆の向きのパターンとに基づいて、前記上位群衆の種類を識別し、前記上位群衆の種類および位置を出力する上位群衆種類識別処理を実行させる
前記群衆種類識別プログラムを記憶する付記21から付記24のうちのいずれか1項に記載の記憶媒体。
(付記26)
前記コンピュータに、
前記上位群衆種類識別処理で、群衆の種類と位置とを用いて群衆をクラスタリングすることによって上位群衆を求めさせ、クラスタリングによって得られたクラスタ毎に上位群衆の種類を識別させる
前記群衆種類識別プログラムを記憶する付記25に記載の記憶媒体。
(付記27)
前記コンピュータに、
前記滞留群衆検出処理で、物体の滞留度の推定と人数を推定のいずれかまたは両方に、局所領域ベースの学習の結果を適用させる
前記群衆種類識別プログラムを記憶する付記23に記載の記憶媒体。
(付記28)
前記コンピュータに、
前記群衆向き推定処理で、群衆の向きの推定に局所領域ベースの学習の結果を適用させる
前記群衆種類識別プログラムを記憶する付記21から付記27のうちのいずれか1項に記載の記憶媒体。
(付記29)
コンピュータに、
画像中から、滞留した群衆を含む複数の部分領域を検出する検出処理、および、
第1の部分領域および第2の部分領域を分析し、前記第1の部分領域および前記第2の部分領域の群衆の種類を識別する識別処理
を実行させるための群衆種類識別プログラムを記憶する記憶媒体。
(付記30)
前記コンピュータに、
前記第1の部分領域および前記第2の部分領域それぞれの群衆の向きを推定する推定処理を実行させ、
前記識別処理で、
前記第1の部分領域に対する前記第2の部分領域の向きを算出する算出処理、および、 前記第1の部分領域の群衆の向きと、前記第2の部分領域の群衆の向きと、前記第1の部分領域に対する前記第2の部分領域の向きとに基づいて、前記第1の部分領域および前記第2の部分領域の群衆の種類を識別する分析処理を実行させる
前記群衆種類識別プログラムを記憶する付記29に記載の記憶媒体。
以上、実施形態を参照して本発明を説明したが、本発明は上記実施形態に限定されものではない。本発明の構成や詳細には、本発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
この出願は、2016年3月7日に出願された日本出願特願2016−043157を基礎とする優先権を主張し、その開示の全てをここに取り込む。
本発明は、画像内に写っている群衆の種類を識別する群衆種類識別システムに好適に適用される。また、本発明は、例えば、群衆の種類の識別を必要とする監視分野での不審者認識、不審物の置き去り認識、異常状態認識、異常行動認識等に利用することができる。
また、本発明は、例えば、マーケティング分野での行動解析、環境状態の分析等に利用することができる。また、本発明は、他の装置に対して群衆の種類および位置を送る入力インタフェースとしての用途に適用することもできる。また、本発明は、群衆の種類および位置をトリガキーとするビデオ/映像検索装置等に適用することもできる。
1 画像取得装置
2 データ処理装置
3 記憶装置
21 滞留群衆検出部
22 群衆向き推定部
23 群衆種類識別部
24 検出部
27 上位群衆種類識別部
31 局所領域群記憶部
71 検出部
72 識別部
100 コンピュータ
101 群衆種類識別プログラム
102 コンピュータ可読媒体
110 CPU
120 メモリ
130 I/Oインタフェース
211 滞留状態推定部
212 人数推定部
213 局所領域検出部
221 向き推定部
222 データ付加部
231 相対ベクトル算出部
232 分析部

Claims (30)

  1. 画像取得装置で取得された画像内に定められた各局所領域の中から、滞留した群衆を示す局所領域を検出する滞留群衆検出手段と、
    前記滞留群衆検出手段で検出された局所領域に該当する部分の画像を対象にして、群衆の向きを推定し、当該群衆の向きを前記局所領域に付加する群衆向き推定手段と、
    前記群衆向き推定手段で群衆の向きが付加された局所領域について、2つの局所領域の相対的な位置関係を示す相対ベクトルと、前記2つの局所領域の群衆の向きを用いて、滞留した複数の人物で構成される群衆の種類を識別し、当該群衆の種類および位置を出力する群衆種類識別手段とを備える
    ことを特徴とする群衆種類識別システム。
  2. 前記群衆種類識別手段は、前記相対ベクトルの大きさが所定の大きさ以下である2つの局所領域を用いて、群衆の種類を識別する
    請求項1に記載の群衆種類識別システム。
  3. 前記滞留群衆検出手段は、局所領域に該当する部分の画像を対象にして、物体の滞留状態を示す物体の滞留度と、群衆の密度を示す局所領域内の人数を推定し、前記物体の滞留度および前記人数に基づいて、滞留した群衆を示す局所領域を検出する
    請求項1または請求項2に記載の群衆種類識別システム。
  4. 前記群衆向き推定手段は、群衆の向きを推定した際、当該群衆の向きの信頼度が低い場合、当該群衆の向きを、当該群衆の向きに対応する局所領域に付加しない
    請求項1から請求項3のうちのいずれか1項に記載の群衆種類識別システム。
  5. 前記群衆種類識別手段に出力された群衆の種類と位置とを用いて上位群衆を求め、前記上位群衆に属する群衆の種類と、前記上位群衆の位置を示す各局所領域の配置パターンと、前記各局所領域の群衆の向きのパターンとに基づいて、前記上位群衆の種類を識別し、前記上位群衆の種類および位置を出力する上位群衆種類識別手段を備える
    請求項1から請求項4のうちのいずれか1項に記載の群衆種類識別システム。
  6. 前記上位群衆種類識別手段は、群衆の種類と位置とを用いて群衆をクラスタリングすることによって上位群衆を求め、クラスタリングによって得られたクラスタ毎に上位群衆の種類を識別する
    請求項5に記載の群衆種類識別システム。
  7. 前記滞留群衆検出手段は、物体の滞留度の推定と人数を推定のいずれかまたは両方に、局所領域ベースの学習の結果を適用する
    請求項3に記載の群衆種類識別システム。
  8. 前記群衆向き推定手段は、群衆の向きの推定に局所領域ベースの学習の結果を適用する 請求項1から請求項7のうちのいずれか1項に記載の群衆種類識別システム。
  9. 画像中から、滞留した群衆を含む複数の部分領域を検出する検出手段と、
    第1の部分領域および第2の部分領域を分析し、前記第1の部分領域および前記第2の部分領域の群衆の種類を識別する識別手段とを備える
    ことを特徴とする群衆種類識別システム。
  10. 前記第1の部分領域および前記第2の部分領域それぞれの群衆の向きを推定する推定手段を備え、
    前記識別手段は、
    前記第1の部分領域に対する前記第2の部分領域の向きを算出する算出手段と、
    前記第1の部分領域の群衆の向きと、前記第2の部分領域の群衆の向きと、前記第1の部分領域に対する前記第2の部分領域の向きとに基づいて、前記第1の部分領域および前記第2の部分領域の群衆の種類を識別する分析手段とを含む
    請求項9に記載の群衆種類識別システム。
  11. 画像取得装置で取得された画像内に定められた各局所領域の中から、滞留した群衆を示す局所領域を検出し、
    検出した局所領域に該当する部分の画像を対象にして、群衆の向きを推定し、当該群衆の向きを前記局所領域に付加し、
    群衆の向きが付加された局所領域について、2つの局所領域の相対的な位置関係を示す相対ベクトルと、前記2つの局所領域の群衆の向きを用いて、滞留した複数の人物で構成される群衆の種類を識別し、当該群衆の種類および位置を出力する
    ことを特徴とする群衆種類識別方法。
  12. 前記相対ベクトルの大きさが所定の大きさ以下である2つの局所領域を用いて、群衆の種類を識別する
    請求項11に記載の群衆種類識別方法。
  13. 局所領域に該当する部分の画像を対象にして、物体の滞留状態を示す物体の滞留度と、群衆の密度を示す局所領域内の人数を推定し、前記物体の滞留度および前記人数に基づいて、滞留した群衆を示す局所領域を検出する
    請求項11または請求項12に記載の群衆種類識別方法。
  14. 群衆の向きを推定した際、当該群衆の向きの信頼度が低い場合、当該群衆の向きを、当該群衆の向きに対応する局所領域に付加しない
    請求項11から請求項13のうちのいずれか1項に記載の群衆種類識別方法。
  15. 群衆の種類と位置とを用いて上位群衆を求め、前記上位群衆に属する群衆の種類と、前記上位群衆の位置を示す各局所領域の配置パターンと、前記各局所領域の群衆の向きのパターンとに基づいて、前記上位群衆の種類を識別し、前記上位群衆の種類および位置を出力する
    請求項11から請求項14のうちのいずれか1項に記載の群衆種類識別方法。
  16. 群衆の種類と位置とを用いて群衆をクラスタリングすることによって上位群衆を求め、クラスタリングによって得られたクラスタ毎に上位群衆の種類を識別する
    請求項15に記載の群衆種類識別方法。
  17. 物体の滞留度の推定と人数を推定のいずれかまたは両方に、局所領域ベースの学習の結果を適用する
    請求項13に記載の群衆種類識別方法。
  18. 群衆の向きの推定に局所領域ベースの学習の結果を適用する
    請求項11から請求項17のうちのいずれか1項に記載の群衆種類識別方法。
  19. 画像中から、滞留した群衆を含む複数の部分領域を検出し、
    第1の部分領域および第2の部分領域を分析し、前記第1の部分領域および前記第2の部分領域の群衆の種類を識別する
    ことを特徴とする群衆種類識別方法。
  20. 前記第1の部分領域および前記第2の部分領域それぞれの群衆の向きを推定し、
    群衆の種類を識別するときに、
    前記第1の部分領域に対する前記第2の部分領域の向きを算出し、
    前記第1の部分領域の群衆の向きと、前記第2の部分領域の群衆の向きと、前記第1の部分領域に対する前記第2の部分領域の向きとに基づいて、前記第1の部分領域および前記第2の部分領域の群衆の種類を識別する
    請求項19に記載の群衆種類識別方法。
  21. コンピュータに、
    画像取得装置で取得された画像内に定められた各局所領域の中から、滞留した群衆を示す局所領域を検出する滞留群衆検出処理、
    前記滞留群衆検出処理で検出された局所領域に該当する部分の画像を対象にして、群衆の向きを推定し、当該群衆の向きを前記局所領域に付加する群衆向き推定処理、および、 前記群衆向き推定処理で群衆の向きが付加された局所領域について、2つの局所領域の相対的な位置関係を示す相対ベクトルと、前記2つの局所領域の群衆の向きを用いて、滞留した複数の人物で構成される群衆の種類を識別し、当該群衆の種類および位置を出力する群衆種類識別処理
    を実行させるための群衆種類識別プログラムを記憶する記憶媒体。
  22. 前記コンピュータに、
    前記群衆種類識別処理で、前記相対ベクトルの大きさが所定の大きさ以下である2つの局所領域を用いて、群衆の種類を識別させる
    前記群衆種類識別プログラムを記憶する請求項21に記載の記憶媒体。
  23. 前記コンピュータに、
    前記滞留群衆検出処理で、局所領域に該当する部分の画像を対象にして、物体の滞留状態を示す物体の滞留度と、群衆の密度を示す局所領域内の人数を推定させ、前記物体の滞留度および前記人数に基づいて、滞留した群衆を示す局所領域を検出させる
    前記群衆種類識別プログラムを記憶する請求項21または請求項22に記載の記憶媒体。
  24. 前記コンピュータに、
    前記群衆向き推定処理で、群衆の向きを推定した際、当該群衆の向きの信頼度が低い場合、当該群衆の向きを、当該群衆の向きに対応する局所領域に付加させない
    前記群衆種類識別プログラムを記憶する請求項21から請求項23のうちのいずれか1項に記載の記憶媒体。
  25. 前記コンピュータに、
    前記群衆種類識別処理で出力された群衆の種類と位置とを用いて上位群衆を求め、前記上位群衆に属する群衆の種類と、前記上位群衆の位置を示す各局所領域の配置パターンと、前記各局所領域の群衆の向きのパターンとに基づいて、前記上位群衆の種類を識別し、前記上位群衆の種類および位置を出力する上位群衆種類識別処理を実行させる
    前記群衆種類識別プログラムを記憶する請求項21から請求項24のうちのいずれか1項に記載の記憶媒体。
  26. 前記コンピュータに、
    前記上位群衆種類識別処理で、群衆の種類と位置とを用いて群衆をクラスタリングすることによって上位群衆を求めさせ、クラスタリングによって得られたクラスタ毎に上位群衆の種類を識別させる
    前記群衆種類識別プログラムを記憶する請求項25に記載の記憶媒体。
  27. 前記コンピュータに、
    前記滞留群衆検出処理で、物体の滞留度の推定と人数を推定のいずれかまたは両方に、局所領域ベースの学習の結果を適用させる
    前記群衆種類識別プログラムを記憶する請求項23に記載の記憶媒体。
  28. 前記コンピュータに、
    前記群衆向き推定処理で、群衆の向きの推定に局所領域ベースの学習の結果を適用させる
    前記群衆種類識別プログラムを記憶する請求項21から請求項27のうちのいずれか1項に記載の記憶媒体。
  29. コンピュータに、
    画像中から、滞留した群衆を含む複数の部分領域を検出する検出処理、および、
    第1の部分領域および第2の部分領域を分析し、前記第1の部分領域および前記第2の部分領域の群衆の種類を識別する識別処理
    を実行させるための群衆種類識別プログラムを記憶する記憶媒体。
  30. 前記コンピュータに、
    前記第1の部分領域および前記第2の部分領域それぞれの群衆の向きを推定する推定処理を実行させ、
    前記識別処理で、
    前記第1の部分領域に対する前記第2の部分領域の向きを算出する算出処理、および、 前記第1の部分領域の群衆の向きと、前記第2の部分領域の群衆の向きと、前記第1の部分領域に対する前記第2の部分領域の向きとに基づいて、前記第1の部分領域および前記第2の部分領域の群衆の種類を識別する分析処理を実行させる
    前記群衆種類識別プログラムを記憶する請求項29に記載の記憶媒体。
JP2018504388A 2016-03-07 2017-02-28 群衆種類識別システム、群衆種類識別方法および群衆種類識別プログラム Active JP6988790B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016043157 2016-03-07
JP2016043157 2016-03-07
PCT/JP2017/007643 WO2017154655A1 (ja) 2016-03-07 2017-02-28 群衆種類識別システム、群衆種類識別方法および群衆種類識別プログラムを記憶する記憶媒体

Publications (2)

Publication Number Publication Date
JPWO2017154655A1 true JPWO2017154655A1 (ja) 2019-01-10
JP6988790B2 JP6988790B2 (ja) 2022-01-05

Family

ID=59790289

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018504388A Active JP6988790B2 (ja) 2016-03-07 2017-02-28 群衆種類識別システム、群衆種類識別方法および群衆種類識別プログラム

Country Status (3)

Country Link
US (5) US10789484B2 (ja)
JP (1) JP6988790B2 (ja)
WO (1) WO2017154655A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017154655A1 (ja) * 2016-03-07 2017-09-14 日本電気株式会社 群衆種類識別システム、群衆種類識別方法および群衆種類識別プログラムを記憶する記憶媒体
JP7122243B2 (ja) * 2018-03-05 2022-08-19 日本テレビ放送網株式会社 画像識別装置、分類システム、制作支援システム、それらの方法及びプログラム
SG10201802673VA (en) * 2018-03-29 2019-10-30 Nec Asia Pacific Pte Ltd Method and system for integration and automatic switching of crowd estimation techniques
US12014563B2 (en) 2018-11-21 2024-06-18 Nec Corporation Information processing apparatus, control method, and non-transitory storage medium
CN111353513B (zh) * 2018-12-20 2023-04-18 杭州海康威视数字技术股份有限公司 一种目标人群筛选的方法、装置、终端和存储介质
CN116129361B (zh) * 2023-03-24 2023-08-08 武汉中科通达高新技术股份有限公司 一种基于距离度量的人群聚集识别方法及装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005039181A1 (ja) * 2003-10-21 2005-04-28 Matsushita Electric Industrial Co., Ltd. 監視装置
JP2011248548A (ja) * 2010-05-25 2011-12-08 Fujitsu Ltd コンテンツ決定プログラムおよびコンテンツ決定装置
WO2014207991A1 (ja) * 2013-06-28 2014-12-31 日本電気株式会社 教師データ生成装置、方法、プログラム、および群衆状態認識装置、方法、プログラム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007265290A (ja) 2006-03-29 2007-10-11 Oki Electric Ind Co Ltd 待ち行列情報通知システム
JP2011248836A (ja) 2010-05-31 2011-12-08 Nomura Research Institute Ltd 滞留検出システム及びプログラム
US10635908B2 (en) 2013-09-19 2020-04-28 Nec Corporation Image processing system and image processing method
JP5613815B1 (ja) * 2013-10-29 2014-10-29 パナソニック株式会社 滞留状況分析装置、滞留状況分析システムおよび滞留状況分析方法
CN106664391B (zh) * 2014-06-30 2019-09-24 日本电气株式会社 引导处理装置和引导方法
US10699130B2 (en) * 2014-07-25 2020-06-30 Nec Corporation Image processing apparatus, monitoring system, image processing method, and program
US10325160B2 (en) * 2015-01-14 2019-06-18 Nec Corporation Movement state estimation device, movement state estimation method and program recording medium
WO2017154655A1 (ja) * 2016-03-07 2017-09-14 日本電気株式会社 群衆種類識別システム、群衆種類識別方法および群衆種類識別プログラムを記憶する記憶媒体
WO2018036996A1 (en) * 2016-08-23 2018-03-01 Philips Lighting Holding B.V. Crowd entertainment
JP6904677B2 (ja) * 2016-08-30 2021-07-21 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP6616521B2 (ja) * 2016-09-28 2019-12-04 株式会社日立国際電気 画像処理装置
US10691956B2 (en) * 2017-05-12 2020-06-23 Canon Kabushiki Kaisha Information processing apparatus, information processing system, information processing method, and storage medium having determination areas corresponding to waiting line

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005039181A1 (ja) * 2003-10-21 2005-04-28 Matsushita Electric Industrial Co., Ltd. 監視装置
JP2011248548A (ja) * 2010-05-25 2011-12-08 Fujitsu Ltd コンテンツ決定プログラムおよびコンテンツ決定装置
WO2014207991A1 (ja) * 2013-06-28 2014-12-31 日本電気株式会社 教師データ生成装置、方法、プログラム、および群衆状態認識装置、方法、プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
国本 昌宏 他: "映画の技法を用いたアニメーションの仮想カメラ自動化の研究", 第52回(平成8年前期)全国大会講演論文集(2) 人工知能及び認知科学 メディア情報処理, JPN6021011071, 6 March 1996 (1996-03-06), JP, pages 2 - 357, ISSN: 0004473281 *

Also Published As

Publication number Publication date
US20190340444A1 (en) 2019-11-07
US10891493B2 (en) 2021-01-12
US20210103739A1 (en) 2021-04-08
US20230351617A1 (en) 2023-11-02
US20190102629A1 (en) 2019-04-04
WO2017154655A1 (ja) 2017-09-14
US10885350B2 (en) 2021-01-05
US20190340443A1 (en) 2019-11-07
US11727578B2 (en) 2023-08-15
US10789484B2 (en) 2020-09-29
JP6988790B2 (ja) 2022-01-05

Similar Documents

Publication Publication Date Title
WO2017154655A1 (ja) 群衆種類識別システム、群衆種類識別方法および群衆種類識別プログラムを記憶する記憶媒体
US9824459B2 (en) Tracking objects between images
JP6814673B2 (ja) 移動経路予測装置、及び移動経路予測方法
JPWO2018025831A1 (ja) 人流推定装置、人流推定方法およびプログラム
JP2013210968A (ja) 物体検出装置及びその方法、プログラム
JP6618395B2 (ja) 行動価値によって調査対象の位置を予測する装置、プログラム及び方法
JP5936561B2 (ja) 画像における外観及びコンテキストに基づく物体分類
JP2019003299A (ja) 画像認識装置および画像認識方法
US20190370982A1 (en) Movement learning device, skill discriminating device, and skill discriminating system
Tran et al. Sliding window based micro-expression spotting: a benchmark
JP2018028784A (ja) 移動体群検出プログラム、移動体群検出装置、及び移動体群検出方法
JP2022078967A (ja) 室内測位および追跡のための深層スマートフォンセンサ融合
JP2010061376A (ja) 動作評価装置および動作評価方法
US20220207863A1 (en) Object detection device, object detection method, program, and recording medium
CN107665495B (zh) 对象跟踪方法及对象跟踪装置
US9299000B2 (en) Object region extraction system, method and program
US11983242B2 (en) Learning data generation device, learning data generation method, and learning data generation program
CN114202804A (zh) 行为动作识别方法、装置、处理设备及存储介质
CN116745808A (zh) 作业估计装置、作业估计方法和作业估计程序
WO2021157133A1 (ja) 再同定装置、再同定プログラム、および再同定方法
US11922667B2 (en) Object region identification device, object region identification method, and object region identification program
JP2020064568A (ja) 映像解析システム、学習装置、及びその方法
Mosca et al. Human Walking Behavior detection with a RGB-D Sensors Network for Ambient Assisted Living Applications.
US20230377188A1 (en) Group specification apparatus, group specification method, and computer-readable recording medium
US20230113045A1 (en) Computer-readable recording medium storing determination program, determination method, and information processing apparatus

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180903

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210330

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210525

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20211021

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211102

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211115

R150 Certificate of patent or registration of utility model

Ref document number: 6988790

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150