JP2018173799A - 画像解析装置 - Google Patents

画像解析装置 Download PDF

Info

Publication number
JP2018173799A
JP2018173799A JP2017071179A JP2017071179A JP2018173799A JP 2018173799 A JP2018173799 A JP 2018173799A JP 2017071179 A JP2017071179 A JP 2017071179A JP 2017071179 A JP2017071179 A JP 2017071179A JP 2018173799 A JP2018173799 A JP 2018173799A
Authority
JP
Japan
Prior art keywords
image
region
density
extraction
degree
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017071179A
Other languages
English (en)
Other versions
JP6851241B2 (ja
JP2018173799A5 (ja
Inventor
秀紀 氏家
Hidenori Ujiie
秀紀 氏家
龍佑 野坂
Ryusuke Nosaka
龍佑 野坂
黒川 高晴
Takaharu Kurokawa
高晴 黒川
知行 永橋
Tomoyuki Nagahashi
知行 永橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2017071179A priority Critical patent/JP6851241B2/ja
Publication of JP2018173799A publication Critical patent/JP2018173799A/ja
Publication of JP2018173799A5 publication Critical patent/JP2018173799A5/ja
Application granted granted Critical
Publication of JP6851241B2 publication Critical patent/JP6851241B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】混雑が生じ得る空間が撮影された撮影画像から隠蔽状態が軽度な物体の領域を抽出して当該物体についての情報を解析できる画像解析装置を提供する。【解決手段】画像解析装置は、密度推定器を用いて撮影画像に撮影されている物体の密度の分布を推定する密度推定手段50と、単独の物体の全体が撮影された全体画像の特徴を学習した全体識別器を用いて撮影画像に物体の全体が撮影されている度合いを表す全体撮影度の分布を推定する全体撮影度推定手段52と、軽度な隠蔽状態の物体が撮影されている軽度隠蔽領域を抽出するための抽出基準を軽度隠蔽領域の候補である候補領域ごとに当該候補領域の密度に応じて設定する抽出基準設定手段51と、撮影画像から全体撮影度が抽出基準を満たす軽度隠蔽領域を抽出する軽度隠蔽領域抽出手段53と、軽度隠蔽領域における撮影画像から単独の物体についての情報を解析する物体情報解析手段54を備える。【選択図】図2

Description

本発明は、人等の所定の物体が存在し得る空間が撮影された撮影画像から物体についての情報を解析する画像解析装置に関し、特に、混雑が生じ得る空間が撮影された撮影画像から物体についての情報を解析する画像解析装置に関する。
イベント会場等の混雑が発生し得る空間においてはパニックの発生等を防止するために、異常な行動をとる不審者を早期に発見することが求められる。このような空間は広域であるため、会場の各所に監視カメラを配置し、撮影画像から監視員が注視すべき要注視行動を自動検出することによって監視効率を高めることが期待される。
要注視行動の検出は姿勢推定などの行動解析により行うことができる。その前段の処理として人の領域を抽出する必要があり、人の領域を抽出する方法の一つに、人の画像特徴を学習した識別器により画像を走査する方法がある。例えば、特許文献1に記載の物体検出装置は、多数の「人」の画像データ、「人以外」の画像データを用いて予め学習させた識別器を用いて入力画像から人を検出する。
混雑時の画像においては人同士の隠蔽が多発して個々の人の全容取得が困難となり、姿勢推定などの行動解析は困難化し易い。しかし、混雑時であっても、集団の端の人などの隠蔽状態が軽度な人について姿勢推定などの行動解析を行う余地がある。
特許文献1に記載の物体検出装置が用いる識別器は、人の全身の画像データを用いて学習したものであることが示唆されている。また、この物体検出装置においては、人同士のオクルージョンが発生している画像から人領域を検出し、その際に、第1抽出手段(人物判定手段33)が第2抽出手段(オクルージョン判定手段35)よりも厳しい第1の条件で、識別器が出力するスコアを評価することによって全身が撮影されている人の領域を検出することが記載されている。
特開2011−186633号公報
しかしながら、識別器が出力するスコアは、混雑の無いときに姿勢推定が容易な程度の軽度の隠蔽状態の人が撮影されている領域であっても当該人の姿勢変動等により低下する場合があり、その一方で、混雑時に姿勢推定が困難な程の隠蔽が生じている人が撮影されている領域であっても比較的高くなる場合もある。
そのため、例えば従来技術において、姿勢変動等によってスコアが低下した軽度の隠蔽状態の人の領域を抽出できるように第1の条件を緩和すると、姿勢推定が困難な程の隠蔽が生じている人の領域もが抽出されてしまう。
このように、識別器が出力するスコアは混雑状態や姿勢変動によって変化するため、画一的な基準では、軽度な隠蔽状態の人が撮影された領域を高精度に抽出して当該人の行動解析を行うことが困難であった。
本発明は上記問題に鑑みてなされたものであり、混雑が生じ得る空間が撮影された撮影画像から隠蔽状態が軽度な物体の領域を高精度に抽出して当該物体についての情報を解析できる画像解析装置を提供することを目的とする。
かかる課題を解決するため本発明は、所定の物体による混雑が生じ得る空間が撮影された撮影画像から物体についての情報を解析する画像解析装置であって、所定の密度ごとに当該密度にて物体が存在する空間を撮影した密度画像それぞれの特徴を学習した密度推定器を用いて、撮影画像に撮影されている物体の密度の分布を推定する密度推定手段と、単独の物体の全体が撮影された全体画像の特徴を学習した全体識別器を用いて、撮影画像に物体の全体が撮影されている度合いを表す全体撮影度の分布を推定する全体撮影度推定手段と、単独の物体についての所定の物体情報の解析に要する軽度な隠蔽状態の物体が撮影されている軽度隠蔽領域を抽出するための抽出基準を設定する抽出基準設定手段と、撮影画像から全体撮影度が抽出基準を満たす軽度隠蔽領域を抽出する軽度隠蔽領域抽出手段と、軽度隠蔽領域における撮影画像から単独の物体についての物体情報を解析する物体情報解析手段と、を備え、抽出基準設定手段は、軽度隠蔽領域の候補である候補領域ごとに当該候補領域の密度に応じて抽出基準を変更することを特徴とする画像解析装置を提供する。
かかる画像解析装置において、抽出基準設定手段は、撮影画像において、密度が低い候補領域ほど軽度隠蔽領域が抽出されやすい抽出基準を設定し、密度が高い候補領域ほど軽度隠蔽領域が抽出されにくい抽出基準を設定することが好適である。
また、抽出基準設定手段は、密度に応じた高さの抽出閾値を設定し、軽度隠蔽領域抽出手段は、撮影画像から少なくとも全体撮影度が抽出閾値以上である軽度隠蔽領域を抽出することが好適である。
また、軽度隠蔽領域抽出手段は、撮影画像の局所領域ごとに当該局所領域における全体撮影度の尖鋭度が高いほど当該局所領域における全体撮影度を強調する補正を施し、補正後の全体撮影度が抽出基準を満たす軽度隠蔽領域を抽出することが好適である。
また、物体情報解析手段は、軽度隠蔽領域以外の密度が少なくとも0よりも大きな領域の撮影画像から物体の集団の情報を解析することが好適である。
また、かかる課題を解決するため本発明は、所定の物体による混雑が生じ得る空間が撮影された撮影画像から物体についての情報を解析する画像解析装置であって、単独の物体の全体が撮影された全体画像の特徴を学習した全体識別器を用いて、撮影画像に物体の全体が撮影されている度合いを表す全体撮影度の分布を推定する全体撮影度推定手段と、単独の物体についての所定の物体情報の解析に要する軽度な隠蔽状態の物体が撮影されている軽度隠蔽領域を抽出するための抽出基準を設定する抽出基準設定手段と、撮影画像から全体撮影度が抽出基準を満たす軽度隠蔽領域を抽出する軽度隠蔽領域抽出手段と、軽度隠蔽領域における撮影画像から単独の物体についての物体情報を解析する物体情報解析手段と、を備え、軽度隠蔽領域抽出手段は、撮影画像の局所領域ごとに当該局所領域における全体撮影度の尖鋭度が高いほど当該局所領域における全体撮影度を強調する補正を施し、補正後の全体撮影度が抽出基準を満たす軽度隠蔽領域を抽出することを特徴とする画像解析装置を提供する。
本発明によれば、混雑が生じ得る空間が撮影された撮影画像から隠蔽状態が軽度な物体の領域を高精度に特定して当該物体についての情報を解析することが可能となる。
画像監視装置1の概略の構成を示すブロック図である。 画像監視装置1の機能を示す機能ブロック図である。 画像監視装置1の動作を説明するフローチャートである。 画像監視装置1の動作を説明するフローチャートである。 画像監視装置1の動作を説明するフローチャートである。 撮影画像600の一例を模式的に示した図である。 撮影画像600を全体識別器で走査して得られた全体撮影度分布の断面の一例を模式的に示した図である。 撮影画像600を密度推定器で走査して得られた密度分布の断面の一例を模式的に示した図である。 補正済み全体撮影度と抽出閾値の断面の一例をそれぞれ模式的に示した図である。
以下、本発明の実施形態として、イベント会場が撮影された撮影画像から人の行動を解析する画像解析装置の例を含み、解析した行動の中から要注視行動を検出し、要注視行動の情報を監視員に対して表示する画像監視装置1の例を説明する。
<画像監視装置1の構成>
図1は画像監視装置1の概略の構成を示すブロック図である。画像監視装置1は、撮影部2、通信部3、記憶部4、画像処理部5、および表示部6からなる。
撮影部2は、監視カメラであり、通信部3を介して画像処理部5と接続され、監視空間を所定の時間間隔で撮影して撮影画像を生成し、撮影画像を順次画像処理部5に入力する撮影手段である。例えば、撮影部2は、イベント会場に設置されたポールに当該監視空間を俯瞰する視野を有して設置される。その視野は固定されていてもよいし、予めのスケジュール或いは通信部3を介した外部からの指示に従って変更されてもよい。また、例えば、撮影部2は監視空間をフレーム周期1秒で撮影してカラー画像を生成する。カラー画像の代わりにモノクロ画像を生成してもよい。
通信部3は、通信回路であり、その一端が画像処理部5に接続され、他端が同軸ケーブルまたはLAN(Local Area Network)、インターネットなどの通信網を介して撮影部2および表示部6と接続される。通信部3は、撮影部2から撮影画像を取得して画像処理部5に入力し、画像処理部5から入力された要注視行動の情報を表示部6に出力する。
記憶部4は、ROM(Read Only Memory)、RAM(Random Access Memory)等のメモリ装置であり、各種プログラムや各種データを記憶する。記憶部4は、画像処理部5と接続されて画像処理部5との間でこれらの情報を入出力する。
画像処理部5は、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、MCU(Micro Control Unit)等の演算装置で構成される。画像処理部5は、記憶部4および表示部6と接続され、記憶部4からプログラムを読み出して実行することにより各種処理手段・制御手段として動作し、各種データを記憶部4に記憶させ、読み出す。また、画像処理部5は、通信部3を介して撮影部2および表示部6とも接続され、通信部3経由で撮影部2から取得した撮影画像を解析することにより要注視行動を検出し、検出した要注視行動の情報を通信部3経由で表示部6に表示させる。
表示部6は、液晶ディスプレイ又はCRT(Cathode Ray Tube)ディスプレイ等のディスプレイ装置であり、通信部3を介して画像処理部5と接続され、画像処理部5による検出結果を表示する表示手段である。監視員は表示された要注視行動の情報を視認して対処の必要性等を判断し、必要に応じて警備員を急行させる等の対処を行う。
なお、本実施形態においては、撮影部2と画像処理部5の個数が1対1である画像監視装置1を例示するが、別の実施形態においては、撮影部2と画像処理部5の個数を多対1或いは多対多とすることもできる。
<画像監視装置1の機能>
図2は画像監視装置1の機能を示す機能ブロック図である。通信部3は画像取得手段30および要注視情報出力手段31等として機能し、記憶部4は密度推定器記憶手段40および全体識別器記憶手段41等として機能する。画像処理部5は、密度推定手段50、抽出基準設定手段51、全体撮影度推定手段52、軽度隠蔽領域抽出手段53および物体情報解析手段54等として機能する。
画像取得手段30は、撮影手段である撮影部2から撮影画像を順次取得して、取得した撮影画像を密度推定手段50、全体撮影度推定手段52および物体情報解析手段54に順次出力する。
密度推定器記憶手段40は、所定の密度ごとに当該密度にて物体(人)が存在する空間を撮影した密度画像それぞれの画像特徴を学習した推定密度算出関数であって、画像の特徴量を入力されると当該画像に撮影されている物体の密度の推定値(推定密度)を算出し、算出した推定密度を出力する推定器(密度推定器)の情報を予め記憶している。つまり上記推定密度算出関数の係数等のパラメータを密度推定器の情報として予め記憶している。
密度推定手段50は、画像取得手段30から入力された撮影画像の各所から密度推定用の特徴量(推定用特徴量)を抽出するとともに密度推定器記憶手段40から密度推定器を読み出して、抽出した推定用特徴量のそれぞれを密度推定器に入力することによって推定密度の分布(密度分布)を推定し、推定した密度分布を抽出基準設定手段51および軽度隠蔽領域抽出手段53に出力する。
密度推定器と密度推定の処理について具体的に説明する。
密度推定器は多クラスの画像を識別する識別器で実現することができ、多クラスSVM(Support Vector Machine)法で学習した識別関数とすることができる。
密度は、例えば、人が存在しない「背景」クラス、0人/mより高く2人/m以下である「低密度」クラス、2人/mより高く4人/m以下である「中密度」クラス、4人/mより高い「高密度」クラスの4クラスと定義することができる。
推定密度は各クラスに予め付与された値であり、分布推定の結果として出力される値である。本実施形態では各クラスに対応する値を「背景」「低密度」「中密度」「高密度」と表記する。
すなわち、密度推定器は「背景」クラス、「低密度」クラス、「中密度」クラス、「高密度」クラスのそれぞれに帰属する多数の画像(密度画像)の特徴量に多クラスSVM法を適用して学習した、各クラスの画像を他のクラスと識別するための識別関数である。この学習により導出された識別関数のパラメータが密度推定器として記憶されている。なお密度画像の特徴量はGLCM(Gray Level Co-occurrence Matrix)特徴である。
密度推定手段50は、撮影画像の各画素の位置に窓(推定用抽出窓)を設定し、各推定用抽出窓における撮影画像から推定用特徴量を抽出する。推定用抽出窓は、密度推定器の学習に用いた密度画像と同形・同大の窓である。また推定用特徴量は密度推定器が学習した特徴量と同種でありGLCM特徴である。
各推定用抽出窓に撮影されている監視空間内の領域は同一サイズであることが望ましい。すなわち、好適には密度推定手段50は不図示のカメラパラメータ記憶手段から予め記憶されている撮影部2のカメラパラメータを読み出し、カメラパラメータを用いたホモグラフィ変換により撮影画像の任意の画素に撮影されている監視空間内の領域が同一サイズとなるように撮影画像を変形してから推定用特徴量を抽出する。
密度推定手段50は、各画素に対応して抽出した推定用特徴量のそれぞれを密度推定器に入力することによってその出力値である推定密度を取得する。なお、撮影画像を変形させて推定用特徴量を抽出した場合、密度推定手段50は、カメラパラメータを用いたホモグラフィ変換により密度分布を元の撮影画像の形状に変形させる。
こうして得られる、撮影画像の画素ごとの推定密度の集まりが密度分布である。基本的には、密度分布において推定密度が低い画素を基準に設定された推定用抽出窓ほど、撮影画像内の対応する領域において人同士による重度の隠蔽が発生している可能性が低い。すなわち推定密度が低い画素を基準に設定された推定用抽出窓内ほど真の軽度隠蔽領域を抽出できる可能性が高い。逆に、推定密度が高い画素を基準に設定された推定用抽出窓ほど、撮影画像内の対応する領域において人同士による重度の隠蔽が発生している可能性が高い。すなわち推定密度が高い画素を基準に設定された推定用抽出窓内ほど真の軽度隠蔽領域を抽出できる可能性が低い。
抽出基準設定手段51は、単独の物体についての所定の物体情報の解析に要する軽度な隠蔽状態の物体が撮影されている軽度隠蔽領域を抽出するための抽出基準を設定し、設定した抽出基準を軽度隠蔽領域抽出手段53に出力する。
その際に、抽出基準設定手段51は、密度推定手段50から入力された密度分布を参照し、軽度隠蔽領域の候補である候補領域ごとに当該候補領域の密度に応じて抽出基準を変更する。
ただし、本実施形態の画像解析装置が解析する単独の物体についての物体情報は、単独の人の行動であり、さらに詳細には単独の人の姿勢である。また、本実施形態の画像解析装置が姿勢の解析に要する軽度な隠蔽状態はほぼ隠蔽の無い状態であり、画像解析装置はほぼ全身が撮影されている人の像から当該人の姿勢を解析する。すなわち、軽度隠蔽領域は、撮影画像において人のほぼ全身が撮影されていると推定される領域である。また、本実施形態において、全体撮影度は、撮影画像に人の全身が撮影されている度合いを推定した値であり、全体撮影度推定手段52によって撮影画像の画素ごとに算出される。なお、全体撮影度の算出点となる各画素は、軽度隠蔽領域の候補領域として当該画素を基準に設定される窓(後述する識別用抽出窓)の代表点を意味する。
抽出基準のひとつは、全体撮影度との比較に用いて当該全体撮影度が算出された候補領域を軽度隠蔽領域として抽出するか否かを判定するための抽出閾値であり、抽出基準設定手段51は、撮影画像において、密度が低い候補領域ほど軽度隠蔽領域が抽出されやすい抽出基準を設定し、密度が高い候補領域ほど軽度隠蔽領域が抽出されにくい抽出基準を設定する。
すなわち、抽出基準設定手段51は、撮影画像において、密度に応じた高さの抽出閾値を、次式に従って設定する。
(i)=TMIN+α×D(i) (1)
ただし、T(i)は代表点が画素iである候補領域の抽出閾値、TMINは下限閾値、αは係数、D(i)は画素iにおける密度である。密度D(i)は画素iにおける推定密度の代表値であり、低密度クラスの推定密度の代表値を1人/m、中密度クラスの推定密度の代表値を3人/m、高密度クラスの推定密度の代表値を6人/mなどとすることができる。下限閾値TMINは、事前の実験を通じて0以上の値に予め定められ、例えば0である。また係数αは事前の実験を通じて予め定められた正の値である。
または、α×D(i)の代わりに予め定めた単調増加関数f(D(i))を用いてもよいし、式(1)の代わりに密度と抽出閾値の関係をテーブル化して定めておいてもよい。
このように密度が低い候補領域ほど低く密度が高い候補領域ほど高い抽出閾値が設定される。
抽出基準のもうひとつは、互いに近接する候補領域を一つの物体による候補領域として統合する際の、近接の基準を定める統合閾値である。抽出基準設定手段51は、撮影画像において、密度が低い候補領域ほど広い範囲の候補領域と統合され、密度が高い候補領域ほど狭い範囲の候補領域と統合されるような統合閾値を設定することによって、統合し損ねおよび過剰な統合を防止する。
具体的には、抽出基準設定手段51は、統合が候補領域間の重複割合に基づいて行われる場合は、統合閾値を密度が低い候補領域ほど小さく、密度が高い候補領域ほど大きく設定する。統合が候補領域間の距離に基づいて行われる場合は、抽出基準設定手段51は、統合閾値を密度が低い候補領域ほど大きく、密度が高い候補領域ほど小さく設定する。
抽出基準設定手段51は、このようにして設定した撮影画像の各画素における抽出基準を軽度隠蔽領域抽出手段53に出力する。
全体識別器記憶手段41は、単独の物体の全体が撮影された画像(全体画像)の特徴を学習した識別器であり、画像の特徴量を入力されると当該画像が全体画像であることの尤もらしさを表すスコア(全体撮影度)を算出して出力する識別器(全体識別器)の情報、つまり全体撮影度算出関数の係数等のパラメータを予め記憶している。
全体撮影度推定手段52は、画像取得手段30から入力された撮影画像の各所から全体識別用の特徴量(識別用特徴量)を抽出するとともに全体識別器記憶手段41から全体識別器を読み出して、抽出した識別用特徴量のそれぞれを全体識別器に入力することによって、撮影画像に物体の全体が撮影されている度合いを表す全体撮影度の分布(全体撮影度分布)を推定し、推定した全体撮影度分布を軽度隠蔽領域抽出手段53に出力する。
全体識別器と全体撮影度の推定処理について具体的に説明する。
全体識別器は、それぞれに単独の人の全身が撮影された多数の全体画像、およびそれぞれに人以外しか写っていない多数の無人画像からなる学習用画像の特徴量に線形SVM(Support Vector Machine)法を適用して求めた重みベクトルとして記憶されている。この重みベクトルは特徴量の各要素に対する重みであり、入力された特徴量と重みベクトルとの内積がスコアとなる。学習用画像の特徴量はHOG(Histograms of Oriented Gradients)特徴量である。
全体撮影度推定手段52は、撮影画像の各画素の位置に特徴量を抽出するための窓(識別用抽出窓)を設定し、各識別用抽出窓における撮影画像から識別用特徴量を算出することによって、画素ごとに識別用特徴量を抽出する。識別用抽出窓の大きさは全体識別器の学習に用いた学習用画像と同じサイズに設定される。なお、窓の代表位置は人の頭部中心とし、全体撮影度推定手段52は、識別用抽出窓において予め定められた頭部中心に当たる位置を各画素の位置に合わせて識別用抽出窓を設定する。識別用抽出窓は、全体識別器の学習に用いた全体画像の形状を有し、予め定めた複数の倍率で拡大・縮小した大きさの窓である。また識別用特徴量は全体識別器が学習した特徴量と同種でありHOG特徴量である。
そして、全体撮影度推定手段52は、画素ごとに当該画素に対応して抽出した識別用特徴量を全体識別器に入力することによってその出力値であるスコアを取得する。
こうして得られる、撮影画像の画素ごとのスコアの集まりが全体撮影度分布である。基本的には、全体撮影度分布においてスコアが高い画素を基準に設定された識別用抽出窓ほど人の全身の像が撮影されている可能性が高い。すなわち全体撮影度が高い画素を基準に設定された候補領域ほど軽度隠蔽領域である可能性が高い。逆に、全体撮影度が低い画素を基準に設定された候補領域ほど軽度隠蔽領域である可能性が低い。
軽度隠蔽領域抽出手段53は、抽出基準設定手段51から入力された抽出基準および全体撮影度推定手段52から入力された全体撮影度分布を参照し、撮影画像において全体撮影度が抽出基準を満たす軽度隠蔽領域を抽出し、抽出した軽度隠蔽領域の情報を物体情報解析手段54に出力する。
そのために、軽度隠蔽領域抽出手段53は、撮影画像の画素ごとに、当該画素の位置を基準に当該画素の抽出基準に含まれる識別用抽出窓を候補領域として設定するとともに当該画素の抽出基準に含まれる抽出閾値を参照し、スコアと抽出閾値を比較してスコアが抽出閾値以上である候補領域を特定する。
そして、軽度隠蔽領域抽出手段53は、特定した候補領域のうち互いに近接する複数の候補領域を一つに統合し、統合した候補領域を軽度隠蔽領域と決定する。統合するか否かの判定は候補領域に対応する画素の抽出基準に含まれる統合閾値を用いて行う。
この統合処理は、実際に人が撮影されている位置に加えてその近傍においても同一人物に対して高いスコアが算出されることに対処するために行う。具体的には、例えば、軽度隠蔽領域抽出手段53は、抽出閾値以上のスコアが算出された候補領域をスコアが高い順に順次注目領域に設定するとともに注目領域よりスコアが低い候補領域を比較領域に設定する。
そして、軽度隠蔽領域抽出手段53は、比較領域のうち当該比較領域と注目領域との重複割合が当該注目領域の統合閾値より大きい比較領域の情報を削除することで複数の候補領域を一つに統合する。
なお、重複割合の代わりに距離を用いる場合は、軽度隠蔽領域抽出手段53は、比較領域のうち当該比較領域と注目領域との距離が当該注目領域の統合閾値より小さい比較領域の情報を削除することで複数の候補領域を一つに統合する。
ここで、全体識別器が出力するスコアには、隠蔽が少ない候補領域ほど空間的に尖鋭な形状(ピーク形状)が現れる性質がある。そこで、軽度隠蔽領域抽出手段53は、撮影画像の局所領域ごとに全体撮影度の尖鋭度を算出し、尖鋭度が高い局所領域ほど当該局所領域における全体撮影度を強調する補正を施し、各候補領域における補正後の全体撮影度を抽出基準と比較する。これによって、真の軽度隠蔽領域である候補領域の全体撮影度と偽の軽度隠蔽領域である候補領域の全体撮影度との差を広げ、軽度隠蔽領域の抽出精度を向上させる。
具体的には、軽度隠蔽領域抽出手段53は、撮影画像の各画素に局所領域を設定し、各局所領域のスコアに所定のピーク強調フィルタを施すことによって空間的に尖鋭度の高い全体撮影度を強調する。局所領域の大きさは全体撮影度を算出する全体識別器の特質に依存するため、採用する全体識別器を用いた事前の実験を通じて予め適宜に定めておく。
なお、低いピークをより確実に除外するために、軽度隠蔽領域抽出手段53は、全体撮影度が予め定めた足切り閾値より低い局所領域にはピーク強調フィルタを施さずに、上述した下限閾値TMINよりも低い値を設定するのが好適である。
例えば、ピーク強調フィルタは、局所領域内のスコアの最大値から、当該局所領域の中心領域を除いた領域におけるスコアの最大値を減算するフィルタとすることができる。
または、ピーク強調フィルタを、DoG(Difference-of-Gaussian)フィルタ、LoG(Laplacian of Gaussian)フィルタ、ブロブ(Blob)フィルタなど種々の公知のフィルタとしてもよい。
物体情報解析手段54は、画像取得手段30から入力された撮影画像から物体についての情報を解析する。また、物体情報解析手段54は、解析結果を予め定められた要注視基準と比較し、要注視基準を満たす解析結果を要注視情報として要注視情報出力手段31に出力する。
その際、物体情報解析手段54は、軽度隠蔽領域抽出手段53から入力された軽度隠蔽領域については、軽度隠蔽領域における撮影画像から単独の物体についての所定の物体情報を解析する。上述したように本実施形態においては単独の物体についての物体情報は、単独の人の行動であり、さらに詳細には単独の人の姿勢である。また、本実施形態においては、単独の物体についての要注視基準は、人が転倒、座り込み、暴行などの要注視行動をとった場合の各姿勢に対応する人の各部位の位置を表す参照値、および要注視行動か否かを判定するための判定閾値Tである。
具体的には、物体情報解析手段54は、軽度隠蔽領域それぞれにおける撮影画像を所定の姿勢推定器に入力し、その出力値として、当該軽度隠蔽領域に撮影されている人の頭部、腕、脚などの部位の位置の推定値を取得する。姿勢推定器は、例えば、予め各部位の位置情報を付加した人物画像を用いて学習した、画像から部位の位置を推定するCNN(Convolutional Neural Networks)とすることができる。
また、物体情報解析手段54は、軽度隠蔽領域ごとの推定値と要注視行動の各姿勢に対応する参照値との相違度を算出して各相違度を判定閾値Tと比較する。
また、物体情報解析手段54は、相違度が判定閾値T以下である軽度隠蔽領域が抽出された場合に、当該軽度隠蔽領域に撮影されている人の行動が要注視行動であると判定して、撮影画像、当該軽度隠蔽領域および当該軽度隠蔽領域における人の姿勢の推定値等を含めた要注視情報を要注視情報出力手段31に出力する。
また、物体情報解析手段54は、密度推定手段50から入力された密度分布も参照し、軽度隠蔽領域以外の、密度が少なくとも0よりも大きな領域の撮影画像から物体の集団の情報を解析する。
本実施形態においては、物体の集団の情報は、人の集団の行動であり、さらに詳細には人の集団の動きである。具体的には、物体情報解析手段54は、推定密度が中密度以上(すなわち中密度または高密度)である混雑領域における撮影画像をオプティカルフロー分析して、混雑領域全体の移動方向の頻度分布(全体方向分布)および混雑領域に含まれる局所領域ごとの移動方向の頻度分布(局所方向分布)を算出する。
また、本実施形態においては、物体の集団の情報についての要注視基準は、集団の中の少数の人が逆行などの要注視行動をとった場合の、局所方向分布と全体方向分布の間の距離が要注視行動を表すか否かを判定するための判定閾値Tである。具体的には、物体情報解析手段54は、局所方向分布のそれぞれと全体方向分布との間の距離を算出して各距離を判定閾値Tと比較する。
そして、物体情報解析手段54は、距離が判定閾値T以上である局所領域が検出された場合に、混雑領域に撮影されている集団において要注視行動が発生しているとして、撮影画像、検出された局所領域の局所方向分布および全体方向分布等を含めた要注視情報を要注視情報出力手段31に出力する。
要注視情報出力手段31は物体情報解析手段54から入力された要注視情報を表示部6に出力し、表示部6は物体情報解析手段54から入力された要注視情報を表示する。例えば、要注視情報は、インターネット経由で送受信され、表示部6に表示される。監視員は、表示された情報を視認することによって対処の必要性を判断し、必要に応じて警備員を派遣するなどの対処を行う。
<画像監視装置1の動作>
図3〜図5のフローチャートを参照して画像監視装置1の動作を説明する。
画像監視装置1が動作を開始すると、イベント会場に設置されている撮影部2は所定時間おきに監視空間を撮影して撮影画像を順次画像処理部5が設置されている画像解析センター宛に送信する。画像処理部5は撮影画像を受信するたびに図3〜図5のフローチャートに従った動作を繰り返す。
まず、通信部3は画像取得手段30として動作し、撮影部2からの撮影画像の受信待ち状態となる。撮影画像を取得した画像取得手段30は当該撮影画像を画像処理部5に出力する(ステップS1)。
撮影画像を入力された画像処理部5は密度推定手段50として動作し、撮影画像の画素ごとに推定用特徴量を算出し、記憶部4の密度推定器記憶手段40から密度推定器を読み出して各推定用特徴量を密度推定器に入力することにより画素ごとの推定密度を取得して密度分布を推定する(ステップS2)。
密度推定手段50は、密度分布に背景クラス以外の推定密度が含まれているか否かを確認する(ステップS3)。背景クラスのみの場合は(ステップS3にてNO)、密度推定手段50は人が撮影されていないとして処理をステップS1に戻す。
他方、背景クラス以外の推定密度が含まれている場合は(ステップS3にてYES)、画像処理部5は抽出基準設定手段51および物体情報解析手段54としても動作し、密度推定手段50から抽出基準設定手段51および物体情報解析手段54に密度分布が入力され、密度分布が入力された各手段はこれを保持する。
続いて、画像処理部5は全体撮影度推定手段52として動作し、撮影画像の画素ごとに識別用特徴量を算出し、記憶部4の全体識別器記憶手段41から全体識別器を読み出して各識別用特徴量を全体識別器に入力することにより画素ごとのスコア(全体撮影度)を取得して全体撮影度分布を推定する(ステップS4)。
続いて、全体撮影度推定手段52は、全体撮影度分布の画素ごとに局所領域を設定して当該局所領域の全体撮影度にピーク強調フィルタを施すことによって、全体撮影度分布を補正する(ステップS5)。画像処理部5は軽度隠蔽領域抽出手段53としても動作し、全体撮影度推定手段52から軽度隠蔽領域抽出手段53に全体撮影度分布を入力して、軽度隠蔽領域抽出手段53はこれを保持する。
続いて、抽出基準設定手段51は抽出基準を設定する(ステップS6)。抽出基準設定手段51は、密度分布を参照し、画素ごとに当該画素の推定密度に応じた抽出閾値および統合閾値を設定し、これら画素ごとの抽出基準を軽度隠蔽領域抽出手段53に入力する。
続いて、軽度隠蔽領域抽出手段53は撮影画像から軽度隠蔽領域を抽出する(ステップS7)。軽度隠蔽領域抽出手段53は、画素ごとに識別用抽出窓を設定して軽度隠蔽領域の候補領域とし、各画素に対応してステップS4,S5で算出された全体撮影度を当該画素に対応してステップS6で設定された抽出閾値と比較し、全体撮影度が抽出閾値以上である画素に設定した候補領域を選出する。そして、軽度隠蔽領域抽出手段53は、選出した候補領域のうちの当該各候補領域を設定した画素に対応してステップS6で設定された統合閾値が表す範囲よりも近接している候補領域どうしをひとつにまとめる統合処理を行い、統合処理を経て残った候補領域を軽度隠蔽領域として抽出する。
軽度隠蔽領域抽出手段53は、抽出結果を物体情報解析手段54に入力する。
物体情報解析手段54は、入力された抽出結果を確認し(ステップS8)、一つ以上の軽度隠蔽領域が抽出された場合は(ステップS8にてYES)、当該各軽度隠蔽領域の撮影画像を用いて単独の人についての行動解析を行う(ステップS9)。例えば、物体情報解析手段54は、各軽度隠蔽領域の撮影画像から当該領域に撮影されている人の姿勢を推定する。
各軽度隠蔽領域の行動解析を行った物体情報解析手段54は、当該各解析結果を予め定めた要注視基準と比較する(ステップS10)。例えば、物体情報解析手段54は、各軽度隠蔽領域の撮影画像から推定した姿勢を、転倒、座り込み、暴行の各姿勢を表す参照値と比較して相違度を算出し、各相違度を判定閾値Tと比較する。
そして、物体情報解析手段54は、相違度が判定閾値T以下である軽度隠蔽領域が検出された場合は(ステップS11にてYES)、要注視基準を満たす要注視行動が検出されたとして、撮影画像と当該軽度隠蔽領域と該当する参照値が表す姿勢とを含めた要注視情報を生成して記憶部4に記憶させる(ステップS12)。
なお、物体情報解析手段54は、軽度隠蔽領域が抽出されなかった場合は(ステップS8にてNO)、ステップS9〜S12の処理を省略し、軽度隠蔽領域が抽出されたが軽度隠蔽領域から要注視行動が検出されなかった場合は(ステップS11にてNO)、ステップS12の処理を省略する。
続いて、物体情報解析手段54は、密度分布に推定密度が中密度および高密度のいずれかである混雑領域が含まれているか否かを確認し(ステップS13)、含まれている場合は(ステップS13にてYES)、推定密度が中密度および高密度である画素からなる領域から軽度隠蔽領域を除外した混雑領域を生成し、生成した混雑領域の撮影画像を用いて人の集団についての行動解析を行う(ステップS14)。例えば、物体情報解析手段54は、混雑領域の撮影画像をオプティカルフロー分析して混雑領域の全体的な移動方向の頻度分布および混雑領域に含まれる局所領域ごとの移動方向の頻度分布を算出する。
各混雑領域の行動解析を行った物体情報解析手段54は、当該各解析結果を予め定めた要注視基準と比較する(ステップS15)。例えば、物体情報解析手段54は、混雑領域に含まれる局所領域ごとの移動方向の頻度分布と混雑領域の全体的な移動方向の頻度分布との距離を算出し、各距離を判定閾値Tと比較する。
そして、物体情報解析手段54は、相違度が判定閾値T以下である局所領域が検出された場合は(ステップS16にてYES)、要注視基準を満たす要注視行動が検出されたとして、撮影画像と当該局所領域とその移動方向の頻度分布と混雑領域の全体的な移動方向の頻度分布とを含めた要注視情報を生成して記憶部4に記憶させる(ステップS17)。
なお、物体情報解析手段54は、混雑領域がなかった場合は(ステップS13にてNO)、ステップS14〜S17の処理を省略し、混雑領域はあったが混雑領域から要注視行動が検出されなかった場合は(ステップS16にてNO)、ステップS17の処理を省略する。
ここまでの処理を終えた物体情報解析手段54は、記憶部4を参照して要注視情報の有無を確認し(ステップS18)、要注視情報が記憶されている場合は(ステップS18にてYES)、当該要注視情報を通信部3に出力する(ステップS19)。要注視情報が入力された通信部3は要注視情報出力手段31として動作し、当該要注視情報を表示部6に送信する。
以上の処理を終えると処理はステップS1に戻され、次の撮影画像に対する処理が行われる。
<処理例>
図6〜図9を参照して、軽度隠蔽領域を抽出する処理の例を説明する。
図6は、撮影画像600の一例を模式的に示した図である。撮影画像600の左半分の領域601には単独の人が2人撮影されており、右半分の領域602には11人の集団が撮影されている。
図7は、図6の撮影画像600を全体識別器で走査して得られた全体撮影度分布の一部であり、撮影画像600の断面abにおける全体撮影度を模式的に例示したグラフ700である。グラフ700中の全体撮影度711、712、713、714、715はそれぞれ撮影画像600中の×印で示した画素の位置611、612、613、614、615に候補領域(識別用抽出窓)を設定して得られた全体撮影度を示している。なお候補領域は人の頭部中心を基準に設定されるものとする。
図8は、図6の撮影画像600を密度推定器で走査して得られた密度分布の一部であり、撮影画像600の断面abにおける推定密度を模式的に例示したグラフ800である。グラフ800中の推定密度811、812、813、814、815はそれぞれ撮影画像600の画素の位置611、612、613、614、615に推定用抽出窓を設定して得られた推定密度を示している。
図9は、図7の全体撮影度分布にピーク強調フィルタを施して補正した全体撮影度分布(補正済み全体撮影度)、および図6の密度分布を基に設定した抽出閾値の一部であり、撮影画像600の断面abにおける補正済み全体撮影度を実線で、同断面abにおける抽出閾値を点線で、それぞれ模式的に例示したグラフ900である。グラフ900中の補正済み全体撮影度911、912、913、914、915はそれぞれ撮影画像600の画素の位置611、612、613、614、615に候補領域を設定して得られた補正済み全体撮影度を示している。
上述したように本実施形態において候補領域は人の頭部中心を基準に設定されるものとしており、頭部中心からずれた位置615に設定した候補領域は軽度隠蔽領域として抽出されるべきではない。当該位置615の補正済み全体撮影度915は抽出閾値を下回るため軽度隠蔽領域として誤抽出されず、正しい抽出結果となっている。
単独の人の全身が撮影されており、その頭部中心の位置611を基準に設定した候補領域は軽度隠蔽領域として抽出されるべき候補領域である。当該位置611については補正前から全体撮影度711はピーク形状を為しており値も十分に高い。
位置611の密度が低密度であることに応じて低く設定した抽出閾値によって当該位置611の候補領域はより確実に正しく軽度隠蔽領域として抽出され、さらにはピーク形状を強調して補正済み全体撮影度911を抽出閾値と比較することによってさらに確実に正しく軽度隠蔽領域として抽出されるようになる。
単独の人の全身が撮影されており、その頭部中心の位置612を基準に設定した候補領域もまた軽度隠蔽領域として抽出されるべき候補領域である。当該位置612の補正前の全体撮影度712はピーク形状を為しているものの、大きな姿勢変動が原因でその値は全体撮影度715よりも低くなっている。仮に全体撮影度712を抽出できるように閾値を設定してしまうと、軽度隠蔽領域として抽出されるべきではない位置615の候補領域も抽出されてしまう。
しかし、位置612の密度が低密度であることに応じて低く設定した抽出閾値によって当該位置612の候補領域は正しく軽度隠蔽領域として抽出されるようになり、さらにはピーク形状を強調して補正済み全体撮影度912を抽出閾値と比較することによってさらに確実に正しく軽度隠蔽領域として抽出されるようになる。
集団の中の中度隠蔽状態の人が撮影されており、その頭部中心の位置613を基準に設定した候補領域は軽度隠蔽領域として抽出されるべきではない候補領域である。当該位置613の補正前の全体撮影度713はピーク形状は為していないものの、姿勢変動により低下した全体撮影度712よりも高くなっている。仮に全体撮影度712を抽出できるように閾値を設定してしまうと、軽度隠蔽領域として抽出されるべきではない当該位置613の候補領域も誤抽出されてしまう。
しかし、位置613の密度が中密度であることに応じて高く設定した抽出閾値によって当該位置613の候補領域は誤抽出されなくなる、さらには補正済み全体撮影度913もピーク強調フィルタによって過剰に高い値となることはなく誤抽出されない。
集団の中にあって軽度隠蔽状態の人が撮影されており、その頭部中心の位置614を基準に設定した候補領域は軽度隠蔽領域として抽出されるべき候補領域である。当該位置614の補正前の全体撮影度714はピーク形状を為しており値も十分に高い。
位置614の密度が高密度であることに応じて高く設定した抽出閾値によっても当該位置614の候補領域は正しく軽度隠蔽領域として抽出され、さらにはピーク形状を強調して補正済み全体撮影度914もピーク強調フィルタによって抽出閾値と比較することによってさらに確実に正しく軽度隠蔽領域として抽出されるようになる。
<変形例>
(1)上記実施形態においては、解析対象の物体を人とする例を示したが、これに限らず、解析対象の物体を車両、牛や羊等の動物等とすることもできる。
(2)上記実施形態およびその変形例においては、単独の物体について解析する物体情報を姿勢に基づく行動とし、物体情報解析手段54が姿勢推定に基づいて行動を解析する例を示したが、これに限らない。例えば、動きに基づく行動としてもよいし、個人特徴または個体特徴に基づく外見とし物体情報解析手段54が個人照合、個体照合または属性推定を行うこともできる。また、物体情報解析手段54が集団の物体について解析する情報を動きに基づく行動とする例を示したが、物体数など動き以外の情報を解析することもできる。
(3)上記実施形態およびその各変形例においては、多クラスSVM法にて学習した密度推定器を例示したが、多クラスSVM法に代えて、決定木型のランダムフォレスト法、多クラスのアダブースト(AdaBoost)法または多クラスロジスティック回帰法などにて学習した密度推定器など種々の密度推定器とすることができる。
或いは識別型のCNNを用いた密度推定器とすることもできる。
(4)上記実施形態およびその各変形例においては、密度推定器が推定する背景以外の密度のクラスを3クラスとしたが、より細かくクラスを分けてもよい。
(5)上記実施形態およびその各変形例においては、多クラスに分類する密度推定器を例示したがこれに代えて、特徴量から密度の値(推定密度)を回帰する回帰型の密度推定器とすることもできる。すなわち、リッジ回帰法、サポートベクターリグレッション法、回帰木型のランダムフォレスト法またはガウス過程回帰(Gaussian Process Regression)などによって、特徴量から推定密度を求めるための回帰関数のパラメータを学習した密度推定器とすることができる。或いは回帰型のCNNを用いた密度推定器とすることもできる。なお、これらの場合、上述した密度D(i)は連続値となる。
(6)上記実施形態およびその各変形例においては、密度推定器が学習する特徴量および推定用特徴量としてGLCM特徴を例示したが、これらはGLCM特徴に代えて、局所二値パターン(Local Binary Pattern:LBP)特徴量、ハールライク(Haar-like)特徴量、HOG特徴量、輝度パターンなどの種々の特徴量とすることができ、またはGLCM特徴とこれらのうちの複数を組み合わせた特徴量とすることもできる。
(7)上記実施形態およびその各変形例においては、密度推定手段50、抽出基準設定手段51および全体撮影度推定手段52が1画素間隔で走査して処理を行う例を示したが、これらの走査を2画素以上の間隔を空けて行うことも可能である。ただし、画素間隔は推定用抽出窓および識別用抽出窓の大きさを超えない範囲とすることが好適である。
(8)上記実施形態およびその各変形例においては、密度推定手段50、抽出基準設定手段51および全体撮影度推定手段52が撮影画像の全体に候補領域を設定する例を示したが、撮影画像内の限定した領域に設定することもできる。
すなわち、例えば、抽出基準設定手段51および全体撮影度推定手段52のそれぞれは、推定密度が背景クラス以外(低密度クラス、中密度クラスおよび高密度クラス)の領域に限定して候補領域を設定してもよい。
または、密度推定手段50、抽出基準設定手段51および全体撮影度推定手段52のそれぞれは、変化領域内に限定して候補領域を設定してもよい。その場合、記憶部4は監視空間の背景画像を記憶する背景画像記憶手段(不図示)を備え、画像処理部5は、撮影画像と背景画像との差分処理を行って差分値が所定の差分閾値以上である画素の集まりを変化領域として抽出する、または撮影画像と背景画像との相関処理を行って相関値が所定の相関閾値以下である画素の集まりを変化領域として抽出する変化領域抽出手段(不図示)を備え、密度推定手段50、抽出基準設定手段51および全体撮影度推定手段52のそれぞれは、変化領域抽出手段が抽出した変化領域を参照して候補領域を設定する。なお、変化領域を用いる場合、撮影部2の視野は固定することが好適である。
このような候補領域を設定する領域の限定によって、背景に対する高いスコアの偶発的な算出を防止でき、軽度隠蔽領域の誤抽出を低減できる。
(9)上記実施形態およびその各変形例においては、抽出基準設定手段51が1画素の推定密度から候補領域の密度を定める例を示したが、複数の画素の推定密度から候補領域の密度を定めることもできる。例えば、抽出基準設定手段51は候補領域設定の基準として注目している画素の8近傍領域または16近傍領域などの領域において背景クラスを除く最多の推定密度を当該候補領域の密度とすることもできる。このように周辺画素の推定密度を加味して候補領域の密度を定めることによって、抽出基準をより安定して設定することができる。
(10)上記実施形態およびその各変形例においては、線形SVM法により学習された全体識別器を例示したが、線形SVM法に代えてアダブースト法など、従来知られた各種の学習法を用いて学習した全体識別器とすることもできる。また、全体識別器としてパターンマッチング器を用いることもでき、その場合のスコアは人の学習用画像から抽出した特徴量の平均パターンと撮影画像の特徴量との内積などとなり、全体撮影度算出関数は当該スコアを出力値とし撮影画像の特徴量を入力値とする関数とすることができる。また全体識別器として識別型のCNNを用いても良い。
(11)上記実施形態およびその各変形例においては、全体識別器が学習する特徴量および識別用特徴量としてHOG特徴量を例示したが、これらはHOG特徴量に代えて、局所二値パターン特徴量、ハールライク特徴量、輝度パターンなどの種々の特徴量とすることができ、またはHOG特徴量とこれらのうちの複数を組み合わせた特徴量とすることもできる。
以上の実施形態およびその各変形例に係る画像解析装置によれば、候補領域ごとの密度に応じた抽出基準を用いて軽度隠蔽領域を抽出するので、混雑状態や姿勢変動によって全体識別器が推定する全体撮影度が変動しても高精度に軽度隠蔽領域を抽出でき、単独の物体についての物体情報をより確実に解析することが可能となる。
また、以上の実施形態およびその各変形例に係る画像解析装置によれば、その尖鋭度の高さに応じて強調した全体撮影度を用いて軽度隠蔽領域を抽出するので、混雑状態や姿勢変動によって全体識別器が推定する全体撮影度が変動しても高精度に軽度隠蔽領域を抽出でき、単独の物体についての物体情報をより確実に解析することが可能となる。
30・・・画像取得手段
31・・・要注視情報出力手段
40・・・密度推定器記憶手段
41・・・全体識別器記憶手段
50・・・密度推定手段
51・・・抽出基準設定手段
52・・・全体撮影度推定手段
53・・・軽度隠蔽領域抽出手段
54・・・物体情報解析手段

Claims (6)

  1. 所定の物体による混雑が生じ得る空間が撮影された撮影画像から前記物体についての情報を解析する画像解析装置であって、
    所定の密度ごとに当該密度にて前記物体が存在する空間を撮影した密度画像それぞれの特徴を学習した密度推定器を用いて、前記撮影画像に撮影されている前記物体の前記密度の分布を推定する密度推定手段と、
    単独の前記物体の全体が撮影された全体画像の特徴を学習した全体識別器を用いて、前記撮影画像に前記物体の全体が撮影されている度合いを表す全体撮影度の分布を推定する全体撮影度推定手段と、
    単独の前記物体についての所定の物体情報の解析に要する軽度な隠蔽状態の前記物体が撮影されている軽度隠蔽領域を抽出するための抽出基準を設定する抽出基準設定手段と、
    前記撮影画像から前記全体撮影度が前記抽出基準を満たす前記軽度隠蔽領域を抽出する軽度隠蔽領域抽出手段と、
    前記軽度隠蔽領域における前記撮影画像から単独の前記物体についての前記物体情報を解析する物体情報解析手段と、
    を備え、
    前記抽出基準設定手段は、前記軽度隠蔽領域の候補である候補領域ごとに当該候補領域の前記密度に応じて前記抽出基準を変更することを特徴とする画像解析装置。
  2. 前記抽出基準設定手段は、前記撮影画像において、前記密度が低い前記候補領域ほど前記軽度隠蔽領域が抽出されやすい前記抽出基準を設定し、前記密度が高い前記候補領域ほど前記軽度隠蔽領域が抽出されにくい前記抽出基準を設定する、請求項1に記載の画像解析装置。
  3. 前記抽出基準設定手段は、前記密度に応じた高さの抽出閾値を設定し、
    前記軽度隠蔽領域抽出手段は、前記撮影画像から少なくとも前記全体撮影度が前記抽出閾値以上である前記軽度隠蔽領域を抽出する、
    請求項2に記載の画像解析装置。
  4. 前記軽度隠蔽領域抽出手段は、前記撮影画像の局所領域ごとに当該局所領域における前記全体撮影度の尖鋭度が高いほど当該局所領域における前記全体撮影度を強調する補正を施し、前記補正後の全体撮影度が前記抽出基準を満たす前記軽度隠蔽領域を抽出する、請求項1〜3に記載の画像解析装置。
  5. 前記物体情報解析手段は、前記軽度隠蔽領域以外の前記密度が少なくとも0よりも大きな領域の前記撮影画像から前記物体の集団の情報を解析する、請求項1〜4に記載の画像解析装置。
  6. 所定の物体による混雑が生じ得る空間が撮影された撮影画像から前記物体についての情報を解析する画像解析装置であって、
    単独の前記物体の全体が撮影された全体画像の特徴を学習した全体識別器を用いて、前記撮影画像に前記物体の全体が撮影されている度合いを表す全体撮影度の分布を推定する全体撮影度推定手段と、
    単独の前記物体についての所定の物体情報の解析に要する軽度な隠蔽状態の物体が撮影されている軽度隠蔽領域を抽出するための抽出基準を設定する抽出基準設定手段と、
    前記撮影画像から前記全体撮影度が前記抽出基準を満たす前記軽度隠蔽領域を抽出する軽度隠蔽領域抽出手段と、
    前記軽度隠蔽領域における前記撮影画像から単独の前記物体についての前記物体情報を解析する物体情報解析手段と、
    を備え、
    前記軽度隠蔽領域抽出手段は、前記撮影画像の局所領域ごとに当該局所領域における前記全体撮影度の尖鋭度が高いほど当該局所領域における前記全体撮影度を強調する補正を施し、前記補正後の全体撮影度が前記抽出基準を満たす前記軽度隠蔽領域を抽出することを特徴とする画像解析装置。


JP2017071179A 2017-03-31 2017-03-31 画像解析装置 Active JP6851241B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017071179A JP6851241B2 (ja) 2017-03-31 2017-03-31 画像解析装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017071179A JP6851241B2 (ja) 2017-03-31 2017-03-31 画像解析装置

Publications (3)

Publication Number Publication Date
JP2018173799A true JP2018173799A (ja) 2018-11-08
JP2018173799A5 JP2018173799A5 (ja) 2020-02-06
JP6851241B2 JP6851241B2 (ja) 2021-03-31

Family

ID=64107735

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017071179A Active JP6851241B2 (ja) 2017-03-31 2017-03-31 画像解析装置

Country Status (1)

Country Link
JP (1) JP6851241B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116862919A (zh) * 2023-09-05 2023-10-10 武汉工程大学 基于高斯超拉普拉斯分布的线结构光中心提取方法及装置

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010002976A (ja) * 2008-06-18 2010-01-07 Secom Co Ltd 画像監視装置
JP2010049297A (ja) * 2008-08-19 2010-03-04 Secom Co Ltd 画像監視装置
JP2010237872A (ja) * 2009-03-30 2010-10-21 Sogo Keibi Hosho Co Ltd 人物領域検出装置、人物領域検出方法、及び人物領域検出プログラム
JP2011181014A (ja) * 2010-03-03 2011-09-15 Secom Co Ltd 移動物体追跡装置
JP2012159958A (ja) * 2011-01-31 2012-08-23 Secom Co Ltd 移動物体追跡装置
JP2013077202A (ja) * 2011-09-30 2013-04-25 Secom Co Ltd 移動物体追跡装置
JP2016194779A (ja) * 2015-03-31 2016-11-17 セコム株式会社 物体検出装置
JP2016206795A (ja) * 2015-04-17 2016-12-08 Kddi株式会社 実空間情報によって学習する識別器を用いて物体を追跡する装置、プログラム及び方法
JP2017045438A (ja) * 2015-08-27 2017-03-02 株式会社東芝 画像解析装置、画像解析方法、画像解析プログラム、および画像解析システム
JP2017049676A (ja) * 2015-08-31 2017-03-09 セコム株式会社 姿勢判定装置および物体検知装置

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010002976A (ja) * 2008-06-18 2010-01-07 Secom Co Ltd 画像監視装置
JP2010049297A (ja) * 2008-08-19 2010-03-04 Secom Co Ltd 画像監視装置
JP2010237872A (ja) * 2009-03-30 2010-10-21 Sogo Keibi Hosho Co Ltd 人物領域検出装置、人物領域検出方法、及び人物領域検出プログラム
JP2011181014A (ja) * 2010-03-03 2011-09-15 Secom Co Ltd 移動物体追跡装置
JP2012159958A (ja) * 2011-01-31 2012-08-23 Secom Co Ltd 移動物体追跡装置
JP2013077202A (ja) * 2011-09-30 2013-04-25 Secom Co Ltd 移動物体追跡装置
JP2016194779A (ja) * 2015-03-31 2016-11-17 セコム株式会社 物体検出装置
JP2016206795A (ja) * 2015-04-17 2016-12-08 Kddi株式会社 実空間情報によって学習する識別器を用いて物体を追跡する装置、プログラム及び方法
JP2017045438A (ja) * 2015-08-27 2017-03-02 株式会社東芝 画像解析装置、画像解析方法、画像解析プログラム、および画像解析システム
JP2017049676A (ja) * 2015-08-31 2017-03-09 セコム株式会社 姿勢判定装置および物体検知装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116862919A (zh) * 2023-09-05 2023-10-10 武汉工程大学 基于高斯超拉普拉斯分布的线结构光中心提取方法及装置
CN116862919B (zh) * 2023-09-05 2023-12-05 武汉工程大学 基于高斯超拉普拉斯分布的线结构光中心提取方法及装置

Also Published As

Publication number Publication date
JP6851241B2 (ja) 2021-03-31

Similar Documents

Publication Publication Date Title
JP7229662B2 (ja) ビデオ監視システムで警告を発する方法
CN106557726B (zh) 一种带静默式活体检测的人脸身份认证系统及其方法
KR101615254B1 (ko) 디지털 이미지들에서 얼굴 표정들을 검출
US20140177946A1 (en) Human detection apparatus and method
US10529103B2 (en) Image processing apparatus and method for collating a plurality of images
JP5669082B2 (ja) 照合装置
JP5992276B2 (ja) 人物認識装置、及び方法
US11804071B2 (en) Method for selecting images in video of faces in the wild
JP6654789B2 (ja) 変化点で複数候補を考慮して物体を追跡する装置、プログラム及び方法
JP2000259814A (ja) 画像処理装置及びその方法
US20070116364A1 (en) Apparatus and method for feature recognition
CN109711318B (zh) 一种基于视频流的多人脸检测与跟踪方法
CN109255360B (zh) 一种目标分类方法、装置及系统
CN108171138B (zh) 一种生物特征信息获取方法和装置
KR20190093799A (ko) Cctv를 통한 실시간 실종자 얼굴 인식 시스템 및 그 방법
KR101372860B1 (ko) 영상 검색 시스템 및 영상 분석 서버
CN111626240B (zh) 一种人脸图像识别方法、装置、设备及可读存储介质
CN112784669A (zh) 对象重新识别的方法
JP7005213B2 (ja) 画像解析装置
KR20090044957A (ko) 도난 및 방치 감시 시스템 및 도난 및 방치 검출 방법
CN108460319B (zh) 异常人脸检测方法及装置
CN115346060A (zh) 画面异常识别方法、装置、电子设备和存储介质
JP2014064083A (ja) 監視装置及び方法
JP6851241B2 (ja) 画像解析装置
US10916016B2 (en) Image processing apparatus and method and monitoring system

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191216

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210302

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210309

R150 Certificate of patent or registration of utility model

Ref document number: 6851241

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250