JP7020931B2 - 対象者検出装置 - Google Patents

対象者検出装置 Download PDF

Info

Publication number
JP7020931B2
JP7020931B2 JP2018010067A JP2018010067A JP7020931B2 JP 7020931 B2 JP7020931 B2 JP 7020931B2 JP 2018010067 A JP2018010067 A JP 2018010067A JP 2018010067 A JP2018010067 A JP 2018010067A JP 7020931 B2 JP7020931 B2 JP 7020931B2
Authority
JP
Japan
Prior art keywords
image
person
cane
detection device
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018010067A
Other languages
English (en)
Other versions
JP2019128799A (ja
Inventor
正和 栗原
朝靖 北川
栄嗣 川崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Signal Co Ltd
Original Assignee
Nippon Signal Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Signal Co Ltd filed Critical Nippon Signal Co Ltd
Priority to JP2018010067A priority Critical patent/JP7020931B2/ja
Publication of JP2019128799A publication Critical patent/JP2019128799A/ja
Application granted granted Critical
Publication of JP7020931B2 publication Critical patent/JP7020931B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、例えば駅ホーム等における監視に際して、例えば視覚障碍者等の対象者を検出する対象者検出装置に関する。
監視対象となり得る対象者として、例えば、杖(典型例としては白杖)を利用する視覚障碍者(視覚障害者)は、単独で歩行を行い、例えば、地面に設置された誘導ブロックに従って歩行をする。しかし、誘導ブロックだけでは、周囲の状況を正しく判断できない場合があり、例えば、駅ホームにおける転落が問題となっている。したがって、駅ホームにおいて杖の利用者を早期発見することは、駅務を行う者にとって重要になる。
これに対して、例えばステレオカメラから得られる3次元距離情報に基づいて、歩行者を特定し、白杖が存在する可能性のある部分を画像処理し、白杖を検出することで白杖利用者を検出するもの(特許文献1参照)が知られている。
しかしながら、上記特許文献1では、例えばカメラの撮像範囲おいて白杖利用者のかげに白杖が隠れてしまったり、白杖利用者がカメラに対して遠方に離れたことによりカメラの解像度の関係で白杖が画像上で認識できなくなったりすることで、白杖が未検出になる場合については、何ら対処がなされていない。
特開2007-274234号公報
本発明は上記した点に鑑みてなされたものであり、監視中に、杖等の監視対象となる対象者に付随する付随物が未検出になる可能性があっても適切に付随物を有する対象者(典型的には、杖を有する視覚障碍者)を捉えることを可能にする対象者検出装置を提供することを目的とする。
上記目的を達成するため対象者検出装置は、人物画像における付随物画像の有無を判定する付随物判定部と、付随物判定部で付随物画像有りと判定された人物画像について、連続画像データ中のフレーム間で画像を関連付けて同一人物をトラッキングするトラッキング処理部と、上記同一人物を対象者として記憶する対象者記憶部とを備える。
上記対象者検出装置では、付随物判定部で付随物画像有りと判定されれば、該当する人物画像について同一人物とされる人を対象者として記憶された状態を維持できるので、監視中に付随物である杖が未検出になることがあっても、杖を有していると判定された人が引き続き対象者である視覚障碍者として取り扱われる。すなわち、杖を有する視覚障碍者を適切に捉えることができる。
本発明の具体的な側面では、監視対象エリアを撮像して連続画像データとして2次元画像データを取得する撮像部と、撮像部で取得された2次元画像データから機械学習による形状抽出によって人物画像を抽出することで人の存在を検出する人検出部とを備える。この場合、例えば既に監視用等のために配備されているカメラ等で取得可能な2次元画像データからであっても、人検出部において、的確に人物画像を抽出できる。
本発明の別の側面では、トラッキング処理部は、連続画像データのフレーム間での人物画像の位置変化の情報に基づいて同一人物についての人物画像であるか否かを判定する。この場合、撮像された人物の識別を確実に行える。
本発明のさらに別の側面では、トラッキング処理部は、一の画像データにおいて検出された人物に対応する人物画像が所定のフレーム数連続して以後の画像データに存在しない場合に、該当する人がフレームアウトしたと判定する。この場合、画像認識上のエラーにより検出されるべき画像データが得られないといったことがある場合にも適切な対応が可能になる。
本発明のさらに別の側面では、付随物判定部は、人物画像のうち、人の下半身に相当する箇所を切り出すマスク処理をする。この場合、迅速かつ確実な杖判定を行える。
本発明のさらに別の側面では、付随物判定部は、HSV変換処理による色情報に基づいて付随物画像の有無を判定する。この場合、色彩的特徴に基づいて、杖を迅速かつ確実に判別できる。
本発明のさらに別の側面では、付随物判定部は、ハフ変換処理による直線成分情報に基づいて付随物画像の有無を判定する。この場合、形状的特徴に基づいて、杖を迅速かつ確実に判別できる。
実施形態に係る対象者検出装置を概念的に示すブロック図である。 対象者検出装置を配備した駅の様子を示す概念図である。 (A)~(C)は、トラッキングされる人物の様子について一例を示す概念的な画像図である。 (A)~(C)は、トラッキングされる人物に関するデータについて一例を示すデータ表である。 (A)~(C)は、人物のフレーム間での対応付けについて説明するための概念的な画像図である。 (A)~(D)は、付随物画像としての杖画像を抽出する方法について一例を示す概念的な画像図である。 トラッキング処理の一例について説明するためのフローチャートである。 1つの画像における付随物画像としての杖画像の抽出処理の一例について説明するためのフローチャートである。
以下、図1等を参照して、本実施形態に係る対象者検出装置の一態様である視覚障碍者検出装置について一例を説明する。図1は、本実施形態に係る視覚障碍者検出装置100を概念的に示すブロック図であり、図2は、視覚障碍者検出装置100を配備した駅STの様子を示す概念図である。ここでは、一例として、列車TRが発着可能な駅STのホーム(プラットホーム)PFを視覚障碍者検出装置100による監視対象エリアとしている。すなわち、駅STのホームPFにいる利用者HUを検知の対象とし、利用者HUが視覚障碍者であるか否か、つまり、監視の対象となる対象者であるか否か、の検出を行っている。
上記目的を達成するため、視覚障碍者検出装置100は、利用者HUの駅構内(特にホームPF上)での位置検知を行うとともに利用者HUの特徴を捉えることで、視覚障碍者であるか否かを判定する。ここでは、代表例として、図2に示すように、杖CAを有する利用者HUの存在を確認しており、さらに、確認結果を駅務室SO内の駅員SAに対して報知するようにしている。ここでは、代表的な例として、白杖を付随物として有するか否かを検知することで、視覚障碍者の検出を行うものとして説明する。
以下、図1、2を参照して、本実施形態における視覚障碍者検出装置100の構成等について具体的に説明する。本実施形態に係る視覚障碍者検出装置100は、利用者HUすなわちホームPF上を移動する人を検知するために監視対象エリアを撮像する撮像部(撮像カメラ)10と、撮像部10で取得した画像データに基づいて視覚障碍者を検出すべく各種処理及び制御を行う制御装置50とを備える。
撮像部10は、例えばCCDやCMOS等の個体撮像素子で構成される撮像カメラであり、図2に例示するように、ホームPFの上方側に設置され、下方側を撮像する。すなわち、撮像部10により上方側からホームPFの床面FLに向けて監視対象エリアについて撮像が行われる。ここでは、特に、連続画像データ中のフレーム間で画像を関連付けて同一人物をトラッキングするトラッキング処理を可能とすべく、連続画像データとして、例えば30fpsのフレームレートで2次元画像データを取得している(例えば、図3(A)~3(C)参照)。なお、撮像部10については、ホームPF全体についての撮像を可能とすべく、設置位置やホームPFの形状等に応じて、単数又は複数設けられている。
制御装置50は、例えばCPUや記憶装置等により構成され、撮像部10により取得された連続画像データの関連付けに基づいて、同一人物をトラッキングしつつ、撮像された人物について付随物の一例として白杖を有しているか否かを判定している。すなわち、取得された連続画像データについて、人物画像における付随物画像の一例としての杖画像の有無を判定している。上記処理を可能とするため、図1に例示するように、制御装置50は、主制御部60と、記憶部70と、画像処理部80とを備える。
主制御部60は、例えばCPU等で構成され、各種情報処理を行うことにより、撮像部10で取得された2次元画像である連続画像データから機械学習による形状抽出によって人物画像を抽出することで人の存在を検出する人検出部61や、撮像部10から取得した連続画像データ中のフレーム間で画像を関連付けて同一人物をトラッキングするトラッキング処理部62、あるいは、人物画像における杖画像の有無を判定する杖判定部63として機能する。すなわち、杖判定部63は、付随物判定部の一例として、付随物画像である杖画像についての判定を行う。
また、記憶部70は、記憶装置等により構成され、各種データやプログラムを格納しており、例えば、トラッキング処理部62で同一人物とされる者のうち一定の要件を満たす人物を視覚障碍者として記憶する視覚障碍者記憶部71aを含むトラッキングデータ記憶部71のほか、人特徴量情報記憶部72や、色情報記憶部73、直線成分情報記憶部74等を備えて構成されている。この場合、視覚障碍者記憶部71aは、一定の要件を満たす人物を視覚障碍者すなわち対象者として記憶する対象者記憶部として機能していることになる。
以下、制御装置50を構成する上記各部について、より詳細に説明する。
まず、主制御部60は、人検出部61として、撮像部10により取得された各2次元画像データ中において、人(人物)の特徴を持った画像が存在するか否かの確認が可能となっている。例えば、既知のHOG特徴量やサポートベクターマシーン(SVM)を利用することで、2次元画像データから機械学習による形状抽出によって人物画像を抽出することを可能にしている。すなわち、人検出部61は、撮像部10により取得された各画像データから直線部分等を抽出し、抽出された直線部分の特徴量等に基づいて、画像データ中に人に固有の特徴を有したものがあるか否かを判定する。さらに言い換えると、人検出部61は、画像データ中における人と人以外とを仕分ける。これにより、人検出部61は、判定結果に基づいて人物画像の抽出をする。このため、人検出部61は、必要なプログラムを記憶部70から適宜読み出すとともに、人特徴量情報記憶部72に格納された人に関する特徴量のデータを利用して、人の存在を検出している。HOG特徴量等を利用することで、2次元的画像からであっても的確に人検出を行うことができる。なお、この場合、撮像部10について、例えばステレオカメラのような3次元情報を取り出すといった特殊な構成を要せずに、データ取得が可能となる。つまり、例えば駅STに設置されている発着時のモニター用の既存のカメラ等を適用する、といったことも可能になる。
また、主制御部60は、トラッキング処理部62として、同一人物をトラッキング可能にしている。このため、トラッキング処理部62は、記憶部70から適宜プログラムを読み出して、人検出部61において検出あるいは抽出された各人物画像について、連続画像データ中のフレーム間で画像を関連付けする処理を行う。特に、本実施形態では、杖判定部63で一度でも杖画像有りと判定された人物画像については、該当する人物画像について同一人物とされる人を視覚障碍者として記憶された状態を維持する。これにより、例えば監視中において杖が未検出になるようなことがあっても、一旦杖を有していると判定された人については、引き続き視覚障碍者として取り扱われるようにしていることになるので、杖を有する視覚障碍者を適切かつより確実に捉えることができる態様となっている。
また、主制御部60は、杖判定部63として、人検出部61において検出あるいは抽出された各人物画像における杖画像の有無を判定する。ここでは、一例として、杖判定部63は、人物画像の一部をマスクするマスク処理のほか、色情報記憶部73や直線成分情報記憶部74に格納されたデータを利用して、色や形状に関する判定処理を行う。なお、各処理について詳しくは後述する。
次に、制御装置50のうち、記憶部70は、記憶装置として、各種データを格納する。ここでは、例えば、上記のようにして検出された人物画像に関するトラッキング処理に際して、各人物画像に関するデータをトラッキングデータ記憶部71に随時格納する(例えば、図4(A)~4(C)のデータ表参照)。特に、このようなデータ格納の際、各人物画像に関するデータの1つである、視覚障碍者に関する情報を、視覚障碍者記憶部71aに格納している。
また、記憶部70のうち、人特徴量情報記憶部72は、既述のように、人検出部61による人検出に関して、HOG特徴量等の既知の手法により機械学習による形状抽出によって人物画像を抽出するに際して必要となる各種情報を格納している。さらには、人物画像の抽出ための各種プログラムについて格納しているものとしてもよい。
また、記憶部70のうち、色情報記憶部73は、杖判定部63による杖判定に関して、色判定のための各種情報を格納している。特に、本実施形態では、白杖の色を抽出する、すなわち白色を抽出すべく、HSV変換処理すなわち色相(Hue)、彩度(Saturation)、明度(Value)の3つの成分からなる色空間にもとすく処理を可能とするための情報を格納している。また、直線成分情報記憶部74は、白杖の形状のうち特徴的事項である棒状の直線形状の平行度等を測定するための情報を格納している。杖の場合、2次元画像データとしては、細い棒状のものとして抽出され、その両端(棒の側面についての画像上の端)のエッジ部分の平行度や長さ等が杖であるか否かの判定における重要な形状的特徴になると考えられる。
最後に、制御装置50のうち、画像処理部80は、例えばGPU等で構成され、上記のような各種画像処理を可能とすべく、制御装置50からの指示に従って、撮像部10により取得された各2次元画像データについて、各種画像処理を行う。
なお、視覚障碍者検出装置100は、図2に示すように、上記のほか、駅務室やホーム等の駅構内に存在する駅員SAに対して報知をするための駅員用報知部として、例えば、駅員用スピーカーPAや、ディスプレイ表示部DAを有している。これらは、例えば駅務室SO内に設置されている。駅員用スピーカーPA及びディスプレイ表示部DAは、制御装置50に接続され、制御装置50からの指示に従って駅務室SO内等にいる駅員SAに対して報知を行う。また、各種通信手段を設けることで、発着する列車TR内の乗務員(運転士や車掌)に対して報知を行うものとしてもよい。
以下、図3を参照して、監視対象となる人物についての視覚障碍者検出装置100におけるトラッキング処理について説明する。図3(A)~3(C)は、連続画像データ中のフレーム間での関連付けにより同一人物をトラッキングした様子について一例を示す概念的な画像図である。図示の例では、画像上の人物である人物画像HUiや杖画像CAiを含む人物トラッキング用の抽出画像HGaが、経時的に、図3(A)、図3(B)、図3(C)の順で、1つの撮像部10によって撮像される全範囲である全体画像GI中において、矢印AR1に示す方向に移動している。図示の場合、図3(A)の抽出画像A1と、図3(B)の抽出画像A2と、図3(C)の抽出画像A3とが同一人物画像として関連付けられて抽出画像HGaとして捉えられることで、トラッキングされる。この際、抽出画像HGa中の部分画像として存在する杖画像CAiの抽出が重要となる。このため、各抽出画像A1~A3、あるいはこれらをまとめた抽出画像HGaについては、人物画像HUiとともに杖画像CAiが捉えられるようにする必要かつ十分な範囲となるように抽出されている。ここでは、図に例示するように、矩形の領域で画像の抽出を行っている。具体的には、人検出部61での人物検出により、人物画像HUiが検出されると、人物画像HUiを含み、かつ、仮に人物画像HUiに杖画像CAiが付随しているとしているとしたら、当該杖画像CAiが併せて含まれるであろうと推定される範囲をあらかじめ定めた矩形範囲の抽出画像HGaとして捉える。
以上を前提として、特に、本実施形態では、図3(A)の抽出画像A1に対する杖検出によって、一旦、杖画像CAiが検出されれば、その後、図3(B)のような抽出画像A2において、杖画像CAiが人物画像HUiで隠れて見えにくい状態となり、仮に杖検出をしたとしても検出されないような場合であっても、トラッキング処理により抽出画像HGaとして関連付けておくことを利用して、トラッキング対象の画像においては引き続き杖画像CAiが付随するものとして取り扱うようにしている。これにより、当該人物が杖を有する者すなわち視覚障碍者として捉えることが可能となる。
図4(A)~4(C)は、上記のようなトラッキング処理によってトラッキングされる人物に関して、記憶部70に格納されるデータについて、一例を示すデータ表である。ここでは、図示のように、トラッキングされる各人物ごとにID番号を付した上で、ID番号ごとすなわち人物ごとの位置情報としての2次元画像上の位置(中心座標)の情報、進行方向の情報及び白杖者であるか否かすなわち視覚障碍者であるか否かの情報についてトラッキングデータ記憶部71に記録されている。
上記各情報について、より具体的に説明すると、まず、各人物の位置情報については、抽出画像の中心位置を2次元画面の横軸と縦軸とについてのxy座標で示している。つまり、全体画像GI(図3等参照)中における各抽出画像の中心すなわち矩形領域の中心を、全体画像GIについてのx座標及びy座標の値で示している。また、進行方向の情報については、例えば2次元画面における基準方向を角度ゼロの方向と定め、この方向に対する角度で定めることができる。さらに、白杖者であるか否かすなわち視覚障碍者であるか否かの情報については、人物画像についての抽出画像中から杖画像が検出されたか否かを「True」と「False」で示している。ここで、図示のように、例えばID番号1が付された人物について、トラッキングの結果、図4(A)に示す時点では「False」すなわち杖画像無し、と判断されていたが、その後、図4(B)に示す時点では「True」すなわち杖画像有り、と判断されると、その後は、例えば図4(C)に示すように、杖画像の有り無しの検出結果にかかわらず、「True」すなわち白杖者すなわち視覚障碍者であるものとして取り扱われる。言い換えると、一旦、「True」となった場合には、以後は引き続き「True」が維持される。一方、最初は「False」有ったものが、途中から「True」に変更されることは生じ得る。以上のように取り扱うことで、視覚障碍者が検出された場合に、その後当該人物をより確実に捉え続けて監視をすることが可能になる。
以下、図5を参照して、トラッキング処理に関するより具体的な一例として、本実施形態に係る人物のフレーム間での対応付けについて説明する。図5(A)~5(C)は、人物のフレーム間での対応付けの方法について具体的一例を概念的に示す画像図である。
まず、人検出部61での人物画像の検出により、例えば図5(A)に示すように、あるフレームでのコマ画像において、人物画像HUiを含む人物トラッキング用の抽出画像A1が検出され、さらに、図5(A)よりも経時的に後のフレームでのコマ画像である図5(B)に示すコマ画像において、他の複数の抽出画像A2,B1が検出された場合、抽出画像A1との間での関連付けがなされる。関連付けの方法としての一例としては、トラッキング処理部62において、2次元画像のxy面内を移動した距離の量の差異から人物画像の関連付けあるいは対応付けについての判定をすることが考えられる。図示の場合、全体画像GI内における中心位置の比較により、抽出画像A2,B1のうち、抽出画像A1との画像上の距離がより近い抽出画像A2が、抽出画像A1と同一人物の画像であると判定され、これらが同一人物を示す抽出画像HGaであるものとして関連付けられる。一方、抽出画像B1については、新たな人物が検出されたもの、すなわち別人が全体画像GI内にフレームインしたものとして取り扱う。つまり、トラッキング処理部62は、撮像部10からの連続画像データのフレーム間での人物画像の位置変化の情報に基づいて、同一人物についての人物画像であるか否かを判定している。
さらに、別の態様として、例えば図5(C)に示すように、図5(A)よりも経時的に後のフレームでのコマ画像において、それまで抽出画像HGaとして関連付けられていた抽出画像Axが画像から検出されなくなった場合には、条件に応じて、単に画像取得時のエラー発生等により検出できなかった(実際には存在している)ものとして扱う場合と、実際にその人物が撮像範囲の外に出たもの、すなわちフレームアウトしたものとして扱う場合とに分ける。ここでは、所定のフレーム回数(例えば5,6フレーム程度)連続して抽出画像HGaに対応する画像が検出されない場合には、当該人物が全体画像GIの外へフレームアウトしたものとして取り扱うものとする。つまり、トラッキング処理部62は、撮像部10から取得した一の画像データにおいて検出された人物に対応する人物画像が、所定のフレーム回数(例えば5,6フレーム程度)数連続して以後の画像データに存在しない場合に初めて、該当する人がフレームアウトしたと判定する。
以上により、各人物が、撮像範囲へフレームインしてからフレームアウトするまでの間における人物画像のトラッキング処理がなされる。
以下、図6を参照して、杖判定部63による杖判定に関して、杖画像を抽出する方法について具体的一例を示す。図6(A)に示すように、杖画像の有無を判定すべき人物画像HUiを含む抽出画像A1が取り出されると、抽出画像A1を必要に応じて正規化する。例えば撮像部10(図2等参照)の配置や撮像範囲、画角等に応じて正規化の条件を適宜定めておく。正規化により、例えば、図6(B)に例示する場合では、抽出画像A1が、人間の身長方向について長い2:1の長方形画像となるようにしている。すなわち、図示において、縦幅LAと横幅LBとの比が2:1となっている。この状態において、図6(C)に示すように、上半分すなわち上半身部分をマスクし、下半分すなわち下半身部分のみを抽出して、部分画像A1aを取り出す。すなわち、図6(B)に示す抽出画像A1の縦方向についての中央の破線PXを基準として破線PXより下側の部分を、部分画像A1aとして取り出す。これにより、身体の下半身側に位置する杖画像CAiをより検出しやすくなる。
ここで、さらに図6(C)に示す部分画像A1aについて、色彩的特徴に基づく特徴抽出の1つである白色抽出を行う。白色抽出については、HSV変換処理による色情報に基づいて杖画像の有無の判定を行っている。これにより、白色である杖画像CAiの候補となる箇所の検出を確実に行えるようにしている。
さらに、形状的特徴に基づく特徴抽出の既知の手法の1つであるハフ変換処理(Hough変換)による直線成分情報に基づいて杖画像の候補画像部分における杖画像の有無を判定する。具体的には、図6(D)に示すように、白色部分についてのエッジ部分EG1,EG2を抽出し、エッジ部分EG1,EG2の長さL1や、エッジ部分EG1とエッジ部分EG2との間の幅L2や両者間の平行度等を、ハフ変換処理に基づいて解析することにより、白色抽出によって抽出された画像が杖画像であるか否かを判定している。以上により、杖画像CAiの検出を迅速かつ確実に行えるようにしている。
以下、図7のフローチャートを参照して、トラッキング処理の一例について説明する。まず、制御装置50において人物監視のための動作を開始すると、主制御部60は、トラッキング処理部62として、撮像部10から監視対象エリアの全体画像データが取得されているかを確認する(ステップS101)。ステップS101では、最初の画像データ入力の場合を含め、連続画像データについて次の画像データが入力されたか否かを逐次検出している。
ステップS101において、動作開始後の最初の画像データあるいは、2回目以降の画像データが取得されると(ステップS101:Yes)、主制御部60は、人検出部61として、取得した画像中において人検出を行い、人の検出あるいは前フレームの画像までに存在していた人画像について不検出が発生しているか否か(2回目以降の場合)を判定する(ステップS102)。ステップS102において、人検出もなく、かつ、2回目以降における上記のような不検出人の発生もない場合には、特段の処理を行わず(ステップS102:No)、ステップS101からの処理動作を繰り返す。
一方、ステップS102において、人検出がされた場合、あるいは、前フレームの画像までに存在していた人画像について不検出が発生した場合には、フレームの前後での対応付け処理を行う(ステップS103)。具体的に例示すると、図5(A)及び5(B)に例示した場合のように、前フレームでのコマ画像では1人の人物画像についてのみデータが取得されていたのに対して、次のフレームでのコマ画像では2人の人物画像が現れている態様では、2人の人物画像のうち一方を、前フレームでのコマ画像の人物と同一人物として取り扱う関連付けをするともに、他方を、新たに検知された人物として新規データ登録をする、といった処理がなされる。また、図5(A)及び5(C)に例示した場合のように、前フレームのコマ画像までに存在していた人画像について不検出が発生した場合には、さらに、場合に応じた関連付けを行うための処理(ステップS104以降)がなされる。
なお、ステップS102における人検出、あるいは、不検出人の発生が確認されステップS103へ進むと、図8を参照して後述するステップS201からの杖画像の抽出処理が、開始される。
以下、図7に戻って、ステップS104以降の処理動作について説明する。ステップS103での対応付けにおいて、人画像について不検出が発生している場合(ステップS104)、すなわち、図5(A)及び5(C)に例示するように、前後のフレーム間でのコマ画像において存在していた人物画像に対応する画像が、次のフレームでのコマ画像において存在しないと判断された場合(ステップS104:Yes)には、当該不検出が予め定めている所定回数(例えば、5回あるいは6回に予め設定)以上継続しているかを確認する(ステップS105)。
ステップS105において、所定回数に達していないと判断されると(ステップS105:No)、不検出カウントを+1追加する処理をするとともに(ステップS106a)、画像取得未検出であったが対応する人物画像データを存在させたまま保留の扱いとする処理をし(ステップS107a)、上記内容でのデータ更新を行う(ステップS108)。つまり、人検出等に関してエラーがあったものとして捉え、1つ前までの情報を維持しつつ、不検出の発生回数を1回増やす。
一方、ステップS105において、所定回数(例えば、5回あるいは6回)に達している、と判断されると(ステップS105:Yes)、不検出カウントをクリアする処理をするとともに(ステップS106b)、未検出の人物画像データに相当する人が検出範囲外にフレームアウトしたものとして当該データを削除する処理をし(ステップS107b)、上記内容でのデータ更新を行う(ステップS108)。つまり、該当する人物がフレームアウトしたものとして捉え、該当するデータを削除し、併せて、それまでの不検出の発生回数のカウントをクリアする。
なお、ステップS104において、不検出が確認されない場合(ステップS104:No)には、不検出カウントをクリアする処理をし(ステップS107c)、その内容でのデータ更新を行う(ステップS108)。
ステップS108でのデータ更新を終えると、再びステップS101からの処理動作に戻る。すなわち、一連のトラッキング処理において、次のデータ取得の有無を確認する。以上により、人物画像のトラッキングに関する一連の処理がなされる。
以下、図8のフローチャートを参照して、取得された1つの画像における杖画像の抽出処理の一例について説明する。
既述のように、図7のステップS102における人検出、あるいは、不検出人の発生が確認されステップS103へ進むと、杖判定部63としての主制御部60は、杖画像の抽出処理に関して、まず、そもそも杖画像の抽出処理が必要であるか否かの判定、すなわち視覚障碍者判定の要否を判定する(ステップS201)。具体的には、ステップS102における人検出やステップS103での人物画像の対応付けの結果、検出されている人物画像の全てについて既に「True」すなわち杖画像有り、と判定されている場合には、改めて杖画像の有無を検出する必要が無い。
ステップS201において、視覚障碍者判定が不要であると判定されれば(ステップS201:No)、何ら処理を行うことなく、終了し、新たな人検出があるまで待機する。
一方、視覚障碍者判定が必要であると判定された(ステップS201:Yes)場合、すなわち、ステップS103での対応付けの結果、「False」すなわち杖画像無し、と判定されている人物画像が1つでも存在すれば、当該人物画像に対して、杖画像の有無を判定するための画像処理が順次行われる(ステップS202~ステップS205)。
以下、杖画像の有無を判定するための一連の画像処理について、具体的に説明する。まず、杖判定部63としての主制御部60は、人物画像のうち、人の下半身に相当する箇所を切り出すマスク処理をする(ステップS202)。すなわち、図6(B)及び6(C)を参照して説明したように、必要に応じて対象画像の縦横比を2:1に正規化した上で、下半身に相当する下半分の部分画像(例えば図6(C)の部分画像A1a)を取り出す。次に、杖判定部63は、ステップS202において取り出された下半分の部分画像について、白色抽出の処理をする(ステップS203)。すなわち、図6(C)を参照して説明したように、色彩的特徴に基づく特徴抽出として、HSV変換処理による色情報に基づく白色部分の抽出を行う。これにより、抽出画像から杖画像となる候補の画像部分を取り出せる。さらに、杖判定部63は、ステップS203において取り出された画像部分について線分抽出すなわち直線成分の抽出処理をする(ステップS204)。具体的には、図6(D)を参照して説明したように、白色部分についてのエッジ部分を抽出し、その長さや、間隔(幅)、平行度等を算出するためにハフ変換処理等を行い、当該算出結果に基づいて、取り出された画像が杖画像であるか否かを判定可能にしている。以上のステップS202~S204の解析結果に基づき、杖判定部63は、杖画像の有無、すなわち対象となっている人物画像が視覚障碍者の画像であるか否かの判定(白杖判定)を行う(ステップS205)。
ステップS205において、視覚障碍者であるとの判定がなされた(ステップS205:Yes)場合、視覚障碍者(白杖者)追加処理を行う(ステップS206)。すなわち、図4に示すデータ表中における対象のID番号の人物画像について、データ表の白杖者の欄中において「False」となっていたものを「True」に変更する。
一方、ステップS205において、視覚障碍者でないとの判定がなされた(ステップS205:No)場合、視覚障碍者(白杖者)追加処理を行うことなく、処理を終える。すなわち、対象のID番号の人物画像について、欄中において「False」となっていた状態を維持する。以上により、1つの抽出画像における杖画像の抽出に関する一連の処理がなされる。
以上のように、本実施形態に係る視覚障碍者検出装置100では、制御装置50のうち、杖判定部63としての主制御部60において、杖画像有りと判定されれば、該当する人物画像についてトラッキング処理部62でのトラッキング処理により同一人物とされる人を、視覚障碍者として記憶された状態を維持できるので、監視中に杖が未検出になることがあっても、杖を有していると判定された人が引き続き視覚障碍者として取り扱われる。すなわち、杖を有する視覚障碍者を適切に捉えることができる。
〔その他〕
この発明は、上記の実施形態に限られるものではなく、その要旨を逸脱しない範囲において種々の態様で実施することが可能である。
まず、上記実施形態では、一例として、人検出後、判定の要否を確認した上で(図8のステップS201)、杖画像の判定を行っているが、判定の要否を問わず、人検出された画像の全てに対して杖画像の判定を行うものとしてもよい。
また、上記では、例えば杖画像の検出に際して、まず、白色抽出すなわち色抽出を行った上で、直線成分の抽出すなわち形状による抽出をするものとしている。この場合、例えば白色あるいはこれに近い色ではない杖や傘等は除外されると考えられ、形状として似たものがあらかじめ除外できると考えられる。ただし、上記の場合に限らず、例えば順序を入れ替えて、形状的特徴による抽出を先に行う場合も考えられる。
また、上記では、視覚障碍者が有する杖を白杖すなわち白色の杖としているが、他の色や色の組合せ等も考えられる場合や、形状についても別の箇所に特徴があると考えられる、といった場合には、これらに応じて、適切な色抽出や形状抽出の方法を選択することが考えられる。
また、上記では、一例として、監視対象エリアを駅STのホームPFとしているが、これに限らず視覚障碍者を適切に捉えることが望まれる種々の場所を監視対象とすることができる。
また、撮像部10の配置についても、上記のように、ホームPFの上方側に設置されて下方側を撮像する場合に限らず、目的とする範囲を撮像できる種々の態様とすることができる。例えば、撮像対象とすべきホームの反対側に位置するホームに撮像部を設置すること等が考えられる。
また、上記では、制御装置50での検出結果についての報知先の一例として、駅務室SOを挙げているが、これに限らず、種々の箇所へ報知することが可能である。さらに、報知先を駅員等に限らず、駅に設置されるホームドア等を制御する制御回路としてもよい。この場合、例えば視覚障碍者が近くにいるホームドアについては、杖が接触する可能性が高まるが、このことを考慮して、ホームドアの開閉動作を停止させるべきか否かの判断基準を設定することができる。
また、撮像部10が、複数設定されるような場合においては、例えば撮像範囲が隣接する撮像部間での情報を、データ中においてリンクさせるようにしてもよい。これにより、より広い範囲に亘って連続的に人物のトラッキングを行うことができる。
また、上記では、付随物の典型的一例として、白杖を取り上げ、白杖を有しているか否かについて検出・判定等を行うようにしているが、付随物は、これに限らず、盲導犬や車椅子等とすることも考えられる。また、監視対象とすべき対象者についても、上記では、典型的一例として、視覚障碍者とし、対象者検出装置を視覚障碍者検出装置して説明しているが、これに限らず、本実施形態に係る対象者検出装置は、監視態様に応じて、種々の者を対象者とすることができる。また、対象者の特性に応じて、検出・判定等を行うべき付随物についても白杖や盲導犬等に限らず、種々の物にできる。
10…撮像部、50…制御装置、60…主制御部、61…人検出部、62…トラッキング処理部、63…杖判定部、70…記憶部、71…トラッキングデータ記憶部、71a…視覚障碍者記憶部、72…人特徴量情報記憶部、73…色情報記憶部、74…直線成分情報記憶部、80…画像処理部、100…視覚障碍者検出装置、A1,A2,A3,Ax,B1…抽出画像、AR1…矢印、CA…杖、CAi…杖画像、DA…ディスプレイ表示部、EG1,EG2…エッジ部分、FL…床面、GI…全体画像、HGa…抽出画像、HU…利用者、HUi…人物画像、L1…長さ、L2…幅、LA…縦幅、LB…横幅、PA…駅員用スピーカー、PF…ホーム、PX…破線、SA…駅員、SO…駅務室、ST…駅、TR…列車

Claims (8)

  1. 人物画像を抽出する人検出部と、
    連続画像データ中のフレーム間で画像を関連付けて抽出された人物画像から同一人物をトラッキングするトラッキング処理部と、
    人物画像における付随物画像の有無を判定する付随物判定部と、
    一人物を付随物画像の有無とともに記憶する憶部と
    を備え
    付随物画像無しであったものが付随物画像有りに変更された同一人物について、以後、対象者として取り扱う、対象者検出装置。
  2. 監視対象エリアを撮像して前記連続画像データとして2次元画像データを取得する撮像部を備え、
    前記人検出部は、前記撮像部で取得された前記2次元画像データから機械学習による形状抽出によって人物画像を抽出することで人の存在を検出する請求項1に記載の対象者検出装置。
  3. 前記記憶部において付随物画像有りに変更されたものとして記憶され、対象者として取り扱われた同一人物について、以後の付随物画像の有無判定を要しないものとして取り扱う、請求項1及び2のいずれか一項に記載の対象者検出装置。
  4. 前記トラッキング処理部は、連続画像データのフレーム間での人物画像の位置変化の情報に基づいて同一人物についての人物画像であるか否かを判定する、請求項1~3のいずれか一項に記載の対象者検出装置。
  5. 前記トラッキング処理部は、一の画像データにおいて検出された人物に対応する人物画像が所定のフレーム数連続して以後の画像データに存在しない場合に、該当する人がフレームアウトしたと判定する、請求項1~のいずれか一項に記載の対象者検出装置。
  6. 前記付随物判定部は、人物画像のうち、人の下半身に相当する箇所を切り出すマスク処理をする、請求項1~のいずれか一項に記載の対象者検出装置。
  7. 前記付随物判定部は、HSV変換処理による色情報に基づいて付随物画像の有無を判定する、請求項1~のいずれか一項に記載の対象者検出装置。
  8. 前記付随物判定部は、ハフ変換処理による直線成分情報に基づいて付随物画像の有無を判定する、請求項1~のいずれか一項に記載の対象者検出装置。
JP2018010067A 2018-01-24 2018-01-24 対象者検出装置 Active JP7020931B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018010067A JP7020931B2 (ja) 2018-01-24 2018-01-24 対象者検出装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018010067A JP7020931B2 (ja) 2018-01-24 2018-01-24 対象者検出装置

Publications (2)

Publication Number Publication Date
JP2019128799A JP2019128799A (ja) 2019-08-01
JP7020931B2 true JP7020931B2 (ja) 2022-02-16

Family

ID=67472272

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018010067A Active JP7020931B2 (ja) 2018-01-24 2018-01-24 対象者検出装置

Country Status (1)

Country Link
JP (1) JP7020931B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021087065A (ja) * 2019-11-26 2021-06-03 西日本旅客鉄道株式会社 駅監視システム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005332071A (ja) 2004-05-18 2005-12-02 Sumitomo Electric Ind Ltd 視覚障害者追跡システム及び視覚障害者検出方法
JP2006126926A (ja) 2004-10-26 2006-05-18 Canon Inc 顧客データ作成システム、プログラムおよび方法
JP2007274234A (ja) 2006-03-30 2007-10-18 National Institute Of Advanced Industrial & Technology ステレオカメラを用いた白杖使用者検出システム
JP2007303239A (ja) 2006-05-15 2007-11-22 Konica Minolta Holdings Inc 認証装置、認証装置の制御方法、および認証装置の制御プログラム
JP2017091498A (ja) 2015-11-10 2017-05-25 日本信号株式会社 ゲート装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005332071A (ja) 2004-05-18 2005-12-02 Sumitomo Electric Ind Ltd 視覚障害者追跡システム及び視覚障害者検出方法
JP2006126926A (ja) 2004-10-26 2006-05-18 Canon Inc 顧客データ作成システム、プログラムおよび方法
JP2007274234A (ja) 2006-03-30 2007-10-18 National Institute Of Advanced Industrial & Technology ステレオカメラを用いた白杖使用者検出システム
JP2007303239A (ja) 2006-05-15 2007-11-22 Konica Minolta Holdings Inc 認証装置、認証装置の制御方法、および認証装置の制御プログラム
JP2017091498A (ja) 2015-11-10 2017-05-25 日本信号株式会社 ゲート装置

Also Published As

Publication number Publication date
JP2019128799A (ja) 2019-08-01

Similar Documents

Publication Publication Date Title
US11670086B2 (en) System and process for detecting, tracking and counting human objects of interest
JP6674584B2 (ja) 映像監視システム
JP6904421B2 (ja) 店舗装置、店舗管理方法、プログラム
EP2450832A1 (en) Image processing apparatus and image processing method
JP2022168070A (ja) 人物検出システム
JP2009055139A (ja) 人物追跡システム、人物追跡装置および人物追跡プログラム
TW200508826A (en) Autonomous moving robot
JP6833354B2 (ja) 情報処理装置、情報処理方法及びプログラム
KR101307234B1 (ko) 객체인식 기반의 주차관리 시스템
JP4848312B2 (ja) 身長推定装置および身長推定方法
JP6994375B2 (ja) 画像監視装置
US20210064857A1 (en) Image analysis device, image analysis method, and recording medium
JP2017174343A (ja) 入店者属性抽出装置及び入店者属性抽出プログラム
JP7020931B2 (ja) 対象者検出装置
KR100885418B1 (ko) 오버헤드 카메라 영상에서 사람을 감지하고 추적하는시스템 및 그 방법
JP7149063B2 (ja) 監視システム
CN104392201B (zh) 一种基于全向视觉的人体跌倒识别方法
JP7146450B2 (ja) 物体検出装置
JP6558178B2 (ja) 迷惑行為者推定システム、迷惑行為者推定システムの制御方法及び制御プログラム
JP2020064531A5 (ja)
JP2017019351A (ja) 転落者検知装置、転落者検知システム、転落者検知方法、および転落者検知プログラム
JP2010044698A (ja) 歩行者検知装置及びプログラム
JP2018128800A (ja) ベッド識別装置
JP5865709B2 (ja) 画像監視装置
JP6866182B2 (ja) ベッド位置特定装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220119

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220203

R150 Certificate of patent or registration of utility model

Ref document number: 7020931

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150