JP2019128799A - Target person detection device - Google Patents
Target person detection device Download PDFInfo
- Publication number
- JP2019128799A JP2019128799A JP2018010067A JP2018010067A JP2019128799A JP 2019128799 A JP2019128799 A JP 2019128799A JP 2018010067 A JP2018010067 A JP 2018010067A JP 2018010067 A JP2018010067 A JP 2018010067A JP 2019128799 A JP2019128799 A JP 2019128799A
- Authority
- JP
- Japan
- Prior art keywords
- person
- image
- cane
- unit
- image data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、例えば駅ホーム等における監視に際して、例えば視覚障碍者等の対象者を検出する対象者検出装置に関する。 The present invention relates to a target person detection device that detects a target person such as a visually handicapped person, for example, when monitoring at a station platform or the like.
監視対象となり得る対象者として、例えば、杖(典型例としては白杖)を利用する視覚障碍者(視覚障害者)は、単独で歩行を行い、例えば、地面に設置された誘導ブロックに従って歩行をする。しかし、誘導ブロックだけでは、周囲の状況を正しく判断できない場合があり、例えば、駅ホームにおける転落が問題となっている。したがって、駅ホームにおいて杖の利用者を早期発見することは、駅務を行う者にとって重要になる。 For example, a visually handicapped person (a visually handicapped person) who uses a walking stick (typically a white cane) as a target to be monitored can walk alone, for example, according to a guidance block installed on the ground. Do. However, there are cases where the surrounding situation cannot be judged correctly only with the guidance block, and for example, a fall at a station platform is a problem. Therefore, early detection of the user of the cane at the station platform is important for those who perform station duties.
これに対して、例えばステレオカメラから得られる3次元距離情報に基づいて、歩行者を特定し、白杖が存在する可能性のある部分を画像処理し、白杖を検出することで白杖利用者を検出するもの(特許文献1参照)が知られている。 On the other hand, for example, a pedestrian is identified based on three-dimensional distance information obtained from a stereo camera, a portion where a white cane may exist is image-processed, and a white cane is used by detecting the white cane That detect a person (see Patent Document 1) is known.
しかしながら、上記特許文献1では、例えばカメラの撮像範囲おいて白杖利用者のかげに白杖が隠れてしまったり、白杖利用者がカメラに対して遠方に離れたことによりカメラの解像度の関係で白杖が画像上で認識できなくなったりすることで、白杖が未検出になる場合については、何ら対処がなされていない。
However, in
本発明は上記した点に鑑みてなされたものであり、監視中に、杖等の監視対象となる対象者に付随する付随物が未検出になる可能性があっても適切に付随物を有する対象者(典型的には、杖を有する視覚障碍者)を捉えることを可能にする対象者検出装置を提供することを目的とする。 The present invention has been made in view of the above-described points, and appropriately has an appendage even if there is a possibility that an appendage accompanying a subject to be monitored such as a cane becomes undetected during monitoring. An object of the present invention is to provide a subject detection apparatus which enables capturing of a subject (typically, a visually impaired person having a walking stick).
上記目的を達成するため、本発明に係る対象者検出装置は、人物画像における付随物画像の有無を判定する付随物判定部と、付随物判定部で付随物画像有りと判定された人物画像について、連続画像データ中のフレーム間で画像を関連付けて同一人物をトラッキングするトラッキング処理部と、上記同一人物を対象者として記憶する対象者記憶部とを備える。 In order to achieve the above object, the subject detection device according to the present invention relates to an incident determination unit that determines the presence or absence of an accompanying image in a person image, and a person image that is determined to have an accompanying image by the incident determination unit. A tracking processing unit for tracking the same person by associating images between frames in continuous image data, and a target person storage unit for storing the same person as a target person.
上記対象者検出装置では、付随物判定部で付随物画像有りと判定されれば、該当する人物画像について同一人物とされる人を対象者として記憶された状態を維持できるので、監視中に付随物である杖が未検出になることがあっても、杖を有していると判定された人が引き続き対象者である視覚障碍者として取り扱われる。すなわち、杖を有する視覚障碍者を適切に捉えることができる。 In the above-described subject detection device, if it is determined by the accessory determination unit that there is an accessory image, it is possible to maintain a state in which a person who is the same person as the target person image is stored as a target person. Even if the cane that is an object may be undetected, the person who is determined to have the cane is still treated as the visually impaired person who is the subject. That is, a visually handicapped person having a walking stick can be properly captured.
本発明の具体的な側面では、監視対象エリアを撮像して連続画像データとして2次元画像データを取得する撮像部と、撮像部で取得された2次元画像データから機械学習による形状抽出によって人物画像を抽出することで人の存在を検出する人検出部とを備える。この場合、例えば既に監視用等のために配備されているカメラ等で取得可能な2次元画像データからであっても、人検出部において、的確に人物画像を抽出できる。 In a specific aspect of the present invention, an image capturing unit that captures an image of a monitoring target area and acquires two-dimensional image data as continuous image data, and a human image by shape extraction by machine learning from the two-dimensional image data acquired by the image capturing unit. And a person detection unit that detects the presence of a person by extracting. In this case, for example, even from the two-dimensional image data that can be acquired by a camera or the like that is already provided for monitoring or the like, the human image can be accurately extracted by the human detection unit.
本発明の別の側面では、トラッキング処理部は、連続画像データのフレーム間での人物画像の位置変化の情報に基づいて同一人物についての人物画像であるか否かを判定する。この場合、撮像された人物の識別を確実に行える。 In another aspect of the present invention, the tracking processing unit determines whether or not the images are the same person based on the information on the position change of the person image between frames of the continuous image data. In this case, it is possible to reliably identify the imaged person.
本発明のさらに別の側面では、トラッキング処理部は、一の画像データにおいて検出された人物に対応する人物画像が所定のフレーム数連続して以後の画像データに存在しない場合に、該当する人がフレームアウトしたと判定する。この場合、画像認識上のエラーにより検出されるべき画像データが得られないといったことがある場合にも適切な対応が可能になる。 In still another aspect of the present invention, the tracking processing unit is configured such that when a person image corresponding to a person detected in one image data does not exist in subsequent image data for a predetermined number of frames, It is determined that the frame is out. In this case, it is possible to appropriately cope with a case where image data to be detected cannot be obtained due to an error in image recognition.
本発明のさらに別の側面では、付随物判定部は、人物画像のうち、人の下半身に相当する箇所を切り出すマスク処理をする。この場合、迅速かつ確実な杖判定を行える。 In still another aspect of the present invention, the incidental body determination unit performs mask processing for cutting out a portion corresponding to the lower body of a person in a person image. In this case, a quick and reliable cane determination can be performed.
本発明のさらに別の側面では、付随物判定部は、HSV変換処理による色情報に基づいて付随物画像の有無を判定する。この場合、色彩的特徴に基づいて、杖を迅速かつ確実に判別できる。 In yet another aspect of the present invention, the incidental determination unit determines the presence or absence of an incidental image based on color information obtained by HSV conversion processing. In this case, the cane can be quickly and reliably determined based on the color features.
本発明のさらに別の側面では、付随物判定部は、ハフ変換処理による直線成分情報に基づいて付随物画像の有無を判定する。この場合、形状的特徴に基づいて、杖を迅速かつ確実に判別できる。 In yet another aspect of the present invention, the incidental determination unit determines the presence or absence of an incidental image based on straight line component information obtained by the Hough transform process. In this case, the cane can be quickly and reliably determined based on the shape feature.
以下、図1等を参照して、本実施形態に係る対象者検出装置の一態様である視覚障碍者検出装置について一例を説明する。図1は、本実施形態に係る視覚障碍者検出装置100を概念的に示すブロック図であり、図2は、視覚障碍者検出装置100を配備した駅STの様子を示す概念図である。ここでは、一例として、列車TRが発着可能な駅STのホーム(プラットホーム)PFを視覚障碍者検出装置100による監視対象エリアとしている。すなわち、駅STのホームPFにいる利用者HUを検知の対象とし、利用者HUが視覚障碍者であるか否か、つまり、監視の対象となる対象者であるか否か、の検出を行っている。
Hereinafter, with reference to FIG. 1 etc., an example is demonstrated about the person with a blind person detection apparatus which is one aspect | mode of the object person detection apparatus which concerns on this embodiment. FIG. 1 is a block diagram conceptually showing a visually impaired
上記目的を達成するため、視覚障碍者検出装置100は、利用者HUの駅構内(特にホームPF上)での位置検知を行うとともに利用者HUの特徴を捉えることで、視覚障碍者であるか否かを判定する。ここでは、代表例として、図2に示すように、杖CAを有する利用者HUの存在を確認しており、さらに、確認結果を駅務室SO内の駅員SAに対して報知するようにしている。ここでは、代表的な例として、白杖を付随物として有するか否かを検知することで、視覚障碍者の検出を行うものとして説明する。
In order to achieve the above object, the visually-impaired
以下、図1、2を参照して、本実施形態における視覚障碍者検出装置100の構成等について具体的に説明する。本実施形態に係る視覚障碍者検出装置100は、利用者HUすなわちホームPF上を移動する人を検知するために監視対象エリアを撮像する撮像部(撮像カメラ)10と、撮像部10で取得した画像データに基づいて視覚障碍者を検出すべく各種処理及び制御を行う制御装置50とを備える。
Hereinafter, the configuration and the like of the visually impaired
撮像部10は、例えばCCDやCMOS等の個体撮像素子で構成される撮像カメラであり、図2に例示するように、ホームPFの上方側に設置され、下方側を撮像する。すなわち、撮像部10により上方側からホームPFの床面FLに向けて監視対象エリアについて撮像が行われる。ここでは、特に、連続画像データ中のフレーム間で画像を関連付けて同一人物をトラッキングするトラッキング処理を可能とすべく、連続画像データとして、例えば30fpsのフレームレートで2次元画像データを取得している(例えば、図3(A)〜3(C)参照)。なお、撮像部10については、ホームPF全体についての撮像を可能とすべく、設置位置やホームPFの形状等に応じて、単数又は複数設けられている。
The
制御装置50は、例えばCPUや記憶装置等により構成され、撮像部10により取得された連続画像データの関連付けに基づいて、同一人物をトラッキングしつつ、撮像された人物について付随物の一例として白杖を有しているか否かを判定している。すなわち、取得された連続画像データについて、人物画像における付随物画像の一例としての杖画像の有無を判定している。上記処理を可能とするため、図1に例示するように、制御装置50は、主制御部60と、記憶部70と、画像処理部80とを備える。
The
主制御部60は、例えばCPU等で構成され、各種情報処理を行うことにより、撮像部10で取得された2次元画像である連続画像データから機械学習による形状抽出によって人物画像を抽出することで人の存在を検出する人検出部61や、撮像部10から取得した連続画像データ中のフレーム間で画像を関連付けて同一人物をトラッキングするトラッキング処理部62、あるいは、人物画像における杖画像の有無を判定する杖判定部63として機能する。すなわち、杖判定部63は、付随物判定部の一例として、付随物画像である杖画像についての判定を行う。
The
また、記憶部70は、記憶装置等により構成され、各種データやプログラムを格納しており、例えば、トラッキング処理部62で同一人物とされる者のうち一定の要件を満たす人物を視覚障碍者として記憶する視覚障碍者記憶部71aを含むトラッキングデータ記憶部71のほか、人特徴量情報記憶部72や、色情報記憶部73、直線成分情報記憶部74等を備えて構成されている。この場合、視覚障碍者記憶部71aは、一定の要件を満たす人物を視覚障碍者すなわち対象者として記憶する対象者記憶部として機能していることになる。
The
以下、制御装置50を構成する上記各部について、より詳細に説明する。
Hereinafter, the above-mentioned each part which constitutes
まず、主制御部60は、人検出部61として、撮像部10により取得された各2次元画像データ中において、人(人物)の特徴を持った画像が存在するか否かの確認が可能となっている。例えば、既知のHOG特徴量やサポートベクターマシーン(SVM)を利用することで、2次元画像データから機械学習による形状抽出によって人物画像を抽出することを可能にしている。すなわち、人検出部61は、撮像部10により取得された各画像データから直線部分等を抽出し、抽出された直線部分の特徴量等に基づいて、画像データ中に人に固有の特徴を有したものがあるか否かを判定する。さらに言い換えると、人検出部61は、画像データ中における人と人以外とを仕分ける。これにより、人検出部61は、判定結果に基づいて人物画像の抽出をする。このため、人検出部61は、必要なプログラムを記憶部70から適宜読み出すとともに、人特徴量情報記憶部72に格納された人に関する特徴量のデータを利用して、人の存在を検出している。HOG特徴量等を利用することで、2次元的画像からであっても的確に人検出を行うことができる。なお、この場合、撮像部10について、例えばステレオカメラのような3次元情報を取り出すといった特殊な構成を要せずに、データ取得が可能となる。つまり、例えば駅STに設置されている発着時のモニター用の既存のカメラ等を適用する、といったことも可能になる。
First, the
また、主制御部60は、トラッキング処理部62として、同一人物をトラッキング可能にしている。このため、トラッキング処理部62は、記憶部70から適宜プログラムを読み出して、人検出部61において検出あるいは抽出された各人物画像について、連続画像データ中のフレーム間で画像を関連付けする処理を行う。特に、本実施形態では、杖判定部63で一度でも杖画像有りと判定された人物画像については、該当する人物画像について同一人物とされる人を視覚障碍者として記憶された状態を維持する。これにより、例えば監視中において杖が未検出になるようなことがあっても、一旦杖を有していると判定された人については、引き続き視覚障碍者として取り扱われるようにしていることになるので、杖を有する視覚障碍者を適切かつより確実に捉えることができる態様となっている。
In addition, the
また、主制御部60は、杖判定部63として、人検出部61において検出あるいは抽出された各人物画像における杖画像の有無を判定する。ここでは、一例として、杖判定部63は、人物画像の一部をマスクするマスク処理のほか、色情報記憶部73や直線成分情報記憶部74に格納されたデータを利用して、色や形状に関する判定処理を行う。なお、各処理について詳しくは後述する。
Further, the
次に、制御装置50のうち、記憶部70は、記憶装置として、各種データを格納する。ここでは、例えば、上記のようにして検出された人物画像に関するトラッキング処理に際して、各人物画像に関するデータをトラッキングデータ記憶部71に随時格納する(例えば、図4(A)〜4(C)のデータ表参照)。特に、このようなデータ格納の際、各人物画像に関するデータの1つである、視覚障碍者に関する情報を、視覚障碍者記憶部71aに格納している。
Next, in the
また、記憶部70のうち、人特徴量情報記憶部72は、既述のように、人検出部61による人検出に関して、HOG特徴量等の既知の手法により機械学習による形状抽出によって人物画像を抽出するに際して必要となる各種情報を格納している。さらには、人物画像の抽出ための各種プログラムについて格納しているものとしてもよい。
In addition, as described above, the human feature
また、記憶部70のうち、色情報記憶部73は、杖判定部63による杖判定に関して、色判定のための各種情報を格納している。特に、本実施形態では、白杖の色を抽出する、すなわち白色を抽出すべく、HSV変換処理すなわち色相(Hue)、彩度(Saturation)、明度(Value)の3つの成分からなる色空間にもとすく処理を可能とするための情報を格納している。また、直線成分情報記憶部74は、白杖の形状のうち特徴的事項である棒状の直線形状の平行度等を測定するための情報を格納している。杖の場合、2次元画像データとしては、細い棒状のものとして抽出され、その両端(棒の側面についての画像上の端)のエッジ部分の平行度や長さ等が杖であるか否かの判定における重要な形状的特徴になると考えられる。
Further, in the
最後に、制御装置50のうち、画像処理部80は、例えばGPU等で構成され、上記のような各種画像処理を可能とすべく、制御装置50からの指示に従って、撮像部10により取得された各2次元画像データについて、各種画像処理を行う。
Finally, in the
なお、視覚障碍者検出装置100は、図2に示すように、上記のほか、駅務室やホーム等の駅構内に存在する駅員SAに対して報知をするための駅員用報知部として、例えば、駅員用スピーカーPAや、ディスプレイ表示部DAを有している。これらは、例えば駅務室SO内に設置されている。駅員用スピーカーPA及びディスプレイ表示部DAは、制御装置50に接続され、制御装置50からの指示に従って駅務室SO内等にいる駅員SAに対して報知を行う。また、各種通信手段を設けることで、発着する列車TR内の乗務員(運転士や車掌)に対して報知を行うものとしてもよい。
In addition to the above, the visually-impaired
以下、図3を参照して、監視対象となる人物についての視覚障碍者検出装置100におけるトラッキング処理について説明する。図3(A)〜3(C)は、連続画像データ中のフレーム間での関連付けにより同一人物をトラッキングした様子について一例を示す概念的な画像図である。図示の例では、画像上の人物である人物画像HUiや杖画像CAiを含む人物トラッキング用の抽出画像HGaが、経時的に、図3(A)、図3(B)、図3(C)の順で、1つの撮像部10によって撮像される全範囲である全体画像GI中において、矢印AR1に示す方向に移動している。図示の場合、図3(A)の抽出画像A1と、図3(B)の抽出画像A2と、図3(C)の抽出画像A3とが同一人物画像として関連付けられて抽出画像HGaとして捉えられることで、トラッキングされる。この際、抽出画像HGa中の部分画像として存在する杖画像CAiの抽出が重要となる。このため、各抽出画像A1〜A3、あるいはこれらをまとめた抽出画像HGaについては、人物画像HUiとともに杖画像CAiが捉えられるようにする必要かつ十分な範囲となるように抽出されている。ここでは、図に例示するように、矩形の領域で画像の抽出を行っている。具体的には、人検出部61での人物検出により、人物画像HUiが検出されると、人物画像HUiを含み、かつ、仮に人物画像HUiに杖画像CAiが付随しているとしているとしたら、当該杖画像CAiが併せて含まれるであろうと推定される範囲をあらかじめ定めた矩形範囲の抽出画像HGaとして捉える。
Hereinafter, with reference to FIG. 3, the tracking process in the visually-impaired
以上を前提として、特に、本実施形態では、図3(A)の抽出画像A1に対する杖検出によって、一旦、杖画像CAiが検出されれば、その後、図3(B)のような抽出画像A2において、杖画像CAiが人物画像HUiで隠れて見えにくい状態となり、仮に杖検出をしたとしても検出されないような場合であっても、トラッキング処理により抽出画像HGaとして関連付けておくことを利用して、トラッキング対象の画像においては引き続き杖画像CAiが付随するものとして取り扱うようにしている。これにより、当該人物が杖を有する者すなわち視覚障碍者として捉えることが可能となる。 Based on the above, particularly in the present embodiment, once the wand image CAi is detected by the wand detection for the extracted image A1 in FIG. 3A, the extracted image A2 as shown in FIG. In the case where the cane image CAi is hidden by the person image HUi and is difficult to see, and even if it is not detected even if the cane is detected, it is associated with the extracted image HGa by tracking processing. In the tracking target image, the wand image CAi is continuously handled as an accompanying image. Thereby, the person can be regarded as a person having a cane, that is, a visually handicapped person.
図4(A)〜4(C)は、上記のようなトラッキング処理によってトラッキングされる人物に関して、記憶部70に格納されるデータについて、一例を示すデータ表である。ここでは、図示のように、トラッキングされる各人物ごとにID番号を付した上で、ID番号ごとすなわち人物ごとの位置情報としての2次元画像上の位置(中心座標)の情報、進行方向の情報及び白杖者であるか否かすなわち視覚障碍者であるか否かの情報についてトラッキングデータ記憶部71に記録されている。
FIGS. 4A to 4C are data tables showing an example of data stored in the
上記各情報について、より具体的に説明すると、まず、各人物の位置情報については、抽出画像の中心位置を2次元画面の横軸と縦軸とについてのxy座標で示している。つまり、全体画像GI(図3等参照)中における各抽出画像の中心すなわち矩形領域の中心を、全体画像GIについてのx座標及びy座標の値で示している。また、進行方向の情報については、例えば2次元画面における基準方向を角度ゼロの方向と定め、この方向に対する角度で定めることができる。さらに、白杖者であるか否かすなわち視覚障碍者であるか否かの情報については、人物画像についての抽出画像中から杖画像が検出されたか否かを「True」と「False」で示している。ここで、図示のように、例えばID番号1が付された人物について、トラッキングの結果、図4(A)に示す時点では「False」すなわち杖画像無し、と判断されていたが、その後、図4(B)に示す時点では「True」すなわち杖画像有り、と判断されると、その後は、例えば図4(C)に示すように、杖画像の有り無しの検出結果にかかわらず、「True」すなわち白杖者すなわち視覚障碍者であるものとして取り扱われる。言い換えると、一旦、「True」となった場合には、以後は引き続き「True」が維持される。一方、最初は「False」有ったものが、途中から「True」に変更されることは生じ得る。以上のように取り扱うことで、視覚障碍者が検出された場合に、その後当該人物をより確実に捉え続けて監視をすることが可能になる。
The above information will be described more specifically. First, for the position information of each person, the center position of the extracted image is indicated by xy coordinates on the horizontal axis and the vertical axis of the two-dimensional screen. That is, the center of each extracted image in the whole image GI (see FIG. 3 etc.), that is, the center of the rectangular area is indicated by the values of the x coordinate and the y coordinate for the whole image GI. As for the information on the traveling direction, for example, the reference direction on the two-dimensional screen can be determined as a direction having an angle of zero, and can be determined by an angle relative to this direction. Furthermore, for information on whether or not a person is a white cane, that is, whether or not he / she is visually impaired, “True” and “False” indicate whether or not a cane image is detected from an extracted image of a person image. ing. Here, as shown in the drawing, for example, for the person assigned
以下、図5を参照して、トラッキング処理に関するより具体的な一例として、本実施形態に係る人物のフレーム間での対応付けについて説明する。図5(A)〜5(C)は、人物のフレーム間での対応付けの方法について具体的一例を概念的に示す画像図である。 Hereinafter, as a more specific example regarding the tracking process, the correspondence between the frames of the person according to the present embodiment will be described with reference to FIG. FIGS. 5A to 5C are image diagrams conceptually showing a specific example of a method of association between person frames.
まず、人検出部61での人物画像の検出により、例えば図5(A)に示すように、あるフレームでのコマ画像において、人物画像HUiを含む人物トラッキング用の抽出画像A1が検出され、さらに、図5(A)よりも経時的に後のフレームでのコマ画像である図5(B)に示すコマ画像において、他の複数の抽出画像A2,B1が検出された場合、抽出画像A1との間での関連付けがなされる。関連付けの方法としての一例としては、トラッキング処理部62において、2次元画像のxy面内を移動した距離の量の差異から人物画像の関連付けあるいは対応付けについての判定をすることが考えられる。図示の場合、全体画像GI内における中心位置の比較により、抽出画像A2,B1のうち、抽出画像A1との画像上の距離がより近い抽出画像A2が、抽出画像A1と同一人物の画像であると判定され、これらが同一人物を示す抽出画像HGaであるものとして関連付けられる。一方、抽出画像B1については、新たな人物が検出されたもの、すなわち別人が全体画像GI内にフレームインしたものとして取り扱う。つまり、トラッキング処理部62は、撮像部10からの連続画像データのフレーム間での人物画像の位置変化の情報に基づいて、同一人物についての人物画像であるか否かを判定している。
First, as shown in FIG. 5A, for example, as shown in FIG. 5A, a person tracking extraction image A1 including a person image HUi is detected by detecting a human image in the
さらに、別の態様として、例えば図5(C)に示すように、図5(A)よりも経時的に後のフレームでのコマ画像において、それまで抽出画像HGaとして関連付けられていた抽出画像Axが画像から検出されなくなった場合には、条件に応じて、単に画像取得時のエラー発生等により検出できなかった(実際には存在している)ものとして扱う場合と、実際にその人物が撮像範囲の外に出たもの、すなわちフレームアウトしたものとして扱う場合とに分ける。ここでは、所定のフレーム回数(例えば5,6フレーム程度)連続して抽出画像HGaに対応する画像が検出されない場合には、当該人物が全体画像GIの外へフレームアウトしたものとして取り扱うものとする。つまり、トラッキング処理部62は、撮像部10から取得した一の画像データにおいて検出された人物に対応する人物画像が、所定のフレーム回数(例えば5,6フレーム程度)数連続して以後の画像データに存在しない場合に初めて、該当する人がフレームアウトしたと判定する。
Furthermore, as another aspect, as shown in FIG. 5C, for example, an extracted image Ax that has been previously associated as an extracted image HGa in a frame image in a frame later than FIG. 5A. Is no longer detected from the image, depending on the conditions, it may be treated as if it could not be detected simply because of an error during image acquisition, etc. It is divided into the case where it goes out of range, that is, the case where it is handled as being out of frame. Here, when an image corresponding to the extracted image HGa is not detected continuously for a predetermined number of frames (for example, about 5 or 6 frames), it is assumed that the person is out of the entire image GI. . In other words, the
以上により、各人物が、撮像範囲へフレームインしてからフレームアウトするまでの間における人物画像のトラッキング処理がなされる。 As described above, the tracking process of the person image is performed from the time when each person enters the imaging range until the person leaves the frame.
以下、図6を参照して、杖判定部63による杖判定に関して、杖画像を抽出する方法について具体的一例を示す。図6(A)に示すように、杖画像の有無を判定すべき人物画像HUiを含む抽出画像A1が取り出されると、抽出画像A1を必要に応じて正規化する。例えば撮像部10(図2等参照)の配置や撮像範囲、画角等に応じて正規化の条件を適宜定めておく。正規化により、例えば、図6(B)に例示する場合では、抽出画像A1が、人間の身長方向について長い2:1の長方形画像となるようにしている。すなわち、図示において、縦幅LAと横幅LBとの比が2:1となっている。この状態において、図6(C)に示すように、上半分すなわち上半身部分をマスクし、下半分すなわち下半身部分のみを抽出して、部分画像A1aを取り出す。すなわち、図6(B)に示す抽出画像A1の縦方向についての中央の破線PXを基準として破線PXより下側の部分を、部分画像A1aとして取り出す。これにより、身体の下半身側に位置する杖画像CAiをより検出しやすくなる。
Hereinafter, with reference to FIG. 6, a specific example of a method for extracting a wand image regarding wand determination by the
ここで、さらに図6(C)に示す部分画像A1aについて、色彩的特徴に基づく特徴抽出の1つである白色抽出を行う。白色抽出については、HSV変換処理による色情報に基づいて杖画像の有無の判定を行っている。これにより、白色である杖画像CAiの候補となる箇所の検出を確実に行えるようにしている。 Here, with respect to the partial image A1a shown in FIG. 6C, white extraction which is one of feature extraction based on the color feature is performed. For white extraction, the presence or absence of a cane image is determined based on color information obtained by HSV conversion processing. Accordingly, it is possible to reliably detect a candidate portion for the white cane image CAi.
さらに、形状的特徴に基づく特徴抽出の既知の手法の1つであるハフ変換処理(Hough変換)による直線成分情報に基づいて杖画像の候補画像部分における杖画像の有無を判定する。具体的には、図6(D)に示すように、白色部分についてのエッジ部分EG1,EG2を抽出し、エッジ部分EG1,EG2の長さL1や、エッジ部分EG1とエッジ部分EG2との間の幅L2や両者間の平行度等を、ハフ変換処理に基づいて解析することにより、白色抽出によって抽出された画像が杖画像であるか否かを判定している。以上により、杖画像CAiの検出を迅速かつ確実に行えるようにしている。 Further, the presence / absence of a cane image in the candidate image portion of the cane image is determined based on straight line component information by a Hough transform process (Hough transform), which is one of known methods for feature extraction based on a shape feature. Specifically, as shown in FIG. 6D, the edge portions EG1 and EG2 for the white portion are extracted, and the length L1 of the edge portions EG1 and EG2 or between the edge portion EG1 and the edge portion EG2 is extracted. By analyzing the width L2 and the parallelism between the two based on the Hough transform process, it is determined whether or not the image extracted by the white extraction is a cane image. As described above, the cane image CAi can be detected quickly and reliably.
以下、図7のフローチャートを参照して、トラッキング処理の一例について説明する。まず、制御装置50において人物監視のための動作を開始すると、主制御部60は、トラッキング処理部62として、撮像部10から監視対象エリアの全体画像データが取得されているかを確認する(ステップS101)。ステップS101では、最初の画像データ入力の場合を含め、連続画像データについて次の画像データが入力されたか否かを逐次検出している。
Hereinafter, an example of the tracking process will be described with reference to the flowchart of FIG. First, when the
ステップS101において、動作開始後の最初の画像データあるいは、2回目以降の画像データが取得されると(ステップS101:Yes)、主制御部60は、人検出部61として、取得した画像中において人検出を行い、人の検出あるいは前フレームの画像までに存在していた人画像について不検出が発生しているか否か(2回目以降の場合)を判定する(ステップS102)。ステップS102において、人検出もなく、かつ、2回目以降における上記のような不検出人の発生もない場合には、特段の処理を行わず(ステップS102:No)、ステップS101からの処理動作を繰り返す。
In step S101, when the first image data after the start of operation or the second and subsequent image data is acquired (step S101: Yes), the
一方、ステップS102において、人検出がされた場合、あるいは、前フレームの画像までに存在していた人画像について不検出が発生した場合には、フレームの前後での対応付け処理を行う(ステップS103)。具体的に例示すると、図5(A)及び5(B)に例示した場合のように、前フレームでのコマ画像では1人の人物画像についてのみデータが取得されていたのに対して、次のフレームでのコマ画像では2人の人物画像が現れている態様では、2人の人物画像のうち一方を、前フレームでのコマ画像の人物と同一人物として取り扱う関連付けをするともに、他方を、新たに検知された人物として新規データ登録をする、といった処理がなされる。また、図5(A)及び5(C)に例示した場合のように、前フレームのコマ画像までに存在していた人画像について不検出が発生した場合には、さらに、場合に応じた関連付けを行うための処理(ステップS104以降)がなされる。 On the other hand, if a person is detected in step S102, or if a non-detection has occurred for a person image that has existed up to the image of the previous frame, the association processing before and after the frame is performed (step S103). ). Specifically, as in the case illustrated in FIGS. 5A and 5B, in the frame image in the previous frame, data was acquired for only one person image, whereas In an aspect in which two person images appear in the frame image in the frame of, one of the two person images is associated with the same person as the person of the frame image in the previous frame, and the other is A process of registering new data as a newly detected person is performed. Further, as shown in FIGS. 5 (A) and 5 (C), when a non-detection occurs in a human image that has existed up to the frame image of the previous frame, further association according to the case is performed. The process for performing (step S104 and subsequent steps) is performed.
なお、ステップS102における人検出、あるいは、不検出人の発生が確認されステップS103へ進むと、図8を参照して後述するステップS201からの杖画像の抽出処理が、開始される。 When it is confirmed that a person is detected or a non-detected person is generated in step S102 and the process proceeds to step S103, a staff image extraction process from step S201 described later with reference to FIG. 8 is started.
以下、図7に戻って、ステップS104以降の処理動作について説明する。ステップS103での対応付けにおいて、人画像について不検出が発生している場合(ステップS104)、すなわち、図5(A)及び5(C)に例示するように、前後のフレーム間でのコマ画像において存在していた人物画像に対応する画像が、次のフレームでのコマ画像において存在しないと判断された場合(ステップS104:Yes)には、当該不検出が予め定めている所定回数(例えば、5回あるいは6回に予め設定)以上継続しているかを確認する(ステップS105)。 Hereinafter, referring back to FIG. 7, the processing operation after step S104 will be described. In the association in step S103, when no human image has been detected (step S104), that is, as illustrated in FIGS. 5A and 5C, the frame images between the previous and subsequent frames. If it is determined that the image corresponding to the person image that existed in step S104 does not exist in the frame image in the next frame (step S104: Yes), the non-detection is determined a predetermined number of times (for example, It is confirmed whether or not it continues for 5 times or 6 times (step S105).
ステップS105において、所定回数に達していないと判断されると(ステップS105:No)、不検出カウントを+1追加する処理をするとともに(ステップS106a)、画像取得未検出であったが対応する人物画像データを存在させたまま保留の扱いとする処理をし(ステップS107a)、上記内容でのデータ更新を行う(ステップS108)。つまり、人検出等に関してエラーがあったものとして捉え、1つ前までの情報を維持しつつ、不検出の発生回数を1回増やす。 If it is determined in step S105 that the predetermined number of times has not been reached (step S105: No), a process of adding +1 to the non-detection count is performed (step S106a), and the corresponding human image that has not been detected yet is detected. While the data is present, processing for handling the hold is performed (step S107a), and data update with the above contents is performed (step S108). That is, it is regarded that there is an error in human detection etc., and the number of occurrences of non-detection is increased once while maintaining the information of the previous one.
一方、ステップS105において、所定回数(例えば、5回あるいは6回)に達している、と判断されると(ステップS105:Yes)、不検出カウントをクリアする処理をするとともに(ステップS106b)、未検出の人物画像データに相当する人が検出範囲外にフレームアウトしたものとして当該データを削除する処理をし(ステップS107b)、上記内容でのデータ更新を行う(ステップS108)。つまり、該当する人物がフレームアウトしたものとして捉え、該当するデータを削除し、併せて、それまでの不検出の発生回数のカウントをクリアする。 On the other hand, if it is determined in step S105 that the predetermined number of times (for example, 5 times or 6 times) has been reached (step S105: Yes), a process of clearing the non-detection count is performed (step S106b), A process corresponding to the detected person image data being deleted out of the detection range is performed (step S107b), and the data is updated with the above contents (step S108). That is, the corresponding person is regarded as being out of frame, the corresponding data is deleted, and the count of the number of occurrences of the non-detection up to that point is cleared.
なお、ステップS104において、不検出が確認されない場合(ステップS104:No)には、不検出カウントをクリアする処理をし(ステップS107c)、その内容でのデータ更新を行う(ステップS108)。 If no non-detection is confirmed in step S104 (step S104: No), a process of clearing the non-detection count is performed (step S107c), and the data is updated with the content (step S108).
ステップS108でのデータ更新を終えると、再びステップS101からの処理動作に戻る。すなわち、一連のトラッキング処理において、次のデータ取得の有無を確認する。以上により、人物画像のトラッキングに関する一連の処理がなされる。 When the data update in step S108 is completed, the process returns to step S101 again. That is, in the series of tracking processing, the presence or absence of the next data acquisition is confirmed. As described above, a series of processes relating to tracking of a person image is performed.
以下、図8のフローチャートを参照して、取得された1つの画像における杖画像の抽出処理の一例について説明する。 Hereinafter, an example of the wand image extraction process in one acquired image will be described with reference to the flowchart of FIG. 8.
既述のように、図7のステップS102における人検出、あるいは、不検出人の発生が確認されステップS103へ進むと、杖判定部63としての主制御部60は、杖画像の抽出処理に関して、まず、そもそも杖画像の抽出処理が必要であるか否かの判定、すなわち視覚障碍者判定の要否を判定する(ステップS201)。具体的には、ステップS102における人検出やステップS103での人物画像の対応付けの結果、検出されている人物画像の全てについて既に「True」すなわち杖画像有り、と判定されている場合には、改めて杖画像の有無を検出する必要が無い。
As described above, when the occurrence of the person detection or the non-detection person in step S102 in FIG. 7 is confirmed and the process proceeds to step S103, the
ステップS201において、視覚障碍者判定が不要であると判定されれば(ステップS201:No)、何ら処理を行うことなく、終了し、新たな人検出があるまで待機する。 If it is determined in step S201 that the visually impaired person determination is unnecessary (step S201: No), the process ends without performing any processing and waits until a new person is detected.
一方、視覚障碍者判定が必要であると判定された(ステップS201:Yes)場合、すなわち、ステップS103での対応付けの結果、「False」すなわち杖画像無し、と判定されている人物画像が1つでも存在すれば、当該人物画像に対して、杖画像の有無を判定するための画像処理が順次行われる(ステップS202〜ステップS205)。 On the other hand, when it is determined that the visually impaired person determination is necessary (step S201: Yes), that is, as a result of the association in step S103, the person image determined as “False”, that is, no wand image is 1 If at least one image exists, image processing for determining the presence or absence of a wand image is sequentially performed on the person image (steps S202 to S205).
以下、杖画像の有無を判定するための一連の画像処理について、具体的に説明する。まず、杖判定部63としての主制御部60は、人物画像のうち、人の下半身に相当する箇所を切り出すマスク処理をする(ステップS202)。すなわち、図6(B)及び6(C)を参照して説明したように、必要に応じて対象画像の縦横比を2:1に正規化した上で、下半身に相当する下半分の部分画像(例えば図6(C)の部分画像A1a)を取り出す。次に、杖判定部63は、ステップS202において取り出された下半分の部分画像について、白色抽出の処理をする(ステップS203)。すなわち、図6(C)を参照して説明したように、色彩的特徴に基づく特徴抽出として、HSV変換処理による色情報に基づく白色部分の抽出を行う。これにより、抽出画像から杖画像となる候補の画像部分を取り出せる。さらに、杖判定部63は、ステップS203において取り出された画像部分について線分抽出すなわち直線成分の抽出処理をする(ステップS204)。具体的には、図6(D)を参照して説明したように、白色部分についてのエッジ部分を抽出し、その長さや、間隔(幅)、平行度等を算出するためにハフ変換処理等を行い、当該算出結果に基づいて、取り出された画像が杖画像であるか否かを判定可能にしている。以上のステップS202〜S204の解析結果に基づき、杖判定部63は、杖画像の有無、すなわち対象となっている人物画像が視覚障碍者の画像であるか否かの判定(白杖判定)を行う(ステップS205)。
Hereinafter, a series of image processing for determining the presence or absence of a cane image will be specifically described. First, the
ステップS205において、視覚障碍者であるとの判定がなされた(ステップS205:Yes)場合、視覚障碍者(白杖者)追加処理を行う(ステップS206)。すなわち、図4に示すデータ表中における対象のID番号の人物画像について、データ表の白杖者の欄中において「False」となっていたものを「True」に変更する。 If it is determined in step S205 that the person is visually impaired (step S205: Yes), a visually impaired person (white cane person) is added (step S206). That is, for the person image of the target ID number in the data table shown in FIG. 4, the “False” in the white cane column in the data table is changed to “True”.
一方、ステップS205において、視覚障碍者でないとの判定がなされた(ステップS205:No)場合、視覚障碍者(白杖者)追加処理を行うことなく、処理を終える。すなわち、対象のID番号の人物画像について、欄中において「False」となっていた状態を維持する。以上により、1つの抽出画像における杖画像の抽出に関する一連の処理がなされる。 On the other hand, if it is determined in step S205 that the person is not visually impaired (step S205: No), the process ends without performing the visually impaired person (white cane person) addition process. That is, the state of “False” in the column is maintained for the person image having the target ID number. As described above, a series of processes related to extraction of a cane image from one extracted image is performed.
以上のように、本実施形態に係る視覚障碍者検出装置100では、制御装置50のうち、杖判定部63としての主制御部60において、杖画像有りと判定されれば、該当する人物画像についてトラッキング処理部62でのトラッキング処理により同一人物とされる人を、視覚障碍者として記憶された状態を維持できるので、監視中に杖が未検出になることがあっても、杖を有していると判定された人が引き続き視覚障碍者として取り扱われる。すなわち、杖を有する視覚障碍者を適切に捉えることができる。
As described above, in the visually impaired
〔その他〕
この発明は、上記の実施形態に限られるものではなく、その要旨を逸脱しない範囲において種々の態様で実施することが可能である。
[Others]
The present invention is not limited to the above embodiment, and can be implemented in various modes without departing from the scope of the invention.
まず、上記実施形態では、一例として、人検出後、判定の要否を確認した上で(図8のステップS201)、杖画像の判定を行っているが、判定の要否を問わず、人検出された画像の全てに対して杖画像の判定を行うものとしてもよい。 First, in the above embodiment, as an example, after detecting a person, the necessity of the determination is confirmed (step S201 in FIG. 8), and the cane image is determined. The determination of the wand image may be performed on all the detected images.
また、上記では、例えば杖画像の検出に際して、まず、白色抽出すなわち色抽出を行った上で、直線成分の抽出すなわち形状による抽出をするものとしている。この場合、例えば白色あるいはこれに近い色ではない杖や傘等は除外されると考えられ、形状として似たものがあらかじめ除外できると考えられる。ただし、上記の場合に限らず、例えば順序を入れ替えて、形状的特徴による抽出を先に行う場合も考えられる。 Further, in the above, for example, when detecting a wand image, first, white extraction, that is, color extraction is performed, and then linear component extraction, that is, extraction by shape is performed. In this case, it is considered that, for example, canes or umbrellas that are not white or similar in color are excluded, and those similar in shape can be excluded in advance. However, the present invention is not limited to the above case, and for example, a case where the order is changed and extraction based on the shape feature is performed first is also conceivable.
また、上記では、視覚障碍者が有する杖を白杖すなわち白色の杖としているが、他の色や色の組合せ等も考えられる場合や、形状についても別の箇所に特徴があると考えられる、といった場合には、これらに応じて、適切な色抽出や形状抽出の方法を選択することが考えられる。 In the above, the cane possessed by the visually impaired is a white cane, that is, a white cane, but other colors and combinations of colors are also conceivable, and the shape is considered to be characterized in another place. In such a case, it is conceivable to select an appropriate color extraction or shape extraction method in accordance with these.
また、上記では、一例として、監視対象エリアを駅STのホームPFとしているが、これに限らず視覚障碍者を適切に捉えることが望まれる種々の場所を監視対象とすることができる。 In the above description, as an example, the monitoring target area is the home PF of the station ST. However, the present invention is not limited to this, and various places where it is desired to appropriately capture visually impaired persons can be monitored.
また、撮像部10の配置についても、上記のように、ホームPFの上方側に設置されて下方側を撮像する場合に限らず、目的とする範囲を撮像できる種々の態様とすることができる。例えば、撮像対象とすべきホームの反対側に位置するホームに撮像部を設置すること等が考えられる。
Further, the arrangement of the
また、上記では、制御装置50での検出結果についての報知先の一例として、駅務室SOを挙げているが、これに限らず、種々の箇所へ報知することが可能である。さらに、報知先を駅員等に限らず、駅に設置されるホームドア等を制御する制御回路としてもよい。この場合、例えば視覚障碍者が近くにいるホームドアについては、杖が接触する可能性が高まるが、このことを考慮して、ホームドアの開閉動作を停止させるべきか否かの判断基準を設定することができる。
Moreover, although the station service room SO is mentioned as an example of the notification destination about the detection result in the
また、撮像部10が、複数設定されるような場合においては、例えば撮像範囲が隣接する撮像部間での情報を、データ中においてリンクさせるようにしてもよい。これにより、より広い範囲に亘って連続的に人物のトラッキングを行うことができる。
Further, in the case where a plurality of
また、上記では、付随物の典型的一例として、白杖を取り上げ、白杖を有しているか否かについて検出・判定等を行うようにしているが、付随物は、これに限らず、盲導犬や車椅子等とすることも考えられる。また、監視対象とすべき対象者についても、上記では、典型的一例として、視覚障碍者とし、対象者検出装置を視覚障碍者検出装置して説明しているが、これに限らず、本実施形態に係る対象者検出装置は、監視態様に応じて、種々の者を対象者とすることができる。また、対象者の特性に応じて、検出・判定等を行うべき付随物についても白杖や盲導犬等に限らず、種々の物にできる。 In the above, a white cane is taken up as a typical example of the accompaniment, and detection / judgment is made as to whether or not it has a white cane. It is also possible to use a wheelchair. Further, in the above description, the target person to be monitored is described as a visually impaired person as a typical example, and the target person detection apparatus is described as a visually impaired person detection apparatus. The target person detection device according to the embodiment can target various persons according to the monitoring mode. Moreover, according to the characteristic of a subject person, it can be made not only a white stick and a guide dog but also various things about incidentals to be subjected to detection / determination etc.
10…撮像部、50…制御装置、60…主制御部、61…人検出部、62…トラッキング処理部、63…杖判定部、70…記憶部、71…トラッキングデータ記憶部、71a…視覚障碍者記憶部、72…人特徴量情報記憶部、73…色情報記憶部、74…直線成分情報記憶部、80…画像処理部、100…視覚障碍者検出装置、A1,A2,A3,Ax,B1…抽出画像、AR1…矢印、CA…杖、CAi…杖画像、DA…ディスプレイ表示部、EG1,EG2…エッジ部分、FL…床面、GI…全体画像、HGa…抽出画像、HU…利用者、HUi…人物画像、L1…長さ、L2…幅、LA…縦幅、LB…横幅、PA…駅員用スピーカー、PF…ホーム、PX…破線、SA…駅員、SO…駅務室、ST…駅、TR…列車
DESCRIPTION OF
Claims (7)
前記付随物判定部で付随物画像有りと判定された人物画像について、連続画像データ中のフレーム間で画像を関連付けて同一人物をトラッキングするトラッキング処理部と、
前記同一人物を対象者として記憶する対象者記憶部と
を備える対象者検出装置。 An incident determination unit that determines the presence or absence of an incident image in a person image;
A tracking processing unit for tracking the same person by associating an image between frames in continuous image data with respect to a person image determined to have the accompanying image by the accompanying object determination unit;
And a target person detection unit that stores the same person as a target person.
前記撮像部で取得された前記2次元画像データから機械学習による形状抽出によって人物画像を抽出することで人の存在を検出する人検出部と
を備える、請求項1に記載の対象者検出装置。 An imaging unit for imaging a monitoring target area and acquiring two-dimensional image data as the continuous image data;
The subject detection apparatus according to claim 1, further comprising: a person detection unit that detects a person's presence by extracting a person image from the two-dimensional image data acquired by the imaging unit by shape extraction by machine learning.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018010067A JP7020931B2 (en) | 2018-01-24 | 2018-01-24 | Target person detection device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018010067A JP7020931B2 (en) | 2018-01-24 | 2018-01-24 | Target person detection device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019128799A true JP2019128799A (en) | 2019-08-01 |
JP7020931B2 JP7020931B2 (en) | 2022-02-16 |
Family
ID=67472272
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018010067A Active JP7020931B2 (en) | 2018-01-24 | 2018-01-24 | Target person detection device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7020931B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021087065A (en) * | 2019-11-26 | 2021-06-03 | 西日本旅客鉄道株式会社 | Station monitoring system |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005332071A (en) * | 2004-05-18 | 2005-12-02 | Sumitomo Electric Ind Ltd | System for tracking visually handicapped person and method for detecting visually handicapped person |
JP2006126926A (en) * | 2004-10-26 | 2006-05-18 | Canon Inc | Customer data generation system, program and method |
JP2007274234A (en) * | 2006-03-30 | 2007-10-18 | National Institute Of Advanced Industrial & Technology | White cane user detection system using stereo camera |
JP2007303239A (en) * | 2006-05-15 | 2007-11-22 | Konica Minolta Holdings Inc | Authentication apparatus, method of controlling authentication apparatus, and control program of authentication apparatus |
JP2017091498A (en) * | 2015-11-10 | 2017-05-25 | 日本信号株式会社 | Gate device |
-
2018
- 2018-01-24 JP JP2018010067A patent/JP7020931B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005332071A (en) * | 2004-05-18 | 2005-12-02 | Sumitomo Electric Ind Ltd | System for tracking visually handicapped person and method for detecting visually handicapped person |
JP2006126926A (en) * | 2004-10-26 | 2006-05-18 | Canon Inc | Customer data generation system, program and method |
JP2007274234A (en) * | 2006-03-30 | 2007-10-18 | National Institute Of Advanced Industrial & Technology | White cane user detection system using stereo camera |
JP2007303239A (en) * | 2006-05-15 | 2007-11-22 | Konica Minolta Holdings Inc | Authentication apparatus, method of controlling authentication apparatus, and control program of authentication apparatus |
JP2017091498A (en) * | 2015-11-10 | 2017-05-25 | 日本信号株式会社 | Gate device |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021087065A (en) * | 2019-11-26 | 2021-06-03 | 西日本旅客鉄道株式会社 | Station monitoring system |
Also Published As
Publication number | Publication date |
---|---|
JP7020931B2 (en) | 2022-02-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10949657B2 (en) | Person's behavior monitoring device and person's behavior monitoring system | |
Vishwakarma et al. | Automatic detection of human fall in video | |
US7460686B2 (en) | Security monitor device at station platform | |
US8655078B2 (en) | Situation determining apparatus, situation determining method, situation determining program, abnormality determining apparatus, abnormality determining method, abnormality determining program, and congestion estimating apparatus | |
JP2022168070A (en) | person detection system | |
JP6674584B2 (en) | Video surveillance system | |
US20170330208A1 (en) | Customer service monitoring device, customer service monitoring system, and customer service monitoring method | |
CN109657624A (en) | Monitoring method, the device and system of target object | |
US8983131B2 (en) | Video analysis | |
CN110309801B (en) | Video analysis method, device, system, storage medium and computer equipment | |
US20080247601A1 (en) | Image processing apparatus and image processing method | |
KR101307234B1 (en) | Parking management system based on object recognition | |
US20210064857A1 (en) | Image analysis device, image analysis method, and recording medium | |
CN105957300B (en) | A kind of wisdom gold eyeball identification is suspicious to put up masking alarm method and device | |
JP6239376B2 (en) | Image monitoring device and elevator monitoring device | |
JP4821355B2 (en) | Person tracking device, person tracking method, and person tracking program | |
JP7020931B2 (en) | Target person detection device | |
CN110580708B (en) | Rapid movement detection method and device and electronic equipment | |
CN104392201B (en) | A kind of human body tumble recognition methods based on omnidirectional vision | |
JP7149063B2 (en) | Monitoring system | |
JP5154461B2 (en) | Moving object tracking device | |
JP2019204374A (en) | Object detecting apparatus | |
JP2010044698A (en) | Pedestrian detector and program | |
JP2018128800A (en) | Bed identification apparatus | |
JP5865709B2 (en) | Image monitoring device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201216 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211110 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211216 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220119 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220203 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7020931 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |