JP2003044859A - Device for tracing movement and method for tracing person - Google Patents
Device for tracing movement and method for tracing personInfo
- Publication number
- JP2003044859A JP2003044859A JP2001229757A JP2001229757A JP2003044859A JP 2003044859 A JP2003044859 A JP 2003044859A JP 2001229757 A JP2001229757 A JP 2001229757A JP 2001229757 A JP2001229757 A JP 2001229757A JP 2003044859 A JP2003044859 A JP 2003044859A
- Authority
- JP
- Japan
- Prior art keywords
- person
- tracking
- detection area
- extracted
- processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Closed-Circuit Television Systems (AREA)
- Burglar Alarm Systems (AREA)
- Alarm Systems (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、特定の場所を撮影
して監視を行う装置に関し、詳しくは、撮像装置から得
られた画像を処理して移動物体を抽出して追跡処理し、
所定の領域に人物が侵入した場合に報知を行う動き追跡
装置及びその人物追跡方法に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a device for photographing and monitoring a specific place, and more specifically, it processes an image obtained from an image pickup device to extract a moving object for tracking processing.
The present invention relates to a motion tracking device and a person tracking method for notifying when a person enters a predetermined area.
【0002】[0002]
【従来の技術】特定の場所を監視し、そこへ侵入した人
物を抽出して追跡処理することにより、ブザーなどの警
告音を発したり、上位のシステムにアラーム通知等を行
う監視装置や人物追跡装置が知られている。2. Description of the Related Art By monitoring a specific place, extracting a person who has invaded the place, and performing tracking processing, a warning device such as a buzzer is emitted, or a monitoring device or person tracking for notifying an upper system of an alarm or the like. The device is known.
【0003】図9は、従来の人物追跡装置の構成例を示
すブロック図である。この構成において、入力部902
は外部の例えばテレビカメラなどの撮像装置901から
(所定のフレーム数ごとの間隔で)入力した映像信号を
フィルタ処理し、A/D変換して入力画像記憶部903
に画像データとして格納する。物体抽出部904は、背
景画像記憶部905に格納された物体が存在しない背景
画像と入力した現在の画像データとの差分を演算し、変
化があった領域すなわち物体領域を抽出する。FIG. 9 is a block diagram showing a configuration example of a conventional person tracking device. In this configuration, the input unit 902
Is an input image storage unit 903 that filters a video signal input from an external image pickup device 901 such as a television camera (at intervals of a predetermined number of frames), performs A / D conversion.
Stored as image data. The object extraction unit 904 calculates the difference between the background image stored in the background image storage unit 905 and the background image in which the object does not exist and the input current image data, and extracts the changed area, that is, the object area.
【0004】特徴量算出部906は、物体領域を演算し
て特徴量、例えば面積比、移動量、移動速度、縦横比、
重心、高さ等を算出し、物体判定部907において、算
出された各特徴量を装置が人物とみなすとした場合につ
いて予め定めた規定値と比較して、移動物体が人物であ
るか否かの判定を行う。その結果、人物であると判定さ
れた場合には発報を行う。また、表示部908は撮影画
像を表示したり、設定メニューや発報の際における警告
表示を行う。The characteristic amount calculation unit 906 calculates the object region and calculates the characteristic amount, for example, the area ratio, the movement amount, the movement speed, the aspect ratio,
Whether or not the moving object is a person is calculated by calculating the center of gravity, the height, etc., and comparing the calculated feature amounts with the object determination unit 907 when the apparatus considers the person as a person. Is determined. As a result, if it is determined that the person is a person, a warning is issued. The display unit 908 also displays a captured image, and displays a warning in the setting menu and at the time of reporting.
【0005】次に、図10に示すフローチャートの手順
に従い、特徴量算出部906と物体判定部907におけ
る従来の人物追跡処理について説明する。まず、ステッ
プS1001において物体抽出部904により物体を抽
出した後、ステップS1002において、特徴量算出部
906により物体領域の特徴量、例えば面積比、縦横
比、移動量、移動速度などを算出する。次に、ステップ
S1003において、物体判定部907は算出した特徴
量と装置が人物とみなすとした場合の規定値とを比較す
る。そして、特徴量のすべてが規定値を満足しない限り
追跡処理を中止する。Next, a conventional person tracking process in the feature amount calculation unit 906 and the object determination unit 907 will be described according to the procedure of the flowchart shown in FIG. First, in step S1001, the object is extracted by the object extracting unit 904, and then in step S1002, the feature amount calculating unit 906 calculates the feature amount of the object region, for example, the area ratio, the aspect ratio, the moving amount, and the moving speed. Next, in step S1003, the object determination unit 907 compares the calculated feature amount with a specified value when the device considers it to be a person. Then, the tracking process is stopped unless all the feature quantities satisfy the specified values.
【0006】ステップS1004では、物体領域の重心
が検知領域内にあるか否かを判定する。その結果、重心
が検知領域外にあれば追跡処理を中止する。次に、ステ
ップS1005において、フレームの物体領域に縦横各
方向それぞれに数〜数十画素を加えた領域を探索範囲と
して、前に処理したフレームと現在のフレームの探索範
囲が重なっているかどうかを判定する。そして、重なっ
ていない場合には追跡処理を中止する。ステップS10
06では、入力した現在の追跡物体が前に処理したフレ
ームにおける物体と同一かどうかを判定し、同一でない
と判定した場合は追跡処理を中止する。In step S1004, it is determined whether the center of gravity of the object area is within the detection area. As a result, if the center of gravity is outside the detection area, the tracking process is stopped. Next, in step S1005, it is determined whether or not the search range of the previously processed frame and the current frame overlap, with the search range being a region obtained by adding several to several tens of pixels in each of the vertical and horizontal directions to the object region of the frame. To do. If they do not overlap, the tracking process is stopped. Step S10
At 06, it is determined whether or not the input current tracking object is the same as the object in the previously processed frame, and if it is determined that they are not the same, the tracking processing is stopped.
【0007】上記判定の結果、物体と同一であれば、ス
テップS1007において、追跡処理回数を規定値と比
較し、規定値に達していればステップS1008におい
て発報を行う。一方、追跡処理回数が規定値に達してい
ない場合はステップS1009において、追跡処理回数
を加算して、ステップS1001に戻る。If the result of the above determination is that it is the same as the object, the number of times of tracking processing is compared with a specified value in step S1007, and if it has reached the specified value, an alarm is issued in step S1008. On the other hand, if the number of tracking processes has not reached the specified value, the number of tracking processes is added in step S1009, and the process returns to step S1001.
【0008】[0008]
【発明が解決しようとする課題】しかしながら、上記従
来技術においては、抽出された物体が人物らしいと判断
されても、重心が検知領域の外にあった場合は直ちに追
跡処理を中止するようにしているので、物体が移動して
検知領域内に入った場合、その時点から追跡処理を開始
して追跡処理回数を計数することになる。したがって、
発報が遅れるという問題点があった。これに対し、追跡
を行わずに重心が検知領域に入ったときに直ちに発報す
るようにすると、人物以外の移動物体についても発報し
てしまう確率が高くなるという問題点が生じる。However, in the above prior art, even if the extracted object is determined to be a person, the tracking process is immediately stopped when the center of gravity is outside the detection area. Therefore, when the object moves and enters the detection area, the tracking process is started from that point and the number of tracking processes is counted. Therefore,
There was a problem that the reporting was delayed. On the other hand, if the center of gravity enters the detection area without being tracked and the alarm is issued immediately, there is a problem in that the probability of alarming even a moving object other than a person is increased.
【0009】また、複数の人物を接近して抽出した場
合、物体に外接する抽出枠が重なって結合されることに
より大きな抽出枠の物体と認識し、その結果人物と判断
できなかったり、あるいは検知領域内の人物と検知領域
外の人物を画面上において近くに撮影した場合、それぞ
れが結合して大きな物体となり、その結果重心が検知領
域外になって発報を行わないという問題点があった。Further, when a plurality of persons are extracted close to each other, the extraction frames circumscribing the object are overlapped and combined to recognize the object as a large extraction frame, and as a result, it cannot be determined as a person or is detected. When a person inside the area and a person outside the detection area are photographed close to each other on the screen, they are combined into a large object, and as a result, the center of gravity is outside the detection area, and there is a problem that no alert is issued. .
【0010】さらに、入力画像データの追跡処理間隔は
一定としているので、撮像装置から遠方にいる人物や動
きが遅い人物については動きを検出しづらく、人物の抽
出及び追跡処理が困難であるという問題点があった。Furthermore, since the tracking processing interval of the input image data is constant, it is difficult to detect the movement of a person who is far from the image pickup apparatus or a person whose movement is slow, and it is difficult to extract and track the person. There was a point.
【0011】本発明は、上記事情に鑑みてなされたもの
で、検知領域に侵入した物体に対し、それが人物らしい
と判断された場合には、早く、確実に発報することが可
能な動き追跡装置及びその人物追跡方法を提供すること
を目的とする。The present invention has been made in view of the above circumstances, and when an object that has entered the detection region is determined to be a person, a motion that can promptly and reliably issue an alarm is issued. A tracking device and a person tracking method thereof are provided.
【0012】[0012]
【課題を解決するための手段】本発明は、撮像した画像
を処理して物体を抽出し、前記物体を複数画像において
追跡処理した結果、人物であると判定された場合に発報
を行う動き追跡装置であって、前記抽出した物体の特徴
量から前記物体が人物であるかの判定を行う人物判定手
段と、前記物体の重心が所定の検知領域の内にあるかど
うかの判定を行う重心位置判定手段と、前記物体が前回
に追跡した物体と同一であるかの判定を行う物体一致判
定手段と、前記物体の追跡処理回数の判定を行う追跡回
数判定手段とを含み、前記抽出した物体の重心が所定の
検知領域の外であっても、前記物体が人物であり、かつ
前回に追跡した物体と同一である場合には追跡処理を継
続する物体判定手段を備えたことを特徴とする。According to the present invention, a motion for issuing an alarm when a person is determined as a result of processing an imaged image to extract an object and tracking the object in a plurality of images A tracking device, a person determining means for determining whether the object is a person from the extracted feature amount of the object, and a center of gravity for determining whether the center of gravity of the object is within a predetermined detection area. The extracted object includes position determining means, object coincidence determining means for determining whether the object is the same as the previously tracked object, and tracking number determining means for determining the number of times of tracking processing of the object. When the object is a person and is the same as the previously tracked object even if the center of gravity of the object is outside the predetermined detection area, the object determination means for continuing the tracking process is provided. .
【0013】上記構成では、検知領域外で人物を抽出し
た場合においても同一人物の場合は追跡処理を継続する
ことにより、検知領域に入った人物に対して、早く確実
に発報を行うことが可能になる。In the above configuration, even if a person is extracted outside the detection area, the tracking processing is continued for the same person, so that the person entering the detection area can be quickly and surely notified. It will be possible.
【0014】また、前記物体判定手段は、前記抽出した
物体の重心が前記検知領域の内にあり、前記物体が人物
であり、前回の追跡処理で追跡した物体が前記検知領域
の外にあった場合でその物体と今回抽出した物体とが同
一である場合には前記検知領域外での追跡処理も含めた
追跡処理回数が所定回数以上となったときに、発報を行
うことを特徴とする。Further, in the object determining means, the center of gravity of the extracted object is within the detection area, the object is a person, and the object tracked by the previous tracking processing is outside the detection area. In this case, when the object and the object extracted this time are the same, the alarm is issued when the number of tracking processes including the tracking process outside the detection area reaches a predetermined number or more. .
【0015】上記構成では、検知領域外で人物を抽出し
た場合においても同一人物の場合は追跡処理を継続し、
追跡処理回数を加算することにより、検知領域に入った
人物に対して、直ちに又は少ない追跡処理回数の後に、
誤りなく確実に発報を行うことが可能になる。In the above configuration, even when a person is extracted outside the detection area, the tracking process is continued for the same person,
By adding the number of tracking processes, for a person who enters the detection area, immediately or after a small number of tracking processes,
It is possible to issue a report without error.
【0016】また、前記抽出した物体に外接する物体抽
出枠の面積を算出する面積算出手段と、前記物体の形状
特徴から前記物体抽出枠の内にある人物を計数する計数
手段と、前記物体抽出枠の面積と前記物体抽出枠内の人
数とに基づいて前記物体抽出枠内の各物体の面積比と縦
横比の少なくとも一方を算出する比算出手段とを含む特
徴量算出手段を備えたことを特徴とする。Area calculating means for calculating the area of an object extraction frame circumscribing the extracted object, counting means for counting the number of persons in the object extraction frame from the shape features of the object, and the object extraction A feature amount calculating means including a ratio calculating means for calculating at least one of an area ratio and an aspect ratio of each object in the object extraction frame based on the area of the frame and the number of persons in the object extraction frame, Characterize.
【0017】上記構成によれば、接近した複数の人物を
抽出した場合においても、各人物に関する面積比や縦横
比などの特徴量を正確に算出可能であり、検知領域内の
人物に対して確実に発報を行うことが可能となる。According to the above configuration, even when a plurality of persons who are close to each other are extracted, it is possible to accurately calculate the feature amount such as the area ratio and the aspect ratio of each person, and it is possible to reliably calculate the person in the detection area. It is possible to issue a report to.
【0018】また、前記抽出した物体の撮像手段からの
距離又は移動速度もしくは移動距離に応じて処理間隔を
設定する処理間隔設定手段を備えたことを特徴とする。Further, it is characterized by further comprising processing interval setting means for setting a processing interval according to a distance from the image pickup means of the extracted object or a moving speed or a moving distance.
【0019】上記構成によれば、抽出した物体の撮像手
段からの距離又は移動速度もしくは移動距離に応じて、
適切な処理間隔で追跡処理を行うことが可能であり、追
跡処理の精度向上を図れる。According to the above construction, according to the distance or moving speed or moving distance of the extracted object from the image pickup means,
The tracking process can be performed at an appropriate processing interval, and the accuracy of the tracking process can be improved.
【0020】また、前記物体が存在しない場合の背景画
像をそれぞれ別に格納する複数の背景画像記憶手段を備
え、前記物体判定手段は、前記抽出した物体の撮像手段
からの距離又は移動速度もしくは移動距離に応じて、そ
れぞれ別個の背景画像記憶手段に格納された背景画像を
用いて異なる処理間隔で追跡処理を行うことを特徴とす
る。Further, the apparatus is provided with a plurality of background image storage means for respectively storing background images when the object does not exist, and the object determining means is a distance or a moving speed or a moving distance of the extracted object from the image pickup means. Accordingly, the tracking processing is performed at different processing intervals by using the background images stored in the separate background image storage means.
【0021】上記構成によれば、抽出した物体の撮像手
段からの距離又は移動速度もしくは移動距離に応じて、
これらの距離等が異なる物体についてそれぞれ適切な処
理間隔で並行して追跡処理を行うことが可能であり、追
跡処理の精度向上を図れる。According to the above construction, according to the distance or moving speed or moving distance of the extracted object from the image pickup means,
It is possible to perform tracking processing in parallel at appropriate processing intervals for objects having different distances, etc., and it is possible to improve the accuracy of tracking processing.
【0022】本発明は、撮像した画像を処理して物体を
抽出し、前記物体を複数画像において追跡処理した結
果、人物であると判定された場合に発報を行う動き追跡
装置の人物追跡方法であって、前記抽出した物体の特徴
量からその物体が人物であると判定し、かつこの物体が
前回に追跡した物体と同一であると判定した場合には、
前記物体の重心が所定の検知領域の内にあるかどうかを
判定して検知領域の外である場合であっても、追跡処理
を継続する物体判定工程を有することを特徴とする。According to the present invention, a person tracking method of a motion tracking device for issuing an alarm when a person is judged as a result of processing a captured image to extract an object and tracking the object in a plurality of images. In the case where it is determined that the object is a person from the feature amount of the extracted object, and it is determined that this object is the same as the previously tracked object,
It is characterized by including an object determining step of continuing the tracking process even when the center of gravity of the object is outside the detection region by determining whether the center of gravity is within the predetermined detection region.
【0023】上記手順においては、検知領域外で人物を
抽出した場合においても同一人物の場合は追跡処理を継
続することにより、検知領域に入った人物に対して、早
く確実に発報を行うことが可能になる。In the above procedure, even if a person is extracted outside the detection area, the tracking processing is continued for the same person, so that the person entering the detection area can be quickly and surely notified. Will be possible.
【0024】また、前記物体判定工程において、前記抽
出した物体の重心が前記検知領域の内にあり、前記物体
が人物であり、前回の追跡処理で追跡した物体が前記検
知領域の外にあった場合でその物体と今回抽出した物体
とが同一である場合には前記検知領域外での追跡処理も
含めた追跡処理回数が所定回数以上となったときに、発
報を行うことを特徴とする。In the object determining step, the center of gravity of the extracted object is within the detection area, the object is a person, and the object tracked by the previous tracking process is outside the detection area. In this case, when the object and the object extracted this time are the same, the alarm is issued when the number of tracking processes including the tracking process outside the detection area reaches a predetermined number or more. .
【0025】上記手順においては、検知領域外で人物を
抽出した場合においても同一人物の場合は追跡処理を継
続し、追跡処理回数を加算することにより、検知領域に
入った人物に対して、直ちに又は少ない追跡処理回数の
後に、誤りなく確実に発報を行うことが可能になる。In the above procedure, even if a person is extracted outside the detection area, if the person is the same, the tracking processing is continued, and the number of times of the tracking processing is added, so that the person who enters the detection area is immediately notified. Alternatively, after a small number of times of tracking processing, it is possible to issue an alarm without error.
【0026】また、前記抽出した物体に外接する物体抽
出枠の面積を算出し、前記物体の形状特徴から前記物体
抽出枠の内にある人物を計数し、前記物体抽出枠の面積
と前記物体抽出枠内の人数とに基づいて前記物体抽出枠
内の各物体の面積比と縦横比の少なくとも一方を算出す
る特徴量算出工程を有することを特徴とする。The area of the object extraction frame circumscribing the extracted object is calculated, the number of persons in the object extraction frame is counted from the shape feature of the object, and the area of the object extraction frame and the object extraction are calculated. It is characterized by further comprising a feature amount calculating step of calculating at least one of an area ratio and an aspect ratio of each object in the object extraction frame based on the number of persons in the frame.
【0027】上記手順によれば、接近した複数の人物を
抽出した場合においても、各人物に関する面積比や縦横
比などの特徴量を正確に算出可能であり、検知領域内の
人物に対して確実に発報を行うことが可能となる。According to the above procedure, even when a plurality of persons who are close to each other are extracted, it is possible to accurately calculate the feature amount such as the area ratio and the aspect ratio for each person, and it is possible to reliably calculate the person in the detection area. It is possible to issue a report to.
【0028】また、前記抽出した物体の撮像手段からの
距離又は移動速度もしくは移動距離に応じて処理間隔を
設定する処理間隔設定工程を有することを特徴とする。Further, the method is characterized by further comprising a processing interval setting step of setting a processing interval according to a distance or a moving speed or a moving distance of the extracted object from the image pickup means.
【0029】上記手順によれば、抽出した物体の撮像手
段からの距離又は移動速度もしくは移動距離に応じて、
適切な処理間隔で追跡処理を行うことが可能であり、追
跡処理の精度向上を図れる。According to the above procedure, according to the distance or the moving speed or the moving distance of the extracted object from the image pickup means,
The tracking process can be performed at an appropriate processing interval, and the accuracy of the tracking process can be improved.
【0030】また、前記物体が存在しない場合の背景画
像をそれぞれ別に格納する背景画像記憶工程を有し、前
記物体判定工程において、前記抽出した物体の撮像手段
からの距離又は移動速度もしくは移動距離に応じて、そ
れぞれ別個に格納された背景画像を用いて異なる処理間
隔で追跡処理を行うことを特徴とする。Further, there is a background image storing step for separately storing a background image when the object does not exist, and in the object determining step, a distance or a moving speed or a moving distance of the extracted object from the image pickup means is set. Accordingly, the tracking processing is performed at different processing intervals using the background images stored separately.
【0031】上記手順によれば、抽出した物体の撮像手
段からの距離又は移動速度もしくは移動距離に応じて、
これらの距離等が異なる物体についてそれぞれ適切な処
理間隔で並行して追跡処理を行うことが可能であり、追
跡処理の精度向上を図れる。According to the above procedure, according to the distance or moving speed or moving distance of the extracted object from the image pickup means,
It is possible to perform tracking processing in parallel at appropriate processing intervals for objects having different distances, etc., and it is possible to improve the accuracy of tracking processing.
【0032】[0032]
【発明の実施の形態】以下、図面を参照して本発明の実
施の形態を説明する。
[第1実施形態]図1は本発明の第1実施形態に係る動
き追跡装置の機能的構成を示すブロック図である。本実
施形態の動き追跡装置は、撮像装置101、入力部10
2、入力画像記憶部103、形状特徴抽出部104、物
体抽出部105、背景画像記憶部106、特徴量算出部
107、物体判定部108、表示部109を有して構成
される。BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described below with reference to the drawings. [First Embodiment] FIG. 1 is a block diagram showing the functional arrangement of a motion tracking device according to the first embodiment of the present invention. The motion tracking device according to the present embodiment includes an imaging device 101 and an input unit 10.
2, an input image storage unit 103, a shape feature extraction unit 104, an object extraction unit 105, a background image storage unit 106, a feature amount calculation unit 107, an object determination unit 108, a display unit 109.
【0033】テレビカメラなどの撮像装置101により
撮影された映像信号は、入力部102において、フィル
タ処理により高域成分が除去された後にA/D変換さ
れ、所定のフレーム数ごとの間隔で入力画像記憶部10
3に画像データとして格納される。A video signal photographed by an image pickup device 101 such as a television camera is A / D-converted after a high frequency component is removed by a filtering process in an input unit 102, and an input image is obtained at intervals of a predetermined number of frames. Storage unit 10
3 is stored as image data.
【0034】形状特徴抽出部104は、入力画像記憶部
103から読み出した画像データをフィルタ処理してエ
ッジ情報を抽出する。物体抽出部105は、予め背景画
像記憶部106に格納されている移動物体が存在しない
場合の背景画像データや、数フレーム前の画像データ
と、入力画像記憶部103に格納された現在の画像デー
タとを比較して差分データを算出し、装置が有する特定
のしきい値を基準にして2値化処理を行い、入力画像デ
ータ中の輝度変化領域を抽出する。さらに、2値化した
データに対してノイズ除去のための膨張・収縮処理を行
った後、ラベリング処理を行って隣接する画素には同じ
ラベルを与えることにより、個々の連結成分に分離して
物体領域を抽出する。The shape feature extraction unit 104 filters the image data read from the input image storage unit 103 to extract edge information. The object extraction unit 105 stores background image data stored in the background image storage unit 106 in advance when there is no moving object, image data several frames before, and current image data stored in the input image storage unit 103. Are compared to calculate difference data, and binarization processing is performed based on a specific threshold value of the apparatus to extract a brightness change region in the input image data. Further, the binarized data is subjected to expansion / contraction processing for noise removal, and then labeling processing is performed to give the same label to adjacent pixels, thereby separating each connected component into an object. Extract a region.
【0035】特徴量算出部107は、形状特徴抽出部1
04により得られた物体領域のエッジ情報から、人物の
頭に相当する円形または楕円形の形状特徴や、頭から肩
にかけての幅の特徴を算出するとともに、物体領域の人
物に対する面積比、縦横比、重心、移動量、移動速度等
の特徴量を所定のフレーム数ごとの間隔で、次のように
して算出する。The feature quantity calculation unit 107 includes a shape feature extraction unit 1
From the edge information of the object region obtained by 04, the circular or elliptical shape feature corresponding to the head of the person and the width feature from the head to the shoulder are calculated, and the area ratio and aspect ratio of the object region to the person are calculated. , The center of gravity, the moving amount, the moving speed, and the like are calculated in the following manner at intervals of a predetermined number of frames.
【0036】(1)面積比は、抽出された物体領域に外
接する枠(以下、物体抽出枠という)の縦及び横の各画
素数A、Bを乗算したこの物体抽出枠に含まれる画素数
S0と、人物としての基準の画素数S1 との比をとり、
面積比=S0 /S1 として算出する。
(2)縦横比は、物体抽出枠の縦及び横の各画素数A、
Bから、縦横比=A/Bとして算出する。
(3)重心は、抽出された物体領域の直交座標から平均
値を算出することにより得られる。
(4)移動量は、追跡処理開始時点における位置から最
も離れた位置までの、重心が移動した距離を算出する。
(5)移動速度は、時間tにおける重心の座標を(X0
,Y0 )とし、処理間隔Δtにおいて移動した重心の
座標を(X1 ,Y1 )としたとき、
移動速度=|(X1 ,Y1 )−(X0 ,Y0 )|/Δt
により算出する。(1) The area ratio is the number of pixels contained in the object extraction frame obtained by multiplying the number of vertical and horizontal pixels A and B of a frame circumscribing the extracted object region (hereinafter referred to as the object extraction frame). Taking the ratio of S0 and the reference pixel number S1 as a person,
The area ratio is calculated as S0 / S1. (2) The aspect ratio is the number of pixels A in the vertical and horizontal directions of the object extraction frame,
From B, the aspect ratio is calculated as A / B. (3) The center of gravity is obtained by calculating an average value from the orthogonal coordinates of the extracted object area. (4) For the movement amount, the distance that the center of gravity has moved from the position at the start of the tracking process to the farthest position is calculated. (5) For the moving speed, the coordinate of the center of gravity at time t is (X0
, Y0) and the coordinates of the center of gravity moved in the processing interval Δt are (X1, Y1): moving speed = | (X1, Y1)-(X0, Y0) | / Δt
Calculate by
【0037】物体判定部108は、特徴量算出部107
により算出された各特徴量を、移動物体を人物とみなす
場合に相当する予め定めた規定値として装置が有する値
と比較し、移動物体が人物であるか否かの判定を行う。
そして、人物であると判定された場合は発報を行う。こ
の発報としては、当該装置における音声や表示による報
知、あるいは上位のシステムや他の装置に対するアラー
ム通知などを行う。また、表示部109は、撮像した検
知領域を表示したり、人物と判定した領域に枠を表示し
たり、発報の際の警告表示や設定メニューの表示等を行
う。The object determination unit 108 is a feature quantity calculation unit 107.
Each of the feature amounts calculated by the above is compared with a value that the device has as a predetermined specified value corresponding to the case where the moving object is regarded as a person, and it is determined whether the moving object is a person.
If it is determined that the person is a person, a warning is issued. As the notification, a notification is given by voice or display in the device, or an alarm notification is given to a host system or another device. In addition, the display unit 109 displays an imaged detection area, displays a frame in an area determined to be a person, displays a warning when a report is issued, displays a setting menu, and the like.
【0038】本実施形態では、物体判定部108におい
て、検出物体の重心が検知領域外であった場合にも、特
徴量が人物に相当する規定値を満足しかつ前フレームに
おける探索範囲と現在のフレームにおける探索範囲とが
重なっていた場合は追跡処理を行い、現在の追跡回数に
1を加算する。一方、探索範囲が重なっていない場合に
は追跡を中止する。そして、追跡回数が装置が有する規
定値以上になった場合に、移動物体が人物とみなされ、
重心が検知領域内にあり、かつ検知領域外で追跡中の物
体と同一物体であると判断したときには直ちに発報す
る。In the present embodiment, even when the center of gravity of the detected object is outside the detection area, the object determination unit 108 satisfies the specified value corresponding to a person, and the feature amount satisfies the search range in the previous frame and the current value. If the search range in the frame overlaps, tracking processing is performed, and 1 is added to the current number of times of tracking. On the other hand, if the search ranges do not overlap, tracking is stopped. Then, when the number of times of tracking is equal to or more than a specified value that the device has, the moving object is regarded as a person,
When it is determined that the center of gravity is within the detection area and is the same object as the object being tracked outside the detection area, an alarm is issued immediately.
【0039】この場合、形状特徴抽出部104におい
て、検知領域外で追跡中の移動物体の高さ、頭から肩に
かけての形状、縦横比、移動方向等の特徴量や色情報に
より、検知領域外で追跡中の人物と検知領域内での人物
とが同一人物であるかを判断する。In this case, in the shape feature extraction unit 104, the height of the moving object being tracked outside the detection area, the shape from the head to the shoulder, the aspect ratio, the moving direction, and other feature quantities and color information are used to determine the outside of the detection area. Determines whether the person being tracked and the person in the detection area are the same person.
【0040】次に、本実施形態の動き追跡装置による人
物追跡処理の手順を、図2及び図3に示すフローチャー
トに従って詳細に説明する。Next, the procedure of the person tracking process by the motion tracking device of this embodiment will be described in detail with reference to the flowcharts shown in FIGS.
【0041】図2は人物追跡処理手順の第1例を示した
ものである。まず、ステップS201の物体抽出工程と
ステップS202の特徴量算出工程において、前記した
ようにそれぞれ物体領域の抽出と面積比、縦横比、重
心、移動量、移動速度などの特徴量を算出する。次い
で、ステップS203の特徴量判定工程において、算出
した特徴量と、装置が予め有する人物とみなす場合に相
当する規定値とを比較する。そして、すべての規定値を
満足した場合は、移動物体は人物であると判断する。も
し、規定値を満足しない特徴量が1つでもあった場合
は、移動物体は人物ではないと判断して追跡処理を中止
する。FIG. 2 shows a first example of the person tracking processing procedure. First, in the object extraction process of step S201 and the feature amount calculation process of step S202, the feature regions such as the area ratio, the aspect ratio, the center of gravity, the moving amount, and the moving speed are calculated as described above. Next, in the characteristic amount determination step of step S203, the calculated characteristic amount is compared with a specified value that corresponds to the case where the device is considered to be a person in advance. Then, when all the prescribed values are satisfied, it is determined that the moving object is a person. If there is even one feature value that does not satisfy the specified value, it is determined that the moving object is not a person, and the tracking process is stopped.
【0042】次に、ステップS204の重心位置判定工
程では、ステップS202の特徴量算出工程において算
出した重心が、検知領域内に入っているか否かを判定す
る。そして、重心が検知領域内にあった場合は、ステッ
プS205の第1探索範囲判定工程に進み、フレームの
物体領域に縦横各方向それぞれに数〜数十画素を加えた
領域を探索範囲として、現在のフレームにおける探索範
囲が前に処理したフレームで抽出した移動物体の探索範
囲と重なっているかどうかを判定する。Next, in the center-of-gravity position determination step of step S204, it is determined whether or not the center of gravity calculated in the characteristic amount calculation step of step S202 is within the detection area. If the center of gravity is within the detection region, the process proceeds to the first search range determination step of step S205, and the region in which several to several tens of pixels are added to the object region of the frame in each of the vertical and horizontal directions is set as the search range, and It is determined whether or not the search range in the frame is overlapping with the search range of the moving object extracted in the previously processed frame.
【0043】そして、探索範囲が重なっていた場合には
追跡成立とみなし、ステップS206の追跡物体確認工
程において、現在追跡処理中の移動物体が前に処理した
フレームにおいて追跡処理した移動物体と同一であるか
判定する。判定の結果、移動物体が同一であった場合
は、ステップS207の第1追跡回数判定工程におい
て、追跡処理回数を予め定めた規定値と比較し、規定値
に達していたらステップS208の発報工程において発
報を行う。追跡処理回数が規定値に達していない場合
は、ステップS209の追跡回数計数工程において追跡
回数の計数値に1を加算し、ステップS201に戻って
次の追跡処理フレームにおける物体抽出工程に進む。If the search ranges overlap, it is considered that tracking has been established, and in the tracking object confirmation step of step S206, the moving object currently being tracked is the same as the moving object tracked in the previously processed frame. Determine if there is. If the result of determination is that the moving objects are the same, in the first tracking number determination step of step S207, the tracking processing number is compared with a predetermined prescribed value, and if it has reached the prescribed value, the reporting step of step S208 Is issued in. If the number of tracking processes has not reached the specified value, 1 is added to the count value of the number of times of tracking in the tracking number counting process of step S209, and the process returns to step S201 to proceed to the object extracting process in the next tracking processing frame.
【0044】一方、ステップS204の重心位置判定工
程において、重心が検知領域内になかった場合は、ステ
ップS210の第2探索範囲判定工程に進み、現在のフ
レームにおける移動物体の探索範囲が前のフレームで抽
出した探索範囲と重なっているかどうかを判定する。判
定の結果、探索範囲が重なっていた場合には追跡成立と
みなして、ステップS211の第2追跡回数判定工程に
おいて、追跡処理回数を予め定めた規定値と比較する。On the other hand, in the center-of-gravity position determination step of step S204, when the center of gravity is not within the detection area, the process proceeds to the second search range determination step of step S210, and the search range of the moving object in the current frame is the previous frame. It is determined whether or not it overlaps with the search range extracted in. If the result of determination is that the search ranges overlap, it is considered that tracking has been established, and in the second tracking number determination step of step S211, the number of tracking processes is compared with a predetermined specified value.
【0045】そして、追跡処理回数が予め定めた規定値
に達していた場合には、追跡物体は人物であると判断す
るが、検知領域外にあるので発報は行わず、さらに追跡
処理を継続すべくステップS201の物体抽出工程に戻
る。追跡処理回数が規定値に達していない場合は、ステ
ップS209の追跡回数計数工程において追跡回数の計
数値に1を加算してステップS201の物体抽出工程に
戻る。When the number of times of tracking processing has reached a predetermined specified value, it is judged that the tracking object is a person, but since it is outside the detection area, no alarm is issued and the tracking processing is continued. In order to do so, the process returns to the object extracting step of step S201. If the number of tracking processes has not reached the specified value, 1 is added to the count value of the number of tracking in the tracking number counting process of step S209, and the process returns to the object extracting process of step S201.
【0046】図3は人物追跡処理手順の第2例を示した
ものである。なお、図2と同じ工程については同一符号
を付している。この第2例では、ステップS203の特
徴量判定工程において物体が人物であると判断した場合
は、次にステップS205の探索範囲判定工程におい
て、現在のフレームにおける探索範囲が前のフレームで
抽出した移動物体の探索範囲と重なっているかどうかを
判定する。そして、探索範囲が重なっていた場合にはス
テップS207の追跡回数判定工程において、追跡処理
回数を予め定めた規定値と比較する。FIG. 3 shows a second example of the person tracking processing procedure. The same steps as those in FIG. 2 are designated by the same reference numerals. In this second example, when it is determined that the object is a person in the feature amount determination step of step S203, the search range in the current frame is extracted in the previous frame in the search range determination step of step S205. It is determined whether or not it overlaps with the search range of the object. If the search ranges overlap, the number of tracking processes is compared with a predetermined value in the tracking number determination step of step S207.
【0047】ここで、追跡処理回数が規定値に達してい
たらステップS204の重心位置判定工程において、重
心が検知領域内に入っているか否かを判定する。判定の
結果、重心が検知領域外であれば、発報を行わない。一
方、重心が検知領域内に入っている場合は、ステップS
206の追跡物体確認工程において、現在追跡処理中の
移動物体が前フレームで追跡処理していた移動物体と同
一であるか判定し、同一物体であった場合はステップS
208の発報工程において発報を行う。If the number of tracking processes has reached the specified value, it is determined in the barycentric position determining step of step S204 whether or not the barycenter is within the detection area. If the result of determination is that the center of gravity is outside the detection area, no alarm is issued. On the other hand, if the center of gravity is within the detection area, step S
In the tracking object confirmation step of 206, it is determined whether the moving object currently being tracked is the same as the moving object being tracked in the previous frame, and if it is the same object, step S
A warning is issued in the warning step 208.
【0048】上述したように、本実施形態では、検知領
域外であっても移動物体の特徴量が人物としての規定値
の範囲内にある場合には追跡処理を行って追跡回数に1
を加算していき、移動物体の重心が検知領域に入った時
点で、追跡回数が規定値より大きくかつ検知領域外で検
出していた移動物体と同一の移動物体(人物)であれ
ば、直ちに発報するようにしている。これにより、人物
が検知領域に入ってから発報までの時間を短くすること
ができる。さらに、短時間検知領域に侵入した場合でも
発報することが可能となる。また、仮に検知領域外で追
跡していた移動物体と検知領域に入ってから検出した移
動物体とが異なる場合においては、検知領域に入った後
の移動物体について追跡を行い、その結果移動物体が人
物でありかつ追跡回数が規定値以上となった場合に発報
することにより、未検知や誤発報を防止できる。As described above, in the present embodiment, if the feature amount of the moving object is within the range of the specified value as a person even outside the detection area, the tracking process is performed and the tracking count is set to 1
When the center of gravity of the moving object enters the detection area, if the number of times of tracking is greater than the specified value and the same moving object (person) is detected outside the detection area, immediately I am trying to report it. As a result, it is possible to shorten the time from when the person enters the detection area until the notification is issued. Furthermore, it is possible to issue a warning even if the user has entered the detection area for a short time. If the moving object that was tracked outside the detection area is different from the moving object that was detected after entering the detection area, the moving object after entering the detection area is tracked, and as a result, the moving object is When a person is a person and the number of times of pursuit is equal to or more than a specified value, the notification is issued, so that undetected or erroneous notification can be prevented.
【0049】したがって、検知領域外で人物を抽出した
場合においても追跡処理を継続することが可能となり、
かつ追跡処理回数を継続して加算できるので、検知領域
に入った同一人物に対して、直ちに又は少ない追跡処理
回数の後に、誤りなく確実に発報を行うことが可能にな
る。Therefore, it becomes possible to continue the tracking process even when a person is extracted outside the detection area.
In addition, since the number of tracking processes can be continuously added, it is possible to reliably and accurately issue an alarm to the same person who has entered the detection area immediately or after a small number of tracking processes.
【0050】[第2実施形態]図4は本発明の第2実施
形態に係る動き追跡装置の機能的構成を示すブロック図
である。第2実施形態は、図1に示した第1実施形態と
は装置の一部を構成する特徴量算出部の機能が相違し、
複数の物体が接近して抽出された場合の特徴量算出を可
能としたものである。なお、図1と同一の構成要素につ
いては同一の符号を付して説明を省略する。[Second Embodiment] FIG. 4 is a block diagram showing the functional arrangement of a motion tracking device according to the second embodiment of the present invention. The second embodiment is different from the first embodiment shown in FIG. 1 in the function of the feature amount calculation unit forming a part of the apparatus,
The feature amount can be calculated when a plurality of objects are extracted close to each other. The same components as those in FIG. 1 are designated by the same reference numerals and the description thereof will be omitted.
【0051】特徴量算出部407は、形状特徴抽出部1
04により得られた物体領域のエッジ情報から、円形ま
たは楕円形である人物の頭とそれに続く肩までの形状特
徴、頭の幅とそれより広い肩の幅等の形状特徴、高さの
値などにより、物体抽出枠内の人物の数を推定する。こ
の場合、各要素の画素数などから形状特徴を求める。そ
して、人物が複数と推定された場合は、物体抽出枠の面
積を人物数で除算することによって移動物体の面積比を
算出する。これにより、正確な面積比の算出が可能とな
る。The feature quantity calculation unit 407 includes a shape feature extraction unit 1
From the edge information of the object area obtained by 04, the shape feature of the person's head which is circular or elliptical and the shoulders following it, the shape feature such as the width of the head and the shoulder width wider than that, the height value, etc. By this, the number of persons in the object extraction frame is estimated. In this case, the shape feature is obtained from the number of pixels of each element. Then, when it is estimated that there are a plurality of persons, the area ratio of the moving object is calculated by dividing the area of the object extraction frame by the number of persons. As a result, it becomes possible to accurately calculate the area ratio.
【0052】次に、本実施形態の動き追跡装置による人
物追跡処理の手順を図5に示すフローチャートに従って
詳細に説明する。図5は上述した特徴量の1つである面
積比の算出手順を示したものである。Next, the procedure of the person tracking process by the motion tracking device of this embodiment will be described in detail with reference to the flowchart shown in FIG. FIG. 5 shows a procedure for calculating the area ratio, which is one of the above-described feature quantities.
【0053】まず、ステップS501の差分データ抽出
工程において、入力画像記憶部103に格納された現在
の画像データと、背景画像記憶部106に格納されてい
る移動物体が存在しない場合の背景画像データや、数フ
レーム前の画像データとを比較して差分データを算出す
る。次に、ステップS502の二値化工程において、算
出された差分データに対し装置が有する特定のしきい値
を基準にして二値化処理を行い、入力画像データ中の輝
度変化領域を抽出する。ステップS503のラベリング
工程では、得られた二値データの連結成分を領域ごとに
分割して隣接する画素が互いにレベル1である領域に固
有のラベルを与える。さらにステップS504のラベリ
ング算出工程において、ラベリング処理により確定した
各ラベルの画素数と重心位置とを算出する。First, in the difference data extracting step of step S501, the current image data stored in the input image storage unit 103 and the background image data stored when the moving object stored in the background image storage unit 106 do not exist, , And the difference data is calculated by comparing the image data of several frames before. Next, in the binarization process of step S502, binarization processing is performed on the calculated difference data with reference to a specific threshold value that the device has, and a brightness change region in the input image data is extracted. In the labeling step of step S503, the connected component of the obtained binary data is divided for each area, and a unique label is given to an area in which adjacent pixels are at level 1. Further, in the labeling calculation step of step S504, the number of pixels and the position of the center of gravity of each label determined by the labeling process are calculated.
【0054】一方、ステップS505のエッジデータ処
理工程においては、入力した画像データをフィルタ処理
することにより物体のエッジを抽出する。また、ステッ
プS506の形状特徴抽出工程では、エッジデータから
円形や楕円形のエッジと下方向へ広がるエッジのそれぞ
れの特徴を抽出する。さらに、ステップS507の人物
計数工程において、上記エッジの特徴データから物体抽
出枠内に含まれる人物を計数する。On the other hand, in the edge data processing step of step S505, the edges of the object are extracted by filtering the input image data. In the shape feature extraction step of step S506, the features of the circular or elliptical edge and the edge extending downward are extracted from the edge data. Further, in the person counting step of step S507, the persons included in the object extraction frame are counted from the edge feature data.
【0055】そして、ステップS508の面積比・縦横
比算出工程において、上記のようにして得られたラベル
の画素数を人物数で除算することにより、面積比を算出
する。ここで、除算する数は次のように決定する。Then, in the area ratio / aspect ratio calculating step of step S508, the area ratio is calculated by dividing the number of pixels of the label obtained as described above by the number of persons. Here, the number to be divided is determined as follows.
【0056】複数の人物が接近した場合には、それら複
数の人物の重心位置により、
(1)重心の縦方向のズレが縦の画素数の1/4以下
で、かつ横方向のズレが横の画素数以上の場合は、面積
は結合した物体抽出枠の面積の1/2とする。
(2)重心の縦方向のズレが縦の画素数の1/4〜1/
2で、かつ横方向のズレが横の画素数以上の場合は、面
積は結合した物体抽出枠の面積の1/1.5とする。
(3)重心の縦方向のズレが縦の画素数の1/2以上
で、かつ横方向のズレが横の画素数以上の場合は、面積
は結合した物体抽出枠の面積の1/4とする。When a plurality of persons approach each other, depending on the positions of the centers of gravity of the plurality of persons, (1) the vertical displacement of the center of gravity is 1/4 or less of the number of vertical pixels, and the horizontal displacement is horizontal. When the number of pixels is equal to or more than, the area is ½ of the area of the combined object extraction frame. (2) Vertical shift of center of gravity is 1/4 to 1 / of the number of vertical pixels
If it is 2 and the horizontal shift is equal to or more than the number of horizontal pixels, the area is set to 1 / 1.5 of the area of the combined object extraction frames. (3) When the vertical displacement of the center of gravity is ½ or more of the vertical pixels and the horizontal displacement is the horizontal pixels or more, the area is ¼ of the area of the combined object extraction frames. To do.
【0057】なお、人物が一人の場合においても、得ら
れた差分データやオプティカルフロー(optical flow)
から算出した移動物体の画素数(ラベル数)を抽出領域
の縦方向の画素数で除算した数値を物体抽出枠の横幅と
することにより、縦横比及び面積比をより正確に算出す
ることができる。Even when there is only one person, the obtained difference data and optical flow
The aspect ratio and the area ratio can be calculated more accurately by setting the value obtained by dividing the number of pixels (label number) of the moving object calculated from the number of pixels in the vertical direction of the extraction area as the width of the object extraction frame. .
【0058】上述したように、第2実施形態では、接近
した複数の人物を抽出した場合においても、物体抽出枠
はそれぞれの移動物体の面積として分離可能となるの
で、実際の移動物体の面積により近づけることができ、
複数の人物が結合した大きな物体として検出してしまう
ことを防止できる。よって、人物以外と誤って判断する
ことを回避できるとともに、検知領域内の人物に対して
は確実に発報を行うことが可能となる。As described above, in the second embodiment, even when a plurality of persons approaching each other are extracted, the object extraction frame can be separated as the area of each moving object. Can get closer,
It is possible to prevent a plurality of persons from being detected as a large combined object. Therefore, it is possible to avoid erroneously determining that the person is other than the person, and it is possible to reliably issue the alarm to the person in the detection area.
【0059】[第3実施形態]図6は本発明の第3実施
形態に係る動き追跡装置の機能的構成を示すブロック図
である。第3実施形態は、図4における第2実施形態の
構成に加えて、処理間隔設定部610を備えたものであ
る。なお、図4と同一の構成要素については同一の符号
を付して説明を省略する。[Third Embodiment] FIG. 6 is a block diagram showing the functional arrangement of a motion tracking device according to the third embodiment of the present invention. The third embodiment includes a processing interval setting unit 610 in addition to the configuration of the second embodiment in FIG. The same components as those in FIG. 4 are designated by the same reference numerals and the description thereof will be omitted.
【0060】処理間隔設定部610は、移動物体の撮像
装置からの距離や移動速度に応じて人物追跡処理の間隔
を設定する機能を有し、設定値に応じて入力部102か
ら表示部109に至る一連の追跡処理動作が制御され
る。The processing interval setting unit 610 has a function of setting the interval of person tracking processing according to the distance or moving speed of a moving object from the image pickup device, and the input unit 102 causes the display unit 109 to display the interval according to the set value. A series of trace processing operations are controlled.
【0061】近くは20mから遠くは200m程度離れ
た位置にいる人物を検出・追跡するような動き追跡装置
では、遠方から撮像装置の光軸方向に移動する移動物体
を検出するような場合、遠方においては移動物体の移動
量が少なく、背景差分やフレーム間差分による差分デー
タの抽出やオプティカルフロー推定が難しい場合があ
る。この問題点に対し、入力データを処理する間隔を長
くしたりする方法を採ることが考えられるが、この場
合、撮像装置の近くにいる人物や速度が速い動きに対し
ては、差分データが大きくなりすぎたり探索範囲が大き
くなり、計算量が増えるなどの問題が生じることがあ
る。In a motion tracking device for detecting and tracking a person at a distance of 20 m from near and 200 m at far, when a moving object moving in the optical axis direction of the image pickup device is detected from a distance, In this case, the amount of movement of a moving object is small, and it may be difficult to extract difference data and estimate optical flow based on background difference and inter-frame difference. To solve this problem, it is possible to adopt a method of lengthening the interval for processing the input data, but in this case, the difference data is large for a person near the imaging device or a fast motion. This may cause problems such as excessive calculation, a large search range, and an increase in calculation amount.
【0062】そこで、本実施形態では、背景画像記憶部
106が1系統(1フレーム分)の場合、移動物体が撮
像装置101から遠方にのみ抽出された場合や、速度の
遅い移動物体を抽出した場合は、処理間隔を長く、例え
ば15〜50フレームごとに設定する。一方、移動物体
が抽出された位置が撮像装置101から近い場合や、移
動速度が速い移動物体を抽出した場合は、処理間隔を短
く、例えば4〜12フレームに設定する。これにより、
遠方での移動物体の検出・追跡精度や、速い動きの移動
物体の検出・追跡精度を向上させることが可能となる。
なお、移動物体が撮像装置101から遠くと近くの両方
において抽出された場合は、近くの移動物体に対する処
理に最適な処理間隔を設定する。これにより、近くにい
る人物の追跡処理精度を向上できる。Therefore, in the present embodiment, when the background image storage unit 106 is one system (for one frame), the moving object is extracted only far from the image pickup apparatus 101, or the moving object having a slow speed is extracted. In this case, the processing interval is set long, for example, every 15 to 50 frames. On the other hand, when the position where the moving object is extracted is close to the imaging device 101, or when the moving object having a high moving speed is extracted, the processing interval is set to be short, for example, 4 to 12 frames. This allows
It is possible to improve the accuracy of detection / tracking of a moving object at a distance and the accuracy of detection / tracking of a moving object that moves fast.
When the moving object is extracted both far and near from the image pickup apparatus 101, the optimum processing interval is set for the processing on the moving object near. As a result, it is possible to improve the accuracy of tracking processing for persons who are nearby.
【0063】上述したように、第3実施形態では、移動
物体が撮像装置に対して遠方にいる場合や近くにいる場
合など、撮像装置からの距離や移動速度に応じて人物追
跡処理の間隔を異なる値に設定することにより、人物の
抽出処理や追跡処理の精度を向上させることができる。As described above, in the third embodiment, when the moving object is distant from or near the image pickup apparatus, the person tracking processing interval is set according to the distance from the image pickup apparatus and the moving speed. By setting different values, it is possible to improve the accuracy of person extraction processing and tracking processing.
【0064】[第4実施形態]図7は本発明の第4実施
形態に係る動き追跡装置の機能的構成を示すブロック図
である。第4実施形態は、図6における第3実施形態の
構成に加えて、第2背景画像記憶部706を備えたもの
である。なお、図6と同一の構成要素については同一の
符号を付して説明を省略する。[Fourth Embodiment] FIG. 7 is a block diagram showing the functional arrangement of a motion tracking device according to the fourth embodiment of the present invention. The fourth embodiment is provided with a second background image storage unit 706 in addition to the configuration of the third embodiment in FIG. The same components as those in FIG. 6 are designated by the same reference numerals and the description thereof will be omitted.
【0065】第4実施形態では、1フレームずつ2フレ
ーム分の背景画像記憶部106,706を設けており、
抽出した移動物体の撮像装置101からの距離や、移動
速度に応じて使い分けるようにしている。例えば、移動
物体までの距離が150m以上ある場合や、移動速度が
2km/h以下のように遅い場合には、背景画像記憶部
106を使用し、追跡処理間隔を長く、例えば15〜5
0フレーム間隔に設定して処理する。一方、撮像装置1
01からの距離が150m以下である近くの移動物体を
抽出した場合は、第2背景画像記憶部706を使用し、
4〜12フレーム間隔の短い追跡処理間隔に設定して処
理を行う。これにより、精度の高い差分データの抽出、
オプティカルフローの推定が可能となり、人物の抽出処
理や追跡処理の精度の向上を図れる。In the fourth embodiment, the background image storage units 106 and 706 for two frames are provided for each one frame.
The extracted moving object is used properly according to the distance from the imaging device 101 and the moving speed. For example, when the distance to the moving object is 150 m or more, or when the moving speed is slow such as 2 km / h or less, the background image storage unit 106 is used, and the tracking processing interval is long, for example, 15 to 5.
Set to 0 frame interval and process. On the other hand, the imaging device 1
When a moving object near which the distance from 01 is 150 m or less is extracted, the second background image storage unit 706 is used,
Processing is performed by setting a short tracking processing interval of 4 to 12 frame intervals. This enables highly accurate difference data extraction,
The optical flow can be estimated, and the accuracy of person extraction processing and tracking processing can be improved.
【0066】さらに、移動物体が撮像装置101から遠
くと近くの両方において抽出された場合や、速度の遅い
物体と速い物体の両方を検知した場合は、2つの背景画
像記憶部106、706をそれぞれに使い分けることに
より、異なる処理間隔で並行して処理を行うことが可能
となっている。よって、検知領域内における異なる距離
や移動速度の人物に対してもそれぞれ並列して追跡処理
を行って発報することができる。Further, when a moving object is extracted both far and near from the image pickup apparatus 101, or when both a slow object and a fast object are detected, the two background image storage units 106 and 706 are respectively set. It is possible to perform processing in parallel at different processing intervals by properly using the above. Therefore, it is possible to perform tracking processing in parallel and issue an alarm even for persons having different distances and moving speeds in the detection area.
【0067】図8は撮影画面において撮像装置から移動
物体までの距離を算出する場合の距離設定方法を示す説
明図である。撮像装置101で撮影した検知領域の画面
において、画面の最下部から撮像装置までの距離を求め
るとともに、この画面の最下部を基準にして例えば50
m程度の間隔で画面上の距離を予め設定する。そして、
抽出した移動物体の画面上での重心位置と設定した距離
とを照合することにより、移動物体までの距離を推測す
る。このような手順により、撮像装置から移動物体まで
の距離を求めることができる。FIG. 8 is an explanatory view showing a distance setting method in the case of calculating the distance from the image pickup device to the moving object on the photographing screen. On the screen of the detection area photographed by the imaging device 101, the distance from the bottom of the screen to the imaging device is obtained, and the bottom of the screen is used as a reference, for example, 50
The distance on the screen is preset at intervals of about m. And
The distance to the moving object is estimated by comparing the position of the center of gravity of the moving object on the screen with the set distance. With such a procedure, the distance from the imaging device to the moving object can be obtained.
【0068】上述したように、第4実施形態では、移動
物体までの距離に応じて複数の背景画像記憶部を選択的
に使用することによって、物体の位置や移動速度によら
ず高精度に人物の抽出及び追跡処理を行うことが可能と
なる。As described above, in the fourth embodiment, by selectively using the plurality of background image storage units according to the distance to the moving object, it is possible to accurately measure the person regardless of the position or moving speed of the object. Can be extracted and traced.
【0069】[0069]
【発明の効果】以上説明したように本発明によれば、検
知領域に侵入した物体に対し、それが人物らしいと判断
された場合には、早く、確実に発報することが可能とな
る効果が得られる。As described above, according to the present invention, when an object that has entered the detection area is determined to be a person, it is possible to promptly and surely issue an alarm. Is obtained.
【図1】本発明の第1実施形態に係る動き追跡装置の機
能的構成を示すブロック図である。FIG. 1 is a block diagram showing a functional configuration of a motion tracking device according to a first embodiment of the present invention.
【図2】第1実施形態の動き追跡装置における人物追跡
処理手順の第1例を示すフローチャートである。FIG. 2 is a flowchart showing a first example of a person tracking processing procedure in the motion tracking device of the first embodiment.
【図3】第1実施形態の動き追跡装置における人物追跡
処理手順の第2例を示すフローチャートである。FIG. 3 is a flowchart showing a second example of a person tracking processing procedure in the motion tracking device of the first embodiment.
【図4】本発明の第2実施形態に係る動き追跡装置の機
能的構成を示すブロック図である。FIG. 4 is a block diagram showing a functional configuration of a motion tracking device according to a second embodiment of the present invention.
【図5】第2実施形態の動き追跡装置における面積比の
算出手順を示すフローチャートである。FIG. 5 is a flowchart showing a procedure for calculating an area ratio in the motion tracking device according to the second embodiment.
【図6】本発明の第3実施形態に係る動き追跡装置の機
能的構成を示すブロック図である。FIG. 6 is a block diagram showing a functional configuration of a motion tracking device according to a third embodiment of the present invention.
【図7】本発明の第4実施形態に係る動き追跡装置の機
能的構成を示すブロック図である。FIG. 7 is a block diagram showing a functional configuration of a motion tracking device according to a fourth embodiment of the present invention.
【図8】第4実施形態の動き追跡装置において、撮影画
面において撮像装置から移動物体までの距離を算出する
場合の距離設定方法を示す説明図である。FIG. 8 is an explanatory diagram showing a distance setting method for calculating a distance from an imaging device to a moving object on a shooting screen in the motion tracking device of the fourth embodiment.
【図9】従来技術による人物追跡装置の構成例を示すブ
ロック図である。FIG. 9 is a block diagram showing a configuration example of a person tracking device according to a conventional technique.
【図10】従来例の人物追跡装置における人物追跡処理
手順を示すフローチャートである。FIG. 10 is a flowchart showing a person tracking processing procedure in a conventional person tracking device.
101 撮像装置 102 入力部 103 入力画像記憶部 104 形状特徴抽出部 105 物体抽出部 106 背景画像記憶部 107,407 特徴量算出部 108 物体判定部 109 表示部 610 処理間隔設定部 706 第2背景画像記憶部 101 imaging device 102 Input section 103 input image storage unit 104 Shape feature extraction unit 105 object extraction unit 106 background image storage unit 107,407 Feature amount calculation unit 108 Object determination unit 109 display 610 Processing interval setting unit 706 Second background image storage unit
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G08B 25/00 510 G08B 25/00 510M H04N 7/18 H04N 7/18 K Fターム(参考) 5B057 AA19 BA02 CA12 CA16 DA07 DA15 DB02 DC06 DC14 DC16 DC32 DC36 5C054 CC05 CG06 CH01 EA01 EA05 EF06 FA09 FC13 FF07 HA18 HA19 5C084 AA02 AA07 AA19 BB04 BB33 CC17 DD12 EE02 FF08 FF26 GG42 GG78 HH10 5C087 AA03 AA24 AA25 BB74 DD05 DD20 EE07 EE14 FF01 FF04 FF19 FF20 GG02 GG03 GG09 5L096 BA02 CA02 FA06 FA18 FA54 FA69 GA34 HA03 JA11 ─────────────────────────────────────────────────── ─── Continuation of front page (51) Int.Cl. 7 identification code FI theme code (reference) G08B 25/00 510 G08B 25/00 510M H04N 7/18 H04N 7/18 K F term (reference) 5B057 AA19 BA02 CA12 CA16 DA07 DA15 DB02 DC06 DC14 DC16 DC32 DC36 5C054 CC05 CG06 CH01 EA01 EA05 EF06 FA09 FC13 FF07 HA18 HA19 5C084 AA02 AA07 AA19 BB04 BB33 CC17 DD12 EE02 FF20 FF20 FF20AFF20AFF20AFF20AFF20AFF20AFF20A04 GG03 GG09 5L096 BA02 CA02 FA06 FA18 FA54 FA69 GA34 HA03 JA11
Claims (10)
前記物体を複数画像において追跡処理した結果、人物で
あると判定された場合に発報を行う動き追跡装置であっ
て、 前記抽出した物体の特徴量から前記物体が人物であるか
の判定を行う人物判定手段と、前記物体の重心が所定の
検知領域の内にあるかどうかの判定を行う重心位置判定
手段と、前記物体が前回に追跡した物体と同一であるか
の判定を行う物体一致判定手段と、前記物体の追跡処理
回数の判定を行う追跡回数判定手段とを含み、前記抽出
した物体の重心が所定の検知領域の外であっても、前記
物体が人物であり、かつ前回に追跡した物体と同一であ
る場合には追跡処理を継続する物体判定手段を備えたこ
とを特徴とする動き追跡装置。1. Processing an imaged image to extract an object,
As a result of tracking processing of the object in a plurality of images, a motion tracking device that issues a warning when it is determined to be a person, and determines whether the object is a person from the feature amount of the extracted object. Person determining means, center of gravity position determining means for determining whether the center of gravity of the object is within a predetermined detection area, and object matching determination for determining whether the object is the same as the previously tracked object Means and a tracking number determination means for determining the number of times of tracking processing of the object, and even if the center of gravity of the extracted object is outside a predetermined detection area, the object is a person and is tracked last time. A motion tracking device characterized by comprising an object determination means for continuing the tracking process when the object is the same as the object.
の重心が前記検知領域の内にあり、前記物体が人物であ
り、前回の追跡処理で追跡した物体が前記検知領域の外
にあった場合でその物体と今回抽出した物体とが同一で
ある場合には前記検知領域外での追跡処理も含めた追跡
処理回数が所定回数以上となったときに、発報を行うこ
とを特徴とする請求項1記載の動き追跡装置。2. The object determining means has the center of gravity of the extracted object within the detection area, the object is a person, and the object tracked by the previous tracking processing is outside the detection area. In this case, when the object and the object extracted this time are the same, the alarm is issued when the number of tracking processes including the tracking process outside the detection area reaches a predetermined number or more. The motion tracking device according to claim 1.
の面積を算出する面積算出手段と、前記物体の形状特徴
から前記物体抽出枠の内にある人物を計数する計数手段
と、前記物体抽出枠の面積と前記物体抽出枠内の人数と
に基づいて前記物体抽出枠内の各物体の面積比と縦横比
の少なくとも一方を算出する比算出手段とを含む特徴量
算出手段を備えたことを特徴とする請求項1又は2に記
載の動き追跡装置。3. An area calculation means for calculating the area of an object extraction frame circumscribing the extracted object, a counting means for counting the number of persons in the object extraction frame from the shape feature of the object, and the object extraction. A feature amount calculating means including a ratio calculating means for calculating at least one of an area ratio and an aspect ratio of each object in the object extraction frame based on the area of the frame and the number of persons in the object extraction frame, The motion tracking device according to claim 1, wherein the motion tracking device is characterized in that:
又は移動速度もしくは移動距離に応じて処理間隔を設定
する処理間隔設定手段を備えたことを特徴とする請求項
1ないし3のいずれかに記載の動き追跡装置。4. The processing interval setting means for setting a processing interval according to a distance or a moving speed or a moving distance of the extracted object from the image pickup means, according to any one of claims 1 to 3. The described motion tracking device.
それぞれ別に格納する複数の背景画像記憶手段を備え、
前記物体判定手段は、前記抽出した物体の撮像手段から
の距離又は移動速度もしくは移動距離に応じて、それぞ
れ別個の背景画像記憶手段に格納された背景画像を用い
て異なる処理間隔で追跡処理を行うことを特徴とする請
求項4記載の動き追跡装置。5. A plurality of background image storage means for separately storing background images when the object does not exist,
The object determining means performs tracking processing at different processing intervals using background images stored in separate background image storage means according to the distance or moving speed or moving distance of the extracted object from the imaging means. The motion tracking device according to claim 4, wherein:
前記物体を複数画像において追跡処理した結果、人物で
あると判定された場合に発報を行う動き追跡装置の人物
追跡方法であって、 前記抽出した物体の特徴量からその物体が人物であると
判定し、かつこの物体が前回に追跡した物体と同一であ
ると判定した場合には、前記物体の重心が所定の検知領
域の内にあるかどうかを判定して検知領域の外である場
合であっても、追跡処理を継続する物体判定工程を有す
ることを特徴とする人物追跡方法。6. Processing the captured image to extract an object,
A person tracking method of a motion tracking device that issues a warning when it is determined that the object is a person as a result of tracking processing of the object in a plurality of images, and the object is a person from the feature amount of the extracted object. If it is determined that this object is the same as the previously tracked object, then it is determined whether the center of gravity of the object is within a predetermined detection area and it is outside the detection area. Even if there is, a person tracking method having an object determination step of continuing the tracking process.
た物体の重心が前記検知領域の内にあり、前記物体が人
物であり、前回の追跡処理で追跡した物体が前記検知領
域の外にあった場合でその物体と今回抽出した物体とが
同一である場合には前記検知領域外での追跡処理も含め
た追跡処理回数が所定回数以上となったときに、発報を
行うことを特徴とする請求項6記載の人物追跡方法。7. In the object determining step, the center of gravity of the extracted object is inside the detection area, the object is a person, and the object tracked in the previous tracking process is outside the detection area. In this case, when the object and the object extracted this time are the same, the alarm is issued when the number of tracking processes including the tracking process outside the detection area reaches a predetermined number or more. The person tracking method according to claim 6.
の面積を算出し、前記物体の形状特徴から前記物体抽出
枠の内にある人物を計数し、前記物体抽出枠の面積と前
記物体抽出枠内の人数とに基づいて前記物体抽出枠内の
各物体の面積比と縦横比の少なくとも一方を算出する特
徴量算出工程を有することを特徴とする請求項6又は7
に記載の人物追跡方法。8. The area of an object extraction frame circumscribing the extracted object is calculated, the number of persons in the object extraction frame is counted from the shape feature of the object, and the area of the object extraction frame and the object extraction are calculated. 8. A feature quantity calculating step of calculating at least one of an area ratio and an aspect ratio of each object in the object extraction frame based on the number of people in the frame.
The person tracking method described in.
又は移動速度もしくは移動距離に応じて処理間隔を設定
する処理間隔設定工程を有することを特徴とする請求項
6ないし8のいずれかに記載の人物追跡方法。9. The method according to claim 6, further comprising a processing interval setting step of setting a processing interval according to a distance or a moving speed or a moving distance of the extracted object from the image pickup means. Person tracking method.
をそれぞれ別に格納する背景画像記憶工程を有し、前記
物体判定工程において、前記抽出した物体の撮像手段か
らの距離又は移動速度もしくは移動距離に応じて、それ
ぞれ別個に格納された背景画像を用いて異なる処理間隔
で追跡処理を行うことを特徴とする請求項9記載の人物
追跡方法。10. A background image storing step of separately storing a background image when the object does not exist, wherein in the object determining step, a distance or a moving speed or a moving distance of the extracted object from an image pickup means is set. 10. The person tracking method according to claim 9, wherein the tracking processing is performed at different processing intervals using the background images stored separately.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001229757A JP2003044859A (en) | 2001-07-30 | 2001-07-30 | Device for tracing movement and method for tracing person |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001229757A JP2003044859A (en) | 2001-07-30 | 2001-07-30 | Device for tracing movement and method for tracing person |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2003044859A true JP2003044859A (en) | 2003-02-14 |
Family
ID=19062058
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001229757A Pending JP2003044859A (en) | 2001-07-30 | 2001-07-30 | Device for tracing movement and method for tracing person |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2003044859A (en) |
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005025313A (en) * | 2003-06-30 | 2005-01-27 | Secom Co Ltd | System for detecting stayer |
JP2005128815A (en) * | 2003-10-24 | 2005-05-19 | Matsushita Electric Ind Co Ltd | Person detection device and method |
WO2007015515A1 (en) * | 2005-08-04 | 2007-02-08 | Optex Co., Ltd. | Intrusion sensor |
CN1332357C (en) * | 2004-04-06 | 2007-08-15 | 中国科学院自动化研究所 | Sensitive video frequency detection based on kinematic skin division |
JP2007206843A (en) * | 2006-01-31 | 2007-08-16 | Central Res Inst Of Electric Power Ind | Method and device for counting moving body underwater or on water surface and its program |
JP2008171118A (en) * | 2007-01-10 | 2008-07-24 | Denso Corp | Monitoring device and method, and control device and method |
JP2008217714A (en) * | 2007-03-07 | 2008-09-18 | Sogo Keibi Hosho Co Ltd | Tracking device, tracking method and tracking program |
JP2008287594A (en) * | 2007-05-18 | 2008-11-27 | Nippon Hoso Kyokai <Nhk> | Specific movement determination device, reference data generation device, specific movement determination program and reference data generation program |
JP2009043136A (en) * | 2007-08-10 | 2009-02-26 | Optex Co Ltd | Human body sensing device |
JP2009211122A (en) * | 2008-02-29 | 2009-09-17 | Toshiba Teli Corp | Image processor and object estimation program |
JP2009540460A (en) * | 2006-06-13 | 2009-11-19 | エーディーティー・セキュリティー・サービシーズ・インク | Video confirmation system and method for alarm monitoring in a central station |
JP2010122936A (en) * | 2008-11-20 | 2010-06-03 | Seiko Epson Corp | Sensing circuit, display and electronic apparatus |
WO2010084902A1 (en) * | 2009-01-22 | 2010-07-29 | 株式会社日立国際電気 | Intrusion alarm video processing device |
JP2011019177A (en) * | 2009-07-10 | 2011-01-27 | Nikon Corp | Program for specify subject position, and camera |
JP2018146440A (en) * | 2017-03-07 | 2018-09-20 | 株式会社豊田自動織機 | Environment recognition device |
WO2018221629A1 (en) * | 2017-06-01 | 2018-12-06 | 日本電気株式会社 | Information processing device, tracking method, and program recording medium |
JP7479535B1 (en) | 2023-03-30 | 2024-05-08 | 電気興業株式会社 | Person detection system and person detection method |
JP7529505B2 (en) | 2020-09-18 | 2024-08-06 | 株式会社日立国際電気 | Detection system and detection method |
WO2024203903A1 (en) * | 2023-03-27 | 2024-10-03 | Nec Corporation | Method, apparatus, system and program for applying mask on object in image |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05229756A (en) * | 1992-02-21 | 1993-09-07 | Toshiba Corp | Image monitoring device and elevator control device using this image monitoring device |
JPH08241414A (en) * | 1995-03-07 | 1996-09-17 | Matsushita Electric Ind Co Ltd | Moving object detection and trace device and threshold decision device |
JPH0950585A (en) * | 1995-08-07 | 1997-02-18 | Hitachi Ltd | Intruder monitoring device |
JPH10208059A (en) * | 1997-01-22 | 1998-08-07 | Matsushita Electric Ind Co Ltd | Mobile object extracting device |
JPH10255057A (en) * | 1997-03-06 | 1998-09-25 | Matsushita Electric Ind Co Ltd | Mobile object extracting device |
JP2000023141A (en) * | 1998-06-30 | 2000-01-21 | Hitachi Ltd | Moving object monitoring device |
JP2000175176A (en) * | 1998-12-04 | 2000-06-23 | Hitachi Ltd | Supervisory method for mobile object and image supervisory device |
JP2000295574A (en) * | 1999-04-05 | 2000-10-20 | Seiko Epson Corp | Digital camera, image processor and recording medium |
JP2001005974A (en) * | 1999-06-17 | 2001-01-12 | Matsushita Electric Ind Co Ltd | Method and device for recognizing object |
-
2001
- 2001-07-30 JP JP2001229757A patent/JP2003044859A/en active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05229756A (en) * | 1992-02-21 | 1993-09-07 | Toshiba Corp | Image monitoring device and elevator control device using this image monitoring device |
JPH08241414A (en) * | 1995-03-07 | 1996-09-17 | Matsushita Electric Ind Co Ltd | Moving object detection and trace device and threshold decision device |
JPH0950585A (en) * | 1995-08-07 | 1997-02-18 | Hitachi Ltd | Intruder monitoring device |
JPH10208059A (en) * | 1997-01-22 | 1998-08-07 | Matsushita Electric Ind Co Ltd | Mobile object extracting device |
JPH10255057A (en) * | 1997-03-06 | 1998-09-25 | Matsushita Electric Ind Co Ltd | Mobile object extracting device |
JP2000023141A (en) * | 1998-06-30 | 2000-01-21 | Hitachi Ltd | Moving object monitoring device |
JP2000175176A (en) * | 1998-12-04 | 2000-06-23 | Hitachi Ltd | Supervisory method for mobile object and image supervisory device |
JP2000295574A (en) * | 1999-04-05 | 2000-10-20 | Seiko Epson Corp | Digital camera, image processor and recording medium |
JP2001005974A (en) * | 1999-06-17 | 2001-01-12 | Matsushita Electric Ind Co Ltd | Method and device for recognizing object |
Cited By (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4578072B2 (en) * | 2003-06-30 | 2010-11-10 | セコム株式会社 | Resident detection system |
JP2005025313A (en) * | 2003-06-30 | 2005-01-27 | Secom Co Ltd | System for detecting stayer |
JP2005128815A (en) * | 2003-10-24 | 2005-05-19 | Matsushita Electric Ind Co Ltd | Person detection device and method |
CN1332357C (en) * | 2004-04-06 | 2007-08-15 | 中国科学院自动化研究所 | Sensitive video frequency detection based on kinematic skin division |
WO2007015515A1 (en) * | 2005-08-04 | 2007-02-08 | Optex Co., Ltd. | Intrusion sensor |
JP2007040895A (en) * | 2005-08-04 | 2007-02-15 | Optex Co Ltd | Crime preventive sensor |
JP2007206843A (en) * | 2006-01-31 | 2007-08-16 | Central Res Inst Of Electric Power Ind | Method and device for counting moving body underwater or on water surface and its program |
JP2009540460A (en) * | 2006-06-13 | 2009-11-19 | エーディーティー・セキュリティー・サービシーズ・インク | Video confirmation system and method for alarm monitoring in a central station |
JP2008171118A (en) * | 2007-01-10 | 2008-07-24 | Denso Corp | Monitoring device and method, and control device and method |
JP2008217714A (en) * | 2007-03-07 | 2008-09-18 | Sogo Keibi Hosho Co Ltd | Tracking device, tracking method and tracking program |
JP2008287594A (en) * | 2007-05-18 | 2008-11-27 | Nippon Hoso Kyokai <Nhk> | Specific movement determination device, reference data generation device, specific movement determination program and reference data generation program |
JP2009043136A (en) * | 2007-08-10 | 2009-02-26 | Optex Co Ltd | Human body sensing device |
JP2009211122A (en) * | 2008-02-29 | 2009-09-17 | Toshiba Teli Corp | Image processor and object estimation program |
JP4691570B2 (en) * | 2008-02-29 | 2011-06-01 | 東芝テリー株式会社 | Image processing apparatus and object estimation program |
JP2010122936A (en) * | 2008-11-20 | 2010-06-03 | Seiko Epson Corp | Sensing circuit, display and electronic apparatus |
WO2010084902A1 (en) * | 2009-01-22 | 2010-07-29 | 株式会社日立国際電気 | Intrusion alarm video processing device |
JP5325899B2 (en) * | 2009-01-22 | 2013-10-23 | 株式会社日立国際電気 | Intrusion alarm video processor |
JP2011019177A (en) * | 2009-07-10 | 2011-01-27 | Nikon Corp | Program for specify subject position, and camera |
US8577175B2 (en) | 2009-07-10 | 2013-11-05 | Nikon Corporation | Subject position determination method, program product for determining subject position, and camera |
JP2018146440A (en) * | 2017-03-07 | 2018-09-20 | 株式会社豊田自動織機 | Environment recognition device |
WO2018221629A1 (en) * | 2017-06-01 | 2018-12-06 | 日本電気株式会社 | Information processing device, tracking method, and program recording medium |
JPWO2018221629A1 (en) * | 2017-06-01 | 2020-03-26 | 日本電気株式会社 | Image processing apparatus, tracking method, and program |
US10839552B2 (en) | 2017-06-01 | 2020-11-17 | Nec Corporation | Image processing apparatus, tracking method, and program |
JP7529505B2 (en) | 2020-09-18 | 2024-08-06 | 株式会社日立国際電気 | Detection system and detection method |
WO2024203903A1 (en) * | 2023-03-27 | 2024-10-03 | Nec Corporation | Method, apparatus, system and program for applying mask on object in image |
JP7479535B1 (en) | 2023-03-30 | 2024-05-08 | 電気興業株式会社 | Person detection system and person detection method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2003044859A (en) | Device for tracing movement and method for tracing person | |
CN109446942B (en) | Target tracking method, device and system | |
JP4203512B2 (en) | Vehicle periphery monitoring device | |
JP5297078B2 (en) | Method for detecting moving object in blind spot of vehicle, and blind spot detection device | |
JP2552728B2 (en) | Infrared surveillance system | |
JP4587038B2 (en) | Vehicle position detection method, and vehicle speed detection method and apparatus | |
JP2003216949A (en) | Infrared image processor | |
CN109145696B (en) | Old people falling detection method and system based on deep learning | |
JP2003216937A (en) | Night vision system | |
CN113792586A (en) | Vehicle accident detection method and device and electronic equipment | |
CN111814635A (en) | Smoke and fire identification model establishing method and smoke and fire identification method based on deep learning | |
JP4801934B2 (en) | Moving object detection device | |
JP2015064752A (en) | Vehicle monitoring device and vehicle monitoring method | |
JP6283008B2 (en) | Tracking device | |
JP2012243128A (en) | Monitoring device, monitoring method and monitoring program | |
JP2007219603A (en) | Person tracking device, person tracking method and person tracking program | |
JP6527183B2 (en) | Leftover object detection device | |
JP4864953B2 (en) | Vehicle periphery monitoring device | |
JP2005128815A (en) | Person detection device and method | |
CN115620098B (en) | Evaluation method and system of cross-camera pedestrian tracking algorithm and electronic equipment | |
JP2002367077A (en) | Device and method for deciding traffic congestion | |
JP2012212238A (en) | Article detection device and stationary-person detection device | |
JP2019096062A (en) | Object tracking device, object tracking method, and object tracking program | |
US9183448B2 (en) | Approaching-object detector, approaching object detecting method, and recording medium storing its program | |
JP2536549B2 (en) | Inter-vehicle distance detection method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20060324 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20071114 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20071121 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20071128 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20071205 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20071212 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080312 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20101102 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20101109 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20110308 |