JP5925047B2 - Image processing apparatus and image processing method - Google Patents

Image processing apparatus and image processing method Download PDF

Info

Publication number
JP5925047B2
JP5925047B2 JP2012108672A JP2012108672A JP5925047B2 JP 5925047 B2 JP5925047 B2 JP 5925047B2 JP 2012108672 A JP2012108672 A JP 2012108672A JP 2012108672 A JP2012108672 A JP 2012108672A JP 5925047 B2 JP5925047 B2 JP 5925047B2
Authority
JP
Japan
Prior art keywords
tracking
image
current image
moving body
moving
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012108672A
Other languages
Japanese (ja)
Other versions
JP2013236324A (en
JP2013236324A5 (en
Inventor
黛 いち子
いち子 黛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012108672A priority Critical patent/JP5925047B2/en
Publication of JP2013236324A publication Critical patent/JP2013236324A/en
Publication of JP2013236324A5 publication Critical patent/JP2013236324A5/ja
Application granted granted Critical
Publication of JP5925047B2 publication Critical patent/JP5925047B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Alarm Systems (AREA)
  • Studio Devices (AREA)

Description

本発明は画像処理装置および画像処理方法に関し、特に、監視カメラの映像を用いて、物体の通過を精度よく検知するために用いて好適な技術に関する。   The present invention relates to an image processing apparatus and an image processing method, and more particularly, to a technique suitable for use in accurately detecting the passage of an object using video from a surveillance camera.

従来、監視カメラの映像を使用して画面内の特定箇所を通過した物体を検知する場合、映像から検出した物体を画面内追尾し、特定箇所の通過を判定することで検知を行っていた。例えば、監視カメラからの映像データから特定の物体を検出し、追尾する手法が提案されている。例えば、特許文献1では、カメラの自動焦点機構のために、画像中に検出領域を設定し、当該領域を移動させながら人物領域を追跡するカメラが提案されている。   Conventionally, when detecting an object that has passed through a specific location in the screen using the video of the surveillance camera, the detection is performed by tracking the object detected from the video in the screen and determining the passage of the specific location. For example, a method for detecting and tracking a specific object from video data from a surveillance camera has been proposed. For example, Patent Document 1 proposes a camera that sets a detection area in an image and tracks a person area while moving the area for an automatic focusing mechanism of the camera.

特開昭61−28914号公報JP 61-28914 A

しかしながら、映像から検出された物体は、追尾処理の過程で、複数の追尾物体が統合されたり、1つの追尾物体が複数に分割されたりするなどの処理が行われ、常に正確な物体の検出・追尾がされているとは限らない。このため、映像から検出した物体を追尾し、特定箇所の通過を判定するには、検知漏れとなってしまうケースがあった。
本発明は前述の問題点に鑑み、検出された物体の統合・分割処理がなされた場合であっても、精度の高い通過検知を行うことができるようにすることを目的とする。
However, the object detected from the image is subjected to processing such as integration of a plurality of tracking objects or division of one tracking object into a plurality of parts in the course of the tracking process. Tracking is not always done. For this reason, there is a case in which a detection omission occurs when tracking an object detected from an image and determining passage through a specific portion.
SUMMARY OF THE INVENTION In view of the above-described problems, an object of the present invention is to enable highly accurate passage detection even when detection object integration / division processing is performed.

本発明の画像処理装置は、動画から動体を検出する動体検出手段と、前記動体検出手段により現画像から検出された動体と前画像から検出された物体とを対応付けて追尾処理を行う動体追尾手段と、前記動体追尾手段により追尾される前記前画像の追尾物体が前記現画像において複数個に分割した場合、前記前画像の追尾物体と前記現画像の複数の追尾物体の対応関係を用いて、前記前画像の追尾物体と前記現画像の複数の追尾物体との移動軌跡のそれぞれが通過検知線と交差するか判断する判断手段とを有することを特徴とする。
また、本発明の画像処理装置は、動画から動体を検出する動体検出手段と、前記動体検出手段により現画像から検出された動体と前画像から検出された物体とを対応付けて追尾処理を行う動体追尾手段と、前記動体追尾手段により追尾される前記前画像の複数の追尾物体が前記現画像において統合した場合、前記前画像の追尾物体と前記現画像の追尾物体の対応関係を用いて、前記前画像の複数の追尾物体と前記現画像の追尾物体との移動軌跡のそれぞれが通過検知線と交差しているか判断する判断手段とを有することを特徴とする。
The image processing apparatus according to the present invention includes a moving object detection unit that detects a moving object from a moving image, and a moving object tracking unit that performs tracking processing by associating the moving object detected from the current image with the object detected from the previous image by the moving object detection unit. means and, if the tracking object of the previous image to be tracked by the moving body tracking means is divided into a plurality in the current image, using the corresponding relationship between a plurality of tracking objects of the current image and the tracking object of the previous image And determining means for determining whether or not each of the movement trajectories of the tracking object of the previous image and the plurality of tracking objects of the current image intersects a passage detection line .
The image processing apparatus according to the present invention performs tracking processing by associating a moving object detection unit that detects a moving object from a moving image, a moving object detected from the current image by the moving object detection unit, and an object detected from the previous image. When the moving object tracking means and a plurality of tracking objects of the previous image tracked by the moving object tracking means are integrated in the current image, the correspondence between the tracking object of the previous image and the tracking object of the current image is used, And determining means for determining whether or not each of the movement trajectories of the plurality of tracking objects of the previous image and the tracking object of the current image intersects with a passage detection line .

本発明によれば、追尾物体の分割や統合処理が行われても精度の高い通過検知をすることができる。   According to the present invention, it is possible to detect passage with high accuracy even when the tracking object is divided or integrated.

第1の実施形態を示し、画像処理装置の構成例を示すブロック図である。1 is a block diagram illustrating a configuration example of an image processing apparatus according to a first embodiment. 画像処理装置の動作手順を説明するフローチャートである。It is a flowchart explaining the operation | movement procedure of an image processing apparatus. 動体追尾部で行う追尾処理を説明する図である。It is a figure explaining the tracking process performed in a moving body tracking part. 状態判定部で行う通過検知判定の手順を説明するフローチャートである。It is a flowchart explaining the procedure of the passage detection determination performed in a state determination part. 追尾物体が分割するケースの通過検知判定処理を説明するための図である。It is a figure for demonstrating the passage detection determination process of the case where a tracking object divides | segments. 追尾物体が統合するケースの通過検知判定処理を説明するための図である。It is a figure for demonstrating the passage detection determination process of the case where a tracking object integrates.

以下、添付の図面を参照して、本発明をその好適な実施形態に基づいて詳細に説明する。なお、以下の実施形態において示す構成は一例に過ぎず、本発明は図示された構成に限定されるものではない。
<第1の実施形態>
図1は、本発明の一実施形態である画像処理装置100の構成例を示すブロック図である。本実施形態の画像処理装置100は、画像取得部101と、動体検出部102と、動体追尾部103と、状態判定部104とパラメータ設定部105とから構成される。このような構成の画像処理装置100は、CPU、ROM、RAMを備えるコンピュータシステムにおいて、ROMに記録されたプログラムを、ワークメモリとして機能するRAMに展開してCPUが実行することで実現することができる。
Hereinafter, the present invention will be described in detail based on preferred embodiments with reference to the accompanying drawings. The configurations shown in the following embodiments are merely examples, and the present invention is not limited to the illustrated configurations.
<First Embodiment>
FIG. 1 is a block diagram illustrating a configuration example of an image processing apparatus 100 according to an embodiment of the present invention. The image processing apparatus 100 according to the present embodiment includes an image acquisition unit 101, a moving object detection unit 102, a moving object tracking unit 103, a state determination unit 104, and a parameter setting unit 105. The image processing apparatus 100 having such a configuration can be realized in a computer system including a CPU, a ROM, and a RAM by developing a program recorded in the ROM into a RAM that functions as a work memory and executing the program. it can.

画像取得部101は、処理対象の画像(動画を構成する画像)を時系列順に外部の監視カメラ150から取得する。画像を取得する外部の装置は監視カメラ150に限定されるものではなく、サーバや外部メモリなどに保存されたものでもよい。
動体検出部102は、画像取得部101で取得した画像から背景差分法により動体を検出する。検出した動体の情報は、画面上の位置と外接矩形と物体サイズとからなる。動体検出部102では、画像から物体等の動きを検出する処理であり、背景差分法に限定されるものでなく、動きベクトル等を用いた処理であってもよい。また、しばらく検出対象が静止した場合でも物体を検出する処理であればよい。
The image acquisition unit 101 acquires images to be processed (images forming a moving image) from the external monitoring camera 150 in time series. An external device for acquiring an image is not limited to the monitoring camera 150, and may be an apparatus stored in a server or an external memory.
The moving object detection unit 102 detects a moving object from the image acquired by the image acquisition unit 101 by the background subtraction method. The detected moving object information includes a position on the screen, a circumscribed rectangle, and an object size. The moving object detection unit 102 is a process for detecting a motion of an object or the like from an image, and is not limited to the background subtraction method, and may be a process using a motion vector or the like. In addition, even if the detection target is stationary for a while, it may be a process for detecting an object.

動体追尾部103では、前画像で検出された動体と現画像で検出された動体とを対応付けることで追尾処理を行う。新規に検出された動体は、新規に固有の追尾IDが付与され、前画像と対応付けられた動体は、前画像で付与された追尾IDが付与される。
パラメータ設定部105では、状態判定部104の検知線を設定する。
状態判定部104では、動体追尾部103が追尾する物体が、パラメータ設定部105で設定された検知線を通過したか否かを判定する。物体通過の判定は、検知線を構成する線分と前画像から現画像の間での物体の軌跡とが交差したか否かにより判定する。
The moving object tracking unit 103 performs the tracking process by associating the moving object detected in the previous image with the moving object detected in the current image. The newly detected moving object is newly given a unique tracking ID, and the moving object associated with the previous image is given the tracking ID given by the previous image.
The parameter setting unit 105 sets the detection line of the state determination unit 104.
The state determination unit 104 determines whether the object tracked by the moving object tracking unit 103 has passed the detection line set by the parameter setting unit 105. The object passage is determined based on whether or not the line segment constituting the detection line intersects with the trajectory of the object between the previous image and the current image.

図2に、本実施形態の画像処理装置100の動作手順を説明するフローチャートを示す。
S201において、画像取得部101が監視カメラ150から画像取得を行い、動体検出部102で動体検出処理を行う。
S202において、動体検出部102が動体が検出されたか否かを判定する。動体が検出されなかった場合、処理を終了する。動体が検出された場合、S203に進んで検出領域作成処理を行う。検出領域作成処理は、次に行う動体追尾処理の領域を作成するもので、追尾処理に有効な動体検出結果を出力する。
S204では、動体追尾部103により動体追尾処理が行われ、追尾物体情報として、追尾ID、座標、大きさ、現画像におけるイベント情報、などが出力される。
FIG. 2 shows a flowchart for explaining the operation procedure of the image processing apparatus 100 of the present embodiment.
In step S <b> 201, the image acquisition unit 101 acquires an image from the monitoring camera 150, and the moving object detection unit 102 performs a moving object detection process.
In S202, the moving object detection unit 102 determines whether a moving object is detected. If no moving object is detected, the process ends. If a moving object is detected, the process proceeds to S203 to perform detection area creation processing. The detection area creation process creates an area for the next moving object tracking process, and outputs a moving object detection result effective for the tracking process.
In S204, moving object tracking processing is performed by the moving object tracking unit 103, and tracking ID, coordinates, size, event information in the current image, and the like are output as tracking object information.

図3は、S204で行なわれる追尾処理を説明する図である。
図3において、301は前画像における処理結果を示し、302は現画像の処理結果を示している。前画像における処理結果301及び現画像の処理結果302において、動体検出部102により第1の検出物体303、第2の検出物体304が検出される。これらの検出物体303、304は、動体追尾部103により動体追尾処理が行われるが、第1の検出物体303と第2の検出物体304は互いに距離が近接しているため、1つの追尾物体として処理がされる。前画像における処理結果301において、305は動体追尾部103が出力する追尾物体情報である追尾枠Aを示したもので、その情報は、追尾ID1、画面上の座標、大きさ情報が含まれる。
FIG. 3 is a diagram for explaining the tracking process performed in S204.
In FIG. 3, 301 indicates the processing result of the previous image, and 302 indicates the processing result of the current image. In the processing result 301 in the previous image and the processing result 302 in the current image, the moving object detection unit 102 detects the first detection object 303 and the second detection object 304. These detected objects 303 and 304 are subjected to a moving object tracking process by the moving object tracking unit 103. However, since the first detected object 303 and the second detected object 304 are close to each other, they are regarded as one tracking object. Processed. In the processing result 301 in the previous image, reference numeral 305 denotes a tracking frame A that is tracking object information output from the moving object tracking unit 103, and the information includes tracking ID1, coordinates on the screen, and size information.

また、現画像の処理結果302における画像では、第1の検出物体303は右上へ移動し、第2の検出物体304は左下へ移動している。動体追尾部103では、第1の検出物体303、第2の検出物体304の検出物体間の距離がある閾値以上に離れたため、これらを個別の追尾物体として処理する。306は第1の検出物体303を追尾する追尾枠B(306)、307は第2の検出物体304の追尾枠Cを示しており、追尾枠A(305)は追尾枠B(306)と追尾枠C(307)へと複数個に分割されている。   In the image in the processing result 302 of the current image, the first detection object 303 moves to the upper right, and the second detection object 304 moves to the lower left. Since the distance between the detection objects of the first detection object 303 and the second detection object 304 is greater than a certain threshold, the moving object tracking unit 103 processes these as individual tracking objects. Reference numeral 306 denotes a tracking frame B (306) for tracking the first detection object 303, 307 denotes a tracking frame C for the second detection object 304, and the tracking frame A (305) follows the tracking frame B (306). It is divided into a plurality of frames C (307).

このとき、追尾枠B(306)、追尾枠C(307)間には追尾枠の親子関係が生成され、追尾IDが継続される側の追尾枠B(306)は親追尾枠、新規追尾IDが付与される追尾枠C(307)は子追尾枠とする。追尾枠B(306)の追尾物体情報は、追尾IDはID1が継続され、イベント情報として、“分割して継続”の情報が保持される。また、追尾枠C(307)は、追尾枠A(305)が分割し、新規に作成されたものであるので、追尾物体情報として、追尾IDは新規にID2が付与され、イベント情報として“分割して新規作成”の情報が保持される。   At this time, a parent-child relationship of the tracking frame is generated between the tracking frame B (306) and the tracking frame C (307), and the tracking frame B (306) on the side where the tracking ID is continued is the parent tracking frame and the new tracking ID. A tracking frame C (307) to which is assigned is a child tracking frame. In the tracking object information in the tracking frame B (306), the tracking ID is ID1, and the information of “divide and continue” is held as event information. In addition, since the tracking frame C (307) is newly created by dividing the tracking frame A (305), the tracking ID is newly assigned ID2 as the tracking object information, and “divided as event information” And “Newly created” information is retained.

図2のフローチャートの説明に戻る。以上のように、動体追尾部103で追尾処理が行われると、次に、画像処理装置100は、S205において追尾結果情報の管理を行う。動体追尾部103が出力した追尾物体情報を管理するもので、追尾物体情報履歴、追尾物体情報配列、追尾物体親子関係などの管理を行う。
S206では、状態判定部104において物体の状態判定を行う。状態判定は、例えばパラメータ設定部105で設定された通過検知線を、追尾物体が通過したか否かを判定して、通過や侵入を検知する。
Returning to the flowchart of FIG. As described above, when the tracking processing is performed by the moving body tracking unit 103, the image processing apparatus 100 manages tracking result information in S205. The tracking object information output by the moving object tracking unit 103 is managed, and the tracking object information history, tracking object information array, tracking object parent-child relationship, and the like are managed.
In S206, the state determination unit 104 determines the state of the object. In the state determination, for example, it is determined whether or not the tracking object has passed through the passage detection line set by the parameter setting unit 105, and passage or intrusion is detected.

図4は、状態判定部104で、行う通過検知判定の手順を説明するフローチャートである。通過判定を行う物体の移動パターンとして、図5、図6に示すような追尾物体が分割するケース、追尾物体が統合されるケースを例に挙げる。   FIG. 4 is a flowchart for explaining the procedure of passage detection determination performed by the state determination unit 104. As an example of the movement pattern of the object for which passage determination is performed, a case where the tracking object is divided as shown in FIGS. 5 and 6 and a case where the tracking object is integrated will be exemplified.

図5は、図3で説明した追尾物体が分割するケースにおいて、通過検知判定を行う処理を説明するための図である。図5において、501は、パラメータ設定部105により設定された通過検知線である。物体が通過検知線を画像上の上から下へ通過したとき、状態判定部104は通過検知と判定する。   FIG. 5 is a diagram for explaining processing for performing passage detection determination in the case where the tracking object described in FIG. 3 is divided. In FIG. 5, reference numeral 501 denotes a passage detection line set by the parameter setting unit 105. When the object passes through the passage detection line from the top to the bottom of the image, the state determination unit 104 determines that the passage is detected.

図6は、2つの追尾物体が1つに統合される場合の、通過検知判定を行う処理を説明するための図である。
図6において、601は前画像における処理結果を示し、602は現画像の処理結果を示している。603は、動体検出部102により検出された第3の検出物体、604は、第4の検出物体である。これらは動体追尾部103により追尾され、追尾物体情報である追尾枠D(605)、追尾枠E(606)が示されている。追尾枠D(605)は、追尾IDとしてID3が付与され、追尾枠E(606)の追尾IDはID4が付与されている。
FIG. 6 is a diagram for explaining processing for performing passage detection determination in a case where two tracking objects are integrated into one.
In FIG. 6, reference numeral 601 indicates the processing result of the previous image, and reference numeral 602 indicates the processing result of the current image. Reference numeral 603 denotes a third detection object detected by the moving object detection unit 102, and reference numeral 604 denotes a fourth detection object. These are tracked by the moving body tracking unit 103, and a tracking frame D (605) and a tracking frame E (606) as tracking object information are shown. The tracking frame D (605) is assigned ID3 as the tracking ID, and the tracking ID of the tracking frame E (606) is assigned ID4.

また、608はパラメータ設定部105により設定された通過検知線である。第3の検出物体603は現画像の処理結果602において左下側に移動し、第4の検出物体604は現画像において右側に移動している。そのため、現画像において第3の検出物体603と第4の検出物体604はある閾値以下の距離に近づいたため、動体追尾部103は追尾枠D(605)と追尾枠E(606)を、追尾枠F(607)に統合処理している。追尾枠F(607)は、追尾枠E(606)を継続し、その追尾IDはID4を継続、イベント情報として“統合して継続”情報を保持している。統合による親子関係は、追尾ID4が親追尾枠、追尾ID3は子追尾枠として、追尾結果情報管理の親子関係管理で情報が保持されている。   Reference numeral 608 denotes a passage detection line set by the parameter setting unit 105. The third detection object 603 has moved to the lower left side in the processing result 602 of the current image, and the fourth detection object 604 has moved to the right side in the current image. Therefore, since the third detection object 603 and the fourth detection object 604 approach a distance equal to or less than a certain threshold in the current image, the moving object tracking unit 103 sets the tracking frame D (605) and the tracking frame E (606) to the tracking frame. F (607) is integrated. The tracking frame F (607) continues the tracking frame E (606), the tracking ID is ID4, and holds “integrated and continued” information as event information. As for the parent-child relationship by integration, the tracking ID 4 is the parent tracking frame and the tracking ID 3 is the child tracking frame, and the information is held in the parent-child relationship management of tracking result information management.

次に、状態判定部104による通過検知判定動作について、図4により説明する。
状態判定部104は、現画像におけるすべての追尾枠について、図4のフローチャートに示す手順により通過判定処理を行う。
S401において、状態判定部104は、追尾物体情報のイベント情報を参照し、分割・統合のない新規枠か否かを判断する。分割・統合イベントのない新規枠である場合、物体の移動軌跡は存在しないため、S408に進み、通過は非検知となり、処理は終了する。
Next, the passage detection determination operation by the state determination unit 104 will be described with reference to FIG.
The state determination unit 104 performs passage determination processing for all tracking frames in the current image according to the procedure shown in the flowchart of FIG.
In step S <b> 401, the state determination unit 104 refers to the event information of the tracking object information and determines whether the frame is a new frame without division / integration. If the frame is a new frame with no division / integration event, there is no movement trajectory of the object, so the process proceeds to S408, the passage is not detected, and the process ends.

S401において、分割・統合のない追尾枠でない場合、S402に進んで分割による新規枠であるか否かを判断する。図5における追尾枠C(307)は、分割により新規に作成された追尾枠であるため、これに該当する。   In S401, if it is not a tracking frame without division / integration, the process proceeds to S402 to determine whether the frame is a new frame by division. The tracking frame C (307) in FIG. 5 corresponds to this because it is a tracking frame newly created by division.

S403において、状態判定部104は、追尾情報結果管理で管理されている分割前親追尾枠の情報を参照し、当該追尾枠との軌跡を計算する。
S407では、計算された軌跡と、通過検知線を構成する線分が交差するか否かを判断し、交差する場合、S409に進んで通過を検知する。また、交差しない場合、S408に進んで通過を非検知(S408)と判定し、処理を終了する。
図5における追尾枠C(307)では、計算された軌跡線は、追尾枠軌跡B(503)のように表される。追尾枠軌跡B(503)は、通過検知線501と交差しているので、この場合、通過検知と判定される。
このように、分割前の追尾物体と分割後の複数の追尾物体の対応関係を用いて状態を判別している。
In S403, the state determination unit 104 refers to the information of the parent tracking frame before division managed by the tracking information result management, and calculates a trajectory with the tracking frame.
In S407, it is determined whether or not the calculated trajectory intersects with the line segment constituting the passage detection line. If so, the process proceeds to S409 to detect passage. If the vehicle does not intersect, the process proceeds to S408, where it is determined that the passage is not detected (S408), and the process ends.
In the tracking frame C (307) in FIG. 5, the calculated trajectory line is represented as a tracking frame trajectory B (503). Since the tracking frame trajectory B (503) intersects the passage detection line 501, in this case, it is determined as passage detection.
As described above, the state is determined using the correspondence relationship between the tracking object before the division and the plurality of tracking objects after the division.

一方、S402において、分割による新規枠でない場合、S404において統合イベントが発生したか否かを判断する。図6における追尾枠F(607)は、追尾枠D(605)、追尾枠E(606)が統合された統合後の追尾枠であるため、これに該当する。   On the other hand, in S402, if it is not a new frame by division, it is determined in S404 whether or not an integration event has occurred. The tracking frame F (607) in FIG. 6 corresponds to the integrated tracking frame obtained by integrating the tracking frame D (605) and the tracking frame E (606).

S405において、状態判定部104は、追尾情報結果管理で管理されている統合による消失枠(図6においては追尾枠D(605)と、当該追尾枠の軌跡を計算する。次に、S406において、当該追尾枠の前画像から現画像の間での追尾枠の軌跡を計算する。
S407では、これらの軌跡がそれぞれ検知線を構成する線分と交差するか否かを判断し、交差する場合、S409に進んで通過を検知、交差しない場合、S408に進んで通過を非検知と判定し、処理を終了する。
In step S405, the state determination unit 104 calculates the disappearance frame (the tracking frame D (605) in FIG. 6 and the tracking frame trajectory in FIG. 6) managed by the tracking information result management. Next, in step S406. The track of the tracking frame between the current image and the previous image of the tracking frame is calculated.
In S407, it is determined whether or not these trajectories intersect with the line segments constituting the detection line. If they intersect, the process proceeds to S409 to detect the passage, and if not, the process proceeds to S408 and the passage is not detected. Determine and end the process.

図6における追尾枠F(607)では、統合による消失枠である追尾枠D(605)との軌跡を計算する(S405の処理)。
609は、追尾枠D(605)から追尾枠F(607)への第3の追尾枠軌跡を示す。また、当該追尾枠の軌跡を計算(S406処理)するため、追尾枠E(606)との軌跡を計算する。
610は、追尾枠E(606)から追尾枠F(607)への第4の追尾枠軌跡を示す。次に、これらの追枠軌跡が検知線と交差するか否かを判断する(S407)が、第3の追尾枠軌跡609は、検知線と交差しているので、通過検知(S409)と判断される。また、第4の追尾軌跡610は、検知線と交差していないため、通過検知は非検知(S408)と判断され、状態判別処理は終了する。
このように、統合前の追尾物体と統合後の追尾物体の対応関係を用いて状態を判別している。
In the tracking frame F (607) in FIG. 6, a trajectory with the tracking frame D (605), which is a lost frame by integration, is calculated (processing of S405).
Reference numeral 609 denotes a third tracking frame locus from the tracking frame D (605) to the tracking frame F (607). In addition, in order to calculate the track of the tracking frame (S406 processing), the track with the tracking frame E (606) is calculated.
Reference numeral 610 denotes a fourth tracking frame locus from the tracking frame E (606) to the tracking frame F (607). Next, these add tail frame locus determines whether intersects the detection line (S407) is a third tracking frame track 609, since the cross the detection line, and passage detection (S409) To be judged. Further, since the fourth tracking locus 610 does not intersect the detection line, it is determined that the passage detection is not detected (S408), and the state determination process ends.
Thus, the state is determined using the correspondence between the tracking object before integration and the tracking object after integration.

S404において、統合イベントが発生していないと判断された場合、状態判定部104は、前画像から現画像の間での追尾枠の軌跡を計算する(S406)。図5における追尾枠B(306)はこの場合に該当する。追尾枠A(305)から追尾枠B(306)への軌跡は、追尾枠軌跡A(502)で示される。
次に、計算された軌跡と通過検知線と交差するか否かを判定し(S407)、通過の検知、非検知を判定し(S408、S409)、処理を終了する。追尾枠B(306)の場合は、通過検知線と交差しないため、通過は非検知と判定され、状態判別処理は終了する。
If it is determined in S404 that an integrated event has not occurred, the state determination unit 104 calculates the tracking frame trajectory between the previous image and the current image (S406). The tracking frame B (306) in FIG. 5 corresponds to this case. A trajectory from the tracking frame A (305) to the tracking frame B (306) is indicated by a tracking frame trajectory A (502).
Next, it is determined whether or not the calculated trajectory and the passage detection line intersect (S407), whether passage is detected or not detected (S408, S409), and the process is terminated. In the case of the tracking frame B (306), since it does not intersect with the passage detection line, it is determined that the passage is not detected, and the state determination process ends.

このように、物体の通過検知を判断する際、検出物体の分割や統合処理が行われても、分割前のそれぞれの追尾物体情報、または統合前のそれぞれの追尾物体情報を参照することで、通過検知の漏れをなくすことができ、より精度の高い通過検知を実現できる。   Thus, when determining the passage detection of the object, even if the detection object is divided or integrated, by referring to the respective tracking object information before the division or the respective tracking object information before the integration, It is possible to eliminate leakage of passage detection, and it is possible to realize passage detection with higher accuracy.

<その他の実施形態>
以上、実施形態例を詳述したが、本発明は例えば、システム、装置、方法、プログラム若しくは記録媒体(記憶媒体)等としての実施態様をとることが可能である。具体的には、複数の機器(例えば、ホストコンピュータ、インタフェース機器、撮像装置、webアプリケーション等)から構成されるシステムに適用してもよいし、また、一つの機器からなる装置に適用してもよい。
<Other embodiments>
Although the embodiment has been described in detail above, the present invention can take an embodiment as a system, apparatus, method, program, recording medium (storage medium), or the like. Specifically, the present invention may be applied to a system composed of a plurality of devices (for example, a host computer, an interface device, an imaging device, a web application, etc.), or may be applied to a device composed of a single device. Good.

また、本発明の目的は、以下のようにすることによって達成されることはいうまでもない。即ち、前述した実施形態の機能を実現するソフトウェアのプログラムコード(コンピュータを制御するプログラム)を記録した記録媒体(または記憶媒体)を、システムあるいは装置に供給する。係る記憶媒体は言うまでもなく、コンピュータ読み取り可能な記憶媒体である。そして、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行する。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。   Needless to say, the object of the present invention can be achieved as follows. That is, a recording medium (or storage medium) in which a program code (software for controlling a computer) that realizes the functions of the above-described embodiments is recorded is supplied to the system or apparatus. Needless to say, such a storage medium is a computer-readable storage medium. Then, the computer (or CPU or MPU) of the system or apparatus reads and executes the program code stored in the recording medium. In this case, the program code itself read from the recording medium realizes the functions of the above-described embodiment, and the recording medium on which the program code is recorded constitutes the present invention.

301 前画像における処理結果
302 現画像における処理結果
303 第1の検出物体
304 第2の検出物体
305 追尾枠A
306 追尾枠B
307 追尾枠C
501 通過検知線
502 追尾枠軌跡A
503 追尾枠軌跡B
601 前画像における処理結果
602 現画像の処理結果
603 第3の検出物体
604 第4の検出物体
605 追尾枠D
606 追尾枠E
607 追尾枠F
608 通過検知線
609 第3の追尾枠軌跡
610 第4の追尾枠軌跡
301 Processing result in previous image 302 Processing result in current image 303 First detection object 304 Second detection object 305 Tracking frame A
306 Tracking frame B
307 Tracking frame C
501 Passing detection line 502 Tracking frame locus A
503 Tracking frame trajectory B
601 Processing result in previous image 602 Processing result in current image 603 Third detection object 604 Fourth detection object 605 Tracking frame D
606 Tracking frame E
607 Tracking frame F
608 Passing detection line 609 Third tracking frame locus 610 Fourth tracking frame locus

Claims (6)

動画から動体を検出する動体検出手段と、
前記動体検出手段により現画像から検出された動体と前画像から検出された物体とを対応付けて追尾処理を行う動体追尾手段と、
前記動体追尾手段により追尾される前記前画像の追尾物体が前記現画像において複数個に分割した場合、前記前画像の追尾物体と前記現画像の複数の追尾物体の対応関係を用いて、前記前画像の追尾物体と前記現画像の複数の追尾物体との移動軌跡のそれぞれが通過検知線と交差するか判断する判断手段とを有することを特徴とする画像処理装置。
A moving object detection means for detecting a moving object from a video;
A moving body tracking means for performing tracking processing in association with a moving body detected from the current image by the moving body detection means and an object detected from the previous image ;
Wherein when the tracking object of the previous image to be tracked by the moving body tracking means is divided into a plurality in the current image, using the corresponding relationship between a plurality of tracking objects of the current image and the tracking object of the previous image, the front An image processing apparatus, comprising: a determination unit configured to determine whether each of movement traces of a tracking object of an image and a plurality of tracking objects of the current image intersects a passage detection line .
動画から動体を検出する動体検出手段と、
前記動体検出手段により現画像から検出された動体と前画像から検出された物体とを対応付けて追尾処理を行う動体追尾手段と、
前記動体追尾手段により追尾される前記前画像の複数の追尾物体が前記現画像において統合した場合、前記前画像の追尾物体と前記現画像の追尾物体の対応関係を用いて、前記前画像の複数の追尾物体と前記現画像の追尾物体との移動軌跡のそれぞれが通過検知線と交差しているか判断する判断手段とを有することを特徴とする画像処理装置。
A moving object detection means for detecting a moving object from a video;
A moving body tracking means for performing tracking processing in association with a moving body detected from the current image by the moving body detection means and an object detected from the previous image ;
If multiple tracking objects of the previous image to be tracked by the moving body tracking means is integrated in the current image, using the correspondence between the tracked object of the current image and the tracking object of the previous image, a plurality of said previous image An image processing apparatus comprising: a determination unit configured to determine whether each of the movement trajectories of the tracking object and the tracking object of the current image intersects a passage detection line .
動画から動体を検出する動体検出工程と、
前記動体検出工程において現画像から検出された動体と前画像から検出された物体とを対応付けて追尾処理を行う動体追尾工程と、
前記動体追尾工程において追尾される前記前画像の追尾物体が前記現画像において複数個に分割した場合、前記前画像の追尾物体と前記現画像の複数の追尾物体の対応関係を用いて、前記前画像の追尾物体と前記現画像の複数の追尾物体との移動軌跡のそれぞれが通過検知線と交差するか判断する判断工程とを有することを特徴とする画像処理方法。
A moving object detection step of detecting a moving object from a video;
A moving body tracking step of performing tracking processing in association with the moving body detected from the current image and the object detected from the previous image in the moving body detection step;
When said tracking objects of the previous image to be tracked in the moving object tracking step is divided into a plurality in the current image, using the corresponding relationship between a plurality of tracking objects of the current image and the tracking object of the previous image, the front An image processing method comprising: a determination step of determining whether or not each movement locus of a tracking object of an image and a plurality of tracking objects of the current image intersects a passage detection line .
動画から動体を検出する動体検出工程と、
前記動体検出工程において現画像から検出された動体と前画像から検出された物体とを対応付けて追尾処理を行う動体追尾工程と、
前記動体追尾工程において追尾される前記前画像の複数の追尾物体が前記現画像において統合した場合、前記前画像の追尾物体と前記現画像の追尾物体の対応関係を用いて、前記前画像の複数の追尾物体と前記現画像の追尾物体との移動軌跡のそれぞれが通過検知線と交差しているか判断する判断工程とを有することを特徴とする画像処理方法。
A moving object detection step of detecting a moving object from a video;
A moving body tracking step of performing tracking processing in association with the moving body detected from the current image and the object detected from the previous image in the moving body detection step;
If multiple tracking objects of the previous image to be tracked in the moving object tracking step is integrated in the current image, using the correspondence between the tracked object of the current image and the tracking object of the previous image, a plurality of said previous image And a determination step of determining whether each of the movement trajectories of the tracking object of the current image and the tracking object of the current image intersects the passage detection line .
動画から動体を検出する動体検出手段と、
前記動体検出手段により現画像から検出された動体と前画像から検出された物体とを対応付けて追尾処理を行う動体追尾手段と、
前記動体追尾手段により追尾される前記前画像の追尾物体が前記現画像において複数個に分割した場合、前記前画像の追尾物体と前記現画像の複数の追尾物体の対応関係を用いて、前記前画像の追尾物体と前記現画像の複数の追尾物体との移動軌跡のそれぞれが通過検知線と交差するか判断する判断手段としてコンピュータを機能させるためのプログラム。
A moving object detection means for detecting a moving object from a video;
A moving body tracking means for performing tracking processing in association with a moving body detected from the current image by the moving body detection means and an object detected from the previous image ;
Wherein when the tracking object of the previous image to be tracked by the moving body tracking means is divided into a plurality in the current image, using the corresponding relationship between a plurality of tracking objects of the current image and the tracking object of the previous image, the front A program for causing a computer to function as a determination unit that determines whether each of the movement trajectories of a tracking object of an image and a plurality of tracking objects of the current image intersects a passage detection line .
動画から動体を検出する動体検出手段と、
前記動体検出手段により現画像から検出された動体と前画像から検出された物体とを対応付けて追尾処理を行う動体追尾手段と、
前記動体追尾手段により追尾される前記前画像の複数の追尾物体が前記現画像において統合した場合、前記前画像の追尾物体と前記現画像の追尾物体の対応関係を用いて、前記前画像の複数の追尾物体と前記現画像の追尾物体との移動軌跡のそれぞれが通過検知線と交差しているか判断する判断手段としてコンピュータを機能させるためのプログラム。
A moving object detection means for detecting a moving object from a video;
A moving body tracking means for performing tracking processing in association with a moving body detected from the current image by the moving body detection means and an object detected from the previous image ;
If multiple tracking objects of the previous image to be tracked by the moving body tracking means is integrated in the current image, using the correspondence between the tracked object of the current image and the tracking object of the previous image, a plurality of said previous image A program for causing a computer to function as determination means for determining whether each of the movement trajectories of the tracking object and the tracking object of the current image intersects the passage detection line .
JP2012108672A 2012-05-10 2012-05-10 Image processing apparatus and image processing method Active JP5925047B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012108672A JP5925047B2 (en) 2012-05-10 2012-05-10 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012108672A JP5925047B2 (en) 2012-05-10 2012-05-10 Image processing apparatus and image processing method

Publications (3)

Publication Number Publication Date
JP2013236324A JP2013236324A (en) 2013-11-21
JP2013236324A5 JP2013236324A5 (en) 2015-05-28
JP5925047B2 true JP5925047B2 (en) 2016-05-25

Family

ID=49762062

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012108672A Active JP5925047B2 (en) 2012-05-10 2012-05-10 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP5925047B2 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04273689A (en) * 1991-02-28 1992-09-29 Hitachi Ltd Monitoring device
JP3657116B2 (en) * 1997-05-14 2005-06-08 株式会社日立国際電気 Object tracking method and object tracking apparatus
JP5457257B2 (en) * 2010-04-19 2014-04-02 セコム株式会社 Suspicious person detection device

Also Published As

Publication number Publication date
JP2013236324A (en) 2013-11-21

Similar Documents

Publication Publication Date Title
JP6310093B2 (en) Target object detection method, detection apparatus, and robot
JP5656567B2 (en) Video processing apparatus and method
JP6672712B2 (en) Abnormal work detection system and abnormal work detection method
JP2008217602A (en) Suspicious behavior detection system and method
JP5754990B2 (en) Information processing apparatus, information processing method, and program
JP2014002462A (en) Video processing apparatus, video processing method, and program
KR20170056860A (en) Method of generating image and apparatus thereof
CN111798487A (en) Target tracking method, device and computer readable storage medium
JP2017103688A5 (en)
US10207409B2 (en) Image processing method, image processing device, and robot system
JP6499716B2 (en) Shape recognition apparatus, shape recognition method, and program
JPWO2018235219A1 (en) Self-location estimation method, self-location estimation device, and self-location estimation program
US20190156138A1 (en) Method, system, and computer-readable recording medium for image-based object tracking
JP2012128877A (en) Suspicious behavior detection system and method
WO2016151976A1 (en) Moving body detection device, image processing device, moving body detection method, and integrated circuit
US9091821B2 (en) Device and method of focusing on points of objects
US11199561B2 (en) System and method for standardized evaluation of activity sequences
US10996235B2 (en) System and method for cycle duration measurement in repeated activity sequences
JP5925047B2 (en) Image processing apparatus and image processing method
CN116048011A (en) Operation condition monitoring system, operation condition monitoring method, and computer-readable storage medium storing operation condition monitoring program
CN106375654B (en) Apparatus and method for controlling web camera
JP2023548749A (en) Method and system for annotation of sensor data
KR102141946B1 (en) Apparatus and method for identifying modal parameters of structures
JP2021196899A (en) Image processing apparatus, image processing method, and program
US20190156512A1 (en) Estimation method, estimation apparatus, and non-transitory computer-readable storage medium

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150409

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150409

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160322

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160419

R151 Written notification of patent or utility model registration

Ref document number: 5925047

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151