JP5925047B2 - Image processing apparatus and image processing method - Google Patents
Image processing apparatus and image processing method Download PDFInfo
- Publication number
- JP5925047B2 JP5925047B2 JP2012108672A JP2012108672A JP5925047B2 JP 5925047 B2 JP5925047 B2 JP 5925047B2 JP 2012108672 A JP2012108672 A JP 2012108672A JP 2012108672 A JP2012108672 A JP 2012108672A JP 5925047 B2 JP5925047 B2 JP 5925047B2
- Authority
- JP
- Japan
- Prior art keywords
- tracking
- image
- current image
- moving body
- moving
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Processing (AREA)
- Alarm Systems (AREA)
- Studio Devices (AREA)
Description
本発明は画像処理装置および画像処理方法に関し、特に、監視カメラの映像を用いて、物体の通過を精度よく検知するために用いて好適な技術に関する。 The present invention relates to an image processing apparatus and an image processing method, and more particularly, to a technique suitable for use in accurately detecting the passage of an object using video from a surveillance camera.
従来、監視カメラの映像を使用して画面内の特定箇所を通過した物体を検知する場合、映像から検出した物体を画面内追尾し、特定箇所の通過を判定することで検知を行っていた。例えば、監視カメラからの映像データから特定の物体を検出し、追尾する手法が提案されている。例えば、特許文献1では、カメラの自動焦点機構のために、画像中に検出領域を設定し、当該領域を移動させながら人物領域を追跡するカメラが提案されている。 Conventionally, when detecting an object that has passed through a specific location in the screen using the video of the surveillance camera, the detection is performed by tracking the object detected from the video in the screen and determining the passage of the specific location. For example, a method for detecting and tracking a specific object from video data from a surveillance camera has been proposed. For example, Patent Document 1 proposes a camera that sets a detection area in an image and tracks a person area while moving the area for an automatic focusing mechanism of the camera.
しかしながら、映像から検出された物体は、追尾処理の過程で、複数の追尾物体が統合されたり、1つの追尾物体が複数に分割されたりするなどの処理が行われ、常に正確な物体の検出・追尾がされているとは限らない。このため、映像から検出した物体を追尾し、特定箇所の通過を判定するには、検知漏れとなってしまうケースがあった。
本発明は前述の問題点に鑑み、検出された物体の統合・分割処理がなされた場合であっても、精度の高い通過検知を行うことができるようにすることを目的とする。
However, the object detected from the image is subjected to processing such as integration of a plurality of tracking objects or division of one tracking object into a plurality of parts in the course of the tracking process. Tracking is not always done. For this reason, there is a case in which a detection omission occurs when tracking an object detected from an image and determining passage through a specific portion.
SUMMARY OF THE INVENTION In view of the above-described problems, an object of the present invention is to enable highly accurate passage detection even when detection object integration / division processing is performed.
本発明の画像処理装置は、動画から動体を検出する動体検出手段と、前記動体検出手段により現画像から検出された動体と前画像から検出された物体とを対応付けて追尾処理を行う動体追尾手段と、前記動体追尾手段により追尾される前記前画像の追尾物体が前記現画像において複数個に分割した場合、前記前画像の追尾物体と前記現画像の複数の追尾物体の対応関係を用いて、前記前画像の追尾物体と前記現画像の複数の追尾物体との移動軌跡のそれぞれが通過検知線と交差するか判断する判断手段とを有することを特徴とする。
また、本発明の画像処理装置は、動画から動体を検出する動体検出手段と、前記動体検出手段により現画像から検出された動体と前画像から検出された物体とを対応付けて追尾処理を行う動体追尾手段と、前記動体追尾手段により追尾される前記前画像の複数の追尾物体が前記現画像において統合した場合、前記前画像の追尾物体と前記現画像の追尾物体の対応関係を用いて、前記前画像の複数の追尾物体と前記現画像の追尾物体との移動軌跡のそれぞれが通過検知線と交差しているか判断する判断手段とを有することを特徴とする。
The image processing apparatus according to the present invention includes a moving object detection unit that detects a moving object from a moving image, and a moving object tracking unit that performs tracking processing by associating the moving object detected from the current image with the object detected from the previous image by the moving object detection unit. means and, if the tracking object of the previous image to be tracked by the moving body tracking means is divided into a plurality in the current image, using the corresponding relationship between a plurality of tracking objects of the current image and the tracking object of the previous image And determining means for determining whether or not each of the movement trajectories of the tracking object of the previous image and the plurality of tracking objects of the current image intersects a passage detection line .
The image processing apparatus according to the present invention performs tracking processing by associating a moving object detection unit that detects a moving object from a moving image, a moving object detected from the current image by the moving object detection unit, and an object detected from the previous image. When the moving object tracking means and a plurality of tracking objects of the previous image tracked by the moving object tracking means are integrated in the current image, the correspondence between the tracking object of the previous image and the tracking object of the current image is used, And determining means for determining whether or not each of the movement trajectories of the plurality of tracking objects of the previous image and the tracking object of the current image intersects with a passage detection line .
本発明によれば、追尾物体の分割や統合処理が行われても精度の高い通過検知をすることができる。 According to the present invention, it is possible to detect passage with high accuracy even when the tracking object is divided or integrated.
以下、添付の図面を参照して、本発明をその好適な実施形態に基づいて詳細に説明する。なお、以下の実施形態において示す構成は一例に過ぎず、本発明は図示された構成に限定されるものではない。
<第1の実施形態>
図1は、本発明の一実施形態である画像処理装置100の構成例を示すブロック図である。本実施形態の画像処理装置100は、画像取得部101と、動体検出部102と、動体追尾部103と、状態判定部104とパラメータ設定部105とから構成される。このような構成の画像処理装置100は、CPU、ROM、RAMを備えるコンピュータシステムにおいて、ROMに記録されたプログラムを、ワークメモリとして機能するRAMに展開してCPUが実行することで実現することができる。
Hereinafter, the present invention will be described in detail based on preferred embodiments with reference to the accompanying drawings. The configurations shown in the following embodiments are merely examples, and the present invention is not limited to the illustrated configurations.
<First Embodiment>
FIG. 1 is a block diagram illustrating a configuration example of an
画像取得部101は、処理対象の画像(動画を構成する画像)を時系列順に外部の監視カメラ150から取得する。画像を取得する外部の装置は監視カメラ150に限定されるものではなく、サーバや外部メモリなどに保存されたものでもよい。
動体検出部102は、画像取得部101で取得した画像から背景差分法により動体を検出する。検出した動体の情報は、画面上の位置と外接矩形と物体サイズとからなる。動体検出部102では、画像から物体等の動きを検出する処理であり、背景差分法に限定されるものでなく、動きベクトル等を用いた処理であってもよい。また、しばらく検出対象が静止した場合でも物体を検出する処理であればよい。
The image acquisition unit 101 acquires images to be processed (images forming a moving image) from the
The moving object detection unit 102 detects a moving object from the image acquired by the image acquisition unit 101 by the background subtraction method. The detected moving object information includes a position on the screen, a circumscribed rectangle, and an object size. The moving object detection unit 102 is a process for detecting a motion of an object or the like from an image, and is not limited to the background subtraction method, and may be a process using a motion vector or the like. In addition, even if the detection target is stationary for a while, it may be a process for detecting an object.
動体追尾部103では、前画像で検出された動体と現画像で検出された動体とを対応付けることで追尾処理を行う。新規に検出された動体は、新規に固有の追尾IDが付与され、前画像と対応付けられた動体は、前画像で付与された追尾IDが付与される。
パラメータ設定部105では、状態判定部104の検知線を設定する。
状態判定部104では、動体追尾部103が追尾する物体が、パラメータ設定部105で設定された検知線を通過したか否かを判定する。物体通過の判定は、検知線を構成する線分と前画像から現画像の間での物体の軌跡とが交差したか否かにより判定する。
The moving object tracking unit 103 performs the tracking process by associating the moving object detected in the previous image with the moving object detected in the current image. The newly detected moving object is newly given a unique tracking ID, and the moving object associated with the previous image is given the tracking ID given by the previous image.
The
The
図2に、本実施形態の画像処理装置100の動作手順を説明するフローチャートを示す。
S201において、画像取得部101が監視カメラ150から画像取得を行い、動体検出部102で動体検出処理を行う。
S202において、動体検出部102が動体が検出されたか否かを判定する。動体が検出されなかった場合、処理を終了する。動体が検出された場合、S203に進んで検出領域作成処理を行う。検出領域作成処理は、次に行う動体追尾処理の領域を作成するもので、追尾処理に有効な動体検出結果を出力する。
S204では、動体追尾部103により動体追尾処理が行われ、追尾物体情報として、追尾ID、座標、大きさ、現画像におけるイベント情報、などが出力される。
FIG. 2 shows a flowchart for explaining the operation procedure of the
In step S <b> 201, the image acquisition unit 101 acquires an image from the
In S202, the moving object detection unit 102 determines whether a moving object is detected. If no moving object is detected, the process ends. If a moving object is detected, the process proceeds to S203 to perform detection area creation processing. The detection area creation process creates an area for the next moving object tracking process, and outputs a moving object detection result effective for the tracking process.
In S204, moving object tracking processing is performed by the moving object tracking unit 103, and tracking ID, coordinates, size, event information in the current image, and the like are output as tracking object information.
図3は、S204で行なわれる追尾処理を説明する図である。
図3において、301は前画像における処理結果を示し、302は現画像の処理結果を示している。前画像における処理結果301及び現画像の処理結果302において、動体検出部102により第1の検出物体303、第2の検出物体304が検出される。これらの検出物体303、304は、動体追尾部103により動体追尾処理が行われるが、第1の検出物体303と第2の検出物体304は互いに距離が近接しているため、1つの追尾物体として処理がされる。前画像における処理結果301において、305は動体追尾部103が出力する追尾物体情報である追尾枠Aを示したもので、その情報は、追尾ID1、画面上の座標、大きさ情報が含まれる。
FIG. 3 is a diagram for explaining the tracking process performed in S204.
In FIG. 3, 301 indicates the processing result of the previous image, and 302 indicates the processing result of the current image. In the
また、現画像の処理結果302における画像では、第1の検出物体303は右上へ移動し、第2の検出物体304は左下へ移動している。動体追尾部103では、第1の検出物体303、第2の検出物体304の検出物体間の距離がある閾値以上に離れたため、これらを個別の追尾物体として処理する。306は第1の検出物体303を追尾する追尾枠B(306)、307は第2の検出物体304の追尾枠Cを示しており、追尾枠A(305)は追尾枠B(306)と追尾枠C(307)へと複数個に分割されている。
In the image in the
このとき、追尾枠B(306)、追尾枠C(307)間には追尾枠の親子関係が生成され、追尾IDが継続される側の追尾枠B(306)は親追尾枠、新規追尾IDが付与される追尾枠C(307)は子追尾枠とする。追尾枠B(306)の追尾物体情報は、追尾IDはID1が継続され、イベント情報として、“分割して継続”の情報が保持される。また、追尾枠C(307)は、追尾枠A(305)が分割し、新規に作成されたものであるので、追尾物体情報として、追尾IDは新規にID2が付与され、イベント情報として“分割して新規作成”の情報が保持される。 At this time, a parent-child relationship of the tracking frame is generated between the tracking frame B (306) and the tracking frame C (307), and the tracking frame B (306) on the side where the tracking ID is continued is the parent tracking frame and the new tracking ID. A tracking frame C (307) to which is assigned is a child tracking frame. In the tracking object information in the tracking frame B (306), the tracking ID is ID1, and the information of “divide and continue” is held as event information. In addition, since the tracking frame C (307) is newly created by dividing the tracking frame A (305), the tracking ID is newly assigned ID2 as the tracking object information, and “divided as event information” And “Newly created” information is retained.
図2のフローチャートの説明に戻る。以上のように、動体追尾部103で追尾処理が行われると、次に、画像処理装置100は、S205において追尾結果情報の管理を行う。動体追尾部103が出力した追尾物体情報を管理するもので、追尾物体情報履歴、追尾物体情報配列、追尾物体親子関係などの管理を行う。
S206では、状態判定部104において物体の状態判定を行う。状態判定は、例えばパラメータ設定部105で設定された通過検知線を、追尾物体が通過したか否かを判定して、通過や侵入を検知する。
Returning to the flowchart of FIG. As described above, when the tracking processing is performed by the moving body tracking unit 103, the
In S206, the
図4は、状態判定部104で、行う通過検知判定の手順を説明するフローチャートである。通過判定を行う物体の移動パターンとして、図5、図6に示すような追尾物体が分割するケース、追尾物体が統合されるケースを例に挙げる。
FIG. 4 is a flowchart for explaining the procedure of passage detection determination performed by the
図5は、図3で説明した追尾物体が分割するケースにおいて、通過検知判定を行う処理を説明するための図である。図5において、501は、パラメータ設定部105により設定された通過検知線である。物体が通過検知線を画像上の上から下へ通過したとき、状態判定部104は通過検知と判定する。
FIG. 5 is a diagram for explaining processing for performing passage detection determination in the case where the tracking object described in FIG. 3 is divided. In FIG. 5,
図6は、2つの追尾物体が1つに統合される場合の、通過検知判定を行う処理を説明するための図である。
図6において、601は前画像における処理結果を示し、602は現画像の処理結果を示している。603は、動体検出部102により検出された第3の検出物体、604は、第4の検出物体である。これらは動体追尾部103により追尾され、追尾物体情報である追尾枠D(605)、追尾枠E(606)が示されている。追尾枠D(605)は、追尾IDとしてID3が付与され、追尾枠E(606)の追尾IDはID4が付与されている。
FIG. 6 is a diagram for explaining processing for performing passage detection determination in a case where two tracking objects are integrated into one.
In FIG. 6,
また、608はパラメータ設定部105により設定された通過検知線である。第3の検出物体603は現画像の処理結果602において左下側に移動し、第4の検出物体604は現画像において右側に移動している。そのため、現画像において第3の検出物体603と第4の検出物体604はある閾値以下の距離に近づいたため、動体追尾部103は追尾枠D(605)と追尾枠E(606)を、追尾枠F(607)に統合処理している。追尾枠F(607)は、追尾枠E(606)を継続し、その追尾IDはID4を継続、イベント情報として“統合して継続”情報を保持している。統合による親子関係は、追尾ID4が親追尾枠、追尾ID3は子追尾枠として、追尾結果情報管理の親子関係管理で情報が保持されている。
次に、状態判定部104による通過検知判定動作について、図4により説明する。
状態判定部104は、現画像におけるすべての追尾枠について、図4のフローチャートに示す手順により通過判定処理を行う。
S401において、状態判定部104は、追尾物体情報のイベント情報を参照し、分割・統合のない新規枠か否かを判断する。分割・統合イベントのない新規枠である場合、物体の移動軌跡は存在しないため、S408に進み、通過は非検知となり、処理は終了する。
Next, the passage detection determination operation by the
The
In step S <b> 401, the
S401において、分割・統合のない追尾枠でない場合、S402に進んで分割による新規枠であるか否かを判断する。図5における追尾枠C(307)は、分割により新規に作成された追尾枠であるため、これに該当する。 In S401, if it is not a tracking frame without division / integration, the process proceeds to S402 to determine whether the frame is a new frame by division. The tracking frame C (307) in FIG. 5 corresponds to this because it is a tracking frame newly created by division.
S403において、状態判定部104は、追尾情報結果管理で管理されている分割前親追尾枠の情報を参照し、当該追尾枠との軌跡を計算する。
S407では、計算された軌跡と、通過検知線を構成する線分が交差するか否かを判断し、交差する場合、S409に進んで通過を検知する。また、交差しない場合、S408に進んで通過を非検知(S408)と判定し、処理を終了する。
図5における追尾枠C(307)では、計算された軌跡線は、追尾枠軌跡B(503)のように表される。追尾枠軌跡B(503)は、通過検知線501と交差しているので、この場合、通過検知と判定される。
このように、分割前の追尾物体と分割後の複数の追尾物体の対応関係を用いて状態を判別している。
In S403, the
In S407, it is determined whether or not the calculated trajectory intersects with the line segment constituting the passage detection line. If so, the process proceeds to S409 to detect passage. If the vehicle does not intersect, the process proceeds to S408, where it is determined that the passage is not detected (S408), and the process ends.
In the tracking frame C (307) in FIG. 5, the calculated trajectory line is represented as a tracking frame trajectory B (503). Since the tracking frame trajectory B (503) intersects the
As described above, the state is determined using the correspondence relationship between the tracking object before the division and the plurality of tracking objects after the division.
一方、S402において、分割による新規枠でない場合、S404において統合イベントが発生したか否かを判断する。図6における追尾枠F(607)は、追尾枠D(605)、追尾枠E(606)が統合された統合後の追尾枠であるため、これに該当する。 On the other hand, in S402, if it is not a new frame by division, it is determined in S404 whether or not an integration event has occurred. The tracking frame F (607) in FIG. 6 corresponds to the integrated tracking frame obtained by integrating the tracking frame D (605) and the tracking frame E (606).
S405において、状態判定部104は、追尾情報結果管理で管理されている統合による消失枠(図6においては追尾枠D(605)と、当該追尾枠の軌跡を計算する。次に、S406において、当該追尾枠の前画像から現画像の間での追尾枠の軌跡を計算する。
S407では、これらの軌跡がそれぞれ検知線を構成する線分と交差するか否かを判断し、交差する場合、S409に進んで通過を検知、交差しない場合、S408に進んで通過を非検知と判定し、処理を終了する。
In step S405, the
In S407, it is determined whether or not these trajectories intersect with the line segments constituting the detection line. If they intersect, the process proceeds to S409 to detect the passage, and if not, the process proceeds to S408 and the passage is not detected. Determine and end the process.
図6における追尾枠F(607)では、統合による消失枠である追尾枠D(605)との軌跡を計算する(S405の処理)。
609は、追尾枠D(605)から追尾枠F(607)への第3の追尾枠軌跡を示す。また、当該追尾枠の軌跡を計算(S406処理)するため、追尾枠E(606)との軌跡を計算する。
610は、追尾枠E(606)から追尾枠F(607)への第4の追尾枠軌跡を示す。次に、これらの追尾枠軌跡が検知線と交差するか否かを判断する(S407)が、第3の追尾枠軌跡609は、検知線と交差しているので、通過検知(S409)と判断される。また、第4の追尾軌跡610は、検知線と交差していないため、通過検知は非検知(S408)と判断され、状態判別処理は終了する。
このように、統合前の追尾物体と統合後の追尾物体の対応関係を用いて状態を判別している。
In the tracking frame F (607) in FIG. 6, a trajectory with the tracking frame D (605), which is a lost frame by integration, is calculated (processing of S405).
Thus, the state is determined using the correspondence between the tracking object before integration and the tracking object after integration.
S404において、統合イベントが発生していないと判断された場合、状態判定部104は、前画像から現画像の間での追尾枠の軌跡を計算する(S406)。図5における追尾枠B(306)はこの場合に該当する。追尾枠A(305)から追尾枠B(306)への軌跡は、追尾枠軌跡A(502)で示される。
次に、計算された軌跡と通過検知線と交差するか否かを判定し(S407)、通過の検知、非検知を判定し(S408、S409)、処理を終了する。追尾枠B(306)の場合は、通過検知線と交差しないため、通過は非検知と判定され、状態判別処理は終了する。
If it is determined in S404 that an integrated event has not occurred, the
Next, it is determined whether or not the calculated trajectory and the passage detection line intersect (S407), whether passage is detected or not detected (S408, S409), and the process is terminated. In the case of the tracking frame B (306), since it does not intersect with the passage detection line, it is determined that the passage is not detected, and the state determination process ends.
このように、物体の通過検知を判断する際、検出物体の分割や統合処理が行われても、分割前のそれぞれの追尾物体情報、または統合前のそれぞれの追尾物体情報を参照することで、通過検知の漏れをなくすことができ、より精度の高い通過検知を実現できる。 Thus, when determining the passage detection of the object, even if the detection object is divided or integrated, by referring to the respective tracking object information before the division or the respective tracking object information before the integration, It is possible to eliminate leakage of passage detection, and it is possible to realize passage detection with higher accuracy.
<その他の実施形態>
以上、実施形態例を詳述したが、本発明は例えば、システム、装置、方法、プログラム若しくは記録媒体(記憶媒体)等としての実施態様をとることが可能である。具体的には、複数の機器(例えば、ホストコンピュータ、インタフェース機器、撮像装置、webアプリケーション等)から構成されるシステムに適用してもよいし、また、一つの機器からなる装置に適用してもよい。
<Other embodiments>
Although the embodiment has been described in detail above, the present invention can take an embodiment as a system, apparatus, method, program, recording medium (storage medium), or the like. Specifically, the present invention may be applied to a system composed of a plurality of devices (for example, a host computer, an interface device, an imaging device, a web application, etc.), or may be applied to a device composed of a single device. Good.
また、本発明の目的は、以下のようにすることによって達成されることはいうまでもない。即ち、前述した実施形態の機能を実現するソフトウェアのプログラムコード(コンピュータを制御するプログラム)を記録した記録媒体(または記憶媒体)を、システムあるいは装置に供給する。係る記憶媒体は言うまでもなく、コンピュータ読み取り可能な記憶媒体である。そして、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行する。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。 Needless to say, the object of the present invention can be achieved as follows. That is, a recording medium (or storage medium) in which a program code (software for controlling a computer) that realizes the functions of the above-described embodiments is recorded is supplied to the system or apparatus. Needless to say, such a storage medium is a computer-readable storage medium. Then, the computer (or CPU or MPU) of the system or apparatus reads and executes the program code stored in the recording medium. In this case, the program code itself read from the recording medium realizes the functions of the above-described embodiment, and the recording medium on which the program code is recorded constitutes the present invention.
301 前画像における処理結果
302 現画像における処理結果
303 第1の検出物体
304 第2の検出物体
305 追尾枠A
306 追尾枠B
307 追尾枠C
501 通過検知線
502 追尾枠軌跡A
503 追尾枠軌跡B
601 前画像における処理結果
602 現画像の処理結果
603 第3の検出物体
604 第4の検出物体
605 追尾枠D
606 追尾枠E
607 追尾枠F
608 通過検知線
609 第3の追尾枠軌跡
610 第4の追尾枠軌跡
301 Processing result in
306 Tracking frame B
307 Tracking frame C
501
503 Tracking frame trajectory B
601 Processing result in
606 Tracking frame E
607 Tracking frame F
608
Claims (6)
前記動体検出手段により現画像から検出された動体と前画像から検出された物体とを対応付けて追尾処理を行う動体追尾手段と、
前記動体追尾手段により追尾される前記前画像の追尾物体が前記現画像において複数個に分割した場合、前記前画像の追尾物体と前記現画像の複数の追尾物体の対応関係を用いて、前記前画像の追尾物体と前記現画像の複数の追尾物体との移動軌跡のそれぞれが通過検知線と交差するか判断する判断手段とを有することを特徴とする画像処理装置。 A moving object detection means for detecting a moving object from a video;
A moving body tracking means for performing tracking processing in association with a moving body detected from the current image by the moving body detection means and an object detected from the previous image ;
Wherein when the tracking object of the previous image to be tracked by the moving body tracking means is divided into a plurality in the current image, using the corresponding relationship between a plurality of tracking objects of the current image and the tracking object of the previous image, the front An image processing apparatus, comprising: a determination unit configured to determine whether each of movement traces of a tracking object of an image and a plurality of tracking objects of the current image intersects a passage detection line .
前記動体検出手段により現画像から検出された動体と前画像から検出された物体とを対応付けて追尾処理を行う動体追尾手段と、
前記動体追尾手段により追尾される前記前画像の複数の追尾物体が前記現画像において統合した場合、前記前画像の追尾物体と前記現画像の追尾物体の対応関係を用いて、前記前画像の複数の追尾物体と前記現画像の追尾物体との移動軌跡のそれぞれが通過検知線と交差しているか判断する判断手段とを有することを特徴とする画像処理装置。 A moving object detection means for detecting a moving object from a video;
A moving body tracking means for performing tracking processing in association with a moving body detected from the current image by the moving body detection means and an object detected from the previous image ;
If multiple tracking objects of the previous image to be tracked by the moving body tracking means is integrated in the current image, using the correspondence between the tracked object of the current image and the tracking object of the previous image, a plurality of said previous image An image processing apparatus comprising: a determination unit configured to determine whether each of the movement trajectories of the tracking object and the tracking object of the current image intersects a passage detection line .
前記動体検出工程において現画像から検出された動体と前画像から検出された物体とを対応付けて追尾処理を行う動体追尾工程と、
前記動体追尾工程において追尾される前記前画像の追尾物体が前記現画像において複数個に分割した場合、前記前画像の追尾物体と前記現画像の複数の追尾物体の対応関係を用いて、前記前画像の追尾物体と前記現画像の複数の追尾物体との移動軌跡のそれぞれが通過検知線と交差するか判断する判断工程とを有することを特徴とする画像処理方法。 A moving object detection step of detecting a moving object from a video;
A moving body tracking step of performing tracking processing in association with the moving body detected from the current image and the object detected from the previous image in the moving body detection step;
When said tracking objects of the previous image to be tracked in the moving object tracking step is divided into a plurality in the current image, using the corresponding relationship between a plurality of tracking objects of the current image and the tracking object of the previous image, the front An image processing method comprising: a determination step of determining whether or not each movement locus of a tracking object of an image and a plurality of tracking objects of the current image intersects a passage detection line .
前記動体検出工程において現画像から検出された動体と前画像から検出された物体とを対応付けて追尾処理を行う動体追尾工程と、
前記動体追尾工程において追尾される前記前画像の複数の追尾物体が前記現画像において統合した場合、前記前画像の追尾物体と前記現画像の追尾物体の対応関係を用いて、前記前画像の複数の追尾物体と前記現画像の追尾物体との移動軌跡のそれぞれが通過検知線と交差しているか判断する判断工程とを有することを特徴とする画像処理方法。 A moving object detection step of detecting a moving object from a video;
A moving body tracking step of performing tracking processing in association with the moving body detected from the current image and the object detected from the previous image in the moving body detection step;
If multiple tracking objects of the previous image to be tracked in the moving object tracking step is integrated in the current image, using the correspondence between the tracked object of the current image and the tracking object of the previous image, a plurality of said previous image And a determination step of determining whether each of the movement trajectories of the tracking object of the current image and the tracking object of the current image intersects the passage detection line .
前記動体検出手段により現画像から検出された動体と前画像から検出された物体とを対応付けて追尾処理を行う動体追尾手段と、
前記動体追尾手段により追尾される前記前画像の追尾物体が前記現画像において複数個に分割した場合、前記前画像の追尾物体と前記現画像の複数の追尾物体の対応関係を用いて、前記前画像の追尾物体と前記現画像の複数の追尾物体との移動軌跡のそれぞれが通過検知線と交差するか判断する判断手段としてコンピュータを機能させるためのプログラム。 A moving object detection means for detecting a moving object from a video;
A moving body tracking means for performing tracking processing in association with a moving body detected from the current image by the moving body detection means and an object detected from the previous image ;
Wherein when the tracking object of the previous image to be tracked by the moving body tracking means is divided into a plurality in the current image, using the corresponding relationship between a plurality of tracking objects of the current image and the tracking object of the previous image, the front A program for causing a computer to function as a determination unit that determines whether each of the movement trajectories of a tracking object of an image and a plurality of tracking objects of the current image intersects a passage detection line .
前記動体検出手段により現画像から検出された動体と前画像から検出された物体とを対応付けて追尾処理を行う動体追尾手段と、
前記動体追尾手段により追尾される前記前画像の複数の追尾物体が前記現画像において統合した場合、前記前画像の追尾物体と前記現画像の追尾物体の対応関係を用いて、前記前画像の複数の追尾物体と前記現画像の追尾物体との移動軌跡のそれぞれが通過検知線と交差しているか判断する判断手段としてコンピュータを機能させるためのプログラム。 A moving object detection means for detecting a moving object from a video;
A moving body tracking means for performing tracking processing in association with a moving body detected from the current image by the moving body detection means and an object detected from the previous image ;
If multiple tracking objects of the previous image to be tracked by the moving body tracking means is integrated in the current image, using the correspondence between the tracked object of the current image and the tracking object of the previous image, a plurality of said previous image A program for causing a computer to function as determination means for determining whether each of the movement trajectories of the tracking object and the tracking object of the current image intersects the passage detection line .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012108672A JP5925047B2 (en) | 2012-05-10 | 2012-05-10 | Image processing apparatus and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012108672A JP5925047B2 (en) | 2012-05-10 | 2012-05-10 | Image processing apparatus and image processing method |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2013236324A JP2013236324A (en) | 2013-11-21 |
JP2013236324A5 JP2013236324A5 (en) | 2015-05-28 |
JP5925047B2 true JP5925047B2 (en) | 2016-05-25 |
Family
ID=49762062
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012108672A Active JP5925047B2 (en) | 2012-05-10 | 2012-05-10 | Image processing apparatus and image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5925047B2 (en) |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04273689A (en) * | 1991-02-28 | 1992-09-29 | Hitachi Ltd | Monitoring device |
JP3657116B2 (en) * | 1997-05-14 | 2005-06-08 | 株式会社日立国際電気 | Object tracking method and object tracking apparatus |
JP5457257B2 (en) * | 2010-04-19 | 2014-04-02 | セコム株式会社 | Suspicious person detection device |
-
2012
- 2012-05-10 JP JP2012108672A patent/JP5925047B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2013236324A (en) | 2013-11-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6310093B2 (en) | Target object detection method, detection apparatus, and robot | |
JP5656567B2 (en) | Video processing apparatus and method | |
JP6672712B2 (en) | Abnormal work detection system and abnormal work detection method | |
JP2008217602A (en) | Suspicious behavior detection system and method | |
JP5754990B2 (en) | Information processing apparatus, information processing method, and program | |
JP2014002462A (en) | Video processing apparatus, video processing method, and program | |
KR20170056860A (en) | Method of generating image and apparatus thereof | |
CN111798487A (en) | Target tracking method, device and computer readable storage medium | |
JP2017103688A5 (en) | ||
US10207409B2 (en) | Image processing method, image processing device, and robot system | |
JP6499716B2 (en) | Shape recognition apparatus, shape recognition method, and program | |
JPWO2018235219A1 (en) | Self-location estimation method, self-location estimation device, and self-location estimation program | |
US20190156138A1 (en) | Method, system, and computer-readable recording medium for image-based object tracking | |
JP2012128877A (en) | Suspicious behavior detection system and method | |
WO2016151976A1 (en) | Moving body detection device, image processing device, moving body detection method, and integrated circuit | |
US9091821B2 (en) | Device and method of focusing on points of objects | |
US11199561B2 (en) | System and method for standardized evaluation of activity sequences | |
US10996235B2 (en) | System and method for cycle duration measurement in repeated activity sequences | |
JP5925047B2 (en) | Image processing apparatus and image processing method | |
CN116048011A (en) | Operation condition monitoring system, operation condition monitoring method, and computer-readable storage medium storing operation condition monitoring program | |
CN106375654B (en) | Apparatus and method for controlling web camera | |
JP2023548749A (en) | Method and system for annotation of sensor data | |
KR102141946B1 (en) | Apparatus and method for identifying modal parameters of structures | |
JP2021196899A (en) | Image processing apparatus, image processing method, and program | |
US20190156512A1 (en) | Estimation method, estimation apparatus, and non-transitory computer-readable storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150409 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150409 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20151222 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160219 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160322 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160419 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5925047 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |