JP2018147311A - Image processing apparatus, tracking method, and tracking program - Google Patents
Image processing apparatus, tracking method, and tracking program Download PDFInfo
- Publication number
- JP2018147311A JP2018147311A JP2017043036A JP2017043036A JP2018147311A JP 2018147311 A JP2018147311 A JP 2018147311A JP 2017043036 A JP2017043036 A JP 2017043036A JP 2017043036 A JP2017043036 A JP 2017043036A JP 2018147311 A JP2018147311 A JP 2018147311A
- Authority
- JP
- Japan
- Prior art keywords
- state
- target object
- unit
- vehicle
- identification
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/215—Motion-based segmentation
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
Abstract
Description
この発明は、対象エリアを撮像したフレーム画像を処理し、撮像されている対象オブジェクトの移動を追跡する技術に関する。 The present invention relates to a technique for processing a frame image obtained by imaging a target area and tracking the movement of the target object being imaged.
従来、対象エリアを撮像したフレーム画像を処理して、対象エリア内における人や車両等のオブジェクトの移動を追跡する装置がある(例えば、特許文献1〜3参照)。
2. Description of the Related Art Conventionally, there is an apparatus that processes a frame image obtained by capturing a target area and tracks the movement of an object such as a person or a vehicle within the target area (see, for example,
この種の装置は、対象エリアを撮像したフレーム画像毎に、そのフレーム画像に撮像されているオブジェクトを検出する。フレーム画像に撮像されているオブジェクトの検出は、背景差分、フレーム間差分、パターンマッチング等の手法で行われる。また、この種の装置は、フレーム画像間で検出したオブジェクトを同定することにより、対象エリア内におけるオブジェクトの移動を追跡する。 This type of apparatus detects the object imaged in the frame image for each frame image obtained by imaging the target area. Detection of an object captured in a frame image is performed by a method such as background difference, inter-frame difference, pattern matching, and the like. Also, this type of device tracks the movement of the object within the target area by identifying the detected object between the frame images.
しかしながら、対象エリアにおいて、追跡しているオブジェクトの状態(向きや姿勢等)が変化すると、その状態の変化にともなって、フレーム画像に撮像されているオブジェクト(追跡しているオブジェクト)の形状や、移動方向等が変化する。 However, when the state (orientation, posture, etc.) of the tracked object changes in the target area, the shape of the object (tracked object) captured in the frame image is changed along with the change of the state, The direction of movement changes.
特許文献1〜3に記載されている装置は、フレーム画像間におけるオブジェクトの同定において、フレーム画像に撮像されているオブジェクトの形状の変化や、オブジェクトの移動方向の変化に対応しておらず、オブジェクトの状態が変化するとフレーム画像間におけるオブジェクトの同定に失敗することがあった。
The devices described in
この発明の目的は、追跡しているオブジェクトの状態の変化による影響を抑え、フレーム画像間でのオブジェクトの同定精度の向上を図る技術を提供することにある。 An object of the present invention is to provide a technique for suppressing the influence of a change in the state of a tracked object and improving the accuracy of identifying the object between frame images.
この発明の画像処理装置は、上記目的を達するために、以下のように構成している。 In order to achieve the above object, the image processing apparatus of the present invention is configured as follows.
画像入力部には、対象エリアを撮像したフレーム画像が入力される。オブジェクト検出部は、画像入力部に入力されたフレーム画像を処理し、撮像されている対象オブジェクトを検出する。同定部は、撮像タイミングが異なる2つのフレーム画像において、オブジェクト検出部が検出した対象オブジェクトを同定する。 A frame image obtained by imaging the target area is input to the image input unit. The object detection unit processes the frame image input to the image input unit and detects the target object being imaged. The identification unit identifies a target object detected by the object detection unit in two frame images having different imaging timings.
また、状態認識部は、オブジェクト検出部が検出した対象オブジェクトの状態を認識する。例えば、状態認識部は、対象オブジェクトについて、予め定めた複数の状態別に、その状態である確からしさの度合いを認識する。また、状態遷移予測部は、対象オブジェクトが遷移する状態を予測する。 The state recognition unit recognizes the state of the target object detected by the object detection unit. For example, the state recognizing unit recognizes the degree of certainty of the target object for each of a plurality of predetermined states. The state transition prediction unit predicts a state in which the target object transitions.
そして、同定部は、フレーム画像間での対象オブジェクトの同定を、状態認識部が認識した対象オブジェクトの状態と、状態遷移予測部が予測した対象オブジェクトが遷移する状態とに応じて行う。例えば、同定部は、対象オブジェクトを同定するフレーム画像であって、先に撮像された一方のフレーム画像に対して、状態認識部が認識した対象オブジェクトの状態と状態遷移予測部が予測した対象オブジェクトの遷移する状態とに応じて、後に撮像された他方のフレーム画像上において同定する対象オブジェクトを探索する領域を決定する。したがって、追跡している対象オブジェクトの状態(向きや姿勢等)が変化し、その状態の変化にともなって、フレーム画像に撮像されている対象オブジェクト(追跡しているオブジェクト)の形状や、移動方向等が変化しても、その変化に応じて、対象オブジェクトをフレーム画像間で同定できる。すなわち、追跡しているオブジェクトの状態の変化による影響を抑え、フレーム画像間でのオブジェクトの同定精度の向上が図れる。 Then, the identification unit identifies the target object between the frame images according to the state of the target object recognized by the state recognition unit and the state in which the target object predicted by the state transition prediction unit transitions. For example, the identification unit is a frame image for identifying the target object, and the target object recognized by the state transition prediction unit and the state of the target object recognized by the state recognition unit with respect to one of the previously captured frame images In accordance with the state of transition, the area for searching for the target object to be identified on the other frame image captured later is determined. Therefore, the state (orientation, posture, etc.) of the tracked target object changes, and the shape of the target object (tracked object) captured in the frame image and the moving direction are changed with the change of the state. Etc., the target object can be identified between the frame images according to the change. That is, it is possible to suppress the influence due to the change in the state of the tracked object and improve the object identification accuracy between the frame images.
また、対象オブジェクトについて、予め定めた複数の状態に属する2つの状態の組合せ毎に、一方の状態から他方の状態に遷移する度合いを示す状態遷移パラメータを記憶する記憶部を備え、状態遷移予測部がこの状態遷移パラメータを用いて、対象オブジェクトが遷移する状態を予測する構成にしてもよい。このように構成すれば、状態遷移パラメータを適正に設定することで、状態遷移予測部における対象オブジェクトが遷移する状態の予測精度を向上できる。これにより、フレーム画像間における対象オブジェクトの同定精度の一層の向上が図れる。 In addition, the target object includes a storage unit that stores a state transition parameter indicating a degree of transition from one state to the other state for each combination of two states belonging to a plurality of predetermined states, and a state transition prediction unit However, the state transition parameter may be used to predict the state in which the target object transitions. If comprised in this way, the prediction accuracy of the state in which the target object in a state transition prediction part will change can be improved by setting a state transition parameter appropriately. Thereby, the identification accuracy of the target object between the frame images can be further improved.
さらに、状態遷移予測部は、状態認識部が認識した対象オブジェクトの状態をも用いて、対象オブジェクトが遷移する状態を予測する構成にしてもよい。このように構成すれば、状態遷移予測部は、対象オブジェクトの現在の状態も考慮して、遷移する状態を予測するので、対象オブジェクトが遷移する状態の予測精度の一層の向上が図れる。 Further, the state transition prediction unit may be configured to predict the state in which the target object transitions using the state of the target object recognized by the state recognition unit. With this configuration, the state transition prediction unit predicts the transition state in consideration of the current state of the target object, so that the prediction accuracy of the state in which the target object transitions can be further improved.
この発明によれば、追跡しているオブジェクトの状態の変化による影響を抑え、フレーム画像間でのオブジェクトの同定精度の向上が図れる。 According to the present invention, it is possible to suppress the influence due to the change in the state of the object being tracked, and to improve the object identification accuracy between the frame images.
以下、この発明の実施形態である画像処理装置について説明する。 Hereinafter, an image processing apparatus according to an embodiment of the present invention will be described.
図1は、この例にかかる画像処理装置の主要部の構成を示す図である。この例にかかる画像処理装置1は、制御部2と、画像入力部3と、出力部4と、状態遷移パラメータ記憶部5と、を備えている。この画像処理装置1には、カメラ10が接続されている。カメラ10の撮像エリアは、オブジェクトを追跡する対象エリアを含む大きさである。この例では、画像処理装置1が対象エリアにおいて追跡するオブジェクトは、車両である。すなわち、この例では、車両が、この発明で言う対象オブジェクトに相当する。カメラ10は、モノクロ画像を撮像するものであってもよいし、カラー画像を撮像するものであってもよい。カメラ10は、一定のフレームレート(例えば、30フレーム/sec)で撮像したフレーム画像を画像処理装置1に入力する。
FIG. 1 is a diagram showing a configuration of a main part of the image processing apparatus according to this example. The
なお、画像処理装置1は、図1に示すようにカメラ10から直接フレーム画像を入力してもよいし、カメラ10が撮像したフレーム画像をハードディスク等のメディアに一旦記録し、このメディアに記録したフレーム画像を入力してもよい。
The
制御部2は、画像処理装置1本体の各部を制御する。また、制御部2は、カメラ10が撮像したフレーム画像を処理し、フレーム画像に撮像されている車両を検出し、検出した車両の追跡を行う。制御部2は、図1に示すように、オブジェクト検出機能部21、状態認識機能部22、状態遷移予測機能部23、および同定機能部24を有している。
The
この制御部2は、ハードウェアCPU、メモリ、その他の電子回路によって構成されている。ハードウェアCPUが、オブジェクト検出機能部21、状態認識機能部22、状態遷移予測機能部23、および同定機能部24として機能する。また、メモリは、ワーキングエリアとして、一時的なデータの記憶領域として利用される。また、制御部2が、この発明にかかる追跡方法を実行する。また、この発明にかかる追跡プログラムは、制御部2において実行される。制御部2は、ハードウェアCPU、メモリ、その他の電子回路を一体化したLSIであってもよい。
The
制御部2が有するオブジェクト検出機能部21、状態認識機能部22、状態遷移予測機能部23、および同定機能部24の詳細については後述する。
Details of the object
なお、オブジェクト検出機能部21、状態認識機能部22、状態遷移予測機能部23、および同定機能部24は、制御部2とは別に設けた画像処理プロセッサで構成してもよい。この場合、画像処理プロセッサが、この発明にかかる追跡方法を実行する。また、この発明にかかる追跡プログラムは、画像処理プロセッサにおいて実行される。
Note that the object
画像入力部3には、カメラ10が予め定めたフレームレートで撮像エリアを撮像したフレーム画像が入力される。画像入力部3は、入力されたフレーム画像を一時的に記憶する画像メモリを有している。
The
出力部4は、対象エリア内で追跡した各車両の追跡結果(後述する、オブジェクトマップ)を上位装置(不図示)に出力する。
The
状態遷移パラメータ記憶部5は、車両が状態Siから状態Sjに遷移する度合いを定めた状態遷移パラメータを記憶する。この例では、車両の状態Sは、フレーム画像上における車両の向きであり、図2に示す8つの状態S1〜S8に分類している。状態の分類数は、8つに限らず、2つ以上であればいくつであってもよい。図2に示す車両の状態S1〜S8(向き)は、カメラ10が撮像したフレーム画像上における向きである。撮像エリアに対するカメラ10の撮像方向は固定であるので、図2に示す状態S1〜S8の車両は、撮像エリアにおいて向きが異なっている。図2に示す、
状態S1は、車両がフレーム画像上において後ろ向きである状態であり、
状態S2は、車両がフレーム画像上において左斜め後ろ向きである状態であり、
状態S3は、車両がフレーム画像上において左横向きである状態であり、
状態S4は、車両がフレーム画像上において左斜め前向きである状態であり、
状態S5は、車両がフレーム画像上において前向きである状態であり、
状態S6は、車両がフレーム画像上において右斜め前向きである状態であり、
状態S7は、車両がフレーム画像上において右横向きである状態であり、
状態S8は、車両がフレーム画像上において右斜め後ろ向きである状態である。
The state transition
State S1 is a state in which the vehicle is facing backward on the frame image,
State S2 is a state in which the vehicle is diagonally left rearward on the frame image,
State S3 is a state in which the vehicle is facing left side on the frame image,
State S4 is a state in which the vehicle is diagonally left frontward on the frame image,
State S5 is a state in which the vehicle is facing forward on the frame image,
State S6 is a state in which the vehicle is diagonally forward right on the frame image,
State S7 is a state in which the vehicle is facing right side on the frame image,
State S8 is a state in which the vehicle is obliquely rearward to the right on the frame image.
状態遷移パラメータ記憶部5が記憶する状態遷移パラメータは、n行n列の正方行列Tである。nは、追跡対象であるオブジェクトの状態の分類数である。この例では上述したように車両の状態の分類数は8つであるので、n=8である。状態遷移パラメータである正方行列T(以下、単に状態遷移パラメータTと言う。)の各要素Tjiは、車両が状態Siから状態Sjに遷移する度合いである。ここで言う車両の状態Sの遷移には、同じ状態Sの遷移も含まれる。
The state transition parameter stored in the state transition
追跡する対象オブジェクトである車両の状態Sは、フレーム画像間において急激に変化することはなく、徐々に変化する。例えば、あるフレーム画像に撮像されている車両が図2に示す状態S1〜S8のいずれかである場合、次のフレーム画像に撮像されている当該車両は、同じ状態、または図2に示す隣接する2つの状態(合計3つの状態)のいずれかに遷移する度合いが高く、これら以外の状態に遷移する度合いは極めて小さい。例えば、あるフレーム画像に撮像されている車両が図2に示す状態S1である場合、次のフレーム画像に撮像されている当該車両は、同じ状態S1、または図2に示す隣接する2つの状態S2、S8のいずれかである度合いが高く、これら以外の状態S3〜S7である度合いは極めて小さい。 The state S of the vehicle that is the target object to be tracked does not change abruptly between the frame images and gradually changes. For example, when the vehicle imaged in a certain frame image is in any one of the states S1 to S8 shown in FIG. 2, the vehicle imaged in the next frame image is the same state or adjacent in FIG. The degree of transition to one of two states (total of three states) is high, and the degree of transition to other states is extremely small. For example, when a vehicle imaged in a certain frame image is in the state S1 shown in FIG. 2, the vehicle imaged in the next frame image is the same state S1 or two adjacent states S2 shown in FIG. , S8 is high and the other states S3 to S7 are extremely small.
この状態遷移パラメータTは、カメラ10で撮像する対象エリアにおける車両の状態遷移を計測し、その計測結果を統計的に処理する等して各要素Tjiを決定すればよい。状態遷移パラメータ記憶部5が、この発明で言う記憶部に相当する。
The state transition parameter T measures the state transition of the vehicle in the target area to be imaged by the
次に、制御部2が有するオブジェクト検出機能部21、状態認識機能部22、状態遷移予測機能部23、および同定機能部24について説明する。
Next, the object
オブジェクト検出機能部21は、カメラ10が撮像したフレーム画像に撮像されている車両を検出する。オブジェクト検出機能部21は、カメラ10が撮像したフレーム画像と背景画像との差分画像(背景差分画像)を生成して撮像されている車両を検出する構成であってもよいし、カメラ10が撮像したフレーム画像間の差分画像(フレーム間差分画像)を生成して撮像されている車両を検出する構成であってもよい。また、オブジェクト検出機能部21は、カメラ10が撮像したフレーム画像に撮像されている車両をパターンマッチングによって検出する構成であってもよいし、これら以外の公知の手法で検出する構成であってもよい。オブジェクト検出機能部21が、この発明で言うオブジェクト検出部に相当する。
The object
状態認識機能部22は、オブジェクト検出機能部21が検出した車両について、フレーム画像上における状態ベクトルsを認識する。上述したように、この例では、追跡する車両の状態Sを8つに分類している。状態認識機能部22は、オブジェクト検出機能部21が検出した車両について、図2に示す状態S1〜S8の確からしさの度合いa1〜a8を認識する。具体的には、状態認識機能部22は、フレーム画像上における車両の状態ベクトルsとして、
s=(a1,a2,a3,a4,a5,a6,a7,a8)
の8次元のベクトルとして認識する。am(m=1〜8)は、検出した車両が図2に示した状態Sn(n=1〜8)である確からしさの度合いの認識結果である。
The state
s = (a1, a2, a3, a4, a5, a6, a7, a8)
As an 8-dimensional vector. am (m = 1 to 8) is a recognition result of the degree of probability that the detected vehicle is in the state Sn (n = 1 to 8) shown in FIG.
例えば、状態認識機能部22は、フレーム画像上における車両が状態S1であり、他の状態S2〜S8でないことを認識した場合、フレーム画像上における車両の状態ベクトルsとして、
s=(1,0,0,0,0,0,0,0)
の8次元のベクトルを生成する。また、状態認識機能部22は、フレーム画像上における車両が状態S3〜S8でないことを認識できたが、状態S1であるか状態S2であるかの認識ができなかった場合(状態S1、と状態S2の確からしさが同じである場合、)、フレーム画像上における車両の状態ベクトルsとして、
s=(1,1,0,0,0,0,0,0)
の8次元のベクトルを生成する。さらに、状態認識機能部22は、フレーム画像上における車両が状態S1〜S8のいずれであるか認識できなかった場合(状態S1〜状態S8の確からしさが同じ場合、)、フレーム画像上における車両の状態ベクトルsとして、
s=(1,1,1,1,1,1,1,1)
の8次元のベクトルを生成する。
For example, when the state
s = (1, 0, 0, 0, 0, 0, 0, 0)
To generate an eight-dimensional vector. In addition, the state
s = (1,1,0,0,0,0,0,0)
To generate an eight-dimensional vector. Furthermore, when the state
s = (1,1,1,1,1,1,1,1,1)
To generate an eight-dimensional vector.
状態認識機能部22は、フレーム画像に撮像されている車両の特徴から状態ベクトルsを認識してもよいし、当該車両についてすでに認識した状態ベクトルsを用いて、今回のフレーム画像における状態ベクトルsを認識してもよい。状態認識機能部22が、この発明で言う状態認識部に相当する。
The state
なお、状態認識機能部22は、8次元ベクトルの各要素値の総和が1になるように、フレーム画像上における車両の状態ベクトルsを生成してもよい。すなわち、状態認識機能部22は、各要素値を対応する状態Sである確率として算出してもよい。
Note that the state
状態遷移予測機能部23は、カメラ10があるタイミングで撮像したフレーム画像における車両の状態S’を、状態認識機能部22がそれ以前に撮像したフレーム画像を処理して生成した車両の状態ベクトルsと、状態遷移パラメータ記憶部5に記憶している状態遷移パラメータTと、を用いて予測する。具体的には、後述する同定機能部24が、撮像されている車両を同定する2つのフレーム画像であって、先に撮像されたフレーム画像を処理して生成した車両の状態ベクトルsと、状態遷移パラメータ記憶部5に記憶している状態遷移パラメータTと、を用いて、後に撮像されたフレーム画像における車両の状態S’を予測する。
The state transition
状態遷移予測機能部23は、後に撮像されたフレーム画像における車両の各状態S1〜S8について、その確からしさの度合いs’を算出する。この例では、
s’=R・T・s
により算出する。ここでRは、状態遷移パラメータTと同じ、n行n列の正方行列である。行列Rは、例えば、対角成分がその時点における車両の状態Sの確からしさの度合い(a1〜a8)であり、その他の成分が0である。
The state transition
s' = R / T / s
Calculated by Here, R is the same n-by-n square matrix as the state transition parameter T. In the matrix R, for example, the diagonal component is the degree of likelihood (a1 to a8) of the state S of the vehicle at that time, and the other components are zero.
なお、状態遷移予測機能部23は、行列Rを用いずに、
s’=T・s
により算出する構成であってもよい。
The state transition
s ′ = T · s
The configuration may be calculated by the following.
上記式で算出されたs’は、8次元のベクトルである。状態遷移予測機能部23は、上記式で算出したs’において、確からしさの度合いが最大である状態Sを、後に撮像されたフレーム画像における車両の状態S’であると予測する。状態遷移予測機能部23が、この発明で言う状態遷移予測部に相当する。
S ′ calculated by the above equation is an 8-dimensional vector. The state transition
同定機能部24は、状態遷移予測機能部23によって予測された車両の状態S’に応じて、フレーム間における車両の同定を行う。図3は、フレーム画像間での車両の同定を説明する図である。図3(A)は、従来のフレーム画像間での車両の同定を示し、図3(B)は、この例にかかるフレーム画像間で車両の同定を示す。図3(A)、(B)は、説明をわかりやすくするため、カメラ10がタイミングt0、t1、およびt2(時間の経過は、t0、t1、t2の順番である。)で撮像したフレーム画像に撮像された同一車両(追跡している車両)を示している。車両は、図中に矢示する方向に移動している。
The
図3(A)に示す従来の方式は、車両の移動ベクトルのみで追跡している車両を探索する探索領域51、52を決定する構成である。探索領域51は、カメラ10がタイミングt1で撮像したフレーム画像に対して追跡している車両を探索する領域であり、探索領域52は、カメラ10がタイミングt2で撮像したフレーム画像に対して追跡している車両を探索する領域である。図3(A)に示すように、車両の向き(状態)が変化し、当該車両の走行方向が変化すると、カメラ10がタイミングt2で撮像したフレーム画像では、追跡している車両が探索領域52内に位置しない。このため、カメラ10がタイミングt1で撮像したフレーム画像と、カメラ10がタイミングt2で撮像したフレーム画像との間で、追跡している車両を同定することができず、追跡に失敗する。
The conventional method shown in FIG. 3A is a configuration for determining search areas 51 and 52 for searching for a vehicle that is being tracked using only the movement vector of the vehicle. The search area 51 is an area for searching for a vehicle being tracked with respect to the frame image captured by the
この例にかかる画像処理装置1は、車両の移動ベクトルだけでなく、予測した車両の状態の遷移に基づいて、追跡している車両の探索領域61、62を決定する。探索領域61は、カメラ10がタイミングt1で撮像したフレーム画像に対して追跡している車両を探索する領域であり、探索領域62は、カメラ10がタイミングt2で撮像したフレーム画像に対して追跡している車両を探索する領域である。図3(B)に示すように、探索領域62は、車両の向き(状態)が左向きに変化することを予測したことにより、図3(A)に示した領域52比べて、左側に広げている。このため、カメラ10がタイミングt1で撮像したフレーム画像と、カメラ10がタイミングt2で撮像したフレーム画像との間においても、車両を同定することができ、追跡に失敗するのを抑制できる。
The
また、同定機能部24は、予測した車両の向き(状態)を考慮して、フレーム画像間で同定する。具体的には、同定機能部24は、領域62内に位置する車両であっても、予測した車両の向き、またはこの向きに隣接する向きでなければ、同定しない。これにより、フレーム画像間で、異なる車両を同定して、追跡に失敗するのを抑制できる。
Further, the
また、同定機能部24は、対象エリア内で追跡した車両について、フレーム間で同定した同定結果に基づきオブジェクトマップを作成する。図4は、同定機能部が生成するオブジェクトマップを示す図である。オブジェクトマップは、対象エリア内で追跡した車両毎に作成される。IDは、追跡した車両に割り振ったIDである。図4に示すように、オブジェクトマップは、その車両が検出されたフレーム画像毎に、撮像時刻と、フレーム画像上(または実空間上)の位置と、車両の状態Sと、状態ベクトルsと、を対応付けて登録したものである。
Moreover, the
出力部4は、上述したように、同定機能部24によって生成されたオブジェクトマップを上位装置に出力する。
As described above, the
以下、この例にかかる画像処理装置の動作について説明する。図5は、この例にかかる画像処理装置の動作を示すフローチャートである。画像処理装置1は、処理対象フレーム画像を選択する(st1)。st1では、画像入力部3に入力されたフレーム画像であって、直前に選択した処理対象フレーム画像からnフレーム後(nは、1以上の整数)のフレーム画像を処理対象フレーム画像として選択する。すなわち、画像処理装置1は、カメラ10が撮像し、画像入力部3に入力されたフレーム画像を順番に処理してもよいし、予め定めたフレーム間隔で抽出したフレーム画像のみを処理してもよい。
The operation of the image processing apparatus according to this example will be described below. FIG. 5 is a flowchart showing the operation of the image processing apparatus according to this example. The
画像処理装置1は、オブジェクト検出機能部21がst1で選択した処理対象フレーム画像に撮像されている車両を検出する車両検出処理を行う(st2)。st2では、上述したように、背景差分等の公知の手法で、処理対象フレーム画像に撮像されている車両を検出する。
The
画像処理装置1は、状態認識機能部22がst2で検出した車両毎に、車両の状態ベクトルsを認識する(st3)。車両の状態ベクトルsは、上述したように、この例では8次元のベクトルであり、車両が図2に示した状態Sn(n=1〜8)である確からしさの度合いの認識結果である。また、画像処理装置1は、状態遷移予測機能部23が、状態認識機能部22がst2で検出した車両について遷移する状態S’を予測する(st4)。st4では、次に選択する処理対象フレームにおける車両の状態S’を予測している。
The
画像処理装置1は、同定機能部24が前回の処理対象フレーム画像に対する上述のst3、およびst4で認識した車両の状態Sと、予測した車両の状態S’とに基づいて、今回の処理対象フレーム画像に対する車両の探索領域を決定する(st5)。同定機能部24は、st3で認識した車両の状態Sと、st4で予測した車両の状態S’とが同じであるかどうかを判定する。同定機能部24は、st3で認識した車両の状態Sと、st4で予測した車両の状態S’とが同じであれば、追跡している車両の移動ベクトルに基づいて探索領域を決定する。また、同定機能部24は、st3で認識した車両の状態Sと、st4で予測した車両の状態S’とが同じでなければ、まず追跡している車両の移動ベクトルに基づいて探索領域を仮決定し、仮決定した探索領域を状態Sから状態S’の変化に応じた方向に広げた領域を探索領域に決定する。
The
画像処理装置1は、同定機能部24が、追跡している車両を、前回の処理対象フレーム画像と、今回の処理対象フレーム画像との間で同定する同定処理を行い(st6)、st1に戻る。st6では、追跡している車両を、今回の処理対象フレーム画像に撮像されている車両であって、s5で決定した探索領域内に位置する車両と同定する。また、同定機能部24が、追跡している車両を、s5で決定した探索領域内に位置する車両であっても、前回の処理対象フレーム画像に対するst4で予測した車両の状態S’、またはこの予測した状態S’に隣接する状態でない車両については、同定しない。
The
したがって、この例にかかる画像処理装置1は、追跡対象である車両の状態(向き)の変化による影響を抑え、フレーム画像間での車両の同定精度の向上が図れる。
Therefore, the
また、上記の例では、追跡対象であるオブジェクトが車両であるとしたが、追跡対象であるオブジェクトは、人であってもよいし、その他の移動体であってもよい。また、車両の向きを状態とし、その遷移を判断するとしたが、追跡対象であるオブジェクトが人である場合には、向きだけでなく、姿勢等も判断する状態に加えてもよい。 In the above example, the object to be tracked is a vehicle, but the object to be tracked may be a person or other moving object. In addition, the direction of the vehicle is set as a state, and the transition is determined. However, when the object to be tracked is a person, not only the direction but also the posture and the like may be determined.
また、状態遷移パラメータTは、AI(Artificial Intelligence)を用いて、更新する構成にしてもよい。 The state transition parameter T may be updated using AI (Artificial Intelligence).
1…画像処理装置
2…制御部
3…画像入力部
4…出力部
5…状態遷移パラメータ記憶部
10…カメラ
21…オブジェクト検出機能部
22…状態認識機能部
23…状態遷移予測機能部
24…同定機能部
51、52、61、62…探索領域
DESCRIPTION OF
Claims (8)
前記画像入力部に入力されたフレーム画像を処理し、撮像されている対象オブジェクトを検出するオブジェクト検出部と、
前記オブジェクト検出部が検出した前記対象オブジェクトをフレーム画像間で同定する同定部と、
前記オブジェクト検出部が検出した前記対象オブジェクトの状態を認識する状態認識部と、
前記対象オブジェクトが遷移する状態を予測する状態遷移予測部と、を備え、
前記同定部は、フレーム画像間での前記対象オブジェクトの同定を、前記状態認識部が認識した前記対象オブジェクトの状態と、前記状態遷移予測部が予測した前記対象オブジェクトが遷移する状態とに応じて行う、画像処理装置。 An image input unit for inputting a frame image obtained by imaging the target area;
An object detection unit that processes a frame image input to the image input unit and detects a captured target object;
An identification unit for identifying the target object detected by the object detection unit between frame images;
A state recognition unit for recognizing the state of the target object detected by the object detection unit;
A state transition prediction unit that predicts a state in which the target object transitions, and
The identification unit identifies the target object between frame images according to the state of the target object recognized by the state recognition unit and the state in which the target object predicted by the state transition prediction unit transitions. An image processing apparatus to perform.
前記状態遷移予測部は、前記記憶部が記憶する前記状態遷移パラメータを用いて、前記対象オブジェクトが遷移する状態を予測する、請求項1、または2に記載の画像処理装置。 A storage unit that stores a state transition parameter indicating a degree of transition from one state to the other state for each combination of two states belonging to a plurality of predetermined states for the target object,
The image processing apparatus according to claim 1, wherein the state transition prediction unit predicts a state in which the target object transitions using the state transition parameter stored in the storage unit.
前記オブジェクト検出ステップで検出した前記対象オブジェクトをフレーム画像間で同定する同定ステップと、
前記オブジェクト検出ステップで検出した前記対象オブジェクトの状態を認識する状態認識ステップと、
前記対象オブジェクトが遷移する状態を予測する状態遷移予測ステップと、をコンピュータが実行する追跡方法であって、
前記同定ステップは、フレーム画像間での前記対象オブジェクトの同定を、前記状態認識ステップで認識した前記対象オブジェクトの状態と、前記状態遷移予測ステップで予測した前記対象オブジェクトが遷移する状態とに応じて行う、追跡方法。 An object detection step of processing a frame image obtained by imaging the target area, which is input to the image input unit, and detecting a target object being imaged;
An identification step for identifying the target object detected in the object detection step between frame images;
A state recognition step for recognizing the state of the target object detected in the object detection step;
A state transition prediction step for predicting a state in which the target object transitions, and a tracking method in which a computer executes the method,
In the identification step, the identification of the target object between frame images is determined according to the state of the target object recognized in the state recognition step and the state in which the target object predicted in the state transition prediction step transitions. Do the tracking method.
前記オブジェクト検出ステップで検出した前記対象オブジェクトをフレーム画像間で同定する同定ステップと、
前記オブジェクト検出ステップで検出した前記対象オブジェクトの状態を認識する状態認識ステップと、
前記対象オブジェクトが遷移する状態を予測する状態遷移予測ステップと、をコンピュータに実行させる追跡プログラムであって、
前記同定ステップは、フレーム画像間での前記対象オブジェクトの同定を、前記状態認識ステップで認識した前記対象オブジェクトの状態と、前記状態遷移予測ステップで予測した前記対象オブジェクトが遷移する状態とに応じて行う、追跡プログラム。 An object detection step of processing a frame image obtained by imaging the target area, which is input to the image input unit, and detecting a target object being imaged;
An identification step for identifying the target object detected in the object detection step between frame images;
A state recognition step for recognizing the state of the target object detected in the object detection step;
A state transition prediction step for predicting a state in which the target object transitions, and a tracking program for causing a computer to execute the state transition prediction step,
In the identification step, the identification of the target object between frame images is determined according to the state of the target object recognized in the state recognition step and the state in which the target object predicted in the state transition prediction step transitions. Do a tracking program.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017043036A JP2018147311A (en) | 2017-03-07 | 2017-03-07 | Image processing apparatus, tracking method, and tracking program |
PCT/JP2017/041246 WO2018163515A1 (en) | 2017-03-07 | 2017-11-16 | Image processing device, tracking method, and tracking program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017043036A JP2018147311A (en) | 2017-03-07 | 2017-03-07 | Image processing apparatus, tracking method, and tracking program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018147311A true JP2018147311A (en) | 2018-09-20 |
Family
ID=63447433
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017043036A Pending JP2018147311A (en) | 2017-03-07 | 2017-03-07 | Image processing apparatus, tracking method, and tracking program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2018147311A (en) |
WO (1) | WO2018163515A1 (en) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007213182A (en) * | 2006-02-08 | 2007-08-23 | Fujifilm Corp | Object status recognition method, device, and program |
WO2008007471A1 (en) * | 2006-07-10 | 2008-01-17 | Kyoto University | Walker tracking method and walker tracking device |
JP2009015558A (en) * | 2007-07-04 | 2009-01-22 | Nippon Telegr & Teleph Corp <Ntt> | Attitude estimation device and method |
JP2009026146A (en) * | 2007-07-20 | 2009-02-05 | Canon Inc | Image processing apparatus and image processing method |
JP2012003720A (en) * | 2010-06-21 | 2012-01-05 | Nippon Telegr & Teleph Corp <Ntt> | State estimation device, state estimation method, and program |
JP2014081743A (en) * | 2012-10-15 | 2014-05-08 | Canon Inc | Information processor and information processing method and pattern recognition device |
JP2015138460A (en) * | 2014-01-23 | 2015-07-30 | 富士通株式会社 | state recognition method and state recognition device |
-
2017
- 2017-03-07 JP JP2017043036A patent/JP2018147311A/en active Pending
- 2017-11-16 WO PCT/JP2017/041246 patent/WO2018163515A1/en active Application Filing
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007213182A (en) * | 2006-02-08 | 2007-08-23 | Fujifilm Corp | Object status recognition method, device, and program |
WO2008007471A1 (en) * | 2006-07-10 | 2008-01-17 | Kyoto University | Walker tracking method and walker tracking device |
JP2009015558A (en) * | 2007-07-04 | 2009-01-22 | Nippon Telegr & Teleph Corp <Ntt> | Attitude estimation device and method |
JP2009026146A (en) * | 2007-07-20 | 2009-02-05 | Canon Inc | Image processing apparatus and image processing method |
JP2012003720A (en) * | 2010-06-21 | 2012-01-05 | Nippon Telegr & Teleph Corp <Ntt> | State estimation device, state estimation method, and program |
JP2014081743A (en) * | 2012-10-15 | 2014-05-08 | Canon Inc | Information processor and information processing method and pattern recognition device |
JP2015138460A (en) * | 2014-01-23 | 2015-07-30 | 富士通株式会社 | state recognition method and state recognition device |
Also Published As
Publication number | Publication date |
---|---|
WO2018163515A1 (en) | 2018-09-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10572736B2 (en) | Image processing apparatus, image processing system, method for image processing, and computer program | |
JP5115556B2 (en) | Object region detection apparatus, object region detection system, object region detection method, and program | |
JP6141079B2 (en) | Image processing system, image processing apparatus, control method therefor, and program | |
US8995714B2 (en) | Information creation device for estimating object position and information creation method and program for estimating object position | |
JP5166102B2 (en) | Image processing apparatus and method | |
US10353954B2 (en) | Information processing apparatus, method of controlling the same, and storage medium | |
WO2013145948A1 (en) | Object detection device | |
US10762133B2 (en) | Information processing apparatus, method of controlling the same, and storage medium | |
US10474884B2 (en) | Action determination device | |
JP2021022315A (en) | Image processing apparatus, image processing method, and program | |
JPWO2018235219A1 (en) | Self-location estimation method, self-location estimation device, and self-location estimation program | |
JP6953818B2 (en) | Operation judgment device | |
US11948312B2 (en) | Object detection/tracking device, method, and program recording medium | |
JP2018025988A (en) | Image processing program, image processing method and image processing device | |
JP6613976B2 (en) | Imaging control program, imaging control method, and imaging control apparatus | |
US11394870B2 (en) | Main subject determining apparatus, image capturing apparatus, main subject determining method, and storage medium | |
JP2012181710A (en) | Object tracking device, method and program | |
JP2019194758A (en) | Information processing device, information processing method, and program | |
US20200104577A1 (en) | Information processing apparatus, authentication system, method of controlling same, and medium | |
US20210390712A1 (en) | Image processing apparatus, image processing method, and storage medium | |
JP2007510994A (en) | Object tracking in video images | |
WO2018163515A1 (en) | Image processing device, tracking method, and tracking program | |
WO2009096208A1 (en) | Object recognition system, object recognition method, and object recognition program | |
JP6787075B2 (en) | Image processing system, image processing device and image processing method | |
JP2011009893A (en) | Follow object detecting apparatus, follow object detection method and follow object detection program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200109 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210216 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20210416 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210531 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211019 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20220412 |