JP2021111195A - Image processing device and image processing method - Google Patents
Image processing device and image processing method Download PDFInfo
- Publication number
- JP2021111195A JP2021111195A JP2020003598A JP2020003598A JP2021111195A JP 2021111195 A JP2021111195 A JP 2021111195A JP 2020003598 A JP2020003598 A JP 2020003598A JP 2020003598 A JP2020003598 A JP 2020003598A JP 2021111195 A JP2021111195 A JP 2021111195A
- Authority
- JP
- Japan
- Prior art keywords
- image
- objects
- difference
- coordinate system
- captured image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 5
- 238000004364 calculation method Methods 0.000 claims abstract description 21
- 238000000034 method Methods 0.000 description 14
- 238000010586 diagram Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 9
- 238000003384 imaging method Methods 0.000 description 2
- 240000004050 Pentaglottis sempervirens Species 0.000 description 1
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
Images
Abstract
Description
本発明は、画像処理装置及び画像処理方法に関する。 The present invention relates to an image processing apparatus and an image processing method.
異なる時刻に撮像された複数の撮像画像のオブジェクトが同一のオブジェクトであることを認識するためのトラッキング処理が行われる。例えば、画像座標系でのオブジェクト間の相違度(又は類似度)を求めてマッチング処理を行うことで、同一のオブジェクトであるか否かを判定する。 Tracking processing is performed to recognize that the objects of a plurality of captured images captured at different times are the same object. For example, it is determined whether or not the objects are the same by performing the matching process by obtaining the degree of difference (or the degree of similarity) between the objects in the image coordinate system.
ところで、マッチング処理対象の撮像画像中に、複数のオブジェクトが含まれることがある。撮像画像中の複数のオブジェクトの位置関係によっては、各オブジェクトを適切に区別できず、ミスマッチが生じるおそれがある。例えば、撮像画像中において複数のオブジェクトが重なるように位置する場合、撮像画像上での位置情報だけでオブジェクトを区別することが難しい。一方、画像処理においてオブジェクトの距離(奥行き)情報を算出し、その情報に基づいてマッチング処理を施す場合、距離に含まれるノイズによって、ミスマッチが生じるおそれがある。 By the way, a plurality of objects may be included in the captured image to be matched. Depending on the positional relationship of a plurality of objects in the captured image, each object cannot be properly distinguished, and a mismatch may occur. For example, when a plurality of objects are positioned so as to overlap each other in the captured image, it is difficult to distinguish the objects only by the position information on the captured image. On the other hand, when the distance (depth) information of an object is calculated in the image processing and the matching processing is performed based on the information, a mismatch may occur due to the noise included in the distance.
そこで、本発明はこれらの点に鑑みてなされたものであり、撮像画像中のオブジェクトを精度良くマッチングすることを目的とする。 Therefore, the present invention has been made in view of these points, and an object of the present invention is to match objects in a captured image with high accuracy.
本発明の第1の態様においては、複数の物体を被写体とした撮像画像を所定間隔で取得する画像取得部と、前記撮像画像に含まれる各物体に対応する複数のオブジェクトの、画像座標系での位置である第1位置をそれぞれ特定する第1位置特定部と、前記複数のオブジェクトの前記撮像画像における奥行き方向での位置を推定し、前記複数のオブジェクトの三次元座標系での位置である第2位置をそれぞれ特定する第2位置特定部と、一のタイミングで追跡対象として特定された複数の追跡オブジェクトの前記第1位置及び前記第2位置と、一より後のタイミングで前記画像取得部が取得した撮像画像の複数のオブジェクトの前記第1位置及び前記第2位置とに基づいて、前記画像座標系での第1相違度及び前記三次元座標系での第2相違度をそれぞれ求める相違度算出部と、求めた前記第1相違度及び前記第2相違度の両方に基づいて、前記追跡オブジェクトに対して前記撮像画像の各オブジェクトのマッチング処理を行うマッチング処理部と、を備える、画像処理装置を提供する。 In the first aspect of the present invention, there is an image coordinate system of an image acquisition unit that acquires captured images of a plurality of objects as subjects at predetermined intervals and a plurality of objects corresponding to each object included in the captured images. The first position specifying unit that specifies the first position, which is the position of, and the positions of the plurality of objects in the depth direction in the captured image are estimated, and the positions of the plurality of objects in the three-dimensional coordinate system. The second position specifying unit that specifies the second position, the first position and the second position of a plurality of tracking objects specified as tracking targets at one timing, and the image acquisition unit at a timing later than one. Based on the first position and the second position of a plurality of objects in the captured image acquired by, the difference for obtaining the first difference degree in the image coordinate system and the second difference degree in the three-dimensional coordinate system, respectively. An image including a degree calculation unit and a matching processing unit that performs matching processing of each object of the captured image with respect to the tracking object based on both the obtained first difference degree and the second difference degree. A processing device is provided.
また、前記相違度算出部は、前記第1相違度に対する重み付けの値と、前記第2相違度に対する重み付けの値とを異ならせることとしてもよい。 Further, the difference degree calculation unit may make the weighting value for the first difference degree different from the weighting value for the second difference degree.
また、前記相違度算出部は、前記追跡オブジェクト及び前記撮像画像の各オブジェクトの大きさ又は輝度値に基づく情報を用いた相違度も求めることとしてもよい。 Further, the difference degree calculation unit may also obtain the difference degree using information based on the size or the brightness value of the tracking object and each object of the captured image.
また、前記画像取得部は、前記撮像画像として、車両の前方を走行する複数の物体を撮像した前方画像を取得することとしてもよい。 Further, the image acquisition unit may acquire a front image obtained by capturing a plurality of objects traveling in front of the vehicle as the captured image.
本発明の第2の態様においては、複数の物体を被写体とした撮像画像を所定間隔で取得するステップと、前記撮像画像に含まれる各物体に対応する複数のオブジェクトの、画像座標系での位置である第1位置をそれぞれ特定するステップと、前記複数のオブジェクトの前記撮像画像における奥行き方向での位置を推定し、前記複数のオブジェクトの三次元座標系での位置である第2位置をそれぞれ特定するステップと、一のタイミングで追跡対象として特定された複数の追跡オブジェクトの前記第1位置及び前記第2位置と、一より後のタイミングで取得した撮像画像の複数のオブジェクトの前記第1位置及び前記第2位置とに基づいて、前記画像座標系での第1相違度及び前記三次元座標系での第2相違度をそれぞれ求めるステップと、求めた前記第1相違度及び前記第2相違度の両方に基づいて、前記追跡オブジェクトに対して前記撮像画像の各オブジェクトのマッチング処理を行うステップと、を有する、画像処理方法を提供する。 In the second aspect of the present invention, there is a step of acquiring captured images of a plurality of objects as subjects at predetermined intervals, and positions of a plurality of objects corresponding to each object included in the captured images in an image coordinate system. The step of specifying the first position, and the position of the plurality of objects in the depth direction in the captured image are estimated, and the second position, which is the position of the plurality of objects in the three-dimensional coordinate system, is specified. The first position and the second position of the plurality of tracking objects specified as tracking targets at one timing, and the first position and the first position of the plurality of objects of the captured image acquired at the timing after one. A step of obtaining the first difference degree in the image coordinate system and the second difference degree in the three-dimensional coordinate system, respectively, based on the second position, and the obtained first difference degree and the second difference degree. Provided is an image processing method including a step of performing matching processing of each object of the captured image with respect to the tracking object based on both of the above.
本発明によれば、撮像画像中のオブジェクトを精度良くマッチングできるという効果を奏する。 According to the present invention, there is an effect that objects in a captured image can be matched with high accuracy.
<画像処理装置の構成>
本発明の一の実施形態に係る画像処理装置の構成について、図1を参照しながら説明する。
<Configuration of image processing device>
The configuration of the image processing apparatus according to the embodiment of the present invention will be described with reference to FIG.
図1は、一の実施形態に係る画像処理装置1の構成を説明するための模式図である。画像処理装置1は、撮像装置5が順次撮像した撮像画像に含まれるオブジェクトのマッチング処理を行う。画像処理装置1は、例えば車両に搭載されており、上記のマッチング処理は、例えば自動運転時の前方又は周辺の車両を追跡するために利用される。
FIG. 1 is a schematic diagram for explaining the configuration of the image processing device 1 according to the embodiment. The image processing device 1 performs matching processing of objects included in the captured images sequentially captured by the
撮像装置5は、例えば車両に搭載されており、車両の前方を撮像する。具体的には、撮像装置5は、車両が走行中に、前方を走行する他の車両を撮像する。撮像装置5は、撮像した撮像画像を、画像処理装置1に送信する。撮像装置5は、例えば車両の前方上部に設けられており、斜め前を撮像する。このため、前方を車両が列になって走行している場合には、車両が重なるように撮像される。なお、撮像装置5は、車両の側面又は後面に単数又は複数搭載され、前方以外の方向を撮像してもよい。
The
図2は、画像処理装置1のマッチング処理の概略を説明するための模式図である。ここでは、時刻k+1で撮像された撮像画像P2のオブジェクトM1〜M4がマッチング対象の観測オブジェクトである。画像処理装置1は、既に特定された追跡オブジェクトに対して、撮像画像P2のオブジェクトM1〜M4のマッチング処理を行う。追跡オブジェクトは、例えば、時刻kで撮像された撮像画像P1に対して既にマッチング処理を行ってIDが特定されたオブジェクトL1〜L4である。なお、追跡オブジェクトは、時刻kよりも前に特定されたオブジェクトを含んでもよく、後述する記憶部10に記憶されている。
画像処理装置1は、詳細は後述するが、画像座標系及び三次元座標系の双方での相違度を求めることで、撮像画像P2の観測オブジェクトの中の追跡オブジェクトと同一のオブジェクトを探索する。これにより、精度良くオブジェクトをマッチングさせることができる。
FIG. 2 is a schematic diagram for explaining the outline of the matching process of the image processing apparatus 1. Here, the objects M1 to M4 of the captured image P2 captured at time k + 1 are the observation objects to be matched. The image processing device 1 performs matching processing of the objects M1 to M4 of the captured image P2 on the tracking object that has already been identified. The tracking objects are, for example, objects L1 to L4 whose IDs have already been specified by performing matching processing on the captured image P1 captured at time k. The tracking object may include an object specified before the time k, and is stored in the
Although the details will be described later, the image processing device 1 searches for the same object as the tracking object in the observed object of the captured image P2 by obtaining the degree of difference in both the image coordinate system and the three-dimensional coordinate system. This makes it possible to match objects with high accuracy.
画像処理装置1は、図1に示すように、記憶部10と、制御部20とを有する。
記憶部10は、例えばROM(Read Only Memory)及びRAM(Random Access Memory)を含む。記憶部10は、制御部20が実行するためのプログラムや各種データを記憶する。例えば、記憶部10は、後述するマッチング処理を行うアルゴリズムに関する情報や、既にIDが特定された追跡中の追跡オブジェクトの情報を記憶している。
As shown in FIG. 1, the image processing device 1 has a
The
制御部20は、例えばCPU(Central Processing Unit)である。制御部20は、記憶部10に記憶されたプログラムを実行することにより、撮像画像(具体的には、図2の撮像画像P2)中に含まれるオブジェクトのマッチング処理を行う。本実施形態では、制御部20は、画像取得部22、第1位置特定部23、第2位置特定部24、相違度算出部25及びマッチング処理部26として機能する。
The
画像取得部22は、複数の物体を被写体とした撮像画像を所定間隔で取得する。すなわち、画像取得部22は、撮像装置5が撮像した撮像画像を順次取得する。例えば、画像取得部22は、図2に示す撮像画像P2を取得する。ここでは、画像取得部22は、撮像画像として、車両の前方を走行する複数の物体を撮像した前方画像を取得する。
The
第1位置特定部23は、撮像画像(例えば、図2の撮像画像P2)に含まれる各物体に対応する複数のオブジェクトの、撮像画像の画像座標系での位置である第1位置をそれぞれ特定する。すなわち、第1位置特定部23は、画像取得部22が取得した撮像画像における各オブジェクトの第1位置をそれぞれ特定する。
The first
図3は、画像座標系でのオブジェクトの位置を説明するための模式図である。ここでは、撮像画像中に4つのオブジェクトA、B、C、Dが含まれているものとする。例えば、4つのオブジェクトA〜Dは、それぞれ前方を走行する他の車両である。また、画像座標系は、ここでは、撮像画像の左上端を原点とし、撮像画像の横方向をx軸方向、撮像画像の縦方向をy軸であるものとする。第1位置特定部23は、第1位置として、上記の画像座標系における各オブジェクトA〜Dの位置(x、y軸方向での位置)をそれぞれ特定する。
FIG. 3 is a schematic diagram for explaining the position of the object in the image coordinate system. Here, it is assumed that four objects A, B, C, and D are included in the captured image. For example, the four objects A to D are other vehicles traveling in front of each other. Further, in the image coordinate system, here, it is assumed that the upper left end of the captured image is the origin, the horizontal direction of the captured image is the x-axis direction, and the vertical direction of the captured image is the y-axis. The first
第2位置特定部24は、複数のオブジェクトの撮像画像における奥行き方向での位置を幾何学的な拘束条件または他センサとの情報の統合等により推定し、複数のオブジェクトの三次元座標系での位置である第2位置をそれぞれ特定する。また、三次元座標系は、ここでは、カメラ位置を原点とし、車両右手方向をX軸方向、高さ方向をY軸、車両正面方向をZ軸にとるものとする。
The second
図4は、三次元座標系でのオブジェクトの位置を説明するための模式図である。図4は、図3の撮像画像の各オブジェクトA〜Dの奥行き座標(Z軸)を特定した後、X座標とY座標を算出し、それらの位置を俯瞰図として描画したものである。第2位置特定部24は、第2位置として、上記の三次元座標系における各オブジェクトA〜Dの位置(X、Y、Z軸方向での位置)をそれぞれ特定する。
FIG. 4 is a schematic diagram for explaining the position of an object in a three-dimensional coordinate system. In FIG. 4, after specifying the depth coordinates (Z-axis) of each object A to D in the captured image of FIG. 3, the X-coordinate and the Y-coordinate are calculated, and their positions are drawn as a bird's-eye view. The second
相違度算出部25は、一のタイミングで追跡対象として特定された追跡オブジェクトの第1位置及び第2位置と、一より後のタイミングで画像処理部22が取得した撮像画像の複数のオブジェクトの第1位置及び第2位置とに基づいて、画像座標系での第1相違度及び三次元座標系での第2相違度をそれぞれ求める。すなわち、相違度算出部25は、第1位置特定部23及び第2位置特定部24が特定した第1位置及び第2位置に基づいて、第1相違度及び第2相違度を求める。例えば、相違度算出部25は、追跡オブジェクト(図2のオブジェクトL1〜L4)の第1位置及び第2位置と、撮像画像P2のオブジェクトM1〜M4の第1位置及び第2位置に基づいて、第1相違度及び第2相違度を求める。
The difference
本実施形態では、相違度算出部25は、第1相違度及び第2相違度を示すスコア関数を求める。スコア関数Scoreは、一つの一のタイミングで取得されたオブジェクトまたは追跡中のオブジェクトと一つの観測オブジェクトの間の座標の差をスコア化したものである。例えば、一つの追跡中のオブジェクトと一つの観測オブジェクトの間のスコアとして下記のような式を用いる。
上記の式において、xtrackが追跡オブジェクトの画像座標系でのx座標を意味し、xobsが観測オブジェクトの画像座標系でのx座標を意味する。同様に、Xtrackが追跡オブジェクトの三次元座標系でのX座標を意味し、Xobsが観測オブジェクトの三次元座標系でのX座標を意味する。λimageとλ3dは、それぞれ画像座標系と三次元座標系でのスコアの重み係数であり、λx、λX等が各座標値に対する重み係数である。なお、各座標値に対する重み係数のみで画像座標系と三次元座標系に対する影響度は調整可能なため、λimageとλ3dは無くてもよい。また、上記の式では、簡単にするため、比較対象のオブジェクト間の距離のL1ノルムの各成分の重み付き和をスコアとしているが、ユークリッド距離、すなわち、L2ノルムや確率的な位置の分布を考慮したマハラノビス距離などをスコアとして採用してもよい。相違度算出部25は、全ての追跡オブジェクトと、撮像画像P2の全ての観測オブジェクトについて、スコア関数を求める。
In the present embodiment, the
In the above equation, x track means the x coordinate of the tracking object in the image coordinate system, and x obs means the x coordinate of the observed object in the image coordinate system. Similarly, X track means the X coordinate of the tracking object in the 3D coordinate system, and X obs means the X coordinate of the observed object in the 3D coordinate system. lambda image and lambda 3d is a weight factor of the scores of each image coordinate system and the three-dimensional coordinate system, lambda x, lambda X, etc. is a weighting factor for each coordinate value. Since the degree of influence on the image coordinate system and the three-dimensional coordinate system can be adjusted only by the weighting coefficient for each coordinate value, λ image and λ 3d may be omitted. Further, in the above equation, for the sake of simplicity, the weighted sum of each component of the L1 norm of the distance between the objects to be compared is used as the score, but the Euclidean distance, that is, the distribution of the L2 norm and the stochastic position is used. The Mahalanobis distance taken into consideration may be adopted as the score. The
相違度算出部25は、第1撮像画像及び第2撮像画像の各オブジェクトの位置に加え、大きさやテクスチャの情報等に基いて相違度を求めてもよい。例えば、各オブジェクトの位置と大きさを考慮する場合、スコア関数を下記のように計算する。
ここで、wとhはそれぞれ画像座標系におけるオブジェクトの幅と高さであり、WとHはそれぞれ三次元座標系におけるオブジェクトの幅と高さである。
The difference
Here, w and h are the width and height of the object in the image coordinate system, respectively, and W and H are the width and height of the object in the three-dimensional coordinate system, respectively.
また、相違度算出部25は、第1相違度に対する重み付け(例えばλimage、λx)の値と、第2相違度に対する重み付け(例えばλ3d、λX)の値とを異ならせてもよい。例えば、相違度算出部25は、三次元座標系での相違度の計算を重視するために、第2相違度に対する重み付けの値を、第1相違度に対する重み付けの値よりも大きくする。
Further, the difference
マッチング処理部26は、求めた第1相違度及び第2相違度の両方に基づいて、追跡オブジェクトに対して撮像画像の各オブジェクト(観測オブジェクト)のマッチング処理を行う。例えば、マッチング処理部26は、第1相違度及び第2相違度の両方が小さい場合には、相違度を求めた追跡オブジェクトと観測オブジェクトが同一のオブジェクトであると判定する。一方で、マッチング処理部26は、第1相違度及び第2相違度のいずれかで相違度が大きい場合には、相違度を求めた追跡オブジェクトと観測オブジェクトが異なるオブジェクトであると判定する。
The matching
図5は、スコアテーブルを示す模式図である。スコアテーブルは、ここでは、図2に示す追跡オブジェクトL1〜L4と観測オブジェクトM1〜M4の各々について求めたスコア関数のスコア値を表としてまとめたものである。マッチング処理部26は、スコアテーブルを用いて、各追跡オブジェクトと同一と見なせる観測オブジェクトを探索する。例えば、マッチング処理部26は、追跡オブジェクトL1に関して、4つの観測オブジェクトM1〜M4の各々とのスコア値S11〜S14から、スコア値が小さい観測オブジェクトを探索する。なお、追跡オブジェクトが複数ある場合には、マッチング処理部26は、例えば、ハンガリアン法を用いて、各追跡オブジェクトに対して最適な観測オブジェクトを割り当てる。ハンガリアン法は、最適な組が一意に定まるアルゴリズムである。これにより、複数の追跡オブジェクトと観測オブジェクトの最適な組み合わせを実現できる。
FIG. 5 is a schematic diagram showing a score table. Here, the score table is a table that summarizes the score values of the score functions obtained for each of the tracking objects L1 to L4 and the observation objects M1 to M4 shown in FIG. The matching
<マッチング処理の流れ>
マッチング処理の流れについて、図6を参照しながら説明する。
<Flow of matching process>
The flow of the matching process will be described with reference to FIG.
図6は、マッチング処理の流れを説明するためのフローチャートである。ここでは、追跡オブジェクトと撮像画像P2の各オブジェクトのマッチング処理について説明するものとする。なお、追跡オブジェクトは、例えば撮像画像P1の取得後のマッチング処理によって特定され、記憶部10に記憶されている。
FIG. 6 is a flowchart for explaining the flow of the matching process. Here, the matching process of the tracking object and each object of the captured image P2 will be described. The tracking object is identified by, for example, a matching process after acquisition of the captured image P1 and stored in the
まず、画像取得部22は、観測オブジェクトを含む撮像画像(例えば、図2に示す撮像画像P2)を取得する(ステップS102)。
First, the
次に、第1位置特定部23は、撮像画像P2の観測オブジェクトの画像座標系での第1位置を特定する(ステップS104)。また、第2位置特定部24は、撮像画像P2の観測オブジェクトの三次元座標系での第2位置を特定する(ステップS106)。
Next, the first
次に、相違度算出部25は、追跡オブジェクトと撮像画像P2の観測オブジェクトの、第1相違度及び第2相違度を求める(ステップS108)。例えば、相違度算出部25は、一の追跡オブジェクトと一の観測オブジェクト間の第1相違度及び第2相違度を含むスコア関数のスコア値を求める。そして、相違度算出部25は、全ての追跡オブジェクトと観測オブジェクト間のスコア値を求めることで、例えば図5に示すスコアテーブルを導く。
Next, the difference
次に、マッチング処理部26は、求めた第1相違度及び第2相違度に基づいて、撮像画像P2の観測オブジェクトのマッチングを行う(ステップS110)。例えば、マッチング処理部26は、図5に示すスコアテーブルを用いて、各追跡オブジェクトと同一の観測オブジェクトを探索する。すなわち、マッチング処理部26は、算出したスコアが小さい追跡オブジェクトと観測オブジェクトが、同一のオブジェクトであると判定する。なお、マッチング処理部26は、いずれの追跡オブジェクトとも相違度が閾値以上となる観測オブジェクトを、新たなオブジェクトであると判定する。一方、追跡オブジェクトのうち、いずれの観測オブジェクトとも相違度が閾値以上となるオブジェクトは、そのオブジェクトを保持する要件を満たさない場合、存在しないオブジェクトとして破棄される。
Next, the matching
画像処理装置1は、撮像装置5が撮像画像を撮像する度に、上述したマッチング処理を行う。例えば、撮像画像P2の次の撮像画像が取得された場合には、撮像画像P2のオブジェクトとのマッチング処理の結果追跡オブジェクトとして記憶されたオブジェクトと、次の撮像画像中のオブジェクト(観測オブジェクト)との間でマッチング処理が行われる。
The image processing device 1 performs the matching process described above each time the
なお、上記では、画像処理装置1が、車両に搭載された撮像装置5が撮像した撮像画像についてトラッキング処理を行うこととしたが、これに限定されない。例えば、画像処理装置1は、監視カメラなどの車両ではない設備に備え付けられたカメラが撮像した撮像画像についてトラッキング処理を行うこととしてもよい。
In the above description, the image processing device 1 performs tracking processing on the captured image captured by the
また、上記では、スコア関数をオブジェクト同士(追跡オブジェクトと観測オブジェクト)の相違度で規定しているが、これに限定されず、例えば、スコア関数をオブジェクト同士の類似度で規定してもよい。スコアを類似度で規定する場合、スコアが大きい追跡オブジェクトと観測オブジェクトが同一のオブジェクトであると見なされる。 Further, in the above, the score function is defined by the degree of difference between objects (tracking object and observation object), but the present invention is not limited to this, and for example, the score function may be defined by the degree of similarity between objects. When the score is defined by similarity, the tracking object with the higher score and the observed object are considered to be the same object.
<本実施形態における効果>
上述した実施形態の画像処理装置1は、既に追跡対象として特定された複数の追跡オブジェクトと、画像取得部22が取得した撮像画像P2の観測オブジェクトとの、画像座標系での第1相違度及び三次元座標系での第2相違度をそれぞれ求める。画像処理装置1は、求めた第1相違度及び第2相違度に基づいて、撮像画像P2の各観測オブジェクトと各追跡オブジェクトのマッチング処理を行う。
画像座標系及び三次元座標系の2つの座標系の相違度を用いてマッチング処理を行うことで、一つの座標系の相違度のみでマッチング処理を行う場合に比べて、ミスマッチを防ぎ、精度良く観測オブジェクトを適切にマッチングできる。
<Effect in this embodiment>
The image processing device 1 of the above-described embodiment has a first degree of difference in the image coordinate system between the plurality of tracking objects already specified as tracking targets and the observation object of the captured image P2 acquired by the
By performing matching processing using the degree of difference between the two coordinate systems of the image coordinate system and the three-dimensional coordinate system, mismatching is prevented and accuracy is improved compared to the case where matching processing is performed using only the degree of difference of one coordinate system. Observed objects can be matched properly.
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されず、その要旨の範囲内で種々の変形及び変更が可能である。例えば、装置の全部又は一部は、任意の単位で機能的又は物理的に分散・統合して構成することができる。また、複数の実施の形態の任意の組み合わせによって生じる新たな実施の形態も、本発明の実施の形態に含まれる。組み合わせによって生じる新たな実施の形態の効果は、もとの実施の形態の効果を併せ持つ。 Although the present invention has been described above using the embodiments, the technical scope of the present invention is not limited to the scope described in the above embodiments, and various modifications and changes can be made within the scope of the gist thereof. be. For example, all or a part of the device can be functionally or physically distributed / integrated in any unit. Also included in the embodiments of the present invention are new embodiments resulting from any combination of the plurality of embodiments. The effect of the new embodiment produced by the combination also has the effect of the original embodiment.
1 画像処理装置
22 画像取得部
23 第1位置特定部
24 第2位置特定部
25 相違度算出部
26 マッチング処理部
1
Claims (5)
前記撮像画像に含まれる各物体に対応する複数のオブジェクトの、画像座標系での位置である第1位置をそれぞれ特定する第1位置特定部と、
前記複数のオブジェクトの前記撮像画像における奥行き方向での位置を推定し、前記複数のオブジェクトの三次元座標系での位置である第2位置をそれぞれ特定する第2位置特定部と、
一のタイミングで追跡対象として特定された複数の追跡オブジェクトの前記第1位置及び前記第2位置と、一より後のタイミングで前記画像取得部が取得した撮像画像の複数のオブジェクトの前記第1位置及び前記第2位置とに基づいて、前記画像座標系での第1相違度及び前記三次元座標系での第2相違度をそれぞれ求める相違度算出部と、
求めた前記第1相違度及び前記第2相違度の両方に基づいて、前記追跡オブジェクトに対して前記撮像画像の各オブジェクトのマッチング処理を行うマッチング処理部と、
を備える、画像処理装置。 An image acquisition unit that acquires captured images of multiple objects at predetermined intervals,
A first position specifying unit that specifies a first position, which is a position in the image coordinate system, of a plurality of objects corresponding to each object included in the captured image.
A second position specifying unit that estimates the positions of the plurality of objects in the depth direction in the captured image and specifies the second positions that are the positions of the plurality of objects in the three-dimensional coordinate system, respectively.
The first position and the second position of the plurality of tracking objects specified as tracking targets at one timing, and the first position of the plurality of objects of the captured image acquired by the image acquisition unit at a timing after one. And a difference calculation unit that obtains the first difference in the image coordinate system and the second difference in the three-dimensional coordinate system based on the second position.
A matching processing unit that performs matching processing for each object of the captured image with respect to the tracking object based on both the obtained first difference degree and the second difference degree.
An image processing device.
請求項1に記載の画像処理装置。 The difference calculation unit makes the weighting value for the first difference different from the weighting value for the second difference.
The image processing apparatus according to claim 1.
請求項1又は2に記載の画像処理装置。 The difference degree calculation unit also obtains the difference degree using information based on the size or brightness value of the tracking object and each object of the captured image.
The image processing apparatus according to claim 1 or 2.
請求項1から3のいずれか1項に記載の画像処理装置。 The image acquisition unit acquires a front image of a plurality of objects traveling in front of the vehicle as the captured image.
The image processing apparatus according to any one of claims 1 to 3.
前記撮像画像に含まれる各物体に対応する複数のオブジェクトの、画像座標系での位置である第1位置をそれぞれ特定するステップと、
前記複数のオブジェクトの前記撮像画像における奥行き方向での位置を推定し、前記複数のオブジェクトの三次元座標系での位置である第2位置をそれぞれ特定するステップと、
一のタイミングで追跡対象として特定された複数の追跡オブジェクトの前記第1位置及び前記第2位置と、一より後のタイミングで取得した撮像画像の複数のオブジェクトの前記第1位置及び前記第2位置とに基づいて、前記画像座標系での第1相違度及び前記三次元座標系での第2相違度をそれぞれ求めるステップと、
求めた前記第1相違度及び前記第2相違度の両方に基づいて、前記追跡オブジェクトに対して前記撮像画像の各オブジェクトのマッチング処理を行うステップと、
を有する、画像処理方法。
Steps to acquire captured images of multiple objects at predetermined intervals,
A step of specifying a first position, which is a position in the image coordinate system, of a plurality of objects corresponding to each object included in the captured image.
A step of estimating the position of the plurality of objects in the depth direction in the captured image and specifying a second position which is a position of the plurality of objects in the three-dimensional coordinate system, respectively.
The first position and the second position of the plurality of tracking objects specified as tracking targets at one timing, and the first position and the second position of the plurality of objects of the captured image acquired at the timing after one. Based on the above, the step of obtaining the first degree of difference in the image coordinate system and the second degree of difference in the three-dimensional coordinate system, respectively, and
A step of performing matching processing of each object of the captured image with respect to the tracking object based on both the obtained first difference degree and the second difference degree.
An image processing method having.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020003598A JP7334626B2 (en) | 2020-01-14 | 2020-01-14 | Image processing device and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020003598A JP7334626B2 (en) | 2020-01-14 | 2020-01-14 | Image processing device and image processing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021111195A true JP2021111195A (en) | 2021-08-02 |
JP7334626B2 JP7334626B2 (en) | 2023-08-29 |
Family
ID=77059953
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020003598A Active JP7334626B2 (en) | 2020-01-14 | 2020-01-14 | Image processing device and image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7334626B2 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008236642A (en) * | 2007-03-23 | 2008-10-02 | Hitachi Ltd | Object tracking device |
JP2014010686A (en) * | 2012-06-29 | 2014-01-20 | Secom Co Ltd | Face image authentication device |
-
2020
- 2020-01-14 JP JP2020003598A patent/JP7334626B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008236642A (en) * | 2007-03-23 | 2008-10-02 | Hitachi Ltd | Object tracking device |
JP2014010686A (en) * | 2012-06-29 | 2014-01-20 | Secom Co Ltd | Face image authentication device |
Also Published As
Publication number | Publication date |
---|---|
JP7334626B2 (en) | 2023-08-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6125188B2 (en) | Video processing method and apparatus | |
JP4943034B2 (en) | Stereo image processing device | |
US20180012366A1 (en) | Methods circuits devices systems and associated computer executable code for video feed processing | |
WO2017051480A1 (en) | Image processing device and image processing method | |
JP6021689B2 (en) | Vehicle specification measurement processing apparatus, vehicle specification measurement method, and program | |
JP2014074632A (en) | Calibration apparatus of in-vehicle stereo camera and calibration method | |
JPWO2020023582A5 (en) | ||
JP2021106025A5 (en) | ||
US11036963B2 (en) | Object recognition system based on an adaptive 3D generic model | |
Salau et al. | Extrinsic calibration of a multi-Kinect camera scanning passage for measuring functional traits in dairy cows | |
JP5369873B2 (en) | Judgment program and calibration device | |
JP2010256040A (en) | Vehicle detecting device | |
US20120293631A1 (en) | Methods for implementing a behavior analysis of a rodent in an arena and methods for generating an image of the rodent | |
JP2021111195A (en) | Image processing device and image processing method | |
CN108805218B (en) | Optical target association method based on deviation mapping clustering | |
JP2014106856A (en) | Image recognition method and image recognition device | |
CN111476828B (en) | Multi-view animal group tracking method and device | |
CN113065483A (en) | Positioning method, positioning device, electronic equipment, medium and robot | |
CN113674361A (en) | Vehicle-mounted all-round-looking calibration implementation method and system | |
JP6968691B2 (en) | Obstacle detector | |
JP2010249768A (en) | Vehicle detection device | |
KR101747350B1 (en) | Method for recognizing coordinates of object for visual servoing | |
WO2014192061A1 (en) | Image processing device, image processing method, and image processing program | |
JP2003323627A (en) | Vehicle detection device and method | |
JP2021018605A (en) | Image processing apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220330 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230309 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230322 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230511 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230718 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230731 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7334626 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |