JP2021111195A - Image processing device and image processing method - Google Patents

Image processing device and image processing method Download PDF

Info

Publication number
JP2021111195A
JP2021111195A JP2020003598A JP2020003598A JP2021111195A JP 2021111195 A JP2021111195 A JP 2021111195A JP 2020003598 A JP2020003598 A JP 2020003598A JP 2020003598 A JP2020003598 A JP 2020003598A JP 2021111195 A JP2021111195 A JP 2021111195A
Authority
JP
Japan
Prior art keywords
image
objects
difference
coordinate system
captured image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020003598A
Other languages
Japanese (ja)
Other versions
JP7334626B2 (en
Inventor
英之 原
Hideyuki Hara
英之 原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Isuzu Motors Ltd
Original Assignee
Isuzu Motors Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Isuzu Motors Ltd filed Critical Isuzu Motors Ltd
Priority to JP2020003598A priority Critical patent/JP7334626B2/en
Publication of JP2021111195A publication Critical patent/JP2021111195A/en
Application granted granted Critical
Publication of JP7334626B2 publication Critical patent/JP7334626B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide an image processing device and an image processing method for matching objects in a picked-up image with high accuracy.SOLUTION: An image processing device 1 includes: an image acquisition unit 22 for acquiring a picked-up image with a plurality of objects as subjects at a predetermined interval; a first position specification unit 23 for specifying a first position of an image coordinate system of the plurality of objects included in the picked-up image; a second position specification unit 24 for specifying a second position of a three-dimensional coordinate system of the plurality of objects; a dissimilarity calculation unit 25 for acquiring a first dissimilarity in the image coordinate system and a second dissimilarity in the three-dimensional coordinate system, respectively on the basis of the first position and the second position of a plurality of tracking objects specified as tracking objects at one timing, and the first position and the second position of the plurality of objects of the picked-up image acquired by the image acquisition unit 22 at timing after the one timing; and a matching processing unit 26 for performing matching processing of each object of the picked-up image to the tracking objects on the basis of both the acquired first dissimilarity and the second dissimilarity.SELECTED DRAWING: Figure 1

Description

本発明は、画像処理装置及び画像処理方法に関する。 The present invention relates to an image processing apparatus and an image processing method.

異なる時刻に撮像された複数の撮像画像のオブジェクトが同一のオブジェクトであることを認識するためのトラッキング処理が行われる。例えば、画像座標系でのオブジェクト間の相違度(又は類似度)を求めてマッチング処理を行うことで、同一のオブジェクトであるか否かを判定する。 Tracking processing is performed to recognize that the objects of a plurality of captured images captured at different times are the same object. For example, it is determined whether or not the objects are the same by performing the matching process by obtaining the degree of difference (or the degree of similarity) between the objects in the image coordinate system.

国際公開2019/16879号International Publication No. 2019/16879

ところで、マッチング処理対象の撮像画像中に、複数のオブジェクトが含まれることがある。撮像画像中の複数のオブジェクトの位置関係によっては、各オブジェクトを適切に区別できず、ミスマッチが生じるおそれがある。例えば、撮像画像中において複数のオブジェクトが重なるように位置する場合、撮像画像上での位置情報だけでオブジェクトを区別することが難しい。一方、画像処理においてオブジェクトの距離(奥行き)情報を算出し、その情報に基づいてマッチング処理を施す場合、距離に含まれるノイズによって、ミスマッチが生じるおそれがある。 By the way, a plurality of objects may be included in the captured image to be matched. Depending on the positional relationship of a plurality of objects in the captured image, each object cannot be properly distinguished, and a mismatch may occur. For example, when a plurality of objects are positioned so as to overlap each other in the captured image, it is difficult to distinguish the objects only by the position information on the captured image. On the other hand, when the distance (depth) information of an object is calculated in the image processing and the matching processing is performed based on the information, a mismatch may occur due to the noise included in the distance.

そこで、本発明はこれらの点に鑑みてなされたものであり、撮像画像中のオブジェクトを精度良くマッチングすることを目的とする。 Therefore, the present invention has been made in view of these points, and an object of the present invention is to match objects in a captured image with high accuracy.

本発明の第1の態様においては、複数の物体を被写体とした撮像画像を所定間隔で取得する画像取得部と、前記撮像画像に含まれる各物体に対応する複数のオブジェクトの、画像座標系での位置である第1位置をそれぞれ特定する第1位置特定部と、前記複数のオブジェクトの前記撮像画像における奥行き方向での位置を推定し、前記複数のオブジェクトの三次元座標系での位置である第2位置をそれぞれ特定する第2位置特定部と、一のタイミングで追跡対象として特定された複数の追跡オブジェクトの前記第1位置及び前記第2位置と、一より後のタイミングで前記画像取得部が取得した撮像画像の複数のオブジェクトの前記第1位置及び前記第2位置とに基づいて、前記画像座標系での第1相違度及び前記三次元座標系での第2相違度をそれぞれ求める相違度算出部と、求めた前記第1相違度及び前記第2相違度の両方に基づいて、前記追跡オブジェクトに対して前記撮像画像の各オブジェクトのマッチング処理を行うマッチング処理部と、を備える、画像処理装置を提供する。 In the first aspect of the present invention, there is an image coordinate system of an image acquisition unit that acquires captured images of a plurality of objects as subjects at predetermined intervals and a plurality of objects corresponding to each object included in the captured images. The first position specifying unit that specifies the first position, which is the position of, and the positions of the plurality of objects in the depth direction in the captured image are estimated, and the positions of the plurality of objects in the three-dimensional coordinate system. The second position specifying unit that specifies the second position, the first position and the second position of a plurality of tracking objects specified as tracking targets at one timing, and the image acquisition unit at a timing later than one. Based on the first position and the second position of a plurality of objects in the captured image acquired by, the difference for obtaining the first difference degree in the image coordinate system and the second difference degree in the three-dimensional coordinate system, respectively. An image including a degree calculation unit and a matching processing unit that performs matching processing of each object of the captured image with respect to the tracking object based on both the obtained first difference degree and the second difference degree. A processing device is provided.

また、前記相違度算出部は、前記第1相違度に対する重み付けの値と、前記第2相違度に対する重み付けの値とを異ならせることとしてもよい。 Further, the difference degree calculation unit may make the weighting value for the first difference degree different from the weighting value for the second difference degree.

また、前記相違度算出部は、前記追跡オブジェクト及び前記撮像画像の各オブジェクトの大きさ又は輝度値に基づく情報を用いた相違度も求めることとしてもよい。 Further, the difference degree calculation unit may also obtain the difference degree using information based on the size or the brightness value of the tracking object and each object of the captured image.

また、前記画像取得部は、前記撮像画像として、車両の前方を走行する複数の物体を撮像した前方画像を取得することとしてもよい。 Further, the image acquisition unit may acquire a front image obtained by capturing a plurality of objects traveling in front of the vehicle as the captured image.

本発明の第2の態様においては、複数の物体を被写体とした撮像画像を所定間隔で取得するステップと、前記撮像画像に含まれる各物体に対応する複数のオブジェクトの、画像座標系での位置である第1位置をそれぞれ特定するステップと、前記複数のオブジェクトの前記撮像画像における奥行き方向での位置を推定し、前記複数のオブジェクトの三次元座標系での位置である第2位置をそれぞれ特定するステップと、一のタイミングで追跡対象として特定された複数の追跡オブジェクトの前記第1位置及び前記第2位置と、一より後のタイミングで取得した撮像画像の複数のオブジェクトの前記第1位置及び前記第2位置とに基づいて、前記画像座標系での第1相違度及び前記三次元座標系での第2相違度をそれぞれ求めるステップと、求めた前記第1相違度及び前記第2相違度の両方に基づいて、前記追跡オブジェクトに対して前記撮像画像の各オブジェクトのマッチング処理を行うステップと、を有する、画像処理方法を提供する。 In the second aspect of the present invention, there is a step of acquiring captured images of a plurality of objects as subjects at predetermined intervals, and positions of a plurality of objects corresponding to each object included in the captured images in an image coordinate system. The step of specifying the first position, and the position of the plurality of objects in the depth direction in the captured image are estimated, and the second position, which is the position of the plurality of objects in the three-dimensional coordinate system, is specified. The first position and the second position of the plurality of tracking objects specified as tracking targets at one timing, and the first position and the first position of the plurality of objects of the captured image acquired at the timing after one. A step of obtaining the first difference degree in the image coordinate system and the second difference degree in the three-dimensional coordinate system, respectively, based on the second position, and the obtained first difference degree and the second difference degree. Provided is an image processing method including a step of performing matching processing of each object of the captured image with respect to the tracking object based on both of the above.

本発明によれば、撮像画像中のオブジェクトを精度良くマッチングできるという効果を奏する。 According to the present invention, there is an effect that objects in a captured image can be matched with high accuracy.

一の実施形態に係る画像処理装置1の構成を説明するための模式図である。It is a schematic diagram for demonstrating the structure of the image processing apparatus 1 which concerns on one Embodiment. 画像処理装置1のマッチング処理の概略を説明するための模式図である。It is a schematic diagram for demonstrating the outline of the matching process of the image processing apparatus 1. 画像座標系でのオブジェクトの位置を説明するための模式図である。It is a schematic diagram for demonstrating the position of an object in an image coordinate system. 三次元座標系でのオブジェクトの位置を説明するための模式図である。It is a schematic diagram for demonstrating the position of an object in a three-dimensional coordinate system. スコアテーブルを示す模式図である。It is a schematic diagram which shows the score table. マッチング処理の流れを説明するためのフローチャートである。It is a flowchart for demonstrating the flow of a matching process.

<画像処理装置の構成>
本発明の一の実施形態に係る画像処理装置の構成について、図1を参照しながら説明する。
<Configuration of image processing device>
The configuration of the image processing apparatus according to the embodiment of the present invention will be described with reference to FIG.

図1は、一の実施形態に係る画像処理装置1の構成を説明するための模式図である。画像処理装置1は、撮像装置5が順次撮像した撮像画像に含まれるオブジェクトのマッチング処理を行う。画像処理装置1は、例えば車両に搭載されており、上記のマッチング処理は、例えば自動運転時の前方又は周辺の車両を追跡するために利用される。 FIG. 1 is a schematic diagram for explaining the configuration of the image processing device 1 according to the embodiment. The image processing device 1 performs matching processing of objects included in the captured images sequentially captured by the imaging device 5. The image processing device 1 is mounted on a vehicle, for example, and the matching process described above is used, for example, to track a vehicle in front of or around the vehicle during automatic driving.

撮像装置5は、例えば車両に搭載されており、車両の前方を撮像する。具体的には、撮像装置5は、車両が走行中に、前方を走行する他の車両を撮像する。撮像装置5は、撮像した撮像画像を、画像処理装置1に送信する。撮像装置5は、例えば車両の前方上部に設けられており、斜め前を撮像する。このため、前方を車両が列になって走行している場合には、車両が重なるように撮像される。なお、撮像装置5は、車両の側面又は後面に単数又は複数搭載され、前方以外の方向を撮像してもよい。 The image pickup device 5 is mounted on a vehicle, for example, and images the front of the vehicle. Specifically, the image pickup device 5 images another vehicle traveling in front of the vehicle while the vehicle is traveling. The image pickup device 5 transmits the captured captured image to the image processing device 1. The image pickup device 5 is provided, for example, in the upper part of the front of the vehicle, and images an obliquely front portion. Therefore, when the vehicles are traveling in a row in front of the vehicle, the images are taken so that the vehicles overlap. The image pickup device 5 may be mounted on the side surface or the rear surface of the vehicle, and may image a direction other than the front.

図2は、画像処理装置1のマッチング処理の概略を説明するための模式図である。ここでは、時刻k+1で撮像された撮像画像P2のオブジェクトM1〜M4がマッチング対象の観測オブジェクトである。画像処理装置1は、既に特定された追跡オブジェクトに対して、撮像画像P2のオブジェクトM1〜M4のマッチング処理を行う。追跡オブジェクトは、例えば、時刻kで撮像された撮像画像P1に対して既にマッチング処理を行ってIDが特定されたオブジェクトL1〜L4である。なお、追跡オブジェクトは、時刻kよりも前に特定されたオブジェクトを含んでもよく、後述する記憶部10に記憶されている。
画像処理装置1は、詳細は後述するが、画像座標系及び三次元座標系の双方での相違度を求めることで、撮像画像P2の観測オブジェクトの中の追跡オブジェクトと同一のオブジェクトを探索する。これにより、精度良くオブジェクトをマッチングさせることができる。
FIG. 2 is a schematic diagram for explaining the outline of the matching process of the image processing apparatus 1. Here, the objects M1 to M4 of the captured image P2 captured at time k + 1 are the observation objects to be matched. The image processing device 1 performs matching processing of the objects M1 to M4 of the captured image P2 on the tracking object that has already been identified. The tracking objects are, for example, objects L1 to L4 whose IDs have already been specified by performing matching processing on the captured image P1 captured at time k. The tracking object may include an object specified before the time k, and is stored in the storage unit 10 described later.
Although the details will be described later, the image processing device 1 searches for the same object as the tracking object in the observed object of the captured image P2 by obtaining the degree of difference in both the image coordinate system and the three-dimensional coordinate system. This makes it possible to match objects with high accuracy.

画像処理装置1は、図1に示すように、記憶部10と、制御部20とを有する。
記憶部10は、例えばROM(Read Only Memory)及びRAM(Random Access Memory)を含む。記憶部10は、制御部20が実行するためのプログラムや各種データを記憶する。例えば、記憶部10は、後述するマッチング処理を行うアルゴリズムに関する情報や、既にIDが特定された追跡中の追跡オブジェクトの情報を記憶している。
As shown in FIG. 1, the image processing device 1 has a storage unit 10 and a control unit 20.
The storage unit 10 includes, for example, a ROM (Read Only Memory) and a RAM (Random Access Memory). The storage unit 10 stores a program and various data for execution by the control unit 20. For example, the storage unit 10 stores information on an algorithm for performing matching processing, which will be described later, and information on a tracking object whose ID has already been specified.

制御部20は、例えばCPU(Central Processing Unit)である。制御部20は、記憶部10に記憶されたプログラムを実行することにより、撮像画像(具体的には、図2の撮像画像P2)中に含まれるオブジェクトのマッチング処理を行う。本実施形態では、制御部20は、画像取得部22、第1位置特定部23、第2位置特定部24、相違度算出部25及びマッチング処理部26として機能する。 The control unit 20 is, for example, a CPU (Central Processing Unit). The control unit 20 executes a program stored in the storage unit 10 to perform matching processing of objects included in the captured image (specifically, the captured image P2 in FIG. 2). In the present embodiment, the control unit 20 functions as an image acquisition unit 22, a first position identification unit 23, a second position identification unit 24, a difference degree calculation unit 25, and a matching processing unit 26.

画像取得部22は、複数の物体を被写体とした撮像画像を所定間隔で取得する。すなわち、画像取得部22は、撮像装置5が撮像した撮像画像を順次取得する。例えば、画像取得部22は、図2に示す撮像画像P2を取得する。ここでは、画像取得部22は、撮像画像として、車両の前方を走行する複数の物体を撮像した前方画像を取得する。 The image acquisition unit 22 acquires captured images of a plurality of objects as subjects at predetermined intervals. That is, the image acquisition unit 22 sequentially acquires the captured images captured by the imaging device 5. For example, the image acquisition unit 22 acquires the captured image P2 shown in FIG. Here, the image acquisition unit 22 acquires a front image of a plurality of objects traveling in front of the vehicle as an image to be captured.

第1位置特定部23は、撮像画像(例えば、図2の撮像画像P2)に含まれる各物体に対応する複数のオブジェクトの、撮像画像の画像座標系での位置である第1位置をそれぞれ特定する。すなわち、第1位置特定部23は、画像取得部22が取得した撮像画像における各オブジェクトの第1位置をそれぞれ特定する。 The first position specifying unit 23 specifies the first position, which is the position of a plurality of objects corresponding to each object included in the captured image (for example, the captured image P2 in FIG. 2) in the image coordinate system of the captured image. do. That is, the first position specifying unit 23 specifies the first position of each object in the captured image acquired by the image acquisition unit 22.

図3は、画像座標系でのオブジェクトの位置を説明するための模式図である。ここでは、撮像画像中に4つのオブジェクトA、B、C、Dが含まれているものとする。例えば、4つのオブジェクトA〜Dは、それぞれ前方を走行する他の車両である。また、画像座標系は、ここでは、撮像画像の左上端を原点とし、撮像画像の横方向をx軸方向、撮像画像の縦方向をy軸であるものとする。第1位置特定部23は、第1位置として、上記の画像座標系における各オブジェクトA〜Dの位置(x、y軸方向での位置)をそれぞれ特定する。 FIG. 3 is a schematic diagram for explaining the position of the object in the image coordinate system. Here, it is assumed that four objects A, B, C, and D are included in the captured image. For example, the four objects A to D are other vehicles traveling in front of each other. Further, in the image coordinate system, here, it is assumed that the upper left end of the captured image is the origin, the horizontal direction of the captured image is the x-axis direction, and the vertical direction of the captured image is the y-axis. The first position specifying unit 23 specifies the positions (positions in the x and y axis directions) of the objects A to D in the above image coordinate system as the first position.

第2位置特定部24は、複数のオブジェクトの撮像画像における奥行き方向での位置を幾何学的な拘束条件または他センサとの情報の統合等により推定し、複数のオブジェクトの三次元座標系での位置である第2位置をそれぞれ特定する。また、三次元座標系は、ここでは、カメラ位置を原点とし、車両右手方向をX軸方向、高さ方向をY軸、車両正面方向をZ軸にとるものとする。 The second position specifying unit 24 estimates the positions of a plurality of objects in the depth direction in the captured image by geometrical constraint conditions or integration of information with other sensors, and in the three-dimensional coordinate system of the plurality of objects. Each second position, which is a position, is specified. Further, in the three-dimensional coordinate system, the camera position is taken as the origin, the right hand direction of the vehicle is the X-axis direction, the height direction is the Y-axis, and the front direction of the vehicle is the Z-axis.

図4は、三次元座標系でのオブジェクトの位置を説明するための模式図である。図4は、図3の撮像画像の各オブジェクトA〜Dの奥行き座標(Z軸)を特定した後、X座標とY座標を算出し、それらの位置を俯瞰図として描画したものである。第2位置特定部24は、第2位置として、上記の三次元座標系における各オブジェクトA〜Dの位置(X、Y、Z軸方向での位置)をそれぞれ特定する。 FIG. 4 is a schematic diagram for explaining the position of an object in a three-dimensional coordinate system. In FIG. 4, after specifying the depth coordinates (Z-axis) of each object A to D in the captured image of FIG. 3, the X-coordinate and the Y-coordinate are calculated, and their positions are drawn as a bird's-eye view. The second position specifying unit 24 specifies the positions (positions in the X, Y, and Z axis directions) of the objects A to D in the above three-dimensional coordinate system as the second position.

相違度算出部25は、一のタイミングで追跡対象として特定された追跡オブジェクトの第1位置及び第2位置と、一より後のタイミングで画像処理部22が取得した撮像画像の複数のオブジェクトの第1位置及び第2位置とに基づいて、画像座標系での第1相違度及び三次元座標系での第2相違度をそれぞれ求める。すなわち、相違度算出部25は、第1位置特定部23及び第2位置特定部24が特定した第1位置及び第2位置に基づいて、第1相違度及び第2相違度を求める。例えば、相違度算出部25は、追跡オブジェクト(図2のオブジェクトL1〜L4)の第1位置及び第2位置と、撮像画像P2のオブジェクトM1〜M4の第1位置及び第2位置に基づいて、第1相違度及び第2相違度を求める。 The difference degree calculation unit 25 is the first position and the second position of the tracking object specified as the tracking target at one timing, and the second of a plurality of objects of the captured image acquired by the image processing unit 22 at the timing after one. Based on the first position and the second position, the first degree of difference in the image coordinate system and the second degree of difference in the three-dimensional coordinate system are obtained, respectively. That is, the difference degree calculation unit 25 obtains the first difference degree and the second difference degree based on the first position and the second position specified by the first position specifying unit 23 and the second position specifying unit 24. For example, the difference calculation unit 25 is based on the first position and the second position of the tracking object (objects L1 to L4 in FIG. 2) and the first position and the second position of the objects M1 to M4 of the captured image P2. The first degree of difference and the second degree of difference are obtained.

本実施形態では、相違度算出部25は、第1相違度及び第2相違度を示すスコア関数を求める。スコア関数Scoreは、一つの一のタイミングで取得されたオブジェクトまたは追跡中のオブジェクトと一つの観測オブジェクトの間の座標の差をスコア化したものである。例えば、一つの追跡中のオブジェクトと一つの観測オブジェクトの間のスコアとして下記のような式を用いる。

Figure 2021111195
上記の式において、xtrackが追跡オブジェクトの画像座標系でのx座標を意味し、xobsが観測オブジェクトの画像座標系でのx座標を意味する。同様に、Xtrackが追跡オブジェクトの三次元座標系でのX座標を意味し、Xobsが観測オブジェクトの三次元座標系でのX座標を意味する。λimageとλ3dは、それぞれ画像座標系と三次元座標系でのスコアの重み係数でありλ、λ等が各座標値に対する重み係数である。なお、各座標値に対する重み係数のみで画像座標系と三次元座標系に対する影響度は調整可能なため、λimageとλ3dは無くてもよい。また、上記の式では、簡単にするため、比較対象のオブジェクト間の距離のL1ノルムの各成分の重み付き和をスコアとしているが、ユークリッド距離、すなわち、L2ノルムや確率的な位置の分布を考慮したマハラノビス距離などをスコアとして採用してもよい。相違度算出部25は、全ての追跡オブジェクトと、撮像画像P2の全ての観測オブジェクトについて、スコア関数を求める。 In the present embodiment, the difference calculation unit 25 obtains a score function indicating the first difference and the second difference. The score function Score is a score obtained by scoring the difference in coordinates between an object acquired at one timing or an object being tracked and an observed object. For example, the following formula is used as the score between one tracking object and one observation object.
Figure 2021111195
In the above equation, x track means the x coordinate of the tracking object in the image coordinate system, and x obs means the x coordinate of the observed object in the image coordinate system. Similarly, X track means the X coordinate of the tracking object in the 3D coordinate system, and X obs means the X coordinate of the observed object in the 3D coordinate system. lambda image and lambda 3d is a weight factor of the scores of each image coordinate system and the three-dimensional coordinate system, lambda x, lambda X, etc. is a weighting factor for each coordinate value. Since the degree of influence on the image coordinate system and the three-dimensional coordinate system can be adjusted only by the weighting coefficient for each coordinate value, λ image and λ 3d may be omitted. Further, in the above equation, for the sake of simplicity, the weighted sum of each component of the L1 norm of the distance between the objects to be compared is used as the score, but the Euclidean distance, that is, the distribution of the L2 norm and the stochastic position is used. The Mahalanobis distance taken into consideration may be adopted as the score. The difference calculation unit 25 obtains a score function for all the tracking objects and all the observed objects of the captured image P2.

相違度算出部25は、第1撮像画像及び第2撮像画像の各オブジェクトの位置に加え、大きさやテクスチャの情報等に基いて相違度を求めてもよい。例えば、各オブジェクトの位置と大きさを考慮する場合、スコア関数を下記のように計算する。

Figure 2021111195
ここで、wとhはそれぞれ画像座標系におけるオブジェクトの幅と高さであり、WとHはそれぞれ三次元座標系におけるオブジェクトの幅と高さである。 The difference degree calculation unit 25 may obtain the difference degree based on the position of each object of the first captured image and the second captured image, as well as the size, texture information, and the like. For example, when considering the position and size of each object, the score function is calculated as follows.
Figure 2021111195
Here, w and h are the width and height of the object in the image coordinate system, respectively, and W and H are the width and height of the object in the three-dimensional coordinate system, respectively.

また、相違度算出部25は、第1相違度に対する重み付け(例えばλimage、λ)の値と、第2相違度に対する重み付け(例えばλ3d、λ)の値とを異ならせてもよい。例えば、相違度算出部25は、三次元座標系での相違度の計算を重視するために、第2相違度に対する重み付けの値を、第1相違度に対する重み付けの値よりも大きくする。 Further, the difference degree calculation unit 25 may make the value of the weighting for the first degree of difference (for example, λ image , λ x ) different from the value of the weighting for the second degree of difference (for example, λ 3d , λ X ). .. For example, the difference calculation unit 25 sets the weighting value for the second difference to be larger than the weighting value for the first difference in order to emphasize the calculation of the difference in the three-dimensional coordinate system.

マッチング処理部26は、求めた第1相違度及び第2相違度の両方に基づいて、追跡オブジェクトに対して撮像画像の各オブジェクト(観測オブジェクト)のマッチング処理を行う。例えば、マッチング処理部26は、第1相違度及び第2相違度の両方が小さい場合には、相違度を求めた追跡オブジェクトと観測オブジェクトが同一のオブジェクトであると判定する。一方で、マッチング処理部26は、第1相違度及び第2相違度のいずれかで相違度が大きい場合には、相違度を求めた追跡オブジェクトと観測オブジェクトが異なるオブジェクトであると判定する。 The matching processing unit 26 performs matching processing of each object (observation object) of the captured image on the tracking object based on both the obtained first difference degree and the second difference degree. For example, when both the first difference degree and the second difference degree are small, the matching processing unit 26 determines that the tracking object for which the difference degree is obtained and the observation object are the same object. On the other hand, when the degree of difference is large in either the first degree of difference or the second degree of difference, the matching processing unit 26 determines that the tracking object for which the degree of difference is obtained and the observation object are different objects.

図5は、スコアテーブルを示す模式図である。スコアテーブルは、ここでは、図2に示す追跡オブジェクトL1〜L4と観測オブジェクトM1〜M4の各々について求めたスコア関数のスコア値を表としてまとめたものである。マッチング処理部26は、スコアテーブルを用いて、各追跡オブジェクトと同一と見なせる観測オブジェクトを探索する。例えば、マッチング処理部26は、追跡オブジェクトL1に関して、4つの観測オブジェクトM1〜M4の各々とのスコア値S11〜S14から、スコア値が小さい観測オブジェクトを探索する。なお、追跡オブジェクトが複数ある場合には、マッチング処理部26は、例えば、ハンガリアン法を用いて、各追跡オブジェクトに対して最適な観測オブジェクトを割り当てる。ハンガリアン法は、最適な組が一意に定まるアルゴリズムである。これにより、複数の追跡オブジェクトと観測オブジェクトの最適な組み合わせを実現できる。 FIG. 5 is a schematic diagram showing a score table. Here, the score table is a table that summarizes the score values of the score functions obtained for each of the tracking objects L1 to L4 and the observation objects M1 to M4 shown in FIG. The matching processing unit 26 searches for an observation object that can be regarded as the same as each tracking object by using the score table. For example, the matching processing unit 26 searches for an observation object having a small score value from the score values S11 to S14 with each of the four observation objects M1 to M4 with respect to the tracking object L1. When there are a plurality of tracking objects, the matching processing unit 26 assigns the optimum observation object to each tracking object by using, for example, the Hungarian method. The Hungarian method is an algorithm that uniquely determines the optimal set. As a result, the optimum combination of a plurality of tracking objects and observation objects can be realized.

<マッチング処理の流れ>
マッチング処理の流れについて、図6を参照しながら説明する。
<Flow of matching process>
The flow of the matching process will be described with reference to FIG.

図6は、マッチング処理の流れを説明するためのフローチャートである。ここでは、追跡オブジェクトと撮像画像P2の各オブジェクトのマッチング処理について説明するものとする。なお、追跡オブジェクトは、例えば撮像画像P1の取得後のマッチング処理によって特定され、記憶部10に記憶されている。 FIG. 6 is a flowchart for explaining the flow of the matching process. Here, the matching process of the tracking object and each object of the captured image P2 will be described. The tracking object is identified by, for example, a matching process after acquisition of the captured image P1 and stored in the storage unit 10.

まず、画像取得部22は、観測オブジェクトを含む撮像画像(例えば、図2に示す撮像画像P2)を取得する(ステップS102)。 First, the image acquisition unit 22 acquires an captured image including the observation object (for example, the captured image P2 shown in FIG. 2) (step S102).

次に、第1位置特定部23は、撮像画像P2の観測オブジェクトの画像座標系での第1位置を特定する(ステップS104)。また、第2位置特定部24は、撮像画像P2の観測オブジェクトの三次元座標系での第2位置を特定する(ステップS106)。 Next, the first position specifying unit 23 specifies the first position of the observed object of the captured image P2 in the image coordinate system (step S104). Further, the second position specifying unit 24 specifies the second position of the observed object of the captured image P2 in the three-dimensional coordinate system (step S106).

次に、相違度算出部25は、追跡オブジェクトと撮像画像P2の観測オブジェクトの、第1相違度及び第2相違度を求める(ステップS108)。例えば、相違度算出部25は、一の追跡オブジェクトと一の観測オブジェクト間の第1相違度及び第2相違度を含むスコア関数のスコア値を求める。そして、相違度算出部25は、全ての追跡オブジェクトと観測オブジェクト間のスコア値を求めることで、例えば図5に示すスコアテーブルを導く。 Next, the difference degree calculation unit 25 obtains the first difference degree and the second difference degree of the tracking object and the observation object of the captured image P2 (step S108). For example, the difference calculation unit 25 obtains the score value of the score function including the first difference and the second difference between one tracking object and one observation object. Then, the difference calculation unit 25 derives, for example, the score table shown in FIG. 5 by obtaining the score values between all the tracking objects and the observed objects.

次に、マッチング処理部26は、求めた第1相違度及び第2相違度に基づいて、撮像画像P2の観測オブジェクトのマッチングを行う(ステップS110)。例えば、マッチング処理部26は、図5に示すスコアテーブルを用いて、各追跡オブジェクトと同一の観測オブジェクトを探索する。すなわち、マッチング処理部26は、算出したスコアが小さい追跡オブジェクトと観測オブジェクトが、同一のオブジェクトであると判定する。なお、マッチング処理部26は、いずれの追跡オブジェクトとも相違度が閾値以上となる観測オブジェクトを、新たなオブジェクトであると判定する。一方、追跡オブジェクトのうち、いずれの観測オブジェクトとも相違度が閾値以上となるオブジェクトは、そのオブジェクトを保持する要件を満たさない場合、存在しないオブジェクトとして破棄される。 Next, the matching processing unit 26 matches the observed objects of the captured image P2 based on the obtained first difference degree and second difference degree (step S110). For example, the matching processing unit 26 searches for the same observation object as each tracking object using the score table shown in FIG. That is, the matching processing unit 26 determines that the tracking object and the observation object having a small calculated score are the same object. The matching processing unit 26 determines that the observation object whose difference degree is equal to or higher than the threshold value with any of the tracking objects is a new object. On the other hand, among the tracking objects, the object whose difference degree is equal to or more than the threshold value from any of the observed objects is discarded as a nonexistent object if the requirement for holding the object is not satisfied.

画像処理装置1は、撮像装置5が撮像画像を撮像する度に、上述したマッチング処理を行う。例えば、撮像画像P2の次の撮像画像が取得された場合には、撮像画像P2のオブジェクトとのマッチング処理の結果追跡オブジェクトとして記憶されたオブジェクトと、次の撮像画像中のオブジェクト(観測オブジェクト)との間でマッチング処理が行われる。 The image processing device 1 performs the matching process described above each time the image pickup device 5 captures the captured image. For example, when the next captured image of the captured image P2 is acquired, the object stored as the tracking object as a result of the matching process with the object of the captured image P2 and the object (observation object) in the next captured image Matching processing is performed between.

なお、上記では、画像処理装置1が、車両に搭載された撮像装置5が撮像した撮像画像についてトラッキング処理を行うこととしたが、これに限定されない。例えば、画像処理装置1は、監視カメラなどの車両ではない設備に備え付けられたカメラが撮像した撮像画像についてトラッキング処理を行うこととしてもよい。 In the above description, the image processing device 1 performs tracking processing on the captured image captured by the image pickup device 5 mounted on the vehicle, but the present invention is not limited to this. For example, the image processing device 1 may perform tracking processing on an captured image captured by a camera installed in equipment other than a vehicle such as a surveillance camera.

また、上記では、スコア関数をオブジェクト同士(追跡オブジェクトと観測オブジェクト)の相違度で規定しているが、これに限定されず、例えば、スコア関数をオブジェクト同士の類似度で規定してもよい。スコアを類似度で規定する場合、スコアが大きい追跡オブジェクトと観測オブジェクトが同一のオブジェクトであると見なされる。 Further, in the above, the score function is defined by the degree of difference between objects (tracking object and observation object), but the present invention is not limited to this, and for example, the score function may be defined by the degree of similarity between objects. When the score is defined by similarity, the tracking object with the higher score and the observed object are considered to be the same object.

<本実施形態における効果>
上述した実施形態の画像処理装置1は、既に追跡対象として特定された複数の追跡オブジェクトと、画像取得部22が取得した撮像画像P2の観測オブジェクトとの、画像座標系での第1相違度及び三次元座標系での第2相違度をそれぞれ求める。画像処理装置1は、求めた第1相違度及び第2相違度に基づいて、撮像画像P2の各観測オブジェクトと各追跡オブジェクトのマッチング処理を行う。
画像座標系及び三次元座標系の2つの座標系の相違度を用いてマッチング処理を行うことで、一つの座標系の相違度のみでマッチング処理を行う場合に比べて、ミスマッチを防ぎ、精度良く観測オブジェクトを適切にマッチングできる。
<Effect in this embodiment>
The image processing device 1 of the above-described embodiment has a first degree of difference in the image coordinate system between the plurality of tracking objects already specified as tracking targets and the observation object of the captured image P2 acquired by the image acquisition unit 22. Find the second degree of difference in the three-dimensional coordinate system. The image processing device 1 performs matching processing of each observation object and each tracking object of the captured image P2 based on the obtained first difference degree and second difference degree.
By performing matching processing using the degree of difference between the two coordinate systems of the image coordinate system and the three-dimensional coordinate system, mismatching is prevented and accuracy is improved compared to the case where matching processing is performed using only the degree of difference of one coordinate system. Observed objects can be matched properly.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されず、その要旨の範囲内で種々の変形及び変更が可能である。例えば、装置の全部又は一部は、任意の単位で機能的又は物理的に分散・統合して構成することができる。また、複数の実施の形態の任意の組み合わせによって生じる新たな実施の形態も、本発明の実施の形態に含まれる。組み合わせによって生じる新たな実施の形態の効果は、もとの実施の形態の効果を併せ持つ。 Although the present invention has been described above using the embodiments, the technical scope of the present invention is not limited to the scope described in the above embodiments, and various modifications and changes can be made within the scope of the gist thereof. be. For example, all or a part of the device can be functionally or physically distributed / integrated in any unit. Also included in the embodiments of the present invention are new embodiments resulting from any combination of the plurality of embodiments. The effect of the new embodiment produced by the combination also has the effect of the original embodiment.

1 画像処理装置
22 画像取得部
23 第1位置特定部
24 第2位置特定部
25 相違度算出部
26 マッチング処理部
1 Image processing device 22 Image acquisition unit 23 1st position identification unit 24 2nd position identification unit 25 Difference degree calculation unit 26 Matching processing unit

Claims (5)

複数の物体を被写体とした撮像画像を所定間隔で取得する画像取得部と、
前記撮像画像に含まれる各物体に対応する複数のオブジェクトの、画像座標系での位置である第1位置をそれぞれ特定する第1位置特定部と、
前記複数のオブジェクトの前記撮像画像における奥行き方向での位置を推定し、前記複数のオブジェクトの三次元座標系での位置である第2位置をそれぞれ特定する第2位置特定部と、
一のタイミングで追跡対象として特定された複数の追跡オブジェクトの前記第1位置及び前記第2位置と、一より後のタイミングで前記画像取得部が取得した撮像画像の複数のオブジェクトの前記第1位置及び前記第2位置とに基づいて、前記画像座標系での第1相違度及び前記三次元座標系での第2相違度をそれぞれ求める相違度算出部と、
求めた前記第1相違度及び前記第2相違度の両方に基づいて、前記追跡オブジェクトに対して前記撮像画像の各オブジェクトのマッチング処理を行うマッチング処理部と、
を備える、画像処理装置。
An image acquisition unit that acquires captured images of multiple objects at predetermined intervals,
A first position specifying unit that specifies a first position, which is a position in the image coordinate system, of a plurality of objects corresponding to each object included in the captured image.
A second position specifying unit that estimates the positions of the plurality of objects in the depth direction in the captured image and specifies the second positions that are the positions of the plurality of objects in the three-dimensional coordinate system, respectively.
The first position and the second position of the plurality of tracking objects specified as tracking targets at one timing, and the first position of the plurality of objects of the captured image acquired by the image acquisition unit at a timing after one. And a difference calculation unit that obtains the first difference in the image coordinate system and the second difference in the three-dimensional coordinate system based on the second position.
A matching processing unit that performs matching processing for each object of the captured image with respect to the tracking object based on both the obtained first difference degree and the second difference degree.
An image processing device.
前記相違度算出部は、前記第1相違度に対する重み付けの値と、前記第2相違度に対する重み付けの値とを異ならせる、
請求項1に記載の画像処理装置。
The difference calculation unit makes the weighting value for the first difference different from the weighting value for the second difference.
The image processing apparatus according to claim 1.
前記相違度算出部は、前記追跡オブジェクト及び前記撮像画像の各オブジェクトの大きさ又は輝度値に基づく情報を用いた相違度も求める、
請求項1又は2に記載の画像処理装置。
The difference degree calculation unit also obtains the difference degree using information based on the size or brightness value of the tracking object and each object of the captured image.
The image processing apparatus according to claim 1 or 2.
前記画像取得部は、前記撮像画像として、車両の前方を走行する複数の物体を撮像した前方画像を取得する、
請求項1から3のいずれか1項に記載の画像処理装置。
The image acquisition unit acquires a front image of a plurality of objects traveling in front of the vehicle as the captured image.
The image processing apparatus according to any one of claims 1 to 3.
複数の物体を被写体とした撮像画像を所定間隔で取得するステップと、
前記撮像画像に含まれる各物体に対応する複数のオブジェクトの、画像座標系での位置である第1位置をそれぞれ特定するステップと、
前記複数のオブジェクトの前記撮像画像における奥行き方向での位置を推定し、前記複数のオブジェクトの三次元座標系での位置である第2位置をそれぞれ特定するステップと、
一のタイミングで追跡対象として特定された複数の追跡オブジェクトの前記第1位置及び前記第2位置と、一より後のタイミングで取得した撮像画像の複数のオブジェクトの前記第1位置及び前記第2位置とに基づいて、前記画像座標系での第1相違度及び前記三次元座標系での第2相違度をそれぞれ求めるステップと、
求めた前記第1相違度及び前記第2相違度の両方に基づいて、前記追跡オブジェクトに対して前記撮像画像の各オブジェクトのマッチング処理を行うステップと、
を有する、画像処理方法。
Steps to acquire captured images of multiple objects at predetermined intervals,
A step of specifying a first position, which is a position in the image coordinate system, of a plurality of objects corresponding to each object included in the captured image.
A step of estimating the position of the plurality of objects in the depth direction in the captured image and specifying a second position which is a position of the plurality of objects in the three-dimensional coordinate system, respectively.
The first position and the second position of the plurality of tracking objects specified as tracking targets at one timing, and the first position and the second position of the plurality of objects of the captured image acquired at the timing after one. Based on the above, the step of obtaining the first degree of difference in the image coordinate system and the second degree of difference in the three-dimensional coordinate system, respectively, and
A step of performing matching processing of each object of the captured image with respect to the tracking object based on both the obtained first difference degree and the second difference degree.
An image processing method having.
JP2020003598A 2020-01-14 2020-01-14 Image processing device and image processing method Active JP7334626B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020003598A JP7334626B2 (en) 2020-01-14 2020-01-14 Image processing device and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020003598A JP7334626B2 (en) 2020-01-14 2020-01-14 Image processing device and image processing method

Publications (2)

Publication Number Publication Date
JP2021111195A true JP2021111195A (en) 2021-08-02
JP7334626B2 JP7334626B2 (en) 2023-08-29

Family

ID=77059953

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020003598A Active JP7334626B2 (en) 2020-01-14 2020-01-14 Image processing device and image processing method

Country Status (1)

Country Link
JP (1) JP7334626B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008236642A (en) * 2007-03-23 2008-10-02 Hitachi Ltd Object tracking device
JP2014010686A (en) * 2012-06-29 2014-01-20 Secom Co Ltd Face image authentication device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008236642A (en) * 2007-03-23 2008-10-02 Hitachi Ltd Object tracking device
JP2014010686A (en) * 2012-06-29 2014-01-20 Secom Co Ltd Face image authentication device

Also Published As

Publication number Publication date
JP7334626B2 (en) 2023-08-29

Similar Documents

Publication Publication Date Title
JP6125188B2 (en) Video processing method and apparatus
JP4943034B2 (en) Stereo image processing device
US20180012366A1 (en) Methods circuits devices systems and associated computer executable code for video feed processing
WO2017051480A1 (en) Image processing device and image processing method
JP6021689B2 (en) Vehicle specification measurement processing apparatus, vehicle specification measurement method, and program
JP2014074632A (en) Calibration apparatus of in-vehicle stereo camera and calibration method
JPWO2020023582A5 (en)
JP2021106025A5 (en)
US11036963B2 (en) Object recognition system based on an adaptive 3D generic model
Salau et al. Extrinsic calibration of a multi-Kinect camera scanning passage for measuring functional traits in dairy cows
JP5369873B2 (en) Judgment program and calibration device
JP2010256040A (en) Vehicle detecting device
US20120293631A1 (en) Methods for implementing a behavior analysis of a rodent in an arena and methods for generating an image of the rodent
JP2021111195A (en) Image processing device and image processing method
CN108805218B (en) Optical target association method based on deviation mapping clustering
JP2014106856A (en) Image recognition method and image recognition device
CN111476828B (en) Multi-view animal group tracking method and device
CN113065483A (en) Positioning method, positioning device, electronic equipment, medium and robot
CN113674361A (en) Vehicle-mounted all-round-looking calibration implementation method and system
JP6968691B2 (en) Obstacle detector
JP2010249768A (en) Vehicle detection device
KR101747350B1 (en) Method for recognizing coordinates of object for visual servoing
WO2014192061A1 (en) Image processing device, image processing method, and image processing program
JP2003323627A (en) Vehicle detection device and method
JP2021018605A (en) Image processing apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220330

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230309

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230322

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230511

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230718

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230731

R150 Certificate of patent or registration of utility model

Ref document number: 7334626

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150