JP2010061375A - Apparatus and program for recognizing object - Google Patents

Apparatus and program for recognizing object Download PDF

Info

Publication number
JP2010061375A
JP2010061375A JP2008226150A JP2008226150A JP2010061375A JP 2010061375 A JP2010061375 A JP 2010061375A JP 2008226150 A JP2008226150 A JP 2008226150A JP 2008226150 A JP2008226150 A JP 2008226150A JP 2010061375 A JP2010061375 A JP 2010061375A
Authority
JP
Japan
Prior art keywords
image
feature point
feature points
vehicle
object recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008226150A
Other languages
Japanese (ja)
Inventor
Akihiro Watanabe
章弘 渡邉
Yoshikatsu Kimura
好克 木村
Yutaka Yamagiwa
豊 山際
Kosuke Hamada
浩輔 浜田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Toyota Central R&D Labs Inc
Original Assignee
Toyota Motor Corp
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp, Toyota Central R&D Labs Inc filed Critical Toyota Motor Corp
Priority to JP2008226150A priority Critical patent/JP2010061375A/en
Publication of JP2010061375A publication Critical patent/JP2010061375A/en
Pending legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To provide an apparatus and a program for recognizing an object for preventing erroneous recognition of an object due to a reflected image without having special equipment to improve recognition accuracy of object recognition. <P>SOLUTION: The apparatus extracts a plurality of feature points through edge detection from an image photographed with a photograph device 12, associates a feature point of the latest image with a feature point of an image photographed in the preceding frame if a vehicle travels, if the coordinates of the associated feature points are the same as each other, the apparatus stores the feature points as candidate points of a fixed feature point together with a candidate number count. The apparatus determines candidate points by repeating processing to each image of a predetermined number of frames, adds one to the candidate number count if the coordinates are the same as those of the stored candidate points, and determines the candidate point, as the fixed feature point, of which the candidate number count becomes not smaller than a predetermined value to eliminate the fixed feature point from the feature point extracted from the latest image. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、物体認識装置及びプログラムに係り、特にカメラ等により撮像された画像から車両周辺の物体を認識するための物体認識装置及びプログラムに関する。   The present invention relates to an object recognition apparatus and program, and more particularly to an object recognition apparatus and program for recognizing an object around a vehicle from an image captured by a camera or the like.

従来、撮像された画像から物体を認識し、認識結果を例えばディスプレイに表示するなどして、車両を運転するドライバの運転を支援することが行われている。このように撮像された画像を用いる場合の多くは、カメラ等の撮像装置を車両内に取り付け、例えばフロントガラス越しに車両前方を撮像することにより得られた画像を利用している。この場合、車両内の物体からの光がフロントガラスで反射されて車載カメラに入射され、撮像される画像に車両内の物体が映り込む、いわゆる映り込み画像により、物体認識に誤認識が生じる、という問題があった。   2. Description of the Related Art Conventionally, a driver driving a vehicle is assisted by recognizing an object from a captured image and displaying a recognition result on a display, for example. In many cases, when using an image captured in this way, an image capturing device such as a camera is mounted in the vehicle, and for example, an image obtained by capturing the front of the vehicle through the windshield is used. In this case, light from the object in the vehicle is reflected by the windshield and incident on the in-vehicle camera, and the object in the vehicle is reflected in the captured image, so-called reflection image causes erroneous recognition. There was a problem.

そこで、フロントガラス内側で、かつ前方に向けたカメラの近傍にダッシュボードを照明する照明装置を設け、照明装置の点灯時及び消灯時に撮影された画像より得られる2つのエッジ画像の差分画像を作成し、複数枚の差分画像について各画素値の平均値と分散値とを演算し、所定の閾値以上の平均値、かつ所定の閾値以下の分散値の画素を映り込み画像のエッジが占める画素として検出し、この画素値をゼロに設定することで走行路画像から映り込み画像のエッジを除去する映り込み検出方法が提案されている(例えば、特許文献1)。   Therefore, an illuminating device that illuminates the dashboard inside the windshield and in the vicinity of the camera facing forward is provided to create a differential image of two edge images obtained from images taken when the illuminating device is turned on and off. Then, an average value and a variance value of each pixel value are calculated for a plurality of difference images, and pixels having an average value that is equal to or greater than a predetermined threshold and a variance value that is equal to or less than the predetermined threshold are taken as pixels occupied by the edge of the reflected image A reflection detection method has been proposed in which an edge of a reflection image is removed from a traveling road image by detecting and setting this pixel value to zero (for example, Patent Document 1).

また、カメラの前面に偏光フィルタを設け、フロントガラスで反射してカメラに入射される光を遮り、撮像画像への映り込みを防止する映り込み防止方法が提案されている(例えば、特許文献2)。   Also, there has been proposed a reflection preventing method in which a polarizing filter is provided on the front surface of the camera, the light incident on the camera is reflected by the windshield, and the reflection on the captured image is prevented (for example, Patent Document 2). ).

また、実空間に存在する対象物の上にプロジェクタにより投影画像を投影し、投影した状態の実空間を撮像した画像と、投影元画像に補正を加えて作成した推定映り込み画像との差分画像を抽出することにより映り込み画像(投影画像)を除去する画像処理装置が提案されている(例えば、特許文献3)。
特開2002−230563号公報 特開2001−94842号公報 特開2006−259627号公報
Also, a difference image between an image obtained by projecting a projected image onto a target object existing in the real space and capturing the projected real space, and an estimated reflected image created by correcting the projection source image An image processing apparatus that removes a reflected image (projected image) by extracting the image has been proposed (for example, Patent Document 3).
JP 2002-230563 A JP 2001-94842 A JP 2006-259627 A

しかしながら、特許文献1の映り込み検出方法では、差分画像を得るために特別な装備として照明装置を設けているため、コストが高くなり、また搭載条件も制限される、という問題がある。また、特許文献2の映り込み防止方法でも、偏光フィルタを設ける必要があるため、コストが高くなり、また撮像画像の光量が低下する、という問題がある。また、特許文献3の画像処理装置では、映り込み画像のパターンが既知であることが前提となっているため、どのようなパターンのものが映り込み画像として検出されるか不明の場合には対応できない、という問題がある。   However, the reflection detection method disclosed in Patent Document 1 has a problem that the illumination device is provided as a special equipment for obtaining a difference image, which increases the cost and restricts the mounting conditions. In addition, the reflection prevention method disclosed in Patent Document 2 also requires a polarizing filter, which increases costs and reduces the amount of captured image light. In addition, since the image processing apparatus of Patent Document 3 is based on the premise that the pattern of the reflected image is known, it is possible to cope with a case where it is unclear what pattern is detected as the reflected image. There is a problem that it is not possible.

本発明は、上述した問題を解決するために提案されたものであり、特別な装備を設けることなく映り込み画像による物体の誤認識を防止して、物体認識の精度を向上させることができる物体認識装置及びプログラムを提供することを目的とする。   The present invention has been proposed to solve the above-described problem, and can prevent the object from being erroneously recognized by the reflected image without providing any special equipment and improve the object recognition accuracy. An object is to provide a recognition device and a program.

上記目的を達成するために、本発明の物体認識装置は、車両周辺の所定方向の対象領域を連続的に撮像して複数の画像を出力する撮像手段と、前記撮像手段により撮像された各画像から複数の特徴点を抽出する特徴点抽出手段と、所定時間内に撮像された各画像から抽出され、かつ前記所定時間内に撮像された各画像において座標が同一の固定特徴点を、前記所定時間内に撮像された最新の画像から抽出された複数の特徴点より除去する固定特徴点除去手段と、前記固定特徴点除去手段により固定特徴点が除去された前記最新の画像の特徴点に基づいて、物体認識を行う物体認識手段と、を含んで構成されている。   In order to achieve the above object, an object recognition apparatus according to the present invention includes an imaging unit that continuously captures a target region in a predetermined direction around a vehicle and outputs a plurality of images, and each image captured by the imaging unit. A feature point extracting means for extracting a plurality of feature points from the image, and a fixed feature point extracted from each image captured within a predetermined time and having the same coordinates in each image captured within the predetermined time. Fixed feature point removing means for removing from a plurality of feature points extracted from the latest image captured in time, and feature points of the latest image from which fixed feature points have been removed by the fixed feature point removing means And object recognition means for performing object recognition.

また、本発明の物体認識プログラムは、コンピュータを、車両周辺の所定方向の対象領域を連続的に撮像して複数の画像を出力する撮像手段により撮像された各画像から複数の特徴点を抽出する特徴点抽出手段と、所定時間内に撮像された各画像から抽出され、かつ前記所定時間内に撮像された各画像において座標が同一の固定特徴点を、前記所定時間内に撮像された最新の画像から抽出された複数の特徴点より除去する固定特徴点除去手段と、前記固定特徴点除去手段により固定特徴点が除去された前記最新の画像の特徴点に基づいて、物体認識を行う物体認識手段として機能させるためのものである。   In the object recognition program of the present invention, the computer extracts a plurality of feature points from each image captured by an imaging unit that continuously captures a target area in a predetermined direction around the vehicle and outputs a plurality of images. The feature point extracting means and the latest feature imaged within the predetermined time are fixed feature points extracted from each image captured within the predetermined time and having the same coordinates in each image captured within the predetermined time. Fixed feature point removing means for removing from a plurality of feature points extracted from an image, and object recognition for performing object recognition based on feature points of the latest image from which fixed feature points have been removed by the fixed feature point removing means It is for functioning as a means.

本発明の物体認識装置及びプログラムによれば、撮像手段が、車両周辺の所定方向の対象領域を連続的に撮像して複数の画像を出力し、特徴点抽出手段が、撮像手段により撮像された各画像から複数の特徴点を抽出する。ここで抽出される特徴点には、映り込み画像に基づいて抽出された特徴点が含まれる場合もある。映り込み画像は、長時間にわたって画像中の同一箇所に撮像されるため、固定特徴点除去手段が、所定時間内に撮像された各画像から抽出され、かつ所定時間内に撮像された各画像において座標が同一の固定特徴点を、所定時間内に撮像された最新の画像から抽出された複数の特徴点より除去し、物体認識手段が、固定特徴点除去手段により固定特徴点が除去された最新の画像の特徴点に基づいて、物体認識を行う。   According to the object recognition device and the program of the present invention, the imaging unit continuously captures a target area in a predetermined direction around the vehicle and outputs a plurality of images, and the feature point extraction unit is captured by the imaging unit. A plurality of feature points are extracted from each image. The feature points extracted here may include feature points extracted based on the reflected image. Since the reflected image is captured at the same location in the image for a long time, the fixed feature point removing means is extracted from each image captured within a predetermined time, and in each image captured within a predetermined time The fixed feature point having the same coordinate is removed from a plurality of feature points extracted from the latest image captured within a predetermined time, and the object recognition unit is the latest in which the fixed feature point is removed by the fixed feature point removing unit. Object recognition is performed based on the feature points of the image.

このように、所定時間内に撮像された各画像において座標が同一の固定特徴点を映り込み画像に基づいて抽出された特徴点として除去し、固定特徴点が除去された最新の画像の特徴点に基づいて物体認識を行うため、特別な装備を設けることなく映り込み画像による物体の誤認識を防止して、物体認識の精度を向上させることができる。   In this way, the fixed feature points having the same coordinates in each image captured within a predetermined time are removed as feature points extracted based on the reflected image, and the feature points of the latest image from which the fixed feature points are removed Therefore, the object recognition accuracy can be improved by preventing the erroneous recognition of the object by the reflected image without providing any special equipment.

また、前記所定時間内に撮像された画像を少なくとも3フレーム以上とすることができる。このように、3フレーム以上の画像に基づいて固定特徴点を判断することにより、映り込み画像によるものではないが偶然座標が同一となる特徴点を固定特徴点として判断する確率が低下し、適切に映り込み画像による固定特徴点を除去することができる。   In addition, an image captured within the predetermined time can be at least three frames. As described above, by determining the fixed feature point based on the image of three frames or more, the probability of determining the feature point having the same accidental coordinates but not by the reflected image as a fixed feature point is reduced, and the It is possible to remove fixed feature points from the reflected image.

また、本発明の物体認識装置は、前記車両が走行しているか否かを検出する車両走行検出手段を更に備え、前記固定特徴点除去手段は、前記車両走行検出手段により前記車両が走行していることが検出された場合に、前記固定特徴点を除去するようにすることができる。   In addition, the object recognition device of the present invention further includes vehicle travel detection means for detecting whether or not the vehicle is traveling, and the fixed feature point removal means is configured to cause the vehicle to travel by the vehicle travel detection means. If it is detected that the fixed feature point is detected, the fixed feature point can be removed.

このように、車両が走行している場合に、固定特徴点を除去するようにすることにより、所定時間内に撮像された各画像から抽出される特徴点は、車両の走行状態に応じて座標が変化する特徴点と固定特徴点とがより明確に区別されるため、より適切に固定特徴点を除去することができ、物体認識の精度が向上する。   As described above, when the vehicle is traveling, by removing fixed feature points, the feature points extracted from each image captured within a predetermined time are coordinated according to the traveling state of the vehicle. Since the feature point that changes and the fixed feature point are more clearly distinguished, the fixed feature point can be removed more appropriately, and the accuracy of object recognition is improved.

以上説明したように、本発明の物体認識装置及びプログラムによれば、特別な装備を設けることなく映り込み画像による物体の誤認識を防止して、物体認識の精度を向上させることができる、という効果が得られる。   As described above, according to the object recognition apparatus and program of the present invention, it is possible to prevent the object from being erroneously recognized by the reflected image without providing special equipment, and to improve the accuracy of the object recognition. An effect is obtained.

以下、図面を参照して、本発明の実施の形態について詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1に示すように、本実施の形態に係る物体認識装置10は、車両1前方の対象領域を含む範囲を撮像するように車室内に取り付けられた撮像装置12、車両1の車速を検出する車速センサ14、撮像装置12から出力される撮像画像に基づいて物体を認識する物体認識プログラムの処理ルーチンを実行する制御装置16、及び制御装置16での処理結果を表示するための表示装置18を備えている。   As shown in FIG. 1, the object recognition device 10 according to the present embodiment detects the vehicle speed of the vehicle 1, the imaging device 12 mounted in the vehicle interior so as to capture the range including the target area in front of the vehicle 1. A vehicle speed sensor 14, a control device 16 that executes a processing routine of an object recognition program that recognizes an object based on a captured image output from the imaging device 12, and a display device 18 that displays a processing result in the control device 16. I have.

撮像装置12は、車両1前方の対象領域を含む範囲を制御装置16からの撮像指示に応じて1フレームずつ撮像し、1フレーム毎の画像信号を生成する撮像部、撮像部で生成されたアナログ信号である画像信号をデジタル信号に変換するA/D変換部、及びA/D変換された画像信号を一時的に格納するための画像メモリを備えている。   The imaging device 12 captures a range including a target area in front of the vehicle 1 frame by frame in response to an imaging instruction from the control device 16 and generates an image signal for each frame, and an analog generated by the imaging unit. An A / D conversion unit that converts an image signal that is a signal into a digital signal, and an image memory that temporarily stores the A / D converted image signal are provided.

車速センサ14は、車両1のエンジンの出力軸の回転数を検出可能な位置に設けられ、車両1の車速に応じた信号を発生して制御装置16へ入力する。   The vehicle speed sensor 14 is provided at a position where the rotational speed of the output shaft of the engine of the vehicle 1 can be detected, and generates a signal corresponding to the vehicle speed of the vehicle 1 and inputs it to the control device 16.

制御装置16は、物体認識装置10全体の制御を司るCPU、後述する物体認識処理及び固定特徴点判定除去処理等のプログラムを記憶した記憶媒体としてのROM、ワークエリアとしてデータを一時格納するRAM、I/O(入出力)ポート、及びこれらを接続するバスを含むマイクロコンピュータで構成されている。I/Oポートには、撮像装置12、車速センサ14及び表示装置18が接続されている。   The control device 16 includes a CPU that controls the entire object recognition device 10, a ROM as a storage medium that stores programs such as an object recognition process and a fixed feature point determination and removal process described later, a RAM that temporarily stores data as a work area, It consists of a microcomputer including an I / O (input / output) port and a bus connecting them. An imaging device 12, a vehicle speed sensor 14, and a display device 18 are connected to the I / O port.

次に、図2を参照して、本実施の形態における物体認識プログラムの処理ルーチンについて説明する。ここでは、認識対象物が車線(白線)の場合について説明する。本プログラムは、例えば、物体認識装置10が搭載された車両1のイグニッションスイッチがオンされるなどによって図示しない車両制御装置からの処理開始の指示信号が受信されるとCPUにより実行される。   Next, the processing routine of the object recognition program in the present embodiment will be described with reference to FIG. Here, a case where the recognition target object is a lane (white line) will be described. This program is executed by the CPU when a processing start instruction signal is received from a vehicle control device (not shown), for example, when an ignition switch of the vehicle 1 on which the object recognition device 10 is mounted is turned on.

ステップ100で、車速センサ14による車速vの検出を開始させるための車速検出開始信号を車速センサ14へ送信する。次に、ステップ102で、カウンタ値kに1をセットして、次に、ステップ104で、撮像装置12に1フレーム分の画像を撮像するための撮像指示信号を送信し、次に、ステップ106で、撮像装置12で撮像された画像I(k)を取り込む。ここで取り込んだ画像には、図3(A)に示すように、フロントガラス34に反射した車両室内の物体36が映り込んだ画像(映り込み画像32)が存在する場合には、車両前方の対象領域を撮像した画像と映り込み画像32とが含まれている。   In step 100, a vehicle speed detection start signal for starting detection of the vehicle speed v by the vehicle speed sensor 14 is transmitted to the vehicle speed sensor 14. Next, in step 102, 1 is set to the counter value k. Next, in step 104, an imaging instruction signal for imaging an image for one frame is transmitted to the imaging device 12, and then in step 106. Thus, the image I (k) captured by the imaging device 12 is captured. In the captured image, as shown in FIG. 3A, when there is an image (reflection image 32) in which the object 36 in the vehicle interior reflected on the windshield 34 is reflected, An image obtained by capturing the target area and a reflected image 32 are included.

次に、ステップ108で、撮像装置12から入力された画像に対して微分フィルタなどを用いてエッジ検出を行い、画像I(k)に含まれる物体のエッジ点を特徴点Pi(k)(i=1、2、3・・・n:nは画像I(k)から抽出される特徴点の総数)として抽出する。図3(A)で示す画像から特徴点を抽出した例を同図(B)に示す。エッジ検出により車線部分のエッジ点が特徴点として抽出されると共に、映り込み画像32のエッジ点も特徴点として抽出されている。   Next, in step 108, edge detection is performed on the image input from the imaging device 12 using a differential filter or the like, and the edge point of the object included in the image I (k) is determined as the feature point Pi (k) (i = 1, 2, 3,... N: n is extracted as the total number of feature points extracted from the image I (k). An example of extracting feature points from the image shown in FIG. 3A is shown in FIG. The edge point of the lane portion is extracted as the feature point by the edge detection, and the edge point of the reflected image 32 is also extracted as the feature point.

次に、ステップ110で、カウンタ値kが1より大きいか否かを判断することにより、2フレーム以上の画像から特徴点が抽出されたか否かを判断する。1より大きい場合には、ステップ114へ進み、1以下の場合には、ステップ112へ進む。ここではk=1であるので、ステップ112へ進み、カウンタ値kをインクリメントしてステップ104へ戻る。   Next, in step 110, it is determined whether or not a feature point has been extracted from an image of two or more frames by determining whether or not the counter value k is greater than one. If it is greater than 1, go to step 114, otherwise go to step 112. Since k = 1 here, the process proceeds to step 112 where the counter value k is incremented and the process returns to step 104.

ステップ104へ戻ると、撮像装置12へ撮像指示信号を送信し、ステップ106で、例えば図3(C)に示すような次の画像I(k)が取り込まれ、ステップ108で、例えば、図3(D)に示すように画像I(k)の特徴点が抽出される。   Returning to step 104, an imaging instruction signal is transmitted to the imaging device 12, and in step 106, for example, the next image I (k) as shown in FIG. 3C is captured, and in step 108, for example, FIG. As shown in (D), feature points of the image I (k) are extracted.

次のステップ110では、カウンタ値kが1より大きくなっており、2つのフレーム画像から特徴点が抽出されているので、ステップ114へ進み、車速センサ14により検出された、画像I(k)を撮像した時点での車両の車速v(k)信号を取り込む。   In the next step 110, since the counter value k is larger than 1 and the feature points are extracted from the two frame images, the process proceeds to step 114, and the image I (k) detected by the vehicle speed sensor 14 is displayed. The vehicle speed v (k) signal of the vehicle at the time of imaging is captured.

次に、ステップ116で、取り込んだ車速v(k)が0より大きいか否かを判断することにより、車両が走行しているか否かを検出する。車両が走行していることが検出された場合には、ステップ118へ進んで、固定特徴点判定除去の処理を実行する。車両が走行していない場合には、固定特徴点判定除去の処理を実行することなく、ステップ120へ進む。   Next, in step 116, it is determined whether or not the vehicle is traveling by determining whether or not the captured vehicle speed v (k) is greater than zero. If it is detected that the vehicle is traveling, the routine proceeds to step 118, where fixed feature point determination removal processing is executed. If the vehicle is not running, the process proceeds to step 120 without executing the fixed feature point determination removal process.

ここで、図4を参照して、固定特徴点判定除去プログラムの処理ルーチンについて説明する。   Here, the processing routine of the fixed feature point determination removal program will be described with reference to FIG.

ステップ200で、カウンタ値iに1をセットし、次に、ステップ202で、最新の画像である画像I(k)の特徴点P(k)と、1フレーム前に撮像された画像I(k−1)の特徴点P(k−1)(j=1、2、3・・・l:lは画像I(k−1)から抽出される特徴点の総数)との対応付けを行い、特徴点P(k)に対応付けられる特徴点P(k−1)が存在するか否かを判断する。特徴点の対応付けは、例えば、SSD(Sum of Squared Differences)などの値を用いて、特徴点周辺に設定した小領域での輝度分布が似ている点の組を対応付けるようにすることができる。また、特徴点の座標のみから対応付けを行ったり、特徴点の座標とエッジ方向などの特徴量の属性とに基づいて対応付けを行ったりしてもよい。対応付けられる特徴点が存在する場合には、ステップ204へ進み、存在しない場合には、ステップ214へ進む。 In step 200, the counter value i is set to 1. Next, in step 202, the feature point P i (k) of the image I (k) that is the latest image and the image I ( k-1) with the feature points P j (k-1) (j = 1, 2, 3... l: l is the total number of feature points extracted from the image I (k-1)). performed, the feature point P i (k) in correspondence is the feature point P j (k-1) determining whether there is. The association of feature points can be made to associate pairs of points having similar brightness distributions in small areas set around the feature points using, for example, values such as SSD (Sum of Squared Differences). . Further, the association may be performed only from the coordinates of the feature points, or the association may be performed based on the coordinates of the feature points and the attribute of the feature quantity such as the edge direction. If there is a feature point to be associated, the process proceeds to step 204; otherwise, the process proceeds to step 214.

ステップ204で、対応付けられた特徴点P(k)及び特徴点P(k−1)のそれぞれの座標を算出し、座標が同一か否かを判断する。座標が同一の場合には、特徴点P(k)を固定特徴点の候補点Lであると判定して、ステップ206へ進み、同一でない場合には、ステップ214へ進む。 In step 204, the coordinates of the associated feature point P i (k) and feature point P j (k−1) are calculated, and it is determined whether the coordinates are the same. If the coordinates are the same, it is determined that the feature point P i (k) is a candidate point L for the fixed feature point, and the process proceeds to step 206. If not, the process proceeds to step 214.

ステップ206で、固定特徴点の候補点Lが記憶される所定の記憶領域を参照して、これから記憶しようとしている候補点Lの座標と同一の座標の候補点Lが既に記憶されているか否かを判断する。所定の記憶領域には、候補点Lの座標及び候補点として判定された回数を示す候補数カウントが記憶されている。候補点Lが既に記憶されている場合には、ステップ208へ進み、該当する候補点Lの候補数カウントに1を加算する。候補点Lがまだ記憶されていない場合には、ステップ210へ進み、新たな候補点Lとして、その座標及び候補数カウント「1」を記憶する。なお、mは、所定領域に記憶される候補点に付される通し番号である。 In step 206, with reference to the predetermined storage area candidate point L of the fixing characteristic points are stored, from which one candidate point L m of coordinates of the same coordinate of the candidate point L you are trying to storage has already been stored whether Determine whether. The predetermined storage area, the candidate count indicating the number of times is determined as the coordinates and the candidate points of the candidate point L m is stored. If the candidate point L has already been stored, the process proceeds to step 208, one is added to the candidate count of the corresponding candidate points L m. If the candidate point L has not yet been stored, the process proceeds to step 210, as a new candidate point L m, stores "1" that coordinates and candidate count. Note that m is a serial number assigned to the candidate points stored in the predetermined area.

次に、ステップ212で、カウンタ値iが、画像I(k)の特徴点P(k)の総数であるnと等しくなったか否かを判断することにより、画像I(k)のすべての特徴点P(k)について候補点Lとなるか否かの判定を行ったかを判断する。i=nの場合には、ステップ216へ進み、i=nとなっていない場合には、ステップ214で、カウンタ値iをインクリメントして、ステップ202へ戻り、ステップ202〜ステップ212の処理を繰り返す。   Next, in step 212, it is determined whether the counter value i is equal to n, which is the total number of feature points P (k) of the image I (k), thereby determining all the features of the image I (k). It is determined whether or not it is determined whether or not the point P (k) is a candidate point L. If i = n, the process proceeds to step 216. If i = n is not satisfied, the counter value i is incremented in step 214, the process returns to step 202, and the processes in steps 202 to 212 are repeated. .

次に、ステップ216で、所定領域に記憶された固定特徴点の候補点Lのうち、ステップ208で候補数カウントに1が加算されなかった候補点Lを削除する。候補数カウントに1が加算されなかったということは、最新の画像I(k)では同一の座標の特徴点が抽出されなかったということであり、固定特徴点ではないからである。なお、ステップ210で新たに記憶された候補点Lは、候補数カウント0に1が加算されたのと同様であるため、本ステップにおいて削除されない。 Next, at step 216, among the candidate points L m of a fixed point feature stored in a predetermined area, 1 to the number of candidates counted in step 208 deletes the candidate point L which have not been added. The fact that 1 is not added to the candidate count means that the feature point of the same coordinate has not been extracted in the latest image I (k), and is not a fixed feature point. Note that the newly stored candidate point L m in step 210, since the number of candidates count 0 1 is the same as the summed, not removed in this step.

次に、ステップ218で、カウンタ値mに1をセットし、次に、ステップ220で、候補点Lが記憶されている所定領域を参照して、候補点Lの候補数カウントが所定値以上か否かを判断することにより、所定フレーム以上の各画像において同一の座標の特徴点であるか否かを判断する。なお、ここでは、所定値を予め定めた画像のフレーム数で設定しているが、所定時間内に送信された撮像指示の回数を算出して所定値として設定してもよい。所定値以上の場合には、ステップ222へ進んで、候補点Lを固定特徴点として決定する。所定値より小さい場合には、ステップ224へ進む。 Next, in step 218, 1 is set to the counter value m, then, at step 220, by referring to the predetermined region candidate point L m is stored, the candidate count is a predetermined value of the candidate point L m By determining whether or not it is the above, it is determined whether or not the image is a feature point of the same coordinate in each image of a predetermined frame or more. Here, the predetermined value is set by the predetermined number of frames of the image, but the number of imaging instructions transmitted within a predetermined time may be calculated and set as the predetermined value. In the case of more than the predetermined value, the routine proceeds to step 222, it determines the candidate point L m as a fixed point feature. If smaller than the predetermined value, the process proceeds to step 224.

ステップ224で、カウンタ値mが、記憶されている固定特徴点の候補点の通し番号の最大値mmaxと等しくなったか否かを判断することにより、記憶されているすべての候補点Lについて、候補数カウントの判定を行ったか否かを判断する。m=mmaxの場合には、ステップ228へ進み、m=mmaxになっていない場合には、ステップ226で、カウンタ値mをインクリメントして、ステップ220へ戻り、ステップ220〜ステップ224の処理を繰り返す。 In step 224, by determining whether or not the counter value m is equal to the maximum serial number m max of stored fixed feature point candidate points, for all stored candidate points L m , It is determined whether or not the candidate count has been determined. If m = m max, the process proceeds to step 228. If m = m max is not satisfied, the counter value m is incremented in step 226, the process returns to step 220, and the processing from step 220 to step 224 is performed. repeat.

ステップ228で、ステップ222で決定された固定特徴点と同一の座標の特徴点を画像I(k)の固定特徴点として除去して、処理を終了してリターンする。例えば、最新の画像I(k)から抽出した特徴点が図3(D)、画像I(k−1)から抽出した特徴点が同図(B)で示されるような場合で、前述の各ステップを経て、図5に示されるような固定特徴点が決定された場合には、図3(D)に示される複数の特徴点から、図5に示される固定特徴点が除去されて、図6に示される特徴点が残る。なお、ステップ220で候補数カウントが所定値以上の候補点Lがなかった場合には、固定特徴点が決定されないため、固定特徴点の除去は行われない。 In step 228, the feature point having the same coordinate as that of the fixed feature point determined in step 222 is removed as the fixed feature point of the image I (k), the process is terminated, and the process returns. For example, when the feature points extracted from the latest image I (k) are shown in FIG. 3D and the feature points extracted from the image I (k−1) are shown in FIG. When the fixed feature points as shown in FIG. 5 are determined through the steps, the fixed feature points shown in FIG. 5 are removed from the plurality of feature points shown in FIG. 6 remains. If there is no candidate point L m whose candidate count is equal to or greater than the predetermined value in step 220, no fixed feature point is determined, and therefore no fixed feature point is removed.

次に、図2のステップ120で、固定特徴点が除去された特徴点に基づいて物体を認識する。抽出した画像I(k)の特徴点P(k)に基づいて物体認識の処理を実行する。ここで、ステップ112で肯定されて固定特徴点判定除去処理を行った場合には、ステップ106で抽出された複数の特徴点から固定特徴点が除去された残りの特徴点に基づいて物体認識を行う。物体認識の処理には、パターンマッチングや予め作成しておいた学習モデルとの比較等の周知の技術を用いることができるため、詳細については説明を省略する。   Next, in step 120 of FIG. 2, an object is recognized based on the feature points from which the fixed feature points have been removed. Object recognition processing is executed based on the feature point P (k) of the extracted image I (k). Here, when the fixed feature point determination removal process is performed in step 112, object recognition is performed based on the remaining feature points from which the fixed feature points are removed from the plurality of feature points extracted in step 106. Do. For the object recognition process, a known technique such as pattern matching or comparison with a learning model created in advance can be used, and therefore, detailed description thereof is omitted.

次に、ステップ122で、撮像装置12から取り込んだ画像に対して、ステップ116の認識結果に基づいて、例えば、認識された車線部分の色を変更したり強調したりする処理を施して、表示装置18上に表示する。   Next, in step 122, based on the recognition result in step 116, for example, processing for changing or enhancing the color of the recognized lane portion is performed on the image captured from the imaging device 12 and displayed. Display on device 18.

次に、ステップ124で、例えば、車両のイグニッションスイッチがオフされるなどによって図示しない車両制御装置から処理終了の指示信号が入力されたか否かを判断し、入力されない場合には、ステップ112でカウンタ値kをインクリメントしてステップ104へ戻り処理を繰り返す。処理終了の指示信号が入力された場合には、本ルーチンを終了する。   Next, in step 124, for example, it is determined whether or not a processing end instruction signal is input from a vehicle control device (not shown) by turning off the ignition switch of the vehicle. The value k is incremented and the process returns to step 104 and is repeated. When a process end instruction signal is input, this routine ends.

なお、この処理を実行する制御装置16をハードウエアとソフトウエアとに基づいて定まる機能実現手段毎に分割した機能ブロックで説明すると、図7に示すように、撮像装置12によって撮像された画像から特徴点を抽出する特徴点抽出部20、車速センサ14から入力された車速に応じた信号に基づいて車両が走行しているか否かを検出する車両走行検出部22、特徴点抽出部20で抽出された特徴点から固定特徴点を判定する固定特徴点判定部24、固定特徴点判定部24で固定特徴点と判定された特徴点を除去する固定特徴点除去部26、車両が走行している場合には、特徴点抽出部20で抽出された特徴点より固定特徴点が除去された特徴点に基づいて、車両が走行していない場合には、特徴点抽出部20で抽出された特徴点に基づいて物体を認識する物体認識部28、及び撮像装置12によって撮像された撮像画像に、物体認識部28による認識結果を重畳させて表示装置18に表示するよう制御する表示制御部30を含んだ構成で表すことができる。   If the control device 16 that executes this process is described in terms of functional blocks divided for each function realizing means determined based on hardware and software, as shown in FIG. Extracted by a feature point extraction unit 20 that extracts feature points, a vehicle travel detection unit 22 that detects whether the vehicle is traveling based on a signal corresponding to the vehicle speed input from the vehicle speed sensor 14, and a feature point extraction unit 20 A fixed feature point determination unit 24 that determines a fixed feature point from the determined feature points, a fixed feature point removal unit 26 that removes a feature point determined as a fixed feature point by the fixed feature point determination unit 24, and a vehicle is running. In this case, based on the feature point from which the fixed feature point is removed from the feature point extracted by the feature point extracting unit 20, the feature point extracted by the feature point extracting unit 20 when the vehicle is not traveling. Based on And an object recognition unit 28 for recognizing an object, and a display control unit 30 for controlling the recognition result of the object recognition unit 28 to be superimposed on the captured image captured by the imaging device 12 and displaying the image on the display device 18. Can be expressed as

以上説明したように、本実施の形態に係る物体認識装置10によれば、車両が走行している場合に、所定時間内に撮像された所定フレーム以上の各画像から抽出される特徴点のうち、各画像において座標が同一の特徴点を映り込み画像に基づく固定特徴点であると判定して、抽出された特徴点から除去しているため、特別な装備を設けることなく映り込み画像による物体の誤認識を防止して、物体認識の精度を向上させることができる。   As described above, according to the object recognition device 10 according to the present embodiment, when the vehicle is running, among the feature points extracted from each image of a predetermined frame or more captured within a predetermined time. Since the feature points having the same coordinates in each image are determined as fixed feature points based on the reflected image and removed from the extracted feature points, the object by the reflected image is not provided with any special equipment. Can be prevented and the accuracy of object recognition can be improved.

なお、本実施の形態では、入力画像からエッジ検出により抽出されるエッジ点を特徴点とする場合について説明したが、物体を認識するための特徴点として物体の形状、輪郭、色、模様等を表わすものが抽出されればよく、例えば、入力された画像に対して予め定めたパターン画像とのマッチングを行って抽出される輪郭に対応する複数の画素を特徴点として抽出したり、所定の色を示す画素値の画素を特徴点として抽出したりしてもよい。   In the present embodiment, the case where the edge point extracted by edge detection from the input image is used as the feature point has been described. However, the shape, contour, color, pattern, etc. of the object are used as the feature point for recognizing the object. For example, a plurality of pixels corresponding to a contour extracted by matching an input image with a predetermined pattern image may be extracted as feature points, or a predetermined color may be extracted. Alternatively, a pixel having a pixel value indicating 特 徴 may be extracted as a feature point.

また、本実施の形態では、車両が走行しているか否かを、車速のみで検出する場合について説明したが、操舵角センサで検出される操舵角等もあわせて検出に利用してもよい。また、本実施の形態では、車速が0より大きい場合に車両の走行を検出することとしたが、車速が所定値以上の場合に車両の走行を検出するようにしてもよい。   In the present embodiment, the case where whether or not the vehicle is running is detected only by the vehicle speed has been described. However, the steering angle detected by the steering angle sensor may also be used for detection. In the present embodiment, the vehicle travel is detected when the vehicle speed is greater than 0. However, the vehicle travel may be detected when the vehicle speed is equal to or higher than a predetermined value.

また、本実施の形態では、認識対象物が車線の場合について説明したが、路面、植物、空、建物等を認識対象物としてもよいし、これらの中から選択した複数個を認識対象物としてもよい。   In this embodiment, the case where the recognition target object is a lane has been described. However, a road surface, a plant, the sky, a building, or the like may be used as the recognition target object, and a plurality selected from these may be used as the recognition target object. Also good.

また、本実施の形態では、認識結果を表示装置に表示する場合について説明したが、認識結果を歩行者検出装置や車両制御装置などの他の装置の入力情報として利用するようにしてもよい。例えば、歩行者検出装置に上記認識結果を入力して、歩行者の探索範囲を限定することにより、歩行者検出装置における計算コストの削減や誤検出率の低減が図れる。また、車両制御装置に上記認識結果を入力して、自動追従等の制御に利用してもよい。   Moreover, although the case where the recognition result is displayed on the display device has been described in the present embodiment, the recognition result may be used as input information of another device such as a pedestrian detection device or a vehicle control device. For example, by inputting the recognition result to the pedestrian detection device and limiting the search range of the pedestrian, it is possible to reduce the calculation cost and the false detection rate in the pedestrian detection device. Further, the recognition result may be input to the vehicle control device and used for control such as automatic tracking.

また、本実施の形態の物体認識装置10の構成、及び固定特徴点判定除去処理を含む物体認識処理のプログラムの処理の流れは一例であり、本発明の主旨を逸脱しない範囲内において適宜変更可能である。   Further, the configuration of the object recognition apparatus 10 according to the present embodiment and the flow of the object recognition processing program including the fixed feature point determination and removal processing are merely examples, and can be changed as appropriate without departing from the scope of the present invention. It is.

本実施の形態に係る物体認識装置の構成を示す概略図である。It is the schematic which shows the structure of the object recognition apparatus which concerns on this Embodiment. 本実施の形態に係る物体認識プログラムの処理ルーチンを示すフローチャートである。It is a flowchart which shows the processing routine of the object recognition program which concerns on this Embodiment. 撮像装置で撮像された画像、及び撮像された画像から抽出された特徴点の一例を示す図である。It is a figure which shows an example of the feature point extracted from the image imaged with the imaging device, and the imaged image. 本実施の形態における固定特徴点判定除去プログラムの処理ルーチンを示すフローチャートである。It is a flowchart which shows the processing routine of the fixed feature point determination removal program in this Embodiment. 固定特徴点の一例を示す図である。It is a figure which shows an example of a fixed feature point. 抽出された特徴点から固定特徴点が除去された結果の一例を示す図である。It is a figure which shows an example of the result by which the fixed feature point was removed from the extracted feature point. 本実施の形態に係る物体認識装置の機能的構成を示す機能ブロック図である。It is a functional block diagram which shows the functional structure of the object recognition apparatus which concerns on this Embodiment.

符号の説明Explanation of symbols

10 物体認識装置
12 撮像装置
14 車速センサ
16 制御装置
18 表示装置
20 特徴点抽出部
22 車両走行検出部
24 固定特徴点判定部
26 固定特徴点除去部
28 物体認識部
30 表示制御部
DESCRIPTION OF SYMBOLS 10 Object recognition apparatus 12 Imaging device 14 Vehicle speed sensor 16 Control apparatus 18 Display apparatus 20 Feature point extraction part 22 Vehicle travel detection part 24 Fixed feature point determination part 26 Fixed feature point removal part 28 Object recognition part 30 Display control part

Claims (4)

車両周辺の所定方向の対象領域を連続的に撮像して複数の画像を出力する撮像手段と、
前記撮像手段により撮像された各画像から複数の特徴点を抽出する特徴点抽出手段と、
所定時間内に撮像された各画像から抽出され、かつ前記所定時間内に撮像された各画像において座標が同一の固定特徴点を、前記所定時間内に撮像された最新の画像から抽出された複数の特徴点より除去する固定特徴点除去手段と、
前記固定特徴点除去手段により固定特徴点が除去された前記最新の画像の特徴点に基づいて、物体認識を行う物体認識手段と、
を含む物体認識装置。
Imaging means for continuously imaging a target area in a predetermined direction around the vehicle and outputting a plurality of images;
Feature point extracting means for extracting a plurality of feature points from each image imaged by the imaging means;
A plurality of fixed feature points extracted from each image captured within a predetermined time and having the same coordinates in each image captured within the predetermined time, extracted from the latest image captured within the predetermined time Fixed feature point removing means for removing from the feature points;
Object recognition means for performing object recognition based on the feature points of the latest image from which fixed feature points have been removed by the fixed feature point removal means;
An object recognition apparatus including:
前記所定時間内に撮像された画像を少なくとも3フレーム以上とした請求項1記載の物体認識装置。   The object recognition apparatus according to claim 1, wherein an image captured within the predetermined time is at least three frames. 前記車両が走行しているか否かを検出する車両走行検出手段を更に備え、
前記固定特徴点除去手段は、前記車両走行検出手段により前記車両が走行していることが検出された場合に、前記固定特徴点を除去する請求項1または請求項2記載の物体認識装置。
Vehicle travel detection means for detecting whether or not the vehicle is traveling;
The object recognition apparatus according to claim 1, wherein the fixed feature point removing unit removes the fixed feature point when the vehicle running detection unit detects that the vehicle is running.
コンピュータを、
車両周辺の所定方向の対象領域を連続的に撮像して複数の画像を出力する撮像手段により撮像された各画像から複数の特徴点を抽出する特徴点抽出手段と、
所定時間内に撮像された各画像から抽出され、かつ前記所定時間内に撮像された各画像において座標が同一の固定特徴点を、前記所定時間内に撮像された最新の画像から抽出された複数の特徴点より除去する固定特徴点除去手段と、
前記固定特徴点除去手段により固定特徴点が除去された前記最新の画像の特徴点に基づいて、物体認識を行う物体認識手段と、
して機能させるための物体認識プログラム。
Computer
Feature point extracting means for extracting a plurality of feature points from each image captured by an imaging means for continuously capturing a target region in a predetermined direction around the vehicle and outputting a plurality of images;
A plurality of fixed feature points extracted from each image captured within a predetermined time and having the same coordinates in each image captured within the predetermined time, extracted from the latest image captured within the predetermined time Fixed feature point removing means for removing from the feature points;
Object recognition means for performing object recognition based on the feature points of the latest image from which fixed feature points have been removed by the fixed feature point removal means;
Object recognition program to make it function.
JP2008226150A 2008-09-03 2008-09-03 Apparatus and program for recognizing object Pending JP2010061375A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008226150A JP2010061375A (en) 2008-09-03 2008-09-03 Apparatus and program for recognizing object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008226150A JP2010061375A (en) 2008-09-03 2008-09-03 Apparatus and program for recognizing object

Publications (1)

Publication Number Publication Date
JP2010061375A true JP2010061375A (en) 2010-03-18

Family

ID=42188112

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008226150A Pending JP2010061375A (en) 2008-09-03 2008-09-03 Apparatus and program for recognizing object

Country Status (1)

Country Link
JP (1) JP2010061375A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013255064A (en) * 2012-06-06 2013-12-19 Denso Corp Reflection reductive on-vehicle camera system
US20140139673A1 (en) * 2012-11-22 2014-05-22 Fujitsu Limited Image processing device and method for processing image
JP2014197386A (en) * 2013-03-08 2014-10-16 キヤノン株式会社 Image processing apparatus and image processing method
KR20160136817A (en) * 2015-05-21 2016-11-30 주식회사 맥스트 Method for displaying augmented reality of based 3d point cloud cognition, apparatus and system for executing the method
JP2020508591A (en) * 2017-02-10 2020-03-19 コンティ テミック マイクロエレクトロニック ゲゼルシャフト ミット ベシュレンクテル ハフツングConti Temic microelectronic GmbH Automotive camera system
CN113592943A (en) * 2020-04-30 2021-11-02 丰田自动车株式会社 Position estimation system and position estimation method

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013255064A (en) * 2012-06-06 2013-12-19 Denso Corp Reflection reductive on-vehicle camera system
US9600988B2 (en) 2012-11-22 2017-03-21 Fujitsu Limited Image processing device and method for processing image
US20140139673A1 (en) * 2012-11-22 2014-05-22 Fujitsu Limited Image processing device and method for processing image
EP2735996A2 (en) 2012-11-22 2014-05-28 Fujitsu Limited Image processing device and method for processing image
JP2014102775A (en) * 2012-11-22 2014-06-05 Fujitsu Ltd Image processing device, image processing method, and image processing program
EP2735996A3 (en) * 2012-11-22 2015-03-11 Fujitsu Limited Image processing device and method for processing image
JP2014197386A (en) * 2013-03-08 2014-10-16 キヤノン株式会社 Image processing apparatus and image processing method
KR20160136817A (en) * 2015-05-21 2016-11-30 주식회사 맥스트 Method for displaying augmented reality of based 3d point cloud cognition, apparatus and system for executing the method
KR101725478B1 (en) * 2015-05-21 2017-04-11 주식회사 맥스트 Method for displaying augmented reality of based 3d point cloud cognition, apparatus and system for executing the method
US9741170B2 (en) 2015-05-21 2017-08-22 Maxst Co., Ltd. Method for displaying augmented reality content based on 3D point cloud recognition, and apparatus and system for executing the method
JP2020508591A (en) * 2017-02-10 2020-03-19 コンティ テミック マイクロエレクトロニック ゲゼルシャフト ミット ベシュレンクテル ハフツングConti Temic microelectronic GmbH Automotive camera system
CN113592943A (en) * 2020-04-30 2021-11-02 丰田自动车株式会社 Position estimation system and position estimation method
CN113592943B (en) * 2020-04-30 2024-01-30 丰田自动车株式会社 Position estimation system and position estimation method

Similar Documents

Publication Publication Date Title
JP4607193B2 (en) Vehicle and lane mark detection device
US7957559B2 (en) Apparatus and system for recognizing environment surrounding vehicle
US9690996B2 (en) On-vehicle image processor
US8005266B2 (en) Vehicle surroundings monitoring apparatus
JP4248558B2 (en) Road marking line detection device
US8184859B2 (en) Road marking recognition apparatus and method
US10142595B2 (en) Driving assistance device and method of detecting vehicle adjacent thereto
JP5421072B2 (en) Approaching object detection system
US9965690B2 (en) On-vehicle control device
WO2013011952A1 (en) Traffic lane recognition apparatus
US20100110193A1 (en) Lane recognition device, vehicle, lane recognition method, and lane recognition program
JP5402828B2 (en) Lane boundary detection device, lane boundary detection program
JP2007179386A (en) Method and apparatus for recognizing white line
JP2010061375A (en) Apparatus and program for recognizing object
JP2009252198A (en) Travel environment presuming device, method and program, and traffic lane deviation alarm device and steering assisting apparatus
JPH09113221A (en) On-vehicle device and method for processing picture
JPH0973529A (en) Two-wheeled vehicle monitor device
JP2002104113A (en) Rear monitoring device
JP6949090B2 (en) Obstacle detection device and obstacle detection method
JP2018073049A (en) Image recognition device, image recognition system, and image recognition method
JP5957315B2 (en) In-vehicle lane recognition system
JP4956841B2 (en) VEHICLE IMAGE PROCESSING DEVICE, VEHICLE, AND VEHICLE IMAGE PROCESSING PROGRAM
JP4876277B2 (en) VEHICLE IMAGE PROCESSING DEVICE, VEHICLE, AND VEHICLE IMAGE PROCESSING PROGRAM
JP2006107314A (en) Image processor and image processing method
JP2003022499A (en) Travel path recognition device for vehicle