WO2015122212A1 - 車載用認識装置 - Google Patents

車載用認識装置 Download PDF

Info

Publication number
WO2015122212A1
WO2015122212A1 PCT/JP2015/050202 JP2015050202W WO2015122212A1 WO 2015122212 A1 WO2015122212 A1 WO 2015122212A1 JP 2015050202 W JP2015050202 W JP 2015050202W WO 2015122212 A1 WO2015122212 A1 WO 2015122212A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
parallax
unit
reference image
hiding
Prior art date
Application number
PCT/JP2015/050202
Other languages
English (en)
French (fr)
Inventor
英彰 城戸
永崎 健
晋司 掛川
Original Assignee
日立オートモティブシステムズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日立オートモティブシステムズ株式会社 filed Critical 日立オートモティブシステムズ株式会社
Priority to US15/102,746 priority Critical patent/US10019635B2/en
Priority to EP15749369.3A priority patent/EP3109828B1/en
Publication of WO2015122212A1 publication Critical patent/WO2015122212A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/62Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Definitions

  • the present invention relates to an in-vehicle recognition device that recognizes an object by image processing.
  • Patent Document 1 describes a sign recognition technique using a stereo camera.
  • a sign area is first estimated by a distance image, and then an approximate size of the sign is estimated from the distance, and template matching according to the size is performed to perform sign recognition. Realized.
  • Patent Document 2 in an in-vehicle image recognition system using a plurality of cameras, not limited to a stereo camera, if one of the cameras cannot recognize a detection target object due to dirt on a lens or the like, a recognition process is performed on the other camera. A technique for performing and finding an object to be detected is described. In the technique of Patent Document 2, even if a situation in which one of the images cannot be recognized occurs, detection omission can be prevented if the other image is visible.
  • Patent Document 1 recognizes only one of two images. Therefore, there is a problem that a sign cannot be recognized when a sign is not shown in one image but a sign appears in the other image.
  • the present invention has been made in view of the above points, and an object thereof is to provide an in-vehicle recognition device that can recognize an object in a shorter processing time.
  • the in-vehicle recognition apparatus of the present invention that solves the above-described problem is an in-vehicle recognition apparatus that recognizes an object from one of a pair of images simultaneously captured by a pair of imaging units.
  • a parallax measurement unit that measures parallax using the image of the object
  • an object information estimation unit that estimates a current position of the target object from a past position of the target object, a measurement result of the parallax measurement unit, and the object information estimation
  • a hiding determination unit that determines whether or not hiding of the object occurs in at least one of the pair of images based on the estimation result of the unit, and from the pair of images based on the determination result of the hiding determination unit It has an image selection part which selects the image which can recognize the target object, and an object recognition part which recognizes a target object using the selected image, It is characterized by the above-mentioned.
  • the recognition process is performed on only one image without performing the recognition process on both images.
  • the overall processing time can be reduced.
  • the flowchart which shows the process example of the hiding determination process based on a hiding ratio.
  • the flowchart which shows the process example of the object recognition in the case of making an inverse reference image initially.
  • the flowchart which shows the process example of the hidden determination process in the case of making an inverse reference image initially.
  • FIG. 1 is a flowchart illustrating a processing example of an image recognition system using a stereo camera.
  • the stereo camera is mounted on a vehicle and has a pair of left and right imaging units (cameras) that image the front of the vehicle.
  • the right image and the left image captured by the pair of imaging units are respectively acquired (S101, S102).
  • the distance to the object imaged by the principle of triangulation is measured from the difference of the appearance pattern in the right image and the left image.
  • the parallax is obtained as an index indicating how far the object is separated on the two image coordinates of the right image and the left image.
  • An image is generated (S103).
  • FIG. 2 is a diagram illustrating a detailed example of parallax derivation.
  • the reference image is divided into small rectangular block images and divided.
  • This reference image is referred to herein as a reference image 201, and is referred to as a right image (IR (x, y)) unless otherwise specified.
  • IR (x, y) right image
  • the other image to be searched is referred to as a reference image 204, and in the following description, it is a left image (IL (x, y)) unless otherwise specified.
  • (x, y) indicates image coordinates.
  • the coordinates for starting the search in the left image for a certain block are the same as the coordinates of the right image from which the block is cut out, and the displacement at the time of searching from the coordinates is d, and the degree of similarity for measuring the degree of coincidence between the blocks at the displacement d Is S (x, y, d), the parallax Dr (u, v) is obtained as follows.
  • Dr (u, v) argmax (S (x, y, d)) (Formula 1)
  • argmax is a function that outputs d (0 ⁇ d ⁇ maxd) giving the largest S.
  • parallax image coordinates u and v and the reference images x and y is represented here by assuming that the block size is vertical and horizontal sx and sy.
  • u x * sx
  • v y * sy (Formula 2) far.
  • This Dr may be handled as a parallax image D as it is, but here D is generated as follows.
  • the reference image is divided into blocks, and the search is performed in the horizontal direction with respect to the base image. However, the direction to be searched is opposite to the horizontal direction 203. Similarly to Dr, Dl is obtained, and the final parallax image is obtained as follows using an appropriate threshold value Td.
  • This process is called left / right image check. That is, when generating a parallax image, a parallax image Dr generated by creating a block from the right image and using the right image as a reference is compared with a parallax image Dl generated by generating a block from the left image and using the left image as a reference. A parallax image D is generated (parallax image generation unit). This is a technique for suppressing erroneous matching and the like.
  • is in a state where parallax is invalid. For example, when an object is hidden behind another object in one image, the parallax cannot be obtained because the block does not match during the search process. .
  • the determination of ⁇ is performed based on the size of S (x, y, d) that is minimized during matching.
  • the parallax of the object to be detected is given by D (u, vo)
  • the distance (Z) to this object is the parallax
  • the focal length (f) of the lens of the imaging unit is the imaging element. From the pixel interval ( ⁇ ) and the baseline length (b) between the imaging units, it can be obtained by the following equation.
  • an object information estimation process for narrowing down where the detection target object (target object) is located is performed (S104).
  • the processing method for example, (1) adjacent regions having similar parallax are collectively labeled and regarded as one object. The same object is expected to have the same label. (2) The approximate position of the object to be detected is narrowed down from the visible pattern information. (3) If there is recognition information such as the previous frame, the current position is estimated from the vehicle behavior based on the information.
  • the parallax label image when the processing method (1) is used is indicated as L (u, v).
  • L (u, v) the parallax label image when the processing method (1) is used.
  • object recognition is performed to identify what the object is (S105). For example, a road sign, a pedestrian, a preceding vehicle, etc. can be considered.
  • Information on the appearance of a certain position (u, v) can be obtained immediately by the above (Equation 2), and the result is transmitted to a display, a control device or the like (S106).
  • the case where the type of road sign is a recognition object is considered.
  • the speed indicator it is necessary to recognize whether the pattern displayed on the indicator is 30 km / h or 40 km / h.
  • FIG. 4 is a diagram showing an example of an image in which the sign is invisible in the right image
  • FIG. 5 is a diagram showing an example of an image in which the sign is invisible in the left image.
  • FIG. 4 shows left and right time-series images captured by a stereo camera, and shows an example in which a target object 403 to be detected is hidden behind an object 402 in the foreground.
  • This time-series image is an example in which the host vehicle is moving forward, and the forward vehicle 401 and the right side vehicle 402 are also moving forward at the same speed in the same direction as the host vehicle.
  • Frame No. 1 to frame No. 3 is taken in order with a predetermined time interval set in advance.
  • An object of a combination of a square and a circle drawn on the right side of each image shows an example of a road sign 403.
  • the road sign 403 is installed at the right end of the road 404 and has a frame No. 1 is shown in both the left and right images.
  • the host vehicle In the right image of the second base, the host vehicle is moving and hidden behind other vehicles 402 that are moving in the same manner, a part of the road sign 403 is not visible.
  • frame No. In the left image of 2 the position of the left imaging unit is shifted to the left side away from the right imaging unit, so that the entire road sign 403 is visible from behind the vehicle 402.
  • a label 403 is a frame number.
  • the entire sign 403 is almost invisible behind the vehicle 402.
  • FIG. 5 shows an example in which the image that is not visible is reversed left and right in FIG.
  • the road sign 503 is installed at the left end of the road 504. 1, the road sign 503 is visible in both the left and right images. In the left image of FIG. 3, the sign 503 is hidden behind the vehicle 502 and the entire sign 503 is almost invisible. In the right image of 3, the sign 503 is visible from behind the vehicle 502.
  • the behavior of the vehicle between the previous frame and the current frame is represented by ⁇ P on the world coordinates from the yaw rate sensor, the own vehicle speed sensor, image information, etc., and is recognized in the previous frame.
  • the position of the marker is represented by P (t ⁇ 1)
  • the marker position P (t) in the current frame can be represented by P (t ⁇ 1) + ⁇ P.
  • the position of the detected object of the current frame in the image coordinate system can be predicted.
  • the above examples are not limited to road signs and can be applied if the object is a stationary object.
  • the object is a moving object
  • the relative displacement between the moving object and the vehicle between the frames is ⁇ Q and the position of the sign recognized in the previous frame is Q (t ⁇ 1)
  • the position Q (t) of the moving body in the frame can be expressed as Q (t ⁇ 1) + ⁇ Q.
  • a position predicted based on past detection results and vehicle behavior in this way is referred to as a predicted position (up, vp).
  • the parallax in the current frame can also be predicted based on the predicted coordinates in the depth direction, and this parallax will be described below as a predicted parallax dp.
  • FIG. 3 is a diagram illustrating an example of conventional processing for recognizing a reference image after a standard image.
  • an object is first recognized by a reference image.
  • the target image can be recognized because there is visible pattern information in the reference image ( YES in S302).
  • a position where the object is predicted to be reflected in the reference image is estimated from the predicted parallax dp (S303).
  • the position of the object in this reference image is obtained by (IL (up + dp, vp)). If recognition processing is performed on the reference image (left image) using the pattern information on the appearance of the place, the frame No. in FIG. 2, no. Even in the case of 3, the object can be recognized. If the object is hidden in both the left and right images (NO in S305), it is determined that the object cannot be recognized, and the recognition process is not performed.
  • the recognition process needs to be performed twice for the standard image and the reference image. Therefore, there is a problem that processing time is required, and it is desired to shorten the processing time by suppressing the number of recognition processes.
  • FIG. 6 is a diagram illustrating a configuration example of an image recognition system using a stereo camera according to the present embodiment.
  • a pair of left and right images captured simultaneously by the pair of left and right imaging units 601 and 602 are input to the parallax measurement unit 603.
  • the parallax measurement unit 603 calculates the parallax according to the input, and generates a parallax image in which the parallax is shown in shades.
  • the object information estimation unit 604 estimates object information such as the position, size, and distance of the target object using the parallax image and past object information registered in an object information table 606 described later.
  • the past object information includes a past position of the target object and a range occupied by the target object on the image at that time.
  • the estimated position (up, vp), the predicted parallax dp, and the like described above are estimated.
  • the size of the estimated object is a predicted range in which the object is predicted to occupy on the image.
  • the image selection unit 608 selects one of the left and right images, and the object recognition unit 605 uses the appearance pattern information in the selected image, the estimation information in the object information estimation unit 604, and the like. Perform detection.
  • the image selection unit 608 uses the determination result of the hiding determination unit 607 to select one of the pair of images.
  • the object position information / distance information detected by the object recognition unit 605 is stored in the object information table 606. Then, the recognition result of the object is output to the output unit 609.
  • FIG. 7 is a flowchart illustrating an example of object recognition processing based on the configuration of FIG. First, frame no.
  • the initial detection means that an object is not detected in the past and is recognized for the first time in the frame.
  • Whether or not an object has been detected in the past is managed by providing a detection flag (S704) in the object information table 606.
  • a detection flag S704
  • the object information estimation process is performed by processing the distance label information L and the direct image appearance information as described above (S705). Then, a reference image (right image in this embodiment) is selected from the pair of left and right images as the detection target image (S706). This process corresponds to the process of the image selection unit 608 in FIG.
  • a recognition process for detecting an object using a reference image that is a detection target image is performed (S707). If an object is detected from the reference image (YES in S708), the object information of the object is registered in the object information table 606 (S709).
  • the object information to be registered includes information on the frame number and information on the type, position, distance, and size of the target object with respect to the host vehicle. For example, when the target object is a road sign, Information such as the type, position, size, and distance of the sign indicates the frame number. 1 as object information.
  • the detection flag is changed to ON (S710).
  • the detection flag is turned OFF (S713).
  • Frame No. As in the case of 1, the left and right images are acquired and parallax measurement is performed (S702, S703), and it is determined whether past information exists (S704).
  • the detection flag is ON, the position / size / distance (parallax) of the object in the current frame is estimated from the past information in the object information estimation process (S714).
  • an estimated size sxp, syp is obtained.
  • the estimated size sxp indicates the size in the x direction of the object in the image
  • syp indicates the size in the y direction of the object in the image.
  • the radius rp of the speed sign may be registered in the object information table 606.
  • the hiding determination process determines whether or not another object exists between the vehicle at the predicted position (up, vp) of the target and the target is not hidden (S715). Details of the hiding determination process will be described later.
  • the determination result of the hiding determination process it is determined which of the left and right images is to be obtained as the detection target image (S716). For example, in the hiding determination process (S715), if the visible image (the image determined to show the object) is the reference image (right image), the reference image is selected as the detection target image (S717). If the visible image is a reference image (left image), the reference image is selected as the detection target image (S718).
  • the recognition process is not performed.
  • the detection flag is turned off (S713).
  • FIG. 8 is a flowchart illustrating an example of the hidden determination process.
  • the hiding determination unit 607 is divided into a standard image determination unit that performs hiding determination (S801) on the standard image and a reference image determination unit that performs hiding determination (S803) on the reference image.
  • the reference image determination unit obtains the current parallax information D (up, vp) from the predicted position (up, vp) predicted based on the past detection information, vehicle behavior information, and the like, and the parallax tendency at the surrounding positions Is greater than the predicted parallax dp.
  • the following (Formula 4) can be used as the determination formula.
  • T1 is a preset threshold value.
  • the target is hidden by another object, that is, the target is hidden ( If the disparity tendency is equal to or less than the predicted disparity dp, it is determined that the target is not hidden by another object, that is, the target is not hidden (NO in S802).
  • the peripheral position is set based on the position of the predicted object, the size of the object, and the prediction error. For example, if the prediction error is ⁇ ep in both vertical and horizontal directions, the peripheral position can be defined as a rectangle in which upper left coordinates and lower right coordinates are defined as follows. Upper left coordinates: (up ⁇ e, vp ⁇ e), lower right coordinates (up + sxp + e, vp + syp + e). The tendency of the parallax is determined from an excess of the above conditions in the rectangular area.
  • the process proceeds to the reference image determination unit (S803). If it is determined that the object is not hidden in the reference image (NO in S802), the visible image is output as the reference image.
  • the parallax measurement unit generates only a parallax image based on one of the images. Therefore, it is not known whether occlusion has occurred in the reference image. Therefore, the reference image determination unit S803 generates an inverse reference parallax image D ′ (u ′, v ′) (S804), and hides the reference image based on the inverse reference parallax image D ′ (u ′, v ′). A determination is made (S805).
  • the inverse standard parallax image D ′ (u ′, v ′) is generated by calculating the inverse standard parallax using the left image that was the reference image as the standard image and the right image that was the standard image as the reference image.
  • D ′ (up + dp, vp) is obtained using D ′ generated by the inverse reference parallax image generation unit S804, and whether or not the tendency of the parallax at the peripheral position is larger than the predicted parallax dp is determined. Determination is made using the following (Formula 5).
  • FIGS. 9 and 10 show details of two types of inverse reference image generation units.
  • FIG. 9 is a flowchart illustrating an example of a method for generating an inverse reference image
  • FIG. 10 is a flowchart illustrating another example of the method for generating an inverse reference image.
  • an inverse reference parallax image D ′ (u ′, v ′) is generated from the parallax image D (u, v).
  • the distance to the object does not change regardless of which of the left and right as the reference image, and the position of the object in each image only changes in the horizontal direction.
  • D ′ (u, v) D (u, v)
  • D (u, v)
  • D (u ′, v ′) can take a plurality of values. In this case, for example, a larger parallax value is taken.
  • Such an inverse reference parallax image is locally generated around D ′ (up + dp, vp) obtained from the predicted position (up, vp) and the predicted parallax dp.
  • a block is created from the right image generated by the parallax measurement unit and the parallax image Dr is generated based on the right image, and a block is created from the left image and the left image is used as a reference.
  • D ′ (u ′, v ′) if (
  • FIG. 11 shows another example of the hiding determination process.
  • the image with the smaller degree of hiding of the object is selected from the pair of images.
  • the U function in the above expression is a unit step function, and returns 1 if the content of the argument is 0 or more, and returns 0 if it is less than 0.
  • N is the number of pixels in the region of interest.
  • the standard image determination unit calculates the hiding ratio of the object in the standard image (S1101), and the reference image determination unit calculates the hiding ratio of the target object in the reference image (S1103).
  • the size of the hiding ratios Cr and Cl is determined (S1104).
  • the hiding ratio is smaller in the standard image than the reference image (Cr ⁇ Cl), and the hiding ratio Cr is smaller than the appropriate threshold TC.
  • the hidden determination process uses the visible image as the reference image (S1106).
  • the hidden ratio of the reference image is equal to or smaller than the hidden ratio of the reference image (Cr ⁇ Cl) and the hidden ratio Cr is smaller than the appropriate threshold TC (Cr ⁇ TC) (NO in S1104 and YES in S1107).
  • the visible image is used as a reference image (S1108). If the threshold value TC is exceeded in any case, it is determined that there is no visible image and is output (S1109).
  • FIG. 12 is a flowchart showing another example of the processing flow, and shows an example of object recognition processing when an inverse reference image is first created.
  • FIG. 13 is a flowchart illustrating a processing example of the hiding determination process when the reverse reference image is first created.
  • an inverse reference parallax image (S1204) is generated.
  • the method for generating the inverse reference parallax image follows FIG. 9 or FIG. 10, but differs in that the entire parallax image is the target region.
  • the process of the hiding determination process (S1216) at this time is as shown in the flow in FIG.
  • step S1301 a hidden determination is performed based on a normal parallax image.
  • step S1303 unlike the case of FIG. 8, the reverse reference parallax image generated in S1204 is used as it is, without generating the reverse reference parallax image.
  • FIG. 8 generates an inverse reference parallax image for each object every time, so the process shown in FIG. 12 may be more efficient when there are many objects.
  • the on-vehicle recognition device described above even when the object is reflected in only one image due to an object existing between the object and the object, only one of the images is recognized without performing recognition processing. Since the recognition process is performed on the image, the entire processing time can be reduced.
  • the present invention is not limited to the above-described embodiments, and various designs can be made without departing from the spirit of the present invention described in the claims. It can be changed.
  • the above-described embodiment has been described in detail for easy understanding of the present invention, and is not necessarily limited to one having all the configurations described.
  • a part of the configuration of an embodiment can be replaced with the configuration of another embodiment, and the configuration of another embodiment can be added to the configuration of an embodiment.
  • Imaging unit left imaging unit
  • Imaging unit right imaging unit
  • Parallax calculation unit 604
  • Object information estimation unit 605
  • Object recognition unit 606
  • Object information table 607
  • Hiding determination unit 608 Image selection unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

より短い処理時間で対象物を認識できる車載用認識装置を得ること。 本発明の車載用認識装置は、一対の撮像部601、602で同時に撮像された一対の画像のうち、いずれか一方の画像から対象物を認識する車載用認識装置であって、一対の画像を用いて視差を計測する視差計測部603と、対象物の過去の位置から対象物の現在の位置を推定する物体情報推定部604と、視差計測部603の計測結果と物体情報推定部604の推定結果とに基づいて一対の画像の少なくとも一方に対象物の隠れが発生しているか否かを判断する隠れ判断部607と、隠れ判断部607の判断結果に基づいて一対の画像から対象物を認識可能な画像を選択する画像選択部608と、選択した画像を用いて対象物を認識する物体認識部605を有する。

Description

車載用認識装置
 本発明は、画像処理により物体を認識する車載用認識装置に関する。
 近年、車載分野においてカメラを通して周辺の車両や走行レーンを認識し、事故を未然に防ぐ車載画像認識システムが広まりつつある。認識対象となる物体は多様化しており、車両のほかにも歩行者や道路速度標識など認識する場合がある。その一手段として二つのカメラを用いて三角測量の原理で距離測定を行うステレオカメラの技術がある。ステレオカメラでは、二つのカメラの横方向の対応点を求めて、その変位を視差とし、視差により自車から対応点までの距離を算出し、それを距離画像として持つ。そして、ステレオカメラでは、カメラを用いているため、視差により距離を測定する以外にも、例えばカメラで撮像された見えのパタン情報をそのまま用いても物体を認識することが出来る。
 特許文献1には、ステレオカメラを用いた標識認識の技術が記載されている。特許文献1の技術では、標識の領域をまず距離画像で推定し、その次にその距離から標識のおおよその大きさを推定し、その大きさに従ったテンプレートマッチングを実施する事で標識認識を実現している。
 特許文献2には、ステレオカメラに限らないものの複数のカメラを用いる車載画像認識システムにおいて、一方のカメラにおいてレンズの汚れなどによって検出対象の物体が認識できなければ、もう片方のカメラにおいて認識処理を実施し、検出対象の物体を発見する手法が記載されている。特許文献2の技術では、どちらか一方の画像において認識できない状況が発生しても、他方の画像で見えていれば検知漏れを防ぐことができる。
特開2006-3994号公報 特許第4654208号公報
 しかしながら、特許文献1に記載されている標識認識の方法では、2つある画像のうち、片方の画像でしか認識しない。したがって、片方の画像には映っていないがもう片方の画像に標識が映っている場合は、標識を認識できないという問題がある。
 特許文献2に記載されている技術の場合、両方の画像を認識する事で検知漏れを防ぐ事は出来るが、複数の画像に対してそれぞれ認識処理を実施するので、1つの画像に対してのみ行う認識処理に比べて処理時間がかかる。特に計算資源の厳しい組み込みシステムにおいては、処理時間は出来るだけ減らしたいという要求がある。
 本発明は、上記の点に鑑みてなされたものであり、その目的とするところは、より短い処理時間で対象物を認識できる車載用認識装置を提供することである。
 上記課題を解決する本発明の車載用認識装置は、一対の撮像部で同時に撮像された一対の画像のうち、いずれか一方の画像から対象物を認識する車載用認識装置であって、前記一対の画像を用いて視差を計測する視差計測部と、前記対象物の過去の位置から前記対象物の現在の位置を推定する物体情報推定部と、前記視差計測部の計測結果と前記物体情報推定部の推定結果とに基づいて一対の画像の少なくとも一方に前記対象物の隠れが発生しているか否かを判断する隠れ判断部と、該隠れ判断部の判断結果に基づいて前記一対の画像から前記対象物を認識可能な画像を選択する画像選択部と、該選択した画像を用いて対象物を認識する物体認識部とを有することを特徴としている。
 本発明によれば、対象物との間に存在する物体によって一方のカメラにしか映っていない場合においても、両方の画像に対して認識処理せずに、一方だけの画像に対して認識処理をするので、全体の処理時間を削減できる。なお、上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。
ステレオカメラによる画像認識システムの処理例を示すフローチャート。 視差導出の詳細例を説明する図。 基準画像の後に参照画像を認識する従来の処理例を示す図。 右画像で標識が不可視となる画像例を示す図。 左画像で標識が不可視となる画像例を示す図。 ステレオカメラによる画像認識システムの構成例を示す図。 物体認識の処理例を示すフローチャート。 隠れ判定処理の処理例を示すフローチャート。 逆基準画像の生成方法の一例を示すフローチャート。 逆基準画像の生成方法の他の一例を示すフローチャート。 隠れ率に基づいた隠れ判定処理の処理例を示すフローチャート。 逆基準画像を最初に作る場合の物体認識の処理例を示すフローチャート。 逆基準画像を最初に作る場合の隠れ判定処理の処理例を示すフローチャート。
 以下、本発明の実施例について図面を参照して詳述する。
 図1は、ステレオカメラによる画像認識システムの処理例を示すフローチャートである。
 ステレオカメラは、車両に搭載されており、車両前方を撮像する左右一対の撮像部(カメラ)を有している。ステレオカメラでは、一対の撮像部で撮像した右画像と左画像をそれぞれ取得する(S101、S102)。そして、右画像と左画像における見えのパタンの差分から三角測量の原理によって撮像されている物体までの距離を計測する。距離を測る為に、二つの撮像部が同じ物体を映しているとき、右画像と左画像の2つの画像座標上でどの程度、その物体が離れているかを示す指標である視差を求め、視差画像を生成する(S103)。
 図2は、視差導出の詳細例を説明する図である。
 まず、基準となる画像として右画像と左画像のいずれを用いるのかを決め、その基準画像を小さな矩形ブロック画像に区切って分割する。この基準となる画像を、ここでは基準画像201と呼び、以下の説明では、特に断らない限り、右画像(IR(x,y)))とする。基準画像201を小さな矩形ブロック画像202に分割した後、その矩形ブロック画像毎に一致する領域をもう一方の画像204に対して画像の横方向(x方向)203にmaxd画素長、探索する。この探索されるもう一方の画像を、参照画像204と呼び、以下の説明では、特に断らない限り、左画像(IL(x,y))とする。なお、(x、y)は画像座標を示す。あるブロックについて左画像において探索を開始する座標を、ブロックを切り出した右画像の座標と同じとし、その座標から探索する際の変位をdとし、その変位dにおけるブロック同士の一致度を測る類似度をS(x,y,d)とすると、視差Dr(u,v)は以下の様に求まる。
 Dr(u,v)=argmax(S(x,y,d))…(式1)
 ここでargmaxは最も大きいSを与えるd(0≦d<maxd)を出力する関数である。
 また、視差画像座標u,vと基準画像x,yの関係をここではブロックのサイズを縦横sx,syとして、
 u=x*sx,v=y*sy …(式2)
とおく。
 このDrをそのまま視差画像Dとして扱う事もあるが、ここでは以下の様にDを生成する。
 参照画像をブロックに区切って、やはり基準画像に対して横方向に探索する。但し、探索する方向は、横方向203とは逆方向とする。Drと同様に、Dlを求め、最終的な視差画像は適当な閾値Tdを用いて以下の様に求める。
 D(u,v)=if(|Dr(u,v)-Dl(u-Dr(u,v),v)|<Td)
       then Dr(u,v)
       else φ
 この処理は左右画像チェックと呼ばれる。つまり、視差画像生成の際に、右画像からブロックを作成して右画像を基準として生成した視差画像Drと左画像からブロックを作成して左画像を基準として生成した視差画像Dlを比較して視差画像Dを生成する(視差画像生成部)。これは誤マッチング等を抑制する手法である。φは視差が無効な状態であり、例えば一方の画像で物体が別の手前にある物体に隠れている場合は、探索処理時にブロックが一致する所が無い為に、視差を求める事が出来ない。φの判定は、左右画像チェックのほかにも、マッチング時に最小を取るS(x,y,d)の大きさなどによって行われる。
 例えば、今、検出したい物体の視差がD(uo,vo)で与えられたとすると,この物体までの距離(Z)は、上記の視差と撮像部のレンズの焦点距離(f)、撮像素子の画素間隔(δ)、撮像部同士の基線長(b)から、以下の式で求めることができる。
 Z=b*f/(D(uo,vo)*δ)…(式3)
 視差画像D(u,v)を求めた後は、検知対象の物体(対象物)がどこにあるかを絞り込む物体情報推定処理を実施する(S104)。その処理方法として例えば、(1)似た視差を持つ近接領域をまとめてラベリングし、それを1つの物体としてみなす。同じ物体には同じラベルが振られる事が期待される。(2)見えのパタン情報から検知対象の物体のおおよその位置を絞り込む。(3)1つ前のフレームなどの認識情報があれば、その情報から現在の位置を自車挙動等から推定する、などが挙げられる。
 以下の説明では、上記(1)の処理方法を用いた場合の視差ラベル画像をL(u,v),として示す。上記した処理方法により、絞り込んだ領域に対して、L(u,v)において同じラベルが振られた領域の形状や、元の基準画像IR(x,y)の見えのパタンを解析することで、その物体が何かを特定する物体認識を行う(S105)。何かとは例えば、道路標識や歩行者、先行車両などが考えられる。なお、ある位置(u,v)の見えの情報は、上記の(式2)によって直ちに求めることができ、その結果は、ディスプレイや制御装置などに伝達される(S106)。
 検知対象の物体としては様々なものが考えられるが、本実施例では道路標識の種類を認識対象とした場合について考える。例えば、速度標識では標識に表示されているパタンが30km/hなのか、40km/hなのか、等を認識する必要がある。
 図4は、右画像で標識が不可視となる画像例を示す図であり、図5は、左画像で標識が不可視となる画像例を示す図である。
 図4では、ステレオカメラによって撮像された左右の時系列画像を示し、目的の検知対象の物体403が、別の手前にある物体402に隠れている例を示す。この時系列画像は自車が前進し、前方車両401と右側方車両402も自車両と同方向に等速で前進している例である。フレームNo.1~フレームNo.3は、予め設定された所定の時間間隔をあけて順番に撮像されたものである。
 各画像の右側方に描いた四角と丸の組み合わせの物体が道路標識403の例を示すものである。道路標識403は、道路404の右端に設置されており、フレームNo.1では左右の画像のどちらにも映っているが、フレームNo.2 の右画像では、自車が進み、同様に進んでいる他の車両402の陰に隠れて、道路標識403の一部が見えなくなっている。一方、フレームNo.2の左画像では、左の撮像部の位置が右の撮像部よりも左側にずれて離れているために、道路標識403の全体が車両402の陰から出て見えている。標識403は、フレームNo.3の右画像では、車両402の陰に隠れて標識403の全体がほぼ見えなくなっている。その一方、フレームNo.3の左画像では、車両402の陰から出て見えている。
 図5では、見えなくなっている画像が図4と左右で逆転している例である。道路標識503は、道路504の左端に設置されており、フレームNo.1においては、左右どちらの画像でも道路標識503は見えているが、フレームNo.3の左画像では、標識503が車両502の陰に隠れて標識503の全体がほぼ見えなくなっており、フレームNo.3の右画像では、標識503は、車両502の陰から出て見えている。
 例えば図4もしくは図5のフレームNo.2及びフレームNo.3に示す状況では、左右の画像で見えのパタンが異なるので、視差が求まらず(D(u,v)=φ)、視差画像を元に生成されるラベル画像をそのまま単純に用いても領域を絞り込むことはできない。この場合は、過去の検知結果や車両挙動からから現在のフレームの位置や距離を予測する。
 具体的には、ヨーレートセンサ、自車速センサ、画像の情報などから1つ前のフレームと現フレームとの間の自車挙動を、世界座標上でΔPで表し、1つ前のフレームで認識された標識の位置をP(t-1)で表わすとすれば、現在のフレームにおける標識の位置P(t)は、P(t-1)+ΔPで表すことができる。この座標を画像座標系に変換することによって、画像座標系における現在のフレームの検知物体の位置を予測することができる。以上の例は、道路標識に限らず、対象物が静止物であれば適用できる。
 対象物が移動物の場合は、フレーム間における移動体と自車の相対的な変位をΔQとして1つ前のフレームで認識された標識の位置をQ(t-1)とすれば、現在のフレームにおける移動体の位置Q(t)は、Q(t-1)+ΔQで表すことができる。このようにして過去の検知結果や車両挙動によって予測された位置を、予測位置(up,vp)と表記する。なお、予測された奥行き方向の座標によって、現在のフレームにおける視差も予測できこの視差を予測視差dpとして以下では記述する。
 予測された位置があれば、領域を絞り込むことができるので認識処理を実行できる。この様な場合に標識を認識する処理フローの一例を図3に示す。図3は、基準画像の後に参照画像を認識する従来の処理例を示す図である。
 図3に示す従来例では、まず、対象物を基準画像で認識する。ここで、図5に示すように、もし参照画像の方のみで対象物の隠れが起こっていたとすると、基準画像には、見えのパタン情報が存在するので、対象物を認識することができる(S302でYES)。
 しかしながら、図4のフレームNo.2、No.3の様に基準画像の方のみで対象物の隠れが起こっている場合だと、見えのパタン情報が無いので、対象物を認識することができない(S302でNO)。
 したがって、参照画像で認識すべく、まず、予測視差dpから対象物が参照画像(IL)にて映っていると予測される位置を推定する(S303)。この参照画像における対象物の位置は(IL(up+dp,vp))で求まる。この場所の見えのパタン情報を用いて、参照画像(左画像)における認識処理をすれば、図4のフレームNo.2、No.3の様な場合でも、対象物を認識することができる。対象物が左右の画像の両方ともに隠れている場合は(S305でNO)、対象物を認識できないと判断し、認識処理は行わない。
 上記した従来例の場合、図4のフレームNo.2、No.3に示す状況で、認識処理を基準画像と参照画像で2回実施する必要がある。したがって、処理時間がかかるという課題があり、認識処理の回数を抑えて処理時間を短くすることが望まれている。
 図6は、本実施例におけるステレオカメラによる画像認識システムの構成例を示す図である。
 まず、左右一対の撮像部601、602により同時に撮像された左右一対の画像が視差計測部603に入力される。視差計測部603では、その入力に従って視差を算出し、視差を濃淡で示した視差画像を生成する。物体情報推定部604では、視差画像と、後述する物体情報テーブル606に登録された過去の物体情報を用いて、対象物の位置・大きさ・距離等の物体情報を推定する。過去の物体情報には、対象物の過去の位置とそのときに対象物が画像上において占める範囲が含まれる。ここで推定されるのは、前述した予測位置(up,vp)、予測視差dpなどである。また、推定される対象物の大きさとは、画像上において対象物が占めると予測される予測範囲である。
 次に、画像選択部608で左右の画像のいずれか一方を選択し、物体認識部605で、その選択された画像における見えパタン情報や物体情報推定部604における推定情報等を用いて、物体の検知を実施する。画像選択部608では、隠れ判断部607の判断結果を用いて、一対の画像のうち、いずれか一方の画像を選択することが行われる。物体認識部605で検知された物体の位置情報・距離情報は、物体情報テーブル606に格納される。そして、物体の認識結果は、出力部609に出力される。
 図7は、図6の構成に基づいた物体認識の処理例を示すフローチャートである。
 まず、フレームNo.1で対象物が初期検知される場合について説明する。初期検知とは、過去に対象物が検知されず、そのフレームで初めて認識されることを指す。過去に対象物が検知された否かは、物体情報テーブル606に、検知フラグ(S704)を持たせることで管理する。通常、対象物は複数あるが、本実施例では、説明の簡単化のため、1つの物体を管理しているとする。対象物があれば(検知できれば)ON,対象物が無ければ(検知できなければ)OFFとする。はじめは何も過去に情報が無いとする。
 最初に、左右画像を取得し(S702)、視差画像を生成する(S703)。次に、過去情報が存在するか否かを判断するための検知フラグがONとOFFのいずれであるかを判断する(S704)。この時の検知フラグはOFFなので、初期検知フローに移行する。
 初期検知フローでは、前述したような、距離ラベル情報Lや直接画像の見え情報を処理することにより物体情報推定処理を実施する(S705)。そして、検知対象画像として左右一対の画像の中から基準画像(本実施例では右画像)を選ぶ(S706)。この処理は、図6における画像選択部608の処理に該当する。
 次に、検知対象画像である基準画像を用いて物体を検知する認識処理を実施する(S707)。ここで、基準画像から対象物が検知された場合(S708でYES)は、物体情報テーブル606に、その対象物の物体情報を登録する(S709)。登録する物体情報には、フレーム番号の情報と、自車に対する対象物の種類、位置、距離、対象物の大きさの情報が含まれており、例えば対象物が道路標識の場合には、道路標識の種類・位置・大きさ・距離等の情報が、フレームNo.1の物体情報として登録される。この時、検知フラグをONに変更する(S710)。一方、基準画像から対象物が検知されなかった場合には(S708でNO)、検知フラグをOFFとする(S713)。
 次に、フレームNo.2のときについて説明する。フレームNo.1のときと同じく、左右画像を取得して視差計測を行い(S702、S703)、過去情報が存在するか否かを判断する(S704)。今回の処理では、検知フラグがONなので、物体情報推定処理において、過去情報から現在のフレームにおける物体の位置・大きさ・距離(視差)を推定する(S714)。ここでは、前述した対象物の予測位置(up,vp)と予測視差dpに加え、推定された大きさ(sxp,syp)を求める。ここで、推定大きさsxpは、画像における対象物のx方向のサイズ、sypは、画像における対象物のy方向のサイズを示す。対象物が速度標識の様に、丸い場合(円形の場合)は、その速度標識の半径rpを、物体情報テーブル606に登録しておいても良い。
 次に、対象物の予測位置(up,vp)において自車との間に他の物体が存在して、対象物が隠れていないかどうかを隠れ判定処理で判定する(S715)。隠れ判定処理の詳細な内容については後述する。隠れ判定処理(S715)の判定結果を受けて、検知対象画像として左右のどちらの画像から見えのパタン情報を取得するかを決定する(S716)。例えば、隠れ判定処理(S715)において、可視画像(対象物が映っていると判定された画像)が、基準画像(右画像)であれば、検知対象画像として基準画像を選択する(S717)。そして、可視画像が、参照画像(左画像)であれば、検知対象画像として参照画像を選択する(S718)。そして、隠れ判定処理(S715)により、可視画像が無いと判定された場合、すなわち、基準画像と参照画像の両方に対象物が映っていないと判定された場合は、認識処理を実施せず、検知フラグをOFFにする(S713)。
 次に、S715における隠れ判定処理の詳細な内容について説明する。
 図8は、隠れ判定処理の処理例を示すフローチャートである。
 隠れ判断部607は、基準画像に対して隠れ判定(S801)をする基準画像判定部と、参照画像に対して隠れ判定(S803)をする参照画像判定部とに分けられる。基準画像判定部では、過去の検知情報と車両挙動情報等に基づいて予測された予測位置(up,vp)から、現在の視差情報D(up,vp)を求め、その周辺位置における視差の傾向が予測視差dpより大きいか否かが判断される。判定式としては、下記の(式4)を使用することができる。
 D(up,vp)-dp>T1 ・・・(式4)
 上記の(式4)でT1は、予め設定される閾値である。
 ここでは、視差の傾向が予測視差dpより大きい(=距離が予測よりも近い)場合に、対象物が他の物体によって隠れている、すなわち、対象物の隠れが発生していると判定され(S802でYES)、視差の傾向が予測視差dp以下の場合に、対象物は他の物体によって隠れていない、すなわち、対象物の隠れが発生していないと判定される(S802でNO)。
 なお、周辺位置における視差の傾向がD(up,vp)=φ(視差無効)の場合には、対象物の隠れが発生しているとは判断されない。ここで、周辺位置は、予測される対象物の位置と、対象物のサイズ、予測誤差に基づいて設定される。例えば、予測誤差を縦横ともに±epとすると、周辺位置は、左上座標と右下座標を以下の様に定義した矩形として定義できる。左上座標:(up-e,vp-e),右下座標(up+sxp+e,vp+syp+e)。視差の傾向は、この矩形領域内における上記条件の過多などから判定する。
 基準画像判定部(S801)で基準画像に隠れが発生している(S802でYES)と判定されれば、参照画像判定部(S803)に移る。基準画像に対象物の隠れが発生してない(S802でNO)と判定されれば、可視画像を基準画像として出力する。
 本ステレオカメラシステムでは、視差計測部はどちらか一方の画像を基準とした視差画像しか生成しない。したがって、参照画像で隠れが起こっているか否かが分からない。そこで、参照画像判定部S803で、逆基準視差画像D’(u’,v’)を生成し(S804)、その逆基準視差画像D’(u’,v’)に基づいて参照画像の隠れ判定を行う(S805)。逆基準視差画像D’(u’,v’)は、参照画像としていた左画像を基準画像とし、基準画像としていた右画像を参照画像とした逆基準視差を算出することによって生成される。
 S805の隠れ判定では、逆基準視差画像生成部S804で生成されたD’を用いて、D’(up+dp,vp)を求め、その周辺位置における視差の傾向が予測視差dpより大きいか否かを下記の(式5)を用いて判定する。
 D’(up’,vp’)-dp>T2 ・・・(式5)
 上記した(式5)が成立していれば、対象物の隠れが発生していると判断し(S806でYES)、可視画像を無しとして出力する(S807)。一方、(式5)が不成立の場合、対象物の隠れが発生していないと判断し(S806でNO)、可視画像を参照画像として出力する(S808)。この時の判定式は、基準画像判定部の時と同じように、適当な閾値T2を求めて判断すれば良い。上記の(式5)で用いたT2は、基準画像判定部の時と同じように、予め設定される閾値である。
 逆基準視差画像の作り方にはいくつかあるが、例えば図9、図10に2種類の逆基準画像生成部の詳細を示す。
 図9は、逆基準画像の生成方法の一例を示すフローチャート、図10は、逆基準画像の生成方法の他の一例を示すフローチャートである。
 まず、図9に示す実施例では、視差画像D(u,v)から逆基準視差画像D’(u’,v’)を生成する。左右のどちらを基準画像として取っても物体までの距離は変わらず、物体の各画像での位置が横方向に変化するのみである。この横方向の補正量は、視差と等しく、D(u,v)である。すなわち
 D’(u’v’)=D’(u+D(u,v),v)=D(u,v)
の関係式が成り立つ。
 D(u,v)=φの際は変換対象とならない。式上はD(u’,v’)が複数の値を取り得るがその場合は例えばより大きな視差値を取る等する。
 この様な逆基準視差画像を、予測位置(up,vp)と予測視差dpから求められるD’(up+dp,vp)の周辺に対して局所的に生成する。
 次に、図10に示す実施例では、視差計測部で生成された右画像からブロックを作成して右画像を基準として生成した視差画像Drと、左画像からブロックを作成して左画像を基準として生成した視差画像Dlから、以下の様に生成する。
 D’(u’,v’)=if(|Dr(u’+Dl(u’,v’),v’)-Dl(u’,v’)|<Td)
       then Dl(u’,v’)
       else φ
 図11は、隠れ判定処理の別の実施例である。この実施例では、一対の画像のうち、対象物の隠れ度合いの小さな方を選ぶ。ここで、隠れ度合いとは、対象物に対してそれよりも手前にある物体が対象物をどれだけ遮蔽しているかであり、例えば、対象物の範囲内にある(式4)及び(式5)を満たす画素の割合で決定する。すなわち、基準画像における隠れ率をCr,参照画像における隠れ率をClとすると、
 Cr=ΣU(D(up,vp)-dp-T)/N
 Cl=ΣU(D’(up’,vp’)-dp-T)/N
で表される。
 上記した式のU関数は、単位ステップ関数であり、引数の中身が0以上であれば1を、0未満であれば0を返す。Nは関心領域の画素数である。
 図11を用いて説明すると、基準画像判定部で基準画像における対象物の隠れ率を算出し(S1101)、参照画像判定部で参照画像における対象物の隠れ率を算出する(S1103)。
 そして、隠れ率CrとClとの大小判定を行い(S1104)、隠れ率が参照画像よりも基準画像の方が小さく(Cr<Cl)、かつ適当な閾値TCよりも隠れ率Crの方が小さい(Cr<TC)場合には(S1104でYESかつS1105でYES)、隠れ判定処理は、可視画像を基準画像とする(S1106)。
 一方、参照画像の隠れ率が基準画像の隠れ率以下(Cr≧Cl)かつ適当な閾値TCよりも隠れ率Crの方が小さい(Cr<TC)場合には(S1104でNOかつS1107でYES)、隠れ判定処理は、可視画像を参照画像とする(S1108)。そして、いずれの場合でも閾値TCを上回る場合は、可視画像は無しと判定して出力する(S1109)。
 図12には、処理フローの別の実施例であり、逆基準画像を最初に作る場合の物体認識の処理例を示すフローチャートである。そして、図13は、逆基準画像を最初に作る場合の隠れ判定処理の処理例を示すフローチャートである。
 図12に示す処理例では、視差画像取得(S1203)の次に、逆基準視差画像(S1204)を生成する。逆基準視差画像の生成方法は、図9もしくは図10に従うが、視差画像全体が対象領域になっている所が異なる。この時の隠れ判定処理(S1216)の処理は、図13に示すフローの通りである。S1301で通常の視差画像を元にして隠れ判定を実施し、S1303では、図8と異なり、逆基準視差画像を生成せず、S1204で生成した逆基準視差画像をそのまま使用する。図8は、対象物ごとに毎回逆基準視差画像を生成するため、対象物が多い場合などは、図12に示す処理の方が効率が良い場合もある。
 上記した車載用認識装置によれば、対象物との間に存在する物体によって対象物が一方の画像にしか映っていない場合においても、両方の画像に対して認識処理せずに、一方だけの画像に対して認識処理をするので、全体の処理時間を削減することができる。
 以上、本発明の実施形態について詳述したが、本発明は、前記の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の精神を逸脱しない範囲で、種々の設計変更を行うことができるものである。例えば、前記した実施の形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施形態の構成の一部を他の実施形態の構成に置き換えることが可能であり、また、ある実施形態の構成に他の実施形態の構成を加えることも可能である。さらに、各実施形態の構成の一部について、他の構成の追加・削除・置換をすることが可能である。
601 撮像部(左撮像部)
602 撮像部(右撮像部)
603 視差計算部
604 物体情報推定部
605 物体認識部
606 物体情報テーブル
607 隠れ判断部
608 画像選択部

Claims (6)

  1.  一対の撮像部で同時に撮像された一対の画像のうち、いずれか一方の画像から対象物を認識する車載用認識装置であって、
     前記一対の画像を用いて視差を計測する視差計測部と、
     前記対象物の過去の位置と範囲から前記対象物の現在の位置と範囲を予測位置と予測範囲として推定する物体情報推定部と、
     前記視差計測部の計測結果と前記物体情報推定部の推定結果とに基づいて一対の画像の少なくとも一方に前記対象物の隠れが発生しているか否かを判断する隠れ判断部と、
     該隠れ判断部の判断結果に基づいて前記一対の画像から前記対象物を認識可能な可視画像を選択する画像選択部と、
     該選択した可視画像を用いて対象物を認識する物体認識部と、
    を有することを特徴とする車載用認識装置。
  2.  前記視差計測部は、前記一対の画像のいずれか一方の画像を基準画像とし、他方の画像を参照画像として視差画像を生成する視差画像生成部を有し、
     前記隠れ判定部は、前記他方の画像の前記予測範囲を基準画像とし、前記一方の画像の前記予測範囲を参照画像として逆基準視差画像を生成する逆基準視差画像生成部を有することを特徴とする請求項1に記載の車載用認識装置。
  3.  前記逆基準視差画像生成部は、前記視差画像の視差に基づいて前記逆基準視差画像を生成することを特徴とする請求項2に記載の車載用認識装置。
  4.  前記物体情報推定部は、前記予測位置に基づいて予測視差を算出し、
     前記隠れ判定部は、前記視差画像の視差と前記予測視差とを比較して、前記基準画像において前記対象物の隠れが発生しているか否かを判定する基準画像判定部と、該基準画像判定部により前記対象物の隠れが発生していると判定された場合に、前記逆基準視差画像の視差と前記予測視差とを比較して、前記参照画像において前記対象物の隠れが発生しているか否かを判定する参照画像判定部と、有することを特徴とする請求項3に記載の車載用認識装置。
  5.  前記画像選択部は、前記基準画像判定部により前記基準画像において前記対象物の隠れが発生していないと判定された場合に、前記基準画像を前記可視画像として選択し、前記基準画像判定部により前記基準画像において前記対象物の隠れが発生しており、かつ、前記参照画像判定部により前記参照画像において前記対象物の隠れが発生していないと判定された場合に、前記参照画像を前記可視画像として選択することを特徴とする請求項4に記載の車載用認識装置。
  6.  前記基準画像判定部は、前記予測範囲内における予測視差よりも視差画像の視差の方が小さい割合を基準画像隠れ率として算出し、
     前記逆基準画像判定部は、前記予測範囲内における予測視差よりも逆基準視差画像の視差の方が小さい割合を逆基準画像隠れ率として算出し、
     前記隠れ判定部は、前記基準画像隠れ率と前記逆基準画像隠れ率とを比較して、基準画像と参照画像のうち、隠れ率の小さい方を、前記可視画像として選択することを特徴とする請求項4に記載の車載用認識装置。
PCT/JP2015/050202 2014-02-17 2015-01-07 車載用認識装置 WO2015122212A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US15/102,746 US10019635B2 (en) 2014-02-17 2015-01-07 Vehicle-mounted recognition device
EP15749369.3A EP3109828B1 (en) 2014-02-17 2015-01-07 Vehicle-mounted recognition device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014027791A JP6313063B2 (ja) 2014-02-17 2014-02-17 車載用認識装置
JP2014-027791 2014-02-17

Publications (1)

Publication Number Publication Date
WO2015122212A1 true WO2015122212A1 (ja) 2015-08-20

Family

ID=53799960

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/050202 WO2015122212A1 (ja) 2014-02-17 2015-01-07 車載用認識装置

Country Status (4)

Country Link
US (1) US10019635B2 (ja)
EP (1) EP3109828B1 (ja)
JP (1) JP6313063B2 (ja)
WO (1) WO2015122212A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020154523A (ja) * 2019-03-19 2020-09-24 株式会社Subaru 車外環境検出装置

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3136291A1 (de) * 2015-08-31 2017-03-01 Continental Automotive GmbH Verfahren und vorrichtung zur erkennung von objekten bei dunkelheit mittels einer fahrzeugkamera und einer fahrzeugbeleuchtung
US11514594B2 (en) 2019-10-30 2022-11-29 Vergence Automation, Inc. Composite imaging systems using a focal plane array with in-pixel analog storage elements

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08247775A (ja) * 1995-03-15 1996-09-27 Toshiba Corp 移動体の自己位置同定装置および自己位置同定方法
JP2002056377A (ja) * 2000-08-08 2002-02-20 Alpine Electronics Inc 画像認識装置

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7003136B1 (en) * 2002-04-26 2006-02-21 Hewlett-Packard Development Company, L.P. Plan-view projections of depth image data for object tracking
JP2006003994A (ja) 2004-06-15 2006-01-05 Calsonic Kansei Corp 道路標識認識装置
JP4654208B2 (ja) * 2007-02-13 2011-03-16 日立オートモティブシステムズ株式会社 車載用走行環境認識装置
JP4871909B2 (ja) * 2008-04-25 2012-02-08 日立オートモティブシステムズ株式会社 物体認識装置、および物体認識方法
EP2293588A1 (en) * 2009-08-31 2011-03-09 Robert Bosch GmbH Method for using a stereovision camera arrangement
JP2013541915A (ja) * 2010-12-30 2013-11-14 ワイズ オートモーティブ コーポレーション 死角地帯の表示装置および方法
US8619082B1 (en) * 2012-08-21 2013-12-31 Pelican Imaging Corporation Systems and methods for parallax detection and correction in images captured using array cameras that contain occlusions using subsets of images to perform depth estimation
US9066085B2 (en) * 2012-12-13 2015-06-23 Delphi Technologies, Inc. Stereoscopic camera object detection system and method of aligning the same
JP6550881B2 (ja) * 2014-07-14 2019-07-31 株式会社リコー 立体物検出装置、立体物検出方法、立体物検出プログラム、及び移動体機器制御システム
US9794543B2 (en) * 2015-03-02 2017-10-17 Ricoh Company, Ltd. Information processing apparatus, image capturing apparatus, control system applicable to moveable apparatus, information processing method, and storage medium of program of method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08247775A (ja) * 1995-03-15 1996-09-27 Toshiba Corp 移動体の自己位置同定装置および自己位置同定方法
JP2002056377A (ja) * 2000-08-08 2002-02-20 Alpine Electronics Inc 画像認識装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3109828A4 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020154523A (ja) * 2019-03-19 2020-09-24 株式会社Subaru 車外環境検出装置
JP7291505B2 (ja) 2019-03-19 2023-06-15 株式会社Subaru 車外環境検出装置

Also Published As

Publication number Publication date
US10019635B2 (en) 2018-07-10
EP3109828A4 (en) 2017-07-19
EP3109828B1 (en) 2024-04-24
US20160314364A1 (en) 2016-10-27
JP6313063B2 (ja) 2018-04-18
EP3109828A1 (en) 2016-12-28
JP2015153253A (ja) 2015-08-24

Similar Documents

Publication Publication Date Title
JP4919036B2 (ja) 移動物体認識装置
KR101143176B1 (ko) 조감도를 이용한 주차구획 인식 방법, 장치 및 그를 이용한주차 보조 시스템
JP5127182B2 (ja) 物体検出装置
US9659497B2 (en) Lane departure warning system and lane departure warning method
US9794543B2 (en) Information processing apparatus, image capturing apparatus, control system applicable to moveable apparatus, information processing method, and storage medium of program of method
JP6450294B2 (ja) 物体検出装置、物体検出方法、及びプログラム
US9594966B2 (en) Obstacle detection device and obstacle detection method
US10165246B2 (en) Method and device for processing stereoscopic data
JP4407920B2 (ja) 障害物認識方法及び障害物認識装置
JP4609603B2 (ja) 3次元情報表示装置および3次元情報表示方法
JP2017054481A (ja) 視差画像生成装置、視差画像生成方法及び視差画像生成プログラム、物体認識装置、機器制御システム
JP6722084B2 (ja) 物体検出装置
JP2009053818A (ja) 画像処理装置及びその方法
KR20180063524A (ko) 가상 차선을 이용한 전방 차량 위험도 감지 방법 및 장치
JP5957359B2 (ja) ステレオ画像処理装置及びステレオ画像処理方法
JP6313063B2 (ja) 車載用認識装置
KR101868898B1 (ko) 자율주행을 위한 차선 인식 방법 및 장치
WO2010113253A1 (ja) 3次元情報表示装置および3次元情報表示方法
JP2010176592A (ja) 車両用運転支援装置
JP5772321B2 (ja) 車両検出装置、車両検出方法及びプログラム
JP5723561B2 (ja) 運転支援装置
JP5392473B2 (ja) 車両用運転支援装置
KR101452628B1 (ko) 스테레오 비전 기반 보행자 보호 시스템을 위한 위험지역 검출 방법 및 장치
JP5256508B2 (ja) 3次元情報算出装置および3次元情報算出方法
JP6936557B2 (ja) 探索処理装置、及びステレオカメラ装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15749369

Country of ref document: EP

Kind code of ref document: A1

REEP Request for entry into the european phase

Ref document number: 2015749369

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2015749369

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 15102746

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE