JP2009177250A - Onboard image recognition device, vehicle condition decision device, and onboard image recognition method - Google Patents

Onboard image recognition device, vehicle condition decision device, and onboard image recognition method Download PDF

Info

Publication number
JP2009177250A
JP2009177250A JP2008010821A JP2008010821A JP2009177250A JP 2009177250 A JP2009177250 A JP 2009177250A JP 2008010821 A JP2008010821 A JP 2008010821A JP 2008010821 A JP2008010821 A JP 2008010821A JP 2009177250 A JP2009177250 A JP 2009177250A
Authority
JP
Japan
Prior art keywords
image
vehicle
images
contrast
image recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2008010821A
Other languages
Japanese (ja)
Inventor
Daisaku Ono
大作 小野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2008010821A priority Critical patent/JP2009177250A/en
Publication of JP2009177250A publication Critical patent/JP2009177250A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To suppress processing loads and to secure a high dynamic range of a camera in an onboard image recognition device. <P>SOLUTION: The onboard image processor images an object in the image updating cycle of 100[ms]. Three image frames of about 33[ms] are acquired within one image updating cycle. A first image frame is obtained by imaging the object with normal exposure time within one image updating cycle first, then a second image frame is obtained by imaging the same object with the exposure time shorter than the normal exposure time within the same cycle, and a third image frame is obtained by imaging the same object with the exposure time longer than the normal exposure time within the same cycle. Then, the contrast of each of the acquired first image frame, second image frame and third image frame is checked, and an image is recognized on the basis of an image composed of selected partial images having the most excellent contrast among the respective image frames. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、車両に備えられる撮像装置によって撮像した該車両の周辺の画像に基づいて画像認識する車載用画像認識装置および車載用画像認識方法と、車載用画像認識装置の画像認識処理結果に基づいて該車両がおかれている状況を判定する車両状況判定装置に関し、特に、露光時間が異なる画像を複数撮像し、これら複数の画像を、画像認識処理精度が高まるように1枚の画像に合成する処理を処理負荷を抑えておこない、車載用画像認識装置のカメラの高ダイナミックレンジを確保可能な車載用画像認識装置および車載用画像認識方法、および、該車両の周辺に存在する存在物への衝突を未然に自動的に回避させる車両状況判定装置に関する。   The present invention is based on an in-vehicle image recognition device and an in-vehicle image recognition method for recognizing an image based on an image around the vehicle imaged by an imaging device provided in the vehicle, and an image recognition processing result of the in-vehicle image recognition device. In particular, the present invention relates to a vehicle situation determination apparatus that determines a situation in which the vehicle is placed, and in particular, takes a plurality of images with different exposure times, and synthesizes the plurality of images into a single image so as to improve image recognition processing accuracy. The vehicle-mounted image recognition device and the vehicle-mounted image recognition method capable of ensuring the high dynamic range of the camera of the vehicle-mounted image recognition device, and the presence of objects existing around the vehicle. The present invention relates to a vehicle situation determination device that automatically avoids a collision.

従来から、車両内のルームミラー付近に備えられ、車両前方をカメラで撮影した画像を画像認識処理して他の車両、歩行者、道路区画線(道路上の白線や黄線)などを認識する車載用画像処理装置が知られている。車載用画像処理装置は、夜間走行時、トンネル出入り口付近走行時、逆光を受けての走行時には、カメラのダイナミックレンジが不足するため、画像の明るい部分が飽和(これを、「白とび」という)したり、画像の暗い部分が真黒(これを、「黒つぶれ」という)になったりして、正常に画像認識処理できず、他の車両、歩行者、道路区画線などの認識精度に悪影響を及ぼすという問題点があった。   Conventionally, it is provided in the vicinity of a room mirror inside the vehicle and recognizes other vehicles, pedestrians, road lane lines (white lines and yellow lines on the road), etc., by recognizing an image obtained by photographing the front of the vehicle with a camera. An in-vehicle image processing apparatus is known. In-vehicle image processing devices saturate the bright part of the image because the camera's dynamic range is insufficient when driving at night, when driving near the entrance of a tunnel, or when driving under backlighting. Or the dark part of the image becomes completely black (this is called “blackout”), and the image recognition process cannot be performed normally, adversely affecting the recognition accuracy of other vehicles, pedestrians, road lane markings, etc. There was a problem of affecting.

この問題を解決するために、従来は、撮影対象の輝度値に対する出力が対数関数的に変化する(すなわち、撮影対象の輝度値が低い場合には、出力を強調し、逆に、撮影対象の輝度値が高い場合には、出力を抑制する)高ダイナミックレンジのカメラが提案されている。   In order to solve this problem, conventionally, the output with respect to the luminance value of the shooting target changes logarithmically (that is, when the luminance value of the shooting target is low, the output is emphasized, and conversely, There has been proposed a high dynamic range camera that suppresses output when the luminance value is high.

しかし、高ダイナミックレンジのカメラは、画像の白とびや黒つぶれを抑制することは可能であるが、これと引き換えに、画像全体のコントラストの低下を招いてしまう。画像認識処理は、画像のコントラスト差に特徴がある部分を抽出することによっておこなうので、コントラストの低下は、やはり、画像認識処理の認識精度に悪影響を及ぼしてしまう。   However, although a camera with a high dynamic range can suppress overexposure and underexposure of an image, in exchange for this, the contrast of the entire image is reduced. Since the image recognition process is performed by extracting a part having a feature in the contrast difference of the image, the decrease in contrast also adversely affects the recognition accuracy of the image recognition process.

また、複数の異なるシャッタ時間による画像を、白とびや黒つぶれの部分を除去するように合成した画像を撮影可能なカメラも提案されている。しかし、この場合、複数の画像を合成した境界線が発生するが、該境界線が画像認識処理の認識精度に悪影響を与えるおそれがあった。また、該境界線を除去するために画像補正処理をおこなったとしても、該画像補正処理によって処理負荷が大きくなるという問題もあった。   There has also been proposed a camera capable of photographing an image obtained by combining images obtained by a plurality of different shutter times so as to remove overexposure and underexposure. However, in this case, a boundary line is generated by combining a plurality of images, but the boundary line may adversely affect the recognition accuracy of the image recognition process. Further, even if the image correction process is performed to remove the boundary line, there is a problem that the processing load increases due to the image correction process.

そこで、このような問題を解決するために、例えば、特許文献1に開示されるように、異なるシャッタ速度で撮影した複数の画像を、画像の複数のエリアごとに最適な画素値の画像を抽出して1枚の画像に合成することによって、高ダイナミックレンジに対応した画像を撮像することが可能な撮像装置が提案されている。   Therefore, in order to solve such a problem, for example, as disclosed in Patent Document 1, a plurality of images shot at different shutter speeds are extracted, and an image having an optimal pixel value is extracted for each of a plurality of areas of the image. Thus, an imaging apparatus that can capture an image corresponding to a high dynamic range by combining the images into one image has been proposed.

また、特許文献2に開示されるように、露光量の異なる複数の画像を撮像し、該露光量の異なる複数の画像それぞれを縦方向に伸張し、この伸張後の各画像の信号レベルを平均化した後に1枚の画像に合成することによって、より鮮明な画像を撮影することが可能な撮像システムが提案されている。   Further, as disclosed in Patent Document 2, a plurality of images with different exposure amounts are captured, each of the plurality of images with different exposure amounts is expanded in the vertical direction, and the signal level of each image after the expansion is averaged. There has been proposed an imaging system capable of capturing a clearer image by combining the image into a single image after conversion.

また、特許文献3に開示されるように、車両に備えられる、それぞれ露光時間の異なる複数のカメラによって撮像された画像を1枚の画像に合成することによって、コントラストの大きい状況下でも撮像対象の鮮明な画像を撮影することが可能な車載カメラシステムが提案されている。   Further, as disclosed in Patent Document 3, an image captured by a plurality of cameras with different exposure times provided in a vehicle is combined into a single image, so that an object to be imaged can be obtained even under high contrast conditions. An in-vehicle camera system that can capture a clear image has been proposed.

また、特許文献4に開示されるように、互いに異なる露光時間で複数の画像を撮影し、該画像を被写体の動きが異なる領域に分割し、各領域において、被写体の動きが大きいほど露光時間がより短い画像を選択し、被写体の動きが小さいほど露光時間がより長い画像を選択して各領域を連結して1枚の画像を合成することによって、移動する車両などから画像を撮影した場合であっても品質の高い画像を得ることが可能な撮像装置が提案されている。   In addition, as disclosed in Patent Document 4, a plurality of images are taken with different exposure times, and the images are divided into regions with different subject movements. In each region, the exposure time increases as the subject motion increases. When a shorter image is selected, an image with a longer exposure time is selected as the subject's movement is smaller, and the images are taken from a moving vehicle or the like by combining the areas and combining one image. Even in such a case, an imaging apparatus that can obtain a high-quality image has been proposed.

特開2003−250094号公報JP 2003-250094 A 特開2004−48345号公報JP 2004-48345 A 特開2000−217100号公報JP 2000-217100 A 特開2006−245909号公報JP 2006-245909 A

しかしながら、上記特許文献1〜3に代表される従来技術では、異なるシャッタ速度で撮像した複数の画像を撮像し、これらの複数の画像を1枚の画像に合成する処理を常時おこなうことは、カメラの高ダイナミックレンジは確保できる。しかし、特に、車載用画像認識装置は、車両の移動、時刻の変化、天候などに応じて、車両の前景がめまぐるしく変化する。このため、車載用画像認識装置は、常に高ダイナミックレンジが必要とされる状況であるとは限らず、高ダイナミックレンジが必要とされない状況では、無駄な処理をおこなうこととなり、処理負荷が負担となるという問題があった。   However, in the conventional techniques represented by the above-mentioned Patent Documents 1 to 3, it is a camera that always captures a plurality of images captured at different shutter speeds and synthesizes the plurality of images into one image. High dynamic range can be secured. However, in particular, in the in-vehicle image recognition device, the foreground of the vehicle changes rapidly according to the movement of the vehicle, changes in time, weather, and the like. For this reason, in-vehicle image recognition devices are not always in a situation where a high dynamic range is required, and in situations where a high dynamic range is not required, wasteful processing is performed, and the processing load is a burden. There was a problem of becoming.

なお、上記特許文献4に代表される従来技術では、移動する車両などから画像を撮影した場合であっても品質の高い画像を得ることが可能であっても、カメラの高ダイナミックレンジを確保するものではなく、撮影した画像を使用した画像認識処理の認識精度の向上に資するものではない。   Note that the conventional technology represented by the above-mentioned Patent Document 4 ensures a high dynamic range of the camera even when an image is taken from a moving vehicle or the like, even if a high-quality image can be obtained. It does not contribute to the improvement of the recognition accuracy of the image recognition process using the photographed image.

本発明は、上記問題点(課題)を解消するためになされたものであって、車載用画像認識装置において、露光時間が異なる画像を複数撮影し、これら複数の画像を、画像認識処理精度が高まるように1枚の画像に合成する処理を処理負荷を抑えておこない、車載用画像認識装置のカメラの高ダイナミックレンジを確保可能な車載用画像認識装置、車両状況判定装置および車載用画像認識方法を提供することを目的とする。   The present invention has been made to solve the above problems (problems), and in an in-vehicle image recognition apparatus, a plurality of images with different exposure times are taken, and these images have an image recognition processing accuracy. An in-vehicle image recognition apparatus, a vehicle state determination apparatus, and an in-vehicle image recognition method capable of performing a process of combining with a single image so as to increase the processing load and securing a high dynamic range of the camera of the in-vehicle image recognition apparatus The purpose is to provide.

上述した問題を解決し、目的を達成するため、本発明は、車両に備えられる撮像装置によって撮像された該車両の周辺の画像に基づいて画像認識をおこなう車載用画像認識装置であって、画像更新周期の1周期内において異なる露光時間で複数の画像を撮像するように前記撮像装置を制御する撮像処理手段と、前記撮像処理手段による前記撮像装置の制御によって撮像された各前記複数の画像のコントラストが所定範囲内の値であるか否かを判定するコントラスト判定手段と、前記コントラスト判定手段によって各前記複数の画像のコントラストが所定範囲内の値であると判定された各前記複数の画像の同一部分の部分画像を抽出し、該複数の画像の同一部分の部分画像から最もコントラストが大きい部分画像をそれぞれ選択する部分画像選択手段と、前記部分画像選択手段によって選択された各前記部分画像を1つの画像へと合成する画像合成手段と、前記画像合成手段によって合成された前記1つの画像に基づいて画像認識処理をおこなう画像認識処理手段とを有することを特徴とする。   In order to solve the above-described problems and achieve the object, the present invention is an in-vehicle image recognition device that performs image recognition based on an image around a vehicle imaged by an imaging device provided in the vehicle. An imaging processing unit that controls the imaging device to capture a plurality of images with different exposure times within one update period, and each of the plurality of images captured by the imaging processing unit being controlled by the imaging processing unit. Contrast determination means for determining whether or not the contrast is a value within a predetermined range; and for each of the plurality of images for which the contrast of the plurality of images is determined to be a value within the predetermined range by the contrast determination means Partial image selection that extracts partial images of the same part and selects the partial images with the highest contrast from the partial images of the same part of the plurality of images. An image synthesizing unit that combines the partial images selected by the partial image selecting unit into one image, and an image that performs image recognition processing based on the one image synthesized by the image synthesizing unit. And a recognition processing means.

また、本発明は、上記発明において、前記画像合成手段によって各前記複数の画像の部分画像を1つの画像へと合成する際に、各該複数の画像の部分画像のコントラストに応じた重み付け係数を格納する重み付け係数格納手段をさらに有し、前記画像合成手段は、前記部分画像選択手段によって選択された各前記部分画像のコントラストに応じた重み付け係数を各該部分画像の画素値に乗じて各該複数の画像の部分画像を1つの画像へと合成することを特徴とする。   In addition, the present invention provides the weighting coefficient according to the contrast of the partial images of the plurality of images when the partial images of the plurality of images are combined into one image by the image combining means. Weighting coefficient storage means for storing, and the image composition means multiplies the pixel value of each partial image by a weighting coefficient corresponding to the contrast of each partial image selected by the partial image selection means. The method is characterized in that partial images of a plurality of images are combined into one image.

また、本発明は、車両に備えられる撮像装置によって撮像された該車両の周辺の画像に基づいて画像認識をおこなう車載用画像認識装置であって、画像更新周期の1周期内において異なる露光時間で複数の画像を撮像するように前記撮像装置を制御する撮像処理手段と、前記撮像処理手段による前記撮像装置の制御によって撮像された各前記複数の画像のコントラストが所定範囲内の値であるか否かを判定するコントラスト判定手段と、前記撮像装置によって撮像された画像に基づいて画像認識処理をおこなう画像認識処理手段とを有し、前記撮像処理手段は、前記画像更新周期の1周期内において、前記コントラスト判定手段によって前記所定の画像のコントラストが所定範囲内の値であると判定される画像が撮像されるまで前記所定の露光時間とそれぞれ異なる露光時間で画像を撮像するように前記撮像装置を制御し、前記画像認識処理手段は、前記画像更新周期の1周期内において、前記コントラスト判定手段によってコントラストが所定範囲内の値であるとはじめて判定された画像に基づいて画像認識処理をおこなうことを特徴とする。   In addition, the present invention is an in-vehicle image recognition device that performs image recognition based on an image around a vehicle imaged by an imaging device provided in the vehicle, and has different exposure times within one cycle of an image update cycle. An imaging processing unit that controls the imaging device to capture a plurality of images, and whether or not the contrast of each of the plurality of images captured by controlling the imaging device by the imaging processing unit is a value within a predetermined range. Contrast determination means for determining whether or not, and image recognition processing means for performing image recognition processing based on an image picked up by the image pickup device, the image pickup processing means within one cycle of the image update cycle, The predetermined exposure until the image for which the contrast is determined by the contrast determination means to be within a predetermined range is captured. The image pickup apparatus is controlled so as to take an image with an exposure time different from the time, and the image recognition processing means has a contrast within a predetermined range by the contrast determination means within one period of the image update period. An image recognition process is performed based on an image determined for the first time.

また、本発明は、上記発明において、前記車両に備えられる車載装置から取得される情報に基づいて、前記撮像装置が前記画像更新周期の1周期内において前記異なる露光時間で複数の画像を撮像する必要性があるか否かを判定する複数画像撮像必要性判定手段をさらに有し、前記撮像処理手段は、前記複数画像撮像必要性判定手段によって前記画像更新周期の1周期内において前記異なる露光時間で複数の画像を撮像する必要性があると判定された場合にのみ、該画像更新周期の1周期内において該異なる露光時間で複数の画像を撮像するように前記撮像装置を制御することを特徴とする。   Further, according to the present invention, in the above invention, based on information acquired from an in-vehicle device provided in the vehicle, the imaging device captures a plurality of images with the different exposure times within one cycle of the image update cycle. A plurality of image capturing necessity determining means for determining whether or not there is a necessity, wherein the image capturing processing means determines the different exposure times within one cycle of the image update period by the plurality of image capturing necessity determining means; Only when it is determined that there is a need to capture a plurality of images, the imaging apparatus is controlled to capture a plurality of images with the different exposure times within one period of the image update period. And

また、本発明は、車両に備えられる撮像装置によって撮像された該車両の周辺の画像に基づいて画像認識をおこなった結果に基づいて該車両がおかれている状況を判定する、該車両に搭載される車両制御装置と車載ネットワークを介して通信可能な車両状況判定装置であって、画像更新周期の1周期内において異なる露光時間で複数の画像を撮像するように前記撮像装置を制御する撮像処理手段と、前記撮像処理手段による前記撮像装置によって撮像された各前記複数の画像のコントラストが所定範囲内の値であるか否かを判定するコントラスト判定手段と、前記コントラスト判定手段によって各前記複数の画像のコントラストが所定範囲内の値であると判定された各前記複数の画像の同一部分の部分画像を抽出し、該複数の画像の同一部分の部分画像から最もコントラストが大きい部分画像をそれぞれ選択する部分画像選択手段と、前記部分画像選択手段によって選択された各前記部分画像を1つの画像へと合成する画像合成手段と、前記画像合成手段によって合成された前記1つの画像に基づいて画像認識処理をおこなう画像認識処理手段と、前記画像認識処理手段によっておこなわれた画像認識処理の結果に基づいて前記車両の周辺の状況を判定し、該判定の結果に応じて該車両の制動制御が必要である場合に前記車両制御装置へ制動制御信号を出力する車両状況判定処理手段とを有することを特徴とする。   In addition, the present invention is mounted on the vehicle, which determines a situation in which the vehicle is placed based on a result of image recognition based on an image around the vehicle imaged by an imaging device provided in the vehicle. An imaging process for controlling the imaging apparatus to capture a plurality of images with different exposure times within one period of an image update period, which is a vehicle status determination apparatus capable of communicating with a vehicle control apparatus that is connected via an in-vehicle network Means for determining whether or not the contrast of each of the plurality of images captured by the imaging device by the imaging processing unit is a value within a predetermined range, and each of the plurality of the plurality of images by the contrast determination unit Extracting partial images of the same part of each of the plurality of images determined to have a contrast within a predetermined range, and extracting the same part of the plurality of images A partial image selecting means for selecting a partial image having the highest contrast from the partial images, an image combining means for combining the partial images selected by the partial image selecting means into one image, and the image combining means. An image recognition processing means for performing image recognition processing based on the synthesized one image, and determining a situation around the vehicle based on a result of the image recognition processing performed by the image recognition processing means; Vehicle condition determination processing means for outputting a braking control signal to the vehicle control device when braking control of the vehicle is required in accordance with the result.

また、本発明は、車両に備えられる撮像装置によって撮像された該車両の周辺の画像に基づいて画像認識をおこなった結果に基づいて該車両がおかれている状況を判定する、該車両に搭載される車両制御装置と車載ネットワークを介して通信可能な車両状況判定装置であって、画像更新周期の1周期内において異なる露光時間で複数の画像を撮像するように前記撮像装置を制御する撮像処理手段と、前記撮像処理手段による前記撮像装置の制御によって撮像された各前記複数の画像のコントラストが所定範囲内の値であるか否かを判定するコントラスト判定手段と、前記撮像装置によって撮像された画像に基づいて画像認識処理をおこなう画像認識処理手段と、前記画像認識処理手段によっておこなわれた画像認識処理の結果に基づいて前記車両の周辺の状況を判定し、該判定の結果に応じて該車両の制動制御が必要である場合に前記車両制御装置へ制動制御信号を出力する車両状況判定処理手段とを有し、前記撮像処理手段は、前記画像更新周期の1周期内において、前記コントラスト判定手段によって前記所定の画像のコントラストが所定範囲内の値であると判定される画像が撮像されるまで前記所定の露光時間とそれぞれ異なる露光時間で画像を撮像するように前記撮像装置を制御し、前記画像認識処理手段は、前記画像更新周期の1周期内において、前記コントラスト判定手段によってコントラストが所定範囲内の値であるとはじめて判定された画像に基づいて画像認識処理をおこなうことを特徴とする。   In addition, the present invention is mounted on the vehicle, which determines a situation in which the vehicle is placed based on a result of image recognition based on an image around the vehicle imaged by an imaging device provided in the vehicle. An imaging process for controlling the imaging apparatus to capture a plurality of images with different exposure times within one period of an image update period, which is a vehicle status determination apparatus capable of communicating with a vehicle control apparatus that is connected via an in-vehicle network Means for determining whether or not the contrast of each of the plurality of images picked up by the control of the image pickup device by the image pickup processing means is a value within a predetermined range, and picked up by the image pickup device Image recognition processing means for performing image recognition processing based on the image, and based on the result of the image recognition processing performed by the image recognition processing means. Vehicle situation determination processing means for determining the situation of both surroundings and outputting a braking control signal to the vehicle control device when braking control of the vehicle is required according to the result of the determination, the imaging The processing means includes the predetermined exposure time until an image in which the contrast determination means determines that the contrast of the predetermined image is a value within a predetermined range within one cycle of the image update period, respectively. The imaging apparatus is controlled to capture images with different exposure times, and the image recognition processing means is the first time that the contrast is determined by the contrast determination means within a predetermined range within one period of the image update period. An image recognition process is performed based on the determined image.

また、本発明は、車両に備えられる撮像装置によって撮像された該車両の周辺の画像に基づく画像認識を車載用画像認識装置がおこなう車載用画像認識方法であって、前記車両に備えられる車載装置から取得される情報に基づいて、画像更新周期の1周期内において異なる露光時間で複数の画像を撮像する必要性があるか否かを判定する複数画像撮像必要性判定ステップと、前記複数画像撮像必要性判定ステップによって、前記画像更新周期の1周期内において前記異なる前記露光時間で複数の画像を撮像する必要性があると判定された場合に、該画像更新周期の1周期内において該異なる露光時間で複数の画像を撮像するように前記撮像装置を制御する撮像処理ステップと、前記撮像処理ステップによる前記撮像装置の制御によって撮像された各前記複数の画像のコントラストが所定範囲内の値であるか否かを判定するコントラスト判定ステップと、前記コントラスト判定ステップによって各前記複数の画像のコントラストが所定範囲内の値であると判定された各前記複数の画像の同一部分の部分画像を抽出し、該複数の画像の同一部分の部分画像から最もコントラストが大きい部分画像をそれぞれ選択する部分画像選択ステップと、前記部分画像選択ステップによって選択された各前記複数の画像の部分画像を、各前記複数の画像の部分画像のコントラストに応じた重み付け係数を各該部分画像の画素値に乗じて各該複数の画像の部分画像を1つの画像へと合成する画像合成ステップと、前記画像合成ステップによって合成された前記1つの画像に基づいて画像認識処理をおこなう画像認識処理ステップとを含むことを特徴とする。   Further, the present invention is an in-vehicle image recognition method in which an in-vehicle image recognition device performs image recognition based on an image around a vehicle imaged by an imaging device provided in the vehicle, and the in-vehicle device provided in the vehicle Multiple image imaging necessity determination step for determining whether or not it is necessary to capture a plurality of images with different exposure times within one period of the image update period based on the information acquired from When it is determined by the necessity determination step that it is necessary to capture a plurality of images at the different exposure times within one cycle of the image update cycle, the different exposures within one cycle of the image update cycle. An imaging processing step of controlling the imaging device so as to capture a plurality of images in time, and imaging by controlling the imaging device by the imaging processing step. A contrast determination step for determining whether or not the contrast of each of the plurality of images is a value within a predetermined range; and the contrast determination step determines that the contrast of each of the plurality of images is a value within a predetermined range. Extracting a partial image of the same portion of each of the plurality of images and selecting a partial image having the highest contrast from the partial images of the same portion of the plurality of images, and selecting by the partial image selection step The partial images of each of the plurality of images are multiplied by the pixel values of the partial images by a weighting coefficient corresponding to the contrast of the partial images of each of the plurality of images. And an image recognition process based on the one image synthesized by the image synthesis step. Characterized in that it comprises a Cormorant image recognition processing step.

本発明によれば、画像更新周期の1周期内において異なる露光時間撮像された複数の画像のコントラストが所定範囲内の部分画像のうち最もコントラストが大きい部分画像が選択されて1つの画像へと合成された画像に基づいて画像認識処理をおこなうので、中間色の階調が失われ、粗い画像になってしまうおそれコントラストが大きい画像および暗い部分と明るい部分との階調が平均化され、不鮮明な画像になるコントラストが小さい画像を処理対象外とし、処理負荷の軽減を図りつつ、画像認識の精度を向上させるという効果を奏する。   According to the present invention, a partial image having the highest contrast is selected from the partial images in which the contrast of a plurality of images captured at different exposure times within a predetermined range of the image update cycle is within a predetermined range, and is combined into one image. Since the image recognition process is performed based on the image, the gradation of the intermediate colors may be lost, resulting in a coarse image. The image with a large contrast and the gradation of the dark part and the bright part are averaged. An image having a low contrast is excluded from the processing target, and the processing load is reduced and the accuracy of image recognition is improved.

また、本発明によれば、画像更新周期の1周期内において異なる露光時間撮像された複数の画像のコントラストが所定範囲内の部分画像が、各該部分画像のコントラストに応じた重み付け係数が画素値に乗じられて1つの画像へと合成されるので、合成された画像のコントラストを向上させ、より画像認識に適した画像を得ることが可能になるという効果を奏する。   Further, according to the present invention, partial images in which the contrast of a plurality of images captured at different exposure times within one period of the image update cycle is within a predetermined range, the weighting coefficient corresponding to the contrast of each partial image has a pixel value Is multiplied to be combined into one image, so that the contrast of the combined image is improved, and an image more suitable for image recognition can be obtained.

また、本発明によれば、画像更新周期の1周期内において、所定回数を限度として、コントラストが所定範囲内の値となって画像認識処理に適したコントラストの画像が撮像されるまで露光時間を変化させて画像を撮像し、画像認識処理に適したコントラストの画像が撮像されると、以後は画像の撮像をおこなわず、画像認識処理に適したコントラストの画像に基づいて画像認識処理をおこなうので、処理負荷を軽減して、より画像認識に適した画像を得ることが可能になるという効果を奏する。   In addition, according to the present invention, within one period of the image update period, the exposure time is increased until the contrast becomes a value within a predetermined range and a contrast image suitable for image recognition processing is captured within a predetermined number of times. When the image is picked up and a contrast image suitable for the image recognition processing is captured, the image recognition processing is performed based on the contrast image suitable for the image recognition processing without image capturing thereafter. Thus, it is possible to reduce the processing load and obtain an image more suitable for image recognition.

また、本発明によれば、画像更新周期の1周期内において異なる露光時間で複数の画像を撮像する必要性がある場合にのみ該画像更新周期の1周期内において該異なる露光時間で複数の画像を撮像するので、処理条件を限定して、無駄な処理を省くという効果を奏する。具体的には、例えば、車両の現在位置情報と、現在時刻とに基づいて、車両がトンネル内やトンネル出入口付近に位置すること、または、現在時刻が逆光を受けやすい夕方の時間帯であることに基づいて、画像更新周期の1周期内において異なる露光時間で複数の画像を撮像する必要性があると判定し、該画像更新周期の1周期内において該異なる露光時間で複数の画像を撮像するので、処理条件を限定して、無駄な処理を省くという効果を奏する。   In addition, according to the present invention, only when there is a need to capture a plurality of images with different exposure times within one cycle of the image update cycle, a plurality of images with the different exposure times within one cycle of the image update cycle. Therefore, there is an effect that the processing conditions are limited and unnecessary processing is omitted. Specifically, for example, based on the current position information of the vehicle and the current time, the vehicle is located in the tunnel or near the tunnel entrance, or the current time is in the evening time zone that is susceptible to backlighting Based on the above, it is determined that it is necessary to capture a plurality of images with different exposure times within one cycle of the image update cycle, and a plurality of images are captured with the different exposure times within one cycle of the image update cycle. Therefore, there is an effect that the processing conditions are limited and unnecessary processing is omitted.

また、本発明によれば、画像認識処理の結果に基づいて車両の周辺の状況を判定し、該判定の結果に応じて該車両の制動制御が必要である場合に車両制御装置へ制動制御信号を出力するので、該車両制御装置は自動的に制動制御をおこなうこととなり、該車両の周辺の存在物への衝突を自動的に回避し、事故発生を未然に防止することが可能になるという効果を奏する。   In addition, according to the present invention, the situation around the vehicle is determined based on the result of the image recognition process, and when the braking control of the vehicle is necessary according to the determination result, the braking control signal is sent to the vehicle control device. Therefore, the vehicle control device automatically performs braking control, and it is possible to automatically avoid a collision with an object around the vehicle and prevent an accident from occurring. There is an effect.

以下に添付図面を参照し、本発明の車載用画像認識装置、車両状況判定装置および車載用画像認識方法にかかる実施例1および実施例2を詳細に説明する。なお、以下の実施例1および実施例2で示す車載用画像認識装置および車載用画像認識方法は、車両に搭載される画像認識装置であるが、これに限定されず、本発明は、一般的な画像認識装置および車載用画像認識方法に広く適用可能である。   Embodiment 1 and Embodiment 2 according to the in-vehicle image recognition device, the vehicle state determination device, and the in-vehicle image recognition method of the present invention will be described in detail below with reference to the accompanying drawings. Note that the in-vehicle image recognition apparatus and the in-vehicle image recognition method shown in the following first and second embodiments are image recognition apparatuses mounted on a vehicle, but the present invention is not limited thereto. The present invention can be widely applied to various image recognition apparatuses and in-vehicle image recognition methods.

先ず、実施例1および実施例2の説明に先立ち、本発明の概要および特徴を説明する。図1は、本発明の概要および特徴を示す図である。同図に示すように、例えば、車載用画像処理装置は、100[ms]周期の画像更新周期で撮像対象物の画像を撮像する。この画像更新周期を3等分して、画像更新周期の1周期内で約33[ms]の画像フレームを3つ取得する。   Prior to the description of the first and second embodiments, the outline and features of the present invention will be described. FIG. 1 is a diagram showing an outline and features of the present invention. As shown in the figure, for example, the in-vehicle image processing apparatus captures an image of the imaging target with an image update period of 100 [ms]. This image update period is divided into three equal parts, and three image frames of about 33 [ms] are acquired within one period of the image update period.

先ず、車載用画像処理装置は、画像更新周期の1周期内で、通常の露光時間で撮像対象物を撮像した第1画像フレームを取得する。続いて、車載用画像処理装置は、前述の画像更新周期の同一周期内で、通常の露光時間より短い露光時間で同一の撮像対象物を撮像した第2画像フレームを取得する。最後に、車載用画像処理装置は、前述の画像更新周期の同一周期内で、通常の露光時間より長い露光時間で同一の撮像対象物を撮像した第3画像フレームを取得する。なお、露光時間を変えて複数の画像フレームを取得することを、「可変露光時間画像フレーム取得」と呼ぶ。   First, the in-vehicle image processing apparatus acquires a first image frame in which an imaging target is imaged with a normal exposure time within one period of an image update period. Subsequently, the in-vehicle image processing apparatus acquires a second image frame obtained by imaging the same imaging object with an exposure time shorter than the normal exposure time within the same period of the above-described image update period. Finally, the in-vehicle image processing apparatus acquires a third image frame obtained by imaging the same imaging object with an exposure time longer than the normal exposure time within the same period of the above-described image update period. Note that acquiring a plurality of image frames while changing the exposure time is referred to as “variable exposure time image frame acquisition”.

そして、車載用画像処理装置は、取得された第1画像フレーム、第2画像フレームおよび第3画像フレームのそれぞれのコントラストをチェックし、各画像フレームの最も良好なコントラストの部分画像を選択し、選択されたそれぞれの部分画像を合成した合成画像に基づいて画像認識する、または最も良好なコントラストの画像フレームを選択して画像認識する。   Then, the in-vehicle image processing apparatus checks the contrast of each of the acquired first image frame, second image frame, and third image frame, and selects and selects a partial image having the best contrast in each image frame. Image recognition is performed based on a synthesized image obtained by synthesizing the respective partial images, or an image frame having the best contrast is selected for image recognition.

このように、露光時間を変えて取得した複数の画像フレームに基づいて画像認識処理をおこなうことによって、「白とび」や「黒つぶれ」のない、良好なコントラストを有する画像に基づいて画像認識処理をおこない、画像認識の精度を向上させることができる。   In this way, by performing image recognition processing based on a plurality of image frames acquired by changing the exposure time, image recognition processing based on an image having good contrast without “whiteout” or “blackout” And the accuracy of image recognition can be improved.

なお、以下の実施例1および実施例2では、画像更新周期を100[ms]とし、画像更新周期を3つに等分に分割して画像更新周期の1周期内で3つの画像フレームを取得する場合を示す。しかし、これに限定されず、任意に設定変更可能であるとしてもよい。   In the following first and second embodiments, the image update cycle is set to 100 [ms], the image update cycle is divided into three equal parts, and three image frames are acquired within one cycle of the image update cycle. Indicates when to do. However, the present invention is not limited to this, and the setting may be arbitrarily changed.

以下に実施例1にかかる車載用画像処理装置および車両状況判定装置の構成について説明する。図2は、実施例1にかかる車載用画像処理装置および車両状況判定装置の構成を示す機能ブロック図である。同図に示すように、実施例1にかかる車載用画像認識装置10aおよび車両状況判定装置20aは、車両1において、CAN(Controller Area Network)などの車載ネットワーク100を介して、車載用画像認識装置10aへカーナビゲーション情報、日付情報、時刻情報などを受け渡すカーナビゲーション装置20と、車両1が備える電子機器を制御する車両制御ECU(Electronic Control Unit)装置30と通信可能に接続されている。   The configurations of the in-vehicle image processing device and the vehicle situation determination device according to the first embodiment will be described below. FIG. 2 is a functional block diagram of the configuration of the in-vehicle image processing device and the vehicle state determination device according to the first embodiment. As illustrated in FIG. 1, an in-vehicle image recognition device 10a and a vehicle situation determination device 20a according to the first embodiment are provided in a vehicle 1 via an in-vehicle network 100 such as a CAN (Controller Area Network). A car navigation device 20 that delivers car navigation information, date information, time information, and the like to 10a and a vehicle control ECU (Electronic Control Unit) device 30 that controls an electronic device included in the vehicle 1 are communicably connected.

なお、車両制御ECU装置30によって、警報装置30aと、ブレーキ制御装置30bと、発動機制御装置30cと、シートベルト制御装置30dとが制御される。警報装置30aは、車両制御ECU装置30の指示に応じて、車両1の外部および/または車両1の運転者へ向けて警報音を出力する。   The vehicle control ECU device 30 controls the alarm device 30a, the brake control device 30b, the motor control device 30c, and the seat belt control device 30d. The alarm device 30 a outputs an alarm sound toward the outside of the vehicle 1 and / or the driver of the vehicle 1 in accordance with an instruction from the vehicle control ECU device 30.

ブレーキ制御装置30bは、車両制御ECU装置30の指示に応じて、ブレーキ油圧を高めて車両1のブレーキ制御装置を制御して車両1の走行を制動する。発動機制御装置30cは、車両制御ECU装置30の指示に応じて、車両1の発動機への燃料またはエネルギーの供給を抑制する。シートベルト制御装置30dは、車両制御ECU装置30の指示に応じて、車両1の使用中のシートベルトをロックする。   In response to an instruction from the vehicle control ECU device 30, the brake control device 30b increases the brake hydraulic pressure and controls the brake control device of the vehicle 1 to brake the travel of the vehicle 1. The motor control device 30 c suppresses supply of fuel or energy to the motor of the vehicle 1 in accordance with an instruction from the vehicle control ECU device 30. The seat belt control device 30d locks the seat belt in use of the vehicle 1 in accordance with an instruction from the vehicle control ECU device 30.

車載用画像認識装置10aには、撮像装置であるイメージセンサ部17が接続されている。このイメージセンサ部17は、光学レンズ17aと、シャッタ部17bと、CMOSセンサ17cとを含んで構成される。イメージセンサ部17のCMOSセンサ17cは、光学レンズ17aおよびシャッタ部17bを介して、撮像対象物の画像を取得し、画像データに変換して車載用画像認識装置10aへと受け渡す。さらに、車載用画像認識装置10aには、ディスプレイ装置などの表示部18が接続されている。なお、シャッタ部17bは、画像フレーム取得処理部11dの制御を受け、CMOSセンサ17cへの露光時間を制御する。   An image sensor unit 17 that is an imaging device is connected to the in-vehicle image recognition device 10a. The image sensor unit 17 includes an optical lens 17a, a shutter unit 17b, and a CMOS sensor 17c. The CMOS sensor 17c of the image sensor unit 17 acquires an image of the imaging target via the optical lens 17a and the shutter unit 17b, converts it into image data, and transfers it to the in-vehicle image recognition device 10a. Further, a display unit 18 such as a display device is connected to the in-vehicle image recognition device 10a. The shutter unit 17b controls the exposure time for the CMOS sensor 17c under the control of the image frame acquisition processing unit 11d.

車載用画像認識装置10aは、制御部11と、記憶部12と、イメージセンサ部17から画像データを受け渡されるためのインターフェースであるイメージセンサインターフェース部13と、表示部18に表示させる画像の画像データを該表示部18に受け渡すためのインターフェースである表示出力インターフェース部14とを有する。   The in-vehicle image recognition device 10a includes a control unit 11, a storage unit 12, an image sensor interface unit 13 that is an interface for transferring image data from the image sensor unit 17, and an image to be displayed on the display unit 18. And a display output interface unit 14 which is an interface for transferring data to the display unit 18.

制御部11は、車載用画像認識装置10aの全体制御をつかさどるマイクロ・コンピュータなどの制御装置であり、特に、実施例1に密接に関係する構成要素としては、撮像処理部11aと、時刻判定処理部11bと、自車位置判定処理部11cと、画像フレーム取得処理部11dと、画像コントラスト判定処理部11eと、部分画像選択処理部11fと、部分画像合成処理部11gと、画像認識処理部11hとを有する。   The control unit 11 is a control device such as a microcomputer that controls the entire on-vehicle image recognition device 10a. In particular, as a component closely related to the first embodiment, an imaging processing unit 11a and a time determination process are included. Unit 11b, own vehicle position determination processing unit 11c, image frame acquisition processing unit 11d, image contrast determination processing unit 11e, partial image selection processing unit 11f, partial image composition processing unit 11g, and image recognition processing unit 11h. And have.

記憶部12は、イメージセンサ部17によって撮像された画像フレームの画像データを展開する画像メモリである画像バッファ12aと、車載用画像認識装置10aの動作を規定するパラメータである設定値を格納する設定値格納領域12bと、部分画像合成処理部11gが後述するように部分画像を合成して1つの画像を生成する際に各部分画像の画素値にそれぞれ乗算する合成重み付け係数を格納する合成重み付け係数格納領域12cと、画像認識処理部11hが後述するように画像認識をおこなう際に使用する画像認識パターンデータを格納する画像認識パターンデータ格納領域12dとを含む。   The storage unit 12 is configured to store an image buffer 12a that is an image memory that develops image data of an image frame captured by the image sensor unit 17, and a setting value that is a parameter that defines the operation of the in-vehicle image recognition device 10a. A composite weighting coefficient for storing a composite weighting coefficient for multiplying the pixel values of each partial image when the value storage area 12b and the partial image composition processing unit 11g compose a partial image to generate one image as will be described later. The storage area 12c includes an image recognition pattern data storage area 12d for storing image recognition pattern data used when the image recognition processing unit 11h performs image recognition as will be described later.

なお、設定値格納領域12bには、図3に示す設定値格納テーブルが格納される。同図に示すように、設定値格納テーブルは、「設定項目」のカラムと、「設定値」のカラムとを有する。「設定項目」には、「画像更新周期」、「画像更新周期分割数」、「通常の露光時間」、「短い露光時間」、「長い露光時間」、「画像コントラスト上限値」、「画像コントラスト下限値」がある。   Note that the set value storage table shown in FIG. 3 is stored in the set value storage area 12b. As shown in the figure, the setting value storage table has a “setting item” column and a “setting value” column. “Setting item” includes “Image update cycle”, “Image update cycle division number”, “Normal exposure time”, “Short exposure time”, “Long exposure time”, “Image contrast upper limit”, “Image contrast” There is a lower limit.

「画像更新周期」は、イメージセンサ部17が1つの画像を撮像するために必要な時間である。図3では、「画像更新周期」の「設定値」として、“100[ms]”が格納されている。「画像更新周期分割数」は、画像更新周期を等分に分割する分割数である。図3では、「画像更新周期分割数」の「設定値」として、“3”が格納されている。   The “image update period” is a time required for the image sensor unit 17 to capture one image. In FIG. 3, “100 [ms]” is stored as the “set value” of the “image update cycle”. The “image update cycle division number” is the number of divisions for equally dividing the image update cycle. In FIG. 3, “3” is stored as “setting value” of “number of image update period divisions”.

「通常の露光時間」は、イメージセンサ部17が画像を撮像する際の標準的な露光時間である。図3では、「通常の露光時間」の「設定値」として、“x[s]”が格納されている。「短い露光時間」、は、イメージセンサ部17が画像を撮像する際の、「標準的な露光時間」より短い露光時間である。図3では、「短い露光時間」の「設定値」として、“y[s]”が格納されている。「長い露光時間」、は、イメージセンサ部17が画像を撮像する際の、「標準的な露光時間」より長い露光時間である。図3では、「長い露光時間」の「設定値」として、“z[s]”が格納されている。なお、当然に、y[s]<x[s]<z[s]の大小関係が成り立つ。   “Normal exposure time” is a standard exposure time when the image sensor unit 17 captures an image. In FIG. 3, “x [s]” is stored as “set value” of “normal exposure time”. The “short exposure time” is an exposure time shorter than the “standard exposure time” when the image sensor unit 17 captures an image. In FIG. 3, “y [s]” is stored as the “set value” of “short exposure time”. The “long exposure time” is an exposure time longer than the “standard exposure time” when the image sensor unit 17 captures an image. In FIG. 3, “z [s]” is stored as the “set value” of “long exposure time”. Naturally, the magnitude relationship of y [s] <x [s] <z [s] holds.

「画像コントラスト上限値」は、画像認識処理で許容される画像のコントラストの上限値である。コントラストとは、同一画像内における画素値(または輝度値)の最大値と最小値との差であるので、コントラストが大きいほど、明るい部分はより明るく、黒い部分はより黒く表現され、鮮明な画像となる。反面、中間色の階調が失われ、粗い画像になってしまうおそれがある。このため、画像認識処理で許容される画像のコントラストの上限値を設定しておくのである。図3では、「画像コントラスト上限値」の「設定値」として、“a”が格納されている。 The “image contrast upper limit value” is an upper limit value of the contrast of an image allowed in the image recognition process. Contrast is the difference between the maximum and minimum pixel values (or luminance values) in the same image. Therefore, the higher the contrast, the brighter the part is brighter and the black part is expressed more black. It becomes. On the other hand, the gradation of the intermediate color is lost, and there is a possibility that the image becomes rough. For this reason, an upper limit value of the contrast of the image allowed in the image recognition process is set. In FIG. 3, “a 0 ” is stored as “setting value” of “image contrast upper limit value”.

「画像コントラスト下限値」は、画像認識処理で許容される画像のコントラストの下限値である。コントラストが小さすぎると、暗い部分と明るい部分との階調が平均化され、不鮮明な画像になってしまうおそれがある。このため、画像認識処理で許容される画像のコントラストの下限値を設定しておくのである。図3では、「画像コントラスト下限値」の「設定値」として、“b”が格納されている。なお、当然に、b<aの大小関係が成り立つ。 The “image contrast lower limit value” is a lower limit value of the contrast of an image allowed in the image recognition process. If the contrast is too small, the gradations of the dark part and the bright part are averaged, which may result in an unclear image. For this reason, a lower limit value of the contrast of the image allowed in the image recognition process is set. In FIG. 3, “b” is stored as “setting value” of “image contrast lower limit value”. Naturally, the magnitude relationship b <a 0 holds.

なお、設定値格納テーブルに格納される各設定値は、イメージセンサ部17および車載用画像認識装置10aの性能に応じてカスタマイズ可能である。各設定値をカスタマイズすることによって、車載用画像認識装置10aの画像認識性能を最大限発揮させることが可能になる場合がある。   Each set value stored in the set value storage table can be customized according to the performance of the image sensor unit 17 and the in-vehicle image recognition device 10a. By customizing each set value, it may be possible to maximize the image recognition performance of the in-vehicle image recognition device 10a.

また、合成重み付け係数格納領域12cには、図4に示す合成重み付け係数格納テーブルが格納される。同図に示すように、合成重み付け係数格納テーブルは、「コントラスト上限値」と、「コントラスト下限値」と、「重み付け係数」とのカラムを有する。合成重み付け係数格納テーブルでは、「コントラスト上限値」および「コントラスト下限値」で決まるコントラストの範囲に、1つの「重み付け係数」が対応付けられている。   Further, the composite weighting coefficient storage table shown in FIG. 4 is stored in the composite weighting coefficient storage area 12c. As shown in the figure, the composite weighting coefficient storage table has columns of “contrast upper limit value”, “contrast lower limit value”, and “weighting coefficient”. In the composite weighting coefficient storage table, one “weighting coefficient” is associated with a contrast range determined by “contrast upper limit value” and “contrast lower limit value”.

例えば、「コントラスト上限値」および「コントラスト下限値」が“a”および“a”の場合には、「重み付け係数」として“α”が対応付けられている。同様にして、『「コントラスト上限値」、「コントラスト下限値」、「重み付け係数」』の組み合わせは、『“a”、“a”、“α”』、『“a”、“a”、“α”』、・・・、『“a”、“b”、“α”』となる。なお、当然に、b<a<・・・<a<a<a<aの大小関係が成り立つ。aおよびbは、設定値格納テーブルに設定されている「画像コントラスト上限値」および「画像コントラスト下限値」の「設定値」と同一である。 For example, when “contrast upper limit value” and “contrast lower limit value” are “a 0 ” and “a 1 ”, “α 0 ” is associated as “weighting coefficient”. Similarly, the combinations of ““ contrast upper limit value ”,“ contrast lower limit value ”, and“ weighting coefficient ”are“ “a 1 ”, “a 2 ”, “α 1 ” ”,“ “a 2 ”, “ a 3 ”,“ α 2 ””,..., ““ a n ”,“ b ”,“ α n ””. Naturally, the magnitude relationship of b <a n <... <A 3 <a 2 <a 1 <a 0 holds. a 0 and b are the same as the “set value” of “image contrast upper limit value” and “image contrast lower limit value” set in the set value storage table.

例えば、画像フレーム取得処理部11dによって取得された複数の画像フレームの同一部分画像のうち、最もコントラストが高い部分画像を有する画像フレームのコントラストがa(ただし、a≦a<a)であった場合に、部分画像合成処理部11gによってすべての部分画像が1つの画像へと合成される際に、コントラストがaである部分画像の全画素値にαが乗じられた上で1つの画像へと合成される。このようにすると、メリハリのある鮮明な画像を合成することが可能になる。 For example, the contrast of an image frame having a partial image with the highest contrast among the same partial images of a plurality of image frames acquired by the image frame acquisition processing unit 11d is a (where a 1 ≦ a <a 2 ). If the, when all the partial images by the partial image synthesizing processing unit 11g is synthesized into one image, one image in terms of contrast is multiplied by the alpha 1 in all of the pixel values of the partial image is a Is synthesized. In this way, it becomes possible to synthesize a sharp and clear image.

なお、“α”、“α”、“α”、・・・、“α”は、画像認識処理に最適な画像を合成するための所定の適合値である。“α”、“α”、“α”、・・・、“α”は、画像認識処理により最適な画像を合成するために適宜変更可能である。また、b<a<・・・<a<a<a<aの大小関係を維持する限りにおいて、a、a、a、・・・、aは、画像認識処理に最適な画像を合成するために適宜変更可能である。 Note that “α 0 ”, “α 1 ”, “α 2 ”,..., “Α n ” are predetermined adaptation values for synthesizing an image optimal for image recognition processing. “Α 0 ”, “α 1 ”, “α 2 ”,..., “Α n ” can be appropriately changed in order to synthesize an optimal image by image recognition processing. Further, b <insofar as to maintain the magnitude relation of a n <··· <a 3 < a 2 <a 1 <a 0, a 1, a 2, a 3, ···, a n is the image recognition In order to synthesize an optimal image for processing, it can be changed as appropriate.

また、画像認識パターンデータ格納領域12dには、図5に示す画像認識パターンデータテーブルが格納される。同図に示すように、画像認識パターンデータテーブルは、「画像認識対象名」と、「画像認識パターンデータ」とのカラムを有する。「画像認識対象名」に「画像認識パターンデータ」が対応付けられている。例えば、「画像認識対象名」が“白線”である場合には、「画像認識パターンデータ」として“白線画像認識パターンデータ”が対応付けられている。   The image recognition pattern data storage area 12d stores an image recognition pattern data table shown in FIG. As shown in the figure, the image recognition pattern data table has columns of “image recognition target name” and “image recognition pattern data”. “Image recognition pattern data” is associated with “image recognition target name”. For example, when the “image recognition target name” is “white line”, “white line image recognition pattern data” is associated as “image recognition pattern data”.

制御部11の説明に戻ると、撮像処理部11aは、画像更新周期の1周期内において異なる露光時間で複数の画像を撮像するようにイメージセンサ部17を制御する。   Returning to the description of the control unit 11, the imaging processing unit 11 a controls the image sensor unit 17 to capture a plurality of images with different exposure times within one cycle of the image update cycle.

時刻判定処理部11bは、カーナビゲーション装置20もしくはその他の装置から取得される時刻情報または車載用画像認識装置10aのシステム時刻(以下、時刻情報およびシステム時刻を、現在時刻と呼ぶ)が、「夕方」や「夜間」など、車載用画像認識装置10aによる画像認識の精度が低下すると予想される時間帯であるか否かを判定する。   The time determination processing unit 11b indicates that the time information acquired from the car navigation device 20 or other devices or the system time of the vehicle-mounted image recognition device 10a (hereinafter, the time information and the system time are referred to as the current time) is “evening. It is determined whether or not it is a time zone in which the accuracy of image recognition by the in-vehicle image recognition device 10a is expected to decrease, such as “night”.

例えば、「夕方」であれば、逆光によってイメージセンサ部17が撮像した画像の質が低下し、画像認識の精度が低下する。また、「夜間」であれば、イメージセンサ部17が撮像した画像に「黒つぶれ」が発生しやすく、同様に画像認識の精度が低下する。時刻判定処理部11bは、現在時刻が、車載用画像認識装置10aによる画像認識の精度が低下すると予想される時間帯であると判定すると、画像フレーム取得処理部11dに対して、可変露光時間画像フレーム取得を指示する可変露光時間画像フレーム取得信号を出力する。   For example, in the case of “evening”, the quality of the image captured by the image sensor unit 17 due to backlight is lowered, and the accuracy of image recognition is lowered. In addition, if it is “night”, “blackout” is likely to occur in the image captured by the image sensor unit 17, and the accuracy of image recognition similarly decreases. When the time determination processing unit 11b determines that the current time is in a time zone in which the accuracy of image recognition by the in-vehicle image recognition device 10a is expected to decrease, the time determination processing unit 11b gives the image frame acquisition processing unit 11d a variable exposure time image. A variable exposure time image frame acquisition signal for instructing frame acquisition is output.

自車位置判定処理部11cは、カーナビゲーション装置20から取得される車両1の現在位置が、トンネル内、トンネル出入口付近など車両1の周囲が暗いとされる位置にあるか否かを判定する。自車位置判定処理部11cは、車両1の現在位置が、周囲が暗いとされる位置にあると判定すると、画像フレーム取得処理部11dに対して、可変露光時間画像フレーム取得を指示する可変露光時間画像フレーム取得信号を出力する。   The own vehicle position determination processing unit 11c determines whether or not the current position of the vehicle 1 acquired from the car navigation device 20 is in a position where the periphery of the vehicle 1 is dark, such as in the tunnel or near the tunnel entrance. When the vehicle position determination processing unit 11c determines that the current position of the vehicle 1 is in a position where the surroundings are dark, variable exposure that instructs the image frame acquisition processing unit 11d to acquire a variable exposure time image frame. Output temporal image frame acquisition signal.

画像フレーム取得処理部11dは、設定値格納領域12bに格納される設定値格納テーブルに設定されている「画像更新周期」、「画像更新周期分割数」、「通常の露光時間」、「短い露光時間」、「長い露光時間」に基づいて、イメージセンサ部17から画像更新周期の1周期内に「通常の露光時間」に基づく画像フレーム、「短い露光時間」に基づく画像フレーム、「長い露光時間」に基づく画像フレームの画像データを取得し、記憶部12の画像バッファ12aに展開する。   The image frame acquisition processing unit 11d has “image update cycle”, “image update cycle division number”, “normal exposure time”, “short exposure” set in the set value storage table stored in the set value storage area 12b. Based on “time” and “long exposure time”, an image frame based on “normal exposure time”, an image frame based on “short exposure time”, and “long exposure time” within one image update period from the image sensor unit 17. The image data of the image frame based on “” is acquired and developed in the image buffer 12 a of the storage unit 12.

画像コントラスト判定処理部11eは、画像フレーム取得処理部11dによって取得され、画像バッファ12aに展開された「通常の露光時間」に基づく画像フレーム、「短い露光時間」に基づく画像フレーム、「長い露光時間」に基づく画像フレームの画像データのそれぞれのコントラストを判定するとともに、該コントラストが「画像コントラスト上限値」と「画像コントラスト下限値」とで決まる範囲内であるか否かを判定する。   The image contrast determination processing unit 11e is acquired by the image frame acquisition processing unit 11d and developed in the image buffer 12a. The image frame based on the “normal exposure time”, the image frame based on the “short exposure time”, and the “long exposure time” And the contrast of the image data of the image frame based on “” is determined, and whether or not the contrast is within a range determined by the “image contrast upper limit value” and the “image contrast lower limit value” is determined.

部分画像選択処理部11fは、複数の画像フレームのうち、コントラストが「画像コントラスト上限値」と「画像コントラスト下限値」とで決まる範囲内である同一部分画像であって、「通常の露光時間」に基づく画像フレームの部分画像、「短い露光時間」に基づく画像フレームの部分画像、「長い露光時間」に基づく画像フレームの部分画像のなかで最もコントラストが大きい部分画像を選択する。   The partial image selection processing unit 11f is the same partial image within a range determined by the “image contrast upper limit value” and the “image contrast lower limit value” among the plurality of image frames, and the “normal exposure time”. The partial image having the highest contrast among the partial image of the image frame based on the above, the partial image of the image frame based on the “short exposure time”, and the partial image of the image frame based on the “long exposure time” is selected.

部分画像合成処理部11gは、部分画像選択処理部11fによって選択された部分画像を1つの画像へと合成する処理をおこなう。部分画像合成処理部11gは、合成重み付け係数格納領域12cに格納される合成重み付け係数格納テーブルの各コントラストに応じた重み付け係数を、部分画像選択処理部11fによって選択された各部分画像の画素値に乗じて1つの画像へと合成する。   The partial image synthesis processing unit 11g performs a process of synthesizing the partial images selected by the partial image selection processing unit 11f into one image. The partial image synthesis processing unit 11g sets the weighting coefficient corresponding to each contrast in the synthesis weighting coefficient storage table stored in the synthesis weighting coefficient storage area 12c to the pixel value of each partial image selected by the partial image selection processing unit 11f. Multiply them into a single image.

このように、部分画像合成処理部11gによって合成された画像は、「白とび」も「黒つぶれ」もなく、適切なコントラストである画像となり、該画像に基づく画像認識処理の認識精度が向上する。また、部分画像選択処理部11fによって選択された各部分画像の画素値に各コントラストに応じた重み付け係数を乗じることによって、メリハリのある鮮明な画像を合成することが可能になる。   As described above, the image synthesized by the partial image synthesis processing unit 11g becomes an image having an appropriate contrast without “overexposure” or “blackout”, and the recognition accuracy of the image recognition processing based on the image is improved. . Further, by multiplying the pixel value of each partial image selected by the partial image selection processing unit 11f by a weighting coefficient corresponding to each contrast, it becomes possible to synthesize a sharp and clear image.

画像認識処理部11hは、部分画像合成処理部11gによって合成された画像と、画像認識パターンデータ格納領域12dに格納される画像認識パターンデータテーブルに記憶される画像認識パターンデータとに基づいて、車両1の前方を走行する他の車両、道路区画線、歩行者などの画像認識処理をおこなう。   The image recognition processing unit 11h is based on the image synthesized by the partial image synthesis processing unit 11g and the image recognition pattern data stored in the image recognition pattern data table stored in the image recognition pattern data storage area 12d. Image recognition processing is performed for other vehicles traveling in front of 1, road marking lines, pedestrians, and the like.

具体的には、部分画像合成処理部11gによって合成された画像内の少なくとも一部に写し出されている物体の画像データと、画像認識パターンデータとのパターンマッチングをおこない、一致率が所定値(例えば80%)以上である場合に、該物体が何であるかを特定する。さらに、画像認識処理部11hは、画像認識処理結果を、表示出力インターフェース部14を介して表示部18に表示させる。また、該画像認識処理結果を、後述の車両状況判定処理部15へと受け渡す。   Specifically, pattern matching is performed between the image data of the object projected on at least a part of the image synthesized by the partial image synthesis processing unit 11g and the image recognition pattern data, and the matching rate is a predetermined value (for example, 80%) or more, it identifies what the object is. Furthermore, the image recognition processing unit 11 h displays the image recognition processing result on the display unit 18 via the display output interface unit 14. Further, the image recognition processing result is transferred to a vehicle situation determination processing unit 15 described later.

さらに、車両状況判定装置20aは、上記した車載用画像認識装置10aと、車両状況判定処理部15と、車載ネットワーク100を介した他の車載装置との通信のためのインターフェースである車載ネットワーク入出力インターフェース部16とを有する。   Furthermore, the vehicle situation determination device 20a is an in-vehicle network input / output that is an interface for communication with the above-described in-vehicle image recognition device 10a, the vehicle situation determination processing unit 15, and other in-vehicle devices via the in-vehicle network 100. And an interface unit 16.

車両状況判定処理部15は、マイクロ・コンピュータなどの制御装置である。車両状況判定処理部15は、車載用画像認識装置10aの画像認識処理部11hから受け渡された画像認識処理結果に基づき、車両1の前方の近距離に、衝突危険性が高い他の車両や歩行者が存在するか否かを判定する。車両1の前方の至近距離に、衝突危険性が高い他の車両や歩行者が存在すると判定した場合には、車載ネットワーク入出力インターフェース部16を介して、車両制御ECU装置30に対して、警報装置30aの出力制御、ブレーキ制御装置30bの制動制御、発動機制御装置30cの燃料またはエネルギー供給抑制制御、シートベルト制御装置30dのシートベルトロック制御を指示する安全確保信号を出力する。   The vehicle situation determination processing unit 15 is a control device such as a microcomputer. Based on the image recognition processing result delivered from the image recognition processing unit 11h of the in-vehicle image recognition device 10a, the vehicle situation determination processing unit 15 is connected to other vehicles with high collision risk at a short distance in front of the vehicle 1. It is determined whether there is a pedestrian. If it is determined that another vehicle or pedestrian with high risk of collision exists at a close distance in front of the vehicle 1, an alarm is given to the vehicle control ECU device 30 via the in-vehicle network input / output interface unit 16. A safety ensuring signal is output to instruct output control of the device 30a, braking control of the brake control device 30b, fuel or energy supply suppression control of the motor control device 30c, and seat belt lock control of the seat belt control device 30d.

車両状況判定装置20aの車両状況判定処理部15が、車両制御ECU装置30に対して、安全確保信号を出力することによって、車両制御ECU装置30は、自動的に車両1の制動制御をおこなうこととなり、車両1の前方の至近距離に存在する衝突危険性が高い他の車両や歩行者への衝突を自動的に回避し、事故発生を未然に防止することが可能になる。   When the vehicle state determination processing unit 15 of the vehicle state determination device 20 a outputs a safety ensuring signal to the vehicle control ECU device 30, the vehicle control ECU device 30 automatically performs braking control of the vehicle 1. Thus, it is possible to automatically avoid a collision with another vehicle or a pedestrian that exists at a close distance in front of the vehicle 1 and has a high risk of collision, thereby preventing an accident from occurring.

次に、図2に示した実施例1にかかる車載用画像認識装置10aで実行される画像認識処理について説明する。図6は、実施例1にかかる車載用画像認識装置10aで実行される画像認識処理手順を示すフローチャートである。   Next, an image recognition process executed by the in-vehicle image recognition apparatus 10a according to the first embodiment illustrated in FIG. 2 will be described. FIG. 6 is a flowchart of an image recognition processing procedure executed by the in-vehicle image recognition apparatus 10a according to the first embodiment.

同図に示すように、先ず、時刻判定処理部11bは、時刻は夕方などの逆光を受けやすい時間帯または夜などの暗い時間帯であるか否かを判定する(ステップS101)。時刻は夕方などの逆光を受けやすい時間帯または夜などの暗い時間帯であると判定された場合に(ステップS101肯定)、ステップS102へ移り、時刻は夕方などの逆光を受けやすい時間帯または夜などの暗い時間帯であると判定されなかった場合に(ステップS101否定)、ステップS111へ移る。   As shown in the figure, first, the time determination processing unit 11b determines whether or not the time is a time zone that is susceptible to backlight such as evening or a dark time zone such as night (step S101). If it is determined that the time is a time zone that is susceptible to backlight such as evening or a dark time zone such as night (Yes in step S101), the process proceeds to step S102, and the time is a time zone or night that is susceptible to backlight such as evening. When it is not determined that it is a dark time zone such as (No at step S101), the process proceeds to step S111.

ステップS102では、自車位置判定処理部11cは、カーナビゲーション装置20から取得される自車の位置情報が、トンネルなどの暗い位置であるか否かを判定する。カーナビゲーション装置20は、地図データベースを有しているので、該地図データベースに格納される地図情報に基づいて、自車の位置情報が、トンネルなどの暗い位置であるか否かを判定することが可能である。   In step S102, the host vehicle position determination processing unit 11c determines whether or not the position information of the host vehicle acquired from the car navigation device 20 is a dark position such as a tunnel. Since the car navigation apparatus 20 has a map database, it is possible to determine whether or not the position information of the vehicle is a dark position such as a tunnel based on the map information stored in the map database. Is possible.

カーナビゲーション装置20から取得される自車の位置情報が、トンネルなどの暗い位置であると判定された場合に(ステップS102肯定)、ステップS103へ移り、カーナビゲーション装置20から取得される自車の位置情報が、トンネルなどの暗い位置であると判定されなかった場合に(ステップS102否定)、ステップS111へ移る。   When it is determined that the position information of the own vehicle acquired from the car navigation device 20 is a dark position such as a tunnel (Yes in step S102), the process proceeds to step S103 and the vehicle information acquired from the car navigation device 20 is determined. If the position information is not determined to be a dark position such as a tunnel (No at Step S102), the process proceeds to Step S111.

続いて、ステップS103では、画像フレーム取得処理部11dは、「通常の露光時間」で第1画像フレームを取得する。続いて、画像コントラスト判定処理部11eは、第1画像フレームの画像からコントラストが所定範囲内(すなわち、「画像コントラスト上限値」と「画像コントラスト下限値」とで決まる範囲内)の部分画像を抽出するとともに、該部分画像のコントラストを算出する(ステップS104)。   Subsequently, in step S103, the image frame acquisition processing unit 11d acquires the first image frame at “normal exposure time”. Subsequently, the image contrast determination processing unit 11e extracts a partial image whose contrast is within a predetermined range (that is, within a range determined by the “image contrast upper limit value” and the “image contrast lower limit value”) from the image of the first image frame. At the same time, the contrast of the partial image is calculated (step S104).

続いて、画像フレーム取得処理部11dは、「短い露光時間」で第2画像フレームを取得する(ステップS105)。続いて、画像コントラスト判定処理部11eは、第2画像フレームの画像からコントラストが所定範囲内(すなわち、「画像コントラスト上限値」と「画像コントラスト下限値」とで決まる範囲内)の部分画像を抽出するとともに、該部分画像のコントラストを算出する(ステップS106)。   Subsequently, the image frame acquisition processing unit 11d acquires the second image frame with “short exposure time” (step S105). Subsequently, the image contrast determination processing unit 11e extracts a partial image whose contrast is within a predetermined range (that is, within a range determined by the “image contrast upper limit value” and the “image contrast lower limit value”) from the image of the second image frame. At the same time, the contrast of the partial image is calculated (step S106).

続いて、画像フレーム取得処理部11dは、「長い露光時間」で第3画像フレームを取得する(ステップS107)。続いて、画像コントラスト判定処理部11eは、第3画像フレームの画像からコントラストが所定範囲内(すなわち、「画像コントラスト上限値」と「画像コントラスト下限値」とで決まる範囲内)の部分画像を抽出するとともに、該部分画像のコントラストを算出する(ステップS108)。   Subsequently, the image frame acquisition processing unit 11d acquires the third image frame with “long exposure time” (step S107). Subsequently, the image contrast determination processing unit 11e extracts a partial image whose contrast is within a predetermined range (that is, within a range determined by the “image contrast upper limit value” and the “image contrast lower limit value”) from the image of the third image frame. At the same time, the contrast of the partial image is calculated (step S108).

続いて、部分画像選択処理部11fは、ステップS104、ステップS106、ステップS108の各処理で抽出された画像の同一部分画像において、最もコントラストが大きい部分画像を選択する。そして、画像内のすべての部分画像について、ステップS104、ステップS106、ステップS108の各処理で抽出された部分画像のうち、最もコントラストが大きい部分画像を選択する。そして、部分画像合成処理部11gは、第1画像フレーム、第2画像フレーム、第3画像フレームのそれぞれの画像から選択された部分画像を、コントラスト値に基づく所定の重み付けにより合成する(以上、ステップS109)。   Subsequently, the partial image selection processing unit 11f selects a partial image having the highest contrast among the same partial images extracted in the processes of step S104, step S106, and step S108. Then, for all partial images in the image, the partial image having the highest contrast is selected from the partial images extracted in the processes of step S104, step S106, and step S108. Then, the partial image composition processing unit 11g synthesizes the partial images selected from the images of the first image frame, the second image frame, and the third image frame by a predetermined weighting based on the contrast value (the above steps). S109).

続いて、画像認識処理部11hは、部分画像合成処理部11gによって合成された画像を使用して画像認識処理をおこなう(ステップS110)。この処理が終了すると、実施例1の画像認識処理は終了する。そして、画像認識処理部11hは、画像認識処理結果を、表示出力インターフェース部14を介して表示部18に表示させるとともに、車両状況判定装置20aの車両状況判定処理部15へと受け渡す。   Subsequently, the image recognition processing unit 11h performs image recognition processing using the image synthesized by the partial image synthesis processing unit 11g (step S110). When this process ends, the image recognition process of the first embodiment ends. Then, the image recognition processing unit 11h displays the image recognition processing result on the display unit 18 via the display output interface unit 14, and transfers it to the vehicle situation determination processing unit 15 of the vehicle situation determination device 20a.

一方、ステップS111では、ステップS103と同様に、画像フレーム取得処理部11dは、「通常の露光時間」で第1画像フレームを取得する。続いて、画像認識処理部11hは、該第1画像フレームの画像を使用して画像認識処理をおこなう(ステップS112)。この処理が終了すると、実施例1の画像認識処理は終了する。   On the other hand, in step S111, as in step S103, the image frame acquisition processing unit 11d acquires the first image frame with “normal exposure time”. Subsequently, the image recognition processing unit 11h performs image recognition processing using the image of the first image frame (step S112). When this process ends, the image recognition process of the first embodiment ends.

以上の実施例1の画像認識処理によれば、時刻は夕方などの逆光を受けやすい時間帯または夜などの暗い時間帯である場合に、または、自車の位置情報が、トンネル内などの暗い位置、トンネル出入口など「白とび」や「黒つぶれ」が発生しやすい位置である場合に、可変露光時間画像フレーム取得をおこなわないので、不要な処理を省き、車載用画像認識装置10aの処理負荷の軽減を図ることができる。   According to the image recognition processing of the first embodiment described above, when the time is a time zone that is susceptible to backlight such as evening or a dark time zone such as night, or the position information of the own vehicle is dark such as in a tunnel. Since the variable exposure time image frame acquisition is not performed when the position or tunnel entrance / exit is a position where “whiteout” or “blackout” is likely to occur, unnecessary processing is omitted and the processing load of the in-vehicle image recognition device 10a is reduced. Can be reduced.

次に、実施例1にかかる車載用画像認識装置で可変露光時間画像フレーム取得をおこなった場合の画像例について説明する。図7−1〜図7−4は、実施例1にかかる車載用画像認識装置で可変露光時間画像フレーム取得をおこなった場合の画像例を示す図である。   Next, an example of an image when variable exposure time image frame acquisition is performed by the in-vehicle image recognition apparatus according to the first embodiment will be described. FIG. 7A to FIG. 7D are diagrams of examples of images when variable exposure time image frames are acquired by the in-vehicle image recognition apparatus according to the first embodiment.

先ず、図7−1は、車載用画像認識装置10aで、[通常の露光時間]で撮像したトンネル出口付近の画像の例を示す図である。同図に示すように、トンネル内照明、トンネル内白線は、鮮明に撮像されており、画像認識可能なレベルである。しかし、前方車両Aおよび前方車両Bは、テールランプのみしか撮像されておらず、画像認識可能なレベルではない。また、トンネル出口から外の部分は、「白とび」が発生しており、画像認識不可能である。したがって、図7−1に示す画像では、トンネル出口から外ではコントラストが過剰であり、トンネル内部でコントラストが不足している部分があるため、画像認識処理には不適切な画像である。   First, FIG. 7A is a diagram illustrating an example of an image in the vicinity of the tunnel exit captured by [normal exposure time] by the in-vehicle image recognition apparatus 10a. As shown in the figure, the illumination in the tunnel and the white line in the tunnel are clearly imaged and are at a level where the image can be recognized. However, the front vehicle A and the front vehicle B are only images of the tail lamp, and are not at a level where image recognition is possible. Further, “out-of-white” occurs in the portion outside the tunnel exit, and image recognition is impossible. Therefore, in the image shown in FIG. 7A, the contrast is excessive outside the tunnel exit, and there is a portion where the contrast is insufficient inside the tunnel, so that the image is inappropriate for the image recognition processing.

次に、車載用画像認識装置10aで、[短い露光時間]でトンネル出口付近の画像を撮像する。図7−2は、車載用画像認識装置10aで、[短い露光時間]で撮像したトンネル出口付近の画像の例を示す図である。同図に示すように、トンネル出口から外の部分は、「白とび」が発生しておらず、前方車両Cおよびトンネル外白線が鮮明に撮像されており、画像認識可能なレベルにある。しかし、トンネル内部の部分では「黒つぶれ」が発生しており、画像認識不可能である。したがって、図7−2に示す画像では、トンネル内部のコントラストが不足しているため、画像認識処理には不適切な画像である。   Next, the in-vehicle image recognition apparatus 10a captures an image near the tunnel exit in [short exposure time]. FIG. 7B is a diagram illustrating an example of an image in the vicinity of the tunnel exit captured with [short exposure time] by the in-vehicle image recognition apparatus 10a. As shown in the figure, in the portion outside the tunnel exit, “whiteout” does not occur, the forward vehicle C and the white line outside the tunnel are clearly imaged, and are at a level where image recognition is possible. However, “blackout” occurs in the tunnel, and image recognition is impossible. Therefore, the image shown in FIG. 7-2 is inappropriate for the image recognition process because the contrast inside the tunnel is insufficient.

次に、車載用画像認識装置10aで、[長い露光時間]でトンネル出口付近の画像を撮像する。図7−3は、車載用画像認識装置10aで、[長い露光時間]で撮像したトンネル出口付近の画像の例を示す図である。同図に示すように、トンネル内白線、トンネル内部の前方車両Aおよび前方車両Bは鮮明に撮像されており、画像認識可能なレベルにある。しかし、トンネル内照明は、コントラスト過剰により、画像認識に不適切である。また、トンネル出口から外の部分は、「白とび」が発生しており、画像認識不可能である。したがって、図7−3に示す画像でも、トンネル内照明およびトンネル出口から外のコントラストが過剰であるため、画像認識処理には不適切な画像である。   Next, the in-vehicle image recognition apparatus 10a captures an image near the tunnel exit in [long exposure time]. FIG. 7C is a diagram illustrating an example of an image in the vicinity of the tunnel exit that is captured with [long exposure time] by the in-vehicle image recognition apparatus 10a. As shown in the figure, the white line in the tunnel, the forward vehicle A and the forward vehicle B inside the tunnel are clearly imaged and are at a level where image recognition is possible. However, tunnel illumination is unsuitable for image recognition due to excessive contrast. Further, “out-of-white” occurs in the portion outside the tunnel exit, and image recognition is impossible. Therefore, the image shown in FIG. 7-3 is also inappropriate for the image recognition process because the contrast outside the tunnel interior and the tunnel exit is excessive.

そこで、実施例1にかかる車載用画像認識装置10aは、図7−1の[通常の露光時間]で撮像したトンネル出口付近の画像からトンネル内照明の部分画像を選択し、図7−2の[短い露光時間]で撮像したトンネル出口付近の画像からトンネル出口から外の部分の部分画像を選択し、図7−3の[長い露光時間]で撮像したトンネル出口付近の画像からトンネル内白線、トンネル内部の前方車両Aおよび前方車両Bの部分画像を選択し、これらの部分画像を合成する。なお、トンネル内白線の部分画像を[長い露光時間]で撮像したトンネル出口付近の画像から選択したのは、該トンネル内白線の部分画像のコントラストが、[普通の露光時間]で撮像したトンネル出口付近の画像のトンネル内白線の部分画像のコントラストよりも大きいためである。   Therefore, the in-vehicle image recognition apparatus 10a according to the first embodiment selects a partial image of the tunnel illumination from the image near the tunnel exit imaged in [normal exposure time] in FIG. A partial image of the portion outside the tunnel exit is selected from the images near the tunnel exit taken at [Short exposure time], and the white line inside the tunnel is taken from the image near the tunnel exit taken at [Long exposure time] in FIG. The partial images of the forward vehicle A and the forward vehicle B inside the tunnel are selected, and these partial images are combined. It should be noted that the partial image of the white line in the tunnel was selected from the images near the tunnel exit taken at [long exposure time] because the contrast of the partial image of the white line in the tunnel was picked up at [normal exposure time]. This is because the contrast of the partial image of the white line in the tunnel of the nearby image is larger.

このようにして合成された画像は、図7−4に示すとおりである。図7−4の画像によれば、トンネル内照明、トンネル内白線、トンネル内部の前方車両Aおよび前方車両B、トンネル出口から外の前方車両Cおよびトンネル外白線のすべてが画像認識処理に適切なコントラストにより鮮明に写し出され、画像認識処理の精度を向上させることができる。   The image synthesized in this way is as shown in FIG. According to the image of FIG. 7-4, all of the lighting in the tunnel, the white line in the tunnel, the forward vehicle A and the forward vehicle B inside the tunnel, the forward vehicle C outside the tunnel exit and the white line outside the tunnel are suitable for the image recognition process. The image is clearly displayed due to the contrast, and the accuracy of the image recognition process can be improved.

以下に実施例2にかかる車載用画像処理装置および車両状況判定装置の構成について説明する。図8は、実施例2にかかる車載用画像処理装置および車両状況判定装置の構成を示す機能ブロック図である。同図に示すように、実施例2にかかる車載用画像認識装置10bおよび車両状況判定装置20bは、実施例1にかかる車載用画像認識装置10aおよび車両状況判定装置20aと同様に、車両1において、CAN(Controller Area Network)などの車載ネットワーク100を介して、車載用画像認識装置10aへカーナビゲーション情報、日付情報、時刻情報などを受け渡すカーナビゲーション装置20と、車両1が備える電子機器を制御する車両制御ECU(Electronic Control Unit)装置30と通信可能に接続されている。   The configurations of the in-vehicle image processing apparatus and the vehicle state determination apparatus according to the second embodiment will be described below. FIG. 8 is a functional block diagram of the configuration of the in-vehicle image processing device and the vehicle state determination device according to the second embodiment. As shown in the figure, the in-vehicle image recognition device 10b and the vehicle situation determination device 20b according to the second embodiment are similar to the in-vehicle image recognition device 10a and the vehicle situation determination device 20a according to the first embodiment. The car navigation device 20 that passes car navigation information, date information, time information, and the like to the in-vehicle image recognition device 10a via the in-vehicle network 100 such as CAN (Controller Area Network), and the electronic device included in the vehicle 1 are controlled. The vehicle control ECU (Electronic Control Unit) 30 is connected to be communicable.

以下の実施例2の説明では、実施例1との差異部分のみを説明する。特記しない構成、機能、処理は、実施例1にかかる車載用画像認識装置10aおよび車両状況判定装置20aと同様である。   In the following description of the second embodiment, only differences from the first embodiment will be described. The configuration, function, and processing that are not specified are the same as those of the in-vehicle image recognition device 10a and the vehicle situation determination device 20a according to the first embodiment.

実施例2にかかる車載用画像認識装置10bは、実施例1にかかる車載用画像認識装置10aから部分画像選択処理部11f、部分画像合成処理部11g、合成重み付け係数格納領域12cが省略された構成である。   The in-vehicle image recognition apparatus 10b according to the second embodiment has a configuration in which the partial image selection processing unit 11f, the partial image synthesis processing unit 11g, and the synthesis weighting coefficient storage area 12c are omitted from the in-vehicle image recognition apparatus 10a according to the first embodiment. It is.

画像フレーム取得処理部11dは、画像更新周期の1周期内において、取得した画像フレームのコントラストが所定範囲内の値であると判定されるまで露光時間を変化させながら画像フレームを取得する。また、画像認識処理部11hは、画像コントラスト判定処理部11eによって、前述の画像更新周期の1周期内においてはじめてコントラストが所定範囲内の値であると判定された画像に基づいて画像認識処理をおこなう。   The image frame acquisition processing unit 11d acquires an image frame while changing the exposure time until it is determined that the contrast of the acquired image frame is a value within a predetermined range within one period of the image update period. In addition, the image recognition processing unit 11h performs image recognition processing based on the image for which the contrast is determined to be a value within a predetermined range for the first time by the image contrast determination processing unit 11e within one cycle of the image update cycle described above. .

また、画像コントラスト判定処理部11eは、画像の「白とび」および「黒つぶれ」の部分の有無を判定する。画像の「白とび」は、画像のコントラストが「画像コントラスト上限値」を超過する場合であり、画像の「黒つぶれ」は、画像のコントラストが「画像コントラスト下限値」を下回る場合である。   In addition, the image contrast determination processing unit 11e determines the presence or absence of “whiteout” and “blackout” portions of the image. “White skip” of the image is a case where the contrast of the image exceeds the “image contrast upper limit value”, and “blackout” of the image is a case of the image contrast being lower than the “image contrast lower limit value”.

実施例2の車両状況判定装置20bは、実施例2の車載用画像認識装置10bと、車両状況判定処理部15と、車載ネットワーク100を介した他の車載装置との通信のためのインターフェースである車載ネットワーク入出力インターフェース部16とを有する。実施例2の車載用画像認識装置10bの車両状況判定処理部15の構成、機能、処理は、実施例1の車載用画像認識装置10aの車両状況判定処理部15と同一である。   The vehicle situation determination device 20b according to the second embodiment is an interface for communication with the in-vehicle image recognition device 10b according to the second embodiment, the vehicle situation determination processing unit 15, and other in-vehicle devices via the in-vehicle network 100. And an in-vehicle network input / output interface unit 16. The configuration, function, and processing of the vehicle situation determination processing unit 15 of the vehicle-mounted image recognition device 10b according to the second embodiment are the same as those of the vehicle situation determination processing unit 15 of the vehicle-mounted image recognition device 10a according to the first embodiment.

次に、実施例2にかかる車載用画像認識装置で実行される画像認識処理について説明する。図9は、実施例2にかかる車載用画像認識装置で実行される画像認識処理手順を示すフローチャートである。   Next, image recognition processing executed by the in-vehicle image recognition apparatus according to the second embodiment will be described. FIG. 9 is a flowchart of an image recognition processing procedure executed by the in-vehicle image recognition apparatus according to the second embodiment.

同図に示すように、先ず、時刻判定処理部11bは、時刻は夕方などの逆光を受けやすい時間帯または夜などの暗い時間帯であるか否かを判定する(ステップS201)。時刻は夕方などの逆光を受けやすい時間帯または夜などの暗い時間帯であると判定された場合に(ステップS201肯定)、ステップS202へ移り、時刻は夕方などの逆光を受けやすい時間帯または夜などの暗い時間帯であると判定されなかった場合に(ステップS201否定)、ステップS215へ移る。   As shown in the figure, first, the time determination processing unit 11b determines whether or not the time is a time zone in which backlight is easily received such as evening or a dark time zone such as night (step S201). If it is determined that the time is a time zone that is susceptible to backlight such as evening or a dark time zone such as night (Yes in step S201), the process proceeds to step S202, and the time is a time zone or night that is susceptible to backlight such as evening. If it is not determined that it is a dark time zone such as (No at step S201), the process proceeds to step S215.

ステップS202では、自車位置判定処理部11cは、カーナビゲーション装置20から取得される自車の位置情報が、トンネルなどの暗い位置であるか否かを判定する。カーナビゲーション装置20は、地図データベースを有しているので、該地図データベースに格納される地図情報に基づいて、自車の位置情報が、トンネルなどの暗い位置であるか否かを判定することが可能である。   In step S202, the own vehicle position determination processing unit 11c determines whether or not the position information of the own vehicle acquired from the car navigation device 20 is a dark position such as a tunnel. Since the car navigation apparatus 20 has a map database, it is possible to determine whether or not the position information of the vehicle is a dark position such as a tunnel based on the map information stored in the map database. Is possible.

カーナビゲーション装置20から取得される自車の位置情報が、トンネルなどの暗い位置であると判定された場合に(ステップS202肯定)、ステップS203へ移り、カーナビゲーション装置20から取得される自車の位置情報が、トンネルなどの暗い位置であると判定されなかった場合に(ステップS202否定)、ステップS215へ移る。   When it is determined that the position information of the own vehicle acquired from the car navigation device 20 is a dark position such as a tunnel (Yes in step S202), the process proceeds to step S203, and the own vehicle acquired from the car navigation device 20 is acquired. When the position information is not determined to be a dark position such as a tunnel (No at Step S202), the process proceeds to Step S215.

続いて、ステップS203では、画像フレーム取得処理部11dは、「通常の露光時間」で第1画像フレームを取得する。続いて、画像コントラスト判定処理部11eは、第1画像フレームの画像に「白とび」部分があるか否か(すなわち、画像のコントラストが「画像コントラスト上限値」を超過する部分があるか否か)を判定する(ステップS204)。   Subsequently, in step S203, the image frame acquisition processing unit 11d acquires the first image frame at “normal exposure time”. Subsequently, the image contrast determination processing unit 11e determines whether or not there is a “overexposed” portion in the image of the first image frame (that is, whether or not there is a portion where the contrast of the image exceeds the “image contrast upper limit value”). ) Is determined (step S204).

第1画像フレームの画像に「白とび」部分があると判定された場合に(ステップS204肯定)、ステップS205へ移り、第1画像フレームの画像に「白とび」部分があると判定されなかった場合に(ステップS204否定)、ステップS210へ移る。   If it is determined that there is a “whiteout” portion in the image of the first image frame (Yes in step S204), the process proceeds to step S205, and it is not determined that there is a “whiteout” portion in the image of the first image frame. If so (No at step S204), the process proceeds to step S210.

ステップS205では、画像フレーム取得処理部11dは、「短い露光時間」で第2画像フレームを取得する。続いて、画像コントラスト判定処理部11eは、第2画像フレームの画像に「黒つぶれ」部分があるか否か(すなわち、画像のコントラストが「画像コントラスト下限値」を下回る部分があるか否か)を判定する(ステップS206)。   In step S205, the image frame acquisition processing unit 11d acquires the second image frame with “short exposure time”. Subsequently, the image contrast determination processing unit 11e determines whether or not there is a “blackout” portion in the image of the second image frame (that is, whether or not there is a portion where the image contrast is less than the “image contrast lower limit value”). Is determined (step S206).

第2画像フレームの画像に「黒つぶれ」部分があると判定された場合に(ステップS206肯定)、ステップS207へ移り、第2画像フレームの画像に「黒つぶれ」部分があると判定されなかった場合に(ステップS206否定)、ステップS209へ移る。   When it is determined that there is a “blackout” portion in the image of the second image frame (Yes in step S206), the process proceeds to step S207, and it is not determined that there is a “blackout” portion in the image of the second image frame. If (No at step S206), the process proceeds to step S209.

ステップS207では、画像フレーム取得処理部11dは、「長い露光時間」で第3画像フレームを取得する。続いて、画像認識処理部11hは、ステップS207で取得された第3画像フレームを使用して画像認識をおこなう(ステップS208)。この処理が終了すると、実施例2の画像認識処理は終了する。   In step S207, the image frame acquisition processing unit 11d acquires the third image frame with “long exposure time”. Subsequently, the image recognition processing unit 11h performs image recognition using the third image frame acquired in step S207 (step S208). When this process ends, the image recognition process of the second embodiment ends.

一方、ステップS209では、画像認識処理部11hは、第2画像フレームを使用して画像認識をおこなう。この処理が終了すると、実施例2の画像認識処理は終了する。   On the other hand, in step S209, the image recognition processing unit 11h performs image recognition using the second image frame. When this process ends, the image recognition process of the second embodiment ends.

他方、ステップS210では、画像コントラスト判定処理部11eは、第1画像フレームの画像に「黒つぶれ」部分があるか否か(すなわち、画像のコントラストが「画像コントラスト下限値」を下回る部分があるか否か)を判定する。   On the other hand, in step S210, the image contrast determination processing unit 11e determines whether or not there is a “blackout” portion in the image of the first image frame (that is, whether there is a portion where the image contrast is less than the “image contrast lower limit value”). Or not).

第1画像フレームの画像に「黒つぶれ」部分があると判定された場合に(ステップS210肯定)、ステップS211へ移り、第2画像フレームの画像に「黒つぶれ」部分があると判定されなかった場合に(ステップS210否定)、ステップS216へ移る。   When it is determined that there is a “blackout” portion in the image of the first image frame (Yes in step S210), the process proceeds to step S211 and it is not determined that there is a “blackout” portion in the image of the second image frame. If so (No at step S210), the process proceeds to step S216.

ステップS211では、画像フレーム取得処理部11dは、「長い露光時間」で第2画像フレームを取得する。続いて、画像コントラスト判定処理部11eは、第2画像フレームの画像に「白とび」部分があるか否か(すなわち、画像のコントラストが「画像コントラスト上限値」を超過する部分があるか否か)を判定する(ステップS212)。   In step S211, the image frame acquisition processing unit 11d acquires the second image frame with “long exposure time”. Subsequently, the image contrast determination processing unit 11e determines whether or not there is a “overexposed” portion in the image of the second image frame (that is, whether or not there is a portion where the contrast of the image exceeds the “image contrast upper limit value”). ) Is determined (step S212).

第2画像フレームの画像に「白とび」部分があると判定された場合に(ステップS212肯定)、ステップS213へ移り、第2画像フレームの画像に「白とび」部分があると判定されなかった場合に(ステップS212否定)、ステップS209へ移る。   When it is determined that the “whiteout” portion is present in the image of the second image frame (Yes in step S212), the process proceeds to step S213, and it is not determined that the “whiteout” portion is present in the image of the second image frame. If this is the case (No at step S212), the process proceeds to step S209.

ステップS213では、画像フレーム取得処理部11dは、「短い露光時間」で第3画像フレームを取得する。続いて、画像認識処理部11hは、ステップS213で取得された第3画像フレームを使用して画像認識をおこなう(ステップS214)。この処理が終了すると、実施例2の画像認識処理は終了する。   In step S213, the image frame acquisition processing unit 11d acquires the third image frame with “short exposure time”. Subsequently, the image recognition processing unit 11h performs image recognition using the third image frame acquired in step S213 (step S214). When this process ends, the image recognition process of the second embodiment ends.

また、ステップS215では、ステップS203と同様に、画像フレーム取得処理部11dは、「通常の露光時間」で第1画像フレームを取得する。続いて、画像認識処理部11hは、ステップS215で取得された第1画像フレームを使用して画像認識をおこなう(ステップS216)。この処理が終了すると、実施例2の画像認識処理は終了する。   In step S215, as in step S203, the image frame acquisition processing unit 11d acquires the first image frame with “normal exposure time”. Subsequently, the image recognition processing unit 11h performs image recognition using the first image frame acquired in step S215 (step S216). When this process ends, the image recognition process of the second embodiment ends.

以上の実施例2の画像認識処理によれば、「白つぶれ」や「黒とび」が無く、コントラストが所定範囲内である画像フレームが取得されると、それ以降の可変露光時間画像フレーム取得をおこなわないので、不要な処理を省き、車載用画像認識装置10bの処理負荷の軽減を図ることができる。   According to the image recognition processing of the second embodiment described above, when an image frame having no “whiteout” or “blackout” and having a contrast within a predetermined range is acquired, subsequent variable exposure time image frame acquisition is performed. Since this is not performed, unnecessary processing can be omitted, and the processing load of the in-vehicle image recognition device 10b can be reduced.

以上、本発明の実施例1および実施例2を説明したが、本発明は、これに限られるものではなく、特許請求の範囲に記載した技術的思想の範囲内で、更に種々の異なる実施例で実施されてもよいものである。また、実施例1および実施例2に記載した効果は、これに限定されるものではない。   As mentioned above, although Example 1 and Example 2 of this invention were demonstrated, this invention is not restricted to this, Furthermore, various different Example is within the range of the technical idea described in the claim. May be implemented. Moreover, the effect described in Example 1 and Example 2 is not limited to this.

また、上記実施例1および実施例2において説明した各処理のうち、自動的におこなわれるものとして説明した処理の全部または一部を手動的におこなうこともでき、あるいは、手動的におこなわれるものとして説明した処理の全部または一部を公知の方法で自動的におこなうこともできる。この他、上記実施例で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。   In addition, among the processes described in the first and second embodiments, all or a part of the processes described as being automatically performed can be manually performed, or manually performed. All or a part of the processing described as can be automatically performed by a known method. In addition, the processing procedure, control procedure, specific name, information including various data and parameters shown in the above embodiment can be arbitrarily changed unless otherwise specified.

また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示のように構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。   Each component of each illustrated device is functionally conceptual and does not necessarily need to be physically configured as illustrated. In other words, the specific form of distribution / integration of each device is not limited to that shown in the figure, and all or a part thereof may be functionally or physically distributed or arbitrarily distributed in arbitrary units according to various loads or usage conditions. Can be integrated and configured.

さらに、各装置にて行なわれる各処理機能は、その全部または任意の一部が、CPU(Central Processing Unit)(またはMPU(Micro Processing Unit)、MCU(Micro Controller Unit)などのマイクロ・コンピュータ)および当該CPU(またはMPU、MCUなどのマイクロ・コンピュータ)にて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現されてもよい。   Furthermore, each or all of the processing functions performed in each device are entirely or partially a CPU (Central Processing Unit) (or a microcomputer such as an MPU (Micro Processing Unit) or MCU (Micro Controller Unit)) and It may be realized by a program that is analyzed and executed by the CPU (or a microcomputer such as MPU or MCU), or may be realized as hardware by wired logic.

本発明は、車載用画像認識装置において、露光時間が異なる画像を複数撮像し、これら複数の画像を、画像認識処理精度が高まるように1枚の画像に合成する処理を処理負荷を抑えておこない、車載用画像認識装置のカメラの高ダイナミックレンジを確保したい場合に有用である。   The present invention performs a process of capturing a plurality of images with different exposure times in an in-vehicle image recognition apparatus and combining the plurality of images into a single image so as to increase the accuracy of image recognition processing with a reduced processing load. This is useful when it is desired to secure a high dynamic range of the camera of the in-vehicle image recognition apparatus.

本発明の概要および特徴を示す図である。It is a figure which shows the outline | summary and characteristic of this invention. 実施例1にかかる車載用画像認識装置および車両状況判定装置の構成を示す機能ブロック図である。1 is a functional block diagram illustrating configurations of an in-vehicle image recognition device and a vehicle situation determination device according to a first embodiment. 設定値格納テーブルの例を示す図である。It is a figure which shows the example of a setting value storage table. 合成重み付け係数格納テーブルの例を示す図である。It is a figure which shows the example of a synthetic | combination weighting coefficient storage table. 画像認識パターンデータテーブルの例を示す図である。It is a figure which shows the example of an image recognition pattern data table. 実施例1にかかる車載用画像認識装置で実行される画像認識処理手順を示すフローチャートである。3 is a flowchart illustrating an image recognition processing procedure executed by the in-vehicle image recognition apparatus according to the first embodiment. 実施例1にかかる車載用画像認識装置で、通常の露光時間で撮像したトンネル出口付近の画像の例を示す図である。It is a figure which shows the example of the image of the tunnel exit vicinity imaged with the vehicle-mounted image recognition apparatus concerning Example 1 by normal exposure time. 実施例1にかかる車載用画像認識装置で、短い露光時間で撮像したトンネル出口付近の画像の例を示す図である。It is a figure which shows the example of the image of the tunnel exit vicinity imaged with the vehicle-mounted image recognition apparatus concerning Example 1 with short exposure time. 実施例1にかかる車載用画像認識装置で、長い露光時間で撮像したトンネル出口付近の画像の例を示す図である。It is a figure which shows the example of the image of the tunnel exit vicinity imaged with the vehicle-mounted image recognition apparatus concerning Example 1 with long exposure time. 実施例1にかかる車載用画像認識装置で、通常の露光時間、短い露光時間、長い露光時間で撮像したトンネル出口付近の画像を合成した画像の例を示す図である。It is a figure which shows the example of the image which synthesize | combined the image of the tunnel exit vicinity imaged with the vehicle-mounted image recognition apparatus concerning Example 1 with normal exposure time, short exposure time, and long exposure time. 実施例2にかかる車載用画像認識装置および車両状況判定装置の構成を示す機能ブロック図である。It is a functional block diagram which shows the structure of the vehicle-mounted image recognition apparatus and vehicle condition determination apparatus concerning Example 2. FIG. 実施例2にかかる車載用画像認識装置で実行される画像認識処理手順を示すフローチャートである。12 is a flowchart illustrating an image recognition processing procedure executed by the in-vehicle image recognition apparatus according to the second embodiment.

符号の説明Explanation of symbols

1 車両
10a、10b 車載用画像認識装置
11 制御部
11a 撮像処理部
11b 時刻判定処理部
11c 自車位置判定処理部
11d 画像フレーム取得処理部
11e 画像コントラスト判定処理部
11f 部分画像選択処理部
11g 部分画像合成処理部
11h 画像認識処理部
12 記憶部
12a 画像バッファ
12b 設定値格納領域
12c 合成重み付け係数格納領域
12d 画像認識パターンデータ格納領域
13 イメージセンサインターフェース部
14 表示出力インターフェース部
15 車両状況判定処理部
16 車載ネットワーク入出力インターフェース部
17 イメージセンサ部
17a 光学レンズ
17b シャッタ部
17c CMOSセンサ
18 表示部
20 カーナビゲーション装置
20a、20b 車両状況判定装置
30 車両制御ECU装置
30a 警報装置
30b ブレーキ制御装置
30c 発動機制御装置
30d シートベルト制御装置
100 車載ネットワーク
DESCRIPTION OF SYMBOLS 1 Vehicle 10a, 10b Car-mounted image recognition apparatus 11 Control part 11a Imaging process part 11b Time determination process part 11c Own vehicle position determination process part 11d Image frame acquisition process part 11e Image contrast determination process part 11f Partial image selection process part 11g Partial image Composition processing unit 11h Image recognition processing unit 12 Storage unit 12a Image buffer 12b Setting value storage area 12c Composition weighting coefficient storage area 12d Image recognition pattern data storage area 13 Image sensor interface unit 14 Display output interface unit 15 Vehicle condition determination processing unit 16 In-vehicle Network input / output interface unit 17 Image sensor unit 17a Optical lens 17b Shutter unit 17c CMOS sensor 18 Display unit 20 Car navigation device 20a, 20b Vehicle situation determination device 30 Vehicle control ECU device 30a Alarm device 30b Brake control device 30c Engine control device 30d Seat belt control device 100 In-vehicle network

Claims (7)

車両に備えられる撮像装置によって撮像された該車両の周辺の画像に基づいて画像認識をおこなう車載用画像認識装置であって、
画像更新周期の1周期内において異なる露光時間で複数の画像を撮像するように前記撮像装置を制御する撮像処理手段と、
前記撮像処理手段による前記撮像装置の制御によって撮像された各前記複数の画像のコントラストが所定範囲内の値であるか否かを判定するコントラスト判定手段と、
前記コントラスト判定手段によって各前記複数の画像のコントラストが所定範囲内の値であると判定された各前記複数の画像の同一部分の部分画像を抽出し、該複数の画像の同一部分の部分画像から最もコントラストが大きい部分画像をそれぞれ選択する部分画像選択手段と、
前記部分画像選択手段によって選択された各前記部分画像を1つの画像へと合成する画像合成手段と、
前記画像合成手段によって合成された前記1つの画像に基づいて画像認識処理をおこなう画像認識処理手段と
を有することを特徴とする車載用画像認識装置。
An in-vehicle image recognition device that performs image recognition based on an image around a vehicle imaged by an imaging device provided in the vehicle,
Imaging processing means for controlling the imaging apparatus so as to capture a plurality of images with different exposure times within one period of an image update period;
Contrast determination means for determining whether or not the contrast of each of the plurality of images captured by the imaging device is controlled by the imaging processing means is a value within a predetermined range;
Extracting a partial image of the same part of each of the plurality of images determined by the contrast determination means to have a contrast within a predetermined range of the contrast of each of the plurality of images, from the partial image of the same part of the plurality of images Partial image selection means for selecting each partial image with the highest contrast,
Image combining means for combining each partial image selected by the partial image selecting means into one image;
An in-vehicle image recognition apparatus comprising: an image recognition processing unit that performs image recognition processing based on the one image combined by the image combining unit.
前記画像合成手段によって各前記複数の画像の部分画像を1つの画像へと合成する際に、各該複数の画像の部分画像のコントラストに応じた重み付け係数を格納する重み付け係数格納手段をさらに有し、
前記画像合成手段は、前記部分画像選択手段によって選択された各前記部分画像のコントラストに応じた重み付け係数を各該部分画像の画素値に乗じて各該複数の画像の部分画像を1つの画像へと合成することを特徴とする請求項1に記載の車載用画像認識装置。
And further comprising weighting coefficient storage means for storing a weighting coefficient corresponding to the contrast of the partial images of the plurality of images when the image combining means combines the partial images of the plurality of images into one image. ,
The image synthesizing unit multiplies the pixel value of each partial image by a weighting coefficient corresponding to the contrast of each partial image selected by the partial image selecting unit to convert the partial images of the plurality of images into one image. The vehicle-mounted image recognition device according to claim 1, wherein
車両に備えられる撮像装置によって撮像された該車両の周辺の画像に基づいて画像認識をおこなう車載用画像認識装置であって、
画像更新周期の1周期内において異なる露光時間で複数の画像を撮像するように前記撮像装置を制御する撮像処理手段と、
前記撮像処理手段による前記撮像装置の制御によって撮像された各前記複数の画像のコントラストが所定範囲内の値であるか否かを判定するコントラスト判定手段と、
前記撮像装置によって撮像された画像に基づいて画像認識処理をおこなう画像認識処理手段と
を有し、
前記撮像処理手段は、前記画像更新周期の1周期内において、前記コントラスト判定手段によって前記所定の画像のコントラストが所定範囲内の値であると判定される画像が撮像されるまで前記所定の露光時間とそれぞれ異なる露光時間で画像を撮像するように前記撮像装置を制御し、
前記画像認識処理手段は、前記画像更新周期の1周期内において、前記コントラスト判定手段によってコントラストが所定範囲内の値であるとはじめて判定された画像に基づいて画像認識処理をおこなうことを特徴とする車載用画像認識装置。
An in-vehicle image recognition device that performs image recognition based on an image around a vehicle imaged by an imaging device provided in the vehicle,
Imaging processing means for controlling the imaging apparatus so as to capture a plurality of images with different exposure times within one period of an image update period;
Contrast determination means for determining whether or not the contrast of each of the plurality of images captured by the imaging device is controlled by the imaging processing means is a value within a predetermined range;
Image recognition processing means for performing image recognition processing based on an image captured by the imaging device;
The imaging processing unit is configured to perform the predetermined exposure time until an image in which the contrast determination unit determines that the contrast of the predetermined image is a value within a predetermined range within one cycle of the image update cycle. And controlling the imaging device to capture images with different exposure times,
The image recognition processing means performs image recognition processing based on an image that is determined for the first time that the contrast is a value within a predetermined range by the contrast determination means within one period of the image update period. In-vehicle image recognition device.
前記車両に備えられる車載装置から取得される情報に基づいて、前記撮像装置が前記画像更新周期の1周期内において前記異なる露光時間で複数の画像を撮像する必要性があるか否かを判定する複数画像撮像必要性判定手段をさらに有し、
前記撮像処理手段は、前記複数画像撮像必要性判定手段によって前記画像更新周期の1周期内において前記異なる露光時間で複数の画像を撮像する必要性があると判定された場合にのみ、該画像更新周期の1周期内において該異なる露光時間で複数の画像を撮像するように前記撮像装置を制御することを特徴とする請求項1、2または3に記載の車載用画像認識装置。
Based on information acquired from an in-vehicle device provided in the vehicle, it is determined whether or not the imaging device needs to capture a plurality of images with the different exposure times within one cycle of the image update cycle. A plurality of image capturing necessity determination means;
The imaging processing means updates the image only when it is determined by the multiple image imaging necessity determination means that there is a need to capture a plurality of images within the different period of the image update period. The in-vehicle image recognition apparatus according to claim 1, wherein the imaging apparatus is controlled so as to capture a plurality of images with the different exposure times within one period.
車両に備えられる撮像装置によって撮像された該車両の周辺の画像に基づいて画像認識をおこなった結果に基づいて該車両がおかれている状況を判定する、該車両に搭載される車両制御装置と車載ネットワークを介して通信可能な車両状況判定装置であって、
画像更新周期の1周期内において異なる露光時間で複数の画像を撮像するように前記撮像装置を制御する撮像処理手段と、
前記撮像処理手段による前記撮像装置によって撮像された各前記複数の画像のコントラストが所定範囲内の値であるか否かを判定するコントラスト判定手段と、
前記コントラスト判定手段によって各前記複数の画像のコントラストが所定範囲内の値であると判定された各前記複数の画像の同一部分の部分画像を抽出し、該複数の画像の同一部分の部分画像から最もコントラストが大きい部分画像をそれぞれ選択する部分画像選択手段と、
前記部分画像選択手段によって選択された各前記部分画像を1つの画像へと合成する画像合成手段と、
前記画像合成手段によって合成された前記1つの画像に基づいて画像認識処理をおこなう画像認識処理手段と、
前記画像認識処理手段によっておこなわれた画像認識処理の結果に基づいて前記車両の周辺の状況を判定し、該判定の結果に応じて該車両の制動制御が必要である場合に前記車両制御装置へ制動制御信号を出力する車両状況判定処理手段と
を有することを特徴とする車両状況判定装置。
A vehicle control device mounted on the vehicle for determining a situation where the vehicle is placed based on a result of image recognition based on an image around the vehicle imaged by an imaging device provided in the vehicle; A vehicle status determination device capable of communicating via an in-vehicle network,
Imaging processing means for controlling the imaging apparatus so as to capture a plurality of images with different exposure times within one period of an image update period;
Contrast determination means for determining whether or not the contrast of each of the plurality of images captured by the imaging device by the imaging processing means is a value within a predetermined range;
Extracting a partial image of the same portion of each of the plurality of images, in which the contrast of the plurality of images is determined to be a value within a predetermined range by the contrast determination unit, and extracting from the partial image of the same portion of the plurality of images Partial image selection means for selecting each partial image with the highest contrast,
Image combining means for combining the partial images selected by the partial image selecting means into one image;
Image recognition processing means for performing image recognition processing based on the one image synthesized by the image synthesis means;
A situation around the vehicle is determined based on a result of the image recognition processing performed by the image recognition processing means, and when the braking control of the vehicle is required according to the determination result, the vehicle control device is referred to. Vehicle status determination processing means for outputting a brake control signal.
車両に備えられる撮像装置によって撮像された該車両の周辺の画像に基づいて画像認識をおこなった結果に基づいて該車両がおかれている状況を判定する、該車両に搭載される車両制御装置と車載ネットワークを介して通信可能な車両状況判定装置であって、
画像更新周期の1周期内において異なる露光時間で複数の画像を撮像するように前記撮像装置を制御する撮像処理手段と、
前記撮像処理手段による前記撮像装置の制御によって撮像された各前記複数の画像のコントラストが所定範囲内の値であるか否かを判定するコントラスト判定手段と、
前記撮像装置によって撮像された画像に基づいて画像認識処理をおこなう画像認識処理手段と、
前記画像認識処理手段によっておこなわれた画像認識処理の結果に基づいて前記車両の周辺の状況を判定し、該判定の結果に応じて該車両の制動制御が必要である場合に前記車両制御装置へ制動制御信号を出力する車両状況判定処理手段と
を有し、
前記撮像処理手段は、前記画像更新周期の1周期内において、前記コントラスト判定手段によって前記所定の画像のコントラストが所定範囲内の値であると判定される画像が撮像されるまで前記所定の露光時間とそれぞれ異なる露光時間で画像を撮像するように前記撮像装置を制御し、
前記画像認識処理手段は、前記画像更新周期の1周期内において、前記コントラスト判定手段によってコントラストが所定範囲内の値であるとはじめて判定された画像に基づいて画像認識処理をおこなうことを特徴とする車両状況判定装置。
A vehicle control device mounted on the vehicle for determining a situation where the vehicle is placed based on a result of image recognition based on an image around the vehicle imaged by an imaging device provided in the vehicle; A vehicle status determination device capable of communicating via an in-vehicle network,
Imaging processing means for controlling the imaging apparatus so as to capture a plurality of images with different exposure times within one period of an image update period;
Contrast determination means for determining whether or not the contrast of each of the plurality of images captured by the imaging device is controlled by the imaging processing means is a value within a predetermined range;
Image recognition processing means for performing image recognition processing based on an image captured by the imaging device;
A situation around the vehicle is determined based on the result of the image recognition processing performed by the image recognition processing means, and when the braking control of the vehicle is necessary according to the result of the determination, the vehicle control device is referred to. Vehicle condition determination processing means for outputting a braking control signal,
The imaging processing unit is configured to perform the predetermined exposure time until an image in which the contrast determination unit determines that the contrast of the predetermined image is a value within a predetermined range within one cycle of the image update cycle. And controlling the imaging device to capture images with different exposure times,
The image recognition processing means performs image recognition processing based on an image that is determined for the first time that the contrast is a value within a predetermined range by the contrast determination means within one period of the image update period. Vehicle status determination device.
車両に備えられる撮像装置によって撮像された該車両の周辺の画像に基づく画像認識を車載用画像認識装置がおこなう車載用画像認識方法であって、
前記車両に備えられる車載装置から取得される情報に基づいて、画像更新周期の1周期内において異なる露光時間で複数の画像を撮像する必要性があるか否かを判定する複数画像撮像必要性判定ステップと、
前記複数画像撮像必要性判定ステップによって、前記画像更新周期の1周期内において前記異なる前記露光時間で複数の画像を撮像する必要性があると判定された場合に、該画像更新周期の1周期内において該異なる露光時間で複数の画像を撮像するように前記撮像装置を制御する撮像処理ステップと、
前記撮像処理ステップによる前記撮像装置の制御によって撮像された各前記複数の画像のコントラストが所定範囲内の値であるか否かを判定するコントラスト判定ステップと、
前記コントラスト判定ステップによって各前記複数の画像のコントラストが所定範囲内の値であると判定された各前記複数の画像の同一部分の部分画像を抽出し、該複数の画像の同一部分の部分画像から最もコントラストが大きい部分画像をそれぞれ選択する部分画像選択ステップと、
前記部分画像選択ステップによって選択された各前記複数の画像の部分画像を、各前記複数の画像の部分画像のコントラストに応じた重み付け係数を各該部分画像の画素値に乗じて各該複数の画像の部分画像を1つの画像へと合成する画像合成ステップと、
前記画像合成ステップによって合成された前記1つの画像に基づいて画像認識処理をおこなう画像認識処理ステップと
を含むことを特徴とする車載用画像認識方法。
An in-vehicle image recognition method in which an in-vehicle image recognition device performs image recognition based on an image around a vehicle imaged by an imaging device provided in the vehicle,
Multi-image imaging necessity determination that determines whether or not there is a need to capture a plurality of images with different exposure times within one period of an image update period based on information acquired from an in-vehicle device provided in the vehicle Steps,
If it is determined by the multiple image imaging necessity determination step that there is a need to capture a plurality of images at the different exposure times within one cycle of the image update cycle, within one cycle of the image update cycle An imaging processing step of controlling the imaging device so as to capture a plurality of images at the different exposure times,
A contrast determination step for determining whether or not the contrast of each of the plurality of images captured by the control of the imaging device in the imaging processing step is a value within a predetermined range;
Extracting a partial image of the same part of each of the plurality of images, in which the contrast of each of the plurality of images is determined to be a value within a predetermined range by the contrast determination step, from the partial image of the same part of the plurality of images A partial image selection step for selecting each partial image with the highest contrast,
The partial images of the plurality of images selected by the partial image selection step are multiplied by the pixel values of the partial images by a weighting coefficient corresponding to the contrast of the partial images of the plurality of images. An image synthesizing step for synthesizing the partial images into one image;
An in-vehicle image recognition method comprising: an image recognition process step of performing an image recognition process based on the one image synthesized by the image synthesis step.
JP2008010821A 2008-01-21 2008-01-21 Onboard image recognition device, vehicle condition decision device, and onboard image recognition method Withdrawn JP2009177250A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008010821A JP2009177250A (en) 2008-01-21 2008-01-21 Onboard image recognition device, vehicle condition decision device, and onboard image recognition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008010821A JP2009177250A (en) 2008-01-21 2008-01-21 Onboard image recognition device, vehicle condition decision device, and onboard image recognition method

Publications (1)

Publication Number Publication Date
JP2009177250A true JP2009177250A (en) 2009-08-06

Family

ID=41031933

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008010821A Withdrawn JP2009177250A (en) 2008-01-21 2008-01-21 Onboard image recognition device, vehicle condition decision device, and onboard image recognition method

Country Status (1)

Country Link
JP (1) JP2009177250A (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013160530A (en) * 2012-02-01 2013-08-19 Seiko Epson Corp Inspection apparatus, robot apparatus, inspection method, and inspection program
JP2013197892A (en) * 2012-03-19 2013-09-30 Fujitsu Ltd Object recognition apparatus, object recognition method, and computer program for object recognition
JP2015012567A (en) * 2013-07-02 2015-01-19 キヤノン株式会社 Image processor, image processing method, image processing program and imaging device
JP2016032289A (en) * 2014-07-25 2016-03-07 日本電気株式会社 Image synthesis system, image synthesis method, image synthesis program
JP2016052134A (en) * 2015-09-18 2016-04-11 株式会社ニコン Imaging apparatus
JP2018056881A (en) * 2016-09-30 2018-04-05 パナソニックIpマネジメント株式会社 Imaging control device, imaging control method, program and recording medium recording the same
JP2018125585A (en) * 2017-01-30 2018-08-09 アルパイン株式会社 Peripheral situation understanding supporting system
WO2019003736A1 (en) * 2017-06-30 2019-01-03 日立オートモティブシステムズ株式会社 Image processing device
US10279742B2 (en) 2014-05-29 2019-05-07 Nikon Corporation Image capture device and vehicle
JP2019129339A (en) * 2018-01-22 2019-08-01 アルパイン株式会社 Photographed image display system and electronic mirror system
JP2021042977A (en) * 2019-09-06 2021-03-18 株式会社ミツトヨ Image measuring apparatus and image measuring method
WO2022009506A1 (en) * 2020-07-07 2022-01-13 株式会社 東芝 Imaging device
JP7168743B1 (en) 2021-09-03 2022-11-09 レーザーテック株式会社 Image processing device and image processing method
WO2023112642A1 (en) * 2021-12-13 2023-06-22 キヤノン株式会社 Image processing device, image processing method, imaging device, and recording medium

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013160530A (en) * 2012-02-01 2013-08-19 Seiko Epson Corp Inspection apparatus, robot apparatus, inspection method, and inspection program
JP2013197892A (en) * 2012-03-19 2013-09-30 Fujitsu Ltd Object recognition apparatus, object recognition method, and computer program for object recognition
JP2015012567A (en) * 2013-07-02 2015-01-19 キヤノン株式会社 Image processor, image processing method, image processing program and imaging device
US10279742B2 (en) 2014-05-29 2019-05-07 Nikon Corporation Image capture device and vehicle
US11572016B2 (en) 2014-05-29 2023-02-07 Nikon Corporation Image capture device and vehicle
US11220215B2 (en) 2014-05-29 2022-01-11 Nikon Corporation Image capture device and vehicle
US10807532B2 (en) 2014-05-29 2020-10-20 Nikon Corporation Image capture device and vehicle
JP2016032289A (en) * 2014-07-25 2016-03-07 日本電気株式会社 Image synthesis system, image synthesis method, image synthesis program
JP2016052134A (en) * 2015-09-18 2016-04-11 株式会社ニコン Imaging apparatus
US10534240B2 (en) 2016-09-30 2020-01-14 Panasonic Intellectual Property Management Co., Ltd. Imaging control device, imaging control method, and recording medium having same recorded thereon
WO2018061427A1 (en) * 2016-09-30 2018-04-05 パナソニックIpマネジメント株式会社 Imaging control device, imaging control method, program, and recording medium having same recorded thereon
JP2018056881A (en) * 2016-09-30 2018-04-05 パナソニックIpマネジメント株式会社 Imaging control device, imaging control method, program and recording medium recording the same
JP2018125585A (en) * 2017-01-30 2018-08-09 アルパイン株式会社 Peripheral situation understanding supporting system
JP2019012413A (en) * 2017-06-30 2019-01-24 日立オートモティブシステムズ株式会社 Image processing device
WO2019003736A1 (en) * 2017-06-30 2019-01-03 日立オートモティブシステムズ株式会社 Image processing device
JP6991664B2 (en) 2018-01-22 2022-01-12 アルパイン株式会社 Photographed image display system and electronic mirror system
JP2019129339A (en) * 2018-01-22 2019-08-01 アルパイン株式会社 Photographed image display system and electronic mirror system
JP2021042977A (en) * 2019-09-06 2021-03-18 株式会社ミツトヨ Image measuring apparatus and image measuring method
JP7303074B2 (en) 2019-09-06 2023-07-04 株式会社ミツトヨ Image measuring machine and image measuring method
WO2022009506A1 (en) * 2020-07-07 2022-01-13 株式会社 東芝 Imaging device
JP7542342B2 (en) 2020-07-07 2024-08-30 株式会社東芝 Imaging equipment
JP7168743B1 (en) 2021-09-03 2022-11-09 レーザーテック株式会社 Image processing device and image processing method
JP2023037293A (en) * 2021-09-03 2023-03-15 レーザーテック株式会社 Image processor and method for processing image
WO2023112642A1 (en) * 2021-12-13 2023-06-22 キヤノン株式会社 Image processing device, image processing method, imaging device, and recording medium

Similar Documents

Publication Publication Date Title
JP2009177250A (en) Onboard image recognition device, vehicle condition decision device, and onboard image recognition method
KR101367637B1 (en) Monitoring apparatus
JP5071198B2 (en) Signal recognition device, signal recognition method, and signal recognition program
JP6706792B2 (en) In-vehicle display device
CN108650495A (en) A kind of automobile-used panoramic looking-around system and its adaptive light compensation method
JP4952499B2 (en) Image processing device
CN110915204B (en) Image processing apparatus, image processing method, storage medium, and imaging apparatus
CN108063898A (en) Image forming apparatus
JP2006237851A (en) Image input apparatus
US20230342894A1 (en) Converting input image data from a plurality of vehicle cameras of a surround-view system into optimised output image data
TW202101959A (en) Image recognition device and image recognition method
EP3076655A1 (en) Imaging settings changing device, imaging system, and imaging settings changing method
KR101822344B1 (en) Motor vehicle camera device with histogram spreading
JP6478138B2 (en) Image processing apparatus, imaging apparatus, image processing program, and image processing method
JP6168024B2 (en) Captured image display device, captured image display method, and captured image display program
US10102436B2 (en) Image processing device, warning device and method for processing image
JP6327388B2 (en) Captured image display device, captured image display method, and captured image display program
CN109788211B (en) Captured image display system, electronic mirror system, and captured image display method
US20230247284A1 (en) Camera system, movable apparatus, camera system control method, and storage medium
JP7547823B2 (en) Imaging control device, imaging control method and program
JP6311826B2 (en) Captured image display device, captured image display method, and captured image display program
JP2006005621A (en) Imaging device
JP2021175130A (en) In-vehicle display device and in-vehicle display system
KR20230048429A (en) A system to prevent accidents caused by wild animal crossing at dusk and at night
CN116118616A (en) Light supplementing method, electronic device and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101220

A072 Dismissal of procedure [no reply to invitation to correct request for examination]

Free format text: JAPANESE INTERMEDIATE CODE: A073

Effective date: 20120508

A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20120605