JPWO2015045501A1 - External recognition device - Google Patents

External recognition device Download PDF

Info

Publication number
JPWO2015045501A1
JPWO2015045501A1 JP2015538948A JP2015538948A JPWO2015045501A1 JP WO2015045501 A1 JPWO2015045501 A1 JP WO2015045501A1 JP 2015538948 A JP2015538948 A JP 2015538948A JP 2015538948 A JP2015538948 A JP 2015538948A JP WO2015045501 A1 JPWO2015045501 A1 JP WO2015045501A1
Authority
JP
Japan
Prior art keywords
imaging
region
image information
image
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015538948A
Other languages
Japanese (ja)
Inventor
永崎 健
健 永崎
未来 樋口
未来 樋口
亮 太田
亮 太田
達朗 小船
達朗 小船
修之 一丸
修之 一丸
及川 浩隆
浩隆 及川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Astemo Ltd
Original Assignee
Hitachi Automotive Systems Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Automotive Systems Ltd filed Critical Hitachi Automotive Systems Ltd
Publication of JPWO2015045501A1 publication Critical patent/JPWO2015045501A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle

Abstract

1つの単眼カメラまたはステレオカメラによって光学条件が異なる複数の画像を比較して車外環境を認識することが可能な外界認識装置を提供する。
車両に搭載されて車両前方の撮影対象領域の画像情報を取得するカメラ1L,1Rは、第1および第2の撮像領域13a,13bを有する撮像素子13と、第1および第2の撮像領域13a,13bのそれぞれに撮影対象領域の映像を結像させる第1の光学部材11と、第1および第2の撮像領域13a,13bのそれぞれに対して異なる光学条件の光を通過させる第2の光学部材12(例えば偏光フィルタ)とを備える。画像処理部2は、第1の撮像領域13aから得られる第1の画像情報と、第2の撮像領域13bから得られる第2の画像情報とを比較して、撮影対象領域の状態(例えば路面の摩擦係数)を認識する。
Provided is an external environment recognition device capable of recognizing an environment outside a vehicle by comparing a plurality of images having different optical conditions with a single monocular camera or a stereo camera.
Cameras 1L and 1R that are mounted on a vehicle and acquire image information of a region to be photographed in front of the vehicle include an imaging element 13 having first and second imaging regions 13a and 13b, and first and second imaging regions 13a. , 13b, a first optical member 11 that forms an image of the imaging target area, and a second optical element that allows light having different optical conditions to pass through each of the first and second imaging areas 13a, 13b. And a member 12 (for example, a polarizing filter). The image processing unit 2 compares the first image information obtained from the first imaging area 13a with the second image information obtained from the second imaging area 13b, and compares the state of the imaging target area (for example, the road surface). The friction coefficient).

Description

本発明は、車載用の外界認識装置に係り、例えば撮像素子の画像情報に基づいて車外環境を認識する装置に関する。  The present invention relates to an in-vehicle external environment recognition device, for example, an apparatus for recognizing an environment outside a vehicle based on image information of an image sensor.

従来から車両に搭載され、車両の前方の状況を認識するステレオカメラ装置等の外界認識装置が知られている。例えば、近距離から遠距離までのワイドレンジの被写体までの距離を精度良く測定すると共に近距離においても広角レンズで広い視野を確保するステレオカメラ装置およびそれを用いた車外監視装置が開示されている(下記特許文献1を参照)。  2. Description of the Related Art Conventionally, an external recognition device such as a stereo camera device that is mounted on a vehicle and recognizes a situation in front of the vehicle is known. For example, a stereo camera device that accurately measures a distance to a wide-range subject from a short distance to a long distance and secures a wide field of view with a wide-angle lens at a short distance, and a vehicle exterior monitoring device using the stereo camera device are disclosed. (See Patent Document 1 below).

特許文献1に記載のステレオカメラ装置は、近距離用および遠距離用の2つのステレオ画像を得るために左右に配置される第1および第2の撮像部と、遠距離用の画像を処理する第1のカメラ制御部と、近距離用の画像を処理する第2のカメラ制御部とを備えている。  The stereo camera device described in Patent Document 1 processes first and second imaging units arranged on the left and right sides to obtain two stereo images for short distance and long distance, and a long distance image. A first camera control unit and a second camera control unit that processes an image for short distance are provided.

第1の撮像部は、遠距離用の第1の撮像レンズと、近距離用の第2の撮像レンズと、近距離用および遠距離用のそれぞれの撮像領域を有する撮像素子と、各撮像レンズと撮像素子との間に配置されるプリズムおよび偏光ビームスプリッタとを備えている。同様に、第2の撮像部は、遠距離用の第3の撮像レンズと、近距離用の第2の撮像レンズと、近距離用および遠距離用のそれぞれの撮像領域を有する撮像素子と、各撮像レンズと撮像素子との間に配置されたプリズムおよび偏光ビームスプリッタとを備えている。  The first imaging unit includes a first imaging lens for a long distance, a second imaging lens for a short distance, an imaging element having respective imaging regions for a short distance and a long distance, and each imaging lens. And a prism and a polarization beam splitter disposed between the image pickup device and the image pickup device. Similarly, the second imaging unit includes a third imaging lens for a long distance, a second imaging lens for a short distance, and an imaging element having respective imaging regions for a short distance and a long distance, A prism and a polarizing beam splitter are provided between each imaging lens and the imaging element.

各撮像部のプリズムおよび偏光ビームスプリッタは、遠距離用の撮像レンズを透過した光のうち、S偏光成分の光だけを撮像素子の遠距離用の撮像領域に通過させる。また、近距離用の撮像レンズを透過した光のうち、P偏光成分だけを撮像素子の近距離用の撮像領域に通過させる。これにより、第1のカメラ制御部は、各撮像部の撮像素子の遠距離用の撮像領域で撮像された遠距離の被写体の右の画像と左の画像を1枚の画像として合成する。同様に、第2のカメラ制御部は、各撮像部の撮像素子の近距離用の撮像領域で撮像された近距離の被写体の右の画像と左の画像を1枚の画像として合成する。  The prism and the polarization beam splitter of each imaging unit allow only the S-polarized light component of the light transmitted through the long-distance imaging lens to pass through the long-distance imaging region of the imaging device. Further, only the P-polarized light component of the light transmitted through the short-distance imaging lens is passed through the short-distance imaging region of the imaging element. Accordingly, the first camera control unit combines the right image and the left image of the long-distance subject imaged in the long-distance imaging region of the imaging element of each imaging unit as one image. Similarly, the second camera control unit combines the right image and the left image of the short-distance subject imaged in the short-distance imaging region of the imaging element of each imaging unit as one image.

特開昭2010−261877号公報JP 2010-261877 A

特許文献1に記載のステレオカメラ装置は、偏光成分の異なる遠距離の被写体のステレオ画像と近距離の被写体のステレオ画像とを同時に得ることができるが、それぞれの画像で被写体の距離が異なるため、これらの画像を比較して撮影対象領域の状態を認識することは困難である。  The stereo camera device described in Patent Document 1 can simultaneously obtain a stereo image of a long-distance subject with different polarization components and a stereo image of a short-distance subject. It is difficult to recognize the state of the imaging target region by comparing these images.

本発明は、前記課題に鑑みてなされたものであり、光学条件が異なる複数の画像を比較して車外環境を認識することが可能な外界認識装置を提供することを目的とする。  The present invention has been made in view of the above problems, and an object of the present invention is to provide an external environment recognition device capable of recognizing an environment outside a vehicle by comparing a plurality of images having different optical conditions.

前記目的を達成すべく、本発明の外界認識装置は、車両に搭載されて車両前方の撮影対象領域の画像情報を取得するカメラと、該画像情報を処理する画像処理部とを備えた外界認識装置であって、前記カメラは、第1および第2の撮像領域を有する撮像素子と、前記第1および第2の撮像領域のそれぞれに前記撮影対象領域の映像を結像させる第1の光学部材と、前記第1および第2の撮像領域のそれぞれに対して異なる光学条件の光を通過させる第2の光学部材とを備え、前記画像処理部は、前記第1の撮像領域から得られる第1の画像情報と、前記第2の撮像領域から得られる第2の画像情報とを比較して、前記撮影対象領域の状態を認識することを特徴とする。  In order to achieve the above object, an external environment recognition apparatus according to the present invention includes an external camera that is mounted on a vehicle and acquires image information of a shooting target area in front of the vehicle, and an image processing unit that processes the image information. An apparatus, wherein the camera includes an imaging element having first and second imaging areas, and a first optical member that forms an image of the imaging target area on each of the first and second imaging areas. And a second optical member that allows light of different optical conditions to pass through each of the first and second imaging regions, and the image processing unit is a first obtained from the first imaging region. And the second image information obtained from the second imaging area are compared to recognize the state of the imaging target area.

本発明の外界認識装置によれば、光学条件が異なる複数の画像を比較して車外環境を認識することができる。本発明のその他の課題および効果は、以下の実施の形態により明らかにされる。  According to the external environment recognition apparatus of the present invention, the environment outside the vehicle can be recognized by comparing a plurality of images having different optical conditions. Other problems and effects of the present invention will be clarified by the following embodiments.

本発明の実施形態1に係る外界認識装置を備える車載システムの概略構成を示すブロック図。The block diagram which shows schematic structure of a vehicle-mounted system provided with the external field recognition apparatus which concerns on Embodiment 1 of this invention. 図1に示す外界認識装置の画像処理部の概略構成を示すブロック図。The block diagram which shows schematic structure of the image process part of the external field recognition apparatus shown in FIG. 図1に示す外界認識装置のカメラの配置と座標系を示す図。The figure which shows the arrangement | positioning and coordinate system of the camera of the external field recognition apparatus shown in FIG. 図1に示す外界認識装置のカメラの撮影対象領域を示す図。The figure which shows the imaging | photography object area | region of the camera of the external field recognition apparatus shown in FIG. (a)は偏光フィルタを通した撮影対象領域の画像を示す図、(b)は偏光フィルタを通さない撮影対象領域の画像を示す図。(A) is a figure which shows the image of the imaging | photography object area | region which let the polarizing filter pass, (b) is a figure which shows the image of the imaging | photography object area | region which does not pass a polarizing filter. 図1に示す外界認識装置が備えるカメラの説明図。Explanatory drawing of the camera with which the external field recognition apparatus shown in FIG. 1 is provided. 図6に示すカメラによって取得される撮影対象領域の画像の説明図。Explanatory drawing of the image of the imaging | photography object area | region acquired with the camera shown in FIG. (a)および(b)は、図6に示すカメラによって取得される撮影対象領域の画像の一例を示す図。(A) And (b) is a figure which shows an example of the image of the imaging | photography object area | region acquired with the camera shown in FIG. (a)から(c)は、図7に示す撮影対象領域の画像の変形例を示す図。(A) to (c) is a diagram showing a modification of the image of the imaging target region shown in FIG. 本発明の実施形態2に係る外界認識装置の画像処理部の概略構成を示すブロック図。The block diagram which shows schematic structure of the image process part of the external field recognition apparatus which concerns on Embodiment 2 of this invention. 本発明の実施形態2に係る外界認識装置が備えるカメラの説明図。Explanatory drawing of the camera with which the external field recognition apparatus which concerns on Embodiment 2 of this invention is provided. 本発明の実施形態2に係る外界認識装置が備えるカメラによって取得される撮影対象領域の画像を示す図。The figure which shows the image of the imaging | photography object area | region acquired with the camera with which the external field recognition apparatus which concerns on Embodiment 2 of this invention is provided. 撮影対象領域の画像に基づく路面摩擦係数の推定および学習の説明図。Explanatory drawing of the estimation and learning of the road surface friction coefficient based on the image of an imaging | photography object area | region.

以下、図面を参照して本発明の外界認識装置の実施の形態について説明する。  DESCRIPTION OF THE PREFERRED EMBODIMENTS Embodiments of an external environment recognition device according to the present invention will be described below with reference to the drawings.

[実施形態1]
図1は、本発明の実施形態1に係る外界認識装置100を備える車載システムの概略構成を示すブロック図である。図2は、図1に示す外界認識装置100の画像処理部2の概略構成を示すブロック図である。
[Embodiment 1]
FIG. 1 is a block diagram illustrating a schematic configuration of an in-vehicle system including an external environment recognition device 100 according to Embodiment 1 of the present invention. FIG. 2 is a block diagram showing a schematic configuration of the image processing unit 2 of the external environment recognition apparatus 100 shown in FIG.

本実施形態の外界認識装置100は、車両に搭載され、車両前方の撮影対象領域の画像情報に基づいて車外環境を認識する装置である。外界認識装置100は、例えば、路面の濡れ、積雪および模様の識別、歩行者、サイクリストおよび動物と背景との識別、または降雪、降雨、煙霧等の悪天候下における画像処理等に用いられる。  The external environment recognition apparatus 100 according to the present embodiment is an apparatus that is mounted on a vehicle and recognizes the environment outside the vehicle based on image information of a shooting target area in front of the vehicle. The external environment recognition apparatus 100 is used for, for example, road surface wetness, snow accumulation and pattern identification, pedestrians, cyclists and animal / background identification, or image processing under bad weather conditions such as snowfall, rain, and fog.

外界認識装置100は、画像情報を取得する左右に配置された2つのカメラ1L、1Rと、該画像情報を処理する画像処理部2とを備えている。左カメラ1Lおよび右カメラ1Rは、それぞれ、第1の光学部材11と、第2の光学部材12と、撮像素子13とを備えている。撮像素子13は、カメラ1L,1Rの撮影対象領域の映像を画像情報に変換する第1の撮像領域13aおよび第2の撮像領域13bを有している。  The external environment recognition apparatus 100 includes two cameras 1L and 1R arranged on the left and right sides for acquiring image information, and an image processing unit 2 for processing the image information. Each of the left camera 1L and the right camera 1R includes a first optical member 11, a second optical member 12, and an image sensor 13. The imaging element 13 has a first imaging area 13a and a second imaging area 13b that convert the images of the imaging target areas of the cameras 1L and 1R into image information.

第1の光学部材11は、カメラ1L,1Rの光路上に隣接して配置された第1のレンズ11aと第2のレンズ11bにより構成されている。第1のレンズ11aは第2のレンズ11bの一部と光路上で重なるように配置されている。なお、本実施形態において、第1のレンズ11aと第2のレンズ11bとは別の部材とされているが、第1のレンズ11aと第2のレンズ11bを一体的に形成して第1の光学部材11を一部材としてもよい。  The first optical member 11 includes a first lens 11a and a second lens 11b that are arranged adjacent to each other on the optical paths of the cameras 1L and 1R. The first lens 11a is disposed so as to overlap a part of the second lens 11b on the optical path. In the present embodiment, the first lens 11a and the second lens 11b are separate members. However, the first lens 11a and the second lens 11b are integrally formed to form the first lens 11a and the second lens 11b. The optical member 11 may be a single member.

第2の光学部材12は、例えば偏光フィルタであり、所定の偏光成分の光を選択的に透過させる光学フィルタである。第2の光学部材12は、第1の撮像領域13aの光路上に配置され、第2の撮像領域13bの光路上には配置されないことで、第1の撮像領域13aに所定の偏光成分の光L1を通過させ、第2の撮像領域13bに無偏光の光L2を通過させる。すなわち、第2の光学部材12は、第1および第2の撮像領域13a,13bのそれぞれに対して異なる光学条件の光L1,L2を通過させる。  The second optical member 12 is a polarizing filter, for example, and is an optical filter that selectively transmits light of a predetermined polarization component. The second optical member 12 is disposed on the optical path of the first imaging region 13a and is not disposed on the optical path of the second imaging region 13b, so that light of a predetermined polarization component is present in the first imaging region 13a. L1 is allowed to pass, and unpolarized light L2 is allowed to pass through the second imaging region 13b. That is, the second optical member 12 allows the light L1 and L2 having different optical conditions to pass through the first and second imaging regions 13a and 13b, respectively.

第1の光学部材11は、第2の光学部材12を透過した所定の偏光成分の光を第2のレンズ11bに入射させ、撮像素子13の第1の撮像領域13aに撮影対象領域の映像を結像させる。また、第1の光学部材11は、第2の光学部材12を透過しない無偏光の光を、第1のレンズ11aおよび第2のレンズ11bに入射させ、撮像素子13上の第2の撮像領域13bに撮影対象領域の映像を結像させる。  The first optical member 11 causes light of a predetermined polarization component that has passed through the second optical member 12 to enter the second lens 11 b, and the image of the imaging target region is displayed on the first imaging region 13 a of the imaging device 13. Make an image. In addition, the first optical member 11 causes the non-polarized light that does not pass through the second optical member 12 to enter the first lens 11 a and the second lens 11 b, so that the second imaging region on the imaging element 13. An image of the imaging target area is formed on 13b.

すなわち、本実施形態のカメラ1L,1Rは、第1および第2の光学部材11,12が光路上に配置された偏光領域A1と、第1の光学部材11のみが光路上に配置された無偏光領域A2とを有している。また、カメラ1L,1Rは、第1の撮像領域13aには、偏光領域A1を介して撮影対象領域の映像を結像させ、第2の撮像領域13bには、無偏光領域A2を介して撮影対象領域の映像を結像させる。  That is, the cameras 1L and 1R according to the present embodiment include the polarization region A1 in which the first and second optical members 11 and 12 are disposed on the optical path, and the first optical member 11 that is not disposed in the optical path. And a polarization region A2. In addition, the cameras 1L and 1R form an image of the imaging target area on the first imaging area 13a via the polarization area A1, and shoot on the second imaging area 13b via the non-polarization area A2. An image of the target area is formed.

画像処理部2は、カメラ1L,1Rの撮像素子13,13の第1の撮像領域13a,13aから得られる第1の画像情報と、カメラ1L,1Rの撮像素子13,13の第2の撮像領域13b,13bから得られる第2の画像情報とを比較して、カメラ1L,1Rの撮影対象領域の状態を認識する。以下、画像処理部2について詳細に説明する。  The image processing unit 2 includes first image information obtained from the first imaging regions 13a and 13a of the imaging devices 13 and 13 of the cameras 1L and 1R, and second imaging of the imaging devices 13 and 13 of the cameras 1L and 1R. The second image information obtained from the areas 13b and 13b is compared to recognize the state of the shooting target areas of the cameras 1L and 1R. Hereinafter, the image processing unit 2 will be described in detail.

画像処理部2は、ステレオカメラの左カメラ1L、右カメラ1Rとして配置された2つのカメラ1の撮像素子13,13に接続され、図2に示すように、画像処理手段21と、視差処理手段22と、路面推定手段23と、路面μデータ24とを備えている。各手段は、例えば単一または複数のコンピュータユニットにより構成され、相互にデータを交換可能に構成されている。  The image processing unit 2 is connected to the imaging devices 13 of the two cameras 1 arranged as the left camera 1L and the right camera 1R of the stereo camera, and as shown in FIG. 2, the image processing unit 21 and the parallax processing unit 22, road surface estimation means 23, and road surface μ data 24. Each means is composed of, for example, a single or a plurality of computer units, and is configured to be able to exchange data with each other.

画像処理部2は、左右のカメラ1L,1Rの撮像素子13,13の第1の撮像領域13a,13aから出力された信号を、画像処理手段21によって、第1の画像情報に変換する画像処理を行う。第1の画像情報は、左右のカメラ1L,1Rのそれぞれの偏光領域A1を介して撮像素子13の第1の撮像領域13aに結像した撮影対象領域の映像に基づく画像情報であり、第2の光学部材12すなわち偏光フィルタを介した画像情報である。  The image processing unit 2 converts the signals output from the first imaging regions 13a and 13a of the imaging devices 13 and 13 of the left and right cameras 1L and 1R into first image information by the image processing unit 21. I do. The first image information is image information based on the image of the imaging target area formed on the first imaging area 13a of the imaging element 13 via the polarization areas A1 of the left and right cameras 1L and 1R. Image information through the optical member 12, that is, the polarization filter.

画像処理部2は、バス6を介して制御部3、記憶部4および入出力部5に接続されている。制御部3は、画像処理部2、記憶部4および入出力部5を制御する単一または複数のコンピュータユニットにより構成されている。記憶部4は、例えば画像処理部2によって得られた画像情報等を記憶するメモリ等により構成されている。入出力部5は、外界認識装置100から出力された情報を、CAN7を介して自車両の制御システム8に出力する。制御システム8は、外界認識装置100の情報に基づいて、例えば、乗員に警告を発し、自車両の制動を行い、または対象物の回避制御を行うことができる。  The image processing unit 2 is connected to the control unit 3, the storage unit 4, and the input / output unit 5 via the bus 6. The control unit 3 includes a single or a plurality of computer units that control the image processing unit 2, the storage unit 4, and the input / output unit 5. The storage unit 4 is configured by, for example, a memory that stores image information and the like obtained by the image processing unit 2. The input / output unit 5 outputs the information output from the external environment recognition device 100 to the control system 8 of the host vehicle via the CAN 7. For example, the control system 8 can issue a warning to the occupant, brake the host vehicle, or perform avoidance control of the object based on information from the external environment recognition device 100.

画像処理部2は、左右のカメラ1L,1Rの撮像素子13,13の第2の撮像領域13b,13bから出力された信号を、画像処理手段21によって、第2の画像情報に変換する画像処理を行う。第2の画像情報は、左右のカメラ1L,1Rのそれぞれの無偏光領域A2を介して撮像素子13の第2の撮像領域13bに結像した撮影対象領域の映像に基づく画像情報であり、第2の光学部材12すなわち偏光フィルタを介さない画像情報である。  The image processing unit 2 uses the image processing unit 21 to convert the signals output from the second imaging regions 13b and 13b of the imaging devices 13 and 13 of the left and right cameras 1L and 1R into second image information. I do. The second image information is image information based on the image of the imaging target area formed on the second imaging area 13b of the imaging element 13 via the non-polarized areas A2 of the left and right cameras 1L and 1R. The second optical member 12, that is, image information not passing through a polarizing filter.

図3は、図1に示す外界認識装置100のカメラ1L,1Rの配置と座標系を示す図である。外界認識装置100は、左右のカメラ1L,1Rの中間点を原点oとし、水平方向(車幅方向)をx軸、鉛直方向をy軸、自車進行方向をz軸とするxyz直交座標系を用いている。左右のカメラ1L,1Rはそれぞれ、z軸に平行な中心線c1,c2に対称な所定の角度範囲αを撮影対象領域としている。  FIG. 3 is a diagram showing the arrangement and coordinate system of the cameras 1L and 1R of the external environment recognition apparatus 100 shown in FIG. The external recognition apparatus 100 is an xyz orthogonal coordinate system in which an intermediate point between the left and right cameras 1L and 1R is an origin o, a horizontal direction (vehicle width direction) is an x axis, a vertical direction is a y axis, and a traveling direction of the vehicle is a z axis. Is used. The left and right cameras 1L and 1R each have a predetermined angle range α that is symmetrical with respect to the center lines c1 and c2 parallel to the z-axis as an imaging target region.

画像処理部2は、画像処理手段21によって得られた左右のカメラ1L,1Rの第2の光学部材12を介した映像に基づく第1の画像情報同士の視差処理を、視差処理手段22によって行う。すなわち、外界認識装置100は、視差処理手段22によって、左カメラ1Lの撮影対象領域の第1の画像情報と、右カメラ1Rの撮影対象領域の第1の画像情報との間で、撮影対象領域内の同一の点の視差処理を行って、三角測量の原理で撮影対象領域内の各点までの距離を求めることができる構成となっている。  The image processing unit 2 uses the parallax processing unit 22 to perform the parallax processing of the first image information based on the video through the second optical member 12 of the left and right cameras 1L and 1R obtained by the image processing unit 21. . In other words, the external environment recognition apparatus 100 uses the parallax processing unit 22 to perform a shooting target area between the first image information of the shooting target area of the left camera 1L and the first image information of the shooting target area of the right camera 1R. The parallax process of the same point is performed, and the distance to each point in the imaging target region can be obtained by the principle of triangulation.

画像処理部2は、路面の摩擦係数μを推定する路面推定手段23と、路面μ推定辞書としての路面μデータ24とを備えている。路面推定手段23は、画像処理手段21によって得られた第2の光学部材12を介した撮影対象領域の映像に基づく第1の画像情報と、第2の光学部材12を介さない撮影対象領域の映像に基づく第2の画像情報とを取得する。路面μデータ24には、路面推定手段23の演算および学習に基づく、第1の画像情報、第2の画像情報および路面の摩擦係数μの関係が記録されている。路面推定手段23は画像処理手段21から取得した第1および第2の画像情報に基づいて、前記路面μデータ24を参照し、撮影対象領域内の路面の摩擦係数μを推定する。路面推定手段23と路面μデータ24の演算および学習についての詳細は後述する。  The image processing unit 2 includes road surface estimation means 23 for estimating a road friction coefficient μ and road surface μ data 24 as a road surface μ estimation dictionary. The road surface estimation means 23 includes first image information based on the image of the imaging target area via the second optical member 12 obtained by the image processing means 21 and the imaging target area not via the second optical member 12. Second image information based on the video is acquired. In the road surface μ data 24, the relationship between the first image information, the second image information, and the friction coefficient μ of the road surface based on the calculation and learning of the road surface estimation means 23 is recorded. The road surface estimating means 23 refers to the road surface μ data 24 based on the first and second image information acquired from the image processing means 21 and estimates the friction coefficient μ of the road surface in the imaging target area. Details of the calculation and learning of the road surface estimation means 23 and the road surface μ data 24 will be described later.

図4は、左カメラ1Lの撮影対象領域の画像情報P1と、右カメラ1Rの撮影対象領域の画像情報P2との関係を示す図である。ステレオカメラでは、通常、左カメラ1Lの撮影対象領域の画像情報P1と、右カメラ1Rの撮影対象領域の画像情報P2とが重複する領域において視差処理を行っている。すなわち、左カメラ1Lの画像情報P1の右側の領域の画像情報P1aと、右カメラ1Rの画像情報P2の左側の領域の画像情報P2aには、立体視する撮影対象が撮像される。一方、左カメラ1Lの画像情報P1の左側の領域の画像情報P1bと、右カメラ1Rの画像情報P2の右側の領域の画像情報P2bは視差処理が行われず、立体視には用いられない。なお、左右のカメラ1L,1Rの撮影対象は、例えば、路面RS、路面RS上の水、氷、雪またはオイル等の路上要素RE、歩行者およびサイクリストを含む障害物OB、または降雨、降雪、煙霧等の気象現象WP等を含む。  FIG. 4 is a diagram illustrating the relationship between the image information P1 of the shooting target area of the left camera 1L and the image information P2 of the shooting target area of the right camera 1R. In a stereo camera, normally, parallax processing is performed in a region where the image information P1 of the shooting target region of the left camera 1L and the image information P2 of the shooting target region of the right camera 1R overlap. That is, the stereoscopic imaging target is imaged in the image information P1a on the right side of the image information P1 of the left camera 1L and the image information P2a on the left side of the image information P2 of the right camera 1R. On the other hand, the image information P1b of the left region of the image information P1 of the left camera 1L and the image information P2b of the right region of the image information P2 of the right camera 1R are not subjected to parallax processing and are not used for stereoscopic viewing. Note that the imaging targets of the left and right cameras 1L and 1R are, for example, the road surface RS, road elements RE such as water, ice, snow or oil on the road surface RS, obstacles OB including pedestrians and cyclists, or rain, snow, Includes meteorological phenomena WP such as smoke.

図5は、路面の摩擦係数の推定についての説明図であり、(a)は偏光フィルタを通した光に基づく撮影対象領域の画像情報PA1を示す図であり、(b)は偏光フィルタを通していない光に基づく撮影対象領域の画像情報PA2を示す図である。路面推定手段23は、図5(a)に示す偏光フィルタを通した撮影対象領域の画像情報PA1の路上要素REおよび路面RSと、図5(b)に示す偏光フィルタを通した撮影対象領域の画像情報PA1の路上要素REおよび路面RSとに基づき、路面μデータ24を参照する。そして、路面推定手段23は、路面μデータ24の参照結果に基づいて、路面RSおよび路上要素REにおける路面の摩擦係数μを推定する。  FIGS. 5A and 5B are explanatory diagrams for estimating the friction coefficient of the road surface. FIG. 5A is a diagram showing image information PA1 of the imaging target region based on light that has passed through the polarizing filter, and FIG. 5B is not through the polarizing filter. It is a figure which shows the image information PA2 of the imaging | photography object area | region based on light. The road surface estimation means 23 includes the road element RE and the road surface RS of the image information PA1 of the imaging target area that has passed through the polarization filter shown in FIG. 5A and the imaging target area that has passed through the polarization filter shown in FIG. The road surface μ data 24 is referred to based on the road element RE and the road surface RS of the image information PA1. Then, the road surface estimation means 23 estimates the road surface friction coefficient μ on the road surface RS and the road element RE based on the reference result of the road surface μ data 24.

図6は、図1に示す外界認識装置100が備えるカメラの説明図である。前記したように、左右のカメラ1L,1Rの撮影対象領域内の撮像対象RE,RS,OB,WPからの光Lは、左右のカメラ1L,1Rの偏光領域A1において、偏光フィルタである第2の光学部材12を通過する。そして、光学部材12を通過した所定の偏光成分の光L1が、第1の光学部材11の第2のレンズ11bによって集光され、撮像素子13の第1の撮像領域13aに結像する。また、撮像対象RE,RS,OB,WPからの光Lは、左右のカメラ1L,1Rの無偏光領域A2において、偏光フィルタである第2の光学部材12を通過することなく、第1の光学部材11の第1のレンズ11aおよび第2のレンズ11bによって集光され、撮像素子13の第2の撮像領域13bに結像する。これにより、左右のカメラ1L,1Rによって、図7に示すような撮像対象領域の画像情報P1,P2が取得される。  FIG. 6 is an explanatory diagram of a camera provided in the external environment recognition apparatus 100 shown in FIG. As described above, the light L from the imaging targets RE, RS, OB, and WP in the imaging target areas of the left and right cameras 1L and 1R is the polarization filter in the polarization area A1 of the left and right cameras 1L and 1R. Passes through the optical member 12. Then, the light L1 having a predetermined polarization component that has passed through the optical member 12 is collected by the second lens 11b of the first optical member 11, and forms an image on the first imaging region 13a of the imaging element 13. In addition, the light L from the imaging targets RE, RS, OB, and WP does not pass through the second optical member 12 that is a polarization filter in the non-polarization region A2 of the left and right cameras 1L and 1R, and the first optical The light is collected by the first lens 11 a and the second lens 11 b of the member 11, and forms an image on the second imaging region 13 b of the imaging device 13. Thereby, the image information P1, P2 of the imaging target region as shown in FIG. 7 is acquired by the left and right cameras 1L, 1R.

図7は、図6に示す左右のカメラ1L,1Rによって取得される撮影対象領域の画像情報P1,P2の説明図である。左カメラ1Lの撮影対象領域の画像情報P1の右側の領域の画像情報P1aは、偏光領域A1において、左カメラ1Lの撮像素子13の第1の撮像領域13aに結像した映像に基づいている。また、画像情報P1の左側の領域の画像情報P1bは、左カメラ1Lの無偏光領域A2において、撮像素子13の第2の撮像領域13bに結像した映像に基づいている。同様に、右カメラ1Rの撮影対象領域の画像情報P2の左側の領域の画像情報P2aは、偏光領域A1において、右カメラ1Rの撮像素子13の第1の撮像領域13aに結像した映像に基づいている。また、画像情報P1の右側の領域の画像情報P2bは、右カメラ1Lの無偏光領域A2において、撮像素子13の第2の撮像領域13bに結像した映像に基づいている。  FIG. 7 is an explanatory diagram of the image information P1 and P2 of the shooting target area acquired by the left and right cameras 1L and 1R shown in FIG. Image information P1a on the right side of the image information P1 on the imaging target area of the left camera 1L is based on an image formed on the first imaging area 13a of the imaging element 13 of the left camera 1L in the polarization area A1. Further, the image information P1b in the left area of the image information P1 is based on a video image formed in the second imaging area 13b of the imaging element 13 in the non-polarized area A2 of the left camera 1L. Similarly, the image information P2a of the left area of the image information P2 of the imaging target area of the right camera 1R is based on the image formed on the first imaging area 13a of the imaging element 13 of the right camera 1R in the polarization area A1. ing. Further, the image information P2b in the right region of the image information P1 is based on a video image formed on the second imaging region 13b of the imaging device 13 in the non-polarized region A2 of the right camera 1L.

図6および図7に示す例において、前記したように、偏光領域A1は、左カメラ1Lの撮影対象領域の右側と、右カメラの1Rの撮影対象領域の左側に対応して設けられている。また、無偏光領域A2は、左カメラ1Lの撮影対象領域の左側と、右カメラ1Rの撮影対象領域の右側に対応して設けられている。また、左右のカメラ1L,1Rの偏光領域A1の面積は、無偏光領域A2の面積よりも大きくなっている。  In the example shown in FIGS. 6 and 7, as described above, the polarization area A1 is provided corresponding to the right side of the imaging target area of the left camera 1L and the left side of the imaging target area of 1R of the right camera. The non-polarized area A2 is provided corresponding to the left side of the shooting target area of the left camera 1L and the right side of the shooting target area of the right camera 1R. In addition, the area of the polarization region A1 of the left and right cameras 1L and 1R is larger than the area of the non-polarization region A2.

図8(a)および(b)は、図6に示すカメラ1L,1Rによって取得される撮影対象領域の画像情報P1,P2の一例を示す図である。図8(a)に示す例では、左右のカメラ1L,1Rの画像情報P1,P2のうち、第2の光学部材12が配置された偏光領域A1に対応する領域の画像情報P1a,P2aを視差処理に用いている。また、左右のカメラ1L,1Rの画像情報P1,P2のうち、第2の光学部材12が配置されていない無偏光領域A2に対応する領域の画像情報P1bおよびP2bでは、偏光領域A1に対応する領域の画像情報P1a,P2aの撮影対象領域と同一範囲の画像情報を取得している。  FIGS. 8A and 8B are diagrams illustrating examples of image information P1 and P2 of the shooting target area acquired by the cameras 1L and 1R illustrated in FIG. In the example shown in FIG. 8A, among the image information P1 and P2 of the left and right cameras 1L and 1R, the image information P1a and P2a of the region corresponding to the polarization region A1 in which the second optical member 12 is disposed is parallax. Used for processing. Of the image information P1 and P2 of the left and right cameras 1L and 1R, the image information P1b and P2b in the area corresponding to the non-polarized area A2 where the second optical member 12 is not disposed corresponds to the polarized area A1. The image information in the same range as the imaging target area of the area image information P1a and P2a is acquired.

なお、図6に示す左右のカメラ1L,1Rの少なくとも一方の無偏光領域A2の光路上に光学フィルタFL,FRを配置してもよい。この場合、図8(a)に示す、画像情報P1,P2の無偏光領域A2に対応する領域の画像情報P1bおよびP2bの少なくとも一方が、光学フィルタFL,FRを通した光に基づく画像情報となる。光学フィルタFL,FRとしては、例えば、第2の光学部材12と異なる偏光成分を通過させる偏光フィルタ、近赤外フィルタ、または紫外フィルタ等を用いることができる。なお、左右のカメラ1L,1Rの無偏光領域A2に、それぞれ光学フィルタFL,FRを設ける場合には、光学フィルタFL,FRに同じ光学条件の光学フィルタを用いてもよいし、異なる光学条件の光学フィルタを用いてもよい。  Note that the optical filters FL and FR may be arranged on the optical path of at least one non-polarization region A2 of the left and right cameras 1L and 1R shown in FIG. In this case, at least one of the image information P1b and P2b in the region corresponding to the non-polarized region A2 of the image information P1 and P2 shown in FIG. 8A is the image information based on the light that has passed through the optical filters FL and FR. Become. As the optical filters FL and FR, for example, a polarizing filter, a near-infrared filter, an ultraviolet filter, or the like that transmits a polarization component different from that of the second optical member 12 can be used. When the optical filters FL and FR are provided in the non-polarization regions A2 of the left and right cameras 1L and 1R, optical filters with the same optical conditions may be used for the optical filters FL and FR, or different optical conditions may be used. An optical filter may be used.

図8(b)に示す例では、図8(a)に示す例と同様に、左右のカメラ1L,1Rの画像情報P1,P2のうち、第2の光学部材12が配置された偏光領域A1に対応する領域の画像情報P1a,P2aを視差処理に用いている。一方、左右のカメラ1L,1Rの画像情報P1,P2のうち、第2の光学部材12が配置されていない無偏光領域A2に対応する領域の画像情報P1bおよびP2bでは、偏光領域A1に対応する領域の画像情報P1a,P2aの撮影対象領域の左半分の画像情報と右半分の画像情報を取得している。  In the example shown in FIG. 8B, as in the example shown in FIG. 8A, among the image information P1 and P2 of the left and right cameras 1L and 1R, the polarization region A1 in which the second optical member 12 is arranged. The image information P1a and P2a of the area corresponding to is used for the parallax processing. On the other hand, among the image information P1 and P2 of the left and right cameras 1L and 1R, the image information P1b and P2b in the region corresponding to the non-polarized region A2 where the second optical member 12 is not disposed corresponds to the polarized region A1. The image information of the left half and the image information of the right half of the imaging target area of the image information P1a and P2a of the area are acquired.

以上の構成を有する外界認識装置100は、前記したように、ステレオカメラを構成する左右のカメラ1L,1Rによって車両前方の撮影対象領域を撮影し、撮像素子13の第1の撮像領域13aから得られる第1の画像情報P1a,P2aと、第2の撮像領域13bから得られる第2の画像情報P1b,P2bを、画像処理部2によって比較して、撮影対象領域の状態を認識する。したがって、本実施形態の外界認識装置100によれば、ステレオカメラを構成する左右のカメラ1L,1Rによって取得した光学条件が異なる第1の画像情報P1a,P2aと第2の画像情報P1b,P2bとを比較して、車外環境を認識することが可能になる。  As described above, the external environment recognition apparatus 100 having the above configuration captures an imaging target area in front of the vehicle with the left and right cameras 1L and 1R constituting the stereo camera, and obtains it from the first imaging area 13a of the imaging element 13. The first image information P1a and P2a to be obtained and the second image information P1b and P2b obtained from the second imaging region 13b are compared by the image processing unit 2 to recognize the state of the imaging target region. Therefore, according to the external environment recognition apparatus 100 of the present embodiment, the first image information P1a and P2a and the second image information P1b and P2b that are different in the optical conditions acquired by the left and right cameras 1L and 1R constituting the stereo camera, It becomes possible to recognize the environment outside the vehicle.

具体的には、カメラ1L,1Rは、第1および第2の光学部材11,12が光路上に配置された偏光領域A1と、第1の光学部材11が光路上に配置された無偏光領域A2とを有し、撮像素子13の第1の撮像領域13aには、偏光領域A1を介した映像を結像させ、第2の撮像領域13bには、無偏光領域A2を介した映像を結像させる。このようにして、偏光フィルタを介した第1の画像情報P1a,P2aと、偏光フィルタを介していない第2の画像情報P1b,P2bを比較することで、路面RS上の水、氷、積雪、オイル等の路上要素REと、路面RS上の模様とを判別し、路面RSおよび路上要素REの摩擦係数μを推定することが可能になる。  Specifically, the cameras 1L and 1R include a polarization region A1 in which the first and second optical members 11 and 12 are disposed on the optical path, and a non-polarization region in which the first optical member 11 is disposed on the optical path. A2 is formed on the first imaging region 13a of the image sensor 13 through the polarization region A1, and the second imaging region 13b is coupled with the image through the non-polarization region A2. Let me image. In this way, by comparing the first image information P1a and P2a through the polarizing filter and the second image information P1b and P2b through the polarizing filter, water, ice, snow on the road surface RS, It is possible to discriminate the road element RE such as oil and the pattern on the road surface RS and estimate the friction coefficient μ of the road surface RS and the road element RE.

すなわち、画像処理部2は、路面RSの摩擦係数μと第1の画像情報P1a,P2aと第2の画像情報P1b,P2bとの関係を記録した路面μデータ24を備え、第1の画像情報P1a,P2aと第2の画像情報P1b,P2bとに基づいて路面μデータ24を参照し、撮影対象領域内の路面RSおよび路上要素REの摩擦係数μを推定する。これにより、摩擦係数μの低い路面RSおよび路上要素REを認識した場合に、入出力部5を介して情報を出力し、車両の制御システム8によって車両の乗員に警告を発し、車両の制動制御を行い、または危険を回避する回避制御を行うことができる。  That is, the image processing unit 2 includes road surface μ data 24 that records the relationship between the friction coefficient μ of the road surface RS, the first image information P1a and P2a, and the second image information P1b and P2b, and the first image information. Based on P1a and P2a and the second image information P1b and P2b, the road surface μ data 24 is referred to, and the friction coefficient μ of the road surface RS and the road element RE in the imaging target region is estimated. Thus, when the road surface RS and the road element RE having a low friction coefficient μ are recognized, information is output via the input / output unit 5, a warning is given to the vehicle occupant by the vehicle control system 8, and the vehicle braking control is performed. Or avoidance control for avoiding danger can be performed.

また、2つのカメラ1R,1Lが左カメラ1Lおよび右カメラ1Rとして配置され、画像処理部2は、左カメラ1Lによって得られた第1の画像情報P1aと、右カメラ1Rによって得られた第1の画像情報P2aの視差処理を行っている。これにより、車内設備やガラス等による反射光の影響を低減し、撮影対象領域の撮影対象である例えば路上要素RE、歩行者またはサイクリストを含む障害物OB等までの距離を正確に測定することができる。また、偏光領域A1の面積を、無偏光領域A2の面積よりも大きくすることで、視差処理を行う画像情報P1a,P2aを増加させ、より正確な距離の測定が可能になる。  Two cameras 1R and 1L are arranged as a left camera 1L and a right camera 1R, and the image processing unit 2 includes first image information P1a obtained by the left camera 1L and a first image obtained by the right camera 1R. The parallax processing of the image information P2a is performed. Thereby, the influence of the reflected light from in-vehicle equipment or glass can be reduced, and the distance to an obstacle OB including a road element RE, a pedestrian, or a cyclist, which is a subject to be photographed in the photographing target region, can be accurately measured. it can. Further, by making the area of the polarization region A1 larger than the area of the non-polarization region A2, the image information P1a and P2a to be subjected to the parallax processing can be increased, and a more accurate distance measurement can be performed.

さらに、左右のカメラ1L,1Rの少なくとも一方の無偏光領域A2の光路上に光学フィルタFL,FRが配置される場合には、路面RSおよび路上要素REの判別および摩擦係数μの推定だけでなく、より多様な外界認識を行うことが可能になる。  Further, when the optical filters FL and FR are arranged on the optical path of at least one non-polarized region A2 of the left and right cameras 1L and 1R, not only the determination of the road surface RS and the road element RE and the estimation of the friction coefficient μ are performed. This makes it possible to perform more diverse recognition of the outside world.

例えば、左右のカメラ1L,1Rの一方の無偏光領域A2の光路上に配置される光学フィルタFLまたはFRに近赤外フィルタを用いることができる。この場合、例えば図8(a)に示す例において、第2の画像情報P1b,P2bのいずれか一方の近赤外フィルタを介した画像情報と、もう一方の近赤外フィルタを介していない画像情報とを比較して歩行者、サイクリスト、動物等の検知と衝突防止機能の高度化および高精度化を実現することができる。  For example, a near-infrared filter can be used for the optical filter FL or FR disposed on the optical path of one non-polarization region A2 of the left and right cameras 1L and 1R. In this case, for example, in the example shown in FIG. 8A, the image information through one of the near-infrared filters of the second image information P1b and P2b and the image not through the other near-infrared filter. By comparing with information, it is possible to detect pedestrians, cyclists, animals, etc., and to improve the accuracy and accuracy of the collision prevention function.

また、左右のカメラ1L,1Rの少なくとも一方の無偏光領域A2の光路上に配置される光学フィルタFL,FRとして、近赤外フィルタ、赤外フィルタ、紫外フィルタ等を用いることができる。この場合、例えば、降雨、降雪、煙霧等の悪天候環境下において、光の波長帯ごとの散乱係数が相違することを利用して、理想的な画像と実際に撮像された画像との間の散乱係数を推定することができる。さらに、推定した散乱係数に対する逆演算を施すことで、高品質の画像を得ることが可能になる。また、左右のカメラ1L,1Rの光学フィルタFL,FRの光学条件を異ならせることで、より多様な推定が可能になる。この場合には、偏光フィルタだけでなく、近赤外フィルタ、赤外フィルタ、紫外フィルタを用いて煙霧除去を行うことができる。  Moreover, a near infrared filter, an infrared filter, an ultraviolet filter, etc. can be used as the optical filters FL and FR arranged on the optical path of at least one non-polarization region A2 of the left and right cameras 1L and 1R. In this case, for example, in an adverse weather environment such as rain, snow, haze, etc., the scattering between the ideal image and the actually captured image is made using the fact that the scattering coefficient for each wavelength band of light is different. The coefficient can be estimated. Furthermore, a high quality image can be obtained by performing an inverse operation on the estimated scattering coefficient. Further, by making the optical conditions of the optical filters FL and FR of the left and right cameras 1L and 1R different, more various estimations are possible. In this case, not only the polarizing filter but also the fume removal can be performed using a near infrared filter, an infrared filter, and an ultraviolet filter.

また、第1の光学部材11は、第1および第2のレンズ11a,11bを備え、偏光領域A1の光路上に第1のレンズ11aおよび第2の光学部材12が配置され、無偏光領域A2の光路上に第1のレンズ11aおよび第2のレンズ11bが配置されている。このような構成を採用することで、カメラ1L,1Rの製造を容易にして、製造コストを低減することができる。  The first optical member 11 includes first and second lenses 11a and 11b, the first lens 11a and the second optical member 12 are disposed on the optical path of the polarization region A1, and the non-polarization region A2. The first lens 11a and the second lens 11b are arranged on the optical path. By adopting such a configuration, the cameras 1L and 1R can be easily manufactured and the manufacturing cost can be reduced.

以上説明したように、本実施形態の外界認識装置100によれば、ステレオカメラによって光学条件が異なる複数の画像を比較して車外環境を認識することができる。  As described above, according to the external environment recognition apparatus 100 of the present embodiment, it is possible to recognize the environment outside the vehicle by comparing a plurality of images having different optical conditions depending on the stereo camera.

なお、本実施形態の外界認識装置100では、図6、図7、図8(a)および(b)に示すように、無偏光領域A2に対応する領域の画像情報P1b,P2bを左カメラ1Lの画像情報P1の左側と右カメラ1Rの画像情報P2の右側に配置する構成としたが、必ずしもこの構成に限定されない。図9(a)、(b)および(c)にその変形例を示す。  In the external environment recognition apparatus 100 of the present embodiment, as shown in FIGS. 6, 7, 8A and 8B, the image information P1b and P2b of the area corresponding to the non-polarized area A2 is stored in the left camera 1L. The image information P1 is arranged on the left side of the image information P1 and on the right side of the image information P2 of the right camera 1R. 9 (a), 9 (b) and 9 (c) show modifications thereof.

図6に示す例において、偏光領域A1は左右のカメラ1L,1Rの撮影対象領域の右側および左側に対応して設けられている。しかし、偏光領域A1は、左右のカメラ1L,1Rの撮影対象領域の上側に対応して設けられ、無偏光領域A2は、左右のカメラ1L,1Rの撮影対象領域の下側に対応して設けられてもよい。  In the example shown in FIG. 6, the polarization areas A1 are provided corresponding to the right and left sides of the imaging target areas of the left and right cameras 1L and 1R. However, the polarization area A1 is provided corresponding to the upper side of the imaging target areas of the left and right cameras 1L and 1R, and the non-polarization area A2 is provided corresponding to the lower side of the imaging target areas of the left and right cameras 1L and 1R. May be.

これにより、図9(a)に示すように、偏光領域A1に対応する画像情報P1a,P2aが左右のカメラ1L,1Rの撮影対象領域の画像情報P1,P2の上側に配置される。一方、無偏光領域A2に対応する画像情報P1b,P2bは、左右のカメラ1L,1Rの撮影対象領域の画像情報P1,P2の下側に配置される。画像情報P1,P2の下側の領域は、車両に接近した領域の画像情報であり、通常は視差処理に用いられないため、この領域を有効に活用することが可能になる。  As a result, as shown in FIG. 9A, the image information P1a and P2a corresponding to the polarization area A1 is arranged above the image information P1 and P2 of the imaging target areas of the left and right cameras 1L and 1R. On the other hand, the image information P1b and P2b corresponding to the non-polarized area A2 is arranged below the image information P1 and P2 of the shooting target areas of the left and right cameras 1L and 1R. The lower area of the image information P1 and P2 is image information of an area approaching the vehicle and is not normally used for parallax processing, so that it is possible to effectively use this area.

また、偏光領域A1は、左右のカメラ1L,1Rの撮影対象領域の下側に対応して設けられ、無偏光領域A2は、左右のカメラ1L,1Rの撮影対象領域の上側に対応して設けられてもよい。これにより、図9(b)に示すように、偏光領域A1に対応する画像情報P1a,P2aが左右のカメラ1L,1Rの撮影対象領域の画像情報P1,P2の下側に配置される。一方、無偏光領域A2に対応する画像情報P1b,P2bは、左右のカメラ1L,1Rの撮影対象領域の画像情報P1,P2の上側に配置される。画像情報P1,P2の上側の領域は、車両前方の空に対応する画像情報であり、通常は視差処理に用いられないため、この領域を有効に活用することが可能になる。  The polarization area A1 is provided corresponding to the lower side of the imaging target areas of the left and right cameras 1L and 1R, and the non-polarization area A2 is provided corresponding to the upper side of the imaging target areas of the left and right cameras 1L and 1R. May be. As a result, as shown in FIG. 9B, the image information P1a and P2a corresponding to the polarization area A1 is arranged below the image information P1 and P2 of the imaging target areas of the left and right cameras 1L and 1R. On the other hand, the image information P1b and P2b corresponding to the non-polarized area A2 is arranged above the image information P1 and P2 of the shooting target areas of the left and right cameras 1L and 1R. The upper areas of the image information P1 and P2 are image information corresponding to the sky ahead of the vehicle, and are not normally used for parallax processing, so that these areas can be used effectively.

また、図7、図9(a)および図9(b)に示す画像情報P1a,P2aおよび画像情報P1b,P2bの配置は、適宜組み合わせることができる。例えば、図9(c)に示すように、偏光領域A1に対応する画像情報P1a,P2aを左右のカメラ1L,1Rの画像情報P1,P2の下側の右側および左側に配置し、無偏光領域A2に対応する画像情報P1b,P2bを左右のカメラ1L,1Rの画像情報P1,P2の上側と、左側および右側に配置することができる。これにより、通常は視差処理に用いられない領域を有効に活用することが可能になる。  Further, the arrangement of the image information P1a and P2a and the image information P1b and P2b shown in FIGS. 7, 9A, and 9B can be appropriately combined. For example, as shown in FIG. 9C, the image information P1a and P2a corresponding to the polarization region A1 are arranged on the lower right side and the left side of the image information P1 and P2 of the left and right cameras 1L and 1R, and the non-polarization region The image information P1b and P2b corresponding to A2 can be arranged on the upper side, the left side and the right side of the image information P1 and P2 of the left and right cameras 1L and 1R. As a result, it is possible to effectively use a region that is not normally used for parallax processing.

[実施形態2]
次に、本発明の外界認識装置の実施形態2について、図1を援用し、図10から図12を用いて説明する。
[Embodiment 2]
Next, Embodiment 2 of the external recognition apparatus of the present invention will be described with reference to FIGS. 10 to 12 with reference to FIG.

図10は、本発明の実施形態2に係る外界認識装置100Bの画像処理部2Bの概略構成を示すブロック図である。図11は、本実施形態の外界認識装置100Bが備える単眼カメラ1の説明図である。図12は、本実施形態の外界認識装置100Bが備える単眼カメラ1によって取得される撮影対象領域の画像を示す図である。  FIG. 10 is a block diagram illustrating a schematic configuration of the image processing unit 2B of the external environment recognition device 100B according to the second embodiment of the present invention. FIG. 11 is an explanatory diagram of the monocular camera 1 provided in the external environment recognition device 100B of the present embodiment. FIG. 12 is a diagram illustrating an image of the imaging target area acquired by the monocular camera 1 provided in the external environment recognition device 100B of the present embodiment.

本実施形態の外界認識装置100Bは、左右のカメラ1L,1Rからなるステレオカメラを備えず、図1に示す左カメラ1Lまたは右カメラ1Rと同様の構成の1つの単眼カメラ1を備える点で、実施形態1の外界認識装置100と異なっている。また、本実施形態の外界認識装置100Bが備える画像処理部2Bは、視差処理手段22に代えて、物体認識処理手段22Bを備えている。その他の点は同一であるので、同一の部分は同一の符号を付して説明は省略する。  The external environment recognition device 100B of the present embodiment does not include a stereo camera composed of left and right cameras 1L and 1R, but includes one monocular camera 1 having the same configuration as the left camera 1L or the right camera 1R shown in FIG. This is different from the external environment recognition apparatus 100 of the first embodiment. Further, the image processing unit 2B included in the external environment recognition device 100B of the present embodiment includes an object recognition processing unit 22B instead of the parallax processing unit 22. Since the other points are the same, the same parts are denoted by the same reference numerals and description thereof is omitted.

本実施形態の外界認識装置100Bが備える単眼カメラ1は、図11に示すように、撮像素子13の第1および第2の撮像領域13a,13bのそれぞれに撮影対象領域の映像を結像させる第1の光学部材11を備えている。また、単眼カメラ1は、撮像素子13の第1および第2の撮像領域13a,13bのそれぞれに対して異なる光学条件の光を通過させる第2の光学部材12を備えている。第1の光学部材11は複数の第1のレンズ11aを備えている。本実施形態においては、例えば2つの第1のレンズ11a,11aが第2の光学部材12のy方向両側に配置されている。また、撮像素子13は、第1の撮像領域13aのy方向両側にそれぞれ第2の撮像領域13bを備えている。  As shown in FIG. 11, the monocular camera 1 provided in the external environment recognition device 100 </ b> B of the present embodiment forms a first image of the imaging target region on each of the first and second imaging regions 13 a and 13 b of the imaging device 13. 1 optical member 11 is provided. The monocular camera 1 also includes a second optical member 12 that allows light of different optical conditions to pass through each of the first and second imaging regions 13a and 13b of the imaging device 13. The first optical member 11 includes a plurality of first lenses 11a. In the present embodiment, for example, two first lenses 11 a and 11 a are arranged on both sides of the second optical member 12 in the y direction. In addition, the imaging element 13 includes second imaging regions 13b on both sides in the y direction of the first imaging region 13a.

以上の構成を有する外界認識装置100Bは、単眼カメラ1によって車両前方の撮影対象領域を撮影し、画像処理部2Bの物体認識処理手段22Bによって、撮像対象RE,RS,OB,WPを認識する。そして、図12に示すように、第1の撮像領域13aから得られる第1の画像情報P1aと、第2の撮像領域から得られる第2の画像情報P1bとを、実施形態1と同様に比較して、撮影対象領域の状態を認識する。したがって、本実施形態の外界認識装置100Bによれば、実施形態1の外界認識装置100と同様に、単眼カメラ1によって取得した光学条件が異なる第1の画像情報P1aと第2の画像情報P1bとを比較して、車外環境を認識することが可能になる。  The external environment recognition apparatus 100B having the above configuration captures an imaging target area in front of the vehicle with the monocular camera 1, and recognizes the imaging targets RE, RS, OB, and WP with the object recognition processing unit 22B of the image processing unit 2B. Then, as shown in FIG. 12, the first image information P1a obtained from the first imaging area 13a and the second image information P1b obtained from the second imaging area are compared in the same manner as in the first embodiment. Then, the state of the imaging target area is recognized. Therefore, according to the external environment recognition device 100B of the present embodiment, the first image information P1a and the second image information P1b obtained by the monocular camera 1 with different optical conditions are the same as the external environment recognition device 100 of the first embodiment. It becomes possible to recognize the environment outside the vehicle.

[路面摩擦係数の推定および学習]
最後に、前述した実施形態1及び2に共通する撮影対象領域の第1の画像情報P1a,P2bおよび第2の画像情報P1b,P2bに基づく路面摩擦係数の推定および学習について説明する。図13は、路面μデータ24を用いた路面摩擦係数の推定および学習の説明図である。図13および以下の表1は、路面の摩擦係数μ(以下、路面μともいう)の推定に必要となる路面μ推定辞書(以下、路面μデータ24という)を学習するための仕組みを述べている。ここでは、自動微分を使った学習手法について主に説明する。
[Estimation and learning of road friction coefficient]
Finally, estimation and learning of the road surface friction coefficient based on the first image information P1a and P2b and the second image information P1b and P2b of the imaging target area common to the first and second embodiments will be described. FIG. 13 is an explanatory diagram of the estimation and learning of the road surface friction coefficient using the road surface μ data 24. FIG. 13 and Table 1 below describe a mechanism for learning a road surface μ estimation dictionary (hereinafter referred to as road surface μ data 24) necessary for estimating a road surface friction coefficient μ (hereinafter also referred to as road surface μ). Yes. Here, a learning method using automatic differentiation will be mainly described.

Figure 2015045501
Figure 2015045501

一般に、画像中の特定パタンを認識するための路面μデータ24を学習する場合の過程は次のようになる。まず、図13に示すように、例えば第1の画像情報P1a,P2bおよび第2の画像情報P1b,P2b等の画像・原信号S1,S2,…に対して、路面μデータ24に記憶されている各種パラメータを加えて、各種ベクトル演算、行列演算、自己相関演算、畳込み演算などの演算OPを行い、未知パタンのカテゴリが何であるかを判定した結果を出力して、その正誤を検証する。自動微分AD(Automatic Differentiation)は、この計算過程を支える基本的な数値演算体系である。  In general, the process for learning the road surface μ data 24 for recognizing a specific pattern in an image is as follows. First, as shown in FIG. 13, for example, image / original signals S1, S2,... Such as first image information P1a, P2b and second image information P1b, P2b are stored in the road surface μ data 24. In addition to various parameters, various vector operations, matrix operations, autocorrelation operations, convolution operations, and other operations OP are performed, and the result of determining what the unknown pattern category is is output to verify its correctness . Automatic differentiation AD (Automatic Differentiation) is a basic numerical operation system that supports this calculation process.

自動微分ADでは「数」と「演算」を独自に定義する。表1に、自動微分ADで用いる演算関数例を示している。ここで、プログラム中にある全変数の内、n個の変数が偏微分の対象であるとする。このとき「数」の構造は次のベクトルで表される。  In automatic differential AD, “number” and “calculation” are uniquely defined. Table 1 shows examples of arithmetic functions used in automatic differentiation AD. Here, it is assumed that n variables out of all variables in the program are objects of partial differentiation. At this time, the structure of “number” is represented by the following vector.

Figure 2015045501
Figure 2015045501

ここで、vは関数の値を保持する場所である。また、dk(k=1〜n)は関数を第k番目の変数で偏微分した時の値を保持する場所である。自動微分では上記構造を持つ数を上記の式(1)で表されるAD数として、これに基づいて各種の演算を行う。各種演算の詳細な過程は表1に示されており、ここに示すように微分関数の推移律を使うことで、全ての関数計算の過程において、値の計算と偏微分関数値の計算とを同時に進めることができるのが、自動微分である。  Here, v is a place where a function value is held. Dk (k = 1 to n) is a place for holding a value when the function is partially differentiated by the k-th variable. In automatic differentiation, a number having the above structure is used as an AD number represented by the above formula (1), and various calculations are performed based on the AD number. The detailed process of various operations is shown in Table 1. By using the transition function of the differential function as shown here, the calculation of the value and the calculation of the partial differential function value are performed in the process of all the function calculations. Automatic differentiation can be performed at the same time.

このような機構を導入するのは、学習プロセスによる認識辞書のパラメータ調整を、目的や状況に合わせて柔軟に構成することができるためである。例えば、路面μ推定に関しては、例えば第1の画像情報P1a,P2bおよび第2の画像情報P1b,P2bのように、偏光フィルタ有の画像、偏光フィルタ無の画像など複数の画像を原信号S1,S2,…として扱う。学習に用いるそれぞれ画像については、それがどのようなシチュエーションであるか、例えば濡れた路面か、氷結した路面か、雪面であるか、濡れたのと紛らわしい路面の汚れであるのか、および当該シチュエーションにおける路面μ値の実測値が正解情報として付属している。これを元に、画像間の画素の単純な比較や、フーリエ変換などのフィルタを掛けた後の係数の比較、認識辞書に記されたパラメータによる各種画像演算に対する重み付け、演算結果の数値の大小比較などを行い、最終的に路面状態と、その路面μ値を算出し、学習データに対して正解情報になるべく近くなるように、パラメータを微調整するのが学習プロセスである。  The reason for introducing such a mechanism is that the parameter adjustment of the recognition dictionary by the learning process can be flexibly configured according to the purpose and situation. For example, regarding the road surface μ estimation, a plurality of images such as an image with a polarization filter and an image without a polarization filter, such as the first image information P1a and P2b and the second image information P1b and P2b, are converted into the original signals S1, Treat as S2, ... For each image used for learning, what kind of situation it is, for example, whether it is a wet road surface, an icy road surface, a snow surface, or dirt on the road surface that is misleading to be wet, and the situation The measured value of the road surface μ value at is attached as correct answer information. Based on this, simple comparison of pixels between images, comparison of coefficients after applying a filter such as Fourier transform, weighting for various image operations based on parameters written in the recognition dictionary, and comparison of numerical values of the operation results In the learning process, the road surface condition and the road surface μ value are finally calculated, and the parameters are finely adjusted so as to be as close as possible to the correct answer information with respect to the learning data.

学習プロセスにおいては、路面μデータ24を更新する際に、自動計算した判別結果と、正解情報とがどれだけ異なるかを評価して、このギャップがなるべく小さくなるように調整するが、一般に、この判別結果を自動計算するプロセスと、正解情報とのギャップを計算するプロセスは、全てif文などの条件分岐や算術演算を含むプログラムとして書くことができる。その際に、値の計算と偏微分関数値の計算が同時に処理できる自動微分機構が役に立つ。自動微分機構を使うと、プログラムで書いた計算プロセスにより、目的とする数値(例えば路面μの推定値)が得られるが、この数値と同時に、計算で使ったパラメータに対する偏微分関数値が同時に求まる。従って、計算した数値(路面μの推定値)と正解情報の間に誤差が大きい場合は、計算で使った各パラメータに対して、当該パラメータに対応する偏微分関数値に比例した負のフィードバックを与えることで、正解情報とのギャップを小さくなるようにパラメータの微調整量が計算できる。この結果として、路面μデータ24に含まれるパラメータの更新と学習が可能になる。  In the learning process, when the road surface μ data 24 is updated, the difference between the automatically calculated determination result and the correct answer information is evaluated, and the gap is adjusted to be as small as possible. The process of automatically calculating the discrimination result and the process of calculating the gap between the correct answer information can all be written as a program including conditional branches such as an if statement and arithmetic operations. In that case, the automatic differentiation mechanism that can process the value calculation and the partial differential function value calculation at the same time is useful. When the automatic differentiation mechanism is used, the target numerical value (for example, the estimated value of the road surface μ) is obtained by the calculation process written in the program. At the same time, the partial differential function value for the parameter used in the calculation is obtained simultaneously. . Therefore, if there is a large error between the calculated value (estimated value of the road surface μ) and the correct answer information, for each parameter used in the calculation, negative feedback proportional to the partial differential function value corresponding to the parameter is given. By giving, the fine adjustment amount of the parameter can be calculated so as to reduce the gap with the correct answer information. As a result, it is possible to update and learn the parameters included in the road surface μ data 24.

上記のようにパラメータを微調整する方法を勾配法と称する。勾配法では目標関数の偏微分関数値が必要になる。路面μ推定では、偏光フィルタ無と偏光フィルタ有の画像と、当該画像に対する路面の正解情報とが入力となり、認識辞書(路面μデータ24)に記されたパラメータを参照にして、入力画像に対する路面μ値を計算し、それと正解との誤差を最小化することが目的関数となる。この目標の関数は、学習シチュエーションによって、しばしば変更される。例えば、偏光フィルタに加えて、他のフィルタ(赤外線や紫外線フィルタ等)を使う場合は、入力する画像が3つ以上に増えることになる。このような条件変更があっても、自動微分を使えば、目的関数をプログラムとして書くだけで、関数の計算値とパラメータが求まるため、勾配法による学習が容易に行える。  The method of finely adjusting the parameters as described above is called a gradient method. In the gradient method, the partial differential function value of the target function is required. In the road surface μ estimation, an image without a polarization filter and an image with a polarization filter and road surface correct information for the image are input, and the road surface for the input image is referred to with reference to the parameters described in the recognition dictionary (road surface μ data 24). The objective function is to calculate the μ value and minimize the error between it and the correct answer. This goal function is often changed by learning situations. For example, when other filters (infrared rays, ultraviolet filters, etc.) are used in addition to the polarizing filter, the number of input images increases to three or more. Even if such a condition change is made, if automatic differentiation is used, the calculation value and parameters of the function can be obtained simply by writing the objective function as a program, so that learning by the gradient method can be easily performed.

以上、図面を用いて本発明の実施の形態を詳述してきたが、具体的な構成はこの実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲における設計変更等があっても、それらは本発明に含まれるものである。  The embodiment of the present invention has been described in detail with reference to the drawings, but the specific configuration is not limited to this embodiment, and there are design changes and the like without departing from the gist of the present invention. They are also included in the present invention.

例えば、前述の実施形態では、第1の光学部材としてレンズを用いる場合について説明したが、第1の光学部材としてミラー、プリズム、ビームスプリッタを含むその他の光学部材を用いてもよい。  For example, in the above-described embodiment, the case where a lens is used as the first optical member has been described. However, other optical members including a mirror, a prism, and a beam splitter may be used as the first optical member.

1 カメラ
1L 左カメラ(カメラ)
1R 右カメラ(カメラ)
2,2B 画像処理部
11 第1の光学部材
11a 第1のレンズ
11b 第2のレンズ
12 第2の光学部材
13 撮像素子
13a 第1の撮像領域
13b 第2の撮像領域
24 路面μデータ
100,100B 外界認識装置
A1 偏光領域
A2 無変更領域
FL,FR 光学フィルタ
P1,P2 画像情報
P1a,P2a 第1の画像情報
P1b,P2b 第2の画像情報
L,L1,L2 光
RS 路面
1 Camera 1L Left camera (camera)
1R Right camera (camera)
2, 2B Image processing unit 11 First optical member 11a First lens 11b Second lens 12 Second optical member 13 Imaging element 13a First imaging region 13b Second imaging region 24 Road surface μ data 100, 100B External recognition device A1 Polarization region A2 Unchanged region FL, FR Optical filters P1, P2 Image information P1a, P2a First image information P1b, P2b Second image information L, L1, L2 Optical RS Road surface

Claims (11)

車両に搭載されて車両前方の撮影対象領域の画像情報を取得するカメラと、該画像情報を処理する画像処理部とを備えた外界認識装置であって、
前記カメラは、第1および第2の撮像領域を有する撮像素子と、前記第1および第2の撮像領域のそれぞれに前記撮影対象領域の映像を結像させる第1の光学部材と、前記第1および第2の撮像領域のそれぞれに対して異なる光学条件の光を通過させる第2の光学部材とを備え、
前記画像処理部は、前記第1の撮像領域から得られる第1の画像情報と、前記第2の撮像領域から得られる第2の画像情報とを比較して、前記撮影対象領域の状態を認識することを特徴とする外界認識装置。
An external environment recognition apparatus including a camera mounted on a vehicle to acquire image information of a shooting target region in front of the vehicle, and an image processing unit that processes the image information,
The camera includes an imaging element having first and second imaging areas, a first optical member that forms an image of the imaging target area in each of the first and second imaging areas, and the first And a second optical member that transmits light of different optical conditions for each of the second imaging regions,
The image processing unit compares the first image information obtained from the first imaging area with the second image information obtained from the second imaging area, and recognizes the state of the imaging target area. An external environment recognition device characterized by:
前記カメラは、前記第1および第2の光学部材が光路上に配置された偏光領域と、前記第1の光学部材が光路上に配置された無偏光領域とを有し、
前記第1の撮像領域には、前記偏光領域を介して前記映像を結像させ、
前記第2の撮像領域には、前記無偏光領域を介して前記映像を結像させることを特徴とする請求項1に記載の外界認識装置。
The camera includes a polarization region in which the first and second optical members are disposed on an optical path, and a non-polarization region in which the first optical member is disposed on an optical path,
In the first imaging region, the image is imaged through the polarization region,
The external environment recognition device according to claim 1, wherein the image is formed on the second imaging region through the non-polarized region.
前記画像処理部は、路面の摩擦係数と前記第1および第2の画像情報との関係を記録した路面μデータを備え、前記第1および第2の画像情報とに基づいて前記路面μデータを参照し、前記撮影対象領域の状態として路面の摩擦係数を認識することを特徴とする請求項2に記載の外界認識装置。  The image processing unit includes road surface μ data in which a relationship between a friction coefficient of a road surface and the first and second image information is recorded, and the road surface μ data is obtained based on the first and second image information. 3. The external environment recognition apparatus according to claim 2, wherein a friction coefficient of a road surface is recognized as a state of the imaging target region with reference to the external environment recognition device. 2つの前記カメラを左カメラおよび右カメラとして配置し、
前記画像処理部は、前記左カメラによって得られた前記第1の画像情報と、前記右カメラによって得られた前記第1の画像情報の視差処理を行うことを特徴とする請求項2または請求項3に記載の外界認識装置。
Arrange the two cameras as left camera and right camera,
The said image processing part performs the parallax process of the said 1st image information obtained by the said left camera, and the said 1st image information obtained by the said right camera, The Claim 2 or Claim characterized by the above-mentioned. 3. An external recognition apparatus according to 3.
前記左および右カメラの少なくとも一方の前記無偏光領域の光路上に光学フィルタが配置されることを特徴とする請求項4に記載の外界認識装置。  The external environment recognition device according to claim 4, wherein an optical filter is disposed on an optical path of the non-polarized region of at least one of the left and right cameras. 前記左および右カメラの前記光学フィルタは、光学条件が異なることを特徴とする請求項5に記載の外界認識装置。  The external environment recognition apparatus according to claim 5, wherein the optical filters of the left and right cameras have different optical conditions. 前記偏光領域は、前記左カメラの前記撮影対象領域の右側と、前記右カメラの前記撮影対象領域の左側に対応して設けられ、
前記無偏光領域は、前記左カメラの前記撮影対象領域の左側と、前記右カメラの前記撮影対象領域の右側に対応して設けられることを特徴とする請求項4に記載の外界認識装置。
The polarization region is provided corresponding to the right side of the shooting target region of the left camera and the left side of the shooting target region of the right camera,
5. The external environment recognition device according to claim 4, wherein the non-polarized region is provided corresponding to a left side of the shooting target region of the left camera and a right side of the shooting target region of the right camera.
前記偏光領域は、前記左および右カメラの前記撮影対象領域の下側に対応して設けられ、
前記無偏光領域は、前記左および右カメラの前記撮影対象領域の上側に対応して設けられることを特徴とする請求項4に記載の外界認識装置。
The polarization region is provided corresponding to the lower side of the shooting target region of the left and right cameras,
The external environment recognition device according to claim 4, wherein the non-polarized region is provided corresponding to an upper side of the shooting target region of the left and right cameras.
前記偏光領域は、前記左および右カメラの前記撮影対象領域の上側に対応して設けられ、
前記無偏光領域は、前記左および右カメラの前記撮影対象領域の下側に対応して設けられることを特徴とする請求項4に記載の外界認識装置。
The polarization region is provided corresponding to the upper side of the shooting target region of the left and right cameras,
The external environment recognition device according to claim 4, wherein the non-polarization region is provided corresponding to a lower side of the photographing target region of the left and right cameras.
前記偏光領域の面積は、前記無偏光領域の面積よりも大きいことを特徴とする請求項4に記載の外界認識装置。  The external environment recognition device according to claim 4, wherein an area of the polarization region is larger than an area of the non-polarization region. 前記第1の光学部材は、第1および第2のレンズを備え、
前記偏光領域の光路上に前記第1のレンズおよび前記第2の光学部材が配置され、
前記無偏光領域の光路上に前記第1のレンズおよび第2のレンズが配置されていることを特徴とする請求項2から請求項10のいずれか1項に記載の外界認識装置。
The first optical member includes first and second lenses,
The first lens and the second optical member are disposed on an optical path of the polarization region;
The external environment recognition device according to any one of claims 2 to 10, wherein the first lens and the second lens are arranged on an optical path of the non-polarization region.
JP2015538948A 2013-09-27 2014-06-13 External recognition device Pending JPWO2015045501A1 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2013201555 2013-09-27
JP2013201555 2013-09-27
PCT/JP2014/065667 WO2015045501A1 (en) 2013-09-27 2014-06-13 External environment recognition device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2017093548A Division JP2017151121A (en) 2013-09-27 2017-05-10 External world recognition device

Publications (1)

Publication Number Publication Date
JPWO2015045501A1 true JPWO2015045501A1 (en) 2017-03-09

Family

ID=52742659

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2015538948A Pending JPWO2015045501A1 (en) 2013-09-27 2014-06-13 External recognition device
JP2017093548A Pending JP2017151121A (en) 2013-09-27 2017-05-10 External world recognition device

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2017093548A Pending JP2017151121A (en) 2013-09-27 2017-05-10 External world recognition device

Country Status (2)

Country Link
JP (2) JPWO2015045501A1 (en)
WO (1) WO2015045501A1 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017056822A1 (en) * 2015-09-30 2017-04-06 ソニー株式会社 Image processing device, image processing method, and vehicle control system
JP6361631B2 (en) * 2015-10-29 2018-07-25 Smk株式会社 In-vehicle sensor, vehicle lamp, and vehicle
JP7150508B2 (en) * 2018-07-24 2022-10-11 株式会社東芝 Imaging system for railway vehicles
DE102018218733A1 (en) * 2018-10-31 2020-04-30 Robert Bosch Gmbh Method for supporting a camera-based environment detection of a means of transportation by means of road wetness information from a first ultrasonic sensor
WO2021064833A1 (en) * 2019-09-30 2021-04-08 日本電気株式会社 Abnormality detection device, abnormality detection method, and recording medium
JP7021798B1 (en) 2020-12-04 2022-02-17 国立研究開発法人土木研究所 Trained model generation method, road surface slip friction coefficient estimation device, road surface slip friction coefficient estimation program and road surface slip friction coefficient estimation method
WO2023203748A1 (en) * 2022-04-22 2023-10-26 日立Astemo株式会社 Camera unit

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6015532A (en) * 1983-07-07 1985-01-26 Nippon Doro Kodan Apparatus for measuring water surface on road
JPH11211659A (en) * 1998-01-23 1999-08-06 Nagoya Denki Kogyo Kk Road surface state discrimination method and device
JPH11230898A (en) * 1998-02-10 1999-08-27 Mitsubishi Motors Corp Apparatus for discriminating road face state
JP2010004090A (en) * 2008-06-18 2010-01-07 Ricoh Co Ltd Imaging apparatus
JP2010025915A (en) * 2008-06-18 2010-02-04 Ricoh Co Ltd Imaging apparatus and road surface state discrimination method
JP2010261877A (en) * 2009-05-11 2010-11-18 Ricoh Co Ltd Stereoscopic camera device and vehicle-outside monitoring apparatus using the same
WO2013114891A1 (en) * 2012-02-03 2013-08-08 パナソニック株式会社 Imaging device and imaging system

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2003295582A1 (en) * 2002-11-15 2004-06-15 Warner Bros. Entertainment Inc. Reverse-rendering method for digital modeling
JP4974543B2 (en) * 2005-08-23 2012-07-11 株式会社フォトニックラティス Polarization imaging device
JP5102718B2 (en) * 2008-08-13 2012-12-19 株式会社Ihi Vegetation detection apparatus and method
JP2012008947A (en) * 2010-06-28 2012-01-12 Hitachi Ltd Business activity analysis method and business support system

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6015532A (en) * 1983-07-07 1985-01-26 Nippon Doro Kodan Apparatus for measuring water surface on road
JPH11211659A (en) * 1998-01-23 1999-08-06 Nagoya Denki Kogyo Kk Road surface state discrimination method and device
JPH11230898A (en) * 1998-02-10 1999-08-27 Mitsubishi Motors Corp Apparatus for discriminating road face state
JP2010004090A (en) * 2008-06-18 2010-01-07 Ricoh Co Ltd Imaging apparatus
JP2010025915A (en) * 2008-06-18 2010-02-04 Ricoh Co Ltd Imaging apparatus and road surface state discrimination method
JP2010261877A (en) * 2009-05-11 2010-11-18 Ricoh Co Ltd Stereoscopic camera device and vehicle-outside monitoring apparatus using the same
WO2013114891A1 (en) * 2012-02-03 2013-08-08 パナソニック株式会社 Imaging device and imaging system

Also Published As

Publication number Publication date
JP2017151121A (en) 2017-08-31
WO2015045501A1 (en) 2015-04-02

Similar Documents

Publication Publication Date Title
WO2015045501A1 (en) External environment recognition device
KR101411668B1 (en) A calibration apparatus, a distance measurement system, a calibration method, and a computer readable medium recording a calibration program
US20210073557A1 (en) Systems and methods for augmenting upright object detection
KR101458287B1 (en) Ranging camera apparatus
US20160379066A1 (en) Method and Camera System for Distance Determination of Objects from a Vehicle
US10909395B2 (en) Object detection apparatus
JP5967463B2 (en) Object identification device, and moving body control device and information providing device provided with the same
EP3150961B1 (en) Stereo camera device and vehicle provided with stereo camera device
US9965690B2 (en) On-vehicle control device
CN112997187A (en) Two-dimensional object bounding box information estimation based on aerial view point cloud
JP2018004918A5 (en)
JP2018073275A (en) Image recognition device
JP2015195489A (en) Collision preventing system, collision preventing method and computer program
JP6204844B2 (en) Vehicle stereo camera system
US10643077B2 (en) Image processing device, imaging device, equipment control system, equipment, image processing method, and recording medium storing program
CN111989541A (en) Stereo camera device
CN111373411A (en) Method, device and computer program for determining a distance to an object
Barros et al. Deep speed estimation from synthetic and monocular data
JP7207889B2 (en) Range finder and in-vehicle camera system
JP2018169924A (en) Learning data collection apparatus, learning data collection system, and learning data collection method
JP2015219212A (en) Stereoscopic camera device and distance calculation method
WO2022080147A1 (en) Vehicle-mounted camera device
JP5921596B2 (en) Image processing apparatus and image processing method
US20240054678A1 (en) Method for rectification of images and/or image points, camera-based system and vehicle
JP6566367B2 (en) Three-dimensional position measurement system, moving object, three-dimensional position measurement method, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161018

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161019

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20170119

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20170125

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170321