JPWO2015045501A1 - External recognition device - Google Patents
External recognition device Download PDFInfo
- Publication number
- JPWO2015045501A1 JPWO2015045501A1 JP2015538948A JP2015538948A JPWO2015045501A1 JP WO2015045501 A1 JPWO2015045501 A1 JP WO2015045501A1 JP 2015538948 A JP2015538948 A JP 2015538948A JP 2015538948 A JP2015538948 A JP 2015538948A JP WO2015045501 A1 JPWO2015045501 A1 JP WO2015045501A1
- Authority
- JP
- Japan
- Prior art keywords
- imaging
- region
- image information
- image
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003384 imaging method Methods 0.000 claims abstract description 162
- 230000003287 optical effect Effects 0.000 claims abstract description 101
- 238000012545 processing Methods 0.000 claims abstract description 50
- 230000010287 polarization Effects 0.000 claims description 64
- 238000000034 method Methods 0.000 claims description 24
- 230000008569 process Effects 0.000 claims description 19
- 238000010586 diagram Methods 0.000 description 17
- 230000006870 function Effects 0.000 description 17
- 230000004069 differentiation Effects 0.000 description 10
- 230000007246 mechanism Effects 0.000 description 4
- 241001465754 Metazoa Species 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 2
- 238000009825 accumulation Methods 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000003517 fume Substances 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012806 monitoring device Methods 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 239000000779 smoke Substances 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Signal Processing (AREA)
- Studio Devices (AREA)
- Measurement Of Optical Distance (AREA)
- Investigating Or Analysing Materials By Optical Means (AREA)
- Traffic Control Systems (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
1つの単眼カメラまたはステレオカメラによって光学条件が異なる複数の画像を比較して車外環境を認識することが可能な外界認識装置を提供する。
車両に搭載されて車両前方の撮影対象領域の画像情報を取得するカメラ1L,1Rは、第1および第2の撮像領域13a,13bを有する撮像素子13と、第1および第2の撮像領域13a,13bのそれぞれに撮影対象領域の映像を結像させる第1の光学部材11と、第1および第2の撮像領域13a,13bのそれぞれに対して異なる光学条件の光を通過させる第2の光学部材12(例えば偏光フィルタ)とを備える。画像処理部2は、第1の撮像領域13aから得られる第1の画像情報と、第2の撮像領域13bから得られる第2の画像情報とを比較して、撮影対象領域の状態(例えば路面の摩擦係数)を認識する。Provided is an external environment recognition device capable of recognizing an environment outside a vehicle by comparing a plurality of images having different optical conditions with a single monocular camera or a stereo camera.
Cameras 1L and 1R that are mounted on a vehicle and acquire image information of a region to be photographed in front of the vehicle include an imaging element 13 having first and second imaging regions 13a and 13b, and first and second imaging regions 13a. , 13b, a first optical member 11 that forms an image of the imaging target area, and a second optical element that allows light having different optical conditions to pass through each of the first and second imaging areas 13a, 13b. And a member 12 (for example, a polarizing filter). The image processing unit 2 compares the first image information obtained from the first imaging area 13a with the second image information obtained from the second imaging area 13b, and compares the state of the imaging target area (for example, the road surface). The friction coefficient).
Description
本発明は、車載用の外界認識装置に係り、例えば撮像素子の画像情報に基づいて車外環境を認識する装置に関する。 The present invention relates to an in-vehicle external environment recognition device, for example, an apparatus for recognizing an environment outside a vehicle based on image information of an image sensor.
従来から車両に搭載され、車両の前方の状況を認識するステレオカメラ装置等の外界認識装置が知られている。例えば、近距離から遠距離までのワイドレンジの被写体までの距離を精度良く測定すると共に近距離においても広角レンズで広い視野を確保するステレオカメラ装置およびそれを用いた車外監視装置が開示されている(下記特許文献1を参照)。 2. Description of the Related Art Conventionally, an external recognition device such as a stereo camera device that is mounted on a vehicle and recognizes a situation in front of the vehicle is known. For example, a stereo camera device that accurately measures a distance to a wide-range subject from a short distance to a long distance and secures a wide field of view with a wide-angle lens at a short distance, and a vehicle exterior monitoring device using the stereo camera device are disclosed. (See
特許文献1に記載のステレオカメラ装置は、近距離用および遠距離用の2つのステレオ画像を得るために左右に配置される第1および第2の撮像部と、遠距離用の画像を処理する第1のカメラ制御部と、近距離用の画像を処理する第2のカメラ制御部とを備えている。 The stereo camera device described in
第1の撮像部は、遠距離用の第1の撮像レンズと、近距離用の第2の撮像レンズと、近距離用および遠距離用のそれぞれの撮像領域を有する撮像素子と、各撮像レンズと撮像素子との間に配置されるプリズムおよび偏光ビームスプリッタとを備えている。同様に、第2の撮像部は、遠距離用の第3の撮像レンズと、近距離用の第2の撮像レンズと、近距離用および遠距離用のそれぞれの撮像領域を有する撮像素子と、各撮像レンズと撮像素子との間に配置されたプリズムおよび偏光ビームスプリッタとを備えている。 The first imaging unit includes a first imaging lens for a long distance, a second imaging lens for a short distance, an imaging element having respective imaging regions for a short distance and a long distance, and each imaging lens. And a prism and a polarization beam splitter disposed between the image pickup device and the image pickup device. Similarly, the second imaging unit includes a third imaging lens for a long distance, a second imaging lens for a short distance, and an imaging element having respective imaging regions for a short distance and a long distance, A prism and a polarizing beam splitter are provided between each imaging lens and the imaging element.
各撮像部のプリズムおよび偏光ビームスプリッタは、遠距離用の撮像レンズを透過した光のうち、S偏光成分の光だけを撮像素子の遠距離用の撮像領域に通過させる。また、近距離用の撮像レンズを透過した光のうち、P偏光成分だけを撮像素子の近距離用の撮像領域に通過させる。これにより、第1のカメラ制御部は、各撮像部の撮像素子の遠距離用の撮像領域で撮像された遠距離の被写体の右の画像と左の画像を1枚の画像として合成する。同様に、第2のカメラ制御部は、各撮像部の撮像素子の近距離用の撮像領域で撮像された近距離の被写体の右の画像と左の画像を1枚の画像として合成する。 The prism and the polarization beam splitter of each imaging unit allow only the S-polarized light component of the light transmitted through the long-distance imaging lens to pass through the long-distance imaging region of the imaging device. Further, only the P-polarized light component of the light transmitted through the short-distance imaging lens is passed through the short-distance imaging region of the imaging element. Accordingly, the first camera control unit combines the right image and the left image of the long-distance subject imaged in the long-distance imaging region of the imaging element of each imaging unit as one image. Similarly, the second camera control unit combines the right image and the left image of the short-distance subject imaged in the short-distance imaging region of the imaging element of each imaging unit as one image.
特許文献1に記載のステレオカメラ装置は、偏光成分の異なる遠距離の被写体のステレオ画像と近距離の被写体のステレオ画像とを同時に得ることができるが、それぞれの画像で被写体の距離が異なるため、これらの画像を比較して撮影対象領域の状態を認識することは困難である。 The stereo camera device described in
本発明は、前記課題に鑑みてなされたものであり、光学条件が異なる複数の画像を比較して車外環境を認識することが可能な外界認識装置を提供することを目的とする。 The present invention has been made in view of the above problems, and an object of the present invention is to provide an external environment recognition device capable of recognizing an environment outside a vehicle by comparing a plurality of images having different optical conditions.
前記目的を達成すべく、本発明の外界認識装置は、車両に搭載されて車両前方の撮影対象領域の画像情報を取得するカメラと、該画像情報を処理する画像処理部とを備えた外界認識装置であって、前記カメラは、第1および第2の撮像領域を有する撮像素子と、前記第1および第2の撮像領域のそれぞれに前記撮影対象領域の映像を結像させる第1の光学部材と、前記第1および第2の撮像領域のそれぞれに対して異なる光学条件の光を通過させる第2の光学部材とを備え、前記画像処理部は、前記第1の撮像領域から得られる第1の画像情報と、前記第2の撮像領域から得られる第2の画像情報とを比較して、前記撮影対象領域の状態を認識することを特徴とする。 In order to achieve the above object, an external environment recognition apparatus according to the present invention includes an external camera that is mounted on a vehicle and acquires image information of a shooting target area in front of the vehicle, and an image processing unit that processes the image information. An apparatus, wherein the camera includes an imaging element having first and second imaging areas, and a first optical member that forms an image of the imaging target area on each of the first and second imaging areas. And a second optical member that allows light of different optical conditions to pass through each of the first and second imaging regions, and the image processing unit is a first obtained from the first imaging region. And the second image information obtained from the second imaging area are compared to recognize the state of the imaging target area.
本発明の外界認識装置によれば、光学条件が異なる複数の画像を比較して車外環境を認識することができる。本発明のその他の課題および効果は、以下の実施の形態により明らかにされる。 According to the external environment recognition apparatus of the present invention, the environment outside the vehicle can be recognized by comparing a plurality of images having different optical conditions. Other problems and effects of the present invention will be clarified by the following embodiments.
以下、図面を参照して本発明の外界認識装置の実施の形態について説明する。 DESCRIPTION OF THE PREFERRED EMBODIMENTS Embodiments of an external environment recognition device according to the present invention will be described below with reference to the drawings.
[実施形態1]
図1は、本発明の実施形態1に係る外界認識装置100を備える車載システムの概略構成を示すブロック図である。図2は、図1に示す外界認識装置100の画像処理部2の概略構成を示すブロック図である。[Embodiment 1]
FIG. 1 is a block diagram illustrating a schematic configuration of an in-vehicle system including an external
本実施形態の外界認識装置100は、車両に搭載され、車両前方の撮影対象領域の画像情報に基づいて車外環境を認識する装置である。外界認識装置100は、例えば、路面の濡れ、積雪および模様の識別、歩行者、サイクリストおよび動物と背景との識別、または降雪、降雨、煙霧等の悪天候下における画像処理等に用いられる。 The external
外界認識装置100は、画像情報を取得する左右に配置された2つのカメラ1L、1Rと、該画像情報を処理する画像処理部2とを備えている。左カメラ1Lおよび右カメラ1Rは、それぞれ、第1の光学部材11と、第2の光学部材12と、撮像素子13とを備えている。撮像素子13は、カメラ1L,1Rの撮影対象領域の映像を画像情報に変換する第1の撮像領域13aおよび第2の撮像領域13bを有している。 The external
第1の光学部材11は、カメラ1L,1Rの光路上に隣接して配置された第1のレンズ11aと第2のレンズ11bにより構成されている。第1のレンズ11aは第2のレンズ11bの一部と光路上で重なるように配置されている。なお、本実施形態において、第1のレンズ11aと第2のレンズ11bとは別の部材とされているが、第1のレンズ11aと第2のレンズ11bを一体的に形成して第1の光学部材11を一部材としてもよい。 The first
第2の光学部材12は、例えば偏光フィルタであり、所定の偏光成分の光を選択的に透過させる光学フィルタである。第2の光学部材12は、第1の撮像領域13aの光路上に配置され、第2の撮像領域13bの光路上には配置されないことで、第1の撮像領域13aに所定の偏光成分の光L1を通過させ、第2の撮像領域13bに無偏光の光L2を通過させる。すなわち、第2の光学部材12は、第1および第2の撮像領域13a,13bのそれぞれに対して異なる光学条件の光L1,L2を通過させる。 The second
第1の光学部材11は、第2の光学部材12を透過した所定の偏光成分の光を第2のレンズ11bに入射させ、撮像素子13の第1の撮像領域13aに撮影対象領域の映像を結像させる。また、第1の光学部材11は、第2の光学部材12を透過しない無偏光の光を、第1のレンズ11aおよび第2のレンズ11bに入射させ、撮像素子13上の第2の撮像領域13bに撮影対象領域の映像を結像させる。 The first
すなわち、本実施形態のカメラ1L,1Rは、第1および第2の光学部材11,12が光路上に配置された偏光領域A1と、第1の光学部材11のみが光路上に配置された無偏光領域A2とを有している。また、カメラ1L,1Rは、第1の撮像領域13aには、偏光領域A1を介して撮影対象領域の映像を結像させ、第2の撮像領域13bには、無偏光領域A2を介して撮影対象領域の映像を結像させる。 That is, the
画像処理部2は、カメラ1L,1Rの撮像素子13,13の第1の撮像領域13a,13aから得られる第1の画像情報と、カメラ1L,1Rの撮像素子13,13の第2の撮像領域13b,13bから得られる第2の画像情報とを比較して、カメラ1L,1Rの撮影対象領域の状態を認識する。以下、画像処理部2について詳細に説明する。 The
画像処理部2は、ステレオカメラの左カメラ1L、右カメラ1Rとして配置された2つのカメラ1の撮像素子13,13に接続され、図2に示すように、画像処理手段21と、視差処理手段22と、路面推定手段23と、路面μデータ24とを備えている。各手段は、例えば単一または複数のコンピュータユニットにより構成され、相互にデータを交換可能に構成されている。 The
画像処理部2は、左右のカメラ1L,1Rの撮像素子13,13の第1の撮像領域13a,13aから出力された信号を、画像処理手段21によって、第1の画像情報に変換する画像処理を行う。第1の画像情報は、左右のカメラ1L,1Rのそれぞれの偏光領域A1を介して撮像素子13の第1の撮像領域13aに結像した撮影対象領域の映像に基づく画像情報であり、第2の光学部材12すなわち偏光フィルタを介した画像情報である。 The
画像処理部2は、バス6を介して制御部3、記憶部4および入出力部5に接続されている。制御部3は、画像処理部2、記憶部4および入出力部5を制御する単一または複数のコンピュータユニットにより構成されている。記憶部4は、例えば画像処理部2によって得られた画像情報等を記憶するメモリ等により構成されている。入出力部5は、外界認識装置100から出力された情報を、CAN7を介して自車両の制御システム8に出力する。制御システム8は、外界認識装置100の情報に基づいて、例えば、乗員に警告を発し、自車両の制動を行い、または対象物の回避制御を行うことができる。 The
画像処理部2は、左右のカメラ1L,1Rの撮像素子13,13の第2の撮像領域13b,13bから出力された信号を、画像処理手段21によって、第2の画像情報に変換する画像処理を行う。第2の画像情報は、左右のカメラ1L,1Rのそれぞれの無偏光領域A2を介して撮像素子13の第2の撮像領域13bに結像した撮影対象領域の映像に基づく画像情報であり、第2の光学部材12すなわち偏光フィルタを介さない画像情報である。 The
図3は、図1に示す外界認識装置100のカメラ1L,1Rの配置と座標系を示す図である。外界認識装置100は、左右のカメラ1L,1Rの中間点を原点oとし、水平方向(車幅方向)をx軸、鉛直方向をy軸、自車進行方向をz軸とするxyz直交座標系を用いている。左右のカメラ1L,1Rはそれぞれ、z軸に平行な中心線c1,c2に対称な所定の角度範囲αを撮影対象領域としている。 FIG. 3 is a diagram showing the arrangement and coordinate system of the
画像処理部2は、画像処理手段21によって得られた左右のカメラ1L,1Rの第2の光学部材12を介した映像に基づく第1の画像情報同士の視差処理を、視差処理手段22によって行う。すなわち、外界認識装置100は、視差処理手段22によって、左カメラ1Lの撮影対象領域の第1の画像情報と、右カメラ1Rの撮影対象領域の第1の画像情報との間で、撮影対象領域内の同一の点の視差処理を行って、三角測量の原理で撮影対象領域内の各点までの距離を求めることができる構成となっている。 The
画像処理部2は、路面の摩擦係数μを推定する路面推定手段23と、路面μ推定辞書としての路面μデータ24とを備えている。路面推定手段23は、画像処理手段21によって得られた第2の光学部材12を介した撮影対象領域の映像に基づく第1の画像情報と、第2の光学部材12を介さない撮影対象領域の映像に基づく第2の画像情報とを取得する。路面μデータ24には、路面推定手段23の演算および学習に基づく、第1の画像情報、第2の画像情報および路面の摩擦係数μの関係が記録されている。路面推定手段23は画像処理手段21から取得した第1および第2の画像情報に基づいて、前記路面μデータ24を参照し、撮影対象領域内の路面の摩擦係数μを推定する。路面推定手段23と路面μデータ24の演算および学習についての詳細は後述する。 The
図4は、左カメラ1Lの撮影対象領域の画像情報P1と、右カメラ1Rの撮影対象領域の画像情報P2との関係を示す図である。ステレオカメラでは、通常、左カメラ1Lの撮影対象領域の画像情報P1と、右カメラ1Rの撮影対象領域の画像情報P2とが重複する領域において視差処理を行っている。すなわち、左カメラ1Lの画像情報P1の右側の領域の画像情報P1aと、右カメラ1Rの画像情報P2の左側の領域の画像情報P2aには、立体視する撮影対象が撮像される。一方、左カメラ1Lの画像情報P1の左側の領域の画像情報P1bと、右カメラ1Rの画像情報P2の右側の領域の画像情報P2bは視差処理が行われず、立体視には用いられない。なお、左右のカメラ1L,1Rの撮影対象は、例えば、路面RS、路面RS上の水、氷、雪またはオイル等の路上要素RE、歩行者およびサイクリストを含む障害物OB、または降雨、降雪、煙霧等の気象現象WP等を含む。 FIG. 4 is a diagram illustrating the relationship between the image information P1 of the shooting target area of the
図5は、路面の摩擦係数の推定についての説明図であり、(a)は偏光フィルタを通した光に基づく撮影対象領域の画像情報PA1を示す図であり、(b)は偏光フィルタを通していない光に基づく撮影対象領域の画像情報PA2を示す図である。路面推定手段23は、図5(a)に示す偏光フィルタを通した撮影対象領域の画像情報PA1の路上要素REおよび路面RSと、図5(b)に示す偏光フィルタを通した撮影対象領域の画像情報PA1の路上要素REおよび路面RSとに基づき、路面μデータ24を参照する。そして、路面推定手段23は、路面μデータ24の参照結果に基づいて、路面RSおよび路上要素REにおける路面の摩擦係数μを推定する。 FIGS. 5A and 5B are explanatory diagrams for estimating the friction coefficient of the road surface. FIG. 5A is a diagram showing image information PA1 of the imaging target region based on light that has passed through the polarizing filter, and FIG. 5B is not through the polarizing filter. It is a figure which shows the image information PA2 of the imaging | photography object area | region based on light. The road surface estimation means 23 includes the road element RE and the road surface RS of the image information PA1 of the imaging target area that has passed through the polarization filter shown in FIG. 5A and the imaging target area that has passed through the polarization filter shown in FIG. The road surface μ
図6は、図1に示す外界認識装置100が備えるカメラの説明図である。前記したように、左右のカメラ1L,1Rの撮影対象領域内の撮像対象RE,RS,OB,WPからの光Lは、左右のカメラ1L,1Rの偏光領域A1において、偏光フィルタである第2の光学部材12を通過する。そして、光学部材12を通過した所定の偏光成分の光L1が、第1の光学部材11の第2のレンズ11bによって集光され、撮像素子13の第1の撮像領域13aに結像する。また、撮像対象RE,RS,OB,WPからの光Lは、左右のカメラ1L,1Rの無偏光領域A2において、偏光フィルタである第2の光学部材12を通過することなく、第1の光学部材11の第1のレンズ11aおよび第2のレンズ11bによって集光され、撮像素子13の第2の撮像領域13bに結像する。これにより、左右のカメラ1L,1Rによって、図7に示すような撮像対象領域の画像情報P1,P2が取得される。 FIG. 6 is an explanatory diagram of a camera provided in the external
図7は、図6に示す左右のカメラ1L,1Rによって取得される撮影対象領域の画像情報P1,P2の説明図である。左カメラ1Lの撮影対象領域の画像情報P1の右側の領域の画像情報P1aは、偏光領域A1において、左カメラ1Lの撮像素子13の第1の撮像領域13aに結像した映像に基づいている。また、画像情報P1の左側の領域の画像情報P1bは、左カメラ1Lの無偏光領域A2において、撮像素子13の第2の撮像領域13bに結像した映像に基づいている。同様に、右カメラ1Rの撮影対象領域の画像情報P2の左側の領域の画像情報P2aは、偏光領域A1において、右カメラ1Rの撮像素子13の第1の撮像領域13aに結像した映像に基づいている。また、画像情報P1の右側の領域の画像情報P2bは、右カメラ1Lの無偏光領域A2において、撮像素子13の第2の撮像領域13bに結像した映像に基づいている。 FIG. 7 is an explanatory diagram of the image information P1 and P2 of the shooting target area acquired by the left and
図6および図7に示す例において、前記したように、偏光領域A1は、左カメラ1Lの撮影対象領域の右側と、右カメラの1Rの撮影対象領域の左側に対応して設けられている。また、無偏光領域A2は、左カメラ1Lの撮影対象領域の左側と、右カメラ1Rの撮影対象領域の右側に対応して設けられている。また、左右のカメラ1L,1Rの偏光領域A1の面積は、無偏光領域A2の面積よりも大きくなっている。 In the example shown in FIGS. 6 and 7, as described above, the polarization area A1 is provided corresponding to the right side of the imaging target area of the
図8(a)および(b)は、図6に示すカメラ1L,1Rによって取得される撮影対象領域の画像情報P1,P2の一例を示す図である。図8(a)に示す例では、左右のカメラ1L,1Rの画像情報P1,P2のうち、第2の光学部材12が配置された偏光領域A1に対応する領域の画像情報P1a,P2aを視差処理に用いている。また、左右のカメラ1L,1Rの画像情報P1,P2のうち、第2の光学部材12が配置されていない無偏光領域A2に対応する領域の画像情報P1bおよびP2bでは、偏光領域A1に対応する領域の画像情報P1a,P2aの撮影対象領域と同一範囲の画像情報を取得している。 FIGS. 8A and 8B are diagrams illustrating examples of image information P1 and P2 of the shooting target area acquired by the
なお、図6に示す左右のカメラ1L,1Rの少なくとも一方の無偏光領域A2の光路上に光学フィルタFL,FRを配置してもよい。この場合、図8(a)に示す、画像情報P1,P2の無偏光領域A2に対応する領域の画像情報P1bおよびP2bの少なくとも一方が、光学フィルタFL,FRを通した光に基づく画像情報となる。光学フィルタFL,FRとしては、例えば、第2の光学部材12と異なる偏光成分を通過させる偏光フィルタ、近赤外フィルタ、または紫外フィルタ等を用いることができる。なお、左右のカメラ1L,1Rの無偏光領域A2に、それぞれ光学フィルタFL,FRを設ける場合には、光学フィルタFL,FRに同じ光学条件の光学フィルタを用いてもよいし、異なる光学条件の光学フィルタを用いてもよい。 Note that the optical filters FL and FR may be arranged on the optical path of at least one non-polarization region A2 of the left and
図8(b)に示す例では、図8(a)に示す例と同様に、左右のカメラ1L,1Rの画像情報P1,P2のうち、第2の光学部材12が配置された偏光領域A1に対応する領域の画像情報P1a,P2aを視差処理に用いている。一方、左右のカメラ1L,1Rの画像情報P1,P2のうち、第2の光学部材12が配置されていない無偏光領域A2に対応する領域の画像情報P1bおよびP2bでは、偏光領域A1に対応する領域の画像情報P1a,P2aの撮影対象領域の左半分の画像情報と右半分の画像情報を取得している。 In the example shown in FIG. 8B, as in the example shown in FIG. 8A, among the image information P1 and P2 of the left and
以上の構成を有する外界認識装置100は、前記したように、ステレオカメラを構成する左右のカメラ1L,1Rによって車両前方の撮影対象領域を撮影し、撮像素子13の第1の撮像領域13aから得られる第1の画像情報P1a,P2aと、第2の撮像領域13bから得られる第2の画像情報P1b,P2bを、画像処理部2によって比較して、撮影対象領域の状態を認識する。したがって、本実施形態の外界認識装置100によれば、ステレオカメラを構成する左右のカメラ1L,1Rによって取得した光学条件が異なる第1の画像情報P1a,P2aと第2の画像情報P1b,P2bとを比較して、車外環境を認識することが可能になる。 As described above, the external
具体的には、カメラ1L,1Rは、第1および第2の光学部材11,12が光路上に配置された偏光領域A1と、第1の光学部材11が光路上に配置された無偏光領域A2とを有し、撮像素子13の第1の撮像領域13aには、偏光領域A1を介した映像を結像させ、第2の撮像領域13bには、無偏光領域A2を介した映像を結像させる。このようにして、偏光フィルタを介した第1の画像情報P1a,P2aと、偏光フィルタを介していない第2の画像情報P1b,P2bを比較することで、路面RS上の水、氷、積雪、オイル等の路上要素REと、路面RS上の模様とを判別し、路面RSおよび路上要素REの摩擦係数μを推定することが可能になる。 Specifically, the
すなわち、画像処理部2は、路面RSの摩擦係数μと第1の画像情報P1a,P2aと第2の画像情報P1b,P2bとの関係を記録した路面μデータ24を備え、第1の画像情報P1a,P2aと第2の画像情報P1b,P2bとに基づいて路面μデータ24を参照し、撮影対象領域内の路面RSおよび路上要素REの摩擦係数μを推定する。これにより、摩擦係数μの低い路面RSおよび路上要素REを認識した場合に、入出力部5を介して情報を出力し、車両の制御システム8によって車両の乗員に警告を発し、車両の制動制御を行い、または危険を回避する回避制御を行うことができる。 That is, the
また、2つのカメラ1R,1Lが左カメラ1Lおよび右カメラ1Rとして配置され、画像処理部2は、左カメラ1Lによって得られた第1の画像情報P1aと、右カメラ1Rによって得られた第1の画像情報P2aの視差処理を行っている。これにより、車内設備やガラス等による反射光の影響を低減し、撮影対象領域の撮影対象である例えば路上要素RE、歩行者またはサイクリストを含む障害物OB等までの距離を正確に測定することができる。また、偏光領域A1の面積を、無偏光領域A2の面積よりも大きくすることで、視差処理を行う画像情報P1a,P2aを増加させ、より正確な距離の測定が可能になる。 Two
さらに、左右のカメラ1L,1Rの少なくとも一方の無偏光領域A2の光路上に光学フィルタFL,FRが配置される場合には、路面RSおよび路上要素REの判別および摩擦係数μの推定だけでなく、より多様な外界認識を行うことが可能になる。 Further, when the optical filters FL and FR are arranged on the optical path of at least one non-polarized region A2 of the left and
例えば、左右のカメラ1L,1Rの一方の無偏光領域A2の光路上に配置される光学フィルタFLまたはFRに近赤外フィルタを用いることができる。この場合、例えば図8(a)に示す例において、第2の画像情報P1b,P2bのいずれか一方の近赤外フィルタを介した画像情報と、もう一方の近赤外フィルタを介していない画像情報とを比較して歩行者、サイクリスト、動物等の検知と衝突防止機能の高度化および高精度化を実現することができる。 For example, a near-infrared filter can be used for the optical filter FL or FR disposed on the optical path of one non-polarization region A2 of the left and
また、左右のカメラ1L,1Rの少なくとも一方の無偏光領域A2の光路上に配置される光学フィルタFL,FRとして、近赤外フィルタ、赤外フィルタ、紫外フィルタ等を用いることができる。この場合、例えば、降雨、降雪、煙霧等の悪天候環境下において、光の波長帯ごとの散乱係数が相違することを利用して、理想的な画像と実際に撮像された画像との間の散乱係数を推定することができる。さらに、推定した散乱係数に対する逆演算を施すことで、高品質の画像を得ることが可能になる。また、左右のカメラ1L,1Rの光学フィルタFL,FRの光学条件を異ならせることで、より多様な推定が可能になる。この場合には、偏光フィルタだけでなく、近赤外フィルタ、赤外フィルタ、紫外フィルタを用いて煙霧除去を行うことができる。 Moreover, a near infrared filter, an infrared filter, an ultraviolet filter, etc. can be used as the optical filters FL and FR arranged on the optical path of at least one non-polarization region A2 of the left and
また、第1の光学部材11は、第1および第2のレンズ11a,11bを備え、偏光領域A1の光路上に第1のレンズ11aおよび第2の光学部材12が配置され、無偏光領域A2の光路上に第1のレンズ11aおよび第2のレンズ11bが配置されている。このような構成を採用することで、カメラ1L,1Rの製造を容易にして、製造コストを低減することができる。 The first
以上説明したように、本実施形態の外界認識装置100によれば、ステレオカメラによって光学条件が異なる複数の画像を比較して車外環境を認識することができる。 As described above, according to the external
なお、本実施形態の外界認識装置100では、図6、図7、図8(a)および(b)に示すように、無偏光領域A2に対応する領域の画像情報P1b,P2bを左カメラ1Lの画像情報P1の左側と右カメラ1Rの画像情報P2の右側に配置する構成としたが、必ずしもこの構成に限定されない。図9(a)、(b)および(c)にその変形例を示す。 In the external
図6に示す例において、偏光領域A1は左右のカメラ1L,1Rの撮影対象領域の右側および左側に対応して設けられている。しかし、偏光領域A1は、左右のカメラ1L,1Rの撮影対象領域の上側に対応して設けられ、無偏光領域A2は、左右のカメラ1L,1Rの撮影対象領域の下側に対応して設けられてもよい。 In the example shown in FIG. 6, the polarization areas A1 are provided corresponding to the right and left sides of the imaging target areas of the left and
これにより、図9(a)に示すように、偏光領域A1に対応する画像情報P1a,P2aが左右のカメラ1L,1Rの撮影対象領域の画像情報P1,P2の上側に配置される。一方、無偏光領域A2に対応する画像情報P1b,P2bは、左右のカメラ1L,1Rの撮影対象領域の画像情報P1,P2の下側に配置される。画像情報P1,P2の下側の領域は、車両に接近した領域の画像情報であり、通常は視差処理に用いられないため、この領域を有効に活用することが可能になる。 As a result, as shown in FIG. 9A, the image information P1a and P2a corresponding to the polarization area A1 is arranged above the image information P1 and P2 of the imaging target areas of the left and
また、偏光領域A1は、左右のカメラ1L,1Rの撮影対象領域の下側に対応して設けられ、無偏光領域A2は、左右のカメラ1L,1Rの撮影対象領域の上側に対応して設けられてもよい。これにより、図9(b)に示すように、偏光領域A1に対応する画像情報P1a,P2aが左右のカメラ1L,1Rの撮影対象領域の画像情報P1,P2の下側に配置される。一方、無偏光領域A2に対応する画像情報P1b,P2bは、左右のカメラ1L,1Rの撮影対象領域の画像情報P1,P2の上側に配置される。画像情報P1,P2の上側の領域は、車両前方の空に対応する画像情報であり、通常は視差処理に用いられないため、この領域を有効に活用することが可能になる。 The polarization area A1 is provided corresponding to the lower side of the imaging target areas of the left and
また、図7、図9(a)および図9(b)に示す画像情報P1a,P2aおよび画像情報P1b,P2bの配置は、適宜組み合わせることができる。例えば、図9(c)に示すように、偏光領域A1に対応する画像情報P1a,P2aを左右のカメラ1L,1Rの画像情報P1,P2の下側の右側および左側に配置し、無偏光領域A2に対応する画像情報P1b,P2bを左右のカメラ1L,1Rの画像情報P1,P2の上側と、左側および右側に配置することができる。これにより、通常は視差処理に用いられない領域を有効に活用することが可能になる。 Further, the arrangement of the image information P1a and P2a and the image information P1b and P2b shown in FIGS. 7, 9A, and 9B can be appropriately combined. For example, as shown in FIG. 9C, the image information P1a and P2a corresponding to the polarization region A1 are arranged on the lower right side and the left side of the image information P1 and P2 of the left and
[実施形態2]
次に、本発明の外界認識装置の実施形態2について、図1を援用し、図10から図12を用いて説明する。[Embodiment 2]
Next,
図10は、本発明の実施形態2に係る外界認識装置100Bの画像処理部2Bの概略構成を示すブロック図である。図11は、本実施形態の外界認識装置100Bが備える単眼カメラ1の説明図である。図12は、本実施形態の外界認識装置100Bが備える単眼カメラ1によって取得される撮影対象領域の画像を示す図である。 FIG. 10 is a block diagram illustrating a schematic configuration of the
本実施形態の外界認識装置100Bは、左右のカメラ1L,1Rからなるステレオカメラを備えず、図1に示す左カメラ1Lまたは右カメラ1Rと同様の構成の1つの単眼カメラ1を備える点で、実施形態1の外界認識装置100と異なっている。また、本実施形態の外界認識装置100Bが備える画像処理部2Bは、視差処理手段22に代えて、物体認識処理手段22Bを備えている。その他の点は同一であるので、同一の部分は同一の符号を付して説明は省略する。 The external
本実施形態の外界認識装置100Bが備える単眼カメラ1は、図11に示すように、撮像素子13の第1および第2の撮像領域13a,13bのそれぞれに撮影対象領域の映像を結像させる第1の光学部材11を備えている。また、単眼カメラ1は、撮像素子13の第1および第2の撮像領域13a,13bのそれぞれに対して異なる光学条件の光を通過させる第2の光学部材12を備えている。第1の光学部材11は複数の第1のレンズ11aを備えている。本実施形態においては、例えば2つの第1のレンズ11a,11aが第2の光学部材12のy方向両側に配置されている。また、撮像素子13は、第1の撮像領域13aのy方向両側にそれぞれ第2の撮像領域13bを備えている。 As shown in FIG. 11, the
以上の構成を有する外界認識装置100Bは、単眼カメラ1によって車両前方の撮影対象領域を撮影し、画像処理部2Bの物体認識処理手段22Bによって、撮像対象RE,RS,OB,WPを認識する。そして、図12に示すように、第1の撮像領域13aから得られる第1の画像情報P1aと、第2の撮像領域から得られる第2の画像情報P1bとを、実施形態1と同様に比較して、撮影対象領域の状態を認識する。したがって、本実施形態の外界認識装置100Bによれば、実施形態1の外界認識装置100と同様に、単眼カメラ1によって取得した光学条件が異なる第1の画像情報P1aと第2の画像情報P1bとを比較して、車外環境を認識することが可能になる。 The external
[路面摩擦係数の推定および学習]
最後に、前述した実施形態1及び2に共通する撮影対象領域の第1の画像情報P1a,P2bおよび第2の画像情報P1b,P2bに基づく路面摩擦係数の推定および学習について説明する。図13は、路面μデータ24を用いた路面摩擦係数の推定および学習の説明図である。図13および以下の表1は、路面の摩擦係数μ(以下、路面μともいう)の推定に必要となる路面μ推定辞書(以下、路面μデータ24という)を学習するための仕組みを述べている。ここでは、自動微分を使った学習手法について主に説明する。[Estimation and learning of road friction coefficient]
Finally, estimation and learning of the road surface friction coefficient based on the first image information P1a and P2b and the second image information P1b and P2b of the imaging target area common to the first and second embodiments will be described. FIG. 13 is an explanatory diagram of the estimation and learning of the road surface friction coefficient using the road surface μ
一般に、画像中の特定パタンを認識するための路面μデータ24を学習する場合の過程は次のようになる。まず、図13に示すように、例えば第1の画像情報P1a,P2bおよび第2の画像情報P1b,P2b等の画像・原信号S1,S2,…に対して、路面μデータ24に記憶されている各種パラメータを加えて、各種ベクトル演算、行列演算、自己相関演算、畳込み演算などの演算OPを行い、未知パタンのカテゴリが何であるかを判定した結果を出力して、その正誤を検証する。自動微分AD(Automatic Differentiation)は、この計算過程を支える基本的な数値演算体系である。 In general, the process for learning the road surface μ
自動微分ADでは「数」と「演算」を独自に定義する。表1に、自動微分ADで用いる演算関数例を示している。ここで、プログラム中にある全変数の内、n個の変数が偏微分の対象であるとする。このとき「数」の構造は次のベクトルで表される。 In automatic differential AD, “number” and “calculation” are uniquely defined. Table 1 shows examples of arithmetic functions used in automatic differentiation AD. Here, it is assumed that n variables out of all variables in the program are objects of partial differentiation. At this time, the structure of “number” is represented by the following vector.
ここで、vは関数の値を保持する場所である。また、dk(k=1〜n)は関数を第k番目の変数で偏微分した時の値を保持する場所である。自動微分では上記構造を持つ数を上記の式(1)で表されるAD数として、これに基づいて各種の演算を行う。各種演算の詳細な過程は表1に示されており、ここに示すように微分関数の推移律を使うことで、全ての関数計算の過程において、値の計算と偏微分関数値の計算とを同時に進めることができるのが、自動微分である。 Here, v is a place where a function value is held. Dk (k = 1 to n) is a place for holding a value when the function is partially differentiated by the k-th variable. In automatic differentiation, a number having the above structure is used as an AD number represented by the above formula (1), and various calculations are performed based on the AD number. The detailed process of various operations is shown in Table 1. By using the transition function of the differential function as shown here, the calculation of the value and the calculation of the partial differential function value are performed in the process of all the function calculations. Automatic differentiation can be performed at the same time.
このような機構を導入するのは、学習プロセスによる認識辞書のパラメータ調整を、目的や状況に合わせて柔軟に構成することができるためである。例えば、路面μ推定に関しては、例えば第1の画像情報P1a,P2bおよび第2の画像情報P1b,P2bのように、偏光フィルタ有の画像、偏光フィルタ無の画像など複数の画像を原信号S1,S2,…として扱う。学習に用いるそれぞれ画像については、それがどのようなシチュエーションであるか、例えば濡れた路面か、氷結した路面か、雪面であるか、濡れたのと紛らわしい路面の汚れであるのか、および当該シチュエーションにおける路面μ値の実測値が正解情報として付属している。これを元に、画像間の画素の単純な比較や、フーリエ変換などのフィルタを掛けた後の係数の比較、認識辞書に記されたパラメータによる各種画像演算に対する重み付け、演算結果の数値の大小比較などを行い、最終的に路面状態と、その路面μ値を算出し、学習データに対して正解情報になるべく近くなるように、パラメータを微調整するのが学習プロセスである。 The reason for introducing such a mechanism is that the parameter adjustment of the recognition dictionary by the learning process can be flexibly configured according to the purpose and situation. For example, regarding the road surface μ estimation, a plurality of images such as an image with a polarization filter and an image without a polarization filter, such as the first image information P1a and P2b and the second image information P1b and P2b, are converted into the original signals S1, Treat as S2, ... For each image used for learning, what kind of situation it is, for example, whether it is a wet road surface, an icy road surface, a snow surface, or dirt on the road surface that is misleading to be wet, and the situation The measured value of the road surface μ value at is attached as correct answer information. Based on this, simple comparison of pixels between images, comparison of coefficients after applying a filter such as Fourier transform, weighting for various image operations based on parameters written in the recognition dictionary, and comparison of numerical values of the operation results In the learning process, the road surface condition and the road surface μ value are finally calculated, and the parameters are finely adjusted so as to be as close as possible to the correct answer information with respect to the learning data.
学習プロセスにおいては、路面μデータ24を更新する際に、自動計算した判別結果と、正解情報とがどれだけ異なるかを評価して、このギャップがなるべく小さくなるように調整するが、一般に、この判別結果を自動計算するプロセスと、正解情報とのギャップを計算するプロセスは、全てif文などの条件分岐や算術演算を含むプログラムとして書くことができる。その際に、値の計算と偏微分関数値の計算が同時に処理できる自動微分機構が役に立つ。自動微分機構を使うと、プログラムで書いた計算プロセスにより、目的とする数値(例えば路面μの推定値)が得られるが、この数値と同時に、計算で使ったパラメータに対する偏微分関数値が同時に求まる。従って、計算した数値(路面μの推定値)と正解情報の間に誤差が大きい場合は、計算で使った各パラメータに対して、当該パラメータに対応する偏微分関数値に比例した負のフィードバックを与えることで、正解情報とのギャップを小さくなるようにパラメータの微調整量が計算できる。この結果として、路面μデータ24に含まれるパラメータの更新と学習が可能になる。 In the learning process, when the road surface μ
上記のようにパラメータを微調整する方法を勾配法と称する。勾配法では目標関数の偏微分関数値が必要になる。路面μ推定では、偏光フィルタ無と偏光フィルタ有の画像と、当該画像に対する路面の正解情報とが入力となり、認識辞書(路面μデータ24)に記されたパラメータを参照にして、入力画像に対する路面μ値を計算し、それと正解との誤差を最小化することが目的関数となる。この目標の関数は、学習シチュエーションによって、しばしば変更される。例えば、偏光フィルタに加えて、他のフィルタ(赤外線や紫外線フィルタ等)を使う場合は、入力する画像が3つ以上に増えることになる。このような条件変更があっても、自動微分を使えば、目的関数をプログラムとして書くだけで、関数の計算値とパラメータが求まるため、勾配法による学習が容易に行える。 The method of finely adjusting the parameters as described above is called a gradient method. In the gradient method, the partial differential function value of the target function is required. In the road surface μ estimation, an image without a polarization filter and an image with a polarization filter and road surface correct information for the image are input, and the road surface for the input image is referred to with reference to the parameters described in the recognition dictionary (road surface μ data 24). The objective function is to calculate the μ value and minimize the error between it and the correct answer. This goal function is often changed by learning situations. For example, when other filters (infrared rays, ultraviolet filters, etc.) are used in addition to the polarizing filter, the number of input images increases to three or more. Even if such a condition change is made, if automatic differentiation is used, the calculation value and parameters of the function can be obtained simply by writing the objective function as a program, so that learning by the gradient method can be easily performed.
以上、図面を用いて本発明の実施の形態を詳述してきたが、具体的な構成はこの実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲における設計変更等があっても、それらは本発明に含まれるものである。 The embodiment of the present invention has been described in detail with reference to the drawings, but the specific configuration is not limited to this embodiment, and there are design changes and the like without departing from the gist of the present invention. They are also included in the present invention.
例えば、前述の実施形態では、第1の光学部材としてレンズを用いる場合について説明したが、第1の光学部材としてミラー、プリズム、ビームスプリッタを含むその他の光学部材を用いてもよい。 For example, in the above-described embodiment, the case where a lens is used as the first optical member has been described. However, other optical members including a mirror, a prism, and a beam splitter may be used as the first optical member.
1 カメラ
1L 左カメラ(カメラ)
1R 右カメラ(カメラ)
2,2B 画像処理部
11 第1の光学部材
11a 第1のレンズ
11b 第2のレンズ
12 第2の光学部材
13 撮像素子
13a 第1の撮像領域
13b 第2の撮像領域
24 路面μデータ
100,100B 外界認識装置
A1 偏光領域
A2 無変更領域
FL,FR 光学フィルタ
P1,P2 画像情報
P1a,P2a 第1の画像情報
P1b,P2b 第2の画像情報
L,L1,L2 光
RS 路面1
1R Right camera (camera)
2, 2B
Claims (11)
前記カメラは、第1および第2の撮像領域を有する撮像素子と、前記第1および第2の撮像領域のそれぞれに前記撮影対象領域の映像を結像させる第1の光学部材と、前記第1および第2の撮像領域のそれぞれに対して異なる光学条件の光を通過させる第2の光学部材とを備え、
前記画像処理部は、前記第1の撮像領域から得られる第1の画像情報と、前記第2の撮像領域から得られる第2の画像情報とを比較して、前記撮影対象領域の状態を認識することを特徴とする外界認識装置。An external environment recognition apparatus including a camera mounted on a vehicle to acquire image information of a shooting target region in front of the vehicle, and an image processing unit that processes the image information,
The camera includes an imaging element having first and second imaging areas, a first optical member that forms an image of the imaging target area in each of the first and second imaging areas, and the first And a second optical member that transmits light of different optical conditions for each of the second imaging regions,
The image processing unit compares the first image information obtained from the first imaging area with the second image information obtained from the second imaging area, and recognizes the state of the imaging target area. An external environment recognition device characterized by:
前記第1の撮像領域には、前記偏光領域を介して前記映像を結像させ、
前記第2の撮像領域には、前記無偏光領域を介して前記映像を結像させることを特徴とする請求項1に記載の外界認識装置。The camera includes a polarization region in which the first and second optical members are disposed on an optical path, and a non-polarization region in which the first optical member is disposed on an optical path,
In the first imaging region, the image is imaged through the polarization region,
The external environment recognition device according to claim 1, wherein the image is formed on the second imaging region through the non-polarized region.
前記画像処理部は、前記左カメラによって得られた前記第1の画像情報と、前記右カメラによって得られた前記第1の画像情報の視差処理を行うことを特徴とする請求項2または請求項3に記載の外界認識装置。Arrange the two cameras as left camera and right camera,
The said image processing part performs the parallax process of the said 1st image information obtained by the said left camera, and the said 1st image information obtained by the said right camera, The Claim 2 or Claim characterized by the above-mentioned. 3. An external recognition apparatus according to 3.
前記無偏光領域は、前記左カメラの前記撮影対象領域の左側と、前記右カメラの前記撮影対象領域の右側に対応して設けられることを特徴とする請求項4に記載の外界認識装置。The polarization region is provided corresponding to the right side of the shooting target region of the left camera and the left side of the shooting target region of the right camera,
5. The external environment recognition device according to claim 4, wherein the non-polarized region is provided corresponding to a left side of the shooting target region of the left camera and a right side of the shooting target region of the right camera.
前記無偏光領域は、前記左および右カメラの前記撮影対象領域の上側に対応して設けられることを特徴とする請求項4に記載の外界認識装置。The polarization region is provided corresponding to the lower side of the shooting target region of the left and right cameras,
The external environment recognition device according to claim 4, wherein the non-polarized region is provided corresponding to an upper side of the shooting target region of the left and right cameras.
前記無偏光領域は、前記左および右カメラの前記撮影対象領域の下側に対応して設けられることを特徴とする請求項4に記載の外界認識装置。The polarization region is provided corresponding to the upper side of the shooting target region of the left and right cameras,
The external environment recognition device according to claim 4, wherein the non-polarization region is provided corresponding to a lower side of the photographing target region of the left and right cameras.
前記偏光領域の光路上に前記第1のレンズおよび前記第2の光学部材が配置され、
前記無偏光領域の光路上に前記第1のレンズおよび第2のレンズが配置されていることを特徴とする請求項2から請求項10のいずれか1項に記載の外界認識装置。The first optical member includes first and second lenses,
The first lens and the second optical member are disposed on an optical path of the polarization region;
The external environment recognition device according to any one of claims 2 to 10, wherein the first lens and the second lens are arranged on an optical path of the non-polarization region.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013201555 | 2013-09-27 | ||
JP2013201555 | 2013-09-27 | ||
PCT/JP2014/065667 WO2015045501A1 (en) | 2013-09-27 | 2014-06-13 | External environment recognition device |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017093548A Division JP2017151121A (en) | 2013-09-27 | 2017-05-10 | External world recognition device |
Publications (1)
Publication Number | Publication Date |
---|---|
JPWO2015045501A1 true JPWO2015045501A1 (en) | 2017-03-09 |
Family
ID=52742659
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015538948A Pending JPWO2015045501A1 (en) | 2013-09-27 | 2014-06-13 | External recognition device |
JP2017093548A Pending JP2017151121A (en) | 2013-09-27 | 2017-05-10 | External world recognition device |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017093548A Pending JP2017151121A (en) | 2013-09-27 | 2017-05-10 | External world recognition device |
Country Status (2)
Country | Link |
---|---|
JP (2) | JPWO2015045501A1 (en) |
WO (1) | WO2015045501A1 (en) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017056822A1 (en) * | 2015-09-30 | 2017-04-06 | ソニー株式会社 | Image processing device, image processing method, and vehicle control system |
JP6361631B2 (en) * | 2015-10-29 | 2018-07-25 | Smk株式会社 | In-vehicle sensor, vehicle lamp, and vehicle |
JP7150508B2 (en) * | 2018-07-24 | 2022-10-11 | 株式会社東芝 | Imaging system for railway vehicles |
DE102018218733A1 (en) * | 2018-10-31 | 2020-04-30 | Robert Bosch Gmbh | Method for supporting a camera-based environment detection of a means of transportation by means of road wetness information from a first ultrasonic sensor |
WO2021064833A1 (en) * | 2019-09-30 | 2021-04-08 | 日本電気株式会社 | Abnormality detection device, abnormality detection method, and recording medium |
JP7021798B1 (en) | 2020-12-04 | 2022-02-17 | 国立研究開発法人土木研究所 | Trained model generation method, road surface slip friction coefficient estimation device, road surface slip friction coefficient estimation program and road surface slip friction coefficient estimation method |
WO2023203748A1 (en) * | 2022-04-22 | 2023-10-26 | 日立Astemo株式会社 | Camera unit |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6015532A (en) * | 1983-07-07 | 1985-01-26 | Nippon Doro Kodan | Apparatus for measuring water surface on road |
JPH11211659A (en) * | 1998-01-23 | 1999-08-06 | Nagoya Denki Kogyo Kk | Road surface state discrimination method and device |
JPH11230898A (en) * | 1998-02-10 | 1999-08-27 | Mitsubishi Motors Corp | Apparatus for discriminating road face state |
JP2010004090A (en) * | 2008-06-18 | 2010-01-07 | Ricoh Co Ltd | Imaging apparatus |
JP2010025915A (en) * | 2008-06-18 | 2010-02-04 | Ricoh Co Ltd | Imaging apparatus and road surface state discrimination method |
JP2010261877A (en) * | 2009-05-11 | 2010-11-18 | Ricoh Co Ltd | Stereoscopic camera device and vehicle-outside monitoring apparatus using the same |
WO2013114891A1 (en) * | 2012-02-03 | 2013-08-08 | パナソニック株式会社 | Imaging device and imaging system |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU2003295586B2 (en) * | 2002-11-15 | 2009-05-07 | Warner Bros. Entertainment Inc. | Method for digitally rendering skin or like materials |
JP4974543B2 (en) * | 2005-08-23 | 2012-07-11 | 株式会社フォトニックラティス | Polarization imaging device |
JP5102718B2 (en) * | 2008-08-13 | 2012-12-19 | 株式会社Ihi | Vegetation detection apparatus and method |
JP2012008947A (en) * | 2010-06-28 | 2012-01-12 | Hitachi Ltd | Business activity analysis method and business support system |
-
2014
- 2014-06-13 WO PCT/JP2014/065667 patent/WO2015045501A1/en active Application Filing
- 2014-06-13 JP JP2015538948A patent/JPWO2015045501A1/en active Pending
-
2017
- 2017-05-10 JP JP2017093548A patent/JP2017151121A/en active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6015532A (en) * | 1983-07-07 | 1985-01-26 | Nippon Doro Kodan | Apparatus for measuring water surface on road |
JPH11211659A (en) * | 1998-01-23 | 1999-08-06 | Nagoya Denki Kogyo Kk | Road surface state discrimination method and device |
JPH11230898A (en) * | 1998-02-10 | 1999-08-27 | Mitsubishi Motors Corp | Apparatus for discriminating road face state |
JP2010004090A (en) * | 2008-06-18 | 2010-01-07 | Ricoh Co Ltd | Imaging apparatus |
JP2010025915A (en) * | 2008-06-18 | 2010-02-04 | Ricoh Co Ltd | Imaging apparatus and road surface state discrimination method |
JP2010261877A (en) * | 2009-05-11 | 2010-11-18 | Ricoh Co Ltd | Stereoscopic camera device and vehicle-outside monitoring apparatus using the same |
WO2013114891A1 (en) * | 2012-02-03 | 2013-08-08 | パナソニック株式会社 | Imaging device and imaging system |
Also Published As
Publication number | Publication date |
---|---|
JP2017151121A (en) | 2017-08-31 |
WO2015045501A1 (en) | 2015-04-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2015045501A1 (en) | External environment recognition device | |
KR101411668B1 (en) | A calibration apparatus, a distance measurement system, a calibration method, and a computer readable medium recording a calibration program | |
US11620837B2 (en) | Systems and methods for augmenting upright object detection | |
US20160379066A1 (en) | Method and Camera System for Distance Determination of Objects from a Vehicle | |
KR101458287B1 (en) | Ranging camera apparatus | |
US10909395B2 (en) | Object detection apparatus | |
JP5967463B2 (en) | Object identification device, and moving body control device and information providing device provided with the same | |
EP3150961B1 (en) | Stereo camera device and vehicle provided with stereo camera device | |
US9965690B2 (en) | On-vehicle control device | |
JP7498364B2 (en) | Correcting camera images in the presence of rain, light and dirt | |
JP2018004918A5 (en) | ||
WO2011016257A1 (en) | Distance calculation device for vehicle | |
JP2018073275A (en) | Image recognition device | |
JP2015195489A (en) | Collision preventing system, collision preventing method and computer program | |
CN111989541A (en) | Stereo camera device | |
US20240054678A1 (en) | Method for rectification of images and/or image points, camera-based system and vehicle | |
US10643077B2 (en) | Image processing device, imaging device, equipment control system, equipment, image processing method, and recording medium storing program | |
CN111373411A (en) | Method, device and computer program for determining a distance to an object | |
Barros et al. | Deep speed estimation from synthetic and monocular data | |
JP2015143657A (en) | Stereo camera system for vehicle | |
JP7207889B2 (en) | Range finder and in-vehicle camera system | |
JP2018169924A (en) | Learning data collection apparatus, learning data collection system, and learning data collection method | |
JP2015219212A (en) | Stereoscopic camera device and distance calculation method | |
WO2022080147A1 (en) | Vehicle-mounted camera device | |
KR20190048284A (en) | Surround view monitoring system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20161018 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20161019 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20170119 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20170125 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20170321 |