JP2022182335A - 車両の車外撮像装置 - Google Patents
車両の車外撮像装置 Download PDFInfo
- Publication number
- JP2022182335A JP2022182335A JP2021089844A JP2021089844A JP2022182335A JP 2022182335 A JP2022182335 A JP 2022182335A JP 2021089844 A JP2021089844 A JP 2021089844A JP 2021089844 A JP2021089844 A JP 2021089844A JP 2022182335 A JP2022182335 A JP 2022182335A
- Authority
- JP
- Japan
- Prior art keywords
- imaging
- vehicle
- imaging device
- processing
- captured
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003384 imaging method Methods 0.000 title claims abstract description 731
- 238000012937 correction Methods 0.000 claims abstract description 206
- 238000012545 processing Methods 0.000 claims abstract description 178
- 238000012423 maintenance Methods 0.000 claims description 4
- 230000002093 peripheral effect Effects 0.000 description 44
- 238000010586 diagram Methods 0.000 description 28
- 238000000034 method Methods 0.000 description 23
- 230000008569 process Effects 0.000 description 22
- 238000004891 communication Methods 0.000 description 13
- 238000006073 displacement reaction Methods 0.000 description 13
- 230000008859 change Effects 0.000 description 11
- 238000011156 evaluation Methods 0.000 description 10
- 150000001875 compounds Chemical class 0.000 description 9
- 239000013598 vector Substances 0.000 description 9
- 230000001133 acceleration Effects 0.000 description 6
- 230000000694 effects Effects 0.000 description 6
- 238000001514 detection method Methods 0.000 description 5
- 238000010835 comparative analysis Methods 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000010191 image analysis Methods 0.000 description 3
- 238000013461 design Methods 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 230000008520 organization Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 101001139126 Homo sapiens Krueppel-like factor 6 Proteins 0.000 description 1
- UFHFLCQGNIYNRP-UHFFFAOYSA-N Hydrogen Chemical compound [H][H] UFHFLCQGNIYNRP-UHFFFAOYSA-N 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000012854 evaluation process Methods 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010248 power generation Methods 0.000 description 1
- 230000002250 progressing effect Effects 0.000 description 1
- 238000012827 research and development Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
- G06T7/85—Stereo camera calibration
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R1/00—Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
- B60R1/20—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
- B60R1/22—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
- B60R1/23—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
- B60R1/27—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view providing all-round vision, e.g. using omnidirectional cameras
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R11/00—Arrangements for holding or mounting articles, not otherwise provided for
- B60R11/04—Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R11/00—Arrangements for holding or mounting articles, not otherwise provided for
- B60R2011/0001—Arrangements for holding or mounting articles, not otherwise provided for characterised by position
- B60R2011/004—Arrangements for holding or mounting articles, not otherwise provided for characterised by position outside the vehicle
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
- B60W2050/143—Alarm means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
- B60W2050/146—Display means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20021—Dividing image into blocks, subimages or windows
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Mechanical Engineering (AREA)
- Automation & Control Theory (AREA)
- Human Computer Interaction (AREA)
- Transportation (AREA)
- Traffic Control Systems (AREA)
- Measurement Of Optical Distance (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
【課題】車外を撮像するために車両に設けられる撮像デバイスについて、その信頼性を確保する。
【解決手段】車外撮像装置10は、複数の撮像デバイス11~18と、複数の撮像デバイス11~18の撮像画像を用いて車外の撮像対象についての距離または方向の情報を生成する制御部24と、を有する。複数の撮像デバイス11~18の中の、少なくとも2つの撮像デバイスは、共通する撮像領域を重ねて撮像可能となるように車両1に設けられる。制御部24は、共通する撮像領域を重ねて撮像可能な少なくとも2つの撮像デバイスの中の、1つの撮像デバイスの撮像画像での距離および方向に基づいて、残りの撮像デバイスの撮像画像の単眼処理で用いる、撮像位置に基づく車外の撮像対象についての距離または方向についての補正情報を生成する。
【選択図】 図8
【解決手段】車外撮像装置10は、複数の撮像デバイス11~18と、複数の撮像デバイス11~18の撮像画像を用いて車外の撮像対象についての距離または方向の情報を生成する制御部24と、を有する。複数の撮像デバイス11~18の中の、少なくとも2つの撮像デバイスは、共通する撮像領域を重ねて撮像可能となるように車両1に設けられる。制御部24は、共通する撮像領域を重ねて撮像可能な少なくとも2つの撮像デバイスの中の、1つの撮像デバイスの撮像画像での距離および方向に基づいて、残りの撮像デバイスの撮像画像の単眼処理で用いる、撮像位置に基づく車外の撮像対象についての距離または方向についての補正情報を生成する。
【選択図】 図8
Description
本発明は、車両の車外撮像装置に関する。
車両では、車外を撮像するために撮像デバイスが設けられる(特許文献1、2)。
車両に設けた撮像デバイスの撮像画像を用いて車外の撮像対象についての(相対的な)距離または方向の情報を生成することが可能になる。
自動運転や運転支援の制御では、このような車外の撮像対象についての距離または方向の情報は、非常に重要である。
このため、車両の各部に複数の撮像デバイスを設けて、360度の周囲を複数の撮像デバイスにより分割して撮像することが考えられている。
車両に設けた撮像デバイスの撮像画像を用いて車外の撮像対象についての(相対的な)距離または方向の情報を生成することが可能になる。
自動運転や運転支援の制御では、このような車外の撮像対象についての距離または方向の情報は、非常に重要である。
このため、車両の各部に複数の撮像デバイスを設けて、360度の周囲を複数の撮像デバイスにより分割して撮像することが考えられている。
しかしながら、車両に設けられる撮像デバイスでは、走行する車両の振動などにより、その撮像範囲や画角が変化しないことが大切である。
特に、複数の撮像デバイスにより360度の周囲を分割して撮像する場合、1つの撮像デバイスの撮像範囲や画角が微妙に変化するだけでも、複数の撮像デバイスの撮像画像に基づく処理に影響が生じやすい。
特に、複数の撮像デバイスにより360度の周囲を分割して撮像する場合、1つの撮像デバイスの撮像範囲や画角が微妙に変化するだけでも、複数の撮像デバイスの撮像画像に基づく処理に影響が生じやすい。
このため、従来においては、各撮像デバイスを、剛性が高い車体そのものに直接的に取り付けられることが検討されている。
しかしながら、このように撮像デバイスを、車体そのものに直接的に取り付ける場合、その撮像デバイスの取り付け位置が極めて限定されてしまう。しかも、撮像デバイスを、車体そのものに直接的に取り付けてずれにくくしているとしても、撮像デバイスの位置や向きは、車体に衝撃が加えられたりしなくとも、経時的に変化してしまう可能性が残る。
また、複数の撮像デバイスをやめて、車両のたとえばルーフの上に360度カメラを設けることも考えられるが、そのような撮像デバイスを採用したとしても、その位置や向きが経時的に変化してしまう可能性が排除できることにはならない。
しかしながら、このように撮像デバイスを、車体そのものに直接的に取り付ける場合、その撮像デバイスの取り付け位置が極めて限定されてしまう。しかも、撮像デバイスを、車体そのものに直接的に取り付けてずれにくくしているとしても、撮像デバイスの位置や向きは、車体に衝撃が加えられたりしなくとも、経時的に変化してしまう可能性が残る。
また、複数の撮像デバイスをやめて、車両のたとえばルーフの上に360度カメラを設けることも考えられるが、そのような撮像デバイスを採用したとしても、その位置や向きが経時的に変化してしまう可能性が排除できることにはならない。
このように車両では、車両の車外を撮像するために車両に設けられる撮像デバイスについて、その信頼性を確保し、または維持することが求められる。
本発明に係る車両の車外撮像装置は、車両の車外を撮像するために前記車両に設けられる複数の撮像デバイスと、複数の前記撮像デバイスの撮像画像を用いて車外の撮像対象についての距離または方向の情報を生成することができる制御部と、を有し、複数の前記撮像デバイスの中の、少なくとも2つの前記撮像デバイスは、共通する撮像領域を重ねて撮像可能となるように前記車両に設けられ、前記制御部は、共通する撮像領域を重ねて撮像可能な少なくとも2つの前記撮像デバイスの中の、1つの前記撮像デバイスの撮像画像での距離および方向に基づいて、残りの前記撮像デバイスの撮像画像の単眼処理で用いる、撮像位置に基づく車外の撮像対象についての距離または方向についての補正情報を生成する。
好適には、複数の前記撮像デバイスの中の少なくとも3つが、共通する撮像領域を重ねて撮像可能となるように前記車両に設けられ、前記制御部は、少なくとも3つの中の2つの前記撮像デバイスの撮像画像を用いて、共通する撮像領域に撮像されている車外の撮像対象の視差に基づく距離および方向の情報を生成し、視差に基づく距離および方向の情報を用いて、少なくとも3つの中の残りの少なくとも1つの前記撮像デバイスの撮像画像の単眼処理で用いる、撮像位置に基づく車外の撮像対象についての距離または方向についての補正情報を生成する、とよい。
好適には、前記車両の車外を撮像するために前記車両に設けられる複数の前記撮像デバイスは、互いの配置が規定される2つの前記撮像デバイスによるステレオカメラと、前記ステレオカメラの2つの前記撮像デバイスと共通する撮像領域を重ねて撮像可能な、少なくとも1つの単眼処理用の前記撮像デバイスと、を含み、前記制御部は、前記ステレオカメラの2つの前記撮像デバイスの撮像画像を用いて、単眼処理用の前記撮像デバイスと共通する撮像領域に撮像されている車外の撮像対象の視差に基づく距離および方向の情報を生成し、前記ステレオカメラの距離および方向の情報を用いて、単眼処理用の前記撮像デバイスの補正情報を生成する、とよい。
好適には、前記車両の車外を撮像するために前記車両に設けられる複数の前記撮像デバイスは、複数の単眼処理用の前記撮像デバイス、を含み、複数の単眼処理用の前記撮像デバイスは、他の単眼処理用の前記撮像デバイスと共通する撮像領域を重ねて撮像可能となるように設けられ、前記制御部は、複数の単眼処理用の前記撮像デバイスについての補正情報を、前記撮像領域の重なりの順番にしたがって順番に生成する、とよい。
好適には、複数の単眼処理用の前記撮像デバイスは、前記車両の周囲を分割して撮像するように前記車両に設けられ、単眼処理用の各前記撮像デバイスは、前記車両の周囲の分割方向において隣接している他の単眼処理用の前記撮像デバイスと共通する撮像領域を重ねて撮像可能となるように前記車両に設けられている、とよい。
好適には、前記制御部は、複数の単眼処理用の前記撮像デバイスの補正情報を生成する際に、前記車両の車外を撮像するために前記車両に設けられる複数の前記撮像デバイスとしての、互いの配置が規定される2つの前記撮像デバイスによるステレオカメラを基準として、前記ステレオカメラと共通する撮像領域を重ねて撮像可能な単眼処理用の前記撮像デバイスから順番に補正情報を生成する、とよい。
好適には、複数の単眼処理用の前記撮像デバイスは、前記車両の周囲の全周を、または前記ステレオカメラによる撮像範囲を除いた全周を、分割して撮像するように前記車両に設けられ、前記制御部は、前記ステレオカメラの撮像範囲の一端側において共通する撮像領域を重ねて撮像可能な一端側の単眼処理用の前記撮像デバイスと、前記ステレオカメラの撮像範囲の他端側において共通する撮像領域を重ねて撮像可能な他端側の単眼処理用の前記撮像デバイスと、から順番に補正情報を生成し、最後に処理する単眼処理用の前記撮像デバイスについては、一端側の順番での処理による補正情報と、他端側の順番での処理による補正情報とを生成し、生成した2つの前記補正情報を比較して一連の補正を評価する、とよい。
好適には、最後に処理する単眼処理用の前記撮像デバイスは、前記車両の後側を撮像するように設けられ、前記制御部は、最後に処理する単眼処理用の前記撮像デバイスの補正後の撮像画像に含まれる道路の情報に基づいて一連の補正を評価する、とよい。
好適には、前記制御部は、一連の補正が良好である評価できない場合、警報または保守要請を出力する、とよい。
好適には、前記撮像デバイスの撮像画像の単眼処理で用いる、撮像位置に基づく車外の撮像対象についての距離または方向についての補正情報は、前記撮像デバイスについて単眼処理のために設定されている撮像画像での撮像位置ごとの距離または方向の情報についての、距離または方向の補正情報である、とよい。
好適には、前記制御部は、前記撮像デバイスにより撮像される車外の撮像対象についての距離または方向の単眼処理において、前記補正情報を用いて補正し、前記車両の姿勢に基づいて補正した距離または方向を取得する、とよい。
本発明では、車外を撮像するために車両には、複数の撮像デバイスが設けられ、その中の少なくとも3つが、共通する撮像領域を重ねて撮像可能となるように車両に設けられている。これにより、少なくとも3つの撮像デバイスは、車外の撮像画像において、共通する撮像領域を撮像することができる。
そして、車両の車外撮像装置の制御部は、少なくとも3つの中の2つの撮像デバイスの撮像画像を用いて、共通する撮像領域に撮像されている車外の撮像対象の視差に基づく距離および方向の情報を生成する。制御部は、2つの撮像デバイスは、車両におけるそれらの配置に基づいて想定できる視差に基づいて、その他の撮像デバイスの配設状態の変化などに起因する撮像範囲や画角の変化の影響などを受けることなく、共通する撮像領域にある車外の撮像対象についての、距離または方向の情報をより確からしく生成することができる。その結果、制御部は、視差に基づく距離および方向の情報を用いて、少なくとも3つの中の残りの少なくとも1つの撮像デバイスの撮像画像の単眼処理で用いる、撮像位置に基づく車外の撮像対象についての距離または方向について、確からしい補正情報を生成することができる。
このように本発明では、車両に対して、車外を撮像するために複数の撮像デバイスが設けられていることを好適に利用して、少なくとも3つの撮像デバイスを共通する撮像領域を重ねて撮像させるようにして、単眼処理での車外の撮像対象についての距離または方向を、確からしく補正できる。その結果、本発明では、車両に設けられる撮像デバイスの撮像画像を単眼処理したしとても、車外の撮像対象について、複眼処理と同程度の高い確からしさが期待できる距離または方向を取得することができる。
本発明では、車両の車外を撮像するために車両に設けられる撮像デバイスについて、その信頼性を確保し、または維持することが可能となる。
そして、車両の車外撮像装置の制御部は、少なくとも3つの中の2つの撮像デバイスの撮像画像を用いて、共通する撮像領域に撮像されている車外の撮像対象の視差に基づく距離および方向の情報を生成する。制御部は、2つの撮像デバイスは、車両におけるそれらの配置に基づいて想定できる視差に基づいて、その他の撮像デバイスの配設状態の変化などに起因する撮像範囲や画角の変化の影響などを受けることなく、共通する撮像領域にある車外の撮像対象についての、距離または方向の情報をより確からしく生成することができる。その結果、制御部は、視差に基づく距離および方向の情報を用いて、少なくとも3つの中の残りの少なくとも1つの撮像デバイスの撮像画像の単眼処理で用いる、撮像位置に基づく車外の撮像対象についての距離または方向について、確からしい補正情報を生成することができる。
このように本発明では、車両に対して、車外を撮像するために複数の撮像デバイスが設けられていることを好適に利用して、少なくとも3つの撮像デバイスを共通する撮像領域を重ねて撮像させるようにして、単眼処理での車外の撮像対象についての距離または方向を、確からしく補正できる。その結果、本発明では、車両に設けられる撮像デバイスの撮像画像を単眼処理したしとても、車外の撮像対象について、複眼処理と同程度の高い確からしさが期待できる距離または方向を取得することができる。
本発明では、車両の車外を撮像するために車両に設けられる撮像デバイスについて、その信頼性を確保し、または維持することが可能となる。
以下、本発明の実施形態を、図面に基づいて説明する。
図1は、本発明の実施形態に係る車外撮像装置10が適用される自動車1の説明図である。
図1の自動車1は、車体2を有する。車体2には、乗員が乗車する車室3が設けられる。
図1の自動車1は、車体2を有する。車体2には、乗員が乗車する車室3が設けられる。
自動車1は、車両の一例である。図1の自動車1は、直線的な道路についての一対の車線境界線の間を、車線に沿って前へ走行している。
ところで、自動車1では、たとえば自動運転や運転支援による走行制御についての研究開発が進んでいる。
自動車1が自動運転や運転支援により走行する場合、自動車1は、自動車1の車外の走行環境の情報が必要である。このため、自動車1には、図1に示すように複数の撮像デバイス11~18が設けられたり、ライダーなどの出力波を使用するセンサが設けられたりしている。
たとえば図1の自動車1には、自動車1の車外撮像装置10の複数の撮像デバイスとして、前中央撮像デバイス13、前右撮像デバイス11、前左撮像デバイス12、右前撮像デバイス14、右後撮像デバイス15、左前撮像デバイス16、左後撮像デバイス17、後中央撮像デバイス18、が設けられている。
ところで、自動車1では、たとえば自動運転や運転支援による走行制御についての研究開発が進んでいる。
自動車1が自動運転や運転支援により走行する場合、自動車1は、自動車1の車外の走行環境の情報が必要である。このため、自動車1には、図1に示すように複数の撮像デバイス11~18が設けられたり、ライダーなどの出力波を使用するセンサが設けられたりしている。
たとえば図1の自動車1には、自動車1の車外撮像装置10の複数の撮像デバイスとして、前中央撮像デバイス13、前右撮像デバイス11、前左撮像デバイス12、右前撮像デバイス14、右後撮像デバイス15、左前撮像デバイス16、左後撮像デバイス17、後中央撮像デバイス18、が設けられている。
前中央撮像デバイス13は、たとえば車室3の前中央に設けられる。前中央撮像デバイス13は、自動車1の前方を、たとえば120度の画角範囲Rfcで撮像する。
前右撮像デバイス11と前左撮像デバイス12とは、たとえば不図示の共通のステーにより相対位置を固定して支えられて、車室3の前中央に設けられる。前右撮像デバイス11と前左撮像デバイス12とは、自動車1の前方を、たとえば120度の画角範囲Rfr,Rflで撮像する。前右撮像デバイス11と前左撮像デバイス12とは、自動車1の前方をほぼ重なる撮像範囲にて撮像可能となるように設けられる。この場合、前右撮像デバイス11の撮像画像と、前左撮像デバイス12の撮像画像とは、ステレオカメラ19の複眼処理により、それら2つの撮像画像に共通する撮像領域に撮像されている車外のたとえば歩行者といった周辺物を撮像対象として、その撮像対象の視差に基づく相対的な距離および方向の情報を生成することが可能である。このようなステレオカメラ19の複眼処理による周辺物までの相対的な距離および方向は、たとえば走行中の車体2の姿勢や振動の影響を受け難く、高い確からしさを期待できる。
右前撮像デバイス14は、車体2の右Aピラーまたは、右Aピラーの近くの車室3に設けられる。右前撮像デバイス14は、自動車1の右前方を、たとえば120度の画角範囲Rrfで撮像する。
右後撮像デバイス15は、車体2の右側面、たとえば右ドアミラーに設けられる。右後撮像デバイス15は、自動車1の右後方を、たとえば120度の画角範囲Rrrで撮像する。
左前撮像デバイス16は、車体2の左Aピラーまたは、左Aピラーの近くの車室3に設けられる。左前撮像デバイス16は、自動車1の右前方を、たとえば120度の画角範囲Rlfで撮像する。
左後撮像デバイス17は、車体2の左側面、たとえば左ドアミラーに設けられる。左後撮像デバイス17は、自動車1の左後方を、たとえば120度の画角範囲Rlrで撮像する。
後中央撮像デバイス18は、たとえば車室3の後中央に設けられる。後中央撮像デバイス18は、自動車1の後方を、たとえば120度の画角範囲Rrcで撮像する。
このように前中央撮像デバイス13、右前撮像デバイス14、右後撮像デバイス15、左前撮像デバイス16、左後撮像デバイス17、および、後中央撮像デバイス18は、自動車1の車体2の周囲360度の車外範囲を、撮像することができる。
図2は、図1の1つの撮像デバイス41の単眼処理での撮像状況と撮像画像との説明図である。
図2(A)は、撮像デバイス41の撮像状況の説明図である。図2(A)の撮像デバイス41は、自動車1に設けられている。図2(A)の撮像デバイス41は、上下画角範囲42により、車外を撮像する。
図2(A)には、自動車1が走行する路面と、路面にいる歩行者と、が図示されている。路面には、路面に垂直な法線が規定し得る。
図2(A)には、自動車1が走行する路面と、路面にいる歩行者と、が図示されている。路面には、路面に垂直な法線が規定し得る。
図2(B)は、図2(A)の撮像デバイス41の撮像画像51の説明図である。図2(B)の撮像画像51は、撮像デバイス41が有する上下および左右の画角により、車外を撮像したものである。撮像画像51の中央部分に、歩行者の像が含まれる。
また、図2(B)の撮像画像51には、撮像デバイス41を撮像中心とした複数の同心円が模式的に示されている。同心円は、撮像デバイス41を撮像中心として、撮像中心から等しい距離を結んだ線である。また、撮像画像51には、撮像中心から放射状に延びる複数の直線が示されている。このように、撮像デバイス41の撮像画像51には、撮像画像51の撮像位置ごとに、撮像デバイス41がある撮像中心を基準とした相対的な距離と方向とを対応付けることが可能である。撮像画像51の単眼処理では、撮像画像での撮像位置に基づいて、このような対応づけに基づく相対的な距離と方向とを得ることができる。
また、図2(B)の撮像画像51には、撮像デバイス41を撮像中心とした複数の同心円が模式的に示されている。同心円は、撮像デバイス41を撮像中心として、撮像中心から等しい距離を結んだ線である。また、撮像画像51には、撮像中心から放射状に延びる複数の直線が示されている。このように、撮像デバイス41の撮像画像51には、撮像画像51の撮像位置ごとに、撮像デバイス41がある撮像中心を基準とした相対的な距離と方向とを対応付けることが可能である。撮像画像51の単眼処理では、撮像画像での撮像位置に基づいて、このような対応づけに基づく相対的な距離と方向とを得ることができる。
図2(C)は、撮像デバイス41の撮像画像51に対応する、単眼処理のための路面モデル55の説明図である。撮像画像51は、撮像範囲をマトリクス状に分割する複数の画素の輝度値といった情報により構成される。
図2(C)の路面モデル55では、撮像画像51の各画素について、撮像デバイス41がある撮像中心を基準とした、図2(A)の路面での相対的な距離と方向とが対応付けられる。
図2(B)の撮像画像51では、歩行者の像の周囲について設定される四角枠52の下端中央に対応する画素57が、歩行者の相対的な距離および方向を示すものとして特定できる。
図2(C)の路面モデル55において画素57を特定することにより、図2(A)の歩行者までの路面での距離および方向を得ることが可能である。
このように、1つの撮像画像51に基づく単眼処理により、自動車1の周囲にいる周辺物についての路面での距離および方向を得ることができる。
自動運転や運転支援の制御では、このような車外の撮像対象についての相対的な距離または方向の情報を使用して、自動車1の走行を制御できる。
自動車1の360度の周囲を複数の撮像デバイス11~18により分割して撮像したり、360度を撮像可能な1つの撮像デバイスを用いたりすることにより、自動車1は、自動車の走行に影響を与える可能性がある周辺物の情報を得て、自動運転や運転支援の制御の信頼性を向上することができる。
図2(C)の路面モデル55では、撮像画像51の各画素について、撮像デバイス41がある撮像中心を基準とした、図2(A)の路面での相対的な距離と方向とが対応付けられる。
図2(B)の撮像画像51では、歩行者の像の周囲について設定される四角枠52の下端中央に対応する画素57が、歩行者の相対的な距離および方向を示すものとして特定できる。
図2(C)の路面モデル55において画素57を特定することにより、図2(A)の歩行者までの路面での距離および方向を得ることが可能である。
このように、1つの撮像画像51に基づく単眼処理により、自動車1の周囲にいる周辺物についての路面での距離および方向を得ることができる。
自動運転や運転支援の制御では、このような車外の撮像対象についての相対的な距離または方向の情報を使用して、自動車1の走行を制御できる。
自動車1の360度の周囲を複数の撮像デバイス11~18により分割して撮像したり、360度を撮像可能な1つの撮像デバイスを用いたりすることにより、自動車1は、自動車の走行に影響を与える可能性がある周辺物の情報を得て、自動運転や運転支援の制御の信頼性を向上することができる。
図3は、自動車1に設ける撮像デバイスに生じ得る、ずれの影響の説明図である。
図3(A)は、撮像デバイスの撮像画像61に生じ得るずれの説明図である。
撮像画像61には、たとえば、撮像デバイスについての車体2への取り付け状態が変化したり、車体2そのものの姿勢が変化したりすることにより、図3(A)に示すように、撮像画像61の中心の周囲での回転ずれ、撮像画像61の上下方向への垂直ずれ、撮像画像61の左右方向への水平ずれ、が生じえる。撮像デバイスが車体2そのものに直接的に取り付けられていたとしても、たとえば車体2に衝撃が加わることにより、撮像デバイスの位置や向きが変化することもある。撮像デバイスを車体2そのものに直接に取り付けていないために高い取り付け剛性を期待し難い場合には、特に、撮像デバイスの取り付け状態が、経時的に、設計での基準位置からずれたり、製造時での取り付け位置からずれたりしやすい。
撮像画像61には、たとえば、撮像デバイスについての車体2への取り付け状態が変化したり、車体2そのものの姿勢が変化したりすることにより、図3(A)に示すように、撮像画像61の中心の周囲での回転ずれ、撮像画像61の上下方向への垂直ずれ、撮像画像61の左右方向への水平ずれ、が生じえる。撮像デバイスが車体2そのものに直接的に取り付けられていたとしても、たとえば車体2に衝撃が加わることにより、撮像デバイスの位置や向きが変化することもある。撮像デバイスを車体2そのものに直接に取り付けていないために高い取り付け剛性を期待し難い場合には、特に、撮像デバイスの取り付け状態が、経時的に、設計での基準位置からずれたり、製造時での取り付け位置からずれたりしやすい。
図3(B)は、撮像デバイスが基準位置から左下方向へずれている場合での撮像画像62である。撮像画像62には、路面モデルが重ねて描画されている。
図3(B)の撮像画像62は、図2(B)の撮像画像51と同様に、図2(A)の歩行者を撮像したものである。
図3(B)の撮像画像62を撮像する撮像デバイスの向きは、紙面の左下方向へずれている。
この場合、撮像画像62に含まれる歩行者の像の撮像位置は、撮像画像62の右上方向の位置へずれる。
その結果、歩行者の相対的な距離および方向を示すものとして特定される画素63は、図2(C)で特定される画素57の右上方向の画素となる。
画素63の位置と路面モデルとに基づいて特定される歩行者についての相対的な距離または方向は、ずれが生じていない図2(B)の撮像画像51と比べて、正確性に劣るものとなる。
図3(B)の撮像画像62は、図2(B)の撮像画像51と同様に、図2(A)の歩行者を撮像したものである。
図3(B)の撮像画像62を撮像する撮像デバイスの向きは、紙面の左下方向へずれている。
この場合、撮像画像62に含まれる歩行者の像の撮像位置は、撮像画像62の右上方向の位置へずれる。
その結果、歩行者の相対的な距離および方向を示すものとして特定される画素63は、図2(C)で特定される画素57の右上方向の画素となる。
画素63の位置と路面モデルとに基づいて特定される歩行者についての相対的な距離または方向は、ずれが生じていない図2(B)の撮像画像51と比べて、正確性に劣るものとなる。
図3(C)は、撮像デバイスが基準位置から左横方向へずれた場合での撮像画像64である。撮像画像64には、路面モデルが重ねて描画されている。
図3(C)の撮像画像64は、図2(B)の撮像画像51と同様に、図2(A)の歩行者を撮像したものである。
図3(C)の撮像画像64を撮像する撮像デバイスの向きは、紙面の左方向へずれている。
この場合、撮像画像64に含まれる歩行者の像の撮像位置は、撮像画像64の右方向の位置へずれる。
その結果、歩行者の相対的な距離および方向を示すものとして特定される画素65は、図2(C)で特定される画素57の右方向の画素となる。
画素65の位置と路面モデルとに基づいて特定される歩行者についての相対的な距離または方向は、ずれが生じていない図2(B)の撮像画像51と比べて、正確性に劣るものとなる。
図3(C)の撮像画像64は、図2(B)の撮像画像51と同様に、図2(A)の歩行者を撮像したものである。
図3(C)の撮像画像64を撮像する撮像デバイスの向きは、紙面の左方向へずれている。
この場合、撮像画像64に含まれる歩行者の像の撮像位置は、撮像画像64の右方向の位置へずれる。
その結果、歩行者の相対的な距離および方向を示すものとして特定される画素65は、図2(C)で特定される画素57の右方向の画素となる。
画素65の位置と路面モデルとに基づいて特定される歩行者についての相対的な距離または方向は、ずれが生じていない図2(B)の撮像画像51と比べて、正確性に劣るものとなる。
図4は、自動車1に設ける複数の撮像デバイスの間で生じ得る、ずれの影響の説明図である。
図4(A)から図4(C)には、前へ走行中の自動車1の左側に設けられる左前撮像デバイス16と左後撮像デバイス17との2つの撮像デバイスによる撮像画像71,72が示されている。時間は、図4(A)から図4(C)へ向かって流れる。
図4において、左前撮像デバイス16は、基準位置に設けられている。これに対し、左後撮像デバイス17は、基準位置から右下方向へ向かうようにずれて設けられる。
図4(A)から図4(C)には、前へ走行中の自動車1の左側に設けられる左前撮像デバイス16と左後撮像デバイス17との2つの撮像デバイスによる撮像画像71,72が示されている。時間は、図4(A)から図4(C)へ向かって流れる。
図4において、左前撮像デバイス16は、基準位置に設けられている。これに対し、左後撮像デバイス17は、基準位置から右下方向へ向かうようにずれて設けられる。
図4(A)は、左後撮像画像72がずれたまま、左前撮像画像71の中央領域において、撮像対象である歩行者を撮像している状況の説明図である。
図4(A)では、左前撮像デバイス16および左後撮像デバイス17の中の、左前撮像デバイス16が、歩行者を撮像している。歩行者は、左前撮像デバイス16の撮像画像の中央領域の位置73に撮像されている。
図4(A)では、左前撮像デバイス16および左後撮像デバイス17の中の、左前撮像デバイス16が、歩行者を撮像している。歩行者は、左前撮像デバイス16の撮像画像の中央領域の位置73に撮像されている。
図4(B)は、図4(A)の直後に、左前撮像画像71の後領域において、撮像対象である歩行者を撮像している状況の説明図である。
図4(A)の後のタイミングである図4(B)では、自動車1が前へ走行しているため、歩行者は、左前撮像デバイス16の撮像画像71の左側領域の位置74に撮像されている。
図4(A)の後のタイミングである図4(B)では、自動車1が前へ走行しているため、歩行者は、左前撮像デバイス16の撮像画像71の左側領域の位置74に撮像されている。
図4(C)は、図4(B)の直後に、ずれている左後撮像画像72の前領域において、撮像対象である歩行者を撮像している状況の説明図である。
図4(B)の後のタイミングである図4(C)では、左前撮像デバイス16ではなく、左後撮像デバイス17が、歩行者を撮像している。歩行者は、左後撮像デバイス17の撮像画像72の中央寄りの位置75に撮像されている。
図4(C)において左後撮像デバイス17の撮像画像72に含まれる歩行者の像の位置75は、左後撮像デバイス17に生じているずれにより、ずれがなかった場合の位置76と比べて、左上方向へずれている。
その結果、図4(C)の左後撮像デバイス17の撮像画像に基づく単眼処理により得られる、歩行者についての距離および方向は、ずれがなかった場合の位置76と比べて、正確性に劣るものとなる。
しかも、図4(A)から図4(B)に示すように、歩行者は、左前撮像デバイス16の撮像画像71において、右から左へ水平に移動するように撮像された後、図4(C)の左後撮像デバイス17の撮像画像72において瞬間移動するように撮像されてしまうことになる。歩行者の距離および方向は、複数の撮像画像71,72の間で移動する際に、非連続的に変化してしまう。
図4(B)の後のタイミングである図4(C)では、左前撮像デバイス16ではなく、左後撮像デバイス17が、歩行者を撮像している。歩行者は、左後撮像デバイス17の撮像画像72の中央寄りの位置75に撮像されている。
図4(C)において左後撮像デバイス17の撮像画像72に含まれる歩行者の像の位置75は、左後撮像デバイス17に生じているずれにより、ずれがなかった場合の位置76と比べて、左上方向へずれている。
その結果、図4(C)の左後撮像デバイス17の撮像画像に基づく単眼処理により得られる、歩行者についての距離および方向は、ずれがなかった場合の位置76と比べて、正確性に劣るものとなる。
しかも、図4(A)から図4(B)に示すように、歩行者は、左前撮像デバイス16の撮像画像71において、右から左へ水平に移動するように撮像された後、図4(C)の左後撮像デバイス17の撮像画像72において瞬間移動するように撮像されてしまうことになる。歩行者の距離および方向は、複数の撮像画像71,72の間で移動する際に、非連続的に変化してしまう。
本実施形態では、走行する自動車1に設けられる複数の撮像デバイス11~18の撮像範囲や画角が、その取り付け状態の変化や振動によってずれたとしても、上述した各種の課題が発生し難くできる技術を提案する。
本実施形態では、複数の撮像デバイス11~18が剛性が高い車体2そのものに直接的に取り付けられていなくとも、使用に耐えられるようにする技術を提案する。複数の撮像デバイス11~18は、剛性が高い車体2に直接的に取り付けないことにより、撮像などに適した自由な位置に取り付けることが可能になる。
その結果として、本実施形態では、自動車1の車外を撮像するために自動車1に設けられる複数の撮像デバイス11~18について、その信頼性を確保し、または維持することができるようになる。
本実施形態では、複数の撮像デバイス11~18が剛性が高い車体2そのものに直接的に取り付けられていなくとも、使用に耐えられるようにする技術を提案する。複数の撮像デバイス11~18は、剛性が高い車体2に直接的に取り付けないことにより、撮像などに適した自由な位置に取り付けることが可能になる。
その結果として、本実施形態では、自動車1の車外を撮像するために自動車1に設けられる複数の撮像デバイス11~18について、その信頼性を確保し、または維持することができるようになる。
図5は、図1の自動車1における、車外撮像装置10を含む制御システム9の説明図である。
図5の制御システム9は、自動車1の制御系を構成するものであり、車外撮像装置10、運転支援装置32、乗員保護装置33、車外保護装置34、車外通信装置35、センサ装置36、および、これらが接続される車ネットワーク31、を有する。
図5の制御システム9は、自動車1の制御系を構成するものであり、車外撮像装置10、運転支援装置32、乗員保護装置33、車外保護装置34、車外通信装置35、センサ装置36、および、これらが接続される車ネットワーク31、を有する。
車ネットワーク31は、たとえば自動車1で採用される例えばCAN(Controller Area Network)やLIN(Local Interconnect Network)、LAN(Local Area Network)、FlexRay、CXPI(Clock Extension Peripheral Interface)といったものでよい。車ネットワーク31は、たとえば、複数の制御装置に接続される複数のバスケーブルと、複数のバスケーブルがバス接続されるセントラルゲートウェイ(CGW)と、で構成されてよい。複数の制御装置は、車ネットワーク31を通じて相互にメッセージを送受できる。これにより、複数の制御装置は、協働して自動車1を制御できる。
運転支援装置32は、たとえば自動車1の不図示の操舵装置、駆動装置、制動装置などを制御し、自動車1の走行を制御する。駆動装置は、ガソリン、軽油、水素ガスといった燃料の燃焼により駆動力を発生するエンジンを備えるものでも、バッテリの蓄電電力または発電により駆動力を発生するモータを備えるものでも、またはその双方を備えるものでも、よい。運転支援装置32は、自動車1の乗員の操作にしたがって自動車1の走行を制御しても、乗員の操作を支援して自動車1の走行を制御しても、自律的な自動運転の制御により自動車1の走行を制御しても、よい。
乗員保護装置33は、自動車1の乗員を保護するための不図示のエアバッグ装置、シートベルト装置などを制御し、自動車1の乗員を保護するための制御を実行する。乗員保護装置33は、自動車1の衝突が検出または予測されることに基づいて、自動車1の乗員を保護するための制御を実行してよい。
車外保護装置34は、自動車1の周囲にいる歩行者やサイクリストを保護するための不図示のエアバッグ装置などを制御し、自動車1の周囲にいる歩行者やサイクリストを保護するための制御を実行する。車外保護装置34は、たとえば歩行者やサイクリストと自動車1との衝突が検出または予測されることに基づいて、歩行者やサイクリストを保護するための制御を実行してよい。
車外通信装置35は、たとえば道路に沿って設置される不図示の基地局などと通信路を確立し、制御システム9と基地局に接続される不図示のサーバ装置との間で無線通信によるデータ送受を実行する。これにより、車外通信装置35は、自動車1の制御システム9で生成される衝突などの情報を、車外のサーバ装置へ送信できる。この場合、自動車1の制御システム9は、自動車1の制御システム9で生成される衝突などの情報を、車外のサーバ装置へ送信できる。
また、車外通信装置35は、自動車1の周囲を走行する他の自動車といった他の移動体との間で、通信路を確立してもよい。この場合、自動車1の制御システム9は、自動車1の制御システム9で生成される衝突などの情報を、他の移動体へ送信したり、他の移動体から走行などの情報を受信したりできる。
また、車外通信装置35は、自動車1の周囲を走行する他の自動車といった他の移動体との間で、通信路を確立してもよい。この場合、自動車1の制御システム9は、自動車1の制御システム9で生成される衝突などの情報を、他の移動体へ送信したり、他の移動体から走行などの情報を受信したりできる。
センサ装置36は、たとえば加速度センサ37といった自動車1に設けられる各種のセンサに接続される。加速度センサ37は、自動車1の走行に伴う加速度を検出する。センサ装置36は、加速度センサ37の検出値に基づいて、自動車1の走行方向、走行速度、姿勢といった情報を生成してよい。
車外撮像装置10は、複数の撮像デバイス11~18、入出力ポート22、車内入出力部21、タイマ25、メモリ23、CPU24、および、これらが接続されるシステムバス26、を有する。
車外撮像装置10の各部は、システムバス26を通じて互いにデータを入出力できる。
車外撮像装置10の各部は、システムバス26を通じて互いにデータを入出力できる。
複数の撮像デバイス11~18は、自動車1の車外を撮像するために自動車1に設けられるものであればよく、図1に示すものでよい。
そして、本実施形態において、図1の前中央撮像デバイス13は、その画角範囲Rfcの少なくとも一部の撮像領域が、前右撮像デバイス11の画角範囲Rfr、および前左撮像デバイス12の画角範囲Rflと、重なるように設けられる。
右前撮像デバイス14の画角範囲Rrfは、その左側の一部の撮像領域が、前右撮像デバイス11の画角範囲Rfr、前左撮像デバイス12の画角範囲Rfl、と重なるように設けられる。また、右前撮像デバイス14の画角範囲Rrfは、その左側の一部の撮像領域が、前中央撮像デバイス13の画角範囲Rfc、と重なるように設けられる。
右後撮像デバイス15の画角範囲Rrrは、その左側の一部の撮像領域が、右前撮像デバイス14の画角範囲Rrfの撮像領域、と重なるように設けられる。
左前撮像デバイス16の画角範囲Rlfは、その右側の一部の撮像領域が、前右撮像デバイス11の画角範囲Rfr、前左撮像デバイス12の画角範囲Rfl、と重なるように設けられる。また、左前撮像デバイス16の画角範囲Rlfは、その右側の一部の撮像領域が、前中央撮像デバイス13の画角範囲Rfc、と重なるように設けられる。
左後撮像デバイス17の画角範囲Rlrは、その右側の一部の撮像領域が、左前撮像デバイス16の画角範囲Rlfの撮像領域、と重なるように設けられる。
後中央撮像デバイス18の画角範囲Rrcは、その左側の一部の撮像領域が、右後撮像デバイス15の画角範囲Rrr、と重なるように設けられる。また、後中央撮像デバイス18の画角範囲Rrcは、その右側の一部の撮像領域が、左後撮像デバイス17の画角範囲Rlr、と重なるように設けられる。
そして、本実施形態において、図1の前中央撮像デバイス13は、その画角範囲Rfcの少なくとも一部の撮像領域が、前右撮像デバイス11の画角範囲Rfr、および前左撮像デバイス12の画角範囲Rflと、重なるように設けられる。
右前撮像デバイス14の画角範囲Rrfは、その左側の一部の撮像領域が、前右撮像デバイス11の画角範囲Rfr、前左撮像デバイス12の画角範囲Rfl、と重なるように設けられる。また、右前撮像デバイス14の画角範囲Rrfは、その左側の一部の撮像領域が、前中央撮像デバイス13の画角範囲Rfc、と重なるように設けられる。
右後撮像デバイス15の画角範囲Rrrは、その左側の一部の撮像領域が、右前撮像デバイス14の画角範囲Rrfの撮像領域、と重なるように設けられる。
左前撮像デバイス16の画角範囲Rlfは、その右側の一部の撮像領域が、前右撮像デバイス11の画角範囲Rfr、前左撮像デバイス12の画角範囲Rfl、と重なるように設けられる。また、左前撮像デバイス16の画角範囲Rlfは、その右側の一部の撮像領域が、前中央撮像デバイス13の画角範囲Rfc、と重なるように設けられる。
左後撮像デバイス17の画角範囲Rlrは、その右側の一部の撮像領域が、左前撮像デバイス16の画角範囲Rlfの撮像領域、と重なるように設けられる。
後中央撮像デバイス18の画角範囲Rrcは、その左側の一部の撮像領域が、右後撮像デバイス15の画角範囲Rrr、と重なるように設けられる。また、後中央撮像デバイス18の画角範囲Rrcは、その右側の一部の撮像領域が、左後撮像デバイス17の画角範囲Rlr、と重なるように設けられる。
入出力ポート22には、複数の撮像デバイス11~18が接続される。複数の撮像デバイス11~18は、各々が周期的に撮像する撮像画像を、入出力ポート22へ出力する。
車内入出力部21は、車ネットワーク31に接続される。車内入出力部21は、車ネットワーク31を通じて、制御システム9を構成する他の装置、たとえば運転支援装置32などとの間でデータを含むメッセージを入出力する。
タイマ25は、時間、時刻を計測する。タイマ25の時刻は、不図示のGNSS衛星からの電波により校正されてよい。GNSS衛星を受信するGNSS受信機は、車ネットワーク31に接続されても、センサ装置36に接続されてもよい。
メモリ23は、たとえばHDD、SD、RAM、ROM、などで構成されてよい。メモリ23は、たとえば、CPU24が実行するプログラム、およびプログラムの実行に用いるテーブルなどのデータを記録する。メモリ23は、たとえば図2(C)の路面モデル55の複数の画素の距離および方向についてのテーブルを記録してよい。
CPU24は、メモリ23に記録されるプログラムを読み込んで実行する。これにより、CPU24は、車外撮像装置10の制御部として機能する。
車外撮像装置10の制御部としてのCPU24は、車外撮像装置10の全体的な動作を制御する。
CPU24は、たとえば入出力ポート22を通じて複数の撮像デバイス11~18の各々から撮像画像を取得すると、取得した撮像画像に基づいて歩行者などの周辺物を認識して特定する。
CPU24は、複数の撮像デバイス11~18の撮像画像を用いて、車外の撮像対象としての特定した周辺物についての相対的な距離または方向を生成する。
CPU24は、特定した周辺物について生成したこれらの情報を、車内入出力部21および車ネットワーク31を通じて、制御システム9を構成する他の装置へ出力する。
CPU24は、車外撮像装置10の複数の撮像デバイス11~18の各々のずれを補正するためのキャリブレーション制御を、必要に応じて適宜実行してよい。
車外撮像装置10の制御部としてのCPU24は、車外撮像装置10の全体的な動作を制御する。
CPU24は、たとえば入出力ポート22を通じて複数の撮像デバイス11~18の各々から撮像画像を取得すると、取得した撮像画像に基づいて歩行者などの周辺物を認識して特定する。
CPU24は、複数の撮像デバイス11~18の撮像画像を用いて、車外の撮像対象としての特定した周辺物についての相対的な距離または方向を生成する。
CPU24は、特定した周辺物について生成したこれらの情報を、車内入出力部21および車ネットワーク31を通じて、制御システム9を構成する他の装置へ出力する。
CPU24は、車外撮像装置10の複数の撮像デバイス11~18の各々のずれを補正するためのキャリブレーション制御を、必要に応じて適宜実行してよい。
図6は、図5の複数の撮像デバイス11~18の撮像範囲と、360度キャリブレーションでのずれ補正制御の順番との説明図である。
図6には、図1に示す複数の撮像デバイス11~18による複数の撮像画像が示されている。
複数の撮像画像は、自動車1の前中央のもの(IRfc)を中心として、撮像範囲が相互に重ねて並べられている。
図6の中央部分には、前中央撮像デバイス13の撮像画像IRfcと、前右撮像デバイス11の撮像画像IRfrと、前左撮像デバイス12の撮像画像IRlrと、がそれらの略すべての撮像領域が重なるように示されている。
図6の右側分には、右前撮像デバイス14の撮像画像IRrf、右後撮像デバイス15の撮像画像IRrr、後中央撮像デバイス18の撮像画像IRrc1、が中央側から順番に一部の撮像領域を重ねて示されている。
図6の左側分には、左前撮像デバイス16の撮像画像IRlf、左後撮像デバイス17の撮像画像IRlr、後中央撮像デバイス18の撮像画像IRrc2、が中央側から順番に一部の撮像領域を重ねて示されている。
複数の撮像画像は、自動車1の前中央のもの(IRfc)を中心として、撮像範囲が相互に重ねて並べられている。
図6の中央部分には、前中央撮像デバイス13の撮像画像IRfcと、前右撮像デバイス11の撮像画像IRfrと、前左撮像デバイス12の撮像画像IRlrと、がそれらの略すべての撮像領域が重なるように示されている。
図6の右側分には、右前撮像デバイス14の撮像画像IRrf、右後撮像デバイス15の撮像画像IRrr、後中央撮像デバイス18の撮像画像IRrc1、が中央側から順番に一部の撮像領域を重ねて示されている。
図6の左側分には、左前撮像デバイス16の撮像画像IRlf、左後撮像デバイス17の撮像画像IRlr、後中央撮像デバイス18の撮像画像IRrc2、が中央側から順番に一部の撮像領域を重ねて示されている。
このように、図1に示す複数の撮像デバイス11~18は、自動車1の前中央から右まわりに後中央までを撮像し、自動車1の前中央から左まわりに後中央までを撮像する。
図1に示す複数の撮像デバイス11~18は、自動車1の周囲の360度を、複数の撮像デバイス11~18により分割して撮像できる。自動車1の周囲に存在する歩行者などの周辺物は、少なとも1つの撮像デバイスにより撮像され得る。
なお、図6における複数の撮像画像についての上下方向のずれは、図面の見やすさおよび説明のためのものである。複数の撮像画像の撮像範囲は、基本的に自動車1の上下方向へずれることなく、自動車1の外周方向に沿って並んでいてよい。
図1に示す複数の撮像デバイス11~18は、自動車1の周囲の360度を、複数の撮像デバイス11~18により分割して撮像できる。自動車1の周囲に存在する歩行者などの周辺物は、少なとも1つの撮像デバイスにより撮像され得る。
なお、図6における複数の撮像画像についての上下方向のずれは、図面の見やすさおよび説明のためのものである。複数の撮像画像の撮像範囲は、基本的に自動車1の上下方向へずれることなく、自動車1の外周方向に沿って並んでいてよい。
図7は、図5の車外撮像装置10のCPU24による、360度キャリブレーション制御のフローチャートである。
図7の360度キャリブレーション制御は、ステレオカメラ19の複眼処理に用いることができる前右撮像デバイス11の撮像画像IRfrと前左撮像デバイス12の撮像画像IRlrとを最初の基準画像として用いて、その他の撮像デバイス13~18の単眼処理でのずれ補正情報を生成するものである。そして、図7の360度キャリブレーション制御では、図6の中央の撮像画像IRfcから、右回りの順番、および左回りの順番で、それぞれの撮像画像についてのずれ補正の情報を生成する。
ここで生成するずれ補正の情報は、各撮像デバイスの撮像画像の単眼処理において、撮像範囲での撮像位置に基づく車外の撮像対象(周辺物など)についての相対的な距離または方向を得る際に用いることができるものでよい。
この場合でのずれ補正の情報は、各撮像デバイスの撮像画像について単眼処理のためにたとえば設計時に予め設定されている撮像画像での画素(撮像位置)ごとの相対的な距離または方向の情報についての距離または方向の補正情報となる。
図7の360度キャリブレーション制御は、ステレオカメラ19の複眼処理に用いることができる前右撮像デバイス11の撮像画像IRfrと前左撮像デバイス12の撮像画像IRlrとを最初の基準画像として用いて、その他の撮像デバイス13~18の単眼処理でのずれ補正情報を生成するものである。そして、図7の360度キャリブレーション制御では、図6の中央の撮像画像IRfcから、右回りの順番、および左回りの順番で、それぞれの撮像画像についてのずれ補正の情報を生成する。
ここで生成するずれ補正の情報は、各撮像デバイスの撮像画像の単眼処理において、撮像範囲での撮像位置に基づく車外の撮像対象(周辺物など)についての相対的な距離または方向を得る際に用いることができるものでよい。
この場合でのずれ補正の情報は、各撮像デバイスの撮像画像について単眼処理のためにたとえば設計時に予め設定されている撮像画像での画素(撮像位置)ごとの相対的な距離または方向の情報についての距離または方向の補正情報となる。
車外撮像装置10のCPU24は、図7の360度キャリブレーション制御を、繰り返し実行してよい。
CPU24は、図7の360度キャリブレーション制御の複数の処理を一度にすべてを実行しても、1つの撮像デバイスの撮像画像についての処理をしたら時間をあけて次の撮像デバイスの撮像画像についての処理を離間的に実行してもよい。
CPU24は、図7のキャリブレーション制御を周期的に実行するだけでなく、たとえば車体2に衝撃が入力された時、走行を開始する時、製造出荷時、車両点検時などにおいて適宜に実行してよい。
そして、CPU24は、図7の各々のずれ補正制御の処理において、各々の処理時点(現時点)での最新の撮像画像の1つの撮像対象のみに基づいてずれ補正の情報を生成してもよいが、好ましくは、複数の撮像対象に基づく平均的なずれ補正の情報を生成したり、複数回の撮像画像での複数の撮像対象に基づく平均的なずれ補正の情報を生成したりするとよい。これにより、撮像対象の種類に応じた認識誤差の影響、撮像タイミングに起因する誤差の影響などを抑制して、より確からしいずれ補正の情報が生成されることを期待できる。
CPU24は、図7の360度キャリブレーション制御の複数の処理を一度にすべてを実行しても、1つの撮像デバイスの撮像画像についての処理をしたら時間をあけて次の撮像デバイスの撮像画像についての処理を離間的に実行してもよい。
CPU24は、図7のキャリブレーション制御を周期的に実行するだけでなく、たとえば車体2に衝撃が入力された時、走行を開始する時、製造出荷時、車両点検時などにおいて適宜に実行してよい。
そして、CPU24は、図7の各々のずれ補正制御の処理において、各々の処理時点(現時点)での最新の撮像画像の1つの撮像対象のみに基づいてずれ補正の情報を生成してもよいが、好ましくは、複数の撮像対象に基づく平均的なずれ補正の情報を生成したり、複数回の撮像画像での複数の撮像対象に基づく平均的なずれ補正の情報を生成したりするとよい。これにより、撮像対象の種類に応じた認識誤差の影響、撮像タイミングに起因する誤差の影響などを抑制して、より確からしいずれ補正の情報が生成されることを期待できる。
ステップST1において、CPU24は、互いの配置が規定されている前右撮像デバイス11と前左撮像デバイス12とのステレオカメラ19についての複眼処理による車外の撮像対象についての相対的な距離および方向の情報を基準として、前中央撮像デバイス13の単眼処理に用いるずれ補正の情報を生成する。前中央撮像デバイス13の撮像領域は、図6に示すように、ステレオカメラ19としての前右撮像デバイス11の撮像領域と前左撮像デバイス12の撮像領域との双方と重なる。複数の撮像デバイスの中の少なくとも3つは、共通する撮像領域を重ねて撮像可能となるように自動車1に設けられている。
CPU24は、これら3つの撮像デバイスの撮像画像に共通に撮像されている車外の撮像対象を認識し、ステレオカメラ19での撮像対象の視差に基づく相対的な距離および方向の情報を生成する。
CPU24は、ステレオカメラ19での撮像対象の視差に基づく相対的な距離および方向と、前中央撮像デバイス13での道路パターンに基づく相対的な距離および方向との差を、処理に係る前中央撮像デバイス13の撮像画像についてのずれ補正の情報を生成する。
CPU24は、これら3つの撮像デバイスの撮像画像に共通に撮像されている車外の撮像対象を認識し、ステレオカメラ19での撮像対象の視差に基づく相対的な距離および方向の情報を生成する。
CPU24は、ステレオカメラ19での撮像対象の視差に基づく相対的な距離および方向と、前中央撮像デバイス13での道路パターンに基づく相対的な距離および方向との差を、処理に係る前中央撮像デバイス13の撮像画像についてのずれ補正の情報を生成する。
ステップST2において、CPU24は、ステップST1と同様にステレオカメラ19での撮像対象の視差に基づく相対的な距離および方向を基準として、単眼処理用の右前撮像デバイス14の撮像画像についてのずれ補正の情報を生成する。右前撮像デバイス14の撮像領域の一部は、ステレオカメラ19を構成する前右撮像デバイス11の撮像領域と前左撮像デバイス12の撮像領域と重なっており、3つに共通する撮像領域には、共通の撮像対象が重ねて撮像され得る。
また、CPU24は、ステップST1と同様にステレオカメラ19での撮像対象の視差に基づく相対的な距離および方向を基準として、単眼処理用の左前撮像デバイス16の撮像画像についてのずれ補正の情報を生成する。左前撮像デバイス16の撮像領域の一部は、ステレオカメラ19を構成する前右撮像デバイス11の撮像領域と前左撮像デバイス12の撮像領域と重なっており、3つに共通する撮像領域には、共通の撮像対象が重ねて撮像され得る。
また、CPU24は、ステップST1と同様にステレオカメラ19での撮像対象の視差に基づく相対的な距離および方向を基準として、単眼処理用の左前撮像デバイス16の撮像画像についてのずれ補正の情報を生成する。左前撮像デバイス16の撮像領域の一部は、ステレオカメラ19を構成する前右撮像デバイス11の撮像領域と前左撮像デバイス12の撮像領域と重なっており、3つに共通する撮像領域には、共通の撮像対象が重ねて撮像され得る。
ステップST3において、CPU24は、単眼処理用の右後撮像デバイス15の撮像画像の一部が、単眼処理用の右前撮像デバイス14の撮像画像と重なって共通する撮像対象を重ねて撮像していることを利用して、単眼処理用の右前撮像デバイス14のずれ補正後の撮像画像における車外の撮像対象についての相対的な距離または方向の情報を基準として、右後撮像デバイス15の撮像画像についてのずれ補正の情報を生成する。2つの撮像画像において重なる共通する撮像領域には、共通の撮像対象が重ねて撮像され得る。
また、CPU24は、単眼処理用の左後撮像デバイス17の撮像画像の一部が、単眼処理用の左前撮像デバイス16の撮像画像と重なって共通する撮像対象を重ねて撮像していることを利用して、単眼処理用の左前撮像デバイス16のずれ補正後の撮像画像における車外の撮像対象についての相対的な距離または方向の情報を基準として、左後撮像デバイス17の撮像画像についてのずれ補正の情報を生成する。2つの撮像画像において重なる共通する撮像領域には、共通の撮像対象が重ねて撮像され得る。
また、CPU24は、単眼処理用の左後撮像デバイス17の撮像画像の一部が、単眼処理用の左前撮像デバイス16の撮像画像と重なって共通する撮像対象を重ねて撮像していることを利用して、単眼処理用の左前撮像デバイス16のずれ補正後の撮像画像における車外の撮像対象についての相対的な距離または方向の情報を基準として、左後撮像デバイス17の撮像画像についてのずれ補正の情報を生成する。2つの撮像画像において重なる共通する撮像領域には、共通の撮像対象が重ねて撮像され得る。
ステップST4において、CPU24は、単眼処理用の後中央撮像デバイス18の撮像画像の一部が、単眼処理用の右後撮像デバイス15の撮像画像と重なって共通する撮像対象を重ねて撮像していることを利用して、単眼処理用の右後撮像デバイス15のずれ補正後の撮像画像における車外の撮像対象についての相対的な距離または方向の情報を基準として、後中央撮像デバイス18の撮像画像についてのずれ補正の情報を生成する。2つの撮像画像において重なる共通する撮像領域には、共通の撮像対象が重ねて撮像され得る。
また、CPU24は、単眼処理用の後中央撮像デバイス18の撮像画像の一部が、単眼処理用の左後撮像デバイス17の撮像画像と重なって共通する撮像対象を重ねて撮像していることを利用して、単眼処理用の左後撮像デバイス17のずれ補正後の撮像画像における車外の撮像対象についての相対的な距離または方向の情報を基準として、後中央撮像デバイス18の撮像画像についてのずれ補正の情報を生成する。2つの撮像画像において重なる共通する撮像領域には、共通の撮像対象が重ねて撮像され得る。
なお、単眼処理用の後中央撮像デバイス18についてのずれ補正の情報を得るだけの場合、CPU24は、上述した2つのずれ補正の情報の中の一方のみを生成してもよい。
また、CPU24は、単眼処理用の後中央撮像デバイス18の撮像画像の一部が、単眼処理用の左後撮像デバイス17の撮像画像と重なって共通する撮像対象を重ねて撮像していることを利用して、単眼処理用の左後撮像デバイス17のずれ補正後の撮像画像における車外の撮像対象についての相対的な距離または方向の情報を基準として、後中央撮像デバイス18の撮像画像についてのずれ補正の情報を生成する。2つの撮像画像において重なる共通する撮像領域には、共通の撮像対象が重ねて撮像され得る。
なお、単眼処理用の後中央撮像デバイス18についてのずれ補正の情報を得るだけの場合、CPU24は、上述した2つのずれ補正の情報の中の一方のみを生成してもよい。
このように制御部としてのCPU24は、複数の単眼処理用の撮像デバイス13~18のずれ補正の情報を生成する際に、互いの配置が規定されていれるステレオカメラ19の複眼処理に用いることができる2つの撮像デバイス11,12の撮像画像を基準として、ステレオカメラ19と共通する撮像領域を重ねて撮像可能な単眼処理用の撮像デバイス13~15から順番にずれ補正の情報を生成する。
また、自動車1の360度の周囲を分割して撮像するように自動車1に設けられる複数の単眼処理用の撮像デバイス14~18は、自動車1の360度の周囲の分割方向において隣接している他の単眼処理用の撮像デバイスと共通する撮像領域を重ねて撮像可能となるように自動車1に設けられて、他の単眼処理用の撮像デバイスについてのずれ補正後の撮像画像での撮像位置を基準として、ずれ補正の情報を生成される。CPU24は、複数の単眼処理用の撮像デバイス13~18についての単眼処理で用いる撮像範囲での撮像位置に基づく車外の撮像対象についての相対的な距離および方向についてのずれ補正の情報を、撮像領域の重なりの順番にしたがって順番に生成する。CPU24は、ステレオカメラ19の撮像範囲の一端側において共通する撮像領域を重ねて撮像可能な一端側の単眼処理用の撮像デバイス14と、ステレオカメラ19の撮像範囲の他端側において共通する撮像領域を重ねて撮像可能な他端側の単眼処理用の撮像デバイス15と、から順番に、自動車1の360度の周囲を分割して撮像する複数の単眼処理用の撮像デバイス14~18についてのずれ補正の情報を生成できる。
そして、最後にずれ補正の処理がなされる後中央撮像デバイス18は、ステレオカメラ19とは逆に自動車1の後側を撮像するように設けられている。CPU24は、最後に処理する単眼処理用の後中央撮像デバイス18については、右回りでのずれ補正の情報と、左回りでのずれ補正の情報と、を生成する。
また、自動車1の360度の周囲を分割して撮像するように自動車1に設けられる複数の単眼処理用の撮像デバイス14~18は、自動車1の360度の周囲の分割方向において隣接している他の単眼処理用の撮像デバイスと共通する撮像領域を重ねて撮像可能となるように自動車1に設けられて、他の単眼処理用の撮像デバイスについてのずれ補正後の撮像画像での撮像位置を基準として、ずれ補正の情報を生成される。CPU24は、複数の単眼処理用の撮像デバイス13~18についての単眼処理で用いる撮像範囲での撮像位置に基づく車外の撮像対象についての相対的な距離および方向についてのずれ補正の情報を、撮像領域の重なりの順番にしたがって順番に生成する。CPU24は、ステレオカメラ19の撮像範囲の一端側において共通する撮像領域を重ねて撮像可能な一端側の単眼処理用の撮像デバイス14と、ステレオカメラ19の撮像範囲の他端側において共通する撮像領域を重ねて撮像可能な他端側の単眼処理用の撮像デバイス15と、から順番に、自動車1の360度の周囲を分割して撮像する複数の単眼処理用の撮像デバイス14~18についてのずれ補正の情報を生成できる。
そして、最後にずれ補正の処理がなされる後中央撮像デバイス18は、ステレオカメラ19とは逆に自動車1の後側を撮像するように設けられている。CPU24は、最後に処理する単眼処理用の後中央撮像デバイス18については、右回りでのずれ補正の情報と、左回りでのずれ補正の情報と、を生成する。
ステップST5において、CPU24は、以上の処理により生成した複数の単眼処理用の撮像デバイス13~15についての複数のずれ補正の情報が、車外の周辺物についての相対的な距離および方向を確からしく得られるものであるか否かを評価する。
CPU24は、たとえば、最後にずれ補正の処理がなされる後中央撮像デバイス18についての、右回り(一端側)でのずれ補正の情報と、左回り(他端側)でのずれ補正の情報と、を比較して一連の補正を評価してよい。
一連の補正が、単眼処理により相対的な距離および方向を確からしく得られるように良好なものである場合、CPU24は、本制御を終了する。一連の補正が良好であると評価できない場合、CPU24は、処理をステップST6へ進める。
CPU24は、たとえば、最後にずれ補正の処理がなされる後中央撮像デバイス18についての、右回り(一端側)でのずれ補正の情報と、左回り(他端側)でのずれ補正の情報と、を比較して一連の補正を評価してよい。
一連の補正が、単眼処理により相対的な距離および方向を確からしく得られるように良好なものである場合、CPU24は、本制御を終了する。一連の補正が良好であると評価できない場合、CPU24は、処理をステップST6へ進める。
ステップST6において、CPU24は、複数の撮像デバイス13~18の撮像画像に基づいて、自動車1の周囲にいる車外の周辺物についての距離または向きとして高い確からしさのものを得ることができない可能性がある旨の警告を出力する。警告は、自動車1に設けられる不図示のスピーカ、液晶デバイスといったユーザインタフェースを通じて、乗員へ報知される。
また、CPU24は、複数の撮像デバイス11~18の取り付けなどについての保守要請を出力する。保守要請の情報は、車内入出力部21、車ネットワーク31を通じて、車外通信装置35へ出力されてよい。車外通信装置35は、不図示の自動車1を整備点検する企業のサーバ装置へ送信してよい。
その後、CPU24は、本制御を終了する。
また、CPU24は、複数の撮像デバイス11~18の取り付けなどについての保守要請を出力する。保守要請の情報は、車内入出力部21、車ネットワーク31を通じて、車外通信装置35へ出力されてよい。車外通信装置35は、不図示の自動車1を整備点検する企業のサーバ装置へ送信してよい。
その後、CPU24は、本制御を終了する。
図8は、ステレオ基準の単眼ずれ補正制御の詳細なフローチャートである。
CPU24は、たとえば図7のステップST1において前中央撮像デバイス13のずれ補正を生成する場合、図7のステップST2において右前撮像デバイス14のずれ補正を生成する場合、図7のステップST2において左前撮像デバイス16のずれ補正を生成する場合、のそれぞれにおいて図8のステレオ基準の単眼ずれ補正制御を実行してよい。
CPU24は、たとえば図7のステップST1において前中央撮像デバイス13のずれ補正を生成する場合、図7のステップST2において右前撮像デバイス14のずれ補正を生成する場合、図7のステップST2において左前撮像デバイス16のずれ補正を生成する場合、のそれぞれにおいて図8のステレオ基準の単眼ずれ補正制御を実行してよい。
ステップST11において、CPU24は、互いの配置が規定されている前右撮像デバイス11と前左撮像デバイス12とのステレオ撮像により、2つの撮像画像を取得する。
ステップST12において、CPU24は、ずれ補正の処理に係る撮像デバイス13,14,16の単眼撮像により、その撮像画像を取得する。
ステップST13において、CPU24は、ステップST11およびステップST12で取得した3つの撮像画像についての三重に共通している撮像領域について、周辺物といった撮像対象を特定する。CPU24は、たとえば三重の共通する撮像領域において共通して含まれている画像成分を抽出して、周辺物といった撮像対象を特定してよい。なお、ずれ補正の処理に係る撮像デバイス13,14,16は、車体2に対する取り付け位置がずれたり、傾いたりしている可能性がある。CPU24は、これらのずれをたとえば前回の処理でのずれ補正を考慮して、図6に示す車線の撮像領域より小さい範囲について、周辺物といった撮像対象を特定してよい。
ステップST14において、CPU24は、特定した撮像対象についての、ステレオカメラ19の複眼処理による相対的な距離および方向を、ステレオ位置情報として取得する。CPU24は、ステレオカメラ19についてのずれ補正をしていない2つの撮像画像に基づいて、特定した撮像対象の視差に基づく相対的な距離および方向を、三角法の演算などにより取得してよい。
ステップST15において、CPU24は、特定した撮像対象についての、ずれ補正の処理に係る撮像デバイスの単眼処理による相対的な距離および方向を、単眼位置情報として取得する。CPU24は、特定した撮像対象の相対的な距離および方向を、ずれ補正の処理に係る撮像デバイス13,14,16の撮像画像についてのずれ補正を含まない道路パターンに基づいて、取得してよい。
ステップST16において、CPU24は、ずれ補正の処理に係る撮像デバイス13,14,16の単眼処理に用いるずれ補正の情報を生成する。CPU24は、ステレオ位置情報での撮像対象の距離および方向と、単眼位置情報での撮像対象の距離および方向との差を、ずれ補正の情報として生成してよい。ずれ補正の処理に係る撮像デバイス13,14,16は、図3(A)で示したように、水平ずれや垂直ずれの他に、回転ずれを生じることがある。少なくとも回転ずれがある場合、CPU24は、ずれ補正の情報として、ずれ補正の処理に係る撮像デバイス13,14,16のすべての画素についてのずれ補正の情報を、画素ごとに個別に生成してよい。
ステップST17において、CPU24は、生成したずれ補正の情報を、ずれ補正の処理に係る撮像デバイス13,14,16と関連付けて、メモリ23に保存する。
このようにCPU24は、ステレオカメラ19の2つの撮像デバイス11,12とずれ補正の処理に係る撮像デバイス13,14,16との3つの撮像デバイスの撮像画像の各々において、三重に共通する撮像領域に重ねて撮像されている撮像対象の撮像位置を特定し、3つの撮像画像での撮像位置の差に基づいて、ずれ補正の処理に係る撮像デバイス13,14,16の単眼処理で用いることができるずれ補正の情報を生成することができる。CPU24は、ステレオカメラ19の相対的な距離および方向の情報を用いて、単眼処理用の撮像デバイス13,14,16の単眼処理で用いる撮像位置に基づく車外の撮像対象についての相対的な距離および方向についてのずれ補正の情報を生成できる。
図9は、隣接単眼基準の単眼ずれ補正制御の詳細なフローチャートである。
CPU24は、たとえば図7のステップST3において右後撮像デバイス15のずれ補正を生成する場合、図7のステップST3において左後撮像デバイス17のずれ補正を生成する場合、図7のステップST3において後中央撮像デバイス18のずれ補正を生成する場合、のそれぞれにおいて図9の隣接単眼基準の単眼ずれ補正制御を実行してよい。
CPU24は、たとえば図7のステップST3において右後撮像デバイス15のずれ補正を生成する場合、図7のステップST3において左後撮像デバイス17のずれ補正を生成する場合、図7のステップST3において後中央撮像デバイス18のずれ補正を生成する場合、のそれぞれにおいて図9の隣接単眼基準の単眼ずれ補正制御を実行してよい。
ステップST21において、CPU24は、処理に係る撮像デバイス15,17,18に隣接する撮像デバイス14,16,15(17)についてのずれ補正の処理が済んでいるか否かを判断する。隣接する撮像デバイス14,16,15(17)についてのずれ補正の処理が済んでいない場合、CPU24は、本処理を繰り返す。隣接する撮像デバイス14,16,15(17)についてのずれ補正の処理が済むと、CPU24は、処理をステップST22へ進める。
ステップST22において、CPU24は、ずれ補正の処理が済んでいる隣接する撮像デバイス14,16,15(17)の単眼撮像により、基準となる1つの撮像画像を取得する。
ステップST23において、CPU24は、ずれ補正の処理に係る撮像デバイス15,17,18の単眼撮像により、その撮像画像を取得する。
ステップST24において、CPU24は、ステップST22およびステップST23で取得した2つの撮像画像についての二重に共通している撮像領域について、周辺物といった撮像対象を特定する。CPU24は、たとえば二重の共通する撮像領域において共通して含まれている画像成分を抽出して、周辺物といった撮像対象を特定してよい。なお、ずれ補正の処理に係る撮像デバイス15,17,18は、車体2に対する取り付け位置がずれたり、傾いたりしている可能性がある。CPU24は、これらのずれをたとえば前回の処理でのずれ補正を考慮して、図6に示す車線の撮像領域より小さい範囲について、周辺物といった撮像対象を特定してよい。
ステップST25において、CPU24は、特定した撮像対象についての、基準画像での相対的な距離および方向を、基準画像での位置情報として取得する。CPU24は、特定した撮像対象の相対的な距離および方向を、隣接する撮像デバイス14,16,15(17)の基準画像をずれ補正した道路パターンに基づいて、取得してよい。
ステップST26において、CPU24は、特定した撮像対象についての、ずれ補正の処理に係る撮像デバイス15,17,18の単眼処理による相対的な距離および方向を、単眼位置情報として取得する。CPU24は、特定した撮像対象の相対的な距離および方向を、ずれ補正の処理に係る撮像デバイス15,17,18の撮像画像についてのずれ補正を含まない道路パターンに基づいて、取得してよい。
ステップST27において、CPU24は、ずれ補正の処理に係る撮像デバイス15,17,18の単眼処理に用いるずれ補正の情報を生成する。CPU24は、基準画像での撮像対象の距離および方向と、単願画像での撮像対象の距離および方向との差を、ずれ補正の情報として生成してよい。ずれ補正の処理に係る撮像デバイス15,17,18は、図3(A)で示したように、水平ずれや垂直ずれの他に、回転ずれを生じることがある。回転ずれがある場合には、CPU24は、ずれ補正の情報として、ずれ補正の処理に係る撮像デバイス15,17,18のすべての画素についてのずれ補正の情報を、画素ごとに個別に生成してよい。
ステップST28において、CPU24は、生成したずれ補正の情報を、ずれ補正の処理に係る撮像デバイス15,17,18と関連付けて、メモリ23に保存する。
このようにCPU24は、ずれ補正の処理に係る撮像デバイス15,17,18とそれに隣接する撮像デバイス14,16,15(17)との2つの撮像デバイスの撮像画像の各々において、二重に共通する撮像領域に重ねて撮像されている撮像対象の撮像位置を特定し、2つの撮像画像での撮像位置の差に基づいて、ずれ補正の処理に係る撮像デバイス15,17,18の単眼処理で用いることができるずれ補正の情報を生成することができる。CPU24は、ずれ補正の情報が生成されている撮像デバイス14,16,15(17)の相対的な距離または方向の情報を用いて、単眼処理用の撮像デバイス15,17,18の単眼処理で用いる撮像位置に基づく車外の撮像対象についての相対的な距離および方向についてのずれ補正の情報を生成できる。
図10は、図7から図9の制御により生成したずれ補正情報を用いる撮像制御のためのブロック図である。
CPU24は、メモリ23に記録されているプログラムを実行することにより、図10に示す周辺物認識処理部82、周辺物位置情報生成部83、定量ずれ補正部84、リアルタイムずれ補正部85、周辺物情報出力部86、を車外撮像装置10に実現する。
また、図10には、車外撮像装置10において単眼処理に用いる1つの撮像デバイス81と、車外撮像装置10が生成する周辺物情報に基づく制御を実行する車両制御実行部87と、が図示されている。撮像デバイス81は、たとえば前中央撮像デバイス13、右前撮像デバイス14、右後撮像デバイス15、左前撮像デバイス16、左後撮像デバイス17、後中央撮像デバイス18、の中から選択された1つでよい。
車外撮像装置10のメモリ23は、撮像デバイス81の単眼処理において撮像画像と対応付けできる路面モデルのデータ91と、上述した処理により生成された撮像デバイス81についてのずれ補正の情報92と、を記録している。
CPU24は、車外撮像装置10に設けられる単眼処理のための複数の撮像デバイス13~18ごとに、図10の撮像制御のブロックを実現してよい。
CPU24は、メモリ23に記録されているプログラムを実行することにより、図10に示す周辺物認識処理部82、周辺物位置情報生成部83、定量ずれ補正部84、リアルタイムずれ補正部85、周辺物情報出力部86、を車外撮像装置10に実現する。
また、図10には、車外撮像装置10において単眼処理に用いる1つの撮像デバイス81と、車外撮像装置10が生成する周辺物情報に基づく制御を実行する車両制御実行部87と、が図示されている。撮像デバイス81は、たとえば前中央撮像デバイス13、右前撮像デバイス14、右後撮像デバイス15、左前撮像デバイス16、左後撮像デバイス17、後中央撮像デバイス18、の中から選択された1つでよい。
車外撮像装置10のメモリ23は、撮像デバイス81の単眼処理において撮像画像と対応付けできる路面モデルのデータ91と、上述した処理により生成された撮像デバイス81についてのずれ補正の情報92と、を記録している。
CPU24は、車外撮像装置10に設けられる単眼処理のための複数の撮像デバイス13~18ごとに、図10の撮像制御のブロックを実現してよい。
撮像デバイス81は、自動車1の車外を撮像して、撮像画像を周辺物認識処理部82へ出力する。
周辺物認識処理部82は、撮像デバイス81の撮像画像について、撮像されている周辺物の認識処理を実行する。
周辺物認識処理部82は、周辺物の認識処理により、撮像されている車外の周辺に存在している他の自動車、歩行者、サイクリスト、を認識してよい。周辺物認識処理部82は、この他にもたとえば、道路、道路の設置物、道路沿いの構造物、道路に描画されている車線境界線などを、認識してよい。
周辺物認識処理部82は、たとえば、周辺物ごとに予めメモリ23に記録されている周辺物の特徴情報を用いて、撮像されている周辺物を認識しても、周辺物を学習した深層学習ネットワーク処理により、撮像されている周辺物を認識しても、または、これらを併用して、撮像されている周辺物を認識しても、よい。周辺物認識処理部82は、撮像画像を解像度変換、サイズ変換、色成分変換、または微分処理により変換して、周辺物の認識処理を実行しても、撮像画像の一部を切り出して、周辺物の認識処理を実行しても、よい。周辺物認識処理部82は、撮像画像の領域ごとに異なる処理により、周辺物の認識処理を実行してもよい。
周辺物認識処理部82は、周辺物の認識処理により、撮像されている車外の周辺に存在している他の自動車、歩行者、サイクリスト、を認識してよい。周辺物認識処理部82は、この他にもたとえば、道路、道路の設置物、道路沿いの構造物、道路に描画されている車線境界線などを、認識してよい。
周辺物認識処理部82は、たとえば、周辺物ごとに予めメモリ23に記録されている周辺物の特徴情報を用いて、撮像されている周辺物を認識しても、周辺物を学習した深層学習ネットワーク処理により、撮像されている周辺物を認識しても、または、これらを併用して、撮像されている周辺物を認識しても、よい。周辺物認識処理部82は、撮像画像を解像度変換、サイズ変換、色成分変換、または微分処理により変換して、周辺物の認識処理を実行しても、撮像画像の一部を切り出して、周辺物の認識処理を実行しても、よい。周辺物認識処理部82は、撮像画像の領域ごとに異なる処理により、周辺物の認識処理を実行してもよい。
周辺物位置情報生成部83は、周辺物認識処理部82により認識された1乃至複数の周辺物の各々について、相対的な距離および方向を含む位置情報を生成する。
周辺物位置情報生成部83は、周辺物の撮像位置の画素についての、単眼処理のためにメモリ23に記録されている路面モデルのデータ91を用いて、相対的な距離および方向を含む位置情報を生成してよい。
周辺物位置情報生成部83は、周辺物の撮像位置の画素についての、単眼処理のためにメモリ23に記録されている路面モデルのデータ91を用いて、相対的な距離および方向を含む位置情報を生成してよい。
定量ずれ補正部84は、周辺物の相対的な距離および方向に含まれている、撮像デバイス81の定量的なずれを減らす補正処理を実行する。
定量ずれ補正部84は、撮像デバイス81に対応付けてメモリ23に記録されているずれ補正の情報92を取得し、取得したずれ補正の情報92を用いて、周辺物の相対的な距離および方向を補正する。
これにより、CPU24は、周辺物の相対的な距離および方向として、撮像デバイス81の取り付け位置のずれの影響を抑制した距離および方向を得ることが可能になる。
定量ずれ補正部84は、撮像デバイス81に対応付けてメモリ23に記録されているずれ補正の情報92を取得し、取得したずれ補正の情報92を用いて、周辺物の相対的な距離および方向を補正する。
これにより、CPU24は、周辺物の相対的な距離および方向として、撮像デバイス81の取り付け位置のずれの影響を抑制した距離および方向を得ることが可能になる。
リアルタイムずれ補正部85は、自動車1の最新の姿勢情報93を取得して、自動車1の姿勢の変化に起因する撮像デバイス81のずれを演算し、演算したずれを減らす補正処理を実行する。
リアルタイムずれ補正部85は、たとえば加速度センサ37の検出に基づく自動車1の最新の姿勢情報93をセンサ装置36から取得してよい。
リアルタイムずれ補正部85は、取得した姿勢情報93と、自動車1の車体2の情報と、撮像デバイス81についての自動車1の取り付け位置の情報とを用いて、撮像デバイス81のずれを演算する。自動車1の車体2の情報と、撮像デバイス81についての自動車1の取り付け位置の情報とは、メモリ23にデータとして記録されていても、プログラム中のパラメータとして記録されていてもよい。路面モデルは、基本的に図2(A)の撮像状態において各画素に対応する相対的な距離および方向を示すものである。自動車1の姿勢が変化すると、撮像デバイス81についての路面からの高さ、撮像デバイス81の向き、などが変化する。リアルタイムずれ補正部85は、自動車1の変化した姿勢の下での撮像デバイス81についての図2(A)の路面に対する姿勢や距離の変化量を、撮像デバイス81のリアルタイムのずれとして演算してよい。
リアルタイムずれ補正部85は、演算した距離および方向の変化量を用いて、周辺物の相対的な距離および方向を補正する。
これにより、CPU24は、周辺物の相対的な距離および方向として、自動車1の姿勢変化に起因する撮像デバイス81のずれの影響を抑制した距離および方向を得ることが可能になる。
リアルタイムずれ補正部85は、たとえば加速度センサ37の検出に基づく自動車1の最新の姿勢情報93をセンサ装置36から取得してよい。
リアルタイムずれ補正部85は、取得した姿勢情報93と、自動車1の車体2の情報と、撮像デバイス81についての自動車1の取り付け位置の情報とを用いて、撮像デバイス81のずれを演算する。自動車1の車体2の情報と、撮像デバイス81についての自動車1の取り付け位置の情報とは、メモリ23にデータとして記録されていても、プログラム中のパラメータとして記録されていてもよい。路面モデルは、基本的に図2(A)の撮像状態において各画素に対応する相対的な距離および方向を示すものである。自動車1の姿勢が変化すると、撮像デバイス81についての路面からの高さ、撮像デバイス81の向き、などが変化する。リアルタイムずれ補正部85は、自動車1の変化した姿勢の下での撮像デバイス81についての図2(A)の路面に対する姿勢や距離の変化量を、撮像デバイス81のリアルタイムのずれとして演算してよい。
リアルタイムずれ補正部85は、演算した距離および方向の変化量を用いて、周辺物の相対的な距離および方向を補正する。
これにより、CPU24は、周辺物の相対的な距離および方向として、自動車1の姿勢変化に起因する撮像デバイス81のずれの影響を抑制した距離および方向を得ることが可能になる。
周辺物情報出力部86は、認識している周辺物について生成した情報を、自動車1の各装置へ出力する。
周辺物情報出力部86が自動車1の各装置へ出力する周辺物の情報において、周辺物の相対的な距離および方向は、上述した補正処理により補正されたものであり、撮像デバイス81の取り付け位置のずれの影響や、自動車1の姿勢変化に起因する撮像デバイス81のずれの影響を抑制した、高い確からしさのものである。
周辺物情報出力部86が自動車1の各装置へ出力する周辺物の情報において、周辺物の相対的な距離および方向は、上述した補正処理により補正されたものであり、撮像デバイス81の取り付け位置のずれの影響や、自動車1の姿勢変化に起因する撮像デバイス81のずれの影響を抑制した、高い確からしさのものである。
車両制御実行部87は、周辺物情報出力部86が出力した周辺物の情報を用いて、自動車1の走行環境に応じた処理を実行する。
車両制御実行部87は、たとえば図5に示す運転支援装置32、乗員保護装置33、車外保護装置34、または車外通信装置35でよい。
たとえば、運転支援装置32は、周辺物情報出力部86が出力した周辺物の距離および方向の情報を用いて、自動車1の周辺に存在している周辺物を避けて走行するように、自動車1の走行を制御する。
乗員保護装置33は、周辺物情報出力部86が出力した周辺物の距離および方向の情報を用いて、走行する自動車1が自動車1の周辺に存在している周辺物と衝突することを予測または検出する。周辺物の衝突を予測または検出すると、乗員保護装置33は、周辺物との衝突による衝撃を吸収するようにエアバッグ展開またはシートベルトのテンション印加による乗員保護制御を実行する。
車外保護装置34は、周辺物情報出力部86が出力した周辺物の距離および方向の情報を用いて、走行する自動車1が自動車1の周辺に存在している歩行者またはサイクリストと衝突することを予測または検出する。歩行者またはサイクリストの衝突を予測または検出すると、車外保護装置34は、歩行者またはサイクリストに対してエアバッグを展開する車外保護制御を実行する。歩行者またはサイクリストは、展開したエアバッグが介在することにより、衝突する自動車1の車体2へ直接的に当たり難くなる。
車外通信装置35は、周辺物情報出力部86が出力した周辺物の距離および方向の情報を用いて、走行する自動車1が自動車1の周辺に存在している周辺物と衝突することを予測または検出する。周辺物の衝突を予測または検出すると、車外通信装置35は、その衝突に関する情報を、緊急対応組織のサーバ装置へ送信する。これにより、緊急対応組織のメンバーは、衝突現場へ急行して、早期に救護活動を開始することができる。
車両制御実行部87は、たとえば図5に示す運転支援装置32、乗員保護装置33、車外保護装置34、または車外通信装置35でよい。
たとえば、運転支援装置32は、周辺物情報出力部86が出力した周辺物の距離および方向の情報を用いて、自動車1の周辺に存在している周辺物を避けて走行するように、自動車1の走行を制御する。
乗員保護装置33は、周辺物情報出力部86が出力した周辺物の距離および方向の情報を用いて、走行する自動車1が自動車1の周辺に存在している周辺物と衝突することを予測または検出する。周辺物の衝突を予測または検出すると、乗員保護装置33は、周辺物との衝突による衝撃を吸収するようにエアバッグ展開またはシートベルトのテンション印加による乗員保護制御を実行する。
車外保護装置34は、周辺物情報出力部86が出力した周辺物の距離および方向の情報を用いて、走行する自動車1が自動車1の周辺に存在している歩行者またはサイクリストと衝突することを予測または検出する。歩行者またはサイクリストの衝突を予測または検出すると、車外保護装置34は、歩行者またはサイクリストに対してエアバッグを展開する車外保護制御を実行する。歩行者またはサイクリストは、展開したエアバッグが介在することにより、衝突する自動車1の車体2へ直接的に当たり難くなる。
車外通信装置35は、周辺物情報出力部86が出力した周辺物の距離および方向の情報を用いて、走行する自動車1が自動車1の周辺に存在している周辺物と衝突することを予測または検出する。周辺物の衝突を予測または検出すると、車外通信装置35は、その衝突に関する情報を、緊急対応組織のサーバ装置へ送信する。これにより、緊急対応組織のメンバーは、衝突現場へ急行して、早期に救護活動を開始することができる。
図11は、図10の処理による、隣接する2つの撮像デバイスの撮像画像における撮像対象の相対動きを模式的に説明する図である。
図11には、図4と同様に、前へ走行中の自動車1の左側に設けられる左前撮像デバイス16と左後撮像デバイス17との2つの撮像デバイスによるずれ補正後の撮像画像が示されている。時間は、図11(A)から図11(C)へ向かって流れる。
図4において、左前撮像デバイス16は、基準位置に設けられている。これに対し、左後撮像デバイス17は、基準位置から右下方向へ向かうようにずれて設けられる。
図11には、図4と同様に、前へ走行中の自動車1の左側に設けられる左前撮像デバイス16と左後撮像デバイス17との2つの撮像デバイスによるずれ補正後の撮像画像が示されている。時間は、図11(A)から図11(C)へ向かって流れる。
図4において、左前撮像デバイス16は、基準位置に設けられている。これに対し、左後撮像デバイス17は、基準位置から右下方向へ向かうようにずれて設けられる。
図11(A)は、左後撮像画像のずれが補正されて、左前撮像画像の中央領域において、撮像対象である歩行者を撮像している状況の説明図である。
図11(A)では、左前撮像デバイス16および左後撮像デバイス17の中の、左前撮像デバイス16が、歩行者を撮像している。歩行者は、左前撮像デバイス16の撮像画像の中央領域に撮像されている。
図11(A)では、左前撮像デバイス16および左後撮像デバイス17の中の、左前撮像デバイス16が、歩行者を撮像している。歩行者は、左前撮像デバイス16の撮像画像の中央領域に撮像されている。
図11(B)は、図11(A)の直後に、左前撮像画像の後領域において、撮像対象である歩行者を撮像している状況の説明図である。
図11(A)の後のタイミングである図11(B)では、自動車1が前へ走行しているため、歩行者は、左前撮像デバイス16の撮像画像の左側領域に撮像されている。
図11(A)の後のタイミングである図11(B)では、自動車1が前へ走行しているため、歩行者は、左前撮像デバイス16の撮像画像の左側領域に撮像されている。
図11(C)は、図11(B)の直後に、ずれが補正されている左後撮像画像の前領域において、撮像対象である歩行者を撮像している状況の説明図である。
図11(B)の後のタイミングである図11(C)では、左前撮像デバイス16ではなく、左後撮像デバイス17が、歩行者を撮像している。歩行者の像101は、左後撮像デバイス17の撮像画像の左側の前領域の位置に撮像されている。
図11(C)において左後撮像デバイス17の撮像画像に含まれる歩行者の像の位置は、左後撮像デバイス17のずれが補正されているため、左後撮像デバイス17のずれがない場合と同様の位置となっている。
その結果、図11(C)の左後撮像デバイス17の撮像画像に基づく単眼処理により得られる、歩行者についての距離および方向は、高い正確性を有するものとなる。
しかも、図11(A)から図11(B)に示すように、左前撮像デバイス16の撮像画像において、右から左へ水平に移動するように撮像されていた歩行者は、図11(C)の左後撮像デバイス17の撮像画像においても、速度を維持したまま右から左へ水平に移動するように撮像されることになる。歩行者の像の複数の撮像画像中での距離や方向は、それらの撮像画像を超える際においても、それらの撮像画像での移動速度および移動方向を維持した良好なものとなる。
図11(B)の後のタイミングである図11(C)では、左前撮像デバイス16ではなく、左後撮像デバイス17が、歩行者を撮像している。歩行者の像101は、左後撮像デバイス17の撮像画像の左側の前領域の位置に撮像されている。
図11(C)において左後撮像デバイス17の撮像画像に含まれる歩行者の像の位置は、左後撮像デバイス17のずれが補正されているため、左後撮像デバイス17のずれがない場合と同様の位置となっている。
その結果、図11(C)の左後撮像デバイス17の撮像画像に基づく単眼処理により得られる、歩行者についての距離および方向は、高い正確性を有するものとなる。
しかも、図11(A)から図11(B)に示すように、左前撮像デバイス16の撮像画像において、右から左へ水平に移動するように撮像されていた歩行者は、図11(C)の左後撮像デバイス17の撮像画像においても、速度を維持したまま右から左へ水平に移動するように撮像されることになる。歩行者の像の複数の撮像画像中での距離や方向は、それらの撮像画像を超える際においても、それらの撮像画像での移動速度および移動方向を維持した良好なものとなる。
図12は、ずれ補正の評価方法の一例の説明図である。
CPU24は、たとえば図7のステップST5において、複数の撮像デバイス13~18について生成した複数のずれ補正を評価している。
この際、CPU24は、たとえば図12(A)および図12(B)に示すずれ補正後の撮像画像中の撮像対象に基づく評価、図12(C)に示す後方の2つのずれ補正後の撮像画像の比較評価、図12(D)に示す複数の単眼処理に係る複数の撮像画像のずれ補正後の比較評価、などを実行してよい。複数種類の比較評価を実行する場合、CPU24は、すべての比較評価において良好である場合に、最終評価を良好とし、それ以外の場合には最終評価を良好ではないとしてよい。
CPU24は、たとえば図7のステップST5において、複数の撮像デバイス13~18について生成した複数のずれ補正を評価している。
この際、CPU24は、たとえば図12(A)および図12(B)に示すずれ補正後の撮像画像中の撮像対象に基づく評価、図12(C)に示す後方の2つのずれ補正後の撮像画像の比較評価、図12(D)に示す複数の単眼処理に係る複数の撮像画像のずれ補正後の比較評価、などを実行してよい。複数種類の比較評価を実行する場合、CPU24は、すべての比較評価において良好である場合に、最終評価を良好とし、それ以外の場合には最終評価を良好ではないとしてよい。
図12(A)は、後中央撮像デバイス18のずれ補正後の模式的な撮像画像111とその評価方法の一例の説明図である。
図12(B)は、図12(A)と同様の評価により良好ではないと判断され得るずれ補正後の撮像画像112の説明図である。
図12(A)のずれ補正後の撮像画像111と、図12(B)のずれ補正後の撮像画像112とには、自動車1が走行している車線についての左右一対の直線状の車線境界線が含まれる。
図12(B)は、図12(A)と同様の評価により良好ではないと判断され得るずれ補正後の撮像画像112の説明図である。
図12(A)のずれ補正後の撮像画像111と、図12(B)のずれ補正後の撮像画像112とには、自動車1が走行している車線についての左右一対の直線状の車線境界線が含まれる。
CPU24は、撮像画像111,112の評価処理において、周辺物認識処理としての画像の解析処理などを実行して、ずれ補正後の撮像画像111,112に含まれる左右一対の直線状の車線境界線の画像成分を認識して特定する。
CPU24は、認識した左右一対の車線境界線の画像成分についての、ずれ補正後の撮像画像111,112での撮像位置、左右のバランスなどを評価する。
CPU24は、撮像の際の自動車1の走行状態の情報、たとえば直進中といった走行状態の情報を参照して、ずれ補正後の撮像画像111,112に含まれる一対の画像成分を評価してよい。
そして、図12(A)に示すように、左右一対の車線境界線の画像成分が、ずれ補正後の撮像画像111の撮像範囲において左右対称に含まれている場合、CPU24は、ずれ補正の情報を、良好と評価してよい。
これに対し、図12(B)に示すように、左右一対の車線境界線の画像成分が、ずれ補正後の撮像画像112の撮像範囲において左右対称から所定量以上でずれて含まれている場合、CPU24は、ずれ補正の情報を、良好と評価しないようにしてよい。そして、良好と評価しないずれ補正の情報が、たとえば右回りについてのものである場合、CPU24は、左回りによるずれ補正の情報を、図10において使用するものとして選択してよい。
なお、このように撮像画像に一対で含まれる可能性がある画像成分は、道路の左右の縁石、ガードレール、がある。また、道路に沿って立設される複数の標識用ポール、電柱、信号機などの並びは、画像成分に基づいて道路に沿って延在する軌道として認識することが可能である。また、自動車1が走行する道路の上にある橋なども、基本的に左右対称の画像成分として撮像画像111,112に含まれる可能性がある。CPU24は、後中央撮像デバイス18の補正後の撮像画像111,112に含まれるこれらの道路の画像成分についての、撮像画像111,112での撮像位置、左右のバランスなどを評価してよい。
CPU24は、認識した左右一対の車線境界線の画像成分についての、ずれ補正後の撮像画像111,112での撮像位置、左右のバランスなどを評価する。
CPU24は、撮像の際の自動車1の走行状態の情報、たとえば直進中といった走行状態の情報を参照して、ずれ補正後の撮像画像111,112に含まれる一対の画像成分を評価してよい。
そして、図12(A)に示すように、左右一対の車線境界線の画像成分が、ずれ補正後の撮像画像111の撮像範囲において左右対称に含まれている場合、CPU24は、ずれ補正の情報を、良好と評価してよい。
これに対し、図12(B)に示すように、左右一対の車線境界線の画像成分が、ずれ補正後の撮像画像112の撮像範囲において左右対称から所定量以上でずれて含まれている場合、CPU24は、ずれ補正の情報を、良好と評価しないようにしてよい。そして、良好と評価しないずれ補正の情報が、たとえば右回りについてのものである場合、CPU24は、左回りによるずれ補正の情報を、図10において使用するものとして選択してよい。
なお、このように撮像画像に一対で含まれる可能性がある画像成分は、道路の左右の縁石、ガードレール、がある。また、道路に沿って立設される複数の標識用ポール、電柱、信号機などの並びは、画像成分に基づいて道路に沿って延在する軌道として認識することが可能である。また、自動車1が走行する道路の上にある橋なども、基本的に左右対称の画像成分として撮像画像111,112に含まれる可能性がある。CPU24は、後中央撮像デバイス18の補正後の撮像画像111,112に含まれるこれらの道路の画像成分についての、撮像画像111,112での撮像位置、左右のバランスなどを評価してよい。
図12(C)は、後中央撮像デバイス18についての、右周りでのずれ補正後の模式的な撮像画像113と、左周りでのずれ補正後の模式的な撮像画像114とに基づく評価方法の一例の説明図である。
CPU24は、撮像画像の評価処理において、周辺物認識処理としての画像の解析処理などを実行して、右周りでのずれ補正後の模式的な撮像画像113に含まれる左右一対の直線状の車線境界線の画像成分を認識して特定する。
また、CPU24は、周辺物認識処理としての画像の解析処理などを実行して、左周りでのずれ補正後の模式的な撮像画像114に含まれる左右一対の直線状の車線境界線の画像成分を認識して特定する。
CPU24は、2つの撮像画像113,114について認識した左右一対の車線境界線の画像成分についての、ずれ補正後の撮像画像113,114での撮像位置の誤差量などを評価する。
そして、図12(C)に示すように、2つのずれ補正後の撮像画像113,114について認識した左右一対の車線境界線の画像成分についての、撮像画像113,114でのずれ補正後の撮像位置の誤差が、所定量以上である場合、これらのずれ補正の情報を、良好と評価しないようにしてよい。
また、CPU24は、周辺物認識処理としての画像の解析処理などを実行して、左周りでのずれ補正後の模式的な撮像画像114に含まれる左右一対の直線状の車線境界線の画像成分を認識して特定する。
CPU24は、2つの撮像画像113,114について認識した左右一対の車線境界線の画像成分についての、ずれ補正後の撮像画像113,114での撮像位置の誤差量などを評価する。
そして、図12(C)に示すように、2つのずれ補正後の撮像画像113,114について認識した左右一対の車線境界線の画像成分についての、撮像画像113,114でのずれ補正後の撮像位置の誤差が、所定量以上である場合、これらのずれ補正の情報を、良好と評価しないようにしてよい。
図12(D)は、単眼処理に用いる複数の撮像デバイス13~18のずれ補正後の模式的な撮像画像の法線向きのばらつきに基づく評価方法の一例の説明図である。
図12(D)では、360度カメラを構成して単眼処理に用いられる複数の撮像デバイス13~18のずれ補正後の7つの撮像画像が横に配列されている。配列の中央の撮像画像IRfcは、前中央撮像デバイス13により自動車1の前を撮像したずれ補正後の撮像画像である。配列の右端の撮像画像IRrc1は、後中央撮像デバイス18により自動車1の後を撮像したずれ補正後の撮像画像である。配列の左端の撮像画像IRrc2は、後中央撮像デバイス18により自動車1の後を撮像したずれ補正後の撮像画像である。
図12(D)では、360度カメラを構成して単眼処理に用いられる複数の撮像デバイス13~18のずれ補正後の7つの撮像画像が横に配列されている。配列の中央の撮像画像IRfcは、前中央撮像デバイス13により自動車1の前を撮像したずれ補正後の撮像画像である。配列の右端の撮像画像IRrc1は、後中央撮像デバイス18により自動車1の後を撮像したずれ補正後の撮像画像である。配列の左端の撮像画像IRrc2は、後中央撮像デバイス18により自動車1の後を撮像したずれ補正後の撮像画像である。
CPU24は、複数の撮像デバイス13~18のずれ補正後の7つり撮像画像の各々について、画像に含まれる路面の法線方向のベクトル116~122を特定する。
たとえばずれ補正後の撮像画像に一対の車線境界線が含まれている場合、CPU24は、一対の車線境界線の撮像位置を基準として、一対の車線境界線の間の平面についての法線ベクトルを特定してよい。
CPU24は、複数の撮像デバイス13~18のずれ補正後の撮像画像について特定した複数の路面の法線ベクトル116~122の向きのばらつき量などを評価する。
そして、複数のすべての路面の法線ベクトル116~122の先端が、たとえば所定の誤差円の範囲に収まる場合、CPU24は、これらのずれ補正の情報を、良好と評価してよい。
複数の路面の法線ベクトル116~122の1つでも所定の誤差円の範囲に収まらない場合、CPU24は、これらのずれ補正の情報を、良好と評価しないようにしてよい。
なお、CPU24は、ステレオカメラ19を構成する前右撮像デバイス11の撮像画像IRfrと、前左撮像デバイス12の撮像画像IRlrとに基づいて、ステレオカメラ19で認識される路面についての法線ベクトル115を特定してもよい。
この場合、CPU24は、ステレオカメラ19での法線ベクトル115の先端を中心とする所定の誤差円の範囲を基準として、複数の路面の法線ベクトル116~122の向きのばらつきが、誤差円の範囲に収まるか否かを評価してよい。
たとえばずれ補正後の撮像画像に一対の車線境界線が含まれている場合、CPU24は、一対の車線境界線の撮像位置を基準として、一対の車線境界線の間の平面についての法線ベクトルを特定してよい。
CPU24は、複数の撮像デバイス13~18のずれ補正後の撮像画像について特定した複数の路面の法線ベクトル116~122の向きのばらつき量などを評価する。
そして、複数のすべての路面の法線ベクトル116~122の先端が、たとえば所定の誤差円の範囲に収まる場合、CPU24は、これらのずれ補正の情報を、良好と評価してよい。
複数の路面の法線ベクトル116~122の1つでも所定の誤差円の範囲に収まらない場合、CPU24は、これらのずれ補正の情報を、良好と評価しないようにしてよい。
なお、CPU24は、ステレオカメラ19を構成する前右撮像デバイス11の撮像画像IRfrと、前左撮像デバイス12の撮像画像IRlrとに基づいて、ステレオカメラ19で認識される路面についての法線ベクトル115を特定してもよい。
この場合、CPU24は、ステレオカメラ19での法線ベクトル115の先端を中心とする所定の誤差円の範囲を基準として、複数の路面の法線ベクトル116~122の向きのばらつきが、誤差円の範囲に収まるか否かを評価してよい。
このようにCPU24は、自動車1の後側を撮像するように設けられている後中央撮像デバイス18について、ずれ補正の情報を最後に生成する。そして、CPU24は、少なくともその最後に処理される撮像画像を含む1乃至複数の撮像画像に基づいて、ずれ補正の情報を評価する。CPU24は、最後に処理される単眼処理用の後中央撮像デバイス18の撮像画像の画像成分に基づいて、たとえば直進走行中であっても、一連のずれ補正の情報について評価を実行することができる。
以上のように、本実施形態では、車外を撮像するために自動車1には複数の撮像デバイス11~18が設けられ、その中の少なくとも3つが、共通する撮像領域を重ねて撮像可能となるように自動車1に設けられている。これにより、少なくとも3つの撮像デバイスは、車外の撮像画像において、共通する撮像領域を撮像することができる。
そして、自動車1の車外撮像装置10の制御部としてのCPU24は、少なくとも3つの中の2つの撮像デバイス11,12の撮像画像を用いて、共通する撮像領域に撮像されている車外の撮像対象の視差に基づく相対的な距離および方向の情報を生成する。CPU24は、2つの撮像デバイス11,12についての自動車1における配置に基づいて想定できる視差に基づいて、その他の撮像デバイス13~18の配設状態の変化などに起因する撮像範囲や画角の変化の影響などを受けることなく、共通する撮像領域にある車外の撮像対象についての、相対的な距離または方向の情報をより確からしく生成することができる。その結果、CPU24は、視差に基づく相対的な距離および方向の情報を用いて、少なくとも3つの中の残りの少なくとも1つの撮像デバイス13,14,15の単眼処理による相対的な距離または方向についての、確からしいずれ補正の情報を生成することができる。また、CPU24は、この撮像デバイス13,14,15の単眼処理においてずれ補正の情報を用いることにより、より確からしい相対的な距離または方向を取得できる。
そして、自動車1の車外撮像装置10の制御部としてのCPU24は、少なくとも3つの中の2つの撮像デバイス11,12の撮像画像を用いて、共通する撮像領域に撮像されている車外の撮像対象の視差に基づく相対的な距離および方向の情報を生成する。CPU24は、2つの撮像デバイス11,12についての自動車1における配置に基づいて想定できる視差に基づいて、その他の撮像デバイス13~18の配設状態の変化などに起因する撮像範囲や画角の変化の影響などを受けることなく、共通する撮像領域にある車外の撮像対象についての、相対的な距離または方向の情報をより確からしく生成することができる。その結果、CPU24は、視差に基づく相対的な距離および方向の情報を用いて、少なくとも3つの中の残りの少なくとも1つの撮像デバイス13,14,15の単眼処理による相対的な距離または方向についての、確からしいずれ補正の情報を生成することができる。また、CPU24は、この撮像デバイス13,14,15の単眼処理においてずれ補正の情報を用いることにより、より確からしい相対的な距離または方向を取得できる。
また、CPU24は、ずれ補正済みの撮像デバイス14,15,16,17の撮像画像を用いて、その他の単眼処理に用いる撮像デバイス16,17,18についてのずれ補正の情報を、順番に生成する。ずれ補正済みの撮像デバイス14,15,16,17の撮像画像を順番に基準として用いることにより、CPU24は、360度を分割して撮像するすべての撮像デバイス13~18の単眼処理に用いるずれ補正の情報を生成でき、それらで撮像される周辺物といった撮像対象についての相対的な距離または方向として、ステレオカメラ19のものと同等の確からしいものを取得できる。
このように本実施形態では、自動車1に対して、車外を撮像するために複数の撮像デバイス11~18が設けられていることを好適に利用して、少なくとも3つの撮像デバイスを共通する撮像領域を重ねて撮像させるようにして、単眼処理での車外の撮像対象についての相対的な距離または方向を、確からしく補正できる。その結果、本実施形態では、自動車1に設けられる撮像デバイス13~18の撮像画像を単眼処理したしとても、車外の撮像対象について、複眼処理と同程度の高い確からしさが期待できる相対的な距離または方向を取得することができる。
本実施形態では、自動車1の車外を撮像するために自動車1に設けられる複数の撮像デバイス11~18について、その信頼性を確保し、または維持することが可能になる。
本実施形態では、自動車1の車外を撮像するために自動車1に設けられる複数の撮像デバイス11~18について、その信頼性を確保し、または維持することが可能になる。
以上の実施形態は、本発明の好適な実施形態の例であるが、本発明は、これに限定されるものではなく、発明の要旨を逸脱しない範囲において種々の変形または変更が可能である。
上述した実施形態では、複眼処理が可能なステレオカメラ19を構成する前右撮像デバイス11と前左撮像デバイス12とをマスターとして用いて、単眼処理に用いる複数の撮像デバイス13~18の撮像範囲のずれ補正の情報を生成している。
ずれ補正の基準に用いる撮像デバイスは、自動車1においてステレオカメラ19を構成するようには設けられていないものであってもよい。
少なくとも3つ以上の撮像デバイスが、共通する撮像領域を重ねて撮像可能となるように自動車1に設けられていれば、その中の2つの撮像デバイスの撮像画像における共通の車外の撮像対象の視差に基づいて、残りの撮像デバイスの単眼処理で用いるずれ補正の情報を生成することが可能である。そして、残りの撮像デバイスの単眼処理では、ずれ補正の情報を用いて、より確からしい相対的な距離および方向の情報を生成することが可能である。
ずれ補正の基準に用いる撮像デバイスは、自動車1においてステレオカメラ19を構成するようには設けられていないものであってもよい。
少なくとも3つ以上の撮像デバイスが、共通する撮像領域を重ねて撮像可能となるように自動車1に設けられていれば、その中の2つの撮像デバイスの撮像画像における共通の車外の撮像対象の視差に基づいて、残りの撮像デバイスの単眼処理で用いるずれ補正の情報を生成することが可能である。そして、残りの撮像デバイスの単眼処理では、ずれ補正の情報を用いて、より確からしい相対的な距離および方向の情報を生成することが可能である。
上述した実施形態では、自動車1には、その周囲の全周を撮像するために、360度を複数に分割して撮像する複数の単眼処理用の撮像デバイス13~18を設けている。そして、この複数の撮像デバイス13~18について、ずれ補正の情報を生成している。
この他にもたとえば、自動車1には、その周囲の全周を撮像するために、360度を撮像可能な撮像デバイスを設けてもよい。360度を撮像可能な撮像デバイスについても、上述したものと同様の処理により、ずれ補正の情報を生成することが可能である。
この他にもたとえば、自動車1には、その周囲の全周を撮像するために、360度を撮像可能な撮像デバイスを設けてもよい。360度を撮像可能な撮像デバイスについても、上述したものと同様の処理により、ずれ補正の情報を生成することが可能である。
上述した実施形態では、ステレオカメラ19の2つの前右撮像デバイス11および前左撮像デバイス12による視差に基づく距離および方向を基準とし、それと撮像範囲が重なる単眼処理用の他の撮像デバイス、さらに他の撮像デバイスについての、距離および方向のずれ補正の情報を生成している。
このように基準とする撮像デバイスの撮像画像と、補正しようとする撮像デバイスの撮像画像とに撮像範囲の重なりがあれば、CPU24は、その重なりの撮像範囲にある撮像対象を用いて、補正しようとする撮像デバイスの撮像画像での距離または方向を、基準とする撮像デバイスの撮像画像の距離または方向と整合するように、距離または方向のずれ補正の情報を生成することができる。また、CPU24は、このようにずれ補正をした撮像デバイスと撮像範囲が重なる他の撮像デバイスについても、ずれ補正をした撮像デバイスを基準として、基準とする撮像デバイスの撮像画像の距離または方向と整合するように、距離または方向のずれ補正の情報を生成することができる。
このように基準とする撮像デバイスの撮像画像と、補正しようとする撮像デバイスの撮像画像とに撮像範囲の重なりがあれば、CPU24は、その重なりの撮像範囲にある撮像対象を用いて、補正しようとする撮像デバイスの撮像画像での距離または方向を、基準とする撮像デバイスの撮像画像の距離または方向と整合するように、距離または方向のずれ補正の情報を生成することができる。また、CPU24は、このようにずれ補正をした撮像デバイスと撮像範囲が重なる他の撮像デバイスについても、ずれ補正をした撮像デバイスを基準として、基準とする撮像デバイスの撮像画像の距離または方向と整合するように、距離または方向のずれ補正の情報を生成することができる。
また、上述した実施形態では、ステレオカメラ19の2つの前右撮像デバイス11および前左撮像デバイス12による視差に基づく距離および方向を基準としている。
この他にもたとえば、自動車1には、自動車1の周囲にある車外の周辺物を検出するために、ミリ波を入出力するライダ、赤外線などの電波を入出力するレーダ、などが設けられることがある。ライダやレーダの自動車1の周囲の走査検出により、制御システム9は、自動車1の周囲についての三次元的な周辺物の分布マップを得ることが可能である。CPU24は、この三次元的な分布マップを基準として、分布マップと撮像範囲が重なる最初の撮像デバイスについての距離または方向のずれ補正の情報を生成してもよい。また、CPU24は、この最初の撮像デバイスを基準として、それと撮像範囲が重なる次の撮像デバイスについて、重なりの撮像範囲にある撮像対象を用いて、次の撮像デバイスの撮像画像での距離または方向を、最初の撮像デバイスの撮像画像の距離または方向と整合するように、距離または方向のずれ補正の情報を生成してよい。
この他にもたとえば、自動車1には、自動車1の現在の位置や向きを検出するためにGNSS受信機や、高精度な三次元マップデータを用いることがある。この場合、制御システム9は、三次元マップデータに含まれる周辺の車外の周辺物と自車との相対的な距離および方向を高精度に得ることが可能である。CPU24は、最初の撮像デバイスに撮像されている三次元マップデータの周辺物の撮像位置に基づいて、最初の撮像デバイスについての距離または方向のずれ補正の情報を生成してもよい。また、CPU24は、この最初の撮像デバイスを基準として、それと撮像範囲が重なる次の撮像デバイスについて、重なりの撮像範囲にある撮像対象を用いて、次の撮像デバイスの撮像画像での距離または方向を、最初の撮像デバイスの撮像画像の距離または方向と整合するように、距離または方向のずれ補正の情報を生成してよい。
このように制御部としてのCPU24は、ステレオカメラ19を構成する2つの撮像デバイス11,12がない場合でも、複数の撮像デバイスの中の、少なくとも2つの撮像デバイスが、共通する撮像領域を重ねて撮像可能となるように自動車1に設けられていることを前提として、その共通する撮像領域を重ねて撮像可能な少なくとも2つの撮像デバイスの中の、1つの撮像デバイスの撮像画像での距離および方向に基づいて、残りの撮像デバイスの撮像画像の単眼処理で用いる、撮像位置に基づく車外の撮像対象についての距離または方向についての補正情報を生成することができる。
ただし、ステレオカメラ19を構成する2つの撮像デバイス11,12があることにより、制御部としてのCPU24は、そのステレオカメラ19での視差に基づいて距離および方向を高精度な基準として得ることができ、その視差に基づく距離および方向の情報を用いて、残りの少なくとも1つの撮像デバイスの撮像画像の単眼処理で用いる、撮像位置に基づく車外の撮像対象についての距離または方向についての補正情報を高精度を保って生成することができる。しかも、この場合、ライダ、レーダ、GNSS受信機といった撮像デバイス以外の部材についての自動車1での配置などについて、撮像デバイスとの間に高い位置精度が得られるように規定したり制限したりする必要がない。
この他にもたとえば、自動車1には、自動車1の周囲にある車外の周辺物を検出するために、ミリ波を入出力するライダ、赤外線などの電波を入出力するレーダ、などが設けられることがある。ライダやレーダの自動車1の周囲の走査検出により、制御システム9は、自動車1の周囲についての三次元的な周辺物の分布マップを得ることが可能である。CPU24は、この三次元的な分布マップを基準として、分布マップと撮像範囲が重なる最初の撮像デバイスについての距離または方向のずれ補正の情報を生成してもよい。また、CPU24は、この最初の撮像デバイスを基準として、それと撮像範囲が重なる次の撮像デバイスについて、重なりの撮像範囲にある撮像対象を用いて、次の撮像デバイスの撮像画像での距離または方向を、最初の撮像デバイスの撮像画像の距離または方向と整合するように、距離または方向のずれ補正の情報を生成してよい。
この他にもたとえば、自動車1には、自動車1の現在の位置や向きを検出するためにGNSS受信機や、高精度な三次元マップデータを用いることがある。この場合、制御システム9は、三次元マップデータに含まれる周辺の車外の周辺物と自車との相対的な距離および方向を高精度に得ることが可能である。CPU24は、最初の撮像デバイスに撮像されている三次元マップデータの周辺物の撮像位置に基づいて、最初の撮像デバイスについての距離または方向のずれ補正の情報を生成してもよい。また、CPU24は、この最初の撮像デバイスを基準として、それと撮像範囲が重なる次の撮像デバイスについて、重なりの撮像範囲にある撮像対象を用いて、次の撮像デバイスの撮像画像での距離または方向を、最初の撮像デバイスの撮像画像の距離または方向と整合するように、距離または方向のずれ補正の情報を生成してよい。
このように制御部としてのCPU24は、ステレオカメラ19を構成する2つの撮像デバイス11,12がない場合でも、複数の撮像デバイスの中の、少なくとも2つの撮像デバイスが、共通する撮像領域を重ねて撮像可能となるように自動車1に設けられていることを前提として、その共通する撮像領域を重ねて撮像可能な少なくとも2つの撮像デバイスの中の、1つの撮像デバイスの撮像画像での距離および方向に基づいて、残りの撮像デバイスの撮像画像の単眼処理で用いる、撮像位置に基づく車外の撮像対象についての距離または方向についての補正情報を生成することができる。
ただし、ステレオカメラ19を構成する2つの撮像デバイス11,12があることにより、制御部としてのCPU24は、そのステレオカメラ19での視差に基づいて距離および方向を高精度な基準として得ることができ、その視差に基づく距離および方向の情報を用いて、残りの少なくとも1つの撮像デバイスの撮像画像の単眼処理で用いる、撮像位置に基づく車外の撮像対象についての距離または方向についての補正情報を高精度を保って生成することができる。しかも、この場合、ライダ、レーダ、GNSS受信機といった撮像デバイス以外の部材についての自動車1での配置などについて、撮像デバイスとの間に高い位置精度が得られるように規定したり制限したりする必要がない。
1…自動車(車両)、2…車体、3…車室、9…制御システム、10…車外撮像装置、11…撮像デバイス、11…前右撮像デバイス、12…前左撮像デバイス、13…前中央撮像デバイス、14…右前撮像デバイス、15…右後撮像デバイス、16…左前撮像デバイス、17…左後撮像デバイス、18…後中央撮像デバイス、19…ステレオカメラ、21…車内入出力部、22…入出力ポート、23…メモリ、24…CPU、25…タイマ、26…システムバス、31…車ネットワーク、32…運転支援装置、33…乗員保護装置、34…車外保護装置、35…車外通信装置、36…センサ装置、37…加速度センサ、41…撮像デバイス、51,61,62,64,71,111~114…撮像画像、52…四角枠、55…路面モデル、57,63,65…画素、71…左前撮像画像、72…左後撮像画像、81…撮像デバイス、82…周辺物認識処理部、83…周辺物位置情報生成部、84…定量ずれ補正部、85…リアルタイムずれ補正部、86…周辺物情報出力部、87…車両制御実行部、91…路面モデルのデータ、92…ずれ補正の情報、93…姿勢情報、115~122…法線ベクトル
Claims (11)
- 車両の車外を撮像するために前記車両に設けられる複数の撮像デバイスと、
複数の前記撮像デバイスの撮像画像を用いて車外の撮像対象についての距離または方向の情報を生成することができる制御部と、
を有し、
複数の前記撮像デバイスの中の、少なくとも2つの前記撮像デバイスは、共通する撮像領域を重ねて撮像可能となるように前記車両に設けられ、
前記制御部は、
共通する撮像領域を重ねて撮像可能な少なくとも2つの前記撮像デバイスの中の、1つの前記撮像デバイスの撮像画像での距離および方向に基づいて、残りの前記撮像デバイスの撮像画像の単眼処理で用いる、撮像位置に基づく車外の撮像対象についての距離または方向についての補正情報を生成する、
車両の車外撮像装置。
- 複数の前記撮像デバイスの中の少なくとも3つが、共通する撮像領域を重ねて撮像可能となるように前記車両に設けられ、
前記制御部は、
少なくとも3つの中の2つの前記撮像デバイスの撮像画像を用いて、共通する撮像領域に撮像されている車外の撮像対象の視差に基づく距離および方向の情報を生成し、
視差に基づく距離および方向の情報を用いて、少なくとも3つの中の残りの少なくとも1つの前記撮像デバイスの撮像画像の単眼処理で用いる、撮像位置に基づく車外の撮像対象についての距離または方向についての補正情報を生成する、
請求項1記載の、車両の車外撮像装置。
- 前記車両の車外を撮像するために前記車両に設けられる複数の前記撮像デバイスは、
互いの配置が規定される2つの前記撮像デバイスによるステレオカメラと、
前記ステレオカメラの2つの前記撮像デバイスと共通する撮像領域を重ねて撮像可能な、少なくとも1つの単眼処理用の前記撮像デバイスと、を含み、
前記制御部は、
前記ステレオカメラの2つの前記撮像デバイスの撮像画像を用いて、単眼処理用の前記撮像デバイスと共通する撮像領域に撮像されている車外の撮像対象の視差に基づく距離および方向の情報を生成し、
前記ステレオカメラの距離および方向の情報を用いて、単眼処理用の前記撮像デバイスの補正情報を生成する、
請求項2記載の、車両の車外撮像装置。
- 前記車両の車外を撮像するために前記車両に設けられる複数の前記撮像デバイスは、複数の単眼処理用の前記撮像デバイス、を含み、
複数の単眼処理用の前記撮像デバイスは、他の単眼処理用の前記撮像デバイスと共通する撮像領域を重ねて撮像可能となるように設けられ、
前記制御部は、
複数の単眼処理用の前記撮像デバイスについての補正情報を、前記撮像領域の重なりの順番にしたがって順番に生成する、
請求項2または3記載の、車両の車外撮像装置。
- 複数の単眼処理用の前記撮像デバイスは、前記車両の周囲を分割して撮像するように前記車両に設けられ、
単眼処理用の各前記撮像デバイスは、前記車両の周囲の分割方向において隣接している他の単眼処理用の前記撮像デバイスと共通する撮像領域を重ねて撮像可能となるように前記車両に設けられている、
請求項4記載の、車両の車外撮像装置。
- 前記制御部は、複数の単眼処理用の前記撮像デバイスの補正情報を生成する際に、
前記車両の車外を撮像するために前記車両に設けられる複数の前記撮像デバイスとしての、互いの配置が規定される2つの前記撮像デバイスによるステレオカメラを基準として、前記ステレオカメラと共通する撮像領域を重ねて撮像可能な単眼処理用の前記撮像デバイスから順番に補正情報を生成する、
請求項4または5記載の、車両の車外撮像装置。
- 複数の単眼処理用の前記撮像デバイスは、前記車両の周囲の全周を、または前記ステレオカメラによる撮像範囲を除いた全周を、分割して撮像するように前記車両に設けられ、
前記制御部は、
前記ステレオカメラの撮像範囲の一端側において共通する撮像領域を重ねて撮像可能な一端側の単眼処理用の前記撮像デバイスと、前記ステレオカメラの撮像範囲の他端側において共通する撮像領域を重ねて撮像可能な他端側の単眼処理用の前記撮像デバイスと、から順番に補正情報を生成し、
最後に処理する単眼処理用の前記撮像デバイスについては、一端側の順番での処理による補正情報と、他端側の順番での処理による補正情報とを生成し、生成した2つの前記補正情報を比較して一連の補正を評価する、
請求項4から6のいずれか一項記載の、車両の車外撮像装置。
- 最後に処理する単眼処理用の前記撮像デバイスは、前記車両の後側を撮像するように設けられ、
前記制御部は、
最後に処理する単眼処理用の前記撮像デバイスの補正後の撮像画像に含まれる道路の情報に基づいて一連の補正を評価する、
請求項7記載の、車両の車外撮像装置。
- 前記制御部は、
一連の補正が良好である評価できない場合、警報または保守要請を出力する、
請求項7または8記載の、車両の車外撮像装置。
- 前記撮像デバイスの撮像画像の単眼処理で用いる、撮像位置に基づく車外の撮像対象についての距離または方向についての補正情報は、
前記撮像デバイスについて単眼処理のために設定されている撮像画像での撮像位置ごとの距離または方向の情報についての、距離または方向の補正情報である、
請求項1から9のいずれか一項記載の、車両の車外撮像装置。
- 前記制御部は、前記撮像デバイスにより撮像される車外の撮像対象についての距離または方向の単眼処理において、
前記補正情報を用いて補正し、
前記車両の姿勢に基づいて補正した距離または方向を取得する、
請求項1から10のいずれか一項記載の、車両の車外撮像装置。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021089844A JP2022182335A (ja) | 2021-05-28 | 2021-05-28 | 車両の車外撮像装置 |
US17/747,045 US20220383548A1 (en) | 2021-05-28 | 2022-05-18 | Vehicle external environment imaging apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021089844A JP2022182335A (ja) | 2021-05-28 | 2021-05-28 | 車両の車外撮像装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022182335A true JP2022182335A (ja) | 2022-12-08 |
Family
ID=84193569
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021089844A Pending JP2022182335A (ja) | 2021-05-28 | 2021-05-28 | 車両の車外撮像装置 |
Country Status (2)
Country | Link |
---|---|
US (1) | US20220383548A1 (ja) |
JP (1) | JP2022182335A (ja) |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100866450B1 (ko) * | 2001-10-15 | 2008-10-31 | 파나소닉 주식회사 | 차량 주위 감시 장치 및 그 조정 방법 |
EP1696669B1 (en) * | 2005-02-24 | 2013-07-03 | Aisin Seiki Kabushiki Kaisha | Vehicle surrounding monitoring device |
US8885045B2 (en) * | 2005-08-02 | 2014-11-11 | Nissan Motor Co., Ltd. | Device and method for monitoring vehicle surroundings |
JP4812510B2 (ja) * | 2006-05-17 | 2011-11-09 | アルパイン株式会社 | 車両周辺画像生成装置および撮像装置の測光調整方法 |
JP6014440B2 (ja) * | 2012-09-26 | 2016-10-25 | 日立オートモティブシステムズ株式会社 | 移動物体認識装置 |
JP6364797B2 (ja) * | 2014-02-06 | 2018-08-01 | 株式会社デンソー | 画像解析装置、および画像解析方法 |
US9598012B2 (en) * | 2014-03-11 | 2017-03-21 | Toyota Motor Engineering & Manufacturing North America, Inc. | Surroundings monitoring system for a vehicle |
US10089538B2 (en) * | 2015-04-10 | 2018-10-02 | Bendix Commercial Vehicle Systems Llc | Vehicle 360° surround view system having corner placed cameras, and system and method for calibration thereof |
JP6091586B1 (ja) * | 2015-11-12 | 2017-03-08 | 三菱電機株式会社 | 車両用画像処理装置および車両用画像処理システム |
US10504241B2 (en) * | 2016-12-19 | 2019-12-10 | Magna Electronics Inc. | Vehicle camera calibration system |
WO2018196001A1 (en) * | 2017-04-28 | 2018-11-01 | SZ DJI Technology Co., Ltd. | Sensing assembly for autonomous driving |
JPWO2018212346A1 (ja) * | 2017-05-18 | 2020-03-19 | パイオニア株式会社 | 制御装置、走査システム、制御方法、およびプログラム |
EP3644293B1 (en) * | 2017-06-20 | 2021-08-04 | Nissan Motor Co., Ltd. | Travel control method and travel control device |
JP6686988B2 (ja) * | 2017-08-28 | 2020-04-22 | 株式会社Soken | 映像出力装置及び映像生成プログラム |
JP7025912B2 (ja) * | 2017-12-13 | 2022-02-25 | 日立Astemo株式会社 | 車載環境認識装置 |
JP7147255B2 (ja) * | 2018-05-11 | 2022-10-05 | トヨタ自動車株式会社 | 画像表示装置 |
-
2021
- 2021-05-28 JP JP2021089844A patent/JP2022182335A/ja active Pending
-
2022
- 2022-05-18 US US17/747,045 patent/US20220383548A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
US20220383548A1 (en) | 2022-12-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110574357B (zh) | 成像控制设备、用于控制成像控制设备的方法以及移动体 | |
WO2017122552A1 (ja) | 画像処理装置および方法、プログラム、並びに画像処理システム | |
US11292415B2 (en) | Airbag device and vehicle | |
WO2016194867A1 (ja) | 運転支援装置及び運転支援方法 | |
WO2017057043A1 (ja) | 画像処理装置、画像処理方法、およびプログラム | |
US20090228172A1 (en) | Vehicle-to-vehicle position awareness system and related operating method | |
US20190073540A1 (en) | Vehicle control device, vehicle control method, and storage medium | |
US20200001815A1 (en) | Occupant restraint structure | |
WO2017057057A1 (ja) | 画像処理装置、画像処理方法、およびプログラム | |
KR20160040911A (ko) | V2x 통신 기반의 차량 주변환경 인식 장치 및 그 동작 방법 | |
EP3556625A1 (en) | Vehicle control system, external electronic control unit, vehicle control method, and application | |
JP2006318093A (ja) | 車両用移動物体検出装置 | |
JP2007034477A (ja) | 車両用走行支援装置 | |
CN112622878B (zh) | 远程泊车系统 | |
US20210146955A1 (en) | Vehicle control system, vehicle control method, and program | |
JP2020091589A (ja) | ドライブレコーダ | |
US12033403B2 (en) | Vehicle control device, vehicle control method, and storage medium | |
JP2004310522A (ja) | 車両用画像処理装置 | |
JP2019096161A (ja) | 車両制御装置、車両制御方法、およびプログラム | |
JP6728476B2 (ja) | 乗員拘束構造 | |
JP2022182335A (ja) | 車両の車外撮像装置 | |
US20220306150A1 (en) | Control device, control method, and storage medium | |
JP6824081B2 (ja) | 乗員拘束構造 | |
JP2022154840A (ja) | 検出装置、車両システム、検出方法、およびプログラム | |
JP6020736B2 (ja) | 予測進路提示装置及び予測進路提示方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20221223 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240408 |