JP2019201301A - Imaging system - Google Patents

Imaging system Download PDF

Info

Publication number
JP2019201301A
JP2019201301A JP2018094238A JP2018094238A JP2019201301A JP 2019201301 A JP2019201301 A JP 2019201301A JP 2018094238 A JP2018094238 A JP 2018094238A JP 2018094238 A JP2018094238 A JP 2018094238A JP 2019201301 A JP2019201301 A JP 2019201301A
Authority
JP
Japan
Prior art keywords
imaging device
vehicle
imaging
information
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018094238A
Other languages
Japanese (ja)
Inventor
康平 門下
Kohei Kadoshita
康平 門下
大祐 片岡
Daisuke Kataoka
大祐 片岡
俊樹 小野
Toshiki Ono
俊樹 小野
雅章 座間
Masafumi ZAMA
雅章 座間
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Semiconductor Solutions Corp
Original Assignee
Sony Semiconductor Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Semiconductor Solutions Corp filed Critical Sony Semiconductor Solutions Corp
Priority to JP2018094238A priority Critical patent/JP2019201301A/en
Priority to PCT/JP2019/019194 priority patent/WO2019221151A1/en
Publication of JP2019201301A publication Critical patent/JP2019201301A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums

Abstract

To favorably avoid a reduction in accuracy of distance measurement with respect to a traveling direction of a vehicle.SOLUTION: A first imaging apparatus and a second imaging apparatus mounted on a vehicle are provided. The first imaging apparatus has a first angle of view. The second imaging apparatus has a second angle of view smaller than the first angle of view. The second imaging apparatus is driven by a drive unit so as to move an imaging range of the second imaging apparatus. The drive unit is controlled by a control unit on the basis of information related to a progress of the vehicle.SELECTED DRAWING: Figure 4

Description

本技術は、撮像システムに関して、詳しくは、車両に搭載される撮像装置を備える撮像システムに関する。   The present technology relates to an imaging system, and more particularly, to an imaging system including an imaging device mounted on a vehicle.

従来の車載ステレオカメラにおける測距は、車両のフロントガラス中心上部付近の同種2眼カメラの視差画像より実現されている。この車載ステレオカメラは、カメラが車両に固定されているため、カメラの撮像範囲は車両に対して常に固定された状態にある。運転状況によっては、車両のフロント方向と車両の進行方向にズレが生じるため、車両の進行方向に対する測距の精度が低下する懸念があった。   Ranging in a conventional in-vehicle stereo camera is realized from a parallax image of the same type of twin-lens camera near the upper center of the windshield of the vehicle. In this in-vehicle stereo camera, since the camera is fixed to the vehicle, the imaging range of the camera is always fixed to the vehicle. Depending on the driving conditions, there is a difference between the front direction of the vehicle and the traveling direction of the vehicle, and there is a concern that the accuracy of distance measurement with respect to the traveling direction of the vehicle is lowered.

例えば、特許文献1には、車両の進行方向の変化に応じてステレオカメラの視線方向を制御する移動体システムが提案されている。この移動体システムにおいては、ステレオカメラの全体を回転制御するものであり、可動域が大きくなるという機構上の問題があった。   For example, Patent Document 1 proposes a mobile system that controls the line-of-sight direction of a stereo camera in accordance with a change in the traveling direction of a vehicle. In this mobile system, the entire stereo camera is rotationally controlled, and there is a mechanical problem that the movable range becomes large.

特開2016−131367号公報Japanese Patent Laid-Open No. 2006-131367

本技術の目的は、車両の進行方向に対する測距の精度低下を良好に回避することにある。   An object of the present technology is to satisfactorily avoid a decrease in distance measurement accuracy in the traveling direction of the vehicle.

本技術の概念は、
車両に搭載され、第1の画角を有する第1の撮像装置と、
前記車両に搭載され、前記第1の画角よりも小さな第2の画角を有する第2の撮像装置と、
前記第2の撮像装置の撮像範囲を移動させるように前記第2の撮像装置を駆動する駆動部と、
前記車両の進行に係る情報に基づいて前記駆動部を制御する制御部を備える
撮像システムにある。
The concept of this technology is
A first imaging device mounted on a vehicle and having a first angle of view;
A second imaging device mounted on the vehicle and having a second angle of view smaller than the first angle of view;
A drive unit that drives the second imaging device to move the imaging range of the second imaging device;
The imaging system includes a control unit that controls the drive unit based on information related to the progress of the vehicle.

本技術においては、車両に搭載される第1の撮像装置と第2の撮像装置を備えている。第1の撮像装置は、第1の画角を有している。第2の撮像装置は、第1の画角よりも小さな第2に画角を有している。駆動部により、第2の撮像装置の撮像範囲を移動させるように第2の撮像装置が駆動される。例えば、駆動部は、第2の撮像装置の撮像範囲を移動させるように第2の撮像装置を回転駆動する、ようにされてもよい。また、例えば、駆動部は、第2の撮像装置の撮像範囲が第1の撮像装置の撮像範囲を越えない範囲で第2の撮像装置を駆動する、ようにされてもよい。また、例えば、駆動部は、第2の撮像装置を横方向および縦方向に駆動可能に構成される、ようにされてもよい。   The present technology includes a first imaging device and a second imaging device mounted on a vehicle. The first imaging device has a first angle of view. The second imaging device has a second field angle smaller than the first field angle. The second imaging device is driven by the drive unit so as to move the imaging range of the second imaging device. For example, the drive unit may be configured to rotationally drive the second imaging device so as to move the imaging range of the second imaging device. Further, for example, the drive unit may drive the second imaging device in a range where the imaging range of the second imaging device does not exceed the imaging range of the first imaging device. For example, the drive unit may be configured to be able to drive the second imaging device in the horizontal direction and the vertical direction.

制御部により、車両の進行に係る情報に基づいて駆動部が制御される。例えば、情報は、カーブ情報である、ようにされてもよい。また、例えば、情報は、地図情報である、ようにされてもよい。また、例えば、情報は、車両に搭載されている車両制御部から与えられる、ようにされてもよい。また、例えば、情報は、車両に搭載されているセンサから与えられる、ようにされてもよい。また、例えば、情報は、車両のフロント方向に対する車両の進行方向の角度を示す情報である、ようにされてもよい。   The drive unit is controlled by the control unit based on information related to the progress of the vehicle. For example, the information may be curve information. For example, the information may be map information. Further, for example, the information may be given from a vehicle control unit mounted on the vehicle. Further, for example, the information may be given from a sensor mounted on the vehicle. Further, for example, the information may be information indicating an angle of the traveling direction of the vehicle with respect to the front direction of the vehicle.

例えば、第1の撮像装置からの画像データと第2の撮像装置からの画像データに基づいて、第2の撮像装置の撮像範囲における視差情報を得る視差判定部をさらに備える、ようにされてもよい。この場合、例えば、視差情報に基づいて、第2の撮像装置の撮像範囲における距離情報を得る距離演算部をさらに備える、ようにされてもよい。また、この場合、例えば、視差情報に基づいて第1の撮像装置からの画像データと第2の撮像装置からの画像データの対応部分が重なるように合成して高解像度画像データを得る画像処理部をさらに備える、ようにされてもよい。   For example, a parallax determination unit that obtains parallax information in the imaging range of the second imaging device based on image data from the first imaging device and image data from the second imaging device may be further provided. Good. In this case, for example, a distance calculation unit that obtains distance information in the imaging range of the second imaging device based on the parallax information may be further provided. In this case, for example, an image processing unit that obtains high-resolution image data by combining image data from the first imaging device and image data from the second imaging device so as to overlap based on parallax information. May be further provided.

このように本技術においては、第1の画角よりも小さな第2の画角を有する第2の撮像装置を車両の進行に係る情報に基づいて回転駆動するものである。そのため、可動域が大きくなるという機構上の問題を発生させることなく、車両の進行方向に対する測距の精度低下を良好に回避可能となる。   As described above, in the present technology, the second imaging device having the second field angle smaller than the first field angle is rotationally driven based on the information related to the traveling of the vehicle. Therefore, it is possible to satisfactorily avoid a decrease in distance measurement accuracy in the traveling direction of the vehicle without causing a mechanical problem that the range of motion becomes large.

本技術によれば、車両の進行方向に対する測距の精度低下を良好に回避できる。なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。   According to the present technology, it is possible to satisfactorily avoid a decrease in distance measurement accuracy with respect to the traveling direction of the vehicle. Note that the effects described here are not necessarily limited, and may be any of the effects described in the present disclosure.

第1の実施の形態としての撮像システムの構成例を示すブロック図である。1 is a block diagram illustrating a configuration example of an imaging system as a first embodiment. FIG. 第1の撮像装置の撮像範囲ALと第2の撮像装置の撮像範囲ARとの対応関係の一例を示す図である。It is a figure which shows an example of the correspondence of imaging range AL of a 1st imaging device, and imaging range AR of a 2nd imaging device. 従来の車載ステレオカメラについて示す図である。It is a figure shown about the conventional vehicle-mounted stereo camera. 実施の形態の車載ステレオカメラについて示す図である。It is a figure shown about the vehicle-mounted stereo camera of embodiment. 画像処理部の構成例を示すブロック図である。It is a block diagram which shows the structural example of an image process part. 一般的なカメラモデルを示す図である。It is a figure which shows a general camera model. 従来の車載ステレオカメラのカメラモデルを示す図である。It is a figure which shows the camera model of the conventional vehicle-mounted stereo camera. 実施の形態の車載ステレオカメラのカメラモデルを示す図である。It is a figure which shows the camera model of the vehicle-mounted stereo camera of embodiment. 画像変形の処理を説明するための図である。It is a figure for demonstrating the process of an image deformation | transformation. 高解像度画像データを得るための補間処理を概略的に示す図である。It is a figure which shows schematically the interpolation process for obtaining high resolution image data.

以下、発明を実施するための形態(以下、「実施の形態」とする)について説明する。なお、説明は以下の順序で行う。
1.実施の形態
2.変形例
Hereinafter, modes for carrying out the invention (hereinafter referred to as “embodiments”) will be described. The description will be given in the following order.
1. Embodiment 2. FIG. Modified example

<1.実施の形態>
[撮像システム]
図1は、実施の形態としての撮像システム100の構成例を示している。この撮像システム100は、第1の撮像装置101と、第2の撮像装置102と、駆動部103と、画像処理部104と、車両制御部(ECU:Electronic Control Unit)105と、ステアリング106と、ブレーキ107と、表示部108を有している。
<1. Embodiment>
[Imaging system]
FIG. 1 shows a configuration example of an imaging system 100 as an embodiment. The imaging system 100 includes a first imaging device 101, a second imaging device 102, a drive unit 103, an image processing unit 104, a vehicle control unit (ECU: Electronic Control Unit) 105, a steering 106, A brake 107 and a display unit 108 are provided.

第1の撮像装置101は第1の画角を有する広角カメラであり、第1の撮像装置は第1の画角より小さな第2の画角を有する狭角カメラである。第1の撮像装置(広角カメラ)101と第2の撮像装置(狭角カメラ)102は、画角のみが異なり、同一のイメージセンサ(画素ピッチが共通)が使用されている。これら第1の撮像装置101および第2の撮像装置102は、車両に搭載された車載ステレオカメラ111を構成している。第1の撮像装置101は、車両のフロント方向を撮像するように当該車両に固定されている。一方、第2の撮像装置102は、車両のフロント方向だけでなく、このフロント方向からずれた方向の撮像も可能となるように、例えば、横方向および縦方向に、この実施の形態では横方向に回動可能に車両に取り付けられている。   The first imaging device 101 is a wide-angle camera having a first angle of view, and the first imaging device is a narrow-angle camera having a second angle of view that is smaller than the first angle of view. The first imaging device (wide-angle camera) 101 and the second imaging device (narrow-angle camera) 102 differ only in the angle of view, and use the same image sensor (common pixel pitch). The first imaging device 101 and the second imaging device 102 constitute an in-vehicle stereo camera 111 mounted on the vehicle. The first imaging device 101 is fixed to the vehicle so as to capture the front direction of the vehicle. On the other hand, the second imaging device 102 is capable of imaging not only in the front direction of the vehicle but also in a direction shifted from the front direction, for example, in the horizontal direction and the vertical direction, in this embodiment, in the horizontal direction. It is attached to the vehicle so as to be rotatable.

駆動部103は、モータ等で構成され、車両制御部105の制御のもと、第2の撮像装置102の撮像範囲を左右方向に移動させるように、当該第2の撮像装置102を回転駆動する。この場合、第1の撮像装置101の光軸(視線方向)が車両のフロント方向にあるのに対して、第2の撮像装置102の光軸(視線方向)が車両の進行方向に追従するようにされる。この場合、駆動部103は、第2の撮像装置102の撮像範囲が、第1の撮像装置101の撮像範囲を越えない範囲で第2の撮像装置102を回転駆動する。   The drive unit 103 is configured by a motor or the like, and rotates the second imaging device 102 so as to move the imaging range of the second imaging device 102 in the left-right direction under the control of the vehicle control unit 105. . In this case, the optical axis (gaze direction) of the first imaging device 101 is in the front direction of the vehicle, whereas the optical axis (gaze direction) of the second imaging device 102 follows the traveling direction of the vehicle. To be. In this case, the drive unit 103 rotationally drives the second imaging device 102 so that the imaging range of the second imaging device 102 does not exceed the imaging range of the first imaging device 101.

図2は、第1の撮像装置(広角カメラ)101の撮像範囲ALと第2の撮像装置(狭角カメラ)102の撮像範囲ARとの対応関係の一例を示している。図示のように、撮像範囲ARは撮像範囲ALに包含される。撮像範囲ALが固定であるのに対して、撮像範囲ARは第2の撮像装置102が回転駆動されることで、矢印で示す横方向(左右方向)に、移動する。なお、図示の撮像範囲ARの位置は、車両の進行方向が車両のフロント方向と一致している場合を示している。   FIG. 2 shows an example of a correspondence relationship between the imaging range AL of the first imaging device (wide angle camera) 101 and the imaging range AR of the second imaging device (narrow angle camera) 102. As illustrated, the imaging range AR is included in the imaging range AL. Whereas the imaging range AL is fixed, the imaging range AR moves in the horizontal direction (left-right direction) indicated by the arrows when the second imaging device 102 is rotationally driven. Note that the position of the illustrated imaging range AR indicates a case where the traveling direction of the vehicle matches the front direction of the vehicle.

この場合、車両制御部105は、例えば、車両の進行に係る情報に基づいて、駆動部103を制御する。例えば、この情報は、撮像画像データから道路の白線が認識されることで得られるカーブ情報、図示しないナビゲーションシステムからの地図情報、あるいは車両、例えばステアリング106から、あるいは車両に搭載されているセンサ(レーダ、ライダなど)から与えられる車両のフロント方向に対する車両の進行方向の角度を示す情報などである。   In this case, the vehicle control unit 105 controls the drive unit 103 based on, for example, information related to the progress of the vehicle. For example, this information includes curve information obtained by recognizing a white road line from captured image data, map information from a navigation system (not shown), or a vehicle (for example, a steering 106 or a sensor ( Information indicating the angle of the traveling direction of the vehicle with respect to the front direction of the vehicle given by a radar, a lidar, etc.).

図3(a),(b)は、従来の車載ステレオカメラ10について示している。この車載ステレオカメラ10は、同一画角を有する左眼カメラ11および右眼カメラ12からなっている。この車載ステレオカメラ10は、カメラの光軸(視線方向)が車両40のフロント方向と一致するように車両40に固定されているため、カメラの撮像範囲は車両40に対して常に固定された状態にある。図3(a)は、直進状態を示している。この状態では、車両40のフロント方向と車両40の進行方向は一致している。これに対して、図3(b)は、右カーブ状態を示している。この状態では、車両40の進行方向は車両40のフロント方向からずれる。   3A and 3B show a conventional in-vehicle stereo camera 10. The in-vehicle stereo camera 10 includes a left eye camera 11 and a right eye camera 12 having the same angle of view. Since this in-vehicle stereo camera 10 is fixed to the vehicle 40 so that the optical axis (line-of-sight direction) of the camera coincides with the front direction of the vehicle 40, the imaging range of the camera is always fixed with respect to the vehicle 40. It is in. FIG. 3A shows a straight traveling state. In this state, the front direction of the vehicle 40 and the traveling direction of the vehicle 40 match. In contrast, FIG. 3B shows a right curve state. In this state, the traveling direction of the vehicle 40 deviates from the front direction of the vehicle 40.

図4(a),(b)は、この実施の形態の車載ステレオカメラ111について示している。第1の撮像装置(広角カメラ)101に関してはカメラの光軸(視線方向)が車両40のフロント方向と一致するように車両40に固定されているが、第2の撮像装置(狭角カメラ)102に介しては、横方向(左右方向)に回動可能に車両40に取り付けられ、その光軸が車両40の進行方向に追従するようにされている。   FIGS. 4A and 4B show the in-vehicle stereo camera 111 of this embodiment. The first imaging device (wide-angle camera) 101 is fixed to the vehicle 40 so that the optical axis (gaze direction) of the camera coincides with the front direction of the vehicle 40, but the second imaging device (narrow-angle camera). Via 102, it is attached to the vehicle 40 so as to be rotatable in the horizontal direction (left-right direction), and its optical axis follows the traveling direction of the vehicle 40.

図4(a)は、直進状態を示している。この状態では、車両のフロント方向と車両の進行方向は一致している。そのため、第2の撮像装置(狭角カメラ)102の光軸は、第1の撮像装置(広角カメラ)101の光軸と同じように、車両のフロント方向と一致している。これに対して、図4(b)は、右カーブ状態を示している。この状態では、車両の進行方向は車両のフロント方向からずれ、第2の撮像装置(狭角カメラ)102の光軸(視線方向)は車両40の進行方向と一致したものとなる。   FIG. 4A shows a straight traveling state. In this state, the front direction of the vehicle coincides with the traveling direction of the vehicle. Therefore, the optical axis of the second imaging device (narrow angle camera) 102 matches the front direction of the vehicle in the same manner as the optical axis of the first imaging device (wide angle camera) 101. On the other hand, FIG. 4B shows a right curve state. In this state, the traveling direction of the vehicle deviates from the front direction of the vehicle, and the optical axis (gaze direction) of the second imaging device (narrow-angle camera) 102 matches the traveling direction of the vehicle 40.

図1に戻って、画像処理部104は、第1の撮像装置101からの画像データVLと第2の撮像装置102からの画像データVRに基づいて、第2の撮像装置102の撮像範囲における視差情報を得る。この場合、画像マッチング処理により、第2の撮像装置102の撮像範囲において、対応する第1の撮像装置101の画素が例えばサブピクセル単位で求められることで、視差情報が得られる。そして、画像処理部104は、第2の撮像装置102の撮像範囲の画素毎に、視差情報に基づいて距離(奥行き)を計算してデプスマップを得、車両制御部105に供給する。   Returning to FIG. 1, the image processing unit 104 performs parallax in the imaging range of the second imaging device 102 based on the image data VL from the first imaging device 101 and the image data VR from the second imaging device 102. get information. In this case, parallax information is obtained by obtaining the corresponding pixels of the first imaging device 101, for example, in units of subpixels in the imaging range of the second imaging device 102 by image matching processing. Then, the image processing unit 104 calculates a distance (depth) for each pixel in the imaging range of the second imaging device 102 based on the parallax information, obtains a depth map, and supplies the depth map to the vehicle control unit 105.

また、画像処理部104は、視差情報に基づいて第1の撮像装置101からの画像データVLと第2の撮像装置102からの画像データVRの対応する部分が重なるように合成して、第2の撮像装置102の撮像範囲における高解像度画像データVHを得る。そして、画像処理部104は、この高解像度画像データVHに対して物体認識処理を施して、その認識結果を車両制御部105に供給する。この物体認識処理には、車両、人、道路標識、信号機等の他に、上述した道路の白線認識も含めることができる。このように高解像度画像データを用いた物体認識処理では、進行方向の遠方に存在する物体の認識を精度よく行うことができる。   Further, the image processing unit 104 combines the image data VL from the first imaging device 101 and the image data VR from the second imaging device 102 so as to overlap each other based on the parallax information, so that the second High-resolution image data VH in the imaging range of the imaging device 102 is obtained. Then, the image processing unit 104 performs object recognition processing on the high-resolution image data VH and supplies the recognition result to the vehicle control unit 105. This object recognition processing can include the above-described white line recognition of roads in addition to vehicles, people, road signs, traffic lights, and the like. As described above, in the object recognition process using the high-resolution image data, it is possible to accurately recognize an object existing far in the traveling direction.

また、画像処理部104は、第1の撮像装置101からの画像データVLと対して物体認識処理を施して、その認識結果を車両制御部105に供給する。このように第1の撮像装置101からの画像データVLを用いた物体認識処理では、広視野の撮像画像データから物体認識を行うものであり、横から急に出てくる車両や人を認識することが可能となる。   In addition, the image processing unit 104 performs object recognition processing on the image data VL from the first imaging device 101 and supplies the recognition result to the vehicle control unit 105. As described above, in the object recognition processing using the image data VL from the first image pickup apparatus 101, object recognition is performed from picked-up image data with a wide field of view, and a vehicle or a person suddenly coming out from the side is recognized. It becomes possible.

車両制御部105は、画像処理部104から供給されるデプスマップや物体認識結果に基づいて、ステアリング106やブレーキ107を制御し、また、表示部108における警告表示なども制御する。   The vehicle control unit 105 controls the steering 106 and the brake 107 based on the depth map and the object recognition result supplied from the image processing unit 104, and also controls warning display on the display unit 108.

図5は、画像処理部104の構成例を示している。この画像処理部104は、視差判定部141と、距離計算部142と、画像変形部143と、画像補間部144と、物体認識部145,146を有している。   FIG. 5 shows a configuration example of the image processing unit 104. The image processing unit 104 includes a parallax determination unit 141, a distance calculation unit 142, an image deformation unit 143, an image interpolation unit 144, and object recognition units 145 and 146.

視差判定部141には、第1の撮像装置(広角カメラ)101で得られた画像データVLが供給されると共に、第2の撮像装置(狭角カメラ)102で得られた画像データVRが供給される。視差判定部141は、例えば、画像データVRを処理して画像データVLと解像度が合った画像データVR´を得る。   The parallax determination unit 141 is supplied with the image data VL obtained by the first imaging device (wide angle camera) 101 and the image data VR obtained by the second imaging device (narrow angle camera) 102. Is done. For example, the parallax determination unit 141 processes the image data VR to obtain image data VR ′ having the same resolution as the image data VL.

視差判定部141は、画像データVR´による画像が画像データVLによる画像の対応位置に配置された状態で、画像マッチング処理を行って、画像データVR´の各画素の視差情報を得る。例えば、画像データVR´の対象画素の位置が(u2,v2)であって、対応した画像データVLの画素位置が(u1,v1)であるとき、これら(u2,v2)、(u1,v1)の位置は画像データVR´の当該対象画素の視差情報を構成する。   The parallax determination unit 141 performs image matching processing in a state where the image based on the image data VR ′ is arranged at the corresponding position of the image based on the image data VL, and obtains parallax information on each pixel of the image data VR ′. For example, when the position of the target pixel of the image data VR ′ is (u2, v2) and the corresponding pixel position of the image data VL is (u1, v1), these (u2, v2), (u1, v1) ) Constitutes disparity information of the target pixel of the image data VR ′.

距離計算部142は、第2の撮像装置102の撮像範囲の画素毎に、上述した視差情報に基づいて距離(奥行き)を計算してデプスマップを得、そのデプスマップを車両制御部105に供給する。   The distance calculation unit 142 calculates a distance (depth) for each pixel in the imaging range of the second imaging device 102 based on the above-described parallax information, obtains a depth map, and supplies the depth map to the vehicle control unit 105. To do.

図6は、一般的なカメラモデルを示している。3次元座標(X,Y,Z)の点Pが画像上の点p(u,v)に写ったとすると、以下の数式(1)が成り立つ。ここで、Kは、カメラ行列、またはカメラの内部パラメータ行列と呼ばれ、(cx,cy)は主点(通常は画像中心)、fはピクセル単位で表される焦点距離である。また、並進-回転の同次変換行列である[R|T]は,外部パラメータ行列と呼ばれる。また、λは、スケールファクタである。   FIG. 6 shows a general camera model. If the point P of the three-dimensional coordinates (X, Y, Z) is reflected at the point p (u, v) on the image, the following formula (1) is established. Here, K is called a camera matrix or an internal parameter matrix of the camera, (cx, cy) is a principal point (usually the image center), and f is a focal length expressed in units of pixels. [R | T], which is a translation-rotation homogeneous transformation matrix, is called an external parameter matrix. Λ is a scale factor.

Figure 2019201301
Figure 2019201301

図7は、従来の車載ステレオカメラ10(図3参照)のカメラモデルを示している。3次元座標(X,Y,Z)の点Pが左眼カメラ11による画像上の点p1(u1,v1)に写ったとすると、以下の数式(2)が成り立つ。また、3次元座標(X,Y,Z)の点Pが右眼カメラ12による画像上の点p2(u2,v2)に写ったとすると、以下の数式(3)が成り立つ。ここで、Bは、基線長である。   FIG. 7 shows a camera model of a conventional in-vehicle stereo camera 10 (see FIG. 3). Assuming that the point P of the three-dimensional coordinates (X, Y, Z) appears on the point p1 (u1, v1) on the image by the left-eye camera 11, the following equation (2) is established. If the point P of the three-dimensional coordinates (X, Y, Z) is reflected on the point p2 (u2, v2) on the image by the right eye camera 12, the following formula (3) is established. Here, B is the baseline length.

Figure 2019201301
Figure 2019201301

この場合、視差dは、以下の数式(4)で表され、距離Zは、以下の数式(5)で計算される。
d=u2−u1 ・・・(4)
Z=Bf/d ・・・(5)
In this case, the parallax d is expressed by the following formula (4), and the distance Z is calculated by the following formula (5).
d = u2−u1 (4)
Z = Bf / d (5)

図8は、実施の形態の車載ステレオカメラ111(図4参照)のカメラモデルを示している。3次元座標(X,Y,Z)の点Pが第1の撮像装置101による画像上の点p1(u1,v1)に写ったとすると、以下の数式(6)が成り立つ。また、3次元座標(X,Y,Z)の点Pが第2の撮像装置102による画像上の点p2(u2,v2)に写ったとすると、以下の数式(7)が成り立つ。この場合、(u2,v2)は、以下の数式(8)で示されるY軸周りの回転θを表す回転行列で変換されたものとなっている。   FIG. 8 shows a camera model of the in-vehicle stereo camera 111 (see FIG. 4) according to the embodiment. Assuming that the point P of the three-dimensional coordinates (X, Y, Z) appears in the point p1 (u1, v1) on the image by the first imaging device 101, the following equation (6) is established. If the point P of the three-dimensional coordinates (X, Y, Z) is reflected at the point p2 (u2, v2) on the image by the second imaging device 102, the following formula (7) is established. In this case, (u2, v2) is converted by a rotation matrix representing the rotation θ around the Y axis expressed by the following formula (8).

Figure 2019201301
Figure 2019201301

この場合、距離Zは、以下の数式(9)で計算される。つまり、距離計算部142では、第2の撮像装置102の撮像範囲の画素毎に、上述した視差情報(u2,v2 )、(u1,v1)に基づいて、この数式(9)の計算が行われることになる。

Figure 2019201301
In this case, the distance Z is calculated by the following formula (9). In other words, the distance calculation unit 142 calculates the formula (9) for each pixel in the imaging range of the second imaging device 102 based on the above-described parallax information (u2, v2) and (u1, v1). It will be.
Figure 2019201301

図5に戻って、画像変形部143は、第1の撮像装置(広角カメラ)101で得られた画像データVLと第2の撮像装置(狭角カメラ)102で得られた画像データVRの対応部分が重なるように、画像データVLに対して変形処理をする。この場合、画像変形部143は、視差判定部141で得られた視差情報に基づいて画像データVR´の各画素に対応した画像データVLの画素を把握し、当該画像データVLの画素を画像データVRの対応する画素に重なるように、視差情報に基づいて移動させる。これにより、画像変形部143は、第2の撮像装置(狭角カメラ)102の撮像範囲に対応した変形画像データVLaを得る。   Returning to FIG. 5, the image deforming unit 143 corresponds the image data VL obtained by the first imaging device (wide-angle camera) 101 and the image data VR obtained by the second imaging device (narrow-angle camera) 102. Deformation processing is performed on the image data VL so that the portions overlap. In this case, the image transformation unit 143 grasps the pixel of the image data VL corresponding to each pixel of the image data VR ′ based on the parallax information obtained by the parallax determination unit 141, and uses the pixel of the image data VL as the image data. It moves based on parallax information so that it may overlap with the corresponding pixel of VR. As a result, the image deforming unit 143 obtains deformed image data VLa corresponding to the imaging range of the second imaging device (narrow angle camera) 102.

例えば、図9に示すように、第2の撮像装置(狭角カメラ)102の撮像範囲AR内の点(画素)P21に第1の撮像装置(広角カメラ)101の撮像範囲AL内の点(画素)P11が対応していることが把握された場合、撮像範囲AL内の点(画素)P11が撮像範囲AR内の点(画素)P21と重なるように視差情報に基づいて移動される。また、同様に、図9に示すように、第2の撮像装置(狭角カメラ)の撮像範囲AR内の点(画素)P22に第1の撮像装置(広角カメラ)の撮像範囲AL内の点(画素)P12が対応していることが把握された場合、撮像範囲AL内の点(画素)P12が撮像範囲AR内の点(画素)P22と重なるように視差情報に基づいて移動される。   For example, as shown in FIG. 9, a point (pixel) P21 in the imaging range AR of the second imaging device (narrow angle camera) 102 is a point (in the imaging range AL of the first imaging device (wide angle camera) 101) ( When it is determined that (pixel) P11 corresponds, the point (pixel) P11 in the imaging range AL is moved based on the parallax information so as to overlap the point (pixel) P21 in the imaging range AR. Similarly, as shown in FIG. 9, a point (pixel) P22 in the imaging range AR of the second imaging device (narrow-angle camera) is a point in the imaging range AL of the first imaging device (wide-angle camera). When it is determined that the (pixel) P12 corresponds, the point (pixel) P12 in the imaging range AL is moved based on the parallax information so as to overlap the point (pixel) P22 in the imaging range AR.

図5に戻って、画像補間部144は、画像データVRと変形画像データVLaとを用いた補間処理を行って高解像度画像データVHを得る。図10は、補間処理を概略的に示している。図10(a)は、画像変形部143で変形処理される前の画像データVLと画像データVRのそれぞれの画素の対応関係の一例を示している。上述したように、第1の撮像装置(広角カメラ)101と第2の撮像装置(狭角カメラ)102は、画角のみが異なり、同一のイメージセンサ(画素ピッチが共通)からなっている。従って、この場合、画像データVLが広角撮像に係るものであるのに対して画像データVRは狭角撮像に係るものであることから、画素データVRの画素間隔dRは画像データVLの画素間隔dLより短くなっている。   Returning to FIG. 5, the image interpolation unit 144 performs an interpolation process using the image data VR and the deformed image data VLa to obtain high-resolution image data VH. FIG. 10 schematically shows the interpolation process. FIG. 10A shows an example of a correspondence relationship between the respective pixels of the image data VL and the image data VR before being deformed by the image deforming unit 143. As described above, the first image pickup device (wide-angle camera) 101 and the second image pickup device (narrow-angle camera) 102 are different from each other only in the angle of view and are composed of the same image sensor (common pixel pitch). Accordingly, in this case, since the image data VL relates to wide-angle imaging while the image data VR relates to narrow-angle imaging, the pixel interval dR of the pixel data VR is equal to the pixel interval dL of the image data VL. It is shorter.

図10(b)は、画像変形部143で変形処理された後の画像データVLaと画像データVRのそれぞれの画素と、補間処理によって得られる高解像度画像データVHの画素との対応関係の一例を示している。図示の例においては、画像データVLの画素P1が対応する画像データVRの画素P2と重なるように変形された状態を示している。高解像度画像データVHの各画素は、画像データVLaと画像データVRの画素を用いて、画素間隔dRよりも短い画素間隔dHで生成されている。   FIG. 10B illustrates an example of a correspondence relationship between each pixel of the image data VLa and the image data VR that has been subjected to the deformation process by the image deformation unit 143, and a pixel of the high-resolution image data VH obtained by the interpolation process. Show. In the illustrated example, a state in which the pixel P1 of the image data VL is deformed so as to overlap the pixel P2 of the corresponding image data VR is illustrated. Each pixel of the high-resolution image data VH is generated with a pixel interval dH shorter than the pixel interval dR using the pixels of the image data VLa and the image data VR.

図5に戻って、物体認識部145は、画像補間部144で得られた第2の撮像装置(狭角カメラ)102の撮像範囲に対応した高解像度画像データVHに基づいて物体認識を行い、その認識結果を車両制御部105に供給する。この場合、物体認識部145は、周知の物体認識技術を用いて、車両、歩行者、道路標識、信号機等の物体を認識する。このように高解像度画像データVHを用いた物体認識処理では、遠方に存在する物体の認識を精度よく行うことができる。   Returning to FIG. 5, the object recognition unit 145 performs object recognition based on the high-resolution image data VH corresponding to the imaging range of the second imaging device (narrow angle camera) 102 obtained by the image interpolation unit 144. The recognition result is supplied to the vehicle control unit 105. In this case, the object recognition unit 145 recognizes an object such as a vehicle, a pedestrian, a road sign, or a traffic signal using a known object recognition technology. As described above, in the object recognition process using the high-resolution image data VH, it is possible to accurately recognize an object that exists far away.

また、物体認識部146は、第1の撮像装置(広角カメラ)101で得られた画像データVLに基づいて物体認識を行い、その認識結果を車両制御部105に供給する。この場合、物体認識部146は、周知の物体認識技術を用いて、車両、歩行者、道路標識、信号機等の物体を認識する。このように画像データVLを用いた物体認識処理では、広視野の画像データから物体認識を行うものであり、横から急に出てくる車両や人の認識も可能となる。   The object recognition unit 146 performs object recognition based on the image data VL obtained by the first imaging device (wide angle camera) 101 and supplies the recognition result to the vehicle control unit 105. In this case, the object recognizing unit 146 recognizes an object such as a vehicle, a pedestrian, a road sign, or a traffic light using a known object recognition technique. Thus, in the object recognition process using the image data VL, object recognition is performed from image data with a wide field of view, and it is possible to recognize a vehicle or a person suddenly coming out from the side.

以上説明したように、図1に示す撮像システム100においては、車載ステレオカメラ11を構成する第2の撮像装置(狭角カメラ)102を車両の進行に係る情報に基づいて回転駆動するものである。そのため、可動域が大きくなるという機構上の問題を発生させることなく、車両の進行方向に対する測距の精度低下を良好に回避できる。   As described above, in the imaging system 100 shown in FIG. 1, the second imaging device (narrow-angle camera) 102 constituting the in-vehicle stereo camera 11 is rotationally driven based on information relating to the traveling of the vehicle. . Therefore, it is possible to satisfactorily avoid a decrease in distance measurement accuracy in the traveling direction of the vehicle without causing a mechanical problem that the range of motion becomes large.

また、図1に示す撮像システム100においては、車載ステレオカメラ111を構成する第2の撮像装置(狭角カメラ)102のみを車両の進行に係る情報に基づいて回転駆動し、車載ステレオカメラ111を構成する第1の撮像装置(広角カメラ)101については、車両のフロント方向を撮像するように当該車両に固定しておくものである。そのため、進行方向追従による視野はずれの発生を回避できる。   In the imaging system 100 shown in FIG. 1, only the second imaging device (narrow angle camera) 102 that constitutes the in-vehicle stereo camera 111 is rotationally driven based on the information related to the progress of the vehicle. The first imaging device (wide-angle camera) 101 to be configured is fixed to the vehicle so as to capture the front direction of the vehicle. Therefore, it is possible to avoid the occurrence of a visual field shift due to the follow-up direction tracking.

また、図1に示す撮像システム100においては、視差情報に基づいて第1の撮像装置(広角カメラ)101からの画像データVLと第2の撮像装置(狭角カメラ)102からの画像データVRの対応する部分が重なるように合成して、第2の撮像装置102の撮像範囲における高解像度画像データVHを得るものである。そのため、進行方向の遠方に存在する物体の認識を精度よく行うことができる。   In the imaging system 100 shown in FIG. 1, the image data VL from the first imaging device (wide-angle camera) 101 and the image data VR from the second imaging device (narrow-angle camera) 102 are based on the parallax information. The high resolution image data VH in the imaging range of the second imaging device 102 is obtained by combining the corresponding portions so as to overlap each other. For this reason, it is possible to accurately recognize an object existing far in the traveling direction.

<2.変形例>
なお、上述実施の形態においては、本技術が車に適用され、第2の撮像装置(狭角カメラ)102が横方向に回転駆動される例、つまりY軸を中心に回転駆動される例を示した。そのために、第2の撮像装置102による画像上の点p2(u2,v2)をY軸周りの回転θを表す回転行列(数式(8)参照)で座標変換をするものとしている。
<2. Modification>
In the above-described embodiment, the present technology is applied to a car, and the second imaging device (narrow angle camera) 102 is driven to rotate in the horizontal direction, that is, the example driven to rotate around the Y axis. Indicated. For this purpose, the point p2 (u2, v2) on the image by the second imaging device 102 is coordinate-transformed with a rotation matrix (see equation (8)) representing the rotation θ around the Y axis.

しかし、本技術の撮像システムは、車の他にドローン等の移動体に搭載し得るものである。この場合、Y軸周りの回転θの他に、X軸周りの回転θやZ軸周りの回転θも考慮することが必要となる。その際には、第2の撮像装置102による画像上の点p2(u2,v2)を、以下の数式(10)、(11)、(12)で示されるX軸周り、Y軸周り、Z軸周りの回転を示す回転行列で座標変換をするものとして、同様に適用できる。   However, the imaging system of the present technology can be mounted on a moving body such as a drone in addition to a car. In this case, it is necessary to consider the rotation θ around the X axis and the rotation θ around the Z axis in addition to the rotation θ around the Y axis. In that case, the point p2 (u2, v2) on the image by the second imaging device 102 is set around the X axis, the Y axis, and the Z axis represented by the following formulas (10), (11), and (12). The present invention can be applied in the same manner as the coordinate transformation with the rotation matrix indicating the rotation around the axis.

Figure 2019201301
Figure 2019201301

また、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。   Moreover, although the preferred embodiment of this indication was described in detail, referring an accompanying drawing, the technical scope of this indication is not limited to this example. It is obvious that a person having ordinary knowledge in the technical field of the present disclosure can come up with various changes or modifications within the scope of the technical idea described in the claims. Of course, it is understood that it belongs to the technical scope of the present disclosure.

また、本技術は、以下のような構成を取ることもできる。
(1)車両に搭載され、第1の画角を有する第1の撮像装置と、
前記車両に搭載され、前記第1の画角よりも小さな第2の画角を有する第2の撮像装置と、
前記第2の撮像装置の撮像範囲を移動させるように前記第2の撮像装置を回転駆動する駆動部と、
前記車両の進行に係る情報に基づいて前記駆動部を制御する制御部を備える
撮像システム。
(2)前記駆動部は、前記第2の撮像装置の撮像範囲を移動させるように前記第2の撮像装置を回転駆動する
前記(1)に記載の撮像システム。
(3)前記駆動部は、前記第2の撮像装置の撮像範囲が前記第1の撮像装置の撮像範囲を越えない範囲で前記第2の撮像装置を駆動する
前記(1)または(2)に記載の撮像システム。
(4)前記駆動部は、前記第2の撮像装置を横方向および縦方向に駆動可能に構成される
前記(1)から(3)のいずれかに記載の撮像システム。
(5)前記情報は、カーブ情報である
前記(1)から(4)のいずれかに記載の撮像システム。
(6)前記情報は、地図情報である
前記(1)から(4)のいずれかに記載の撮像システム。
(7)
前記情報は、前記車両のフロント方向に対する前記車両の進行方向の角度を示す情報である
前記(1)から(4)のいずれかに記載の撮像システム。
(8)前記情報は、前記車両に搭載されている車両制御部から与えられる
前記(1)から(7)のいずれかに記載の撮像システム。
(9)前記情報は、前記車両に搭載されているセンサから与えられる
前記(1)から(7)のいずれかに記載の撮像システム。
(10)前記第1の撮像装置からの画像データと前記第2の撮像装置からの画像データに基づいて、前記第2の撮像装置の撮像範囲における視差情報を得る視差判定部をさらに備える
前記(1)から(9)のいずれかに記載の撮像システム。
(11)上記視差情報に基づいて、前記第2の撮像装置の撮像範囲における距離情報を得る距離演算部をさらに備える
前記(10)に記載の撮像システム。
(12)前記視差情報に基づいて前記第1の撮像装置からの画像データと前記第2の撮像装置からの画像データの対応部分が重なるように合成して高解像度画像データを得る画像処理部をさらに備える
前記(10)または(11)に記載の撮像システム。
Moreover, this technique can also take the following structures.
(1) a first imaging device mounted on a vehicle and having a first angle of view;
A second imaging device mounted on the vehicle and having a second angle of view smaller than the first angle of view;
A drive unit that rotationally drives the second imaging device to move the imaging range of the second imaging device;
An imaging system comprising: a control unit that controls the drive unit based on information relating to the progress of the vehicle.
(2) The imaging system according to (1), wherein the driving unit rotationally drives the second imaging device so as to move an imaging range of the second imaging device.
(3) The driving unit drives the second imaging device in a range in which an imaging range of the second imaging device does not exceed an imaging range of the first imaging device. (1) or (2) The imaging system described.
(4) The imaging system according to any one of (1) to (3), wherein the driving unit is configured to be able to drive the second imaging device in a horizontal direction and a vertical direction.
(5) The imaging system according to any one of (1) to (4), wherein the information is curve information.
(6) The imaging system according to any one of (1) to (4), wherein the information is map information.
(7)
The imaging system according to any one of (1) to (4), wherein the information is information indicating an angle of a traveling direction of the vehicle with respect to a front direction of the vehicle.
(8) The imaging system according to any one of (1) to (7), wherein the information is given from a vehicle control unit mounted on the vehicle.
(9) The imaging system according to any one of (1) to (7), wherein the information is given from a sensor mounted on the vehicle.
(10) The apparatus further includes a parallax determination unit that obtains parallax information in an imaging range of the second imaging device based on image data from the first imaging device and image data from the second imaging device. The imaging system according to any one of 1) to (9).
(11) The imaging system according to (10), further including a distance calculation unit that obtains distance information in an imaging range of the second imaging device based on the parallax information.
(12) An image processing unit that obtains high-resolution image data by combining corresponding image data from the first imaging device and image data from the second imaging device so as to overlap based on the parallax information The imaging system according to (10) or (11).

100・・・カメラシステム
101・・・第1の撮像装置(広角カメラ)
102・・・第2の撮像装置(狭角カメラ)
103・・・駆動部
104・・・画像処理部
105・・・車両制御部
106・・・ステアリング
107・・・ブレーキ
108・・・表示部
111・・・車載ステレオカメラ
DESCRIPTION OF SYMBOLS 100 ... Camera system 101 ... 1st imaging device (wide angle camera)
102: Second imaging device (narrow angle camera)
DESCRIPTION OF SYMBOLS 103 ... Drive part 104 ... Image processing part 105 ... Vehicle control part 106 ... Steering 107 ... Brake 108 ... Display part 111 ... Car-mounted stereo camera

Claims (12)

車両に搭載され、第1の画角を有する第1の撮像装置と、
前記車両に搭載され、前記第1の画角よりも小さな第2の画角を有する第2の撮像装置と、
前記第2の撮像装置の撮像範囲を移動させるように前記第2の撮像装置を駆動する駆動部と、
前記車両の進行に係る情報に基づいて前記駆動部を制御する制御部を備える
撮像システム。
A first imaging device mounted on a vehicle and having a first angle of view;
A second imaging device mounted on the vehicle and having a second angle of view smaller than the first angle of view;
A drive unit that drives the second imaging device to move the imaging range of the second imaging device;
An imaging system comprising: a control unit that controls the drive unit based on information relating to the progress of the vehicle.
前記駆動部は、前記第2の撮像装置の撮像範囲を移動させるように前記第2の撮像装置を回転駆動する
請求項1に記載の撮像システム。
The imaging system according to claim 1, wherein the driving unit rotationally drives the second imaging device so as to move an imaging range of the second imaging device.
前記駆動部は、前記第2の撮像装置の撮像範囲が前記第1の撮像装置の撮像範囲を越えない範囲で前記第2の撮像装置を駆動する
請求項1に記載の撮像システム。
The imaging system according to claim 1, wherein the driving unit drives the second imaging device in a range in which an imaging range of the second imaging device does not exceed an imaging range of the first imaging device.
前記駆動部は、前記第2の撮像装置を横方向および縦方向に駆動可能に構成される
請求項1に記載の撮像システム。
The imaging system according to claim 1, wherein the driving unit is configured to be able to drive the second imaging device in a horizontal direction and a vertical direction.
前記情報は、カーブ情報である
請求項1に記載の撮像システム。
The imaging system according to claim 1, wherein the information is curve information.
前記情報は、地図情報である
請求項1に記載の撮像システム。
The imaging system according to claim 1, wherein the information is map information.
前記情報は、前記車両のフロント方向に対する前記車両の進行方向の角度を示す情報である
請求項1に記載の撮像システム。
The imaging system according to claim 1, wherein the information is information indicating an angle of a traveling direction of the vehicle with respect to a front direction of the vehicle.
前記情報は、前記車両に搭載されている車両制御部から与えられる
請求項1に記載の撮像システム。
The imaging system according to claim 1, wherein the information is given from a vehicle control unit mounted on the vehicle.
前記情報は、前記車両に搭載されているセンサから与えられる
請求項1に記載の撮像システム。
The imaging system according to claim 1, wherein the information is given from a sensor mounted on the vehicle.
前記第1の撮像装置からの画像データと前記第2の撮像装置からの画像データに基づいて、前記第2の撮像装置の撮像範囲における視差情報を得る視差判定部をさらに備える
請求項1に記載の撮像システム。
The parallax determination unit that obtains parallax information in an imaging range of the second imaging device based on image data from the first imaging device and image data from the second imaging device. Imaging system.
上記視差情報に基づいて、前記第2の撮像装置の撮像範囲における距離情報を得る距離演算部をさらに備える
前記10に記載の撮像システム。
The imaging system according to claim 10, further comprising a distance calculation unit that obtains distance information in an imaging range of the second imaging device based on the parallax information.
前記視差情報に基づいて前記第1の撮像装置からの画像データと前記第2の撮像装置からの画像データの対応部分が重なるように合成して高解像度画像データを得る画像処理部をさらに備える
前記10に記載の撮像システム。
An image processing unit that obtains high-resolution image data by combining image data from the first imaging device and image data from the second imaging device so as to overlap based on the parallax information is further provided. The imaging system according to 10.
JP2018094238A 2018-05-16 2018-05-16 Imaging system Pending JP2019201301A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018094238A JP2019201301A (en) 2018-05-16 2018-05-16 Imaging system
PCT/JP2019/019194 WO2019221151A1 (en) 2018-05-16 2019-05-14 Image capture system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018094238A JP2019201301A (en) 2018-05-16 2018-05-16 Imaging system

Publications (1)

Publication Number Publication Date
JP2019201301A true JP2019201301A (en) 2019-11-21

Family

ID=68540083

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018094238A Pending JP2019201301A (en) 2018-05-16 2018-05-16 Imaging system

Country Status (2)

Country Link
JP (1) JP2019201301A (en)
WO (1) WO2019221151A1 (en)

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3416921B2 (en) * 1995-09-29 2003-06-16 アイシン精機株式会社 Steer type photographing device
JP4622928B2 (en) * 2006-04-14 2011-02-02 トヨタ自動車株式会社 In-vehicle camera control device and in-vehicle camera control method.
CN102132557B (en) * 2008-09-03 2013-07-24 三菱电机株式会社 Imaging system for vehicle
JP5233583B2 (en) * 2008-10-24 2013-07-10 株式会社リコー In-vehicle monitoring device
JP2010154304A (en) * 2008-12-25 2010-07-08 Zhencheng Hu Mobile camera system and driving method
JP2017069926A (en) * 2015-10-02 2017-04-06 ソニー株式会社 Image processing device, and image processing method, and program
JP2017220051A (en) * 2016-06-08 2017-12-14 ソニー株式会社 Image processing device, image processing method and vehicle

Also Published As

Publication number Publication date
WO2019221151A1 (en) 2019-11-21

Similar Documents

Publication Publication Date Title
US10857942B2 (en) Image generating device, image generating method, and program
KR100414708B1 (en) Picture composing apparatus and method
US10366512B2 (en) Around view provision apparatus and vehicle including the same
CN103946066B (en) Vehicle periphery monitoring apparatus and vehicle periphery monitoring method
JP4475308B2 (en) Display device
US8559674B2 (en) Moving state estimating device
US11703326B2 (en) Stereo camera apparatus, vehicle, and parallax calculation method
CN110786004B (en) Display control device, display control method, and storage medium
CN103140377A (en) Method for displaying images on a display device and driver assistance system
JPWO2011007484A1 (en) Driving support device, driving support method and program
JP2017220760A (en) Image processing apparatus for vehicle
JP2014036268A (en) Mobile object peripheral image display device
JP2004240480A (en) Operation support device
WO2016129552A1 (en) Camera parameter adjustment device
US9849835B2 (en) Operating a head-up display of a vehicle and image determining system for the head-up display
JPH0717328A (en) Circumference recognition auxiliary device for vehicle
WO2019123795A1 (en) Image processing device, image processing method, and program
JPWO2019142660A1 (en) Image processing device, image processing method, and program
US11145112B2 (en) Method and vehicle control system for producing images of a surroundings model, and corresponding vehicle
CN112298040A (en) Auxiliary driving method based on transparent A column
CN109345591A (en) A kind of vehicle itself attitude detecting method and device
WO2019021591A1 (en) Image processing device, image processing method, program, and image processing system
JP2010154304A (en) Mobile camera system and driving method
JP2016213708A (en) Vehicle display device
WO2019221151A1 (en) Image capture system