JPWO2018110389A1 - 車両用照明システムおよび車両 - Google Patents

車両用照明システムおよび車両 Download PDF

Info

Publication number
JPWO2018110389A1
JPWO2018110389A1 JP2018556610A JP2018556610A JPWO2018110389A1 JP WO2018110389 A1 JPWO2018110389 A1 JP WO2018110389A1 JP 2018556610 A JP2018556610 A JP 2018556610A JP 2018556610 A JP2018556610 A JP 2018556610A JP WO2018110389 A1 JPWO2018110389 A1 JP WO2018110389A1
Authority
JP
Japan
Prior art keywords
image
vehicle
camera
mode
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018556610A
Other languages
English (en)
Other versions
JP6963563B2 (ja
Inventor
直樹 多々良
俊宏 岡村
剛 増田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koito Manufacturing Co Ltd
Original Assignee
Koito Manufacturing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koito Manufacturing Co Ltd filed Critical Koito Manufacturing Co Ltd
Publication of JPWO2018110389A1 publication Critical patent/JPWO2018110389A1/ja
Application granted granted Critical
Publication of JP6963563B2 publication Critical patent/JP6963563B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/72Combination of two or more compensation controls
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/02Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments
    • B60Q1/04Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights
    • B60Q1/06Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights adjustable, e.g. remotely-controlled from inside vehicle
    • B60Q1/08Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights adjustable, e.g. remotely-controlled from inside vehicle automatically
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/04Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/74Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/741Circuitry for compensating brightness variation in the scene by increasing the dynamic range of the image compared to the dynamic range of the electronic image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0257Control of position or course in two dimensions specially adapted to land vehicles using a radar
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • G05D1/0278Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using satellite positioning signals, e.g. GPS

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Lighting Device Outwards From Vehicle And Optical Signal (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)

Abstract

第一照射モードと、第一照射モードよりも高い照度で光を照射する第二照射モードで車両(1)の前方へ光を照射可能な光源ユニット(21)と、車両(1)の前方を撮像可能なカメラ(6)と、光源ユニット(21)の照射モード、および、カメラ(6)の撮像タイミングを設定する撮影制御部(24)と、カメラ(6)が取得した画像を演算処理する画像生成部(25)と、を有し、撮影制御部(24)は、光源ユニット(21)が第一照射モードで車両(1)の前方を照射しているときに、カメラ(6)により車両(1)の前方を撮像させて第一画像を画像生成部(25)へ出力させ、光源ユニット(21)が第二照射モードで車両(1)の前方を照射しているときに、カメラ(6)により車両(1)の前方を撮像させて第二画像を画像生成部(25)へ出力させ、画像生成部(25)は、第一画像と第二画像とにより単一の出力画像を生成する。

Description

本発明は、車両用照明システムおよび車両に関する。
現在、自動車の自動運転技術の研究が各国で盛んに行われており、車両が自動運転モードで公道を走行可能とするための法整備が各国で検討されている。ここで、自動運転モードとは、車両の走行が自動制御されるモードをいう。一方、手動運転モードとは、車両の走行が運転者により制御されるモードをいう。自動運転車ではコンピュータにより自動的に車両の走行が制御される。
このように、将来において、公道上では自動運転モードで走行中の車両(以下、自動運転車という。)と手動運転モードで走行中の車両(以下、手動運転車という。)が混在することが予想される。
特許文献1には、先行車に後続車が自動追従走行した自動追従走行システムが開示されている。当該自動追従走行システムでは、先行車と後続車の各々が表示装置を備えており、先行車と後続車との間に他車が割り込むことを防止するための文字情報が先行車の表示装置に表示されると共に、自動追従走行である旨を示す文字情報が後続車の表示装置に表示される。
日本国特開平9−277887号公報
ところで、自動運転の車両は、カメラによって前方の情報を取得し、取得した情報に応じて車両を制御している。このカメラに対向車の前照灯から出射された光などの強い光が入射すると、カメラにハレーションが生じてしまい、車両前方の情報を効率的に取得しにくくなる。
本発明は、入射する光の光量によらず良好に車両前方の情報を取得できる車両用照明システムおよび車両を提供することを目的とする。
(1) 本発明にかかる車両用照明システムは、
第一照射モードと、前記第一照射モードよりも高い照度で光を照射する第二照射モードを含む少なくとも2つの照射モードで車両前方へ光を照射可能な光源ユニットと、
車両前方を撮像可能なカメラと、
前記光源ユニットの照射モード、および、前記カメラの撮像タイミングを設定する撮影制御部と、
前記カメラが取得した画像を演算処理する画像生成部と、を有し、
前記撮影制御部は、
前記光源ユニットが前記第一照射モードで車両前方を照射しているときに、前記カメラにより車両前方を撮像させて第一画像を前記画像生成部へ出力させ、
前記光源ユニットが前記第二照射モードで車両前方を照射しているときに、前記カメラにより車両前方を撮像させて第二画像を前記画像生成部へ出力させ、
前記画像生成部は、前記第一画像と前記第二画像とにより単一の出力画像を生成する。
この構成の車両用照明システムによれば、第一画像と第二画像とにより、出力画像を生成する。第一画像と第二画像は、一方の短所が他方の長所で補完される関係を有する。したがって両者から出力画像を生成することにより、第一画像において光量不足により認識しにくい暗い対象物は、第二画像により認識しやすくなる。第二画像においてハレーションが生じてしまい認識しにくい明るい対象物は、第一画像により認識しやすくなる。このように、本発明に係る車両用照明システムによれば、入射する光の光量によらず良好に車両前方の情報を取得できる。
(2) 上記本発明に係る車両用照明システムにおいて、前記画像生成部は、前記第一画像において第一閾値以下の輝度の部分を該部分に対応する前記第二画像の一部で置換し、および/または、前記第二画像で前記第一閾値より高い第二閾値以上の輝度の部分を該部分に対応する前記第一画像の一部で置換して、前記出力画像を得るものでもよい。
この構成の車両用照明システムによれば、第一画像において光量不足により認識しにくい暗い対象物は、第二画像により置換された部分により認識しやすくなる。第二画像においてハレーションが生じてしまい認識しにくい明るい対象物は、第一画像により置換された部分により認識しやすくなる。したがって、第一画像の認識しにくい部分を第二画像の部分で置換し、第二画像の認識しにくい部分を第一画像の部分で置換することで、画像を良好に補完することができる。
(3) 上記本発明に係る車両用照明システムにおいて、前記撮影制御部は、前記第一照射モードと前記第二照射モードとを交互に切り替えるように前記光源ユニットを制御するものでもよい。
この構成の車両用照明システムによれば、光源ユニットで照射モードを第一照射モードと第二照射モードとに交互に切り替えることで、第一画像と第二画像とを確実に取得して画像の補完処理を行うことができる。
(4) 上記本発明に係る車両用照明システムにおいて、
前記光源ユニットは、通常時は前記第一照射モードで車両前方へ光を照射するように構成され、
前記撮影制御部は、所定間隔おきに前記第二照射モードへ変更するように前記光源ユニットを制御するものでもよい。
この構成の車両用照明システムによれば、光源ユニットは、通常時は低い照度である第一照射モードで光を照射するので、対向車などにグレアを与えにくい。
(5) 上記本発明に係る車両用照明システムにおいて、前記所定間隔は20msec以下であるものでもよい。
この構成の車両用照明システムによれば、第一照射モードと第二照射モードとの切替によっても、運転者にちらつき感(flicker)を与えない。
(6) 本発明にかかる車両用照明システムは、
車両前方へ光を照射可能な光源ユニットと、
第一撮影モードと、前記第一撮影モードよりも感度の高い、および/または、露光時間の長い第二撮影モードを含む少なくとも2つの撮影モードで車両前方を撮像可能なカメラユニットと、
前記カメラユニットの前記撮影モードおよび撮像タイミングを設定する撮影制御部と、
前記カメラユニットが取得した画像を演算処理する画像生成部と、を有し、
前記撮影制御部は、
前記カメラユニットにより前記第一撮影モードで車両前方を撮像させて第一画像を前記画像生成部へ出力させ、
前記カメラユニットにより前記第二撮影モードで車両前方を撮像させて第二画像を前記画像生成部へ出力させ、
前記画像生成部は、前記第一画像と前記第二画像とにより単一の出力画像を生成する。
この構成の車両用照明システムによれば、カメラユニットは、第一撮影モードと、第一撮影モードよりも感度の高い、および/または、露光時間の長い第二撮影モードで車両前方を撮像可能である。そして、第一撮影モードで撮像された第一画像と第二撮影モードで撮像された第二画像とにより、出力画像を生成する。第一撮影モードで撮像された第一画像と、第一撮像モードよりも感度の高い、および/または、露光時間の長い第二撮像モードで撮像された第二画像は、一方の短所が他方の長所で補完される関係を有する。
したがって、両者の画像から出力画像を生成することにより、第一画像において光量不足によりブラックアウトして認識しにくい暗い対象物は、第二画像により認識しやすくなる。第二画像において光量過多によるハレーションが生じて認識しにくい明るい対象物は、第一画像により認識しやすくなる。このように、第一画像および第二画像の認識しやすい部分を互いに置換することで互いに補完した出力画像を取得するので、入射する光の光量によらず良好に車両前方の情報を取得できる。
(7) 前記画像生成部は、前記第一画像において第一閾値以下の輝度の部分を該部分に対応する前記第二画像の一部で置換し、および/または、前記第二画像で前記第一閾値より高い第二閾値以上の輝度の部分を該部分に対応する前記第一画像の一部で置換して、前記出力画像を得るものでもよい。
この構成の車両用照明システムによれば、第一画像において光量不足により認識しにくい暗い対象物は、第二画像により置換された部分により認識しやすくなる。第二画像において光量過多によるハレーションが生じてしまい認識しにくい明るい対象物は、第一画像により置換された部分により認識しやすくなる。したがって、第一画像の認識しにくい部分を第二画像の部分で置換する、あるいは、第二画像の認識しにくい部分を第一画像の部分で置換することで、画像を良好に補完することができ、光量過多によるハレーションが生じた箇所や光量不足によりブラックアウトが生じた箇所の情報を確実に取得できる。
(8) 前記カメラユニットは、
前記第一撮影モードで車両前方を撮影する第一カメラと、
前記第二撮影モードで車両前方を撮影する第二カメラと、を有し、
前記撮影制御部は、前記第一カメラと前記第二カメラを同時に撮影させるものでもよい。
この構成の車両用照明システムによれば、第一画像と第二画像とを時間差なく取得できるので、第一画像と第二画像との間において対象物の位置ずれがなく、第一画像と第二画像の位置関係の対応付けをしやすい。
(9) 前記撮影制御部は、前記第一撮影モードと前記第二撮影モードを交互に切り替えて前記カメラユニットに撮影させるものでもよい。
この構成の車両用照明システムによれば、カメラユニットで撮影モードを第一撮影モードと第二撮影モードとに交互に切り替えることで、第一画像と第二画像とを確実に取得して画像の補完処理を行うことができる。しかも、単一のカメラでカメラユニットが構成できるので、システムを簡略にできる。
(10) 前記撮影制御部は、露光時間の短い前記第二撮影モードで撮影した後に前記第一撮影モードで撮影させるものでもよい。
この構成の車両用照明システムによれば、短い時間差で第一画像と第二画像とを取得でき、第一画像と第二画像との間における対象物の位置ずれを極力抑えることができる。
(11) 本発明にかかる車両は、上記(1)から(10)のいずれかの車両用照明システムを備えている。
この構成の車両によれば、得られた出力画像から歩行者、対向車、前走車、標識、路面などの周辺情報を取得し、この周辺情報に基づいて、例えば、自動運転の制御を良好に行うことができる。
本発明によれば、入射する光の光量によらず良好に車両前方の情報を取得できる車両用照明システムおよび車両が提供できる。
本発明の第一実施形態に係る車両の上面図である。 図1Aに示す車両の側面図である。 車両システムのブロック図である。 本発明の実施形態に係る車両用照明システムのブロック図である。 車両前方の映像を示す図であって、実際の映像を示す模式図である。 車両前方の映像を示す図であって、光量不足の画像を示す模式図である。 車両前方の映像を示す図であって、光量過多の画像を示す模式図である。 第一実施形態に係る車両用照明システムによる画像補完処理を示すフローチャートである。 第二実施形態に係る車両用照明システムによる画像補完処理を示すフローチャートである。 本発明の第三実施形態に係る車両の上面図である。 図7Aに示す車両の側面図である。 車両システムのブロック図である。 第三実施形態に係る車両用照明システムのブロック図である。
以下、本発明の実施形態(以下、本実施形態という。)について図面を参照しながら説明する。尚、本実施形態の説明において既に説明された部材と同一の参照番号を有する部材については、説明の便宜上、その説明は省略する。また、本図面に示された各部材の寸法は、説明の便宜上、実際の各部材の寸法とは異なる場合がある。
また、本実施形態の説明では、説明の便宜上、「左右方向」、「前後方向」、「上下方向」について適宜言及する。これらの方向は、図1A及び図1Bに示す車両1について設定された相対的な方向である。ここで、「上下方向」は、「上方向」及び「下方向」を含む方向である。「前後方向」は、「前方向」及び「後方向」を含む方向である。「左右方向」は、「左方向」及び「右方向」を含む方向である。
<第一実施形態>
図1A及び図1Bは、第一実施形態に係る車両用照明システム20が搭載された車両1を示す。図1Aは、車両1の上面図を示し、図1Bは車両1の側面図を示す。車両1は、自動運転モードで走行可能な自動車であって、車両用照明システム20を備えている。
まず、図2を参照して車両1の車両システム2について説明する。図2は、車両システム2のブロック図を示している。図2に示すように、車両システム2は、車両制御部3と、センサ5と、カメラ6と、レーダ7と、HMI(Human Machine Interface)8と、GPS(Global Positioning System)9と、無線通信部10と、地図情報記憶部11とを備えている。さらに、車両システム2は、ステアリングアクチュエータ12と、ステアリング装置13と、ブレーキアクチュエータ14と、ブレーキ装置15と、アクセルアクチュエータ16と、アクセル装置17とを備えている。
車両制御部3は、電子制御ユニット(ECU)により構成されている。電子制御ユニットは、CPU(Central Processing Unit)等のプロセッサと、各種車両制御プログラムが記憶されたROM(Read Only Memory)と、各種車両制御データが一時的に記憶されるRAM(Random Access Memory)とにより構成されている。プロセッサは、ROMに記憶された各種車両制御プログラムから指定されたプログラムをRAM上に展開し、RAMとの協働で各種処理を実行するように構成されている。車両制御部3は、車両1の走行を制御するように構成されている。
センサ5は、加速度センサ、速度センサ及びジャイロセンサ等を備えている。センサ5は、車両1の走行状態を検出して、走行状態情報を車両制御部3に出力するように構成されている。センサ5は、運転者が運転席に座っているかどうかを検出する着座センサ、運転者の顔の方向を検出する顔向きセンサ、外部天候状態を検出する外部天候センサ及び車内に人がいるかどうかを検出する人感センサ等をさらに備えてもよい。さらに、センサ5は、車両1の周辺環境の照度を検出する照度センサを備えていてもよい。
カメラ6は、例えば、CCD(Charge−Coupled Device)やCMOS(相補型MOS)等の撮像素子を含むカメラである。カメラ6は、可視光を検出するカメラや、赤外線を検出する赤外線カメラである。レーダ7は、ミリ波レーダ、マイクロ波レーダ又はレーザーレーダ等である。カメラ6とレーダ7は、車両1の周辺環境(他車、歩行者、道路形状、交通標識、障害物等)を検出し、周辺環境情報を車両制御部3に出力するように構成されている。
HMI8は、運転者からの入力操作を受付ける入力部と、走行情報等を運転者に向けて出力する出力部とから構成される。入力部は、ステアリングホイール、アクセルペダル、ブレーキペダル、車両1の運転モードを切替える運転モード切替スイッチ等を含む。出力部は、各種走行情報を表示するディスプレイである。
GPS9は、車両1の現在位置情報を取得し、当該取得された現在位置情報を車両制御部3に出力するように構成されている。無線通信部10は、車両1の周囲にいる他車の走行情報を他車から受信すると共に、車両1の走行情報を他車に送信するように構成されている(車車間通信)。また、無線通信部10は、信号機や標識灯等のインフラ設備からインフラ情報を受信すると共に、車両1の走行情報をインフラ設備に送信するように構成されている(路車間通信)。地図情報記憶部11は、地図情報が記憶されたハードディスクドライブ等の外部記憶装置であって、地図情報を車両制御部3に出力するように構成されている。
車両1が自動運転モードで走行する場合、車両制御部3は、走行状態情報、周辺環境情報、現在位置情報、地図情報等に基づいて、ステアリング制御信号、アクセル制御信号及びブレーキ制御信号のうち少なくとも一つを自動的に生成する。ステアリングアクチュエータ12は、ステアリング制御信号を車両制御部3から受信して、受信したステアリング制御信号に基づいてステアリング装置13を制御するように構成されている。ブレーキアクチュエータ14は、ブレーキ制御信号を車両制御部3から受信して、受信したブレーキ制御信号に基づいてブレーキ装置15を制御するように構成されている。アクセルアクチュエータ16は、アクセル制御信号を車両制御部3から受信して、受信したアクセル制御信号に基づいてアクセル装置17を制御するように構成されている。このように、自動運転モードでは、車両1の走行は車両システム2により自動制御される。
一方、車両1が手動運転モードで走行する場合、車両制御部3は、アクセルペダル、ブレーキペダル及びステアリングホイールに対する運転者の手動操作に従って、ステアリング制御信号、アクセル制御信号及びブレーキ制御信号を生成する。このように、手動運転モードでは、ステアリング制御信号、アクセル制御信号及びブレーキ制御信号が運転者の手動操作によって生成されるので、車両1の走行は運転者により制御される。
次に、車両1の運転モードについて説明する。運転モードは、自動運転モードと手動運転モードとからなる。自動運転モードは、完全自動運転モードと、高度運転支援モードと、運転支援モードとからなる。完全自動運転モードでは、車両システム2がステアリング制御、ブレーキ制御及びアクセル制御の全ての走行制御を自動的に行うと共に、運転者は車両1を運転できる状態にはない。高度運転支援モードでは、車両システム2がステアリング制御、ブレーキ制御及びアクセル制御の全ての走行制御を自動的に行うと共に、運転者は車両1を運転できる状態にはあるものの車両1を運転しない。運転支援モードでは、車両システム2がステアリング制御、ブレーキ制御及びアクセル制御のうち一部の走行制御を自動的に行うと共に、車両システム2の運転支援の下で運転者が車両1を運転する。一方、手動運転モードでは、車両システム2が走行制御を自動的に行わないと共に、車両システム2の運転支援なしに運転者が車両1を運転する。
また、車両1の運転モードは、運転モード切替スイッチを操作することで切り替えられてもよい。この場合、車両制御部3は、運転モード切替スイッチに対する運転者の操作に応じて、車両1の運転モードを4つの運転モード(完全自動運転モード、高度運転支援モード、運転支援モード、手動運転モード)の間で切り替える。また、車両1の運転モードは、自動運転車が走行可能である走行可能区間や自動運転車の走行が禁止されている走行禁止区間についての情報または外部天候状態についての情報に基づいて自動的に切り替えられてもよい。この場合、車両制御部3は、これらの情報に基づいて車両1の運転モードを切り替える。さらに、車両1の運転モードは、着座センサや顔向きセンサ等を用いることで自動的に切り替えられてもよい。この場合、車両制御部3は、着座センサや顔向きセンサからの出力信号に基づいて、車両1の運転モードを切り替える。
次に、車両用照明システム20の詳細を説明する。図1A及び図1Bに示すように、車両用照明システム20は、光源ユニット21と、カメラ6とを備えている。光源ユニット21は、車両1の前部における左右に設けられており、車両1の前方を照射する。カメラ6は、車両1の前部における幅方向の中央付近に設けられている。光源ユニット21及びカメラ6は、それぞれ車両制御部3に接続されている。なお、光源ユニット21とカメラ6とは、別体のものに限らず、光源ユニット21にカメラ6が一体に設けられたものでも良い。
図3は、車両用照明システム20のブロック図である。図3に示すように、車両用照明システム20は、撮影制御部24と、画像生成部25とを備えている。撮影制御部24及び画像生成部25は、車両制御部3に設けられている。
光源ユニット21は、照度設定部22に接続されており、照度設定部22は、車両制御部3の撮影制御部24に接続されている。光源ユニット21は、第一照射モードと、第一照射モードよりも高い照度で光を照射する第二照射モードを含む少なくとも2つの照射モードで車両前方へ光を照射可能に構成されている。光源ユニット21は、本実施形態では、車両前方のカメラ6の撮像範囲の全体に光を照射する灯具に搭載された光源である。光源ユニット21は、ハイビーム配光パターンやロービーム配光パターンを形成可能な車両用前照灯の内部に搭載されている。
照度設定部22は、撮影制御部24からの指令に基づいて、光源ユニット21の照度制御を行う。光源ユニット21は、照度設定部22の照度制御によって第一照射モードと第二照射モードとに切り替えられる。照度設定部22と光源ユニット21が車両1のランプユニットを構成する部品である。
カメラ6は、シャッタ制御部23に接続されている。シャッタ制御部23は、車両用制御部3の撮影制御部24に接続されている。カメラ6は、車両1の前方の映像を撮影して車両1の前方の情報を取得する。シャッタ制御部23は、撮影制御部24からの指令に基づいて、カメラ6による撮像タイミングを制御する。カメラ6は、車両用制御部3の画像生成部25に接続されており、撮影した画像のデータを画像生成部25に送信する。画像生成部25は、カメラ6から画像のデータを取得し、取得した画像を演算処理する。
カメラ6は、自動運転の際の車両1の周辺環境を検出するために車両1の前方を撮影し、歩行者、対向車、前走車、標識、路面などの情報を取得する。そして、車両制御部3は、カメラ6からの画像から得られる車両1の周辺情報に基づいて車両1の自動運転の制御を行う。
ところで、カメラは、人間の目に比べて、明るい対象物と暗い対象物とを同時に認識することが難しい。例えば、暗い対象物を撮像する場合には、カメラの感度が高く設定されるか露光時間が長く設定される。これにより、対象物から受け取る光の量を確保して、ブラックアウトのない明瞭な像を取得する。逆に、明るい対象物を撮像する場合には、カメラの感度が低く設定されるか露光時間が短く設定される。これにより、対象物から受け取る光の量を調整して、ハレーションのない明瞭な像を取得する。なお、カメラの感度の設定は、カメラの絞り値やISO感度を調整することで設定される。
自動運転可能な車両に搭載されるカメラが情報として取得する歩行者、対向車、前走車、標識、路面などの対象物のうち、標識からの反射光、対向車の前照灯から出射される光、前走車の標識灯から出射される光、自車両のすぐ近傍の路面からの反射光は、その強度が高い。このため、これらの光の強度に適合するように、カメラの感度や露光時間を設定しておくと、強い光で画像が白くぼやけるハレーションが生じることなくこれらの対象物を明確に認識できる。しかしその一方で、歩行者からの反射光は弱いため、カメラが歩行者を効率よく認識することが難しい。
一方で、歩行者を効率よく認識できるようにカメラの感度を高く設定したり露光時間を長く設定しておくと、ブラックアウトのない明瞭な像を取得できる。しかしその一方で、標識からの反射光、対向車の前照灯から出射される光、前走車の標識灯から出射される光、自車両のすぐ近傍の路面からの反射光などによってハレーションが生じてしまい、これらを効率よく認識することが難しい。
図4Aから図4Cは、車両1の前方の映像を示す図であって、図4Aは実際の映像を示す模式図、図4Bは光量不足の画像を示す模式図、図4Cは光量過多の画像を示す模式図である。
光源ユニット21は、第一照射モードでは、第二照射モードに比べて、照度の低い光を車両1の前方へ照射する。したがって、車両1の前方の実際の画像が図4Aに示す画像とすると、第一照射モードのときにカメラ6によって撮影された画像(第一画像)は、図4Bに示すように、光量過多によるハレーションを生じさせずに標識Hのような反射率の高い対象物を認識しやすいが、光量不足となって画像が暗転するブラックアウト(図4Bにおけるハッチングで示したA部)が生じやすい。
光源ユニット21は、第二照射モードでは、第一照射モードに比べて照度の高い光を車両1の前方へ照射する。したがって、第二照射モードのときにカメラ6によって撮影された画像(第二画像)は、光量不足によるブラックアウトを生じさせずに暗い対象物を認識しやすいが、標識Hなどの対象物では、光量過多となってハレーション(図4CにおけるB部)が生じやすい。
このように、光源ユニット21が第一照射モード、第二照射モードのそれぞれのときにカメラ6が撮像した画像の各々では、明瞭な画像を得ることが難しい場合がある。そこで、第一実施形態では、車両1の周辺情報を取得するためのカメラ6で撮像した画像における対象物の認識性を高めるために、次に説明するように、第一画像と第二画像とにより単一の出力画像を生成する処理を行う。
図5は、第一実施形態に係る車両用照明システム20が実行する処理を示すフローチャートである。
撮影制御部24は、照度設定部22に指令を出して光源ユニット21のモードを第一照射モードとしているときに、シャッタ制御部23へ指令を出してカメラ6により車両1の前方を撮像させる。そして、その画像データである第一画像を画像生成部25へ出力させる(ステップS01)。これにより、画像生成部25は、上述した図4Bの画像を取得する。
また、撮影制御部24は、照度設定部22に指令を出して光源ユニット21のモードを第二照射モードとし、光源ユニット21がハイビームで車両1の前方を照射しているときに、シャッタ制御部23へ指令を出してカメラ6により車両1の前方を撮像させる。そして、その画像データである第二画像を画像生成部25へ出力させる(ステップS02)。これにより、画像生成部25は、上述した図4Cの画像を取得する。
ここで、撮影制御部24は、例えば、光源ユニット21を、第一照射モードと第二照射モードとを所定間隔ごとに交互に切り替えて第一画像と第二画像とを取得するように、照度設定部22及びシャッタ制御部23へ指令を出す。なお、撮影制御部24は、通常時は光源ユニット21を第一照射モードで車両1の前方へ光を照射させるように照度設定部22に指令を出しておき、所定間隔おきに光源ユニット21を第二照射モードへ変更するように照度設定部22に指令を出すことで、第一画像と第二画像とを取得するようにしても良い。この場合、光源ユニット21の照射モードの切り替えるタイミングとなる所定間隔としては、20msec以下とするのが好ましい。
次に、画像生成部25は、カメラ6から送信された第一画像において、光量不足(ブラックアウト)の領域(図4BにおけるA部)を特定する(ステップS03)。具体的には、画像生成部25は、第一画像において、予め設定した輝度の閾値である第一閾値以下の部分を割り出し、その部分の座標である第一位置座標を特定する。
画像生成部25は、第二画像に基づいて、この第二画像における第一位置座標の情報を特定する(ステップS04)。つまり、第二画像において、第一画像で特定した光量不足(ブラックアウト)の領域を特定する。
次いで、画像生成部25は、第一位置座標について、第一画像の情報を第二画像の情報に置換する。これにより、第一画像において、第一閾値以下の輝度の部分が、その部分に対応する第二画像の一部で置換された中間画像を取得する(ステップS05)。
このように、図4Bにおいてブラックアウトした領域を、図4Cの画像により置換することにより、ブラックアウトのない中間画像を取得することができる。
ブラックアウトが生じるおそれの少ない対象物(標識など)は反射率が高い。このため、光源ユニット21が比較的照度の弱い第一照射モードのときに、この対象物からの反射光の強度がカメラ6により明瞭な像を取得するのに適した強度となっている可能性が高い。
一方で、ブラックアウトが生じやすい対象物(歩行者など)は反射率が低く、その反射光の強度が弱いことが多い。そこで、この対象物からの反射光の強度がカメラ6により明瞭な像を適した強度となるように、光源ユニット21を照度の高い第二モードとし、カメラ6で撮像する。光源ユニット21が第二照射モードのときにカメラ6で取得した画像にはブラックアウトが生じていない可能性が高い。
そこで、光源ユニット21が第一照射モードのときにカメラ6が取得した図4Bの画像においてブラックアウトした領域を、光源ユニット21が第二照射モードのときにカメラ6が取得した図4Cの画像により置換する。これにより、ブラックアウトのない中間画像を取得することができる。
なお、車両用照明システム20は以下の処理を追加で実行してもよい。
画像生成部25は、取得した中間画像において、光量過多(ハレーション)の領域(図4CにおけるB部)を特定する(ステップS06)。具体的には、画像生成部25は、中間画像において、輝度が予め設定した第二閾値以上の部分を割り出し、その部分の座標である第二位置座標を特定する。そして、画像生成部25は、第一画像において、第二位置座標の情報を特定する(ステップS07)。第二閾値は、第一閾値より高い光量の閾値である。
次いで、画像生成部25は、第二位置座標について、中間画像の情報を第一画像の情報に置換する。これにより、中間画像中の第二画像部分において、第二閾値以上の輝度の部分が、その部分に対応する第一画像の一部で置換されて補完された出力画像を取得する(ステップS08)。
なお、画像生成部25は、取得した中間画像(ステップS05)に、第二閾値以上の輝度の部分がなく、光量過多(ハレーション)がないと判断した場合は、取得した中間画像を出力画像として処理を終了する。
上記の画像補完処理後、車両システム2は、得られた出力画像から歩行者、対向車、前走車、標識、路面などの周辺情報を取得し、この周辺情報に基づいて車両1の自動運転の制御を行う。
なお、上記の画像補完処理では、撮影制御部24が照度設定部22に指令を出して光源ユニット21の照射モードを切り替えることで、第一画像及び第二画像を取得している。したがって、第一画像と第二画像とは、その撮影タイミングが僅かに異なり、第一画像と第二画像の両者の撮影ポイントがずれることとなる。このため、車両用照明システム20では、第一画像及び第二画像を、画像の補完処理に影響が生じることがない短時間で撮影する。なお、画像の補完を行う前に、第一画像と第二画像との位置ずれを補正する補正処理を行っても良い。
以上、説明したように、第一実施形態に係る車両用照明システム20によれば、第一画像と第二画像とにより、出力画像を生成する。第一画像と第二画像は、一方の短所が他方の長所で補完される関係を有する。第一画像において光量不足により認識しにくい暗い対象物は、第二画像により置換された部分により認識しやすくなる。このように、第一画像の認識しにくい部分を第二画像の部分で置換することで、明瞭な画像を得ることができる。
このように、第一実施形態に係る車両用照明システム20によれば、第一画像および第二画像の認識しやすい部分で互いに補完した出力画像を取得するので、入射する光の光量によらず良好に車両1の前方の情報を取得できる。
特に、第一実施形態の車両用照明システム20によれば、光源ユニット21での照射モードを第一照射モードと第二照射モードとで交互に切り替えることで、第一画像と第二画像とを確実に取得して画像の補完処理を行うことができる。
また、光源ユニット21を、通常時は照度の低い第一照射モードで車両1の前方へ光を照射するように構成し、所定間隔おきに第二照射モードへ変更するように光源ユニット21を制御することで、対向車などへグレアを与えにくい。
この場合、光源ユニット21の照射モードの切り替える所定間隔を20msec以下とすれば、第一照射モードと第二照射モードとの切替によっても、運転者にちらつき感(flicker)を与えない。
そして、第一実施形態に係る車両用照明システム20を備えた車両1によれば、得られた出力画像から歩行者、対向車、前走車、標識、路面などの周辺情報を取得し、この周辺情報に基づいて自動運転の制御を良好に行うことができる。
<第二実施形態>
次に、第二実施形態の画像補完処理について説明する。
この第二実施形態では、画像補完処理における制御の流れが第一実施形態と異なる。
図6は、第二実施形態に係る車両用照明システム20による画像補完処理を示すフローチャートである。
撮影制御部24は、照度設定部22に指令を出して光源ユニット21を第一照射モードとしているときに、シャッタ制御部23へ指令を出してカメラ6により車両1の前方を撮像させ、その画像データである第一画像を画像生成部25へ出力させる(ステップS11)。これにより、画像生成部25は、図4Bに示した画像を取得する。
また、撮影制御部24は、照度設定部22に指令を出して光源ユニット21を第二照射モードとしているときに、シャッタ制御部23へ指令を出してカメラ6により車両1の前方を撮像させ、その画像データである第二画像を画像生成部25へ出力させる(ステップS12)。これにより、画像生成部25は、図4Cに示した画像を取得する。
次に、画像生成部25は、カメラ6から送信された第二画像において、光量過多(ハレーション)の領域(図4CにおけるB部)を特定する(ステップS13)。具体的には、画像生成部25は、第二画像において、輝度が第二閾値以上の部分を割り出し、その部分の座標である第二位置座標を特定する。
画像生成部25は、第一画像に基づいて、この第一画像における第二位置座標の情報を特定する(ステップS14)。つまり、第一画像において、第二画像で特定した光量過多(ハレーション)の領域を特定する。
次いで、画像生成部25は、第二位置座標について、第二画像の情報を第一画像の情報に置換する。これにより、第二画像において、第二閾値以上の輝度の部分が、その部分に対応する第一画像の一部で置換された中間画像を取得する(ステップS15)。
このように、図4Cにおいてハレーションが生じた領域を、図4Bの画像により置換することにより、ハレーションのない中間画像を取得することができる。
ハレーションが生じるおそれの少ない対象物(歩行者など)は反射率が低い。このため、光源ユニット21が比較的照度の高い第二照射モードのときに、この対象物からの反射光の強度がカメラ6により明瞭な像を取得するのに適した強度となっている可能性が高い。
一方で、ハレーションが生じやすい対象物(標識など)は反射率が高く、その反射光の強度が高すぎることが多い。そこで、この対象物からの反射光の強度がカメラ6により明瞭な像を適した強度となるように、光源ユニット21を照度の低い第一モードとし、カメラ6で撮像する。光源ユニット21が第一照射モードのときにカメラ6で取得した画像にはハレーションが生じていない可能性が高い。
そこで、光源ユニット21が第二照射モードのときにカメラ6が取得した図4Cの画像においてハレーションが生じた領域を、光源ユニット21が第一照射モードのときにカメラ6が取得した図4Bの画像により置換する。これにより、ハレーションのない中間画像を取得することができる。
次に、画像生成部25は、必要に応じて以下の処理を実行してもよい。
取得した中間画像において、光量不足(ブラックアウト)の領域(図4BにおけるA部)を特定する(ステップS16)。具体的には、画像生成部25は、中間画像において、第一閾値以下の部分を割り出し、その部分の座標である第一位置座標を特定する。そして、画像生成部25は、第二画像において、第一位置座標の情報を特定する(ステップS17)。
次いで、画像生成部25は、第一位置座標について、中間画像の情報を第二画像の情報に置換する。これにより、中間画像中の第一画像部分において、第一閾値以下の輝度の部分が、その部分に対応する第二画像の一部で置換されて補完された出力画像を取得する(ステップS18)。
なお、画像生成部25は、取得した中間画像(ステップS15)に、第一閾値以下の輝度の部分がなく、光量不足(ブラックアウト)がないと判断した場合は、取得した中間画像を出力画像として処理を終了する。
上記の画像補完処理後、車両システム2は、得られた出力画像から歩行者、対向車、前走車、標識、路面などの周辺情報を取得し、この周辺情報に基づいて車両1の自動運転の制御を行う。
この第二実施形態に係る車両用照明システム20の場合も、第一画像および第二画像の認識しやすい部分で互いに補完した出力画像を取得するので、入射する光の光量によらず良好に車両1の前方の情報を取得できる。
つまり、第二画像の認識しにくい部分を第一画像の部分で置換することで、第一画像および第二画像の認識しやすい部分で互いに補完した出力画像を取得する。したがって、この出力画像から車両1の前方の情報を確実に得ることができる。
<第三実施形態>
次に、第三実施形態の画像補完処理について説明する。
図7A及び図7Bは、第三実施形態に係る車両用照明システム120が搭載された車両100を示す。図7Aは、車両100の上面図を示し、図7Bは車両100の側面図を示す。車両100は、自動運転モードで走行可能な自動車であって、車両用照明システム120を備えている。
まず、図8を参照して車両100の車両システム200について説明する。図8は、車両システム200のブロック図を示している。図8に示すように、車両システム200は、車両制御部3と、センサ5と、カメラユニット30と、レーダ7と、HMI(Human Machine Interface)8と、GPS(Global Positioning System)9と、無線通信部10と、地図情報記憶部11とを備えている。さらに、車両システム200は、ステアリングアクチュエータ12と、ステアリング装置13と、ブレーキアクチュエータ14と、ブレーキ装置15と、アクセルアクチュエータ16と、アクセル装置17とを備えている。
車両制御部3は、電子制御ユニット(ECU)により構成されている。電子制御ユニットは、CPU(Central Processing Unit)等のプロセッサと、各種車両制御プログラムが記憶されたROM(Read Only Memory)と、各種車両制御データが一時的に記憶されるRAM(Random Access Memory)とにより構成されている。プロセッサは、ROMに記憶された各種車両制御プログラムから指定されたプログラムをRAM上に展開し、RAMとの協働で各種処理を実行するように構成されている。車両制御部3は、車両100の走行を制御するように構成されている。
センサ5は、加速度センサ、速度センサ及びジャイロセンサ等を備えている。センサ5は、車両100の走行状態を検出して、走行状態情報を車両制御部3に出力するように構成されている。センサ5は、運転者が運転席に座っているかどうかを検出する着座センサ、運転者の顔の方向を検出する顔向きセンサ、外部天候状態を検出する外部天候センサ及び車内に人がいるかどうかを検出する人感センサ等をさらに備えてもよい。さらに、センサ5は、車両100の周辺環境の照度を検出する照度センサを備えていてもよい。
カメラユニット30は、例えば、CCD(Charge−Coupled Device)やCMOS(相補型MOS)等の撮像素子を含むカメラである。カメラユニット30は、可視光を検出するカメラや、赤外線を検出する赤外線カメラである。レーダ7は、ミリ波レーダ、マイクロ波レーダ又はレーザーレーダ等である。カメラユニット30とレーダ7は、車両100の周辺環境(他車、歩行者、道路形状、交通標識、障害物等)を検出し、周辺環境情報を車両制御部3に出力するように構成されている。
HMI8は、運転者からの入力操作を受付ける入力部と、走行情報等を運転者に向けて出力する出力部とから構成される。入力部は、ステアリングホイール、アクセルペダル、ブレーキペダル、車両100の運転モードを切替える運転モード切替スイッチ等を含む。出力部は、各種走行情報を表示するディスプレイである。
GPS9は、車両100の現在位置情報を取得し、当該取得された現在位置情報を車両制御部3に出力するように構成されている。無線通信部10は、車両100の周囲にいる他車の走行情報を他車から受信すると共に、車両100の走行情報を他車に送信するように構成されている(車車間通信)。また、無線通信部10は、信号機や標識灯等のインフラ設備からインフラ情報を受信すると共に、車両100の走行情報をインフラ設備に送信するように構成されている(路車間通信)。地図情報記憶部11は、地図情報が記憶されたハードディスクドライブ等の外部記憶装置であって、地図情報を車両制御部3に出力するように構成されている。
車両100が自動運転モードで走行する場合、車両制御部3は、走行状態情報、周辺環境情報、現在位置情報、地図情報等に基づいて、ステアリング制御信号、アクセル制御信号及びブレーキ制御信号のうち少なくとも一つを自動的に生成する。ステアリングアクチュエータ12は、ステアリング制御信号を車両制御部3から受信して、受信したステアリング制御信号に基づいてステアリング装置13を制御するように構成されている。ブレーキアクチュエータ14は、ブレーキ制御信号を車両制御部3から受信して、受信したブレーキ制御信号に基づいてブレーキ装置15を制御するように構成されている。アクセルアクチュエータ16は、アクセル制御信号を車両制御部3から受信して、受信したアクセル制御信号に基づいてアクセル装置17を制御するように構成されている。このように、自動運転モードでは、車両100の走行は車両システム200により自動制御される。
一方、車両100が手動運転モードで走行する場合、車両制御部3は、アクセルペダル、ブレーキペダル及びステアリングホイールに対する運転者の手動操作に従って、ステアリング制御信号、アクセル制御信号及びブレーキ制御信号を生成する。このように、手動運転モードでは、ステアリング制御信号、アクセル制御信号及びブレーキ制御信号が運転者の手動操作によって生成されるので、車両100の走行は運転者により制御される。
次に、車両100の運転モードについて説明する。運転モードは、自動運転モードと手動運転モードとからなる。自動運転モードは、完全自動運転モードと、高度運転支援モードと、運転支援モードとからなる。完全自動運転モードでは、車両システム200がステアリング制御、ブレーキ制御及びアクセル制御の全ての走行制御を自動的に行うと共に、運転者は車両100を運転できる状態にはない。高度運転支援モードでは、車両システム200がステアリング制御、ブレーキ制御及びアクセル制御の全ての走行制御を自動的に行うと共に、運転者は車両100を運転できる状態にはあるものの車両100を運転しない。運転支援モードでは、車両システム200がステアリング制御、ブレーキ制御及びアクセル制御のうち一部の走行制御を自動的に行うと共に、車両システム200の運転支援の下で運転者が車両100を運転する。一方、手動運転モードでは、車両システム200が走行制御を自動的に行わないと共に、車両システム200の運転支援なしに運転者が車両100を運転する。
また、車両100の運転モードは、運転モード切替スイッチを操作することで切り替えられてもよい。この場合、車両制御部3は、運転モード切替スイッチに対する運転者の操作に応じて、車両100の運転モードを4つの運転モード(完全自動運転モード、高度運転支援モード、運転支援モード、手動運転モード)の間で切り替える。また、車両100の運転モードは、自動運転車が走行可能である走行可能区間や自動運転車の走行が禁止されている走行禁止区間についての情報または外部天候状態についての情報に基づいて自動的に切り替えられてもよい。この場合、車両制御部3は、これらの情報に基づいて車両100の運転モードを切り替える。さらに、車両100の運転モードは、着座センサや顔向きセンサ等を用いることで自動的に切り替えられてもよい。この場合、車両制御部3は、着座センサや顔向きセンサからの出力信号に基づいて、車両100の運転モードを切り替える。
次に、車両用照明システム120の詳細を説明する。図7A及び図7Bに示すように、車両用照明システム120は、光源ユニット21と、カメラユニット30とを備えている。光源ユニット21は、車両100の前部における左右に設けられており、車両100の前方を照射する。カメラユニット30は、車両100の前部に幅方向に間隔をあけて配置された第一カメラ6Aと第二カメラ6Bとを備えている。光源ユニット21、第一カメラ6Aおよび第二カメラ6Bは、それぞれ車両制御部3に接続されている。なお、光源ユニット21とカメラユニット30とは、別体であってもよいし、光源ユニット21と第一カメラ6Aおよび第二カメラ6Bがそれぞれ一体に設けられていてもよい。光源ユニット21は、第三実施形態では、カメラユニット30の撮像範囲の全体に光を照射する灯具に搭載された光源である。光源ユニット21は、車両用前照灯の内部に搭載されている。
図9は、車両用照明システム120のブロック図である。図9に示すように、車両用照明システム120は、撮影制御部24と、画像生成部25とを備えている。撮影制御部24及び画像生成部25は、車両制御部3に設けられている。
カメラユニット30は、シャッタ制御部23、感度設定部26及び露光時間設定部27を備えている。第一カメラ6Aおよび第二カメラ6Bはそれぞれ、シャッタ制御部23、感度設定部26及び露光時間設定部27に接続されている。これらのシャッタ制御部23、感度設定部26及び露光時間設定部27は、撮影制御部24に接続されている。
第一カメラ6Aおよび第二カメラ6Bは、車両制御部3の画像生成部25に接続されており、撮影した画像のデータを画像生成部25に送信する。画像生成部25は、第一カメラ6Aおよび第二カメラ6Bから画像のデータを取得し、取得した画像を演算処理する。
第一カメラ6Aおよび第二カメラ6Bは、車両100の前方の映像を撮影して車両100の前方の情報を取得する。第一カメラ6Aおよび第二カメラ6Bは、それぞれ感度および露光時間を調整可能なカメラである。シャッタ制御部23は、撮影制御部24からの指令に基づいて、第一カメラ6Aおよび第二カメラ6Bによる撮像タイミングを制御する。感度設定部26は、撮影制御部24からの指令に基づいて、第一カメラ6Aおよび第二カメラ6Bの感度を設定する。露光時間設定部27は、撮影制御部24からの指令に基づいて、第一カメラ6Aおよび第二カメラ6Bの露光時間を設定する。
カメラユニット30は、撮影制御部24からの指令により、第一撮影モードと第二撮影モードとを含む少なくとも2つの撮影モードで車両100の前方を撮影することが可能とされている。第二撮影モードは、第一撮影モードよりも高い感度かつ長い露光時間で撮影する撮影モードである。なお、第二撮影モードは、第一撮影モードよりも高い感度または長い露光時間で撮影した撮影モードとしてもよい。なお、第一撮影モードを、第二撮影モードより高い感度で同じ露光時間に設定してもよい。あるいは、第一撮影モードを、第二撮影モードより長い露光時間で同じ感度に設定してもよい。なお、カメラユニット30は、互いに感度や露光時間の異なる3つ以上の撮影モードで撮影可能に構成されていてもよい。
カメラユニット30は、撮影制御部24からの指令により、第一カメラ6Aでの撮影を第一撮影モードに設定するとともに、第二カメラ6Bでの撮影を第二撮影モードに設定し、第一カメラ6Aと第二カメラ6Bとを同時に撮影させる。カメラユニット30は、第一カメラ6Aで撮影した第一画像のデータと、第二カメラ6Bで撮影した第二画像のデータとを画像生成部25へ送信する。
第一カメラ6Aおよび第二カメラ6Bは、自動運転の際の車両100の周辺環境を検出するために車両100の前方を撮影し、歩行者、対向車、前走車、標識、路面などの情報を取得する。そして、車両制御部3は、第一カメラ6Aおよび第二カメラ6Bからの画像から得られる車両100の周辺情報に基づいて車両100の自動運転の制御を行う。
ところで、カメラは、人間の目に比べて、明るい対象物と暗い対象物とを同時に認識することが難しい。例えば、暗い対象物を撮像する場合には、カメラの感度が高く、および/または、露光時間が長く設定される。これにより、対象物から受け取る光の量を確保して、ブラックアウトのない明瞭な像を取得する。逆に、明るい対象物を撮像する場合には、カメラの感度が低く、および/または、露光時間が短く設定される。これにより、対象物から受け取る光の量を調整して、ハレーションのない明瞭な像を取得する。なお、カメラの感度の設定は、カメラの絞り値やISO感度を調整することで設定される。
自動運転可能な車両に搭載されるカメラが情報として取得する歩行者、対向車、前走車、標識、路面などの対象物のうち、標識からの反射光、対向車の前照灯から出射される光、前走車の標識灯から出射される光、自車両のすぐ近傍の路面からの反射光は、その強度が高い。このため、これらの光の強度に適合するように、カメラの感度や露光時間を設定しておくと、強い光で画像が白くぼやけるハレーションが生じることなくこれらの対象物を明確に認識できる。しかしその一方で、歩行者からの反射光は弱いため、カメラが歩行者を効率よく認識することが難しい。
一方で、歩行者を効率よく認識できるようにカメラの感度を高く設定したり露光時間を長く設定しておくと、ブラックアウトのない明瞭な像を取得できる。しかしその一方で、標識からの反射光、対向車の前照灯から出射される光、前走車の標識灯から出射される光、自車両のすぐ近傍の路面からの反射光などによってハレーションが生じてしまい、これらを効率よく認識することが難しい。
図4Aから図4Cは、車両1と同様に、車両100の前方の映像を示す図であって、図4Aは実際の映像を示す模式図、図4Bは光量不足の画像を示す模式図、図4Cは光量過多の画像を示す模式図である。
第一カメラ6Aの第一撮影モードは、第二カメラ6Bの第二撮影モードに比べて、感度が低く露光時間が短い。したがって、車両100の前方の実際の画像が図4Aに示す画像とすると、第一撮影モードの第一カメラ6Aによって撮影された画像(第一画像)は、図4Bに示すように、光量過多によるハレーションを生じさせずに標識Hのような反射率の高い対象物を認識しやすい。しかしその一方で、第一画像は、光量不足となって画像が暗転するブラックアウト(図4Bにおけるハッチングで示したA部)が生じやすい。
これに対して、第二カメラ6Bの第二撮影モードでは、第一カメラ6Aの第一撮影モードに比べて、感度が高く露光時間が長い。したがって、第二撮影モードの第二カメラ6Bによって撮影された画像(第二画像)は、光量不足によるブラックアウトを生じさせずに暗い対象物を認識しやすい。しかしその一方で、第二画像は、標識Hなどの対象物では、光量過多となってハレーション(図4CにおけるB部)が生じやすい。
このように、カメラユニット30が第一照射モードの第一カメラ6Aで撮像した画像、あるいは、第二照射モードの第二カメラ6Bで撮像した画像は、明瞭な画像とならない場合がある。そこで、第三実施形態では、車両100の周辺情報を取得するためのカメラユニット30で撮像した画像における対象物の認識性を高めるために、次に説明するように、第一画像と第二画像とにより単一の出力画像を生成する処理を行う。
図5は、第一実施形態と同様に、第三実施形態に係る車両用照明システム120が実行する処理を示すフローチャートである。
撮影制御部24は、感度設定部26及び露光時間設定部27に指令を出して第一カメラ6Aのモードを第一撮影モードとする。そして、撮影制御部24は、シャッタ制御部23に指令を出して第一撮影モードで第一カメラ6Aにより車両100の前方を撮像させ、その画像データである第一画像を画像生成部25へ出力させる(ステップS01)。これにより、画像生成部25は、上述した図4Bの画像を取得する。
また、撮影制御部24は、感度設定部26及び露光時間設定部27に指令を出して第二カメラ6Bのモードを第二撮影モードとする。そして、撮影制御部24は、シャッタ制御部23に指令を出して第二撮影モードで第二カメラ6Bにより車両100の前方を撮像させ、その画像データである第二画像を画像生成部25へ出力させる(ステップS02)。これにより、画像生成部25は、上述した図4Cの画像を取得する。
ここで、撮影制御部24は、第一カメラ6Aおよび第二カメラ6Bによる車両100の前方の撮像を同時に実行させるように、シャッタ制御部23に指令を出す。
次に、画像生成部25は、第一カメラ6Aから送信された第一画像において、光量不足(ブラックアウト)の領域(図4BにおけるA部)を特定する(ステップS03)。具体的には、画像生成部25は、第一画像において、予め設定した輝度の閾値である第一閾値以下の部分を割り出し、その部分の座標である第一位置座標を特定する。
画像生成部25は、第二カメラ6Bから送信された第二画像に基づいて、この第二画像における第一位置座標の情報を特定する(ステップS04)。つまり、第二画像において、第一画像で特定した光量不足(ブラックアウト)の領域を特定する。
次いで、画像生成部25は、第一位置座標について、第一画像の情報を第二画像の情報に置換する。これにより、第一画像において、第一閾値以下の輝度の部分が、その部分に対応する第二画像の一部で置換された中間画像を取得する(ステップS05)。
このように、図4Bにおいてブラックアウトした領域を、図4Cの画像により置換することにより、ブラックアウトのない中間画像を取得することができる。
ブラックアウトが生じるおそれの少ない対象物(標識など)は反射率が高い。このため、カメラユニット30の第一カメラ6Aが、感度が低く露光時間が短い第一撮影モードで撮像したときに、この対象物からの反射光の強度が第一カメラ6Aにより明瞭な像を取得するのに適した強度となっている可能性が高い。
一方で、ブラックアウトが生じやすい対象物(歩行者など)は反射率が低く、その反射光の強度が弱いことが多い。そこで、この対象物からの反射光の強度が明瞭な像を撮像するのに好適なように、感度を高く露光時間を長くした第二撮影モードとした第二カメラ6Bで撮像する。第二撮影モードとした第二カメラ6Bで取得した画像にはブラックアウトが生じていない可能性が高い。そこで、第一撮影モードとした第一カメラ6Aが取得した図4Bの画像においてブラックアウトした領域を、第二撮影モードとした第二カメラ6Bが取得した図4Cの画像により置換することにより、ブラックアウトのない中間画像を取得することができる。
なお、車両用照明システム120は以下の処理を追加で実行してもよい。
画像生成部25は、取得した中間画像において、光量過多(ハレーション)の領域(図4CにおけるB部)を特定する(ステップS06)。具体的には、画像生成部25は、中間画像において、輝度が予め設定した第二閾値以上の部分を割り出し、その部分の座標である第二位置座標を特定する。そして、画像生成部25は、第一画像において、第二位置座標の情報を特定する(ステップS07)。第二閾値は、第一閾値より高い輝度の閾値である。
次いで、画像生成部25は、第二位置座標について、中間画像の情報を第一画像の情報に置換する。これにより、中間画像中の第二画像部分において、第二閾値以上の輝度の部分が、その部分に対応する第一画像の一部で置換されて補完された出力画像を取得する(ステップS08)。
なお、画像生成部25は、取得した中間画像(ステップS05)に、第二閾値以上の輝度の部分がなく、光量過多(ハレーション)がないと判断した場合は、取得した中間画像を出力画像として処理を終了する。
上記の画像補完処理後、車両システム200は、得られた出力画像から歩行者、対向車、前走車、標識、路面などの周辺情報を取得し、この周辺情報に基づいて車両100の自動運転の制御を行う。
以上、説明したように、第三実施形態に係る車両用照明システム120によれば、カメラユニット30は、第一撮影モードと、第一撮影モードよりも感度の高い、および/または、露光時間の長い第二撮影モードで車両100の前方を撮像可能である。そして、第一撮影モードで撮像された第一画像と第二撮影モードで撮像された第二画像とにより、出力画像を生成する。第一撮影モードで撮像された第一画像と、第一撮像モードよりも感度の高い、および/または、露光時間の長い第二撮像モードで撮像された第二画像は、一方の短所が他方の長所で補完される関係を有する。
したがって、第一画像と第二画像から出力画像を生成することにより、第一画像において光量不足によりブラックアウトして認識しにくい暗い対象物が、第二画像により認識しやすくなる。このように、第三実施形態に係る車両用照明システム120によれば、第一画像および第二画像の認識しやすい部分を互いに置換することで互いに補完した出力画像を取得するので、入射する光の光量によらず良好に車両100の前方の情報を取得できる。
特に、第三実施形態の車両用照明システム120によれば、カメラユニット30が、第一撮影モードで車両前方を撮影する第一カメラ6Aと、第二撮影モードで車両前方を撮影する第二カメラ6Bとで同時に撮影させる。したがって、第一画像と第二画像とを時間差なく取得できるので、第一画像と第二画像との間において対象物の位置ずれがなく、第一画像と第二画像の位置関係の対応付けをしやすい。
そして、第三実施形態に係る車両用照明システム120を備えた車両100によれば、得られた出力画像から歩行者、対向車、前走車、標識、路面などの周辺情報を取得し、この周辺情報に基づいて自動運転の制御を良好に行うことができる。
<第四実施形態>
次に、第四実施形態の画像補完処理について説明する。
この第四実施形態では、画像補完処理における制御の流れが第三実施形態と異なる。
図6は、第二実施形態と同様に、第四実施形態に係る車両用照明システム120による画像補完処理を示すフローチャートである。
撮影制御部24は、感度設定部26及び露光時間設定部27に指令を出して第一カメラ6Aのモードを第一撮影モードとする。そして、撮影制御部24は、シャッタ制御部23に指令を出して第一撮影モードで第一カメラ6Aにより車両100の前方を撮像させ、その画像データである第一画像を画像生成部25へ出力させる(ステップS11)。これにより、画像生成部25は、図4Bに示した画像を取得する。
また、撮影制御部24は、感度設定部26及び露光時間設定部27に指令を出して第二カメラ6Bのモードを第二撮影モードとする。そして、撮影制御部24は、シャッタ制御部23に指令を出して第二撮影モードで第二カメラ6Bにより車両100の前方を撮像させ、その画像データである第二画像を画像生成部25へ出力させる(ステップS12)。これにより、画像生成部25は、図4Cに示した画像を取得する。
ここで、撮影制御部24は、第一カメラ6Aおよび第二カメラ6Bによる車両100の前方の撮像を同時に実行させるように、シャッタ制御部23に指令を出す。
次に、画像生成部25は、第二カメラ6Bから送信された第二画像において、光量過多(ハレーション)の領域(図4CにおけるB部)を特定する(ステップS13)。具体的には、画像生成部25は、第二画像において、輝度が第二閾値以上の部分を割り出し、その部分の座標である第二位置座標を特定する。
画像生成部25は、第一カメラ6Aから送信された第一画像に基づいて、この第一画像における第二位置座標の情報を特定する(ステップS14)。つまり、第一画像において、第二画像で特定した光量過多(ハレーション)の領域を特定する。
次いで、画像生成部25は、第二位置座標について、第二画像の情報を第一画像の情報に置換する。これにより、第二画像において、第二閾値以上の輝度の部分が、その部分に対応する第一画像の一部で置換された中間画像を取得する(ステップS15)。
このように、図4Cにおいてハレーションが生じた領域を、図4Bの画像により置換することにより、ハレーションのない中間画像を取得することができる。
ハレーションが生じるおそれの少ない対象物(標識など)は反射率が低い。このため、カメラユニット30の第二カメラ6Bが、感度が高く露光時間が長い第二撮影モードで撮像したときに、この対象物からの反射光の強度が第二カメラ6Bにより明瞭な像を取得するのに適した強度となっている可能性が高い。
一方で、ハレーションが生じやすい対象物(歩行者など)は反射率が高く、第二撮影モードにとってはその反射光の強度が高すぎることが多い。そこで、この対象物からの反射光の強度が明瞭な像を撮像するのに適した強度となるように、感度を低く露光時間を短くした第一撮影モードとした第一カメラ6Aで撮像する。第一撮影モードとした第一カメラ6Aで取得した画像にはハレーションが生じていない可能性が高い。そこで、第二撮影モードとした第二カメラ6Bが取得した図4Cの画像においてハレーションが生じた領域を、第一撮影モードとした第一カメラ6Aが取得した図4Bの画像により置換することにより、ハレーションのない中間画像を取得することができる。
次に、画像生成部25は、必要に応じて以下の処理を実行してもよい。
取得した中間画像において、光量不足(ブラックアウト)の領域(図4BにおけるA部)を特定する(ステップS16)。具体的には、画像生成部25は、中間画像において、輝度が第一閾値以下の部分を割り出し、その部分の座標である第一位置座標を特定する。そして、画像生成部25は、第二画像において、第一位置座標の情報を特定する(ステップS17)。
次いで、画像生成部25は、第一位置座標について、中間画像の情報を第二画像の情報に置換する。これにより、中間画像中の第一画像部分において、第一閾値以下の輝度の部分が、その部分に対応する第二画像の一部で置換されて補完された出力画像を取得する(ステップS18)。
なお、画像生成部25は、取得した中間画像(ステップS15)に、第一閾値以下の輝度の部分がなく、光量不足(ブラックアウト)がないと判断した場合は、取得した中間画像を出力画像として処理を終了する。
上記の画像補完処理後、車両システム200は、得られた出力画像から歩行者、対向車、前走車、標識、路面などの周辺情報を取得し、この周辺情報に基づいて車両100の自動運転の制御を行う。
この第二実施形態に係る車両用照明システム120によれば、第二画像の認識しにくい部分を第一画像の部分で置換することで、第一画像および第二画像の認識しやすい部分で互いに補完した出力画像を取得する。したがって、入射する光の光量によらず、出力画像から車両100の前方の情報を良好かつ確実に得ることができる。
なお、上記実施形態では、第一カメラ6Aおよび第二カメラ6Bとして、それぞれ感度や露光時間を調整可能なカメラを用いた例を説明したが、本発明はこれに限られない。例えば、第一撮影モードでのみ撮影可能な第一カメラと、第二撮影モードでのみ撮影可能か第二カメラを備えたカメラユニットを用いて、第一カメラから第一画像を取得し、第二カメラから第二画像を取得するように構成してもよい。
また、上記実施形態では、カメラユニット30が、第一カメラ6Aと第二カメラ6Bとを備えた例を説明したが、本発明はこれに限られない。例えば、一つのカメラを備えたカメラユニット30を撮影制御部24がシャッタ制御部23へ指令を出して制御することで、第一撮影モードと第二撮影モードを交互に切り替えて第一画像および第二画像を撮影しても良い。この場合、カメラユニット30で撮影モードを第一撮影モードと第二撮影モードとに交互に切り替えることで、第一画像と第二画像とを確実に取得して画像の補完処理を行うことができる。単一のカメラでカメラユニット30が構成できるので、車両用照明システム120を簡略にできる。
また、単一のカメラを備えたカメラユニット30で第一画像および第二画像を交互に撮影する場合、撮影制御部24は、露光時間の長い第二撮影モードで撮影した後に露光時間の短い第一撮影モードで撮影させるのが好ましい。このようにすれば、短い時間差で第一画像と第二画像とを取得でき、第一画像と第二画像との間における対象物の位置ずれを極力抑えることができる。
以上、本発明の実施形態について説明をしたが、本発明の技術的範囲が上記実施形態の説明によって限定的に解釈されるべきではないのは言うまでもない。上記実施形態は単なる一例であって、特許請求の範囲に記載された発明の範囲内において、様々な実施形態の変更が可能であることが当業者によって理解されるところである。本発明の技術的範囲は特許請求の範囲に記載された発明の範囲及びその均等の範囲に基づいて定められるべきである。
上述した実施形態では、車両の運転モードは、完全自動運転モードと、高度運転支援モードと、運転支援モードと、手動運転モードとを含むものとして説明したが、車両の運転モードは、これら4つのモードに限定されるべきではない。車両の運転モードは、これら4つのモードの少なくとも1つを含んでいてもよい。例えば、車両の運転モードは、完全自動運転モードのみを含んでいてもよい。この場合、車両用照明装置は、車両の外部に向けて完全自動運転モードを示す情報を常に表示するように構成される。一方、車両の運転モードは、手動運転モードのみを含んでいてもよい。この場合、車両用照明装置は、車両の外部に向けて手動運転モードを示す情報を常に表示するように構成される。
さらに、車両の運転モードの区分や表示形態は、各国における自動運転に係る法令又は規則に沿って適宜変更されてもよい。同様に、本実施形態の説明で記載された「完全自動運転モード」、「高度運転支援モード」、「運転支援モード」のそれぞれの定義はあくまでも一例であって、各国における自動運転に係る法令又は規則に沿って、これらの定義は適宜変更されてもよい。
なお、上述した実施形態においては、光源ユニット21が、カメラ6の撮像範囲の全体に光を照射可能な灯具に搭載された光源である例を説明したが、本発明はこれに限られない。光源ユニットは、ハイビーム配光パターンを形成可能な灯具に搭載された光源であってもよい。この場合には、光源ユニットを含む灯具は、通常の照度の第一照射モードでハイビーム配光パターンと、第一照射モードよりも高い照度の第二照射モードでハイビーム配光パターンを形成する。
あるいは、光源ユニットはロービーム配光パターンを形成可能な灯具に搭載された光源であってもよいし、ハイビーム配光パターンやロービーム配光パターン以外の配光パターンを形成可能な灯具に搭載された光源であってもよい。
また、上述した実施形態においては、光源ユニット21がハイビーム配光パターンやロービーム配光パターンを形成可能な灯具の内部に設けられた例を説明したが、本発明はこれに限られない。光源ユニットは、ハイビーム配光パターンやロービーム配光パターンを形成可能な灯具とは別に車両に搭載されていてもよい。
また、上述した実施形態においては、光源ユニット21が第一照射モードと第二照射モードを照射可能に構成した例を説明したが、本発明はこれに限られない。例えば、光源ユニットが互いに異なる強度の光を出射可能な第一光源と第二光源を備え、第一光源を点灯させて第二光源を消灯させているときに第一画像を取得し、第一光源を消灯させて第二光源を点灯させているときに第二画像を取得するように構成してもよい。
本出願は、2016年12月15日に出願された日本国特許出願(特願2016−243273号)に開示された内容と、2016年12月15日に出願された日本国特許出願(特願2016−243274号)に開示された内容とを適宜援用する。

Claims (11)

  1. 第一照射モードと、前記第一照射モードよりも高い照度で光を照射する第二照射モードを含む少なくとも2つの照射モードで車両前方へ光を照射可能な光源ユニットと、
    車両前方を撮像可能なカメラと、
    前記光源ユニットの照射モード、および、前記カメラの撮像タイミングを設定する撮影制御部と、
    前記カメラが取得した画像を演算処理する画像生成部と、を有し、
    前記撮影制御部は、
    前記光源ユニットが前記第一照射モードで車両前方を照射しているときに、前記カメラにより車両前方を撮像させて第一画像を前記画像生成部へ出力させ、
    前記光源ユニットが前記第二照射モードで車両前方を照射しているときに、前記カメラにより車両前方を撮像させて第二画像を前記画像生成部へ出力させ、
    前記画像生成部は、前記第一画像と前記第二画像とにより単一の出力画像を生成する、車両用照明システム。
  2. 前記画像生成部は、前記第一画像において第一閾値以下の輝度の部分を該部分に対応する前記第二画像の一部で置換し、および/または、前記第二画像で前記第一閾値より高い第二閾値以上の輝度の部分を該部分に対応する前記第一画像の一部で置換して、前記出力画像を得る、請求項1に記載の車両用照明システム。
  3. 前記撮影制御部は、前記第一照射モードと前記第二照射モードとを交互に切り替えるように前記光源ユニットを制御する、請求項1または2に記載の車両用照明システム。
  4. 前記光源ユニットは、通常時は前記第一照射モードで車両前方へ光を照射するように構成され、
    前記撮影制御部は、所定間隔おきに前記第二照射モードへ変更するように前記光源ユニットを制御する、請求項1または2に記載の車両用照明システム。
  5. 前記所定間隔は20msec以下である、請求項4に記載の車両用照明システム。
  6. 車両前方へ光を照射可能な光源ユニットと、
    第一撮影モードと、前記第一撮影モードよりも感度の高い、および/または、露光時間の長い第二撮影モードを含む少なくとも2つの撮影モードで車両前方を撮像可能なカメラユニットと、
    前記カメラユニットの前記撮影モードおよび撮像タイミングを設定する撮影制御部と、
    前記カメラユニットが取得した画像を演算処理する画像生成部と、を有し、
    前記撮影制御部は、
    前記カメラユニットにより前記第一撮影モードで車両前方を撮像させて第一画像を前記画像生成部へ出力させ、
    前記カメラユニットにより前記第二撮影モードで車両前方を撮像させて第二画像を前記画像生成部へ出力させ、
    前記画像生成部は、前記第一画像と前記第二画像とにより単一の出力画像を生成する、車両用照明システム。
  7. 前記画像生成部は、前記第一画像において第一閾値以下の輝度の部分を該部分に対応する前記第二画像の一部で置換し、および/または、前記第二画像で前記第一閾値より高い第二閾値以上の輝度の部分を該部分に対応する前記第一画像の一部で置換して、前記出力画像を得る、請求項6に記載の車両用照明システム。
  8. 前記カメラユニットは、
    前記第一撮影モードで車両前方を撮影する第一カメラと、
    前記第二撮影モードで車両前方を撮影する第二カメラと、を有し、
    前記撮影制御部は、前記第一カメラと前記第二カメラを同時に撮影させる、請求項6または7に記載の車両用照明システム。
  9. 前記撮影制御部は、前記第一撮影モードと前記第二撮影モードを交互に切り替えて前記カメラユニットに撮影させる、請求項6または7に記載の車両用照明システム。
  10. 前記撮影制御部は、露光時間の短い前記第二撮影モードで撮影した後に前記第一撮影モードで撮影させる、請求項9に記載の車両用照明システム。
  11. 請求項1から10のいずれか一項に記載の車両用照明システムを備えた車両。
JP2018556610A 2016-12-15 2017-12-06 車両用照明システムおよび車両 Active JP6963563B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2016243273 2016-12-15
JP2016243273 2016-12-15
JP2016243274 2016-12-15
JP2016243274 2016-12-15
PCT/JP2017/043829 WO2018110389A1 (ja) 2016-12-15 2017-12-06 車両用照明システムおよび車両

Publications (2)

Publication Number Publication Date
JPWO2018110389A1 true JPWO2018110389A1 (ja) 2019-10-24
JP6963563B2 JP6963563B2 (ja) 2021-11-10

Family

ID=62558667

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018556610A Active JP6963563B2 (ja) 2016-12-15 2017-12-06 車両用照明システムおよび車両

Country Status (5)

Country Link
US (1) US10965878B2 (ja)
EP (1) EP3556607A4 (ja)
JP (1) JP6963563B2 (ja)
CN (1) CN110087946B (ja)
WO (1) WO2018110389A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7020215B2 (ja) * 2018-03-19 2022-02-16 日本電気株式会社 余所見判定装置、余所見判定システム、余所見判定方法、プログラム
US11787330B2 (en) 2018-11-12 2023-10-17 Koito Manufacturing Co., Ltd. Vehicle lamp system
US10990834B2 (en) * 2018-12-13 2021-04-27 GM Global Technology Operations LLC Method and apparatus for object detection in camera blind zones
JP7204551B2 (ja) * 2019-03-19 2023-01-16 株式会社小糸製作所 車両用監視システム
JP7213732B2 (ja) * 2019-03-27 2023-01-27 マレリ株式会社 画像表示装置
US11115602B2 (en) * 2019-06-11 2021-09-07 Watchguard Video, Inc. Emulating light sensitivity of a target
JP7497423B2 (ja) * 2020-03-23 2024-06-10 株式会社小糸製作所 撮像システム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003087645A (ja) * 2001-09-07 2003-03-20 Olympus Optical Co Ltd デジタルカメラ
JP2013147112A (ja) * 2012-01-18 2013-08-01 Fuji Heavy Ind Ltd 車両の走行環境認識装置
JP2016189557A (ja) * 2015-03-30 2016-11-04 ソニー株式会社 撮像素子およびその駆動方法、並びに電子機器

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6456206B1 (en) * 1994-09-12 2002-09-24 Richard M. Rocca Inclement weather safety system
JPH09277887A (ja) 1996-04-16 1997-10-28 Honda Motor Co Ltd 自動追従走行システム
JP2004048455A (ja) * 2002-07-12 2004-02-12 Niles Co Ltd 撮像システム
US7319805B2 (en) * 2003-10-06 2008-01-15 Ford Motor Company Active night vision image intensity balancing system
JP4777798B2 (ja) * 2006-03-02 2011-09-21 富士フイルム株式会社 固体撮像装置とその駆動方法
CN101404728B (zh) * 2008-11-12 2010-09-22 深圳市迅雷网络技术有限公司 一种数字图像曝光调整的方法和装置
US9200895B2 (en) * 2010-11-16 2015-12-01 Konica Minolta, Inc. Image input device and image processing device
DE102011076795A1 (de) * 2011-05-31 2012-09-20 Robert Bosch Gmbh Verfahren zum Bestimmen einer Nickbewegung einer in einem Fahrzeug verbauten Kamera und Verfahren zur Steuerung einer Lichtaussendung zumindest eines Frontscheinwerfers eines Fahrzeugs
JP5952532B2 (ja) * 2011-06-02 2016-07-13 株式会社小糸製作所 画像処理装置および配光制御方法
JP5370413B2 (ja) * 2011-06-06 2013-12-18 株式会社デンソー 認識対象検出装置
US9649980B2 (en) * 2012-05-18 2017-05-16 Nissan Motor Co., Ltd. Vehicular display apparatus, vehicular display method, and vehicular display program
CN103780840B (zh) * 2014-01-21 2016-06-08 上海果壳电子有限公司 一种高品质成像的双摄像成像装置及其方法
CN103986874A (zh) * 2014-05-29 2014-08-13 宇龙计算机通信科技(深圳)有限公司 一种图像获取装置、图像获取方法及终端

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003087645A (ja) * 2001-09-07 2003-03-20 Olympus Optical Co Ltd デジタルカメラ
JP2013147112A (ja) * 2012-01-18 2013-08-01 Fuji Heavy Ind Ltd 車両の走行環境認識装置
JP2016189557A (ja) * 2015-03-30 2016-11-04 ソニー株式会社 撮像素子およびその駆動方法、並びに電子機器

Also Published As

Publication number Publication date
CN110087946B (zh) 2023-01-10
EP3556607A4 (en) 2020-10-07
US10965878B2 (en) 2021-03-30
EP3556607A1 (en) 2019-10-23
JP6963563B2 (ja) 2021-11-10
WO2018110389A1 (ja) 2018-06-21
US20190320106A1 (en) 2019-10-17
CN110087946A (zh) 2019-08-02

Similar Documents

Publication Publication Date Title
WO2018110389A1 (ja) 車両用照明システムおよび車両
JP5680573B2 (ja) 車両の走行環境認識装置
CN110944874B (zh) 车辆用照明系统以及车辆
JP6075331B2 (ja) 車両用照明装置
JP7339963B2 (ja) 車両用ランプシステム
JPWO2012140752A1 (ja) 車載周辺物認識装置及びこれを用いる運転支援装置
US9616805B2 (en) Method and device for controlling a headlamp of a vehicle
CN110121444B (zh) 照明装置
US11454539B2 (en) Vehicle lamp
JP2005350010A (ja) ステレオ式車外監視装置
CN111267722A (zh) 车辆用灯系统
JP2008296759A (ja) 情報処理装置および方法、並びにプログラム
US11850992B2 (en) Lighting device
JP7021134B2 (ja) 車両周辺モニタ装置
WO2021049239A1 (ja) 車両用ランプシステム
JP2012185669A (ja) 車両検知装置及びこれを用いる車両配光制御装置
CN111267719A (zh) 车辆用前照灯系统
JP2020097258A (ja) 配光可変型前照灯

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200930

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210727

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210903

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211012

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211015

R150 Certificate of patent or registration of utility model

Ref document number: 6963563

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150