JP2018045482A - 撮像装置、信号処理装置、及び、車両制御システム - Google Patents

撮像装置、信号処理装置、及び、車両制御システム Download PDF

Info

Publication number
JP2018045482A
JP2018045482A JP2016180208A JP2016180208A JP2018045482A JP 2018045482 A JP2018045482 A JP 2018045482A JP 2016180208 A JP2016180208 A JP 2016180208A JP 2016180208 A JP2016180208 A JP 2016180208A JP 2018045482 A JP2018045482 A JP 2018045482A
Authority
JP
Japan
Prior art keywords
vehicle
object detection
road
unit
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016180208A
Other languages
English (en)
Inventor
新之介 速水
Shinnosuke Hayami
新之介 速水
和幸 丸川
Kazuyuki Marukawa
和幸 丸川
至 清水
Itaru Shimizu
至 清水
法子 田中
Noriko Tanaka
法子 田中
麻子 金子
Asako Kaneko
麻子 金子
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2016180208A priority Critical patent/JP2018045482A/ja
Priority to PCT/JP2017/031588 priority patent/WO2018051816A1/ja
Priority to EP17850719.0A priority patent/EP3514780A4/en
Priority to US16/327,011 priority patent/US11142192B2/en
Publication of JP2018045482A publication Critical patent/JP2018045482A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/02Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/04Conjoint control of vehicle sub-units of different type or different function including control of propulsion units
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/18Conjoint control of vehicle sub-units of different type or different function including control of braking systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/20Conjoint control of vehicle sub-units of different type or different function including control of steering systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/04Traffic conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Automation & Control Theory (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Mathematical Physics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Traffic Control Systems (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Abstract

【課題】車両が道路の外から道路に進入する場合の運転の支援を適切に行う。
【解決手段】撮像装置は、車両の前方を撮像する撮像部と、前記撮像部により撮像された撮像画像に基づいて物体検出処理を行う物体検出部とを備え、前記物体検出部は、前記車両と前記車両が外から進入する道路との位置関係に基づいて、物体の検出方法を変更する。本技術は、例えば、運転支援を行う各種の車両に搭載する撮像装置に適用することができる。
【選択図】図4

Description

本技術は、撮像装置、信号処理装置、及び、車両制御システムに関し、特に、道路の外から道路に進入する場合の運転の支援を行う場合に用いて好適な撮像装置、信号処理装置、及び、車両制御システムに関する。
従来、交差点に接近してから通過するまでの運転の診断を行い、交差点においてリスクの高い運転をしたと判定された場合に、交差点の通過後に、リスクの対象物の方向を表示するとともに音声メッセージを出力する技術が提案されている(例えば、特許文献1参照)。
特開2015−125560号公報
しかしながら、特許文献1に記載の技術では、車両が道路の外から道路に進入する場合は想定されていない。
本技術は、このような状況に鑑みてなされたものであり、車両が道路の外から道路に進入する場合の運転の支援を適切に行うことができるようにするものである。
本技術の第1の側面の撮像装置は、車両の前方を撮像する撮像部と、前記撮像部により撮像された撮像画像に基づいて物体検出処理を行う物体検出部とを備え、前記物体検出部は、前記車両と前記車両が外から進入する道路との位置関係に基づいて、物体の検出方法を変更する。
前記物体検出部には、前記車両と前記道路との位置関係に基づいて、優先的に物体の検出を行う優先検出範囲、及び、優先的に検出を行う優先検出対象のうち少なくとも1つを変更させることができる。
前記物体検出部には、前記車両が前記道路内の車道に進入する前に、前記車道を前記優先検出範囲とする検出処理、及び、他の車両を前記優先検出対象とする検出処理のうち少なくとも1つを行わせることができる。
前記物体検出部には、前記車両が前記車道内の第1の車線に合流する場合、前記車両が前記車道に進入する前に、前記第1の車線において前記車両が合流する位置に接近する他の車両の検出処理を優先的に行わせることができる。
前記物体検出部には、前記車両が前記第1の車線に合流する前に前記車道内の第2の車線を横断する場合、前記車両が前記車道に進入する前に、さらに前記第2の車線において前記車両が横断する位置に接近する他の車両の検出処理を優先的に行わせることができる。
前記物体検出部には、前記車道において障害物が検出されない場合、前記車両が前記車道に合流する合流先の状況の検出処理を優先的に行わせることができる。
前記物体検出部には、前記車両が前記道路内の歩道に進入する前に、前記歩道を前記優先検出範囲とする検出処理、及び、歩行者を前記優先検出対象とする検出処理のうち少なくとも1つを行わせることができる。
前記撮像部には、撮像範囲が異なる複数のカメラを設け、前記物体検出部には、前記車両と前記道路との位置関係に基づいて、優先的に物体検出処理に用いる前記カメラを変更させることができる。
前記物体検出部には、前記車両と前記道路との間の距離に基づいて、物体の検出方法を変更させることができる。
本技術の第2の側面の信号処理装置は、車両の前方を撮像した撮像画像に基づいて物体検出処理を行う物体検出部を備え、前記物体検出部には、前記車両と前記車両が外から進入する道路との位置関係に基づいて、物体の検出方法を変更する。
本技術の第3の側面の車両制御システムは、車両の前方を撮像する撮像部と、前記撮像部により撮像された撮像画像に基づいて物体検出処理を行う物体検出部と、前記物体検出部による物体の検出結果に基づいて、前記車両の制御を行う車両制御部とを備え、前記物体検出部は、前記車両と前記車両が外から進入する道路との位置関係に基づいて、物体の検出方法を変更する。
前記物体検出部には、前記車両と前記道路との位置関係に基づいて、優先的に物体の検出を行う優先検出範囲、及び、優先的に検出を行う優先検出対象のうち少なくとも1つを変更させることができる。
前記物体検出部には、前記車両が前記道路内の車道に進入する前に、前記車道を前記優先検出範囲とする検出処理、及び、他の車両を前記優先検出対象とする検出処理のうち少なくとも1つを行わせ、前記車両制御部には、前記車道において障害物が検出された場合、前記車両の前記車道への進入の制止、及び、運転者への警告のうち少なくとも1つを行うように前記車両を制御させることができる。
前記車両制御部には、前記車道において障害物が検出されない場合、前記車両を前記車道に合流させるための案内を提示するように前記車両を制御させることができる。
前記車両制御部には、前記運転者の運転技量に基づいて前記案内の内容を変更させることができる。
前記物体検出部には、前記車道において障害物が検出されない場合、前記車両が前記車道に合流する合流先の状況の検出処理を優先的に行わせ、前記車両制御部には、前記合流先の状況に基づいて、前記車両の走行の制御、及び、運転者への警告のうち少なくとも1つを行うように前記車両を制御させることができる。
前記物体検出部には、前記車両が前記道路内の歩道に進入する前に、前記歩道を前記優先検出範囲とする検出処理、及び、歩行者を前記優先検出対象とする検出処理のうち少なくとも1つを行わせ、前記車両制御部には、前記歩道において障害物が検出された場合、前記車両の前記歩道への進入の制止、及び、運転者への警告のうち少なくとも1つを行うように前記車両を制御させることができる。
前記撮像部には、撮像範囲が異なる複数のカメラを設け、前記物体検出部には、前記車両と前記道路との位置関係に基づいて、優先的に物体検出処理に用いる前記カメラを変更させることができる。
検出範囲が異なる複数の物体検出用センサをさらに設け、前記物体検出部には、さらに複数の前記物体検出用センサからのセンサデータに基づいて物体検出処理を行わせるとともに、前記車両と前記道路との位置関係に基づいて、優先的に物体検出処理に用いる前記物体検出用センサを変更させることができる。
前記物体検出部には、前記車両と前記道路との間の距離に基づいて、物体の検出方法を変更させることができる。
本技術の第1の側面においては、車両の前方が撮像され、撮像された撮像画像に基づいて物体検出処理が行われ、前記車両と前記車両が外から進入する道路との位置関係に基づいて、物体の検出方法が変更される。
本技術の第2の側面においては、車両の前方を撮像した撮像画像に基づいて物体検出処理が行われ、前記車両と前記車両が外から進入する道路との位置関係に基づいて、物体の検出方法が変更される。
本技術の第3の側面においては、車両の前方が撮像され、撮像された撮像画像に基づいて物体検出処理が行われ、物体の検出結果に基づいて、前記車両の制御が行われ、前記車両と前記車両が外から進入する道路との位置関係に基づいて、物体の検出方法が変更される。
本技術の第1の側面又は第2の側面によれば、車両の前方の物体を検出することができる。特に、本技術の第1の側面又は第2の側面によれば、車両が道路の外から道路に進入する場合に、車両と道路との位置関係に応じて異なる検出方法で車両の前方の物体を検出することができ、その結果、運転の支援を適切に行うことができる。
本技術の第3の側面によれば、車両の前方の物体の検出結果に基づいて、車両の制御を行うことができる。特に、本技術の第3の側面によれば、車両が道路の外から道路に進入する場合に、車両と道路との位置関係に応じて異なる検出方法で車両の前方の物体を検出することができ、その結果、運転の支援を適切に行うことができる。
なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載された何れかの効果であってもよい。
車両の構成例を示す図である。 CAN通信用のバスに接続されるブロックについて説明する図である。 アラウンドビューモニタ機能について説明する図である。 CAN通信用のバスに接続されるブロックの他の例について説明する図である。 フロントカメラモジュールの外観の構成例を示す模式図である。 フロントカメラモジュールの外観の構成例を示す模式図である。 各フロントセンシングカメラの検出範囲の例を示す図である。 フロントカメラECUの機能の構成例を示す図である。 運転支援処理を説明するためのフローチャートである。 運転支援処理を説明するためのフローチャートである。 運転支援処理の具体例を説明するための図である。 運転支援処理の具体例を説明するための図である。 運転者に警告する方法を示す図である。 自転車道を備える道路の構成例を示す図である。 出入口が2カ所ある道路の構成例を示す図である。 ガードレールが設けられた道路の構成例を示す図である。 交差点に進入する場合の運転支援処理を説明するための図である。 コンピュータの構成例を示す図である。
以下、本技術を実施するための形態について説明する。説明は以下の順序で行う。
1.実施の形態
2.変形例
3.その他
なお、本技術は、例えば、車両が道路の外から道路に進入し、合流する場合に適切な運転支援を実現することができるようにするものである。ここでいう運転支援とは支援運転や自律運転など任意の運転モードでの車両の運転時に行われる走行制御をいうが、以下では本技術が適用された車両が支援運転を行っているときに、適宜、運転支援処理が実行される場合を例として説明を続ける。
<<1.実施の形態>>
<1−1.車両の構成例>
図1は、本技術を適用した車両の一実施の形態の構成例を示す図である。
図1に示す車両11は、フロントセンシングカメラ21、フロントカメラECU(Electronic Control Unit)22、位置情報取得部23、表示部24、音声出力部25、通信部26、ステアリング機構27、センサ部28、サイドビューカメラ29、サイドビューカメラECU30、統合ECU31、フロントビューカメラ32、フロントビューカメラECU33、制動装置34、エンジン35、発電機36、駆動用モータ37、バッテリ38、リアビューカメラ39、リアビューカメラECU40、車速検出部41、及び、ヘッドライト42を有している。
車両11に設けられた各ユニットは、CAN(Controller Area Network)通信用のバスや他の接続線などにより相互に接続されているが、ここでは図を見やすくするため、それらのバスや接続線が特に区別されずに描かれている。
フロントセンシングカメラ21は、例えば車室内のルームミラー近傍に配置されたセンシング専用のカメラからなり、車両11の前方を被写体として撮像し、その結果得られたセンシング画像をフロントカメラECU22に出力する。
なお、図5乃至図7を参照して後述するように、フロントセンシングカメラ21を複数設けることも可能である。
フロントカメラECU22は、フロントセンシングカメラ21から供給されたセンシング画像に対して適宜、画質を向上させる処理等を施した後、センシング画像に対して画像認識を行って、センシング画像から道路の区画線や歩行者などの任意の物体を検出する。フロントカメラECU22は、物体の検出結果をCAN通信用のバスに出力する。
位置情報取得部23は、例えばGPS(Global Positioning System)などの位置情報計測システムからなり、車両11の位置を検出して、その検出結果を示す位置情報をCAN通信用のバスに出力する。
表示部24は、例えば液晶表示パネルなどからなり、インストルメントパネルの中央部分、ルームミラー内部などの車室内の所定位置に配置されている。また、表示部24はウィンドシールド(フロントガラス)に重畳して設けられた透過型ディスプレイやヘッドアップディスプレイであってもよいし、カーナビゲーションシステムのディスプレイであってもよい。また、コンバイナ式のヘッドアップディスプレイであってもよい。表示部24は、統合ECU31の制御に従って各種の画像を表示する。
音声出力部25は、例えばスピーカ、ブザーなどからなる。音声出力部25は、統合ECU31の制御に従って各種の音声を出力する。
通信部26は、車車間通信や車歩間通信、路車間通信等の各種の無線通信により、周辺車両や、歩行者が所持する携帯型端末装置、路側機、外部のサーバとの間で情報の送受信を行う。例えば通信部26は周辺車両と車車間通信を行って、周辺車両から乗員数や走行状態を示す情報を含む周辺車両情報を受信し、統合ECU31に供給する。
ステアリング機構27は、運転者によるステアリングホイールの操作、又は、統合ECU31から供給された制御信号に応じて車両11の走行方向の制御、すなわち舵角制御を行う。
センサ部28は、車両11の周囲の物体の有無、物体までの距離等を検出する複数の物体検出用センサを備える。例えば、センサ部28は、車両11に近い物体の検出を行う近距離センサ(例えば、超音波センサ等)、並びに、車両11から遠い距離の物体の検出を行う遠距離センサ(例えば、レーダ、ライダ、TOF(Time of Flight)センサ等)を備える。各物体検出用センサは、検出範囲、検出方式、用途等が異なり、必要に応じて使い分けられる。センサ部28の各物体検出用センサは、その検出結果を示すセンサデータをCAN通信用のバスに出力する。
サイドビューカメラ29は、例えばサイドミラーの筐体内やサイドミラー近傍に配置されたカメラであり、運転者の死角となる領域を含む車両11の側方の画像(以下、側方画像とも称する)を撮像し、サイドビューカメラECU30に供給する。
サイドビューカメラECU30は、サイドビューカメラ29から供給された側方画像に対して、ホワイトバランス調整などの画質を向上させる画像処理を施すとともに、得られた側方画像をCAN通信用のバスとは異なるケーブルを介して統合ECU31に供給する。
統合ECU31は、運転制御ECU51やバッテリECU52などの車両11の中央に配置された複数のECUからなり、車両11全体の動作を制御する。
例えば運転制御ECU51は、ADAS(Advanced Driving Assistant System)機能や自律運転(Self driving)機能を実現するECUであり、フロントカメラECU22からの物体検出結果、位置情報取得部23からの位置情報、通信部26から供給された周辺車両情報等の各種の情報、センサ部28からのセンサデータ、車速検出部41からの車速の検出結果などに基づいて、車両11の運転(走行)を制御する。すなわち、運転制御ECU51は、ステアリング機構27や、制動装置34、エンジン35、駆動用モータ37等を制御して車両11の運転を制御する。また、運転制御ECU51は、フロントカメラECU22から物体の検出結果として供給された、対向車のヘッドライトの有無等に基づいてヘッドライト42を制御してハイビームとロービームの切り替えなどヘッドライト42によるビーム照射を制御する。
なお、統合ECU31では、ADAS機能や自律運転機能、ビーム制御などの機能ごとに専用のECUを設けるようにしてもよい。
バッテリECU52は、バッテリ38による電力の供給等を制御する。
フロントビューカメラ32は、例えばフロントグリル近傍に配置されたカメラからなり、運転者の死角となる領域を含む車両11の前方の画像(以下、前方画像とも称する)を撮像し、フロントビューカメラECU33に供給する。
フロントビューカメラECU33は、フロントビューカメラ32から供給された前方画像に対して、ホワイトバランス調整などの画質を向上させる画像処理を施すとともに、得られた前方画像をCAN通信用のバスとは異なるケーブルを介して統合ECU31に供給する。
制動装置34は、運転者によるブレーキ操作、または統合ECU31から供給された制御信号に応じて動作し、車両11を停止させたり減速させたりする。
エンジン35は、車両11の動力源であり、統合ECU31から供給された制御信号に応じて駆動する。
発電機36は、統合ECU31により制御され、エンジン35の駆動に応じて発電する。
駆動用モータ37は、車両11の動力源であり、発電機36やバッテリ38から電力の供給を受け、統合ECU31から供給された制御信号に応じて駆動する。なお、車両11の走行時にエンジン35を駆動させるか、または駆動用モータ37を駆動させるかは、適宜、統合ECU31により切り替えられる。
バッテリ38は、例えば12Vのバッテリや200Vのバッテリなどを有しており、バッテリECU52の制御に従って車両11の各部に電力を供給する。
リアビューカメラ39は、例えばテールゲートのナンバープレート近傍に配置されるカメラからなり、運転者の死角となる領域を含む車両11の後方の画像(以下、後方画像とも称する)を撮像し、リアビューカメラECU40に供給する。例えばリアビューカメラ39は、図示せぬシフトレバーがリバース(R)の位置に移動されると起動される。
リアビューカメラECU40は、リアビューカメラ39から供給された後方画像に対して、ホワイトバランス調整などの画質を向上させる画像処理を施すとともに、得られた後方画像をCAN通信用のバスとは異なるケーブルを介して統合ECU31に供給する。
車速検出部41は、車両11の車速を検出するセンサであり、車速の検出結果を統合ECU31に供給する。なお、車速検出部41において、車速の検出結果から加速度や加速度の微分(ジャーク、jerk)が算出されるようにしてもよい。例えば算出された加速度は、車両11の物体との衝突までの時間の推定などに用いられる。算出されたジャークは、乗員の乗り心地に関わるパラメータとして用いられる。
ヘッドライト42は、統合ECU31から供給された制御信号に応じて動作し、ビームを出力することで車両11の前方を照明する。
また、車両11では、図2に示すようにフロントカメラモジュール71、通信部26、運転制御ECU51、ステアリング機構27、センサ部28、制動装置34、エンジン35、駆動用モータ37、およびヘッドライト42を含む複数のユニットがCAN通信用のバス72により相互に接続され、車両制御システムを構成している。なお、図2において図1と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
この例では、フロントカメラモジュール71はレンズ81、イメージセンサ82、フロントカメラECU22、およびMCU(Module Control Unit)83を有している。
また、レンズ81およびイメージセンサ82によってフロントセンシングカメラ21が構成されている。イメージセンサ82は、例えばCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどからなる。
なお、図5乃至図7を参照して後述するように、レンズ81およびイメージセンサ82を複数組設けることにより、フロントカメラモジュール71にフロントセンシングカメラ21を複数設けることも可能である。
フロントカメラモジュール71では、被写体からの光がレンズ81によってイメージセンサ82の撮像面上に集光される。イメージセンサ82は、レンズ81から入射した光を光電変換することでセンシング画像を撮像し、フロントカメラECU22に供給する。なお、イメージセンサ82のカラーフィルタはベイヤ配列でもよいし、Red画素1つに対してクリア画素が3つ配列されるRCCC配列であってもよい。RCCC配列である場合、センシングに特化した画像データを得ることができる。
フロントカメラECU22は、イメージセンサ82から供給されたセンシング画像に対して、例えばゲイン調整やホワイトバランス調整、HDR(High Dynamic Range)処理、交通信号のフリッカ補正処理などの画質調整処理を施した後、センシング画像に対して画像認識を行う。なお、画質調整処理は、フロントカメラECU22で実行されることに限定されず、イメージセンサ82内部で実行されてもよい。画質調整処理がイメージセンサ82内部で実行される場合、イメージセンサ82は積層型イメージセンサであることが望ましい。
画像認識では、例えば、歩行者、自転車等の軽車両、車両、ヘッドライト、ブレーキライト、区画線等の道路標示、縁石、路肩、ガードレール、道路標識等の任意の物体の検出や、前方車両との衝突までの時間の検出等が行われる。これらの画像認識による検出結果は、MCU83でCAN通信用の形式の信号に変換され、バス72へと出力される。
また、バス72から供給された情報は、MCU83でフロントカメラモジュール71用に定められた形式の信号に変換され、フロントカメラECU22へと供給される。なお、MCU83は、マイクロコントロールユニットに限定されず、種々のコントローラが適用可能である。
運転制御ECU51は、MCU83からバス72に出力された物体の検出結果、センサ部28からのセンサデータ等に基づいて、適宜、ステアリング機構27や制動装置34、エンジン35、駆動用モータ37、ヘッドライト42などを制御する。これにより走行方向の変更、ブレーキ、加速、発進等の運転制御や、警告通知制御、ビームの切り替え制御などが実現される。
また、運転制御ECU51が自律運転機能等を実現する場合には、例えばフロントカメラECU22で得られた各時刻の画像認識結果から、運転制御ECU51において、さらに対象物体の位置の軌跡が認識され、その認識結果が通信部26を介して外部のサーバに送信されるようにしてもよい。そのような場合、例えばサーバではディープニューラルネット等の学習が行われて必要な辞書等が生成され、車両11へと送信される。車両11では、このようにして得られた辞書等が通信部26により受信され、受信された辞書等が運転制御ECU51での各種の予測などに用いられる。
さらに、運転制御ECU51は、運転者が車両11に対して行った運転操作の履歴等に基づいて、運転者の運転技量や運転の傾向等の学習を行う。
なお、運転制御ECU51により行われる制御のうち、センシング画像に対する画像認識の結果のみから実現できる制御については、運転制御ECU51ではなくフロントカメラECU22により行われるようにしてもよい。
具体的には、例えばフロントカメラECU22は、センシング画像に対する画像認識により得られた対向車のヘッドライトの有無に基づいて、ヘッドライト42を制御してもよい。この場合、例えばフロントカメラECU22は、ロービームとハイビームの切り替え等を指示する制御信号を生成し、MCU83およびバス72を介してヘッドライト42に制御信号を供給することで、ヘッドライト42によるビーム切り替えを制御する。
その他、例えばフロントカメラECU22が、センシング画像に対する画像認識により得られた道路の区画線や縁石、歩行者などの検出結果に基づいて、対象物への衝突の警告通知や走行車線(レーン)からの逸脱の警告通知等を生成し、MCU83を介してバス72に出力することで、警告通知の制御を行うようにしてもよい。この場合、フロントカメラECU22から出力された警告通知は、例えば表示部24や音声出力部25等に供給される。これにより、表示部24において警告表示を行ったり、音声出力部25により警告メッセージを出力したりすることができる。
さらに、車両11では、例えば駐車時などにおいて表示部24に合成画像を表示することでアラウンドビューモニタ機能が実現される。
すなわち、例えば図3に示すように各部で得られた前方画像、後方画像、及び、側方画像がCAN通信用のバスとは異なるケーブルを介して、統合ECU31に設けられた画像合成ECU101に供給され、それらの画像から合成画像が生成される。なお、図3において図1と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
図3では、図1に示したサイドビューカメラ29として、車両11の左側に配置されたサイドビューカメラ29Lと、車両11の右側に配置されたサイドビューカメラ29Rとが設けられている。また、サイドビューカメラECU30として、車両11の左側に配置されたサイドビューカメラECU30Lと、車両11の右側に配置されたサイドビューカメラECU30Rとが設けられている。
画像合成ECU101には、フロントビューカメラ32で得られた前方画像がフロントビューカメラECU33から供給され、リアビューカメラ39で得られた後方画像がリアビューカメラECU40から供給される。また、画像合成ECU101には、サイドビューカメラ29Lで得られた側方画像(以下、特に左側方画像とも称する)がサイドビューカメラECU30Lから供給され、サイドビューカメラ29Rで得られた側方画像(以下、特に右側方画像とも称する)がサイドビューカメラECU30Rから供給される。
画像合成ECU101は、供給されたこれらの画像に基づいて前方画像、後方画像、左側方画像、及び、右側方画像を対応する領域に配置した合成画像を生成するとともに、得られた合成画像を表示部24に供給し、表示させる。運転者は、このようにして表示された合成画像を確認しながら車両11を運転することで、安全かつ容易に駐車を行うことができる。なお、統合ECU31が合成画像に基づいて車両11の駆動を制御し、駐車を行うようにしてもよい。
また、運転制御ECU51により複数の異なる機能の制御を行うのではなく、例えば図4に示すように制御内容ごとに、すなわち機能ごとに制御部を設けるようにしてもよい。なお、図4において図2と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
図4に示す例では、CAN通信用のバス72にはフロントカメラモジュール71、通信部26、ステアリング機構27、センサ部28、制動装置34、エンジン35、駆動用モータ37、ヘッドライト42、ビーム制御部111、警告通知制御部112、ステアリング制御部113、ブレーキ制御部114、アクセル制御部115、及び、学習部116を含む複数のユニットが接続されている。
この例では、図2の例において運転制御ECU51により行われていた制御が、ビーム制御部111、警告通知制御部112、ステアリング制御部113、ブレーキ制御部114、アクセル制御部115、及び、学習部116により分担されて行われる。
具体的には、例えばビーム制御部111は、フロントカメラECU22で得られた画像認識の結果等に基づいてヘッドライト42を制御することでロービームとハイビームの切り替え制御を行う。
警告通知制御部112は、フロントカメラECU22で得られた物体の検出結果等に基づいて、表示部24での各種の警告表示やガイダンス表示、音声出力部25での警告メッセージや案内メッセージの出力など、警告や各種の情報の通知の制御を行う。
ステアリング制御部113は、フロントカメラECU22で得られた物体の検出結果、センサ部28からのセンサデータ等に基づいてステアリング機構27を制御することで、車両11の走行方向の制御を行う。
ブレーキ制御部114は、フロントカメラECU22で得られた物体の検出結果、センサ部28からのセンサデータ等に基づいて制動装置34を制御することで、車両11の走行停止や減速の制御を行う。
アクセル制御部115は、フロントカメラECU22で得られた物体の検出結果、センサ部28からのセンサデータ等に基づいてエンジン35や駆動用モータ37を制御することで、車両11の発進や加速の制御を行う。
学習部116は、運転者が車両11に対して行った運転操作の履歴等に基づいて、運転者の運転技量や運転の傾向等の学習を行う。
なお、以下、ビーム制御部111、警告通知制御部112、ステアリング制御部113、ブレーキ制御部114、及び、アクセル制御部115をまとめて、車両制御部121と称する。
また、以下、図2及び図4のうち、図4の構成例を用いて説明を行う。
<1−2.フロントカメラモジュールの構成例>
次に、図5乃至図8を参照して、フロントカメラモジュール71の構成例について説明する。
図5及び図6は、フロントカメラモジュール71の外観の構成例を模式的に示している。図5は、車両11のウィンドシールド141近傍に設置された状態のフロントカメラモジュール71の外観を横から見た模式図であり、図6は、フロントカメラモジュール71のメイン基板152の構成を模式的に示す斜視図である。なお、図5では、図を分かりやすくするために、フロントカメラモジュール71の筐体151の側面が透過され、筐体151の内部が図示されている。
なお、以下、図5の右側、すなわち、ウィンドシールド141側をフロントカメラモジュール71の前側とする。
フロントカメラモジュール71は、車両11のルームミラー(不図示)近傍において、ウィンドシールド141に近接するように設置される。フロントカメラモジュール71の筐体151の前方は、ウィンドシールド141に合わせた形状となっている。筐体151内には、メイン基板152等の各部が格納されている。
メイン基板152の上面には、イメージセンサ用基板153が、FPC(Flexible printed circuits)154−1乃至154−nを介して、メイン基板152の上面に対して垂直、かつ、左右方向に延びるように設置されている。イメージセンサ用基板153の前面には、イメージセンサ82−1乃至82−nが、FPC154−1乃至154−nの位置に合わせて、左右に並ぶように配置されている。
また、メイン基板152の上面には、レンズ81−1乃至81−nが、イメージセンサ82−1乃至82−nの前方に、イメージセンサ82−1乃至82−nの位置に合わせて左右に並ぶように配置されている。レンズ81−1乃至81−nに入射した入射光は、イメージセンサ82−1乃至82−nの撮像面において、それぞれ結像する。このレンズ81−1乃至81−n、及び、イメージセンサ82−1乃至82−nにより、フロントセンシングカメラ21−1乃至21−nが構成される。従って、フロントカメラモジュール71は、フロントセンシングカメラ21−1乃至21−nによりn枚のセンシング画像を同時に撮像することが可能である。
さらに、メイン基板152の上面のイメージセンサ用基板153の後方には、フロントカメラECU22及びMCU83が配置されている。イメージセンサ82−1乃至82−nは、FPC154−1乃至154−nを介して、個別にフロントカメラECU22に電気的に接続されている。
なお、以下、フロントセンシングカメラ21−1乃至21−n、レンズ81−1乃至81−n、イメージセンサ82−1乃至82−nを個々に区別する必要がない場合、それぞれ単に、フロントセンシングカメラ21、レンズ81、イメージセンサ82と称する。
図7は、各フロントセンシングカメラ21の検出範囲(撮像範囲)の例を示している。図7は、フロントセンシングカメラ21−1乃至21−3の3台のフロントセンシングカメラ21が、フロントカメラモジュール71に設けられている場合の検出範囲の例を示している。
検出範囲A1乃至A3は、フロントセンシングカメラ21−1乃至21−3の検出範囲をそれぞれ示している。フロントセンシングカメラ21−1の視野角は最も広く、例えば約150度に設定される。一方、フロントセンシングカメラ21−1の検出距離は最も短く、例えば約20mに設定される。フロントセンシングカメラ21−2の視野角は2番目に広く、例えば約50度に設定される。フロントセンシングカメラ21−2の検出距離は2番目に長く、例えば約120mに設定される。フロントセンシングカメラ21−3の視野角は最も狭く、例えば約25度に設定される。フロントセンシングカメラ21−3の検出距離は最も長く、例えば約150mに設定される。
従って、フロントセンシングカメラ21−1乃至21−3(のセンシング画像)を使い分けることにより、車両11の前方において優先的に物体を検出する検出範囲(以下、優先検出範囲と称する)を変更することが可能になる。
図8は、フロントカメラECU22の機能の構成例を示している。フロントカメラECU22は、画像処理部171、物体検出部172、及び、学習部173を備える。
画像処理部171は、各イメージセンサ82から供給されたセンシング画像に対して、例えばゲイン調整やホワイトバランス調整、HDR処理などを施す。
物体検出部172は、画像処理部171により画像処理が施された各センシング画像に対して画像認識を行うとともに、センサ部28からのセンサデータに基づいて、車両11の周囲の物体検出処理を行う。例えば、物体検出部172は、歩行者、自転車等の軽車両、車両、ヘッドライト、ブレーキライト、区画線等の道路標示、縁石、路肩、ガードレール、道路標識等の検出や、前方の障害物(例えば、前方車両等)との衝突までの時間の検出等を行う。物体検出部172は、検出結果をMCU83に供給する。
学習部173は、物体検出部172の検出結果等に基づいて、車両11の周囲の物体の検出精度を向上させるための学習処理を行う。物体検出部172は、必要に応じて、学習部173による学習結果を用いて、物体検出処理を行う。
<1−3.合流支援処理>
次に、図9及び図10のフローチャートを参照して、車両11により実行される運転支援処理について説明する。この処理は、例えば、車両11が、道路の外から道路に進入し、道路内の車道に合流する場合(例えば、駐車場等から車道に合流する場合)の運転の支援を行う場合に実行される。
なお、以下、図11及び図12を具体例として挙げながら説明を行う。なお、本具体例においては、日本における法規を想定しているため車両は左側通行、歩行者は右側通行となっている。しかしながら、本技術は日本及び車両が左側通行の地域のみへの適用に限定されず、車両が右側通行の地域においても適用可能である。車両が右側通行の地域において本技術を適用する場合、例えば、本具体例の左右を反転させることで適用可能である。
図11及び図12は、車両11が、前方の道路201の外から道路201に進入し、道路201内の車道212に合流する場合の例を示している。
道路201は、車両11の前方に左右方向に延びている。道路201は、車両11に近い方から、歩道211、車道212、及び、歩道213により構成される。車道212は、車線221−1乃至221−4の4車線からなる。車線221−1及び車線221−2が、図内の右から左へ走行するための車線であり、車線221−3及び車線221−4が、図内の左から右へ走行するための車線である。
図11は、車両11が、左折しながら、歩道211を横断した後、車線221−1に合流する例を示している。図12は、車両11が、右折をしながら、歩道211、車線221−1、及び、車線221−2を横断した後、車線221−3に合流する例を示している。
なお、以下、車両11が合流する車線を合流車線と称する。例えば、図11の例では、車線221−1が合流車線となり、図12の例では、車線221−3が合流車線となる。また、以下、車両11が合流車線に合流する前に横断する車線を横断車線と称する。例えば、図11の例では、横断車線はなく、図12の例では、車線221−1及び車線221−2が横断車線となる。
なお、本明細書において、車道は、車両が通行することが想定される道路の部分とする。すなわち、本明細書において、車道は、法令上の車道だけでなく、車道とみなされる道路の部分も含む。
また、本明細書において、歩道は、歩行者が通行することが想定される道路の部分とする。従って、本明細書において、歩道は、法令上の歩道及び路側帯だけでなく、歩道とみなされる道路の部分も含む。なお、歩道には、歩行者に準ずるもの(例えば、自転車等の軽車両)の通行が想定されるものと想定されないものがある。
さらに、本明細書において、自転車道は、自転車が優先して通行することが想定される道路の部分とする。従って、本明細書において、自転車道は、法令上の自転車道だけでなく、自転車道とみなされる道路の部分も含む。なお、自転車道には、自転車だけでなく、自転車以外の軽車両が優先して通行することが想定されるものがある。
なお、以下、歩行者及び歩行者に準ずるものを合わせて、歩行者等と称する。
図9及び図10の運転支援処理は、例えば、車両11を起動し、運転を開始するための操作が行われたとき、例えば、車両11のイグニッションスイッチ、パワースイッチ、又は、スタートスイッチ等がオンされたとき開始される。その後、車両11は、前進を開始し、合流先の道路に近づいていく。
ステップS1において、車両11は、前方の監視を開始する。具体的には、各フロントセンシングカメラ21は、車両11の前方を撮像し、センシング画像をフロントカメラECU22に供給する処理を開始する。センサ部28の各物体検出用センサは、車両11の周囲の物体の有無及び物体までの距離等の検出を行い、検出結果を示すセンサデータを、バス72及びMCU83を介してフロントカメラECU22に供給したり、バス72を介して、ビーム制御部111、警告通知制御部112、ステアリング制御部113、ブレーキ制御部114、アクセル制御部115、及び、学習部116等に供給したりする処理を開始する。
物体検出部172は、各フロントセンシングカメラ21からのセンシング画像、及び、センサ部28からのセンサデータに基づいて、車両11の前方の物体の検出処理を開始する。例えば、物体検出部172は、車両11の前方の道路を検出するとともに、区画線等の道路標示、縁石、路肩、ガードレール等を検出することにより、道路の構成を検出する処理を開始する。また、物体検出部172は、MCU83及びバス72を介して、ビーム制御部111、警告通知制御部112、ステアリング制御部113、ブレーキ制御部114、アクセル制御部115、及び、学習部116等に、検出結果を供給する処理を開始する。
ステップS2において、物体検出部172は、車道の手前に歩道があるか否かを判定する。物体検出部172は、車両11の前方において、車道の手前に歩道があると判定した場合、処理はステップS3に進む。これは、車両11が車道に合流する前に歩道を横断する必要がある場合である。
ステップS3において、物体検出部172は、歩道までの距離が所定の範囲内であるか否かを判定する。例えば、物体検出部172は、センシング画像、及び、センサ部28からのセンサデータに基づいて、車両11の前方の歩道と車両11との間の最短距離を検出する。そして、物体検出部172は、検出した最短距離が所定の範囲内になるまで、ステップS3の判定処理を繰り返し実行する。そして、検出した最短距離が所定の範囲内であると判定された場合、処理はステップS4に進む。
ステップS4において、物体検出部172は、歩道の監視を優先する。例えば、物体検出部172は、歩道を優先検出範囲とする検出処理、並びに、歩行者等を優先的に検出する検出対象(以下、優先検出対象と称する)とする検出処理のうち少なくとも1つを開始する。
例えば、物体検出部172は、各フロントセンシングカメラ21のセンシング画像のうち、歩道の物体の検出処理に適したセンシング画像、例えば、画像内に歩道を多く含む画像を優先的に用いて検出処理を行う。また、物体検出部172は、センサ部28の各物体検出用センサのうち歩道の物体検出処理に適したセンサ、例えば、検出距離の短いセンサ、歩道を検出範囲に多く含むセンサ等のセンサデータを優先的に用いて検出処理を行う。或いは、物体検出部172は、センサ部28の各物体検出用センサの中に検出範囲を変更可能なセンサがある場合、そのセンサの検出範囲を、歩道を中心とする領域に変更する。これにより、歩道が優先検出範囲に設定される。
また、例えば、物体検出部172は、画像認識において、歩道を通行する可能性のある歩行者及び歩行者に準ずるもの(例えば、自転車等の軽車両等)を優先的に認識する対象に設定する。これにより、歩行者等が優先検出対象に設定される。
その結果、例えば、図11及び図12の例において、車両11が歩道211に所定の距離の範囲内に近づいたとき、歩道211を通行する歩行者等の検出処理が優先的に行われるようになる。
なお、状況や設定等により、検出範囲が優先検出範囲に限定される場合と限定されない場合がある。後者においては、優先検出範囲における検出処理が重点的に行われるが、その他の範囲における検出処理も行われる。同様に、状況や設定等により、検出対象が優先検出範囲対象に限定される場合と限定されない場合がある。後者においては、優先検出対象の検出処理が重点的に行われるが、その他の対象の検出処理も行われる。
ステップS5において、物体検出部172は、歩道に障害物が存在するか否かを判定する。例えば、物体検出部172は、歩道及びその近傍に存在する物体の位置、移動方向、及び、移動速度を検出する。そして、物体検出部172は、車両11がこのまま歩道に進入した場合に衝突又は接触する可能性がある物体が存在する場合、歩道に障害物が存在すると判定し、処理はステップS6に進む。
この障害物は、主に歩道を通行する歩行者や自転車等が想定される。例えば、図11又は図12の例において、歩道211内を歩行者や自転車が車両11に接近する方向に移動している場合、歩道に障害物が存在すると判定され、処理はステップS6に進む。
なお、物体検出部172は、歩道211内を歩行者や自転車が車両11に接近する方向に移動している場合と比較して、歩道211内を歩行者や自転車が車両11から遠ざかる方向に移動している場合の歩行者や自転車の検出範囲を狭く設定してもよい。具体的には、例えば、物体検出部172が、歩行者や自転車が車両11に接近する方向に移動している場合、車両から20mの範囲内に歩行者等が存在することで歩道に障害物が存在すると判定し、歩行者や自転車が車両11から遠ざかる方向に移動している場合、車両から10mの範囲内に歩行者等が存在することで歩道に障害物が存在すると判定するようにしてもよい。これは、車両11から遠ざかる方向に移動している歩行者等は、車両11との衝突可能性が比較的低いためである。これにより、車両11は円滑に車道へ進入することが可能となる。なお、歩行者や自転車が車両11からに接近する方向に移動しているか、遠ざかる方向に移動しているかの判定は、例えば、各フロントセンシングカメラ21が撮像したセンシング画像の複数のフレーム間の差分を用いて実行される。
ステップS6において、表示部24及び音声出力部25は、警告通知制御部112の制御の下に、表示画像、音声メッセージ、警告音等により、運転者への警告を行う。例えば、歩道を横断できない旨を通知したり、障害物に対する運転者の注意を喚起したりするための警告が行われる。
図13は、運転者に警告する方法の一例を示している。この例では、車両11の左前方から歩行者251が接近している例が示されている。
また、この例では、表示部24は、車両11のステアリングホイール261及びダッシュボード262の上方において、ウィンドシールド141に重畳して設けられた透過型ディスプレイ、又は、コンバイナ式ヘッドアップディスプレイにより構成されている。従って、表示部24が運転者の視界に入り、運転者が運転中に容易に視認することができる。そして、表示部24には、歩行者への注意を促すメッセージとともに歩行者の位置を示す矢印が表示されている。これにより、運転者が歩行者251の存在に気付き、車両11が歩行者251に衝突又は接触することが防止される。
なお、この例では、ルームミラー263の下にフロントカメラモジュール71が設置されている。
ステップS7において、車両制御部121は、歩道への進入を禁止する。例えば、ブレーキ制御部114は、制動装置34を制御して、車両11を停止させる。これにより、車両11の歩道への進入が制止され、車両11が歩道の障害物(例えば、歩行者、自転車等)に衝突又は接触することが防止される。また、アクセル制御部115は、エンジン35や駆動用モータ37を制御して、車両11の発進を禁止する。
なお、このとき、ブレーキ制御部114は、障害物への衝突予測時間に応じて制動装置34の動作度合いを調整してもよい。例えば、ブレーキ制御部114は、障害物への衝突予測時間が短い場合、最大の制動力が出るように制動装置34を制御する。一方、ブレーキ制御部114は、障害物への衝突予測時間が比較的長い場合、乗員の乗り心地が悪化しない程度の制動力で制動装置34を制御する。乗り心地が悪化しない程度の制動力とは、例えば、車速検出部41において算出されたジャーク値が所定閾値以下となる制動力である。なお、障害物への衝突予測時間は、車両11と障害物との距離、車両11の車速、及び、車両11の加速度に基づいて算出される。
その後、処理はステップS5に戻り、ステップS5において、歩道に障害物が存在しないと判定されるまで、ステップS5乃至S7の処理が繰り返し実行される。これにより、障害物が存在すると判定されている間、車両11の歩道への進入が禁止される。
一方、ステップS5において、歩道に障害物が存在しないと判定された場合、処理はステップS8に進む。
ステップS8において、表示部24及び音声出力部25は、警告通知制御部112の制御の下に、表示画像、音声メッセージ、効果音等により、歩道横断可の案内を行う。例えば、歩道を横断可能である旨を通知するための案内や、車両11を発進させるタイミングの提示等が行われる。
ステップS9において、車両制御部121は、歩道への進入を許可する。具体的には、ステップS7において、歩道への進入が禁止されている場合、アクセル制御部115は、エンジン35や駆動用モータ37を制御して、車両11の発進の禁止を解除する。これにより、車両11の歩道への進入が許可される。その後、車両11は、前進を再開し、歩道に進入し、合流先の車道に近づいていく。
一方、歩道への進入が禁止されていない場合、ステップS9において、特に処理は行われない。
その後、処理はステップS10に進む。
一方、ステップS2において、車道の手前に歩道がないと判定された場合、ステップS3乃至S9の処理はスキップされ、処理はステップS10に進む。
ステップS10において、物体検出部172は、車道までの距離が所定の範囲内であるか否かを判定する。例えば、物体検出部172は、車両11が車道に進入する前に、センシング画像、及び、センサ部28からのセンサデータに基づいて、車両11の前方の車道と車両11との間の最短距離を検出する。そして、物体検出部172は、検出した最短距離が所定の範囲内になるまで、ステップS10の判定処理を繰り返し実行する。そして、検出した最短距離が所定の範囲内であると判定された場合、処理はステップS11に進む。
ステップS11において、物体検出部172は、合流車線以外の車線を横断するか否かを判定する。具体的には、物体検出部172は、図示せぬ車両11の方向指示スイッチの位置に基づいて、車両11が左折又は右折のいずれを行うかを検出する。そして、例えば、物体検出部172は、左側通行の地域で左折する場合、又は、右側通行の地域で右折する場合、例えば図11の例の場合、合流車線以外の車線を横断しないと判定する。一方、物体検出部172は、左側通行の地域で右折する場合、又は、右側通行の地域で左折する場合、例えば図12の例の場合、合流車線以外の車線を横断すると判定する。
なお、道路の構成等によっては、左側通行の地域で左折する場合、又は、右側通行の地域で右折する場合でも、合流車線以外の車線を横断すると判定される場合がある。例えば、車両11が片側2車線以上の車道の内側の車線に合流する場合、例えば、図11の例において、車線221−1を横断して車線221−2に合流する場合等である。
また、道路の構成等によっては、左側通行の地域で右折する場合、又は、右側通行の地域で左折する場合でも、合流車線以外の車線を横断しないと判定される場合がある。例えば、車両11が合流する道路が一方通行である場合等である。
そして、合流車線以外の車線を横断しないと判定された場合、処理はステップS12に進む。
ステップS12において、物体検出部172は、合流車線の監視を優先する。具体的には、物体検出部172は、合流車線を優先検出範囲とする検出処理、及び、他の車両を優先検出対象とする検出処理のうち少なくとも1つを開始する。
例えば、物体検出部172は、各フロントセンシングカメラ21のセンシング画像のうち、合流車線の物体の検出処理に適したセンシング画像、例えば、画像内に合流車線を多く含む画像を優先的に用いて検出処理を行う。また、物体検出部172は、センサ部28の各物体検出用センサのうち合流車線の物体検出処理に適したセンサ、例えば、検出距離の長いセンサ、合流車線を検出範囲に多く含むセンサ等のセンサデータを優先的に用いて検出処理を行う。或いは、物体検出部172は、センサ部28の各物体検出用センサの中に検出範囲を変更可能なセンサがある場合、そのセンサの検出範囲を、合流車線を中心とする領域に変更する。これにより、合流車線が優先検出範囲に設定される。
また、例えば、物体検出部172は、画像認識において、他の車両を優先的に認識する対象に設定する。これにより、他の車両が優先検出対象に設定される。
その結果、例えば、図11の例において、車両11が車道212に所定の距離の範囲内に近づいたとき、合流車線である車線221−1の車両の検出が優先的に行われるようになる。
なお、合流車線のうち車両11に接近する他の車両(以下、接近車と称する)が存在する可能性のある領域、すなわち、合流車線において車両11が合流する位置より後方の領域を、特に優先的に物体の検出を行う範囲に設定することが望ましい。これにより、合流車線において車両11が合流する位置に接近する接近車の検出処理が優先的に行われるようになる。
また、ステップS4の処理と同様に、状況や設定等により、検出範囲が優先検出範囲に限定される場合と限定されない場合がある。同様に、状況や設定等により、検出対象が優先検出範対象に限定される場合と限定されない場合がある。
ステップS13において、物体検出部172は、合流車線に障害物が存在するか否かを判定する。例えば、物体検出部172は、合流車線及びその近傍に存在する物体の位置、移動方向、及び、移動速度を検出する。そして、物体検出部172は、車両11がこのまま合流車線に進入した場合に衝突又は接触する可能性がある物体が存在する場合、合流車線に障害物が存在すると判定し、処理はステップS16に進む。
この障害物は、主に合流車線において車両11が合流する位置に接近する接近車が想定される。例えば、図11の例において、他の車両が車線221−1内を右側から車両11が合流する位置に接近している場合、合流車線に障害物が存在すると判定され、処理はステップS16に進む。
一方、ステップS11において、合流車線以外の車線を横断すると判定された場合、処理はステップS14に進む。
ステップS14において、物体検出部172は、横断車線及び合流車線の監視を優先する。具体的には、物体検出部172は、横断車線及び合流車線を優先検出範囲とする検出処理、及び、他の車両を優先検出対象とする検出処理のうち少なくとも1つを開始する。
例えば、物体検出部172は、各フロントセンシングカメラ21のセンシング画像のうち、横断車線又は合流車線の物体の検出処理に適したセンシング画像、例えば、画像内に横断車線又は合流車線を多く含む画像を優先的に用いて検出処理を行う。また、物体検出部172は、センサ部28の各物体検出用センサのうち横断車線又は合流車線の物体検出処理に適したセンサ、例えば、検出距離の長いセンサ、横断車線又は合流車線を検出範囲に多く含むセンサ等のセンサデータを優先的に用いて検出処理を行う。或いは、物体検出部172は、センサ部28の各物体検出用センサの中に検出範囲を変更可能なセンサがある場合、そのセンサの検出範囲を、横断車線及び合流車線を中心とする領域に変更する。これにより、横断車線及び合流車線が優先検出範囲に設定される。
また、例えば、物体検出部172は、画像認識において、他の車両を優先的に認識する対象に設定する。これにより、他の車両が優先検出対象に設定される。
その結果、例えば、図12の例において、車両11が車道212に所定の距離の範囲内に近づいたとき、横断車線である車線221−1及び221−2、並びに、合流車線である車線221−3の車両の検出が優先的に行われるようになる。
なお、横断車線及び合流車線のうち車両11に接近する接近車が存在する可能性のある領域、すなわち、横断車線において車両11が横断する位置より後方の領域、並びに、合流車線において車両11が合流する位置より後方の領域を、特に優先的に物体の検出を行う範囲に設定することが望ましい。これにより、横断車線及び合流車線において車両11が横断又は合流する位置に接近する接近車の検出処理が優先的に行われるようになる。
また、ステップS4及びS12の処理と同様に、状況や設定等により、検出範囲が優先検出範囲に限定される場合と限定されない場合がある。同様に、状況や設定等により、検出対象が優先検出範対象に限定される場合と限定されない場合がある。
なお、ステップS9において歩道への進入が許可されてから、ステップS12において合流車線の監視を優先するか、ステップS14において横断車線及び合流車線の監視が優先するまでの間、優先的に監視する対象を定めてもよいし、定めなくてもよい。例えば、優先的に監視する対象を定める場合、車両11が歩道に進入するまでは、歩道の監視を優先的に行い、車両11が歩道に進入した後は、合流車線、又は、横断車線と合流車線の監視を優先的に行うようにしてもよい。或いは、ステップS10において、車道までの距離が所定の範囲内であると判定されるまで、歩道の監視を優先する処理を継続してもよい。
ステップS15において、物体検出部172は、横断車線又は合流車線に障害物が存在するか否かを判定する。例えば、物体検出部172は、横断車線及び合流車線、並びに、それらの近傍に存在する物体の位置、移動方向、及び、移動速度を検出する。そして、物体検出部172は、検出結果に基づいて、車両11がこのまま横断車線又は合流車線に進入した場合に衝突又は接触する可能性がある物体が存在する場合、横断車線又は合流車線に障害物が存在すると判定し、処理はステップS16に進む。
この障害物は、主に横断車線において車両11が横断する位置に接近する接近車、及び、合流車線において車両11が合流する位置に接近する接近車が想定される。例えば、図12の例において、他の車両が車線221−1又は221−2内を右側から車両11が横断する位置に接近している場合、或いは、他の車両が車線221−3内を左側から車両11が合流する位置に接近している場合、横断車線又は合流車線に障害物が存在すると判定され、処理はステップS16に進む。
ステップS16において、表示部24及び音声出力部25は、警告通知制御部112の制御の下に、表示画像、音声メッセージ、警告音等により、運転者への警告を行う。例えば、車道に進入できない旨を通知したり、障害物に対する運転者の注意を喚起したりするための警告が行われる。
ステップS17において、車両制御部121は、車道への進入を禁止する。例えば、ブレーキ制御部114は、制動装置34を制御して、車両11を停止させる。これにより、車両11の車道への進入が制止され、車両11が車道の障害物(例えば、他の車両等)に衝突又は接触することが防止される。また、アクセル制御部115は、エンジン35や駆動用モータ37を制御して、車両11の発進を禁止する。
その後、処理はステップS11に戻り、ステップS13において、合流車線に障害物が存在しないと判定されるか、ステップS15において、横断車線及び合流車線に障害物が存在しないと判定されるまで、ステップS11乃至S17の処理が繰り返し実行される。これにより、障害物が存在すると判定されている間、車両11の車道への進入が禁止される。また、車両11の車道への進入が禁止されている間に、車両11が合流する方向が変更された場合、優先的に監視する領域が変更される。
一方、ステップS13において、合流車線に障害物が存在しないと判定された場合、又は、ステップS15において、横断車線及び合流車線に障害物が存在しないと判定された場合、処理はステップS18に進む。
ステップS18において、車両11は、車道への進入を許可する。具体的には、ステップS17において、車道への進入が禁止されている場合、アクセル制御部115は、エンジン35や駆動用モータ37を制御して、車両11の発進の禁止を解除する。これにより、車両11の車道への進入が許可される。
一方、車道への進入が禁止されていない場合、ステップS18において、特に処理は行われない。
ステップS19において、物体検出部172は、合流先の監視を優先する。ここで、合流先とは、合流車線において車両11が合流する位置より前方の領域である。物体検出部172は、合流先の状況を優先的に検出する検出処理を開始する。
例えば、物体検出部172は、各フロントセンシングカメラ21のセンシング画像のうち、合流先の監視に適したセンシング画像、例えば、画像内に合流先を多く含む画像を優先的に用いて監視を行う。また、物体検出部172は、センサ部28の各物体検出用センサのうち合流先の物体検出処理に適したセンサ、例えば、検出距離の長いセンサ、合流先を検出範囲に多く含むセンサ等のセンサデータを優先的に用いて検出処理を行う。或いは、物体検出部172は、センサ部28の各物体検出用センサの中に検出範囲を変更可能なセンサがある場合、そのセンサの検出範囲を、合流先を中心とする領域に変更する。これにより、合流先が優先検出範囲に設定される。
また、物体検出部172は、合流先に存在する可能性のある車両、歩行者、交通信号、横断法道等を優先検出対象に設定される。
これにより、合流先の状況の検出処理が優先的に行われるようになる。例えば、図11の例において、車線221−1の車両11が合流する位置より前方の車両、歩行者、交通信号、横断歩道等の検出処理が優先的に行われるようになる。また、例えば、図12の例において、車線221−3の車両11が合流する位置より前方の車両、歩行者、交通信号、横断歩道等の検出処理が優先的に行われるようになる。
ステップS20において、物体検出部172は、合流先に駐車車両があるか否かを判定する。合流先に駐車車両があると判定された場合、処理はステップS21に進む。
ステップS21において、警告通知制御部112は、駐車車両ありの警告情報を生成する。
その後、処理はステップS22に進む。
一方、ステップS20において、合流先に駐車車両がないと判定された場合、ステップS21の処理はスキップされ、処理はステップS22に進む。
ステップS22において、物体検出部172は、合流先が渋滞しているか否かを判定する。合流先が渋滞していると判定された場合、処理はステップS23に進む。
ステップS23において、警告通知制御部112は、渋滞ありの警告情報を生成する。
その後、処理はステップS24に進む。
一方、ステップS22において、合流先が渋滞していないと判定された場合、ステップS23の処理はスキップされ、処理はステップS24に進む。
ステップS24において、物体検出部172は、合流先の横断歩道に歩行者等がいるか否かを判定する。物体検出部172は、合流先に横断歩道があり、かつ、横断歩道に歩行者等がいる場合、合流先の横断歩道に歩行者等がいると判定し、処理はステップS25に進む。
ステップS25において、警告通知制御部112は、歩行者等ありの警告情報を生成する。
その後、処理はステップS26に進む。
一方、ステップS24において、合流先の横断歩道に歩行者等がいないと判定された場合、又は、合流先に横断歩道がないと判定された場合、ステップS25の処理はスキップされ、処理はステップS26に進む。
ステップS26において、物体検出部172は、合流先の交通信号が通行許可であるか否かを判定する。物体検出部172は、合流先に交通信号があり、かつ、交通信号が通行許可でない場合(例えば、交通信号が黄又は赤である場合)、合流先の交通信号が通行許可でないと判定し、処理はステップS27に進む。
なお、合流先の交通信号を検出する際は、フロントカメラECU22またはイメージセンサ82の少なくともいずれか一方が、交通信号のフリッカ補正処理を実行することが望ましい。これにより、確実に交通信号の点灯状態を判定することができる。
ステップS27において、警告通知制御部112は、交通信号が通行許可でない旨の警告情報を生成する。
その後、処理はステップS28に進む。
一方、ステップS26において、合流先の交通信号が通行許可であると判定された場合(例えば、合流先の交通信号が青である場合)、又は、合流先に交通信号がないと判定された場合、ステップS27の処理はスキップされ、処理はステップS28に進む。
ステップS28において、警告通知制御部112は、警告情報があるか否かを判定する。警告通知制御部112は、ステップS21、ステップS23、ステップS25、及び、ステップS27の全ての処理をスキップした場合、警告情報がないと判定し、処理はステップS29に進む。
ステップS29において、表示部24及び音声出力部25は、警告通知制御部112の制御の下に、表示画像、音声メッセージ、効果音等により、合流可の案内を行う。例えば、運転者に合流車線への合流が可能である旨が通知される。
また、例えば、必要に応じて、車両11を合流車線に合流させるための案内が提示される。例えば、車両11を合流させるタイミング、速度、左折又は右折する方向等が、図13の表示部24において運転者に提示される。例えば、合流タイミングは、車両11を合流車線に合流させるために発進させるのに適したタイミングまでの残り時間が、カウントダウン形式(例えば、3秒後、1秒後等)で提示される。或いは、合流タイミングは、”まもなく”、”すぐ”等の感覚的な表現で提示される。また、左折又は右折する方向として、例えば、推奨するステアリングホイールの回転角が提示される。これにより、運転技量が低い運転者でも、楽に車両11を合流車線に合流させることができる。
なお、この発進タイミング、速度、左折又は右折する方向は、例えば、合流車線及び横断車線の幅、合流車線又は横断車線の接近車の速度、並びに、歩道と車道との間の段差等に基づいて設定される。さらに、この発進速度は、車速検出部41において検出される加速度の微分(ジャーク)に基づいて、乗員の乗り心地を考慮した発進速度が設定されてもよい。
また、車両11を合流車線に合流させるための案内の一部又は全部を、ステップS18の処理の前後に提示するようにすることも可能である。
その後、運転支援処理は終了する。
一方、ステップS28において、警告通知制御部112は、ステップS21、ステップS23、ステップS25、及び、ステップS27の少なくとも1つの処理において、警告情報を生成している場合、警告情報があると判定し、処理はステップS30に進む
ステップS30おいて、表示部24及び音声出力部25は、警告通知制御部112の制御の下に、表示画像、音声メッセージ、警告音等により、該当する警告を行う。例えば、合流先に駐車車両がある旨、合流先が渋滞している旨、合流先の横断歩道に歩行者がいる旨、又は、合流先の交通信号が通行許可でない旨を通知したり、運転者に注意を喚起したりするための警告が行われる。
また、例えば、ステップS29の処理と同様に、車両11を合流車線に合流させるための案内が提示される。
さらに、例えば、車両制御部121は、必要に応じて、危険要因を避けるように車両11の走行を制御する。ここで、危険要因とは、例えば、合流先の駐車車両、合流先の渋滞車両、若しくは、合流先の横断歩道の歩行者への衝突や接触、又は、合流先の交通信号の無視等である。例えば、ブレーキ制御部114が、制動装置34を制御して、車両11を減速又は停止させたり、ステアリング制御部113が、ステアリング機構27を制御して、車両11の走行方向を制御したりすることにより、危険要因が回避される。
また、片側二車線以上の車道に合流する場合、警告通知制御部112は、表示部24や音声出力部25を制御して、渋滞している車線と異なる車線に合流するよう案内するようにしてもよい。例えば、図11の例の場合、車線221−1が渋滞しており、車線221−2が渋滞していない場合、車線221−2に合流するように案内が行われる。また、図12の例の場合、車線221−3が渋滞しており、車線221−4が渋滞していない場合、車線221−4に合流するように案内が行われる。
その後、運転支援処理は終了する。
なお、ステップS19以降の処理は、車両11が車道に進入する前又は進入した後のいずれのタイミングで行われてもよい。ただし、運転者の運転技能が低い場合には、ステップS29又はS30において、車両11を車道に進入及び合流させるための案内を提示してから、車道に進入するようにすることが望ましい。
以上のようにして、車両が道路の外から道路に進入する場合の運転の支援が適切に行われる。その結果、運転者は、道路の外から道路内の所望の車線に車両11を容易に合流させることができる。
<<2.変形例>>
以下、上述した本開示に係る技術の実施の形態の変形例について説明する。
<2−1.物体検出処理に関する変形例>
以上の説明では、車両11と道路との間の距離に基づいて、物体の検出方法を変更する例を示した。具体的には、車両11と歩道との間の距離が所定の範囲内である場合、歩道の歩行者等を優先的に検出する処理が行われ、車両11と車道との間の距離が所定の範囲内である場合、車道(合流車線又は横断車線と合流車線)の他の車両を優先的に検出する処理が行われる例を示した。
一方、距離以外の車両11と道路との位置関係に基づいて、物体の検出方法を変更するようにしてもよい。例えば、車両11が進入する道路に歩道がある場合、車両11が歩道に進入するまでは、車両11と歩道との間の距離に関わらず、歩道の歩行者等を優先的に検出する処理が行われるようにしてもよい。そして、車両11が歩道に進入した後は(車両11と歩道との間の距離が0になった後は)、車両11と車道との間の距離に関わらず、車道の他の車両を優先的に検出する処理が行われるようにしてもよい。
また、例えば、車両11が進入する道路に歩道がない場合、車両11が車道に進入するまで、車両11と車道との間の距離に関わらず、車道の他の車両を優先的に検出する処理が行われるようにしてもよい。
さらに、以上の説明では、車両11が他の車線を横断するか否かで、優先検出領域を変更する例を示したが、車両11が他の車線を横断するか否かで、優先検出領域を変更しないようにしてもよい。例えば、車両11が他の車線を横断するか否かに関わらず、車両11が進入する車道の全ての車線を優先検出領域に設定するようにしてもよい。
また、例えば、センシング画像以外にも、必要に応じて、前方画像、後方画像、及び、側方画像等を用いて、物体検出処理を行うようにしてもよい。
さらに、例えば、本技術は、フロントセンシングカメラ21又は物体検出用センサのいずれかを用いて物体検出処理を行う場合にも適用することができる。また、例えば、本技術は、複数のフロントセンシングカメラ21を用いずに、1台のフロントセンシングカメラ21を用いて物体検出処理を行う場合にも適用することができる。同様に、本技術は、複数の物体検出用センサを用いずに、1つの物体検出用センサを用いて物体検出処理を行う場合にも適用することができる。
<2−2.運転支援に関する変形例>
例えば、図14に示されるように、歩道と車道の間に自転車道が設けられる場合がある。具体的には、図14の道路301は、車両11に近い方から、歩道311、自転車道312、車道313、自転車道314、及び、歩道315により構成される。車道313は、車線321−1乃至321−4の4車線からなる。
この場合、例えば、車両11が歩道311に進入した後、自転車道312に進入する前に、自転車道の監視が優先的に行われる。例えば、自転車道を優先検出範囲とする検出処理、並びに、自転車及び自転車に準ずるものを優先検出対象とする検出処理のうち少なくとも1つが行われる。そして、自転車道に障害物が存在すると判定された場合、車両11の自転車道への進入が禁止され、自転車道に障害物が存在しないと判定された場合、車両11の自転車道への進入が許可される。
また、例えば、図15に示されるように、駐車場等において、車道に合流するための出入口が2つ以上設けられている場合、より車道に合流しやすい出入口に誘導するようにしてもよい。
図15の道路351は、車両11に近い方から、歩道361、車道362、及び、歩道363により構成される。車道362は、車線371−1乃至371−4の4車線からなる。また、出入口352−1及び352−2が、歩道361側の道路351への出入口として設けられている。さらに、車線371−1又は371−2は、出入口352−2より左側において渋滞している。
例えば、車両11が、車線371−1に合流する場合に出入口352−1から出ると、渋滞中の車両により車線371−1に合流することが難しくなる。一方、車両11が、出入口352−2から出ると、渋滞中の車両がないため、出入口352−1から出た場合と比べて、車線371−2に合流しやすくなる。
そこで、例えば、物体検出部172が、出入口352−1及び352−2の位置、並びに、車線371−1及び371−2の渋滞状況を検出する。そして、警告通知制御部112は、検出結果に基づいて、表示部24及び音声出力部25を制御して、出入口352−2から出るように運転者を誘導するための案内等を提示する。
なお、上記の例以外にも、例えば、見通しの良い出入口、歩道において接近してくる歩行者等を検出しやすい出入口等に誘導するようにしてもよい。
また、合流車線や横断車線が渋滞している場合、運転技量の低い運転者にとって、渋滞中の車両の合間を縫って、合流車線に合流することは難しい。そこで、車両11が、合流車線に合流するための案内を行うようにしてもよい。例えば、物体検出部172が、合流車線又は横断車線を走行中の車両の車間距離、車両の速度、及び、道を譲るために停止する車両等を検出する。そして、警告通知制御部112は、検出結果に基づいて、表示部24及び音声出力部25を制御して、渋滞中の車両の合間を縫って、合流車線に合流するタイミング等の案内を提示するようにしてもよい。
さらに、例えば、図16に示されるように、道路に進入する前にガードレール等の障害物が存在する場合、障害物を避けて道路に進入するように運転者を誘導するようにしてもよい。
図16の道路401は、車両11に近い方から、歩道411、車道412、及び、歩道413により構成される。車道412は、車線421−1乃至421−4の4車線からなる。また、歩道411の外側にガードレール402が設置されており、車両11は、ガードレール402の隙間402Aから道路401に進入する必要がある。
この場合、例えば、物体検出部172は、ガードレール402の位置等を検出する。ステアリング制御部113は、車両11の位置及び姿勢、並びに、ガードレール402の位置に基づいて、ステアリングを目一杯切った場合、ガードレール402に接触せずに、隙間402Aから道路401に進入できるか否かを判定する。そして、ガードレール402に接触すると判定された場合、警告通知制御部112は、表示部24や音声出力部25を制御して、運転者に対して警告を行ったり、運転を支援するための案内を提示したりする。その後、車両11がガードレール402に接触せずに、隙間402Aから道路401に進入できる状態になったとき、警告通知制御部112は、表示部24や音声出力部25を制御して、道路401に進入することが可能である旨を通知する。
また、以上の説明では、車両11が道路の外から道路に進入し、合流する場合の例を示したが、本技術は、例えば、図17に示されるように、車両11が道路を走行中に、交差点を左折又は右折して、交差する他の道路に合流する場合にも適用することができる。
図17の例では、車両11は、道路452を走行中である。そして、車両11の前方には、道路452に対して垂直に道路451が交差している。道路451は、車両11に近い方から、歩道461、車道462、及び、歩道463により構成される。車道462は、車線471−1乃至471−4の4車線からなる。道路451と道路452が接続する部分において、歩道461上に横断歩道464が表示されている。
この場合も、図10及び図11を参照して上述した処理により、車両11の運転を支援することができる。すなわち、車両11が横断歩道464(歩道461)に進入する前に、図11又は図12の歩道211に進入する前と同様の処理を行い、車両11が車道461に進入する前に、図11又は図12の車道212に進入する前と同様の処理を行うようにすればよい。
さらに、運転者の運転技量に応じて、警告や案内等の提示の有無や内容を変更するようにしてもよい。例えば、運転技量の低い運転者のみに合流車線に合流するための案内を提示し、それ以外の運転者には、案内を提示しないようにしてもよい。
なお、運転者の運転技量は、上述したように学習部116が学習するようにしてもよいし、運転者が自ら設定するようにしてもよい。或いは、例えば、車両11からサーバ(不図示)に運転者の運転操作の履歴等のデータを提供し、サーバにおいて運転者の運転技量を学習するようにしてもよい。さらに、車室内に設置された運転者認識用カメラを用いて、予め登録された運転者情報と運転者認識用カメラの撮像画像との比較を行い、運転者の運転技量を設定してもよい。
また、例えば、物体検出部172が、腕の動き等に基づいて交通整理を行う係員を検出するようにしてもよい。そして、係員が検出された場合には、上記の運転支援処理を停止し、物体検出部172が係員のジェスチャを認識し、車両制御部121は、認識したジェスチャによる指示に従って、車両11の走行を制御するようにしてもよい。ジェスチャの認識については、種々のセンサまたはフロントカメラを用いることができるが、TOFセンサを用いることが最も望ましい。
さらに、例えば、フロントカメラECU22の学習部173が、歩き方、表情、視線方向等に基づいて、各歩行者等が車両11に道を譲るために停止するか否かを判別するための学習処理を行うようにしてもよい。そして、例えば、物体検出部172は、車両11が歩道に進入する際に車両11の方向に接近している歩行者等を検出した場合、学習結果に基づいて、その歩行者等が停止するか否か判定するようにしてもよい。そして、歩行者等が停止すると判定された場合、例えば、車両制御部121は、車両11の歩道への進入を制止せずに、車両11を歩道に進入させるようにしてもよい。また、その際、例えば、警告通知制御部112は、カーホーン(クラクション)を鳴らす等により、その歩行者に対して何らかの合図を送るようにしてもよい。さらに、警告通知制御部112は、検出された歩行者等が停止することが予想される旨等を運転者に通知するようにしてもよい。
<2−3.その他の変形例>
例えば、学習部173が、道路の構成を検出するための学習処理(例えば、車道と歩道とを識別するための学習処理)を行うようにしてもよい。そして、物体検出部172は、学習結果に基づいて、合流する道路の構成を検出するようにしてもよい。これにより、例えば、歩道と車道の境界が分かりにくい道路や、法令上の歩道が設けられていない車道において、実質的に歩行者等が通行する歩道を正確に検出することが可能になる。
なお、上記の学習処理は、必ずしも車両11単独で行う必要はない。例えば、各車両からサーバ(不図示)にデータを提供し、サーバにおいて学習処理を行い、サーバから各車両に学習結果を提供するようにしてもよい。これにより、より多くのデータに基づいて学習処理を行うことができ、道路の構成の検出精度を向上させることができる。
<2−4.適用例>
本技術は、車両の動力源やエネルギー供給源に関わらず、各種の車両に適用することができる。例えば、本技術は、ガソリン車、ハイブリッド車、プラグインハイブリッド車、電気自動車、燃料電池車等に適用することができる。また、本技術は、一般的な自動車以外にも、バス、トラック、自動二輪車等の車道を走行する各種の車両に適用することができる。
また、本技術は、自律運転を行う車両(以下、自動運転車と称する)にも適用することができる。すなわち、自動運転車においても、上記の技術を適用することにより、障害物への衝突又は接触を避け、適切なタイミングで合流車線に合流することができる。なお、上記の技術を自動運転車に適用する場合、車両の発進や制動の制御が自動で行われるが、制動については運転者の操作による制御を優先させるように設定されていてもよい。
なお、自動運転車に本技術を適用する場合、搭乗者が、警告通知制御部112による案内等に従って、自動運転を開始するボタンを押下する等により、自動運転車を発進させるタイミング等を制御するようにしてもよい。
<<3.その他>>
<3−1 コンピュータの構成例>
上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウェアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
図18は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。
コンピュータにおいて、CPU(Central Processing Unit)501,ROM(Read Only Memory)502,RAM(Random Access Memory)503は、バス504により相互に接続されている。
バス504には、さらに、入出力インターフェース505が接続されている。入出力インターフェース505には、入力部506、出力部507、記録部508、通信部509、及びドライブ510が接続されている。
入力部506は、入力スイッチ、ボタン、マイクロホン、撮像素子などよりなる。出力部507は、ディスプレイ、スピーカなどよりなる。記録部508は、ハードディスクや不揮発性のメモリなどよりなる。通信部509は、ネットワークインターフェースなどよりなる。ドライブ510は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブル記録媒体511を駆動する。
以上のように構成されるコンピュータでは、CPU501が、例えば、記録部508に記録されているプログラムを、入出力インターフェース505及びバス504を介して、RAM503にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ(CPU501)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブル記録媒体511に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
コンピュータでは、プログラムは、リムーバブル記録媒体511をドライブ510に装着することにより、入出力インターフェース505を介して、記録部508にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部509で受信し、記録部508にインストールすることができる。その他、プログラムは、ROM502や記録部508に、あらかじめインストールしておくことができる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。また、複数のコンピュータが連携して上述した処理が行われるようにしてもよい。上述した処理を行う単数または複数のコンピュータから、コンピュータシステムが構成される。
なお、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
また、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
さらに、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
また、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
<3−2.構成の組み合わせ例>
本技術は、以下のような構成をとることもできる。
(1)
車両の前方を撮像する撮像部と、
前記撮像部により撮像された撮像画像に基づいて物体検出処理を行う物体検出部と
を備え、
前記物体検出部は、前記車両と前記車両が外から進入する道路との位置関係に基づいて、物体の検出方法を変更する
撮像装置。
(2)
前記物体検出部は、前記車両と前記道路との位置関係に基づいて、優先的に物体の検出を行う優先検出範囲、及び、優先的に検出を行う優先検出対象のうち少なくとも1つを変更する
前記(1)に記載の撮像装置。
(3)
前記物体検出部は、前記車両が前記道路内の車道に進入する前に、前記車道を前記優先検出範囲とする検出処理、及び、他の車両を前記優先検出対象とする検出処理のうち少なくとも1つを行う
前記(2)に記載の撮像装置。
(4)
前記物体検出部は、前記車両が前記車道内の第1の車線に合流する場合、前記車両が前記車道に進入する前に、前記第1の車線において前記車両が合流する位置に接近する他の車両の検出処理を優先的に行う
前記(3)に記載の撮像装置。
(5)
前記物体検出部は、前記車両が前記第1の車線に合流する前に前記車道内の第2の車線を横断する場合、前記車両が前記車道に進入する前に、さらに前記第2の車線において前記車両が横断する位置に接近する他の車両の検出処理を優先的に行う
前記(4)に記載の撮像装置。
(6)
前記物体検出部は、前記車道において障害物が検出されない場合、前記車両が前記車道に合流する合流先の状況の検出処理を優先的に行う
前記(3)乃至(5)のいずれかに記載の撮像装置。
(7)
前記物体検出部は、前記車両が前記道路内の歩道に進入する前に、前記歩道を前記優先検出範囲とする検出処理、及び、歩行者を前記優先検出対象とする検出処理のうち少なくとも1つを行う
前記(2)乃至(6)のいずれかに記載の撮像装置。
(8)
前記撮像部は、撮像範囲が異なる複数のカメラを備え、
前記物体検出部は、前記車両と前記道路との位置関係に基づいて、優先的に物体検出処理に用いる前記カメラを変更する
前記(1)乃至(7)のいずれかに記載の撮像装置。
(9)
前記物体検出部は、前記車両と前記道路との間の距離に基づいて、物体の検出方法を変更する
前記(1)乃至(8)のいずれかに記載の撮像装置。
(10)
車両の前方を撮像した撮像画像に基づいて物体検出処理を行う物体検出部を
備え、
前記物体検出部は、前記車両と前記車両が外から進入する道路との位置関係に基づいて、物体の検出方法を変更する
信号処理装置。
(11)
車両の前方を撮像する撮像部と、
前記撮像部により撮像された撮像画像に基づいて物体検出処理を行う物体検出部と、
前記物体検出部による物体の検出結果に基づいて、前記車両の制御を行う車両制御部と
を備え、
前記物体検出部は、前記車両と前記車両が外から進入する道路との位置関係に基づいて、物体の検出方法を変更する
車両制御システム。
(12)
前記物体検出部は、前記車両と前記道路との位置関係に基づいて、優先的に物体の検出を行う優先検出範囲、及び、優先的に検出を行う優先検出対象のうち少なくとも1つを変更する
前記(11)に記載の車両制御システム。
(13)
前記物体検出部は、前記車両が前記道路内の車道に進入する前に、前記車道を前記優先検出範囲とする検出処理、及び、他の車両を前記優先検出対象とする検出処理のうち少なくとも1つを行い、
前記車両制御部は、前記車道において障害物が検出された場合、前記車両の前記車道への進入の制止、及び、運転者への警告のうち少なくとも1つを行うように前記車両を制御する
前記(12)に記載の車両制御システム。
(14)
前記車両制御部は、前記車道において障害物が検出されない場合、前記車両を前記車道に合流させるための案内を提示するように前記車両を制御する
前記(13)に記載の車両制御システム。
(15)
前記車両制御部は、前記運転者の運転技量に基づいて前記案内の内容を変更する
前記(14)に記載の車両制御システム。
(16)
前記物体検出部は、前記車道において障害物が検出されない場合、前記車両が前記車道に合流する合流先の状況の検出処理を優先的に行い、
前記車両制御部は、前記合流先の状況に基づいて、前記車両の走行の制御、及び、運転者への警告のうち少なくとも1つを行うように前記車両を制御する
前記(13)乃至(15)のいずれかに記載の車両制御システム。
(17)
前記物体検出部は、前記車両が前記道路内の歩道に進入する前に、前記歩道を前記優先検出範囲とする検出処理、及び、歩行者を前記優先検出対象とする検出処理のうち少なくとも1つを行い、
前記車両制御部は、前記歩道において障害物が検出された場合、前記車両の前記歩道への進入の制止、及び、運転者への警告のうち少なくとも1つを行うように前記車両を制御する
前記(12)乃至(16)のいずれかに記載の車両制御システム。
(18)
前記撮像部は、撮像範囲が異なる複数のカメラを備え、
前記物体検出部は、前記車両と前記道路との位置関係に基づいて、優先的に物体検出処理に用いる前記カメラを変更する
前記(11)乃至(17)のいずれかに記載の車両制御システム。
(19)
検出範囲が異なる複数の物体検出用センサを
さらに備え、
前記物体検出部は、さらに複数の前記物体検出用センサからのセンサデータに基づいて物体検出処理を行うとともに、前記車両と前記道路との位置関係に基づいて、優先的に物体検出処理に用いる前記物体検出用センサを変更する
前記(11)乃至(18)のいずれかに記載の車両制御システム。
(20)
前記物体検出部は、前記車両と前記道路との間の距離に基づいて、物体の検出方法を変更する
前記(11)乃至(19)のいずれかに記載の車両制御システム。
11 車両, 21 フロントセンシングカメラ, 22 フロントカメラECU, 23 位置情報取得部, 24 表示部, 25 音声出力部, 27 ステアリング機構, 28 センサ部, 31 統合ECU, 34 制動装置, 35 エンジン, 37 駆動用モータ, 51 運転制御ECU, 71 フロントカメラモジュール, 81,81−1乃至81−n レンズ, 82,82−1乃至82−n イメージセンサ, 101 画像処理ECU, 112 警告通知制御部, 113 ステアリング制御部, 114 ブレーキ制御部, 115 アクセル制御部, 116 学習部, 121 車両制御部, 171 画像処理部, 172 物体検出部, 173 学習部

Claims (20)

  1. 車両の前方を撮像する撮像部と、
    前記撮像部により撮像された撮像画像に基づいて物体検出処理を行う物体検出部と
    を備え、
    前記物体検出部は、前記車両と前記車両が外から進入する道路との位置関係に基づいて、物体の検出方法を変更する
    撮像装置。
  2. 前記物体検出部は、前記車両と前記道路との位置関係に基づいて、優先的に物体の検出を行う優先検出範囲、及び、優先的に検出を行う優先検出対象のうち少なくとも1つを変更する
    請求項1に記載の撮像装置。
  3. 前記物体検出部は、前記車両が前記道路内の車道に進入する前に、前記車道を前記優先検出範囲とする検出処理、及び、他の車両を前記優先検出対象とする検出処理のうち少なくとも1つを行う
    請求項2に記載の撮像装置。
  4. 前記物体検出部は、前記車両が前記車道内の第1の車線に合流する場合、前記車両が前記車道に進入する前に、前記第1の車線において前記車両が合流する位置に接近する他の車両の検出処理を優先的に行う
    請求項3に記載の撮像装置。
  5. 前記物体検出部は、前記車両が前記第1の車線に合流する前に前記車道内の第2の車線を横断する場合、前記車両が前記車道に進入する前に、さらに前記第2の車線において前記車両が横断する位置に接近する他の車両の検出処理を優先的に行う
    請求項4に記載の撮像装置。
  6. 前記物体検出部は、前記車道において障害物が検出されない場合、前記車両が前記車道に合流する合流先の状況の検出処理を優先的に行う
    請求項3に記載の撮像装置。
  7. 前記物体検出部は、前記車両が前記道路内の歩道に進入する前に、前記歩道を前記優先検出範囲とする検出処理、及び、歩行者を前記優先検出対象とする検出処理のうち少なくとも1つを行う
    請求項2に記載の撮像装置。
  8. 前記撮像部は、撮像範囲が異なる複数のカメラを備え、
    前記物体検出部は、前記車両と前記道路との位置関係に基づいて、優先的に物体検出処理に用いる前記カメラを変更する
    請求項1に記載の撮像装置。
  9. 前記物体検出部は、前記車両と前記道路との間の距離に基づいて、物体の検出方法を変更する
    請求項1に記載の撮像装置。
  10. 車両の前方を撮像した撮像画像に基づいて物体検出処理を行う物体検出部を
    備え、
    前記物体検出部は、前記車両と前記車両が外から進入する道路との位置関係に基づいて、物体の検出方法を変更する
    信号処理装置。
  11. 車両の前方を撮像する撮像部と、
    前記撮像部により撮像された撮像画像に基づいて物体検出処理を行う物体検出部と、
    前記物体検出部による物体の検出結果に基づいて、前記車両の制御を行う車両制御部と
    を備え、
    前記物体検出部は、前記車両と前記車両が外から進入する道路との位置関係に基づいて、物体の検出方法を変更する
    車両制御システム。
  12. 前記物体検出部は、前記車両と前記道路との位置関係に基づいて、優先的に物体の検出を行う優先検出範囲、及び、優先的に検出を行う優先検出対象のうち少なくとも1つを変更する
    請求項11に記載の車両制御システム。
  13. 前記物体検出部は、前記車両が前記道路内の車道に進入する前に、前記車道を前記優先検出範囲とする検出処理、及び、他の車両を前記優先検出対象とする検出処理のうち少なくとも1つを行い、
    前記車両制御部は、前記車道において障害物が検出された場合、前記車両の前記車道への進入の制止、及び、運転者への警告のうち少なくとも1つを行うように前記車両を制御する
    請求項12に記載の車両制御システム。
  14. 前記車両制御部は、前記車道において障害物が検出されない場合、前記車両を前記車道に合流させるための案内を提示するように前記車両を制御する
    請求項13に記載の車両制御システム。
  15. 前記車両制御部は、前記運転者の運転技量に基づいて前記案内の内容を変更する
    請求項14に記載の車両制御システム。
  16. 前記物体検出部は、前記車道において障害物が検出されない場合、前記車両が前記車道に合流する合流先の状況の検出処理を優先的に行い、
    前記車両制御部は、前記合流先の状況に基づいて、前記車両の走行の制御、及び、運転者への警告のうち少なくとも1つを行うように前記車両を制御する
    請求項13に記載の車両制御システム。
  17. 前記物体検出部は、前記車両が前記道路内の歩道に進入する前に、前記歩道を前記優先検出範囲とする検出処理、及び、歩行者を前記優先検出対象とする検出処理のうち少なくとも1つを行い、
    前記車両制御部は、前記歩道において障害物が検出された場合、前記車両の前記歩道への進入の制止、及び、運転者への警告のうち少なくとも1つを行うように前記車両を制御する
    請求項12に記載の車両制御システム。
  18. 前記撮像部は、撮像範囲が異なる複数のカメラを備え、
    前記物体検出部は、前記車両と前記道路との位置関係に基づいて、優先的に物体検出処理に用いる前記カメラを変更する
    請求項11に記載の車両制御システム。
  19. 検出範囲が異なる複数の物体検出用センサを
    さらに備え、
    前記物体検出部は、さらに複数の前記物体検出用センサからのセンサデータに基づいて物体検出処理を行うとともに、前記車両と前記道路との位置関係に基づいて、優先的に物体検出処理に用いる前記物体検出用センサを変更する
    請求項11に記載の車両制御システム。
  20. 前記物体検出部は、前記車両と前記道路との間の距離に基づいて、物体の検出方法を変更する
    請求項11に記載の車両制御システム。
JP2016180208A 2016-09-15 2016-09-15 撮像装置、信号処理装置、及び、車両制御システム Pending JP2018045482A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2016180208A JP2018045482A (ja) 2016-09-15 2016-09-15 撮像装置、信号処理装置、及び、車両制御システム
PCT/JP2017/031588 WO2018051816A1 (ja) 2016-09-15 2017-09-01 撮像装置、信号処理装置、及び、車両制御システム
EP17850719.0A EP3514780A4 (en) 2016-09-15 2017-09-01 IMAGE CAPTURE DEVICE, SIGNAL PROCESSING DEVICE, AND VEHICLE CONTROL SYSTEM
US16/327,011 US11142192B2 (en) 2016-09-15 2017-09-01 Imaging device, signal processing device, and vehicle control system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016180208A JP2018045482A (ja) 2016-09-15 2016-09-15 撮像装置、信号処理装置、及び、車両制御システム

Publications (1)

Publication Number Publication Date
JP2018045482A true JP2018045482A (ja) 2018-03-22

Family

ID=61619420

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016180208A Pending JP2018045482A (ja) 2016-09-15 2016-09-15 撮像装置、信号処理装置、及び、車両制御システム

Country Status (4)

Country Link
US (1) US11142192B2 (ja)
EP (1) EP3514780A4 (ja)
JP (1) JP2018045482A (ja)
WO (1) WO2018051816A1 (ja)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109367544A (zh) * 2018-09-07 2019-02-22 百度在线网络技术(北京)有限公司 自动驾驶车辆控制方法、装置及存储介质
JP2020009412A (ja) * 2018-07-02 2020-01-16 バイドゥ ユーエスエイ エルエルシーBaidu USA LLC 自動運転車両のための計画運転感知システム
RU2720316C1 (ru) * 2018-04-26 2020-04-28 Кэнон Кабусики Кайся Устройство формирования изображений, система формирования изображений и подвижный объект
WO2020100740A1 (ja) 2018-11-15 2020-05-22 ソニーセミコンダクタソリューションズ株式会社 車載カメラ
WO2020129687A1 (ja) * 2018-12-20 2020-06-25 ソニー株式会社 車両制御装置、車両制御方法、プログラム、及び、車両
WO2020194389A1 (ja) * 2019-03-22 2020-10-01 本田技研工業株式会社 交通環境認識装置及び車両制御装置
JP2020191048A (ja) * 2019-05-24 2020-11-26 日立オートモティブシステムズ株式会社 車載装置および捜索システム
JP2021509516A (ja) * 2018-04-28 2021-03-25 深▲せん▼市商▲湯▼科技有限公司Shenzhen Sensetime Technology Co., Ltd. 衝突制御方法及び装置、電子機器並びに記憶媒体
JP2021047702A (ja) * 2019-09-19 2021-03-25 本田技研工業株式会社 推定装置、推定方法、及びプログラム
US11161504B2 (en) 2019-03-19 2021-11-02 Honda Motor Co., Ltd. Vehicle control apparatus and method
JPWO2020053612A1 (ja) * 2018-09-13 2021-11-25 日産自動車株式会社 車両挙動予測方法及び車両挙動予測装置
KR102664457B1 (ko) * 2023-12-18 2024-05-08 주식회사 코스모인터 Adas를 위한 카메라 시스템과 이를 이용한 차량 제어 시스템

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10769453B2 (en) * 2017-05-16 2020-09-08 Samsung Electronics Co., Ltd. Electronic device and method of controlling operation of vehicle
WO2018212538A1 (en) * 2017-05-16 2018-11-22 Samsung Electronics Co., Ltd. Electronic device and method of detecting driving event of vehicle
JP7082545B2 (ja) * 2018-08-01 2022-06-08 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 情報処理方法、情報処理装置およびプログラム
JP7151393B2 (ja) * 2018-11-08 2022-10-12 トヨタ自動車株式会社 車両情報提供装置、車両情報提供方法及びプログラム
US11511576B2 (en) * 2020-01-24 2022-11-29 Ford Global Technologies, Llc Remote trailer maneuver assist system
KR20210124603A (ko) * 2020-04-06 2021-10-15 현대자동차주식회사 차량의 자율 주행 제어 장치, 그를 포함한 시스템 및 그 방법
TWI809401B (zh) * 2021-05-24 2023-07-21 宏佳騰動力科技股份有限公司 車輛後視警示系統
KR20230021457A (ko) * 2021-08-05 2023-02-14 현대모비스 주식회사 차량의 장애물 감지 시스템 및 방법
JP7501470B2 (ja) * 2021-08-19 2024-06-18 トヨタ自動車株式会社 走行映像表示方法、走行映像表示システム
US11541910B1 (en) * 2022-01-07 2023-01-03 Plusai, Inc. Methods and apparatus for navigation of an autonomous vehicle based on a location of the autonomous vehicle relative to shouldered objects
US11840257B2 (en) * 2022-03-25 2023-12-12 Embark Trucks Inc. Lane change determination for vehicle on shoulder

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7102496B1 (en) * 2002-07-30 2006-09-05 Yazaki North America, Inc. Multi-sensor integration for a vehicle
JP2006180446A (ja) * 2004-11-26 2006-07-06 Nissan Motor Co Ltd 映像撮像装置及び映像撮像方法
CN101287626A (zh) 2004-11-26 2008-10-15 日产自动车株式会社 摄像装置和摄像方法
JP4956915B2 (ja) * 2005-05-20 2012-06-20 日産自動車株式会社 映像表示装置及び映像表示方法
JP4743496B2 (ja) * 2005-07-08 2011-08-10 アイシン・エィ・ダブリュ株式会社 ナビゲーション装置及びナビゲーション方法
JP4434224B2 (ja) * 2007-03-27 2010-03-17 株式会社デンソー 走行支援用車載装置
JP5178276B2 (ja) * 2008-03-27 2013-04-10 ダイハツ工業株式会社 画像認識装置
JP5004865B2 (ja) * 2008-05-08 2012-08-22 日立オートモティブシステムズ株式会社 自動車用障害物検知装置
JP2010210477A (ja) * 2009-03-11 2010-09-24 Clarion Co Ltd ナビゲーション装置
JP5812598B2 (ja) * 2010-12-06 2015-11-17 富士通テン株式会社 物体検出装置
JP5899992B2 (ja) * 2012-02-09 2016-04-06 日産自動車株式会社 車両運転支援装置及び車両運転支援方法
DE102013010983B4 (de) * 2013-07-01 2023-02-23 Audi Ag Verfahren zum Betreiben eines Kraftwagens bei einem Spurwechsel und Kraftwagen
JP6032163B2 (ja) * 2013-09-11 2016-11-24 トヨタ自動車株式会社 三次元物体認識装置、三次元物体認識方法、及び移動体
WO2015056105A1 (en) * 2013-10-14 2015-04-23 Mobileye Vision Technologies Ltd. Forward-facing multi-imaging system for navigating a vehicle
US10210399B2 (en) * 2013-12-20 2019-02-19 Magna Electronics Inc. Vehicle vision system with image processing
JP6424427B2 (ja) 2013-12-26 2018-11-21 日産自動車株式会社 運転診断装置および運転診断方法
JP6550881B2 (ja) * 2014-07-14 2019-07-31 株式会社リコー 立体物検出装置、立体物検出方法、立体物検出プログラム、及び移動体機器制御システム
US10614726B2 (en) * 2014-12-08 2020-04-07 Life Long Driver, Llc Behaviorally-based crash avoidance system
US20160180158A1 (en) * 2014-12-18 2016-06-23 Magna Electronics Inc. Vehicle vision system with pedestrian detection
JP6470039B2 (ja) * 2014-12-26 2019-02-13 日立オートモティブシステムズ株式会社 車両制御システム
US20170329332A1 (en) * 2016-05-10 2017-11-16 Uber Technologies, Inc. Control system to adjust operation of an autonomous vehicle based on a probability of interference by a dynamic object

Cited By (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2720316C1 (ru) * 2018-04-26 2020-04-28 Кэнон Кабусики Кайся Устройство формирования изображений, система формирования изображений и подвижный объект
US11063076B2 (en) 2018-04-26 2021-07-13 Canon Kabushiki Kaisha Imaging apparatus, imaging system, and mobile object having pixels with different saturation charge quantities
JP2021509516A (ja) * 2018-04-28 2021-03-25 深▲せん▼市商▲湯▼科技有限公司Shenzhen Sensetime Technology Co., Ltd. 衝突制御方法及び装置、電子機器並びに記憶媒体
US11308809B2 (en) 2018-04-28 2022-04-19 Shenzhen Sensetime Technology Co., Ltd. Collision control method and apparatus, and storage medium
JP7163407B2 (ja) 2018-04-28 2022-10-31 深▲セン▼市商▲湯▼科技有限公司 衝突制御方法及び装置、電子機器並びに記憶媒体
JP7050025B2 (ja) 2018-07-02 2022-04-07 バイドゥ ユーエスエイ エルエルシー 自動運転車両のための計画運転感知システム
JP2020009412A (ja) * 2018-07-02 2020-01-16 バイドゥ ユーエスエイ エルエルシーBaidu USA LLC 自動運転車両のための計画運転感知システム
CN109367544B (zh) * 2018-09-07 2021-01-05 百度在线网络技术(北京)有限公司 自动驾驶车辆控制方法、装置及存储介质
CN109367544A (zh) * 2018-09-07 2019-02-22 百度在线网络技术(北京)有限公司 自动驾驶车辆控制方法、装置及存储介质
JP2019182425A (ja) * 2018-09-07 2019-10-24 百度在線網絡技術(北京)有限公司 自動運転車両の制御方法、自動運転車両の制御装置及びコンピュータ読み取り可能な記憶媒体
JPWO2020053612A1 (ja) * 2018-09-13 2021-11-25 日産自動車株式会社 車両挙動予測方法及び車両挙動予測装置
JP7143893B2 (ja) 2018-09-13 2022-09-29 日産自動車株式会社 車両挙動予測方法及び車両挙動予測装置
EP4395472A2 (en) 2018-11-15 2024-07-03 Sony Semiconductor Solutions Corporation Vehicle-mounted camera
US11987184B2 (en) 2018-11-15 2024-05-21 Sony Semiconductor Solutions Corporation Vehicle-mounted camera
KR20210091138A (ko) 2018-11-15 2021-07-21 소니 세미컨덕터 솔루션즈 가부시키가이샤 차량 탑재 카메라
WO2020100740A1 (ja) 2018-11-15 2020-05-22 ソニーセミコンダクタソリューションズ株式会社 車載カメラ
WO2020129687A1 (ja) * 2018-12-20 2020-06-25 ソニー株式会社 車両制御装置、車両制御方法、プログラム、及び、車両
EP3900994A4 (en) * 2018-12-20 2022-02-16 Sony Group Corporation VEHICLE CONTROL DEVICE, VEHICLE CONTROL METHOD, PROGRAM AND VEHICLE
CN113242825A (zh) * 2018-12-20 2021-08-10 索尼集团公司 车辆控制设备、车辆控制方法、程序以及车辆
US11161504B2 (en) 2019-03-19 2021-11-02 Honda Motor Co., Ltd. Vehicle control apparatus and method
CN113474827A (zh) * 2019-03-22 2021-10-01 本田技研工业株式会社 交通环境识别装置和车辆控制装置
WO2020194389A1 (ja) * 2019-03-22 2020-10-01 本田技研工業株式会社 交通環境認識装置及び車両制御装置
JP2020191048A (ja) * 2019-05-24 2020-11-26 日立オートモティブシステムズ株式会社 車載装置および捜索システム
JP7215961B2 (ja) 2019-05-24 2023-01-31 日立Astemo株式会社 車載装置および捜索システム
JP7121715B2 (ja) 2019-09-19 2022-08-18 本田技研工業株式会社 推定装置、推定方法、及びプログラム
US11495029B2 (en) 2019-09-19 2022-11-08 Honda Motor Co., Ltd. Estimation device, estimation method, and storage medium
CN112606845B (zh) * 2019-09-19 2024-05-07 本田技研工业株式会社 推定装置、推定方法及存储介质
CN112606845A (zh) * 2019-09-19 2021-04-06 本田技研工业株式会社 推定装置、推定方法及存储介质
JP2021047702A (ja) * 2019-09-19 2021-03-25 本田技研工業株式会社 推定装置、推定方法、及びプログラム
KR102664457B1 (ko) * 2023-12-18 2024-05-08 주식회사 코스모인터 Adas를 위한 카메라 시스템과 이를 이용한 차량 제어 시스템

Also Published As

Publication number Publication date
US11142192B2 (en) 2021-10-12
EP3514780A4 (en) 2019-09-25
US20190202451A1 (en) 2019-07-04
EP3514780A1 (en) 2019-07-24
WO2018051816A1 (ja) 2018-03-22

Similar Documents

Publication Publication Date Title
WO2018051816A1 (ja) 撮像装置、信号処理装置、及び、車両制御システム
JP6617534B2 (ja) 運転支援装置
CN109564734B (zh) 驾驶辅助装置、驾驶辅助方法、移动体和程序
US9493072B2 (en) Safety confirmation support system for vehicle driver and method for supporting safety confirmation of vehicle driver
US11180164B2 (en) Vehicle control apparatus, vehicle, and control method
WO2017119170A1 (ja) 運転支援装置
CN109562757B (zh) 驾驶辅助装置、驾驶辅助方法、移动体和程序
WO2018056103A1 (ja) 車両制御装置、車両制御方法、および移動体
JP2006227811A (ja) 運転支援装置
JP2006224754A (ja) 運転支援装置
CN111830859A (zh) 车辆远程指示系统
CN113044035B (zh) 自动驾驶车辆用信息提示装置
CN114194105B (zh) 自动驾驶车用信息提示装置
CN112874513A (zh) 驾驶支援装置
CN112937566B (zh) 自动驾驶车辆用信息提示装置
CN112937565B (zh) 自动驾驶车辆用信息提示装置
US20210197863A1 (en) Vehicle control device, method, and program
JP7101161B2 (ja) 車両制御装置、車両制御方法及びプログラム
CN113401056A (zh) 显示控制装置、显示控制方法以及计算机可读取存储介质
JP2016224553A (ja) 車両用交通情報表示システム
CN116890862A (zh) 驾驶支援装置、驾驶支援方法以及存储介质
CN116890863A (zh) 驾驶支援装置、驾驶支援方法以及存储介质
JP6471707B2 (ja) 運転教示装置
CN112937568A (zh) 自动驾驶车辆用信息提示装置