JPWO2017195477A1 - 障害物検知装置、運転支援システムおよび障害物検知方法 - Google Patents

障害物検知装置、運転支援システムおよび障害物検知方法 Download PDF

Info

Publication number
JPWO2017195477A1
JPWO2017195477A1 JP2018516374A JP2018516374A JPWO2017195477A1 JP WO2017195477 A1 JPWO2017195477 A1 JP WO2017195477A1 JP 2018516374 A JP2018516374 A JP 2018516374A JP 2018516374 A JP2018516374 A JP 2018516374A JP WO2017195477 A1 JPWO2017195477 A1 JP WO2017195477A1
Authority
JP
Japan
Prior art keywords
vehicle
unit
slit light
shape
obstacle detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018516374A
Other languages
English (en)
Other versions
JP6486560B2 (ja
Inventor
信太郎 渡邉
信太郎 渡邉
彰一 清水
彰一 清水
淳二 堀
淳二 堀
亘 辻田
亘 辻田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JPWO2017195477A1 publication Critical patent/JPWO2017195477A1/ja
Application granted granted Critical
Publication of JP6486560B2 publication Critical patent/JP6486560B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60TVEHICLE BRAKE CONTROL SYSTEMS OR PARTS THEREOF; BRAKE CONTROL SYSTEMS OR PARTS THEREOF, IN GENERAL; ARRANGEMENT OF BRAKING ELEMENTS ON VEHICLES IN GENERAL; PORTABLE DEVICES FOR PREVENTING UNWANTED MOVEMENT OF VEHICLES; VEHICLE MODIFICATIONS TO FACILITATE COOLING OF BRAKES
    • B60T7/00Brake-action initiating means
    • B60T7/12Brake-action initiating means for automatic initiation; for initiation not subject to will of driver or passenger
    • B60T7/22Brake-action initiating means for automatic initiation; for initiation not subject to will of driver or passenger initiated by contact of vehicle, e.g. bumper, with an external object, e.g. another vehicle, or by means of contactless obstacle detectors mounted on the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q9/00Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q9/00Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling
    • B60Q9/008Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling for anti-collision purposes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60TVEHICLE BRAKE CONTROL SYSTEMS OR PARTS THEREOF; BRAKE CONTROL SYSTEMS OR PARTS THEREOF, IN GENERAL; ARRANGEMENT OF BRAKING ELEMENTS ON VEHICLES IN GENERAL; PORTABLE DEVICES FOR PREVENTING UNWANTED MOVEMENT OF VEHICLES; VEHICLE MODIFICATIONS TO FACILITATE COOLING OF BRAKES
    • B60T7/00Brake-action initiating means
    • B60T7/12Brake-action initiating means for automatic initiation; for initiation not subject to will of driver or passenger
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/145Illumination specially adapted for pattern recognition, e.g. using gratings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/60Extraction of image or video features relating to illumination properties, e.g. using a reflectance or lighting model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60TVEHICLE BRAKE CONTROL SYSTEMS OR PARTS THEREOF; BRAKE CONTROL SYSTEMS OR PARTS THEREOF, IN GENERAL; ARRANGEMENT OF BRAKING ELEMENTS ON VEHICLES IN GENERAL; PORTABLE DEVICES FOR PREVENTING UNWANTED MOVEMENT OF VEHICLES; VEHICLE MODIFICATIONS TO FACILITATE COOLING OF BRAKES
    • B60T2201/00Particular use of vehicle brake systems; Special systems using also the brakes; Special software modules within the brake system controller
    • B60T2201/02Active or adaptive cruise control system; Distance control
    • B60T2201/022Collision avoidance systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60TVEHICLE BRAKE CONTROL SYSTEMS OR PARTS THEREOF; BRAKE CONTROL SYSTEMS OR PARTS THEREOF, IN GENERAL; ARRANGEMENT OF BRAKING ELEMENTS ON VEHICLES IN GENERAL; PORTABLE DEVICES FOR PREVENTING UNWANTED MOVEMENT OF VEHICLES; VEHICLE MODIFICATIONS TO FACILITATE COOLING OF BRAKES
    • B60T2210/00Detection or estimation of road or environment conditions; Detection or estimation of road shapes
    • B60T2210/30Environment conditions or position therewithin
    • B60T2210/32Vehicle surroundings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Signal Processing (AREA)
  • Optics & Photonics (AREA)
  • Human Computer Interaction (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

第1の投光機(101)は、車両(100)の幅方向に広がりを持つ第1のスリット光(111)を、接地面(110)に対して平行な方向以外に投光する。第2の投光機(102)は、車両(100)の幅方向に広がりを持つ第2のスリット光(112)を、接地面(110)に平行な方向に投光する。障害物検知ユニット(104)は、第1のスリット光(111)と第2のスリット光(112)が投光された車両周辺領域の撮像画像を用いて、障害物を検知する。

Description

この発明は、車両周辺の障害物を検知する障害物検知装置および障害物検知方法、ならびに障害物検知装置の検知結果に基づき車両の運転を支援する運転支援システムに関するものである。
従来、3次元形状測定方法の一例として、以下のような方法がある。
スリット光源は、3次元形状を測定する対象に向けて、スリット光を投光する。スリット光源とは離れた地点に設置されたカメラは、対象に当ったスリット光を撮像する。処理手段は、カメラが撮像した画像中のスリット光を検知し、三角測量の原理に基づき対象をスリット光で輪切りにした切断形状を復元する。スリット光源が対象をスリット光で走査していく最中にカメラが撮像を繰り返し、処理手段が切断形状を次々と復元し統合することで、対象全体の3次元形状が復元される。
この3次元形状測定方法を車両に適用したのが、特許文献1に記載された駐車支援装置である。特許文献1記載の駐車支援装置では、車両にスリット光源とカメラが設置され、車両の移動に伴ってスリット光が車両周辺領域を走査し、カメラがその領域を繰り返し撮像する。処理手段は、車両の移動に伴って繰り返し撮像された各画像を用いて、車両周辺領域の3次元形状を復元し、駐車空間を抽出する。
特開2007−326428号公報
上記特許文献1に係る発明は、車両移動中に順次取得した切断形状を統合することで車両周辺領域の3次元形状を復元する構成である。つまり、各切断形状が異なる時刻に取得されることになるため、車両周辺領域において対象が動かないことを前提とした3次元形状測定方法と言える。そのため、車両周辺領域に移動物体、例えば歩行者または他車両がある場合、この部分の切断形状は正しく統合されないため、誤った3次元形状が復元されるという課題があった。当然ながら、復元された3次元形状のどの部分が移動物体なのかを判別することもできない。
この発明は、上記のような課題を解決するためになされたもので、移動物体が存在していたとしても車両周辺領域の3次元形状を正しく復元することを目的とする。
この発明に係る障害物検知装置は、第1のスリット光を車両周辺領域へ投光する第1の投光部と、車両の幅方向に広がりを持つ第2のスリット光を、車両周辺領域に向けて車両の接地面に平行な方向に投光する第2の投光部と、第1のスリット光が広がる方向と第1のスリット光が投光される方向とで構成される面、および第2のスリット光が広がる方向と第2のスリット光が投光される方向とで構成される面とは異なる位置から車両周辺領域を撮像する撮像部とを備え、撮像部が撮像した画像を用いて、障害物を検知するものである。
この発明によれば、第2のスリット光を接地面に平行な方向に投光するようにしたので、車両が移動しても第2のスリット光が当たる位置は動かない。そのため、車両周辺領域内の物体が静止している場合、第2のスリット光が当たる位置は同じになり、物体が移動している場合、第2のスリット光が当たる位置は変化する。このことから、第2のスリット光の当たっている部分の変化を検知することによって物体が静止しているか移動しているかを判別することができるようになる。従って、移動物体が存在していたとしても車両周辺領域の3次元形状を正しく復元することができ、その3次元形状を用いて障害物を検知することが可能になる。
この発明の実施の形態1に係る障害物検知装置が搭載された車両を示す図である。 実施の形態1に係る障害物検知装置のハードウェア図である。 実施の形態1に係る障害物検知装置の機能ブロック図である。 実施の形態1に係る障害物検知装置の第1の復元部が行う光切断法を説明する図であり、車両周辺領域の様子を示す。 実施の形態1に係る障害物検知装置の第1の復元部が行う光切断法を説明する図であり、図4のカメラにより撮像された画像を示す。 実施の形態1において、車両が徐々に後退していくときの、時刻t1における車両周辺領域の様子を示す図である。 実施の形態1において、車両が徐々に後退していくときの、時刻t2における車両周辺領域の様子を示す図である。 実施の形態1において、車両が徐々に後退していくときの、時刻t3における車両周辺領域の様子を示す図である。 時刻t1の状況下で撮像された画像から復元された第2の切断形状を示す図である。 時刻t1,t2の状況下で撮像された各画像から復元された各第2の切断形状を重畳して示す図である。 時刻t1〜t3の状況下で撮像された各画像から復元された各第2の切断形状を重畳して示す図である。 実施の形態1に係る障害物検知装置の統合部により復元された3次元形状を示す図である。 実施の形態1に係る障害物検知装置における処理の流れの一例を示すフローチャートである。 この発明の実施の形態2に係る障害物検知装置が搭載された車両を示す図である。 実施の形態2において、車両が徐々に前進していくときの、時刻t1における車両周辺領域の様子を示す図である。 実施の形態2において、車両が徐々に前進していくときの、時刻t2における車両周辺領域の様子を示す図である。 実施の形態2において、車両が徐々に前進していくときの、時刻t3における車両周辺領域の様子を示す図である。 実施の形態2において、車両が徐々に前進していくときの、時刻t4における車両周辺領域の様子を示す図である。 実施の形態2において、車両が徐々に前進していくときの、時刻t5における車両周辺領域の様子を示す図である。 実施の形態2において、車両が徐々に前進していくときの、時刻t6における車両周辺領域の様子を示す図である。 時刻t1の状況下で撮像された各画像から復元された第2の切断形状を示す図である。 時刻t1、t2の状況下で撮像された各画像から復元された各第2の切断形状を重畳して示す図である。 時刻t1〜t3の状況下で撮像された各画像から復元された各第2の切断形状を重畳して示す図である。 時刻t1〜t4の状況下で撮像された各画像から復元された各第2の切断形状を重畳して示す図である。 時刻t1〜t5の状況下で撮像された各画像から復元された各第2の切断形状を重畳して示す図である。 時刻t1〜t6の状況下で撮像された各画像から復元された各第2の切断形状を重畳して示す図である。 実施の形態2に係る障害物検知装置の統合部により復元された3次元形状を示す図である。 実施の形態2において、車両に近づいてくる移動物体の検知例を説明する図である。 この発明の実施の形態3に係る障害物検知装置を適用した運転支援システムのハードウェア構成図である。 実施の形態3に係る障害物検知装置を適用した運転支援システムの機能ブロック図である。
以下、この発明をより詳細に説明するために、この発明を実施するための形態について、添付の図面に従って説明する。
実施の形態1.
図1は、この発明の実施の形態1に係る障害物検知装置が搭載された車両100を示す図である。障害物検知装置は、第1の投光機101、第2の投光機102、カメラ103および障害物検知ユニット104を備えており、車両100の周辺に存在する障害物を検知する。また、障害物検知装置は、車両100に搭載されているヨーレートセンサ105および車速センサ106の計測結果を取得し、障害物検知に用いる。
車両100に搭載された第1の投光機101および第2の投光機102は、車両周辺領域に向けて第1のスリット光111および第2のスリット光112を投光する。車両100に搭載されたカメラ103は、第1のスリット光111および第2のスリット光112が投光される車両周辺領域を撮像する。障害物検知ユニット104は、車両周辺領域の障害物を検知する。車両100に搭載されたヨーレートセンサ105は、ヨーレートを計測する。車両100に搭載された車速センサ106は、車速を計測する。
なお、図1は、第1の投光機101、第2の投光機102およびカメラ103を、車両100の後部に搭載した場合の例を示している。この場合、車両周辺領域は車両100の後方の領域である。また、車両100のタイヤが接している地面を接地面110と呼ぶ。
第1の投光機101は、車両100の幅方向に広がりを持つ第1のスリット光111を投光する。また、第1の投光機101は、車両100の接地面110に対して水平ではない角度に向けて第1のスリット光111を投光するように、車両100に設置される。第1の投光機101の設置角度は、斜め下方、または斜め上方などが考えられる。
ここで、車両100の幅方向とは、車両を上面から見た時に車両100の左右方向である。つまり、図1紙面の奥行方向が車両100の幅方向である。
従って、第1のスリット光111は、車両100の幅方向に広がりを持ち、接地面110に対して平行ではない角度で投光される。図1の例では、第1のスリット光111は斜め下方に投光される。また、第1のスリット光111は、車両100の幅方向と第1のスリット光111の投光方向との両方に対して垂直な方向には、ほとんど広がりを持たない。
第2の投光機102は、車両の幅方向に広がりを持つ、つまり接地面110に対して平行な面状に広がりを持つ第2のスリット光112を投光する、また、第2の投光機102は、車両100の接地面110に対して平行な方向に向けて第2のスリット光112を投光するように、車両100に設置される。つまり、第2の投光機102の設置角度は、接地面110に対して平行な角度である。
従って、第2のスリット光112は、車両100の接地面110に対して平行な面状に広がりを持ち、接地面110に対して平行な角度で投光される。また、第2のスリット光112は、接地面110に対して垂直な鉛直方向には、ほとんど広がりを持たない。
カメラ103は、車両100の、第1の投光機101および第2の投光機102とは異なる位置に設置される。図1の例では、カメラ103は、第1の投光機101および第2の投光機102とは異なる高さに設置されている。また、カメラ103は、第1のスリット光111および第2のスリット光112が投光された車両周辺領域を撮像できる角度に設置される。より具体的には、カメラ103が、第1のスリット光111が接地面110に投光される範囲を撮像できる角度に設置される。
図2は、実施の形態1に係る障害物検知装置のハードウェア構成図である。
カメラ103は、障害物検知ユニット104に接続されている。カメラ103は、第1のスリット光111および第2のスリット光112が投光される車両周辺領域を撮像し、撮像した画像を障害物検知ユニット104へ出力する。また、カメラ103は、第1の投光機101および第2の投光機102に接続されている。例えば、後述するように、カメラ103から第1の投光機101および第2の投光機102へ、カメラ103の撮像タイミングを示す同期信号を出力する。
障害物検知ユニット104は、プロセッサ104aおよびメモリ104bを備えている。障害物検知ユニット104の詳細は後述する。
ヨーレートセンサ105および車速センサ106は、障害物検知ユニット104に接続されている。ヨーレートセンサ105は、車両100のヨーレートを計測し、障害物検知ユニット104へ出力する。車速センサ106は、車両100の車速を計測し、障害物検知ユニット104へ出力する。
図3は、実施の形態1に係る障害物検知装置の機能ブロック図である。
第1の投光部1は、第1のスリット光111を車両周辺領域へ投光するものである。この第1の投光部1は、上述した第1の投光機101と、この第1の投光機101の投光タイミング等を制御するコントローラとを含む。あるいは、第1の投光部1は、第1の投光機101を制御するコントローラのみであってもよい。即ち、第1の投光部1が第1の投光機101を制御することによって結果的に第1のスリット光111を車両周辺領域へ投光できるものであればよい。
第2の投光部2は、車両100の幅方向に広がりを持つ、つまり接地面110に対して平行な面状に広がりを持つ第2のスリット光112を、車両周辺領域に向けて車両100の接地面110に平行な方向に投光するものである。この第2の投光部2は、上述した第2の投光機102と、この第2の投光機102の投光タイミング等を制御するコントローラとを含む。あるいは、第2の投光部2は、第2の投光機102を制御するコントローラのみであってもよい。即ち、第2の投光部2が第2の投光機102を制御することによって結果的に第2のスリット光112を車両周辺領域に投光できるものであればよい。
撮像部3は、第1のスリット光111および第2のスリット光112が投光される方向とは異なる方向から車両周辺領域を撮像するものである。この撮像部3は、上述したカメラ103と、このカメラ103の撮像タイミング等を制御するコントローラとを含む。あるいは、撮像部3は、カメラ103を制御するコントローラのみであってもよい。即ち、撮像部3がカメラ103を制御することによって結果的に第1のスリット光111および第2のスリット光112が投光される方向とは異なる方向から車両周辺領域を撮像できるものであればよい。車両100の移動に伴って第1のスリット光111が車両周辺領域を走査し、撮像部3がその領域を繰り返し撮像する。
障害物検知ユニット104は、撮像部3が撮像した画像を用いて第1のスリット光111が当たっている部分の形状を復元する第1の復元部4と、撮像部3が撮像した画像を用いて第2のスリット光112が当たっている部分の形状を復元する第2の復元部5と、車両100の移動量を算出する移動量算出部6と、第2の復元部5が復元した形状と移動量算出部6が算出した車両100の移動量とを用いて車両周辺領域における移動物体を検知する移動物体検知部7と、移動量算出部6が算出した車両100の移動量と移動物体検知部7が検知した移動物体の情報とを用いて第1の復元部4が復元した形状を統合して車両周辺領域の3次元形状を復元する統合部8と、統合部8が復元した3次元形状を用いて障害物を検知する障害物検知部9である。
障害物検知ユニット104における第1の復元部4、第2の復元部5、移動量算出部6、移動物体検知部7、統合部8および障害物検知部9の各機能は、ソフトウェア、ファームウェア、またはソフトウェアとファームウェアとの組み合わせにより実現される。ソフトウェアまたはファームウェアはプログラムとして記述され、図2に示したメモリ104bに格納される。プロセッサ104aは、メモリ104bに格納されているプログラムを読みだして実行することにより、各部の機能を実現する。即ち、障害物検知装置は、プロセッサ104aにより実行されるときに、撮像部3が撮像した画像を用いて第1のスリット光111が当たっている部分の形状を復元するステップと、撮像部3が撮像した画像を用いて第2のスリット光112が当たっている部分の形状を復元するステップと、車両100の移動量を算出するステップと、第2の復元部5が復元した形状と移動量算出部6が算出した車両100の移動量とを用いて車両周辺領域における移動物体を検知するステップと、移動量算出部6が算出した車両100の移動量と移動物体検知部7が検知した移動物体の情報とを用いて第1の復元部4が復元した形状を統合して車両周辺領域の3次元形状を復元するステップと、統合部8が復元した3次元形状を用いて障害物を検知するステップとが結果的に実行されることになるプログラムを格納するためのメモリ104bを備える。また、このプログラムは、第1の復元部4、第2の復元部5、移動量算出部6、移動物体検知部7、統合部8および障害物検知部9の手順または方法をコンピュータに実行させるものであるともいえる。
ここで、プロセッサ104aは、CPU(Central Processing Unit)、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、またはDSP等ともいう。
メモリ104bは、例えばRAM(Random Access Memory)、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、EEPROM(Electrically EPROM)、フラッシュメモリ、SSD(Solid State Drive)等の不揮発性または揮発性の半導体メモリであってもよいし、ハードディスク、フレキシブルディスク等の磁気ディスクであってもよいし、CD(Compact Disc)、DVD(Digital Versatile Disc)等の光ディスクであってもよい。
なお、第1の投光部1、第2の投光部2および撮像部3のコントローラとしての機能は、専用の処理回路を用いて実現する構成であってもよいし、障害物検知ユニット104のプロセッサ104aおよびメモリ104bを用いて実現する構成であってもよい。後者の場合、第1の投光部1、第2の投光部2および撮像部3のコントローラとしての機能がプログラムとして記述されてメモリ104bに格納され、プロセッサ104aがそのプログラムを読みだして実行することにより、第1の投光部1、第2の投光部2および撮像部3のコントローラとしての機能を実現する。
第1の復元部4および第2の復元部5においてスリット光が当たっている部分の形状を復元するにあたり、第1のスリット光111が当たっている部分および第2のスリット光112が当たっている部分が、撮像された画像中のどの画素に写っているかを区別しやすいようにしておくことが望ましい。そのため、撮像時に、第1のスリット光111と第2のスリット光112とを区別できるようにしておくことが望ましい。
例えば、第1の投光機101が投光する第1のスリット光111の太さと、第2の投光機102が投光する第2のスリット光112の太さを変えることで、障害物検知ユニット104において両者を区別できるようにする。
あるいは、第1の投光機101が投光する第1のスリット光111の色(波長)と、第2の投光機102が投光する第2のスリット光112の色(波長)を変えることで、両者を区別できるようにしてもよい。
あるいは、カメラ103の同期信号を第1の投光機101および第2の投光機102へ入力し、カメラ103の撮像タイミングに同期して、第1の投光機101のみが第1のスリット光111を投光するタイミングと、第2の投光機102のみが第2のスリット光112を投光するタイミングとを交互に繰り返すようにしてもよい。これにより、第1のスリット光111のみが写っている画像と、第2のスリット光112のみが写っている画像とが交互に撮像されることになり、両者を区別することができる。
また、第1のスリット光111および第2のスリット光112が当たっている部分は、撮像された画像上で検知できる程度の信号レベルを有する必要がある。そのためには、第1の投光機101および第2の投光機102は、第1のスリット光111および第2のスリット光112を十分な光強度で投光することが望ましい。
十分な光強度を確保するために、例えば、カメラ103の同期信号を第1の投光機101および第2の投光機102へ入力し、カメラ103の撮像タイミングに同期して、第1の投光機101および第2の投光機102が瞬間的に光強度の強い第1のスリット光111および第2のスリット光112を投光する。
あるいは、障害物検知ユニット104が画像処理することにより、スリット光の投光時と無投光時との差を捉えることで、スリット光の有無を検知するようにしてもよい。つまり、カメラ103の撮像タイミングに同期して、第1の投光機101のみが第1のスリット光111を投光するタイミング、第1の投光機101と第2の投光機102のどちらも投光しないタイミング、第2の投光機102のみが第2のスリット光112を投光するタイミング、第1の投光機101と第2の投光機102のどちらも投光しないタイミングを繰り返す。第1の復元部4は、第1の投光機101のみが第1のスリット光111を投光するタイミングで撮像された画像と、第1の投光機101と第2の投光機102のどちらも投光しないタイミングで撮像された画像との差分を算出することで、第1のスリット光111が当たっている部分を検知することができる。同様に、第2の復元部5は、第2の投光機102のみが第2のスリット光112を投光するタイミングで撮像された画像と、第1の投光機101と第2の投光機102のどちらも投光しないタイミングで撮像された画像との差分を算出することで、第2のスリット光112が当たっている部分を検知することができる。
次に、図3を参照して障害物検知装置の詳細を説明する。
第1の復元部4は、撮像部3から撮像した画像を受け取り、その画像中から第1のスリット光111が当たっている部分の形状を復元し、復元した情報を統合部8へ出力する。第1の復元部4が復元した、第1のスリット光111が当たっている部分の形状を、「第1の切断形状」と呼ぶ。
第1の復元部4は、画像上の第1のスリット光111が当たっている部分の画素は周囲の画素より明るいことを利用して、画像の輝度値を閾値処理して2値化することで、第1のスリット光111が当たっている画素を画像から検知することができる。第1の復元部4は、このようにして検知した第1のスリット光111が当たっている画素の情報より、第1の切断形状を復元する。第1の復元部4は切断形状の復元に、例えば光切断法というアルゴリズムを用いる。
図4および図5は、第1の復元部4が行う光切断法を説明する図である。
図4は、車両周辺領域の様子を示す。図4には、第1の投光機101、カメラ103、第1の投光機101から投光されている第1のスリット光111、およびカメラ103の撮像エリア113が示されている。図4では、第1のスリット光111は、第1のスリット光111が広がる方向と、第1のスリット光111が投光される方向とで構成される面として表現されている。カメラ103は、第1のスリット光111が広がる方向と第1のスリット光111が投光される方向とで構成される面とは異なる位置から車両周辺領域を撮像することにより、第1の復元部4において三角測量の原理を使用可能となる。また、図示は省略するが、カメラ103は、第2のスリット光112が広がる方向と第2のスリット光112が投光される方向とで構成される面とは異なる位置から車両周辺領域を撮像することにより、第2の復元部5において三角測量の原理を使用可能となる。
図5は、図4のカメラ103により撮像された画像を示す。この画像中の第1のスリット光111が当たっている画素、つまり第1の切断形状121は、白色で表現されている。
第1の復元部4は、第1の投光機101の設置位置、投光の向き、カメラ103の設置位置、画角、レンズ中心、歪み特性、および撮像された画像中の第1のスリット光111が当たっている画素の情報があれば、三角測量の原理で、第1の切断形状121を算出することができる。なお、第1の投光機101の設置位置、投光の向き、カメラ103の設置位置、画角、レンズ中心、および歪み特性の情報は、予め第1の復元部4に設定されているものとする。
図4および図5に示す例において、第1のスリット光111の先に立体物がない、つまり地面に第1のスリット光111が当たっている場合、基準線122上に第1のスリット光111が当たる。一方、立体物がある場合、基準線122より上側の、立体物の高さに応じた距離123だけ離れた部分に、第1のスリット光111が当たる。従って、第1の復元部4は、撮像された画像における第1のスリット光111が当たっている位置を観測することで、第1のスリット光111により切断される車両周辺領域の外形形状を復元することができる。そして、後述する統合部8が、車両100の移動中に復元された複数の第1の切断形状121を統合することで、車両周辺領域全体の3次元形状を復元する。
基準線122は、撮像された画像に写る道路面の位置を示す線である。第1の復元部4は、カメラ103の設置位置および画角の情報を用いて道路面が画像のどの位置にくるか算出し、算出した位置に基づき基準線122を設定する。
第2の復元部5は、撮像部3から撮像した画像を受け取り、その画像中から第2のスリット光112が当たっている部分の形状を復元し、復元した情報を移動物体検知部7へ出力する。第2の復元部5が復元した、第2のスリット光112が当たっている部分の形状を、「第2の切断形状」と呼ぶ。第2の復元部5も、第1の復元部4と同様に、光切断法等により第2の切断形状を復元する。
移動量算出部6は、ヨーレートセンサ105からヨーレートの情報を受け取り、車速センサ106から車速の情報を受け取る。移動量算出部6は、受け取ったヨーレートと車速の情報を用いて、以下の式(1)より車両100の移動量を算出し、算出した車両100の移動量の情報を統合部8へ出力する。
Figure 2017195477

Figure 2017195477
移動物体検知部7は、第2の復元部5から第2の切断形状の情報を受け取り、移動量算出部6から車両100の移動量の情報を受け取る。移動物体検知部7は、第2の復元部5が復元した第2の切断形状と移動量算出部6が算出した車両100の移動量とを用いて、車両周辺領域における移動物体を検知する。具体的には、移動物体検知部7は、撮像タイミングごとに得られる第2の切断形状について、過去に得られた第2の切断形状を車両100の過去から現在までの移動量だけ並進移動させて、現在得られた第2の切断形状と重ねる処理を行う。そして、移動物体検知部7は、過去と現在の第2の切断形状が重なった場合はその対象が静止物体であると判定し、重ならなかった場合はその対象が移動物体であると判定する。
図6、図7および図8は、車両100が徐々に後退していくときの、車両周辺領域である車両後方の様子を示す図である。図6を時刻t1の状況、図7を時刻t2の状況、図8を時刻t3の状況とし、時刻t1,t2,t3の順に時間が経過していくものとする。図6、図7および図8には、車両100のルーフ131、車両100後方の地面132、静止物体133、移動物体134、第1のスリット光111が当たっている部分135、および第2のスリット光112が当たっている部分136が示されている。車両100は、矢印Aの方向へ後退している。移動物体134は、矢印Bの方向へ移動している。移動物体134の例として人が示されているが、自転車または他車両等でもよい。
時刻t1,t2,t3における車両100の後退に合わせて、第1のスリット光111が当たっている部分135が移動していく。さらに、第1のスリット光111が立体物である静止物体133および移動物体134に当たる場面では、第1のスリット光111が当たっている部分135の高さが変化していく。
それに対して、第2のスリット光112は、車両100の幅方向に広がりを持ち、車両100に接する地面132に平行に投光されるため、車両100が後退したとしても、常に同じ高さに当たることになる。そのため、第2のスリット光112は、車両100の移動によらず常に静止物体133の同じ部分に当たる。
図9、図10および図11は、図6、図7および図8に示す状況下で撮像された各画像から復元された第2の切断形状137の推移を示す図である。
図9は、第2の復元部5が、図6に示す時刻t1の状況下で撮像された画像を用いて復元した第2の切断形状137を示す図である。図9では、第2のスリット光112が当たっている部分のうち、静止物体133および移動物体134に当っている部分が第2の切断形状137として復元されている。
図10は、第2の復元部5が、図7に示す時刻t2の状況下で撮像された画像を用いて復元した第2の切断形状137を示す図である。図10には、図6に示す時刻t1の状況下で撮像された画像を用いて復元した第2の切断形状137が、図7に示す時刻t2の状況下で撮像された画像を用いて復元した第2の切断形状137に重畳して示されている。移動物体検知部7は、過去の時刻t1に得られた第2の切断形状137を、車両100の移動量だけ並進移動させて、新しく時刻t2に得られた第2の切断形状137に重畳する。
図11は、第2の復元部5が、図8に示す時刻t3の状況下で撮像された画像を用いて復元した第2の切断形状137を示す図である。図11には、図6と図7に示す時刻t1,t2の状況下で撮像された各画像を用いて復元した2つの第2の切断形状137が、図8に示す時刻t3の状況下で撮像された画像を用いて復元した第2の切断形状137に重畳して示されている。
図11において、第2の切断形状137のうちの静止物体133を表す部分138は、車両100の後退にかかわらず、常に同じ位置に重畳されているため、移動物体検知部7は、この部分138が静止している立体物であると判定する。
一方、移動物体134は、車両100が後退していくと同時に移動している。そのため、第2の切断形状137のうちの移動物体134を表す部分139は、車両100の移動量だけ並進移動させて重畳したとしても、重ならない。従って、移動物体検知部7は、この重ならない部分139を、移動物体として検知する。
統合部8は、第1の復元部4から第1の切断形状の情報を受け取り、移動量算出部6から車両100の移動量の情報を受け取り、移動物体検知部7から移動物体の情報を受け取る。統合部8は、移動量算出部6が算出した車両100の移動量と、移動物体検知部7が検知した移動物体の情報とを用いて、第1の復元部4が復元した第1の切断形状を統合して車両周辺領域の3次元形状を復元する。具体的には、統合部8は、撮像タイミングごとに得られる第1の切断形状について、過去に得られた第1の切断形状を車両100の過去から現在までの移動量だけ並進移動させて、現在得られた第1の切断形状と重ねる処理を行うことにより、複数の第1の切断形状を統合し、車両周辺領域の3次元形状を復元する。ただし、統合部8は、移動物体検知部7により移動物体が検知された領域内の第1の切断形状を、過去から現在までの移動物体の移動量に合わせて移動させながら重ねる処理を行うことにより、車両周辺領域における移動物体の3次元形状も正しく復元する。なお、統合部8は、移動物体検知部7が過去の撮像画像から検知した移動物体の位置と現在の撮像画像から検知した移動物体の位置との差分を算出し、過去から現在までの移動物体の移動量とする。
図12は、統合部8により復元された3次元形状を示す図である。第1のスリット光111が当たっている部分135は、車両100の後退に合わせて図12紙面の下から上へと移動していく。車両100の後退に合わせて位置が変化する第1の切断形状が、車両100の移動量を加味して重畳され、車両周辺領域の3次元形状が復元される。その際、第1の切断形状のうちの移動物体134を表す部分は、移動物体134の移動量を加味して重畳されるため、移動物体134の3次元形状も正しく復元される。
なお、この例では、車両100の幅方向に移動していく移動物体134を検知する例を説明したが、車両100の前後方向に移動していく移動物体を検知することも可能である。例えば車両100に近づいてくる移動物体の場合、その移動物体の第2の切断形状は、車両100の移動量よりも大きい移動量で車両100に近づいてくることになる。そのため、第2の復元部5が、車両100の移動量だけ過去の第2の切断形状を並進移動させて現在の第2の切断形状に重ねる処理を行った場合、過去と現在の第2の切断形状は重ならず、かつ現在の第2の切断形状のほうが車両100に近い位置になる。
障害物検知部9は、統合部8から3次元形状の情報を受け取る。障害物検知部9は、統合部8が復元した3次元形状を用いて、障害物を検知する。具体的には、障害物検知部9は、復元された車両周辺領域の3次元形状の中で、道路面ではない、高さのある立体物を障害物として検知する。図12に示された3次元形状では、静止物体133および移動物体134が障害物として検知される。なお、障害物検知部9は、第1の復元部4と同様の方法で道路面の位置を算出し、道路面より高い立体物を障害物として検知すればよい。
図13は、実施の形態1の障害物検知装置における処理の流れの一例を示すフローチャートである。まず、ステップST110では、第1の投光部1が第1のスリット光を車両周辺領域へ投光する。次に、ステップST120では、第2の投光部2が第2のスリット光を車両周辺領域へ投光する。次に、ステップST130では、撮像部3が車両周辺領域を撮像する。次に、ステップST140では、第1の復元部4が、第1のスリット光が当たっている部分の形状を復元する。次に、ステップST150では、第2の復元部5が、第2のスリット光が当たっている部分の形状を復元する。次に、ステップST160では、移動量算出部6が車両の移動量を算出する。次に、ステップST170では、移動物体検知部7が車両周辺領域における移動物体を検知する。次に、ステップST180では、統合部8が、第1の復元部4が復元した形状を統合して、車両周辺領域の3次元形状を復元する。次に、ステップST190では、障害物検知部9が、統合部8が復元した3次元形状を用いて障害物を検知する。次に、ステップST200では、障害物検知部9が処理を終了するか否かを判定し、処理を終了しない場合には、ステップST110の処理に戻る。
以上のように、実施の形態1に係る障害物検知装置は、第1のスリット光を車両周辺領域へ投光する第1の投光部1と、車両の幅方向に広がりを持つ第2のスリット光を車両周辺領域に向けて車両の接地面に平行な方向に投光する第2の投光部2と、第1のスリット光が広がる方向と第1のスリット光が投光される方向とで構成される面、および第2のスリット光が広がる方向と第2のスリット光が投光される方向とで構成される面とは異なる位置から車両周辺領域を撮像する撮像部3と、撮像部3が撮像した画像を用いて第1のスリット光が当たっている部分の形状を復元する第1の復元部4と、撮像部3が撮像した画像を用いて第2のスリット光が当たっている部分の形状を復元する第2の復元部5と、車両の移動量を算出する移動量算出部6と、第2の復元部5が復元した形状と移動量算出部6が算出した車両の移動量とを用いて車両周辺領域における移動物体を検知する移動物体検知部7と、移動量算出部6が算出した車両の移動量と移動物体検知部7が検知した移動物体の情報とを用いて第2の復元部5が復元した形状を統合して車両周辺領域の3次元形状を復元する統合部8と、統合部8が復元した3次元形状を用いて障害物を検知する障害物検知部9とを備える構成である。この構成により、移動物体が存在していたとしても車両周辺領域の3次元形状を正しく復元することができ、その3次元形状を用いて障害物を検知することが可能になる。
また、実施の形態1によれば、第1のスリット光は、車両の幅方向に広がりを持ち、車両の接地面に対して平行な方向以外に投光される構成である。これにより、車両の移動に合わせて車両の後方の領域をスリット光で走査することができ、広い範囲の3次元形状を復元することが可能になる。従って、駐車時の障害物検知が可能になる。
なお、実施の形態1において、第1のスリット光を投光する第1の投光部1および第2のスリット光を投光する第2の投光部2は、車両の後面に設置される構成であったが、車両の前面に設置される構成であってもよい。また、実施の形態1において、第1のスリット光および第2のスリット光は、車両の後退方向に投光される構成であったが、車両の前進方向に投光される構成であってもよい。上記構成により、障害物検知装置は、車両の前方の領域をスリット光で走査することができる。
実施の形態2.
実施の形態1では、車両後方または車両前方の少なくとも一方において障害物を検知する障害物検知装置を前提とした実施の形態を示したが、実施の形態2では、車両左側または車両右側の少なくとも一方において障害物を検知する障害物検知装置について記す。
図14は、この発明の実施の形態2に係る障害物検知装置が搭載された車両301を示す図である。図14に示すように、車両301の側部に、第1の投光機302、第2の投光機303およびカメラ304が搭載されている。
第1の投光機302は、車両301が接地する接地面に対して垂直な鉛直方向に広がりを持つ第1のスリット光305を、車両301の左側面から左方向に向けて投光する。この第1のスリット光305は、接地面に対して平行な方向にはほとんど広がりを持たない。
第2の投光機303は、車両301の前後方向に広がりを持つ、つまり接地面に対して平行な面状に広がりを持つ第2のスリット光306を、車両301の左側面から左方向に向けて投光する。この第2のスリット光306は、接地面に対して垂直な鉛直方向にはほとんど広がりを持たない。車両301の前後方向とは、車両を上面から見た時に車両301の前進および後退方向である。
撮像エリア307を撮像するカメラ304は、車両301の、第1の投光機302および第2の投光機303とは異なる位置に設置される。図14の例では、カメラ304は、第1の投光機302および第2の投光機303とは異なる高さに設置されている。また、カメラ304は、第1のスリット光305および第2のスリット光306が投光された車両周辺領域を撮像できる角度に設置される。図14では、車両周辺領域は車両301の左側の領域である。
実施の形態2に係る障害物検知装置の機能ブロック図は、実施の形態1の機能ブロック図である図3と同じ構成であり、処理の内容も同じであるため、詳細な説明を省略する。なお、図14における第1の投光機302、第2の投光機303、およびカメラ304は、図3における第1の投光部1、第2の投光部2、および撮像部3に相当する。
以下では、実施の形態2における移動物体検知部7および統合部8が行う処理内容について、車両左側に静止物体と移動物体がある例を挙げて説明する。
図15、図16、図17、図18、図19および図20は、車両310が徐々に前進していくときの、車両周辺領域である車両左側の様子を示した図である。図15を時刻t1の状況、図16を時刻t2の状況、図17を時刻t3の状況、図18を時刻t4の状況、図19を時刻t5の状況、図20を時刻t6の状況とし、時刻t1,t2,t3,t4,t5,t6の順に時間が経過していくものとする。図15〜図20には、車両310、静止物体311、移動物体312、第1のスリット光305が当たっている部分313、および第2のスリット光306が当たっている部分314が示されている。車両310は、矢印Aの方向へ前進している。移動物体312は矢印Bの方向へ移動している。移動物体312の例として人が示されているが、自転車または他車両等でもよい。
時刻t1,t2,t3,t4,t5,t6が経過するにつれて、第1のスリット光305が当たっている部分313は、徐々に移動していく。
それに対して、第2のスリット光306は、車両310の前後方向に広がりを持つ、つまり接地面に対して平行な面状に広がりを持ち、車両310に接する地面に平行に投光されるため、車両310が前進したとしても、常に同じ部分に当たることになる。そのため、第2のスリット光306は車両310の移動によらず常に静止物体311の同じ部分に当たる。同様に、第2のスリット光306は、車両310および移動物体312の移動によらず常に移動物体312の同じ部分に当たる。
図21、図22、図23、図24、図25および図26は、図15〜図20に示す時刻t1,t2,t3,t4,t5,t6に撮像された各画像から復元された第1の切断形状315と第2の切断形状316の推移を示す図である。図21から図26は、静止物体311および移動物体312が存在するエリアを上から真下に見たときの図である。
図21は、図15に示す時刻t1の状況下で撮像された画像を用いて、第1の復元部4が復元した第1の切断形状315と、第2の復元部5が復元した第2の切断形状316とを示す図である。図21では、第1のスリット光305が当たっている部分313が、第1の切断形状315として復元されている。また、第2のスリット光306が当たっている部分314のうち、静止物体311および移動物体312に当たっている部分が第2の切断形状316として復元されている。
図22は、図16に示す時刻t2の状況下で撮像された画像を用いて、第1の復元部4が復元した第1の切断形状315と、第2の復元部5が復元した第2の切断形状316とを示す図である。図22には、図15に示す時刻t1の状況下で撮像された画像を用いて復元した第2の切断形状316が、図16に示す時刻t2の状況下で撮像された画像を用いて復元した第2の切断形状316に重畳されて示されている。移動物体検知部7は、過去の時刻t1に得られた第2の切断形状316を、車両310の移動量だけ並進移動させて、新しく時刻t2に得られた第2の切断形状316に重畳する。
上記同様、移動物体検知部7は、図23〜図25において、過去の時刻t1,t2に得られた第2の切断形状316を、車両310の移動量だけ並進移動させて、新しく時刻t3,t4,t5に得られた第2の切断形状316に重畳する。
図26は、図20に示す時刻t6の状況下で撮像された画像を用いて、第1の復元部4が復元した第1の切断形状315と、第2の復元部5が復元した第2の切断形状316とを示す図である。図26には、図15〜図19に示す時刻t1〜t5の状況下で撮像された各画像を用いて復元した5つの第2の切断形状316が、図20に示す時刻t6の状況下で撮像された画像を用いて復元した第2の切断形状316に重畳して示されている。
図26において、第2の切断形状316のうちの静止物体311を表す部分317は、車両310の前進にかかわらず、常に同じ位置に重畳されているため、移動物体検知部7は、この部分317が静止している立体物であると判定する。
一方、移動物体312は、車両310が前進していくと同時に移動している。そのため、第2の切断形状316のうちの移動物体312を表す部分318は、車両310の移動量だけ並進移動させて重畳したとしても、重ならない。従って、移動物体検知部7は、この重ならない部分318を、移動物体として検知する。
統合部8は、第1の復元部4から第1の切断形状の情報を受け取り、移動量算出部6から車両310の移動量の情報を受け取り、移動物体検知部7から移動物体の情報を受け取る。統合部8は、移動量算出部6が算出した車両310の移動量と、移動物体検知部7が検知した移動物体の情報とを用いて、第1の復元部4が復元した第1の切断形状を統合して車両左側の車両周辺領域の3次元形状を復元する。具体的には、統合部8は、撮像タイミングごとに得られる第1の切断形状について、過去に得られた第1の切断形状を車両310の過去から現在までの移動量だけ並進移動させて、現在得られた第1の切断形状と重ねる処理を行うことにより、複数の第1の切断形状を統合し、車両周辺領域の3次元形状を復元する。ただし、統合部8は、移動物体検知部7により移動物体が検知された領域内の第1の切断形状を、過去から現在までの移動物体の移動量に合わせて移動させながら重ねる処理を行うことにより、車両周辺領域における移動物体の3次元形状も正しく復元する。なお、統合部8は、移動物体検知部7が過去の撮像画像から検知した移動物体の位置と現在の撮像画像から検知した移動物体の位置との差分を算出し、過去から現在までの移動物体の移動量とする。
図27は、統合部8により復元された3次元形状を示す図である。第1のスリット光305が当たっている部分313は、車両310の前進に合わせて図27紙面の左から右へと移動していく。車両310の前進に合わせて位置が変化する第1の切断形状が、車両310の移動量を加味して重畳され、車両周辺領域の3次元形状が復元される。その際、第1の切断形状のうちの移動物体312を表す部分は、移動物体312の移動量を加味して重畳されるため、移動物体312の3次元形状も正しく復元される。
なお、この例では、車両310の前後方向に移動していく移動物体312を検知する例を説明したが、車両310の左右方向に移動していく移動物体を検知することも可能である。ここで、図28に、実施の形態2において、車両310に近づいてくる移動物体312の検知例を示す。例えば矢印Bの方向へ移動することにより車両310に近づいてくる移動物体312の場合、その移動物体312の第2の切断形状は車両310の移動方向とは異なる方向に移動し、車両310に近づいてくることになる。そのため、第2の復元部5が、車両310の移動量だけ過去の第2の切断形状を並進移動させて現在の第2の切断形状に重ねる処理を行った場合、過去と現在の第2の切断形状は重ならず、かつ現在の第2の切断形状の方が車両310に近い位置となる。
以上のように、実施の形態2に係る障害物検知装置は、実施の形態1に係る障害物検知装置と同様に、移動物体が存在していたとしても車両周辺領域の3次元形状を正しく復元することができ、その3次元形状を用いて障害物を検知することが可能になる。
また、実施の形態2によれば、第1のスリット光は、鉛直方向に広がりを持ち、車両側面から左方向に投光される構成である。これにより、車両の移動に合わせて車両左側の領域をスリット光で走査することができ、広い範囲の3次元形状を復元することが可能になる。従って、例えば、縦列駐車時の駐車空間が存在するか否かの判定が可能になり、そのとき、その駐車空間に移動物体が存在するか否かを判定することも可能になる。
なお、実施の形態2において、第1のスリット光を投光する第1の投光部1および第2のスリット光を投光する第2の投光部2は、車両の左側面に設置される構成であったが、車両の右側面に設置される構成であってもよい。また、実施の形態2において、第1のスリット光および第2のスリット光は、車両の左方向に投光される構成であったが、車両の右方向に投光される構成であってもよい。上記構成により、障害物検知装置は、車両の右側の領域をスリット光で走査することができる。
また、実施の形態2において、第1のスリット光は、車両の左方向に投光される構成であったが、車両の左斜め前方方向、左斜め後方方向、右斜め前方方向、または右斜め後方方向に投光される構成であってもよい。
さらに、実施の形態1の障害物検知装置と実施の形態2の障害物検知装置は組み合わせ可能である。その場合、障害物検知装置は、車両の前方または後方の少なくとも一方、および、車両の左方向または右方向の少なくとも一方において障害物を検知できる。
実施の形態3.
図29は、この発明の実施の形態3に係る障害物検知装置を適用した運転支援システムのハードウェア構成図である。また、図30は、実施の形態3に係る障害物検知装置を適用した運転支援システムの機能ブロック図である。図29および図30において、図1〜図27と同一または相当する部分は、同一の符号を付し説明を省略する。運転支援システムに適用される障害物検知装置は、実施の形態1の障害物検知装置であってもよいし、実施の形態2の障害物検知装置であってもよいし、実施の形態1,2を組み合わせた障害物検知装置であってもよい。
図29に示すように、車両100に搭載されたスピーカ201、ディスプレイ202およびブレーキ203は、障害物検知ユニット204に接続されている。障害物検知ユニット204は、プロセッサ204aおよびメモリ204bを備えている。
図30に示すように、実施の形態3に係る運転支援システムは、第1の投光部1、第2の投光部2、撮像部3、第1の復元部4、第2の復元部5、移動量算出部6、移動物体検知部7、統合部8および障害物検知部9を備えた障害物検知装置と、衝突判定部21と、警報部22と、ブレーキ制御部23とから構成される。
衝突判定部21は、障害物検知部9の検知結果と、移動量算出部6が算出した車両100の移動量の情報と、移動物体検知部7が検知した移動物体の情報とを用いて、車両100と障害物との衝突判定を行うものである。なお、衝突判定部21は、車両100の移動量の情報と移動物体の情報とを、移動量算出部6および移動物体検知部7から直接受け取ってもよいし、統合部8および障害物検知部9を経由して受け取ってもよい。
例えば、衝突判定部21は、静止物体133に対する車両100の衝突判定として、車両100のこれまでの移動量を用いて車両100のこれからの動きを予測することで、何秒後に静止物体133に衝突するかを算出する。衝突判定部21は、移動物体134に対する車両100の衝突判定として、車両100のこれまでの移動量を用いて車両100のこれからの動きを予測すると共に、移動物体134のこれまでの移動量を用いて移動物体134のこれからの移動物体の動きを予想し、何秒後に移動物体134に衝突するかを算出する。そして、衝突判定部21は、算出した衝突までの時間を判定結果に含めて、警報部22およびブレーキ制御部23へ出力する。
警報部22は、衝突判定部21から受け取った判定結果に基づき、車両100と障害物とが衝突する可能性が高い状況を検知した場合に車両100の運転者に対して警報を発するものである。警報部22は、車両100に搭載されたスピーカ201およびディスプレイ202と、これらスピーカ201およびディスプレイ202を制御するコントローラとを含む。あるいは、警報部22は、スピーカ201およびディスプレイ202を制御するコントローラのみであってもよい。即ち、警報部22がスピーカ201およびディスプレイ202を制御することによって結果的に警報を発することができるものであればよい。警報部22は、スピーカ201から警報音を出力して運転者に衝突の可能性を報知してもよいし、衝突の可能性を報知する内容の警報をディスプレイ202に表示してもよい。また、警報部22は、スピーカ201とディスプレイ202の両方により警報を発してもよいし、いずれか一方のみから警報を発してもよい。
警報部22は、衝突判定部21の判定結果に基づき、車両100が障害物に衝突するまでの時間が予め定められた時間(例えば、2秒)より短い場合、警報を発する。警報を発するまでの時間は、静止物体133と移動物体134とで別々の時間を設定しておくことが可能である。例えば、車両100が駐車する状況では、静止物体133は駐車場周辺の壁またはポール等であり、移動物体134は駐車場を歩いている人等、特に子供である。障害物の種類によって車両100が衝突したときの重大性が異なるため、障害物が静止物体133である場合に比べて移動物体134である場合により早く警報を発することが望ましい。
ブレーキ制御部23は、衝突判定部21から受け取った判定結果に基づき、車両100と障害物とが衝突する可能性が極めて高い状況を検知した場合にブレーキ203を制御して車両100を停止させ、衝突を回避させるコントローラである。ブレーキ制御部23は、衝突判定部21の判定結果に基づき、車両100が障害物に衝突するまでの時間が予め定められた時間より短い場合、ブレーキ203を作動させて車両100を停止させる。例えば、ブレーキ203を作動させるまでの時間を、警報を発するまでの時間より短くすることによって、警報を発した上でブレーキ203を作動させるようにしてもよい。また、警報部22と同様に、ブレーキ制御部23においても、ブレーキ203を作動させるまでの時間を、静止物体133と移動物体134とで別々の時間を設定しておくことが可能である。
障害物検知ユニット204における第1の復元部4、第2の復元部5、移動量算出部6、移動物体検知部7、統合部8、障害物検知部9、衝突判定部21、警報部22およびブレーキ制御部23の各機能は、ソフトウェア、ファームウェア、またはソフトウェアとファームウェアとの組み合わせにより実現される。ソフトウェアまたはファームウェアはプログラムとして記述され、図29に示したメモリ204bに格納される。プロセッサ204aは、メモリ204bに格納されているプログラムを読みだして実行することにより、各部の機能を実現する。即ち、運転支援システムは、プロセッサ204aにより実行されるときに、撮像部3が撮像した画像を用いて第1のスリット光111が当たっている部分の形状を復元するステップと、撮像部3が撮像した画像を用いて第2のスリット光112が当たっている部分の形状を復元するステップと、車両100の移動量を算出するステップと、第2の復元部5が復元した形状と移動量算出部6が算出した車両100の移動量とを用いて車両周辺領域における移動物体を検知するステップと、移動量算出部6が算出した車両100の移動量と移動物体検知部7が検知した移動物体の情報とを用いて第1の復元部4が復元した形状を統合して車両周辺領域の3次元形状を復元するステップと、統合部8が復元した3次元形状を用いて障害物を検知するステップと、障害物検知部9の検知結果と移動量算出部6が算出した車両100の移動量と移動物体検知部7が検知した移動物体の情報とを用いて車両100と障害物との衝突判定を行うステップと、衝突判定部21の判定結果に基づき警報を発するステップと、衝突判定部21の判定結果に基づき車両100のブレーキ203を制御するステップとが結果的に実行されることになるプログラムを格納するためのメモリ204bを備える。また、このプログラムは、第1の復元部4、第2の復元部5、移動量算出部6、移動物体検知部7、統合部8、障害物検知部9、衝突判定部21、警報部22およびブレーキ制御部23の手順または方法をコンピュータに実行させるものであるともいえる。
なお、実施の形態1および実施の形態2と同様に、第1の投光部1、第2の投光部2および撮像部3のコントローラとしての機能は、専用の処理回路を用いて実現する構成であってもよいし、障害物検知ユニット204のプロセッサ204aおよびメモリ204bを用いて実現する構成であってもよい。
また、警報部22およびブレーキ制御部23のコントローラとしての機能も、専用の処理回路を用いて実現する構成であってもよいし、障害物検知ユニット204のプロセッサ204aおよびメモリ204bを用いて実現する構成であってもよい。
以上のように、実施の形態3に係る運転支援システムは、実施の形態1で説明した障害物検知装置または実施の形態2で説明した障害物検知装置の少なくとも一方と、この障害物検知装置における障害物検知部9の検知結果と移動量算出部6が算出した車両100の移動量と移動物体検知部7が検知した移動物体の情報とを用いて車両と障害物との衝突判定を行う衝突判定部21と、衝突判定部21の判定結果に基づき警報を発する警報部22とを備える構成である。この構成により、移動物体が存在する可能性のある車両周辺領域の3次元形状を正しく復元して障害物を検知し、その障害物との衝突危険性に応じて運転者に警報を発することが可能になる。
また、実施の形態3に係る運転支援システムは、衝突判定部21の判定結果に基づき車両のブレーキを制御するブレーキ制御部23を備える構成であってもよい。この構成にすることにより、車両と障害物との衝突可能性が高い場合に自動的にブレーキを作動させて衝突可能性を軽減することができる。
なお、本発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、各実施の形態の任意の構成要素の変形、または各実施の形態の任意の構成要素の省略が可能である。
この発明に係る障害物検知装置は、静止物体と移動物体を判定して3次元形状を正しく復元するようにしたので、運転支援システムなどに用いるのに適している。
100,301,310 車両、101,302 第1の投光機、102,302 第2の投光機、103,304 カメラ、104,204 障害物検知ユニット、104a,204a プロセッサ、104b,204b メモリ、105 ヨーレートセンサ、106 車速センサ、110 接地面、111,305 第1のスリット光、112,306 第2のスリット光、113,307 撮像エリア、121,315 第1の切断形状、122 基準線、123 距離、131 ルーフ、132 地面、133,311 静止物体、134,312 移動物体、135,313 第1のスリット光が当たっている部分、136,314 第2のスリット光が当たっている部分、137,316 第2の切断形状、138,317 第2の切断形状のうちの静止物体を表す部分、139,31 第2の切断形状のうちの移動物体を表す部分、201 スピーカ、202 ディスプレイ、203 ブレーキ、1 第1の投光部、2 第2の投光部、3 撮像部、4 第1の復元部、5 第2の復元部、6 移動量算出部、7 移動物体検知部、8 統合部、9 障害物検知部、21 衝突判定部、22 警報部、23 ブレーキ制御部。
この発明に係る障害物検知装置は、第1のスリット光を車両周辺領域へ投光する第1の投光部と、車両の幅方向または前後方向に広がりを持つ第2のスリット光を、車両周辺領域に向けて車両の接地面に平行な方向に投光する第2の投光部と、第1のスリット光が広がる方向と第1のスリット光が投光される方向とで構成される面、および第2のスリット光が広がる方向と第2のスリット光が投光される方向とで構成される面とは異なる位置から車両周辺領域を撮像する撮像部と、撮像部が撮像した画像を用いて、第1のスリット光が当たっている部分の形状を復元する第1の復元部と、撮像部が撮像した画像を用いて、第2のスリット光が当たっている部分の形状を復元する第2の復元部と、車両の移動量を算出する移動量算出部と、第2の復元部が復元した形状と移動量算出部が算出した車両の移動量とを用いて、車両周辺領域における移動物体を検知する移動物体検知部とを備え、第1の復元部が復元した形状と、第2の復元部が復元した形状と、移動量算出部が算出した車両の移動量とを用いて、障害物を検知するものである。

Claims (23)

  1. 第1のスリット光を車両周辺領域へ投光する第1の投光部と、
    前記車両の幅方向に広がりを持つ第2のスリット光を、前記車両周辺領域に向けて前記車両の接地面に平行な方向に投光する第2の投光部と、
    前記第1のスリット光が広がる方向と前記第1のスリット光が投光される方向とで構成される面、および前記第2のスリット光が広がる方向と前記第2のスリット光が投光される方向とで構成される面とは異なる位置から前記車両周辺領域を撮像する撮像部とを備え、
    前記撮像部が撮像した画像を用いて、障害物を検知する障害物検知装置。
  2. 第1のスリット光を車両周辺領域へ投光する第1の投光部と、
    前記車両の前後方向に広がりを持つ第2のスリット光を、前記車両周辺領域に向けて前記車両の接地面に平行な方向に投光する第2の投光部と、
    前記第1のスリット光が広がる方向と前記第1のスリット光が投光される方向とで構成される面、および前記第2のスリット光が広がる方向と前記第2のスリット光が投光される方向とで構成される面とは異なる位置から前記車両周辺領域を撮像する撮像部とを備え、
    前記撮像部が撮像した画像を用いて、障害物を検知する障害物検知装置。
  3. 前記撮像部が撮像した画像を用いて、前記第1のスリット光が当たっている部分の形状を復元する第1の復元部と、
    前記撮像部が撮像した画像を用いて、前記第2のスリット光が当たっている部分の形状を復元する第2の復元部とを備え、
    前記第1の復元部が復元した形状と、前記第2の復元部が復元した形状とを用いて障害物を検知することを特徴とする請求項1または請求項2に記載の障害物検知装置。
  4. 前記撮像部が撮像した画像を用いて、前記第1のスリット光が当たっている部分の形状を復元する第1の復元部と、
    前記撮像部が撮像した画像を用いて、前記第2のスリット光が当たっている部分の形状を復元する第2の復元部と、
    前記車両の移動量を算出する移動量算出部と、
    前記第2の復元部が復元した形状と前記移動量算出部が算出した前記車両の移動量とを用いて、前記車両周辺領域における移動物体を検知する移動物体検知部とを備え、
    前記第1の復元部が復元した形状と、前記第2の復元部が復元した形状と、前記移動量算出部が算出した前記車両の移動量とを用いて障害物を検知することを特徴とする請求項1または請求項2に記載の障害物検知装置。
  5. 前記撮像部が撮像した画像を用いて、前記第1のスリット光が当たっている部分の形状を復元する第1の復元部と、
    前記撮像部が撮像した画像を用いて、前記第2のスリット光が当たっている部分の形状を復元する第2の復元部と、
    前記車両の移動量を算出する移動量算出部と、
    前記第2の復元部が復元した形状と前記移動量算出部が算出した前記車両の移動量とを用いて、前記車両周辺領域における移動物体を検知する移動物体検知部と、
    前記移動量算出部が算出した前記車両の移動量と前記移動物体検知部が検知した移動物体の情報とを用いて、前記第1の復元部が復元した形状を統合して前記車両周辺領域の3次元形状を復元する統合部と、
    前記統合部が復元した3次元形状を用いて障害物を検知する障害物検知部とを備えることを特徴とする請求項1または請求項2に記載の障害物検知装置。
  6. 前記第2のスリット光を投光する前記第2の投光部は、前記第1のスリット光を投光する前記第1の投光部とは別の位置に設置されることを特徴とする請求項1または請求項2に記載の障害物検知装置。
  7. 前記第1のスリット光は、前記車両の幅方向に広がりを持ち、前記車両の接地面に対して平行な方向以外に投光されることを特徴とする請求項1に記載の障害物検知装置。
  8. 前記第1のスリット光を投光する前記第1の投光部は、前記車両の後面または前面の少なくとも一方に設置されることを特徴とする請求項1に記載の障害物検知装置。
  9. 前記第2のスリット光は、前記車両の幅方向に広がりを持ち、前記車両の後退方向または前進方向の少なくとも一方に投光されることを特徴とする請求項1に記載の障害物検知装置。
  10. 前記第2のスリット光を投光する前記第2の投光部は、前記車両の後面または前面の少なくとも一方に設置されることを特徴とする請求項1に記載の障害物検知装置。
  11. 前記第1のスリット光は、鉛直方向に広がりを持ち、前記車両の側面から右方向、右斜め前方方向もしくは右斜め後方方向、または、左方向、左斜め前方方向もしくは左斜め後方方向のうちの少なくとも1方向に投光されることを特徴とする請求項2に記載の障害物検知装置。
  12. 前記第1のスリット光を投光する前記第1の投光部は、前記車両の左側面または右側面の少なくとも一方に設置されることを特徴とする請求項2に記載の障害物検知装置。
  13. 前記第2のスリット光は、前記車両の前後方向に広がりを持ち、車両の左方向または右方向の少なくとも一方に投光されることを特徴とする請求項2に記載の障害物検知装置。
  14. 前記第2のスリット光を投光する前記第2の投光部は、前記車両の左側面または右側面の少なくとも一方に設置されることを特徴とする請求項2に記載の障害物検知装置。
  15. 前記第1の復元部および前記第2の復元部は、前記撮像部が時系列に撮像した複数の画像を用いて、前記第1のスリット光が当たっている部分の形状および前記第2のスリット光が当たっている部分の形状を復元し、
    前記移動物体検知部は、前記第2の復元部が前記複数の画像を用いて復元した形状と前記移動量算出部が算出した前記車両の移動量とを用いて、前記車両周辺領域における移動物体を検知し、
    前記統合部は、前記移動量算出部が算出した前記車両の移動量と前記移動物体検知部が検知した移動物体の情報とを用いて、前記第1の復元部が前記複数の画像を用いて復元した形状を統合することを特徴とする請求項5に記載の障害物検知装置。
  16. 前記第1の復元部または前記第2の復元部の少なくとも一方は、前記第1の投光部または前記第2の投光部の少なくとも一方の位置およびスリット光の投光方向、ならびに、前記撮像部の位置、撮像方向および画角に基づき、画像中に写ったスリット光の位置の座標値から三角測量の原理に基づき3次元位置を計算して形状を復元することを特徴とする請求項3に記載の障害物検知装置。
  17. 前記移動物体検知部は、前記第2の復元部が復元した形状と前記移動量算出部が算出した前記車両の移動量とに基づき、前記第2の復元部が復元した前記形状の位置を前記車両の移動量分だけ並進移動させたときに、移動前の前記形状と移動後の前記形状とが重なるか重ならないかを求め、重ならない場合に前記形状が移動物体であると判断することを特徴とする請求項4に記載の障害物検知装置。
  18. 前記移動物体検知部は、前記第2の復元部が復元した形状と前記移動量算出部が算出した前記車両の移動量とに基づき、前記第2の復元部が復元した形状の位置を前記車両の移動量分だけ並進移動させたときの、移動前の前記形状と移動後の前記形状のずれ量を検知し、そのずれ量を移動物体の移動量として検知することを特徴とする請求項5に記載の障害物検知装置。
  19. 前記統合部は、前記第1の復元部が復元した形状と、前記移動量算出部が算出した前記車両の移動量と、前記移動物体検知部が検知した移動物体の移動量に基づき、前記第1の復元部が復元した前記形状を前記車両の移動量と前記移動物体の移動量分だけ並進移動させて統合することにより前記車両周辺領域の3次元形状を復元することを特徴とする請求項18に記載の障害物検知装置。
  20. 請求項1または請求項2に記載の障害物検知装置と、
    前記障害物検知装置の障害物検知結果を用いて、前記車両と障害物との衝突判定を行う衝突判定部と、
    前記衝突判定部の判定結果に基づき警報を発する警報部とを備える運転支援システム。
  21. 前記衝突判定部の判定結果に基づき前記車両のブレーキを制御するブレーキ制御部を備えることを特徴とする請求項20記載の運転支援システム。
  22. 第1のスリット光を車両周辺領域へ投光するステップと、
    前記車両の幅方向に広がりを持つ第2のスリット光を、前記車両周辺領域に向けて前記車両の接地面に平行な方向に投光するステップと、
    前記第1のスリット光が広がる方向と前記第1のスリット光が投光される方向とで構成される面、および前記第2のスリット光が広がる方向と前記第2のスリット光が投光される方向とで構成される面とは異なる位置から前記車両周辺領域を撮像するステップと、
    前記車両周辺領域を撮像した画像を用いて、障害物を検知するステップとを備える障害物検知方法。
  23. 第1のスリット光を車両周辺領域へ投光するステップと、
    前記車両の前後方向に広がりを持つ第2のスリット光を、前記車両周辺領域に向けて前記車両の接地面に平行な方向に投光するステップと、
    前記第1のスリット光が広がる方向と前記第1のスリット光が投光される方向とで構成される面、および前記第2のスリット光が広がる方向と前記第2のスリット光が投光される方向とで構成される面とは異なる位置から前記車両周辺領域を撮像するステップと、
    前記車両周辺領域を撮像した画像を用いて、障害物を検知するステップとを備える障害物検知方法。
JP2018516374A 2016-05-10 2017-03-23 障害物検知装置、運転支援システムおよび障害物検知方法 Active JP6486560B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016094690 2016-05-10
JP2016094690 2016-05-10
PCT/JP2017/011752 WO2017195477A1 (ja) 2016-05-10 2017-03-23 障害物検知装置、運転支援システムおよび障害物検知方法

Publications (2)

Publication Number Publication Date
JPWO2017195477A1 true JPWO2017195477A1 (ja) 2018-10-04
JP6486560B2 JP6486560B2 (ja) 2019-03-20

Family

ID=60267027

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018516374A Active JP6486560B2 (ja) 2016-05-10 2017-03-23 障害物検知装置、運転支援システムおよび障害物検知方法

Country Status (3)

Country Link
US (1) US10789850B2 (ja)
JP (1) JP6486560B2 (ja)
WO (1) WO2017195477A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3087721B1 (fr) * 2018-10-24 2021-07-30 Valeo Vision Systeme et procede pour l’eclairage d’une region laterale d’un vehicule
CN113071480B (zh) * 2021-04-30 2022-06-03 重庆长安汽车股份有限公司 自动泊车障碍物检测方法、泊车方法、系统及车辆
KR20230056134A (ko) * 2021-10-19 2023-04-27 현대모비스 주식회사 운전자를 이중으로 보호하기 위한 방법 및 장치
JP7575733B1 (ja) 2024-07-18 2024-10-30 株式会社Futu-Re 補正装置及び補正方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0626859A (ja) * 1992-07-07 1994-02-04 Nippon Yusoki Co Ltd 無人走行車の測距装置
JPH0883124A (ja) * 1994-09-13 1996-03-26 Kobe Steel Ltd 無人搬送車
JP2004328240A (ja) * 2003-04-23 2004-11-18 Denso Corp 周辺画像表示装置
JP2008071759A (ja) * 2006-09-15 2008-03-27 Saft Groupe Sa アルカリ電解液電池の負極の組成及び組成からなるアノード、このアノードからなるアルカリ電解液電池

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SE439377B (sv) * 1978-07-26 1985-06-10 Hitachi Ltd Anordning for optisk inspektion av rorledningar
JP2901112B2 (ja) 1991-09-19 1999-06-07 矢崎総業株式会社 車両周辺監視装置
US6142252A (en) * 1996-07-11 2000-11-07 Minolta Co., Ltd. Autonomous vehicle that runs while recognizing work area configuration, and method of selecting route
US6215898B1 (en) * 1997-04-15 2001-04-10 Interval Research Corporation Data processing system and method
KR100729986B1 (ko) * 1999-12-20 2007-06-20 아시스트 신꼬, 인코포레이티드 자동반송시스템
WO2001081949A2 (en) * 2000-04-26 2001-11-01 Arete Associates Very fast time resolved imaging in multiparameter measurement space
EP1422495A4 (en) * 2001-07-30 2009-06-03 Topcon Corp SURFACE MEASUREMENT DEVICE, SURFACE FORMAT METHOD, SURFACE STATE GRAPHIC DEVICE
EP1461687A1 (en) * 2001-11-27 2004-09-29 Elishah Ben-Ezra Automated airport luggage system
JP2004198212A (ja) 2002-12-18 2004-07-15 Aisin Seiki Co Ltd 移動体周辺監視装置
US7483134B2 (en) * 2005-02-10 2009-01-27 Unity Scientific, Llc Scanning monochromator with direct drive grating
US20090309710A1 (en) * 2005-04-28 2009-12-17 Aisin Seiki Kabushiki Kaisha Vehicle Vicinity Monitoring System
JP4600760B2 (ja) * 2005-06-27 2010-12-15 アイシン精機株式会社 障害物検出装置
JP2007326428A (ja) 2006-06-07 2007-12-20 Denso Corp 駐車支援装置
JP2007327803A (ja) 2006-06-07 2007-12-20 Denso Corp 車両周辺監視装置
JP2008051759A (ja) * 2006-08-28 2008-03-06 Nissan Motor Co Ltd 距離計測装置及び距離計測方法
US8958911B2 (en) * 2012-02-29 2015-02-17 Irobot Corporation Mobile robot
JP5582162B2 (ja) * 2012-04-03 2014-09-03 株式会社デンソー 指針表示装置
US9234618B1 (en) * 2012-09-27 2016-01-12 Google Inc. Characterizing optically reflective features via hyper-spectral sensor
US20160188977A1 (en) * 2014-12-24 2016-06-30 Irobot Corporation Mobile Security Robot

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0626859A (ja) * 1992-07-07 1994-02-04 Nippon Yusoki Co Ltd 無人走行車の測距装置
JPH0883124A (ja) * 1994-09-13 1996-03-26 Kobe Steel Ltd 無人搬送車
JP2004328240A (ja) * 2003-04-23 2004-11-18 Denso Corp 周辺画像表示装置
JP2008071759A (ja) * 2006-09-15 2008-03-27 Saft Groupe Sa アルカリ電解液電池の負極の組成及び組成からなるアノード、このアノードからなるアルカリ電解液電池

Also Published As

Publication number Publication date
US10789850B2 (en) 2020-09-29
WO2017195477A1 (ja) 2017-11-16
US20200265718A1 (en) 2020-08-20
JP6486560B2 (ja) 2019-03-20

Similar Documents

Publication Publication Date Title
JP6486560B2 (ja) 障害物検知装置、運転支援システムおよび障害物検知方法
JP6471528B2 (ja) 物体認識装置、物体認識方法
CN108351207B (zh) 立体相机装置
JP5414714B2 (ja) 車戴カメラ及び車載カメラシステム
US9950667B2 (en) Vehicle system for detecting object and operation method thereof
KR20150051735A (ko) 주차 보조 시스템 및 그 방법
JP2005300315A (ja) 物体検出装置
JP6291866B2 (ja) 運転支援装置、および運転支援方法
JP5651642B2 (ja) 物体位置検知装置
JP2009076076A (ja) 障害物を認識する方法
KR20060021922A (ko) 두 개의 카메라를 이용한 장애물 감지 기술 및 장치
US20180239020A1 (en) Object detection device, object detection method, and program
JP3612970B2 (ja) トンネル検出装置及びそれを用いた車両制御装置
JP2016024602A (ja) 物体検知装置及びそれを用いた車両制御システム
KR101558586B1 (ko) 차량 주위 영상 표시장치 및 방법
JP2002036987A (ja) 車両周囲監視装置
JP4762830B2 (ja) 周辺監視システム
JP2020030466A (ja) 物体検知装置
JP2009276906A (ja) 走行情報提供装置
JP2008275380A (ja) 車両周辺監視装置
KR102529555B1 (ko) 자율 긴급 제동 시스템 및 이의 구동 방법
JP2015042952A (ja) 障害物検知装置および電動車両
JP4321410B2 (ja) 物体検出装置、および方法
JP2010093569A (ja) 車両周辺監視装置
US20240248196A1 (en) Object Detection Method and Object Detecting Device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180612

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180612

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190122

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190219

R150 Certificate of patent or registration of utility model

Ref document number: 6486560

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250