JP6062122B2 - 運転支援装置、運転支援方法及びプログラム - Google Patents

運転支援装置、運転支援方法及びプログラム Download PDF

Info

Publication number
JP6062122B2
JP6062122B2 JP2016543496A JP2016543496A JP6062122B2 JP 6062122 B2 JP6062122 B2 JP 6062122B2 JP 2016543496 A JP2016543496 A JP 2016543496A JP 2016543496 A JP2016543496 A JP 2016543496A JP 6062122 B2 JP6062122 B2 JP 6062122B2
Authority
JP
Japan
Prior art keywords
image
detection range
captured image
position information
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016543496A
Other languages
English (en)
Other versions
JPWO2016027289A1 (ja
Inventor
道学 吉田
道学 吉田
尚之 対馬
尚之 対馬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Application granted granted Critical
Publication of JP6062122B2 publication Critical patent/JP6062122B2/ja
Publication of JPWO2016027289A1 publication Critical patent/JPWO2016027289A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W50/16Tactile feedback to the driver, e.g. vibration or force feedback to the driver on the steering wheel or the accelerator pedal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/251Fusion techniques of input or preprocessed data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/803Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of input or preprocessed data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/143Alarm means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Automation & Control Theory (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明は、自車両周辺の物体を認識する運転支援装置、運転支援方法及びプログラムに関するものである。
近年、自車両周囲の車両、人、障害物等の物体を認識し、HUD(Head Up Display)と呼ばれる半透過のディスプレイを用いて風景に物体の情報を重畳させることによりドライバーに危険を通知する技術が知られている。また、認識した自車両周囲の物体の情報に基づき車両を制御し、衝突を回避したり衝撃を低減する技術が知られている。このような技術においては、センサやカメラを利用して周囲に存在する物体を認識し、認識した物体の情報を把握し管理することが必要となる。しかしながら、センサにより物体を検出しようとする場合、その物体の色濃度が高いとレーザ光や電波の反射率が低くなり、精度良く物体を検出できない場合があった。
特許文献1に記載された装置においては、画像処理により、カメラから取得した撮像画像内の色濃度が高い部分を検出することで、自車両周囲の物体を認識していた。
特開2014−106200号公報
しかしながら、従来の装置では、撮像画像全体に対して色濃度が高い部分を検出する処理を行っており、物体の認識に時間がかかるという課題があった。
本発明は、上述した課題を解決するためになされたものであり、撮像画像から物体を認識する処理時間を短くすることができる運転支援装置、運転支援方法及びプログラムを提供することを目的とする。
本発明に係る運転支援装置は、車両周囲の撮像画像を取得する画像取得部と、センサによって検出された車両周囲における第1の物体の位置情報を取得する位置情報取得部と、前記第1の物体の位置情報に基づき前記撮像画像内における前記第1の物体の検出範囲を決定する検出範囲決定部と、前記撮像画像内における前記第1の物体の検出範囲以外の範囲の画像に対し画像処理を行い前記第1の物体とは異なる第2の物体を認識する物体認識部とを備える。
また、本発明に係る他の運転支援装置は、車両周囲の撮像画像を取得する画像取得部と、センサによる第1ライン方向の照射によって検出された車両周囲における第1の物体の位置情報を取得し、前記センサによる第2ライン方向の照射によって検出された車両周囲における第2の物体の位置情報を取得する位置情報取得部と、前記第1の物体の位置情報に基づき前記撮像画像内における前記第1の物体の検出範囲を決定し、前記第2の物体の位置情報に基づき前記撮像画像内における前記第2の物体の検出範囲を決定する検出範囲決定部と、前記撮像画像内のうち、前記第1の物体の検出範囲と前記第2の物体の検出範囲とを合わせた範囲以外の範囲の画像に対して画像処理を行い、前記第1の物体及び前記第2の物体とは異なる第3の物体を認識する物体認識部とを備える。
本発明に係る運転支援方法は、車両周囲の撮像画像を取得するステップと、センサによって検出された車両周囲における第1の物体の位置情報を取得するステップと、前記第1の物体の位置情報に基づき前記撮像画像内における前記第1の物体の検出範囲を決定するステップと、前記撮像画像内における前記第1の物体の検出範囲以外の範囲の画像に対し画像処理を行い前記第1の物体とは異なる第2の物体を認識するステップとを有する。
本発明に係るプログラムは、コンピュータに、車両周囲の撮像画像を取得する処理と、センサによって検出された車両周囲における第1の物体の位置情報を取得する処理と、前記第1の物体の位置情報に基づき前記撮像画像内における前記第1の物体の検出範囲を決定する処理と、前記撮像画像内における前記第1の物体の検出範囲以外の範囲の画像に対し画像処理を行い前記第1の物体とは異なる第2の物体を認識する処理とを実行させる。
本発明の運転支援装置、運転支援方法、及びプログラムによれば、センサによって検出された車両周囲の物体の位置情報に基づき撮像画像内における第1の物体の検出範囲を検出し、その検出範囲以外の範囲に対して画像処理を行って第2の物体を認識するので、物体を認識する処理時間を短くすることが可能となる。
実施の形態1に係る運転支援システムの構成例を示す図である。 実施の形態1に係る物体認識部306の詳細構成の例を示す図である。 実施の形態1に係る運転支援装置300のハードウェア構成例を示す図である。 実施の形態1に係る運転支援装置300の動作例を示すフローチャートである。 実施の形態1に係るカメラ200により取得された撮像画像の例を示す図である。 実施の形態1に係るセンサ100によるセンサ情報の取得を説明するためのイメージ図である。 実施の形態1に係る撮像画像中において第1の物体が一致する位置を示すイメージ図である。 実施の形態1に係る撮像画像中における第1の物体の検出範囲を示す図である。 実施の形態1に係る認識処理のアルゴリズムの一例を示すフローチャートである。 実施の形態1に係る第1の認識部316の処理を説明するための図である。 実施の形態2に係る運転支援システムの構成例を示す図である。 実施の形態1に係る認識処理のアルゴリズムの一例を示すフローチャートである。 実施の形態2に係る第1の認識部316の処理を説明するための図である。 実施の形態3に係る運転支援システムの構成例を示す図である。 実施の形態3に係るセンサ100によるセンサ情報の取得を説明するためのイメージ図である。 実施の形態3に係る撮像画像中において第2の物体が一致する位置を示すイメージ図である。
実施の形態1.
以下図面を用いて本発明の実施の形態1を説明する。
図1は実施の形態1に係る運転支援システムの構成例を示す図である。運転支援システムは、センサ100と、カメラ200と、運転支援装置300とから構成され、これらはそれぞれ車両に搭載される。
センサ100は、例えばLIDAR(Light Detection and Ranging)等のレーザセンサが該当し、レーザ光を照射してその反射光を検知することにより、自車両から自車両周囲の物体(車両、人、障害物等)までの距離情報及び自車両周囲の物体の位置情報を検出する。LIDARは、水平方向にレーザを走査し、例えば190度といった広範囲を0.4度程度の解像度で自車両から物体までの距離情報を取得することが可能である。以降の説明では距離情報の取得は水平方向のみとするが、PMD(Photonic Mixer Device)等の他の種類のセンサにより高さ方向についても距離情報の取得を行ってもよい。なお、センサ100は、レーザセンサに限らず、例えば電波を用いるレーダセンサを用いてもよい。
しかしながら、センサ100によるセンサ情報取得にあたって、色濃度が低い薄い色(例えば白色)の物体に関してはレーザの反射光を十分検知できるが、色濃度が高い濃い色(例えば黒色)の物体に関してはレーザの反射光を十分検知できない。
カメラ200は、自車両周辺の画像を撮像する撮像装置であり、可視光のカメラであっても、赤外線カメラであってもよい。
運転支援装置300は、センサ情報取得部301と、画像取得部302と、一致点検出部303と、検出範囲決定部304と、記憶部305と、物体認識部306と、モデル生成部307と、制御部308とを備える。
センサ情報取得部301は、センサ100によって検出された自車両周囲の物体の位置情報及び距離情報とをセンサ情報として取得する。そのため、センサ情報取得部301は、位置情報取得部と表現してもよいし、距離情報取得部と表現してもよい。
画像取得部302は、カメラ200によって撮像された自車両周囲の画像を取得する。ここで、自車両周囲とは、例えば自車両から数十cmから数十mの範囲内を言う。
一致点検出部303は、画像取得部302から撮像画像の情報を受信し、センサ情報取得部301からセンサ情報を受信する。一致点検出部303は、センサ情報に含まれる物体の位置情報に基づき、センサにより検出された物体の位置が、受信した撮像画像のうちいずれの位置に一致するかを検出し、物体の一致する位置(一致点)の情報を一致点情報として検出範囲決定部304に出力する。なお、一致点検出部303による一致点の検出処理において、センサ100とカメラ200とを事前にキャリブレーションしているものとする。
検出範囲決定部304は、一致点検出部303から得た一致点情報から、撮像画像内における物体の検出範囲を決定する。換言すると、検出範囲決定部304は、センサ100により得られた物体の位置情報に基づき撮像画像内における物体の検出範囲を決定するともいえる。検出範囲の決定方法については後述する。
記憶部305には、物体の特徴を表すエッジ画像が記憶される。このエッジ画像は、例えば物体が車両である場合には、車両の平均的な外形を表すエッジ画像等であればよい。
物体認識部306は、検出範囲決定部304により決定された撮像画像内における物体(以下、第1の物体と呼称する。)の検出範囲以外の範囲から、画像処理により、第1の物体とは異なる物体(以下、第2の物体と呼称する。)を認識する。物体認識部306は、画像処理を行うにあたり、記憶部305で記憶されるエッジ画像を利用する。ここで、物体を認識するとは、その物体が車両であるか、人であるか、又は障害物であるかを判別することを意味し、さらに、その判別した車両等の形、大きさを判別するようにしてもよい。また、記憶部305に車種毎のエッジ画像を複数用意しておくことで、車両がいずれの車種であるかまで認識することが可能となる。
図2は実施の形態1に係る物体認識部306の詳細構成の例を示す図である。物体認識部306は、第1の認識部316と、第2の認識部326とを備える。
第1の認識部316は、撮像画像内における第1の物体の検出範囲以外の範囲から、色濃度が閾値以上のピクセル群を検出し、検出したピクセル群に基づいた領域を算出する。この領域の算出方法については後述する。
第2の認識部326は、第1の認識部316により検出された領域内の画像に対して画像処理を施し、領域内に存在する第2の物体を認識する。第2の認識部316は、記憶部306に記憶されるエッジ画像を用いて、領域内の画像に対しマッチングを施すことにより、領域内に存在する第2の物体を認識する。より具体的に言うと、第2の認識部326は、画像の輝度勾配をヒストグラム化する画像特徴抽出法であるHOG(Histogram of Oriented Gradients)といった手法を用いて第2の物体を認識することが可能である。
図1に戻って、モデル生成部307は、自車両周囲の物体についてのモデルを生成する。モデル生成部307は、センサ100により得られたセンサ情報を用いて、自車両周囲に存在する第1の物体のモデルを生成する。このセンサ情報には、自車両から第1の物体までの距離情報及び第1の物体の位置情報が含まれている。
また、モデル生成部307は、物体認識部306で認識された第2の物体の撮像画像内における位置情報から、モーションステレオ技術やデプスマップ技術を利用して自車両から第2の物体までの距離情報及び第2の物体の位置情報を算出し、自車両周囲に存在する第2の物体のモデルを生成する。モデルとしては、例えば、物体等を線の情報だけで表示するワイヤーフレームモデル、面の情報で表示するサーフィスモデル、多角形のパッチの集合体で表現するポリゴンモデル、物体の実物に近い中身の詰まったものとして表現するソリッドモデル、物体を四角形で囲み、その4点と最近接点の計5点で表現するモデル等を用いることができる。これらのモデルには、自車両とモデルとの間の距離情報が保持される。
モデル生成部307は、生成した複数のモデル間の各距離に基づき、複数のモデルをグルーピングして1つのモデルとして扱うようにしてもよい。例えば、モデル間の距離が近く、かつ、物体の種類(車両、人、障害物等)が同じものについては1つのモデルとして生成し、管理する。そうすることで、生成するモデルの数を減らすことができ、容量の削減を実現できる。モデル間の距離が近いとは、例えば、モデル間の距離が閾値以下か否かによって定められる。
制御部308は、モデル生成部307で生成された自車両周囲の物体のモデルをナビ画面やHUD(Head Up Display)等の表示装置に表示するよう制御する。表示装置に表示されることにより、ドライバーに自車両周囲の物体の存在を視覚的に認識させることが可能となる。また、制御部308は、表示に限らず、音声や振動により自車両周囲の物体の存在をドライバーに通知するよう制御してもよい。この場合は、モデル生成部307により生成されたモデルは必要とせず、自車両周囲の物体の位置情報及び距離情報が分かれば良い。また、制御部308は、自車両周囲の物体の位置情報及び距離情報に基づき、車両の運転(例えばブレーキ操作等)を制御するよう外部に信号を送信するようにしてもよい。
次に、運転支援装置300のハードウェア構成について説明する。
図3は実施の形態1に係る運転支援装置300のハードウェア構成例を示す図である。運転支援装置300は、CPU(Central Processing Unit)、DSP(Digital Signal Processing)、FPGA(Field Programmable Gate Array)のうちいずれか1つ又はこれらを複数組み合わせて構成される処理装置350と、ROM(Read Only Memory)やハードディスク装置等の記憶装置360と、受信機370と、送信機380とがバス接続された構成となっている。なお、CPU、DSP、FPGAは、自身にもメモリを備える。
センサ情報取得部301、画像取得部302、一致点検出部303、検出範囲決定部304、物体認識部306、モデル生成部307、制御部308はそれぞれプログラムとして記憶装置360に記憶される。そして、処理装置350がこれらを適宜読みだして実行することにより、各機能が実現される。つまり、処理装置350であるハードウェアと上記プログラムであるソフトウェアとを組み合わせることにより、上記の「〜部」の機能を実現する。換言すると、処理装置350は、上記の「〜部」の機能を実現するようプログラムされているともいえる。なお、これら機能は、ハードウェアとソフトウェアとの組み合わせに限らず、処理装置350に上記プログラムをインプリメントし、ハードウェア単体で実現するようにしてもよい。こういったことから、各機能の実現において、処理装置350を構成するCPU、DSP、FPGAがそれぞれどのように処理するかは任意に設計可能であるが、例えば、検出範囲決定部304の検出範囲決定処理、物体認識部307の物体認識処理、モデル生成部307のモデル生成処理についてはDSPまたはFPGAが主体的に行い、センサ情報取得部301、画像取得部302、一致点検出部303、制御部308の処理についてはCPUが主体的に行うことが、処理速度の観点から好ましい。
受信機270はセンサ情報又は撮像画像を受信するハードウェアである。送信機280は制御部からの信号を送信するハードウェアである。なお、受信機270と送信機280による受信機能と送信機能は、受信及び送信が一体となった送受信機により実現されるようにしてもよい。
次に、実施の形態1に係る運転支援装置300の動作について説明する。
図4は実施の形態1に係る運転支援装置300の動作例を示すフローチャートである。まず、センサ情報取得部301はセンサ100からセンサ情報を取得し、画像取得部302はカメラ200から撮像画像を取得する(ステップS1)。
図5は実施の形態1に係るカメラ200により取得された撮像画像の例を示す図である。第1の物体としての車両と、第2の物体としての車両が撮像画像中に含まれる。
図6は実施の形態1に係るセンサ100によるセンサ情報の取得を説明するためのイメージ図である。自車両は、例えばレーザセンサにより所定範囲内を水平方向にレーザ光で照射する。第1の物体はボディの色濃度が低い色であるため、自車両から照射されたレーザ光を反射する。このようにレーザ光を水平方向に照射しその反射を見ることにより、物体が存在するか否かによって距離情報が変化することを検知することができる。そして、距離情報の変化点に基づき物体の位置を求める。ここでは、位置x1及び位置x2が距離情報の変化点であるので、第1の物体の位置情報はx1、x2となる。一方で、第2の物体はボディの色濃度が高い色であるため、レーザ光を十分に反射しない。なお、ここではセンサ100は1ラインについてのセンサ情報を取得するものとするが、これに限らない。
図1に戻って、一致点検出部303は、取得した撮像画像のうち第1の物体が一致する位置を検出する(ステップS2)。
図7は実施の形態1に係る撮像画像中において第1の物体が一致する位置を示すイメージ図である。一致点検出部303は、センサ100から第1の物体の位置情報(例えばx1、x2)を取得し、座標変換することにより、撮像画像中における第1の物体の位置を一致点として検出する。図7に示すように、第1の物体の位置は撮像画像中におけるX1、X2となり、これらはそれぞれセンサ情報に含まれる位置情報x1、x2に対応する。一方で、第2の物体に関しては、センサ100によりセンサ情報を取得できなかったので、撮像画像中における第2の物体の位置を一致点として検出することはできない。
図1に戻って、検出範囲決定部304は、一致点検出部303で検出された一致点から、第1の物体の検出範囲を決定する(ステップS3)。
図8は実施の形態1に係る撮像画像中における第1の物体の検出範囲を示す図である。撮像画像中、点線で囲まれた範囲が第1の物体の検出範囲として決定される。検出範囲は、水平方向において、撮像画像中の第1の物体の位置X1、X2を包含するよう幅(|X1'−X2'|)を設けている。そうすることにより、センサ情報にノイズが含まれX1、X2の位置が実際の位置と多少ずれた場合であっても、確実に第1の物体を検出範囲含めることができる。なお、検出範囲の垂直方向については、図8の例ではその幅を任意に(|Y1'−Y2'|)と決めたが、複数のセンサを用いて第1の物体の垂直方向の位置を求め、その位置に基づいて決定してもよいし、経験則に基づいて決定してもよい。
図1に戻って、物体認識部は、撮像画像内における第1の物体の検出範囲以外の範囲から、第2の物体を認識する(ステップS4)。
図9は実施の形態1に係る認識処理のアルゴリズムの一例を示すフローチャートである。処理装置350は、物体認識部306による認識処理、つまり、図9に示すアルゴリズム(ステップS41からステップS46)を実行することによりステップS4の認識処理を実現するようプログラムされている。
まず、物体認識部306を構成する第1の認識部316は、検出範囲決定部304からの情報に基づき、撮像画像中における第1の物体の検出範囲を認識する(ステップS41)。検出範囲決定部304からの情報とは、例えば、図8に示す撮像画像中の位置情報X1'、X2'、Y1'、Y2'である。
次に、第1の認識部316は、第1の物体の検出範囲以外の範囲において色濃度が閾値以上のピクセル群を抽出する(ステップS42)。
図10は実施の形態1に係る第1の認識部316の処理を説明するための図である。図10の例では、第2の物体のタイヤやボディの上半分が黒色だとする。そうすると、撮像画像中、第2の物体のタイヤやボディの上半分の個所が、色濃度が閾値以上のピクセル群として算出されることとなる。第1の認識部316は、第1の物体の検出範囲内について色濃度が閾値以上のピクセル群を算出する処理を行わないので、処理時間を短縮し、なおかつ運転支援装置300の処理負荷を低くすることができる。
図9に戻って、第1の認識部316は、算出したピクセル群に基づいて、当該ピクセル群を包含するような領域を設定する(ステップS43)。
この領域は、図10に示すように、色濃度が閾値以上のピクセル群を包含するように設けられていればよい。こうすることにより、色濃度が閾値以上のピクセル群の算出に多少エラーが生じても、確実に第2の物体を包含することが可能となる。
図9に戻って、次に、第2の認識部326は、第1の認識部316が設定した領域の情報を取得し、また、記憶部305からエッジ画像を取得する(ステップS44)。
第2の認識部326は、第1の認識部316が設定した領域内の画像に対し、エッジ画像とのマッチング処理を行う(ステップS45)。こうすることにより、第2の認識部326は、撮像画像全体ではなく、設定された領域内の画像に対してのみマッチング処理をすれば足りるので、処理時間を短縮し、なおかつ運転支援装置300の処理負荷を低くすることができる。
第2の認識部326は、設定された領域内の画像に対してマッチング処理を行った結果、マッチングが成功すれば第2の物体を車両であると認識する(ステップS46)。マッチングが成功しなければ、第2の認識部326は第2の物体を車両であると認識できない。
図4に戻って、モデル生成部307は、物体認識部306を構成する第2の認識部326により認識された第2の物体の撮像画像内における位置情報を利用して、自車両から第2の物体までの距離情報及び第2の物体の位置情報を算出し、第2の物体のモデルを生成する(ステップS5)。また、モデル生成部307は、センサ100により得られたセンサ情報(位置情報及び距離情報)を用いて、自車両周囲に存在する第1の物体のモデルを生成する。
制御部308は、モデル生成部307により生成されたモデルをHUD等に表示することにより、ドライバーに自車両周囲の第1の物体及び第2の物体の存在を通知する、又は、第1の物体及び第2の物体の位置情報及び距離情報に基づいて車両の運転を制御する(ステップS7)。
以上より、実施の形態1によれば、検出範囲決定部304が撮像画像内における第1の物体の検出範囲を決定し、物体認識部306が撮像画像内における第1の物体の検出範囲以外の範囲の画像に対し画像処理を行うことにより第2の物体を認識するので、撮像画像における画像処理を行う範囲を狭くすることができ、処理時間を短縮することが可能となる。
さらに言えば、物体認識部306の第1の認識部316は、撮像画像内における第1の物体の検出範囲以外の範囲の画像に対して画像処理、すなわち色濃度が閾値以上のピクセル群の算出処理を行い、物体認識部306の第2の認識部326は、算出されたピクセル群に基づく領域内の画像に対してのみ画像処理、すなわち領域内の画像とエッジ画像とのマッチング処理を行うので、処理時間を短縮することが可能となり、さらに、運転支援装置300の処理負荷を低くすることが可能となる。特に、撮像画像とエッジ画像とのマッチング処理は、撮像画像全体に対して行うと非常に時間がかかってしまうので、設定された領域内の画像に対してのみマッチング処理を行うことによる時間の短縮の影響は大きい。
また、運転支援の技術分野では、カメラで撮像した後、自車両周囲の物体を素早く認識し、ドライバーに通知すること又は車両を制御することが重要となるが、実施の形態1によれば、物体の認識のための処理時間を短縮するので、ドライバーへの通知又は車両の制御を素早く行うことが可能となり、ドライバーへの安全をより一層担保することができる。
一方で、画像処理の対象外とした第1の物体については、センサ100によりその位置情報及び距離情報を検出できるので、自車両周囲の第1の物体及び第2の物体のいずれも精度高く認識することが可能である。
実施の形態2.
以下図面を用いて本発明の実施の形態2について説明する。実施の形態1では、撮像画像内における第1の物体の検出範囲以外の範囲の画像に対し画像処理を行うことにより第2の物体を認識したが、実施の形態2では、道路が奥行き方向に向かって交わる消失点(Vanishing Point)の情報を利用することにより、撮像画像における画像処理を行う範囲をさらに狭める。
図11は実施の形態2に係る運転支援システムの構成例を示す図である。実施の形態2の運転支援装置300Aは、消失点通知部309を新たに備える点において実施の形態1の運転支援装置300と異なる。他の構成については実施の形態1と同様であるので、図1と同一の符号を付してその説明を省略する。
消失点通知部309は、撮像画像内における消失点を含む高さの水平方向の線(消失ライン)の位置情報を物体認識部306に通知する。
図12は実施の形態1に係る認識処理のアルゴリズムの一例を示すフローチャートである。ステップS041、043、S044、S045、S046については図9のステップS41、S43、S44、S45、S46に相当するのでここでは説明を省略する。
物体認識部306の第1の認識部316は、ステップS041において第1の物体の検出範囲を認識した後、第1の物体の検出範囲以外の範囲で、かつ、消失ラインより下の範囲において色濃度が閾値以上のピクセル群を抽出する(ステップS042)。
図13は実施の形態2に係る第1の認識部316の処理を説明するための図である。第1の認識部316は、消失点通知部309から消失ラインの位置情報(Yv)を通知される。そして、第1の認識部316は、撮像画像内において、第1の物体の検出範囲以外の範囲で、かつ、消失ラインYvよりも下の範囲において、色濃度が閾値以上のピクセル群を抽出する処理を行う。
そのため、図13に示すように、第1の識別部316は、第2の物体のうち、消失ラインよりも下のボディ部分と、タイヤ部分とを、色濃度が閾値以上のピクセル群として抽出する。そして、第1の識別部316は、抽出したピクセル群に基づき領域を決定する(ステップS043)。
以上より、実施の形態2によれば、物体認識部306が、消失点の情報を利用して第2の物体を認識するので、画像処理を行う撮像画像の範囲をさらに狭くすることができるので、実施の形態1よりも処理時間を短縮することが可能となる。
つまり、第1の認識部316は、撮像画像中、第1の物体の検出範囲以外で、かつ、消失ラインよりも下の画像に対して色濃度が閾値以上のピクセル群を抽出するので、その抽出範囲を実施の形態1よりもさらに狭めることができ、処理時間を短縮することが可能となる。なお、消失ラインは、上述したように、道路が奥行き方向に向かって交わる消失点からなる線であることから、消失ラインよりも下の範囲の画像に対して画像処理を行えば、道路上の物体を漏れなく検出することが可能である。
なお、ここでは撮像画像中、消失ラインよりも下の範囲の画像に対して画像処理、つまり色濃度の高いピクセル群を抽出する処理を行うとしたが、これに限らない。例えば、撮像画像内における車線を検知し、その車線内に含まれる画像に対して物体認識部306は画像処理を行ってもよい。つまり、第1の認識部316は、撮像画像内において、第1の物体の検出範囲以外で、かつ、車線内に含まれる画像に対して、色濃度の高いピクセル群を抽出処理を行う。そうすることで、抽出範囲を実施の形態1よりもさらに狭めることができ、処理時間を短縮することが可能となる。
実施の形態3.
以下図面を用いて本発明の実施の形態3について説明する。実施の形態1では、センサ情報取得部301は1ラインについてのセンサ情報を取得するようにしたが、実施の形態3では、センサ情報取得部301は複数ラインについてのセンサ情報を取得するので、撮像画像中、物体認識部306が画像処理を行う範囲を狭くする。
図14は実施の形態3に係る運転支援システムの構成例を示す図である。実施の形態3の運転支援システムにおいては、センサ制御装置400をさらに備える点において実施の形態1の運転支援システムと異なる。他の構成については実施の形態1と同様であるので、図1と同一の符号を付してその説明を省略する。
センサ制御装置400は、例えばモータ等により実現され、センサ100を垂直方向に振るよう制御する。
図15は実施の形態3に係るセンサ100によるセンサ情報の取得を説明するためのイメージ図である。図15の例では、これまで説明した第1の物体、第2の物体に加え、ボディ全身が黒色の第3の物体も車両周囲に存在する。
この場合、第1の物体に関しては、センサ100による第1ライン方向についてのレーザ光の照射により位置情報(x1、x2)の検出が可能であるが、第2の物体及び第3の物体の位置を検出することはできない。つまり、位置情報取得部301は、センサ100による第1ライン方向の照射によって検出された第1の物体の位置情報を取得するが、第2の物体及び第3の物体の位置情報を取得できない。そのため、検出範囲決定部304は、第1の物体の検出範囲を検出できるものの、第2の物体及び第3の物体の検出範囲は検出できない。そうすると、物体認識部306は、実施の形態1で説明したように、撮像画像中、第1の物体の検出範囲以外の画像に対して画像処理を行う必要がある。
一方で、実施の形態3においては、センサ制御装置400がセンサ100を垂直方向に振るよう制御するので、2ライン以上についてのセンサ情報を取得することができる。そうすると、第2ライン方向についてのレーザ光を照射すると、第2の物体のボディの下半分は色濃度の低い色であることから、当該レーザ光を十分反射し、その位置情報(x3、x4)を検出が可能となる。そうすると、位置情報取得部301は、センサ100による第2ライン方向の照射によって検出された第2の物体の位置情報を取得することができる。なお、図15に図示していないが、第2の物体の位置を検出した第2ライン方向のレーザ光の照射により、第1の物体の位置情報をさらに検出することが可能である。第3の物体については、ボディ全身が黒色であることから、第2の物体の位置を検出した第2ライン方向のレーザ光の照射によっても、その位置情報を取得することはできない。
図16は実施の形態3に係る撮像画像中において第2の物体が一致する位置を示すイメージ図である。図16に示すように、検出範囲決定部304は、センサ情報取得部301で取得された第1の物体の位置情報(x1、x2)に対応する撮像画像中の位置(X1、X2)に基づいて第1の物体の検出範囲を検出する。また、検出範囲決定部304は、センサ情報取得部301で取得された第2の物体の位置情報(x3、x4)に対応する撮像画像中の位置(X3、X4)に基づいて第2の物体の検出範囲を検出する。
物体認識部306は、撮像画像のうち、第1の物体の検出範囲と第2の物体の検出範囲を合わせた範囲以外の範囲の画像に対して画像処理を行い、第3の物体を認識する。
以上より、実施の形態3によれば、センサ制御装置400がセンサ100を垂直方向に振るよう制御し、センサ情報取得部301は複数ラインについてのセンサ情報を取得するので、センサにより検出可能な自車両周囲の物体が多くなり、撮像画像のうち物体認識部306が画像処理を行う範囲を減らすことができ、実施の形態1よりも処理時間を短縮することが可能となる。
なお、これまでセンサ制御装置400がセンサ100を垂直方向に振るよう制御するこことで複数ラインについてのセンサ情報を取得するようにしていたが、これに限らない。例えば、センサ情報を取得するためのラインが異なる複数のセンサを利用することにより、複数ラインについてのセンサ情報を取得するようにしてもよい。
なお、第1ライン方向、第2ライン方向は撮像画像における水平方向を表すものとして説明したが、これに限らず、垂直方向を表すものであってもよい。
100 センサ、200 カメラ、300 運転支援装置、301 センサ情報取得部、302 画像取得部、303 一致点検出部、304 検出範囲決定部、305 記憶部、306 物体認識部、307 モデル生成部、308 制御部、309 消失点通知部、316 第1の認識部、326 第2の認識部、350 処理装置、360 記憶装置、370 受信機、380 送信機、400 センサ制御装置

Claims (10)

  1. 車両周囲の撮像画像を取得する画像取得部と、
    センサによって検出された車両周囲における第1の物体の位置情報を取得する位置情報取得部と、
    前記第1の物体の位置情報に基づき前記撮像画像内における前記第1の物体の検出範囲を決定する検出範囲決定部と、
    前記撮像画像内における前記第1の物体の検出範囲以外の範囲の画像に対し画像処理を行い前記第1の物体とは異なる第2の物体を認識する物体認識部とを備える運転支援装置。
  2. 前記物体認識部は、前記撮像画像内における前記第1の物体の検出範囲以外の範囲から、色濃度が閾値以上のピクセル群を抽出し、前記ピクセル群に基づき領域を算出する第1の認識部と、
    前記第1の認識部で検出された前記領域内の画像に対して画像処理を行うことにより前記第2の物体を認識する第2の認識部とを備えることを特徴とする請求項1に記載の運転支援装置。
  3. 前記第2の物体の特徴を表すエッジ画像を記憶する記憶部を備え、
    前記第2の認識部は、前記領域内の画像に対して前記エッジ画像をマッチングすることにより前記第2の物体を認識することを特徴とする請求項2に記載の運転支援装置。
  4. 前記第1の認識部は、前記撮像画像内の消失点を含む高さの水平方向のラインよりも下の画像から、色濃度が閾値以上のピクセル群を抽出することを特徴とする請求項2または3に記載の運転支援装置。
  5. 前記第1の認識部は、前記撮像画像内に含まれる車線内の画像から、色濃度が閾値以上のピクセル群を抽出することを特徴とする請求項2または3に記載の運転支援装置。
  6. 前記物体認識部で認識された前記第2の物体に対し、前記車両との間の距離情報を保持するモデルを生成するモデル生成部を備えることを特徴とする請求項1から5のいずれか1項に記載の運転支援装置。
  7. 前記モデル生成部は、生成された複数のモデル間の距離が閾値以下の場合には、前記複数のモデルを1つのモデルとして生成することを特徴とする請求項6に記載の運転支援装置。
  8. 車両周囲の撮像画像を取得する画像取得部と、
    センサによる第1ライン方向の照射によって検出された車両周囲における第1の物体の位置情報を取得し、前記センサによる第2ライン方向の照射によって検出された車両周囲における第2の物体の位置情報を取得する位置情報取得部と、
    前記第1の物体の位置情報に基づき前記撮像画像内における前記第1の物体の検出範囲を決定し、前記第2の物体の位置情報に基づき前記撮像画像内における前記第2の物体の検出範囲を決定する検出範囲決定部と、
    前記撮像画像内のうち、前記第1の物体の検出範囲と前記第2の物体の検出範囲とを合わせた範囲以外の範囲の画像に対して画像処理を行い、前記第1の物体及び前記第2の物体とは異なる第3の物体を認識する物体認識部とを備える運転支援装置。
  9. 車両周囲の撮像画像を取得するステップと、
    センサによって検出された車両周囲における第1の物体の位置情報を取得するステップと、
    前記第1の物体の位置情報に基づき前記撮像画像内における前記第1の物体の検出範囲を決定するステップと、
    前記撮像画像内における前記第1の物体の検出範囲以外の範囲の画像に対し画像処理を行い前記第1の物体とは異なる第2の物体を認識するステップとを有する運転支援方法。
  10. コンピュータに、
    車両周囲の撮像画像を取得する処理と、
    センサによって検出された車両周囲における第1の物体の位置情報を取得する処理と、
    前記第1の物体の位置情報に基づき前記撮像画像内における前記第1の物体の検出範囲を決定する処理と、
    前記撮像画像内における前記第1の物体の検出範囲以外の範囲の画像に対し画像処理を行い前記第1の物体とは異なる第2の物体を認識する処理とを実行させるプログラム。
JP2016543496A 2014-08-21 2014-08-21 運転支援装置、運転支援方法及びプログラム Active JP6062122B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2014/004287 WO2016027289A1 (ja) 2014-08-21 2014-08-21 運転支援装置、運転支援方法及びプログラム

Publications (2)

Publication Number Publication Date
JP6062122B2 true JP6062122B2 (ja) 2017-01-18
JPWO2016027289A1 JPWO2016027289A1 (ja) 2017-04-27

Family

ID=55350271

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016543496A Active JP6062122B2 (ja) 2014-08-21 2014-08-21 運転支援装置、運転支援方法及びプログラム

Country Status (5)

Country Link
US (1) US10192122B2 (ja)
JP (1) JP6062122B2 (ja)
CN (1) CN106573588B (ja)
DE (1) DE112014006876T5 (ja)
WO (1) WO2016027289A1 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6062122B2 (ja) * 2014-08-21 2017-01-18 三菱電機株式会社 運転支援装置、運転支援方法及びプログラム
KR101637716B1 (ko) * 2014-11-03 2016-07-07 현대자동차주식회사 차량의 장애물 위치 인식 장치 및 방법
US10284794B1 (en) * 2015-01-07 2019-05-07 Car360 Inc. Three-dimensional stabilized 360-degree composite image capture
KR101778558B1 (ko) * 2015-08-28 2017-09-26 현대자동차주식회사 물체 인식 장치, 그를 가지는 차량 및 그 제어 방법
CN108140309B (zh) 2015-11-20 2020-12-08 三菱电机株式会社 驾驶辅助装置、驾驶辅助系统以及驾驶辅助方法
DE102016114168A1 (de) * 2016-08-01 2018-02-01 Connaught Electronics Ltd. Verfahren zum Erfassen eines Objekts in einem Umgebungsbereich eines Kraftfahrzeugs mit Vorhersage der Bewegung des Objekts, Kamerasystem sowie Kraftfahrzeug
WO2018110183A1 (ja) 2016-12-14 2018-06-21 パナソニックIpマネジメント株式会社 撮像制御装置、撮像制御方法、プログラムおよび記録媒体
JP7103759B2 (ja) * 2017-06-16 2022-07-20 株式会社デンソーウェーブ 車両認識装置、車両認識システム、車両認識プログラム
CN107945575A (zh) * 2017-11-20 2018-04-20 深圳市中通视际实业有限公司 一种车辆监控装置及其方法
JP7003689B2 (ja) * 2018-01-29 2022-01-20 トヨタ自動車株式会社 制御装置およびエージェント連携方法
JP6996353B2 (ja) * 2018-03-06 2022-01-17 トヨタ自動車株式会社 物体認識装置及び車両走行制御システム
JP7243478B2 (ja) * 2019-06-24 2023-03-22 トヨタ自動車株式会社 車両用情報記録装置
US11748844B2 (en) 2020-01-08 2023-09-05 Carvana, LLC Systems and methods for generating a virtual display of an item

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06293236A (ja) * 1992-12-22 1994-10-21 Mitsubishi Electric Corp 走行環境監視装置
JP2002362302A (ja) * 2001-06-01 2002-12-18 Sogo Jidosha Anzen Kogai Gijutsu Kenkyu Kumiai 歩行者検出装置
JP2006322797A (ja) * 2005-05-18 2006-11-30 Olympus Corp 画像処理装置、画像処理方法および画像処理プログラム
JP2012180055A (ja) * 2011-03-02 2012-09-20 Toyota Motor Corp 車両制御装置
JP2014106200A (ja) * 2012-11-29 2014-06-09 Toyota Motor Corp 周辺監視装置及び駐車支援装置

Family Cites Families (63)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05296767A (ja) * 1992-04-20 1993-11-09 Mitsubishi Electric Corp 車間距離検出装置
JP2726366B2 (ja) 1992-09-07 1998-03-11 日本電信電話株式会社 視点・物点位置決定方法
JP3240835B2 (ja) 1994-06-09 2001-12-25 株式会社日立製作所 車両用距離計測装置
US6396535B1 (en) 1999-02-16 2002-05-28 Mitsubishi Electric Research Laboratories, Inc. Situation awareness system
US6658136B1 (en) * 1999-12-06 2003-12-02 Microsoft Corporation System and process for locating and tracking a person or object in a scene using a series of range images
JP2001195692A (ja) 2000-01-13 2001-07-19 Toshiba Corp 車側及びインフラ側の情報を整理統合する共通プラットフォーム
JP2003044996A (ja) 2001-07-31 2003-02-14 Matsushita Electric Ind Co Ltd 障害物検出装置
JP3925285B2 (ja) 2002-04-17 2007-06-06 日産自動車株式会社 走行路環境検出装置
JP3875941B2 (ja) 2002-09-30 2007-01-31 三菱電機株式会社 車両走行支援装置および車両走行支援サービスの提供方法
JP3779280B2 (ja) 2003-03-28 2006-05-24 富士通株式会社 衝突予測装置
JP2005025692A (ja) * 2003-07-04 2005-01-27 Suzuki Motor Corp 車両用情報提供装置
JP2005090974A (ja) 2003-09-12 2005-04-07 Daihatsu Motor Co Ltd 先行車認識装置
JP4033106B2 (ja) 2003-10-22 2008-01-16 日産自動車株式会社 車両用測距性能低下検出装置
WO2005088970A1 (ja) 2004-03-11 2005-09-22 Olympus Corporation 画像生成装置、画像生成方法、および画像生成プログラム
JP4052291B2 (ja) 2004-08-05 2008-02-27 日産自動車株式会社 車両用画像処理装置
JP4432730B2 (ja) 2004-11-01 2010-03-17 日産自動車株式会社 車両用道路標示検出装置
JP4494983B2 (ja) 2005-01-07 2010-06-30 三菱重工業株式会社 ポータブル型車両番号認識装置およびポータブル型車両番号認識装置による車両番号認識方法
WO2006121087A1 (ja) 2005-05-10 2006-11-16 Olympus Corporation 画像処理装置、画像処理方法および画像処理プログラム
JP2006339960A (ja) 2005-06-01 2006-12-14 Nissan Motor Co Ltd 物体検出装置、および物体検出方法
JP4102885B2 (ja) 2005-07-15 2008-06-18 国土交通省国土技術政策総合研究所長 駐車車両検知方法及び駐車車両検知システム
JP4656408B2 (ja) 2005-08-05 2011-03-23 株式会社デンソー 車両用周囲監視装置
JP4823781B2 (ja) 2005-08-31 2011-11-24 本田技研工業株式会社 車両の走行安全装置
JP4850471B2 (ja) 2005-10-04 2012-01-11 富士重工業株式会社 車両情報提示装置
JP4813141B2 (ja) 2005-10-05 2011-11-09 川崎重工業株式会社 情報提供装置
JP2007172541A (ja) 2005-12-26 2007-07-05 Toyota Motor Corp 運転支援装置
JP4923647B2 (ja) 2006-03-17 2012-04-25 株式会社デンソー 運転支援画像表示装置及びプログラム
JP4311426B2 (ja) 2006-09-12 2009-08-12 住友電気工業株式会社 移動体を表示するための表示システム、車載装置及び表示方法
JP4420002B2 (ja) * 2006-09-14 2010-02-24 トヨタ自動車株式会社 視線先推定装置
JP4893945B2 (ja) 2007-02-06 2012-03-07 株式会社デンソー 車両周辺監視装置
JP4434224B2 (ja) * 2007-03-27 2010-03-17 株式会社デンソー 走行支援用車載装置
JP4558758B2 (ja) 2007-05-07 2010-10-06 三菱電機株式会社 車両用障害物認識装置
FR2921027B1 (fr) 2007-09-17 2010-02-26 Valeo Vision Dispositif d'aide a la conduite pour vehicule automobile comportant un systeme de capture d'images stereoscopique
JP4992755B2 (ja) 2008-02-25 2012-08-08 株式会社デンソー 交差点運転支援システム、車載器、及び、路側機
JP2010250452A (ja) 2009-04-14 2010-11-04 Tokyo Univ Of Science 任意視点画像合成装置
JP2011060179A (ja) 2009-09-14 2011-03-24 National Institute Of Advanced Industrial Science & Technology 操舵制御方法
JP5520004B2 (ja) 2009-10-28 2014-06-11 富士重工業株式会社 車両用運転支援装置
JP2011196942A (ja) 2010-03-23 2011-10-06 Pioneer Electronic Corp ナビゲーション装置及び右折支援方法
JP5531733B2 (ja) 2010-04-01 2014-06-25 トヨタ自動車株式会社 道路情報取得装置
AU2010201740B2 (en) * 2010-04-30 2013-03-07 Canon Kabushiki Kaisha Method, apparatus and system for performing a zoom operation
JP5626578B2 (ja) * 2010-12-02 2014-11-19 アイシン・エィ・ダブリュ株式会社 走行支援システム、走行支援プログラム、及び走行支援方法
JP2013019684A (ja) 2011-07-07 2013-01-31 Honda Motor Co Ltd 車両周辺監視装置
WO2013035353A1 (ja) * 2011-09-05 2013-03-14 三菱電機株式会社 画像処理装置及び画像処理方法
JP5690688B2 (ja) * 2011-09-15 2015-03-25 クラリオン株式会社 外界認識方法,装置,および車両システム
WO2013168246A1 (ja) * 2012-05-09 2013-11-14 トヨタ自動車株式会社 運転支援装置
WO2013171784A1 (ja) 2012-05-14 2013-11-21 三菱電機株式会社 運転支援装置
EP2669845A3 (en) * 2012-06-01 2014-11-19 Ricoh Company, Ltd. Target recognition system, target recognition method executed by the target recognition system, target recognition program executed on the target recognition system, and recording medium storing the target recognition program
JP6212880B2 (ja) * 2013-03-04 2017-10-18 株式会社デンソー 物標認識装置
US8897548B2 (en) * 2013-04-02 2014-11-25 National Chung Cheng University Low-complexity method of converting image/video into 3D from 2D
JP2015052548A (ja) * 2013-09-09 2015-03-19 富士重工業株式会社 車外環境認識装置
CN105849770B (zh) 2013-12-26 2019-04-26 三菱电机株式会社 信息处理装置及信息处理方法
JP6547292B2 (ja) * 2014-02-05 2019-07-24 株式会社リコー 画像処理装置、機器制御システム、および画像処理プログラム
JP6471528B2 (ja) * 2014-02-24 2019-02-20 株式会社リコー 物体認識装置、物体認識方法
JP6648411B2 (ja) * 2014-05-19 2020-02-14 株式会社リコー 処理装置、処理システム、処理プログラム及び処理方法
JP6163453B2 (ja) * 2014-05-19 2017-07-12 本田技研工業株式会社 物体検出装置、運転支援装置、物体検出方法、および物体検出プログラム
JP6350082B2 (ja) * 2014-08-01 2018-07-04 株式会社デンソー 画像処理装置
JP6361366B2 (ja) * 2014-08-18 2018-07-25 株式会社デンソー 物体認識装置
JP6062122B2 (ja) * 2014-08-21 2017-01-18 三菱電機株式会社 運転支援装置、運転支援方法及びプログラム
JP6447863B2 (ja) * 2014-10-17 2019-01-09 シャープ株式会社 移動体
JP6532229B2 (ja) * 2014-12-18 2019-06-19 株式会社デンソーテン 物体検出装置、物体検出システム、物体検出方法及びプログラム
KR101778558B1 (ko) * 2015-08-28 2017-09-26 현대자동차주식회사 물체 인식 장치, 그를 가지는 차량 및 그 제어 방법
JP6310899B2 (ja) * 2015-11-25 2018-04-11 株式会社Subaru 車外環境認識装置
CN107176161B (zh) * 2016-03-10 2021-11-23 松下电器(美国)知识产权公司 识别结果提示装置、识别结果提示方法以及自主移动体
CN107179767B (zh) * 2016-03-10 2021-10-08 松下电器(美国)知识产权公司 驾驶控制装置、驾驶控制方法以及非瞬时性记录介质

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06293236A (ja) * 1992-12-22 1994-10-21 Mitsubishi Electric Corp 走行環境監視装置
JP2002362302A (ja) * 2001-06-01 2002-12-18 Sogo Jidosha Anzen Kogai Gijutsu Kenkyu Kumiai 歩行者検出装置
JP2006322797A (ja) * 2005-05-18 2006-11-30 Olympus Corp 画像処理装置、画像処理方法および画像処理プログラム
JP2012180055A (ja) * 2011-03-02 2012-09-20 Toyota Motor Corp 車両制御装置
JP2014106200A (ja) * 2012-11-29 2014-06-09 Toyota Motor Corp 周辺監視装置及び駐車支援装置

Also Published As

Publication number Publication date
WO2016027289A1 (ja) 2016-02-25
CN106573588B (zh) 2019-01-25
CN106573588A (zh) 2017-04-19
US20170140230A1 (en) 2017-05-18
US10192122B2 (en) 2019-01-29
JPWO2016027289A1 (ja) 2017-04-27
DE112014006876T5 (de) 2017-05-18

Similar Documents

Publication Publication Date Title
JP6062122B2 (ja) 運転支援装置、運転支援方法及びプログラム
JP6696697B2 (ja) 情報処理装置、車両、情報処理方法およびプログラム
US11320833B2 (en) Data processing method, apparatus and terminal
JP4203512B2 (ja) 車両周辺監視装置
JP6540009B2 (ja) 画像処理装置、画像処理方法、プログラム、画像処理システム
WO2021227645A1 (zh) 目标检测方法和装置
JP5407898B2 (ja) 対象物検出装置及びプログラム
JP6804991B2 (ja) 情報処理装置、情報処理方法、および情報処理プログラム
KR102374211B1 (ko) 객체 인식 방법 및 이를 수행하는 객체 인식 장치
JP2013239015A (ja) 駐車支援装置、駐車支援方法およびプログラム
CN111971682A (zh) 路面检测装置、利用了路面检测装置的图像显示装置、利用了路面检测装置的障碍物检测装置、路面检测方法、利用了路面检测方法的图像显示方法以及利用了路面检测方法的障碍物检测方法
JP6705497B2 (ja) 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、プログラム、及び移動体
JP2007304033A (ja) 車両の周辺監視装置、車両、車両の周辺監視方法、および車両の周辺監視用プログラム
CN105006175A (zh) 主动识别交通参与者的动作的方法和系统及相应的机动车
JP5935435B2 (ja) 画像処理装置、画像処理方法
CN114746894A (zh) 图像处理装置、图像处理方法以及图像处理程序
KR101612822B1 (ko) 차선 인식 장치 및 그 방법
JPWO2017099199A1 (ja) 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム
JP4753053B2 (ja) 物体種別判定装置、物体種別判定方法、及び物体種別判定用プログラム
JP2008286648A (ja) 距離計測装置、距離計測システム、距離計測方法
JP4765113B2 (ja) 車両周辺監視装置、車両、車両周辺監視用プログラム、車両周辺監視方法
US20180365854A1 (en) Information processing apparatus, moving object, information processing method, and computer program product
KR101784584B1 (ko) 레이저 회전을 이용하여 3차원 물체를 판별하는 장치 및 방법
KR102346849B1 (ko) 영상 데이터 및 센싱 데이터 융합을 위한 전자 장치 및 전자 장치의 데이터 융합 방법.
JP2022012811A (ja) 障害物検出装置及び障害物検出方法

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20161104

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161115

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161213

R150 Certificate of patent or registration of utility model

Ref document number: 6062122

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250