JP2018109875A - 画像処理装置および画像処理方法 - Google Patents

画像処理装置および画像処理方法 Download PDF

Info

Publication number
JP2018109875A
JP2018109875A JP2017000248A JP2017000248A JP2018109875A JP 2018109875 A JP2018109875 A JP 2018109875A JP 2017000248 A JP2017000248 A JP 2017000248A JP 2017000248 A JP2017000248 A JP 2017000248A JP 2018109875 A JP2018109875 A JP 2018109875A
Authority
JP
Japan
Prior art keywords
image
obstacle
virtual viewpoint
vehicle
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017000248A
Other languages
English (en)
Other versions
JP6501805B2 (ja
Inventor
友希子 畠山
Yukiko Hatakeyama
友希子 畠山
幸栄 清
Yukie Sei
幸栄 清
環 武内
Tamaki Takeuchi
環 武内
理恵 土生田
Rie Habuta
理恵 土生田
彬翔 元廣
Akinari Motohiro
彬翔 元廣
佐藤 智之
Tomoyuki Sato
智之 佐藤
康平 前島
Kohei MAEJIMA
康平 前島
敦俊 坂口
Atsutoshi Sakaguchi
敦俊 坂口
将寛 高橋
Masahiro Takahashi
将寛 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Toyota Motor Corp
Original Assignee
Denso Ten Ltd
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd, Toyota Motor Corp filed Critical Denso Ten Ltd
Priority to JP2017000248A priority Critical patent/JP6501805B2/ja
Priority to US15/838,560 priority patent/US10343603B2/en
Priority to DE102017130118.6A priority patent/DE102017130118B4/de
Priority to CN201711403798.4A priority patent/CN108267738B/zh
Publication of JP2018109875A publication Critical patent/JP2018109875A/ja
Application granted granted Critical
Publication of JP6501805B2 publication Critical patent/JP6501805B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q9/00Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling
    • B60Q9/008Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling for anti-collision purposes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q9/00Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling
    • B60Q9/002Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling for parking purposes, e.g. for warning the driver that his vehicle has contacted or is about to contact an obstacle
    • B60Q9/004Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling for parking purposes, e.g. for warning the driver that his vehicle has contacted or is about to contact an obstacle using wave sensors
    • B60Q9/005Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling for parking purposes, e.g. for warning the driver that his vehicle has contacted or is about to contact an obstacle using wave sensors using a video camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q9/00Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling
    • B60Q9/002Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling for parking purposes, e.g. for warning the driver that his vehicle has contacted or is about to contact an obstacle
    • B60Q9/004Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling for parking purposes, e.g. for warning the driver that his vehicle has contacted or is about to contact an obstacle using wave sensors
    • B60Q9/006Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling for parking purposes, e.g. for warning the driver that his vehicle has contacted or is about to contact an obstacle using wave sensors using a distance sensor
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/87Combinations of radar systems, e.g. primary radar and secondary radar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/415Identification of targets based on measurements of movement associated with the target
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2400/00Special features or arrangements of exterior signal lamps for vehicles
    • B60Q2400/50Projected symbol or information, e.g. onto the road or car body
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/301Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing combining image information with other obstacle sensor information, e.g. using RADAR/LIDAR/SONAR sensors for estimating risk of collision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/303Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using joined images, e.g. multiple camera images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/304Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/307Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing virtually distinguishing relevant parts of a scene from the background of the scene
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8093Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for obstacle warning
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/932Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles using own vehicle data, e.g. ground speed, steering wheel direction
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93271Sensor installation details in the front of the vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Transportation (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Traffic Control Systems (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Processing (AREA)

Abstract

【課題】障害物の位置を容易に認識させることができる画像処理装置および画像処理方法を提供すること。【解決手段】画像処理装置10は、画像取得部110と、情報取得部120と、生成部130と、合成部160と、判定部180と、表示制御部150と、を備える。画像取得部は、撮像装置20が車両周囲を撮像した撮像画像を取得する。情報取得部は、車両周囲に存在する障害物の検出位置に関する位置情報を取得する。生成部は、撮像画像に基づいて仮想視点から車両の周囲をみた仮想視点画像を生成する。合成部は、仮想視点画像における検出位置に障害物の存在を通知する通知画像を合成する。表示制御部は、前記位置情報に基づいて仮想視点画像に合成する通知画像の表示形態を制御する。【選択図】図1A

Description

本発明は、画像処理装置および画像処理方法に関する。
従来、例えばレーダ装置等のセンサを用いて車両周囲に存在する障害物を検出し、検出結果をユーザに提示する装置が知られている。例えば、特許文献1では、障害物を検出した場合に、センサの検出範囲をカメラで撮像した撮像画像に重畳して表示している。
特開2012−188057号公報
しかしながら、従来技術は、障害物の位置を容易に認識させるという点でさらなる改善の余地がある。
例えば、上述した従来技術では、障害物を検出可能な範囲をユーザに提示しているに過ぎず、検出した障害物そのものの位置をユーザに提示しているわけではない。そのため、ユーザが障害物を見落としてしまう可能性がある。
本発明は、上記に鑑みてなされたものであって、障害物の位置を容易に認識させることができる画像処理装置および画像処理方法を提供することを目的とする。
上述した課題を解決し、目的を達成するために、本発明に係る画像処理装置は、画像取得部と、情報取得部と、生成部と、合成部と、判定部と、表示制御部と、を備える。画像取得部は、撮像装置が車両周囲を撮像した撮像画像を取得する。情報取得部は、車両周囲に存在する障害物の検出位置に関する位置情報を取得する。生成部は、撮像画像に基づいて仮想視点から車両の周囲をみた仮想視点画像を生成する。合成部は、仮想視点画像における検出位置に障害物の存在を通知する通知画像を合成する。表示制御部は、前記位置情報に基づいて合成画像に合成する通知画像の表示形態を制御する。
本発明によれば、障害物の位置を容易に認識させることができる。
図1Aは、実施形態に係る障害物提示システムの概要を示す図である。 図1Bは実施形態に係る障害物提示システムの概要を示す図である。 図1Cは実施形態に係る障害物提示システムの概要を示す図である。 図2は、実施形態に係る障害物提示システムの構成を示すブロック図である。 図3は、実施形態に係る撮像装置の配置例を示す図である。 図4Aは、実施形態に係る判定部による判定処理の一例を説明する図である。 図4Bは、実施形態に係る判定部による判定処理の一例を説明する図である。 図5は、実施形態に係る範囲画像を説明するための図である。 図6は、実施形態に係る範囲画像を説明するための図である。 図7は、実施形態に係る範囲画像を説明するための図である。 図8は、実施形態に係る通知画像を説明するための図である。 図9は、実施形態に係る合成部が生成する合成画像の一例を示す図である。 図10は、実施形態に係る画像処理装置が実行する画像生成処理の処理手順を示すフローチャートである。
以下、添付図面を参照して、本願の開示する画像処理装置および画像処理方法の実施形態を詳細に説明する。なお、この実施形態により本発明が限定されるものではない。
(1.障害物提示システムの概要)
図1A〜図1Cを用いて、実施形態に係る障害物提示システム1の概要について説明する。図1A〜図1Cは、実施形態に係る障害物提示システム1の概要を説明する図である。障害物提示システム1は、車両に搭載され、車両周辺の障害物を検出しユーザ(運転者)に提示する。
障害物提示システム1は、撮像装置が撮像した車両周辺の撮像画像を座標変換して、車両周囲を仮想視点からみた仮想視点画像を生成する。また、障害物提示システム1は、仮想視点画像における障害物の検出位置に、当該障害物の存在を通知する通知画像を合成する。なお、障害物提示システム1のレーダ装置が障害物の位置を検出するものとする。このとき、障害物提示システム1は、障害物が例えばガードレールなど地面よりも高い位置に存在するか否かに応じて合成する通知画像の表示形態を変更する。
これは、障害物が地面よりも高い位置に存在する場合、仮想視点画像における通知画像の位置(障害物の検出位置)と、仮想視点画像上に写る障害物の位置とが異なってしまうためである。すなわち、障害物の検出位置はレーダ装置で検出した位置であるため、仮想視点画像の座標に合わせて座標変換すると、仮想視点画像上において実際に障害物が存在する位置に表示される。
一方、撮像画像では障害物の高さまでは検出できない。そのため、障害物提示システム1は、撮像画像上の障害物は地面と同じ高さであるとして仮想視点画像を生成する。そのため、仮想視点画像上の障害物は、実際の障害物よりも遠い位置に存在するものとして表示される。
このように、地面より高い位置に存在する障害物は、仮想視点画像上ではレーダ装置による検出位置と異なる位置に表示されてしまう。そのため、例えば仮想視点画像上の障害物そのものをユーザが確認すると、かかる障害物が実際の障害物の検出位置より遠くに位置すると誤認してしまう可能性がある。
そこで、実施形態に係る障害物提示システム1では、障害物が例えばガードレールなど地面よりも高い位置に存在するか否かに応じて合成する通知画像の表示形態を変更する。例えば、障害物が地面よりも高い位置に存在する場合は、通知画像を強調表示する。
これにより、仮想視点画像上の障害物とレーダ装置による検出位置とがずれる場合であっても、ユーザに対して適切に障害物の位置を提示でき、ユーザが障害物の位置をより容易に確認することができる。
障害物提示システム1は、画像処理装置10と、撮像装置20と、レーダ装置30と、表示装置50と、を備える。
撮像装置20は、例えば車両の周囲に配置されるカメラ(図示せず)を複数有する。撮像装置20の各カメラは、車両の周辺を一定の周期で撮像する。
レーダ装置30は、車両周辺に電波を放射し、障害物に反射した反射波を受信することで、車両周辺に存在する障害物を検出する。さらに、レーダ装置30は、障害物の位置として例えば車両から障害物までの距離(以下、障害物の位置情報と記載する)を検出する。
画像処理装置10は、撮像装置20が撮像した撮像画像を座標変換し、仮想視点からみた仮想視点画像を生成する。画像処理装置10は、仮想視点画像に車両画像や通知画像を合成した合成画像を生成し、表示装置50に出力する。画像処理装置10は、画像取得部110と、情報取得部120と、生成部130と、表示制御部150と、合成部160と、判定部180と、を備える。
画像取得部110は、撮像装置20から撮像画像を取得する。情報取得部120は、レーダ装置30から障害物の位置情報を取得する。
生成部130は、画像取得部110が取得した撮像画像に対して座標変換処理を行って、車両を仮想視点からみた仮想視点画像を生成する。
判定部180は、生成部130が生成した仮想視点画像および情報取得部120が取得した障害物の位置情報に基づいて障害物が地面から所定の高さ以上の位置に存在するか否かを判定する。
判定部180は、例えば障害物の位置情報に基づいて仮想視点画像上の障害物が存在する位置(検出位置)に障害物が写っているか否かを判定することで、障害物が地面から所定の高さ以上の位置に存在するか否かを判定する。
判定部180は、仮想視点画像上の障害物が存在する位置を含む領域に障害物が写っているか否かを、例えばパターンマッチング等で判定する。障害物が写っている場合は、障害物が所定の高さより低い位置に存在すると判定する。また、障害物が写っていない場合は、障害物が地面から所定の高さ以上の位置に存在すると判定する。
表示制御部150は、障害物の位置情報基づいて通知画像の表示形態を制御する。また、表示制御部150は、判定部180の判定結果に基づいて通知画像の表示形態を制御する。表示制御部150は、障害物が地面から所定の高さ以上の位置に存在する場合、障害物の存在を示す通知画像を強調表示するよう合成部160を制御する。
合成部160は、生成部130が生成した仮想視点画像に、車両の外観を仮想視点からみた車両画像を合成する。また、合成部160は、情報取得部120が取得した障害物の位置情報に基づき、仮想視点画像の障害物が存在する位置(障害物の検出位置)に障害物の存在を示す通知画像を合成する。
このとき、合成部160は、表示制御部150の制御に基づき、障害物が地面から所定の高さ以上の位置に存在する場合、障害物の存在を示す通知画像を強調表示する。
図1Bおよび図1Cに、合成部160が生成する合成画像の一例を示す。図1Bは、通知画像を強調表示しない場合の合成画像P1を示しており、図1Cは、強調表示した場合の合成画像P2を示している。図1B、図1Cの例では、合成部160は、真上から車両をみた俯瞰画像に通知画像Psを合成する。なお、図1B、図1Cに示す範囲画像Rは、レーダ装置30の検出範囲を示す画像である。範囲画像Rの詳細については図5〜図7を用いて後述する。
図1Bに示す合成画像P1では、通知画像Psが細い線で表示されている。一方、図1Cに示す合成画像P2では、通知画像Psが太い線で強調表示されている。また、図1Cでは、障害物である棒Sが通知画像Psより上に表示されており、実際の障害物の位置(通知画像Psの表示位置)とずれている。
そのため、ユーザが合成画像P2の棒Sを確認すると、棒Sが実際の位置よりも遠くにあると誤認して車両を前進させる可能性がある。そこで、図1Cに示すように、合成画像P2では通知画像Psを強調表示することで、障害物が近くに存在し、衝突の危険性が高いことをユーザに報知する。これにより、ユーザは、障害物の位置をより正確に認識することができる。
表示装置50は、例えばディスプレイを備え、合成部160が生成した合成画像P1、P2を表示する。これにより、ユーザに障害物を提示することができる。
このように、実施形態に係る画像処理装置10は、仮想視点画像に車両画像および通知画像Psを合成する。このとき、画像処理装置10は、障害物が地面よりも高い位置に存在するか否かに応じて通知画像Psの表示形態を変更する。これにより、ユーザが障害物の位置を容易に確認することができる。
(2.障害物提示システムの詳細)
次に、図2〜図9を参照して、実施形態に係る障害物提示システム1の詳細について説明する。図2は、実施形態に係る障害物提示システム1の構成を示すブロック図である。なお、図2では、実施形態の特徴を説明するために必要な構成要素を機能ブロックで表しており、一般的な構成要素についての記載を省略している。
換言すれば、図2に図示される各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。例えば、各機能ブロックの分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することが可能である。
図2に示すように、障害物提示システム1は、撮像装置20、レーダ装置30、センサ40、画像処理装置10および表示装置50を備える。
(2.1.撮像装置)
撮像装置20は、例えばCCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子を備えた車載カメラ20a〜20dを複数有する。撮像装置20は、車載カメラ20a〜20dで撮像した撮像画像を画像処理装置10に出力する。
例えば図3に示すように、車載カメラ20aは車両Cの前方に配置され、車載カメラ20bは車両Cの後方に配置される。また、車載カメラ20cは車両Cの右方に配置され、車載カメラ20dは車両Cの左方に配置される。車載カメラ20a〜20dは、それぞれ車両の前方、後方、右方および左方をそれぞれ撮像方向として撮像を行う。なお、図3は、撮像装置20の配置例を示す図である。
また、車載カメラ20a〜20dのレンズには魚眼レンズなどの広角レンズが採用され、各車載カメラ20a〜20dは180度以上の画角を有している。車載カメラ20a〜20dを用いることで、車両Cの全周囲を撮像することが可能である。なお、図3に示す車載カメラ20a〜20dの配置や数は一例であり、これに限定されない。車両Cの周囲画像を撮像できればよく、車載カメラの台数は4台より少なくても多くてもよい。
(2.2.レーダ装置)
レーダ装置30は、例えば複数のミリ波レーダ30a〜30dを備える。ミリ波レーダ30a〜30dは、図3に示すように車両Cの前方に配置され、車両C前方に存在する障害物を検出する。レーダ装置30は、車両Cから障害物までの距離や方位などの位置情報を検出する。レーダ装置30は検出した位置情報を画像処理装置10に出力する。
なお、図3に示すレーダ装置30の配置や数は一例であり、これに限定されない。例えば車両Cの後方にもレーダ装置を設け、車両C後方の障害物を検出するようにしてもよい。また、車両Cの前方に配置されるミリ波レーダの数は4つより多くても少なくてもよい。
(2.3.画像処理装置)
図2に示す画像処理装置10は、撮像装置20が撮像した撮像画像を座標変換して仮想視点画像を生成する。画像処理装置10は、仮想視点画像に、車両Cの進行予測線や車両画像、通知画像等を合成して表示装置50に出力する。
画像処理装置10は、CPU(Central Processing Unit)および記憶部170などを備えたマイクロコンピュータである。画像処理装置10は、例えばECU(Electric Control Unit)に実装される。
画像処理装置10のCPUは、例えばROMに記憶されたプログラムを読み出して実行することによって、画像取得部110、情報取得部120、生成部130、進行予測部140、表示制御部150、合成部160および判定部180として機能する。
また、画像取得部110、情報取得部120、生成部130、進行予測部140、表示制御部150、合成部160および判定部180の少なくともいずれか一つまたは全部をASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等のハードウェアで構成することもできる。
(2.3.1.画像取得部)
画像取得部110は、撮像装置20が撮像した撮像画像を順次取得する。画像取得部110が取得する撮像画像には、撮像装置20の車載カメラ20a〜20d(図3参照)が撮像した撮像画像が含まれる。画像取得部110は、取得した撮像画像を生成部130に出力する。
(2.3.2.情報取得部)
情報取得部120は、レーダ装置30から車両Cの周辺に存在する障害物の検出位置を含む位置情報を取得する。情報取得部120は、取得した位置情報を表示制御部150に出力する。
(2.3.3.生成部)
生成部130は、画像取得部110が取得した撮像画像に対して座標変換処理を行うことにより、車両Cの周囲を任意の仮想視点からみた仮想視点画像を生成する。なお、かかる仮想視点は、後述する表示制御部150の視点位置決定部155が決定する。
生成部130は、座標変換処理として、例えば撮像画像を所定の投影面に投影(マッピング)し、所定の投影面に投影された撮像画像のうち任意の仮想視点から見て所定の視野角に含まれる領域の画像を仮想視点画像とする。
例えば、生成部130は、撮像画像に含まれるデータ位置と、所定の投影面の位置との対応関係を示すテーブルを記憶しており、かかるテーブルを用いて、撮像画像に含まれるデータを、所定の投影面の対応する位置に投影する。
かかる所定の投影面は、例えば略半球状(例えば、お椀形状)をしており、その中心領域(例えば、お椀の底部分)は車両Cの位置であり、車両Cの位置の外側(例えば、お椀の底部分以外の部分)は、車両Cの周囲の領域に相当する。なお、所定の投影面は曲面でなくともよく、例えば平面であってもよい。
生成部130は、生成した仮想視点画像を合成部160に出力する。
(2.3.4.進行予測部)
進行予測部140は、センサ40の出力結果に基づき、車両Cの進行経路を予測する。進行予測部140は、例えば車両Cの速度が一定値以下になった場合に車両Cの進行経路を予測する。センサ40には、例えばステアリング操舵角を検出するステアリングセンサや、シフト状態を検出するシフトセンサが含まれる。
進行予測部140は、シフト状態に基づいて車両Cの進行方向を予測する。例えば、進行予測部140は、車両Cのシフト状態が「ドライブ」であれば、車両Cの進行方向は前方であると予測する。
進行予測部140は、ステアリング操舵角に基づいて車両Cの進行角度を予測する。例えば、進行予測部140は、ステアリング操舵角、車両Cの寸法および旋回半径などから車両Cが発進した場合の進行角度を予測する。
進行予測部140は、予測した進行方向および進行角度に基づいて、車両Cが発進した場合の予測経路を予測する。進行予測部140は、予測経路を表示制御部150に出力する。
(2.3.5.判定部)
判定部180は、情報取得部120が取得した障害物の位置情報および生成部130が生成した仮想視点画像に基づいて障害物が地面から所定の高さ以上の位置に存在するか否かを判定する。
図4Aおよび図4Bを用いて判定部180による判定処理について説明する。図4Aおよび図4Bは、実施形態に係る判定部180による判定処理の一例を説明する図である。
図4Aに示すように、車両Cの前方に地面よりも高い位置に障害物Sが存在する場合について説明する。この場合、判定部180は、図4Bに示すように、車両Cを真上からみた仮想視点画像において、レーダ装置30が検出した位置P(以下、実位置Pとも記載する)に障害物Sが存在するか否かを判定する。判定部180は、例えば仮想視点画像からパターンマッチングやエッジ検出等を用いて仮想視点画像に写る障害物Sを検出する。
図4Bに示すように、仮想視点画像に写る障害物Sの位置とレーダ装置30が検出した実位置Pとが異なる場合、判定部180は、障害物Sが地面から所定の高さ以上の位置に存在すると判定する。
一方、判定部180は、検出した障害物Sの位置が、レーダ装置30が検出した実位置Pと同じである場合、障害物が地面から所定の高さより低い位置に存在すると判定する。判定部180は、判定結果を表示制御部150に出力する。
なお、ここでは、判定部180が仮想視点画像に対してパターンマッチングやエッジ検出等の処理を施すことで仮想視点画像から障害物Sを検出するとしたが、これに限定されない。例えばレーダ装置30が障害物Sの高さも検出できる場合、レーダ装置30が検出した高さに基づいて障害物Sが地面から所定の高さ以上の位置に存在するか否かを判定してもよい。
また、判定部180は、仮想視点画像の実位置Pを含む所定の範囲のみを探索して障害物Sを検出するようにしてもよい。このように、仮想視点画像の所定の範囲から障害物Sを検出することで、判定部180による検出処理の処理量を低減することができる。
(2.3.6.表示制御部)
表示制御部150は、合成部160で仮想視点画像に合成する画像を決定することで、表示装置50に表示させる表示画像を制御する。表示制御部150は、進行予測線、車両画像、通知画像Psおよび障害物の検出範囲を示す範囲画像の少なくとも一つを仮想視点画像に合成すると決定する。また、表示制御部150は、表示色や強調表示の有無など合成する画像の表示形態を決定する。
表示制御部150は、予測線決定部151と、範囲画像決定部152と、通知画像決定部153と、視点位置決定部155と、を備える。
(予測線決定部)
予測線決定部151は、進行予測部140が予測経路を予測した場合に、予測した予測経路を示す進行予測線を仮想視点画像に合成すると決定することで、表示装置50に進行予測線を表示すると決定する。例えば進行予測部140が、車両Cが左折する経路を予測したとする。この場合、予測線決定部151は、車両Cの右側前輪から伸びる進行予測線L1を仮想視点画像に合成すると決定する。
(範囲画像決定部)
範囲画像決定部152は、レーダ装置30の検出範囲を示す範囲画像Rを表示装置50に表示すると決定する。
まず、図5〜図7を用いて範囲画像Rについて説明する。図5〜図7は、実施形態に係る範囲画像Rを説明するための図である。まず、図5および図6を用いて範囲画像Rの形状について説明する。
図5に示すように、範囲画像Rには、複数の範囲Ra〜Rdが含まれる。各範囲Ra〜Rdはそれぞれミリ波レーダ30a〜30dの検出範囲に対応する。図5に示すように、範囲画像Rでは、各範囲Ra〜Rdの境界線を示している。これにより、ミリ波レーダ30a〜30dの検出範囲をそれぞれ視覚的に確認することができる。
また、図5に示すように、範囲Ra〜Rdは同心円状の扇形状の範囲として表現される。このとき、図6に示すように、車両Cの形状に合わせて実際の検出範囲を仮想視点画像上に表示すると、範囲画像Rが壁となって車両Cの前に立っているように見えてしまう。そこで、図5に示す扇形の中心角θを、図6に示す範囲画像Rの中心角θ1よりも狭くすることで、範囲Ra〜Rdの扇形形状を強調する。これにより、画像処理装置10は、仮想視点画像上で範囲画像Rを地面上に表示されているように表現することができる。
このように、範囲画像Rを所定角度で仮想視点画像に表示するときに、障害物の位置や車両Cと範囲画像Rとの位置関係に基づき該所定角度を変える。これにより、ユーザに範囲画像Rを適切に提示することができる。
なお、図5に示す範囲画像Rは、レーダ装置30が障害物を検出した場合にユーザに通知する範囲であって、実際にレーダ装置30が障害物を検出可能な範囲とは異なっていてもよい。すなわち、表示制御部150は、情報取得部120が取得した位置情報に基づいて障害物が範囲Ra〜Rdに含まれる場合にユーザに当該障害物を通知する。かかる点については図8を用いて後述する。
また、図5に示す例では、範囲画像Rに4つの範囲Ra〜Rdが含まれるとしたが、これに限定されない。範囲画像Rに含まれる範囲の数は4つより少なくてもよく、多くてもよい。
次に図7を用いて範囲画像Rの表示形態について説明する。図7に示すように、各範囲Ra〜Rd内は黒色で表示される。このとき、範囲Ra〜Rd内を透過させる。これにより、範囲Ra〜Rdと重複する仮想視点画像を容易に確認することができる。また図7では、範囲Ra〜Rdの境界線を黒色で図示しているが、例えば背景色が暗い場合に、範囲Ra〜Rdの境界線を例えば白色で表示する。これにより、範囲Ra〜Rdをより容易に視認することができる。また、境界線を白色で表示する際、範囲Ra〜Rdの外側に向けて所定範囲に渡って放射状かつ色彩を段階的に薄くして表示する、いわゆるフレア状の表示を加えてもよい。この場合、境界線が強調され、範囲Ra〜Rdをより明瞭に判別することができる。
(通知画像決定部)
図2に戻る。通知画像決定部153は、情報取得部120が障害物の位置情報を取得した場合、すなわち車両Cの周辺に障害物が存在している場合に、通知画像Psを表示装置50に表示すると決定する。
通知画像決定部153は、情報取得部120が取得した位置情報に基づき、仮想視点画像において、障害物が存在する位置に通知画像Psを表示すると決定する。
まず、通知画像決定部153は、障害物が検出範囲のどこに位置するかを判定する。具体的に表示制御部150は、検出範囲に含まれる範囲Ra〜Rdを複数の領域に分割し、分割したどの領域に障害物が存在するかを判定する。例えば図8では、範囲Ra、Rbを4つの領域に分割しており、範囲Rc、Rdを5つの領域に分割している。なお、図8は、実施形態に係る通知画像Psを説明するための図である。
ここで、図8に示すように、範囲Raの領域Ra1、範囲Rbの領域Rb4、範囲Rcの領域Rc2および範囲Rdの領域Rd3内にそれぞれ障害物が位置するものとする。なお、図8では、障害物の位置を点S1〜S4として表している。この場合、通知画像決定部153は、各領域Ra1、Rb4、Rc2、Rd3を、通知画像Psを表示する領域に決定する。
通知画像決定部153は、各領域Ra1、Rb4、Rc2、Rd3を所定の表示色で塗りつぶした画像を通知画像Psとする。通知画像決定部153は、かかる表示色を障害物までの距離に応じて変更する。
例えば、図8の範囲Raを例にとって説明すると、範囲Raの領域Ra1〜Ra4のうち、車両Cに近い領域Ra1、Ra2内に障害物が存在する場合、通知画像決定部153は、危険度が高いとして通知画像Psの表示色を赤色に決定する。また、通知画像決定部153は、車両Cから遠い領域Ra3、Ra4内に障害物が存在する場合は、危険度が低いとして通知画像Psの表示色を黄色に決定する。
図7に示すように、領域Ra1、Rc2は車両Cに近いため、通知画像決定部153は、領域Ra1、Rc2内に表示する通知画像Ps1、Ps2の表示色を赤色に決定する。一方、領域Rd3、Rb4は車両Cから遠いため、通知画像決定部153は、領域Rd3、Rb4内に表示する通知画像Ps3、Ps4の表示色を黄色に決定する。
このとき、例えば範囲画像決定部152が領域Ra2を含む範囲Raの表示色を通知画像Psの表示色と同じ赤色にすると決定してもよい。これにより、危険度が高い障害物の存在を、注目度をあげてユーザに報知することができる。
また、図7及び図8に示される領域Rc、Rdは、領域の中は外側の枠線だけ残して透過させてもよい。この場合、領域Rc、Rdに重複する障害物を参照することができる。また、領域Rc、Rdは、中心から外側の枠線へ向けて枠線の色にグラデーションさせてもよい。この場合、領域Rc、Rdの外側の範囲を容易に参照することができる。なお、特に領域Ra、Rbより外側の部分について透過又はグラデーションさせることが好ましい。これは、この部分が障害物に重複しやすいからである。
また、通知画像決定部153は、障害物の位置情報基づいて通知画像Psを強調表示させるか否かを決定する。通知画像決定部153は、障害物の位置情報基づいて障害物が地面から所定の高さ以上の位置に存在すると判定した場合、通知画像Psの境界線を太線で表示することで通知画像Psを強調表示させる。また、通知画像決定部153は、判定部180の判定結果に基づいて通知画像Psを強調表示させるか否かを決定する。通知画像決定部153は、障害物が地面から所定の高さ以上の位置に存在すると判定部180が判定した場合、通知画像Psの境界線を太線で表示することで通知画像Psを強調表示させる。
あるいは、通知画像決定部153は、通知画像Psを点滅表示させることで通知画像Psを強調表示させてもよい。また通知画像決定部153は、障害物の高さに基づいて通知画像Psの表示色の濃淡を変更してもよい。この場合、通知画像決定部153は、障害物が存在する位置が高いほど通知画像Psが濃く表示されるようにする。
また、通知画像決定部153は、例えば領域Rd3、Rb4のように、通常は黄色で表示される領域であっても、障害物が所定の高さ以上の位置に存在する場合は、赤色で通知画像Psを表示させるようにしてもよい。
(視点位置決定部)
図2に戻る。視点位置決定部155は、進行予測部140の予測経路に基づいて表示装置50に表示する仮想視点画像の仮想視点位置を決定する。
例えば、車両Cが直進すると進行予測部140が予測した場合、視点位置決定部155は、車両Cの真上(上方)を仮想視点位置に決定する。
(2.3.7.合成部)
合成部160は、表示制御部150の決定に従い、生成部130が生成した仮想視点画像に進行予測線等を合成して合成画像を生成する。
例えば、車両Cの周辺に障害物が存在する場合、合成部160は、仮想視点画像に、進行予測線、範囲画像R、通知画像Psおよび車両画像を合成する。この場合、合成部160は、表示制御部150の指示に従い、障害物が所定の高さ以上の位置に存在する場合は、通知画像Psを強調表示する。
図9を用いて、合成部160が生成する合成画像の一例について説明する。図9は、実施形態に係る合成部160が生成する合成画像の一例を示す図である。図9の例では、合成部160は、車両Cを真上からみた仮想視点画像に通知画像Ps等を合成して合成画像P4を生成する。
図9に示すように合成画像P4には、車両画像Pc、進行予測線L1、範囲画像Rおよび通知画像Ps11〜Ps13が合成されている。また、通知画像Ps12は強調表示されている。また、図9では、車両Cから一定の距離を示すガイド線L2、L3が合成されている。このように、画像処理装置10は、進行予測線L1以外のガイド線を表示するようにしてもよい。また、通知画像Ps11〜Ps13は、障害物に接近するほどに、幅を太く表示してもよい。この場合、障害物により接近していることを容易に認識できる。
一方、車両Cの周囲に障害物が存在しない場合、合成部160は、進行予測線L1、範囲画像Rおよび車両画像Pcを合成して合成画像を生成する。
なお、合成部160は、例えば記憶部170に記憶される車両画像情報171や範囲画像情報172に基づいて仮想視点画像に車両画像Pcや範囲画像Rを合成する。
(2.3.8.記憶部)
記憶部170は、車両画像情報171や範囲画像情報172など画像処理装置10の各部の処理で用いる情報が記憶される。また、記憶部170は、各部の処理結果を記憶する。
記憶部170は、例えばRAMやHDDを備える。RAMやHDDは、例えば画像処理装置10の各部が実行する処理に応じた各種プログラムの情報等を記憶することができる。なお、画像処理装置10は、有線や無線のネットワークで接続された他のコンピュータや可搬型記録媒体を介して各種プログラムの情報等を取得するようにしてもよい。
(2.4.表示装置)
表示装置50は、例えば車両Cに搭載されるディスプレイである。表示装置50は、画像処理装置10が生成する表示画像を表示する。例えば車両Cにナビゲーション装置(図示せず)が搭載される場合、表示装置50は当該ナビゲーション装置が備えるディスプレイであってもよい。
(3.画像生成処理)
次に、図10を用いて、実施形態に係る画像処理装置10が実行する画像生成処理の処理手順について説明する。図10は、実施形態に係る画像処理装置10が実行する画像生成処理の処理手順を示すフローチャートである。
画像処理装置10は、例えば車両Cが一定速度以下で直進する場合に図10の画像生成処理を実行する。
画像処理装置10は、例えば撮像装置20が撮像画像を撮像する一定間隔ごとに図10の画像生成処理を実行する。なお、画像処理装置10が画像生成処理を実行する間隔は、かかる一定間隔に限定されない。画像処理装置10は、例えば複数の撮像画像を取得するごと、すなわち一定間隔より長い周期で画像生成処理を実行してもよい。
図10に示すように、画像処理装置10は、まず、撮像装置20から撮像画像を取得する(ステップS101)。画像処理装置10は、取得した撮像画像に基づいて仮想視点画像を生成する(ステップS102)。
次に、画像処理装置10は、情報取得部120が位置情報を取得したか否かに応じて障害物を検出したか否かを判定する(ステップS103)。障害物を検出していない場合(ステップS103のNo)、画像処理装置10はステップS107に進む。
一方、障害物を検出した場合(ステップS103のYes)、画像処理装置10は、障害物が所定の高さ以上の位置に存在するか否かを判定する(ステップS104)。障害物が所定の高さよりも低い位置に存在する場合(ステップS104のNo)、画像処理装置10は、通知画像Psを仮想視点画像に合成する(ステップS105)。
一方、障害物が所定の高さ以上の位置に存在する場合(ステップS104のYes)、画像処理装置10は、通知画像Psを強調表示させて仮想視点画像に合成する(ステップS106)。
画像処理装置10は、仮想視点画像に進行予測線L1および範囲画像Rを合成し(ステップS107)、車両画像Pcを合成して合成画像を生成する(ステップS108)。画像処理装置10は、生成した合成画像を表示装置50に出力することで、合成画像を表示する(ステップS109)。
なお、ステップS107およびステップS108の処理は順番を入れ替えてもよい。
また、ここでは、画像処理装置10が、障害物が所定の高さ以上の位置に存在するか否かに応じて通知画像Psを強調表示させていたが、これに限定されない。例えば、画像処理装置10が、障害物を検出した場合(ステップS103のYes)に、ステップS106に進み、直ちに通知画像Psを強調表示させて仮想視点画像に合成してもよい。すなわち、ステップS104およびステップS105を省略してもよい。画像処理装置10が、障害物の高さによらず、障害物の検出位置に基づいて通知画像Psの表示形態を制御することで、ユーザが障害物の位置を容易に確認することができる。
以上のように、実施形態に係る障害物提示システム1は、仮想視点画像に車両画像Pcおよび通知画像Psを合成した合成画像を表示装置50に表示する。このとき、障害物が存在する高さに応じて通知画像Psを強調表示する。これにより、ユーザが障害物の位置を容易に確認することができる。
(4.効果)
上記実施形態に係る画像処理装置10は、画像取得部110と、情報取得部120と、生成部130と、合成部160と、判定部180と、表示制御部150と、を備える。画像取得部110は、撮像装置20が車両C周囲を撮像した撮像画像を取得する。情報取得部120は、車両C周囲に存在する障害物の検出位置に関する位置情報を取得する。生成部130は、撮像画像に基づいて仮想視点から車両Cの周囲をみた仮想視点画像を生成する。合成部160は、仮想視点画像における検出位置に障害物の存在を通知する通知画像Psを合成する。表示制御部150は、位置情報に基づいて仮想視点画像に合成する通知画像Psの表示形態を制御する。
これにより、ユーザが障害物をより容易に認識することができる。
上記実施形態に係る画像処理装置10の表示制御部150は、位置情報に基づいて通知画像Psを強調表示する。
これにより、ユーザに適切に障害物の位置を報知することができる。
上記実施形態に係る画像処理装置10の情報取得部120は、障害物を検出する検出装置(レーダ装置30)から検出位置に関する情報を取得する。合成部160は、検出装置(レーダ装置30)の検出範囲を示す範囲画像Rを仮想視点画像に合成する。
これにより、ユーザが検出装置の検出範囲を認識することができるようになり、障害物を検出したか否かを容易に確認できるようになる。
上記実施形態に係る画像処理装置10の合成部160は、地面上に描画されたようにみえる範囲画像Rを、仮想視点画像に合成する。
これにより、ユーザがレーダ装置30の検出範囲をより容易に認識することができるようになる。
上記実施形態に係る画像処理装置10の合成部160は、複数の検出装置(ミリ波レーダ30a〜30d)の検出範囲の境界線を含む範囲画像Rを仮想視点画像に合成する。
これにより、ユーザが複数のミリ波レーダ30a〜30dの検出範囲をより容易に認識することができるようになる。
上記実施形態に係る画像処理装置10の合成部160は、範囲画像Rを所定角度の範囲で仮想視点画像に合成し、位置情報に基づき該所定角度を変える。
これにより、ユーザに範囲画像Rを適切に提示することができる。
上記実施形態に係る画像処理装置10は、仮想視点画像における障害物の表示位置が検出位置と異なる場合に、障害物が地面よりも高い位置に存在すると判定する判定部180をさらに備える。表示制御部150は、障害物が地面よりも高い位置に存在すると判定部180が判定した場合に、仮想視点画像に合成する通知画像Psの表示形態を制御する。
これにより、画像処理装置10は、障害物が地面よりも高い位置に存在するか否かを判定することができる。また、画像処理装置10は、判定結果に基づいて通知画像Psの表示形態を制御することで、危険度に応じてより適切に障害物を報知することができる。
さらなる効果や変形例は、当業者によって容易に導き出すことができる。このため、本発明のより広範な態様は、以上のように表しかつ記述した特定の詳細および代表的な実施形態に限定されるものではない。したがって、添付の特許請求の範囲およびその均等物によって定義される総括的な発明の概念の精神または範囲から逸脱することなく、様々な変更が可能である。
1 障害物提示システム
10 画像処理装置
110 画像取得部
120 情報取得部
130 生成部
140 進行予測部
150 表示制御部
160 合成部
180 判定部
20 撮像装置
30 レーダ装置
50 表示装置

Claims (8)

  1. 撮像装置が車両周囲を撮像した撮像画像を取得する画像取得部と、
    車両周囲に存在する障害物の検出位置に関する位置情報を取得する情報取得部と、
    前記撮像画像に基づいて仮想視点から前記車両周囲をみた仮想視点画像を生成する生成部と、
    前記仮想視点画像における前記検出位置に前記障害物の存在を通知する通知画像を合成する合成部と、
    前記位置情報に基づいて前記仮想視点画像に合成する前記通知画像の表示形態を制御する表示制御部と、
    を備えることを特徴とする画像処理装置。
  2. 前記表示制御部は、
    前記位置情報に基づいて前記通知画像を強調表示すること
    を特徴とする請求項1に記載の画像処理装置。
  3. 前記情報取得部は、
    前記障害物を検出する検出装置から前記位置情報を取得し、
    前記合成部は、
    前記検出装置の検出範囲を示す範囲画像を前記仮想視点画像に合成すること
    を特徴とする請求項1または2に記載の画像処理装置。
  4. 前記合成部は、
    地面上に描画されたようにみえる前記範囲画像を、前記仮想視点画像に合成すること
    を特徴とする請求項3に記載の画像処理装置。
  5. 前記合成部は、
    複数の前記検出装置の前記検出範囲の境界線を含む前記範囲画像を前記仮想視点画像に合成すること
    を特徴とする請求項3または4に記載の画像処理装置。
  6. 前記合成部は、
    前記範囲画像を所定角度の範囲で前記仮想視点画像に合成し、前記位置情報に基づき該所定角度を変えること
    を特徴とする請求項3、4または5に記載の画像処理装置。
  7. 前記仮想視点画像における前記障害物の表示位置が前記検出位置と異なる場合に、前記障害物が地面よりも高い位置に存在すると判定する判定部、
    をさらに備え、
    前記表示制御部は、
    前記障害物が前記地面よりも高い位置に存在すると前記判定部が判定した場合に、前記仮想視点画像に合成する前記通知画像の表示形態を制御すること
    を特徴とする請求項1〜6のいずれか一項に記載の画像処理装置。
  8. 撮像装置が車両周囲を撮像した撮像画像を取得する工程と、
    車両周囲に存在する障害物の検出位置に関する位置情報を取得する工程と、
    前記撮像画像に基づいて仮想視点から前記車両周囲をみた仮想視点画像を生成する工程と、
    前記仮想視点画像における前記検出位置に前記障害物を示す障害物画像を合成するとともに、前記仮想視点画像に車両画像を合成して合成画像を生成する工程と、
    前記位置情報に基づいて前記合成画像に合成する前記障害物画像の表示形態を制御する工程と、
    を含むことを特徴とする画像処理方法。
JP2017000248A 2017-01-04 2017-01-04 画像処理装置および画像処理方法 Active JP6501805B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2017000248A JP6501805B2 (ja) 2017-01-04 2017-01-04 画像処理装置および画像処理方法
US15/838,560 US10343603B2 (en) 2017-01-04 2017-12-12 Image processing device and image processing method
DE102017130118.6A DE102017130118B4 (de) 2017-01-04 2017-12-15 Bildverarbeitungsvorrichtung und bildverarbeitungsverfahren
CN201711403798.4A CN108267738B (zh) 2017-01-04 2017-12-22 图像处理设备和图像处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017000248A JP6501805B2 (ja) 2017-01-04 2017-01-04 画像処理装置および画像処理方法

Publications (2)

Publication Number Publication Date
JP2018109875A true JP2018109875A (ja) 2018-07-12
JP6501805B2 JP6501805B2 (ja) 2019-04-17

Family

ID=62568064

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017000248A Active JP6501805B2 (ja) 2017-01-04 2017-01-04 画像処理装置および画像処理方法

Country Status (4)

Country Link
US (1) US10343603B2 (ja)
JP (1) JP6501805B2 (ja)
CN (1) CN108267738B (ja)
DE (1) DE102017130118B4 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110682907A (zh) * 2019-10-17 2020-01-14 四川大学 一种汽车防追尾控制系统及方法
JP2020021980A (ja) * 2018-07-30 2020-02-06 株式会社Jvcケンウッド 俯瞰画像生成装置、俯瞰画像生成方法およびプログラム
CN112298038A (zh) * 2019-07-26 2021-02-02 爱信精机株式会社 周边监视装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007043318A (ja) * 2005-08-01 2007-02-15 Nissan Motor Co Ltd 車両用周囲監視装置及び車両周囲監視方法
JP4039321B2 (ja) * 2003-06-18 2008-01-30 株式会社デンソー 車両用周辺表示装置
JP2010048716A (ja) * 2008-08-22 2010-03-04 Toyota Motor Corp レーダ干渉回避装置、及びレーダ干渉回避方法
JP2012065225A (ja) * 2010-09-17 2012-03-29 Panasonic Corp 車載用画像処理装置、周辺監視装置、および、車両
JP2014052274A (ja) * 2012-09-06 2014-03-20 Fujitsu Ltd 物体検出装置、物体検出プログラムおよび車両
WO2015162800A1 (ja) * 2014-04-25 2015-10-29 株式会社小松製作所 周辺監視システム、作業車両、及び周辺監視方法
JP2016052867A (ja) * 2014-09-04 2016-04-14 株式会社デンソー 運転支援装置

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4861574B2 (ja) * 2001-03-28 2012-01-25 パナソニック株式会社 運転支援装置
WO2005088970A1 (ja) * 2004-03-11 2005-09-22 Olympus Corporation 画像生成装置、画像生成方法、および画像生成プログラム
JP4850531B2 (ja) * 2006-02-13 2012-01-11 アルパイン株式会社 車載レーダ装置
JP5324310B2 (ja) * 2009-05-14 2013-10-23 富士通テン株式会社 車載照明装置、画像処理装置及び画像表示システム
JP5479956B2 (ja) * 2010-03-10 2014-04-23 クラリオン株式会社 車両用周囲監視装置
JP2012138876A (ja) 2010-12-28 2012-07-19 Fujitsu Ten Ltd 画像生成装置、画像表示システム及び画像表示方法
JP2012188057A (ja) 2011-03-14 2012-10-04 Panasonic Corp 表示装置
JP5516997B2 (ja) 2011-06-09 2014-06-11 アイシン精機株式会社 画像生成装置
CN106464847B (zh) * 2014-06-20 2019-06-25 歌乐株式会社 影像合成系统和用于其的影像合成装置与影像合成方法
JP6548900B2 (ja) * 2015-01-20 2019-07-24 株式会社デンソーテン 画像生成装置、画像生成方法及びプログラム
JP6224029B2 (ja) * 2015-05-21 2017-11-01 富士通テン株式会社 画像処理装置および画像処理方法
CN105398389B (zh) * 2015-12-23 2018-08-14 安徽安凯汽车股份有限公司 一种汽车安全驾驶辅助检测系统及方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4039321B2 (ja) * 2003-06-18 2008-01-30 株式会社デンソー 車両用周辺表示装置
JP2007043318A (ja) * 2005-08-01 2007-02-15 Nissan Motor Co Ltd 車両用周囲監視装置及び車両周囲監視方法
JP2010048716A (ja) * 2008-08-22 2010-03-04 Toyota Motor Corp レーダ干渉回避装置、及びレーダ干渉回避方法
JP2012065225A (ja) * 2010-09-17 2012-03-29 Panasonic Corp 車載用画像処理装置、周辺監視装置、および、車両
JP2014052274A (ja) * 2012-09-06 2014-03-20 Fujitsu Ltd 物体検出装置、物体検出プログラムおよび車両
WO2015162800A1 (ja) * 2014-04-25 2015-10-29 株式会社小松製作所 周辺監視システム、作業車両、及び周辺監視方法
JP2016052867A (ja) * 2014-09-04 2016-04-14 株式会社デンソー 運転支援装置

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020021980A (ja) * 2018-07-30 2020-02-06 株式会社Jvcケンウッド 俯瞰画像生成装置、俯瞰画像生成方法およびプログラム
WO2020026836A1 (ja) * 2018-07-30 2020-02-06 株式会社Jvcケンウッド 俯瞰画像生成装置、俯瞰画像生成方法およびプログラム
US11498484B2 (en) 2018-07-30 2022-11-15 Jvckenwood Corporation Overhead image generation device, overhead image generation method, and program
JP7180172B2 (ja) 2018-07-30 2022-11-30 株式会社Jvcケンウッド 俯瞰画像生成装置、俯瞰画像生成方法およびプログラム
CN112298038A (zh) * 2019-07-26 2021-02-02 爱信精机株式会社 周边监视装置
JP2021022825A (ja) * 2019-07-26 2021-02-18 アイシン精機株式会社 周辺監視装置
JP7354649B2 (ja) 2019-07-26 2023-10-03 株式会社アイシン 周辺監視装置
US11787335B2 (en) 2019-07-26 2023-10-17 Aisin Corporation Periphery monitoring device
CN110682907A (zh) * 2019-10-17 2020-01-14 四川大学 一种汽车防追尾控制系统及方法
CN110682907B (zh) * 2019-10-17 2021-06-01 四川大学 一种汽车防追尾控制系统及方法

Also Published As

Publication number Publication date
JP6501805B2 (ja) 2019-04-17
DE102017130118A1 (de) 2018-07-05
US20180186287A1 (en) 2018-07-05
CN108267738A (zh) 2018-07-10
DE102017130118B4 (de) 2020-10-29
CN108267738B (zh) 2021-12-31
US10343603B2 (en) 2019-07-09

Similar Documents

Publication Publication Date Title
US9073482B2 (en) Image display system, image processing apparatus, and image display method
JP6785953B2 (ja) 車載用監視カメラ装置
JP4969269B2 (ja) 画像処理装置
JP5962927B2 (ja) 俯瞰画像生成装置、俯瞰画像生成方法、および俯瞰画像生成プログラム
JP2018110328A (ja) 画像処理装置および画像処理方法
CN108259879B (zh) 图像生成装置及图像生成方法
US20120170812A1 (en) Driving support display device
US10930070B2 (en) Periphery monitoring device
JP5622986B2 (ja) 画像表示システム、画像処理装置及び画像表示方法
JP5959264B2 (ja) 画像処理装置及び方法、並びにコンピュータプログラム
JP2007274377A (ja) 周辺監視装置、プログラム
JP2007104373A (ja) 車両用画像表示装置
JPWO2013031161A1 (ja) 運転支援装置
JP2016134001A (ja) 画像生成装置、画像生成方法及びプログラム
CN107004250B (zh) 图像生成装置及图像生成方法
JP6730613B2 (ja) 俯瞰映像生成装置、俯瞰映像生成システム、俯瞰映像生成方法およびプログラム
JP6224029B2 (ja) 画像処理装置および画像処理方法
JP2012040883A (ja) 車両周囲画像生成装置
JP6501805B2 (ja) 画像処理装置および画像処理方法
JP2014230215A (ja) カメラ較正装置、およびカメラ較正方法
JP2020068515A (ja) 画像処理装置
JP2018026757A (ja) 周辺監査装置
JP2013062657A (ja) 画像表示システム、画像表示装置、画像表示方法、及び画像表示プログラム
JP6584862B2 (ja) 物体検出装置、物体検出システム、物体検出方法及びプログラム
JP6187322B2 (ja) 画像表示装置、画像表示システム

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181002

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180928

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181121

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190226

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190319

R150 Certificate of patent or registration of utility model

Ref document number: 6501805

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250