JPWO2020213111A1 - 車両周辺画像生成装置、車両周辺表示システム、及び車両周辺表示方法 - Google Patents

車両周辺画像生成装置、車両周辺表示システム、及び車両周辺表示方法 Download PDF

Info

Publication number
JPWO2020213111A1
JPWO2020213111A1 JP2021514732A JP2021514732A JPWO2020213111A1 JP WO2020213111 A1 JPWO2020213111 A1 JP WO2020213111A1 JP 2021514732 A JP2021514732 A JP 2021514732A JP 2021514732 A JP2021514732 A JP 2021514732A JP WO2020213111 A1 JPWO2020213111 A1 JP WO2020213111A1
Authority
JP
Japan
Prior art keywords
image
vehicle
bird
eye view
road surface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021514732A
Other languages
English (en)
Other versions
JP7203205B2 (ja
Inventor
健太 大西
考平 森
成晃 竹原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JPWO2020213111A1 publication Critical patent/JPWO2020213111A1/ja
Application granted granted Critical
Publication of JP7203205B2 publication Critical patent/JP7203205B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/27Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view providing all-round vision, e.g. using omnidirectional cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/04Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4038Image mosaicing, e.g. composing plane images from plane sub-images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/302Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing combining image information with GPS information or vehicle data, e.g. vehicle speed, gyro, steering angle data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/303Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using joined images, e.g. multiple camera images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/304Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images
    • B60R2300/305Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images merging camera image with lines or icons
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/607Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective from a bird's eye viewpoint
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8093Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for obstacle warning

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

ECU(2)は、車両(7)に搭載された複数のカメラ(1)により撮影された複数の画像に基づいて、車両(7)と車両周辺とを含む俯瞰画像を生成する。合成手法選択部(23)は、複数のカメラ(1)の撮影領域の重複部分に存在する物体(8)と車両(7)との距離が閾値以内であり、且つ物体(8)が車両(7)の進行方向に存在する場合に、第1の合成手法を選択する。第1の合成手法では、重複部分をそれぞれ2組の路面画像と物体画像とに分割し、2組のうちの一方では物体画像であり他方では路面画像である領域については、物体画像のα値を1、路面画像のα値を0としてアルファブレンディングにより合成して俯瞰画像を生成する。

Description

本願は、車両周辺画像生成装置、車両周辺表示システム、及び車両周辺表示方法に関するものである。
車両周辺画像生成装置を備えた車両周辺表示システムにおいては、複数の車載カメラによって車両周辺を撮影した画像を合成し、車両と車両周辺とを含む俯瞰画像を生成することが行われている。運転者は、表示装置に表示された俯瞰画像によって、車両周辺に存在する人または物体等を認識する。例えば特許文献1には、複数の入力画像に含まれる同一の撮像領域について、それぞれの入力画像の画素情報を一定の規則に従って交互に採用し、合成画像を出力することが開示されている。
複数の画像を合成して俯瞰画像を生成する際に、2つのカメラの撮影領域の境界部分は、画像が重複している。従来の合成手法では、この重複部分に対し、それぞれの画像の合成の割合(以下、α値という)を0<α<1に設定していた。このように、2つの画像をある一定のα値によって合成する技法を、アルファブレンディングという。アルファブレンディングにおいて、例えばα値を0.5に設定した場合、2つの画像の重複部分の画素の色をそれぞれ50%ずつ混ぜ合わせた色となり、平均的な画像が合成される。
特開2003−169323号公報
従来の車両周辺画像生成装置において俯瞰画像を合成する際には、アルファブレンディングによって2つの画像の重複部分を透過させて合成していたが、その際、画像に物体が存在するか否かに関わらずα値が設定されていた。このため、俯瞰画像において各カメラの撮影領域の重複部分に存在する物体の一部がぼやけて不明瞭な画像になるという問題があった。また、アルファブレンディングにおいて、重複部分に対して互いの撮影中心からの距離に比例した重み付けを行っても、物体がぼやけることがあった。
本願は、上記のような課題を解決するための技術を開示するものであり、複数の撮影装置の撮影領域の重複部分に存在する物体がぼやけず、明瞭な俯瞰画像を生成することが可能な車両周辺画像生成装置を得ることを目的とする。また、撮影領域の重複部分に存在する物体を明瞭に表示することが可能な車両周辺表示システム及び車両周辺表示方法を得ることを目的とする。
本願に開示される車両周辺画像生成装置は、車両に搭載された複数の撮影装置により撮影された複数の画像に基づいて、車両と車両周辺とを含む俯瞰画像を生成する車両周辺画像生成装置であって、車両周辺の物体を検出するセンサにより取得された物体情報に基づいて、物体と車両との距離が閾値以内であるか否かを判定する物体距離判定部と、複数の画像をそれぞれ俯瞰画像用の画像に変換する画像変換部と、複数の撮影装置の撮影領域の重複部分に物体が存在する場合に、俯瞰画像用の画像の重複部分をそれぞれ路面画像と物体画像とに分割する画像分割部と、画像変換部で得られた俯瞰画像用の画像と画像分割部でそれぞれ得られた路面画像と物体画像との全部または一部を合成して俯瞰画像を生成する画像合成部と、を含むものである。
本願に開示される車両周辺表示システムは、車両に搭載され車両周辺を撮影する複数の撮影装置と、車両周辺の物体を検出するセンサと、撮影装置により撮影された複数の画像に基づいて車両と車両周辺とを含む俯瞰画像を生成する車両周辺画像生成装置と、車両周辺画像生成装置により生成された俯瞰画像を表示する表示部とを備えた車両周辺表示システムであって、車両周辺画像生成装置は、センサにより取得された物体情報に基づいて物体と車両との距離が閾値以内であるか否かを判定する物体距離判定部と、複数の画像をそれぞれ俯瞰画像用の画像に変換する画像変換部と、複数の撮影装置の撮影領域の重複部分に物体が存在する場合に、俯瞰画像用の画像の重複部分をそれぞれ路面画像と物体画像とに分割する画像分割部と、画像変換部で得られた俯瞰画像用の画像と画像分割部でそれぞれ得られた路面画像と物体画像との全部または一部を合成して俯瞰画像を生成する画像合成部と、を含むものである。
本願に開示される車両周辺表示方法は、車両と車両周辺とを含む俯瞰画像を生成し表示する車両周辺表示方法であって、車両周辺を撮影した複数の画像の画像情報、車両周辺の物体の位置情報を含む物体情報、車両の進行方向及び速度を含む車両進行情報を取得する情報取得ステップと、情報取得ステップで取得された複数の画像をそれぞれ俯瞰画像用の画像に変換する画像変換ステップと、複数の画像の重複部分に物体が存在し、且つ物体と車両との距離が閾値以内である場合に、重複部分の路面色を検出する路面色検出ステップと、路面色検出ステップで検出された路面色に基づいて、俯瞰画像用の画像の重複部分をそれぞれ路面画像と物体画像とに分割する画像分割ステップと、画像変換ステップで得られた俯瞰画像用の画像と画像分割ステップでそれぞれ得られた路面画像と物体画像との全部または一部を合成して俯瞰画像を生成する画像合成ステップと、画像合成ステップで生成された俯瞰画像を表示する表示ステップと、を含むものである。
本願に開示される車両周辺画像生成装置によれば、複数のカメラの撮影領域の重複部分に物体が存在する場合に、重複部分をそれぞれ路面画像と物体画像とに分割し、俯瞰画像用の画像と路面画像と物体画像とを合成して俯瞰画像を生成するようにしたので、重複部分に存在する物体がぼやけず、明瞭な俯瞰画像を生成することが可能である。
本願に開示される車両周辺表示システムによれば、複数のカメラの撮影領域の重複部分に物体が存在する場合に、重複部分をそれぞれ路面画像と物体画像とに分割し、俯瞰画像用の画像と路面画像と物体画像とを合成して俯瞰画像を生成するようにしたので、重複部分に存在する物体がぼやけず、明瞭な俯瞰画像を表示することが可能である。
本願に開示される車両周辺表示方法によれば、複数の画像の重複部分に物体が存在し、且つ物体と車両との距離が閾値以内である場合に、重複部分をそれぞれ路面画像と物体画像とに分割し、俯瞰画像用の画像と路面画像と物体画像とを合成して俯瞰画像を生成するようにしたので、重複部分に存在する物体がぼやけず、明瞭な俯瞰画像を表示することが可能である。
本願の上記以外の目的、特徴、観点及び効果は、図面を参照する以下の詳細な説明から、さらに明らかになるであろう。
実施の形態1における車両周辺表示システムの構成を示すブロック図である。 実施の形態1における車両周辺画像生成装置の構成を示すブロック図である。 実施の形態1における車両周辺画像生成装置のハードウエア構成例を示す図である。 実施の形態1における車両周辺画像生成装置による画像合成手法を説明する図である。 実施の形態1における車両周辺画像生成装置による画像合成手法を説明する図である。 実施の形態1における車両周辺表示システムの表示部に表示された俯瞰画像の例を示す図である。 比較例における車両周辺表示システムの表示部に表示された俯瞰画像の例を示す図である。 実施の形態1における車両周辺表示システムによる処理の流れを説明する図である。 実施の形態2における車両周辺画像生成装置による画像合成手法の選択方法を説明する図である。 実施の形態2における車両周辺画像生成装置による画像合成手法の選択方法を説明する図である。 実施の形態2における車両周辺表示システムによる処理の流れを説明する図である。
実施の形態1.
以下に、実施の形態1による車両周辺画像生成装置及び車両周辺表示システムについて、図面に基づいて説明する。図1は、実施の形態1における車両周辺表示システムの構成を示すブロック図、図2は、実施の形態1における車両周辺画像生成装置の構成を示すブロック図、図3は、車両周辺画像生成装置のハードウエア構成例を示す図、図4及び図5は、車両周辺画像生成装置による画像合成手法を説明する図である。なお、図中、同一、相当部分には同一符号を付している。
図1に示すように、車両周辺表示システムは、車両周辺を撮影する撮影装置である複数のカメラ1、車両周辺画像生成装置であるECU2(Electronic Control Unit)、車両進行情報検出部3、車両周辺の物体を検出するセンサ4、物体情報検出部5、及び表示部6を備えている。
カメラ1は、例えば図4に示すように、車両7の前後左右に取り付けられ、車両7の前方、後方、及び左右を撮影する。各々のカメラ1による撮影領域は、重複部分を有している。図4に示す例では、車両後方のカメラ1による撮影領域10Bと、車両右側のカメラ1による撮影領域10Rは、車両7の右後方に重複部分10BRを有している。4つのカメラ1を備えている場合、4つの重複部分が存在する。
ECU2は、カメラ1により撮影された車両周辺の複数の画像に基づいて、車両7と車両周辺とを含む俯瞰画像を生成する。ECU2の機能については後に詳細に説明する。車両進行情報検出部3は、車両7の進行方向及び速度を含む車両進行情報を車両7から取得する。具体的には、現在のハンドル舵角、速度、ギア情報等の車両情報をエンジンコントロールユニットから取得し、これらの車両情報に基づいて車両7の進行方向及び速度を検出する。
センサ4は、車両7に取り付けられ、車両周辺の物体8を検出し物体情報を取得する。例えば図4に示すように、センサ4はカメラ1とカメラ1の中間に設けられ、センサ4による検出範囲が2つのカメラ1の撮影領域の重複部分を含むように設定される。センサ4の種類は特に限定されるものではなく、ミリ波レーダ、または超音波センサであるソナー、またはカメラ等が用いられる。
物体情報検出部5は、センサ4により検出された物体8の位置情報を含む物体情報を取得し、この位置情報に基づいて物体8と車両7との距離を検出する。なお、物体情報検出部5の機能を備えたセンサを用いてもよい。表示部6は、ECU2により生成された、車両7と車両周辺とを含む俯瞰画像を表示する。表示部6は、一般的なディスプレイであり、運転者が視認し易いように車内に設置されている。
ECU2は、図2に示すように、フレーム同期部21、物体距離判定部22、合成手法選択部23、画像変換部24、路面色検出部25、画像分割部26、及び画像合成部27を含んでいる。以下に、それぞれの機能について説明する。
フレーム同期部21は、カメラ1から取得した画像情報、物体情報検出部5から取得した物体情報、及び車両7の進行方向及び速度を含む車両進行情報を同期する。車両進行情報は、車両進行情報検出部3によって検出される。フレーム同期は信号同期方式の一つであり、予め決められたフレーム同期パターンによって同期を取るものである。物体距離判定部22、合成手法選択部23、及び画像変換部24は、フレーム同期部21によって同期された情報を用いてそれぞれ処理を行う。
物体距離判定部22は、物体情報検出部5から取得した物体情報に基づいて、物体8と車両7との距離が閾値以内であるか否かを判定する。表示部6に表示された俯瞰画像に物体8が表示されるか否かは、物体8の位置と車両7との距離によって決まる。このため、物体距離判定部22で用いられる閾値は、図4に示す俯瞰画像における車両7の端部から表示部6の画面端6A(図4中、一点鎖線で示す)までの距離に基づいて設定される。
合成手法選択部23は、フレーム同期された画像情報、物体情報、及び車両進行情報に基づいて、画像合成部27における俯瞰画像の合成手法を選択する。実施の形態1では、2つのカメラ1の撮影領域の重複部分に物体8が存在し、且つ物体8と車両7との距離が閾値以内の場合、第1の合成手法を選択する。一方、重複部分に物体8が存在しない場合、または物体8と車両7との距離が閾値よりも大きい場合には、第2の合成手法を選択する。第1の合成手法と第2の合成手法については後に詳細に説明する。
画像変換部24は、カメラ1により撮影された複数の画像の画像情報をフレーム同期部21から取得し、それぞれ俯瞰画像用の画像に変換する。合成手法選択部23が第1の合成手法を選択した場合、画像変換部24で得られた俯瞰画像用の画像は、路面色検出部25と画像合成部27とに送られる。また、合成手法選択部23が第2の合成手法を選択した場合、画像変換部24で得られた俯瞰画像用の画像は、画像合成部27のみに送られる。
路面色検出部25は、画像変換部24で生成された俯瞰画像用の画像における重複部分の路面色を検出する。具体的には、合成手法選択部23が第1の合成手法を選択すると、路面色検出部25は、重複部分を有する2つの俯瞰画像用の画像からそれぞれ重複部分を切り取り、切り取った画像の路面色を検出する。
路面色の検出方法としては、カメラ1で取得された画像情報から路面の映っている画像部分(例えば車両7の周囲数ピクセル)の色情報を検出し、これを路面色の色情報とする方法がある。あるいは、物体情報検出部5から物体の位置情報を取得し、この位置情報に基づいて物体がない部分の色情報を取得し、これを路面色の色情報とする方法もある。
画像分割部26は、複数のカメラ1の撮影領域の重複部分に物体8が存在する場合に、俯瞰画像用の画像の重複部分をそれぞれ路面画像と物体画像とに分割する。合成手法選択部23が第1の合成手法を選択すると、画像分割部26は、路面色検出部25で検出された路面色の色情報に基づいて、俯瞰画像用の画像の重複部分をそれぞれ路面画像と物体画像とに分割する。すなわち、画像分割部26では、1つの重複部分に対し2組の路面画像と物体画像が得られる。
画像分割部26による画像の分割方法としては、例えば、俯瞰画像用の画像における重複部分から路面色の色情報と一致する画素を探し、物体部分と路面部分とを区別する。物体部分の画素を物体画像として切り取った後、その部分を路面色の色情報と一致する画素で埋めることにより、路面画像を生成する。
なお、実施の形態1では、画像分割部26は、路面色の色情報に基づいて、画像の重複部分を路面画像と物体画像とに分割するようにしたが、画像の分割方法はこれに限定されるものではない。例えば別の方法として、物体情報検出部5で取得された物体8の位置情報に基づいて、重複部分における物体部分の座標を計算し、路面画像と物体画像とに分割する方法を用いてもよい。
画像合成部27は、画像変換部24で得られた俯瞰画像用の画像と画像分割部26でそれぞれ得られた路面画像と物体画像との全部または一部を合成して俯瞰画像を生成する。画像合成部27は、第1の合成手法と第2の合成手法のいずれかによって俯瞰画像を生成する。
第1の合成手法では、画像変換部24で得られた俯瞰画像用の画像と画像分割部26でそれぞれ得られた路面画像と物体画像とを合成して俯瞰画像を生成する。第1の合成手法が選択された場合は、撮影領域の重複部分に物体8が存在しているため、重複部分については画像分割部26で得られた2組の路面画像と物体画像とを合成し、その他の部分については画像変換部24で得られた俯瞰画像用の画像を合成する。また、第2の手法では、画像変換部24で得られた俯瞰画像用の画像のみを合成して俯瞰画像を生成する。
なお、ECU2は、マイクロコンピュータ等を備えた電子回路であり、図3に示すように、プロセッサ100と記憶装置101から構成される。記憶装置101は、ランダムアクセスメモリ等の揮発性記憶装置と、フラッシュメモリ等の不揮発性の補助記憶装置とを具備する。また、フラッシュメモリの代わりにハードディスクの補助記憶装置を具備してもよい。
プロセッサ100は、記憶装置101から入力されたプログラムを実行する。この場合、補助記憶装置から揮発性記憶装置を介してプロセッサ100にプログラムが入力される。また、プロセッサ100は、演算結果等のデータを記憶装置101の揮発性記憶装置に出力してもよいし、揮発性記憶装置を介して補助記憶装置にデータを保存してもよい。
また、車両進行情報検出部3及び物体情報検出部5も同様に、車両周辺表示システムが搭載するプロセッサと記憶装置から構成される(図示省略)。車両進行情報検出部3及び物体情報検出部5の機能を記述したプログラムが、プロセッサにより実行される。
次に、ECU2による俯瞰画像の合成手法について、図4及び図5を用いて詳細に説明する。図4では、車両後方のカメラ1による撮影領域10Bと、車両右側のカメラ1による撮影領域10Rの重複部分10BRに物体8が存在している。また、物体8は、表示部6の画面端6Aよりも内側にあるため、物体距離判定部22は、物体8と車両7との距離が閾値以内であると判定する。従って、合成手法選択部23は、第1の合成手法を選択する。
第1の合成手法が選択されると、画像変換部24は、各カメラ1において撮影された画像から、物体8が検出された区画11の画像を切り取り、俯瞰画像用の画像に変換する。あるいは、各カメラ1において撮影された画像を俯瞰画像用の画像に変換した後、物体8が検出された区画11の画像を切り取ってもよい。その結果、図5に示すように、車両後方のカメラ1により撮影された区画11の俯瞰画像11aと、車両右側のカメラ1により撮影された区画11の俯瞰画像11bがそれぞれ得られる。これらの俯瞰画像11a、11bは、いずれも物体8と路面12を含んでいる。
続いて、路面色検出部25は、俯瞰画像11a、11bにおける路面色の色情報を検出する。画像分割部26は、路面色検出部25で検出された路面色に基づいて、俯瞰画像11a、11bから物体8を抜き出し、俯瞰画像11a、11bを、路面12を含む路面画像と物体8を含む物体画像とに、それぞれ分割する。画像合成部27は、これら2組の路面画像と物体画像を用いて、アルファブレンディングにより画像の合成を行う。
第1の合成手法では、図5に示すように、俯瞰画像11a、11bを4つの領域に分けて合成を行う。第1の領域は、俯瞰画像11a、11bの両方で路面画像である領域である。第1の領域については、それぞれα値を0.5に設定する。第2の領域は、俯瞰画像11aでは物体画像であり、俯瞰画像11bでは路面画像である領域である。第2の領域については、物体画像のα値を1に、路面画像のα値を0に設定する。
第3の領域は、俯瞰画像11aでは路面画像であり、俯瞰画像11bでは物体画像である領域である。第3の領域については、物体画像のα値を1に、路面画像のα値を0に設定する。第4の領域は、俯瞰画像11a、11bの両方で物体画像である領域である。第4の領域については、それぞれα値を0.5に設定する。なお、第1の領域と第4の領域については、α値の設定はこれに限定されるものではない。
このように、第1の合成手法では、重複部分の路面画像と物体画像とを合成する際、2組のうちの一方では物体画像であり他方では路面画像である領域については、物体画像のα値を1に、路面画像のα値を0に設定する。それぞれα値を付与した4つの領域の路面画像と物体画像を合成し、図5に示す俯瞰画像11cを生成する。下式(1)は、α値を用いたアルファブレンディングの一般式である。式(1)において、Cgは路面画像の色情報、Coは物体画像の色情報、Aはα値、Crは合成後の色情報である。
Cr=Cg×(1−A)+Co×A (1)
一般的なアルファブレンディングでは、式(1)におけるAのα値は、0から1の間で設定され、それぞれの画像の色を透過させて両方の画像の色を混ぜ合わせる。例えばα値を0.5に設定すると、両方の画像の色が同程度混ぜ合わされた画像になる。これに対し、実施の形態1によるECU2では、図5に示す第2の領域と第3の領域において物体画像のα値を1と設定し、物体画像の色を透過させずに合成している。
図6は、実施の形態1における車両周辺表示システムの表示部に表示された俯瞰画像の例である。俯瞰画像13aは、重複部分の画像を2組の路面画像と物体画像とに分割し、2組のうちの一方では物体画像であり他方では路面画像である領域については、物体画像のα値を1に、路面画像のα値を0に設定して合成されたものである。表示部6に表示された俯瞰画像13aには、車両7の前方に棒状の物体9がぼやけることなく鮮明に映っている。
一方、図7は、比較例における車両周辺表示システムの表示部に表示された俯瞰画像の例である。この比較例では、重複部分の画像を路面画像と物体画像とに分割することなく、2つのカメラ1による俯瞰画像用の画像を、それぞれα値を0.5に設定して合成している。このため、2つの俯瞰画像用の画像の物体部分の色はそれぞれ50%透過され、俯瞰画像13bに映っている棒状の物体9は、ぼやけている。
次に、実施の形態1における車両周辺表示システムによる処理の流れについて、図8のフローチャートを用いて説明する。まず、ステップS1において、車両周辺を撮影した複数の画像の画像情報、車両周辺の物体の位置情報を含む物体情報、及び車両の進行方向及び速度を含む車両進行情報を取得する(情報取得ステップ)。続いて、ステップS2において、ステップS1で取得した情報をフレーム同期させる(フレーム同期ステップ)。
ステップS3では、ステップS1で取得されステップS2でフレーム同期された情報に基づいて、俯瞰画像の合成手法を選択する(合成手法選択ステップ)。まず、ステップS3−1では、車両周辺を撮影した複数の画像において、撮影領域の重複部分に物体が存在するか否かを判定する。重複部分に物体が存在する場合(YES)、ステップS3−2で車両と物体との距離を取得する。次に、ステップS3−3において、物体と車両との距離が閾値以内か否かを判定する。物体と車両との距離が閾値以内の場合(YES)、ステップS3−5で第1の合成手法を選択する。
一方、ステップS3−1において、重複部分に物体が存在しない場合(NO)、またはステップS3−3において、物体と車両との距離が閾値よりも大きい場合(NO)は、ステップS3−6で第2の合成手法を選択する。
ステップS3−5で第1の合成手法を選択すると、ステップS4において、撮影した複数の画像をそれぞれ俯瞰画像用の画像に変換する(画像変換ステップ)。次に、ステップS5において、俯瞰画像用の画像における重複部分の路面色を検出する(路面色検出ステップ)。さらに、ステップS6で、路面色検出ステップ(S5)で検出された路面色に基づいて、俯瞰画像用の画像における重複部分をそれぞれ路面画像と物体画像とに分割する(画像分割ステップ)。
続いて、ステップS7において、画像分割ステップ(S6)で得られた重複部分の画像、すなわち2組の物体画像と路面画像とを用い、2組のうちの一方では物体画像であり他方では路面画像である領域については、物体画像のα値を1、路面画像のα値を0として合成し、重複部分の俯瞰画像を生成する。次に、ステップS8において、画像変換ステップ(S4)で得られたその他の部分の俯瞰画像用の画像を合成し、車両と車両周辺を含む俯瞰画像を生成する(画像合成ステップ)。
一方、ステップS3−6で第2の合成手法を選択すると、ステップS9において、撮影した複数の画像をそれぞれ俯瞰画像用の画像に変換する(画像変換ステップ)。続いて、ステップS10において、画像変換ステップ(S9)で得られた俯瞰画像用の画像を合成し、車両と車両周辺を含む俯瞰画像を生成する(画像合成ステップ)。最後に、ステップS11において、画像合成ステップ(S7、S8、S10)で生成された俯瞰画像を表示する(表示ステップ)。
以上のように、実施の形態1におけるECU2によれば、複数のカメラ1の撮影領域の重複部分に物体8が存在する場合に、重複部分をそれぞれ路面画像と物体画像とに分割し、物体画像のα値を1、路面画像のα値を0としてアルファブレンディングにより合成して俯瞰画像を生成するようにしたので、重複部分に存在する物体8がぼやけず、明瞭な俯瞰画像を生成することが可能である。また、実施の形態1におけるECU2を備えた車両周辺表示システムによれば、重複部分に存在する物体8がぼやけず、明瞭な俯瞰画像を表示することが可能である。
また、実施の形態1における車両周辺表示方法によれば、複数の画像の重複部分に物体8が存在し、且つ物体8と車両7との距離が閾値以内である場合に、俯瞰画像用の画像の重複部分の路面色を検出し、この路面色に基づいて重複部分をそれぞれ路面画像と物体画像とに分割し、俯瞰画像用の画像と路面画像と物体画像とを合成して俯瞰画像を生成するようにしたので、重複部分に存在する物体8がぼやけず、明瞭な俯瞰画像を表示することが可能である。
実施の形態2.
実施の形態2における車両周辺画像生成装置及び車両周辺表示システムの構成は、上記実施の形態1と同様であるので図1及び図2を流用し、ここでは相違点のみを説明する。図9及び図10は、実施の形態2における車両周辺画像生成装置による画像合成手法の選択方法を説明する図である。図9及び図10において、矢印Aは車両7の進行方向を示している。
図9では、車両前方のカメラ1による撮影領域10Fと、車両右側のカメラ1による撮影領域10Rとの重複部分10FRの区画11に物体8が存在する。また、図10では、車両後方のカメラ1による撮影領域10Bと、車両右側のカメラ1による撮影領域10Rとの重複部分10BRの区画11に物体8が存在する。
いずれの場合も、物体8は表示部6の画面端6Aよりも内側にあり、物体8と車両との距離は閾値以内であるが、物体8の位置と車両7の進行方向との関係が異なっている。すなわち、図9では、物体8が車両7の進行方向の側に存在しており、車両7が物体8に接触する可能性が高い。一方、図10では、物体8が車両7の進行方向の反対側に存在しており、車両7が物体8に接触することはほとんどない。
実施の形態2による合成手法選択部23は、重複部分に物体8が存在し、且つ物体8と車両7との距離が閾値以内であり、且つ物体8が車両7の進行方向に存在する場合に、俯瞰画像用の画像と路面画像と物体画像とを用いる第1の合成手法を選択する。一方、重複部分に物体8が存在しない場合、または物体8と車両7との距離が閾値よりも大きい場合、または物体8が車両7の進行方向に存在しない場合に、俯瞰画像用の画像を用いる第2の合成手法を選択する。
上記実施の形態1では、図10のように、物体8が車両7の進行方向の反対側に存在する場合でも第1の合成手法を選択するため、ECU2の計算負荷が高くなる。実施の形態2では、物体8が車両7の進行方向の反対側に存在する場合には、第2の合成手法を選択するため、生成された俯瞰画像において物体8がぼやける。ただし、進行方向の反対側に存在する物体8は、接触の可能性が低いため、それほど鮮明である必要はない。
図11は、実施の形態2における車両周辺表示システムによる処理の流れを説明するフローチャートである。図11と、上記実施の形態1で説明した図8のフローチャートとの違いは、合成手法選択ステップ(S3)にステップS3−4が加えられている点のみである。すなわち、ステップS1−S2、及びS4−S11については、図8のフローチャートと同じであるため、説明を省略する。
実施の形態2における合成手法選択ステップ(S3)では、ステップS3−1において、撮影領域の重複部分に物体が存在する場合(YES)、ステップS3−2で車両と物体との距離を取得する。次に、ステップS3−3において、物体と車両との距離が閾値以内の場合(YES)、ステップS3−4において、車両の進行方向に物体が存在するか否かを判定する。車両の進行方向に物体が存在する場合(YES)、ステップS3−5で第1の合成手法を選択する。
一方、ステップS3−1において、重複部分に物体が存在しない場合(NO)、またはステップS3−3において物体と車両との距離が閾値よりも大きい場合(NO)、またはステップS3−4において車両の進行方向に物体が存在しない場合(NO)には、ステップS3−6で第2の合成手法を選択する。
実施の形態2によれば、上記実施の形態1と同様の効果に加え、物体8が車両7の進行方向に存在すると判断した場合のみ第1の合成手法を選択するようにしたので、ECU2の計算負荷が軽減される。
本開示は、様々な例示的な実施の形態が記載されているが、1つ、または複数の実施の形態に記載された様々な特徴、態様、及び機能は特定の実施の形態の適用に限られるのではなく、単独で、または様々な組み合わせで実施の形態に適用可能である。従って、例示されていない無数の変形例が、本願明細書に開示される技術の範囲内において想定される。例えば、少なくとも1つの構成要素を変形する場合、追加する場合または省略する場合、さらには、少なくとも1つの構成要素を抽出し、他の実施の形態の構成要素と組み合わせる場合が含まれるものとする。
1 カメラ、2 ECU、3 車両進行情報検出部、4 センサ、5 物体情報検出部、6 表示部、6A 画面端、7 車両、8、9 物体、10B、10F、10R 撮影領域、10BR、10FR 重複部分、11 区画、11a、11b、11c、13a、13b 俯瞰画像、12 路面、21 フレーム同期部、22 物体距離判定部、23 合成手法選択部、24 画像変換部、25 路面色検出部、26 画像分割部、27 画像合成部

Claims (16)

  1. 車両に搭載された複数の撮影装置により撮影された複数の画像に基づいて、車両と車両周辺とを含む俯瞰画像を生成する車両周辺画像生成装置であって、
    前記車両周辺の物体を検出するセンサにより取得された物体情報に基づいて、前記物体と前記車両との距離が閾値以内であるか否かを判定する物体距離判定部と、
    前記複数の画像をそれぞれ俯瞰画像用の画像に変換する画像変換部と、
    前記複数の撮影装置の撮影領域の重複部分に前記物体が存在する場合に、前記俯瞰画像用の画像の前記重複部分をそれぞれ路面画像と物体画像とに分割する画像分割部と、
    前記画像変換部で得られた前記俯瞰画像用の画像と前記画像分割部でそれぞれ得られた前記路面画像と前記物体画像との全部または一部を合成して前記俯瞰画像を生成する画像合成部と、を含むことを特徴とする車両周辺画像生成装置。
  2. 前記撮影装置から取得した画像情報、前記センサから取得した物体情報、及び前記車両の進行方向及び速度を含む車両進行情報を同期させるフレーム同期部を含むことを特徴とする請求項1記載の車両周辺画像生成装置。
  3. 前記フレーム同期部で同期された画像情報、物体情報、及び車両進行情報に基づいて、前記画像合成部における前記俯瞰画像の合成手法を選択する合成手法選択部を含むことを特徴とする請求項2記載の車両周辺画像生成装置。
  4. 前記合成手法選択部は、前記重複部分に前記物体が存在し、且つ前記物体と前記車両との距離が前記閾値以内である場合に、前記俯瞰画像用の画像と前記路面画像と前記物体画像とを用いる第1の合成手法を選択し、前記重複部分に前記物体が存在しない場合、または前記物体と前記車両との距離が前記閾値よりも大きい場合に、前記俯瞰画像用の画像を用いる第2の合成手法を選択することを特徴とする請求項3記載の車両周辺画像生成装置。
  5. 前記合成手法選択部は、前記物体が前記車両の進行方向に存在する場合に、前記第1の合成手法を選択し、前記物体が前記車両の進行方向に存在しない場合に、前記第2の合成手法を選択することを特徴とする請求項4記載の車両周辺画像生成装置。
  6. 前記重複部分の路面色を検出する路面色検出部を含み、
    前記画像分割部は、前記路面色検出部で検出された前記路面色に基づいて、前記重複部分を前記路面画像と前記物体画像とに分割することを特徴とする請求項1から請求項5のいずれか一項に記載の車両周辺画像生成装置。
  7. 前記画像合成部は、アルファブレンディングにより画像の合成を行うものであり、前記重複部分に前記物体が存在する場合に、前記画像分割部で得られた2組の前記路面画像と前記物体画像とを用い、前記2組のうちの一方では前記物体画像であり他方では前記路面画像である領域については、前記物体画像のα値を1に、前記路面画像のα値を0に設定することを特徴とする請求項1から請求項6のいずれか一項に記載の車両周辺画像生成装置。
  8. 前記物体距離判定部で用いられる前記閾値は、前記俯瞰画像における前記車両の端部から前記俯瞰画像が表示される表示部の画面端までの距離に基づいて設定されることを特徴とする請求項1から請求項7のいずれか一項に記載の車両周辺画像生成装置。
  9. 車両に搭載され車両周辺を撮影する複数の撮影装置と、前記車両周辺の物体を検出するセンサと、前記撮影装置により撮影された複数の画像に基づいて車両と前記車両周辺とを含む俯瞰画像を生成する車両周辺画像生成装置と、前記車両周辺画像生成装置により生成された前記俯瞰画像を表示する表示部とを備えた車両周辺表示システムであって、
    前記車両周辺画像生成装置は、
    前記センサにより取得された物体情報に基づいて、前記物体と前記車両との距離が閾値以内であるか否かを判定する物体距離判定部と、
    前記複数の画像をそれぞれ俯瞰画像用の画像に変換する画像変換部と、
    前記複数の撮影装置の撮影領域の重複部分に前記物体が存在する場合に、前記俯瞰画像用の画像の前記重複部分をそれぞれ路面画像と物体画像とに分割する画像分割部と、
    前記画像変換部で得られた前記俯瞰画像用の画像と前記画像分割部でそれぞれ得られた前記路面画像と前記物体画像との全部または一部を合成して前記俯瞰画像を生成する画像合成部と、を含むことを特徴とする車両周辺表示システム。
  10. 前記車両の進行方向及び速度を含む車両進行情報を前記車両から取得する車両進行情報検出部を備えたことを特徴とする請求項9記載の車両周辺表示システム。
  11. 前記センサは、ミリ波レーダ、またはソナー、またはカメラであり、前記センサによる検出範囲は前記重複部分を含むことを特徴とする請求項9または請求項10記載の車両周辺表示システム。
  12. 車両と車両周辺とを含む俯瞰画像を生成し表示する車両周辺表示方法であって、
    車両周辺を撮影した複数の画像の画像情報、前記車両周辺の物体の位置情報を含む物体情報、車両の進行方向及び速度を含む車両進行情報を取得する情報取得ステップと、
    前記情報取得ステップで取得された前記複数の画像をそれぞれ俯瞰画像用の画像に変換する画像変換ステップと、
    前記複数の画像の重複部分に前記物体が存在し、且つ前記物体と前記車両との距離が閾値以内である場合に、前記重複部分の路面色を検出する路面色検出ステップと、
    前記路面色検出ステップで検出された路面色に基づいて、前記俯瞰画像用の画像の前記重複部分をそれぞれ路面画像と物体画像とに分割する画像分割ステップと、
    前記画像変換ステップで得られた前記俯瞰画像用の画像と前記画像分割ステップでそれぞれ得られた前記路面画像と前記物体画像との全部または一部を合成して前記俯瞰画像を生成する画像合成ステップと、
    前記画像合成ステップで生成された前記俯瞰画像を表示する表示ステップと、を含むことを特徴とする車両周辺表示方法。
  13. 前記情報取得ステップで取得された情報に基づいて、前記画像合成ステップにおける前記俯瞰画像の合成手法を選択する合成手法選択ステップを含むことを特徴とする請求項12記載の車両周辺表示方法。
  14. 前記合成手法選択ステップは、前記重複部分に前記物体が存在し、且つ前記物体と前記車両との距離が前記閾値以内であり、且つ前記物体が前記車両の進行方向に存在する場合に、前記俯瞰画像用の画像と前記路面画像と前記物体画像とを用いる第1の合成手法を選択することを特徴とする請求項13記載の車両周辺表示方法。
  15. 前記合成手法選択ステップは、前記重複部分に前記物体が存在しない場合、または前記物体と前記車両との距離が前記閾値よりも大きい場合、または前記物体が前記車両の進行方向に存在しない場合に、前記俯瞰画像用の画像を用いる第2の合成手法を選択することを特徴とする請求項13または請求項14に記載の車両周辺表示方法。
  16. 前記画像合成ステップは、アルファブレンディングにより画像の合成を行うものであり、前記重複部分に前記物体が存在する場合に、前記画像分割ステップで得られた2組の前記路面画像と前記物体画像とを用い、前記2組のうちの一方では前記物体画像であり他方では前記路面画像である領域については、前記物体画像のα値を1に、前記路面画像のα値を0に設定することを特徴とする請求項12から請求項15のいずれか一項に記載の車両周辺表示方法。
JP2021514732A 2019-04-18 2019-04-18 車両周辺画像生成装置、車両周辺表示システム、及び車両周辺表示方法 Active JP7203205B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/016567 WO2020213111A1 (ja) 2019-04-18 2019-04-18 車両周辺画像生成装置、車両周辺表示システム、及び車両周辺表示方法

Publications (2)

Publication Number Publication Date
JPWO2020213111A1 true JPWO2020213111A1 (ja) 2021-11-25
JP7203205B2 JP7203205B2 (ja) 2023-01-12

Family

ID=72837140

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021514732A Active JP7203205B2 (ja) 2019-04-18 2019-04-18 車両周辺画像生成装置、車両周辺表示システム、及び車両周辺表示方法

Country Status (5)

Country Link
US (1) US11926263B2 (ja)
JP (1) JP7203205B2 (ja)
CN (1) CN113678433B (ja)
DE (1) DE112019007225B4 (ja)
WO (1) WO2020213111A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI816515B (zh) * 2022-08-17 2023-09-21 國立臺北大學 雷達與影像同步方法及雷達與影像同步系統

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06267000A (ja) * 1993-03-15 1994-09-22 Hitachi Ltd 車両の誘導情報装置
JP2006253872A (ja) * 2005-03-09 2006-09-21 Toshiba Corp 車両周辺画像表示装置および車両周辺画像表示方法
JP2009289185A (ja) * 2008-05-30 2009-12-10 Sanyo Electric Co Ltd 画像処理装置
JP2013205956A (ja) * 2012-03-27 2013-10-07 Sumitomo Heavy Ind Ltd 画像生成方法、画像生成装置、及び操作支援システム
JP2018142883A (ja) * 2017-02-28 2018-09-13 株式会社Jvcケンウッド 俯瞰映像生成装置、俯瞰映像生成システム、俯瞰映像生成方法およびプログラム

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0590588B2 (en) 1992-09-30 2003-09-10 Hitachi, Ltd. Vehicle driving support system
US6822563B2 (en) * 1997-09-22 2004-11-23 Donnelly Corporation Vehicle imaging system with accessory control
JP3819284B2 (ja) 2001-11-29 2006-09-06 クラリオン株式会社 車両周囲監視装置
US7526103B2 (en) * 2004-04-15 2009-04-28 Donnelly Corporation Imaging system for vehicle
JP5234894B2 (ja) * 2007-06-28 2013-07-10 富士重工業株式会社 ステレオ画像処理装置
DE102009036200A1 (de) 2009-08-05 2010-05-06 Daimler Ag Verfahren zur Überwachung einer Umgebung eines Fahrzeugs
JP5483120B2 (ja) * 2011-07-26 2014-05-07 アイシン精機株式会社 車両周辺監視システム
DE102011088332B4 (de) 2011-12-13 2021-09-02 Robert Bosch Gmbh Verfahren zur Verbesserung der Objektdetektion bei Multikamerasystemen
JP6084434B2 (ja) * 2012-10-31 2017-02-22 クラリオン株式会社 画像処理システム及び画像処理方法
US8908041B2 (en) * 2013-01-15 2014-12-09 Mobileye Vision Technologies Ltd. Stereo assist with rolling shutters
JP6375633B2 (ja) * 2014-02-12 2018-08-22 株式会社デンソー 車両周辺画像表示装置、車両周辺画像表示方法
JP6267000B2 (ja) 2014-02-25 2018-01-24 ダイハツ工業株式会社 車両におけるシート装置
KR101664582B1 (ko) * 2014-11-12 2016-10-10 현대자동차주식회사 자율주행차량의 주행경로 생성장치 및 방법
JP6642280B2 (ja) * 2016-05-30 2020-02-05 アイシン精機株式会社 画像表示システム
EP4155128A1 (en) * 2016-12-09 2023-03-29 Kyocera Corporation Imaging apparatus, image processing apparatus, display system, and vehicle
EP3537714B1 (en) 2017-02-28 2021-08-25 JVC Kenwood Corporation Bird's-eye-view video image generation device, bird's-eye-view video image generation system, bird's-eye-view video image generation method, and program
US10685239B2 (en) * 2018-03-18 2020-06-16 Tusimple, Inc. System and method for lateral vehicle detection

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06267000A (ja) * 1993-03-15 1994-09-22 Hitachi Ltd 車両の誘導情報装置
JP2006253872A (ja) * 2005-03-09 2006-09-21 Toshiba Corp 車両周辺画像表示装置および車両周辺画像表示方法
JP2009289185A (ja) * 2008-05-30 2009-12-10 Sanyo Electric Co Ltd 画像処理装置
JP2013205956A (ja) * 2012-03-27 2013-10-07 Sumitomo Heavy Ind Ltd 画像生成方法、画像生成装置、及び操作支援システム
JP2018142883A (ja) * 2017-02-28 2018-09-13 株式会社Jvcケンウッド 俯瞰映像生成装置、俯瞰映像生成システム、俯瞰映像生成方法およびプログラム

Also Published As

Publication number Publication date
CN113678433A (zh) 2021-11-19
DE112019007225T5 (de) 2022-01-05
US11926263B2 (en) 2024-03-12
JP7203205B2 (ja) 2023-01-12
US20220118907A1 (en) 2022-04-21
DE112019007225B4 (de) 2023-12-07
WO2020213111A1 (ja) 2020-10-22
CN113678433B (zh) 2024-05-03

Similar Documents

Publication Publication Date Title
EP2739050B1 (en) Vehicle surroundings monitoring system
JP5165631B2 (ja) 車両周囲画像表示システム
JP6310652B2 (ja) 映像表示システム、映像合成装置及び映像合成方法
JP6548900B2 (ja) 画像生成装置、画像生成方法及びプログラム
US11518390B2 (en) Road surface detection apparatus, image display apparatus using road surface detection apparatus, obstacle detection apparatus using road surface detection apparatus, road surface detection method, image display method using road surface detection method, and obstacle detection method using road surface detection method
US20100066516A1 (en) Image displaying in-vehicle system, image displaying control in-vehicle apparatus and computer readable medium comprising program for the same
JP5404932B2 (ja) 交通状況のビデオデータと間隔データを組み合わせて視覚的に表示するための方法および装置
JP6425991B2 (ja) 牽引車両周囲画像生成装置および牽引車両周囲画像生成方法
EP3503531B1 (en) Image display apparatus
JP2008048317A (ja) 画像処理装置並びに視界支援装置及び方法
EP3495206B1 (en) Image display apparatus
JP6958147B2 (ja) 画像表示装置
WO2020213111A1 (ja) 車両周辺画像生成装置、車両周辺表示システム、及び車両周辺表示方法
US11465559B2 (en) Display processing device and display control device
JP2012138876A (ja) 画像生成装置、画像表示システム及び画像表示方法
WO2017034026A1 (ja) 表示制御装置および表示制御方法
JP7154817B2 (ja) 画像出力装置、画像出力システム及び画像出力装置の制御方法
JP2018085685A (ja) 俯瞰映像生成装置、俯瞰映像生成システム、俯瞰映像生成方法およびプログラム
JP6411100B2 (ja) 車両周囲画像生成装置および車両周囲画像生成方法
WO2017208688A1 (ja) 表示制御装置および表示制御方法
JP4814752B2 (ja) 表示制御装置
JP4685050B2 (ja) 表示装置
JP2020184768A (ja) 俯瞰映像生成装置、俯瞰映像生成方法およびプログラム
JP4598011B2 (ja) 車両用表示装置
JP2019211944A (ja) 画像処理装置および画像処理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210714

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220726

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220816

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221226

R151 Written notification of patent or utility model registration

Ref document number: 7203205

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151