JP2022082487A - 周辺画像生成装置、表示制御方法 - Google Patents

周辺画像生成装置、表示制御方法 Download PDF

Info

Publication number
JP2022082487A
JP2022082487A JP2020193954A JP2020193954A JP2022082487A JP 2022082487 A JP2022082487 A JP 2022082487A JP 2020193954 A JP2020193954 A JP 2020193954A JP 2020193954 A JP2020193954 A JP 2020193954A JP 2022082487 A JP2022082487 A JP 2022082487A
Authority
JP
Japan
Prior art keywords
image
vehicle
boundary line
display
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020193954A
Other languages
English (en)
Other versions
JP7491194B2 (ja
Inventor
昌吾 木田
Shogo Kida
親一 森山
Shinichi Moriyama
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2020193954A priority Critical patent/JP7491194B2/ja
Priority to DE102021129212.3A priority patent/DE102021129212A1/de
Priority to CN202111368954.4A priority patent/CN114531568A/zh
Priority to US17/455,829 priority patent/US11938863B2/en
Publication of JP2022082487A publication Critical patent/JP2022082487A/ja
Application granted granted Critical
Publication of JP7491194B2 publication Critical patent/JP7491194B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/26Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic
    • B60Q1/50Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/26Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic
    • B60Q1/32Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating vehicle sides, e.g. clearance lights
    • B60Q1/326Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating vehicle sides, e.g. clearance lights on or for wheels
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/27Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view providing all-round vision, e.g. using omnidirectional cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/04Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/168Driving aids for parking, e.g. acoustic or visual feedback on parking space
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60GVEHICLE SUSPENSION ARRANGEMENTS
    • B60G2400/00Indexing codes relating to detected, measured or calculated conditions or factors
    • B60G2400/50Pressure
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2400/00Special features or arrangements of exterior signal lamps for vehicles
    • B60Q2400/50Projected symbol or information, e.g. onto the road or car body
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/303Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using joined images, e.g. multiple camera images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/304Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/304Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images
    • B60R2300/305Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images merging camera image with lines or icons
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/607Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective from a bird's eye viewpoint
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/802Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for monitoring and displaying vehicle exterior blind spot views

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computing Systems (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】車体が存在する範囲をユーザが認識しやすい床下透過画像を提供する。【解決手段】画像生成ECU1は、過去に撮像されたカメラ画像を用いて、車体底部を透過させた合成画像である床下透過画像CPを生成する。画像生成ECU1は、床下透過画像CPとして、カメラ画像を元に生成される、車両の下方に位置する地面の一部または全部を示す画像上に、装飾画像Efを付与した車両境界線Lvcを重畳させた画像を生成する。装飾画像Efは例えば車両境界線Lvcから離れるにつれて透明度が高くなるグラデーションを有する半透明な画像として構成されている。【選択図】図17

Description

本開示は、車体の下方に位置する路面の画像を表示する周辺画像生成装置、表示制御方法に関する。
特許文献1には、車両前進時に取得したフロントカメラの画像を用いて、車体の下方に位置する路面の画像を他のカメラ画像と合成して表示する技術が開示されている。このように車体下の路面を示す合成画像は、車体の底部などを透過させたような画像であるため、以降では床下透過画像とも称する。
特許文献2には、車両の周辺を示す鳥瞰画像において、車両が存在する範囲を枠線で示す構成が開示されている。
特開2016-197785号公報 特許第3797343号公報
特許文献1には床下透過画像に、車体が存在する範囲を示す線である車両境界線を重畳表示する構成については言及されていない。そのような構成では、ユーザは、床下透過画像を見ても、どこまで車体が存在するのかを認識することが難しい。ユーザが車体の存在範囲を誤認識してしまうと、障害物に接触する恐れが高まってしまう。
そのような課題に対し、特許文献2のように、車両境界線に相当する枠線を表示する構成も想定される。しかしながら、床下透過画像には、タイヤの存在範囲を示すタイヤ境界線や、操舵角に応じた車両の予測軌道を示すガイド線など、多様な線が重畳表示される場合がある。車両境界線として単なる枠線を配置しただけでは、他の表示線との区別が難しい場合もあり、依然として車両が存在する範囲をユーザがわかりにくいといった課題が残る。
本開示は、この事情に基づいて成されたものであり、その目的とするところは、車体が存在する範囲をユーザが認識しやすい床下透過画像を表示可能な周辺画像生成装置、表示制御方法を提供することにある。
その目的を達成するための周辺画像生成装置は、車両で用いられる周辺画像生成装置であって、車両の周辺を撮影する複数のカメラで得られた複数のカメラ画像を取得する画像取得部(F1)と、画像取得部が取得したカメラ画像のうち少なくとも進行方向側を撮像したカメラ画像の一部又は全部を記憶する画像記憶部(M1)と、画像取得部が取得したカメラ画像、及び、画像記憶部が記憶しているカメラ画像を用いて、車両の底部を透過させた合成画像である床下透過画像を生成する合成画像生成部(F7)と、を備え、合成画像生成部は、床下透過画像として、車両の下方に位置する地面の一部または全部を示す画像上に、車体が存在する範囲の境界を示す車両境界線(Lvc)を重畳させるとともに、車両境界線に所定パターンの装飾を付与した画像を生成するように構成されている。
上記の構成によれば、所定パターン装飾が付与された車両境界線が表示されることとなる。当該装飾によって車両境界線が強調されるため、ユーザが車体が存在する範囲を認識しやすくなる。
また上記目的を達成するための表示制御方法は、車両の運転操作を支援するための画像の表示を制御する表示制御方法であって、車両の周辺を撮影する複数のカメラで得られた複数のカメラ画像を取得すること(S2)と、進行方向側を撮像したカメラ画像を所定のメモリに保存すること(S21)と、複数のカメラ画像、及び、メモリに保存されているカメラ画像を用いて、車両の底部を透過させた合成画像である床下透過画像を生成すること(S3、S4、S6)と、床下透過画像として、車両の下方に位置する地面の一部または全部を示す画像上に、車体が存在する範囲の境界を示す車両境界線(Lvc)を重畳させるとともに、車両境界線に所定パターンの装飾を付与した画像を生成することを含む。
上記方法は、前述の周辺画像生成装置に対応する方法であって、上記装置と同様の効果を奏する。
なお、特許請求の範囲に記載した括弧内の符号は、一つの態様として後述する実施形態に記載の具体的手段との対応関係を示すものであって、本開示の技術的範囲を限定するものではない。
周辺表示システムSysの全体像を示すブロック図である。 各カメラ2の設置位置及び撮影範囲の一例を示す図である。 各ソナー8の設置位置及び撮影範囲の一例を示す図である。 画像生成ECU1の機能を説明するためのブロック図である。 仮想視点VPについて説明するための図である。 投影面TSについて説明するための図である。 床下透過画像の生成に使用する画像データについて説明するための図である。 床下透過画像の一例を示す図である。 図8において破線で囲む領域の拡大図である。 装飾画像Efの模式図である。 車両境界線Lvcに対する装飾画像Efの付与姿勢を示す図である。 画像生成ECU1の作動の流れを示すフローチャートである。 表示画像DPの構成の一例を示す図である。 装飾画像Efの変形例を示す図である。 装飾画像Efの変形例を示す図である。 床下透過画像の一例を示す図である。 図16において破線で囲む領域の拡大図である。 装飾画像Efの変形例を示す図である。 装飾画像Efの変形例を示す図である。 装飾画像Efの変形例を示す図である。 装飾画像Efの変形例を示す図である。 装飾画像Efの表示態様を車両の移動状態に応じて変更する場合の制御態様の一例を示す図である。 仮想視点VPの他の設定例を示す図である。
以下、図面を参照しながら本開示にかかる周辺表示システムSysの実施形態について説明する。周辺表示システムSysは、当該システムが搭載された車両の周辺の画像をディスプレイに表示するものである。以下では周辺表示システムSysが搭載されている車両Vを自車両とも記載する。
<前置き>
本実施形態の自車両は例えば、路面がアスファルトなどで舗装された道路上(つまりオンロード)だけでなく、オフロードを走行することも想定された四輪駆動車であって、走行モードとして通常モードとオフロードモードを備える。通常モードは、オンロードの走行に適した走行モードであり、オフロードモードはオフロードの走行に適した走行モードである。各走行モードは、前後左右の車輪への駆動力の分配制御の方式が異なる。なお、ここでのオフロードとは、主として岩石路などの凹凸が大きい地面を指すものとする。もちろん、オフロードは、オンロード以外の地面、すなわち整備されていない地面全般と解することもできる。また、本開示は、オフロードを走行することが想定されていない車両にも適用することができる。自車両は、エンジンを駆動源とする車両であってもよいし、モータを駆動源として備える電気自動車またはハイブリッドカーであってもよい。
以下の説明における前後、左右、上下の各方向は、自車両を基準として規定される。具体的に、前後方向は、自車両の長手方向に相当する。左右方向は、自車両の幅方向に相当する。上下方向は、車両高さ方向に相当する。別の観点によれば、上下方向は、前後方向及び左右方向に平行な平面に対して垂直な方向に相当する。本開示では車両高さ方向に垂直な平面を車両水平面とも称する。また、前後左右方向を含む、車両高さ方向に垂直な方向を車両水平方向とも称する。車両水平方向は自車両から離れる方向に相当する。
加えて、本開示における「平行」とは完全な平行状態に限らない。数度から20度程度傾いていても良い。つまり概ね平行である状態(いわゆる略平行な状態)を含みうる。本開示における「垂直」という表現についても、完全に垂直な状態に限らず、数度~20度程度傾いている状態を含めることができる。
<全体構成の説明>
図1は、本開示に係る周辺表示システムSysの概略的な構成の一例を示す図である。図1に示すように、周辺表示システムSysは、画像生成ECU1、複数のカメラ2、ディスプレイ3、タッチパネル4、操作ボタン5、車両状態センサ6、ソナーECU7、及び複数のソナー8を備える。なお、部材名称中のECUは、Electronic Control Unitの略であり、電子制御装置を意味する。
画像生成ECU1は、複数のカメラ2、ディスプレイ3、タッチパネル4、操作ボタン5、車両状態センサ6、及びソナーECU7のそれぞれと通信可能に接続されている。ソナーECU7には、複数のソナー8が接続されている。上記の種々の装置またはセンサと画像生成ECU1とは、専用線で個別に接続されていても良いし、車両内に構築された通信ネットワークである車両内ネットワークを介して接続されていてもよい。例えばカメラ2と画像生成ECU1とは専用の映像信号線で直接的に接続されていても良い。
画像生成ECU1は、車両Vの運転操作を支援するための画像として、各カメラ2から入力される画像データに基づいて車両周辺領域を任意の視点から見た合成画像を生成し、ディスプレイ3に表示するECUである。画像生成ECU1が周辺画像生成装置に相当する。画像生成ECU1は、コンピュータを用いて実現されている。すなわち、画像生成ECU1は、処理部11、RAM12、ストレージ13、I/O14、及びこれらの構成を接続するバスラインなどを備えている。
処理部11は、RAM12と結合された演算処理のためのハードウェア(換言すれば演算コア)である。処理部11は、例えばCPUである。処理部11は、RAM12へのアクセスにより、後述する各機能部の機能を実現するための種々の処理を実行する。RAM12は揮発性の記憶媒体である。
ストレージ13は、フラッシュメモリ等の不揮発性の記憶媒体を含む構成である。ストレージ13には、ファームウェアとしての画像生成プログラムPgや、合成画像生成部F7が合成画像を生成するための多様な描画用データを記憶する。描画用データには、後述する投影面TSの形状等を示すデータや、自車両外観の3Dモデルのデータ、自車両の所定の構成部材の3Dモデルのデータなどが含まれる。3Dモデルのデータが用意されている構成部材としては、例えばタイヤや、ハンドル、インストゥルメントパネル、ピラー、ボディパネルなどである。なお、処理部11が当該画像生成プログラムPgを実行することは、当該画像生成プログラムPgに対応する方法である表示制御方法が実行されることに相当する。I/O14は、他装置と通信するための回路モジュールである。I/O14は、アナログ回路素子やICなどを用いて実現されている。画像生成ECU1の詳細については別途後述する。
カメラ2は、自車両周辺を撮影し、当該撮影画像のデータを画像生成ECU1に出力する車載カメラである。各カメラ2は、少なくともレンズと撮像素子とを備えており、自車両の周辺を示す画像を電子的に取得する。複数のカメラ2はそれぞれ異なる範囲を撮像するように自車両の所定位置に、所定の姿勢で取り付けられている。本実施形態の周辺表示システムSysはカメラ2として図2に示すようにフロントカメラ2F、リアカメラ2B、左サイドカメラ2L、及び右サイドカメラ2Rを備える。これら4つのカメラ2は、自車両において互いに異なる位置に配置され、自車両の周辺の異なる方向を撮影する。具体的には次のとおりである。
フロントカメラ2Fは、車両前方を所定の画角で撮像するカメラである。フロントカメラ2Fは、例えばフロントグリルなどの自車両の前端において、その光軸2Faが自車両の正面方向に向けられた姿勢で取り付けられている。リアカメラ2Bは、車両後方を所定の画角で撮像するカメラである。リアカメラ2Bは、光軸2Baが自車両の後方に向けられた姿勢で、例えばリアナンバープレート付近やリアウインドウ付近など、車体背面部の所定位置に配置されている。左サイドカメラ2Lは、自車両の左側方を撮像するカメラである。左サイドカメラ2Lは、左側サイドミラーにおいて、光軸2Laが自車両の左側に向いた姿勢で取り付けられている。右サイドカメラ2Rは、自車両の右側方を撮像するカメラである。右サイドカメラ2Rは、右側サイドミラーにおいて、その光軸2Raが自車両の右側に向いた姿勢で取り付けられている。
これらのカメラ2のレンズとしては魚眼レンズなどの広角レンズが採用されており、各カメラ2は180度以上の画角θを有している。このため、4つのカメラ2を利用することで、自車両の全周囲を撮影することが可能である。なお、上述した各カメラ2の取り付け位置は適宜変更可能である。フロントカメラ2Fは、ルームミラーやフロントガラスの上端部などに取り付けられていても良い。右サイドカメラ2R及び左サイドカメラ2Lは、AピラーやBピラーの付け根付近に配置されていてもよい。周辺表示システムSysは、ルーフ上に取り付けられたカメラ2を備えていても良い。一部または全部のカメラ2は、例えばルーフ上や、ダッシュボード上、窓枠付近などに後付されたカメラであってもよい。
車両Vにおける各カメラ2の搭載位置及び姿勢を示すデータ(以降、搭載位置データ)は、ストレージ13に格納されている。各カメラ2の搭載位置は、例えば、車両Vの任意の位置を中心とする3次元座標(以降、車両3次元座標系)上の点として表されていれば良い。車両3次元座標系を形成するX軸は、例えば、車両の左右方向に平行な軸とすることができる。また、Y軸は前後方向に平行な軸とすることができる。Z軸は車両高さ方向に平行な軸とすることができる。車両右方向がX軸正方向に対応し、車両前方がY軸正方向に対応し、車両上方がZ軸正方向に対応するものとする。車両3次元座標系の中心は、例えば、後輪車軸の中心などとすることができる。
ディスプレイ3は、例えば、液晶などの薄型の表示パネルを備えており、各種の情報や画像を表示するデバイスである。ディスプレイ3は、ユーザがその画面を視認できるように、自車両のインストゥルメントパネルなどに配置される。ディスプレイ3は、画像生成ECU1と同一のハウジング内に配置されることにより、画像生成ECU1と一体化されていてもよい。もちろん、ディスプレイ3は、画像生成ECU1とは別体の装置であってもよい。ディスプレイ3は、表示パネル上に積層されたタッチパネル4を備えており、ユーザの操作を受け付け可能に構成されている。タッチパネル4は例えば静電容量式のタッチパネルであって、ユーザのタッチ位置を示す信号を出力する。なお、ここでのユーザとは、主として運転席の乗員(いわゆるドライバ)を指す。ユーザにはドライバの他に、助手席の乗員などを含めることができる。
操作ボタン5は、ディスプレイ3の表示内容に対するユーザの操作を受け付ける操作部材である。操作ボタン5は、画像生成ECU1が生成した合成画像をディスプレイ3に表示させたり、合成画像の仮想視点等を変更したりするためのスイッチである。操作ボタン5は、例えば、自車両のステアリングホイールに設けられており、主にドライバからの操作を受け付ける。ユーザは、この操作ボタン5、及び、タッチパネル4を介して周辺表示システムSysに対する各種の操作を行うことができる。操作ボタン5及びタッチパネル4の何れかにユーザの操作がなされた場合は、その操作の内容を示す操作信号が画像生成ECU1に入力される。なお、操作ボタン5は、マルチインフォメーションスイッチと呼ぶこともできる。操作ボタン5はインストゥルメントパネルに配されていても良い。
なお、周辺表示システムSysは、ドライバが車両Vの走行モードをオフロードモードに切り替えるための操作部材としての走行モードスイッチを備えていても良い。走行モードを切り替えるための操作部材はダイヤル式であってもよい。なお、走行モードスイッチとしての機能はシフトレバーが備えていても良い。
車両状態センサ6は、自車両の走行制御に関わる状態量を検出するセンサである。車両状態センサ6には、シフトセンサや、車速センサ、操舵角センサ、加速度センサなどが含まれる。シフトセンサは、シフトポジション、換言すれば変速機の設定状態を検出するセンサである。車速センサは、自車両の走行速度を検出するセンサである。操舵角センサは、ハンドルの回転角(いわゆる操舵角)を検出するセンサである。加速度センサは、自車両に作用する車両前後方向、横方向、及び、上下方向の少なくとも何れか1方向の加速度を検出するセンサである。ここでは加速度センサとして3軸加速度センサが採用されているものとする。加速度センサの検出値は、水平面に対する車両姿勢を判断するための材料として使用することができる。なお、車両状態センサ6として周辺表示システムSysが使用するセンサの種類は適宜設計されればよく、上述した全てのセンサを備えている必要はない。また、車高センサやジャイロセンサ、方位角センサなどを車両状態センサ6に含めることができる。各センサは、検出対象とする物理状態量の現在の値(つまり検出結果)を示すデータを画像生成ECU1に出力する。
ソナーECU7は、ソナー8の動作を制御するECUである。ソナー8は、探査波としての超音波を発信し、その超音波が物体で反射した反射波を受信することで、自車両の周辺に存在する物体を検出する。また、ソナー8は、超音波を発信してから反射波として戻ってくるまでの時間に基づいてソナー8から物体までの距離を検出する。各ソナー8が検出した物体の距離情報は、例えばソナーECU7を介して画像生成ECU1に入力される。
本実施形態では一例として図3に示すように8個のソナー8を備える。具体的にはフロントバンパの右側コーナー部から左側コーナー部にかけて4つのソナー8A~8Dが分散配置されている。また、自車両のリアバンパの右側コーナー部から左側コーナー部にかけて、4つのソナー8E~8Hが分散配置されている。このようなソナー8の配置により、ソナーECU7は、自車両の前方または後方に存在する物体を検出できる。なお、ソナー8の配置態様は一例であって、図3に示す例に限定されない。また、ソナー8として、車両側方に向けて超音波を発するように、サイドシルやフェンダー、ドアパネルに取り付けられていてもよい。
その他、ソナーECU7は、複数のソナー8での検出結果を組み合わせることで自車両周辺に存在する物体の相対位置を特定しうる。例えば検出物の方向は、2以上のソナー8のそれぞれで検出された同一の物体までの距離に基づいて、当該物体の自車両に対する相対的な方向を導出する。ソナーECU7は、ソナー8が物体を検出した場合は、検出結果として当該物体の方向及び距離を示すデータを画像生成ECU1に入力する。また、ソナーECU7は、反射強度や受信波形を解析することにより検出物の高さを判定し、検出物情報として、位置及び高さ情報を画像生成ECU1に出力するように構成されていても良い。なお、ソナーECU7は画像生成ECU1と統合されていてもよい。
<画像生成ECUの構成について>
画像生成ECU1は、図4に示すように機能部として画像取得部F1、操作受付部F2、車両状態取得部F3、障害物情報取得部F4、画像認識部F5、表示制御部F6、合成画像生成部F7、表示画像生成部F8、及び画像出力部F9を備えている。また、画像生成ECU1は、画像データを一時的に保持するためのメモリである画像メモリM1を備える。画像メモリM1は、例えばRAM12が備える記憶領域の一部を用いて実現されている。画像メモリM1には、各カメラの画像に当該画像撮像時の車両Vの位置情報および向き情報が対応付けて蓄積されうる。画像メモリM1が画像記憶部に相当する。
画像取得部F1は、4つのカメラ2でそれぞれ生成された画像であるカメラ画像を取得する。これらカメラ2毎の画像を組み合わせることにより、自車両の全周囲についての画像データが得られる。画像取得部F1は、カメラ2から入力された画像信号を、所定のデータ形式のデジタル画像データに変換した上で、画像認識部F5や合成画像生成部F7に出力する。
また、画像取得部F1は、例えば自車両が所定の保存距離移動するたびに、その時点で各カメラ2で撮像された画像のデータを、別途取得される自車両の位置情報及び車体姿勢情報と対応付けて画像メモリM1に保存する。保存距離は、例えば0.1mや、0.3m、0.5mなどとすることができる。尚、画像取得部F1は、例えば車両前進時においては、少なくとも車両前端の直下から3m先までの地面を移したフロントカメラ2Fの撮影画像データを画像メモリM1に保存すればよい。また、車両後退時には、少なくとも車両後端の直下から3m先までの地面を移したリアカメラ2Bの撮影画像データを画像メモリM1に保存すればよい。
なお、画像メモリM1内における画像データの保存態様は多様な態様を採用可能である。例えば画像取得部F1は画像メモリM1において、最も古く更新された領域に対して、新規データを上書き保存していく。すなわち、画像メモリM1はリングバッファとして構成されていてもよい。リングバッファは、論理的にリング状に配置された記憶領域である。なお、画像取得部F1は、直近所定時間以内に取得した画像フレームを、上述した一定距離毎の画像データとは別領域に保存するように構成されていても良い。画像メモリM1に保存された新規画像データは、合成画像生成部F7及び表示画像生成部F8によって参照される。なお、画像取得部F1は、カメラ2から取得した画像に対してレンズ特性に応じた歪み補正や拡大縮小、切り出しなどの画像処理を行った上で画像メモリM1に保存してもよい。
操作受付部F2は、操作ボタン5及びタッチパネル4から出力される操作信号を受信する。操作信号は、操作ボタン5やタッチパネル4に対するユーザの操作の内容を示す信号である。これにより、操作受付部F2は、合成画像やカメラ画像の表示に対するユーザの指示操作を受け付ける。操作受付部F2は、受信した操作信号に対応するデータを表示制御部F6に入力する。
車両状態取得部F3は、車両状態センサ6など、自車両に設けられている他の装置から、自車両の状態を示す情報を取得する構成である。車両状態取得部F3は、種々のセンサから、シフトポジションや、検出軸方向毎の加速度、車速、操舵角などを取得する。なお、車両状態取得部F3は、種々の状態量を他のECUから取得してもよい。例えば操舵角などの情報は、操舵システムを構成するECUから取得しても良い。また、車両状態取得部F3は画像認識部F5から所定時間前に対する移動距離や向きの変化量などを取得してもよい。つまり車両状態取得部F3は、センサに限らず、他ECUや画像認識部F5などから自車両の状態にかかる多様な情報を取得してもよい。また、車両状態取得部F3は、複数種類の情報を組み合わせて、車両の移動距離や、車体の向きの変化量などを算出するように構成されていてもよい。車両の向きとは、車両が向いている方向(いわゆるヨー角)だけでなく、ピッチ角やロール角などを含めても良い。
障害物情報取得部F4は、ソナーECU7から、車両周辺に存在する立体物についての情報を取得する。すなわち、検出された立体物の大きさや高さ、相対位置などを取得する。また、ソナーECU7が、受信した反射波の信号波形の特徴量を解析することで、例えば低背物か障害物かなど、検出物の種別を識別する識別器を備えている場合には、ソナーECU7による検出物の識別結果も取得する。なお、ここでの低背物とは高さが所定値(例えば4cm)以下の立体物であって、概念的には車両Vが乗り越え可能な立体物を指す。例えば路面からの突出量が所定の閾値以下の岩場や、駐車場に配置されているフラップ板などを指す。また、ここでの障害物は、概念的には車両Vが避けるべき立体物であって、例えば車両Vのボディと接触するような高さを有する岩や、ガードレール、壁、他の移動体を指す。他の移動体には、他車両の他、自転車や歩行者、動物などを含めることができる。なお、障害物情報取得部F4はソナーECU7からの情報と、画像認識部F5での認識結果とを組み合わせて物体を検出する、いわゆるセンサフュージョンを行うように構成されていてもよい。
画像認識部F5は、カメラ2から入力される画像を解析することによって所定の検出対象物の位置及びその種別等を検出する構成である。画像認識部F5は、例えば画像の特徴量ベクトルに基づき、物体の種別を識別する識別器としての機能を備える。画像認識部F5は、例えばディープラーニングを適用したCNN(Convolutional Neural Network)やDNN(Deep Neural Network)技術などを用いて物体の識別を行う。検出対象物としては、歩行者や他車両などの他、舗装された道路に付与されうる区画線などの路面表示や、道路端などが含まれる。区画線には、レーンマーカーとしての線の他、駐車枠などを示す線を含めることができる。
また、画像認識部F5は、画像上に適宜設定される特徴点の画像フレーム間における位置の変化量に基づいて自車両の移動量や向きの変化量を推定するように構成されていても良い。例えば画像認識部F5は、フレーム間差分法の一種であるオプティカルフロー法などを用いて、或る基準地点に対する現在位置や、車体の向きの変化量、ヨーレートなどを推定するよう構成されている。オプティカルフローは、画像データに映っている物体の動きをベクトルで示した情報である。画像認識部F5の物体認識結果や、自車位置等の推定結果は、表示制御部F6や、車両状態取得部F3、合成画像生成部F7、表示画像生成部F8などに出力される。
表示制御部F6は、画像生成ECU1の全体を統括的に制御する構成である。例えば、表示制御部F6は、操作受付部F2や車両状態取得部F3から入力される情報に基づいて、合成画像生成部F7及び表示画像生成部F8を制御して、自車両の走行状態やユーザの設定に応じた合成画像及び表示画像DPを生成させる。
表示制御部F6は、例えばシフトセンサからの信号またはタイヤの回転方向に基づいて、自車両の進行方向が前進方向及び後退方向のいずれであるかを判定する。表示制御部F6は、走行モードスイッチからの入力信号に基づいて走行環境がオフロードかどうかを判別しても良い。
また、表示制御部F6は、自車両の進行方向、タッチパネル4からの信号、及び操作ボタン5からの信号の少なくとも何れか1つに基づいて、後述する合成画像を生成する際の仮想視点VPの位置及び視線方向を設定する。設定されうる仮想視点VPのパターンとしては、例えば図5に示すように、鳥瞰視点VPbや、ドライバ視点VPdなどを採用可能である。鳥瞰視点VPbは、視点位置を自車両の直上、視野方向を直下とした仮想視点VPの設定パターンであって、自車両及びその周辺を車両の真上から俯瞰した画像である鳥瞰画像を生成する際に適用されうる。鳥瞰視点VPbの視野角φは、車両周辺の所定範囲を含むように適宜調整可能である。なお、鳥瞰視点VPbの視点位置は、車両の真上に限らず、車両の真上から後ろ側、前側、或いは、横方向にずれた位置であってもよい。鳥瞰視点VPbは、仮想視点VPを車室外に配置した、車室外視点の一例に相当する。
ドライバ視点VPdは、視点位置を車室内におけるドライバの目の想定位置に設定した仮想視点VPの設定パターンである。ドライバ視点VPdの視線方向は、例えば、前輪付近を含むように前方斜め下方向に設定されうる。斜め下方向とは、例えば車両水平面から20~30°程度下方に向けられた方向とすることができる。なお、ドライバ視点VPdの視線方向は、前方斜め下方向を基準方向としつつ、タッチパネル4へのユーザ操作(例えばスワイプ)に基づいて任意の方向に変更可能に構成されていてもよい。ドライバ視点VPdの視野角φもまた、前輪付近の所定範囲を含むように適宜調整可能である。例えばドライバ視点VPdの視野角φは、水平方向100度、垂直方向60度などとすることができる。
ドライバの目の想定位置は、例えば、運転席のヘッドレスト近傍に設定される。なお、ドライバの目の想定位置としては、車種ごとに設定されるアイリプスを援用することができる。アイリプスは、車種ごとに規定される仮想的な空間領域である。アイリプスは、乗員のアイポイントの空間分布を統計的に表したアイレンジに基づいて、仮想の楕円体状に設定されている。ドライバ視点VPdは、仮想視点VPを車室内に配置した、車室内視点の一例に相当する。また、ドライバ視点VPdの位置は、ドライバの目の想定位置からずれた位置に配置されていても良い。例えば、ドライバ視点VPdは、ドライバの目の想定位置から助手席側に所定量ずれた位置、例えば運転席と助手席の中間となる位置に配置されていても良い。
本実施形態の画像生成ECU1は動作モードとして、車体底部を透過させた合成画像である床下透過画像CPを表示する床下表示モードを備える。表示制御部F6は、シフトレバーが所定のポジションに設定されていること及びユーザ操作の少なくとも何れか一方に基づいて表示モードを切り替えうる。表示制御部F6は、例えば後述する透過床下表示条件が充足していることに基づいて、表示モードを床下表示モードに設定する。表示制御部F6は、床下表示モード時には合成画像生成部F7に床下透過画像CPを生成させる。仮想視点VPがドライバ視点VPdに設定された状態で生成された床下透過画像CPのことを以降ではドライバ視点画像CPdとも称する。
合成画像生成部F7は、例えば床下透過画像CPなどの合成画像を生成するための画像処理を行う構成である。合成画像生成部F7は、自車両の周辺に相当する仮想の投影面TSに複数のカメラ画像のデータを投影し、該投影面上のデータを用いて仮想視点VPからみた自車両の周辺を示す合成画像を生成する。
投影面TSは、図6に概念的に示すように、自車両の周辺領域に相当する仮想の立体面である。投影面TSの中心領域は、自車両の位置となる車両領域R0として定められている。車両領域R0は、例えば矩形状の平面部として設定されている。車両領域R0は上面視において自車両と重なる領域、換言すれば、カメラ2では直接撮像できない領域を含むように設定されている。投影面TSは、例えば車両領域R0の近傍では車両水平方向に沿った平面として形成されており、かつ、車両領域R0から離れるほど傾き(勾配)が大きくなる、下に凸の曲面を有するお椀形状をしている。投影面TSの各部にカメラ画像のどの部分を投影するかはテーブルデータ等の対応情報によって対応付けられている。投影面TSにカメラ画像を投影することは、投影面TSにカメラ画像をテクスチャマッピングすることに相当する。
なお、投影面TSの形状は適宜変更可能である。例えば投影面TSは全領域が水平面に設定されていても良い。また、投影面TSは、車両領域R0の縁部から下に凸の曲面領域が開始する形状、換言すれば車両領域R0の周りに平面領域を有さない形状であっても良い。
合成画像生成部F7の作動は表示制御部F6によって制御される。例えば合成画像の生成に使用される仮想視点VPは、表示制御部F6によって制御される。合成画像生成部F7はサブ機能として、カメラ画像合成部F71と車両画像付与部F72を備える。カメラ画像合成部F71は前述した投影面TSに各カメラ画像を投影する構成であり、車両画像付与部F72は、カメラ画像が投影された投影面TSの所定位置に車両Vについての画像を配置する構成である。カメラ画像合成部F71及び車両画像付与部F72の詳細については別途後述する。
表示画像生成部F8は、ディスプレイ3で表示するための表示画像DPを生成する。表示画像生成部F8は、合成画像生成部F7で生成された合成画像、及び、画像取得部F1が取得したカメラ画像を用いて、合成画像及びカメラ画像を含む表示画像DPを生成する。表示画像DPに含まれる画像の組み合わせは、自車両の進行方向やタッチパネル4等へのユーザ操作に応じて表示制御部F6によって決定される。つまり、表示画像生成部F8の作動は表示制御部F6によって制御される。
画像出力部F9は、表示画像生成部F8で生成された表示画像DPを所定の信号形式の映像信号に変換してディスプレイ3に出力し、表示画像DPをディスプレイ3に表示させる。これにより、仮想視点VPからみた自車両の周辺を示す合成画像がディスプレイ3に表示される。
<合成画像の生成方法について>
以降では、合成画像生成部F7が床下透過画像CPを生成する際の作動について説明する。カメラ画像合成部F71は、後述する床下表示条件が充足されると、画像取得部F1から入力される各カメラ画像に含まれるデータ(各画素の値)を、仮想的な3次元空間における投影面TSに投影する。投影面TSに対する各カメラ画像の投影位置は、テーブルデータ等の対応情報によって予め対応付けられている。
例えばカメラ画像合成部F71は、フロントカメラ2Fの画像データを投影面TSの前方領域PFに投影し、リアカメラ2Bの画像データを投影面TSの後方領域PBに投影する。また、カメラ画像合成部F71は、投影面TSの左側方領域PLに左サイドカメラ2Lの画像データを投影し、右側方領域PRに右サイドカメラ2Rの画像データを投影する。なお、2つのカメラで重複して撮影される領域である重複領域に関しては、2つのカメラの撮影画像を所定の割合でブレンドする手法や、2つのカメラの撮影画像を所定の境界線で繋ぎ合わせる手法が採用されうる。
さらに、表示制御部F6からの指示に基づき、画像メモリM1に保存されている過去の画像データから、車両領域R0が位置すると推定される部分の画像を抽出し、回転補正などを施した上で車両領域R0に投影する。車両領域R0に投影する画像とは、現在自車両の真下に位置する領域の画像、つまり床下の画像であるため、以降では床下画像とも称する。
例えば自車両が前進している場合には、図7に示すように、現在位置よりも3m後方で撮像されたフロントカメラ2Fの撮影画像を用いて、床下画像を生成する。また、自車両が後退している場合には、現在位置よりも3m前方で撮像されたリアカメラ画像を用いて、床下画像を生成する。つまり、現在位置よりも所定距離、進行方向逆側となる位置に自車両が位置していたときの画像を用いて床下画像を生成する。なお、自車両が前進している場合には、現在位置よりも3m後方に位置するときから現在位置に至るまでの複数時点で撮像されたフロントカメラ画像を用いて床下画像を生成してもよい。車両後退時も同様とする事ができる。車両領域R0(換言すれば床下部分)に投影する画像データは、車両Vの移動に伴って随時更新されれば良い。
次に、合成画像生成部F7は、表示制御部F6の制御により、投影面TSを含む3次元空間に対し、仮想視点VPを設定する。合成画像生成部F7は、3次元空間における任意の視点位置に任意の視野方向に向けた仮想視点VPを設定できる。
そして、車両画像付与部F72が、カメラ画像が投影された投影面TSを含む仮想3次元空間上に、自車両についての多様な画像要素を配置する。仮に仮想視点VPが鳥瞰視点VPbなどの車室外に配置されている場合には、車体が存在する路面範囲を示す車両境界線Lvcや、タイヤが存在する路面範囲を示すタイヤ境界線Ltなどを車両領域R0上に付与する。車両境界線Lvcは、車体を路面に垂直に射影してなる領域の輪郭を示す線であって、鳥瞰視点における車両Vの外形を示す線に相当する。タイヤ境界線Ltも同様に、タイヤを路面に垂直に射影(つまり正射影)してなる領域の輪郭を示す線であって、鳥瞰視点におけるタイヤの輪郭を示す線に相当する。本実施形態の車両画像付与部F72は、車両境界線Lvcに対して所定の装飾画像Efを付与する。車両境界線Lvcや装飾画像Ef、タイヤ境界線Ltなどの表示状態は表示制御部F6によって制御される。車両境界線Lvcや装飾画像Ef、タイヤ境界線Ltの詳細については別途後述する。
また、合成画像生成部F7は、仮想視点VPがドライバ視点VPdなどの車室内に配置されている場合、車両境界線Lvcとタイヤ境界線Ltの他に、3Dタイヤモデルや、3Dボディモデル、3D内装モデルなどをそれぞれ3次元空間上の所定位置に配置する。3Dタイヤモデルは、タイヤの3Dモデルであって、全体的に半透明に設定されている。なお、3Dタイヤモデルは、不透明または半透明の輪郭線だけで構成されていても良い。つまり3Dタイヤモデルの輪郭線以外の部分は、無色透明に設定されていても良い。
ここでの半透明には、透明度が50%である状態に限らず、例えば透明度が80%である場合などを含めることができる。つまり、半透明といった表現には、その存在をぼんやりと示すレベルを含めることができる。透明度は、値が高いほど透明であることを指すパラメータであって、本開示においては透明度が100%の状態は完全透明な状態を指すものとする。画像要素の透明度或いは不透明度は、画素のアルファ値に対応する概念である。一般的にアルファ値が小さいほど透明な度合いが高まる。
3Dボディモデルは、車両ボディの3Dモデルであって、全体的に半透明に設定されている。3Dボディモデルは、不透明または半透明の輪郭線だけで構成されていても良い。つまり3Dボディモデルの輪郭線以外の部分は、無色透明に設定されていても良い。3D内装モデルは、インストゥルメントパネルやハンドル、Aピラーなどの3Dモデルである。
3Dタイヤモデル、3Dボディモデル、3D内装モデルなどは、自車両の構成部材を示す3Dモデルであって、構成部材モデルと呼ぶことができる。合成画像生成用の3次元空間内に配置する3Dモデルは適宜変更可能であって、例えば3Dタイヤモデルや、3Dボディモデル、3D内装モデルなどの配置は省略されても良い。
その他、車両画像付与部F72は、車両端部から所定距離離れた地点を示す目盛り線や、車幅を示す車幅線を描画しても良い。また、車両画像付与部F72は、車両Vにかかるその他の画像要素として、車両Vの操舵角や転舵角に応じた走行予定軌道を示す線である予定軌道線を描画しても良い。なお、車幅線が予定軌道線としての役割を兼ねていても良い。車両境界線Lvcやタイヤ境界線Lt、走行予定軌道線などは、車両Vについての情報を示す画像であるため車両情報画像と呼ぶことができる。また、予定軌道線や目盛り線、車幅線などは、ドライバの運転操作を案内する情報としても機能しうる。故に、予定軌道線などの表示線は、ガイド線とよぶこともできる。ガイド線には、車両境界線Lvcやタイヤ境界線Ltを含めることもできる。
そして、合成画像生成部F7は、投影面TSを含む3次元空間に存在する種々の画像要素に対して、仮想視点VPに応じたレンダリングを行い、仮想視点VPからみて所定の視野角に含まれる画像要素を切り出す。これにより、合成画像生成部F7は、仮想視点VPからみた自車両の床下、及び、自車両の周辺の領域を示す合成画像を生成する。すなわち床下透過画像CPとして、車体底部を透過させた合成画像を生成する。以上では一例としてカメラ画像を投影面TSに投影してから車両画像を付与する順番で合成画像を生成する態様を述べたが、個々の処理は並列的に実行されても良い。
また、合成画像を生成する方法としては多様な方法を採用することができる。例えば、カメラ画像に基づいて生成される路面画像、車両境界線Lvc、タイヤ境界線Lt、及び車両を構成する部材の立体モデルの画像は、それぞれ別のレイヤに配置して個別に処理されても良い。例えば、合成画像は、カメラ画像を投影した投影面TSの画像を含むレイヤであるカメラ画像レイヤと、車両境界線やタイヤ境界線などを配置したレイヤである境界線レイヤと、立体モデルの画像を含む3Dモデルレイヤと、を組み合わせて生成されてもよい。その場合、カメラ画像レイヤを最も下側(背景側)のレイヤとし、その上に、境界線レイヤ、3Dモデルレイヤが順に重ねられうる。もちろん、レイヤ構成もまた適宜変更可能である。複数のレイヤを用いて各画像要素を個別に取り扱う場合には、最終的に各レイヤを統合した画像が合成画像となる。
<車両境界線Lvc及び装飾画像Efについて>
本実施形態の画像生成ECU1は、車両境界線Lvcに対して、例えばグラデーションや影などの装飾画像Efを付与した画像を生成する。ここでは車両境界線Lvc及び装飾画像Efについて図8等を用いて説明する。図8は、本実施形態の合成画像生成部F7が生成するドライバ視点画像CPdの一例を示す図である。図9は、図8に示す左前輪付近の拡大図である。
なお、図8及び図9に示す例では、車両境界線Lvcとタイヤ境界線Ltに加えて、タイヤモデル画像Ptmや、ボディモデル画像Pbmなどを含む態様を例示している。各種モデル画像は、前輪に相当する3Dタイヤモデルや、3Dボディモデルなどをドライバ視点VPdから見たときのCG(Computer Graphics)/CGI(Computer Generated Imagery)である。もちろん、タイヤモデル画像Ptmやボディモデル画像Pbmは任意の要素であって、ユーザ設定等により省略可能である。例えば、画像生成ECU1の設計者又はユーザの設定に基づき、ドライバ視点画像CPdにおいてタイヤモデル画像Ptmや、ボディモデル画像Pbmは非表示となりうる。
車両境界線Lvcは、車両領域R0上に描画される線画像である。車両境界線Lvcは、車両Vが存在する路面上の範囲を示す線である。車両境界線Lvcの太さ(換言すれば幅Wx)は、例えば路面上の4cmに相当する太さに設定されている。現実空間における長さは、投影面TSを含む仮想空間における車体の大きさと現実空間における車体の大きさの比率に基づいて、仮想空間上の長さに変換されれば良い。床下透過画像CPとしてディスプレイ3に表示される車両境界線Lvcの太さは、仮想視点VPからの距離に応じて調整されうる。
なお、車両境界線Lvcの太さは、現実空間の3cm相当や2cm相当であってもよい。また、車両境界線Lvcは、現実空間の6cmや8cm相当の太さを有していてもよい。車両境界線Lvcを太くするほど、車両境界線Lvcの視認性は向上する。ただし、車両境界線Lvcを太くすると、当該線によってカメラ画像が隠れる部分が増える。つまり、合成画像として表示した場合に、当該合成画像をもとにユーザが視認できる路面の面積が小さくなる。故に、車両境界線Lvcの太さは現実空間において5cm値未満に相当する値に設定されていることが好ましい。
車両境界線Lvcの色は適宜変更可能であって、例えば実際の路面の色と区別がつきやすいように青色に設定される。黒などの暗い色はアスファルトなどと同化しやすく、白などの明るい色は、砂利道や路面上に付与された区画線と同化しやすい。車両境界線Lvcの色は、多様な路面の色合いを考慮した上で、ドライバによる車両境界線Lvcの視認性が高まるように設定されている。
装飾画像Efは、車両境界線Lvcの視認性を高めるための装飾的な画像要素である。換言すれば装飾画像Efは車両境界線Lvcを強調表示するための付属的な画像要素である。装飾画像Efは、例えば所定幅を有する帯状に形成されている。装飾画像Efは、図10に示すように、一方の縁部が車両境界線Lvcに沿うように配置される。図10は、図8及び図9に示す車両境界線Lvcと装飾画像Efの構成を説明するための模式図である。装飾画像Efは図11に示すように車両水平面に対して45度ほど傾いた態様で車両境界線Lvcから外側に向かって延出するように配置されうる。装飾画像Efは、車両境界線Lvcの外側縁部から車両高さ方向(つまり真上)に向かって伸びていても良い。
車両水平面に対する装飾画像Efがなす角度である延出角度δは0度~90度の範囲で適宜設定されうる。つまり、装飾画像Efは、車両境界線Lvc上から、車両境界線Lvcの外側又は真上に向かって伸びるように設けられる。延出角度δを1度以上に設定した態様によれば、装飾画像Efが備える縁部のうち、車両境界線Lvcと接続するほうの縁部である接続縁部Efaとは反対側に位置する開放縁部Efbが、路面から浮いた姿勢となる。なお、装飾画像Efは、車両境界線Lvcの内側に向いた姿勢で付与されてもよく、延出角度δは、例えば120度など、91度以上に設定されていても良い。
装飾画像Efの色は、車両境界線Lvcと同じ色とすることができる。装飾画像Efは、車両境界線Lvcに近いほど透明度が低く、車両境界線Lvcから離れるほど透明度が高く設定されている。つまり、車両境界線Lvcから離れるにつれて透明となるグラデーションを有する帯状の画像である。図10では、グラデーションをドットパターンで示している。ドットパターンの密度が高いほど透明度が低く、ドットパターンの密度が小さいほど透明度が高いことを示している。例えば装飾画像Efの車両境界線Lvcと接続する部分の透明度は50%程度に設定されており、遠方側の端部は100%などに設定される。グラデーションを形成する、車両境界線Lvcからの距離に応じた透明度の変化度合いは、1次関数状であってもよいし2次関数状であってもよい。色調の変化度合いは適宜変更可能である。
装飾画像Efの、車両境界線Lvcから離れる方向での長さである延出長Hは、例えば車両境界線Lvcの幅Wxと同じか、車両境界線Lvcの幅Wxよりも長く設定されている。例えば延出長Hは、現実空間における5~8cm程度に設定されている。また、延出長Hは、車両境界線Lvcの幅Wxに所定の延出係数を乗じた長さに設定されても良い。延出係数は、例えば1.2や1.5などとすることができる。また、延出長Hは、車両境界線Lvcの幅Wxよりも短く設定されていてもよい。例えば延出長Hは、車両境界線Lvcの幅Wxの0.8倍に設定されていても良い。延出長Hは、装飾画像Ef自体の幅と解することもできる。延出長Hは、1つの側面において延出長Hは、装飾画像Efの高さと解することもできる。なお、以上で述べた車両境界線Lvcから放射状に伸びるグラデーションを提供する装飾画像Efは、車両境界線Lvcから上方又は外側に向かって伸びるカーテンまたはオーロラのような画像となる。
このように車両境界線Lvcに装飾画像Efを付与した床下透過画像CPを表示する態様によれば、車両境界線Lvcの視認性を高めることができる。また、装飾画像Efは半透明に設定されているため、装飾画像Efによって路面が見えなくなる恐れを低減できる。なお、車両境界線Lvcと装飾画像Efをまとめて車両外形画像Pvcと解することもできる。車両外形画像Pvcにおける車両境界線Lvcは本体部または主線と呼ぶ事ができる。また、車両外形画像Pvcにおける装飾画像Efは装飾部と呼ぶことができる。
<タイヤ境界線Ltについて>
タイヤ境界線Ltは、車両Vのタイヤ(換言すれば車輪)が存在する路面範囲を示す線である。タイヤ境界線Ltは、車両境界線Lvcよりも細く設定されている。例えば、タイヤ境界線Ltの太さは、車両境界線Lvcの半分程度に設定されている。具体的にはタイヤ境界線Ltの太さは、例えば路面上の2cmに相当する太さに設定されている。タイヤ境界線Ltを細めに設定することにより、タイヤの真下及びタイヤ近傍に存在する路面をドライバが視認しやすくなる。
また、タイヤ境界線Ltの色は、車両境界線Lvcとは異なる色に設定されている。例えばタイヤ境界線Ltの色は、黄色~オレンジ色に設定されうる。もちろん、タイヤ境界線Ltの色は、車両境界線Lvcと同様に、多様な路面の色合いを考慮した上で、ドライバの視認性が高まるように設定されている。
例えばタイヤ境界線Ltは、色相環において車両境界線Lvcの色の反対側に位置する色(いわゆる補色)、又は、それに隣接する色とすることができる。タイヤ境界線Ltの色を車両境界線Lvcの補色とすることで、細めに形成されたタイヤ境界線Ltを目立たせることが可能となる。なお、青色の補色は橙であって、それに隣接する色には黄色や赤が含まれる。
一方、別の観点においては、タイヤ境界線Ltの色は、車両境界線Lvcと同系統の色であってもよい。例えば車両境界線Lvcが青色である場合には、タイヤ境界線Ltは、例えば水色や紺色などであってもよい。車両境界線Lvcもタイヤ境界線Ltも何れも車両の現在位置を示す情報を示す線画像であるため、これらの色を同系統とすることで、一体感を高めることができる。また、合成画像としては、車両周辺に存在する障害物などの注目対象物を、赤又は橙といった色の枠線で囲って強調表示する構成も考えられる。そのような構成を踏まえると多様な色の線が画像上に存在すると、視覚的な煩わしさをユーザに与える懸念も生じる。そのような事情を踏まえると、車両境界線Lvcとタイヤ境界線Ltの色を同系統の色に揃えておくことで、ユーザは車両についての情報を示す線と、周辺物体についての情報を示す線との区別がつきやすくなる。
なお、以上では仮想視点VPがドライバ視点VPdに設定されている場合の例を示したが、上述した車両境界線Lvcとタイヤ境界線Ltは、鳥瞰視点VPbに設定されている場合にも表示されうる。鳥瞰画像においては、車両境界線Lvcの装飾画像Efは例えば路面平面に張り付いた態様で表示されうる。
<作動の流れ>
ここでは図12に示すフローチャートを用いて、画像生成ECU1が床下透過画像CPを表示する際に実行する一連の処理である床下透過画像表示処理の流れについて、図12に示すフローチャートを用いて説明する。図12に示すフローチャートは、所定の床下表示条件が充足した場合に開始される。床下表示条件は、床下透過画像CPを表示するための条件と解することができる。例えば画像生成ECU1は、ユーザによって操作ボタン5が押下された場合に、床下表示条件が充足されたと判定する。その他、画像生成ECU1は、タッチパネル4を介して床下透過画像CPを表示させるための所定のユーザ操作が行われたことを検出した場合に、床下表示条件が充足したと判定するように構成されていても良い。つまり、操作受付部F2が合成画像を表示するための操作が行われたことを示す信号を取得したことに基づいて、本フローは開始されうる。
なお、床下表示条件を構成する項目には、シフトポジションや、車速などを含めることができる。例えば、シフトポジションが所定レンジに設定されていること、及び、車速が所定の低速閾値未満であることの少なくとも何れか一方を床下表示条件に含めてもよい。例えば、シフトポジションがローレンジに設定されていることや後退位置に設定されていることを画像生成に条件に含めてもよい。低速閾値は例えば10km/hや15km/h、20km/hなどとすることができる。その他、フロントカメラ画像やリアカメラ画像をディスプレイ3に表示している状態において、タッチパネル4等を介して操作受付部F2が視点切替操作を受け付けた場合に、床下表示条件が充足されたと判定しても良い。
また、図12に示す処理フローは、所定の表示終了条件が充足するまで、所定の周期(例えば、1/30秒周期)で繰り返し実行されうる。表示終了条件は、例えば、シフトポジションが所定レンジ以外に設定された場合や、車速が所定の閾値以上となった場合、操作ボタン5が再び押下された場合などとすることができる。その他、画像生成ECU1は、タッチパネル4を介して床下透過画像CPの表示を終了させるための操作が行われたことを検出した場合に、表示終了条件が充足したと判定するように構成されていても良い。
ここでは一例として、床下透過画像表示処理はステップS1~S8を備えるものとする。もちろん、床下透過画像表示処理を構成するステップ数や処理順序などは適宜変更可能である。
まずステップS1では車両状態取得部F3が、シフトポジションや車速などといった自車両の状態を示す情報を取得してステップS2に移る。このようなステップS1は車両状態取得ステップと呼ぶことができる。
ステップS2では画像取得部F1が、4つのカメラ2でそれぞれ得られた4つのカメラ画像を取得してステップS2に移る。このようなステップS2は画像取得ステップと呼ぶことができる。また、ステップS2は、より細かいステップとしてステップS21を含む。ステップS21ではステップS1で取得した情報を元に、進行方向側のカメラ2が撮像した画像を前回保存したときから車両Vが所定の保存距離進んだかどうかを判断する。そして、カメラ画像を前回保存したときからの移動距離が保存距離以上となっている場合に、進行方向側のカメラ2が撮像した画像を画像メモリM1に保存する。
つまりステップS21は、車両Vが保存距離進むたびに、進行方向側のカメラ2が撮像した画像を画像メモリM1に保存するステップに相当する。なお、画像取得部F1は、画像生成条件が充足されていない状態から画像生成条件が充足された状態に遷移したタイミングで、初回の保存処理として、少なくとも進行方向側のカメラ2が撮像した画像を保存するものとする。このようなステップS21は画像保存ステップと呼ぶことができる。
ステップS3ではカメラ画像合成部F71が、上述したように各カメラ2の撮影画像を投影面TSの所定位置にマッピングする。また、画像メモリM1に保存されている、過去に撮像された画像データを用いて、車両領域R0に対して現在の車両位置に対応する路面領域の画像をマッピングする。これらの処理が完了するとステップS4に移る。なお、本フロー開始直後など、車両領域R0に投影可能な画像がまだ蓄積されていない場合には、車両領域R0には、フロア画像として、黒色などの不透明な画像が配置されてもよい。このようなステップS3は、カメラ画像合成ステップと呼ぶことができる。
ステップS4では車両画像付与部F72が、車両境界線Lvcやタイヤ境界線Ltを車両領域R0の所定位置に配置してステップS5に移る。なお、ステップS4では、車両領域R0の上方の所定位置に、3Dタイヤモデルや3Dボディモデルなどを配置してもよい。また、ステップS4では、その他の画像要素として、予定軌道線や目盛り線、車幅線などを描画しても良い。このようなステップS4は、現在の車両の状態等を示す情報を合成画像に付与するステップであるため、車両情報付与ステップと呼ぶことができる。
ステップS5では合成画像生成部F7が、表示制御部F6の制御のもと、合成画像を生成するための仮想視点VPを設定する。例えば合成画像生成部F7は、走行用電源がオンとなって初めて床下透過画像CPを生成する場合、仮想視点VPのデフォルト設定は、設計者またはユーザによって予め設定された位置及び視線方向とすることができる。デフォルト設定は、例えば視線方向が前方斜め下方に向けられたドライバ視点VPdとすることができる。その他、ステップS5で設定される仮想視点VPの設定は、床下透過画像CPを前回表示した際の仮想視点VPの位置及び方向とすることができる。その場合、準備処理として表示制御部F6は、床下透過画像CPを前回表示したときの仮想視点VPの設定データをRAM12又はストレージ13等に保存するように構成されているものとする。
また、仮想視点VPの位置及び視線方向は、自車両の進行方向に応じて決定されても良い。例えば自車両の進行方向が前進方向である場合には、上記のように視線方向が前方斜め下方に向けられたドライバ視点VPdを仮想視点VPとして採用する。一方、自車両の進行方向が後退方向である場合には、例えば、仮想視点VPとして、視線方向が後方斜め下方向に向けられたドライバ視点VPdを採用してもよい。その他、仮想視点VPの視線方向は、操舵角に応じた方向に調整されてもよい。また、表示制御部F6は、タッチパネル4等を介してユーザによって指定された仮想視点VPの位置及び方向を取得し、当該指定された位置及び方向の仮想視点VPを設定するように合成画像生成部F7を制御しても良い。
ここでは一例として、仮想視点VPとして、視線方向が前方斜め下方に向けられたドライバ視点VPdが適用されるものとする。このようなステップS5は仮想視点設定ステップと呼ぶことができる。ステップS5が完了するとステップS6に移る。
ステップS6では合成画像生成部F7が、ステップS6で設定された仮想視点VPからみた床下透過画像CPを生成する。ここでは一例として合成画像生成部F7は、床下透過画像CPとして、車両の底部やボディを透過させて前輪付近の地面を示すドライバ視点画像CPdを生成する。合成画像生成部F7が生成した床下透過画像CPのデータは表示画像生成部F8に出力される。このようなステップS6は合成画像生成ステップと呼ぶことができる。ステップS6での処理が完了するとステップS7に移る。
ステップS7では、表示画像生成部F8が、合成画像生成部F7が生成した床下透過画像CPを含む表示画像DPを生成する。例えば、表示画像生成部F8は、表示画像DPとして、図13に示すように、ドライバ視点画像CPdと、右サイドカメラ画像SRと、左サイドカメラ画像SLと、視点切替スイッチ画像SWとを含む画像を生成する。具体的には、ドライバ視点画像CPdは、表示画像DPの中央領域上側に配置されており、その下方に、視点切替スイッチ画像SWが配置されている。右サイドカメラ画像SRは、ドライバ視点画像CPdの右側に配置されており、左サイドカメラ画像SLは、ドライバ視点画像CPdの左側に配置されている。このような表示画像DPのレイアウトによれば、ドライバ視点画像CPdに対するユーザによる視認性を良好に保ちつつ、左右の状況もドライバに視覚的に通知することができる。つまり、ドライバは上記表示画像DPをみることで、前輪付近の地面の状態を認識できるとともに、車両側方の状況も同時に認識可能となる。
なお、表示画像DPに含まれる視点切替スイッチ画像SWは、ユーザにタッチされることによって表示画像DPとしての表示内容を切り替えるためのスイッチとして機能する画像である。視点切替スイッチ画像SWをユーザがタッチしたか否かは、タッチパネル4から出力されるタッチ位置信号に基づいて判定されうる。視点切替スイッチ画像SWへのユーザのタッチ操作を検出した場合、表示画像生成部F8は表示制御部F6からの指示により、画像中央領域に表示する画像を、例えばドライバ視点画像CPdからフロントカメラ画像に切り替える。視点切替スイッチ画像SWは、仮想視点VPをドライバ視点VPdから鳥瞰視点VPbに切り替えるものであってもよい。その場合、例えば表示画像生成部F8は、表示画像DPとして床下を透過させた鳥瞰画像を含む画像を生成する。表示画像生成部F8が生成した表示画像DPのデータは画像出力部F9に出力される。ステップS7は表示画像生成ステップと呼ぶことができる。
ステップS8では、画像出力部F9が、表示画像生成部F8が生成した表示画像DPのデジタルデータを所定の信号形式の信号に変換してディスプレイ3に出力する。これにより、ドライバ視点画像CPdを含む表示画像DPが、ディスプレイ3に表示される。ステップS8は画像出力ステップと呼ぶことができる。
なお、以上の制御態様は一例であって、表示画像生成部F8は、表示制御部F6の制御により、自車両の進行方向に応じたカメラ画像を選択して表示画像DPの生成に用いることができる。例えば進行方向が後退方向である場合には、表示画像DPの中央領域には、リアカメラ画像が配置されてもよい。また、表示制御部F6は、操作受付部F2が受信した操作信号に基づいて、表示画像DPに表示する画像の組み合わせやレイアウト、カメラ画像の表示範囲などを変更しうる。
<上記構成の効果>
上記構成によれば、インストゥルメントパネルや車体底部等、車両Vの構成部材を透過させつつ車両周辺を示す床下透過画像CPが生成される。床下透過画像CPは、車両の真下及び車両周辺に存在する被写体の像に、車両境界線Lvcやタイヤ境界線Ltを重畳させた画像に相当する。ユーザは、このような床下透過画像CPを確認することで、自車両の周囲の様子を車室内の視点から確認でき、かつ、自車両の周辺の様子を直感的に把握できることになる。
また、ユーザは、床下透過画像CPに含まれる車両境界線Lvcに基づいて、車両付近に存在する岩や縁石、フラップ板などの立体物に対する車体との距離感を認識しやすくなる。よって、意図せずに立体物に車体が接触する恐れを低減することができる。また、床下透過画像CPにタイヤ境界線Ltを含めた構成によれば、ユーザは車体下に位置する区画線や縁石、岩などに対する車体及びタイヤの位置を認識しやすくなる。その結果、例えばオフロード走行時には、狙った岩石にタイヤを乗せるなどの細かい運転操作が可能となる。また、オンロード走行時にも縁石などにタイヤがぶつからないように車体を道路端に寄せるなどの細かい運転操作が行いやすくなる。
加えて、本実施形態の画像生成ECU1は、車両境界線Lvcにグラデーション等の装飾画像Efを付与した車両境界線Lvcを表示する。当該構成によれば、車両境界線Lvcの視認性を高めることができる。また、車両境界線Lvcにはグラデーション等の装飾画像Efを付与する一方、他の表示線にはグラデーション等の装飾(換言すればエフェクト)を施さないで表示する。このような構成によれば、装飾の有無に基づいて車両境界線Lvcと他の表示線とを間違える恐れを抑制することができる。なお、ここでの他の表示線には、タイヤ境界線Ltや、予定軌道線、目盛り線、車幅線などを含めることができる。
なお、車両境界線Lvcを目立たせるための他の態様としては、装飾を付与せずに線を太くする方法も考えられる。しかしながら、車両境界線Lvcを太くすると、車両境界線Lvcによって路面が隠れる部分が増大してしまう。また、車両境界線Lvcを太くすると、実際に車両が存在する範囲が不明確となりうる。境界線が太すぎると、実際の車両Vの端部が境界線上のどの位置にあるか、すなわち、境界線の外側縁部に位置するのか、中央に位置するのか、内側縁部に位置するのかをユーザは判断困難となるためである。これに対して、上記の提案構成によれば、車両境界線Lvcの太さは細いままで、目立たせることが可能となる。つまり、上記の提案構成によればカメラ映像を必要以上に隠すことなく車両境界線Lvcを強調することができる。また、実際に車両が存在する範囲が不明確となるおそれを低減することもできる。
以上では合成画像の仮想視点VPとして、視線方向を前方に向けたドライバ視点VPdが適用されている場合を例にとって本実施形態の効果について説明したが、後方や側方、斜め側方など他の方向に視線方向が向けられている場合にも同様の効果が得られる。また、仮想視点VPをドライバ視点VPd以外にも、車室内の任意の位置を配置した場合にも同様の効果を得ることができる。加えて、車両Vの外側表面上や、車室外の車両近傍領域に仮想視点VPを設定した場合も同様の効果が期待できる。ここでの車両近傍領域とは、例えば車両の外面部から0.2m以内となる領域を指す。外面部には、左右の側面部の他、背面部や前端部、及び、ルーフを含めることができる。側面部にはドアパネルやフェンダー部分、ピラーなどを含めることができる。
以上、本開示の実施形態を説明したが、本開示は上述の実施形態に限定されるものではなく、以降で述べる種々の補足説明や変形例も本開示の技術的範囲に含まれ、さらに、下記以外にも要旨を逸脱しない範囲内で種々変更して実施することができる。例えば下記の種々の変形例は、技術的な矛盾が生じない範囲において適宜組み合わせて実施することができる。なお、前述の実施形態で述べた部材と同一の機能を有する部材については、同一の符号を付し、その説明を省略する。また、構成の一部のみに言及している場合、他の部分については先に説明した実施形態の構成を適用することができる。
<装飾画像Efの補足>
以上では装飾画像Efをグラデーション画像とする態様を開示したが、装飾画像Efは、図14に示すように縦縞模様を有する画像であってもよい。縦縞模様は、例えば、有色半透明な部分(以降、有色部E1)と無色透明な部分である無色部E2とが車両境界線Lvcに沿って交互に配置されることで形成される。縦縞模様には、ゼブラ模様を含めることができる。有色部E1が第1部に相当し、無色部E2が第2部に相当する。なお、第2部は第1部に比べて相対的に透明度が高ければよく、無色透明でなくとも良い。
有色部E1の幅W1は、車両境界線Lvcの幅Wxの1倍から4倍程度の値に設定されうる。例えば、有色部E1の幅W1は車両境界線Lvcの幅Wxの3倍に設定されている。無色部E2の幅W2は、有色部E1の幅W1と同じ大きさに設定されている。なお、無色部E2の幅W2は、有色部E1の幅W1よりも大きくともよい。無色部E2の幅W2は、有色部E1の幅W1の2倍などに設定されていても良い。無色部E2の幅W2は、有色部E1の間隔を規定する。無色部E2の幅W2が大きいほど、装飾画像Efによってカメラ画像が隠れる面積が小さくなるため、ユーザによる路面の視認性を高めることができる。
また、縞模様を構成する有色部E1は、図15に示すように、車両境界線Lvcに近いほど透明度が低く、車両境界線Lvcから離れるほど透明度が高く設定された、グラデーションを有していても良い。例えば有色部E1の車両境界線Lvcと接続する部分の透明度は50%程度に設定されており、遠方側の端部は100%などに設定される。図16及び図17は、装飾画像Efとして図15に模式的に示したパターンを適用した場合のドライバ視点VPd設定時の床下透過画像CPを示している。
このように装飾画像Efを車両境界線Lvcから離れるについて透明となるグラデーションを有する縞模様とした構成によれば、上述した実施形態に比べてより一層、装飾画像Efによってカメラ画像が隠れる部分を低減可能となる。
その他、装飾画像Efは、場所によって延出長Hが相違する形状を有していても良い。例えば装飾画像Efの開放縁部Efbは、図18、図19、及び図20に示すように波形状に設定されていても良い。波形状には、半円を連ねた、いわゆるスカラップ形状を含めることができる。また、装飾画像Efの開放縁部Efbは、三角波状であってもよい。装飾画像Efを波形状とする場合、延出長Hの最大値Hmxは例えば現実世界における5cm相当とすればよい。また、延出長Hの最小値Hmnは0であっても良いし、現実世界における2cm相当であってもよい。
また、装飾画像Efを波形状とする場合も、図21に示すようにその有色部分は車両境界線Lvcに近いほど透明度が低く、車両境界線Lvcから離れるほど透明度が高く設定された、グラデーションを有していても良い。加えて、接続縁部Efaから開放縁部Efbまでの間は前述の縞模様が適用されていても良い。
さらに、図21等に示すように装飾画像Efが波形状を有する場合、時間の経過に伴って場所ごとの高さを連続的に変化させてもよい。そのような表示制御によれば、装飾画像Efが経時的に動くこととなり、車両境界線Lvcをより一層目立たせることが可能となる。その他、装飾画像Efには、有色部分が炎のように揺らぐエフェクトが経時的に付与されても良い。
また、図14、図15、図18、及び図21に示すように装飾画像Efが位置に応じて高さが異なる形状を有する場合、車両の移動に伴ってなびいているように表示しても良い。具体的には、装飾画像Efにおいて車両境界線Lvcに近い部分である根本部分の位置は動かさずに、頂点部分を進行方向とは逆方向に平行移動させ、それらの間を連続的に結ぶ画像を生成及び表示しても良い。図22は、装飾画像Efが図15に示すように縦縞模様を有する場合において、車両の移動状態に応じて有色部E1の傾斜角を変更する態様の一例を示した図である。
図22に示すように車両Vの進行方向や停止中か否かに応じて有色部E1の傾きを変更する態様によれば、ユーザは当該装飾画像Efの表示態様に基づいて車両の移動状態を直感的に認識しやすくなる。なお、装飾画像Efの模様の傾斜角は移動速度に応じて調整されても良い。移動速度が大きいほど傾斜角度は大きく設定されればよい。そのような構成によれば、ユーザは装飾画像Efの模様の傾斜度合いから車両の移動速度を認識可能となる。また、有色部E1の傾斜角は操舵角に応じて調整されても良い。
その他、合成画像生成部F7は表示制御部F6の制御のもと、障害物の検知距離に応じて車両境界線Lvcの色を変更してもよい。例えば、障害物との距離が所定の第1距離以上である場合には車両境界線Lvcの色を青色や緑色などのデフォルト色とする一方、障害物との距離が第1距離未満かつ所定の第2距離以上である場合には黄色に変更してもよい。さらに、障害物との距離が第2距離未満である場合には車両境界線Lvcの色を赤色に変更しても良い。第1距離は例えば1.0mや0.8mなどとすることができる。第2距離は、第1距離よりも短い値であればよく、例えば0.3mや0.4mなどとすることができる。なお、第1距離や第2距離は移動速度に応じて動的に調整されてもよい。装飾画像Efの色は、車両境界線Lvcの色と連動するように変更されれば良い。例えば車両境界線Lvcが黄色となった場合には、装飾画像Efも、黄色をベースとする半透明な画像とされる。
また、表示制御部F6は、障害物との距離が第1距離未満である場合には、障害物との距離に応じた時間間隔で車両境界線Lvcを明滅させても良い。その場合、表示制御部F6は、車両境界線Lvcの明滅と連動させて、換言すれば同期させて、装飾画像Efも明滅させてもよい。
表示制御部F6は、装飾画像Efのうち、障害物が存在する方向に対応する部分の表示態様を局所的に変更しても良い。表示態様を構成する要素としては、大きさや形状、色、透明度などが挙げられる。例えば表示制御部F6は、障害物に近い部分の装飾画像Efを他の部分よりも長くしたり、明滅させたりしてもよい。また、障害物が存在する方向の装飾画像Efを振動させてもよい。当該構成によれば、車両から見てどちらの方向に障害物が存在するのかをユーザが認識しやすくなる。
加えて、障害物との距離に応じて装飾画像Efを表示するか否かを切り替えてもよい。例えば表示制御部F6は、障害物との距離が第2距離以上である場合には装飾画像Efを表示する一方、障害物との距離が第2距離未満である場合には装飾画像Efを非表示としても良い。障害物との第2距離未満である場合には装飾画像Efを非表示とすることで、車両境界線Lvcと当該障害物との離隔や位置関係を見やすくすることができる。
その他、上述した実施形態ではタイヤ境界線Ltにはグラデーション等の装飾を付与しないものとしたがこれに限らない。タイヤ境界線Ltにも装飾画像を付与してもよい。タイヤ境界線Ltに付与する装飾画像は、タイヤ境界線Ltと同じ色とされればよい。なお、タイヤ境界線Ltに装飾画像を付与する場合には、車両境界線Lvcとの区別を容易とするために、タイヤ境界線Ltと車両境界線Lvcの色は異なる色に設定されることが好ましい。
<仮想視点のバリエーションについて>
以上では仮想視点VPとして、鳥瞰視点VPbや、ドライバ視点VPdを例示したが、仮想視点VPとして設定可能な位置及び方向の組み合わせは上記の例に限定されない。仮想視点VPは、車室外の多様な位置に配置可能である。例えば画像生成ECU1は図23に示すように、仮想視点VPとして、後ろ向き鳥瞰視点VPb1や、前向き鳥瞰視点VPb2を設定可能に構成されていても良い。後ろ向き鳥瞰視点VPb1は、車両Vの屋根部よりも上方において車両前方に位置するポイントから車両V及びその後方を見下ろす仮想視点VPに相当する。また、前向き鳥瞰視点VPb2は、車両Vの屋根部よりも上方において車両後方に位置するポイントから車両V及びその前方を見下ろす仮想視点VPに相当する。
また、仮想視点VPは車室内の多様な位置に設定可能に構成されていても良い。例えば仮想視点VPとして、視点位置をサイドミラー付近に配置したパターンや、視点位置を車室内天井部の中央に配置した設定パターンなどを採用可能に構成されていても良い。また、表示制御部F6は、視点位置がアイリプスよりも所定距離後方であって、且つ、視線方向を後方斜め下方に向けられた室内後方視点VPrを設定可能に構成されていても良い。このような室内後方視点VPrによれば、車両後退時に表示する床下透過画像CPとして、後輪付近をより大きく表示可能となる。その結果、後退時にも前進時と同様に、後輪やリアバンパ付近の様子をドライバが認識しやすくなる。
表示制御部F6は、仮想視点VPと路面との距離、例えば仮想視点VPが車室内に存在するか否かに応じて、装飾画像Efを表示するか否かを変更しても良い。例えば仮想視点VPがドライバ視点VPdなど車室内に設定されている場合には車両境界線Lvcに装飾画像Efを付加して表示する一方、仮想視点VPが鳥瞰視点VPbなど屋根部よりも高い位置に設定されている場合には装飾画像Efを非表示としてもよい。鳥瞰視点VPbでは路面から視点が離れているため、仮に装飾画像Efを表示したとしても相対的に小さく表示されてしまい、あまり目立たない。鳥瞰画像においては、装飾画像Efのような細かい画像要素は省略されても、ユーザの利便性に与える影響は小さい。さらに装飾画像Efの表示を省略することにより処理部11の処理負荷を低減可能となる。このように仮想視点VPの位置に応じて、換言すれば合成画像の表示モードに応じて装飾画像Efを表示するか否かを切り替える構成によれば、車両境界線Lvcの視認性を高めつつ、処理部11の処理負荷を軽減可能となる。
<障害物センサの補足>
以上では車両周辺に存在する物体を検出するセンサ(いわゆる障害物センサ)として、ソナー8を用いる構成を例示したが、障害物センサは、ミリ波レーダでもよい。また、障害物センサは、LiDAR(Light Detection and Ranging / Laser Imaging Detection and Ranging)であってもよい。画像生成ECU1は、多様な障害物センサと接続されて使用されうる。
<ディスプレイ3の補足>
上述した実施形態ではディスプレイ3を車載ディスプレイとする態様を開示したが、床下透過画像CPなど、画像生成ECU1が生成した画像の表示先は車載ディスプレイに限定されない。ディスプレイ3は、車両Vを遠隔操作するためのスマートフォン等の携帯端末が備えるディスプレイであってもよい。また、車両Vを遠隔操作するセンタに設けられたディスプレイであってもよい。
<付言>
本開示に記載の装置、システム、並びにそれらの手法は、コンピュータプログラムにより具体化された一つ乃至は複数の機能を実行するようにプログラムされたプロセッサを構成する専用コンピュータにより、実現されてもよい。また、本開示に記載の装置及びその手法は、専用ハードウェア論理回路を用いて実現されてもよい。さらに、本開示に記載の装置及びその手法は、コンピュータプログラムを実行するプロセッサと一つ以上のハードウェア論理回路との組み合わせにより構成された一つ以上の専用コンピュータにより、実現されてもよい。また、コンピュータプログラムは、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移有形記録媒体に記憶されていてもよい。つまり、画像生成ECU1等が提供する手段および/または機能は、実体的なメモリ装置に記録されたソフトウェアおよびそれを実行するコンピュータ、ソフトウェアのみ、ハードウェアのみ、あるいはそれらの組合せによって提供できる。例えば画像生成ECU1が備える機能の一部又は全部はハードウェアとして実現されても良い。或る機能をハードウェアとして実現する態様には、1つ又は複数のICなどを用いて実現する態様が含まれる。画像生成ECU1は、CPUの代わりに、MPUやGPU、DFP(Data Flow Processor)を用いて実現されていてもよい。画像生成ECU1は、CPUや、MPU、GPUなど、複数種類の演算処理装置を組み合せて実現されていてもよい。画像生成ECU1は、システムオンチップ(SoC:System-on-Chip)として実現されていても良い。さらに、各種処理部は、FPGA(Field-Programmable Gate Array)や、ASIC(Application Specific Integrated Circuit)を用いて実現されていても良い。各種プログラムは、非遷移的実体的記録媒体(non- transitory tangible storage medium)に格納されていればよい。プログラムの保存媒体としては、HDD(Hard-disk Drive)やSSD(Solid State Drive)、フラッシュメモリ、SD(Secure Digital)カード等、多様な記憶媒体を採用可能である。
1 画像生成ECU、2 カメラ、3 ディスプレイ、8 ソナー(障害物センサ)、11 処理部、CP 床下透過画像、DP 表示画像、VP 仮想視点、F1 画像取得部、F2 操作受付部、F3 車両状態取得部、F4 障害物情報取得部、F5 画像認識部、F6 表示制御部、F7 合成画像生成部、F71 カメラ画像合成部、F72 車両画像付与部、F8 表示画像生成部、F9 画像出力部、M1 画像メモリ(画像記憶部)、S2 画像取得ステップ、S21 画像保存ステップ、S3 カメラ画像合成ステップ、S4 車両情報付与ステップ、S6 合成画像生成ステップ、Lvc 車両境界線、Ef 装飾画像、E1 有色部(第1部)、E2 無色部(第2部)

Claims (9)

  1. 車両で用いられる周辺画像生成装置であって、
    前記車両の周辺を撮影する複数のカメラで得られた複数のカメラ画像を取得する画像取得部(F1)と、
    前記画像取得部が取得した前記カメラ画像のうち少なくとも進行方向側を撮像した前記カメラ画像の一部又は全部を記憶する画像記憶部(M1)と、
    前記画像取得部が取得した前記カメラ画像、及び、前記画像記憶部が記憶している前記カメラ画像を用いて、前記車両の底部を透過させた合成画像である床下透過画像を生成する合成画像生成部(F7)と、を備え、
    前記合成画像生成部は、
    前記床下透過画像として、前記車両の下方に位置する地面の一部または全部を示す画像上に、車体が存在する範囲の境界を示す車両境界線(Lvc)を重畳させるとともに、前記車両境界線に所定パターンの装飾を付与した画像を生成するように構成されている周辺画像生成装置。
  2. 請求項1に記載の周辺画像生成装置であって、
    前記車両境界線に付与される前記装飾としての画像である装飾画像(Ef)は、前記車両境界線から離れるにつれて透明度が段階的に高まるグラデーションを有している周辺画像生成装置。
  3. 請求項1又は2に記載の周辺画像生成装置であって、
    前記車両境界線に付与される前記装飾としての画像である装飾画像(Ef)は、透明度が相対的に低い部分である第1部(E1)と、前記第1部よりも透明度が相対的に高い第2部(E2)とが交互に並ぶ縞模様を有する画像である周辺画像生成装置。
  4. 請求項1から3の何れか1項に記載の周辺画像生成装置であって、
    前記車両境界線に付与される前記装飾としての画像である装飾画像(Ef)は、所定幅を有する帯状の画像であって、前記車両境界線から車両外側又は真上に向かって延出されている周辺画像生成装置。
  5. 請求項1から3の何れか1項に記載の周辺画像生成装置であって、
    前記車両境界線に付与される前記装飾としての画像である装飾画像(Ef)は、前記車両境界線から離れている方の縁部が波形状の画像であって、
    前記合成画像生成部は、前記車両境界線に対する場所ごとの高さを経時的に変化させるように構成されている周辺画像生成装置。
  6. 請求項1から5の何れか1項に記載の、前記車両の周辺に存在する立体物を検出する障害物センサ(8)と接続されて使用される画像生成装置であって、
    前記障害物センサの検出結果を示す信号を取得する障害物情報取得部(F4)と、
    前記車両境界線に付与される前記装飾としての画像である装飾画像(Ef)及び前記車両境界線のそれぞれの表示状態を制御する表示制御部(F6)を備え、
    前記表示制御部は、前記障害物情報取得部が前記障害物センサから前記車両から所定距離以内に障害物が存在していることを示す信号を取得していることに基づいて、前記車両境界線の表示態様を変更するとともに、前記車両境界線の表示態様の変更に連動させて前記装飾画像の表示態様も変更する周辺画像生成装置。
  7. 請求項1から6の何れか1項に記載の周辺画像生成装置であって、
    前記合成画像生成部は、複数の前記カメラ画像のデータを投影した仮想の投影面と、ユーザの指示操作に基づいて位置及び方向が変更されうる仮想視点と、に基づいて、前記床下透過画像としての合成画像を生成するものであって、
    前記車両境界線に付与される前記装飾としての画像である装飾画像(Ef)の表示状態を制御する表示制御部(F6)を備え、
    前記表示制御部は、前記仮想視点の位置に応じて前記装飾画像を表示させるか否かを変更するように構成されている周辺画像生成装置。
  8. 請求項1から6の何れか1項に記載の周辺画像生成装置であって、
    前記車両境界線に付与される前記装飾としての画像である装飾画像(Ef)及び前記車両境界線のそれぞれの表示状態を制御する表示制御部(F6)を備え、
    前記車両の移動状態に応じて前記装飾画像の表示態様を変更するように構成されている周辺画像生成装置。
  9. 車両の運転操作を支援するための画像の表示を制御する表示制御方法であって、
    前記車両の周辺を撮影する複数のカメラで得られた複数のカメラ画像を取得すること(S2)と、
    進行方向側を撮像した前記カメラ画像を所定のメモリに保存すること(S21)と、
    複数の前記カメラ画像、及び、前記メモリに保存されている前記カメラ画像を用いて、前記車両の底部を透過させた合成画像である床下透過画像を生成すること(S3、S4、S6)と、
    前記床下透過画像として、前記車両の下方に位置する地面の一部または全部を示す画像上に、車体が存在する範囲の境界を示す車両境界線(Lvc)を重畳させるとともに、前記車両境界線に所定パターンの装飾を付与した画像を生成することを含む表示制御方法。
JP2020193954A 2020-11-23 2020-11-23 周辺画像生成装置、表示制御方法 Active JP7491194B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2020193954A JP7491194B2 (ja) 2020-11-23 2020-11-23 周辺画像生成装置、表示制御方法
DE102021129212.3A DE102021129212A1 (de) 2020-11-23 2021-11-10 Umgebungsbilderzeugungsvorrichtung und Anzeigesteuerungsverfahren
CN202111368954.4A CN114531568A (zh) 2020-11-23 2021-11-18 周边图像生成装置和显示控制方法
US17/455,829 US11938863B2 (en) 2020-11-23 2021-11-19 Peripheral image generation device and display control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020193954A JP7491194B2 (ja) 2020-11-23 2020-11-23 周辺画像生成装置、表示制御方法

Publications (2)

Publication Number Publication Date
JP2022082487A true JP2022082487A (ja) 2022-06-02
JP7491194B2 JP7491194B2 (ja) 2024-05-28

Family

ID=81452772

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020193954A Active JP7491194B2 (ja) 2020-11-23 2020-11-23 周辺画像生成装置、表示制御方法

Country Status (4)

Country Link
US (1) US11938863B2 (ja)
JP (1) JP7491194B2 (ja)
CN (1) CN114531568A (ja)
DE (1) DE102021129212A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115891836A (zh) * 2022-11-21 2023-04-04 江铃汽车股份有限公司 一种基于摄像头的越野汽车透明底盘显示方法

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3797343B2 (ja) 2003-05-12 2006-07-19 株式会社デンソー 車両周辺表示装置
JP4742733B2 (ja) 2005-08-05 2011-08-10 日産自動車株式会社 画像つなぎ目処理装置および画像つなぎ目処理方法
JP4815993B2 (ja) * 2005-10-19 2011-11-16 アイシン・エィ・ダブリュ株式会社 駐車支援方法及び駐車支援装置
JP5636609B2 (ja) * 2008-05-08 2014-12-10 アイシン精機株式会社 車両周辺表示装置
JP5337878B2 (ja) * 2009-07-22 2013-11-06 トヨタ自動車株式会社 運転支援装置
JP6014442B2 (ja) * 2012-09-27 2016-10-25 富士通テン株式会社 画像生成装置、画像表示システム、および、画像生成方法
JP6609970B2 (ja) 2015-04-02 2019-11-27 アイシン精機株式会社 周辺監視装置
US10484651B2 (en) * 2015-06-29 2019-11-19 Aisin Seiki Kabushiki Kaisha Image display control device
JP2018063294A (ja) 2016-10-11 2018-04-19 アイシン精機株式会社 表示制御装置
EP4155128A1 (en) 2016-12-09 2023-03-29 Kyocera Corporation Imaging apparatus, image processing apparatus, display system, and vehicle
JP6762863B2 (ja) 2016-12-09 2020-09-30 京セラ株式会社 撮像装置、画像処理装置、表示システム、および車両
JP2018110328A (ja) 2017-01-04 2018-07-12 株式会社デンソーテン 画像処理装置および画像処理方法
JP6962036B2 (ja) 2017-07-07 2021-11-05 株式会社アイシン 周辺監視装置
JP6909388B2 (ja) 2017-07-27 2021-07-28 株式会社Jvcケンウッド 表示制御装置、表示システム、表示制御方法、及び、プログラム
US10549692B2 (en) 2017-07-28 2020-02-04 AISIN Technical Center of America, Inc. Vehicle surroundings monitoring apparatus
JP7172309B2 (ja) * 2018-09-06 2022-11-16 株式会社アイシン 周辺監視装置

Also Published As

Publication number Publication date
US11938863B2 (en) 2024-03-26
DE102021129212A1 (de) 2022-05-25
US20220161718A1 (en) 2022-05-26
CN114531568A (zh) 2022-05-24
JP7491194B2 (ja) 2024-05-28

Similar Documents

Publication Publication Date Title
WO2018105417A1 (ja) 撮像装置、画像処理装置、表示システム、および車両
JP6148887B2 (ja) 画像処理装置、画像処理方法、及び、画像処理システム
US10930070B2 (en) Periphery monitoring device
JP7106846B2 (ja) 周辺監視装置
JP2022095303A (ja) 周辺画像表示装置、表示制御方法
WO2014130049A1 (en) Systems and methods for augmented rear-view displays
JP6762863B2 (ja) 撮像装置、画像処理装置、表示システム、および車両
JP7263731B2 (ja) 画像処理装置
JP5966513B2 (ja) 車両の後側方撮影装置
WO2019034916A1 (en) SYSTEM AND METHOD FOR PRESENTING AND CONTROLLING VIRTUAL CAMERA IMAGE FOR A VEHICLE
US11938863B2 (en) Peripheral image generation device and display control method
US11634074B2 (en) Image forming device and image forming method
JP6781035B2 (ja) 撮像装置、画像処理装置、表示システム、および車両
JP7217090B2 (ja) 情報提供装置及び情報提供方法
JP2021007255A (ja) 撮像装置、画像処理装置、表示システム、および車両
US11830409B2 (en) Peripheral image display device
JP6974564B2 (ja) 表示制御装置
JP7007438B2 (ja) 撮像装置、画像処理装置、表示装置、表示システム、および車両
JP7296490B2 (ja) 表示制御装置及び車両
US20240221246A1 (en) Imaging apparatus, image processing apparatus, display system, and vehicle

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20211101

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20211102

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230215

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240416

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240429

R150 Certificate of patent or registration of utility model

Ref document number: 7491194

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150