JP2021103481A - 運転支援装置、運転支援方法及びプログラム - Google Patents

運転支援装置、運転支援方法及びプログラム Download PDF

Info

Publication number
JP2021103481A
JP2021103481A JP2019235099A JP2019235099A JP2021103481A JP 2021103481 A JP2021103481 A JP 2021103481A JP 2019235099 A JP2019235099 A JP 2019235099A JP 2019235099 A JP2019235099 A JP 2019235099A JP 2021103481 A JP2021103481 A JP 2021103481A
Authority
JP
Japan
Prior art keywords
vehicle
image
unit
imaging unit
driving support
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019235099A
Other languages
English (en)
Inventor
谷 則幸
Noriyuki Tani
則幸 谷
裕也 松本
Hironari Matsumoto
裕也 松本
勝太 赤浦
Shota Akaura
勝太 赤浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2019235099A priority Critical patent/JP2021103481A/ja
Priority to PCT/JP2020/036877 priority patent/WO2021131201A1/ja
Priority to DE112020006319.4T priority patent/DE112020006319T5/de
Priority to CN202080089687.4A priority patent/CN114902309A/zh
Publication of JP2021103481A publication Critical patent/JP2021103481A/ja
Priority to US17/847,690 priority patent/US20220319192A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • B60K35/28
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096766Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission
    • G08G1/096791Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission where the origin of the information is another vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/161Decentralised systems, e.g. inter-vehicle communication
    • G08G1/162Decentralised systems, e.g. inter-vehicle communication event-triggered
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16YINFORMATION AND COMMUNICATION TECHNOLOGY SPECIALLY ADAPTED FOR THE INTERNET OF THINGS [IoT]
    • G16Y10/00Economic sectors
    • G16Y10/40Transportation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16YINFORMATION AND COMMUNICATION TECHNOLOGY SPECIALLY ADAPTED FOR THE INTERNET OF THINGS [IoT]
    • G16Y20/00Information sensed or collected by the things
    • G16Y20/10Information sensed or collected by the things relating to the environment, e.g. temperature; relating to location
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • B60K2360/176
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4049Relationship among other objects, e.g. converging dynamic objects

Abstract

【課題】車両等の移動体の運行状態、周囲の状態などに応じた適切な画像を生成して運転支援を可能にする。【解決手段】運転支援装置は、自己の移動体としての自車両10に搭載された撮像部としてのカメラ21A〜21Dにて自車両10の周囲を撮影した自己画像と、他の撮像部としての他車両30のカメラ31にて撮影した他者画像とを取得する取得部11と、自己画像及び他者画像を含む複数の画像を合成して視認用合成画像を生成する処理部としての合成部12と、を備え、視認用合成画像を表示部13に表示させる。【選択図】図1

Description

本開示は、運転を支援するための運転支援装置、運転支援方法及びプログラムに関する。
従来、自動車等の車両において、自車両が備える複数の車載カメラの撮像画像を、各画像を互いに独立して表示するのではなく、複数の車載カメラで撮像している領域全体が分かるように、一枚に合成した画像を表示する装置が知られている(例えば、特許文献1参照)。
特許第3286306号公報
車両等の移動体に搭載されたカメラにより撮影した撮像画像を用いた運転支援を行う場合、移動体の運行状態、周囲の状態などに応じた適切な画像の生成が求められている。
本開示は、上述した従来の事情に鑑みて案出され、車両等の移動体の運行状態、周囲の状態などに応じた適切な画像を生成して運転支援を行うことが可能な運転支援装置、運転支援方法及びプログラムを提供することを目的とする。
本開示は、一態様として、移動体の運転を支援するための運転支援装置であって、自己の移動体に搭載された撮像部にて前記移動体の周囲を撮影した自己画像と、他の撮像部にて撮影した他者画像とを取得する取得部と、前記自己画像及び前記他者画像を含む複数の画像を合成して視認用合成画像を生成する処理部と、を備える運転支援装置を提供する。
本開示は、一態様として、移動体の運転を支援するための運転支援装置における運転支援方法であって、自己の移動体に搭載された撮像部にて前記移動体の周囲を撮影した自己画像と、他の撮像部にて撮影した他者画像とを取得し、前記自己画像及び前記他者画像を含む複数の画像を合成して視認用合成画像を生成する、ステップを有する、運転支援方法を提供する。
本開示は、一態様として、コンピュータに、移動体の運転を支援するための運転支援方法であって、自己の移動体に搭載された撮像部にて前記移動体の周囲を撮影した自己画像と、他の撮像部にて撮影した他者画像とを取得するステップと、前記自己画像及び前記他者画像を含む複数の画像を合成して視認用合成画像を生成するステップと、を含む、運転支援方法の各ステップを、実行させるためのプログラムを提供する。
本開示によれば、車両等の移動体の運行状態、周囲の状態などに応じた適切な画像を生成して運転支援を行うことが可能となる。
実施の形態に係る運転支援装置の構成の一例を示すブロック図 実施の形態1に係る自車両及び他車両の位置関係と合成画像の例を示す図 実施の形態2に係る自車両及び他車両の位置関係と合成画像の例を示す図 実施の形態3に係る自車両及び他車両の位置関係と合成画像の例を示す図 実施の形態4に係る自車両及び他車両の位置関係と合成画像の例を示す図 実施の形態5に係る自車両及び他車両の位置関係と合成画像の例を示す図 視認用合成画像の生成処理の一例を示すフローチャート 他者画像の撮像画像を取得する画像取得動作の第1例を示すシーケンス図 他者画像の撮像画像を取得する画像取得動作の第2例を示すシーケンス図
(本開示に至った経緯)
上述したように、車両等の移動体に搭載されたカメラにより撮影した撮像画像を用いた運転支援を行う場合、移動体の運行状態、周囲の状態などに応じた適切な画像の生成が求められている。
特許文献1に記載されているような従来技術では、自車両の複数箇所(例えば前後左右の4か所)に設けたカメラによって撮影した車両周囲の撮像画像を合成し、例えば車両の上方から見たような鳥瞰画像を生成して表示することが可能である。
しかしながら、上記従来技術においては、自車両が備える車載カメラが撮影できる範囲の合成画像しか得られず、自車両の撮像範囲外の領域に関して、ユーザが画像を認識できない課題がある。自車両の撮像範囲外の領域は、例えば、障害物などの遮蔽物により死角となり撮影できない領域、また車載カメラの性能または車載カメラの画角に基づき、車載カメラの撮影範囲外の領域を含む。
そこで、本開示では、移動体の運行状態、周囲の状態などに応じた適切な画像の生成が可能であり、車両等の移動体に搭載されたカメラの撮像範囲外の領域についてもユーザが確認することができる運転支援装置の構成例を示す。
以下、添付図面を適宜参照しながら、本開示に係る運転支援装置、運転支援方法及びプログラムを具体的に開示した実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になることを避け、当業者の理解を容易にするためである。なお、添付図面および以下の説明は、当業者が本開示を十分に理解するために提供されるものであって、これらにより特許請求の範囲に記載の主題を限定することは意図されていない。
(実施の形態の構成)
図1は、実施の形態に係る運転支援装置の構成の一例を示すブロック図である。本実施の形態では、移動体の一例としての車両に搭載されたカメラによって車両周囲の状況を捉えた画像を撮影し、この撮像画像を用いて画像合成を行う構成例について説明する。
第1車両としての自車両10は、ユーザ自身が乗車して運転又は同乗している車両であり、自己の移動体に相当する。自車両10は、自車両の周囲の状況を撮影する撮像部としてのカメラ21A、21B、21C、21Dを有する。複数のカメラ21A、21B、21C、21Dは、例えば車両の前後左右の車体に搭載され、車両外周の全周方向の領域を撮像範囲としてカバーしている。
自車両10は、撮像画像を取得する取得部11、取得した撮像画像の処理を行う処理部として画像合成処理を行う合成部12、合成画像を表示する表示部13を有する。取得部11は、カメラインタフェース、通信インタフェース等を有し、これらのインタフェースの通信機能によって自車両の複数のカメラ21A、21B、21C、21Dにて撮影された撮像画像(自己画像)、及び他の撮像部にて撮影された撮像画像(他者画像)を取得する。
合成部12は、プロセッサ及びメモリを有し、例えば、プロセッサがメモレージに保持された所定のプログラムを実行することにより、各種機能を実現する。合成部12は、取得部11にて取得した複数の撮像画像の合成処理を行い、視認用合成画像を生成する。プロセッサは、MPU(Micro processing Unit)、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、GPU(Graphical Processing Unit)等を含んでよい。メモリは、RAM(Random Access Memory)、ROM(Read Only Memory)等を含んでよい。ストレージは、HDD(Hard Disk Drive)、SSD(Solid State Drive)、光ディスク装置、メモリカード等を含んでよい。
合成部12は、合成処理により生成した視認用合成画像を表示部13に出力して提供し、表示部13において視認用合成画像を表示させる。
表示部13は、合成部12にて生成した自車両の周囲の状況に関する視認用合成画像を表示する。表示部13は、例えばAR−HUD(Augmented Reality Head Up Display)、HUD等の車両の前部に搭載されフロントウィンドウに投影表示する表示デバイス、車両のダッシュパネル等に搭載された有機ELディスプレイ、液晶ディスプレイ等のディスプレイ装置などの各種表示装置により構成される。
第2車両としての他車両30は、自車両以外の車両、例えば自車両10の近くを走行又は停車している車両であり、他の移動体に相当する。他車両30は、他車両の周囲の状況を撮影する撮像部としてのカメラ31を有する。なお、カメラ31は一つであってもよいし、複数であってもよい。カメラ31は、例えば車両の車体に搭載され、車両外周の一部又は全周方向の領域を撮像範囲としてカバーしている。他車両30は、自車両10の取得部11と通信を行い、カメラ31にて撮影した撮像画像を伝送して他者画像として提供する。なお、他者画像を撮影する撮像部としては、他車両30のカメラ31に限らず、第1車両としての自車両10が走行する道路又は駐車場に設置された関連設備に搭載される撮像部であってもよい。例えば、道路の交差点、道路脇、高架等に設置されたインフラのカメラ、道路沿いの建物に設置されたカメラ、駐車場に設置されたカメラなど、自車両以外の種々の位置に設けられたカメラを用いてもよい。
取得部11と他車両30のカメラ31との間の画像伝送は、VtoV(Vehicle to Vehicle)通信、5Gのモバイル通信など、所定の通信帯域を持つ高速通信システムを用いて実現可能である。なお、他者画像を撮影する撮像部として、インフラのカメラを用いる場合、その他のカメラを用いる場合など、運転支援装置のシステム構成に対応して、VtoI(Vehicle to Infrastructure)通信、VtoX(Vehicle to X)通信など、各種通信システムを用いることが可能である。
自車両10において、取得部11は、自車両10のカメラ21A、21B、21C、21Dにて撮影した自己画像の撮像画像を取得する。また、取得部11は、所定の条件を満たす場面において、他車両30のカメラ31又は他の撮像部にて撮影した他者画像の撮像画像を取得する。合成部12は、自車両10において取得した自己画像の撮像画像を合成処理する。また、合成部12は、他車両30又は他の撮像部より取得した他者画像の撮像画像を、自己画像と併せて合成処理する。合成部12は、合成処理後の視認用合成画像として、例えば自車両10を含む撮像領域の上方から見下ろした鳥瞰画像を生成する。なお、鳥瞰画像に限らず、自車両10の360度全周又は所定角度範囲の周囲のパノラマ画像、所定の視点位置から見た俯瞰画像など、種々の合成画像を生成してもよいし、鳥瞰画像と前方の視角範囲のパノラマ画像など、複数種類の画像を組み合わせた合成画像を生成してもよい。
表示部13は、合成部12にて生成した視認用合成画像を表示する。表示部13として自車両10のフロントウィンドウにAR−HUDを備える場合、AR−HUDによりフロントウィンドウに視認用合成画像を表示し、ユーザの視点からフロントウィンドウを通して見える車両前方の視界の実像と重畳させる。表示部13として車両のダッシュパネル等にディスプレイ装置を備える場合、ディスプレイ装置により視認用合成画像を表示し、自車両外部の撮像画像を含む周囲の状況を示す画像をユーザに提示する。表示部13としては、他のHMI(Human Machine Interface)を用いてもよい。
なお、自車両10は、表示部13の他に、音、光などでユーザに通知する通知部を有してよい。合成部12又は表示部13は、周囲状況が所定の状態となった場合に通知部へ通知情報を送信し、通知部からユーザに所定の周囲状況を通知させる。通知部は、合成部12にて生成した視認用合成画像に基づき、自車両10の撮像範囲外にある車両、人物等の注意すべき所定の物体が存在する場合、所定の物体の存在を報知音、点灯などによってユーザに通知する。また、表示部13が通知部の機能を包含し、視認用合成画像の表示において、画像中に他車両、人物等の注意すべき所定の物体が存在する場合に該当する領域を強調表示、特定の色表示、イラスト表示などの区別表示を行い、容易に認識可能にしてもよい。また、表示部13の視認用合成画像の表示において、自車両表示についても特定の色表示、イラスト表示などの区別表示を行って容易に識別可能にする。
本実施の形態に係る運転支援装置は、自車両10において、取得部11及び合成部12を備える。なお、取得部11と合成部12の少なくとも一方が自車両10の外部に設けられてもよい。運転支援装置は、視認用合成画像を表示する表示部13を備えていてもよい。また、運転支援装置は、視認用合成画像の画像中に所定の物体が存在する場合など、周囲状況が所定の状態となったことを通知する通知部を備えていてもよい。
以下に、本開示の実施の形態として、自己画像と他者画像とを含む合成画像を生成する場面の動作状態(シーン例)をいくつか例示する。
(実施の形態1)
図2は、実施の形態1に係る自車両及び他車両の位置関係と合成画像の例を示す図である。実施の形態1は、所定の条件を満たす場面に該当する自車両の状況として、見通しの悪い交差点や脇道からの進入口に向かう道路を走行している場面(交差点のシーン)における合成画像の生成例を示すものである。
実施の形態1の場面では、自車両である第1車両10Aは幅員が大きい幹線道路51を走行している。第1車両10Aの前方には、幹線道路51に接続された脇道52の進入口52Aがあり、見通しの悪い交差点となっている。脇道52からは、他車両である第2車両30Aが進入してきており、第2車両30Aの後ろには後続する他車両である第3車両30Bが走行している。この場合、道路端の建物の壁、塀などによって、第2車両30Aの一部や第3車両30Bの全部が第1車両10Aからの死角となり、第1車両10Aのカメラの撮像範囲120から外れた撮像範囲外となる。このため、第1車両10Aからは第3車両30Bの撮影が困難であり、第1車両10Aの撮像画像には第3車両30Bが含まれず、第1車両10Aにおいて第2車両30Aに後続している第3車両30Bを認識できない。一方、第2車両30Aのカメラの撮像範囲130には、第2車両30Aと共に第3車両30Bが入っており、第2車両30Aからは第3車両30Bを撮影可能である。よって、第2車両30Aの撮像画像には第3車両30Bが含まれている。
本実施の形態では、第1車両10Aの進行方向と第2車両30Aの進行方向とが交わる場合、第1車両10Aにおいて、第2車両30Aにて撮影した他者画像を取得し、自車両にて撮影した自己画像と取得した他者画像とを用いて、合成画像100Aを生成する。なお、他車両として第2車両30Aの代わりに第3車両30Bを用い、第3車両30Bにて撮影した他者画像を第3車両30Bから取得して合成してもよい。第1車両10Aと第2車両30A又は第3車両30Bとの間の画像伝送等の通信は、VtoV通信、5Gのモバイル通信、或いは無線LAN等を用いたコンピュータネットワークのネットワーク通信などを用いてよい。撮像画像の伝送は、自車両の進行方向前方に進入してくる他車両を認識した際に第1車両10Aから第2車両30A又は第3車両30Bに対して撮像画像を要求して他者画像として取得してもよいし、交差点に進入する際に第2車両30A又は第3車両30Bから近傍の第1車両10Aへ撮像画像を送信してもよい。第1車両10A、第2車両30A、第3車両30Bは、所定タイミングで周囲との通信を試みて通信が可能な場合に、接続可能な車両が自車の近傍に存在することをステータス情報として保持し、画像データ等の送受信を行ってもよい。なお、撮像画像の合成は、自車両と1つの他車両だけでなく、自車両と複数の他車両であってもよく、任意の複数の車両において取得した画像を合成してよい。
図2の例では、自車両の上方から見た鳥瞰画像の合成画像100Aを示している。合成画像100Aにおいて、自車両の第1車両10Aは例えば中央下部の位置に表示する。この合成画像100Aには、脇道52から幹線道路51に進入している第2車両30Aと共に、後続する第3車両30Bの画像も含まれ、第1車両10Aの搭乗者(運転者、同乗者)は、自車両では撮影できない領域の車両、人物などの物体を認識できるようになる。これにより、自車両において、撮像範囲外からの他車両の接近を確認することができる。図示例では、撮像範囲外にある後続の第3車両を撮影した画像を合成表示し、自車両からは撮影できない車両等の存在を早期に認識できる。
また、表示部としてAR−HUDを用いる場合、AR(Augmented Reality)技術によって自車両のフロントウィンドウにおいて視認用合成画像を重畳して表示する。これにより、第2車両に後続して撮像範囲外の死角から接近している第3車両を視認用合成画像に表示でき、ユーザは車両前方を見ながら視界の実像と共に第3車両の接近を認識できる。
(実施の形態2)
図3は、実施の形態2に係る自車両及び他車両の位置関係と合成画像の例を示す図である。実施の形態2は、所定の条件を満たす場面に該当する自車両の状況として、走行している道路の路肩に駐停車している車両がある場面(駐停車車両があるシーン)における合成画像の生成例を示すものである。
実施の形態2の場面では、自車両である第1車両10Aは道路53を走行している。第1車両10Aの前方には、道路53の路肩に他車両である第2車両30Aが駐停車していて、この第2車両30Aの陰に人物40が立っていて道路53に飛び出そうとしている。この場合、駐停車車両である第2車両30Aによって人物40が死角となり、第2車両30Aの前方が第1車両10Aのカメラの撮像範囲120から外れた撮像範囲外となる。このため、第1車両10Aからは第2車両30Aの影の部分の人物40などの撮影が困難であり、第1車両10Aにおいて人物40を認識できない。一方、第2車両30Aのカメラの撮像範囲130には、第1車両10Aの死角となる前方領域が入っており、第2車両30Aからは人物40を撮影可能である。よって、第2車両30Aの撮像画像には人物40が含まれている。
本実施の形態では、第1車両10Aが走行する走行車線において第2車両30Aが停止中である場合、第1車両10Aにおいて、第2車両30Aにて撮影した他者画像を取得し、自車両にて撮影した自己画像と取得した他者画像とを用いて、合成画像100Bを生成する。この場合、第1車両10Aから第2車両30Aに対して撮像画像を要求して他者画像として取得する。第2車両30Aは、受信機能のみアクティブとしたスリープ状態であり、第1車両10Aから要求を受けると、カメラを起動して撮影し、撮像画像を第1車両10Aへ送信した後、スリープ状態に戻る。或いは、第2車両30Aにおいて人物などの移動物体を検知し、移動物体等のイベント発生を検知したときにカメラを起動して撮影し、撮像画像を第1車両10Aへ送信してもよい。第2車両30Aは、イベント発生時にカメラにて撮影を行い、撮像画像の送信準備完了を第1車両10Aに通知し、第2車両30Aから第1車両10Aへ撮像画像を他者画像として送信する。或いは、第2車両30Aは、イベント検知信号を第1車両10Aに送信し、第1車両10Aからの要求に応じて撮像画像を第1車両10Aへ送信する。第1車両10Aと第2車両30Aとの間の画像伝送等の通信は、VtoV通信、5Gのモバイル通信、或いは無線LAN等を用いたコンピュータネットワークのネットワーク通信などを用いてよい。第1車両10A、第2車両30Aは、所定タイミングで周囲との通信を試みて通信が可能な場合に、接続可能な車両が自車の近傍に存在することをステータス情報として保持し、画像データ等の送受信を行ってもよい。なお、撮像画像の合成は、自車両と1つの他車両だけでなく、自車両と複数の他車両であってもよく、任意の複数の車両において取得した画像を合成してよい。
図3の例では、自車両の上方から見た鳥瞰画像の合成画像100Bを示している。合成画像100Bにおいて、自車両の第1車両10Aは例えば中央下部の位置に表示する。この合成画像100Bには、第2車両30Aの陰に存在している人物40の画像も含まれ、第1車両10Aの搭乗者(運転者、同乗者)は、自車両では撮影できない領域の人物、自転車などの物体を認識できるようになる。これにより、第2車両30Aの影にある障害物の存在を事前に把握させることができ、駐停車車両の影からの人物、自転車などの飛び出しにも対処可能になる。
また、自車両に通知部を備える場合、人物などの移動物体の存在をユーザに通知し、撮像範囲外にある人物、自転車などの移動物体、又は注意すべき特徴的な物体を早期にユーザに認識させることができる。
(実施の形態3)
図4は、実施の形態3に係る自車両及び他車両の位置関係と合成画像の例を示す図である。実施の形態3は、所定の条件を満たす場面に該当する自車両の状況として、高速道路又はバイパス等の幹線道路に対して合流車線から合流する場面(合流のシーン)における合成画像の生成例を示すものである。
実施の形態3の場面では、自車両である第1車両10Aは高速道路の合流車線54を走行している。高速道路の本線55には、第1車線を他車両である第2車両30Aが走行し、隣の第2車線を別の他車両である第3車両30Bが走行している。この場合、第2車両30A或いは高速道路の防音壁などによって、第3車両30Bが第1車両10Aからの死角となり、第1車両10Aのカメラの撮像範囲120から外れた撮像範囲外となる。このため、第1車両10Aからは第3車両30Bの撮影が困難であり、第1車両10Aの撮像画像には第3車両30Bが含まれず、第1車両10Aにおいて本線55の第2車線を走行している第3車両30Bを認識できない。一方、第2車両30Aのカメラの撮像範囲130には、第2車両30Aと共に第3車両30Bが入っており、第2車両30Aからは第3車両30Bを撮影可能である。よって、第2車両30Aの撮像画像には第3車両30Bが含まれている。
本実施の形態では、第1車両10Aの走行車線と第2車両30Aの走行車線とが合流する場合、第1車両10Aにおいて、第2車両30Aにて撮影した他者画像を取得し、自車両にて撮影した自己画像と取得した他者画像とを用いて、合成画像100Cを生成する。なお、他車両として第2車両30Aの代わりに第3車両30Bを用い、第3車両30Bにて撮影した他者画像を第3車両30Bから取得して合成してもよい。第1車両10Aと第2車両30A又は第3車両30Bとの間の画像伝送等の通信は、実施の形態1と同様、VtoV通信、5Gのモバイル通信などを用いてよい。撮像画像の伝送は、自車両が合流する際に第1車両10Aから第2車両30A又は第3車両30Bに対して撮像画像を要求して他者画像として取得してもよいし、合流点に近づいたときに第2車両30A又は第3車両30Bから近傍の第1車両10Aへ撮像画像を送信してもよい。第1車両10A、第2車両30A、第3車両30Bは、所定タイミングで周囲との通信を試みて通信が可能な場合に、接続可能な車両が自車の近傍に存在することをステータス情報として保持し、画像データ等の送受信を行ってもよい。なお、撮像画像の合成は、自車両と1つの他車両だけでなく、自車両と複数の他車両であってもよく、任意の複数の車両において取得した画像を合成してよい。
図4の例では、自車両の上方から見た鳥瞰画像の合成画像100Cを示している。合成画像100Cにおいて、自車両の第1車両10Aは例えば画像中央の位置に表示する。この合成画像100Cには、高速道路の本線55の第1車線を走行している第2車両30Aと共に、第2車線を走行している第3車両30Bの画像も含まれ、第1車両10Aの搭乗者(運転者、同乗者)は、自車両では撮影できない領域の第3車両30Bなどの物体の存在を認識できるようになる。これにより、撮像範囲外又は死角の領域まで確認可能な領域を拡大でき、より遠方、広範囲の車両を確認できるため、車両合流時の安全性をより高めることができる。
また、表示部としてAR−HUDを用いる場合、自車両のフロントウィンドウにおいて視認用合成画像を重畳して表示する。これにより、第2車両とともに、撮像範囲外の死角領域に走行している第3車両を視認用合成画像に表示できるため、運転者及び搭乗者は車両前方を向いた状態で合成画像を視認でき、視界の実像と共に第3車両の接近を認識でき、より安全性を高めた状態でスムーズな合流が可能になる。
(実施の形態4)
図5は、実施の形態4に係る自車両及び他車両の位置関係と合成画像の例を示す図である。実施の形態4は、所定の条件を満たす場面に該当する自車両の状況として、走行している道路の前方に渋滞などのイベントが発生している場面(渋滞等のシーン)における合成画像の生成例を示すものである。
実施の形態4の場面では、自車両である第1車両10Aが走行している道路56の前方に、他車両である第2車両30Aが先行して走行し、第2車両30Aの前方の路肩に別の他車両の駐車車両である第3車両30Bが駐車している。駐車車両の第3車両30Bによって、第2車両30A及び自車両の第1車両10A、並びに後続する車両が減速又は停止することになり、渋滞が発生する。この場合、第2車両30Aによって第3車両30Bが死角となり、第2車両30Aの前方が第1車両10Aのカメラの撮像範囲120から外れた撮像範囲外となる。このため、第1車両10Aからは駐車車両の第3車両30Bなどの撮影が困難であり、第1車両10Aにおいて進行方向前方の交通状況を認識できない。一方、第2車両30Aのカメラの撮像範囲130には、第1車両10Aの撮像範囲外となる前方領域が入っており、第2車両30Aからは第3車両30Bを撮影可能である。よって、第2車両30Aの撮像画像には第3車両30Bが含まれている。
本実施の形態では、第1車両10Aにおいて、第2車両30Aにて撮影した他者画像を取得し、自車両にて撮影した自己画像と取得した他者画像とを用いて、合成画像100Dを生成する。この場合、第2車両30Aは、第1車両10Aの進行方向前方の車両とこの車両の対向方向にある第1車両10A前方の車両とを含む車両のうちの少なくとも一つの車両である。図示例においては、第2車両30Aが第1車両10Aの進行方向前方の車両となっている。撮像画像の伝送は、自車両の第1車両10Aから他車両の第2車両30Aに対して撮像画像を要求して他者画像として取得してもよいし、第2車両30Aが駐停車車両や渋滞等のイベント発生を検知したときに第2車両30Aから第1車両10Aへ撮像画像を送信してもよい。第1車両10A、第2車両30Aは、所定タイミングで周囲との通信を試みて通信が可能な場合に、接続可能な車両が自車の近傍に存在することをステータス情報として保持し、画像データ等の送受信を行ってもよい。なお、撮像画像の合成は、自車両と1つの他車両だけでなく、自車両と複数の他車両であってもよく、任意の複数の車両において取得した画像を合成してよい。
図5の例では、自車両の上方から見た鳥瞰画像の合成画像100Dを示している。合成画像100Dにおいて、自車両の第1車両10Aは例えば中央下部の位置に表示する。この合成画像100Dには、第2車両30Aの前方に存在している駐車車両の第3車両30Bの画像も含まれ、第1車両10Aの搭乗者(運転者、同乗者)は、自車両では撮影できない領域の駐車車両、渋滞、路面凍結、道路の凸凹、事故などのイベント発生、交通状況を認識できるようになる。これにより、第2車両30Aより前方の交通状況を広範囲に把握させることができる。
また、実施の形態4の応用例として、自車両が走行している道路の進行方向前方の他車両とこの車両の対向方向にある自車両前方の他車両とによって撮影した他者画像を取得し、これらの他者画像と自己画像とを合成して、より広範囲をカバーする合成画像を生成してもよい。すなわち、他車両である第2車両は、自車両である第1車両の進行方向前方の車両とこの車両の対向方向にある第1車両前方の車両とを含む車両のうちの少なくとも一つの車両であり、この第2車両にて撮影した撮像画像を他者画像として取得して合成する。この場合、例えば、各車両が撮影した画像をイベント情報を含むプローブ情報としてサーバ装置に送信し、サーバ装置にて広範囲の鳥瞰画像等の合成画像を生成して道路交通情報とともに蓄積し、自車両からの要求によってサーバ装置が合成画像を配信し、自車両にて合成画像を取得して表示する。或いは、サーバ装置に蓄積された広範囲の車両の撮像画像を用いて、自車両から所望の範囲の撮像画像を取得して合成画像を生成してもよい。また、サーバ装置を用いず、複数の車両間をリレー方式で撮像画像を転送し、複数の車両により撮影した撮像画像を取得して広範囲の合成画像を生成することも可能である。なお、応用例においては、自己画像との合成は必須ではなく、サーバ装置から、他者間の合成画像を取得し、自車両に表示する形態でもよい。また、サーバ装置から、他者間の合成画像を取得し表示する媒体は、自車両の表示装置に限らず、パソコン、スマートフォン、タブレット端末などを含むユーザの携帯端末に表示する形態であってもよい。
このような応用例によれば、多くの撮像画像を合成して広範囲を俯瞰する俯瞰画像の合成画像を表示することができ、例えば自車両の5km先の道路に大きな穴が存在する、路面凍結が発生している、3km先より渋滞が発生しているなど、さらに広範囲のイベント発生、現在の道路状況や交通状況を容易に認識することが可能になる。
(実施の形態5)
図6は、実施の形態5に係る自車両及び他車両の位置関係と合成画像の例を示す図である。実施の形態5は、所定の条件を満たす場面に該当する自車両の状況として、複数の駐車区画がある駐車場に駐車しているときに近くに駐車車両の他車両がある場面(駐車場のシーン)における合成画像の生成例を示すものである。
実施の形態5の場面では、自車両である第1車両10Aが駐車場57に設けられた複数の駐車区画58の一つに駐車していて、これから出庫中の状況である。或いは、第1車両10Aが駐車区画58の一つに駐車するために入庫中の状況である。例えば、高速道路のサービスエリア、商業施設の駐車場などにおいてこのような場面に遭遇する。隣の駐車区画58に他車両である第2車両30Aが駐車しており、この第2車両30Aの陰に人物40が立っていて自車両方向に歩行しようとしている。なお、第2車両30Aは第1車両10Aの隣に限らず、近傍の駐車区画58など、駐車場内のいずれかの位置に駐車していてもよい。この場合、駐車中の第2車両30Aによって人物40が死角となり、第2車両30Aの前方が第1車両10Aのカメラの撮像範囲120から外れた撮像範囲外となる。このため、第1車両10Aからは第2車両30Aの影の部分の人物40などの撮影が困難であり、第1車両10Aにおいて人物40を認識できない。一方、第2車両30Aのカメラの撮像範囲130には、第1車両10Aの死角となる前方領域が入っており、第2車両30Aからは人物40を撮影可能である。よって、第2車両30Aの撮像画像には人物40が含まれている。
本実施の形態では、第1車両10Aが駐車場に入庫又は出庫中であり、第2車両30Aが駐車場内のいずれかの位置に駐車している場合、第1車両10Aにおいて、第2車両30Aにて撮影した他者画像を取得し、自車両にて撮影した自己画像と取得した他者画像とを用いて、合成画像100Eを生成する。第1車両10Aと第2車両30Aとの間の画像伝送等の通信は、実施の形態2と同様、VtoV通信、5Gのモバイル通信、或いは無線LAN等を用いたコンピュータネットワークのネットワーク通信などを用いてよい。撮像画像の伝送は、自車両が入庫又は出庫する際に第1車両10Aから第2車両30Aに対して撮像画像を要求して他者画像として取得してもよいし、第2車両30Aにおいて移動物体を検知したときに第2車両30Aから近傍の第1車両10Aへ撮像画像を送信してもよい。第1車両10A、第2車両30Aは、所定タイミングで周囲との通信を試みて通信が可能な場合に、接続可能な車両が自車の近傍に存在することをステータス情報として保持し、画像データ等の送受信を行ってもよい。なお、撮像画像の合成は、自車両と1つの他車両だけでなく、自車両と複数の他車両であってもよく、任意の複数の車両において取得した画像を合成してよい。
図6の例では、自車両の上方から見た鳥瞰画像の合成画像100Eを示している。合成画像100Eにおいて、自車両の第1車両10Aは例えば中央下部の位置に表示する。この合成画像100Eには、第2車両30Aの陰に存在している人物40の画像も含まれ、第1車両10Aの搭乗者(運転者、同乗者)は、自車両では撮影できない領域の人物などの物体を認識できるようになる。これにより、入出庫の発進時や走行時に第2車両30Aの影にある障害物の存在を事前に把握させることができ、駐車車両の影からの人物などの飛び出しにも対処可能になる。
また、自車両に通知部を備える場合、人物などの移動物体の存在をユーザに通知し、撮像範囲外にある人物、自転車などの物体を早期にユーザに認識させることができる。
以下に、自己画像と共に他者画像を用いた視認用合成画像の生成動作について、一例を挙げて具体的に説明する。
(合成画像の生成処理の一例)
図7は、視認用合成画像の生成処理の一例を示すフローチャートである。図7では、自車両10の取得部11及び合成部12において合成画像を生成する例を示す。
自車両10の取得部11は、自車両に搭載されたカメラ21A、21B、21C、21Dから自己画像の撮像画像を取得する。また、取得部11は、他車両30と通信し、他車両30のカメラ31から他者画像の撮像画像を取得する。なお、道路の路肩、信号機、標識、案内板、歩道橋、高架などのインフラに設けられた他の撮像部と通信を行って他者画像の撮像画像を取得してもよい。このようにして、取得部11は、自己画像に加えて他者画像の撮像画像を取得する(S11)。
複数の撮像画像から鳥瞰画像等の合成画像を生成するには、例えば特許文献1等に記載された従来技術を用いて、複数の撮像画像の空間再構成、視点変換等の処理を行うことによって所望の視点から見た合成画像を生成できる。自車両のカメラのみの場合、各カメラの位置、撮像画像の画角は予めわかっており、出荷時の調整などによってカメラ間の相対位置、各カメラの撮像範囲は規定される。このため、合成画像を生成する際に複数の撮像画像における被写体の各画素を三次元空間上に再配置して合成することが可能になる。
一方、本実施の形態のように、自己画像に加えて他者画像を用いる場合、複数の撮像画像に共通して存在する特徴点を抽出し、特徴点の尤度に基づいて特徴点の三次元位置を整合させるように各画素を三次元空間上に再配置し、複数の撮像画像を合成する。
なお、準天頂衛星システム(QZSS:Quasi-Zenith Satellite System)などの高精度測位システム、或いはLiDAR(Light Detection and Ranging)を用いて、他車両及び自車両の複数の撮像部の相対位置を検出し、各撮像部の位置情報に基づいて合成画像を生成するようにしてもよい。
自車両10の合成部12は、合成する複数の撮像画像における特徴点を抽出する(S12)。特徴点としては、道路の境界線、車線を示す白線や黄線、駐車区画を示す白線、ガードレールや防音壁等の道路周縁部の固定物などを用いればよい。
合成部12は、取得した複数の撮像画像において抽出した特徴点の尤度に基づき、撮像画像の空間再構成処理を実行する(S13)。この際、合成部12は、特徴点の尤度に基づいて被写体の各画素と三次元座標系の点との対応関係を計算し、特徴点の三次元位置を整合させるように三次元空間上に再配置する。
続いて、合成部12は、三次元空間上に再配置した各画素の画素情報を用いて、例えば自車両10の垂直上方を視点位置とするように所定の視点位置への視点変換処理を行う(S14)。そして、合成部12は、視点変換後の撮像画像の各画素を合成し、自車両10の真上から見下ろした鳥瞰画像の合成画像を生成する(S15)。なお、視点位置は、自車両10の真上の位置に限らず、斜め上方の位置などの所定の位置を設定可能であり、斜め上から見下ろした俯瞰画像などの所望の視点からの合成画像を生成できる。
このように、自己画像とともに他者画像の撮像画像を含む鳥瞰画像の合成画像を生成することにより、自車両の撮像範囲外の領域を含む広範囲の視認用合成画像を得ることができ、ユーザの視認範囲を拡大できる。
(他者画像の取得動作の第1例)
図8は、他者画像の撮像画像を取得する画像取得動作の第1例を示すシーケンス図である。第1例は、自車両から他の撮像部を有する他車両に対して他者画像を要求して取得する場合の動作例を示す。第1例では、自車両が他の撮像部にて撮像した他者画像を取得して合成画像を生成する際に、画像取得先の他車両が駐車中などでスリープ状態にある場合を想定する。このとき、他車両は、自己の撮像部にて撮像を停止し、撮像画像の合成処理、表示処理などを停止していて、撮像部及び制御部がスリープ状態になっている。
自車両10の取得部11は、所定の条件を満たす場面において、他者画像の画像要求を自己の通信エリア内に送信し、近傍に存在する他車両30に対して画像要求を発信する(S21)。他車両30の制御部は、スリープ状態において近傍の車両から画像要求を受信すると(S31)、起動して撮像部であるカメラ31のスリープ状態を解除し(S32)、画像要求が受信されない期間を計測する画像要求受信無タイマをスタートする(S33)。そして、他車両30の制御部は、カメラ31にて周囲画像を撮像し(S34)、画像要求を受けた自車両10に対して撮像画像を画像送信する(S35)。
自車両10の取得部11は、他車両30から伝送されてきた他者画像の撮像画像について、画像受信処理を行って他者画像を取得する(S22)。また、取得部11は、自車両10の撮像部であるカメラ21A〜21Dからにて撮像した自己画像の撮像画像を取得する。自車両10の合成部12は、取得した自己画像と他者画像の撮像画像を用いて、図7にて示したような画像合成処理を実行し、鳥瞰画像の合成画像を生成する(S23)。そして、自車両10の表示部13は、生成した合成画像の画像表示処理を実行し、鳥瞰画像の合成画像を表示する(S24)。例えば、表示部13としてAR−HUDを用いる場合、AR技術によって自車両のフロントウィンドウにおいて合成画像を重畳して表示することにより、ユーザは車両前方の視界の実像と共に現在の車両周囲の状況を表す合成画像を視認して認識することができる。
他車両30の制御部は、画像要求受信無タイマの値をモニタし、画像要求受信無タイマの値が所定の閾値を超えるかどうか判断する(S36)。ここで、画像要求受信無タイマの値が所定の閾値を超えた場合、すなわち画像要求が受信されない期間が所定時間以上となった場合に、他車両30の制御部は、スリープ状態移行処理を実行して撮像部及び制御部をスリープ状態に移行させる(S37)。これにより、他車両30は画像要求受信前の状態に戻り、スリープ状態で待機する。
このようにして、所定の場面において自車両から他車両に要求を送信して他者画像の撮像画像を取得し、自己画像及び他者画像を含む視認用合成画像を生成できる。
(他者画像の取得動作の第2例)
図9は、他者画像の撮像画像を取得する画像取得動作の第2例を示すシーケンス図である。第2例は、他車両において周辺の移動物体を検知し、スリープ状態から起動して自車両に対して他者画像を送信して取得させる場合の動作例を示す。第2例では、他車両が駐車中などでスリープ状態のときに移動物体の検知機能を有効にし、周囲画像を低周期で撮像している場合を想定する。
他車両30の制御部は、スリープ状態においてカメラ31によって低周期で周囲画像を撮像している(S41)。ここで、他車両30の制御部は、所定の条件を満たす場面として、自己に搭載されたセンサによって周辺の移動物体が検知されたかどうか判断する(S42)。移動物体を検知するセンサとしては、振動センサ、加速度センサ、赤外線センサなどの種々のセンサを用いてよい。ここで、他車両30の周辺において人物などの移動物体が検知された場合、他車両30の制御部は、起動して撮像部であるカメラ31のスリープ状態を解除し(S43)、移動物体が検知されてからの期間を計測する移動物検知タイマをスタートする(S44)。そして、他車両30の制御部は、カメラ31にて周囲画像を撮像し(S45)、周囲の車両に対して接続要求を行って自己の通信エリア内に撮像画像を取得可能な車両が存在するか確認する。続いて他車両30の制御部は、自己の近傍にある自車両10に対して撮像画像を画像送信する(S46)。
自車両10の取得部11は、他車両30から伝送されてきた他者画像の撮像画像について、画像受信処理を行って他者画像を取得する(S51)。また、取得部11は、自車両10の撮像部であるカメラ21A〜21Dからにて撮像した自己画像の撮像画像を取得する。自車両10の合成部12は、取得した自己画像と他者画像の撮像画像を用いて、図7にて示したような画像合成処理を実行し、鳥瞰画像の合成画像を生成する(S52)。そして、自車両10の表示部13は、生成した合成画像の画像表示処理を実行し、鳥瞰画像の合成画像を表示する(S53)。
他車両30の制御部は、画像送信処理に続いて、まだ周辺の移動物体が検知されているかを判断し(S47)、移動物体の検知が継続している場合、ステップS45に戻って周囲画像の撮像及び転送の処理を継続する。周辺に移動物体が検知されない場合、他車両30の制御部は、移動物検知タイマの値をモニタし、移動物検知タイマの値が所定の閾値を超えるかどうか判断する(S48)。ここで、移動物検知タイマの値が所定の閾値を超えた場合、すなわち移動物体を検知してから移動物体検知が継続せず、所定時間が経過した場合に、他車両30の制御部は、スリープ状態移行処理を実行して撮像部及び制御部をスリープ状態に移行させる(S49)。これにより、他車両30は移動物体検知前の状態に戻り、スリープ状態で待機する。
このようにして、所定の場面において他車両から自車両に撮像画像を送信し、自車両にて他者画像の撮像画像を取得し、自己画像及び他者画像を含む視認用合成画像を生成できる。
なお、本実施の形態の運転支援装置を搭載する移動体としては、自動車、トラック等の車両に限らず、ドローン等の飛行体、その他の移動体にも適用可能である。
本実施の形態によれば、自己の移動体では撮影できない撮像範囲外(死角により撮像範囲外の領域含む)の領域に関して、他の撮像部にて撮影した撮像画像を取得し、自己の移動体にて撮影した撮像画像とともに画像合成して視認用合成画像を得ることができる。このため、自己の撮像範囲に限定されずに移動体の運行状態、周囲の状態などに応じた適切な画像の生成が可能であり、車両等の移動体に搭載されたカメラの撮像範囲外の領域についてもユーザが確認することができる。
以上のように、本実施の形態の運転支援装置、運転支援方法、及びプログラムは、車両等の移動体の運転を支援するための運転支援装置であり、例えばプロセッサ及びメモリを有してなる合成部12等による処理部と、取得部11とを含む。例えば、自車両10において、取得部11及び合成部12を有する。取得部11は、自己の移動体(自車両10)に搭載された撮像部(カメラ21A、21B、21C、21D)にて移動体の周囲を撮影した自己画像と、他の撮像部(他車両30のカメラ31)にて撮影した他者画像とを取得する。処理部としての合成部12は、自己画像及び他者画像を含む複数の画像を合成して視認用合成画像を生成する。これにより、自己画像の撮像範囲外についても、他者画像を取得して合成でき、視認用合成画像に示される範囲を拡大できる。例えば、視認用合成画像によって自己の移動体の撮像範囲外に存在する他の移動体、人物などの物体の存在を把握可能となる。したがって、車両等の移動体の運行状態、周囲の状態などに応じた適切な画像を生成して運転支援を行うことが可能となる。
また、処理部としての合成部12は、視認用合成画像を生成する際、複数の自己画像を合成した第1の合成画像と、複数の他者画像を合成した第2の合成画像とを合成してよい。また、処理部としての合成部12は、視認用合成画像を生成する際、複数の自己画像と、一つ又は複数の他者画像とのそれぞれの画像を合成してよい。また、処理部としての合成部12は、視認用合成画像を生成する際、複数の自己画像を合成した第1の合成画像と、一つ又は複数の他者画像とを合成してよい。これらにより、状況に応じて自己画像と他者画像とを適切に合成して視認用合成画像を生成可能となる。
また、処理部としての合成部12は、自己画像及び他者画像の各画像中の特徴点を抽出し、特徴点の尤度に基づいて自己画像及び他者画像を含む複数の画像を合成してよい。これにより、各画像中の特徴点の尤度に基づいて特徴点の三次元位置を整合させるように各画素を三次元空間上に再配置し、複数の撮像画像を合成することが可能になる。なお、自己の移動体の撮像部と他の撮像部のそれぞれの相対位置を検出し、各撮像部の位置情報に基づいて合成画像を生成してよい。これにより、各撮像部の位置情報に基づいて複数の撮像画像の各画素を三次元空間上に再配置し、複数の撮像画像を合成することが可能になる。
また、処理部としての合成部12は、自己画像及び他者画像のそれぞれの画像における被写体の各画素を三次元空間上に再配置し、所定の視点位置への視点変換処理を行って複数の画像を合成し、視認用合成画像を生成してよい。これにより、視点変換処理を行った合成画像を生成し、例えば自己の移動体の真上から見下ろした鳥瞰画像、所定の視点位置から見た俯瞰画像などを表示してユーザが現在の周囲状況を容易に確認可能になる。
また、処理部としての合成部12は、合成した画像を表示部13に提供して表示部13により視認用合成画像を表示させてよい。これにより、表示部13に視認用合成画像を表示させてユーザにおいて現在の周囲状況を容易に確認可能にできる。なお、自己の移動体である自車両10に表示部13を備えることで、ユーザが現在の周囲状況を示す視認用合成画像を容易に確認できる。
また、表示部13は、AR−HUDを含む表示装置であってよい。表示部13としてAR−HUDを用いることにより、ユーザは前方を向いた状態で周囲の実像と視認用合成画像とを視認することが可能になり、運転時の操作性及び視認性を向上できる。
また、処理部としての合成部12は、視認用合成画像の画像中に所定の物体が存在する場合に通知情報を通知部に送信し、通知部により所定の物体の存在をユーザに通知させてよい。これにより、例えば音、光などでユーザに通知することによって、周囲に所定の物体が存在し、周囲状況が所定の状態となったことを知らせることが可能になる。なお、自己の移動体である自車両10に通知部を備えることで、ユーザが現在の周囲状況を容易に認識できる。
また、自己の移動体は自車両10であり、他の撮像部は、他の移動体である他車両30に搭載される撮像部(カメラ31)、又は自車両10が走行する道路又は駐車場に設置された関連設備に搭載される撮像部であってよい。これにより、自車両の撮像範囲外についても、他車両又は関連設備のインフラの撮像部から他者画像を取得して合成でき、視認用合成画像によって自車両の撮像範囲外に存在する他車両、人物などの障害物の存在を把握可能となる。
また、自車両である第1車両10Aが、取得部11及び処理部としての合成部12と、視認用合成画像を表示する表示部13とを有し、他車両である第2車両30Aが撮像部を有し、第1車両10Aの進行方向と第2車両30Aの進行方向とが交わる場合、第1車両の取得部11は、第2車両から第2車両の撮像部(カメラ31)にて撮像した他者画像を取得し、第1車両の処理部としての合成部12は、第1車両に備える撮像部(カメラ21A、21B、21C、21D)にて撮像した自己画像と第2車両から取得した他者画像とを合成してよい。これにより、例えば交差点のシーンにおいて、自車両の撮像範囲外にある他車両を認識可能になり、撮像範囲外からの他車両の接近を確認できる。
また、自車両である第1車両10Aが、取得部11及び処理部としての合成部12と、視認用合成画像を表示する表示部13とを有し、他車両である第2車両30Aが撮像部を有し、第1車両10Aが走行する走行車線において第2車両30Aが停止中である場合、第1車両の取得部11は、第2車両から第2車両の撮像部(カメラ31)にて撮像した他者画像を取得し、第1車両の処理部としての合成部12は、第1車両に備える撮像部(カメラ21A、21B、21C、21D)にて撮像した自己画像と第2車両から取得した他者画像とを合成してよい。これにより、例えば駐停車車両があるシーンにおいて、自車両の撮像範囲外の死角にある物体を認識可能であり、他車両の陰にある人物等の障害物の存在を事前に把握させることができ、飛び出し等に対応可能になる。
また、自車両である第1車両10Aが、取得部11及び処理部としての合成部12と、視認用合成画像を表示する表示部13とを有し、他車両である第2車両30Aが撮像部を有し、第1車両10Aの走行車線と第2車両30Aの走行車線とが合流する場合、第1車両の取得部11は、第2車両から第2車両の撮像部(カメラ31)にて撮像した他者画像を取得し、第1車両の処理部としての合成部12は、第1車両に備える撮像部(カメラ21A、21B、21C、21D)にて撮像した自己画像と第2車両から取得した他者画像とを合成してよい。これにより、例えば合流のシーンにおいて、自車両にて確認可能な領域を拡大でき、撮像範囲外又は死角にある他車両を認識できるため、車両合流時の安全性をより高めることができる。
また、自車両である第1車両10Aが、取得部11及び処理部としての合成部12と、視認用合成画像を表示する表示部13とを有し、他車両である第2車両30Aが撮像部を有し、第2車両30Aは、第1車両の進行方向前方の車両とこの車両の対向方向にある第1車両前方の車両とを含む車両のうちの少なくとも一つの車両であり、第1車両の取得部11は、第2車両から第2車両の撮像部(カメラ31)にて撮像した他者画像を取得し、第1車両の処理部としての合成部12は、第1車両に備える撮像部(カメラ21A、21B、21C、21D)にて撮像した自己画像と第2車両から取得した他者画像とを合成してよい。これにより、例えば渋滞等のシーンにおいて、自車両の撮像範囲外にある他車両などの状況を認識可能になり、自車両では撮影できない領域の駐車車両、渋滞、路面凍結、道路の凸凹、事故などのイベント発生、交通状況を広範囲に把握させることが可能になる。
また、自車両である第1車両10Aが視認用合成画像を表示する表示部13を有し、他車両である第2車両30Aが撮像部を有し、自車両及び他車両と通信可能なサーバ装置が取得部11及び処理部としての合成部12を有し、第2車両30Aは、第1車両の進行方向前方の車両とこの車両の対向方向にある第1車両前方の車両とを含む車両のうちの少なくとも一つの車両であり、サーバ装置の取得部11は、第2車両から第2車両の撮像部(カメラ31)にて撮像した他者画像を取得し、サーバ装置の処理部としての合成部12は、第1車両に備える撮像部(カメラ21A、21B、21C、21D)にて撮像した自己画像と第2車両から取得した他者画像とを合成し、第1車両の表示部13に視認用合成画像を送信してよい。これにより、多くの撮像画像を合成して広範囲を俯瞰する俯瞰画像の合成画像を表示することができ、例えば数km先の道路状況など、さらに広範囲のイベント発生、現在の道路状況や交通状況を容易に認識することが可能になる。
また、自車両である第1車両10Aが、取得部11及び処理部としての合成部12と、視認用合成画像を表示する表示部13とを有し、他車両である第2車両30Aが撮像部を有し、第1車両が駐車場に入庫又は出庫中であり、第2車両が駐車場内のいずれかの位置に駐車している場合、第1車両の取得部11は、第2車両から第2車両の撮像部(カメラ31)にて撮像した他者画像を取得し、第1車両の処理部としての合成部12は、第1車両に備える撮像部(カメラ21A、21B、21C、21D)にて撮像した自己画像と第2車両から取得した他者画像とを合成してよい。これにより、例えば駐車場のシーンにおいて、自車両では撮影できない領域の物体を認識可能であり、入出庫の発進時や走行時に他車両の影にある人物等の障害物の存在を事前に把握させることができ、駐車車両の影からの人物などの飛び出しにも対処可能になる。
以上、図面を参照しながら各種の実施の形態について説明したが、本開示はかかる例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例、修正例、置換例、付加例、削除例、均等例に想到し得ることは明らかであり、それらについても当然に本開示の技術的範囲に属するものと了解される。また、発明の趣旨を逸脱しない範囲において、上述した各種の実施の形態における各構成要素を任意に組み合わせてもよい。
本開示は、車両等の移動体の運行状態、周囲の状態などに応じた適切な画像を生成して運転支援を行うことが可能となる効果を有し、車両等の移動体の運転を支援するための運転支援装置、運転支援方法及びプログラムとして有用である。
10 自車両
10A 第1車両
11 取得部
12 合成部
13 表示部
21A、21B、21C、21D、31 カメラ
30 他車両
30A 第2車両
30B 第3車両
40 人物
51 幹線道路
52 脇道
53、56 道路
54 合流車線
55 本線
57 駐車場
58 駐車区画
100A、100B、100C、100D、100E 合成画像
120、130 撮像範囲

Claims (18)

  1. 移動体の運転を支援するための運転支援装置であって、
    自己の移動体に搭載された撮像部にて前記移動体の周囲を撮影した自己画像と、他の撮像部にて撮影した他者画像とを取得する取得部と、
    前記自己画像及び前記他者画像を含む複数の画像を合成して視認用合成画像を生成する処理部と、
    を備える運転支援装置。
  2. 前記処理部は、前記視認用合成画像を生成する際、複数の前記自己画像を合成した第1の合成画像と、複数の前記他者画像を合成した第2の合成画像とを合成する、
    請求項1に記載の運転支援装置。
  3. 前記処理部は、前記視認用合成画像を生成する際、複数の前記自己画像と、一つ又は複数の前記他者画像とのそれぞれの画像を合成する、
    請求項1に記載の運転支援装置。
  4. 前記処理部は、前記視認用合成画像を生成する際、複数の前記自己画像を合成した第1の合成画像と、一つ又は複数の前記他者画像とを合成する、
    請求項1に記載の運転支援装置。
  5. 前記処理部は、前記自己画像及び前記他者画像の各画像中の特徴点を抽出し、前記特徴点の尤度に基づいて前記自己画像及び前記他者画像を含む複数の画像を合成する、
    請求項1〜4のいずれか一項に記載の運転支援装置。
  6. 前記処理部は、前記自己画像及び前記他者画像のそれぞれの画像における被写体の各画素を三次元空間上に再配置し、所定の視点位置への視点変換処理を行って複数の画像を合成し、前記視認用合成画像を生成する、
    請求項1〜5のいずれか一項に記載の運転支援装置。
  7. 前記処理部は、前記合成した画像を表示部に提供して前記表示部により前記視認用合成画像を表示させる、
    請求項1〜6のいずれか一項に記載の運転支援装置。
  8. 前記表示部は、AR−HUD(Augmented Reality Head Up Display)を含む表示装置である、
    請求項7に記載の運転支援装置。
  9. 前記処理部は、前記視認用合成画像の画像中に所定の物体が存在する場合に通知情報を通知部に送信し、前記通知部により前記所定の物体の存在をユーザに通知させる、
    請求項1〜8のいずれか一項に記載の運転支援装置。
  10. 前記自己の移動体は自車両であり、
    前記他の撮像部は、他の移動体である他車両に搭載される撮像部、又は前記自車両が走行する道路又は駐車場に設置された関連設備に搭載される撮像部である、
    請求項1に記載の運転支援装置。
  11. 前記自車両である第1車両が、前記取得部及び前記処理部と、前記視認用合成画像を表示する表示部とを有し、
    前記他車両である第2車両が撮像部を有し、
    前記第1車両の進行方向と前記第2車両の進行方向とが交わる場合、
    前記第1車両の取得部は、前記第2車両から前記第2車両の撮像部にて撮像した他者画像を取得し、
    前記第1車両の処理部は、前記第1車両に備える撮像部にて撮像した自己画像と前記第2車両から取得した他者画像とを合成する、
    請求項10に記載の運転支援装置。
  12. 前記自車両である第1車両が、前記取得部及び前記処理部と、前記視認用合成画像を表示する表示部とを有し、
    前記他車両である第2車両が撮像部を有し、
    前記第1車両が走行する走行車線において前記第2車両が停止中である場合、
    前記第1車両の取得部は、前記第2車両から前記第2車両の撮像部にて撮像した他者画像を取得し、
    前記第1車両の処理部は、前記第1車両に備える撮像部にて撮像した自己画像と前記第2車両から取得した他者画像とを合成する、
    請求項10に記載の運転支援装置。
  13. 前記自車両である第1車両が、前記取得部及び前記処理部と、前記視認用合成画像を表示する表示部とを有し、
    前記他車両である第2車両が撮像部を有し、
    前記第1車両の走行車線と前記第2車両の走行車線とが合流する場合、
    前記第1車両の取得部は、前記第2車両から前記第2車両の撮像部にて撮像した他者画像を取得し、
    前記第1車両の処理部は、前記第1車両に備える撮像部にて撮像した自己画像と前記第2車両から取得した他者画像とを合成する、
    請求項10に記載の運転支援装置。
  14. 前記自車両である第1車両が、前記取得部及び前記処理部と、前記視認用合成画像を表示する表示部とを有し、
    前記他車両である第2車両が撮像部を有し、
    前記第2車両は、前記第1車両の進行方向前方の車両とこの車両の対向方向にある前記第1車両前方の車両とを含む車両のうちの少なくとも一つの車両であり、
    前記第1車両の取得部は、前記第2車両から前記第2車両の撮像部にて撮像した他者画像を取得し、
    前記第1車両の処理部は、前記第1車両に備える撮像部にて撮像した自己画像と前記第2車両から取得した他者画像とを合成する、
    請求項10に記載の運転支援装置。
  15. 前記自車両である第1車両が前記視認用合成画像を表示する表示部を有し、
    前記他車両である第2車両が撮像部を有し、
    前記自車両及び前記他車両と通信可能なサーバ装置が前記取得部及び前記処理部を有し、
    前記第2車両は、前記第1車両の進行方向前方の車両とこの車両の対向方向にある前記第1車両前方の車両とを含む車両のうちの少なくとも一つの車両であり、
    前記サーバ装置の取得部は、前記第2車両から前記第2車両の撮像部にて撮像した他者画像を取得し、
    前記サーバ装置の処理部は、前記第1車両に備える撮像部にて撮像した自己画像と前記第2車両から取得した他者画像とを合成し、
    前記第1車両の表示部に前記視認用合成画像を送信する、
    請求項10に記載の運転支援装置。
  16. 前記自車両である第1車両が、前記取得部及び前記処理部と、前記視認用合成画像を表示する表示部とを有し、
    前記他車両である第2車両が撮像部を有し、
    前記第1車両が駐車場に入庫又は出庫中であり、前記第2車両が前記駐車場内のいずれかの位置に駐車している場合、
    前記第1車両の取得部は、前記第2車両から前記第2車両の撮像部にて撮像した他者画像を取得し、
    前記第1車両の処理部は、前記第1車両に備える撮像部にて撮像した自己画像と前記第2車両から取得した他者画像とを合成する、
    請求項10に記載の運転支援装置。
  17. 移動体の運転を支援するための運転支援装置における運転支援方法であって、
    自己の移動体に搭載された撮像部にて前記移動体の周囲を撮影した自己画像と、他の撮像部にて撮影した他者画像とを取得し、
    前記自己画像及び前記他者画像を含む複数の画像を合成して視認用合成画像を生成する、ステップを有する、
    運転支援方法。
  18. コンピュータに、
    移動体の運転を支援するための運転支援方法であって、
    自己の移動体に搭載された撮像部にて前記移動体の周囲を撮影した自己画像と、他の撮像部にて撮影した他者画像とを取得するステップと、
    前記自己画像及び前記他者画像を含む複数の画像を合成して視認用合成画像を生成するステップと、を含む、
    運転支援方法の各ステップを、実行させるためのプログラム。
JP2019235099A 2019-12-25 2019-12-25 運転支援装置、運転支援方法及びプログラム Pending JP2021103481A (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2019235099A JP2021103481A (ja) 2019-12-25 2019-12-25 運転支援装置、運転支援方法及びプログラム
PCT/JP2020/036877 WO2021131201A1 (ja) 2019-12-25 2020-09-29 運転支援装置、運転支援方法及びプログラム
DE112020006319.4T DE112020006319T5 (de) 2019-12-25 2020-09-29 Fahrassistenzvorrichtung, fahrassistenzverfahren und programm
CN202080089687.4A CN114902309A (zh) 2019-12-25 2020-09-29 驾驶辅助装置、驾驶辅助方法以及程序
US17/847,690 US20220319192A1 (en) 2019-12-25 2022-06-23 Driving assistance device, driving assistance method, and non-transitory computer-readable medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019235099A JP2021103481A (ja) 2019-12-25 2019-12-25 運転支援装置、運転支援方法及びプログラム

Publications (1)

Publication Number Publication Date
JP2021103481A true JP2021103481A (ja) 2021-07-15

Family

ID=76575864

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019235099A Pending JP2021103481A (ja) 2019-12-25 2019-12-25 運転支援装置、運転支援方法及びプログラム

Country Status (5)

Country Link
US (1) US20220319192A1 (ja)
JP (1) JP2021103481A (ja)
CN (1) CN114902309A (ja)
DE (1) DE112020006319T5 (ja)
WO (1) WO2021131201A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022080039A1 (ja) 2020-10-16 2022-04-21 凸版印刷株式会社 積層フィルム、包装袋、包装体、および積層フィルムの製造方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021169235A (ja) * 2020-04-14 2021-10-28 株式会社Subaru 車両の走行支援装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002367080A (ja) * 2001-06-12 2002-12-20 Clarion Co Ltd 車両用視覚支援方法及び装置
JP2005326956A (ja) * 2004-05-12 2005-11-24 Alpine Electronics Inc 駐車場空きスペース案内装置及び駐車場空きスペース案内方法
JP2007164549A (ja) * 2005-12-15 2007-06-28 Hitachi Ltd 撮像装置、映像信号の選択装置、運転支援装置、自動車
JP2008217813A (ja) * 2008-04-08 2008-09-18 Sumitomo Electric Ind Ltd 衝突情報提供装置及び方法
JP2014089491A (ja) * 2012-10-29 2014-05-15 Hitachi Consumer Electronics Co Ltd 映像処理システム
JP2016082409A (ja) * 2014-10-17 2016-05-16 株式会社Jvcケンウッド 無線通信装置
JP2017068640A (ja) * 2015-09-30 2017-04-06 ヤマハ株式会社 車両間データ通信装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3286306B2 (ja) 1998-07-31 2002-05-27 松下電器産業株式会社 画像生成装置、画像生成方法
KR101519209B1 (ko) * 2013-08-06 2015-05-11 현대자동차주식회사 Avm 영상 제공 장치 및 방법
KR101844885B1 (ko) * 2016-07-11 2018-05-18 엘지전자 주식회사 차량 운전 보조장치 및 이를 포함하는 차량
KR102366723B1 (ko) * 2016-10-11 2022-02-23 삼성전자주식회사 운송 수단으로 시야 확보 영상을 제공하는 방법, 이를 위한 전자 장치 및 컴퓨터 판독 가능한 기록 매체
US10600234B2 (en) * 2017-12-18 2020-03-24 Ford Global Technologies, Llc Inter-vehicle cooperation for vehicle self imaging
US10745005B2 (en) * 2018-01-24 2020-08-18 Ford Global Technologies, Llc Inter-vehicle cooperation for vehicle self height estimation
CN108327719A (zh) * 2018-01-31 2018-07-27 京东方科技集团股份有限公司 辅助车辆行驶的方法及装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002367080A (ja) * 2001-06-12 2002-12-20 Clarion Co Ltd 車両用視覚支援方法及び装置
JP2005326956A (ja) * 2004-05-12 2005-11-24 Alpine Electronics Inc 駐車場空きスペース案内装置及び駐車場空きスペース案内方法
JP2007164549A (ja) * 2005-12-15 2007-06-28 Hitachi Ltd 撮像装置、映像信号の選択装置、運転支援装置、自動車
JP2008217813A (ja) * 2008-04-08 2008-09-18 Sumitomo Electric Ind Ltd 衝突情報提供装置及び方法
JP2014089491A (ja) * 2012-10-29 2014-05-15 Hitachi Consumer Electronics Co Ltd 映像処理システム
JP2016082409A (ja) * 2014-10-17 2016-05-16 株式会社Jvcケンウッド 無線通信装置
JP2017068640A (ja) * 2015-09-30 2017-04-06 ヤマハ株式会社 車両間データ通信装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022080039A1 (ja) 2020-10-16 2022-04-21 凸版印刷株式会社 積層フィルム、包装袋、包装体、および積層フィルムの製造方法

Also Published As

Publication number Publication date
DE112020006319T5 (de) 2022-11-24
US20220319192A1 (en) 2022-10-06
WO2021131201A1 (ja) 2021-07-01
CN114902309A (zh) 2022-08-12

Similar Documents

Publication Publication Date Title
US20230311749A1 (en) Communication between autonomous vehicle and external observers
JP7105754B2 (ja) 撮像装置、及び、撮像装置の制御方法
JP5070809B2 (ja) 運転支援装置、運転支援方法、及び、プログラム
JP4622928B2 (ja) 車載カメラ制御装置および車載カメラ制御方法。
JP2001101566A (ja) 交通安全確認システム
JP2008250503A (ja) 運転支援装置
US20130021453A1 (en) Autostereoscopic rear-view display system for vehicles
US20220319192A1 (en) Driving assistance device, driving assistance method, and non-transitory computer-readable medium
JP6679607B2 (ja) 車両支援システム
JP4930187B2 (ja) 運転支援システム
WO2018180579A1 (ja) 撮像制御装置、および撮像制御装置の制御方法、並びに移動体
JP4590962B2 (ja) 車両用周辺監視装置
US11697425B1 (en) Method and system for assisting drivers in locating objects that may move into their vehicle path
JP2021026554A (ja) 走行支援方法、道路撮影画像収集方法、および路側装置
JP2011049735A (ja) 車両周辺画像提供装置
JP2020065141A (ja) 車両の俯瞰映像生成システム及びその方法
JP4986070B2 (ja) 車両用周囲監視装置
US11397322B2 (en) Image providing system for vehicle, server system, and image providing method for vehicle
JP3988551B2 (ja) 車両周囲監視装置
JP2007060054A (ja) 車両用通信装置
JP5720400B2 (ja) 画像処理装置及び画像処理方法
JP2020057981A (ja) 画像作成システム、画像作成装置、及び画像作成装置の制御方法
KR100964250B1 (ko) 방범용 양방향 감시 시스템
JP3231104U (ja) レーダー装置に対応する移動車両用画像撮影装置
WO2022166308A1 (zh) 一种用于视觉传感器的控制指令生成方法及装置、控制方法及装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220526

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230405

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230808

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20240220