JP2022172945A - 遠隔支援システム及び遠隔支援方法 - Google Patents
遠隔支援システム及び遠隔支援方法 Download PDFInfo
- Publication number
- JP2022172945A JP2022172945A JP2021079309A JP2021079309A JP2022172945A JP 2022172945 A JP2022172945 A JP 2022172945A JP 2021079309 A JP2021079309 A JP 2021079309A JP 2021079309 A JP2021079309 A JP 2021079309A JP 2022172945 A JP2022172945 A JP 2022172945A
- Authority
- JP
- Japan
- Prior art keywords
- image data
- threshold
- data
- equal
- less
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 67
- 238000012545 processing Methods 0.000 claims abstract description 73
- 238000004891 communication Methods 0.000 description 48
- 238000010586 diagram Methods 0.000 description 23
- 238000013135 deep learning Methods 0.000 description 11
- 101100402694 Arabidopsis thaliana MSR2 gene Proteins 0.000 description 5
- 230000001133 acceleration Effects 0.000 description 4
- 238000001514 detection method Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 239000000446 fuel Substances 0.000 description 3
- 101001134216 Homo sapiens Macrophage scavenger receptor types I and II Proteins 0.000 description 2
- 102100034184 Macrophage scavenger receptor types I and II Human genes 0.000 description 2
- 238000002485 combustion reaction Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 230000002194 synthesizing effect Effects 0.000 description 2
- LFQSCWFLJHTTHZ-UHFFFAOYSA-N Ethanol Chemical compound CCO LFQSCWFLJHTTHZ-UHFFFAOYSA-N 0.000 description 1
- UFHFLCQGNIYNRP-UHFFFAOYSA-N Hydrogen Chemical compound [H][H] UFHFLCQGNIYNRP-UHFFFAOYSA-N 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 229910052739 hydrogen Inorganic materials 0.000 description 1
- 239000001257 hydrogen Substances 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/09—Arrangements for giving variable traffic instructions
- G08G1/0962—Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
- G08G1/0967—Systems involving transmission of highway information, e.g. weather, speed limits
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4038—Image mosaicing, e.g. composing plane images from plane sub-images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4053—Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0011—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
- G05D1/0038—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by providing the operator with simple or augmented images from one or more cameras located onboard the vehicle, e.g. tele-operation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04817—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/60—Extraction of image or video features relating to illumination properties, e.g. using a reflectance or lighting model
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/584—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
Landscapes
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Radar, Positioning & Navigation (AREA)
- General Engineering & Computer Science (AREA)
- Remote Sensing (AREA)
- Software Systems (AREA)
- Aviation & Aerospace Engineering (AREA)
- Human Computer Interaction (AREA)
- Automation & Control Theory (AREA)
- Atmospheric Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Traffic Control Systems (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
【課題】車両の走行を遠隔支援する場合において、当該車両から送られてくる画像データに含まれる信号機の発光部の灯火状態をオペレータが認識可能なレベルまで改善する。
【解決手段】遠隔施設のプロセッサは、車両の前方の画像データを示すフロント画像データに基づいて、ディスプレイに表示する支援画像データを生成する画像生成処理を行う。画像生成処理では、フロント画像データに信号機の画像が含まれる場合、当該信号機の発光部の灯火状態の認識尤度が閾値以下であるか否かが判定される。認識尤度が閾値以下であると判定された場合、フロント画像データにおける信号機を含む所定領域の超解像度化処理が行われる。そして、超解像度化処理による所定領域の超解像画像データが、フロント画像データにおける当該所定領域に相当する領域に重畳される。これにより、支援画像データが生成される。
【選択図】図12
【解決手段】遠隔施設のプロセッサは、車両の前方の画像データを示すフロント画像データに基づいて、ディスプレイに表示する支援画像データを生成する画像生成処理を行う。画像生成処理では、フロント画像データに信号機の画像が含まれる場合、当該信号機の発光部の灯火状態の認識尤度が閾値以下であるか否かが判定される。認識尤度が閾値以下であると判定された場合、フロント画像データにおける信号機を含む所定領域の超解像度化処理が行われる。そして、超解像度化処理による所定領域の超解像画像データが、フロント画像データにおける当該所定領域に相当する領域に重畳される。これにより、支援画像データが生成される。
【選択図】図12
Description
本発明は、車両の走行を遠隔支援するシステム及び方法に関する。
特開2018-77649号公報は、車両の遠隔運転を行うシステムを開示する。この従来のシステムは、遠隔運転を行うオペレータが駐在する管理施設を備える。オペレータによる遠隔運転は、車両からのリクエストに応じて開始される。遠隔運転中、車両から管理施設に対しては、各種データが送信される。各種データには、カメラ等の車載機器により取得された車両の周辺環境データが含まれる。周辺環境データには、画像データが含まれる。画像データは、管理施設のディスプレイを介してオペレータに提供される。
オペレータによる遠隔運転を含む遠隔支援中において、車両の走行安全性を確保するためには、当該車両の遠方の信号機の発光部の灯火状態を高解像度で認識できることが望ましい。しかしながら、車両からの通信量には限度があることから、管理施設が受信した画像データの解像度はそれほど高くないことが予想される。よって、低解像度の画像データを管理施設が受信した場合であっても、この画像データに含まれる信号機の発光部の灯火状態をオペレータが認識可能なレベルまで改善するための技術開発が求められる。
本発明の1つの目的は、車両の走行を遠隔支援する場合において、当該車両から送られてくる画像データに含まれる信号機の発光部の灯火状態をオペレータが認識可能なレベルまで改善することのできる技術を提供することにある。
第1の発明は、遠隔支援システムであり、次の特徴を有する。
前記遠隔支援システムは、車両と、前記車両の走行を支援する遠隔施設と、を備える。
前記遠隔施設は、メモリと、プロセッサとを備える。前記メモリには、前記車両の前方の画像データを示すフロント画像データが格納される。前記プロセッサは、前記フロント画像データに基づいて、前記遠隔施設のディスプレイに表示する支援画像データを生成する画像生成処理を行う。
前記プロセッサは、前記画像生成処理において、
前記フロント画像データに信号機の画像が含まれる場合、前記信号機の発光部の灯火状態の認識尤度が閾値以下であるか否かを判定し、
前記認識尤度が前記閾値以下であると判定された場合、前記フロント画像データにおける前記信号機を含む所定領域の超解像度化処理を行い、
前記超解像度化処理による前記所定領域の超解像画像データを、前記フロント画像データにおける前記所定領域に相当する領域に重畳して前記支援画像データを生成する。
前記遠隔支援システムは、車両と、前記車両の走行を支援する遠隔施設と、を備える。
前記遠隔施設は、メモリと、プロセッサとを備える。前記メモリには、前記車両の前方の画像データを示すフロント画像データが格納される。前記プロセッサは、前記フロント画像データに基づいて、前記遠隔施設のディスプレイに表示する支援画像データを生成する画像生成処理を行う。
前記プロセッサは、前記画像生成処理において、
前記フロント画像データに信号機の画像が含まれる場合、前記信号機の発光部の灯火状態の認識尤度が閾値以下であるか否かを判定し、
前記認識尤度が前記閾値以下であると判定された場合、前記フロント画像データにおける前記信号機を含む所定領域の超解像度化処理を行い、
前記超解像度化処理による前記所定領域の超解像画像データを、前記フロント画像データにおける前記所定領域に相当する領域に重畳して前記支援画像データを生成する。
第2の発明は、第1の発明において更に次の特徴を有する。
前記遠隔施設は、更に、信号機の発光部の灯火状態を模擬した模擬画像データが格納されたデータベースを備える。
前記閾値は、前記閾値に相当する第1閾値と、前記第1閾値よりも低い第2閾値と、を含む。
前記プロセッサは、前記画像生成処理において、更に、
前記認識尤度が前記第1閾値以下であると判定された場合、前記認識尤度が前記第2閾値以下であるか否かを判定し、
前記認識尤度が前記第2閾値以下であると判定された場合、前記超解像画像データに基づいて前記支援画像データを生成し、
前記認識尤度が前記第2閾値以下でないと判定された場合、前記フロント画像データにおいて認識された前記灯火状態を用いた前記データベースの参照により、当該灯火状態に対応する模擬画像データを選択し、
前記フロント画像データにおける前記所定領域に相当する領域に前記模擬画像データを重畳して前記支援画像データを生成する。
前記遠隔施設は、更に、信号機の発光部の灯火状態を模擬した模擬画像データが格納されたデータベースを備える。
前記閾値は、前記閾値に相当する第1閾値と、前記第1閾値よりも低い第2閾値と、を含む。
前記プロセッサは、前記画像生成処理において、更に、
前記認識尤度が前記第1閾値以下であると判定された場合、前記認識尤度が前記第2閾値以下であるか否かを判定し、
前記認識尤度が前記第2閾値以下であると判定された場合、前記超解像画像データに基づいて前記支援画像データを生成し、
前記認識尤度が前記第2閾値以下でないと判定された場合、前記フロント画像データにおいて認識された前記灯火状態を用いた前記データベースの参照により、当該灯火状態に対応する模擬画像データを選択し、
前記フロント画像データにおける前記所定領域に相当する領域に前記模擬画像データを重畳して前記支援画像データを生成する。
第3の発明は、第2の発明において更に次の特徴を有する。
前記遠隔施設は、更に、信号機の発光部の灯火状態を示すアイコンデータが格納されたデータベースを備える。
前記プロセッサは、前記画像生成処理において、更に、
前記認識尤度が前記第2閾値以下でないと判定された場合、前記フロント画像データにおいて認識された前記灯火状態を用いた前記データベースの参照により、当該灯火状態に対応するアイコンデータを選択し、
前記模擬画像データが重畳された領域の近傍に前記アイコンデータを重畳して前記支援画像データを生成する。
前記遠隔施設は、更に、信号機の発光部の灯火状態を示すアイコンデータが格納されたデータベースを備える。
前記プロセッサは、前記画像生成処理において、更に、
前記認識尤度が前記第2閾値以下でないと判定された場合、前記フロント画像データにおいて認識された前記灯火状態を用いた前記データベースの参照により、当該灯火状態に対応するアイコンデータを選択し、
前記模擬画像データが重畳された領域の近傍に前記アイコンデータを重畳して前記支援画像データを生成する。
第4の発明は、車両の走行を遠隔支援する方法であって、次の特徴を有する。
前記遠隔支援を行う遠隔施設のプロセッサは、車両の前方の画像データを示すフロント画像データに基づいて、前記遠隔施設のディスプレイに表示する支援画像データを生成する画像生成処理を行う。
前記プロセッサは、前記画像生成処理において、
前記フロント画像データに信号機の画像が含まれる場合、前記信号機の発光部の灯火状態の認識尤度が閾値以下であるか否かを判定し、
前記認識尤度が前記閾値以下であると判定された場合、前記フロント画像データにおける前記信号機を含む所定領域の超解像度化処理を行い、
前記超解像度化処理による前記所定領域の超解像画像データを、前記フロント画像データにおける前記所定領域に重畳して前記支援画像データを生成する。
前記遠隔支援を行う遠隔施設のプロセッサは、車両の前方の画像データを示すフロント画像データに基づいて、前記遠隔施設のディスプレイに表示する支援画像データを生成する画像生成処理を行う。
前記プロセッサは、前記画像生成処理において、
前記フロント画像データに信号機の画像が含まれる場合、前記信号機の発光部の灯火状態の認識尤度が閾値以下であるか否かを判定し、
前記認識尤度が前記閾値以下であると判定された場合、前記フロント画像データにおける前記信号機を含む所定領域の超解像度化処理を行い、
前記超解像度化処理による前記所定領域の超解像画像データを、前記フロント画像データにおける前記所定領域に重畳して前記支援画像データを生成する。
第5の発明は、第4の発明において更に次の特徴を有する。
前記閾値は、前記閾値に相当する第1閾値と、前記第1閾値よりも低い第2閾値と、を含む。
前記プロセッサは、前記画像生成処理において、更に、
前記認識尤度が前記第1閾値以下であると判定された場合、前記認識尤度が前記第2閾値以下であるか否かを判定し、
前記認識尤度が前記第2閾値以下であると判定された場合、前記超解像画像データに基づいて前記支援画像データを生成し、
前記認識尤度が前記第2閾値以下でないと判定された場合、信号機の発光部の灯火状態を模擬した模擬画像データが格納されたデータベースの参照を、前記フロント画像データにおいて認識された前記灯火状態を用いて行って当該灯火状態に対応する模擬画像データを選択し、
前記フロント画像データにおける前記所定領域に相当する領域に前記模擬画像データを重畳して前記支援画像データを生成する。
前記閾値は、前記閾値に相当する第1閾値と、前記第1閾値よりも低い第2閾値と、を含む。
前記プロセッサは、前記画像生成処理において、更に、
前記認識尤度が前記第1閾値以下であると判定された場合、前記認識尤度が前記第2閾値以下であるか否かを判定し、
前記認識尤度が前記第2閾値以下であると判定された場合、前記超解像画像データに基づいて前記支援画像データを生成し、
前記認識尤度が前記第2閾値以下でないと判定された場合、信号機の発光部の灯火状態を模擬した模擬画像データが格納されたデータベースの参照を、前記フロント画像データにおいて認識された前記灯火状態を用いて行って当該灯火状態に対応する模擬画像データを選択し、
前記フロント画像データにおける前記所定領域に相当する領域に前記模擬画像データを重畳して前記支援画像データを生成する。
第6の発明は、第5の発明において更に次の特徴を有する。
前記プロセッサは、前記画像生成処理において、更に、
前記認識尤度が前記第2閾値以下であると判定された場合、信号機の発光部の灯火状態を示すアイコンデータが格納されたデータベースの参照を、前記フロント画像データにおいて認識された前記灯火状態を用いて行って当該灯火状態に対応するアイコンデータを選択し、
前記模擬画像データが重畳された領域の近傍に前記アイコンデータを重畳して前記支援画像データを生成する。
前記プロセッサは、前記画像生成処理において、更に、
前記認識尤度が前記第2閾値以下であると判定された場合、信号機の発光部の灯火状態を示すアイコンデータが格納されたデータベースの参照を、前記フロント画像データにおいて認識された前記灯火状態を用いて行って当該灯火状態に対応するアイコンデータを選択し、
前記模擬画像データが重畳された領域の近傍に前記アイコンデータを重畳して前記支援画像データを生成する。
第1又は4の発明によれば、灯火状態の認識尤度が閾値以下の場合、信号機を含む所定領域の超解像画像データを含む支援画像データをディスプレイに表示することが可能となる。そのため、認識尤度が閾値以下の場合においても、灯火状態をオペレータが認識可能なレベルまで改善することが可能となる。従って、オペレータによる遠隔支援中の車両の走行安全性を確保することが可能となる。
第2又は5の発明によれば、灯火状態の認識尤度が第2閾値以下の場合には、信号機を含む所定領域の超解像画像データを含む支援画像データをディスプレイに表示することが可能となる。灯火状態の認識尤度が第2閾値超、かつ、第1閾値以下の場合には、信号機を含む所定領域の模擬画像データを含む支援画像データをディスプレイに表示することが可能となる。模擬画像データは、灯火状態を模擬した画像データである。従って、第1又は4の発明による効果と同じ効果を得ることが可能となる。
第3又は6の発明によれば、灯火状態の認識尤度が第2閾値超、かつ、第1閾値以下の場合に、模擬画像データが重畳された領域の近傍にアイコンデータを表示することが可能となる。アイコンデータは、灯火状態を示す画像データである。従って、第2又は5の発明による効果を高めることが可能となる。
以下、図面を参照しながら、本発明の実施形態に係る遠隔支援システム及び遠隔支援方法について説明する。なお、実施形態に係る遠隔支援方法は、実施形態に係る遠隔支援システムにおいて行われるコンピュータ処理により実現される。また、各図において、同一又は相当する部分には同一符号を付してその説明を簡略化し又は省略する。
1.実施形態の概要
1-1.遠隔支援
図1は、実施形態に係る遠隔支援システムにおいて行われる遠隔支援を説明するための概念図である。図1に示される遠隔支援システム1は、遠隔支援の対象である車両2と、車両2と通信を行う遠隔施設3と、を備えている。車両2と遠隔施設3の間の通信は、ネットワーク4を介して行われる。この通信において、車両2から遠隔施設3へは、通信データCOM2が送信される。一方、遠隔施設3から車両2へは、通信データCOM3が送信される。
1-1.遠隔支援
図1は、実施形態に係る遠隔支援システムにおいて行われる遠隔支援を説明するための概念図である。図1に示される遠隔支援システム1は、遠隔支援の対象である車両2と、車両2と通信を行う遠隔施設3と、を備えている。車両2と遠隔施設3の間の通信は、ネットワーク4を介して行われる。この通信において、車両2から遠隔施設3へは、通信データCOM2が送信される。一方、遠隔施設3から車両2へは、通信データCOM3が送信される。
車両2は、例えば、ディーゼルエンジンやガソリンエンジンなどの内燃機関を動力源とする自動車、電動機を動力源とする電気自動車、内燃機関と電動機を備えるハイブリッド自動車である。電動機は、二次電池、水素燃料電池、金属燃料電池、アルコール燃料電池などの電池により駆動される。
車両2は、車両2のドライバの操作により走行する。車両2の走行は、車両2に搭載された制御システムにより行われてもよい。この制御システムは、例えば、ドライバの操作に基づいた車両2の走行を支援し、又は、車両2の自動走行のための制御を行う。ドライバ又は制御システムが遠隔施設3に対して支援要求をした場合、車両2は、遠隔施設3に駐在するオペレータの操作に基づいて走行する。
車両2は、カメラ21を備えている。カメラ21は、車両2の周辺環境の画像(動画)を撮影する。カメラ21は、車両2の少なくとも前方の画像を撮影するために、少なくとも1台設けられる。前方撮影用のカメラ21は、例えば、車両2のフロントガラスの背面に設けられる。カメラ21が取得した画像データ(以下、「フロント画像データ」とも称す。)IMGは、典型的には動画データである。ただし、フロント画像データIMGは静止画像データであってもよい。フロント画像データIMGは、通信データCOM2に含まれる。
遠隔施設3は、車両2のドライバ又は制御システムからの支援要求信号を受け付けた場合、オペレータの操作に基づいて車両2の走行を支援する。遠隔施設3には、ディスプレイ31が設けられている。ディスプレイ31としては、液晶ディスプレイ(LCD:Liquid Crystal Display)及び有機EL(OLED:Organic Light Emitting Diode)ディスプレイが例示される。
オペレータによる走行支援の最中、遠隔施設3は、車両2から受信したフロント画像データIMGに基づいて、ディスプレイ31に表示するためのデータとしての「支援画像データAIMG」を生成する。オペレータは、ディスプレイ31に表示される支援画像データAIMGに基づいて車両2の周辺環境を把握し、車両2に対する支援指示を入力する。遠隔施設3は、この支援指示のデータを車両2に送信する。この支援指示データは、通信データCOM3に含まれる。
オペレータによる支援としては、認識支援及び判断支援が例示される。車両2の制御システムにより自動走行が行われる場合を考える。この場合は、自動走行の支援が必要となることがある。例えば、車両2の前方に存在する信号機に日光が当たっている場合、信号機の発光部(例えば、青色、黄色及び赤色発光部、矢印発光部)の灯火状態の認識精度が低下する。灯火状態を認識することができない場合、どのような行動をどのタイミングで実行すべきか判断することも困難となる。このような場合、灯火状態の認識支援、及び/又は、オペレータが認識した灯火状態に基づいた車両2の行動の判断支援が行われる。
オペレータによる支援には、遠隔運転も含まれる。遠隔運転は、車両2の制御システムにより車両2が自動走行している場合だけでなく、車両2のドライバの操作により車両2が走行している場合にも行われる。遠隔運転において、オペレータは、ディスプレイ31に表示される支援画像データAIMGを参考にして、操舵、加速、及び減速の少なくとも一つを含む車両2の運転操作を行う。この場合、オペレータによる支援指示は、車両2の運転操作の内容を示す。車両2は、この支援指示のデータに従って、操舵、加速、及び減速の少なくとも一つを行う。
1-2.実施形態の特徴
図2は、ディスプレイ31に表示される支援画像データAIMGの一例を示す模式図である。図2に示される例では、車両2の前方のフロント画像データIMGに基づいて生成された交差点付近の支援画像データAIMGが、ディスプレイ31に表示されている。信号機TSは、この交差点における車両2の通行を指示するものである。車両2の走行の支援を行う場合、オペレータは、支援画像データAIMGに含まれる信号機TSの発光部の灯火状態を認識して支援指示を入力する。
図2は、ディスプレイ31に表示される支援画像データAIMGの一例を示す模式図である。図2に示される例では、車両2の前方のフロント画像データIMGに基づいて生成された交差点付近の支援画像データAIMGが、ディスプレイ31に表示されている。信号機TSは、この交差点における車両2の通行を指示するものである。車両2の走行の支援を行う場合、オペレータは、支援画像データAIMGに含まれる信号機TSの発光部の灯火状態を認識して支援指示を入力する。
ところで、車両2の走行安全性を確保するためには、灯火状態を高解像度で認識できることが望ましい。特に、遠隔運転が行われる場合は、車両2から信号機TSまでの距離が離れていても、灯火状態を高解像度で認識できることが望ましい。しかしながら、通信データCOM2のデータ通信量には限度がある。そのため、遠隔施設3が受信するフロント画像データIMGの解像度がそれほど高くないことが予想される。
1-2-1.第1の例
そこで、実施形態では、支援画像データAIMGの生成の際、車両2から受信したフロント画像データIMGに含まれる灯火状態の認識の尤度(Likelihood)LHを取得する。ここで、認識尤度LHは、ディープラーニングを利用した物標検出における出力の確からしさを示す数値である。認識尤度LHの具体例としては、YOLO(You Only Look Once)ネットワークを利用したディープラーニングの物標の分類結果と共に出力される当該分類結果の指標が挙げられる。なお、実施形態に適用可能な認識尤度LHの取得の手法は特に限定されない。
そこで、実施形態では、支援画像データAIMGの生成の際、車両2から受信したフロント画像データIMGに含まれる灯火状態の認識の尤度(Likelihood)LHを取得する。ここで、認識尤度LHは、ディープラーニングを利用した物標検出における出力の確からしさを示す数値である。認識尤度LHの具体例としては、YOLO(You Only Look Once)ネットワークを利用したディープラーニングの物標の分類結果と共に出力される当該分類結果の指標が挙げられる。なお、実施形態に適用可能な認識尤度LHの取得の手法は特に限定されない。
灯火状態の認識尤度LH(以下、「認識尤度LHLMP」とも称す。)が低い場合は、ディスプレイ31に表示されたフロント画像データIMG(つまり、支援画像データAIMG)を見たときに、オペレータが灯火状態を認識できない可能性がある。そこで、実施形態の第1の例では、認識尤度LHLMPが閾値TH以下の場合、信号機TSを含む認識領域の画像データに「超解像技術」を適用することによって、当該画像データの画質を改善する。超解像技術は、入力される低解像度の画像データを高解像度のそれに変換(マッピング)する技術である。
超解像技術としては、例えば下記文献の技術が例示される。この文献には、CNN(Convolutional Neural Network)に基づくディープラーニングを超解像(Super Resolution)に適用したSRCNNが開示されている。入力される低解像度の画像データを高解像度のそれに変換するモデル(以下、「超解像モデル」とも称す。)が、機械学習により得られる。
Chao Dong, Chen Change Loy, Kaiming He, and Xiaoou Tang, "Image Super-Resolution Using Deep Convolutional Networks", arXiv:1501.00092v3 [cs.CV], July 31, 2015 (https://arxiv.org/pdf/1501.00092.pdf)
以下、超解像技術の適用により改善された所定領域の画像データを「超解像画像データSIMG」と称す。実施形態では、超解像画像データSIMGが生成された場合、この超解像画像データSIMGと、フロント画像データIMGとの合成が行われる。図3は、認識尤度LHLMPが閾値TH以下の場合に生成される支援画像データAIMGの一例を示す模式図である。図3に示される例では、フロント画像データIMGの所定領域に超解像画像データSIMGを重畳することにより生成された支援画像データAIMGが、ディスプレイ31に表示される。
一方、認識尤度LHLMPが高い場合は、ディスプレイ31に表示されたフロント画像データIMG(つまり、支援画像データAIMG)を見たときに、オペレータが灯火状態を容易に認識できると推定される。そこで、実施形態では、認識尤度LHLMPが閾値THよりも高い場合は超解像技術の適用を行わず、フロント画像データIMGをそのまま用いて支援画像データAIMGが生成される。
図4は、認識尤度LHLMPと、支援画像データAIMGとの関係の一例を示した図である。図4に示されるように、認識尤度LHLMPが閾値THよりも高い場合は、フロント画像データIMGに基づいて支援画像データAIMGが生成される。一方、認識尤度LHLMPが閾値TH以下の場合は、フロント画像データIMGと、超解像画像データSIMGとに基づいて支援画像データAIMGが生成される。
1-2-2.第2の例
第2の例では、認識尤度LHLMPが閾値TH以下の場合の支援画像データAIMGの生成手法を更に場合分けする。第2の例では、閾値THと、この閾値THよりも小さな閾値とが設定される。説明の便宜上、前者を「第1閾値TH1」と称し、後者を「第2閾値TH2」と称す(TH1>TH2)。
第2の例では、認識尤度LHLMPが閾値TH以下の場合の支援画像データAIMGの生成手法を更に場合分けする。第2の例では、閾値THと、この閾値THよりも小さな閾値とが設定される。説明の便宜上、前者を「第1閾値TH1」と称し、後者を「第2閾値TH2」と称す(TH1>TH2)。
第2の例では、認識尤度LHLMPが第2閾値TH2超、かつ、第1閾値TH1以下の場合、灯火状態に対応する模擬画像データQIMGの選択が行われる。模擬画像データQIMGは、発光部の灯火状態を模擬した画像データである。模擬画像データQIMGは、実際の灯火状態を示すデータの代替データとして事前に設定されている。
認識尤度LHLMPが第1閾値TH1以下であったとしても、認識尤度LHLMPが第2閾値TH2超であれば、灯火状態の分類結果に一定の確からしさがあると推定される。そこで、第2の例では、選択された模擬画像データQIMGと、フロント画像データIMGとの合成が行われる。
認識尤度LHLMPが第2閾値TH2以下の場合の支援画像データAIMGの生成手法は、第1の例で説明したそれと同じである。つまり、この場合は、超解像画像データSIMGの生成が行われる。模擬画像データQIMGの選択又は超解像画像データSIMGの生成が行われた場合、何れかの画像データと、フロント画像データIMGとの合成が行われる。
図5は、認識尤度LHLMPが閾値TH以下の場合に生成される支援画像データAIMGの別の例を示す模式図である。図5に示される例では、フロント画像データIMGの所定領域に、超解像画像データSIMG又は模擬画像データQIMGを重畳することにより生成された支援画像データAIMGが、ディスプレイ31に表示される。
認識尤度LHLMPが閾値THよりも高い場合の支援画像データAIMGの生成手法は、第1の例で説明したそれと同じである。つまり、この場合は、フロント画像データIMGをそのまま用いて支援画像データAIMGが生成される。
図6は、認識尤度LHLMPと、支援画像データAIMGとの関係の別の例を示した図である。図6に示されるように、認識尤度LHLMPが第1閾値TH1(即ち、図4に示した閾値TH))よりも高い場合は、フロント画像データIMGに基づいて支援画像データAIMGが生成される。認識尤度LHLMPが第2閾値TH2超、かつ、第1閾値TH1以下の場合は、フロント画像データIMGと、模擬画像データQIMGとに基づいて支援画像データAIMGが生成される。認識尤度LHLMPが第2閾値TH2以下の場合は、フロント画像データIMGと、超解像画像データSIMGとに基づいて支援画像データAIMGが生成される。
1-2-3.第3の例
第3の例では、認識尤度LHLMPが第2閾値TH2超、かつ、第1閾値TH1以下の場合、灯火状態に対応するアイコンデータICNの選択が行われる。第2の例で説明したように、認識尤度LHLMPが第1閾値TH1以下であったとしても、認識尤度LHLMPが第2閾値TH2超であれば、灯火状態の分類結果に一定の確からしさがあると推定される。そこで、第3の例では、第2の例で説明した模擬画像データQIMGを補足するデータとして、アイコンデータICNが選択される。アイコンデータICNは、灯火状態にある発光部を示すデータであり、事前に設定されている。例えば、青色発光部が灯火状態にある場合のアイコンデータは「信号:青」を示す。
第3の例では、認識尤度LHLMPが第2閾値TH2超、かつ、第1閾値TH1以下の場合、灯火状態に対応するアイコンデータICNの選択が行われる。第2の例で説明したように、認識尤度LHLMPが第1閾値TH1以下であったとしても、認識尤度LHLMPが第2閾値TH2超であれば、灯火状態の分類結果に一定の確からしさがあると推定される。そこで、第3の例では、第2の例で説明した模擬画像データQIMGを補足するデータとして、アイコンデータICNが選択される。アイコンデータICNは、灯火状態にある発光部を示すデータであり、事前に設定されている。例えば、青色発光部が灯火状態にある場合のアイコンデータは「信号:青」を示す。
アイコンデータICNの選択が行われた場合、このアイコンデータICNと、模擬画像データQIMGと、フロント画像データIMGとの合成が行われる。図7は、認識尤度LHLMPが第2閾値TH2超、かつ、第1閾値TH1以下の場合に生成される支援画像データAIMGの例を示す模式図である。図7に示される例では、フロント画像データIMGの所定領域に模擬画像データQIMGが重畳され、かつ、この所定領域の近傍にアイコンデータICNが重畳された支援画像データAIMGが、ディスプレイ31に表示される。
以上説明したように、実施形態によれば、認識尤度LHLMPに応じて生成された支援画像データAIMGをディスプレイ31に表示することが可能となる。従って、認識尤度LHLMPが高い場合だけでなく、認識尤度LHLMPが低い場合においても、オペレータが灯火状態を容易に認識することが可能となる。従って、オペレータによる遠隔支援中の車両2の走行安全性を確保することが可能となる。
以下、実施形態に係る遠隔支援システムについて、詳細に説明する。
2.遠隔支援システム
2-1.車両の構成例
図8は、図1に示した車両2の構成例を示すブロック図である。図8に示されるように、車両2は、カメラ21と、センサ群22と、通信装置23と、データ処理装置24と、を備えている。カメラ21、センサ群22及び通信装置23と、データ処理装置24とは、例えば、車載のネットワーク(例えば、CAN(Car Area Network))により接続されている。なお、カメラ21の説明については、図1の説明において既に述べたとおりである。
2-1.車両の構成例
図8は、図1に示した車両2の構成例を示すブロック図である。図8に示されるように、車両2は、カメラ21と、センサ群22と、通信装置23と、データ処理装置24と、を備えている。カメラ21、センサ群22及び通信装置23と、データ処理装置24とは、例えば、車載のネットワーク(例えば、CAN(Car Area Network))により接続されている。なお、カメラ21の説明については、図1の説明において既に述べたとおりである。
センサ群22は、車両2の状態を検出する状態センサを含んでいる。状態センサとしては、速度センサ、加速度センサ、ヨーレートセンサ及び舵角センサが例示される。センサ群22は、また、車両2の位置及び方位を検出する位置センサを含んでいる。位置センサとしては、GNSS(Global Navigation Satellite System)センサが例示される。センサ群20は、更に、カメラ21以外の認識センサを含んでいてもよい。認識センサは、電波又は光を利用して車両2の周辺環境を認識(検出)する。認識センサとしては、ミリ波レーダ及びLIDAR(Laser Imaging Detection and Ranging)が例示される。
通信装置23は、ネットワーク4の基地局(不図示)との間で無線通信を行う。この無線通信の通信規格としては、4G、LTE、または5G等の移動体通信の規格が例示される。通信装置23の接続先には、遠隔施設3が含まれる。遠隔施設3との通信において、通信装置23は、データ処理装置24から受け取った通信データCOM2を、遠隔施設3に送信する。
データ処理装置24は、車両2が取得した各種データを処理するためのコンピュータである。データ処理装置24は、プロセッサ25と、メモリ26と、インターフェース27と、を備える。プロセッサ25は、CPU(Central Processing Unit)を含んでいる。メモリ26は、DDRメモリなどの揮発性のメモリであり、プロセッサ25が使用するプログラムの展開及び各種データの一時保存を行う。車両2が取得した各種データは、メモリ26に格納される。この各種データには、上述したフロント画像データIMGが含まれる。インターフェース27は、カメラ21、センサ群22等の外部装置とのインターフェースである。
プロセッサ25は、フロント画像データIMGをエンコードして、インターフェース27を介して通信装置23に出力する。エンコード処理に際し、フロント画像データIMGは圧縮されてもよい。エンコードされたフロント画像データIMGは、通信データCOM2に含まれる。なお、フロント画像データIMGのエンコード処理は、プロセッサ25及びメモリ26を用いて実行されなくてもよい。例えば、GPU(Graphics Processing Unit)やDSP(Digital Signal Processor)でのソフトウェア処理、又は、ASICやFPGAによるハードウェア処理により、上述した各種処理が実行されてもよい。
2-2.遠隔施設の構成例
図9は、図1に示した遠隔施設3の構成例を示すブロック図である。図9に示されるように、遠隔施設3は、ディスプレイ31と、入力装置32と、データベース33と、通信装置34と、データ処理装置35と、を備えている。入力装置32、データベース33及び通信装置34と、データ処理装置35とは、専用のネットワークより接続されている。なお、ディスプレイ31の説明については、図1の説明において既に述べたとおりである。
図9は、図1に示した遠隔施設3の構成例を示すブロック図である。図9に示されるように、遠隔施設3は、ディスプレイ31と、入力装置32と、データベース33と、通信装置34と、データ処理装置35と、を備えている。入力装置32、データベース33及び通信装置34と、データ処理装置35とは、専用のネットワークより接続されている。なお、ディスプレイ31の説明については、図1の説明において既に述べたとおりである。
入力装置32は、遠隔施設3のオペレータが操作する装置である。入力装置32は、例えば、オペレータによる入力を受け付ける入力部と、この入力に基づいて支援指示データを生成及び出力する制御回路と、を備えている。入力部としては、タッチパネル、マウス、キーボード、ボタン及びスイッチが例示される。オペレータによる入力としては、ディスプレイ31に表示されたカーソルの移動操作と、ディスプレイ31に表示されたボタンの選択操作と、が例示される。
オペレータが車両2の遠隔運転を行う場合は、入力装置32が走行用の入力装置を備えていてもよい。この走行用の入力装置としては、ステアリングホイール、シフトレバー、アクセルペダル及びブレーキペダルが例示される。
データベース33は、フラッシュメモリやHDD(Hard Disk Drive)といった不揮発性の記憶媒体である。データベース33には、車両2の走行の遠隔支援(又は車両2の遠隔運転)に必要な各種プログラム及び各種データが格納されている。この各種データとしては、超解像モデルMSRが例示される。超解像モデルMSRは、信号機TSを含む認識領域のサイズとして想定されるサイズの数に応じて複数準備されている。
超解像モデルMSRが複数準備される理由は、次のとおりである。即ち、フロント画像データIMGにディープラーニング(例えば、上述したYOLOネットワークを利用したディープラーニング)を適用することで信号機TSが検出されると、この信号機TSを含む認識領域の画像データが出力される。ただし、この画像データのサイズは任意である。一方、超解像度化のためのディープラーニング(例えば、上述したSRCNN)では、サイズが固定された画像データを入力する必要がある。そのため、前者と後者のアスペクト比が異なるような場合は、超解像度化された画像データが歪んでしまう。
データベース33に格納される各種データには、模擬画像データQIMGが含まれる。この各種データには、模擬画像データQIMGが更に含まれてもよい。図9に示される例では、模擬画像データQIMG及びアイコンデータICNがデータベース33に格納されている。模擬画像データQIMG及びアイコンデータICNは、想定される灯火状態の数に応じて準備される。超解像モデルMSR同様、ディープラーニングにより出力される信号機TSを含む領域のサイズの数に応じて、サイズの異なる模擬画像データQIMG及びアイコンデータICNがそれぞれ複数準備されてもよい。
通信装置34は、ネットワーク4の基地局との間で無線通信を行う。この無線通信の通信規格としては、4G、LTE、または5G等の移動体通信の規格が例示される。通信装置34の通信先には、車両2が含まれる。車両2との通信において、通信装置34は、データ処理装置35から受け取った通信データCOM3を、車両2に送信する。
データ処理装置35は、各種データを処理するためのコンピュータである。データ処理装置35は、少なくともプロセッサ36と、メモリ37と、インターフェース38と、を備えている。プロセッサ36はCPUを含んでいる。メモリ37は、プロセッサ36が使用するプログラムの展開及び各種データの一時保存を行う。入力装置32からの入力信号や、遠隔施設3が取得した各種データは、メモリ37に格納される。この各種データには、通信データCOM2に含まれるフロント画像データIMGが含まれる。インターフェース38は、入力装置32、データベース33等の外部装置とのインターフェースである。
プロセッサ36は、フロント画像データIMGをデコードして支援画像データAIMGを生成する「画像生成処理」を行う。フロント画像データIMGが圧縮されている場合、デコード処理において当該フロント画像データIMGが伸長される。プロセッサ36は、また、生成した支援画像データAIMGを、インターフェース38を介してディスプレイ31に出力する。
なお、上述したフロント画像データIMGのデコード処理、画像生成処理、及び支援画像データAIMGの出力処理は、プロセッサ36、メモリ37及びデータベース33を用いて実行されなくてもよい。例えば、GPUやDSPでのソフトウェア処理、又は、ASICやFPGAによるハードウェア処理により、上述した各種処理が実行されてもよい。
2-3.車両のデータ処理装置の機能構成例
図10は、図8に示したデータ処理装置24の機能構成例を示すブロック図である。図10に示されるように、データ処理装置24は、データ取得部241と、データ処理部242と、通信処理部243と、を備えている。
図10は、図8に示したデータ処理装置24の機能構成例を示すブロック図である。図10に示されるように、データ処理装置24は、データ取得部241と、データ処理部242と、通信処理部243と、を備えている。
データ取得部241は、車両2の周辺環境データ、走行状態データ及び位置データを取得する。周辺環境データとしては、上述したフロント画像データIMGが例示される。走行状態データとしては、車両2の走行速度データ、加速度データ、ヨーレートデータ及び舵角データが例示される。これらの走行状態データは、センサ群22により測定される。位置データは、GNSSセンサにより測定される。
データ処理部242は、データ取得部241が取得した各種データを処理する。各種データの処理には、上述したフロント画像データIMGのエンコード処理が含まれる。
通信処理部243は、データ処理部242によりエンコードされたフロント画像データIMG(即ち、通信データCOM2)を、通信装置23を介して遠隔施設3(通信装置34)に送信する。
2-4.遠隔施設のデータ処理装置の機能構成例
図11は、図9に示したデータ処理装置35の機能構成例を示すブロック図である。図11に示されるように、データ処理装置35は、データ取得部351と、データ処理部352と、表示制御部353と、通信処理部354と、を備えている。
図11は、図9に示したデータ処理装置35の機能構成例を示すブロック図である。図11に示されるように、データ処理装置35は、データ取得部351と、データ処理部352と、表示制御部353と、通信処理部354と、を備えている。
データ取得部351は、入力装置32からの入力信号及び車両2からの通信データCOM2を取得する。
データ処理部352は、データ取得部351が取得した各種データを処理する。各種データの処理には、支援指示データをエンコードする処理が含まれる。エンコードされた支援指示データは、通信データCOM3に含まれる。各種データの処理には、上述したフロント画像データIMGのデコード処理、画像生成処理、及び支援画像データAIMGの出力処理が含まれる。画像生成処理の詳細については後述される。
表示制御部353は、オペレータに対して提供するディスプレイ31の表示内容を制御する。この表示内容の制御は、支援画像データAIMGに基づいて行われる。表示制御部353は、また、データ取得部351により取得された入力信号に基づいて、表示内容を制御する。入力信号に基づいた表示内容の制御では、例えば、入力信号に基づいて表示内容が拡大又は縮小され、又は、表示内容の切り替え(遷移)が行われる。別の例では、入力信号に基づいてディスプレイ31上に表示されたカーソルが移動され、又は、ディスプレイ31に表示されたボタンが選択される。
通信処理部354は、データ処理部352によりエンコードされた支援指示データ(即ち、通信データCOM3)を、通信装置34を介して車両2(通信装置23)に送信する。
2-5.画像生成処理の例
図12は、図9に示したデータ処理装置35(プロセッサ36)により実行される画像生成処理の流れを示すフローチャートである。図12に示されるルーチンは、例えば、遠隔施設3に対する支援要求信号をプロセッサ36が受け付けた場合に、所定の制御周期で繰り返し実行される。なお、支援要求信号は、通信データCOM2に含まれる。
図12は、図9に示したデータ処理装置35(プロセッサ36)により実行される画像生成処理の流れを示すフローチャートである。図12に示されるルーチンは、例えば、遠隔施設3に対する支援要求信号をプロセッサ36が受け付けた場合に、所定の制御周期で繰り返し実行される。なお、支援要求信号は、通信データCOM2に含まれる。
図12に示されるルーチンでは、まず、物標の検出が行われる(ステップS11)。物標の検出は、エンコードされたフロント画像データIMGにディープラーニングを適用することにより行われる。このディープラーニングとしては、上述したYOLOネットワークを利用したディープラーニングが例示される。YOLOネットワークを利用したディープラーニングによれば、フロント画像データIMGに含まれる物標を検出でき、また、当該物標の認識尤度LHが得られる。
ステップS11の処理に続いて、認識尤度LHLMPの出力があるか否かが判定される(ステップS12)。既に説明したように、認識尤度LHLMPは、灯火状態の認識尤度LHである。そのため、ステップS12の判定結果が否定的な場合は、フロント画像データIMGに信号機TSの画像が含まれていないと推定される。故にこの場合は、フロント画像データIMGに基づいた支援画像データAIMGの生成が行われる(ステップS13)。
ステップS12の判定結果が肯定的な場合は、認識尤度LHLMPが第1閾値TH1以下であるか否かが判定される(ステップS14)。ステップS14の判定結果が否定的な場合は、ディスプレイ31に表示されたフロント画像データIMG(つまり、支援画像データAIMG)を見たときに、オペレータが灯火状態を容易に認識できると推定される。そのため、この場合は、上述したステップS13の処理が行われる。
ステップS14の判定結果が肯定的な場合は、ディスプレイ31に表示されたフロント画像データIMG(つまり、支援画像データAIMG)を見たときに、オペレータが灯火状態を認識できない可能性がある。そのため、この場合は、認識尤度LHLMPが第2閾値TH2超であるか否かが判定される(ステップS15)。第1閾値TH1と第2閾値TH2の大小関係については既に説明したとおりである(TH1>TH2)。
ステップS15の判定結果が肯定的な場合は、ステップS11の処理において検出された灯火状態の分類結果に一定の確からしさがあると推定される。そのため、この場合は、模擬画像データQIMGの選択が行われる(ステップS16)。模擬画像データQIMGの選択は、具体的に、ステップS11の処理において検出された灯火状態を用いたデータベース33の参照により行われる。
ステップS16の別の例では、模擬画像データQIMG及びアイコンデータICNが選択される。アイコンデータICNの選択は、模擬画像データQIMGの選択手法と同様である。即ち、アイコンデータICNの選択は、ステップS11の処理において検出された灯火状態を用いたデータベース33の参照により行われる。
ステップS15の判定結果が否定的な場合、超解像度化処理が行われる(ステップS17)。なお、ステップS15及びS16の処理はスキップしてもよい。即ち、ステップS14の判定結果が肯定的な場合、ステップS15及びS16の処理を行わずにステップS17の処理を行ってもよい。この場合の一連の処理は、図3及び4で説明した例に対応する処理である。
ここで、超解像度化処理について、図13を参照して説明する。図13は、図12のステップS17に示した超解像度化処理の流れを示すフローチャートである。
図13に示されるルーチンでは、信号機TSの認識領域の中心位置及びサイズの計算が行われる(ステップS171)。既に説明したように、ステップS11の処理では、フロント画像データIMGに含まれる信号機TSの検出が行われる。信号機TSが検出されると、この信号機TSを含む認識領域の画像データが出力される。ステップS171の処理では、この画像の中心位置の座標が計算され、また、この画像のサイズが計算される。
ステップS171に続いて、超解像モデルMSRの選択が行われる(ステップS172)。本ステップS172の処理では、ステップS171の処理で計算された認識領域の画像サイズを用いたデータベース33の参照が行われる。そして、当該画像サイズに近いサイズを有し、かつ、縦及び横方向の長さが当該画像サイズよりも長い入力を有する超解像モデルMSRが選択される。
図14は、ステップS172の処理の概要を示す図である。既に説明したように、超解像モデルMSRは、信号機TSを含む認識領域のサイズとして想定されるサイズの数に応じて複数準備されている。図14に示される超解像モデルMSR1、MSR2及びMSR3は、複数の超解像モデルMSRの一例である。ステップS172の処理では、上述したサイズ条件を満たす超解像モデルMSR2が選択される。
ステップS172の処理に続いて、超解像モデルMSRに入力する画像の抽出が行われる(ステップS173)。本ステップS173の処理では、ステップS172の処理で選択された超解像モデルMSR(図14に示した例では、超解像モデルMSR2)の入力に合わせたサイズの画像を、フロント画像データIMGから抽出する。画像の抽出は、具体的に、ステップS171で計算された中心位置の座標を中心とする領域を、超解像モデルMSRの入力に合わせたサイズだけ切り取ることにより行われる。
ステップS173の処理に続いて、画像の高解像度化が行われる(ステップS174)。本ステップS174の処理では、ステップS173の処理で抽出された画像データが、ステップS172の処理で選択した超解像モデルMSR(図14に示した例では、超解像モデルMSR2)に入力される。
図12に戻り、画像生成処理の流れの説明を続ける。ステップS16又はS17の処理に続いて、画像データの合成により支援画像データAIMGの生成が行われる(ステップS18)。例えば、ステップS16において模擬画像データQIMGが選択された場合は、模擬画像データQIMGと、フロント画像データIMGとの合成により支援画像データAIMGが生成される。模擬画像データQIMG及びアイコンデータICNが選択されている場合は、これらのデータと、フロント画像データIMGとの合成により支援画像データAIMGが生成される。ステップS17において超解像画像データSIMGが生成された場合は、この超解像画像データSIMGと、フロント画像データIMGとの合成により支援画像データAIMGが生成される。
画像データの合成に際しては、図14のステップS173の処理において抽出された画像の領域の位置に相当する領域に模擬画像データQIMG又は超解像画像データSIMGが重畳される。模擬画像データQIMG及びアイコンデータICNが選択されている場合は、当該模擬画像データQIMGが重畳された領域の近傍に当該アイコンデータICNが重畳される。
3.効果
以上説明した実施形態によれば、認識尤度LHLMPに応じて生成された支援画像データAIMGをディスプレイ31に表示することが可能となる。特に、認識尤度LHLMPが第1閾値TH1以下の場合には、少なくとも超解像画像データSIMGがディスプレイ31に表示される。従って、認識尤度LHLMPが高い場合だけでなく、認識尤度LHLMPが低い場合においても、オペレータによる灯火状態の認識レベルを高めることが可能となる。故に、オペレータによる遠隔支援中の車両2の走行安全性を確保することが可能となる。
以上説明した実施形態によれば、認識尤度LHLMPに応じて生成された支援画像データAIMGをディスプレイ31に表示することが可能となる。特に、認識尤度LHLMPが第1閾値TH1以下の場合には、少なくとも超解像画像データSIMGがディスプレイ31に表示される。従って、認識尤度LHLMPが高い場合だけでなく、認識尤度LHLMPが低い場合においても、オペレータによる灯火状態の認識レベルを高めることが可能となる。故に、オペレータによる遠隔支援中の車両2の走行安全性を確保することが可能となる。
また、実施形態によれば、認識尤度LHLMPが第2閾値TH2以下の場合に超解像画像データSIMGをディスプレイ31に表示し、その一方で、認識尤度LHLMPが第2閾値TH2超、かつ、第1閾値TH1以下の場合に模擬画像データQIMGをディスプレイ31に表示することも可能となる。従って、この場合においても、灯火状態の認識レベルを高めることが可能となる。
また、実施形態によれば、認識尤度LHLMPが第2閾値TH2超、かつ、第1閾値TH1以下の場合に、模擬画像データQIMG及びアイコンデータICNをディスプレイ31に表示することも可能となる。従って、これらのデータを組み合わせた表示によって、灯火状態の認識レベルをより一層高めることが可能となる。
1 遠隔支援システム
2 車両
3 遠隔施設
4 ネットワーク
21 カメラ
23,34 通信装置
24,35 データ処理装置
25,36 プロセッサ
26,37 メモリ
27,38 インターフェース
31 ディスプレイ
32 入力装置
33 データベース
IMG フロント画像データ
ICN アイコンデータ
MSR,MSR1,MSR2,MSR3 超解像モデル
AIMG 支援画像データ
QIMG 模擬画像データ
SIMG 超解像画像データ
COM2,COM3 通信データ
2 車両
3 遠隔施設
4 ネットワーク
21 カメラ
23,34 通信装置
24,35 データ処理装置
25,36 プロセッサ
26,37 メモリ
27,38 インターフェース
31 ディスプレイ
32 入力装置
33 データベース
IMG フロント画像データ
ICN アイコンデータ
MSR,MSR1,MSR2,MSR3 超解像モデル
AIMG 支援画像データ
QIMG 模擬画像データ
SIMG 超解像画像データ
COM2,COM3 通信データ
Claims (6)
- 車両と、前記車両の走行を支援する遠隔施設と、を備える遠隔支援システムであって、
前記遠隔施設は、
前記車両の前方の画像データを示すフロント画像データが格納されるメモリと、
前記フロント画像データに基づいて、前記遠隔施設のディスプレイに表示する支援画像データを生成する画像生成処理を行うプロセッサと、
を備え、
前記プロセッサは、前記画像生成処理において、
前記フロント画像データに信号機の画像が含まれる場合、前記信号機の発光部の灯火状態の認識尤度が閾値以下であるか否かを判定し、
前記認識尤度が前記閾値以下であると判定された場合、前記フロント画像データにおける前記信号機を含む所定領域の超解像度化処理を行い、
前記超解像度化処理による前記所定領域の超解像画像データを、前記フロント画像データにおける前記所定領域に相当する領域に重畳して前記支援画像データを生成する
ことを特徴とする遠隔支援システム。 - 請求項1に記載の遠隔支援システムであって、
前記遠隔施設は、更に、信号機の発光部の灯火状態を模擬した模擬画像データが格納されたデータベースを備え、
前記閾値は、前記閾値に相当する第1閾値と、前記第1閾値よりも低い第2閾値と、を含み、
前記プロセッサは、前記画像生成処理において、更に、
前記認識尤度が前記第1閾値以下であると判定された場合、前記認識尤度が前記第2閾値以下であるか否かを判定し、
前記認識尤度が前記第2閾値以下であると判定された場合、前記超解像画像データに基づいて前記支援画像データを生成し、
前記認識尤度が前記第2閾値以下でないと判定された場合、前記フロント画像データにおいて認識された前記灯火状態を用いた前記データベースの参照により、当該灯火状態に対応する模擬画像データを選択し、
前記フロント画像データにおける前記所定領域に相当する領域に前記模擬画像データを重畳して前記支援画像データを生成する
ことを特徴とする遠隔支援システム。 - 請求項2に記載の遠隔支援システムであって、
前記遠隔施設は、更に、信号機の発光部の灯火状態を示すアイコンデータが格納されたデータベースを備え、
前記プロセッサは、前記画像生成処理において、更に、
前記認識尤度が前記第2閾値以下でないと判定された場合、前記フロント画像データにおいて認識された前記灯火状態を用いた前記データベースの参照により、当該灯火状態に対応するアイコンデータを選択し、
前記模擬画像データが重畳された領域の近傍に前記アイコンデータを重畳して前記支援画像データを生成する
ことを特徴とする遠隔支援システム。 - 車両の走行を遠隔支援する遠隔支援方法であって、
前記遠隔支援を行う遠隔施設のプロセッサが、
車両の前方の画像データを示すフロント画像データに基づいて、前記遠隔施設のディスプレイに表示する支援画像データを生成する画像生成処理を行い、
前記プロセッサは、前記画像生成処理において、
前記フロント画像データに信号機の画像が含まれる場合、前記信号機の発光部の灯火状態の認識尤度が閾値以下であるか否かを判定し、
前記認識尤度が前記閾値以下であると判定された場合、前記フロント画像データにおける前記信号機を含む所定領域の超解像度化処理を行い、
前記超解像度化処理による前記所定領域の超解像画像データを、前記フロント画像データにおける前記所定領域に重畳して前記支援画像データを生成する
ことを特徴とする遠隔支援方法。 - 請求項4に記載の遠隔支援方法であって、
前記閾値は、前記閾値に相当する第1閾値と、前記第1閾値よりも低い第2閾値と、を含み、
前記プロセッサは、前記画像生成処理において、更に、
前記認識尤度が前記第1閾値以下であると判定された場合、前記認識尤度が前記第2閾値以下であるか否かを判定し、
前記認識尤度が前記第2閾値以下であると判定された場合、前記超解像画像データに基づいて前記支援画像データを生成し、
前記認識尤度が前記第2閾値以下でないと判定された場合、信号機の発光部の灯火状態を模擬した模擬画像データが格納されたデータベースの参照を、前記フロント画像データにおいて認識された前記灯火状態を用いて行って当該灯火状態に対応する模擬画像データを選択し、
前記フロント画像データにおける前記所定領域に相当する領域に前記模擬画像データを重畳して前記支援画像データを生成する
ことを特徴とする遠隔支援方法。 - 請求項5に記載の遠隔支援方法であって、
前記プロセッサは、前記画像生成処理において、更に、
前記認識尤度が前記第2閾値以下であると判定された場合、信号機の発光部の灯火状態を示すアイコンデータが格納されたデータベースの参照を、前記フロント画像データにおいて認識された前記灯火状態を用いて行って当該灯火状態に対応するアイコンデータを選択し、
前記模擬画像データが重畳された領域の近傍に前記アイコンデータを重畳して前記支援画像データを生成する
ことを特徴とする遠隔支援方法。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021079309A JP2022172945A (ja) | 2021-05-07 | 2021-05-07 | 遠隔支援システム及び遠隔支援方法 |
US17/735,626 US20220358620A1 (en) | 2021-05-07 | 2022-05-03 | Remote assistance system and remote assistance method |
CN202210484881.3A CN115311877A (zh) | 2021-05-07 | 2022-05-06 | 远程支援系统以及远程支援方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021079309A JP2022172945A (ja) | 2021-05-07 | 2021-05-07 | 遠隔支援システム及び遠隔支援方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022172945A true JP2022172945A (ja) | 2022-11-17 |
Family
ID=83855228
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021079309A Pending JP2022172945A (ja) | 2021-05-07 | 2021-05-07 | 遠隔支援システム及び遠隔支援方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20220358620A1 (ja) |
JP (1) | JP2022172945A (ja) |
CN (1) | CN115311877A (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11620522B2 (en) * | 2019-12-31 | 2023-04-04 | Magna Electronics Inc. | Vehicular system for testing performance of headlamp detection systems |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5747549B2 (ja) * | 2011-02-18 | 2015-07-15 | 株式会社豊田中央研究所 | 信号機検出装置及びプログラム |
WO2015180090A1 (en) * | 2014-05-29 | 2015-12-03 | Empire Technology Development Llc | Remote driving assistance |
CN107179767B (zh) * | 2016-03-10 | 2021-10-08 | 松下电器(美国)知识产权公司 | 驾驶控制装置、驾驶控制方法以及非瞬时性记录介质 |
US10558873B2 (en) * | 2017-12-14 | 2020-02-11 | Waymo Llc | Methods and systems for controlling extent of light encountered by an image capture device of a self-driving vehicle |
CN108681994B (zh) * | 2018-05-11 | 2023-01-10 | 京东方科技集团股份有限公司 | 一种图像处理方法、装置、电子设备及可读存储介质 |
DE112020002604T5 (de) * | 2019-05-29 | 2022-03-03 | Mobileye Vision Technologies Ltd. | Systeme und verfahren für die fahrzeugnavigation |
CN112180903A (zh) * | 2020-10-19 | 2021-01-05 | 江苏中讯通物联网技术有限公司 | 基于边缘计算的车辆状态实时检测系统 |
US11880902B2 (en) * | 2020-12-30 | 2024-01-23 | Waymo Llc | Systems, apparatus, and methods for enhanced image capture |
-
2021
- 2021-05-07 JP JP2021079309A patent/JP2022172945A/ja active Pending
-
2022
- 2022-05-03 US US17/735,626 patent/US20220358620A1/en active Pending
- 2022-05-06 CN CN202210484881.3A patent/CN115311877A/zh active Pending
Also Published As
Publication number | Publication date |
---|---|
US20220358620A1 (en) | 2022-11-10 |
CN115311877A (zh) | 2022-11-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11126174B2 (en) | Systems and methods for switching a driving mode of a vehicle | |
US12073724B2 (en) | System and method for determining car to lane distance | |
US11548443B2 (en) | Display system, display method, and program for indicating a peripheral situation of a vehicle | |
US20200209959A1 (en) | Display control device, display control method, and program | |
US20240017719A1 (en) | Mapping method and apparatus, vehicle, readable storage medium, and chip | |
US12100226B2 (en) | Electronic device for controlling driving vehicle and operation method of the electronic device | |
JP2022159023A (ja) | 車線検出方法、装置、電子機器及び記憶媒体 | |
US20230342883A1 (en) | Image processing method and apparatus, and storage medium | |
CN115035494A (zh) | 图像处理方法、装置、车辆、存储介质及芯片 | |
JP2022172945A (ja) | 遠隔支援システム及び遠隔支援方法 | |
CN115203457B (zh) | 图像检索方法、装置、车辆、存储介质及芯片 | |
CN115056784B (zh) | 车辆控制方法、装置、车辆、存储介质及芯片 | |
CN114842455B (zh) | 障碍物检测方法、装置、设备、介质、芯片及车辆 | |
CN115164910B (zh) | 行驶路径生成方法、装置、车辆、存储介质及芯片 | |
US11893801B2 (en) | Flagman traffic gesture recognition | |
CN112613335B (zh) | 识别装置、识别方法及存储介质 | |
JP2022189113A (ja) | 遠隔支援システム及び遠隔支援方法 | |
CN115035357A (zh) | 目标检测模型构建方法、目标检测方法、装置和计算设备 | |
CN115147794B (zh) | 车道线确定方法、装置、车辆、介质及芯片 | |
CN115115822B (zh) | 车端图像处理方法、装置、车辆、存储介质及芯片 | |
CN115214629B (zh) | 自动泊车方法、装置、存储介质、车辆及芯片 | |
CN115082886B (zh) | 目标检测的方法、装置、存储介质、芯片及车辆 | |
CN114972824B (zh) | 杆件检测方法、装置、车辆和存储介质 | |
US20230234609A1 (en) | Control device, control method, and storage medium | |
US20230415570A1 (en) | Vehicle control method and vehicle, non-transitory storage medium and chip |