JP2022159912A - 遠隔監視システム、遠隔監視方法、遠隔監視サーバ、及び車載情報処理装置 - Google Patents

遠隔監視システム、遠隔監視方法、遠隔監視サーバ、及び車載情報処理装置 Download PDF

Info

Publication number
JP2022159912A
JP2022159912A JP2021064382A JP2021064382A JP2022159912A JP 2022159912 A JP2022159912 A JP 2022159912A JP 2021064382 A JP2021064382 A JP 2021064382A JP 2021064382 A JP2021064382 A JP 2021064382A JP 2022159912 A JP2022159912 A JP 2022159912A
Authority
JP
Japan
Prior art keywords
image
remote monitoring
object detection
data
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021064382A
Other languages
English (en)
Inventor
敏暢 渡辺
Toshinobu Watanabe
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Woven by Toyota Inc
Original Assignee
Woven Planet Holdings Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Woven Planet Holdings Inc filed Critical Woven Planet Holdings Inc
Priority to JP2021064382A priority Critical patent/JP2022159912A/ja
Priority to CN202210349544.3A priority patent/CN115209094A/zh
Priority to US17/712,437 priority patent/US11582428B2/en
Publication of JP2022159912A publication Critical patent/JP2022159912A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/12Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8547Content authoring involving timestamps for synchronizing content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • H04N7/185Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source from a mobile camera, e.g. for remote control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04QSELECTING
    • H04Q9/00Arrangements in telecontrol or telemetry systems for selectively calling a substation from a main station, in which substation desired apparatus is selected for applying a control signal thereto or for obtaining measured values therefrom

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Security & Cryptography (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】通信コストを低減しつつ、監視画面に表示される物体の検出結果の精度を向上させることができる遠隔監視技術を提供する。【解決手段】車載情報処理装置20は、カメラ12の画像IMGを圧縮し、圧縮画像CIMGと画像IMGの取得時刻を示すタイムスタンプTSとを含む第1データDT1を送信する。また、車載情報処理装置20は、画像IMGに基づく物体検出結果ODRと画像IMGの取得時刻を示すタイムスタンプTSとを含む第2データDT2を送信する。遠隔監視サーバ40は、第1データDT1と第2データDT2とを受信してそれぞれメモリに格納する。遠隔監視サーバ40は、タイムスタンプTSが同時刻である圧縮画像CIMGと物体検出結果ODRとをメモリから時系列に抽出し、圧縮画像CIMGを復元した復元画像DIMGと物体検出結果ODRとを重畳して監視画面に表示する。【選択図】図9

Description

本開示は、車両を遠隔監視に用いて好適な遠隔監視システム、遠隔監視方法、遠隔監視サーバ、及び車載情報処理装置に関する。
特許文献1には、自律運転が不可能になった自律走行車両を遠隔操作する遠隔操作装置に関する技術が開示されている。この従来技術に係る遠隔操作装置は、自律走行車両に搭載されたカメラで撮影された画像を表示部に表示する際、撮影された画像を解析し、特定の物体をその画像に強調表示する。
カメラで撮影された画像は、圧縮されてから自律走行車両から遠隔操作装置へ送信される。画像の圧縮は通信コストを低減する上で必須であるが、圧縮されることで画像の解像度は低下する。このため、上記の従来技術には、画像を精度よく解析することができず、特定の物体に対する強調表示が適切に行われないおそれがある。
なお、本出願が属する技術分野の技術レベルを表す先行技術文献としては、上記の特許文献1の他、下記の特許文献2及び特許文献3を例示することができる。
特開2020-161039号公報 特開2018-56838号公報 特開2011-96063号公報
本開示は、上述のような課題に鑑みてなされたものである。本開示は、通信コストを低減しつつ、監視画面に表示される物体の検出結果の精度を向上させることができる遠隔監視システム、及び遠隔監視方法を提供することを第1の目的とする。
また、本開示は、車載情報処理装置との間での通信コストを低減しつつ、監視画面に表示される物体の検出結果の精度を向上させることができる遠隔監視サーバを提供することを第2の目的とする。
さらに、本開示は、遠隔監視サーバとの間の通信コストを低減しつつ、遠隔監視サーバにおいて監視画面に表示される物体の検出結果の精度を向上させることができる車載情報処理装置を提供することを第3の目的とする。
本開示に係る遠隔監視システムは、車両に搭載されたカメラと、車両に搭載されカメラと接続された車載情報処理装置と、車載情報処理装置と通信ネットワークを介して接続された遠隔監視サーバとを備える。車載情報処理装置は、以下の物体検出処理、圧縮処理、第1データ送信処理、及び第2データ送信処理を実行する。遠隔監視サーバは、以下の第1データ受信処理、第2データ受信処理、抽出処理、及び表示処理を実行する。
車載情報処理装置による物体検出処理では、カメラで取得された画像から車両の前方の物体を検出することが行われる。圧縮処理では、画像を圧縮して圧縮画像を生成することが行われる。第1データ送信処理では、圧縮画像と圧縮前の画像の画像取得時刻とを含む第1データを遠隔監視サーバに送信することが行われる。第2データ送信処理では、物体検出結果と物体検出に用いられた画像の画像取得時刻とを含む第2データを遠隔監視サーバに送信することが行われる。
遠隔監視サーバによる第1データ受信処理では、車載情報処理装置から送信された第1データを受信してメモリに蓄積することが行われる。第2データ受信処理では、車載情報処理装置から送信された第2データを受信してメモリに蓄積することが行われる。抽出処理では、メモリから画像取得時刻が同時刻である圧縮画像と物体検出結果とを時系列に抽出することが行われる。表示処理では、抽出された圧縮画像を復元した復元画像と抽出された物体検出結果とを重畳して監視画面に表示することが行われる。
本遠隔監視システムにおいて、車載情報処理装置は、第3データ送信処理をさらに実行し、遠隔監視サーバは、第3データ受信処理をさらに実行してもよい。第3データ送信処理では、車載センサのセンサ信号から得られたセンサ情報とセンサ信号の信号取得時刻とを含む第3データを送信することが行われる。第3データ受信処理では、車載情報処理装置から送信された第3データを受信してメモリに蓄積する。この場合、遠隔監視サーバによる抽出処理では、メモリから画像取得時刻が同時刻である圧縮画像と物体検出結果とを時系列に抽出することと、信号取得時刻が画像取得時刻と同時刻であるセンサ情報を時系列に抽出することとが行われる。また、表示処理では、抽出されたセンサ情報を抽出された物体検出結果とともに復元画像に重畳して監視画面に表示することが行われる。
本開示に係る遠隔監視方法は、通信ネットワークを介して接続された車載情報処理装置と遠隔監視サーバとを用いて車両を遠隔監視する方法である。本遠隔監視方法は、車載情報処理装置に、車両に搭載されたカメラで取得された画像から車両の前方の物体を検出させ、画像を圧縮して圧縮画像を生成させ、圧縮画像と圧縮前の画像の画像取得時刻とを含む第1データを送信させ、物体検出結果と物体検出に用いられた画像の画像取得時刻とを含む第2データを送信させる。また、本遠隔監視法は、遠隔監視サーバに、第1データを受信してメモリに蓄積させ、第2データを受信してメモリに蓄積させ、メモリから画像取得時刻が同時刻である圧縮画像と物体検出結果とを時系列に抽出させ、抽出された圧縮画像を復元した復元画像と抽出された物体検出結果とを重畳して監視画面に表示させる。
本遠隔監視方法は、車載情報処理装置に、車載センサのセンサ信号から得られたセンサ情報とセンサ信号の信号取得時刻とを含む第3データを送信させてもよい。本遠隔監視方法は、遠隔監視サーバに、第3データを受信してメモリに蓄積させ、メモリから画像取得時刻が同時刻である圧縮画像と物体検出結果とを時系列に抽出させるとともに信号取得時刻が画像取得時刻と同時刻であるセンサ情報を時系列に抽出させ、抽出されたセンサ情報を物体検出結果とともに復元画像に重畳して監視画面に表示させてもよい。
本開示に係る遠隔監視サーバは、車載情報処理装置と通信ネットワークを介して接続されたサーバである。本遠隔監視サーバは、1つ又は複数のプログラムを記憶した1つ又は複数のメモリと、1つ又は複数のメモリと結合された1つ又は複数のプロセッサとを備える。1つ又は複数のプロセッサは、1つ又は複数のプログラムの実行時、以下の処理を実行する。
本遠隔監視サーバの1つ又は複数のプロセッサにより実行される処理では、車載カメラで取得された画像を圧縮して生成された圧縮画像と圧縮前の画像の画像取得時刻とを含む第1データを車載情報処理装置から受信して1つ又は複数のメモリに蓄積することが行われる。また、画像に基づく物体検出結果と物体検出に用いられた画像の画像取得時刻とを含む第2データを車載情報処理装置から受信して1つ又は複数のメモリに蓄積することが行われる。さらに、1つ又は複数のメモリから画像取得時刻が同時刻である圧縮画像と物体検出結果とを時系列に抽出することが行われる。さらに、抽出された圧縮画像を復元した復元画像と抽出された物体検出結果とを重畳して監視画面に表示することが行われる。
本開示に係る車載情報処理装置は、遠隔監視サーバと通信ネットワークを介して接続された装置である。本車載情報処理装置は、1つ又は複数のプログラムを記憶した1つ又は複数のメモリと、1つ又は複数のメモリと結合された1つ又は複数のプロセッサとを備える。1つ又は複数のプロセッサは、1つ又は複数のプログラムの実行時、以下の処理を実行する。
本車載情報処理装置の1つ又は複数のプロセッサにより実行される処理では、車載カメラで取得された画像から車両の前方の物体を検出することが行われる。また、画像を圧縮して圧縮画像を生成することが行われる。また、圧縮画像と圧縮前の画像の画像取得時刻とを含む第1データを遠隔監視サーバに送信することが行われる。さらに、物体検出結果と物体検出に用いられた画像の画像取得時刻とを含む第2データを遠隔監視サーバに送信することが行われる。
本開示によれば、圧縮される前の画像から物体の検出を行うので、圧縮された画像から物体の検出を行う場合のような検出精度の低下を防ぐことができる。これにより、車載情報処理装置との間での通信コストを低減しつつ、監視画面に表示される物体の検出結果の精度を向上させることが可能となる。
本開示の実施形態に係る遠隔監視システムの構成を概略的に示す図である。 遠隔監視システムの課題について説明するための圧縮前の画像の一例を示す図である。 遠隔監視システムの課題について説明するための圧縮前の画像からの物体検出結果の一例を示す図である。 遠隔監視システムの課題について説明するための圧縮後の画像の一例を示す図である。 遠隔監視システムの課題について説明するための圧縮後の画像からの物体検出結果の一例を示す図である。 本開示の実施形態に係る遠隔監視システムの特徴の概要を説明する図である。 本開示の第1実施形態に係る車両の構成を示すブロック図である。 本開示の第1実施形態に係る遠隔監視センタの構成を示すブロック図である。 本開示の第1実施形態に係る車載情報処理装置と遠隔監視サーバの各プロセッサにより実行される処理を示すブロック図である。 本開示の第2実施形態に係る車両の構成を示すブロック図である。 本開示の第2実施形態に係る遠隔監視センタの構成を示すブロック図である。 本開示の第2実施形態に係る車載情報処理装置と遠隔監視サーバの各プロセッサにより実行される処理を示すブロック図である。
以下、図面を参照して本開示の実施形態について説明する。ただし、以下に示す実施形態において各要素の個数、数量、量、範囲等の数に言及した場合、特に明示した場合や原理的に明らかにその数に特定される場合を除いて、その言及した数に、本開示に係る思想が限定されるものではない。また、以下に示す実施形態において説明する構造等は、特に明示した場合や明らかに原理的にそれに特定される場合を除いて、本開示に係る思想に必ずしも必須のものではない。
1.遠隔監視システムの概略構成
図1は、本開示の実施形態に係る遠隔監視システムの構成を概略的に示す図である。遠隔監視システム2は、道路を走行する車両10を遠隔オペレータ50によって遠隔監視するシステムである。本開示における遠隔監視は、車両10を遠隔運転するための監視、自律走行する車両10を状況に応じて遠隔支援するための監視、及び、自律走行する車両10の周辺環境を確認するための監視を含む。
遠隔監視の対象となる車両10はカメラ12を備えている。カメラ12はステレオカメラでもよいし単眼カメラでもよい。カメラ12の撮影範囲IAは、少なくとも車両10の進行方向の前方をカバーしている。例えば、車両10が走行車線DLを走行している場合、走行車線DLの前方とその左右両側がカメラ12の撮影範囲IAに含まれる。
車両10は、車載情報処理装置20を備える。カメラ12で撮影された画像は、車載情報処理装置20に入力される。車載情報処理装置20は、遠隔監視センタ30の遠隔監視サーバ40と通信ネットワーク8を介して接続されている。通信ネットワーク8は、4Gや5G等の移動体通信を含む。カメラ12で撮影された画像は、車載情報処理装置20から通信ネットワーク8を介して遠隔監視サーバ40に送られる。
遠隔監視センタ30では、車載情報処理装置20から遠隔監視サーバ40に送られてきたカメラ12の画像が表示装置32の監視画面32aに表示される。表示装置32としては、例えば、液晶ディスプレイ、有機ELディスプレイ、ヘッドマウントディスプレイ、タッチパネルを用いることができる。遠隔オペレータ50は、表示装置32の監視画面32aに映し出されるカメラ12の画像によって、車両10の前方を監視することができる。例えば、カメラ12の撮影範囲IAに障害物OJが存在する場合、遠隔オペレータ50は、表示装置32の監視画面32aにおいて障害物OJの存在を認識することができる。
遠隔監視システム2は、遠隔オペレータ50による障害物OJの認識を補助する機能を有している。カメラ12の画像に映っている障害物OJは、パターンマッチングやディープラーニング等の画像解析技術を用いることで自動検出することができる。この物体検出機能を用いて画像に映っている障害物OJを特定することで、監視画面32aのどこに障害物OJが存在するのかを遠隔オペレータ50に教えることができる。
一方で、遠隔監視システム2には通信コストの低減が求められている。カメラ12で撮影された画像は車載情報処理装置20においてエンコードされ、エンコードされた画像データが遠隔監視サーバ40に送信される。このエンコードにおいて、カメラ12で撮影された画像は所定の圧縮方式によって圧縮される。車載情報処理装置20から遠隔監視サーバ40に送信された画像データは、遠隔監視サーバ40においてデコードされる。表示装置32には、遠隔監視サーバ40によるデコードにより復元された画像が表示される。
なお、画像の送信形式に限定はなく、画像の圧縮方式にも限定はない。画像の送信形式が動画ストリーム形式である場合、画像の圧縮方式として、例えば、H.264、H.265、VP8、VP9、VP10,AV1を用いることができる。画像の送信形式が画像毎に送信する形式である場合、画像の圧縮方式として、例えば、JPEG、Motion JPEG、PNGを用いることができる。好ましくは、H.264、VP8、或いはVP9が使用される。Motion JPEG、VP10、及びAV1も遠隔監視システム2に好適な圧縮形式である。
2.遠隔監視システムの課題
上述のように、遠隔監視システム2に対しては、カメラ12で撮影された画像からの物体検出による遠隔オペレータ50の補助と、カメラ12で撮影された画像の圧縮による通信コストの低減とが要求されている。しかし、これら2つの要求を同時に満たすことは容易では無い。
ここで、4つの画像を示す。図2は、カメラ12で撮影された元画像、すなわち、圧縮前の画像の一例を示す図である。図3は、図2に示す元画像からの物体検出結果の一例を示す図である。図4は、図2に示す元画像を圧縮した画像、すなわち、圧縮後の画像の一例を示す図である。図5は、図4に示す圧縮後の画像からの物体検出結果の一例を示す図である。ただし、これらの画像は本来はカラー画像であるが、出願書類としての都合上、図では二値化されている。
表示装置32の監視画面32aに表示されるのは、図4に示す圧縮後の画像である。しかし、圧縮後の画像は元画像に対して解像度が低下する。このことは、図2に示す画像と図4に示す画像との比較からも分かるように、二値化された状態の画像からも明白である。このため、図3に示すように、解像度の高い元画像からは2人の人物と2台の車両が検出されているのに対し、図5に示すように、圧縮後の画像からは2台の車両が検出できていない。
上記の例のように、圧縮後の画像からは検出されるべき物体が検出できない場合がある。また、上記の例には無いが、圧縮後の画像からは存在しない物体が誤検出される場合もある。つまり、車載情報処理装置20から遠隔監視サーバ40に送信される画像は圧縮されている必要があるが、圧縮された画像からは車両10の前方の物体を高い精度で検出することはできない。
3.遠隔監視システムの特徴の概要
遠隔監視システム2では、上記の課題は次のように解決されている。図6は、遠隔監視システム2の特徴の概要を説明する図である。
図6には、遠隔監視システム2における情報の流れが示されている。遠隔監視システム2では、車載情報処理装置20において圧縮前の元画像から圧縮画像が得られる。さらにこれと並行して、車載情報処理装置20において圧縮前の元画像から物体検出結果が得られる。別々に得られた圧縮画像と物体検出結果とは、通信ネットワーク8を介して車載情報処理装置20から遠隔監視サーバ40に別々に送信される。つまり、遠隔監視システム2では、カメラ12の画像から物体を検出する処理は、遠隔監視サーバ40への画像の送信前に車載情報処理装置20において行われ、しかも、圧縮画像に対してではなく圧縮前の元画像に対して行われる。
車載情報処理装置20から遠隔監視サーバ40に送信された圧縮画像は、遠隔監視サーバ40において復元される。車載情報処理装置20から圧縮画像とは別々に送信された物体検知結果は、遠隔監視サーバ40により復元画像に重畳される。これにより、復元画像に物体検知結果が重畳された重畳表示画面が得られる。具体例を挙げて説明すると、表示装置32の監視画面32aには、図4に示す圧縮後の画像が表示され、そこに図3に示す物体検出結果が重畳表示される。
以上のような特徴を有する遠隔監視システム2によれば、車載情報処理装置20により圧縮前の元画像に対して物体検出を行うことで、車両10の前方の物体を高い精度で検出することが可能となる。そして、この物体検出結果を圧縮後の画像とともに表示装置32の監視画面32aに表示することで、遠隔オペレータ50による遠隔監視を補助することができる。
なお、元画像の圧縮処理と元画像からの物体検出処理とは車載情報処理装置20により行われる処理ではあるが、それらは別々に実行される。このため、元画像は共通であったとしても圧縮画像が得られる時刻と物体検出結果が得られる時刻とにずれが生じる場合がある。この時刻のずれを有したまま表示装置32への表示が行われた場合、遠隔オペレータ50の誤認を生じさせるおそれがある。
次章以降では、遠隔監視システム2の詳細な構成と機能について説明する。そこで説明される通り、遠隔監視システム2は、表示装置32に表示される画像と物体検出結果との間に時刻のずれを生じさせないように技術的に工夫されている。
4.第1実施形態に係る車両の構成
図7は、第1実施形態に係る車載情報処理装置20を備えた車両10の構成を示すブロック図である。車両10は、カメラ12、車載センサ14、通信装置16、走行装置18、及び車載情報処理装置20を備えている。車両10が備えるカメラ12の詳細は前述の通りである。
車載センサ14は、車両10の運動に関する情報を取得する状態センサを含む。状態センサは、例えば、速度センサ、加速度センサ、ヨーレートセンサ、及び舵角センサのうちの少なくとも1つを含んでいる。また、車載センサ14は、車両10の位置及び方位を検出する位置センサを含む。位置センサとしては、GPS(Global Positioning System)センサが例示される。更に、車載センサ14は、カメラ12以外の認識センサを含んでいてもよい。認識センサは、車両10の周囲の状況を認識(検出)する。認識センサとしては、LiDAR(Laser Imaging Detection and Ranging)、ミリ波レーダ、及び超音波センサが例示される。
通信装置16は、車両10の外部と通信を行う。通信装置16は、通信ネットワーク8を介して遠隔監視サーバ40と通信を行う。
走行装置18は、車両10を操舵する操舵装置、車両10を駆動する駆動装置、及び車両10を制動する制動装置を含んでいる。操舵装置には、例えば、パワーステアリングシステム、ステアバイワイヤ操舵システム、及び後輪操舵システムが含まれる。駆動装置には、例えば、エンジン、EVシステム、及びハイブリッドシステムが含まれる。制動装置には、例えば、油圧ブレーキ、及び電力回生ブレーキが含まれる。
車載情報処理装置20は、車両10に搭載されるECU(Electronic Control Unit)、或いは、複数のECUの集合体である。車載情報処理装置20は、1又は複数のプロセッサ21(以下、単にプロセッサ21と呼ぶ)とプロセッサ21に結合された1又は複数のメモリ22(以下、単にメモリ22と呼ぶ)とを含んでいる。メモリ22は主記憶装置と補助記憶装置とを含む。メモリ22には、プロセッサ21で実行可能なプログラムとそれに関連する種々の情報とが記憶されている。プロセッサ21がプログラムを実行することにより、プロセッサ21による各種処理が実現される。プログラムは、主記憶装置に記憶されることもできるし、補助記憶装置であるコンピュータ読み取り可能な記録媒体に記憶されることもできる。
メモリ22には、少なくとも3つの記憶領域22a,22b,22cが確保されている。プロセッサ21は、処理前データDT0をメモリ22の第1記憶領域22aに格納する。処理前データDT0には、カメラ12で撮影された画像IMGと、その画像IMGの取得時刻を示すタイムスタンプTSとが含まれる。プロセッサ21は、処理前データDT0を読み出して圧縮処理を実行する。また、プロセッサ21は、処理前データDT0を読み出して物体検出処理を実行する。
プロセッサ21は、第1処理データ(以下、第1データと呼ぶ)DT1をメモリ22の第2記憶領域22bに格納する。第1データDT1には、画像IMGの圧縮処理により得られた圧縮後の画像CIMGと、圧縮前の画像IMGに紐づけられたタイムスタンプTSとが含まれる。プロセッサ21は、通信装置16を用いて第1データDT1を遠隔監視サーバ40に送信する。
プロセッサ21は、第2処理データ(以下、第2データと呼ぶ)DT2をメモリ22の第3記憶領域22cに格納する。第2データDT2には、画像IMGに対する物体検出処理により得られた物体検出結果ODRと、物体検出に用いられた画像IMGに紐づけられたタイムスタンプTSとが含まれる。プロセッサ21は、通信装置16を用いて第2データDT2を遠隔監視サーバ40に送信する。
5.第1実施形態に係る遠隔監視センタの構成
図8は、第1実施形態に係る遠隔監視サーバ40が配置された遠隔監視センタ30の構成を示すブロック図である。遠隔監視センタ30には、遠隔監視サーバ40と表示装置32とに加え、入力装置34と通信装置36とが設けられている。表示装置32と同様に、入力装置34と通信装置36とは遠隔監視サーバ40に接続されている。
入力装置34は、遠隔オペレータ50からの入力を受け付けるためのインタフェースである。入力装置34としては、タッチパネル、キーボード、及びマウスを例示することができる。また、遠隔監視が遠隔運転のための監視である場合、入力装置34は、遠隔オペレータ50が車両10を運転操作(操舵、加速、及び減速)するための運転操作部材を含む。
通信装置36は、車両10の外部と通信を行う。通信装置36は、通信ネットワーク8を介して車載情報処理装置20と通信を行う。
遠隔監視サーバ40は、遠隔監視センタ30に設置されたコンピュータ、或いは、複数のコンピュータの集合体である。遠隔監視サーバ40は、1又は複数のプロセッサ41(以下、単にプロセッサ41と呼ぶ)とプロセッサ41に結合された1又は複数のメモリ42(以下、単にメモリ42と呼ぶ)とを含んでいる。メモリ42は主記憶装置と補助記憶装置とを含む。メモリ42には、プロセッサ41で実行可能なプログラムとそれに関連する種々の情報とが記憶されている。プロセッサ41がプログラムを実行することにより、プロセッサ41による各種処理が実現される。プログラムは、主記憶装置に記憶されることもできるし、補助記憶装置であるコンピュータ読み取り可能な記録媒体に記憶されることもできる。
メモリ42には、少なくとも2つのキュー42a,42bが構成されている。第1キュー42aには複数の第1データDT1が蓄積されている。プロセッサ41は、最新の第1データDT1を第1キュー42aに入れるとともに、先頭の最も古い第1データDT1を第1キュー42aから取り出す。第1キュー42aには、タイムスタンプTSの付与順序においてi番目からi+j番目までの第1データDT1が格納されている。
第2キュー42bには複数の第2データDT2が蓄積されている。プロセッサ41は、最新の第2データDT2を第2キュー42bに入れるとともに、先頭の最も古い第2データDT2を第2キュー42bから取り出す。第2キュー42bには、タイムスタンプTSの付与順序においてi番目からi+j番目までの第2データDT2が格納されている。プロセッサ41は、タイムスタンプTSの時刻が同一の第1データDT1と第2データDT2とをそれぞれ第1キュー42aと第2キュー42bとから取り出す。
6.第1実施形態に係る遠隔監視システムで実行される処理
図9は、第1実施形態に係る遠隔監視システム2で実行される処理、より詳しくは、車載情報処理装置20と遠隔監視サーバ40の各プロセッサ21,41により実行される処理を示すブロック図である。このブロック図に示す処理の流れは、本開示の第1実施形態に係る遠隔監視方法を表してもいる。
車載情報処理装置20のプロセッサ21は、タイムスタンプ生成処理211、画像圧縮処理212、物体検出処理213、第1データ送信処理214、及び第2データ送信処理215を実行する。これらの処理は、メモリ22に記憶されたプログラムがプロセッサ21において実行されたときに、プロセッサ21によって実行される処理である。
タイムスタンプ生成処理211では、プロセッサ21は、カメラ12により画像IMGが取得された時刻を示すタイムスタンプTSを生成する。生成されたタイムスタンプTSは、画像IMGに紐づけられてメモリ22に格納される。
画像圧縮処理212では、プロセッサ21は、カメラ12で撮影された画像IMGをメモリ22から読み出す。そして、プロセッサ21は、画像IMGに対して所定の圧縮処理を施し、圧縮画像CIMGを生成する。生成された圧縮画像CIMGは、タイムスタンプTSに紐づけられてメモリ22に格納される。
物体検出処理213では、プロセッサ21は、カメラ12で撮影された画像IMGをメモリ22から読み出す。そして、プロセッサ21は、パターンマッチングやディープラーニング等の画像解析技術を用いて、画像IMGから車両10の前方の物体を検出する。物体検出結果ODRは、タイムスタンプTSに紐づけられてメモリ22に格納される。
第1データ送信処理214では、プロセッサ21は、圧縮画像CIMGとタイムスタンプTSとを含む第1データDT1をメモリ22から読み出す。そして、プロセッサ21は、通信装置16を用いて第1データDT1を遠隔監視サーバ40に送信する。
第2データ送信処理215では、プロセッサ21は、物体検出結果ODRとタイムスタンプTSとを含む第2データDT2をメモリ22から読み出す。そして、プロセッサ21は、通信装置16を用いて第2データDT2を遠隔監視サーバ40に送信する。
遠隔監視サーバ40のプロセッサ41は、第1データ受信処理411、第2データ受信処理412、同時刻データ抽出処理413、圧縮画像復元処理414、及び重畳表示処理415を実行する。これらの処理は、メモリ42に記憶されたプログラムがプロセッサ41において実行されたときに、プロセッサ41によって実行される処理である。
第1データ受信処理411では、プロセッサ41は、通信装置36を用いて車載情報処理装置20から第1データDT1を受信する。そして、プロセッサ41は、受信した第1データDT1を第1キュー42aに格納する。
第2データ受信処理412では、プロセッサ41は、通信装置36を用いて車載情報処理装置20から第2データDT2を受信する。そして、プロセッサ41は、受信した第2データDT2を第2キュー42bに格納する。
同時刻データ抽出処理413では、プロセッサ41は、タイムスタンプTSの時刻が同時刻である圧縮画像CIMGと物体検出結果ODRとをそれぞれのキュー42a,42bから時系列に抽出する。
圧縮画像復元処理414では、プロセッサ41は、物体検出結果ODRとともに抽出された圧縮画像CIMGを圧縮方法に対応する復元方法で復元し、復元画像DIMGを生成する。
重畳表示処理415では、プロセッサ41は、復元画像DIMGと物体検出結果ODRとを重畳して表示装置32の監視画面32aに表示する。復元画像DIMGと物体検出結果ODRとは、タイムスタンプTSの時刻が同時刻であるので、表示装置32に表示される画像と物体検出結果との間に時刻のずれは生じない。
7.第2実施形態に係る車両の構成
図10は、第2実施形態に係る車載情報処理装置20を備えた車両10の構成を示すブロック図である。図10において、第1実施形態に係る車両10が備える要素と同一の要素については同一の符号が付されている。既に説明した構成及び機能についての説明は省略するか簡略化する。
車載センサ14のセンサ信号から得られた情報(以下、センサ情報と呼ぶ)の中には、遠隔オペレータ50に対して提示することが有用な情報も含まれている。例えば、LiDARのセンサ信号を画像化することによって得られるLiDAR画像や、ミリ波レーダや超音波センサのセンサ信号から得られる物体の距離や方向に関する情報は、車両10の運転環境を知る上での重要な情報である。第2実施形態では、車載情報処理装置20においてセンサ信号からセンサ情報を得るための処理が行われる。第2実施形態では、車載情報処理装置20から遠隔監視サーバ40にセンサ情報が送信される。遠隔監視サーバ40は、物体検出結果とともに復元画像にセンサ情報を重畳して表示装置32に表示する。
第2実施形態では、少なくとも4つの記憶領域22a,22b,22c,22dがメモリ22に確保されている。第1実施形態と同様に、第1記憶領域22aには、カメラ12で撮影された画像IMGと、その画像IMGの取得時刻を示すタイムスタンプTSとを含む処理前データDT0が格納される。また、第2記憶領域22aには、画像IMGの圧縮処理により得られた圧縮後の画像CIMGと、圧縮前の画像IMGに紐づけられたタイムスタンプTSとを含む第1データDT1が格納される。第3記憶領域22cには、画像IMGに対する物体検出処理により得られた物体検出結果ODRと、物体検出に用いられた画像IMGに紐づけられたタイムスタンプTSとを含む第2データDT2が格納される。
プロセッサ21は、第3処理データ(以下、第3データと呼ぶ)DT3をメモリ22の第4記憶領域22dに格納する。第3データDT3には、車載センサ14のセンサ信号から得られたセンサ情報SIと、センサ信号の取得時刻を示すタイムスタンプTSとが含まれる。プロセッサ21は、通信装置16を用いて第3データDT3を遠隔監視サーバ40に送信する。
8.第2実施形態に係る遠隔監視センタの構成
図11は、第2実施形態に係る遠隔監視サーバ40が配置された遠隔監視センタ30の構成を示すブロック図である。図10において、第1実施形態に係る遠隔監視センタ30が備える要素と同一の要素については同一の符号が付されている。既に説明した構成及び機能についての説明は省略するか簡略化する。
第2実施形態では、少なくとも3つのキュー42a,42b,42cがメモリ42に構成されている。第1実施形態と同様に、第1キュー42aには、タイムスタンプTSの付与順序においてi番目からi+j番目までの第1データDT1が蓄積されている。また、第2キュー42bには、タイムスタンプTSの付与順序においてi番目からi+j番目までの第2データDT2が蓄積されている。
第2実施形態で新たに構成された第3キュー42bには、複数の第3データDT3が蓄積されている。プロセッサ41は、最新の第3データDT3を第3キュー42cに入れるとともに、先頭の最も古い第3データDT3を第3キュー42cから取り出す。第3キュー42cには、タイムスタンプTSの付与順序においてi番目からi+j番目までの第3データDT3が格納されている。プロセッサ41は、タイムスタンプTSの時刻が同一の第1データDT1と第2データDT2と第3データDT3とをそれぞれ第1キュー42aと第2キュー42bと第3キュー42cとから取り出す。
9.第2実施形態に係る遠隔監視システムで実行される処理
図12は、第2実施形態に係る遠隔監視システム2で実行される処理、より詳しくは、車載情報処理装置20と遠隔監視サーバ40の各プロセッサ21,41により実行される処理を示すブロック図である。このブロック図に示す処理の流れは、本開示の第2実施形態に係る遠隔監視方法を表してもいる。図10において、第1実施形態で実行される処理と同一の処理については同一の符号が付されている。既に説明した処理についての説明は省略するか簡略化する。
第2実施形態に係る車載情報処理装置20のプロセッサ21は、第1実施形態で実行される処理に加えて、タイムスタンプ生成処理216、センサ信号処理217、及び第3データ送信処理218を実行する。他の処理と同様に、これらの処理は、メモリ22に記憶されたプログラムがプロセッサ21において実行されたときに、プロセッサ21によって実行される処理である。
タイムスタンプ生成処理216では、プロセッサ21は、車載センサ14からセンサ信号SSが取得された時刻を示すタイムスタンプTSを生成する。生成されたタイムスタンプTSは、センサ信号SSに紐づけられてメモリ22に格納される。
センサ信号処理217では、プロセッサ21は、センサ信号SSからセンサ情報SIを生成する。センサ情報SIには、例えば、LiDARのセンサ信号から得られるLiDAR画像や、ミリ波レーダや超音波センサのセンサ信号から得られる距離情報や方向情報が含まれる。生成されたセンサ情報SIは、センサ信号SSに紐づけられたタイムスタンプTSに紐づけられてメモリ22に格納される。
第3データ送信処理218では、プロセッサ21は、センサ情報SIとタイムスタンプTSとを含む第3データDT3をメモリ22から読み出す。そして、プロセッサ21は、通信装置16を用いて第3データDT3を遠隔監視サーバ40に送信する。
第2実施形態に係る遠隔監視サーバ40のプロセッサ41は、第1実施形態で実行される処理に加えて、第3データ受信処理416を実行する。また、プロセッサ41は、第1実施形態で実行される処理に対して変更を加えられた同時刻データ抽出処理417、及び重畳表示処理418を実行する。他の処理と同様に、これらの処理は、メモリ42に記憶されたプログラムがプロセッサ41において実行されたときに、プロセッサ41によって実行される処理である。
第3データ受信処理416では、プロセッサ41は、通信装置36を用いて車載情報処理装置20から第3データDT3を受信する。そして、プロセッサ41は、受信した第3データDT3を第3キュー42cに格納する。
同時刻データ抽出処理417では、プロセッサ41は、タイムスタンプTSの時刻が同時刻である圧縮画像CIMGと物体検出結果ODRとセンサ情報SIとをそれぞれのキュー42a,42b,42cから時系列に抽出する。
重畳表示処理418では、プロセッサ41は、復元画像DIMGと物体検出結果ODRとセンサ情報SIとを重畳して表示装置32の監視画面32aに表示する。復元画像DIMGと物体検出結果ODRとセンサ情報SIとは、タイムスタンプTSの時刻が同時刻であるので、表示装置32に表示される画像と物体検出結果とセンサ情報との間に時刻のずれは生じない。
2 遠隔監視システム
8 通信ネットワーク
10 車両
12 カメラ
14 車載センサ
16 通信装置
20 車載情報処理装置
21 プロセッサ
22 メモリ
30 遠隔監視センタ
32a 監視画面
36 通信装置
40 遠隔監視サーバ
41 プロセッサ
42 メモリ
50 遠隔オペレータ

Claims (6)

  1. 車両を遠隔監視する遠隔監視システムであって、
    前記車両に搭載されたカメラと、
    前記車両に搭載され前記カメラと接続された車載情報処理装置と、
    前記車載情報処理装置と通信ネットワークを介して接続された遠隔監視サーバと、を備え、
    前記車載情報処理装置は、
    前記カメラで取得された画像から前記車両の前方の物体を検出する物体検出処理と、
    前記画像を圧縮して圧縮画像を生成する圧縮処理と、
    前記圧縮画像と圧縮前の前記画像の画像取得時刻とを含む第1データを送信する第1データ送信処理と、
    物体検出結果と物体検出に用いられた前記画像の前記画像取得時刻とを含む第2データを送信する第2データ送信処理と、を実行し、
    前記遠隔監視サーバは、
    前記第1データを受信してメモリに蓄積する第1データ受信処理と、
    前記第2データを受信して前記メモリに蓄積する第2データ受信処理と、
    前記メモリから前記画像取得時刻が同時刻である前記圧縮画像と前記物体検出結果とを時系列に抽出する抽出処理と、
    抽出された前記圧縮画像を復元した復元画像と抽出された前記物体検出結果とを重畳して監視画面に表示する表示処理と、を実行する
    ことを特徴とする遠隔監視システム。
  2. 請求項1に記載の遠隔監視システムにおいて、
    前記車載情報処理装置は、
    車載センサのセンサ信号から得られたセンサ情報と前記センサ信号の信号取得時刻とを含む第3データを送信する第3データ送信処理をさらに実行し、
    前記遠隔監視サーバは、
    前記第3データを受信して前記メモリに蓄積する第3データ受信処理をさらに実行し、
    前記抽出処理では、前記メモリから前記画像取得時刻が同時刻である前記圧縮画像と前記物体検出結果とを時系列に抽出するとともに、前記信号取得時刻が前記画像取得時刻と同時刻である前記センサ情報を時系列に抽出し、
    前記表示処理では、抽出された前記センサ情報を抽出された前記物体検出結果とともに前記復元画像に重畳して前記監視画面に表示する
    ことを特徴とする遠隔監視システム。
  3. 通信ネットワークを介して接続された車載情報処理装置と遠隔監視サーバとを用いて車両を遠隔監視する遠隔監視方法であって、
    前記車載情報処理装置に、
    前記車両に搭載されたカメラで取得された画像から前記車両の前方の物体を検出させ、
    前記画像を圧縮して圧縮画像を生成させ、
    前記圧縮画像と圧縮前の前記画像の画像取得時刻とを含む第1データを送信させ、
    物体検出結果と物体検出に用いられた前記画像の前記画像取得時刻とを含む第2データを送信させ、
    前記遠隔監視サーバに、
    前記第1データを受信してメモリに蓄積させ、
    前記第2データを受信して前記メモリに蓄積させ、
    前記メモリから前記画像取得時刻が同時刻である前記圧縮画像と前記物体検出結果とを時系列に抽出させ、
    抽出された前記圧縮画像を復元した復元画像と抽出された前記物体検出結果とを重畳して監視画面に表示させる
    ことを特徴とする遠隔監視方法。
  4. 請求項3に記載の遠隔監視方法において、
    前記車載情報処理装置に、
    車載センサのセンサ信号から得られたセンサ情報と前記センサ信号の信号取得時刻とを含む第3データを送信させ、
    前記遠隔監視サーバに、
    前記第3データを受信して前記メモリに蓄積させ、
    前記メモリから前記画像取得時刻が同時刻である前記圧縮画像と前記物体検出結果とを時系列に抽出させるとともに、前記信号取得時刻が前記画像取得時刻と同時刻である前記センサ情報を時系列に抽出させ、
    抽出された前記センサ情報を抽出された前記物体検出結果とともに前記復元画像に重畳して前記監視画面に表示させる
    ことを特徴とする遠隔監視方法。
  5. 車載情報処理装置と通信ネットワークを介して接続された遠隔監視サーバであって、
    1つ又は複数のプログラムを記憶した1つ又は複数のメモリと、
    前記1つ又は複数のメモリと結合された1つ又は複数のプロセッサと、を備え、
    前記1つ又は複数のプロセッサは、前記1つ又は複数のプログラムの実行時、
    車載のカメラで取得された画像を圧縮して生成された圧縮画像と圧縮前の前記画像の画像取得時刻とを含む第1データを前記車載情報処理装置から受信して前記1つ又は複数のメモリに蓄積し、
    前記画像に基づく物体検出結果と物体検出に用いられた前記画像の前記画像取得時刻とを含む第2データを前記車載情報処理装置から受信して前記1つ又は複数のメモリに蓄積し、
    前記1つ又は複数のメモリから前記画像取得時刻が同時刻である前記圧縮画像と前記物体検出結果とを時系列に抽出し、
    抽出された前記圧縮画像を復元した復元画像と抽出された前記物体検出結果とを重畳して監視画面に表示する
    ことを特徴とする遠隔監視サーバ。
  6. 遠隔監視サーバと通信ネットワークを介して接続された車載情報処理装置であって、
    1つ又は複数のプログラムを記憶した1つ又は複数のメモリと、
    前記1つ又は複数のメモリと結合された1つ又は複数のプロセッサと、を備え、
    前記1つ又は複数のプロセッサは、前記1つ又は複数のプログラムの実行時、
    車載のカメラで取得された画像から車両の前方の物体を検出し、
    前記画像を圧縮して圧縮画像を生成し、
    前記圧縮画像と圧縮前の前記画像の画像取得時刻とを含む第1データを前記遠隔監視サーバに送信し、
    物体検出結果と物体検出に用いられた前記画像の前記画像取得時刻とを含む第2データを前記遠隔監視サーバに送信する
    ことを特徴とする車載情報処理装置。
JP2021064382A 2021-04-05 2021-04-05 遠隔監視システム、遠隔監視方法、遠隔監視サーバ、及び車載情報処理装置 Pending JP2022159912A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2021064382A JP2022159912A (ja) 2021-04-05 2021-04-05 遠隔監視システム、遠隔監視方法、遠隔監視サーバ、及び車載情報処理装置
CN202210349544.3A CN115209094A (zh) 2021-04-05 2022-04-02 远程监视系统、远程监视方法、远程监视服务器以及车载信息处理装置
US17/712,437 US11582428B2 (en) 2021-04-05 2022-04-04 Remote monitoring system, remote monitoring method, and remote monitoring server

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021064382A JP2022159912A (ja) 2021-04-05 2021-04-05 遠隔監視システム、遠隔監視方法、遠隔監視サーバ、及び車載情報処理装置

Publications (1)

Publication Number Publication Date
JP2022159912A true JP2022159912A (ja) 2022-10-18

Family

ID=83450217

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021064382A Pending JP2022159912A (ja) 2021-04-05 2021-04-05 遠隔監視システム、遠隔監視方法、遠隔監視サーバ、及び車載情報処理装置

Country Status (3)

Country Link
US (1) US11582428B2 (ja)
JP (1) JP2022159912A (ja)
CN (1) CN115209094A (ja)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011096063A (ja) 2009-10-30 2011-05-12 Sharp Corp ドライブレコーダ装置
US9443152B2 (en) * 2011-05-03 2016-09-13 Ionroad Technologies Ltd. Automatic image content analysis method and system
JP6735506B2 (ja) 2016-09-29 2020-08-05 パナソニックIpマネジメント株式会社 画像生成装置、および、画像処理システム
JP7350500B2 (ja) 2019-03-28 2023-09-26 日産自動車株式会社 遠隔操作用画像の表示方法及び遠隔操作装置

Also Published As

Publication number Publication date
US11582428B2 (en) 2023-02-14
CN115209094A (zh) 2022-10-18
US20220321841A1 (en) 2022-10-06

Similar Documents

Publication Publication Date Title
US11657604B2 (en) Systems and methods for estimating future paths
US10392009B2 (en) Automatic parking system and automatic parking method
US11242066B2 (en) Vehicle control apparatus and vehicle control system and vehicle control method thereof
EP3343438A1 (en) Automatic parking system and automatic parking method
CN110796692A (zh) 用于同时定位与建图的端到端深度生成模型
CN102059978B (zh) 驾驶辅助方法与系统
US20190325597A1 (en) Simultaneous Localization And Mapping Constraints In Generative Adversarial Networks For Monocular Depth Estimation
US11691619B2 (en) Automatic parking system and automatic parking method
CN112466141A (zh) 一种面向车路协同的智能网联路端设备交互方法、系统及存储介质
CN107273788A (zh) 在车辆中执行车道检测的成像系统与车辆成像系统
JP7135796B2 (ja) サーバ装置、サーバ制御方法、サーバ制御プログラム、車両、車両制御方法、及び車両制御プログラム
WO2019116423A1 (ja) 教師データ収集装置
US11908199B2 (en) In-vehicle electronic control device
US20220196424A1 (en) Vehicle control method and vehicle control device
JP4848644B2 (ja) 障害物認識システム
KR20220150212A (ko) 자동차의 운전 동작을 지원하기 위한 방법 및 보조 장치 그리고 자동차
CN113609888A (zh) 利用平面单应性和自监督的场景结构理解进行对象检测
US12071159B2 (en) Aerial view generation for vehicle control
US20240034354A1 (en) Vehicle Placement on Aerial Views for Vehicle Control
JP2022159912A (ja) 遠隔監視システム、遠隔監視方法、遠隔監視サーバ、及び車載情報処理装置
CN116469071A (zh) 一种调车场景的障碍物检测方法、系统、设备和存储介质
CN113875223B (zh) 外部环境识别装置
CN113777975A (zh) 一种自动驾驶车辆的远程辅助系统及方法
CN110995981B (zh) 图像处理装置及其控制方法、非暂时性可读记录介质、信息处理系统
CN111415434A (zh) 使用外部车辆显示器进行车辆通信

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210414

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230227

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20230726

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20230727

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240109

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20240307

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240501

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20240806