JPWO2018088224A1 - 情報処理装置、情報処理方法、プログラム、及び、移動体 - Google Patents

情報処理装置、情報処理方法、プログラム、及び、移動体 Download PDF

Info

Publication number
JPWO2018088224A1
JPWO2018088224A1 JP2018550134A JP2018550134A JPWO2018088224A1 JP WO2018088224 A1 JPWO2018088224 A1 JP WO2018088224A1 JP 2018550134 A JP2018550134 A JP 2018550134A JP 2018550134 A JP2018550134 A JP 2018550134A JP WO2018088224 A1 JPWO2018088224 A1 JP WO2018088224A1
Authority
JP
Japan
Prior art keywords
moving
image
moving body
information processing
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018550134A
Other languages
English (en)
Inventor
弘和 橋本
弘和 橋本
圭祐 齊藤
圭祐 齊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Semiconductor Solutions Corp
Original Assignee
Sony Corp
Sony Semiconductor Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Semiconductor Solutions Corp filed Critical Sony Corp
Publication of JPWO2018088224A1 publication Critical patent/JPWO2018088224A1/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/09626Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages where the origin of the information is within the own vehicle, e.g. a local storage device, digital map
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/04Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/303Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using joined images, e.g. multiple camera images
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/015Detecting movement of traffic to be counted or controlled with provision for distinguishing between two or more types of vehicles, e.g. between motor-cars and cycles

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Traffic Control Systems (AREA)
  • Mechanical Engineering (AREA)

Abstract

本技術は、周辺の動体との衝突又は接触の危険性を分かりやすく通知することができるようにする情報処理装置、情報処理方法、プログラム、及び、移動体に関する。情報処理装置は、センサから入力される情報に基づいて移動体周辺の動体を検出する動体検出部と、前記動体の移動方向及び移動速度に応じて形状が変化するとともに、前記動体に関連づけて表示される第1の画像を生成する画像処理部とを備える。本技術は、例えば、動体への衝突又は接触を防止するための運転支援を行う装置、システム又は車両に適用できる。

Description

本技術は、情報処理装置、情報処理方法、プログラム、及び、移動体に関し、特に、周辺の動体との衝突又は接触の危険性を通知する場合に用いて好適な情報処理装置、情報処理方法、プログラム、及び、移動体に関する。
従来、車両、自転車、歩行者等との衝突又は接触の危険性を運転者に通知する技術が開発されている。例えば、車両の周辺を撮像した画像において、ゼブラパターン等の動的パターンを車両に接近する接近対象物に付与して表示することが提案されている(例えば、特許文献1参照)。
特開2014−239326号公報
一方、今後、自動運転の普及に伴い、運転操作の少なくとも一部の自動化が進むことにより、運転技量の低い運転者が運転する機会が増えることが予想される。これに対して、より確実に事故を防止するために、衝突又は接触の危険性をより確実に運転者に認識させることが望まれている。
本技術は、このような状況に鑑みてなされたものであり、周辺の動体との衝突又は接触の危険性を分かりやすく通知することができるようにするものである。
本技術の第1の側面の情報処理装置は、センサから入力される情報に基づいて移動体周辺の動体を検出する動体検出部と、前記動体の移動方向及び移動速度に応じて形状が変化するとともに、前記動体に関連づけて表示される第1の画像を生成する画像処理部とを備える。
前記第1の画像には、前記動体から移動方向に伸び、前記動体の移動速度により移動方向の長さが変化するバーを含ませることができる。
前記バーの幅を、前記動体の幅により変化させることができる。
前記第1の画像には、前記動体から前記動体の移動方向に広がり、前記動体の移動速度により移動方向の長さが変化する扇形の図形を含ませることができる。
前記扇形の図形の角度を、前記動体の移動方向の予測精度により変化させることができる。
前記画像処理部には、前記動体が前記移動体に衝突又は接触する危険度に基づいて、前記第1の画像の表示効果を変化させることができる。
前記画像処理部には、前記危険度に基づいて、前記第1の画像の色及び透過度のうち少なくとも1つを変化させることができる。
前記画像処理部には、前記動体が前記移動体に衝突又は接触する危険度に基づいて、前記動体に対する前記第1の画像の表示の有無を制御させることができる。
前記画像処理部には、前記動体の位置を示す第2の画像を生成させることができる。
前記第2の画像には、前記動体を囲むフレームを含ませることができる。
前記画像処理部には、前記動体の種類に基づいて、前記第2の画像を変化させることができる。
前記動体の種類を、車両、モータバイク、自転車、及び、歩行者の少なくとも4種類に分類することができる。
前記画像処理部には、前記移動体の周辺の画像である周辺画像、又は、前記移動体の搭乗者の視界に前記第1の画像を重畳させることができる。
前記画像処理部には、前記周辺画像内又は前記搭乗者の視界内の路面上に前記第1の画像を重畳させることができる。
前記画像処理部には、前記周辺画像内又は前記搭乗者の視界内の路面上にグリッドを重畳させることができる。
前記画像処理部には、前記移動体が周辺の動体のいずれかに衝突又は接触する危険度を示す信号の表示をさらに制御させることができる。
前記検出された動体の動きを予測する動き予測部をさらに設けることができる。
本技術の第2の側面の情報処理方法は、移動体の周辺の動体の検出を行う動体検出ステップと、移動体の周辺の動体の移動方向及び移動速度により形状が変化するとともに、前記動体に関連づけて表示される画像を生成する画像処理ステップとを含む。
本技術の第2の側面のプログラムは、移動体の周辺の動体の検出を行う動体検出ステップと、移動体の周辺の動体の移動方向及び移動速度により形状が変化するとともに、前記動体に関連づけて表示される画像を生成する画像処理ステップとを含む処理をコンピュータに実行させる。
本技術の第3の側面の移動体は、本体に配置され周辺の状況の検出に用いるセンサと、前記センサの検出結果に基づいて、周辺の動体の検出を行う動体検出部と、前記検出された動体の動きを予測する動き予測部と、前記検出された動体の移動方向及び移動速度により形状が変化する画像を表示する表示部とを備える。
本技術の第1の側面又は第2の側面においては、移動体周辺の動体の検出が行われ、前記動体の移動方向及び移動速度に応じて形状が変化するとともに、前記動体に関連づけて表示される画像が生成される。
本技術の第3の側面においては、周辺の動体が検出され、前記検出された動体の動きが予測され、前記検出された動体の移動方向及び移動速度により形状が変化する画像が表示される。
本技術の第1の側面乃至第3の側面によれば、移動体の周辺の動体の移動方向及び移動速度が示される。特に、本技術の第1の側面乃至第3の側面によれば、周辺の動体との衝突又は接触の危険性を分かりやすく通知することができる。
なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載された何れかの効果であってもよい。
本技術を適用した車載システムの一実施の形態を示すブロック図である。 カメラの設置位置の例を示す図である。 表示部の設置位置の例を示す図である。 周辺監視処理を説明するためのフローチャートである。 周辺監視画像における周辺画像の配置例を示す図である。 周辺監視画像の第1の例を示す図である。 グリッドの表示位置を説明するための図である。 周辺監視画像の第2の例を示す図である。 周辺監視画像の第3の例を示す図である。 周辺監視画像の第4の例を示す図である。 周辺監視画像の第5の例を示す図である。 コンピュータの構成例を示す図である。
以下、本技術を実施するための形態について説明する。説明は以下の順序で行う。
1.実施の形態
2.変形例
3.その他
<<1.実施の形態>>
<1−1.車載システムの構成例>
図1は、本技術を適用した車載システムの一実施の形態を示すブロック図である。
車載システム10は、車両に搭載され、運転支援を行うシステムである。例えば、車載システム10は、車両の周辺を監視し、周辺の車両、自転車、人等との衝突又は接触を防止するための処理を行う。より具体的には、車載システム10は、衝突又は接触の危険性の通知、及び、衝突又は接触を回避するためのブレーキシステム等の制動装置の制御等を行う。
なお、車載システム10が搭載される車両は、特に限定されるものではなく、例えば、三輪トラック、小型トラック、小型乗用車、大型乗用車、大型バス、大型トラック、大型特殊車、小型特殊車等を含む。また、以下、車載システム10が搭載されている車両を自車両とも称し、自車両以外の車両を他車両とも称する。
車載システム10は、周辺センサ11、車両情報センサ12、情報処理部13、表示部14、制動制御部15、及び、制動装置16を備える。
周辺センサ11は、自車両の周辺の状況の検出に用いる各種のセンサを備える。例えば、周辺センサ11は、自車両の周辺を撮影するカメラ(画像センサ)、自車両に近い物体の検出に用いる近距離センサ、並びに、自車両から遠い物体の検出に用いる遠距離センサ等を備える。近距離センサとしては、例えば、超音波センサ等が挙げられる。遠距離センサとしては、例えば、レーダ、ライダ、TOF(Time of Flight)センサ等が挙げられる。周辺センサ11の各センサは、それぞれ検出結果を含む情報を示すデータ(以下、周辺センサデータと称する)を周辺状況検出部31に供給する。
なお、以下、周辺センサ11の各カメラにより撮影された画像を周辺画像と称し、周辺画像を示すデータを周辺画像データと称する。周辺画像データは、周辺センサデータの一種である。
車両情報センサ12は、自車両の動きの検出に用いる各種のセンサを備える。例えば、車両情報センサ12は、速度センサ、操舵角センサ、GPS(global positioning system)受信機等を備える。車両情報センサ12は、それぞれ検出結果を示すデータ(以下、車両センサデータと称する)を動き予測部32に供給する。
なお、自車両に予め備えられているセンサを、周辺センサ11及び車両情報センサ12の一部又は全部に用いるようにしてもよい。
情報処理部13は、例えば、ECU(Electronic Control Unit)等により構成される。情報処理部13は、周辺状況検出部31、動き予測部32、衝突予測部33、及び、HMI(Human Machine Interface)制御部34を備える。
周辺状況検出部31は、周辺センサデータに基づいて、自車両の周辺の状況の検出を行う。周辺状況検出部31は、空間生成部41及び動体検出部42を備える。
空間生成部41は、周辺センサデータに基づいて、自車両の周辺の物体の形状や位置等を示す3次元空間マップを生成する。空間生成部41は、3次元空間マップを動き予測部32及びHMI制御部34に供給する。また、空間生成部41は、周辺センサデータのうち周辺画像データをHMI制御部34に供給する。
動体検出部42は、周辺センサデータ及び3次元空間マップに基づいて、自車両の周辺の動体の検出を行う。動体検出部42は、動体の検出結果を動き予測部32及びHMI制御部34に供給する。
動き予測部32は、車両センサデータに基づいて、自車両の動き予測を行う。また、動き予測部32は、3次元空間マップ及び動体の検出結果に基づいて、自車両の周辺の動体の動き予測を行う。動き予測部32は、自車両及び自車両の周辺の動体の動きの予測結果を衝突予測部33及びHMI制御部34に供給する。
衝突予測部33は、自車両及び自車両の周辺の動体の動きの予測結果に基づいて、自車両の周辺の動体の衝突予測を行う。衝突予測部33は、衝突予測の結果をHMI制御部34及び制動制御部15に供給する。
HMI制御部34は、自車両のHMIの制御を行う。例えば、HMI制御部34は、3次元空間マップ、自車両の周辺の動体の検出結果、並びに、自車両の周辺の動体の動き予測及び衝突予測の結果に基づいて、自車両の周辺の状況を示す周辺監視画像を表示するための周辺監視画像データを生成する。HMI制御部34は、周辺監視画像データを表示部14に供給し、周辺監視画像を表示させる。この場合、HMI制御部34は、画像処理部として機能する。
表示部14は、例えば、各種のディスプレイ等により構成される。表示部14は、HMI制御部34の制御の下に、周辺監視画像等の各種の画像を表示する。
制動制御部15は、例えば、ECU(Electronic Control Unit)等により構成される。制動制御部15は、衝突予測部33による衝突予測結果に基づいて、制動装置16を制御して、自車両の緊急停止等を行う。
制動装置16は、例えば、自車両のブレーキシステム等により構成される。
<1−2.カメラの配置例>
図2は、周辺センサ11が備えるカメラの配置例を示している。
カメラ101は、例えば車両100のフロントバンパーの左端付近に配置される。カメラ101は、運転者の死角となる領域を含む車両100の左方向を撮影し、撮影の結果得られた画像(以下、左画像と称する)を示す画像データを周辺状況検出部31に供給する。
カメラ102は、例えば車両100のフロントバンパーの右端付近に配置される。カメラ102は、運転者の死角となる領域を含む車両100の右方向を撮影し、撮影の結果得られた画像(以下、右画像と称する)を示す画像データを周辺状況検出部31に供給する。
カメラ103は、例えば車両100のフロントグリル近傍に配置される。カメラ102は、運転者の死角となる領域を含む車両100の前方を撮影し、撮影の結果得られた画像(以下、前方画像Aと称する)を示す画像データを周辺状況検出部31に供給する。
カメラ104は、例えば車両100の室内のルームミラー近傍に配置される。カメラ104は、車両100の前方を撮影し、撮影の結果得られた画像(以下、前方画像Bと称する)を示す画像データを周辺状況検出部31に供給する。
<1−3.表示部14の配置例>
図3は、表示部14の配置例を示している。
表示部14については、自車両に予め備えられている装備を利用してもよいし、専用のディスプレイ等を設けてもよい。例えば、自車両のカーナビゲーションシステムのディスプレイ131や、インストルメントパネル132を表示部14として用いることが可能である。また、例えば、表示部14を自車両のウインドシールド133の運転席の前方の領域P1に重畳して設けられる透過型ディスプレイにより構成することが可能である。
<1−4.周辺監視処理>
次に、図4のフローチャートを参照して、車載システム10により実行される周辺監視処理について説明する。この処理は、例えば、自車両を起動し、運転を開始するための操作が行われたとき、例えば、自車両のイグニッションスイッチ、パワースイッチ、又は、スタートスイッチ等がオンされたとき開始される。また、この処理は、例えば、運転を終了するための操作が行われたとき、例えば、自車両のイグニッションスイッチ、パワースイッチ、又は、スタートスイッチ等がオフされたとき終了する。
ステップS1において、情報処理部13は、センサ情報を取得する。具体的には、周辺状況検出部31は、周辺センサ11の各センサから周辺センサデータを取得する。動き予測部32は、車両情報センサ12の各センサから車両センサデータを取得する。
ステップS2において、空間生成部41は、空間生成処理を行う。すなわち、空間生成部41は、周辺センサデータに基づいて、自車両の周辺の物体の形状や位置等を示す3次元空間マップを生成する(或いは、更新する)。なお、自車両の周辺の物体には、動体だけでなく、静止物(例えば、建物、路面等)も含まれる。空間生成部41は、生成した3次元空間マップを動き予測部32及びHMI制御部34に供給する。
なお、3次元空間マップの生成方法には、任意の方法を用いることが可能である。例えば、SLAM(Simultaneous Localization and Mapping)等の技術が用いられる。
ステップS3において、動体検出部42は、動体検出を行う。具体的には、動体検出部42は、周辺センサデータ及び3次元空間マップに基づいて、自車両の周辺の動体の検出を行う。例えば、動体検出部42は、自車両の周辺の動体の有無、動体の種類、大きさ、形状、位置等の検出を行う。動体検出部42は、動体の検出結果を動き予測部32及びHMI制御部34に供給する。
なお、動体の検出方法には、任意の方法を用いることが可能である。また、検出対象となる動体には、実際に動いている動体だけでなく、停車中の車両や自転車、停止中の歩行者等の一時的に静止している動体も含まれる。
さらに、動体検出部42は、例えば、3次元空間マップを用いずに、周辺センサデータのみに基づいて、自車両の周辺の動体の検出を行うことも可能である。この場合、ステップS2とステップS3の処理を入れ替えることが可能である。
ステップS4において、動体検出部42は、ステップS3の処理の結果に基づいて、周辺に動体が存在するか否かを判定する。周辺に動体が存在しないと判定された場合、処理はステップS1に戻る。
その後、ステップS4において、周辺に動体が存在すると判定されるまで、ステップS1乃至ステップS4の処理が繰り返し実行される。
一方、ステップS4において、周辺に動体が存在すると判定された場合、処理はステップS5に進む。
ステップS5において、動き予測部32は、動き予測を行う。具体的には、動き予測部32は、車両センサデータに基づいて、自車両の移動速度及び移動方向等の予測を行う。また、動き予測部32は、3次元空間マップ、及び、自車両の周辺の動体の検出結果に基づいて、自車両の周辺の動体の移動速度及び移動方向等の予測を行う。動き予測部32は、予測結果を衝突予測部33及びHMI制御部34に供給する。
なお、動き予測の方法には、任意の方法を用いることが可能である。
ステップS6において、衝突予測部33は、衝突予測を行う。具体的には、衝突予測部33は、自車両及び自車両の周辺の動体の動きの予測結果に基づいて、自車両の周辺の動体が自車両に衝突又は接触する可能性があるか否か、並びに、衝突又は接触する可能性のある動体の衝突又は接触するまでの所要時間(以下、衝突予測時間と称する)を予測する。
また、衝突予測部33は、各動体が自車両に衝突又は接触する危険度を予測し、あらかじめ決められた定義に基づきランクを設定する。例えば、静止中の動体、及び、自車両から離れる方向に移動中の動体は、危険度1に設定される。自車両に接近する方向に移動中の動体のうち、衝突予測時間がT1秒(例えば、5秒)を超える動体は、危険度2に設定される。自車両に接近する方向に移動中の動体のうち、衝突予測時間がT1秒以内、かつ、T2秒(例えば1秒)を超える動体は、危険度3に設定される。自車両に接近する方向に移動中の動体のうち、衝突予測時間がT2秒以内である動体は、危険度4に設定される。
なお、静止中の動体、及び、自車両から離れる方向に移動中の動体についても、衝突予測時間に基づいて、危険度2乃至4のいずれかに設定するようにしてもよい。
衝突予測部33は、衝突予測の結果をHMI制御部34及び制動制御部15に供給する。
ステップS7において、衝突予測部33は、衝突又は接触の危険性があるか否かを判定する。例えば、衝突予測部33は、自車両の周辺に危険度3以上の動体が存在しない場合、衝突及び接触の危険性がないと判定し、処理はステップS1に戻る。
その後、ステップS7において、衝突又は接触の危険性があると判定されるまで、ステップS1乃至ステップS7の処理が繰り返し実行される。
一方、ステップS7において、例えば、衝突予測部33は、自車両の周辺に危険度3以上の動体が存在する場合、衝突又は接触の危険性があると判定し、処理はステップS8に進む。
ステップS8において、HMI制御部34は、動体種別を設定する。例えば、HMI制御部34は、動体検出部42により検出された動体を、車両、モータバイク、自転車、歩行者、及び、その他の5種類に分類する。なお、モータバイクも車両の一種であるが、ここでは、モータバイクと、それ以外の車両とが区別されている。
ステップS9において、HMI制御部34は、重畳画像の表示位置を算出する。重畳画像は、例えば、各動体の位置を示すフレーム(以下、動体フレームと称する)、及び、各動体の予測される動きを示すバー(以下、動き予測バーと称する)を含む。図8を参照して後述するように、運転者に提示される周辺監視画像において、動体フレーム及び動き予測バーが、動体毎に周辺画像に重畳して表示される。
そこで、HMI制御部34は、3次元空間マップにおける各動体の位置、並びに、各動体の進行方向から見た各動体の高さ及び幅等に基づいて、各動体に対応する動体フレームの3次元空間マップにおける表示位置を算出する。
また、HMI制御部34は、各動体の動き予測の結果に基づいて、3次元空間マップにおける各動体のx秒後(例えば、1秒後)の位置を算出する。次に、HMI制御部34は、3次元空間マップ上の各動体の現在位置とx秒後の位置とに基づいて、各動体に対応する動き予測バーの3次元空間マップ上の表示位置を算出する。例えば、HMI制御部34は、現在の各動体の進行方向の先端を始点とし、x秒後の各動体の進行方向の先端を終点とすることにより、動き予測バーの長さ及び方向を算出する。
ステップS10において、車載システム10は、周辺の状況を提示する。具体的には、HMI制御部34は、3次元空間マップにおける重畳画像(動体フレーム及び動き予測バー等)の表示位置を、運転者に提示する周辺画像における表示位置に変換する。また、HMI制御部34は、3次元空間マップにおける路面の位置を周辺画像における表示位置に変換し、周辺画像における路面の位置を示すグリッドの表示位置を算出する。そして、HMI制御部34は、周辺監視画像を示す周辺監視画像データを生成し、表示部14に供給し、周辺監視画像を表示させる。
ここで、図5乃至図9を参照して、周辺監視画像の具体例について説明する。
図5は、周辺監視画像における周辺画像の配置例を示している。
図5のAの例では、左画像及び右画像が離れて配置されている。左右それぞれの画像は1つの表示部に表示されてもよいし、離れた位置に配置される2つの表示部に分けて表示されてもよい。
図5のBの例では、左画像及び右画像が左右に並べて配置されている。
図5のCの例では、左画像、前方画像(前方画像A又は前方画像Bのいずれか)、及び、右画像が左右に並べて配置されている。
図5のDの例では、左画像、前方画像A及び前方画像Bの少なくとも一方、並びに、右画像に基づいて生成されたパノラマ画像が配置されている。
図6は、周辺監視画像の具体例を示している。なお、図6には、周辺監視画像のうち、図5のA乃至図5のCの右画像が表示される部分の例が示されている。また、自車両の周辺に動体が存在しない場合の例が示されている。
周辺監視画像には、信号201及び周辺画像202(この例では、右画像)が上下に並べて配置されている。
信号201は、周辺画像内の実世界の信号とは別に独自に表示されるものであり、自車両の周辺の全体的な危険度を示す。例えば、周辺画像202内に危険度が3以上の動体が存在しない場合、安全であることを示す信号201の青色のランプが点灯する。例えば、周辺画像202内に危険度3の動体が存在し、危険度4の動体が存在しない場合、注意が必要であることを示す信号201の黄色のランプが点灯する。例えば、周辺画像202内に危険度4の動体が存在する場合、危険であることを示す信号201の赤色のランプが点灯する。
なお、信号201は、周辺監視画像内の周辺画像毎に表示するようにしてもよいし、全ての周辺画像に対して1つのみ表示するようにしてもよい。前者の場合、各周辺画像内の動体の危険度に基づいて、各周辺画像に対応する信号201の点灯するランプが個別に切り替わる。後者の場合、全ての周辺画像内の動体の危険度に基づいて、信号201の点灯するランプが切り替わる。
また、周辺画像202内の路面には、グリッドが重畳して表示されている。これにより、運転者が、路面の位置、及び、路面上の動体等の位置や移動方向を把握しやすくなる。このグリッドは、例えば、図7に示されるように、交差点の位置に合わせて表示される。
図8は、図6の周辺監視画像の周辺画像202内に動体が存在する場合の例を示している。この例では、車両221、自転車222、及び、歩行者223が、周辺画像202内に存在する。
車両221は、右方向から自車両に接近している。そして、車両221に関連づけて、動体フレームF1及び動き予測バーM1が表示されている。
動体フレームF1は、車両221の前方を囲んでいる。従って、動体フレームF1のサイズは、周辺画像202内の車両221の前方の高さ及び幅に合わせて設定される。動体フレームF1の上辺には、動体フレームF1内の動体の種類が車両であることを示すマークが表示されている。
動き予測バーM1は、車両221が走行中の路面に重畳して表示される図形で、車両221の移動方向及び移動速度によりその形状が変化する。具体的には、動き予測バーM1は、動体フレームF1の下辺から路面に沿って車両221の移動方向に伸びている。動き予測バーM1の先端は、x秒後の車両221の先端の予測位置に設定される。従って、動き予測バーM1の車両221の移動方向の長さは、車両221の速度に応じて伸縮する。この動き予測バーM1の伸縮により、車両221の加速度が示される。例えば、車両221が定速走行をしている場合、動き予測バーM1の長さはほぼ一定に保たれる。車両221が加速している場合、動き予測バーM1は次第に長くなる。車両221が減速している場合、動き予測バーM1は次第に短くなる。また、車両221の移動方向に合わせて、動き予測バーM1の向きが変化する。動き予測バーM1の幅は、動体フレームF1の幅(車両221の前方の幅)に合わせられる。
運転者は、動体フレームF1により、車両221の存在及び現在位置を容易に把握することができる。また、運転者は、動き予測バーM1により、車両221の予測される動きを容易に把握することができる。
自転車222は、右方向から自車両に接近している。そして、自転車222に関連づけて、動体フレームF2及び動き予測バーM2が表示されている。
動体フレームF2は、自転車222の前方を囲んでいる。従って、動体フレームF2のサイズは、周辺画像202内の自転車222及びその運転者の前方の高さ及び幅に合わせて設定される。動体フレームF2の上辺には、動体フレームF2内の動体の種類が自転車であることを示すマークが表示されている。
動き予測バーM2は、自転車222が走行中の路面に重畳して表示され、自転車222の移動方向及び移動速度により形状が変化する。具体的には、動き予測バーM2は、動体フレームF2の下辺から路面に沿って自転車222の移動方向に伸びている。動き予測バーM2の先端は、x秒後の自転車222の先端の予測位置に設定される。従って、動き予測バーM2の自転車222の移動方向の長さは、動き予測バーM1と同様に、自転車222の速度に応じて伸縮する。また、自転車222の移動方向に合わせて、動き予測バーM2の向きが変化する。動き予測バーM2の幅は、動体フレームF2の幅(自転車222及びその運転者の前方の幅)に合わせられる。
運転者は、動体フレームF2により、自転車222の存在及び現在位置を容易に把握することができる。また、運転者は、動き予測バーM2により、自転車222の予測される動きを容易に把握することができる。
歩行者223は、自車両の右方向において静止している。従って、歩行者223に関連づけて、動体フレームF3のみが表示され、動き予測バーは表示されていない。
動体フレームF3は、歩行者223の前方を囲んでいる。従って、動体フレームF3のサイズは、周辺画像202内の歩行者223の前方の高さ及び幅に合わせて設定される。動体フレームF3の上辺には、動体フレームF3内の動体の種類が歩行者であることを示すマークが表示されている。
運転者は、動体フレームF3により、歩行者223の存在及び現在位置を容易に把握することができる。
また、例えば、重畳画像(動体フレーム及び動き予測バー)の色は、対応する動体の危険度に基づいて変化する。例えば、危険度1の動体に対応する動体フレーム及び動き予測バーの色は、白に設定される。危険度2の動体に対応する動体フレーム及び動き予測バーの色は、緑に設定される。危険度3の動体に対応する動体フレーム及び動き予測バーの色は、黄に設定される。危険度4の動体に対応する動体フレーム及び動き予測バーの色は、赤に設定される。これにより、運転者は、各動体の危険度を容易に把握することができる。
なお、図8の例では、各動き予測バーを色分けできないため、異なるパターンで示している。
図9は、車両221が危険度4の場合の周辺監視画像の例を示している。この場合、信号201の赤のランプが点灯する。また、図8の例と同様に、車両221に関連づけて、動体フレームF11及び動き予測バーM11が表示される。ただし、動体フレームF11及び動き予測バーM11の色は、車両221が危険度4であることを示す赤に設定される。また、動体フレームF11内に、運転者に注意を促すマークが表示される。
これにより、運転者は、周辺の動体との衝突又は接触の危険性を迅速に把握し、事故を回避するための対処を行うことができる。
なお、危険度4の動体が複数存在する場合、それらの全てに対して、図9に示される動体フレームを表示するようにしてもよいし、或いは、最も危険度が高い動体(例えば、最も衝突予測時間が短い動体)に対してのみ、図9に示される動体フレームを表示するようにしてもよい。
図4に戻り、ステップS11において、制動制御部15は、緊急停止が必要であるか否かを判定する。例えば、制動制御部15は、自車両の周辺の動体の中に危険度4の動体が存在しない場合、緊急停止の必要がないと判定し、処理はステップS1に戻る。
その後、ステップS11において、緊急停止が必要であると判定されるまで、ステップS1乃至ステップS11の処理が繰り返し実行される。
一方、ステップS11において、例えば、制動制御部15は、自車両の周辺の動体の中に危険度4の動体が存在する場合、緊急停止の必要があると判定し、処理はステップS12に進む。
ステップS12において、制動制御部15は、制動装置16を制御して、自車両を緊急停止させる。これにより、自車両の周辺の動体との衝突又は接触が防止される。
その後、周辺監視処理は終了する。
以上のようにして、自車両の周辺の動体との衝突又は接触の危険性を分かりやすく通知することができ、運転者が衝突又は接触の危険性を確実に認識することができる。また、危険度4の動体が存在する場合、緊急停止が行われるため、事故の発生が防止される。
<<2.変形例>>
以下、上述した本開示に係る技術の実施の形態の変形例について説明する。
<2−1.重畳画像に関する変形例>
例えば、上述した動き予測バー以外の画像を用いて、動体の予測される動きを示すようにしてもよい。
例えば、図10の扇形の図形M21により、車両221の予測される動きを示すようにしてもよい。図形M21は、路面上に表示され、車両221の移動方向に広がっている。その角度(広がり)は、例えば、車両の移動方向の予測精度に基づいて設定される。例えば、予測精度が高い場合、すなわち車両221の移動方向の予測結果のバラツキが小さい場合、扇形の角度は小さくなる。一方、予測精度が低い場合、すなわち車両221の移動方向の予測結果のバラツキが大きい場合、扇形の角度は大きくなる。また、上述した動き予測バーと同様に、図形M21の車両221の移動方向の長さは、車両221の移動速度により変化し、図形M21の向きは、車両221の移動方向により変化する。
また、例えば、図11の楕円形の図形M31により、車両221の予測される動きを示すようにしてもよい。図形M31は、路面上において、車両221の周囲を囲んでいる。上述した動き予測バーと同様に、図形M31の車両221の移動方向の長さは、車両221の移動速度により変化し、図形M31の向きは、車両221の移動方向により変化する。
さらに、例えば、動体フレームを、動体のエッジを縁取った形状にしてもよい。これにより、運転者は、自車両の周辺の動体の形状をより把握しやすくなる。
また、例えば、動体の種類により、動体フレームの表示効果(色、形状等)を変化させるようにしてもよい。さらに、例えば、車両、モータバイク、自転車、歩行者、及び、その他の5種類以外の種類に動体を分類し、動体の種類により、動体フレームの表示効果を変化させるようにしてもよい。
また、周辺画像内に動体が多く存在する場合、全ての動体に対して重畳画像を表示すると、かえって画像が見づらくなる場合がある。そこで、例えば、各動体の危険度に基づいて、重畳画像の表示の有無を制御することにより、重畳画像を表示する動体の数を制限するようにしてもよい。
例えば、危険度が上位のn個の動体(例えば、衝突予測時間が短い順に上位のn個の動体)に対してのみ重畳画像を表示するようにしてもよい。また、例えば、周辺画像内の動体の数が所定の閾値を超える場合、危険度が所定の閾値以上(例えば、危険度3以上)の動体に対してのみ、重畳画像を表示するようにしてもよい。
また、以上の説明では、対応する動体の危険度に応じて重畳画像の色を変化させる例を示したが、他の表示効果を変化させるようしてもよい。例えば、動体バーの透過度や模様を変化させるようにしてもよい。また、例えば、重畳画像の色と透過度のように複数の表示効果を変化させるようにしてもよい。さらに、例えば、危険度4の動体に対する重畳画像を点滅させてもよい。
また、例えば、表示部14が自車両のウインドシールド部分に重畳して設けられた透過型ディスプレイにより構成される場合、自車両の運転者等の搭乗者の視界に対して、AR(拡張現実)等により重畳画像を重畳させることが可能である。
<2−2.システムの構成に関する変形例>
図1の車載システム10の構成例は、その一例であり、必要に応じて変更することが可能である。
例えば、情報処理部13を複数に分割したり、情報処理部13の一部と制動制御部15とを組み合わせたり、制動制御部15を情報処理部13に含めたりすることが可能である。
また、例えば、周辺センサデータの一部を、自車両の外部(例えば、車道沿い)に設けられたセンサから取得するようにすることが可能である。
<2−3.適用例>
本技術は、車両以外の移動体にも適用することが可能である。例えば、モータバイクを運転する運転者のヘルメットのシールドに重畳して設けられた透過型ディスプレイにより、運転者の視界に対して、AR等により重畳画像を重畳させることが可能である。
また、以上の説明では、主に運転者に対して重畳画像を表示する例を示したが、運転者以外の搭乗者に対して、重畳画像を表示するようにしてもよい。さらに、例えば、車両が全自動運転される場合、実質的に車両内に運転者が存在しない可能性があるが、その車両に搭乗している搭乗者に対して重畳画像を表示するようにしてもよい。
<<3.その他>>
<3−1.コンピュータの構成例>
上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウェアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
図12は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。
コンピュータにおいて、CPU(Central Processing Unit)401,ROM(Read Only Memory)402,RAM(Random Access Memory)403は、バス404により相互に接続されている。
バス404には、さらに、入出力インターフェース405が接続されている。入出力インターフェース405には、入力部406、出力部407、記録部408、通信部409、及びドライブ410が接続されている。
入力部406は、入力スイッチ、ボタン、マイクロホン、撮像素子などよりなる。出力部407は、ディスプレイ、スピーカなどよりなる。記録部408は、ハードディスクや不揮発性のメモリなどよりなる。通信部409は、ネットワークインターフェースなどよりなる。ドライブ410は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブル記録媒体411を駆動する。
以上のように構成されるコンピュータでは、CPU401が、例えば、記録部408に記録されているプログラムを、入出力インターフェース405及びバス404を介して、RAM403にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ(CPU401)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブル記録媒体411に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
コンピュータでは、プログラムは、リムーバブル記録媒体411をドライブ410に装着することにより、入出力インターフェース405を介して、記録部408にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部409で受信し、記録部408にインストールすることができる。その他、プログラムは、ROM402や記録部408に、あらかじめインストールしておくことができる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
また、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
さらに、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
<3−2.構成の組み合わせ例>
本技術は、以下のような構成をとることもできる。
(1)
センサから入力される情報に基づいて移動体周辺の動体を検出する動体検出部と、
前記動体の移動方向及び移動速度に応じて形状が変化するとともに、前記動体に関連づけて表示される第1の画像を生成する画像処理部と
を備える情報処理装置。
(2)
前記第1の画像は、前記動体から移動方向に伸び、前記動体の移動速度により移動方向の長さが変化するバーを含む
前記(1)に記載の情報処理装置。
(3)
前記バーの幅は、前記動体の幅により変化する
前記(2)に記載の情報処理装置。
(4)
前記第1の画像は、前記動体から前記動体の移動方向に広がり、前記動体の移動速度により移動方向の長さが変化する扇形の図形を含む
前記(1)に記載の情報処理装置。
(5)
前記扇形の図形の角度は、前記動体の移動方向の予測精度により変化する
前記(4)に記載の情報処理装置。
(6)
前記画像処理部は、前記動体が前記移動体に衝突又は接触する危険度に基づいて、前記第1の画像の表示効果を変化させる
前記(1)乃至(5)のいずれかに記載の情報処理装置。
(7)
前記画像処理部は、前記危険度に基づいて、前記第1の画像の色及び透過度のうち少なくとも1つを変化させる
前記(6)に記載の情報処理装置。
(8)
前記画像処理部は、前記動体が前記移動体に衝突又は接触する危険度に基づいて、前記動体に対する前記第1の画像の表示の有無を制御する
前記(1)乃至(7)のいずれかに記載の情報処理装置。
(9)
前記画像処理部は、前記動体の位置を示す第2の画像を生成する
前記(1)乃至(8)のいずれかに記載の情報処理装置。
(10)
前記第2の画像は、前記動体を囲むフレームを含む
前記(9)に記載の情報処理装置。
(11)
前記画像処理部は、前記動体の種類に基づいて、前記第2の画像を変化させる
前記(9)又は(10)に記載の情報処理装置。
(12)
前記動体の種類は、車両、モータバイク、自転車、及び、歩行者の少なくとも4種類に分類される
前記(11)に記載の情報処理装置。
(13)
前記画像処理部は、前記移動体の周辺の画像である周辺画像、又は、前記移動体の搭乗者の視界に前記第1の画像を重畳させる
前記(1)乃至(12)のいずれかに記載の情報処理装置。
(14)
前記画像処理部は、前記周辺画像内又は前記搭乗者の視界内の路面上に前記第1の画像を重畳させる
前記(13)に記載の情報処理装置。
(15)
前記画像処理部は、前記周辺画像内又は前記搭乗者の視界内の路面上にグリッドを重畳させる
前記(13)又は(14)に記載の情報処理装置。
(16)
前記画像処理部は、前記移動体が周辺の動体のいずれかに衝突又は接触する危険度を示す信号の表示をさらに制御する
前記(1)乃至(15)のいずれかに記載の情報処理装置。
(17)
前記検出された動体の動きを予測する動き予測部を
さらに備える前記(1)乃至(16)のいずれかに記載の情報処理装置。
(18)
移動体の周辺の動体の検出を行う動体検出ステップと、
移動体の周辺の動体の移動方向及び移動速度により形状が変化するとともに、前記動体に関連づけて表示される画像を生成する画像処理ステップと
を含む情報処理方法。
(19)
移動体の周辺の動体の検出を行う動体検出ステップと、
移動体の周辺の動体の移動方向及び移動速度により形状が変化するとともに、前記動体に関連づけて表示される画像を生成する画像処理ステップと
を含む処理を実行させるためのプログラム。
(20)
本体に配置され周辺の状況の検出に用いるセンサと、
前記センサの検出結果に基づいて、周辺の動体の検出を行う動体検出部と、
前記検出された動体の動きを予測する動き予測部と、
前記検出された動体の移動方向及び移動速度により形状が変化する画像を表示する表示部と
を備える移動体。
10 車載システム, 11 周辺センサ, 12 車両情報センサ, 13 情報処理部, 14 表示部, 15 制動制御部, 16 制動装置, 31 周辺状況検出部, 32 動き予測部, 33 衝突予測部, 34 HMI制御部, 100 車両, 101乃至104 カメラ, 201 信号, 202 周辺画像, F1乃至F3 動体フレーム, M1乃至M11 動体バー, M21,M31 図形

Claims (20)

  1. センサから入力される情報に基づいて移動体周辺の動体を検出する動体検出部と、
    前記動体の移動方向及び移動速度に応じて形状が変化するとともに、前記動体に関連づけて表示される第1の画像を生成する画像処理部と
    を備える情報処理装置。
  2. 前記第1の画像は、前記動体から移動方向に伸び、前記動体の移動速度により移動方向の長さが変化するバーを含む
    請求項1に記載の情報処理装置。
  3. 前記バーの幅は、前記動体の幅により変化する
    請求項2に記載の情報処理装置。
  4. 前記第1の画像は、前記動体から前記動体の移動方向に広がり、前記動体の移動速度により移動方向の長さが変化する扇形の図形を含む
    請求項1に記載の情報処理装置。
  5. 前記扇形の図形の角度は、前記動体の移動方向の予測精度により変化する
    請求項4に記載の情報処理装置。
  6. 前記画像処理部は、前記動体が前記移動体に衝突又は接触する危険度に基づいて、前記第1の画像の表示効果を変化させる
    請求項1に記載の情報処理装置。
  7. 前記画像処理部は、前記危険度に基づいて、前記第1の画像の色及び透過度のうち少なくとも1つを変化させる
    請求項6に記載の情報処理装置。
  8. 前記画像処理部は、前記動体が前記移動体に衝突又は接触する危険度に基づいて、前記動体に対する前記第1の画像の表示の有無を制御する
    請求項1に記載の情報処理装置。
  9. 前記画像処理部は、前記動体の位置を示す第2の画像を生成する
    請求項1に記載の情報処理装置。
  10. 前記第2の画像は、前記動体を囲むフレームを含む
    請求項9に記載の情報処理装置。
  11. 前記画像処理部は、前記動体の種類に基づいて、前記第2の画像を変化させる
    請求項9に記載の情報処理装置。
  12. 前記動体の種類は、車両、モータバイク、自転車、及び、歩行者の少なくとも4種類に分類される
    請求項11に記載の情報処理装置。
  13. 前記画像処理部は、前記移動体の周辺の画像である周辺画像、又は、前記移動体の搭乗者の視界に前記第1の画像を重畳させる
    請求項1に記載の情報処理装置。
  14. 前記画像処理部は、前記周辺画像内又は前記搭乗者の視界内の路面上に前記第1の画像を重畳させる
    請求項13に記載の情報処理装置。
  15. 前記画像処理部は、前記周辺画像内又は前記搭乗者の視界内の路面上にグリッドを重畳させる
    請求項13に記載の情報処理装置。
  16. 前記画像処理部は、前記移動体が周辺の動体のいずれかに衝突又は接触する危険度を示す信号の表示をさらに制御する
    請求項1に記載の情報処理装置。
  17. 前記検出された動体の動きを予測する動き予測部を
    さらに備える請求項1に記載の情報処理装置。
  18. 移動体の周辺の動体の検出を行う動体検出ステップと、
    移動体の周辺の動体の移動方向及び移動速度により形状が変化するとともに、前記動体に関連づけて表示される画像を生成する画像処理ステップと
    を含む情報処理方法。
  19. 移動体の周辺の動体の検出を行う動体検出ステップと、
    移動体の周辺の動体の移動方向及び移動速度により形状が変化するとともに、前記動体に関連づけて表示される画像を生成する画像処理ステップと
    を含む処理をコンピュータに実行させるためのプログラム。
  20. 本体に配置され周辺の状況の検出に用いるセンサと、
    前記センサの検出結果に基づいて、周辺の動体の検出を行う動体検出部と、
    前記検出された動体の動きを予測する動き予測部と、
    前記検出された動体の移動方向及び移動速度により形状が変化する画像を表示する表示部と
    を備える移動体。
JP2018550134A 2016-11-09 2017-10-26 情報処理装置、情報処理方法、プログラム、及び、移動体 Pending JPWO2018088224A1 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016218521 2016-11-09
JP2016218521 2016-11-09
PCT/JP2017/038706 WO2018088224A1 (ja) 2016-11-09 2017-10-26 情報処理装置、情報処理方法、プログラム、及び、移動体

Publications (1)

Publication Number Publication Date
JPWO2018088224A1 true JPWO2018088224A1 (ja) 2019-09-26

Family

ID=62109239

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018550134A Pending JPWO2018088224A1 (ja) 2016-11-09 2017-10-26 情報処理装置、情報処理方法、プログラム、及び、移動体

Country Status (5)

Country Link
US (1) US20200051435A1 (ja)
EP (1) EP3540712A4 (ja)
JP (1) JPWO2018088224A1 (ja)
CN (1) CN109891475A (ja)
WO (1) WO2018088224A1 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3293717B1 (en) * 2016-09-08 2021-11-10 KNORR-BREMSE Systeme für Nutzfahrzeuge GmbH An electronically controlled braking system
DE102016220651A1 (de) * 2016-10-20 2018-04-26 Conti Temic Microelectronic Gmbh Verfahren und Vorrichtung zur Erzeugung einer Fahrzeugumgebungsansicht bei einem Fahrzeug
DE102016223391A1 (de) 2016-11-25 2018-05-30 Conti Temic Microelectronic Gmbh Verfahren und vorrichtung zum erzeugen einer fahrzeugumgebungsansicht bei einem fahrzeug
US11155260B1 (en) * 2016-12-09 2021-10-26 United Services Automobile Association (Usaa) Autonomous vehicle entity vector-based situational awareness scoring matrix
KR20190033159A (ko) * 2017-09-21 2019-03-29 주식회사 만도 충돌 방지 제어 장치 및 방법
US11282493B2 (en) * 2018-10-05 2022-03-22 Westinghouse Air Brake Technologies Corporation Adaptive noise filtering system
JP7424375B2 (ja) * 2019-05-21 2024-01-30 ソニーグループ株式会社 画像処理装置、および画像処理方法、並びにプログラム
CN110349425B (zh) * 2019-08-13 2020-11-13 浙江吉利汽车研究院有限公司 一种用于车路协同自动驾驶系统的重要目标生成方法
JP7472491B2 (ja) * 2019-12-24 2024-04-23 株式会社Jvcケンウッド 表示制御装置、表示装置、表示制御方法及びプログラム
DE102020115149A1 (de) * 2020-06-08 2021-12-09 Dr. Ing. H.C. F. Porsche Aktiengesellschaft Verfahren zum Anpassen eines Fahrverhaltens eines Kraftfahrzeugs
JP2023028536A (ja) * 2021-08-19 2023-03-03 トヨタ自動車株式会社 自動車
US11697435B1 (en) * 2022-12-09 2023-07-11 Plusai, Inc. Hierarchical vehicle action prediction

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4626025B2 (ja) * 2000-07-28 2011-02-02 アイシン精機株式会社 車両用接近危険度検出装置
DE10359413A1 (de) * 2003-12-18 2005-07-14 Robert Bosch Gmbh Display-Einrichtung für Kraftfahrzeuge und Verfahren zur Kollisionswarnung
DE102006011481A1 (de) * 2006-03-13 2007-09-20 Robert Bosch Gmbh Verfahren und Vorrichtung zum Unterstützen eines Führens eines Fahrzeugs
JP2011118482A (ja) * 2009-11-30 2011-06-16 Fujitsu Ten Ltd 車載装置および認知支援システム
US20120242505A1 (en) * 2010-03-16 2012-09-27 Takashi Maeda Road-vehicle cooperative driving safety support device
JP5035643B2 (ja) * 2010-03-18 2012-09-26 アイシン精機株式会社 画像表示装置
WO2011125135A1 (ja) * 2010-04-09 2011-10-13 株式会社 東芝 衝突回避支援装置
CN102170558B (zh) * 2010-12-30 2012-12-19 财团法人车辆研究测试中心 障碍物侦测警示系统及方法
JP5863481B2 (ja) * 2012-01-30 2016-02-16 日立マクセル株式会社 車両用衝突危険予測装置
CN102910130B (zh) * 2012-10-24 2015-08-05 浙江工业大学 一种现实增强型的驾驶辅助预警系统
DE102013210826A1 (de) * 2013-06-11 2014-12-11 Robert Bosch Gmbh Verfahren zum Betreiben einer Anzeigevorrichtung, Computer-Programmprodukt, Anzeigevorrichtung
CN105163972B (zh) * 2013-09-13 2017-12-05 日立麦克赛尔株式会社 信息显示系统以及信息显示装置
JP6330341B2 (ja) * 2014-01-23 2018-05-30 株式会社デンソー 運転支援装置
JP2015176324A (ja) * 2014-03-14 2015-10-05 株式会社デンソー 車両用警告装置
JP6447011B2 (ja) * 2014-10-29 2019-01-09 株式会社デンソー 運転情報表示装置および運転情報表示方法
KR101824982B1 (ko) * 2015-10-07 2018-02-02 엘지전자 주식회사 차량 및 그 제어방법

Also Published As

Publication number Publication date
WO2018088224A1 (ja) 2018-05-17
EP3540712A1 (en) 2019-09-18
EP3540712A4 (en) 2019-11-20
CN109891475A (zh) 2019-06-14
US20200051435A1 (en) 2020-02-13

Similar Documents

Publication Publication Date Title
WO2018088224A1 (ja) 情報処理装置、情報処理方法、プログラム、及び、移動体
US10589752B2 (en) Display system, display method, and storage medium
JP6084598B2 (ja) 標識情報表示システム及び標識情報表示方法
JP6447468B2 (ja) 運転支援装置
JP6639194B2 (ja) 情報表示装置
US9469298B2 (en) Driving support apparatus and driving support method
EP3219568A1 (en) Auto driving control system
JP7047763B2 (ja) 運転支援装置および方法、移動体、並びにプログラム
JP2019515822A5 (ja)
JP7091311B2 (ja) 情報処理装置、情報処理方法、プログラム、及び、移動体
US11873007B2 (en) Information processing apparatus, information processing method, and program
JP2010173619A (ja) ヘッドアップディスプレイ装置
CN109720343B (zh) 车辆控制设备
US10759334B2 (en) System for exchanging information between vehicles and control method thereof
JP7140067B2 (ja) 車両制御装置、車両制御方法、及びプログラム
JP2023112082A (ja) 車両用表示装置
JP2023139320A (ja) 制御装置
WO2018173454A1 (ja) 情報表示装置、情報表示方法及びプログラム
JP6599387B2 (ja) 情報報知装置、移動体及び情報報知システム
JP7004534B2 (ja) 車両の制御装置及び車両の制御方法
US20230373309A1 (en) Display control device
CN116935695A (zh) 用于具有增强现实抬头显示器的机动车辆的碰撞警告系统
JP6569356B2 (ja) 情報呈示装置及び情報呈示方法
WO2023157721A1 (ja) 車両制御装置、車両制御方法
US12017585B2 (en) Abnormality detection device, abnormality detection method, program, and information processing system