JP2019067174A - 移動体用画像生成記録表示装置及びプログラム - Google Patents

移動体用画像生成記録表示装置及びプログラム Download PDF

Info

Publication number
JP2019067174A
JP2019067174A JP2017192431A JP2017192431A JP2019067174A JP 2019067174 A JP2019067174 A JP 2019067174A JP 2017192431 A JP2017192431 A JP 2017192431A JP 2017192431 A JP2017192431 A JP 2017192431A JP 2019067174 A JP2019067174 A JP 2019067174A
Authority
JP
Japan
Prior art keywords
virtual
mobile
unit
virtual space
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017192431A
Other languages
English (en)
Other versions
JP6543313B2 (ja
Inventor
一正 笛木
Kazumasa Fueki
一正 笛木
高橋 昇
Noboru Takahashi
昇 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
HI KK
Original Assignee
HI KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by HI KK filed Critical HI KK
Priority to JP2017192431A priority Critical patent/JP6543313B2/ja
Priority to KR1020207012744A priority patent/KR102349915B1/ko
Priority to PCT/JP2018/036758 priority patent/WO2019069875A1/ja
Priority to CN201880064353.4A priority patent/CN111164652B/zh
Priority to EP18864949.5A priority patent/EP3693930A4/en
Publication of JP2019067174A publication Critical patent/JP2019067174A/ja
Application granted granted Critical
Publication of JP6543313B2 publication Critical patent/JP6543313B2/ja
Priority to US16/837,981 priority patent/US10896542B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/503Blending, e.g. for anti-aliasing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/08Volume rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/61Scene description
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/62Semi-transparency
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2215/00Indexing scheme for image rendering
    • G06T2215/16Using real world measurements to influence rendering
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Signal Processing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Processing Or Creating Images (AREA)
  • Traffic Control Systems (AREA)
  • Time Recorders, Dirve Recorders, Access Control (AREA)
  • Image Generation (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

【課題】自己の運転する移動体の周辺の環境を、映像として表示する際に、より分かりやすい形で情報を提供するとともに、移動体の走行状況を少ない記憶容量で記録できるようにする。【解決手段】自己の移動体の位置及び速度を含む自己の移動体の走行状態に関する情報を取得する走行状態取得部と、自己の移動体の周辺の他の移動体及び走行路の形状を含む情報を取得するオブジェクト情報取得部と、走行状態取得部及びオブジェクト情報取得部から得られた情報から、自己の移動体及び複数のオブジェクトの各々に対して仮想モデルを対応付けて三次元空間の中に配置し、仮想空間構築部と仮想空間に配置された仮想的なカメラから表示画面に出力する二次元映像生成部とを有する。自己の移動体との相対的な速度に応じて、二次元映像における複数のオブジェクトの各々に対応する仮想モデルの表示に所定の効果を加えて二次元映像を生成する。【選択図】図2

Description

本発明は、移動体の周辺のオブジェクトの画像を生成し記録又は表示する装置及びそのプログラムに関する。
自動車などの移動体に設置されたカメラを用いて撮影した画像を処理して、移動体を様々な方向から見たときと近似した画像に変換する画像変換技術が存在する。移動体に搭載された複数個のカメラを用いて撮影した画像を合成し、この移動体の周囲の一定範囲の領域の画像を鳥観図のように生成する、いわゆる「アラウンドビューモニター」(登録商標)などの技術がある。このような画像合成技術は、移動体の運転席からは見えにくい位置にある他の移動体、物体などをモニタに表示してドライバに示すことにより、例えばバックでの運転時や縦列駐車の運転時のときなどにおいて利用されている。
上述のような画像合成技術は、実際の撮影画像を変換して車内の表示装置に表示している。このため、撮影している対象が、一時的に他の移動体にさえぎられたり、カメラの死角に入ったりした場合に、その対象を表示することができない場合がある。
また、移動体の走行を映像として記録するドライブレコーダが存在する。このドライブレコーダは、通常移動体のフロントガラス付近に1台設置され、映像の記録のために大容量の記憶装置を必要とする。
以下に、従来の技術について説明する。
入力装置と、仮想モデルデータベースと、仮想モデル変換装置と、仮想モデル再構成装置と、仮想モデル処理装置と、制御装置又は表示装置とから構成される装置であって、仮想モデル変換装置は、入力装置から取得した複数の対象物に関する情報を認識し、仮想モデルデータベースから対応する仮想モデルを特定し、置換する。仮想モデル再構成装置は、対象物及びそれらの関係を仮想空間において対応する仮想モデル及びそれらの関係に再構成する。仮想モデル処理装置は、再構成された仮想モデル及びこれらの関係を基礎として、仮想モデル及びこれらの関係を理解、判断し、制御装置又は表示装置に指令する技術が存在する(例えば、特許文献1参照)。
また、ナビゲーション装置内に記憶された地図情報を用い走行道路形状を生成することで、より現実的な道路表示を可能にし、自車両の表示位置をディスプレイ内の所定の一点に固定するように演算し、自車位置を示すマーク及び追従車の位置を示すマーク、さらに追従車両以外の周辺車両位置を示すマークを道路上に重ねて表示するように動作することで、自車両と周辺車両の距離間隔が容易に判別できるようにする技術が存在する(例えば、特許文献2参照)。
また、他車の相対位置を表示する場合に、CCDカメラなどの画像情報を利用して、他の車両の車種等を通信処理のデータで受けることにより、その車両の三次元情報及び周囲の地図情報(地形情報)をデータベースから読出し、自車と他車との相対位置の検出結果に基づいて、車両と地形の三次元モデルをリアルタイムで測定結果に合わせて配置して描画させることで、人口現実的な仮想画像として表示装置に表示させる。視点を移動させて自由に移動させた視点からの状態を表示させることができ、例えば、表示画面の一部に操作レバーを表示し、その操作レバーを上下左右の好みの方向に操作させることで視点を移動させることができる。上方に視点を移動させると、高い位置から全体の状況を立体的に把握でき、直前の車両の陰になって見えなかった前方の車両の存在を三次元的に確認することができる。また、視点を道路の横方向から見るような位置に移動させると、自車やその前後に存在する他車の状態を側方から客観的に表示させることができるようにする技術が存在する(例えば、特許文献3参照)。
また、視点変換画像生成手段が、視点変換画像のうち車両に相当する部分に、車両を模って描かれた車両モデル画像を合成する技術が存在する(例えば、特許文献4参照)。
特開2003−216981号公報 特開平11−250396号公報 特開2006−107521号公報 特開2011−182059号公報
上述のような移動体の周囲の複数のカメラにより映像を合成する技術では、カメラの視界から外れた部分が表示されない場合がある。また、自由な視点から移動体の周囲の映像を表示するには限界がある。
上述のような仮想モデルを用いて仮想空間を構築する技術では、オペレータ(ドライバ)に仮想モデルをより分かりやすい形で二次元画像として表示するニーズが存在する。
移動体に搭載されるドライブレコーダについては、フロントガラス付近に1台設置される場合がほとんどであるため、移動体の前方の映像を記録するものであり、その他の方向の映像を記録しない。また、走行中、映像を常に記録するためには大容量の記録媒体が必要となる。移動体の周囲の状況を記録するために複数台のカメラを設置する場合には、より大容量の記憶装置が必要となる。
開示の技術は、このような従来技術の課題に鑑みなされたものであり、自己の運転する移動体の周辺の環境を映像として表示する際に、より分かりやすい形で情報を提供するとともに、移動体の走行状況を記録する場合にもより少ない記憶容量で記録できるようにすることを目的とする。
開示の技術は、自己の移動体の位置及び速度を含む自己の移動体の走行状態に関する情報を取得する走行状態取得部と、自己の移動体の周辺に存在する他の移動体及び走行路の形状を含む複数のオブジェクトに関する情報を取得するオブジェクト情報取得部と、前記走行状態取得部及び前記オブジェクト情報取得部から得られた情報から、少なくとも、前記自己の移動体及び前記複数のオブジェクトの各々に対して仮想モデルを対応付けて三次元空間の中に配置することで、仮想空間を構築する仮想空間構築部と、前記仮想空間に配置された仮想的なカメラから前記仮想空間を撮像した二次元映像を生成し表示画面に出力する二次元映像生成部と、を有し、前記二次元映像生成部は、前記自己の移動体との相対的な速度に応じて、二次元映像における前記複数のオブジェクトの各々に対応する仮想モデルの表示に所定の効果を加えて前記二次元映像を生成する、移動体位置情報認識表示装置を提供する。
開示の技術によれば、自己の移動体の周辺の環境を、映像として表示する際に、より分かりやすい形で情報を提供できるようにするとともに、移動体の走行状況を記録する場合にもより少ない記憶容量で記録することができる。
一実施形態における仮想空間及び現実の移動体に設置されたセンサ類の例を示す図である。 一実施形態の機能ブロック図である。 一実施形態における第1の表示画像の例を示す図である。 一実施形態における第1の表示画像の変形例を示す図である。 一実施形態における第2の表示画像の例を示す図である。 一実施形態における周囲の移動体の残像の表示の第1のフローチャートである。 一実施形態における周囲の移動体の残像の表示の第2のフローチャートである。 ハードウエア構成を示す図である。
図1は、一実施形態における仮想空間及び現実の移動体に設置されたセンサ類の例を示す図である。
図1(A)に示された仮想空間150は、図1(B)に示された現実の移動体100Rに設置されたカメラ(101aないし101d)からの周辺オブジェクトの映像情報、レーダ103による周辺オブジェクトの相対速度及び位置等の情報、無線アンテナ105で受信されたGPSの情報及び無線ネットワークに接続された他のシステムからの諸情報、現実の移動体100R内に設置された速度計、加速度計、ジャイロなどのセンサ類(不図示)等から得られた移動体100Rの情報等に基づいて構築される。
上記のカメラ(101aないし101d)、レーダ103、無線アンテナ105及び速度計などのセンサ類(不図示)は、例示であって、その他適切な情報収集装置が利用され得る。またこれらの情報収集のための装置は、現実の移動体100Rの車内又は車外の何れに設置されてもよい。
図1(A)における仮想空間150は、図1(B)に示される現実の移動体100Rに対応する仮想移動体100が仮想カメラ130の撮像方向の略中央に位置するように仮想カメラ130が設定されていることが望ましい。仮想カメラ130は、仮想カメラ130の仮想的な撮像系によって、仮想空間150を二次元画像に変換する場合に用いられる様々なパラメータを設定することができる。仮想カメラ130のパラメータとしては、例えば仮想カメラ130の仮想空間上での位置、撮像方向、焦点距離、画角等である。被写界深度は、仮想的なレンズ系の焦点の合う深度を示すパラメータであるが、本実施例の場合には、被写界深度はパンフォーカスに(すなわち、仮想カメラ130から何れの距離に存在する仮想的なオブジェクトに対しても焦点が合うように)設定されていることが望ましい。
図1(A)には、上記諸情報から現実の移動体100Rの周辺に走行している実空間上の他の移動体及び静止物体等が認識される。実空間上の他の移動体及び静止物体等は、本発明の実施形態によって3Dモデルデータベースが参照され、それぞれ仮想モデルに対応付けられて仮想空間150内に配置される。
図1(A)の仮想空間には、トラック110、自動車112、バス114、路肩のポール120が、現実の移動体100Rに対応する仮想空間内の仮想移動体100の周囲に配置されている。仮想空間150内に存在するこれらの仮想的なモデルは、仮想移動体100に対して現実の空間に存在するオブジェクトの各々に対応しており、それらと現実の移動体100Rとの相対的な動きに応じて常に仮想空間150内を相対的に移動している。
本実施形態では、仮想カメラ130の仮想的な撮像系は、常に仮想移動体100を、画面の中央に置くように、仮想移動体100と同じ方向に移動して、仮想撮像系が、仮想移動体100を画面中央に置かれるように仮想移動体100を追随するようになっていることが望ましい。なお、仮想カメラ130と仮想移動体100との相対的な距離及び仮想カメラの撮像系のパラメータは、現実の移動体100Rに搭乗しているオペレータ(ドライバ)の指示により自由に設定できるようになっていることが望ましい。仮想カメラ130の撮像する映像を、現実の移動体100Rのオペレータ(ドライバ)等が見ることができるように運転席の近傍に表示装置が設置されることが望ましい。
なお、認識された二輪車や人間なども、仮想空間に置くことができる。したがって、本実施形態においては、ドライバの運転において認識されることが必要となる現実のオブジェクトについては、仮想空間内に配置できるように、認識できるオブジェクトの網羅性を担保しておくことが望ましい。
なお、仮想空間に現実の移動体100Rに対する対向車については、図1(A)に描かれていないが、対向車についても認識対象とすることが望ましい。
図2は、一実施形態の機能ブロック図である。移動体計測部210は、現実の移動体100R内に設置された速度計、加速度計、ジャイロなどのセンサ類(不図示)等からの情報を受け取る。移動体計測部210で得られた現実の移動体100Rの情報は仮想空間構築部250に送られる。
周辺オブジェクト計測部220は、現実の移動体100Rに設置されたカメラ(101aないし101d)からの周辺の他の移動体及びオブジェクトの映像情報、レーダ103による周辺の他の移動体及びオブジェクトの相対速度及び位置等の情報、無線アンテナ105で受信されたGPSの情報及び無線ネットワークに接続された他のシステムからの諸情報(道路情報、道路の設置されたカメラからの映像等)を受け取る。周辺オブジェクト計測部220で受け取られた情報は仮想空間構築部250及びオブジェクト認識部230に送られる。
オブジェクト認識部230は、周辺オブジェクト計測部220で受け取られた情報を基にして、周辺に存在する他の移動体及び路上のポール等のオブジェクトを認識し、認識された結果を仮想空間構築部250に送る。
仮想空間構築部250は、カーナビゲーションデータベース270から道路の形状を取得し、仮想空間150に道路のモデルを形成する。また、仮想空間構築部250は、移動体計測部210からの情報を基にして、現実の移動体100Rに対応する仮想移動体100を仮想空間150に形成された仮想的な上記の道路に位置させ、現実の移動体100Rに対応する速度で仮想的な上記道路を走行させる。仮想移動体100の三次元形状は、仮想空間構築部250に保存されていてもよく、或いは3Dモデルデータベース240から取得されてもよい。
更に仮想空間構築部250はオブジェクト認識部230から得られた情報を基にして、周辺の他の移動体及びオブジェクトに対応する仮想モデルを3Dモデルデータベースから取得する。仮想空間構築部250は、得られた周辺の他の移動体及びオブジェクトに対応する仮想モデルを仮想空間に置く。仮想空間構築部250は、周辺の他の移動体及びオブジェクトに対応する仮想モデルを、周辺オブジェクト計測部220の情報を基にして、仮想モデルの各々を仮想的な道路に走行させる。
また、仮想空間構築部250は、仮想空間の情報をレンダリング部260及びレコーダ部280に送る。
レンダリング部260は、オペレータ(ドライバ)から指示された仮想カメラ指示情報を基にして、仮想カメラ130のパラメータを設定し、仮想空間150を撮像した情報を、レンダリング部260に送る。
レンダリング部260は、仮想空間150を仮想カメラ130から撮像した二次元映像を生成する。生成された二次元映像は、表示装置に送られる。レンダリング部は、仮想移動体100と相対的に移動している周辺の他の移動体に関して、前記相対速度が容易に識別できるように、周辺の移動体の残像を細切れ的に表示したり又は周辺の移動体の所定時間だけ過去の映像を、例えば過去の映像になるほど透明度を増加させて二次元画像に重畳して表示したりしてもよい。あるいは、周辺の移動体の移動状況がわかるように、周辺の移動体に軌跡(ブレ)を付加するようにしてもよい。どの程度過去の残像又は過去の他の移動体の映像までを表示させるかは、あらかじめ定めておくか、オペレータ(ドライバ)の指示に基づいて適宜変更してもよい。
なお、自己の移動体、対向して走行する移動体、自己の移動体との相対速度の絶対値あるいは相対速度変化の絶対値が所定の値より小さい移動体、自己の移動体よりも速度が遅い移動体、又は静止しているオブジェクト等については、残像、過去の映像等を表示させないようにしたり、或いはこれらの移動体のうちの一部の移動体又はオブジェクトについて残像、過去の映像等を表示させないようにしたり、移動体又はオブジェクトの種類或いは性質に応じて、表示の効果を異ならせるようにしたりすることができる。
レコーダ部280は、時々刻々と変化する仮想空間の情報をメモリ704又は記憶媒体760に蓄積する。レコーダ部に蓄積される情報は、仮想空間150の情報であるため、現実の走行映像を記録するドライブレコーダよりも、より圧縮された情報を記録することができる。このため、消費する記憶容量を削減することができる。また、記録された時々刻々変化する仮想空間の情報は、仮想カメラを移動させることにより、後に記録情報を再生するときに、視点を変えて仮想空間を二次元画像でディスプレイに表示させることができる。
図3は、一実施形態における第1の表示画像の例を示す図である。図3の画像は、仮想カメラ130が仮想空間150を撮像した画像である。現在時刻における仮想移動体100、現在時刻における周辺移動体310、現在時刻に路肩に存在するポール330が表示されている。
図2において、残像312、残像314及び残像316は、周辺移動体310の残像の画像である。
例えば、残像312は、現在時刻よりも時間dだけ過去の周辺移動体310の残像であってもよい。そして、残像312は、周辺移動体310よりも透明度をΔ%増加させた画像であってもよい。したがって、残像312は、周辺移動体310よりも透明度をΔ%増加させた画像であり、常に周辺移動体310よりも時間dだけ過去の画像であってもよい。この場合、残像312は仮想移動体100よりも相対速度が速ければ、周辺移動体310を追随しているように見えることとなる。なお、上記の記載において、「透明度」とは、透明度100%が完全な透明を意味し、透明度0%が完全な不透明を意味する語として用いている。
あるいは、残像312は、ある時刻よりも所定の時間だけ過去の周辺移動体310の瞬間的な画像であって透明度をΔ%だけ増加させた画像であってもよい。すなわち、周辺移動体310は、所定のインターバル時間dで、残像を残すようにさせることとしてもよい。この場合、残像312は仮想移動体100よりも相対速度が速ければ、周辺移動体310が、所定のインターバルd毎に、周辺移動体100の静止画であって、透明度をΔ%増加させた静止画を残しながら移動しているように見えることとなる。
残像314は、残像312よりも時間dだけ、過去の画像であって、更に透明度をΔ%増加させた画像であり、残像316は、残像314よりも時間dだけ、過去の画像であって、更に透明度をΔ%増加させた画像であってもよい。なお、透明度を増加させる値は、それぞれの残像で異なってもよい。また、残像のインターバルdがそれぞれの残像で異なっていてもよい。なお、残像をいくつ残すかは、あらかじめ定めておいてもよい。あるいは、透明度を増加させた際に透明度が100%以上になった場合には、残像を消すとともに、描画対象から除外してもよい。
このように、周辺画像310の残像を残して、映像を生成することにより、周辺移動体310が、仮想移動体100と相対的にどのような速度で移動しているかを知ることができる。
なお、上述の説明では、仮想移動体100の速度が変化しても、画像において静止しているように仮想カメラ130を移動させた場合を例に説明したが、仮想移動体100が移動するように画像を生成してもよい。
図3の例では、1つの仮想移動体100のみを示したが、複数の仮想移動体を同様に表示するようにしてもよい。また、対向車をも表示させてもよい。仮想移動体310は、四輪車に限られず、二輪車、自転車などであってもよい。
残像312、残像314、残像316は、仮想移動体100と相対的な関係を保って表示されるようにすることが望ましい。したがって、残像は、静止している道路或いは路肩のポールとの相対的な位置関係が保たれないこととなってもよい。
なお、静止している路肩のポール330は、残像を残さないように表示させることが望ましい。
図4は、一実施形態における第1の表示画像の変形例を示す図である。
図4におけるブレの画像360は、残像312、残像314及び残像316等にぼかしの効果を加えて、周辺移動体310の動きの様子を表現したものである。ブレの画像は、上述の処理以外にも多様な処理によって表現できることは言うまでもない。このような効果を表示することによって、オペレータ(ドライバ)に対して、より分かりやすい映像が提供できる。
図5は、一実施形態における第2の表示画像の例を示す図である。
図5は、周辺移動体410の速度が、仮想移動体100よりも遅いトラックの場合の例を示している。この場合には、現在時刻の周辺移動体410が表示されており、過去にさかのぼるにつれて、残像412、残像414、残像416が、周辺移動体410の前に表示されるようになる。なお、このトラックのように、周辺移動体410の速度が仮想移動体100よりも遅い場合には、残像412、残像414及び残像416を表示させないようにしてもよい。このように周辺移動体410の速度が仮想移動体100よりも遅い場合には、残像がトラックのフロント部分に重なるため、人間にとってトラック(周辺移動体410)の形状が認識しづらくなる場合がある。そのため、このような状況においては、残像を表示させないようにすることで、人間にとって、トラック(周辺移動体410)の移動の状況よりもトラックの形状をはっきりと認識させることができる場合がある。また、周辺移動体410と仮想移動体100との相対速度の絶対値が所定の値より小さい場合には、残像の重なりが強くなり、人間にとってトラックの形状が認識しづらくなる場合がある。そのため、このような状況においては、残像を表示させないようにすることで、人間にとって、トラックの移動の状況よりもトラックの形状をはっきりと認識させることができる場合がある。
このように、仮想移動体100に対する周辺移動体410の相対速度が特定の条件を満たす場合に、周辺移動体100の表示に与える効果を変化させるようにしてもよい。
インターバル時間d及び透明度Δ%については、図3と同様であるので、説明を省略する。
図6は、一実施形態における周囲の移動体の残像の表示の第1のフローチャートである。以下に各ステップについて、説明する。
[ステップS500]本実施形態の処理フローは、所定のインターバルで割り込みにより開始される。なお、処理の開始の契機は、割り込みに限定されるものではない。処理はステップS510に進む。
[ステップS510]ステップ510は、ステップS526との間に存在する各ステップの処理を、周辺のオブジェクト全てについて繰り返す。
[ステップS512]例えば、現実の移動体100Rに搭載されているカメラからの映像に基づいてパターン認識により認識されたオブジェクトが、新たなものであるかが判断される。新たなものであれば(「はい」)、ステップS514に進む。既に認識済みであり、新たなものでない場合には(「いいえ」)、ステップS516に進む。
[ステップS514]新たなオブジェクトを判定し、対応する仮想モデルを特定する。認識されるべきオブジェクトが新たなものである場合には、パターン認識、機械学習の技術等を用いて、どのような車種であるか、或いはどのようなオブジェクトであるかが判定され、対応するモデルが特定される。パターン認識においては、例えば移動体であれば、ヘッドライトの位置、車体の様々なデザインなどの特徴に基づいて、その特徴に最も合致する車種を特定する。特定された車種に基づいて、3Dモデルデータベース240から、特定された車種の3Dモデルを検索し取得する。静止している路上のポール330についても特徴を抽出し、オブジェクトの認識を行い、3Dモデルの検索及び取得が行われる。取得された3Dモデルは、仮想空間を構築する際及びレンダリングの際に利用される。次にステップS516に進む。
[ステップS516]オブジェクトを判定し仮想モデルを特定する。認識された1つ以上のオブジェクトの位置に基づいて、仮想空間150内の適切な位置に仮想モデルを配置する。次にステップS518に進む。
[ステップS518]レコーダにおいて仮想空間を記録する。オペレータ(ドライバ)等により、仮想空間を記録することが指示されている場合には、その時刻における仮想空間をメモリ704又は記憶媒体760に記憶する。次にステップS520に進む。
[ステップS520]現在時刻から時間dだけ前の周辺の移動体のモデルの位置が特定される。この場合の位置とは、仮想移動体100との相対的な位置を保持するようにすることが望ましく、静止している道路又は路肩のポール330との位置関係がずれてもよい。このようにすることによって、オペレータ(ドライバ)は、自己の仮想移動体100と周辺の他の移動体との過去の位置関係を把握することができる。次にステップS522に進む。
[ステップS522] 現在時刻から時間2dだけ前の周辺の移動体のモデルの位置が特定される。その他の処理は、ステップS520と同様である。次にステップS524に進む。
[ステップS524] 現在時刻から時間3dだけ前の周辺の移動体のモデルの位置が特定される。その他の処理は、ステップS520と同様である。なお、図6に示す実施形態では、現在時刻から時間3dだけ前の周辺の移動体の処理だけを示したが、どれだけ過去までの移動体のモデルを処理するかは、あらかじめ定めておけばよい。したがって、実施形態の処理は、図6に限定されるものではない。次にステップS526に進む。
[ステップS526]他の未処理のオブジェクトが存在する場合には、ステップS510に戻る。他の未処理のオブジェクトが存在しなければ、ステップS528に進む。
[ステップS528]仮想空間150に対して、仮想カメラ130から撮像した二次元映像がレンダリングされる。なお、時間dだけ過去のモデルについては、現在時刻の周辺移動体よりも、透明度をΔ%だけ増加させ、時間2dだけ過去のモデルについては透明度を2Δ%だけ増加させ、時間3dだけ過去のモデルについては透明度を3Δ%だけ増加させてレンダリングを行って、図3に示される画像を取得することができる。なお、過去のモデルを一定のインターバルd毎に生成するようにした例を示したが、インターバルは一定でなくてもよい。また、透明度についても、所定の割合で透明度を増加させるのではなく、表示装置の特性などを考慮して、それぞれの過去のモデルの透明度を個別に変化させてもよい。
以上の処理を行うことによって、図3に示されるように、現在における周辺移動体310の画像に追随するように、時間dだけ現在より過去の時刻における周辺移動体312が、Δ%だけ透明度を増加させて表示されるようになる。過去の周辺移動体314及び過去の周辺移動体316についてもすでに説明したとおりであるので、説明を省略する。
図6の処理を用いることにより、過去の複数の時点における周辺移動体(312、314、316)が、滑らかに周辺移動体310に追随して移動するように映像が生成される。
図6の処理を行うことによって、仮想移動体100との関係で周辺移動体がどのように相対的に移動しているかを、オペレータ(ドライバ)に対して、より分かりやすく表示することができる。
なお、図4のように、ブレを表示させるためには、過去の複数の時点における周辺移動体(312、314、316)をぼかして表示させるようにしてもよい。あるいは、図7に示す過去の残像をぼかして表示するようにしてもよい。なお、ブレの表現については、これらの手法に限定されるものではない。
図7は、一実施形態における周囲の移動体の残像の表示の第2のフローチャートである。以下に各ステップについて、説明する。
[ステップS600] 本実施形態の処理フローは、所定のインターバルで割り込みにより開始される。なお、処理の開始の契機は、割り込みに限定されるものではない。処理はステップS610に進む。
[ステップS610]ステップ610は、ステップS626との間に存在する各ステップの処理を、周辺のオブジェクト全てについて繰り返す。
[ステップS612]例えば、現実の移動体100Rに搭載されているカメラからの映像に基づいてパターン認識により認識されたオブジェクトが、新たなものであるかが判断される。新たなものであれば(「はい」)、ステップS614に進む。既に認識済みであり、新たなものでない場合には、ステップS616に進む。
[ステップS614] 新たなオブジェクトを判定し、対応する仮想モデルを特定する。認識されるべきオブジェクトが新たなものである場合には、パターン認識の技術を用いて、どのような車種であるか、或いはどのようなオブジェクトであるかが判定され、対応するモデルが特定される。パターン認識においては、例えば移動体であれば、ヘッドライトの位置、車体の様々なデザインなどの特徴に基づいて、その特徴に最も合致する車種を特定する。特定された車種に基づいて、3Dモデルデータベースから、特定された車種の3Dモデルを検索し取得する。静止している路上のポール330についても特徴を抽出し、オブジェクトの認識を行い、3Dモデルの検索及び取得が行われる。取得された3Dモデルは、仮想空間を構築する際及びレンダリングの際に利用される。次にステップS616に進む。
[ステップS616] オブジェクトを判定し仮想モデルを特定する。認識された1つ以上のオブジェクトの位置に基づいて、仮想空間150内の適切な位置にモデルを配置する。次にステップS618に進む。
[ステップS618]レコーダにおいて仮想空間を記録する。オペレータにより、仮想空間を記録することが指示されている場合には、その時刻における仮想空間をメモリ704又は記憶媒体760に記憶する。次にステップS620に進む。
[ステップS620]インターバルの時間d1が経過したかがチェックされる。インターバルの時間d1が経過した場合(「はい」)には、インターバルの計測をゼロリセットして、ステップS622に進む。インターバルの時間d1が経過していない場合(「いいえ」)には、ステップS624に進む。
[ステップS622] 周辺の移動体については現在時刻のモデルの描画を残像として残す。ステップS622に進む。このステップによって、残像は、インターバルの時間d1毎に順次複数個生成されることになる。
[ステップS624] 複数の残像の各々の透明度をΔ%増加させる。透明度が100%以上になった残像は描画対象から除外してもよい。残像は、仮想移動体100との位置関係を維持することが望ましい。なお、透明度が100%以上にならなくても、所定の時間だけ過去の残像は描画対象から除外するようにしてもよい。なお、レンダリングは、ステップS628においてまとめて行うことができる。ステップS626に進む。
[ステップS626] 他の未処理のオブジェクトが存在する場合には、ステップS610に戻る。他の未処理のオブジェクトが存在しなければ、ステップS628に進む。
[ステップS628] 仮想空間150に対して、仮想カメラ130から撮像した二次元映像がレンダリングされる。なお、時間d1だけ過去の残像については透明度をΔ%だけ増加させ、時間2dだけ過去の残像については透明度を2Δ%だけ増加させ、時間3dだけ過去の残像については透明度を3Δ%だけ増加させてレンダリングを行って、図3に示される画像を取得することができる。なお、残像を一定のインターバルd1毎に生成する例を示したが、インターバルは一定でなくてもよい。また、透明度についても、所定の割合で透明度を増加させるのではなく、表示装置の特性などを考慮して、それぞれの過去のモデルの透明度を個別に変化させてもよい。
以上の処理を行うことによって、図3に示されるように、現在における周辺移動体310の画像が、複数の残像を残すように、時間d1だけ隔てて、順にΔ%だけ透明度を更に増加させて表示されるようになる。
図7の処理を用いることにより、周辺移動体312の残像(312、314、316)が、インターバル時間d1毎に生成される。
図7の処理を行うことによって、仮想移動体100との関係で周辺移動体がどのように相対的に移動しているかを、オペレータ(ドライバ)に対して、より分かりやすく表示することができる。
<ハードウエア構成>
図8は、一実施形態のハードウエア構成700を示す図である。
ハードウエア構成700は、CPU702、メモリ704、通信制御装置706、入力インタフェース708、表示制御部710、外部メモリ制御部712及び出力インタフェース714を有する。
そして、通信制御装置706には、インターネット、CAN731(コントローラエリアネットワーク)などのネットワークが接続される。入力インタフェース708には、タッチ感知センサ740、GPS742、カメラ744などが接続される。表示制御部710には、ディスプレイ750が接続される。外部メモリ制御部712は、記憶媒体760を読み書きすることができる。出力インタフェースには、スピーカ770などが接続される。
記憶媒体760は、RAM、ROM、CD−ROM、DVD−ROM、ハードディスク、メモリーカード等であってもよい。
以上説明した実施形態のプログラムは、ハードウエア構成700を備えるコンピュータにより実行され得る。また,実施形態のプログラムは,コンピュータに実行させる方法として,インプリメントされてもよい。本実施形態のプログラムの一部又は全部は、オペレーティングシステムにより実行されてもよい。また、プログラムの一部がハードウエアにより実現されてもよい。プログラムは記憶媒体760又はメモリ704に記憶されてもよい。
なお,上述の実施形態において,プログラムのステップは、矛盾のない限り,同時に,又は順序を入れ替えて実行されてもよい。
以上の実施形態は,ハードウエアの装置としてインプリメントされ得る。
以上の実施形態は,請求項に記載された発明を限定するものではなく,例示として取り扱われることは言うまでもない。
210 移動体計測部
220 周辺オブジェクト計測部
230 オブジェクト認識部
240 3Dモデルデータベース
250 仮想空間構築部
260 レンダリング部
270 カーナビゲーションデータベース
280 レコーダ部

Claims (7)

  1. 自己の移動体の位置及び速度を含む自己の移動体の走行状態に関する情報を取得する走行状態取得部と、
    自己の移動体の周辺に存在する他の移動体及び走行路の形状を含む複数のオブジェクトに関する情報を取得するオブジェクト情報取得部と、
    前記走行状態取得部及び前記オブジェクト情報取得部から得られた情報から、少なくとも、前記自己の移動体及び前記複数のオブジェクトの各々に対して仮想モデルを対応付けて三次元空間の中に配置することで、仮想空間を構築する仮想空間構築部と、
    前記仮想空間に配置された仮想的なカメラから前記仮想空間を撮像した二次元映像を生成し表示画面に出力する二次元映像生成部と、
    を有し、
    前記二次元映像生成部は、前記自己の移動体との相対的な速度に応じて、二次元映像における前記複数のオブジェクトの各々に対応する仮想モデルの表示に所定の効果を加えて前記二次元映像を生成する、
    移動体位置情報認識表示装置。
  2. 前記効果は、離散的に表示される残像であって、時間の経過と共に透明度が増加する残像である、請求項1に記載の移動体位置情報認識表示装置。
  3. 前記残像は、現在の時刻よりも所定時間だけ前の時刻のモデルの映像であって、前記所定の時間が大きいほど、モデルの映像の透明度が増加している、請求項2に記載の移動体位置情報認識表示装置。
  4. 前記効果は、軌跡である、請求項1に記載の移動体位置情報認識表示装置。
  5. 前記自己の移動体に対向して走行するオブジェクト、前記自己の移動体との相対速度の絶対値あるいは相対速度変化の絶対値が所定の値より小さいオブジェクト、前記自己の移動体よりも速度が遅いオブジェクト、又は静止しているオブジェクトに対応するモデルには、前記効果を加えない、請求項1ないし4のうちいずれか1項記載の移動体位置情報認識表示装置。
  6. 前記仮想空間又は前記二次元映像を記録する記録部、
    を更に有する請求項1ないし5のうちいずれか1項記載の移動体位置情報認識表示装置。
  7. 自己の移動体の位置及び速度を含む自己の移動体の走行状態に関する情報を取得する走行状態取得ステップと、
    自己の移動体の周辺に存在する他の移動体及び走行路の形状を含む複数のオブジェクトに関する情報を取得するオブジェクト情報取得ステップと、
    前記走行状態取得ステップ及び前記オブジェクト情報取得ステップから得られた情報から、少なくとも、前記自己の移動体及び前記複数のオブジェクトの各々に対して仮想モデルを対応付けて三次元空間の中に配置することで、仮想空間を構築する仮想空間構築ステップと、
    前記仮想空間に配置された仮想的なカメラから前記仮想空間を撮像した二次元映像を生成し表示画面に出力する二次元映像生成ステップと、
    をコンピュータに実行させるプログラムであって、
    前記二次元映像生成ステップは、前記自己の移動体との相対的な速度に応じて、二次元映像における前記複数のオブジェクトの各々に対応する仮想モデルの表示に所定の効果を加えて前記二次元映像を生成する、
    移動体位置情報認識表示プログラム。


JP2017192431A 2017-10-02 2017-10-02 移動体用画像生成記録表示装置及びプログラム Active JP6543313B2 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2017192431A JP6543313B2 (ja) 2017-10-02 2017-10-02 移動体用画像生成記録表示装置及びプログラム
KR1020207012744A KR102349915B1 (ko) 2017-10-02 2018-10-01 이동체용 이미지 생성 기록 표시 장치 및 프로그램
PCT/JP2018/036758 WO2019069875A1 (ja) 2017-10-02 2018-10-01 移動体用画像生成記録表示装置及びプログラム
CN201880064353.4A CN111164652B (zh) 2017-10-02 2018-10-01 移动体图像生成记录显示装置和程序产品
EP18864949.5A EP3693930A4 (en) 2017-10-02 2018-10-01 MOBILE BODY IMAGE PRODUCTION / RECORDING / DISPLAY DEVICE, AND PROGRAM
US16/837,981 US10896542B2 (en) 2017-10-02 2020-04-01 Moving body image generation recording display device and program product

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017192431A JP6543313B2 (ja) 2017-10-02 2017-10-02 移動体用画像生成記録表示装置及びプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2019111324A Division JP6697115B2 (ja) 2019-06-14 2019-06-14 移動体用画像生成記録表示装置及びプログラム

Publications (2)

Publication Number Publication Date
JP2019067174A true JP2019067174A (ja) 2019-04-25
JP6543313B2 JP6543313B2 (ja) 2019-07-10

Family

ID=65995397

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017192431A Active JP6543313B2 (ja) 2017-10-02 2017-10-02 移動体用画像生成記録表示装置及びプログラム

Country Status (6)

Country Link
US (1) US10896542B2 (ja)
EP (1) EP3693930A4 (ja)
JP (1) JP6543313B2 (ja)
KR (1) KR102349915B1 (ja)
CN (1) CN111164652B (ja)
WO (1) WO2019069875A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020095465A (ja) * 2018-12-12 2020-06-18 ソニー株式会社 画像処理装置、画像処理方法、及び、プログラム
WO2023176854A1 (ja) * 2022-03-15 2023-09-21 オムロン株式会社 俯瞰データ生成装置、学習装置、俯瞰データ生成プログラム、俯瞰データ生成方法、及びロボット
JP7364269B2 (ja) 2022-03-15 2023-10-18 Necプラットフォームズ株式会社 物体検知装置、画像処理表示方法及びプログラム
JP7438515B2 (ja) 2022-03-15 2024-02-27 オムロン株式会社 俯瞰データ生成装置、学習装置、俯瞰データ生成プログラム、俯瞰データ生成方法、及びロボット

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113544698A (zh) * 2019-02-28 2021-10-22 斯塔特斯公司 广播视频中运动员再识别的系统及方法
CN110708594B (zh) * 2019-09-26 2022-03-29 三星电子(中国)研发中心 一种内容影像的生成方法及系统
CN114520875B (zh) * 2022-01-28 2024-04-02 西安维沃软件技术有限公司 视频处理方法、装置及电子设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11339192A (ja) * 1998-05-25 1999-12-10 Hitachi Ltd 車両用表示装置
JP2002278662A (ja) * 2001-03-22 2002-09-27 Namco Ltd ゲーム装置、ゲーム処理用プログラム、およびそのプログラムを記録した記録媒体
JP2006107521A (ja) * 2005-10-17 2006-04-20 Denso Corp 移動体用通信装置

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ES2297896T3 (es) * 1997-11-25 2008-05-01 Kabushiki Kaisha Sega Doing Business As Sega Corporation Dispositivo de generacion de imagenes.
JPH11250396A (ja) 1998-02-27 1999-09-17 Hitachi Ltd 車両位置情報表示装置および方法
WO1999049465A1 (fr) * 1998-03-20 1999-09-30 Citizen Watch Co., Ltd. Dispositif d'enregistrement magnetique
JP3442736B2 (ja) * 2000-11-30 2003-09-02 コナミ株式会社 画像処理装置、画像処理方法及び情報記憶媒体
JP2003216981A (ja) 2002-01-25 2003-07-31 Iwane Kenkyusho:Kk 自動作業システム
WO2005088970A1 (ja) 2004-03-11 2005-09-22 Olympus Corporation 画像生成装置、画像生成方法、および画像生成プログラム
JP3769287B2 (ja) * 2004-09-09 2006-04-19 コナミ株式会社 画像生成装置、荷重表示方法、ならびに、プログラム
JP2006092156A (ja) * 2004-09-22 2006-04-06 Namco Ltd プログラム、情報記憶媒体及び画像生成装置
JP4534922B2 (ja) * 2005-09-16 2010-09-01 株式会社デンソー 仮想先行車画像表示システム
GB0807953D0 (en) * 2008-05-01 2008-06-11 Ying Ind Ltd Improvements in motion pictures
JP5273068B2 (ja) 2010-02-26 2013-08-28 三菱自動車工業株式会社 車両周辺監視装置
JP5681569B2 (ja) 2011-05-31 2015-03-11 富士通テン株式会社 情報処理システム、サーバ装置、および、車載装置
JP6062041B2 (ja) * 2012-05-07 2017-01-18 本田技研工業株式会社 道路を基準にした風景のビデオ画像から仮想表示面を生成する方法
US8892358B2 (en) * 2013-03-14 2014-11-18 Robert Bosch Gmbh System and method for distortion correction in three-dimensional environment visualization
DE102014219575A1 (de) * 2013-09-30 2015-07-23 Honda Motor Co., Ltd. Verbesserte 3-Dimensionale (3-D) Navigation
US20150104757A1 (en) * 2013-10-15 2015-04-16 Mbfarr, Llc Driving assessment and training method and apparatus
US10321117B2 (en) * 2014-04-11 2019-06-11 Lucasfilm Entertainment Company Ltd. Motion-controlled body capture and reconstruction
US9965956B2 (en) * 2014-12-09 2018-05-08 Mitsubishi Electric Corporation Collision risk calculation device, collision risk display device, and vehicle body control device
JP6372402B2 (ja) * 2015-03-16 2018-08-15 株式会社デンソー 画像生成装置
KR101750159B1 (ko) * 2015-07-01 2017-06-22 엘지전자 주식회사 차량 주행 보조 장치, 이의 동작 방법, 및 이를 포함하는 차량

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11339192A (ja) * 1998-05-25 1999-12-10 Hitachi Ltd 車両用表示装置
JP2002278662A (ja) * 2001-03-22 2002-09-27 Namco Ltd ゲーム装置、ゲーム処理用プログラム、およびそのプログラムを記録した記録媒体
JP2006107521A (ja) * 2005-10-17 2006-04-20 Denso Corp 移動体用通信装置

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020095465A (ja) * 2018-12-12 2020-06-18 ソニー株式会社 画像処理装置、画像処理方法、及び、プログラム
WO2023176854A1 (ja) * 2022-03-15 2023-09-21 オムロン株式会社 俯瞰データ生成装置、学習装置、俯瞰データ生成プログラム、俯瞰データ生成方法、及びロボット
JP7364269B2 (ja) 2022-03-15 2023-10-18 Necプラットフォームズ株式会社 物体検知装置、画像処理表示方法及びプログラム
JP7438515B2 (ja) 2022-03-15 2024-02-27 オムロン株式会社 俯瞰データ生成装置、学習装置、俯瞰データ生成プログラム、俯瞰データ生成方法、及びロボット

Also Published As

Publication number Publication date
CN111164652B (zh) 2023-12-08
EP3693930A4 (en) 2021-06-30
WO2019069875A1 (ja) 2019-04-11
KR20200054322A (ko) 2020-05-19
EP3693930A1 (en) 2020-08-12
US10896542B2 (en) 2021-01-19
JP6543313B2 (ja) 2019-07-10
US20200234497A1 (en) 2020-07-23
CN111164652A (zh) 2020-05-15
KR102349915B1 (ko) 2022-01-10

Similar Documents

Publication Publication Date Title
JP6543313B2 (ja) 移動体用画像生成記録表示装置及びプログラム
JP7052174B2 (ja) 将来経路を推定するシステム及び方法
US10031526B1 (en) Vision-based driving scenario generator for autonomous driving simulation
US10983524B2 (en) Sensor aggregation framework for autonomous driving vehicles
US11016500B2 (en) Simulation-based method to evaluate perception requirement for autonomous driving vehicles
CN110389585B (zh) 用于自动驾驶车辆的基于学习的速度规划器
EP3583380B1 (en) Shape estimating apparatus
CN110796692A (zh) 用于同时定位与建图的端到端深度生成模型
JP6095985B2 (ja) 再生装置、再生システム、再生方法及びプログラム
US20190325597A1 (en) Simultaneous Localization And Mapping Constraints In Generative Adversarial Networks For Monocular Depth Estimation
KR20190062390A (ko) 검출된 배리어에 기반한 차량의 항법
JP6697115B2 (ja) 移動体用画像生成記録表示装置及びプログラム
EP3942794B1 (en) Depth-guided video inpainting for autonomous driving
JP2019045892A (ja) 情報処理装置、情報処理方法、プログラム、及び、移動体
JP4609603B2 (ja) 3次元情報表示装置および3次元情報表示方法
JP2010028803A (ja) 駐車補助のための画像表示方法
JP2008236403A (ja) 車両用運転支援装置
EP3327676B1 (en) Method for displaying object on three-dimensional model
JP7077726B2 (ja) 車両システム、空間領域推測方法及び空間領域推測装置
JP6080735B2 (ja) 運転支援装置
KR102511539B1 (ko) 영상 기반 차량 주행 시뮬레이션 시스템 및 방법
EP2639771B1 (en) Augmented vision in image sequence generated from a moving vehicle
CN117036403A (zh) 图像处理方法、装置、电子设备和存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171002

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190218

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190516

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190614

R150 Certificate of patent or registration of utility model

Ref document number: 6543313

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250