JP6079131B2 - 画像処理装置、方法、及びプログラム - Google Patents
画像処理装置、方法、及びプログラム Download PDFInfo
- Publication number
- JP6079131B2 JP6079131B2 JP2012235653A JP2012235653A JP6079131B2 JP 6079131 B2 JP6079131 B2 JP 6079131B2 JP 2012235653 A JP2012235653 A JP 2012235653A JP 2012235653 A JP2012235653 A JP 2012235653A JP 6079131 B2 JP6079131 B2 JP 6079131B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- time
- pixel
- moving body
- projection plane
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
- G06T15/205—Image-based rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformation in the plane of the image
- G06T3/40—Scaling the whole image or part thereof
- G06T3/4038—Scaling the whole image or part thereof for image mosaicing, i.e. plane images composed of plane sub-images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
Description
図1には、第1実施形態に係る画像処理装置10が示されている。画像処理装置10は、立体物による画素値の欠損部分に対し、現在位置とは異なる位置で過去に撮影された画像における該当位置の画素値を割り当てることで、自然な全周囲画像を合成する。
I* n=MΔTIn (2)
InC=MCI* n=MCMΔTIn (3)
Qn(T−ΔT)=TC(InC) (4)
(1)過去画像セット記憶部33Bに記憶された時刻(T−ΔT)のテクスチャ画像を用いる。
(2)補間用の投影面ポリゴンデータを用いる。
(3)合成画像上に現在時刻Tのテクスチャ画像の画素値が既に書き込まれている場合(背景色以外の場合)には重畳描画しない。
次に開示の技術の第2実施形態について説明する。図27には、第2実施形態に係る画像処理装置210が示されている。なお、第2実施形態の画像処理装置210について、第1実施形態の画像処理装置10と同一の部分には、同一の符号を付して詳細な説明を省略する。
移動体周辺を連続して撮影した画像を示す画像情報、及び前記移動体周辺に存在する立体物上の複数の点の前記移動体に設定された移動体座標系で表された3次元位置を示す3次元位置情報を取得する取得部と、第1時刻と第2時刻との間に移動した前記移動体の移動量を計測する移動量計測部と、前記取得部により取得された前記3次元位置情報に基づいて、前記第1時刻に撮影された第1画像中で立体物を示す画素を特定する特定部と、前記第1時刻における前記移動体を内部に含むように定めた立体投影面上の各点と前記第1画像の各画素の位置との対応を示す第1対応関係を仮想視点投影により生成すると共に、前記移動量計測部により計測された移動量に基づいて、前記第2時刻における前記移動体の位置を前記第1時刻における前記移動体座標系によって表し、前記立体投影面上の各点と前記第2時刻に撮影された第2画像の各画素の位置との対応を示す第2対応関係を仮想視点投影により生成する対応関係生成部と、所定の視点位置から見た前記立体投影面の各点に対応する合成画像上の各画素の画素値を、前記第1対応関係に基づいて前記第1画像の対応する画素の画素値とすると共に、前記第1画像において前記特定部により立体物を示す画素として特定された画素に対応する前記合成画像の各画素の画素値を、前記第2対応関係に基づいて前記第2画像の対応する画素の画素値とすることにより、前記合成画像を合成する合成部と、を含む画像処理装置。
移動体周辺を連続して撮影した画像を示す画像情報、及び前記移動体周辺に存在する立体物上の複数の点の前記移動体に設定された移動体座標系で表された3次元位置を示す3次元位置情報を取得する取得部と、第1時刻と第2時刻との間に移動した前記移動体の移動量を計測する移動量計測部と、前記取得部により取得された前記3次元位置情報に基づいて、前記第1時刻に撮影された第1画像中で立体物を示す画素を特定する特定部と、前記移動量計測部により計測された移動量に基づいて、前記第2時刻における前記移動体の位置を前記第1時刻における前記移動体座標系によって表し、前記特定部により立体物を示す画素として特定された前記第1画像の画素の画素値を、対応する前記第2時刻に撮影された第2画像の画素の画素値で補間する補間部と、前記第1時刻における前記移動体を内部に含むように定めた立体投影面上の各点と前記第1画像の各画素の位置との対応を示す第1対応関係を仮想視点投影により生成する対応関係生成部と、所定の視点位置から見た前記立体投影面の各点に対応する合成画像の各画素の画素値を、前記第1対応関係に基づいて前記補間部による補間後の第1画像の対応する画素の画素値とすることにより、前記合成画像を合成する合成部と、を含む画像処理装置。
前記移動量計測部により計測された前記第1時刻と前記第2時刻との間に移動した前記移動体の移動量に基づいて、前記第1時刻における前記移動体の位置と前記第2時刻における前記移動体の位置との差が、予め定めた所定範囲内となるように前記第2画像を管理する管理部を含む付記1または付記2記載の画像処理装置。
前記特定部は、前記第1画像中で立体物を示す画素を特定する立体物マスク画像を作成する付記1〜付記3のいずれか1つに記載の画像処理装置。
前記対応関係生成部は、撮影された画像を、前記移動体の位置を原点とした無限半径の半球と前記移動体が存在する水平面とを組み合わせた形状の仮想視点投影面に投影し、前記仮想視点投影面に投影された点を、仮想視点位置を基準に前記立体投影面に再投影する仮想視点投影を用いる付記1〜付記4のいずれか1つに記載の画像処理装置。
前記合成部は、前記取得部により取得した3次元位置情報に基づく立体物、及び予め登録された前記移動体の形状を前記合成画像に合成する付記1〜付記4のいずれか1つに記載の画像処理装置。
移動体周辺を連続して撮影した画像を示す画像情報、及び前記移動体周辺に存在する立体物上の複数の点の前記移動体に設定された移動体座標系で表された3次元位置を示す3次元位置情報を取得し、第1時刻と第2時刻との間に移動した前記移動体の移動量を計測し、取得された前記3次元位置情報に基づいて、前記第1時刻に撮影された第1画像中で立体物を示す画素を特定し、前記第1時刻における前記移動体を内部に含むように定めた立体投影面上の各点と前記第1画像の各画素の位置との対応を示す第1対応関係を仮想視点投影により生成すると共に、計測された移動量に基づいて、前記第2時刻における前記移動体の位置を前記第1時刻における前記移動体座標系によって表し、前記立体投影面上の各点と前記第2時刻に撮影された第2画像の各画素の位置との対応を示す第2対応関係を仮想視点投影により生成し、所定の視点位置から見た前記立体投影面の各点に対応する合成画像上の各画素の画素値を、前記第1対応関係に基づいて前記第1画像の対応する画素の画素値とすると共に、前記第1画像において立体物を示す画素として特定された画素に対応する前記合成画像の各画素の画素値を、前記第2対応関係に基づいて前記第2画像の対応する画素の画素値とすることにより、前記合成画像を合成することを含む画像処理方法。
移動体周辺を連続して撮影した画像を示す画像情報、及び前記移動体周辺に存在する立体物上の複数の点の前記移動体に設定された移動体座標系で表された3次元位置を示す3次元位置情報を取得し、第1時刻と第2時刻との間に移動した前記移動体の移動量を計測し、取得された前記3次元位置情報に基づいて、前記第1時刻に撮影された第1画像中で立体物を示す画素を特定し、計測された移動量に基づいて、前記第2時刻における前記移動体の位置を前記第1時刻における前記移動体座標系によって表し、立体物を示す画素として特定された前記第1画像の画素の画素値を、対応する前記第2時刻に撮影された第2画像の画素の画素値で補間し、前記第1時刻における前記移動体を内部に含むように定めた立体投影面上の各点と前記第1画像の各画素の位置との対応を示す第1対応関係を仮想視点投影により生成し、所定の視点位置から見た前記立体投影面の各点に対応する合成画像の各画素の画素値を、前記第1対応関係に基づいて、補間後の第1画像の対応する画素の画素値とすることにより、前記合成画像を合成することを含む画像処理方法。
計測された前記第1時刻と前記第2時刻との間に移動した前記移動体の移動量に基づいて、前記第1時刻における前記移動体の位置と前記第2時刻における前記移動体の位置との差が、予め定めた所定範囲内となるように前記第2画像を管理することをさらに含む付記7または付記8記載の画像処理方法。
前記第1時刻に撮影された第1画像中で立体物を示す画素を特定することは、前記第1画像中で立体物を示す画素を特定する立体物マスク画像を作成することである付記7〜付記9のいずれか1つに記載の画像処理方法。
第1対応関係及び第2対応関係を生成する際に、撮影された画像を、前記移動体の位置を原点とした無限半径の半球と前記移動体が存在する水平面とを組み合わせた形状の仮想視点投影面に投影し、前記仮想視点投影面に投影された点を、仮想視点位置を基準に前記立体投影面に再投影する仮想視点投影を用いる付記7〜付記10のいずれか1つに記載の画像処理方法。
前記取得部により取得した3次元位置情報に基づく立体物、及び予め登録された前記移動体の形状を前記合成画像に合成する付記7〜付記11のいずれか1つに記載の画像処理方法。
コンピュータに、移動体周辺を連続して撮影した画像を示す画像情報、及び前記移動体周辺に存在する立体物上の複数の点の前記移動体に設定された移動体座標系で表された3次元位置を示す3次元位置情報を取得し、第1時刻と第2時刻との間に移動した前記移動体の移動量を計測し、取得された前記3次元位置情報に基づいて、前記第1時刻に撮影された第1画像中で立体物を示す画素を特定し、前記第1時刻における前記移動体を内部に含むように定めた立体投影面上の各点と前記第1画像の各画素の位置との対応を示す第1対応関係を仮想視点投影により生成すると共に、計測された移動量に基づいて、前記第2時刻における前記移動体の位置を前記第1時刻における前記移動体座標系によって表し、前記立体投影面上の各点と前記第2時刻に撮影された第2画像の各画素の位置との対応を示す第2対応関係を仮想視点投影により生成し、所定の視点位置から見た前記立体投影面の各点に対応する合成画像上の各画素の画素値を、前記第1対応関係に基づいて前記第1画像の対応する画素の画素値とすると共に、前記第1画像において立体物を示す画素として特定された画素に対応する前記合成画像の各画素の画素値を、前記第2対応関係に基づいて前記第2画像の対応する画素の画素値とすることにより、前記合成画像を合成することを含む処理を実行させるための画像処理プログラム。
コンピュータに、移動体周辺を連続して撮影した画像を示す画像情報、及び前記移動体周辺に存在する立体物上の複数の点の前記移動体に設定された移動体座標系で表された3次元位置を示す3次元位置情報を取得し、第1時刻と第2時刻との間に移動した前記移動体の移動量を計測し、取得された前記3次元位置情報に基づいて、前記第1時刻に撮影された第1画像中で立体物を示す画素を特定し、計測された移動量に基づいて、前記第2時刻における前記移動体の位置を前記第1時刻における前記移動体座標系によって表し、立体物を示す画素として特定された前記第1画像の画素の画素値を、対応する前記第2時刻に撮影された第2画像の画素の画素値で補間し、前記第1時刻における前記移動体を内部に含むように定めた立体投影面上の各点と前記第1画像の各画素の位置との対応を示す第1対応関係を仮想視点投影により生成し、所定の視点位置から見た前記立体投影面の各点に対応する合成画像の各画素の画素値を、前記第1対応関係に基づいて、補間後の第1画像の対応する画素の画素値とすることにより、前記合成画像を合成することを含む処理を実行させるための画像処理プログラム。
計測された前記第1時刻と前記第2時刻との間に移動した前記移動体の移動量に基づいて、前記第1時刻における前記移動体の位置と前記第2時刻における前記移動体の位置との差が、予め定めた所定範囲内となるように前記第2画像を管理することを含む処理をコンピュータに実行させるための付記13または付記14画像処理プログラム。
前記第1時刻に撮影された第1画像中で立体物を示す画素を特定することは、前記第1画像中で立体物を示す画素を特定する立体物マスク画像を作成することである付記13〜付記15のいずれか1つに記載の画像処理プログラム。
第1対応関係及び第2対応関係を生成する際に、撮影された画像を、前記移動体の位置を原点とした無限半径の半球と前記移動体が存在する水平面とを組み合わせた形状の仮想視点投影面に投影し、前記仮想視点投影面に投影された点を、仮想視点位置を基準に前記立体投影面に再投影する仮想視点投影を用いる付記13〜付記16のいずれか1つに記載の画像処理プログラム。
前記取得部により取得した3次元位置情報に基づく立体物、及び予め登録された前記移動体の形状を前記合成画像に合成する付記13〜付記17のいずれか1つに記載の画像処理プログラム。
11F,11B,11L,11R カメラ
12F,12B,12L,12R レンジセンサ
20 取得部
21 車両移動量計測部
22 立体物マスク画像作成部
23 過去画像セット管理部
24、224 投影面ポリゴンデータ生成部
25 視点位置決定部
26、226 画像合成部
27 テクスチャ画像補間部
30 テクスチャ画像記憶部
31 3次元位置記憶部
32 立体物マスク画像記憶部
33A,33B 過去画像セット記憶部
34 合成画像記憶部
40、240 コンピュータ
Claims (9)
- 移動体周辺を撮影装置により連続して撮影した画像を示す画像情報、及び前記移動体周辺に存在する立体物上の複数の点の前記移動体に設定された移動体座標系で表された3次元位置を示す3次元位置情報を取得する取得部と、
第1時刻と第2時刻との間に移動した前記移動体の移動量を計測する移動量計測部と、
前記取得部により取得された前記3次元位置情報に基づいて、前記第1時刻に撮影された第1画像中で立体物を示す画素を特定する特定部と、
前記移動体を内部に含むように定めた立体投影面上の各点を、仮想視点位置を基準に、前記移動体の位置を原点とした無限半径の半球と前記移動体が存在する水平面とを組み合わせた形状の仮想視点投影面に投影し、前記仮想視点投影面に投影された点から前記撮影装置への入射ベクトルを画像の座標系に変換することにより、前記第1時刻における移動体に対応する立体投影面上の各点と前記第1画像の各画素の位置との対応を示す第1対応関係を生成すると共に、前記移動量計測部により計測された移動量に基づいて、前記第2時刻における前記移動体の位置を前記第1時刻における前記移動体座標系によって表し、前記第1時刻における移動体に対応する立体投影面上の各点を、前記仮想視点位置を基準に前記仮想視点投影面に投影し、前記仮想視点投影面に投影された点から、前記第1時刻における移動体座標系によって表された前記第2時刻における前記移動体の位置における前記撮影装置への入射ベクトルを、前記第2時刻における移動体座標系の入射ベクトルに変換することにより、前記第1時刻における移動体に対応する立体投影面上の各点と前記第2時刻に撮影された第2画像の各画素の位置との対応を示す第2対応関係を生成する対応関係生成部と、
所定の視点位置から見た前記立体投影面の各点に対応する合成画像上の各画素の画素値を、前記第1対応関係に基づいて前記第1画像の対応する画素の画素値とすると共に、前記第1画像において前記特定部により立体物を示す画素として特定された画素に対応する前記合成画像の各画素の画素値を、前記第2対応関係に基づいて前記第2画像の対応する画素の画素値とすることにより、前記合成画像を合成する合成部と、
を含む画像処理装置。 - 移動体周辺を撮影装置により連続して撮影した画像を示す画像情報、及び前記移動体周辺に存在する立体物上の複数の点の前記移動体に設定された移動体座標系で表された3次元位置を示す3次元位置情報を取得する取得部と、
第1時刻と第2時刻との間に移動した前記移動体の移動量を計測する移動量計測部と、
前記取得部により取得された前記3次元位置情報に基づいて、前記第1時刻に撮影された第1画像中で立体物を示す画素を特定する特定部と、
前記特定部により特定された画素に対応する前記撮影装置への入射ベクトルに基づいて、前記特定部により特定された画素を、仮想視点位置を基準に、前記移動体の位置を原点とした無限半径の半球と前記移動体が存在する水平面とを組み合わせた形状の仮想視点投影面に投影した点を特定し、前記移動量計測部により計測された移動量に基づいて、前記第2時刻における前記移動体の位置を前記第1時刻における前記移動体座標系によって表し、特定された前記仮想視点投影面上の点から、前記第1時刻における移動体座標系によって表された前記第2時刻における前記移動体の位置における前記撮影装置への入射ベクトルを、前記第2時刻における移動体座標系の入射ベクトルに変換することにより、前記特定部により立体物を示す画素として特定された前記第1画像の画素の画素値を、対応する前記第2時刻に撮影された第2画像の画素の画素値で補間する補間部と、
前記第1時刻における前記移動体を内部に含むように定めた立体投影面上の各点と前記第1画像の各画素の位置との対応を示す第1対応関係を仮想視点投影により生成する対応関係生成部と、
所定の視点位置から見た前記立体投影面の各点に対応する合成画像の各画素の画素値を、前記第1対応関係に基づいて前記補間部による補間後の第1画像の対応する画素の画素値とすることにより、前記合成画像を合成する合成部と、
を含む画像処理装置。 - 前記移動量計測部により計測された前記第1時刻と前記第2時刻との間に移動した前記移動体の移動量に基づいて、前記第1時刻における前記移動体の位置と前記第2時刻における前記移動体の位置との差が、予め定めた所定範囲内となるように前記第2画像を管理する管理部を含む請求項1または請求項2記載の画像処理装置。
- 前記特定部は、前記第1画像中で立体物を示す画素を特定する立体物マスク画像を作成する請求項1〜請求項3のいずれか1項記載の画像処理装置。
- 前記合成部は、前記取得部により取得した3次元位置情報に基づく立体物、及び予め登録された前記移動体の形状を前記合成画像に合成する請求項1〜請求項4のいずれか1項記載の画像処理装置。
- コンピュータに、
移動体周辺を撮影装置により連続して撮影した画像を示す画像情報、及び前記移動体周辺に存在する立体物上の複数の点の前記移動体に設定された移動体座標系で表された3次元位置を示す3次元位置情報を取得し、
第1時刻と第2時刻との間に移動した前記移動体の移動量を計測し、
取得された前記3次元位置情報に基づいて、前記第1時刻に撮影された第1画像中で立体物を示す画素を特定し、
特定された画素に対応する前記撮影装置への入射ベクトルに基づいて、前記特定された画素を、仮想視点位置を基準に、前記移動体の位置を原点とした無限半径の半球と前記移動体が存在する水平面とを組み合わせた形状の仮想視点投影面に投影した点を特定し、前記第1時刻における移動体に対応する立体投影面上の各点と前記第1画像の各画素の位置との対応を示す第1対応関係を生成すると共に、計測された移動量に基づいて、前記第2時刻における前記移動体の位置を前記第1時刻における前記移動体座標系によって表し、前記第1時刻における移動体に対応する立体投影面上の各点を、前記仮想視点位置を基準に前記仮想視点投影面に投影し、前記仮想視点投影面に投影された点から、前記第1時刻における移動体座標系によって表された前記第2時刻における前記移動体の位置における前記撮影装置への入射ベクトルを、前記第2時刻における移動体座標系の入射ベクトルに変換することにより、前記第1時刻における移動体に対応する立体投影面上の各点と前記第2時刻に撮影された第2画像の各画素の位置との対応を示す第2対応関係を生成し、
所定の視点位置から見た前記立体投影面の各点に対応する合成画像上の各画素の画素値を、前記第1対応関係に基づいて前記第1画像の対応する画素の画素値とすると共に、前記第1画像において立体物を示す画素として特定された画素に対応する前記合成画像の各画素の画素値を、前記第2対応関係に基づいて前記第2画像の対応する画素の画素値とすることにより、前記合成画像を合成する
ことを含む処理を実行させる画像処理方法。 - コンピュータに、
移動体周辺を撮影装置により連続して撮影した画像を示す画像情報、及び前記移動体周辺に存在する立体物上の複数の点の前記移動体に設定された移動体座標系で表された3次元位置を示す3次元位置情報を取得し、
第1時刻と第2時刻との間に移動した前記移動体の移動量を計測し、
取得された前記3次元位置情報に基づいて、前記第1時刻に撮影された第1画像中で立体物を示す画素を特定し、
特定された画素に対応する前記撮影装置への入射ベクトルに基づいて、前記特定された画素を、仮想視点位置を基準に、前記移動体の位置を原点とした無限半径の半球と前記移動体が存在する水平面とを組み合わせた形状の仮想視点投影面に投影した点を特定し、計測された移動量に基づいて、前記第2時刻における前記移動体の位置を前記第1時刻における前記移動体座標系によって表し、特定された前記仮想視点投影面上の点から、前記第1時刻における移動体座標系によって表された前記第2時刻における前記移動体の位置における前記撮影装置への入射ベクトルを、前記第2時刻における移動体座標系の入射ベクトルに変換することにより、立体物を示す画素として特定された前記第1画像の画素の画素値を、対応する前記第2時刻に撮影された第2画像の画素の画素値で補間し、
前記第1時刻における前記移動体を内部に含むように定めた立体投影面上の各点と前記第1画像の各画素の位置との対応を示す第1対応関係を仮想視点投影により生成し、
所定の視点位置から見た前記立体投影面の各点に対応する合成画像の各画素の画素値を、前記第1対応関係に基づいて、補間後の第1画像の対応する画素の画素値とすることにより、前記合成画像を合成する
ことを含む処理を実行させる画像処理方法。 - コンピュータに、
移動体周辺を撮影装置により連続して撮影した画像を示す画像情報、及び前記移動体周辺に存在する立体物上の複数の点の前記移動体に設定された移動体座標系で表された3次元位置を示す3次元位置情報を取得し、
第1時刻と第2時刻との間に移動した前記移動体の移動量を計測し、
取得された前記3次元位置情報に基づいて、前記第1時刻に撮影された第1画像中で立体物を示す画素を特定し、
特定された画素に対応する前記撮影装置への入射ベクトルに基づいて、前記特定された画素を、仮想視点位置を基準に、前記移動体の位置を原点とした無限半径の半球と前記移動体が存在する水平面とを組み合わせた形状の仮想視点投影面に投影した点を特定し、前記第1時刻における移動体に対応する立体投影面上の各点と前記第1画像の各画素の位置との対応を示す第1対応関係を生成すると共に、計測された移動量に基づいて、前記第2時刻における前記移動体の位置を前記第1時刻における前記移動体座標系によって表し、前記第1時刻における移動体に対応する立体投影面上の各点を、前記仮想視点位置を基準に前記仮想視点投影面に投影し、前記仮想視点投影面に投影された点から、前記第1時刻における移動体座標系によって表された前記第2時刻における前記移動体の位置における前記撮影装置への入射ベクトルを、前記第2時刻における移動体座標系の入射ベクトルに変換することにより、前記第1時刻における移動体に対応する立体投影面上の各点と前記第2時刻に撮影された第2画像の各画素の位置との対応を示す第2対応関係を生成し、
所定の視点位置から見た前記立体投影面の各点に対応する合成画像上の各画素の画素値を、前記第1対応関係に基づいて前記第1画像の対応する画素の画素値とすると共に、前記第1画像において立体物を示す画素として特定された画素に対応する前記合成画像の各画素の画素値を、前記第2対応関係に基づいて前記第2画像の対応する画素の画素値とすることにより、前記合成画像を合成する
ことを含む処理を実行させるための画像処理プログラム。 - コンピュータに、
移動体周辺を撮影装置により連続して撮影した画像を示す画像情報、及び前記移動体周辺に存在する立体物上の複数の点の前記移動体に設定された移動体座標系で表された3次元位置を示す3次元位置情報を取得し、
第1時刻と第2時刻との間に移動した前記移動体の移動量を計測し、
取得された前記3次元位置情報に基づいて、前記第1時刻に撮影された第1画像中で立体物を示す画素を特定し、
特定された画素に対応する前記撮影装置への入射ベクトルに基づいて、前記特定された画素を、仮想視点位置を基準に、前記移動体の位置を原点とした無限半径の半球と前記移動体が存在する水平面とを組み合わせた形状の仮想視点投影面に投影した点を特定し、計測された移動量に基づいて、前記第2時刻における前記移動体の位置を前記第1時刻における前記移動体座標系によって表し、特定された前記仮想視点投影面上の点から、前記第1時刻における移動体座標系によって表された前記第2時刻における前記移動体の位置における前記撮影装置への入射ベクトルを、前記第2時刻における移動体座標系の入射ベクトルに変換することにより、立体物を示す画素として特定された前記第1画像の画素の画素値を、対応する前記第2時刻に撮影された第2画像の画素の画素値で補間し、
前記第1時刻における前記移動体を内部に含むように定めた立体投影面上の各点と前記第1画像の各画素の位置との対応を示す第1対応関係を仮想視点投影により生成し、
所定の視点位置から見た前記立体投影面の各点に対応する合成画像の各画素の画素値を、前記第1対応関係に基づいて、補間後の第1画像の対応する画素の画素値とすることにより、前記合成画像を合成する
ことを含む処理を実行させるための画像処理プログラム。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012235653A JP6079131B2 (ja) | 2012-10-25 | 2012-10-25 | 画像処理装置、方法、及びプログラム |
US14/022,631 US9478061B2 (en) | 2012-10-25 | 2013-09-10 | Image processing apparatus and method that synthesizes an all-round image of a vehicle's surroundings |
EP17192601.7A EP3282419A1 (en) | 2012-10-25 | 2013-09-20 | Image processing apparatus and method |
EP13185301.2A EP2725548A3 (en) | 2012-10-25 | 2013-09-20 | Image processing apparatus and method |
US15/273,075 US9633266B2 (en) | 2012-10-25 | 2016-09-22 | Image processing apparatus and method that synthesizes an all-round image of a vehicle's surroundings |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012235653A JP6079131B2 (ja) | 2012-10-25 | 2012-10-25 | 画像処理装置、方法、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014085925A JP2014085925A (ja) | 2014-05-12 |
JP6079131B2 true JP6079131B2 (ja) | 2017-02-15 |
Family
ID=49212688
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012235653A Expired - Fee Related JP6079131B2 (ja) | 2012-10-25 | 2012-10-25 | 画像処理装置、方法、及びプログラム |
Country Status (3)
Country | Link |
---|---|
US (2) | US9478061B2 (ja) |
EP (2) | EP2725548A3 (ja) |
JP (1) | JP6079131B2 (ja) |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102014204303A1 (de) * | 2014-03-10 | 2015-09-10 | Robert Bosch Gmbh | Verfahren zum Zusammenfügen von Einzelbildern, die von einem Kamerasystem aus unterschiedlichen Positionen aufgenommen wurden, zu einem gemeinsamen Bild |
CN105934774A (zh) * | 2014-03-24 | 2016-09-07 | 株式会社日立制作所 | 物体检测装置、物体检测方法以及移动机器人 |
JP2016018295A (ja) * | 2014-07-07 | 2016-02-01 | 日立オートモティブシステムズ株式会社 | 情報処理システム |
DE102015209391A1 (de) * | 2015-05-22 | 2016-11-24 | Robert Bosch Gmbh | Verfahren und Vorrichtung zum Erzeugen einer Maskierungsvorschrift sowie zum Maskieren einer Bildinformation einer Kamera |
WO2017043190A1 (ja) * | 2015-09-09 | 2017-03-16 | 株式会社リコー | 制御システム、撮像装置、およびプログラム |
JP6585006B2 (ja) * | 2016-06-07 | 2019-10-02 | 株式会社東芝 | 撮影装置および車両 |
JP6816436B2 (ja) * | 2016-10-04 | 2021-01-20 | アイシン精機株式会社 | 周辺監視装置 |
DE112017006840B4 (de) * | 2017-01-16 | 2023-11-02 | Fujitsu Limited | Informationsverarbeitungsprogramm, Informationsverarbeitungsverfahren und Informationsverarbeitungsvorrichtung |
EP3658854B1 (en) * | 2017-07-28 | 2022-09-14 | Qualcomm Incorporated | Image output adjustment in a robotic vehicle |
JP7024539B2 (ja) * | 2018-03-22 | 2022-02-24 | カシオ計算機株式会社 | 画像編集装置、画像編集方法、及びプログラム |
EP3776485B1 (en) * | 2018-09-26 | 2022-01-26 | Coherent Logix, Inc. | Any world view generation |
JP2019118103A (ja) * | 2019-01-31 | 2019-07-18 | パイオニア株式会社 | 情報処理装置、情報処理方法、情報処理プログラム及び情報処理プログラムを記録したコンピュータ読み取り可能な記録媒体 |
JP7133520B2 (ja) * | 2019-08-06 | 2022-09-08 | 直之 村上 | コンピユーターの目(pceye) |
DE102019219017A1 (de) * | 2019-12-05 | 2021-06-10 | Robert Bosch Gmbh | Anzeigeverfahren zur Darstellung eines Umgebungsmodells eines Fahrzeugs, Computerprogramm, Steuergerät und Fahrzeug |
JP2020194570A (ja) * | 2020-08-07 | 2020-12-03 | パイオニア株式会社 | 情報処理装置、情報処理方法、情報処理プログラム及び情報処理プログラムを記録したコンピュータ読み取り可能な記録媒体 |
US11910092B2 (en) * | 2020-10-01 | 2024-02-20 | Black Sesame Technologies Inc. | Panoramic look-around view generation method, in-vehicle device and in-vehicle system |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05265547A (ja) * | 1992-03-23 | 1993-10-15 | Fuji Heavy Ind Ltd | 車輌用車外監視装置 |
EP2259220A3 (en) * | 1998-07-31 | 2012-09-26 | Panasonic Corporation | Method and apparatus for displaying image |
CA2369648A1 (en) * | 1999-04-16 | 2000-10-26 | Matsushita Electric Industrial Co., Limited | Image processing device and monitoring system |
EP1158803A3 (en) * | 2000-05-24 | 2003-12-10 | Matsushita Electric Industrial Co., Ltd. | Rendering device for generating a display image |
JP2002083285A (ja) * | 2000-07-07 | 2002-03-22 | Matsushita Electric Ind Co Ltd | 画像合成装置および画像合成方法 |
KR100866450B1 (ko) * | 2001-10-15 | 2008-10-31 | 파나소닉 주식회사 | 차량 주위 감시 장치 및 그 조정 방법 |
FR2853121B1 (fr) | 2003-03-25 | 2006-12-15 | Imra Europe Sa | Dispositif de surveillance des alentours d'un vehicule |
JP4696691B2 (ja) | 2005-05-27 | 2011-06-08 | アイシン・エィ・ダブリュ株式会社 | 駐車支援方法及び駐車支援装置 |
JP5178454B2 (ja) * | 2008-10-28 | 2013-04-10 | パナソニック株式会社 | 車両周囲監視装置及び車両周囲監視方法 |
JP5182042B2 (ja) * | 2008-11-28 | 2013-04-10 | 富士通株式会社 | 画像処理装置、画像処理方法及びコンピュータプログラム |
JP5439890B2 (ja) * | 2009-03-25 | 2014-03-12 | 富士通株式会社 | 画像処理方法、画像処理装置及びプログラム |
JP5195592B2 (ja) * | 2009-03-31 | 2013-05-08 | 富士通株式会社 | 映像処理装置 |
WO2010137265A1 (ja) * | 2009-05-25 | 2010-12-02 | パナソニック株式会社 | 車両周囲監視装置 |
JP5299296B2 (ja) | 2010-01-26 | 2013-09-25 | 株式会社デンソーアイティーラボラトリ | 車両周辺画像表示装置及び車両周辺画像表示方法 |
JP5500255B2 (ja) * | 2010-08-06 | 2014-05-21 | 富士通株式会社 | 画像処理装置および画像処理プログラム |
JP5124671B2 (ja) * | 2011-06-07 | 2013-01-23 | 株式会社小松製作所 | 作業車両の周辺監視装置 |
EP2720458A4 (en) * | 2011-06-09 | 2015-02-25 | Aisin Seiki | IMAGING DEVICE |
WO2013016409A1 (en) * | 2011-07-26 | 2013-01-31 | Magna Electronics Inc. | Vision system for vehicle |
JP5682788B2 (ja) * | 2011-09-27 | 2015-03-11 | アイシン精機株式会社 | 車両周辺監視装置 |
DE102011084554A1 (de) * | 2011-10-14 | 2013-04-18 | Robert Bosch Gmbh | Verfahren zur Darstellung eines Fahrzeugumfeldes |
-
2012
- 2012-10-25 JP JP2012235653A patent/JP6079131B2/ja not_active Expired - Fee Related
-
2013
- 2013-09-10 US US14/022,631 patent/US9478061B2/en not_active Expired - Fee Related
- 2013-09-20 EP EP13185301.2A patent/EP2725548A3/en not_active Withdrawn
- 2013-09-20 EP EP17192601.7A patent/EP3282419A1/en not_active Withdrawn
-
2016
- 2016-09-22 US US15/273,075 patent/US9633266B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2014085925A (ja) | 2014-05-12 |
US9478061B2 (en) | 2016-10-25 |
EP2725548A2 (en) | 2014-04-30 |
EP3282419A1 (en) | 2018-02-14 |
US20170011267A1 (en) | 2017-01-12 |
EP2725548A3 (en) | 2017-04-12 |
US20140118341A1 (en) | 2014-05-01 |
US9633266B2 (en) | 2017-04-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6079131B2 (ja) | 画像処理装置、方法、及びプログラム | |
JP5739584B2 (ja) | 車両周辺視角化のための3次元映像合成装置およびその方法 | |
JP5208203B2 (ja) | 死角表示装置 | |
JP6311020B2 (ja) | 映像合成システムとそのための映像合成装置及び映像合成方法 | |
JP6310652B2 (ja) | 映像表示システム、映像合成装置及び映像合成方法 | |
JP5500255B2 (ja) | 画像処理装置および画像処理プログラム | |
JP5299296B2 (ja) | 車両周辺画像表示装置及び車両周辺画像表示方法 | |
KR20190034092A (ko) | 화상처리 장치, 화상처리 방법, 화상처리 시스템 및 기억매체 | |
JP2019503007A (ja) | 事前定義されたビューポイントルックアップテーブルを用いるサラウンドビューのための3次元レンダリング | |
JP2008048266A (ja) | 車載画像処理装置及びその視点変換情報生成方法 | |
JP6276719B2 (ja) | 画像生成装置、座標変換テーブル作成装置および作成方法 | |
JP2015075966A (ja) | 画像処理装置、画像処理方法、及び、プログラム | |
US11140364B2 (en) | Sensor fusion based perceptually enhanced surround view | |
JP2006333009A (ja) | 俯瞰画像表示装置及び俯瞰画像表示方法 | |
JP6762570B2 (ja) | 画像処理装置、画像処理方法、及び画像処理プログラム | |
JP2001256482A (ja) | 視差画像生成装置および視差画像生成方法 | |
JP7074546B2 (ja) | 画像処理装置および方法 | |
JP2005063041A (ja) | 3次元モデリング装置、方法、及びプログラム | |
WO2018016274A1 (ja) | 画像処理装置 | |
JP4530214B2 (ja) | 模擬視界発生装置 | |
JP7196920B2 (ja) | 運転支援装置および運転支援方法、プログラム | |
JP2020162089A (ja) | 画像生成装置および画像生成方法 | |
JP7261121B2 (ja) | 情報端末装置及びプログラム | |
JP2005348307A (ja) | 画像生成方法および画像生成装置 | |
JP2024022212A (ja) | 画像処理装置、画像処理方法およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150706 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160426 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160510 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160707 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20161220 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170102 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6079131 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |