WO2019186787A1 - 画像処理装置、画像処理方法、及び画像処理プログラム - Google Patents

画像処理装置、画像処理方法、及び画像処理プログラム Download PDF

Info

Publication number
WO2019186787A1
WO2019186787A1 PCT/JP2018/012852 JP2018012852W WO2019186787A1 WO 2019186787 A1 WO2019186787 A1 WO 2019186787A1 JP 2018012852 W JP2018012852 W JP 2018012852W WO 2019186787 A1 WO2019186787 A1 WO 2019186787A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
background
dimensional
unit
real object
Prior art date
Application number
PCT/JP2018/012852
Other languages
English (en)
French (fr)
Inventor
司 深澤
浩平 岡原
古木 一朗
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to JP2018540890A priority Critical patent/JP6513300B1/ja
Priority to GB2014492.9A priority patent/GB2586712B/en
Priority to CN201880091553.9A priority patent/CN111886624A/zh
Priority to PCT/JP2018/012852 priority patent/WO2019186787A1/ja
Publication of WO2019186787A1 publication Critical patent/WO2019186787A1/ja
Priority to US17/028,508 priority patent/US11403742B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/10Constructive solid geometry [CSG] using solid primitives, e.g. cylinders, cubes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30264Parking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4038Scaling the whole image or part thereof for image mosaicing, i.e. plane images composed of plane sub-images

Abstract

画像処理装置(10)は、複数の撮像画像の各々を、実在する立体物である実在オブジェクトが占める前景画像部分とそれ以外の背景画像部分とに分割する画像分割部である立体物抽出部(1)と、参照画像部分を前景画像部分の領域に貼り付けることによって背景画像部分を補完する背景補完部(2)と、複数の補完された背景画像部分の視点位置を変更する俯瞰変換を行い、俯瞰変換された背景画像部分を合成することによって背景俯瞰合成画像を生成する背景画像合成部(3)と、実在オブジェクトの姿勢情報を取得する立体物認識部(4)と、姿勢情報を用いて実在オブジェクトに対応する3次元仮想オブジェクトを取得する立体物射影投影部(5)と、背景俯瞰合成画像に3次元仮想オブジェクトを重畳して3次元空間画像を生成する3次元空間重畳部(6)と、3次元空間画像を上から見た画像である俯瞰合成画像を生成して出力する表示画像出力部(7)とを有する。

Description

画像処理装置、画像処理方法、及び画像処理プログラム
 本発明は、複数の撮像画像から俯瞰合成画像を生成する画像処理装置、並びに複数の撮像画像から俯瞰合成画像を生成するために使用される画像処理方法及び画像処理プログラムに関する。
 複数のカメラで得られた複数の撮像画像を視点変換して複数の俯瞰画像を生成し、複数の俯瞰画像を合成して俯瞰合成画像を生成する技術がある。特許文献1は、2つの撮像画像の共通の撮像領域を区分する境界位置と共通の撮像領域内の立体物の位置とに基づいて視点変換された2つの俯瞰画像のうちの、立体物の画像の歪みが小さい俯瞰画像を選択し、選択された俯瞰画像を用いて俯瞰合成画像を生成する技術を記載している。
特許第6239205号公報(例えば、請求項1、図3)
 上記従来の技術では、立体物の画像の歪みが小さい俯瞰画像を用いて俯瞰合成画像を生成するが、立体物に歪みがあり、見る者に違和感を与える場合がある。
 本発明は、上記課題を解決するためになされたものであり、見る者に違和感を与えにくい俯瞰合成画像を生成することができる画像処理装置、並びに見る者に違和感を与えにくい俯瞰合成画像を生成するために使用される画像処理方法及び画像処理プログラムを提供することを目的とする。
 本発明の一態様に係る画像処理装置は、複数の撮像画像の各々を、前記複数の撮像画像の共通の撮影対象領域内に実在する立体物である実在オブジェクトが占める前景画像部分と前記前景画像部分以外の背景画像部分とに分割する画像分割部と、予め取得されている参照画像の一部である参照画像部分を前記前景画像部分の領域に貼り付けることによって前記背景画像部分を補完して、複数の補完された背景画像部分を生成する背景補完部と、前記複数の補完された背景画像部分の視点位置を変更する俯瞰変換を行い、俯瞰変換された前記背景画像部分を合成することによって背景俯瞰合成画像を生成する背景画像合成部と、前記実在オブジェクトを認識し、前記実在オブジェクトの姿勢情報を取得する立体物認識部と、前記姿勢情報を用いて、前記実在オブジェクトに対応する3次元仮想オブジェクトを取得する立体物射影投影部と、前記背景俯瞰合成画像に前記3次元仮想オブジェクトを重畳して3次元空間画像を生成する3次元空間重畳部と、前記3次元空間画像を上から見た画像である俯瞰合成画像を生成して出力する表示画像出力部とを有することを特徴とする。
 本発明の他の態様に係る画像処理方法は、複数の撮像画像の各々を、前記複数の撮像画像の共通の撮影対象領域内に実在する立体物である実在オブジェクトが占める前景画像部分と前記前景画像部分以外の背景画像部分とに分割するステップと、予め取得されている参照画像の一部である参照画像部分を前記前景画像部分の領域に貼り付けることによって前記背景画像部分を補完して、複数の補完された背景画像部分を生成するステップと、前記複数の補完された背景画像部分の視点位置を変更する俯瞰変換を行い、俯瞰変換された前記背景画像部分を合成することによって背景俯瞰合成画像を生成するステップと、前記実在オブジェクトを認識し、前記実在オブジェクトの姿勢情報を取得するステップと、前記姿勢情報を用いて、前記実在オブジェクトに対応する3次元仮想オブジェクトを取得するステップと、前記背景俯瞰合成画像に前記3次元仮想オブジェクトを重畳して3次元空間画像を生成するステップと、前記3次元空間画像を上から見た画像である俯瞰合成画像を生成して出力するステップとを有することを特徴とする。
 本発明によれば、複数の撮像画像から見る者に違和感を与えにくい俯瞰合成画像を生成することができる。
本発明の実施の形態に係る画像処理装置のハードウェア構成を示す図である。 実施の形態に係る画像処理装置を示す機能ブロック図である。 本実施の形態に係る画像処理装置と2台の撮像装置と表示機器とを含む画像処理システムの構成例を概略的に示す図である。 実施の形態に係る画像処理装置の立体物抽出部が行う処理を示すフローチャートである。 (a)及び(b)は、立体物抽出部によって撮像画像の各々から抽出された前景画像部分、背景画像部分、及び前景画像撮影情報の例を示す説明図である。 実施の形態に係る画像処理装置の背景補完部が行う処理を示すフローチャートである。 (a)から(e)は、背景補完部が行う処理を示す説明図である。 実施の形態に係る画像処理装置の背景画像合成部が行う処理を示すフローチャートである。 (a)から(c)は、背景画像合成部が行う処理を示す説明図である。 実施の形態に係る画像処理装置の立体物認識部が行う処理を示すフローチャートである。 実施の形態に係る画像処理装置の立体物射影投影部が行う処理を示すフローチャートである。 立体物射影投影部が行う処理を示す説明図である。 実施の形態に係る画像処理装置の3次元空間重畳部が行う処理を示すフローチャートである。 3次元空間重畳部が行う処理を示す説明図である。 実施の形態に係る画像処理装置の表示画像出力部が行う処理を示すフローチャートである。
 以下に、本発明の実施の形態に係る画像処理装置、画像処理方法、及び画像処理プログラムを、添付図面を参照しながら説明する。以下の実施の形態は、例にすぎず、本発明の範囲内で種々の変更が可能である。
《1》構成
《1-1》ハードウェア構成
 図1は、本発明の実施の形態に係る画像処理装置10のハードウェア構成を示す図である。画像処理装置10は、本実施の形態に係る画像処理方法を実施することができる装置である。画像処理装置10は、例えば、コンピュータである。図1に示されるように、画像処理装置10は、情報処理部であるプロセッサ11と、メモリ12と、記憶装置13と、撮像画像データ(単に「撮像画像」とも言う)を受け取る画像入力インタフェース14と、表示画像データを出力する表示機器インタフェース15とを有する。メモリ12と記憶装置13とは、記憶部16とも称される。
 プロセッサ11は、各種の演算処理及びハードウェアに対する各種の制御処理を行う。メモリ12は、主記憶装置である。メモリ12は、例えば、RAM(Random Access Memory)である。記憶装置13は、補助記憶装置である。記憶装置13は、例えば、ハードディスク装置又はSSD(Solid State Drive)である。画像入力インタフェース14は、複数の撮像装置から提供される複数の映像信号、すなわち、複数の撮像画像を画像処理装置10に取り込むための装置である。表示機器インタフェース15は、表示画像をディスプレイなどの表示機器に送信するための装置である。
 図1の例では、画像処理装置10に2台の撮像装置20a及び20bが接続されている。ただし、画像処理装置10に接続される撮像装置の台数は、3台以上であってもよい。撮像装置20a及び20bの各々は、画像を撮影する機能を持つ。撮像装置20a及び20bの各々は、CCD(Charged-Coupled Device)又はCMOS(Complementary Metal-Oxide-Semiconductor)のような撮像素子とレンズとを備えたカメラ機器(単に「カメラ」とも言う)である。撮像装置20a及び20bは、互いに同様の構造を持つカメラ機器であることが望ましい。撮像装置20aは、第1の撮像対象領域を撮像する。撮像装置20bは、第2の撮像対象領域を撮像する。第1の撮像対象領域と第2の撮像対象領域とは、部分的に重複しており、共通の撮像対象領域部分を有する。
 撮像装置20a及び20bは、画像処理装置10の画像入力インタフェース14と有線で接続されてもよく、又は、無線で接続されてもよい。撮像装置20a及び20bと画像入力インタフェース14とは、例えば、IP(Internet Protocol)ネットワークを介して又は同軸ケーブルを介して通信する。撮像装置20a及び20bと画像入力インタフェース14との間の接続方式及び通信方式は、特定の方式に限定されない。画像入力インタフェース14は、撮像装置20a及び20bから提供される2つの(すなわち、2画面の)撮像画像100a及び100bを同時に(すなわち、並列的に)受信する機能を持つ。
 撮像装置20a及び20bから提供される2つの撮像画像100a及び100bは、画像入力インタフェース14を介して画像処理装置10の内部に取り込まれ、メモリ12に記憶される。画像処理装置10に取り込まれた2つの撮像画像100a及び100bは、撮像対象領域の各々の上方に視点を設けた画像である2つの俯瞰画像データ(単に「俯瞰画像」とも言う)に変換され、その後、2つの俯瞰画像は合成される。俯瞰画像を生成するための変換処理は「視点変換処理」である。本実施の形態では、俯瞰画像を生成するための視点変換処理を「俯瞰変換処理」と言う。プロセッサ11は、メモリ12又は記憶装置13に記憶されている画像処理プログラムを読み出して実行することで、視点変換処理及び合成処理を行う。視点変換処理及び合成処理によって生成された俯瞰合成画像データ(単に「俯瞰合成画像」とも言う)である表示画像データ(単に「表示画像」とも言う)は、表示機器インタフェース15を介してディスプレイなどの表示機器へ送信される。
《1-2》機能構成
 図2は、本実施の形態に係る画像処理装置10を示す機能ブロック図である。画像処理装置10は、撮像装置20a及び20bから撮像画像100a及び100bをそれぞれ受け取り、撮像対象領域における俯瞰画像から生成された俯瞰合成画像を表示画像として出力する。画像処理装置10は、撮像画像100a及び100bの各々から実在する対象物である立体物(「実在オブジェクト」とも言う)を抽出することによって、撮像画像100a及び100bの各々を前景画像部分データ(「前景画像部分」とも言う)と背景画像部分データ(「背景画像部分」とも言う)とに分割する画像分割部としての立体物抽出部1を有する。
 また、画像処理装置10は、撮像画像100a及び100bの各々における立体物が抽出された領域に対して過去に取得した撮像画像100a及び100b(「参照画像データ」又は「参照画像」とも言う)の背景画像部分の一部を貼りつける背景補完部2を有する。参照画像の背景画像部分は、「参照画像部分データ」又は「参照画像部分」とも称される。また、画像処理装置10は、撮像画像100aの背景画像部分と撮像画像100bの背景画像部分とを合成する背景画像合成部3を有する。
 さらに、画像処理装置10は、前景画像部分として抽出された立体物である実在オブジェクトを認識する立体物認識部4と、抽出された実在オブジェクトが占める前景画像部分に対応する(すなわち、立体物に対応する)選択された3次元仮想オブジェクトに射影投影する立体物射影投影部5とを有する。3次元仮想オブジェクトは、例えば、予め記憶部16に格納されている仮想的な立体物を表示させるための3次元画像データ又は立体物に対応する大きさを持つ仮想的な立体物を表示させるように生成された3次元画像データである。
 また、画像処理装置10は、背景画像合成部3によって仮想的な3次元空間に形成された背景画像部分上に、3次元仮想オブジェクトを配置する(すなわち、重ねる)3次元空間重畳部6と、背景画像部分に3次元仮想オブジェクトを重畳することで形成された俯瞰合成画像を表示画像として出力する表示画像出力部7とを有する。
《1-3》構成例
 図3は、本実施の形態に係る画像処理装置10と2台の撮像装置20a及び20bと表示機器30とを含む画像処理システムの構成例を概略的に示す図である。
 立体物抽出部1は、撮像画像100a及び100bの各々から実在する立体物である実在オブジェクト40を検出し、撮像画像における実在オブジェクト40に対応する部分である前景画像部分を抽出することによって、撮像画像100a及び100bの各々を前景画像部分と背景画像部分とに分割する。実在オブジェクト40は、例えば、人物、車両、生産物などである。立体物抽出部1は、実在オブジェクト40を検出し、検出された実在オブジェクト40を前景画像部分とし、前景画像部分以外の部分を背景画像部分とすることによって、撮像画像100a及び100bの各々を前景画像部分と背景画像部分とに分割する。撮像画像100aの背景画像部分は、撮像画像100aから立体物である実在オブジェクト40の領域を抜いた画像部分である。撮像画像100bの背景画像部分は、撮像画像100bから立体物である実在オブジェクト40の領域を抜いた画像部分である。立体物抽出部1が行う処理は、後述の図4、図5(a)及び(b)を用いて詳述される。
 背景補完部2は、過去の撮像画像(例えば、同じ撮像装置によって撮影された画像)として記憶部16に記憶されている参照画像から、実在オブジェクト40の領域である前景画像部分を抜き取り、抜き取られた前景画像部分の代わりに参照画像の一部である参照画像部分を貼り付けることによって、前景画像部分が欠落している背景画像部分を補完する。これにより、実在オブジェクト40の領域を参照画像の一部によって補完した(すなわち、不足箇所の画像データを参照画像部分データで補った)背景画像部分が生成される。背景補完部2が行う処理は、後述の図6、図7(a)から(e)を用いて詳述される。
 背景画像合成部3は、背景補完部2で補完された2つの背景画像部分から、背景俯瞰合成画像302を生成する。背景俯瞰合成画像302を生成するためには、事前に撮像装置20a及び20bの各々のキャリブレーションが行われており、撮像装置20a及び20bの各々の内部パラメータと外部パラメータと画像処理装置10によって取得されていることが前提になる。内部パラメータは、撮像装置20a及び20bの各々の焦点距離、光軸中心の位置及び方向などを示す情報を含む。外部パラメータは、撮像装置20a及び20bの各々の位置と姿勢であるカメラ位置姿勢を示す情報であり、撮像対象となる空間における設置位置(設置座標)情報と設置姿勢情報(例えば、ヨー、ロール、ピッチ情報)などを含む。背景画像合成部3は、背景補完部2で補完された2つの背景画像部分と、2つの背景画像部分と俯瞰合成画像との対応関係を示すピクセルデータからなる参照テーブルとを用いて俯瞰変換処理と合成処理とを行う。背景画像合成部3が行う処理は、後述の図8、図9(a)から(c)を用いて詳述される。
 立体物認識部4は、先ず、撮像画像100aから抽出された前景画像部分と撮像画像100bから抽出された前景画像部分とから、立体物である実在オブジェクト40の認識を行う。実在オブジェクト40は、例えば、人物、車両、生産物などである。ただし、実在オブジェクト40は人物、車両、生産物に限定されない。次に、立体物認識部4は、撮像画像100aから抽出された前景画像部分と撮像画像100bから抽出された前景画像部分とから、実在オブジェクト40の姿勢情報を取得して、実在オブジェクト40の識別情報である実在オブジェクトID(識別子)、実在オブジェクト40の種類を示す実在オブジェクト種別、実在オブジェクト40の姿勢情報を記憶部16(例えば、メモリ12)に記憶させる。実在オブジェクト40の姿勢情報は、例えば、撮像画像100aから抽出された前景画像部分及び撮像画像100bから抽出された前景画像部分である2次元座標のピクセルデータを、3次元座標のピクセルデータに変換する際に使用されるテーブルである。実在オブジェクト40の姿勢情報は、前景画像部分における画像解析により求めてもよいし、撮像装置20a及び20bとは別の装置であるセンサーを用いて取得してもよい。実在オブジェクト40の姿勢情報の取得方法は、特定のものに限定されない。立体物認識部4が行う処理は、後述の図10を用いて詳述される。
 立体物射影投影部5は、立体物認識部4で認識された実在オブジェクト40に対応する3次元仮想オブジェクト400を取得する。3次元仮想オブジェクト400は、予め記憶部16に記憶されている複数の3次元仮想オブジェクトの中から、実在オブジェクト40に応じて選択されたものであってもよいし、姿勢情報を用いて生成されたものであってもよい。例えば、実在オブジェクト40が人物である場合には、人物を示す形状の3次元仮想オブジェクトが用いられる。また、実在オブジェクト40が動物である場合には、動物を示す形状の3次元仮想オブジェクトが用いられる。次に、立体物射影投影部5は、立体物抽出部1で撮像画像100aから抽出された前景画像部分及び撮像画像100bから抽出された前景画像部分に対応する3次元仮想オブジェクトに対して射影投影を行うことで、射影投影された3次元仮想オブジェクト400を生成する。具体的には、立体物射影投影部5は、背景俯瞰合成画像302における実在オブジェクト40としての人物を抽出した位置に、人物を上から見た形状に対応する形状を持つ3次元仮想オブジェクト400の画像を重畳表示させる。立体物射影投影部5が行う処理は、後述の図11及び図12を用いて詳述される。
 3次元空間重畳部6は、例えば、XYZ直交座標系で示される3次元空間におけるZ=0の面に、背景画像合成部3で2つの補完された背景画像部分から生成された背景俯瞰合成画像302を配置し、前景画像部分の位置座標に射影投影された3次元仮想オブジェクト400を配置する。3次元空間重畳部6が行う処理は、後述の図13及び図14を用いて詳述される。
 表示画像出力部7は、背景俯瞰合成画像302上に3次元仮想オブジェクト400が重畳された3次元空間の俯瞰合成画像を表示画像として表示機器30に出力する。表示画像出力部7が行う処理は、後述の図15を用いて詳述される。
《2》動作
《2-1》立体物抽出部1
 図4は、画像処理装置10の立体物抽出部1が行う処理を示すフローチャートである。図5(a)は、立体物抽出部1によって撮像画像100aから抽出された前景画像部分200a及び201a、背景画像部分300a、並びに前景画像撮影情報500a及び501aの例を示す説明図である。図5(b)は、立体物抽出部1によって撮像画像100bから抽出された前景画像部分200b及び201b、背景画像部分300b、並びに前景画像撮影情報500b及び501bの例を示す説明図である。図5(a)及び(b)には、1つの撮像画像から2つの前景画像部分と、2つの前景画像撮影情報とが抽出された例を示しているが、前景画像部分の数は2つに限定されず、前景画像撮影情報の数も2つに限定されない。
 前景画像撮影情報は、例えば、実在オブジェクト40における撮像装置20a及び20bに最も近い部分の位置座標、前景画像部分の解像度、実在オブジェクト40の大きさなどを含む。実在オブジェクト40の大きさは、例えば、実在オブジェクト40を矩形で囲んだ(例えば、外接するように囲んだ)際の、矩形の4つの頂点の座標で表わされる。ただし、実在オブジェクト40の大きさを表す情報は、矩形の4つの頂点の座標以外の情報指標であってもよい。
 先ず、立体物抽出部1は、複数の撮像画像100a及び100bを取得する(ステップS10)。撮像画像100a及び100bが圧縮符号化されている場合、立体物抽出部1は、撮像画像100a及び100bをデコードすることで、撮像画像100a及び100bに対応するRAW画像データを取得する。例えば、撮像装置20a及び20bから動画圧縮規格であるH.264形式で圧縮符号化された映像がストリーミング配信されている場合、立体物抽出部1は、撮像画像100a及び100bに対しH.264形式に対応するデコードを行うことで、RGBA(Red Green Blue Alpha)32ビットのRAW画像データを取得する。ただし、立体物抽出部1が取得する画像データの形式は、RGBA32ビットのRAW画像データに限定されない。
 次に、立体物抽出部1は、取得したRAW画像データから人物、車両、生産物などのような立体物である1つ以上の実在オブジェクト40を検出する(ステップS11)。実在オブジェクト40は、例えば、歩行する人物、走行する車両、工場の生産ラインにおける生産物などである。ただし、実在オブジェクト40は、これらに限定されず、動物、建造物、障害物、工場設備、ロボットなどのような他の立体物であってもよい。
 次に、立体物抽出部1は、RAW画像データから、検出され実在オブジェクト40を抽出し、RAW画像データを、実在オブジェクト40が撮像された領域部分である前景画像部分と、それ以外の領域部分である背景画像部分とに分割する(ステップS12)。実在オブジェクト40の抽出は、例えば、グラフカットと呼ばれる画像の領域抽出のための画像セグメンテ-ション技術を用いて行われる。立体物抽出部1は、グラフカットを用いることによって、撮像画像100a及び100bの各々から背景画像部分と前景画像部分とを分割することができる。ただし、実在オブジェクト40の抽出方法は、グラフカットを用いた方法に限定されない。例えば、実在オブジェクトの抽出に、ディープラーニングを用いた学習ベースの画像セグメンテーション技術(例えば、Open Pose)を用いてもよい。実在オブジェクト40に関する前景画像撮影情報は、例えば、撮像画像における前景画像部分の位置座標、前景画像部分の大きさを表す値、実在オブジェクト40を識別する識別子を含む。撮像画像100a及び100bから対象となる実在オブジェクト40が、0個又は1個以上抽出される。このため、実在オブジェクト40の検出から実在オブジェクト40の抽出までの処理(ステップS11及びS12)は、処理対象の撮像画像の数と同じ回数繰り返される。
 次に、立体物抽出部1は、抽出された実在オブジェクト40に対して、実在オブジェクト40の同定を行う(ステップS13)。撮像装置20aの撮像対象領域と撮像装置20bの撮像対象領域とが共通の撮像対象領域部分を含む場合、撮像画像100a及び100bは、同じ実在オブジェクト40を撮影する場合がある。立体物抽出部1は、複数の実在オブジェクトの各々を識別するための識別子を実在オブジェクトの各々に付与する。撮像画像100aに含まれる実在オブジェクトと撮像画像100bに含まれる実在オブジェクトとが同じ実在オブジェクトである場合、立体物抽出部1は、この実在オブジェクトに同じ識別子を付与する。例えば、立体物抽出部1は、図5(a)及び(b)に示されるように、4枚の前景画像部分200a、201a、200b及び201bを検出し、前景画像部分201aと前景画像部分201bが同一であると判断した場合には、実際の実在オブジェクトの個数は3個であると判定する。立体物抽出部1は、撮像画像100a及び100bを入力として受け取り、背景画像部分300a及び300b、前景画像部分200a、201a、200b及び201b、前景画像撮影情報500a、501a、500b及び501bを出力する。
《2-2》背景補完部2
 図6は、画像処理装置10の背景補完部2が行う処理を示すフローチャートである。背景補完部2は、予め記憶部16に記憶されている参照画像を用いて背景補完を行う(ステップS20)。背景補完部2は、対象となる前景画像部分200a、201a、200b及び201bに対応する前景画像撮影情報500a、501a、500b及び501bを用いて、背景補完を行う。背景補完部2は、実在オブジェクト40の前景画像部分200a、201a、200b及び201bの位置座標及び大きさを基に、参照画像から、前景画像部分200a、201a、200b及び201bの位置座標及び大きさと同じ位置座標及び大きさの参照画像部分を取得し、この参照画像部分を背景画像部分に貼りつけることで、前景画像部分の抜けを補完して、補完された背景画像部分を生成する。
 図7(a)から(e)は、背景補完部2が行う処理を示す説明図である。例えば、背景補完部2は、図7(a)に示される撮像画像100aから抽出された図7(b)に示される対象となる前景画像部分200aを除いて得られた、図7(c)に示される背景画像部分300aを受け取る。次に、背景補完部2は、前景画像部分200aに関する前景画像撮影情報500aを用いて、対象物としての実在オブジェクトの前景画像部分200aの位置座標及び大きさを基に、図7(d)に示される参照画像350から、対象物としての実在オブジェクトの前景画像部分200aの位置座標及び大きさと同じ位置座標及び大きさの参照画像部分350aを取得する。次に、背景補完部2は、背景画像部分300aに参照画像部分350aを貼りつけることによって背景画像部分300aを補完し、図7(e)に示されるような補完された背景画像部分301aを生成する。つまり、背景補完部2は、前景画像部分200aを抜いた背景画像部分300aを入力として受け取り、参照画像350を用いて背景補完した背景画像部分301aを出力する。
《2-3》背景画像合成部3
 図8は、画像処理装置10の背景画像合成部3が行う処理を示すフローチャートである。背景画像合成部3は、背景補完部2における背景補完が行われた背景画像部分301a及び301bを入力として受け取り、背景画像部分301a及び301bを俯瞰変換(視点変換)し、俯瞰変換された背景画像部分を合成することで背景俯瞰合成画像302を生成する。
 具体的には、背景画像合成部3は、背景補完が行われた背景画像部分301a及び301bに対して撮像装置20aのレンズの特性によって生じる歪み及び撮像装置20bのレンズの特性によって生じる歪みを補正するための歪み補正処理を行う(ステップS30)。
 次に、背景画像合成部3は、撮像装置20aの外部パラメータを用いて、背景補完が行われた背景画像部分301aを上(例えば、真上から)から見たように視点位置を変換する俯瞰変換を行う(ステップS31)。また、背景画像合成部3は、撮像装置20bの外部パラメータを用いて、背景補完が行われた背景画像部分301bを上(例えば、真上から)から見たように視点位置を変換する俯瞰変換を行う(ステップS31)。
 次に、背景画像合成部3は、それぞれの俯瞰変換後の背景画像部分301a及び301bを合成する(ステップS32)。
 次に、背景画像合成部3は、俯瞰変換後の背景画像部分301a及び301bが重なり合う領域に対してアルファブレンドを行う(ステップS33)。アルファブレンドは、2つの画像を重ね合わせ、画素ごとに設定された係数である透明度(α値)に基いて合成する画像合成方法である。α値は、概念としては、透明度0%の完全不透明状態から透明度100%の完全透明状態までの透明度を表す。例えば、α値は、0から1までの範囲の値を取る係数であり、最小値(値0)の場合には透明度が最大であり、最大値(値1)の場合には不透明度が最大(塗りつぶし)になる。
 図9(a)から(c)は、背景画像合成部3が行う処理を示す説明図である。背景画像合成部3は、図9(a)に示される背景画像部分301a及び301bから、図9(b)に示される俯瞰変換後の背景画像部分301a及び背景画像部分301bを生成し、さらに、図9(c)に示される背景俯瞰合成画像302を生成する。画像処理装置10は、背景俯瞰合成画像302を生成するために、事前に撮像装置20a及び20bのキャリブレーションを行い、内部パラメータと外部パラメータを取得する必要がある。内部パラメータは、撮像装置の光学部材の焦点距離、光軸中心の位置及び方向などの情報が含まれる。外部パラメータは、カメラ位置姿勢の情報を含み、撮像対象となる空間における設置位置(設置座標)情報と設置姿勢(ヨー、ロール、ピッチ情報)などが含まれる。背景画像合成部3は、背景画像部分301aと背景画像部分301bから背景俯瞰合成画像302を作成するためには、予め準備された参照テーブルを用いて行うことも可能である。
《2-4》立体物認識部4
 図10は、画像処理装置10の立体物認識部4が行う処理を示すフローチャートである。立体物認識部4は、立体物抽出部1で抽出した前景画像部分200a、201a、200b及び201bから実在する立体物である実在オブジェクト40の認識を行う(ステップS40)。
 次に、立体物認識部4は、立体物抽出部1で抽出した前景画像部分200a及び200bの姿勢情報、すなわち、実在オブジェクトの姿勢情報を取得して、実在オブジェクトID、実在オブジェクト種別、姿勢情報を記憶部16に記憶する(ステップS41)。姿勢情報は、前景画像部分200a及び200bである2次元座標のピクセルデータから3次元座標のピクセルデータに変換するためのデータテーブルである。立体物認識部4は、姿勢情報を、前景画像部分における画像解析により予め求めてもよいし、撮像装置以外のセンサーを用いて予め取得してもよい。姿勢情報の取得方法は、特定の方法に限定されない。特に実在オブジェクト40が人物の場合、撮影画像から人物の骨格情報を取得できるため、立体物認識部4は、人物の骨格情報を姿勢情報として記憶部16に記憶させてもよい。
《2-5》立体物射影投影部5
 図11は、画像処理装置10の立体物射影投影部5が行う処理を示すフローチャートである。立体物射影投影部5は、立体物認識部4で取得した実在オブジェクトの姿勢情報から3次元仮想オブジェクトを生成する(ステップS50)。
 次に、立体物射影投影部5は、立体物抽出部1で抽出した2次元の前景画像部分を、姿勢情報を用いて3次元仮想オブジェクトに射影投影する(ステップS51)。同じ実在オブジェクトIDである前景画像部分は、同じ3次元仮想オブジェクトに射影投影される。
 図12は、立体物射影投影部5が行う処理を示す説明図である。立体物射影投影部5は、認識した実在オブジェクト40に対応する3次元仮想オブジェクト400aを取得(生成を含む)する。3次元仮想オブジェクト400aは、対応する実在オブジェクト40に応じて事前に記憶部16に記憶されている複数の3次元仮想オブジェクトの候補の中から選択される。また、立体物射影投影部5は、3次元仮想オブジェクト400aを、姿勢情報を用いて作成してもよい。次に、立体物射影投影部5は、立体物抽出部1で抽出した前景画像部分200a及び200bを3次元仮想オブジェクト400aに対して射影投影する。このとき、立体物射影投影部5は、前景画像部分200a及び200bの姿勢情報を用いて3次元仮想オブジェクトに射影投影を行い、射影投影された3次元仮想オブジェクト400を生成する。
《2-6》3次元空間重畳部6
 図13は、画像処理装置10の3次元空間重畳部6が行う処理を示すフローチャートである。図14は、立体物射影投影部5が行う処理を示す説明図である。3次元空間重畳部6は、XYZ直交座標系で示される3次元空間上に、例えば、高さ0(Z=0)の平面(例えば、XY面)に背景画像合成部3で生成した背景俯瞰合成画像302を配置する(ステップS60)。
 次に、3次元空間重畳部6は、立体物射影投影部5で生成した射影投影された3次元仮想オブジェクト400を、背景俯瞰合成画像302に重ねて配置する(ステップS61)。3次元仮想オブジェクト400の配置位置は、前景画像撮影情報に含まれる位置情報を、撮像装置20a及び20bにおける内部パラメータと外部パラメータを用いて座標変換した座標である。
《2-7》表示画像出力部7
 図15は、画像処理装置10の表示画像出力部7が行う処理を示すフローチャートである。表示画像出力部7は、3次元空間重畳部6で生成された3次元空間に配置された背景俯瞰合成画像302と3次元仮想オブジェクト400とからなる俯瞰合成画像、すなわち、指定された視点位置(例えば、3次元仮想オブジェクト400の真上の視点位置)から見た俯瞰合成画像を取得する(ステップS70)。
 次に、表示画像出力部7は、取得した俯瞰合成画像を表示機器30に対して出力する(ステップS71)。
《3》効果
 以上に説明したように、本実施の形態に係る画像処理装置10及び画像処理方法によれば、3次元空間上に平面の背景俯瞰合成画像302と3次元仮想オブジェクト400とを配置するようにしているので、複数の撮像画像100a及び100bを合成する場合、撮像画像100a及び100bが重なる範囲において立体物が2重に表示されることはなく、また、立体物が消失することもない。
 また、本実施の形態に係る画像処理装置10及び画像処理方法によれば、複数の実在オブジェクト40が存在する場合に、実在オブジェクトごとの3次元仮想オブジェクトを用いて個別に歪みを抑制することができるので、違和感のない真上から見た俯瞰画像を生成することができる。
 さらに、本実施の形態に係る画像処理装置10及び画像処理方法によれば、真上から見た俯瞰画像だけでなく、任意の視点位置から見た俯瞰合成画像を作成することができる。したがって、画像処理装置10を監視用途で用いる場合、監視者の監視作業の効率化を図ることができる。
《4》利用形態の説明
 本実施の形態に係る画像処理装置10及び画像処理方法は、工場の作業者の監視用の作業監視システムに適用できる。
 また、本実施の形態に係る画像処理装置10及び画像処理方法は、車両に搭載することによって、車両周辺の障害物を検出し、表示する運転支援システムに適用できる。
 また、本実施の形態に係る画像処理装置10及び画像処理方法は、工場の生産ライン上にある作業対象物を管理する製造管理システム又は完成品の在庫状況を監視する在庫管理システムなどに適用できる。
 1 立体物抽出部(画像分割部)、 2 背景補完部、 3 背景画像合成部、 4 立体物認識部、 5 立体物射影投影部、 6 3次元空間重畳部、 7 表示画像出力部、 10 画像処理装置、 11 プロセッサ、 12 メモリ、 13 記憶装置、 14 画像入力インタフェース、 15 表示機器インタフェース、 16 記憶部、 20a,20b 撮像画像、 30 表示機器、 40 実在オブジェクト(立体物)、 100a,100b 撮像画像、 200a,201a,200b,201b 前景画像部分、 300a,300b 背景画像部分、 302 背景俯瞰合成画像、 350 参照画像、 350a 参照画像部分、 400 射影投影された3次元仮想オブジェクト、 400a 3次元仮想オブジェクト、 500a,501a,500b,501b 前景画像撮影情報。

Claims (9)

  1.  複数の撮像画像の各々を、前記複数の撮像画像の共通の撮影対象領域内に実在する立体物である実在オブジェクトが占める前景画像部分と前記前景画像部分以外の背景画像部分とに分割する画像分割部と、
     予め取得されている参照画像の一部である参照画像部分を前記前景画像部分の領域に貼り付けることによって前記背景画像部分を補完して、複数の補完された背景画像部分を生成する背景補完部と、
     前記複数の補完された背景画像部分の視点位置を変更する俯瞰変換を行い、俯瞰変換された前記背景画像部分を合成することによって背景俯瞰合成画像を生成する背景画像合成部と、
     前記実在オブジェクトを認識し、前記実在オブジェクトの姿勢情報を取得する立体物認識部と、
     前記姿勢情報を用いて、前記実在オブジェクトに対応する3次元仮想オブジェクトを取得する立体物射影投影部と、
     前記背景俯瞰合成画像に前記3次元仮想オブジェクトを重畳して3次元空間画像を生成する3次元空間重畳部と、
     前記3次元空間画像を上から見た画像である俯瞰合成画像を生成して出力する表示画像出力部と、
     を有することを特徴とする画像処理装置。
  2.  前記立体物射影投影部は、前記実在オブジェクトに対応する3次元仮想オブジェクトを取得し、前記3次元仮想オブジェクトに前記前景画像部分を射影投影し、射影投影された前記3次元仮想オブジェクトを前記背景俯瞰合成画像の上に重ねることを特徴とする請求項1に記載の画像処理装置。
  3.  複数の3次元仮想オブジェクトの候補を予め記憶する記憶部をさらに有することを特徴とする請求項1又は2に記載の画像処理装置。
  4.  前記参照画像は、前記複数の撮像画像を撮影した複数の撮像装置によって過去に撮影された撮像画像であることを特徴とする請求項1から3のいずれか1項に記載の画像処理装置。
  5.  前記参照画像を予め記憶する記憶部をさらに有することを特徴とする請求項1から4のいずれか1項に記載の画像処理装置。
  6.  前記立体物認識部が前記実在オブジェクトが人物であると認識した場合に、前記姿勢情報は、前記人物の骨格情報を含むことを特徴とする請求項1から5のいずれか1項に記載の画像処理装置。
  7.  前記表示画像出力部は、前記俯瞰合成画像として、前記実在オブジェクトを真上から見た画像を生成することを特徴とする請求項1から6のいずれか1項に記載の画像処理装置。
  8.  複数の撮像画像の各々を、前記複数の撮像画像の共通の撮影対象領域内に実在する立体物である実在オブジェクトが占める前景画像部分と前記前景画像部分以外の背景画像部分とに分割するステップと、
     予め取得されている参照画像の一部である参照画像部分を前記前景画像部分の領域に貼り付けることによって前記背景画像部分を補完して、複数の補完された背景画像部分を生成するステップと、
     前記複数の補完された背景画像部分の視点位置を変更する俯瞰変換を行い、俯瞰変換された前記背景画像部分を合成することによって背景俯瞰合成画像を生成するステップと、
     前記実在オブジェクトを認識し、前記実在オブジェクトの姿勢情報を取得するステップと、
     前記姿勢情報を用いて、前記実在オブジェクトに対応する3次元仮想オブジェクトを取得するステップと、
     前記背景俯瞰合成画像に前記3次元仮想オブジェクトを重畳して3次元空間画像を生成するステップと、
     前記3次元空間画像を上から見た画像である俯瞰合成画像を生成して出力するステップと、
     を有することを特徴とする画像処理方法。
  9.  複数の撮像画像の各々を、前記複数の撮像画像の共通の撮影対象領域内に実在する立体物である実在オブジェクトが占める前景画像部分と前記前景画像部分以外の背景画像部分とに分割する処理と、
     予め取得されている参照画像の一部である参照画像部分を前記前景画像部分の領域に貼り付けることによって前記背景画像部分を補完して、複数の補完された背景画像部分を生成する処理と、
     前記複数の補完された背景画像部分の視点位置を変更する俯瞰変換を行い、俯瞰変換された前記背景画像部分を合成することによって背景俯瞰合成画像を生成する処理と、
     前記実在オブジェクトを認識し、前記実在オブジェクトの姿勢情報を取得する処理と、
     前記姿勢情報を用いて、前記実在オブジェクトに対応する3次元仮想オブジェクトを取得する処理と、
     前記背景俯瞰合成画像に前記3次元仮想オブジェクトを重畳して3次元空間画像を生成する処理と、
     前記3次元空間画像を上から見た画像である俯瞰合成画像を生成して出力する処理と、
     をコンピュータに実行させることを特徴とする画像処理プログラム。
PCT/JP2018/012852 2018-03-28 2018-03-28 画像処理装置、画像処理方法、及び画像処理プログラム WO2019186787A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2018540890A JP6513300B1 (ja) 2018-03-28 2018-03-28 画像処理装置、画像処理方法、及び画像処理プログラム
GB2014492.9A GB2586712B (en) 2018-03-28 2018-03-28 Image processing device, image processing method, and image processing program
CN201880091553.9A CN111886624A (zh) 2018-03-28 2018-03-28 图像处理装置、图像处理方法及图像处理程序
PCT/JP2018/012852 WO2019186787A1 (ja) 2018-03-28 2018-03-28 画像処理装置、画像処理方法、及び画像処理プログラム
US17/028,508 US11403742B2 (en) 2018-03-28 2020-09-22 Image processing device, image processing method, and recording medium for generating bird's eye synthetic image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/012852 WO2019186787A1 (ja) 2018-03-28 2018-03-28 画像処理装置、画像処理方法、及び画像処理プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/028,508 Continuation US11403742B2 (en) 2018-03-28 2020-09-22 Image processing device, image processing method, and recording medium for generating bird's eye synthetic image

Publications (1)

Publication Number Publication Date
WO2019186787A1 true WO2019186787A1 (ja) 2019-10-03

Family

ID=66530751

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/012852 WO2019186787A1 (ja) 2018-03-28 2018-03-28 画像処理装置、画像処理方法、及び画像処理プログラム

Country Status (5)

Country Link
US (1) US11403742B2 (ja)
JP (1) JP6513300B1 (ja)
CN (1) CN111886624A (ja)
GB (1) GB2586712B (ja)
WO (1) WO2019186787A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113538318A (zh) * 2021-08-24 2021-10-22 北京奇艺世纪科技有限公司 图像处理方法、装置、终端设备以及可读存储介质
WO2022181174A1 (ja) * 2021-02-24 2022-09-01 ソニーグループ株式会社 画像処理装置、画像処理方法、プロジェクタ装置

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11429814B2 (en) * 2018-04-12 2022-08-30 Nec Corporation Learning image generation apparatus, learning image generation method, and non-transitory storage medium
WO2021040075A1 (ko) * 2019-08-27 2021-03-04 엘지전자 주식회사 영상표시장치 및 이의 영상처리방법
EP3968274A1 (en) * 2020-09-14 2022-03-16 Tata Consultancy Services Limited Method and system for asset inspection using unmanned aerial vehicles

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000184336A (ja) * 1998-10-09 2000-06-30 Canon Inc 画像処理装置、画像処理方法及びコンピュ―タ読み取り可能な記憶媒体
WO2012046392A1 (ja) * 2010-10-08 2012-04-12 パナソニック株式会社 姿勢推定装置及び姿勢推定方法
JP2012147149A (ja) * 2011-01-11 2012-08-02 Aisin Seiki Co Ltd 画像生成装置

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050031169A1 (en) * 2003-08-09 2005-02-10 Alan Shulman Birds eye view virtual imaging for real time composited wide field of view
JP4934308B2 (ja) 2005-10-17 2012-05-16 三洋電機株式会社 運転支援システム
US7728879B2 (en) * 2006-08-21 2010-06-01 Sanyo Electric Co., Ltd. Image processor and visual field support device
US8170752B2 (en) * 2007-07-31 2012-05-01 Kabushiki Kaisha Toyota Jidoshokki Parking assistance apparatus, vehicle-side apparatus of parking assistance apparatus, parking assist method, and parking assist program
JP5053043B2 (ja) 2007-11-09 2012-10-17 アルパイン株式会社 車両周辺画像生成装置および車両周辺画像の歪み補正方法
JP4697480B2 (ja) * 2008-01-11 2011-06-08 日本電気株式会社 車線認識装置、車線認識方法および車線認識プログラム
JP5206366B2 (ja) * 2008-11-27 2013-06-12 カシオ計算機株式会社 3次元データ作成装置
JP5067632B2 (ja) * 2008-11-28 2012-11-07 アイシン精機株式会社 鳥瞰画像生成装置
JP5178961B2 (ja) * 2010-07-14 2013-04-10 三菱電機株式会社 画像合成装置
TWI433529B (zh) * 2010-09-21 2014-04-01 Huper Lab Co Ltd 增強辨識3d物件的方法
EP2631374B1 (en) * 2010-10-22 2020-09-30 Hitachi Construction Machinery Co., Ltd. Work machine peripheral monitoring device
WO2013046593A1 (ja) * 2011-09-30 2013-04-04 パナソニック株式会社 俯瞰画像生成装置、俯瞰画像生成方法、および俯瞰画像生成プログラム
US8970701B2 (en) * 2011-10-21 2015-03-03 Mesa Engineering, Inc. System and method for predicting vehicle location
US20160379074A1 (en) * 2015-06-25 2016-12-29 Appropolis Inc. System and a method for tracking mobile objects using cameras and tag devices
US10417743B2 (en) 2015-11-06 2019-09-17 Mitsubishi Electric Corporation Image processing device, image processing method and computer readable medium
US10678256B2 (en) * 2017-09-28 2020-06-09 Nec Corporation Generating occlusion-aware bird eye view representations of complex road scenes
TWI657409B (zh) * 2017-12-27 2019-04-21 財團法人工業技術研究院 虛擬導引圖示與真實影像之疊合裝置及其相關疊合方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000184336A (ja) * 1998-10-09 2000-06-30 Canon Inc 画像処理装置、画像処理方法及びコンピュ―タ読み取り可能な記憶媒体
WO2012046392A1 (ja) * 2010-10-08 2012-04-12 パナソニック株式会社 姿勢推定装置及び姿勢推定方法
JP2012147149A (ja) * 2011-01-11 2012-08-02 Aisin Seiki Co Ltd 画像生成装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022181174A1 (ja) * 2021-02-24 2022-09-01 ソニーグループ株式会社 画像処理装置、画像処理方法、プロジェクタ装置
CN113538318A (zh) * 2021-08-24 2021-10-22 北京奇艺世纪科技有限公司 图像处理方法、装置、终端设备以及可读存储介质
CN113538318B (zh) * 2021-08-24 2023-12-15 北京奇艺世纪科技有限公司 图像处理方法、装置、终端设备以及可读存储介质

Also Published As

Publication number Publication date
JP6513300B1 (ja) 2019-05-15
US11403742B2 (en) 2022-08-02
GB202014492D0 (en) 2020-10-28
JPWO2019186787A1 (ja) 2020-04-30
CN111886624A (zh) 2020-11-03
US20210004943A1 (en) 2021-01-07
GB2586712A (en) 2021-03-03
GB2586712B (en) 2021-12-22

Similar Documents

Publication Publication Date Title
WO2019186787A1 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
JP6425780B1 (ja) 画像処理システム、画像処理装置、画像処理方法及びプログラム
JP6021541B2 (ja) 画像処理装置及び方法
CN111402374B (zh) 多路视频与三维模型融合方法及其装置、设备和存储介质
KR101538947B1 (ko) 실감형 자유시점 영상 제공 장치 및 방법
JP5845123B2 (ja) 3次元モデル−インテグラル画像変換装置およびそのプログラム
JP6406853B2 (ja) 光フィールド映像を生成する方法及び装置
US10349040B2 (en) Storing data retrieved from different sensors for generating a 3-D image
WO2019124248A1 (ja) 画像処理装置、コンテンツ処理装置、コンテンツ処理システム、および画像処理方法
JP2018026064A (ja) 画像処理装置、画像処理方法、システム
JP2010121945A (ja) 3次元形状生成装置
JP2008217593A (ja) 被写体領域抽出装置及び被写体領域抽出プログラム
CN113348489A (zh) 图像处理方法和装置
KR101801100B1 (ko) 몰입형 콘텐츠 제작 지원용 영상 제공 장치 및 방법
CA2650834A1 (en) Real-time capture and transformation of hemispherical video images to images in rectilinear coordinates
CN113132708B (zh) 利用鱼眼相机获取三维场景图像的方法和装置、设备和介质
JPWO2018052100A1 (ja) 画像処理装置、画像処理方法、画像処理プログラム
CN109961395B (zh) 深度图像的生成及显示方法、装置、系统、可读介质
KR102019879B1 (ko) 가상 카메라를 이용한 게임 내 360 vr 영상 획득 장치 및 방법
KR102019880B1 (ko) 분산 가상 카메라를 이용한 게임 내 360 vr 영상 획득 시스템 및 방법
JP7011728B2 (ja) 画像データ出力装置、コンテンツ作成装置、コンテンツ再生装置、画像データ出力方法、コンテンツ作成方法、およびコンテンツ再生方法
JP2012150614A (ja) 自由視点画像生成装置
KR20160101762A (ko) 색상 정보를 활용한 자동 정합·파노라믹 영상 생성 장치 및 방법
US20220172474A1 (en) Image processing apparatus, 3d model generation method, and program
WO2024014197A1 (ja) 映像処理装置、映像処理方法およびプログラム

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2018540890

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18911845

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 202014492

Country of ref document: GB

Kind code of ref document: A

Free format text: PCT FILING DATE = 20180328

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18911845

Country of ref document: EP

Kind code of ref document: A1