JP6687204B2 - 投影イメージ生成方法およびその装置、イメージピクセルと深度値との間のマッピング方法 - Google Patents

投影イメージ生成方法およびその装置、イメージピクセルと深度値との間のマッピング方法 Download PDF

Info

Publication number
JP6687204B2
JP6687204B2 JP2018500685A JP2018500685A JP6687204B2 JP 6687204 B2 JP6687204 B2 JP 6687204B2 JP 2018500685 A JP2018500685 A JP 2018500685A JP 2018500685 A JP2018500685 A JP 2018500685A JP 6687204 B2 JP6687204 B2 JP 6687204B2
Authority
JP
Japan
Prior art keywords
image
acquisition
depth
pose
acquired
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018500685A
Other languages
English (en)
Other versions
JP2018528509A (ja
Inventor
ジュ ド,ナク
ジュ ド,ナク
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Korea University Research and Business Foundation
Original Assignee
Korea University Research and Business Foundation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Korea University Research and Business Foundation filed Critical Korea University Research and Business Foundation
Priority claimed from PCT/KR2016/006961 external-priority patent/WO2017007166A1/ko
Publication of JP2018528509A publication Critical patent/JP2018528509A/ja
Application granted granted Critical
Publication of JP6687204B2 publication Critical patent/JP6687204B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/06
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/282Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/361Reproducing mixed stereoscopic images; Reproducing mixed monoscopic and stereoscopic images, e.g. a stereoscopic image overlay window on a monoscopic image background
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20068Projection on vertical or horizontal image axis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20072Graph-based image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0096Synchronisation or controlling aspects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture

Description

本発明は、イメージ生成に関し、特に、3次元空間に対する投影イメージを生成する方法および装置、イメージピクセルと深度値との間のマッピング方法に関する。
100余年前から室内および室外環境をデジタル情報で表現するための様々な方法が導入された。環境の映像情報を取得するためにカメラが導入され、環境の深度情報を取得するために各種の距離測定器が導入された。そして、近年、グーグル(登録商標)のJUMPや三星のProject Beyond等を通して、イメージと深度値を同時に取得して3Dイメージを作製し、これを使用者にHMD(Head Mount Display)を通して提供するためのセンサシステムも発売された。
しかし、前記システムは、一つの場所でのみデータ取得が可能であるため、特定ポーズ(2次元あるいは3次元空間上の位置および角度)で特定視野(Field of View)に関する情報だけが記録できるという限界がある。
これを克服するために、より細かい間隔を置いて数枚のイメージおよび深度値を取得することができる。その例として、インターネットポータルのStreet View(登録商標)地図サービスではイメージを細かい間隔で撮影しており、JUMPやProject Beyond等でも同様の具現が可能である。
しかし、このような従来の技術では、仮想の使用者がイメージが獲得されていないポーズに位置する場合には、該当位置に対応する3Dイメージを生成することができないという限界がある。従来の技術は、イメージが獲得されていない仮想の3次元空間上のポーズに仮想の使用者が位置するようになれば、該当ポーズの前−後に該当するポーズで取得されたイメージを混合して3Dイメージを表示し、使用者が移動するにつれ、次回のポーズで取得されたイメージを利用して3Dイメージを表示する方式を活用しているので、使用者の立場では不自然さを感じるようになる。
これを克服するために、複数の連続的なポーズに対してイメージおよび深度値を取得する方式を通して使用者の移動によって自然な3Dイメージ表示を可能にすることができるが、この場合は、使用者がイメージおよび深度値が取得された経路と同一の経路に移動する場合に限って自然な3Dイメージ表示が可能であるという限界がある。即ち、使用者がイメージが取得された経路を外れて移動をすることができないため、これは、主にローラーコースター等のアトラクションを経験する形態のコンテンツ作製等にのみ使用可能であるという限界がある。
また、全方向カメラでイメージを撮影した場合、該当イメージの中心点を基準に左右それぞれの方向に視野を移動させて両眼イメージを作り、それをHMD(Head Mount Display)装置を通してディスプレイする方法もまた、全方向カメラの特性により360度回転をして撮影映像を3Dで鑑賞することはできるが、撮影経路を外れては観察が不可能であるという限界がある。
以上において検討したように、従来は、室内および室外環境に対して使用者の任意移動および任意回転に対応するリアルな3Dイメージを提供することができなかったという問題点があった。
本発明の目的は、使用者の任意移動および任意回転に対応するリアルな3Dイメージを提供するための投影イメージ生成方法およびその装置を提供することである。
前記目的を達成するための本発明の一実施例に係る投影イメージ生成方法は、実際の3次元空間に対して取得された複数の取得イメージおよび複数の取得深度値それぞれの取得位置および取得角度を含む複数のイメージ取得ポーズおよび複数の深度取得ポーズを基準座標系を基準に推定するステップ;前記実際の3次元空間に対応する仮想の3次元空間での使用者の位置および角度を含む使用者ポーズを基準座標系を基準に取得するステップ;および、前記使用者ポーズに対応する対応イメージ取得ポーズおよび少なくとも一つの対応深度取得ポーズに基づいて、前記複数の取得深度値を前記複数の取得イメージの少なくとも一つに投影した投影イメージを生成するステップを含む。
好ましくは、前記投影イメージ生成に利用される前記複数の取得イメージの少なくとも一つは、前記対応イメージ取得ポーズで取得された取得イメージであって、前記対応イメージ取得ポーズを原点とする座標系である取得座標系を代表するイメージに設定された代表イメージであり、前記投影イメージ生成に利用される前記複数の取得深度値は、前記対応深度取得ポーズで取得された複数の深度値であって、前記基準座標系の原点を基準とする複数の深度値または前記取得座標系の原点を基準とする複数の深度値の中で前記代表イメージの画角に含まれる深度値である複数の対応深度値を含むことができる。
好ましくは、前記投影イメージを生成するステップは、前記複数の対応深度値それぞれに対応する前記代表イメージに含まれたピクセルである複数の対応ピクセルに前記複数の対応深度値を投影して生成できる。
好ましくは、前記使用者ポーズが前記対応イメージ取得ポーズと異なり、前記使用者ポーズでの前記使用者の視野角に対応する前記仮想の3次元空間上の領域の中で前記代表イメージに含まれていない遺失視野領域が存在する場合、前記投影イメージを生成するステップは、前記代表イメージを除く前記複数の取得イメージの中で前記遺失視野領域に該当するピクセルである複数の遺失ピクセルを含む取得イメージである補強イメージおよび前記代表イメージを利用して前記投影イメージを生成するステップを含むことができる。
好ましくは、前記補強イメージおよび前記代表イメージを利用して前記投影イメージを生成するステップは、前記遺失視野領域が存在するか否かを判断するステップ;前記遺失視野領域が存在すると判断されれば、前記複数の取得イメージに含まれた複数のピクセルに対応する前記複数の取得深度値がマッチングされた情報である深度−イメージ連係情報に基づいて前記複数の取得イメージの中で前記補強イメージを選定するステップ;前記補強イメージを前記代表イメージより低い加重値で相互組み合わせることで組み合わせイメージを生成するステップ;および、前記複数の取得深度値を前記組み合わせイメージに投影した投影イメージを生成するステップを含むことができる。
好ましくは、前記複数の取得イメージの中で前記補強イメージを選定するステップは、前記使用者ポーズを中心にレイキャスティング(raycasting)を遂行して前記使用者の視野角内に含まれる深度値である複数の使用者視野深度値を検出するステップ;前記複数の使用者視野深度値の中で前記遺失視野領域に該当する深度値である複数の遺失視野深度値を検出するステップ;前記深度−イメージ連係情報に基づいて、前記複数の遺失視野深度値に対応する前記複数の遺失ピクセルを検出するステップ;および、前記検出された複数の遺失ピクセルに基づいて、前記複数の取得イメージの中で前記補強イメージを選定するステップを含むことができる。
好ましくは、前記深度−イメージ連係情報は、前記深度取得ポーズで取得された複数の取得深度値から前記深度取得ポーズまでの距離である複数の第1深度値距離を算出するステップ;前記イメージ取得ポーズおよび前記深度取得ポーズを利用して、前記第1深度値距離を前記深度取得ポーズで取得された前記それぞれの複数の取得深度値から前記イメージ取得ポーズまでの距離である複数の第2深度値距離に変換するステップ;および、前記取得イメージ取得に利用されたイメージセンサに対応するカメラ行列および前記複数の第2深度値距離を利用して、前記取得イメージに含まれた複数のピクセルに前記複数の取得深度値をマッピングするステップを通して算出され得る。
好ましくは、前記深度取得ポーズで取得された複数の取得深度値から前記深度取得ポーズまでの距離である複数の第1深度値距離を算出するステップは、前記複数の取得深度値それぞれの取得時間が所定時間間隔以内である前記複数の取得深度値だけを利用して遂行され得る。
好ましくは、前記使用者ポーズが前記対応イメージ取得ポーズと同一であり、前記対応イメージ取得ポーズで取得された前記取得イメージの画角が前記対応深度取得ポーズで取得された前記複数の取得深度値で構成される深度地図の画角より大きい場合、前記投影イメージを生成するステップは、前記代表イメージが取得された前記対応イメージ取得ポーズから所定距離以内に属する複数の前記対応深度取得ポーズから取得された複数の前記深度地図と前記代表イメージを利用して遂行され得る。
好ましくは、前記使用者ポーズが前記対応イメージ取得ポーズと同一であり、前記対応イメージ取得ポーズで取得された前記取得イメージの画角が前記対応深度取得ポーズで取得された前記複数の取得深度値で構成される深度地図の画角より大きい場合、前記投影イメージを生成するステップは、前記代表イメージが取得された前記対応イメージ取得ポーズから所定距離以内に属する複数の前記対応深度取得ポーズから取得された複数の前記深度地図を予めグルーピングして生成したグルーピング深度地図と前記代表イメージを利用して遂行され得る。
好ましくは、前記複数の取得深度値で構成される深度地図は、予め設定されたパラメータを基盤とするメッシュ構造の取得深度値で構成され得る。
好ましくは、前記投影イメージを生成するステップは、前記複数の取得深度値の中で前記投影イメージ生成に利用される前記複数の取得イメージそれぞれが取得された時点から所定時間以内に取得された前記取得深度値だけを利用して遂行され得る。
好ましくは、前記複数のイメージ取得ポーズそれぞれに含まれた前記取得角度は、前記複数のイメージ取得ポーズそれぞれに含まれた前記取得イメージが全方向(omni−directional)カメラにより取得された場合には全方向角度であってよい。
また、前記目的を達成するための本発明の他の実施例に係る投影イメージ生成方法は、実際の3次元空間に対して取得された複数の取得イメージの取得位置および取得角度を含む複数のイメージ取得ポーズを基準座標系を基準に推定し、複数の取得深度値に対応する複数の深度取得ポーズを前記複数のイメージ取得ポーズそれぞれを原点とする取得座標系基準に推定するステップ;前記実際の3次元空間に対応する仮想の3次元空間での使用者の位置および角度を含む使用者ポーズを基準座標系を基準に取得するステップ;および、前記使用者ポーズに対応する対応イメージ取得ポーズおよび少なくとも一つの対応深度取得ポーズに基づいて、前記複数の取得深度値を前記複数の取得イメージの少なくとも一つに投影した投影イメージを生成するステップを含む。
また、前記目的を達成するための本発明の一実施例に係る投影イメージ生成装置は、実際の3次元空間に対して取得された複数の取得イメージおよび複数の取得深度値それぞれの取得位置および取得角度を含む複数のイメージ取得ポーズおよび複数の深度取得ポーズを基準座標系を基準に推定するデータポーズ推定部;前記実際の3次元空間に対応する仮想の3次元空間での使用者の位置および角度を含む使用者ポーズを基準座標系を基準に取得する使用者ポーズ取得部;および、前記使用者ポーズに対応する対応イメージ取得ポーズおよび少なくとも一つの対応深度取得ポーズに基づいて、前記複数の取得深度値を前記複数の取得イメージの少なくとも一つに投影した投影イメージを生成するイメージ生成部を含むことができる。
好ましくは、前記投影イメージ生成に利用される前記複数の取得イメージの少なくとも一つは、前記対応イメージ取得ポーズで取得された取得イメージであって、前記対応イメージ取得ポーズを原点とする座標系である取得座標系を代表するイメージに設定された代表イメージであり、前記投影イメージ生成に利用される前記複数の取得深度値は、前記対応深度取得ポーズで取得された複数の深度値であって、前記基準座標系の原点を基準とする複数の深度値または前記取得座標系の原点を基準とする複数の深度値の中で前記代表イメージの画角に含まれる深度値である複数の対応深度値を含むことができる。
好ましくは、前記対応イメージ取得ポーズが前記使用者ポーズと異なり、前記使用者ポーズでの前記使用者の視野角に対応する前記仮想の3次元空間上の領域の中で前記代表イメージに含まれていない遺失視野領域が存在する場合、前記イメージ生成部は、前記代表イメージを除く前記複数の取得イメージの中で前記遺失視野領域に該当するピクセルである複数の遺失ピクセルを含む取得イメージである補強イメージおよび前記代表イメージを利用して前記投影イメージを生成できる。
好ましくは、前記イメージ生成部は、前記遺失視野領域が存在するか否かを判断する使用者視野判断部;前記遺失視野領域が存在すると判断されれば、前記複数の取得イメージに含まれた複数のピクセルに対応する前記複数の取得深度値がマッチングされた情報である深度−イメージ連係情報に基づいて前記複数の取得イメージの中で前記補強イメージを選定する補強イメージ選定部;前記補強イメージを前記代表イメージより低い加重値で相互組み合わせることで組み合わせイメージを生成する組み合わせイメージ生成部;および、前記複数の取得深度値を前記組み合わせイメージに投影した投影イメージを生成する投影イメージ生成部を含むことができる。
好ましくは、前記使用者ポーズが前記対応イメージ取得ポーズと同一であり、前記対応イメージ取得ポーズで取得された前記取得イメージの画角が前記対応深度取得ポーズで取得された前記複数の取得深度値で構成される深度地図の画角より大きい場合、前記イメージ生成部は、前記代表イメージが取得された前記対応イメージ取得ポーズから所定距離以内に属する複数の前記対応深度取得ポーズから取得された複数の前記深度地図と前記代表イメージを利用して前記投影イメージを生成できる。
また、前記目的を達成するための本発明の他の実施例に係る投影イメージ生成装置は、実際の3次元空間に対して取得された複数の取得イメージの取得位置および取得角度を含む複数のイメージ取得ポーズを基準座標系を基準に推定し、複数の取得深度値に対応する複数の深度取得ポーズを前記複数のイメージ取得ポーズそれぞれを原点とする取得座標系基準に推定するデータポーズ推定部;前記実際の3次元空間に対応する仮想の3次元空間での使用者の位置および角度を含む使用者ポーズを基準座標系を基準に取得する使用者ポーズ取得部;および前記使用者ポーズに対応する対応イメージ取得ポーズおよび少なくとも一つの対応深度取得ポーズに基づいて、前記複数の取得深度値を前記複数の取得イメージの少なくとも一つに投影した投影イメージを生成するイメージ生成部を含む。
また、前記目的を達成するためのイメージピクセルと深度値との間のマッピング方法は、実際の3次元空間に対して取得された取得イメージおよび取得深度値それぞれの取得位置および取得角度を含むイメージ取得ポーズおよび深度取得ポーズを基準座標系を基準に推定するステップ;前記深度取得ポーズで取得された複数の取得深度値から前記深度取得ポーズまでの距離である複数の第1深度値距離を算出するステップ;前記イメージ取得ポーズおよび前記深度取得ポーズを利用して、前記第1深度値距離を前記深度取得ポーズで取得された前記それぞれの複数の取得深度値から前記イメージ取得ポーズまでの距離である複数の第2深度値距離に変換するステップ;および、前記取得イメージ取得に利用されたイメージセンサに対応するカメラ行列および前記複数の第2深度値距離を利用して、前記取得イメージに含まれた複数のピクセルに前記複数の取得深度値をマッピングするステップを含む。
好ましくは、前記複数の第2深度値距離に変換するステップは、前記イメージ取得ポーズを示す行列の逆行列、前記深度取得ポーズを示す行列および前記第1深度値距離それぞれを相互間に乗算演算することで遂行され得る。
好ましくは、本発明の一実施例に係るイメージピクセルと深度値との間のマッピング方法は、前記取得イメージの取得に利用されたイメージセンサの解像度が前記取得深度値の取得に利用された距離センサの解像度より高い場合、前記取得イメージに含まれた複数のピクセルに前記複数の取得深度値をマッピングするステップは、前記イメージピクセルとマッピングされた複数の取得深度値である初期連係深度値の中で3個以上の初期連係深度値を選別して多角形メッシュを構成するステップ;前記イメージセンサの解像度に基づいて、対応する取得深度値が存在しないイメージピクセルである複数の未マッピングピクセルの中で前記多角形メッシュの内部に含まれる複数の未マッピングピクセルの個数および位置を算出するステップ;前記算出された複数の未マッピングピクセルの個数および位置に基づいて前記複数の未マッピングピクセルに対応する複数の深度値を推定するステップ;および、前記推定された複数の深度値を前記複数の未マッピングピクセルにマッピングするステップをさらに含むことができる。
好ましくは、前記複数の未マッピングピクセルに対応する複数の深度値を推定するステップは、内挿法(interpolation)を利用して遂行され得る。
本発明の一実施例によれば、イメージをそのイメージが取得されたイメージ取得ポーズの取得座標系に連動して表示することで、取得座標系基準に取得された取得イメージを基準座標系の基準で変換する過程で発生するイメージ歪曲を除去することができる。特に、イメージを使用者視野より広い画角を有する広角イメージセンサを活用して取得することで、使用者が一つの固定された位置で周囲を見回す場合、同一の条件で撮影された一つの広角イメージを見ることができるようになり、使用者に自然でリアルなイメージを提供できる効果がある。
本発明の他の実施例によれば、イメージ取得ポーズの取得座標系別に連動された一つの代表イメージだけを利用して投影イメージを生成するので、従来に比べて遥かに少ないデータ量で投影イメージを生成できるようになる効果がある。
本発明のまた他の実施例によれば、イメージ取得ポーズの取得座標系別に連動される代表イメージを利用して投影イメージを生成するので、実際の3次元空間に該当するイメージが変更された場合、看板取り替えのように該当イメージ取得ポーズに対してのみ新たな取得イメージを取得して代表イメージに設定するだけでも、全体イメージデータを最新イメージデータに容易にアップグレード(up−grade)ができるようになる効果がある。
本発明のまた他の実施例によれば、深度−イメージ連係情報を通して深度値を媒介として取得イメージのどのピクセルが使用者視野内に含まれるかを確認することができ、これを通して、どの取得イメージが使用者視野内に入るべきかを確認できるようになるので、使用者がイメージ取得経路を外れた使用者ポーズに位置する場合にも該当使用者ポーズでの使用者の任意の視野に対応する投影イメージを生成できるようになる効果がある。
本発明のまた他の実施例によれば、深度−イメージ連係情報を利用して取得イメージの画角に対応する複数の深度地図を利用して投影イメージを生成することで、イメージセンサの画角より狭い画角を有する距離センサを利用しながらもイメージセンサの広い画角に対応する広い画角を有する投影イメージを生成できるようになる効果がある。
本発明のまた他の実施例によれば、代表イメージと補強イメージを組み合わせた組み合わせイメージを利用して投影イメージを生成する場合に、加重値を異にして組み合わせる方法等を通して複数のイメージを利用して生成される投影イメージのイメージ歪曲を最小化できるようになる効果がある。
本発明のまた他の実施例によれば、取得イメージおよび取得深度値それぞれが取得された時間を基盤に複数の取得深度値のうち投影イメージ生成に利用される取得深度値を選別することで、閉環状況等によるイメージ歪曲を最小化できるようになる効果がある。
本発明の一実施例に係る投影イメージ生成方法を説明するために示したフローチャートである。 本発明の深度値を基底ベクトルで表示した例示を示した図である。 イメージと深度値を同時に取得するための統合センサの例示を示した図である。 従来の基準座標系の基準で生成された3Dイメージを説明するために示した図である。 位置推定誤差によるイメージ歪曲を説明するために示した図である。 基準座標系による深度取得ポーズを説明するために示した図である。 基準座標系による深度取得ポーズを説明するために示した図である。 位置推定誤差による地形歪曲およびイメージ歪曲を説明するために示した図である。 位置推定誤差による地形歪曲およびイメージ歪曲を説明するために示した図である。 イメージセンサの画角を説明するために示した図である。 距離センサの画角を説明するために示した図である。 一つのイメージ取得ポーズと複数の深度取得ポーズを利用して投影イメージを生成する方法を説明するために示した図である。 深度値がグループ化された例示を説明するために示した図である。 閉環状況を説明するために示した図である。 閉環状況での深度値グループ化の歪曲を説明するために示した図である。 本発明の一実施例に係る深度−イメージ連係情報生成方法を説明するために示したフローチャートである。 本発明の一実施例に係る深度−イメージ連係を説明するために示した図である。 本発明の他の実施例に係る深度−イメージ連係を説明するために示した図である。 本発明のまた他の実施例に係る深度−イメージ連係を説明するために示した図である。 本発明の他の実施例に係る投影イメージ生成方法を説明するために示したフローチャートである。 本発明の一実施例によって遺失視野領域が存在する場合の投影イメージ生成方法を説明するために示したフローチャートである。 イメージセンサの画角が使用者視野を含む環境を説明するために示した図である。 イメージセンサの画角が使用者視野を含まない環境を説明するために示した図である。 本発明の一実施例に係る補強イメージ選定方法を説明するために示したフローチャートである。 使用者移動による本発明と従来の技術の相違点を説明するために示した図である。 本発明の一実施例に係るパラメータ基盤の深度値メッシュ構造を説明するために示した図である。 本発明の一実施例に係る投影イメージ生成装置を説明するために示した図である。 本発明の一実施例に係るイメージ生成部を説明するために示した図である。 本発明の一実施例に係る深度値の多角形メッシュ構造を説明するために示した図である。
本発明は、多様な変更を加えることができ、様々な実施例を有することができるところ、特定の実施例を図面に例示し、詳細に説明しようとする。しかし、これは、本発明を特定の実施形態に限定しようとするものではなく、本発明の思想および技術範囲に含まれる全ての変更、均等物乃至代替物を含むものと理解されるべきである。各図面を説明しながら類似した参照符号を類似した構成要素に対して使用した。
第1、第2、A、B等の用語は、多様な構成要素を説明するのに用いられ得るが、前記構成要素は、前記用語により限定されてはならない。前記用語は、一つの構成要素を他の構成要素から区別する目的でのみ用いられる。例えば、本発明の権利範囲を外れずに第1構成要素は第2構成要素と命名され得、類似するように第2構成要素も第1構成要素と命名され得る。および/またはという用語は、複数の関連した記載の項目の組み合わせまたは複数の関連した記載の項目中のいずれかの項目を含む。
ある構成要素が他の構成要素に「連結されて」いるとか「接続されて」いると言及された時は、その他の構成要素に直接的に連結されているか、または接続されていてもよいが、中間に他の構成要素が存在してもよいと理解されるべきである。これに対して、ある構成要素が他の構成要素に「直接連結されて」いるとか「直接接続されて」いると言及された時は、中間に他の構成要素が存在しないものと理解されるべきである。
本出願において使用した用語は、単に特定の実施例を説明するために用いられたものであり、本発明を限定しようとする意図ではない。単数の表現は、文脈上、明らかに異に意味しない限り、複数の表現を含む。本出願において、「含む」または「有する」等の用語は、明細書上に記載の特徴、数字、ステップ、動作、構成要素、部品またはこれらを組み合わせたものが存在することを指定しようとするものであり、一つまたはそれ以上の他の特徴や数字、ステップ、動作、構成要素、部品またはこれらを組み合わせたものの存在または付加可能性を予め排除しないものと理解されるべきである。
異に定義されない限り、技術的または科学的な用語を含めてここで用いられる全ての用語は、本発明の属する技術の分野における通常の知識を有する者により一般的に理解されるものと同一の意味を有している。一般的に用いられる辞書に定義されているような用語は、関連技術の文脈上有する意味と一致する意味を有するものと解釈されるべきであり、本出願において明らかに定義しない限り、理想的または過度に形式的な意味に解釈されない。
以下においては、本発明に係る好ましい実施例を、添付の図面を参照して詳細に説明する。
図1は、本発明の一実施例に係る投影イメージ生成方法を説明するために示したフローチャートである。
ステップ110では、投影イメージ生成装置が実際の3次元空間に対して取得された複数の取得イメージおよび複数の取得深度値それぞれの取得位置および取得角度を含む複数のイメージ取得ポーズおよび複数の深度取得ポーズを基準座標系を基準に推定する。
このとき、投影イメージ生成装置は、複数の取得イメージそれぞれが取得された位置および該当イメージが取得された角度(ヨー、ピッチ、ローリングに対する角度を含む)を含む複数のイメージ取得ポーズおよび複数の取得深度値それぞれが取得された位置および該当深度値が取得された角度(ヨー、ピッチ、ローリングに対する角度を含む)を含む複数の深度取得ポーズだけでなく、それぞれのイメージ取得ポーズで取得された取得イメージおよびイメージ取得時間(絶対的な取得時間、相対的な取得時間、取得イメージの先後関係等)に関する情報、それぞれの深度取得ポーズで取得された取得深度値および深度値取得時間(絶対的な取得時間、相対的な取得時間、取得深度値の先後関係等)に関する情報を格納していると仮定できる。ただし、他の実施例においては、イメージ取得ポーズがイメージが取得された位置だけを含み、深度取得ポーズが深度値が取得された位置だけを含んでもよい。また、複数のイメージ取得ポーズそれぞれに含まれた取得イメージが全方向(omni−directional)カメラにより取得された場合には、イメージ取得ポーズに含まれた取得角度は全方向角度であってよい。
ここで、取得イメージは、3次元空間に対する2次元イメージであって、2自由度の基底ベクトル(basis vector)で表現可能な形態を有することができ、カメラのように3次元カラー値を2次元で表現する形態またはカメラに赤外線フィルタを取り付けて3次元熱情報を2次元で表現した形態であってよい。
また、取得イメージは、多数のカメラを用いて生成されたパノラマイメージまたは広角イメージであってよく、本発明におけるイメージは、2自由度基底ベクトルで表現可能な形態として定義されるため、一般的な四角形の形態だけでなく、カメラの特性によって四角形以外の幾何学的な形態を有してもよい。
また、取得深度値は、3自由度の基底ベクトルで表現可能な点形態を有し、距離センサを用いて取得されてもよく、互いに異なる所で撮影された2つ以上のイメージを活用して推定されてもよい。前者の例としては、ライダー(LIDAR)、ソナー(SONAR)、赤外線(InfraRed)、TOF(Time Of Flight)距離探知機を通して取得された深度値があり、後者の例としては、ステレオカメラ、多重カメラ、全方向ステレオカメラ等を通して取得された深度値がある。一方、Kinect、JUMP、PrimeSense、Project Beyond等のデバイスを利用するようになれば、取得イメージおよび取得深度値を同時に取得することもできる。
図2は、本発明の深度値を基底ベクトルで表示した例示を示した図であって、深度値は、左側のようにα、β、γで表現されるポーラー座標系(Polar Coordinate)、または右側のようにX、Y、Z軸を利用して表現されるデカルト座標系(Cartesian Coordinate)を利用して3自由度の基底ベクトルで表示され得る。ここで、深度値は、単数の点形態あるいは複数の点形態に構成され得、点で構成された三角形基盤のメッシュ(Mesh)構造の深度値集合、特定幾何形態の深度値集合も含むことができる。
例えば、本発明の一実施例においては、距離センサを通して取得した取得深度値だけでなく、内挿法(interpolation)を通して深度値を新たに推定して使用することもできる。より具体的には、複数の取得深度値の中で3個以上の深度値を選別して多角形(三角形を含む)メッシュを構成した後、その多角形メッシュの内部に内挿法(interpolation)を通して新たな深度値を推定して追加できる。
一方、本発明の一実施例に係る取得イメージおよび取得深度値は、図3のような統合センサを利用して同時に取得されてもよい。
図3は、イメージと深度値を同時に取得するための統合センサの例示を示した図であり、図3においては、上段の広角イメージセンサと下段の距離センサ(Lidar)が結合された統合センサが示されている。このとき、広角イメージセンサは、垂直/水平に全方向画角を有することができるが、Lidarのような距離センサは、所定角度の狭い画角を有することが一般的である。一方、他の実施例においては、3次元空間上のポーズは、慣性センサ、加速センサ、地磁気センサ、無線通信信号等をさらに利用して推定され得る。
本発明において、投影イメージ生成装置は、既存に基準座標系を基準に格納された複数のイメージ取得ポーズおよび複数の深度取得ポーズを基準座標系を基準に推定するようになるが、基準座標系は、絶対座標系(W)とも命名し、特定の一つの原点を基準として全てのポーズを表示する方式である。一方、基準座標系と反対となる概念は取得座標系であるが、地域座標系とも命名し、原点が多数個存在し、多数個の原点それぞれを基準としてポーズを表示する方式である。
例えば、複数のカメラを利用してイメージを取得する場合に、イメージが取得されたイメージ取得ポーズを基準座標系を基準に表示すると、複数のカメラそれぞれのポーズが一つの特定の原点を基準に表示されるが、イメージ取得ポーズを取得座標系基準に表示すると、複数のカメラそれぞれが位置する複数の地点がいずれも個別取得座標系の原点となる。
ただし、原則的には、基準座標系は、原点を一つだけ設定すべきであるが、複数個の層で構成される建物等に基準座標系を適用する場合には、個別層別に基準座標系が設定され、個別層別に原点が設定されてもよい。
ステップ120では、投影イメージ生成装置が実際の3次元空間に対応する仮想の3次元空間での使用者の位置および角度を含む使用者ポーズを基準座標系を基準に取得する。
ここで、使用者ポーズは、仮想の3次元空間に表示される使用者のアバターの位置および使用者の視野が向かう方向を示す角度であってよい。
ステップ130では、投影イメージ生成装置が使用者ポーズに対応する対応イメージ取得ポーズおよび少なくとも一つの対応深度取得ポーズに基づいて、複数の取得深度値を複数の取得イメージの少なくとも一つに投影した投影イメージを生成する。
ここで、対応イメージ取得ポーズは、使用者ポーズに対応するイメージ取得ポーズを示し、対応深度取得ポーズは、使用者ポーズに対応する深度取得ポーズを意味する。例えば、使用者ポーズから所定距離以内に存在する一つのイメージ取得ポーズおよび少なくとも一つの深度取得ポーズが対応イメージ取得ポーズおよび対応深度取得ポーズに決定されるか、使用者ポーズから最も近い距離に位置する一つのイメージ取得ポーズおよび一つの深度取得ポーズが対応イメージ取得ポーズおよび対応深度取得ポーズに決定され得る。また、対応イメージ取得ポーズは、使用者ポーズでの使用者の視野との重畳度が最も高い取得イメージが取得されたイメージ取得ポーズに決定されてもよい。
一方、使用者ポーズは、対応イメージ取得ポーズ、深度取得ポーズと同一であると判断されることもあり、異なると判断されることもある。例えば、使用者ポーズと対応イメージ取得ポーズとの間の差値および使用者ポーズと深度取得ポーズとの間の差値それぞれが所定閾値以内であれば、使用者ポーズは、対応イメージ取得ポーズおよび深度取得ポーズそれぞれと同一であると判断され、その他の場合には、使用者ポーズは、対応イメージ取得ポーズおよび深度取得ポーズそれぞれと異なると判断され得る。
一方、本発明の一実施例によれば、投影イメージ生成に利用される取得イメージは、対応イメージ取得ポーズで取得された取得イメージであって、対応イメージ取得ポーズを原点とする座標系である取得座標系を代表するイメージに設定された代表イメージであってよく、投影イメージ生成に利用される複数の取得深度値は、対応深度取得ポーズで取得された複数の深度値であって、基準座標系の原点を基準とする複数の深度値または取得座標系の原点を基準とする複数の深度値の中で代表イメージの画角に含まれる深度値である複数の対応深度値であってよい。
即ち、本発明の一実施例においては、取得座標系基準に対応イメージ取得ポーズ別の代表イメージを設定できるが、これによって、使用者が特定取得座標系に進入するようになると、該当取得座標系内では一つの代表イメージだけが表示されるようになる。これを通して、後述の図4のように、所定大きさの数多くのイメージを組み合わせて使用者ポーズに対応する投影イメージを生成する従来の基準座標系の基準の投影イメージ生成方法に比べて歪曲が最小化された自然なイメージを使用者に表示できるようになる。また、このように複数の対応イメージ取得ポーズそれぞれの取得座標系別に連動される代表イメージを設定することで、実際の3次元空間の周辺環境が変わる場合等、実際の3次元空間に該当するイメージが変更された場合、看板取り替えのように該当対応イメージ取得ポーズに対してのみ新たな取得イメージを取得して代表イメージに設定すればいいので、全体イメージデータを最新イメージデータに容易にアップグレード(up−grade)ができるようになる効果がある。
より具体的に、本発明の一実施例においては、投影イメージ生成装置が代表イメージの画角に含まれる深度値である複数の対応深度値それぞれに対応する代表イメージに含まれたピクセルである複数の対応ピクセルに複数の対応深度値を投影して投影イメージを生成するようになる。
このとき、対応深度値に対応する対応ピクセルは、深度−イメージ連係情報に基づいて決定され得るが、深度−イメージ連係情報を生成する具体的な動作については、図14および図15を参照して後述する。
一方、本発明の他の実施例によれば、一つの対応イメージ取得ポーズで取得された一つの代表イメージに複数の対応深度取得ポーズで取得された複数の取得深度値を投影して投影イメージを生成することもできるが、これは、イメージの画角と複数の深度値で構成される深度地図の画角の差によるものである。これについては、図8乃至図10を参照して後述する。
他の実施例においては、使用者ポーズが対応イメージ取得ポーズと異なり、使用者ポーズでの使用者の視野角に対応する仮想の3次元空間上の領域の中で代表イメージに含まれていない遺失視野領域が存在する場合には、投影イメージ生成装置が代表イメージを除く複数の取得イメージの中で遺失視野領域に該当するピクセルである複数の遺失ピクセルを含む取得イメージである補強イメージおよび代表イメージを利用して投影イメージを生成することができるが、これについては、図17乃至図20を参照して後述する。
以下においては、図4乃至図7を参照して、従来の3Dイメージ生成方法で発生し得るイメージ歪曲について説明する。
図4は、従来の基準座標系の基準で生成された3Dイメージを説明するために示した図である。
図4を参照すると、基準座標系を基準に複数のイメージ取得ポーズ別に別途の取得イメージが存在するようになり、そのようにイメージ取得ポーズ別に存在する複数のイメージを結合して生成された結合イメージに深度値を投影して投影イメージを生成し、最終的に左眼と右眼それぞれに対応する2個の投影イメージを利用して3Dイメージを生成するようになる。このように、照度差、シャッタースピード差等が存在する複数の取得イメージそれぞれを結合して使用者に表示する一つのイメージを生成するため、図4のように不自然な結合イメージを使用者に表示するようになる。
一方、従来は、イメージ取得ポーズと深度取得ポーズそれぞれの位置推定誤差によりイメージ歪曲が発生し得るが、これについては、図5を参照して説明する。
図5は、位置推定誤差によるイメージ歪曲を説明するために示した図である。
図5を参照すると、柱のイメージが床に結像するイメージ歪曲が発生した図が示されているが、このような歪曲が発生する理由は、コンピュータを通して具現された仮想の3D環境ではデータ(イメージまたは深度値)取得地点での絶対的なポーズが確実に分かるのに対し、実際の3D環境でデータを取得する場合には、データを取得した様々なポーズの絶対座標値を推定せざるを得ず、このような推定過程で必然的に推定誤差が発生するためである。
以下においては、このような歪曲が発生する理由を、図6および図7を参照して具体的に説明する。
図6は、基準座標系による深度取得ポーズを説明するために示した図である。
ただし、数1は、3D環境での深度取得ポーズを示したものであって、2D環境では次元を一段階下げて同様に記述され得、本発明における深度取得ポーズは、3D環境と2D環境のいずれでも定義され得る。一方、数1においては、深度取得ポーズをH行列を利用して表示したが、本発明は、これに限定されず、位置ベクトルおよび角度ベクトルの組み合わせ、角度部分に対するオイラー(Euler)、クォータニオン(Quaternion)、二重(Dual)クォータニオン、ロドリゲス表現法を利用して表示することも可能である。
図7は、位置推定誤差による地形歪曲およびイメージ歪曲を説明するために示した図である。
このように、従来の基準座標系の基準の投影イメージ生成方法は、位置誤差による図5および図7bのようなイメージ歪曲が発生する問題があった。このような問題点を解決できる方案として、取得座標系基準の投影イメージ生成方法があるが、この場合には、位置推定誤差によるイメージ歪曲がないという長所があるが、イメージセンサの画角と距離センサの画角の差によってイメージセンサの画角と距離センサの画角が重畳される狭い視野に対してのみ投影イメージを生成できるという問題がある。例えば、イメージは、全方向カメラ等、全方向に対してイメージを一度に取得できる様々なデバイスがあるが、深度値の場合、全方向を同時に探知できるデバイスがないため、一つの取得座標系で取得された深度値とイメージを利用して投影イメージを生成しようとする場合、重畳された狭い視野に対してのみ投影イメージを生成できるようになるので、これを鑑賞する使用者の視野が制限されてしまうことがある。これについては、図8および図9を参照して説明する。
図8は、イメージセンサの画角を説明するために示した図である。
図8を参照すると、イメージセンサを利用してイメージを撮影する人がイメージ取得地点であるCi地点で灰色で表示された障害物を眺めてイメージを撮影する場合に、足もとの一部領域(白色部分)と灰色障害物のために撮影が制限される障害物の右側領域(白色部分)を除く全ての領域(斜線表示された領域)がイメージセンサの画角となる。
これに対して、図9は、距離センサの画角を説明するために示した図であるが、図9において、距離センサを利用して深度値を取得する人が深度値取得地点であるLj地点で灰色で表示された障害物を眺めて深度値を取得する場合に、Ljを中心に前後の方向に狭い範囲を有する斜線で表示された一部領域だけが距離センサの画角となる。従って、図8のイメージセンサの画角と図9の距離センサの画角が重なる領域に対する投影イメージだけが作製可能となるのである。
このような問題を解決するために、一つの全方向(omni−directional)センサでイメージを取得し、該当映像の中心点から左右各方向に移動した時点でのイメージを取得して3Dイメージを作製する方法があり、全方向イメージの特性上、イメージ取得地点で自由な回転が可能であるという長所がある。しかし、取得イメージに連係された深度値の不在により上下左右への移動が不可能であるという限界がある。これを克服するために、一地点を2台のカメラを通して撮影し、このようなカメラで撮影されたイメージを組み合わせて全方向に具現したproject beyondあるいはjumpのような技術が具現されている。このような具現は、2台のカメラ組み合わせを活用してイメージ画角とこれに対応する深度地図の画角が同一であるが、深度値の正確度が顕著に低くなり、イメージ取得ポーズまたは深度取得ポーズの基準座標系を基準とするポーズ推定に大きな誤差が発生するようになる。この場合、図4または図7のような歪曲が発生するだけでなく、図21のように、使用者がA、B、C、D、...、X、Y、Zの順に撮影された空間で、撮影時間の跳躍が起こるCからXへの移動が発生するようになれば、C地点でのポーズ推定誤差とX地点でのポーズ推定誤差によって両地点間の転換の瞬間に急激な不自然さが発生する。また、イメージが撮影された順に使用者が鑑賞をする場合にも、不正確な深度値により3D映像の一部分が瞬間的に突出または陥没する等の不自然さを経験するようになり、前記記述された全ての現象は、イメージ情報が不十分な所で増幅されるという問題を内包している。
本発明は、イメージセンサの画角より距離センサの画角が狭い場合に一つのイメージ取得ポーズと複数の深度取得ポーズを利用して投影イメージを生成することで、使用者がイメージ取得経路を外れて移動しても、それに対応する投影イメージを提供できるようになるが、これについては、図10を参照して説明する。
図10は、一つのイメージ取得ポーズと複数の深度取得ポーズを利用して投影イメージを生成する方法を説明するために示した図である。
図10を参照すると、上段には、特定のイメージ取得ポーズでの広角イメージセンサの画角が示されており、下段には、互いに異なる深度取得ポーズでの距離センサの画角が示されている。図10において、左側下段は、深度値取得地点Lj−1での距離センサの画角を示し、中央下段は、深度値取得地点Ljでの距離センサの画角を示し、右側下段は、深度値取得地点Lj+1での距離センサの画角を示すが、距離センサの画角は、その距離センサを通して取得される深度値で構成される深度地図の画角と同一である。
本発明の一実施例に係る投影イメージ生成装置は、使用者ポーズが対応イメージ取得ポーズと同一であり、対応イメージ取得ポーズで取得された取得イメージの画角が対応深度取得ポーズで取得された複数の取得深度値で構成される深度地図の画角より大きな場合(ポーズ同一−画角相違)には、代表イメージが取得された対応イメージ取得ポーズから所定距離以内に属する複数の対応深度取得ポーズから取得された複数の深度地図と一つの代表イメージを利用して投影イメージを生成するようになる。
既存の技法のように、イメージセンサの画角より狭い画角を有する距離センサを利用して投影イメージを生成するようになると、距離センサの狭い画角に対応する狭い画角を有する投影イメージだけが生成できたのに対し、本発明は、図10のように、取得イメージの全ての画角に対応する複数の深度地図を利用できるようになるので、イメージセンサの画角より狭い画角を有する距離センサを通してもイメージセンサの広い画角に対応する広い画角を有する投影イメージを生成できるようになる。
これは、本発明において、イメージ取得ポーズが基準座標系を基準に表現され、深度取得ポーズで取得された深度値も同様に基準座標系を基準に表現されるため、特定イメージ取得ポーズで取得されたイメージピクセルがどのような深度値を有するかを基準座標系を活用して判別できるからである。これについてのより具体的な説明は、図15bを参照して後述する。
また、他の実施例においては、深度値をイメージ取得ポーズを原点とする取得座標系を基準に表現して同一の効果を得ることができ、これについては、図15cを参照して後述する。
一方、イメージセンサの解像度と距離センサの解像度が異なる場合には、全てのイメージピクセルに対応する深度値が見つけられるものではないため、この場合には、深度値にマッピングされたイメージピクセルを活用して深度値がマッピングされていないイメージピクセルの深度値を内挿法等を通して容易に推定できるので、本発明を実施するのに問題が発生することはない。
一方、本発明においては、使用者がイメージ取得経路を外れた場合であるので、現在使用者ポーズに対応する取得イメージがなくても、現在使用者のポーズに対応する対応イメージ取得ポーズに設定された代表イメージを使用することができ、現在使用者ポーズに対応する一つの対応深度取得ポーズで取得した深度地図の画角が代表イメージの画角より狭い場合であっても、複数の他の深度取得ポーズで取得された深度地図を利用して代表イメージと同一の画角を有する深度地図を提供することができるので、使用者がイメージ取得経路を外れた場合であっても、自然にリアルな投影イメージを作製できるようになる。
また、一つのイメージ取得ポーズと複数の深度取得ポーズを利用して投影イメージを生成するためには、特定のイメージ取得ポーズに対応する代表イメージの画角に含まれる全ての深度地図を見つけなければならないが、このとき、深度−イメージ連係情報が利用され得る。即ち、現在使用者ポーズに対応する対応イメージ取得ポーズが決定されれば、深度−イメージ連係情報を利用してその対応イメージ取得ポーズで取得された代表イメージの画角に含まれる複数の深度地図を検出し、その検出された複数の深度地図と一つの代表イメージを利用して投影イメージを生成することができる。
ただし、他の実施例においては、対応イメージ取得ポーズが決定される度に毎回対応イメージ取得ポーズに対応する深度地図を検出する代わりに、その対応イメージ取得ポーズに対応する深度値を予め一回だけグループ化しておき、以後はそのグループ化された深度値を利用して投影イメージを生成することもできる。これについては、図11を参照して後述する。
図11は、深度値がグループ化された例示を説明するために示した図である。
ただし、このようなグループ化された深度値を利用する過程で閉環状況のような深刻な位置誤差が発生するようになれば、イメージ歪曲がより大きく発生し得るが、これについては、図12および図13を参照して説明する。
図12は、閉環状況を説明するために示した図である。
図12は、閉環状況を示しているが、使用者が長時間の時間間隔をおいて二回(t1とt100)にわたって相互間にほとんど近接した使用者ポーズを訪問する場合、長時間の時間間隔により互いに異なる撮影条件(照明、露出時間、レンズ焦点距離等)と二回目の訪問時に累積されたポーズ推定誤差にもかかわらず距離の近接性によって取得イメージおよび取得深度値を共に使用するようになる場合をいう。
図13は、閉環状況での深度値グループ化の歪曲を説明するために示した図である。
図13を参照すると、j+100番目の深度取得地点であるLj+100に対するグループ化された深度値が閉環状況による位置誤差によって所定角度だけ傾いて表示されているが、これをCiで取得された取得イメージに投影するようになる場合、深刻なイメージ歪曲が発生するようになる。
図14は、本発明の一実施例に係る深度−イメージ連係情報生成方法を説明するために示したフローチャートである。
ステップ1410では、投影イメージ生成装置が実際の3次元空間に対して取得された取得イメージおよび取得深度値それぞれの取得位置および取得角度を含むイメージ取得ポーズおよび深度取得ポーズを基準座標系を基準に推定する。
ステップ1420では、投影イメージ生成装置が深度取得ポーズから、深度取得ポーズで取得された複数の取得深度値に対応する複数の位置までの距離である複数の第1深度値距離を算出する。
ステップ1430では、投影イメージ生成装置がイメージ取得ポーズおよび深度取得ポーズを利用して、複数の第1深度値距離をイメージ取得ポーズから深度取得ポーズで取得されたそれぞれの複数の取得深度値に対応する複数の位置までの距離である複数の第2深度値距離に変換する。
より具体的に、投影イメージ生成装置は、数2により第2深度値距離を算出することができる。
ステップ1440では、投影イメージ生成装置が取得イメージ取得に利用されたイメージセンサに対応するカメラ行列および複数の第2深度値距離を利用して、取得イメージに含まれた複数のピクセルに複数の取得深度値をマッピングする。
より具体的に、投影イメージ生成装置は、数3により取得イメージに含まれた複数のイメージピクセルに複数の取得深度値をマッピングすることができる。
このように、イメージピクセルと深度値との間のマッピングを全てのイメージ取得ポーズに対して繰り返すようになると、特定深度値がどのイメージ取得ポーズのイメージ画角に対応するかが分かるようになる。
一方、イメージセンサの解像度が距離センサの解像度より高い場合には、イメージピクセルの中で対応する深度値が存在しない未マッピングピクセルが発生し得るが、投影イメージ生成装置は、未マッピングピクセルに対しては、内挿法を利用して推定された深度値をマッピングすることができる。
より具体的に、イメージセンサの解像度が距離センサの解像度より高いとき、投影イメージ生成装置は、イメージピクセルとマッピングされた複数の取得深度値である初期連係深度値の中で3個以上の初期連係深度値を選別して多角形メッシュ(三角形メッシュを含む)を構成し、イメージセンサの解像度に基づいて対応する取得深度値が存在しないイメージピクセルである複数の未マッピングピクセルの中でその多角形メッシュの内部に含まれる複数の未マッピングピクセルの個数および位置を算出し、その算出された複数の未マッピングピクセルの個数および位置に基づいて複数の未マッピングピクセルに対応する複数の深度値を推定した後、その推定された複数の深度値を複数の未マッピングピクセルにマッピングするステップをさらに遂行することができる。
例えば、図25は、本発明の一実施例に係る深度値の多角形メッシュ構造を説明するために示した図であって、図25を参照すると、取得イメージ上に数多くの三角形メッシュが表示されているが、三角形メッシュを構成する3個の頂点は取得深度値であって赤色で表示されており、三角形メッシュの内部に含まれるイメージピクセルには、マッピングされる深度値がない状態である。このような場合に、投影イメージ生成装置は、三角形メッシュの内部に含まれるイメージピクセルの個数および位置を算出し、内挿法等を利用してそれぞれのイメージピクセルに対応する深度値を推定してマッピングすることができる。一方、複数の未マッピングピクセルにマッピングされる深度値は、追加連係深度値と命名できる。
このような過程を通して、取得イメージの全てのピクセルに対して深度値がマッピングされれば、最終的に、投影イメージ生成装置は、深度−イメージ連係情報を生成するようになる。
また、このように生成された深度−イメージ連係情報は、取得イメージに含まれる深度値を推定するのに利用され得る。例えば、ステップ1410では、投影イメージ生成装置は、複数のイメージ取得ポーズそれぞれを中心にレイキャスティングを遂行して複数のイメージ取得ポーズそれぞれで取得された取得イメージに含まれる取得深度値である複数の連係深度値(初期連係深度値および追加連係深度値)を基準座標系の基準で検出できる。
このとき、投影イメージ生成装置は、複数のイメージ取得ポーズそれぞれを中心にレイキャスティングを遂行して複数の連係深度値を検出することもできる。
他の実施例においては、複数の連係深度値を検出するとき、複数の取得深度値それぞれの取得時間が所定時間間隔以内である複数の取得深度値だけを対象に連係深度値を検出してもよい。
例えば、図12のような閉環状況で時間t1で取得された取得深度値と、t100で取得された取得深度値をいずれも利用して取得イメージに含まれる取得深度値である連係深度値を検出するようになれば、図13のようなイメージ歪曲が発生し得るので、投影イメージ生成装置は、時間t1〜t10までの取得深度値だけを利用して連係深度値を検出することができる。
従来は、取得深度値を取得して格納するとき、取得時間情報を別に格納せず、複数の取得深度値それぞれの先後関係だけを表示したので、取得深度値相互間にどれほど時間間隔が存在するのか分からなかったが、本発明においては、複数の取得深度値それぞれが取得されるとき、取得時間も共に格納して取得深度値の選別に活用することで、閉環状況等によるイメージ歪曲を最小化できるようになる長所がある。
このように、取得座標系を基準とする複数の連係深度値を取得イメージに含まれた複数のピクセルとマッチングした情報が深度−イメージ連係情報であり、深度−イメージ連係情報は、複数のイメージ取得ポーズそれぞれで生成され得る。
他の実施例においては、深度−イメージ連係情報が基準座標系を基準とする複数の連係深度値を取得イメージに含まれた複数のピクセルとマッチングした情報であってよい。
一方、図14の実施例は、投影イメージ生成装置が基準座標系を基準に動作を遂行したが、イメージ取得ポーズの原点を基準とする取得座標系を基準に動作を遂行してもよい。
図15aは、本発明の一実施例に係る深度−イメージ連係を説明するために示した図である。
図15bは、本発明の他の実施例に係る深度−イメージ連係を説明するために示した図である。
即ち、図15bの深度−イメージ連係によれば、イメージ取得ポーズと深度取得ポーズは、基準座標系を基準に推定され、イメージ取得ポーズには、そのイメージ取得ポーズで取得された複数の取得イメージの中で一つの代表イメージがそのイメージ取得ポーズを原点に取得座標系を代表するイメージとして選定されて連動され、取得深度値は、基準座標系を基準に推定される。
図15cは、本発明のまた他の実施例に係る深度−イメージ連係を説明するために示した図である。
即ち、図15cの深度−イメージ連係によれば、イメージ取得ポーズは、基準座標系を基準に推定され、深度取得ポーズは、イメージ取得ポーズを原点とする取得座標系を基準に推定され、イメージ取得ポーズには、そのイメージ取得ポーズで取得された複数の取得イメージの中で一つの代表イメージがそのイメージ取得ポーズを原点とする取得座標系を代表するイメージとして選定されて連動され、取得深度値は、イメージ取得ポーズを原点とする取得座標系を基準に推定される。
図15cによる投影イメージ生成方法は、図16を参照して説明する。
図16は、本発明の他の実施例に係る投影イメージ生成方法を説明するために示したフローチャートである。
ステップ1610では、投影イメージ生成装置が実際の3次元空間に対して取得された複数の取得イメージに対応する複数のイメージ取得ポーズを基準座標系を基準に推定し、複数の取得深度値に対応する複数の深度取得ポーズを複数のイメージ取得ポーズそれぞれを原点とする取得座標系基準に推定する。
ステップ1620では、投影イメージ生成装置が実際の3次元空間に対応する仮想の3次元空間での使用者の位置および角度を含む使用者ポーズを基準座標系を基準に取得する。
ステップ1630では、投影イメージ生成装置が使用者ポーズに対応する対応イメージ取得ポーズおよび少なくとも一つの対応深度取得ポーズに基づいて、複数の取得深度値を複数の取得イメージの少なくとも一つに投影した投影イメージを生成する。
このとき、投影イメージ生成装置は、複数の取得深度値の中で投影イメージ生成に利用される複数の取得イメージそれぞれが取得された時点から所定時間以内に取得された取得深度値だけを利用して代表イメージに投影することで投影イメージを生成してもよい。これは、閉環状況等の発生による投影イメージの歪曲を最小化するためのものである。
また、投影イメージ生成装置は、対応深度取得ポーズに連動された代表イメージを利用して投影イメージを生成するようになるが、対応深度取得ポーズに連動する代表イメージを選定するとき、深度−イメージ連係情報を利用してもよい。
例えば、投影イメージ生成装置は、深度−イメージ連係情報を通して取得イメージと使用者視野との重畳領域を検出した後、その重畳領域が最も広い取得イメージを代表イメージに設定できる。このような実施例は、使用者ポーズと最も近いイメージ取得ポーズに連係されたイメージを代表イメージに選定する方法等でも容易に具現され得る。
図17は、本発明の一実施例によって遺失視野領域が存在する場合の投影イメージ生成方法を説明するために示したフローチャートであり、図18は、イメージセンサの画角が使用者視野を含む環境を説明するために示した図であり、図19は、イメージセンサの画角が使用者視野を含まない環境を説明するために示した図である。
図17の実施例は、図1のステップ130または図16のステップ1630を限定する実施例であって、図1の実施例のステップ110およびステップ120以後に遂行され、図16のステップ1610およびステップ1620以後に遂行されるステップである。
ステップ1710では、投影イメージ生成装置が使用者の視野角に対応する仮想の3次元空間上の領域の中で代表イメージに含まれていない遺失視野領域が存在するか否かを判断する。
図18を参照すると、i番目のイメージ取得地点Ciでのイメージセンサの画角が使用者の位置地点uでの使用者の視野を全て含むので、遺失視野領域は存在しない。
しかし、図19を参照すると、i番目のイメージ取得地点Ciと使用者の位置地点uの下段に灰色の正方形形態の障害物が存在し、i番目のイメージ取得地点Ciに位置したイメージセンサの画角を制限させることで、イメージセンサの視野限界が使用者の視野限界より狭くなってxで表示された遺失視野領域が発生するようになる。仮想の3次元空間上で使用者が遺失視野領域を眺めると、代表イメージには、その遺失視野領域に該当するピクセルが存在しないので、黒色または白色で表示され得る。
一方、従来の取得座標系基準投影イメージ生成方法によれば、どのような取得イメージが使用者視野に含まれるのか分からず、遺失視野領域に対応するピクセルが黒色または白色を有するように表示された投影イメージを生成した。
しかし、本発明の一実施例によれば、深度−イメージ連係情報を通して深度値を媒介として取得イメージのどのピクセルが使用者視野内に含まれるかを確認することができ、これを通して、どの取得イメージが使用者視野内に入るべきかを確認できるようになり、遺失視野領域に対応するピクセルが実際の3次元空間と同一の色相を有するように表示された投影イメージを生成できるようになる。即ち、本発明の一実施例によれば、図19のように障害物が存在するか、イメージ取得ポーズと使用者ポーズが異なる場合にも、該当位置での使用者の任意の視野に対応する自然な投影イメージを生成できるようになる効果がある。
ステップ1720では、遺失視野領域が存在すると判断されれば、投影イメージ生成装置が複数の取得イメージに含まれた複数のピクセルに対応する複数の取得深度値がマッチングされた情報である深度−イメージ連係情報に基づいて複数の取得イメージの中で補強イメージを選定する。
このとき、補強イメージを選定する動作についての具体的な説明は、図20を参照して後述する。
ステップ1730では、投影イメージ生成装置が補強イメージと代表イメージを相互組み合わせることで組み合わせイメージを生成する。
このとき、投影イメージ生成装置は、補強イメージを代表イメージと同一の加重値で相互組み合わせるか、補強イメージを代表イメージより低い加重値で相互組み合わせて組み合わせイメージを生成できる。
ステップ1742では、投影イメージ生成装置が複数の取得深度値を組み合わせイメージに投影した投影イメージを生成する。
ステップ1744では、ステップ1742で遺失視野領域が存在しないと判断されれば、投影イメージ生成装置が複数の取得深度値を代表イメージに投影した投影イメージを生成する。
図20は、本発明の一実施例に係る補強イメージ選定方法を説明するために示したフローチャートである。
ステップ2010では、投影イメージ生成装置が使用者ポーズを中心に使用者の視野角内に含まれる深度値である複数の使用者視野深度値を検出する。
前述したように、投影イメージ生成装置は、使用者ポーズを中心にレイキャスティング等を遂行して複数の使用者視野深度値を検出することもできる。
ステップ2020では、投影イメージ生成装置が複数の使用者視野深度値の中で遺失視野領域に該当する深度値である複数の遺失視野深度値を検出する。
例えば、使用者が特定の使用者ポーズで一回りしながら3次元空間を眺める場合、360度に該当する複数の使用者視野深度値が存在するが、その中でも特定の角度に遺失視野領域が存在するようになり、投影イメージ生成装置は、その遺失視野領域に該当する深度値を遺失視野深度値として検出するようになる。
ステップ2030では、投影イメージ生成装置が深度−イメージ連係情報に基づいて、複数の遺失視野深度値に対応する複数の遺失ピクセルを検出する。
例えば、投影イメージ生成装置は、深度−イメージ連係情報を利用すれば、複数の遺失視野深度値それぞれに対応するピクセルが何かが分かり、そのように複数の遺失視野深度値それぞれに対応するピクセルを遺失ピクセルとして検出するようになる。
ステップ2040では、投影イメージ生成装置がその検出された複数の遺失ピクセルに基づいて、複数の取得イメージの中で複数の遺失ピクセルを含む取得イメージである補強イメージを選定する。
図21は、使用者移動による本発明と従来の技術の相違点を説明するために示した図である。
図21には、イメージ取得経路がA−B−C−D...−X−Y−Zのように示されているが、W前述したように、従来は、使用者がこのようなイメージが取得された経路にそのままついて行く場合に限ってのみ投影イメージを提供できたが、本発明においては、使用者がイメージ取得経路を外れてCからXに移動する場合にも、自然な投影イメージを提供できる長所がある。
図22は、本発明の一実施例に係るパラメータ基盤の深度値メッシュ構造を説明するために示した図である。
図22は、深度地図が予め設定されたパラメータを基盤とするメッシュ構造の取得深度値で構成される場合を示したものであって、左側のメッシュは、天井が傾いたボックスと定義されたパラメータ化されたパターンで近似化されたメッシュ構造であり、中央は、全ての深度値を内包するバウンディングボックスで近似化されたメッシュ構造であり、右側は、メッシュ数を減らしながらも多数の深度値を含むように近似化された幾何形態のメッシュ構造を示す。このような形態のメッシュ構造の深度値を利用するようになれば、全てのイメージピクセルに対して深度−イメージ連係が遂行されていない場合にも、メッシュ単位で投影イメージを生成できるようになる長所がある。
図23は、本発明の一実施例に係る投影イメージ生成装置を説明するために示した図である。
図23を参照すると、本発明の一実施例に係る投影イメージ生成装置は、データポーズ推定部2310、使用者ポーズ取得部2320およびイメージ生成部2330を含む。
データポーズ推定部2310は、実際の3次元空間に対して取得された複数の取得イメージおよび複数の取得深度値それぞれの取得位置および取得角度を含む複数のイメージ取得ポーズおよび複数の深度取得ポーズを基準座標系を基準に推定する。
他の実施例において、データポーズ推定部2310は、イメージ取得ポーズは基準座標系を基準に推定し、深度取得ポーズはイメージ取得ポーズそれぞれを原点とする取得座標系基準に推定してもよい。
好ましくは、本発明の一実施例に係る投影イメージ生成装置は、複数の取得イメージ、複数の取得イメージが取得された取得時間情報、複数の取得深度値、複数の取得深度値が取得された取得時間情報、複数の取得イメージに対応する複数のイメージ取得ポーズ、前記複数の取得深度値に対応する深度取得ポーズ、慣性変化情報、標識観測情報、光波系情報等の環境センシング情報を複数のセンサから受信して格納する格納部(図示しない)をさらに含むことができる。
このとき、環境センシング情報をセンシングするセンサは、図3のように、イメージセンサと距離センサが統合された統合センサであってもよく、その他に他のセンサまで全て統合された形態の統合センサであってもよい。図3の統合センサでは、イメージセンサと距離センサが剛性締結されているが、このような場合には、両センサ間の相対的ポーズは、定数値で事前に与えられ得る。また、環境センシング情報は、ロボットに搭載された統合センサまたは人の肩等に着用された統合センサが室内あるいは室外環境を移動しながら停止した状態または移動する状態で取得した情報であってよい。
データポーズ推定部2310は、格納部に格納された環境センシング情報を読み出して基準座標系を基準に全てのイメージ取得ポーズおよび深度取得ポーズを推定するようになる。ただし、他の実施例においては、データポーズ推定部2310が深度取得ポーズを取得座標系を基準に推定した後、深度取得ポーズとイメージ取得ポーズとの間の相対ポーズを利用して基準座標系の基準で深度取得ポーズを推定してもよい。
また、データポーズ推定部2310は、イメージ取得ポーズで取得された複数の取得イメージの中でそのイメージ取得ポーズを原点とする取得座標系を代表する代表イメージを設定してその取得座標系に連動させた後、格納部に格納してもよい。これによって、使用者が仮想の3次元空間で特定のイメージ取得ポーズの取得座標系内に進入するようになれば、該当取得座標系で所定閾値以内の距離内では使用者が移動しても、使用者にはその取得座標系を代表する代表イメージだけが表示されるようになる。
使用者ポーズ取得部2320は、実際の3次元空間に対応する仮想の3次元空間での使用者の位置および角度を含む使用者ポーズを基準座標系を基準に取得する。
好ましくは、本発明の一実施例に係る投影イメージ生成装置は、仮想の3次元空間で使用者を移動させ、使用者の視野角等を設定できる使用者入力部(図示しない)をさらに含むことができる。
使用者入力部は、キーボード、ジョイスティック形態であってもよく、HMD(Head Mount Display)に備えられた角速度センサ、加速度センサ、地磁気センサ等に基づく入力手段であってよく、カメラ映像のオプティカルフロー(optical flow)を通した入力手段であってもよい。
イメージ生成部2330は、使用者ポーズに対応する対応イメージ取得ポーズおよび少なくとも一つの対応深度取得ポーズに基づいて、複数の取得深度値を複数の取得イメージの少なくとも一つに投影した投影イメージを生成する。
より具体的には、イメージ生成部2330は、一つの代表イメージ(または組み合わせイメージ)に複数の対応深度取得ポーズで取得された複数の深度値を投影することで投影イメージを生成するようになる。
イメージ生成部2330の具体的な構成については、図24を参照して後述する。
好ましくは、本発明の一実施例に係る投影イメージ生成装置は、複数の取得イメージの中で取得イメージの距離別、移動時間別、形状特徴別の基準によってイメージをサンプリングし、投影イメージ生成に利用される取得イメージ個数を減らすイメージ管理部(図示しない)をさらに含むことができる。即ち、イメージ管理部は、格納部に格納された取得イメージの中で取得イメージに動的な部分があるか、人の顔等、個人情報に該当する部分が存在する取得イメージに対しては後加工を遂行することができる。また、イメージ管理部は、閉環状況が発生した地点で複数の取得イメージが他の撮影条件(照明、露出時間、レンズ焦点距離等)で取得されていれば、そのような取得イメージに対しては、その差を最小化する補正を遂行することもできる。
一方、イメージ管理部は、このような処理を終えた取得イメージを再び格納部に格納することで、投影イメージ生成時に利用される取得イメージ個数および取得イメージ間の差を減らすことができる。また、取得イメージ間の撮影条件の差が所定閾値以上である場合には、警報を発生させた後、該当イメージの差を減らす補正をするか、または該当イメージを削除できる。
好ましくは、本発明の一実施例に係る投影イメージ生成装置は、距離センサを通して取得された取得深度値に含まれたノイズを除去する動作を遂行する深度値管理部(図示しない)をさらに含むことができる。このとき、取得深度値に含まれたノイズを除去する動作は、2015.05.06に出願された韓国特許出願第10−2015−0062890号の「外郭空間特徴情報抽出方法」を参照して遂行され得る。
取得イメージとは異なり、取得深度値には、ガラスや鏡または反射材質物体に対して多くのノイズが含まれ得る。また、距離センサの広い探針距離によって一つの物体が数回観察されることもあり、特定領域に多くの個数の深度値が結像することもある。このようなノイズや不均衡的な深度値分布等が以後の投影イメージの実感性を顕著に阻害し得るため、深度値管理部は、格納部に格納された取得深度値に含まれたノイズを事前に除去する動作を遂行することができる。
他の実施例においては、イメージ生成部2330は、イメージ管理部および深度値管理部を経た取得イメージおよび取得深度値を利用して投影イメージを生成できる。
図24は、本発明の一実施例に係るイメージ生成部を説明するために示した図である。
図24を参照すると、本発明の一実施例に係るイメージ生成部2330は、使用者視野判断部2332、補強イメージ選定部2334、組み合わせイメージ生成部2336および投影イメージ生成部2338を含む。ただし、他の実施例においては、補強イメージ選定部2334および組み合わせイメージ生成部2336は省略され得る。
使用者視野判断部2332は、使用者ポーズでの使用者の視野角に対応する仮想の3次元空間上の領域の中で代表イメージに含まれていない遺失視野領域が存在するか否かを判断する。
他の実施例において、使用者視野判断部2332は、使用者ポーズがイメージ取得ポーズ、深度取得ポーズと同一であるか、それとも異なるかを判断することもできる。
また他の実施例においては、イメージ取得ポーズで取得された取得イメージの画角内に使用者ポーズでの使用者の視野が所定閾値以上含まれる場合、使用者ポーズとイメージ取得ポーズが同一であり、その他の場合には、使用者ポーズとイメージ取得ポーズが異なると判断することもある。例えば、イメージ取得ポーズで取得された取得イメージの画角と使用者ポーズでの使用者の視野が90%以上重畳される場合には、使用者ポーズとイメージ取得ポーズが同一であると判断し得る。
補強イメージ選定部2334は、遺失視野領域が存在すると判断されれば、複数の取得イメージに含まれた複数のピクセルに対応する複数の取得深度値がマッチングされた情報である深度−イメージ連係情報に基づいて複数の取得イメージの中で補強イメージを選定する。
組み合わせイメージ生成部2336は、補強イメージを代表イメージと相互組み合わせることで組み合わせイメージを生成できる。
このとき、組み合わせイメージ生成部2336は、補強イメージを代表イメージと同一の加重値で相互組み合わせるか、補強イメージを代表イメージより低い加重値で相互組み合わせて組み合わせイメージを生成できる。
例えば、組み合わせイメージ生成部2336は、透明度を非常に高めた補強イメージをレイヤー形態で代表イメージと組み合わせることで、補強イメージの加重値が低い組み合わせイメージを生成することもできる。
投影イメージ生成部2338は、複数の取得深度値を組み合わせイメージに投影した投影イメージを生成する。
このように、投影イメージ生成部2338は、組み合わせイメージを利用して投影イメージを生成することもでき、代表イメージだけを利用して投影イメージを生成することができるが、使用者ポーズとその使用者ポーズに対応する対応イメージ取得ポーズが同一であるか、それとも異なるかによって下記のように動作を遂行するようになる。
第一に、使用者ポーズと対応イメージ取得ポーズが同一であり、その対応イメージ取得ポーズで取得された取得イメージの画角と対応深度取得ポーズで取得された複数の取得深度値で構成される深度地図の画角が同一である場合(ポーズ同一−画角同一)には、投影イメージ生成部2338は、その取得された取得イメージと取得深度値を利用して投影イメージを生成する。このとき、投影イメージ生成部2338は、対応イメージ取得ポーズで取得された複数の取得イメージの中で一つの代表イメージを選定し、その選定された代表イメージに取得深度値を投影して投影イメージを生成するようになる。
第二に、使用者ポーズと対応イメージ取得ポーズが同一であるが、その対応イメージ取得ポーズで取得された取得イメージの画角が対応深度取得ポーズで取得された深度地図の画角より大きな場合(ポーズ同一−画角相違)には、投影イメージ生成部2338は、一つの対応イメージ取得ポーズの取得座標系に連動された一つの代表イメージに複数の対応深度取得ポーズで取得された複数の深度地図を投影して投影イメージを生成する。
第三に、使用者ポーズと対応イメージ取得ポーズが異なると、投影イメージ生成部2338は、一つの対応イメージ取得ポーズの取得座標系に連動された一つの代表イメージに補強イメージを組み合わせた組み合わせイメージと複数の対応深度取得ポーズで取得された複数の深度地図を利用して投影イメージを生成する。
前述したように、組み合わせイメージ生成時の代表イメージの加重値と補強イメージの加重値が同一である場合には、実際の3次元空間上の一点が多数の取得イメージを利用して表現されることで、不可避的に発生する最小数ピクセル以上の位置推定誤差によって投影イメージの実感性が顕著に低下し得るので、組み合わせイメージ生成時の代表イメージの加重値は、補強イメージの加重値より高く設定されなければならない。ただし、代表イメージの加重値が99.9であり、補強イメージの加重値0.1である場合のように、補強イメージの加重値が非常に小さな場合には、該当補強イメージが投影イメージの実感性に及ぼす影響が僅かであるので、該当補強イメージは、組み合わせイメージ生成時に利用されなくてよい。
一方、イメージ取得ポーズの取得座標系に連動される代表イメージは、深度−イメージ連係情報を通して取得イメージと使用者視野との重畳領域を検出した後、その重畳領域が最も広い取得イメージを代表イメージに設定する方式、イメージ取得ポーズから最も近い距離の取得イメージを代表イメージに設定する方式等により設定され得る。このとき、イメージ取得ポーズから取得イメージまでの距離は、ユークリッド計量を基盤に計算される値であり、例えば、絶対差値、ベクトルの二次ノルム(2−norm)等が利用され得る。
本発明は、室内環境の部屋、住宅、ショッピングセンター、ホテル、ターミナル、空港等に用いられ得、室外環境の文化遺産、都市−地形情報の保存等に用いられ得、室内外環境のアパート団地、学校キャンパス等に用いられ得るが、このような場所に本発明を適用することで3次元仮想地図を作ることができる。
このような3次元地図情報は、様々なサービスを創出できるプラットフォームの役割をするので、これを活用して不動産連係サービス、施設広報サービス、ゲームコンテンツ作製サービス、遺跡−観光地実感体験サービス、地図内物品情報を連係したO2Oサービス等を実施することができる。
また、事前作製された3次元地図情報から核心特徴点を抽出してデータベースに保管しており、使用者が該当実際空間でカメラあるいは慣性センサ情報を活用してデータを取得した場合、データベースの特徴点と使用者が提供した特徴点を比較して使用者位置を直ちに見つけることができ、これを通して使用者デバイスのディスプレイ装置を使用者視野として投影イメージを生成させることができ、使用者のデバイス操作に対応して連続した投影イメージを提供し、使用者がディスプレイを通して3次元地図を経験するようにすることができる。
例えば、使用者は、商店に入らなくても商店の雰囲気や特定物品に関する細部情報も確認するようにすることができる。また、本発明は、災害安全管理のためにも用いることができるが、原子力発電所のように人が緊急に出入しなければならない危険地域の場合、事前にロボット等を通してデータを簡単に取得し、本発明によって仮想空間に構築した以後、浸透要員にHMD等を通して空間を十分に経験させることで災害時に緊急対処が可能であるようにすることができる。
これまで本発明についてその好ましい実施例を中心に検討した。本発明の属する技術の分野における通常の知識を有する者は、本発明が本発明の本質的な特性から外れない範囲で変形された形態で具現され得ることが理解できるだろう。それゆえ、開示された実施例は、限定的な観点ではなく説明的な観点で考慮されるべきである。本発明の範囲は、前述した説明ではなく特許請求の範囲に示されており、それと同等な範囲内にある全ての相違点は、本発明に含まれたものと解釈されるべきである。

Claims (24)

  1. 実際の3次元空間に対して取得された複数の取得イメージおよび複数の取得深度値それぞれの取得位置および取得角度を含む複数のイメージ取得ポーズおよび複数の深度取得ポーズを基準座標系を基準に推定するステップ;
    前記実際の3次元空間に対応する仮想の3次元空間での使用者の位置および角度を含む使用者ポーズを基準座標系を基準に取得するステップ;および
    複数の前記イメージ取得ポーズのうち、前記使用者ポーズに対応する前記イメージ取得ポーズである、対応イメージ取得ポーズおよび、複数の前記深度取得ポーズのうち、前記使用者ポーズに対応する前記深度取得ポーズである、少なくとも一つの対応深度取得ポーズに基づいて、複数の前記取得深度値を複数の前記取得イメージの少なくとも一つに含まれた複数のピクセルに投影した投影イメージを生成するステップを含み、
    前記投影イメージ生成に利用される複数の前記取得イメージの少なくとも一つは、前記対応イメージ取得ポーズで取得された前記取得イメージであって、
    前記投影イメージ生成に利用される複数の前記取得深度値は、前記対応深度取得ポーズで取得された複数の深度値であることを特徴とする、投影イメージ生成方法。
  2. 前記対応イメージ取得ポーズで取得された前記取得イメージは、前記対応イメージ取得ポーズを原点とする座標系である取得座標系を代表するイメージに設定された代表イメージであり、
    前記対応深度取得ポーズで取得された複数の深度値は、前記基準座標系の原点を基準とする複数の深度値または前記取得座標系の原点を基準とする複数の深度値の中で前記代表イメージの画角に含まれる深度値である複数の対応深度値を含むことを特徴とする、請求項1に記載の投影イメージ生成方法。
  3. 前記投影イメージを生成するステップは、
    前記複数の対応深度値それぞれに対応する前記代表イメージに含まれたピクセルである複数の対応ピクセルに前記複数の対応深度値を投影して生成することを特徴とする、請求項2に記載の投影イメージ生成方法。
  4. 前記使用者ポーズが前記対応イメージ取得ポーズと異なり、前記使用者ポーズでの前記使用者の視野角に対応する前記仮想の3次元空間上の領域の中で前記代表イメージに含まれていない遺失視野領域が存在する場合、
    前記投影イメージを生成するステップは、
    前記代表イメージを除く複数の前記取得イメージの中で前記遺失視野領域に該当するピクセルである複数の遺失ピクセルを含む前記取得イメージである補強イメージおよび前記代表イメージを利用して前記投影イメージを生成するステップを含むことを特徴とする、請求項2に記載の投影イメージ生成方法。
  5. 前記補強イメージおよび前記代表イメージを利用して前記投影イメージを生成するステップは、
    前記遺失視野領域が存在するか否かを判断するステップ;
    前記遺失視野領域が存在すると判断されれば、複数の前記取得イメージに含まれた複数のピクセルに対応する複数の前記取得深度値がマッチングされた情報である深度−イメージ連係情報に基づいて複数の前記取得イメージの中で前記補強イメージを選定するステップ;
    前記補強イメージを前記代表イメージより低い加重値で相互組み合わせることで組み合わせイメージを生成するステップ;および
    複数の前記取得深度値を前記組み合わせイメージに投影した投影イメージを生成するステップを含むことを特徴とする、請求項4に記載の投影イメージ生成方法。
  6. 複数の前記取得イメージの中で前記補強イメージを選定するステップは、
    前記使用者ポーズを中心にレイキャスティング(raycasting)を遂行して前記使用者の視野角内に含まれる深度値である複数の使用者視野深度値を検出するステップ;
    前記複数の使用者視野深度値の中で前記遺失視野領域に該当する深度値である複数の遺失視野深度値を検出するステップ;
    前記深度−イメージ連係情報に基づいて、前記複数の遺失視野深度値に対応する前記複数の遺失ピクセルを検出するステップ;および
    検出された前記複数の遺失ピクセルに基づいて、複数の前記取得イメージの中で前記補強イメージを選定するステップを含むことを特徴とする、請求項5に記載の投影イメージ生成方法。
  7. 前記深度−イメージ連係情報は、
    前記深度取得ポーズから、前記深度取得ポーズで取得された複数の前記取得深度値に対応する複数の位置までの距離である、複数の第1深度値距離を算出するステップ;
    前記イメージ取得ポーズおよび前記深度取得ポーズを利用して、複数の前記第1深度値距離を、前記イメージ取得ポーズから、前記深度取得ポーズで取得されたそれぞれの複数の前記取得深度値に対応する位置までの距離である、複数の第2深度値距離に変換するステップ;および
    前記取得イメージ取得に利用されたイメージセンサに対応するカメラ行列および前記複数の第2深度値距離を利用して、前記取得イメージに含まれた複数のピクセルに複数の前記取得深度値をマッピングするステップを通して算出されることを特徴とする、請求項5に記載の投影イメージ生成方法。
  8. 前記深度取得ポーズから、前記深度取得ポーズで取得された複数の前記取得深度値に対応する複数の位置までの距離である、複数の前記第1深度値距離を算出するステップは、
    複数の前記取得深度値それぞれの取得時間が所定時間間隔以内である複数の前記取得深度値だけを利用して遂行されることを特徴とする、請求項7に記載の投影イメージ生成方法。
  9. 前記使用者ポーズが前記対応イメージ取得ポーズと同一であり、前記対応イメージ取得ポーズで取得された前記取得イメージの画角が前記対応深度取得ポーズで取得された複数の前記取得深度値で構成される深度地図の画角より大きな場合、
    前記投影イメージを生成するステップは、
    前記代表イメージが取得された前記対応イメージ取得ポーズから所定距離以内に属する複数の前記対応深度取得ポーズから取得された複数の前記深度地図と前記代表イメージを利用して遂行されることを特徴とする、請求項2に記載の投影イメージ生成方法。
  10. 前記使用者ポーズが前記対応イメージ取得ポーズと同一であり、前記対応イメージ取得ポーズで取得された前記取得イメージの画角が前記対応深度取得ポーズで取得された複数の前記取得深度値で構成される前記深度地図の画角より大きな場合、
    前記投影イメージを生成するステップは、
    前記代表イメージが取得された前記対応イメージ取得ポーズから所定距離以内に属する複数の前記対応深度取得ポーズから取得された複数の前記深度地図を予めグルーピングして生成したグルーピング深度地図と前記代表イメージを利用して遂行されることを特徴とする、請求項9に記載の投影イメージ生成方法。
  11. 複数の前記取得深度値で構成される深度地図は、
    予め設定されたパラメータを基盤とするメッシュ構造の前記取得深度値で構成されることを特徴とする、請求項2に記載の投影イメージ生成方法。
  12. 前記投影イメージを生成するステップは、
    複数の前記取得深度値の中で前記投影イメージ生成に利用される複数の前記取得イメージそれぞれが取得された時点から所定時間以内に取得された前記取得深度値だけを利用して遂行されることを特徴とする、請求項1に記載の投影イメージ生成方法。
  13. 複数の前記イメージ取得ポーズそれぞれに含まれた前記取得角度は、
    複数の前記イメージ取得ポーズそれぞれに含まれた前記取得イメージが全方向(omni−directional)カメラにより取得された場合には全方向角度であることを特徴とする、請求項1に記載の投影イメージ生成方法。
  14. 実際の3次元空間に対して取得された複数の取得イメージの取得位置および取得角度を含む複数のイメージ取得ポーズを基準座標系を基準に推定し、複数の取得深度値に対応する複数の深度取得ポーズを複数の前記イメージ取得ポーズそれぞれを原点とする取得座標系基準に推定するステップ;
    前記実際の3次元空間に対応する仮想の3次元空間での使用者の位置および角度を含む使用者ポーズを基準座標系を基準に取得するステップ;および
    複数の前記イメージ取得ポーズのうち、前記使用者ポーズに対応する前記イメージ取得ポーズである、対応イメージ取得ポーズおよび、複数の前記深度取得ポーズのうち、前記使用者ポーズに対応する前記深度取得ポーズである、少なくとも一つの対応深度取得ポーズに基づいて、複数の前記取得深度値を複数の前記取得イメージの少なくとも一つに含まれた複数のピクセルに投影した投影イメージを生成するステップを含み、
    前記投影イメージ生成に利用される複数の前記取得イメージの少なくとも一つは、前記対応イメージ取得ポーズで取得された前記取得イメージであって、
    前記投影イメージ生成に利用される複数の前記取得深度値は、前記対応深度取得ポーズで取得された複数の深度値であることを特徴とする、投影イメージ生成方法。
  15. 実際の3次元空間に対して取得された複数の取得イメージおよび複数の取得深度値それぞれの取得位置および取得角度を含む複数のイメージ取得ポーズおよび複数の深度取得ポーズを基準座標系を基準に推定するデータポーズ推定部;
    前記実際の3次元空間に対応する仮想の3次元空間での使用者の位置および角度を含む使用者ポーズを基準座標系を基準に取得する使用者ポーズ取得部;および
    複数の前記イメージ取得ポーズのうち、前記使用者ポーズに対応する前記イメージ取得ポーズである、対応イメージ取得ポーズおよび、複数の前記深度取得ポーズのうち、前記使用者ポーズに対応する前記深度取得ポーズである、少なくとも一つの対応深度取得ポーズに基づいて、複数の前記取得深度値を複数の前記取得イメージの少なくとも一つに含まれた複数のピクセルに投影した投影イメージを生成するイメージ生成部を含み、
    前記投影イメージ生成に利用される複数の前記取得イメージの少なくとも一つは、前記対応イメージ取得ポーズで取得された前記取得イメージであって、
    前記投影イメージ生成に利用される複数の前記取得深度値は、前記対応深度取得ポーズで取得された複数の深度値であることを特徴とする、投影イメージ生成装置。
  16. 前記対応イメージ取得ポーズで取得された前記取得イメージは、前記対応イメージ取得ポーズを原点とする座標系である取得座標系を代表するイメージに設定された代表イメージであり、
    前記対応深度取得ポーズで取得された複数の深度値は、前記基準座標系の原点を基準とする複数の深度値または前記取得座標系の原点を基準とする複数の深度値の中で前記代表イメージの画角に含まれる深度値である複数の対応深度値を含むことを特徴とする、請求項15に記載の投影イメージ生成装置。
  17. 前記対応イメージ取得ポーズが前記使用者ポーズと異なり、前記使用者ポーズでの前記使用者の視野角に対応する前記仮想の3次元空間上の領域の中で前記代表イメージに含まれていない遺失視野領域が存在する場合、
    前記イメージ生成部は、
    前記代表イメージを除く複数の前記取得イメージの中で前記遺失視野領域に該当するピクセルである複数の遺失ピクセルを含む前記取得イメージである補強イメージおよび前記代表イメージを利用して前記投影イメージを生成することを特徴とする、請求項16に記載の投影イメージ生成装置。
  18. 前記イメージ生成部は、
    前記遺失視野領域が存在するか否かを判断する使用者視野判断部;
    前記遺失視野領域が存在すると判断されれば、複数の前記取得イメージに含まれた複数のピクセルに対応する複数の前記取得深度値がマッチングされた情報である深度−イメージ連係情報に基づいて複数の前記取得イメージの中で前記補強イメージを選定する補強イメージ選定部;
    前記補強イメージを前記代表イメージより低い加重値で相互組み合わせることで組み合わせイメージを生成する組み合わせイメージ生成部;および
    複数の前記取得深度値を前記組み合わせイメージに投影した投影イメージを生成する投影イメージ生成部を含むことを特徴とする、請求項17に記載の投影イメージ生成装置。
  19. 前記使用者ポーズが前記対応イメージ取得ポーズと同一であり、前記対応イメージ取得ポーズで取得された前記取得イメージの画角が前記対応深度取得ポーズで取得された複数の前記取得深度値で構成される深度地図の画角より大きな場合、
    前記イメージ生成部は、
    前記代表イメージが取得された前記対応イメージ取得ポーズから所定距離以内に属する複数の前記対応深度取得ポーズから取得された複数の前記深度地図と前記代表イメージを利用して前記投影イメージを生成することを特徴とする、請求項16に記載の投影イメージ生成装置。
  20. 実際の3次元空間に対して取得された複数の取得イメージの取得位置および取得角度を含む複数のイメージ取得ポーズを基準座標系を基準に推定し、複数の取得深度値に対応する複数の深度取得ポーズを複数の前記イメージ取得ポーズそれぞれを原点とする取得座標系基準に推定するデータポーズ推定部;
    前記実際の3次元空間に対応する仮想の3次元空間での使用者の位置および角度を含む使用者ポーズを基準座標系を基準に取得する使用者ポーズ取得部;および
    複数の前記イメージ取得ポーズのうち、前記使用者ポーズに対応する前記イメージ取得ポーズである、対応イメージ取得ポーズおよび、複数の前記深度取得ポーズのうち、前記使用者ポーズに対応する前記深度取得ポーズである、少なくとも一つの対応深度取得ポーズに基づいて、複数の前記取得深度値を複数の前記取得イメージの少なくとも一つに含まれた複数のピクセルに投影した投影イメージを生成するイメージ生成部を含み、
    前記投影イメージ生成に利用される複数の前記取得イメージの少なくとも一つは、前記対応イメージ取得ポーズで取得された前記取得イメージであって、
    前記投影イメージ生成に利用される複数の前記取得深度値は、前記対応深度取得ポーズで取得された複数の深度値であることを特徴とする、投影イメージ生成装置。
  21. 実際の3次元空間に対して取得された取得イメージおよび取得深度値それぞれの取得位置および取得角度を含むイメージ取得ポーズおよび深度取得ポーズを基準座標系を基準に推定するステップ;
    前記深度取得ポーズから、前記深度取得ポーズで取得された複数の前記取得深度値に対応する複数の位置までの距離である、複数の第1深度値距離を算出するステップ;
    前記イメージ取得ポーズおよび前記深度取得ポーズを利用して、複数の前記第1深度値距離を、前記イメージ取得ポーズから、前記深度取得ポーズで取得されたそれぞれの複数の前記取得深度値に対応する位置までの距離である、複数の第2深度値距離に変換するステップ;および
    前記取得イメージ取得に利用されたイメージセンサに対応するカメラ行列および前記複数の第2深度値距離を利用して、前記取得イメージに含まれた複数のピクセルに複数の前記取得深度値をマッピングするステップを含むことを特徴とする、イメージピクセルと深度値との間のマッピング方法。
  22. 前記複数の第2深度値距離に変換するステップは、
    前記イメージ取得ポーズを示す行列の逆行列、前記深度取得ポーズを示す行列および前記第1深度値距離それぞれを相互間に乗算演算することで遂行されることを特徴とする、請求項21に記載のイメージピクセルと深度値との間のマッピング方法。
  23. 前記取得イメージの取得に利用されたイメージセンサの解像度が前記取得深度値の取得に利用された距離センサの解像度より高い場合、
    前記取得イメージに含まれた複数のピクセルに複数の前記取得深度値をマッピングするステップは、
    前記イメージピクセルとマッピングされた複数の前記取得深度値である初期連係深度値の中で3個以上の初期連係深度値を選別して多角形メッシュを構成するステップ;
    前記イメージセンサの解像度に基づいて、対応する前記取得深度値が存在しないイメージピクセルである複数の未マッピングピクセルの中で前記多角形メッシュの内部に含まれる前記複数の未マッピングピクセルの個数および位置を算出するステップ;
    算出された前記複数の未マッピングピクセルの個数および位置に基づいて前記複数の未マッピングピクセルに対応する複数の深度値を推定するステップ;および
    前記推定された複数の深度値を前記複数の未マッピングピクセルにマッピングするステップをさらに含むことを特徴とする、請求項21に記載のイメージピクセルと深度値との間のマッピング方法。
  24. 前記複数の未マッピングピクセルに対応する複数の深度値を推定するステップは、
    内挿法(interpolation)を利用して遂行されることを特徴とする、請求項23に記載のイメージピクセルと深度値との間のマッピング方法。
JP2018500685A 2015-07-08 2016-06-29 投影イメージ生成方法およびその装置、イメージピクセルと深度値との間のマッピング方法 Active JP6687204B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
KR20150097442 2015-07-08
KR10-2015-0097442 2015-07-08
KR10-2016-0056447 2016-05-09
KR1020160056447A KR101835434B1 (ko) 2015-07-08 2016-05-09 투영 이미지 생성 방법 및 그 장치, 이미지 픽셀과 깊이값간의 매핑 방법
PCT/KR2016/006961 WO2017007166A1 (ko) 2015-07-08 2016-06-29 투영 이미지 생성 방법 및 그 장치, 이미지 픽셀과 깊이값간의 매핑 방법

Publications (2)

Publication Number Publication Date
JP2018528509A JP2018528509A (ja) 2018-09-27
JP6687204B2 true JP6687204B2 (ja) 2020-04-22

Family

ID=57992391

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018500685A Active JP6687204B2 (ja) 2015-07-08 2016-06-29 投影イメージ生成方法およびその装置、イメージピクセルと深度値との間のマッピング方法

Country Status (5)

Country Link
US (2) US10602115B2 (ja)
EP (2) EP3321888B1 (ja)
JP (1) JP6687204B2 (ja)
KR (2) KR101835434B1 (ja)
CN (1) CN107836012B (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210133880A (ko) * 2020-04-28 2021-11-08 넥스트브이피유 (상하이) 코포레이트 리미티드 이미지 심도 결정 방법 및 생체 식별 방법, 회로, 디바이스, 및 매체
US11232315B2 (en) 2020-04-28 2022-01-25 NextVPU (Shanghai) Co., Ltd. Image depth determining method and living body identification method, circuit, device, and medium

Families Citing this family (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016161104A1 (en) * 2015-04-01 2016-10-06 Vayavision, Ltd. Generating 3-dimensional maps of a scene using passive and active measurements
CN108139758A (zh) * 2015-10-09 2018-06-08 深圳市大疆创新科技有限公司 基于显著性特征的载运工具定位
CN107995477A (zh) 2016-10-26 2018-05-04 中联盛世文化(北京)有限公司 图像展示方法、客户端及系统、图像发送方法及服务器
US10560678B2 (en) * 2016-11-09 2020-02-11 Mediatek Inc. Method and apparatus having video encoding function with syntax element signaling of rotation information of content-oriented rotation applied to 360-degree image content or 360-degree video content represented in projection format and associated method and apparatus having video decoding function
EP3383035A1 (en) * 2017-03-29 2018-10-03 Koninklijke Philips N.V. Image generation from video
JP7033865B2 (ja) * 2017-08-10 2022-03-11 キヤノン株式会社 画像生成装置、画像生成方法、及びプログラム
KR102600011B1 (ko) * 2017-09-15 2023-11-09 인터디지털 브이씨 홀딩스 인코포레이티드 3 자유도 및 볼류메트릭 호환 가능한 비디오 스트림을 인코딩 및 디코딩하기 위한 방법들 및 디바이스들
JP6419278B1 (ja) 2017-09-19 2018-11-07 キヤノン株式会社 制御装置、制御方法、及びプログラム
KR102009400B1 (ko) * 2017-12-20 2019-08-12 김기효 실감형 영상 콘텐츠 제공 방법 및 이를 이용한 서버
KR102105365B1 (ko) * 2018-01-04 2020-05-29 주식회사 팬스컴스 가상공간 내 복수의 디스플레이 화면 매핑 방법
EP3511910A1 (en) * 2018-01-12 2019-07-17 Koninklijke Philips N.V. Apparatus and method for generating view images
KR102323394B1 (ko) 2018-01-22 2021-11-08 삼성전자주식회사 차량의 주행을 보조하는 장치 및 방법
KR101893368B1 (ko) * 2018-01-31 2018-09-04 공간정보기술 주식회사 교통 모니터링 카메라를 이용하는 3차원 시정 측정 방법 및 시스템
GB2571306A (en) * 2018-02-23 2019-08-28 Sony Interactive Entertainment Europe Ltd Video recording and playback systems and methods
KR102197732B1 (ko) * 2018-04-06 2021-01-04 고려대학교 산학협력단 실내공간의 3차원 지도 생성 방법 및 장치
US10957100B2 (en) 2018-04-06 2021-03-23 Korea University Research And Business Foundation Method and apparatus for generating 3D map of indoor space
US10726567B2 (en) 2018-05-03 2020-07-28 Zoox, Inc. Associating LIDAR data and image data
US10600192B1 (en) * 2018-05-14 2020-03-24 Vulcan Inc. Multi-camera homogeneous object alignment
US10679362B1 (en) 2018-05-14 2020-06-09 Vulcan Inc. Multi-camera homogeneous object trajectory alignment
US10948297B2 (en) * 2018-07-09 2021-03-16 Samsung Electronics Co., Ltd. Simultaneous location and mapping (SLAM) using dual event cameras
EP3821596B1 (en) * 2018-07-13 2023-03-29 InterDigital VC Holdings, Inc. Methods and devices for encoding and decoding 3d video stream
CN108876862B (zh) * 2018-07-13 2021-12-07 北京控制工程研究所 一种非合作目标点云位置姿态计算方法
KR102491939B1 (ko) * 2018-08-24 2023-01-26 삼성전자주식회사 전방향 이미지를 프로세싱하기 위한 방법 및 장치
KR102467556B1 (ko) * 2018-10-04 2022-11-17 (주)티랩스 실측 깊이정보를 이용한 정밀한 360 이미지 제작기법
EP3644604A1 (en) * 2018-10-23 2020-04-29 Koninklijke Philips N.V. Image generating apparatus and method therefor
CN109521879B (zh) * 2018-11-19 2022-02-18 杭州易现先进科技有限公司 交互式投影控制方法、装置、存储介质及电子设备
EP3686610A1 (en) * 2019-01-24 2020-07-29 Rohde & Schwarz GmbH & Co. KG Probe, measuring system and method for applying a probe
WO2020230921A1 (ko) 2019-05-14 2020-11-19 엘지전자 주식회사 레이저 패턴을 이용하여 이미지 내의 특징을 추출하는 방법 및 이를 적용한 식별장치와 로봇
KR102387797B1 (ko) * 2019-06-14 2022-04-19 고려대학교 산학협력단 3차원 가상 공간 모델을 이용한 사용자 포즈 추정 방법 및 장치
WO2020251151A1 (ko) 2019-06-14 2020-12-17 고려대학교 산학협력단 3차원 가상 공간 모델을 이용한 사용자 포즈 추정 방법 및 장치
CN112097742B (zh) * 2019-06-17 2022-08-30 北京地平线机器人技术研发有限公司 一种位姿确定方法及装置
CN112307848B (zh) * 2019-08-01 2024-04-30 惠普发展公司,有限责任合伙企业 检测视频会议中的欺骗说话者
KR102506701B1 (ko) * 2019-12-20 2023-03-06 우이시 테크놀로지스 (저지앙) 리미티드 3차원 재구성 방법, 장치, 시스템 및 컴퓨터 판독 가능한 저장 매체
KR102316232B1 (ko) * 2020-02-05 2021-10-22 네이버 주식회사 2차원 지도 정보를 기반으로 거리뷰 이미지의 포즈를 정합시키기 위한 전자 장치 및 그의 동작 방법
KR102444879B1 (ko) * 2020-03-05 2022-09-19 고려대학교 산학협력단 라이다(Lidar)를 이용한 실내 공간의 3차원 모델링 방법
KR102414307B1 (ko) * 2020-06-29 2022-06-29 (주)뉴빌리티 3d 맵의 변경 구역 업데이트 시스템 및 그 방법
CN111833391B (zh) * 2020-07-16 2024-01-09 北京百度网讯科技有限公司 图像深度信息的估计方法及装置
KR102542363B1 (ko) * 2020-12-15 2023-06-13 (주)심스리얼리티 3차원 공간에서 객체를 인식하는 방법
KR102339472B1 (ko) * 2020-12-23 2021-12-16 고려대학교 산학협력단 3차원 공간 모델 생성 방법 및 장치
CN112764546B (zh) * 2021-01-29 2022-08-09 重庆子元科技有限公司 一种虚拟人物位移控制方法、装置及终端设备
CN113066007A (zh) * 2021-06-03 2021-07-02 潍坊幻视软件科技有限公司 指示3d空间中目标位置的方法
CN113436269B (zh) * 2021-06-15 2023-06-30 影石创新科技股份有限公司 图像稠密立体匹配方法、装置和计算机设备
US20220408019A1 (en) * 2021-06-17 2022-12-22 Fyusion, Inc. Viewpoint path modeling
CN114237537B (zh) * 2021-12-10 2023-08-04 杭州海康威视数字技术股份有限公司 头戴式设备、远程协助方法及系统
KR102600420B1 (ko) * 2021-12-31 2023-11-09 주식회사 쓰리아이 3차원 가상모델 제공 방법 및 그를 위한 3차원 가상모델 제공 시스템
CN115390571B (zh) * 2022-10-27 2023-03-24 杭州蓝芯科技有限公司 一种绕障行驶方法和移动机器人
KR102618951B1 (ko) 2023-06-20 2023-12-29 주식회사 모빌테크 시각적 매핑 방법 및 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램
KR102616435B1 (ko) 2023-07-21 2023-12-21 주식회사 모빌테크 지도 갱신 방법 및 이를 실행하기 위하여 기록매체에기록된 컴퓨터 프로그램

Family Cites Families (49)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0757117A (ja) * 1993-07-09 1995-03-03 Silicon Graphics Inc テクスチャマップへの索引を生成する方法及びコンピュータ制御表示システム
US5841441A (en) * 1996-01-19 1998-11-24 Virtus Corporation High-speed three-dimensional texture mapping systems and methods
US6759979B2 (en) * 2002-01-22 2004-07-06 E-Businesscontrols Corp. GPS-enhanced system and method for automatically capturing and co-registering virtual models of a site
US7614954B2 (en) * 2002-11-20 2009-11-10 Sega Corporation Game image display control program, game device, and recoding medium
US7747067B2 (en) * 2003-10-08 2010-06-29 Purdue Research Foundation System and method for three dimensional modeling
US7728877B2 (en) 2004-12-17 2010-06-01 Mitsubishi Electric Research Laboratories, Inc. Method and system for synthesizing multiview videos
US7756563B2 (en) 2005-05-23 2010-07-13 The Penn State Research Foundation Guidance method based on 3D-2D pose estimation and 3D-CT registration with application to live bronchoscopy
JP2008219390A (ja) * 2007-03-02 2008-09-18 Victor Co Of Japan Ltd 画像閲覧装置
KR100918706B1 (ko) 2007-03-20 2009-09-22 인천대학교 산학협력단 카메라 자세 추정 장치 및 방법
JP4489800B2 (ja) * 2007-08-30 2010-06-23 株式会社スクウェア・エニックス 画像生成装置及び方法、並びにプログラム及び記録媒体
JP2009080578A (ja) * 2007-09-25 2009-04-16 Toshiba Corp 多視点データ生成装置、方法及びプログラム
JP5288445B2 (ja) * 2007-12-04 2013-09-11 独立行政法人情報通信研究機構 写真マッピング方法及びシステム、並びにプログラム及び記憶媒体
WO2010122145A1 (en) 2009-04-25 2010-10-28 Siemens Aktiengesellschaft A method and a system for assessing the relative pose of an implant and a bone of a creature
GB0908200D0 (en) * 2009-05-13 2009-06-24 Red Cloud Media Ltd Method of simulation of a real physical environment
JP4854819B2 (ja) * 2009-05-18 2012-01-18 小平アソシエイツ株式会社 画像情報出力方法
US8487871B2 (en) 2009-06-01 2013-07-16 Microsoft Corporation Virtual desktop coordinate transformation
DE102009049849B4 (de) 2009-10-19 2020-09-24 Apple Inc. Verfahren zur Bestimmung der Pose einer Kamera, Verfahren zur Erkennung eines Objekts einer realen Umgebung und Verfahren zur Erstellung eines Datenmodells
US8717360B2 (en) * 2010-01-29 2014-05-06 Zspace, Inc. Presenting a view within a three dimensional scene
JP5624394B2 (ja) * 2010-07-16 2014-11-12 キヤノン株式会社 位置姿勢計測装置、その計測処理方法及びプログラム
US9485497B2 (en) * 2010-09-10 2016-11-01 Reald Inc. Systems and methods for converting two-dimensional images into three-dimensional images
US20120113223A1 (en) 2010-11-05 2012-05-10 Microsoft Corporation User Interaction in Augmented Reality
JP5899232B2 (ja) * 2010-11-24 2016-04-06 グーグル インコーポレイテッド 地理的位置指定パノラマを通した誘導付きナビゲーション
DE202011110887U1 (de) * 2010-11-24 2017-02-21 Google Inc. Wiedergeben und navigieren fotografischer Panoramen mit Tiefeninformationen in einem geographischen Informationssystem
US8587583B2 (en) * 2011-01-31 2013-11-19 Microsoft Corporation Three-dimensional environment reconstruction
US8711206B2 (en) * 2011-01-31 2014-04-29 Microsoft Corporation Mobile camera localization using depth maps
US9407904B2 (en) * 2013-05-01 2016-08-02 Legend3D, Inc. Method for creating 3D virtual reality from 2D images
JP5776218B2 (ja) * 2011-02-24 2015-09-09 株式会社大林組 画像合成方法
JP5891388B2 (ja) * 2011-03-31 2016-03-23 パナソニックIpマネジメント株式会社 立体視画像の描画を行う画像描画装置、画像描画方法、画像描画プログラム
CN102971770B (zh) * 2011-03-31 2016-02-10 松下电器产业株式会社 进行全周围立体图像的描绘的图像描绘装置、图像描绘方法
US9117274B2 (en) 2011-08-01 2015-08-25 Fuji Xerox Co., Ltd. System and method for interactive markerless paper documents in 3D space with mobile cameras and projectors
EP2600316A1 (en) * 2011-11-29 2013-06-05 Inria Institut National de Recherche en Informatique et en Automatique Method, system and software program for shooting and editing a film comprising at least one image of a 3D computer-generated animation
US8630457B2 (en) 2011-12-15 2014-01-14 Microsoft Corporation Problem states for pose tracking pipeline
JP5788810B2 (ja) * 2012-01-10 2015-10-07 株式会社パスコ 撮影対象検索システム
KR101907077B1 (ko) 2012-03-06 2018-10-11 삼성전자주식회사 자세 인식 방법 및 장치
US10365711B2 (en) 2012-05-17 2019-07-30 The University Of North Carolina At Chapel Hill Methods, systems, and computer readable media for unified scene acquisition and pose tracking in a wearable display
US9846960B2 (en) * 2012-05-31 2017-12-19 Microsoft Technology Licensing, Llc Automated camera array calibration
KR101423139B1 (ko) * 2012-06-19 2014-07-28 한양대학교 산학협력단 3차원 직선을 이용하여 위치를 인식하고 지도를 생성하는 방법 및 그 방법에 따른 이동체
KR101546654B1 (ko) * 2012-06-26 2015-08-25 한국과학기술원 웨어러블 증강현실 환경에서 증강현실 서비스 제공 방법 및 장치
US20140098100A1 (en) * 2012-10-05 2014-04-10 Qualcomm Incorporated Multiview synthesis and processing systems and methods
KR101544021B1 (ko) * 2012-10-29 2015-08-13 경북대학교 산학협력단 3차원 지도 생성 장치 및 3차원 지도 생성 방법
US9508146B2 (en) * 2012-10-31 2016-11-29 The Boeing Company Automated frame of reference calibration for augmented reality
US9058693B2 (en) * 2012-12-21 2015-06-16 Dassault Systemes Americas Corp. Location correction of virtual objects
US20140267228A1 (en) * 2013-03-14 2014-09-18 Microsoft Corporation Mapping augmented reality experience to various environments
JP5945255B2 (ja) * 2013-08-27 2016-07-05 日本電信電話株式会社 仮想視点映像生成装置、仮想視点映像生成方法、及び仮想視点映像生成プログラム
US20160210785A1 (en) * 2013-10-03 2016-07-21 Sulon Technologies Inc. Augmented reality system and method for positioning and mapping
US9432636B2 (en) 2013-11-26 2016-08-30 Microsoft Technology Licensing, Llc Large-scale surface reconstruction that is robust against tracking and mapping errors
US20150206337A1 (en) * 2014-01-17 2015-07-23 Nokia Corporation Method and apparatus for visualization of geo-located media contents in 3d rendering applications
US20160019718A1 (en) * 2014-07-16 2016-01-21 Wipro Limited Method and system for providing visual feedback in a virtual reality environment
KR20170041720A (ko) * 2014-08-07 2017-04-17 포브, 아이엔씨. 3차원상의 주시점의 위치 특정 알고리즘

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210133880A (ko) * 2020-04-28 2021-11-08 넥스트브이피유 (상하이) 코포레이트 리미티드 이미지 심도 결정 방법 및 생체 식별 방법, 회로, 디바이스, 및 매체
US11232315B2 (en) 2020-04-28 2022-01-25 NextVPU (Shanghai) Co., Ltd. Image depth determining method and living body identification method, circuit, device, and medium
KR102386444B1 (ko) * 2020-04-28 2022-04-14 넥스트브이피유 (상하이) 코포레이트 리미티드 이미지 심도 결정 방법 및 생체 식별 방법, 회로, 디바이스, 및 매체

Also Published As

Publication number Publication date
US20180205925A1 (en) 2018-07-19
EP3321889A4 (en) 2019-01-09
CN107836012A (zh) 2018-03-23
KR20170007102A (ko) 2017-01-18
US10349033B2 (en) 2019-07-09
EP3321889A1 (en) 2018-05-16
EP3321888B1 (en) 2021-12-08
US10602115B2 (en) 2020-03-24
JP2018528509A (ja) 2018-09-27
EP3321888A1 (en) 2018-05-16
CN107836012B (zh) 2021-10-08
KR101835434B1 (ko) 2018-03-09
US20170230633A1 (en) 2017-08-10
KR20170007098A (ko) 2017-01-18
EP3321888A4 (en) 2019-06-05

Similar Documents

Publication Publication Date Title
JP6687204B2 (ja) 投影イメージ生成方法およびその装置、イメージピクセルと深度値との間のマッピング方法
JP6088094B1 (ja) 複合現実環境を作成するためのシステム等
CN110383343B (zh) 不一致检测系统、混合现实系统、程序和不一致检测方法
JP6425780B1 (ja) 画像処理システム、画像処理装置、画像処理方法及びプログラム
JP4804256B2 (ja) 情報処理方法
JP5093053B2 (ja) 電子カメラ
US8963943B2 (en) Three-dimensional urban modeling apparatus and method
US9161027B2 (en) Method and apparatus for providing camera calibration
EP2402906A2 (en) Apparatus and method for providing 3D augmented reality
EP2430616A2 (en) Image generation method
CN108885342A (zh) 用于低延迟渲染的宽基线立体
WO2017017790A1 (ja) 画像生成装置、画像生成システム及び画像生成方法
JP2018106661A (ja) 不整合検出システム、複合現実システム、プログラム及び不整合検出方法
KR102199772B1 (ko) 3차원 모델 데이터 생성 방법
WO2020040277A1 (ja) 複合現実システム、プログラム、携帯端末装置、及び方法
JPWO2020121406A1 (ja) 3次元計測装置、移動ロボット、手押し車型移動装置および3次元計測処理方法
KR20150096127A (ko) 사진에 촬영된 지점의 위치를 계산하는 방법 및 장치
CN113822936A (zh) 数据处理方法、装置、计算机设备及存储介质
CN114463520A (zh) 一种实现虚拟现实vr漫游的方法及装置
KR102146839B1 (ko) 실시간 가상현실 구축을 위한 시스템 및 방법
JP6134874B1 (ja) 複合現実環境を作成するためのシステム等
JP2020160756A (ja) 画像生成装置、画像生成方法、及びプログラム
JP7465133B2 (ja) 情報処理装置、情報処理方法
Ahmadabadian Photogrammetric multi-view stereo and imaging network design
JP5168313B2 (ja) 画像表示装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180219

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190205

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20190426

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20190705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190802

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191029

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200124

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200218

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200318

R150 Certificate of patent or registration of utility model

Ref document number: 6687204

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250