JP2016162392A - 3次元画像処理装置および3次元画像処理システム - Google Patents
3次元画像処理装置および3次元画像処理システム Download PDFInfo
- Publication number
- JP2016162392A JP2016162392A JP2015043268A JP2015043268A JP2016162392A JP 2016162392 A JP2016162392 A JP 2016162392A JP 2015043268 A JP2015043268 A JP 2015043268A JP 2015043268 A JP2015043268 A JP 2015043268A JP 2016162392 A JP2016162392 A JP 2016162392A
- Authority
- JP
- Japan
- Prior art keywords
- image data
- visible light
- light image
- viewpoint
- dimensional model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/50—Lighting effects
- G06T15/506—Illumination models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
- G06T15/205—Image-based rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/50—Lighting effects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2215/00—Indexing scheme for image rendering
- G06T2215/16—Using real world measurements to influence rendering
Abstract
【課題】複数の可視光画像データと3次元モデルデータに基づく画像の表示品質を高める3次元画像処理装置及びシステムを提供する。
【解決手段】互いに異なる撮像点から見たシーンの可視光画像データを生成する1又は複数の可視光画像生成装置から複数の可視光画像データを取得する取得部131と、複数の距離画像データに基づいて、シーンに含まれる対象を表す3次元モデルデータを生成するモデル生成部132と、シーンに対する視点を設定する設定部133と、視点から見たシーンを表す表示画像データを、3次元モデルデータと撮像点が互いに異なる複数の記可視光画像データとに基づく描画部134を備える。描画部は、3次元モデルデータに表される対象表面の領域に対応する可視光画像データが複数の場合、視点に応じていずれかの可視光画像データを選択し、選択した可視光画像データと3次元モデルデータに基づいて、対象表面に対応する領域を描画する。
【選択図】図2
【解決手段】互いに異なる撮像点から見たシーンの可視光画像データを生成する1又は複数の可視光画像生成装置から複数の可視光画像データを取得する取得部131と、複数の距離画像データに基づいて、シーンに含まれる対象を表す3次元モデルデータを生成するモデル生成部132と、シーンに対する視点を設定する設定部133と、視点から見たシーンを表す表示画像データを、3次元モデルデータと撮像点が互いに異なる複数の記可視光画像データとに基づく描画部134を備える。描画部は、3次元モデルデータに表される対象表面の領域に対応する可視光画像データが複数の場合、視点に応じていずれかの可視光画像データを選択し、選択した可視光画像データと3次元モデルデータに基づいて、対象表面に対応する領域を描画する。
【選択図】図2
Description
本発明は3次元画像処理装置および3次元画像処理システムに関する。
従来、設定される視点に応じて表示画像を変化させる3次元画像処理装置が知られている。3次元画像処理装置は、複数の撮像点からシーンを撮像し、同一シーンを撮像した複数の画像記録データに基づいて1つの3次元モデルデータを生成し、画像表示データを3次元モデルデータに基づいて描画する。
しかしながら、異なる撮像点からシーンを撮像した複数の可視光画像データから1つの3次元モデルデータを生成する場合、撮像点毎に照明環境が異なったり、誤差があるため、設定される視点によっては表示画像に表れる可視光画像データ同士の境界が不自然に目立ち、表示品質が好ましくなくなることがある。
本発明は、複数の可視光画像データと3次元モデルデータに基づく画像の表示品質を高めることを目的の1つとする。
上記目的を達成するための3次元画像処理装置は、互いに異なる計測点から見たシーンの奥行きを表す距離画像データを生成する複数の距離画像生成装置のそれぞれから前記距離画像データを取得し、互いに異なる撮像点から見た前記シーンの可視光画像データを生成する1または複数の可視光画像生成装置から複数の前記可視光画像データを取得する取得部と、複数の前記距離画像データに基づいて、前記シーンに含まれる対象を表す3次元モデルデータを生成するモデル生成部と、前記シーンに対する視点を設定する設定部と、前記視点から見た前記シーンを表す表示画像データを、前記3次元モデルデータと前記撮像点が互いに異なる複数の可視光画像データとに基づいて描画する描画部と、を備え、前記描画部は、3次元モデルデータに表される対象表面の領域に対応する前記可視光画像データが複数ある場合、前記視点に応じていずれかの前記可視光画像データを選択し、選択した前記可視光画像データと前記3次元モデルデータに基づいて、前記対象表面に対応する領域を描画する。
ここでシーンとは、距離画像データおよび可視光画像データに撮像される対象とその背景を含む空間である。また視点は、表示画像データに基づいて表示される画像が人やカメラの視界の画像であるとの仮定の上で設定される、謂わば仮想的な視点である。したがって視点は、眼球やレンズの位置に対応する位置と視線やレンズの光軸に対応する方向を有する。すなわち視点は位置と方向を持つ。本発明によると、表示画像データを描画する素材となる可視光画像データを、設定された視点に応じて領域毎に選択するため、表示画像データに表れる可視光画像データ同士の境界を、設定された視点に応じて、変更することができる。例えば、可視光画像データ同士の境界が表示画像データの中央領域に表れないように、中央領域を描画する素材となる可視光画像データを1つだけ選択すれば、3次元モデルデータに基づく画像の表示品質を高めることができる。すなわち、視点が定まることにより、表示画像データに表れる対象の範囲が定まり、表示画像データに表れる対象の範囲が定まれば、定まった範囲に対応する可視光画像データの領域も定まる。そして、表示画像データの特定範囲に対応する可視光画像データが複数ある場合、表示画質が高まるように可視光画像データを選択することができる。その結果、3次元モデルデータに基づく画像の表示品質を高めることができる。
請求項に記載された各手段の機能は、構成自体で機能が特定されるハードウェア資源、プログラムにより機能が特定されるハードウェア資源、又はそれらの組み合わせにより実現される。また、これら各手段の機能は、各々が物理的に互いに独立したハードウェア資源で実現されるものに限定されない。さらに、本発明は方法の発明としても、距離画像生成装置と可視光画像生成装置と組み合わせた3次元画像処理システムの発明としても、3次元画像処理プログラムの発明としても、その記録媒体の発明としても成立する。むろん、そのコンピュータプログラムの記録媒体は、磁気記録媒体であってもよいし光磁気記録媒体であってもよいし、今後開発されるいかなる記録媒体であってもよい。
以下、本発明の実施の形態を添付図面を参照しながら以下の順に説明する。尚、各図において対応する構成要素には同一の符号が付され、重複する説明は省略される。
1.構成
本発明の一実施例として、ゴルフスイングの動画像を記録して表示することにより、ゴルフスイングの指導に役立てる3次元画像処理システムについて説明する。図1に示す3次元画像処理装置1は、対象とする人Mを含むシーンの距離画像データと可視光画像データを撮像部2、3、4、5から取得し、取得した距離画像データと可視光画像データとに基づいて、シーンに設定される視点に応じた人Mの画像を表示可能に構成されたPC(Personal Computer)である。
本発明の一実施例として、ゴルフスイングの動画像を記録して表示することにより、ゴルフスイングの指導に役立てる3次元画像処理システムについて説明する。図1に示す3次元画像処理装置1は、対象とする人Mを含むシーンの距離画像データと可視光画像データを撮像部2、3、4、5から取得し、取得した距離画像データと可視光画像データとに基づいて、シーンに設定される視点に応じた人Mの画像を表示可能に構成されたPC(Personal Computer)である。
撮像部2、3、4、5は、運動を記録する対象である人Mの死角を互いに補うように、すなわち人Mを囲むように、例えば90度間隔で配置される。撮像部を配置する数は、2以上であればよく、3または5以上でも良い。撮像部2、3、4、5は、それぞれ、距離画像生成装置としての距離画像生成部21、31、41、51と、可視光画像生成装置としての可視光画像生成部22、32、42、52とを備えている。距離画像生成部21、31、41、51は、近赤外線LEDを含む光源と近赤外線イメージセンサーとを備え、光源から照射した光が対象で反射して戻るまでの時間を近赤外線イメージセンサーの画素毎にリアルタイムで測定することにより、距離画像データを生成する。このように生成される距離画像データは、距離画像生成部21、31、41、51から対象までの距離を示す。すなわち、距離画像生成部21、31、41、51が生成する距離画像データは、互いに異なる計測点から見たシーンの奥行きを表す。可視光画像生成部22、32、42、52は、可視光イメージセンサーを備え、画素毎に可視光の強度を測定することにより、可視光画像データを生成する。同一の撮像部に備わる可視光画像生成部の撮像点と距離画像生成部の計測点とはほぼ一致し(人Mのスケールに対して無視できる程度の距離しか離れていない。)、撮像方向と計測方向は一致する。ここで可視光画像生成部22、32、42、52の撮像点は可視光イメージセンサーに結像させる光学系の光軸と可視光イメージセンサーとが交わる点である。可視光画像生成部22、32、42、52の撮像方向は、可視光イメージセンサーに結像させる光学系の光軸が撮像部から延びる方向である。また距離画像生成部21、31、41、51の計測点は近赤外線イメージセンサーに結像させる光学系の光軸と近赤外線イメージセンサーとが交わる点である。距離画像生成部21、31、41、51の計測方向は、近赤外線イメージセンサーに結像させる光学系の光軸が撮像部から延びる方向である。これらの撮像点、撮像方向、計測点、計測方向は、各撮像部に固有の3軸直交座標系で定められている。各撮像部は、各撮像部に対して既知の距離画像生成部の計測点と計測方向と可視光画像生成部の撮像点と撮像方向とに基づいて、可視光画像データ生成部が生成した可視光画像データの各画素と距離画像生成部が生成した距離画像データの各画素とを対応付けて出力する。例えば各撮像部は、可視光画像データと距離画像データとを別々のデータファイルとして出力しても良いし、可視光画像データによって構成されるRGBの3チャンネルと距離画像データによって構成される1チャンネルの合計4チャンネルを画素毎に持つ1つのデータファイルを出力しても良い。
ここで、撮像部2、3、4、5の撮像位置と撮像方向が互いに異なっているため、対象の同一領域は一般には異なった色で記録される。例えば、照明光と撮像方向の関係が異なれば、露出補正量が異なるからである。したがって可視光画像データをスティッチングして対象を画面に表示する場合、可視光画像データの境界を画面上で視認できてしまい、不自然な画像となる。以下に説明する3次元画像処理装置1は、複数の可視光画像データと3次元モデルデータに基づく画像の表示品質を高めるものである。
図2に示すように3次元画像処理装置1は、外部インターフェース11、内部インターフェース12、プロセッサユニット13、主記憶部14、外部記憶部15、表示部16等を備えている。外部インターフェース11は、USB、LAN、Bluetooth、IrDA等の規格に準拠した入出力インターフェースを備え、撮像部2、3、4、5から距離画像データと可視光画像データを入力する。なお、撮像部2、3、4、5と制御部1とは、通信可能に接続してもよいし、接続しなくても良い。撮像部2、3、4、5と3次元画像処理装置1とを接続しない場合、リムーバブルメモリを用いることにより、撮像部2、3、4、5からデータを3次元画像処理装置1に入力すればよい。外部記憶部15には、OS(Operating System)、3次元画像処理プログラムなどの各種プログラムが記憶されている。表示部16は、液晶表示パネル、ディスプレイコントローラーなどを備える。内部インターフェース12は、外部インターフェース11、外部記憶部15、主記憶部14、表示部16、プロセッサユニット13の間でデータ転送を制御する。
プロセッサユニット13は、外部記憶部15に記憶された3次元画像処理プログラムを主記憶部14にロードして実行することにより、取得部131、モデル生成部132、設定部133、描画部134および再生部135として機能する。取得部131としてのプロセッサユニット13の機能は、撮像部2、3、4、5から距離画像データおよび可視光画像データを取得することである。モデル生成部132としてのプロセッサユニット13の機能は、計測点が互いに異なる複数の距離画像データに基づいて3次元モデルデータを生成することである。設定部133としてのプロセッサユニット13の機能は、対象に対する視点を設定することである。描画部134としてのプロセッサユニット13の機能は、設定された視点から見た対象を表す表示画像データを、生成された3次元モデルデータと、撮像点が互いに異なる複数の可視光画像データとに基づいて描画することである。再生部135としてのプロセッサユニット13の機能は、表示画像データに基づいて表示部16の画面に対象を表示することである。以下、これらの機能について詳細に説明する。
2.3次元画像処理方法
図3は、3次元画像処理装置1を用いた3次元画像処理方法の流れを示すフローチャートである。以下、図3を参照しながら3次元画像処理装置1の作動を説明する。
図3は、3次元画像処理装置1を用いた3次元画像処理方法の流れを示すフローチャートである。以下、図3を参照しながら3次元画像処理装置1の作動を説明する。
はじめにプロセッサユニット13は、撮像部2、3、4、5の位置と方向(姿勢)を絶対座標系で特定する(S1)。ここで絶対座標系とは、撮像部2、3、4、5の個々の座標系から独立している3軸直交座標系である。図1、図4および図5において絶対座標系の3軸はX軸、Y軸、Z軸として表示する。この絶対座標系は、対象である人Mを任意の視点から見た画像を画面表示するための表示画像データの座標系と、撮像部2、3、4、5の座標系とを対応付けるために用いられる。撮像部2、3、4、5のそれぞれの位置関係と方向が正確に分かると、適当な原点を定めることにより撮像部2、3、4、5の位置と方向を絶対座標系で定めることができる。実際には、例えば、キャリブレーションのための既知のターゲットの周りのおよそ予め決められた位置におよそ予め決められた姿勢で撮像部2、3、4、5を設置した後に、それぞれが生成する距離画像データに基づいて導出される対象の形状の一部が対象の同一領域を表していることを前提として撮像部2、3、4、5の位置と方向、すなわち撮像位置と撮像方向と計測位置と計測方向を導出する。具体的には、各撮像部が生成する距離画像データに基づいて、実際の各撮像部の位置と方向を、例えばICP(iterative closest point)等のパターンマッチングの手法を用いて絶対座標系で数学的に特定しておけばよい。各撮像部の位置を示す座標と方向を示す単位ベクトルが絶対座標系で特定されると、各撮像部に固有の座標系を絶対座標系に変換するための変換行列を導出可能になる。後述するステップS8の描画処理において必要となるため、撮像部2、3、4、5の位置と方向(姿勢)を絶対座標系で導出した後に、各撮像部の座標系を絶対座標系に変換するための変換行列を導出しておく。
ユーザーが3次元画像処理プログラムを起動した後にデータ入力を指示すると、プロセッサユニット13は、撮像部2、3、4、5から距離画像データと可視光画像データとを取得する(S2)。例えば3次元画像処理装置1と撮像部2、3、4、5が接続されている場合、ユーザーは3次元画像処理装置1のマウスやキーボードやタッチパネルを操作することによって撮像部2、3、4、5からのデータ入力を指示することができる。
次にプロセッサユニット13は、撮像部2、3、4、5から取得した4つの距離画像データに基づいて4つの3次元モデルデータを生成する(S3)。ここでは、例えば、プロセッサユニット13は、撮像部2、3、4、5が生成した距離画像データ毎に対象である人Mのポリゴンモデルを絶対座標系の3次元モデルデータとして生成する。またプロセッサユニット13は、3次元モデルデータの各ポリゴンと可視光画像データとの対応付けを撮像部毎に生成する。すなわち人Mの同一領域に対応するポリゴンと可視画像データの画素とが対応付けられる。具体的には、同一の撮像部によって生成された可視光画像データの各画素と距離画像データの各画素とは、撮像部によって予め対応付けられているため、この対応付けに基づいて、距離画像データに基づく絶対座標系の3次元モデルデータの各ポリゴンと、当該距離画像データに対応する撮像部の座標系の可視光画像データの各画素との対応付けを生成する。
次にプロセッサユニット13は、シーンに対する視点を設定する(S4)。本実施例では、絶対座標系において予め決められた球上の点の位置が視点の位置となり、球上の視点から球の中心に向かう方向が視点から対象を仮想的に見たときの視線方向となる。後述するステップS8において対象である人Mが表示される画面のスクロール操作によって視点が表示部16の座標系で設定される。具体的には例えば、画面のスクロール操作量と、絶対座標系で定めた球上の視点の位置の移動量とを関連づけておき、画面がスクロールされた場合にスクロール操作量に応じて視点の位置を変更すればよい。このようにして視点の位置がユーザーによって指示されると、プロセッサユニット13は、視点位置を示す絶対座標と、視点からの視線方向を示す単位ベクトルを設定する。
次にプロセッサユニット13は、各撮像部の撮像方向と視線方向がなす角度を導出する(S5)。具体的には、ステップS1で導出された各撮像部の撮像方向の単位ベクトルとステップS4で導出された視線方向の単位ベクトルに基づいて撮像方向と視線方向がなす角度を導出する。これにより、後述するステップS8において表示される画面の垂線がシーンの空間に延びていると仮想した場合に、その垂線と撮像方向とがなす角度が導出されることになる。ここでステップS8において表示される画面の垂線は、画面を見るユーザーの視線の方向とみなすことができるため、各撮像部の撮像方向と視線方向がなす角度は、各撮像部が人Mを撮像する方向と画面を通して人Mを見るユーザーの仮想的な視線の方向とがなす角度に相当する。
次にプロセッサユニット13は、撮像方向と視線方向がなす角度に基づいて可視光画像データの描画優先順位を設定する(S6)。具体的には、撮像方向と視線方向がなす角度が最も小さい可視光画像生成部が生成した可視光画像データが優先して描画されるように、撮像方向(すなわち撮像部の視野角の中心)と視線方向がなす角度が小さい順に高い優先順位が設定される。
図4は、撮像部2、3、4、5によって撮像される対象を模式的に示した図である。図4において中心をOとする円は対象である円柱の水平断面を示し、点A、B、C、Dはそれぞれ撮像部2、3、4、5の撮像点を示し、矢印a、b、c、dは撮像方向を示し、点Eは視点位置を示し、矢印eは視線方向を示している。点G、H、I、K、L、N、P、Qは、撮像部2、3、4、5によって撮像される円柱Oの輪郭を示している。すなわち撮像部2からa方向を撮像して可視光画像データに表れる円柱Oの画角は∠PAHになると仮定している。したがって円柱OのPQFGHの側面領域が可視光画像データによって記録され、円柱OのPNLKJIHの側面領域は死角となる。また撮像部3からb方向を撮像して可視光画像データに表れる円柱Oの画角は∠GBKになると仮定している。したがって円柱OのGHIJKの側面領域が可視光画像データによって記録され、円柱OのGFQPNLKの側面領域が死角になる。また撮像部4からc方向を撮像して可視光画像データに表れる円柱Oの画角は∠ICNになると仮定している。したがって円柱OのIJKLNの側面領域が可視光画像データによって記録され、円柱OのNPQFGHIJの側面領域が死角になる。撮像部5についても同様である。そして視点がEに設定され、ステップS8において表示される円柱の画角が∠FEJになると仮定する。
このように仮定すると、視線方向eと撮像方向a、b、c、dとがなす角度は、撮像方向bが最も小さく、撮像方向dが最も大きく、角度の小さい順に並べるとb、a、c、dとなる。したがって、可視光画像データの優先描画順位は、撮像部3、撮像部2、撮像部4、撮像部5となる。
次にプロセッサユニット13は、互いに対応付けられている3次元モデルデータと可視光画像データとに基づいて、対象である人Mを視点に応じて表示部16の画面に表示するための表示画像データを描画する(S7)。ここで表示画像データに基づいて画像が表示される画面領域に対応する主記憶部14の記憶領域を描画領域というものとする。描画領域は、表示画像データが生成される領域であって、表示部16の画面の画素毎に対応するアドレスが定められた記憶領域である。画面の画素に対応する各記憶領域を画素アドレスというものとする。画素アドレスに対応する画面の画素の位置を示す座標系を表示座標系というものとする。画素アドレスは表示座標系の座標と一対一に対応する。表示座標系と絶対座標系の対応関係は、図5に示すように、視点からシーンをのぞくための仮想的な窓Wの絶対座標系における位置と姿勢に相当する。すなわち窓Wは、描画領域そのものに対応し、視点の方向に対して垂直で、画角によってその広さが決まる。可視光画像生成部22、32、42、52の画角は予め決められているため、このような窓Wは、視点の位置と方向に応じて定まる。すなわち、ステップS4において視点の位置と方向が絶対座標系で定まっているため、プロセッサユニット13は視点の位置と方向に基づいて絶対座標系から表示座標系への変換行列を導出できる。そして既に述べたステップS3において、可視画像データと3次元モデルデータとの対応関係が定められており、また3次元モデルデータは絶対座標系で生成されている。すなわち、可視画像データの各画素は対応する3次元モデルデータを介して絶対座標系の座標と対応付けられている。したがってプロセッサユニット13は、ステップS1で導出した撮像部2、3、4、5の座標系と絶対座標系の対応関係と、視点の位置と方向とに基づいて、絶対座標系を介して可視光画像データの座標系から表示座標系に可視画像データの各画素の座標を変換することができる。
そこでプロセッサユニット13は、全ての可視画像データの各画素の値を描画優先順位が低い順に描画領域の対応する画素アドレスに書き込む。2つ以上の可視画像データの画素と対応している画素アドレスには、描画優先順位が低い方の可視画像データの画素の値が書き込まれた後に、描画優先順位が高い方の可視画像データの値が書き込まれることになる。その結果、描画領域の各画素アドレスには、画素アドレス毎に、最も描画優先順位が高い可視画像データの値が最終的に書き込まれることになる。すなわちプロセッサユニット13は、4つの可視光画像データのうち描画優先順位が最も高い可視光画像データを視点に応じて結果的に選択し、選択した可視光画像データと、選択した可視光画像データに対応する3次元モデルデータとに基づいて表示画像データを描画する。
例えば図4に示す状態で円柱Oが撮像されている場合、円柱Oの側面領域GHに対応する図5に示す窓Wの領域ghすなわち画素アドレス領域ghには、撮像部2が生成した可視光画像データが書き込まれた後に撮像部3が生成した可視光画像データが書き込まれる。また円柱Oの側面領域IJに対応する図5に示す画素アドレス領域ijには、撮像部4が生成した可視光画像データが書き込まれた後に撮像部5が生成した可視光画像データが書き込まれる。円柱Oの側面領域HIに対応する図5に示す画素アドレス領域hiには、撮像部3が生成した可視光画像データのみが書き込まれる。その結果、円柱Oは、側面領域FGが撮像部2の可視光画像データによって、側面領域GHIJが撮像部3の可視光画像データによって描画される。
次にプロセッサユニット13は、表示画像データに基づいて対象である人Mを表示部16の画面に表示する(S8)。プロセッサユニット13は、表示画像データの画素数よりも画素数が少ない画面領域に表示画像データに基づいて画像を表示しても良いし、表示画像データの画素数よりも画素数が多い画面領域に表示画像データに基づいて画像を表示しても良い。本実施例では、表示対象とする画面領域よりも解像度が高い表示画像データをステップS7で生成しておき、実際に画面表示される表示画像データの領域をユーザーが指定できるようにする。
図6は、プロセッサユニット13が表示データに基づいて人Mを表示した表示部16の画面の一例である。プロセッサユニット13は、表示スケールを指定するためのスライダー101を画面表示し、スライダー101の操作量に応じて画面表示される表示画像データの領域の大きさを変更する。これにより、あたかも視点を人Mに接近させて人Mの特定部分を拡大表示したり、視点を人Mから遠ざけて人Mの全体を表示することが可能になる。また例えば、表示対象とする画面領域よりも解像度が高い表示画像データをステップS7で生成しておき、表示領域を平行移動させるためのスライダー102、103を画面表示し、スライダーの操作量に応じて画面表示される表示画像データの領域の位置を平行移動する。これにより、あたかも視点を視線方向と垂直な方向に移動させて表示領域を変更することが可能になる。このように、ステップS4では視点の設定範囲を球面上に限定していても、視点を球の中心に近づけたり、球の中心から遠ざけるのと同様の表示効果を得ることができる。
また図6に示す画面において視点の設定を変更する操作を受け付ける方法としては、例えば、スライダー101、102、103以外の領域に対するドラッグ操作量を、予め決められた球面上での視点の移動量と対応付ければよい。
ここで、人Mの頭部のうち図6でハッチングを付した領域が2つの撮像部2、3によって撮像されており、図6Aの画面について設定されている視線方向は、撮像部3の撮像方向とほぼ平行で、図6Bの画面について設定されている視線方向は、撮像部2の撮像方向とほぼ平行であるとする。仮に、ハッチングの領域と可視光画像データとの関係が固定されているとすれば、図6Aまたは図6Bのいずれかのハッチングの境界には、撮像部2によって生成された可視光画像データに基づく表示色と、撮像部3によって生成された可視光画像データに基づく表示色との差異が顕在化する。また距離画像生成部21、31、41、51のキャリブレーション誤差や計測誤差のため、ハッチングの領域と3次元モデルデータとの関係性が固定されているとすれば、図6Aまたは図6Bのいずれかのハッチングの境界と人Mの輪郭が交わる領域において、現実にはない段差が顕在化する。
これに対して、以上説明した本発明の実施例によると、図6Aに示すハッチングと頭部のその左側の領域は、撮像部3によって生成された可視光画像データに基づいて表示される。したがって図6Aに示すハッチングの境界に2つの可視光画像データの表示色の差異が現れない。また図6Bに示すハッチングと頭部のその右側の領域は、撮像部2によって生成された可視光画像データに基づいて表示される。したがって図6Bに示すハッチングの境界にも2つの可視光画像データの表示色の差異が現れない。すなわちハッチングの領域を表示する素材である可視光画像データが視点に応じて切り替わるため、ハッチングの領域の境界に2つの可視光画像データの表示色の差異が現れない。そして図6Aに示すハッチングと頭部のその左側の領域は、撮像部3によって生成された距離画像データに基づく3次元モデルに基づいて表示される。また図6Bに示すハッチングと頭部のその右側の領域は、撮像部2によって生成された距離画像データに基づく3次元モデルに基づいて表示される。したがって、図6A、図6Bのいずれの画面においても、ハッチングの境界と人Mの輪郭が交わる領域において、現実にはない段差は現れない。すなわち本実施例によると、複数の可視光画像データと3次元モデルデータに基づいて視点に応じて表示される画像の品質を高めることができる。
3.他の実施形態
尚、本発明の技術的範囲は、上述した実施例に限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変更を加え得ることは勿論である。例えば、距離画像生成装置は、計測点から見たシーンの奥行きを表す距離画像データを生成できれば良く、縞パターンの光を対象に投影し、直線の縞が対象の表面で変形する形態から距離画像データを生成する方式(構造光方式)のものでもよい。また距離画像生成装置と可視光画像生成装置の撮像素子が統合されていても良い。例えば感光波長領域が広く、可視光から赤外線までを撮像できる撮像素子の出力に基づいて可視光画像データと距離画像データとを生成しても良い。
尚、本発明の技術的範囲は、上述した実施例に限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変更を加え得ることは勿論である。例えば、距離画像生成装置は、計測点から見たシーンの奥行きを表す距離画像データを生成できれば良く、縞パターンの光を対象に投影し、直線の縞が対象の表面で変形する形態から距離画像データを生成する方式(構造光方式)のものでもよい。また距離画像生成装置と可視光画像生成装置の撮像素子が統合されていても良い。例えば感光波長領域が広く、可視光から赤外線までを撮像できる撮像素子の出力に基づいて可視光画像データと距離画像データとを生成しても良い。
また上記実施例では、可視光画像データ毎に対応する3次元モデルデータを生成し、視点に応じて、3次元モデルデータを切り換えたが、可視光画像データ毎に対応する3次元モデルデータを生成した後に3つのモデルデータを統合して1つの3次元モデルデータを生成し、視点にかかわらず、統合された1つの3次元モデルデータに基づいて表示画像データを描画しても良い。この場合、1つの3次元モデルデータの各ポリゴンに、例えば4つの可視光画像データのうちの1つ以上の可視光画像データの画素が対応付けられる。すなわち、ポリゴンによっては2つ以上の可視光画像データの画素が対応付けられる。そこで、2つ以上の可視光画像データのいずれかを視点に応じて選択し、選択した可視光画像データと統合された3次元モデルデータとに基づいて表示画像データを描画すればよい。
また3次元モデルデータのモデル形式は、ボクセルを使った形式でも、ポリゴンを使った形式でも、自由曲面を使った形式でもよいし、ポリゴンは三角形でも四角形以上の多角形でも良い。
また上記実施例では、絶対座標系で予め決められた球面上に視点を設定したが、絶対座標系の任意の位置に視点を設定できるようにしてもよい。また上記実施例では、視点の位置に応じて視点の方向が定まる例について説明したが、視点の位置と方向を独立に設定できるようにしても良い。
また上記実施例では、可視光画像データに優先順位を付して優先順位の低い順に描画することで、結果的に最も高い優先順位の可視光画像データを選択して描画する例を示したが、優先順位を付さずに可視光画像データを選択するアルゴリズムを採用しても良い。例えば可視光画像データの撮像方向と視線方向がなす角度を順に求め、求めた角度同士を順に比較して、求めた角度が最も小さな可視光画像データを選択し、選択した可視光画像データだけで表示画像データを描画しても良い。
また上記実施例では、可視光画像データの撮像方向と視線方向がなす角度に応じて可視光画像データを選択する例を示したが、絶対座標系における視点と撮像点の距離に応じて可視光画像データを選択したり、表示座標系における視点と撮像点の距離に応じて可視光画像データを選択しても良い。
また上記実施例では、可視光画像データ単位の描画領域毎に可視光画像データを選択したが、画素単位で可視光画像データを選択しても良い。具体的には、注目画素に対応する対象表面の点と撮像点とを結ぶ線の方向と、視線方向又は視点と注目画素に対応する対象表面の点とを結ぶ線の方向とがなす角度を撮像点毎に導出し、導出した角度が最も小さくなる撮像点に対応する可視光画像データを選択して表示画像データを描画しても良い。
また上記実施例では、人のゴルフスイングを表示対象として説明したが、いうまでもなく表示対象はどのようなシーンのものであっても良く、人以外の生物を表示対象としても、生物以外(例えば住宅等の建設物)を表示対象としてもよい。
また上記実施例では、描画領域毎に1つの可視光画像データに基づいて表示画像データが描画されるため、元になる可視光画像データが異なる隣接領域の境界には、それぞれの可視光画像データが表す色の差異が現れることになるが、そのような隣接領域の境界近傍の画素については、例えば2つの可視光画像データの対応する画素の値の重み付け加算値で表示画像データを描画するなど、複数の可視光画像データを合成して表示画像データを描画しても良い。
1…3次元画像処理装置、2〜5…撮像部、11…外部インターフェース、12…内部インターフェース、13…プロセッサユニット、14…主記憶部、15…外部記憶部、16…表示部、21…距離画像生成部、31…距離画像生成部、41…距離画像生成部、51…距離画像生成部、22…可視光画像生成部、32…可視光画像生成部、42…可視光画像生成部、52…可視光画像生成部、101〜103…スライダー、131…取得部、132…モデル生成部、133…設定部、134…描画部、135…再生部、E…視点、a,b…撮像方向、c…撮像方向、d…撮像方向、e…視線方向、M…人、W…窓
Claims (6)
- 互いに異なる計測点から見たシーンの奥行きを表す距離画像データを生成する複数の距離画像生成装置のそれぞれから前記距離画像データを取得し、互いに異なる撮像点から見た前記シーンの可視光画像データを生成する1または複数の可視光画像生成装置から複数の前記可視光画像データを取得する取得部と、
複数の前記距離画像データに基づいて、前記シーンに含まれる対象を表す3次元モデルデータを生成するモデル生成部と、
前記シーンに対する視点を設定する設定部と、
前記視点から見た前記シーンを表す表示画像データを、前記3次元モデルデータと前記撮像点が互いに異なる複数の前記可視光画像データとに基づいて描画する描画部と、
を備え、
前記描画部は、3次元モデルデータに表される対象表面の領域に対応する前記可視光画像データが複数ある場合、前記視点に応じていずれかの前記可視光画像データを選択し、選択した前記可視光画像データと前記3次元モデルデータに基づいて、前記対象表面に対応する領域を描画する、
3次元画像処理装置。 - 前記描画部は、前記視点と前記撮像点との位置関係に応じて前記可視光画像データのいずれかを選択する、
請求項1に記載の3次元画像処理装置。 - 前記描画部は、前記可視光画像生成装置の撮像方向と前記視点の方向とがなす角の大きさに応じて前記可視光画像データのいずれかを選択する、
請求項2に記載の3次元画像処理装置。 - 前記モデル生成部は、前記計測点毎に前記3次元モデルデータを生成し、
前記描画部は、前記視点に応じていずれかの前記3次元モデルデータといずれかの前記可視光画像データとを選択し、選択した前記3次元モデルデータと選択した前記可視光画像データとに基づいて前記表示画像データを描画する、
請求項1から3のいずれか一項に記載の3次元画像処理装置。 - 前記描画部は、複数の前記領域同士の境界領域について、当該境界領域に対応する複数の前記可視光画像データを合成して前記表示画像データを描画する、
請求項1〜4のいずれか一項に記載の3次元画像処理装置。 - 互いに異なる計測点から見たシーンの奥行きを表す距離画像データを生成する複数の距離画像生成装置と、
互いに異なる撮像点から見た前記シーンの可視光画像データを生成する可視光画像生成装置と、
3次元画像処理装置とを備え、
前記3次元画像処理装置は、
前記距離画像生成装置と前記可視光画像生成装置から前記距離画像データと前記可視光画像データとを取得する取得部と、
複数の前記距離画像データに基づいて、前記シーンに含まれる対象を表す3次元モデルデータを生成するモデル生成部と、
前記シーンに対する視点を設定する設定部と、
前記視点から見た前記シーンを表す表示画像データを、前記3次元モデルデータと前記撮像点が互いに異なる複数の可視光画像データとに基づいて描画する描画部と、
を備え、
前記描画部は、3次元モデルデータに表される対象表面の領域に対応する前記可視光画像データが複数ある場合、前記視点に応じていずれかの前記可視光画像データを選択し、選択した前記可視光画像データと前記3次元モデルデータに基づいて、前記対象表面に対応する領域を描画する、
3次元画像処理システム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015043268A JP2016162392A (ja) | 2015-03-05 | 2015-03-05 | 3次元画像処理装置および3次元画像処理システム |
US15/041,341 US9922451B2 (en) | 2015-03-05 | 2016-02-11 | Three-dimensional image processing apparatus and three-dimensional image processing system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015043268A JP2016162392A (ja) | 2015-03-05 | 2015-03-05 | 3次元画像処理装置および3次元画像処理システム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016162392A true JP2016162392A (ja) | 2016-09-05 |
Family
ID=56845191
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015043268A Pending JP2016162392A (ja) | 2015-03-05 | 2015-03-05 | 3次元画像処理装置および3次元画像処理システム |
Country Status (2)
Country | Link |
---|---|
US (1) | US9922451B2 (ja) |
JP (1) | JP2016162392A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107633547A (zh) * | 2017-09-21 | 2018-01-26 | 北京奇虎科技有限公司 | 实现场景渲染的图像数据实时处理方法及装置、计算设备 |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6582557B2 (ja) * | 2015-05-28 | 2019-10-02 | 株式会社ソシオネクスト | 描画装置、描画方法および描画プログラム |
CN105511093B (zh) * | 2015-06-18 | 2018-02-09 | 广州优视网络科技有限公司 | 3d成像方法及装置 |
US9773022B2 (en) * | 2015-10-07 | 2017-09-26 | Google Inc. | Displaying objects based on a plurality of models |
CN111275803B (zh) * | 2020-02-25 | 2023-06-02 | 北京百度网讯科技有限公司 | 3d模型渲染方法、装置、设备和存储介质 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7044613B2 (en) * | 2001-06-08 | 2006-05-16 | University Of Southern California | Realistic scene illumination reproduction |
WO2006074310A2 (en) * | 2005-01-07 | 2006-07-13 | Gesturetek, Inc. | Creating 3d images of objects by illuminating with infrared patterns |
US8090194B2 (en) * | 2006-11-21 | 2012-01-03 | Mantis Vision Ltd. | 3D geometric modeling and motion capture using both single and dual imaging |
JP2011149952A (ja) | 2011-03-10 | 2011-08-04 | Sanyo Electric Co Ltd | モデル入力装置およびモデル生成システム |
EP3221851A1 (en) * | 2014-11-20 | 2017-09-27 | Cappasity Inc. | Systems and methods for 3d capture of objects using multiple range cameras and multiple rgb cameras |
-
2015
- 2015-03-05 JP JP2015043268A patent/JP2016162392A/ja active Pending
-
2016
- 2016-02-11 US US15/041,341 patent/US9922451B2/en active Active
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107633547A (zh) * | 2017-09-21 | 2018-01-26 | 北京奇虎科技有限公司 | 实现场景渲染的图像数据实时处理方法及装置、计算设备 |
Also Published As
Publication number | Publication date |
---|---|
US20160260244A1 (en) | 2016-09-08 |
US9922451B2 (en) | 2018-03-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10417829B2 (en) | Method and apparatus for providing realistic 2D/3D AR experience service based on video image | |
US10762598B2 (en) | Mixed reality system with color virtual content warping and method of generating virtual content using same | |
CN110022470B (zh) | 使用合成图像训练对象检测算法的方法和系统和存储介质 | |
KR102539427B1 (ko) | 화상 처리장치, 화상 처리방법, 및 기억매체 | |
WO2009104550A1 (ja) | 光投影装置、照明装置 | |
JP7042561B2 (ja) | 情報処理装置、情報処理方法 | |
JP2016162392A (ja) | 3次元画像処理装置および3次元画像処理システム | |
JP7164968B2 (ja) | 画像処理装置、画像処理装置の制御方法及びプログラム | |
JP2010526295A (ja) | ビデオカメラとtvモニタを使用した3次元オブジェクトのスキャン | |
US20100188355A1 (en) | Apparatus and method for detecting an object pointed by a user | |
US20200329227A1 (en) | Information processing apparatus, information processing method and storage medium | |
JP6310149B2 (ja) | 画像生成装置、画像生成システム及び画像生成方法 | |
JP2017191492A (ja) | 情報処理装置、情報処理方法および映像生成システム | |
JP2012124839A (ja) | 画像監視装置 | |
JP2019046055A (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP2019146155A (ja) | 画像処理装置、画像処理方法およびプログラム | |
KR20180062867A (ko) | 디스플레이 장치 및 디스플레이 장치의 제어 방법 | |
JP2018010473A (ja) | 画像処理装置、画像処理方法、および画像処理プログラム | |
CN109427089B (zh) | 基于环境光照条件的混合现实对象呈现 | |
WO2015016798A2 (en) | A system for an augmented reality application | |
JP2004030408A (ja) | 三次元画像表示装置及び表示方法 | |
US20230306676A1 (en) | Image generation device and image generation method | |
WO2019163449A1 (ja) | 画像処理装置、画像処理方法およびプログラム | |
JP2020013390A (ja) | 情報処理装置、情報処理プログラム及び情報処理方法 | |
JP2019146010A (ja) | 画像処理装置、画像処理方法およびプログラム |