JP2016048467A - 運動視差再現方法、装置およびプログラム - Google Patents

運動視差再現方法、装置およびプログラム Download PDF

Info

Publication number
JP2016048467A
JP2016048467A JP2014173170A JP2014173170A JP2016048467A JP 2016048467 A JP2016048467 A JP 2016048467A JP 2014173170 A JP2014173170 A JP 2014173170A JP 2014173170 A JP2014173170 A JP 2014173170A JP 2016048467 A JP2016048467 A JP 2016048467A
Authority
JP
Japan
Prior art keywords
image
virtual viewpoint
motion parallax
depth data
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014173170A
Other languages
English (en)
Inventor
浩嗣 三功
Hiroshi Sanko
浩嗣 三功
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2014173170A priority Critical patent/JP2016048467A/ja
Publication of JP2016048467A publication Critical patent/JP2016048467A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

【課題】画像レンダリングに十分な奥行推定精度を確保し、画像合成によるアーティファクトを低減できる運動視差再現方法、装置およびプログラムを提供する。【解決手段】オブジェクト画像補間部203は、オブジェクト画像の輪郭部分をカメラ画像に基づいて補間する。奥行データ補間部204は、エッジ補間後のオブジェクト画像に基づいて奥行データを補間する。三次元モデル生成部205は、補間後の奥行データに基づいてオブジェクト領域の三次元ポリゴンモデルを生成する。仮想視点検出部206は、カメラ画像に基づいてユーザの仮想視点を検出する。仮想視点画像生成部207は、三次元ポリゴンモデルを仮想視点でレンダリングして現在の仮想視点画像を生成する。仮想視点画像補間部209は、過去の仮想視点画像を利用して、今回の仮想視点画像のオクルージョン領域を補間する。【選択図】図3

Description

本発明は、運動視差再現方法、装置およびプログラムに係り、特に、映像コミュニケーションにおける対話相手の映像上でユーザの運動視差を再現する運動視差再現方法、装置およびプログラムに関する。
ビデオ会議システムにおける運動視差を再現する手法として、非特許文献1には、撮影時にステレオカメラ等を用いて対象シーンの奥行データを生成し、ユーザが注視するディスプレイ中央から観測した場合の映像を合成する手法が開示されている。
また、近年ではMicrosoft Kinectのような安価な距離画像センサが急速に普及しており、各視点における映像およびその高精度な奥行データを安定して取得可能な環境が整備されつつある。
特許文献1には、被写体を距離画像センサで撮影してカメラ画像およびその深度マップを取得し、カメラ画像および深度マップに基づいて被写体のポリゴンモデルを生成し、ポリゴンモデルの各ポリゴンにカメラ画像の対応する各局所領域からテクスチャを射影して三次元のポリゴンテクスチャモデルを生成する技術が開示されている。
特開2014-67372号公報
Yo-Sung Ho et al., ``Gaze-corrected view generation using stereo camera system for immersive videoconferencing,'' IEEE Trans. Consumer Electronics, August 2011
非特許文献1では、運動視差の再現によりユーザの視線を一致させることはできるものの、奥行データの精度不足から、画像合成によるアーティファクトが大きくなり、映像品質として不十分であるという技術課題があった。
特許文献1で用いられる距離画像センサは、ジェスチャー認識等の動き予測に用いるうえでは十分な精度であるものの、カメラが存在しない視点での見え方をレンダリングするという目的においては、特にエッジ部分等で十分な奥行推定精度が得られず、ステレオマッチングによる奥行データ推定に基づく手法と同様、画像合成によるアーティファクトの問題が避けられない。
また、仮想視点を合成する際に、人物の腕で隠れる胴体領域(セルフオクルージョン)等を再現することができないため、ダイナミックな視点変更を行うと合成品質が著しく低下するという技術課題があった。
本発明の目的は、上記の技術課題を解決し、画像レンダリングに十分な奥行推定精度を確保し、画像合成によるアーティファクトを低減できる運動視差再現方法、装置およびプログラムを提供することにある。
上記の目的を達成するために、本発明は、対話相手の映像上でユーザの運動視差を実現する運動視差再現装置において、以下のような構成を具備した点に特徴がある。
(1) オブジェクトのカメラ画像およびその深度マップを取得する手段と、深度マップの奥行データに基づいてオブジェクト領域を抽出する手段と、オブジェクト領域をカメラ画像にマッピングしてオブジェクト画像を抽出する手段と、オブジェクト画像のエッジ領域をカメラ画像に基づいて補間する手段と、補間後のオブジェクト画像に基づいて奥行データを補間する手段と、補間後の奥行データに基づいてオブジェクト領域の三次元モデルを生成する手段と、三次元モデルをユーザの仮想視点でレンダリングして仮想視点画像を生成する手段とを具備した。
(2) 各時刻で生成された仮想視点画像を蓄積する手段と、仮想視点画像のオクルージョン領域を検出するオクルージョン検出手段と、仮想視点画像のオクルージョン領域を、前記蓄積されている過去の仮想視点画像に基づいて補間する手段とを具備した。
本発明によれば、以下のような効果が発生される。
(1) オブジェクト画像のエッジ領域をカメラ画像に基づいて補間し、補間後のオブジェクト画像に基づいて奥行データを補間し、補間後の奥行データに基づいてオブジェクト領域の三次元モデルが生成されるので、画像レンダリングに十分な奥行推定精度を確保し、画像合成によるアーティファクトを低減できる。したがって、距離画像(RGB-D)カメラを1セット用意するだけで、画像合成によるアーティファクトを最小限に抑えた運動視差を再現することが可能となり、ビデオ会議システムにおけるコミュニケーションの活性化を実現できる。
(2) 過去の仮想視点画像またはカメラ画像を蓄積しておき、今回の仮想視点画像のオクルージョン領域を、蓄積されている過去の仮想視点画像等に基づいて補間できるので、運動視差再現により生じ得るオクルージョンを解消できるようになる。
本発明の運動視差再現装置が適用されるテレビ会議システムの構成を示した図である。 テレビ会議端末の主要部の構成を示したブロック図である。 テレビ会議端末および距離画像カメラの機能ブロック図である 距離画像カメラから出力されるカメラ画像[同図(a)]および当該カメラ画像に対応する深度マップ[同図(b)]の一例を示した図である。 エッジ補間前後の各オブジェクト画像の一例を示した図である。 奥行データがデプス補間された深度マップを示した図である。 奥行データとその三次元ポリゴンモデルの例を示した図である。 ポリゴンの作成方法を示した図である。 仮想視点画像のオクルージョン領域を補間する方法を示した図である。
以下、図面を参照して本発明の実施の形態について詳細に説明する。図1は、本発明の運動視差再現装置が適用されるテレビ会議システムの構成を示した図であり、ここでは、本発明の説明に不要な構成は図示が省略されている。
テレビ会議システムは、複数の拠点Aに複数のテレビ会議端末1を分散配置し、各拠点Aでは各テレビ会議端末1が内部ネットワーク(LAN)で相互接続され、拠点同士は広域ネットワーク(WAN)で接続されている。各テレビ会議端末1は、汎用のコンピュータ(サーバ、スマートフォン、PDA)に各機能を実現するアプリケーション(プログラム)を実装して構成しても良いし、あるいはアプリケーションの一部がハードウェア化またはROM化された専用機や単能機として構成しても良い。
図2は、前記テレビ会議端末1の主要部の構成を示したブロック図であり、HDD101には、オペレーティングシステムや各種のアプリケーション、データが記憶されている。ROM102には、各種のデータやプログラムが不揮発に記憶されている。CPU105は、前記アプリケーションやプログラムを実行して視線一致画像を生成す。
RAM103は、前記CPU105にワークエリアを提供する。通信インタフェース104は、各テレビ会議端末1とLANとの接続を制御する。入力インタフェース106には、距離画像カメラ5、マイク6、キーボード7等の入力デバイスが接続される。出力インタフェース107には、スピーカ8、ディスプレイ9などの出力デバイスが接続される。
図3は、前記テレビ会議端末1および距離画像カメラ5の主要部の構成を示した機能ブロック図である。
距離画像(RGB-D)カメラ5において、撮像部501は、CCDまたはCMOSなどの画像センサ503からオブジェクトのカメラ画像(RGBカラー画像)を取得する。深度マップ作成部502は、光源504から照射されたLED光またはレーザ光の反射光を画像センサ503で検知し、到達時間を画素ごとに計測することにより、各画素と奥行データとを対応付ける深度マップを作成する。図4は、距離画像カメラ5から出力されるカメラ画像[同図(a)]および当該カメラ画像に対応する深度マップ[同図(b)]の一例を示している。
テレビ会議端末1において、オブジェクト領域抽出部201は、前記深度マップに基づいてオブジェクト領域を抽出する。本実施形態では、深度マップの奥行データに閾値を設定し、奥行データが閾値以下の領域がオブジェクト領域(ここでは、人物領域)と判定され、それ以外の領域は背景領域と判定される。
オブジェクト画像抽出部202は、カメラ画像から前記オブジェクト領域に対応するオブジェクト画像(ここでは、人物画像)を抽出する。図5(a)は、カメラ画像[図4(a)]からオブジェクト領域に基づいて抽出されたオブジェクト画像の一例を示している。
オブジェクト画像補間部203は、オブジェクト画像の輪郭部分をカメラ画像に基づいて補間する。本実施形態では、オブジェクト画像の輪郭近傍を一定の画素数だけ膨らませる形で探索し、色情報に基づくエッジ検出を行い、検出されるエッジの輪郭を正確なオブジェクト画像として再現する。
図5(b)は、エッジ補間後のオブジェクト画像を示した図であり、図5(a)の補間前と比較すれば、オブジェクト画像のエッジ部分、特に右手部分や胴体左側部分の画素が補間されて、より正確なオブジェクト画像が再現されていることが判る。
奥行データ補間部204は、エッジ補間後のオブジェクト画像に基づいて奥行データを補間する。本実施形態では、補間後のオブジェクト画像に対応する深度マップの領域を特定し、当該領域内でオブジェクト領域に対応する値を示さない奥行データを、その近傍でオブジェクト領域に対応する値を示す奥行データに基づいて補間(デプス補間)する。
図6は、デプス補間処理後の奥行データによる深度マップを示した図であり、オブジェクト領域の、特に破線で囲った腕や胴体のエッジ部分、頭頂部分および右手部分において奥行データが補間され、より正確な奥行データが再現されていることが判る。
三次元モデル生成部205は、補間後の奥行データに基づいてオブジェクト領域の三次元ポリゴンモデルを生成する。本実施形態では、オブジェクト領域に対応する補間済み奥行データ[図7(a)]を対象に各画素の隣接関係に基づいて3次元ポリゴンモデル化を行うことで三次元ポリゴンモデル[図7(b)]が作成される。
例えば、図8に示したように、カメラ画像の各2×2=4の画素ブロックから選択される3つの画素の組み合わせごとに、各画素の三次元座標をカメラ画像上での二次元座標および奥行き値から算出し、各三次元座標を頂点座標とする三角形のポリゴンを生成する。そして、補完後の深度マップから生成された全てのポリゴンを連結してポリゴンモデルを生成する。このとき、頂点座標間の距離が閾値以上のパターンはノイズと見なされて排除される。
仮想視点検出部206は、センサのヘッドトラッキング機能等を用いることでユーザの仮想視点を検出する。仮想視点画像生成部207は、前記三次元ポリゴンモデルを前記仮想視点でレンダリングして現在の仮想視点画像を生成する。生成された仮想視点画像はHDD101に蓄積され、将来の仮想視点画像において検出されたオクルージョン領域を補間するために利用される。
オクルージョン検出部208は、現在の仮想視点画像のうち、セルフオクルージョンにより撮影画像からテクスチャ情報を取得することができず、表示に欠落が生じている領域をオクルージョン領域として検出する。仮想視点画像補間部209は、HDD101に蓄積されている過去の仮想視点画像に対して、今回のオクルージョン領域に対応する画素の画素値を参照し、表示に欠落が生じていないフレームを特定する。そして、オクルージョン領域に対応する画素情報を当該仮想視点画像から切出して現在の仮想視点画像のオクルージョン領域に貼り付ける。
図9は、仮想視点画像補間部209の機能を説明するための図であり、同図(a)に示したカメラ画像が得られている状態でユーザが視点を上方へ移動させると、前記仮想視点画像生成部207により生成される仮想視点画像は同図(b)のようになり、右手によるセルフオクルージョンが腹部近傍に発生してしまう。
ここで、例えば図5に示したようにユーザの腹部近傍が写っているオブジェクト画像の仮想視点画像が履歴情報としてHDD101に蓄積されていれば、当該画像からオクルージョン領域の対応領域を切り出して現在の仮想視点画像のオクルージョン領域に貼り付けることにより、同図(c)に示したように、セルフオクルージョン領域の補間された完全な仮想視点画像を再現できるようになる。
本実施形態によれば、オブジェクト画像のエッジ領域をカメラ画像に基づいて補間し、補間後のオブジェクト画像に基づいて奥行データを補間し、補間後の奥行データに基づいてオブジェクト領域の三次元モデルが生成されるので、画像レンダリングに十分な奥行推定精度を確保し、画像合成によるアーティファクトを低減できる。したがって、距離画像(RGB-D)カメラを1セット用意するだけで、画像合成によるアーティファクトを最小限に抑えた運動視差を再現することが可能となり、ビデオ会議システムにおけるコミュニケーションの活性化を実現できる。
また、本実施形態によれば、過去の仮想視点画像またはカメラ画像を蓄積しておき、今回の仮想視点画像のオクルージョン領域を、蓄積されている過去の仮想視点画像等に基づいて補間できるので、運動視差再現により生じ得るオクルージョンを解消できるようになる。
1…テレビ会議端末,4…LEDライト,5…カメラ,6…マイク,7…キーボード,8…スピーカ,9…ディスプレイ,101…HDD,102…ROM,103…RAM,104…通信インタフェース,105…CPU,106…入力インタフェース,107…出力インタフェース,201…オブジェクト領域抽出部,202…オブジェクト画像抽出部,203…オブジェクト画像補間部,204…奥行データ補間部,205…三次元モデル生成部,206…仮想視点検出部,207…仮想視点画像生成部,208…オクルージョン検出部,209…仮想視点画像補間部

Claims (9)

  1. 対話相手の映像上でユーザの運動視差を実現する運動視差再現装置において、
    ユーザの仮想視点を検知する手段と、
    オブジェクトのカメラ画像およびその深度マップを取得する手段と、
    深度マップの奥行データに基づいてオブジェクト領域を抽出する手段と、
    オブジェクト領域をカメラ画像にマッピングしてオブジェクト画像を抽出する手段と、
    オブジェクト画像のエッジ領域をカメラ画像に基づいて補間する手段と、
    補間後のオブジェクト画像に基づいて奥行データを補間する手段と、
    補間後の奥行データに基づいてオブジェクト領域の三次元モデルを生成する手段と、
    三次元モデルを仮想視点でレンダリングして仮想視点画像を生成する手段とを具備したことを特徴とする運動視差再現装置。
  2. 各時刻で生成された仮想視点画像を蓄積する手段と、
    仮想視点画像のオクルージョン領域を検出するオクルージョン検出手段と、
    仮想視点画像のオクルージョン領域を、前記蓄積されている過去の仮想視点画像に基づいて補間する手段とを具備したことを特徴とする請求項1に記載の運動視差再現装置。
  3. 前記オブジェクト画像のエッジ領域を補間する手段は、オブジェクト画像の輪郭近傍を探索し、色情報に基づくエッジ補間を行うことを特徴とする請求項1または2に記載の運動視差再現装置。
  4. 前記奥行データを補間する手段は、補間後のオブジェクト画像に対応する深度マップの領域内でオブジェクト領域に対応する値を示さない奥行データを、その近傍でオブジェクト領域に対応する値を示す奥行データに基づいて補間することを特徴とする請求項1ないし3のいずれかに記載の運動視差再現装置。
  5. 前記三次元モデルを生成する手段は、前記補間後のオブジェクト領域に対応する奥行データにおける各画素の隣接関係に基づいて三次元ポリゴンモデルを生成することを特徴とする請求項1ないし4のいずれかに記載の運動視差再現装置。
  6. 対話相手の映像上でユーザの運動視差を実現する運動視差再現方法において、
    オブジェクトのカメラ画像およびその深度マップを入力する手順と、
    深度マップの奥行データに基づいてオブジェクト領域を抽出する手順と、
    オブジェクト領域をカメラ画像にマッピングしてオブジェクト画像を抽出する手順と、
    オブジェクト画像のエッジ領域をカメラ画像に基づいて補間する手順と、
    補間後のオブジェクト画像に基づいて奥行データを補間する手順と、
    補間後の奥行データに基づいてオブジェクト領域の三次元モデルを生成する手順と、
    三次元モデルを仮想視点でレンダリングして仮想視点画像を生成する手順とを含むことを特徴とする運動視差再現方法。
  7. 各時刻で生成された仮想視点画像を蓄積する手順と、
    仮想視点画像のオクルージョン領域を検出する手順と、
    仮想視点画像のオクルージョン領域を、前記蓄積されている過去の仮想視点画像に基づいて補間する手順とをさらに含むことを特徴とする請求項6に記載の運動視差再現方法。
  8. 対話相手の映像上でユーザの運動視差を実現する運動視差再現プログラムにおいて、
    オブジェクトのカメラ画像およびその深度マップを入力する手順と、
    深度マップの奥行データに基づいてオブジェクト領域を抽出する手順と、
    オブジェクト領域をカメラ画像にマッピングしてオブジェクト画像を抽出する手順と、
    オブジェクト画像のエッジ領域をカメラ画像に基づいて補間する手順と、
    補間後のオブジェクト画像に基づいて奥行データを補間する手順と、
    補間後の奥行データに基づいてオブジェクト領域の三次元モデルを生成する手順と、
    三次元モデルを仮想視点でレンダリングして仮想視点画像を生成する手順とを、コンピュータに実行させる運動視差再現プログラム。
  9. 各時刻で生成された仮想視点画像を蓄積する手順と、
    仮想視点画像のオクルージョン領域を検出する手順と、
    仮想視点画像のオクルージョン領域を、前記蓄積されている過去の仮想視点画像に基づいて補間する手順とをさらに含むことを特徴とする請求項8に記載の運動視差再現プログラム。
JP2014173170A 2014-08-27 2014-08-27 運動視差再現方法、装置およびプログラム Pending JP2016048467A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014173170A JP2016048467A (ja) 2014-08-27 2014-08-27 運動視差再現方法、装置およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014173170A JP2016048467A (ja) 2014-08-27 2014-08-27 運動視差再現方法、装置およびプログラム

Publications (1)

Publication Number Publication Date
JP2016048467A true JP2016048467A (ja) 2016-04-07

Family

ID=55649337

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014173170A Pending JP2016048467A (ja) 2014-08-27 2014-08-27 運動視差再現方法、装置およびプログラム

Country Status (1)

Country Link
JP (1) JP2016048467A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019009919A (ja) * 2017-06-26 2019-01-17 株式会社東芝 巡視点検支援システム及び巡視点検支援制御プログラム
US10706613B2 (en) 2016-06-27 2020-07-07 Robert Bosch Gmbh Systems and methods for dynamic occlusion handling
WO2020183961A1 (ja) * 2019-03-12 2020-09-17 ソニー株式会社 画像処理装置、および画像処理方法、並びにプログラム
KR102416216B1 (ko) * 2021-02-09 2022-07-05 주식회사 비젼그리드 영상인식을 이용한 3차원 실체 형상 데이터 생성 방법 및 장치
WO2023149333A1 (ja) * 2022-02-07 2023-08-10 ソニーグループ株式会社 情報処理装置、情報処理方法、および、コンピュータ読み取り可能な非一時的記憶媒体

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10706613B2 (en) 2016-06-27 2020-07-07 Robert Bosch Gmbh Systems and methods for dynamic occlusion handling
JP2019009919A (ja) * 2017-06-26 2019-01-17 株式会社東芝 巡視点検支援システム及び巡視点検支援制御プログラム
JP7030431B2 (ja) 2017-06-26 2022-03-07 株式会社東芝 点検支援システム及び点検支援制御プログラム
WO2020183961A1 (ja) * 2019-03-12 2020-09-17 ソニー株式会社 画像処理装置、および画像処理方法、並びにプログラム
US11798227B2 (en) 2019-03-12 2023-10-24 Sony Group Corporation Image processing apparatus and image processing method
KR102416216B1 (ko) * 2021-02-09 2022-07-05 주식회사 비젼그리드 영상인식을 이용한 3차원 실체 형상 데이터 생성 방법 및 장치
WO2023149333A1 (ja) * 2022-02-07 2023-08-10 ソニーグループ株式会社 情報処理装置、情報処理方法、および、コンピュータ読み取り可能な非一時的記憶媒体

Similar Documents

Publication Publication Date Title
JP6961612B2 (ja) 三次元モデル配信方法及び三次元モデル配信装置
JP5260705B2 (ja) 3次元拡張現実提供装置
US11315328B2 (en) Systems and methods of rendering real world objects using depth information
JP6228320B2 (ja) 制約なしslam用のセンサベースのカメラ運動検出
JP7003994B2 (ja) 画像処理装置および方法
US20190098277A1 (en) Image processing apparatus, image processing method, image processing system, and storage medium
CN105814611B (zh) 信息处理设备和方法以及非易失性计算机可读存储介质
Shen et al. Virtual mirror rendering with stationary rgb-d cameras and stored 3-d background
US9361731B2 (en) Method and apparatus for displaying video on 3D map
KR102455468B1 (ko) 객체의 3차원 모델을 복원하는 방법 및 장치
JP2008535116A (ja) 3次元レンダリング用の方法及び装置
JP2016085742A (ja) 前景画像分割方法及び前景画像分割装置
JP2016048467A (ja) 運動視差再現方法、装置およびプログラム
JP7184050B2 (ja) 符号化装置、符号化方法、復号装置、および復号方法
WO2018188277A1 (zh) 视线校正方法、装置、智能会议终端及存储介质
JP2015114905A (ja) 情報処理装置、情報処理方法およびプログラム
US11652978B2 (en) Depth map generation device
US20190073825A1 (en) Enhancing depth sensor-based 3d geometry reconstruction with photogrammetry
JP5068732B2 (ja) 3次元形状生成装置
US9380263B2 (en) Systems and methods for real-time view-synthesis in a multi-camera setup
JP2016071645A (ja) オブジェクト3次元モデル復元方法、装置およびプログラム
US20190340773A1 (en) Method and apparatus for a synchronous motion of a human body model
US20200211275A1 (en) Information processing device, information processing method, and recording medium
TWI757658B (zh) 影像處理系統及影像處理方法
KR102238794B1 (ko) 영상 촬영 장치의 촬영 속도 증가 방법

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20160823