JP6239594B2 - 3d情報処理装置及び方法 - Google Patents

3d情報処理装置及び方法 Download PDF

Info

Publication number
JP6239594B2
JP6239594B2 JP2015511362A JP2015511362A JP6239594B2 JP 6239594 B2 JP6239594 B2 JP 6239594B2 JP 2015511362 A JP2015511362 A JP 2015511362A JP 2015511362 A JP2015511362 A JP 2015511362A JP 6239594 B2 JP6239594 B2 JP 6239594B2
Authority
JP
Japan
Prior art keywords
depth
estimated
depth information
information
background
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015511362A
Other languages
English (en)
Other versions
JP2015524915A (ja
Inventor
ジュン シム,ヒョン
ジュン シム,ヒョン
ギュ リ,ソン
ギュ リ,ソン
ギュン キム,ド
ギュン キム,ド
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2015524915A publication Critical patent/JP2015524915A/ja
Application granted granted Critical
Publication of JP6239594B2 publication Critical patent/JP6239594B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/22Measuring arrangements characterised by the use of optical techniques for measuring depth
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Description

下記の説明は3D情報を処理する装置及び方法に関し、より具体的にはオブジェクトの深度情報を取得する技術に関する。
3D情報処理技術は、ユーザに立体感を与えることができるオブジェクトを処理する技術である。3Dオブジェクトキャプチャー技術は3D情報処理技術の一種として、3次元形状を有する各種オブジェクトの形状情報、位置情報、質感情報を取得してデータを生成し、生成されたデータを処理する技術である。オブジェクトキャプチャー技術を用いて生成されたデジタルデータは、3Dテレビなどのためのコンテンツとして活用されてもよい。
深度情報はいずれかの位置(例えば、深度カメラの位置)とオブジェクトとの間の距離に関する情報として、例えば、オブジェクトの位置に応じて算出されてもよい。オブジェクトの深度情報は、オブジェクトの形状を把握するための最も基礎となる情報である。したがって、オブジェクトに対する正確な深度情報を取得することは、オブジェクトキャプチャー技術において極めて重要な作業である。
3Dオブジェクトキャプチャー装置は、オブジェクトの深度情報を取得するために赤外線パルスなどを送信し、赤外線パルスがオブジェクトに反射して戻ってくる信号を用いてオブジェクトの位置を決定してもよい。ただし、従来の3Dオブジェクトキャプチャー装置は、一般的に透明なオブジェクトの深度を正確に測定することが困難である。
本発明の目的は、3D情報処理装置及び方法を開示する。
例示的な実施形態によると、1つ以上のプロセッサ実行可能なユニットを制御するプロセッサと、オブジェクトの第1深度情報を測定する測定部と、前記オブジェクトの第2深度情報を推定する推定部と、前記測定された第1深度情報と前記推定された第2深度情報とを比較する比較部と、前記比較部の比較結果を用いて、前記オブジェクトの第3深度情報を決定する判断部とを備える3D情報処理装置を提供する。
ここで、前記推定部は、前記オブジェクトの前景深度、バックグラウンドの後景深度、及び前記オブジェクトの透明度を推定し、前記推定された前景深度、前記後景深度、及び前記透明度に基づいて、予め決定したモデリングによって前記第2深度情報を推定してもよい。
また、前記推定部は、前記推定された前景深度で前記オブジェクトから反射した第1反射信号を仮定して算出される前景深度情報と、前記オブジェクトを透過して前記推定された後景深度でバックグラウンドから反射した第2反射信号を仮定して算出される後景深度情報と、前記オブジェクトの前記推定された透明度に基づいて前記第2深度情報を推定してもよい。
また、前記推定部は、前記推定された前景深度で前記オブジェクトから反射した第1反射信号を仮定して算出される前景深度情報と、前記オブジェクトの明るさと、前記オブジェクトを透過して前記推定された後景深度でバックグラウンドから反射した第2反射信号を仮定して算出される後景深度情報と、前記バックグラウンドの明るさと、前記オブジェクトの前記推定された透明度と、のうち少なくとも1つに基づいて前記第2深度情報を推定してもよい。
ここで、前記モデリングは、下記の数式(1)によって前記第2深度情報を推定してもよい。
ここで、z^は前記推定された第2深度情報であり、g(x)は前記第1深度情報を測定する深度カメラの特性に応じて決定される関数であり、xは受信された信号の強度であり、tは前記オブジェクトの推定された透明度であり、Lbは前記推定された後景深度でのバックグラウンドの明るさであり、Lfは前記オブジェクトの明るさであり、zfは前記推定された前景深度で前記オブジェクトから反射した第1反射信号を仮定して算出される前景深度情報であり、zbは前記オブジェクトを透過して前記バックグラウンドから反射した第2反射信号を仮定して算出される後景深度情報であってもよい。
また、前記判断部は、前記測定された第1深度情報と前記推定された第2深度情報との間の差が予め決定した範囲以内である場合、前記オブジェクトの第3深度情報が前記推定された第2深度情報であると判断してもよい。
また、前記測定された第1深度情報と前記推定された第2深度情報との間の差が予め決定した範囲内に含まれない場合、前記推定部は、前記推定された前景深度及び後景深度を変更して前記第2深度情報を再推定し、前記比較部は前記第1深度情報と前記再推定された第2深度情報とを比較してもよい。
ここで、前記測定部は、前記オブジェクトから反射した信号を受信するN個(Nは1と同一であるか大きい整数)の深度カメラを含み、前記N個の深度カメラに対応するN個の第1深度情報を生成し、前記推定部は、前記推定された前景深度、後景深度、及び透明度に基づいて、前記N個の深度カメラに対応するN個の第2深度情報を推定し、前記比較部は、前記N個の深度カメラに対応する前記N個の第1深度情報のそれぞれと前記N個の第2深度情報のそれぞれとを比較してもよい。
また、前記測定部は、前記オブジェクトの方向に赤外線を送信する送信部を含み、前記赤外線が前記オブジェクトから反射した信号及び前記赤外線によって前記背景が照射される場合、前記オブジェクトを透過してバックグラウンドから反射した信号を用いて前記オブジェクトの前記第1深度情報を測定してもよい。
他の例示的な実施形態によると、1つ以上のプロセッサ実行可能なユニットを制御するプロセッサと、オブジェクトの第1深度情報を測定する測定部と、前記オブジェクトの位置及び透明度を推定し、前記推定された位置及び透明度に基づいて前記オブジェクトの第2深度情報を推定する推定部と、前記測定された第1深度情報と前記推定された第2深度情報とを比較する比較部と、前記比較部の比較結果に応じて、前記オブジェクトの透明度を決定する判断部とを備える3D情報処理装置が提供される。
ここで、前記推定部は、前記推定された位置で前記オブジェクトから反射した第1反射信号を仮定して算出される前景深度情報と、前記オブジェクトを透過してバックグラウンドから反射した第2反射信号を仮定して算出される後景深度情報と、前記オブジェクトの前記推定された透明度と、に基づいて前記第2深度情報を推定してもよい。
また、前記測定された第1深度情報と前記推定された第2深度情報との間の差が予め決定した範囲内に含まれない場合、前記推定部は、前記推定された位置を変更して前記第2深度情報を再推定し、前記比較部は、前記第1深度情報と前記再推定された第2深度情報とを比較してもよい。
更なる例示的な実施形態によると、深度カメラを用いてオブジェクトの第1深度情報を測定するステップと、前記オブジェクトの第2深度情報をプロセッサの方式で推定するステップと、前記測定された第1深度情報を推定された第2深度情報と比較することによって、前記オブジェクトの第3深度情報を決定するステップとを含む3D情報処理方法が提供される。
ここで、前記推定された第2深度情報は、前記オブジェクトの前景深度、バックグラウンドの後景深度、及び前記オブジェクトの透明度を推定し、前記推定された前景深度、後景深度、及び透明度に基づいて、予め決定したモデリングによって推定されてもよい。
また、前記推定された第2深度情報は、前記推定された前景深度で前記オブジェクトから反射した第1反射信号を仮定して算出される前景深度情報と、前記オブジェクトを透過して前記推定された後景深度でバックグラウンドから反射した第2反射信号を仮定して算出される後景深度情報と、前記オブジェクトの前記仮定された透明度と、に基づいて推定されてもよい。
また、前記推定された第2深度情報は、前記推定された前景深度で前記オブジェクトから反射した第1反射信号を仮定して算出される前景深度情報と、前記オブジェクトの明るさと、前記オブジェクトを透過して前記推定された後景深度でバックグラウンドから反射した第2反射信号を仮定して算出される後景深度情報と、前記バックグラウンドの明るさと、前記オブジェクトの前記仮定された透明度と、のうち少なくとも1つに基づいて推定されてもよい。
ここで、前記モデリングは、下記の数式(1)によって前記第2深度情報を推定してもよい。
また、前記推定された第2深度情報は、前記オブジェクトの位置を推定し、前記推定された位置に基づいて予め決定したモデリングによって推定されてもよい。
また、前記オブジェクトの第3深度情報を決定する前記ステップは、前記測定された第1深度情報と前記推定された第2深度情報との間の差が予め決定した範囲以内である場合、前記オブジェクトの第3深度情報が前記推定された前景深度であると判断するステップを含んでもよい。
更なる例示的な実施形態によると、深度カメラを用いてオブジェクトの第1深度情報を測定するステップと、前記オブジェクトの透明度及び前記オブジェクトの位置をプロセッサの方式によって推定するステップと、前記透明度及び前記オブジェクトの前記推定された位置に基づいて前記オブジェクトの第2深度情報を推定するステップと、前記測定された第1深度情報と推定された第2深度情報とを比較することによって、前記オブジェクトの透明度を決定するステップとを含む3D情報処理方法が提供される。
ここで、前記推定された第2深度情報は、前記オブジェクトの前景深度、バックグラウンドの後景深度、及び前記オブジェクトの透明度を仮定し、前記仮定された前景深度、前記後景深度、及び前記透明度に基づいて予め決定したモデリングによって推定されてもよい。
また、前記推定された第2深度情報は、前記推定された前景深度で前記オブジェクトから反射した第1反射信号を仮定して算出される前景深度情報と、前記オブジェクトを透過して前記推定された後景深度でバックグラウンドから反射した第2反射信号を仮定して算出される後景深度情報と、前記オブジェクトの前記推定された透明度と、に基づいて推定されてもよい。
更なる例示的な実施形態によると、オブジェクトの前景深度を推定し、前記前景深度で前記オブジェクトから反射した第1反射信号を仮定して算出される前景深度情報と、後景深度を推定し、前記オブジェクトを透過して前記後景深度でバックグラウンドから反射した第2反射信号を仮定して算出される後景深度情報と、前記オブジェクトの前記仮定された透明度と、に基づいて前記オブジェクトの深度情報を推定する3D情報処理方法が提供される。
更なる例示的な実施形態によると、オブジェクトが透明であるか判断する方法は、複数の異なる深度カメラを用いて前記オブジェクトの深度値をキャプチャーし、前記複数の異なる深度カメラを用いてキャプチャーされた前記オブジェクトの前記深度値をプロセッサの方式によって比較し、前記オブジェクトの前記比較された深度値が異なる場合、前記オブジェクトが少なくとも一定透明を有するものと決定する方法が提供される。「キャプチャー」は「取得」等と言及されてもよい。
例示的な実施形態に係る3D情報処理技術を説明するための図である。 例示的な実施形態に係る3D情報処理装置を示すブロック図である。 例示的な実施形態に係る後景深度情報、前景深度情報、及びオブジェクトの第2深度情報を推定する方法を説明するための図である。 オブジェクトの深度情報を決定する例示的な実施形態を説明するための図である。 複数の深度カメラを用いてオブジェクトの深度情報を決定する例示的な実施形態を説明するための図である。 複数の深度カメラを用いてオブジェクトの深度情報を決定する例示的な実施形態を説明するための図である。 複数の深度カメラを備えた3D情報処理装置の一実施形態を示す図である。 例示的な実施形態に係る3D情報処理方法を説明するためのフローチャートである。
以下、実施形態を添付する図面を参照しながら詳細に説明する。
図1は、例示的な実施形態に係る3D情報処理技術を示す図である。
3D情報処理装置110は、3次元形状のオブジェクト120に関する情報を処理する装置である。例えば、3D情報処理装置110は、オブジェクト120の深度情報(depth information)を取得する装置を含んでもよい。また、3D情報処理装置110は、オブジェクト120の位置、形状、質感などの情報を取得する3Dオブジェクトキャプチャー装置を含んでもよい。オブジェクト120の位置、形状、質感などの情報は、3Dディスプレイ装置を用いてユーザに表示されてユーザに立体感を提供する。
3D情報処理装置110は、深度カメラを用いてオブジェクト120の深度情報を取得してもよい。深度カメラは、撮影対象者オブジェクト120に対する深度を測定して深度情報を測定することのできるカメラとして、例えば、ToF(Time to Flight)方式の深度カメラまたはストラクチャードライト(Structured Light)方式の深度カメラ、ノーマル取得基盤の深度カメラなどの深度情報を測定できる全ての装置を含んでもよい。他の実施形態によると、3D情報処理装置110はカメラを用いてオブジェクト120を撮影し、撮影された映像を分析してオブジェクトの位置、形状、質感などの情報を取得してもよい。
深度カメラが撮影するオブジェクト120の後方にバックグラウンド(background)130が位置してもよい。この場合に、深度カメラを用いて取得した情報にはオブジェクト120に関する情報だけではなく、バックグラウンド130に関する情報を含んでもよい。
特に、オブジェクト120が光を透過する性質を有する場合、深度カメラを用いて取得した情報のうちバックグラウンド130に関する情報を含んでもよい。例えば、オブジェクト120が透明であるか否か、半透明であれば、深度カメラを用いて撮影した映像のうち、オブジェクト120を撮影した部分にもバックグラウンド130の情報が含まれてもよい。オブジェクト120が透明な場合、深度カメラは、バックグラウンド130で反射して減衰されることなく、オブジェクト120を透過した信号を受信する。また、オブジェクト120が半透明な場合、深度カメラは、バックグラウンド130で反射してオブジェクト120で減衰された信号を受信する。
したがって、オブジェクト120が光を透過する性質を有する場合、深度カメラを用いて取得した情報を分析して取得したオブジェクト120の深度情報は正確ではないことがある。
例示的な実施形態によると、3D情報処理装置110は、オブジェクト120の深度情報、バックグラウンド130の深度情報、及びオブジェクト120の透明度を仮定して、数学的モデルにしたがってオブジェクト120の深度情報を推定してもよい。3D情報処理装置110は、測定された深度情報と前記推定されたオブジェクトの深度情報とを比較し、オブジェクト120の深度情報、バックグラウンドの深度情報及び/またはオブジェクト120の透明度を決定してもよい。
例示的な実施形態によると、オブジェクト120が光を透過する性質を有する場合にも、深度カメラを用いてオブジェクト120の深度情報をより正確に生成することができる。また、例示的な実施形態によると、深度カメラを用いて撮影した深度映像にオブジェクト120とバックグラウンド130からの情報が混合している場合にも、オブジェクト120の深度情報を正確に決定することができる。また、オブジェクト120が透明または半透明であり、深度映像でオブジェクト120を撮影した部分にバックグラウンド130の情報が含まれている場合にも、オブジェクト120の深度情報を正確に決定することができる。したがって、任意のシーン(scene)を多様な視覚条件及び光条件下で合成し、仮想オブジェクトを実写映像に適切にレンダリングして混合して合成することができる。
図2は、例示的な実施形態に係る3D情報処理装置の構造を示すブロック図である。
例示的な実施形態に係る3D情報処理装置200は、測定部210、推定部220、比較部230、判断部240を備える。
測定部210は、オブジェクト260の第1深度情報を測定する装置であってもよい。第1深度情報はオブジェクト260に対して測定された値として、例えば、オブジェクト260に対する深度値またはいずれかの値であってもよい。
測定部210は、深度カメラを含んでもよい。深度カメラを用いて撮影した深度映像は複数の画素で構成されてもよい。複数の画素それぞれの値は、深度カメラが受信した信号の値から決定されてもよい。
測定部210は、前記深度カメラを用いて撮影された深度映像を分析して第1深度情報を測定してもよい。ここで、深度カメラは深度を測定できるカメラとして、例えば、ToF(Time of Flight)方式の深度カメラなどを含んでもよい。
3D情報処理装置200は、オブジェクト260の方向にパルスを送信する送信部250をさらに含んでもよい。例えば、3D情報処理装置200の測定部210は、オブジェクト260の方向にパルスを送信する送信部250を含んでもよい。ここで、送信部250が送信するパルスは赤外線であってもよい。この場合、測定部210は、前記赤外線によって前記オブジェクト260が照射される場合、前記オブジェクト260から反射した信号を用いて前記オブジェクト260の前記第1深度情報を測定してもよい。また、オブジェクト120が光を透過する性質を有する場合、測定部210は、前記赤外線が前記オブジェクト260から反射した信号及び前記赤外線によって前記背景が照射される場合、前記オブジェクト260を透過してバックグラウンド270から反射した信号を用いて前記オブジェクト260の前記第1深度情報を測定してもよい。
測定部210は、深度映像の画素値を分析して深度カメラが受信した信号の値を判断し、深度カメラが受信した信号の値を用いてオブジェクト260の第1深度情報を測定してもよい。
推定部220は、オブジェクト260の第2深度情報を推定する装置である。第2深度情報はオブジェクト260に対して推定された値として、例えば、オブジェクト260に対する推定された深度値、またはある形態の推定された値であってもよい。推定部220は、オブジェクト260の第2深度情報をユーザリクエストに応じて予め決定したモデリングを用いて生成することで、第2深度情報を推定してもよい。ここで、前記第2深度情報はリアルタイムで生成されてもよい。また、推定部は、少なくとも1つ以上の予め推定されたオブジェクト260の第2深度情報を格納することによって、第2深度情報を推定してもよい。ここで、前記少なくとも1つ以上の予め推定されたオブジェクト260は予め算出され、3D情報処理装置200の格納部(図示せず)に格納されてもよい。
推定部220は、オブジェクト260の位置及び透明度を推定し、前記推定された位置及び透明度に基づいてオブジェクト260の第2深度情報を推定する装置であってもよい。推定部220は、前記オブジェクトの中心位置を位置させるように、前記オブジェクトが位置する概略的な場所を推定することによって、前記オブジェクトの位置を推定してもよい。推定部260は、前景深度情報、後景深度情報、及びオブジェクト260の仮定された透明度に基づいて第2深度情報を推定してもよい。前景深度情報は、オブジェクト260の推定された位置でオブジェクト260から反射した第1反射信号を仮定して算出されてもよい。後景深度情報は、オブジェクト260を透過してバックグラウンド270から反射した第2反射信号を仮定して算出されてもよい。一側面によると、推定部220は、下記の数式(2)または数式(3)によって第2深度情報を推定してもよい。
推定部220は、オブジェクト260の前景深度、バックグラウンド270の後景深度、及びオブジェクト260の透明度を推定し、推定された前景深度、後景深度、及び透明度に基づいて予め決定したモデリングにより第2深度情報を推定してもよい。
前景深度は、いずれかの位置(例えば、3D情報処理装置200の位置、測定部210の位置、送信部250の位置、深度カメラの位置など)からオブジェクト260までの距離を意味する。
後景深度はいずれかの位置(例えば、3D情報処理装置200の位置、測定部210の位置、送信部250の位置、深度カメラの位置など)からバックグラウンド270までの距離を意味する。
推定部220は、前景深度情報、後景深度情報、及びオブジェクト260の推定された透明度のうち少なくとも1つ以上に基づいて第2深度情報を推定してもよい。例えば、推定部220は、前景深度情報、後景深度情報、及びオブジェクト260の推定された透明度の全てに基づいて第2深度情報を推定してもよい。
前景深度情報はオブジェクト260に関する値として、例えば、推定された前景深度でオブジェクトで260から反射した第1反射信号を仮定して算出されてもよい。例えば、オブジェクト260が推定された前景深度に位置すると仮定し、予め決定したモデリングによって前記推定された前景深度を算出してもよい。
後景深度情報はオブジェクト260に関する値として、例えば、オブジェクト260を透過して仮定された後景深度でバックグラウンドで270から反射した第2反射信号を仮定して算出されてもよい。例えば、オブジェクト260が推定された後景深度に位置すると仮定し、予め決定したモデリングによって前記推定された後景深度が算出されてもよい。
推定された透明度は、オブジェクト260に関する値として、0よりも大きいか同一であり、1よりも小さいか同一の値が選択されてもよい。
モデリングは、オブジェクト260に関する値を入力にして、オブジェクト260の推定された第2深度情報を出力にする関数として、例えば、オブジェクト260の算出された前景深度情報、後景深度情報、及び透明度のうち少なくとも1つ以上(例えば、全て)を入力にし、オブジェクト260の推定された第2深度情報を出力にする関数であってもよい。
比較部230は、測定された第1深度情報と推定された第2深度情報とを比較する装置である。比較部230は、測定された第1深度情報と推定された第2深度情報との間の差が、予め決定した範囲以内であるか否かを判断する。
一実施形態によると、判断部240は、比較部230の比較結果を用いてオブジェクト260の第3深度情報を決定する装置であってもよい。例えば、測定された第1深度情報と推定された第2深度情報とが同一であるか、測定された第1深度情報と推定された第2深度情報との間の差が予め一定の範囲以内である場合、判断部240は、オブジェクト260の第3深度情報(例えば、オブジェクト260の実際の深度情報)が前記推定された第2深度情報として決定してもよい。または、判断部240は、オブジェクト260の第3深度情報(例えば、オブジェクト260の実際の深度情報)が前記オブジェクト260の前記推定された前景情報として決定してもよい。
更なる実施形態によると、前記測定された第1深度情報と前記推定された第2深度情報との間の差が予め決定した範囲内に含まれていない場合、推定部220は前記推定された前景深度及び/または後景深度を変更して前記第2深度情報を再推定してもよい。ここで、比較部230は、前記第1深度情報と前記再推定された第2深度情報とを比較してもよい。前記第1深度情報と前記再推定された第2深度情報とが同一であるか、測定された第1深度情報と前記再推定された第2深度情報との間の差が予め一定の範囲以内である場合、判断部240は、オブジェクト260の第3深度情報(例えば、オブジェクト260の実際の深度情報)が前記再推定された前景深度であると決定してもよい。更なる実施形態によると、この場合、判断部240は、オブジェクト260の第3深度情報(例えば、オブジェクト260の実際の深度情報)が前記再推定された第2深度情報であると決定してもよい。
もし、再推定による第2深度情報と測定された第1深度情報との差が依然として予め決定した範囲内に含まれていない場合、推定部220は、前記推定された前景深度及び後景深度を変更して前記第2深度情報を再推定し、比較部230は、前記第1深度情報と前記再推定された第2深度情報とを比較する過程を繰り返してもよい。
判断部240は、オブジェクト260が深度カメラに対応する特定の直線上に位置し、深度カメラからの距離は第3深度情報により決定されると判断する。
更なる実施形態によると、判断部240は、比較部230の比較結果に応じてオブジェクト260の透明度を決定する装置であってもよい。例えば、測定された第1深度情報と推定された第2深度情報とが同一であるか、測定された第1深度情報と推定された第2深度情報との間の差が予め一定の範囲以内である場合、判断部240は、オブジェクト260の仮定された透明度をオブジェクト260の透明度に決定してもよい。
更なる実施形態によると、前記測定された第1深度情報と前記推定された第2深度情報との間の差が予め決定した範囲内に含まれない場合、推定部220は更なる値として前記透明度を再推定し、前記再推定された透明度に基づいて前記オブジェクトの前記第2深度情報を再推定してもよい。比較部230は、前記第1深度情報と前記再推定された第2深度情報とを比較してもよい。前記第1深度情報と前記再推定された第2深度情報とが同一であるか、測定された第1深度情報と前記再推定された第2深度情報との間の差が予め一定の範囲以内である場合、判断部240は、オブジェクト260の透明度をオブジェクト260に対して推定された透明度であると判断する。
もし、再推定による第2深度情報と測定された第1深度情報との差が依然として予め決定した範囲内に含まれていない場合、推定部220は、前記推定された前景深度及び後景深度を変更して前記第2深度情報を再推定し、比較部230は、前記第1深度情報と前記再推定された第2深度情報とを比較する過程を繰り返してもよい。
図3は、例示的な実施形態により後景深度情報、前景深度情報、及びオブジェクトの第2深度情報を推定する方法を説明するための図である。図3に示す横軸は時間を示し、縦軸はパルスの大きさを示す。
図3に示すように、送信部が送信したパルス310は仮定される。送信したパルス310は赤外線として仮定されてもよく、実施形態によって可視光線、高周波、低周波などのように仮定されてもよい。送信部が送信したものとして仮定されるパルス310は、長さがT0(311)であり、大きさがA0(312)であってもよい。送信部は、深度カメラ(例えば、ToFカメラ)として仮定してもよい。
オブジェクトの第2深度情報を推定するために、オブジェクトは前景深度に位置するものと仮定してもよい。前景深度は、いずれかの位置からオブジェクトまでの距離を意味する。例えば、前景深度3D情報、処理装置の位置、測定部の位置、送信部の位置、深度カメラの位置などのような、いずれかの位置からオブジェクトまでの距離を意味する。
また、バックグラウンドは、後景深度に位置するものと仮定してもよい。後景深度は、いずれかの位置からバックグラウンドまでの距離を意味する。例えば、後景深度3D情報、処理装置の位置、測定部の位置、送信部の位置、深度カメラの位置などのような、いずれかの位置からバックグラウンドまでの距離を意味する。
オブジェクトの透明度が推定されてもよい。推定された透明度はオブジェクトに関する値として、0よりも大きいか同一であり、1よりも小さいか同一の値が選択されてもよい。
パルス(pulse)310が前記背景にぶつかったり照射する場合、バックグラウンドから反射した第2反射信号を仮定して後景深度情報320が算出されてもよい。後景深度情報320はオブジェクトに関する値として、例えば、パルス310が前記背景にぶつかる場合、オブジェクトを透過して仮定された後景深度でバックグラウンドから反射した第2反射信号を仮定して算出されてもよい。例えば、オブジェクトが推定された後景深度(estimated background depth)に位置すると仮定し、予め決定したモデリングによって、前記推定された後景深度情報320が算出されてもよい。
例えば、パルス310によってバックグラウンドから反射した信号が推定されてもよい。パルス310が前記背景にぶつかる場合、バックグラウンドから反射した信号は、深度カメラからバックグラウンド、そしてバックグラウンドから深度カメラまで進行するため、図3に示すtb(323)だけの時間が遅延される。また、オブジェクトを透過しながら、その大きさもrb・A0(322)に減少する。ここで、rbは、オブジェクトの推定された透明度により決定される定数として、「0」よりは大きいか同一であり、「1」よりも小さいか同一の値である。オブジェクトの推定された透明度が大きいほどrbの値は大きくなる。また、バックグラウンドから反射した信号の長さはT0(321)である。
パルス310が前記オブジェクトにぶつかる場合、オブジェクトから反射した第1反射信号を用いて前景深度情報330が算出されてもよい。前景深度情報330はオブジェクトに関する値として、例えば、推定された前景深度でオブジェクトから反射した第1反射信号を仮定して算出されてもよい。例えば、オブジェクトが推定された前景深度に位置すると仮定し、予め決定したモデリングによって前記推定された前景深度情報330が算出されてもよい。
例えば、パルス310が前記オブジェクトにぶつかる場合、オブジェクトから反射した信号が推定されてもよい。オブジェクトから反射した信号は、深度カメラからオブジェクト、そして、オブジェクトから深度カメラまで進行するため、図3に示すtf(333)だけの時間が遅延される。また、大きさもrf・A0(332)に減少する。ここでrf、は、定数として「0」より大きいか同一であり、「1」より小さいか同一の値である。また、オブジェクトから反射した信号の長さはT0(331)である。
前景深度情報、後景深度情報、及びオブジェクトの推定された透明度に基づいて第2深度情報340が推定されてもよい。
深度カメラが受信するものと推定される信号341は、バックグラウンドから反射した第2反射信号と、オブジェクトから反射した第1反射信号との和または組合のように表現されてもよい。それだけではなく、深度カメラが受信するものと推定された信号341は、バックグラウンドとオブジェクトとの間で繰り返し反射する信号を含んでもよい。深度カメラが受信するものと推定される信号341が算出された後、信号341に基づいて第2深度情報340が推定されてもよい。
図4は、オブジェクトの深度情報を決定する例示的な実施形態を説明するための図である。
図4を参照すると、オブジェクト420の後方にはバックグラウンド430が位置する。深度カメラ410を用いてオブジェクト420を撮影した映像には、バックグラウンド430に関する情報が含まれてもよい。特にオブジェクト420と光の少なくとも一部を透過させる場合(例えば、オブジェクト420が透明であるか半透明な場合)、オブジェクト420を撮影した画素にはオブジェクト420から反射した信号だけではなく、バックグラウンド430から反射した信号も含まれてもよい。
したがって、深度カメラ410を用いて受信された信号を分析して推定された第2深度情報は、下記の数式(2)のように、オブジェクト420の推定された前景深度、バックグラウンド430の推定された後景深度、及びオブジェクト420の推定された透明度によって決定される値であってもよい。
ここで、z^は推定された第2深度情報であり、zfは前景深度情報として、オブジェクト420の推定された前景深度でオブジェクト420から反射した反射信号を仮定して算出された値であってもよい。また、zbは後景深度情報として、バックグラウンド430の推定された後景深度でバックグラウンド430から反射した反射信号を仮定して算出された値であってもよい。
また、tはオブジェクト420の推定された透明度として、tの値が「0」である場合、オブジェクト420は不透明なオブジェクトであり、tの値が「1」の場合にオブジェクト420は完全に透明なオブジェクトである。tは0よりも大きいか同一であり、1よりも小さいか同一の値であってもよい。ここで、f(x)は関数を意味し、xは受信された信号の強度であってもよい。
一側面によると、前記数式(2)は下記の数式(3)のようにオブジェクト420から反射した信号及びバックグラウンド430から反射した信号を区分して表現されてもよい。
ここで、g-1(x)は関数g(x)の逆関数を意味し、g(x)は信号を受信する深度カメラの特性に応じて決定される関数であってもよい。Lf(440)はオブジェクト420の明るさであり、Lb(450)はバックグラウンド430の明るさであってもよい。
数式(3)で、g-1(x)に入力されたパラメータは3つの成分の和で構成される。最初の成分は、オブジェクト420から反射した信号の強度を示す。最初の成分は、オブジェクト420の前景深度情報zfの自乗に反比例し、オブジェクト420の明るさLf(440)に比例する。また、最初の成分はg(zf)に比例して、オブジェクト420が透明で透明度tが「1」に近接すれば小さい値を有し、オブジェクト420が不透明で透明度tが「0」に近接すれば大きい値を有する。
また、2番目の成分は、バックグラウンド430から反射した信号の強度を示す。2番目の成分はオブジェクト420の後景深度情報zbの自乗に反比例し、バックグラウンド430の明るさLb(450)に比例する。また、2番目の成分はg(zb)に比例して、オブジェクト420が透明で透明度tが「1」に近接すれば大きい値を有し、オブジェクト420が不透明で透明度tが「0」に近接すれば小さい値を有する。
3番目の成分は、バックグラウンド430から反射した信号が再びオブジェクト420に反射する場合を示す。オブジェクト420から反射した信号は再びバックグラウンド430に反射し、バックグラウンド430から反射した信号は再びオブジェクト420に反射してもよい。数式(3)において、iはバックグラウンド430からの反射回数を示す。3番目の成分は、オブジェクト420の後景深度情報zb及びオブジェクト420の後景深度情報zbと前景深度情報zfとの差に反比例する。
前述の内容を参考すると、推定部は、オブジェクト420の前景深度、後景深度及び透明度tを特定の値に推定し、推定された値に基づいて第2深度情報z^を推定してもよい。
ここで、バックグラウンドが平たいと仮定すると、後景深度情報zbは、深度カメラを用いて撮影した深度映像の全体に対して同一の値に仮定してもよい。また、オブジェクト420の透明度tも深度映像の全体に対して同一の値に仮定してもよい。
そして、推定部は、オブジェクト420が深度カメラ410に対応する特定の直線上に位置するものと仮定してもよい。この場合に、オブジェクト420の位置は3次元空間上の位置ではなく、1次元空間上の位置に制限される。
比較部は、測定された第1深度情報と推定された第2深度情報とを比較する。一側面によると、比較部は、測定された第1深度情報と推定された第2深度情報との間の差が予め決定した範囲以内に含まれているか否かを判断する。
判断部は、比較部の比較結果を用いてオブジェクトの第3深度情報を決定する。一側面によると、測定された第1深度情報と推定された第2深度情報との間の差が予め決定した範囲以内である場合、判断部はオブジェクトの第3深度情報が前記推定された第2深度情報であると判断する。また、判断部は、オブジェクト420が深度カメラ410に対応する特定の直線上に位置し、深度カメラからの距離は第3深度情報(例えば、前記オブジェクトの実際の深度情報)を用いて生成されてもよい。
他の側面によると、測定された第1深度情報と推定された第2深度情報との間の差が予め決定した範囲内に含まれていない場合、判断部は、第2深度情報を推定するための仮定(オブジェクト420の前景深度情報zf、後景深度情報zb、及びオブジェクト420の透明度tのうち少なくとも1つに対する仮定)が妥当ではないと判断する。推定部は仮定された前景深度、後景深度、及び透明度のうち少なくとも1つを変更して第2深度情報を再推定し、比較部230は、第1深度情報と再推定された第2深度情報とを比較してもよい。
例えば、測定された第1深度情報と推定された第2深度情報が同一であるか、測定された第1深度情報と推定された第2深度情報との間の差が予め一定の範囲以内である場合、オブジェクト420の第3深度情報(例えば、オブジェクト420の実際の深度情報)は、前記第2深度情報を算出するために用いられた、オブジェクト420の推定された前景深度であると決定されてもよい。
しかし、前記測定された第1深度情報と前記推定された第2深度情報との間の差が予め決定した範囲内に含まれない場合、推定部は、前記オブジェクトの推定されたオブジェクト420の前景深度、バックグラウンド430の後景深度、及びオブジェクト420の透明度を変更して前記第2深度情報を再推定してもよい。前記第1深度情報と前記再推定された第2深度情報とが同一であるか、測定された第1深度情報と前記再推定された第2深度情報との間の差が予め一定の範囲以内である場合、判断部はオブジェクト420の第3深度情報(例えば、オブジェクト420の実際の深度情報)が前記変更された前景深度であると判断する。もし、再推定による第2深度情報と測定された第1深度情報との差が依然として予め決定した範囲内に含まれていない場合、推定部は、前記オブジェクトの推定されたオブジェクト420の前景深度、バックグラウンド430の後景深度、及びオブジェクト420の透明度を再び変更して前記第2深度情報を再推定してもよい。
図5A及び図5Bは、複数の深度カメラを用いてオブジェクトの深度情報を測定する例示的な実施形態を説明するための図である。図5Aは、オブジェクトの仮定された前景深度が不正確な場合を示す図であり、図5Bはオブジェクトの仮定された前景深度が正確な場合を示す図である。
図5Aにおいて、複数の深度カメラ521、522は、バックグラウンド510から反射した信号及びオブジェクト520から反射した信号を受信する。
深度カメラ521、522に対応する一直線上にオブジェクト520の位置が仮定してもよい。オブジェクト520の仮定された位置551により前景深度情報が算出され、算出された前景深度情報に基づいて第2深度情報が推定されてもよい。オブジェクト520の仮定された位置551に応じてオブジェクトの前景深度が推定されてもよい。
図5Aにおいて、オブジェクト520の表面550は仮定された位置551より遠方に位置してもよい。したがって、仮定された前景深度は不正確であり、仮定された前景深度に基づいて推定された第2深度情報541、542は、測定された第1深度情報531、532と互いに異なってもよい。
図5Bでは、仮定された位置593がオブジェクト520の表面に正確に設定されている。この場合、仮定された前景深度に基づいて推定された第2深度情報と測定された第1深度情報581、582とは一致してもよい。
図5に示すように、複数の深度カメラ521、522を用いて深度映像を撮影し、撮影された深度映像を分析する場合には、各深度カメラ521、522を用いて取得された情報を組み合わせてオブジェクト520、570の位置またはオブジェクト520、570の深度情報をより正確に決定することができる。
図5では、2つの深度カメラ521、522を用いた実施形態が示されているが、他の実施形態によると、3D情報処理装置は、N個(ここで、Nは1と同一であるか大きい整数)の深度カメラを用いて予め決定したモデリングによって、深度情報を決定してもよい。多重深度カメラを用いる場合、深度は各カメラによって時間ドメインで数回測定される必要がない。これは、多重深度カメラを用いる場合、多重深度情報は同時に単一オブジェクト表面に対して取得される。より詳細には、実施形態においてオブジェクトの前景、背景、及び透明度は、例えば、予め決定したモデルを用いて深度測定の同時に推定された与えられたグループであってもよい。
モデリングは、オブジェクト570に関する値を入力にし、オブジェクト570の推定された第2深度情報を出力にする関数であってもよい。例えば、モデリングは、オブジェクト570の推定された前景深度情報、後景深度情報、及び透明度のうち少なくとも1つ以上(例えば、全て)を入力にし、オブジェクト570の推定された第2深度情報を出力にする関数であってもよい。前景深度情報は、オブジェクト570の推定された前景深度でオブジェクト570から反射した第1反射信号を仮定して算出される値であってもよい。後景深度情報は、オブジェクト570を透過して前記推定された後景深度でバックグラウンド560から反射した第2反射信号を仮定して算出される値であってもよい。前記透明度は、オブジェクト570に対して推定される透明度であってもよい。
この場合、オブジェクト570の前景深度、バックグラウンド560の後景深度、及びオブジェクト570の透明度が推定され、前記推定された3つの値に基づいてオブジェクト570の第2深度情報が推定されてもよい。この第2深度情報を深度カメラ591、592によって測定された深度情報と比較することによって、オブジェクト570の実際の深度情報を取得することができる。したがって、3つ以上の深度カメラを用いて測定された深度情報と推定された第2深度情報とを比較すると、より正確なオブジェクト570の実際の深度情報を生成することができる。
一実施形態によると、図2に示された測定部210は、N個(Nは1と同一であるか大きい整数)の深度カメラを含み、N個の深度カメラに対応するN個の第1深度情報を生成してもよい。前記N個の深度カメラのそれぞれは、オブジェクト260から反射した信号を受信する。推定部220は、前景深度、後景深度、及び透明度のうち少なくとも1つを仮定する。推定部220は、仮定された前景深度、後景深度、及び透明度に基づいて、N個の深度カメラに対応するN個の第2深度情報を推定してもよい。比較部230は、N個の深度カメラに対応するN個の第1深度情報のそれぞれとN個の深度カメラに対応するN個の第2深度情報をそれぞれ比較してもよい。判断部240は、前記比較部230の比較結果を用いてオブジェクト260の第3深度情報を決定してもよい。3つ以上の深度カメラを用いて深度情報を測定する場合(例えば、前記Nが3以上が場合)、より正確なオブジェクト260の実際の深度情報を生成してもよい。
図6は、複数の深度カメラを備えた3D情報処理装置の一実施形態を示す図である。例示的な実施形態に係る3D情報処理装置600は、図6に示すように、複数の深度カメラ610、620、630を備える。3D情報処理装置600は、複数の深度カメラ610、620、630を用いてオブジェクトに対する深度映像をそれぞれ撮影し、撮影された深度映像を分析してオブジェクトに対する深度情報をより正確かつ迅速に決定することができる。
複数の深度カメラ610、620、630のそれぞれは、オブジェクトの深度情報を測定してもよい。3D情報処理装置600のプロセッサ(図示せず)は、オブジェクトの前景深度、バックグラウンドの後景深度、及びオブジェクトの透明度を仮定し、オブジェクトの深度情報を推定してもよい。3D情報処理装置600のプロセッサは、前記推定された深度情報と前記測定された深度情報とを比較することによって、オブジェクトの深度情報を決定してもよい。本実施形態によると、オブジェクトが光を透過する場合にも、比較的に正確なオブジェクトの深度情報を生成することができる。
実施形態に係る3D情報処理装置600は、デジタルカメラ、携帯電話、携帯用電子機器などの様々な電子製品の一部として実現してもよい。
図6は、深度カメラが3つの場合を示すが、3D情報処理装置600に含まれる深度カメラの個数は4個以上であってもよい。また、3D情報処理装置600に配置される深度カメラ610、620、630の位置は、図6に示すものと異なってもよい。
図7は、例示的な実施形態に係る3D情報処理方法を説明するためのフローチャートである。
ステップS710において、3D情報処理装置は、オブジェクトの第1深度情報を測定する。ここで、3D情報処理装置は、深度カメラで実現される従来のTOF方式を用いて第1深度情報を測定してもよい。
一側面によると、3D情報処理装置はオブジェクトの方向にパルスを送信し、送信されたパルスがオブジェクトから反射した信号を用いてオブジェクトの第1深度情報を測定してもよい。一側面によると、3D情報処理装置が送信するパルスは赤外線パルスであってもよい。オブジェクトが光を透過する性質を有する場合、3D情報処理装置は赤外線が前記背景に照射される場合にオブジェクトから反射した信号、及び赤外線がオブジェクトを透過してバックグラウンドから反射した信号を用いてオブジェクトの第1深度情報を測定してもよい。
ステップS720において、3D情報処理装置はオブジェクトの位置を推定し、推定された位置、前景深度情報、後景深度情報に基づいてオブジェクトの第2深度情報を推定する。一実施形態によると、3D情報処理装置は、前記オブジェクトのチュンシン位置のように前記オブジェクトが位置する概略的な位置を推定することによって前記オブジェクトの位置を推定してもよい。
ここで、前記オブジェクトの前景深度情報は、オブジェクトの推定された位置でオブジェクトから反射した第1反射信号を仮定して推定されてもよい。後景深度情報は、オブジェクトを透過してバックグラウンドから反射した第2反射信号を仮定して算出されてもよい。一側面によると、3D情報処理装置は、前記説明された数式(2)または数式(3)により第2深度情報を推定してもよい。
一側面によると、3D情報処理装置はオブジェクトの透明度を推定し、推定された透明度、前記オブジェクトの前記推定された前景深度情報、前記後景深度情報に基づいてオブジェクトの第2深度情報を推定してもよい。ここで、推定された透明度はオブジェクトに関する値として、0よりも大きいか同一であり、1よりも小さいか同一の値であってもよい。
ステップS730において、3D情報処理装置は、前記オブジェクトの測定された第1深度情報と前記オブジェクトの推定された第2深度情報とを比較する。一側面によると、3D情報処理装置は、第1深度情報と第2深度情報との間の差が所定の閾値よりも小さいか否かを判断する。
もし、前記オブジェクトの第1深度情報と前記オブジェクトの第2深度情報との間の差が所定の閾値よりも小さくなければ、3D情報処理装置は、前記オブジェクトの第1深度情報と前記オブジェクトの第2深度情報と間の差が予め一定の範囲以内に含まれていないと判断する。この場合、3D情報処理装置は、ステップS720でオブジェクトの位置を他の値に再推定し、前記オブジェクトの再推定された位置に応じてオブジェクトの第2深度情報を推定してもよい。もし、2番目の繰り返しで、前記オブジェクトの前記第1深度情報と前記オブジェクトの前記第2深度情報との間の差が予め決定した閾値よりも大きいか同一であれば、前記3D情報処理装置は、再び更なる値に前記オブジェクトの前記位置を再推定してもよく、他の位置値を有する以後繰り返し算出は、前記第1深度情報と前記第2深度情報との間の差が予め決定した閾値よりも小さくなるまで行われてもよい。他の実施形態で、前記3D情報処理装置は、第1深度情報と第2深度情報との間の差が最小化するまで前記オブジェクトの前記位置を再推定してもよい。
もし、1深度情報と第2深度情報との間の差が所定の閾値よりも小さければ、3D情報処理装置は、オブジェクトの第3深度情報(例えば、オブジェクトの実際の深度情報)がオブジェクトの推定された前景深度であると決定してもよい。または、3D情報処理装置は、オブジェクトの第3深度情報(例えば、オブジェクトの実際の深度情報)が推定された第2深度情報と決定してもよい。
更なる実施形態によると、ステップS720において、3D情報処理装置はオブジェクトの透明度を仮定し、仮定された透明度に基づいてオブジェクトの第2深度情報を推定する。
この場合に、ステップS730において、第1深度情報と第2深度情報との間の差が所定の閾値よりも小さくなければ、3D情報処理装置は、ステップS720でオブジェクトの透明度を他の値に再推定し、再推定された透明度に応じてオブジェクトの第2深度情報を推定する。例えば、前記オブジェクトの前記第1深度情報と前記オブジェクトの前記第2深度情報との間の差が予め定めた閾値よりも大きいか同一である場合、最初の繰り返し結果で0.1の透明度値が用いられる場合、0.2の透明度値は2番目の繰り返しで用いてもよい。2番目の繰り返しで前記オブジェクトの第1深度情報と前記オブジェクトの第2深度情報との間の差が予め定めた閾値よりも大きいか同一である場合、前記3D情報処理装置は更なる値(例えば、0.3のような値)として透明度を再推定してもよく、他の透明度を有する以後繰り返し算出は、第1深度情報と第2深度情報との間の差が予め定めた閾値よりも小さくなるまで行われてもよい。
第1深度情報と第2深度情報との間の差が所定の閾値よりも小さければ、ステップS740において、3D情報処理装置はオブジェクトに対して推定された透明度がオブジェクトの実際透明度であると判断する。
実施形態に係る方法は、 様々なコンピュータ手段を介して様々な処理を実行することができるプログラム命令の形態で実現され、コンピュータ読取可能な記録媒体に記録されてもよい。コンピュータ読取可能な媒体は、プログラム命令、データファイル、データ構造などのうち1つまたはその組合せを含んでもよい。媒体に記録されるプログラム命令は、本発明の目的のために特別に設計されて構成されたものでもよく、コンピュータソフトウェア分野の技術を有する当業者にとって公知のものであり、使用可能なものであってもよい。コンピュータ読取可能な記録媒体の例としては、ハードディスク、フロッピー(登録商標)ディスク及び磁気テープのような磁気媒体、CD−ROM、DVDのような光記録媒体、光ディスクのような光磁気媒体、及びROM、RAM、フラッシュメモリなどのようなプログラム命令を保存して実行するように特別に構成されたハードウェア装置が含まれてもよい。プログラム命令の例には、コンパイラによって作られるような機械語コードだけでなく、インタープリタなどを用いてコンピュータによって実行できる高級言語コードが含まれる。前記したハードウェア装置は、本発明の動作を行うために1つ以上のソフトウェアモジュールとして作動するように構成されてもよく、その逆も同様である。前述したソフトウェアモジュールは、1つ以上のモジュールに共通するプロセッサにより、または当該のユニットに固有の専用プロセッサのようなコントローラにより実行されてもよい。前述の方法は、コンピュータまたはプロセッサの一般的な用途上で実行されたり前述した装置のような特定装置上で実行されてもよい。
上述したように、本発明を限定された実施形態と図面によって説明したが、本発明は、上記の実施形態に限定されることなく、本発明が属する分野における通常の知識を有する者であれば、このような実施形態から様々な修正及び変形が可能である。
したがって、本発明の範囲は、開示された実施形態に限定されるものではなく、特許請求の範囲だけではなく特許請求の範囲と均等なものなどによって定められるものである。

Claims (28)

  1. 1つ以上の処理実行ユニットを制御するプロセッサと、
    オブジェクトの第1深度情報を測定する測定部と、
    前記オブジェクトの前景深度、バックグラウンドの後景深度、及び前記オブジェクトの透明度を推定し、推定された前記前景深度、前記後景深度、及び前記透明度に基づいて、第2深度情報を推定する推定部と、
    測定された前記第1深度情報と推定された前記第2深度情報とを比較する比較部と、
    前記比較部の比較結果を用いて、前記オブジェクトの第3深度情報を決定する決定部と、
    を備えることを特徴とする3D情報処理装置。
  2. 前記推定部は、推定された前記前景深度、前記後景深度、及び前記透明度に基づいて、予め決定したモデリングによって前記第2深度情報を推定することを特徴とする請求項1に記載の3D情報処理装置。
  3. 前記推定部は、
    推定された前記前景深度で前記オブジェクトから反射した第1反射信号を利用して算出される前景深度情報と、
    前記オブジェクトを透過して前記推定された後景深度でバックグラウンドから反射した第2反射信号を利用して算出される後景深度情報と、
    前記オブジェクトの推定された前記透明度と
    に基づいて前記第2深度情報を推定することを特徴とする請求項2に記載の3D情報処理装置。
  4. 前記推定部は、
    前記推定された前景深度で前記オブジェクトから反射した第1反射信号を利用して算出される前景深度情報と、
    前記オブジェクトの明るさと、
    前記オブジェクトを透過して推定された前記後景深度でバックグラウンドから反射した第2反射信号を利用して算出される後景深度情報と、
    前記バックグラウンドの明るさと、
    前記オブジェクトの推定された前記透明度と、
    のうち少なくとも1つに基づいて前記第2深度情報を推定することを特徴とする請求項2に記載の3D情報処理装置。
  5. 前記モデリングは、下記の数式によって前記第2深度情報を推定することを特徴とする請求項2に記載の3D情報処理装置。

    (ここで、z^は推定された前記第2深度情報であり、g(x)は前記第1深度情報を測定する深度カメラの特性に応じて決定される関数であり、xは受信された信号の強度であり、tは前記オブジェクトの推定された透明度であり、Lbは推定された前記後景深度でのバックグラウンドの明るさであり、Lfは前記オブジェクトの明るさであり、zfは推定された前記前景深度で前記オブジェクトから反射した第1反射信号を仮定して算出される前景深度情報であり、zbは前記オブジェクトを透過して前記バックグラウンドから反射した第2反射信号を仮定して算出される後景深度情報である)
  6. 前記決定部は、測定された前記第1深度情報と推定された前記第2深度情報との間の差が予め決定した範囲以内である場合、前記オブジェクトの第3深度情報が推定された前記第2深度情報であると判断することを特徴とする請求項1〜5のうち何れか1項に記載の3D情報処理装置。
  7. 測定された前記第1深度情報と推定された前記第2深度情報との間の差が予め決定した範囲内に含まれない場合、前記推定部は、推定された前記前景深度及び後景深度を変更して前記第2深度情報を再推定し、前記比較部は前記第1深度情報と再推定された第2深度情報とを比較することを特徴とする請求項2に記載の3D情報処理装置。
  8. 前記測定部は、前記オブジェクトから反射した信号を受信するN個(Nは1以上の整数)の深度カメラを含み、前記N個の深度カメラに対応するN個の第1深度情報を生成し、
    前記推定部は、推定された前記前景深度、後景深度、及び透明度に基づいて、前記N個の深度カメラに対応するN個の第2深度情報を推定し、
    前記比較部は、前記N個の深度カメラに対応する前記N個の第1深度情報のそれぞれと前記N個の第2深度情報のそれぞれとを比較することを特徴とする請求項2に記載の3D情報処理装置。
  9. 前記測定部は、前記オブジェクトの方向に赤外線を送信する送信部を含み、
    前記赤外線が前記オブジェクトから反射した信号及び前記赤外線によって背景が照射される場合、前記オブジェクトを透過してバックグラウンドから反射した信号を用いて前記オブジェクトの前記第1深度情報を測定することを特徴とする請求項1〜8のうち何れか1項に記載の3D情報処理装置。
  10. 1つ以上の処理実行ユニットを制御するプロセッサと、
    オブジェクトの第1深度情報を測定する測定部と、
    前記オブジェクトの位置及び透明度を推定し、推定された位置及び透明度に基づいて前記オブジェクトの第2深度情報を推定する推定部と、
    測定された前記第1深度情報と推定された前記第2深度情報とを比較する比較部と、
    前記比較部の比較結果に応じて、前記オブジェクトの透明度を決定する決定部と、
    を備えることを特徴とする3D情報処理装置。
  11. 前記推定部は、
    前記推定された位置で前記オブジェクトから反射した第1反射信号を利用して算出される前景深度情報と、
    前記オブジェクトを透過してバックグラウンドから反射した第2反射信号を利用して算出される後景深度情報と、
    前記オブジェクトの推定された前記透明度と、
    に基づいて前記第2深度情報を推定することを特徴とする請求項10に記載の3D情報処理装置。
  12. 測定された前記第1深度情報と推定された前記第2深度情報との間の差が予め決定した範囲内に含まれない場合、
    前記推定部は、推定された位置を変更して前記第2深度情報を再推定し、
    前記比較部は、前記第1深度情報と再推定された第2深度情報とを比較することを特徴とする請求項10に記載の3D情報処理装置。
  13. 深度カメラを用いてオブジェクトの第1深度情報を測定するステップと、
    前記オブジェクトの前景深度、バックグラウンドの後景深度、及び前記オブジェクトの透明度を推定し、推定された前記前景深度、前記後景深度、及び前記透明度に基づいて、第2深度情報をプロセッサにより推定するステップと、
    測定された前記第1深度情報と推定された第2深度情報と比較することによって、前記オブジェクトの第3深度情報を決定するステップと、
    を含むことを特徴とする3D情報処理方法。
  14. 推定された前記第2深度情報は、推定された前記前景深度、後景深度、及び透明度に基づいて、予め決定したモデリングによって推定されることを特徴とする請求項13に記載の3D情報処理方法。
  15. 前記推定された第2深度情報は、
    前記推定された前景深度で前記オブジェクトから反射した第1反射信号を利用して算出される前景深度情報と、
    前記オブジェクトを透過して推定された前記後景深度でバックグラウンドから反射した第2反射信号を利用して算出される後景深度情報と、
    前記オブジェクトの推定された透明度と、
    に基づいて推定されることを特徴とする請求項14に記載の3D情報処理方法。
  16. 推定された前記第2深度情報は、
    推定された前記前景深度で前記オブジェクトから反射した第1反射信号を利用して算出される前景深度情報と、
    前記オブジェクトの明るさと、
    前記オブジェクトを透過して前記推定された後景深度でバックグラウンドから反射した第2反射信号を利用して算出される後景深度情報と、
    前記バックグラウンドの明るさと、
    前記オブジェクトの推定された透明度と、
    のうち少なくとも1つに基づいて推定されることを特徴とする請求項14に記載の3D情報処理方法。
  17. 前記モデリングは、下記の数式によって前記第2深度情報を推定することを特徴とする請求項14に記載の3D情報処理方法。
    (ここで、z^は前記推定された第2深度情報であり、g(x)は前記第1深度情報を測定する深度カメラの特性に応じて決定される関数であり、xは受信された信号の強度であり、tは前記オブジェクトの透明度であり、Lbは前記後景深度でのバックグラウンドの明るさであり、Lfは前記オブジェクトの明るさであり、zfは前記推定された前景深度で前記オブジェクトから反射した第1反射信号を仮定して算出される前景深度情報であり、zbは前記オブジェクトを透過して前記バックグラウンドから反射した第2反射信号を仮定して算出される後景深度情報である)
  18. 推定された前記第2深度情報は、前記オブジェクトの位置を推定し、推定された位置に基づいて予め決定したモデリングによって推定されることを特徴とする請求項13〜17のうち何れか1項に記載の3D情報処理方法。
  19. 前記オブジェクトの第3深度情報を決定する前記ステップは、測定された前記第1深度情報と推定された前記第2深度情報との間の差が予め決定した範囲以内である場合、前記オブジェクトの第3深度情報が前記推定された前景深度であると判断するステップを含むことを特徴とする請求項14に記載の3D情報処理方法。
  20. 請求項13ないし請求項19のいずれか1項に記載の3D情報処理方法をコンピュータに実行させるコンピュータプログラム。
  21. 深度カメラを用いてオブジェクトの第1深度情報を測定するステップと、
    前記オブジェクトの透明度及び前記オブジェクトの位置をプロセッサにより推定するステップと、
    前記透明度及び前記オブジェクトの推定された位置に基づいて前記オブジェクトの第2深度情報を推定するステップと、
    測定された前記第1深度情報と推定された前記第2深度情報とを比較することによって、前記オブジェクトの透明度を決定するステップと、
    を含むことを特徴とする3D情報処理方法。
  22. 前記オブジェクトの前景深度、バックグラウンドの後景深度、及び前記オブジェクトの透明度が推定され、前記第2深度情報は、推定された前記前景深度、前記後景深度、及び前記透明度に基づいて予め決定したモデリングによって推定されることを特徴とする請求項21に記載の3D情報処理方法。
  23. 推定された前記第2深度情報は、
    推定された前記前景深度で前記オブジェクトから反射した第1反射信号を利用して算出される前景深度情報と、
    前記オブジェクトを透過して推定された前記後景深度でバックグラウンドから反射した第2反射信号を利用して算出される後景深度情報と、
    前記オブジェクトの推定された前記透明度と、
    に基づいて推定されることを特徴とする請求項22に記載の3D情報処理方法。
  24. 請求項21ないし請求項23のいずれか1項に記載の3D情報処理方法をコンピュータに実行させるコンピュータプログラム。
  25. オブジェクトの前景深度を推定し、前記前景深度で前記オブジェクトから反射した第1反射信号を利用して算出される前景深度情報と、
    後景深度を推定し、前記オブジェクトを透過して前記後景深度でバックグラウンドから反射した第2反射信号を利用して算出される後景深度情報と、
    前記オブジェクトの推定された透明度と、
    に基づいて前記オブジェクトの深度情報を推定することを特徴とする3D情報処理方法。
  26. 請求項25に記載の3D情報処理方法をコンピュータに実行させるコンピュータプログラム。
  27. オブジェクトが透明であるか否かを判断する方法であって、
    複数の異なる深度カメラを用いて前記オブジェクトの深度値をキャプチャーするステップと、
    前記複数の異なる深度カメラを用いてキャプチャーされた前記オブジェクトの前記深度値をプロセッサにより比較するステップと、
    比較された前記オブジェクトの深度値が異なる場合、前記オブジェクトが少なくとも或る程度の透明度を有するものと判断するステップと、
    を含むことを特徴とするオブジェクトが透明であるか否かを判断する方法。
  28. 請求項27に記載の方法をコンピュータに実行させるコンピュータプログラム。
JP2015511362A 2012-05-10 2013-05-08 3d情報処理装置及び方法 Active JP6239594B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201261645239P 2012-05-10 2012-05-10
US61/645,239 2012-05-10
KR1020120120948A KR101893771B1 (ko) 2012-05-10 2012-10-30 3d 정보 처리 장치 및 방법
KR10-2012-0120948 2012-10-30
PCT/KR2013/004010 WO2013168998A1 (en) 2012-05-10 2013-05-08 Apparatus and method for processing 3d information

Publications (2)

Publication Number Publication Date
JP2015524915A JP2015524915A (ja) 2015-08-27
JP6239594B2 true JP6239594B2 (ja) 2017-11-29

Family

ID=49854537

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015511362A Active JP6239594B2 (ja) 2012-05-10 2013-05-08 3d情報処理装置及び方法

Country Status (6)

Country Link
US (1) US9323977B2 (ja)
EP (1) EP2848002B1 (ja)
JP (1) JP6239594B2 (ja)
KR (1) KR101893771B1 (ja)
CN (1) CN104272731B (ja)
WO (1) WO2013168998A1 (ja)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101941907B1 (ko) * 2013-01-03 2019-01-24 삼성전자주식회사 깊이 정보를 이용하는 내시경 및 깊이 정보를 이용하는 내시경에 의한 용종 검출 방법
US9064295B2 (en) * 2013-02-04 2015-06-23 Sony Corporation Enhanced video encoding using depth information
US10534072B2 (en) * 2014-02-24 2020-01-14 Nec Corporation Object detection device, POS terminal device, object detection method, program, and program recording medium
US9805506B2 (en) * 2014-03-07 2017-10-31 Microsoft Technology Licensing, Llc Physical 3D renderer
CN106797458B (zh) * 2014-07-31 2019-03-08 惠普发展公司,有限责任合伙企业 真实对象的虚拟改变
US9507995B2 (en) * 2014-08-29 2016-11-29 X Development Llc Combination of stereo and structured-light processing
US10403033B2 (en) 2016-07-12 2019-09-03 Microsoft Technology Licensing, Llc Preserving scene lighting effects across viewing perspectives
CN107958446B (zh) * 2016-10-17 2023-04-07 索尼公司 信息处理设备和信息处理方法
CN108413864B (zh) * 2017-02-10 2020-07-17 菜鸟智能物流控股有限公司 物体尺寸测量方法及相关设备
CN108307186B (zh) * 2018-02-07 2020-02-14 深圳市华星光电半导体显示技术有限公司 裸眼3d图像的显示控制方法、装置、存储介质及终端
US10607388B2 (en) 2018-02-07 2020-03-31 Shenzhen China Star Optoelectronics Semiconductor Display Technology Co., Ltd. Display control method, display control device, storage medium and terminal of autostereoscopic three-dimensional (3D) image
CN108871224B (zh) * 2018-06-06 2020-04-21 杭州电子科技大学 一种用于led玻璃灯杯的凹槽深度检测方法
JP2021080002A (ja) * 2019-11-21 2021-05-27 東洋製罐株式会社 収容体、印刷缶、及び収容体の製造方法
US11543931B2 (en) * 2021-01-27 2023-01-03 Ford Global Technologies, Llc Systems and methods for interacting with a tabletop model using a mobile device
JP2024004873A (ja) * 2022-06-29 2024-01-17 パナソニックIpマネジメント株式会社 撮影装置及び撮影方法
CN116703995A (zh) * 2022-10-31 2023-09-05 荣耀终端有限公司 视频虚化处理方法和装置

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA1169368A (en) 1981-06-01 1984-06-19 Rockwell International Corporation Roller retainer for brake assembly
GB2206429A (en) * 1987-07-02 1989-01-05 Infrared Eng System determining properties or identity of a sample
JPH05205191A (ja) * 1992-01-24 1993-08-13 Nissan Motor Co Ltd 障害物検出装置
US5506407A (en) * 1993-12-21 1996-04-09 Minnesota Mining & Manufacturing Company High resolution high speed film measuring apparatus and method
JPH08287253A (ja) * 1995-04-11 1996-11-01 N T T Data Tsushin Kk 物体形状の推定方法および物体形状推定装置
GB2304483B (en) * 1995-08-18 2000-03-29 London Electricity Plc System for and method of determining the location of an object in a medium
US5917937A (en) * 1997-04-15 1999-06-29 Microsoft Corporation Method for performing stereo matching to recover depths, colors and opacities of surface elements
GB2359230B (en) * 1999-11-11 2004-02-11 Canon Kk Computer graphics apparatus
DE102005009437A1 (de) * 2005-03-02 2006-09-07 Kuka Roboter Gmbh Verfahren und Vorrichtung zum Einblenden von AR-Objekten
KR100708352B1 (ko) * 2006-03-07 2007-04-18 한국과학기술원 모아레 원리의 2π 모호성과 위상천이 수단이 없도록실시되는 3차원 형상 측정장치 및 그 방법
DE102006015792A1 (de) * 2006-04-05 2007-10-18 Isra Surface Vision Gmbh Verfahren und System zur Formmessung einer reflektierenden Oberfläche
KR100790892B1 (ko) 2006-10-18 2008-01-02 삼성전자주식회사 투명 객체의 화질 향상을 위한 3차원 그래픽스 데이터렌더링 방법 및 장치
US7720371B2 (en) * 2007-01-18 2010-05-18 Nikon Corporation Depth layer extraction and image synthesis from focus varied multiple images
US20080309913A1 (en) * 2007-06-14 2008-12-18 James John Fallon Systems and methods for laser radar imaging for the blind and visually impaired
US8345751B2 (en) * 2007-06-26 2013-01-01 Koninklijke Philips Electronics N.V. Method and system for encoding a 3D video signal, enclosed 3D video signal, method and system for decoder for a 3D video signal
US8218061B2 (en) * 2008-09-04 2012-07-10 Csr Technology Inc. Apparatus, method, and manufacture for iterative auto-focus using depth-from-defocus
US10043304B2 (en) 2008-09-25 2018-08-07 Koninklijke Philips N.V. Three dimensional image data processing
JP5369952B2 (ja) * 2009-07-10 2013-12-18 ソニー株式会社 情報処理装置および情報処理方法
KR101699920B1 (ko) * 2009-10-07 2017-01-25 삼성전자주식회사 깊이 조절 방법 및 장치
KR101626072B1 (ko) * 2009-11-13 2016-06-13 삼성전자주식회사 영상 보정 장치 및 영상 보정 방법
US8902229B2 (en) * 2010-01-13 2014-12-02 Samsung Electronics Co., Ltd. Method and system for rendering three dimensional views of a scene
JP5804467B2 (ja) * 2010-03-31 2015-11-04 北陽電機株式会社 信号処理装置、及び走査式測距装置
KR20110116325A (ko) 2010-04-19 2011-10-26 삼성전자주식회사 영상 처리 장치 및 그 방법
KR101681095B1 (ko) * 2010-08-24 2016-12-02 삼성전자주식회사 컬러 영상과 시점 및 해상도가 동일한 깊이 영상 생성 방법 및 장치
US10554955B2 (en) * 2010-10-11 2020-02-04 Texas Instruments Incorporated Method and apparatus for depth-fill algorithm for low-complexity stereo vision
KR101681538B1 (ko) 2010-10-20 2016-12-01 삼성전자주식회사 영상 처리 장치 및 방법
WO2013012335A1 (en) * 2011-07-21 2013-01-24 Ziv Attar Imaging device for motion detection of objects in a scene, and method for motion detection of objects in a scene

Also Published As

Publication number Publication date
EP2848002A4 (en) 2016-01-20
CN104272731A (zh) 2015-01-07
EP2848002B1 (en) 2021-03-17
EP2848002A1 (en) 2015-03-18
US9323977B2 (en) 2016-04-26
KR20130126436A (ko) 2013-11-20
KR101893771B1 (ko) 2018-08-31
WO2013168998A1 (en) 2013-11-14
CN104272731B (zh) 2017-04-26
US20130301907A1 (en) 2013-11-14
JP2015524915A (ja) 2015-08-27

Similar Documents

Publication Publication Date Title
JP6239594B2 (ja) 3d情報処理装置及び方法
Keselman et al. Intel realsense stereoscopic depth cameras
TWI536318B (zh) 深度測量之品質提升
US20210241495A1 (en) Method and system for reconstructing colour and depth information of a scene
EP2531979B1 (en) Depth camera compatibility
US10424078B2 (en) Height measuring system and method
EP3135033B1 (en) Structured stereo
US20110187820A1 (en) Depth camera compatibility
KR20130099735A (ko) 원거리 획득이 가능한 tof카메라와 스테레오 카메라의 합성 시스템 및 방법
KR101666854B1 (ko) 복수 개의 깊이 영상에 기초한 깊이 영상 접힘 제거 장치 및 방법
US9171393B2 (en) Three-dimensional texture reprojection
EP3756164B1 (en) Methods of modeling a 3d object, and related devices and computer program products
US11816854B2 (en) Image processing apparatus and image processing method
US10593054B2 (en) Estimation of 3D point candidates from a location in a single image
US20230245396A1 (en) System and method for three-dimensional scene reconstruction and understanding in extended reality (xr) applications
US11195290B2 (en) Apparatus and method for encoding in structured depth camera system
Grunnet-Jepsen et al. Intel® RealSense™ Depth Cameras for Mobile Phones
Xiao et al. Performance characterization of a high-speed stereo vision sensor for acquisition of time-varying 3D shapes
JP2015005200A (ja) 情報処理装置、情報処理システム、情報処理方法、プログラムおよび記憶媒体
CN113673284B (zh) 深度相机抓拍方法、系统、设备及介质
Honauer Performance Metrics and Test Data Generation for Depth Estimation Algorithms
CN113673285B (zh) 深度相机抓拍时的深度重建方法、系统、设备及介质
JP6942567B2 (ja) 情報処理装置、情報処理方法及びコンピュータプログラム
Zeineldin et al. FRANSAC: Fast RANdom sample consensus for 3D plane segmentation
Kennedy Stereo vision for real-time obstacle detection

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160502

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170404

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170517

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171010

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171101

R150 Certificate of patent or registration of utility model

Ref document number: 6239594

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250