JP2019534599A - 多層シフトを使用してステレオビジョンを容易にするための方法および装置 - Google Patents

多層シフトを使用してステレオビジョンを容易にするための方法および装置 Download PDF

Info

Publication number
JP2019534599A
JP2019534599A JP2019512883A JP2019512883A JP2019534599A JP 2019534599 A JP2019534599 A JP 2019534599A JP 2019512883 A JP2019512883 A JP 2019512883A JP 2019512883 A JP2019512883 A JP 2019512883A JP 2019534599 A JP2019534599 A JP 2019534599A
Authority
JP
Japan
Prior art keywords
image
background layer
segmentation
layer
depth image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019512883A
Other languages
English (en)
Other versions
JP6795689B2 (ja
Inventor
ユアン ボディ
ユアン ボディ
ベルダンディー ムニンダー
ベルダンディー ムニンダー
Original Assignee
ノキア テクノロジーズ オサケユイチア
ノキア テクノロジーズ オサケユイチア
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ノキア テクノロジーズ オサケユイチア, ノキア テクノロジーズ オサケユイチア filed Critical ノキア テクノロジーズ オサケユイチア
Publication of JP2019534599A publication Critical patent/JP2019534599A/ja
Application granted granted Critical
Publication of JP6795689B2 publication Critical patent/JP6795689B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20036Morphological image processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0092Image segmentation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Analysis (AREA)

Abstract

【課題】多層シフトを使用してステレオビジョンを容易にするための方法、装置およびコンピュータ・プログラム・プロダクトの提供。【解決手段】本願方法の1つの例は、それぞれ異なる位置からキャプチャした第1のRGB画像および第2のRGB画像を受信するステップと、対応する深度画像を生成するステップと、その深度画像において第1のセグメント化を実行するステップと、第1のオブジェクトマスクおよび第1のオブジェクトマスクをもたらすRGB画像において第2のセグメント化を実行するステップと、背景層を形成するために背景層のステッチを行うステップと、前記背景層のシフトよりも速い速度で行われるオブジェクト層のシフトを示す、第1の位置からのビューを表す第1の画像および第2の位置からのビューを表す第2の画像を含む一連の画像を生成するステップと、を含む。【選択図】図3

Description

本願発明の実施形態は、概して、オクルージョンの影響を打ち消すための画像処理、立体視、画像セグメント化技術の利用に関する。特に、多層シフトを使用して立体視を容易にするための様々な方法、装置、およびコンピュータ・プログラム製品に関する。
従来の技術は、ステレオビジョンビューを構築するためにシーンパノラマを利用しようと試みることがあるが、ビューの移動中にオクルージョンが発生し、したがって、そのシーンは現実性を欠いている。本出願は、オクルージョン効果を考慮して異なる位置から撮影された2つのシーン間のビューの補間を提供し、それはより現実的なシーンの生成をもたらす。
図5は、従来の技法がシーンを生成するために使用されるときのオクルージョンを実証する図を示す。例えば、位置Aにある撮像装置が2つの球体が重なり合う画像を取り込む一方、位置Bにあるとき、撮像装置は2つの球体が重ならない画像を取り込む。図6Aは位置Aにおける2つの重なり合った球の画像を示し、一方、図6Bは2つの球が存在する場合の画像を示す。パノラマ画像を使用している場合は、ユーザが位置Bに移動したときにオーバーラップすることになるが、唯一の変更はパノラマ画像の表示が移動することである。図2Bに示す図は現実性を欠いている。
これに関して、既知および既存のシステムを改善するための領域が特定されている。適用された努力、創意工夫、および革新を通じて、そのようなシステムを改善するための解決策が実現されており、本願発明の実施形態に関連して説明されている。
したがって、多層シフトを使用することによって立体視を容易にするための方法、装置およびコンピュータ・プログラム製品が本願発明の例示的な実施形態にしたがって提供される。すなわち、本願発明の実施形態は、画像をいくつかの層に切断し、異なる層を異なる速度でシフトさせることによって立体視におけるオクルージョンの問題を解決することを目的とする。これは、現実の世界における動きの見方と同じまたは類似の効果をもたらすことができる。
いくつかの実施形態では、本明細書に記載の方法の利点は、立体視におけるオクルージョンの問題が解決され得る。さらに、本明細書に記載の実施形態は、低い計算複雑性しか必要としない。
いくつかの実施形態では、少なくとも第1の画像を受け取ることを含む方法を提供することができ、第1の画像は、第1の位置からキャプチャされたオブジェクトを含む。第2の画像は、第2の位置からキャプチャされたオブジェクトを含み、第2の位置とは異なる。少なくとも第1の深度画像を受け取り、第1の深度画像は第1の画像に対応し、第2の深度画像は第2の画像に対応する。第1のセグメント化を引き起こし、この第1のセグメント化は、第1の深度画像および第2の深度画像に対して実行され、所定の閾値に基づいて、第1のオブジェクトマスクおよび第2のオブジェクトマスクを含む一組の画像をもたらす。第2のセグメント化を引き起こし、この第2のセグメント化は第1の画像と第2の画像に対して実行され、第1のオブジェクトマスクと第2のオブジェクトマスクを制約条件として利用する。第2のセグメント化は、第1のオブジェクト画像、第2のオブジェクト画像、第1の背景層、および第2の背景層を含むセグメントのセットをもたらす。第1の背景層と第2の背景層とのステッチングを引き起こし、背景層を形成し、一連の画像を生成する。一連の画像は、第1の位置からのビューを表す第1の画像および第2の位置からのビューを表す第2の画像を含む。一連の画像は、背景層のシフトよりも高速で行われるオブジェクト層のシフトを示す。
いくつかの実施形態では、第1の画像は背景層で補間された第1のオブジェクト画像を含み、第2の画像は背景層で補間された第2のオブジェクト画像を含む。いくつかの実施形態では、第2のセグメント化は最大フロー最小カットアルゴリズムにしたがって実行される。
いくつかの実施形態では、本願方法は、第1の背景層と第2の背景層とのステッチングから生じる第1の穴埋めステップと、近くの有効画素に関連する値を平均するためのプロセスを実行し、その平均を黒領域内の画素に対する新しい値として設定することを含む第2の穴埋めステップとをさらに含むことができる。
いくつかの実施形態では、第1のセグメント化ステップはさらに、第1の画像および第2の画像からそれぞれ第1の深度画像および第2の深度画像を生成することを含む。いくつかの実施形態では、本願方法は、距離に対応する所定の閾値を設定することをさらに含み得る。深度画像セグメント化から人の形状マスクを利用してオブジェクト層を識別し、画像の逆行列を決定し、その逆行列を背景マスクにする。いくつかの実施形態では、層のシフトの異なる速度は、オブジェクト層と背景層との間の距離に間接的に比例する。
いくつかの実施形態では、少なくとも1つのプロセッサと、コンピュータ・プログラム・コードを含む少なくとも1つのメモリとを備える装置が提供されることができる。コンピュータ・プログラム・コードは、プロセッサと共に、少なくとも、第1の位置からキャプチャされたオブジェクトを含む第1の画像、および、第2の位置からキャプチャされたオブジェクトを含む第2の画像であって、第1の位置は第2の位置とは異なる、第2の画像を装置に受信させるように構成され、装置は、少なくとも第1の深度画像を受け取るように構成され、第1の深度画像は第1の画像に対応し、第2の深度画像は、第2の画像に対応する。装置は、第1のセグメント化を生じさせるように構成され、第1のセグメント化は第1の深度画像および第2の深度画像に対して行われる。また、予め定められた閾値に基づいて、第1のセグメント化は、第1のオブジェクトマスクと第2のオブジェクトマスクとを含む一組の画像をもたらす。装置は、第2のセグメント化を引き起こすように構成され、第2のセグメント化は第1の画像と第2の画像に対して実行され、第1のオブジェクトマスクと第2のオブジェクトマスクを制約として利用する。第2のセグメント化は、第1のオブジェクト画像、第2のオブジェクト画像、第1の背景層、および第2の背景層を含むセグメントのセットをもたらす。第1の背景層と第2の背景層とをつなぎ合わせて背景層を形成し、一連の画像を生成する。一連の画像は、第1の位置からのビューを表す第1の画像と、第2の位置からのビューを表す第2の画像とを含む。一連の画像は、背景層のシフトよりも速い速度で行われるオブジェクト層のシフトを示す。
いくつかの実施形態では、第1の画像は背景層で補間された第1のオブジェクト画像を含み、第2の画像は背景層で補間された第2のオブジェクト画像を含む。いくつかの実施形態では、第2のセグメント化は最大フロー最小カットアルゴリズムにしたがって実行される。
いくつかの実施形態では、少なくとも1つのメモリおよびコンピュータ・プログラム・コードは、プロセッサを用いて、第1の背景層と第2の背景層とのステッチングから生じる第1の穴埋めステップを装置に実行させ、近傍の有効画素に関連する値を平均するためのプロセスを実行し、その平均を黒領域内の画素に対する新しい値として設定することを含む第2の穴埋めステップを実行させる。
いくつかの実施形態では、第1のセグメント化ステップはさらに、第1の画像および第2の画像からそれぞれ第1の深度画像および第2の深度画像を生成することを含む。いくつかの実施形態では、少なくとも1つのメモリおよびコンピュータ・プログラム・コードは、プロセッサを用いて、距離に対応する所定の閾値を装置に設定させるようにさらに構成される。深度画像セグメント化から人の形状マスクを利用してオブジェクト層を識別し、画像の逆行列を決定し、その逆行列を背景マスクにする。
いくつかの実施形態では、層のシフトが異なる速度は、オブジェクト層と背景層との間の距離に間接的に比例する。
いくつかの実施形態では、コンピュータ実行可能プログラム・コード命令を格納した少なくとも1つの非一時的コンピュータ可読記憶媒体を含むコンピュータ・プログラム製品を提供することができる。コンピュータ実行可能プログラム・コード命令は、少なくとも第1の画像を受け取るためのプログラム・コード命令を含み、第1の画像は、第1の位置からキャプチャされたオブジェクトを含み、第2の画像は、第2の位置からキャプチャされたオブジェクトを含み、第1の位置は第2の位置とは異なる。さらに、第1画像に対応する第1深度画像および第2の画像に対応する第2の深度画像を受け取るためのプログラム・コード命令を含む。さらに、第1の深度画像および第2の深度画像に対して実行される第1のセグメント化を引き起こすためのプログラム・コード命令を含む。予め定められた閾値に基づいて、第1のセグメント化は、第1のオブジェクトマスクと第2のオブジェクトマスクとを含む一組の画像をもたらす。さらに、第1の画像と第2の画像に対して実行される第2のセグメント化を引き起こすためのプログラム・コード命令を含む。第2のセグメント化は、第1のオブジェクトマスクと第2のオブジェクトマスクを制約条件として利用する。第2のセグメント化は、第1のオブジェクト画像、第2のオブジェクト画像、第1の背景層、および第2の背景層を含むセグメントのセットをもたらす。そして、第1の背景層および第2の背景層のステッチを引き起こして背景層を形成するためのプログラム・コード命令を含む。前記一連の画像は、前記第1の位置からのビューを表す第1の画像と前記第2の位置からのビューを表す第2の画像とを含む。一連の画像は、背景層のシフトよりも速い速度で行われるオブジェクト層のシフトを示す。
いくつかの実施形態では、第1の画像は背景層で補間された第1のオブジェクト画像を含み、第2の画像は背景層で補間された第2のオブジェクト画像を含む。いくつかの実施形態では、第2のセグメント化は最大フロー最小カットアルゴリズムにしたがって実行される。
いくつかの実施形態では、コンピュータ実行可能プログラム・コード命令は、第1の背景層のステッチングから生じる第1の穴埋めステップのためのプログラム・コード命令をさらに含む。第2の穴埋めステップは、近隣の有効画素に関連する値を平均するためのプロセスを実行し、その平均を黒領域内の画素に対する新しい値として設定するステップを含む。
いくつかの実施形態では、第1のセグメント化ステップはさらに、第1の画像および第2の画像からそれぞれ第1の深度画像および第2の深度画像を生成することを含む。いくつかの実施形態では、コンピュータ実行可能プログラム・コード命令は、距離に対応する所定の閾値を設定するためのプログラム・コード命令をさらに含む。深度画像セグメント化から人の形状マスクを利用してオブジェクト層を識別し、画像の逆行列を決定し、その逆行列を背景マスクにする。
いくつかの実施形態では、層のシフトが異なる速度は、オブジェクト層と背景層との間の距離に間接的に比例する。
このように本願発明の実施形態を一般的な用語で説明してきたが、次に、必ずしも一定の縮尺で描かれていない添付の図面を参照する。
本願発明の例示的な実施形態にしたがって構成することができるシステムのブロック図である。 本願発明の例示の実施形態にしたがって構成することができる装置のブロック図である。 本願発明の一実施形態による装置例を動作させる例示的方法を示すフローチャートである。 本願発明の一実施形態による装置例を動作させる例示的方法を示すフローチャートである。 図5、6A、および6Bは、オクルージョン効果を説明する一連の図である。 図5、6A、および6Bは、オクルージョン効果を説明する一連の図である。 図5、6A、および6Bは、オクルージョン効果を説明する一連の図である。
いくつかの例示的な実施形態が、添付の図面を参照して以下により詳細に説明される。全ての実施形態ではなくいくつかの実施形態が示される。実際に、例示の実施形態は多くの異なる形態をとることができ、本明細書に記載の実施形態に限定されると解釈されるべきではない。むしろ、これらの実施形態は、本開示が適用可能な法的要件を満たすように提供されている。全体を通して、同じ参照番号は同じ要素を指す。用語「データ」、「コンテンツ」、「情報」、および同様の用語は、いくつかの例示的実施形態によれば、交換可能に使用され得、送信、受信、操作、および/または格納され得るデータを指す。さらに、本明細書で使用されることがある「例示的」という用語は、いかなる定性的評価も伝達するために提供されているのではなく、単に例の説明を伝達するために提供されている。したがって、そのような用語の使用は、本願発明の実施形態の趣旨および範囲を限定するものと解釈されるべきではない。
本明細書で使用されているように、「回路」という用語は、以下のすべてを指す。
(a)ハードウェアのみの回路実装(アナログおよび/またはデジタル回路のみでの実装など)、
(b)次のような回路とソフトウェア(および/またはファームウェア)の組み合わせ、
(i)プロセッサを組み合わせたもの、または
(ii)さまざまな機能を実行する携帯電話やサーバなど、ソフトウェア、およびメモリを組み合わせて装置を生成するプロセッサ/ソフトウェアの一部(デジタル信号プロセッサを含む)、
(c)ソフトウェアまたはファームウェアが物理的に存在しなくても、動作のためにソフトウェアまたはファームウェアを必要とするマイクロプロセッサまたはマイクロプロセッサの一部などの回路。
「回路」のこの定義は、任意の請求項を含む本出願におけるこの用語のすべての使用に適用される。さらなる例として、本出願で使用されるように、「回路」という用語は、単にプロセッサ(または複数のプロセッサ)またはプロセッサの一部、ならびにその(またはそれらの)付随するソフトウェアおよび/またはファームウェアの実装形態も含む。「回路」という用語は、例えば、特定の特許請求の範囲の要素に適用可能であるならば、携帯電話用のベースバンド集積回路または特定用途向け集積回路、あるいはサーバ、セルラーネットワークデバイス、または他のネットワークデバイス内の同様の集積回路もカバーする。
ここで図1を参照すると、コンピューティングデバイス10、サーバ12、または他のネットワークエンティティ(以下、「サーバ」と総称する)とユーザデバイス16との間において、無線でまたは有線を介してのいずれかで通信をサポートするシステムが示される。ここで示されるように、コンピューティングデバイス10、サーバ12、およびユーザデバイス16は、セルラーネットワークまたはインターネットなどの広域ネットワークまたはローカルエリアネットワークなどのネットワーク14を介して通信することができる。しかしながら、コンピューティングデバイスとサーバとは、コンピューティングデバイスとサーバとの間の直接通信を介するなど、他の方法で通信することができる。
コンピューティングデバイス10またはユーザデバイス16は、携帯情報端末(PDA)、携帯電話、スマートフォン、ラップトップコンピュータ、タブレットコンピュータ、またはこれらの任意の組み合わせ、ならびに他の種類の音声およびテキスト通信システムなどのモバイルコンピューティングデバイスを含むいくつかの異なるデバイスによって具体化することができる。あるいは、コンピューティングデバイス10および/またはユーザデバイス16は、パーソナルコンピュータ、コンピュータワークステーションなどのような固定コンピューティングデバイスであり得る。サーバ12は、コンピューティング装置によっても具体化することができ、一実施形態では、ウェブサーバによって具体化される。さらに、図1のシステムは単一のサーバを示しているが、サーバは、コンピューティングデバイスによって行われるブラウズ活動をサポートするために協働することができる複数のサーバから構成することができる。ユーザ装置16は、コンピューティング装置10によって具現化することができ、一実施形態では、複数のコンピューティング装置から構成することができる。
ネットワーク14は、媒体(例えば、ツイストペア、同軸、光ファイバ、無線周波数)、ハードウェア(例えば、ルータ、スイッチ、リピータ、トランシーバ)、および、遠隔地にいる人間および/または装置間の通信を容易にするプロトコル(例えば、TCP/IP、UDP、イーサネット(登録商標)、Wi−Fi、WiMAX)の任意の組み合わせとすることができる。これに関して、通信インタフェース308は、1つ以上のエアインタフェース規格、通信プロトコル、変調タイプ、アクセスタイプなどで動作することが可能であり得る。より具体的には、システム302、通信インタフェース308などは、さまざまな第1世代(1G)、第2世代(2G)、2.5G、および、第3世代(3G)通信プロトコル、第4世代(4G)通信プロトコル、インターネットプロトコルマルチメディアサブシステム(IMS)通信プロトコル(例えば、セッション開始プロトコル(SIP))などにしたがって動作することが可能であり得る。例えば、移動端末は、2G無線通信プロトコルIS−136(時分割多元接続(TDMA))、グローバル移動体通信システム(GSM(登録商標))、IS−95(符号分割多元接続(CDMA))などにしたがって動作することが可能であり得る。また、例えば、移動端末は、2.5G無線通信プロトコル一般パケット無線サービス(GPRS)、拡張データGSM(登録商標)環境(EDGE)などにしたがって動作することが可能であり得る。さらに、例えば、移動端末は、ユニバーサル移動体通信システム(UMTS)、符号分割多元接続2000(CDMA2000)、広帯域符号分割多元接続(WCDMA)、時分割同期符号分割多元接続(TD −SCDMA)などの3G無線通信プロトコルにしたがって動作することが可能であり得る。移動端末はさらに、ロングタームエボリューション(LTE)またはエボルブドユニバーサル地上無線アクセスネットワーク(E−UTRAN)などの3.9G無線通信プロトコルにしたがって動作することができる。さらに、例えば、移動端末は、将来開発されるかもしれない同様の無線通信プロトコルと同様に、第4世代(4G)無線通信プロトコルおよび/または同様のものにしたがって動作することが可能であり得る。
コンピューティングデバイス10またはユーザデバイス16を具現化するデバイスの種類にかかわらず、コンピューティングデバイス10またはユーザデバイス16は、図2に示されるように装置20を含むかまたは装置20と関連付けることができる。これに関して、装置は、プロセッサ22、メモリ装置24、通信インタフェース26、およびユーザインタフェース28を含むか、またはそれらと通信することができる。したがって、いくつかの実施形態では、装置または要素は互いに通信しているように示されているが、以下では、そのような装置または要素は同じ装置または要素内で実施可能であると見なされる。通信で示されている装置または要素は、代替的に同じ装置または要素の一部であると理解されるべきである。
いくつかの実施形態では、プロセッサ22(および/またはコプロセッサ、またはプロセッサを支援する、またはそうでなければプロセッサに関連する任意の他の処理回路)は、その装置の構成要素間で情報を渡すためにバスを介してメモリ装置24と通信することができる。メモリデバイスは、例えば、1つ以上の揮発性および/または不揮発性メモリを含み得る。言い換えれば、例えば、メモリデバイスは、マシン(例えば、プロセッサのようなコンピューティングデバイス)によって検索可能であり得るデータ(例えば、ビット)を記憶するように構成されたゲートを含む電子記憶デバイス(例えば、コンピュータ可読記憶媒体)であり得る。メモリデバイスは、本願発明の例示的な実施形態にしたがって装置20が様々な機能を実行することを可能にするために、情報、データ、コンテンツ、アプリケーション、命令などを格納するように構成することができる。例えば、メモリデバイスは、プロセッサによる処理のために入力データをバッファリングするように構成され得る。追加的または代替的に、メモリ装置は、プロセッサによる実行のための命令を格納するように構成され得る。
上記のように、装置20は、本願発明の例示の実施形態を採用するように構成されたコンピューティングデバイス10によって具現化することができる。しかしながら、いくつかの実施形態では、装置はチップまたはチップセットとして具体化されてもよい。言い換えれば、装置は、構造アセンブリ(たとえばベースボード)上に材料、構成要素および/またはワイヤを含む1つ以上の物理パッケージ(たとえばチップ)を備えることができる。構造アセンブリは、その上に含まれる構成要素回路に対して物理的強度、サイズの保存、および/または電気的相互作用の制限を提供することができる。したがって、装置は、場合によっては、本願発明の実施形態を単一のチップ上で、または単一の「システムオンチップ」として実装するように構成され得る。したがって、場合によっては、チップまたはチップセットは、本明細書で説明されている機能を提供するための1つまたは複数の動作を実行するための手段を構成することができる。
プロセッサ22は、いくつかの異なる方法で具現化することができる。例えば、プロセッサは、コプロセッサ、マイクロプロセッサ、コントローラ、デジタル信号プロセッサ(DSP)、付随するDSPを有するあるいは有さない処理要素、または、例えばASIC(特定用途向け集積回路)のような集積回路を含む様々な他の処理回路、FPGA(フィールドプログラマブルゲートアレイ)、マイクロコントローラユニット(MCU)、ハードウェアアクセラレータ、または専用コンピュータチップなどの1つ以上の様々なハードウェア処理手段として実施することができる。したがって、いくつかの実施形態では、プロセッサは、独立して実行するように構成された1つまたは複数の処理コアを含み得る。マルチコアプロセッサは、単一の物理パッケージ内でマルチプロセッシングを可能にし得る。それに加えてまたはその代わりに、プロセッサは、命令の独立した実行、パイプライン化、および/またはマルチスレッド化を可能にするためにバスを介して直列に構成される1つ以上のプロセッサを含み得る。
例示の実施形態では、プロセッサ22は、メモリデバイス24に格納されているか、そうでなければプロセッサにアクセス可能な命令を実行するように構成することができる。代替的または追加的に、プロセッサはハードコードされた機能を実行するように構成されてもよい。したがって、ハードウェアまたはソフトウェアの方法、あるいはそれらの組み合わせのいずれによって構成されたとしても、プロセッサはエンティティを表すことができる(例えば、回路内に物理的に具現化されている)。それに応じて構成されながら、本願発明の実施形態にしたがって動作を実行することができる。したがって、例えば、プロセッサがASIC、FPGAなどとして具現化されるとき、プロセッサは、本明細書で説明される動作を実行するために特に構成されたハードウェアであり得る。あるいは、別の例として、プロセッサがソフトウェア命令の実行者として具体化されるとき、命令は、命令が実行されたときに本明細書に記載のアルゴリズムおよび/または動作を実行するようにプロセッサを特に構成することができる。しかしながら、場合によっては、プロセッサは、本明細書に記載のアルゴリズムおよび/または動作を実行するための命令によるプロセッサのさらなる構成によって、本願発明の実施形態を採用するように構成された特定の装置(例えば、ヘッドマウントディスプレイ)のプロセッサであり得る。そのプロセッサは、とりわけ、プロセッサの動作をサポートするように構成されたクロック、算術論理装置(ALU)および論理ゲートを含むことができる。一実施形態では、プロセッサは、ユーザインタフェース28の1つ以上の要素の少なくともいくつかの機能を制御するように構成されたユーザインタフェース回路も含むことができる。
一方、通信インタフェース26は、ハードウェアまたはハードウェアとソフトウェアの組み合わせのいずれかで具現化されたデバイスまたは回路などの任意の手段であり得る。それは、コンピューティングデバイス10とサーバ12との間でデータを送受信するように構成されている。この点に関して、通信インタフェース26は、例えば、無線で通信を可能にするためのアンテナ(または複数のアンテナ)およびサポートハードウェアおよび/またはソフトウェアを含むことができる。それに加えてまたはその代わりに、通信インタフェースは、アンテナを介して信号を送信するため、またはアンテナを介して受信された信号の受信を処理するために、アンテナと対話するための回路を含み得る。例えば、通信インタフェースは、Wi−Fi、Bluetooth(登録商標)または他の無線通信技術などを介してヘッドマウントディスプレイ10と無線通信するように構成されてもよい。いくつかの事例では、通信インタフェースは、代替的にまたは有線通信をサポートすることもできる。したがって、例えば、通信インタフェースは、ケーブル、デジタル加入者線(DSL)、ユニバーサルシリアルバス(USB)または他の機構を介した通信をサポートするための通信モデムおよび/または他のハードウェア/ソフトウェアを含み得る。例えば、通信インタフェースは、有線通信を介してコンピューティングデバイスの他の構成要素と通信するように構成され得る。
ユーザインタフェース28は、ユーザインタフェース回路などのプロセッサ22と通信して、ユーザ入力の指示を受け取り、かつ/または可聴、視覚、機械的、または他の出力をユーザに提供することができる。したがって、ユーザインタフェースは、例えば、キーボード、マウス、ジョイスティック、ディスプレイ、タッチスクリーンディスプレイ、マイクロフォン、スピーカ、および/または他の入出力機構を含むことができる。いくつかの実施形態では、ディスプレイは、スクリーン上、壁上、眼鏡上(例えば、目に近いディスプレイ)、空中などでの表示を指すことがある。ユーザインタフェースはまた、バスを介するなどして、メモリ24および/または通信インタフェース26と通信することができる。
例示の実施形態では、装置20の構成要素/モジュールは、標準的なプログラミング技法を使用して実施することができる。例えば、装置20は、1つ以上の静的または動的ライブラリとともに、プロセッサ22上で実行される「ネイティブ」実行可能ファイルとして実装することができる。一般に、様々なプログラミング言語パラダイムの代表的な実装形態を含む、そのような例示的な実施形態を実装するために、オブジェクト指向(例:Java(登録商標)、C++、C#、Visual Basic.NET、Smalltalkなど)、機能的(例:ML、Lisp、Schemeなど)、手続き型(例:C)、Pascal、Ada、Modulaなど)、スクリプティング(例えば、Perl、Ruby、Python、Java(登録商標)Script、VBScriptなど)、および宣言的(例えば、SQL、Prologなど)当技術分野において知られている様々なプログラミング言語を使用することができる。
さらに、装置20の一部として格納されたデータへのプログラミングインタフェースは、C、C++、C#、およびJava(登録商標)API、ファイル、データベース、または他のデータリポジトリにアクセスするためのライブラリなどを介した標準的なメカニズムによって、XMLなどの言語を通じて、あるいは、Webサーバ、FTPサーバ、または保存されたデータへのアクセスを提供する他の種類のサーバを介して利用可能にすることができる。データストアも含まれてもよく、それは1つ以上のデータベースシステム、ファイルシステム、またはそのような情報を格納するための任意の他の技術、あるいは、分散コンピューティング技術を使用する実装を含む、上記の任意の組合せとして実装されてもよい。
本明細書に記載の技法と共に使用するためのプログラムおよびデータの異なる構成および場所が考えられている。例示の実施形態の構成要素を分散方式で実装するためには、TCP/IPソケット、RPC、RMI、HTTP、Webサービス(XML−RPC、JAX−RPC、SOAPなど)を含む様々な分散コンピューティング技術が適切である。しかし、これらに限定されるものではない。他のバリエーションも可能である。また、各構成要素/モジュールによって他の機能を提供することができ、あるいは既存の機能を構成要素/モジュール間で異なる方法で分散させることができる。それでもなお本明細書に記載の機能を達成することができる。
さらに、いくつかの実施形態では、装置20の構成要素のうちのいくつかまたはすべては、少なくとも部分的にファームウェアおよび/またはハードウェア内など、他の方法で実装または提供され得る。1つ以上の特定用途向け集積回路(「ASIC」)、標準の集積回路、適切な命令を実行するコントローラ、およびマイクロコントローラおよび/または組み込みコントローラ、フィールドプログラマブルゲートアレイ(「FPGA」)、複合プログラマブルロジックデバイス(「CPLD」)などを含むが、これらに限定されない。システムコンポーネントおよび/またはデータ構造のいくつかまたはすべては、コンテンツとして(たとえば実行可能または他のマシン可読ソフトウェア命令または構造化データとして)コンピュータ可読媒体(たとえばハードディスクなど)、メモリ、コンピュータネットワークまたはセルラ無線ネットワークまたは他のデータ伝送媒体、コンピュータ可読媒体を使用可能にするかまたは構成するために、適切なドライブによって、または適切な接続(DVDもしくはフラッシュメモリデバイスなど)を介して読み取られる可搬媒体物品、および/または、記載された技法のうちの少なくともいくつかを実行するために、コンテンツを実行する、またはそうでなければ使用する、または提供するための、1つまたは複数の関連するコンピューティングシステムまたはデバイスに格納することもできる。システム構成要素およびデータ構造のうちのいくつかまたはすべては、無線ベースの媒体および有線/ケーブルベースの媒体を含む、さまざまなコンピュータ可読伝送媒体上の(たとえば、搬送波の一部として符号化されることによって、あるいは、アナログまたはデジタル伝搬信号の一部として含まれる)データ信号としても記憶され得る。そして、(例えば、単一のまたは多重化されたアナログ信号の一部として、または複数の個別のデジタルパケットまたはフレームとして)様々な形態を取り得る。システムコンポーネントやデータ構造の一部または全部を、HTML5のようなブラウザでレンダリングされたマークアップ言語と組み合わせると、アプリケーションを実行可能にするために一般的なWebブラウザに依存する、ブラウザでサポートされているプログラミング言語(Java(登録商標)Scriptなど)でコーディングされているコンピュータソフトウェアアプリケーションなど、Webアプリケーション、「app」、あるいはHTML5やJava(登録商標)Scriptとして格納することもできる。ウェブページまたは「アプリ」を開くことは、コンピューティングデバイス10上のウェブブラウザによって実行され得る。HTML5かJava(登録商標)Script「app」は、ウェブページ全体を再ダウンロードする必要なしにデータを記憶し検索するために、ウェブページスクリプトが図1に示すようなサーバ12に連絡することを可能にする。システムコンポーネントおよびデータ構造のうちのいくつかまたはすべてはまた、特権ウェブアプリケーションまたは特権ウェブアプリケーションとして格納されることができる。特権のあるWebアプリは、たとえば1つまたは複数のアプリストアによって検証された、または信頼できるソースであるソースから取得またはダウンロードされた可能性のあるWebコンテンツである。信頼されたソースは、デフォルトのパワー設定を上書きすることを可能にされ得る特権的なウェブアプリケーションを提供し得る。そのようなコンピュータ・プログラム製品はまた、他の実施形態では他の形態を取り得る。したがって、本開示の実施形態は他のコンピュータシステム構成を用いて実施することができる。
図3および図4は、本願発明の一実施形態による方法、装置およびコンピュータ・プログラム製品によって実行される例示的な動作の例示的なフローチャートを示している。フローチャートの各ブロック、およびフローチャート中のブロックの組み合わせは、ハードウェア、ファームウェア、プロセッサ、回路、および/または1つ以上のコンピュータ・プログラム命令を含むソフトウェアの実行に関連する他のデバイスなど様々な手段によって実施され得ることが理解される。例えば、上記の手順のうちの1つ以上は、コンピュータ・プログラム命令によって実施することができる。これに関して、上記の手順を具体化するコンピュータ・プログラム命令は、本願発明の実施形態を採用する装置のメモリ26によって記憶され、装置内のプロセッサ24によって実行されることができる。ここで、理解されるように、任意のそのようなコンピュータ・プログラム命令は、コンピュータまたは他のプログラム可能な装置(例えば、ハードウェア)にロードされて、結果として得られるコンピュータまたは他のプログラム可能な装置が、フローチャートブロックにおいて指定された機能の実装を提供するようになるようにマシンを作成することができる。これらのコンピュータ・プログラム命令は、コンピュータまたは他のプログラム可能な装置に特定の方法で機能するように指示することができる非一時的コンピュータ可読記憶メモリにも記憶することができる。そのようにして、コンピュータ可読記憶メモリに記憶された命令は製品を生成し、その実行はフローチャートブロックにおいて指定された機能を実行する。コンピュータ・プログラム命令はまた、コンピュータまたは他のプログラム可能装置上にロードされて、コンピュータまたは他のプログラム可能な装置上で実行される命令が、フローチャートブロックにおいて特定された機能を実施するための動作を提供するように、コンピュータ実施プロセスを生成するために、コンピュータまたは他のプログラム可能装置上で一連の動作を実行させることができる。したがって、図3および図4の動作は、実行されると、コンピュータまたは処理回路を本願発明の例示の実施形態を実行するように構成された特定のマシンに変換する。したがって、図3および図4の動作は、例示的実施形態を実行するためのコンピュータまたは処理を構成するためのアルゴリズムを定義する。場合によっては、汎用コンピュータに、汎用コンピュータを例示の実施形態を実行するように構成された特定のマシンに変換するために、図3および図4のアルゴリズムを実行するプロセッサのインスタンスを設けることができる。
したがって、フローチャートのブロックは、指定された機能を実行するための手段の組合せおよび指定された機能を実行するための動作の組合せをサポートする。フローチャートの1つ以上のブロック、およびフローチャート内のブロックの組み合わせは、指定された機能、または特殊用途のハードウェアとコンピュータの命令の組み合わせを実行する特殊目的のハードウェアベースのコンピュータシステムによって実施することができることも理解される。
いくつかの実施形態では、本明細書の動作のうちのいくつかは、以下で説明されるように修正またはさらに拡張され得る。さらに、いくつかの実施形態では、追加の任意の動作も含まれてもよい。以下の修正、任意選択の追加、または増幅のそれぞれは、単独で、または本明細書に記載されている特徴のうちの任意の他のものと組み合わせてのいずれかで、上記の動作に含まれ得る。
一例示的実施形態では、多層シフトを使用することによって立体視を容易にするための方法、装置、および/またはコンピュータ・プログラム製品を提供することができる。図3は、本願発明の実施形態にしたがって実行される、例示的な携帯端末を動作させる方法を示す例示的なフローチャートである。具体的には、図3は、背景層のシフトよりも高速で行われるオブジェクト層のシフトを示す一連の画像を生成するための例示的な方法を示す。
まず、図3のブロック305に示すように、コンピューティングデバイス10によって具現化された装置20は、少なくとも第1の画像および第2の画像を受信するか、そうでなければアクセスするように構成され得る。したがって、コンピューティングデバイスによって具現化される装置は、少なくとも第1の画像および第2の画像を受信および/またはアクセスするための、プロセッサ22、通信インタフェース26などのような手段を含み得る。いくつかの実施形態では、第1の画像は第1の位置から取り込まれたオブジェクトを含み、第2の画像は第2の位置から取り込まれたオブジェクトを含み、第1の位置は第2の位置とは異なる。いくつかの実施形態では、第1の画像と第2の画像を取り込む画像取込装置またはレンズの光軸は平行である。第1の画像および第2の画像は、赤−緑−青(RGB)画像であり得る。
このプロセスはまた、RGB画像から別々に取り込まれるかまたは生成され得る深度画像を利用する。したがって、図3のブロック310に示されるように、コンピューティングデバイス10によって具現化される装置20は、少なくとも第1の深度画像および第2の深度画像を受け取るか、そうでなければアクセスするように構成され得る。したがって、コンピューティングデバイスによって具現化される装置は、少なくとも第1の深度画像を受信またはアクセスするための、プロセッサ22、通信インタフェース26などのような手段を含み得る。第1の深度画像は第1の画像に対応し、第2の深度画像は第2の画像に対応する。いくつかの実施形態では、深度画像は、例えば深度カメラによってキャプチャされ、および/またはそこから受信されることができる。他の実施形態では、深度画像は、第1および第2の画像(例えば、RGB画像)によって構築されることができ、またはそれらを使用して生成されることができる。
図3のブロック315に示されるように、コンピューティングデバイス10によって具現化される装置20は、したがって、第1のセグメント化を引き起こすように構成され得る。したがって、コンピューティングデバイスによって具現化される装置は、第1のセグメント化を引き起こすための、プロセッサ22、通信インタフェース26などのような手段を含み得る。当業者が理解するように、セグメント化は、画像(例えば、デジタル画像)を複数のセグメントにセグメント化するプロセスである。たとえば、イメージの分析が容易になるように、または異なる方法で分析できるように、イメージの表現を変更する。いくつかの実施形態では、第1のセグメント化は、事前定義された閾値に基づいてもよく、例えば、例えば、第1のオブジェクトマスク、第1のオブジェクトマスクの反転(例えば、第1の画像の背景マスク)および第2のオブジェクトマスク、ならびに第2のオブジェクトマスクの反転(例えば、第2の画像の背景マスク)のうちの任意の組み合わせを含み得る一組の画像をもたらすことができる。
以下に説明される図4は、本願発明の実施形態にしたがって実行される、例示的な移動端末を動作させる例示的な方法を示すフローチャートである。具体的には、図4は、第1のセグメント化を実行するための例示的な方法を示す。すなわち、以下に説明されるように、第2のセグメント化が実行され得る。しかしながら、第2のセグメント化の前に、が第2のセグメント化の実行に使用される第1のオブジェクトマスクと第2のオブジェクトマスクとが提供される。たとえば、いくつかの実施形態では、第1のセグメント化は、各深度画像の大まかなセグメント化を取得するために、(たとえば、レンズまたは画像キャプチャデバイスなどからの深さまたは距離に対応する)予め定義された閾値の設定を含む。さらに、いくつかの実施形態では、装置は、例えば、1つの画像の最大面積(例えば、第1の画像)を1つのオブジェクト層として識別する(例えば、第1の画像内の人物を識別する)ように構成される。この識別は、深度画像セグメント化からの形状マスクを利用すること、画像の逆行列を決定すること、およびその逆行列を背景マスクにすることを含む。
ここで図3に戻ると、図3のブロック320に示されるように、コンピューティングデバイス10によって具現化される装置20は、したがって、第2のセグメント化の実行を引き起こすように構成され得る。したがって、コンピューティングデバイスによって具現化される装置は、第2のセグメント化の実行を引き起こすための、プロセッサ22、通信インタフェース26などのような手段を含み得る。第2のセグメント化は、第1の画像と第2の画像(例えば、RGB画像)に対して実行されることができる。いくつかの実施形態では、第2のセグメント化は、例えば最大フロー最小カットアルゴリズムを使用して実行されることができる。しかしながら、当業者は、セグメント化が任意の数のプロセスによって実行され得ることを理解する。第2のセグメント化は、第1のオブジェクト画像、第1の背景画像、第2のオブジェクト画像、および第2の背景画像をもたらし得る。
図3のブロック325に示すように、上述したセグメント化ステップの出力を使用して、コンピューティングデバイス10によって具現化された装置20。次に、第1の背景層と第2の背景層とをステッチまたはステッチするように構成することができる。したがって、コンピューティングデバイスによって具現化される装置は、プロセッサ22、通信インタフェース26などのような手段を含み得る。第1の背景層と第2の背景層とをステッチする、またはステッチするためのものである。
第1の背景層と第2の背景層とを一緒にステッチする際に、存在する穴の一部が埋められる。図3のブロック330に示されるように、コンピューティングデバイス10によって具現化される装置20は、したがって、穴埋めプロセスの実行を引き起こすように構成され得る。したがって、コンピューティングデバイスによって具現化される装置は、穴埋めプロセスの実行を引き起こすための、プロセッサ22、通信インタフェース26などのような手段を含み得る。例えば、ワープ効果のために、ステッチ後に穴を埋める必要があるかもしれない穴の部分がまだあり得る。いくつかの実施形態では、装置は、黒領域(すなわち塗りつぶしが必要な領域)内の画素についての新しい値として近くの有効画素の値を平均するためのプロセスを実装するように構成され得る。
上述したように、現実性を実証するために、ビューが第1の位置から第2の位置へ変化するにつれて、前景のオブジェクトは一般に、背景のオブジェクトとは異なる速度で動くことが要求される。図3のブロック335に示されるように、コンピューティングデバイス10によって具現化される装置20は、したがって、オブジェクト層とは異なる速度でステッチされた背景層をシフトさせるように構成され得る。したがって、コンピューティングデバイスによって具現化される装置は、プロセッサ22、通信インタフェース26などのような手段を含み得る。オブジェクト層とは異なる速度でステッチされた背景層を移動させるため。
いくつかの実施形態では、オブジェクト層がシフトされる速度は、例えば、距離が近いほど速い場合がある。特定の速度パラメータは、画像キャプチャデバイスまたはレンズの距離、およびいくつかの実施形態ではさらに、ユーザの移動速度に依存し得る。
図3のブロック340に示されるように、コンピューティングデバイス10によって具現化される装置20は、したがって、以下のように構成されてもよい。背景層のシフトよりも高速で行われるオブジェクト層のシフトを示す一連の画像を生成する。したがって、コンピューティングデバイスによって具現化される装置は、一連の画像を生成するための、プロセッサ22、通信インタフェース26などのような手段を含み得る。一連の画像は、第1の位置からのビューを表す第1の画像と、第2の位置からのビューを表す第2の画像とを含む。一連の画像は、背景層のシフトよりも速い速度で行われるオブジェクト層のシフトを示す。いくつかの実施形態では、第1の画像は背景層で補間された第1のオブジェクト画像を含み、第2の画像は背景層で補間された第2のオブジェクト画像を含む。
上述のように、図4は、本願発明の実施形態にしたがって実行される、例示的な移動端末を動作させる例示的な方法を示すフローチャートである。具体的には、図4は、第1のセグメント化を実行するための例示的な方法を示す。上述のように、第2のセグメント化に先立って、第1のセグメント化が実行されてもよい。図4のブロック405に示すように、コンピューティングデバイス10によって具現化される装置20は、したがって、それぞれの深度画像のセグメント化を実行するために所定の閾値を設定するように構成され得る。したがって、コンピューティングデバイスによって具現化される装置は、プロセッサ22、通信インタフェース26などのような手段を含み得る。(例えば、レンズまたは画像キャプチャデバイスからの深さまたは距離に対応する)所定の閾値を設定して、各深さ画像の大まかなセグメント化を取得する。
続いて、図4のブロック410に示すように、コンピュータ装置10によって具現化された装置20は、たとえば、1つの画像の最大面積(たとえば、第1の深度画像または深度第2の画像)を1つのオブジェクト層として識別するように(たとえば、第1の深度画像内の人を識別するように)構成することができる。したがって、コンピューティングデバイスによって具現化される装置は、1つの画像の最大面積を1つのオブジェクト層として識別するための、プロセッサ22、通信インタフェース26などの手段を含み得る。
図4のブロック415に示すように、計算装置10によって具現化された装置20は、したがって、深度画像セグメント化からの形状マスクを利用して画像の逆を決定するように構成されてもよい。したがって、コンピューティングデバイスによって具現化される装置は、画像の反転を決定するために、深度画像セグメント化から形状マスクを利用するためプロセッサ22、通信インタフェース26などのような手段を含み得る。図4のブロック420に示されるように、計算装置10によって具現化される装置20は、したがって、その逆から背景マスクを生成するように構成されることができる。したがって、コンピューティングデバイスによって具現化される装置は、反転を背景マスクにするための、プロセッサ22、通信インタフェース26などの手段を含むことができる。
本明細書に記載されている本願発明の多くの修正および他の実施形態は、これらの発明が関係し、前述の説明および関連する図面に提示された教示の恩恵を受ける当業者には思い浮かぶ。したがって、本願発明は開示された特定の実施形態に限定されるものではなく、修正および他の実施形態は添付の特許請求の範囲内に含まれることが意図されていることを理解されたい。さらに、前述の説明および関連する図面は、要素および/または機能の特定の例示的な組み合わせの文脈で例示的な実施形態を説明しているが、添付の特許請求の範囲から逸脱することなく、要素および/または機能の異なる組み合わせが代替の実施形態によって提供され得ることを理解されたい。これに関して、例えば、添付の特許請求の範囲のいくつかに記載されているように、要素および/または機能の上記とは明示的に記載されたものとは異なる組み合わせも考えられる。本明細書では特定の用語が使用されているが、それらは一般的かつ説明的な意味でのみ使用されており、限定の目的では使用されていない。

Claims (21)

  1. 少なくとも、第1の位置からキャプチャされたオブジェクトを含む第1の画像および第2の位置からキャプチャされた前記オブジェクトを含む第2の画像を受信するステップであって、該第1位置は該第2位置とは異なる、ステップと、
    少なくとも、前記第1の画像に対応する第1の深度画像および、前記第2の画像に対応する第2の深度画像を受信するステップと、
    前記第1の深度画像および前記第2の深度画像に対して、予め定義された閾値に基づいて実行される第1のセグメント化をさせるステップであって、該第1のセグメント化は、第1のオブジェクトマスクと第2のオブジェクトマスクとを含む一組の画像をもたらす、ステップと、
    前記第1の深度画像および前記第2の深度画像に対して、前記第1のオブジェクトマスクと前記第2のオブジェクトマスクを制約条件として利用して、実行される第2のセグメンテト化をさせるステップであって、該第2のセグメント化は、第1のオブジェクト画像、第2のオブジェクト画像、第1の背景層、および、第2の背景層を含む一組の画像をもたらす、ステップと、
    背景層を形成するために、前記第1の背景層と前記第2の背景層とをステッチさせるステップと、
    前記第1の位置からのビューを表す第1の画像および前記第2の位置からのビューを表す第2の画像を含む、一連の画像を生成するステップであって、該一連の画像は、前記背景層のシフトよりも速い速度でおこるオブジェクト層のシフトを示す、ステップと、
    を含む方法。
  2. 前記第1の画像は、前記背景層で補間された前記第1のオブジェクト画像を含み、前記第2の画像は、前記背景層で補間された前記第2のオブジェクト画像を含む、請求項1に記載の方法。
  3. 第2のセグメント化は最大フロー最小カットアルゴリズムにしたがって行われる、請求項1に記載の方法。
  4. 前記第1の背景層と前記第2の背景層とのステッチから生じる第1の穴埋めのステップと、近傍の有効画素に関連する値を平均するためのプロセスを実行するステップと、黒領域における前記ピクセルに対する新しい値として該平均を設定するステップとを含む第2の穴埋めのステップと、をさらに含む請求項1に記載の方法。
  5. 前記第1のセグメント化のステップは、さらに、前記第1の画像および前記第2の画像から、それぞれ、前記第1深度画像および前記第2深度画像を生成するステップを含む、請求項1に記載の方法。
  6. 距離に対応する前記所定の閾値を設定するステップと、前記深度画像セグメント化から、前記人物の形状マスクを利用してオブジェクト層を識別するステップと、前記画像の反転を決定し、該反転を前記背景マスクにするステップと、をさらに含む請求項1に記載の方法。
  7. 層の前記シフトが異なる前記速度は、前記オブジェクト層と前記背景層との間の距離に間接的に比例する、請求項1に記載の方法。
  8. 少なくとも1つのプロセッサと、コンピュータ・プログラム・コードを含む少なくとも1つのメモリとを備える装置であって、前記少なくとも1つのメモリおよび前記コンピュータ・プログラム・コードは、該プロセッサを用いて、該装置に、少なくとも、
    少なくとも、第1の位置からキャプチャされたオブジェクトを含む第1の画像、および、第2の位置からキャプチャされたオブジェクトを含む第2の画像を受信させ、ここで、該第1の位置は該第2の位置とは異なるものであり、
    少なくとも、前記第1の画像に対応する第1の深度画像、および、前記第2の画像に対応する第2の深度画像を受信させ、前記第1の深度画像および前記第2の深度画像に対して実行され、予め定められた閾値に基づいて、前記第1のセグメント化は、第1のオブジェクトマスクと第2のオブジェクトマスクとを含む一組の画像をもたらす、第1のセグメント化をさせ、前記第1のオブジェクトマスクと前記第2のオブジェクトマスクを制約として利用して、前記第1の画像と前記第2の画像に対して実行され、第1のオブジェクト画像、第2のオブジェクト画像、第1の背景層、および、第2の背景層を含む一組のセグメントをもたらす、第2のセグメント化をさせ、
    背景層を形成するために前記第1の背景層と前記第2の背景層とをステッチさせ、前記第1の位置からのビューを表す第1の画像と、前記第2の位置からのビューを表す第2の画像とを含み、前記背景層のシフトよりも速い速度で行われるオブジェクト層のシフトを示す一連の画像を生成させるように構成される、
    装置。
  9. 前記第1の画像は、前記背景層で補間された前記第1のオブジェクト画像を含み、前記第2の画像は、前記背景層で補間された前記第2のオブジェクト画像を含む、請求項8に記載の装置。
  10. 前記第2のセグメント化は、最大フロー最小カットアルゴリズムにしたがって実行される、請求項8に記載の装置。
  11. 前記少なくとも1つのメモリおよび前記コンピュータ・プログラム・コードは、前記プロセッサを用いて、前記装置に、前記第1の背景層と前記第2の背景層との前記ステッチングから生じる第1の穴埋めステップを実行させ、近傍の有効画素に関連する値を平均するためのプロセスをインプリメントすること、および、前記平均値を、黒領域の前記ピクセルの新しい値として設定することを含む第2の穴埋めステップを実行させるようにさらに構成される、請求項8に記載の装置。
  12. 前記第1セグメント化は、さらに、前記第1の画像および前記第2の画像からそれぞれ前記第1の深度画像および前記第2の深度画像を生成することを含む、請求項8に記載の装置。
  13. 前記少なくとも1つのメモリおよび前記コンピュータ・プログラム・コードは、前記装置に、前記プロセッサを用いて、さらに、距離に対応する前記所定の閾値を設定させ、前記深度画像セグメント化から、前記人物の形状マスクを利用してオブジェクト層を識別し、前記画像の反転を決定し、該反転を前記背景マスクにさせるように構成される、請求項8に記載の装置。
  14. 層の前記シフトが異なる前記速度は、前記オブジェクト層と前記背景層との間の距離に間接的に比例する、請求項8に記載の装置。
  15. その中に格納されたコンピュータ実行可能プログラム・コード命令を有する少なくとも1つの固定コンピュータ読取り可能記憶媒体を備えるコンピュータ・プログラム・プロダクトであって、該コンピュータ実行可能プログラム・コード命令は、少なくとも、
    第1の位置からキャプチャされたオブジェクトを含む第1の画像および第2の位置からキャプチャされた前記オブジェクトを含む第2の画像を受信することであって、該第1の位置は該第2の位置とは異なるものである、受信することと、少なくとも、前記第1の画像に対応する第1の深度画像、および、前記第2の画像に対応する第2の深度画像を受信することと、前記第1の深度画像および前記第2の深度画像に対して、予め定義された閾値に基づいて実行される第1のセグメント化をさせることであって、該第1のセグメント化は、第1のオブジェクトマスクと第2のオブジェクトマスクとを含む一組の画像をもたらす、第1のセグメント化をさせることと、
    前記第1の深度画像および前記第2の深度画像に対して、前記第1のオブジェクトマスクと前記第2のオブジェクトマスクを制約条件として利用して、実行される第2のセグメンテト化をさせることであって、該第2のセグメント化は、第1のオブジェクト画像、第2のオブジェクト画像、第1の背景層、および、第2の背景層を含む一組の画像をもたらす、第2のセグメンテト化をさせることと、
    背景層を形成するために前記第1の背景層と前記第2の背景層とをステッチさせるステップと、前記第1の位置からのビューを表す第1の画像と、前記第2の位置からのビューを表す第2の画像と、を含む、一連の画像を生成することであって、前記背景層のシフトよりも速い速度で行われるオブジェクト層のシフトを示す一連の画像を生成することと、
    のためのプログラム・コード命令を備える、コンピュータ・プログラム・プロダクト。
  16. 前記第1の画像は、前記背景層で補間された前記第1のオブジェクト画像を含み、前記第2の画像は、前記背景層で補間された前記第2のオブジェクト画像を含む、請求項15に記載のコンピュータ・プログラム・プロダクト。
  17. 前記第2のセグメント化は、最大フロー最小カットアルゴリズムにしたがって実行される、請求項15に記載のコンピュータ・プログラム・プロダクト。
  18. 該コンピュータ実行可能プログラム・コード命令は、さらに、前記第1の背景層と前記第2の背景層とのステッチから生じる第1の穴埋めすることと、
    近傍の有効画素に関連する値を平均するためのプロセスをインプリメントすること、前記平均値を、黒領域の前記ピクセルの新しい値として設定することを含む第2の穴埋めすることと、
    のためのプログラム・コード命令を備える、請求項15に記載のコンピュータ・プログラム・プロダクト。
  19. 前記第1セグメント化は、さらに、前記第1の画像および前記第2の画像からそれぞれ前記第1の深度画像および前記第2の深度画像を生成することを含む、請求項15に記載のコンピュータ・プログラム・プロダクト。
  20. 該コンピュータ実行可能プログラム・コード命令は、さらに、
    距離に対応する前記所定の閾値を設定することと、
    前記深度画像セグメント化から、前記人物の形状マスクを利用してオブジェクト層を識別することと、
    前記画像の反転を決定し、該反転を前記背景マスクにすることと、
    のためのプログラム・コード命令を備える、請求項15に記載のコンピュータ・プログラム・プロダクト。
  21. 層の前記シフトが異なる前記速度は、前記オブジェクト層と前記背景層との間の距離に間接的に比例する、請求項15に記載のコンピュータ・プログラム・プロダクト。
JP2019512883A 2016-09-07 2017-08-25 多層シフトを使用してステレオビジョンを容易にするための方法および装置 Active JP6795689B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/258,737 US10204418B2 (en) 2016-09-07 2016-09-07 Method and apparatus for facilitating stereo vision through the use of multi-layer shifting
US15/258,737 2016-09-07
PCT/IB2017/055138 WO2018047033A1 (en) 2016-09-07 2017-08-25 Method and apparatus for facilitating stereo vision through the use of multi-layer shifting

Publications (2)

Publication Number Publication Date
JP2019534599A true JP2019534599A (ja) 2019-11-28
JP6795689B2 JP6795689B2 (ja) 2020-12-02

Family

ID=61281374

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019512883A Active JP6795689B2 (ja) 2016-09-07 2017-08-25 多層シフトを使用してステレオビジョンを容易にするための方法および装置

Country Status (5)

Country Link
US (1) US10204418B2 (ja)
EP (1) EP3510769A4 (ja)
JP (1) JP6795689B2 (ja)
CN (1) CN109983504A (ja)
WO (1) WO2018047033A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108596102B (zh) * 2018-04-26 2022-04-05 北京航空航天大学青岛研究院 基于rgb-d的室内场景物体分割分类器构造方法
CN110992359B (zh) * 2019-12-20 2020-12-08 泗县智来机械科技有限公司 一种基于深度图的混凝土裂缝检测方法、装置及电子设备
CN112541438A (zh) * 2020-12-15 2021-03-23 深兰人工智能(深圳)有限公司 文本识别方法及装置

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5852673A (en) 1996-03-27 1998-12-22 Chroma Graphics, Inc. Method for general image manipulation and composition
US7720282B2 (en) 2005-08-02 2010-05-18 Microsoft Corporation Stereo image segmentation
EP1862969A1 (en) * 2006-06-02 2007-12-05 Eidgenössische Technische Hochschule Zürich Method and system for generating a representation of a dynamically changing 3D scene
CA2653815C (en) * 2006-06-23 2016-10-04 Imax Corporation Methods and systems for converting 2d motion pictures for stereoscopic 3d exhibition
WO2009091563A1 (en) * 2008-01-18 2009-07-23 Thomson Licensing Depth-image-based rendering
US8502862B2 (en) * 2009-09-30 2013-08-06 Disney Enterprises, Inc. Method and system for utilizing pre-existing image layers of a two-dimensional image to create a stereoscopic image
KR101705119B1 (ko) 2010-09-15 2017-02-10 삼성전자 주식회사 전자 기기에서 2차원 이미지로 3차원 화면을 구성하는 방법 및 그 전자 기기
US8401225B2 (en) * 2011-01-31 2013-03-19 Microsoft Corporation Moving object segmentation using depth images
US8823745B2 (en) * 2011-06-02 2014-09-02 Yoostar Entertainment Group, Inc. Image processing based on depth information and color data of a scene
US20120313932A1 (en) * 2011-06-10 2012-12-13 Samsung Electronics Co., Ltd. Image processing method and apparatus
US8565520B2 (en) 2011-06-10 2013-10-22 Microsoft Corporation Determining foreground regions and background regions in an image
KR20130001869A (ko) * 2011-06-28 2013-01-07 삼성전자주식회사 영상처리장치 및 영상처리방법
WO2013062944A1 (en) * 2011-10-26 2013-05-02 The Regents Of The University Of California Multi view synthesis method and display devices with spatial and inter-view consistency
EP2792149A4 (en) * 2011-12-12 2016-04-27 Intel Corp SCENE SEGMENTATION BY USING PREVIOUS IMAGING MOVEMENTS
US8872898B2 (en) * 2011-12-14 2014-10-28 Ebay Inc. Mobile device capture and display of multiple-angle imagery of physical objects
US9106908B2 (en) * 2012-07-30 2015-08-11 Intel Corporation Video communication with three dimensional perception
KR101348929B1 (ko) 2012-08-20 2014-01-09 광운대학교 산학협력단 깊이 조절을 이용한 레이어 합성 기반 다시점 영상 생성 방법
JP6019970B2 (ja) * 2012-09-11 2016-11-02 株式会社リコー 全天球型の撮像システムおよび撮像光学系
TWI526045B (zh) 2012-12-10 2016-03-11 聯詠科技股份有限公司 立體影像的調整方法與影像處理裝置
CN102999943B (zh) 2012-12-21 2016-04-13 吴心妮 图像处理方法及系统
US9025051B2 (en) * 2013-02-28 2015-05-05 Nokia Technologies Oy Method and apparatus for automatically rendering dolly zoom effect
US10719939B2 (en) * 2014-10-31 2020-07-21 Fyusion, Inc. Real-time mobile device capture and generation of AR/VR content
JP6299720B2 (ja) * 2015-10-02 2018-03-28 トヨタ自動車株式会社 物体認識装置及び煙判定方法

Also Published As

Publication number Publication date
US20180068450A1 (en) 2018-03-08
EP3510769A1 (en) 2019-07-17
JP6795689B2 (ja) 2020-12-02
EP3510769A4 (en) 2020-05-13
WO2018047033A1 (en) 2018-03-15
CN109983504A (zh) 2019-07-05
US10204418B2 (en) 2019-02-12

Similar Documents

Publication Publication Date Title
KR102646695B1 (ko) 비디오 프레임 보간을 위한 특징 피라미드 워핑
US9025051B2 (en) Method and apparatus for automatically rendering dolly zoom effect
JP5996013B2 (ja) 立体画像の視差マップ推定のための方法,装置及びコンピュータプログラム製品
WO2018119786A1 (zh) 一种显示数据处理方法及装置
JP2015516627A5 (ja)
US9275490B2 (en) Post-render motion blur
JP6795689B2 (ja) 多層シフトを使用してステレオビジョンを容易にするための方法および装置
WO2020001022A1 (zh) 图片展示方法、计算设备及计算机存储介质
BR102020027013A2 (pt) Método para gerar uma imagem multiplano adaptativa a partir de uma única imagem de alta resolução
US10650488B2 (en) Apparatus, method, and computer program code for producing composite image
US11620777B2 (en) Editor for images with depth data
US11341611B2 (en) Automatic generation of perceived real depth animation
TW201607296A (zh) 快速產生影像景深圖的方法及影像處理裝置
US10699375B2 (en) Method and apparatus for image adjustment for panoramic image stitching
US11250258B2 (en) Systems and methods for preventing information dissemination from an image of a pupil
TWI723119B (zh) 相機應用的圖像預覽方法、裝置及相機應用系統
US11917283B2 (en) Split rendering for lightfield/immersive media using edge-cloud architecture and peer-to-peer streaming
US12002132B1 (en) Rendering using analytic signed distance fields
JP2018200505A (ja) 3次元画像のインタラクティブ表示方法及びシステム
JP2017174416A5 (ja)
US20130176332A1 (en) Method and apparatus for image presentation
CN116917900A (zh) 在像素到像素神经网络中处理数据
CN117726711A (zh) 特效图像生成方法、装置、电子设备及存储介质
CN118043859A (zh) 高效视觉感知

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190418

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190418

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200423

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200519

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20200819

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200831

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201013

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201112

R150 Certificate of patent or registration of utility model

Ref document number: 6795689

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150