JP2019192288A - 前景オブジェクトに基づく拡張現実のレンダリング - Google Patents

前景オブジェクトに基づく拡張現実のレンダリング Download PDF

Info

Publication number
JP2019192288A
JP2019192288A JP2019125355A JP2019125355A JP2019192288A JP 2019192288 A JP2019192288 A JP 2019192288A JP 2019125355 A JP2019125355 A JP 2019125355A JP 2019125355 A JP2019125355 A JP 2019125355A JP 2019192288 A JP2019192288 A JP 2019192288A
Authority
JP
Japan
Prior art keywords
image
foreground object
interest
foreground
scene
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019125355A
Other languages
English (en)
Inventor
ピユシュ・シャルマ
Sharma Piyush
ラミン・レザイーファー
Ramin Rezaiifar
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of JP2019192288A publication Critical patent/JP2019192288A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20224Image subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Abstract

【課題】モバイルデバイスは、たとえば、深さ情報のない一連のビデオフレームなど、キャプチャされた画像において可動前景オブジェクトを検出する。【解決手段】オブジェクトは、ユーザの指の1つまたは複数でもよい。オブジェクトを含むシーンのキャプチャされた画像、およびオブジェクトのないシーンの参照画像の一方を、それらが同じビューを有するようにワープし、ワープ後にキャプチャされた画像を参照画像と比較することによって、オブジェクトが検出され得る。キャプチャされた画像からオブジェクトをセグメント化するために、マスクが使用され得る。オブジェクトの抽出された画像においてピクセルが検出され、ピクセルは、前景オブジェクト上の関心ポイントを検出するために使用される。次いで、その後の画像において、オブジェクトが追跡され得る。オーグメンテーションがレンダリングされ、相互作用され得る、または、時間的ジェスチャが検出され、それに応じて所望のアクションが実行され得る。【選択図】図2

Description

関連出願の相互参照
本出願は、本出願の譲受人に譲渡され、参照により本明細書に組み込まれる、2013年1月3日に出願した「Rendering Augmented Reality Based on Foreground Object」という名称の米国出願第13/733,740号の利益および優先権を主張するものである。
本明細書で説明する主題の実施形態は、一般に、ビデオストリームなど、一連のキャプチャされた画像において可動オブジェクトを検出し、追跡することに関し、より詳細には、可動オブジェクトを使用して、キャプチャされた画像の表示においてレンダリングされるオーグメンテーション(augmentation)と相互作用することに関する。
拡張現実(augmented reality, AR)のアプリケーションでは、現実世界のオブジェクトが撮像され、画像情報、グラフィック情報、またはテキスト情報などのコンピュータ生成情報とともにスクリーン上に表示される。コンピュータ生成情報は、現実世界のオブジェクト上にレンダリングされ、たとえば、現実世界のオブジェクトについての、または、たとえばアニメーションもしくはゲームなど娯楽のためのグラフィック情報もしくはテキスト情報を提供するために使用され得る。しかしながら、従来、ARタイプのアプリケーションで表示されるレンダリングされたオブジェクトと相互作用するユーザの能力は、限られており、非直感的である。
ユーザがレンダリングされたオブジェクトと相互作用するための現在の手法は、一般的に、たとえばボタンやタッチスクリーンなど、デバイス上の物理的な入力要素を使用する。ユーザとレンダリングされたオーグメンテーションとの間の相互作用の別の手法は、仮想ボタンと呼ばれる。ユーザは、たとえば指などのオブジェクトで撮像されたシーンのあらかじめ指定されたエリアを遮ることによって、仮想ボタンと相互作用することができる。あらかじめ指定されたエリアの遮断は、視覚的に検出され得、それに応答して、アクションが実行され得る。しかしながら、仮想ボタンがユーザと同じスペースに実際に存在しているかのように、ユーザが仮想ボタンと相互作用しないので、仮想ボタンによる結果として生じるオーグメンテーションは、限られる。
モバイルデバイスは、たとえば、深さ情報のない一連のビデオフレームなど、キャプチャされた画像において可動前景オブジェクトを検出する。オブジェクトは、ユーザの指の1つまたは複数でもよい。オブジェクトを含むシーンのキャプチャされた画像、およびオブジェクトのないシーンの参照画像の一方を、それらが同じビューを有するようにワープし、ワープ後にキャプチャされた画像を参照画像と比較することによって、オブジェクトが検出され得る。キャプチャされた画像からオブジェクトをセグメント化するために、マスクが使用され得る。オブジェクトの抽出された画像においてピクセルが検出され、ピクセルは、前景オブジェクト上の関心ポイントを検出するために使用される。次いで、その後の画像において、オブジェクトが追跡され得る。オーグメンテーションがレンダリングされ、相互作用され得る、または、時間的ジェスチャが検出され、それに応じて所望のアクションが実行され得る。
一実装形態では、方法は、シーンにアタッチ(attach)していない前景オブジェクトを含むシーンの画像をキャプチャするステップであり、前景オブジェクトが、異なる物理的様相である関心ポイントを含む、ステップと、前景オブジェクトを含まないシーンの画像および参照画像の少なくとも一方を、画像および参照画像が同じビューを有するようにワープするステップと、前景オブジェクト上の関心ポイントに属するピクセルを検出するために、ワープ後に画像を参照画像と比較するステップと、検出されたピクセルを使用して前景オブジェクト上の関心ポイントを検出するステップと、画像をディスプレイに表示するステップと、関心ポイントに基づいて、ディスプレイで画像の上にオーグメンテーションをレンダリングするステップとを含む。
一実装形態では、装置は、カメラと、ディスプレイと、ディスプレイに結合され、シーンにアタッチしていない前景オブジェクトを含むシーンの画像を受信するためにカメラに結合されたプロセッサとを含み、前景オブジェクトが、異なる物理的様相である関心ポイントを含み、プロセッサが、前景オブジェクトを含まないシーンの画像および参照画像の少なくとも一方を、画像および参照画像が同じビューを有するようにワープし、前景オブジェクト上の関心ポイントに属するピクセルを検出するために、ワープ後に画像を参照画像と比較し、検出されたピクセルを使用して前景オブジェクト上の関心ポイントを検出し、画像をディスプレイに表示し、関心ポイントに基づいて、ディスプレイで画像の上にオーグメンテーションをレンダリングするように構成される。
一実装形態では、装置は、シーンにアタッチしていない前景オブジェクトを含むシーンの画像をキャプチャするための手段であり、前景オブジェクトが、異なる物理的様相である関心ポイントを含む、手段と、前景オブジェクトを含まないシーンの画像および参照画像の少なくとも一方を、画像および参照画像が同じビューを有するようにワープするための手段と、前景オブジェクト上の関心ポイントに属するピクセルを検出するために、ワープ後に画像を参照画像と比較するための手段と、検出されたピクセルを使用して前景オブジェクト上の関心ポイントを検出するための手段と、画像をディスプレイに表示するための手段と、関心ポイントに基づいて、ディスプレイで画像の上にオーグメンテーションをレンダリングするための手段とを含む。
一実装形態では、プログラムコードが記憶された記憶媒体は、シーンにアタッチしていない前景オブジェクトを含むシーンの画像を受信するためのプログラムコードであり、前景オブジェクトが、異なる物理的様相である関心ポイントを含む、プログラムコードと、前景オブジェクトを含まないシーンの画像および参照画像の少なくとも一方を、画像および参照画像が同じビューを有するようにワープするためのプログラムコードと、前景オブジェクト上の関心ポイントに属するピクセルを検出するために、ワープ後に画像を参照画像と比較するためのプログラムコードと、検出されたピクセルを使用して前景オブジェクト上の関心ポイントを検出するためのプログラムコードと、画像をディスプレイに表示するためのプログラムコードと、関心ポイントに基づいて、ディスプレイで画像の上にオーグメンテーションをレンダリングするためのプログラムコードとを含む。
キャプチャされた画像において可動前景オブジェクトを検出し、追跡することができるモバイルデバイスを示す図である。 撮像されたシーンにおいて前景オブジェクトを検出し、追跡する方法のフローチャートである。 マスクを使用して前景オブジェクトが画像からセグメント化される図2の方法の一部を詳述するフローチャートである。 マスクを使用することなく前景オブジェクトが画像から抽出される図2の方法の一部を詳述するフローチャートである。 マスクを生成するための異なる手法を示すフローチャートである。 テーブル上のターゲットおよび前景オブジェクトを含むキャプチャされた画像を示す図である。 図5Aからのターゲットの参照画像を示す図である。 ターゲットおよび前景オブジェクトの一部を含むワープされた画像を示す図である。 マスクによってセグメント化される前景オブジェクトを示す図である。 図5Cからワープされた画像における前景オブジェクトにおいて検出される複数の関心ポイントを示す図である。 検出された前景オブジェクトに基づいてレンダリングされたオーグメンテーションを含むキャプチャされた画像を示す図である。 マスクを生成するためにキャプチャされた画像を参照画像と比較することをグラフィカルに示す図である。 キャプチャされた画像において前景オブジェクトを検出するためのシステム図を示す図である。 ジェスチャ認識のために1つまたは複数の前景オブジェクトを追跡することを示すフローチャートである。 図1と類似し、ターゲットよりも大きいスペースにレンダリングされたオーグメンテーションを示す図である。 撮像されたシーンにおいて前景オブジェクトを検出し、追跡することができるモバイルデバイスのブロック図である。
図1は、深さ情報のないカメラ110によってキャプチャされた画像において可動前景オブジェクトを検出することができるモバイルデバイス100を示す。前景オブジェクトは、たとえば、ユーザ111の指112もしくは手、または撮像されたシーンにアタッチしていない任意の他の所望のオブジェクトでもよい。前景オブジェクトは、その後キャプチャされた画像において追跡され得る。モバイルデバイス100がシーンのビデオストリームをキャプチャすることができ、この場合、ビデオストリームが複数のフレームまたは画像から構成されることを理解されたい。したがって、本明細書で使用するキャプチャされた画像は、ビデオのフレームと同様に個々の画像も含むことを理解されたい。
横方向モードで、ターゲット106を含むテーブル104、およびユーザ111の指の形の前景オブジェクト112を含むシーン102を撮像するモバイルデバイス100が図1に示されている。前景オブジェクト112を含む撮像されたシーンが、オーグメンテーション108、すなわち、コンピュータレンダリングオブジェクトとともに、モバイルデバイス100のディスプレイ101に表示される。前景オブジェクト112を検出することによって、オーグメンテーション108は、ユーザ111がオーグメンテーション108と相互作用しているように見えるようにレンダリングされ得る。たとえば、オーグメンテーション108は、それがディスプレイ101内の前景オブジェクト112の下にあるように見えるようにレンダリングされ得る。さらに、その後キャプチャされた画像において前景オブジェクト112を追跡することによって、オーグメンテーションが、ディスプレイ101において、ユーザ111によってタッチされる、押される、引かれるか、またはそうでなければ操作されるように見えるように、レンダリングされ得る。もちろん、検出された前景オブジェクト112は、任意の所望の用途で使用され得る。たとえば、複数の画像上のユーザの指先の位置を追跡することによって、モバイルデバイス100は、ユーザによって行われるジェスチャを識別し、したがって、ユーザの意図されたアクションがキャプチャされた画像から決定され得る。
本明細書で使用するモバイルデバイスは、キャプチャされた画像またはビデオストリームから視覚ベースの位置検出および追跡ができる任意のポータブル電子デバイスを指し、たとえば、セルラーまたは他のワイヤレス通信デバイス、パーソナル通信システム(PCS)デバイス、パーソナルナビゲーションデバイス(PND)、パーソナルインフォメーションマネージャー(PIM)、携帯情報端末(PDA)、またはカメラ、ワイヤレス通信デバイス、コンピュータ、ラップトップ、タブレット型コンピュータなどを含む他の適したモバイルデバイスなどを含み得る。モバイルデバイスは、必ずしもそうではないが、ナビゲーション測位信号など、ワイヤレス通信および/またはナビゲーション信号を受信することが可能であり得る。「モバイルデバイス」という用語はまた、衛星信号受信、支援データ受信、および/または、位置関連処理が、デバイスまたはPNDで生じているか否かにかかわらず、短距離ワイヤレス、赤外線、有線接続、あるいは他の接続などによって、パーソナルナビゲーションデバイス(PND)と通信するデバイスを含むことが意図されている。
モバイルデバイス100は、たとえばユーザ111の指または撮像されたシーンにアタッチしていない他の可動オブジェクトなど、1つまたは複数のオブジェクト112の位置を検出し、追跡することができる。たとえばRandom Forest分類器などの分類器を使用して、たとえば、前景オブジェクトを確実に検出することができる。前景にあり、シーンにアタッチしていないオブジェクトは、背景セグメンテーションを使用して検出され得る。しかしながら、背景セグメンテーションは、一般的に、深さ情報の使用を必要とする。しかしながら、モバイルデバイス100は、既知のターゲット106を含む背景、およびターゲット106に対するモバイルデバイス100の現在のポーズ(位置および配向)を推定することによって、深さ情報なしに背景セグメンテーションを実行することができる。推定された背景は、前景オブジェクトを識別するために、画像から減算され得る。したがって、表示されたオーグメンテーションと相互作用するために、ユーザ111は、たとえば分類器を使用して、指112がセグメント化され、検出され得るように、キャプチャされた画像における背景上にオブジェクト112を持ってくることができる。
モバイルデバイス100は、追跡システム(すなわち、既知のターゲットおよびポーズ)においてすでに利用可能である情報を使用して、背景セグメントを実行し、これは、オブジェクト検出プロセスを単純化し、加速する。さらに、オブジェクトが背景からセグメント化された状態で、オブジェクトを迅速に検出するために、たとえばRandom Forest分類器などの分類器が使用され得る。したがって、オブジェクトは、ユーザが自然にARオーグメンテーションと相互作用することができる効率的な方法で検出され、追跡され得、それによって、ユーザエクスペリエンスが向上する。
図2は、撮像されたシーンにおいて前景オブジェクトを検出する方法のフローチャートである。図示するように、シーンの画像がキャプチャされる(202)。画像は、そうでなければ深さ情報を提供しないカメラによってキャプチャされるビデオのフレームまたは個々の画像でもよい。画像は、シーンにアタッチしていない前景オブジェクトを含み、すなわち、前景オブジェクトは、シーンに対して移動可能である。例として、前景オブジェクトは、ユーザの指、ポインタ、または他のオブジェクトでもよい。前景オブジェクトは、本明細書で使用する際、前景オブジェクトの異なる物理的様相(distinct physical aspect)である関心ポイントを含む。したがって、本明細書で使用する際、前景オブジェクトの関心ポイントは、たとえばSIFT(Scale Invariant Feature Transforms)、SURF(Speeded Up Robust Feature)などを使用するなど、技法を使用して画像から抽出される特徴とは対照的に、指またはポインタの先端、指の爪、または他のそのようなオブジェクトなど、前景オブジェクトの物理的な特徴または属性である。シーンは、環境に対するカメラのポーズを提供するために、既知のターゲットを含み得る。ターゲットは先験的に既知でもよく、すなわち、参照画像またはターゲットのモデルは既知で、記憶されていてもよく、または、ターゲットは、たとえばSimultaneous Localization and Mapping(SLAM)、または他の適切な技法を使用して、シーンの1つまたは複数のキャプチャされた画像に基づいてリアルタイムに学習されてもよい。追加または代替として、ポーズは、たとえば、センサーベースのトラッカを使用して決定され得る。
前景オブジェクトを含まないシーンの画像および参照画像の少なくとも一方が、画像および参照画像が、たとえばフロントビューなど、同じビューを有するようにワープされる(204)。参照画像は、シーンまたはシーンの一部のものであり、前景オブジェクトを含まず、したがって、シーンにおける背景である。たとえば、参照画像は、既知のターゲットのみの画像でもよく、または既知のターゲット、およびターゲットの周辺のエリアを含む画像でもよい。前景オブジェクト上の関心ポイントに属するピクセルを検出するために、ワープ後に画像が参照画像と比較される(206)。画像と参照画像との比較は、たとえばSIFT、SURFなどを使用して、ピクセルが抽出された特徴として検出され得る前景オブジェクトである画像の部分を識別する。必要な場合、必ずしもそうではないが、前景オブジェクトのマスクは、画像と参照画像との比較に基づいて生成され得、前景オブジェクトは、マスクを使用して、画像からセグメント化され得る。次いで、画像からセグメント化された前景オブジェクトを使用して、ピクセルが検出され得る。ピクセルを使用して前景オブジェクト上の関心ポイントが検出される(208)。例として、分類器を使用して、前景オブジェクト上の関心ポイントを検出することができる。分類器への入力は、たとえば、セグメント化された前景オブジェクトまたは前景マスクでもよく、この場合、分類器に供給されるトレーニングデータは、2つの上述したケースにおいて異なる。分類器を使用して前景オブジェクト上の関心ポイントを検出することに関して、前景オブジェクトにおける所定の幾何学的制約は必要とされない。次いで、関心ポイントは、任意の所望の用途において使用され得る。たとえば、画像がディスプレイ上に表示され(210)、関心ポイントに基づいてディスプレイで画像の上にオーグメンテーションがレンダリングされる(212)。たとえば、オーグメンテーションは、オーグメンテーションがディスプレイに表示される前景オブジェクトの下にあるかのように見えるようにレンダリングされ得る。さらに、その後キャプチャされた画像がディスプレイに表示され得、オーグメンテーションは、その後キャプチャされた画像における関心ポイントに基づいて変えられ得る。
図3Aは、前景オブジェクト上の関心ポイントに属するピクセルを検出するために、ワープ後に画像を参照画像と比較するプロセスを示す(図2のステップ206)。図示のように、画像と参照画像との比較に基づいて、前景オブジェクトのためのマスクが生成される(222)。たとえば、ワープ後に各ピクセルの差を生成するために画像におけるピクセルを参照画像における対応するピクセルから減算し、各ピクセルの差を、マスクを生成するための閾値と比較することによって、マスクが生成され得る。代替として、ワープ後の画像および参照画像における対応するピクセルの比率が生成され得、対応するピクセルの比率がマスクを生成するための閾値と比較される。マスクを使用して、前景オブジェクトが画像からセグメント化され得(224)、画像からセグメント化された前景オブジェクトを使用してピクセルが検出され得る(226)。
図3Bは、マスクを生成し、前景オブジェクトをキャプチャされた画像からセグメント化する中間ステップなしで、前景オブジェクト上の関心ポイントに属するピクセルを検出するために、ワープ後に画像を参照画像と比較するプロセスの別の実施形態を示す(図2のステップ206)。図示のように、参照画像における対応するピクセルとは異なるキャプチャされた画像におけるピクセルを使用して、前景オブジェクト画像が生成される(225)。たとえば、ワープされた画像284と参照画像282との比較の間、異なるものとして検出された任意のピクセル、およびしたがって、前景オブジェクトにおいてピクセルの強度が、最初は黒色であり得る新しい画像の対応する位置にコピーされる。このようにして、前景ピクセルが前景画像にマッピングされる。前景オブジェクト上の関心ポイントに属するピクセルが検出され、たとえば、前景オブジェクト画像から抽出され得る。
図4は、例として、キャプチャされた画像および参照画像の少なくとも一方を、他方と同じビューを有するようにワープし(図2のステップ204)、ワープ後にキャプチャされた画像を参照画像と比較する(図2のステップ206)異なる手法を示す。図示のように、たとえば、初期化プロセスの間、参照画像が生成される(231)。前景オブジェクト112の存在なしに、ターゲット106の画像をキャプチャすることによって、初期化の期間で、参照画像が生成され得る。キャプチャされた画像に基づいて、ポーズが生成される(232)。ポーズは、たとえば、シーンが平面であるとき、キャプチャされた画像とターゲットの参照画像との間のホモグラフィを計算することによって生成され得る。よく知られているように、ポーズは、たとえばSIFT(スケール不変特徴変換)、SURF(Speeded Up Robust Feature)などを使用して、キャプチャされた画像から特徴を抽出し、キャプチャされた画像において抽出された特徴を、参照画像において同じように抽出された特徴と比較し、たとえば、キャプチャされた画像から抽出された特徴を参照画像にマッピングするためのホモグラフィを計算することによって決定され得る。
一実施形態では、キャプチャされた画像は、参照画像と同じビューを有するように、ポーズに基づいてワープされ(234)、すなわち、キャプチャされた画像がバックワープされる(backwarped)。この実施形態では、前景オブジェクトでなくターゲットを含む最初の画像と、既知のターゲット画像、すなわち、ターゲットについての記憶された参照画像との間のホモグラフィに基づいて初期化の期間にキャプチャされる画像をワープすることによって、参照画像が生成され得る(231)。参照画像がその後キャプチャされた画像と似た照明状態を有するように、初期化の期間にキャプチャされた画像を参照画像として使用することは、有利である。例として、図5Aは、テーブル104上のターゲット106、ならびにユーザの指112を含むキャプチャされた画像280を示す。図5Bは、たとえば、図4のステップ231で、初期化の期間に以前生成されたターゲット106の参照画像282を示す。わかるように、参照画像282は、フロントビューのターゲット106の画像である。必要な場合、参照画像282は、ターゲット106の周辺の追加のスペース、すなわちテーブル104を含むことができる。しかしながら、図5Aでわかるように、キャプチャされた画像280は、サイドビューから撮られている。したがって、キャプチャされた画像280は、結果として得られたワープした画像が、たとえばフロントビューなど、参照画像と同じビューを有するようにバックワープされる。キャプチャされた画像280のバックワープは、たとえば、キャプチャされた画像280と既知のターゲット画像との間のホモグラフィを決定し、キャプチャされた画像280をワープするためにホモグラフィを使用することによって実行され得る。したがって、参照画像282とキャプチャされた画像280の両方は、同じビューからのものである。図5Cは、例として、ワープ後のキャプチャされた画像280の一部を、ターゲット106およびターゲット106より上にあるユーザの指112の部分のみを含むワープされた画像284として示す。必要な場合、キャプチャされた画像280全体がワープされ得る。
図4において考察されるように、次いで、マスクを生成するために、参照画像がワープされた画像と比較される(236)。たとえば、ワープされた画像におけるピクセルが参照画像における対応するピクセルと比較され得、または、ピクセルのパッチが参照画像におけるピクセルの対応する部分と比較され得る。マスクを生成するために、閾値が結果とともに使用される。対応するピクセルを減算する、またはピクセルの比率を生成することによって、比較が実行され得る。ワープされた画像284および参照画像282のピクセル×ピクセル(またはパッチ×パッチ)の比較が、たとえば、YUVドメインにおいて実行され得る。強度チャネル(Y)は、破棄され得、彩度チャネル(UおよびV)は、個々に比較され得る。一実施形態では、図6にグラフィカルに示されるように、ピクセル×ピクセル(またはパッチ×パッチ)の比較は、参照画像282をワープされた画像284から減算することに基づき得る。ワープされた画像における任意のピクセル(またはパッチ)と参照画像における対応するピクセル(またはパッチ)との間の差が、UチャネルまたはVチャネルにおいて、閾値よりも大きい場合、参照画像における対応するピクセル(またはパッチ)とは異なる色を有するために、ワープされた画像におけるピクセル(またはパッチ)が決定され、したがって、ピクセル(またはパッチ)は、前景オブジェクト(たとえば、ユーザの指112)に属する。別の実施形態では、対応するピクセルを減算するのではなく、ワープ後に画像および参照画像における対応するピクセルについて、比率が生成され、対応するピクセルについての結果として生じる比率が、たとえば、マスクを生成するための閾値と比較され、この場合、比率が1を中心とする閾値の外にある場合、ピクセルは異なる色であると考えられる。
閾値は、固定でもよく、または、画像ごとに適応されてもよい。さらに、閾値は、同じでもよく、またはピクセル(またはパッチ)ごとに変わってもよい。一実装形態では、閾値は、2つの画像の間のピクセル的な差のパーセンタイルとして生成され得、たとえば、閾値は、差分値の90パーセンタイルでもよい。別の実装形態では、閾値は、各ブロックが同じ色であるように視覚的に見えるように、(彩度チャネルUおよびVにおける)色の範囲をN個のブロックに分割することによって決定され得、閾値は、単一ブロックの長さである。Nに使用される値は、UチャネルおよびVチャネルの範囲に基づき得、経験的に決定され得る。たとえば、UおよびVが0から1にわたる場合、範囲を20個のブロックに分割することは、0.05のブロック長を作り出し、これが閾値である。別の実装形態では、閾値は、初期化中に収集されたいくつかのフレームにわたる各ピクセルの色の平均および分散についての収集された統計に基づき得、この場合、たとえば、平均±2.5*標準偏差が、特定ピクセルの閾値として使用され得る。
図6に示したように、マスクを生成するために、キャプチャされた画像と参照画像との比較が使用され得る。たとえば、参照画像282とワープされた画像284との間の差が、生のマスク287をもたらす閾値と比較される。図6の矢印289で示されるように、生のマスク287は、たとえば、ガウスぼかしを使用してフィルタ処理され得る、または、たとえば拡大または浸食などの形態学的操作を受け、次いで、スムーズなマスク288を生成するために、閾値が続き得る。フィルタは、対応するピクセルを減算することとは対照的に、対応するピクセルの比率を使用して生成される生のマスクとともに使用され得る。
代替として、キャプチャされた画像と参照画像との比較は、マスクを生成し、キャプチャされた画像から前景オブジェクトをセグメント化する中間ステップなしにキャプチャされた画像における前景オブジェクトを識別するために使用され得る。たとえば、ワープされた画像284と参照画像282との比較の間、異なるものとして検出された任意のピクセル、およびしたがって、前景オブジェクトにおいて、ピクセルの強度は、最初は黒色であり得る新しい画像の対応する位置にコピーされる。このようにして、前景ピクセルは、マスクの使用なしに、図5Dに示される前景画像290にマッピングされる。
図4に示したように、キャプチャされた画像をバックワープする代わりに、参照画像は、ポーズに基づいてキャプチャされた画像と同じビューにワープされ得る(235)。この実施形態では、参照画像が、前景オブジェクトのないターゲットの最初の画像として生成される(231)。参照画像と既知のターゲット画像との間のホモグラフィおよび232からのポーズを使用して、参照画像をキャプチャされた画像と同じビューにワープする。キャプチャされた画像は、ブロック236に関して上記で説明したものと同様の方法でワープされた参照画像と比較され得る(237)。
図3Aで説明したように、マスクが生成される場合、マスクを使用して、前景オブジェクト上の関心ポイントに属するピクセルを検出する前にキャプチャされた画像から前景オブジェクトをセグメント化することができる(224)。例として、図4のブロック234および236で説明するように、マスクを生成するために、キャプチャされた画像がバックワープされ、背景、たとえば、ターゲット106を取り除くために、マスク288(図6)がワープされた画像284(図5C)に適用され得、それによって、図5Dの前景画像290によって示すように、前景オブジェクト、すなわち、指112のみが残る。同様に、図4のブロック235および237で説明するように、マスクを生成するために、参照画像がワープされ、背景、たとえば、ターゲット106を取り除くために、マスクがキャプチャされた画像に適用され、それによって、前景画像において、前景オブジェクト、すなわち、指112のみが残る。図3Bで説明したように、マスクが使用されない場合、ワープ後のキャプチャされた画像と参照画像との比較において異なる任意のピクセルの強度が、図5Dの前景画像290を生成するために新しい画像にマッピングされ得る。
次いで、前景オブジェクト上の関心ポイントに属するピクセルが検出され得る。たとえば、SIFT、SURF、または任意の他の適切な技法を使用して特徴を抽出することによって、ピクセルが検出され得る。キャプチャされた画像がバックワープされた場合(図4の234)、ピクセルは、たとえば、図5Dに示される前景画像290において検出され、ワープされた画像284にマッピングされ得る。図5Eは、例として、ワープされた画像284において指112上で検出される複数のピクセル291を示し、一方、背景、すなわちターゲット106は、検出されたピクセルを有していない。ワープされた画像284からのピクセルは、必要な場合、ホモグラフィに基づいてキャプチャされた画像に投影され得る。代替として、参照画像がワープされる場合(図4の235)、この実施形態では前景画像がワープされないので、ピクセルは、結果として生じる前景画像において検出され、キャプチャされた画像にマッピングされ得る。
上記で説明したように、ピクセルは、画像における前景オブジェクト上の関心ポイントを検出するために使用され得る(図2のステップ208)。すなわち、前景オブジェクトが特定の構成を有すると仮定すると、関心ポイントは、ピクセルおよび所定の幾何学的制約を使用して検出され得る。しかしながら、分類器を使用すると、関心ポイントは、所定の幾何学的制約なしにピクセルを使用して検出され得る。したがって、関心ポイント、たとえば、前景オブジェクト112の先端293を検出するために、図5Eのピクセル291の構成が分類器によって使用され得る。ワープされた画像284からの関心ポイントは、ホモグラフィに基づいてキャプチャされた画像に投影され得る。代替として、参照画像がワープされる場合(図4の235)、この実施形態では前景画像がワープされないので、関心ポイントは、結果として生じる前景画像において検出され、キャプチャされた画像にマッピングされ得る。
したがって、前景オブジェクト、および具体的には、前景オブジェクト上の関心ポイントがキャプチャされた画像において検出される。図5Bに示したように、参照画像282がターゲット106のみを含むとき、前景オブジェクトは、ターゲット106上で検出され得る。ターゲット106、たとえば、テーブル104周辺の追加のスペースを含むために、参照画像282が拡張される場合、前景オブジェクトは、ターゲット106外のエリア上で検出され得る。
キャプチャされた画像において前景オブジェクトが検出された状態で、キャプチャされた画像における前景オブジェクトに対して、オーグメンテーションがレンダリングされ得る。たとえば、オーグメンテーションは、図5Fに示したように、指112がディスク294を部分的に遮るなど、オーグメンテーションが前景オブジェクトの下にあるように見えるようにレンダリングされ得る。
キャプチャされた画像において前景オブジェクト112が検出された状態で、前景オブジェクトは、その後キャプチャされた画像において追跡され得る。前景オブジェクトは、たとえば、シーンのその後キャプチャされた画像および参照画像の少なくとも一方をワープし、前景オブジェクト上の関心ポイントに属するピクセルを検出するために、ワープ後にその後キャプチャされた画像を参照画像と比較し、その後キャプチャされた画像における検出されたピクセルを使用して前景オブジェクト上の関心ポイントを検出するなど、たとえば、その後キャプチャされた画像ごとにプロセスを繰り返すことによって、その後キャプチャされた画像において追跡され得る。代替または追加として、前景オブジェクトは、たとえば抽出された特徴など、その後キャプチャされた画像において関心ポイントの検出されたピクセルの動きを追跡するために、オプティカルフローなどのプロセスを使用して、その後キャプチャされた画像において追跡され得る。その後キャプチャされた画像は、モバイルデバイス100のディスプレイ101に表示され得、その間、ユーザがオーグメンテーションと相互作用し得るように見えるように、オーグメンテーションが追跡された前景オブジェクトに基づいてディスプレイにレンダリングされる。たとえば、図5Fに示したように、各キャプチャされた画像280において、画像292に示したように、オーグメンテーション、たとえば、ディスク294は、検出された指112の位置に基づいて生成され、表示され得る。したがって、オーグメンテーションは、追跡された前景オブジェクトがディスプレイにおけるオーグメンテーションと相互作用するように見えるようにレンダリングされ得る。
図7は、前景オブジェクトのマスクが生成され、画像から前景オブジェクトをセグメント化するために使用される、前景オブジェクトの検出をさらに詳述するシステム図を示す。わかるように、入力画像、すなわち、初期化画像およびその後キャプチャされた画像は、既知のターゲット画像304とともに、トラッカ302に提供される。上記で説明したように、トラッカは、入力画像および既知のターゲット画像304から特徴を抽出し、ポーズ、すなわち、入力画像と参照画像との間のホモグラフィを生成する。トラッカは、特定の既知のターゲット、たとえば長方形など、リアルタイムに取得され、学習されたターゲットを使用し得、または、SLAMまたはセンサーベースのトラッカに基づき得る。図示のように、背景推定器306は、トラッカ302によって生成されるホモグラフィを使用して参照画像を形成するために、既知のターゲット画像に基づいて、初期化の期間にキャプチャされる画像をワープする。入力画像、参照画像、および入力画像の現在のポーズは、前景マスク生成器308に提供される。前景マスク生成器308は、ワープされた入力画像が参照画像と同じビューからであるように、ポーズに基づいて入力画像をワープする。前景マスク生成器308は、ワープされた入力画像および参照画像における対応するピクセル間の差を閾値と比較して、前景マスクが生成され、これは、上記で説明したように、フィルタ処理され得る。結果として生じる前景マスクは、前景抽出器310に提供され得る。前景抽出器310は、前景マスクからのピクセルを使用して、検出器312に対して、セグメント化された前景オブジェクトを生成するために、入力画像から前景を抽出する。検出器312は、セグメント化された前景オブジェクトにおけるピクセルを検出し、たとえば、特徴を抽出し、ピクセルに基づいて前景オブジェクト上の関心ポイントを検出する。検出器312は、前景オブジェクト上の関心ポイントを検出するために、たとえばRandom Forest分類器などの分類器を含み得る。分類器の一般の動作は、当技術分野ではよく理解されている。必要な場合、オブジェクトの幾何学的形状がわかっている場合、前景マスク生成器308からの前景マスクが直接検出器312によって使用されて前景オブジェクトが検出されるようにしてもよい。たとえば、前景マスクから指の
シルエットが与えられると、検出器312は、たとえば、この目的のために訓練される分類器を使用することによって、指の位置を決定することができる。
シーンの変化がある場合、参照画像を更新することは望ましい場合がある。たとえば、参照画像が初期化された後、鉛筆がターゲット106に配置される場合、鉛筆は、前景オブジェクトとして検出される。シーンの変化は、たとえば、いくつかのフレームにわたって前景マスクに現れる一致した静止領域を検出することによって検出され得る。
さらに、現在の照明状態でのターゲットの外観における変化は、最初の数個のカメラフレームをバックワープし、そこから統計を生成することによって学習することもできる。これはまた、トラッカ302(図7)によって戻されるポーズにおけるエラーをシステムがあまり被らないようにする。たとえば、前景マスク生成器308によって遭遇され得る問題の可能な原因は、トラッカ302によって戻されるポーズが、わずかに、たとえば、数ピクセル離れることであり、これによって、誤ったピクセルが、ワープされた現在の画像および参照画像において比較されることになる。エラーの別の原因は、入力画像のピクセルを近隣とぼやけさせてしまう恐れがある被写体ぶれ(または手ぶれ)であり、したがって、現在の画像におけるぼやけたピクセルと参照画像における対応するピクセルとの間の差が誇張される。前景マスクを生成するための閾値として、初期化の期間に学習された各ピクセルの外観(たとえば、色)の平均および偏差などの統計を使用することによって、モーションブラーおよびポーズエラーによって生じるエラーは、最低限に抑えられ得る。
複数の画像にわたって前景オブジェクトを追跡することは、ユーザの意図されたアクションを識別するために使用され得、したがって、ユーザは、オーグメンテーションと相互作用する、または他の所望のアクションを実行することができる。たとえば、図8に示したように、その後キャプチャされた画像において、前景オブジェクトの関心ポイントが追跡される(402)。必要な場合、たとえばユーザの指先など、1つまたは複数の前景オブジェクトが一連の画像、たとえば、ビデオストリームにおいて追跡され得る。追跡されたオブジェクトの動きを使用して、たとえばある時間期間にわたって前景オブジェクトの動きによって生成される時間的ジェスチャなどのジェスチャを決定することができる(404)。たとえば、追跡された前景オブジェクトの動きのパターンは、どのジェスチャが実行されているかを決定するために、以前提供され、および/または学習され、モバイルデバイス100に記憶され得る、ジェスチャのデータベースと比較され得る。さらに、前景オブジェクトの構成は、ジェスチャのライブラリに記憶され得、たとえば、検出された前景オブジェクトと比較され得るピンチジェスチャは、単一のフレームにおけるジェスチャ、すなわち、非時間的ジェスチャを検出するために比較され得る。次いで、ジェスチャと関連するアクションが実行され得る(406)。アクションは、オーグメンテーションとの相互作用に関連し得る、または、モバイルデバイスの制御に関連し得る。たとえば、決定されたジェスチャを使用して、たとえば拡大もしくは縮小、減光もしくは増光など、表示を変える、または曲もしくはビデオの早送りもしくは巻き戻しなど、アプリケーションを制御することができる。したがって、前景オブジェクト上の検出された関心ポイントを使用して、任意の所望の用途で使用され得る。さらに、オーグメンテーションは、ユーザによって操作され得る入力デバイスでもよい。図9は、たとえば、図1と類似しているが、オーグメンテーションをキーボード108aとして示しており、この場合、ユーザの指先は、ユーザのタイピングを決定するために追跡され得る。仮想ボタンによって従来必要とされるターゲットの特別に設計されたエリアの遮断によって決定されることとは対照的に、ユーザのタイピングが、位置から、および必要に応じて、ユーザの指先の動きから決定されるので、キーボード108aが従来の仮想ボタンとは異なることに留意されたい。さらに、キーボードよりはむしろ、ユーザインターフェースは、他のタイプの選択デバイスでもよい。一実施形態では、ターゲット106上にレンダリングされるオーグメンテーションは、ターゲット106に投影されるモバイルデバイス100からの表示でもよい。たとえば、表示されたインターフェースと相互作用するためにレンダリングされたオーグメンテーションに対してユーザの指または他のオブジェクトが追跡される間に、ウェブブラウザウィンドウまたは他のディスプレイインターフェースはワープされ、ディスプレイ101のターゲット106上に現れるように投影され得る。
図10は、撮像されたシーンにおいて前景オブジェクトを検出することができるモバイルデバイス100のブロック図である。モバイルデバイス100は、シーンが撮像されるカメラ110を含む。モバイルデバイス100は、たとえば、ディスプレイ101、ならびにキーパッドまたはユーザが情報をモバイルデバイス100に入力することのできる他の入力デバイスを含む、ユーザインターフェース103をさらに含む。モバイルデバイス100は、たとえば動きセンサー114など、追加の要素を含むことができ、それは、たとえば、加速度計、ジャイロスコープ、磁力計などを含み得、よく知られているように、モバイルデバイス100のポーズ決定を支援するために使用され得る。たとえばユーザインターフェース103におけるマイクロフォンおよびスピーカー、ワイヤレスインターフェースなど、本開示とは無関係である追加の要素もモバイルデバイス100に含まれ得る。
モバイルデバイス100は、カメラ110およびディスプレイ101に接続され、カメラ110およびディスプレイ101と通信する制御ユニット105、ならびに、使用する場合、動きセンサー114など他の要素も含む。制御ユニット105は、本明細書で説明するようにカメラ110から得られるデータを受け取り、処理し、ディスプレイ101がレンダリングされたオーグメンテーションを表示するようにする。制御ユニット105は、バス105b、プロセッサ105pおよび関連するメモリ105m、ハードウェア105h、ファームウェア105f、ならびにソフトウェア105sによって提供され得る。制御ユニット105は、ターゲット106を含み得る、撮像されたシーンに対して、モバイルデバイス100のポーズ、または、より詳細には、カメラ110を追跡するトラッカ302を含むものとして、さらに示される。制御ユニット105は、たとえば、トラッカ302によって生成されるポーズに基づいて参照画像に前景オブジェクトのない最初の画像をワープすることによって、参照画像を生成するために使用され得る背景推定器306をさらに含み得る。制御ユニット105における前景マスク生成器308は、前景オブジェクトのためのマスクを生成するために、参照画像を現在画像と比較する。オブジェクトの幾何学的形状がまだわかっていない場合、前景抽出器310は、たとえば、マスクに基づいて、現在画像から前景オブジェクトをセグメント化するために使用され得る。検出器312は、前景オブジェクト上の関心ポイントに属するピクセルを検出するための抽出器312e、およびキャプチャされた画像にわたってディスプレイ101に示されるオーグメンテーションを生成するためにレンダリングモジュール314が使用される間に、ピクセルを使用して関心ポイントを検出するための分類器312cを含み得る。
様々なモジュール302、306、308、310、312、および314は、明確にするために互いに別に、およびプロセッサ105pとは別に示されているが、プロセッサ105pの一部であるか、またはプロセッサ105p内で実行されるソフトウェア105s内の命令に基づいてプロセッサ内に実装され得る。本明細書で使用する場合、プロセッサ105pは、1つまたは複数のマイクロプロセッサ、埋め込み式プロセッサ、コントローラ、特定用途向け集積回路(ASIC)、デジタル信号プロセッサ(DSP)などを含み得るが、必ずしもそれらを含む必要がないことが理解されよう。プロセッサという用語は、特定のハードウェアではなく、システムによって実施される機能について説明するものである。さらに、本明細書で使用する場合、「メモリ」という用語は、モバイルデバイスに関連する長期メモリ、短期メモリ、または他のメモリを含む、任意のタイプのコンピュータ記憶媒体を指し、任意の特定のタイプのメモリもしくは任意の特定の数のメモリ、またはメモリが記憶される媒体のタイプに限定されない。
本明細書に記載された方法論は、アプリケーションに依存する様々な手段によって実施され得る。たとえば、これらの方法は、ハードウェア105h、ファームウェア105f、ソフトウェア105s、またはそれらの任意の組合せで実装され得る。ハードウェア実装形態の場合、各処理ユニットは、本明細書に記載された機能を実行するように設計された、1つまたは複数の特定用途向け集積回路(ASIC)、デジタル信号プロセッサ(DSP)、デジタル信号処理デバイス(DSPD)、プログラマブル論理デバイス(PLD)、フィールドプログラマブルゲートアレイ(FPGA)、プロセッサ、コントローラ、マイクロコントローラ、マイクロプロセッサ、電子デバイス、他の電子ユニット、あるいはそれらの組合せ内で実装されてもよい。
ファームウェアおよび/またはソフトウェア実装形態の場合、これらの方法論は、本明細書に記載された機能を実行するモジュール(たとえば、手順、機能等)で実施され得る。命令を有形に具現化するいずれの機械可読媒体も、本明細書で説明する方法を実装する際に使用され得る。たとえば、ソフトウェアコードは、メモリ105m内に記憶され、プロセッサ105pによって実行され得る。メモリ105mは、プロセッサ105p内に実装されるか、またはプロセッサ105pの外部に実装され得る。機能は、ファームウェアおよび/またはソフトウェアに実装される場合、コンピュータ可読である記憶媒体上に1つまたは複数の命令またはコードとして記憶され得、その記憶媒体は、過渡的な伝播信号を含まない。例としては、データ構造を用いて符号化された記憶媒体、およびコンピュータプログラムを用いて符号化されたストレージがある。記憶媒体としては、物理的なコンピュータ記憶媒体がある。記憶媒体は、コンピュータによってアクセスされ得る任意の利用可能な媒体であり得る。限定ではなく、例として、そのような記憶媒体は、RAM、ROM、EEPROM、CD-ROMもしくは他の光ディスクストレージ、磁気ディスクストレージもしくは他の磁気記憶デバイス、または所望のプログラムコードを命令もしくはデータ構造の形で記憶するのに使用することができ、かつコンピュータからアクセスすることができる任意の他の媒体を含むことができ、本明細書で使用するディスク(diskおよびdisc)には、コンパクトディスク(disc)(CD)、レーザディスク(disc)、光ディスク(disc)、デジタル多用途ディスク(disc)(DVD)、フロッピー(登録商標)ディスク(disk)、およびブルーレイディスク(disc)が含まれ、ディスク(disk)は通常、データを磁気的に再生するが、ディスク(disc)はデータをレーザによって光学的に再生する。上記の組合せも、記憶媒体の範囲内に含めるべきである。
したがって、モバイルデバイス100は、シーンにアタッチしていない前景オブジェクトを含むシーンの画像をキャプチャするための手段であり、前景オブジェクトが、異なる物理的様相である関心ポイントを含む、手段を含み、これは、たとえばカメラ110とすることができる。前景オブジェクトを含まないシーンの画像および参照画像の少なくとも一方を、画像および参照画像が同じビューを有するようにワープするための手段は、たとえば、トラッカ302、背景推定器306、および前景マスク生成器308、あるいは、ソフトウェア105sから受信された命令を実行するハードウェア105h、ファームウェア105f、またはプロセッサ105pでもよい。前景オブジェクト上の関心ポイントに属するピクセルを検出するためにワープ後に画像を参照画像と比較するための手段は、たとえば、前景マスク生成器308、前景抽出器310、および検出器312、ならびにより詳細には、抽出器312e、あるいは、ソフトウェア105sから受信された命令を実行するハードウェア105h、ファームウェア105f、またはプロセッサ105pでもよい。検出されたピクセルを使用して前景オブジェクト上の関心ポイントを検出するための手段は、たとえば、検出器312、およびより詳細には、分類器、あるいは、ソフトウェア105sから受信された命令を実行するハードウェア105h、ファームウェア105f、またはプロセッサ105pでもよい。画像をディスプレイに表示するための手段は、たとえば、ディスプレイ101でもよい。関心ポイントに基づいて、ディスプレイで画像の上にオーグメンテーションをレンダリングするための手段は、たとえば、レンダリングモジュール314、あるいは、ソフトウェア105sから受信された命令を実行するハードウェア105h、ファームウェア105f、またはプロセッサ105pでもよい。
マスクを使用して画像から前景オブジェクトをセグメント化するための手段は、たとえば、前景抽出器310、あるいは、ソフトウェア105sから受信された命令を実行するハードウェア105h、ファームウェア105f、またはプロセッサ105pでもよい。画像から前景オブジェクトを抽出するための手段は、たとえば、前景抽出器310、あるいは、ソフトウェア105sから受信された命令を実行するハードウェア105h、ファームウェア105f、またはプロセッサ105pでもよい。画像および参照画像の少なくとも一方をワープするための手段は、たとえば、トラッカ302、あるいはソフトウェア105sから受信された命令を実行するハードウェア105h、ファームウェア105f、またはプロセッサ105pでもよい、画像と参照画像との間のポーズを生成するための手段と、たとえば、背景推定器306、あるいは、ソフトウェア105sから受信された命令を実行するハードウェア105h、ファームウェア105f、またはプロセッサ105pでもよい、ポーズに基づいて、画像および参照画像の一方をワープするための手段とを含み得る。モバイルデバイス100は、その後キャプチャされた画像を、たとえばディスプレイ101でもよいディスプレイに表示するための手段を含み得る。その後キャプチャされた画像における関心ポイントに基づいて、オーグメンテーションを変えるための手段は、たとえば、レンダリングモジュール314、あるいは、ソフトウェア105sから受信された命令を実行するハードウェア105h、ファームウェア105f、またはプロセッサ105pでもよい。モバイルデバイス100は、その後キャプチャされた画像における前景オブジェクト上の関心ポイントを追跡するための手段をさらに含むことができ、これは、トラッカ302、背景推定器306、前景マスク生成器308、前景抽出器310、および検出器312、あるいは、ソフトウェア105sから受信された命令を実行するハードウェア105h、ファームウェア105f、またはプロセッサ105pでもよい。前景オブジェクト上の関心ポイントの動きに基づいて時間的ジェスチャを検出するために手段は、たとえば、ハードウェア105h、ファームウェア105f、あるいはソフトウェア105sから受信された命令を実行するハードウェア105h、ファームウェア105f、またはプロセッサ105pでもよく、時間的ジェスチャと関連したアクションを実行するための手段は、たとえば、ハードウェア105h、ファームウェア105f、あるいは、ソフトウェア105sから受信された命令を実行するハードウェア105h、ファームウェア105f、またはプロセッサ105pでもよい。
教授の目的で本発明を特定の実施形態に関連して示したが、本発明はそれらの実施形態に限定されない。本発明の範囲から逸脱することなく様々な適応および変更を行うことができる。したがって、添付の特許請求の範囲における趣旨および範囲は、上記の説明に限定されるべきではない。
100 モバイルデバイス
101 ディスプレイ
102 シーン
103 ユーザインターフェース
104 テーブル
105 制御ユニット
105f ファームウェア
105h ハードウェア
105m メモリ
105p プロセッサ
105s ソフトウェア
106 ターゲット
108 オーグメンテーション
108a キーボード
110 カメラ
111 ユーザ
112 指
112 前景オブジェクト
114 動きセンサー
280 キャプチャされた画像
282 参照画像
284 ワープされた画像
287 生のマスク
288 マスク
290 前景画像
291 ピクセル
293 先端
294 ディスク
302 トラッカ
304 既知のターゲット画像
306 背景推定器
308 前景マスク生成器
310 前景抽出器
312 検出器
312c 分類器
312e 抽出器
314 レンダリングモジュール

Claims (12)

  1. シーンの参照画像を生成するステップと、
    前記シーンにアタッチしていない前景オブジェクトを有する前記シーンの画像をキャプチャするステップであって、前記前景オブジェクトが、異なる物理的様相である関心ポイントを含む、ステップと、
    前記前景オブジェクトを含まない前記シーンの画像および参照画像の少なくとも一方を、前記画像および前記参照画像が同じビューを有するようにワープするステップと、
    前記前景オブジェクト上の前記関心ポイントに属するピクセルを検出するために、ワープ後に前記画像を前記参照画像と比較するステップであって、
    前記前景オブジェクトのためのマスクを生成するステップと、
    前記マスクを用いて前記画像から前記前景オブジェクトをセグメント化するステップと、
    前記画像からセグメント化された前記前景オブジェクトを用いて、前記ピクセルを検出するステップとを含む、比較するステップと、
    前記検出されたピクセルを用いて前記前景オブジェクト上の前記関心ポイントを検出するステップと、
    ディスプレイに前記画像を表示するステップと、
    前記関心ポイントに基づいて、前記ディスプレイで前記画像の上にオーグメンテーションをレンダリングするステップと、
    その後キャプチャされた画像における前景オブジェクトを追跡するステップであって、いくつかのフレームにわたって前記マスクに現れる一致した静止領域を検出することによってシーンの変化を検出するステップと、シーンに変化がある場合に前記参照画像を更新するステップとを含む、追跡するステップと
    を含む、方法。
  2. 前記シーンにアタッチしていない前記前景オブジェクトが、ユーザの少なくとも1つの指であり、前記関心ポイントが前記指の先端である、請求項1に記載の方法。
  3. ワープ後に前記画像を前記参照画像と比較するステップが、
    ワープ後に各ピクセルの差を生成するために、前記参照画像における対応するピクセルから前記画像におけるピクセルを減算するステップと、
    各ピクセルの前記差を閾値と比較するステップと、
    ワープ後において前記画像および前記参照画像における対応するピクセルの比率を生成するステップと、
    対応するピクセルの前記比率を閾値と比較するステップと
    を含む、請求項1に記載の方法。
  4. その後キャプチャされた画像を前記ディスプレイに表示するステップと、
    前記その後キャプチャされた画像における前記関心ポイントに基づいて前記オーグメンテーションを変えるステップと
    をさらに含む、請求項1に記載の方法。
  5. 前記ディスプレイで前記画像の上にオーグメンテーションをレンダリングするステップが、前記オーグメンテーションが前記ディスプレイに表示される前記前景オブジェクトの下にあるかのように見えるように前記オーグメンテーションをレンダリングするステップを含む、請求項1に記載の方法。
  6. 前記シーンが、関心ポイントを有する複数の前景オブジェクトを含み、前記方法が、
    ワープ後に前記画像を前記参照画像と比較することによって前記複数の前景オブジェクト上の前記関心ポイントに属するピクセルを検出するステップと、
    前記検出されたピクセルを使用して前記複数の前景オブジェクト上の前記関心ポイントを検出するステップと
    をさらに含む、請求項1に記載の方法。
  7. 前記前景オブジェクト上の前記関心ポイントの動きに基づいて時間的ジェスチャを検出するステップと、
    前記時間的ジェスチャと関連したアクションを実行するステップと
    をさらに含む、請求項1に記載の方法。
  8. 前記前景オブジェクト上の前記関心ポイントの構成をジェスチャ構成のライブラリと比較するステップと、
    前記前景オブジェクト上の前記関心ポイントの前記構成からジェスチャを識別するステップと、
    前記ジェスチャと関連したアクションを実行するステップと
    を含む、請求項1に記載の方法。
  9. その後キャプチャされた画像における前記前景オブジェクトを追跡する前記ステップが、
    その後キャプチャされた画像ごとに、前記シーンの前記その後キャプチャされた画像および前記参照画像の少なくとも一方をワープするステップと、
    前記前景オブジェクト上の前記関心ポイントに属するピクセルを検出するために、ワープ後に前記その後キャプチャされた画像を前記参照画像と比較するステップと、
    前記その後キャプチャされた画像における前記検出されたピクセルを使用して前記前景オブジェクト上の前記関心ポイントを検出するステップと
    を含む、請求項1に記載の方法。
  10. 前記関心ポイントに属する前記ピクセルに関して、オプティカルフローを使用して、その後キャプチャされた画像における前記前景オブジェクトを追跡するステップをさらに含む、請求項1に記載の方法。
  11. シーンの参照画像を生成するための手段と、
    前記シーンにアタッチしていない前景オブジェクトを含む前記シーンの画像をキャプチャするための手段であって、前記前景オブジェクトが、異なる物理的様相である関心ポイントを含む、手段と、
    前記前景オブジェクトを含まない前記シーンの画像および参照画像の少なくとも一方を、前記画像および前記参照画像が同じビューを有するようにワープするための手段と、
    前記前景オブジェクト上の前記関心ポイントに属するピクセルを検出するために、ワープ後に前記画像を前記参照画像と比較するための手段であって、
    前記前景オブジェクトのためのマスクを生成するための手段と、
    前記マスクを用いて前記画像から前記前景オブジェクトをセグメント化するための手段と、
    前記画像からセグメント化された前記前景オブジェクトを用いて、前記ピクセルを検出するための手段とを含む、比較するための手段と、
    前記検出されたピクセルを用いて前記前景オブジェクト上の前記関心ポイントを検出するための手段と、
    ディスプレイに前記画像を表示するための手段と、
    前記関心ポイントに基づいて、前記ディスプレイで前記画像の上にオーグメンテーションをレンダリングするための手段と、
    その後キャプチャされた画像における前景オブジェクトを追跡するための手段であって、いくつかのフレームにわたって前記マスクに現れる一致した静止領域を検出することによってシーンの変化を検出し、シーンに変化がある場合に前記参照画像を更新するための手段を含む、追跡するための手段と
    を含む、装置。
  12. 請求項1から10のうちのいずれか一項に記載の方法を実行するためのプログラムコードを備える記録媒体。
JP2019125355A 2013-01-03 2019-07-04 前景オブジェクトに基づく拡張現実のレンダリング Pending JP2019192288A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/733,740 2013-01-03
US13/733,740 US9076257B2 (en) 2013-01-03 2013-01-03 Rendering augmented reality based on foreground object

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2015551683A Division JP2016509293A (ja) 2013-01-03 2013-12-06 前景オブジェクトに基づく拡張現実のレンダリング

Publications (1)

Publication Number Publication Date
JP2019192288A true JP2019192288A (ja) 2019-10-31

Family

ID=49887270

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2015551683A Pending JP2016509293A (ja) 2013-01-03 2013-12-06 前景オブジェクトに基づく拡張現実のレンダリング
JP2019125355A Pending JP2019192288A (ja) 2013-01-03 2019-07-04 前景オブジェクトに基づく拡張現実のレンダリング

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2015551683A Pending JP2016509293A (ja) 2013-01-03 2013-12-06 前景オブジェクトに基づく拡張現実のレンダリング

Country Status (6)

Country Link
US (1) US9076257B2 (ja)
EP (1) EP2941756B1 (ja)
JP (2) JP2016509293A (ja)
KR (1) KR20150103104A (ja)
CN (1) CN104903934B (ja)
WO (1) WO2014107261A1 (ja)

Families Citing this family (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8693731B2 (en) * 2012-01-17 2014-04-08 Leap Motion, Inc. Enhanced contrast for object detection and characterization by optical imaging
US11493998B2 (en) 2012-01-17 2022-11-08 Ultrahaptics IP Two Limited Systems and methods for machine control
US9671566B2 (en) 2012-06-11 2017-06-06 Magic Leap, Inc. Planar waveguide apparatus with diffraction element(s) and system employing same
JP6138566B2 (ja) * 2013-04-24 2017-05-31 川崎重工業株式会社 部品取付作業支援システムおよび部品取付方法
US10295338B2 (en) * 2013-07-12 2019-05-21 Magic Leap, Inc. Method and system for generating map data from an image
WO2015006784A2 (en) 2013-07-12 2015-01-15 Magic Leap, Inc. Planar waveguide apparatus with diffraction element(s) and system employing same
CN107972491A (zh) * 2013-10-09 2018-05-01 麦格纳覆盖件有限公司 对车窗显示的控制
US20150185829A1 (en) * 2013-12-27 2015-07-02 Datangle, Inc. Method and apparatus for providing hand gesture-based interaction with augmented reality applications
US9986225B2 (en) * 2014-02-14 2018-05-29 Autodesk, Inc. Techniques for cut-away stereo content in a stereoscopic display
JP6314564B2 (ja) * 2014-03-17 2018-04-25 ソニー株式会社 画像処理装置、画像処理方法、及び、プログラム
CN105320248B (zh) * 2014-06-03 2018-12-07 深圳Tcl新技术有限公司 空中手势输入方法及装置
CN104318218A (zh) * 2014-10-29 2015-01-28 百度在线网络技术(北京)有限公司 图像识别方法和装置
GB2532075A (en) * 2014-11-10 2016-05-11 Lego As System and method for toy recognition and detection based on convolutional neural networks
WO2016172506A1 (en) 2015-04-23 2016-10-27 Hasbro, Inc. Context-aware digital play
GB2539183A (en) * 2015-06-02 2016-12-14 Nokia Technologies Oy A method, an apparatus, a computer program product for augmented reality
JP6755713B2 (ja) * 2016-05-25 2020-09-16 キヤノン株式会社 追尾装置、追尾方法及びプログラム
US10140776B2 (en) * 2016-06-13 2018-11-27 Microsoft Technology Licensing, Llc Altering properties of rendered objects via control points
US20180144554A1 (en) 2016-11-18 2018-05-24 Eyedaptic, LLC Systems for augmented reality visual aids and tools
WO2018094285A1 (en) * 2016-11-18 2018-05-24 Eyedaptic, LLC Improved systems for augmented reality visual aids and tools
US10242449B2 (en) 2017-01-04 2019-03-26 Cisco Technology, Inc. Automated generation of pre-labeled training data
US10817724B2 (en) * 2017-05-01 2020-10-27 Microsoft Technology Licensing, Llc Real time object surface identification for augmented reality environments
US20190012841A1 (en) 2017-07-09 2019-01-10 Eyedaptic, Inc. Artificial intelligence enhanced system for adaptive control driven ar/vr visual aids
US10984508B2 (en) 2017-10-31 2021-04-20 Eyedaptic, Inc. Demonstration devices and methods for enhancement for low vision users and systems improvements
CN107833264B (zh) * 2017-11-13 2019-02-01 百度在线网络技术(北京)有限公司 一种图片处理方法、装置、设备和计算机可读存储介质
IL274426B2 (en) * 2017-11-14 2024-01-01 Magic Leap Inc Discovering and describing a fully complex point of interest using homographic processing
JP7122815B2 (ja) * 2017-11-15 2022-08-22 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP7094702B2 (ja) * 2018-01-12 2022-07-04 キヤノン株式会社 画像処理装置及びその方法、プログラム
KR102450948B1 (ko) 2018-02-23 2022-10-05 삼성전자주식회사 전자 장치 및 그의 증강 현실 객체 제공 방법
US11563885B2 (en) 2018-03-06 2023-01-24 Eyedaptic, Inc. Adaptive system for autonomous machine learning and control in wearable augmented reality and virtual reality visual aids
CN110264509B (zh) * 2018-04-27 2022-10-14 腾讯科技(深圳)有限公司 确定图像捕捉设备的位姿的方法、装置及其存储介质
CN117631307A (zh) 2018-05-29 2024-03-01 爱达扩视眼镜公司 用于低视力用户的混合式透视增强现实系统和方法
WO2020068819A1 (en) 2018-09-24 2020-04-02 Eyedaptic, Inc. Enhanced autonomous hands-free control in electronic visual aids
WO2020106299A1 (en) 2018-11-21 2020-05-28 Hewlett-Packard Development Company, L.P. Augmenting live images of a scene for occlusion
CN110221690B (zh) * 2019-05-13 2022-01-04 Oppo广东移动通信有限公司 基于ar场景的手势交互方法及装置、存储介质、通信终端
US11475661B2 (en) 2020-02-10 2022-10-18 Fujifilm Business Innovation Corp. Systems and methods for augmented reality application for annotations and adding interfaces to control panels and screens
US11557065B2 (en) * 2020-02-10 2023-01-17 Fujifilm Business Innovation Corp. Automatic segmentation for screen-based tutorials using AR image anchors
CN111444767B (zh) * 2020-02-25 2022-06-21 华中科技大学 一种基于激光雷达的行人检测和追踪方法
CN111444769B (zh) * 2020-02-25 2022-07-01 华中科技大学 一种基于多尺度自适应随机森林的激光雷达检测人腿方法
US11574423B2 (en) * 2021-01-29 2023-02-07 Boomanity Corp. A Delaware Corporation Augmented reality (AR) object communication and interaction system and method
CN114419073B (zh) * 2022-03-09 2022-08-12 荣耀终端有限公司 一种运动模糊生成方法、装置和终端设备

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003296759A (ja) * 2002-03-29 2003-10-17 Canon Inc 情報処理方法および装置
JP2009251702A (ja) * 2008-04-02 2009-10-29 Hiroyuki Hosoda 情報処理装置、情報処理方法及び情報処理プログラム
JP2010015469A (ja) * 2008-07-04 2010-01-21 Nippon Telegr & Teleph Corp <Ntt> 静止領域検出方法とその装置、プログラム及び記録媒体
JP2012088881A (ja) * 2010-10-19 2012-05-10 Nippon Hoso Kyokai <Nhk> 人物動作検出装置およびそのプログラム
JP2012238175A (ja) * 2011-05-11 2012-12-06 Canon Inc 情報処理装置、情報処理方法、及びプログラム

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002318652A (ja) * 2001-04-20 2002-10-31 Foundation For Nara Institute Of Science & Technology 仮想入力装置およびプログラム
US7643024B2 (en) 2001-05-17 2010-01-05 The Trustees Of Columbia University In The City Of New York System and method for view management in three dimensional space
JP4480083B2 (ja) 2005-02-23 2010-06-16 アイシン精機株式会社 物体認識装置
DE102005009437A1 (de) * 2005-03-02 2006-09-07 Kuka Roboter Gmbh Verfahren und Vorrichtung zum Einblenden von AR-Objekten
JP4600760B2 (ja) 2005-06-27 2010-12-15 アイシン精機株式会社 障害物検出装置
US8730156B2 (en) 2010-03-05 2014-05-20 Sony Computer Entertainment America Llc Maintaining multiple views on a shared stable virtual space
US8026931B2 (en) * 2006-03-16 2011-09-27 Microsoft Corporation Digital video effects
US8094943B2 (en) * 2007-09-27 2012-01-10 Behavioral Recognition Systems, Inc. Background-foreground module for video analysis system
JP5077956B2 (ja) * 2008-04-23 2012-11-21 Kddi株式会社 情報端末装置
FR2933218B1 (fr) 2008-06-30 2011-02-11 Total Immersion Procede et dispositif permettant de detecter en temps reel des interactions entre un utilisateur et une scene de realite augmentee
JP4679661B1 (ja) * 2009-12-15 2011-04-27 株式会社東芝 情報提示装置、情報提示方法及びプログラム
JP5564300B2 (ja) * 2010-03-19 2014-07-30 富士フイルム株式会社 ヘッドマウント型拡張現実映像提示装置及びその仮想表示物操作方法
US9069760B2 (en) * 2010-08-24 2015-06-30 Lg Electronics Inc. Mobile terminal and controlling method thereof
US9013550B2 (en) 2010-09-09 2015-04-21 Qualcomm Incorporated Online reference generation and tracking for multi-user augmented reality
KR101548834B1 (ko) * 2010-09-20 2015-08-31 퀄컴 인코포레이티드 클라우드 보조 증강 현실을 위한 적응적 프레임워크
US8860760B2 (en) * 2010-09-25 2014-10-14 Teledyne Scientific & Imaging, Llc Augmented reality (AR) system and method for tracking parts and visually cueing a user to identify and locate parts in a scene
KR101396370B1 (ko) * 2010-09-30 2014-05-19 엠파이어 테크놀로지 디벨롭먼트 엘엘씨 고해상도의 텍스처 추출을 위한 시스템, 방법 및 컴퓨터 판독가능 저장 매체를 포함하는 기술
US20120117514A1 (en) * 2010-11-04 2012-05-10 Microsoft Corporation Three-Dimensional User Interaction
US20120113223A1 (en) 2010-11-05 2012-05-10 Microsoft Corporation User Interaction in Augmented Reality

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003296759A (ja) * 2002-03-29 2003-10-17 Canon Inc 情報処理方法および装置
JP2009251702A (ja) * 2008-04-02 2009-10-29 Hiroyuki Hosoda 情報処理装置、情報処理方法及び情報処理プログラム
JP2010015469A (ja) * 2008-07-04 2010-01-21 Nippon Telegr & Teleph Corp <Ntt> 静止領域検出方法とその装置、プログラム及び記録媒体
JP2012088881A (ja) * 2010-10-19 2012-05-10 Nippon Hoso Kyokai <Nhk> 人物動作検出装置およびそのプログラム
JP2012238175A (ja) * 2011-05-11 2012-12-06 Canon Inc 情報処理装置、情報処理方法、及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
MALIK S ET AL: ""Hand Tracking for interactive pattern-based augmented reality"", PROCEEDINGS OF THE INTERNATIONAL SYMPOSIUM ON MIXED AND AUGMENTED REALITY (ISMAR'02), JPN5016001217, 30 September 2002 (2002-09-30), pages 117 - 126, XP010620948, ISSN: 0004485952 *

Also Published As

Publication number Publication date
JP2016509293A (ja) 2016-03-24
EP2941756A1 (en) 2015-11-11
US20140184644A1 (en) 2014-07-03
KR20150103104A (ko) 2015-09-09
CN104903934B (zh) 2019-06-28
EP2941756B1 (en) 2021-03-17
US9076257B2 (en) 2015-07-07
CN104903934A (zh) 2015-09-09
WO2014107261A1 (en) 2014-07-10

Similar Documents

Publication Publication Date Title
JP2019192288A (ja) 前景オブジェクトに基づく拡張現実のレンダリング
CN110049206B (zh) 图像处理方法、装置及计算机可读存储介质
US8098885B2 (en) Robust online face tracking
JP5381569B2 (ja) ジェスチャ認識装置、ジェスチャ認識方法、およびジェスチャ認識プログラム
US20120129605A1 (en) Method and device for detecting and tracking non-rigid objects in movement, in real time, in a video stream, enabling a user to interact with a computer system
KR20140009585A (ko) Rgbd 카메라를 이용한 머리 포즈 추정
KR20160042461A (ko) 동적으로 변화하는 부분들을 갖는 타겟들을 추적하기 위한 데이터셋트 형성
Chen et al. A novel bottom-up saliency detection method for video with dynamic background
KR101647969B1 (ko) 사용자 시선을 검출하기 위한 사용자 시선 검출 장치 및 그 방법과, 그 방법을 실행하기 위한 컴퓨터 프로그램
Nallasivam et al. Moving human target detection and tracking in video frames
WO2017081839A1 (ja) 移動体追跡方法、移動体追跡装置、およびプログラム
US11587202B2 (en) Method, apparatus or computer program for controlling image processing of a captured image of a scene to adapt the captured image
JP2017204280A (ja) ビデオフレームを選択する方法、システム及び装置
Kim et al. Interactive image segmentation using semi-transparent wearable glasses
CN114529587A (zh) 一种视频目标跟踪方法、装置、电子设备及存储介质
Meenatchi et al. Multiple object tracking and segmentation in video sequences
KR102151748B1 (ko) 비디오 영상에서 사람과 배경을 분리하기 위한 방법, 장치 및 컴퓨터 판독 가능한 기록 매체
Zhang et al. Robust appearance-guided particle filter for object tracking with occlusion analysis
WO2018191058A1 (en) Image processing system with discriminative control
Wensheng et al. Implementation of virtual mouse based on machine vision
Rabhi et al. Face tracking: state of the art
US20210287381A1 (en) Object tracking method, tracking processing method, corresponding apparatus, and electronic device
Sukanyathara et al. An Optimized Framework for Detection and Tracking of Video Objects in Challenging Backgrounds
Deiman Automatic Tracking, Segmentation, Removal and Replay of Traffic in Panoramic 360-Degree Videos for Virtual Reality
Halvorsen Content-based lecture video indexing

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190802

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200819

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200923

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210419