JP2021517309A - 画像処理方法、装置、コンピュータプログラム及びコンピュータデバイス - Google Patents
画像処理方法、装置、コンピュータプログラム及びコンピュータデバイス Download PDFInfo
- Publication number
- JP2021517309A JP2021517309A JP2020551294A JP2020551294A JP2021517309A JP 2021517309 A JP2021517309 A JP 2021517309A JP 2020551294 A JP2020551294 A JP 2020551294A JP 2020551294 A JP2020551294 A JP 2020551294A JP 2021517309 A JP2021517309 A JP 2021517309A
- Authority
- JP
- Japan
- Prior art keywords
- image
- model
- virtual entry
- virtual
- terminal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
- G06T15/205—Image-based rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/003—Navigation within 3D models or images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- Computer Hardware Design (AREA)
- Geometry (AREA)
- Computing Systems (AREA)
- Multimedia (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Abstract
Description
現実シーンから収集された画像フレームを取得するステップと、
収集の時系列に従って、取得した画像フレームをフレームごとに再生するステップと、
取得した複数の画像フレームにおけるターゲットオブジェクトの動きによって形成されるトラックがトリガー条件を満たした場合、現実シーンでの前記ターゲットオブジェクトに対応する位置を決定するステップと、
前記位置に応じて、現在再生中の画像フレームに仮想エントリをレンダリングするステップと、
前記仮想エントリに仮想コンテンツを表示するステップと、
を含む。
現実シーンから収集された画像フレームを取得するための取得モジュールと、
収集の時系列に従って、取得した画像フレームをフレームごとに再生するための再生モジュールと、
取得した複数の画像フレームにおけるターゲットオブジェクトの動きによって形成されるトラックがトリガー条件を満たした場合、現実シーンでの前記ターゲットオブジェクトに対応する位置を決定するための決定モジュールと、
前記位置に応じて、現在再生中の画像フレームに仮想エントリをレンダリングし、前記仮想エントリに仮想コンテンツを表示するためのレンダリングモジュールと、
を含む。
前記コンピュータ可読記憶媒体はコンピュータプログラムを記憶し、前記コンピュータプログラムがプロセッサによって実行されるときに、前記プロセッサに、
現実シーンから収集された画像フレームを取得することと、
収集の時系列に従って、取得した画像フレームをフレームごとに再生することと、
取得した複数の画像フレームにおけるターゲットオブジェクトの動きによって形成されるトラックがトリガー条件を満たした場合、現実シーンでの前記ターゲットオブジェクトに対応する位置を決定することと、
前記位置に応じて、現在再生中の画像フレームに仮想エントリをレンダリングすることと、
前記仮想エントリに仮想コンテンツを表示することと、
を実行させる。
前記メモリにコンピュータプログラムが格納されており、前記コンピュータプログラムが前記プロセッサによって実行されるときに、前記プロセッサに、
現実シーンから収集された画像フレームを取得することと、
収集の時系列に従って、取得した画像フレームをフレームごとに再生することと、
取得した複数の画像フレームにおけるターゲットオブジェクトの動きによって形成されるトラックがトリガー条件を満たした場合、現実シーンでの前記ターゲットオブジェクトに対応する位置を決定することと、
前記位置に応じて、現在再生中の画像フレームに仮想エントリをレンダリングすることと、
前記仮想エントリに仮想コンテンツを表示することと、
を実行させる。
ステップS202は、現実シーンから収集された画像フレームを取得する。
ここで、現実シーンとは、自然世界に存在するシーンである。画像フレームは、動的画面を形成することができる画像フレームのシーケンスにおけるユニットであり、ある時点での現実シーンにおける画面を記録するために用いられる。
S204、収集の時系列に従って、取得した画像フレームをフレームごとに再生する。
ここで、収集の時系列とは、画像フレームを収集する際の時間順序であり、画像フレームを収集したときに記録されたタイムスタンプの大小関係によって表すことができる。フレームごとに再生することは、画像フレームを1つずつ再生することを意味する。
その中、ターゲットオブジェクトは、現実シーンでのターゲットとするエンティティである。ターゲットオブジェクトは、手、顔、又は長手形状のオブジェクトなどである。ターゲットオブジェクトの動きによって形成されるトラックは、ターゲットオブジェクトが動いているときに取得した画像フレームにおけるターゲットオブジェクトの参照ポイントの移動によって形成されるトラックである。例えば、ユーザーが手の動きを制御する場合、取得した画像フレームにおける手の人差し指の先端の撮像ポイントの移動によって形成されるトラックであり、また、ユーザーが長手形状のオブジェクト(例えば、ペン又は魔法棒など)を手に持って動いている場合、取得した画像フレームにおける長手形状のオブジェクトの頂部の撮像ポイントの移動によって形成されるトラックなどである。
その中、仮想エントリは、実際のエントリに対する概念である。実際のエントリは、現実シーンで実空間を区分するエンティティとして使用される。例えば、実際のエントリは、部屋のドアのようなものである場合、実空間を部屋の中の領域と部屋の外の領域に区分する。また、例えば、実際のエントリは、景勝地のエントリのようなものである場合、実空間を景勝地と非景勝地などに区分する。仮想エントリは、仮想シーンで領域を区分する仮想モデルとして使用される。仮想エントリは、例えば、仮想モデルドアなどである。
その中、ここでの仮想コンテンツは、取得した画像フレームが収集される現実シーンに存在しないコンテンツである。例えば、取得した画像フレームが現実シーンAから収集された場合、仮想コンテンツはこの現実シーンAに存在しないコンテンツである。ここでの仮想コンテンツは、絶対的な仮想コンテンツではなく、現在の現実シーンに対して仮想コンテンツであることが理解できる。つまり、ここでの仮想コンテンツは、コンピュータ技術によってシミュレートされた完全な仮想コンテンツであってもよく、現在の現実シーン以外のコンテンツであってもよい。現在の現実シーンは、端末によって取得された画像フレームが収集される現実シーンである。
その中、手は、人や動物の肢体部分である。手の画像は、手が含まれ、且つ、手領域が画像領域に占める割合が高い画像である。ジェスチャーは、ユーザーが手によって行なわれる動作形態である。ジェスチャータイプは、取得した画像フレームにおけるジェスチャーが属するタイプである。トリガータイプは、特定のイベントをトリガーするジェスチャーが属するタイプである。
その中、手認識モデルは、トレーニングされた後の手認識能力を備えた機械学習モデルである。機械学習の完全な英語名はMachine Learningであり、MLと略称する。機械学習モデルは、サンプル学習を通じて特定の能力を持つことができる。機械学習モデルには、ニューラルネットワークモデル、サポートベクターマシン又はロジスティックモデルなどを採用することができる。ニューラルネットワークモデルとは、例えば、畳み込みニューラルネットワークなどである。本実施例では、手認識モデルは、完全畳み込みネットワークモデル(Fully Convolutional Networks)であってもよい。
その中、端末によって設置されたトリガータイプのジェスチャータイプが一意である場合、手認識モデルは2分類モデルである。2分類モデルをトレーニングするための画像サンプルは、ターゲットジェスチャータイプに属するポジティブサンプルと、ターゲットジェスチャータイプに属さないネガティブサンプルを含む。端末によって設置されたトリガータイプのジェスチャータイプが多種類である場合、手認識モデルは多分類モデルである。多分類モデルをトレーニングするための画像サンプルは、各ターゲットジェスチャータイプに属するサンプルを含む。
その中、世界座標空間は、現実シーンの座標空間であり、固定された絶対座標空間である。カメラ座標空間は、光軸と画像平面の交点を原点として形成される座標空間であり、画像収集装置(カメラ)の位置の変化に伴って変化する相対座標空間である。世界座標空間における世界座標位置は、剛体変化を通じて、カメラ座標系におけるカメラ座標位置にマッピングすることができる。
その中、現在の端末の位置は、現在の端末の画像収集装置の現実シーンにおける位置である。現在の端末の姿勢は、現在の端末の画像収集装置の現実シーンにおけるロール(roll)、ピッチ(pitch)、ヨー(yaw)の空間状態である。
さらに、端末は、世界座標空間と現在のカメラ座標空間との間の現在の剛体変換マトリックスに基づき、この剛体変換マトリックに応じてス世界座標位置をカメラ座標空間におけるカメラ座標位置に変換してもよい。
その中、選択された画像フレームは、収集された画像フレームのうちキーフレームであってもよい。
端末は、取得したノード画像を収集するときの現実シーンにおける位置を記憶してもよく、これにより、端末を位置決めするときに、マップノードに基づき、対応するノード画像の記憶位置を直接検索して、検索効率を向上させることができる。
上記の実施例では、現在の端末の位置が仮想エントリを通過するか、又は仮想エントリの周りを移動する場合、仮想エントリの内部及び外部のレンダリングコンテンツの変化を提供する。これにより、ユーザーは、位置をエントリの外部からエントリの内部に移動して、エントリの内部の仮想世界を見ることができ、エントリの内部からエントリの外部に移動して外部の現実世界を見ることもでき、仮想と現実の交差効果を体験することができる。
このように、仮想エントリの内部が依然として仮想コンテンツであり、仮想エントリの外部が依然として現実シーンであることを保証するために、端末は、観測点を囲む第3のモデルを作成し、レンダリング順序(renderingOrder)を第1の球体モデル→第3のモデル→第2の球体モデルに設置することができる。その中、仮想エントリは第3のモデルのインタフェースにあり、仮想エントリが位置する領域は、空である。
このように、観測点の視野領域の視線に第3のモデルが存在する場合、第3のモデルのレンダリング順序が第2の球体モデルより優先され、第3のモデルのモデル深さが第2の球体モデルより小さいため、この場合、端末は、第1の球体モデルと第3のモデルのみをレンダリングして、表示用の画面を得る。端末は、第3のモデルの透明度を完全透明に設置することもできる。このとき、表示用の画面は、実際には第1の球体モデルの球面内側に描画された現実シーンから収集されたビデオフレームである。つまり、仮想エントリ外に現実シーンを表示ことが保証される。
このように、仮想エントリ内が現実シーンに変化し、仮想エントリ外が仮想コンテンツシーンに変化することを保証するために、端末は、観測点を囲む第4のモデルを作成し、レンダリング順序を、第1の球体モデル→第4のモデル→第2の球体モデルに設置してもよい。その中、第4のモデルのインタフェースは、仮想エントリである。
このように、観測点の視野領域の視線に第4のモデルが存在する場合、第4のモデルのレンダリング順序は、第2の球体モデルより優先され、第4のモデルのモデル深さは第2の球体モデルより小さいため、この場合、端末は、第1の球体モデルと第4のモデルのみをレンダリングして、表示用の画面を得る。端末は、第4のモデルの透明度を完全透明に設置することもできる。このときに、表示用の画面は、実際には第1の球体モデルの球面内側に描画された現実シーンから収集されたビデオフレームである。つまり、仮想エントリ内に現実シーンを表示することが保証される。
上記実施例では、第3のモデル及び第3のモデルの境界は、平面であってもよく、曲面であってもよいことが理解される。
取得モジュール1401は、現実シーンから収集された画像フレームを取得するために用いられる。
再生モジュール1402は、収集の時系列に従って、取得した画像フレームをフレームごとに再生するために用いられる。
決定モジュール1403は、取得した複数の画像フレームにおけるターゲットオブジェクトの動きによって形成されるトラックがトリガー条件を満たした場合、現実シーンでのターゲットオブジェクトに対応する位置を決定するために用いられる。
レンダリングモジュール1404は、位置に応じて、現在再生中の画像フレームに仮想エントリをレンダリングし、仮想エントリに仮想コンテンツを表示するために用いられる。
その中、手は、人や動物の肢体部分である。手の画像は、手が含まれ、且つ、手領域が画像領域に占める割合が高い画像である。ジェスチャーは、ユーザーの手によって行なわれる動作形態である。ジェスチャータイプは、取得した画像フレームにおけるジェスチャーが属するタイプである。トリガータイプは、特定のイベントをトリガーするジェスチャーが属するタイプである。
その中、手認識モデルは、トレーニングされた後の手認識能力を備えた機械学習モデルである。機械学習の完全な英語名はMachine Learningであり、MLと略称する。機械学習モデルは、サンプル学習を通じて特定の能力を持つことができる。機械学習モデルには、ニューラルネットワークモデル、サポートベクターマシン又はロジスティックモデルなどを採用することができる。ニューラルネットワークモデルとは、例えば、畳み込みニューラルネットワークなどである。本実施例では、手認識モデルは、完全畳み込みネットワークモデル(Fully Convolutional Networks)であってもよい。
さらに、端末は、世界座標空間と現在のカメラ座標空間との間の現在の剛体変換マトリックスに基づき、この剛体変換マトリックスに応じて世界座標位置をカメラ座標空間におけるカメラ座標位置に変換してもよい。
Claims (17)
- コンピュータデバイスが実行する画像処理方法であって、
現実シーンから収集された画像フレームを取得するステップと、
収集の時系列に従って、取得した画像フレームをフレームごとに再生するステップと、
取得した複数の画像フレームにおけるターゲットオブジェクトの動きによって形成されるトラックがトリガー条件を満たした場合、現実シーンでの前記ターゲットオブジェクトに対応する位置を決定するステップと、
前記位置に応じて、現在再生中の画像フレームに仮想エントリをレンダリングするステップと、
前記仮想エントリに仮想コンテンツを表示するステップと、
を含む方法。 - 前記ターゲットオブジェクトは手であり、
前記方法は、
取得した画像フレームから手の画像をセグメント化するステップと、
前記手の画像に対応するジェスチャータイプを認識するステップと、
前記ジェスチャータイプがトリガータイプである場合、前記画像フレームにおいて動きの参照ポイントを決定するステップと、
前記動きの参照ポイントに従って、前記手の動きによって形成されるトラックを決定するステップと、
をさらに含む請求項1に記載の方法。 - 前記取得した画像フレームから手の画像をセグメント化するステップは、
手認識モデルで、取得した画像フレームをセマンティックセグメンテーションフィーチャマトリックスにエンコードするステップと、
前記セマンティックセグメンテーションフィーチャマトリックスをデコードしてセマンティックセグメンテーション画像を取得するステップであって、前記セマンティックセグメンテーション画像におけるピクセルが、所属の分類カテゴリを示すピクセル値を有し、エンコードする前のオリジナル画像フレームにおけるピクセルに対応するステップと、
手カテゴリに属するピクセルに基づき、前記画像から手の画像をセグメント化するステップと、
を含む請求項2に記載の方法。 - 前記方法は、
前記取得した複数の画像フレームにおけるターゲットオブジェクトの動きによって形成されるトラックがトリガー条件を満たさない場合、再生したビデオフレームにおいて、前記トラックが通過するピクセルのピクセル値を参照ピクセル値に置き換えるステップと、
前記トリガー条件を満たした場合、前記位置に応じて、現在再生中の画像フレームで参照アニメーションを再生するステップと、
をさらに含む請求項2に記載の方法。 - 前記現実シーンでの前記ターゲットオブジェクトに対応する位置を決定する前記ステップは、
前記ターゲットオブジェクトの世界座標空間における世界座標位置を決定するステップを含み、
前記位置に応じて、現在再生中の画像フレームに仮想エントリをレンダリングするステップは、
カメラ座標空間における前記世界座標位置に対応するカメラ座標位置に応じて、現在再生中の画像フレームに仮想エントリをレンダリングするステップを含む、請求項1に記載の方法。 - 前記カメラ座標空間における前記世界座標位置に対応するカメラ座標位置に応じて、現在再生中の画像フレームに仮想エントリをレンダリングする前記ステップは、
現在の端末の位置及び姿勢を取得するステップと、
前記現在の端末の位置及び姿勢に基づき、現在のカメラ座標空間と前記世界座標空間の間の変換マトリックスを決定するステップと、
前記変換マトリックスに従って、世界座標位置をカメラ座標空間におけるカメラ座標位置に変換するステップと、
前記カメラ座標位置に応じて、現在再生中の画像フレームに仮想エントリをレンダリングするステップと、
を含む請求項5に記載の方法。 - 現在の端末の位置及び姿勢を取得する前記ステップは、
マップから、取得した画像フレームにマッチングするマップノードを選択するステップと、
前記マップノードに対応付けられて記憶される現実シーンでの位置を照会するステップと、
慣性センサによって収集されたセンサデータを取得するステップと、
前記センサデータに基づき、現在の端末の現実シーンにおける姿勢を決定するステップと、
を含む請求項6に記載の方法。 - 時系列で収集した画像フレームから画像フレームを選択するステップと、
選択した画像フレームの画像特徴がノード画像の画像特徴に一致する場合、選択した画像フレームをノード画像として取得するステップと、
取得した前記ノード画像がマップにおいて対応するマップノードを決定するステップと、
取得した前記ノード画像の画像特徴、及び取得した前記ノード画像を収集するときの現実シーンにおける位置を、決定した前記マップノードに対応付けて記憶するステップと、
をさらに含む請求項7に記載の方法。 - 前記カメラ座標位置に応じて、現在再生中の画像フレームに仮想エントリをレンダリングする前記ステップは、
仮想エントリのモデルの頂点を画像座標空間において対応するピクセルとして投影するステップと、
各前記モデルの頂点間の接続関係に従って、モデル頂点に対応するピクセルをプリミティブに結合するステップと、
ラスタライズしたプリミティブを、プリミティブにおける各ピクセルのピクセル値に基づき、画像座標空間において前記カメラ座標位置に対応する画像座標位置でレンダリングして、仮想エントリを取得するステップと、
を含む請求項6に記載の方法。 - 前記仮想コンテンツはパノラマビデオであり、
前記方法は、
前記仮想エントリに対応する現実シーンでの空間領域を決定するステップと、
端末の現在位置が前記空間領域を通過した後、パノラマビデオにおける現在の視野領域内のビデオ画面を直接表示するステップと、
をさらに含む請求項1に記載の方法。 - 前記方法は、
パノラマビデオにおける現在の視野領域内のビデオ画面を直接表示する前記ステップの後、現在の端末の位置が前記空間領域を再び通過せず、かつ、現在の視野領域が移動により前記仮想エントリをカバーした場合、現在の視野領域において、前記仮想エントリ内に位置する視野領域を決定するステップと、
前記仮想エントリに、取得した画像フレームにおいて決定された前記視野領域における画面を表示するステップと、
をさらに含む請求項10に記載の方法。 - 前記方法は、
端末の現在位置が前記空間領域の周りを移動する場合、現在の視野領域において、前記仮想エントリ内に位置する視野領域を決定するステップと、
パノラマビデオにおいて決定された前記視野領域におけるビデオ画面を前記仮想エントリに表示するステップと、
をさらに含む請求項10に記載の方法。 - 前記仮想コンテンツはパノラマビデオであり、
前記方法は、
収集されたビデオフレームを第1の球体モデルの球面内側に描画し、パノラマビデオのパノラマビデオ画面を第2の球体モデルの球面内側に描画するステップと、
前記仮想エントリに対応する現実シーンでの空間領域を決定することと、
現在の端末の位置が前記空間領域を通過していない場合、又は現在の端末の位置が前記空間領域を偶数回通過した場合、レンダリング順序及びモデル深さの逆順で、現在の視野領域内の前記第1の球体モデル、前記第2の球体モデル及び完全に透明な第3のモデルに基づきレンダリングして、表示用の画面を得るステップと、
をさらに含み、
その中、前記第1の球体モデルの球半径は前記第2の球体モデルの球半径より大きく、前記第1の球体モデルのモデル深さは前記第2の球体モデルのモデル深さより大きく、前記第2の球体モデルのモデル深さは前記第3のモデルのモデル深さより大きく、前記第3のモデルは、現在の視野領域が前記仮想エントリをカバーしている場合、現在の視野領域において前記仮想エントリ外に位置する視野領域における第2の球体モデルのレンダリングのキャンセルをトリガーするために用いられ、又は、視野領域が前記仮想エントリをカバーしていない場合、前記第2の球体モデルのレンダリングのキャンセルをトリガーするために用いられる、
請求項1に記載の方法。 - 前記方法は、
現在の端末の位置が前記空間領域を奇数回通過した場合、レンダリング順序及びモデル深さの逆順で、現在の視野領域内の前記第1の球体モデル、前記第2の球体モデル及び完全に透明な第4のモデルに基づき、レンダリングして、表示用の画面を得るステップ、をさらに含み、
その中、前記第2の球体モデルのモデル深さは前記第4のモデルのモデル深さより大きく、前記第4のモデルは、現在の視野領域が前記仮想エントリをカバーしている場合、現在の視野領域において前記仮想エントリ外に位置する視野領域内の第2の球体モデルのレンダリングのキャンセルをトリガーするために用いられ、又は、視野領域が前記仮想エントリをカバーしていない場合、前記第2の球体モデルのレンダリングのキャンセルをトリガーするために用いられる、
請求項13に記載の方法。 - コンピュータデバイスに適用される画像処理装置であって、
現実シーンから収集された画像フレームを取得するための取得モジュールと、
収集の時系列に従って、取得した画像フレームをフレームごとに再生するための再生モジュールと、
取得した複数の画像フレームにおけるターゲットオブジェクトの動きによって形成されるトラックがトリガー条件を満たした場合、現実シーンでの前記ターゲットオブジェクトに対応する位置を決定するための決定モジュールと、
前記位置に応じて、現在再生中の画像フレームに仮想エントリをレンダリングし、前記仮想エントリに仮想コンテンツを表示用のレンダリングモジュールと、
含む装置。 - 請求項1乃至14のいずれか1項に記載の画像処理方法をコンピュータに実行させるコンピュータプログラム。
- メモリとプロセッサを含むコンピュータデバイスであって、
前記メモリにコンピュータプログラムが格納されており、前記コンピュータプログラムが前記プロセッサによって実行されるときに、請求項1乃至14のいずれか1項に記載の画像処理方法のステップを前記プロセッサに実行させるコンピュータデバイス。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810494117.8 | 2018-05-22 | ||
CN201810494117.8A CN110515452B (zh) | 2018-05-22 | 2018-05-22 | 图像处理方法、装置、存储介质和计算机设备 |
PCT/CN2019/083295 WO2019223463A1 (zh) | 2018-05-22 | 2019-04-18 | 图像处理方法、装置、存储介质和计算机设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021517309A true JP2021517309A (ja) | 2021-07-15 |
JP7096902B2 JP7096902B2 (ja) | 2022-07-06 |
Family
ID=68616193
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020551294A Active JP7096902B2 (ja) | 2018-05-22 | 2019-04-18 | 画像処理方法、装置、コンピュータプログラム及びコンピュータデバイス |
Country Status (5)
Country | Link |
---|---|
US (1) | US11238644B2 (ja) |
EP (1) | EP3798801A4 (ja) |
JP (1) | JP7096902B2 (ja) |
CN (1) | CN110515452B (ja) |
WO (1) | WO2019223463A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024024357A1 (ja) * | 2022-07-29 | 2024-02-01 | ガラクーダ株式会社 | 画像表示装置および画像表示方法 |
Families Citing this family (43)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10600245B1 (en) * | 2014-05-28 | 2020-03-24 | Lucasfilm Entertainment Company Ltd. | Navigating a virtual environment of a media content item |
US10957112B2 (en) | 2018-08-13 | 2021-03-23 | Magic Leap, Inc. | Cross reality system |
US11227435B2 (en) | 2018-08-13 | 2022-01-18 | Magic Leap, Inc. | Cross reality system |
WO2020072985A1 (en) | 2018-10-05 | 2020-04-09 | Magic Leap, Inc. | Rendering location specific virtual content in any location |
KR20210004862A (ko) * | 2019-07-04 | 2021-01-13 | (주) 애니펜 | 사용자 간의 경험 공유를 지원하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체 |
US11416998B2 (en) * | 2019-07-30 | 2022-08-16 | Microsoft Technology Licensing, Llc | Pixel classification to reduce depth-estimation error |
CN114600064A (zh) * | 2019-10-15 | 2022-06-07 | 奇跃公司 | 具有定位服务的交叉现实系统 |
CN114616534A (zh) | 2019-10-15 | 2022-06-10 | 奇跃公司 | 具有无线指纹的交叉现实系统 |
JP2023504775A (ja) | 2019-11-12 | 2023-02-07 | マジック リープ, インコーポレイテッド | 位置特定サービスおよび共有場所ベースのコンテンツを伴うクロスリアリティシステム |
CN111724439B (zh) * | 2019-11-29 | 2024-05-17 | 中国科学院上海微系统与信息技术研究所 | 一种动态场景下的视觉定位方法及装置 |
WO2021118962A1 (en) | 2019-12-09 | 2021-06-17 | Magic Leap, Inc. | Cross reality system with simplified programming of virtual content |
CN111008260A (zh) * | 2019-12-20 | 2020-04-14 | 山东省国土测绘院 | 轨迹的可视化方法、装置、设备和存储介质 |
CN113256715B (zh) * | 2020-02-12 | 2024-04-05 | 北京京东乾石科技有限公司 | 机器人的定位方法和装置 |
US11562525B2 (en) | 2020-02-13 | 2023-01-24 | Magic Leap, Inc. | Cross reality system with map processing using multi-resolution frame descriptors |
JP2023514206A (ja) * | 2020-02-13 | 2023-04-05 | マジック リープ, インコーポレイテッド | 大規模環境のためのクロスリアリティシステム |
CN115398484A (zh) | 2020-02-13 | 2022-11-25 | 奇跃公司 | 具有用于定位的地理定位信息优先级的交叉现实系统 |
EP4103910A4 (en) | 2020-02-13 | 2024-03-06 | Magic Leap, Inc. | CROSS-REALLY SYSTEM WITH ACCURATE COMMON MAPS |
US11551430B2 (en) | 2020-02-26 | 2023-01-10 | Magic Leap, Inc. | Cross reality system with fast localization |
US11900547B2 (en) | 2020-04-29 | 2024-02-13 | Magic Leap, Inc. | Cross reality system for large scale environments |
CN111310744B (zh) * | 2020-05-11 | 2020-08-11 | 腾讯科技(深圳)有限公司 | 图像识别方法、视频播放方法、相关设备及介质 |
CN113709389A (zh) * | 2020-05-21 | 2021-11-26 | 北京达佳互联信息技术有限公司 | 一种视频渲染方法、装置、电子设备及存储介质 |
CN111862288A (zh) * | 2020-07-29 | 2020-10-30 | 北京小米移动软件有限公司 | 一种位姿渲染方法、装置及介质 |
CN114153307A (zh) * | 2020-09-04 | 2022-03-08 | 中移(成都)信息通信科技有限公司 | 场景区块化处理方法、装置、电子设备及计算机存储介质 |
CN113766117B (zh) * | 2020-11-09 | 2023-08-08 | 北京沃东天骏信息技术有限公司 | 一种视频去抖动方法和装置 |
CN112562068B (zh) * | 2020-12-24 | 2023-07-14 | 北京百度网讯科技有限公司 | 人体姿态生成方法、装置、电子设备及存储介质 |
CN114939278A (zh) * | 2021-02-17 | 2022-08-26 | 武汉金运激光股份有限公司 | 一种基于nfc技术的轨道玩具车互动方法及系统 |
CN112933606B (zh) * | 2021-03-16 | 2023-05-09 | 天津亚克互动科技有限公司 | 游戏场景转换方法及装置、存储介质、计算机设备 |
US11361519B1 (en) * | 2021-03-29 | 2022-06-14 | Niantic, Inc. | Interactable augmented and virtual reality experience |
JP7467810B2 (ja) | 2021-05-07 | 2024-04-16 | Kyoto’S 3D Studio株式会社 | 複合現実感提供システムおよび複合現実感提供方法 |
CN113014824B (zh) * | 2021-05-11 | 2021-09-24 | 北京远度互联科技有限公司 | 视频画面处理方法、装置及电子设备 |
CN113421343B (zh) * | 2021-05-27 | 2024-06-04 | 深圳市晨北科技有限公司 | 基于增强现实观测设备内部结构的方法 |
CN113674435A (zh) * | 2021-07-27 | 2021-11-19 | 阿里巴巴新加坡控股有限公司 | 图像处理方法、电子地图展示方法、装置及电子设备 |
KR20240046912A (ko) * | 2021-09-24 | 2024-04-11 | 애플 인크. | 컨텐츠 항목에 대한 포털 뷰 |
CN113658296B (zh) * | 2021-10-20 | 2022-01-25 | 腾讯科技(深圳)有限公司 | 一种图像渲染方法及相关装置 |
TWI817479B (zh) * | 2022-04-29 | 2023-10-01 | 狂點軟體開發股份有限公司 | 結合現實世界與複數虛擬世界而為虛實互動之適地性「Metaverse」社群系統 |
CN114422698B (zh) * | 2022-01-19 | 2023-09-26 | 北京字跳网络技术有限公司 | 视频生成方法、装置、设备及存储介质 |
CN114494328B (zh) * | 2022-02-11 | 2024-01-30 | 北京字跳网络技术有限公司 | 图像显示方法、装置、电子设备及存储介质 |
CN117398680A (zh) * | 2022-07-08 | 2024-01-16 | 腾讯科技(深圳)有限公司 | 虚拟对象的显示方法、装置、终端设备及存储介质 |
CN116095355B (zh) * | 2023-01-18 | 2024-06-21 | 百果园技术(新加坡)有限公司 | 视频显示控制方法及其装置、设备、介质、产品 |
CN116475905B (zh) * | 2023-05-05 | 2024-01-09 | 浙江闽立电动工具有限公司 | 角磨机的控制系统及其方法 |
CN116778127B (zh) * | 2023-07-05 | 2024-01-05 | 广州视景医疗软件有限公司 | 一种基于全景图的三维数字场景构建方法及系统 |
CN117032618B (zh) * | 2023-10-07 | 2024-02-02 | 启迪数字科技(深圳)有限公司 | 基于多屏幕的动画旋转方法、设备及介质 |
CN117078975B (zh) * | 2023-10-10 | 2024-01-02 | 四川易利数字城市科技有限公司 | 一种基于进化算法的ar时空场景模式匹配方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011145856A (ja) * | 2010-01-14 | 2011-07-28 | Ritsumeikan | 複合現実感技術による画像生成方法及び画像生成システム |
JP2014515854A (ja) * | 2011-03-29 | 2014-07-03 | クアルコム,インコーポレイテッド | 拡張現実システムにおける実世界表面への仮想画像のアンカリング |
JP2016062486A (ja) * | 2014-09-19 | 2016-04-25 | 株式会社ソニー・コンピュータエンタテインメント | 画像生成装置および画像生成方法 |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5601045B2 (ja) * | 2010-06-24 | 2014-10-08 | ソニー株式会社 | ジェスチャ認識装置、ジェスチャ認識方法およびプログラム |
US9164589B2 (en) * | 2011-11-01 | 2015-10-20 | Intel Corporation | Dynamic gesture based short-range human-machine interaction |
US9530232B2 (en) * | 2012-09-04 | 2016-12-27 | Qualcomm Incorporated | Augmented reality surface segmentation |
US9552673B2 (en) * | 2012-10-17 | 2017-01-24 | Microsoft Technology Licensing, Llc | Grasping virtual objects in augmented reality |
CN104331929B (zh) * | 2014-10-29 | 2018-02-02 | 深圳先进技术研究院 | 基于视频地图与增强现实的犯罪现场还原方法 |
CN104536579B (zh) * | 2015-01-20 | 2018-07-27 | 深圳威阿科技有限公司 | 交互式三维实景与数字图像高速融合处理系统及处理方法 |
CN105988562A (zh) * | 2015-02-06 | 2016-10-05 | 刘小洋 | 智能穿戴设备及基于智能穿戴设备实现手势输入的方法 |
US20170186219A1 (en) * | 2015-12-28 | 2017-06-29 | Le Holdings (Beijing) Co., Ltd. | Method for 360-degree panoramic display, display module and mobile terminal |
US9898256B2 (en) * | 2015-12-31 | 2018-02-20 | Microsoft Technology Licensing, Llc | Translation of gesture to gesture code description using depth camera |
WO2017167381A1 (en) * | 2016-03-31 | 2017-10-05 | Softkinetic Software | Method for foreground and background determination in an image |
DE102016212236A1 (de) * | 2016-07-05 | 2018-01-11 | Siemens Aktiengesellschaft | Interaktionssystem und -verfahren |
CN107168619B (zh) * | 2017-03-29 | 2023-09-19 | 腾讯科技(深圳)有限公司 | 用户生成内容处理方法和装置 |
CN107707839A (zh) * | 2017-09-11 | 2018-02-16 | 广东欧珀移动通信有限公司 | 图像处理方法及装置 |
CN110827376A (zh) * | 2018-08-09 | 2020-02-21 | 北京微播视界科技有限公司 | 增强现实多平面模型动画交互方法、装置、设备及存储介质 |
CN110020909A (zh) * | 2019-01-14 | 2019-07-16 | 启云科技股份有限公司 | 采用虚拟实境技术的购物系统 |
-
2018
- 2018-05-22 CN CN201810494117.8A patent/CN110515452B/zh active Active
-
2019
- 2019-04-18 JP JP2020551294A patent/JP7096902B2/ja active Active
- 2019-04-18 EP EP19808017.8A patent/EP3798801A4/en active Pending
- 2019-04-18 WO PCT/CN2019/083295 patent/WO2019223463A1/zh unknown
-
2020
- 2020-08-18 US US16/996,566 patent/US11238644B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011145856A (ja) * | 2010-01-14 | 2011-07-28 | Ritsumeikan | 複合現実感技術による画像生成方法及び画像生成システム |
JP2014515854A (ja) * | 2011-03-29 | 2014-07-03 | クアルコム,インコーポレイテッド | 拡張現実システムにおける実世界表面への仮想画像のアンカリング |
JP2016062486A (ja) * | 2014-09-19 | 2016-04-25 | 株式会社ソニー・コンピュータエンタテインメント | 画像生成装置および画像生成方法 |
Non-Patent Citations (1)
Title |
---|
GUOSHENG LIN, 外3名: ""RefineNet: Multi-Path Refinement Networks for High-Resolution Semantic Segmentation"", 2017 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION, JPN6021044633, 2017, pages 5168 - 5177, ISSN: 0004636447 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024024357A1 (ja) * | 2022-07-29 | 2024-02-01 | ガラクーダ株式会社 | 画像表示装置および画像表示方法 |
Also Published As
Publication number | Publication date |
---|---|
JP7096902B2 (ja) | 2022-07-06 |
EP3798801A1 (en) | 2021-03-31 |
WO2019223463A1 (zh) | 2019-11-28 |
CN110515452A (zh) | 2019-11-29 |
US20200380769A1 (en) | 2020-12-03 |
EP3798801A4 (en) | 2021-07-14 |
CN110515452B (zh) | 2022-02-22 |
US11238644B2 (en) | 2022-02-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7096902B2 (ja) | 画像処理方法、装置、コンピュータプログラム及びコンピュータデバイス | |
US11663785B2 (en) | Augmented and virtual reality | |
US20210090608A1 (en) | Video processing method, device and electronic equipment | |
JP5450563B2 (ja) | シーン間遷移のための方法 | |
US9367942B2 (en) | Method, system and software program for shooting and editing a film comprising at least one image of a 3D computer-generated animation | |
CA2669409C (en) | Method for scripting inter-scene transitions | |
RU2708027C1 (ru) | Способ передачи движения субъекта из видео на анимированного персонажа | |
US20190228580A1 (en) | Dynamic Creation of Augmented Reality Effects | |
MXPA06012368A (es) | Integracion de jerarquia de escena tridimensional en sistema de composicion bidimensional. | |
US10957119B2 (en) | Visual editor for designing augmented-reality effects | |
EP3533218B1 (en) | Simulating depth of field | |
WO2023036160A1 (zh) | 视频处理方法、装置、计算机可读存储介质及计算机设备 | |
US10360736B2 (en) | Visual editor for designing augmented-reality effects | |
US11823334B2 (en) | Efficient capture and delivery of walkable and interactive virtual reality or 360 degree video | |
WO2023030176A1 (zh) | 视频处理方法、装置、计算机可读存储介质及计算机设备 | |
US10984574B1 (en) | Generating animations in an augmented reality environment | |
EP4097607B1 (en) | Applying non-destructive edits to nested instances for efficient rendering | |
US20210241539A1 (en) | Broker For Instancing | |
US20230196649A1 (en) | Deforming points in space using a curve deformer | |
Zhou et al. | Implementation of the Interaction Effect Among Virtual Large Curved Screens on Multiple Buildings Based on Mixed Reality | |
WO2023237516A1 (en) | Interactive re-scan solution based on change detection | |
CN115984343A (zh) | 利用高度图生成针对数字图像内的数字对象的阴影 | |
CN117788689A (zh) | 一种基于三维建模的可交互式虚拟云展厅构建方法及系统 | |
Guix | Interactive Video-Realistic Character Animation from 4D Performance Capture |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201020 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200923 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211109 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220131 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220614 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220624 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7096902 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |