JP7026825B2 - 画像処理方法及び装置、電子機器並びに記憶媒体 - Google Patents
画像処理方法及び装置、電子機器並びに記憶媒体 Download PDFInfo
- Publication number
- JP7026825B2 JP7026825B2 JP2020561756A JP2020561756A JP7026825B2 JP 7026825 B2 JP7026825 B2 JP 7026825B2 JP 2020561756 A JP2020561756 A JP 2020561756A JP 2020561756 A JP2020561756 A JP 2020561756A JP 7026825 B2 JP7026825 B2 JP 7026825B2
- Authority
- JP
- Japan
- Prior art keywords
- coordinates
- image
- virtual
- coordinate system
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003672 processing method Methods 0.000 title claims description 41
- 238000006243 chemical reaction Methods 0.000 claims description 41
- 238000012545 processing Methods 0.000 claims description 20
- 238000010606 normalization Methods 0.000 claims description 17
- 230000009466 transformation Effects 0.000 claims description 16
- 230000015572 biosynthetic process Effects 0.000 claims description 11
- 230000000694 effects Effects 0.000 claims description 9
- 238000013507 mapping Methods 0.000 claims description 9
- 230000008859 change Effects 0.000 claims description 8
- 238000004590 computer program Methods 0.000 claims description 6
- 238000000034 method Methods 0.000 description 24
- 230000003993 interaction Effects 0.000 description 16
- 230000008569 process Effects 0.000 description 9
- 230000006870 function Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 238000005070 sampling Methods 0.000 description 4
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 3
- 238000003491 array Methods 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 238000001514 detection method Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 210000001508 eye Anatomy 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000006399 behavior Effects 0.000 description 1
- 210000005252 bulbus oculi Anatomy 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 210000004247 hand Anatomy 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/08—Projecting images onto non-planar surfaces, e.g. geodetic screens
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/213—Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/40—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
- A63F13/42—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
- A63F13/428—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/52—Controlling the output signals based on the game progress involving aspects of the displayed game scene
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/55—Controlling game characters or game objects based on the game progress
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/60—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/18—Image warping, e.g. rearranging pixels individually
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
- G06V20/653—Three-dimensional objects by matching three-dimensional models, e.g. conformal mapping of Riemann surfaces
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/60—Methods for processing data by generating or executing the game program
- A63F2300/66—Methods for processing data by generating or executing the game program for rendering three dimensional images
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Architecture (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Geometry (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
- Image Processing (AREA)
Description
本願は、出願番号が201811572680.9であり、出願日が2018年12月21日である中国特許出願を基に提出され、当該中国特許出願の優先権を主張し、当該中国特許出願の全文が参考として本願に組み込まれる。
前記2D画像の第1方向での第1サイズを特定し、前記第2局所の第1方向での第2サイズを特定することと、
前記第1サイズと前記第2サイズとの比である第1比を特定することと、
前記第1比に基づいて前記変換パラメータを特定することと、を含んでもよい。
前記2D画像の第2方向での第3サイズを特定し、前記第2局所の第2方向での第4サイズを特定することと、
前記第3サイズと前記第4サイズとの比である第2比を特定することと、を更に含んでもよい。
前記第1比と前記第2比との両方に基づいて、前記第一2D座標系と前記第二2D座標系との間の変換パラメータを特定することと、を含んでもよい。前記第2方向は、前記第1方向に垂直となる。
以下の関数関係を利用して前記変換パラメータを特定することを含んでもよい。
[K=camw/torsow, S=camh/torsoh] 式(1)
(x3,y3)=((x1-xt)*K+xi,(y1-yt)*S+yi) 式(2)
前記第三2D座標に対して正規化処理を行って第四2D座標を取得することと、
前記第四2D座標と前記仮想3次元空間内における仮想視点から仮想結像面内までの距離との両方に基づいて、前記第1キーポイントの前記仮想3次元空間内に投影された3D座標を特定することと、を含んでもよい。
(x4,y4)=[((x1-xt)*K+xi)/torsow,(1-((y1-yt)*S+yi))/torsoh] 式(3)
(x4*dds,y4*dds,d) 式(5)
前記2D画像における前記対象オブジェクトの数Mと、各前記対象オブジェクトの前記2D画像における2D画像領域とを特定するステップを更に含む。
前記2D画像領域に基づいて、各前記対象オブジェクトの前記第1キーポイントの第一2D座標と前記第2キーポイントの第二2D座標とを取得することにより、Mグループの前記3D座標を取得することを含んでもよい。
前記第一2D座標に基づいて、前記第1キーポイントの第1指示図形を前記第2表示領域内で表示された前記2D画像に表示することを含み、
および/または、
前記第二2D座標に基づいて、前記第2キーポイントの第2指示図形を前記第2表示領域内で表示された前記2D画像に表示することを含む。
前記関連指示図形の一方端は、前記第1指示図形を指向し、前記第2関連指示図形の他方端は、前記被制御機器における被制御要素を指向する。
第2取得モジュール120は、前記2D画像に基づいて、第1キーポイントの第一2D座標と第2キーポイントの第二2D座標とを取得するように構成される。前記第1キーポイントは、前記対象オブジェクトの第1局所の、前記2D画像における結像点であり、前記第2キーポイントは、前記対象オブジェクトの第2局所の、前記2D画像における結像点である。
第1特定モジュール130は、前記第一2D座標および前記第二2D座標に基づいて、相対座標を特定するように構成される。前記相対座標は、前記第1局所と前記第2局所との相対位置を表す。
投影モジュール140は、前記相対座標を仮想3次元空間内に投影して前記相対座標に対応する3D座標を取得するように構成される。前記3D座標は、被制御機器が所定操作を実行するように制御するために用いられる。ここでの所定操作は、被制御機器における対象オブジェクトの座標変換を含むが、それに限定されない。
[K=camw/torsow, S=camh/torsoh] 式(1)
(x3,y3)=((x1-xt)*K+xi,(y1-yt)*S+yi) 式(2)
(x4,y4)=[((x1-xt)*K+xi)/torsow,(1-((y1-yt)*S+yi))/torsoh] 式(3)
(x4*dds,y4*dds,d) 式(5)
第2特定モジュールは、前記2D画像における前記対象オブジェクトの数Mと各対象オブジェクトの前記2D画像における2D画像領域とを特定するように構成される。
前記第2取得モジュール120は、前記2D画像領域に基づいて、各前記対象オブジェクトの前記第1キーポイントの第一2D座標と前記第2キーポイントの第二2D座標とを取得することにより、Mグループの前記3D座標を取得するように構成される。
第1表示モジュールは、前記3D座標に基づく制御効果を第1表示領域内で表示するように構成される。
第2表示モジュールは、前記2D画像を前記第1表示領域に対応する第2表示領域内で表示するように構成される。
制御モジュールは、前後2つの時点での相対座標の、仮想3次元空間内の3つの座標軸における変化量或いは変化率に基づいて、被制御機器における対象オブジェクトの座標変換を制御するように構成される。
本例示は、画像処理方法を提供する。当該画像処理方法は、下記のことを含む。
前記変換パラメータ:
[K=camw/torsow, S=camh/torsoh] 式(1)
(x3,y3)=((x1-xt)*K+xi,(y1-yt)*S+yi) 式(6)
手部キーポイントを胴体に対応する第二2D座標系内へ変換する変換関数は、下記のようになってもよい。
(x3,y3)=((x1-xt)*K+xi,(yt-y1)*S+yi) 式(6)
(hand-torso)*(cam/torse)+cam-center
仮想視点の座標は、(xc,yc,zc)であり、
仮想制御プレーンの座標は、(xj,yj,zj)であり、
dは、(xc,yc,zc)と(xj,yj,zj)の間の距離であってもよい。
(x4,y4)=[(x1-xt)*camw+0.5,0.5-(y1-yt)*camh] 式(7)
情報を記憶するためのメモリと、
前記メモリに接続されるプロセッサと、を備え、前記プロセッサは、前記メモリに記憶されたコンピュータ実行可能な指令を実行することにより、上記1つまたは複数の解決手段に供される画像処理方法、例えば、図1、図3および図4に示す方法のうちの1つまたは複数を実施可能である。
Claims (18)
- 対象オブジェクトの2D画像を取得するステップと、
前記2D画像に基づいて、第1キーポイントの第一2D座標と第2キーポイントの第二2D座標とを取得するステップと、
前記第一2D座標および前記第二2D座標に基づいて、相対座標を特定するステップと、
前記相対座標を仮想3次元空間内に投影して前記相対座標に対応する3D座標を取得するステップと、を含み、
前記第1キーポイントは、前記対象オブジェクトの第1局所の、前記2D画像における結像点であり、前記第2キーポイントは、前記対象オブジェクトの第2局所の、前記2D画像における結像点であり、
前記相対座標は、前記第1局所と前記第2局所との相対位置を表し、
前記3D座標は、被制御機器における対象オブジェクトの座標変換を制御するために用いられることを特徴とする画像処理方法。 - 前記第一2D座標と前記第二2D座標は、第一2D座標系内に位置する2D座標であることを特徴とする請求項1に記載の画像処理方法。
- 前記第一2D座標および前記第二2D座標に基づいて、相対座標を特定するステップは、
前記第二2D座標に基づいて、第二2D座標系を構築することと、
前記第一2D座標を前記第二2D座標系にマッピングして第三2D座標を取得することと、
第三2D座標に基づいて前記相対座標を特定することと、を含むことを特徴とする請求項2に記載の画像処理方法。 - 前記第一2D座標を前記第二2D座標系にマッピングして第三2D座標を取得することは、
前記第一2D座標系および前記第二2D座標系に基づいて、前記第一2D座標系から前記第二2D座標系へマッピングする変換パラメータを特定し、
前記変換パラメータに基づいて、前記第一2D座標を前記第二2D座標系にマッピングして第三2D座標を取得することを含むことを特徴とする請求項3に記載の画像処理方法。 - 前記第一2D座標系および前記第二2D座標系に基づいて、前記第一2D座標系から前記第二2D座標系へマッピングする変換パラメータを特定することは、
前記2D画像の第1方向での第1サイズを特定し、前記第2局所の第1方向での第2サイズを特定することと、
前記第1サイズと前記第2サイズとの比である第1比を特定することと、
前記第1比に基づいて前記変換パラメータを特定することと、を含むことを特徴とする請求項4に記載の画像処理方法。 - 前記第1比に基づいて前記変換パラメータを特定することは、
前記2D画像の第2方向での第3サイズを特定し、前記第2局所の第2方向での第4サイズを特定することと、
前記第3サイズと前記第4サイズとの比である第2比を特定することと、
前記第1比と第2比との両方に基づいて、前記変換パラメータを特定することとを含み、
前記第2方向は前記第1方向に垂直することを特徴とする請求項5に記載の画像処理方法。 - 前記変換パラメータに基づいて、前記第一2D座標を前記第二2D座標系にマッピングして第三2D座標を取得することは、
前記変換パラメータと前記第一2D座標系の中心座標とに基づいて、前記第一2D座標を前記第二2D座標系にマッピングして第三2D座標を取得することを含むことを特徴とする請求項4から6の何れか一項に記載の画像処理方法。 - 前記相対座標を仮想3次元空間内に投影して前記相対座標に対応する3D座標を取得するステップは、
前記第三2D座標に対して正規化処理を行って第四2D座標を取得することと、
前記第四2D座標と前記仮想3次元空間内における仮想視点から仮想結像面内までの距離との両方に基づいて、前記第1キーポイントの前記仮想3次元空間内に投影された3D座標を特定することと、を含むことを特徴とする請求項3から7の何れか一項に記載の画像処理方法。 - 前記第三2D座標に対して正規化処理を行って第四2D座標を取得することは、
前記第2局所のサイズと前記第二2D座標系の中心座標との両方に基づいて、前記第三2D座標に対して正規化処理を行って前記第四2D座標を取得することを含むことを特徴とする請求項8に記載の画像処理方法。 - 前記第四2D座標と前記仮想3次元空間内における仮想視点から仮想結像面内までの距離との両方に基づいて、前記第1キーポイントの前記仮想3次元空間内に投影された3D座標を特定することは、
前記第四2D座標と、前記仮想3次元空間内における仮想視点から仮想結像面内までの距離と、スケーリング率との三者に基づいて、前記第1キーポイントの前記仮想3次元空間内に投影された3D座標を特定することを含むことを特徴とする請求項8または9に記載の画像処理方法。 - 前記画像処理方法は、
前記対象オブジェクトの数M(Mは、1より大きい整数である)と各対象オブジェクトの前記2D画像における2D画像領域とを特定するステップを更に含み、
前記2D画像に基づいて、第1キーポイントの第一2D座標と第2キーポイントの第二2D座標とを取得するステップは、
前記2D画像領域に基づいて、各前記対象オブジェクトの前記第1キーポイントの第一2D座標と前記第2キーポイントの第二2D座標とを取得することにより、Mグループの前記3D座標を取得することを含むことを特徴とする請求項1から10の何れか一項に記載の画像処理方法。 - 前記3D座標に基づく制御効果を第1表示領域内で表示するステップと、
前記2D画像を前記第1表示領域に対応する第2表示領域内で表示するステップと、を更に含むことを特徴とする請求項1から11の何れか一項に記載の画像処理方法。 - 前記2D画像を前記第1表示領域に対応する第2表示領域内で表示するステップは、
前記第一2D座標に基づいて、前記第1キーポイントの第1指示図形を前記第2表示領域内で表示された前記2D画像に表示すること、
および/または、
前記第二2D座標に基づいて、前記第2キーポイントの第2指示図形を前記第2表示領域内で表示された前記2D画像に表示すること、を含み、
前記第1指示図形は、前記第1キーポイントに重畳表示された画像であり、前記第2指示図形は、前記第2キーポイントに重畳表示された画像であることを特徴とする請求項12に記載の画像処理方法。 - 前後2つの時点での相対座標の、仮想3次元空間内の3つの座標軸における変化量或いは変化率に基づいて、被制御機器における対象オブジェクトの座標変換を制御するステップを更に含むことを特徴とする請求項1から13の何れか一項に記載の画像処理方法。
- 画像処理装置であって、
対象オブジェクトの2D画像を取得するように構成される第1取得モジュールと、
前記2D画像に基づいて、第1キーポイントの第一2D座標と第2キーポイントの第二2D座標とを取得するように構成される第2取得モジュールと、
前記第一2D座標および前記第二2D座標に基づいて、相対座標を特定するように構成される第1特定モジュールと、
前記相対座標を仮想3次元空間内に投影して前記相対座標に対応する3D座標を取得するように構成される投影モジュールと、を備え、
前記第1キーポイントは、前記対象オブジェクトの第1局所の、前記2D画像における結像点であり、前記第2キーポイントは、前記対象オブジェクトの第2局所の、前記2D画像における結像点であり、前記相対座標は、前記第1局所と前記第2局所との相対位置を表し、前記3D座標は、被制御機器における対象オブジェクトの座標変換を制御するために用いられることを特徴とする画像処理装置。 - 電子機器であって、
メモリと、
前記メモリに接続されるプロセッサと、を備え、
前記プロセッサは、前記メモリに記憶されたコンピュータ実行可能な指令を実行することにより、請求項1から14の何れか一項に記載の画像処理方法を実施することを特徴とする電子機器。 - コンピュータ実行可能な指令が記憶されるコンピュータ記憶媒体であって、
前記コンピュータ実行可能な指令がプロセッサによって実行されると、請求項1から14の何れか一項に記載の画像処理方法は実施されることを特徴とするコンピュータ記憶媒体。 - コンピュータプログラムであって、
前記コンピュータプログラムがプロセッサによって実行されると、請求項1から14の何れか一項に記載の画像処理方法は実施されることを特徴とするコンピュータプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811572680.9A CN111353930B (zh) | 2018-12-21 | 2018-12-21 | 数据处理方法及装置、电子设备及存储介质 |
CN201811572680.9 | 2018-12-21 | ||
PCT/CN2019/092866 WO2020124976A1 (zh) | 2018-12-21 | 2019-06-25 | 图像处理方法及装置、电子设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021520577A JP2021520577A (ja) | 2021-08-19 |
JP7026825B2 true JP7026825B2 (ja) | 2022-02-28 |
Family
ID=71100233
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020561756A Active JP7026825B2 (ja) | 2018-12-21 | 2019-06-25 | 画像処理方法及び装置、電子機器並びに記憶媒体 |
Country Status (7)
Country | Link |
---|---|
US (1) | US20210012530A1 (ja) |
JP (1) | JP7026825B2 (ja) |
KR (1) | KR102461232B1 (ja) |
CN (1) | CN111353930B (ja) |
SG (1) | SG11202010312QA (ja) |
TW (1) | TWI701941B (ja) |
WO (1) | WO2020124976A1 (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109675315B (zh) * | 2018-12-27 | 2021-01-26 | 网易(杭州)网络有限公司 | 游戏角色模型的生成方法、装置、处理器及终端 |
KR20220018760A (ko) | 2020-08-07 | 2022-02-15 | 삼성전자주식회사 | 단말에 3d 캐릭터 이미지를 제공하는 엣지 데이터 네트워크 및 그 동작 방법 |
CN111973984B (zh) * | 2020-09-10 | 2024-07-09 | 网易(杭州)网络有限公司 | 虚拟场景的坐标控制方法、装置、电子设备及存储介质 |
CN112465890A (zh) * | 2020-11-24 | 2021-03-09 | 深圳市商汤科技有限公司 | 深度检测方法、装置、电子设备和计算机可读存储介质 |
US11461975B2 (en) * | 2020-12-03 | 2022-10-04 | Realsee (Beijing) Technology Co., Ltd. | Method and apparatus for generating guidance among viewpoints in a scene |
TWI793764B (zh) * | 2021-09-14 | 2023-02-21 | 大陸商北京集創北方科技股份有限公司 | 屏下光學指紋鏡頭位置補償方法、屏下光學指紋採集裝置及資訊處理裝置 |
CN114849238B (zh) * | 2022-06-02 | 2023-04-07 | 北京新唐思创教育科技有限公司 | 动画执行方法、装置、设备及介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120275722A1 (en) | 2012-06-03 | 2012-11-01 | Tianzhi Yang | Evaluating mapping between spatial point sets |
CN104778720A (zh) | 2015-05-07 | 2015-07-15 | 东南大学 | 一种基于空间不变特性的快速体积测量方法 |
CN106559660A (zh) | 2015-09-29 | 2017-04-05 | 杭州海康威视数字技术股份有限公司 | 2d视频中展示目标3d信息的方法及装置 |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6973202B2 (en) * | 1998-10-23 | 2005-12-06 | Varian Medical Systems Technologies, Inc. | Single-camera tracking of an object |
JP5167248B2 (ja) * | 2006-05-11 | 2013-03-21 | プライムセンス リミテッド | 深度マップによるヒューマノイド形状のモデル化 |
NO327279B1 (no) * | 2007-05-22 | 2009-06-02 | Metaio Gmbh | Kamerapositurestimeringsanordning og- fremgangsmate for foroket virkelighetsavbildning |
US8233206B2 (en) * | 2008-03-18 | 2012-07-31 | Zebra Imaging, Inc. | User interaction with holographic images |
US8487871B2 (en) * | 2009-06-01 | 2013-07-16 | Microsoft Corporation | Virtual desktop coordinate transformation |
US20120192088A1 (en) * | 2011-01-20 | 2012-07-26 | Avaya Inc. | Method and system for physical mapping in a virtual world |
US9032334B2 (en) * | 2011-12-21 | 2015-05-12 | Lg Electronics Inc. | Electronic device having 3-dimensional display and method of operating thereof |
US20140181759A1 (en) * | 2012-12-20 | 2014-06-26 | Hyundai Motor Company | Control system and method using hand gesture for vehicle |
KR102068048B1 (ko) * | 2013-05-13 | 2020-01-20 | 삼성전자주식회사 | 3차원 영상 제공 시스템 및 방법 |
CN104240289B (zh) * | 2014-07-16 | 2017-05-03 | 崔岩 | 一种基于单个相机的三维数字化重建方法及系统 |
CN104134235B (zh) * | 2014-07-25 | 2017-10-10 | 深圳超多维光电子有限公司 | 真实空间和虚拟空间的融合方法和融合系统 |
US20220036646A1 (en) * | 2017-11-30 | 2022-02-03 | Shenzhen Keya Medical Technology Corporation | Methods and devices for performing three-dimensional blood vessel reconstruction using angiographic image |
CN108648280B (zh) * | 2018-04-25 | 2023-03-31 | 深圳市商汤科技有限公司 | 虚拟角色驱动方法及装置、电子设备和存储介质 |
CN109191507B (zh) * | 2018-08-24 | 2019-11-05 | 北京字节跳动网络技术有限公司 | 三维人脸图像重建方法、装置和计算机可读存储介质 |
CN110909580B (zh) * | 2018-09-18 | 2022-06-10 | 北京市商汤科技开发有限公司 | 数据处理方法及装置、电子设备及存储介质 |
CN110248148B (zh) * | 2018-09-25 | 2022-04-15 | 浙江大华技术股份有限公司 | 一种确定定位参数的方法及装置 |
CN111340932A (zh) * | 2018-12-18 | 2020-06-26 | 富士通株式会社 | 图像处理方法以及信息处理设备 |
CN111949111B (zh) * | 2019-05-14 | 2022-04-26 | Oppo广东移动通信有限公司 | 交互控制方法、装置、电子设备及存储介质 |
-
2018
- 2018-12-21 CN CN201811572680.9A patent/CN111353930B/zh active Active
-
2019
- 2019-06-25 KR KR1020207031294A patent/KR102461232B1/ko active IP Right Grant
- 2019-06-25 WO PCT/CN2019/092866 patent/WO2020124976A1/zh active Application Filing
- 2019-06-25 SG SG11202010312QA patent/SG11202010312QA/en unknown
- 2019-06-25 JP JP2020561756A patent/JP7026825B2/ja active Active
- 2019-11-27 TW TW108143268A patent/TWI701941B/zh active
-
2020
- 2020-09-30 US US17/038,273 patent/US20210012530A1/en not_active Abandoned
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120275722A1 (en) | 2012-06-03 | 2012-11-01 | Tianzhi Yang | Evaluating mapping between spatial point sets |
CN104778720A (zh) | 2015-05-07 | 2015-07-15 | 东南大学 | 一种基于空间不变特性的快速体积测量方法 |
CN106559660A (zh) | 2015-09-29 | 2017-04-05 | 杭州海康威视数字技术股份有限公司 | 2d视频中展示目标3d信息的方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN111353930A (zh) | 2020-06-30 |
JP2021520577A (ja) | 2021-08-19 |
TWI701941B (zh) | 2020-08-11 |
TW202025719A (zh) | 2020-07-01 |
KR20200138349A (ko) | 2020-12-09 |
SG11202010312QA (en) | 2020-11-27 |
KR102461232B1 (ko) | 2022-10-28 |
CN111353930B (zh) | 2022-05-24 |
US20210012530A1 (en) | 2021-01-14 |
WO2020124976A1 (zh) | 2020-06-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7026825B2 (ja) | 画像処理方法及び装置、電子機器並びに記憶媒体 | |
KR101453815B1 (ko) | 사용자의 시점을 고려하여 동작인식하는 인터페이스 제공방법 및 제공장치 | |
WO2019242262A1 (zh) | 基于增强现实的远程指导方法、装置、终端和存储介质 | |
JP5936155B2 (ja) | 3次元ユーザインタフェース装置及び3次元操作方法 | |
US9651782B2 (en) | Wearable tracking device | |
JP6057396B2 (ja) | 3次元ユーザインタフェース装置及び3次元操作処理方法 | |
US9541997B2 (en) | Three-dimensional user interface apparatus and three-dimensional operation method | |
CN108090463B (zh) | 对象控制方法、装置、存储介质和计算机设备 | |
CN111527468A (zh) | 一种隔空交互方法、装置和设备 | |
JP6344530B2 (ja) | 入力装置、入力方法、及びプログラム | |
CN111860252A (zh) | 图像处理方法、设备及存储介质 | |
KR101256046B1 (ko) | 공간 제스처 인식을 위한 신체 트래킹 방법 및 시스템 | |
JP2012238293A (ja) | 入力装置 | |
US20190340773A1 (en) | Method and apparatus for a synchronous motion of a human body model | |
CN107145822A (zh) | 偏离深度相机的用户体感交互标定的方法和系统 | |
CN111813214A (zh) | 虚拟内容的处理方法、装置、终端设备及存储介质 | |
WO2015072091A1 (ja) | 画像処理装置、画像処理方法及びプログラム記憶媒体 | |
CN108401452B (zh) | 使用虚拟现实头戴式显示器系统来执行真实目标检测和控制的装置和方法 | |
WO2022176450A1 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
WO2018170678A1 (zh) | 一种头戴式显示装置及其手势动作识别方法 | |
JP5520772B2 (ja) | 立体画像の表示システム及び表示方法 | |
CN117435055A (zh) | 基于空间立体显示器的手势增强眼球追踪的人机交互方法 | |
CN114296540A (zh) | 一种基于空间矩阵的人体定位追踪系统和方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201102 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201102 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220127 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220215 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7026825 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |