JP6858159B2 - 頭部装着装置を使用して関心領域を標識するテレプレゼンスのフレームワーク - Google Patents
頭部装着装置を使用して関心領域を標識するテレプレゼンスのフレームワーク Download PDFInfo
- Publication number
- JP6858159B2 JP6858159B2 JP2018135982A JP2018135982A JP6858159B2 JP 6858159 B2 JP6858159 B2 JP 6858159B2 JP 2018135982 A JP2018135982 A JP 2018135982A JP 2018135982 A JP2018135982 A JP 2018135982A JP 6858159 B2 JP6858159 B2 JP 6858159B2
- Authority
- JP
- Japan
- Prior art keywords
- roi
- frames
- media stream
- frame
- pointing object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 claims description 67
- 238000002372 labelling Methods 0.000 claims description 23
- 238000001514 detection method Methods 0.000 claims description 13
- 230000007547 defect Effects 0.000 claims description 11
- 230000003287 optical effect Effects 0.000 claims description 10
- 230000015654 memory Effects 0.000 claims description 9
- 238000004422 calculation algorithm Methods 0.000 claims description 7
- 238000013459 approach Methods 0.000 claims description 3
- 238000004590 computer program Methods 0.000 claims description 2
- 238000004891 communication Methods 0.000 description 10
- 238000012545 processing Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 5
- 238000003860 storage Methods 0.000 description 5
- 230000003190 augmentative effect Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000003491 array Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 238000012423 maintenance Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 238000003745 diagnosis Methods 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 238000007689 inspection Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000007637 random forest analysis Methods 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- FMFKNGWZEQOWNK-UHFFFAOYSA-N 1-butoxypropan-2-yl 2-(2,4,5-trichlorophenoxy)propanoate Chemical compound CCCCOCC(C)OC(=O)C(C)OC1=CC(Cl)=C(Cl)C=C1Cl FMFKNGWZEQOWNK-UHFFFAOYSA-N 0.000 description 1
- 241000010972 Ballerus ballerus Species 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 239000008186 active pharmaceutical agent Substances 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013398 bayesian method Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1684—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
- G06F1/1686—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/22—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
- G06V10/235—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition based on user input or interaction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/167—Position within a video image, e.g. region of interest [ROI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Computer Hardware Design (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Signal Processing (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
Description
77<Cb<127 式(1)
133<Cr<173
1.手の領域は、ウェアラブルからユーザの手までの距離に基づいて、経験的に求めたFOVの少なくとも12%を占領すべきである。これは、肌状ブロブの誤検出を回避するのに役立つ。
2.不動の手は、短期間に特定の半径内でブロブの質量中心を観測することによって、検出される。これは、ROIを強調するためにユーザが自分の人差し指を立てた後に、行われる。本明細書では、ROIを強調することは、非接触の手振りを使用することによって、ウェアラブル装置上で表現された場面において輪郭を作成することを含んでもよい。質量中心から最も遠い点(指先)までの距離は、追跡され、この距離が徐々に大きくなると、前景の輪郭を指さし身振りとするのに相応しいと確認される。
D(Pf,Pb)=||xf(i)−xb(i)|| 式(2)
Claims (13)
- メディアストリームにおいて関心領域(ROI:region of interest)を標識するためのプロセッサ実装方法であって、
1台又は複数のハードウェアプロセッサを介して、ウェアラブル装置上で表現されるメディアストリームを捕捉中に、前記メディアストリームの少なくとも1つのフレームにおける身振りを表す指さしオブジェクトを認識するステップであって、前記メディアストリームは、ユーザの一人称視点(FPV:first person view)から捕捉される場面を含む、ステップと、
前記1台又は複数のハードウェアプロセッサを介して、前記メディアストリームの前記少なくとも1つのフレームに後続するフレームのセットにおける前記指さしオブジェクトの軌跡を検出して、ユーザの手の領域が、ウェアラブルからユーザの手までの距離に基づいて経験的に求めた視野(FoV:Field of View)の割合を占領したときの、前記メディアストリームにおけるROIを選択するステップであって、前記指さしオブジェクトの前記軌跡は、前記ROI周りにバウンディングボックスを構成し、前記フレームのセットにおける前記指さしオブジェクトの前記軌跡を検出するステップは、前記フレームのセットにおける指先を検出するステップを含み、前記指先の検出は、閾値距離だけ分離される前記フレームのセットの後続フレームに対して実行され、前記フレームのセットのフレームにおいて指先を検出するステップは、
Sklanskyのアルゴリズム及び凸欠陥を使用して、前記指さしオブジェクトと関連付けられる前景の手の輪郭の凸包を計算するステップであって、前記凸欠陥は、開始点、終了点、及び欠陥点を含む、ステップと、
前記凸包の質量中心から最も遠く、質量中心上方に存在する開始及び終了点の1つを、指先として識別するステップであって、前記フレームのセットで検出された前記指先の経路が、前記軌跡を構成する、ステップと
を含む、ステップと、
前記1台又は複数のハードウェアプロセッサを介して、前記メディアストリームにおける前記後続フレームのセットに続いて発生する複数のフレームにおいて前記ROIを追跡するステップと、
前記1台又は複数のハードウェアプロセッサを介して、前記追跡に基づいて、前記ROI周りに前記バウンディングボックスを更新するステップであって、前記更新されたバウンディングボックスは、前記ROIを囲む、ステップと
を含む、方法。 - 前記指さしオブジェクトを認識するステップは、
前記メディアストリームから彩度チャネル情報を抽出するステップと、
前記彩度チャネル情報を使用することによって、前記メディアストリームで捕捉された背景場面から前記指さしオブジェクトを区分するステップであって、区分に使用される前記彩度チャネル情報に関連付けられる彩度範囲が、
(数1)
77<Cb<127
133<Cr<173
を含む、ステップと
を含む、請求項1に記載の方法。 - 前記軌跡を記憶するステップを更に含む、請求項1に記載の方法。
- 前記バウンディングボックスを追跡するステップは、
複数のフレームの少なくとも1つにおける前記ROIと関連付けられる複数の特徴点を決定するステップと、
前記少なくとも1つのフレームから、後続のn番目のフレーム毎に前記複数の特徴点を追跡するステップと、
前記後続のn番目のフレーム上で前記複数の特徴点のオプティカルフロー軌道を決定して、前記バウンディングボックスを追跡するステップであって、前記オプティカルフロー軌道は、ピラミッド的手法のLucas−Kanadeオプティカルフローを使用して決定される、ステップと
を含む、請求項1に記載の方法。 - 前記複数の特徴点から、ノイズの多い特徴点を除去するステップを更に含む、請求項4に記載の方法。
- 前記ノイズの多い特徴点は、前後進(FB:forward−backward)誤差を決定することによって除去され、前後進誤差を決定することは、
点セット(Pf)を得るために、前記複数のフレームの前のフレームから現在のフレームへ(未来へ)、特徴点を追跡すること、
点セット(Pb)を得るために、Pfを使用して、前記現在の画像から前記前の画像へ、特徴点を追跡すること、
以下の式(2):
(数2)
D(Pf;Pb)=||xf(i)−xb(i)|| 式(2)
を使用して、前記前後進誤差を決定することであって、前記距離は、ユークリッド距離を含むこと
を含む、請求項5に記載の方法。 - メディアストリームにおいて関心領域(ROI)を標識するシステムであって、該システムは、
1つ又は複数のメモリと、
1台又は複数のハードウェアプロセッサであって、前記1つ又は複数のメモリが結合される1台又は複数のハードウェアプロセッサと
を含み、
前記1台又は複数のハードウェアプロセッサは、前記1つ又は複数のメモリに記憶されたプログラム命令であって、
ウェアラブル装置上で表現される前記メディアストリームを捕捉中に、前記メディアストリームの少なくとも1つのフレームにおいて身振りを表す指さしオブジェクトを認識する命令であって、前記メディアストリームは、ユーザの一人称視点(FPV)から捕捉された場面を含む、命令と、
前記メディアストリームの前記少なくとも1つのフレームに後続するフレームのセットにおいて前記指さしオブジェクトの軌跡を検出して、ユーザの手の領域が、ウェアラブルからユーザの手までの距離に基づいて経験的に求めた視野(FoV)の割合を占領したときの、前記メディアストリームにおけるROIを選択する命令であって、前記指さしオブジェクトの前記軌跡は、前記ROI周りにバウンディングボックスを構成し、前記フレームのセットにおける前記指さしオブジェクトの前記軌跡を検出する命令は、前記フレームのセットにおける前記指先を検出する命令を含み、前記指先の検出は、閾値距離だけ分離される前記フレームのセットの後続フレームに対して実行され、前記フレームのセットのフレームにおいて指先を検出する命令は、
Sklanskyのアルゴリズム及び凸欠陥を使用して、前記指さしオブジェクトと関連付けられる前景の手の輪郭の凸包を計算する命令であって、前記凸欠陥は、開始点、終了点、及び欠陥点を含む、命令と、
前記凸包の質量中心から最も遠く、質量中心上方に存在する開始及び終了点の1つを、指先として識別する命令であって、前記フレームのセットで検出された前記指先の経路が、前記軌跡を構成する、命令と
を含む、命令と、
前記メディアストリームにおける前記後続フレームのセットの後に発生する複数のフレームにおいて前記ROIを追跡する命令と、
前記追跡に基づいて、前記ROI周りで前記バウンディングボックスを更新する命令であって、前記更新されたバウンディングボックスは、前記ROIを囲む、命令と
を実行できる、システム。 - 前記指さしオブジェクトを認識するために、前記1台又は複数のハードウェアプロセッサは、
前記メディアストリームから彩度チャネル情報を抽出する命令と、
前記彩度チャネル情報を使用することによって、前記メディアストリームにおいて捕捉された背景場面から、前記指さしオブジェクトを区分する命令であって、区分に使用される前記彩度チャネル情報と関連付けられる彩度範囲は、
(数1)
77<Cb<127
133<Cr<173
を含む、命令と
によって、更に構成される、請求項7に記載のシステム。 - 前記1台又は複数のハードウェアプロセッサは、前記軌跡を記憶する命令によって、更に構成される、請求項7に記載のシステム。
- 前記バウンディングボックスを追跡するために、前記1台又は複数のハードウェアプロセッサは、
複数のフレームの少なくとも1つのフレームにおける前記ROIに関連付けられる複数の特徴点を決定する命令と、
前記少なくとも1つのフレームから後続のn番目のフレーム毎における前記複数の特徴点を追跡する命令と、
前記後続のn番目のフレーム上で前記複数の特徴点のオプティカルフロー軌道を決定して、前記バウンディングボックスを、ピラミッド的手法のLucas−Kanadeオプティカルフローを使用して追跡する命令と
によって、更に構成される、請求項7に記載のシステム。 - 前記1台又は複数のハードウェアプロセッサは、前記複数の特徴点から、ノイズの多い特徴点を除去する命令によって、更に構成される、請求項10に記載のシステム。
- 前記1台又は複数のハードウェアプロセッサは、前後進誤差を求めることによって、前記ノイズの多い特徴点を除去する命令によって、更に構成され、前記前後進誤差を求めるために、前記1台又は複数のハードウェアプロセッサは、
点セット(Pf)を得るために、前記複数のフレームの前のフレームから現在のフレームへ(未来へ)、特徴点を追跡する命令と、
点セット(Pb)を得るために、Pfセットを使用して、前記現在の画像から前記前の画像へ、特徴点を追跡する命令と、
以下の式(2):
(数2)
D(Pf;Pb)=||xf(i)−xb(i)|| 式(2)
を使用して、前記前後進誤差を求める命令であって、前記距離は、ユークリッド距離を含む、命令とによって、更に構成される、請求項11に記載のシステム。 - メディアストリームにおいて関心領域(ROI)を標識する方法を実行するためのコンピュータプログラムを具現化した非一時的なコンピュータ可読媒体であって、前記方法は、
1台又は複数のハードウェアプロセッサを介して、ウェアラブル装置上で表現される前記メディアストリームを捕捉中に、前記メディアストリームの少なくとも1つのフレームにおける身振りを表す指さしオブジェクトを認識するステップであって、前記メディアストリームは、ユーザの一人称視点(FPV)から捕捉される場面を含む、ステップと、
前記1台又は複数のハードウェアプロセッサを介して、前記メディアストリームの前記少なくとも1つのフレームに後続するフレームのセットにおける前記指さしオブジェクトの軌跡を検出して、ユーザの手の領域が、ウェアラブルからユーザの手までの距離に基づいて経験的に求めた視野(FoV)の割合を占領したときの、前記メディアストリームにおけるROIを選択するステップであって、前記指さしオブジェクトの前記軌跡は、前記ROI周りにバウンディングボックスを構成し、前記フレームのセットにおける前記指さしオブジェクトの前記軌跡を検出するステップは、前記フレームのセットにおける前記指先を検出するステップを含み、前記指先の検出は、閾値距離だけ分離される前記フレームのセットの後続フレームに対して実行され、前記フレームのセットのフレームにおいて指先を検出するステップは、
Sklanskyのアルゴリズム及び凸欠陥を使用して、前記指さしオブジェクトと関連付けられる前景の手の輪郭の凸包を計算するステップであって、前記凸欠陥は、開始点、終了点、及び欠陥点を含む、ステップと、
前記凸包の質量中心から最も遠く、質量中心上方に存在する開始及び終了点の1つを、指先として識別するステップであって、前記フレームのセットで検出された前記指先の経路が、前記軌跡を構成する、ステップと
を含む、ステップと、
前記1台又は複数のハードウェアプロセッサを介して、前記メディアストリームにおける後続フレームのセットに続いて発生する複数のフレームにおいて前記ROIを追跡するステップと、
前記1台又は複数のハードウェアプロセッサを介して、前記追跡に基づいて、前記ROI周りに前記バウンディングボックスを更新するステップであって、前記更新されたバウンディングボックスは、前記ROIを囲む、ステップと
を含む、非一時的なコンピュータ可読媒体。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
IN201721025858 | 2017-07-20 | ||
IN201721025858 | 2017-07-20 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019021318A JP2019021318A (ja) | 2019-02-07 |
JP6858159B2 true JP6858159B2 (ja) | 2021-04-14 |
Family
ID=62791529
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018135982A Active JP6858159B2 (ja) | 2017-07-20 | 2018-07-19 | 頭部装着装置を使用して関心領域を標識するテレプレゼンスのフレームワーク |
Country Status (3)
Country | Link |
---|---|
US (1) | US10831360B2 (ja) |
EP (1) | EP3432204B1 (ja) |
JP (1) | JP6858159B2 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109690616A (zh) * | 2016-09-16 | 2019-04-26 | 三菱电机株式会社 | 光流精度计算装置和光流精度计算方法 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7308112B2 (en) * | 2004-05-14 | 2007-12-11 | Honda Motor Co., Ltd. | Sign based human-machine interaction |
FR2911983B1 (fr) * | 2007-01-25 | 2009-05-29 | St Microelectronics Sa | Procede de suivi automatique des mouvements de la mains dans une sequence d'images. |
US9740293B2 (en) * | 2009-04-02 | 2017-08-22 | Oblong Industries, Inc. | Operating environment with gestural control and multiple client devices, displays, and users |
US8325982B1 (en) * | 2009-07-23 | 2012-12-04 | Videomining Corporation | Method and system for detecting and tracking shopping carts from videos |
EP2703950A4 (en) * | 2011-04-28 | 2015-01-14 | Nec Solution Innovators Ltd | INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD AND RECORDING MEDIUM |
AU2011203028B1 (en) * | 2011-06-22 | 2012-03-08 | Microsoft Technology Licensing, Llc | Fully automatic dynamic articulated model calibration |
JP2014035302A (ja) * | 2012-08-09 | 2014-02-24 | Panasonic Corp | 対象物検出装置、対象物検出方法、プログラム |
US10133342B2 (en) * | 2013-02-14 | 2018-11-20 | Qualcomm Incorporated | Human-body-gesture-based region and volume selection for HMD |
US9354711B2 (en) * | 2014-09-30 | 2016-05-31 | Xerox Corporation | Dynamic hand-gesture-based region of interest localization |
US9766713B2 (en) * | 2015-09-08 | 2017-09-19 | Unity IPR ApS | System and method for providing user interface tools |
WO2017139509A1 (en) * | 2016-02-12 | 2017-08-17 | Purdue Research Foundation | Manipulating 3d virtual objects using hand-held controllers |
US9865062B2 (en) * | 2016-02-12 | 2018-01-09 | Qualcomm Incorporated | Systems and methods for determining a region in an image |
-
2018
- 2018-06-25 EP EP18179448.8A patent/EP3432204B1/en active Active
- 2018-06-26 US US16/019,146 patent/US10831360B2/en active Active
- 2018-07-19 JP JP2018135982A patent/JP6858159B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
US20190026001A1 (en) | 2019-01-24 |
US10831360B2 (en) | 2020-11-10 |
EP3432204A1 (en) | 2019-01-23 |
EP3432204C0 (en) | 2024-01-17 |
JP2019021318A (ja) | 2019-02-07 |
EP3432204B1 (en) | 2024-01-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CA3016921C (en) | System and method for deep learning based hand gesture recognition in first person view | |
US11573641B2 (en) | Gesture recognition system and method of using same | |
TW202119199A (zh) | 虛擬鍵盤 | |
US20160019718A1 (en) | Method and system for providing visual feedback in a virtual reality environment | |
US20130249786A1 (en) | Gesture-based control system | |
JP6323202B2 (ja) | 映像を取得するシステム、方法及びプログラム | |
US11922721B2 (en) | Information display method, device and storage medium for superimposing material on image | |
JP6858159B2 (ja) | 頭部装着装置を使用して関心領域を標識するテレプレゼンスのフレームワーク | |
US20180150957A1 (en) | Multi-spectrum segmentation for computer vision | |
US9727778B2 (en) | System and method for guided continuous body tracking for complex interaction | |
Gupta et al. | Hand gesture based region marking for tele-support using wearables | |
US10489921B2 (en) | Behavior analysis apparatus and behavior analysis method | |
JP2020021331A (ja) | 頭部装着装置を使用して関心領域を標識するテレプレゼンスのフレームワーク | |
Fiorentino et al. | Magic mirror interface for augmented reality maintenance: an automotive case study | |
JP2015184986A (ja) | 複合現実感共有装置 | |
JP6350331B2 (ja) | 追尾装置、追尾方法及び追尾プログラム | |
JP6170696B2 (ja) | 画像処理装置及び画像処理方法 | |
Xie et al. | Hand posture recognition using kinect | |
JP2009205498A (ja) | 情報提示装置、情報提示方法、情報提示プログラムおよびそのプログラムを記録した記録媒体 | |
KR20190059597A (ko) | 동작 인식 장치 및 그 방법 | |
JP6762544B2 (ja) | 画像処理装置、画像処理方法、及び画像処理プログラム | |
US20170069137A1 (en) | Information processing device, information processing method, and information processing program | |
JP6805375B2 (ja) | 情報処理装置、情報処理方法及び情報処理プログラム | |
TWI460683B (zh) | The way to track the immediate movement of the head | |
Prathyakshini et al. | Hand Gesture Controlled Video Player Application |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180905 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190805 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190924 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20191224 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20200225 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200324 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200602 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20200831 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20201029 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201202 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210224 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210323 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6858159 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |