JP6771996B2 - ユーザーインターフェースのリアルタイムインタラクティブ操作のためのシステム及び方法 - Google Patents
ユーザーインターフェースのリアルタイムインタラクティブ操作のためのシステム及び方法 Download PDFInfo
- Publication number
- JP6771996B2 JP6771996B2 JP2016160941A JP2016160941A JP6771996B2 JP 6771996 B2 JP6771996 B2 JP 6771996B2 JP 2016160941 A JP2016160941 A JP 2016160941A JP 2016160941 A JP2016160941 A JP 2016160941A JP 6771996 B2 JP6771996 B2 JP 6771996B2
- Authority
- JP
- Japan
- Prior art keywords
- predetermined radius
- pointing
- target
- motion
- targets
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Social Psychology (AREA)
- Psychiatry (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
- Position Input By Displaying (AREA)
Description
また、一例示的実施形態によれば、ユーザーインターフェースを用いたリアルタイムインタラクションのためにジェスチャーを認識する方法であって、対象者の三次元(3D)データを取り込む工程と、前記3Dデータから、前記対象者によるポインティング動作を検出する工程と、前記ポインティング動作から、中心点を中心とする所定の半径を有するターゲット領域の初期推定値を算出する工程と、前記対象者の前記ポインティング動作を追跡し、前記検出されたポインティング動作に基づいて前記ターゲット領域の前記所定の半径が変化する一連のイテレーションを行う工程と、前記所定の半径を、一定の割合及び前記対象者の前記ポインティング動作の動きの速度に比例する割合で、縮小及び拡大する工程と、を備える方法が開示される。
また、一例示的実施形態によれば、ユーザーインターフェースを用いたリアルタイムインタラクションのためにジェスチャーを認識する方法であって、対象者の三次元(3D)データを取り込む工程と、前記3Dデータから、前記対象者によるポインティング動作を検出する工程と、前記ポインティング動作から、中心点を中心とする所定の半径を有するターゲット領域の初期推定値を算出する工程と、前記対象者の前記ポインティング動作を追跡し、前記検出されたポインティング動作に基づいて前記ターゲット領域の前記所定の半径が変化する一連のイテレーションを行う工程と、前記ポインティング動作が前記ターゲット領域の前記所定の半径以内にある場合、前記所定の半径を縮小する工程と、前記対象者による前記ポインティング動作が前記所定の半径外にある場合、前記所定の半径を拡大する工程と、前記所定の半径を、一定の割合及び前記対象者の前記ポインティング動作の動きの速度に比例する割合で、縮小及び拡大する工程と、を備える方法が開示される。
また、一例示的実施形態によれば、ユーザーインターフェースを用いたリアルタイムインタラクションのためにジェスチャーを認識するシステムであって、対象者の三次元(3D)データを取り込むための動き及び深度センサーと、対象者の三次元(3D)データを取り込み、前記3Dデータから、前記対象者によるポインティング動作を検出し、前記ポインティング動作から、中心点を中心とする所定の半径を有するターゲット領域の初期推定値を算出し、前記対象者の前記ポインティング動作を追跡し、前記検出されたポインティング動作に基づいて前記ターゲット領域の前記所定の半径が変化する一連のイテレーションを行うように構成されたプロセッサーと、を備え、前記プロセッサーは、前記所定の半径を、一定の割合及び前記対象者の前記ポインティング動作の動きの速度に比例する割合で、縮小及び拡大するように構成されていることを特徴とするシステムが開示される。
また、一例示的実施形態によれば、ユーザーインターフェースを用いたリアルタイムインタラクションのためにジェスチャーを認識するシステムであって、対象者の三次元(3D)データを取り込むための動き及び深度センサーと、対象者の三次元(3D)データを取り込み、前記3Dデータから、前記対象者によるポインティング動作を検出し、前記ポインティング動作から、中心点を中心とする所定の半径を有するターゲット領域の初期推定値を算出し、前記対象者の前記ポインティング動作を追跡し、前記検出されたポインティング動作に基づいて前記ターゲット領域の前記所定の半径が変化する一連のイテレーションを行うように構成されたプロセッサーと、を備え、前記プロセッサーは、前記ポインティング動作が前記ターゲット領域の前記所定の半径以内にある場合、前記所定の半径を縮小し、前記対象者による前記ポインティング動作が前記所定の半径外にある場合、前記所定の半径を拡大し、前記所定の半径を、一定の割合及び前記対象者の前記ポインティング動作の動きの速度に比例する割合で、縮小及び拡大するように構成されていることを特徴とするシステムが開示される。
また、一例示的実施形態によれば、ユーザーインターフェースを用いたリアルタイムインタラクションのためにジェスチャーを認識するためのコンピューター読取可能コードを有し、コンピューターによって実行されることで当該コンピューターに処理を行わせるコンピュータープログラムであって、前記処理は、対象者の三次元(3D)データを取り込む工程と、前記3Dデータから、前記対象者によるポインティング動作を検出する工程と、前記ポインティング動作から、中心点を中心とする所定の半径を有するターゲット領域の初期推定値を算出する工程と、前記対象者の前記ポインティング動作を追跡し、前記検出されたポインティング動作に基づいて前記ターゲット領域の前記所定の半径が変化する一連のイテレーションを行う工程と、前記所定の半径を、一定の割合及び前記対象者の前記ポインティング動作の動きの速度に比例する割合で、縮小及び拡大する工程と、を備えるコンピュータープログラムが開示される。
また、一例示的実施形態によれば、ユーザーインターフェースを用いたリアルタイムインタラクションのためにジェスチャーを認識するためのコンピューター読取可能コードを有し、コンピューターによって実行されることで当該コンピューターに処理を行わせるコンピュータープログラムであって、前記処理は、対象者の三次元(3D)データを取り込む工程と、前記3Dデータから、前記対象者によるポインティング動作を検出する工程と、前記ポインティング動作から、中心点を中心とする所定の半径を有するターゲット領域の初期推定値を算出する工程と、前記対象者の前記ポインティング動作を追跡し、前記検出されたポインティング動作に基づいて前記ターゲット領域の前記所定の半径が変化する一連のイテレーションを行う工程と、前記ポインティング動作が前記ターゲット領域の前記所定の半径以内にある場合、前記所定の半径を縮小する工程と、前記対象者による前記ポインティング動作が前記所定の半径外にある場合、前記所定の半径を拡大する工程と、前記所定の半径を、一定の割合及び前記対象者の前記ポインティング動作の動きの速度に比例する割合で、縮小及び拡大する工程と、を備えるコンピュータープログラムが開示される。
<特徴抽出モジュール>
<ユーザー状態検出及び操作者特定モジュール>
<動作分割及び認識モジュール>
<ポインティングに対する画面上の初期領域の推定>
<インタラクションモジュール>
システムがポインティングを認識して最初に推定した実画面上の点c(xs,ys)614について、cを中心とする、事前に設定(又は定義)された半径rを有する円を構築する。
手が円の中にある場合、円は縮小を止め、動きの方向dに、動きの速度vmに比例する割合で移動する。
<インタラクティブターゲット選択>
<実物体のためのインタラクティブターゲット選択>
Claims (19)
- ユーザーインターフェースを用いたリアルタイムインタラクションのためにジェスチャーを認識する方法であって、
対象者の三次元(3D)データを取り込む工程と、
前記3Dデータから、前記対象者によるポインティング動作を検出する工程と、
前記ポインティング動作から、中心点を中心とする所定の半径を有するターゲット領域の初期推定値を算出する工程と、
前記対象者の前記ポインティング動作を追跡し、前記検出されたポインティング動作に基づいて前記ターゲット領域の前記所定の半径が変化する一連のイテレーションを行う工程と、
前記ポインティング動作が前記ターゲット領域の前記所定の半径以内にある場合、前記所定の半径を縮小する工程と、
前記対象者による前記ポインティング動作が前記所定の半径外にある場合、前記所定の半径を拡大する工程と、
を備える方法。 - ユーザーインターフェースを用いたリアルタイムインタラクションのためにジェスチャーを認識する方法であって、
対象者の三次元(3D)データを取り込む工程と、
前記3Dデータから、前記対象者によるポインティング動作を検出する工程と、
前記ポインティング動作から、中心点を中心とする所定の半径を有するターゲット領域の初期推定値を算出する工程と、
前記対象者の前記ポインティング動作を追跡し、前記検出されたポインティング動作に基づいて前記ターゲット領域の前記所定の半径が変化する一連のイテレーションを行う工程と、
前記所定の半径を、一定の割合及び前記対象者の前記ポインティング動作の動きの速度に比例する割合で、縮小及び拡大する工程と、
を備える方法。 - ユーザーインターフェースを用いたリアルタイムインタラクションのためにジェスチャーを認識する方法であって、
対象者の三次元(3D)データを取り込む工程と、
前記3Dデータから、前記対象者によるポインティング動作を検出する工程と、
前記ポインティング動作から、中心点を中心とする所定の半径を有するターゲット領域の初期推定値を算出する工程と、
前記対象者の前記ポインティング動作を追跡し、前記検出されたポインティング動作に基づいて前記ターゲット領域の前記所定の半径が変化する一連のイテレーションを行う工程と、
前記ポインティング動作が前記ターゲット領域の前記所定の半径以内にある場合、前記所定の半径を縮小する工程と、
前記対象者による前記ポインティング動作が前記所定の半径外にある場合、前記所定の半径を拡大する工程と、
前記所定の半径を、一定の割合及び前記対象者の前記ポインティング動作の動きの速度に比例する割合で、縮小及び拡大する工程と、
を備える方法。 - ユーザーの前記ポインティング動作の動きが前記所定の半径以内と検出され、前記所定の半径の前記中心点に相対した前記ポインティング動作の変化が検出された場合、前記所定の半径の前記中心点を移動させる工程を備える請求項1〜3の何れか一項に記載の方法。
- 前記ターゲット領域内でターゲットを選択する工程を備え、
前記ターゲットを選択する工程は、
前記所定の半径以内に一以上のターゲットがあるか判定する工程と、
少なくとも一のターゲットがある場合、ターゲット数が1であるか1を超えるか判定し、前記ターゲット数が1の場合、ターゲットを選択し、前記ターゲット数が1を超える場合、ターゲットが一つになるまで前記所定の半径を縮小して前記所定の半径以内の前記ターゲット数を減らす工程と、
を備える請求項1〜3の何れか一項に記載の方法。 - ユーザーインターフェースを用いたリアルタイムインタラクションのためにジェスチャーを認識するシステムであって、
対象者の三次元(3D)データを取り込むための動き及び深度センサーと、
対象者の三次元(3D)データを取り込み、
前記3Dデータから、前記対象者によるポインティング動作を検出し、
前記ポインティング動作から、中心点を中心とする所定の半径を有するターゲット領域の初期推定値を算出し、
前記対象者の前記ポインティング動作を追跡し、前記検出されたポインティング動作に基づいて前記ターゲット領域の前記所定の半径が変化する一連のイテレーションを行うように構成されたプロセッサーと、
を備え、
前記プロセッサーは、
前記ポインティング動作が前記ターゲット領域の前記所定の半径以内にある場合、前記所定の半径を縮小し、
前記対象者による前記ポインティング動作が前記所定の半径外にある場合、前記所定の半径を拡大するように構成されていることを特徴とするシステム。 - ユーザーインターフェースを用いたリアルタイムインタラクションのためにジェスチャーを認識するシステムであって、
対象者の三次元(3D)データを取り込むための動き及び深度センサーと、
対象者の三次元(3D)データを取り込み、
前記3Dデータから、前記対象者によるポインティング動作を検出し、
前記ポインティング動作から、中心点を中心とする所定の半径を有するターゲット領域の初期推定値を算出し、
前記対象者の前記ポインティング動作を追跡し、前記検出されたポインティング動作に基づいて前記ターゲット領域の前記所定の半径が変化する一連のイテレーションを行うように構成されたプロセッサーと、
を備え、
前記プロセッサーは、
前記所定の半径を、一定の割合及び前記対象者の前記ポインティング動作の動きの速度に比例する割合で、縮小及び拡大するように構成されていることを特徴とするシステム。 - ユーザーインターフェースを用いたリアルタイムインタラクションのためにジェスチャーを認識するシステムであって、
対象者の三次元(3D)データを取り込むための動き及び深度センサーと、
対象者の三次元(3D)データを取り込み、
前記3Dデータから、前記対象者によるポインティング動作を検出し、
前記ポインティング動作から、中心点を中心とする所定の半径を有するターゲット領域の初期推定値を算出し、
前記対象者の前記ポインティング動作を追跡し、前記検出されたポインティング動作に基づいて前記ターゲット領域の前記所定の半径が変化する一連のイテレーションを行うように構成されたプロセッサーと、
を備え、
前記プロセッサーは、
前記ポインティング動作が前記ターゲット領域の前記所定の半径以内にある場合、前記所定の半径を縮小し、
前記対象者による前記ポインティング動作が前記所定の半径外にある場合、前記所定の半径を拡大し、
前記所定の半径を、一定の割合及び前記対象者の前記ポインティング動作の動きの速度に比例する割合で、縮小及び拡大するように構成されていることを特徴とするシステム。 - 前記プロセッサーは、
ユーザーの前記ポインティング動作の動きが前記所定の半径以内と検出され、前記所定の半径の前記中心点に相対した前記ポインティング動作の変化が検出された場合、前記所定の半径の前記中心点を移動させるように構成されていることを特徴とする請求項6〜8の何れか一項に記載のシステム。 - 前記プロセッサーは、
前記ターゲット領域内でターゲットを選択し、
前記ターゲットを選択する際には、
前記所定の半径以内に一以上のターゲットがあるか判定し、
少なくとも一のターゲットがある場合、ターゲット数が1であるか1を超えるか判定し、前記ターゲット数が1の場合、ターゲットを選択し、前記ターゲット数が1を超える場合、ターゲットが一つになるまで前記所定の半径を縮小して前記所定の半径以内の前記ターゲット数を減らすように構成されていることを特徴とする請求項6〜8の何れか一項に記載のシステム。 - ユーザーインターフェースを用いたリアルタイムインタラクションのためにジェスチャーを認識するためのコンピューター読取可能コードを有し、コンピューターによって実行されることで当該コンピューターに処理を行わせるコンピュータープログラムであって、
前記処理は、
対象者の三次元(3D)データを取り込む工程と、
前記3Dデータから、前記対象者によるポインティング動作を検出する工程と、
前記ポインティング動作から、中心点を中心とする所定の半径を有するターゲット領域の初期推定値を算出する工程と、
前記対象者の前記ポインティング動作を追跡し、前記検出されたポインティング動作に基づいて前記ターゲット領域の前記所定の半径が変化する一連のイテレーションを行う工程と、
前記ポインティング動作が前記ターゲット領域の前記所定の半径以内にある場合、前記所定の半径を縮小する工程と、
前記対象者による前記ポインティング動作が前記所定の半径外にある場合、前記所定の半径を拡大する工程と、
を備えるコンピュータープログラム。 - ユーザーインターフェースを用いたリアルタイムインタラクションのためにジェスチャーを認識するためのコンピューター読取可能コードを有し、コンピューターによって実行されることで当該コンピューターに処理を行わせるコンピュータープログラムであって、
前記処理は、
対象者の三次元(3D)データを取り込む工程と、
前記3Dデータから、前記対象者によるポインティング動作を検出する工程と、
前記ポインティング動作から、中心点を中心とする所定の半径を有するターゲット領域の初期推定値を算出する工程と、
前記対象者の前記ポインティング動作を追跡し、前記検出されたポインティング動作に基づいて前記ターゲット領域の前記所定の半径が変化する一連のイテレーションを行う工程と、
前記所定の半径を、一定の割合及び前記対象者の前記ポインティング動作の動きの速度に比例する割合で、縮小及び拡大する工程と、
を備えるコンピュータープログラム。 - ユーザーインターフェースを用いたリアルタイムインタラクションのためにジェスチャーを認識するためのコンピューター読取可能コードを有し、コンピューターによって実行されることで当該コンピューターに処理を行わせるコンピュータープログラムであって、
前記処理は、
対象者の三次元(3D)データを取り込む工程と、
前記3Dデータから、前記対象者によるポインティング動作を検出する工程と、
前記ポインティング動作から、中心点を中心とする所定の半径を有するターゲット領域の初期推定値を算出する工程と、
前記対象者の前記ポインティング動作を追跡し、前記検出されたポインティング動作に基づいて前記ターゲット領域の前記所定の半径が変化する一連のイテレーションを行う工程と、
前記ポインティング動作が前記ターゲット領域の前記所定の半径以内にある場合、前記所定の半径を縮小する工程と、
前記対象者による前記ポインティング動作が前記所定の半径外にある場合、前記所定の半径を拡大する工程と、
前記所定の半径を、一定の割合及び前記対象者の前記ポインティング動作の動きの速度に比例する割合で、縮小及び拡大する工程と、
を備えるコンピュータープログラム。 - 前記処理は、
ユーザーの前記ポインティング動作の動きが前記所定の半径以内と検出され、前記所定の半径の前記中心点に相対した前記ポインティング動作の変化が検出された場合、前記所定の半径の前記中心点を移動させる工程を備えることを特徴とする請求項11〜13の何れか一項に記載のコンピュータープログラム。 - 前記処理は、
前記ターゲット領域内でターゲットを選択する工程を備え、
前記ターゲットを選択する工程は、
前記所定の半径以内に一以上のターゲットがあるか判定する工程と、
少なくとも一のターゲットがある場合、ターゲット数が1であるか1を超えるか判定し、前記ターゲット数が1の場合、ターゲットを選択し、前記ターゲット数が1を超える場合、ターゲットが一つになるまで前記所定の半径を縮小して前記所定の半径以内の前記ターゲット数を減らす工程と、
を備えることを特徴とする請求項11〜13の何れか一項に記載のコンピュータープログラム。 - ユーザーインターフェースを用いたリアルタイムインタラクションのためにジェスチャーを認識する方法であって、
対象者の三次元(3D)データを取り込む工程と、
前記3Dデータから、前記対象者によるポインティング動作を検出して、ポインティングオペレーションを開始する工程と、
前記ポインティング動作の実画面上の交点を決定する工程と、
前記実画面上の算出された点を中心とする所定の半径以内に一以上のターゲットがあるか判定する工程と、
少なくとも一のターゲットがある場合、ターゲット数が1であるか1を超えるか判定し、前記ターゲット数が1の場合、ターゲットを選択し、前記ターゲット数が1を超える場合、ターゲットが一つになるまで前記所定の半径を縮小して前記所定の半径以内の前記ターゲット数を減らす工程と、
前記対象者による前記ポインティング動作が前記所定の半径外にある場合、前記所定の半径を拡大する工程と、
前記拡大した所定の半径以内のターゲットを含めるように前記所定の半径以内の前記ターゲット数を更新する工程と、
前記所定の半径以内でターゲットが一つだけ特定されるまで、前記拡大した所定の半径を縮小し、前記所定の半径を拡大する工程と、
を備える方法。 - 前記対象者による前記ポインティング動作の仮想画面上の前記交点が変化した場合、前記所定の半径の中心を移動させる工程と、
前記所定の半径外のターゲットを除き、前記所定の半径以内のターゲットを含めることで、前記所定の半径以内の前記ターゲット数を更新する工程と、
を備える請求項16に記載の方法。 - 動き及び深度センサーを用いて前記3Dデータを取り込む工程を備え、
前記実画面は投影画面又はビデオ画面であることを特徴とする請求項16に記載の方法。 - 前記実画面は複数の選択インジケーターであり、
前記複数の選択インジケーターは各々消費財に対応することを特徴とする請求項18に記載の方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/840,596 | 2015-08-31 | ||
US14/840,596 US9703387B2 (en) | 2015-08-31 | 2015-08-31 | System and method of real-time interactive operation of user interface |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017084335A JP2017084335A (ja) | 2017-05-18 |
JP6771996B2 true JP6771996B2 (ja) | 2020-10-21 |
Family
ID=56321802
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016160941A Active JP6771996B2 (ja) | 2015-08-31 | 2016-08-19 | ユーザーインターフェースのリアルタイムインタラクティブ操作のためのシステム及び方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US9703387B2 (ja) |
EP (1) | EP3136203B1 (ja) |
JP (1) | JP6771996B2 (ja) |
CN (1) | CN106484098B (ja) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102034021B1 (ko) * | 2015-08-10 | 2019-10-18 | 한국전자통신연구원 | 헬스케어 유닛 기반 시뮬레이터 및 이를 이용한 시뮬레이션 방법 |
CN108353485B (zh) * | 2015-10-22 | 2020-06-09 | 飞利浦照明控股有限公司 | 为了成本减小而优化的照明系统 |
EP3324204B1 (en) * | 2016-11-21 | 2020-12-23 | HTC Corporation | Body posture detection system, suit and method |
CN107273869B (zh) * | 2017-06-29 | 2020-04-24 | 联想(北京)有限公司 | 手势识别控制方法和电子设备 |
US10930075B2 (en) * | 2017-10-16 | 2021-02-23 | Microsoft Technology Licensing, Llc | User interface discovery and interaction for three-dimensional virtual environments |
CN108711086A (zh) * | 2018-05-09 | 2018-10-26 | 连云港伍江数码科技有限公司 | 储物装置中人机交互方法、装置、储物装置以及存储介质 |
US11532094B2 (en) * | 2018-12-05 | 2022-12-20 | Qualcomm Technologies, Inc. | Systems and methods for three-dimensional pose determination |
JP6840365B2 (ja) * | 2019-02-05 | 2021-03-10 | ソフトバンク株式会社 | システム、サーバ装置及びプログラム |
CN117521044A (zh) * | 2022-07-27 | 2024-02-06 | 腾讯科技(深圳)有限公司 | 生物认证方法、装置、计算机设备和存储介质 |
Family Cites Families (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6147678A (en) * | 1998-12-09 | 2000-11-14 | Lucent Technologies Inc. | Video hand image-three-dimensional computer interface with multiple degrees of freedom |
US7821503B2 (en) * | 2003-04-09 | 2010-10-26 | Tegic Communications, Inc. | Touch screen and graphical user interface |
JP2001222375A (ja) * | 2000-02-08 | 2001-08-17 | Seiko Epson Corp | 指示位置検出システムおよび方法、プレゼンテーションシステム並びに情報記憶媒体 |
US20040151218A1 (en) * | 2002-12-23 | 2004-08-05 | Vlad Branzoi | Systems and methods for tremor cancellation in pointers |
JP3809424B2 (ja) * | 2003-03-17 | 2006-08-16 | 株式会社クレオ | 選択領域制御装置、選択領域制御方法及び選択領域制御プログラム |
US9032336B2 (en) | 2006-09-07 | 2015-05-12 | Osaka Electro-Communication University | Gesture input system, method and program |
US8933876B2 (en) | 2010-12-13 | 2015-01-13 | Apple Inc. | Three dimensional user interface session control |
JP4318056B1 (ja) * | 2008-06-03 | 2009-08-19 | 島根県 | 画像認識装置および操作判定方法 |
US8527908B2 (en) | 2008-09-26 | 2013-09-03 | Apple Inc. | Computer user interface system and methods |
JP5293570B2 (ja) * | 2009-11-16 | 2013-09-18 | 富士通株式会社 | 表示装置、表示プログラム及び表示方法 |
US8351651B2 (en) * | 2010-04-26 | 2013-01-08 | Microsoft Corporation | Hand-location post-process refinement in a tracking system |
WO2012107892A2 (en) * | 2011-02-09 | 2012-08-16 | Primesense Ltd. | Gaze detection in a 3d mapping environment |
JP6074170B2 (ja) * | 2011-06-23 | 2017-02-01 | インテル・コーポレーション | 近距離動作のトラッキングのシステムおよび方法 |
US8971572B1 (en) * | 2011-08-12 | 2015-03-03 | The Research Foundation For The State University Of New York | Hand pointing estimation for human computer interaction |
US9030498B2 (en) | 2011-08-15 | 2015-05-12 | Apple Inc. | Combining explicit select gestures and timeclick in a non-tactile three dimensional user interface |
KR101868903B1 (ko) * | 2012-01-11 | 2018-06-20 | 한국전자통신연구원 | 손 추적 장치 및 방법 |
US9052819B2 (en) | 2012-01-25 | 2015-06-09 | Honeywell International Inc. | Intelligent gesture-based user's instantaneous interaction and task requirements recognition system and method |
KR20130133319A (ko) | 2012-05-23 | 2013-12-09 | 삼성전자주식회사 | 3d그래픽 사용자 인터페이스 제작 장치 및 방법 |
CN110442231A (zh) | 2013-06-27 | 2019-11-12 | 视力移动科技公司 | 用于与数字设备交互的直接指向检测的系统和方法 |
TW201510771A (zh) * | 2013-09-05 | 2015-03-16 | Utechzone Co Ltd | 指向位置偵測裝置及其方法、程式及電腦可讀取紀錄媒體 |
JP5877824B2 (ja) * | 2013-09-20 | 2016-03-08 | ヤフー株式会社 | 情報処理システム、情報処理方法および情報処理プログラム |
US10140637B2 (en) | 2013-11-26 | 2018-11-27 | Paypal, Inc. | Customer selection determination system |
-
2015
- 2015-08-31 US US14/840,596 patent/US9703387B2/en active Active
-
2016
- 2016-06-30 EP EP16177179.5A patent/EP3136203B1/en active Active
- 2016-08-19 JP JP2016160941A patent/JP6771996B2/ja active Active
- 2016-08-26 CN CN201610737363.2A patent/CN106484098B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN106484098A (zh) | 2017-03-08 |
EP3136203A1 (en) | 2017-03-01 |
JP2017084335A (ja) | 2017-05-18 |
US9703387B2 (en) | 2017-07-11 |
US20170060250A1 (en) | 2017-03-02 |
EP3136203B1 (en) | 2020-06-17 |
CN106484098B (zh) | 2019-09-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6771996B2 (ja) | ユーザーインターフェースのリアルタイムインタラクティブ操作のためのシステム及び方法 | |
US9430698B2 (en) | Information input apparatus, information input method, and computer program | |
US8879787B2 (en) | Information processing device and information processing method | |
KR102110811B1 (ko) | Hci 시스템 및 방법 | |
CN104254817B (zh) | 快速手势重新约定 | |
JP2017529635A5 (ja) | ||
KR101302638B1 (ko) | 머리의 제스처 및 손의 제스처를 감지하여 컨텐츠를 제어하기 위한 방법, 단말 장치 및 컴퓨터 판독 가능한 기록 매체 | |
JP4323180B2 (ja) | 自己画像表示を用いたインタフェース方法、装置、およびプログラム | |
US20140139429A1 (en) | System and method for computer vision based hand gesture identification | |
US10713770B2 (en) | Analysis apparatus and analysis method | |
JP2015194478A (ja) | 情報処理装置、情報処理方法、プログラム | |
US9836130B2 (en) | Operation input device, operation input method, and program | |
JP2014165660A (ja) | バーチャルキーボードの入力方法、プログラム、記憶媒体、及びバーチャルキーボードシステム | |
KR100692526B1 (ko) | 시스템 자동제어용 제스처 인식 장치 및 그 방법 | |
JP2015176253A (ja) | ジェスチャ認識装置およびジェスチャ認識装置の制御方法 | |
CN104850219A (zh) | 估计附着物体的人体姿势的设备和方法 | |
US9710708B1 (en) | Method and apparatus for autonomously recognizing at least one object in an image | |
KR20150133585A (ko) | 3차원 영상의 단면 탐색 시스템 및 방법 | |
KR101396488B1 (ko) | 신호 입력 장치 및 신호 입력 방법 | |
WO2020145224A1 (ja) | 映像処理装置、映像処理方法、及び映像処理プログラム | |
US20210327160A1 (en) | Authoring device, authoring method, and storage medium storing authoring program | |
KR101100240B1 (ko) | 멀티모달 상호작용을 이용한 로봇의 물체 학습 시스템 및 방법 | |
Kondori et al. | Direct hand pose estimation for immersive gestural interaction | |
KR101447958B1 (ko) | 신체 부분 검출 방법 및 장치 | |
US20090110237A1 (en) | Method for positioning a non-structural object in a series of continuing images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190326 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200529 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200616 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200824 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200908 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200930 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6771996 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |