JP6771996B2 - ユーザーインターフェースのリアルタイムインタラクティブ操作のためのシステム及び方法 - Google Patents

ユーザーインターフェースのリアルタイムインタラクティブ操作のためのシステム及び方法 Download PDF

Info

Publication number
JP6771996B2
JP6771996B2 JP2016160941A JP2016160941A JP6771996B2 JP 6771996 B2 JP6771996 B2 JP 6771996B2 JP 2016160941 A JP2016160941 A JP 2016160941A JP 2016160941 A JP2016160941 A JP 2016160941A JP 6771996 B2 JP6771996 B2 JP 6771996B2
Authority
JP
Japan
Prior art keywords
predetermined radius
pointing
target
motion
targets
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016160941A
Other languages
English (en)
Other versions
JP2017084335A (ja
Inventor
ナンディタ エム. ナヤック,
ナンディタ エム. ナヤック,
ガッセム トフィギ,
ガッセム トフィギ,
ハイソン グ,
ハイソン グ,
Original Assignee
コニカ ミノルタ ラボラトリー ユー.エス.エー.,インコーポレイテッド
コニカ ミノルタ ラボラトリー ユー.エス.エー.,インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by コニカ ミノルタ ラボラトリー ユー.エス.エー.,インコーポレイテッド, コニカ ミノルタ ラボラトリー ユー.エス.エー.,インコーポレイテッド filed Critical コニカ ミノルタ ラボラトリー ユー.エス.エー.,インコーポレイテッド
Publication of JP2017084335A publication Critical patent/JP2017084335A/ja
Application granted granted Critical
Publication of JP6771996B2 publication Critical patent/JP6771996B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)
  • Position Input By Displaying (AREA)

Description

本開示は、ユーザーインターフェースのリアルタイムインタラクティブ操作のためのシステム及び方法に関し、特に、ポインティング操作を認識し、ユーザーの画面に対する位置を確認し、フィードバックとして用いられるユーザーの手の位置を追跡して、ユーザーがポインティングしている画面上の位置又はターゲットを正確に特定するシステム及び方法に関する。
ジェスチャーベースのユーザーインタフェースを離れた場所から操作することは、骨の折れるタスクである。例えば、ユーザーは、視差により、画面上のポインティングしたい位置やターゲットを正確にポインティング出来ないことがよくある。また、既存のシステム側も、ポインティングを正確に認識することに関して、技術的限界がある。
現状、例えば、ユーザーが約3mよりも離れた場所からジェスチャーを用いてユーザーインターフェースを操作することを可能とし、ユーザーからのフィードバックをインタラクティブに取得してポインティングの正確性を高め、ターゲット位置候補を用いてユーザーを素早く正確なポインティングへと導くシステムは、ほぼない。
上記問題点に鑑みて、ポインティング操作を認識し、ユーザーの画面に対する位置を確認し、フィードバックとして用いられるユーザーの手の位置を追跡して、ユーザーがポインティングしている画面上の位置又はターゲットを正確に特定するシステム及び方法が望まれている。
一例示的実施形態によれば、ユーザーインターフェースを用いたリアルタイムインタラクションのためにジェスチャーを認識する方法であって、対象者の三次元(3D)データを取り込む工程と、前記3Dデータから、前記対象者によるポインティング動作を検出する工程と、前記ポインティング動作から、中心点を中心とする所定の半径を有するターゲット領域の初期推定値を算出する工程と、前記対象者の前記ポインティング動作を追跡し、前記検出されたポインティング動作に基づいて前記ターゲット領域の前記所定の半径が変化する一連のイテレーションを行う工程と、前記ポインティング動作が前記ターゲット領域の前記所定の半径以内にある場合、前記所定の半径を縮小する工程と、前記対象者による前記ポインティング動作が前記所定の半径外にある場合、前記所定の半径を拡大する工程と、を備える方法が開示される。
また、一例示的実施形態によれば、ユーザーインターフェースを用いたリアルタイムインタラクションのためにジェスチャーを認識する方法であって、対象者の三次元(3D)データを取り込む工程と、前記3Dデータから、前記対象者によるポインティング動作を検出する工程と、前記ポインティング動作から、中心点を中心とする所定の半径を有するターゲット領域の初期推定値を算出する工程と、前記対象者の前記ポインティング動作を追跡し、前記検出されたポインティング動作に基づいて前記ターゲット領域の前記所定の半径が変化する一連のイテレーションを行う工程と、前記所定の半径を、一定の割合及び前記対象者の前記ポインティング動作の動きの速度に比例する割合で、縮小及び拡大する工程と、を備える方法が開示される。
また、一例示的実施形態によれば、ユーザーインターフェースを用いたリアルタイムインタラクションのためにジェスチャーを認識する方法であって、対象者の三次元(3D)データを取り込む工程と、前記3Dデータから、前記対象者によるポインティング動作を検出する工程と、前記ポインティング動作から、中心点を中心とする所定の半径を有するターゲット領域の初期推定値を算出する工程と、前記対象者の前記ポインティング動作を追跡し、前記検出されたポインティング動作に基づいて前記ターゲット領域の前記所定の半径が変化する一連のイテレーションを行う工程と、前記ポインティング動作が前記ターゲット領域の前記所定の半径以内にある場合、前記所定の半径を縮小する工程と、前記対象者による前記ポインティング動作が前記所定の半径外にある場合、前記所定の半径を拡大する工程と、前記所定の半径を、一定の割合及び前記対象者の前記ポインティング動作の動きの速度に比例する割合で、縮小及び拡大する工程と、を備える方法が開示される。
一例示的実施形態によれば、ユーザーインターフェースを用いたリアルタイムインタラクションのためにジェスチャーを認識するシステムであって、対象者の三次元(3D)データを取り込むための動き及び深度センサーと、対象者の三次元(3D)データを取り込み、前記3Dデータから、前記対象者によるポインティング動作を検出し、前記ポインティング動作から、中心点を中心とする所定の半径を有するターゲット領域の初期推定値を算出し、前記対象者の前記ポインティング動作を追跡し、前記検出されたポインティング動作に基づいて前記ターゲット領域の前記所定の半径が変化する一連のイテレーションを行うように構成されたプロセッサーと、を備え、前記プロセッサーは、前記ポインティング動作が前記ターゲット領域の前記所定の半径以内にある場合、前記所定の半径を縮小し、前記対象者による前記ポインティング動作が前記所定の半径外にある場合、前記所定の半径を拡大するように構成されていることを特徴とするシステムが開示される。
また、一例示的実施形態によれば、ユーザーインターフェースを用いたリアルタイムインタラクションのためにジェスチャーを認識するシステムであって、対象者の三次元(3D)データを取り込むための動き及び深度センサーと、対象者の三次元(3D)データを取り込み、前記3Dデータから、前記対象者によるポインティング動作を検出し、前記ポインティング動作から、中心点を中心とする所定の半径を有するターゲット領域の初期推定値を算出し、前記対象者の前記ポインティング動作を追跡し、前記検出されたポインティング動作に基づいて前記ターゲット領域の前記所定の半径が変化する一連のイテレーションを行うように構成されたプロセッサーと、を備え、前記プロセッサーは、前記所定の半径を、一定の割合及び前記対象者の前記ポインティング動作の動きの速度に比例する割合で、縮小及び拡大するように構成されていることを特徴とするシステムが開示される。
また、一例示的実施形態によれば、ユーザーインターフェースを用いたリアルタイムインタラクションのためにジェスチャーを認識するシステムであって、対象者の三次元(3D)データを取り込むための動き及び深度センサーと、対象者の三次元(3D)データを取り込み、前記3Dデータから、前記対象者によるポインティング動作を検出し、前記ポインティング動作から、中心点を中心とする所定の半径を有するターゲット領域の初期推定値を算出し、前記対象者の前記ポインティング動作を追跡し、前記検出されたポインティング動作に基づいて前記ターゲット領域の前記所定の半径が変化する一連のイテレーションを行うように構成されたプロセッサーと、を備え、前記プロセッサーは、前記ポインティング動作が前記ターゲット領域の前記所定の半径以内にある場合、前記所定の半径を縮小し、前記対象者による前記ポインティング動作が前記所定の半径外にある場合、前記所定の半径を拡大し、前記所定の半径を、一定の割合及び前記対象者の前記ポインティング動作の動きの速度に比例する割合で、縮小及び拡大するように構成されていることを特徴とするシステムが開示される。
一例示的実施形態によれば、ユーザーインターフェースを用いたリアルタイムインタラクションのためにジェスチャーを認識するためのコンピューター読取可能コードを有し、コンピューターによって実行されることで当該コンピューターに処理を行わせるコンピュータープログラムであって、前記処理は、対象者の三次元(3D)データを取り込む工程と、前記3Dデータから、前記対象者によるポインティング動作を検出する工程と、前記ポインティング動作から、中心点を中心とする所定の半径を有するターゲット領域の初期推定値を算出する工程と、前記対象者の前記ポインティング動作を追跡し、前記検出されたポインティング動作に基づいて前記ターゲット領域の前記所定の半径が変化する一連のイテレーションを行う工程と、前記ポインティング動作が前記ターゲット領域の前記所定の半径以内にある場合、前記所定の半径を縮小する工程と、前記対象者による前記ポインティング動作が前記所定の半径外にある場合、前記所定の半径を拡大する工程と、を備えるコンピュータープログラムが開示される。
また、一例示的実施形態によれば、ユーザーインターフェースを用いたリアルタイムインタラクションのためにジェスチャーを認識するためのコンピューター読取可能コードを有し、コンピューターによって実行されることで当該コンピューターに処理を行わせるコンピュータープログラムであって、前記処理は、対象者の三次元(3D)データを取り込む工程と、前記3Dデータから、前記対象者によるポインティング動作を検出する工程と、前記ポインティング動作から、中心点を中心とする所定の半径を有するターゲット領域の初期推定値を算出する工程と、前記対象者の前記ポインティング動作を追跡し、前記検出されたポインティング動作に基づいて前記ターゲット領域の前記所定の半径が変化する一連のイテレーションを行う工程と、前記所定の半径を、一定の割合及び前記対象者の前記ポインティング動作の動きの速度に比例する割合で、縮小及び拡大する工程と、を備えるコンピュータープログラムが開示される。
また、一例示的実施形態によれば、ユーザーインターフェースを用いたリアルタイムインタラクションのためにジェスチャーを認識するためのコンピューター読取可能コードを有し、コンピューターによって実行されることで当該コンピューターに処理を行わせるコンピュータープログラムであって、前記処理は、対象者の三次元(3D)データを取り込む工程と、前記3Dデータから、前記対象者によるポインティング動作を検出する工程と、前記ポインティング動作から、中心点を中心とする所定の半径を有するターゲット領域の初期推定値を算出する工程と、前記対象者の前記ポインティング動作を追跡し、前記検出されたポインティング動作に基づいて前記ターゲット領域の前記所定の半径が変化する一連のイテレーションを行う工程と、前記ポインティング動作が前記ターゲット領域の前記所定の半径以内にある場合、前記所定の半径を縮小する工程と、前記対象者による前記ポインティング動作が前記所定の半径外にある場合、前記所定の半径を拡大する工程と、前記所定の半径を、一定の割合及び前記対象者の前記ポインティング動作の動きの速度に比例する割合で、縮小及び拡大する工程と、を備えるコンピュータープログラムが開示される。
一例示的実施形態によれば、ユーザーインターフェースを用いたリアルタイムインタラクションのためにジェスチャーを認識する方法であって、対象者の三次元(3D)データを取り込む工程と、前記3Dデータから、前記対象者によるポインティング動作を検出して、ポインティングオペレーションを開始する工程と、前記ポインティング動作の実画面上の交点を決定する工程と、前記実画面上の算出された点を中心とする所定の半径以内に一以上のターゲットがあるか判定する工程と、少なくとも一のターゲットがある場合、ターゲット数が1であるか1を超えるか判定し、前記ターゲット数が1の場合、ターゲットを選択し、前記ターゲット数が1を超える場合、ターゲットが一つになるまで前記所定の半径を縮小して前記所定の半径以内の前記ターゲット数を減らす工程と、前記対象者による前記ポインティング動作が前記所定の半径外にある場合、前記所定の半径を拡大する工程と、前記拡大した所定の半径以内のターゲットを含めるように前記所定の半径以内の前記ターゲット数を更新する工程と、前記所定の半径以内でターゲットが一つだけ特定されるまで、前記拡大した所定の半径を縮小し、前記所定の半径を拡大する工程と、を備える方法が開示される。
上記の概略的な説明と下記の詳細な説明は共に例示的かつ解説的なものであり、特許請求の範囲で請求される本発明の更なる説明を提供することを意図していると理解すべきである。
一例示的実施形態に係るユーザーインターフェースのリアルタイムインタラクティブ操作のためのシナリオを示す図である。 一例示的実施形態に係る集会シナリオのための例示的ユーザーインターフェースシステムの概観を示す図である。 一例示的実施形態に係る特徴を導き出すために用いられる関節の三次元(3D)位置を示す。 一例示的実施形態に係るジェスチャーを認識するためにシステムで用いられる特徴を示す。 一例示的実施形態に係る一連のフレームを異なるジェスチャーに分割した例を示し、当該異なるジェスチャーは、異なる色及び/又は背景で表示されている。 一例示的実施形態に係る仮想画面マッピングを用いて得られる画面上のポインティング位置の推定値の例を示す。 一例示的実施形態に係るインタラクティブターゲット選択のフローチャートである。 一例示的実施形態に係る実物体を用いたインタラクティブターゲット選択の一段階を示す。 一例示的実施形態に係る実物体を用いたインタラクティブターゲット選択の一段階を示す。 一例示的実施形態に係る実物体を用いたインタラクティブターゲット選択の一段階を示す。
本発明の好ましい実施形態の詳細を記す。また、本発明の例を添付の図面に示す。可能な限り、図面と明細書で同じ参照符号を用いて、同じ又は同様の部分を参照する。
会議100等の複数人による情報共有を伴うアプリケーションにおいて、又、大型画面/モニター122等のユーザーインターフェース120のジェスチャーベース操作において、例えば3mを超える距離150からのユーザー100による操作が可能であれば、非常に有用であり、使い勝手もよい。その例示的シナリオの図を、図1に示す。画面/モニター122上のターゲット位置候補を用いて検索を行い、ユーザー110からリアルタイムのジェスチャーベースのフィードバックを取得してオブジェクトの位置を特定することは、上記難題の克服に有用である。また、画面122に対するユーザー110の距離や角度をマッピングすることで、図200に示すような異なる位置に立つ複数のユーザー112、114、116によるユーザーインターフェース(UI)120の操作が可能となる。
図1に示すように、会議(又は会議室)100は、ユーザーインターフェース120を備える。ユーザーインターフェース120は、例えば、壁や画面に投影像を表示するための投影(言い換えれば、実画面)、テレビ画面、タッチスクリーン、ビデオモニター、及び/又は、ビデオ画面122である。また、会議/会議室100は、例えば、一以上のデータ入力装置130を備える。データ入力装置130は、動き及び/又は深度センサーカメラ132を備える。動き及び/又は深度センサーカメラ132は、例えば、深度又は距離測定機能を備えた、R(赤)、G(緑)、B(青)の色空間を有するRGB−Dカメラである。これを用いて、カラー画像(RGB色空間)や、各画像における対象者/ユーザー110、112、114、116の深度又は距離を取得する。より好ましくは、動き及び/又は深度センサーカメラ132は、例えば、各画像における対象者/ユーザー110、112、114、116の深度及び/又は距離を取り込むことができる動き及び深度センサーカメラである。
一例示的実施形態によれば、一以上のデータ入力装置130は、各々、メモリー、プロセッサー、オペレーティング・システム、及び、ここに開示するモジュール210、220、230、240、250(図2)の処理又はアルゴリズムを実行するための一以上のソフトウェエアアプリケーションを備える。
また、一例示的実施形態によれば、会議室は、メモリー、プロセッサー、オペレーティング・システム、及び、ここに開示するモジュール210、220、230、240、250(図2)の処理又はアルゴリズムを実行するための一以上のソフトウェエアアプリケーションを有するコンピューター/処理装置140を備える。コンピューター/処理装置140は、ディスプレイ/グラフィカルユーザーインタフェース(GUI)142を備える。ディスプレイ142は、スタンドアローンコンピューターの一部であっても、一以上のコンピューター/処理装置内に含まれていてもよい。
一例示的実施形態によれば、一以上のデータ入力装置130は、LAN(ローカルエリアネットワーク)、WAN(広域ネットワーク)等のインターネット/ネットワーク接続、及び/又は、無線周波数(RF)、ブルートゥース(登録商標)、赤外線(IR)通信等を含む無線技術を介して、コンピューター/処理装置140に接続される。
図2は、会議/集会シナリオにおけるユーザーインターフェースの操作に適用されるシステム200の絵画図である。集会は、例えば、複数の参加者110、112、114、116によって構成され、その中の誰かが操作者110となり、その他が受動的参加者となる。一例示的実施形態によれば、インタラクティブユーザーインターフェース120は、特徴抽出モジュール210、操作者特定モジュール220、ジェスチャー分割及び認識モジュール230、ターゲット領域マッピング及び推定モジュール240、及び、インタラクションモジュール250を備える。インタラクションモジュール250は、手追跡を行い、ユーザーの手の動きに基づいて、選択された領域を縮小することができる。
一例示的実施形態によれば、リアルタイム骨格抽出機能を有するコスト効果の高い深度センサーの導入により、人間のジェスチャーを認識することに関心が寄せられるようになってきた。一例示的実施形態によれば、例えば、動き及び深度センサー132からの骨格データのストリームを入力として用いる。一例示的実施形態によれば、動き及び深度センサー132を、例えば、図1に示すように、全てのユーザー110、112、114、116が視界に入る位置に設置する。
図3は、一例示的実施形態に係る特徴を導き出すために用いられる骨格関節300とこれに対応する三次元(3D)位置を示す図である。図3に示すように、人間の骨格システムの主な関節、例えば、16の関節の3D位置を、深度カメラ及び動きセンサー132を用いて検出することが好ましい。しかし、一例示的実施形態によれば、全てが必須な訳ではなく、16未満の関節を用いてもよい。例えば、一例示的実施形態によれば、左右の臀部と、その上の、例えば、上部胴体と頭の関節のみを用いてもよい。一例示的実施形態によれば、脚の関節は、手のジェスチャーを認識するためには余分と考えられている。
<特徴抽出モジュール>
一例示的実施形態によれば、特徴抽出モジュール210は、ユーザー状態検出、操作者特定、動作分割、及び、動作認識のため、骨格データ300に基づいて、図4に示すような特徴400を抽出する。T枚のフレームと、各フレーム内にN個の関節と、を有する動作ビデオは、3D点のシーケンスのセットとして、次のように記述される。
Figure 0006771996
一例示的実施形態によれば、一例示的システムでは、N=15であり、Tはシーケンスによって変化する。特徴抽出の第1の工程は、各フレームについて基本的特徴を算出することである。基本的特徴は、各フレームにおける各関節の姿勢、速度及び動きの情報を表す。
姿勢の特徴410は、フレームtにおける関節nと他の各関節との相対的位置を表し、次のように記述される。
Figure 0006771996
したがって、N個の関節各々について、各フレームに(N−1)の寸法要素(減算結果)を有するT長のシーケンスが存在する。一例示的実施形態によれば、姿勢の特徴410は、各フレームにおける身体の姿勢を表している。
速度の特徴420は、フレームtにおける関節nとその前のフレーム(t−k)における各関節との相対的位置を表す。kは、速度推定ステップサイズのパラメーターである。このパラメーターは、記録された動作ビデオのフレームレートに依存し、フレーム(t−k)とフレームtの最小間隔であって、関節nがその期間に有意な活動度を有する場合に、その明らかな動きを示す。したがって、速度の特徴は次のように記述される。
Figure 0006771996
名称が暗示するように、速度の特徴420は、各フレームにおける身体の動きの速さを示す情報を提供する。
動きの特徴430は、フレームtにおける関節nと1枚目のフレームにおける各関節との相対的位置を表し、次のように記述される。
Figure 0006771996
良好に分割又は整列された動作ビデオであれば、開始フレームは常に最初は静止状態のはずである。動きの特徴430は、初期状態と比較しての各フレームにおける身体の動きを表している。図4は、上記三つの基本的特徴を示す。基本的特徴は、姿勢の特徴410、速度の特徴420、及び、動きの特徴430を含む。
一例示的実施形態によれば、特徴410、420、430を球面座標に変換することで、特徴410、420、430の同心球ビン表現を算出することができる。最終的な記述子は、これらの特徴のHOG(Histogram of Oriented Gradients)である。
<ユーザー状態検出及び操作者特定モジュール>
複数の人110、112、114、116がカメラ132の視界に入るシナリオにおいては、多くて一人が操作者であり、その他の人は受動的参加者である。ユーザー状態検出及び操作者特定モジュール220は、参加者の状態をアクティブ/アイドルとして特定する。モジュール220は、骨格情報及び抽出した特徴を用いて、立位の人を特定する。例えば、一例示的実施形態によれば、手を挙げた人が操作者と見なされる。動作分割及び認識モジュールで定義される処理と同じ処理を用いて、手を挙げるジェスチャーを認識する。特定された(ID)人は、操作者110として表示され、その他の人は、手を挙げるまで、受動的参加者112、114、116と見なされる。
<動作分割及び認識モジュール>
一例示的実施形態によれば、長時間に亘り連続的な動作が行われているシステムにおいては、意味のある異なる動作を特定(又は分割)し、無意味な動作を無視し、各意味のある動作について要求されたタスクを実行する必要がある。一例示的実施形態によれば、これらのタスクは、動作分割及び認識モジュール(又はジェスチャー分割及び認識モジュール)230によって行われる。図5は、異なるジェスチャーに分割された一連のフレーム500を示す図であり、当該異なるジェスチャーは、異なる色(又は背景)で表示されている。
動作分割は、次の三つの工程からなる。第1の工程は、Maximum Mean Discrepancy(MMD)基準を適用して、連続的なジェスチャーの間に変化する点を、ジェスチャーの変わり目の初期推定切れ目として検出すること、第2の工程は、運動学的拘束を用いて、初期推定切れ目を正確なジェスチャー変わり目位置に修正すること、そして、最後の第3の工程は、確率密度推定を用いて、二つの切れ目の間における手の動きを推定し、無意識の動きと無ジェスチャーのセグメントを取り除くことである。
分割が実行されると、意味のあるジェスチャーを認識することができる。一例示的実施形態によれば、数人の演者によって行われた同一の意味のあるジェスチャーのセットにより構成されるトレーニングセットを用いて、特徴を抽出し、サポートベクターマシン(SVM分類器)を訓練する。抽出されたセグメントからの特徴をSVMに供給して、動作を認識する。
<ポインティングに対する画面上の初期領域の推定>
図6は、ターゲット領域マッピング及び推定モジュール240を用いた、一例示的実施形態に係る仮想画面マッピング600による画面122上のポインティング位置の推定を示す。ポインティング動作検出後、ポインティングしている手(手首)とこれに対応する肩の三次元(3D)座標を用いて、骨格データから、ユーザーがポインティングしている位置の初期推定値を取得する。例えば、一例示的実施形態によれば、深度座標はミリメートル(mm)単位である。手の3D座標を、例えば、(X,Y,Z)とする。まず、画面又は仮想画面に対するカメラの深度オフセットを、肩と手の深度座標から減算する。
現在のフレームとその前のフレームにおける肩の点のユークリッド距離を、正確性の測定値として用いることができる。オクルージョンの場合、肩の点は不正確となり、前のフレームにおける位置に変換する必要が生じる。
一定のサイズの仮想画面610を、人の中心に、当該人に並行に、そして、当該人から腕の長さ分だけ離れた位置に、作成する。仮想画面610に、ポインティングライン620が投影される。
そして、仮想点612を拡大/縮小し、実投影画面/壁122に再配置して、ポインティングの実座標614を取得する。一例示的実施形態によれば、ポインティングの実座標614は、ターゲット616に対応する。
手(肩及び手首)の開始点を下付きのsとし、終了点を下付きのeとすると、ポインティングラインは、次のように表される。
Figure 0006771996
向きは変化しないものとして、画面に対するセンサーの深度を、骨格の深度座標から減算する。そして、理論画素座標を交点から算出する。
Figure 0006771996
ここで、WとHは、各々、画面の実際の幅と高さであり、xresとyresは、画面の空間解像度である。
<インタラクションモジュール>
ユーザーがポインティングしている位置の初期推定値算出後、インタラクションモジュール250は、ユーザーからリアルタイムのフィードバックを取得し、ユーザーがポインティングしたい正確な位置を取得する。
初期推定値に基づいて、ユーザーのために、画面の当該初期推定値付近の部分を強調表示する。ユーザーは引き続き手を動かす。手追跡を行って、手の動きの方向を取得する。この動きに基づいて、画面上の強調表示された領域を連続的に修正する。各イテレーションにおいて、強調表示された領域は、動きの方向に基づいて、一定の率で拡大、縮小又は移動する。一例示的実施形態によれば、これは、ユーザー110が手を下げてキャンセル操作を合図するまで、又は、上記領域が一点に縮小するまで、すなわち、要求された位置に到達したことを示すまで、続く。
一例示的実施形態によれば、インタラクションモジュール250は、以下のように機能する。
システムがポインティングを認識して最初に推定した実画面上の点c(x,y)614について、cを中心とする、事前に設定(又は定義)された半径rを有する円を構築する。
Figure 0006771996
その人が、有意な動きをすることなくポインティングし続けた場合、円は、その中心に向って一定の割合で縮小する。
Figure 0006771996
その人が、特定の方向に手を動かした場合、システムは、その人の手が依然として円の中にあるのか、若しくは、既に円の外に出たのかを検出する。
手が円の中にある場合、円は縮小を止め、動きの方向dに、動きの速度vに比例する割合で移動する。
Figure 0006771996
手が円の外にある場合、円は動きの速度に比例する割合で拡大し、その中心は動きの速度に比例する割合で移動する。
Figure 0006771996
ここに開示するシステム及び方法は、例えば、ユーザーがポインティングを行っており、その手が小刻みに揺れたり動いたりする状況において、ポインティングしている点又は領域が小刻みに揺れたり連続的に動いたりすることを防ぐという効果を得ることができる。
多くのターゲットの中からターゲットを選択することを伴うタスクの場合、以下で説明するようなインタラクティブターゲット選択を行う。
<インタラクティブターゲット選択>
図7は、一例示的実施形態に係るインタラクティブターゲット選択700のフローチャートである。画面上の既知の数のターゲットから、ポインティングにより、ターゲットを一つ選択するシナリオにおいて、上記と同様のシステムを用いて、インタラクティブターゲット選択を行う。図7に示すように、ステップ710において、特徴抽出モジュール210と操作者特定モジュール220は、話者及び/又はユーザー110の検出、及び/又は、操作者の特定を行う。
ステップ720において、ジェスチャー認識モジュール230は、ポインティングジェスチャーを特定する。ステップ730、732において、仮想画面を作成し(730)、ポインティングラインと仮想画面の交点を求める(732)。ステップ740において、ポインティング方向と画面マッピングを用いて、画面上で初期ターゲットセットを特定する。ステップ750において、算出された点を中心とする一定の半径の円の中にある全てのターゲットを求める及び/又は特定する。ステップ760において、ターゲットが少なくとも一つあるか判定する。ステップ770において、ターゲット数が1であるか判定する。ステップ770においてターゲット数が1である場合、当該ターゲットを選択する。ステップ770においてターゲット数が1でない場合、処理をステップ774に進める。ステップ760においてターゲット数が0の場合、処理をステップ762に進め、ポインティングオペレーションをキャンセルする。
ステップ774において、ユーザー110が依然ポインティングしていると判定された場合、ステップ776において、アルゴリズムは、ポインティングしている手を引き続き追跡し、ステップ778において、手が依然円の中にあるか判定する。ステップ782において、手が有意な動きを示していない場合、円は一定のペースで連続的に縮小して、選択されたターゲットの数を減らす。手が指定された円の中で動く場合、円の中心が手の動きの方向に移動する。円の外に移動したターゲットを排除し、円の中のターゲットを含めるように、前記特定されたターゲットセットを更新する。手の位置が円の外である場合、ステップ780において、円は、当該手を収容するように拡大し始め、手の方向に移動し始める。現在の円の中の全てのターゲットを含めるように、ターゲットを更新する。拡大及び縮小処理は、ターゲットが一つだけになるまで(ステップ770)、又は、人が操作をキャンセルするまで(ステップ762)続く。一のターゲットを特定次第(すなわち、ターゲット数が1になり次第)、ステップ772において、当該ターゲットを選択する。処理(又はアルゴリズム)は、画面上のターゲットの既知の位置を利用して、ポインティング処理をスピードアップさせることができる。ステップ790において、ユーザーの手の動きがシステムへの入力となり、画面上で特定されたターゲットがユーザーにフィードバックを提供する。
一例示的実施形態によれば、例えば、線描や書込み等の他の操作について、システムは、ユーザーによって行われるタスクに関する知識を用いることで、処理の加速化及びシステムの正確性向上を図ることができる。例えば、人が幾何学的図形を線描している場合、カーソルは、ユーザーが強調表示された領域の中に線描しようとしている幾何学的図形に最も近い軌道をたどる。また、ユーザーが既知のスクリプトに書き込もうとしている場合、システムは、当該スクリプトを検出し、カーソルをインテリジェントに動かして、ユーザーが判読可能に書き込みをする手助けをする。
<実物体のためのインタラクティブターゲット選択>
一例示的実施形態によれば、既知の数の物体810の中から、ポインティングにより、実物体811を一つ選択するシナリオにおいて、ここに開示するようなシステムを用いて、インタラクティブターゲット選択800を行う。本シナリオでは、例えば、図8A〜図8Cに示すように、3D空間におけるポインティングに対する初期領域推定の処理と同様の処理を用いることができる。
上に開示したように、ジェスチャー分割及び認識モジュール230は、ポインティングジェスチャーを特定する。例えば、消費財812等の実物体810の初期セットを空間において特定し、操作者(又はユーザー)110は、フィードバックを受け取って、どの物体810が初期推定の中にあるのか把握する。物体が一つのみの場合、その物体810に対してポインティングを行うことにより、当該物体810を選択することができる。
複数の物体810が互いに近くにある場合、例えば、図8Aに示すように、初期推定は、初期推定点を中心とする仮想円820の中にある物体810のセットである。各物体は、選択の候補であるか否かを示すインジケーター814を備える。例えば、図8Aに示すように、最初に推定された円の中にある候補物体810のインジケーター814は、当該インジケーターが、例えば、赤色に変わることによって、選択できるようになる。システムのポインティング動作は、操作者110に、当該操作者のポインティング動作に基づく初期推定を提供する。
処理(又はアルゴリズム)は、ポインティングしている手を引き続き追跡し、選択された物体810のセットを修正する。例えば、操作者110の手が有意な動きを示していない場合、候補物体の数は一定のペースで連続的に減少する。手が指定された円の中で動く場合、円の中心が手の動きの方向に移動する。手の位置が円の外である場合、円は、当該手を収容するように拡大し始め、手の方向に移動し始める。一例示的実施形態によれば、例えば、現在の円の中の全ての物体810を含めて、そうでない物体を排除するように、物体インジケーター814を更新する。拡大及び縮小処理は、ターゲット(又は物体)が一つだけになるまで、又は、人が操作をキャンセルするまで、図8B及び図8Cに示すように続く。一の物体811(図8C)を特定次第、当該物体811を選択し、そのインジケーターが、操作者(又はユーザー)110に、最終的な選択についてフィードバックを与える。
図8Bは、仮想円820が手の動きに基づいて縮小する例を示す。一例示的実施形態によれば、例えば、操作者110が手を仮想円820の中でわずかに動かした場合、仮想円は縮小し、システムは、操作者110の手の動きを引き続き追跡する。インジケーター814は、システムによる検出と操作者のポインティング動作に基づいて、例えば、緑色に変わって、操作者110にフィードバックを与える。
図8Cに示すように、インジケーター814の色が、例えば、緑色に変わった後、操作者110が、例えば、その一の物体811をポインティングし続けると、システムは、操作者110は物体811の選択に満足していると判定する。この時、他のインジケーター812はオフとなり、選択された物体811のインジケーターは、例えば、緑色のままである。
一例示的実施形態によれば、例えば、多くの棚や商品を有する主流のスーパーマーケットでの買い物を、上記のようにして行うことができる。各商品は、選択インジケーターとしてLEDを有する。客が或る位置をポインティングすると、初期ポインティング推定を中心とする仮想円の中のLEDがオンになる。客の手を追跡し、選択された物体を更新する。一の商品を特定次第、その選択された商品(又は消費財)以外の全ての商品のインジケーターはオフとなり、その最終的な選択を客に示す。なお、インジケーターシステムは、各商品の位置にLEDを用いることに限定されるものではない。
一例示的実施形態によれば、ユーザーインターフェースを用いたリアルタイムインタラクションのためにジェスチャーを認識するためのコンピューター読取可能コードを有し、コンピューターによって実行されることで当該コンピューターに処理を行わせるコンピュータープログラムであって、前記処理は、対象者の三次元(3D)データを取り込む工程と、前記3Dデータから、前記対象者によるポインティング動作を検出する工程と、前記ポインティング動作から、中心点を中心とする所定の半径を有するターゲット領域の初期推定値を算出する工程と、前記対象者の前記ポインティング動作を追跡し、前記検出されたポインティング動作に基づいて前記ターゲット領域の前記所定の半径が変化する一連のイテレーションを行う工程と、を備えるコンピュータープログラムが開示される。
コンピュータープログラムは、コンピューター読取可能記憶媒体に格納される。コンピューター読取可能記憶媒体は、磁気記憶媒体、光磁気記憶媒体、又は、将来開発される如何なる記憶媒体であってもよく、これらは全て上記と同様に本発明に適用可能である。このような媒体の複製品、例えば、一次複製品や二次複製品等は、疑いもなく上記媒体の均等物である。また、本発明の実施形態がソフトウェアとハードウェアの組み合わせである場合も、本発明のコンセプトから逸脱するものでは全くない。本発明は、そのソフトウェア部分が事前に記憶媒体に書き込まれ、起動中に必要に応じて読み出されることで実施されてもよい。
当業者にとっては、本発明の範囲や趣旨から逸脱しない範囲で、本発明の構成に様々な改良や変更を行うことが可能であることは明らかであろう。上記に鑑みて、本発明は、以下の特許請求の範囲やその均等物の範囲内となる改良や変更を包含するものである。
添付の図面は、本発明の更なる理解を提供するために含まれ、本明細書に組み込まれて当該明細書の一部を構成する。図面は本発明の実施形態を図示し、本明細書と共に、本発明の原理を説明することに寄与する。

Claims (19)

  1. ユーザーインターフェースを用いたリアルタイムインタラクションのためにジェスチャーを認識する方法であって、
    対象者の三次元(3D)データを取り込む工程と、
    前記3Dデータから、前記対象者によるポインティング動作を検出する工程と、
    前記ポインティング動作から、中心点を中心とする所定の半径を有するターゲット領域の初期推定値を算出する工程と、
    前記対象者の前記ポインティング動作を追跡し、前記検出されたポインティング動作に基づいて前記ターゲット領域の前記所定の半径が変化する一連のイテレーションを行う工程と、
    前記ポインティング動作が前記ターゲット領域の前記所定の半径以内にある場合、前記所定の半径を縮小する工程と、
    前記対象者による前記ポインティング動作が前記所定の半径外にある場合、前記所定の半径を拡大する工程と、
    を備える方法。
  2. ユーザーインターフェースを用いたリアルタイムインタラクションのためにジェスチャーを認識する方法であって、
    対象者の三次元(3D)データを取り込む工程と、
    前記3Dデータから、前記対象者によるポインティング動作を検出する工程と、
    前記ポインティング動作から、中心点を中心とする所定の半径を有するターゲット領域の初期推定値を算出する工程と、
    前記対象者の前記ポインティング動作を追跡し、前記検出されたポインティング動作に基づいて前記ターゲット領域の前記所定の半径が変化する一連のイテレーションを行う工程と、
    前記所定の半径を、一定の割合及び前記対象者の前記ポインティング動作の動きの速度に比例する割合で、縮小及び拡大する工程と、
    を備える方法。
  3. ユーザーインターフェースを用いたリアルタイムインタラクションのためにジェスチャーを認識する方法であって、
    対象者の三次元(3D)データを取り込む工程と、
    前記3Dデータから、前記対象者によるポインティング動作を検出する工程と、
    前記ポインティング動作から、中心点を中心とする所定の半径を有するターゲット領域の初期推定値を算出する工程と、
    前記対象者の前記ポインティング動作を追跡し、前記検出されたポインティング動作に基づいて前記ターゲット領域の前記所定の半径が変化する一連のイテレーションを行う工程と、
    前記ポインティング動作が前記ターゲット領域の前記所定の半径以内にある場合、前記所定の半径を縮小する工程と、
    前記対象者による前記ポインティング動作が前記所定の半径外にある場合、前記所定の半径を拡大する工程と、
    前記所定の半径を、一定の割合及び前記対象者の前記ポインティング動作の動きの速度に比例する割合で、縮小及び拡大する工程と、
    を備える方法。
  4. ーザーの前記ポインティング動作の動きが前記所定の半径以内と検出され、前記所定の半径の前記中心点に相対した前記ポインティング動作の変化が検出された場合、前記所定の半径の前記中心点を移動させる工程を備える請求項1〜3の何れか一項に記載の方法。
  5. 前記ターゲット領域内でターゲットを選択する工程を備え、
    前記ターゲットを選択する工程は、
    前記所定の半径以内に一以上のターゲットがあるか判定する工程と、
    少なくとも一のターゲットがある場合、ターゲット数が1であるか1を超えるか判定し、前記ターゲット数が1の場合、ターゲットを選択し、前記ターゲット数が1を超える場合、ターゲットが一つになるまで前記所定の半径を縮小して前記所定の半径以内の前記ターゲット数を減らす工程と、
    を備える請求項1〜3の何れか一項に記載の方法。
  6. ユーザーインターフェースを用いたリアルタイムインタラクションのためにジェスチャーを認識するシステムであって、
    対象者の三次元(3D)データを取り込むための動き及び深度センサーと、
    対象者の三次元(3D)データを取り込み、
    前記3Dデータから、前記対象者によるポインティング動作を検出し、
    前記ポインティング動作から、中心点を中心とする所定の半径を有するターゲット領域の初期推定値を算出し、
    前記対象者の前記ポインティング動作を追跡し、前記検出されたポインティング動作に基づいて前記ターゲット領域の前記所定の半径が変化する一連のイテレーションを行うように構成されたプロセッサーと、
    を備え
    前記プロセッサーは、
    前記ポインティング動作が前記ターゲット領域の前記所定の半径以内にある場合、前記所定の半径を縮小し、
    前記対象者による前記ポインティング動作が前記所定の半径外にある場合、前記所定の半径を拡大するように構成されていることを特徴とするシステム。
  7. ユーザーインターフェースを用いたリアルタイムインタラクションのためにジェスチャーを認識するシステムであって、
    対象者の三次元(3D)データを取り込むための動き及び深度センサーと、
    対象者の三次元(3D)データを取り込み、
    前記3Dデータから、前記対象者によるポインティング動作を検出し、
    前記ポインティング動作から、中心点を中心とする所定の半径を有するターゲット領域の初期推定値を算出し、
    前記対象者の前記ポインティング動作を追跡し、前記検出されたポインティング動作に基づいて前記ターゲット領域の前記所定の半径が変化する一連のイテレーションを行うように構成されたプロセッサーと、
    を備え
    前記プロセッサーは、
    前記所定の半径を、一定の割合及び前記対象者の前記ポインティング動作の動きの速度に比例する割合で、縮小及び拡大するように構成されていることを特徴とするシステム。
  8. ユーザーインターフェースを用いたリアルタイムインタラクションのためにジェスチャーを認識するシステムであって、
    対象者の三次元(3D)データを取り込むための動き及び深度センサーと、
    対象者の三次元(3D)データを取り込み、
    前記3Dデータから、前記対象者によるポインティング動作を検出し、
    前記ポインティング動作から、中心点を中心とする所定の半径を有するターゲット領域の初期推定値を算出し、
    前記対象者の前記ポインティング動作を追跡し、前記検出されたポインティング動作に基づいて前記ターゲット領域の前記所定の半径が変化する一連のイテレーションを行うように構成されたプロセッサーと、
    を備え
    前記プロセッサーは、
    前記ポインティング動作が前記ターゲット領域の前記所定の半径以内にある場合、前記所定の半径を縮小し、
    前記対象者による前記ポインティング動作が前記所定の半径外にある場合、前記所定の半径を拡大し、
    前記所定の半径を、一定の割合及び前記対象者の前記ポインティング動作の動きの速度に比例する割合で、縮小及び拡大するように構成されていることを特徴とするシステム。
  9. 前記プロセッサーは、
    ーザーの前記ポインティング動作の動きが前記所定の半径以内と検出され、前記所定の半径の前記中心点に相対した前記ポインティング動作の変化が検出された場合、前記所定の半径の前記中心点を移動させるように構成されていることを特徴とする請求項6〜8の何れか一項に記載のシステム。
  10. 前記プロセッサーは、
    前記ターゲット領域内でターゲットを選択し、
    前記ターゲットを選択する際には、
    前記所定の半径以内に一以上のターゲットがあるか判定し、
    少なくとも一のターゲットがある場合、ターゲット数が1であるか1を超えるか判定し、前記ターゲット数が1の場合、ターゲットを選択し、前記ターゲット数が1を超える場合、ターゲットが一つになるまで前記所定の半径を縮小して前記所定の半径以内の前記ターゲット数を減らすように構成されていることを特徴とする請求項6〜8の何れか一項に記載のシステム。
  11. ユーザーインターフェースを用いたリアルタイムインタラクションのためにジェスチャーを認識するためのコンピューター読取可能コードを有し、コンピューターによって実行されることで当該コンピューターに処理を行わせるコンピュータープログラムであって、
    前記処理は、
    対象者の三次元(3D)データを取り込む工程と、
    前記3Dデータから、前記対象者によるポインティング動作を検出する工程と、
    前記ポインティング動作から、中心点を中心とする所定の半径を有するターゲット領域の初期推定値を算出する工程と、
    前記対象者の前記ポインティング動作を追跡し、前記検出されたポインティング動作に基づいて前記ターゲット領域の前記所定の半径が変化する一連のイテレーションを行う工程と、
    前記ポインティング動作が前記ターゲット領域の前記所定の半径以内にある場合、前記所定の半径を縮小する工程と、
    前記対象者による前記ポインティング動作が前記所定の半径外にある場合、前記所定の半径を拡大する工程と、
    を備えるコンピュータープログラム。
  12. ユーザーインターフェースを用いたリアルタイムインタラクションのためにジェスチャーを認識するためのコンピューター読取可能コードを有し、コンピューターによって実行されることで当該コンピューターに処理を行わせるコンピュータープログラムであって、
    前記処理は、
    対象者の三次元(3D)データを取り込む工程と、
    前記3Dデータから、前記対象者によるポインティング動作を検出する工程と、
    前記ポインティング動作から、中心点を中心とする所定の半径を有するターゲット領域の初期推定値を算出する工程と、
    前記対象者の前記ポインティング動作を追跡し、前記検出されたポインティング動作に基づいて前記ターゲット領域の前記所定の半径が変化する一連のイテレーションを行う工程と、
    前記所定の半径を、一定の割合及び前記対象者の前記ポインティング動作の動きの速度に比例する割合で、縮小及び拡大する工程と、
    を備えるコンピュータープログラム。
  13. ユーザーインターフェースを用いたリアルタイムインタラクションのためにジェスチャーを認識するためのコンピューター読取可能コードを有し、コンピューターによって実行されることで当該コンピューターに処理を行わせるコンピュータープログラムであって、
    前記処理は、
    対象者の三次元(3D)データを取り込む工程と、
    前記3Dデータから、前記対象者によるポインティング動作を検出する工程と、
    前記ポインティング動作から、中心点を中心とする所定の半径を有するターゲット領域の初期推定値を算出する工程と、
    前記対象者の前記ポインティング動作を追跡し、前記検出されたポインティング動作に基づいて前記ターゲット領域の前記所定の半径が変化する一連のイテレーションを行う工程と、
    前記ポインティング動作が前記ターゲット領域の前記所定の半径以内にある場合、前記所定の半径を縮小する工程と、
    前記対象者による前記ポインティング動作が前記所定の半径外にある場合、前記所定の半径を拡大する工程と、
    前記所定の半径を、一定の割合及び前記対象者の前記ポインティング動作の動きの速度に比例する割合で、縮小及び拡大する工程と、
    を備えるコンピュータープログラム。
  14. 前記処理は、
    ーザーの前記ポインティング動作の動きが前記所定の半径以内と検出され、前記所定の半径の前記中心点に相対した前記ポインティング動作の変化が検出された場合、前記所定の半径の前記中心点を移動させる工程を備えることを特徴とする請求項11〜13の何れか一項に記載のコンピュータープログラム。
  15. 前記処理は、
    前記ターゲット領域内でターゲットを選択する工程を備え、
    前記ターゲットを選択する工程は、
    前記所定の半径以内に一以上のターゲットがあるか判定する工程と、
    少なくとも一のターゲットがある場合、ターゲット数が1であるか1を超えるか判定し、前記ターゲット数が1の場合、ターゲットを選択し、前記ターゲット数が1を超える場合、ターゲットが一つになるまで前記所定の半径を縮小して前記所定の半径以内の前記ターゲット数を減らす工程と、
    を備えることを特徴とする請求項11〜13の何れか一項に記載のコンピュータープログラム。
  16. ユーザーインターフェースを用いたリアルタイムインタラクションのためにジェスチャーを認識する方法であって、
    対象者の三次元(3D)データを取り込む工程と、
    前記3Dデータから、前記対象者によるポインティング動作を検出して、ポインティングオペレーションを開始する工程と、
    前記ポインティング動作の実画面上の交点を決定する工程と、
    前記実画面上の算出された点を中心とする所定の半径以内に一以上のターゲットがあるか判定する工程と、
    少なくとも一のターゲットがある場合、ターゲット数が1であるか1を超えるか判定し、前記ターゲット数が1の場合、ターゲットを選択し、前記ターゲット数が1を超える場合、ターゲットが一つになるまで前記所定の半径を縮小して前記所定の半径以内の前記ターゲット数を減らす工程と、
    前記対象者による前記ポインティング動作が前記所定の半径外にある場合、前記所定の半径を拡大する工程と、
    前記拡大した所定の半径以内のターゲットを含めるように前記所定の半径以内の前記ターゲット数を更新する工程と、
    前記所定の半径以内でターゲットが一つだけ特定されるまで、前記拡大した所定の半径を縮小し、前記所定の半径を拡大する工程と、
    を備える方法。
  17. 前記対象者による前記ポインティング動作の仮想画面上の前記交点が変化した場合、前記所定の半径の中心を移動させる工程と、
    前記所定の半径外のターゲットを除き、前記所定の半径以内のターゲットを含めることで、前記所定の半径以内の前記ターゲット数を更新する工程と、
    を備える請求項16に記載の方法。
  18. 動き及び深度センサーを用いて前記3Dデータを取り込む工程を備え、
    前記実画面は投影画面又はビデオ画面であることを特徴とする請求項16に記載の方法。
  19. 前記実画面は複数の選択インジケーターであり、
    前記複数の選択インジケーターは各々消費財に対応することを特徴とする請求項1に記載の方法。
JP2016160941A 2015-08-31 2016-08-19 ユーザーインターフェースのリアルタイムインタラクティブ操作のためのシステム及び方法 Active JP6771996B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/840,596 2015-08-31
US14/840,596 US9703387B2 (en) 2015-08-31 2015-08-31 System and method of real-time interactive operation of user interface

Publications (2)

Publication Number Publication Date
JP2017084335A JP2017084335A (ja) 2017-05-18
JP6771996B2 true JP6771996B2 (ja) 2020-10-21

Family

ID=56321802

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016160941A Active JP6771996B2 (ja) 2015-08-31 2016-08-19 ユーザーインターフェースのリアルタイムインタラクティブ操作のためのシステム及び方法

Country Status (4)

Country Link
US (1) US9703387B2 (ja)
EP (1) EP3136203B1 (ja)
JP (1) JP6771996B2 (ja)
CN (1) CN106484098B (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102034021B1 (ko) * 2015-08-10 2019-10-18 한국전자통신연구원 헬스케어 유닛 기반 시뮬레이터 및 이를 이용한 시뮬레이션 방법
CN108353485B (zh) * 2015-10-22 2020-06-09 飞利浦照明控股有限公司 为了成本减小而优化的照明系统
EP3324204B1 (en) * 2016-11-21 2020-12-23 HTC Corporation Body posture detection system, suit and method
CN107273869B (zh) * 2017-06-29 2020-04-24 联想(北京)有限公司 手势识别控制方法和电子设备
US10930075B2 (en) * 2017-10-16 2021-02-23 Microsoft Technology Licensing, Llc User interface discovery and interaction for three-dimensional virtual environments
CN108711086A (zh) * 2018-05-09 2018-10-26 连云港伍江数码科技有限公司 储物装置中人机交互方法、装置、储物装置以及存储介质
US11532094B2 (en) * 2018-12-05 2022-12-20 Qualcomm Technologies, Inc. Systems and methods for three-dimensional pose determination
JP6840365B2 (ja) * 2019-02-05 2021-03-10 ソフトバンク株式会社 システム、サーバ装置及びプログラム
CN117521044A (zh) * 2022-07-27 2024-02-06 腾讯科技(深圳)有限公司 生物认证方法、装置、计算机设备和存储介质

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6147678A (en) * 1998-12-09 2000-11-14 Lucent Technologies Inc. Video hand image-three-dimensional computer interface with multiple degrees of freedom
US7821503B2 (en) * 2003-04-09 2010-10-26 Tegic Communications, Inc. Touch screen and graphical user interface
JP2001222375A (ja) * 2000-02-08 2001-08-17 Seiko Epson Corp 指示位置検出システムおよび方法、プレゼンテーションシステム並びに情報記憶媒体
US20040151218A1 (en) * 2002-12-23 2004-08-05 Vlad Branzoi Systems and methods for tremor cancellation in pointers
JP3809424B2 (ja) * 2003-03-17 2006-08-16 株式会社クレオ 選択領域制御装置、選択領域制御方法及び選択領域制御プログラム
US9032336B2 (en) 2006-09-07 2015-05-12 Osaka Electro-Communication University Gesture input system, method and program
US8933876B2 (en) 2010-12-13 2015-01-13 Apple Inc. Three dimensional user interface session control
JP4318056B1 (ja) * 2008-06-03 2009-08-19 島根県 画像認識装置および操作判定方法
US8527908B2 (en) 2008-09-26 2013-09-03 Apple Inc. Computer user interface system and methods
JP5293570B2 (ja) * 2009-11-16 2013-09-18 富士通株式会社 表示装置、表示プログラム及び表示方法
US8351651B2 (en) * 2010-04-26 2013-01-08 Microsoft Corporation Hand-location post-process refinement in a tracking system
WO2012107892A2 (en) * 2011-02-09 2012-08-16 Primesense Ltd. Gaze detection in a 3d mapping environment
JP6074170B2 (ja) * 2011-06-23 2017-02-01 インテル・コーポレーション 近距離動作のトラッキングのシステムおよび方法
US8971572B1 (en) * 2011-08-12 2015-03-03 The Research Foundation For The State University Of New York Hand pointing estimation for human computer interaction
US9030498B2 (en) 2011-08-15 2015-05-12 Apple Inc. Combining explicit select gestures and timeclick in a non-tactile three dimensional user interface
KR101868903B1 (ko) * 2012-01-11 2018-06-20 한국전자통신연구원 손 추적 장치 및 방법
US9052819B2 (en) 2012-01-25 2015-06-09 Honeywell International Inc. Intelligent gesture-based user's instantaneous interaction and task requirements recognition system and method
KR20130133319A (ko) 2012-05-23 2013-12-09 삼성전자주식회사 3d그래픽 사용자 인터페이스 제작 장치 및 방법
CN110442231A (zh) 2013-06-27 2019-11-12 视力移动科技公司 用于与数字设备交互的直接指向检测的系统和方法
TW201510771A (zh) * 2013-09-05 2015-03-16 Utechzone Co Ltd 指向位置偵測裝置及其方法、程式及電腦可讀取紀錄媒體
JP5877824B2 (ja) * 2013-09-20 2016-03-08 ヤフー株式会社 情報処理システム、情報処理方法および情報処理プログラム
US10140637B2 (en) 2013-11-26 2018-11-27 Paypal, Inc. Customer selection determination system

Also Published As

Publication number Publication date
CN106484098A (zh) 2017-03-08
EP3136203A1 (en) 2017-03-01
JP2017084335A (ja) 2017-05-18
US9703387B2 (en) 2017-07-11
US20170060250A1 (en) 2017-03-02
EP3136203B1 (en) 2020-06-17
CN106484098B (zh) 2019-09-03

Similar Documents

Publication Publication Date Title
JP6771996B2 (ja) ユーザーインターフェースのリアルタイムインタラクティブ操作のためのシステム及び方法
US9430698B2 (en) Information input apparatus, information input method, and computer program
US8879787B2 (en) Information processing device and information processing method
KR102110811B1 (ko) Hci 시스템 및 방법
CN104254817B (zh) 快速手势重新约定
JP2017529635A5 (ja)
KR101302638B1 (ko) 머리의 제스처 및 손의 제스처를 감지하여 컨텐츠를 제어하기 위한 방법, 단말 장치 및 컴퓨터 판독 가능한 기록 매체
JP4323180B2 (ja) 自己画像表示を用いたインタフェース方法、装置、およびプログラム
US20140139429A1 (en) System and method for computer vision based hand gesture identification
US10713770B2 (en) Analysis apparatus and analysis method
JP2015194478A (ja) 情報処理装置、情報処理方法、プログラム
US9836130B2 (en) Operation input device, operation input method, and program
JP2014165660A (ja) バーチャルキーボードの入力方法、プログラム、記憶媒体、及びバーチャルキーボードシステム
KR100692526B1 (ko) 시스템 자동제어용 제스처 인식 장치 및 그 방법
JP2015176253A (ja) ジェスチャ認識装置およびジェスチャ認識装置の制御方法
CN104850219A (zh) 估计附着物体的人体姿势的设备和方法
US9710708B1 (en) Method and apparatus for autonomously recognizing at least one object in an image
KR20150133585A (ko) 3차원 영상의 단면 탐색 시스템 및 방법
KR101396488B1 (ko) 신호 입력 장치 및 신호 입력 방법
WO2020145224A1 (ja) 映像処理装置、映像処理方法、及び映像処理プログラム
US20210327160A1 (en) Authoring device, authoring method, and storage medium storing authoring program
KR101100240B1 (ko) 멀티모달 상호작용을 이용한 로봇의 물체 학습 시스템 및 방법
Kondori et al. Direct hand pose estimation for immersive gestural interaction
KR101447958B1 (ko) 신체 부분 검출 방법 및 장치
US20090110237A1 (en) Method for positioning a non-structural object in a series of continuing images

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190326

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200529

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200616

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200824

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200908

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200930

R150 Certificate of patent or registration of utility model

Ref document number: 6771996

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150