JP5453246B2 - コンパクト・デバイスのためのカメラ・ベースのユーザ入力 - Google Patents

コンパクト・デバイスのためのカメラ・ベースのユーザ入力 Download PDF

Info

Publication number
JP5453246B2
JP5453246B2 JP2010507553A JP2010507553A JP5453246B2 JP 5453246 B2 JP5453246 B2 JP 5453246B2 JP 2010507553 A JP2010507553 A JP 2010507553A JP 2010507553 A JP2010507553 A JP 2010507553A JP 5453246 B2 JP5453246 B2 JP 5453246B2
Authority
JP
Japan
Prior art keywords
finger
image
user
hand
anatomical model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010507553A
Other languages
English (en)
Other versions
JP2010526391A (ja
Inventor
エバン ヒルドレス
Original Assignee
クアルコム,インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by クアルコム,インコーポレイテッド filed Critical クアルコム,インコーポレイテッド
Publication of JP2010526391A publication Critical patent/JP2010526391A/ja
Application granted granted Critical
Publication of JP5453246B2 publication Critical patent/JP5453246B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1686Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated camera
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1068Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to detect the point of contact of the player on a surface, e.g. floor mat, touch pad
    • A63F2300/1075Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to detect the point of contact of the player on a surface, e.g. floor mat, touch pad using a touch screen
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6045Methods for processing data by generating or executing the game program for mapping control signals received from the input arrangement into game commands
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • H04M1/23Construction or mounting of dials or of equivalent devices; Means for facilitating the use thereof
    • H04M1/236Construction or mounting of dials or of equivalent devices; Means for facilitating the use thereof including keys on side or rear faces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72427User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality for supporting games or graphical animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/52Details of telephonic subscriber devices including functional features of a camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Telephone Function (AREA)

Description

本出願は、2007年5月4日に出願した米国の仮特許出願番号60/916,063の利益を主張する。そして、それはその全体を本願明細書に参照することにより引用したものとする。
本開示は一般にユーザ入力に関する。そして、少なくとも一つの特定の装置はユーザ入力を提供するメカニズムとしてユーザの指先位置を検出するためにカメラを利用することを対象とする。
携帯電話を含む携帯デバイスは、例えばキーパッド、ジョイスティック又はスクロール・ホイールのような、ユーザが入力するための一つ以上の機構を含むことができる。いくつかの携帯デバイスは光センサを使用するジョイスティック機能とそっくりに機能し、そして、いくつかの携帯デバイスは接触を検出するディスプレイ画面を含む。携帯デバイスのための入力メカニズムは、一般的に二次元の下に限られている。
本開示は一般にユーザ入力に関し、そして、少なくとも一つの特定の装置はユーザ入力を提供するメカニズムとしてユーザの指先位置を検出するためにカメラを利用する新規な方法を対象とする。
1つの一般の実現方法によれば、カメラは、ユーザ入力を提供する方法としてユーザの指のようなオブジェクトの位置及び/又は方向を検出するために用いられる。例えば、データをスクロールしたり、カーソルの位置を制御したり、ユーザの指の位置に基づいてビデオゲームを制御したりするためである。入力は、例えば、携帯電話、ビデオゲーム・システム、携帯型の音楽(MP3)プレーヤ、携帯型のビデオ・プレーヤ、個人データ・アシスタント(PDA)、オーディオ/ビデオ機器遠隔制御装置及び消費者向けデジタル・カメラ、又は他のタイプのデバイスを含む携帯デバイスに提供される。携帯デバイスはカメラを含むことができるので、追加ハードウェアとしてユーザ入力を提供するシステムを実装しなくてもよい。
他の一般の実現方法によれば、方法は、指の解剖学的モデルを使用している電子デバイスと相互に作用しているユーザの手の画像内でユーザの手の指の方向を検出することを含む。その方法は、また、検出方向を制御入力にマップして、制御入力に基づいてアプリケーションを制御することを含む。
実現方法として、以下の機能の一つ以上を含むことができる。例えば、方法は、電子デバイスと相互に作用しているユーザの手の形の画像からユーザの手の指の位置を検出することを更に含むことができる。ここで、制御入力は検出位置に基づいてマップされてもよい。制御入力は、指の検出位置及び検出方向に対応して、仮想環境における位置及び方向を定めることができる。方法は、指の検出位置及び検出方向に対応して仮想環境でその位置と方向を動かすために、仮想環境における仮想オブジェクトを制御することを含むことができる。また、指の検出位置及び検出方向に対応して、仮想環境において、その位置と方向で仮想オブジェクトの画像を描画することを含むことができる。
指の解剖学的モデルを用いた電子デバイスと相互に作用しているユーザの手の画像内でユーザの手の指の方向を検出することは、指先に対応する指の第1の部分を識別し、指の付け根に対応する指の第2の部分を識別し、指の第1の部分及び指の第2の部分との間のベクトルを算出して、ベクトルに基づいて指の方向を決定することを含むことができる。方法は、指の画像を取得し、画像のエッジ処理をすることを含むことができる。さらに、方法は、指に対して略垂直の方向を有するスキャンラインの画像をセグメント化することを含むことができる。
いくつかの実現方法において、方法は、指の輪郭を検出することをさらに含むことができる。指の輪郭は、画像内での画像強度の勾配を算出して、画像強度の勾配のうち、少なくとも一つの極小値と極大値を識別することにより検出されうる。方法は、指の皮膚のしわに対応する画像領域を識別して、当該画像内で指を検出する際の指の皮膚のしわに対応する識別された画像領域を無視することを含むことができる。
いくつかの実施例において、方法は、オブジェクトの大きさ、オブジェクトの形状、また、オブジェクトが画像の境界と交差するか否かに基づいて、画像内のオブジェクトを指として選択することを含むことができる。方法は、指の解剖学的モデルを使用して、電子デバイスのディスプレイに平行な平面の方向に向けられた指の方向を検出することをさらに含むことができ、その解剖学的なモデルは、指の付け根から指の先端までのびている指のモデルである。
他の通常の実現方法によれば、デバイスは、指の解剖学的モデルを使用している電子デバイスと相互に作用しているユーザの手の画像内でユーザの手の指の方向を検出するように構成される画像検出器を含む。デバイスは、また、検出方向を制御入力にマップして、制御入力に基づいてアプリケーションを制御するように構成されるプロセッサを含む。画像検出器は、携帯電話、携帯型のビデオゲーム・システム、携帯型の音楽プレーヤ、個人データ・アシスタント、遠隔制御装置、又はデジタル・カメラに配置されていてもよい。
他の通常の実現方法によれば、コンピュータ可読媒体は、コンピュータ・プログラム製品を記憶する。コンピュータ・プログラム製品は、実行されるときに、コンピュータに演算を実行させるために動作する命令を含む。演算は、指の解剖学的モデルを使用している電子デバイスと相互に作用しているユーザの手の画像において、ユーザの手の指の方向を検出することを含む。演算は、また、検出方向を制御入力にマップして、制御入力に基づいてアプリケーションを制御することを含む。
他の通常の実現方法によって、方法は、電子デバイスと相互に作用しているユーザの手の画像にアクセスして、オブジェクトの大きさや、オブジェクトの形状、そしてオブジェクトが画像の境界と交差するかどうかに基づいて、ユーザの手の指として画像のオブジェクトを識別することを含む。方法は、また、画像内でユーザの手の指として識別されたオブジェクトの位置を決定し、検出位置を制御入力にマップし、制御入力に基づいてアプリケーションを制御することを含む。
実現方法は、以下の機能の一つ以上を含むことができる。例えば、方法は、指の解剖学的モデルに対応する細長い形状を有するオブジェクトに基づいて、ユーザの手の指として画像内のオブジェクトを識別することを含むことができる。方法は、さらに、電子デバイスのディスプレイに対して平行な平面に位置する指の解剖学的モデルに基づいて、ユーザの手の指として画像内のオブジェクトを識別することを含むことができる。解剖学的モデルは、指の付け根から指の先端までのびる指のモデルでもよい。
いくつかの実現方法において、方法は、表示領域における指の検出位置に対応する位置に検出位置をマップし、表示領域における指の検出位置に対応する位置に表示されたインジケータを動かすことを含むことができる。方法は、また、表示されたユーザ・インタフェースにおける指の検出位置に対応する位置で入力制御を識別し、識別された入力制御に関連する処理を決定することを含むことができる。制御入力に基づいてアプリケーションを制御することには、識別された入力制御を伴う処理を実行することを含むことができる。
いくつかの実施例において、方法は、画像の指の幅を決定し、決定された幅に基づいて画像を取り込んだカメラに関して指の奥行き位置を推定することを含むことができる。これらの実施例において、制御入力は、推定された奥行き位置に基づいてマップされうる。方法は、さらに、指先に対応する指の部分を検出して、指先に対応する指の部分の図心として位置を決定することを含むことができる。
方法は、画像領域の境界が予想された指先の幅の少なくとも半分の距離まで画像の境界線から離れるように、画像内の画像領域を定めることを含むことができる。そして、指の位置は定義済みの画像領域の中で検出されうる。指先位置は、指先が画像領域の外側に検出されるときに、画像領域の境界の位置にマップされうる。
他の通常の実施態様によれば、デバイスは、電子デバイスと相互に作用するユーザの手の画像を取り込むように構成されたカメラを含む。デバイスは、また、電子デバイスと相互に作用しているユーザの手の画像にアクセスして、オブジェクトの大きさやオブジェクトの形状、そして、オブジェクトが画像の境界と交差するか否かに基づいて、ユーザの手の画像として画像内のオブジェクトを識別するように構成されたプロセッサを含む。プロセッサは、ユーザの手の指として画像内で識別されたオブジェクトの位置を決定して、検出位置を制御入力にマップし、制御入力に基づいてアプリケーションを制御するようにさらに構成される。
他の通常の実施態様によれば、コンピュータで読取り可能な媒体は、コンピュータ・プログラム製品を記憶する。コンピュータ・プログラム製品は、実行時に、コンピュータに演算を実行させるために作動する命令を含む。演算処理には、電子デバイスと相互に作用しているユーザの手の画像にアクセスして、オブジェクトの大きさ、オブジェクトの形状、そして、オブジェクトが画像の境界と交差するか否かに基づいて、ユーザの手の指として、画像内のオブジェクトを識別することを含む。演算には、また、ユーザの手の指として画像内で識別されたオブジェクトの位置を決定して、検出位置を制御入力にマップして、制御入力に基づいてアプリケーションを制御することを含む。
一つ以上の実施態様の詳細は、添付図面及び下記の説明に示される。開示された以外の潜在的特徴及び効果は、記載及び図面から明らかである。
ユーザ入力を提供する方法として、ユーザの指先位置を検出する状況を示す図である。 携帯デバイスの例を示す図である。 携帯デバイスのディスプレイを認識しているユーザに向いているカメラを含む携帯デバイスの他の例を示した図である。 携帯デバイスのディスプレイを認識しているユーザから反対に向いているカメラを含む携帯デバイスの他の例を示した図である。 ユーザがデバイスに入力するためのユーザの指の位置の例を示した図である。 指の検出位置及び/又は方向を制御入力にマップして、制御入力に基づいてアプリケーションを制御するプロセスを示すフローチャートである。 ユーザが入力する方法として、ユーザの指先位置を検出するカメラを利用するプロセスのフローチャートである。 指が画像の境界の下側から視界に入る例を示す図である。 指がカメラの視界の中である角度を持って現れる例を示す図である。 スキャンラインに沿う画素の輝度の例を示す図である。 エッジ検出過程で算出されたときの勾配の大きさの例を示す図である。 リンクされた部分の例を示す図である。 指として識別された一組のリンクされた部分の例を示す図である。 指の複数の部分を示すサブセットの例を示す図である。 指の幅を測定する例を示す図である。 カメラ画像の範囲内で定められた画像領域の例を示す図である。 指先位置が画像領域の外に位置する指の例を示す図である。 画像領域を表示領域にマップした例を示す図である。 インジケータの位置が指の位置に直接相関する例を示す図である。 ディスプレイ画面に表示されたアプリケーションのユーザ・インタフェースの例を示す図である。 ディスプレイ画面に表示されたゲームの表示画像の例を示す図である。 一人称の視点を含む、指で操作するシューティングゲームの例を示す図である。 3人称の視点を含む、指で操作するシューティングゲームの例を示す図である。
各図面における同様の参照符号は、同様の各要素を指し示す。
1つの通常の実施態様によれば、カメラは、ユーザ入力を提供する方法としてのユーザの指先のようなオブジェクトの位置を検出するために用いられる。例えば、ユーザの指先位置を検出することで、データをスクロールしたり、カーソル位置を制御したり、ユーザの指先位置に基づいてビデオゲームを制御したりすることができる。指の方向のような追加情報をさらに検出するようにしてもよい。入力は携帯(又は他の)デバイスに提供され、携帯デバイスには、例えば、携帯電話、ビデオゲーム・システム、携帯型の音楽(MP3)プレーヤ、携帯型のビデオ・プレーヤ、個人データ・アシスタント(PDA)、オーディオ/ビデオ機器遠隔制御装置、消費者向けデジタル・カメラ、又はその他のタイプのデバイスを含む。携帯デバイスはカメラを含むことができるので、ユーザによる入力を提供するシステムを実装するためにハードウェアを追加する必要はない。
図1は、ユーザが入力をする方法として、ユーザの指先位置を検出する状況を示す図である。携帯デバイス101(下でさらに詳細に説明する)は、携帯デバイス101で動いているアプリケーション又はオペレーティングシステムの出力を表示するディスプレイ103を含む。ユーザは、ユーザの指201を用いて携帯デバイス101にユーザ入力を行う。以下に示すように、アプリケーションは乱闘戦闘ゲームであり、そして、指の位置や方向を仮想オブジェクト(例えば剣)にあらわしてマップするようなユーザ入力の方法を用いてゲームを制御する。
例えば、ユーザの指201の動き111は、当該ゲーム内では、仮想オブジェクト120(例えば剣又は他の武器)の動き112としてマップされる。この例の場合には、ゲームでは、三次元のコンピュータ・グラフィック技術を使用して仮想オブジェクト120をあらわしている。それにより、仮想オブジェクト120は仮想ボリュームの中で位置及び方向を有する。画像領域又は3次元画像領域内での指の付け根の位置は、仮想ボリューム内で仮想オブジェクトの底部の位置にマップされ、そして、指の方向は仮想ボリューム内で仮想オブジェクトの方向としてマップされる。この点に関しては、仮想オブジェクト120の位置及び方向は、ユーザの指201が仮想オブジェクト120にマップするようにユーザの指201の位置及び方向に対応する。
このマッピングを使用して、ユーザは、例えば、ゲームで剣120を右側に振らせるユーザ入力をするために、指201を右側に振る。ユーザは、また、ユーザの指がディスプレイ103の最上部の縁部に対して垂直な方向を指しつつ、ディスプレイ103の前面となる平面に平行に指201を向けることができる。ユーザの指201をこのような方向にすることで、仮想環境において、剣120の先端がディスプレイ103の最上部の縁部に対して垂直な方向を指しつつ、ディスプレイ103の前面となる平面に平行に剣120があるように見えるようになる。ユーザが、その方向を維持しながら上方(すなわち、ディスプレイ103の最上部の縁部に対して垂直な方向)へ指201を動かす場合、ユーザ入力は、ユーザの指201に対応する形で、ゲームに対して画面上で剣120を上向きに突き立てるようになされる。
同様に、ユーザがその方向を維持しながら画面の方へ向かって指201を動かす場合、剣120は、ユーザの指201に対応する方向を維持し、仮想環境において、画面の内方向にナビゲートする。ユーザがその方向を維持しながら画面から離して指201を動かす場合、剣120は、ユーザの指201に対応する方向を維持し、仮想環境において、画面の外方向にナビゲートする。このように、ユーザの指201の位置の変化は、仮想環境における仮想オブジェクト(すなわち剣)120の位置の変化として描かれる。そして、それはディスプレイ103上での仮想オブジェクト120の画面の変化により示される。
いくつかの実施例において、ユーザは、仮想環境における剣120の方向を変えるために、ユーザの指201の方向を変えることができる。例えば、ユーザは、仮想環境内で剣120を傾けるために、指201を傾けることができる。剣120は、仮想環境において、ユーザが指201を傾けた度数に直接対応して又は比例して特定の度数に傾けることができる。このように、ユーザの指201の方向の変更は、仮想環境の仮想オブジェクト(すなわち剣)120の方向の変化として描かれる。そのことは、ディスプレイ103における仮想オブジェクト120の画像の変化により示される。
ユーザの指201の位置及び方向の変化は、両方とも仮想環境における剣120の位置及び方向の変化として描かれうる。この点に関しては、ユーザは、ユーザの指201の動き(例えば、画面に向かってユーザの指201の傾きや回転に対応するようなやり方)に応じて剣120を傾けたり回転させたりすることで、仮想環境内で、画面内のある方向に剣120が斬りつけるようにするために、指201を画面に向かって傾けたり回転させたりすることができる。ユーザは、また、画面で指201を指したり、画面に指201を指している間、画面に向かって指201を動かしたりすることができる。この動きは、剣120を画面内のある方向に斬りつけさせるようにすることができる。いくつかの実施例において、奥行きを検出するカメラ(例えば立体カメラ又は飛行時間型のカメラ)は、カメラからユーザの指201までの距離を検出するために用いられうる。
アプリケーション(すなわち乱闘戦闘ゲーム)では、ゲーム・プレーを制御するために、仮想環境内の他の仮想オブジェクトを有する仮想環境(例えば仮想ボリューム)の範囲内で、仮想オブジェクト120の位置及び方向を比較する。比較に基づいて、アプリケーション(すなわち乱闘戦闘ゲーム)は、仮想オブジェクト120が仮想ターゲットオブジェクト(例えば仮想キャラクタやその他の仮想武器、ターゲットなど)と交差するかどうか決定する。仮想ターゲットオブジェクトも、画面に描かれうる。仮想ターゲットオブジェクトを画面に表示することで、対応する方法で、仮想環境内で仮想オブジェクト120を動かすために、ユーザに、仮想ターゲットオブジェクトの方へ又は仮想ターゲットオブジェクトの所で指201を動かさせ、そして、そのようにして、仮想ターゲットオブジェクトと交差することになる。ユーザの指201の位置及び方向を仮想オブジェクト120の位置及び方向にマップすることで、ユーザに指201を使用して乱闘戦闘ゲームを操作させる。
図2を参照する。携帯デバイス101は、カメラ102と、画像表示をアプリケーションに提供するディスプレイ103(例えば液晶画面)と、を含む。携帯デバイス101は、また、ボタン104又はキーパッド105を含むことができる。内部プロセッサは、カメラ102、ボタン104及び/又はキーパッド105からの入力を受け付けて、入力に基づいて機能又は演算処理を実行して、ディスプレイ103上の画像を生成するように構成される。
カメラ102は、画像を取り込むデバイスである。例えば、カメラ102は、デジタル・カメラ、デジタル・ビデオ・カメラ又は画像を取り込む他のタイプのいかなるデバイスでもよい。デバイス101は、一つ以上のカメラを含むことができる。カメラ102は、アプリケーションと相互に作用している対象物の画像を取り込むことができる。例えば、カメラ102は、カメラ102の視界の中で物理的にアプリケーションと相互に作用しているユーザの指又は指先の画像を取り込むことができる。
カメラ102は指201を照らす発光体を含むことができる。その結果、カメラは周辺が暗い状態でも指を検出できる。発光体は赤外線を放射でき、そして、カメラ102は赤外線に感度があってもよい。あるいは、発光体は可視光(例えば白色灯)を出すことができ、そして、カメラ102は可視光に感度があってもよい。発光体の代わりに、周囲が暗い場合でも指201を検出できるように、ディスプレイ画面103は光を発することができる。
カメラ102は、また、奥行きを検出するカメラでもよい。例えば、カメラ102は、異なる視点から指201の画像を取る複数のセンサを含む立体カメラでもよい。カメラ102は各視点の画像を比較して奥行きを検出することができ、又は、デバイスは各視点の指201を検出して、指の位置を比較して奥行きを算出することができる。他の例では、カメラ102は、光のパルスを発する発光体や、光のパルスが検出された時を測定できるセンサを含む飛行時間型のカメラでもよい。飛行時間型のカメラは、光のパルスが検出された時を計測することで奥行きを検出できる。これにより、光によって、得られたパスの長さを計測する。
ディスプレイ103は、ユーザに、テキスト又は画像を含みうる表示画像を描画する。表示画面は、ゲームや他のアプリケーションがデバイス101上で実行するような、デバイス101の状態に関する情報を示したり、アプリケーションのための視覚的なインタフェースを提供する情報を示すことができる。ディスプレイ103は、また、デバイス101を作動するのに必要なオペレーティング・システム・プログラムと同様に、本実施態様におけるソフトウェアアプリケーションのためのユーザ・インタフェースを構成する図形や、画像、テキストを表示できる。
ボタン104は、ユーザが入力コマンドをデバイス101に入力するために使用できる入力制御ボタンである。ボタン104は、ディスプレイ103に描かれるインタフェースに基づいて変化することができ、又は変化することができない特定の機能に対応できる。ボタン104は、カメラ102に撮影された画像に取り込まれたユーザの指の動きに基づいて、ユーザがデバイス101に入力できるようにするための入力制御プログラムを起動するために用いられうる。例えば、ユーザの指の動きは、ボタン104が押下された時にユーザ入力としてマップされることができ、ボタン104が押下されないときには無視されてもよい。ボタン104を用いてユーザ入力プログラムの有効化を制御することで、ユーザの指の不注意な動き(例えば、ユーザが、ポケットやバッグからデバイス101を取り出すときなど)がユーザ入力としてマップされるのを防止できる。ボタン104がアクティブにされると、カメラ102を画像を取り込むように制御したり、プロセッサに、ユーザ入力にユーザの指をマッピングしたりするために他のプロセスを実行させるように制御できる。
デバイス101のユーザは、アプリケーションプログラムと同様にオペレーティング・システム・プログラムを作動、制御するためのコマンドやデータを入力するためにキーパッド105を使用する。キーパッド105は、ユーザがデバイス101に入力するために起動させることができる一群の一つ以上のボタン又は圧力で作動するスイッチを含む。キーパッド105を用いて、ユーザはデバイス101にテキストデータやユーザコマンドを入力できる。
プロセッサ(図示せず)は、ボタン104及びキーパッド105からの入力を受け付けることができ、また、ユーザの入力コマンドにユーザの指の動きをマップして、カメラ102により取り込まれた画像を分析できる。プロセッサは、ユーザ入力に基づいて機能又は演算を実行することができ、適切なときに、ユーザ入力に応答してディスプレイ103上の画面を生成できる。プロセッサは、携帯デバイス101で起動しているアプリケーションプログラム及びオペレーティングシステムを実行できる。携帯デバイス101は、マルチプロセッサ(又は他の制御回路)を含むことができ、また、アプリケーションプログラム、オペレーティングシステム及びユーザ入力プログラムを記憶し、また、アプリケーションプログラム、オペレーティングシステム及びユーザ入力プログラムにより用いられるデータを記憶するメモリ(又は他のコンピュータ読み取り可能な記憶媒体)を含むことができる。
デバイス101がモバイル機器として図2において、図示されるが、さらなる態様として、デバイス101はパーソナル・コンピュータ(PC)又はゲーム・システム、ラップトップ・コンピュータ、携帯コンピュータ、タブレット・コンピュータ、個人データ・アシスタント(「PDA」)又は他のタイプの組込みシステム(例えばコンピュータキーボード又は遠隔制御装置)の構成を含むことができる。デバイス101は、また、携帯型の音楽プレーヤ(ポケベル又は他の通信装置)又はゲーム、通信及び/又はデータ構成のための手持ちサイズ又は持ち運びサイズの電子デバイスでもよい。
図3Aを参照して、1つの通常の実施態様において、携帯デバイス101は、ユーザが携帯デバイス101の画面を認識できる向きに向いているカメラ102を含む。この実施態様においては、ユーザは、携帯デバイス101にユーザ入力をするために、指201をカメラ102の手前で少し離した状態で携帯デバイス101の上方にかざす。カメラ102は、カメラの視界が画面の前の領域をカバーするように位置決めされうる。ユーザは、また、ボタン104を操作するために、指202を使用する。
図3Bを参照して、他の通常の実施態様では、携帯デバイス101は、携帯デバイス101の画面をユーザが認識できる向きから見て外方に向くカメラ102を含む。この実施態様では、ユーザは、携帯デバイス101にユーザ入力をするために、カメラ102の後側に少し離した状態で、指201を携帯デバイス101の下側にかざす。以下に示すように、カメラ102の露出部は、携帯デバイス101の裏面にあり、ユーザの視界から隠されている。ユーザは、また、ボタン104を操作するために指202を使用する。図3A及び3Bは、2つのカメラ構成例を示しているが、他の実施態様として、カメラは、携帯デバイスのいかなる表面又は側面に配置されていてもよい。
図3A及び図3Bに示す実施態様において、ユーザは、カメラ102により撮像された領域内において、指201を動かして携帯デバイス101と相互に作用する。加えて、ユーザは、ボタン104又はキーパッド105のキーを押圧するために、親指202又は他の指を用いて、携帯デバイス101と相互に作用できる。
デバイスは、様々な方法で手に持たれ、及び/又は操作されうる。例えば、ユーザは、指をさすために第2の手の指を使用している間、第1の手でデバイスを持つことができる。他の例では、ユーザは、デバイスを手に持っている同じ手の指を使って指をさすことができる。さらに別の例では、デバイスを動かないように(例えば、テーブルにのせるなどして)することができ、ユーザはどんな指でも指をさすことができる。
図4は、ユーザ入力をデバイスに行うユーザの指201の位置の例を示す。例えば、指先401がカメラの視界402の中になるように、ユーザは指201をかざす。ユーザの指先401は、(より近い距離又は遠い距離でも使用できるにもかかわらず、)カメラ102から、2から10センチメートル離れた位置であってもよい。カメラ102は写真やビデオをとるために一般的に用いられるタイプ及び構成のものでよく、そして、それが「焦点がずれている」場合でも、指201をユーザ入力に使用できる。特に、下記に詳しく述べる通り、プロセッサは、指201の画像をセグメント化してカメラ画像を分析する。プロセッサは、カメラ画像をセグメント化した後に、指先401の方向及び位置を算出する。
図5は、指の検出位置及び/又は方向を制御入力にマップして、制御入力に基づいてアプリケーションを制御するプロセス500を示すフローチャートである。便宜上、図2から図4までに関して記載されている特定の構成要素は、プロセスを実行するものとして参照される。しかしながら、異なる構成要素がシステムの構造を定めるために用いられたり、又は、図2から図4に示された構成要素の中で機能が異なるように分類されたりする他の実施態様において、類似する方法論を適用できる。
デバイス101のプロセッサは、電子デバイス(510)と相互に作用しているユーザの手の画像内でユーザの手の指の位置及び/又は方向を検出する。例えば、プロセッサ205は、読み込まれた画像内でユーザの指を検出するために、一つ以上の読み込まれた画像を処理したり、分析したりできる。この例の場合には、プロセッサは、読み込まれた画像の特徴を、画像内での指の典型的な特徴(例えば指の解剖学的モデル)と比較して、指を検出できる。又は、読み込まれた画像内の動きを検出することによって、指を検出できる。プロセッサは、また、読み込まれた画像の肌色を分析して指を検出できる。又は、現在の画像と背景モデルとの違いを検出するために一つ以上の指を含む現在の画像を背景モデルと比較することで指を検出できる。プロセッサ205は、単一の画像の中で、又は、一組の複数画像において、指を検出するために、任意の技術を使用できる。
一つ以上の画像から指を検出した後に、プロセッサは、検出された指の位置及び/又は方向を決定するために、一つ以上の画像の部分を分析する。プロセッサは、カメラの視界の中で指が検出された領域に基づいて指の位置を決定することができ、カメラの視界の中での指の角度に基づいて指の方向を決定できる。プロセッサは、2次元又は3次元で指の位置を決定できる。指の位置が3次元で決定される場合には、プロセッサは、指の大きさに基づいてカメラから指までの距離を推定できる。又は、プロセッサは、ステレオ又は飛行時間型のカメラから取り込んだ、奥行き情報を含む画像を処理できる。同様に、プロセッサは、2次元空間又は3次元空間における指の方向を決定できる。指の位置及び方向を検出するには、プロセッサは、3次元空間において、検出された指の位置と方向を示すベクトルを計算できる。
プロセッサは、検出された位置及び/又は方向を制御入力にマップする(520)。プロセッサは、位置及び/又は方向を検出するときに描画された画像に基づいて、指の検出位置及び/又は方向を制御入力にマップすることができる。例えば、プロセッサは、指の位置及び/又は方向を、表示されたユーザ・インタフェースで描画されたアイテムの位置及び/又は方向と比較できる。この比較に基づいて、プロセッサは、指が検出された位置及び/又は方向を、表示されたインタフェース・コントロール(例えば指の位置及び/又は方向に対応して表示されたインタフェース・コントロール)を伴う特定のコマンド又は演算処理にマップすることができる。
プロセッサは、また、検出された位置及び/又は方向を、ユーザ・インタフェースで示されたオブジェクトの位置及び/又は方向にマップすることができる。例えば、プロセッサは、検出された位置及び/又は方向を、ユーザ・インタフェースで表示されるカーソル(例えばマウスカーソル)の位置及び/又は方向にマップすることができる。このように、ユーザの指の動きは、ユーザがカーソルを使用してアプリケーションを制御できるように、ユーザ・インタフェースのカーソルの動きにマップされうる。
プロセッサは、また、検出された位置及び/又は方向を仮想環境における仮想オブジェクトの位置及び/又は方向にマップすることができる。例えば、図1について上述したように、プロセッサは、仮想環境における仮想オブジェクトの位置及び/又は方向が、検出された位置及び/又は方向に対応するように、検知された位置及び/又は方向を仮想環境内の仮想オブジェクト(例えば乱闘戦闘ゲームの武器)の位置及び/又は方向にマップすることができる。
プロセッサは、さらに、検出された位置及び/又は方向により表現されたジェスチャに基づいて、検出された位置及び/又は方向を制御入力にマップすることができる。プロセッサは、ユーザが制御入力に関連したジェスチャを実行したかどうか決定するために、検出された指の動き(例えば位置及び/又は方向の変化)を分析できる。例えば、プロセッサは、検出された指の動きを一組の認識されたジェスチャと比較することができ、その比較に基づいて認識されたジェスチャの動作を検出することができ、その動作(例えば指の位置及び/又は方向)を認識されたジェスチャと関連する制御入力にマップすることができる。一例では、ユーザは、デバイス101をオフにするか、又はデバイス101をスリープ・モードにするような入力をするために、カメラの前で「Z」の文字形に指を動かすことができる。
プロセッサは、制御入力に基づいて、アプリケーションを制御する(530)。例えば、プロセッサは、制御入力に対応するアプリケーションの演算又はコマンドを実行できる。プロセッサは、制御入力に基づいて表示されたインタフェース・コントロールを選択でき、又は制御入力に基づいて表示されたオブジェクト(例えばカーソルや仮想オブジェクト)を制御できる。制御入力は、データ処理アプリケーション、ゲーム、オペレーティングシステム、メディア・アプリケーション、デバイス制御アプリケーション、その他のタイプのいかなるアプリケーションのコマンド又は演算に関連するものであってよい。
図6は、ユーザ入力を提供する方法としてユーザの指先位置及び/又は方向を検出するために、カメラを利用するプロセス600を示すフローチャートである。数字510に関して上述したように、プロセス600は、画像に基づいて指の位置及び/又は方向を検出するときに用いられることが可能である。便宜上、図2から図4に関して記載されている特定の構成要素は、プロセスを実行する構成として参照される。しかしながら、異なる構成要素がシステムの構造を定めるために用いられたり、又は、図2から図4に示された構成要素の中で機能が異なるように分類されたりする他の実施態様において、類似する方法論が適用されうる。
携帯デバイス101のプロセッサはカメラ102からカメラ画像を得る(610)。そして、指の輪郭を検出するためにカメラ画像をエッジ処理する(620)。輪郭を使用して、プロセッサは、指を識別するために、カメラ画像をセグメント化する(630)。プロセッサは、識別された指に基づいて指の位置及び/又は方向を示している情報を算出する(640)。
いくつかの実施態様において、デバイス(例えばカメラ102)は、色チャンネルがパックされた(例えば、16ビットのワードは5ビットの赤と、6ビットの緑、5ビットの青で構成される)色フォーマットの画像を取り込む。一実施態様において、カメラ画像を得ること(610)には、カメラ画像を後に続く処理にとってより効率的で処理しやすい色フォーマットに変換することを含む。例えば、プロセッサは、色フォーマットを8ビット・グレースケールや24ビットRGBカラーに変換できる。
他の実施態様では、カメラに対して指が近い位置にあるため、指は、ぼんやりしたように見える、したがって、画像の高周波成分は指に起因するものでなくてよい。この状態で、カメラ画像(610)を取得するには、画像にローパスフィルタを使用することをさらに含む。ローパスフィルタを使用することで、指に起因しているそれらより高い周波数成分を除去できる。そして、補助的エッジの程度や信号ノイズの影響を減らすことができる。
さらなる実施態様において、デバイス(例えばカメラ102)は、記載されたプロセスで要求されるものより高い解像度の画像を取り込む。これらの状況下で、カメラ画像を得る(610)と、画像をデシメーションすることを含むことができる。デシメーションの方法はビニングすることを含むことができ、それによって、間引きされたピクセル値は領域の中の複数のピクセル値の平均として算出される。複数の画素の領域の上のノイズ成分の平均が、領域の中の個々の画素のノイズ成分より低い傾向であるので、ビニング処理により、信号ノイズの影響を減らすことができる。サブ・サンプリングやデシメーションの他の方法を使用できる。
エッジ検出プロセス(620)は、指の回りの輪郭を検出する。エッジ検出プロセスは、各画素で画像強度の勾配を算出する。プロセッサは、エッジ検出プロセスでソーベル演算を使用できる。ソーベル演算は、勾配の水平及び垂直成分を決定するために、原画像で一対のカーネルをコンボリューションする。これらのカーネル計算は、下記の式1A及び1Bに示される。
Figure 0005453246
式1A及び1Bにおいて、Aはカメラ画像である。そして、Gx及びGyは水平及び垂直方向の勾配成分である。水平及び垂直成分は、結合される。結合された結果は、下記の式1Cに示すように、二乗成分の合計の平方根として算出される。
Figure 0005453246
近似値はより効率的に使用されうる。近似値を使用することで、一般に携帯デバイスに採用されたプロセッサに必要な計算をさせることができる。近似において、結合された結果は、下記の式1Dに示すように、水平及び垂直成分の絶対値の合計として算出される。
Figure 0005453246
加えて、水平及び垂直成分は、定義済みスカラa及びbと乗算されうる。スカラaは、スカラbよりも大きくてもよく、また、大きくなくてもよい。いくつかの実施態様において、システムが皮膚のしわに対してよりも指の側面に対して感度が高いように、スカラaは、スカラbより大きくてもよい。他のエッジ検出方法をソーベル演算の代わりに用いてもよい。
カメラに対して指が近い位置にある結果、指は、カメラ画像において、ぼんやりしたように見えることができる。指の輪郭を形成している勾配は、数ピクセルの幅にまたがっていてもよい。皮膚のしわ、表皮及び指の爪などのような指の特徴は、また、エッジを形成することもできるが、ぶれは、それらの勾配の程度を減少させうる。
セグメント化プロセス(630)の実施態様において、カメラ画像は、方向を有するスキャンラインにおいて、処理される。方向は指に対してほぼ垂直に選択され、その結果、各スキャンラインは指の横断面を表現する。方向は、所定の方向でもよく、又は所定の方向でなくてもよい。例えば、方向は、デバイス101のカメラ102の方向に基づいてもよく、ユーザがデバイスを持ちたい方向に基づいてもよい。
図7Aは、指201が画像の下側境界線701から視界402に入る例を示した図であり、その結果、指の方向702がほぼ垂直であることを示す。この例の場合には、スキャンライン703は、画素が水平方向に並ぶ行として定義される。複数の平行なスキャンラインは、1ピクセル間隔で間隔を置いて定められている。
図7Bは、指201がカメラの視界402の中である角度をなす例を示す図である。この例の場合には、スキャンライン705は、指の方向704に対して垂直に定義される。複数の平行なスキャンラインが、1ピクセル間隔で間隔を置いて定められている。
スキャンラインの方向がある角度をなす例では、図7Bに示すように、プロセッサは、エッジ処理の前にカメラ画像を回転させる。回転処理では、回転対象のイメージバッファ内で、スキャンラインが画素の水平方向の行として現れるように、画像データを回転させる。回転対象のイメージバッファでは、スキャンライン上の画素は連続的なメモリ・アドレスを有することができる。その結果、変換されない。
スキャンライン方向がある角度をなす他の実施態様において、図7Bに示すように、スキャンラインの画素に対して勾配結果にアクセスするときに、セグメント化プロセスは変換を使用する。スキャンライン上の画素のメモリ・アドレスは、ピクセル値にアクセスされる時に算出されうる。変換は、画像を回転させるのに比べて計算効率がよくてもよく、またよくなくてもよい。
図8Aは、スキャンライン(例えば図7Aのスキャンライン703)に沿った画素の輝度の実施例を示す図であり、図8Bは、エッジ検出プロセスにより算出されるときの勾配の大きさの例を示す図である。指の両側のエッジが、801及び802の符号で示されている。カメラの近くに指がある結果、指はカメラ画像において、ぼんやりしたように見えることができる。そして、このことは、図8Bに示すように、エッジの傾きが段階的であることを示す。
カメラ画像をセグメント化するとき(630)には、プロセッサは、極大値を識別して、極大値の位置で、スキャンラインをセグメント化する。極大値は、領域内で最大値として識別され803として識別でき、極大値の中央であり、少なくとも804として識別される閾値によって、周囲の値より大きい値として識別される。スキャンライン・セグメントは、グラフデータ構造を形成するためにリンクされる。セグメントが重複する場合、セグメントは隣接するスキャンラインのセグメントにリンクされる。
図9Aは、リンクされたセグメントの例を示す図である。ここで、水平方向の線はセグメントをあらわし、縦線はリンクをあらわす。この例の場合には、背景の特徴は、エッジを形成することもできる。リンクされたセグメントを含むグラフデータ構造を形成した後、グラフデータ構造は、取り除かれてもよい。一つの実施例において、指のまわりのエッジは不完全である。それによって、スキャンライン・セグメントは指の部分及び背景の部分を含む。(例えば、領域の大きさに相対的な)比較的少ないセグメントにリンクされているグラフのサブセット(例えば領域)は、サブセットを接続するそれらのセグメントを取り除くことによって、リンクから外れてもよい。
一組のリンクされたセグメントは、指として選択される。選択基準は、大きさ、形状、そして指が画像(例えば、図7Aで示す画像の下側境界線701)に入ると思われるカメラ画像(又は回転画像)の境界の交点を含む。大きさの評価基準は、画素数を定義済みの範囲と比較する。形状の評価基準は、幅と高さの比率を定義済みの範囲と比較する。境界の交点の評価基準は、一組のリンクされたセグメントが、予め選択されたスキャンラインのセグメントを含むかどうかにより決定する。
選択基準は指の解剖学的モデルを表現でき、そして、指の解剖学的モデルを使って、リンクされたセグメントの一組が指であるかどうかを決定するために、リンクされたセグメントのセットを比較できる。解剖学的モデルは、指の典型的な大きさや典型的な形状などのように、カメラ画像における指の典型的な特性を定義する情報を含むことができる。解剖学的モデルにより定義された指の典型的形状は、指の付け根から指の先端まで延びる指の細長い形状を反映できる。解剖学的モデルは、また、例えば予想されたしわや予想された指紋の領域のような、皮膚の質感の特徴を含むことができる。指の解剖学的モデルは、すべての指を表現することができ、指の関節、指と手の接続部分、指の爪や皮膚の色などの特徴を含む。
解剖学的モデルは、さらに、デバイスと相互に作用する際にユーザが手に持った状態での指の位置に関連してもよい。例えば、デバイスの画面に平行に指を保持してデバイスと相互に作用する実施態様の場合、解剖学的モデルは、デバイスの画面に平行な平面に位置する指の解剖学的モデルを表現できる。デバイスと相互に作用する際に、ユーザによって指が保持されている状態で解剖学的モデルを正しい向きにすることは、デバイスと相互に作用しているユーザの指の画像内での指の検出を容易にすることができる。
いくつかの実施態様において、様々な特徴を有する複数の指の解剖学的モデルが使用されうる。例えば、異なる大きさを設定された解剖学的モデル(例えば大人用や子供用モデル)又は性別モデル(例えば男性用や女性用のモデル)は、一組のリンクされたセグメントが指であるかどうかを決定するために用いられうる。具体的には、複数の解剖学的モデルの各々は、合致することが分かるまで、又は、モデルのすべてが使用されて、リンクされたセグメントの一組は指でないと決定されるまで、リンクされたセグメントの一組と比較されうる。複数の解剖学的モデルを使用することにより、より多いユーザ数の指を検出できる。
デバイスと相互に作用するときに、ユーザはデバイスに対して異なる方向で彼らの指を保持できる。デバイスと相互に作用する際のユーザの指の方向が解剖学的モデルに適合しない場合、ユーザの指は適切に検出されなくてもよい。したがって、様々な方向の指の解剖学的モデルを使用することで、より広い方向の範囲で指の検出を容易にすることができる。リンクされたセグメントの一組を様々な方向を有する解剖学的モデルと比較することは、また、ユーザの指の方向を決定する際に使用されることができ、そして、それは制御入力にマップされることができる。
いくつかの装置において、指の登録プロセスは、特定のデバイスで特定の指を登録するために用いられうる。例えば、ユーザは、デバイスに情報を識別させて、一つ以上のユーザの指の画像を取り込むためにデバイスを制御できる。デバイスは、一つ以上の取り込んだ画像からユーザの指に対応する解剖学的モデルを生成して、ユーザを識別する情報に関連してユーザの指から生成された解剖学的モデルを記憶できる。ユーザがその後デバイスを使用して、識別情報(又は他の方法のデバイスにより識別された情報)を提供する際に、デバイスは、デバイスと相互に作用しているユーザの指の位置及び/又は方向を検出する際に、ユーザの指から生成された解剖学的モデルを使用する。特定のユーザの指から特別に生成した解剖学的モデルを使用することで、ユーザの指の検出を容易にすることができる。
図9Bは、指として識別され、リンクされたセグメントの一組の例を示す図である。エッジは、指の輪郭のすべての位置で検出されなくてもよい。例えば、901で示される指の輪郭の位置は、検出されたエッジを含まない。その結果、902で示されるセグメントは、取り除かれうる(例えば、破線により示される部分が取り除かれる)。エッジは、指の範囲内で検出される。例えば、903で示されるエッジは、指の関節で生じた皮膚によるものであり、904で示されるエッジは、指の爪や甘皮によるものである。リンクされたセグメントの経路にしたがって、これらの特徴を順に送る。
プロセッサは、リンクされたセグメントのうち選択された組から、指(640)の位置及び/又は方向の情報を算出する。一組(例えば、図9Bの905で示されるセグメント)の端に近いセグメントは、指先を表現しているサブセットとして選択される。一組(例えば、図9Bの906で示されるセグメント)の端に近いセグメントは、指の付け根を表現しているサブセットの一部として選択される。指先又は指の付け根を表現しているセグメントのサブセットは、最も遠いセグメントの所定数のスキャンライン内のセグメントを含む。
図9Cは、指の部分を表現しているサブセットの例を示す図である。一組のセグメントの端近くにあるセグメントのサブセットは、指先を表現するために選択される。例えば、サブセット907は、指先を表現する。一組の端の近くにあるセグメントは、指の付け根を表現しているサブセットの一部として選択される。例えば、サブセット908は、指の付け根を表現する。
プロセッサは、識別された指先部分(例えばサブセット)907の図心として、指先位置909を算出する。図心は、浮動小数点数精度又は浮動小数点の固定小数点シミュレーションを使用して算出されうる。プロセッサは、識別された指の根本部分(例えば、サブセット)908の図心として、基準位置910を算出する。図心は、浮動小数点数精度又は浮動小数点の固定小数点シミュレーションを使用して算出されうる。浮動小数点数精度又は浮動小数点の固定小数点シミュレーションによって、図心が算出され/カメラ画像よりも高い解像度で(又は、画像がデシメーションされて、デシメーションされたカメラ画像より高い解像度で)推定される。したがって、浮動小数点数精度又は浮動小数点の固定小数点シミュレーションを使用することは、エッジプロセス620とセグメント化プロセス630により低い解像度の画像を処理させることで、要求される処理能力を低くすることができる。要求される処理能力を低くすることは、一般的な携帯デバイスのプロセッサの性能にとって適切でありうる。
プロセッサは、基準位置910から指先位置909まで形成されるベクトルとして、指の方向911を算出する。他の実施態様において、プロセッサは、指の方向を決定するために、指のモーメント(例えば選択されたリンクされたセグメントの取り除かれた一組)を算出する。指の平均幅のような付加的な特徴は、任意に算出されうる。
図9Dを参照する。指の幅は、指先と指の付け根の近くで、指の方向911に対して垂直で計測される。指先の幅913は、指先位置と指の付け根の位置との間の指の方向ベクトルのポイントから計測される。例えば、指先の幅913は、指先から所定の距離に位置するポイント912で計測される。所定の距離は、指先の曲率を避けて、また、指の指の爪部分を避けて選ばれる。指のその部分の区分が正確でなくてもよいので、指の爪部分を避けることは有益でありうる。指の付け根の幅915は、指先位置と指の付け根の位置との間の指の方向ベクトルの位置から計測される。例えば、指の付け根の幅915は、画像の基部(例えば予め選択されたスキャンライン)から所定の距離に位置するポイント914で、計測される。
3次元の位置及び方向は、指の幅の測定値を使用して、任意に推定されうる。例えば、指先の幅913及び指の付け根の幅915は、指の奥行き寸法(例えばカメラからの距離)を推定するために、指の解剖学的モデルの対応する幅と比較されてもよい。指先の幅913は、カメラから指先の距離に依存している。計測された指先の幅は、距離に反比例してマップされうる。例えば、大きな指先の幅は短距離にマップされる。そして、小さな指先の幅は遠い距離にマップされる。算出された距離は、指先位置座標の成分として含まれる。同様に、指の付け根の幅915は、指の付け根の距離にマップされて、指の付け根の位置座標に含まれる。指の方向は指の付け根の位置から指先位置まで形成されるベクトルとして算出され、そして、マップされた指先のカメラからの距離と、座標のカメラ成分から、マップされた指の付け根の距離とを含む上述のセグメント化プロセスは、計算効率が最適化されることができ、一般的な携帯デバイスのプロセッサ性能にとって適切でありうる。
セグメンテーション(630)の他の実施態様において、カメラ画像は、流域変形を使用して処理される。エッジ(例えば勾配の大きさ)データは、極小値を識別するために解析される。領域は、極小ごとに定められる。各領域は、値以下の大きさを有する連結された画素を含むために拡大される。このプロセスは、領域のセットが画像のすべての画素を含むために拡大されるまで、値を増やすことを繰り返す。領域は、より大きな領域を形成するために組合せられることが可能である。上記に類似する基準(例えば指が画像に入ると思われるカメラ画像の境界を有する大きさ、形状及び交点)に基づいて、指として領域が選択される。指の位置及び方向の情報は、上記と同様に、選択された領域から算出される。
流域変形のさまざまな実施態様を使用できる。選択された流域変形の実施態様は、デバイスの処理能力に依存しうる。例えば、流域変形のより少ない計算集約型の実施態様が、限られた処理能力を有するデバイスのために使用されうる。加えて、画像を得ることは、流域変形を処理する必要条件を減らすため、画像(上記の通り)をデシメーションすることを含むことができる。
他の方法を、カメラ画像の処理に使用してもよい。例えば、コンデンセーション(Condensation)又は条件付き密度伝播(Conditional Density Propagation)プロセスを用いてもよい。コンデンセーション又は条件付き密度伝播プロセスは反復性である。例えば、コンデンセーション・プロセスは、公知の指のセグメンテーション・データによって、初期化されることができる。その後、コンデンセーション・プロセスは、指が移動するにつれて、連続的なビデオ・フレーム又はカメラ画像において、指のセグメンテーションを予測する。コンデンセーション・プロセスをそれぞれ反復して、選択、予測及び測定を実行する。この選択は、因数分解されたサンプリングを使用する評価のための潜在的状態のセットを生じさせる。この予測は、動的モデル使って、オブジェクトの状態がどのように変わるかを評価する。測定は、予測された状態を実際の画素データと比較する。コンデンセーション・プロセスは、特に、雑然とした背景において、オブジェクトを追跡するときのロバストでもよく、携帯デバイスに役立つものであってよい。なぜなら、ビデオ・フレームごとに繰返しの数や各繰返しにおいて、標本抽出されたピクセル数が携帯デバイスのプロセッサ性能にしたがって調整されることができるためである。カールマンフィルタリングは、カメラ画像を処理する際に使用される他のプロセスであってよい。
指先の位置座標空間は、ユーザの指動作とディスプレイ103との間の直観的なマッピングを提供するためにディスプレイ103に対応して変換される。カメラがユーザに向いている実施態様において、変換は、鏡変換を含む。この実施態様において、カメラは裏面から指を見て、ユーザは前側から指と画面を見る。そうすると、座標系を鏡像変換させることで、カメラ視点の指をユーザ視点の指及び画像に対応させることができる。スキャンライン方向がある角度をなす実施態様において、図7Bに示すように、変換は、スキャンラインの角度の方向を、逆の角度に回転させることを含む。カメラ102の方向がディスプレイ103の方向と異なる実施態様において、変換は、方向の違いを修正する。
図10Aを参照する。画像領域1001は、カメラ画像1002の範囲内で定義される。数字510に関して上述したように、プロセッサは、画像領域1001を定義でき、画像に基づいて指の位置及び/又は方向を検出する際の画像領域1001を処理できる。
指先の位置座標空間の変換が回転を含む実施態様において、画像領域1001は、カメラ画像1002と関連して回転する。領域の境界を含む画像領域1001の中で、指先位置1007があらゆる位置に移動できるように、画像領域1001は定義される。例えば、距離1003、1004、1005、及び1006により示されるように、カメラ画像1002の境界からの最小距離は予想される指先の幅の半分である。この実施例は、指先位置1007が画像領域1001内のあらゆる位置に移動できる画像領域1001という結果となる。なぜなら、指先位置が指先の中央にあり、指先位置と指先のエッジとの間の指先の部分は、指先の幅のほぼ半分であるためである。加えて、指の選択基準が満たされるように、カメラ画像1002の境界から指の付け根の画像領域1001までの距離1006が選択される。
図10Bは、指先位置1008が画像領域1001の外にあるように、位置決めされた指の例を示す図である。この例の場合には、指先位置1008は、画像領域1001の境界に最も近い位置1009にマップされる。
図11Aは、画像領域1001をディスプレイ103の部分である表示領域1101にマップする例を示す図である。数字520に関して上述したように、画像領域1001を表示領域1101にマップすることを、検出された位置及び/又は方向を制御入力にマップする際に使用されうる。表示領域1101は、ディスプレイ103全体又はディスプレイ103の一部を含むことができる。例えば、表示領域1101は、ステータス・バーを除く、ディスプレイ103の有効領域を含むことができる。画像領域1001と関連する指先位置1007は、表示領域1101と関連してインジケータ位置1102にマップされる。
図11Bは、インジケータ位置1102が指の位置に直接関連する例を示す図である。ディスプレイに平行な指の位置にとって、指の位置とインジケータ位置との間に1対1の相関が存在する。指201の動き1103は、インジケータ位置1102の類似の動き1104にマップされる。例えば、ユーザが第1の指先位置に指を置いた場合、第1のインジケータ位置はその位置になる。ユーザが指を第2の指先位置の方へ動かす場合、第2のインジケータ位置はその位置になる。この例の場合には、第1の指先位置に戻るようにユーザが指を動かす場合、インジケータも第1のインジケータ位置に戻る。ユーザは、これがジョイスティックより直観的であるとわかることができる。例えば、インジケータ位置が間接的な方法であるジョイスティックの状態に関連があるように、ジョイスティックは速度をインジケータ位置に適用する。
他の実施態様において、画像領域は3次元の領域であり、そして、指先位置はカメラから算出された距離を表現する成分を含む。例えば、カメラから算出された距離を表現している成分は、上述のように指の幅の測定値を使用して算出される。指先位置が定義されたボリューム内であらゆる位置に移動できるように、3次元の画像領域が定義される。
一つの実施例において、指先は、カメラの近くにあり、そして、カメラは、画像に平行な指先の動きを撮像する限られたレンジを備えている(例えば、小さい動きでも、指先がカメラの視界の外側に行くことがある)。この例の場合には、領域の境界は、カメラからの距離の範囲を含んで定義され、そこではカメラの視界は、カメラが閾値以下で指先を撮像する領域を制限しない。
3次元画像領域は、3次元の表示領域にマップされる。3次元の表示領域は、仮想ボリュームの部分であって、3次元のコンピュータ・グラフィックを描画する技術を使用するディスプレイ103に描画される。
いくつかの構成において、3次元画像領域と関連する指先位置は、3次元の仮想ボリュームと関連するインジケータ位置にマップされる。インジケータ位置は、指の位置に、直接関連性を有する。指の位置とインジケータの位置の間には、1対1の相関が存在する。指の動きは、仮想ボリュームの中でインジケータ位置の類似の動きにマップされる。例えば、ユーザが第1の指先位置に指を置いた場合、仮想ボリュームでの第1のインジケータ位置はその位置となる。ユーザが指を第2の指先位置の方へ動かす場合、仮想ボリュームでの第2のインジケータ位置はその位置となる。この例の場合に、ユーザが第1の指先位置に戻るように指を動かすと、インジケータも仮想ボリューム内で、第1のインジケータ位置に戻る。第2のインジケータ位置は、仮想ボリューム内の高さ、幅及び奥行き寸法で第1のインジケータ位置とは異なってもよい。
図12は、ディスプレイ画面103に表示されるアプリケーションのユーザ・インタフェースの実施例を表す。表示領域1101は図示され、そして、カーソル画像1202は指先位置に対応するインジケータ位置1102の標識として示されている。表示画像はスクリーン上のオブジェクトを示す。そして、オブジェクトには、アイコン1203、スクロールバー1204、メニュー1205、及びパーソナル・コンピュータ、携帯デバイス又は他のタイプのあらゆる電子デバイスと類似する外観及び機能を有するボタン(図示せず)を含む。制御機能に基づく位置標識は、パーソナル・コンピュータ上のマウスカーソルに類似している。
ユーザは、インジケータ位置がスクリーン上のオブジェクトの範囲内にあるようにその指先を位置決めし、ボタン104又はキーパッド105のキーをクリックすることにより、スクリーン上のオブジェクトを起動させる。ユーザは、インジケータ位置がスクリーン上のオブジェクトの範囲内にあるように指先を位置決めして、ボタン104又はキーパッド105のキーを押圧した状態のまま、インジケータ位置が動くように指を動かし、ボタン104又はキーパッド105のキーを放して、スクリーン上のオブジェクトをドラッグする。
他の実施態様において、ユーザは、そのようにインジケータ位置がスクリーン上のオブジェクトの範囲内にあるようにその指先を位置決めして、ジェスチャを実行することによって、スクリーン上のオブジェクトを起動させる。ジェスチャはカメラに対してより近い指先を動かすことでもよい。ここで、距離は、所定の制限時間より少ない時間の期間にわたって所定の閾値より大きい分まで減少する。指先の距離は、上記のように指先の幅を使用して算出される。ジェスチャのスタート時のインジケータ位置は、入力と決定するために使用される。なぜなら、ユーザは、ジェスチャを行いながらインジケータ位置を変えることもあり得るからである。
ジェスチャを検出するプロセスの実施態様は、バッファで算出された指先の距離(あるいは、指先の大きさ/幅)を記憶することを含む。データは円形配列のデータ構造で記憶され、それによって、新規なデータサンプルは最も古いデータサンプルと入れ替わる。指先の距離(又は大きさ/幅)のデータサンプルは、現在の指先の距離(又は大きさ/幅)と比較され、そして、指先距離(又は大きさ/幅)のデータサンプルが、定義済み閾値の距離を上回る距離であることにより、現在の指先の距離(又は大きさ/幅)より近いかどうかを決定する。
他の実施態様において、上述の技術は、ユーザが表示されたリストをスクロールさせることに適用される。例えば、リストは、複数のレベルを含む。そのリストが連絡先(例えば住所や電話番号)のリストである実施態様において、第1のレベルがアルファベット文字のリストを含み、第2のレベルが文字で編成された名前のリストを含み、そして、第3のレベルは、連絡先の情報を含む。そのリストが曲(例えば音楽)のリストである実施態様において、第1のレベルはアーティストのリストを含み、第2のレベルはアルバム(例えばアーティストにより創作されるアルバム)のリストを含み、第3のレベルは曲(例えばアルバムに含まれる曲)のリストを含み、そして、第4のレベルは曲を含む。
そのリストが時間及び日付(例えばカレンダ)のリストである実施態様において、第1のレベルは、月のリストを含み、第2のレベルは日(例えば1ヵ月以内の日)のリストを含み、第3のレベルは時間(例えば1日以内の時間)を含み、そして第4のレベルは時間単位の情報(例えばアポイントメント)を含む。そのリストが時間及び日付(例えばカレンダ)のリストである他の実施態様において、第1のレベルは週のリストを含み、第2のレベルは日(例えば1週以内の日)のリストを含み、第3のレベルは時間(例えば1日以内の時間)を含み、そして第4のレベルは時間毎の情報(例えばアポイントメント)を含む。
画像領域1001内の指先位置1007の水平成分は、リストのレベルの選択を制御する。画像領域1001は、レベルに対応する多くの列に分けられる。アプリケーションは、指先位置が置かれている列にしたがって、情報を表示するために構成される。ユーザは、指先を左や右に移動させることによって、レベル間を切り替える。デバイスは、ユーザに対し、レベルの変更についてアニメーションを表示したり、ユーザに音を聞かせたりすることができる。
レベルの中では、アイテムのリストが表示され、そこでは、アイテム・インジケータが列に配置される。アイテム・インジケータは、テキスト及び/又はアイコンを含むことができる。画像領域1001の中の指先位置1007は、アイテム・インジケータが並んだ境界にマップされて、アイテム・インジケータが並んだ範囲内でアイテム・インジケータの位置と比較される。指先位置に対応する位置のアイテム・インジケータは、それが選択されることを示すための描画がされる。例えば、アイテム・インジケータは交互に色分け(例えばハイライト)されて描画されることができ、又は、アイテム・インジケータは、アイテム・インジケータが指先位置に対応するときに大きなサイズで描画されうる。他のアイテム・インジケータは、より大きいサイズとなる余地を形成するために移動できる。デバイスは、また、ユーザに対して選択の変更を示すために音を出すことができる。
いくつかの実施態様において、カメラから指先の距離は、リストのレベルの選択を制御する。距離の定義済み範囲は、多くのレベルに分けられている。アプリケーションは、カメラから指先の距離に対応するレベルにしたがって情報を示す。ユーザは、指をカメラに近づけたり、又はカメラから離したりして指先を動かすことによって、レベル間を切り替える。デバイスは、ユーザにレベルの変化を示すため、アニメーションを表示したり音を出したりすることができる。3次元の画像領域は定義されており、3次元の画像領域の距離成分は層に分けられる。
レベル内では、アイテム・インジケータが配置される所で、アイテムのリストが表示される。アイテム・インジケータは、列、行、格子又は行及び列、又は任意の装置に配置されうる。アイテム・インジケータは、テキスト又はアイコンを含むことができる。画像領域1001内での指先位置1007は、アイテム・インジケータが並んだ境界にマップされて、アイテム・インジケータが並ぶ範囲内でアイテム・インジケータの位置と比較される。指先位置に対応する位置でのアイテム・インジケータは、それが選択されたことを示すために描画される。例えば、アイテム・インジケータは交互に色分け(例えばハイライト)されて描画されることができ、又は、アイテム・インジケータは、アイテム・インジケータが指先位置に対応するときに、より大きいサイズで描画されることができる。他のアイテム・インジケータは、より大きいサイズとなる余地を形成するために移動させることができる。デバイスは、また、ユーザに選択の変化を示すために、音を出すことができる。
いくつかのアレンジにおいて、ユーザは、ユーザの指の方向を変えることによって、レベルを変える。ユーザは、ディスプレイ103に平行にユーザの指を回転させることでレベルを変える。ユーザは、ディスプレイ103に指を平行に置いて、9時の方向を指すように指を向けることによって、第1のレベルを選択できる。ユーザは、それから、12時の方向において、ある方向を指すために指を回転させて第2のレベルを選択することができ、それから、3時の方向において、ある方向を指すために指を回転させて、第3のレベルを選択できる。
さらに、いくつかの実施例で、ユーザは、ディスプレイ103での方向について、ユーザの指の方向又は角度を変えることによって、レベルを変える。これらの実施例において、ユーザは、ディスプレイ103の方へユーザの指を回転させることによって、レベルを変える。ユーザは、ユーザの指の方向を維持して、維持されている方向からユーザの指の方向を変えることによって、特定のレベル内でアイテムを選択する。
画像領域が行及び列に分かれている、又は3次元画像領域が行、列及びレイヤに分かれている実施態様において、指先を含む部分が拡張されるように、その境界は動的に調整されうる。指先を含む部分を拡張することは、行又は列を切り替えようと試みている間、ユーザが不注意にレイヤを切り替える可能性を減らすことができる。又は行を切り替えようと試みている間に列を不注意に切り替える可能性を減らすことができる。
図13Aを参照して、ゲームは、ディスプレイ103に表示される。指201の動き1301は、ゲームの内の動き1302にマップされる。この実施態様において、記載されている技術は、ユーザがシューティングゲームを操作できるようにするのに適している。例えば、指先位置は、ターゲティング機能にマップされる。指で操作するシューティングゲームの実施態様において、画像領域と関連する指先位置は、表示領域と関連して目標位置にマップされる。
図13Bは、一人称の視点を含む、指で操作するシューティングゲームの例を示す図である。表示領域1101が図示されており、そして、ターゲティング画像1303(例えば十字線)は指先位置に対応するインジケータ位置1102の標識として示される。ターゲット画像1304も、表示され、ユーザは、ターゲット画像1304の上にターゲティング画像1303を置くために、指を動かすことができる。
ユーザは、シューティング機能を起動させるために、ボタン104を押すか、又はキーパッド105のキーを押すことができる。他の実施態様において、ユーザは、シューティング機能を起動させるために、ジェスチャを実行できる。ジェスチャは、上記の通りに実行されることができ、また、検出されることができる。
指で操作するシューティングゲームは、図13Bで図示したように、一人称の視点で、例えば、描画できる。ユーザは、仮想環境の範囲内で視界を変えることが可能である。インジケータの位置1102を表示領域1101の左側にあるサブ領域1305内で移動させるようにユーザが指を動かす場合、視界は左側にスクロールする(又は回転する)。インジケータ位置1102を表示領域1101の右側にあるサブ領域1306内で移動させるようにユーザが指を動かす場合、視界は右側にスクロールする(又は回転する)。同様に、インジケータ位置1102を表示領域1101の上部にあるサブ領域(図示せず)内で移動させるようにユーザが指を動かす場合、ゲームは上方にスクロールする(又は回転する)。また、インジケータ位置1102を表示領域1101の下部にあるサブ領域(図示せず)内で移動させるようにユーザが指を動かす場合、ゲームは下側にスクロールする(又は回転する)。カメラから指先の距離が定義済みの閾値より近くなるようにユーザが指を動かす場合、ゲームは前方向に動く(又はズームインする)。カメラから指先の距離が、さらに定義済みの閾値より遠ざかるようにユーザが指を動かす場合、ゲームは後方向に動く(又はズームアウトする)。
他の実施態様において、一人称の視点で指で操作するシューティングゲームで、ユーザは、ボタン104、キーパッド105上のキー、方向パッド又はジョイスティックを押圧して、仮想環境内で視界を変える。
更なる実施態様において、指で操作するシューティングゲームで、指の位置は、仮想環境内で視界を制御する。この実施態様において、ターゲティング画像は、自動機能によって、静止した状態でもよく、制御された状態でもよい。一つの実施例において、速度は、画像領域(又は3次元画像領域)内の中心位置に関連する画像領域(又は3次元画像領域)内の指先位置の位置の違いとして算出される。他の例では、速度は画像領域(又は3次元画像領域)の中で中央に置かれたサブ領域の境界上で最も近い部分と関連する画像領域(又は3次元画像領域)内の指先位置の位置の違いとして算出される。ここで、サブ領域は「デッド・ゾーン」を示す。速度の水平成分は、仮想環境の範囲内で視点に適用される。そうすると、仮想環境の視界は水平に回転する(又はスクロールする)。速度の垂直成分は、仮想環境の範囲内で視点に適用される。そうすると、仮想環境の視界は垂直に回転する(又はスクロールする)。速度の距離成分は、仮想環境の範囲内で視点に適用される。そうすると、仮想視点の位置は、軌跡(又はズームした)に見えている現在の前方向への軌跡に沿って仮想環境で表現される。
図13Cは、3人称視点を含む指で操作するシューティングゲームの実施例を示す図である。この例の場合には、プレーヤ画像1307は、ディスプレイ103に描画される。武器画像1308は、武器の軌跡1309がインジケータ位置1102に揃えられるような方向で描画される。ユーザが指を動かすにつれて、武器画像1308と武器の軌跡1309は、インジケータ位置1102に追従する。いくつかの構成において、武器の軌跡1309は、ユーザの指の方向を変えると武器の軌跡1309が変わるように、ユーザがユーザの指で指す方向に対応する。
他の実施態様において、3人称視点を有する指で操作するシューティングゲームにおいて、ユーザは、ボタン104、キーパッド105上のキー、方向パッド又はジョイスティックを押圧して、プレーヤ画像を動かす。指で操作するシューティングゲームは、様々な形態をとることができる。ターゲット画像1304とプレーヤ画像1307は、例えば、宇宙船、車両、兵士、エイリアン、モンスター、漫画キャラクタ、ハンター及び獲物などを表現できる。
他の実施態様において、ユーザ入力技術は、画面を通じてスクロールすることや、ズームすることを提供する。画像は、写真、地図又は他のタイプのいかなる画像も含むことができる。地図は、縮尺が描画される詳細度を決定して地図は表示されうる。例えば、「ズームアウトされた」地図は都市の位置を示し、そして、「ズームインされた」地図は個々の市街を示す。
画像をズームする(例えば、縮尺を変える)プロセスは、画像の縮尺や「ズーム」をコントロールするためにカメラから指の距離を使用する。指がデバイスの上方に保持されるシステムの実施態様において、図3Aに示すように、カメラに近い距離は、大きな縮尺(すなわち、ズームイン)に対応する。その一方で、カメラから離れた距離は小さな縮尺(すなわち、ズームアウト)に対応する。
指がデバイスの下方に保持されるシステムの実施態様において、図3Bに示すように、カメラに近い距離は、小さな縮尺(すなわち、ズームアウト)に対応でき、その一方で、カメラから遠い距離は大きな縮尺(すなわち、ズームイン)に対応できる。他方で、カメラに近い距離は、大きな縮尺(すなわち、ズームイン)に対応でき、その一方で、カメラから遠い距離は小さな縮尺(すなわち、ズームアウト)に対応できる。ユーザは好ましい構成を選択することができ、その好ましい構成はユーザのために適用されうる。
画像の縮尺又は「ズーム」をコントロールするためにカメラから指の距離をマップする実施態様において、3次元画像領域の距離成分は、画像の大きさ(又は「ズーム」)範囲にマップされる。3次元画像領域と関連する指先位置の距離成分は、画像の大きさ(又は「ズーム」)範囲と関連して、画像の大きさ(又は「ズーム」)にマップされる。
他の実施態様において、画像をスクロールするプロセスは、画像をスクロールする(又は「左右に振る」)指位置を使用して達成される。画像領域1001内の指先位置は、ディスプレイ103に描画される画像の表示領域の位置にマップされる。指を動かすと、ディスプレイ103に描画される画像の表示領域が動く。それによって、画像をスクロールしたり、左右に振ったりする。
更なる実施態様において、画像をスクロールしたりズームしたりするプロセスは、画像領域1001を画像内の範囲にマップする。その範囲は、画像内のスクロール可能な範囲がズーム・レベルに依存している範囲である。例えば、ユーザは、画像全体をスクロールするために画面に平行に指を動かす。そして、画像の所望の部分が画面の中央に位置すると、ユーザは「ズームイン」するために画面に垂直な方向に指を動かす。一旦「ズームイン」すると、ユーザは、画像の一部をスクロールするために画面に平行に指を動かす。小さな縮尺(すなわち、ズームアウト)のためには、スクロール可能な範囲が画像全体を含むように定義され、その結果、画像のすべての部分は画像をスクロールすることにより示される。大きな縮尺(すなわち、ズームイン)のためには、スクロール可能な範囲が画像の一部を含むように定義される。その結果、画像のズームされた部分は正確にスクロールされることができる。スクロール可能な範囲は、縮尺と直線的に比例していてもよい。
他の実施態様において、ユーザ入力技術は、仮想環境内のナビゲートに提供される。仮想環境は、ゲームの一部であってよく、上述のゲーム・タイプに限られないものも含む。アプリケーション又はゲームは、コンピュータ・グラフィック技術を使用しているディスプレイに仮想環境を描画する。
仮想環境内のナビゲーションは、仮想3次元空間内で動かすことができ、また、システムは、仮想3次元空間内で、ナビゲーションをコントロールするためにユーザ入力を提供する。例えば、速度は、画像領域(又は3次元画像領域)内での中央位置に対する画像領域(又は3次元画像領域)内の指先位置での位置の違いとして算出される。他の例では、速度は、画像領域(又は3次元画像領域)内で中央に置かれたサブ領域の境界に最も近い部分と関連する画像領域(又は3次元画像領域)内での指先位置の位置の違いとして算出される。ここで、サブ領域は「デッド・ゾーン」を表現する。速度を算出した後に、速度の水平成分は仮想環境内の視点に適用される。そうすると、仮想環境の視点は、水平方向に回転する(又はスクロールする)。速度の垂直成分は、仮想環境内の視点に適用される。そうすると、仮想環境の視点は垂直方向に回転する(又はスクロールする)。速度の距離成分は仮想環境内での視点に適用される。そうすると、仮想視点の位置は、軌跡(又はズームした)に見えている現在の前方向への軌跡に沿って仮想環境で表現される。
他の実施態様において、ユーザ入力技術は、ユーザは仮想オブジェクトを置いたり、回転させることができるように提供される。この実施態様において、アプリケーション又はゲームは、コンピュータ・グラフィック技術を使用している画面に、仮想オブジェクトを描画する。例えば、ユーザは、画面に平行に指を動かすことによって、仮想オブジェクトを回転させる。この例の場合には、画像領域1001は、回転の範囲にマップされ、そして、画像領域内の指先位置は回転の範囲内の角度にマップされる。他の実施例において、ユーザは、ディスプレイに垂直な方向に指を動かすことによって、「ズームイン」や「ズームアウト」を行う。この例の場合には、カメラからの指先の距離は、仮想オブジェクトの縮尺にマップされる。
指の位置及び方向を追跡する方法は、上述のゲーム以外のアプリケーションやゲームにおいて、用いられることが可能である。加えて、ユーザ入力を提供する上述の技術は、カメラ又は他の撮像デバイスを含むいかなるデバイスにおいても使うことができる。
実施態様は、例えば、プロセス、デバイス、又はプロセスを実行するためのデバイスを含むことができる。例えば、実施態様は、一以上のプロセスを実行するように構成される一以上のデバイスを含むことができる。デバイスは、例えば、別体の又は一体化したハードウェア、ファームウェア及びソフトウェアを含むことができる。デバイスは、特にその一つ以上の上述のプロセス又はバリエーションを実行するプログラムがされたものであるときには、例えば、コンピューティング装置又は他のコンピュータ、又は処理デバイスを含むことができる。このようなコンピューティング又は処理デバイスは、例えば、プロセッサ、集積回路、プログラマブル・ロジック・デバイス、パーソナル・コンピュータ、パーソナル携帯情報機器、ゲーム・デバイス、携帯電話、計算機及びソフトウェアアプリケーションを含むデバイスを含むことができる。
実施態様は、また、一つ以上のプロセスを実行するための命令を有する一つ以上のコンピュータ読み取り可能なメディアを含むデバイスで例示されることができる。コンピュータ読み取り可能なメディアは、例えば、記憶デバイス、メモリ、及び命令をコード化又は送信されたフォーマットされた電磁波を含むことができる。読み込み可能なメディアは、また、例えば、ハードディスク、フラッシュメモリ、ランダムアクセスメモリ、読取り専用メモリ及びコンパクト・ディスケットのような、様々な非揮発性又は揮発性の記憶構造を含むことができる。命令は、例えば、ハードウェア、ファームウェア、ソフトウェア、そして電磁波に記憶されることができる。
このように、コンピューティング装置は、上述の実施態様を実行するようにプログラムされたコンピューティング装置の実施態様を表現できる。そして、記憶デバイスは、上述の実施態様を実行するための命令を記憶しているコンピュータ読み取り可能なメディアを表現できる。
多くの実施態様が記載されている。にもかかわらず、さまざまな修正が可能であることが理解されよう。したがって、他の実施態様は、以下の請求項の範囲内に含まれる。

Claims (25)

  1. 以下の処理を含むコンピュータ実行方法であって、
    指の解剖学的モデルを使用して、電子デバイスと相互作用するユーザの手の画像から前記ユーザの手の指の方向を検出し、
    前記検出した方向を制御入力にマッピングし、
    そして、前記制御入力に基づいてアプリケーションを制御することを含み、
    前記解剖学的モデルが、前記ユーザの手の画像から判定されるリンクされたセグメントとの比較のための情報を含む
  2. 請求項1に記載の方法であって、
    前記電子デバイスと相互作用するユーザの手の画像から前記ユーザの手の指の位置を検出することをさらに含み、
    前記制御入力は検出位置に基づいてマップされる。
  3. 請求項2に記載の方法であって、
    前記制御入力は、
    前記指の検出位置及び検出方向に対応して仮想環境における位置及び方向を定め、
    前記制御入力に基づいて前記アプリケーションを制御することには、
    前記指の前記検出位置及び前記検出方向に対応して、前記仮想環境の仮想オブジェクトを、前記仮想環境での前記位置及び前記方向に動かすように制御し、
    前記指の前記検出位置及び前記検出方向に対応して、前記仮想環境における前記位置及び前記方向で前記仮想オブジェクトの表示を描画することを含む。
  4. 請求項1に記載の方法であって、
    前記指の前記解剖学的モデルを使用して、前記電子デバイスと相互作用する前記ユーザの手の前記画像中の前記ユーザの手の前記指の方向を検出することには、
    指先に対応する前記指の第1の部分を識別し、
    前記指の付け根に対応する前記指の第2の部分を識別し、
    前記指の前記第1の部分及び前記指の第2の部分との間のベクトルを算出し、
    前記ベクトルに基づいて前記指の方向を決定することを含む。
  5. 請求項1に記載の方法であって、
    前記指の前記解剖学的モデルを使用して、電子デバイスと相互作用する前記ユーザの手の前記画像中の前記ユーザの手の前記指の方向を検出し、
    前記指の画像を獲得し、
    そして、前記画像のエッジを処理することを含む。
  6. 請求項5に記載の方法であって、
    前記指に対して実質的に垂直な方向を有するスキャンライン上の画像をセグメント化することを更に含む。
  7. 請求項1に記載の方法であって、
    前記指の輪郭を検出することをさらに含む。
  8. 請求項7に記載の方法であって、
    前記指の前記輪郭は、
    前記画像における画像強度の勾配を算出し、
    前記画像強度の勾配における少なくとも一つの極小値及び極大値を特定することを含む。
  9. 請求項1に記載の方法であって、
    前記指の前記解剖学的モデルを使用して、電子デバイスと相互作用する前記ユーザの手の画像から前記手の前記指の前記方向を検出することは、
    前記指の皮膚のしわに対応する画像の領域を識別し、
    前記画像内で前記指を検出する際の前記指の皮膚のしわに対応する、前記識別された領域を無視することを含む。
  10. 請求項1に記載の方法であって、
    前記指の前記解剖学的モデルを使用して、前記電子デバイスと相互作用する前記ユーザの前記手の画像から前記ユーザの手の前記指の前記方向を検出することは、
    オブジェクトの大きさ、前記オブジェクトの形状、及び前記オブジェクトが前記画像の境界と交差するどうかに基づいて、前記指として前記画像内で一のオブジェクトを選択することを含む。
  11. 請求項1に記載された方法であって、
    前記解剖学的モデルを使用して、前記指の前記方向を検出することは、
    前記指の前記解剖学的モデルを使用して、前記電子デバイスのディスプレイと平行に配置された前記指の方向を検出することを含み、
    前記解剖学的モデルは、前記指の付け根から前記指の先端までのびる指のモデルである。
  12. 以下からなる装置であって、
    指の解剖学的モデルを使用して、電子デバイスと相互作用するユーザの手の画像から前記ユーザの手の前記指の方向を検出するように構成された画像検出器と、
    前記検出した方向を制御入力にマップして、前記制御入力に基づいてアプリケーションを制御するように構成されたプロセッサと、を備え、
    前記解剖学的モデルが、前記ユーザの手の画像から判定されるリンクされたセグメントとの比較のための情報を含む
  13. 請求項12に記載の装置であって、
    前記画像検出器は、携帯電話、携帯用のビデオゲーム・システム、携帯型音楽プレーヤ、パーソナル・データ・アシスタント、遠隔制御装置又はデジタル・カメラに配置される。
  14. コンピュータ・プログラムを含むコンピュータ可読媒体であって、
    前記コンピュータ・プログラムは、実行時に、コンピュータに以下の、
    指の解剖学的モデルを使用して、電子デバイスと相互作用するユーザの手の画像における前記ユーザの手の指の方向を検出し、
    検出方向を制御入力にマップし、
    前記制御入力に基づいてアプリケーションを制御する処理を実行させる命令を含み、
    前記解剖学的モデルが、前記ユーザの手の画像から判定されるリンクされたセグメントとの比較のための情報を含む
  15. 以下を含むコンピュータ実行方法であって、
    電子デバイスと相互作用するユーザの手の画像にアクセスし、
    指の解剖学的モデルを使用して、オブジェクトの大きさ、前記オブジェクトの形状、及び前記オブジェクトが前記画像内の境界線と交差するか否かに基づいて、前記ユーザの手の指として前記画像のオブジェクトを識別し、
    前記ユーザの手の指として前記画像内で識別された前記オブジェクトの位置を決定し、
    検出位置を制御入力にマップし、
    前記制御入力に基づいてアプリケーションを制御することを含み、
    前記解剖学的モデルが、前記ユーザの手の画像から判定されるリンクされたセグメントとの比較のための情報を含む
  16. 請求項15に記載の方法であって、
    前記ユーザの手の前記指として前記画像内の前記オブジェクトを識別することには、
    指の解剖学的モデルに対応する細長い形状を有するオブジェクトに基づいて、前記ユーザの手の前記指として前記画像内の前記オブジェクトを識別することを含む。
  17. 請求項15に記載の方法であって、
    前記ユーザの手の前記指として、前記画像内の前記オブジェクトを識別することには、
    前記指の解剖学的モデルに基づいて、前記電子デバイスのディスプレイと平行に置かれた前記ユーザの手の前記指として前記画像中の前記オブジェクトを識別することを含み、
    前記解剖学的モデルは、前記指の付け根から前記指の先端まで延びる指のモデルを含む
  18. 請求項15に記載の方法であって、
    前記検出位置を前記制御入力にマップすることは、前記検出位置を、表示領域における前記指の前記検出位置に対応する位置にマップすることを含み、
    前記制御入力に基づいて前記アプリケーションを制御することは、表示されたインジケータを、前記指の前記検出位置に対応して前記表示領域内の位置に動かすことを含む。
  19. 請求項15に記載の方法であって、
    前記検出位置を前記制御入力にマップすることは、指の検出位置に対応する表示されたユーザ・インタフェースの位置で入力制御を識別して、識別された入力制御と関連した動作を決定することを含み、
    前記入力制御に基づいてアプリケーションを制御することは、前記識別された入力制御と関連した動作を実行することを含む。
  20. 請求項15に記載の方法であって、
    前記ユーザの手の前記指として前記画像内で識別された前記オブジェクトの位置を決定することは、
    前記画像における前記指の幅を決定し、
    決定された前記幅に基づいて前記画像を取り込んだカメラに対する前記指の奥行き位置を推定し、
    前記制御入力は、推定された前記奥行き位置に基づいてマップされる。
  21. 請求項15に記載の方法であって、
    前記ユーザの手の前記指として前記画像内で識別されたオブジェクトの位置を決定することは、
    指先に対応する前記指の一部を検出し、
    前記指先に対応する前記指の一部の中央位置として前記位置を決定することを含む。
  22. 請求項15に記載の方法であって、
    画像領域の境界が前記画像の境界から予想される指先の幅の少なくとも半分の距離で離れた位置であるように、前記画像の範囲内で画像領域を定めることをさらに含み、
    前記指の前記位置は定められた画像領域の範囲内で検出される。
  23. 請求項22に記載の方法であって、
    前記指先の位置は、前記指先が画像領域の外で検出されるときに、前記画像領域の境界の位置にマップされる。
  24. 以下からなるデバイスであって、
    電子デバイスと相互作用するユーザの手の画像を取り込むように構成されたカメラと、
    前記電子デバイスと相互作用する前記ユーザの手の前記画像にアクセスし、指の解剖学的モデルを使用して、オブジェクトの大きさ、前記オブジェクトの形状、及び前記オブジェクトが前記画像の境界と交差するかどうかに基づいて、前記ユーザの手の指として前記画像のオブジェクトを識別し、前記ユーザの手の前記指として前記画像中に識別された前記オブジェクトの位置を決定し、検出位置を制御入力にマップし、前記制御入力に基づいてアプリケーションを制御するように構成されたプロセッサと、を備え、
    前記解剖学的モデルが、前記ユーザの手の画像から判定されるリンクされたセグメントとの比較のための情報を含む
  25. コンピュータ・プログラムを含むコンピュータ可読媒体であって、
    前記コンピュータ・プログラムは、実行時に、コンピュータに以下の、
    電子デバイスと相互作用するユーザの手の画像にアクセスし、
    指の解剖学的モデルを使用して、オブジェクトの大きさ、前記オブジェクトの形状、及び前記オブジェクトが前記画像の境界と交差するかどうかに基づいて、前記ユーザの手の指として前記画像のオブジェクトを識別し、
    前記ユーザの手の前記指として前記画像において識別された前記オブジェクトの位置を決定し、
    検出位置を制御入力にマップし、
    前記制御入力に基づいてアプリケーションを制御する処理を実行させる命令を含み、
    前記解剖学的モデルが、前記ユーザの手の画像から判定されるリンクされたセグメントとの比較のための情報を含む
JP2010507553A 2007-05-04 2008-05-02 コンパクト・デバイスのためのカメラ・ベースのユーザ入力 Active JP5453246B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US91606307P 2007-05-04 2007-05-04
US60/916,063 2007-05-04
PCT/US2008/062456 WO2008137708A1 (en) 2007-05-04 2008-05-02 Camera-based user input for compact devices

Publications (2)

Publication Number Publication Date
JP2010526391A JP2010526391A (ja) 2010-07-29
JP5453246B2 true JP5453246B2 (ja) 2014-03-26

Family

ID=39939568

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010507553A Active JP5453246B2 (ja) 2007-05-04 2008-05-02 コンパクト・デバイスのためのカメラ・ベースのユーザ入力

Country Status (5)

Country Link
US (1) US8472665B2 (ja)
EP (1) EP2153377A4 (ja)
JP (1) JP5453246B2 (ja)
CN (1) CN101689244B (ja)
WO (1) WO2008137708A1 (ja)

Families Citing this family (230)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9195344B2 (en) * 2002-12-10 2015-11-24 Neonode Inc. Optical surface using a reflected image for determining three-dimensional position information
KR100960577B1 (ko) 2005-02-08 2010-06-03 오블롱 인더스트리즈, 인크 제스처 기반의 제어 시스템을 위한 시스템 및 방법
US8537112B2 (en) * 2006-02-08 2013-09-17 Oblong Industries, Inc. Control system for navigating a principal dimension of a data space
US8537111B2 (en) * 2006-02-08 2013-09-17 Oblong Industries, Inc. Control system for navigating a principal dimension of a data space
US8370383B2 (en) 2006-02-08 2013-02-05 Oblong Industries, Inc. Multi-process interactive systems and methods
US8531396B2 (en) 2006-02-08 2013-09-10 Oblong Industries, Inc. Control system for navigating a principal dimension of a data space
US9075441B2 (en) * 2006-02-08 2015-07-07 Oblong Industries, Inc. Gesture based control using three-dimensional information extracted over an extended depth of field
US9910497B2 (en) 2006-02-08 2018-03-06 Oblong Industries, Inc. Gestural control of autonomous and semi-autonomous systems
US9823747B2 (en) 2006-02-08 2017-11-21 Oblong Industries, Inc. Spatial, multi-modal control device for use with spatial operating system
JP5905662B2 (ja) 2007-04-24 2016-04-20 オブロング・インダストリーズ・インコーポレーテッド プロテイン、プール、およびスロークス処理環境
JP5453246B2 (ja) * 2007-05-04 2014-03-26 クアルコム,インコーポレイテッド コンパクト・デバイスのためのカメラ・ベースのユーザ入力
US8678895B2 (en) 2007-06-14 2014-03-25 Harmonix Music Systems, Inc. Systems and methods for online band matching in a rhythm action game
US8678896B2 (en) 2007-06-14 2014-03-25 Harmonix Music Systems, Inc. Systems and methods for asynchronous band interaction in a rhythm action game
US8726194B2 (en) 2007-07-27 2014-05-13 Qualcomm Incorporated Item selection using enhanced control
US8077143B2 (en) 2007-09-27 2011-12-13 Microsoft Corporation Motion based display management
WO2009128064A2 (en) * 2008-04-14 2009-10-22 Pointgrab Ltd. Vision based pointing device emulation
US9684380B2 (en) 2009-04-02 2017-06-20 Oblong Industries, Inc. Operating environment with gestural control and multiple client devices, displays, and users
US9952673B2 (en) 2009-04-02 2018-04-24 Oblong Industries, Inc. Operating environment comprising multiple client devices, multiple displays, multiple users, and gestural control
US9740922B2 (en) 2008-04-24 2017-08-22 Oblong Industries, Inc. Adaptive tracking system for spatial input devices
US9495013B2 (en) 2008-04-24 2016-11-15 Oblong Industries, Inc. Multi-modal gestural interface
US10642364B2 (en) 2009-04-02 2020-05-05 Oblong Industries, Inc. Processing tracking and recognition data in gestural recognition systems
US8723795B2 (en) 2008-04-24 2014-05-13 Oblong Industries, Inc. Detecting, representing, and interpreting three-space input: gestural continuum subsuming freespace, proximal, and surface-contact modes
US9740293B2 (en) 2009-04-02 2017-08-22 Oblong Industries, Inc. Operating environment with gestural control and multiple client devices, displays, and users
US8160564B1 (en) * 2008-06-10 2012-04-17 Sprint Communications Company L.P. Remote control of computing device applications using mobile device
KR101652535B1 (ko) * 2008-06-18 2016-08-30 오블롱 인더스트리즈, 인크 차량 인터페이스를 위한 제스처 기반 제어 시스템
WO2010006054A1 (en) 2008-07-08 2010-01-14 Harmonix Music Systems, Inc. Systems and methods for simulating a rock and band experience
JP4609543B2 (ja) * 2008-07-25 2011-01-12 ソニー株式会社 情報処理装置及び情報処理方法
US8351979B2 (en) * 2008-08-21 2013-01-08 Apple Inc. Camera as input interface
KR20100039017A (ko) * 2008-10-07 2010-04-15 한국전자통신연구원 메뉴 마크업 언어를 이용한 원격 제어 장치
JP5529146B2 (ja) * 2008-10-10 2014-06-25 クアルコム,インコーポレイテッド シングルカメラトラッキング装置
KR100975869B1 (ko) * 2008-10-17 2010-08-13 삼성모바일디스플레이주식회사 터치 포인트 검출 방법 및 장치
US9383814B1 (en) 2008-11-12 2016-07-05 David G. Capper Plug and play wireless video game
US10086262B1 (en) 2008-11-12 2018-10-02 David G. Capper Video motion capture for wireless gaming
US9586135B1 (en) 2008-11-12 2017-03-07 David G. Capper Video motion capture for wireless gaming
US20100138797A1 (en) * 2008-12-01 2010-06-03 Sony Ericsson Mobile Communications Ab Portable electronic device with split vision content sharing control and method
EP2372653B1 (en) * 2008-12-24 2015-07-22 Sony Computer Entertainment Inc. Image processing device and image processing method
US8289288B2 (en) 2009-01-15 2012-10-16 Microsoft Corporation Virtual object adjustment via physical object detection
KR101119325B1 (ko) * 2009-01-22 2012-03-06 삼성전자주식회사 휴대 단말기
US20100188337A1 (en) * 2009-01-28 2010-07-29 W.W. Grainger, Inc. Computer mouse providing a touchless input interface
JP4771183B2 (ja) * 2009-01-30 2011-09-14 株式会社デンソー 操作装置
US8624962B2 (en) * 2009-02-02 2014-01-07 Ydreams—Informatica, S.A. Ydreams Systems and methods for simulating three-dimensional virtual interactions from two-dimensional camera images
US8517834B2 (en) * 2009-02-17 2013-08-27 Softkinetic Studios Sa Computer videogame system with body position detector that requires user to assume various body positions
KR101016095B1 (ko) * 2009-02-20 2011-02-17 성균관대학교산학협력단 이진영상들 및 하프변환을 이용한 영상 배경 변화량 검출 장치 및 방법
JP2010210490A (ja) * 2009-03-11 2010-09-24 Ricoh Co Ltd 移動計測装置及び方法、並びにプログラム
US10824238B2 (en) 2009-04-02 2020-11-03 Oblong Industries, Inc. Operating environment with gestural control and multiple client devices, displays, and users
US9317128B2 (en) 2009-04-02 2016-04-19 Oblong Industries, Inc. Remote devices used in a markerless installation of a spatial operating environment incorporating gestural control
WO2010118202A1 (en) * 2009-04-08 2010-10-14 Gesturetek, Inc. Enhanced handheld screen-sensing pointer
JP5182202B2 (ja) * 2009-04-14 2013-04-17 ソニー株式会社 情報処理装置、情報処理方法及び情報処理プログラム
US20100271303A1 (en) * 2009-04-27 2010-10-28 Shoei-Lai Chen Non-contact mouse apparatus and method for operating the same
US20100271297A1 (en) * 2009-04-27 2010-10-28 Shoei-Lai Chen Non-contact touchpad apparatus and method for operating the same
US8465366B2 (en) 2009-05-29 2013-06-18 Harmonix Music Systems, Inc. Biasing a musical performance input to a part
US8449360B2 (en) 2009-05-29 2013-05-28 Harmonix Music Systems, Inc. Displaying song lyrics and vocal cues
US20100309197A1 (en) * 2009-06-08 2010-12-09 Nvidia Corporation Interaction of stereoscopic objects with physical objects in viewing area
US20100315413A1 (en) * 2009-06-16 2010-12-16 Microsoft Corporation Surface Computer User Interaction
JP5402322B2 (ja) * 2009-07-02 2014-01-29 ソニー株式会社 情報処理装置および情報処理方法
US8388151B2 (en) * 2009-07-23 2013-03-05 Kenneth J. Huebner Object aware, transformable projection system
JP5230558B2 (ja) * 2009-08-05 2013-07-10 株式会社エルモ社 資料提示装置
JP5552772B2 (ja) * 2009-08-26 2014-07-16 ソニー株式会社 情報処理装置、情報処理方法およびコンピュータプログラム
US8438503B2 (en) * 2009-09-02 2013-05-07 Universal Electronics Inc. System and method for enhanced command input
KR101648339B1 (ko) 2009-09-24 2016-08-17 삼성전자주식회사 휴대용 단말기에서 영상인식 및 센서를 이용한 서비스 제공 방법 및 장치
US20110074675A1 (en) * 2009-09-29 2011-03-31 Nokia Corporation Method and apparatus for initiating a feature based at least in part on the tracked movement
KR101613529B1 (ko) * 2009-10-07 2016-04-19 엘지이노텍 주식회사 카메라 모듈
GB2483168B (en) 2009-10-13 2013-06-12 Pointgrab Ltd Computer vision gesture based control of a device
US9971807B2 (en) 2009-10-14 2018-05-15 Oblong Industries, Inc. Multi-process interactive systems and methods
US9933852B2 (en) 2009-10-14 2018-04-03 Oblong Industries, Inc. Multi-process interactive systems and methods
US10357714B2 (en) 2009-10-27 2019-07-23 Harmonix Music Systems, Inc. Gesture-based user interface for navigating a menu
US9981193B2 (en) 2009-10-27 2018-05-29 Harmonix Music Systems, Inc. Movement based recognition and evaluation
US8255006B1 (en) * 2009-11-10 2012-08-28 Fusionone, Inc. Event dependent notification system and method
US20110199387A1 (en) * 2009-11-24 2011-08-18 John David Newton Activating Features on an Imaging Device Based on Manipulations
US8325136B2 (en) 2009-12-01 2012-12-04 Raytheon Company Computer display pointer device for a display
KR101092722B1 (ko) * 2009-12-02 2011-12-09 현대자동차주식회사 차량의 멀티미디어 시스템 조작용 사용자 인터페이스 장치
EP2507683A1 (en) * 2009-12-04 2012-10-10 Next Holdings Limited Methods and systems for position detection using an interactive volume
US8421635B2 (en) * 2009-12-10 2013-04-16 Wei-Ting Liu Patient bed
KR20110074017A (ko) * 2009-12-24 2011-06-30 삼성전자주식회사 멀티미디어 기기 및 그 동작 제어 방법
KR20110076458A (ko) * 2009-12-29 2011-07-06 엘지전자 주식회사 디스플레이 장치 및 그 제어방법
US9344753B2 (en) * 2009-12-30 2016-05-17 Crytek Gmbh Mobile input and sensor device for a computer-controlled video entertainment system
US20120297341A1 (en) * 2010-02-16 2012-11-22 Screenovate Technologies Ltd. Modified Operating Systems Allowing Mobile Devices To Accommodate IO Devices More Convenient Than Their Own Inherent IO Devices And Methods For Generating Such Systems
US8550908B2 (en) 2010-03-16 2013-10-08 Harmonix Music Systems, Inc. Simulating musical instruments
CN102918477B (zh) * 2010-04-13 2017-07-21 诺基亚技术有限公司 装置、方法、计算机程序和用户接口
US20110254939A1 (en) * 2010-04-16 2011-10-20 Tatiana Pavlovna Kadantseva Detecting User Input Provided To A Projected User Interface
US8562403B2 (en) 2010-06-11 2013-10-22 Harmonix Music Systems, Inc. Prompting a player of a dance game
CA2802348A1 (en) 2010-06-11 2011-12-15 Harmonix Music Systems, Inc. Dance game and tutorial
US9358456B1 (en) 2010-06-11 2016-06-07 Harmonix Music Systems, Inc. Dance competition game
KR101699298B1 (ko) * 2010-06-30 2017-01-24 엘지전자 주식회사 이동 단말기 및 이동 단말기의 제어 방법
US9024166B2 (en) 2010-09-09 2015-05-05 Harmonix Music Systems, Inc. Preventing subtractive track separation
EP2428870A1 (en) * 2010-09-13 2012-03-14 Samsung Electronics Co., Ltd. Device and method for controlling gesture for mobile device
US8890803B2 (en) 2010-09-13 2014-11-18 Samsung Electronics Co., Ltd. Gesture control system
JP5597087B2 (ja) * 2010-10-04 2014-10-01 パナソニック株式会社 仮想物体操作装置
US8610831B2 (en) 2010-10-12 2013-12-17 Nokia Corporation Method and apparatus for determining motion
US9952671B2 (en) * 2010-10-12 2018-04-24 Nokia Technologies Oy Method and apparatus for determining motion
KR101646616B1 (ko) * 2010-11-30 2016-08-12 삼성전자주식회사 객체 제어 장치 및 방법
JP2012115414A (ja) * 2010-11-30 2012-06-21 Nintendo Co Ltd ゲーム装置、ゲームを提供する方法、ゲームプログラム、および、ゲームシステム
KR101799270B1 (ko) * 2010-12-29 2017-11-21 엘지전자 주식회사 이동 단말기 및 이것의 터치 인식 방법
DE102011002577A1 (de) 2011-01-12 2012-07-12 3Vi Gmbh Fernsteuerungseinrichtung zur Steuerung einer Vorrichtung anhand eines beweglichen Objektes sowie Schnittstellen-Modul zur Kommunikation zwischen Modulen einer derartigen Fernsteuerungseinrichtung oder zwischen einem der Module und einer externen Vorrichtung
US9170606B2 (en) * 2011-01-31 2015-10-27 Panasonic Intellectual Property Management Co., Ltd. Information processing device, processing control method, program, and recording medium
CN103347437B (zh) 2011-02-09 2016-06-08 苹果公司 3d映射环境中的凝视检测
US10025388B2 (en) * 2011-02-10 2018-07-17 Continental Automotive Systems, Inc. Touchless human machine interface
GB201103346D0 (en) * 2011-02-28 2011-04-13 Dev Ltd Improvements in or relating to optical navigation devices
US9104239B2 (en) * 2011-03-09 2015-08-11 Lg Electronics Inc. Display device and method for controlling gesture functions using different depth ranges
US9189068B2 (en) * 2011-03-14 2015-11-17 Lg Electronics Inc. Apparatus and a method for gesture recognition
CN102681754B (zh) * 2011-03-16 2016-03-30 联想(北京)有限公司 信息处理设备和信息处理方法
JP5779923B2 (ja) * 2011-03-17 2015-09-16 ソニー株式会社 情報処理装置、情報処理方法およびコンピュータプログラム
US8928589B2 (en) * 2011-04-20 2015-01-06 Qualcomm Incorporated Virtual keyboards and methods of providing the same
US11048333B2 (en) * 2011-06-23 2021-06-29 Intel Corporation System and method for close-range movement tracking
KR101189633B1 (ko) * 2011-08-22 2012-10-10 성균관대학교산학협력단 손가락 움직임에 따른 포인터 제어명령어 인식 방법 및 손가락 움직임에 따라 포인터를 제어하는 모바일 단말
JP2014211661A (ja) * 2011-08-29 2014-11-13 シャープ株式会社 検出装置、検出方法および検出プログラム
US8678927B2 (en) 2011-10-04 2014-03-25 Microsoft Corporation Game controller on mobile touch-enabled devices
US20130088429A1 (en) * 2011-10-05 2013-04-11 Pantech Co., Ltd. Apparatus and method for recognizing user input
JP5576571B2 (ja) * 2011-10-11 2014-08-20 インターナショナル・ビジネス・マシーンズ・コーポレーション オブジェクト指示方法、装置及びコンピュータ・プログラム
CN102426480A (zh) * 2011-11-03 2012-04-25 康佳集团股份有限公司 一种人机交互系统及其实时手势跟踪处理方法
CN103108197A (zh) 2011-11-14 2013-05-15 辉达公司 一种用于3d视频无线显示的优先级压缩方法和系统
US9628843B2 (en) * 2011-11-21 2017-04-18 Microsoft Technology Licensing, Llc Methods for controlling electronic devices using gestures
US8959604B2 (en) 2011-11-25 2015-02-17 Synchronoss Technologies, Inc. System and method of verifying a number of a mobile terminal
US9274597B1 (en) * 2011-12-20 2016-03-01 Amazon Technologies, Inc. Tracking head position for rendering content
US9625993B2 (en) 2012-01-11 2017-04-18 Biosense Webster (Israel) Ltd. Touch free operation of devices by use of depth sensors
US9931154B2 (en) 2012-01-11 2018-04-03 Biosense Webster (Israel), Ltd. Touch free operation of ablator workstation by use of depth sensors
US20130188825A1 (en) * 2012-01-19 2013-07-25 Utechzone Co., Ltd. Image recognition-based startup method
US9829715B2 (en) 2012-01-23 2017-11-28 Nvidia Corporation Eyewear device for transmitting signal and communication method thereof
US20130194173A1 (en) * 2012-02-01 2013-08-01 Ingeonix Corporation Touch free control of electronic systems and associated methods
EP2624116B1 (en) 2012-02-03 2017-09-06 EchoStar Technologies L.L.C. Display zoom controlled by proximity detection
JP2013171529A (ja) * 2012-02-22 2013-09-02 Shimane Prefecture 操作入力装置、操作判定方法およびプログラム
KR101791366B1 (ko) 2012-03-26 2017-10-27 애플 인크. 증강된 가상 터치패드 및 터치스크린
KR20130109817A (ko) 2012-03-28 2013-10-08 삼성전자주식회사 손가락 패턴을 이용한 손 모양 인식 장치 및 방법
CN102662577B (zh) * 2012-03-29 2016-08-10 华为终端有限公司 一种基于三维显示的光标操作方法及移动终端
US9477303B2 (en) 2012-04-09 2016-10-25 Intel Corporation System and method for combining three-dimensional tracking with a three-dimensional display for a user interface
DE102012206850A1 (de) * 2012-04-25 2013-10-31 Robert Bosch Gmbh Telekommunikationsgerät mit einer Projektionseinrichtung und Verfahren zum Betrieb eines Telekommunikationsgeräts mit einer Projektionseinrichtung
US8938124B2 (en) 2012-05-10 2015-01-20 Pointgrab Ltd. Computer vision based tracking of a hand
US9747306B2 (en) * 2012-05-25 2017-08-29 Atheer, Inc. Method and apparatus for identifying input features for later recognition
US9400575B1 (en) 2012-06-20 2016-07-26 Amazon Technologies, Inc. Finger detection for element selection
US9213436B2 (en) 2012-06-20 2015-12-15 Amazon Technologies, Inc. Fingertip location for gesture input
JP5852928B2 (ja) * 2012-06-27 2016-02-03 株式会社オプティム 所作入力装置、所作入力方法及びプログラム
US9195310B2 (en) * 2012-07-09 2015-11-24 Samsung Electronics Co., Ltd. Camera cursor system
US20140022171A1 (en) * 2012-07-19 2014-01-23 Omek Interactive, Ltd. System and method for controlling an external system using a remote device with a depth sensor
KR20140019950A (ko) * 2012-08-07 2014-02-18 성균관대학교산학협력단 단말기의 모노 카메라에 입력된 손가락 영상을 이용한 3차원 좌표 생성 방법 및 모노 카메라에 입력된 손가락 영상을 이용하여 3차원 좌표를 생성하는 이동 단말기
CN103576848B (zh) * 2012-08-09 2016-07-13 腾讯科技(深圳)有限公司 手势操作方法和手势操作装置
US20140062864A1 (en) * 2012-09-03 2014-03-06 Samsung Electronics Co., Ltd. Method and apparatus for extracting three-dimensional distance information from recognition target
US9578224B2 (en) 2012-09-10 2017-02-21 Nvidia Corporation System and method for enhanced monoimaging
JP2014059803A (ja) * 2012-09-19 2014-04-03 Alps Electric Co Ltd 入力装置
US9898183B1 (en) * 2012-09-19 2018-02-20 Amazon Technologies, Inc. Motions for object rendering and selection
US20140085245A1 (en) * 2012-09-21 2014-03-27 Amazon Technologies, Inc. Display integrated camera array
US20140088402A1 (en) 2012-09-25 2014-03-27 Innovative Therapies, Inc. Wound measurement on smart phones
US9690384B1 (en) * 2012-09-26 2017-06-27 Amazon Technologies, Inc. Fingertip location determinations for gesture input
US9310895B2 (en) 2012-10-12 2016-04-12 Microsoft Technology Licensing, Llc Touchless input
DE102012219736A1 (de) * 2012-10-29 2014-04-30 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zum Betreiben einer Eingabevorrichtung
US11157436B2 (en) 2012-11-20 2021-10-26 Samsung Electronics Company, Ltd. Services associated with wearable electronic device
US8994827B2 (en) 2012-11-20 2015-03-31 Samsung Electronics Co., Ltd Wearable electronic device
US10423214B2 (en) 2012-11-20 2019-09-24 Samsung Electronics Company, Ltd Delegating processing from wearable electronic device
US9477313B2 (en) 2012-11-20 2016-10-25 Samsung Electronics Co., Ltd. User gesture input to wearable electronic device involving outward-facing sensor of device
US10185416B2 (en) * 2012-11-20 2019-01-22 Samsung Electronics Co., Ltd. User gesture input to wearable electronic device involving movement of device
US10551928B2 (en) 2012-11-20 2020-02-04 Samsung Electronics Company, Ltd. GUI transitions on wearable electronic device
US11372536B2 (en) 2012-11-20 2022-06-28 Samsung Electronics Company, Ltd. Transition and interaction model for wearable electronic device
US11237719B2 (en) 2012-11-20 2022-02-01 Samsung Electronics Company, Ltd. Controlling remote electronic device with wearable electronic device
US9030446B2 (en) * 2012-11-20 2015-05-12 Samsung Electronics Co., Ltd. Placement of optical sensor on wearable electronic device
US20140152566A1 (en) * 2012-12-05 2014-06-05 Brent A. Safer Apparatus and methods for image/sensory processing to control computer operations
KR101416749B1 (ko) * 2012-12-13 2014-07-08 주식회사 케이티 Tv 재생 장치 및 방법
KR101956073B1 (ko) * 2012-12-20 2019-03-08 삼성전자주식회사 시각적 인디케이터를 이용하여 사용자 인터페이스를 제공하는 3차원 입체 영상 표시 장치 및 그 장치를 이용한 방법
EP2749996B1 (en) * 2012-12-28 2018-05-30 Sony Mobile Communications Inc. Electronic device and method for improving accuracy of location determination of a user input on a touch panel
US20140189579A1 (en) * 2013-01-02 2014-07-03 Zrro Technologies (2009) Ltd. System and method for controlling zooming and/or scrolling
WO2014128749A1 (ja) * 2013-02-19 2014-08-28 株式会社ブリリアントサービス 形状認識装置、形状認識プログラム、および形状認識方法
CN104049872B (zh) * 2013-03-13 2018-01-05 本田技研工业株式会社 利用指向的信息查询
US9122916B2 (en) * 2013-03-14 2015-09-01 Honda Motor Co., Ltd. Three dimensional fingertip tracking
US20140282224A1 (en) * 2013-03-15 2014-09-18 Qualcomm Incorporated Detection of a scrolling gesture
KR20130088104A (ko) * 2013-04-09 2013-08-07 삼성전자주식회사 비접촉 방식의 인터페이스를 제공하기 위한 휴대 장치 및 방법
KR102056316B1 (ko) * 2013-05-03 2020-01-22 삼성전자주식회사 터치 스크린 동작 방법 및 그 전자 장치
US9829984B2 (en) * 2013-05-23 2017-11-28 Fastvdo Llc Motion-assisted visual language for human computer interfaces
CN103279188A (zh) * 2013-05-29 2013-09-04 山东大学 一种基于Kinect无接触性操作控制PPT的方法
US20140368434A1 (en) * 2013-06-13 2014-12-18 Microsoft Corporation Generation of text by way of a touchless interface
CN103365596A (zh) * 2013-07-01 2013-10-23 天脉聚源(北京)传媒科技有限公司 一种控制虚拟世界的方法及装置
TWI505135B (zh) * 2013-08-20 2015-10-21 Utechzone Co Ltd 顯示畫面的控制系統、輸入裝置及控制方法
US9400553B2 (en) 2013-10-11 2016-07-26 Microsoft Technology Licensing, Llc User interface programmatic scaling
US9412012B2 (en) 2013-10-16 2016-08-09 Qualcomm Incorporated Z-axis determination in a 2D gesture system
TWI536206B (zh) * 2013-11-05 2016-06-01 緯創資通股份有限公司 操作體的定位方法及裝置以及深度判定方法及裝置
US10048762B2 (en) * 2013-11-05 2018-08-14 Intuit Inc. Remote control of a desktop application via a mobile device
US20150160819A1 (en) * 2013-12-06 2015-06-11 Microsoft Corporation Crane Gesture
TWI554852B (zh) * 2014-01-22 2016-10-21 巨擘科技股份有限公司 腕錶的調時方法和系統
US10935788B2 (en) 2014-01-24 2021-03-02 Nvidia Corporation Hybrid virtual 3D rendering approach to stereovision
US9436872B2 (en) * 2014-02-24 2016-09-06 Hong Kong Applied Science and Technology Research Institute Company Limited System and method for detecting and tracking multiple parts of an object
US10691332B2 (en) 2014-02-28 2020-06-23 Samsung Electronics Company, Ltd. Text input on an interactive display
US9990046B2 (en) 2014-03-17 2018-06-05 Oblong Industries, Inc. Visual collaboration interface
EP3123448B1 (en) * 2014-03-27 2018-09-12 Sony Corporation Image creation combining base image and repositioned object from a sequence of images
JP6303772B2 (ja) * 2014-04-25 2018-04-04 富士通株式会社 入力制御装置、制御方法および制御プログラム
WO2015178824A1 (en) * 2014-05-23 2015-11-26 Ascom Sweden Ab A mobile communication device adapted for touch free interaction
KR20150137452A (ko) * 2014-05-29 2015-12-09 삼성전자주식회사 디스플레이 장치 제어 방법 및 이를 위한 원격 제어 장치
JP2015230496A (ja) * 2014-06-03 2015-12-21 シャープ株式会社 電子機器
JP6361332B2 (ja) * 2014-07-04 2018-07-25 富士通株式会社 ジェスチャ認識装置およびジェスチャ認識プログラム
US9419971B2 (en) * 2014-07-08 2016-08-16 International Business Machines Corporation Securely unlocking a device using a combination of hold placement and gesture
US10310675B2 (en) 2014-08-25 2019-06-04 Canon Kabushiki Kaisha User interface apparatus and control method
JP6643825B2 (ja) * 2014-08-25 2020-02-12 キヤノン株式会社 装置及び方法
JP6519074B2 (ja) * 2014-09-08 2019-05-29 任天堂株式会社 電子機器
US10015402B2 (en) 2014-09-08 2018-07-03 Nintendo Co., Ltd. Electronic apparatus
JP6684042B2 (ja) * 2014-09-08 2020-04-22 任天堂株式会社 電子機器
US20180101277A9 (en) * 2014-09-24 2018-04-12 Evan John Kaye Skin Touchpad
CN105635776B (zh) * 2014-11-06 2019-03-01 深圳Tcl新技术有限公司 虚拟操作界面遥控控制方法及系统
HK1243801B (zh) * 2014-12-15 2019-12-06 Malik BOULANAACHE 计算器
KR101683189B1 (ko) * 2015-02-09 2016-12-06 선문대학교산학협력단 깊이 영상에서 가장자리 쌍 기반의 객체 검출 방법
JP6573457B2 (ja) * 2015-02-10 2019-09-11 任天堂株式会社 情報処理システム
JP6528193B2 (ja) * 2015-02-10 2019-06-12 任天堂株式会社 電子機器
JP6534011B2 (ja) * 2015-02-10 2019-06-26 任天堂株式会社 情報処理装置、情報処理プログラム、情報処理システム、および、情報処理方法
JP6519075B2 (ja) * 2015-02-10 2019-05-29 任天堂株式会社 情報処理装置、情報処理プログラム、情報処理システム、および、情報処理方法
CN104796750A (zh) 2015-04-20 2015-07-22 京东方科技集团股份有限公司 遥控器、遥控显示系统
US10649536B2 (en) * 2015-11-24 2020-05-12 Intel Corporation Determination of hand dimensions for hand and gesture recognition with a computing interface
US9906981B2 (en) 2016-02-25 2018-02-27 Nvidia Corporation Method and system for dynamic regulation and control of Wi-Fi scans
DE102016003072A1 (de) * 2016-03-12 2017-09-14 Audi Ag Bedienvorrichtung und Verfahren zum Erfassen einer Benutzerauswahl zumindest einer Bedienfuktion der Bedienvorrichtung
US10864856B2 (en) * 2016-04-14 2020-12-15 Nissan Motor Co., Ltd. Mobile body surroundings display method and mobile body surroundings display apparatus
WO2017208628A1 (ja) * 2016-05-30 2017-12-07 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US10102423B2 (en) * 2016-06-30 2018-10-16 Snap Inc. Object modeling and replacement in a video stream
US10529302B2 (en) 2016-07-07 2020-01-07 Oblong Industries, Inc. Spatially mediated augmentations of and interactions among distinct devices and applications via extended pixel manifold
US9958951B1 (en) * 2016-09-12 2018-05-01 Meta Company System and method for providing views of virtual content in an augmented reality environment
CA3049249C (en) * 2017-01-06 2023-09-19 Ryan SHELTON Self-orienting imaging device and methods of use
JP6275891B1 (ja) * 2017-01-27 2018-02-07 株式会社コロプラ 仮想空間を介して通信するための方法、当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置
US10304239B2 (en) * 2017-07-20 2019-05-28 Qualcomm Incorporated Extended reality virtual assistant
CN109558000B (zh) * 2017-09-26 2021-01-22 京东方科技集团股份有限公司 一种人机交互方法及电子设备
CN107621881A (zh) * 2017-09-29 2018-01-23 歌尔科技有限公司 虚拟内容控制方法及控制设备
WO2019152013A1 (en) * 2018-01-31 2019-08-08 Hewlett-Packard Development Company, L.P. Operating user interfaces
JP7017675B2 (ja) * 2018-02-15 2022-02-09 有限会社ワタナベエレクトロニクス 非接触入力システム、方法およびプログラム
EP3570164B1 (de) * 2018-05-14 2023-04-26 Schneider Electric Industries SAS Verfahren und system zum generieren einer mobilen applikation aus einer desktop-anwendung
US10682572B2 (en) * 2018-07-25 2020-06-16 Cameron Wilson Video game reticle
US20200167005A1 (en) * 2018-11-28 2020-05-28 Seiko Epson Corporation Recognition device and recognition method
CN110998600B (zh) * 2019-03-07 2021-07-16 深圳市汇顶科技股份有限公司 光学掌纹感测的方法和系统
CN110263751B (zh) * 2019-06-27 2021-07-06 Oppo广东移动通信有限公司 指纹识别方法及相关产品
CN117784927A (zh) * 2019-08-19 2024-03-29 华为技术有限公司 一种隔空手势的交互方法及电子设备
CN112114732B (zh) * 2020-09-18 2022-03-25 歌尔科技有限公司 屏幕内容的放大方法、设备及计算机可读存储介质
US11409411B1 (en) 2021-03-12 2022-08-09 Topgolf International, Inc. Single finger user interface camera control
JP7561686B2 (ja) * 2021-05-27 2024-10-04 憲司 岡田 携帯情報端末装置及びそのプログラム
JP7286857B2 (ja) * 2021-07-20 2023-06-05 株式会社あかつき 情報処理システム、プログラム及び情報処理方法
JP7052128B1 (ja) 2021-07-20 2022-04-11 株式会社あかつき 情報処理システム、プログラム及び情報処理方法
JP7163526B1 (ja) 2021-07-20 2022-10-31 株式会社あかつき 情報処理システム、プログラム及び情報処理方法
JP7286856B2 (ja) * 2022-03-30 2023-06-05 株式会社あかつき 情報処理システム、プログラム及び情報処理方法
WO2023214451A1 (ja) * 2022-05-02 2023-11-09 ディープインサイト株式会社 ユーザインターフェイス装置、ユーザインターフェイスシステム及びユーザインターフェイス用プログラム
EP4657215A2 (en) 2023-04-13 2025-12-03 Samsung Electronics Co., Ltd. Electronic device for controlling touch sensitivity on basis of radar and operation method thereof

Family Cites Families (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5164992A (en) 1990-11-01 1992-11-17 Massachusetts Institute Of Technology Face recognition system
US5534917A (en) 1991-05-09 1996-07-09 Very Vivid, Inc. Video image based control system
US5168531A (en) * 1991-06-27 1992-12-01 Digital Equipment Corporation Real-time recognition of pointing information from video
US5454043A (en) 1993-07-30 1995-09-26 Mitsubishi Electric Research Laboratories, Inc. Dynamic and static hand gesture recognition through low-level image analysis
US6115482A (en) * 1996-02-13 2000-09-05 Ascent Technology, Inc. Voice-output reading system with gesture-based navigation
JP3521187B2 (ja) * 1996-10-18 2004-04-19 株式会社東芝 固体撮像装置
US6526156B1 (en) 1997-01-10 2003-02-25 Xerox Corporation Apparatus and method for identifying and tracking objects with view-based representations
US6252598B1 (en) * 1997-07-03 2001-06-26 Lucent Technologies Inc. Video hand image computer interface
US6289112B1 (en) * 1997-08-22 2001-09-11 International Business Machines Corporation System and method for determining block direction in fingerprint images
US5827942A (en) * 1997-10-16 1998-10-27 Wisconsin Alumni Research Foundation System and method for testing imaging performance of ultrasound scanners and other medical imagers
JP3795647B2 (ja) 1997-10-29 2006-07-12 株式会社竹中工務店 ハンドポインティング装置
US6204852B1 (en) * 1998-12-09 2001-03-20 Lucent Technologies Inc. Video hand image three-dimensional computer interface
US6147678A (en) * 1998-12-09 2000-11-14 Lucent Technologies Inc. Video hand image-three-dimensional computer interface with multiple degrees of freedom
JP2000187551A (ja) 1998-12-21 2000-07-04 Tadaaki Rikihisa 入力装置
JP2001100906A (ja) 1999-09-30 2001-04-13 Suzuki Motor Corp 三次元データ表示装置
US7227526B2 (en) 2000-07-24 2007-06-05 Gesturetek, Inc. Video-based image control system
JP2002049455A (ja) 2000-08-03 2002-02-15 Sanyo Electric Co Ltd 入力インタフェース装置、及び該装置を具備する携帯情報装置
US7058204B2 (en) 2000-10-03 2006-06-06 Gesturetek, Inc. Multiple camera control system
US6774889B1 (en) 2000-10-24 2004-08-10 Microsoft Corporation System and method for transforming an ordinary computer monitor screen into a touch screen
KR100408518B1 (ko) 2001-04-12 2003-12-06 삼성전자주식회사 컴퓨터용 전자펜 데이타 입력장치 및 좌표 측정 방법
US6594616B2 (en) 2001-06-18 2003-07-15 Microsoft Corporation System and method for providing a mobile input device
WO2003071410A2 (en) * 2002-02-15 2003-08-28 Canesta, Inc. Gesture recognition system using depth perceptive sensors
JP4136422B2 (ja) * 2002-03-29 2008-08-20 トヨタ自動車株式会社 着座乗員体重検知装置
JP3863809B2 (ja) 2002-05-28 2006-12-27 独立行政法人科学技術振興機構 手の画像認識による入力システム
KR20040000954A (ko) 2002-06-26 2004-01-07 삼성전자주식회사 이동통신단말기에 있어서 지문인식 방향 선택 방법
US7665041B2 (en) * 2003-03-25 2010-02-16 Microsoft Corporation Architecture for controlling a computer using hand gestures
KR100543701B1 (ko) 2003-06-17 2006-01-20 삼성전자주식회사 공간형 입력 장치 및 방법
US7982751B2 (en) * 2003-07-11 2011-07-19 The University Of North Carolina Methods and systems for controlling a computer using a video image and for combining the video image with a computer desktop
CN1290061C (zh) 2003-07-23 2006-12-13 西北工业大学 一种利用显著边缘进行图像检索的方法
WO2005104010A2 (en) 2004-04-15 2005-11-03 Gesture Tek, Inc. Tracking bimanual movements
JP4274997B2 (ja) * 2004-05-06 2009-06-10 アルパイン株式会社 操作入力装置および操作入力方法
US7432917B2 (en) 2004-06-16 2008-10-07 Microsoft Corporation Calibration of an interactive display system
US7454039B2 (en) 2004-07-12 2008-11-18 The Board Of Trustees Of The University Of Illinois Method of performing shape localization
JP4351599B2 (ja) * 2004-09-03 2009-10-28 パナソニック株式会社 入力装置
EP3693889A3 (en) 2005-01-07 2020-10-28 QUALCOMM Incorporated Detecting and tracking objects in images
US7430312B2 (en) 2005-01-07 2008-09-30 Gesturetek, Inc. Creating 3D images of objects by illuminating with infrared patterns
WO2006074290A2 (en) 2005-01-07 2006-07-13 Gesturetek, Inc. Optical flow based tilt sensor
ATE551675T1 (de) 2005-01-21 2012-04-15 Qualcomm Inc Auf bewegung basierendes tracking
JP2006285370A (ja) * 2005-03-31 2006-10-19 Mitsubishi Fuso Truck & Bus Corp ハンドパターンスイッチ装置及びハンドパターン操作方法
BRPI0613165A2 (pt) 2005-05-17 2010-12-21 Gesturetek Inc saìda de sinal sensìvel à orientação
US8086971B2 (en) 2006-06-28 2011-12-27 Nokia Corporation Apparatus, methods and computer program products providing finger-based and hand-based gesture commands for portable electronic device applications
US8032472B2 (en) * 2007-04-04 2011-10-04 Tuen Solutions Limited Liability Company Intelligent agent for distributed services for mobile devices
JP5453246B2 (ja) * 2007-05-04 2014-03-26 クアルコム,インコーポレイテッド コンパクト・デバイスのためのカメラ・ベースのユーザ入力
US8208692B2 (en) * 2009-01-15 2012-06-26 The Hong Kong Polytechnic University Method and system for identifying a person using their finger-joint print
US8154529B2 (en) * 2009-05-14 2012-04-10 Atmel Corporation Two-dimensional touch sensors
US8462134B2 (en) * 2009-06-29 2013-06-11 Autodesk, Inc. Multi-finger mouse emulation

Also Published As

Publication number Publication date
CN101689244B (zh) 2015-07-22
JP2010526391A (ja) 2010-07-29
EP2153377A4 (en) 2017-05-31
CN101689244A (zh) 2010-03-31
WO2008137708A1 (en) 2008-11-13
EP2153377A1 (en) 2010-02-17
US8472665B2 (en) 2013-06-25
US20080273755A1 (en) 2008-11-06

Similar Documents

Publication Publication Date Title
JP5453246B2 (ja) コンパクト・デバイスのためのカメラ・ベースのユーザ入力
CN108431729B (zh) 用以增大显示区域的三维对象跟踪
KR100790896B1 (ko) 촬상부의 움직임을 이용한 어플리케이션의 제어 방법 및장치
US8854433B1 (en) Method and system enabling natural user interface gestures with an electronic system
US8131015B2 (en) Multiple camera control system
CN103975365B (zh) 用于俘获和移动真实世界对象的3d模型和真实比例元数据的方法和系统
US20190250719A1 (en) User-defined virtual interaction space and manipulation of virtual cameras in the interaction space
KR101603680B1 (ko) 컴퓨터 비젼 애플리케이션들에서 상호작용 반경을 확대하기 위한 제스쳐-제어 기법
US20120319945A1 (en) System and method for reporting data in a computer vision system
US20130088429A1 (en) Apparatus and method for recognizing user input
KR20150067250A (ko) 사용자 인터페이스를 위한 터치리스 입력
US20130176202A1 (en) Menu selection using tangible interaction with mobile devices
JP6314251B2 (ja) 操作入力装置、操作入力方法及びプログラム
US20150186004A1 (en) Multimode gesture processing
US9535493B2 (en) Apparatus, method, computer program and user interface
US20100053206A1 (en) Storage medium having stored thereon image processing program and image processing apparatus
CN102868811B (zh) 一种基于实时视频处理的手机屏幕操控方法
JP6425299B2 (ja) 手指動作検出装置、手指動作検出方法、手指動作検出プログラム、及び仮想物体処理システム
CN111638794A (zh) 一种虚拟文物的显示控制方法及装置
CN111639611A (zh) 一种历史文物的展示控制方法及装置
CN104835060A (zh) 一种虚拟产品对象的对比方法和装置
KR20230146285A (ko) 비접촉식 화면 제어 시스템
KR20100131765A (ko) 디스플레이 패턴을 이용하는 미세 포인팅 방법 및 시스템
CN110941974A (zh) 虚拟对象的控制方法和装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110502

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20120206

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121105

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121204

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20130304

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20130311

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131203

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140106

R150 Certificate of patent or registration of utility model

Ref document number: 5453246

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250