JP2013546066A - デバイスとのユーザのタッチ及び非タッチベースのインタラクション - Google Patents

デバイスとのユーザのタッチ及び非タッチベースのインタラクション Download PDF

Info

Publication number
JP2013546066A
JP2013546066A JP2013535584A JP2013535584A JP2013546066A JP 2013546066 A JP2013546066 A JP 2013546066A JP 2013535584 A JP2013535584 A JP 2013535584A JP 2013535584 A JP2013535584 A JP 2013535584A JP 2013546066 A JP2013546066 A JP 2013546066A
Authority
JP
Japan
Prior art keywords
touch
interaction
gesture
user
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013535584A
Other languages
English (en)
Inventor
レミ・デュエイユ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Elo Touch Solutions Inc
Original Assignee
Elo Touch Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Elo Touch Solutions Inc filed Critical Elo Touch Solutions Inc
Publication of JP2013546066A publication Critical patent/JP2013546066A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本発明は、デバイスに対する入力を提供するための方法に関し、その入力は、デバイスとの、少なくとも1つのタッチベースのインタラクションと少なくとも1つの非タッチベースのインタラクションとの組み合わせに基づいており、1つのタイプの入力は、他のタイプの入力に応答してデバイスに対して命令される動作に影響を与える。本発明はまた、対応するデバイスに関する。ユーザとデバイスとの間のインタラクションをさらに改善するために、フィードバック提供手段が備えられる。

Description

本発明は、デバイスに対するジェスチャベースの入力を提供するための方法及びその対応するデバイスに関する。
電子デバイスはますます、ユーザとのジェスチャベースのインタラクションを可能とする。例えば単一のもしくはマルチタッチ感知力を有するタッチスクリーンなどのタッチ感知力を有する(タッチセンサ方式の)インターフェースは、ユーザの手又はそのうちの1本もしくはそれ以上の指を用いてインターフェースをタッチするユーザによって実行されるジェスチャの軌道をセンシングすることができる。軌道の空間的な及び/又は時間的な特性に基づいて、対応する命令が、次に対応する動作を実行する電子デバイスの処理ユニットに対して入力される。例えば、右から左への線形的な軌道は、スクリーン上のオブジェクトを右から左へと移動させるためにもしくはスクリーン上に例示された1つのページから次のページへと変更するために使用されるスワイプもしくはフリックジェスチャとして解釈される。もう1つのポピュラな例は、タッチ感知力を有するインターフェースが互いに離れるように移動する2本の指の存在をセンシングするときにディスプレイ上のオブジェクトを拡大させるためのズームインジェスチャである。
最近、デバイスの前のユーザによって簡単に実現化されるジェスチャは、カメラを用いて、そしてデバイス内で実行される画像分析に基づいてセンシングされ、そのような3Dジェスチャの特性が分析されるので、ユーザによるデバイスのタッチ感知力を有するインタラクション表面との直接的な接触を必要としないジェスチャベースの入力能力を有する電子デバイスが提供された。
ジェスチャベースのインタラクションパターンを用いて、インタラクションのより自然な方法がユーザと電子デバイスとの間で獲得され、そのような電子デバイスのインタラクション手段はデバイスとインタラクトすることの自然なもしくは直感的な方法に必ずしも相当していないかもしれない特定のタイプのインタラクションパターンをいまだに強要するので、まだ改良が必要である。
従って、本発明の目的は、さらにより柔軟性があって、インタラクションパターンのより自然なインタラクションスキーム(方法)への適応を可能とするジェスチャに基づいて、デバイスとインタラクトするための方法を提供することにある。
この目的は、請求項1に係る方法によって獲得される。デバイスに対する入力を提供するためのデバイスとインタラクトするための方法は、インタラクションは、デバイスとの、少なくとも1つのタッチベースのインタラクションと少なくとも1つの非タッチベースのインタラクションとの組み合わせに基づくことを特徴とし、ここで、1つのタイプのインタラクションは、他のタイプのインタラクションに応答して、デバイスとのインタラクションに寄与される入力に影響を与える。従って、インタラクションに関してデバイスによって実行される動作に対するタッチベースのインタラクションの影響は、もう1つのタイプのインタラクションに依存するようになる。例えば、同一のタイプのタッチベースのインタラクションは、もし非タッチベースのインタラクションが異なれば、デバイスによって実行される2つの異なる動作へと導くであろう。従って、特定のインタラクションに対するデバイスの応答は、特定の環境に適用され、それ故にデバイスとのインタラクションをより柔軟性を有するものとし、より直感的なものとする。
この明細書等において、「タッチベースの」という用語は、ユーザがデバイスを物理的にタッチするユーザとデバイスとの間のいかなる種類のインタラクションに関する。タッチベースのインタラクションは、デバイスの所定の領域をタッチすること、デバイスの表面にわたってスライドすることに関してもよく、もしくはデバイスを保持することによって簡単に出来る動作に関してもよい。タッチは、例えばユーザの指もしくはスタイラスなどによる単一のタッチイベントまたは1つ以上の指がデバイスをタッチするマルチタッチイベントとすることができる。
この明細書等において、「非タッチベースの」という用語は、ユーザとデバイスとの間の物理的な接触を必要としないユーザとデバイスとの間のいかなる種類のインタラクションに関する。
本発明に係る明細書等における「入力」という用語は、所定のタスクもしくは動作を実行するためのデバイスによって識別されるいかなる種類の命令に関する。
好ましくは、方法は、デバイスとのジェスチャベースのインタラクションを提供することができ、当該方法は、そのインタラクションが、デバイスをタッチすることなしの少なくとも1つのジェスチャベースのインタラクションと、ユーザがデバイスをタッチする少なくとも1つのタッチベースのインタラクションとのシーケンスに基づくことを特徴としている。ここで、1つのインタラクションの、特に軌道及び/又は速度及び/又は継続時間及び/又は圧力である少なくとも1つの実現化(認識)特性は、デバイスとのインタラクションに寄与される入力に影響を与える。
この明細書等において、「ジェスチャ」という用語は、目に見える身体的動作によって特定のメッセージを伝達するいかなる形態の非言語的なデバイスとのインタラクションに関する。
従って、例えばタッチ感知力を有するインタラクション表面上で実現化される1次元もしくは2次元のジェスチャなどのデバイスタッチングインタラクションは、ユーザの指、手もしくは腕によって実行される3次元ジェスチャとすることができる非タッチベースのジェスチャと組み合わせられ、その結果、ユーザは、デバイスに対して適用する必要なしに、デバイスとインタラクトするときに実世界において彼が使用される動作をコピーすることができる。他のインタラクションの特性に基づいたパラメータを用いて1つのインタラクションに影響を与えることによって、インタラクションは、より柔軟性を有すると同時により直感的となる。1つの例として、オブジェクトのピックアップ及びリプレース(置換)動作は、デバイスの表面上のオブジェクトをグラビングすることによって実行され、それ故に、デバイス自身を連続的にタッチする必要なしにデバイスをタッチしてそれをデバイス上のもう1つの場所に移動させる。従って、デバイスとのインタラクションに関する柔軟性は高められる。もしグラビングの動作がなければ、動いている非タッチングのジェスチャが同一の結果へと導いたであろう。
変形例によれば、例えばジェスチャなどの非タッチベースのインタラクション及びタッチベースのインタラクションは、順次にもしくは交互に発生することができる。これにより、ユーザが例えば上述したピックアップ及び移動又は平行移動(トランスレート)動作などの実生活パターンを実現化することを可能とさせる。
好ましくは、特にジェスチャである少なくとも1つの非タッチベースのインタラクション及び少なくとも1つのタッチベースのインタラクションは、時間において少なくとも部分的にオーバーラップすることができる。従って、タッチベースのスキームと非タッチベースのスキームとを組み合わせる場合は、従来技術と比較すると、より複雑なインタラクションパターンを可能とすることができる。例えば、ユーザがディスプレイ上に例示されたオブジェクトを回転させたい場合には、ユーザは、デバイスをタッチすることによって回転軸を選択することができ、他方の手を用いて、所望の回転軸の周りの回転を命令するフリックもしくはスイープジェスチャを実現化することができる。
有利に、ユーザがデバイスをタッチするインタラクションは、デバイスの、正面、裏面もしくは側面のうちの少なくとも1つに対して発生することができる。デバイスのインタラクティブな(双方向性の)感知力を有する領域を、(通常ユーザに面する側として定義される)正面に制限しないことによって、ユーザはデバイスとの彼のインタラクションを実行するときにおいて、ユーザはこの一面を介してインタラクトすることを強要されず、ユーザはどのようにデバイスとインタラクトしたいかを自由に選択することができる。
有利に、ユーザがデバイスをタッチするインタラクションは、キーベースの入力、コンピュータマウスベースの入力、トラックボール、またはタッチもしくはマルチタッチベースの入力の少なくとも1つを動作状態とすることができる。1つもしくはそれ以上のインタラクション技術の提供は、インタラクションパターンの柔軟性をさらに高める。
好ましい実施態様によれば、非タッチベースのジェスチャは、例えばデバイス及び/又は加速度計、ジャイロスコープ、超音波センシング手段などのうちの少なくとも1つを備えた1つもしくはそれ以上の遠隔制御ユニットに組み込まれた1つもしくはそれ以上のカメラ手段を用いてセンシングされる。これらの要素は、安定性かつ信頼性のある方法における非タッチベースのジェスチャのセンシングを可能とする。
超音波は、タッチベースのインタラクションと非タッチベースのインタラクションとの両方をセンスするために使用されるが、専用のセンシング手段及びアルゴリズムが両方のタイプのインタラクションに対して必要とされる。
有利に、インタラクションのシーケンスは、a)デバイスに対する入力を開始するための登録段階と、b)デバイスに対する入力を提供するための連続段階と、c)デバイスに対する入力を確認するための終了段階とを含むことができる。登録段階の間は、デバイスは、それがユーザの入力を受信し、それによってシステムのユーザフレンドリネス(操作性の良さ)を高めることができることをユーザに知らせるであろう一方で、ユーザはデバイスに対する誤った入力が回避されるように彼の入力を確認するための終了段階を使用する。
好ましくは、ステップc)において、タッチベースのインタラクションは、例えばデバイスをタッチすることなしにユーザによって実現化されるジェスチャなどの非タッチベースのインタラクションを介して、ステップb)において提供された入力を確認するために使用される。タッチベースの確認インタラクションは、非タッチベースのインタラクションがデバイスによってセンシングされる、デバイスの周りの所定の容積内のジェスチャのような意図的でない非タッチベースのインタラクションによる誤った入力の回避を改善する。
有利に、上記方法は、d)例えばジェスチャなどのタッチベースのインタラクションを用いてオブジェクトを選択するステップと、e)例えばジェスチャなどの非タッチベースのインタラクションに基づいて選択されたオブジェクトに関して入力を提供するステップとを含むシーケンスを実現化することによって選択されるオブジェクトに関して、オブジェクトを選択してデバイスに対する命令を提供するために使用される。実生活の状況におけるのと同様に、それ故に、実生活において実行するためにより自然であるかもしれない入力が提供される前にオブジェクトがタッチされてそれが選択されるべきである。
上述した方法は、オブジェクトを第1の位置から異なる位置へと移動させるための入力を提供するために特に有利であって、当該方法は、f)第1の位置においてデバイスをタッチするユーザによって提供されるピンチ、スクウィーズもしくはローテーション(回転)のジェスチャをセンスするステップと、g)デバイスをタッチしない移動ジェスチャをセンスするステップと、h)第2の位置におけるタッチベースのジェスチャもしくは第2の位置の上方における非タッチベースのジェスチャのいずれかによるリリースジェスチャをセンシングするステップとを含むジェスチャのシーケンスを含む。例えば、アイコンは、スクリーン上の第1の位置から第2の位置へと移動されるかもしくはスクリーン上に表示されたオブジェクトでさえもスクリーン上でピックアップされてスクリーンの外側の機能領域上へとスクリーンを超えて移動される。オブジェクトがドロップされる第2の位置の識別と同時に、例えば印刷、削除などの、スクリーンの外側の機能領域に寄与される動作が実行される。
ピンチもしくはスクウィーズジェスチャの間、デバイスのタッチベースのユーザインタラクション手段は、例えば互いにより接近して移動させる、インタラクション表面上に存在する指先などの2つもしくはそれ以上のオブジェクトを識別するように構成される一方で、タッチングが発生するリリースジェスチャは、逆の動きに対応する。回転ジェスチャの場合には、1つのオブジェクトは、第2の動かないオブジェクトの周りを回転するかもしくは両方のオブジェクトが曲線の軌道を描写する。非タッチベースのユーザインタラクション手段によってセンシングされる非タッチベースのジェスチャに対して、移動ジェスチャは、座標が時間において変化するジェスチャに対応する。非タッチベースのリリースジェスチャは、例えば互いに離れて移動するかもしくは逆方向に回転させる指などの、少なくとも2つの要素をセンシングして識別することに対応する。スクリーン上のオブジェクトを異なる位置に移動させるための命令を入力するための本発明の方法によれば、デバイスとインタラクトすることの自然な方法が可能となる。
もう1つの有利な使用によれば、上述した方法は、i)タッチベースのインタラクションをセンシングするステップと、j)タッチベースのインタラクションに応答して、パラメータを設定するステップと、k)同時に非タッチベースのジェスチャをセンシングするステップと、l)非タッチベースのジェスチャ及びパラメータ設定に応答して、対応する動作をデバイスに対して命令するステップとを含むことができる。この方法において、非タッチベースのジェスチャとタッチベースのジェスチャとの両方が同時に発生し、ここで、タッチベースのジェスチャによって設定されたパラメータが命令入力パターンの柔軟性を高める。例えば、この方法は、デバイスをタッチすることによって回転軸を定義するのに適している一方で、ユーザの他方の手によるスワイプもしくはフリックジェスチャがその定義された軸の周りのオブジェクトの回転を開始するであろう。この明細書等において、例えばスワイプなどのジェスチャは必須の線形的な軌道に関し、ここで、フリックジェスチャは、特定のしきい値よりも速く実行されるスワイプジェスチャに対応する。スワイプジェスチャとフリックジェスチャとに対して、デバイスに対する命令入力は異なることができる。
本発明の目的はまた、上述された方法とは独立して、請求項11に係るデバイスに対するジェスチャベースの入力を提供するための方法によって獲得される。
請求項11に係る方法は、上述した方法のいずれか1つと選択的に組み合わされる、デバイスに対するジェスチャベースの入力を提供するための方法であって、当該方法は、ジェスチャをセンシングするステップと、ジェスチャを分類するステップと、分類によって、デバイスに対する命令を入力するステップとを含み、当該命令は、特にジェスチャの軌道及び/又は速度及び/又は継続時間である、ジェスチャの実現化特性に依存し、ジェスチャから独立した少なくとも1つのパラメータを用いてスケーリングする。
好ましくは、パラメータは、デバイスのパラメータ及び/又はデバイスのディスプレイ上に提示されるオブジェクトのパラメータ及び/又はジェスチャを行うかもしくは実現化するオブジェクトとデバイスとの間の距離のうちの少なくとも1つとすることができる。
例えば、ジェスチャは、物理的なデバイスのサイズとデバイスのディスプレイ上のオブジェクトのサイズとの両方に基づいて、より小さなサイズのジェスチャからより大きなサイズのジェスチャの範囲とすることができ、並びに/又はより短いサイズのジェスチャからより長いサイズのジェスチャの範囲とすることができる。従って、好ましくは、少なくとも1つのパラメータは、デバイスもしくはオブジェクトの1次元、2次元もしくは3次元におけるサイズとすることができる。デバイスのスクリーン上に例示されたオブジェクトのサイズによって、それ故にジェスチャのスケーリングはそれに応じて適用される。
好ましくは、ジェスチャの実現化特性と少なくとも1つのパラメータとの間のスケーリングは、同一の命令を提供するように正比例とすることができる。従って、例として、小さいオブジェクトをスクリーンの一方の側から他方の側へと移動させるために、短い非タッチベースのジェスチャだけが必要である一方で、より大きなオブジェクトに対して同一の結果を獲得するためには、ジェスチャは、より長い非タッチベースのジェスチャであることによってより大きくすることができる。もう1つの例として、デバイスに接近して、彼の指を用いて例えばスワイプなどの小さいジェスチャを実現化するユーザは、もし彼がデバイスからより離れた場所からジェスチャを実行する場合に同一の入力を提供したければ、彼の手を用いて例えばスワイプなどのより大きなジェスチャを提供することができる。
本発明のパラメータによるジェスチャのスケーリング方法は、デバイスのスクリーン上に例示されたオブジェクトに限定されるだけでなく、デバイス自身へと拡張することができる。非タッチベースのインタラクション手段を電子デバイスに組み込む場合、本発明の特定の実施態様に係るインタラクション手段は、入力ジェスチャのスケーリングを定義するためにデバイスの物理的サイズを考慮するように構成される。それ故に、例えばスマートフォンなどの小型の携帯型デバイスに対して、もしくは例えばE−book(電子書籍)などのより大きなデバイスに対して、同一の動作を実行するために必要であるジェスチャは、サイズにおいてデバイスのサイズに適応されてもよい。
好ましい実施態様によれば、少なくとも1つの非タッチベースのインタラクションは、特に光強度、電界、磁界、電磁放射、圧力、温度、湿度、振動に関する環境パラメータに基づくことができる。それ故に、例えば3Dジェスチャなどの非タッチベースのジェスチャがタッチベースのインタラクションに応答してデバイスとのインタラクションに寄与される入力に影響を与えるだけでなく、デバイスの対応するセンシング手段によってセンシングされる環境パラメータにも影響を与えることができる。
例えば、センシング手段がデバイスが暗闇の中に置かれたことを識別する場合には、デバイスとの任意の非タッチベースのインタラクションは、さらなる入力を可能とする前にデバイスのスクリーンもしくはキーボードのバックライトを照射することへと導くであろう一方で、センシング手段がデバイスが明るい環境に置かれたことを識別する場合には、デバイスに対する同一の入力が異なる動作を引き起こすことができ、例えばキーを打つことによってスクリーン上に対応する文字がすぐに表示されるであろう。
本発明はまた、コンピュータプログラム製品に関連し、当該コンピュータプログラム製品は、上述した方法のステップを実行するためのコンピュータ実行可能な命令を有する1つもしくはそれ以上のコンピュータ可読媒体を備える。
本発明の目的はまた、少なくとも1つのタッチベースのユーザインタラクション手段と、少なくとも1つの非タッチベースのユーザインタラクション手段とを備えたデバイスによって獲得され、当該デバイスは、上述した方法の1つもしくは組み合わせを実行するように構成される。そのデバイスは、例えばピックアップ及びリプレース動作などの実生活の動作に対応するジェスチャがユーザによって適用されるので、ユーザとデバイスとの間のより自然なインタラクションを可能とする。
好ましくは、デバイスは、少なくとも1つのタッチベースのユーザインタラクション手段と、少なくとも1つの非タッチベースのユーザインタラクション手段と、少なくとも1つのフィードバック提供手段とを備え、
上記非タッチベースのユーザインタラクション手段は、デバイスの周りの所定の容積(立体が占めている空間の部分)内の特にジェスチャである非タッチベースのインタラクションをセンシングするように構成され、
上記少なくとも1つのフィードバック提供手段は、特にユーザの手などのオブジェクトが所定の容積内にエンターするときに、第1の視覚的な及び/又は音響的な出力を出力するように構成される。
従って、ユーザは、デバイスがタッチがないときでさえも入力が受け入れられる状態にあるかどうかをすぐに認識するであろう。
好ましくは、デバイスは、ユーザが他方の手を用いてデバイスの所定の領域をタッチする場合に第1のフィードバックだけが提供されるように構成されてもよい。従って、デバイスに対する意図的でない入力は回避される。
有利に、フィードバック提供手段は、オブジェクトが所定の容積の内側にあるとき、及び/又はオブジェクトがデバイスをタッチするときに、特に第1の出力と異なる、第2の視覚的な及び/又は音響的な及び/又は触覚的な出力を出力するように構成される。従って、ユーザが所定の容積内にエンターするときの登録段階の後、第2のフィードバック出力は、デバイスがジェスチャを受け入れていることをユーザに知らせる。この段階はまた、インタラクション連続段階と呼ばれる。従って、ユーザフレンドリネスはさらに改善される。
有利に、フィードバック提供手段はさらに、特にジェスチャであるインタラクションがタッチベースのユーザインタラクション手段及び/又は非タッチベースのユーザインタラクション手段によってセンシングされる限り、第2の出力を出力するように構成される。従って、いつでも、ユーザはデバイスがジェスチャをいまだに登録しているという事実について知らされるであろう。
有利な実施態様によれば、フィードバック提供手段は、インタラクションが終了されるとき、及び/又はデバイスがスイッチングオフされるかもしくはアイドル状態に置かれるときに、特に第1の出力及び/又は第2の出力とは異なる、第3の視覚的な及び/又は音響的な及び/又は触覚的な出力を出力するように構成される。従って、ユーザは、インタラクションの成功した終了のときにデバイスから終了フィードバック信号を受信する。オブジェクトがデバイスの周りの所定の容積から離れる場合に、終了フィードバックがまた出力されてもよい。従って、ユーザはデバイスがもはや入力を受け入れないであろうことを知るであろう。
好ましくは、デバイスは、その正面上にディスプレイを備えることができ、フィードバック提供手段は、オブジェクトがデバイスの裏面上の所定の容積内に存在する場合は、視覚的な指示がディスプレイ上に提供されるように構成される。この態様では、正面は通常の使用においてユーザに向いているデバイスの側である一方で、裏面はユーザから見て外方向に向いているデバイスの反対側である。
従って、デバイスの裏面によるインタラクションを介して入力を提供しようとするユーザは、例えば裏面上に提供されたタッチ感知力を有するインタラクション手段に対して提供される非タッチベースのジェスチャもしくはタッチベースのジェスチャの間は、そのデバイスがユーザからの入力を受け入れる状態にあることをいつでも知るであろう。このことが、デバイスのユーザフレンドリネスをさらに高める。
好ましい実施態様によれば、デバイスは携帯もしくはポータブルの電子デバイスとすることができる。例えば、携帯電話、スマートフォン、ナビゲータ、電子書籍、オーディオ及び/又はビデオプレーヤ、ポータブルコンピュータなどである。本発明は、インタラクション領域が制限され、通常200平方センチメートルよりも大きくない小型のデバイスに対して特に有利である。
以下において、本発明の特定の実施形態の詳細な説明が添付の図面を参照して詳細に説明されるであろう。
タッチベースのユーザインタラクション手段及び非タッチベースのユーザインタラクション手段を備えた電子デバイスに関する本発明の第1の実施形態を例示する。 第2及び第3の実施形態に係る、デバイスに対するジェスチャベースの入力を提供するための方法を概略的に例示する。 第1のタイプのインタラクションが第2のタイプのインタラクションによって確認される入力を形成するサブインタラクションのシーケンスを例示する。 ジェスチャベースの入力を提供するための方法の使用に関する本発明の第1の実施例を例示する。 ジェスチャベースの入力を提供するための方法の使用に関する本発明の第2の実施例を例示する。 ジェスチャベースの入力を提供するための方法の使用に関する本発明の第2の実施例を例示する。 ジェスチャベースの入力を提供するための方法の使用に関する本発明の第2の実施例を例示する。 パラメータに従ったスケーリングジェスチャに関する本発明の第4の実施形態を例示する。 第4の実施形態の変形例を例示する。 フィードバック機構に関する本発明の第5の実施形態を例示する。 タッチベースのユーザインタラクション手段と環境特性センシング手段とを備えた電子デバイスに関する本発明の第6の実施形態を例示する。
図1は、本発明の第1の実施形態に係るデバイスを例示する。電子デバイスは、第1のタッチベースのユーザインタラクション手段3と第2の非タッチベースのユーザインタラクション手段5とを備える。
種々の実施形態によれば、タッチベースのユーザインタラクション手段3は、キーベースのインタラクション手段、マウスもしくはドラッグパッド/ドラッグボールベースのインタラクション手段、又はタッチもしくはマルチタッチベースのタッチ感知力を有するインタラクション表面のうちのいずれか1つとすることができる。特定の実施形態では、タッチベースのユーザインタラクション手段3は好ましくは、マルチタッチ感知力を有するインタラクション表面である。図1において、1つのタッチ感知力を有するインタラクション手段3だけが図示されているが、本発明のデバイス1のさらなる変形例によれば、デバイス1のハウジング7の裏面及び/又はハウジング7の側面にもまた、付加的なタッチベースのインタラクション手段を備えてもよい。タッチ感知力を有するインタラクション手段3は、例えば容量性の弾性表面波、音響パルス認識又は他のタッチ技術などを利用するタッチスクリーンもしくはタッチパッドを備えてもよく、又は例えば好ましくは音響パルス認識タッチ技術などを用いてタッチ感知力を有することが可能となった、デバイスのハウジングの部分を備えてもよい。
この実施形態における非タッチベースのインタラクション手段5は、ユーザインタラクション手段3に隣接して位置決めされたカメラである。タッチベースのユーザインタラクション手段3に関して、非接触のインタラクション手段がハウジング7の裏面及び/又は側面にさらに存在してもよい。
電子デバイス1は、例えば電話、スマートフォン、電子書籍、ナビゲーションデバイス、オーディオ及び/もしくはビデオプレイングデバイス、パーソナルコンピュータ、ゲーム機などの携帯もしくはポータブルのデバイスのうちのいずれか1つとすることができる。しかしながら、本発明の概念がまた、他のタイプの電子デバイスにも組み込まれることが可能である。
例えばカメラなどの非タッチベースのユーザインタラクション手段5は、ここでデバイス1の周りの球として例示された所定の容積9内で、例えばユーザの手もしくは指などを用いてユーザによって行われるかもしくは実現化されるユーザジェスチャがセンシングされ、分析され、及び分類されるように構成される。例えば、画像分析手段が電子デバイス1内に提供され、カメラ5によって撮影された画像を分析してユーザの手もしくは指の動きを識別する。その結果、ジェスチャの特性から、対応する入力パターンがデバイス1内の処理ユニットが非タッチベースのユーザインタラクション手段5から命令を受信できるように識別される。ジェスチャの特性もしくはジェスチャ実現化特性には、空間もしくは軌道における拡張、継続時間、指の相対運動などのうちのいずれか1つ又はこれらの組み合わせを含むことができる。
同様の方法では、タッチベースのユーザインタラクション手段3は、例えばユーザインタラクション手段3に対するジェスチャなどの入力がセンシングされ、分析され、及び分類されてユーザが提供したかった対応する命令を識別するように構成される。
タッチベースのユーザインタラクション手段3に加えて、デバイス1は、例えばマイクロフォン11、ラウドスピーカ13、例えば他のデバイス15、17を充電しかつ通信するための接続インターフェース、キー又はまさに完全なもしくは制限されたキーボードなどの従来技術として知られた付加的な特徴を備えてもよい。さらに、デバイス1は、無線通信手段を備えることができる。
図1では、非タッチベースのユーザインタラクション手段がユーザジェスチャを識別することができる所定の容積9は、デバイスの周りの球として図示された。もちろん、この所定の容積9は、デバイス1の周りの任意の形状を有してもよい。
カメラすなわちインタラクション手段5としてカメラを使用する代わりに、例えば加速度計もしくはジャイロスコープを用いた遠隔コントロール又は超音波センシング手段などの、ジェスチャを識別できる任意の他の適切な非タッチベースのユーザインタラクション手段が使用される。
従来技術のデバイスと比較すると、本発明に係る電子デバイス1により、ユーザがタッチベースのインタラクションパターンと非タッチベースのインタラクションパターンとの組み合わせに基づいてデバイスに対する入力を提供することを可能とする。これが、実世界において実行されるジェスチャが電子デバイスとインタラクトするときに同様の動作を実現化する場合にコピーされるであろうという利点を有する。従って、デバイスとインタラクトすることのより自然かつ直感的な方法が可能となる。これが、本発明の実施形態に関して詳細に説明されるであろう。
図2aは、例えば図1に例示された電子デバイス1などの電子デバイスに対する入力を提供するための方法に関する本発明の第2及び第3の実施形態を例示する。
図2aのコラム1及びコラム2は第2の実施形態に関し、コラム1からコラム3は本発明の第3の実施形態に関する。
コラム1はユーザの動作(アクティビティ)を例示する一方で、コラム2は本発明に係る電子デバイス1の応答(リアクション)を例示する。
ユーザが、彼の手及び/もしくは指の1つを用いて並びに/又は彼が彼の手の中に持つオブジェクトを用いて所定の容積9内にエンターするとき(ステップ21)、非タッチベースのインタラクション手段5は、所定の容積9内へのエントリーをセンシングするであろうし、対応する出力を電子デバイス1の処理ユニットに提供する(ステップ23)。
この登録段階の後、ユーザはデバイス1とインタラクトし続け、非タッチベースのユーザインタラクション手段5によってセンシングされた非タッチベースのジェスチャと、タッチベースのユーザインタラクション手段3によってセンシングされた、例えばタッチ感知力を有するインターフェース上に指をスライドさせることなどのタッチベースのジェスチャとの組み合わせである複数のサブジェスチャ27、29、31を備えてもよい入力25を提供して電子デバイス1における特定の動作を開始する。このジェスチャ入力もしくは連続段階の間、ユーザインタラクション手段5及び3は、タッチベースのインタラクションに関するステップ33及び非タッチベースのインタラクションに関するステップ35においてユーザのジェスチャもしくはサブジェスチャをセンシングし、センシングされたデータを分析してジェスチャ及び/又はサブジェスチャを分類してユーザのインタラクションパターンに対応する入力を識別する(ステップ37)。もし対応する動作が識別されたならば、処理ユニットは、命令を受信して所望の動作(アクティビティ)を実行する(ステップ39)。
本発明によれば、ユーザのインタラクションパターンに対応する動作を識別するステップは、センシングされた非タッチベースのインタラクション35とセンシングされたタッチベースのインタラクション33との間の関係36に依存するであろう。実に、1つのタイプのインタラクションがどのように実行されたかによって、他のタイプのインタラクションに寄与される入力が適用されるであろう。
タッチベースのユーザインタラクションはまた、デバイス1のハウジング7上のキーのヒッティング(打つこと)に関連する。
ステップ41において、ユーザの指もしくは手又はユーザによって持たれたオブジェクトが所定の容積9からエグジットするときに、非タッチベースのユーザインタラクション手段5によってセンシングされたインタラクションは終了される(ステップ43)。
留意すべきことは、エントリーを決定する(ステップ21、23)ための容積9のサイズは、エグジットを決定する(ステップ41、43)ために使用される容積9のサイズとは異なっていてもよく、及び/又はいくつかの実施形態に従ってユーザ設定可能としてもよい、ということである。
従って、電子デバイス1は、交互にもしくはパラレルに実行される、非タッチベースのインタラクション及びタッチベースのインタラクションがデバイス1に対して提供されるように構成され、両方のタイプのインタラクションは相互に影響を与えるように構成される。これにより、デバイスとのインタラクションのより自然かつ直感的な方法が可能となるように、ユーザインタラクションパターンにおいてより柔軟性を有することができる。
第3の実施形態の一部でもある第2の実施形態に関して上述されたステップに加えて、本発明に係る第3の実施形態は、フィードバック機構を備える。フィードバック機構は、コラム3において概略的に例示され、デバイス1がユーザ入力を受け入れているという事実について、好ましくはいつでもユーザに知らせるように構成される。フィードバック機構を実現化するように構成されたフィードバック提供手段は、図1に例示されたデバイスに組み込まれる。フィードバック提供手段は参照番号45が付され、点線で示されている。
詳細には、オブジェクトの所定の容積9内へのエントリー(ステップ21及び23)のときに、フィードバック提供手段45(図1において点線で示された参照番号45を参照。)は、視覚的な及び/又は音響的なフィードバック信号が出力するように構成される。例えば、ラウドスピーカ13は、デバイス1がユーザが所定の球9の中に入ったことをセンシングしたという事実を示す信号を出力することができる。同時にもしくは代替として、視覚的なアイコンもしくは信号、点滅LEDなどがこの状態を示してもよい。従って、ユーザは、デバイス1がユーザが所定の容積9内にエンターしたことを認識したことを知るであろう、その結果、そのユーザによって提供されたジェスチャはデバイスによってセンシングされて識別される(ステップ47)。
変形例によれば、所定の条件が満たされる場合に、第1のフィードバック出力47だけが電子デバイスによって提供される。例えば、もしユーザが他方の手を用いてデバイスを保持し、ユーザ入力が意図されることを指示する特定のボタンを押すならば、フィードバックだけが提供される。代わりに、タッチセンシング手段3はまた、ユーザがデバイスを保持するという事実を識別することができる。この付加的な特徴によって、デバイス1に対する意図されないジェスチャベースの入力は回避される。
次に、連続段階の間、フィードバック提供手段45は、典型的には第1のフィードバックとは異なる、第2の視覚的な及び/又は音響的な信号がデバイス1によって出力される(ステップ49)。第2のフィードバック出力49は、所定の容積9内でジェスチャを実行するオブジェクトの存在の間またはジェスチャの認識の間だけのいずれかにおいて提供され、その結果、ユーザはいつでも、ジェスチャが入力されることもしくは現在デバイスがユーザが所定の容積9内で実現化しているかもしくは行っている動きをセンシングしたことのいずれかを知る。
タッチベースのジェスチャが入力される場合は、フィードバック提供手段45によって提供される、視覚的な及び/又は音響的なフィードバック信号は、例えば振動などの触覚的なフィードバック信号に伴って発生するかもしくは置き換えられ、再びユーザにデバイスが現在入力をセンシングしていることを知らせる(ステップ49)。
最後に、入力が完了したときであってユーザが所定の容積9から離れる間に、フィードバック提供手段45は、視覚的な及び/又は音響的な第3の信号を出力してユーザがデバイス1に対する入力を提供することができる所定の容積9からユーザが今離れたことをユーザに知らせるように構成される。好ましくは、第3の出力51は、第1の出力及び/又は第2の出力とは異なる。
従って、デバイスとのインタラクションの経過の間いつでも、ユーザはデバイス1がジェスチャを受け入れているという事実、例えばジェスチャなどのインタラクションがセンシングされるという事実、及び彼が意図的にもしくは意図的ではなく所定の容積9から離れたという事実について知る。
好ましくは、このフィードバック提供機構45は、デバイス1において例示されたような、非タッチベースのインタラクション手段5とタッチベースのインタラクション手段3とを組み合わせるデバイスとともに実現化されるが、1つのタイプのインタラクション手段だけが存在する場合でもまたその発明を適用することができる。
図2bは、第2の実施形態及び第3の実施形態において使用された入力25の変形例であって、図2aにおいて例示されたサブインタラクション55及び57のシーケンスを備えた入力提供インタラクション53を例示する。この例では、インタラクション55は、ユーザによって提供された例えばジェスチャなどの非タッチベースのインタラクションに関連し、インタラクション57は、再びデバイス1のキーボードに対する特定のキーストローク(キーを打つこと)にもまた関連することができる、ユーザインタラクション手段3に対するタッチベースのインタラクションに関する。
デバイス1に対する意図的でない入力を回避するために、図2aにおいて例示されたステップ35における分析ステップは、確認もしくは終了動作59がユーザによって提供されたかどうかを最初に調べ、ここで、終了動作59は好ましくは、ステップ33においてセンシングされるタッチベースのインタラクションに対応する。例えば、終了動作59は、デバイス1のハウジングに対する特定のキーとすることができるかもしくはインタラクション手段3の簡単なタッチとすることができる。
確認インタラクション59が非タッチベースのジェスチャ55の次にユーザによって提供され、さらにタッチベースのインタラクション57がセンシングされた場合に、入力Aはステップ39において命令される一方で、確認インタラクション59がない場合は、入力Bはステップ39において命令される。
図3は、図2aにおいて例示された第2のもしくは第3の実施形態に係る、及び図1において例示された電子デバイス1を用いて実現化される方法の第1の発明の使用を例示する。
この発明の実施形態では、タッチベースのインタラクションと、ここではジェスチャである非タッチベースのインタラクションとが同時に実行されて電子デバイス1に対する入力を提供する。ユーザが電子デバイス1のタッチベースのユーザインタラクション手段によってセンシングされる特定の場所63を1つの手61を用いてデバイス1をタッチする一方で、デバイス1をタッチしないが所定の容積9内に位置決めされる、ユーザの第2の手65は、ここではフリックもしくはスワイプの動き67であるジェスチャを同時に実行する。
この実施形態では、デバイス1のハウジング7の最上にある場所63におけるタッチベースのインタラクションは、デバイス1のスクリーン71上に例示されたオブジェクト69の回転軸73を識別するために使用され、ここで、第2の手65によって実現化されるフリックもしくはスワイプジェスチャは、軸73の周りのオブジェクト69の回転を開始する。図3に対して点線によって例示された、場所75において彼の手を位置決めすることによって、軸77の周りに新しい回転が開始される。従って、タッチベースのインタラクションは、非タッチベースのインタラクションに応答してデバイスによって実行される動作に影響を与える。
この実施形態は、複雑な入力パターンを実現化するために、電子デバイス1との、タッチベースのインタラクションと非タッチベースのインタラクションとの組み合わせの有利な使用の1つの例だけを例示する。しかしまだ、デバイスとのインタラクションは自然かつ直感的な状態のままであるかもしれない。
図4aから図4cは、第1の実施形態に係るデバイスと、図1及び図2に例示された本発明の第2のもしくは第3の実施形態に係る方法との第2の発明の使用を例示する。図4aから図4cは、タッチベースのユーザインタラクションと非タッチベースのユーザインタラクションとが互いに追従する、ユーザとデバイス1との間のインタラクションを例示する。
所定の容積9内にエンターした後、ユーザはデバイス1のスクリーン83上に提示されたオブジェクト81にアプローチし、タッチベースのユーザインタラクション手段3をタッチしながら2本もしくはそれ以上の指を矢印82によって示すように互いにより接近させて移動させるピンチもしくはスクウィーズジェスチャを実行することによって、ピンチジェスチャをセンシングしたタッチベースのユーザインタラクション手段3は、電子デバイス1の処理ユニットに命令して、例えばファイルのアイコンなどのオブジェクト81を選択し、選択されたオブジェクト81に関する命令をさらに待つであろう。代替として、ユーザはまた、回転ジェスチャを実行してオブジェクト81をピックアップすることができる。
図4bは、この発明の方法の使用に係るインタラクションシーケンスの第2のステップを例示する。選択ステップの後、ユーザは彼の指をくっつけた状態にしながらオブジェクト81をピックアップして、まるで実生活のオブジェクトが処理されるであろうかのように、矢印84によって示すようにインタラクション表面から離されて移動する。ジェスチャは、ピックアップオブジェクト81をディスプレイ83上の第2の位置85の方向に移動させ続ける。容積9内のユーザの手の動きの間、図1に対して例示されて説明された、非タッチベースのユーザインタラクション手段5は、例えばユーザの手の位置が画像から画像へ変わる複数の後に続く画像を分析することによって移動ジェスチャをセンシングして、それに応じてデバイス1の処理ユニットに命令するであろう。非タッチベースの移動ジェスチャの間、デバイス1は、ディスプレイ上のオブジェクトとともにユーザの手の投射を表示するように構成される。移動の動きは、図3に例示された本発明に係る第1の使用におけるスワイプジェスチャに類似している。ここで、しかしながら、スワイプジェスチャは、接触段階の間に実行されるジェスチャによって影響が与えられ、その結果、対応する動作は、本発明に係る第1の例におけるのと同じように、オブジェクトの回転の代わりに再配置することへと導く。
次に、最後に、第2の位置85においてオブジェクト81を再配置するために、ユーザは矢印86によって示されるように彼の指を広げて図4cに例示されたようにピックアップオブジェクトをリリースするかもしくはピックアップステップと比較して反対方向に回転ジェスチャを行う。対応するジェスチャは、非タッチベースのインタラクション手段5もしくはタッチベースのユーザインタラクション手段3に対するタッチベースのリリースジェスチャによってセンシングされた所定の容積9内であるが、インタラクション表面3から離れた非タッチベースのジェスチャとすることができる。
本発明の方法の実用的な使用のこの例では、ユーザがオブジェクトをピックアップして置き換えたい場合に実生活において通常実行する動作(アクティビティ)は、図4aから図4cに例示されたオブジェクト81に対して実行される。従って、ユーザがスクリーン上ですべてのジェスチャを実行するように強要されるインタラクションスキームと比較すると、インタラクションは、より自然かつより直感的となり、それ故によりユーザフレンドリネスとなる。
ディスプレイ83上の第1の位置からディスプレイ上のもう1つの位置85にオブジェクト81を移動させる代わりに、それはまたデバイス1のハウジング7上の機能領域上のどこか他の位置にディスプレイ領域を超えて移動される。非タッチベースのユーザインタラクション手段5は、ユーザがオブジェクト81をリリースする場所を識別することができ、もし第2の位置が機能領域に対応することが識別されれば、その場合は、例えばファイルの印刷、ファイルの消去、インターネットを介するファイルの送信などの、タッチスクリーンの外側のこの機能領域に寄与される動作が処理ユニットによって開始される。
ここではジェスチャである、タッチベースのインタラクションと非タッチベースのインタラクションとのシーケンスを用いた、図4aから図4cに例示されたピックアップ及びリプレース(置換)動作は、電子デバイスとインタラクションするための1つの実用的な例だけであるが、タッチベースのジェスチャと非タッチベースのジェスチャとを組み合わせる他のインタラクションパターンが本発明の範囲を離れることなしに実現化される。
図5aは、第1の実施形態から第3の実施形態のいずれかの1つと組み合わせられる、本発明の第4の実施形態を例示する。図5aの左側は、例えば非タッチベースのインタラクション手段103及び非タッチベースのインタラクション手段103がユーザによって提供されたジェスチャをセンシングすることができる、所定の空間もしくは容積105を有する携帯電話などのより小さな電子デバイス101を例示する。この態様では、非タッチベースのインタラクション手段103は、デバイス1において使用されかつ図1に例示されたインタラクション手段5に相当する。
図5aの右側に対しては、例えばラップトップコンピュータもしくは電子書籍などの、より大きな電子デバイス111が例示される。より大きな電子デバイス111はまた、より小さなデバイス101におけるのと同一の非タッチベースのインタラクション手段103を備える。非タッチベースのインタラクション手段103は、より大きな電子デバイス111の周りの所定の容積113内のユーザジェスチャを受け入れる。ここで、所定の容積113は、より小さなデバイスの容積105よりも大きい。
本発明によれば、インタラクション手段103がより小さな電子デバイス105もしくはより大きな電子デバイス113に組み込まれるかどうかによって、例えばスクリーン107及びスクリーン115上の一方の側Aから他方の側Bまでオブジェクトを移動させるなどの所定のタスクを実行するために必要であるジェスチャの、例えば軌道や継続のサイズなどのパラメータは、例えばデバイス101もしくは111の幅、対角線、表面領域もしくは容積などのサイズを用いてスケーリングされてより直感的なユーザインタラクションデバイスを可能とさせる。従って、デバイスのサイズが大きくなればなるほど入力を提供するために必要とされるジェスチャはより大きくなる。
ここで右側に矢印として例示され、より大きなデバイスにおいてユーザによって実行されたジェスチャ117は、より小さなデバイスの場合において実行されるジェスチャ109と比較するとより大きい。例えば、オブジェクトをディスプレイ上のAからBへ移動させるために、指スワイプがより小さなデバイス101には十分である一方で、より大きなデバイス111に対しては、全体の手を用いたスワイプがオブジェクトを位置Aから位置Bへと移動させるために使用される。
デバイス自身の物理的なパラメータを用いて非タッチベースのジェスチャの軌道及び/又は時間継続のサイズをスケーリングすることによって、スケールに基づいた自動適応が獲得される。非タッチベースのユーザインタラクション手段のジェスチャ分析ユニットは、例えばデバイスのサイズなどに関連する所定のパラメータの関数として分析してそのジェスチャを適応させるように構成される。
第4の実施形態の変形例によれば、ジェスチャは、図5aに例示されたようなデバイスの物理的な寸法を用いてスケーリングされてもよいだけでなく、ディスプレイ上に提示されたオブジェクトの寸法によってスケーリングされてもよい。
ここで、より大きなオブジェクト121及びより小さなオブジェクト123は、より大きな電子デバイス111のスクリーン115上に例示される。より大きなオブジェクト121を移動させるために、ユーザはより大きなジェスチャが必要であることを予測するであろう一方で、より小さなオブジェクト123に対しては、ユーザはより小さなジェスチャを予測するであろう。例えば、より小さなオブジェクトを用いて指スワイプが十分とされる一方で、より大きなオブジェクト121を用いて、同一の結果を得るためには手のスワイプが使用される。また、ジェスチャ分析ユニットはまた、デバイスのディスプレイ上に提示されるオブジェクトのパラメータを考慮するように構成される。
図5bは、スケーリング概念の変形例を例示する。この変形例では、ジェスチャは、デバイス1から、ここではユーザの手であるオブジェクト125までの距離を用いてスケーリングされる。図5bの上側では、手125はデバイス1に接近している。図の左側は、デバイス1の前面の手125を図示し、右側は側面図を図示して手とデバイス1との間の距離127を例示する。図5bの下側では、側面図を図示する右側の図から分かるように、手125はデバイス1からさらに離れている(距離129)。
オブジェクト131を位置133から位置135まで及びその逆に移動させるために、手125がデバイス1に接近している第1のケースにおけるジェスチャは、矢印137を用いて図示されるように指だけを右から左へ及びその逆にわずかに移動させることによって実現化される。第2のケースにおける同一の動きを獲得するために、ユーザは矢印139によって示された、非常により大きなジェスチャ軌道を用いて全部の手125を移動させてもよい。
図6は、本発明の第5の実施形態を例示し、ユーザがデバイス151をタッチするときにタッチベースのインタラクションを提供し、及び/又は彼が電子デバイス151の周りの所定の容積153にエンターするときに非タッチベースのジェスチャを提供することができるように、図1において例示された第1の実施形態におけるのと同じように、タッチベースのインタラクション手段3と非タッチベースのインタラクション手段5とを備えた電子デバイス151を例示する。ここで、デバイス151はまた、ユーザが通常見ているデバイスの側であって、タッチベースのインタラクション手段3とともにタッチ感知力を有するスクリーンを形成する正面155上にディスプレイ157を備える。
さらに、デバイスは、第1の実施形態のフィードバック提供手段45の特徴を有するフィードバック提供手段159を備え、ここでさらに、本発明の第5の実施形態に係るフィードバック提供手段159は、ユーザがデバイス151の裏面161を介してタッチベースのもしくは非タッチベースのインタラクションを提供するように構成され、ここで、裏面は正面155に対して反対側であって通常ユーザから見て外方向に向いており、視覚的なフィードバック163は、ディスプレイ157上に提供される。視覚的なフィードバック163は、正面からデバイス151を見ているユーザに対して、入力がデバイス151の裏面161を介して提供されることを指示するために役に立つ。
例えば、ディスプレイ157上に表示されたフィードバック信号は、デバイス151の裏面161上に位置決めされたときにユーザの手の指先の、デバイス151の裏面もしくは正面上への投射を示すことができる。図6では、これがディスプレイ157上の5つの円160によって概略的に例示される。
この実施形態は、第1の実施形態から第4の実施形態のいずれかの1つと組み合わせられる。
図7は、本発明の第6の実施形態を例示する。図7は、第1の実施形態に係るデバイス1の要素及び特徴を備えるデバイス171を例示する。上述において既に使用された同一の参照番号が付された要素については、再度詳細には説明しないであろうが、参照によりここで組み込まれる。
電子デバイス171は、タッチベースのユーザインタラクション手段3及び非タッチベースのユーザインタラクション手段5に加えて、第2のタイプの非タッチベースのインタラクションとして1つもしくはそれ以上の環境パラメータをセンシングするためのセンシング手段を備える。そのような環境パラメータは、光強度、電界、磁界、電磁放射、圧力、温度、湿度、振動、もしくは地理的座標に関することができる。
それ故に、デバイスに対するタッチベースのインタラクションと接続されないセンシング手段173によって測定されたパラメータはまた、インタラクション手段3に対して提供されたタッチベースのインタラクションに応答してデバイス171によって実現化された動作に影響を与えることができる。
例えば、センシング手段は、デバイスが暗闇の中に置かれたことを識別する場合は、さらなる入力が可能とする前に、デバイスとの、タッチベースのもしくは非タッチベースのいずれかのインタラクションがデバイスのスクリーンもしくはキーボードのバックライトを照射することへと導くであろう一方で、センシング手段がデバイスが明るい環境に置かれたことを識別する場合は、デバイスとの同一のインタラクションが異なる入力を引き起こすことができ、例えばキーを打つことによってスクリーン上に対応する文字がすぐに表示されるであろう。
ユーザとのインタラクションの自然なもしくは直感的な方法を可能とする付加的な発明のデバイスもしくは方法を獲得するために、図1及び図7に関して説明されたデバイス及び方法の種々の要素及び特徴は、個々にもしくは互いに組み合わせた状態においてさらに組み合わせることができる。

Claims (18)

  1. デバイスに対する入力を提供するための上記デバイスとインタラクションするための方法であって、
    上記インタラクションは、上記デバイスとの、少なくとも1つのタッチベースのインタラクションと少なくとも1つの非タッチベースのインタラクションとの組み合わせに基づいており、
    上記1つのタイプのインタラクションは、上記他のタイプのインタラクションに応答して上記デバイスとのインタラクションに寄与される入力に影響を与えることを特徴とする方法。
  2. 上記インタラクションは、上記デバイスにタッチすることなしの少なくとも1つのジェスチャベースのインタラクションと、少なくとも1つのタッチベースのインタラクションとを備え、
    上記1つのインタラクションの、特に軌道及び/又は速度及び/又は継続時間及び/又は圧力である少なくとも1つの実現化特性は、上記デバイスとのインタラクションに寄与される入力に影響を与えることを特徴とする請求項1記載の方法。
  3. 特にジェスチャであるタッチベースのインタラクション及び非タッチベースのインタラクションは、順次にもしくは交互に発生することを特徴とする請求項2記載の方法。
  4. 特にジェスチャである、上記少なくとも1つの非タッチベースのインタラクション及び少なくとも1つのタッチベースのインタラクションは時間において少なくとも部分的にオーバーラップすることを特徴とする請求項2記載の方法。
  5. 上記ユーザが上記デバイスをタッチする上記インタラクションは、上記デバイスの正面、裏面もしくは側面の少なくとも1つに対して発生することができることを特徴とする請求項1から4のうちの記載のいずれか1つに記載の方法。
  6. 上記インタラクションの組み合わせは、
    a.上記デバイスに対する入力を開始するための登録段階と、
    b.上記デバイスに対する上記入力を提供するための連続段階と、
    c.上記デバイスに対する上記入力を確認するための終了段階と、
    を含むことを特徴とする請求項1から5のうちのいずれか1つに記載の方法。
  7. ステップc)において、タッチベースのインタラクションは、特に上記デバイスをタッチすることなしに上記ユーザによって実現化されるジェスチャである非タッチベースのインタラクションを介して、ステップb)において提供される入力を確認するために使用されることを特徴とする請求項6記載の方法。
  8. オブジェクトを選択して、上記選択されたオブジェクトに関して上記デバイスに対する命令を提供するために、
    d)特にタッチベースのジェスチャであるタッチベースのインタラクションを用いて上記オブジェクトを選択するステップと、
    e)上記デバイスをタッチすることなしにジェスチャベースのインタラクションに基づいて、上記選択されたオブジェクトに関して命令を提供するステップと、
    を含むシーケンスを含むことを特徴とする請求項1から7のうちのいずれか1つに記載の方法。
  9. 上記デバイスのスクリーン上のオブジェクトを異なる位置に移動させるための命令を提供するために、
    f)第1の位置において上記デバイスをタッチするユーザによって提供されるピンチもしくはスクウィーズもしくは回転タイプのジェスチャをセンシングするステップと、
    g)上記ユーザが上記デバイスをタッチしない移動ジェスチャをセンシングするステップと、
    h)第2の位置におけるタッチベースのジェスチャもしくは第2の位置の上方における非タッチベースのジェスチャのいずれかによるリリースジェスチャをセンシングするステップと、
    のジェスチャベースのインタラクションのシーケンスを含むことを特徴とする請求項1から8のうちのいずれか1つに記載の方法。
  10. i)タッチベースのインタラクションをセンシングするステップと、
    j)上記タッチベースのインタラクションに応答して、パラメータを設定するステップと、
    k)非タッチベースのジェスチャを同時にセンシングするステップと、
    l)上記非タッチベースのジェスチャ及び上記パラメータ設定に応答して、上記デバイスに対して対応する動作を命令するステップと、
    を含むことを特徴とする請求項1から9のうちのいずれか1つに記載の方法。
  11. ジェスチャをセンシングするステップと、上記ジェスチャを分類するステップと、上記分類によって上記デバイスに対する命令を入力するステップとを含む、上記デバイスに対するジェスチャベースの入力を提供するための方法であって、
    上記命令は、特に上記ジェスチャの軌道及び/又は速度及び/又は継続時間である上記ジェスチャの実現化特性に依存し、上記ジェスチャから独立した少なくとも1つのパラメータを用いてスケーリングすることを特徴とする請求項1から10のうちのいずれか1つに記載の方法。
  12. 上記少なくとも1つの非タッチベースのインタラクションは、特に光強度、電界、磁界、電磁放射、圧力、温度、湿度、振動、及び/又は地理的座標である環境パラメータに基づくことを特徴とする請求項1から11のうちのいずれか1つに記載の方法。
  13. 請求項1から12のうちのいずれか1つに記載の方法に係るステップを実行するためのコンピュータ実行可能な命令を有する1つもしくはそれ以上のコンピュータ可読媒体を備えたことを特徴とするコンピュータプログラム製品。
  14. 少なくとも1つのタッチベースのユーザインタラクション手段と、少なくとも1つの非タッチベースのユーザインタラクション手段とを備えたデバイスであって、
    請求項1から12のうちのいずれか1つに記載の方法を実行するように構成されたことを特徴とするデバイス。
  15. a.少なくとも1つのタッチベースのユーザインタラクション手段と、少なくとも1つの非タッチベースのユーザインタラクション手段と、
    b.少なくとも1つのフィードバック提供手段とを備え、
    上記非タッチベースのユーザインタラクション手段は、上記デバイスの周りの所定の容積内の特にジェスチャである非タッチベースのインタラクションをセンシングするように構成され、
    上記少なくとも1つのフィードバック提供手段は、特にユーザの手であるオブジェクトが上記所定の容積内にエンターするときに第1の視覚的な及び/又は音響的な出力を出力するように構成されたことを特徴とする請求項14記載のデバイス。
  16. 上記フィードバック提供手段は、上記オブジェクトが上記所定の容積の内側にあって、及び/又は上記デバイスをタッチするときに、特に上記第1の出力とは異なる第2の視覚的な及び/又は音響的な及び/又は触覚的な出力を出力するように構成されたことを特徴とする請求項15記載のデバイス。
  17. 上記フィードバック提供手段は、インタラクションが上記タッチベースのユーザインタラクション手段によってセンシングされ、及び/又は特にジェスチャであるインタラクションが上記非タッチベースのユーザインタラクション手段によってセンシングされる限り、上記第2の出力を出力するように構成され、
    上記フィードバック提供手段は、上記インタラクション及び/又はジェスチャが終了されるとき、並びに/又は上記デバイスがスイッチングオフされるかもしくはアイドル状態に置かれるときに、特に上記第1の及び/もしくは第2の出力とは異なる第3の視覚的な及び/もしくは音響的な及び/もしくは触覚的な出力を出力するように構成されたことを特徴とする請求項16記載のデバイス。
  18. その正面上にディスプレイをさらに備え、
    上記フィードバック提供手段は、オブジェクトが上記デバイスの裏面上に上記所定の容積内に存在している場合に、上記ディスプレイ上に視覚的な指示が提供されるように構成されたことを特徴とする請求項15から17のうちのいずれか1つに記載のデバイス。
JP2013535584A 2011-09-27 2012-09-27 デバイスとのユーザのタッチ及び非タッチベースのインタラクション Pending JP2013546066A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP11290442.0A EP2575006B1 (en) 2011-09-27 2011-09-27 Touch and non touch based interaction of a user with a device
EP11290442.0 2011-09-27
PCT/IB2012/002438 WO2013046046A2 (en) 2011-09-27 2012-09-27 Touch and non touch based interaction of a user with a device

Publications (1)

Publication Number Publication Date
JP2013546066A true JP2013546066A (ja) 2013-12-26

Family

ID=46970217

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013535584A Pending JP2013546066A (ja) 2011-09-27 2012-09-27 デバイスとのユーザのタッチ及び非タッチベースのインタラクション

Country Status (5)

Country Link
US (1) US9448714B2 (ja)
EP (1) EP2575006B1 (ja)
JP (1) JP2013546066A (ja)
CN (1) CN103502923B (ja)
WO (1) WO2013046046A2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021099857A (ja) * 2018-08-24 2021-07-01 グーグル エルエルシーGoogle LLC レーダーシステムを備えるスマートフォン、システムおよび方法
US11435468B2 (en) 2018-08-22 2022-09-06 Google Llc Radar-based gesture enhancement for voice interfaces

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8854335B2 (en) * 2012-03-22 2014-10-07 Eminent Electronic Technology Corp. Ltd. Electronic apparatus having touch sensing ability and non-touch sensing ability and control method thereof
JP2014241030A (ja) * 2013-06-11 2014-12-25 カシオ計算機株式会社 グラフ表示装置およびプログラムおよびサーバ装置
US10037081B2 (en) * 2013-08-12 2018-07-31 Immersion Corporation Systems and methods for haptic fiddling
US20150077345A1 (en) * 2013-09-16 2015-03-19 Microsoft Corporation Simultaneous Hover and Touch Interface
CN104932800A (zh) * 2014-03-21 2015-09-23 朱江 一种互动装置
DE102014004675A1 (de) * 2014-03-31 2015-10-01 Audi Ag Gestenbewertungssystem, Verfahren zur Gestenbewertung und Fahrzeug
CN104317432A (zh) * 2014-11-18 2015-01-28 浙江工业大学 无源平面接触的光学感应器
CN104360777B (zh) * 2014-11-18 2017-11-07 浙江工业大学 有源平面接触的光学感应器
US20170097804A1 (en) * 2015-10-02 2017-04-06 Fred Collopy Visual music color control system
CN107229522A (zh) * 2017-06-05 2017-10-03 努比亚技术有限公司 移动终端文件处理方法、移动终端及计算机可读存储介质
CN110581793A (zh) * 2018-06-07 2019-12-17 深圳市声希科技有限公司 一种基于网络的点读笔用户管理系统
US10908745B2 (en) 2018-06-22 2021-02-02 The Florida International University Board Of Trustees Three dimensional touch conductive fabric
US10635895B2 (en) * 2018-06-27 2020-04-28 Facebook Technologies, Llc Gesture-based casting and manipulation of virtual content in artificial-reality environments
US10692299B2 (en) * 2018-07-31 2020-06-23 Splunk Inc. Precise manipulation of virtual object position in an extended reality environment
CN111724578B (zh) * 2019-03-21 2022-03-15 珠海格力电器股份有限公司 遥控设备和用于遥控设备的反馈方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007058540A (ja) * 2005-08-24 2007-03-08 Nec Infrontia Corp アクセス認証システムおよびマウス装置、並びに、アクセス認証方法
WO2008136064A1 (ja) * 2007-04-19 2008-11-13 Sony Computer Entertainment Inc. 座標入力デバイス、情報処理システム、表示装置及び情報処理方法
JP2010262557A (ja) * 2009-05-11 2010-11-18 Sony Corp 情報処理装置および方法

Family Cites Families (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5483261A (en) 1992-02-14 1996-01-09 Itu Research, Inc. Graphical input controller and method with rear screen image detection
US5591945A (en) 1995-04-19 1997-01-07 Elo Touchsystems, Inc. Acoustic touch position sensor using higher order horizontally polarized shear wave propagation
US8479122B2 (en) 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
JPH11338120A (ja) 1998-05-27 1999-12-10 Dainippon Screen Mfg Co Ltd レイアウト装置
CA2397703C (en) * 2001-08-15 2009-04-28 At&T Corp. Systems and methods for abstracting portions of information that is represented with finite-state devices
US20030048280A1 (en) * 2001-09-12 2003-03-13 Russell Ryan S. Interactive environment using computer vision and touchscreens
US6882337B2 (en) 2002-04-18 2005-04-19 Microsoft Corporation Virtual keyboard for touch-typing using audio feedback
JP4723799B2 (ja) 2003-07-08 2011-07-13 株式会社ソニー・コンピュータエンタテインメント 制御システムおよび制御方法
JP2006010489A (ja) 2004-06-25 2006-01-12 Matsushita Electric Ind Co Ltd 情報装置、情報入力方法およびプログラム
US8381135B2 (en) 2004-07-30 2013-02-19 Apple Inc. Proximity detector in handheld device
FR2874274B1 (fr) 2004-08-11 2007-07-20 Sensitive Object Procede pour localiser un impact sur une surface et dispositif pour la mise en oeuvre de ce procede
JP2009042796A (ja) 2005-11-25 2009-02-26 Panasonic Corp ジェスチャー入力装置および方法
CN101589425A (zh) 2006-02-16 2009-11-25 Ftk技术有限公司 将数据输入计算系统的系统和方法
US8972902B2 (en) * 2008-08-22 2015-03-03 Northrop Grumman Systems Corporation Compound gesture recognition
US7877707B2 (en) 2007-01-06 2011-01-25 Apple Inc. Detecting and interpreting real-world and security gestures on touch and hover sensitive devices
KR101390103B1 (ko) * 2007-04-03 2014-04-28 엘지전자 주식회사 영상제어방법 및 이동단말기
CN101286100A (zh) * 2007-04-10 2008-10-15 鸿富锦精密工业(深圳)有限公司 触摸屏的控制装置和控制方法
DE102007039669A1 (de) * 2007-08-22 2009-02-26 Navigon Ag Anzeigeeinrichtung mit Bildfläche
US20090167719A1 (en) * 2007-11-02 2009-07-02 Woolley Richard D Gesture commands performed in proximity but without making physical contact with a touchpad
US20090172606A1 (en) * 2007-12-31 2009-07-02 Motorola, Inc. Method and apparatus for two-handed computer user interface with gesture recognition
US20090256809A1 (en) 2008-04-14 2009-10-15 Sony Ericsson Mobile Communications Ab Three-dimensional touch interface
US20110102570A1 (en) 2008-04-14 2011-05-05 Saar Wilf Vision based pointing device emulation
KR101505198B1 (ko) * 2008-08-18 2015-03-23 엘지전자 주식회사 휴대 단말기 및 그 구동 방법
US20100053151A1 (en) * 2008-09-02 2010-03-04 Samsung Electronics Co., Ltd In-line mediation for manipulating three-dimensional content on a display device
TWI390437B (zh) 2008-11-18 2013-03-21 Htc Corp 用於一電容式觸控面板之指令執行方法
KR101544364B1 (ko) 2009-01-23 2015-08-17 삼성전자주식회사 듀얼 터치 스크린을 구비한 휴대 단말기 및 그 컨텐츠 제어방법
US8633901B2 (en) 2009-01-30 2014-01-21 Blackberry Limited Handheld electronic device having a touchscreen and a method of using a touchscreen of a handheld electronic device
WO2010098050A1 (ja) 2009-02-25 2010-09-02 日本電気株式会社 電子機器のインターフェース、電子機器、並びに電子機器の操作方法、操作プログラム及び操作システム
JP5182202B2 (ja) 2009-04-14 2013-04-17 ソニー株式会社 情報処理装置、情報処理方法及び情報処理プログラム
JP2010257037A (ja) 2009-04-22 2010-11-11 Sony Corp 情報処理装置および方法、並びにプログラム
US8466934B2 (en) * 2009-06-29 2013-06-18 Min Liang Tan Touchscreen interface
TW201112074A (en) 2009-09-30 2011-04-01 Higgstec Inc Touch gesture detecting method of a touch panel
JP5165661B2 (ja) 2009-10-09 2013-03-21 シャープ株式会社 制御装置、制御方法、制御プログラム、及び記録媒体
US10007393B2 (en) * 2010-01-19 2018-06-26 Apple Inc. 3D view of file structure
TW201128472A (en) 2010-02-08 2011-08-16 Flytech Technology Co Ltd A terminal apparatus and shock prompting method thereof
TWM404551U (en) 2010-11-17 2011-05-21 Taiwan Secom Co Ltd Infrared sensor camera device
EP2575007A1 (en) 2011-09-27 2013-04-03 Elo Touch Solutions, Inc. Scaling of gesture based input

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007058540A (ja) * 2005-08-24 2007-03-08 Nec Infrontia Corp アクセス認証システムおよびマウス装置、並びに、アクセス認証方法
WO2008136064A1 (ja) * 2007-04-19 2008-11-13 Sony Computer Entertainment Inc. 座標入力デバイス、情報処理システム、表示装置及び情報処理方法
JP2010262557A (ja) * 2009-05-11 2010-11-18 Sony Corp 情報処理装置および方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11435468B2 (en) 2018-08-22 2022-09-06 Google Llc Radar-based gesture enhancement for voice interfaces
JP2021099857A (ja) * 2018-08-24 2021-07-01 グーグル エルエルシーGoogle LLC レーダーシステムを備えるスマートフォン、システムおよび方法
JP7296415B2 (ja) 2018-08-24 2023-06-22 グーグル エルエルシー レーダーシステムを備えるスマートフォン、システムおよび方法
JP7340656B2 (ja) 2018-08-24 2023-09-07 グーグル エルエルシー 電子機器およびソフトウェアプログラム

Also Published As

Publication number Publication date
US9448714B2 (en) 2016-09-20
CN103502923B (zh) 2017-12-05
WO2013046046A2 (en) 2013-04-04
EP2575006B1 (en) 2018-06-13
US20140055386A1 (en) 2014-02-27
EP2575006A1 (en) 2013-04-03
WO2013046046A3 (en) 2013-09-12
CN103502923A (zh) 2014-01-08

Similar Documents

Publication Publication Date Title
US9448714B2 (en) Touch and non touch based interaction of a user with a device
JP2013541110A (ja) ジェスチャベースの入力のスケーリング
JP6052743B2 (ja) タッチパネルデバイスとタッチパネルデバイスの制御方法
JP4734435B2 (ja) タッチパネル式ディスプレイを持った携帯型ゲーム装置
EP3410287B1 (en) Device, method, and graphical user interface for selecting user interface objects
JP5295328B2 (ja) スクリーンパッドによる入力が可能なユーザインタフェース装置、入力処理方法及びプログラム
US8248386B2 (en) Hand-held device with touchscreen and digital tactile pixels
US20120105367A1 (en) Methods of using tactile force sensing for intuitive user interface
WO2013094371A1 (ja) 表示制御装置、表示制御方法およびコンピュータプログラム
JP2018063700A (ja) コンテキスト型圧力検知触覚応答
KR20130099186A (ko) 표시 장치, 유저 인터페이스 방법, 및 프로그램
KR20140011594A (ko) 펜 인식 패널을 포함한 단말기의 기능 운용 방법 및 이를 지원하는 단말기
JP2010170573A (ja) グラフィカル・ユーザ・インターフェース・オブジェクトを操作する方法及びコンピュータシステム
JP2013513164A (ja) 三状態タッチ入力システム
KR20140033839A (ko) 터치스크린을 구비한 단말에서 한 손을 이용한 사용자 인터페이스 방법 및 장치
JP5374564B2 (ja) 描画装置、描画制御方法、及び描画制御プログラム
US20120075202A1 (en) Extending the touchable area of a touch screen beyond the borders of the screen
US20140298275A1 (en) Method for recognizing input gestures
KR101154137B1 (ko) 터치 패드 상에서 한손 제스처를 이용한 사용자 인터페이스
KR101223527B1 (ko) 터치스크린 입력방법, 이를 위한 장치 및 이를 포함하는 사용자 단말
TWI475469B (zh) 具有觸碰感應顯示器之可攜式電子裝置及導覽裝置及方法
KR101136327B1 (ko) 휴대 단말기의 터치 및 커서 제어방법 및 이를 적용한 휴대 단말기
JP6421973B2 (ja) 情報処理装置
KR101898162B1 (ko) 다중 센서감지를 통해 다른 기기로 추가기능 및 피드백을 제공하는 기기 및 방법
TW201329793A (zh) 基於手勢之輸入之縮放

Legal Events

Date Code Title Description
A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20130918

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130924

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20131224

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20140107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140221

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140603