JP2013012021A - 情報処理装置、情報処理方法、プログラム、および遠隔操作システム - Google Patents

情報処理装置、情報処理方法、プログラム、および遠隔操作システム Download PDF

Info

Publication number
JP2013012021A
JP2013012021A JP2011144059A JP2011144059A JP2013012021A JP 2013012021 A JP2013012021 A JP 2013012021A JP 2011144059 A JP2011144059 A JP 2011144059A JP 2011144059 A JP2011144059 A JP 2011144059A JP 2013012021 A JP2013012021 A JP 2013012021A
Authority
JP
Japan
Prior art keywords
determination
information processing
finger
hand
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011144059A
Other languages
English (en)
Other versions
JP5790203B2 (ja
Inventor
Shin Ito
慎 伊藤
Yoshinori Ohashi
良徳 大橋
Hideki Yamada
英樹 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2011144059A priority Critical patent/JP5790203B2/ja
Priority to EP12170436.5A priority patent/EP2541385B1/en
Priority to BR102012015193-6A priority patent/BR102012015193A2/pt
Priority to CN201210210061.1A priority patent/CN102880405B/zh
Priority to US13/529,103 priority patent/US20130002578A1/en
Publication of JP2013012021A publication Critical patent/JP2013012021A/ja
Application granted granted Critical
Publication of JP5790203B2 publication Critical patent/JP5790203B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Selective Calling Equipment (AREA)

Abstract

【課題】ユーザーの操作(右手、左手、または両手による操作)に起因する誤検出を確実に抑える。
【解決手段】情報処理装置は、操作面上で移動される指を検出する検出部と、前記操作面上で移動される指の移動軌跡に基づいて、右手、左手、又は両手による操作のいずれかを判定する判定部と、前記判定部による判定結果に基づいて、ユーザーの操作の検出に係る処理を変更する処理変更部と、を備える。
【選択図】図3

Description

本開示は、情報処理装置、情報処理方法、プログラム、および遠隔操作システムに関する。
近年、タッチパネルディスプレイを搭載した携帯型の情報処理装置が普及しつつある。ユーザーは、タッチパネルディスプレイに表示されるグラフィカル・ユーザー・インターフェイス(GUI)を通じて、所定の操作入力を行うことができる(例えば、特許文献1を参照)。
ユーザーは、一般的に、利き手に装置を把持して利き手により、または利き手と異なる手に装置を把持して利き手により、タッチパネルに対して操作入力を行う。ここで、GUIの構成に応じては、例えば、一方の手により操作し易いが他方の手により操作し難い、または両手により操作し易いが片手により操作し難い等、操作状態に応じてタッチパネルの操作性が異なる場合がある。このため、情報処理装置の操作性が低下してしまう場合があった。このため、下記の特許文献2には、片手、又は両手による操作状態を判定し、判定結果に応じてGUIの構成を変更することが記載されている。
特開2011−77863号公報 特開2011−76521号公報
しかしながら、特許文献2には、アイコンなどのGUIを操作状態に応じて移動することが記載されているが、フリック操作などのユーザーの操作は、右手、左手、または両手のそれぞれの操作に応じて軌跡が異なるため、操作を誤検出してしまう場合がある。
このため、ユーザーの操作(右手、左手、または両手による操作)に起因する誤検出を確実に抑えることのできる技術が望まれていた。
本開示によれば、操作面上で移動される指を検出する検出部と、前記操作面上で移動される指の移動軌跡に基づいて、右手、左手、又は両手による操作のいずれかを判定する判定部と、前記判定部による判定結果に基づいて、ユーザーインターフェースを変更する処理変更部と、を備える、情報処理装置が提供される。
本開示によれば、ユーザーの操作状態に起因する誤検出を確実に抑えることが可能となる。
本開示の一実施形態に係るリモートコントローラを含むリモートコントローラシステムを示す図である。 本開示の一実施形態に係るリモートコントローラの主要な機能構成を示すブロック図である。 リモートコントローラの動作を示すフロー図である。 リモートコントローラの動作を説明するための図である。 左手操作時のUIの例を示す模式図である。 両手操作時のUIの例を示す模式図である。 右手操作時のUIの例を示す模式図である。 右手操作であることが判定された場合に、タッチパネル上で指Pの接触が検出された点Dtに対して、カーソルCurの位置を左上にずらして表示した例を示す模式図である。 操作状態に応じた指の移動状態を示す図である。 右手操作時に検出される指の移動方向を示す図である。 左手操作時に検出される指の移動方向を示す図である。 両手操作時に検出される指の移動方向を示す図である。 操作状態の判定処理の一例を示すフロー図である。 右手操作、左手操作を検出する他の例を示す模式図である。 操作状態に応じてUIの構成を変更する処理を示すフローチャートである。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書および図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.リモートコントローラシステムの概要
2.システムの構成例
3.リモートコントローラの動作
4.操作状態の判定処理
5.UIを変更する処理
[1.リモートコントローラシステムの概要]
以下では、本開示の一実施形態に係るリモートコントローラ100について説明する。ただし、本開示は、リモートコントローラ100に限らず、タッチパネルディスプレイ101を搭載した携帯情報端末(PDA)、携帯電話等、携帯型の情報処理装置にも同様に適用することができる。
図1は、本開示の一実施形態に係るリモートコントローラ100を含むリモートコントローラシステムを示す図である。図1に示すように、リモートコントローラシステムは、タッチパネルディスプレイ101を搭載したリモートコントローラ100、およびリモートコントローラ100を通じて操作されるテレビ(表示装置)10を含む。なお、テレビ10は、リモートコントローラ100を通じて操作される電子機器の一例である。
リモートコントローラシステムでは、少なくともリモートコントローラ100からテレビ10の方向に有線通信または無線通信が行われる。リモートコントローラ100−テレビ10間の通信は、直接的に行われてもよく、不図示のネットワーク等を介して間接的に行われてもよい。
リモートコントローラ100は、テレビ10を操作するための操作用アイコン等をタッチパネルディスプレイ101に表示する。アイコン選択等の操作入力が行われると、リモートコントローラ100は、操作入力に応じて所定の操作コマンドCをテレビ10に送信する。テレビ10は、操作コマンドCを受信し、操作コマンドCに応じて所定の動作Aを行う。
ユーザーは、通常、利き手によりリモートコントローラ100を把持して利き手によりタッチパネルディスプレイ101を操作し、または利き手と異なる手によりリモートコントローラ100を把持して利き手によりタッチパネルディスプレイ101を操作する。そして、リモートコントローラ100は、所定の時点でリモートコントローラ100の操作状態を判定し、操作用アイコン等、GUIの表示を変更する。
操作状態の判定に際して、リモートコントローラ100は、所定の移動方向Ddを指定し、指定に従ってタッチパネルディスプレイ101上で移動される指Pの移動方向Daを検出する。そして、リモートコントローラ100は、指定した移動方向Ddと、検出した移動方向Daの差異Δに基づいて、自装置の操作状態を判定する。
ここで、右手によりリモートコントローラ100を把持して右手の親指Pによりタッチパネルディスプレイ101を操作する場合について説明する。この場合、タッチパネルディスプレイ101上で(パネル面に平行して)親指Pを真直ぐ上方向Ddに移動させようとしても、右手の構造に起因して、親指の移動方向Daが右上方向に傾斜してしまう。よって、指定に従って移動される指Pの移動方向Daを検出し、指定した移動方向Ddと検出した移動方向Daの差異Δに基づいて、リモートコントローラ100の操作状態を判定することができる。
リモートコントローラ100のタッチパネルディスプレイ101を利用して、テレビ10の操作を行うことができるが、この時、ユーザーが手元のリモートコントローラ100を見ることなく、テレビ10のみを見て操作ができることが望ましい。このため、ユーザは、フリックやスワイプ操作など、手元を見ることなしにタッチパネルディスプレイ101上で行うことのできる操作を利用することができる。
そして、本実施形態では、手元を見ずに操作することのできる、タッチパネルディスプレイ101付きのリモートコントローラ100において、ユーザーがリモートコントローラ100を保持している手が両手か、右手か、または左手かを判別して、判別結果に応じて、両手向け、右手向け、左手向けにそれぞれ最適なユーザーインターフェース(UI)に自動で切り替える。これにより、誤動作を抑止するとともに、操作性を大幅に改善することができる。
[2.システムの構成例]
図2には、リモートコントローラ100およびテレビ10の機能構成が示されている。リモートコントローラ100は、タッチパネルディスプレイ101、制御部103、メモリ105、通信部107、動き検出センサ109を含む。テレビ10は、ディスプレイ11、制御部13、メモリ15、通信部17を含む。なお、図2には、本開示の一実施形態に係る主要な機能構成のみが示されている。
まず、リモートコントローラ100の機能構成について説明する。タッチパネルディスプレイ101は、表示パネル101aにタッチパネル101b(検出部)が積層された構成を有する。表示パネル101aとしては、液晶ディスプレイ(LCD)等が利用される。タッチパネル101bとしては、抵抗膜方式、静電容量方式、超音波方式、赤外線方式等のパネルが利用される。
タッチパネル101bは、パネル面に対する指Pの接触状態を検出する。なお、他の実施形態では、接触状態に代えてまたは接触状態に加えて、指Pの近接状態を検出してもよい。タッチパネル101bは、タッチパネル101bに指Pが接触した時点で接触信号を制御部103に供給し、タッチパネル101bから指Pが離れた時点で解除信号を制御部103に供給する。
また、タッチパネル101bは、タッチパネル101bに指Pが接触している間、接触位置に対応した座標信号を制御部103に供給する。ここで、座標信号は、タッチパネル101bに対する接触位置のX−Y座標を表している。なお、以下の説明では、タッチパネル101bの左右方向をX方向(左方向を−、右方向を+)、上下方向をY方向(上方向を+、下方向を−)として定義する。
制御部103は、CPU、RAM、ROM等を含み、CPUは、RAMを作業メモリとして用いて、ROMに格納されているプログラムを実行し、リモートコントローラ100の各部を制御する。制御部103は、プログラムにより、リモートコントローラ100の操作状態を判定する判定部103a、ユーザーインターフェースを変更する処理変更部103b、表示パネル101aの表示を制御する表示処理部103cとして機能する。
判定部103aは、ユーザによるタッチパネル101b上での指Pの操作に基づいて、当該操作が右手、左手、又は両手を用いた操作のいずれであるかを判定する。処理変更部103bは、判定部103aによる判定結果に基づいて、、ユーザーインターフェースを変更する。表示処理部103cは、表示パネル101aにおける表示のための処理を行う。より具体的には、処理変更部103bは、ユーザによる操作が右手、左手、又は両手を用いた操作のいずれであるかに応じて、操作の判定領域、無効領域を変更し、指に対するカーソルの中心位置を変更する。また、処理変更部103bは、ユーザによる操作が右手、左手、又は両手を用いた操作のいずれであるかに応じて、ユーザのジェスチャーに基づく情報処理装置100の動きを検出するアルゴリズムを変更する。
メモリ105は、EEPROM等の不揮発性メモリであり、アイコンデータ、コマンド情報等を格納している。通信部107は、ユーザーによる操作入力に応じて、所定の操作コマンドCをテレビ10に送信する。
動き検出センサ109は、例えば3軸(X軸、Y軸、Z軸)方向の加速度を検出する加速度センサ、GPSセンサ等を有して構成される。制御部103は、動き検出センサ109の検出値に基づいて、ユーザが情報処理装置100を動かしてジェスチャー等をした場合に、メモリ105に格納されたアルゴリズムに従って、そのジェスチャーの動きを取得することができる。
制御部103は、タッチパネル101bから供給された座標信号をデコードして座標データを生成し、座標データおよび接触/解除信号に基づいて、リモートコントローラ100の各部を制御する。制御部103は、ユーザーによる操作入力に応じて、操作入力に応じたコマンド情報をメモリ105から読み出し、通信部107に供給する。通信部107は、コマンド情報に基づいて、所定の操作コマンドCをテレビ10に送信する。
制御部103は、メモリ105に記憶されているアイコンデータを読出してGUI画面の表示データを生成し、表示データを表示パネル101aに供給する。表示パネル101aは、表示データに基づいてGUI画面を表示する。また、制御部103は、リモートコントローラ100の操作状態に応じてアイコンの形状・配置等が変更されるように、GUI画面の表示データを生成する。
制御部103は、後述するように、所定の時点で所定の移動方向Ddを指定するメッセージMsgを生成し、ユーザーに通知する。なお、メッセージMsgは、表示パネル101aを用いて視覚的に通知されてもよく、不図示のスピーカを用いて聴覚的に通知されてもよい。
移動方向Ddは、例えば、タッチパネル101bに対して上方向、下方向、左方向、右方向のいずれかとして指定される。移動方向Ddは、タッチパネル101bに対する移動方向として指定される。この場合、例えば「表示画面に沿って指を真直ぐ上方向に移動して下さい。」というメッセージMsgが通知される。
また、移動方向Ddは、タッチパネル101bに対する移動方向を特定可能な2以上の点として指定されてもよい。この場合、例えば「表示画面の下端で任意の点を指で指示した後に、表示画面の上端でその点の真直ぐ上に位置する点を指で指示して下さい。」というメッセージMsgが通知される。
制御部103は、指定した移動方向Ddと、指定に従ってタッチパネル101b上で移動される指Pの移動方向Daの差異Δに基づいて、リモートコントローラ100の操作状態を判定する。そして、制御部103は、指定した移動方向Ddと検出した移動方向Daの差異Δに基づいて、リモートコントローラ100の操作状態を判定する。
移動方向を指定する場合、指Pの移動方向Daは、ドラッグ操作またはフリック動作に応じて、タッチパネル101b上で連続的に検出される指Pの移動軌跡から求められる。なお、ドラッグ動作とは、タッチパネル101bに指Pを接触させた状態で指Pを移動させる動作であり、フリック動作とは、タッチパネル101bを指Pで任意の方向に弾くような動作である。この場合、指Pの移動方向Daは、接触信号の検出時点の座標データ(移動始点)と、解除信号の検出直前の座標データ(移動終点)の座標差から求められる。より詳細には、フリック操作とは、パネル面に触れた指Pをパネル面上で任意の方向に向けて移動させる操作である。フリック操作では、パネル面への非接触状態から接触状態への遷移を示す接触点が移動始点M0となり、接触状態から非接触状態への遷移を示す接触点が移動終点M1となる。
一方、移動方向を特定可能な点を指定する場合、指Pの移動方向Daは、ポインティング動作に応じて、タッチパネル101b上で一方の点と他方の点の間で離散的に検出される指Pの移動座標から求められる。ポインティング動作とは、タッチパネル101bの任意の点を指Pにより指示する動作である。この場合、指Pの移動方向Daは、一方の点に対するポインティングの検出時点の座標データ(移動始点)と、他方の点に対するポインティングの検出時点の座標データ(移動終点)の座標差から求められる。
次に、テレビ10の機能構成について説明する。ディスプレイ11は、操作画面、コンテンツ等を表示する。制御部13は、CPU、RAM、ROM等を含み、テレビ10の各部を制御する。メモリ15は、EEPROM等の不揮発性メモリであり、操作画面情報、操作コマンド情報等を格納している。
通信部17は、アンテナ18を介して、操作コマンドCをリモートコントローラ100から受信する。なお、通信部17は、操作コマンドCの受信以外に、テレビ10に対応する操作画面情報、操作コマンド情報、テレビ10の状態を示すステータス情報等をリモートコントローラ100に送信することもできる。
制御部13は、リモートコントローラ100から操作コマンドCを受信すると、操作コマンド情報に基づいて、受信した操作コマンドCに対応する処理Aを実行するように、各部を制御する。
[3.リモートコントローラの動作]
本実施形態では、液晶タッチパネル付きのリモートコントローラ100において、ユーザーがリモートコントローラ100を持っているのが両手か、右手か、左手かをフリック等の軌跡から判定する。そして、判定の結果、両手向け、右手向け、左手向けにそれぞれ最適なユーザーインタフェース(UI)に自動で切り替えることで、誤動作を防止し、操作性を改善する。
以下では、図3〜図5を参照しながら、リモートコントローラ100の動作について説明する。図3は、リモートコントローラ100の動作を示すフロー図である。図4は、リモートコントローラ100の動作を説明するための図である。図5A〜図5Cは、操作状態に応じたUIの構成の変更を示す図である。
図3に示すように、制御部103は、所定の時点が到来すると、操作状態の判定処理を開始する(ステップS101)。所定の時点は、所定の操作入力の時点でもよく、リモートコントローラ100の起動時等、所定の処理時点でもよい。
判定処理を開始すると、制御部103は、所定の移動方向Ddを指定するメッセージMsgをユーザーに通知する(S103)。例えば図4では、「表示画面に沿って指を真直ぐ上方向に移動して下さい。」というメッセージMsgが表示されている(状態ST4a)。
メッセージMsgが表示され、メッセージMsgに応じた操作入力が行われると、リモートコントローラ100は、操作入力を検出する(S105)。例えば図4では、ユーザーは、タッチパネル101b(タッチパネルディスプレイ101)上で右手の親指Pを真直ぐ上方向に移動しようとするが、右手の構造に起因して、指Pが僅かに右上方向に傾斜して移動されている(状態ST4b)。
操作入力が検出されると、制御部103は、指Pの移動始点M0と移動終点M1の座標差に基づいて、指Pの移動方向Daを求める(S107)。移動方向Daを求めると、制御部103は、指定した移動方向Ddと検出した移動方向Daの差異Δに基づいて、リモートコントローラ100の操作状態を判定する(S109)。操作状態としては、片手により操作している状態と、両手により操作している状態が判別され、さらに、左手により操作している状態と右手により操作している状態が判別される。ここで、操作状態を判定できた場合に、制御部103は、判定結果に応じてUIの構成を変更する(S111)。
図5A〜図5Cは、操作状態に応じたGUIの構成の変更例を示す模式図である。ここで、図5Aは左手操作時のUIの例であり、図5Bは両手操作時のUIの例であり、図5Cは右手操作時のUIの例である。
図5A〜図5Cに示すように、左手操作、両手操作、右手操作のそれぞれに応じて、フリック上下左右判定のための領域と、遊び領域(無効領域)とが変更される。図5A〜図5Cにおいて、「上」、「下」、「右」、「左」のそれぞれで示される領域は、上方向への操作、下方向への操作、右方向への操作、左方向への操作、をそれぞれ検出する領域を示している。例えば、図5Bにおいて、指とタッチパネル101bの接触が、「下」の領域から「上」の領域へ移動した場合、下から上へのフリック操作が行われたことが検知される。
両手により操作している場合、フリックは比較的正確に直線で行われるため、図5Bに示すように、上下左右の判定領域の境界は直線とし、遊び領域は少なく、または無しとする。ボタン押下の判定領域も表示されているボタンのサイズとほぼ同じ領域とする。
片手により操作している場合、図5A又は図5Cに示すように、上下左右の判定領域の境界を曲線とし、遊びの領域を大きくする。遊びの領域で操作がされた場合、操作方向を一意に特定できないので、操作の受付は行われない。これにより、操作方向を一意に特定できない曖昧な移動操作が行われた場合でも、操作方向の誤判定を確実に抑止できる。また、例えば、右手の親指でタッチパネル101b上の操作が行われた場合、親指の付け根の位置(C1)を中心として親指の先端が円弧を描くように操作されることが多い。この場合、図5Bの両手向けUIでは、C1を中心として円弧Eに沿った操作が行われると、ユーザーは下から上へのフリック操作を意図しているにも関わらず、円弧Eに沿って「下」、「左」、「上」、「右」の各領域を通るようにタッチパネル101bが操作されるため、誤操作が生じてしまう。
このため、図5Cのように右手向けUIを変更することによって、ユーザーの操作(円弧E)は、「下」、「上」の2つの領域を通るようにタッチパネル101bが操作されるため、ユーザーが意図する下から上へのフリック操作を確実に検出することができる。従って、誤操作が行われることを確実に抑えることができる。
図5Aに示す左手向けUIについても同様に、左手の親指でタッチパネル101b上の操作が行われた場合、親指の付け根の位置(C2)を中心として親指の先端が円弧を描くように操作されるため、図5Aのように左手向けUIを変更することによって、誤操作を確実に抑えることが可能である。
また、右手向けUIでは、C1を中心として円弧Eに沿った操作が行われるため、図5Cに示す「遊び領域」では操作を受け付けないようにすることで、ユーザーが意図しない操作によって誤操作が行われてしまうことを確実に抑えることができる。
図5Aに示す左手向けUIについても同様に、親指の付け根の位置(C2)を中心として親指の先端が円弧を描くように操作されるため、遊び領域では操作を受け付けないようにすることで、ユーザーが意図しない操作によって誤操作が行われてしまうことを確実に抑えることができる。
従って、本実施形態によれば、ユーザーが操作する手に応じてUIを変更することで、誤操作の発生を確実に低減することができる。
図5A〜図5Cに示すように、表示画面の中央下部には操作ボタン200が表示されている。ユーザーがタッチパネル101b上で操作ボタン200を操作することで、操作ボタン200に従った入力がタッチパネル101bに対して行われる。
操作ボタン200を押し下げる操作において、ユーザーが片手により操作している場合は、両手で操作している場合と比較して指の中心位置がずれる。より詳細には、両手で操作する場合は、操作ボタン200の位置そのものが押されるケースが多いが、右手で操作する場合は、操作ボタン200の位置よりも右下にずれた領域が押される場合が多い。同様に、左手で操作する場合は、操作ボタン200の位置よりも左下にずれた領域が押される場合が多い。
そこで、図5A又は図5Cに示すように、操作ボタン200が押し下げられた際のタッチパネル101b上での押し下げの判定領域210を、操作ボタン200の位置よりも下側に移動するとともに、左手操作・右手操作に応じて左右にずらすようにする。左手で操作している場合は、図5Aに示すように、操作ボタン200の押し下げの判定領域210を操作ボタン200に対して左下方向(矢印方向)にずらす。また、右手で操作している場合は、図5Cに示すように、操作ボタン200の押し下げの判定領域210を右下方向(矢印方向)にずらす。これにより、ユーザーが操作ボタン200の押し下げを意図しているにも関わらず、操作ボタン200の押し下げ操作が行われていない状況を確実に回避することが可能である。
また、操作ボタン200自体など、表示されるパーツ(アイコンなど)の位置を左手操作の場合と右手操作の場合とで左右で入れ替えても良い。この場合においても、操作ボタン200またはアイコン等を、右手で操作している場合は右下方向にずらし、左手で操作している場合は左下方向にずらすようにする。これにより、操作している指Pと操作ボタン200またはアイコン等との距離が近くなり、操作性を高めることができる。
また、指に対するポインティングカーソルの中心位置を、左手操作の場合と右手操作の場合とでずらしても良い。図6は、右手操作であることが判定された場合に、タッチパネル上で指Pの接触が検出された点Dtに対して、カーソルCurの位置を左上にずらして表示した例を示す模式図である。図6に示すように、右手操作の場合は親指Pが画面の左上から右下に延在するため、指Pの接触が検出された点Dtに対して、カーソルCurの位置を左上にずらして表示することにより、カーソルCurを親指Pの先端の所望の位置に表示することができ、ユーザによる操作性を大幅に向上できる。同様に、左手操作の場合は、指Pの接触が検出された点Dtに対して、カーソルCurの位置を右上にずらして表示する。
また、ジェスチャー操作の判定の際に、左手操作と右手操作の場合で最適なアルゴリズムを選ぶようにしてもよい。ユーザが情報処理装置100を動かした場合のジェスチャーを動き検出部109で検出する場合、情報処理装置100を右手で動かした場合と左手で動かした場合とでは、動きに相違が生じる。このため、ジェスチャーを判定するためのアルゴリズムを右手操作、左手操作、両手操作のそれぞれで変更することにより、各操作に応じた最適なアルゴリズムでジェスチャーを判定することができる。
[4.操作状態の判定処理]
以下では、図7〜図9を参照しながら、操作状態の判定処理について説明する。図7は、操作状態に応じた指Pの移動状態を示す図である。図8A〜8Cは、右手操作時、左手操作時、両手操作時に検出される指Pの移動方向Daを示す図である。図9は、操作状態の判定処理の一例を示すフロー図である。
図7の状態ST6aに示すように、右手操作時には、リモートコントローラ100が右手に把持され、右手の親指Pの付け根部がリモートコントローラ100の右下に位置する。タッチパネル101b上で親指Pを移動させると、親指Pが付け根部を軸として動作することになる。よって、ユーザーが直線方向を意図して親指Pを移動させても、親指Pが付け根部を軸として円弧を描くように移動し易くなる。なお、左手操作時の移動状態も右手操作時の移動状態と同様に説明することができる。
一方、図7の状態ST6bに示すように、両手操作時には、リモートコントローラ100が一方の手(例えば左手)により把持され、他方の手(例えば右手)の人差し指P等がタッチパネル101b(タッチパネルディスプレイ101)上で移動される。ここで、他方の手の指Pは、リモートコントローラ100を把持している左手に関係せずに、タッチパネル101b上で自由に移動される。よって、ユーザーが直線方向を意図して人指し指Pを移動させると、人指し指Pが直線を描くように移動し易くなる。なお、図7では、移動操作の始点M0と終点M1でX方向の座標差ΔXが示されていないが、通常、僅かな座標差ΔXが生じうる。
図8Aには、右手操作時に検出される指Pの移動方向Daが示されている。この場合、上方向の移動操作を指定した場合には、移動方向Daが右方向に傾き(状態ST7Aa)、下方向の移動操作を指定した場合には、移動方向Daが左方向に傾き易くなる(状態ST7Ab)。また、左方向の移動操作を指定した場合には、移動方向Daが下方向に傾き(状態ST7Ac)、右方向の移動操作を指定した場合には、移動方向Daが上方向に傾き易くなる(状態ST7Ad)。
図8Bには、左手操作時に検出される指Pの移動方向Daが示されている。この場合、上方向の移動操作を指定した場合には、移動方向Daが左方向に傾き(状態ST7Ba)、下方向の移動操作を指定した場合には、移動方向Daが右方向に傾き易くなる(状態ST7Bb)。また、左方向の移動操作を指定した場合には、移動方向Daが上方向に傾き(状態ST7Bc)、右方向の移動操作を指定した場合には、移動方向Daが下方向に傾き易くなる(状態ST7Bd)。
図8Cには、両手操作時に検出される指Pの移動方向Daが示されている。この場合、上下左右いずれの方向の移動操作Ddを指定した場合でも、通常、指が指定した方向に移動されるので、移動方向Daが特定の方向に傾き難くなる(状態ST7Ca〜ST7Cd)。
図9には、操作状態の判定処理の一例が示されている。図9に示す判定処理では、制御部103は、まず、タッチパネル101bに対して上方向の移動操作をユーザーに促す(ステップS201)。
制御部103は、上方向の移動操作の始点M0と終点M1のX方向の座標差ΔX(終点座標−始点座標)の絶対値|ΔX|が第1の閾値未満Δth1であるかを判定する(S203)。そして、判定条件に該当すれば、制御部103は、両手操作であると判断する(S205)。
ステップS203の判定条件に該当しなければ、制御部103は、絶対値|ΔX|が第2の閾値Δth2(≧第1の閾値Δth1)以上であるかを判定する(S207)。ここで、閾値Δth2を用いて絶対値|ΔX|を判定することで、操作状態の誤判定が防止される。
そして、判定条件に該当すれば、制御部103は、座標差ΔXが正値であるかを判定する(S209)。そして、制御部103は、座標差ΔXが正値である場合に右手操作であると判断し(S211)、座標値ΔXが負値である場合に左手操作であると判断する(S213)。
一方、ステップS207の処理で、絶対値|ΔX|が閾値Δth2未満であると判定された場合に、制御部103は、タッチパネル101bに対して右方向の移動操作をユーザーに促す(S215)。
制御部103は、右方向の移動操作の始点座標M0と終点座標M1のY方向の座標差ΔY(終点座標−始点座標)の絶対値|ΔY|が第2の閾値Δth2以上であるかを判定する(S217)。ここでも、閾値Δth2を用いて絶対値|ΔY|を判定することで、操作状態の誤判定が防止される。
そして、判定条件に該当すれば、制御部103は、座標差ΔYが正値であるかを判定する(S219)。そして、制御部103は、座標差ΔYが正値である場合に右手操作であると判断し(S221)、座標値ΔYが負値である場合に左手操作であると判断する(S223)。
一方、ステップS217の処理で、絶対値|ΔY|が閾値Δth2未満であると判定された場合に、制御部103は、上方向および右方向の移動操作時の判定結果を組合せて操作状態を判定する。これにより、絶対値|ΔX|、|ΔY|が小さい場合でも、互いに異なる方向の移動操作時の判定結果を用いて操作状態を判定することができる。
制御部103は、X方向およびY方向の座標差ΔX、ΔYの両方が正値であるかを判定する(S225)。そして、制御部103は、判定条件に該当する場合に右手操作であると判断する(S227)。
一方、判定条件に該当しない場合、制御部103は、X方向およびY方向の座標差ΔX、ΔYの両方が負値であるかを判定する(S229)。そして、制御部103は、判定条件に該当する場合に左手操作であると判断し(S231)、判定条件に該当しない場合に判定不能であると判断する(S233)。
なお、上記例では、ステップS203の処理で第1の閾値Δth1を用いて両手操作を判定している。しかし、ステップS229の判定条件に該当しない場合に、判定不能であると判断する代わりに、両手操作であると判断してもよい。また、ステップS215の後に右方向の移動操作時のY方向の座標差ΔYの絶対値|ΔY|が閾値Δth1未満であるかを判定し、判定条件に該当する場合に、両手操作であると判断してもよい。
また、上記例では、上方向および右方向の移動操作時の判定結果を用いて操作状態を判定している。しかし、互いに異なる方向の移動操作であれば、例えば、上方向と下方向、上方向と左方向、左方向と右方向等、いずれの方向の移動操作の判定結果を用いてもよい。ただし、互いに直交する方向の移動操作の判定結果を用いた場合には、タッチパネル101bのアスペクト比に起因して、移動方向Dd、Daの差異Δが生じ易いので、操作状態を高い精度で判定することができる。
また、上記例では、ステップS225以降の処理で、上方向および右方向の移動操作時の判定結果を組合せて操作状態を判定しているが、ステップS217の処理で判定条件に該当しない場合に判定不能と判断してもよい。
また、上記例では、上方向の移動操作時の閾値と右方向の移動操作時の閾値として、同一の閾値Δth2を用いているが、例えばΔth2とΔth2´等、異なる閾値を用いてもよい。
以上説明したように、本開示の一実施形態に係るリモートコントローラ100によれば、指定した移動方向Ddと、指定に従って表示パネル101a上で移動される指Pの移動方向Daの差異Δに基づいて、リモートコントローラ100の操作状態が判定される。リモートコントローラ100を片手で操作している場合には、指定した移動方向Ddと指Pの移動方向Daには、手の構造に起因して、操作に用いられる指Pに応じた差異Δが生じ易くなる。一方、リモートコントローラ100を両手で操作している場合には、指定した移動方向Ddと指Pの移動方向Daには、操作に用いられる指Pに応じた差異Δが生じ難くなる。このため、移動方向Dd、Daの差異Δに基づいて、リモートコントローラ100の操作状態を容易かつ正確に判定することができる。
なお、上記の説明では、タッチパネル101bに対して上下左右の移動方向Ddが指定される場合について説明したが、例えば、タッチパネル101bの対角線に沿って斜めの移動方向Ddが指定されてもよい。この場合、指定した対角線沿いの移動方向Ddと、検出した移動方向Daの差異Δ(角度差)に基づいて、リモートコントローラ100の操作状態を判定することができる。
また、上記の説明では、タッチパネル101bに接触する指Pの移動方向Daを検出する場合について説明したが、タッチパネル101に近接する指の移動方向Daを検出してもよい。
また、上記の説明では、ユーザーに所定方向の移動操作を促して操作状態を判定したが、これに限定されるものではない。例えば、ユーザーのフリック操作が任意に行われた場合に、垂直軸または水平軸と指Pの移動方向Daの差異Δに基づいて、操作状態を判定することも勿論可能である。また、指Pのフリック操作を複数回検出し、複数回の検出結果に基づいて操作状態を判定することで、判定の精度を高めることができる。
図10は、右手操作、左手操作を検出する他の例を示す模式図である。図10に示す例では、ユーザがタッチパネル101bで接触した指Pの軌跡(円弧)を検出し、円弧の向きによって右手操作か左手操作かを判定する。
図10において、軌跡K1は右手操作の場合を示しており、軌跡K2は左手操作の場合を示している。右手操作の場合、3つの接触点M10,M11,M12から軌跡K1が求まる。また、軌跡K1を円弧とした場合に、その中心CEを求める。右手操作の場合、軌跡K1は親指の付け根を中心とた円弧となり、円弧の中心は表示パネル101aの右側に位置する。従って、軌跡K1に対して中心CEが右側に位置している場合は、右手操作であると判定することができる。
左手操作の場合も同様に、軌跡K2を円弧とした場合に、軌跡K2に対して中心CEが左側に位置している場合は、左手操作であると判定することができる。
[5.UIを変更する処理]
次に、操作状態に応じてUIの構成を変更する処理について説明する。図11は、操作状態に応じてUIの構成を変更する処理を示すフローチャートである。先ず、ステップS10では、フリック操作を検出する。次のステップS12では、フリックの軌跡が、左手操作による曲線、直線、右手操作による曲線、判断不能のいずれであるかを判定する。
フリックの軌跡が左手操作による曲線の場合は、ステップS14へ進む。ステップS14では、図5Aに示した左手向けUIに変更し、左手向けUIで上下左右の操作を判別する。
フリックの軌跡が直線の場合は、ステップS16へ進む。ステップS16では、図5Bに示した両手向けUIに変更し、両手向けUIで上下左右の操作を判別する。
フリックの軌跡が右手操作による曲線の場合は、ステップS18へ進む。ステップS18では、図5Cに示した右手向けUIに変更し、右手向けUIで上下左右の操作を判別する。
フリックの軌跡が判断できない場合は、ステップS20へ進む。ステップS20では、UIを変更せずに、前回と同じUIで上下左右を判別する。
以上説明したように本実施形態によれば、液晶タッチパネル付きのリモートコントローラ100を保持しているのが両手か、右手か、左手かを判別して、両手向け、右手向け、左手向けにそれぞれ最適なUIに自動で切り換えることで、誤動作を抑止するとともに、操作性を大幅に改善することが可能となる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示はかかる例に限定されない。本開示の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)操作面上で移動される指を検出する検出部と、
前記操作面上で移動される指の移動軌跡に基づいて、右手、左手、又は両手による操作のいずれかを判定する判定部と、
前記判定部による判定結果に基づいて、ユーザーの操作の検出に係る処理を変更する処理変更部と、
を備える、情報処理装置。
(2)前記処理変更部は、前記判定部による判定結果に基づいて、前記検出部による検出に基づく操作の判定領域を変更する、前記(1)に記載の情報処理装置。
(3)前記処理変更部は、前記判定領域の境界部分に前記検出部による検出を受け付けない無効領域を設定し、前記判定部による判定結果に基づいて、前記無効領域を変更する、前記(2)に記載の情報処理装置。
(4)前記処理変更部は、前記判定部により右手又は左手による操作と判定された場合は前記無効領域を設定し、前記判定部により両手による操作と判定された場合は前記無効領域を設定する、前記(3)に記載の情報処理装置。
(5)前記操作面と重なるように表示パネルが設けられ、前記表示パネルには操作ボタンが表示され、前記処理変更部は、前記判定部による判定結果に基づいて、前記操作ボタンの押し下げの判定領域を変更する、前記(2)に記載の情報処理装置。
(6)前記処理変更部は、前記判定部により右手による操作と判定された場合は前記判定領域を前記操作ボタンの位置に対して右側に移動し、前記判定部により左手による操作と判定された場合は前記判定領域を前記操作ボタンの位置に対して左側に移動する、前記(5)に記載の情報処理装置。
(7)前記処理変更部は、前記判定部による判定結果に基づいて、検出した指の位置に対するカーソルの中心位置を変更する、前記(1)に記載の情報処理装置。
(8)前記処理変更部は、前記判定部による判定結果に基づいて、ジェスチャーの判定アルゴリズムを変更する、前記(1)に記載の情報処理装置。
(9)操作面上で移動される指を検出することと、
前記操作面上で移動される指の移動軌跡に基づいて、右手、左手、又は両手による操作のいずれかを判定することと、
前記判定の結果に基づいて、ユーザーの操作の検出に係る処理を変更することと、
を備える、情報処理方法。
(10)操作面上で移動される指を検出する手段、
前記操作面上で移動される指の移動軌跡に基づいて、右手、左手、又は両手による操作のいずれかを判定する手段、
前記判定の結果に基づいて、ユーザー操作の検出に係る処理を変更する手段、
としてコンピュータを機能させるためのプログラム。
(11)情報処理装置と、前記情報処理装置により遠隔操作される電子機器を有し、
前記情報処理装置は、
操作面上で移動される指を検出する検出部と、
前記操作面上で移動される指の移動軌跡に基づいて、右手、左手、又は両手による操作のいずれかを判定する判定部と、
前記判定部による判定結果に基づいて、ユーザーの操作の検出に係る処理を変更する処理変更部と、
を備える、遠隔操作システム。
100 リモートコントローラ
101 タッチパネルディスプレイ
101a 表示パネル
101b タッチパネル
103 制御部
103a 判定部
103b 処理変更部

Claims (11)

  1. 操作面上で移動される指を検出する検出部と、
    前記操作面上で移動される指の移動軌跡に基づいて、右手、左手、又は両手による操作のいずれかを判定する判定部と、
    前記判定部による判定結果に基づいて、ユーザーの操作の検出に係る処理を変更する処理変更部と、
    を備える、情報処理装置。
  2. 前記処理変更部は、前記判定部による判定結果に基づいて、前記検出部による検出に基づく操作の判定領域を変更する、請求項1に記載の情報処理装置。
  3. 前記処理変更部は、前記判定領域の境界部分に前記検出部による検出を受け付けない無効領域を設定し、前記判定部による判定結果に基づいて、前記無効領域を変更する、請求項2に記載の情報処理装置。
  4. 前記処理変更部は、前記判定部により右手又は左手による操作と判定された場合は前記無効領域を設定し、前記判定部により両手による操作と判定された場合は前記無効領域を設定する、請求項3に記載の情報処理装置。
  5. 前記操作面と重なるように表示パネルが設けられ、前記表示パネルには操作ボタンが表示され、前記処理変更部は、前記判定部による判定結果に基づいて、前記操作ボタンの押し下げの判定領域を変更する、請求項2に記載の情報処理装置。
  6. 前記処理変更部は、前記判定部により右手による操作と判定された場合は前記判定領域を前記操作ボタンの位置に対して右側に移動し、前記判定部により左手による操作と判定された場合は前記判定領域を前記操作ボタンの位置に対して左側に移動する、請求項5に記載の情報処理装置。
  7. 前記処理変更部は、前記判定部による判定結果に基づいて、検出した指の位置に対するカーソルの中心位置を変更する、請求項1に記載の情報処理装置。
  8. 前記処理変更部は、前記判定部による判定結果に基づいて、ジェスチャーの判定アルゴリズムを変更する、請求項1に記載の情報処理装置。
  9. 操作面上で移動される指を検出することと、
    前記操作面上で移動される指の移動軌跡に基づいて、右手、左手、又は両手による操作のいずれかを判定することと、
    前記判定の結果に基づいて、ユーザーの操作の検出に係る処理を変更することと、
    を備える、情報処理方法。
  10. 操作面上で移動される指を検出する手段、
    前記操作面上で移動される指の移動軌跡に基づいて、右手、左手、又は両手による操作のいずれかを判定する手段、
    前記判定の結果に基づいて、ユーザー操作の検出に係る処理を変更する手段、
    としてコンピュータを機能させるためのプログラム。
  11. 情報処理装置と、前記情報処理装置により遠隔操作される電子機器を有し、
    前記情報処理装置は、
    操作面上で移動される指を検出する検出部と、
    前記操作面上で移動される指の移動軌跡に基づいて、右手、左手、又は両手による操作のいずれかを判定する判定部と、
    前記判定部による判定結果に基づいて、ユーザー操作の検出に係る処理を変更する処理変更部と、
    を備える、遠隔操作システム。
JP2011144059A 2011-06-29 2011-06-29 情報処理装置、情報処理方法、プログラム、および遠隔操作システム Expired - Fee Related JP5790203B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2011144059A JP5790203B2 (ja) 2011-06-29 2011-06-29 情報処理装置、情報処理方法、プログラム、および遠隔操作システム
EP12170436.5A EP2541385B1 (en) 2011-06-29 2012-06-01 Information processing apparatus, information processing method, program and remote control system
BR102012015193-6A BR102012015193A2 (pt) 2011-06-29 2012-06-19 Aparelho de processamento de informação, método implementado em computador, e, unidade de armazenagem legível por computador
CN201210210061.1A CN102880405B (zh) 2011-06-29 2012-06-21 信息处理装置以及信息处理方法
US13/529,103 US20130002578A1 (en) 2011-06-29 2012-06-21 Information processing apparatus, information processing method, program and remote control system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011144059A JP5790203B2 (ja) 2011-06-29 2011-06-29 情報処理装置、情報処理方法、プログラム、および遠隔操作システム

Publications (2)

Publication Number Publication Date
JP2013012021A true JP2013012021A (ja) 2013-01-17
JP5790203B2 JP5790203B2 (ja) 2015-10-07

Family

ID=46583845

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011144059A Expired - Fee Related JP5790203B2 (ja) 2011-06-29 2011-06-29 情報処理装置、情報処理方法、プログラム、および遠隔操作システム

Country Status (5)

Country Link
US (1) US20130002578A1 (ja)
EP (1) EP2541385B1 (ja)
JP (1) JP5790203B2 (ja)
CN (1) CN102880405B (ja)
BR (1) BR102012015193A2 (ja)

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013080774A1 (ja) * 2011-11-29 2013-06-06 日本精機株式会社 車両用操作装置
WO2014141856A1 (ja) * 2013-03-11 2014-09-18 シャープ株式会社 携帯型装置
JP2014215815A (ja) * 2013-04-25 2014-11-17 富士通株式会社 入力装置および入力制御プログラム
JP2016220977A (ja) * 2015-05-29 2016-12-28 東芝メディカルシステムズ株式会社 医用画像診断システム、サーバー装置及び医用画像表示装置
JP2017084007A (ja) * 2015-10-26 2017-05-18 京セラドキュメントソリューションズ株式会社 操作入力装置及び操作入力方法
JP6293953B1 (ja) * 2017-04-04 2018-03-14 京セラ株式会社 電子機器、プログラムおよび制御方法
JP2018109873A (ja) * 2017-01-04 2018-07-12 京セラ株式会社 電子機器、プログラムおよび制御方法
JP2018181097A (ja) * 2017-04-18 2018-11-15 京セラドキュメントソリューションズ株式会社 操作入力装置、情報処理装置、操作入力方法
JP2018181307A (ja) * 2018-02-14 2018-11-15 京セラ株式会社 電子機器、プログラムおよび制御方法
JP2018182547A (ja) * 2017-04-13 2018-11-15 キヤノン株式会社 電子機器およびその制御方法
WO2020031547A1 (ja) * 2018-08-06 2020-02-13 株式会社デンソー 入力装置
JPWO2021048582A1 (ja) * 2019-09-09 2021-03-18
JP2021096876A (ja) * 2018-04-10 2021-06-24 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、および、情報処理方法
JP2023101551A (ja) * 2014-06-24 2023-07-21 アップル インコーポレイテッド 入力デバイス及びユーザインターフェース対話
US11934640B2 (en) 2021-01-29 2024-03-19 Apple Inc. User interfaces for record labels
US11962836B2 (en) 2019-03-24 2024-04-16 Apple Inc. User interfaces for a media browsing application
US11966560B2 (en) 2016-10-26 2024-04-23 Apple Inc. User interfaces for browsing content from multiple content applications on an electronic device
US12008232B2 (en) 2019-03-24 2024-06-11 Apple Inc. User interfaces for viewing and accessing content on an electronic device
US12086186B2 (en) 2014-06-24 2024-09-10 Apple Inc. Interactive interface for navigating in a user interface associated with a series of content

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5458783B2 (ja) 2009-10-01 2014-04-02 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US20130127738A1 (en) * 2011-11-23 2013-05-23 Microsoft Corporation Dynamic scaling of touch sensor
US9047008B2 (en) 2012-08-24 2015-06-02 Nokia Technologies Oy Methods, apparatuses, and computer program products for determination of the digit being used by a user to provide input
US10025459B2 (en) 2013-03-14 2018-07-17 Airwatch Llc Gesture-based workflow progression
TWI512565B (zh) * 2013-09-26 2015-12-11 Inst Information Industry A touch display device, a method and a recording medium which are dynamically set to touch the closed area
CN104049896B (zh) * 2014-06-24 2017-06-27 联想(北京)有限公司 一种显示方法及装置
JP5711409B1 (ja) * 2014-06-26 2015-04-30 ガンホー・オンライン・エンターテイメント株式会社 端末装置
CN104133635A (zh) * 2014-07-23 2014-11-05 百度在线网络技术(北京)有限公司 判断终端手持状态的方法和装置
KR20160013748A (ko) * 2014-07-28 2016-02-05 엘지전자 주식회사 휴대 전자기기 및 그것의 제어방법
WO2016086316A1 (en) * 2014-12-05 2016-06-09 9329-5459 Québec Inc. Apparatus and method for faucet control
KR20170002051A (ko) * 2015-06-29 2017-01-06 삼성전자주식회사 한 손 조작 사용자 인터페이스 구현 방법 및 이를 수행하는 전자 장치
US9760758B2 (en) * 2015-12-30 2017-09-12 Synaptics Incorporated Determining which hand is being used to operate a device using a fingerprint sensor
US10579216B2 (en) * 2016-03-28 2020-03-03 Microsoft Technology Licensing, Llc Applications for multi-touch input detection
KR102490913B1 (ko) * 2016-06-07 2023-01-20 삼성전자주식회사 디스플레이 장치 및 제어 방법
CN108594995A (zh) * 2018-04-13 2018-09-28 广东小天才科技有限公司 一种基于手势识别的电子设备操作方法及电子设备
US11150746B2 (en) * 2018-06-28 2021-10-19 Google Llc Wearable electronic devices having user interface mirroring based on device position
US10990251B1 (en) * 2019-11-08 2021-04-27 Sap Se Smart augmented reality selector
CN111190509B (zh) * 2019-12-27 2023-06-27 歌尔股份有限公司 一种触摸检测方法、装置及无线耳机和存储介质
JP7277392B2 (ja) * 2020-01-21 2023-05-18 株式会社東海理化電機製作所 遠隔制御装置、処理装置、およびコンピュータプログラム
CN114237419B (zh) * 2021-03-31 2023-10-27 青岛海信商用显示股份有限公司 显示设备、触控事件的识别方法
JP7274157B1 (ja) * 2022-08-01 2023-05-16 株式会社アルヴィオン 操作対象機器の操作用のプログラム

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0876927A (ja) * 1994-08-31 1996-03-22 Brother Ind Ltd 情報処理装置
JPH1097380A (ja) * 1996-09-19 1998-04-14 Nikon Corp 手動操作補正装置
JP2003173239A (ja) * 2001-12-06 2003-06-20 Matsushita Electric Ind Co Ltd 携帯型情報端末装置及び画面表示制御方法
US20090231282A1 (en) * 2008-03-14 2009-09-17 Steven Fyke Character selection on a device using offset contact-zone
WO2010029599A1 (en) * 2008-09-11 2010-03-18 Thomson Licensing Touch panel device
JP2010117841A (ja) * 2008-11-12 2010-05-27 Sharp Corp 像検知装置、入力位置の認識方法、およびプログラム
JP2010117748A (ja) * 2008-11-11 2010-05-27 Panasonic Corp 入力装置および入力方法
JP2011076521A (ja) * 2009-10-01 2011-04-14 Sony Corp 情報処理装置、情報処理方法およびプログラム

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5689667A (en) * 1995-06-06 1997-11-18 Silicon Graphics, Inc. Methods and system of controlling menus with radial and linear portions
US7844914B2 (en) * 2004-07-30 2010-11-30 Apple Inc. Activating virtual keys of a touch-screen virtual keyboard
US9292111B2 (en) * 1998-01-26 2016-03-22 Apple Inc. Gesturing with a multipoint sensing device
US7800592B2 (en) * 2005-03-04 2010-09-21 Apple Inc. Hand held electronic device with multiple touch sensing devices
US6104317A (en) * 1998-02-27 2000-08-15 Motorola, Inc. Data entry device and method
FI20021162A0 (fi) * 2002-06-14 2002-06-14 Nokia Corp Elektroninen laite ja menetelmä sen näppäimistön hallintaan
US8059100B2 (en) * 2005-11-17 2011-11-15 Lg Electronics Inc. Method for allocating/arranging keys on touch-screen, and mobile terminal for use of the same
JP2008009668A (ja) * 2006-06-29 2008-01-17 Syn Sophia Inc タッチパネルの駆動方法及び入力方法
US8059101B2 (en) * 2007-06-22 2011-11-15 Apple Inc. Swipe gestures for touch screen keyboards
JP2009110286A (ja) * 2007-10-30 2009-05-21 Toshiba Corp 情報処理装置、ランチャー起動制御プログラムおよびランチャー起動制御方法
US20090109183A1 (en) * 2007-10-30 2009-04-30 Bose Corporation Remote Control of a Display
US8677285B2 (en) * 2008-02-01 2014-03-18 Wimm Labs, Inc. User interface of a small touch sensitive display for an electronic data and communication device
JP5045559B2 (ja) * 2008-06-02 2012-10-10 富士通モバイルコミュニケーションズ株式会社 携帯端末
JP4632102B2 (ja) * 2008-07-17 2011-02-16 ソニー株式会社 情報処理装置、情報処理方法及び情報処理プログラム
WO2010018579A2 (en) * 2008-08-12 2010-02-18 Benjamin Firooz Ghassabian Improved data entry system
EP3654141A1 (en) * 2008-10-06 2020-05-20 Samsung Electronics Co., Ltd. Method and apparatus for displaying graphical user interface depending on a user's contact pattern
US8368658B2 (en) * 2008-12-02 2013-02-05 At&T Mobility Ii Llc Automatic soft key adaptation with left-right hand edge sensing
EP2360560A1 (en) * 2008-12-16 2011-08-24 NEC Corporation Mobile terminal device and key arrangement control method
US8217910B2 (en) * 2008-12-19 2012-07-10 Verizon Patent And Licensing Inc. Morphing touch screen layout
JP2010186442A (ja) * 2009-02-13 2010-08-26 Sharp Corp 入力装置、及び入力制御方法
KR20100118366A (ko) * 2009-04-28 2010-11-05 삼성전자주식회사 휴대 단말기의 터치스크린 운용 방법 및 이를 지원하는 휴대 단말기
JP2011077863A (ja) 2009-09-30 2011-04-14 Sony Corp 遠隔操作装置、遠隔操作システム、遠隔操作方法およびプログラム
US20120206414A1 (en) * 2009-10-16 2012-08-16 Rohm Co., Ltd. Mobile device
KR20110069476A (ko) * 2009-12-17 2011-06-23 주식회사 아이리버 사용자 그립 상태를 반영하여 조작가능한 핸드헬드 전자기기 및 조작방법
JP5370144B2 (ja) * 2009-12-28 2013-12-18 ソニー株式会社 操作方向判定装置、遠隔操作システム、操作方向判定方法およびプログラム
JP5526789B2 (ja) * 2010-01-08 2014-06-18 ソニー株式会社 情報処理装置およびプログラム
US20110231796A1 (en) * 2010-02-16 2011-09-22 Jose Manuel Vigil Methods for navigating a touch screen device in conjunction with gestures
JP5379250B2 (ja) * 2011-02-10 2013-12-25 株式会社ソニー・コンピュータエンタテインメント 入力装置、情報処理装置および入力値取得方法
CN102203715B (zh) * 2011-05-23 2013-03-20 华为终端有限公司 一种输入方法、输入装置和终端设备

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0876927A (ja) * 1994-08-31 1996-03-22 Brother Ind Ltd 情報処理装置
JPH1097380A (ja) * 1996-09-19 1998-04-14 Nikon Corp 手動操作補正装置
JP2003173239A (ja) * 2001-12-06 2003-06-20 Matsushita Electric Ind Co Ltd 携帯型情報端末装置及び画面表示制御方法
US20090231282A1 (en) * 2008-03-14 2009-09-17 Steven Fyke Character selection on a device using offset contact-zone
WO2010029599A1 (en) * 2008-09-11 2010-03-18 Thomson Licensing Touch panel device
JP2010117748A (ja) * 2008-11-11 2010-05-27 Panasonic Corp 入力装置および入力方法
JP2010117841A (ja) * 2008-11-12 2010-05-27 Sharp Corp 像検知装置、入力位置の認識方法、およびプログラム
JP2011076521A (ja) * 2009-10-01 2011-04-14 Sony Corp 情報処理装置、情報処理方法およびプログラム

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013112207A (ja) * 2011-11-29 2013-06-10 Nippon Seiki Co Ltd 車両用操作装置
US9207856B2 (en) 2011-11-29 2015-12-08 Nippon Seiki Co., Ltd. Vehicula touch input device with determination of straight line gesture
WO2013080774A1 (ja) * 2011-11-29 2013-06-06 日本精機株式会社 車両用操作装置
WO2014141856A1 (ja) * 2013-03-11 2014-09-18 シャープ株式会社 携帯型装置
JP2014174829A (ja) * 2013-03-11 2014-09-22 Sharp Corp 携帯型装置
JP2014215815A (ja) * 2013-04-25 2014-11-17 富士通株式会社 入力装置および入力制御プログラム
JP2023101551A (ja) * 2014-06-24 2023-07-21 アップル インコーポレイテッド 入力デバイス及びユーザインターフェース対話
US12105942B2 (en) 2014-06-24 2024-10-01 Apple Inc. Input device and user interface interactions
US12086186B2 (en) 2014-06-24 2024-09-10 Apple Inc. Interactive interface for navigating in a user interface associated with a series of content
JP2016220977A (ja) * 2015-05-29 2016-12-28 東芝メディカルシステムズ株式会社 医用画像診断システム、サーバー装置及び医用画像表示装置
JP2017084007A (ja) * 2015-10-26 2017-05-18 京セラドキュメントソリューションズ株式会社 操作入力装置及び操作入力方法
US11966560B2 (en) 2016-10-26 2024-04-23 Apple Inc. User interfaces for browsing content from multiple content applications on an electronic device
JP2018109873A (ja) * 2017-01-04 2018-07-12 京セラ株式会社 電子機器、プログラムおよび制御方法
JP6293953B1 (ja) * 2017-04-04 2018-03-14 京セラ株式会社 電子機器、プログラムおよび制御方法
US10712828B2 (en) 2017-04-04 2020-07-14 Kyocera Corporation Electronic device, recording medium, and control method
JP2018180647A (ja) * 2017-04-04 2018-11-15 京セラ株式会社 電子機器、プログラムおよび制御方法
JP2018182547A (ja) * 2017-04-13 2018-11-15 キヤノン株式会社 電子機器およびその制御方法
JP2018181097A (ja) * 2017-04-18 2018-11-15 京セラドキュメントソリューションズ株式会社 操作入力装置、情報処理装置、操作入力方法
JP2018181307A (ja) * 2018-02-14 2018-11-15 京セラ株式会社 電子機器、プログラムおよび制御方法
JP7168713B2 (ja) 2018-04-10 2022-11-09 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、および、情報処理方法
JP2021096876A (ja) * 2018-04-10 2021-06-24 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、および、情報処理方法
WO2020031547A1 (ja) * 2018-08-06 2020-02-13 株式会社デンソー 入力装置
US11962836B2 (en) 2019-03-24 2024-04-16 Apple Inc. User interfaces for a media browsing application
US12008232B2 (en) 2019-03-24 2024-06-11 Apple Inc. User interfaces for viewing and accessing content on an electronic device
JP7298699B2 (ja) 2019-09-09 2023-06-27 日産自動車株式会社 車両遠隔制御方法及び車両遠隔制御装置
WO2021048582A1 (ja) * 2019-09-09 2021-03-18 日産自動車株式会社 車両遠隔制御方法及び車両遠隔制御装置
JPWO2021048582A1 (ja) * 2019-09-09 2021-03-18
US12093033B2 (en) 2019-09-09 2024-09-17 Nissan Motor Co., Ltd. Vehicle remote control method and vehicle remote control device
US11934640B2 (en) 2021-01-29 2024-03-19 Apple Inc. User interfaces for record labels

Also Published As

Publication number Publication date
BR102012015193A2 (pt) 2013-11-05
JP5790203B2 (ja) 2015-10-07
CN102880405B (zh) 2017-11-03
EP2541385A3 (en) 2014-02-19
EP2541385B1 (en) 2017-08-02
CN102880405A (zh) 2013-01-16
US20130002578A1 (en) 2013-01-03
EP2541385A2 (en) 2013-01-02

Similar Documents

Publication Publication Date Title
JP5790203B2 (ja) 情報処理装置、情報処理方法、プログラム、および遠隔操作システム
JP5458783B2 (ja) 情報処理装置、情報処理方法およびプログラム
US9733752B2 (en) Mobile terminal and control method thereof
EP2718788B1 (en) Method and apparatus for providing character input interface
JP2012048325A (ja) 情報処理装置、その制御方法、プログラム及び記憶媒体
JP2012190318A (ja) 電子機器
JP5780438B2 (ja) 電子機器、位置指定方法及びプログラム
JP2011077863A (ja) 遠隔操作装置、遠隔操作システム、遠隔操作方法およびプログラム
US10671269B2 (en) Electronic device with large-size display screen, system and method for controlling display screen
TW201816581A (zh) 介面控制方法和電子裝置
US20170329489A1 (en) Operation input apparatus, mobile terminal, and operation input method
US9244564B2 (en) Information processing apparatus touch panel display and control method therefor
WO2013161170A1 (ja) 入力装置、入力支援方法及びプログラム
JP5657866B2 (ja) 入力装置、ポインタの表示位置調整方法およびプログラム
US20170075453A1 (en) Terminal and terminal control method
JP2013097763A (ja) 情報処理装置およびその入力制御プログラム
WO2013080425A1 (ja) 入力装置、情報端末、入力制御方法、および入力制御プログラム
JP2015153197A (ja) ポインティング位置決定システム
JP2013161332A (ja) 情報処理装置、その制御方法およびその制御プログラム
US10955962B2 (en) Electronic device and control method thereof that switches a touch panel between an independent mode and a dual input mode
KR20120094728A (ko) 유저인터페이스 제공 방법 및 이를 이용한 휴대 단말기
JP5965001B2 (ja) 電子機器
JP2015005302A (ja) 入力装置、ポインタの表示位置調整方法およびプログラム
JP2015207310A (ja) 電子機器、位置指定方法及びプログラム
JP2015211856A (ja) ゲーム装置及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140617

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150313

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150407

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150601

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150707

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150720

R151 Written notification of patent or utility model registration

Ref document number: 5790203

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees