JP2012133729A - 情報処理装置、情報処理方法、およびプログラム - Google Patents

情報処理装置、情報処理方法、およびプログラム Download PDF

Info

Publication number
JP2012133729A
JP2012133729A JP2010287451A JP2010287451A JP2012133729A JP 2012133729 A JP2012133729 A JP 2012133729A JP 2010287451 A JP2010287451 A JP 2010287451A JP 2010287451 A JP2010287451 A JP 2010287451A JP 2012133729 A JP2012133729 A JP 2012133729A
Authority
JP
Japan
Prior art keywords
input
event
state
detected
mode
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010287451A
Other languages
English (en)
Inventor
Atsushi Sakurai
敦 桜井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2010287451A priority Critical patent/JP2012133729A/ja
Priority to US13/280,388 priority patent/US9250790B2/en
Priority to TW100145544A priority patent/TW201241690A/zh
Priority to EP11192870A priority patent/EP2469394A1/en
Priority to CN2011104243738A priority patent/CN102541379A/zh
Priority to KR1020110136188A priority patent/KR20120073104A/ko
Publication of JP2012133729A publication Critical patent/JP2012133729A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04108Touchless 2D- digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface without distance measurement in the Z direction

Abstract

【課題】手袋を装着している場合であっても素手の場合と同様の操作を行うことができるようにする。
【解決手段】タッチパネルから出力された信号により表されるユーザの指までの距離が、ディスプレイの表面に触れてはいないが閾値th1より近い場合、Hoverイベントが検出され、ユーザの指がディスプレイ2に触れている場合、Touchイベントが検出される。手袋操作モードが設定されている場合、HoverイベントよりTouchイベントが優先され、Hoverイベントの検出領域においてもTouchイベントが検出される。手袋操作モードの設定は、本体の設定画面からユーザが意図的に行うことが可能とされる。本発明は、タッチパネルを有する装置に適用することができる。
【選択図】図3

Description

本発明は、情報処理装置、情報処理方法、およびプログラムに関し、特に、手袋を装着している場合であっても素手の場合と同様の操作を行うことができるようにした情報処理装置、情報処理方法、およびプログラムに関する。
近年、携帯電話機やデジタルカメラなどの携帯型の端末の多くに入力インタフェースとしてタッチパネルが用いられている。タッチパネルの方式には、静電容量方式、抵抗膜方式、赤外線遮光方式などの方式がある。
例えば静電容量方式のタッチパネルにおいては、各位置に配置されている電極で静電容量の変化を検出することによって指の位置が検出されるようになされている。電極の静電容量は、指などの、静電容量の変化を起こさせる物体が近づくことに応じて増加し、離れることに応じて減少する。
このように、静電容量方式のタッチパネルを有する端末においては、一般的に、静電容量の強弱に基づいてタッチパネルに触れたことを検出することによって機能の実装が図られている。
ところで、ユーザが手袋をはめており素手で触ることができない場合、タッチパネルに触れたとしても静電容量の変化が起きないためにユーザ操作を検出することが難しくなる。
このことに対応するために、タッチセンサの抵抗値を測定し、基準値より高い場合にはユーザが手袋を装着していると判断してタッチパネル操作のオン/オフを判断する閾値を素手のときの閾値より低く設定する技術がある(特許文献1)。この技術によれば、ユーザが手袋を装着しているときに閾値を低く設定することによって、タッチパネルの感度を向上させることが可能になる。
特開2008−33701号公報
特許文献1に開示されている技術においては、閾値を一度設定した後、素手で触り直したか否かの確認を繰り返す実装になっており、このことが、タッチセンサをタッチしたか否かといった1つのイベントに基づいて実現されるようになっている。また、素手で操作するモードであるのか、手袋を装着して操作するモードであるのかをユーザが意図的に変更することができない。
本発明はこのような状況に鑑みてなされたものであり、手袋を装着している場合であっても素手の場合と同様の操作を行うことができるようにするものである。
本発明の一側面の情報処理装置は、装置に対する操作の方法に関する操作モードとして、複数のモードの中から所定のモードを設定する設定手段と、所定の面を基準として、前記所定の面の各位置における、近接された物体までの距離に応じた信号である検出信号を出力する物体検出手段と、前記操作モードとして第1のモードが設定されている場合、前記検出信号により表される前記物体の状態が前記所定の面に触れている状態であるときと所定の距離より近い状態であるときに第1の入力が行われたことを検出し、第2のモードが設定されている場合、前記検出信号により表される前記物体の状態が前記所定の面に触れている状態であるときには前記第1の入力が行われたことを、前記所定の距離より近い状態であるときには第2の入力が行われたことをそれぞれ検出する入力検出手段と、前記第1の入力が行われたことが検出された場合、前記第1の入力に応じた処理を行い、前記第2の入力が行われたことが検出された場合、前記第2の入力に応じた処理を行う制御手段とを備える。
前記設定手段には、ユーザによる操作に応じて前記操作モードを設定させることができる。
前記入力検出手段には、さらに、前記第1のモードが設定されている場合と前記第2のモードが設定されている場合のいずれの場合においても、前記検出信号により表される前記物体の状態が、前記所定の距離より遠く、閾値となる他の距離より近い状態であるときに第3の入力が行われたことを検出させることができる。
前記制御手段には、前記第2の入力に応じた処理として、前記第2の入力が行われたことが検出された前記所定の面上の位置に所定の画像を表示させ続ける処理を行わせることができる。
本発明の一側面の情報処理方法は、装置に対する操作の方法に関する操作モードとして、複数のモードの中から所定のモードを設定し、前記操作モードとして第1のモードを設定している場合、物体検出手段から出力された、所定の面を基準として、前記所定の面の各位置における、近接された物体までの距離に応じた信号である検出信号により表される前記物体の状態が前記所定の面に触れている状態であるときと所定の距離より近い状態であるときに第1の入力が行われたことを検出し、第2のモードを設定している場合、前記検出信号により表される前記物体の状態が前記所定の面に触れている状態であるときには前記第1の入力が行われたことを、前記所定の距離より近い状態であるときには第2の入力が行われたことをそれぞれ検出し、前記第1の入力が行われたことを検出した場合、前記第1の入力に応じた処理を行い、前記第2の入力が行われたことを検出した場合、前記第2の入力に応じた処理を行うステップを含む。
本発明の一側面のプログラムは、装置に対する操作の方法に関する操作モードとして、複数のモードの中から所定のモードを設定し、前記操作モードとして第1のモードを設定している場合、物体検出手段から出力された、所定の面を基準として、前記所定の面の各位置における、近接された物体までの距離に応じた信号である検出信号により表される前記物体の状態が前記所定の面に触れている状態であるときと所定の距離より近い状態であるときに第1の入力が行われたことを検出し、第2のモードを設定している場合、前記検出信号により表される前記物体の状態が前記所定の面に触れている状態であるときには前記第1の入力が行われたことを、前記所定の距離より近い状態であるときには第2の入力が行われたことをそれぞれ検出し、前記第1の入力が行われたことを検出した場合、前記第1の入力に応じた処理を行い、前記第2の入力が行われたことを検出した場合、前記第2の入力に応じた処理を行うステップを含む処理をコンピュータに実行させる。
本発明の一側面においては、装置に対する操作の方法に関する操作モードとして、複数のモードの中から所定のモードが設定され、前記操作モードとして第1のモードが設定されている場合、検出信号により表される物体の状態が所定の面に触れている状態であるときと所定の距離より近い状態であるときに第1の入力が行われたことが検出され、第2のモードが設定されている場合、前記検出信号により表される前記物体の状態が前記所定の面に触れている状態であるときには前記第1の入力が行われたことが、前記所定の距離より近い状態であるときには第2の入力が行われたことがそれぞれ検出される。また、前記第1の入力が行われたことが検出された場合、前記第1の入力に応じた処理が行われ、前記第2の入力が行われたことが検出された場合、前記第2の入力に応じた処理が行われる。
本発明によれば、ユーザは、手袋を装着している場合であっても素手の場合と同様の操作を行うことができる。
本発明の一実施形態に係る情報処理装置の背面側の外観図である。 ディスプレイの表面近傍を示す断面図である。 情報処理装置において検出可能なイベントの例を示す図である。 HoverムーブイベントとTouchムーブイベントを示す図である。 各イベントにおけるユーザの指の状態を説明する図である。 設定画面の例を示す図である。 有効イベントの切り替えの例を示す図である。 情報処理装置の内部の構成例を示すブロック図である。 制御部の機能構成例を示すブロック図である。 通常モードが設定されている場合のイベントの遷移の例を示す図である。 手袋操作モードが設定されている場合のイベントの遷移の例を示す図である。 情報処理装置の操作モード切替処理について説明するフローチャートである。 情報処理装置の制御処理について説明するフローチャートである。 ディスプレイの表面近傍を示す他の断面図である。 情報処理装置において検出可能なイベントの他の例を示す図である。 各イベントにおけるユーザの指の状態を説明する図である。 有効イベントの切り替えの例を示す図である。 通常モード設定時における各イベントの検出可能範囲を示す図である。 手袋操作モード設定時における各イベントの検出可能範囲を示す図である。 通常モードが設定されている場合のイベントの遷移の例を示す図である。 手袋操作モードが設定されている場合のイベントの遷移の例を示す図である。 情報処理装置の他の操作モード切替処理について説明するフローチャートである。 情報処理装置のタッチモード切替処理について説明するフローチャートである。 操作モードの例を示す図である。 コンピュータのハードウェアの構成例を示すブロック図である。
<第1の実施の形態>
[情報処理装置の外観構成]
図1は、本発明の一実施形態に係る情報処理装置1の背面側の外観図である。
図1の例においては、情報処理装置1は所定の厚さを有する板状の筐体を有するデジタルカメラとされている。情報処理装置1の図示せぬ正面側にはレンズが設けられ、背面にはそのほぼ全面にディスプレイ2が設けられる。情報処理装置1の上面右側にはシャッタボタン3が設けられる。
情報処理装置1は、ユーザの入力インタフェースとしてタッチパネルが設けられた装置である。ディスプレイ2の表面にはタッチパネルが設けられている。
ディスプレイ2に設けられるタッチパネルは例えば静電容量方式のタッチパネルである。タッチパネルにおいては、ディスプレイ2の各位置における静電容量の値が検出され、検出された静電容量の値を表す信号が出力される。例えば、静電容量の変化を起こさせるユーザの指などの物体がディスプレイ2の表面に近いほど、大きい値を表す信号が出力され、遠いほど、小さい値を表す信号が出力される。
図2は、ディスプレイ2の表面近傍を示す断面図である。図2において、ディスプレイ2の断面を表す長方形の上辺2a側がディスプレイ2の表面側である。ディスプレイ2に設けられるタッチパネルからは、ディスプレイ2の表面(上辺2a)を基準として、ユーザの指などの、近接された物体までの距離を表す信号が出力される。
以下、ディスプレイ2に近接される物体がユーザの手の指(素手の指、または手袋を装着した手の指)である場合について説明する。破線で示すように、ディスプレイ2の表面からの距離が所定の距離となる位置に閾値th1が設定される。
[検出可能なイベントについて]
図3は、情報処理装置1において検出可能なイベントの例を示す図である。
情報処理装置1においては、操作モードが通常モードである場合、Hoverイベント、Touchイベントなどの複数のイベントを検出することが可能とされる。後述するように、情報処理装置1に対する操作の方法に関するモードである操作モードには通常モードと手袋操作モードが用意されている。ここで、イベントは入力を表す。
タッチパネルから出力された信号により表されるユーザの指までの距離が閾値th1より遠い場合、情報処理装置1においてはイベントOFFとして判断される(図3A)。
また、タッチパネルから出力された信号により表されるユーザの指までの距離が、ディスプレイ2の表面に触れてはいないが閾値th1より近い場合、情報処理装置1においてはHoverイベントが検出される(図3B)。
タッチパネルから出力された信号によりユーザの指がディスプレイ2の表面にあることが表されている場合、すなわち、ユーザの指がディスプレイ2に触れている場合、情報処理装置1においてはTouchイベントが検出される(図3C)。
図4Aに示すように、ディスプレイ2の表面に触れてはいないが、閾値th1より近くにあり、その状態でユーザの指が動いている場合、Hoverムーブイベントとして検出される。一方、図4Bに示すように、ディスプレイ2の表面に触れている状態でユーザの指が動いている場合、Touchムーブイベントとして検出される。
図5は、各イベントにおけるユーザの指の状態を説明する図である。
イベントがOFFであることは、ユーザの指が遠方にある状態であることを表す。この場合、情報処理装置1においてはタッチパネルに対する入力が何もないと認識される。
Hoverイベントはユーザの指が近接状態であることを表す。この場合、情報処理装置1においては、ディスプレイ2の上方にあるユーザの指の大体の位置を認識することが可能になる。
Touchイベントは、ユーザの指が接触状態であることを表す。この場合、情報処理装置1においては、ディスプレイ2の表面上にあるユーザの指の位置を認識することが可能になる。
Hoverムーブイベントは、ユーザの指が近接状態のまま動いていることを表す。この場合、情報処理装置1においては、水平方向に動いているユーザの指の大体の位置を認識することが可能になる。
Touchムーブイベントは、ユーザの指が接触状態のまま動いていることを表す。この場合、情報処理装置1においては、水平方向に動いているユーザの指の位置を認識することが可能になる。
HoverムーブイベントをHoverイベントに含め、TouchムーブイベントをTouchイベントに含めて考えると、情報処理装置1の機能は、基本的に、HoverイベントとTouchイベントの2種類のイベントを検出することによって実現される。操作モードが通常モードである場合と手袋操作モードである場合とで有効イベントが切り替えられ、通常モードである場合、HoverイベントとTouchイベントが区別して検出され、それぞれ異なる処理が行われる。操作モードの設定は、本体の設定画面からユーザが意図的に行うことが可能とされる。
図6は設定画面の例を示す図である。
図6に示す本体設定画面は、例えば、情報処理装置1の電源をオンにした後、ユーザがメニュー画面の表示を指示し、メニュー画面に表示される各種の項目の中から、本体設定の項目を選択したときにディスプレイ2に表示される。
図6の本体設定画面の左側には、ディスプレイの明るさの調整の項目を選択するときに操作されるボタン11、手袋操作モードの切り替えの項目を選択するときに操作されるボタン12、音量設定の項目を選択するときに操作されるボタン13が表示されている。
この状態において、例えば、ユーザがボタン12に指で触れたとき(Touchイベントを検出させたとき)、ボタン12の右側には、ONボタン21とOFFボタン22が表示される。ONボタン21は、手袋操作モードをONとし、操作モードとして手袋操作モードを設定するときに操作されるボタンであり、OFFボタン22は、手袋操作モードをOFFとし、操作モードとして通常モードを設定するときに操作されるボタンである。ユーザは、ONボタン21に指で触れることによって手袋操作モードを設定することができ、OFFボタン22に指で触れることによって通常モードを設定することができる。
図7は、有効イベントの切り替えの例を示す図である。
操作モードが通常モード(手袋操作モードOFF)である場合、HoverイベントとTouchイベントの2つのイベントが有効とされる。ユーザは、HoverイベントとTouchイベントを情報処理装置1に検出させることができる。
一方、操作モードが手袋操作モード(手袋操作モードON)である場合、Hoverイベントは無効となり、Touchイベントのみが有効とされる。Touchイベントのみが有効であるから、通常モード時にはHoverイベントが検出されるような位置にユーザの指がある場合であっても、Touchイベントが検出されたときと同様の処理が行われる。
すなわち、操作モードが手袋操作モードである場合、情報処理装置1においては、HoverイベントがTouchイベントとして認識されることになる。これにより、ユーザは、手袋を装着した状態であっても、指をディスプレイ2に直接触れることなく、表面に近づけるだけで、素手でディスプレイ2の表面に触れるのと同じ操作を行うことが可能になる。
[情報処理装置の内部構成]
図8は、情報処理装置1の内部の構成例を示すブロック図である。
情報処理装置1は、撮影制御部31、画像処理部32、再生制御部33、制御部34、表示部35、タッチパネル36、外部AV出力部37、一時記憶部38、および記憶媒体39がバス40を介して接続されることによって構成される。表示部35とタッチパネル36によりディスプレイ2が構成される。
撮影制御部31はCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子よりなり、レンズによって取り込まれた光の光電変換、A/D変換などを行うことによって得られた画像データを画像処理部32に出力する。
画像処理部32は、撮影制御部31から供給された画像データの補正処理、圧縮処理などの各種の処理を行い、各種の処理を行うことによって得られた画像データを記憶媒体39に記憶させる。
再生制御部33は、撮影済みの画像の再生が指示された場合、再生が指示された画像データを記憶媒体39から読み出し、読み出した画像データを対象としてデコードなどの再生処理を行う。再生制御部33は、再生処理を行うことによって得られたデータを表示部35に出力し、画像を表示させる。
制御部34は、CPU(Central Processing Unit)やROM(Read Only Memory)などよりなり、ROMに記憶されているプログラムを一時記憶部38に展開して実行し、情報処理装置1の全体の動作を制御する。制御部34は、例えば、タッチパネル36から供給された信号に基づいてイベントを検出し、検出したイベントに応じて処理を行う。また、制御部34は、情報処理装置1の操作モードとして、手袋操作モードと通常モードのうちのいずれかを設定し、設定したモードに応じてイベントの有効/無効を切り替える。
表示部35はLCD(Liquid Crystal Display)などよりなり、制御部34による制御に従って、再生制御部33により再生された画像や、メニュー画面などを表示させる。
タッチパネル36は静電容量方式のタッチパネルであり、表示部35に重畳して設けられる。タッチパネル36は、ディスプレイ2の各位置における静電容量の値を所定の周期で検出し、各位置の静電容量の値を表す信号(検出信号)を制御部34に出力する。
外部AV出力部37は、再生処理が行われることによって得られた画像データが再生制御部33から供給された場合、供給された画像データをHDMI(High Definition Multimedia Interface)ケーブルなどを介して外部の機器に出力する。
一時記憶部38はRAM(Random Access Memory)よりなり、各部が処理を行うときに必要なデータを記憶する。一時記憶部38には、例えば操作モードが手袋操作モードであるのか通常モードであるのかを表す情報などが記憶される。
記憶媒体39はフラッシュメモリなどよりなり、撮影制御部31により撮影され、画像処理部32により処理が行われた画像データを記憶する。
図9は、制御部34の機能構成例を示すブロック図である。図9に示す機能部のうちの少なくとも一部は、制御部34のCPUにより所定のプログラムが実行されることによって実現される。
制御部34においては、モード設定部51、イベント検出部52、およびUI制御部53が実現される。
モード設定部51は、ユーザによる操作に応じて操作モードを設定し、現在の操作モードを表す情報をイベント検出部52に出力する。例えば、モード設定部51は、デフォルトの操作モードとして通常モードを設定し、通常モードを手袋操作モードに切り替えることが指示されたことをイベント検出部52から供給された情報に基づいて検出した場合、手袋操作モードを設定する。モード設定部51により設定されている操作モードを表す情報は一時記憶部38にも供給され、記憶される。
イベント検出部52は、タッチパネル36から供給された信号に基づいてイベントを検出し、検出したイベントを表す情報を、そのイベントが検出されたディスプレイ2上の位置を表す情報とともに出力する。イベント検出部52から出力された情報はモード設定部51とUI制御部53に供給される。
図10は、通常モードが設定されている場合のイベントの遷移の例を示す図である。
例えば、OFF状態において、タッチパネル36から供給された信号により表されるユーザの指までの距離が閾値th1より近い場合、Hover_ONと判定し、矢印#1に示すようにHoverイベントを検出した状態になる。
また、Hoverイベントの状態において、タッチパネル36から供給された信号によりユーザの指がディスプレイ2に触れていることが表されている場合、Touch_ONと判定し、矢印#2に示すようにTouchイベントを検出した状態になる。
Hoverイベントの状態において、タッチパネル36から供給された信号により表されるユーザの指までの距離が閾値th1より近い場合、Moveと判定し、矢印#3に示すようにHoverイベントを検出した状態になる。
一方、OFF状態において、タッチパネル36から供給された信号によりユーザの指がディスプレイ2に触れていることが表されている場合、Touch_ONと判定し、矢印#4に示すようにTouchイベントを検出した状態になる。ディスプレイ2の所定の位置において、タッチパネル36による静電容量のサンプリングが終了してから、次のサンプリングまでの間に急にユーザがディスプレイ2の表面に触れた場合、OFF状態からTouchイベントの状態に直接遷移する。
Touchイベントの状態において、タッチパネル36から供給された信号により表されるユーザの指までの距離が、ディスプレイ2の表面から離れたが閾値th1より近い場合、Touch_OFFと判定し、矢印#5に示すようにHoverイベントを検出した状態になる。
Touchイベントの状態において、タッチパネル36から供給された信号によりユーザの指がディスプレイ2に触れていることが表されている場合、Moveと判定し、矢印#6に示すようにTouchイベントを検出した状態になる。
HoverイベントまたはTouchイベントの状態においてタッチパネル36から供給された信号により表されるユーザの指までの距離が閾値th1より遠い場合、Hover_OFF,Touch_OFFと判定し、矢印#7,#8に示すようにOFF状態が検出される。
操作モードとして通常モードが設定されている場合、イベント検出部52においては以上のような遷移でイベントが検出される。Hoverイベントが検出された場合にはそのことを表す情報が位置情報とともに出力され、Touchイベントが検出された場合にはそのことを表す情報が位置情報とともに出力される。
図11は、手袋操作モードが設定されている場合のイベントの遷移の例を示す図である。
例えば、OFF状態において、タッチパネル36から供給された信号により表されるユーザの指までの距離が閾値th1より近い場合、または、ディスプレイ2に触れている場合、Touch_ONと判定し、矢印#11に示すようにTouchイベントを検出した状態になる。
Touchイベントの状態において、タッチパネル36から供給された信号によりユーザの指がディスプレイ2に触れていることが表されている場合、または、ディスプレイ2の表面から離れたが閾値th1より近い場合、矢印#12に示すようにTouchイベントを検出した状態になる。
Touchイベントの状態において、タッチパネル36から供給された信号により表されるユーザの指までの距離が閾値th1より遠い場合、Touch_OFFと判定し、矢印#13に示すようにOFF状態が検出される。
図9の説明に戻り、UI制御部53は、イベント検出部52から供給された情報により表されるイベントの状態に応じて表示部35の表示を制御する。
例えば、通常モード時においてHoverイベントが検出された場合、UI制御部53は、ユーザが指を近づけている位置にそのことを表す円形の影などの所定の画像を表示させる。ユーザが指を近づけている位置を表す画像の表示位置は、ユーザの指の動きに追従して切り替えられる。また、Touchイベントが検出された場合、UI制御部53は、ユーザが触れた位置に表示されているボタンが押されたと判断し、ボタンの色を変えるなどの所定の処理を行う。
[情報処理装置の動作]
ここで、情報処理装置1の動作について説明する。はじめに、図12のフローチャートを参照して、操作モードを切り替える情報処理装置1の処理について説明する。図12の処理は、例えば、ユーザが情報処理装置1の電源をオンとし、メニュー画面の表示を指示したときに開始される。
ステップS1において、UI制御部53はメニュー画面を表示部35に表示させる。メニュー画面には、Touchイベントを検出させることによって操作可能な、各種の項目を選択するときに操作されるボタンが表示される。
メニュー画面に表示される項目の中から本体設定の項目が選択されたとき、ステップS2において、UI制御部53は、図6を参照して説明したような本体設定画面を表示させる。
本体設定画面に表示される項目の中から手袋操作モード切り替えの項目が選択されたとき、ステップS3において、UI制御部53は、手袋操作モードを設定するときに操作されるONボタン21と通常モードを設定するときに操作されるOFFボタン22が表示される画面である手袋操作モード切替画面を表示させる。
ステップS4において、モード設定部51は、手袋操作モードOFF、すなわち通常モードが設定されたか否かを判定する。
例えば、OFFボタン22の表示位置においてTouchイベントが検出されたことから通常モードが設定されたとステップS4において判定された場合、ステップS5において、イベント検出部52は、TouchイベントとHoverイベントを有効にする。
TouchイベントとHoverイベントが有効にされた後、ステップS6においてその状態での動作が行われる。ユーザは、TouchイベントとHoverイベントを検出させて、情報処理装置1を操作することができる。ステップS6において通常モードでの処理が行われ、再度、本体設定画面の表示が指示された後、ステップS2に戻り、以上の処理が繰り返される。
一方、通常モードではなく手袋操作モードが設定されたとステップS4において判定された場合、ステップS7において、イベント検出部52は、Touchイベントのみを有効にする。
Touchイベントが有効にされた後、ステップS8においてその状態での動作が行われる。ユーザは、手袋を装着している場合であっても、指をディスプレイ2に近づけるだけで、Touchイベントを検出させることができ、情報処理装置1を操作することができる。ステップS8において手袋操作モードでの処理が行われ、再度、本体設定画面の表示が指示された後、ステップS2に戻り、以上の処理が繰り返される。
次に、図13のフローチャートを参照して、ユーザの操作に応じて処理を行う情報処理装置1の制御処理について説明する。
ステップS11において、タッチパネル36は、ディスプレイ2の各位置における静電容量の値を所定の周期で検出し、各位置の静電容量の値を表す信号を出力する。
ステップS12において、イベント検出部52は、タッチパネル36から供給された信号に基づいて、操作モードが通常モードである場合には図10を参照して説明したようにしてイベントを検出する。また、イベント検出部52は、操作モードが手袋操作モードである場合には図11を参照して説明したようにしてイベントを検出する。
ステップS13において、UI制御部53は、イベント検出部52により検出されたイベントに応じて表示部35の表示を制御する。その後、処理は終了される。
以上のように、通常モード時にTouchイベントとHoverイベントを有効として区別して検出することによって、情報処理装置1は、ユーザの指がディスプレイ2に触れているときと、近接しているときとで異なる処理を行うことが可能になる。入力インタフェースとしてタッチパネルを有する通常の装置とは異なり、TouchイベントだけでなくHoverイベントを追加することによって、幅広い機能の実装が可能になる。
また、手袋操作モード時にTouchイベントを優先させ、通常モード時にはHoverイベントとして検出される操作をTouchイベントとして検出することによって、手袋を装着しているユーザは、手袋を装着したまま操作を行うことができる。
また、本体設定画面に手袋操作モードの切り替え項目を用意しておくことによって、ユーザは、通常モードと手袋操作モードを意図的に切り替えることが可能になる。
<第2の実施の形態>
以上においては、情報処理装置1において検出可能なイベントがTouchイベントとHoverイベントであるものとしたが、他のイベントをさらに検出可能にしてもよい。情報処理装置1の構成は、図8、図9を参照して説明した構成と同じである。
図14は、ディスプレイ2の表面近傍を示す他の断面図である。図14の例においては、ディスプレイ2の表面を基準として、閾値th1より遠い位置に閾値th2が設定される。
図15は、情報処理装置1において検出可能なイベントの他の例を示す図である。
情報処理装置1においては、操作モードが通常モードである場合、HoverイベントとTouchイベントに加えて、Proximityイベントを検出することが可能とされる。図15に示す各イベントは、Proximityイベントが追加されている点を除いて図3のイベントと同様である。
すなわち、タッチパネル36から出力された信号により表されるユーザの指までの距離が閾値th2より遠い場合、情報処理装置1においてはイベントOFFとして判断される(図15A)。
また、タッチパネルから出力された信号により表されるユーザの指までの距離が閾値th1より遠いが閾値th2より近い場合、情報処理装置1においてはProximityイベントが検出される(図15B)。
タッチパネルから出力された信号により表されるユーザの指までの距離が、ディスプレイ2の表面に触れてはいないが閾値th1より近い場合、情報処理装置1においてはHoverイベントが検出される(図15C)。
タッチパネルから出力された信号により表されるユーザの指の位置が、ディスプレイ2の表面にある場合、すなわち、ユーザの指がディスプレイ2に触れている場合、情報処理装置1においてはTouchイベントが検出される(図15D)。
Proximityイベント時のユーザの指の状態を図16に示す。Proximityイベントはユーザの指が近傍状態(近接状態より遠いが遠方状態ではない状態)であることを表す。この場合、情報処理装置1においては、ディスプレイ2の上方に、ユーザの指などの電荷を帯びたものがあることを認識することが可能になる。Proximityイベント以外の図16に示す各イベントにおけるユーザの指の状態は図5を参照して説明したものと同じである。
上述したように、操作モードとして通常モードが設定されている場合と手袋操作モードが設定されている場合とで有効イベントが切り替えられるが、Proximityイベントは、操作モードがいずれのモードの場合であっても有効とされる。
図17は、有効イベントの切り替えの例を示す図である。
操作モードが通常モード(手袋操作モードOFF)である場合、HoverイベントとTouchイベントとProximityイベントの3つのイベントが有効とされる。ユーザは、それぞれのイベントを情報処理装置1に検出させることができる。
一方、操作モードが手袋操作モード(手袋操作モードON)である場合、Hoverイベントは無効となり、TouchイベントとProximityイベントが有効とされる。通常モード時にはHoverイベントが検出されるような位置にユーザの指がある場合であっても、Touchイベントが検出されたときと同様の処理が行われる。
手袋操作モードを設定しておくことにより、ユーザは、手袋を装着した状態であっても、指をディスプレイ2に直接触れることなく、表面に近づけるだけで、素手でディスプレイ2の表面に触れるのと同じ操作を行うことが可能になる。また、Touchイベントとして認識される位置よりも遠い位置に指を近づけることによって、ディスプレイ2の上方に指があることを認識させることが可能になる。
Proximityイベントでは座標点までを認識させることは難しいが、電荷を持つ物体が近傍状態にあることを認識させることができ、一方、Hoverイベントでは大体の座標点までを認識させることができる。双方のイベントに対してそれぞれ異なる機能を割り当て実装することにより、ユーザはイベント毎の処理を行わせることが可能になる。
図18は、通常モード設定時における各イベントの検出可能範囲について説明する図である。
原点P0((x,y,z)=(0,0,0))、点P1((x,y,z)=(x1,0,0))、点P2((x,y,z)=(0,y1,0))、点P3((x,y,z)=(x1,y1,0))で囲まれる範囲がディスプレイ2の表面の範囲であるものして説明する。
この場合、Touchイベントの検出可能範囲であるTouch領域は、破線で示す、ディスプレイ2の表面の範囲と同じ、点P0,P1,P2,P3で囲まれる面上の範囲となる。
Hoverイベントの検出可能範囲であるHover領域は、点P0,P1,P2,P3で囲まれる面を底面とし、一点鎖線で示す点P10,P11,P12,P13で囲まれる面を上面とする直方体の範囲内の、底面より上の範囲となる。点P10は(x,y,z)=(0,0,th1)で表され、点P11は(x,y,z)=(x1,0,th1)で表される。点P12は(x,y,z)=(0,y1,th1)で表され、点P13は(x,y,z)=(x1,y1,th1)で表される。
Proximityイベントの検出可能範囲であるProximity領域は、点P10,P11,P12,P13で囲まれる面を底面とし、実線で示す点P20,P21,P22,P23で囲まれる面を上面とする直方体の範囲内となる。点P20は(x,y,z)=(0,0,th2)で表され、点P21は(x,y,z)=(x1,0,th2)で表される。点P22は(x,y,z)=(0,y1,th2)で表され、点P23は(x,y,z)=(x1,y1,th2)で表される。
図19は、手袋操作モード設定時における各イベントの検出可能範囲について説明する図である。
通常モード時におけるHoverイベントがTouchイベントとして認識されるから、Touch領域は、点P0,P1,P2,P3で囲まれる面を底面とし、点P10,P11,P12,P13で囲まれる面を上面とする直方体の範囲内となる。
Proximityイベントの検出可能範囲は、点P10,P11,P12,P13で囲まれる面を底面とし、点P20,P21,P22,P23で囲まれる面を上面とする直方体の範囲内となる。
図20は、操作モードとして通常モードが設定されている場合のイベントの遷移の例を示す図である。図10を参照して説明した遷移と同じものについての説明は省略する。
OFF状態において、タッチパネル36から供給された信号により表されるユーザの指までの距離が閾値th1より遠いが閾値th2より近い場合、Proximity_ONと判定し、矢印#21に示すようにProximityイベントを検出した状態になる。
Proximityイベントの状態において、タッチパネル36から供給された信号により表されるユーザの指までの距離が閾値th1より近い場合、Hover_ONと判定し、矢印#22に示すようにHoverイベントを検出した状態になる。
Hoverイベントの状態において、タッチパネル36から供給された信号により表されるユーザの指までの距離が、閾値th1より遠いが閾値th2より近い場合、Hover_OFFと判定し、矢印#23に示すようにProximityイベントを検出した状態になる。
Proximityイベントの状態において、タッチパネル36から供給された信号によりユーザの指がディスプレイ2に触れていることが表されている場合、Touch_ONと判定し、矢印#24に示すようにTouchイベントを検出した状態になる。
Touchイベントの状態において、タッチパネル36から供給された信号により表されるユーザの指までの距離が、閾値th1より遠いが閾値th2より近い場合、Touch_OFF、かつHover_OFFと判定し、矢印#25に示すようにProximityイベントを検出した状態になる。
Proximityイベント、Hoverイベント、またはTouchイベントの状態においてタッチパネル36から供給された信号により表されるユーザの指までの距離が閾値th2より遠い場合、Proximity_OFF,Hover_OFF,Touch_OFFと判定し、矢印#26に示すようにOFF状態が検出される。
通常モードが設定されている場合、イベント検出部52においては以上のような遷移でイベントが検出される。Proximityイベントが検出された場合にはそのことを表す情報が出力され、Hoverイベントが検出された場合にはそのことを表す情報が位置情報とともに出力される。また、Touchイベントが検出された場合にはそのことを表す情報が位置情報とともに出力される。
図21は、操作モードとして手袋操作モードが設定されている場合のイベントの遷移の例を示す図である。図11を参照して説明した遷移と同じものについての説明は省略する。
OFF状態において、タッチパネル36から供給された信号により表されるユーザの指までの距離が閾値th1より遠いが閾値th2より近い場合、Proximity_ONと判定し、矢印#31に示すようにProximityイベントを検出した状態になる。
Proximityイベントの状態において、タッチパネル36から供給された信号により表されるユーザの指までの距離が閾値th1より近い場合、または、ディスプレイ2に触れている場合、Touch_ONと判定し、矢印#32に示すようにTouchイベントを検出した状態になる。
Touchイベントの状態において、タッチパネル36から供給された信号により表されるユーザの指までの距離が、閾値th1より遠いが閾値th2より近い場合、Touch_OFFと判定し、矢印#33に示すようにProximityイベントを検出した状態になる。
Proximityイベントの状態においてタッチパネル36から供給された信号により表されるユーザの指までの距離が閾値th2より遠い場合、Proximity_OFFと判定し、矢印#34に示すようにOFF状態が検出される。
ここで、図22のフローチャートを参照して、操作モードを切り替える情報処理装置1の他の処理について説明する。
図22の処理は、通常モード時にはTouchイベントとHoverイベントだけでなくProximityイベントをも有効とし、手袋操作モード時にはTouchイベントだけでなくProximityイベントをも有効とする点を除いて、図12を参照して説明した処理と同じである。重複する説明については適宜省略する。
ステップS21において、UI制御部53はメニュー画面を表示部35に表示させ、本体設定の項目が選択されたとき、ステップS22において本体設定画面を表示させる。
手袋操作モード切り替えの項目が選択されたき、ステップS23において、UI制御部53は手袋操作モード切替画面を表示させる。
ステップS24において、モード設定部51は、手袋操作モードOFF、すなわち通常モードが設定されたか否かを判定する。
通常モードが設定されたとステップS24において判定された場合、ステップS25において、イベント検出部52は、TouchイベントとHoverイベントとProximityイベントを有効にする。
TouchイベントとHoverイベントとProximityイベントが有効にされた後、ステップS26においてその状態での動作が行われる。ステップS26において通常モードでの処理が行われ、再度、本体設定画面の表示が指示された後、ステップS22に戻り、以上の処理が繰り返される。
一方、通常モードではなく手袋操作モードが設定されたとステップS24において判定された場合、ステップS27において、イベント検出部52は、TouchイベントとProximityイベントを有効にする。
TouchイベントとProximityイベントが有効にされた後、ステップS28においてその状態での動作が行われる。ステップS28において手袋操作モードでの処理が行われ、再度、本体設定画面の表示が指示された後、ステップS22に戻り、以上の処理が繰り返される。
<変形例>
タッチパネル36が、同時に2点以上の多点のタッチ操作が可能ないわゆるマルチタッチに対応したタッチパネルである場合、複数のイベントが同時に以上のようにして検出されるようにしてもよい。マルチタッチでの操作が可能なモードであるマルチタッチモードと、シングルタッチでの操作が可能なモードであるシングルタッチモードをユーザが切り替えることができるようにしてもよい。
図23のフローチャートを参照して、タッチモードを切り替える情報処理装置1の処理について説明する。タッチモードの切り替えも、操作モードの切り替えと同様に本体設定画面から行われる。
メニュー画面の表示が指示されたとき、ステップS31において、UI制御部53はメニュー画面を表示部35に表示させる。
メニュー画面に表示される項目の中から本体設定の項目が選択されたとき、ステップS32において、UI制御部53は本体設定画面を表示させる。本体設定画面には、本体の設定に関する各種の項目を選択するときに操作されるボタンが表示され、タッチモードの切り替えの項目を選択するときに操作されるボタンも含まれる。
タッチモードの切り替えの項目が選択されたき、ステップS33において、UI制御部53はマルチタッチ切替画面を表示させる。マルチタッチ切替画面には、マルチタッチモードを設定するときに操作されるボタンとシングルタッチモードを設定するときに操作されるボタンが表示される。
ステップS34において、モード設定部51は、マルチタッチOFF、すなわちシングルタッチモードが設定されたか否かを判定する。
シングルタッチモードが設定されたとステップS34において判定された場合、ステップS35において、イベント検出部52はマルチタッチを無効にする。
マルチタッチが無効にされた後、ステップS36において、シングルタッチで行われるユーザの操作に応じたイベントが検出され、検出されたイベントに応じて動作が行われる。ステップS36においてシングルタッチモードでの処理が行われ、再度、本体設定画面の表示が指示された後、ステップS32に戻り、以上の処理が繰り返される。
一方、シングルタッチモードではなくマルチタッチモードが設定されたとステップS34において判定された場合、ステップS37において、イベント検出部52はマルチタッチを有効にする。
マルチタッチが有効にされた後、ステップS38において、マルチタッチで行われるユーザの操作に応じたイベントが検出され、検出されたイベントに応じて動作が行われる。ステップS38においてマルチタッチモードでの処理が行われ、再度、本体設定画面の表示が指示された後、ステップS32に戻り、以上の処理が繰り返される。
マルチタッチでの操作を可能とすることによって、ユーザは、例えば2点の触り方や動かし方によって操作するジェスチャー操作が可能になる。ジェスチャー操作によれば、多点の触り方や動かし方によって、その触り方と動かし方に応じた処理が実行される。
図24は、手袋操作モードのON/OFFと、マルチタッチモードのON/OFFを組み合わせたときに実現される操作モードの例を示す図である。
例えば、情報処理装置1において検出可能なイベントがTouchイベントとHoverイベントであるものとすると、手袋操作モードOFF、かつマルチタッチモードOFFの場合、普通の動作モードとなる。ユーザは、一本の指でTouchイベントとHoverイベントを検出させて操作を行うことになる。
また、手袋操作モードON、かつマルチタッチモードOFFの場合、手袋を装着した状態でHover領域上での操作が可能な動作モードである手袋動作モードとなる。手袋操作モードOFF、かつマルチタッチモードONの場合、Touch領域上で、多点に触れることで操作が可能なるマルチタッチ動作モードとなる。手袋操作モードON、かつマルチタッチモードONの場合、Hover領域上で、多点での操作が可能な動作モードとなる。
このように、情報処理装置1をマルチタッチによる操作に対応させることにより、ユーザは例えばHover領域で多点を認識させることにより所定の処理を実行させたり、多点を用いたジェスチャー操作を認識させたりすることが可能になる。また、情報処理装置1においては機能の拡張を実現することできる。
以上においては、情報処理装置1がデジタルカメラである場合について説明したが、上述した処理は、携帯電話機やパーソナルコンピュータなどの、タッチパネルを有する各種の装置に適用可能である。
[コンピュータの構成例]
上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。
図25は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。
CPU(Central Processing Unit)101、ROM(Read Only Memory)102、RAM(Random Access Memory)103は、バス104により相互に接続されている。
バス104には、さらに、入出力インタフェース105が接続されている。入出力インタフェース105には、キーボード、マウスなどよりなる入力部106、ディスプレイ、スピーカなどよりなる出力部107が接続される。また、入出力インタフェース105には、ハードディスクや不揮発性のメモリなどよりなる記憶部108、ネットワークインタフェースなどよりなる通信部109、リムーバブルメディア111を駆動するドライブ110が接続される。
以上のように構成されるコンピュータでは、CPU101が、例えば、記憶部108に記憶されているプログラムを入出力インタフェース105及びバス104を介してRAM103にロードして実行することにより、上述した一連の処理が行われる。
CPU101が実行するプログラムは、例えばリムーバブルメディア111に記録して、あるいは、ローカルエリアネットワーク、インターネット、デジタル放送といった、有線または無線の伝送媒体を介して提供され、記憶部108にインストールされる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。
1 情報処理装置, 2 ディスプレイ, 34 制御部, 35 表示部, 36 タッチパネル, 51 モード設定部, 52 イベント検出部, 53 UI制御部

Claims (6)

  1. 装置に対する操作の方法に関する操作モードとして、複数のモードの中から所定のモードを設定する設定手段と、
    所定の面を基準として、前記所定の面の各位置における、近接された物体までの距離に応じた信号である検出信号を出力する物体検出手段と、
    前記操作モードとして第1のモードが設定されている場合、前記検出信号により表される前記物体の状態が前記所定の面に触れている状態であるときと所定の距離より近い状態であるときに第1の入力が行われたことを検出し、第2のモードが設定されている場合、前記検出信号により表される前記物体の状態が前記所定の面に触れている状態であるときには前記第1の入力が行われたことを、前記所定の距離より近い状態であるときには第2の入力が行われたことをそれぞれ検出する入力検出手段と、
    前記第1の入力が行われたことが検出された場合、前記第1の入力に応じた処理を行い、前記第2の入力が行われたことが検出された場合、前記第2の入力に応じた処理を行う制御手段と
    を備える情報処理装置。
  2. 前記設定手段は、ユーザによる操作に応じて前記操作モードを設定する
    請求項1に記載の情報処理装置。
  3. 前記入力検出手段は、さらに、前記第1のモードが設定されている場合と前記第2のモードが設定されている場合のいずれの場合においても、前記検出信号により表される前記物体の状態が、前記所定の距離より遠く、閾値となる他の距離より近い状態であるときに第3の入力が行われたことを検出する
    請求項1に記載の情報処理装置。
  4. 前記制御手段は、前記第2の入力に応じた処理として、前記第2の入力が行われたことが検出された前記所定の面上の位置に所定の画像を表示させ続ける処理を行う
    請求項1に記載の情報処理装置。
  5. 装置に対する操作の方法に関する操作モードとして、複数のモードの中から所定のモードを設定し、
    前記操作モードとして第1のモードを設定している場合、物体検出手段から出力された、所定の面を基準として、前記所定の面の各位置における、近接された物体までの距離に応じた信号である検出信号により表される前記物体の状態が前記所定の面に触れている状態であるときと所定の距離より近い状態であるときに第1の入力が行われたことを検出し、第2のモードを設定している場合、前記検出信号により表される前記物体の状態が前記所定の面に触れている状態であるときには前記第1の入力が行われたことを、前記所定の距離より近い状態であるときには第2の入力が行われたことをそれぞれ検出し、
    前記第1の入力が行われたことを検出した場合、前記第1の入力に応じた処理を行い、前記第2の入力が行われたことを検出した場合、前記第2の入力に応じた処理を行う
    ステップを含む情報処理方法。
  6. 装置に対する操作の方法に関する操作モードとして、複数のモードの中から所定のモードを設定し、
    前記操作モードとして第1のモードを設定している場合、物体検出手段から出力された、所定の面を基準として、前記所定の面の各位置における、近接された物体までの距離に応じた信号である検出信号により表される前記物体の状態が前記所定の面に触れている状態であるときと所定の距離より近い状態であるときに第1の入力が行われたことを検出し、第2のモードを設定している場合、前記検出信号により表される前記物体の状態が前記所定の面に触れている状態であるときには前記第1の入力が行われたことを、前記所定の距離より近い状態であるときには第2の入力が行われたことをそれぞれ検出し、
    前記第1の入力が行われたことを検出した場合、前記第1の入力に応じた処理を行い、前記第2の入力が行われたことを検出した場合、前記第2の入力に応じた処理を行う
    ステップを含む処理をコンピュータに実行させるプログラム。
JP2010287451A 2010-12-24 2010-12-24 情報処理装置、情報処理方法、およびプログラム Pending JP2012133729A (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2010287451A JP2012133729A (ja) 2010-12-24 2010-12-24 情報処理装置、情報処理方法、およびプログラム
US13/280,388 US9250790B2 (en) 2010-12-24 2011-10-25 Information processing device, method of processing information, and computer program storage device
TW100145544A TW201241690A (en) 2010-12-24 2011-12-09 Information processing device, method of processing information, and computer program storage device
EP11192870A EP2469394A1 (en) 2010-12-24 2011-12-09 Information Processing Device, Method of Processing Information, and Computer Program Storage Device
CN2011104243738A CN102541379A (zh) 2010-12-24 2011-12-16 信息处理装置、处理信息的方法和计算机程序存储装置
KR1020110136188A KR20120073104A (ko) 2010-12-24 2011-12-16 정보 처리 장치, 정보 처리 방법 및 컴퓨터 프로그램 기억 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010287451A JP2012133729A (ja) 2010-12-24 2010-12-24 情報処理装置、情報処理方法、およびプログラム

Publications (1)

Publication Number Publication Date
JP2012133729A true JP2012133729A (ja) 2012-07-12

Family

ID=45418383

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010287451A Pending JP2012133729A (ja) 2010-12-24 2010-12-24 情報処理装置、情報処理方法、およびプログラム

Country Status (6)

Country Link
US (1) US9250790B2 (ja)
EP (1) EP2469394A1 (ja)
JP (1) JP2012133729A (ja)
KR (1) KR20120073104A (ja)
CN (1) CN102541379A (ja)
TW (1) TW201241690A (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013161170A1 (ja) * 2012-04-27 2013-10-31 パナソニック株式会社 入力装置、入力支援方法及びプログラム
WO2014037981A1 (ja) * 2012-09-07 2014-03-13 Necカシオモバイルコミュニケーションズ株式会社 携帯端末装置、及び携帯端末装置の制御方法
JP2014059863A (ja) * 2012-08-23 2014-04-03 Denso Corp 操作デバイス
JP2014164755A (ja) * 2013-02-22 2014-09-08 Samsung Electronics Co Ltd センサを用いる近接動作認識装置及びその装置を用いた方法
JP2014222391A (ja) * 2013-05-13 2014-11-27 株式会社Nttドコモ 電子機器、軌跡補正方法、プログラム
JP2016157303A (ja) * 2015-02-25 2016-09-01 京セラ株式会社 電子機器
US10120452B2 (en) 2015-01-09 2018-11-06 Canon Kabushiki Kaisha Information processing apparatus for recognizing operation input by gesture of object and control method thereof

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9594446B2 (en) * 2011-12-19 2017-03-14 Nec Corporation Information processing device that determines operational mode based on user's touch
US20130244730A1 (en) * 2012-03-06 2013-09-19 Industry-University Cooperation Foundation Hanyang University User terminal capable of sharing image and method for controlling the same
KR102051585B1 (ko) * 2012-08-27 2019-12-17 삼성전자주식회사 멀티 터치를 이용한 핸드 라이팅 기능을 갖는 전자 장치 및 제어 방법
WO2014041732A1 (ja) * 2012-09-13 2014-03-20 パナソニック株式会社 携帯電子機器
JP5565598B1 (ja) * 2013-02-01 2014-08-06 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 電子機器、入力処理方法、およびプログラム
US10394434B2 (en) 2013-02-22 2019-08-27 Samsung Electronics Co., Ltd. Apparatus and method for recognizing proximity motion using sensors
KR20140106097A (ko) * 2013-02-25 2014-09-03 삼성전자주식회사 전자 장치에서 터치 입력 방식을 결정하기 위한 장치 및 방법
KR102091028B1 (ko) * 2013-03-14 2020-04-14 삼성전자 주식회사 사용자 기기의 오브젝트 운용 방법 및 장치
US9195332B2 (en) * 2013-05-23 2015-11-24 Nokia Technologies Oy Apparatus with deformable flexible user interface area and adjustable hover input region and associated methods
CN104345999B (zh) * 2013-07-24 2017-12-22 帝晶光电(深圳)有限公司 触摸识别方法
WO2014135067A1 (zh) * 2013-10-22 2014-09-12 中兴通讯股份有限公司 模式切换方法及装置
KR102206053B1 (ko) * 2013-11-18 2021-01-21 삼성전자주식회사 입력 도구에 따라 입력 모드를 변경하는 전자 장치 및 방법
KR102186393B1 (ko) * 2014-01-02 2020-12-03 삼성전자주식회사 입력 처리 방법 및 그 전자 장치
CN103870195B (zh) * 2014-03-03 2018-04-27 联想(北京)有限公司 一种信息提示方法及电子设备
US20150277609A1 (en) * 2014-04-01 2015-10-01 Samsung Electronics Co., Ltd. Touch data segmentation method of touch controller
US9690417B2 (en) 2014-05-21 2017-06-27 Apple Inc. Glove touch detection
JP6360367B2 (ja) * 2014-06-26 2018-07-18 京セラ株式会社 携帯電子機器、携帯電子機器の制御方法およびプログラム
EP2998840B1 (en) * 2014-09-19 2023-08-30 Kabushiki Kaisha Tokai Rika Denki Seisakusho Capacitive touch sensor device and controller
CN106484199B (zh) * 2015-08-31 2019-08-06 小米科技有限责任公司 门限设置方法及装置
JP6742730B2 (ja) * 2016-01-05 2020-08-19 キヤノン株式会社 電子機器及びその制御方法
US10242710B2 (en) * 2016-04-07 2019-03-26 Intel Corporation Automatic cinemagraph
CN106569649A (zh) * 2016-10-31 2017-04-19 努比亚技术有限公司 智能设备及智能设备控制方法
CN106569648A (zh) * 2016-10-31 2017-04-19 努比亚技术有限公司 移动设备及移动设备控制方法
CN106569647A (zh) * 2016-10-31 2017-04-19 努比亚技术有限公司 一种移动终端及移动终端控制方法
CN108132729A (zh) * 2017-12-19 2018-06-08 广州视源电子科技股份有限公司 触摸信号的处理方法、装置、及电子设备和存储介质
US10963095B1 (en) 2019-09-27 2021-03-30 Apple Inc. Glove touch detection
TWI718886B (zh) * 2020-03-03 2021-02-11 紘康科技股份有限公司 電容式觸控面板的多模式操作方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0713676A (ja) * 1993-06-28 1995-01-17 Sony Corp 手書き情報入力装置
JP2006171854A (ja) * 2004-12-13 2006-06-29 Canon Inc 座標入力装置、座標入力方法、プログラムおよび記憶媒体
JP2008505379A (ja) * 2004-06-29 2008-02-21 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 3次元タッチ型インタラクションにおけるタッチダウン型フィードフォワード
JP2009003575A (ja) * 2007-06-19 2009-01-08 Canon Inc 座標入力装置、座標検出方法、及びコンピュータプログラム

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4419992B2 (ja) 2006-07-31 2010-02-24 三菱自動車工業株式会社 タッチパネル装置
US8284165B2 (en) * 2006-10-13 2012-10-09 Sony Corporation Information display apparatus with proximity detection performance and information display method using the same
KR101481557B1 (ko) * 2008-03-26 2015-01-13 엘지전자 주식회사 단말기 및 그 제어 방법
US9274681B2 (en) 2008-03-26 2016-03-01 Lg Electronics Inc. Terminal and method of controlling the same
US8289289B2 (en) * 2008-04-03 2012-10-16 N-trig, Ltd. Multi-touch and single touch detection
KR20100010860A (ko) * 2008-07-23 2010-02-02 엘지전자 주식회사 이동 단말기 및 그의 이벤트 제어방법
US9658765B2 (en) * 2008-07-31 2017-05-23 Northrop Grumman Systems Corporation Image magnification system for computer interface
US8516397B2 (en) 2008-10-27 2013-08-20 Verizon Patent And Licensing Inc. Proximity interface apparatuses, systems, and methods
JP5287403B2 (ja) * 2009-03-19 2013-09-11 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
KR101791540B1 (ko) * 2009-06-08 2017-10-30 엘지전자 주식회사 이동 단말기 및 이동 단말기의 정보 표시 방법
JP5487743B2 (ja) 2009-06-12 2014-05-07 日産自動車株式会社 薄型電池及びその製造方法
US9152317B2 (en) * 2009-08-14 2015-10-06 Microsoft Technology Licensing, Llc Manipulation of graphical elements via gestures
KR101657215B1 (ko) * 2009-09-08 2016-09-19 삼성디스플레이 주식회사 터치 패널 장치를 포함하는 표시 장치 및 커플링 노이즈 제거 방법
CN201540555U (zh) * 2009-11-19 2010-08-04 英业达股份有限公司 触控面板的输入装置
US20110175827A1 (en) * 2009-12-04 2011-07-21 Adam Bogue Filtering Input Streams in a Multi-Touch System

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0713676A (ja) * 1993-06-28 1995-01-17 Sony Corp 手書き情報入力装置
JP2008505379A (ja) * 2004-06-29 2008-02-21 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 3次元タッチ型インタラクションにおけるタッチダウン型フィードフォワード
JP2006171854A (ja) * 2004-12-13 2006-06-29 Canon Inc 座標入力装置、座標入力方法、プログラムおよび記憶媒体
JP2009003575A (ja) * 2007-06-19 2009-01-08 Canon Inc 座標入力装置、座標検出方法、及びコンピュータプログラム

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013161170A1 (ja) * 2012-04-27 2013-10-31 パナソニック株式会社 入力装置、入力支援方法及びプログラム
JP2014059863A (ja) * 2012-08-23 2014-04-03 Denso Corp 操作デバイス
WO2014037981A1 (ja) * 2012-09-07 2014-03-13 Necカシオモバイルコミュニケーションズ株式会社 携帯端末装置、及び携帯端末装置の制御方法
JP2014164755A (ja) * 2013-02-22 2014-09-08 Samsung Electronics Co Ltd センサを用いる近接動作認識装置及びその装置を用いた方法
JP2014222391A (ja) * 2013-05-13 2014-11-27 株式会社Nttドコモ 電子機器、軌跡補正方法、プログラム
US10120452B2 (en) 2015-01-09 2018-11-06 Canon Kabushiki Kaisha Information processing apparatus for recognizing operation input by gesture of object and control method thereof
JP2016157303A (ja) * 2015-02-25 2016-09-01 京セラ株式会社 電子機器

Also Published As

Publication number Publication date
US20120162105A1 (en) 2012-06-28
KR20120073104A (ko) 2012-07-04
CN102541379A (zh) 2012-07-04
TW201241690A (en) 2012-10-16
US9250790B2 (en) 2016-02-02
EP2469394A1 (en) 2012-06-27

Similar Documents

Publication Publication Date Title
JP2012133729A (ja) 情報処理装置、情報処理方法、およびプログラム
US10070044B2 (en) Electronic apparatus, image sensing apparatus, control method and storage medium for multiple types of user interfaces
US9635267B2 (en) Method and mobile terminal for implementing preview control
KR101925485B1 (ko) 근접 터치 감지 장치 및 방법
US10551987B2 (en) Multiple screen mode in mobile terminal
US9594945B2 (en) Method and apparatus for protecting eyesight
US9939958B2 (en) Touch sensitive surface with recessed surface feature for an electronic device
JP5743847B2 (ja) 携帯端末および低感度領域設定プログラム
US10073585B2 (en) Electronic device, storage medium and method for operating electronic device
WO2010113597A1 (ja) 情報処理装置、情報処理方法および情報処理プログラム
US9519365B2 (en) Display control apparatus and control method for the same
JP5827109B2 (ja) 装置、方法、及びプログラム
CN104572322A (zh) 一种终端屏幕操作的方法
JP2014052852A (ja) 情報処理装置
CN108920069B (zh) 一种触控操作方法、装置、移动终端和存储介质
KR20130097331A (ko) 터치 스크린을 구비하는 전자기기에서 객체를 선택하기 위한 장치 및 방법
CN104572071A (zh) 一种终端
CN106293184A (zh) 可侧边触控的终端及其触控方法
CN105278753A (zh) 触控响应方法及装置
CN106325574B (zh) 在触摸屏上监测触摸的方法及装置
CN105468194B (zh) 触控响应方法及装置
KR102197912B1 (ko) 제스처 인식에 따른 기능 실행 방법, 장치 및 기록매체
WO2012118147A1 (ja) 携帯端末装置、プログラムおよび携帯端末装置の制御方法
JP5969320B2 (ja) 携帯端末装置
JP6457170B2 (ja) 携帯電子機器

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131206

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140710

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140724

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140825

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150122