JP2014219841A - 操作入力装置および操作入力プログラム - Google Patents

操作入力装置および操作入力プログラム Download PDF

Info

Publication number
JP2014219841A
JP2014219841A JP2013098588A JP2013098588A JP2014219841A JP 2014219841 A JP2014219841 A JP 2014219841A JP 2013098588 A JP2013098588 A JP 2013098588A JP 2013098588 A JP2013098588 A JP 2013098588A JP 2014219841 A JP2014219841 A JP 2014219841A
Authority
JP
Japan
Prior art keywords
display panel
target object
event
indicator
operation input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013098588A
Other languages
English (en)
Inventor
裕介 本家
Yusuke Honke
裕介 本家
上町 新也
Shinya Uemachi
新也 上町
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sumitomo Electric Networks Inc
Original Assignee
Sumitomo Electric Networks Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sumitomo Electric Networks Inc filed Critical Sumitomo Electric Networks Inc
Priority to JP2013098588A priority Critical patent/JP2014219841A/ja
Publication of JP2014219841A publication Critical patent/JP2014219841A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form

Abstract

【課題】指のような操作指示体の表示パネルへの接近をユーザ操作に効果的に利用することのできる操作入力装置を提供する。
【解決手段】操作入力装置101は、操作指示体105の表示パネル102表面への接近状態に関する状態信号を取得する取得部106と、取得部により取得された状態信号に基づいて、操作の対象オブジェクト104Aおよび対象オブジェクト104Aへの操作イベント発生を検出する検出部107とを備え、検出部106は、操作指示体105の表示パネル102表面への近接を状態信号が示す場合、操作指示体105の予め定めた面105Aの表示パネル102表面に対する向きを状態信号に基づいて判定し、その判定結果により、対象オブジェクト104Aへの操作イベント発生の有無を区別する。
【選択図】図1

Description

本発明は、表示パネル上の画面に配置されるオブジェクトに対する操作を受け付ける操作入力装置および操作入力プログラムに関する。
スマートフォンやタブレットでは、タッチパネル上の画面にアイコンやボタン、リンクなどのオブジェクトが配置され、そのオブジェクトに対してタップやフリックなどのユーザ操作が行われる。オブジェクトをユーザが容易に操作するには、画面上に適当なサイズ、例えば指先よりも大きなサイズでオブジェクトを表示するのが好ましい。パネルサイズの制約などにより十分な表示サイズをオブジェクトに確保できない場合、操作対象と異なるオブジェクトをユーザが誤って選択してしまう可能性が高くなる。特許文献1は、ユーザの誤選択を防止するために、タッチスイッチへの指の接近を検出し、接近箇所付近のアイコンを拡大表示する。
特開2006−31499号公報
特許文献1のようにタッチパネルへの指の接近を検出し接近箇所付近のアイコンを拡大表示すれば、アイコンの選択が容易になる。しかしながら、ユーザがタッチパネルに指を接触させるにはタッチパネルに指を接近させる必要があるため、拡大表示が不要なときにも拡大表示がされてしまい、却ってユーザ操作が煩雑になる可能性がある。
本発明は、このような課題を鑑みてなされたものであり、指のような操作指示体の表示パネルへの接近をユーザ操作に効果的に利用することのできる操作入力装置および操作入力プログラムを提供する。
本発明の一態様において、表示パネル上の画面に配置されるオブジェクトに対する操作を受け付ける操作入力装置を提供する。操作入力装置は、操作指示体の表示パネル表面への接近状態に関する状態信号を取得する取得部と、取得部により取得された状態信号に基づいて、操作の対象オブジェクトおよび対象オブジェクトへの操作イベント発生を検出する検出部とを備え、検出部は、操作指示体の表示パネル表面への近接を状態信号が示す場合、操作指示体の予め定めた面の表示パネル表面に対する向きを状態信号に基づいて判定し、その判定結果により、対象オブジェクトへの操作イベント発生の有無を区別する。
本発明の他の態様において、表示パネル上の画面に配置されるオブジェクトに対する操作を受け付ける手続をコンピュータに実行させるための操作入力プログラムを提供する。手続は、操作指示体の表示パネル表面への接近状態に関する状態信号を取得する手順と、取得された状態信号に基づいて、操作の対象オブジェクトおよび対象オブジェクトへの操作イベント発生を検出する手順とを備え、検出する手順は、操作指示体の表示パネル表面への近接を状態信号が示す場合、操作指示体の予め定めた面の表示パネル表面に対する向きを状態信号に基づいて判定し、その判定結果により、対象オブジェクトへの操作イベント発生の有無を区別する。
本発明は、上述の操作入力プログラムにおける各手順を備える操作入力方法を他の態様とすることができる。さらに上述の操作入力プログラムを記録したコンピュータ読み取り可能な記録媒体を他の態様としてもよい。
本発明によれば、操作指示体の表示パネルへの接近をユーザ操作に効果的に利用することができる。
本発明の前述やその他の目的、特徴および利点は、以下で添付図面を参照して説明する実施の形態でより明らかにする。図面において、同一の符号は異なる図面においても同一部分を示す。
本発明の実施の形態に係る操作入力装置の概要を説明するための図である。 操作入力装置において操作指示体の予め定めた面の向きによって操作イベント発生の有無を区別する例を説明するための図である。 操作入力装置において操作指示体の予め定めた面の向き変更によって操作イベント発生の有無を区別する例を説明するための図である。 本発明の実施の形態に係る操作入力装置の機能的構成例を説明するための図である。 オブジェクトへの一操作イベントに対して一処理を割り当てた例を説明するための図である。 オブジェクトへの一操作イベントに対して複数の処理を割り当てた例を説明するための図である。 オブジェクトへの一操作イベントに対して複数の処理を割り当てた他の例を説明するための図である。 本実施の形態に係る操作入力装置のハードウェア構成の一例を説明するための図である。 プログラムの指令に従って実行される操作入力手続の一例を説明するための図である。 操作入力プログラムを実行するスマートフォンの動作例を説明するための図である。 操作入力プログラムを実行するスマートフォンの動作に関する他の例を説明するための図である。 操作入力プログラムを実行するスマートフォンの動作に関するさらに他の例を説明するための図である。 操作入力手続において近接状態の操作イベント発生時に複数の処理を読み出す例を説明するための図である。 操作入力プログラムを実行するスマートフォンの動作に関するさらに他の例を説明するための図である。 操作入力プログラムを実行するスマートフォンの動作に関するさらに他の例を説明するための図である。 動画コンテンツを集めたアルバムのアプリケーションに対する操作例を説明するための図である。 地図のアプリケーションに対する操作例を説明するための図である。
図1は本発明の実施の形態に係る操作入力装置の概要を説明するための図である。この操作入力装置は、表示パネル上の画面に配置されるオブジェクトに対する操作を受け付ける装置であって、操作指示体の表示パネル表面への接近状態に関する状態信号を取得する取得部と、取得部により取得された状態信号に基づいて、操作の対象オブジェクトおよび対象オブジェクトへの操作イベント発生を検出する検出部とを備え、検出部は、操作指示体の表示パネル表面への近接を状態信号が示す場合、操作指示体の予め定めた面の表示パネル表面に対する向きを状態信号に基づいて判定し、その判定結果により、対象オブジェクトへの操作イベント発生の有無を区別する。
図1を参照して、操作入力装置は本実施の形態においてスマートフォン101である。スマートフォン101は、表示パネル102上の画面103に配置されるオブジェクト104に対する操作を受け付ける。この例においてオブジェクト104は図1Aに示すように仮想キーボードの各キーであり、図には一部のキーのみを表している。
ユーザは、図1Bにおける指のような操作指示体105でスマートフォン101を操作する。スマートフォン101は、操作指示体105の表示パネル102表面への接近状態に関する状態信号を取得する取得部106と、取得された状態信号に基づいて、操作の対象オブジェクト104Aへの操作イベント発生の有無を検出する検出部107とを備える。対象オブジェクト104Aは、たとえば、仮想キーボードにおける文字「p」の入力キーであり、「o」キーや「@」キーと隣接する。対象オブジェクト104Aの表示サイズが操作指示体105の先端より小さいと、ユーザは、対象オブジェクト104Aを操作しようとして、隣接する他のオブジェクト104を誤操作してしまうかもしれない。
検出部107は、操作指示体105の表示パネル102表面への近接を状態信号が示す場合、操作指示体105の予め定めた面105A、本例では指の腹側の面の表示パネル102に対する向きを状態信号に基づいて判定する。そして、その判定結果により、対象オブジェクト104Aへの操作イベント発生の有無を区別する。
操作指示体105の表示パネル102表面への近接によって、対象オブジェクト104Aへの操作イベント発生を検出した場合、スマートフォン101は、その操作イベントに対する処理を実行する。図1Cの例において、スマートフォン101は、対象オブジェクト104Aとその周辺を拡大表示している。これによって、ユーザは対象オブジェクト104Aを操作し易くなる。対象オブジェクト104への操作イベント発生を検出しなければ、スマートフォン101は、拡大表示のような近接時の処理を実行しない。
このように本実施の形態における操作入力装置は、操作指示体の表示パネルに対する向きによって操作イベント発生の有無を区別することで、操作指示体の表示パネルへの接近をユーザ操作に効果的に利用する。ユーザが操作指示体を表示パネルに接近させても、操作イベント発生を検出しない場合、拡大表示のような処理を操作入力装置は行わない。したがって、表示パネルに操作指示体を単に当接させるためにユーザが操作指示体を表示パネルに近づけているような場合に操作入力装置は余計な処理の実行を回避する。この操作入力装置には、図2以降の各図を用いた説明またはその一部を適宜一つ以上組み合わせることができる。
図2は操作入力装置における操作イベント発生の有無の区別例を説明するための図である。操作入力装置において、検出部は、操作指示体の予め定めた面が表示パネル表面を向いているか否かによって、対象オブジェクトへの操作イベント発生の有無を区別することができる。指の腹側の面が、たとえば図2Aに示すように表示パネル102の方を向いている場合、スマートフォン101は、指が表示パネル102に近接しても、対象オブジェクト104への操作イベント発生を検出しない。一方、図2Bのように、指の腹側の面が表示パネル102の短手方向、たとえば図の奥側を向いている場合、指の腹側の面は表示パネル102の方を向いていないと判定される。この場合、スマートフォン101は、指が表示パネル102に近接すると、対象オブジェクト104への操作イベント発生を検出する。
このように本実施の形態に係る操作入力装置は、操作指示体の予め定めた面が表示パネル表面を向いているか否かによって、対象オブジェクトへの操作イベント発生の有無を区別することができる。表示パネルに操作指示体を単に当接させる目的でユーザが操作指示体を表示パネルに近づけるような場合、通常操作指示体の一定の面が表示パネル表面を向いている。したがって、このように操作イベント発生の有無を区別することによって、操作入力装置は、より直感的な操作をユーザに提供することができる。
図3は本発明の実施の形態に係る操作入力装置における操作イベント発生の有無の区別に関する他の例を説明するための図である。操作入力装置において、検出部は、操作指示体の予め定めた面の向き変更を判定し、その判定結果により、対象オブジェクトへの操作イベント発生の有無を区別するようにしてもよい。この例では、指の腹側の面105Aが表示パネル102の方を向いている状態から指が回転することで、指が表示パネル102に近接した状態で指の向きが変更されている。スマートフォン101は、この指の向き変更を判定する。指が表示パネル102に近接した状態で指の向きの変更があったと判定すれば、スマートフォン101は対象オブジェクトへの操作イベント発生を検出する。一方、指の向きの変更があったと判定しなければ、対象オブジェクトへの操作イベント発生を検出しない。
このように表示パネルに近接した状態の操作指示体の向き変更にしたがって、対象オブジェクトへの操作イベント発生の有無を区別することで、操作入力装置は、より明確にユーザの意図を操作に反映することができる。図3の例とは逆に、指の腹側の面が表示パネルの方を向いていない状態で指を表示パネルに接近させることで、操作イベント発生後にユーザは指の腹側の面を表示パネルの方に向けることもできる。このとき、操作入力装置は、指の向きが変更されたと判定し、先に検出したイベントに対する処理を取り消すようにしてもよいし、別の処理を実行するようにしてもよい。
図4は本発明の実施の形態に係る操作入力装置の機能的構成例を説明するための図である。操作入力装置は、取得部401および検出部402に加え、オブジェクトへの操作イベントに対する処理を記憶する記憶部と、対象オブジェクトへの操作イベントに対する処理を記憶部から読み出し処理を実行する処理実行部とをさらに備えることができる。記憶部403は、例えば処理が記述されたファイルを記憶し、処理実行部404は、そのファイルを読み出し、記述された処理を実行する。
図5はオブジェクトへの操作イベントに対する処理割り当ての一例を説明するための図である。記憶部は、オブジェクトについて、そのオブジェクトへの操作イベントの種類およびその操作イベントに対応する処理を記憶することができる。この例では、オブジェクト、「p」キーに対して、イベントとして「非接触で近接」、処理として「拡大表示」が割り当てられている。このような構造で記憶されるイベントは「タップ」、「長押し」、「フリック」などのその他のイベントであってもよい。処理は「選択」、「縮小表示」などのその他の処理であってもよい。さらにオブジェクトは、ボタンやボックス、リストなどのその他のオブジェクトであってもよい。
このようにオブジェクトへの操作イベントに対する処理を記憶し実行することによって、操作入力装置はオブジェクトおよびそのオブジェクトに対するイベントの種類に適した処理を実行することができる。さらに処理の設定者はその設定を容易に変更することができる。
図6はオブジェクトへの操作イベントに対する処理割り当ての他の例を説明するための図である。記憶部は、オブジェクトへの操作イベントに対して、表示パネル表面に操作指示体が近接する場合の第1処理と、表示パネル表面に操作指示体が接触する場合の第2処理とを組にして記憶し、処理実行部は、操作指示体の表示パネル表面への近接を状態信号が示す場合に対象オブジェクトへの操作イベント発生が検出部により検出されると、第1処理を実行し、対象オブジェクトが変更されずに操作指示体の表示パネル表面への接触を状態信号が示すようになると、第2処理を実行することができる。
図6を参照して、この例では、オブジェクト、「p」キーについて、イベント「非接触で近接」に対して、第1処理としての「拡大表示」と、第2処理としての「入力受付」とを組にして記憶部は記憶している。この例も他のオブジェクト、他のイベント、および他の処理に適用可能である。
図7はオブジェクトへの操作イベントに対する処理割り当てのさらに他の例を説明するための図である。この例は、オブジェクト「動画再生ボタン」に対する割り当てを示す。この例において、オブジェクト「動画再生ボタン」について、イベント「非接触で近接」に対する第1処理「プレビュー」と、第2処理「再生」とを組にして記憶部は記憶している。
図7の例において操作入力装置は、動画再生ボタンをユーザがタップしなくてもその動画のプレビュー表示を実行する。したがって、動画再生ボタンをタップして動画再生しなくても、ユーザは動画の内容を簡単に確認することができる。続いてユーザが動画再生ボタンに指を接触させると、操作入力装置は対象の動画を再生する。このため、プレビュー再生の後、連続して対象の動画をユーザは視聴することができる。
このように表示パネル表面に操作指示体が近接する場合の第1処理と、操作指示体が表示パネルに接触する場合の第2処理とを組にして記憶すれば、処理の設定者は、関連性のある複数の処理を簡単に対応付けることができる。さらに操作入力装置は、複数の異なる処理を実行させるのに一度の操作イベント発生を検出すればよい。
上述のような操作入力装置は、操作入力プログラムをコンピュータに実行させることで実現可能である。この操作入力プログラムは、表示パネル上の画面に配置されるオブジェクトに対する操作を受け付ける手続をコンピュータに実行させるためのプログラムであって、その手続は、操作指示体の表示パネル表面への接近状態に関する状態信号を取得する手順と、取得された状態信号に基づいて、操作の対象オブジェクトおよび対象オブジェクトへの操作イベント発生を検出する手順とを備え、検出する手順は、操作指示体の表示パネル表面への近接を状態信号が示す場合、操作指示体の予め定めた面の表示パネル表面に対する向きを状態信号に基づいて判定し、その判定結果により、対象オブジェクトへの操作イベント発生の有無を区別する。
図8は本実施の形態に係る操作入力装置のハードウェア構成の一例を説明するための図である。スマートフォン800は、CPU801およびバス802を備える。CPU801はバス802を通じてメモリ803およびHDD804と接続され、メモリ803およびHDD804に対して入出力を行う。メモリ803またはHDD804はOSおよびそのOS上で実行可能な各種のアプリケーションに関するファイルを格納する。CPU801がバス802を通じて、そのようなプログラムのファイルの一部または全部を読み出し実行することで、スマートフォン800のようなコンピュータが本実施の形態に係る操作入力装置として機能する。さらに図5から図7で示したような処理割り当て構造はそのファイルに含まれる。すなわち、スマートフォン800におけるメモリ803またはHDD804は操作入力装置における記憶部として機能することができる。
スマートフォン800において、CPU801はバス802を通じてタッチパネル805および近接センサ806とも接続され、これらに対して入出力を行う。タッチパネル805は、制御部807と、表示パネル808と、接触センサ809とを備える。制御部807はバス802を通じてCPU801と通信すると共に、タッチパネル805全体を制御する。表示パネル808は、CPU801の指令を受けた制御部807によって生成された画像信号を受け画面表示する。接触センサ809は、タッチパネル805に表示された画面における一箇所または複数箇所に対する接触を検出する。接触センサ809は感圧式でも静電容量式でもその他のセンサでもよい。接触センサ809からの検出信号は、制御部807によりバス802を通じてCPU801へ出力される。
近接センサ806は、非接触で操作指示体810を検出するためのセンサユニットである。近接センサ806には赤外線センサやカメラなどを用いることができる。静電容量式の接触センサ809の感度を向上させることで、接触センサ809が近接センサ806を兼ねるようにしてもよい。赤外線センサを用いる場合、たとえばセンサ光を走査し、操作指示体810の形状、位置等を時系列に特定し、その結果から操作指示体810の予め定めた面の向きを決定する。カメラを用いる場合、取得画像に含まれる物体の形状認識を行い、その結果から操作指示体810の予め定めた面の向きを決定する。近接センサ806は、表示パネル808上の物体を検出すると、または定期的に、バス802を通じてその検出信号をCPU801へ出力する。
CPU801は、操作入力装置における状態信号としての検出信号をバス802から取得する。すなわち、CPU801は本実施の形態に係る操作入力装置の取得部として機能する。さらにCPU801は操作入力装置の検出部および処理実行部としても機能する。CPU801はバス802から検出信号を取得すると、その検出信号に基づいて、操作の対象オブジェクト811および対象オブジェクト811への操作イベント発生を検出する。便宜上、図にはハードウェアの一部であるように対象オブジェクト811を示している。しかしながら、対象オブジェクト811は表示パネル809に表示されるソフトウェア上の要素である。
CPU801は、操作指示体の表示パネル808への接近により、操作指示体の表示パネル808表面への近接を検出信号が示す場合、操作指示体810の予め定めた面の表示パネル808表面に対する向きを検出信号に基づいて判定し、その判定結果により、対象オブジェクト811への操作イベント発生の有無を区別する。CPU801は、操作イベント発生を検出すると、操作入力プログラムの手続にしたがって、そのイベントに対応する処理をメモリ803またはHDD804から読み出し、その処理を実行する。
図9はプログラムの指令に従って実行される操作入力手続の一例を説明するための図である。この手続は図8で示したスマートフォンのようなコンピュータが実行することができる。そのスマートフォンにおいて、CPUは操作指示体の表示パネル表面への接近状態に関する状態信号の取得を開始する(手順901)。状態信号はたとえば一定時間間隔で取得する。CPUは状態信号の時間的推移、たとえば信号強度の時間的変化によって操作指示体の表示パネル表面への接近をモニタする。CPUは操作指示体の接近をモニタしながら、操作指示体が表示パネルに近接したか、たとえば操作指示体が表示パネル表面から一定の距離内に入ったかを判定する(手順902)。操作指示体が表示パネル表面から一定の距離内に入ったかどうかは、状態信号の信号強度が一定値以上になったかどうかで区別することができる。
操作指示体が表示パネルに一定距離まで近接していなければ、CPUは状態信号の取得を継続する。操作指示体が表示パネルに近接すると、CPUは、表示パネルに表示されたオブジェクトから対象オブジェクトを検出する(手順903)。対象オブジェクトは、信号強度の2次元的な分布から検出することができる。オブジェクトの表示領域と信号強度の大きな領域とを比較することでCPUはオブジェクトのうち対象オブジェクトを決定することができる。
対象オブジェクトを検出すると、CPUは操作指示体の予め定めた面の表示パネル表面に対する向きをモニタする(手順904)。操作指示体の予め定めた面の向きは、近接センサから見た操作指示体の形状を特定することでCPUが決定することができる。操作指示体が指であるとき、たとえば表示パネル側にある近接センサからみて、指の腹側の面に相当する曲面形状を検出対象の先端が有しているかどうかで指の腹側の面が表示パネル表面を向いているかどうかをCPUは決定する。
この例において、操作指示体の予め定めた面が表示パネルの方を向いていないとき、CPUは操作イベント発生を検出する(手順905)。操作イベント発生を検出すると、対象オブジェクトに対し、その操作イベントの種類、ここでは近接イベントについて予め定められた処理をCPUは読み出し、その処理を実行する(手順906)。既述のようにたとえば仮想キーボードのキーが対象オブジェクトである場合、そのキーオブジェクトに対し、近接イベントについて割り当てられた拡大表示処理をCPUは実行する。
近接イベント検出後も、CPUは状態信号のモニタを継続することで、操作指示体が対象オブジェクトの領域から外れたかどうかを判定する(手順907)。操作指示体が対象オブジェクトの領域から外れた場合、CPUは新たな対象オブジェクトの検出を実行する(手順908)。
近接時の操作イベントが発生したかどうかにかかわらず、CPUは接触センサの検出信号の取得を継続的に行っており、操作指示体が表示パネルに接触したかどうかを検出する(手順909)。手順904において操作指示体の予め定めた面が表示パネルの方を向いていると判定したときも、CPUは操作指示体が表示パネルに接触したかどうかを検出する。操作指示体の表示パネルへの接触により、CPUは操作イベント発生を検出する(手順910)。操作イベント発生を検出すると、CPUは対象オブジェクトについて、その操作イベントに割り当てられた処理を読み出し実行する(手順911)。既述のようにたとえばキーオブジェクトに対し、タップイベントが発生した場合、キー入力の受付処理をCPUは実行する。
このようにして操作入力プログラムをスマートフォンのようなコンピュータが実行することで、操作指示体の表示パネルに対する向きによって操作イベント発生の有無を区別できる。その結果、コンピュータは操作指示体の表示パネルへの接近をユーザ操作に効果的に利用することができる。表示パネルに操作指示体を単に当接させるためにユーザが操作指示体を表示パネルに近づけているような場合にコンピュータは余計な処理を実行するのを回避する。
図10は操作入力プログラムを実行するスマートフォンの動作例を説明するための図である。この図はユーザが操作指示体としての指1001をスマートフォンの表示パネル1002に近づけ最終的に接触させる様子を示す。指1001の腹側の面1001Aはその間、表示パネル1002の方を向いている。図10Aに示すようにユーザの指1001が表示パネルから一定距離以上はなれている状態では、スマートフォンは対象オブジェクトの検出も操作イベント発生も検出しない。
図10Bに示すようにユーザの指1001が表示パネル表面から一定距離内に入った状態になると、スマートフォンはオブジェクト1003から対象オブジェクト1004を検出し、指1001の腹側の面1001Aが表示パネル1002の方を向いているかを判定する。しかしながら、指1001の腹側の面1001Aが表示パネル1001の方を向いているかどうかを判定してから、スマートフォンは対象オブジェクト1004を検出してもよい。さらに指1001の腹側の面1001Aが表示パネル1001の方を向いているとき、スマートフォンはこの時点で対象オブジェクト1004の検出をしなくてもよい。
この例では、指1001の腹側の面1001Aが表示パネル1002の方を向いているため、スマートフォンは操作イベント発生を検出しない。その状態から図10Cに示すようにユーザが指1001をさらに表示パネル1002に接近させ指先が表示パネル1002に接触すると、スマートフォンはタップ等のイベントについて割り当てられた処理を実行する。このようにユーザが表示パネルをタップ等するために単に指を表示パネルに近づけているとき、近接時の処理は発生せず接触時にのみ処理が発生する。
図11は操作入力プログラムを実行するスマートフォンの動作に関する他の例を説明するための図である。この図において、指1001の腹側の面は表示パネル1002の方を向いていない。指1001自体は表示パネル1002の方を向いているが、指1001の腹側の面は図面奥側を向いている。図11Aに示すようにユーザの指1001が表示パネルから一定距離以上はなれている状態では、指1001の腹側の面の向きにかかわらず、スマートフォンは対象オブジェクトの検出も操作イベント発生も検出しない。
この例において、ユーザはその状態から指1001の腹側の面の向きを変えずに表示パネル1002に指1001を近づける。このとき、スマートフォンはその指1001の腹側の面が表示パネル1002の方を向いていないと判定し、オブジェクト1003のうち対象オブジェクト1004に対する操作インベント発生を検出する。このようにスマートフォンは、表示パネルをタップ等するために単に指を表示パネルに近づけるのではなく、ユーザが近接時の操作イベント発生を意図しているときを明確に判定する。近接時の操作イベント発生後、さらに接触時の操作イベント発生を検出してもよい。
図12は操作入力プログラムを実行するスマートフォンの動作に関するさらに他の例を説明するための図である。この図において、ユーザは指1001を表示パネル1002に接触させるまで指1001の腹側の面を表示パネル1002の方に向けず、表示パネル1002に接触させるとき表示パネル1002表面に向けている。図12Aおよび図12Bは図11Aおよび図11Bと同じ状態を示している。
図12Cに示すように近接時の操作イベント検出後、ユーザが指1001を表示パネル1002に接触させると、タップ等の操作イベント発生をスマートフォンは検出し、対応する処理を実行する。図12Bの状態で実行する処理と図12Cの状態で実行する処理の組合せは様々である。図12Cの状態では、指1001の腹側の面が表示パネル1002に接触しているかどうかにかかわらず、操作イベントを発生させればよい。
図13はプログラムの指令に従って実行される操作入力手続の他の例を説明するための図である。図13の例は、近接時に操作イベント発生を検出した時点で接触時の操作イベントに対応する処理もスマートフォンが読み出しておく点で図9と異なっている。この場合、図6および図7のような構造で処理を記憶しておくことで、スマートフォンは関連する2つ以上の処理を一時に容易に読み出すことができる。
手順905において近接時の操作イベント発生を検出した後、スマートフォンのCPUは近接時および接触時の両方に対応する処理を読み出し、近接時の処理を実行する(手順1301)。CPUは、操作指示体が対象オブジェクトの領域から離れることなく(手順907)、たとえば近接時の処理実行開始から予め定めた時間が経過したかどうかを判定する(手順1302)。
予め定めた時間が経過したとき、CPUはたとえば状態信号の示す信号強度が閾値以上であるかどうかを判定する(手順1303)。閾値以上の場合、CPUは手順1301で読み出した接触時の操作イベントに対応する処理を実行する(手順1304)。閾値以上でなければ、CPUはこの手続を終了する。
手順904において操作指示体の予め定めた面が表示パネルの方を向いていると判定したとき、手順907において操作指示体が対象オブジェクトの領域から外れたとき、CPUはあらためて対象オブジェクトの検出を実行する(手順908)。手順908の後、図9の例と同様に手順909から手順911をCPUは実行する。
このような操作入力手続でも、図12と同様の動作を実現することができる。コンピュータは、近接状態での操作イベント発生を検出させるだけで、近接時と接触時とで別個の処理を実行することができる。
図14は操作入力プログラムを実行するスマートフォンの動作に関するさらに他の例を説明するための図である。この図において、図14Aに示すようにユーザは指1001の腹側の面を表示パネル1002の方に向けない状態で指1001を表示パネル1002に近接させる。その後、図14Bに示すように表示パネル1002に接触させずに近接させた状態で指を回転させる。スマートフォンは図14Aおよび図14Bそれぞれの状態で、オブジェクト1003のうち対象オブジェクト1004に対して操作イベント発生の検出を行い、その操作イベントに対して割り当てられた処理を実行する。このような動作例では、ユーザは表示パネル1002に指1001を接触させることなく、異なる複数の処理をスマートフォンに実行させることができる。
図15は操作入力プログラムを実行するスマートフォンの動作に関するさらに他の例を説明するための図である。この図において、ユーザの指の動かし方は図14と同じである。しかしながら、それに対するスマートフォンの動作は異なっている。図15Aに示すように、指1001の腹側の面を表示パネル1002の方に向けない状態で指1001を表示パネル1002に近接させただけでは、スマートフォンのCPUは操作イベント発生を検出しない。この例ではその状態から、図15Bに示すように指の向き変更があったと判定したときにCPUは操作イベント発生を検出する。このような動作例では、ユーザは操作イベントを発生させるのに指1001を表示パネル1002に近接させるだけなく回転させる必要がある。しかしながら、ユーザはより明確に操作イベント発生の要否をスマートフォンに伝えることができる。
図16は動画コンテンツを集めたアルバムのアプリケーションに対する操作例を説明するための図である。上述の実施の形態では、オブジェクトが仮想キーボードのキーである場合を説明したが、他のオブジェクトに本発明を適用することも可能である。図16の例では、動画アルバムのアプリケーションにおける動画リストがスマートフォン101のパネル102に表示されている。動画リストは、複数の動画それぞれのサムネイル1601を含む。指のような操作指示体をユーザがサムネイル1601の一つに非接触で近接させると、操作指示体の近接した対象オブジェクト1601Aに対しスマートフォン101はプレビュー再生1602の処理を実行する。このようにすれば、ユーザは動画リストの各サムネイル上に指を運ぶことで簡単に各動画の内容を確認することができる。ユーザが所望の動画を再生したいと思った時には、その動画のサイムネイルに操作指示体を接触させればよい。
図17は地図のアプリケーションに対する操作例を説明するための図である。この例は、地図を表示する表示ボックス1701における地図画像の拡大・縮小操作に本発明を適用している。ユーザは、スライドバー1702上で指をスライドさせることで、対象点1703を中心に地図の表示を拡大・縮小することができる。さらにたとえば対象点1703上で指のような操作指示体が上下すれば、スマートフォン101は地図の表示を拡大・縮小する。指を徐々に表示パネル102に近づけると、スマートフォン101は徐々に地図の表示を拡大する。指を徐々に表示パネル102から遠ざけると、徐々に地図の表示を縮小する。上述の実施の形態では、操作指示体が表示パネル102に近接したかどうかで操作イベント発生を検出したが、操作指示体の近接量、すなわち表示パネル102との距離にしたがって処理の内容を連続的に変化させるようにしてもよい。
上述した実施の形態は本発明の技術的範囲を制限するものではなく、本発明の範囲内で種々の変形や応用が可能である。本発明は上述の実施の形態のようスマートフォン以外にも、表示パネルを使って操作するタブレットやPC、その他の操作入力装置に適用することが可能である。さらに操作指示体がユーザの指である例を上述したが、たとえばペン型部材であってもよい。
さらに上述の実施の形態において操作入力プログラムは、スマートフォンのメモリに記憶されていた。操作入力プログラムが予め導入されていないコンピュータにも、インターネットのような電気通信回線や、コンピュータ読み取り可能な記録媒体から操作入力プログラムのファイルを取得することで導入することができる。コンピュータ読取可能な記録媒体としては、種々の光学メディアや、フラッシュメモリのような半導体メモリを利用することができる。
さらに上述の実施の形態では、操作入力プログラムを利用することでスマートフォンを操作入力装置として機能させていた。しかしながら、その機能の一部または全部を回路または回路群により実現するようにしてもよい。さらに操作入力装置は、他の装置の一部であってもよい。また操作入力装置は、物理的に一体である必要はなく、複数の装置を電気通信回線により接続することで構成してもよい。
本発明の操作入力装置および操作入力プログラムは、指のような操作指示体の表示パネルへの接近をユーザ操作に効果的に利用することでき、スマートフォンやタブレット等、様々な装置に適用することができる。
101 スマートフォン
102 表示パネル
103 画面
104 オブジェクト
104A 対象オブジェクト
105 操作指示体
105A 操作指示体の予め定めた面
106 取得部
107 検出部
401 取得部
402 検出部
403 記憶部
404 処理実行部
800 スマートフォン
801 CPU
802 バス
803 メモリ
804 HDD
805 タッチパネル
806 近接センサ
807 制御部
808 表示パネル
809 接触センサ
810 操作指示体
811 対象オブジェクト
1001 指
1001A 指の腹側の面
1002 表示パネル
1003 オブジェクト
1004 対象オブジェクト
1601 動画リスト
1601A 対象オブジェクト
1602 プレビュー再生画面
1701 地図表示ボックス
1702 スライドバー
1703 対象点

Claims (6)

  1. 表示パネル上の画面に配置されるオブジェクトに対する操作を受け付ける操作入力装置であって、
    操作指示体の前記表示パネル表面への接近状態に関する状態信号を取得する取得部と、
    前記取得部により取得された状態信号に基づいて、操作の対象オブジェクトおよび前記対象オブジェクトへの操作イベント発生を検出する検出部と
    を備え、
    前記検出部は、前記操作指示体の前記表示パネル表面への近接を前記状態信号が示す場合、前記操作指示体の予め定めた面の前記表示パネル表面に対する向きを前記状態信号に基づいて判定し、その判定結果により、前記対象オブジェクトへの操作イベント発生の有無を区別する、操作入力装置。
  2. 前記検出部は、前記操作指示体の前記予め定めた面が前記表示パネル表面を向いているか否かによって、前記対象オブジェクトへの操作イベント発生の有無を区別する、請求項1に記載の操作入力装置。
  3. 前記検出部は、前記操作指示体の前記予め定めた面の向き変更を判定し、その判定結果により、前記対象オブジェクトへの操作イベント発生の有無を区別する、請求項1または請求項2に記載の操作入力装置。
  4. 前記オブジェクトへの操作イベントに対する処理を記憶する記憶部と、
    前記対象オブジェクトへの前記検出された操作イベントに対する処理を前記記憶部から読み出し実行する処理実行部とをさらに備える、請求項1〜請求項3のいずれか1項に記載の操作入力装置。
  5. 前記記憶部は、前記オブジェクトへの操作イベントに対して、前記表示パネル表面に前記操作指示体が近接する場合の第1処理と、前記表示パネル表面に前記操作指示体が接触する場合の第2処理とを組にして記憶し、
    前記処理実行部は、前記操作指示体の前記表示パネル表面への近接を前記状態信号が示す場合に前記対象オブジェクトへの操作イベント発生が前記検出部により検出されると、前記第1処理を実行し、前記対象オブジェクトが変更されずに前記操作指示体の前記表示パネル表面への接触を前記状態信号が示すようになると、前記第2処理を実行する、請求項4に記載の操作入力装置。
  6. 表示パネル上の画面に配置されるオブジェクトに対する操作を受け付ける手続をコンピュータに実行させるための操作入力プログラムであって、
    前記手続は、
    操作指示体の前記表示パネル表面への接近状態に関する状態信号を取得する手順と、
    前記取得された状態信号に基づいて、操作の対象オブジェクトおよび前記対象オブジェクトへの操作イベント発生を検出する手順とを備え、
    前記検出する手順は、前記操作指示体の前記表示パネル表面への近接を前記状態信号が示す場合、前記操作指示体の予め定めた面の前記表示パネル表面に対する向きを前記状態信号に基づいて判定し、その判定結果により、前記対象オブジェクトへの操作イベント発生の有無を区別する、操作入力プログラム。
JP2013098588A 2013-05-08 2013-05-08 操作入力装置および操作入力プログラム Pending JP2014219841A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013098588A JP2014219841A (ja) 2013-05-08 2013-05-08 操作入力装置および操作入力プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013098588A JP2014219841A (ja) 2013-05-08 2013-05-08 操作入力装置および操作入力プログラム

Publications (1)

Publication Number Publication Date
JP2014219841A true JP2014219841A (ja) 2014-11-20

Family

ID=51938223

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013098588A Pending JP2014219841A (ja) 2013-05-08 2013-05-08 操作入力装置および操作入力プログラム

Country Status (1)

Country Link
JP (1) JP2014219841A (ja)

Citations (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6223345U (ja) * 1985-07-22 1987-02-12
JPH06324810A (ja) * 1993-05-11 1994-11-25 Canon Inc 電子機器及びその制御方法
JPH08286810A (ja) * 1995-04-12 1996-11-01 Wacom Co Ltd 位置検出装置及びその位置指示器
JP2005149321A (ja) * 2003-11-18 2005-06-09 Canon Inc 座標入力装置、情報処理装置及びそれらの制御方法、プログラム
US20080158170A1 (en) * 2007-01-03 2008-07-03 Apple Computer, Inc. Multi-event input system
JP2008191241A (ja) * 2007-02-01 2008-08-21 Sharp Corp 映像表示装置及び映像表示方法
JP2009005408A (ja) * 2008-09-22 2009-01-08 Hitachi Ltd コンテンツ情報表示装置
JP2009015685A (ja) * 2007-07-06 2009-01-22 Meiji Univ タッチパネル装置、及びその操作情報生成方法
JP2009529826A (ja) * 2006-03-10 2009-08-20 エルジー エレクトロニクス インコーポレイティド サムネールイメージ基盤のビデオブラウジング
JP2010034633A (ja) * 2008-07-25 2010-02-12 Nikon Corp 電子カメラ
JP2010191588A (ja) * 2009-02-17 2010-09-02 Wacom Co Ltd 位置指示器、回路部品及び入力装置
JP2011018090A (ja) * 2009-07-07 2011-01-27 Panasonic Corp 電子ペン及び電子ペンシステム
JP2011145763A (ja) * 2010-01-12 2011-07-28 Panasonic Corp 電子ペンシステム
WO2012157272A1 (ja) * 2011-05-16 2012-11-22 パナソニック株式会社 表示装置、表示制御方法及び表示制御プログラム、並びに、入力装置、入力支援方法及びプログラム
JP2013026700A (ja) * 2011-07-19 2013-02-04 Panasonic Corp 映像コンテンツ選択装置及び映像コンテンツ選択方法
WO2013059488A1 (en) * 2011-10-18 2013-04-25 Carnegie Mellon University Method and apparatus for classifying touch events on a touch sensitive surface
JP2013077982A (ja) * 2011-09-30 2013-04-25 Sony Corp 情報処理装置、情報処理方法及びプログラム
JP2013117890A (ja) * 2011-12-05 2013-06-13 Sony Corp 電子機器及び電子機器の操作方法
JP2014167712A (ja) * 2013-02-28 2014-09-11 Nec Casio Mobile Communications Ltd 情報処理装置、情報処理方法およびプログラム
JP2014191743A (ja) * 2013-03-28 2014-10-06 Sony Corp 情報処理システム、情報処理装置、および筆装置
US20140327626A1 (en) * 2013-05-06 2014-11-06 Qeexo, Co. Using Finger Touch Types to Interact with Electronic Devices

Patent Citations (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6223345U (ja) * 1985-07-22 1987-02-12
JPH06324810A (ja) * 1993-05-11 1994-11-25 Canon Inc 電子機器及びその制御方法
JPH08286810A (ja) * 1995-04-12 1996-11-01 Wacom Co Ltd 位置検出装置及びその位置指示器
JP2005149321A (ja) * 2003-11-18 2005-06-09 Canon Inc 座標入力装置、情報処理装置及びそれらの制御方法、プログラム
JP2009529826A (ja) * 2006-03-10 2009-08-20 エルジー エレクトロニクス インコーポレイティド サムネールイメージ基盤のビデオブラウジング
US20080158170A1 (en) * 2007-01-03 2008-07-03 Apple Computer, Inc. Multi-event input system
JP2008191241A (ja) * 2007-02-01 2008-08-21 Sharp Corp 映像表示装置及び映像表示方法
JP2009015685A (ja) * 2007-07-06 2009-01-22 Meiji Univ タッチパネル装置、及びその操作情報生成方法
JP2010034633A (ja) * 2008-07-25 2010-02-12 Nikon Corp 電子カメラ
JP2009005408A (ja) * 2008-09-22 2009-01-08 Hitachi Ltd コンテンツ情報表示装置
JP2010191588A (ja) * 2009-02-17 2010-09-02 Wacom Co Ltd 位置指示器、回路部品及び入力装置
JP2011018090A (ja) * 2009-07-07 2011-01-27 Panasonic Corp 電子ペン及び電子ペンシステム
JP2011145763A (ja) * 2010-01-12 2011-07-28 Panasonic Corp 電子ペンシステム
WO2012157272A1 (ja) * 2011-05-16 2012-11-22 パナソニック株式会社 表示装置、表示制御方法及び表示制御プログラム、並びに、入力装置、入力支援方法及びプログラム
JP2013026700A (ja) * 2011-07-19 2013-02-04 Panasonic Corp 映像コンテンツ選択装置及び映像コンテンツ選択方法
JP2013077982A (ja) * 2011-09-30 2013-04-25 Sony Corp 情報処理装置、情報処理方法及びプログラム
WO2013059488A1 (en) * 2011-10-18 2013-04-25 Carnegie Mellon University Method and apparatus for classifying touch events on a touch sensitive surface
JP2014532252A (ja) * 2011-10-18 2014-12-04 カーネギー メロン ユニバーシティ タッチセンサ表面に対するタッチ事象を分類するための方法及び装置
JP2013117890A (ja) * 2011-12-05 2013-06-13 Sony Corp 電子機器及び電子機器の操作方法
JP2014167712A (ja) * 2013-02-28 2014-09-11 Nec Casio Mobile Communications Ltd 情報処理装置、情報処理方法およびプログラム
JP2014191743A (ja) * 2013-03-28 2014-10-06 Sony Corp 情報処理システム、情報処理装置、および筆装置
US20140327626A1 (en) * 2013-05-06 2014-11-06 Qeexo, Co. Using Finger Touch Types to Interact with Electronic Devices

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
"MSの検索エンジン「Bing」、日本でもサービス開始", INTERNET WATCH[オンライン], JPN6017013305, 13 July 2010 (2010-07-13), JP, ISSN: 0003539368 *
"今年活躍したソフトを一挙紹介! フリーソフト大賞2012", MR.PC, vol. 第3巻 第12号, JPN6017013307, 24 October 2012 (2012-10-24), JP, pages 62, ISSN: 0003539370 *
MIKE NICHOLS: "Smart Motion Search Preview and SafeSearch", BING SEARCH BLOG [ONLINE], JPN6017013309, 4 June 2009 (2009-06-04), ISSN: 0003539372 *
廣田 稔: "新Bingはグーグルを超えたか!? 次世代検索サービス徹底比較", 週刊アスキー, vol. 第22巻 通巻792号, JPN6017013306, 13 July 2010 (2010-07-13), JP, pages 123, ISSN: 0003539369 *
東 賢: "Windows PhoneでMetro UIの世界に飛び込む Jump into Metro!", WEB DESIGNING, vol. 第12巻 第5号, JPN6017013308, 1 May 2012 (2012-05-01), JP, pages 104 - 109, ISSN: 0003539371 *

Similar Documents

Publication Publication Date Title
US10126914B2 (en) Information processing device, display control method, and computer program recording medium
EP2474896B1 (en) Information processing apparatus, information processing method, and computer program
US9671893B2 (en) Information processing device having touch screen with varying sensitivity regions
US8633909B2 (en) Information processing apparatus, input operation determination method, and input operation determination program
US8581869B2 (en) Information processing apparatus, information processing method, and computer program
JP5887807B2 (ja) 情報処理装置、情報処理方法およびコンピュータプログラム
US20160004373A1 (en) Method for providing auxiliary information and touch control display apparatus using the same
US20140306897A1 (en) Virtual keyboard swipe gestures for cursor movement
JP2012141869A (ja) 情報処理装置、情報処理方法およびコンピュータプログラム
EP2899623A2 (en) Information processing apparatus, information processing method, and program
JP5911321B2 (ja) 表示制御装置および表示制御装置の制御方法
TW201740271A (zh) 應用程式資料處理的方法及裝置
US9886167B2 (en) Display apparatus and control method thereof
JP2014219841A (ja) 操作入力装置および操作入力プログラム
JP6971573B2 (ja) 電子機器、その制御方法およびプログラム
JP6484859B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2016024580A (ja) 情報処理装置、入力制御方法、および入力制御プログラム
TWI483175B (zh) 資料分享系統及其資料分享方法
US20150138102A1 (en) Inputting mode switching method and system utilizing the same
TW201426410A (zh) 電子設備的外接按鍵管理方法及系統
KR20150100081A (ko) 측면 터치 입력이 가능한 휴대 전자 기기 및 그 제어 방법
JP2016130976A (ja) 情報処理装置、情報処理装置の制御方法、および制御プログラム
JP2021099643A (ja) 電子機器およびその制御方法

Legal Events

Date Code Title Description
A625 Written request for application examination (by other person)

Free format text: JAPANESE INTERMEDIATE CODE: A625

Effective date: 20151221

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20160719

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20160719

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161011

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161018

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170418

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20171011