JP5158023B2 - 入力装置、入力方法及びコンピュータプログラム - Google Patents

入力装置、入力方法及びコンピュータプログラム Download PDF

Info

Publication number
JP5158023B2
JP5158023B2 JP2009138532A JP2009138532A JP5158023B2 JP 5158023 B2 JP5158023 B2 JP 5158023B2 JP 2009138532 A JP2009138532 A JP 2009138532A JP 2009138532 A JP2009138532 A JP 2009138532A JP 5158023 B2 JP5158023 B2 JP 5158023B2
Authority
JP
Japan
Prior art keywords
light transmissive
transmissive panel
contact operation
time
speed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009138532A
Other languages
English (en)
Other versions
JP2010286911A (ja
Inventor
尚美 岩山
健次 中島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2009138532A priority Critical patent/JP5158023B2/ja
Priority to US12/793,921 priority patent/US8803818B2/en
Publication of JP2010286911A publication Critical patent/JP2010286911A/ja
Application granted granted Critical
Publication of JP5158023B2 publication Critical patent/JP5158023B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1643Details related to the display arrangement, including those related to the mounting of the display in the housing the display being associated to a digitizer, e.g. laptops that can be used as penpads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1647Details related to the display arrangement, including those related to the mounting of the display in the housing including at least an additional display

Description

本発明は、例えば複数のタッチパネルから入力を行った場合に、それぞれの入力の連続性を判定する入力装置、入力方法及びコンピュータプログラムに関する。
近年、表示装置の画面を覆うようにタッチパネルを設けた電子機器、例えばPersonal Digital Assistant(PDA)、携帯ゲーム機又は携帯電話機等がある。タッチパネルを設けた電子機器では、使用者は、画面に表示された画像と重なる部分のタッチパネルを指又はペン等で押圧することで、画像の選択操作が可能となる。また、画面にポインタ(カーソル)が表示された場合、使用者は、ポインタの表示部分を押圧した指等をタッチパネルに沿ってスライド移動させることにより、ポインタの移動操作が可能となる。このように、タッチパネルを設けることで、使用者は、直感的な電子機器の操作が可能となる。また、電子機器に、画像を選択する選択ボタン、又はポインタを移動させる操作ボタン等を設ける必要がなくなるため、物理的なボタンの設置スペースを省略でき、その分画面サイズを大きくすることが可能となる。
また、画面上にタッチパネルが設けられた二つの表示装置を備えた電子機器もある。この電子機器では、機器サイズが大きくならないように、例えば二つの表示装置をヒンジ機構により連結し、画面が対面する状態に折りたたみ可能にしている。使用者により使用される際には、電子機器は、折りたたんだ状態からヒンジ機構を間にして二つの画面が並列した状態にされる。二つの画面を備えることで、画面が一つの場合との対比において、電子機器は、より多くの情報を一度に表示できるようになる。
タッチパネルが設けられた2つの画面を備えた電子機器では、各タッチパネルで行われた操作(以下、タッチ操作と言う)が関連しているか否かの判定を行う必要がある。例えば、画面に表示されたポインタを一方の画面から他方の画面へと移動させる場合、2つのタッチパネルの間にはヒンジ機構があるため、使用者は、一旦タッチパネルから押圧している指を離す必要がある。このとき、電子機器は、使用者によるポインタの移動操作が終了したのか、もう一方のタッチパネルでのタッチ操作に続くのかを正確に判定する必要がある。
そこで、2つのタッチパネルの一方でのタッチ操作が終了してから他方でのタッチ操作が開始されるまでの時間が所定時間内であれば、各タッチパネルでのタッチ操作は連続していると判定する方法が知られている。また、一方のタッチパネルでのタッチ操作が予め決められた領域内で終了した場合に、他方のタッチパネルでのタッチ操作に続く操作であると判定する方法も知られている(例えば、特許文献1)。さらに、一方のタッチパネルでのタッチ操作の終了後、他方でのタッチ操作の開始時に、他方のタッチパネルに設定された位置が押圧された場合に、各タッチ操作は連続していると判定する方法も知られている(例えば、特許文献2)。この方法では、一方でのタッチ操作の終了位置が所定領域内であれば、他方のタッチパネルにおける終了位置に対応する開始位置を決定する。そして、決定した位置を、他方のタッチパネルが設けられた画面に表示して、使用者に押圧すべき位置を報知する。
特開平11−73269号公報 特開2000−242393号公報
しかしながら、使用者によって操作速度は異なるため、タッチパネルの一方から他方へタッチ操作を移す際の速度は、使用者によって異なる。また、安定した状態で電子機器を使用する場合には、使用者は、予め決められた位置でタッチ操作を終了することができるが、移動中など不安定な状態で使用した場合、決められた位置でタッチ操作を終了させることが困難となる場合がある。このような場合も、上述した方法では、正確にタッチ操作の連続性を判定ができなくなり、使用者の意図に沿った操作として扱われなくなるおそれがある。
本発明はかかる事情に鑑みてなされたものであり、その目的とするところは、異なる表示画面で行った操作を、使用者が行った操作の意図通りに連続的な操作として扱うことができる入力装置、入力方法、及び入力装置を実現するためのコンピュータプログラムを提供することにある。
本願に開示する入力装置は、画像を表示する複数の表示面それぞれに設けられ、表示画面に対する接触操作を受け付ける光透過性パネルを備えている。入力装置は、異なる光透過性パネルから接触操作を受け付けた場合、先に行われた接触操作と、後に行われた接触操作とが関連する操作であるか否かを判定する。関連する操作とは、例えば連続する一連の操作である。入力装置は、先に行われた接触操作において、光透過性パネルの操作位置が変化する場合、変化前の操作位置から変化後の操作位置への方向、及び変化後の操作位置までの移動速度を検出する。入力装置は、検出結果から、後に行う接触操作の開始位置を推測する。入力装置は、後の接触操作が開始された位置と推測した位置とに基づいて、2つの接触操作を関連付づける。
本願に開示する入力装置によれば、後に行われる接触操作の開始位置を、先に行われた接触操作の速度及び方向から推測するため、使用者に応じた開始位置を適宜推測できる。本願に開示する入力装置によれば、使用者毎に操作速度が異なる場合又は不安定な姿勢で操作を行う場合でも、使用者が、後に行った接触操作を自身の意図に沿った操作として扱われるようにすることができる。
本願に開示する入力装置を備えた電子機器を示す概略図である。 本願に開示する入力装置を備えた電子機器を示す概略図である。 2つのタッチパネルに跨って行うタッチ操作の具体例を示す模式図である。 入力装置を備えた電子機器の電気的構成を模式的に示すブロック図である。 電子機器が有する機能を示すブロック図である。 開始推測位置を推測する際にパネル上に仮想的に設定する座標軸を示す模式図である。 電子機器で実行される処理を示すフローチャートである。 実施形態2に係る入力ベクトルを示す図である。 実施形態3に係る電子機器を操作している状況を模式的に示す図である。 実施形態3に係る電子機器が有する機能を示すブロック図である。 電子機器で実行される処理を示すフローチャートである。 電子機器で実行される処理を示すフローチャートである。
以下に、本願に開示する入力装置及び入力方法の好適な実施形態について、図面を参照しつつ詳述する。本願に開示する入力装置及び入力方法は、少なくとも2つの表示面を有する携帯電話機、携帯ゲーム機、携帯型音楽プレーヤ及びPDA等の電子機器に用いられる。
(実施形態1)
図1A及び図1Bは、本願に開示する入力装置を備えた電子機器を示す概略図である。
実施形態1に係る電子機器は、2つのLiquid Crystal Display(LCD)21,22を備えている。2つのLCD(表示部)21,22は、ヒンジ機構1aにより連結され、ヒンジ機構1aを軸に回転可能とされている。電子機器は、LCD21,22を回転させることで、使用状態に応じて開閉可能としてある。電子機器を使用する場合には、電子機器を開いた状態にし、使用しない場合には、閉じた状態にする。電子機器を開いた状態とは、図1A及び図1Bに示すように、LCD21,22の表示画面21a,22aがヒンジ機構1aを介して左右対称となる状態を言う。また、LCD21,22を閉じた状態とは、図示しないが、表示画面21a,22aを対面させた状態を言う。このように、電子機器を開閉式とすることで、使用しない場合には、電子機器をコンパクトにでき、使用する場合には、2つの表示画面21a,22aを用いることが可能となる。以下の説明では、電子機器を開いた状態において、LCD21が位置する方向を右側とし、LCD22が位置する方向を左側とする。
LCD21,22の表示画面21a,22aには、一又は複数の画像が表示される。各表示画面21a,22aには、それぞれ異なる画像が表示されてもよいし、同じ画像が表示されてもよい。実施形態1では、一つの文章を二つの表示画面21a,22aに跨って横書きで表示するものとして説明する。この場合、左側の表示画面22aに表示された文章の続きが右側の表示画面21aに表示される。
電子機器は、LCD21,22の表示画面21a,22aを覆うように設けられ、使用者により押圧された位置(以下、押圧位置と言う)を検出するタッチパネル(光透過性パネル)23,24を備えている。タッチパネル23,24それぞれには、図1Aに示すように、左上端部を原点とした座標平面が仮想的に設定されている。座標平面は、タッチパネル23,24の配列方向をX軸とし、ヒンジ機構1aの軸方向がY軸としてある。タッチパネル23,24は、使用者により押圧された場合、設定された座標平面に基づく押圧位置のXY座標を検出する。押圧位置を検出する方式としては、例えば抵抗膜方式、光学式(赤外線方式)、静電容量結合式、表面弾性波方式、音響パルス認識方式、振動検出方式、電磁誘導方式、静電センサ方式、光センサ方式及び画像認識方式の何れのものであってもよい。電子機器は、押圧位置が表示画面21a,22aに表示されたアイコン又はポインタ等の画像の表示位置と一致している場合、表示された画像が選択されたと判定する。そして、電子機器は、選択された画像に基づいて、適宜処理を実行する。
本実施形態1に係る電子機器は、図1Bに示すように、複数の画像25を表示している場合、画像25を通るように指等が押圧された状態でスライド移動されることで、複数の画像25が選択されたと判定するようになっている。これにより、使用者は、一度のタッチ操作で複数の画像を選択することができる。複数の画像25が選択される場合、使用者が選択したい画像25が2つの表示画面21a,22aに跨って表示される場合がある。この場合、電子機器は、図1Bに示すように、2つのタッチパネル23,24に跨ってタッチ操作が行われる。なお、以下の説明では指等をスライド移動させて複数の画像を選択するタッチ操作をスライド操作と言う。
図2は、2つのタッチパネル23,24に跨って行うタッチ操作の具体例を示す模式図である。図2は、「ABCDEFGHIJKLMN」の一連の文章が2つの表示画面21a,22aに跨って表示され、「CDEFGHIJKL」の文字が選択される場合を示している。選択された文字は、例えばコピー等が可能となる。
左側の表示画面22aには、「ABCDEFG」の文字、右側の表示画面21aには「HIJKLMN」の文字がそれぞれ表示されている。使用者は、左側のタッチパネル24において、「C」の文字から「G」の文字までスライド操作を行う。使用者は、一旦指をタッチパネル24から離した後、タッチパネル23において、「H」の文字から「L」の文字までスライド操作を行う。このとき、電子機器は、タッチパネル23,24のスライド操作が連続する操作であるか否かを判定する。連続する操作とは、タッチパネル23,24それぞれで行われたタッチ操作が互いに関連した操作であることを言う。例えば、図2においてタッチパネル23,24のスライド操作が連続する操作であると判定された場合、「CDEFGHIJKL」の一連の文字列が選択される。一方、連続する操作でないと判定された場合、「HIJKL」の文字列が選択される。以下、タッチ操作の連続性の正確な判定を実現するための、本願に開示する入力装置を備えた電子機器の構成、及び電子機器が実行する処理について詳述する。
図3は、入力装置を備えた電子機器の電気的構成を模式的に示すブロック図である。
電子機器は、Central Processing Unit(CPU)10、Read Only Memory(ROM)11、Random Access Memory(RAM)12、入力部13、LCD21,22、及びタッチパネル23,24等のハードウェア各部を備える。これらのハードウェア各部はバスを介して電気的に接続されている。入力部13は、タッチパネル23,24とは異なる入力手段であって、例えば電子機器の電源をオンオフするための物理的なスイッチ等である。
CPU10は、ROM11等に予め格納されている制御プログラムを適宜RAM12に読み出して実行すると共に、上述したハードウェア各部の動作を制御する。ROM11は、本願に開示するコンピュータプログラム、及び電子機器を動作させるために必要な種々の制御プログラムを予め格納している。ROM11が格納するコンピュータプログラムがCPU10により実行されることで、電子機器は、本願に開示する入力装置の機能を備えるようになる。RAM12は、例えばSRAM(Static RAM)、DRAM(Dynamic RAM)又はフラッシュメモリ等である。RAM12は、CPU10による制御プログラムの実行時に発生する種々のデータを一時的に記憶する。
LCD21,22の表示画面21a,22aに設けられたタッチパネル23,24は、押圧位置に対応する信号をCPU10に出力する。タッチパネル23,24から信号を受信するCPU10は、タッチパネル23,24それぞれに仮想的に座標平面を設定しており、座標平面に基づく押圧位置のXY座標(以下、座標データと言う)を取得する。CPU10は、取得した座標データをRAM12等に格納する。また、タッチパネル23,24は、押圧し続けられている限りCPU10に対して、押圧位置に対応する信号を出力する。信号が入力され続けるCPU10は、一定時間毎に入力信号から座標データを取得し、RAM12等に格納する。これにより、スライド操作された場合、RAM12等には、時系列で変化する押圧位置の座標データが格納される。なお、CPU10で座標データを取得するようにしているが、タッチパネル23,24において座標データを取得し、CPU10に出力するようにしてもよい。
次に、上述のCPU10が制御プログラムを実行することによって実現される電子機器の機能について説明する。図4は、電子機器が有する機能を示すブロック図である。本実施形態1に係る電子機器は、表示部101、押圧検出部102、画面判定部103、位置取得部(位置検出手段)104、位置格納部105、計時部(第1計時手段)106、開始判定部107、終了判定部108、ベクトル算出部(速度算出手段、方向算出手段)109、開始位置推測部(推定手段)110、連続性判定部(関連付け手段)111及び制御部112等の機能を有する。
表示部101は、LCD21,22の表示画面21a,22aに画像を表示させる。押圧検出部102は、タッチパネル23,24への押圧を検出する。画面判定部103は、押圧検出部102が検出した押圧が、何れのタッチパネル23,24に対するものであるかを判定する。
位置取得部104は、押圧検出部102が押圧を検出した場合、押圧位置の座標データを取得し、位置格納部105へ格納する。位置取得部104は、押圧検出部102が押圧を検出しなくなるまで、一定時間毎に押圧位置の座標データを取得する。位置取得部104は、タッチパネル23,24に仮想的に座標平面を設定しており、座標平面に基づく押圧位置の座標データ(X(n),Y(n))を取得する。nは、初期値が0の整数値であって、位置取得部104が座標データを取得する毎に1ずつ加算される。従って、スライド操作が行われた場合、操作開始時の押圧位置(以下、入力開始位置と言う)の座標データは、(X(0),Y(0))となる。また、操作終了時の押圧位置(以下、入力終了位置と言う)の座標データは、(X(n),Y(n))となる。
また位置取得部104は、取得した座標データを格納する際、時間を計測する計時部106から現在時刻を取得し、取得した時刻t(n)と共に格納する。時刻t(n)は、座標データと同様に、スライド操作開始時はt(0)となり、終了時はt(n)となる。
開始判定部107は、押圧検出部102が押圧を検出することでタッチ操作の開始を判定する。終了判定部108は、押圧検出部102が押圧を検出しなくなった場合にタッチ操作の終了を判定する。
ベクトル算出部109は、終了判定部108がタッチ操作の終了を判定した場合、入力ベクトルを算出する。入力ベクトルは、スライド操作が行われた場合の入力開始位置の座標データ(X(0),Y(0))から入力終了位置の座標データ(X(n),Y(n))への方向である。この場合、入力ベクトルは、(X(n)−X(0),Y(n)−Y(0))となる。
開始位置推測部110は、終了判定部108がタッチ操作の終了を判定した後、開始判定部107がタッチ操作の開始を判定した場合、2つのタッチ操作がそれぞれ異なるタッチパネル23,24において行われたか否かを判定する。以下の説明では、時間的に先に行われるタッチ操作を第1操作、第1操作の終了後に行われるタッチ操作を第2操作と言う。第1及び第2操作が異なるタッチパネル23,24でタッチ操作が行われた場合、開始位置推測部110は、第2操作の開始時に押圧されると推測される位置(以下、開始推測位置と言う)を推測する。後述するが、推測した開始推測位置が第2操作の開始時に押圧された場合には、第1及び第2操作は連続する操作であると判定される。
開始位置推測部110は、開始推測位置を推測する場合、タッチパネル23,24に原点を同じにした共通の座標平面を設定する。図5は、開始推測位置を推測する際にパネル上に仮想的に設定する座標軸を示す模式図である。パネル上に設定された座標平面は、左側のタッチパネル24の左上端部を原点とし、タッチパネル23,24の配列方向をX軸、ヒンジ機構1aの軸方向をY軸に設定している。また、図5に示すように、実施形態1では、並列配置されるタッチパネル23,24の間の距離をdとし、タッチパネル24のX軸方向の幅を距離Xmaxとしている。以下、図5において、第1操作をタッチパネル24上の位置AからBまでのスライド操作とし、第2操作をタッチパネル23上の位置Cを開始位置とした操作として説明する。従ってこの場合、開始位置推測部110が推測する開始推測位置は、タッチパネル23上に位置する。
開始推測位置を推測する場合、開始位置推測部110は、計時部106から時間を取得して、第1操作が終了してから第2操作が開始されるまでの時間Tを算出する。そして、開始位置推測部110は、時間T、及びベクトル算出部109が算出した入力ベクトル(X(n)−X(0),Y(n)−Y(0))を用いて、開始推測位置の座標データ(Rx,Ry)を以下の式(1)により算出する。
Figure 0005158023
式(1)において、αは距離dを考慮した経験値又は実験値である。t(n)−t(0)は、第1操作が行われた時間である。従って、第2操作での開始推測位置は、第1操作における操作速度と、操作方向とから算出される。
開始位置推測部110は、タッチパネル23,24には共通の座標平面を設定している。このため、開始位置推測部110が算出した座標データ(Rx,Ry)は、タッチパネル23上であるが、タッチパネル24の左上端部を原点とした平面座標の座標データとなっている。タッチパネル23,24は、X軸方向に距離d及び距離Xmaxだけずれがある。従って、開始位置推測部110は、算出した座標データ(Rx,Ry)を、以下の式(2)によりタッチパネル23の左上端部を基準とした平面座標の座標データ(Sx,Sy)に変換する。
Figure 0005158023
連続性判定部111は、第2操作の開始位置の座標データを取得し、取得した座標データと、開始位置推測部110が算出した座標データ(Sx,Sy)とを対比する。第2操作の開始位置は、図5では位置Cとなる。そして、連続性判定部111は、対比結果から第1及び第2操作の連続性を判定する。例えば、連続性判定部111は、位置Cの座標データが座標データ(Sx,Sy)を中心とした所定領域内にあれば、2つの座標データは略一致とする。連続性判定部111は、座標データ(Sx,Sy)と、位置Cの座標データとの距離が所定値内の場合に、2つの座標データは略一致としてもよい。一致とした場合、連続性判定部111は、第2操作は第1操作から連続した一連の操作であると判定する。制御部112は、連続性判定部111の判定結果に応じて各処理を実行する。
次に、上述の各ハードウェア部及び機能を備える電子機器の動作について説明する。図6は、電子機器で実行される処理を示すフローチャートである。以下の処理は、電子機器のROM11に格納してある制御プログラムに従ってCPU10によって実行される。
CPU10は、まずRAM12等に記憶されている内容の初期化、例えば上述したnの値を初期値0にする等の初期化を行う(S101)。次に、CPU10は、タッチパネル23,24への押圧を検出したか否かを判定する(S102)。押圧を検出しない場合(S102:NO)、CPU10は、押圧を検出するまでS102を繰り返す。押圧を検出した場合(S102:YES)、CPU10は、タッチ操作が開始されと判定し、最初のタッチ操作であるか否かを判定する(S103)。最初のタッチ操作とは、例えば電子機器が電源をオンされてから最初のタッチ操作を言う。また、タッチ操作終了後、所定時間経過(例えば、1分経過後)すれば操作内容はリセットされるとした場合、前回タッチ操作が終了してから一定時間経過後のタッチ操作であってもよい。
最初のタッチ操作である場合(S103:YES)、CPU10は、第1操作の開始と判定し、処理を後述のS106に移す。最初のタッチ操作でない場合(S103:NO)、CPU10は、第2操作の開始と判定し、第2操作が行われた操作画面(具体的には、タッチパネル)を判定する(S104)。そして、CPU10は、第2操作が行われた操作画面が、第1操作が行われた操作画面と一致するか否かを判定する(S105)。例えば、CPU10は、第1操作が行われたタッチパネル23,24のIdentification(ID)等を取得し、RAM12等に格納する。そして、CPU10は、第2操作が開始されたとき、第2操作が開始されたタッチパネル23,24のIDを取得する。取得したIDと、格納してあるIDとを対比し、一致している場合には、CPU10は、第1及び第2操作の操作画面は一致すると判定する。
操作画面が一致すると判定した場合(S105:YES)、即ち、続けて同じタッチパネルでタッチ操作された場合、CPU10は、第2操作は第1操作と連続する操作ではないと判定し、処理をS106に移す。S106では、CPU10は、押圧位置の座標データ(X(n),Y(n))を取得し、RAM12等に格納する。また、CPU10は、現在時刻t(n)を取得し、RAM12等に格納する(S107)。nは初期値が0であり、S106及びS107が最初に実行される場合、CPU10が取得する座標データ及び現在時刻は、(X(0),Y(0))及びt(0)となる。次にCPU10は、タッチパネル23,24への押圧が非検出となり、タッチ操作が終了したか否かを判定する(S108)。
タッチ操作が終了していないと判定した場合(S108:NO)、即ち、押圧の検知が続いている場合には、CPU10は、S107で取得した時刻t(n)から一定時間経過したか否かを判定する(S109)。S107で取得した時刻t(n)は、S106で押圧位置の座標データ(X(n),Y(n))を取得した時間である。即ち、S109では、CPU10は、前回の押圧位置の検出から一定時間経過したか否かを判定する。一定時間経過していない場合(S109:NO)、CPU10は、一定時間経過するまで待機する。一定時間経過した場合(S109:YES)、CPU10は、nの値に1加算し(S110)、S106に処理を戻す。これにより、CPU10は、タッチ操作が続いている場合、一定時間毎に押圧位置を検出する。
S108において、タッチ操作が終了したと判定した場合(S108:YES)、CPU10は、タッチ操作が終了した時刻(以下、入力終了時刻と言う)を取得する(S111)。続いてCPU10は、入力ベクトル(X(n)−X(0),Y(n)−Y(0))を算出し(S112)、S102以降の処理を実行する。
一方S105において、第1及び第2操作が行われた操作画面が一致しないと判定した場合(S105:NO)、CPU10は、第1及び第2操作の連続性を判定する処理を開始する。まずCPU10は、第2操作が開始された時刻(以下、入力開始時刻と言う)を取得する(S113)。CPU10は、開始推測位置の座標データ(Sx,Sy)を算出する(S114)。上述のように、CPU10は、取得した入力終了時刻及び入力開始時刻とから、第1操作が終了してから第2操作が開始されるまでの時間Tを算出する。また、CPU10は、第1操作が行われた時間t(n)−t(0)を算出する。そして、CPU10は、時間T、時間t(n)−t(0)及び入力ベクトル(X(n)−X(0),Y(n)−Y(0))を式(1)に用いて開始推測位置の座標データ(Rx,Ry)を算出する。さらに、CPU10は、式(2)により座標データ(Sx,Sy)に変換する。
開始推測位置の座標データ(Sx,Sy)の算出後,CPU10は、第2操作の入力開始位置の座標データを取得し(S115)、第1及び第2操作の連続性を判定する(S116)。例えばCPU10は、第2操作の入力開始位置が座標データ(Sx,Sy)を中心とした所定領域内にある場合等に連続性があると判定する。CPU10は、連続性判定の結果、第1及び第2操作が連続しているかいないか否かを判定する(S117)。
第1及び第2操作が連続している場合(S117:YES)、CPU10は、第1及び第2操作が連続した操作として、第1及び第2操作に基づく処理を実行する(S118)。例えば図2で説明したように、タッチパネル23,24それぞれから「CDEFG」と「HIJKL」の文字が選択された場合、「CDEFGHIJKL」の一連の文字が選択されたと判定する。第1及び第2操作が連続していない場合(S117:NO)、第2操作のみに基づく処理を実行する(S119)。例えば図2でタッチパネル23,24それぞれから「CDEFG」と「HIJKL」の文字が選択された場合、「HIJKL」の文字のみが選択されたと判定する。以上によりCPU10は、本処理を終了する。
以上説明したように、本実施形態1に係る電子機器は、第2操作の開始位置を第1操作の速度及び方向から推測するため、使用者に応じた開始位置を適宜推測できる。そして、使用者毎に操作速度が異なる場合又は不安定な姿勢で操作を行う場合でも、使用者は、第2操作を自身が行う操作の意図に沿った操作として扱われるようにすることができる。
(実施形態2)
以下に、実施形態2に係る電子機器について説明する。本実施形態2では、入力ベクトルの算出方法が実施形態1と相違する。以下、実施形態1との相違点について説明する。なお、本実施形態2の電子機器は、上述した実施形態1と同様の構成によって実現することができるので、同様の構成については同一の符号を付して説明を省略する。
CPU10は、第1操作の終了後、第1操作に係る入力ベクトルを算出する。このとき、CPU10は、第1操作の入力終了位置、及び入力終了位置に近い位置に基づいて入力ベクトルを算出する。入力終了位置に近い位置とは、例えば入力終了位置から所定距離内にある位置、又は、入力終了時刻から所定時間前に検出された押圧位置等である。CPU10は、入力終了位置に近い位置を用いて入力ベクトルを算出するため、第1操作の軌跡によって異なる入力ベクトルを算出する。
図7は、本実施形態2に係る入力ベクトルを示す図である。図7では、入力開始位置Aから入力終了位置Bまでスライド操作P1,P2を行った場合について説明する。図中の点線は、スライド操作P1,P2を行った際のそれぞれの軌跡を示す。なお、図7では、対比のために実施形態1に係る入力ベクトルγを図示している。
CPU10は、実施形態1と同様に、一定時間毎に押圧位置の座標データを取得し、RAM12等に格納する。CPU10は、格納した座標データから、入力終了位置B及び入力終了位置Bに近い位置の座標データを取得し、2つの座標データに基づいて入力ベクトルを算出する。スライド操作P1,P2における入力終了位置Bに近い位置をそれぞれ位置C1,C2とする。位置C1,C2は、同じ条件の位置、例えば何れも入力終了時刻の所定時間前の位置であっても、スライド操作P1,P2の軌跡が異なるため、座標データがそれぞれ相違する。このため、位置B及び位置C1に基づいて算出される入力ベクトルαと、位置B及び位置C2に基づいて算出される入力ベクトルβとは相違する。即ち、実施形態2では、スライド操作の軌跡に関係なく同じ入力ベクトルγを算出する実施形態1との対比において、第1操作の終了間際における操作速度又は方向を反映させた入力ベクトルが算出される。
CPU10は、入力ベクトルの算出後、第1操作が行われた操作時間を計測し、開始推測位置の座標データを算出する。算出される入力ベクトルは、上述のようにスライド操作によって異なるため、CPU10はスライド操作によって異なる開始推測位置を算出する。このように、CPU10は、使用者によって異なるスライド操作の方向又は速度などを反映させた開始推測位置を推測することができる。開始推測位置を推測した後、実施形態1と同様に、CPU10は、第2操作の開始位置を取得して、算出した開始推測位置の座標データとに基づいて、第1及び第2操作が連続するか否かを判定する。
以上のように本実施形態2では、スライド操作の軌跡に関係なく、同じ入力ベクトルγが算出される実施形態1との対比において、操作の軌跡に応じたより精度の高い開始推測位置を算出することができる。
(実施形態3)
以下に、実施形態3に係る電子機器について説明する。本実施形態3では、第2操作が開始される前に第2操作の開始位置を推測し、推測した位置を表示して使用者に報知する。以下、実施形態1、2との相違点について説明する。なお、本実施形態3の電子機器は、上述した実施形態1、2と同様の構成によって実現することができるので、同様の構成については同一の符号を付して説明を省略する。
図8は、本実施形態3に係る電子機器を操作している状況を模式的に示す図である。図8では、タッチパネル24で第1操作を行った後、タッチパネル23で第2操作を開始する直前の状態を示している。実施形態1では、第1操作が終了し、第2操作が開始されたときに、開始推測位置が算出されるが、実施形態3では、第1操作が終了し、第2操作が開始されるまでに開始推測位置が算出される。そして、図8に示すように、算出された開始推測位置に基づいて、円形状のガイド領域26が表示される。電子機器は、表示したガイド領域26が押圧されることで、第1及び第2操作が連続していると判定する。このように、ガイド領域26を表示することで、使用者は、第1及び第2操作を連続させたい場合に、どの位置から第2操作を開始すればよいかを把握することができる。なお、ガイド領域26は、矩形状又は他の形状であってもよい。
開始推測位置は、第1操作が終了してから第2操作が開始されるまでの時間(以下、中断時間と言う)に応じて変化する。例えば、第1操作における入力終了位置と、第2操作における入力開始位置との距離が長くなるに従い、中断時間が長くなる。このため、本実施形態3に係る電子機器は、第2操作が開始されるまで、一定時間毎に開始推測位置を算出する。開始推測位置に対応するガイド領域26は、図8の点線で示すように、時間の経過と共に移動する。このように、ガイド領域26を時間の経過と共に移動させることで、操作速度が遅い使用者、又は操作に不慣れな使用者であっても、どの位置からタッチ操作を始めれば連続性と判定されるかをより確実に把握することができる。
図9は、本実施形態3に係る電子機器が有する機能を示すブロック図である。
実施形態3に係る電子機器は、実施形態1で説明した機能に加え、ガイド算出部113等の機能をさらに有する。開始位置推測部110は、ベクトル算出部109が入力ベクトルを算出後、計時部(第2計時手段)106から時刻を取得し、第1操作終了からの経過時間を計測する。そして、開始位置推測部110は、開始判定部107が第2操作の開始を判定するまで、一定時間毎に開始推測位置の座標データ(Sx,Sy)を算出する。座標データ(Sx,Sy)の算出方法は、実施形態1,2と同様である。ガイド算出部113は、開始位置推測部110が算出した開始推測位置を中心としたガイド領域を算出する。表示部101は、ガイド算出部113が算出したガイド領域を、第2操作が行われる側の表示画面21a,22aに表示させる。
次に、実施形態3に係る電子機器の動作について説明する。図10及び図11は、電子機器で実行される処理を示すフローチャートである。以下の処理は、電子機器のROM11に格納してある制御プログラムに従ってCPU10によって実行される。
CPU10は、まずRAM12等に記憶されている内容の初期化を行う(S201)。次に、CPU10は、タッチパネル23,24への押圧を検出したか否かを判定する(S202)。押圧を検出しない場合(S202:NO)、CPU10は、押圧を検出するまでS202を繰り返す。押圧を検出した場合(S202:YES)CPU10は、タッチ操作が開始されたと判定し、最初のタッチ操作であるか否かを判定する(S203)。
最初のタッチ操作である場合(S203:YES)、CPU10は、第1操作の開始と判定し、処理を後述のS211に移す。最初のタッチ操作でない場合(S203:NO)、CPU10は、第2操作の開始と判定し、第2操作が行われた画面を判定する(S204)。CPU10は、第2操作が開始されたタッチパネル23,24が、第1操作が行われたタッチパネル23,24と一致するか否かを判定する(S205)。操作画面が一致すると判定した場合(S205:YES)、CPU10は、第2操作は第1操作と連続する操作ではないと判定し、処理をS211に移す。
操作画面が一致しないと判定した場合(S205:NO)、CPU10は、第2操作は第1操作と連続する操作の可能性があると判定し、表示画面21a,22aにガイド領域26が表示されているか否かを判定する(S206)。例えば、左側のタッチパネル24で第1操作が行われていた場合は、ガイド領域26は右側の表示画面21aに表示される。ガイド領域26が表示されていない場合(S206:NO)、第2操作は第1操作と連続する操作ではないと判定し、処理をS211に移す。
S211において、CPU10は、押圧位置の座標データ(X(n),Y(n))を取得し、RAM12等に格納する。また、CPU10は、現在時刻t(n)を取得し、RAM12等に格納する(S212)。次にCPU10は、タッチパネル23,24への押圧が非検出となり、タッチ操作が終了したか否かを判定する(S213)。タッチ操作が終了していないと判定した場合(S213:NO)、即ち、押圧の検知が続いている場合には、CPU10は、S212で取得した時刻t(n)から一定時間経過したか否かを判定する(S214)。一定時間経過していない場合(S214:NO)、CPU10は、一定時間経過するまで待機する。一定時間経過した場合(S214:YES)、CPU10は、nの値に1加算し(S215)、S211に処理を戻す。これにより、CPU10は、タッチ操作が続いている場合、一定時間毎に押圧位置を検出する。
S213において、タッチ操作が終了したと判定した場合(S213:YES)、CPU10は、入力終了時刻を取得する(S216)。続いてCPU10は、入力ベクトル(X(n)−X(0),Y(n)−Y(0))を算出する(S217)。このとき、入力ベクトルは、実施形態2で説明した入力終了位置に近い位置から算出するようにしてもよい。次にCPU10は、現在時刻を取得し、入力終了時刻からの経過時間を算出する(S218)。そして、CPU10は、式(1)を用いて開始推測位置の座標データ(Sx,Sy)を算出する(S219)。なお式(1)における時間Tは、S218で算出した経過時間である。
CPU10は、算出した開始推測位置に基づくガイド領域を表示画面21a,22aに表示する(S220)。例えば、左側のタッチパネル24で第1操作が行われていた場合、CPU10は、ガイド領域26を右側の表示画面21aに表示する。
CPU10は、押圧を検出したか否かを判定する(S221)。押圧を検出していない場合(S221:NO)、CPU10は、タッチ操作は開始されていないと判定し、S219で開始推測位置を算出してから一定時間経過したか否かを判定する(S222)。一定時間経過していない場合(S222:NO)、CPU10は、処理をS221に戻し、押圧を検出したか否かを判定する。一定時間経過した場合(S222:YES)、CPU10は、処理をS219に戻し、開始推測位置を再び算出する。このときの式(1)における時間Tは、S216で取得した入力終了時刻からの経過時間である。このように、一定時間毎に開始推測位置を算出し、算出した開始推測位置に基づくガイド領域26が表示画面21a,22aに表示される。
S221において、押圧を検出した場合(S221:YES)、即ちタッチ操作が開始された場合、CPU10は、タッチ操作が開始された操作画面を判定する(S223)。CPU10は、操作画面に対応する表示画面21a,22aにガイド領域26が表示されているか否かを判定する(S224)。例えば、タッチパネル23でタッチ操作が開始された場合、タッチパネル23が設けられている表示画面21aにガイド領域26を表示されているか否かを判定する。
ガイド領域26が表示されていない場合(S224:NO)、CPU10は、S221で開始されたタッチ操作は、S213で終了したタッチ操作と連続でないと判定し、S220で表示したガイド領域26を非表示にする(S225)。その後、CPU10は、処理をS202に戻す。ガイド領域26が表示されている場合(S224:YES)、CPU10は、処理をS207に移す。また、S206においてガイド領域26が表示されている場合も(S206:YES)、CPU10は、S207の処理を実行する。
S207では、CPU10は、第2操作の入力開始位置の座標データを取得する。CPU10は、第2操作の入力開始位置が座標データ(Sx,Sy)に基づいて、表示画面21a,22aに表示されたガイド領域26が押圧されたか否かを判定する(S208)。ガイド領域26が押圧された場合(S208:YES)、第1及び第2操作が連続した操作として、第1及び第2操作に基づく処理を実行する(S209)。ガイド領域26が押圧されていない場合(S208:NO)、CPU10は、第1及び第2操作は連続していないと判定し、第2操作のみに基づく処理を実行する(S210)。以上によりCPU10は、本処理を終了する。
以上説明したように、本実施形態3に係る電子機器は、第2操作の開始位置であるガイド領域26を表示することで、使用者にどの位置からタッチ操作を始めればよいかを把握させることができる。その結果、使用者は、操作に不慣れであっても、自身が意図した通りのタッチ操作を行うことができる。
以上、本発明の好適な一実施の形態について、具体的に説明したが、各構成及び動作等は適宜変更可能であって、上述の実施形態に限定されることはない。例えば、上述の実施形態では、本願に開示する入力装置は、2つの表示画面21a,22aに跨って表示された文章から文字列を選択する際のタッチ操作の連続性を判定しているが、これ以外の操作の連続性を判定してもよい。例えば、本願に開示する入力装置は、選択したオブジェクトを2つの表示画面21a,22aに跨って移動させる際のタッチ操作の連続性を判定するようにしてもよい。
また、本願に開示する入力装置は、2つ以上の表示画面及びタッチパネルを備えていてもよい。開始推測位置の推測時に用いた式などの推測方法は、上述の実施形態に限定されることはなく、適宜変更可能である。
以上の実施形態を含む実施形態に関し、更に以下の付記を開示する。
(付記1)
画像を表示する表示面を有する複数の表示部と、
前記表示面それぞれを覆うように設けられ、前記表示面に対する接触操作を受け付ける光透過性パネルと、
該透過性パネルが接触操作を受け付けた受付位置を随時検出する位置検出手段と、
前記透過性パネルが接触操作を受け付け、異なる時点で前記位置検出手段が異なる受付位置を検出した場合、前記位置検出手段の検出速度、及び前記受付位置が変化した方向を算出する速度算出手段及び方向算出手段と、
一の光透過性パネルでの接触操作が終了した場合、前記速度算出手段及び方向算出手段が前記一の光透過性パネルで算出した速度及び方向に基づいて、他の光透過性パネルでの接触操作の開始位置を推定する推定手段と、
前記他の光透過性パネルが接触操作を受け付けた場合、前記位置検出手段が検出した受付位置、及び前記推定手段が推定した開始位置に基づいて、前記一及び他の光透過性パネルでの接触操作を関連付ける関連付け手段と
を備える入力装置。
(付記2)
前記関連付け手段は、
一及び他の光透過性パネルそれぞれが受け付けた接触操作を連続的な操作として受け付けるようにしてある
付記1に記載の入力装置。
(付記3)
一の光透過性パネルでの接触操作が終了してから他の光透過性パネルが接触操作を受け付けるまでの時間を計測する第1計時手段
をさらに備え、
前記推定手段は、
前記他の光透過性パネルが接触操作を受け付けた場合、前記第1計時手段が計測した時間と、前記速度算出手段及び方向算出手段の算出結果とに基づいて、接触操作の開始位置を推定し、
前記関連付け手段は、
前記他の光透過性パネルが接触操作を受け付けたときに、前記位置検出手段が検出した受付位置が、前記推定手段が推定した開始位置から所定範囲内にある場合に、前記一及び他の光透過性パネルでの接触操作を関連付けるようにしてある
付記1又は2に記載の入力装置。
(付記4)
前記速度算出手段及び方向算出手段は、
一の光透過性パネルでの接触操作の開始時及び終了時に前記位置検出手段が検出した位置に基づいて、速度及び方向を算出するようにしてある
付記1から3の何れか一つに記載の入力装置。
(付記5)
前記速度算出手段及び方向算出手段は、
一の光透過性パネルでの接触操作の開始から終了までに前記位置検出手段が検出した位置と、終了時に前記位置検出手段が検出した終了位置とに基づいて、速度及び方向を算出するようにしてある
付記1から3の何れか一つに記載の入力装置。
(付記6)
前記位置検出手段が検出した受付位置を逐次記憶する記憶手段
をさらに備え、
前記速度算出手段及び方向算出手段は、
前記終了位置と、該終了位置の検出時から所定時間前に検出され、記憶された受付位置とに基づいて速度及び方向を算出するようにしてある
付記5に記載の入力装置。
(付記7)
前記位置検出手段が検出した受付位置を逐次記憶する記憶手段
をさらに備え、
前記速度算出手段及び方向算出手段は、
前記終了位置と、該終了位置から所定距離範囲内で検出され、記憶された受付位置とに基づいて速度及び方向を算出するようにしてある
付記5に記載の入力装置。
(付記8)
一の光透過性パネルでの接触操作が終了してからの経過時間を計測する第2計時手段
をさらに備え、
前記推定手段は、
一の光透過性パネルでの接触操作が終了した場合、前記第2計時手段が計測した時間、及び前記速度算出手段及び方向算出手段の検出結果に基づいて、接触操作の開始位置を推定するようにしてあり、
前記推定手段が推定した開始位置に対応する前記表示面の位置に、所定の画像を表示させる表示制御手段
をさらに備える付記1に記載の入力装置。
(付記9)
前記表示制御手段は、
前記推定手段が推定した受付開始位置を中心とした矩形状又は円状の画像を表示させるようにしてある
付記8に記載の入力装置。
(付記10)
画像を表示する複数の表示面それぞれを覆うように設けられ、前記表示面に対する接触操作を受け付ける光透過性パネルを備える入力装置で行う入力方法において、
前記透過性パネルが接触操作を受け付けた受付位置を随時検出し、
一の透過性パネルが接触操作を受け付け、異なる時点で前記位置検出手段が異なる受付位置を検出した場合、前記位置検出手段の検出速度、及び前記受付位置が変化した方向を算出し、
前記一の光透過性パネルでの接触操作が終了した場合、前記速度算出手段及び方向算出手段が前記一の光透過性パネルにおいて算出した速度及び方向に基づいて、他の光透過性パネルでの接触操作の開始位置を推定し、
前記他の光透過性パネルが接触操作を受け付けた場合、検出した前記受付位置、及び推定した前記開始位置に基づいて、前記一及び他の光透過性パネルでの接触操作を関連付ける入力方法。
(付記11)
画像を表示する複数の表示面それぞれを覆うように設けられ、パネル前記表示面に対する接触操作を受け付ける光透過性パネルを備えるコンピュータを、
前記透過性パネルが接触操作を受け付けた受付位置を随時検出する位置検出手段、
一の透過性パネルが接触操作を受け付け、異なる時点で前記位置検出手段が異なる受付位置を検出した場合、前記位置検出手段の検出速度、及び前記受付位置が変化した方向を算出する速度算出手段及び方向算出手段、
一の光透過性パネルでの接触操作が終了した場合、前記速度算出手段及び方向算出手段が前記一の光透過性パネルにおいて算出した速度及び方向に基づいて、他の光透過性パネルでの接触操作の開始位置を推定する推定手段、及び、
前記他の光透過性パネルが接触操作を受け付けた場合、前記位置検出手段が検出した受付位置、及び前記推定手段が推定した開始位置に基づいて、前記一及び他の光透過性パネルでの接触操作を関連付ける関連付け手段
として機能させるコンピュータプログラム。
21,22 LCD(表示部)
21a,22a 表示画面
23,24 タッチパネル(光透過性パネル)
104 位置取得部(位置検出手段)
109 ベクトル算出部(速度算出手段及び方向算出手段)
110 開始位置推測部(推定手段)
111 連続性判定部(関連付け手段)

Claims (6)

  1. 画像を表示する表示面を有する複数の表示部と、
    前記表示面それぞれを覆うように設けられ、前記表示面に対する接触操作を受け付ける光透過性パネルと、
    該透過性パネルが接触操作を受け付けた受付位置を随時検出する位置検出手段と、
    前記透過性パネルが接触操作を受け付け、異なる時点で前記位置検出手段が異なる受付位置を検出した場合、前記位置検出手段の検出速度、及び前記受付位置が変化した方向を算出する速度算出手段及び方向算出手段と、
    一の光透過性パネルでの接触操作が終了した場合、前記速度算出手段及び方向算出手段が前記一の光透過性パネルで算出した速度及び方向に基づいて、他の光透過性パネルでの接触操作の開始位置を推定する推定手段と、
    前記他の光透過性パネルが接触操作を受け付けた場合、前記位置検出手段が検出した受付位置、及び前記推定手段が推定した開始位置に基づいて、前記一及び他の光透過性パネルでの接触操作を関連付ける関連付け手段と
    を備える入力装置。
  2. 一の光透過性パネルでの接触操作が終了してから他の光透過性パネルが接触操作を受け付けるまでの時間を計測する第1計時手段
    をさらに備え、
    前記推定手段は、
    前記他の光透過性パネルが接触操作を受け付けた場合、前記第1計時手段が計測した時間と、前記速度算出手段及び方向算出手段の算出結果とに基づいて、接触操作の開始位置を推定し、
    前記関連付け手段は、
    前記他の光透過性パネルが接触操作を受け付けたときに、前記位置検出手段が検出した受付位置が、前記推定手段が推定した開始位置から所定範囲内にある場合に、前記一及び他の光透過性パネルでの接触操作を関連付けるようにしてある
    請求項1に記載の入力装置。
  3. 前記速度算出手段及び方向算出手段は、
    一の光透過性パネルでの接触操作の開始時及び終了時に前記位置検出手段が検出した位置に基づいて、速度及び方向を算出するようにしてある
    請求項1又は2に記載の入力装置。
  4. 一の光透過性パネルでの接触操作が終了してからの経過時間を計測する第2計時手段
    をさらに備え、
    前記推定手段は、
    一の光透過性パネルでの接触操作が終了した場合、前記第2計時手段が計測した時間、及び前記速度算出手段及び方向算出手段の検出結果に基づいて、接触操作の開始位置を推定するようにしてあり、
    前記推定手段が推定した開始位置に対応する前記表示面の位置に、所定の画像を表示させる表示制御手段
    をさらに備える請求項1から3の何れか一つに記載の入力装置。
  5. 画像を表示する複数の表示面それぞれを覆うように設けられ、前記表示面に対する接触操作を受け付ける光透過性パネルを備える入力装置で行う入力方法において、
    前記透過性パネルが接触操作を受け付けた受付位置を随時検出し、
    一の透過性パネルが接触操作を受け付け、異なる時点で前記位置検出手段が異なる受付位置を検出した場合、前記位置検出手段の検出速度、及び前記受付位置が変化した方向を算出し、
    前記一の光透過性パネルでの接触操作が終了した場合、前記速度算出手段及び方向算出手段が前記一の光透過性パネルにおいて算出した速度及び方向に基づいて、他の光透過性パネルでの接触操作の開始位置を推定し、
    前記他の光透過性パネルが接触操作を受け付けた場合、検出した前記受付位置、及び推定した前記開始位置に基づいて、前記一及び他の光透過性パネルでの接触操作を関連付ける入力方法。
  6. 画像を表示する複数の表示面それぞれを覆うように設けられ、パネル前記表示面に対する接触操作を受け付ける光透過性パネルを備えるコンピュータを、
    前記透過性パネルが接触操作を受け付けた受付位置を随時検出する位置検出手段、
    一の透過性パネルが接触操作を受け付け、異なる時点で前記位置検出手段が異なる受付位置を検出した場合、前記位置検出手段の検出速度、及び前記受付位置が変化した方向を算出する速度算出手段及び方向算出手段、
    一の光透過性パネルでの接触操作が終了した場合、前記速度算出手段及び方向算出手段が前記一の光透過性パネルにおいて算出した速度及び方向に基づいて、他の光透過性パネルでの接触操作の開始位置を推定する推定手段、及び、
    前記他の光透過性パネルが接触操作を受け付けた場合、前記位置検出手段が検出した受付位置、及び前記推定手段が推定した開始位置に基づいて、前記一及び他の光透過性パネルでの接触操作を関連付ける関連付け手段
    として機能させるコンピュータプログラム。
JP2009138532A 2009-06-09 2009-06-09 入力装置、入力方法及びコンピュータプログラム Expired - Fee Related JP5158023B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2009138532A JP5158023B2 (ja) 2009-06-09 2009-06-09 入力装置、入力方法及びコンピュータプログラム
US12/793,921 US8803818B2 (en) 2009-06-09 2010-06-04 Input apparatus, input determining method, and storage medium storing input program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009138532A JP5158023B2 (ja) 2009-06-09 2009-06-09 入力装置、入力方法及びコンピュータプログラム

Publications (2)

Publication Number Publication Date
JP2010286911A JP2010286911A (ja) 2010-12-24
JP5158023B2 true JP5158023B2 (ja) 2013-03-06

Family

ID=43300412

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009138532A Expired - Fee Related JP5158023B2 (ja) 2009-06-09 2009-06-09 入力装置、入力方法及びコンピュータプログラム

Country Status (2)

Country Link
US (1) US8803818B2 (ja)
JP (1) JP5158023B2 (ja)

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5572397B2 (ja) * 2010-01-06 2014-08-13 京セラ株式会社 入力装置、入力方法および入力プログラム
EP2653958A4 (en) * 2010-12-17 2017-06-07 NEC Corporation Mobile terminal device, display control method and program
KR101842906B1 (ko) 2011-02-10 2018-05-15 삼성전자주식회사 복수의 터치스크린을 가지는 장치 및 복수의 터치스크린을 가지는 장치의 화면 변경방법
KR101964843B1 (ko) * 2011-02-10 2019-04-03 삼성전자주식회사 복수의 터치스크린을 가지는 장치 및 복수의 터치스크린을 가지는 장치의 화면 변경방법
KR101802522B1 (ko) 2011-02-10 2017-11-29 삼성전자주식회사 복수의 터치스크린을 가지는 장치 및 복수의 터치스크린을 가지는 장치의 화면변경방법
KR20120091975A (ko) 2011-02-10 2012-08-20 삼성전자주식회사 적어도 두 개의 터치 스크린을 포함하는 정보 표시 장치 및 그의 정보 표시 방법
KR101889838B1 (ko) 2011-02-10 2018-08-20 삼성전자주식회사 터치 스크린 디스플레이를 구비한 휴대 기기 및 그 제어 방법
TW201239675A (en) * 2011-03-18 2012-10-01 Acer Inc Handheld devices, and related data transmission methods
JP5372091B2 (ja) * 2011-09-15 2013-12-18 株式会社ワコム 電子機器および電子機器の表示画面制御方法
TWI525489B (zh) * 2011-10-04 2016-03-11 緯創資通股份有限公司 觸控裝置、觸控系統及觸控方法
EP2769291B1 (en) 2011-10-18 2021-04-28 Carnegie Mellon University Method and apparatus for classifying touch events on a touch sensitive surface
US9514669B2 (en) * 2012-03-26 2016-12-06 Beijing Lenovo Software Ltd. Display method and electronic device
CN103376924B (zh) * 2012-04-13 2016-04-27 宏碁股份有限公司 电子装置及其操作方法
JP6079183B2 (ja) * 2012-12-05 2017-02-15 富士通株式会社 情報処理装置、通信端末、アプリケーション提供方法、アプリケーション実行方法、アプリケーション提供プログラム、及びアプリケーション実行プログラム
KR20140114766A (ko) 2013-03-19 2014-09-29 퀵소 코 터치 입력을 감지하기 위한 방법 및 장치
US9612689B2 (en) 2015-02-02 2017-04-04 Qeexo, Co. Method and apparatus for classifying a touch event on a touchscreen as related to one of multiple function generating interaction layers and activating a function in the selected interaction layer
US9013452B2 (en) 2013-03-25 2015-04-21 Qeexo, Co. Method and system for activating different interactive functions using different types of finger contacts
CN105224114A (zh) * 2014-06-11 2016-01-06 天津富纳源创科技有限公司 触控板控制方法
US9329715B2 (en) 2014-09-11 2016-05-03 Qeexo, Co. Method and apparatus for differentiating touch screen users based on touch event analysis
US11619983B2 (en) 2014-09-15 2023-04-04 Qeexo, Co. Method and apparatus for resolving touch screen ambiguities
US10606417B2 (en) 2014-09-24 2020-03-31 Qeexo, Co. Method for improving accuracy of touch screen event analysis by use of spatiotemporal touch patterns
US10282024B2 (en) 2014-09-25 2019-05-07 Qeexo, Co. Classifying contacts or associations with a touch sensitive device
US10095402B2 (en) * 2014-10-01 2018-10-09 Qeexo, Co. Method and apparatus for addressing touch discontinuities
US20180173373A1 (en) 2015-06-12 2018-06-21 Nureva Inc. Method and apparatus for using gestures across multiple devices
US10642404B2 (en) 2015-08-24 2020-05-05 Qeexo, Co. Touch sensitive device with multi-sensor stream synchronized data
JP6598753B2 (ja) 2016-10-07 2019-10-30 任天堂株式会社 ゲームシステム
KR102044824B1 (ko) * 2017-06-20 2019-11-15 주식회사 하이딥 터치 감지 및 터치압력 감지가 가능한 장치 및 제어방법
JP6973025B2 (ja) * 2017-12-20 2021-11-24 コニカミノルタ株式会社 表示装置、画像処理装置及びプログラム
US11009989B2 (en) 2018-08-21 2021-05-18 Qeexo, Co. Recognizing and rejecting unintentional touch events associated with a touch sensitive device
US10942603B2 (en) 2019-05-06 2021-03-09 Qeexo, Co. Managing activity states of an application processor in relation to touch or hover interactions with a touch sensitive device
US11231815B2 (en) 2019-06-28 2022-01-25 Qeexo, Co. Detecting object proximity using touch sensitive surface sensing and ultrasonic sensing
WO2021125388A1 (ko) * 2019-12-18 2021-06-24 엘지전자 주식회사 이동 단말기, 이동 단말기를 구비한 전자 장치, 그리고 전자 장치의 제어 방법
US11592423B2 (en) 2020-01-29 2023-02-28 Qeexo, Co. Adaptive ultrasonic sensing techniques and systems to mitigate interference
JP7038153B2 (ja) 2020-02-13 2022-03-17 任天堂株式会社 情報処理システム、情報処理装置、情報処理プログラム、および情報処理方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0644001A (ja) 1992-07-27 1994-02-18 Toshiba Corp 表示制御装置及び表示制御方法
JP3304290B2 (ja) 1997-06-26 2002-07-22 シャープ株式会社 ペン入力装置及びペン入力方法及びペン入力制御プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2000242393A (ja) * 1999-02-23 2000-09-08 Canon Inc 情報処理装置及びその制御方法
JP2004280319A (ja) * 2003-03-14 2004-10-07 Canon Electronics Inc 座標入力装置
JP2004288048A (ja) 2003-03-24 2004-10-14 Ntt Data Corp ポインティングシステム
US7532196B2 (en) * 2003-10-30 2009-05-12 Microsoft Corporation Distributed sensing techniques for mobile devices

Also Published As

Publication number Publication date
US20100309158A1 (en) 2010-12-09
US8803818B2 (en) 2014-08-12
JP2010286911A (ja) 2010-12-24

Similar Documents

Publication Publication Date Title
JP5158023B2 (ja) 入力装置、入力方法及びコンピュータプログラム
US9916046B2 (en) Controlling movement of displayed objects based on user operation
TWI358028B (en) Electronic device capable of transferring object b
US9891753B2 (en) Input device, input assistance method and program
JP4880304B2 (ja) 情報処理装置および表示方法
US8952870B2 (en) Input device and input method
JP5904440B2 (ja) 操作入力装置、操作入力方法およびプログラム
EP2431853A2 (en) Character input device
CN106164824B (zh) 用于车辆的操作装置
JP2006520024A (ja) 接触エリアの移動させられた表現を用いたユーザインタフェース
TW201145146A (en) Handling tactile inputs
CN102694915A (zh) 用于具有触摸屏幕的手机的显示控制方法及系统
GB2339505A (en) Portable telephone device of small size
JP2011227854A (ja) 情報表示装置
CN111142674A (zh) 一种控制方法及电子设备
JP6204311B2 (ja) 表示装置、画像形成装置、及び表示制御方法
JP2013232062A (ja) タッチパネル誤操作防止入出力装置
JP2009009252A (ja) タッチ式入力装置
US20230051261A1 (en) Electronic device for displaying contents, and control method therefor
TWI480792B (zh) 電子裝置的操作方法
JP2016015181A (ja) 押圧の度合いによって異なる機能を発動可能なユーザインタフェース装置、プログラム及び機能発動方法
TW201133301A (en) Operation method of electronic device
JP6000035B2 (ja) 情報処理装置、情報処理装置の制御方法、制御プログラム、および記録媒体
KR20130004636A (ko) 터치스크린 장치
JP5833511B2 (ja) マルチタッチ状態下で押圧位置を判別可能なユーザインタフェース装置、プログラム及び機能発動方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120214

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121010

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121113

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121126

R150 Certificate of patent or registration of utility model

Ref document number: 5158023

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151221

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees