JP7472950B2 - タッチパネル型情報端末装置およびその情報入力処理方法 - Google Patents

タッチパネル型情報端末装置およびその情報入力処理方法 Download PDF

Info

Publication number
JP7472950B2
JP7472950B2 JP2022163503A JP2022163503A JP7472950B2 JP 7472950 B2 JP7472950 B2 JP 7472950B2 JP 2022163503 A JP2022163503 A JP 2022163503A JP 2022163503 A JP2022163503 A JP 2022163503A JP 7472950 B2 JP7472950 B2 JP 7472950B2
Authority
JP
Japan
Prior art keywords
input device
input
touch
thumb
terminal device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022163503A
Other languages
English (en)
Other versions
JP2022179658A (ja
Inventor
雅也 田丸
真一郎 永徳
晃 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2022163503A priority Critical patent/JP7472950B2/ja
Publication of JP2022179658A publication Critical patent/JP2022179658A/ja
Application granted granted Critical
Publication of JP7472950B2 publication Critical patent/JP7472950B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/04166Details of scanning methods, e.g. sampling time, grouping of sub areas or time sharing with display driving
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04104Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Description

この発明の一態様は、タッチパネル型入力インタフェースを備えたタッチパネル型情報端末装置と、この装置により実行される情報入力処理方法に関する。
スマートフォンやタブレット型端末等のように表示画面上に入力シートを配置したタッチパネルを有する情報端末装置が普及している。この種の装置では、表示画面を指で直接タッチすることにより操作対象を指定することができるため、直感的な操作が可能である。さらに、マウスやタッチパッド等の外付けの入力デバイスが不要であることから、可搬性に優れた機器形状を実現できるという利点がある。
例えば、特許文献1には、表示画面上にソフトウェアボタン(アイコン)やUniform Resource Locator(URL)等のリンク先情報を表示し、その表示領域に対応する入力シート上の入力領域が指先等でタップされたとき、タップされた位置座標をもとに上記ソフトウェアボタンやリンク先情報を認識して所定の処理を実行する装置が記載されている。
日本国特開2016-38609号公報
ところが、従来のタッチパネル型情報端末装置は、表示画面の一方の面に入力シートを配置した構造であるため、タッチ操作による入力領域が上記単一の入力シート上のみとなり、一度に表示可能なソフトウェアボタン(アイコン)の数が限られる。通常、1個のアイコンには1種類の処理が割り当てられるため、指定可能な処理の種類も上記入力領域のサイズにより制限される。上記入力領域を増やすには端末装置のサイズを大型化するか、或いはアイコンのサイズを小さくする必要があり、このようにすると端末装置の大型化又は操作性の低下を招く。
この発明は上記事情に着目してなされたもので、その一側面では、端末装置のサイズの大型化や操作性の低下を生じることなく多数の処理を指定できるようにする技術を提供しようとするものである。
この発明に係る一態様は、第1の面および当該第1の面の背面側となる第2の面を有する表示デバイスと、前記表示デバイスの第1の面に配置されタッチ操作に応じてそのタッチ位置に対応する検出信号を出力する第1の入力デバイスと、前記表示デバイスの第2の面に配置されタッチ操作に応じてそのタッチ位置に対応する検出信号を出力する第2の入力デバイスと、前記表示デバイス、前記第1および第2の入力デバイスに接続される端末装置本体とを具備する。このうち端末装置本体は、ハードウェアプロセッサと当該ハードウェアプロセッサが実行するプログラムを少なくとも記憶したメモリとを備える。前記ハードウェアプロセッサは、前記第1および第2の入力デバイスをその両面から親指とその他の指とで挟む操作が行われた場合に、前記親指によりタッチ操作された入力デバイスが前記第1の入力デバイスおよび前記第2の入力デバイスのいずれであるかと、前記親指によりタッチ操作された入力デバイスから出力された前記検出信号とに基づいて、異なるアプリケーションを選択し、選択した前記アプリケーションによる処理を実行する。
この発明に係る一態様によれば、その一側面において、端末装置のサイズの大型化や操作性の低下を生じることなく多数の処理を指定できるようにした技術を提供することができる。
図1は、この発明の一実施形態に係るタッチパネル型情報端末装置の概略構成図である。 図2は、この発明の一実施形態に係るタッチパネル型情報端末装置のハードウェア構成を示すブロック図である。 図3は、この発明の一実施形態に係るタッチパネル型情報端末装置のソフトウェア構成を示すブロック図である。 図4は、図3に示したタッチパネル型情報端末装置のソフトウェアにより実行される処理手順と処理内容の一例を示すフローチャートである。 図5は、図4に示した処理のうち操作対象面判定処理の処理手順と処理内容の一例を示すフローチャートである。 図6は、タッチパネルに対するつまみ操作の第1の例を示す図である。 図7は、図6に示したつまみ操作がなされたときのタッチパネルに対する指の接触状態の一例を示す側面図である。 図8は、タッチパネルに対するつまみ操作の第2の例を示す図である。 図9は、図8に示したつまみ操作がなされたときのタッチパネルに対する指の接触状態の一例を示す側面図である。 図10は、タッチパネルに対しその上辺側からつまみ操作を行ったときの操作位置の一例を示す平面図である。 図11は、タッチパネルに対しその下辺側からつまみ操作を行ったときの操作位置の一例を示す平面図である。 図12は、タッチパネルに対しその左辺側からつまみ操作を行ったときの操作位置の一例を示す平面図である。 図13は、タッチパネルに対しその右辺側からつまみ操作を行ったときの操作位置の一例を示す平面図である。 図14は、操作指を親指とした場合に親指の操作対象面を判定する処理の一例を説明するための図である。
以下、図面を参照してこの発明に係わる実施形態を説明する。
[一実施形態]
(構成)
図1は、この発明の一実施形態に係るタッチパネル型情報端末装置の概略構成図である。本実施形態に係るタッチパネル型情報端末装置は、タッチパネル型のユーザインタフェースユニット1と、端末装置本体2とを備える。
(1)ユーザインタフェースユニット1
ユーザインタフェースユニット1は、シート状をなす表示デバイス13の第1の面に第1の入力デバイス11を配置すると共に、表示デバイス13の上記第1の面の背面側となる第2の面に第2の入力デバイス12を配置し、これらの表示デバイス13、第1および第2の入力デバイス11,12を、信号線3を介して上記端末装置本体2に接続したものとなっている。すなわち、ユーザインタフェースユニット1は、表示デバイス13を第1および第2の入力デバイス11,12によりサンドイッチした構造をなす。
表示デバイス13は、例えば液晶又は有機ELを用いたデバイスからなり、端末装置本体2から出力される表示データを表示する。なお、表示デバイス13としては、透明材料を使用したディスプレイデバイスを使用してもよい。この種の表示デバイスを使用すると、例えばAugmented Reality(AR)表示を行うことが可能となり、ユーザは表示デバイス13を透過して周辺の景色等の現実空間の情報に重ねてそれに関連するディジタル情報等を確認することが可能となる。
第1および第2の入力デバイス11,12は、何れも透明なシート状のデバイスからなり、表面をタッチ操作された場合にそのタッチ位置を例えば静電容量方式により検出してその検出信号を端末装置本体2に入力する。なお、各入力デバイス11,12を以後タッチパネルとも云う。また、タッチ操作の検出方式としては、静電容量方式以外に圧力検出方式等のその他方式を採用することも可能である。
(2)端末装置本体2
図2は、端末装置本体2のハードウェア構成を上記ユーザインタフェースユニット1と共に示したブロック図である。
端末装置本体2は、Central Processing Unit(CPU)等のハードウェアプロセッサ(以後CPUとも云う)21を備え、このCPU21に対し、メモリ22と、無線インタフェースユニット23と、上記ユーザインタフェースユニット1を、バス24を介して接続したものとなっている。なお、上記CPU21には、カメラやマイクロフォン、スピーカ等の他のデバイスを接続することも可能である。
メモリ22は、記憶媒体として例えばSolid State Drive(SSD)等の随時書込みおよび読出しが可能な不揮発性メモリを用いたもので、プログラム記憶領域とデータ記憶領域とを有する。プログラム記憶領域には、Operation System(OS)として機能するミドルウェアプログラムと、種々アプリケーション・プログラムが格納される。データ記憶領域には、端末装置本体2がこの発明に係る各種処理を実行する過程で取得および生成される各種データが保存される。なお、記憶媒体としては、他にRead Only Memory(ROM)やRandom Access Memory(RAM)を備えるようにしてもよい。
無線インタフェースユニット23は、CPU21の制御の下、例えば携帯電話網や無線Local Area Network(LAN)、近距離無線データ通信網(例えばBluetooth(登録商標))を使用して、通信相手端末またはWebサイトとの間で無線通信を行う。
図3は、端末装置本体2のソフトウェア構成を、図2に示したハードウェア構成と関連付けて示したブロック図である。
メモリ22のデータ記憶領域には、本実施形態を実施するために必要な記憶部として、座標記憶部221と、判定情報記憶部222と、表示データ記憶部223と、認識データ記憶部224が設けられている。このうち表示データ記憶部223には、表示デバイス13に表示中の表示データが保存される。表示データには、例えば処理の選択候補となる複数のソフトウェアボタン(例えばアイコン)が含まれる。
CPU21は、本実施形態を実施するために必要な処理部として、操作座標検出部211と、入力デバイス判定部212と、操作対象面判定部213と、指示対象認識部214と、処理実行部215とを有している。これらの処理部211~215はいずれも上記メモリ22内のプログラム記憶領域に格納されたプログラムをCPU21に実行させることにより実現される。
操作座標検出部211は、上記ユーザインタフェースユニット1の第1および第2の入力デバイス11、12の一方または両方に対しタッチ操作が行われた場合に、第1および第2の入力デバイス11,12からタッチ位置を表す検出信号を取り込む。そして、取り込んだ検出信号をもとにタッチ位置座標を検出し、その位置座標データをメモリ22内の座標記憶部221に保存させる処理を行う。
入力デバイス判定部212は、上記操作座標検出部211から上記検出信号を取り込み、この検出信号に基づいて、上記タッチ操作が上記第1および第2の入力デバイス11,12の一方のみに行われたか、或いは両方に対し同時に行われたかを判定する。そして、その判定結果を表す情報をメモリ22内の判定情報記憶部222に保存させる処理を行う。判定結果を表す情報としては、例えばタッチ操作が検出された入力デバイスの識別情報が用いられる。
なお、第1および第2の入力デバイス11,12の両方に対し同時にタッチする操作は、例えば親指とその他の指とでユーザインタフェースユニット1を挟む或いはつまむような操作となることから、以後「つまむ操作」(Pinch Control)とも呼称する。
操作対象面判定部213は、上記入力デバイス判定部212によりつまむ操作が行われたと判定された場合に、このときの各入力デバイス11,12に対するタッチ操作の位置座標を上記座標記憶部221から読み込み、これらの位置座標をもとに操作対象面となった入力デバイスを判定する処理を行う。操作対象面となった入力デバイスの判定は、例えば親指でタッチ操作された側の入力デバイスを判定することで行われる。
指示対象認識部214は、上記座標記憶部221に保存されているタッチ操作の位置座標と、表示データ記憶部223に記憶された表示データに含まれる複数のソフトウェアボタンの表示領域を表す座標とをもとに、上記タッチ操作が何れのソフトウェアボタンを指示したものかを認識する。そして、この指示対象の認識データを認識データ記憶部224に保存させる処理を行う。
処理実行部215は、上記認識データ記憶部224に保存されている指示対象の認識データと、上記判定情報記憶部222に保存されているタッチ操作された入力デバイスの判定情報と、上記操作対象面判定部213により操作対象面と判定された入力デバイスの識別情報とに基づいて、対応するアプリケーション・プログラムをメモリ22内のプログラム記憶領域から読み出し、CPUに実行させる。
(動作)
次に、以上のように構成されたタッチパネル型情報端末装置による情報入力処理動作について説明する。図4はその全体の処理手順と処理内容を示すフローチャートである。
表示デバイス13には、例えば処理候補となるアプリケーションに対応付けられたソフトウェアボタン(アイコン)Aが表示されているものとする。なお、表示データとしては、ソフトウェアボタン(アイコン)に限らずURL等のリンク先情報が表示されるようにしてもよいし、同時に表示されるアイコン等の数も1個に限らない。
(1)第1の入力デバイス11のみへのタッチ操作が行われた場合
CPU21は、操作座標検出部211の制御の下、ステップS10により第1および第2の入力デバイス(タッチパネル)11,12に対するタッチ操作を監視している。この状態で、ユーザが例えばタッチパネル11,12に対し指先でタッチ操作をしたとする。
CPU21は、上記タッチ操作をステップS10で検出すると、操作座標検出部211の制御の下、ステップS11,S12においてそれぞれ第1および第2の入力デバイス11,12から出力される検出信号をもとにタッチ位置座標を検出する。そして、この検出されたタッチ位置座標を座標記憶部221に保存させる。この処理により、ユーザがタッチ操作した入力デバイス11,12のいずれか一方、或いは両方のタッチ位置座標が得られる。
CPU21は、次に入力デバイス判定部212の制御の下、先ずステップS13により、タッチ操作の位置座標が得られた入力デバイスは第1の入力デバイス11のみであるか否かを判定する。この判定の結果、第1の入力デバイス11のみであれば、CPU21は指示対象認識部214の制御の下、ステップS14により、上記第1の入力デバイス11において検出されたタッチ位置座標が、表示デバイス13に表示中のソフトウェアボタン(アイコン)Aに対応する検出領域内であるか否かを判定する。そして、上記タッチ位置座標がソフトウェアボタン(アイコン)Aに対応する検出領域内であれば、CPU21は処理実行部215の制御の下、ステップS15において、上記タッチ操作された第1の入力デバイス11に対応し、かつ上記ソフトウェアボタン(アイコン)Aに対応付けられたアプリケーションA1を、第1の処理の一つとして選択し実行する。
なお、タッチ位置座標がソフトウェアボタン(アイコン)Aに対応する検出領域内でなければ、CPU21はステップS10によるタッチ操作の待受状態に戻る。
(2)第2の入力デバイス12のみへのタッチ操作が行われた場合
CPU21は、上記ステップS13において、タッチ操作の位置座標が得られた入力デバイスが第1の入力デバイス11でなかったとすると、入力デバイス判定部212の制御の下、タッチ操作の位置座標が得られた入力デバイスが第2の入力デバイス12であるか否かをステップS16により判定する。
この判定の結果、第2の入力デバイス12であれば、CPU21は指示対象認識部214の制御の下、ステップS17により、上記第2の入力デバイス12において検出されたタッチ位置座標が表示デバイス13に表示中のソフトウェアボタン(アイコン)Aに対応する検出領域内であるか否かを判定する。そして、上記タッチ位置座標がソフトウェアボタン(アイコン)Aに対応する検出領域内であれば、CPU21は処理実行部215の制御の下、ステップS18において、上記タッチ操作された第2の入力デバイス12に対応し、かつ上記ソフトウェアボタン(アイコン)Aに対応付けられたアプリケーションA2を、第1の処理の一つとして選択し実行する。
なお、タッチ位置座標がソフトウェアボタン(アイコン)Aに対応する検出領域内でなければ、CPU21はステップS10によるタッチ操作の待受状態に戻る。
すなわち、本実施形態では、同一のソフトウェアボタン(アイコン)Aがタッチ操作された場合でも、タッチ操作された入力デバイスが第1の入力デバイス11であるか第2の入力デバイス12であるかによって異なるアプリケーションA1,A2が選択され、実行される。
(3)第1および第2の入力デバイス11,12に対する「つまむ操作」が行われた場合
図6は「つまむ操作」の一例を示す図である。この操作形態は、ユーザインタフェースユニット1をほぼ水平にした状態で、手4の親指41とその他の指(例えば人差し指又は中指)42とでユニット1を上下方向から把持するようにタッチするものである。この場合、通常では、第1および第2の入力デバイス11,12に対する親指41の接触位置51と他の指42の接触位置52との間には、例えば図7に示すように差が発生し、親指41の接触位置51の方が他の指42の接触位置52よりユーザインタフェースユニット1の端部側に近い位置となる。
図8は「つまむ操作」の他の例を示す図である。この操作形態は、ユーザインタフェースユニット1をほぼ垂直にした状態で、手4の親指41とその他の指(例えば人差し指又は中指)42とでユニット1を左右から把持するようにタッチするものである。この場合も、通常では、第1および第2の入力デバイス11,12に対する親指41の接触位置51と他の指42の接触位置52との間には、例えば図9に示すように差が発生し、親指41の接触位置51の方が他の指42の接触位置52よりユーザインタフェースユニット1の端部側に近い位置となる。
CPU21は、入力デバイス判定部212の制御の下、ステップS19において、タッチ操作の位置座標が得られた入力デバイスが第1および第2の入力デバイス11,12の両方であるか否かを判定する。この判定の結果、タッチ操作が第1および第2の入力デバイス11,12の両方にほぼ同時に行われたと判定すると、つまり「つまみ操作」が行われたと判定すると、CPU21は指示対象認識部214の制御の下、ステップS20において、上記第1および第2の入力デバイス11,12においてそれぞれ検出されたタッチ位置座標が表示デバイス13に表示中のソフトウェアボタン(アイコン)Aに対応する検出領域内であるか否かを判定する。
上記判定の結果、タッチ位置座標がソフトウェアボタン(アイコン)Aに対応する検出領域内であれば、CPU21は続いて操作対象面判定部213の制御の下、ステップS21において、操作対象面が第1および第2の入力デバイス11,12の何れの側であるかを判定する。
ここで、スマートフォン等のタッチパネル型端末をタッチ操作する場合、ユーザは一般に親指でタッチ操作する場合が多い。そこで、「つまむ操作」が行われた場合にも、親指により操作された面が指示操作が行われた操作対象面であると認識する。
以下、操作対象面判定処理の一例を詳しく説明する。図5はその判定処理手順と処理内容を示すフローチャートである。図10~図13は想定される4種類の「つまむ操作」の操作方向を示し、また図14はそのうちの図10に示した操作を拡大して示したものである。
図10~図13に示すように、ユーザが「つまむ操作」を行う場合、タッチパネルの上端辺側から親指41と他の指42とでつまむ場合(図10)と、タッチパネルの下端辺側から親指41と他の指42とでつまむ場合(図11)と、タッチパネルの左端辺側から親指41と他の指42とでつまむ場合(図12)と、タッチパネルの右端辺側から親指41と他の指42とでつまむ場合(図13)が考えられる。なお、親指41および他の指42によるタッチ位置座標P1,P2をそれぞれ(x1,y1),(x2,y2)とする。
CPU21は、操作対象面判定部213の制御の下、先ずステップS211において、親指41のタッチ位置座標P1(x1,y1)と、他の指42のタッチ位置座標P2(x2,y2)との間の差(xa,ya)を算出し、xa<yaであるか否かを判定する。この判定により、「つまむ操作」がタッチパネルの上下端辺側から行われたものか、左右端辺側から行われたものかを識別できる。
上記ステップS211によりxa<yaと判定されると、つまり「つまむ操作」が図10および図11に示したようにタッチパネルの上端辺側又は下端辺側から行われたと判定される。この場合CPU21は、ステップS212により|y2|>|y1|であるか否かを判定する。この判定の結果、|y2|<|y1|であれば、ステップS214により、位置座標P1(x1,y1)が検出された入力デバイスを操作対象面と認識する。これに対し、上記判定の結果|y2|>|y1|であれば、ステップS213により、位置座標P2(x2,y2)が検出された入力デバイスを操作対象面と認識する。
一方、上記ステップS211によりxa>yaと判定されると、つまり「つまむ操作」が図12および図13に示したようにタッチパネルの左端辺側又は右端辺側から行われたと判定される。この場合CPU21は、ステップS215により|x2|>|x1|であるか否かを判定する。この判定の結果、|x2|<|x1|であれば、ステップS217により、位置座標P1(x1,y1)が検出された入力デバイスを操作対象面と認識する。これに対し、上記判定の結果|x2|>|x1|であれば、ステップS216により、位置座標P2(x2,y2)が検出された入力デバイスを操作対象面と認識する。
すなわち、上記操作対象面の判定処理では、第1および第2の入力デバイス11,12に対するタッチ操作の位置座標が入力デバイス11,12の端部に近い入力デバイスが、上記操作対象面、つまりタッチ操作による指示の入力対象となる入力デバイスと判定される。
上記操作対象面の判定処理が終了すると、CPU21は続いてステップS22において、上記操作対象面の判定結果に基づいて、「つまむ操作」による指示対象面(親指による操作面)が、第1の入力デバイス11であるか第2の入力デバイス12であるかを判定する。この判定の結果、指示対象面(親指による操作面)が第1の入力デバイス11の場合、CPU21は処理実行部215の制御の下、ステップS24によりアプリケーションA12による処理を実行する。
これに対し、上記ステップS22による判定の結果、指示対象面(親指による操作面)が第2の入力デバイス12の場合、CPU21は処理実行部215の制御の下、ステップS23によりアプリケーションA21による処理を実行する。
すなわち、「つまむ操作」が行われた場合にも、親指41により第1および第2の入力デバイス11,12のうち何れがタッチ操作されたかに応じて、異なるアプリケーションA12,A21が第2の処理として選択され、実行される。
(効果)
以上述べたように一実施形態では、第1および第2の入力デバイス11,12に対するタッチ操作が、第1および第2の入力デバイス11の何れか一方のみ行われたか、或いは両方に対し同時に行われたか(「つまむ操作」が行われたか)を判定している。そして、その判定結果に基づいて、タッチ操作が、第1の入力デバイス11のみに行われた場合と、第2の入力デバイス12のみに行われた場合とで、異なる処理を実行するようにしている。
例えば、タッチ操作により同一のソフトウェアボタン(アイコン)が指示された場合でも、第1の入力デバイス11に対しタッチ操作された場合と、第2の入力デバイス12にタッチ操作された場合とで、異なるリンク先に対しアクセスする処理A1,A2を実行する場合が考えられる。
さらには、上記「つまむ操作」が行われた場合に、親指によりタッチ操作された面が第1の入力デバイス11側であるか、第2の入力デバイス12側であるかを判定している。そして、その判定結果に応じて、親指によりタッチ操作された面が第1の入力デバイス11側の場合と、第2の入力デバイス12側の場合とで、異なる処理A12,A21を選択して実行するようにしている。例えば、処理A12,A21としては、それぞれ上記処理A1,A2によりダウンロードされ保存されているデータをメモリ22のデータ記憶領域から読み出して表示させる処理が考えられる。
また別の例として、カメラを起動するソフトウェアボタン(アイコン)が第1の入力デバイス11側からタッチ操作された場合には、静止画を撮像する処理を実行し、一方カメラを起動する上記ソフトウェアボタン(アイコン)が「つまむ操作」によりタッチ操作された場合には、動画を撮像する処理を実行することが考えられる。
以上のように一実施形態によれば、表示デバイス13の表裏両面に第1および第2の入力デバイス11,12を配置し、これらの入力デバイス11,12の何れか一方のみへのタッチ操作と、両方に対し同時にタッチするいわゆる「つまむ操作」とを判定し、その判定結果と、タッチ操作により指定されたソフトウェアボタン(アイコン)との組み合わせに応じて、異なる複数の処理を選択し実行するようにしたので、入力デバイス11,12のサイズのサイズを大型化することなく、またソフトウェアボタン(アイコン)等の表示サイズを縮小することなく、多種類の処理を選択的に指定することが可能となる。
この結果、例えば1個のアイコンに対し複数種類の処理を割り当て、第1および第2の入力デバイス11,12に対するタッチ操作の種類を変えることで、1個のアイコンを指定しているにもかかわらず、上記複数種類の処理を選択的に実行させることが可能となる。
すなわち、端末装置のサイズの大型化や操作性の低下を防止した上で、多種類の処理を選択的に指定し実行させることが可能となる。
また、一般に「つまむ操作」は親指とそれより長い人差し指や中指等のその他の指とで行われ、かつアイコンの指示は親指により行われることが多い。そこで一実施形態では、「つまむ操作」が行われた場合に、操作指示の入力対象となる入力デバイスが第1および第2の入力デバイスの何れであるかを、各入力デバイス11,12に対する指のタッチ操作の位置座標の差をもとに判定するようにしている。このため、「つまむ操作」が行われた場合の操作指示の入力対象となる入力デバイスを正確に判定することができる。
[他の実施形態]
(1)入力デバイス判定部212において、「つまむ操作」が行われたか否かを判定する際に、第1の入力デバイス11に対するタッチ操作の位置座標P1と、第2の入力デバイス12に対するタッチ操作の位置座標P2との間の差(xa,ya)を予め設定されているしきい値αと比較し、位置座標P1,P2間の差(xa,ya)がしきい値α以内の場合に「つまむ操作」と判定するようにしてもよい。
このようにすると、例えば第1の入力デバイス11に対しタッチ操作した際に、誤って第2の入力デバイス12に他の手又は指が触れてしまった場合、このときの第1および第2の入力デバイス11,12に対するタッチ操作が「つまむ操作」として誤判定されないようにすることができる。
(2)親指41とその他の指42による「つまむ操作」が行われた場合、一般に第1および第2の入力デバイス11,12に対する親指41とその他の指42の接触面積は、例えば図7および図9に例示したように親指41よりその他の指42の方が大きくなる。そこで、CPU21により、第1および第2の入力デバイス11,12から出力される検出信号をもとに、これらの各入力デバイス11,12に対する指の接触面積の差異を判定し、その判定結果に基づいて親指41が第1および第2の入力デバイス11,12のうち何れの側をタッチ操作しているのか、つまり第1および第2の入力デバイス11,12のうちの何れを操作指示の入力対象としたかを判定するようにしてもよい。
また、接触面積の差異に限らず、接触形状の差異を判定し、その判定結果に基づいて第1および第2の入力デバイス11,12のうちの何れを操作指示の入力対象としたかを判定するようにしてもよい。
その他、ユーザインタフェースユニット1の構造や表示デバイス13および各入力デバイス11,12の材質、端末装置本体における情報入力処理の手順と処理内容についても、この発明の要旨を逸脱しない範囲で種々変形して実施可能である。
すなわち、本発明は、上記実施形態に限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で種々に変形することが可能である。また、各実施形態は可能な限り適宜組み合わせて実施してもよく、その場合組み合わせた効果が得られる。更に、上記実施形態には種々の段階の発明が含まれており、開示される複数の構成要件における適当な組み合わせにより種々の発明が抽出され得る。
1…ユーザインタフェースユニット
2…端末装置本体
3…信号線
11…第1の入力デバイス
12…第2の入力デバイス
13…表示デバイス
21…CPU
22…メモリ
23…無線インタフェースユニット
24…バス
41…親指
42…その他の指
211…操作座標検出部
212…入力デバイス判定部
213…操作対象面判定部
214…指示対象認識部
215…処理実行部
221…座標記憶部
222…判定情報記憶部
223…表示データ記憶部
224…認識データ記憶部

Claims (4)

  1. 第1の面および当該第1の面の背面側となる第2の面を有する表示デバイスと、
    前記表示デバイスの前記第1の面に配置され、タッチ操作に応じてそのタッチ位置に対応する検出信号を出力する第1の入力デバイスと、
    前記表示デバイスの前記第2の面に配置され、タッチ操作に応じてそのタッチ位置に対応する検出信号を出力する第2の入力デバイスと、
    前記表示デバイス、前記第1の入力デバイスおよび前記第2の入力デバイスに接続される端末装置本体と
    を具備し、
    前記端末装置本体は、ハードウェアプロセッサと当該ハードウェアプロセッサが実行するプログラムを少なくとも記憶するメモリとを備え、
    前記ハードウェアプロセッサは、
    前記第1および第2の入力デバイスをその両面から親指とその他の指とで挟む操作が行われた場合に、前記親指によりタッチ操作された入力デバイスが前記第1の入力デバイスおよび前記第2の入力デバイスのいずれであるかと、前記親指によりタッチ操作された入力デバイスから出力された前記検出信号とに基づいて、異なるアプリケーションを選択し、選択した前記アプリケーションによる処理を実行する
    ように構成される、タッチパネル型情報端末装置。
  2. 前記ハードウェアプロセッサは、
    前記第1および第2の入力デバイスをその両面から親指とその他の指とで挟む操作が行われた場合に、前記第1および第2の入力デバイスのうち、入力デバイスの端部に近い位置に対しタッチ操作された入力デバイスを、前記親指によりタッチ操作された入力デバイスとする
    請求項1に記載のタッチパネル型情報端末装置。
  3. 前記ハードウェアプロセッサは、
    前記第1および第2の入力デバイスをその両面から親指とその他の指とで挟む操作が行われた場合に、前記第1および第2の入力デバイスのうち、前記タッチ操作の面積が大きい入力デバイスを、前記親指によりタッチ操作された入力デバイスとする
    請求項1に記載のタッチパネル型情報端末装置。
  4. 第1の面および当該第1の面の背面側となる第2の面を有する表示デバイスと、前記表示デバイスの前記第1の面に配置されタッチ操作に応じてそのタッチ位置に対応する検出信号を出力する第1の入力デバイスと、前記表示デバイスの前記第2の面に配置されタッチ操作に応じてそのタッチ位置に対応する検出信号を出力する第2の入力デバイスと、前記表示デバイス、前記第1の入力デバイスおよび前記第2の入力デバイスに接続される端末装置本体とを具備し、かつ前記端末装置本体がハードウェアプロセッサと当該ハードウェアプロセッサが実行するプログラムを少なくとも記憶するメモリとを備えるタッチパネル型情報端末装置が実行する情報入力処理方法であって、
    前記第1および第2の入力デバイスをその両面から親指とその他の指とで挟む操作が行われた場合に、前記ハードウェアプロセッサが、前記親指によりタッチ操作された入力デバイスが前記第1の入力デバイスおよび前記第2の入力デバイスのいずれであるかと、前記親指によりタッチ操作された入力デバイスから出力された前記検出信号とに基づいて、異なるアプリケーションを選択し、選択した前記アプリケーションによる処理を実行する
    情報入力処理方法。
JP2022163503A 2019-06-12 2022-10-11 タッチパネル型情報端末装置およびその情報入力処理方法 Active JP7472950B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022163503A JP7472950B2 (ja) 2019-06-12 2022-10-11 タッチパネル型情報端末装置およびその情報入力処理方法

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2021525483A JP7197007B2 (ja) 2019-06-12 2019-06-12 タッチパネル型情報端末装置およびその情報入力処理方法
PCT/JP2019/023351 WO2020250352A1 (ja) 2019-06-12 2019-06-12 タッチパネル型情報端末装置およびその情報入力処理方法
JP2022163503A JP7472950B2 (ja) 2019-06-12 2022-10-11 タッチパネル型情報端末装置およびその情報入力処理方法

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2021525483A Division JP7197007B2 (ja) 2019-06-12 2019-06-12 タッチパネル型情報端末装置およびその情報入力処理方法

Publications (2)

Publication Number Publication Date
JP2022179658A JP2022179658A (ja) 2022-12-02
JP7472950B2 true JP7472950B2 (ja) 2024-04-23

Family

ID=73781703

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021525483A Active JP7197007B2 (ja) 2019-06-12 2019-06-12 タッチパネル型情報端末装置およびその情報入力処理方法
JP2022163503A Active JP7472950B2 (ja) 2019-06-12 2022-10-11 タッチパネル型情報端末装置およびその情報入力処理方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2021525483A Active JP7197007B2 (ja) 2019-06-12 2019-06-12 タッチパネル型情報端末装置およびその情報入力処理方法

Country Status (3)

Country Link
US (1) US11822743B2 (ja)
JP (2) JP7197007B2 (ja)
WO (1) WO2020250352A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010140329A (ja) 2008-12-12 2010-06-24 Sharp Corp 表示装置、表示方法、および表示プログラム
JP2012073662A (ja) 2010-09-27 2012-04-12 Sony Computer Entertainment Inc 情報処理装置、その制御方法、及びプログラム
JP2012247921A (ja) 2011-05-26 2012-12-13 Konami Digital Entertainment Co Ltd 情報表示装置、情報表示方法、ならびに、プログラム
JP2013003708A (ja) 2011-06-14 2013-01-07 Nikon Corp 表示装置、電子機器、およびプログラム
WO2014054367A1 (ja) 2012-10-01 2014-04-10 Necカシオモバイルコミュニケーションズ株式会社 情報処理装置、情報処理方法及び記録媒体
JP2017054471A (ja) 2015-09-12 2017-03-16 レノボ・シンガポール・プライベート・リミテッド 携帯式電子機器、制御方法およびコンピュータ・プログラム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101544364B1 (ko) * 2009-01-23 2015-08-17 삼성전자주식회사 듀얼 터치 스크린을 구비한 휴대 단말기 및 그 컨텐츠 제어방법
EP2341418A1 (en) * 2009-12-31 2011-07-06 Sony Computer Entertainment Europe Limited Device and method of control
KR20110081040A (ko) * 2010-01-06 2011-07-13 삼성전자주식회사 투명 디스플레이를 구비한 휴대단말에서 컨텐츠 운용 방법 및 장치
CN102221957B (zh) * 2010-04-16 2014-04-23 联想(北京)有限公司 电子设备的操作控制的方法及电子设备
JP2013073330A (ja) * 2011-09-27 2013-04-22 Nec Casio Mobile Communications Ltd 携帯型電子機器、タッチ領域設定方法およびプログラム
JP6271858B2 (ja) * 2012-07-04 2018-01-31 キヤノン株式会社 表示装置及びその制御方法
JP6233040B2 (ja) * 2014-01-17 2017-11-22 富士通株式会社 入力装置,表示制御方法,プログラム及び集積回路装置
JP6283280B2 (ja) 2014-08-05 2018-02-21 株式会社Nttドコモ 電子書籍閲覧装置及び電子書籍閲覧方法
KR20170046915A (ko) * 2015-10-22 2017-05-04 삼성전자주식회사 전자 장치 및 전자 장치의 카메라 제어 방법
KR20170056841A (ko) * 2015-11-16 2017-05-24 엘지전자 주식회사 이동 단말기 및 이동 단말기의 제어 방법
WO2018035353A1 (en) * 2016-08-17 2018-02-22 Handscape Inc., A Delaware Corporation Front touchscreen and back touchpad operated user interface employing semi-persistent button groups
US11126258B2 (en) * 2017-10-14 2021-09-21 Qualcomm Incorporated Managing and mapping multi-sided touch

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010140329A (ja) 2008-12-12 2010-06-24 Sharp Corp 表示装置、表示方法、および表示プログラム
JP2012073662A (ja) 2010-09-27 2012-04-12 Sony Computer Entertainment Inc 情報処理装置、その制御方法、及びプログラム
JP2012247921A (ja) 2011-05-26 2012-12-13 Konami Digital Entertainment Co Ltd 情報表示装置、情報表示方法、ならびに、プログラム
JP2013003708A (ja) 2011-06-14 2013-01-07 Nikon Corp 表示装置、電子機器、およびプログラム
WO2014054367A1 (ja) 2012-10-01 2014-04-10 Necカシオモバイルコミュニケーションズ株式会社 情報処理装置、情報処理方法及び記録媒体
JP2017054471A (ja) 2015-09-12 2017-03-16 レノボ・シンガポール・プライベート・リミテッド 携帯式電子機器、制御方法およびコンピュータ・プログラム

Also Published As

Publication number Publication date
WO2020250352A1 (ja) 2020-12-17
US20220236852A1 (en) 2022-07-28
JP2022179658A (ja) 2022-12-02
US11822743B2 (en) 2023-11-21
JPWO2020250352A1 (ja) 2020-12-17
JP7197007B2 (ja) 2022-12-27

Similar Documents

Publication Publication Date Title
US11461004B2 (en) User interface supporting one-handed operation and terminal supporting the same
JP5983503B2 (ja) 情報処理装置及びプログラム
US10768804B2 (en) Gesture language for a device with multiple touch surfaces
JP6328947B2 (ja) マルチタスキング運用のための画面表示方法及びこれをサポートする端末機
CN107247538B (zh) 触摸操作处理方法及终端设备
US8386950B2 (en) Methods, systems and computer program products for arranging a plurality of icons on a touch sensitive display
CN109428969B (zh) 双屏终端的边缘触控方法、装置及计算机可读存储介质
US20130201131A1 (en) Method of operating multi-touch panel and terminal supporting the same
RU2623885C2 (ru) Запись формулы для ограниченного устройства отображения
US20130057487A1 (en) Information processing device adapted to receiving an input for user control using a touch pad and information processing method thereof
WO2002095563A1 (en) User input apparatus, computer connected to user input apparatus, method of controlling computer connected to user input apparatus, and storage medium
JP2015005173A (ja) タッチ・スクリーンを備える携帯式情報端末および入力方法
JP2009003851A (ja) タッチパネルを備えた情報機器、それに使用されるアイコン選択方法及びプログラム
US11455071B2 (en) Layout method, device and equipment for window control bars
EP2899623A2 (en) Information processing apparatus, information processing method, and program
JP2018139158A (ja) 携帯端末及びプログラム
KR101961907B1 (ko) 사용자 터치 유지 시간에 기초한 이동단말기의 컨텐츠 제공 방법
JP7472950B2 (ja) タッチパネル型情報端末装置およびその情報入力処理方法
WO2013080425A1 (ja) 入力装置、情報端末、入力制御方法、および入力制御プログラム
US10061438B2 (en) Information processing apparatus, information processing method, and program
JP2012238128A (ja) 背面入力機能を有する情報機器、背面入力方法、およびプログラム
JP6284459B2 (ja) 端末装置
US11659077B2 (en) Mobile terminal and method for controlling the same
JP2016186824A (ja) 情報処理装置及びプログラム
KR101397907B1 (ko) 멀티 터치 인식을 위한 시스템, 제어방법과, 기록 매체

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221011

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20230104

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20230208

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230914

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231017

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231215

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240312

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240325

R150 Certificate of patent or registration of utility model

Ref document number: 7472950

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150