JP2004355106A - Touch interface of computer - Google Patents

Touch interface of computer Download PDF

Info

Publication number
JP2004355106A
JP2004355106A JP2003149166A JP2003149166A JP2004355106A JP 2004355106 A JP2004355106 A JP 2004355106A JP 2003149166 A JP2003149166 A JP 2003149166A JP 2003149166 A JP2003149166 A JP 2003149166A JP 2004355106 A JP2004355106 A JP 2004355106A
Authority
JP
Japan
Prior art keywords
area
touch operation
touch
display
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003149166A
Other languages
Japanese (ja)
Inventor
Tetsuo Ito
哲郎 伊藤
Yohei Oisaki
洋平 追崎
Takuji Shimomura
拓司 下村
Kazuhisa Matsunaga
和久 松永
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2003149166A priority Critical patent/JP2004355106A/en
Publication of JP2004355106A publication Critical patent/JP2004355106A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To develop a touch interface in a style for achieving a variety of operations as for a next generation PC operation style such a style different from a conventional style like reading a book, that is, a style for carrying a PC with both hands, retrieving e-mail or searching the Internet while walking or lying by using a new means not a mouse or a button but by a finger and downloading a newspaper into a terminal to read its continuation part on a train, etc. <P>SOLUTION: A variety of touch operation area schema are preliminarily stored in response to each application. The schema necessary for execution control of the selected application is displayed onto a screen portion, then based on this display, the touch operation area is set/displayed at a requested coordinate position on the screen portion of a display device. The application on the screen portion is operated, based on the detection signal regarding the presence or absence/the order of clicks or the direction of drag in the touch operation area. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は,コンピュータのタッチインタフェースに関するものである。
【0002】
【従来の技術】
現在,計算機や家電製品等あらゆるものがネットワークで接続され,いつでもどこからでも情報端末を介してネットワークにアクセスできるユビキタスネットワーク時代になりつつある。
ユビキタスネットワークの主役となる携帯電話,ビデオゲーム機器,情報家電等の開発に当たっては,技術だけではなく,ユビキタスネットワークの利用者も視野に入れなくてはならず,各メーカや研究機関は,利用者がユビキタスネットワークを容易に利用できるための新たな情報端末やインタフェースの研究・開発を鋭意進めている。
ユビキタスネットワーク時代のクライアントを目指したノートPC[1]では,両手で持った状態で各機能を操作でき,キーボードには左手の親指のみでキー操作が行える文字入力方式を取り入れている。
更にタブレットPC用のOSが開発された[2]ことにより,そのOSを搭載したタブレットPCの開発も行われている。
タブレットPCにはコンパチブル型とピュアタブレット型の2種類があり,コンパチブル型は,基本的にノートPCと同じであるが,ディスプレイ装置を回転させることができ,ピュアタブレット型は,パネル形状でキーボードやマウスがなく,手書きペン入力をサポートしている。
一方上記の二つとは方向性は異なるが,最近の新聞等でも紹介されているように,電子ペーパーという新しい媒体の商用化が眼前にあり[3],電子ペーパーは,紙とディスプレイ装置の両方の特性を兼ね備えた表示媒体で,ユビキタスネットワーク時代のクライアントとしての可能性を十分有している。
これらの技術動向をふまえて,今後のユビキタスネットワーク時代の情報端末としては,ピュアタブレット型のタブレットPCや電子ペーパーのような形状しており,本を読むように両手で保持でき,加えて空いた指で画面を直接操作するようなものが広く利用されると想定できる。
【0003】
【発明が解決しようとする課題】
このような新しい形の情報端末を考えた場合,既存のOSのGUIをそのまま適用することはできない。
既存のGUIは,マウス,キーボードやペンを使用することを前提として設計されているため,指で操作する場合は誤操作が頻繁に生じるからである。
指を使用して効率よく操作できるインタフェースの新しい機能としては,本を読むようなスタイルで操作することができ,主として両手の親指を使用して画面を直接操作することができ,利き手や端末を保持している手の位置を考慮した設計ができ,操作のための領域を設定して種々の形での入力ができる等がある。
指で操作を行う方法に関連した研究[4][5][6]もなされているが,これらは腕を浮かして人差し指で操作するという一般的なタッチパネルの操作や携帯端末に適用されるものである。
現在の携帯端末はペン入力が主流であるが[7][8],ピュアタブレットのような画面の大きい情報端末を考えた場合,片手で端末を保持しながらペン入力を行うのは容易なことではない。
次世代の操作スタイルとしての本を読むような両手で操作するスタイルでは,歩きながら詳細に地図を見たり,寝転びながらメールの送受信やe−Learningをしたり,マルチメディア情報を検索したり,また新聞を端末にダウンロードして続きを電車の中で読んだりするなど,種々の使い方が考えられるが,このようなことを実現するには,指による様々な操作が可能なタッチインタフェースが必要となる。
【0004】
【課題を解決するための手段】
本発明は,独自に予測した画面を直接操作できる情報端末としての画面端末を対象にして,効率よく種々の操作が行える新たなインタフェースを開発したものである。
以下にその特徴を述べ,具体例として,本の閲覧,地図の閲覧,スクロール,文字入力の4つを紹介する。
本発明の特徴は,予めアプリケーションごとに応じて種々のタッチ操作領域スキーマを格納しておき,画面部への選定アプリケーションの実行制御時に必要なタッチ操作領域スキーマを呼び出し,これを基にタッチ操作領域をディスプレイ装置の画面部の要求された座標位置に設定・表示し,そのタッチ操作領域内でのクリックの有無・順序やドラッグの方向等についての検出信号に基づき,画面部の前記アプリケーションを操作するところにある。
【0005】
【発明の実施の形態】
本発明のタッチインタフェースは,両手で画面端末を保持し,開いた両手の指が触れる部分を中心とするタッチ可能領域に,アプリケーションごとに応じて種々のタッチ操作領域を設定・表示して,それの要所を指先でクリックしたり,要所間を特定方向にドラッグしたりして,自在にアプリケーションを操作実行することでキーボードやマウスを不要にする。
本発明において,画面のタッチ可能領域に設定・表示するタッチ操作領域とは,画面に設けた座標での左上を原点としその幅と高さによって囲まれた領域で,指によるタッチ操作の位置,タッチの仕方を検出する領域である。
これら領域はいくつかの小領域に分けられることも多く,この場合にはタッチの方向や順序も重要な検出信号となる。
本発明は,アプリケーションに応じた様々なタッチ操作領域を画面に設定・表示し,操作領域内のクリック・ドラッグによる指移動やタッチ操作小領域間のクリック・ドラッグによる指移動等,様々なタッチの仕方で種々の入力操作を可能にする。
該タッチの仕方は,アプリケーションごとに,通常生活での現物の操作方法をそのまま取り入れられるようにしてある。
例えば,実際に本をめくるときは手を左から右へ動かすが,一つのアプリケーションとしての電子本のページめくりも,指を左から右へ動かすことで行う。
タッチ操作領域スキーマの例を図1と図2に,操作領域へのタッチの仕方とその例を以下に示す。
小領域A(B)をクリックした後小領域B(A)をクリック
例:右(左)に1ページめくり,文字入力(削除)
小領域A(B)をクリック
例:上(下)に1行スクロール
小領域A(B)の中をドラッグ
例:右(下)に連続ページめくり,上(下)に通常のスクロール
小領域A(B)から小領域B(A)方向にドラッグ
例:文字入力(消去)
小領域A(B)の中を数秒間押す
例:上(下)に早送りスクロール,操作の終了
領域Cをクリック
例:操作盤の表示・非表示,しおりの削除,操作法の切替
領域Cの中をドラッグ
例:地図中の視点移動,地図の拡大・縮小
領域Cの中を数秒間押す
例:しおり挟み,操作の終了
本発明のタッチインタフェースにおいて,画面部に設定するタッチ可能領域は,コンピュータのディスプレイ装置上に設けるか,あるいはディスプレイ装置とは別の,例えばリモートコントロールディスプレイ装置に設けて更に簡便さを図ってもよい。
画面端末は,既設の情報端末でもよく,必要最低条件は,指で画面を直接操作できるディスプレイ装置を備えた情報端末で,それを持った状態で両手のあるいは片手の指を使って画面を十分に操作できること(端末の端から画面までの幅が狭い情報端末)である。
この条件さえ満たしていれば,ノートPC,タブレットPC,電子ペーパー等どのような情報端末でも利用でき,画面がどのような大きさでも動作可能である。
また画面端末における指による操作の検出は,フォトセンサー,磁気センサー,静電気センサー,感圧センサー等その他適宜な接触感知センサーで感知できるタッチ可能領域を備えたディスプレイ装置で行う。
該端末の端と画面までの幅が小さいものが望ましいが,これは,画面端末を保持したまま指で画面の操作を行うため,該端末の端と画面までの幅が大きければそれだけ指で操作できる範囲が狭くなるという理由からで,画面の大きさとしては約14インチ程度が好ましい。
画面が大きくなったことにより,他人から画面を見られるというプライバシーの問題が発生することが懸念されるが,左右45度外側からは画面の文字等が見えないようにするプライバシーフィルム等がすでに開発されているため,その点に関し問題はない。
画面の解像度は1024×768ピクセル以上,質量は1kg以内が好ましい。
【0006】
図3に本発明のコンピュータのタッチインタフェースについての全体像を示す。
タッチインタフェースは,コンピュータのディスプレイ装置の画面001上に設けた接触感知センサー式のタッチ可能領域002と,そこでのタッチ状況を検出するタッチ検出機構003と,タッチ可能領域002にタッチ操作領域を表示するためのグラフィックデータを格納したGUI部品データベース004を持つ部品描画機構005と,各種アプリケーションに対する様々なタッチ操作領域スキーマを格納したタッチ操作領域スキーマクラス006を持ち、アプリケーションが扱うアプリケーションデータ008を画面001に表示できるようにするデータ表示機構009と上記タッチ検出機構003ならびに部品描画機構005と情報のやり取りをするタッチ操作制御機構007とから構成されている。
【0007】
タッチ操作制御機構007は,現在起動しているアプリケーションを認識した上で,タッチ可能領域002に表示されたタッチ操作領域中での指による入力位置とクリック・ドラッグ等の入力方法をタッチ検出機構003が検出すると,その入力の意義を判断しこれをデータ表示機構009に伝えて相応するアプリケーションデータ008を表示すると共に,必要ならタッチ操作領域スキーマクラス006からアプリケーションデータ008の表示の状況に応じた新たなタッチ操作領域スキーマを取り出し,これを基に部品描画機構005を通じてGUI部品データベース004から該当する画像を取り出し,タッチ操作領域をタッチ可能領域002に設定・表示するようにする。
タッチ可能領域002において,指で同じ座標をタッチしても,起動しているアプリケーションやアプリケーションの状況によっては別のタッチ操作領域を設定・表示し,異なる入力が行えるようになっている。
タッチ操作領域スキーマクラス006は,アプリケーションに応じた様々なタッチ操作領域スキーマを格納しており,タッチ操作領域スキーマのライブラリでありデータベースである。
よって,新たな操作法を開発したときはタッチ操作領域スキーマをタッチ操作領域スキーマクラス006に追加したり,ある操作法が不必要となったときは対応するタッチ操作領域スキーマを削除したりすることが可能である。
【0008】
タッチ検出機構003は,設定されたタッチ可能領域002内に指による入力が行われる入力位置とクリック・ドラッグ等の入力方法を検出し,タッチ操作制御機構007にタッチ操作領域スキーマクラス006からアプリケーションデータ008の表示の状況に応じた新たなタッチ操作領域スキーマを呼び出させ,タッチ可能領域002に設定・表示させる。
部品描画機構005は,タッチ操作領域内でクリック・ドラッグが行われるたびにタッチ検出機構003が検出した信号をタッチ操作制御機構007が判断し,その状況に応じて,また必要なら新たなタッチ操作領域スキーマをタッチ操作領域スキーマクラス006から呼び出し,関係する画像をGUI部品データベース004から取り出し,画面001のタッチ可能領域002に描画する。
GUI部品データベース004は,画像のデータベースであって,ここに格納されている画像は各種アプリケーションに対するタッチ操作領域の設定・表示で使用される画像や文字フォント等であり,これらはアプリケーションが起動した後,タッチ操作制御機構007を通じて呼び出される。
本例の部品データベース004中の各種部品を使って描画されるタッチ操作領域の例は,詳細な図と共に後述する。
データ表示機構009はタッチ操作制御機構007とアプリケーションデータ008を結びつける役割を果たす。例えば,アプリケーションデータをダウンロードしたりダウンロードしたデータをタッチインタフェースで操作できるように変換したりする。
アプリケーションデータベース8は,電子化された本や地図等の既存のデータでアプリケーションに特化しないものを格納しているが,あるアプリケーションに特化したものでもそれを扱うアプリケーションをデータ表示機構009が制御できるなら特化しないものと同様に扱える。
【0009】
アプリケーション等の操作は,タッチ検出機構003により,タッチ操作領域へのタッチの位置,数や順番等,あるいはその仕方として,単数あるいは複数のクリック,同一領域内ドラッグ,小領域間でのドラッグ方向等の検出とその信号の意義を判断し,判断信号をタッチ操作制御機構007に送信することで行う。
【0010】
【発明の実施例】
次に,本タッチインタフェースを利用したアプリケーションの例として,本の閲覧,地図の閲覧,スクロール,文字入力を取り上げ,これらにおけるインタフェースの状況とタッチ操作領域を使った操作法について説明する。
【0011】
(具体例1:本の閲覧)
図4の本の閲覧の場合,タッチ操作領域スキーマクラスには,データ表示領域スキーマ,操作盤領域スキーマ,ページめくり領域スキーマ,しおり挟み領域スキーマが格納してあるとし,本の閲覧アプリケーションが起動したとき,タッチ操作制御機構が,本の電子化データと共に,これらスキーマに対するタッチ操作領域を画面に設定・表示する。
本の閲覧のためのGUI部品データベースには,これらスキーマを表示するための画像に加え,本の厚みを表現する画像やページ数を表示する数字等が格納されているとする。
1.インタフェース
A) データ表示領域(全体)
電子化された本のデータを表示する。通常は電子化された本のデータを外部からダウンロードして使用する。図4では450×650ピクセルのデータを示している。
B) 操作盤領域101
中にページめくりの操作領域,しおり挟み領域やページ数の設定・表示等を行う。操作盤は目に見える形で表示したり透明にしたり(以後,非表示という)することができる。表示位置は,両手のどちらかの親指が押された部分を中心にして決める。
C) ページめくり領域102,103
ページめくり操作の検出を行う。最初と最後を除くページの場合は図のように白紙のページであるが,最初のページでは本のデータの表紙を,最後のページでは本のデータの裏表紙を表示する。
D) しおり挟み領域104
しおりを挟む操作の検出を行う。この操作を行うと,紙の角を折った形でしおりが見えるようになる。しおりを削除するドラッグ操作を行った場合は非表示となる。
E) 厚みの表示105
本の残りページを視覚的にわかるようにする。操作盤領域101の両端に,全ページ数の割合によって右と左の量を調節して表示する。どのようなページ数でも対応可能である。
F) ページ数の表示106
本の現在のページを数値で表示する。本の最初と最後では表示させない。表示可能なページ数は9999である。
G) ページ方向の表示(操作盤中央の矢印)
ページめくりの際のめくる方向を表示する。1ページめくりの操作を行った場合に表示される。ページをめくった場合やページめくりをキャンセルした場合,表示は消える。
2.操作
本の閲覧に係わる操作には,操作盤の表示・非表示,1ページめくり,連続ページめくり,しおり挟み,閲覧終了等がある。どの操作も親指で行うため,正確さを要せず,操作に余裕を持たせた形にしている。以下にタッチ操作領域を使用したこれらの操作方法について述べる。
A) 操作盤の表示
本の閲覧アプリケーションが起動したときは,操作盤は表示された状態である。操作盤を非表示にする場合は,それが表示されている側の操作盤領域以外のデータ表示領域をクリックする。再び表示させたい場合は,データ表示領域の任意の場所をクリックすれば非表示となった場所に表示される。操作盤の表示位置変更する場合は,操作盤が表示されている反対側の任意の場所をクリックする。
B) 1ページめくり
本の1ページをめくる場合,ページめくり領域の左側小領域102をクリックした後,右側小領域103をクリックする(図5)。どの方向にページをめくるのかを分かりやすくするため矢印が表示される。102をクリックした後,再度クリックすると,ページめくりをキャンセルしたことになる。1ページ戻る場合は,上とは逆の順で103そして102をクリックする
C) 連続ページめくり
連続ページめくりは,パラパラとページを飛ばして読む場合に相当する(図6)。連続ページめくりでページを進める場合は,ページめくり領域102で右方向にドラッグする。斜め右でもよい。連続ページめくりでページを戻る場合は,ページめくり領域103で逆の操作をする。親指をドラッグさせるスピードとページをめくるスピードは連動している。
D) しおり挟み
本を読む際に途中で読むのをやめたり重要なページをチェックしたりしたい場合は,しおりを挟む。25ページにしおりを入れる場合を図7に示す。ページめくり領域102の左上を数秒間押すと,タッチ操作領域スキーマクラスからしおり挟み領域スキーマが呼び出され,そこにしおり挟み領域104が設定・表示される。そのままの状態で右下方向にドラッグすると,紙の角が折れたしおりを入れた状況となる。しおりが入ったページがあると,連続ページめくりはそのページで止まる。しおりの削除は,104中の紙の角が折れた部分をクリックする。
E) 閲覧終了
閲覧の終了は,表示されているページが最初か最後の場合に行える。ページめくり領域の102(103)に表示されている表紙(裏表紙)を数秒間押しっぱなしにする。
【0012】
(具体例2:地図の閲覧)
地図を見る場合は,本の形状をした地図を見るか,大きな地図を広げて見るかが一般的であるが,本例の地図では,タッチインタフェースを利用し随時視点移動や縮尺変更しながら閲覧できる。
図8に示す地図の閲覧の場合,タッチ操作領域スキーマクラスは,上で述べたのと同様のデータ表示領域スキーマと操作盤領域スキーマ以外に,視点移動領域スキーマ,縮尺変更領域スキーマが格納してあるとする。
1.インタフェース
A) データ表示領域(全体)
電子化された地図のデータを表示する。通常は電子化された地図のデータ(ここではYahooで提供されているもの[9])をダウンロードして使用する。
B) 操作盤領域201
視点移動領域,縮尺変更領域や地図上の現在位置の表示を行う。操作盤は表示・非表示が可能である。表示位置は,両手のどちらかの親指が押された部分を中心にして決める。
C) 視点移動領域と縮尺変更領域202
視点移動や縮尺変更の操作の検出,操作モードの変更の検出を行う。
D) 操作モードの表示203
現在行っている操作モードを表示する。
E) 視点位置の表示204
データ表示領域に表示している部分が地図全体のどの辺りかを,縮尺地図中に表示する。
2.操作
地図の閲覧に係わる操作には,操作盤の表示・非表示,視点移動,縮尺変更,閲覧終了等がある。本の場合と同様にどの操作も親指で行う。以下はタッチ操作領域を使用したこれらの操作方法について述べるが,操作盤については上と同じであるため省略する。
A) 視点移動
広域,1/15万および1/7万の3種類の地図を用意しているが,広域とそれ以外では操作法が少し異なる(図9)。広域は,データ表示領域に広域地図データ全体が表示されており,視点移動領域202内を親指で自由にドラッグすると,データ表示領域内の十字カーソルがこれに合わせて移動する。1/15万あるいは1/7万の地図では,データ表示領域にこれら地図データの一部が表示されており,202内を親指で自由にドラッグすると十字カーソルは表示されずに地図自身が移動する。領域202をクリックすると操作モードが縮尺変更に切り替わる。
B) 縮尺変更
縮尺変更はどの縮尺でも操作法は同じである。縮尺変更には拡大・縮小があり,縮尺変更領域202内を下から上方向部に親指をドラッグすると拡大し,逆方向にドラッグすると縮小する(図10)。
領域202をクリックすると視点移動に切り替わる。
C) 閲覧終了
閲覧の終了は,縮尺や操作モードに関係なしに行う。操作領域202を数秒間押しっぱなしにする。
【0013】
(具体例3:スクロール)
現在のOS下におけるスクロール操作はスクロールバーをマウスで動かして行う。ここでは,親指を使ってスクロール操作を行えるインタフェースについて説明する。スクロールバーの全体像を図11に,スクロールの状況を図12示すが,これは巻物を意識してデザインした。
スクロールバーの場合,タッチ操作領域スキーマクラスには,データ表示領域スキーマ,操作盤領域スキーマ,スクロール領域スキーマ,ショートカット領域スキーマが格納してあるとする。
1.インタフェース
A) 操作盤領域
上と同様のため説明は省略する。
B) スクロール領域301,302
スクロール操作の検出を行う。スクロールの方法はドラッグ,クリック,押しっぱなしの3通りである。
C) ショートカット領域303
ファイル名等のリスト表示を行うと同時に,ファイル名のクリック操作の検出を行う。一度に表示できる数は8つである。
2.操作
スクロールに係わる操作には,通常のスクロール,1行スクロール,早送りスクロールの3つである。
A) 通常のスクロール
通常のスクロールはスクロール領域の小領域301で親指によるドラッグで行う(図13)。進むスクロールは,巻物をまくように上から下方向に親指をドラッグさせ,戻るスクロールは,巻物をひろげるように下から上方向に親指をドラッグさせる。親指の動きとスクロールのスピードは連動している。
B) 1行スクロール
1行スクロールはスクロール領域の小領域301と302で親指によるクリックで行う(図14)。301をクリックすると1行進み,302をクリックすると1行戻る。
C) 早送りスクロール
データ量が多い場合のために,早送りスクロールを用意する(図15)。301を親指で数秒間押しっぱなしにすると,速い速度で進むスクロールを行い,302で数秒間押しっぱなしにすると,速い速度で戻るスクロールを行う。
D) ファイル表示
303に表示されたファイル名のクリックで対応するファイルの内容をデータ表示領域に表示する。
【0014】
(具体例4:文字入力)
文字入力は文書作成,メール,インターネット検索等あらゆる場面で必要とされる。文字の入力には一般的にキーボードが使用されるが,マウスを使用する場合はソフトウェアキーボードが用いられる。ここでは親指で効率的に文字の入力ができる方法を示す。
例として,英文字入力のためのインタフェースの全体像を図16に示す。入力操作は文字毎に設定されたタッチ操作小領域間のドラッグやクリックで行う。そのため,ここでは,入力文字全てを表示する必要は無く,入力のための操作領域を小さ目に設定することができ,端末を保持したまま空いた親指だけで入力が可能となる。また,小領域間の親指のドラッグやクリックの方向に意味を持たせることで文字削除も迅速に行える。
文字入力のためのインタフェースでは,タッチ操作領域スキーマクラスに,データ表示領域スキーマ,操作盤領域スキーマ,文字毎に設定された文字表示領域スキーマ,入力削除領域スキーマ,入力切替領域スキーマが格納してあるとする。図17に文字表示領域,入力削除領域および入力切替領域の詳細を示す。
1.インタフェース
A) 文字表示領域401,入力あるいは削除領域402,403と404,1文字削除領域405,連続文字削除領域406
文字入力・削除の検出を行う。ボタン状の文字キーで表わされた文字表示領域ごとの左側に入力削除領域が右側に削除領域が設定される。
B) 入力切替領域407
英文字,かな文字,数字の入力切替の操作,入力終了等の操作の検出を行う。ジョグダイヤル風な表示になっている。
C) 入力文字列の表示408
入力結果を表示する。この文字列は文書作成,メール,インターネット検索等のアプリケーションへの入力となる。
2.操作
文字入力に係わる操作には,入力・削除,入力切替,終了等がある。以下は操作領域を使用したこれらの操作方法について述べる。操作盤については,上記と同じため説明は省略する。
A) 入力・削除
文字入力は文字表示領域内の対応する文字キーをクリックした後,文字毎に設定された入力削除小領域間で方向や順序を考慮してドラッグしたりクリックしたりする。
以下では,英文字を入力する場合について説明する。文字入力インタフェースの起動時には,図17の左での401に示すような文字表示領域が設定・表示され,入力キーとしてa,d,g,j,m,p,s,wのみが表示される。また,各文字キーの左側に入力削除領域が,右側に削除領域が設定される(文字キーが押されてから入力削除スキーマを呼び出し設定してもよい)。この図にはaの周りに設定された入力削除領域402 ,403,404と削除領域405,406を示す。これらの領域は非表示である。設定された操作領域が別に設定された操作領域と重なっていても,誤操作が起きないようになっている。
今aが押されると,図17の右に示すように,入力領域に入力するための文字「a・b・c」が表示される。これらのうちの何れかを入力する場合はaの文字表示領域から操作を行う。以下,「d・e・f」はdの文字表示領域からというふうになっている。「記号」は英文字以外の記号の入力に使う。文字aを入力したい場合はaの部分を押して左方向にある402にドラッグし親指を離すか,aの部分をクリックした後,402をクリックする(図18)。また,bを入力したい場合はaの部分を押して左下方向にある403にドラッグし親指を離すか,aの部分をクリックして403をクリックする。また,先ほど入力したaやbを削除したければ,入力と逆方向の操作をするか,aの部分を押して右方向の405にドラッグする。405にドラッグした状況で上方向の406にドラッグし削除領域を押し続けるとその分,aより前に入力された文字列が連続して削除できる(図17)。
B) 入力切替
入力の切替は入力切替領域を左右にドラッグすると,英字,仮名,数字の入力用に切替られる(図19)。
C) 終了
入力切替部をクリックする。
【0015】
【発明の効果】
以上の説明で明らかなように,本発明のコンピュータのタッチインタフェースは,次世代のPC操作スタイルとして本を読むような,従来の操作スタイルにないスタイルつまり,PCを両手で持ち,マウスやボタンではなく指による新しい手段を用いて歩きながら,または寝転びながらメールやインターネット検索できたり,新聞を端末にダウンロードして続きを電車の中で読めたり,コンピュータにインストールした各種アプリケーションを開いて操作できたりする等,様々な操作が誰でも簡単容易に且つ迅速的確に実現可能なスタイルのインタフェースである。

Figure 2004355106

【図面の簡単な説明】
【図 1】タッチ操作領域を使った操作方法(その1)を示す
【図 2】タッチ操作領域を使った操作方法(その2)を示す
【図 3】本発明タッチインタフェース実現のためのブロック線図である
【図 4】実施例1:本を閲覧用するためのインタフェースの説明図である。
【図 5】本閲覧における1ページめくりの説明図である。
【図 6】本閲覧における連続ページめくりの説明図である。
【図 7】本閲覧におけるしおり挟みの説明図である。
【図8】実施例2:地図を閲覧用するためのインタフェースの説明図である。
【図 9】地図閲覧における視点移動の説明図である。
【図10】地図閲覧における地図の拡大縮小の説明図である。
【図11】実施例3:スクロールバーのためのインタフェースの説明図である。
【図12】スクロールの状況を示すグラフィック表示のための説明図である。
【図13】一般的なスクロールを行っている状況を示す説明図である。
【図14】1行スクロールの状況を示す説明図である。
【図15】早送りスクロールの状況を示す説明図である。
【図16】実施例4:文字入力のためのインタフェースの説明図である。
【図17】文字入力・削除のための操作領域の説明図である。
【図18】文字入力の状況を示す説明図である。
【図19】入力文字種を切替える操作のための説明図である。
【符号の説明】
001: コンピュータディスプレイ装置の画面
002: タッチ可能領域
003: タッチ検出機構
004: GUI部品データベース
005: 部品描画機構
006: タッチ操作領域スキーマクラス
007: タッチ操作制御機構
008: アプリケーションデータベース
009: データ表示機構
101: 本閲覧のための操作盤領域
102, 103: 本閲覧のためのページめくり領域
104: 本閲覧のためのしおり挟み領域
105: 本閲覧における厚みの表示
106: 本閲覧におけるページ数の表示
201: 地図閲覧における操作盤領域
202: 地図閲覧における視点移動領域(縮尺変更領域)
203: 地図閲覧のための操作モードの表示
204: 地図閲覧のための現在の視点位置の表示
301,302: スクロールのためのスクロール領域
303: スクロールのためのショートカット領域
401: 文字入力における文字表示領域
402, 403, 404: 文字の入力あるいは削除のための領域
405, 406: 文字の1字あるいは連続文字削除のための領域
407: 文字入力のための入力文字を切替る領域
408: 文字入力のための入力文字列の表示[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a computer touch interface.
[0002]
[Prior art]
At present, the ubiquitous network era, in which computers and home appliances are connected via a network, and the network can be accessed from anywhere at any time via an information terminal, is entering the era of ubiquitous networks.
In the development of mobile phones, video game devices, information appliances, etc., which play a leading role in the ubiquitous network, not only technologies but also users of the ubiquitous network must be considered. Is researching and developing new information terminals and interfaces to enable easy use of ubiquitous networks.
The notebook PC [1], which aims to be a client in the ubiquitous network era, employs a character input method that allows each function to be operated while holding it with both hands and a keyboard that allows key operations with only the left thumb.
Further, with the development of an OS for a tablet PC [2], a tablet PC equipped with the OS has been developed.
There are two types of tablet PCs, a compatible type and a pure tablet type. The compatible type is basically the same as a notebook PC, but the display device can be rotated. The pure tablet type has a panel-shaped keyboard and There is no mouse and it supports handwriting pen input.
On the other hand, although the directions are different from the above two, the commercialization of a new medium called electronic paper is on the horizon [3], as introduced in recent newspapers, etc., and electronic paper uses both paper and display devices. It is a display medium that has the characteristics described above, and has the potential as a client in the ubiquitous network era.
Based on these technological trends, information terminals in the future ubiquitous network era are shaped like pure tablet-type tablet PCs and electronic paper, and can be held with both hands as if reading a book, and were vacant. It can be assumed that a device that directly operates the screen with a finger is widely used.
[0003]
[Problems to be solved by the invention]
When considering such a new type of information terminal, the GUI of the existing OS cannot be applied as it is.
This is because an existing GUI is designed on the assumption that a mouse, a keyboard, and a pen are used, and therefore, when operated with a finger, erroneous operations frequently occur.
A new feature of the interface, which can be operated efficiently with fingers, is that it can be operated in a book-reading style, the screen can be operated directly using both thumbs, and the dominant hand and terminal can be used. For example, a design can be made in consideration of the position of the hand held, and an operation area can be set and input can be made in various forms.
Studies related to finger operation [4] [5] [6] have also been made, but these are applied to general touch panel operation in which the arm is lifted and operated with the index finger, and mobile terminals. It is.
Pen input is currently the mainstream for mobile terminals [7] [8], but considering an information terminal with a large screen such as a pure tablet, it is easy to perform pen input while holding the terminal with one hand. is not.
In the next-generation style of operation using two hands, such as reading a book, the user can look at the map in detail while walking, send and receive e-mails and e-learning while lying down, search multimedia information, There are a variety of ways to use it, such as downloading a newspaper to a terminal and reading the rest on a train. To achieve this, a touch interface that allows various operations with fingers is required. .
[0004]
[Means for Solving the Problems]
The present invention has been developed for a screen terminal as an information terminal capable of directly operating a screen predicted independently, and a new interface capable of performing various operations efficiently is developed.
The features are described below, and four specific examples are introduced: book browsing, map browsing, scrolling, and character input.
The feature of the present invention resides in that various touch operation area schemas are stored in advance for each application, and a touch operation area schema required at the time of controlling the execution of the selection application on the screen portion is called, and the touch operation area schema is based on this. Is set and displayed at a requested coordinate position on the screen unit of the display device, and the application on the screen unit is operated based on detection signals regarding the presence / absence / order of clicks in the touch operation area and the direction of dragging. There.
[0005]
BEST MODE FOR CARRYING OUT THE INVENTION
The touch interface of the present invention holds the screen terminal with both hands, and sets and displays various touch operation areas according to each application in a touchable area centered on a portion touched by the fingers of both opened hands. Clicking on key points with your fingertips or dragging between key points in a specific direction allows you to freely operate the application and eliminate the need for a keyboard or mouse.
In the present invention, the touch operation area set and displayed in the touchable area of the screen is an area defined by the upper left of the coordinates provided on the screen and defined by the width and height thereof. This is an area for detecting how to touch.
These areas are often divided into several small areas, and in this case, the direction and order of touches are also important detection signals.
The present invention sets and displays various touch operation areas according to an application on a screen, and performs various touch operations such as finger movement by clicking and dragging in the operation area and finger movement by clicking and dragging between touch operation sub-areas. Various input operations are enabled in a manner.
The way of touching is such that the actual operation method in normal life can be taken as it is for each application.
For example, when actually turning a book, the user moves his / her hand from left to right, but turning pages of an electronic book as one application is performed by moving his / her finger from left to right.
FIGS. 1 and 2 show examples of the touch operation area schema, and how to touch the operation area and examples thereof are shown below.
Click on small area A (B), then click on small area B (A)
Example: Turn one page to the right (left) and enter characters (delete)
Click small area A (B)
Example: Scroll one line up (down)
Drag inside small area A (B)
Example: Continuous page turning to the right (bottom), normal scrolling to the top (bottom)
Drag from small area A (B) to small area B (A)
Example: Character input (erase)
Press for a few seconds in small area A (B)
Example: scroll up (down), end operation
Click area C
Example: Show / hide operation panel, delete bookmark, switch operation method
Drag in area C
Example: Moving the viewpoint in the map, enlarging / reducing the map
Press inside area C for a few seconds
Example: Bookmarking, end of operation
In the touch interface according to the present invention, the touchable area set on the screen unit may be provided on a display device of a computer, or may be provided on a remote control display device separate from the display device for further simplification. .
The screen terminal may be an existing information terminal. The minimum requirement is an information terminal equipped with a display device that can directly operate the screen with a finger. (Information terminal with a narrow width from the edge of the terminal to the screen).
As long as this condition is satisfied, any information terminal such as a notebook PC, tablet PC, and electronic paper can be used, and the screen can be operated at any size.
The operation of the screen terminal by a finger is detected by a display device having a touchable area that can be sensed by a suitable contact sensor such as a photo sensor, a magnetic sensor, an electrostatic sensor, and a pressure sensor.
It is desirable that the width between the edge of the terminal and the screen is small, but this is because the screen is operated with a finger while holding the screen terminal. The screen size is preferably about 14 inches because the possible range is narrowed.
There is a concern that the screen may become larger, which may cause privacy problems, so that others can see the screen. However, privacy films have been developed to prevent the characters on the screen from being seen from outside 45 degrees left and right. There is no problem in that regard.
The screen resolution is preferably 1024 × 768 pixels or more, and the mass is preferably 1 kg or less.
[0006]
FIG. 3 shows an overall image of the touch interface of the computer of the present invention.
The touch interface displays a touch-sensitive area 002 of a contact sensing sensor type provided on a screen 001 of a display device of a computer, a touch detection mechanism 003 for detecting a touch state there, and a touch operation area in the touch-enabled area 002. And a touch operation area schema class 006 storing various touch operation area schemas for various applications, and application data 008 handled by the application is displayed on the screen 001. A touch panel control mechanism 007 for exchanging information with the data display mechanism 009 for enabling display, the touch detection mechanism 003, and the component drawing mechanism 005.
[0007]
The touch operation control mechanism 007, after recognizing the currently activated application, determines the input position of the finger in the touch operation area displayed in the touchable area 002 and the input method such as click / drag by the touch detection mechanism 003. Is detected, the significance of the input is judged and transmitted to the data display mechanism 009 to display the corresponding application data 008. If necessary, the touch operation area schema class 006 outputs a new application data 008 corresponding to the display status of the application data 008. An appropriate touch operation area schema is taken out, a corresponding image is taken out from the GUI part database 004 through the part drawing mechanism 005 based on this, and the touch operation area is set and displayed in the touchable area 002.
In the touchable area 002, even if the same coordinates are touched with a finger, a different touch operation area is set and displayed depending on the activated application or the status of the application, so that different inputs can be performed.
The touch operation area schema class 006 stores various touch operation area schemas corresponding to applications, and is a library and database of the touch operation area schema.
Therefore, when a new operation method is developed, the touch operation area schema is added to the touch operation area schema class 006, and when a certain operation method becomes unnecessary, the corresponding touch operation area schema is deleted. Is possible.
[0008]
The touch detection mechanism 003 detects an input position where a finger is input and an input method such as click / drag in the set touchable area 002, and sends a touch operation control mechanism 007 from the touch operation area schema class 006 to the application data. A new touch operation area schema corresponding to the display state of 008 is called, and set and displayed in the touchable area 002.
The component drawing mechanism 005 determines the signal detected by the touch detection mechanism 003 every time a click / drag is performed in the touch operation area, and the touch operation control mechanism 007 determines the signal. The area schema is called from the touch operation area schema class 006, the related image is extracted from the GUI component database 004, and drawn in the touchable area 002 of the screen 001.
The GUI parts database 004 is a database of images, and the images stored therein are images and character fonts used for setting / displaying a touch operation area for various applications. , Through the touch operation control mechanism 007.
Examples of the touch operation area drawn using various components in the component database 004 of this example will be described later with detailed drawings.
The data display mechanism 009 has a role of linking the touch operation control mechanism 007 and the application data 008. For example, it downloads application data or converts the downloaded data so that it can be operated with a touch interface.
The application database 8 stores existing data such as digitized books and maps that are not specialized for an application, but the data display mechanism 009 can control an application that specializes in an application and handles it. Can be treated in the same way as non-specialized ones.
[0009]
The operation of the application or the like is performed by the touch detection mechanism 003, such as the position, the number, the order, and the like of the touches on the touch operation area, or a single or plural clicks, a drag in the same area, a drag direction between the small areas, and the like. Is detected and the significance of the signal is determined, and the determination signal is transmitted to the touch operation control mechanism 007.
[0010]
DESCRIPTION OF THE PREFERRED EMBODIMENTS
Next, as an example of an application using the touch interface, book browsing, map browsing, scrolling, and character input are taken up, and an interface state and an operation method using a touch operation area in these are described.
[0011]
(Specific example 1: book reading)
In the case of browsing the book in FIG. 4, it is assumed that the data display area schema, the operation panel area schema, the page turning area schema, and the bookmark area schema are stored in the touch operation area schema class, and the book browsing application is started. At this time, the touch operation control mechanism sets and displays a touch operation area for these schemas together with the digitized data of the book on the screen.
It is assumed that the GUI parts database for browsing a book stores an image representing the book thickness, a number representing the number of pages, and the like, in addition to the images for displaying these schemas.
1. interface
A) Data display area (whole)
Display the digitized book data. Normally, electronic book data is downloaded from the outside and used. FIG. 4 shows data of 450 × 650 pixels.
B) Operation panel area 101
The setting and display of a page turning operation area, a bookmark sandwiching area, and the number of pages are performed. The operation panel can be displayed or made transparent (hereinafter, referred to as non-display). The display position is determined based on the part where either thumb of both hands is pressed.
C) Page turning areas 102 and 103
Detects page turning operation. The pages except the first and last pages are blank pages as shown in the figure, but the first page displays the book data cover and the last page displays the book data back cover.
D) Bookmark sandwiching area 104
The operation of inserting a bookmark is detected. When this operation is performed, the bookmark becomes visible with the corners of the paper folded. When a drag operation for deleting a bookmark is performed, the bookmark is hidden.
E) Display of thickness 105
Make the remaining pages of the book visually recognizable. At both ends of the operation panel area 101, the right and left amounts are adjusted and displayed according to the ratio of the total number of pages. Any number of pages is possible.
F) Number of pages display 106
Displays the current page of the book as a number. Not displayed at the beginning and end of the book. The number of pages that can be displayed is 9999.
G) Page direction display (arrow in the center of the operation panel)
Displays the direction in which the page is turned. This is displayed when a page turning operation is performed. When the page is turned or the page is canceled, the display disappears.
2. operation
Operations related to book browsing include display / non-display of the operation panel, turning of one page, turning of continuous pages, sandwiching of bookmarks, end of browsing, and the like. Since all operations are performed with the thumb, there is no need for accuracy, so the operation has a margin. Hereinafter, these operation methods using the touch operation area will be described.
A) Operation panel display
When the book browsing application is activated, the operation panel is displayed. To hide the operation panel, click the data display area other than the operation panel area on the side where it is displayed. To display the data again, the user clicks an arbitrary position in the data display area, and the data is displayed in the hidden position. To change the display position of the operation panel, click anywhere on the opposite side where the operation panel is displayed.
B) Turn one page
When turning one page of a book, the user clicks on the small area 102 on the left side of the page turning area and then on the small area 103 on the right side (FIG. 5). Arrows are displayed to make it easier to see which direction to turn the page. Clicking again after clicking on 102 indicates that page turning has been cancelled. To go back one page, click 103 and 102 in reverse order
C) Continuous page turning
Consecutive page turning corresponds to a case of skipping pages and reading (FIG. 6). To advance the page by continuous page turning, the user drags rightward in the page turning area 102. It may be diagonally right. When returning to a page by continuous page turning, the reverse operation is performed in the page turning area 103. The speed of dragging the thumb and the speed of turning the page are linked.
D) Bookmark
If you want to stop reading or check important pages when reading a book, insert a bookmark. FIG. 7 shows a case where a bookmark is placed on 25 pages. When the upper left of the page turning area 102 is pressed for a few seconds, the bookmark sandwiching area schema is called from the touch operation area schema class, and the bookmark sandwiching area 104 is set and displayed there. If you drag it to the lower right in this state, the corner of the paper will have a broken bookmark. If there is a page with a bookmark, continuous page turning stops at that page. To delete a bookmark, click on the portion of the paper 104 where the corner of the paper is broken.
E) End browsing
The browsing can be ended when the displayed page is the first or last page. The cover (back cover) displayed at 102 (103) of the page turning area is kept pressed for several seconds.
[0012]
(Specific example 2: Map browsing)
When viewing a map, it is common to look at a map in the shape of a book or to enlarge a large map, but in the case of the map in this example, the user uses the touch interface to browse while moving the viewpoint and changing the scale at any time. it can.
In the case of viewing the map shown in FIG. 8, the touch operation area schema class stores a viewpoint movement area schema and a scale change area schema in addition to the data display area schema and the operation panel area schema similar to those described above. Suppose there is.
1. interface
A) Data display area (whole)
Display the digitized map data. Normally, electronic map data (here [9] provided by Yahoo [9]) is downloaded and used.
B) Operation panel area 201
It displays the viewpoint movement area, scale change area, and current position on the map. The operation panel can be displayed or hidden. The display position is determined based on the part where either thumb of both hands is pressed.
C) Viewpoint movement area and scale change area 202
It detects the operation of changing the viewpoint and changing the scale, and detects the change of the operation mode.
D) Operation mode display 203
Displays the current operation mode.
E) Viewpoint position display 204
The area displayed in the data display area on the entire map is displayed on the reduced scale map.
2. operation
The operations related to browsing the map include displaying / hiding the operation panel, moving the viewpoint, changing the scale, and finishing browsing. All operations are performed with the thumb as in the case of a book. Hereinafter, these operation methods using the touch operation area will be described, but the operation panel is the same as the above and will not be described.
A) Move the viewpoint
There are three types of maps, wide area, 1 / 150,000 and 1 / 70,000, but the operation method is slightly different between wide area and other areas (Fig. 9). In the wide area, the entire wide area map data is displayed in the data display area. When the thumb is freely dragged in the viewpoint moving area 202, the cross cursor in the data display area moves in accordance with this. In a 1 / 150,000 or 1 / 70,000 map, a part of the map data is displayed in the data display area. If the user freely drags the inside of the map 202 with the thumb, the map itself moves without displaying the cross cursor. . When the area 202 is clicked, the operation mode is switched to the scale change.
B) Scale change
The operation of changing the scale is the same at any scale. The scale change includes enlargement / reduction. Dragging the thumb from the bottom upward in the scale change area 202 enlarges the scale, and dragging the thumb in the opposite direction reduces the scale (FIG. 10).
When the area 202 is clicked, it switches to viewpoint movement.
C) End of browsing
The browsing is finished regardless of the scale or operation mode. The operation area 202 is kept pressed for several seconds.
[0013]
(Specific example 3: scroll)
The scroll operation under the current OS is performed by moving a scroll bar with a mouse. Here, an interface that allows a scroll operation using the thumb will be described. FIG. 11 shows the overall image of the scroll bar, and FIG. 12 shows the state of scrolling. This was designed with the scroll in mind.
In the case of a scroll bar, it is assumed that a data display area schema, an operation panel area schema, a scroll area schema, and a shortcut area schema are stored in the touch operation area schema class.
1. interface
A) Operation panel area
The description is omitted because it is the same as above.
B) Scroll areas 301 and 302
Detect scroll operation. There are three scrolling methods: dragging, clicking, and holding down.
C) Shortcut area 303
At the same time as displaying a list of file names, etc., a click operation of the file name is detected. The number that can be displayed at one time is eight.
2. operation
There are three operations related to scrolling: normal scrolling, one-line scrolling, and fast-forward scrolling.
A) Normal scroll
Normal scrolling is performed by dragging with the thumb in the small area 301 of the scroll area (FIG. 13). A forward scroll causes the thumb to drag from top to bottom to roll the scroll, and a backward scroll causes the thumb to drag from bottom to top to spread the scroll. Thumb movement and scrolling speed are linked.
B) Single line scroll
One-line scrolling is performed by clicking with the thumb in the small areas 301 and 302 of the scroll area (FIG. 14). Clicking on 301 advances one line, clicking on 302 returns one line.
C) Fast forward scroll
For a case where the data amount is large, a fast-forward scroll is prepared (FIG. 15). If the button 301 is held down for a few seconds with the thumb, scrolling at a high speed is performed. If the button 301 is pressed for a few seconds at 302, a scrolling back at a high speed is performed.
D) File display
By clicking on the file name displayed in 303, the contents of the corresponding file are displayed in the data display area.
[0014]
(Specific example 4: Character input)
Character input is required in all situations, such as document creation, e-mail, and Internet search. In general, a keyboard is used for inputting characters. When a mouse is used, a software keyboard is used. Here, a method for efficiently inputting characters with the thumb will be described.
As an example, FIG. 16 shows an overall image of an interface for inputting English characters. The input operation is performed by dragging and clicking between the touch operation small areas set for each character. Therefore, here, it is not necessary to display all the input characters, the operation area for input can be set small, and input can be performed with only the empty thumb while holding the terminal. Characters can be deleted quickly by giving meaning to the direction of dragging and clicking between the small areas with the thumb.
In the interface for character input, the touch operation area schema class stores the data display area schema, operation panel area schema, character display area schema set for each character, input deletion area schema, and input switching area schema. And FIG. 17 shows details of the character display area, the input deletion area, and the input switching area.
1. interface
A) Character display area 401, input or deletion areas 402, 403 and 404, one-character deletion area 405, continuous character deletion area 406
Detects character input / deletion. An input deletion area is set on the left and a deletion area is set on the right for each character display area represented by a button-shaped character key.
B) Input switching area 407
It detects operations such as input switching of English characters, kana characters, and numbers, and input termination. The display looks like a jog dial.
C) Display of input character string 408
Display the input result. This character string is input to applications such as document creation, mail, and Internet search.
2. operation
Operations related to character input include input / deletion, input switching, and termination. The following describes these operation methods using the operation area. The operation panel is the same as above, and the description is omitted.
A) Input / Delete
For character input, after clicking the corresponding character key in the character display area, drag or click between the input deletion small areas set for each character in consideration of the direction and order.
The following describes a case in which English characters are input. When the character input interface is activated, a character display area as shown at 401 on the left side of FIG. 17 is set and displayed, and only a, d, g, j, m, p, s, and w are displayed as input keys. . Further, an input deletion area is set on the left side of each character key and a deletion area is set on the right side (the input deletion schema may be called and set after the character key is pressed). This figure shows input deletion areas 402, 403, 404 and deletion areas 405, 406 set around "a". These areas are not displayed. Even if the set operation area overlaps with the separately set operation area, an erroneous operation does not occur.
When "a" is pressed, characters "abc" to be input to the input area are displayed as shown on the right side of FIG. When inputting any of these, the operation is performed from the character display area of a. Hereinafter, "def" is from the character display area of d. "Symbol" is used to enter symbols other than English characters. To enter the character a, press the part a and drag it to the left 402 and release the thumb, or click the part a and then click 402 (FIG. 18). To input "b", the user presses the part "a" and drags it to the lower left direction 403, and releases his thumb, or clicks the part "a" and clicks the button 403. If the user wants to delete the previously input a or b, the user operates in the opposite direction to the input or presses the part a and drags it to the right 405. In the situation where the character string is dragged to 405, by dragging upward to 406 and continuing to press the deletion area, the character string input before a can be continuously deleted accordingly (FIG. 17).
B) Input switching
Input switching is performed by dragging the input switching area to the left or right, for inputting alphabetic characters, kana, and numbers (FIG. 19).
C) End
Click the input switching section.
[0015]
【The invention's effect】
As is apparent from the above description, the touch interface of the computer according to the present invention has a style that does not exist in the conventional operation style, such as reading a book as a next-generation PC operation style. You can search for emails and the Internet while walking or lying down using new means with your fingers, download newspapers to your terminal and read the rest on the train, open and operate various applications installed on your computer This is a style interface that allows anyone to easily, easily, and quickly perform various operations.
Figure 2004355106

[Brief description of the drawings]
FIG. 1 shows an operation method (part 1) using a touch operation area.
FIG. 2 shows an operation method (part 2) using a touch operation area.
FIG. 3 is a block diagram for realizing the touch interface of the present invention.
FIG. 4 is an explanatory diagram of an interface for browsing a book according to the first embodiment.
FIG. 5 is an explanatory diagram of turning one page in book browsing.
FIG. 6 is an explanatory diagram of continuous page turning in book reading.
FIG. 7 is an explanatory diagram of a bookmark sandwiched in the main browsing.
FIG. 8 is an explanatory diagram of an interface for browsing a map according to a second embodiment.
FIG. 9 is an explanatory diagram of viewpoint movement in map browsing.
FIG. 10 is an explanatory diagram of enlargement / reduction of a map when viewing the map.
FIG. 11 is an explanatory diagram of an interface for a scroll bar according to a third embodiment.
FIG. 12 is an explanatory diagram for a graphic display showing a scroll state.
FIG. 13 is an explanatory diagram showing a situation in which general scrolling is performed.
FIG. 14 is an explanatory diagram showing a state of one-line scroll.
FIG. 15 is an explanatory diagram showing a state of fast-forward scrolling.
FIG. 16 is an explanatory diagram of an interface for inputting characters.
FIG. 17 is an explanatory diagram of an operation area for character input / deletion.
FIG. 18 is an explanatory diagram showing a state of character input.
FIG. 19 is an explanatory diagram for an operation of switching an input character type.
[Explanation of symbols]
001: Screen of computer display device
002: Touchable area
003: Touch detection mechanism
004: GUI parts database
005: Parts drawing mechanism
006: Touch operation area schema class
007: Touch operation control mechanism
008: Application database
009: Data display mechanism
101: Operation panel area for book reading
102, 103: Page turning area for book browsing
104: Bookmark sandwich area for book reading
105: Thickness display in book reading
106: Display of number of pages in book browsing
201: Operation panel area for map browsing
202: Viewpoint movement area (scale change area) in map browsing
203: Display of operation mode for browsing the map
204: Display of current viewpoint position for browsing the map
301, 302: scroll area for scrolling
303: Shortcut area for scrolling
401: Character display area for character input
402, 403, 404: area for inputting or deleting characters
405, 406: Area for deleting one character or continuous characters
407: Area for switching input characters for character input
408: Display of input character string for character input

Claims (1)

予めアプリケーションごとに応じて種々のタッチ操作領域スキーマを格納しておき,画面部への選定アプリケーションの実行制御時に必要なタッチ操作領域スキーマを呼び出し,これを基にタッチ操作領域をディスプレイ装置の画面部の要求された座標位置に設定・表示し,そのタッチ操作領域でのクリックの有無・順序やドラッグの方向等についての検出信号に基づき,画面部の前記アプリケーションを操作することを特徴とするコンピュータのタッチインタフェース。A variety of touch operation area schemas are stored in advance for each application, and a touch operation area schema required for controlling execution of an application selected on the screen is called, and based on this, the touch operation area is displayed on the screen of the display device. The computer is characterized in that the application is set and displayed at the requested coordinate position, and the application on the screen is operated based on a detection signal regarding the presence / absence / order of the touch operation area and the direction of dragging. Touch interface.
JP2003149166A 2003-05-27 2003-05-27 Touch interface of computer Pending JP2004355106A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003149166A JP2004355106A (en) 2003-05-27 2003-05-27 Touch interface of computer

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003149166A JP2004355106A (en) 2003-05-27 2003-05-27 Touch interface of computer

Publications (1)

Publication Number Publication Date
JP2004355106A true JP2004355106A (en) 2004-12-16

Family

ID=34045352

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003149166A Pending JP2004355106A (en) 2003-05-27 2003-05-27 Touch interface of computer

Country Status (1)

Country Link
JP (1) JP2004355106A (en)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100896711B1 (en) * 2007-02-08 2009-05-11 삼성전자주식회사 Method for executing function according to tap in mobile terminal with touch screen
JP2009145459A (en) * 2007-12-12 2009-07-02 Nec Networks & System Integration Corp Display control system for electronic paper
JP2011198316A (en) * 2010-03-24 2011-10-06 Nec Casio Mobile Communications Ltd Terminal device and program
JP2011203956A (en) * 2010-03-25 2011-10-13 Nec Casio Mobile Communications Ltd Terminal apparatus and program
JP2012079315A (en) * 2010-10-01 2012-04-19 Samsung Electronics Co Ltd Device and method for turning page on electronic book on portable terminal
JP2012088801A (en) * 2010-10-15 2012-05-10 Canvas Mapple Co Ltd Electronic book device and electronic book program
JP2012113715A (en) * 2010-11-22 2012-06-14 Samsung Electronics Co Ltd Item selection device and method using movement of object
CN102622172A (en) * 2011-01-17 2012-08-01 夏普株式会社 Display device and display method
JP2013020652A (en) * 2007-09-13 2013-01-31 Apple Inc Input methods for device having multi-language environment
JP2013101619A (en) * 2011-11-08 2013-05-23 Samsung Electronics Co Ltd Method and device for executing reading of e-book on electronic device with touch screen
EP2645222A1 (en) 2012-03-30 2013-10-02 Fujitsu Limited Portable electronic apparatus, scroll processing method, and scroll processing program
JP2015108902A (en) * 2013-12-03 2015-06-11 株式会社ミツトヨ Portable touch panel terminal, display control method therefor, and computer program
JP2016018342A (en) * 2014-07-07 2016-02-01 大日本印刷株式会社 Information processor, display control method, and display control program
JPWO2014030679A1 (en) * 2012-08-22 2016-07-28 日本電気株式会社 Electronic device, document display method, and program
JP2016525763A (en) * 2013-08-16 2016-08-25 ゼットティーイー コーポレイション Screen edge touch control optimization method, apparatus and terminal
US9678572B2 (en) 2010-10-01 2017-06-13 Samsung Electronics Co., Ltd. Apparatus and method for turning e-book pages in portable terminal
US10073595B2 (en) 2010-10-01 2018-09-11 Samsung Electronics Co., Ltd. Apparatus and method for turning E-book pages in portable terminal

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9641749B2 (en) 2007-02-08 2017-05-02 Samsung Electronics Co., Ltd. Onscreen function execution method for mobile terminal having a touchscreen
KR100896711B1 (en) * 2007-02-08 2009-05-11 삼성전자주식회사 Method for executing function according to tap in mobile terminal with touch screen
US9395913B2 (en) 2007-02-08 2016-07-19 Samsung Electronics Co., Ltd. Onscreen function execution method for mobile terminal having a touchscreen
US9041681B2 (en) 2007-02-08 2015-05-26 Samsung Electronics Co., Ltd. Onscreen function execution method for mobile terminal having a touchscreen
JP2013020652A (en) * 2007-09-13 2013-01-31 Apple Inc Input methods for device having multi-language environment
JP2009145459A (en) * 2007-12-12 2009-07-02 Nec Networks & System Integration Corp Display control system for electronic paper
JP2011198316A (en) * 2010-03-24 2011-10-06 Nec Casio Mobile Communications Ltd Terminal device and program
JP2011203956A (en) * 2010-03-25 2011-10-13 Nec Casio Mobile Communications Ltd Terminal apparatus and program
JP2012079302A (en) * 2010-10-01 2012-04-19 Samsung Electronics Co Ltd Device and method for turning page on electronic book on portable terminal
JP2012079315A (en) * 2010-10-01 2012-04-19 Samsung Electronics Co Ltd Device and method for turning page on electronic book on portable terminal
US10073595B2 (en) 2010-10-01 2018-09-11 Samsung Electronics Co., Ltd. Apparatus and method for turning E-book pages in portable terminal
US9678572B2 (en) 2010-10-01 2017-06-13 Samsung Electronics Co., Ltd. Apparatus and method for turning e-book pages in portable terminal
US9557910B2 (en) 2010-10-01 2017-01-31 Samsung Electronics Co., Ltd. Apparatus and method for turning E-book pages in portable terminal
JP2012088801A (en) * 2010-10-15 2012-05-10 Canvas Mapple Co Ltd Electronic book device and electronic book program
JP2012113715A (en) * 2010-11-22 2012-06-14 Samsung Electronics Co Ltd Item selection device and method using movement of object
CN102622172A (en) * 2011-01-17 2012-08-01 夏普株式会社 Display device and display method
JP2012150566A (en) * 2011-01-17 2012-08-09 Sharp Corp Display device, display method, computer program, and recording medium
JP2013101619A (en) * 2011-11-08 2013-05-23 Samsung Electronics Co Ltd Method and device for executing reading of e-book on electronic device with touch screen
EP2645222A1 (en) 2012-03-30 2013-10-02 Fujitsu Limited Portable electronic apparatus, scroll processing method, and scroll processing program
JPWO2014030679A1 (en) * 2012-08-22 2016-07-28 日本電気株式会社 Electronic device, document display method, and program
JP2016525763A (en) * 2013-08-16 2016-08-25 ゼットティーイー コーポレイション Screen edge touch control optimization method, apparatus and terminal
JP2015108902A (en) * 2013-12-03 2015-06-11 株式会社ミツトヨ Portable touch panel terminal, display control method therefor, and computer program
JP2016018342A (en) * 2014-07-07 2016-02-01 大日本印刷株式会社 Information processor, display control method, and display control program

Similar Documents

Publication Publication Date Title
US11698716B2 (en) Systems, methods, and user interfaces for interacting with multiple application windows
US10656752B1 (en) Gesture-equipped touch screen system, method, and computer program product
US10379736B2 (en) Information processing apparatus, information processing method, and program for changing layout of displayed objects
TWI493427B (en) Electronic device and user interface display method thereof
US7966573B2 (en) Method and system for improving interaction with a user interface
RU2421777C2 (en) Improved pocket computer and associated method
US9292111B2 (en) Gesturing with a multipoint sensing device
US9317197B2 (en) Storage medium storing information processing program to be executed by computer of information processor to perform a process according to an input to touch surfaces
US5917493A (en) Method and apparatus for randomly generating information for subsequent correlating
AU2007209926B2 (en) Gesturing with a multipoint sensing device
EP2480957B1 (en) Device, method, and graphical user interface for manipulating user interface objects
US20110216015A1 (en) Apparatus and method for directing operation of a software application via a touch-sensitive surface divided into regions associated with respective functions
JP2004355106A (en) Touch interface of computer
US9256588B1 (en) Transferring content to a substantially similar location in a virtual notebook using a stylus enabled device
JP2011022842A (en) Display apparatus, display method, and program
KR20070049944A (en) System and method for navigating content in an item
AU2010292231A2 (en) A system and method for displaying, navigating and selecting electronically stored content on a multifunction handheld device
US20150347001A1 (en) Electronic device, method and storage medium
US20100077304A1 (en) Virtual Magnification with Interactive Panning
JP2014075044A (en) Information processor and program
JP2007233649A (en) Information appliance and processing switch program when using tablet
AU2012269732B2 (en) A system, method and computer program for interacting with data
KR20100041150A (en) A method for controlling user interface using multitouch
JP5749245B2 (en) Electronic device, display method, and display program
JP2022035813A (en) Information processing apparatus and program