JP2014086018A - Input device, angle input device, and program - Google Patents

Input device, angle input device, and program Download PDF

Info

Publication number
JP2014086018A
JP2014086018A JP2012236831A JP2012236831A JP2014086018A JP 2014086018 A JP2014086018 A JP 2014086018A JP 2012236831 A JP2012236831 A JP 2012236831A JP 2012236831 A JP2012236831 A JP 2012236831A JP 2014086018 A JP2014086018 A JP 2014086018A
Authority
JP
Japan
Prior art keywords
input
angle
finger
point
touch screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012236831A
Other languages
Japanese (ja)
Other versions
JP5427940B1 (en
Inventor
Ryosuke Aoki
良輔 青木
Shunichi Seko
俊一 瀬古
Ryo Hashimoto
遼 橋本
Yasuyuki Kataoka
泰之 片岡
Masayuki Ihara
雅行 井原
Masahiro Watanabe
昌洋 渡辺
Toru Kobayashi
透 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2012236831A priority Critical patent/JP5427940B1/en
Application granted granted Critical
Publication of JP5427940B1 publication Critical patent/JP5427940B1/en
Publication of JP2014086018A publication Critical patent/JP2014086018A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)
  • Input From Keyboards Or The Like (AREA)

Abstract

PROBLEM TO BE SOLVED: To enable a user to fast input characters without viewing a screen by using simple touch operations easy to remember.SOLUTION: An input device 100 includes: a touch screen 2 for input/output of information; a storage unit 3 in which a character conversion table 31 having a plurality of input values corresponding to respective combinations of a first angular range and a second angular range is stored; and a character input processing unit 12 which performs first detection of detecting a first angle formed between a line from a first start point to a first end point of a drag operation and a first coordinate system in response to input of a first operation on the touch screen 2 and second detection of detecting a second angle formed between a line from a second start point to a second end point of a drag operation in response to input of a second operation with the first end point as the start point, following the first operation, and determines an input value on the basis of the character conversion table 31 in accordance with the combination between the first angular range corresponding to the first angle and the second angular range corresponding to the second angle.

Description

この発明は、タッチスクリーンで情報を入力する入力装置、角度入力装置およびプログラムに関する。   The present invention relates to an input device for inputting information on a touch screen, an angle input device, and a program.

近年、スマートフォンやタブレットのようなマルチタッチスクリーンを持つ携帯端末が普及しつつある。これらの端末の市場規模は大きいため、最新の機能やアプリケーションの導入が早く、便利なコミュニケーション端末になりつつある。この現状の中で、視覚障がい者にとってもその端末の恩恵を享受できることが好ましく、彼らからは健常者が利用している端末を利用したいという要望があげられている。   In recent years, portable terminals having a multi-touch screen, such as smartphones and tablets, are becoming popular. Since the market size of these terminals is large, the introduction of the latest functions and applications is fast, and it is becoming a convenient communication terminal. In this situation, it is preferable that visually impaired persons can enjoy the benefits of the terminal, and there is a demand from them for using the terminal used by healthy persons.

マルチタッチスクリーンのタッチ操作は健常者にとっては直感的で簡易な操作を実現しているが、視覚障がい者にとっては触感がないため操作が困難である。特に、メールやインターネット検索機能を利用するための文字入力操作は利用頻度が高く、使いやすい操作方式が求められる。   The touch operation of the multi-touch screen realizes an intuitive and simple operation for a healthy person, but it is difficult for a visually handicapped person because there is no tactile sensation. In particular, a character input operation for using a mail or Internet search function is frequently used, and an easy-to-use operation method is required.

そこで、非特許文献1には、視覚障がい者向けのマルチタッチスクリーンのタッチ操作を用いた文字入力方式として、Voiceoverによる音声補助を用いたソフトキーボードによる文字入力方式が提案されている。この方式は、画面上のキーボードの中で利用者が触れているボタンを音声で利用者に教える。そして、目的のボタンの位置に到達した後に、そのボタン上でダブルタップすることでそのボタンを選択できる。   Therefore, Non-Patent Document 1 proposes a character input method using a soft keyboard using voice assistance by Voiceover as a character input method using a multi-touch screen touch operation for visually impaired persons. In this method, the user touches a button touched by a user on a keyboard on the screen. Then, after reaching the position of the target button, the button can be selected by double-tapping on the button.

また、非特許文献2には、マルチタッチスクリーン搭載の端末が登場したことにより、文字を描くことによる文字入力方式が提案されている。   Non-Patent Document 2 proposes a character input method by drawing characters due to the appearance of a terminal equipped with a multi-touch screen.

「アップル - アクセシビリティ - iPad - 視覚に障がいのある方に。」、[online]、[平成24年9月24日検索]、インターネット<URL:http://www.apple.com/jp/accessibility/ipad/vision.html>"Apple-Accessibility-iPad-For people with visual disabilities.", [Online], [Search September 24, 2012], Internet <URL: http://www.apple.com/accessibility/ ipad / vision.html> 「CELLレグザリモコン用タッチパッドのストローク認識技術」、東芝レビュー vol.65, No.4, pp31-34, (2010年4月号)"CELL REGZA Remote Control Touchpad Stroke Recognition Technology", Toshiba Review vol.65, No.4, pp31-34, (April 2010 issue)

しかしながら、上記非特許文献1の技術では、また、従来の物理的なボタンを押下することによる文字入力と比較して次のような点で使いにくくなっている。第1に、従来の物理的なボタンのような凹凸で触れているボタンの位置を把握するよりも、触れているボタンを音声で把握する方が、時間がかかる。つまりVoiceoverによる音声補助を用いたソフトキーボードによる文字入力は、従来の物理的なボタンによる文字入力よる操作時間がかかる。第2に、ボタンを決定するときにボタンを押すだけだったのがダブルタップになり作業が多くなる。第3に、ダブルタップするときにスクリーンから指が離れるため、ボタンを押しなおすときに間違えたボタンを押す可能性がある。第4に、端末の向きによってキーボードのサイズが変化するため、使いづらい。以上の点を踏まえ、Voiceoverによる音声補助があっても、キーボードを用いた文字入力操作は視覚障がい者に適していない。   However, the technique of Non-Patent Document 1 is difficult to use in the following respects as compared with the conventional character input by pressing a physical button. First, rather than grasping the position of a button touched by unevenness like a conventional physical button, it takes time to grasp the touched button by voice. In other words, character input with a soft keyboard using voice assistance by Voiceover takes operation time compared with character input with a conventional physical button. Secondly, it was a double tap that only pushed the button when determining the button, and the work increased. Third, since the finger is released from the screen when double-tapping, there is a possibility that the wrong button is pressed when the button is pressed again. Fourth, it is difficult to use because the keyboard size changes depending on the orientation of the terminal. Based on the above points, even if voice assistance is provided by Voiceover, character input operations using the keyboard are not suitable for visually impaired people.

また、上記非特許文献2に係る技術では、キーボード入力により、一つの文字を入力する時間がかかることや、視覚障がい者とって描いた文字を視覚で確認できないため、文字入力を失敗したときにどのように修正すればよいか判断できない。また、入力に使われる文字がどのような形状かを音声でしか知る手段がないため、入力に必要な指の動きを学ぶにも時間がかかる。   In the technique according to Non-Patent Document 2, it takes time to input one character by keyboard input, or a character drawn for a visually impaired person cannot be confirmed visually. I cannot determine how to fix it. In addition, since there is only a means of knowing the shape of characters used for input by voice, it takes time to learn finger movements necessary for input.

この発明は上記事情に着目してなされたもので、その目的とするところは、簡易で覚えやすいタッチ操作を用いて、画面を見なくても高速に文字入力できる入力装置、角度入力装置およびプログラムを提供することにある。   The present invention has been made paying attention to the above circumstances, and an object thereof is to provide an input device, an angle input device, and a program capable of inputting characters at high speed without looking at the screen using a touch operation that is simple and easy to remember. Is to provide.

上記目的を達成するためにこの発明の第1の態様は、情報を入出力するタッチスクリーンと、第1の角度範囲と第2の角度範囲との各組み合わせに対応する複数の入力値を有する変換テーブルを記憶する記憶部と、前記タッチスクリーン上で第1の操作が入力された場合に、第1の起点からドラッグされた第1の終点への直線と第1の座標系がなす第1の角度を検出する第1の検出手段と、前記第1の操作に連続して前記第1の終点を起点とする第2の操作が入力された場合に、第2の起点からドラッグされた第2の終点への直線と第2の座標系がなす第2の角度を検出する第2の検出手段と、前記第1の角度に対応する第1の角度範囲と前記第2の角度に対応する第2の角度範囲との組み合わせから、前記変換テーブルに基づいて入力値を決定する入力決定手段とを具備するものである。   To achieve the above object, according to a first aspect of the present invention, there is provided a touch screen for inputting / outputting information, and a conversion having a plurality of input values corresponding to each combination of the first angle range and the second angle range. When a first operation is input on the touch screen and a storage unit that stores a table, the first coordinate system is formed by a straight line from the first start point to the first end point and the first coordinate system. The first detection means for detecting the angle and the second dragged from the second starting point when the second operation starting from the first end point is input continuously to the first operation. Second detection means for detecting a second angle formed by a straight line to the end point of the second coordinate system and the second coordinate system, a first angle range corresponding to the first angle, and a second angle corresponding to the second angle. From the combination with the angle range of 2, the input value is calculated based on the conversion table. Those comprising an input determination means for constant.

第1の態様によれば、2回のドラッグ操作のみの簡単な操作で文字入力が可能であり、ボタンを読み上げる音声を聞いて入力を所望するボタンかどうかを判断させる引用文献1のような手法や、文字を手書き入力する引用文献2のような手法と比較して高速に文字入力を行うことが可能となる。   According to the first aspect, it is possible to input characters by a simple operation with only two drag operations, and a technique such as cited reference 1 that determines whether a button is desired to be input by listening to a voice reading a button. In addition, it is possible to input characters at high speed as compared to the technique of the cited document 2 in which characters are input by handwriting.

本発明の第2の態様は、上記第1の態様の前記第2の検出手段において、前記第1の終点と現在位置との距離が所定の距離より大きく、且つ前記現在位置と第1の終点とを通過する直線と前記第1の座標系がなす角度と前記第1の角度との差が所定の角度より大きい場合には、前記第2の起点を前記現在位置に更新するものである。
第2の態様によれば、1回目のドラッグ操作を行ってから2回目のドラッグ操作を開始する際に発生する指の移動距離のオーバーシュートによる角度検出の誤差を解消でき、入力精度を向上することができる。
According to a second aspect of the present invention, in the second detection unit according to the first aspect, a distance between the first end point and a current position is greater than a predetermined distance, and the current position and the first end point. When the difference between the angle formed by the straight line passing through the first coordinate system and the first angle is larger than a predetermined angle, the second starting point is updated to the current position.
According to the second aspect, it is possible to eliminate the angle detection error due to the overshoot of the movement distance of the finger that occurs when the second drag operation is started after the first drag operation, and the input accuracy is improved. be able to.

本発明の第3の態様は、上記第1の態様の前記第1の検出手段において指が離れた第1の終点が、前記第1の起点から所定の第1の距離より大きく且つ前記第1の起点から所定の第2の距離より小さい第1のフリック入力検知エリアにある場合は、前記第1の起点から前記第1の終点への直線と前記第1の座標系がなす第1の角度を検出し、前記第2の角度を前記第1の角度として前記入力決定手段を実行するものである。
第3の態様によれば、1回目のドラッグ操作がフリック操作になりがちな場合、検出される距離が短くなる(ドラッグ開始後、指が早期にタッチスクリーンから離れる)ことに対応することができ、上記第1及び第2の態様より高速に入力可能となる。
According to a third aspect of the present invention, the first end point at which the finger is separated in the first detection means of the first aspect is greater than a predetermined first distance from the first starting point and the first A first flick input detection area smaller than a predetermined second distance from the starting point of the first angle formed by the straight line from the first starting point to the first end point and the first coordinate system And the input determining means is executed with the second angle as the first angle.
According to the third aspect, when the first drag operation tends to be a flick operation, it is possible to cope with a decrease in the detected distance (the finger leaves the touch screen early after the drag starts). Thus, it becomes possible to input at higher speed than the first and second aspects.

本発明の第4の態様は、上記第1の態様の前記第2の検出手段において指が離れた第2の終点が、前記第2の起点から前記第1の距離より大きく且つ前記第2の起点から前記第2の距離より小さい第2のフリック入力検知エリアにある場合は、前記第2の起点から前記第2の終点への直線と前記第2の座標系がなす第2の角度を検出するものである。
第4の態様によれば、2回目のドラッグ操作がフリック操作になりがちな場合、検出される距離が短くなる(ドラッグ開始後、指が早期にタッチスクリーンから離れる)ことに対応することができ、上記第1及び第2の態様より高速に入力可能となる。
According to a fourth aspect of the present invention, the second end point where the finger is separated in the second detection means of the first aspect is greater than the first distance from the second starting point and the second When the second flick input detection area is smaller than the second distance from the start point, a second angle formed by the second coordinate system and the straight line from the second start point to the second end point is detected. To do.
According to the fourth aspect, when the second drag operation tends to be a flick operation, it is possible to cope with a decrease in the detected distance (the finger leaves the touch screen early after the drag starts). Thus, it becomes possible to input at higher speed than the first and second aspects.

また、本発明の第5の態様は、情報を入出力するタッチスクリーンと、前記タッチスクリーン上で操作が入力された場合に、起点からドラッグされた終点への直線と所定の座標系がなす角度を検出する検出手段と、前記角度に対応する角度範囲を音声で通知する通知手段と、前記通知手段による音声通知後に、前記起点を中心とする反時計回りの方向又は時計回りの方向に指の移動が検出された場合は、前記検出手段で検出された角度範囲を当該方向に隣接する角度範囲に修正する修正手段とを具備するものである。
第5の態様によれば、操作時に入力方向を間違えた場合に備えて、選択された角度範囲を音声でフィードバックし、反時計回りの方向又は時計回りの方向へ指を動かすことによって角度範囲の選択を修正することが可能となり、さらに利便性が向上する。
According to a fifth aspect of the present invention, there is provided a touch screen for inputting / outputting information, and an angle formed by a predetermined coordinate system and a straight line from a starting point to a dragged end point when an operation is input on the touch screen. A detecting means for detecting the angle, a notifying means for notifying the angle range corresponding to the angle by voice, and after the voice notification by the notifying means, the counterclockwise direction or the clockwise direction centering on the starting point. When a movement is detected, a correction means for correcting the angle range detected by the detection means to an angle range adjacent to the direction is provided.
According to the fifth aspect, in preparation for a case where the input direction is mistaken at the time of operation, the selected angle range is fed back by voice and the angle range is adjusted by moving the finger in the counterclockwise direction or the clockwise direction. The selection can be corrected, further improving convenience.

また、本発明の第6の態様は、情報を入出力するタッチスクリーンと、前記タッチスクリーンの所定の表示領域内の所定の点を中心とし、前記中心から複数方向に複数の角度範囲を設け、前記中心と前記角度範囲を画面に表示する表示処理手段と、前記タッチスクリーン上で操作が入力された場合に、起点からドラッグされた終点への直線と所定の座標系がなす角度を検出する検出手段とを具備し、前記表示処理手段は、前記起点が検出された場合に前記中心の表示態様を変更し、前記終点が検出された場合に前記角度に対応する角度範囲の表示態様を変更するものである。
第6の態様によれば、角度範囲をタッチスクリーンの画面に表示することで健常者に対する視覚フィードバックの効果を得ることが可能となる。
According to a sixth aspect of the present invention, there is provided a touch screen for inputting and outputting information, a predetermined point in a predetermined display area of the touch screen, and a plurality of angle ranges in a plurality of directions from the center. Display processing means for displaying the center and the angle range on the screen, and detection for detecting an angle formed by a predetermined coordinate system and a straight line from the starting point to the dragged end point when an operation is input on the touch screen The display processing means changes the display mode of the center when the starting point is detected, and changes the display mode of the angle range corresponding to the angle when the end point is detected. Is.
According to the sixth aspect, it is possible to obtain an effect of visual feedback for a healthy person by displaying the angle range on the screen of the touch screen.

また、本発明の第7の態様は、上記第6の態様において、前記表示領域は、前記操作の入力領域と異なる領域に設けられるものである。
表示領域と操作の入力領域を一緒にすると利用者は指の位置まで意識してしまい負担となるおそれがあるが、第7の態様では、両者を異なる領域に設けることで、操作の自由度を高め、使いやすい入力インタフェースを実現できる。
According to a seventh aspect of the present invention, in the sixth aspect, the display area is provided in an area different from the operation input area.
If the display area and the operation input area are combined, the user may be aware of the position of the finger, which may be a burden, but in the seventh aspect, by providing both in different areas, the degree of freedom of operation is increased. Higher and easier to use input interface.

すなわちこの発明によれば、簡易で覚えやすいタッチ操作を用いて、画面を見なくても高速に文字入力できる入力装置、角度入力装置およびプログラムを提供することができる。   That is, according to the present invention, it is possible to provide an input device, an angle input device, and a program that can input characters at high speed without looking at the screen using a simple and easy-to-remember touch operation.

本発明の一実施形態に係る入力装置の機能構成を示すブロック図。The block diagram which shows the function structure of the input device which concerns on one Embodiment of this invention. タッチスクリーン上の操作エリアを示す図。The figure which shows the operation area on a touch screen. 右手操作エリアの文字変換テーブルの一例を示す図。The figure which shows an example of the character conversion table of a right hand operation area. 左手操作エリアの文字変換テーブルの一例を示す図。The figure which shows an example of the character conversion table of a left hand operation area. 実施例1の制御部の処理概要を示すフローチャート。3 is a flowchart illustrating a processing outline of a control unit according to the first embodiment. 実施例1の文字入力処理部の処理概要を示すフローチャート。5 is a flowchart illustrating a processing outline of a character input processing unit according to the first embodiment. 実施例1の1回目の領域作成の基準点決定処理を示すフローチャート。5 is a flowchart illustrating a reference point determination process for creating a first area according to the first exemplary embodiment. 実施例1の指が触れた位置に対する指の移動方向識別処理を示すフローチャート。The flowchart which shows the movement direction identification process of the finger | toe with respect to the position which the finger | toe of Example 1 touched. 実施例1の2回目の領域作成の基準点決定処理を示すフローチャート。5 is a flowchart illustrating a reference point determination process for creating a second region in the first embodiment. 実施例1の1回目の指の移動方向に対する2回目の指の移動方向識別処理を示すフローチャート。7 is a flowchart illustrating a second finger movement direction identification process with respect to a first finger movement direction according to the first embodiment. 実施例1の入力文字決定処理を示すフローチャート。5 is a flowchart illustrating input character determination processing according to the first embodiment. 実施例1の領域作成および領域選択を説明するための図。FIG. 6 is a diagram for explaining area creation and area selection according to the first embodiment. 実施例2の文字入力処理部の処理概要を示すフローチャート。9 is a flowchart illustrating a processing outline of a character input processing unit according to the second embodiment. 実施例2の2回目の領域作成の基準点更新かつ領域再作成処理を示すフローチャート。10 is a flowchart illustrating reference point update and region re-creation processing for second region creation according to the second embodiment. 実施例2の2回目の領域作成の基準点更新及び領域再作成を説明するための図。FIG. 10 is a diagram for explaining reference point update and region recreation in the second region creation in the second embodiment. 実施例3のフリック入力検知処理を示すフローチャート。10 is a flowchart illustrating flick input detection processing according to the third embodiment. 実施例3の指が触れた位置に対する指の移動方向識別処理を示すフローチャート。10 is a flowchart illustrating finger movement direction identification processing for a position touched by a finger according to the third embodiment. 実施例3の1回目の指の移動方向に対する2回目の指の移動方向識別処理を示すフローチャート。10 is a flowchart illustrating second finger movement direction identification processing with respect to the first finger movement direction according to the third embodiment. 実施例3の領域作成を説明するための図。FIG. 10 is a diagram for explaining area creation according to the third embodiment. 実施例4の領域選択修正処理を示すフローチャート。10 is a flowchart illustrating region selection correction processing according to the fourth embodiment. 実施例5の指が触れる前の視覚フィードバックの表示例を示す図。The figure which shows the example of a display of the visual feedback before the finger | toe of Example 5 touches. 実施例5の指が触れた時の視覚フィードバックの表示例を示す図。The figure which shows the example of a display of the visual feedback when the finger | toe of Example 5 touches. 実施例5の1回目の領域選択後の視覚フィードバックの表示例を示す図。FIG. 16 is a diagram illustrating a display example of visual feedback after the first area selection according to the fifth embodiment.

以下、図面を参照してこの発明に係る実施形態を説明する。
図1は、本発明の一実施形態に係る入力装置の機能構成を示すブロック図である。入力装置100は、制御部1、タッチスクリーン2および記憶部3を備える。タッチスクリーン2は、タッチ操作による操作情報を入力する操作入力部21と、制御部1による表示制御に従って文字や画像等を表示する表示部22とを有する。制御部1は、操作入力部21で入力される操作情報に基づいて文字入力処理とそれ以外の処理とを判別する操作判別部11と、文字入力処理を行う文字入力処理部12と、文字種類の変換やENTERの入力を行う文字種類変換/ENTER入力部13と、表示部22への表示制御を行う表示処理部14を有する。記憶部3には、文字入力処理部12で使用する文字変換テーブル31が予め記憶される。
Embodiments according to the present invention will be described below with reference to the drawings.
FIG. 1 is a block diagram showing a functional configuration of an input device according to an embodiment of the present invention. The input device 100 includes a control unit 1, a touch screen 2, and a storage unit 3. The touch screen 2 includes an operation input unit 21 that inputs operation information by a touch operation, and a display unit 22 that displays characters, images, and the like according to display control by the control unit 1. The control unit 1 includes an operation determination unit 11 that determines character input processing and other processing based on operation information input by the operation input unit 21, a character input processing unit 12 that performs character input processing, and a character type. A character type conversion / ENTER input unit 13 for performing conversion and ENTER input, and a display processing unit 14 for performing display control on the display unit 22. In the storage unit 3, a character conversion table 31 used in the character input processing unit 12 is stored in advance.

本実施形態では、図2に示すようにタッチスクリーン上に左手操作エリアと右手操作エリアを設け、両手を用いてそれぞれ文字を入力し、図3及び図4に示すような文字変換テーブル31を用いて右手と左手で入力可能な文字が異なる文字入力方式を提供する。図3及び図4は、一例として平仮名入力を示し、入力文字は、右手操作エリア及び左手操作エリアのそれぞれにおいて、領域選択A1(子音)と領域選択A2(母音)の組合せで決定する。以下、このように構成される入力装置100の動作について各実施例にしたがって説明する。   In this embodiment, a left hand operation area and a right hand operation area are provided on the touch screen as shown in FIG. 2, characters are input using both hands, and a character conversion table 31 as shown in FIGS. 3 and 4 is used. Provide a character input method in which characters that can be input by the right hand and the left hand are different. FIGS. 3 and 4 show hiragana input as an example, and the input character is determined by a combination of area selection A1 (consonant) and area selection A2 (vowel) in each of the right hand operation area and the left hand operation area. Hereinafter, the operation of the input device 100 configured as described above will be described according to each embodiment.

(実施例1)
実施例1の文字入力操作は、指をタッチスクリーン上から離さずに2回直線を描く操作によって、領域選択A1及び領域選択A2を検出することにより行う。具体的には、例えば、指がタッチスクリーンに触れた位置から8つの方向(上、右上、右、右下、下、左下、左、左上)のいずれかに、触れた指を移動させることで、移動させた方向が示す領域(角度範囲)に対応する子音を選択し、その指を移動させた後に、さらに指を離さずに8つの方向(上、右上、右、右下、下、左下、左、左上)のいずれかに、指を移動する、もしくは指を弾くことで移動もしくは弾いた方向が示す領域(角度範囲)に対応する母音を選択し、文字を一意に選択する文字入力方式を実現する。
Example 1
The character input operation according to the first embodiment is performed by detecting the region selection A1 and the region selection A2 by drawing a straight line twice without releasing the finger from the touch screen. Specifically, for example, by moving the touched finger in one of eight directions (upper, upper right, right, lower right, lower, lower left, left, upper left) from the position where the finger touched the touch screen. Select the consonant corresponding to the area (angle range) indicated by the moved direction, move the finger, and then move the finger in eight directions (upper, upper right, right, lower right, lower, lower left) , Left, upper left), select a vowel corresponding to the area (angle range) indicated by the direction of movement or flipping by moving your finger Is realized.

図5乃至図11のフローチャートを用いて、実施例1について説明する。図5は、制御部1の処理概要を示すフローチャートである。制御部1は、タッチスクリーン2の操作入力部21により入力される操作情報により、指がスクリーンに触れたとき、スクリーン上を移動しているとき、または指が離れたときに発生するイベントをタッチイベントとして検出する(処理110)。   Embodiment 1 will be described with reference to the flowcharts of FIGS. FIG. 5 is a flowchart showing an outline of processing of the control unit 1. The control unit 1 touches an event that occurs when the finger touches the screen, moves on the screen, or moves away from the screen according to operation information input from the operation input unit 21 of the touch screen 2. It detects as an event (process 110).

タッチイベントがあった場合は、操作判別部11は、スクリーンに触れた指の数と各指のスクリーン上の現在位置を取得する(処理111)。タッチスクリーンに利用者が触れた指の数が3以上のときは何も処理を行わない。また、触れた指の数が2つであって、かつ、左手操作エリア(図2)に2つの指が存在する場合(処理113)もしくは右手操作エリア(図2)に2つの指が存在する場合(処理114)は、何も処理を行わない。一方で、左手操作エリアと右手操作エリアに2つの指がそれぞれ存在し、指の触れたタイミングが同時の場合は文字入力操作以外の操作入力があったと判断し(処理115)、文字種類変換/ENTER入力部13は、文字の種類を変更する処理あるいはENTER入力処理を行う(処理116)。例えば、ピンチアウトしたら文字の種類が「ひらがな」⇒「アルファベット」⇒「数字入力」⇒「ひらがな」と変更可能とする。また、ピンチインしたらENTER入力が可能とする。   When there is a touch event, the operation determination unit 11 acquires the number of fingers touching the screen and the current position of each finger on the screen (processing 111). When the number of fingers touched by the user on the touch screen is 3 or more, no processing is performed. Further, when the number of touched fingers is two and there are two fingers in the left hand operation area (FIG. 2) (Process 113), or there are two fingers in the right hand operation area (FIG. 2). In the case (process 114), no process is performed. On the other hand, if there are two fingers in the left-hand operation area and the right-hand operation area, respectively, and the touch timing is the same, it is determined that there has been an operation input other than the character input operation (process 115), and the character type conversion / The ENTER input unit 13 performs a process of changing the character type or an ENTER input process (process 116). For example, after pinching out, the character type can be changed from “Hiragana” ⇒ “Alphabet” ⇒ “Numeric input” ⇒ “Hiragana”. Also, when pinching in, the ENTER input is enabled.

処理115において、各指の操作開始のタイミングが異なる場合は、一つの指の文字入力が行われている途中で、もう一つの指の文字入力が行われたと判断し、文字入力処理部12は右手操作エリアの文字入力処理(処理116)および左手操作エリアの文字入力処理(処理117)を行う。処理111において、タッチスクリーンに触れた指の数が1つのときは、触れた指が左手操作エリアまたは右手操作エリアに存在するかを判断し(処理112)、判断された領域に従って右手操作エリアの文字入力処理(処理118)または右手操作エリアの文字入力処理(処理119)を行う。   In the process 115, when the operation start timing of each finger is different, it is determined that the character input of the other finger is performed while the character input of one finger is being performed, and the character input processing unit 12 Character input processing (processing 116) in the right hand operation area and character input processing (processing 117) in the left hand operation area are performed. In processing 111, when the number of fingers touching the touch screen is one, it is determined whether the touched finger exists in the left hand operation area or the right hand operation area (processing 112), and the right hand operation area is determined according to the determined area. Character input processing (processing 118) or right-hand operation area character input processing (processing 119) is performed.

図6は、文字入力処理部12の処理概要を示すフローチャートである。各指について文字入力処理を行うが、処理内容は同じなので、図6には1つの指が触れたときの処理内容を示す。なお、左手と右手で異なるのは入力可能な文字が異なる点のみである(図3、図4)。指がタッチスクリーンに触れていない状態をP0とする。   FIG. 6 is a flowchart showing an outline of processing of the character input processing unit 12. Character input processing is performed for each finger, but since the processing content is the same, FIG. 6 shows the processing content when one finger touches. The only difference between the left hand and the right hand is that the characters that can be input are different (FIGS. 3 and 4). A state where the finger is not touching the touch screen is defined as P0.

[処理210:1回目の領域作成の基準点決定処理]
文字入力処理部12は、指がタッチスクリーンに触れると状態P0を識別して(処理201)、1回目の領域作成の基準点決定処理を行う(処理210)。処理210の処理の詳細を図7に示す。図7において、指がタッチスクリーンに最初に触れた位置B0を記憶し(処理230)、その位置B0を原点として、図12(a)に示すように原点を中心とした円領域と原点を通過する直線によって構成される8つ領域R0〜R7を作成する(処理231)。処理210の処理後に状態P1(処理220)に遷移する。
[Process 210: Reference Point Determination Process for First Area Creation]
When the finger touches the touch screen, the character input processing unit 12 identifies the state P0 (process 201), and performs a reference point determination process for the first area creation (process 210). Details of the processing 210 are shown in FIG. In FIG. 7, the position B0 where the finger first touched the touch screen is memorized (process 230), and the position B0 is set as the origin, and as shown in FIG. Eight regions R0 to R7 constituted by straight lines are created (processing 231). After the process 210, the process transits to the state P1 (process 220).

[処理211:指が触れた位置に対する指の移動方向識別処理]
状態P1では指が触れた位置に対する指の移動方向識別処理を行う(処理211)。処理211の処理の詳細を図8に示す。状態P1においてタッチスクリーンから指が離れた場合は、状態P0に戻す(処理240)。タッチスクリーンから指が離れずに、図12(b)に示すように、指の現在位置が点B0からTr1より離れた位置に移動した場合は(処理241)、処理242〜243を行う。具体的には指の現在位置と点B0とを通過する直線の点B0を原点とする座標系(原点を通過する水平方向をx軸,原点を通過する垂直方向をy軸とする座標系)に対する角度(図12(b)の角度TA1)を計測し記憶する(処理242)。そして、計測された角度に基づいて領域R0〜R7のうち一つを選択し、領域選択A1に記憶する(処理243)。なお、角度TA1は、タッチスクリーンの左上の点を原点とする絶対座標系に対する角度としてもよい。
[Process 211: Finger Movement Direction Identification Process for the Position Touched by the Finger]
In state P1, a finger movement direction identification process is performed for the position touched by the finger (process 211). Details of the processing 211 are shown in FIG. When the finger is released from the touch screen in the state P1, the state is returned to the state P0 (process 240). When the finger is not moved away from the touch screen and the current position of the finger is moved from the point B0 to a position away from Tr1 as shown in FIG. 12B (step 241), steps 242 to 243 are performed. Specifically, a coordinate system whose origin is the straight point B0 passing through the current position of the finger and the point B0 (a coordinate system in which the horizontal direction passing through the origin is the x-axis and the vertical direction passing through the origin is the y-axis) The angle with respect to (angle TA1 in FIG. 12B) is measured and stored (process 242). Then, one of the regions R0 to R7 is selected based on the measured angle and stored in the region selection A1 (processing 243). Note that the angle TA1 may be an angle with respect to an absolute coordinate system having the origin at the upper left point of the touch screen.

[処理212:2回目の領域作成のための基準点を決定する処理]
処理243の1回目の領域選択処理の後に、2回目の領域作成のための基準点を決定する処理を行う(処理212)。この処理212の処理の詳細を図9に示す。具体的には、指位置座標をB1として記憶し(処理250)、その位置B1を原点として、図12(c)に示すような原点を中心とした円領域と原点を通過する直線によって構成される領域R0〜R7を作成する(処理251)。処理212の処理後に状態P3に遷移する(処理222)。
[Process 212: Process for Determining Reference Point for Second Area Creation]
After the first area selection process of process 243, a process of determining a reference point for creating the second area is performed (process 212). Details of the processing 212 are shown in FIG. Specifically, the finger position coordinates are stored as B1 (process 250), and the position B1 is set as the origin, and a circle area centered on the origin as shown in FIG. 12C and a straight line passing through the origin are formed. Regions R0 to R7 are created (process 251). After the process 212, the process transits to the state P3 (process 222).

[処理213:1回目の指の移動方向に対する2回目の指の移動方向識別処理]
状態P3では1回目の指の移動方向に対する2回目の指の移動方向識別処理を行う(処理213)。処理213の処理の詳細を図10に示す。状態P3においてタッチスクリーンから指が離れた場合は、状態P0に戻す(処理260)。タッチスクリーンから指が離れずに、図12(d)に示すように、指の現在位置が点B1からTr2より離れた位置に移動した場合は、処理262〜263を行う。具体的には指の現在位置と点B1とを通過する直線の点B1を原点とする座標系(原点を通過する水平方向をx軸,原点を通過する垂直方向をy軸とする座標系)に対する角度(図12(d)の角度TA2)を計測し記憶する(処理262)。そして、計測された角度に基づいて領域R0〜R7のうち一つを選択し領域選択A2に記憶する(処理263)。処理213の処理後に状態P4に遷移する(処理224)。なお、角度TA2は、タッチスクリーンの左上の点を原点とする絶対座標系に対する角度としてもよい。
[Process 213: Second finger movement direction identification process with respect to first finger movement direction]
In state P3, a second finger movement direction identification process is performed with respect to the first finger movement direction (process 213). Details of the process 213 are shown in FIG. When the finger is released from the touch screen in the state P3, the state is returned to the state P0 (processing 260). If the finger does not move away from the touch screen and the current position of the finger moves from the point B1 to a position away from Tr2 as shown in FIG. 12D, processes 262 to 263 are performed. Specifically, a coordinate system whose origin is the straight point B1 passing through the current position of the finger and the point B1 (a coordinate system in which the horizontal direction passing through the origin is the x axis and the vertical direction passing through the origin is the y axis) Is measured and stored (processing 262). Then, one of the regions R0 to R7 is selected based on the measured angle and stored in the region selection A2 (processing 263). After the process 213, the state transitions to the state P4 (process 224). The angle TA2 may be an angle with respect to an absolute coordinate system having the origin at the upper left point of the touch screen.

[処理214:入力文字決定処理]
状態P4では入力文字決定処理を行う(処理214)。この処理212の処理の詳細を図11に示す。状態P4においてタッチスクリーンから指が離れると(処理270)、文字入力を行う(処理271)。入力文字は、図3及び図4に示すような文字変換データを用いて領域選択A1と領域選択A2の値の組み合わせによって決まる。
[Process 214: Input Character Determination Process]
In state P4, an input character determination process is performed (process 214). Details of the processing 212 are shown in FIG. When the finger is removed from the touch screen in the state P4 (process 270), character input is performed (process 271). The input character is determined by a combination of the values of area selection A1 and area selection A2 using character conversion data as shown in FIGS.

以上述べたように、実施例1では、タッチスクリーン上で2つの連続したドラッグ操作(第1のドラッグ操作の終点と、第2のドラッグ操作の起点が同一とみなせるようなドラッグ操作)の角度をそれぞれ検出し、第1の操作の角度の角度範囲と、第2の操作の角度範囲に入力表の縦軸と横軸をそれぞれ対応づけて、表の要素の文字又はコマンドを入力するものである。
したがって、実施例1によれば、視覚障がい者にとって、簡易で覚えやすいタッチ操作を用いて文字入力できる操作方式を実現することができる。また、健常者にとっては、画面やリモコン等を見なくても文字入力できる操作方式を実現することができる。
As described above, in the first embodiment, the angle of two consecutive drag operations on the touch screen (drag operation that can be considered that the end point of the first drag operation and the start point of the second drag operation are the same) is set. Each is detected, and the vertical range and horizontal axis of the input table are associated with the angular range of the first operation angle and the second operation angle range, respectively, and the characters or commands of the table elements are input. .
Therefore, according to the first embodiment, it is possible to realize an operation method that allows a visually impaired person to input characters using a touch operation that is simple and easy to remember. In addition, for a healthy person, it is possible to realize an operation method in which characters can be input without looking at a screen or a remote controller.

(実施例2)
図13に、実施例2の文字入力処理部の処理概要のフローチャートを示す。上記実施例1の文字入力操作は、指をタッチスクリーンから離さずに2回直線を描く操作になる。このとき、1回目の直線を描いてから2回目の直線を描くとき、一度指を止めてから2回目の直線を描く。目が見えない状態で利用者が1回目の直線を描くと、2回目の直線を描く前に利用者が止めた点は1回目の領域選択(図8の処理243)を検出した点より先にオーバーシュートする傾向があり、オーバーシュートの度合いも人によって異なる傾向がある。そのため、利用者が描いた2回目の直線の角度TA2は利用者が動かしたと思った角度と異なる角度を計測し、誤った2回目の領域選択をする問題が生じる。そこで、実施例2ではこの問題を解決するために、2回目の領域作成の基準点更新かつ領域再作成処理(図13の処理213)を追加する。
(Example 2)
FIG. 13 shows a flowchart of the processing outline of the character input processing unit of the second embodiment. The character input operation of the first embodiment is an operation of drawing a straight line twice without releasing the finger from the touch screen. At this time, when the second straight line is drawn after drawing the first straight line, the second straight line is drawn after stopping the finger once. When the user draws the first straight line without seeing the eye, the point that the user stopped before drawing the second straight line is ahead of the point at which the first area selection (process 243 in FIG. 8) is detected. There is a tendency to overshoot, and the degree of overshoot also tends to vary from person to person. For this reason, the angle TA2 of the second straight line drawn by the user is different from the angle that the user thinks moved, and there is a problem of erroneously selecting the second region. Therefore, in the second embodiment, in order to solve this problem, a second reference point update and region re-creation process (process 213 in FIG. 13) is added.

図13において、上記実施例1の図6と異なるのは、処理300〜302が追加されたことと、処理222が処理303に変更されたことである。処理222から処理303への変更は、処理300を行うために状態P2に遷移するようにしたことである。
[処理300:2回目の領域作成の基準点更新かつ領域再作成処理]
図14に、実施例2における2回目の領域作成の基準点更新かつ領域再作成処理の詳細を示す。文字入力処理部12は、図15(a)のように点B1から点b1へオーバーシュートしたときに、図15(b)のように指の現在位置b1とB1との距離が閾値Tkより大きい場合(処理312)、処理313を行う。処理313では、指の現在位置b1とB1とを通過する直線と点B1を原点とする座標系(原点を通過する水平方向をx軸、原点を通過する垂直方向をy軸とする座標系)に対する角度が1回目の指の移動時に計測した角度TA1との差分の絶対値をとり、その差分が所定の閾値Thより大きい場合は2回目の直線を描き始めたと判断し、状態P3(処理302)に遷移する。
13 differs from FIG. 6 of the first embodiment in that processes 300 to 302 are added and the process 222 is changed to a process 303. The change from the process 222 to the process 303 is that the process 300 is changed to the state P2 in order to perform the process 300.
[Process 300: Reference Point Update and Area Recreation Processing for Second Area Creation]
FIG. 14 shows details of the reference point update and region recreation processing for the second region creation in the second embodiment. When the character input processing unit 12 overshoots from the point B1 to the point b1 as shown in FIG. 15A, the distance between the current position b1 of the finger and B1 is larger than the threshold value Tk as shown in FIG. 15B. In the case (processing 312), processing 313 is performed. In the process 313, a coordinate system having a straight line passing through the current positions b1 and B1 of the finger and a point B1 as an origin (a coordinate system having a horizontal direction passing through the origin as an x-axis and a vertical direction passing through the origin as a y-axis) The absolute value of the difference from the angle TA1 measured when the finger is moved for the first time is taken. If the difference is larger than the predetermined threshold Th, it is determined that the second straight line has started to be drawn, and the state P3 (processing 302) ).

一方、処理313において、差分がThより小さい場合は、オーバーシュートしていると判断し、B1の値を指の現在位置b1に更新し(処理S314)、領域再作成(図15(c))を行う。処理312において閾値Tkを用いたのは、タッチスクリーンは敏感なセンサであるため、指の大きさ分の位置のズレが生じやすい。つまり、指を角度αの方向に移動していても角度−αと認識する可能性がある。これでは、処理313の誤認識につながるので、処理312の処理を加えた。   On the other hand, if the difference is smaller than Th in process 313, it is determined that overshoot has occurred, the value of B1 is updated to the current position b1 of the finger (process S314), and the area is recreated (FIG. 15 (c)). I do. The reason why the threshold value Tk is used in the processing 312 is that the touch screen is a sensitive sensor, so that the position of the finger is likely to be displaced. That is, even if the finger is moved in the direction of the angle α, there is a possibility that the angle is recognized as −α. This leads to misrecognition of the process 313, so the process 312 is added.

ここで、2回目の領域選択において、TA1と同じ方向の領域選択が行えなくなることになる。しかし、TA1と同じ方向であることは、図14において、タッチスクリーンから指が点b1の位置で離れたときに(処理310)、TA1と同じ方向に領域選択されたと判断すればよい(処理311)。つまり、領域選択A2は、領域選択A1と同じとなる。   Here, in the second area selection, the area selection in the same direction as TA1 cannot be performed. However, in the same direction as TA1, in FIG. 14, when the finger is separated from the touch screen at the position of the point b1 (process 310), it may be determined that the area is selected in the same direction as TA1 (process 311). ). That is, the area selection A2 is the same as the area selection A1.

このように実施例2では、2回目の領域作成の基準点更新及び領域再作成処理を追加することにより、1回目のドラッグ操作を行ってから2回目のドラッグ操作を開始する際に発生する指の移動距離のオーバーシュートによる角度検出の誤差を解消でき、実施例1と比較して入力精度を向上することができる。   As described above, in the second embodiment, by adding the reference point update and the region re-creation process for the second region creation, the finger generated when the second drag operation is started after the first drag operation is performed. The angle detection error due to the overshoot of the movement distance can be eliminated, and the input accuracy can be improved as compared with the first embodiment.

(実施例3)
上記文字入力方式に慣れてくると、利用者は指を移動してから指を離す(以後ドラッグ動作)のではなく、指を移動しながら指を離す動作になってくる(以後、フリック動作と呼ぶ)。指を移動してから離すフリック動作の場合、ドラッグ動作よりも指の移動距離が短くなる可能性がある。そこで、図16に示すフリック入力検知処理を、指が触れた位置に対する指の移動方向識別処理211と1回目の指の移動方向に対する2回目の指の移動方向識別処理213に加える。具体的には、図17及び図18のフローチャートに示すように、フリック入力検知処理(処理280)を加える。フリック入力検知処理の追加に伴い、作成する領域を図12(a)から図19(a)へ、図12(c)から図19(c)へ変更する。
(Example 3)
When you get used to the above character input method, the user does not move the finger and then release it (hereinafter drag operation), but moves the finger while moving the finger (hereinafter referred to as flick operation). Call). In the case of a flick operation in which a finger is moved and then released, the movement distance of the finger may be shorter than the drag operation. Therefore, the flick input detection process shown in FIG. 16 is added to the finger movement direction identification process 211 for the position touched by the finger and the second finger movement direction identification process 213 for the first finger movement direction. Specifically, as shown in the flowcharts of FIGS. 17 and 18, a flick input detection process (process 280) is added. With the addition of the flick input detection process, the area to be created is changed from FIG. 12 (a) to FIG. 19 (a) and from FIG. 12 (c) to FIG. 19 (c).

[処理280:フリック入力検知処理]
図16の処理400において状態P1か状態P3を判断する。状態P1の場合、図19(a)のようにB0を原点とした大きさの異なる2つの円領域を設定する。小さい円の半径はTdとし、大きい円の半径はTr1とする。図19(b)のように、小さい円と大きい円の間で指がタッチスクリーンから離れ、かつ指の速度が早い場合はフリック入力と判断できる。小さい円と大きい円の間で指が離れたことを検知する処理を処理401で行う。フリックと検知したら指が離れた位置b2と点B0の角度TA1を計測し(処理402)、計測された角度TA1に基づいて領域選択を行い(処理403)、文字を入力する(処理404)。処理404の文字入力の処理では、A2もA1と同じ領域選択とする。
[Process 280: Flick input detection process]
In process 400 of FIG. 16, state P1 or state P3 is determined. In the state P1, two circular areas having different sizes with B0 as the origin are set as shown in FIG. The radius of the small circle is Td, and the radius of the large circle is Tr1. As shown in FIG. 19B, when the finger is separated from the touch screen between the small circle and the large circle and the finger speed is fast, it can be determined that the input is a flick. A process 401 detects that the finger is separated between the small circle and the large circle. When a flick is detected, the angle TA1 between the position b2 where the finger is separated and the point B0 is measured (process 402), an area is selected based on the measured angle TA1 (process 403), and characters are input (process 404). In the character input process of process 404, A2 is also selected as the same area as A1.

処理400において状態P3の場合、図19(c)のようにB1を原点とした大きさの異なる2つの円領域を設定し、処理405〜処理408では、領域選択A2をフリック入力で選択し、文字を決定する。すなわち、処理401と同様に、図19(d)のように、指の現在位置b3とB1との間の距離がTdより大きく、かつ指の現在位置b3とB1との間の距離がTr2(図19(c))より小さい場合は(処理405)、フリック入力と判断する。そして、指の現在位置b3とB1の直線の角度TA2を計測し記憶し(処理406)、計測された角度TA2に基づいて2回目の領域選択A2を行い(処理407)、文字を入力する(処理408)。   In the case of the state P3 in the process 400, two circular areas having different sizes with the origin B1 as shown in FIG. 19C are set, and in the processes 405 to 408, the area selection A2 is selected by flick input. Determine the character. That is, similarly to the process 401, as shown in FIG. 19D, the distance between the current position b3 of the finger and B1 is larger than Td, and the distance between the current position b3 of the finger and B1 is Tr2 ( If it is smaller than FIG. 19 (c)) (process 405), it is determined that the input is a flick. Then, the angle TA2 of the straight line between the current positions b3 and B1 of the finger is measured and stored (process 406), a second area selection A2 is performed based on the measured angle TA2 (process 407), and a character is input (process 407). Processing 408).

このように実施例3によれば、1回目又は2回目のドラッグ操作がフリック操作になりがちな場合、検出される距離が短くなる(ドラッグ開始後、指が早期にタッチスクリーンから離れる)ことに対応することができ、上記実施例1及び実施例2より高速に入力可能となる。   As described above, according to the third embodiment, when the first drag operation or the second drag operation tends to be a flick operation, the detected distance becomes short (after the drag starts, the finger leaves the touch screen at an early stage). This makes it possible to input data at a higher speed than in the first and second embodiments.

(実施例4)
実施例4では、各領域選択時に音声が出力され、どの領域が選択されたかを利用者に通知する音声通知手段(図示せず)を有することを前提とする。この機能は領域選択A1、領域選択A2が選択されると同時に行われる。上記文字入力方式に慣れる前は2回目の領域選択をドラッグ動作でやる傾向がある。加えて、慣れる前は入力する方向を間違えることもある。しかし、間違える範囲はターゲットとなる領域の隣接する領域になる。したがって、2回目の領域選択で選択した領域情報を音声で聞いたときに、選択したい領域と異なっている場合は、B1を原点とした反時計回りの方向もしくは時計回りの方向に指を移動させることで、隣接する領域を選択できるようにする。これにより初心者でも精度よく文字入力できる。実施例4では、図20に示すように、入力文字決定処理(処理214)に、領域選択修正処理(処理290)を加える。
(Example 4)
In the fourth embodiment, it is assumed that a voice is output when each area is selected, and voice notification means (not shown) for notifying the user which area has been selected is provided. This function is performed simultaneously with the selection of area selection A1 and area selection A2. Before getting used to the character input method, there is a tendency that the second region selection is performed by a drag operation. In addition, the input direction may be mistaken before getting used. However, the mistaken range is a region adjacent to the target region. Therefore, when the area information selected in the second area selection is heard by voice, if it is different from the area to be selected, the finger is moved in the counterclockwise direction or the clockwise direction from B1 as the origin. This makes it possible to select adjacent areas. This enables even beginners to input characters with high accuracy. In the fourth embodiment, as shown in FIG. 20, an area selection correction process (process 290) is added to the input character determination process (process 214).

[処理290:領域選択修正処理]
図20の処理270において、タッチスクリーンから指が離れていない状態で、指の現在位置とB1とを通過する直線と点B1を原点とする座標系に対する角度−TA2が−Tmより小さい場合は(処理500)、A2の反時計回りに隣接する領域を選択する(処理501)。一方、指の現在位置とB1とを通過する直線と点B1を原点とする座標系の角度−TA2が−Tmより大きい場合は(処理500)、A2の時計回りに隣接する領域を選択する(処理503)。
[Process 290: Area selection correction process]
In the process 270 of FIG. 20, when the finger is not separated from the touch screen and the angle −TA2 with respect to the coordinate system with the origin of the straight line passing through the current position of the finger and B1 and the point B1 is smaller than −Tm ( Process 500), an area adjacent to A2 counterclockwise is selected (process 501). On the other hand, when the angle −TA2 of the coordinate system having the straight line passing through the current position of the finger and B1 and the point B1 as the origin is larger than −Tm (process 500), a region adjacent to A2 in the clockwise direction is selected (step 500). Process 503).

したがって、上記実施例5によれば、操作時に入力方向を間違えた場合に備えて、選択された領域を音声通知でフィードバックし、反時計回りの方向又は時計回りの方向へ指を動かすことによって領域選択を修正することが可能となり、さらに利便性を向上することができる。   Therefore, according to the fifth embodiment, in preparation for the case where the input direction is mistaken at the time of operation, the selected region is fed back by voice notification, and the region is moved by moving the finger in the counterclockwise direction or the clockwise direction. The selection can be corrected, and the convenience can be further improved.

(実施例5)
上記文字入力方式に慣れる前の補助として、視覚障がい者は領域選択時に、音声でどの領域を選択したかを通知すればよい。一方で、健常者は視覚が活用できるため、表示部22による画面表示を用いて操作補助を行える。実施例5では、この文字入力方式における入力補助となる表示処理部14が行う画面表示について説明する。
(Example 5)
As an assist before getting used to the character input method, the visually impaired person may notify the user of which area is selected by voice when selecting the area. On the other hand, since a healthy person can utilize vision, operation assistance can be performed using screen display by the display unit 22. In the fifth embodiment, a screen display performed by the display processing unit 14 serving as input assistance in this character input method will be described.

先ず指が触れていないときの視覚フィードバックを図21に示す。原点に対して8方向に選択可能な領域があることを示す。また、この文字入力方式は指の移動方向によって領域が選択されるので、表示領域と操作入力領域を一緒にすると利用者は指の位置まで意識してしまい負担となるため、操作入力領域と視覚フィードバックを異なる場所に表示している。   First, visual feedback when a finger is not touching is shown in FIG. This indicates that there are areas that can be selected in eight directions with respect to the origin. In this character input method, the area is selected according to the direction of finger movement. If the display area and the operation input area are combined, the user is conscious of the position of the finger, which is a burden. Feedback is displayed in different places.

指が操作入力領域に触れると、例えば図22のように、中心の円の表示態様(例えば色)が代わり原点が決定したことを示す。1回目の領域選択A1(例えば“た”を選択)をした場合は、図23に示すように、A1が選択した領域の表示態様を変更し、その領域を中心とした8方向の表示(図23では“た、ち、つ、て、と”を5方向に表示)を行う。8方向の表示を行うときに選択された領域から選択可能な領域が広がると理解しやすい。このような視覚フィードバックをもつ文字入力方式である。なお、表示態様は、色に限らず、円を拡大表示や太線表示することや点滅表示等であってもよい。   When the finger touches the operation input area, for example, as shown in FIG. 22, the display mode (for example, color) of the center circle is changed to indicate that the origin is determined. When the first area selection A1 (for example, “TA” is selected), the display mode of the area selected by A1 is changed as shown in FIG. 23, “Tachi, Tetsu, Teto” is displayed in five directions). It is easy to understand that a selectable area widens from the area selected when displaying in eight directions. This is a character input method having such visual feedback. The display mode is not limited to the color, and may be an enlarged display, a thick line display, a blinking display, or the like of a circle.

このように実施例5によれば、角度範囲をタッチスクリーンの画面に表示することで健常者に対する視覚フィードバックの効果を得ることが可能となる。また、表示領域と操作入力領域を異なる領域に設けることで、利用者は指の位置まで意識する必要がないため、操作の自由度を高め、使いやすい入力インタフェースを実現できる。   As described above, according to the fifth embodiment, it is possible to obtain an effect of visual feedback for a healthy person by displaying the angle range on the screen of the touch screen. In addition, by providing the display area and the operation input area in different areas, the user does not need to be aware of the position of the finger, so that the degree of freedom of operation can be increased and an easy-to-use input interface can be realized.

なお、この発明は、上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合せにより種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態に亘る構成要素を適宜組み合せてもよい。   Note that the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. Further, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, you may combine suitably the component covering different embodiment.

100…入力装置、1…制御部、2…タッチスクリーン、3…記憶部、31…文字変換テーブル、11…操作判別部、12…文字入力処理部、13…文字種類変換/ENTER入力部、14…表示処理部、21…操作入力部、22…表示部。   DESCRIPTION OF SYMBOLS 100 ... Input device, 1 ... Control part, 2 ... Touch screen, 3 ... Memory | storage part, 31 ... Character conversion table, 11 ... Operation discrimination | determination part, 12 ... Character input process part, 13 ... Character type conversion / ENTER input part, 14 ... display processing unit, 21 ... operation input unit, 22 ... display unit.

Claims (8)

情報を入出力するタッチスクリーンと、
第1の角度範囲と第2の角度範囲との各組み合わせに対応する複数の入力値を有する変換テーブルを記憶する記憶部と、
前記タッチスクリーン上で第1の操作が入力された場合に、第1の起点からドラッグされた第1の終点への直線と第1の座標系がなす第1の角度を検出する第1の検出手段と、
前記第1の操作に連続して前記第1の終点を起点とする第2の操作が入力された場合に、第2の起点からドラッグされた第2の終点への直線と第2の座標系がなす第2の角度を検出する第2の検出手段と、
前記第1の角度に対応する第1の角度範囲と前記第2の角度に対応する第2の角度範囲との組み合わせから、前記変換テーブルに基づいて入力値を決定する入力決定手段と
を具備することを特徴とする入力装置。
A touch screen that inputs and outputs information;
A storage unit for storing a conversion table having a plurality of input values corresponding to each combination of the first angle range and the second angle range;
First detection for detecting a first angle formed by a first coordinate system and a straight line from a first starting point to a first end point when a first operation is input on the touch screen. Means,
When a second operation starting from the first end point is input continuously to the first operation, a straight line from the second start point to the second end point and the second coordinate system Second detection means for detecting a second angle formed by:
Input determining means for determining an input value based on the conversion table from a combination of a first angle range corresponding to the first angle and a second angle range corresponding to the second angle; An input device characterized by that.
前記第2の検出手段において、前記第1の終点と現在位置との距離が所定の距離より大きく、且つ前記現在位置と前記第1の終点とを通過する直線と前記第1の座標系がなす角度と前記第1の角度との差が所定の角度より大きい場合には、前記第2の起点を前記現在位置に更新することをさらに特徴とする請求項1に記載の入力装置。   In the second detection means, a distance between the first end point and the current position is greater than a predetermined distance, and a straight line passing through the current position and the first end point forms the first coordinate system. The input device according to claim 1, further comprising: updating the second starting point to the current position when a difference between the angle and the first angle is larger than a predetermined angle. 前記第1の検出手段において指が離れた第1の終点が、前記第1の起点から所定の第1の距離より大きく且つ前記第1の起点から所定の第2の距離より小さい第1のフリック入力検知エリアにある場合は、前記第1の起点から前記第1の終点への直線と前記第1の座標系がなす第1の角度を検出し、前記第2の角度を前記第1の角度として前記入力決定手段を実行することをさらに特徴とする請求項1に記載の入力装置。   A first flick having a first end point at which the finger is separated in the first detection means is larger than a predetermined first distance from the first starting point and smaller than a predetermined second distance from the first starting point. When in the input detection area, the first angle formed by the first coordinate system and the straight line from the first start point to the first end point is detected, and the second angle is set as the first angle. The input device according to claim 1, further comprising: executing the input determination unit. 前記第2の検出手段において指が離れた第2の終点が、前記第2の起点から前記第1の距離より大きく且つ前記第2の起点から前記第2の距離より小さい第2のフリック入力検知エリアにある場合は、前記第2の起点から前記第2の終点への直線と前記第2の座標系がなす第2の角度を検出することをさらに特徴とする請求項1に記載の入力装置。   Second flick input detection in which the second end point at which the finger is separated in the second detection means is greater than the first distance from the second start point and less than the second distance from the second start point. 2. The input device according to claim 1, further comprising: a second angle formed by the second coordinate system and a straight line from the second starting point to the second ending point when in the area. . 情報を入出力するタッチスクリーンと、
前記タッチスクリーン上で操作が入力された場合に、起点からドラッグされた終点への直線と所定の座標系がなす角度を検出する検出手段と、
前記角度に対応する角度範囲を音声で通知する通知手段と、
前記通知手段による音声通知後に、前記起点を中心とする反時計回りの方向又は時計回りの方向に指の移動が検出された場合は、前記検出手段で検出された角度範囲を当該方向に隣接する角度範囲に修正する修正手段と
を具備することを特徴とする角度入力装置。
A touch screen that inputs and outputs information;
Detecting means for detecting an angle formed by a predetermined coordinate system and a straight line from the starting point to the end point dragged when an operation is input on the touch screen;
A notification means for notifying the angle range corresponding to the angle by voice;
After the voice notification by the notification means, when movement of the finger is detected in the counterclockwise direction or the clockwise direction around the starting point, the angle range detected by the detection means is adjacent to the direction. An angle input device comprising correction means for correcting the angle range.
情報を入出力するタッチスクリーンと、
前記タッチスクリーンの所定の表示領域内の所定の点を中心とし、前記中心から複数方向に複数の角度範囲を設け、前記中心と前記角度範囲を画面に表示する表示処理手段と、
前記タッチスクリーン上で操作が入力された場合に、起点からドラッグされた終点への直線と所定の座標系がなす角度を検出する検出手段とを具備し、
前記表示処理手段は、前記起点が検出された場合に前記中心の表示態様を変更し、前記終点が検出された場合に前記角度に対応する角度範囲の表示態様を変更することを特徴とする角度入力装置。
A touch screen that inputs and outputs information;
Display processing means for providing a plurality of angle ranges in a plurality of directions from the center around a predetermined point in a predetermined display area of the touch screen, and displaying the center and the angle range on a screen;
A detection means for detecting an angle formed by a predetermined coordinate system and a straight line from the start point to the end point dragged when an operation is input on the touch screen;
The display processing means changes the display mode of the center when the starting point is detected, and changes the display mode of the angle range corresponding to the angle when the end point is detected. Input device.
前記表示領域は、前記操作の入力領域と異なる領域に設けられることを特徴とする請求項6に記載の角度入力装置。   The angle input device according to claim 6, wherein the display area is provided in an area different from the input area for the operation. 請求項1乃至4のいずれか1項に記載の入力装置を構成する各手段としてコンピュータを機能させるプログラム。   The program which makes a computer function as each means which comprises the input device of any one of Claims 1 thru | or 4.
JP2012236831A 2012-10-26 2012-10-26 Input device, angle input device, and program Active JP5427940B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012236831A JP5427940B1 (en) 2012-10-26 2012-10-26 Input device, angle input device, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012236831A JP5427940B1 (en) 2012-10-26 2012-10-26 Input device, angle input device, and program

Publications (2)

Publication Number Publication Date
JP5427940B1 JP5427940B1 (en) 2014-02-26
JP2014086018A true JP2014086018A (en) 2014-05-12

Family

ID=50287358

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012236831A Active JP5427940B1 (en) 2012-10-26 2012-10-26 Input device, angle input device, and program

Country Status (1)

Country Link
JP (1) JP5427940B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016161391A (en) * 2015-03-02 2016-09-05 日本電気株式会社 Information processing system, time inputting method and program therefor
JP2017010275A (en) * 2015-06-22 2017-01-12 弘幸 山下 Character input device, character input method, and program
CN115328379A (en) * 2022-06-30 2022-11-11 中银金融科技有限公司 Character input recognition method and device based on touch screen

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5973506B2 (en) * 2014-07-22 2016-08-23 日本電信電話株式会社 Input device and input program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016161391A (en) * 2015-03-02 2016-09-05 日本電気株式会社 Information processing system, time inputting method and program therefor
JP2017010275A (en) * 2015-06-22 2017-01-12 弘幸 山下 Character input device, character input method, and program
CN115328379A (en) * 2022-06-30 2022-11-11 中银金融科技有限公司 Character input recognition method and device based on touch screen

Also Published As

Publication number Publication date
JP5427940B1 (en) 2014-02-26

Similar Documents

Publication Publication Date Title
US20220100368A1 (en) User interfaces for improving single-handed operation of devices
AU2019203626B2 (en) Devices, methods, and graphical user interfaces for wireless pairing with peripheral devices and displaying status information concerning the peripheral devices
EP3461291B1 (en) Implementation of a biometric enrollment user interface
EP3262499B1 (en) Device, method, and computer readable storage medium for providing and interacting with a virtual drawing aid
US10474350B2 (en) Devices and methods for processing touch inputs over multiple regions of a touch-sensitive surface
JP5790203B2 (en) Information processing apparatus, information processing method, program, and remote operation system
KR101695174B1 (en) Ergonomic motion detection for receiving character input to electronic devices
US20190227688A1 (en) Head mounted display device and content input method thereof
EP3087456B1 (en) Remote multi-touch control
US10095277B2 (en) Electronic apparatus and display control method thereof
JP2014029686A (en) Information processing device, control method for information processing device, control program, and computer-readable recording medium
JP5427940B1 (en) Input device, angle input device, and program
JP2012199888A (en) Portable terminal
US8543942B1 (en) Method and system for touch-friendly user interfaces
US9244556B2 (en) Display apparatus, display method, and program
JP2014153916A (en) Electronic apparatus, control method, and program
JP2012185703A (en) Input device, input method, and program
EP2843516A2 (en) Improved touch detection for a touch input device
JP5707519B1 (en) Input device, input method, and program
JP5973506B2 (en) Input device and input program
TW200915148A (en) Computer system
KR20110079988A (en) Method and apparatus for inputting korean characters using touch screen, and mobile device comprising the same

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131126

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131202

R150 Certificate of patent or registration of utility model

Ref document number: 5427940

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350