JP2010287032A - Input device - Google Patents

Input device Download PDF

Info

Publication number
JP2010287032A
JP2010287032A JP2009140152A JP2009140152A JP2010287032A JP 2010287032 A JP2010287032 A JP 2010287032A JP 2009140152 A JP2009140152 A JP 2009140152A JP 2009140152 A JP2009140152 A JP 2009140152A JP 2010287032 A JP2010287032 A JP 2010287032A
Authority
JP
Japan
Prior art keywords
input
screen
display
touch
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009140152A
Other languages
Japanese (ja)
Inventor
Atsushi Matsumoto
篤 松本
Koichi Shimizu
浩一 清水
Ko Yamazaki
航 山崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2009140152A priority Critical patent/JP2010287032A/en
Publication of JP2010287032A publication Critical patent/JP2010287032A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an input device allowing improvement of input operability by preventing that a screen component is concealed by a hand or the like of an operator. <P>SOLUTION: This input device includes a display pattern storage part 17 storing a position wherein display of the screen component is not shielded by an operation object associatively to a direction from which the operation object such as the hand of the operator touches a touch face as a display position of the screen component. By determining the display position wherein the display is not shielded by the operation object from the display pattern storage part 17 based on the direction of the operation object, the screen component is displayed on a screen of a display device 12 according to the touch of the touch face. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

この発明は、タッチ入力方式の入力装置に関するものである。   The present invention relates to a touch input type input device.

近年、タッチ入力方式の入力装置を備えた機器は様々な機器に普及している。携帯電話端末等の機器に適用したタッチパネル入力装置は一般的に個人での利用に限定されるが、複数人が同一のタッチパネル上で入力操作を行う機器もある。例えば、据付のナビゲーションシステムは、運転席と助手席の間に配置され、運転席方向からの操作と助手席からの操作が同一のタッチパネルに対して行われる。   In recent years, devices including a touch input type input device have been widely used in various devices. A touch panel input device applied to a device such as a mobile phone terminal is generally limited to personal use, but there is also a device in which a plurality of people perform input operations on the same touch panel. For example, an installed navigation system is disposed between a driver seat and a passenger seat, and an operation from the driver seat direction and an operation from the passenger seat are performed on the same touch panel.

このようなタッチ入力方式の入力装置において、操作性や操作方向に応じた表示を行う従来の技術としては、例えば、特許文献1に開示される入力装置がある。
特許文献1の入力装置では、識別信号の受信の有無によっていずれの方向から操作画面を見ている操作者が操作を行っているのかを判別することにより、この操作画面に操作者が見る方向に応じた適正な画像を表示することができる。
In such a touch input type input device, for example, there is an input device disclosed in Patent Document 1 as a conventional technique for performing display according to operability and operation direction.
In the input device of Patent Document 1, by determining from which direction the operator who is viewing the operation screen is performing an operation depending on whether or not an identification signal is received, the operator sees the operation screen in the direction of viewing. An appropriate image can be displayed.

また、特許文献2は、文字入力の操作性を向上させるため、ひらがな文字入力用の10個のキーを5個1組として2組のキー群を対称に縦方向に配置することにより、右利きと左利きのいずれのユーザにとっても文字入力がし易い構造を提案している。   Further, in Patent Document 2, in order to improve the operability of character input, ten keys for hiragana character input are arranged as one set, and two sets of keys are arranged symmetrically in the vertical direction, thereby being right-handed. And a left-handed user have proposed a structure that allows easy character input.

特開2007−94612号公報JP 2007-94612 A 特許第3249791号公報Japanese Patent No. 3249791

従来の入力装置では、異なる方向から同一のタッチパネルに対して操作されても、操作方向に依らず、ユーザインタフェースは一定である場合が一般的である。このため、操作方向によっては画面の一部が操作者の手で隠れてしまい、操作性が悪くなるという課題があった。   In the conventional input device, even when the same touch panel is operated from different directions, the user interface is generally constant regardless of the operation direction. For this reason, a part of the screen is hidden by the operator's hand depending on the operation direction, and there is a problem that the operability is deteriorated.

また、特許文献1は、操作者がどの方向から操作画面に操作しているかを判別するが、デュアルビューLCDを搭載した車載情報機器において、助手席用と運転席用とに別々に表示した画面に対してどちら側から操作が行われたかを判別するものであり、結局、上述した操作性の悪化に対する解決は考慮されていない。   Further, Patent Document 1 determines from which direction the operator is operating on the operation screen, but in the in-vehicle information device equipped with the dual view LCD, screens displayed separately for the passenger seat and the driver seat. On the other hand, it is determined from which side the operation is performed, and the solution to the above-described deterioration in operability is not considered.

さらに、特許文献2はキー群が固定的に配置されるため、この特許文献2においても、操作方向によっては、操作者の手でキーが隠れてしまう可能性がある。   Furthermore, since the key group is fixedly arranged in Patent Document 2, in this Patent Document 2, the key may be hidden by the operator's hand depending on the operation direction.

この発明は、上記のような課題を解決するためになされたもので、操作者の手などで画面部品が隠れることを防止し、入力操作性の向上を図ることができる入力装置を得ることを目的とする。   The present invention has been made to solve the above-described problems, and it is an object of the present invention to provide an input device capable of preventing the screen parts from being hidden by the operator's hand and the like and improving the input operability. Objective.

この発明に係る入力装置は、タッチ面をタッチして入力するタッチ式入力手段と、タッチ式入力手段のタッチ面に対応する画面を表示する表示手段と、タッチ式入力手段のタッチ面をタッチする操作物を検出するセンサ手段と、センサ手段で検出された操作物の検出位置に基づいて、当該操作物がいずれの方向からタッチ面をタッチしたかを判定する判定手段と、画面部品の表示位置として、操作物がいずれの方向からタッチ面をタッチするかに対応付けて、当該操作物で画面部品の表示が遮蔽されない位置を記憶する第1の記憶手段と、判定手段が特定した操作物の方向を基に第1の記憶手段から操作物で表示が遮蔽されない表示位置を決定することにより、タッチ面のタッチに応じて画面部品を表示手段の画面に表示する処理手段とを備えるものである。   An input device according to the present invention touches a touch surface of a touch type input unit, a touch type input unit that touches and inputs a touch surface, a display unit that displays a screen corresponding to the touch surface of the touch type input unit, Sensor means for detecting the operation article, determination means for determining from which direction the operation article touches the touch surface based on the detection position of the operation article detected by the sensor means, and the display position of the screen component The first storage means for storing the position at which the display of the screen component is not shielded by the operation article in association with the direction in which the operation article touches the touch surface, and the operation article specified by the determination means Processing means for displaying a screen component on the screen of the display means according to the touch on the touch surface by determining a display position from which the display is not shielded by the operation article from the first storage means based on the direction. Is shall.

この発明によれば、画面部品の表示位置として、操作物がいずれの方向からタッチ面をタッチするかに対応付けて当該操作物で画面部品の表示が遮蔽されない位置を記憶する第1の記憶手段を備え、操作物の方向に基づいて、第1の記憶手段から操作物で表示が遮蔽されない表示位置を決定することにより、タッチ面のタッチに応じて画面部品を表示手段の画面に表示する。このように構成することで、操作者の手などで画面部品が隠れることを防止し、入力操作性の向上を図ることができるという効果がある。   According to the present invention, as the display position of the screen component, the first storage unit that stores a position where the display of the screen component is not shielded by the operation article in association with which direction the operation article touches the touch surface. And displaying a screen part on the screen of the display unit according to the touch on the touch surface by determining a display position where the display is not shielded by the operation item from the first storage unit based on the direction of the operation item. With this configuration, it is possible to prevent the screen parts from being hidden by the operator's hand and the like and to improve the input operability.

この発明の実施の形態1による入力装置の構成を示すブロック図である。It is a block diagram which shows the structure of the input device by Embodiment 1 of this invention. 操作者方向の判定処理の一例を説明するための図である。It is a figure for demonstrating an example of the determination process of an operator direction. 操作者方向の判定処理の他の例を説明するための図である。It is a figure for demonstrating the other example of the determination process of an operator direction. 表示パターン格納部が保持するデータ内容の一例を示す図である。It is a figure which shows an example of the data content which a display pattern storage part hold | maintains. 実施の形態1の入力装置による動作の流れを示すフローチャートである。3 is a flowchart illustrating a flow of operations performed by the input device according to the first embodiment. ソフトウェアキーボードに実施の形態1の入力装置を適用した例を示す図である。It is a figure which shows the example which applied the input device of Embodiment 1 to the software keyboard. 表示パターン格納部が保持するデータ内容の他の例を示す図である。It is a figure which shows the other example of the data content which a display pattern storage part hold | maintains. 図6で示したソフトウェアキーボードで画面部品の縮小処理を行う場合を説明するための図である。It is a figure for demonstrating the case where the reduction process of a screen component is performed with the software keyboard shown in FIG. 操作者の手の検出有無に応じてポップアップ表示の開始と終了を決定する処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the process which determines the start and completion | finish of a pop-up display according to the presence or absence of an operator's hand detection. この発明の実施の形態2による入力装置の構成を示すブロック図である。It is a block diagram which shows the structure of the input device by Embodiment 2 of this invention. 方向別入力候補予測辞書の具体例を示す図である。It is a figure which shows the specific example of the input candidate prediction dictionary classified by direction. 操作者方向別の入力履歴辞書の具体例を示す図である。It is a figure which shows the specific example of the input log | history dictionary classified by operator direction. 実施の形態2の入力装置による動作の流れを示すフローチャートである。10 is a flowchart illustrating a flow of operations performed by the input device according to the second embodiment.

実施の形態1.
図1は、この発明の実施の形態1による入力装置の構成を示すブロック図であり、実施の形態1の入力装置をカーナビゲーションシステムにおける文字入力システムに適用した場合を示している。図1において、実施の形態1の入力装置10は、タッチ式入力装置(タッチ式入力手段)11、表示装置(表示手段)12、センサ(センサ手段)13、入力判定部(判定手段)14、入力処理部(処理手段)15、描画位置判定部(処理手段)16、表示パターン格納部(第1の記憶手段)17及び描画処理部(処理手段)18を備える。
Embodiment 1 FIG.
FIG. 1 is a block diagram showing a configuration of an input device according to Embodiment 1 of the present invention, and shows a case where the input device of Embodiment 1 is applied to a character input system in a car navigation system. 1, an input device 10 according to the first embodiment includes a touch input device (touch type input unit) 11, a display device (display unit) 12, a sensor (sensor unit) 13, an input determination unit (determination unit) 14, An input processing unit (processing unit) 15, a drawing position determination unit (processing unit) 16, a display pattern storage unit (first storage unit) 17, and a drawing processing unit (processing unit) 18 are provided.

タッチ式入力装置11は、タッチ操作を受け付ける入力装置である。タッチ式入力装置11では、操作者からタッチ操作を受けると、このタッチ位置に応じたタッチ面上の座標を入力判定部14へ出力する。表示装置12は、タッチ式入力装置11からの入力のフィードバックを表示する出力装置である。なお、図1では、複数の方向から見ても同じ内容の画面を表示する一般的な表示装置としているが、見られる方向により異なる画面内容を表示可能な表示装置(マルチビューモニタ)を用いてもよい。   The touch input device 11 is an input device that accepts a touch operation. When a touch operation is received from the operator, the touch input device 11 outputs coordinates on the touch surface corresponding to the touch position to the input determination unit 14. The display device 12 is an output device that displays feedback of input from the touch input device 11. In FIG. 1, a general display device that displays a screen having the same content even when viewed from a plurality of directions is used. However, a display device (multi-view monitor) that can display different screen contents depending on the viewing direction is used. Also good.

センサ13は、操作者の手がタッチ式入力装置11のタッチ面上のどこにあるかを検出する検出装置である。この検出方式としては、例えば、赤外線や超音波をプローブに利用する場合であれば、センサ13をタッチ式入力装置11のタッチ面周囲に配置しておき、赤外線や超音波の反射波の変動を電気信号としてモニタすることが考えられる。また、カメラで撮像した画像から操作者の手の位置を認識する画像処理技術を利用してもよい。   The sensor 13 is a detection device that detects where the operator's hand is on the touch surface of the touch input device 11. As this detection method, for example, when infrared rays or ultrasonic waves are used for the probe, the sensor 13 is arranged around the touch surface of the touch input device 11 to change the reflected waves of the infrared rays and ultrasonic waves. It is conceivable to monitor as an electrical signal. Further, an image processing technique for recognizing the position of the operator's hand from an image captured by the camera may be used.

入力判定部14は、タッチ式入力装置11からの信号が出力されたタイミングで、センサ13から信号を取得し、取得した信号に基づきタッチ面の右左上下のいずれの方向から入力操作が行われたかを判定する構成部である。また、入力判定部14は、タッチ式入力装置11からの信号に基づいてタッチ面上のタッチ位置に応じた座標を算出し、タッチ面に対して操作者が入力操作した方向(以下、操作者方向と呼ぶ)と併せて入力処理部15へ出力する。   The input determination unit 14 acquires the signal from the sensor 13 at the timing when the signal from the touch input device 11 is output, and based on the acquired signal, from which direction the left, right, upper, and lower sides of the touch surface is input. It is the component which determines. Further, the input determination unit 14 calculates coordinates according to the touch position on the touch surface based on a signal from the touch input device 11, and the direction in which the operator performs an input operation on the touch surface (hereinafter referred to as the operator). Output to the input processing unit 15.

図2は、操作者方向の判定処理の一例を説明するための図であり、センサ13に赤外線センサを用いている。図2に示すように、センサ13として、表示装置12の表示画面(タッチ式入力装置11のタッチ面を上層に配置)の周囲に赤外線センサを配置する。
センサ13で赤外線の反射波を検出することにより、操作者の手が、赤外線センサ上にあることが分かる。入力判定部14は、センサ13からの反射波の検出信号を入力して、この検出信号が領域1からのものか、領域2からのものかを判定することで、操作者方向が左方向であるか右方向であるかを判定する。
FIG. 2 is a diagram for explaining an example of the operator direction determination process, and an infrared sensor is used as the sensor 13. As shown in FIG. 2, an infrared sensor is arranged as a sensor 13 around the display screen of the display device 12 (the touch surface of the touch input device 11 is arranged in the upper layer).
By detecting infrared reflected waves with the sensor 13, it can be seen that the operator's hand is on the infrared sensor. The input determination unit 14 receives the detection signal of the reflected wave from the sensor 13 and determines whether the detection signal is from the region 1 or the region 2 so that the operator direction is the left direction. It is determined whether there is a right direction.

なお、図2の例では領域1と領域2のみに分割しているが、図3に示すように、領域をさらに分割して、操作者方向が左方向(右方向)であることを示す領域1(領域2)の他に、操作者方向が上方向(下方向)であることを示す領域3(領域4)を規定することにより、左右方向以外の方向を検出するようにしてもよい。領域1〜4をさらに分割して、様々な方向の操作者方向を検出できるようにしても構わない。   In the example of FIG. 2, the area is divided only into the area 1 and the area 2. However, as shown in FIG. 3, the area is further divided to indicate that the operator direction is the left direction (right direction). In addition to 1 (region 2), a region other than the left and right direction may be detected by defining region 3 (region 4) indicating that the operator direction is the upward direction (downward direction). The areas 1 to 4 may be further divided so that the operator directions in various directions can be detected.

入力処理部15は、入力判定部14から入力したタッチ位置に応じた座標に基づいて、表示装置12に表示する画面部品を生成する構成部である。描画位置判定部16は、表示パターン格納部17に格納された表示パターンデータを参照して、入力処理部15で生成された画面部品の表示位置を判定する構成部である。描画処理部18は、入力処理部15からの描画指示に基づいて、表示装置12の画面上に画面表示を行う構成部である。   The input processing unit 15 is a component that generates a screen component to be displayed on the display device 12 based on coordinates according to the touch position input from the input determination unit 14. The drawing position determination unit 16 is a component that determines the display position of the screen component generated by the input processing unit 15 with reference to the display pattern data stored in the display pattern storage unit 17. The drawing processing unit 18 is a component that performs screen display on the screen of the display device 12 based on a drawing instruction from the input processing unit 15.

表示パターン格納部17は、表示パターンデータが格納される記憶部である。表示パターンデータとは、表示装置12の画面上に表示する画面内容毎に付与した画面ID、この画面IDで特定される画面上に表示する画面部品(例えばポップアップ表示部品)に付与された部品ID及び操作者方向に応じた画面部品の表示座標が少なくとも対応付けられたデータである。   The display pattern storage unit 17 is a storage unit that stores display pattern data. The display pattern data is a screen ID assigned for each screen content displayed on the screen of the display device 12, and a component ID assigned to a screen component (for example, a pop-up display component) displayed on the screen specified by this screen ID. And the display coordinates of the screen parts corresponding to the operator direction are at least associated with each other.

図4は、表示パターン格納部が保持するデータ内容の一例を示す図である。図4に示すように、表示パターンデータは、画面ID、この画面IDで特定される画面上に表示する画面部品及び操作者方向(図4では左方向と右方向)に応じた画面部品の表示座標(タッチ面上の座標位置)が対応付けられている。描画位置判定部16は、画面ID、画面部品及び操作者方向に基づき、表示パターン格納部17の表示パターンデータを参照することにより、当該画面部品を表示すべき座標位置を特定する。   FIG. 4 is a diagram illustrating an example of data contents held by the display pattern storage unit. As shown in FIG. 4, the display pattern data includes a screen ID, a screen component displayed on the screen specified by the screen ID, and a screen component display corresponding to the operator direction (left direction and right direction in FIG. 4). Coordinates (coordinate positions on the touch surface) are associated with each other. The drawing position determination unit 16 refers to the display pattern data in the display pattern storage unit 17 based on the screen ID, the screen component, and the operator direction, thereby specifying the coordinate position where the screen component is to be displayed.

このように、表示パターンデータとして、画面ID、画面部品、操作者方向からポップアップ部品を表示する座標を予め一意に決定しておく。この他、例えば、描画処理部18の機能として、左方向からの入力に対してはタッチ位置の右側に(逆に右方向からの入力に対してはタッチ位置の左側に)一定の画素数だけ離れた場所に画面部品を表示する等、動的に画面部品の表示座標を決定するようにしてもよい。
なお、動的に座標位置を決定すると、画面上の画像表示領域から画面部品がはみ出してしまう場合が起こり得る。この場合には、タッチ位置から一定の画素数だけ離れた上方(あるいは下方)に画面部品を表示することで回避できる。
In this way, the coordinates for displaying the pop-up component are uniquely determined in advance from the screen ID, the screen component, and the operator direction as the display pattern data. In addition, for example, as a function of the drawing processing unit 18, a certain number of pixels is provided on the right side of the touch position for input from the left direction (conversely on the left side of the touch position for input from the right direction). You may make it determine the display coordinate of a screen component dynamically, such as displaying a screen component in a distant place.
If the coordinate position is dynamically determined, the screen component may protrude from the image display area on the screen. In this case, the problem can be avoided by displaying the screen component above (or below) a certain number of pixels away from the touch position.

次に動作について説明する。
図5は、実施の形態1の入力装置による動作の流れを示すフローチャートである。また、図6は、ソフトウェアキーボードに実施の形態1の入力装置を適用した例を示す図である。以降は、図5に沿って図6の内容を説明する。なお、図6のソフトウェアキーボードは、2タッチで入力文字を決定するものであり、最初に50音表の各行の先頭文字である「あ」「か」「さ」「た」「な」「は」「ま」「や」「ら」「わ」のうちから選択して、この後、選択した行に属する文字を選択することで入力文字が決定される。
Next, the operation will be described.
FIG. 5 is a flowchart illustrating a flow of operations performed by the input device according to the first embodiment. FIG. 6 is a diagram illustrating an example in which the input device according to the first embodiment is applied to a software keyboard. Hereinafter, the contents of FIG. 6 will be described with reference to FIG. The software keyboard shown in FIG. 6 determines input characters with two touches. First, “a”, “ka”, “sa”, “ta”, “na”, “ha” are the first characters in each line of the 50-note table. The input character is determined by selecting from “”, “MA”, “YA”, “RA”, and “WA”, and then selecting a character belonging to the selected line.

先ず、操作者がタッチ式入力装置11にタッチ入力(ステップST1)を行うと、タッチ式入力装置11が、当該操作者からのタッチ入力を検出して、タッチ面上のタッチ位置座標を入力判定部14へ出力する。図6に示す時点(1)は、表示装置12の表示画面上に表示配置された12個のキーボタンのうち、操作者が左方向から行キー「か」ボタン19aを押下(タッチ入力)している。これにより、行キー「か」ボタン19aのタッチ位置座標がタッチ式入力装置11から入力判定部14へ出力される。   First, when an operator performs touch input to the touch input device 11 (step ST1), the touch input device 11 detects the touch input from the operator and inputs the touch position coordinates on the touch surface. To the unit 14. At time (1) shown in FIG. 6, the operator depresses (touch input) the row key “ka” button 19 a from the left direction among the twelve key buttons displayed and arranged on the display screen of the display device 12. ing. As a result, the touch position coordinates of the row key “ka” button 19 a are output from the touch input device 11 to the input determination unit 14.

入力判定部14では、タッチ式入力装置11からタッチ位置情報が出力されると、これを契機に当該タッチ入力に対するセンサ13の検出信号を取得し、この検出信号に基づいて操作者の手が存在するタッチ面上の領域を判定し、操作者の方向を判定する(ステップST2)。また、入力判定部14は、タッチ式入力装置11から入力したタッチ位置情報に基づき、表示装置12が表示している、どの画面部品に対応するタッチ位置がタッチされたかを判別する。   When the touch position information is output from the touch input device 11, the input determination unit 14 acquires a detection signal of the sensor 13 for the touch input as a trigger, and the operator's hand is present based on the detection signal. The area on the touch surface to be determined is determined, and the direction of the operator is determined (step ST2). Further, the input determination unit 14 determines, based on the touch position information input from the touch input device 11, which screen component displayed on the display device 12 is touched.

図6の例では、入力判定部14が、タッチ式入力装置11がタッチ位置情報を出力したタイミングで、センサ13から検出信号(センサ情報)を入力し、このセンサ情報に基づいて、当該タッチ入力の操作方向が左方向であることを判定する。また、入力判定部14は、このときタッチ式入力装置11から入力したタッチ位置情報に基づいて、操作者によって行キー「か」ボタン19aが押下されたことを判別する。   In the example of FIG. 6, the input determination unit 14 inputs a detection signal (sensor information) from the sensor 13 at a timing when the touch input device 11 outputs touch position information, and the touch input is performed based on the sensor information. It is determined that the operation direction is the left direction. Further, the input determination unit 14 determines based on the touch position information input from the touch input device 11 at this time that the row key “ka” button 19 a is pressed by the operator.

続いて、入力処理部15は、タッチ位置座標に対応する処理を行い、この処理に応じて表示装置12に表示すべき画面情報(画面部品)を生成する(ステップST3)。図6の例では、入力処理部15が、タッチ位置情報から行キー「か」ボタン19aが押下されたことを特定すると、これに続く処理として、「か」行に属する文字列である「か」「き」「く」「け」「こ」と「戻る」の選択ボタンを表示すべきと判定する。この処理に応じて、入力処理部15は、「か」「き」「く」「け」「こ」と「戻る」を選択する6個の選択ボタン19bの画面部品を生成する。   Subsequently, the input processing unit 15 performs processing corresponding to the touch position coordinates, and generates screen information (screen component) to be displayed on the display device 12 according to this processing (step ST3). In the example of FIG. 6, when the input processing unit 15 specifies that the row key “ka” button 19 a is pressed from the touch position information, “ka” is a character string belonging to the “ka” row as the subsequent processing. It is determined that selection buttons for “”, “ki”, “ku”, “ke”, “ko” and “return” should be displayed. In response to this processing, the input processing unit 15 generates screen parts for six selection buttons 19b for selecting “ka”, “ki”, “ku”, “ke”, “ko”, and “return”.

次に、描画位置判定部16が、入力処理部15で生成された画面部品を表示すべき座標を判定する(ステップST4)。座標位置の判定は、描画位置判定部16が、入力処理部15から画面部品と操作者方向を特定する情報を入力し、この情報に基づいて、表示パターン格納部17に格納される表示パターンデータを参照することにより、画面部品を表示すべき座標位置を判定する。   Next, the drawing position determination unit 16 determines the coordinates at which the screen component generated by the input processing unit 15 is to be displayed (step ST4). For the determination of the coordinate position, the drawing position determination unit 16 inputs information specifying the screen component and the operator direction from the input processing unit 15, and display pattern data stored in the display pattern storage unit 17 based on this information. The coordinate position where the screen component is to be displayed is determined by referring to.

例えば、図6の時点(2)の画面を特定する画面ID、入力処理部15が生成した画面部品に相当する画面部品(「か」「き」「く」「け」「こ」「戻る」の選択ボタン19b)及び操作者方向(ここでは「左方向」)を基に、図4に示す表示パターンデータが参照されて「か」「き」「く」「け」「こ」「戻る」の選択ボタン19bをそれぞれ表示すべき座標が判定され取得される。描画位置判定部16が取得した描画位置座標は、入力処理部15へフィードバックされる。   For example, the screen ID for specifying the screen at the time (2) in FIG. 6 and the screen parts corresponding to the screen parts generated by the input processing unit 15 (“ka” “ki” “ku” “ke” “ko” “return”) 4 on the basis of the selection button 19b) and the operator direction (in this case, "left direction"), the display pattern data shown in FIG. 4 is referred to and "ka" "ki" "ku" "ke" "ko" "return" The coordinates for displaying the selection buttons 19b are determined and acquired. The drawing position coordinates acquired by the drawing position determination unit 16 are fed back to the input processing unit 15.

ステップST5において、入力処理部15は、描画位置判定部16から取得した描画位置座標に基づいて、画面部品を配置した表示画面のレイアウト情報を作成し、このレイアウト情報による描画指示を描画処理部18へ出力する。描画処理部18では、入力処理部15からの描画指示に従う画面を表示装置12に表示する。   In step ST5, the input processing unit 15 creates layout information of the display screen on which the screen components are arranged based on the drawing position coordinates acquired from the drawing position determination unit 16, and draws a drawing instruction based on the layout information. Output to. The drawing processing unit 18 displays a screen according to the drawing instruction from the input processing unit 15 on the display device 12.

図6では、描画する画面部品の位置座標が決定された後、入力処理部15が、描画処理部18に描画指示することにより、時点(2)に示す画面のように、「か」「き」「く」「け」「こ」「戻る」の選択ボタン19bが、表示装置12の画面上に表示される。このとき、操作者方向が左方向であるので、操作者の手で隠れないように、選択ボタン19bが画面右側にずれて配置される。   In FIG. 6, after the position coordinates of the screen component to be drawn are determined, the input processing unit 15 instructs the drawing processing unit 18 to draw, so that “ka” “ki” is displayed as in the screen shown at the time point (2). Selection buttons 19b of “”, “K”, “K”, “K”, and “Return” are displayed on the screen of the display device 12. At this time, since the operator direction is the left direction, the selection button 19b is shifted to the right side of the screen so as not to be hidden by the operator's hand.

また、図6に示す時点(3)(4)は、操作者方向が右方向である場合の画面表示を示している。この場合においても、上述と同様の手順で処理を行い、選択ボタン19bの表示位置を画面左側にすることにより、選択ボタン19bが操作者の手で隠れる不具合を回避でき、操作性の向上につながる。   Also, time points (3) and (4) shown in FIG. 6 indicate screen displays when the operator direction is the right direction. Even in this case, processing is performed in the same manner as described above, and the display position of the selection button 19b is set to the left side of the screen, thereby avoiding a problem that the selection button 19b is hidden by the operator's hand, leading to improved operability. .

なお、図6に示す時点(2)の画面のように「か」「き」「く」「け」「こ」「戻る」の選択ボタン19bを一時的に表示(以下、ポップアップ表示と呼ぶ)させたことにより、画面上に元々表示されていた「さ」「は」「ら」「→」の選択ボタンが隠れてしまう。これらのボタンを選択するには、ポップアップ表示した選択ボタン19bの「戻る」ボタンを押下する等して、ポップアップ表示を終了させる必要がある。   As shown in the screen at time (2) shown in FIG. 6, the selection buttons 19b for “ka”, “ki”, “ku”, “ke”, “ko”, and “return” are temporarily displayed (hereinafter referred to as pop-up display). By doing so, the selection buttons of “sa”, “ha”, “ra”, and “→” that were originally displayed on the screen are hidden. In order to select these buttons, it is necessary to end the pop-up display by pressing the “return” button of the selection button 19b pop-up displayed.

図4に示す表示パターンデータでは、画面部品が、表示されるべき画面とその表示位置に対応付けて登録されている。このため、画面部品をポップアップ表示すると、それ以前に表示されていた画面部品のうち、ポップアップ表示した画面部品によって隠される画面部品を特定することができる。
そこで、ポップアップを表示した状態で、それ以前に表示されていたボタンも選択可能とするため、ポップアップ表示以前に表示されていた画面中でポップアップ表示によって隠れるボタンの表示座標位置を、図4に示す表示パターンデータに予め登録しておく。
例えば、図6では、描画位置判定部16が、「か」「き」「く」「け」「こ」「戻る」の選択ボタン19bの座標を決定する際に併せて、これによって隠されるであろう「さ」「は」「ら」「→」のボタンの座標位置も取得し、選択ボタン19bのポップアップ表示に隠れてしまわない位置を特定する。描画処理部18が、描画位置判定部16により特定された位置に「さ」「は」「ら」「→」のボタンを表示(特定された位置に移動)すればよい。
In the display pattern data shown in FIG. 4, screen components are registered in association with the screen to be displayed and its display position. For this reason, when a screen component is displayed in a pop-up manner, a screen component that is hidden by the pop-up-displayed screen component can be specified from among the screen components displayed before that.
Therefore, in order to make it possible to select a button that was displayed before the pop-up is displayed, the display coordinate position of the button hidden by the pop-up display in the screen displayed before the pop-up display is shown in FIG. It is registered in advance in the display pattern data.
For example, in FIG. 6, the drawing position determination unit 16 is also hidden when determining the coordinates of the selection buttons 19 b of “ka”, “ki”, “ku”, “ke”, “ko”, and “return”. The coordinate positions of the buttons “sa”, “ha”, “ra”, and “→” are also acquired, and the position that is not hidden by the pop-up display of the selection button 19b is specified. The drawing processing unit 18 may display the buttons “sa”, “ha”, “ra”, and “→” at the position specified by the drawing position determination unit 16 (move to the specified position).

また、上述のように、ボタンの位置をずらして表示するスペースが表示装置12の表示画面にない場合、表示位置の変更の他、画面上でのボタンサイズの縮小を行うようにしてもよい。例えば、図4に示す表示パターンデータに加え、図7に示すように縮小後の画面部品サイズの情報も含めておくことで、ポップアップ表示の際に画面ID、画面部品及び操作者方向を基に画面部品の表示座標とサイズを決定することができる。この場合、図7の「縮小後のサイズ」項目に「縮小なし」が登録されていれば、入力処理部15によって生成された画面部品を縮小せずに表示し、サイズの指定があれば、そのサイズ指定に従い画面部品の縮小を行う。なお、この縮小サイズは、画面及び画面部品のサイズを考慮した空きスペースに表示可能なサイズを予め決定して設定する。   Further, as described above, when there is no space on the display screen of the display device 12 where the position of the button is shifted, the button size may be reduced on the screen in addition to the change of the display position. For example, in addition to the display pattern data shown in FIG. 4, information on the screen part size after reduction is included as shown in FIG. 7, so that the pop-up display is based on the screen ID, the screen part, and the operator direction. The display coordinates and size of the screen parts can be determined. In this case, if “no reduction” is registered in the “size after reduction” item in FIG. 7, the screen parts generated by the input processing unit 15 are displayed without reduction, and if the size is specified, The screen parts are reduced according to the size specification. The reduced size is set by determining in advance a size that can be displayed in an empty space in consideration of the size of the screen and screen components.

図8は、図6で示したソフトウェアキーボードで画面部品の縮小処理を行う場合を説明するための図である。図6では、行キー「か」ボタン19aを押下すると、ポップアップ表示された「か」「き」「く」「け」「こ」「戻る」の選択ボタン19bによって、「さ」「は」「ら」「→」の選択ボタンが隠されていたが、上述のように、図7に示す表示パターンデータを参照して、ポップアップ表示する表示位置を変更し、画面部品を縮小することにより、図8に示すように、全てのボタンを表示画面上に表示することができる。   FIG. 8 is a diagram for explaining a case where the screen part reduction processing is performed using the software keyboard shown in FIG. In FIG. 6, when the row key “ka” button 19 a is pressed, “sa”, “ha”, “ha”, “ka”, “ki”, “ku”, “ke”, “ko”, and “return” selection buttons 19 b are displayed. “→” selection buttons were hidden, but as described above, the display pattern data shown in FIG. 7 is referred to, the display position for pop-up display is changed, and the screen parts are reduced. As shown in FIG. 8, all buttons can be displayed on the display screen.

また、図6に示す時点(2)のようにポップアップが表示された画面で「戻る」ボタンを押下すると、選択ボタン19bのポップアップ表示を終了できるが、操作者の手を一定時間検出しなくなると、入力操作が一旦終了したものとしてポップアップ表示を終了するようにしてもよい。   Further, when the “return” button is pressed on the screen where the pop-up is displayed as shown in FIG. 6 (2), the pop-up display of the selection button 19b can be terminated, but when the operator's hand is not detected for a certain period of time. The pop-up display may be terminated assuming that the input operation has been completed.

図9は、上述した操作者の手の検出有無に応じてポップアップ表示の開始と終了を決定する処理の流れを示すフローチャートである。
先ず、入力判定部14は、描画処理部18により表示装置12の画面上にポップアップ表示した後、センサ13からセンサ情報の取得を開始する(ステップST1a)。次に、入力判定部14は、センサ13からのセンサ情報に基づいて、操作者の手の方向(操作者方向)を判定し特定する(ステップST2a)。
FIG. 9 is a flowchart showing a flow of processing for determining the start and end of the pop-up display in accordance with the above-described presence / absence of the operator's hand.
First, the input determination unit 14 starts pop-up display on the screen of the display device 12 by the drawing processing unit 18, and then starts acquisition of sensor information from the sensor 13 (step ST1a). Next, the input determination unit 14 determines and specifies the direction of the operator's hand (operator direction) based on the sensor information from the sensor 13 (step ST2a).

続いて、入力判定部14は、表示装置12の画面上にポップアップ表示してから1回目の測定であるか否かを判定する(ステップST3a)。ここで、1回目の測定である場合(ステップST3a;YES)、入力判定部14は、今回の測定で判定された操作者方向を不図示のメモリに記憶して、所定時間ウェイト(図9は、100msec待ちの状態)した後(ステップST6a)、ステップST1aに戻り、上記処理を繰り返す。   Subsequently, the input determination unit 14 determines whether or not it is the first measurement after pop-up display on the screen of the display device 12 (step ST3a). Here, in the case of the first measurement (step ST3a; YES), the input determination unit 14 stores the operator direction determined in the current measurement in a memory (not shown), and waits for a predetermined time (FIG. 9 shows). , Waiting for 100 msec) (step ST6a), the process returns to step ST1a and the above process is repeated.

2回目以降の測定である場合(ステップST3a;NO)、入力判定部14が、センサ13のセンサ情報を基に前回測定した操作者方向(操作者の手の方向)と今回測定された操作者方向とが同一であるか否かを判定する(ステップST4a)。このとき、操作者方向が同一であると(ステップST4a;YES)、入力判定部14は、同一操作者の手が画面上にあると判断し、今回の測定で判定された操作者方向を上記メモリに記憶した後、ステップST6aの処理を経由してからステップST1aに戻り、上記処理を繰り返す。   In the case of the second and subsequent measurements (step ST3a; NO), the input determination unit 14 previously measured based on the sensor information of the sensor 13 (the direction of the operator's hand) and the operator measured this time It is determined whether or not the direction is the same (step ST4a). At this time, if the operator direction is the same (step ST4a; YES), the input determination unit 14 determines that the same operator's hand is on the screen, and determines the operator direction determined in the current measurement as described above. After storing in the memory, the process returns to step ST1a through the process of step ST6a, and the above process is repeated.

操作者方向が異なる場合(ステップST4a;NO)、入力判定部14は、同一操作者の手が画面上にないと判断し、現在画面上のポップアップ表示を終了する(ステップST5a)。   When the operator directions are different (step ST4a; NO), the input determination unit 14 determines that the same operator's hand is not on the screen and ends the pop-up display on the current screen (step ST5a).

なお、ステップST4aの判定において、今回測定時に操作者の手が画面上のどこにもないと判断された場合には、ステップST5aの処理に移行するようにしてもよい。
図9に示す処理では、操作者の手が画面上から離れたときは入力操作の継続意思がなくなったものと判断してポップアップ表示を終了する。このようにすることにより、例えば「戻る」ボタンの押下等の明示的な終了操作を行うことなく、ポップアップ表示を終了させることができる。
If it is determined in step ST4a that the operator's hand is not anywhere on the screen during the current measurement, the process may proceed to step ST5a.
In the process shown in FIG. 9, when the operator's hand leaves the screen, it is determined that the intention to continue the input operation is lost, and the pop-up display is terminated. By doing so, the pop-up display can be terminated without performing an explicit termination operation such as pressing the “return” button.

以上のように、この実施の形態1によれば、画面部品の表示位置として、操作者の手のような操作物がいずれの方向からタッチ面をタッチするかに対応付けて当該操作物で画面部品の表示が遮蔽されない位置を記憶する表示パターン格納部17を備え、操作物の方向に基づいて、表示パターン格納部17から操作物で表示が遮蔽されない表示位置を決定することにより、タッチ面のタッチに応じて画面部品を表示装置12の画面に表示する。
このように構成することで、操作者の手などで画面部品が隠れることを防止し、入力操作性の向上を図ることができる。例えば、表示装置12の最前画面にダイアログボックスやメッセージボックス、メニュー、ヘルプ文字列等をポップアップ表示する場合、操作者の手で隠れない位置にポップアップ表示することにより、操作性を向上させることができる。
As described above, according to the first embodiment, as the display position of the screen component, the operation object such as the hand of the operator touches the touch surface from which direction and the screen is displayed on the operation object. A display pattern storage unit 17 for storing a position where the display of the component is not shielded is provided, and a display position where the display is not shielded by the operation article is determined from the display pattern storage unit 17 on the basis of the direction of the operation article. Screen components are displayed on the screen of the display device 12 in response to the touch.
By configuring in this way, it is possible to prevent the screen parts from being hidden by the operator's hand, and to improve the input operability. For example, when a dialog box, a message box, a menu, a help character string, or the like is popped up on the front screen of the display device 12, the operability can be improved by popping up the screen at a position not hidden by the operator's hand. .

また、この実施の形態1によれば、画面上に元々表示していた画面部品のうち、ポップアップ表示によって隠れて見えなくなる画面部品については、入力処理部15が、図7に示す表示パターンデータを参照することにより、表示位置の変更及び部品サイズの縮小の少なくとも一方の処理を施す。このようにすることで、ポップアップ表示を消去する操作を行うことなく、ポップアップ表示前に元々表示していた画面部品を視認し選択することが可能となり、操作性を向上させることができる。   Further, according to the first embodiment, among the screen components originally displayed on the screen, the input processing unit 15 displays the display pattern data shown in FIG. By referencing, at least one of processing of changing the display position and reducing the component size is performed. By doing in this way, it becomes possible to visually recognize and select the screen component that was originally displayed before the pop-up display without performing the operation of erasing the pop-up display, and the operability can be improved.

さらに、この実施の形態1によれば、入力判定部14が、センサ13からのセンサ情報に基づいて、ポップアップ表示した後に操作者の手がタッチ面上にあるか否かを判定し、入力処理部15が、入力判定部14によって操作者の手が所定時間タッチ面上にないと判定されると、ポップアップ表示を消去する操作が行われるのを待つことなく、ポップアップ表示を消去してポップアップ表示前の画面部品を表示させる。このようにすることで、ポップアップ表示を消去する操作を明示的に行う必要がなくなり、操作性を向上させることができる。   Further, according to the first embodiment, the input determination unit 14 determines whether or not the operator's hand is on the touch surface after pop-up display based on the sensor information from the sensor 13 and performs input processing. When the input determination unit 14 determines that the operator's hand is not on the touch surface for a predetermined time, the unit 15 deletes the pop-up display without waiting for an operation to delete the pop-up display, and displays the pop-up display. Display the previous screen part. By doing so, there is no need to explicitly perform an operation for deleting the pop-up display, and the operability can be improved.

実施の形態2.
図10は、この発明の実施の形態2による入力装置の構成を示すブロック図である。図10において、実施の形態2の入力装置10Aは、図1で示した構成に加え、文字入力候補予測部20及び方向別入力候補予測辞書データ保持部21を設けている。
なお、図10では、描画位置判定部16及び表示パターン格納部17の記載を省略している。また、図10において、図1と同一符号を付した構成部は、実施の形態1と同一若しくは同様の機能及び構成を有するので説明を省略する。
Embodiment 2. FIG.
FIG. 10 is a block diagram showing the configuration of the input device according to Embodiment 2 of the present invention. 10, in addition to the configuration shown in FIG. 1, the input device 10A according to the second embodiment includes a character input candidate prediction unit 20 and a direction-specific input candidate prediction dictionary data holding unit 21.
In FIG. 10, the drawing position determination unit 16 and the display pattern storage unit 17 are not shown. 10, components having the same reference numerals as those in FIG. 1 have the same or similar functions and configurations as those in the first embodiment, and thus description thereof is omitted.

文字入力候補予測部(文字列予測手段)20は、タッチ式入力装置11に操作者が入力した文字から、この後に入力しようとしている文字列を予測する構成部である。
また、方向別入力候補予測辞書データ保持部(第2の記憶手段)21は、文字入力候補予測部20による予測処理の際に参照される入力候補予測辞書(予測辞書)を保持する記憶部であり、操作者方向に対応付けて異なる内容の辞書が保持される。
The character input candidate predicting unit (character string predicting unit) 20 is a component that predicts a character string to be input later from characters input by the operator to the touch input device 11.
The direction-specific input candidate prediction dictionary data holding unit (second storage unit) 21 is a storage unit that holds an input candidate prediction dictionary (prediction dictionary) referred to in the prediction process by the character input candidate prediction unit 20. Yes, different dictionaries are stored in association with the operator direction.

例えば、表示パターン格納部17には、方向別入力候補予測辞書データ保持部21が保持する辞書の予測候補ごとの表示位置が操作者方向別に登録されている。文字入力候補予測部20は、後述のようにして、方向別入力候補予測辞書データ保持部21から、操作者方向別の予測候補を選択すると、これを描画位置判定部16へ通知する。描画位置判定部16は、文字入力候補予測部20から通知のあった予測候補の表示位置を、入力判定部14が特定した操作者方向に基づき、表示パターン格納部17を参照して決定する。この後、実施の形態1と同様の手順で処理することにより、表示装置12の画面上の操作者の手で隠れない位置に予測候補が表示される。   For example, in the display pattern storage unit 17, display positions for each prediction candidate of the dictionary held by the direction-specific input candidate prediction dictionary data holding unit 21 are registered for each operator direction. The character input candidate prediction unit 20 notifies the drawing position determination unit 16 when selecting a prediction candidate for each operator direction from the direction-specific input candidate prediction dictionary data holding unit 21 as described later. The drawing position determination unit 16 determines the display position of the prediction candidate notified from the character input candidate prediction unit 20 with reference to the display pattern storage unit 17 based on the operator direction specified by the input determination unit 14. Thereafter, by performing the same procedure as in the first embodiment, a prediction candidate is displayed at a position that is not hidden by the operator's hand on the screen of the display device 12.

図11は、方向別入力候補予測辞書の具体例を示す図である。図11に示すように、方向別入力候補予測辞書データ保持部21は、操作者方向とこれに応じて使用される辞書とを対応付けたリスト情報を有しており、文字入力候補予測部20は、入力予測を行う際にそれぞれの操作者方向で指定される辞書を参照する。   FIG. 11 is a diagram illustrating a specific example of the direction-specific input candidate prediction dictionary. As shown in FIG. 11, the direction-specific input candidate prediction dictionary data holding unit 21 has list information in which the operator direction is associated with the dictionary used in accordance therewith, and the character input candidate prediction unit 20 Refers to a dictionary specified in each operator direction when performing input prediction.

また、図12に示すように、文字入力候補予測部20が、例えば入力予測を行う度に、操作者の入力履歴辞書を操作者方向別(例えば左右別)に作成して方向別入力候補予測辞書データ保持部21に保存しておく。このようにすることで、操作者方向別の文字入力履歴情報から予測候補を抽出することができ、入力効率を高めることができる。   Also, as shown in FIG. 12, each time the character input candidate prediction unit 20 performs input prediction, for example, an operator input history dictionary is created for each operator direction (for example, left and right) to generate direction-specific input candidate prediction. It is stored in the dictionary data holding unit 21. By doing in this way, a prediction candidate can be extracted from the character input log | history information according to operator direction, and input efficiency can be improved.

次に動作について説明する。
図13は、実施の形態2の入力装置による動作の流れを示すフローチャートであり、この図に沿って動作の詳細を述べる。
先ず、操作者がタッチ式入力装置11にタッチ入力(ステップST1b)を行うと、タッチ式入力装置11が、当該操作者からのタッチ入力を検出して、タッチ面上のタッチ位置座標を入力判定部14へ出力する。入力判定部14では、タッチ式入力装置11からタッチ位置情報が出力されると、これを契機に当該タッチ入力に対するセンサ13の検出信号を取得し、この検出信号に基づいて操作者の手が存在するタッチ面上の領域を判定し、操作者の方向を判定する(ステップST2b)。
Next, the operation will be described.
FIG. 13 is a flowchart showing a flow of operations performed by the input device according to the second embodiment, and details of the operations will be described with reference to FIG.
First, when an operator performs touch input to the touch input device 11 (step ST1b), the touch input device 11 detects the touch input from the operator and inputs the touch position coordinates on the touch surface. To the unit 14. When the touch position information is output from the touch input device 11, the input determination unit 14 acquires a detection signal of the sensor 13 for the touch input as a trigger, and the operator's hand is present based on the detection signal. The area on the touch surface to be determined is determined, and the direction of the operator is determined (step ST2b).

続いて、入力判定部14は、タッチ式入力装置11から入力したタッチ位置情報に基づいて、表示装置12が表示している、どの画面部品に対応するタッチ位置がタッチされたかを判別する。ここでは、図6に示した行キー「か」19aが選択されたものとする。
入力処理部15は、入力判定部14によりタッチ位置情報から判定された行キー「か」19aに基づいて、最初の入力文字が「か」であることを特定する。
Subsequently, based on the touch position information input from the touch input device 11, the input determination unit 14 determines which screen component displayed on the display device 12 corresponds to the touch position. Here, it is assumed that the row key “ka” 19a shown in FIG. 6 is selected.
The input processing unit 15 specifies that the first input character is “ka” based on the row key “ka” 19 a determined from the touch position information by the input determining unit 14.

文字入力候補予測部20は、入力処理部15により特定された入力文字「か」と、ステップST2bで入力判定部14により得られた操作者方向を入力すると、この操作者方向及び入力文字を用いて、方向別入力候補予測辞書データ保持部21の保持内容を検索し、入力予測候補を抽出する辞書を決定するとともに、決定した辞書から入力文字に対応する入力候補を予測する(ステップST3b)。文字入力候補予測部20が取得した入力候補は、入力処理部15へフィードバックされる。   When the character input candidate prediction unit 20 inputs the input character “ka” specified by the input processing unit 15 and the operator direction obtained by the input determination unit 14 in step ST2b, the character input candidate prediction unit 20 uses the operator direction and the input character. Then, the content stored in the direction-specific input candidate prediction dictionary data holding unit 21 is searched to determine a dictionary from which the input prediction candidates are extracted, and input candidates corresponding to the input characters are predicted from the determined dictionary (step ST3b). The input candidates acquired by the character input candidate prediction unit 20 are fed back to the input processing unit 15.

ステップST4bにおいて、入力処理部15は、文字入力候補予測部20から取得した入力候補を表示する画面のレイアウト情報を作成し、このレイアウト情報による描画指示を描画処理部18へ出力する。描画処理部18では、入力処理部15からの描画指示に従って、入力候補を表示装置12の画面上に表示する。   In step ST <b> 4 b, the input processing unit 15 creates screen layout information for displaying input candidates acquired from the character input candidate prediction unit 20, and outputs a drawing instruction based on the layout information to the drawing processing unit 18. The drawing processing unit 18 displays input candidates on the screen of the display device 12 in accordance with a drawing instruction from the input processing unit 15.

以上のように、この実施の形態2によれば、操作者の手のような操作物がいずれの方向からタッチ面をタッチするかに対応付けて、入力文字列の予測候補が登録された入力候補予測辞書を記憶する方向別入力候補予測辞書データ保持部21と、操作物によるタッチで文字が入力されると、入力判定部14が特定した操作物の方向に対応する入力候補予測辞書を方向別入力候補予測辞書データ保持部21から選択し、当該入力候補予測辞書を参照して、入力された文字から予測される入力文字列の予測候補を決定する文字入力候補予測部20とを備える。このような構成を有することにより、操作者方向と入力される語彙のジャンルの傾向に関連がある場合、操作者方向別に入力予測候補辞書を使い分けることで、文字入力の効率を高めることが可能である。
例えば、助手席ではAV等のエンタテイメント系の操作を主に行い、運転席ではナビゲーション系の操作を主に行うといった、操作者方向と入力される語彙のジャンルの傾向に関連がある場合、助手席方向からの操作に対しては音楽等のエンターテイメント系の辞書から入力候補を表示し、運転席方向からの操作に対しては施設名称等のナビゲーション系の辞書から入力候補を表示する。
As described above, according to the second embodiment, the input character string prediction candidates registered in association with the direction in which the operation object such as the hand of the operator touches the touch surface is registered. When a character is input by touch with an operation article, the input candidate prediction dictionary corresponding to the direction of the operation article specified by the input determination section 14 is directed to the direction-specific input candidate prediction dictionary data holding section 21 that stores the candidate prediction dictionary. A character input candidate prediction unit 20 that selects from another input candidate prediction dictionary data holding unit 21, refers to the input candidate prediction dictionary, and determines a prediction candidate of an input character string predicted from an input character; By having such a configuration, when there is a relationship between the operator direction and the tendency of the genre of the input vocabulary, it is possible to increase the efficiency of character input by using different input prediction candidate dictionaries for each operator direction. is there.
For example, if the passenger seat is mainly related to entertainment operations such as AV, and the driver seat is mainly used to operate navigation, the passenger seat is related to the genre tendency of the input vocabulary. For operations from the direction, input candidates are displayed from an entertainment dictionary such as music, and for operations from the driver's seat direction, input candidates are displayed from a navigation dictionary such as a facility name.

また、この実施の形態2によれば、方向別入力候補予測辞書データ保持部21が、操作者方向別に文字入力履歴情報を保持するので、操作者方向別の文字入力履歴情報から入力候補を予測することができ、入力効率を高めることができる。   Further, according to the second embodiment, the direction-specific input candidate prediction dictionary data holding unit 21 holds the character input history information for each operator direction, and therefore predicts input candidates from the character input history information for each operator direction. And input efficiency can be increased.

10,10A 入力装置、11 タッチ式入力装置(タッチ式入力手段)、12 表示装置(表示手段)、13 センサ(センサ手段)、14 入力判定部(判定手段)、15 入力処理部(処理手段)、16 描画位置判定部(処理手段)、17 表示パターン格納部(第1の記憶手段)、18 描画処理部(処理手段)、19a,19b 選択ボタン、20 文字入力候補予測部(文字列予測手段)、21 方向別入力候補予測辞書データ保持部(第2の記憶手段)。   10, 10A input device, 11 touch type input device (touch type input means), 12 display device (display means), 13 sensor (sensor means), 14 input determination unit (determination unit), 15 input processing unit (processing unit) 16 drawing position determination unit (processing unit), 17 display pattern storage unit (first storage unit), 18 drawing processing unit (processing unit), 19a, 19b selection button, 20 character input candidate prediction unit (character string prediction unit) ), 21 Direction-specific input candidate prediction dictionary data holding unit (second storage unit).

Claims (6)

タッチ面をタッチして入力するタッチ式入力手段と、
前記タッチ式入力手段のタッチ面に対応する画面を表示する表示手段と、
前記タッチ式入力手段のタッチ面をタッチする操作物を検出するセンサ手段と、
前記センサ手段で検出された操作物の検出位置に基づいて、当該操作物がいずれの方向から前記タッチ面をタッチしたかを判定する判定手段と、
画面部品の表示位置として、前記操作物がいずれの方向から前記タッチ面をタッチするかに対応付けて、当該操作物で前記画面部品の表示が遮蔽されない位置を記憶する第1の記憶手段と、
前記判定手段が特定した前記操作物の方向を基に前記第1の記憶手段から前記操作物で表示が遮蔽されない表示位置を決定することにより、前記タッチ面のタッチに応じて画面部品を前記表示手段の画面に表示する処理手段とを備えた入力装置。
Touch-type input means for inputting by touching the touch surface;
Display means for displaying a screen corresponding to the touch surface of the touch input means;
Sensor means for detecting an operation article touching the touch surface of the touch-type input means;
Determination means for determining from which direction the operation object touches the touch surface based on a detection position of the operation object detected by the sensor means;
First display means for storing a position at which the display of the screen component is not shielded by the operation article, in correspondence with which direction the operation article touches the touch surface as a display position of the screen component;
Based on the direction of the operation article specified by the determination means, a display position at which the display is not shielded by the operation article is determined from the first storage means, so that the screen component is displayed according to the touch on the touch surface. An input device comprising processing means for displaying on a screen of the means.
第1の記憶手段は、第1の画面部品が表示されると、当初の表示位置では前記第1の画面部品によって表示が遮蔽される第2の画面部品の表示位置として、操作物で表示が遮蔽されず、前記第1の画面部品の表示位置から離れた位置を記憶し、
処理手段は、タッチに応じて前記第1の画面部品を表示するにあたり、前記第1の記憶手段から決定した表示位置に前記当初の表示位置から移動して前記第2の画面部品を表示することを特徴とする請求項1記載の入力装置。
When the first screen component is displayed, the first storage means displays the operation screen as the display position of the second screen component that is blocked by the first screen component at the initial display position. Memorize the position away from the display position of the first screen component without being shielded;
When displaying the first screen part in response to the touch, the processing means moves from the initial display position to the display position determined from the first storage means and displays the second screen part. The input device according to claim 1.
第1の記憶手段は、画面部品の縮小後のサイズを記憶し、
処理手段は、前記第1の記憶手段から決定した表示位置では前記画面部品が表示手段の表示画面から外れる場合、当該画面部品を前記縮小後のサイズとして表示することを特徴とする請求項1または請求項2記載の入力装置。
The first storage means stores the reduced size of the screen component,
The processing unit displays the screen component as the reduced size when the screen component deviates from the display screen of the display unit at the display position determined from the first storage unit. The input device according to claim 2.
判定手段は、タッチ面のタッチに応じて画面部品がポップアップ表示されると、センサ手段の検出結果から、タッチを行った操作物のタッチ面上の存在有無を判定し、
処理手段は、前記判定手段により前記操作物がタッチ面上に所定時間存在しないと判定されると、前記画面部品のポップアップ表示を消去することを特徴とする請求項1から請求項3のうちのいずれか1項記載の入力装置。
When the screen component is popped up in response to the touch on the touch surface, the determination unit determines the presence / absence on the touch surface of the touched operation article from the detection result of the sensor unit,
The processing unit deletes the pop-up display of the screen component when the determination unit determines that the operation article does not exist on the touch surface for a predetermined time. The input device according to claim 1.
操作物がいずれの方向からタッチ面をタッチするかに対応付けて、入力文字列の予測候補が登録された予測辞書を記憶する第2の記憶手段と、
前記操作物によるタッチで文字が入力されると、判定手段が特定した前記操作物の方向に対応する前記予測辞書を前記第2の記憶手段から選択し、当該予測辞書を参照して、前記入力された文字から予測される入力文字列の予測候補を決定する文字列予測手段とを備え、
処理手段は、前記文字列予測手段が決定した入力文字列の予測候補を表示手段の画面に表示することを特徴とする請求項1から請求項4のうちのいずれか1項記載の入力装置。
A second storage unit that stores a prediction dictionary in which prediction candidates of the input character string are registered in association with which direction the operation article touches the touch surface;
When a character is input by touch with the operation article, the prediction dictionary corresponding to the direction of the operation article specified by the determination unit is selected from the second storage unit, and the input is performed by referring to the prediction dictionary. A character string predicting means for determining a prediction candidate of the input character string predicted from the received character,
5. The input device according to claim 1, wherein the processing unit displays a prediction candidate of the input character string determined by the character string prediction unit on a screen of the display unit.
文字列予測手段は、操作物によるタッチで入力された文字列の履歴で、第2の記憶手段の予測辞書を更新することを特徴とする請求項5記載の入力装置。   6. The input device according to claim 5, wherein the character string predicting means updates the prediction dictionary of the second storage means with a history of character strings input by touch with an operation article.
JP2009140152A 2009-06-11 2009-06-11 Input device Pending JP2010287032A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009140152A JP2010287032A (en) 2009-06-11 2009-06-11 Input device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009140152A JP2010287032A (en) 2009-06-11 2009-06-11 Input device

Publications (1)

Publication Number Publication Date
JP2010287032A true JP2010287032A (en) 2010-12-24

Family

ID=43542683

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009140152A Pending JP2010287032A (en) 2009-06-11 2009-06-11 Input device

Country Status (1)

Country Link
JP (1) JP2010287032A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012191445A (en) * 2011-03-10 2012-10-04 Kddi Corp Mobile terminal device and control program
JP2013041348A (en) * 2011-08-12 2013-02-28 Kyocera Corp Portable terminal, auxiliary information display program, and auxiliary information display method
WO2013047023A1 (en) * 2011-09-26 2013-04-04 Necカシオモバイルコミュニケーションズ株式会社 Display apparatus, display method, and program
JP2013242778A (en) * 2012-05-22 2013-12-05 Denso Corp Image display device
JP2016024657A (en) * 2014-07-22 2016-02-08 日本電信電話株式会社 Mobile terminal with multi touch screen and operation method thereof
JP2016517082A (en) * 2013-03-13 2016-06-09 アマゾン テクノロジーズ インコーポレイテッド Management of sensory information on user devices

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012191445A (en) * 2011-03-10 2012-10-04 Kddi Corp Mobile terminal device and control program
JP2013041348A (en) * 2011-08-12 2013-02-28 Kyocera Corp Portable terminal, auxiliary information display program, and auxiliary information display method
WO2013047023A1 (en) * 2011-09-26 2013-04-04 Necカシオモバイルコミュニケーションズ株式会社 Display apparatus, display method, and program
JPWO2013047023A1 (en) * 2011-09-26 2015-03-26 Necカシオモバイルコミュニケーションズ株式会社 Display device, display method, and program
US9244556B2 (en) 2011-09-26 2016-01-26 Nec Corporation Display apparatus, display method, and program
JP2013242778A (en) * 2012-05-22 2013-12-05 Denso Corp Image display device
US9262997B2 (en) 2012-05-22 2016-02-16 Denso Corporation Image display apparatus
JP2016517082A (en) * 2013-03-13 2016-06-09 アマゾン テクノロジーズ インコーポレイテッド Management of sensory information on user devices
US9746957B2 (en) 2013-03-13 2017-08-29 Amazon Technologies, Inc. Managing sensory information of a user device
JP2016024657A (en) * 2014-07-22 2016-02-08 日本電信電話株式会社 Mobile terminal with multi touch screen and operation method thereof

Similar Documents

Publication Publication Date Title
US8060841B2 (en) Method and device for touchless media searching
KR101136153B1 (en) User input device, method for recognizing user finger prints, and method for recognizing user touches using a transparent sensor grid panel which is able to recognize finger prints or mult-touch
US20090073136A1 (en) Inputting commands using relative coordinate-based touch input
US20090146968A1 (en) Input device, display device, input method, display method, and program
CN108733303B (en) Touch input method and apparatus of portable terminal
US8456433B2 (en) Signal processing apparatus, signal processing method and selection method of user interface icon for multi-touch panel
US20150253925A1 (en) Display control device, display control method and program
JP2008210348A (en) Image display device
JP2009169452A (en) Display controller, electronic apparatus, display control method, and program
JP2010287032A (en) Input device
JP5947887B2 (en) Display control device, control program, and display device control method
US10956030B2 (en) Multi-touch based drawing input method and apparatus
US20150186347A1 (en) Information processing device, information processing method, and computer program product
US9495088B2 (en) Text entry method with character input slider
JP2002350151A (en) Navigation device
US20150253887A1 (en) Information processing apparatus
US20100171706A1 (en) Information processor, user interface control method and program
US8766937B2 (en) Method of facilitating input at an electronic device
JP5512379B2 (en) Input device, input method, and input program
JP2012178175A (en) Display controller, electronic device, display control method, and program
JP5461030B2 (en) Input device
JP5437899B2 (en) Input device, input method, and input program
JP2009163435A (en) Information terminal, computer program, and display method
JP5414920B2 (en) Display control apparatus, display control method, and program
EP2568370A1 (en) Method of facilitating input at an electronic device