JP2010287032A - Input device - Google Patents
Input device Download PDFInfo
- Publication number
- JP2010287032A JP2010287032A JP2009140152A JP2009140152A JP2010287032A JP 2010287032 A JP2010287032 A JP 2010287032A JP 2009140152 A JP2009140152 A JP 2009140152A JP 2009140152 A JP2009140152 A JP 2009140152A JP 2010287032 A JP2010287032 A JP 2010287032A
- Authority
- JP
- Japan
- Prior art keywords
- input
- screen
- display
- touch
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
この発明は、タッチ入力方式の入力装置に関するものである。 The present invention relates to a touch input type input device.
近年、タッチ入力方式の入力装置を備えた機器は様々な機器に普及している。携帯電話端末等の機器に適用したタッチパネル入力装置は一般的に個人での利用に限定されるが、複数人が同一のタッチパネル上で入力操作を行う機器もある。例えば、据付のナビゲーションシステムは、運転席と助手席の間に配置され、運転席方向からの操作と助手席からの操作が同一のタッチパネルに対して行われる。 In recent years, devices including a touch input type input device have been widely used in various devices. A touch panel input device applied to a device such as a mobile phone terminal is generally limited to personal use, but there is also a device in which a plurality of people perform input operations on the same touch panel. For example, an installed navigation system is disposed between a driver seat and a passenger seat, and an operation from the driver seat direction and an operation from the passenger seat are performed on the same touch panel.
このようなタッチ入力方式の入力装置において、操作性や操作方向に応じた表示を行う従来の技術としては、例えば、特許文献1に開示される入力装置がある。
特許文献1の入力装置では、識別信号の受信の有無によっていずれの方向から操作画面を見ている操作者が操作を行っているのかを判別することにより、この操作画面に操作者が見る方向に応じた適正な画像を表示することができる。
In such a touch input type input device, for example, there is an input device disclosed in
In the input device of
また、特許文献2は、文字入力の操作性を向上させるため、ひらがな文字入力用の10個のキーを5個1組として2組のキー群を対称に縦方向に配置することにより、右利きと左利きのいずれのユーザにとっても文字入力がし易い構造を提案している。
Further, in
従来の入力装置では、異なる方向から同一のタッチパネルに対して操作されても、操作方向に依らず、ユーザインタフェースは一定である場合が一般的である。このため、操作方向によっては画面の一部が操作者の手で隠れてしまい、操作性が悪くなるという課題があった。 In the conventional input device, even when the same touch panel is operated from different directions, the user interface is generally constant regardless of the operation direction. For this reason, a part of the screen is hidden by the operator's hand depending on the operation direction, and there is a problem that the operability is deteriorated.
また、特許文献1は、操作者がどの方向から操作画面に操作しているかを判別するが、デュアルビューLCDを搭載した車載情報機器において、助手席用と運転席用とに別々に表示した画面に対してどちら側から操作が行われたかを判別するものであり、結局、上述した操作性の悪化に対する解決は考慮されていない。
Further,
さらに、特許文献2はキー群が固定的に配置されるため、この特許文献2においても、操作方向によっては、操作者の手でキーが隠れてしまう可能性がある。
Furthermore, since the key group is fixedly arranged in
この発明は、上記のような課題を解決するためになされたもので、操作者の手などで画面部品が隠れることを防止し、入力操作性の向上を図ることができる入力装置を得ることを目的とする。 The present invention has been made to solve the above-described problems, and it is an object of the present invention to provide an input device capable of preventing the screen parts from being hidden by the operator's hand and the like and improving the input operability. Objective.
この発明に係る入力装置は、タッチ面をタッチして入力するタッチ式入力手段と、タッチ式入力手段のタッチ面に対応する画面を表示する表示手段と、タッチ式入力手段のタッチ面をタッチする操作物を検出するセンサ手段と、センサ手段で検出された操作物の検出位置に基づいて、当該操作物がいずれの方向からタッチ面をタッチしたかを判定する判定手段と、画面部品の表示位置として、操作物がいずれの方向からタッチ面をタッチするかに対応付けて、当該操作物で画面部品の表示が遮蔽されない位置を記憶する第1の記憶手段と、判定手段が特定した操作物の方向を基に第1の記憶手段から操作物で表示が遮蔽されない表示位置を決定することにより、タッチ面のタッチに応じて画面部品を表示手段の画面に表示する処理手段とを備えるものである。 An input device according to the present invention touches a touch surface of a touch type input unit, a touch type input unit that touches and inputs a touch surface, a display unit that displays a screen corresponding to the touch surface of the touch type input unit, Sensor means for detecting the operation article, determination means for determining from which direction the operation article touches the touch surface based on the detection position of the operation article detected by the sensor means, and the display position of the screen component The first storage means for storing the position at which the display of the screen component is not shielded by the operation article in association with the direction in which the operation article touches the touch surface, and the operation article specified by the determination means Processing means for displaying a screen component on the screen of the display means according to the touch on the touch surface by determining a display position from which the display is not shielded by the operation article from the first storage means based on the direction. Is shall.
この発明によれば、画面部品の表示位置として、操作物がいずれの方向からタッチ面をタッチするかに対応付けて当該操作物で画面部品の表示が遮蔽されない位置を記憶する第1の記憶手段を備え、操作物の方向に基づいて、第1の記憶手段から操作物で表示が遮蔽されない表示位置を決定することにより、タッチ面のタッチに応じて画面部品を表示手段の画面に表示する。このように構成することで、操作者の手などで画面部品が隠れることを防止し、入力操作性の向上を図ることができるという効果がある。 According to the present invention, as the display position of the screen component, the first storage unit that stores a position where the display of the screen component is not shielded by the operation article in association with which direction the operation article touches the touch surface. And displaying a screen part on the screen of the display unit according to the touch on the touch surface by determining a display position where the display is not shielded by the operation item from the first storage unit based on the direction of the operation item. With this configuration, it is possible to prevent the screen parts from being hidden by the operator's hand and the like and to improve the input operability.
実施の形態1.
図1は、この発明の実施の形態1による入力装置の構成を示すブロック図であり、実施の形態1の入力装置をカーナビゲーションシステムにおける文字入力システムに適用した場合を示している。図1において、実施の形態1の入力装置10は、タッチ式入力装置(タッチ式入力手段)11、表示装置(表示手段)12、センサ(センサ手段)13、入力判定部(判定手段)14、入力処理部(処理手段)15、描画位置判定部(処理手段)16、表示パターン格納部(第1の記憶手段)17及び描画処理部(処理手段)18を備える。
FIG. 1 is a block diagram showing a configuration of an input device according to
タッチ式入力装置11は、タッチ操作を受け付ける入力装置である。タッチ式入力装置11では、操作者からタッチ操作を受けると、このタッチ位置に応じたタッチ面上の座標を入力判定部14へ出力する。表示装置12は、タッチ式入力装置11からの入力のフィードバックを表示する出力装置である。なお、図1では、複数の方向から見ても同じ内容の画面を表示する一般的な表示装置としているが、見られる方向により異なる画面内容を表示可能な表示装置(マルチビューモニタ)を用いてもよい。
The
センサ13は、操作者の手がタッチ式入力装置11のタッチ面上のどこにあるかを検出する検出装置である。この検出方式としては、例えば、赤外線や超音波をプローブに利用する場合であれば、センサ13をタッチ式入力装置11のタッチ面周囲に配置しておき、赤外線や超音波の反射波の変動を電気信号としてモニタすることが考えられる。また、カメラで撮像した画像から操作者の手の位置を認識する画像処理技術を利用してもよい。
The
入力判定部14は、タッチ式入力装置11からの信号が出力されたタイミングで、センサ13から信号を取得し、取得した信号に基づきタッチ面の右左上下のいずれの方向から入力操作が行われたかを判定する構成部である。また、入力判定部14は、タッチ式入力装置11からの信号に基づいてタッチ面上のタッチ位置に応じた座標を算出し、タッチ面に対して操作者が入力操作した方向(以下、操作者方向と呼ぶ)と併せて入力処理部15へ出力する。
The
図2は、操作者方向の判定処理の一例を説明するための図であり、センサ13に赤外線センサを用いている。図2に示すように、センサ13として、表示装置12の表示画面(タッチ式入力装置11のタッチ面を上層に配置)の周囲に赤外線センサを配置する。
センサ13で赤外線の反射波を検出することにより、操作者の手が、赤外線センサ上にあることが分かる。入力判定部14は、センサ13からの反射波の検出信号を入力して、この検出信号が領域1からのものか、領域2からのものかを判定することで、操作者方向が左方向であるか右方向であるかを判定する。
FIG. 2 is a diagram for explaining an example of the operator direction determination process, and an infrared sensor is used as the
By detecting infrared reflected waves with the
なお、図2の例では領域1と領域2のみに分割しているが、図3に示すように、領域をさらに分割して、操作者方向が左方向(右方向)であることを示す領域1(領域2)の他に、操作者方向が上方向(下方向)であることを示す領域3(領域4)を規定することにより、左右方向以外の方向を検出するようにしてもよい。領域1〜4をさらに分割して、様々な方向の操作者方向を検出できるようにしても構わない。
In the example of FIG. 2, the area is divided only into the
入力処理部15は、入力判定部14から入力したタッチ位置に応じた座標に基づいて、表示装置12に表示する画面部品を生成する構成部である。描画位置判定部16は、表示パターン格納部17に格納された表示パターンデータを参照して、入力処理部15で生成された画面部品の表示位置を判定する構成部である。描画処理部18は、入力処理部15からの描画指示に基づいて、表示装置12の画面上に画面表示を行う構成部である。
The
表示パターン格納部17は、表示パターンデータが格納される記憶部である。表示パターンデータとは、表示装置12の画面上に表示する画面内容毎に付与した画面ID、この画面IDで特定される画面上に表示する画面部品(例えばポップアップ表示部品)に付与された部品ID及び操作者方向に応じた画面部品の表示座標が少なくとも対応付けられたデータである。
The display
図4は、表示パターン格納部が保持するデータ内容の一例を示す図である。図4に示すように、表示パターンデータは、画面ID、この画面IDで特定される画面上に表示する画面部品及び操作者方向(図4では左方向と右方向)に応じた画面部品の表示座標(タッチ面上の座標位置)が対応付けられている。描画位置判定部16は、画面ID、画面部品及び操作者方向に基づき、表示パターン格納部17の表示パターンデータを参照することにより、当該画面部品を表示すべき座標位置を特定する。
FIG. 4 is a diagram illustrating an example of data contents held by the display pattern storage unit. As shown in FIG. 4, the display pattern data includes a screen ID, a screen component displayed on the screen specified by the screen ID, and a screen component display corresponding to the operator direction (left direction and right direction in FIG. 4). Coordinates (coordinate positions on the touch surface) are associated with each other. The drawing
このように、表示パターンデータとして、画面ID、画面部品、操作者方向からポップアップ部品を表示する座標を予め一意に決定しておく。この他、例えば、描画処理部18の機能として、左方向からの入力に対してはタッチ位置の右側に(逆に右方向からの入力に対してはタッチ位置の左側に)一定の画素数だけ離れた場所に画面部品を表示する等、動的に画面部品の表示座標を決定するようにしてもよい。
なお、動的に座標位置を決定すると、画面上の画像表示領域から画面部品がはみ出してしまう場合が起こり得る。この場合には、タッチ位置から一定の画素数だけ離れた上方(あるいは下方)に画面部品を表示することで回避できる。
In this way, the coordinates for displaying the pop-up component are uniquely determined in advance from the screen ID, the screen component, and the operator direction as the display pattern data. In addition, for example, as a function of the
If the coordinate position is dynamically determined, the screen component may protrude from the image display area on the screen. In this case, the problem can be avoided by displaying the screen component above (or below) a certain number of pixels away from the touch position.
次に動作について説明する。
図5は、実施の形態1の入力装置による動作の流れを示すフローチャートである。また、図6は、ソフトウェアキーボードに実施の形態1の入力装置を適用した例を示す図である。以降は、図5に沿って図6の内容を説明する。なお、図6のソフトウェアキーボードは、2タッチで入力文字を決定するものであり、最初に50音表の各行の先頭文字である「あ」「か」「さ」「た」「な」「は」「ま」「や」「ら」「わ」のうちから選択して、この後、選択した行に属する文字を選択することで入力文字が決定される。
Next, the operation will be described.
FIG. 5 is a flowchart illustrating a flow of operations performed by the input device according to the first embodiment. FIG. 6 is a diagram illustrating an example in which the input device according to the first embodiment is applied to a software keyboard. Hereinafter, the contents of FIG. 6 will be described with reference to FIG. The software keyboard shown in FIG. 6 determines input characters with two touches. First, “a”, “ka”, “sa”, “ta”, “na”, “ha” are the first characters in each line of the 50-note table. The input character is determined by selecting from “”, “MA”, “YA”, “RA”, and “WA”, and then selecting a character belonging to the selected line.
先ず、操作者がタッチ式入力装置11にタッチ入力(ステップST1)を行うと、タッチ式入力装置11が、当該操作者からのタッチ入力を検出して、タッチ面上のタッチ位置座標を入力判定部14へ出力する。図6に示す時点(1)は、表示装置12の表示画面上に表示配置された12個のキーボタンのうち、操作者が左方向から行キー「か」ボタン19aを押下(タッチ入力)している。これにより、行キー「か」ボタン19aのタッチ位置座標がタッチ式入力装置11から入力判定部14へ出力される。
First, when an operator performs touch input to the touch input device 11 (step ST1), the
入力判定部14では、タッチ式入力装置11からタッチ位置情報が出力されると、これを契機に当該タッチ入力に対するセンサ13の検出信号を取得し、この検出信号に基づいて操作者の手が存在するタッチ面上の領域を判定し、操作者の方向を判定する(ステップST2)。また、入力判定部14は、タッチ式入力装置11から入力したタッチ位置情報に基づき、表示装置12が表示している、どの画面部品に対応するタッチ位置がタッチされたかを判別する。
When the touch position information is output from the
図6の例では、入力判定部14が、タッチ式入力装置11がタッチ位置情報を出力したタイミングで、センサ13から検出信号(センサ情報)を入力し、このセンサ情報に基づいて、当該タッチ入力の操作方向が左方向であることを判定する。また、入力判定部14は、このときタッチ式入力装置11から入力したタッチ位置情報に基づいて、操作者によって行キー「か」ボタン19aが押下されたことを判別する。
In the example of FIG. 6, the
続いて、入力処理部15は、タッチ位置座標に対応する処理を行い、この処理に応じて表示装置12に表示すべき画面情報(画面部品)を生成する(ステップST3)。図6の例では、入力処理部15が、タッチ位置情報から行キー「か」ボタン19aが押下されたことを特定すると、これに続く処理として、「か」行に属する文字列である「か」「き」「く」「け」「こ」と「戻る」の選択ボタンを表示すべきと判定する。この処理に応じて、入力処理部15は、「か」「き」「く」「け」「こ」と「戻る」を選択する6個の選択ボタン19bの画面部品を生成する。
Subsequently, the
次に、描画位置判定部16が、入力処理部15で生成された画面部品を表示すべき座標を判定する(ステップST4)。座標位置の判定は、描画位置判定部16が、入力処理部15から画面部品と操作者方向を特定する情報を入力し、この情報に基づいて、表示パターン格納部17に格納される表示パターンデータを参照することにより、画面部品を表示すべき座標位置を判定する。
Next, the drawing
例えば、図6の時点(2)の画面を特定する画面ID、入力処理部15が生成した画面部品に相当する画面部品(「か」「き」「く」「け」「こ」「戻る」の選択ボタン19b)及び操作者方向(ここでは「左方向」)を基に、図4に示す表示パターンデータが参照されて「か」「き」「く」「け」「こ」「戻る」の選択ボタン19bをそれぞれ表示すべき座標が判定され取得される。描画位置判定部16が取得した描画位置座標は、入力処理部15へフィードバックされる。
For example, the screen ID for specifying the screen at the time (2) in FIG. 6 and the screen parts corresponding to the screen parts generated by the input processing unit 15 (“ka” “ki” “ku” “ke” “ko” “return”) 4 on the basis of the
ステップST5において、入力処理部15は、描画位置判定部16から取得した描画位置座標に基づいて、画面部品を配置した表示画面のレイアウト情報を作成し、このレイアウト情報による描画指示を描画処理部18へ出力する。描画処理部18では、入力処理部15からの描画指示に従う画面を表示装置12に表示する。
In step ST5, the
図6では、描画する画面部品の位置座標が決定された後、入力処理部15が、描画処理部18に描画指示することにより、時点(2)に示す画面のように、「か」「き」「く」「け」「こ」「戻る」の選択ボタン19bが、表示装置12の画面上に表示される。このとき、操作者方向が左方向であるので、操作者の手で隠れないように、選択ボタン19bが画面右側にずれて配置される。
In FIG. 6, after the position coordinates of the screen component to be drawn are determined, the
また、図6に示す時点(3)(4)は、操作者方向が右方向である場合の画面表示を示している。この場合においても、上述と同様の手順で処理を行い、選択ボタン19bの表示位置を画面左側にすることにより、選択ボタン19bが操作者の手で隠れる不具合を回避でき、操作性の向上につながる。
Also, time points (3) and (4) shown in FIG. 6 indicate screen displays when the operator direction is the right direction. Even in this case, processing is performed in the same manner as described above, and the display position of the
なお、図6に示す時点(2)の画面のように「か」「き」「く」「け」「こ」「戻る」の選択ボタン19bを一時的に表示(以下、ポップアップ表示と呼ぶ)させたことにより、画面上に元々表示されていた「さ」「は」「ら」「→」の選択ボタンが隠れてしまう。これらのボタンを選択するには、ポップアップ表示した選択ボタン19bの「戻る」ボタンを押下する等して、ポップアップ表示を終了させる必要がある。
As shown in the screen at time (2) shown in FIG. 6, the
図4に示す表示パターンデータでは、画面部品が、表示されるべき画面とその表示位置に対応付けて登録されている。このため、画面部品をポップアップ表示すると、それ以前に表示されていた画面部品のうち、ポップアップ表示した画面部品によって隠される画面部品を特定することができる。
そこで、ポップアップを表示した状態で、それ以前に表示されていたボタンも選択可能とするため、ポップアップ表示以前に表示されていた画面中でポップアップ表示によって隠れるボタンの表示座標位置を、図4に示す表示パターンデータに予め登録しておく。
例えば、図6では、描画位置判定部16が、「か」「き」「く」「け」「こ」「戻る」の選択ボタン19bの座標を決定する際に併せて、これによって隠されるであろう「さ」「は」「ら」「→」のボタンの座標位置も取得し、選択ボタン19bのポップアップ表示に隠れてしまわない位置を特定する。描画処理部18が、描画位置判定部16により特定された位置に「さ」「は」「ら」「→」のボタンを表示(特定された位置に移動)すればよい。
In the display pattern data shown in FIG. 4, screen components are registered in association with the screen to be displayed and its display position. For this reason, when a screen component is displayed in a pop-up manner, a screen component that is hidden by the pop-up-displayed screen component can be specified from among the screen components displayed before that.
Therefore, in order to make it possible to select a button that was displayed before the pop-up is displayed, the display coordinate position of the button hidden by the pop-up display in the screen displayed before the pop-up display is shown in FIG. It is registered in advance in the display pattern data.
For example, in FIG. 6, the drawing
また、上述のように、ボタンの位置をずらして表示するスペースが表示装置12の表示画面にない場合、表示位置の変更の他、画面上でのボタンサイズの縮小を行うようにしてもよい。例えば、図4に示す表示パターンデータに加え、図7に示すように縮小後の画面部品サイズの情報も含めておくことで、ポップアップ表示の際に画面ID、画面部品及び操作者方向を基に画面部品の表示座標とサイズを決定することができる。この場合、図7の「縮小後のサイズ」項目に「縮小なし」が登録されていれば、入力処理部15によって生成された画面部品を縮小せずに表示し、サイズの指定があれば、そのサイズ指定に従い画面部品の縮小を行う。なお、この縮小サイズは、画面及び画面部品のサイズを考慮した空きスペースに表示可能なサイズを予め決定して設定する。
Further, as described above, when there is no space on the display screen of the
図8は、図6で示したソフトウェアキーボードで画面部品の縮小処理を行う場合を説明するための図である。図6では、行キー「か」ボタン19aを押下すると、ポップアップ表示された「か」「き」「く」「け」「こ」「戻る」の選択ボタン19bによって、「さ」「は」「ら」「→」の選択ボタンが隠されていたが、上述のように、図7に示す表示パターンデータを参照して、ポップアップ表示する表示位置を変更し、画面部品を縮小することにより、図8に示すように、全てのボタンを表示画面上に表示することができる。
FIG. 8 is a diagram for explaining a case where the screen part reduction processing is performed using the software keyboard shown in FIG. In FIG. 6, when the row key “ka”
また、図6に示す時点(2)のようにポップアップが表示された画面で「戻る」ボタンを押下すると、選択ボタン19bのポップアップ表示を終了できるが、操作者の手を一定時間検出しなくなると、入力操作が一旦終了したものとしてポップアップ表示を終了するようにしてもよい。
Further, when the “return” button is pressed on the screen where the pop-up is displayed as shown in FIG. 6 (2), the pop-up display of the
図9は、上述した操作者の手の検出有無に応じてポップアップ表示の開始と終了を決定する処理の流れを示すフローチャートである。
先ず、入力判定部14は、描画処理部18により表示装置12の画面上にポップアップ表示した後、センサ13からセンサ情報の取得を開始する(ステップST1a)。次に、入力判定部14は、センサ13からのセンサ情報に基づいて、操作者の手の方向(操作者方向)を判定し特定する(ステップST2a)。
FIG. 9 is a flowchart showing a flow of processing for determining the start and end of the pop-up display in accordance with the above-described presence / absence of the operator's hand.
First, the
続いて、入力判定部14は、表示装置12の画面上にポップアップ表示してから1回目の測定であるか否かを判定する(ステップST3a)。ここで、1回目の測定である場合(ステップST3a;YES)、入力判定部14は、今回の測定で判定された操作者方向を不図示のメモリに記憶して、所定時間ウェイト(図9は、100msec待ちの状態)した後(ステップST6a)、ステップST1aに戻り、上記処理を繰り返す。
Subsequently, the
2回目以降の測定である場合(ステップST3a;NO)、入力判定部14が、センサ13のセンサ情報を基に前回測定した操作者方向(操作者の手の方向)と今回測定された操作者方向とが同一であるか否かを判定する(ステップST4a)。このとき、操作者方向が同一であると(ステップST4a;YES)、入力判定部14は、同一操作者の手が画面上にあると判断し、今回の測定で判定された操作者方向を上記メモリに記憶した後、ステップST6aの処理を経由してからステップST1aに戻り、上記処理を繰り返す。
In the case of the second and subsequent measurements (step ST3a; NO), the
操作者方向が異なる場合(ステップST4a;NO)、入力判定部14は、同一操作者の手が画面上にないと判断し、現在画面上のポップアップ表示を終了する(ステップST5a)。
When the operator directions are different (step ST4a; NO), the
なお、ステップST4aの判定において、今回測定時に操作者の手が画面上のどこにもないと判断された場合には、ステップST5aの処理に移行するようにしてもよい。
図9に示す処理では、操作者の手が画面上から離れたときは入力操作の継続意思がなくなったものと判断してポップアップ表示を終了する。このようにすることにより、例えば「戻る」ボタンの押下等の明示的な終了操作を行うことなく、ポップアップ表示を終了させることができる。
If it is determined in step ST4a that the operator's hand is not anywhere on the screen during the current measurement, the process may proceed to step ST5a.
In the process shown in FIG. 9, when the operator's hand leaves the screen, it is determined that the intention to continue the input operation is lost, and the pop-up display is terminated. By doing so, the pop-up display can be terminated without performing an explicit termination operation such as pressing the “return” button.
以上のように、この実施の形態1によれば、画面部品の表示位置として、操作者の手のような操作物がいずれの方向からタッチ面をタッチするかに対応付けて当該操作物で画面部品の表示が遮蔽されない位置を記憶する表示パターン格納部17を備え、操作物の方向に基づいて、表示パターン格納部17から操作物で表示が遮蔽されない表示位置を決定することにより、タッチ面のタッチに応じて画面部品を表示装置12の画面に表示する。
このように構成することで、操作者の手などで画面部品が隠れることを防止し、入力操作性の向上を図ることができる。例えば、表示装置12の最前画面にダイアログボックスやメッセージボックス、メニュー、ヘルプ文字列等をポップアップ表示する場合、操作者の手で隠れない位置にポップアップ表示することにより、操作性を向上させることができる。
As described above, according to the first embodiment, as the display position of the screen component, the operation object such as the hand of the operator touches the touch surface from which direction and the screen is displayed on the operation object. A display
By configuring in this way, it is possible to prevent the screen parts from being hidden by the operator's hand, and to improve the input operability. For example, when a dialog box, a message box, a menu, a help character string, or the like is popped up on the front screen of the
また、この実施の形態1によれば、画面上に元々表示していた画面部品のうち、ポップアップ表示によって隠れて見えなくなる画面部品については、入力処理部15が、図7に示す表示パターンデータを参照することにより、表示位置の変更及び部品サイズの縮小の少なくとも一方の処理を施す。このようにすることで、ポップアップ表示を消去する操作を行うことなく、ポップアップ表示前に元々表示していた画面部品を視認し選択することが可能となり、操作性を向上させることができる。
Further, according to the first embodiment, among the screen components originally displayed on the screen, the
さらに、この実施の形態1によれば、入力判定部14が、センサ13からのセンサ情報に基づいて、ポップアップ表示した後に操作者の手がタッチ面上にあるか否かを判定し、入力処理部15が、入力判定部14によって操作者の手が所定時間タッチ面上にないと判定されると、ポップアップ表示を消去する操作が行われるのを待つことなく、ポップアップ表示を消去してポップアップ表示前の画面部品を表示させる。このようにすることで、ポップアップ表示を消去する操作を明示的に行う必要がなくなり、操作性を向上させることができる。
Further, according to the first embodiment, the
実施の形態2.
図10は、この発明の実施の形態2による入力装置の構成を示すブロック図である。図10において、実施の形態2の入力装置10Aは、図1で示した構成に加え、文字入力候補予測部20及び方向別入力候補予測辞書データ保持部21を設けている。
なお、図10では、描画位置判定部16及び表示パターン格納部17の記載を省略している。また、図10において、図1と同一符号を付した構成部は、実施の形態1と同一若しくは同様の機能及び構成を有するので説明を省略する。
FIG. 10 is a block diagram showing the configuration of the input device according to
In FIG. 10, the drawing
文字入力候補予測部(文字列予測手段)20は、タッチ式入力装置11に操作者が入力した文字から、この後に入力しようとしている文字列を予測する構成部である。
また、方向別入力候補予測辞書データ保持部(第2の記憶手段)21は、文字入力候補予測部20による予測処理の際に参照される入力候補予測辞書(予測辞書)を保持する記憶部であり、操作者方向に対応付けて異なる内容の辞書が保持される。
The character input candidate predicting unit (character string predicting unit) 20 is a component that predicts a character string to be input later from characters input by the operator to the
The direction-specific input candidate prediction dictionary data holding unit (second storage unit) 21 is a storage unit that holds an input candidate prediction dictionary (prediction dictionary) referred to in the prediction process by the character input
例えば、表示パターン格納部17には、方向別入力候補予測辞書データ保持部21が保持する辞書の予測候補ごとの表示位置が操作者方向別に登録されている。文字入力候補予測部20は、後述のようにして、方向別入力候補予測辞書データ保持部21から、操作者方向別の予測候補を選択すると、これを描画位置判定部16へ通知する。描画位置判定部16は、文字入力候補予測部20から通知のあった予測候補の表示位置を、入力判定部14が特定した操作者方向に基づき、表示パターン格納部17を参照して決定する。この後、実施の形態1と同様の手順で処理することにより、表示装置12の画面上の操作者の手で隠れない位置に予測候補が表示される。
For example, in the display
図11は、方向別入力候補予測辞書の具体例を示す図である。図11に示すように、方向別入力候補予測辞書データ保持部21は、操作者方向とこれに応じて使用される辞書とを対応付けたリスト情報を有しており、文字入力候補予測部20は、入力予測を行う際にそれぞれの操作者方向で指定される辞書を参照する。
FIG. 11 is a diagram illustrating a specific example of the direction-specific input candidate prediction dictionary. As shown in FIG. 11, the direction-specific input candidate prediction dictionary
また、図12に示すように、文字入力候補予測部20が、例えば入力予測を行う度に、操作者の入力履歴辞書を操作者方向別(例えば左右別)に作成して方向別入力候補予測辞書データ保持部21に保存しておく。このようにすることで、操作者方向別の文字入力履歴情報から予測候補を抽出することができ、入力効率を高めることができる。
Also, as shown in FIG. 12, each time the character input
次に動作について説明する。
図13は、実施の形態2の入力装置による動作の流れを示すフローチャートであり、この図に沿って動作の詳細を述べる。
先ず、操作者がタッチ式入力装置11にタッチ入力(ステップST1b)を行うと、タッチ式入力装置11が、当該操作者からのタッチ入力を検出して、タッチ面上のタッチ位置座標を入力判定部14へ出力する。入力判定部14では、タッチ式入力装置11からタッチ位置情報が出力されると、これを契機に当該タッチ入力に対するセンサ13の検出信号を取得し、この検出信号に基づいて操作者の手が存在するタッチ面上の領域を判定し、操作者の方向を判定する(ステップST2b)。
Next, the operation will be described.
FIG. 13 is a flowchart showing a flow of operations performed by the input device according to the second embodiment, and details of the operations will be described with reference to FIG.
First, when an operator performs touch input to the touch input device 11 (step ST1b), the
続いて、入力判定部14は、タッチ式入力装置11から入力したタッチ位置情報に基づいて、表示装置12が表示している、どの画面部品に対応するタッチ位置がタッチされたかを判別する。ここでは、図6に示した行キー「か」19aが選択されたものとする。
入力処理部15は、入力判定部14によりタッチ位置情報から判定された行キー「か」19aに基づいて、最初の入力文字が「か」であることを特定する。
Subsequently, based on the touch position information input from the
The
文字入力候補予測部20は、入力処理部15により特定された入力文字「か」と、ステップST2bで入力判定部14により得られた操作者方向を入力すると、この操作者方向及び入力文字を用いて、方向別入力候補予測辞書データ保持部21の保持内容を検索し、入力予測候補を抽出する辞書を決定するとともに、決定した辞書から入力文字に対応する入力候補を予測する(ステップST3b)。文字入力候補予測部20が取得した入力候補は、入力処理部15へフィードバックされる。
When the character input
ステップST4bにおいて、入力処理部15は、文字入力候補予測部20から取得した入力候補を表示する画面のレイアウト情報を作成し、このレイアウト情報による描画指示を描画処理部18へ出力する。描画処理部18では、入力処理部15からの描画指示に従って、入力候補を表示装置12の画面上に表示する。
In step ST <b> 4 b, the
以上のように、この実施の形態2によれば、操作者の手のような操作物がいずれの方向からタッチ面をタッチするかに対応付けて、入力文字列の予測候補が登録された入力候補予測辞書を記憶する方向別入力候補予測辞書データ保持部21と、操作物によるタッチで文字が入力されると、入力判定部14が特定した操作物の方向に対応する入力候補予測辞書を方向別入力候補予測辞書データ保持部21から選択し、当該入力候補予測辞書を参照して、入力された文字から予測される入力文字列の予測候補を決定する文字入力候補予測部20とを備える。このような構成を有することにより、操作者方向と入力される語彙のジャンルの傾向に関連がある場合、操作者方向別に入力予測候補辞書を使い分けることで、文字入力の効率を高めることが可能である。
例えば、助手席ではAV等のエンタテイメント系の操作を主に行い、運転席ではナビゲーション系の操作を主に行うといった、操作者方向と入力される語彙のジャンルの傾向に関連がある場合、助手席方向からの操作に対しては音楽等のエンターテイメント系の辞書から入力候補を表示し、運転席方向からの操作に対しては施設名称等のナビゲーション系の辞書から入力候補を表示する。
As described above, according to the second embodiment, the input character string prediction candidates registered in association with the direction in which the operation object such as the hand of the operator touches the touch surface is registered. When a character is input by touch with an operation article, the input candidate prediction dictionary corresponding to the direction of the operation article specified by the
For example, if the passenger seat is mainly related to entertainment operations such as AV, and the driver seat is mainly used to operate navigation, the passenger seat is related to the genre tendency of the input vocabulary. For operations from the direction, input candidates are displayed from an entertainment dictionary such as music, and for operations from the driver's seat direction, input candidates are displayed from a navigation dictionary such as a facility name.
また、この実施の形態2によれば、方向別入力候補予測辞書データ保持部21が、操作者方向別に文字入力履歴情報を保持するので、操作者方向別の文字入力履歴情報から入力候補を予測することができ、入力効率を高めることができる。
Further, according to the second embodiment, the direction-specific input candidate prediction dictionary
10,10A 入力装置、11 タッチ式入力装置(タッチ式入力手段)、12 表示装置(表示手段)、13 センサ(センサ手段)、14 入力判定部(判定手段)、15 入力処理部(処理手段)、16 描画位置判定部(処理手段)、17 表示パターン格納部(第1の記憶手段)、18 描画処理部(処理手段)、19a,19b 選択ボタン、20 文字入力候補予測部(文字列予測手段)、21 方向別入力候補予測辞書データ保持部(第2の記憶手段)。 10, 10A input device, 11 touch type input device (touch type input means), 12 display device (display means), 13 sensor (sensor means), 14 input determination unit (determination unit), 15 input processing unit (processing unit) 16 drawing position determination unit (processing unit), 17 display pattern storage unit (first storage unit), 18 drawing processing unit (processing unit), 19a, 19b selection button, 20 character input candidate prediction unit (character string prediction unit) ), 21 Direction-specific input candidate prediction dictionary data holding unit (second storage unit).
Claims (6)
前記タッチ式入力手段のタッチ面に対応する画面を表示する表示手段と、
前記タッチ式入力手段のタッチ面をタッチする操作物を検出するセンサ手段と、
前記センサ手段で検出された操作物の検出位置に基づいて、当該操作物がいずれの方向から前記タッチ面をタッチしたかを判定する判定手段と、
画面部品の表示位置として、前記操作物がいずれの方向から前記タッチ面をタッチするかに対応付けて、当該操作物で前記画面部品の表示が遮蔽されない位置を記憶する第1の記憶手段と、
前記判定手段が特定した前記操作物の方向を基に前記第1の記憶手段から前記操作物で表示が遮蔽されない表示位置を決定することにより、前記タッチ面のタッチに応じて画面部品を前記表示手段の画面に表示する処理手段とを備えた入力装置。 Touch-type input means for inputting by touching the touch surface;
Display means for displaying a screen corresponding to the touch surface of the touch input means;
Sensor means for detecting an operation article touching the touch surface of the touch-type input means;
Determination means for determining from which direction the operation object touches the touch surface based on a detection position of the operation object detected by the sensor means;
First display means for storing a position at which the display of the screen component is not shielded by the operation article, in correspondence with which direction the operation article touches the touch surface as a display position of the screen component;
Based on the direction of the operation article specified by the determination means, a display position at which the display is not shielded by the operation article is determined from the first storage means, so that the screen component is displayed according to the touch on the touch surface. An input device comprising processing means for displaying on a screen of the means.
処理手段は、タッチに応じて前記第1の画面部品を表示するにあたり、前記第1の記憶手段から決定した表示位置に前記当初の表示位置から移動して前記第2の画面部品を表示することを特徴とする請求項1記載の入力装置。 When the first screen component is displayed, the first storage means displays the operation screen as the display position of the second screen component that is blocked by the first screen component at the initial display position. Memorize the position away from the display position of the first screen component without being shielded;
When displaying the first screen part in response to the touch, the processing means moves from the initial display position to the display position determined from the first storage means and displays the second screen part. The input device according to claim 1.
処理手段は、前記第1の記憶手段から決定した表示位置では前記画面部品が表示手段の表示画面から外れる場合、当該画面部品を前記縮小後のサイズとして表示することを特徴とする請求項1または請求項2記載の入力装置。 The first storage means stores the reduced size of the screen component,
The processing unit displays the screen component as the reduced size when the screen component deviates from the display screen of the display unit at the display position determined from the first storage unit. The input device according to claim 2.
処理手段は、前記判定手段により前記操作物がタッチ面上に所定時間存在しないと判定されると、前記画面部品のポップアップ表示を消去することを特徴とする請求項1から請求項3のうちのいずれか1項記載の入力装置。 When the screen component is popped up in response to the touch on the touch surface, the determination unit determines the presence / absence on the touch surface of the touched operation article from the detection result of the sensor unit,
The processing unit deletes the pop-up display of the screen component when the determination unit determines that the operation article does not exist on the touch surface for a predetermined time. The input device according to claim 1.
前記操作物によるタッチで文字が入力されると、判定手段が特定した前記操作物の方向に対応する前記予測辞書を前記第2の記憶手段から選択し、当該予測辞書を参照して、前記入力された文字から予測される入力文字列の予測候補を決定する文字列予測手段とを備え、
処理手段は、前記文字列予測手段が決定した入力文字列の予測候補を表示手段の画面に表示することを特徴とする請求項1から請求項4のうちのいずれか1項記載の入力装置。 A second storage unit that stores a prediction dictionary in which prediction candidates of the input character string are registered in association with which direction the operation article touches the touch surface;
When a character is input by touch with the operation article, the prediction dictionary corresponding to the direction of the operation article specified by the determination unit is selected from the second storage unit, and the input is performed by referring to the prediction dictionary. A character string predicting means for determining a prediction candidate of the input character string predicted from the received character,
5. The input device according to claim 1, wherein the processing unit displays a prediction candidate of the input character string determined by the character string prediction unit on a screen of the display unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009140152A JP2010287032A (en) | 2009-06-11 | 2009-06-11 | Input device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009140152A JP2010287032A (en) | 2009-06-11 | 2009-06-11 | Input device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010287032A true JP2010287032A (en) | 2010-12-24 |
Family
ID=43542683
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009140152A Pending JP2010287032A (en) | 2009-06-11 | 2009-06-11 | Input device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010287032A (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012191445A (en) * | 2011-03-10 | 2012-10-04 | Kddi Corp | Mobile terminal device and control program |
JP2013041348A (en) * | 2011-08-12 | 2013-02-28 | Kyocera Corp | Portable terminal, auxiliary information display program, and auxiliary information display method |
WO2013047023A1 (en) * | 2011-09-26 | 2013-04-04 | Necカシオモバイルコミュニケーションズ株式会社 | Display apparatus, display method, and program |
JP2013242778A (en) * | 2012-05-22 | 2013-12-05 | Denso Corp | Image display device |
JP2016024657A (en) * | 2014-07-22 | 2016-02-08 | 日本電信電話株式会社 | Mobile terminal with multi touch screen and operation method thereof |
JP2016517082A (en) * | 2013-03-13 | 2016-06-09 | アマゾン テクノロジーズ インコーポレイテッド | Management of sensory information on user devices |
-
2009
- 2009-06-11 JP JP2009140152A patent/JP2010287032A/en active Pending
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012191445A (en) * | 2011-03-10 | 2012-10-04 | Kddi Corp | Mobile terminal device and control program |
JP2013041348A (en) * | 2011-08-12 | 2013-02-28 | Kyocera Corp | Portable terminal, auxiliary information display program, and auxiliary information display method |
WO2013047023A1 (en) * | 2011-09-26 | 2013-04-04 | Necカシオモバイルコミュニケーションズ株式会社 | Display apparatus, display method, and program |
JPWO2013047023A1 (en) * | 2011-09-26 | 2015-03-26 | Necカシオモバイルコミュニケーションズ株式会社 | Display device, display method, and program |
US9244556B2 (en) | 2011-09-26 | 2016-01-26 | Nec Corporation | Display apparatus, display method, and program |
JP2013242778A (en) * | 2012-05-22 | 2013-12-05 | Denso Corp | Image display device |
US9262997B2 (en) | 2012-05-22 | 2016-02-16 | Denso Corporation | Image display apparatus |
JP2016517082A (en) * | 2013-03-13 | 2016-06-09 | アマゾン テクノロジーズ インコーポレイテッド | Management of sensory information on user devices |
US9746957B2 (en) | 2013-03-13 | 2017-08-29 | Amazon Technologies, Inc. | Managing sensory information of a user device |
JP2016024657A (en) * | 2014-07-22 | 2016-02-08 | 日本電信電話株式会社 | Mobile terminal with multi touch screen and operation method thereof |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8060841B2 (en) | Method and device for touchless media searching | |
KR101136153B1 (en) | User input device, method for recognizing user finger prints, and method for recognizing user touches using a transparent sensor grid panel which is able to recognize finger prints or mult-touch | |
US20090073136A1 (en) | Inputting commands using relative coordinate-based touch input | |
US20090146968A1 (en) | Input device, display device, input method, display method, and program | |
CN108733303B (en) | Touch input method and apparatus of portable terminal | |
US8456433B2 (en) | Signal processing apparatus, signal processing method and selection method of user interface icon for multi-touch panel | |
US20150253925A1 (en) | Display control device, display control method and program | |
JP2008210348A (en) | Image display device | |
JP2009169452A (en) | Display controller, electronic apparatus, display control method, and program | |
JP2010287032A (en) | Input device | |
JP5947887B2 (en) | Display control device, control program, and display device control method | |
US10956030B2 (en) | Multi-touch based drawing input method and apparatus | |
US20150186347A1 (en) | Information processing device, information processing method, and computer program product | |
US9495088B2 (en) | Text entry method with character input slider | |
JP2002350151A (en) | Navigation device | |
US20150253887A1 (en) | Information processing apparatus | |
US20100171706A1 (en) | Information processor, user interface control method and program | |
US8766937B2 (en) | Method of facilitating input at an electronic device | |
JP5512379B2 (en) | Input device, input method, and input program | |
JP2012178175A (en) | Display controller, electronic device, display control method, and program | |
JP5461030B2 (en) | Input device | |
JP5437899B2 (en) | Input device, input method, and input program | |
JP2009163435A (en) | Information terminal, computer program, and display method | |
JP5414920B2 (en) | Display control apparatus, display control method, and program | |
EP2568370A1 (en) | Method of facilitating input at an electronic device |