JP2006235859A - Coordinate input device - Google Patents
Coordinate input device Download PDFInfo
- Publication number
- JP2006235859A JP2006235859A JP2005047658A JP2005047658A JP2006235859A JP 2006235859 A JP2006235859 A JP 2006235859A JP 2005047658 A JP2005047658 A JP 2005047658A JP 2005047658 A JP2005047658 A JP 2005047658A JP 2006235859 A JP2006235859 A JP 2006235859A
- Authority
- JP
- Japan
- Prior art keywords
- dimensional position
- fingertip
- coordinate input
- display surface
- movement history
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Position Input By Displaying (AREA)
Abstract
Description
この発明は、人間の指先やスタイラスなどにより指示された2次元位置座標を検出する座標入力装置に関する。 The present invention relates to a coordinate input device that detects a two-dimensional position coordinate specified by a human fingertip or a stylus.
現在、この種の座標入力装置を備えたPDA(Personal Digital Assistant)などの各種の電子機器が提供されている。この種の電子機器では、表示パネルにソフトボタンなどの各種の指示対象物が表示される。ユーザが指先などにより表示パネルに表示された所望の指示対象物を指示した場合には、その指示位置の2次元座標値が座標入力装置により検出される。そして、この2次元座標値に基づき、ユーザによって指示された指示対象物が特定され、この指示対象物に対応付けられた情報処理が実行される。このような座標入力装置は、表示パネル上の任意の位置にソフトボタンなどを表示し、ユーザの選択指示を受け取ることができる。しかし、ユーザは、指などが表示パネルに触れるまで、自分がどの位置を指示しているのか分かり辛いため、操作が簡単でなく、誤った操作をすることもある。ユーザの操作を補助する機能を持たせた座標入力装置に関する文献として特許文献1がある。この特許文献1に開示された座標入力装置では、表示面からやや離れた位置に指先が達したときに表示面上の指先の接近位置にカーソルを表示する。
特許文献1に開示された技術によれば、指先を表示面に接近させたときにその接近位置にカーソルが表示されるので、ユーザはその時点における指先の位置を知ることができる。しかし、通常、ユーザは、指先を表示面から遠く離れたところから表示面に向けて移動させ、表示面に到達させるので、表示面上のある高さの位置においてカーソルを表示するだけでは、指先がどこに向かっているかを知り、正確な操作を行うのが依然として困難である。
According to the technique disclosed in
本発明は、以上説明した事情に鑑みてなされたものであり、指先などの向かっている目的地を直観的にかつ正確に知ることができ、正確な操作が容易な座標入力装置を提供することを目的としている。 The present invention has been made in view of the circumstances described above, and provides a coordinate input device that can intuitively and accurately know a destination that a fingertip or the like is facing and that can be easily operated accurately. It is an object.
この発明は、表示手段と、座標入力用操作子または指先の3次元位置を検出する3次元位置検出手段と、記憶手段と、前記3次元位置検出手段により検出される3次元位置に基づき、前記記憶手段に3次元位置の移動履歴を記憶させるとともに、前記移動履歴を解析することにより前記座標入力用操作子または指先が向かいつつある前記表示面上の目的地を求める移動履歴更新解析手段と、前記移動履歴更新解析手段により求められた前記表示面上の目的地に、前記座標入力用操作子または指先の操作を案内する案内情報を表示させる案内情報出力手段とを具備することを特徴とする座標入力装置を提供する。
かかる発明によれば、座標入力用操作子や指先の3次元位置の移動履歴に基づき、座標入力用操作子や指先が向かいつつある表示面上での目的地が求められ、表示面上のその目的地に案内情報が表示されるので、ユーザは座標入力用操作子や指先を正確に所望の位置に到達させることができる。
The present invention is based on the three-dimensional position detected by the display means, the three-dimensional position detection means for detecting the coordinate input operator or the fingertip three-dimensional position, the storage means, and the three-dimensional position detection means. A movement history update analyzing means for storing a movement history of a three-dimensional position in a storage means, and obtaining a destination on the display surface to which the coordinate input operator or a fingertip is facing by analyzing the movement history; Guiding information output means for displaying guidance information for guiding the operation of the coordinate input operator or the fingertip at the destination on the display surface obtained by the movement history update analysis means. A coordinate input device is provided.
According to this invention, based on the movement history of the coordinate input operator and the three-dimensional position of the fingertip, the destination on the display surface to which the coordinate input operator and the fingertip are facing is obtained, and the destination on the display surface is obtained. Since the guidance information is displayed at the destination, the user can accurately reach the desired position of the coordinate input operator and the fingertip.
以下、本発明を実施するための最良の形態について図面を参照しつつ説明する。
図1は、この発明の一実施形態である座標入力装置の構成を示す図である。なお、この座標入力装置は、PDAなどの各種の電子機器の一部を構成するものであっても良いし、それらの電子機器とは別体の独立した座標入力装置であっても良い。
Hereinafter, the best mode for carrying out the present invention will be described with reference to the drawings.
FIG. 1 is a diagram showing a configuration of a coordinate input device according to an embodiment of the present invention. The coordinate input device may constitute a part of various electronic devices such as a PDA, or may be an independent coordinate input device that is separate from the electronic devices.
図1において、表示部1は、例えば液晶表示パネルであり、ソフトボタンなどの各種のユーザインタフェースの表示を行う。センサ2は、表示部1の表示面近傍に人間の指先やスタイラスなどの標的の3次元位置の検出に必要な情報を外界から取得する装置である。どのようなセンサ2を用いるかは、3次元位置を検出すべき標的に合わせて選択すればよい。
例えば、人間の指先を標的とする場合には、CMOSセンサなどのイメージセンサがセンサ2として好適である。また、永久磁石が埋め込まれたスタイラスの先端を標的とする場合には、スタイラスの先端から発生される磁界を検出可能な磁気センサがセンサ2として好適である。センサ2の個数は、必要とされる3次元位置検出の精度などに合わせて決定すればよい。なお、センサ2として、イメージセンサと磁気センサとを併設し、指先の位置を検出するときにはイメージセンサを用い、スタイラスの先端位置を検出するときには磁気センサを用いる、という具合に2種類のセンサを切り換えて使用するようにしてもよい。また、スタイラスの先端位置もCMOSセンサなどのイメージセンサにより検出するようにしてもよい。
In FIG. 1, a
For example, when a human fingertip is targeted, an image sensor such as a CMOS sensor is suitable as the
制御部3は、制御プログラムを実行することによりこの座標入力装置の各部を制御する制御中枢である。記憶部4は、揮発性メモリと不揮発性メモリとにより構成されている。ここで、揮発性メモリは、制御部2によりワークエリアとして使用される。この揮発性メモリに記憶される情報のうち本実施形態に特有のものとして、移動履歴4aがある。移動履歴4aは、センサ2の出力信号に基づいて作成される人間の指先やスタイラスの先端などの標的の3次元位置座標を過去一定個数集めた時系列データである。不揮発性メモリには、制御部3により実行される制御プログラムと制御プログラムの実行の際に参照される固定の制御データが記憶される。不揮発性メモリに記憶される情報のうち本実施形態に特有の情報として、案内情報データベース4bがある。本実施形態では、指先やスタイラスの先端などの標的の移動履歴4aを解析し、その解析結果に応じて、ユーザが所望の位置に指先またはスタイラスの先端を移動させるのに役立つ案内情報を出力する。案内情報データベース4bは、出力すべき案内情報を移動履歴4aの解析結果から求めるための基礎となるデータの集合体である。音声発生部5は、音声信号を形成する音源と、この音声信号を音声として出力するスピーカにより構成されている。なお、案内情報およびその出力態様の詳細については後述する。
The control unit 3 is a control center that controls each unit of the coordinate input device by executing a control program. The
図1には、制御部3により実行される処理のうち本実施形態に特有のものが示されている。3次元位置検出処理31は、センサ2の出力信号に基づき、標的の3次元位置を検出する処理であり、制御部3により繰り返し実行される。如何なる方法によりこの3次元位置の検出を行うか、センサ2の種類、配置などにより異なったものとなる。
FIG. 1 shows processing unique to this embodiment among the processes executed by the control unit 3. The three-dimensional
図2および図3は、センサ2として2個のイメージセンサ21aおよび21bを用いた座標入力装置の構成例を示している。ここで、図2は同装置の平面図、図3は同装置の側面図である。この例では、矩形をなす表示部1の隣り合った2つの角部の各位置にイメージセンサ21aおよび21bが配置されている。イメージセンサ21aおよび21bは、表示部1の中央のやや上空の位置を視野の中心として撮像を行い、画像信号を出力する。この場合、3次元位置検出処理31では、各イメージセンサ21aおよび21bからの画像信号に基づき、イメージセンサ21aから見た標的たる指先の方角とイメージセンサ21bから見た標的たる指先の方角とを求め、その結果に基づき指先の3次元位置座標を求める。
2 and 3 show a configuration example of a coordinate input device using two
図4および図5は、センサ2として4個の磁気センサ22a、22b、22cおよび22dを用いた座標入力装置の構成例を示している。ここで、図4は同装置の平面図、図5は同装置の側面図である。この例では、矩形をなす表示部1の4つの角部の各位置に各磁気センサが配置されている。座標入力用操作子であるスタイラス6の先端には、永久磁石が埋め込まれている。磁気センサ22a、22b、22cおよび22dは、この永久磁石によって発生される磁界の各々の位置における磁界強度を検出し、磁界強度を示す信号を出力する。この場合、3次元位置検出処理31では、磁気センサ22a、22b、22cおよび22dからの出力信号に基づき、標的たるスタイラス6の先端位置の3次元位置座標を求める。なお、磁気センサを用いた位置検出の原理については、従来から行われている方法でよい。
4 and 5 show a configuration example of a coordinate input device using four
図1において、標的の移動履歴の更新および解析処理32は、3次元位置検出処理31により標的の3次元位置座標が一組得られる度に実行される。この処理32では、3次元位置検出処理31により新たに得られた標的の3次元位置座標が移動履歴4aにおける最近の3次元位置座標と異なる場合に、新たに得られた3次元位置座標を移動履歴4aに追加し、揮発性メモリの容量に応じて移動履歴4aにおける最も古い3次元位置座標を廃棄する更新処理を行う。また、この処理32では、移動履歴4aを解析し、標的が向かいつつある表示部1の表示面上の位置、標的の表示面からの高さ、移動の速さなどの標的の状態を求める。
In FIG. 1, the target movement history update and
案内情報出力処理33では、記憶部4内の案内情報データベース4bと処理32における移動履歴の解析結果とに基づき、ユーザに提供する案内情報を決定する。決定された案内情報は、表示部1に表示され、あるいは音声発生部5から音声として出力される。2次元位置検出処理34は、3次元位置検出処理31により検出される標的の3次元位置座標の高さ方向成分が所定の閾値以下となり、標的が表示面のソフトボタンを選択したとみなしてよい状態になったときに実行される。この2次元位置検出処理34では、その実行時点における3次元位置座標から高さ方向成分を除いた2次元位置座標を標的により入力された座標として確定し、例えば押圧されたソフトボタンの判定を行うルーチンなど、座標を用いた処理を行うルーチンに引き渡す。なお、2次元位置検出処理34を起動するための基準となる高さ方向成分の閾値をユーザが自由に設定し得るように構成してもよい。
In the guide
以上説明した各処理は、図6にそのフローを示すメインルーチンにおいて起動される。以下、図6のフローチャートを参照し、本実施形態の動作を説明する。まず、ステップS1において、制御部3は、表示部1の表示面の近くに標的があるか否かを判定する。センサ2としてイメージセンサを用いる態様では、例えばイメージセンサにより撮像された画像中に標的たる指先の画像があるか否かに基づいて、この判断が行われる。また、センサ2として磁気センサを用いる態様では、磁気センサにより検出される磁界強度が所定値以上か否かにより、この判断が行われる。この判断結果が「NO」である場合、制御部3は、再びこのステップS1を繰り返す。
Each process described above is started in the main routine whose flow is shown in FIG. The operation of this embodiment will be described below with reference to the flowchart of FIG. First, in step S <b> 1, the control unit 3 determines whether there is a target near the display surface of the
標的たる指先またはスタイラス6の先端が表示部1の表示面に近づき、ステップS1の判断結果が「YES」となると、制御部3の処理はステップS2に進む。このステップS2において、制御部3は、上述した3次元位置検出処理31を実行し、標的たる指先またはスタイラス6の先端の3次元位置座標を取得する。次にステップS3に進み、制御部3は、上述した標的の移動履歴の更新および解析処理32を実行する。次にステップS4に進み、制御部3は、記憶部4に記憶された案内情報データベース4bを参照し、上述した案内情報出力処理33を実行する。次にステップS5に進み、制御部3は、ユーザの指先またはスタイラス6によるタッチ操作が終了したか否かの判断を行う。この判断では、ステップS2において得られた3次元位置座標の高さ方向成分が所定値以下か否かに基づいて行われる。この判断結果が「NO」である場合、制御部3は、再びステップS1に戻って、以上説明した処理を繰り返す。また、この判断結果が「YES」である場合、制御部3は、上述した2次元位置検出処理を起動して、このメインルーチンを終了する。
When the target fingertip or the tip of the
図7〜図9は、以上のような処理により実現される第1の動作例、図10および図11は第2の動作例を示している。これらの例では、表示部1に表示された“PUSH”なるソフトボタンに向かって指先が移動しており、この移動の目的地および現在の指先の表示面からの高さが繰り返し求められ(図6におけるステップS2およびS3)、指先の目的地および表示面からの高さの変化に応じて、表示部1の表示に連続的な変化が与えられる(図6におけるステップS4)。
7 to 9 show a first operation example realized by the processing as described above, and FIGS. 10 and 11 show a second operation example. In these examples, the fingertip is moving toward the “PUSH” soft button displayed on the
第1の例において、指先が表示面から少し離れた場所にあるときは、図7に示すように、大きくて薄い影が指先の目的地を示す案内情報として表示される。その後、指先が表示面に近づくに従い、この影は、連続的に範囲を狭めつつ濃度を増してゆく(図8参照)。そして、指先が表示面から所定距離内に入った場合には、図6におけるステップS5の判断結果が「YES」となり、ソフトボタンの選択が確定する。この結果、図9に示すように、選択が確定してソフトボタンが塗り潰し表示あるいは強調表示される。 In the first example, when the fingertip is slightly away from the display surface, as shown in FIG. 7, a large and thin shadow is displayed as guidance information indicating the destination of the fingertip. Thereafter, as the fingertip approaches the display surface, the shadow gradually increases in density while narrowing the range (see FIG. 8). When the fingertip enters within a predetermined distance from the display surface, the determination result in step S5 in FIG. 6 is “YES”, and the selection of the soft button is confirmed. As a result, as shown in FIG. 9, the selection is confirmed, and the soft button is filled or displayed in a highlighted manner.
第2の例において、指先が表示面から少し離れた場所にあるときは、図10に示すように、目的地を示す案内情報として、大きな“×”形の照準が青色で表示される。その後、指先が表示面に近づくに従い、この照準は回転して“+”形になってゆき、また、小さくなり、かつ、太さを増しながら色がピンク色に変化してゆく(図11参照)。そして、指先が表示面に触れ、または表示面から所定距離内に入った場合には、第1の動作例と同様、選択が確定してソフトボタンが塗り潰し表示あるいは強調表示される(図9参照)。以上のように表示を変化させるためには、例えば指先の高さに応じて影や照準などの案内情報を変化させる関数を案内情報データベース4bに設けておき、この関数により求めた案内情報を指先の目的地に表示すればよい。
In the second example, when the fingertip is slightly away from the display surface, as shown in FIG. 10, a large “×” shaped aim is displayed in blue as guidance information indicating the destination. Thereafter, as the fingertip approaches the display surface, the aim rotates to become a “+” shape, becomes smaller, and changes its color to pink while increasing its thickness (see FIG. 11). ). When the fingertip touches the display surface or enters within a predetermined distance from the display surface, the selection is confirmed and the soft button is filled or displayed in a highlighted manner as in the first operation example (see FIG. 9). ). In order to change the display as described above, for example, a function for changing guide information such as a shadow and an aim according to the height of the fingertip is provided in the
本実施形態では、ユーザが所定の設定操作をした場合に、図6のステップS4において効果音が音声発生部5から出力される。具体的には次の通りである。まず、例えば指先やスタイラスの先端が表示面から所定の距離の範囲内を移動しているときには効果音が発生される。この効果音は、指先やスタイラスの先端が表示面に近づくに従い、連続的に音量を増し、あるいは音高を増し、あるいは音色を変化させる。そして、指先やスタイラスの先端が表示面に到達し、選択が確定したときには、効果音が消え、クリック音が音声発生部5から出力される。なお、効果音の出力を行う場合には、効果音の変化により指先やスタイラスの先端の表示面からの高さが分かるので、ユーザによる所定の設定操作があった場合には、指先やスタイラスの先端の表示面からの高さが変わっても影や照準などの案内情報の表示態様を変化させないようにしてもよい。 In the present embodiment, when the user performs a predetermined setting operation, a sound effect is output from the sound generator 5 in step S4 of FIG. Specifically, it is as follows. First, for example, a sound effect is generated when the tip of a fingertip or stylus is moving within a predetermined distance from the display surface. This sound effect continuously increases the volume, increases the pitch, or changes the tone as the tip of the fingertip or stylus approaches the display surface. When the fingertip or the tip of the stylus reaches the display surface and the selection is confirmed, the sound effect disappears and a click sound is output from the sound generation unit 5. When outputting sound effects, the height of the tip of the fingertip or stylus from the display surface can be known by the change in the sound effects. Therefore, if there is a predetermined setting operation by the user, the fingertip or stylus Even if the height of the tip from the display surface changes, the display mode of the guidance information such as the shadow and the aim may not be changed.
以上説明した実施形態によれば、指先やスタイラスの先端が向かいつつある目的地が表示面に表示させるので、ユーザは、自分がどのソフトボタン等を指そうとしているのかを容易に把握することができ、正確な操作を容易に行うことができるという効果が得られる。 According to the embodiment described above, since the destination where the tip of the fingertip or the stylus is facing is displayed on the display surface, the user can easily grasp which soft button or the like he / she is pointing to. Thus, an effect that an accurate operation can be easily performed is obtained.
<他の実施形態>
以上、本発明の実施形態を説明したが、本発明にはこれ以外にも他の実施形態が考えられる。例えば次の通りである。
(1)ユーザが指先やスタイラスにより表示面上の空間内に四角や丸の軌跡を一定時間連続して描いた場合に、表示面におけるその直下の領域に所定の処理に対応したソフトボタンを表示させ、ユーザが指先やスタイラスによりこのソフトボタンにタッチした場合には、このソフトボタンに対応した処理を実行する機能を上記実施形態に追加してもよい。
(2)ユーザが所定の設定操作をした場合には、指先やスタイラスが向かっている目的地に案内情報を表示する代わりに、その目的地付近を他の領域よりも大きな倍率で拡大表示し、ソフトボタン等の選択操作を容易にする機能を上記実施形態に追加してもよい。
(3)表示部1を覆うように透明なタッチパネルを設けてもよい。この場合、制御部3による2次元位置検出処理34は、このタッチパネルの出力信号を用いて実行される。
<Other embodiments>
As mentioned above, although embodiment of this invention was described, other embodiment can be considered besides this in this invention. For example:
(1) When a user draws a square or circle locus continuously in a space on the display surface with a fingertip or stylus for a certain period of time, a soft button corresponding to a predetermined process is displayed in an area immediately below the display surface When the user touches the soft button with a fingertip or stylus, a function for executing processing corresponding to the soft button may be added to the above embodiment.
(2) When the user performs a predetermined setting operation, instead of displaying the guidance information at the destination where the fingertip or stylus is facing, the vicinity of the destination is enlarged and displayed at a larger magnification than the other areas. A function that facilitates a selection operation such as a soft button may be added to the embodiment.
(3) A transparent touch panel may be provided so as to cover the
1…表示部、2…センサ、3…制御部、4…記憶部、5…音声発生部。
DESCRIPTION OF
Claims (4)
座標入力用操作子または指先の3次元位置を検出する3次元位置検出手段と、
記憶手段と、
前記3次元位置検出手段により検出される3次元位置に基づき、前記記憶手段に3次元位置の移動履歴を記憶させるとともに、前記移動履歴を解析することにより前記座標入力用操作子または指先が向かいつつある前記表示面上の目的地を求める移動履歴更新解析手段と、
前記移動履歴更新解析手段により求められた前記表示面上の目的地に、前記座標入力用操作子または指先の操作を案内する案内情報を表示させる案内情報出力手段と
を具備することを特徴とする座標入力装置。 Display means;
Three-dimensional position detecting means for detecting a three-dimensional position of a coordinate input operator or a fingertip;
Storage means;
Based on the three-dimensional position detected by the three-dimensional position detection means, the movement history of the three-dimensional position is stored in the storage means, and the coordinate input operator or the fingertip is headed by analyzing the movement history. A movement history update analysis means for obtaining a destination on the display surface;
Guidance information output means for displaying the guidance information for guiding the operation of the coordinate input operator or the fingertip at the destination on the display surface obtained by the movement history update analysis means. Coordinate input device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005047658A JP2006235859A (en) | 2005-02-23 | 2005-02-23 | Coordinate input device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005047658A JP2006235859A (en) | 2005-02-23 | 2005-02-23 | Coordinate input device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006235859A true JP2006235859A (en) | 2006-09-07 |
Family
ID=37043453
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005047658A Withdrawn JP2006235859A (en) | 2005-02-23 | 2005-02-23 | Coordinate input device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006235859A (en) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010173584A (en) * | 2009-01-30 | 2010-08-12 | Denso Corp | Operating device |
JP2010277133A (en) * | 2009-05-26 | 2010-12-09 | Nissha Printing Co Ltd | Hybrid touch panel |
JP2011108152A (en) * | 2009-11-20 | 2011-06-02 | Fujitsu Toshiba Mobile Communications Ltd | Three-dimensional input display device |
JP2011118857A (en) * | 2009-12-02 | 2011-06-16 | Hyundai Motor Co Ltd | User interface device for operations of multimedia system for vehicle |
JP2012059171A (en) * | 2010-09-13 | 2012-03-22 | Seiko Epson Corp | Optical detection system, electronic apparatus and program |
JP2014219968A (en) * | 2013-04-12 | 2014-11-20 | 株式会社半導体エネルギー研究所 | Semiconductor device and driving method of the same |
WO2014192204A1 (en) * | 2013-05-28 | 2014-12-04 | 京セラドキュメントソリューションズ株式会社 | Display apparatus and image forming apparatus |
JP2015503795A (en) * | 2012-01-03 | 2015-02-02 | インテル・コーポレーション | Touch screen interaction method and apparatus |
JP2018170048A (en) * | 2018-08-08 | 2018-11-01 | シャープ株式会社 | Information processing apparatus, input method, and program |
-
2005
- 2005-02-23 JP JP2005047658A patent/JP2006235859A/en not_active Withdrawn
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4626860B2 (en) * | 2009-01-30 | 2011-02-09 | 株式会社デンソー | Operating device |
JP2010173584A (en) * | 2009-01-30 | 2010-08-12 | Denso Corp | Operating device |
JP2010277133A (en) * | 2009-05-26 | 2010-12-09 | Nissha Printing Co Ltd | Hybrid touch panel |
JP2011108152A (en) * | 2009-11-20 | 2011-06-02 | Fujitsu Toshiba Mobile Communications Ltd | Three-dimensional input display device |
JP2011118857A (en) * | 2009-12-02 | 2011-06-16 | Hyundai Motor Co Ltd | User interface device for operations of multimedia system for vehicle |
JP2012059171A (en) * | 2010-09-13 | 2012-03-22 | Seiko Epson Corp | Optical detection system, electronic apparatus and program |
JP2015503795A (en) * | 2012-01-03 | 2015-02-02 | インテル・コーポレーション | Touch screen interaction method and apparatus |
JP2014219968A (en) * | 2013-04-12 | 2014-11-20 | 株式会社半導体エネルギー研究所 | Semiconductor device and driving method of the same |
US10222911B2 (en) | 2013-04-12 | 2019-03-05 | Semiconductor Energy Laboratory Co., Ltd. | Semiconductor device and driving method of the same |
WO2014192204A1 (en) * | 2013-05-28 | 2014-12-04 | 京セラドキュメントソリューションズ株式会社 | Display apparatus and image forming apparatus |
JP5927342B2 (en) * | 2013-05-28 | 2016-06-01 | 京セラドキュメントソリューションズ株式会社 | Display device and image forming apparatus |
US9407779B2 (en) | 2013-05-28 | 2016-08-02 | Kyocera Document Solutions Inc. | Display apparatus and image forming apparatus |
JPWO2014192204A1 (en) * | 2013-05-28 | 2017-02-23 | 京セラドキュメントソリューションズ株式会社 | Display device and image forming apparatus |
JP2018170048A (en) * | 2018-08-08 | 2018-11-01 | シャープ株式会社 | Information processing apparatus, input method, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2006235859A (en) | Coordinate input device | |
JP5210497B2 (en) | Navigation device | |
JP5802667B2 (en) | Gesture input device and gesture input method | |
KR101666995B1 (en) | Multi-telepointer, virtual object display device, and virtual object control method | |
JP5784061B2 (en) | Input device, input method, and input program | |
US8466934B2 (en) | Touchscreen interface | |
JP4734435B2 (en) | Portable game device with touch panel display | |
JP5921835B2 (en) | Input device | |
JP2008158842A (en) | Map display device | |
WO2014061626A1 (en) | Touch panel-type input device, and control method and program thereof | |
JP2009003867A (en) | Display device and computer program | |
US10140002B2 (en) | Information processing apparatus, information processing method, and program | |
JP2007219676A (en) | Data input device, information equipment, and data input method | |
JP2011253398A (en) | Control system, control device, handheld apparatus, control method and program | |
JP2012027515A (en) | Input method and input device | |
JP2010128685A (en) | Electronic equipment | |
JP2012003404A (en) | Information display device | |
JP2008065504A (en) | Touch panel control device and touch panel control method | |
JP2020170297A (en) | Input device | |
JP2016148897A (en) | Information processing apparatus, information processing program, information processing system, and information processing method | |
JP4879933B2 (en) | Screen display device, screen display method and program | |
JP6561400B2 (en) | Information processing apparatus, information processing program, information processing system, and information processing method | |
JP5358215B2 (en) | Map display device | |
JP6603024B2 (en) | Information processing program, information processing apparatus, information processing system, and information processing method | |
JP5668992B2 (en) | Electronic equipment with a resistive touch panel |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20071217 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20090128 |