JPH1185398A - Command input device for touch panel display - Google Patents

Command input device for touch panel display

Info

Publication number
JPH1185398A
JPH1185398A JP26287997A JP26287997A JPH1185398A JP H1185398 A JPH1185398 A JP H1185398A JP 26287997 A JP26287997 A JP 26287997A JP 26287997 A JP26287997 A JP 26287997A JP H1185398 A JPH1185398 A JP H1185398A
Authority
JP
Japan
Prior art keywords
line drawing
touch panel
panel display
command
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP26287997A
Other languages
Japanese (ja)
Inventor
Takashi Kuroda
黒田  崇
Atsushi Kitazaki
敦 北崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kenwood KK
Original Assignee
Kenwood KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kenwood KK filed Critical Kenwood KK
Priority to JP26287997A priority Critical patent/JPH1185398A/en
Publication of JPH1185398A publication Critical patent/JPH1185398A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To prevent the map display area from decreasing and to make a map display easy to see, by executing a command corresponding to a line drawing made by touching with finger. SOLUTION: The touch panel display serves as a part of an input device 32 and the whole display device 48. The line drawing that a user makes by touching the touch panel display with finger is recognized and the command corresponding to the recognized line drawing is executed. Consequently, a display of command buttons or the like is eliminated to make the map display or the like easy to see. For the line drawing recognition, what the line drawing is, recognized and discriminated from, for example, the number of the vertexes and a simple figure such as a rectangle is assigned to the command. It is free what command is assigned to the line drawing and, for example, a command for enlarging the map display in the rectangle to the entire screen is assigned. A mountain shape is assigned as a command for scrolling the screen in the direction of the vector drawn from the center point between both ends to a vertex by the size of the vector.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は、例えばカーナビ
ゲーション装置に装備されるタッチパネルディスプレー
用のコマンド入力装置に係り、詳しくは改善された入力
方式をもつタッチパネルディスプレー用コマンド入力装
置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a command input device for a touch panel display provided in, for example, a car navigation device, and more particularly to a command input device for a touch panel display having an improved input system.

【0002】[0002]

【従来の技術】図7はタッチパネルディスプレー10の画
面12を示している。地図表示モードの画面12には、地図
を背景にして、画面を上下左右にスクロールさせるスク
ロールボタン14が上下左右の各辺部中央に表示されると
もに、目次画面、検索画面、及び前頁等の他の画面への
切替や地図の拡大や地図の全体表示を指示するコマンド
ボタン(アイコンを含む)16が表示されている。ユーザ
は、画面12上の所定のスクロールボタン14やコマンドボ
タン16に指をタッチして、コマンドを入力することにな
っている。
2. Description of the Related Art FIG. 7 shows a screen 12 of a touch panel display 10. On the screen 12 of the map display mode, a scroll button 14 for scrolling the screen up, down, left, and right with the map as a background is displayed at the center of each side of up, down, left, and right, and a table of contents screen, a search screen, a previous page, etc. A command button (including an icon) 16 for switching to another screen, enlarging the map, or displaying the entire map is displayed. The user touches a predetermined scroll button 14 or command button 16 on the screen 12 with a finger to input a command.

【0003】[0003]

【発明が解決しようとする課題】スクロールボタン14及
びコマンドボタン16は、地図表示を下に隠して地図表示
の上に表示されるため、スクロールボタン14やコマンド
ボタン16の個数が増大すると、スクロールボタン14及び
コマンドボタン16に隠れてしまい、地図表示面積が減少
するとともに、地図表示が見難くなる。
Since the scroll button 14 and the command button 16 are displayed on the map display while hiding the map display below, when the number of the scroll buttons 14 and the command buttons 16 increases, the scroll button It is hidden by the command button 14 and the command button 16, so that the map display area is reduced and the map display becomes difficult to see.

【0004】この発明の目的は、上述の問題点を克服で
きるタッチパネルディスプレー用コマンド入力装置を提
供することである。
An object of the present invention is to provide a command input device for a touch panel display which can overcome the above-mentioned problems.

【0005】[0005]

【課題を解決するための手段】この発明のタッチパネル
ディスプレー(10)用コマンド入力装置は次の(a)及び
(b)を有している。 (a)ユーザがタッチパネルディスプレー(10)に指をタ
ッチさせて描いた線画を認識する線画認識手段 (b)線画認識手段により認識された線画に対応するコ
マンドを実行するコマンド実行手段
A command input device for a touch panel display (10) according to the present invention has the following (a) and (b). (A) Line drawing recognizing means for recognizing a line drawing drawn by a user touching a touch panel display (10) with a finger (b) Command executing means for executing a command corresponding to a line drawing recognized by the line drawing recognizing means

【0006】この発明のタッチパネルディスプレー(10)
用コマンド入力装置は、カーナビゲーション装置(20)だ
けでなく、ゲーム機や現金支払い機等、タッチパネルデ
ィスプレー(10)を装備する任意の機械に適用可能であ
る。線画とは例えば三角形、長方形、円、線分、及び山
形形状等である。ユーザがタッチパネルディスプレー(1
0)に描いた線画は、通常は、透明であって、軌跡が残ら
ないが、ユーザの確認等のために、所定の色でタッチパ
ネルディスプレー(10)上に所定時間又は所定タイミング
まで、表示させてもよい。線画は、通常、1回の連続タ
ッチで描かれるが、例えば、所定時間内の複数回のタッ
チで描かれた線画を1個の線画と看做してもよい。例え
ば、1つの三角形を1辺ずつ、3回のタッチで描くよう
な場合である。
[0006] Touch panel display of the present invention (10)
The command input device for use can be applied to not only a car navigation device (20) but also any machine equipped with a touch panel display (10), such as a game machine or a cash dispenser. The line drawing is, for example, a triangle, a rectangle, a circle, a line segment, and a chevron shape. When the user touches the touch panel display (1
The line drawing drawn in (0) is normally transparent and does not leave a trajectory, but is displayed in a predetermined color on the touch panel display (10) for a predetermined time or a predetermined timing for user confirmation or the like. You may. A line drawing is usually drawn by one continuous touch, but for example, a line drawing drawn by a plurality of touches within a predetermined time may be regarded as one line drawing. For example, there is a case where one triangle is drawn with three touches, one side at a time.

【0007】線画認識手段はこの透明又は有色の線画を
認識し、コマンド実行手段は、線画認識手段が認識した
線画に対応するコマンドを実行する。ユーザがコマンド
を入力するために、タッチパネルディスプレー(10)にコ
マンドボタン等を表示する必要がないので、地図等の本
来の表示がコマンドボタン等に隠れて見え難くなった
り、表示面積が小さくなるという弊害を防止できる。
The line image recognition means recognizes the transparent or colored line image, and the command execution means executes a command corresponding to the line image recognized by the line image recognition means. Since the user does not need to display command buttons or the like on the touch panel display (10) in order to input commands, the original display of the map or the like is hidden by the command buttons or the like, making it difficult to see or reducing the display area. Evil effects can be prevented.

【0008】この発明のタッチパネルディスプレー(10)
用コマンド入力装置によれば、線画認識手段は、ユーザ
が1回の連続タッチで描いた線画を1個の線画として認
識する。
[0008] Touch panel display of the present invention (10)
According to the command input device for line, the line drawing recognizing means recognizes a line drawing drawn by the user with one continuous touch as one line drawing.

【0009】ユーザが、1回の連続タッチで描いた線画
が1個の線画として認識させることにより、ユーザによ
る線画の書込み終了を、特別の終了指示を入力すること
なく、簡単に検出できる。
[0009] By allowing the user to recognize a line image drawn by one continuous touch as one line image, the end of writing of the line image by the user can be easily detected without inputting a special end instruction.

【0010】この発明のタッチパネルディスプレー(10)
用コマンド入力装置によれば、線画認識手段は、頂点の
数より線画が何であるかを認識する。
[0010] Touch panel display (10) of the present invention
According to the command input device, the line drawing recognition means recognizes what the line drawing is from the number of vertices.

【0011】例えば線分、三角形、長方形等の単純な図
形は線画の頂点の数により識別可能である。線画認識手
段は、このような単純図形をコマンドに割り当てること
により、コマンドとしての線画を、その頂点の数から簡
単に識別できる。
For example, simple figures such as line segments, triangles, and rectangles can be identified by the number of vertices of a line drawing. The line drawing recognition means can easily identify a line drawing as a command from the number of vertices by assigning such a simple figure to a command.

【0012】この発明のタッチパネルディスプレー(10)
用コマンド入力装置によれば、線画認識手段は、線画の
少なくとも1個の頂点の角度よりその線画が何であるか
を認識する。
The touch panel display of the present invention (10)
According to the command input device, the line drawing recognizing means recognizes what the line drawing is from the angle of at least one vertex of the line drawing.

【0013】線画認識手段が角度を検出する頂点は、線
画の選択された1個又は複数個の頂点であってもよい
し、全部の頂点であってもよい。角度を検出する頂点の
数を増大させる程、認識の信頼性は増大する。
The vertex at which the line drawing recognition means detects the angle may be one or more selected vertices of the line drawing, or all vertices. The reliability of recognition increases as the number of vertices for detecting angles increases.

【0014】ユーザがタッチパネルディスプレー(10)に
描く三角形及び長方形、及び5辺以上の正多角形等の単
純図形は、それぞれ頂点の角度の大きさが異なってお
り、それら角度より識別可能である。線画認識手段は、
このような単純図形をコマンドに割り当てることによ
り、コマンドとしての線画を、頂点の角度から簡単に識
別できる。
Simple figures such as triangles and rectangles and five or more regular polygons drawn by the user on the touch panel display (10) have different vertexes at different angles, and can be distinguished from the angles. Line drawing recognition means,
By assigning such a simple figure to a command, a line drawing as a command can be easily identified from the angle of a vertex.

【0015】この発明のタッチパネルディスプレー(10)
用コマンド入力装置によれば、コマンド実行手段は、ユ
ーザが描いた線画がほぼ長方形であるときその長方形範
囲を検出する範囲検出手段と、範囲検出手段により検出
された範囲を拡大してタッチパネルディスプレー(10)に
表示する拡大表示手段とを含む。
[0015] Touch panel display (10) of the present invention
According to the command input device for command, the command executing means, when the line drawing drawn by the user is substantially rectangular, the range detecting means for detecting the rectangular range, and expanding the range detected by the range detecting means to expand the touch panel display ( And 10) an enlarged display means for displaying.

【0016】範囲検出手段は、ユーザが描いたほぼ長方
形の範囲を検出し、拡大表示手段は、範囲検出手段が検
出した長方形範囲を例えばタッチパネルディスプレー(1
0)全体に拡大して、表示する。通常の拡大表示では、ユ
ーザは、拡大コマンドの選択、拡大範囲の指定、実行
(入力終了)等、複数の操作が必要であるのに対し、ユ
ーザの拡大操作を能率化できる。
The range detecting means detects a substantially rectangular range drawn by the user, and the enlarged display means displays the rectangular range detected by the range detecting means on, for example, a touch panel display (1).
0) Enlarge and display the entire image. In the normal enlarged display, the user needs to perform a plurality of operations such as selection of an enlarged command, designation of an enlarged range, and execution (end of input), but the user can streamline the enlarged operation.

【0017】この発明のタッチパネルディスプレー(10)
用コマンド入力装置によれば、コマンド実行手段は、ユ
ーザが描いた線画が山形形状であるとき、ほぼ、その山
形形状の向きへ、タッチパネルディスプレー(10)の画面
をスクロールするスクロール手段を含む。
[0017] Touch panel display (10) of the present invention
According to the command input device for use, the command execution means includes a scroll means for scrolling the screen of the touch panel display (10) substantially in the direction of the mountain shape when the line drawing drawn by the user has the mountain shape.

【0018】ユーザは、山形形状を所望の向きに描くこ
とにより、その向きへ画面(12)をスクロールさせること
ができる。山形形状の向きは360°任意の向きに描く
ことができるが、360°を例えば上下左右の4個や、
さらに斜め方向も含む8個等の角度範囲に分け、ユーザ
が描いた山形形状の向きを、4方向又は8方向の内のも
っとも近い方向へスクロール方向を近似させることもで
きる。こうして、各スクロール方向を示すスクロールボ
タンを画面(12)上に多数配置して、画面(12)の背景が見
難くなる弊害を防止できる。
By drawing the chevron in a desired direction, the user can scroll the screen (12) in that direction. The direction of the chevron can be drawn in any direction of 360 °, but 360 ° can be drawn, for example, up, down, left and right,
Further, the scroll direction can be approximated to eight or more angular ranges including the oblique direction, and the direction of the chevron shape drawn by the user can be approximated to the closest one of the four directions or the eight directions. In this way, a large number of scroll buttons indicating the respective scroll directions are arranged on the screen (12), thereby preventing the background of the screen (12) from being difficult to see.

【0019】この発明のタッチパネルディスプレー(10)
用コマンド入力装置によれば、スクロール手段は、ユー
ザが描いた線画が山形形状であるときその山形形状の高
さ相当量を検出する高さ検出手段と、高さ検出手段によ
り検出された高さ相当量の対応量だけタッチパネルディ
スプレー(10)の画面をスクロールする。
The touch panel display of the present invention (10)
According to the command input device, when the line drawing drawn by the user has a chevron shape, the scroll means includes a height detecting means for detecting a height equivalent amount of the chevron shape, and a height detected by the height detecting means. The screen of the touch panel display (10) is scrolled by a considerable amount.

【0020】ユーザは、画面(12)のスクロール量を、タ
ッチパネルディスプレー(10)に描く山形形状の高さによ
り簡単に設定して、スクロール量の入力操作を能率化で
きる。従来のタッチパネルディスプレー(10)では、スク
ロール量は例えば1画面分、半画面分と固定されている
か、ユーザがカスタマイズにより設定した所定値に固定
されるので、スクロール量を適宜変更することができな
かった。
The user can easily set the scroll amount of the screen (12) by the height of the chevron shape drawn on the touch panel display (10), and can streamline the input operation of the scroll amount. In the conventional touch panel display (10), the scroll amount is fixed to, for example, one screen, a half screen, or a predetermined value set by customization by the user, so that the scroll amount cannot be appropriately changed. Was.

【0021】この発明のタッチパネルディスプレー(10)
用コマンド入力装置によれば、コマンド実行手段は、ユ
ーザが描いた線画が山形形状であるとき、山形形状の両
端の中点から山形形状の頂点へ引いたベクトルを求め、
このベクトルの向きへかつこのベクトルの大きさだけタ
ッチパネルディスプレー(10)の画面をスクロールするス
クロール手段を含む。
[0021] Touch panel display (10) of the present invention
According to the command input device, when the line drawing drawn by the user has a chevron shape, the command execution means obtains a vector obtained by subtracting a midpoint between both ends of the chevron shape to a vertex of the chevron shape,
Scroll means for scrolling the screen of the touch panel display (10) in the direction of the vector and by the size of the vector is included.

【0022】ベクトルの向きは山形形状の向きにほぼ等
しい。また、ベクトルの大きさは山形形状の高さにほぼ
等しい。こうして、ユーザは、山形形状を所望の向きに
描くことにより、その向きへ画面(12)をスクロールさせ
ることができるとともに、画面(12)のスクロール量を、
タッチパネルディスプレー(10)に描く山形形状の高さに
より簡単に設定できる。各スクロール方向を示すスクロ
ールボタンを画面(12)上に多数配置して、画面(12)の背
景が見難くなる弊害を防止しつつ、画面(12)のスクロー
ル量を、タッチパネルディスプレー(10)に描く山形形状
の高さにより簡単に設定して、スクロール量の適宜変
更、及び入力操作の能率化を達成できる。
The direction of the vector is substantially equal to the direction of the chevron. The magnitude of the vector is substantially equal to the height of the chevron. In this way, the user can scroll the screen (12) in the desired direction by drawing the chevron shape in the desired direction, and reduce the scroll amount of the screen (12) by:
It can be easily set by the height of the chevron shape drawn on the touch panel display (10). A large number of scroll buttons indicating each scroll direction are arranged on the screen (12), and the amount of scrolling of the screen (12) can be reduced on the touch panel display (10) while preventing the background of the screen (12) from being difficult to see. The scroll amount can be appropriately changed and the input operation can be efficiently performed by easily setting according to the height of the chevron shape to be drawn.

【0023】[0023]

【発明の実施の形態】以下、発明の実施の形態について
図面を参照して説明する。図6はカーナビゲーション装
置20のブロック図である。22は、マイクロコンピュータ
等から成るメインコントローラ、24は自車位置処理装
置、26はCD−ROM等から成る地図データベース、28
は、CD−ROMドライブ等から成る記録媒体読み取り
装置、30はRAM等から成る主メモリ、32は入力装置、
34は映像処理装置、36は音声出力装置である。自車位置
処理装置24は、さらに、自車の回転角速度を検出する角
速度センサ及び自車の走行距離を検出する距離センサを
含む自律航法センサ38、車両の現在位置と現在方位を衛
星航法で測位するGPS受信機40、並びに自律航法セン
サ38及びGPS受信機40からの入力に基づいて自車位置
を演算する自車位置演算装置42を装備している。記録媒
体読み取り装置28は、地図データベース26より地図デー
タを読み取り、メインコントローラ22へ出力する。メイ
ンコントローラ22は、記録媒体読み取り装置28からの道
路ネットワークのユニットデータと、自車位置処理装置
24からの自車の現在地データと、ユーザが入力装置32よ
り入力した例えば自車の出発地及び目的地に関する位置
データとを主メモリ30に記憶する。メインコントローラ
22は、主メモリ30から読み出したデータに基づいて推奨
経路案内データ等を演算し、その推奨経路案内データ、
自車位置を含む地域の地図データ、自車位置データ等を
映像処理装置34へ出力する。また、メインコントローラ
22は、音声出力装置36へデータを送って、音声出力装置
36よりユーザへ情報を適宜、音声で知らせる。映像処理
装置34は、表示装置48の他に、グラフィクコントローラ
44及びビデオRAM46を含み、グラフィクコントローラ
44により推奨経路案内データをビデオRAM46に記憶さ
せ、かつビデオRAM46から読み゛下推奨経路案内デー
タを表示装置48に出力し、表示させる。タッチパネルデ
ィスプレー10は入力装置32の一部と表示装置48の全部と
を兼ねる。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 6 is a block diagram of the car navigation device 20. 22 is a main controller composed of a microcomputer or the like, 24 is a vehicle position processing device, 26 is a map database composed of a CD-ROM or the like, 28
Is a recording medium reading device including a CD-ROM drive or the like, 30 is a main memory including a RAM or the like, 32 is an input device,
34 is a video processing device, and 36 is an audio output device. The own-vehicle position processing device 24 further includes an autonomous navigation sensor 38 including an angular velocity sensor for detecting the rotational angular velocity of the own vehicle and a distance sensor for detecting a traveling distance of the own vehicle, and positioning the current position and current direction of the vehicle by satellite navigation. A GPS receiver 40 and an own-vehicle position calculating device 42 for calculating the own-vehicle position based on inputs from the autonomous navigation sensor 38 and the GPS receiver 40 are provided. The recording medium reading device 28 reads map data from the map database 26 and outputs the map data to the main controller 22. The main controller 22 includes the unit data of the road network from the recording medium reading device 28 and the vehicle position processing device.
The main memory 30 stores the present location data of the own vehicle from 24 and the position data relating to, for example, the departure place and the destination of the own vehicle input from the input device 32 by the user. Main controller
22 calculates recommended route guidance data and the like based on the data read from the main memory 30, and calculates the recommended route guidance data,
The map data of the area including the own vehicle position, the own vehicle position data, and the like are output to the video processing device 34. Also the main controller
22 sends the data to the audio output device 36,
36 informs the user of the information as appropriate. The video processing device 34 includes a graphic controller in addition to the display device 48.
44 and a video RAM 46, a graphics controller
The recommended route guidance data is stored in the video RAM 46 by 44, and the read and read recommended route guidance data is output from the video RAM 46 to the display device 48 for display. The touch panel display 10 serves as a part of the input device 32 and the entire display device 48.

【0024】図3〜図5はタッチパネルディスプレー10
においてユーザによりコマンドとして入力される種々の
線画(以下、「ジェスチャーコマンド」と言う。)を示
している。図3、図4、及び図5では、それぞれ長方
形、山形形状、及び円がユーザにより描かれている。な
お、図3〜図5では、ユーザが画面12において指でタッ
チした軌跡が黒色の線で表示されているが、実際は、透
明であり、軌跡は残らない。ユーザは、ジェスチャーコ
マンドとしての長方形、山形形状、及び円は、1回の連
続タッチ描くように、約束されている。なお、長方形、
山形形状、及び円について、画面12における指の移動方
向(図では、いずれも時計方向)が矢で示されている
が、後述の図2のフローチャートの説明で明らかになる
ように、同一の線画は、指の移動方向には関係なく、認
識される。各ジェスチャーコマンドにどのようなコマン
ドを割り当てるかは自由であるが、各ジェスチャーコマ
ンドの内容を例示する。長方形のジェスチャーコマンド
は、例えば、その長方形内の地図表示を画面12の全体へ
拡大するコマンドとして割り当てる。山形形状は、例え
ば、両端の中点から頂点へ引いたベクトルの向きへその
ベクトルの大きさだけ画面12をスクロールするコマンド
として割り当てる。図4の山形形状は右向きの山形形状
であるので、画面は右へスクロールされる。円は、例え
ば、円内の建造物等のオブジェクトの電話番号等の付加
情報を画面に表示するコマンドとして割り当てる。
FIGS. 3 to 5 show a touch panel display 10.
Shows various line drawings (hereinafter, referred to as “gesture commands”) input by the user as commands. In FIGS. 3, 4, and 5, a rectangle, a chevron, and a circle are drawn by the user, respectively. In FIGS. 3 to 5, the trajectory touched by the user with the finger on the screen 12 is displayed as a black line, but is actually transparent and no trajectory remains. The user is promised to draw a rectangle, chevron, and circle as gesture commands in one continuous touch. In addition, rectangle,
Regarding the chevron shape and the circle, the moving direction of the finger on the screen 12 (the clockwise direction in the figure) is indicated by an arrow, but the same line drawing will be apparent as will be described later with reference to the flowchart of FIG. Is recognized regardless of the moving direction of the finger. Although any command can be freely assigned to each gesture command, the contents of each gesture command are exemplified. The gesture command of the rectangle is assigned, for example, as a command for enlarging the map display in the rectangle to the entire screen 12. The chevron shape is assigned, for example, as a command to scroll the screen 12 by the size of the vector in the direction of the vector drawn from the midpoint of both ends to the vertex. Since the chevron shape in FIG. 4 is a rightward chevron shape, the screen is scrolled to the right. The circle is assigned as a command for displaying additional information such as a telephone number of an object such as a building in the circle on a screen.

【0025】図1はジェスチャーコマンドの入力処理の
フローチャートである。タッチパネルディスプレー10
は、ユーザの指がタッチしている座標(x、y)を検出
する機能を装備している。このフローチャートにおいて
演算されたデータは主メモリ30(図6)のバッファに一
時的に記憶される。S82において、ユーザがタッチパ
ネルディスプレー10に指をタッチ開始するのを待機して
おり、タッチ開始されや、S50が実行される。S50
では、現在のタッチ位置(x、y)を0番目の頂点座標
(x0,y0)、すなわちユーザがこれから描こうとする
線画の始端(x0,y0)とするとともに、移動方向ベク
トル(dx、dy)に初期値(0,0)を代入する。S
52では、指が離れたか否かを判定し、YESであれ
ば、S72へ進み、NOであれば、S54へ進む。S5
4では、タッチ位置(x、y)を取込む。S56では、
0番目の移動方向ベクトル(dx0,dy0)に(x−x
0,y−y0)を代入する。S58では、nに0を代入す
る。
FIG. 1 is a flowchart of a gesture command input process. Touch panel display 10
Has a function of detecting coordinates (x, y) touched by the user's finger. The data calculated in this flowchart is temporarily stored in the buffer of the main memory 30 (FIG. 6). In S82, the process waits for the user to start touching the touch panel display 10 with a finger, and the touch is started or S50 is executed. S50
Then, the current touch position (x, y) is set to the 0th vertex coordinate (x0, y0), that is, the starting point (x0, y0) of the line drawing that the user intends to draw, and the moving direction vector (dx, dy) Is substituted for the initial value (0,0). S
At 52, it is determined whether or not the finger has been released. If YES, the process proceeds to S72, and if NO, the process proceeds to S54. S5
In step 4, the touch position (x, y) is captured. In S56,
(Xx-x) is added to the 0th movement direction vector (dx0, dy0).
0, y-y0). In S58, 0 is substituted for n.

【0026】S60では、現在のタッチ位置(x、y)
を1個の前(previous)のタッチ位置(xp,
yp)に代入する。S62では、指がタッチパネルディ
スプレー10より離れたか否かを判定し、YESであれ
ば、S72へ進み、NOであれば、S64へ進む。S6
4では、現在のタッチ位置(x,y)を取込む。S66
では、移動方向ベクトル(dx、dy)に(x−xp,
y−yp)を代入して、移動方向ベクトルを更新する。
S68では、「dx,dxnが同符号」及び「dy,d
ynが同符号」の条件が成り立つか否かを判定し、YE
Sであれば、S60へ戻り、NOであれば、S70へ進
む。n=0のときのdxn,dynはS56において定義
され、n≧1のときのdxn,dynは後述のS70にお
いて定義される。「dx,dxnが同符号」とは、x軸
方向(画面12の左右方向)についての指の移動方向に変
化のないことを示し、「dy,dynが同符号」とは、
y軸方向(画面12の上下方向)についての指の移動方向
に変化のないことを示している。したがって、S68の
判定がYESであるとは、指の移動方向がx軸方向及び
y軸方向とも変化のないことを意味し、NOであると
は、指の移動方向がx軸方向及びy軸方向のいずれかに
ついて逆転したことを意味する。S70では、dxn,
dynに、S66で計算したdx,dyの値を代入して
から、nを1だけインクレメントし、さらに、その後、
n番目の頂点座標(xn,yn)に、S60で求めた(x
p,yp)を代入してから、S60へ戻る。
In S60, the current touch position (x, y)
To the previous touch position (xp,
yp). In S62, it is determined whether or not the finger has left the touch panel display 10. If YES, the process proceeds to S72. If NO, the process proceeds to S64. S6
In step 4, the current touch position (x, y) is captured. S66
Then, in the moving direction vector (dx, dy), (x−xp,
y-yp) is substituted to update the moving direction vector.
In S68, “dx and dxn have the same sign” and “dy, d
yn is the same sign "is satisfied, and YE is determined.
If S, the process returns to S60; if NO, the process proceeds to S70. dxn and dyn when n = 0 are defined in S56, and dxn and dyn when n ≧ 1 are defined in S70 described later. “Dx and dxn have the same sign” indicates that there is no change in the moving direction of the finger in the x-axis direction (the horizontal direction of the screen 12), and “dy and dyn have the same sign”.
This indicates that the moving direction of the finger in the y-axis direction (the vertical direction of the screen 12) does not change. Therefore, the determination of S68 being YES means that the moving direction of the finger does not change in both the x-axis direction and the y-axis direction, and NO means that the moving direction of the finger is in the x-axis direction and the y-axis direction. Means reversed in any of the directions. In S70, dxn,
After substituting the values of dx and dy calculated in S66 for dyn, n is incremented by one, and then
The n-th vertex coordinates (xn, yn) obtained in S60 (x
(p, yp), and then returns to S60.

【0027】S72では、nを1だけインクレメントし
てから、S64等で取込んだ現在のタッチ位置(x、
y)をn番目の頂点座標(xn,yn)、すなわちユーザ
が描き終えた線画の終端(xn,yn)とする。S74で
は、1番目の頂点座標(x1,y1)と0番目の頂点座標
(x0,y0)とのx軸方向及びy軸方向の距離の絶対値
をそれぞれdx、dyとする。S76では、S74で求
めたdx,dyについてそれぞれ閾値Cx1,Cy1未満か
否かを判定し、YESであれば、S78へ進み、NOで
あれば、S80へ進む。Cx1、Cy1は通常は同じ値であ
るが、異なる値に設定してもよい。S76の条件がYE
Sであるとは、ユーザがコマンドボタン16(図7)にタ
ッチしたときのように、指の動きがないプッシュコマン
ドの入力を意味し、NOであるとは、ユーザが線画をタ
ッチパネルディスプレー10に描いたこと、すなわちジェ
スチャーコマンドの入力を意味する。S78では、プッ
シュコマンドに対応する画面切替等の通常処理が行わ
れ、その後、S82へ進む。S80では、ジェスチャー
パターンの照合及び実行処理が行われ、その後、S82
へ進む。S82では、ユーザがタッチパネルディスプレ
ー10に次に指をタッチするまで待機する。
In S72, after n is incremented by 1, the current touch position (x,
Let y) be the n-th vertex coordinates (xn, yn), that is, the end (xn, yn) of the line drawing finished by the user. In S74, the absolute values of the distance in the x-axis direction and the y-axis direction between the first vertex coordinates (x1, y1) and the zeroth vertex coordinates (x0, y0) are dx and dy, respectively. In S76, it is determined whether or not dx and dy obtained in S74 are smaller than thresholds Cx1 and Cy1, respectively. If YES, the process proceeds to S78, and if NO, the process proceeds to S80. Cx1 and Cy1 are usually the same value, but may be set to different values. The condition of S76 is YE
S means input of a push command without finger movement, such as when the user touches the command button 16 (FIG. 7), and NO indicates that the user writes a line drawing on the touch panel display 10. This means drawing, that is, inputting a gesture command. In S78, normal processing such as screen switching corresponding to the push command is performed, and then the process proceeds to S82. In S80, a process of collating and executing a gesture pattern is performed.
Proceed to. In S82, the process waits until the user touches the touch panel display 10 with a finger next time.

【0028】図2は図1のS80のジェスチャーパター
ン照合&実行処理の詳細なフローチャートである。S9
0では、dx及びdyにそれぞれ|xn−x0|,|yn
−y0|を代入する。x及びyの添え字nは、図1のS
70のn=n+1を最後に実行した時の値が入力されて
おり、ユーザがタッチパネルディスプレー10に描いた線
画の頂点数(ここでは、線画の始端及び終端もそれぞれ
1個の頂点として勘定している。)から1を引いた値で
ある。S92では、「dx<Cx2」&「dy<Cy2」
(Cx2,Cy2は、閾値であり、Cx2=Cy2であっても、
Cx2≠Cy2であっても、また、図1のS76のCx1,C
y1に対して、Cx2=Cx1,Cy2=Cx1であっても、Cx2
≠Cx1,Cy2≠Cy1であってもよい。)の条件が成立す
るか否かを判定し、YESであれば、S96へ進み、N
Oであれば、S94へ進む。S92の判定がYESと
は、ユーザが1回の連続タッチで描いた線画の始端(x
0,y0)と終端(xn,yn)とがほぼ同位置にあること
を意味し、NOとは、線画の始端(x0,y0)と終端
(xn,yn)とが十分に離れていることを意味してい
る。S94では、nの値を調べ、n=3,n=4,n≧
5に対してそれぞれS102,S106,S110へ進
む。S96では、S94と同様に、nの値を調べ、n=
1,n=2,n≠1,2に対してそれぞれS98,S1
00,S114進む。
FIG. 2 is a detailed flowchart of the gesture pattern collation and execution process in S80 of FIG. S9
0, dx and dy are | xn-x0 | and | yn, respectively.
−y0 |. The subscript n of x and y is S in FIG.
The value at the time when n = n + 1 of 70 is last executed is input, and the number of vertices of the line drawing drawn by the user on the touch panel display 10 (here, the start and end of the line drawing are counted as one vertex, respectively). Is less than 1). In S92, “dx <Cx2” & “dy <Cy2”
(Cx2 and Cy2 are thresholds, and even if Cx2 = Cy2,
Even if Cx2 ≠ Cy2, Cx1, Cx in S76 of FIG.
Even if Cx2 = Cx1 and Cy2 = Cx1 with respect to y1, Cx2
≠ Cx1, Cy2 ≠ Cy1. It is determined whether or not the condition of ()) is satisfied. If YES, the process proceeds to S96 and N
If O, proceed to S94. If the determination in S92 is YES, the start of the line image drawn by the user with one continuous touch (x
(0, y0) and the end (xn, yn) mean that they are almost at the same position, and NO means that the start (x0, y0) and the end (xn, yn) of the line drawing are sufficiently separated. Means In S94, the value of n is checked, and n = 3, n = 4, n ≧
For S5, the process proceeds to S102, S106, and S110, respectively. In S96, as in S94, the value of n is checked, and n =
S98, S1 for 1, n = 2, n ≠ 1, 2 respectively
00, proceed to S114.

【0029】S98では、ジェスチャー=線分と判定す
るとともに、それに対応するコマンドを実行する。すな
わち、S98が実施されるということは、ユーザが描い
た線画の始端(x0,y0)と終端(xn,yn)とが十分
に離れ、かつ頂点(始端及び終端も頂点と勘定する)の
個数が2個であるのて、線分と判定できる。S98の
後、S114進む。S100では、ジェスチャーは山形
形状(図4)であると認識し、線画の始端(x0,y0)
と終端(xn,yn)の平均値(xm,ym)を求め、さら
に、x軸方向スクロール量xs及びy軸方向スクロール
量ysをそれぞれx1−xm,y1−ymとする。そして、
タッチパネルディスプレー10の画面12をx軸方向及びy
軸方向へそれぞれxs,ysだけスクロールする。xs,
ysは、+−所定範囲内の連続量を採るので、画面12
は、理論上は、360°の任意の方向へスクロールする
ことになる。しかしながら、|xs|と|ys|との大小
関係を調べて、絶対値の小さい方を0とするスクロー
ル、すなわち、|xs|≧|ys|ならば、ys=0とし
て、xsの正負に応じて、右スクロール及び左スクロー
ルを行い、また、|ys|>|xs|ならば、xs=0と
して、ysの正負に応じてそれぞれ上スクロール及び下
スクロールを行う、計4方向のスクロールに限定するこ
とも可能である。S100の実行後、S114進む。
In S98, it is determined that the gesture is a line segment, and a corresponding command is executed. That is, the execution of S98 means that the start (x0, y0) and the end (xn, yn) of the line drawing drawn by the user are sufficiently separated, and the number of vertices (the start and end are also counted as vertices) Are two, and thus can be determined as a line segment. After S98, the process proceeds to S114. In S100, the gesture is recognized as having a chevron shape (FIG. 4), and the beginning of the line drawing (x0, y0)
And the average value (xm, ym) of the end (xn, yn), and further, the scroll amount xs in the x-axis direction and the scroll amount ys in the y-axis are x1-xm and y1-ym, respectively. And
Touch the screen 12 of the touch panel display 10 in the x-axis direction and y
Scroll in the axial direction by xs and ys, respectively. xs,
Since ys takes a continuous amount within a predetermined range, the screen 12
Would theoretically scroll in any direction of 360 °. However, the magnitude relationship between | xs | and | ys | is examined, and scrolling in which the smaller absolute value is 0, that is, if | xs | ≧ | ys |, ys = 0, and depending on the sign of xs, , Right scroll and left scroll, and if | ys |> | xs |, xs = 0 is set, and scrolling up and down according to the sign of ys is limited to a total of four directions of scrolling. It is also possible. After execution of S100, the process proceeds to S114.

【0030】S102では、m=0,1について、ベク
トル(dxm,dym)とベクトル(dxm+1,dym+1)
とのなす角がいずれも鈍角か否かを判定する。なお、ベ
クトル(dxm,dym)は図1のS70において、dx
n,dynとして計算されたものである。図2の1回の連
続タッチによる長方形の描出から理解されるように、ベ
クトル(dxm,dym)とベクトル(dxm+1,dym+
1)のなす角とは、ユーザがタッチパネルディスプレー1
0に描いた線図の隣接辺の外角を意味する。そして、全
部の隣接辺の組に対して、それらの角(外角)が鈍角で
あれば、S104において、ジェスチャーコマンド=三
角形と認識し、それに対応するコマンドを実行する。S
94において、n=3と判定されれば、これは始端、頂
点、及び終端の総計が4個であることを意味するので、
S94におけるn=3の判定とS102における鈍角の
判定とは、ジェスチャー=三角形の判定について重複す
るが、重複したチェックにより認識の信頼性を高めてい
る。
In S102, for m = 0, 1, the vector (dxm, dym) and the vector (dxm + 1, dym + 1)
Is determined to be an obtuse angle. Note that the vector (dxm, dym) is equal to dxm in S70 of FIG.
It is calculated as n, dyn. As can be understood from the drawing of a rectangle by one continuous touch in FIG. 2, the vector (dxm, dym) and the vector (dxm + 1, dym +)
1) The angle made by the user means that the touch panel display 1
It means the outside angle of the adjacent side of the diagram drawn in 0. If the angles (outer angles) are obtuse angles with respect to all pairs of adjacent sides, the gesture command is recognized as a triangle in S104, and the corresponding command is executed. S
If it is determined at 94 that n = 3, this means that the total of the starting point, the vertex, and the ending point is four, so that
The determination of n = 3 in S94 and the determination of the obtuse angle in S102 overlap with the determination of gesture = triangle, but the reliability of recognition is increased by the overlapping check.

【0031】S106では、m=0,1,2について、
ベクトル(dxm,dym)とベクトル(dxm+1,dym
+1)とのなす角がいずれもほぼ直角か否かを判定する。
ベクトル(dxm,dym)とベクトル(dxm+1,dym
+1)のなす角とは、ユーザがタッチパネルディスプレー
10に描いた線図の隣接辺の外角を意味する。そして、全
部の隣接辺の組に対して、それらの角(外角)がほぼ直
角であれば、S108において、ジェスチャーコマンド
=長方形と認識し、それに対応するコマンド、例えば長
方形内の地図の拡大表示を実行する。S94において、
n=4と判定されれば、これは始端、頂点、及び終端の
総計が5個であることを意味するので、S94における
n=4の判定とS102におけるほぽ直角の判定とは、
ジェスチャー=長方形の判定について重複するが、重複
したチェックにより認識の信頼性を高めている。
In S106, for m = 0, 1, 2
Vector (dxm, dym) and vector (dxm + 1, dym)
+1) is determined to be almost a right angle.
Vector (dxm, dym) and vector (dxm + 1, dym)
+1) is the angle the user makes on the touch panel display.
It means the outside angle of the adjacent side of the diagram drawn in 10. If the corners (outer angles) of all the sets of adjacent sides are substantially right angles, in S108, the gesture command is recognized as a rectangle, and the corresponding command, for example, the enlarged display of the map in the rectangle is performed. Execute. In S94,
If it is determined that n = 4, this means that the total of the starting end, the vertex, and the end is five. Therefore, the determination of n = 4 in S94 and the determination of a substantially right angle in S102 are as follows.
Gesture = Rectangle judgment is duplicated, but the duplication check increases the reliability of recognition.

【0032】S110では、m=0,1,・・・,n
(n≧5)について、ベクトル(dxm,dym)とベク
トル(dxm+1,dym+1)とのなす角がいずれも鋭角か
否かを判定する。ベクトル(dxm,dym)とベクトル
(dxm+1,dym+1)のなす角とは、ユーザがタッチパ
ネルディスプレー10に描いた線図の隣接辺の外角を意味
する。そして、全部の隣接辺の組に対して、それらの角
(外角)が鋭角であれば、S112において、ジェスチ
ャーコマンド=円と認識し、それに対応するコマンド、
例えば円内の建築物の電話番号表示を実行する。このタ
ッチパネルディスプレー10のジェスチャーコマンドに
は、線分、山形形状、三角形、四角形、及び円しかない
ので、S94において、n≧5と判定されれば、ジェス
チャー=円と認識でき、S110におけるほぼ直角の判
定は、ジェスチャー=円の判定について重複するが、重
複したチェックにより認識の信頼性を高めている。
At S110, m = 0, 1,..., N
For (n ≧ 5), it is determined whether the angles formed by the vector (dxm, dym) and the vector (dxm + 1, dym + 1) are both acute angles. The angle between the vector (dxm, dym) and the vector (dxm + 1, dym + 1) means the outer angle of the adjacent side of the diagram drawn on the touch panel display 10 by the user. If the corners (outer angles) are acute angles with respect to all pairs of adjacent sides, in S112, the gesture command is recognized as a circle, and the corresponding command
For example, a telephone number of a building in a circle is displayed. Since there are only line segments, chevron shapes, triangles, squares, and circles in the gesture commands of the touch panel display 10, if it is determined in step S94 that n ≧ 5, the gesture can be recognized as a circle, and in S110, the gesture is approximately a right angle. The judgment is duplicated for the gesture = circle judgment, but the duplication check increases the reliability of recognition.

【0033】S114では、ユーザがタッチパネルディ
スプレー10に描いた線画に関するデータを記憶している
バッファをクリアする。
In S114, the buffer that stores data relating to the line drawing drawn on the touch panel display 10 by the user is cleared.

【図面の簡単な説明】[Brief description of the drawings]

【図1】ジェスチャーコマンドの入力処理のフローチャ
ートである。
FIG. 1 is a flowchart of a gesture command input process.

【図2】図1のジェスチャーパターン照合&実行処理の
ステップの詳細なフローチャートである。
FIG. 2 is a detailed flowchart of steps of a gesture pattern collation and execution process in FIG. 1;

【図3】タッチパネルディスプレーにおいてユーザによ
りコマンドとして入力される第1の線画例を示す図であ
る。
FIG. 3 is a diagram showing a first line drawing example input as a command by a user on a touch panel display.

【図4】タッチパネルディスプレーにおいてユーザによ
りコマンドとして入力される第2の線画例を示す図であ
る。
FIG. 4 is a diagram showing a second line drawing example input as a command by a user on the touch panel display.

【図5】タッチパネルディスプレーにおいてユーザによ
りコマンドとして入力される第3の線画例を示す図であ
る。
FIG. 5 is a diagram showing a third line drawing example input as a command by a user on the touch panel display.

【図6】カーナビゲーション装置のブロック図である。FIG. 6 is a block diagram of a car navigation device.

【図7】タッチパネルディスプレーの画面を示す図であ
る。
FIG. 7 is a diagram showing a screen of a touch panel display.

【符号の説明】[Explanation of symbols]

10 タッチパネルディスプレー 12 画面 10 Touch panel display 12 screen

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】 (a)ユーザがタッチパネルディスプレ
ー(10)に指をタッチさせて描いた線画を認識する線画認
識手段、及び(b)前記線画認識手段により認識された
線画に対応するコマンドを実行するコマンド実行手段、
を有していることを特徴とするタッチパネルディスプレ
ー用コマンド入力装置。
1. A line drawing recognizing means for recognizing a line drawing drawn by a user touching a touch panel display with a finger, and (b) executing a command corresponding to the line drawing recognized by the line drawing recognizing means. Command execution means,
A command input device for a touch panel display, comprising:
【請求項2】 前記線画認識手段は、ユーザが1回の連
続タッチで描いた線画を1個の線画として認識すること
を特徴とする請求項1記載のタッチパネルディスプレー
用コマンド入力装置。
2. The command input device for a touch panel display according to claim 1, wherein said line drawing recognition means recognizes a line drawing drawn by a user with one continuous touch as one line drawing.
【請求項3】 前記線画認識手段は、頂点の数より線画
が何であるかを認識することを特徴とする請求項1又は
2記載のタッチパネルディスプレー用コマンド入力装
置。
3. The command input device for a touch panel display according to claim 1, wherein the line drawing recognition means recognizes what the line drawing is based on the number of vertices.
【請求項4】 前記線画認識手段は、線画の少なくとも
1個の頂点の角度よりその線画が何であるかを認識する
ことを特徴とする請求項1又は2記載のタッチパネルデ
ィスプレー用コマンド入力装置。
4. The command input device for a touch panel display according to claim 1, wherein said line drawing recognition means recognizes what the line drawing is from an angle of at least one vertex of the line drawing.
【請求項5】 前記コマンド実行手段は、ユーザが描い
た線画がほぼ長方形であるときその長方形範囲を検出す
る範囲検出手段と、前記範囲検出手段により検出された
範囲を拡大して前記タッチパネルディスプレー(10)に表
示する拡大表示手段とを含むことを特徴とする請求項1
〜4のいずれかに記載のタッチパネルディスプレー用コ
マンド入力装置。
5. The command executing means includes: a range detecting means for detecting a rectangular area when a line drawing drawn by a user is substantially rectangular; and a touch-panel display for enlarging a range detected by the range detecting means. 2. An enlarged display means for displaying in (10).
The command input device for a touch panel display according to any one of claims 1 to 4.
【請求項6】 前記コマンド実行手段は、ユーザが描い
た線画が山形形状であるとき、ほぼ、その山形形状の向
きへ、前記タッチパネルディスプレー(10)の画面をスク
ロールするスクロール手段を含むことを特徴とする請求
項1〜5のいずれかに記載のタッチパネルディスプレー
用コマンド入力装置。
6. The command execution means includes a scroll means for scrolling the screen of the touch panel display (10) substantially in the direction of the chevron when the line drawing drawn by the user has a chevron shape. The command input device for a touch panel display according to claim 1.
【請求項7】 前記スクロール手段は、ユーザが描いた
線画が山形形状であるときその山形形状の高さ相当量を
検出する高さ検出手段と、前記高さ検出手段により検出
された高さ相当量の対応量だけ前記タッチパネルディス
プレー(10)の画面をスクロールすることを特徴とする請
求項6記載のタッチパネルディスプレー用コマンド入力
装置。
7. A height detecting means for detecting an amount of height of the chevron when the line drawing drawn by the user has a chevron, and a scroll corresponding to the height detected by the height detecting means. The command input device for a touch panel display according to claim 6, wherein the screen of the touch panel display (10) is scrolled by an amount corresponding to the amount.
【請求項8】 前記コマンド実行手段は、ユーザが描い
た線画が山形形状であるとき、山形形状の両端の中点か
ら山形形状の頂点へ引いたベクトルを求め、このベクト
ルの向きへかつこのベクトルの大きさだけ前記タッチパ
ネルディスプレー(10)の画面をスクロールするスクロー
ル手段を含むことを特徴とする請求項1〜5のいずれか
に記載のタッチパネルディスプレー用コマンド入力装
置。
8. When the line drawing drawn by the user has a chevron shape, the command executing means obtains a vector obtained by subtracting a midpoint between both ends of the chevron shape to a vertex of the chevron shape. The command input device for a touch panel display according to any one of claims 1 to 5, further comprising a scroll unit for scrolling a screen of the touch panel display (10) by a size of (1).
JP26287997A 1997-09-11 1997-09-11 Command input device for touch panel display Pending JPH1185398A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP26287997A JPH1185398A (en) 1997-09-11 1997-09-11 Command input device for touch panel display

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP26287997A JPH1185398A (en) 1997-09-11 1997-09-11 Command input device for touch panel display

Publications (1)

Publication Number Publication Date
JPH1185398A true JPH1185398A (en) 1999-03-30

Family

ID=17381907

Family Applications (1)

Application Number Title Priority Date Filing Date
JP26287997A Pending JPH1185398A (en) 1997-09-11 1997-09-11 Command input device for touch panel display

Country Status (1)

Country Link
JP (1) JPH1185398A (en)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003111173A (en) * 2001-09-28 2003-04-11 Rinnai Corp Remote controller equipped with touch panel
JP2003338975A (en) * 2002-05-21 2003-11-28 Toshiba Corp Digital still camera and method of inputting user instruction, using touch panel
JP2004325322A (en) * 2003-04-25 2004-11-18 Denso Corp Navigation system
EP1607850A2 (en) 2004-05-31 2005-12-21 Sony Corporation Vehicle-mounted apparatus and method for providing recorded information therefor
JP2006084329A (en) * 2004-09-16 2006-03-30 Clarion Co Ltd On-vehicle equipment
JP2007109118A (en) * 2005-10-17 2007-04-26 Hitachi Ltd Input instruction processing apparatus and input instruction processing program
JP2009104629A (en) * 2008-12-17 2009-05-14 Copcom Co Ltd Object processing apparatus
WO2010027006A1 (en) 2008-09-03 2010-03-11 日本電気株式会社 Gesture input operation device, method, program, and portable device
JP2010157252A (en) * 2010-02-04 2010-07-15 Sony Corp In-vehicle device, method for providing information of in-vehicle device, program of method for providing information of in-vehicle device, and recording medium having the program recorded therein
JP2010231618A (en) * 2009-03-27 2010-10-14 Sony Ericsson Mobile Communications Ab Mobile terminal apparatus and application starting method
JP2011076245A (en) * 2009-09-29 2011-04-14 Nec Personal Products Co Ltd Information processing device, input device, and input method for the information processing device
JP2011081440A (en) * 2009-10-02 2011-04-21 Sony Corp Information processing apparatus, information processing method, and information processing program
WO2012004921A1 (en) * 2010-07-05 2012-01-12 パナソニック株式会社 Content playback device, content playback method, and content playback program
JP2012507229A (en) * 2008-10-30 2012-03-22 ジェムアルト エスアー Method for accessing an application or a set of applications from or via a token and corresponding token and system
WO2013051047A1 (en) * 2011-10-03 2013-04-11 古野電気株式会社 Display device, display program, and display method
WO2013058047A1 (en) * 2011-10-21 2013-04-25 シャープ株式会社 Input device, input device control method, controlled device, electronic whiteboard system, control program, and recording medium
CN103513804A (en) * 2012-06-19 2014-01-15 联想(北京)有限公司 Operating control method and electronic device

Cited By (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003111173A (en) * 2001-09-28 2003-04-11 Rinnai Corp Remote controller equipped with touch panel
JP2003338975A (en) * 2002-05-21 2003-11-28 Toshiba Corp Digital still camera and method of inputting user instruction, using touch panel
US7430008B2 (en) 2002-05-21 2008-09-30 Kabushiki Kaisha Toshiba Digital still camera and method of inputting user instructions using touch panel
JP2004325322A (en) * 2003-04-25 2004-11-18 Denso Corp Navigation system
US10503358B2 (en) 2004-05-31 2019-12-10 Sony Corporation Vehicle-mounted apparatus, information providing method for use with vehicle-mounted apparatus, and recording medium recorded information providing method program for use with vehicle-mounted apparatus therein
EP1607850A2 (en) 2004-05-31 2005-12-21 Sony Corporation Vehicle-mounted apparatus and method for providing recorded information therefor
EP1607850A3 (en) * 2004-05-31 2012-02-08 Sony Corporation Vehicle-mounted apparatus and method for providing recorded information therefor
US8151210B2 (en) 2004-05-31 2012-04-03 Sony Corporation Vehicle-mounted apparatus, information providing method for use with vehicle-mounted apparatus, and recording medium recorded information providing method program for use with vehicle-mounted apparatus therein
CN100336003C (en) * 2004-05-31 2007-09-05 索尼株式会社 Vehicle-mounted apparatus, information providing method for use with vehicle-mounted apparatus, and recording medium
US8458618B2 (en) 2004-05-31 2013-06-04 Sony Corporation Vehicle-mounted apparatus, information providing method for use with vehicle-mounted apparatus, and recording medium recorded information providing method program for use with vehicle-mounted apparatus therein
US9285955B2 (en) 2004-05-31 2016-03-15 Sony Corporation Vehicle-mounted apparatus, information providing method for use with vehicle-mounted apparatus, and recording medium recorded information providing method program for use with vehicle-mounted apparatus therein
JP2006084329A (en) * 2004-09-16 2006-03-30 Clarion Co Ltd On-vehicle equipment
JP4493451B2 (en) * 2004-09-16 2010-06-30 クラリオン株式会社 In-vehicle device
JP2007109118A (en) * 2005-10-17 2007-04-26 Hitachi Ltd Input instruction processing apparatus and input instruction processing program
JP5494483B2 (en) * 2008-09-03 2014-05-14 日本電気株式会社 Gesture input operation device, method, program, and portable device
WO2010027006A1 (en) 2008-09-03 2010-03-11 日本電気株式会社 Gesture input operation device, method, program, and portable device
JP2012507229A (en) * 2008-10-30 2012-03-22 ジェムアルト エスアー Method for accessing an application or a set of applications from or via a token and corresponding token and system
JP2009104629A (en) * 2008-12-17 2009-05-14 Copcom Co Ltd Object processing apparatus
US8552996B2 (en) 2009-03-27 2013-10-08 Sony Corporation Mobile terminal apparatus and method of starting application
JP2010231618A (en) * 2009-03-27 2010-10-14 Sony Ericsson Mobile Communications Ab Mobile terminal apparatus and application starting method
JP2011076245A (en) * 2009-09-29 2011-04-14 Nec Personal Products Co Ltd Information processing device, input device, and input method for the information processing device
JP2011081440A (en) * 2009-10-02 2011-04-21 Sony Corp Information processing apparatus, information processing method, and information processing program
JP2010157252A (en) * 2010-02-04 2010-07-15 Sony Corp In-vehicle device, method for providing information of in-vehicle device, program of method for providing information of in-vehicle device, and recording medium having the program recorded therein
JP2012014604A (en) * 2010-07-05 2012-01-19 Panasonic Corp Content reproduction device, content reproduction method and content reproduction program
WO2012004921A1 (en) * 2010-07-05 2012-01-12 パナソニック株式会社 Content playback device, content playback method, and content playback program
WO2013051047A1 (en) * 2011-10-03 2013-04-11 古野電気株式会社 Display device, display program, and display method
US9354809B2 (en) 2011-10-03 2016-05-31 Furuno Electric Co., Ltd. Display device, display program and display method
EP2765075A4 (en) * 2011-10-03 2015-09-16 Furuno Electric Co Display device, display program, and display method
JP2013089203A (en) * 2011-10-21 2013-05-13 Sharp Corp Input device, input device control method, controlled device, electronic whiteboard system, control program, and recording medium
WO2013058047A1 (en) * 2011-10-21 2013-04-25 シャープ株式会社 Input device, input device control method, controlled device, electronic whiteboard system, control program, and recording medium
CN103513804A (en) * 2012-06-19 2014-01-15 联想(北京)有限公司 Operating control method and electronic device
CN103513804B (en) * 2012-06-19 2016-08-17 联想(北京)有限公司 Method of controlling operation thereof and electronic equipment

Similar Documents

Publication Publication Date Title
JP3474022B2 (en) Map display device, map display method, arithmetic processing unit for map display device, and navigation system
JPH1185398A (en) Command input device for touch panel display
US8239765B2 (en) Displaying stacked bar charts in a limited display area
JP5007782B2 (en) Navigation device and map display scale setting method
EP1369822A2 (en) Apparatus and method for controlling the shift of the viewpoint in a virtual space
US20110175928A1 (en) Map Display Device and Map Display Method
US20020177944A1 (en) Navigation device, information display device, object creation method, and recording medium
JP5287838B2 (en) Display position setting device
JP5496434B2 (en) Map display device and map display method
JP2009036881A (en) Map display, map display program, and navigation system
JPH08210862A (en) Map display method for navigation
JPH09231393A (en) Instruction input device
JPH05241506A (en) Map display device
JP2003344054A (en) Navigation apparatus, map display apparatus, and program
JP7202876B2 (en) Display control device and display control method
JP2616353B2 (en) Input indicating device
JP3679777B2 (en) Bird&#39;s-eye view creation method, map display device, and navigation system
JPH08255221A (en) Character graphic input editing device
JP3660644B2 (en) Bird&#39;s-eye view creation method, map display device, and navigation system
JP4220059B2 (en) Navigation apparatus and method, and recording medium recording navigation software
JP6369601B2 (en) Display control apparatus, display control method, and program
JP2002311817A (en) Navigation device for mobile object
JP3660645B2 (en) Bird&#39;s-eye view creation method, map display device, and navigation system
JPH07229751A (en) On-vehicle device for inputting and displaying information
JP2016114857A (en) Information processing equipment, control method thereof, program, and storage medium