JP2007145106A - On-vehicle information terminal - Google Patents
On-vehicle information terminal Download PDFInfo
- Publication number
- JP2007145106A JP2007145106A JP2005339897A JP2005339897A JP2007145106A JP 2007145106 A JP2007145106 A JP 2007145106A JP 2005339897 A JP2005339897 A JP 2005339897A JP 2005339897 A JP2005339897 A JP 2005339897A JP 2007145106 A JP2007145106 A JP 2007145106A
- Authority
- JP
- Japan
- Prior art keywords
- touch panel
- input
- touch
- information terminal
- touch position
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Instructional Devices (AREA)
- Navigation (AREA)
- Position Input By Displaying (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
本発明は、タッチパネルを用いて操作を行うナビゲーション装置などの車載情報端末に関する。 The present invention relates to an in-vehicle information terminal such as a navigation device that operates using a touch panel.
従来、タッチパネルを用いて操作を行うナビゲーション装置が広く知られている。たとえば特許文献1には、タッチパネルを介して手書き入力された文字を認識し、メモ情報として記憶することができるナビゲーション装置が開示されている。
Conventionally, navigation devices that perform operations using a touch panel are widely known. For example,
特許文献1に開示されるような従来のナビゲーション装置において、ナビゲーション装置をユーザの指示どおり正しく動作させるためには、指示内容に応じたタッチパネル操作をユーザが正確に行う必要がある。しかし、状況によっては正確なタッチパネル操作が困難な場合もある。たとえば、車室内のインストルメントパネルの中央部付近に設置されている通常のナビゲーション装置において、車両が右ハンドルであり運転者であるユーザが右利きの場合、ユーザは利き手ではない左手でタッチパネル操作を行うため、正確なタッチパネル操作が困難なことがある。
In the conventional navigation device as disclosed in
請求項1の発明による車載情報端末は、各種の画面表示を行う表示手段と、表示手段に対するタッチパネル操作を検出するタッチパネル手段と、タッチパネル手段により検出されるタッチパネル操作に基づいて、所定の操作方法にしたがって各種の処理を実行する制御手段とを備え、所定の操作方法には、タッチパネル操作のタッチ位置における表示手段の画面表示内容に対応する処理内容を実行する第1の操作方法と、タッチパネル操作により入力された予め定められた特定の形状である操作ジェスチャーに対応する処理内容を実行する第2の操作方法とが含まれることとするものである。
請求項2の発明は、請求項1の車載情報端末において、制御手段は、タッチパネル操作のタッチ位置が変化しなかった場合は第1の操作方法にしたがって各種の処理を実行し、タッチパネル操作のタッチ位置が変化した場合は第2の操作方法にしたがって各種の処理を実行するものである。
請求項3の発明は、請求項1または2いずれかの車載情報端末において、制御手段が第2の操作方法にしたがって各種の処理を実行する際、先のタッチパネル入力が終了してから所定時間以内に次のタッチパネル入力が行われた場合は、操作ジェスチャーの検出を引き続き行うこととするものである。
The in-vehicle information terminal according to the first aspect of the present invention provides a predetermined operation method based on display means for performing various screen displays, touch panel means for detecting touch panel operations on the display means, and touch panel operations detected by the touch panel means. Therefore, a control means for executing various processes is provided, and the predetermined operation method includes a first operation method for executing process contents corresponding to the screen display contents of the display means at the touch position of the touch panel operation, and touch panel operation. And a second operation method for executing the processing content corresponding to the input operation gesture having a predetermined specific shape.
According to a second aspect of the present invention, in the in-vehicle information terminal of the first aspect, when the touch position of the touch panel operation does not change, the control means executes various processes according to the first operation method, and touches the touch panel When the position changes, various processes are executed according to the second operation method.
According to a third aspect of the present invention, in the in-vehicle information terminal according to the first or second aspect, when the control means executes various processes according to the second operation method, within a predetermined time after the previous touch panel input ends. When the next touch panel input is performed, the operation gesture is continuously detected.
本発明によれば、正確なタッチパネル操作が困難な場合であっても、ナビゲーション装置などの車載情報端末をユーザの指示どおり正しく動作させることができる。 ADVANTAGE OF THE INVENTION According to this invention, even if it is a case where exact touch panel operation is difficult, vehicle-mounted information terminals, such as a navigation apparatus, can be correctly operated according to a user's instruction | indication.
本発明の一実施形態によるナビゲーション装置の構成を図1に示す。このナビゲーション装置は車両に搭載されており、ユーザのタッチパネル操作に応じて、車両を目的地まで案内するための各種の動作を実行する。ナビゲーション装置1は、制御回路11、ROM12、RAM13、現在地検出装置14、画像メモリ15、表示モニタ16、入力装置17、およびディスクドライブ18を有している。ディスクドライブ18には、地図データが記録されたDVD−ROM19が装填される。
A configuration of a navigation apparatus according to an embodiment of the present invention is shown in FIG. This navigation device is mounted on a vehicle and executes various operations for guiding the vehicle to a destination in accordance with a user's touch panel operation. The
制御回路11は、マイクロプロセッサおよびその周辺回路からなり、RAM13を作業エリアとしてROM12に格納された制御プログラムを実行することにより、各種の処理や制御を行う。この制御回路11により、DVD−ROM19に記録された地図データに基づいて、たとえば道路地図の表示や目的地の設定、設定された目的地までの推奨経路の探索などが行われる。
The
現在地検出装置14は、自車両の現在地を検出する装置であり、たとえば、自車両の進行方向を検出する振動ジャイロ14a、車速を検出する車速センサ14b、GPS衛星からのGPS信号を検出するGPSセンサ14c等からなる。ナビゲーション装置1は、この現在地検出装置14により検出された自車両の現在地に基づいて、推奨経路を探索するときの経路探索開始点を決定することができる。
The current
画像メモリ15は、表示モニタ16に表示するための画像データを一時的に格納する。この画像データは、道路地図を表示するための道路地図描画用データや各種の図形データ等からなり、制御回路11において、DVD−ROM19に記録されている地図データに基づいて作成される。この画像メモリ15に格納された画像データを用いて、表示モニタ16に道路地図画像など各種の画像が表示される。
The image memory 15 temporarily stores image data to be displayed on the
表示モニタ16にはタッチパネル16aが組み合わされており、ユーザの指などによって表示モニタ16上のいずれかの位置がタッチされると、そのタッチ位置を示す情報がタッチパネル16aから制御回路11へ出力される。このタッチ位置情報に基づいて、そのとき表示モニタ16に表示されていた画像のどの部分がタッチされたか制御回路11によって判断される。本実施形態のナビゲーション装置1は、このようなタッチパネル16aと制御回路11によって検出されるユーザからのタッチパネル操作に応じて、様々な処理が実行される。
A
入力装置17は、ユーザからの様々な操作入力を受け付けるためのものであり、操作パネルやリモコンなどによって実現される。入力装置17により、たとえば、目的地とする施設を検索するための検索条件の入力、地図のスクロール方向の指示、地図縮尺の変更などの操作が行われる。なお、これらの操作は上記のタッチパネル操作によっても行うことができる。そのため、入力装置17は本実施形態のナビゲーション装置1において必須ではなく、備えられていなくてもよい。
The
ディスクドライブ18は、装填されたDVD−ROM19より、道路地図を表示するための地図データを読み出す。この地図データには、目的地までのルート探索に用いられる経路計算データや、交差点名称および道路名称など、推奨経路に従って自車両を目的地まで誘導するために用いられる経路誘導データ、さらに道路を表す道路データなどが含まれている。また、河川や鉄道、地図上の各種施設等(ランドマーク)など、道路以外の地図形状を表す背景データなども地図データに含まれている。
The disk drive 18 reads map data for displaying a road map from the loaded DVD-
道路データにおいて、道路区間を表す最小単位はリンクと呼ばれており、各道路は複数のリンクによって構成されている。リンク同士を接続している点はノードと呼ばれ、このノードはそれぞれに位置情報(座標情報)を有している。このノードの位置情報によって、リンク形状、すなわち道路の形状が決定される。なお、ここではDVD−ROMを用いた例について説明しているが、DVD−ROM以外の他の記録メディア、たとえばCD−ROMやハードディスクなどより、地図データを読み出すこととしてもよい。 In the road data, the minimum unit representing a road section is called a link, and each road is composed of a plurality of links. A point connecting the links is called a node, and each node has position information (coordinate information). The link shape, that is, the shape of the road is determined based on the position information of the node. Although an example using a DVD-ROM is described here, the map data may be read from a recording medium other than the DVD-ROM, such as a CD-ROM or a hard disk.
入力装置17の操作やタッチパネル操作によってユーザから目的地が設定されると、ナビゲーション装置1は、現在地検出装置14により検出された現在地を経路探索開始点として、前述の経路計算データに基づいて所定のアルゴリズムの演算を行うことにより、現在地から目的地までのルート探索を行う。ルート探索の結果求められた推奨経路は、その表示形態、たとえば表示色などを変えることによって、他の道路とは区別して道路地図上に表される。これにより、ユーザは推奨経路を表示モニタ16に表示された道路地図上において認識することができる。また、この推奨経路に従って自車両が走行できるよう、ナビゲーション装置1は、ユーザに対して画像や音声などによる進行方向指示を行うことにより、自車両を誘導する。このように、道路地図を表示して推奨経路に従って自車両を目的地まで誘導することにより、目的地までのルート案内が行われる。
When the destination is set by the user by the operation of the
次に、ナビゲーション装置1におけるタッチパネル操作の方法を以下に説明する。ナビゲーション装置1は、通常のタッチパネル操作として、従来のナビゲーション装置と同様に、ユーザによるタッチパネル操作のタッチ位置における表示モニタ16の画面表示内容に対応する処理内容を実行する。たとえば、表示モニタ16に各種の操作ボタンが画面表示されている場合は、タッチ位置の操作ボタンに対応する処理を実行する。また、地図が画面表示されている場合は、タッチ位置の方向へ地図をスクロールしたり、タッチ位置の地点を目的地に指定したりする。
Next, a touch panel operation method in the
さらに、上記のような通常のタッチパネル操作に加えて、予め定められた特定の形状をユーザがタッチパネル上でなぞって入力することにより、その形状に対応する処理内容を実行することもできる。このような操作方法によって入力される特定の形状のことを、操作ジェスチャーと称する。なお、操作ジェスチャーとして入力される形状には、ユーザがタッチパネル操作により容易に入力できるもの、たとえば数字や、簡単な文字、記号、図形などを用いることが好ましい。 Further, in addition to the normal touch panel operation as described above, the user can trace a predetermined specific shape on the touch panel to execute processing contents corresponding to the specific shape. A specific shape input by such an operation method is referred to as an operation gesture. In addition, it is preferable to use what a user can input easily by a touch panel operation, for example, a number, a simple character, a symbol, a figure, etc. as a shape input as an operation gesture.
以上説明したタッチパネル操作の方法について、図2および図3にその例を示す。図2は、タッチ位置の画面表示内容に従って動作する通常のタッチパネル操作の例である。画面表示された各種のメニューボタンのうち、ユーザが「2.ルートの確認」と書かれたメニューボタンをタッチすると、そのメニューボタンが選択されて反転表示された後、対応する処理がナビゲーション装置1において実行される。
An example of the touch panel operation method described above is shown in FIGS. FIG. 2 is an example of a normal touch panel operation that operates according to the screen display content of the touch position. When the user touches a menu button written as “2. Check route” among various menu buttons displayed on the screen, the menu button is selected and highlighted, and the corresponding processing is performed in the
図3は、操作ジェスチャーに応じて動作するタッチパネル操作の例である。ユーザが指で「2」の形状をなぞって入力すると、その操作ジェスチャーがナビゲーション装置1において認識される。その結果、「2.ルートの確認」と書かれたメニューボタンが選択され、反転表示された後に対応する処理がナビゲーション装置1において実行される。
FIG. 3 is an example of a touch panel operation that operates according to an operation gesture. When the user traces and inputs the shape of “2” with a finger, the operation gesture is recognized in the
上記のようなタッチパネル操作方法の違いは、ナビゲーション装置1において次のように判別される。ユーザによるタッチパネル操作のタッチ位置が変化せず、画面上の特定の一点のみがタッチされた場合は、そのタッチ位置の画面表示内容に対応する処理内容を実行する。一方、タッチパネル操作のタッチ位置が変化して何らかの形状がなぞられた場合は、操作ジェスチャーが入力されたと認識し、その操作ジェスチャーに対応する処理内容を実行する。すなわち、タッチパネル操作の開始から終了までの間におけるタッチ位置の変化の有無により、そのタッチパネル操作が操作ジェスチャーの入力であるか否かを判別し、操作方法を切り替える。
The difference in the touch panel operation method as described above is determined in the
以上説明したタッチパネル操作を行うときにナビゲーション装置1において実行されるフローチャートを図4に示す。なお、このフローチャートは、ナビゲーション装置1において制御回路11により実行されるものである。
FIG. 4 shows a flowchart executed in the
ステップS10では、タッチパネル入力があったか否かを判定する。ユーザのタッチパネル操作によりタッチパネル入力が検出された場合は、次のステップS20へ進む。ステップS20では、ステップS10で検出されたタッチパネル入力におけるタッチ位置を検出する。 In step S10, it is determined whether or not there is a touch panel input. If a touch panel input is detected by the user's touch panel operation, the process proceeds to the next step S20. In step S20, the touch position in the touch panel input detected in step S10 is detected.
ステップS30では、ステップS10で検出されたタッチパネル入力が終了したか否かを判定する。ユーザの指がタッチパネル上を離れてタッチパネル入力が終了した場合は、次のステップS40へ進む。しかし、ユーザの指がタッチパネル上を離れておらず、タッチパネル入力がまだ終了していない場合は、ステップS20へ戻ってタッチ位置の検出を続ける。 In step S30, it is determined whether the touch panel input detected in step S10 has been completed. When the user's finger leaves the touch panel and the touch panel input is completed, the process proceeds to the next step S40. However, if the user's finger has not left the touch panel and the touch panel input has not yet been completed, the process returns to step S20 and continues to detect the touch position.
ステップS40では、ステップS20で検出されたタッチ位置が変化したか否かを判定する。タッチパネル入力の開始から終了までの間にステップS20において検出されたタッチ位置が変化していた場合は、ステップS50へ進む。一方、タッチ位置が変化していなかった場合は、ステップS100へ進む。 In step S40, it is determined whether or not the touch position detected in step S20 has changed. If the touch position detected in step S20 has changed between the start and end of touch panel input, the process proceeds to step S50. On the other hand, if the touch position has not changed, the process proceeds to step S100.
ステップS50では、ステップS30でタッチパネル入力の終了が検出されてから所定時間以内に、次のタッチパネル入力があったか否かを判定する。所定時間以内、たとえば1秒以内に次のタッチパネル入力があった場合は、ステップS60へ進む。一方、所定時間以内に次のタッチパネル入力がなかった場合は、ステップS60およびステップS70を実行せずにステップS80へ進む。 In step S50, it is determined whether or not there is a next touch panel input within a predetermined time after the end of the touch panel input is detected in step S30. If there is a next touch panel input within a predetermined time, for example, within 1 second, the process proceeds to step S60. On the other hand, if there is no next touch panel input within the predetermined time, the process proceeds to step S80 without executing steps S60 and S70.
ステップS60では、ステップS20と同様に、ステップS50で検出されたタッチパネル入力におけるタッチ位置を検出する。これにより、ステップS20に引き続いて操作ジェスチャーの検出を行うようにする。次のステップS70では、ステップS50で検出されたタッチパネル入力が終了したか否かを判定する。ユーザの指がタッチパネル上を離れてタッチパネル入力が終了した場合は、ステップS80へ進む。しかし、ユーザの指がタッチパネル上を離れておらず、タッチパネル入力がまだ終了していない場合は、ステップS60へ戻ってタッチ位置の検出を続ける。 In step S60, as in step S20, the touch position in the touch panel input detected in step S50 is detected. Thus, the operation gesture is detected following step S20. In the next step S70, it is determined whether or not the touch panel input detected in step S50 has ended. When the user's finger leaves the touch panel and the touch panel input is completed, the process proceeds to step S80. However, if the user's finger has not left the touch panel and the touch panel input has not yet been completed, the process returns to step S60 and continues to detect the touch position.
ステップS80では、ステップS20、および次のタッチパネル入力があった場合はステップS60において検出されたタッチ位置の軌跡に基づいて、入力された操作ジェスチャーの認識を行う。次のステップS90では、ステップS80の認識結果に基づいて、入力された操作ジェスチャーに対応する動作を実行する。この場合、図3で説明したようなタッチパネル操作が行われる。ステップS90を実行したら、図4のフローチャートを終了する。 In step S80, if there is a next touch panel input in step S20, the input operation gesture is recognized based on the locus of the touch position detected in step S60. In the next step S90, an operation corresponding to the input operation gesture is executed based on the recognition result in step S80. In this case, the touch panel operation as described in FIG. 3 is performed. If step S90 is performed, the flowchart of FIG. 4 will be complete | finished.
一方ステップS40からステップS100へ進んだ場合、ステップS100では、ステップS20において検出されたタッチ位置に対応する動作を実行する。この場合、図2で説明したようなタッチパネル操作が行われる。ステップS100を実行したら、図4のフローチャートを終了する。 On the other hand, when the process proceeds from step S40 to step S100, in step S100, an operation corresponding to the touch position detected in step S20 is executed. In this case, the touch panel operation as described in FIG. 2 is performed. If step S100 is performed, the flowchart of FIG. 4 will be complete | finished.
なお、以上説明した図4のフローチャートでは、所定時間以内に次のタッチパネル入力を行うことにより、画数が2以上の形状よりなる操作ジェスチャーを入力できるようにした例を説明した。しかし、操作ジェスチャーを画数が1の形状、すなわち一筆書きの形状に限定することにより、ステップS50、S60およびS70の処理を省略してもよい。このようにすれば、次のタッチパネル入力を検出するために所定時間待つ必要がなくなるため、操作時の反応速度を向上することができる。 In the flowchart of FIG. 4 described above, an example in which an operation gesture having a shape with two or more strokes can be input by performing the next touch panel input within a predetermined time has been described. However, the processing of steps S50, S60, and S70 may be omitted by limiting the operation gesture to a shape with one stroke, that is, a single stroke shape. In this way, it is not necessary to wait for a predetermined time to detect the next touch panel input, so that the reaction speed during operation can be improved.
以上説明した実施の形態によれば、次の作用効果が得られる。
(1)制御回路11において、タッチパネル操作のタッチ位置における画面表示内容に対応する処理内容を実行する操作方法(ステップS100)と、タッチパネル操作により入力された操作ジェスチャーに対応する処理内容を実行する操作方法(ステップS90)とを用いて、ナビゲーション装置における各種の処理を実行することとした。このようにしたので、正確なタッチパネル操作が困難な場合であっても、操作ジェスチャーを用いてナビゲーション装置をユーザの指示どおり正しく動作させることができる。
According to the embodiment described above, the following operational effects can be obtained.
(1) In the
(2)タッチパネル操作のタッチ位置の変化を検出し(ステップS40)、タッチ位置が変化しなかった場合は、ステップS100による操作方法にしたがって各種の処理を実行し、タッチ位置が変化した場合は、ステップS90による操作方法にしたがって各種の処理を実行することとした。このようにしたので、操作方法の切り替えを簡単に行うことができる。 (2) When the touch position change of the touch panel operation is detected (step S40) and the touch position does not change, various processes are executed according to the operation method in step S100, and when the touch position changes, Various processes are executed in accordance with the operation method in step S90. Since it did in this way, switching of the operation method can be performed easily.
(3)ステップS90による操作方法にしたがって各種の処理を実行する際、先のタッチパネル入力が終了してから所定時間以内に次のタッチパネル入力が行われた場合は(ステップS50)、タッチ位置の検出を再度行う(ステップS60)ことにより、操作ジェスチャーの検出を引き続き行うこととした。このようにしたので、操作ジェスチャーを一筆書きの形状に限定することなく、画数が2以上の形状を含め様々な形状を操作ジェスチャーとして入力することができる。 (3) When various processes are executed according to the operation method in step S90, if the next touch panel input is performed within a predetermined time after the previous touch panel input is completed (step S50), the touch position is detected. By repeating (step S60), it was decided to continue detecting the operation gesture. Since it did in this way, various shapes including a shape with 2 or more strokes can be input as an operation gesture, without limiting an operation gesture to the shape of a single stroke.
なお、上記実施の形態ではナビゲーション装置を例として説明したが、本発明はナビゲーション装置に限定することなく、たとえばTVモニタやオーディオ装置などの様々な車載情報端末についても適用可能である。 In the above embodiment, the navigation device has been described as an example. However, the present invention is not limited to the navigation device, and can be applied to various in-vehicle information terminals such as a TV monitor and an audio device.
以上説明した実施の形態や各種の変形例はあくまで一例であり、発明の特徴が損なわれない限り、本発明はこれらの内容に限定されない。 The embodiment and various modifications described above are merely examples, and the present invention is not limited to these contents as long as the features of the invention are not impaired.
1 ナビゲーション装置
11 制御回路
12 ROM
13 RAM
14 現在地検出装置
15 画像メモリ
16 表示モニタ
17 入力装置
18 ディスクドライブ
19 DVD−ROM
1
13 RAM
14 Current location detection device 15
Claims (3)
前記表示手段に対するタッチパネル操作を検出するタッチパネル手段と、
前記タッチパネル手段により検出されるタッチパネル操作に基づいて、所定の操作方法にしたがって各種の処理を実行する制御手段とを備え、
前記所定の操作方法には、
前記タッチパネル操作のタッチ位置における前記表示手段の画面表示内容に対応する処理内容を実行する第1の操作方法と、
前記タッチパネル操作により入力された予め定められた特定の形状である操作ジェスチャーに対応する処理内容を実行する第2の操作方法とが含まれることを特徴とする車載情報端末。 Display means for displaying various screens;
Touch panel means for detecting a touch panel operation on the display means;
Control means for executing various processes according to a predetermined operation method based on a touch panel operation detected by the touch panel means,
The predetermined operation method includes:
A first operation method for executing processing contents corresponding to screen display contents of the display means at a touch position of the touch panel operation;
An in-vehicle information terminal comprising: a second operation method for executing processing contents corresponding to an operation gesture having a predetermined specific shape input by the touch panel operation.
前記制御手段は、前記タッチパネル操作のタッチ位置が変化しなかった場合は前記第1の操作方法にしたがって各種の処理を実行し、前記タッチパネル操作のタッチ位置が変化した場合は前記第2の操作方法にしたがって各種の処理を実行することを特徴とする車載情報端末。 The in-vehicle information terminal according to claim 1,
The control means executes various processes according to the first operation method when the touch position of the touch panel operation does not change, and the second operation method when the touch position of the touch panel operation changes. The vehicle-mounted information terminal is characterized by executing various processes according to the above.
前記制御手段が前記第2の操作方法にしたがって各種の処理を実行する際、先のタッチパネル入力が終了してから所定時間以内に次のタッチパネル入力が行われた場合は、前記操作ジェスチャーの検出を引き続き行うことを特徴とする車載情報端末。 In the in-vehicle information terminal according to claim 1 or 2,
When the control means executes various processes according to the second operation method, if the next touch panel input is performed within a predetermined time after the previous touch panel input is completed, the operation gesture is detected. An in-vehicle information terminal characterized by continued operation.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005339897A JP2007145106A (en) | 2005-11-25 | 2005-11-25 | On-vehicle information terminal |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005339897A JP2007145106A (en) | 2005-11-25 | 2005-11-25 | On-vehicle information terminal |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007145106A true JP2007145106A (en) | 2007-06-14 |
Family
ID=38207035
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005339897A Pending JP2007145106A (en) | 2005-11-25 | 2005-11-25 | On-vehicle information terminal |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007145106A (en) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009129171A (en) * | 2007-11-22 | 2009-06-11 | Denso It Laboratory Inc | Information processor loaded in mobile body |
WO2010027006A1 (en) | 2008-09-03 | 2010-03-11 | 日本電気株式会社 | Gesture input operation device, method, program, and portable device |
JP2010127925A (en) * | 2008-11-25 | 2010-06-10 | Elan Microelectronics Corp | Navigation system |
JP2010262636A (en) * | 2009-05-08 | 2010-11-18 | Research In Motion Ltd | Target zone for menu item on touch-sensitive display |
US8253705B2 (en) | 2009-05-08 | 2012-08-28 | Research In Motion Limited | Target zones for menu items on a touch-sensitive display |
JPWO2013140731A1 (en) * | 2012-03-19 | 2015-08-03 | パナソニックIpマネジメント株式会社 | In-vehicle device |
JP2016107796A (en) * | 2014-12-05 | 2016-06-20 | 株式会社日立製作所 | Terminal device for train operation management system |
US10073533B2 (en) | 2014-06-23 | 2018-09-11 | Toyota Jidosha Kabushiki Kaisha | Operation apparatus for vehicle |
US11144196B2 (en) | 2016-03-29 | 2021-10-12 | Microsoft Technology Licensing, Llc | Operating visual user interface controls with ink commands |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11105646A (en) * | 1997-10-06 | 1999-04-20 | Fuji Heavy Ind Ltd | Concentrated control unit for on-vehicle equipment |
JP2000203356A (en) * | 1999-01-12 | 2000-07-25 | Fujikura Ltd | Input device for automobile |
JP2001216069A (en) * | 2000-02-01 | 2001-08-10 | Toshiba Corp | Operation inputting device and direction detecting method |
JP2002259046A (en) * | 2001-02-28 | 2002-09-13 | Tomoya Sonoda | System for entering character and symbol handwritten in air |
JP2003302967A (en) * | 2003-04-07 | 2003-10-24 | Yamaha Corp | Device and method for musical score information input |
JP2003323258A (en) * | 2002-04-30 | 2003-11-14 | Kenwood Corp | Operation command processing program and navigation system |
JP2004362429A (en) * | 2003-06-06 | 2004-12-24 | Matsushita Electric Ind Co Ltd | Command input device using touch panel display |
JP2005031786A (en) * | 2003-07-08 | 2005-02-03 | Fujitsu Ten Ltd | Character input device |
JP2005062044A (en) * | 2003-08-15 | 2005-03-10 | Sony Corp | Navigation system |
-
2005
- 2005-11-25 JP JP2005339897A patent/JP2007145106A/en active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11105646A (en) * | 1997-10-06 | 1999-04-20 | Fuji Heavy Ind Ltd | Concentrated control unit for on-vehicle equipment |
JP2000203356A (en) * | 1999-01-12 | 2000-07-25 | Fujikura Ltd | Input device for automobile |
JP2001216069A (en) * | 2000-02-01 | 2001-08-10 | Toshiba Corp | Operation inputting device and direction detecting method |
JP2002259046A (en) * | 2001-02-28 | 2002-09-13 | Tomoya Sonoda | System for entering character and symbol handwritten in air |
JP2003323258A (en) * | 2002-04-30 | 2003-11-14 | Kenwood Corp | Operation command processing program and navigation system |
JP2003302967A (en) * | 2003-04-07 | 2003-10-24 | Yamaha Corp | Device and method for musical score information input |
JP2004362429A (en) * | 2003-06-06 | 2004-12-24 | Matsushita Electric Ind Co Ltd | Command input device using touch panel display |
JP2005031786A (en) * | 2003-07-08 | 2005-02-03 | Fujitsu Ten Ltd | Character input device |
JP2005062044A (en) * | 2003-08-15 | 2005-03-10 | Sony Corp | Navigation system |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009129171A (en) * | 2007-11-22 | 2009-06-11 | Denso It Laboratory Inc | Information processor loaded in mobile body |
WO2010027006A1 (en) | 2008-09-03 | 2010-03-11 | 日本電気株式会社 | Gesture input operation device, method, program, and portable device |
JP5494483B2 (en) * | 2008-09-03 | 2014-05-14 | 日本電気株式会社 | Gesture input operation device, method, program, and portable device |
JP2010127925A (en) * | 2008-11-25 | 2010-06-10 | Elan Microelectronics Corp | Navigation system |
JP2010262636A (en) * | 2009-05-08 | 2010-11-18 | Research In Motion Ltd | Target zone for menu item on touch-sensitive display |
US8253705B2 (en) | 2009-05-08 | 2012-08-28 | Research In Motion Limited | Target zones for menu items on a touch-sensitive display |
JPWO2013140731A1 (en) * | 2012-03-19 | 2015-08-03 | パナソニックIpマネジメント株式会社 | In-vehicle device |
US10073533B2 (en) | 2014-06-23 | 2018-09-11 | Toyota Jidosha Kabushiki Kaisha | Operation apparatus for vehicle |
US10162424B2 (en) | 2014-06-23 | 2018-12-25 | Toyota Jidosha Kabushiki Kaisha | Operation apparatus for vehicle |
JP2016107796A (en) * | 2014-12-05 | 2016-06-20 | 株式会社日立製作所 | Terminal device for train operation management system |
US11144196B2 (en) | 2016-03-29 | 2021-10-12 | Microsoft Technology Licensing, Llc | Operating visual user interface controls with ink commands |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7577518B2 (en) | Navigation system | |
JP2007145106A (en) | On-vehicle information terminal | |
JP4728685B2 (en) | Navigation device | |
JP2007132677A (en) | Navigation device | |
JP2007155633A (en) | Navigation system | |
JP5007064B2 (en) | Navigation device | |
JP2007190947A (en) | On-vehicle information terminal | |
JP2007003328A (en) | Car navigation system | |
JP2008039731A (en) | Navigation system and its method of displaying on screen | |
JP4783075B2 (en) | Navigation device | |
JP2007199980A (en) | Display controller, map display device and navigation device | |
JP2008209151A (en) | Route guidance device | |
JP4921943B2 (en) | Navigation device | |
JP5358215B2 (en) | Map display device | |
JP4695957B2 (en) | Navigation device | |
JP4870979B2 (en) | Map display device | |
JP2008145170A (en) | On-vehicle display apparatus | |
JP4897342B2 (en) | In-vehicle map display device | |
JP2008032629A (en) | Navigation system | |
JP5028043B2 (en) | In-vehicle information terminal | |
JP5233431B2 (en) | In-vehicle display system | |
JP2008185452A (en) | Navigation device | |
JP2007017331A (en) | Navigation device | |
JP2006293750A (en) | Navigation system and map display method | |
JP2009204591A (en) | Navigation system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20081111 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20100212 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110630 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110705 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110902 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20110902 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20111115 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120116 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20120522 |