JP2007145106A - On-vehicle information terminal - Google Patents

On-vehicle information terminal Download PDF

Info

Publication number
JP2007145106A
JP2007145106A JP2005339897A JP2005339897A JP2007145106A JP 2007145106 A JP2007145106 A JP 2007145106A JP 2005339897 A JP2005339897 A JP 2005339897A JP 2005339897 A JP2005339897 A JP 2005339897A JP 2007145106 A JP2007145106 A JP 2007145106A
Authority
JP
Japan
Prior art keywords
touch panel
input
touch
information terminal
touch position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005339897A
Other languages
Japanese (ja)
Inventor
Hirotaka Kurohichi
博隆 黒肥地
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Xanavi Informatics Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xanavi Informatics Corp filed Critical Xanavi Informatics Corp
Priority to JP2005339897A priority Critical patent/JP2007145106A/en
Publication of JP2007145106A publication Critical patent/JP2007145106A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Instructional Devices (AREA)
  • Navigation (AREA)
  • Position Input By Displaying (AREA)
  • Traffic Control Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an on-vehicle information terminal which is correctly operated according to a user's instruction even when accurate touch panel operation is difficult. <P>SOLUTION: Any change of the touch position of the touch panel operation is detected (Step S40). If the touch position is not changed, the processing content corresponding the screen display content at the touch position of the touch panel operation is executed (Step S100). If the touch position is changed, the operation gesture is recognized from the trace of the touch position (Step S80), and the processing content corresponding to the operation gesture is executed (Step S90). <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、タッチパネルを用いて操作を行うナビゲーション装置などの車載情報端末に関する。   The present invention relates to an in-vehicle information terminal such as a navigation device that operates using a touch panel.

従来、タッチパネルを用いて操作を行うナビゲーション装置が広く知られている。たとえば特許文献1には、タッチパネルを介して手書き入力された文字を認識し、メモ情報として記憶することができるナビゲーション装置が開示されている。   Conventionally, navigation devices that perform operations using a touch panel are widely known. For example, Patent Literature 1 discloses a navigation device that can recognize characters input by handwriting via a touch panel and store them as memo information.

特開2003−337042号公報JP 2003-337042 A

特許文献1に開示されるような従来のナビゲーション装置において、ナビゲーション装置をユーザの指示どおり正しく動作させるためには、指示内容に応じたタッチパネル操作をユーザが正確に行う必要がある。しかし、状況によっては正確なタッチパネル操作が困難な場合もある。たとえば、車室内のインストルメントパネルの中央部付近に設置されている通常のナビゲーション装置において、車両が右ハンドルであり運転者であるユーザが右利きの場合、ユーザは利き手ではない左手でタッチパネル操作を行うため、正確なタッチパネル操作が困難なことがある。   In the conventional navigation device as disclosed in Patent Document 1, in order for the navigation device to operate correctly according to the user's instructions, it is necessary for the user to accurately perform a touch panel operation according to the contents of the instructions. However, accurate touch panel operation may be difficult in some situations. For example, in a normal navigation device installed near the center of an instrument panel in a passenger compartment, if the vehicle is a right handle and the user who is the driver is right-handed, the user operates the touch panel with the left hand that is not the dominant hand. Therefore, accurate touch panel operation may be difficult.

請求項1の発明による車載情報端末は、各種の画面表示を行う表示手段と、表示手段に対するタッチパネル操作を検出するタッチパネル手段と、タッチパネル手段により検出されるタッチパネル操作に基づいて、所定の操作方法にしたがって各種の処理を実行する制御手段とを備え、所定の操作方法には、タッチパネル操作のタッチ位置における表示手段の画面表示内容に対応する処理内容を実行する第1の操作方法と、タッチパネル操作により入力された予め定められた特定の形状である操作ジェスチャーに対応する処理内容を実行する第2の操作方法とが含まれることとするものである。
請求項2の発明は、請求項1の車載情報端末において、制御手段は、タッチパネル操作のタッチ位置が変化しなかった場合は第1の操作方法にしたがって各種の処理を実行し、タッチパネル操作のタッチ位置が変化した場合は第2の操作方法にしたがって各種の処理を実行するものである。
請求項3の発明は、請求項1または2いずれかの車載情報端末において、制御手段が第2の操作方法にしたがって各種の処理を実行する際、先のタッチパネル入力が終了してから所定時間以内に次のタッチパネル入力が行われた場合は、操作ジェスチャーの検出を引き続き行うこととするものである。
The in-vehicle information terminal according to the first aspect of the present invention provides a predetermined operation method based on display means for performing various screen displays, touch panel means for detecting touch panel operations on the display means, and touch panel operations detected by the touch panel means. Therefore, a control means for executing various processes is provided, and the predetermined operation method includes a first operation method for executing process contents corresponding to the screen display contents of the display means at the touch position of the touch panel operation, and touch panel operation. And a second operation method for executing the processing content corresponding to the input operation gesture having a predetermined specific shape.
According to a second aspect of the present invention, in the in-vehicle information terminal of the first aspect, when the touch position of the touch panel operation does not change, the control means executes various processes according to the first operation method, and touches the touch panel When the position changes, various processes are executed according to the second operation method.
According to a third aspect of the present invention, in the in-vehicle information terminal according to the first or second aspect, when the control means executes various processes according to the second operation method, within a predetermined time after the previous touch panel input ends. When the next touch panel input is performed, the operation gesture is continuously detected.

本発明によれば、正確なタッチパネル操作が困難な場合であっても、ナビゲーション装置などの車載情報端末をユーザの指示どおり正しく動作させることができる。   ADVANTAGE OF THE INVENTION According to this invention, even if it is a case where exact touch panel operation is difficult, vehicle-mounted information terminals, such as a navigation apparatus, can be correctly operated according to a user's instruction | indication.

本発明の一実施形態によるナビゲーション装置の構成を図1に示す。このナビゲーション装置は車両に搭載されており、ユーザのタッチパネル操作に応じて、車両を目的地まで案内するための各種の動作を実行する。ナビゲーション装置1は、制御回路11、ROM12、RAM13、現在地検出装置14、画像メモリ15、表示モニタ16、入力装置17、およびディスクドライブ18を有している。ディスクドライブ18には、地図データが記録されたDVD−ROM19が装填される。   A configuration of a navigation apparatus according to an embodiment of the present invention is shown in FIG. This navigation device is mounted on a vehicle and executes various operations for guiding the vehicle to a destination in accordance with a user's touch panel operation. The navigation device 1 includes a control circuit 11, ROM 12, RAM 13, current location detection device 14, image memory 15, display monitor 16, input device 17, and disk drive 18. The disc drive 18 is loaded with a DVD-ROM 19 in which map data is recorded.

制御回路11は、マイクロプロセッサおよびその周辺回路からなり、RAM13を作業エリアとしてROM12に格納された制御プログラムを実行することにより、各種の処理や制御を行う。この制御回路11により、DVD−ROM19に記録された地図データに基づいて、たとえば道路地図の表示や目的地の設定、設定された目的地までの推奨経路の探索などが行われる。   The control circuit 11 includes a microprocessor and its peripheral circuits, and performs various processes and controls by executing a control program stored in the ROM 12 using the RAM 13 as a work area. Based on the map data recorded on the DVD-ROM 19, the control circuit 11 displays a road map, sets a destination, searches for a recommended route to the set destination, and the like.

現在地検出装置14は、自車両の現在地を検出する装置であり、たとえば、自車両の進行方向を検出する振動ジャイロ14a、車速を検出する車速センサ14b、GPS衛星からのGPS信号を検出するGPSセンサ14c等からなる。ナビゲーション装置1は、この現在地検出装置14により検出された自車両の現在地に基づいて、推奨経路を探索するときの経路探索開始点を決定することができる。   The current location detection device 14 is a device that detects the current location of the host vehicle. For example, a vibration gyro 14a that detects the traveling direction of the host vehicle, a vehicle speed sensor 14b that detects a vehicle speed, and a GPS sensor that detects a GPS signal from a GPS satellite. 14c and the like. The navigation device 1 can determine a route search start point when searching for a recommended route based on the current location of the host vehicle detected by the current location detection device 14.

画像メモリ15は、表示モニタ16に表示するための画像データを一時的に格納する。この画像データは、道路地図を表示するための道路地図描画用データや各種の図形データ等からなり、制御回路11において、DVD−ROM19に記録されている地図データに基づいて作成される。この画像メモリ15に格納された画像データを用いて、表示モニタ16に道路地図画像など各種の画像が表示される。   The image memory 15 temporarily stores image data to be displayed on the display monitor 16. The image data includes road map drawing data for displaying a road map, various graphic data, and the like, and is created by the control circuit 11 based on the map data recorded on the DVD-ROM 19. Various images such as road map images are displayed on the display monitor 16 using the image data stored in the image memory 15.

表示モニタ16にはタッチパネル16aが組み合わされており、ユーザの指などによって表示モニタ16上のいずれかの位置がタッチされると、そのタッチ位置を示す情報がタッチパネル16aから制御回路11へ出力される。このタッチ位置情報に基づいて、そのとき表示モニタ16に表示されていた画像のどの部分がタッチされたか制御回路11によって判断される。本実施形態のナビゲーション装置1は、このようなタッチパネル16aと制御回路11によって検出されるユーザからのタッチパネル操作に応じて、様々な処理が実行される。   A touch panel 16a is combined with the display monitor 16, and when any position on the display monitor 16 is touched by a user's finger or the like, information indicating the touch position is output from the touch panel 16a to the control circuit 11. . Based on the touch position information, the control circuit 11 determines which part of the image displayed on the display monitor 16 is touched at that time. The navigation device 1 according to the present embodiment performs various processes according to touch panel operations from the user detected by the touch panel 16a and the control circuit 11.

入力装置17は、ユーザからの様々な操作入力を受け付けるためのものであり、操作パネルやリモコンなどによって実現される。入力装置17により、たとえば、目的地とする施設を検索するための検索条件の入力、地図のスクロール方向の指示、地図縮尺の変更などの操作が行われる。なお、これらの操作は上記のタッチパネル操作によっても行うことができる。そのため、入力装置17は本実施形態のナビゲーション装置1において必須ではなく、備えられていなくてもよい。   The input device 17 is for accepting various operation inputs from the user, and is realized by an operation panel, a remote controller, or the like. For example, the input device 17 performs operations such as inputting a search condition for searching for a destination facility, instructing a map scroll direction, and changing a map scale. These operations can also be performed by the touch panel operation described above. Therefore, the input device 17 is not essential in the navigation device 1 of the present embodiment, and may not be provided.

ディスクドライブ18は、装填されたDVD−ROM19より、道路地図を表示するための地図データを読み出す。この地図データには、目的地までのルート探索に用いられる経路計算データや、交差点名称および道路名称など、推奨経路に従って自車両を目的地まで誘導するために用いられる経路誘導データ、さらに道路を表す道路データなどが含まれている。また、河川や鉄道、地図上の各種施設等(ランドマーク)など、道路以外の地図形状を表す背景データなども地図データに含まれている。   The disk drive 18 reads map data for displaying a road map from the loaded DVD-ROM 19. This map data represents route calculation data used for route search to the destination, route guidance data used to guide the vehicle to the destination according to the recommended route, such as intersection name and road name, and roads Includes road data. The map data also includes background data representing map shapes other than roads such as rivers, railways, various facilities on the map (landmarks), and the like.

道路データにおいて、道路区間を表す最小単位はリンクと呼ばれており、各道路は複数のリンクによって構成されている。リンク同士を接続している点はノードと呼ばれ、このノードはそれぞれに位置情報(座標情報)を有している。このノードの位置情報によって、リンク形状、すなわち道路の形状が決定される。なお、ここではDVD−ROMを用いた例について説明しているが、DVD−ROM以外の他の記録メディア、たとえばCD−ROMやハードディスクなどより、地図データを読み出すこととしてもよい。   In the road data, the minimum unit representing a road section is called a link, and each road is composed of a plurality of links. A point connecting the links is called a node, and each node has position information (coordinate information). The link shape, that is, the shape of the road is determined based on the position information of the node. Although an example using a DVD-ROM is described here, the map data may be read from a recording medium other than the DVD-ROM, such as a CD-ROM or a hard disk.

入力装置17の操作やタッチパネル操作によってユーザから目的地が設定されると、ナビゲーション装置1は、現在地検出装置14により検出された現在地を経路探索開始点として、前述の経路計算データに基づいて所定のアルゴリズムの演算を行うことにより、現在地から目的地までのルート探索を行う。ルート探索の結果求められた推奨経路は、その表示形態、たとえば表示色などを変えることによって、他の道路とは区別して道路地図上に表される。これにより、ユーザは推奨経路を表示モニタ16に表示された道路地図上において認識することができる。また、この推奨経路に従って自車両が走行できるよう、ナビゲーション装置1は、ユーザに対して画像や音声などによる進行方向指示を行うことにより、自車両を誘導する。このように、道路地図を表示して推奨経路に従って自車両を目的地まで誘導することにより、目的地までのルート案内が行われる。   When the destination is set by the user by the operation of the input device 17 or the touch panel operation, the navigation device 1 uses the current location detected by the current location detection device 14 as a route search start point, based on the above-described route calculation data. A route search from the current location to the destination is performed by calculating the algorithm. The recommended route obtained as a result of the route search is displayed on the road map separately from other roads by changing its display form, for example, display color. Thus, the user can recognize the recommended route on the road map displayed on the display monitor 16. In addition, the navigation device 1 guides the host vehicle by instructing the traveling direction by an image or voice to the user so that the host vehicle can travel according to the recommended route. In this way, route guidance to the destination is performed by displaying the road map and guiding the vehicle to the destination according to the recommended route.

次に、ナビゲーション装置1におけるタッチパネル操作の方法を以下に説明する。ナビゲーション装置1は、通常のタッチパネル操作として、従来のナビゲーション装置と同様に、ユーザによるタッチパネル操作のタッチ位置における表示モニタ16の画面表示内容に対応する処理内容を実行する。たとえば、表示モニタ16に各種の操作ボタンが画面表示されている場合は、タッチ位置の操作ボタンに対応する処理を実行する。また、地図が画面表示されている場合は、タッチ位置の方向へ地図をスクロールしたり、タッチ位置の地点を目的地に指定したりする。   Next, a touch panel operation method in the navigation device 1 will be described below. The navigation device 1 executes, as a normal touch panel operation, the processing content corresponding to the screen display content of the display monitor 16 at the touch position of the touch panel operation by the user, as in the conventional navigation device. For example, when various operation buttons are displayed on the screen of the display monitor 16, processing corresponding to the operation button at the touch position is executed. When the map is displayed on the screen, the map is scrolled in the direction of the touch position, or the point of the touch position is designated as the destination.

さらに、上記のような通常のタッチパネル操作に加えて、予め定められた特定の形状をユーザがタッチパネル上でなぞって入力することにより、その形状に対応する処理内容を実行することもできる。このような操作方法によって入力される特定の形状のことを、操作ジェスチャーと称する。なお、操作ジェスチャーとして入力される形状には、ユーザがタッチパネル操作により容易に入力できるもの、たとえば数字や、簡単な文字、記号、図形などを用いることが好ましい。   Further, in addition to the normal touch panel operation as described above, the user can trace a predetermined specific shape on the touch panel to execute processing contents corresponding to the specific shape. A specific shape input by such an operation method is referred to as an operation gesture. In addition, it is preferable to use what a user can input easily by a touch panel operation, for example, a number, a simple character, a symbol, a figure, etc. as a shape input as an operation gesture.

以上説明したタッチパネル操作の方法について、図2および図3にその例を示す。図2は、タッチ位置の画面表示内容に従って動作する通常のタッチパネル操作の例である。画面表示された各種のメニューボタンのうち、ユーザが「2.ルートの確認」と書かれたメニューボタンをタッチすると、そのメニューボタンが選択されて反転表示された後、対応する処理がナビゲーション装置1において実行される。   An example of the touch panel operation method described above is shown in FIGS. FIG. 2 is an example of a normal touch panel operation that operates according to the screen display content of the touch position. When the user touches a menu button written as “2. Check route” among various menu buttons displayed on the screen, the menu button is selected and highlighted, and the corresponding processing is performed in the navigation device 1. Executed in

図3は、操作ジェスチャーに応じて動作するタッチパネル操作の例である。ユーザが指で「2」の形状をなぞって入力すると、その操作ジェスチャーがナビゲーション装置1において認識される。その結果、「2.ルートの確認」と書かれたメニューボタンが選択され、反転表示された後に対応する処理がナビゲーション装置1において実行される。   FIG. 3 is an example of a touch panel operation that operates according to an operation gesture. When the user traces and inputs the shape of “2” with a finger, the operation gesture is recognized in the navigation device 1. As a result, the menu button written as “2. Check route” is selected and displayed in reverse video, and the corresponding processing is executed in the navigation device 1.

上記のようなタッチパネル操作方法の違いは、ナビゲーション装置1において次のように判別される。ユーザによるタッチパネル操作のタッチ位置が変化せず、画面上の特定の一点のみがタッチされた場合は、そのタッチ位置の画面表示内容に対応する処理内容を実行する。一方、タッチパネル操作のタッチ位置が変化して何らかの形状がなぞられた場合は、操作ジェスチャーが入力されたと認識し、その操作ジェスチャーに対応する処理内容を実行する。すなわち、タッチパネル操作の開始から終了までの間におけるタッチ位置の変化の有無により、そのタッチパネル操作が操作ジェスチャーの入力であるか否かを判別し、操作方法を切り替える。   The difference in the touch panel operation method as described above is determined in the navigation device 1 as follows. When the touch position of the touch panel operation by the user does not change and only a specific point on the screen is touched, the processing content corresponding to the screen display content at the touch position is executed. On the other hand, when the touch position of the touch panel operation is changed and some shape is traced, it is recognized that the operation gesture is input, and the processing content corresponding to the operation gesture is executed. That is, whether or not the touch panel operation is an input of an operation gesture is determined based on whether or not the touch position has changed from the start to the end of the touch panel operation, and the operation method is switched.

以上説明したタッチパネル操作を行うときにナビゲーション装置1において実行されるフローチャートを図4に示す。なお、このフローチャートは、ナビゲーション装置1において制御回路11により実行されるものである。   FIG. 4 shows a flowchart executed in the navigation device 1 when the touch panel operation described above is performed. This flowchart is executed by the control circuit 11 in the navigation device 1.

ステップS10では、タッチパネル入力があったか否かを判定する。ユーザのタッチパネル操作によりタッチパネル入力が検出された場合は、次のステップS20へ進む。ステップS20では、ステップS10で検出されたタッチパネル入力におけるタッチ位置を検出する。   In step S10, it is determined whether or not there is a touch panel input. If a touch panel input is detected by the user's touch panel operation, the process proceeds to the next step S20. In step S20, the touch position in the touch panel input detected in step S10 is detected.

ステップS30では、ステップS10で検出されたタッチパネル入力が終了したか否かを判定する。ユーザの指がタッチパネル上を離れてタッチパネル入力が終了した場合は、次のステップS40へ進む。しかし、ユーザの指がタッチパネル上を離れておらず、タッチパネル入力がまだ終了していない場合は、ステップS20へ戻ってタッチ位置の検出を続ける。   In step S30, it is determined whether the touch panel input detected in step S10 has been completed. When the user's finger leaves the touch panel and the touch panel input is completed, the process proceeds to the next step S40. However, if the user's finger has not left the touch panel and the touch panel input has not yet been completed, the process returns to step S20 and continues to detect the touch position.

ステップS40では、ステップS20で検出されたタッチ位置が変化したか否かを判定する。タッチパネル入力の開始から終了までの間にステップS20において検出されたタッチ位置が変化していた場合は、ステップS50へ進む。一方、タッチ位置が変化していなかった場合は、ステップS100へ進む。   In step S40, it is determined whether or not the touch position detected in step S20 has changed. If the touch position detected in step S20 has changed between the start and end of touch panel input, the process proceeds to step S50. On the other hand, if the touch position has not changed, the process proceeds to step S100.

ステップS50では、ステップS30でタッチパネル入力の終了が検出されてから所定時間以内に、次のタッチパネル入力があったか否かを判定する。所定時間以内、たとえば1秒以内に次のタッチパネル入力があった場合は、ステップS60へ進む。一方、所定時間以内に次のタッチパネル入力がなかった場合は、ステップS60およびステップS70を実行せずにステップS80へ進む。   In step S50, it is determined whether or not there is a next touch panel input within a predetermined time after the end of the touch panel input is detected in step S30. If there is a next touch panel input within a predetermined time, for example, within 1 second, the process proceeds to step S60. On the other hand, if there is no next touch panel input within the predetermined time, the process proceeds to step S80 without executing steps S60 and S70.

ステップS60では、ステップS20と同様に、ステップS50で検出されたタッチパネル入力におけるタッチ位置を検出する。これにより、ステップS20に引き続いて操作ジェスチャーの検出を行うようにする。次のステップS70では、ステップS50で検出されたタッチパネル入力が終了したか否かを判定する。ユーザの指がタッチパネル上を離れてタッチパネル入力が終了した場合は、ステップS80へ進む。しかし、ユーザの指がタッチパネル上を離れておらず、タッチパネル入力がまだ終了していない場合は、ステップS60へ戻ってタッチ位置の検出を続ける。   In step S60, as in step S20, the touch position in the touch panel input detected in step S50 is detected. Thus, the operation gesture is detected following step S20. In the next step S70, it is determined whether or not the touch panel input detected in step S50 has ended. When the user's finger leaves the touch panel and the touch panel input is completed, the process proceeds to step S80. However, if the user's finger has not left the touch panel and the touch panel input has not yet been completed, the process returns to step S60 and continues to detect the touch position.

ステップS80では、ステップS20、および次のタッチパネル入力があった場合はステップS60において検出されたタッチ位置の軌跡に基づいて、入力された操作ジェスチャーの認識を行う。次のステップS90では、ステップS80の認識結果に基づいて、入力された操作ジェスチャーに対応する動作を実行する。この場合、図3で説明したようなタッチパネル操作が行われる。ステップS90を実行したら、図4のフローチャートを終了する。   In step S80, if there is a next touch panel input in step S20, the input operation gesture is recognized based on the locus of the touch position detected in step S60. In the next step S90, an operation corresponding to the input operation gesture is executed based on the recognition result in step S80. In this case, the touch panel operation as described in FIG. 3 is performed. If step S90 is performed, the flowchart of FIG. 4 will be complete | finished.

一方ステップS40からステップS100へ進んだ場合、ステップS100では、ステップS20において検出されたタッチ位置に対応する動作を実行する。この場合、図2で説明したようなタッチパネル操作が行われる。ステップS100を実行したら、図4のフローチャートを終了する。   On the other hand, when the process proceeds from step S40 to step S100, in step S100, an operation corresponding to the touch position detected in step S20 is executed. In this case, the touch panel operation as described in FIG. 2 is performed. If step S100 is performed, the flowchart of FIG. 4 will be complete | finished.

なお、以上説明した図4のフローチャートでは、所定時間以内に次のタッチパネル入力を行うことにより、画数が2以上の形状よりなる操作ジェスチャーを入力できるようにした例を説明した。しかし、操作ジェスチャーを画数が1の形状、すなわち一筆書きの形状に限定することにより、ステップS50、S60およびS70の処理を省略してもよい。このようにすれば、次のタッチパネル入力を検出するために所定時間待つ必要がなくなるため、操作時の反応速度を向上することができる。   In the flowchart of FIG. 4 described above, an example in which an operation gesture having a shape with two or more strokes can be input by performing the next touch panel input within a predetermined time has been described. However, the processing of steps S50, S60, and S70 may be omitted by limiting the operation gesture to a shape with one stroke, that is, a single stroke shape. In this way, it is not necessary to wait for a predetermined time to detect the next touch panel input, so that the reaction speed during operation can be improved.

以上説明した実施の形態によれば、次の作用効果が得られる。
(1)制御回路11において、タッチパネル操作のタッチ位置における画面表示内容に対応する処理内容を実行する操作方法(ステップS100)と、タッチパネル操作により入力された操作ジェスチャーに対応する処理内容を実行する操作方法(ステップS90)とを用いて、ナビゲーション装置における各種の処理を実行することとした。このようにしたので、正確なタッチパネル操作が困難な場合であっても、操作ジェスチャーを用いてナビゲーション装置をユーザの指示どおり正しく動作させることができる。
According to the embodiment described above, the following operational effects can be obtained.
(1) In the control circuit 11, an operation method (step S100) for executing the processing content corresponding to the screen display content at the touch position of the touch panel operation, and the operation for executing the processing content corresponding to the operation gesture input by the touch panel operation. Using the method (step S90), various processes in the navigation device are executed. Since it did in this way, even if it is a case where exact touch panel operation is difficult, a navigation apparatus can be correctly operated according to a user's instruction | indication using an operation gesture.

(2)タッチパネル操作のタッチ位置の変化を検出し(ステップS40)、タッチ位置が変化しなかった場合は、ステップS100による操作方法にしたがって各種の処理を実行し、タッチ位置が変化した場合は、ステップS90による操作方法にしたがって各種の処理を実行することとした。このようにしたので、操作方法の切り替えを簡単に行うことができる。 (2) When the touch position change of the touch panel operation is detected (step S40) and the touch position does not change, various processes are executed according to the operation method in step S100, and when the touch position changes, Various processes are executed in accordance with the operation method in step S90. Since it did in this way, switching of the operation method can be performed easily.

(3)ステップS90による操作方法にしたがって各種の処理を実行する際、先のタッチパネル入力が終了してから所定時間以内に次のタッチパネル入力が行われた場合は(ステップS50)、タッチ位置の検出を再度行う(ステップS60)ことにより、操作ジェスチャーの検出を引き続き行うこととした。このようにしたので、操作ジェスチャーを一筆書きの形状に限定することなく、画数が2以上の形状を含め様々な形状を操作ジェスチャーとして入力することができる。 (3) When various processes are executed according to the operation method in step S90, if the next touch panel input is performed within a predetermined time after the previous touch panel input is completed (step S50), the touch position is detected. By repeating (step S60), it was decided to continue detecting the operation gesture. Since it did in this way, various shapes including a shape with 2 or more strokes can be input as an operation gesture, without limiting an operation gesture to the shape of a single stroke.

なお、上記実施の形態ではナビゲーション装置を例として説明したが、本発明はナビゲーション装置に限定することなく、たとえばTVモニタやオーディオ装置などの様々な車載情報端末についても適用可能である。   In the above embodiment, the navigation device has been described as an example. However, the present invention is not limited to the navigation device, and can be applied to various in-vehicle information terminals such as a TV monitor and an audio device.

以上説明した実施の形態や各種の変形例はあくまで一例であり、発明の特徴が損なわれない限り、本発明はこれらの内容に限定されない。   The embodiment and various modifications described above are merely examples, and the present invention is not limited to these contents as long as the features of the invention are not impaired.

本発明の一実施形態によるナビゲーション装置の構成を示すブロック図である。It is a block diagram which shows the structure of the navigation apparatus by one Embodiment of this invention. タッチ位置の画面表示に従って動作するタッチパネル操作を示す図である。It is a figure which shows the touch panel operation which operate | moves according to the screen display of a touch position. 操作ジェスチャーに応じて動作するタッチパネル操作を示す図である。It is a figure which shows the touch panel operation which operate | moves according to an operation gesture. タッチパネル操作を行うときに実行されるフローチャートである。It is a flowchart performed when performing a touch panel operation.

符号の説明Explanation of symbols

1 ナビゲーション装置
11 制御回路
12 ROM
13 RAM
14 現在地検出装置
15 画像メモリ
16 表示モニタ
17 入力装置
18 ディスクドライブ
19 DVD−ROM
1 Navigation device 11 Control circuit 12 ROM
13 RAM
14 Current location detection device 15 Image memory 16 Display monitor 17 Input device 18 Disk drive 19 DVD-ROM

Claims (3)

各種の画面表示を行う表示手段と、
前記表示手段に対するタッチパネル操作を検出するタッチパネル手段と、
前記タッチパネル手段により検出されるタッチパネル操作に基づいて、所定の操作方法にしたがって各種の処理を実行する制御手段とを備え、
前記所定の操作方法には、
前記タッチパネル操作のタッチ位置における前記表示手段の画面表示内容に対応する処理内容を実行する第1の操作方法と、
前記タッチパネル操作により入力された予め定められた特定の形状である操作ジェスチャーに対応する処理内容を実行する第2の操作方法とが含まれることを特徴とする車載情報端末。
Display means for displaying various screens;
Touch panel means for detecting a touch panel operation on the display means;
Control means for executing various processes according to a predetermined operation method based on a touch panel operation detected by the touch panel means,
The predetermined operation method includes:
A first operation method for executing processing contents corresponding to screen display contents of the display means at a touch position of the touch panel operation;
An in-vehicle information terminal comprising: a second operation method for executing processing contents corresponding to an operation gesture having a predetermined specific shape input by the touch panel operation.
請求項1の車載情報端末において、
前記制御手段は、前記タッチパネル操作のタッチ位置が変化しなかった場合は前記第1の操作方法にしたがって各種の処理を実行し、前記タッチパネル操作のタッチ位置が変化した場合は前記第2の操作方法にしたがって各種の処理を実行することを特徴とする車載情報端末。
The in-vehicle information terminal according to claim 1,
The control means executes various processes according to the first operation method when the touch position of the touch panel operation does not change, and the second operation method when the touch position of the touch panel operation changes. The vehicle-mounted information terminal is characterized by executing various processes according to the above.
請求項1または2いずれかの車載情報端末において、
前記制御手段が前記第2の操作方法にしたがって各種の処理を実行する際、先のタッチパネル入力が終了してから所定時間以内に次のタッチパネル入力が行われた場合は、前記操作ジェスチャーの検出を引き続き行うことを特徴とする車載情報端末。
In the in-vehicle information terminal according to claim 1 or 2,
When the control means executes various processes according to the second operation method, if the next touch panel input is performed within a predetermined time after the previous touch panel input is completed, the operation gesture is detected. An in-vehicle information terminal characterized by continued operation.
JP2005339897A 2005-11-25 2005-11-25 On-vehicle information terminal Pending JP2007145106A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005339897A JP2007145106A (en) 2005-11-25 2005-11-25 On-vehicle information terminal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005339897A JP2007145106A (en) 2005-11-25 2005-11-25 On-vehicle information terminal

Publications (1)

Publication Number Publication Date
JP2007145106A true JP2007145106A (en) 2007-06-14

Family

ID=38207035

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005339897A Pending JP2007145106A (en) 2005-11-25 2005-11-25 On-vehicle information terminal

Country Status (1)

Country Link
JP (1) JP2007145106A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009129171A (en) * 2007-11-22 2009-06-11 Denso It Laboratory Inc Information processor loaded in mobile body
WO2010027006A1 (en) 2008-09-03 2010-03-11 日本電気株式会社 Gesture input operation device, method, program, and portable device
JP2010127925A (en) * 2008-11-25 2010-06-10 Elan Microelectronics Corp Navigation system
JP2010262636A (en) * 2009-05-08 2010-11-18 Research In Motion Ltd Target zone for menu item on touch-sensitive display
US8253705B2 (en) 2009-05-08 2012-08-28 Research In Motion Limited Target zones for menu items on a touch-sensitive display
JPWO2013140731A1 (en) * 2012-03-19 2015-08-03 パナソニックIpマネジメント株式会社 In-vehicle device
JP2016107796A (en) * 2014-12-05 2016-06-20 株式会社日立製作所 Terminal device for train operation management system
US10073533B2 (en) 2014-06-23 2018-09-11 Toyota Jidosha Kabushiki Kaisha Operation apparatus for vehicle
US11144196B2 (en) 2016-03-29 2021-10-12 Microsoft Technology Licensing, Llc Operating visual user interface controls with ink commands

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11105646A (en) * 1997-10-06 1999-04-20 Fuji Heavy Ind Ltd Concentrated control unit for on-vehicle equipment
JP2000203356A (en) * 1999-01-12 2000-07-25 Fujikura Ltd Input device for automobile
JP2001216069A (en) * 2000-02-01 2001-08-10 Toshiba Corp Operation inputting device and direction detecting method
JP2002259046A (en) * 2001-02-28 2002-09-13 Tomoya Sonoda System for entering character and symbol handwritten in air
JP2003302967A (en) * 2003-04-07 2003-10-24 Yamaha Corp Device and method for musical score information input
JP2003323258A (en) * 2002-04-30 2003-11-14 Kenwood Corp Operation command processing program and navigation system
JP2004362429A (en) * 2003-06-06 2004-12-24 Matsushita Electric Ind Co Ltd Command input device using touch panel display
JP2005031786A (en) * 2003-07-08 2005-02-03 Fujitsu Ten Ltd Character input device
JP2005062044A (en) * 2003-08-15 2005-03-10 Sony Corp Navigation system

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11105646A (en) * 1997-10-06 1999-04-20 Fuji Heavy Ind Ltd Concentrated control unit for on-vehicle equipment
JP2000203356A (en) * 1999-01-12 2000-07-25 Fujikura Ltd Input device for automobile
JP2001216069A (en) * 2000-02-01 2001-08-10 Toshiba Corp Operation inputting device and direction detecting method
JP2002259046A (en) * 2001-02-28 2002-09-13 Tomoya Sonoda System for entering character and symbol handwritten in air
JP2003323258A (en) * 2002-04-30 2003-11-14 Kenwood Corp Operation command processing program and navigation system
JP2003302967A (en) * 2003-04-07 2003-10-24 Yamaha Corp Device and method for musical score information input
JP2004362429A (en) * 2003-06-06 2004-12-24 Matsushita Electric Ind Co Ltd Command input device using touch panel display
JP2005031786A (en) * 2003-07-08 2005-02-03 Fujitsu Ten Ltd Character input device
JP2005062044A (en) * 2003-08-15 2005-03-10 Sony Corp Navigation system

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009129171A (en) * 2007-11-22 2009-06-11 Denso It Laboratory Inc Information processor loaded in mobile body
WO2010027006A1 (en) 2008-09-03 2010-03-11 日本電気株式会社 Gesture input operation device, method, program, and portable device
JP5494483B2 (en) * 2008-09-03 2014-05-14 日本電気株式会社 Gesture input operation device, method, program, and portable device
JP2010127925A (en) * 2008-11-25 2010-06-10 Elan Microelectronics Corp Navigation system
JP2010262636A (en) * 2009-05-08 2010-11-18 Research In Motion Ltd Target zone for menu item on touch-sensitive display
US8253705B2 (en) 2009-05-08 2012-08-28 Research In Motion Limited Target zones for menu items on a touch-sensitive display
JPWO2013140731A1 (en) * 2012-03-19 2015-08-03 パナソニックIpマネジメント株式会社 In-vehicle device
US10073533B2 (en) 2014-06-23 2018-09-11 Toyota Jidosha Kabushiki Kaisha Operation apparatus for vehicle
US10162424B2 (en) 2014-06-23 2018-12-25 Toyota Jidosha Kabushiki Kaisha Operation apparatus for vehicle
JP2016107796A (en) * 2014-12-05 2016-06-20 株式会社日立製作所 Terminal device for train operation management system
US11144196B2 (en) 2016-03-29 2021-10-12 Microsoft Technology Licensing, Llc Operating visual user interface controls with ink commands

Similar Documents

Publication Publication Date Title
US7577518B2 (en) Navigation system
JP2007145106A (en) On-vehicle information terminal
JP4728685B2 (en) Navigation device
JP2007132677A (en) Navigation device
JP2007155633A (en) Navigation system
JP5007064B2 (en) Navigation device
JP2007190947A (en) On-vehicle information terminal
JP2007003328A (en) Car navigation system
JP2008039731A (en) Navigation system and its method of displaying on screen
JP4783075B2 (en) Navigation device
JP2007199980A (en) Display controller, map display device and navigation device
JP2008209151A (en) Route guidance device
JP4921943B2 (en) Navigation device
JP5358215B2 (en) Map display device
JP4695957B2 (en) Navigation device
JP4870979B2 (en) Map display device
JP2008145170A (en) On-vehicle display apparatus
JP4897342B2 (en) In-vehicle map display device
JP2008032629A (en) Navigation system
JP5028043B2 (en) In-vehicle information terminal
JP5233431B2 (en) In-vehicle display system
JP2008185452A (en) Navigation device
JP2007017331A (en) Navigation device
JP2006293750A (en) Navigation system and map display method
JP2009204591A (en) Navigation system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081111

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20100212

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110630

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110705

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110902

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20110902

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111115

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120116

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120522