JP2013250943A - Input system - Google Patents

Input system Download PDF

Info

Publication number
JP2013250943A
JP2013250943A JP2012127315A JP2012127315A JP2013250943A JP 2013250943 A JP2013250943 A JP 2013250943A JP 2012127315 A JP2012127315 A JP 2012127315A JP 2012127315 A JP2012127315 A JP 2012127315A JP 2013250943 A JP2013250943 A JP 2013250943A
Authority
JP
Japan
Prior art keywords
input
projecting
detection surface
pattern
road
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Abandoned
Application number
JP2012127315A
Other languages
Japanese (ja)
Inventor
Tomonori Sugiura
智則 杉浦
Saijiro Tanaka
斎二郎 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin AW Co Ltd
Original Assignee
Aisin AW Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin AW Co Ltd filed Critical Aisin AW Co Ltd
Priority to JP2012127315A priority Critical patent/JP2013250943A/en
Publication of JP2013250943A publication Critical patent/JP2013250943A/en
Abandoned legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To achieve an input system allowing a user to input without gazing at a display screen, providing the user with higher convenience when a map image appears on a display screen, and further allowing the user to operate several processes smoothly.SOLUTION: An input system includes a display unit, an input unit having projection members provided such that they can project independently each other from a detection surface for detecting a detected object, a projection controller to put the projection member into a projection state in response to a map image, and a processing execution part capable of executing a projection assigned processing assigned to the projection member operated and a pattern input processing corresponding to an input pattern with a plurality of detected objects. The processing execution part executes the pattern input processing in preference to the projection assigned processing if the input pattern meets with a reference pattern.

Description

本発明は、タッチパッド等の入力装置を備えた入力システムに関する。   The present invention relates to an input system including an input device such as a touch pad.

例えばノート型パーソナルコンピュータ等において、タッチパッド等の入力装置を備えた入力システムを装備した機器が利用されている。ユーザーは、タッチパッド表面に設けられた検知面上で指先等をスライド操作することで、表示画面に表示される操作カーソルを移動させる。また例えば、表示画面に表示される操作カーソルを操作標章(例えばボタンやアイコン等)に合わせた状態で検知面を所定操作することで、当該操作標章に関連付けられた機能を実現させる。このような入力システムは、ナビゲーションシステムに対する所定操作の入力を行うためにも利用することができる。   For example, in a notebook personal computer or the like, a device equipped with an input system including an input device such as a touch pad is used. The user moves the operation cursor displayed on the display screen by sliding the fingertip or the like on the detection surface provided on the touch pad surface. Further, for example, a function associated with the operation mark is realized by performing a predetermined operation on the detection surface in a state where the operation cursor displayed on the display screen is set to an operation mark (for example, a button or an icon). Such an input system can also be used for inputting a predetermined operation to the navigation system.

ところで、ナビゲーションシステムは車両の運転者によって操作されることも多い。そのような場合、ユーザー(車両の運転者)は運転の合間にナビゲーション装置を操作することになるため、表示画面を注視して操作を行うことは困難であり、望む操作を正確に行うことができない場合がある。このような点に鑑み、触覚(触感)を利用して表示画面を注視せずとも操作入力を行うことができるようにした入力システムが提案されている。例えば特開2006−268068号公報(特許文献1)には、検知面全体を繊維毛で覆い、表示装置に表示された操作標章の位置に対応する検知面の位置にある繊維毛を立毛させる技術が開示されている。   By the way, the navigation system is often operated by a vehicle driver. In such a case, since the user (vehicle driver) operates the navigation device between driving, it is difficult to perform the operation while paying attention to the display screen, and the desired operation can be performed accurately. There are cases where it is not possible. In view of such a point, an input system has been proposed in which operation input can be performed without using a tactile sensation (tactile sensation) without gazing at a display screen. For example, in Japanese Patent Application Laid-Open No. 2006-268068 (Patent Document 1), the entire detection surface is covered with fiber hair, and the fiber hair at the position of the detection surface corresponding to the position of the operation mark displayed on the display device is raised. Technology is disclosed.

特許文献1のシステムでは、繊維毛を立毛させる等して触感を異ならせる検知面領域は、表示画面における操作標章の表示領域(実施の形態1〜3等)、又は、操作標章の表示領域に対して所定規則で対応付けられた領域(実施の形態4)に限られている。しかし、例えばナビゲーションシステムのように、主に地図画像を表示画面に表示させるシステムを操作入力の対象とする場合には、操作標章の表示領域以外の領域に対応する検知面領域でも触感を異ならせることが利便性の観点から好ましい場合がある。   In the system of Patent Document 1, the detection surface area that makes the tactile sensation different by raising fiber hairs or the like is the display area of the operation mark on the display screen (Embodiment 1 to 3 or the like) or the display of the operation mark. The area is limited to the area (Embodiment 4) associated with the area according to a predetermined rule. However, when a system that mainly displays a map image on the display screen, such as a navigation system, is a target of operation input, the tactile sensation is different even in the detection surface area corresponding to the area other than the display area of the operation mark. It may be preferable from the viewpoint of convenience.

また、タッチパッド等の入力装置を備えた入力システムにおいて、例えば特表2010−541071号公報(特許文献2)のように、検知面での複数の被検知物の同時検知による入力(いわゆるマルチタッチ入力)が可能なものも知られている。このようなシステムでは、検知面で検知される複数の被検知物による入力パターンに応じた各種の処理が実行される。ところで、特許文献1の入力システムをマルチタッチ入力可能に構成した場合において、ユーザーがマルチタッチを行った結果、繊維毛が立毛された検知面領域に触れた場合には、2つの操作入力が競合することになる。このような場合、競合する2つの操作入力をそれぞれ適切に取り扱い、その結果としての処理を円滑に実行させることが望まれる。これらの点に関して、特許文献1及び特許文献2のシステムでは何の考慮もなされていなかった。   Further, in an input system including an input device such as a touch pad, for example, as disclosed in Japanese Patent Application Publication No. 2010-541071 (Patent Document 2), input by simultaneous detection of a plurality of detection objects on a detection surface (so-called multi-touch) Some of them are known to be capable of input). In such a system, various processes according to input patterns by a plurality of detection objects detected on the detection surface are executed. By the way, when the input system of patent document 1 is comprised so that multi-touch input is possible, when a user touches the detection surface area | region where the fiber hair was raised as a result of performing multi-touch, two operation inputs will compete. Will do. In such a case, it is desired to appropriately handle two competing operation inputs and to smoothly execute the resulting processing. With respect to these points, no consideration has been given to the systems of Patent Document 1 and Patent Document 2.

特開2006−268068号公報JP 2006-268068 A 特表2010−541071号公報Special table 2010-541071 gazette

そこで、表示画面を注視することなく操作入力を行うことが可能であるとともに、表示画面に地図画像が表示される場合における利便性に優れ、更に各種の処理を円滑に実行させることが可能な入力システムの実現が望まれる。   Therefore, it is possible to perform an operation input without paying attention to the display screen, and it is excellent in convenience when a map image is displayed on the display screen, and can perform various processes smoothly. Realization of the system is desired.

本発明に係る入力システムの特徴構成は、表示画面に各種画像を表示可能な表示装置と、接触する被検知物を検知する検知面と、前記検知面に沿って所定の規則で配列されて前記検知面からそれぞれ独立して突出可能に設けられた複数の突出部材と、を有する入力装置と、前記表示画面に地図画像が表示されている場合に、当該地図画像に対応させて前記突出部材を突出した状態とする突出制御部と、前記突出した状態とされた前記突出部材のそれぞれに処理を割り当て、前記被検知物によって前記突出部材が操作されたことを検知した場合に、当該操作された突出部材に割り当てられた処理である突出割当処理を実行可能であるとともに、前記検知面で検知される複数の前記被検知物による入力パターンが予め規定された基準パターンに合致する場合に、当該入力パターンに応じた処理であるパターン入力処理を実行可能な処理実行部と、を備え、前記処理実行部は、前記入力パターンが前記基準パターンに合致する場合には、前記突出部材が操作されたことを検知した場合であっても、前記突出割当処理を実行することなく前記パターン入力処理を実行する点にある。   The characteristic configuration of the input system according to the present invention includes a display device capable of displaying various images on a display screen, a detection surface for detecting a detection object to be contacted, and a predetermined rule along the detection surface. When a map image is displayed on the display screen, an input device having a plurality of projecting members provided so as to be able to project independently from the detection surface, and the projecting member is associated with the map image. A process is assigned to each of the projecting control unit configured to project and the projecting member in the projecting state, and the operation is performed when it is detected that the projecting member is operated by the detected object. Protrusion assignment processing, which is processing assigned to the projecting member, can be executed, and input patterns by the plurality of detected objects detected on the detection surface match a predetermined reference pattern. A process execution unit capable of executing a pattern input process that is a process according to the input pattern, and the process execution unit projects the protrusion when the input pattern matches the reference pattern. Even when it is detected that a member has been operated, the pattern input process is executed without executing the protrusion assignment process.

この特徴構成によれば、表示画面に表示されている地図画像に対応させて突出した状態とされる突出部材を、指先等によって直接的に触覚認識することができる。そして、突出した状態の突出部材を触覚認識した後、特定の突出部材を指先等で操作することで、その突出部材に割り当てられた突出割当処理を実行させることができる。このため、ユーザーは、視覚のみに頼ることなく容易に、表示された地図画像に応じた望みの操作入力を行うことができる。また、ユーザーは、複数の指先等で検知面を操作することにより、検知面で検知される複数の被検知物による入力パターンに応じたパターン入力処理を実行させることもできる。この場合において、複数の被検知物による入力パターンが基準パターンに合致する場合には、突出割当処理に対してパターン入力処理が優先的に実行される。よって、突出割当処理とパターン入力処理とが競合する場合であっても、全体としての処理を円滑に実行させることができる。   According to this characteristic configuration, the protruding member that is in a protruding state corresponding to the map image displayed on the display screen can be directly tactilely recognized by a fingertip or the like. Then, after the tactile recognition of the projecting member in the projecting state, the projecting assignment process assigned to the projecting member can be executed by operating the specific projecting member with a fingertip or the like. For this reason, the user can easily perform a desired operation input according to the displayed map image without relying only on vision. In addition, the user can also execute pattern input processing corresponding to input patterns by a plurality of detected objects detected on the detection surface by operating the detection surface with a plurality of fingertips or the like. In this case, when the input pattern by a plurality of objects to be detected matches the reference pattern, the pattern input process is preferentially executed with respect to the protrusion assignment process. Therefore, even when the protrusion assignment process and the pattern input process compete, the entire process can be smoothly executed.

ここで、前記処理実行部は、前記入力パターンが前記基準パターンに合致しない場合であって、前記突出部材が操作されたことが検知された場合は、前記突出割当処理を実行すると好適である。   Here, it is preferable that the process execution unit executes the protrusion assignment process when it is detected that the input pattern does not match the reference pattern and the protrusion member is operated.

複数の被検知物による入力パターンが基準パターンに合致しない場合には、パターン入力処理が優先的に実行されることはないので、突出部材が操作されたことの検知の有無に応じて突出割当処理の実行の可否を判断すれば良い。この点に鑑み、この構成によれば、突出割当処理をも状況に応じて適切に実行させることができる。   When the input pattern by a plurality of detected objects does not match the reference pattern, the pattern input process is not preferentially executed, so the protrusion assignment process is performed depending on whether or not the protruding member is detected. It is sufficient to determine whether or not execution is possible. In view of this point, according to this configuration, it is possible to appropriately execute the protrusion assignment process according to the situation.

また、前記基準パターンは、複数の前記被検知物の少なくとも一方の前記検知面での検知位置が移動して、複数の前記被検知物の前記検知面での検知位置の相対位置関係が変化するパターンであると好適である。   Further, in the reference pattern, the detection position on the detection surface of at least one of the plurality of detection objects moves, and the relative positional relationship of the detection positions on the detection surface of the plurality of detection objects changes. A pattern is preferred.

複数の被検知物の検知位置が移動したときにそれらの相対位置関係が略一定に保たれる場合には、ユーザーは他の指先等が検知面に接触した状態で検知面を操作している等、意図せず複数の指先等で検知面を操作した状態となっている可能性があると推測される。一方、複数の被検知物の相対位置関係が変化する場合には、ユーザーは何らかの意思をもって複数の指先等で検知面を操作している可能性が高いと推測される。この構成によれば、ユーザーの意思を反映していると推定される入力パターンのみを選別して、それに対応するパターン入力処理を実行させることができる。   When the detection positions of a plurality of detection objects move and their relative positional relationship is kept substantially constant, the user operates the detection surface with other fingertips etc. in contact with the detection surface. It is estimated that there is a possibility that the detection surface is operated with a plurality of fingertips unintentionally. On the other hand, when the relative positional relationship of a plurality of objects to be detected changes, it is estimated that the user is likely to operate the detection surface with a plurality of fingertips or the like with some intention. According to this configuration, it is possible to select only the input patterns that are estimated to reflect the user's intention and to execute the corresponding pattern input process.

また、前記突出制御部は、前記地図画像に含まれる道路に対応させて前記突出部材を突出させ、前記処理実行部は、前記突出部材のそれぞれに対応する前記道路の属性を規定する属性情報に応じて異なる前記突出割当処理を前記突出部材のそれぞれに割り当てると好適である。   Further, the protrusion control unit causes the protruding member to protrude corresponding to a road included in the map image, and the processing execution unit uses attribute information that defines an attribute of the road corresponding to each of the protruding members. It is preferable that the different projecting assignment process is assigned to each projecting member.

この構成によれば、ユーザーは、地図画像に含まれる道路に対応させて突出した状態とされる突出部材を操作するだけで、その突出部材に対応する道路の属性情報に応じた突出割当処理を実行させることができる。よって、ユーザーにとっての利便性を向上させることができるとともに、表示画面に表示された地図画像に含まれる各道路の属性情報に応じた突出割当処理を実行させる際にも、表示画面を注視することなく操作入力を行うことが可能となる。   According to this configuration, the user can operate the projecting assignment process according to the attribute information of the road corresponding to the projecting member only by operating the projecting member that is projected in correspondence with the road included in the map image. Can be executed. Therefore, the convenience for the user can be improved, and the display screen is also watched when executing the projecting assignment process according to the attribute information of each road included in the map image displayed on the display screen. It is possible to perform operation input without any problem.

また、前記地図画像は、自位置決定部により決定される自位置を示す自位置画像を含むナビゲーション用の地図の画像であり、前記属性情報は、出発地から目的地までの案内経路を構成する道路であるか否かを示す経路属性、及び、前記案内経路を構成するそれぞれの道路における前記自位置との位置関係を示す位置属性、の少なくとも一方の情報を含み、前記処理実行部は、前記経路属性に応じて、並びに、前記経路属性が前記案内経路を構成する道路であることを示している場合には更に前記位置属性に応じて、異なる前記突出割当処理を前記突出部材のそれぞれに割り当てると好適である。   The map image is an image of a map for navigation including a self-position image indicating the self-position determined by the self-position determination unit, and the attribute information constitutes a guide route from the departure place to the destination. Including at least one of a route attribute indicating whether or not a road and a positional attribute indicating a positional relationship with the own position on each road constituting the guide route, the processing execution unit, Depending on the route attribute, and when the route attribute indicates that the road constitutes the guide route, the different projection assignment process is assigned to each of the projecting members according to the position attribute. It is preferable.

この構成によれば、ユーザーは、操作された突出部材に対応する道路が案内経路を構成する道路であるかそれ以外の道路であるかに応じて異なる突出割当処理を実行させることができる。また、ユーザーは、案内経路を構成する道路については、自位置であるか、自位置から目的地までの案内経路上の位置であるか、或いは出発地から自位置までの案内経路上の位置であるかに応じて、異なる突出割当処理を実行させることができる。従って、表示画面を注視することなく、ナビゲーションにおいて重要な情報となる道路属性に応じて必要な処理を適切に実行させることができる。   According to this configuration, the user can execute different protrusion assignment processes depending on whether the road corresponding to the operated protrusion member is a road constituting a guide route or a road other than that. In addition, the user can determine whether the road constituting the guide route is his / her own location, a location on the guide route from his / her location to the destination, or a location on the guide route from the departure location to his / her location. Depending on whether or not there is a different protrusion assignment process. Therefore, it is possible to appropriately execute necessary processing according to road attributes that are important information in navigation without paying attention to the display screen.

入力システムの車両への搭載状態を示す模式図Schematic diagram showing the input system mounted on the vehicle ナビゲーション装置の概略構成を示すブロック図Block diagram showing schematic configuration of navigation device 入力システムの概略構成を示すブロック図Block diagram showing schematic configuration of input system 入力装置に備えられるタッチパッドの斜視図The perspective view of the touchpad with which an input device is equipped 駆動機構の構成を示す断面図Sectional view showing the configuration of the drive mechanism 突出部材の突出状態の更新について示す模式図Schematic diagram showing the update of the protruding state of the protruding member 入力システムを利用した操作入力の一例を示す図The figure which shows an example of the operation input using an input system 入力システムを利用した操作入力の一例を示す図The figure which shows an example of the operation input using an input system 入力システムを利用した操作入力の一例を示す図The figure which shows an example of the operation input using an input system 入力システムを利用した操作入力の一例を示す図The figure which shows an example of the operation input using an input system 入力システムを利用した操作入力の一例を示す図The figure which shows an example of the operation input using an input system 入力システムを利用した操作入力の一例を示す図The figure which shows an example of the operation input using an input system 入力システムを利用した操作入力の一例を示す図The figure which shows an example of the operation input using an input system 入力システムを利用した操作入力の一例を示す図The figure which shows an example of the operation input using an input system 入力システムの全体の処理手順を示すフローチャートFlow chart showing the entire processing procedure of the input system 突入状態設定処理を示すフローチャートFlow chart showing inrush state setting process 入力判定処理を示すフローチャートFlow chart showing input determination processing 突出割当処理を示すフローチャートFlow chart showing protrusion assignment processing 突出割当処理を示すフローチャート(続き)Flowchart showing protrusion assignment processing (continued)

本発明に係る入力システムの実施形態について、図面を参照して説明する。本実施形態では、ナビゲーションシステム(本例では、車載用のナビゲーション装置1)に対する予め規定された(所定の)操作入力を行うための入力システム3を例として説明する。この入力システム3は、ナビゲーション装置1と情報伝達可能に接続された表示装置40と、入力装置4とを備えている。以下では、ナビゲーション装置1の概略構成、入力装置4の概略構成、入力システム3の構成、及び入力システム3の処理について説明する。   An embodiment of an input system according to the present invention will be described with reference to the drawings. In the present embodiment, an input system 3 for performing a predetermined (predetermined) operation input to the navigation system (in this example, the vehicle-mounted navigation device 1) will be described as an example. The input system 3 includes a display device 40 connected to the navigation device 1 so as to be able to transmit information, and an input device 4. Below, the schematic configuration of the navigation device 1, the schematic configuration of the input device 4, the configuration of the input system 3, and the processing of the input system 3 will be described.

1.ナビゲーション装置の概略構成
ナビゲーション装置1の概略構成について、図1及び図2を参照して説明する。ナビゲーション装置1は、自位置表示、出発地から目的地までの経路探索、経路案内、及び目的地検索等の基本機能を実現可能に構成されている。そのためナビゲーション装置1は、図2に示すように制御演算部6を備えている。制御演算部6は、CPU等の演算処理装置を中核部材として備え、入力されたデータに対して種々の処理を行うための機能部として、ハードウェア又はソフトウェア(プログラム)或いはその両方により実装されて構成されている。制御演算部6は、ナビゲーション用演算部70を備えている。ナビゲーション用演算部70は、自位置決定部71を備えている。また、制御演算部6は、GPS受信機81、方位センサ82、距離センサ83、地図データベース85、表示装置40、タッチパッド10、音声入力装置87、及び音声出力装置88と情報伝達可能に接続されている。
1. Schematic Configuration of Navigation Device A schematic configuration of the navigation device 1 will be described with reference to FIG. 1 and FIG. The navigation device 1 is configured to be able to realize basic functions such as own position display, route search from a departure place to a destination, route guidance, and destination search. Therefore, the navigation apparatus 1 is provided with the control calculating part 6 as shown in FIG. The control arithmetic unit 6 includes an arithmetic processing unit such as a CPU as a core member, and is implemented by hardware and / or software (program) or both as a functional unit for performing various processes on input data. It is configured. The control calculation unit 6 includes a navigation calculation unit 70. The navigation calculation unit 70 includes a self-position determination unit 71. The control calculation unit 6 is connected to the GPS receiver 81, the direction sensor 82, the distance sensor 83, the map database 85, the display device 40, the touch pad 10, the voice input device 87, and the voice output device 88 so as to be able to transmit information. ing.

GPS受信機81は、GPS(Global Positioning System)衛星からのGPS信号を受信する。方位センサ82は、自車両の進行方位又はその変化を検出する。距離センサ83は、自車両の車速や移動距離を検出する。自位置決定部71は、GPS受信機81、方位センサ82、及び距離センサ83から得られる情報に基づき、更には公知のマップマッチングにも基づいて、推定自位置を導出可能である。   The GPS receiver 81 receives a GPS signal from a GPS (Global Positioning System) satellite. The direction sensor 82 detects the traveling direction of the host vehicle or its change. The distance sensor 83 detects the vehicle speed and travel distance of the host vehicle. The own position determination unit 71 can derive an estimated own position based on information obtained from the GPS receiver 81, the azimuth sensor 82, and the distance sensor 83, and also based on known map matching.

地図データベース85は、所定の区画毎に分けられた地図データを記憶している。地図データは、交差点に対応する複数のノードと各ノード間を接続する道路に対応する複数のリンクとの接続関係により構成される道路ネットワークデータを含んでいる。各ノードは、緯度及び経度で表現された地図上の位置の情報を有している。各リンクは、その属性情報(リンク属性情報)として、道路種別、リンク長、道路幅等の情報を有している。地図データベース85は、地図表示、経路探索、及びマップマッチング等の処理の実行時に参照される。地図データベース85は、ハードディスクドライブ、フラッシュメモリ、DVD−ROM等の記憶媒体に格納して備えられている。   The map database 85 stores map data divided for each predetermined section. The map data includes road network data configured by a connection relationship between a plurality of nodes corresponding to intersections and a plurality of links corresponding to roads connecting the nodes. Each node has position information on the map expressed by latitude and longitude. Each link has information such as road type, link length, and road width as attribute information (link attribute information). The map database 85 is referred to when executing processing such as map display, route search, and map matching. The map database 85 is provided by being stored in a storage medium such as a hard disk drive, a flash memory, or a DVD-ROM.

表示装置40は、例えば液晶表示装置等であり、表示画面41を有すると共に当該表示画面41に各種画像を表示可能に構成されている。表示装置40には、地図画像を含む各種画像が表示される。ここで、地図画像を含む各種画像とは、例えば自位置周辺の地図や所定機能に関連付けられた操作標章44(図4を参照)等の画像である。自位置周辺の地図は、自位置決定部71により特定された自位置の情報や地図データベース85に格納された道路ネットワークデータ等に基づいて生成される。地図画像は、自位置決定部71により決定される自位置を示す自位置画像を含むナビゲーション用の地図の画像とすることができる。また、操作標章44は、タッチパッド10が操作され、その操作入力がナビゲーション装置1に伝達されて特定の機能が実現されるに際して、その機能をユーザー(ここでは車両の乗員)が容易に知覚できるように表示画面41に表示される標章である。このような操作標章44には、例えばイラスト等によって描画された操作アイコンや操作ボタン等が含まれる。なお、表示装置40は、タッチパネル等が一体化される等して入力機能を備えていても良い。   The display device 40 is, for example, a liquid crystal display device or the like, and has a display screen 41 and is configured to be able to display various images on the display screen 41. Various images including a map image are displayed on the display device 40. Here, the various images including the map image are images such as a map around the own position and an operation mark 44 (see FIG. 4) associated with a predetermined function. The map around the own position is generated based on the information on the own position specified by the own position determining unit 71, road network data stored in the map database 85, and the like. The map image can be an image of a map for navigation including a self-position image indicating the self-position determined by the self-position determination unit 71. The operation mark 44 is easily perceived by the user (here, a vehicle occupant) when the touch pad 10 is operated and the operation input is transmitted to the navigation device 1 to realize a specific function. It is a mark displayed on the display screen 41 so that it can be done. Such an operation mark 44 includes, for example, an operation icon or an operation button drawn by an illustration or the like. The display device 40 may have an input function by integrating a touch panel or the like.

図1に示すように、タッチパッド10は表示装置40とは別体として設けられている。タッチパッド10は、接触又は近接する被検知物Dを検知する検知面11aを有する。タッチパッド10は、検知面11aに接触等する被検知物D(図4を参照)を検知して当該検知位置に応じた入力を受け付ける。タッチパッド10が検知した検知位置に対応させて、表示画面41に操作カーソル45(図4を参照)が表示される。ユーザーは、検知面11aに被検知物Dとしての指先等を接触等させながらスライドさせる(なぞる)ことによって、表示画面41に表示された操作カーソル45を移動させる。その操作カーソル45が操作標章44に一致している状態で検知面11aを操作することで、当該操作標章44を選択してそれに関連付けられた機能を実現することができる。また、ユーザーは、操作カーソル45が操作標章44以外の位置にある状態で検知面11aを操作することで、例えば地図上の地点選択等の機能を実現することができる。   As shown in FIG. 1, the touch pad 10 is provided separately from the display device 40. The touch pad 10 includes a detection surface 11a that detects a detection object D that is in contact with or close to the touch pad 10. The touch pad 10 detects a detection object D (see FIG. 4) that contacts the detection surface 11a and receives an input corresponding to the detection position. An operation cursor 45 (see FIG. 4) is displayed on the display screen 41 in correspondence with the detection position detected by the touch pad 10. The user moves the operation cursor 45 displayed on the display screen 41 by sliding (tracing) a fingertip or the like as the detected object D in contact with the detection surface 11a. By operating the detection surface 11a in a state where the operation cursor 45 coincides with the operation mark 44, it is possible to select the operation mark 44 and realize a function associated therewith. In addition, the user can realize a function such as a point selection on a map by operating the detection surface 11a in a state where the operation cursor 45 is located at a position other than the operation mark 44.

表示装置40は、ユーザー(ここでは特に、車両の運転者)から見やすいように、運転時の視線方向を大きく変えることなく見ることができるような位置に配置されている。図1に示す例では、表示装置40はダッシュボード上面の中央部に配置されているが、計器盤の位置等に配置しても良いし、ヘッドアップディスプレイとしても良い。一方、タッチパッド10は、ユーザーが操作しやすいように、ユーザーの手元に近い位置に配置されている。すなわち、タッチパッド10は、表示装置40よりもユーザーの手元に近く、かつ、視線方向から遠い位置に配置されている。図1に示す例では、タッチパッド10はセンターコンソール部に配置されているが、ダッシュボード上面の中央部やステアリングホイールのスポーク部、ドアパネル等に配置しても良い。   The display device 40 is disposed at a position where it can be seen without greatly changing the direction of the line of sight during driving so that it can be easily seen by the user (in particular, the driver of the vehicle here). In the example shown in FIG. 1, the display device 40 is disposed at the center of the upper surface of the dashboard, but may be disposed at the position of the instrument panel or a head-up display. On the other hand, the touch pad 10 is disposed at a position close to the user's hand so that the user can easily operate. That is, the touch pad 10 is disposed at a position closer to the user's hand than the display device 40 and far from the line-of-sight direction. In the example shown in FIG. 1, the touch pad 10 is disposed in the center console portion, but may be disposed in the center portion of the upper surface of the dashboard, the spoke portion of the steering wheel, the door panel, or the like.

音声入力装置87は、ユーザーからの音声による入力を受け付ける。音声入力装置87はマイクロフォン等を有して構成される。ナビゲーション用演算部70は、音声入力装置87で受け付けた音声に基づき、音声認識による目的地検索やハンズフリー通話等の機能を実現することができる。音声出力装置88は、スピーカ等を有して構成される。ナビゲーション用演算部70は、音声出力装置88を介して、音声案内等の機能を実現することができる。   The voice input device 87 receives voice input from the user. The voice input device 87 includes a microphone and the like. Based on the voice received by the voice input device 87, the navigation calculation unit 70 can realize functions such as destination search by voice recognition and hands-free calling. The audio output device 88 includes a speaker and the like. The navigation calculation unit 70 can realize a function such as voice guidance via the voice output device 88.

2.入力装置の構成
図3〜図5に示すように、入力装置4は、タッチパッド10と、突出部材20と、駆動機構30とを備えている。入力装置4は、概略的には、駆動機構30によって駆動される突出部材20が、タッチパッド10の表面から突出可能に構成されている。
2. Configuration of Input Device As shown in FIGS. 3 to 5, the input device 4 includes a touch pad 10, a protruding member 20, and a drive mechanism 30. In general, the input device 4 is configured such that the protruding member 20 driven by the driving mechanism 30 can protrude from the surface of the touch pad 10.

図4及び図5に示すように、タッチパッド10は操作板11を有し、操作板11の正面には検知面11aが形成されている。このようなタッチパッド10としては、抵抗膜式や静電容量式、感圧式等、種々の方式のものを利用することができ、本例では静電容量式を採用している。検知面11aの背面側には基板や電極層が設けられている。タッチパッド10は、検知面11aに接触等する被検知物Dとしての指先等を検知して当該検知位置に応じた入力を受け付ける。なお、抵抗膜式や感圧式のタッチパッド10を用いても良い。   As shown in FIGS. 4 and 5, the touch pad 10 has an operation plate 11, and a detection surface 11 a is formed on the front surface of the operation plate 11. As such a touch pad 10, various types such as a resistive film type, a capacitance type, and a pressure-sensitive type can be used. In this example, a capacitance type is adopted. A substrate and an electrode layer are provided on the back side of the detection surface 11a. The touch pad 10 detects a fingertip or the like as the detection object D that contacts the detection surface 11a and receives an input corresponding to the detection position. Note that a resistive film type or pressure sensitive type touch pad 10 may be used.

操作板11には、当該操作板11を貫通する孔部12が設けられている。図4に示すように、本実施形態では、このような孔部12が複数(多数)設けられている。操作板11の正面から見て円形状に形成されたそれぞれの孔部12には、突出部材20が挿入されている。これら複数の孔部12及び突出部材20は、検知面11aに沿って所定の規則で配列されている。本例では、検知面11aの全体に亘って縦横にそれぞれ一定間隔で規則的に配列され、全体としてマトリクス状(直交格子状)に配列されている。なお、孔部12及び突出部材20は、ハニカム状(六角格子状)に配列されていても良い。   The operation plate 11 is provided with a hole 12 that penetrates the operation plate 11. As shown in FIG. 4, in the present embodiment, a plurality (large number) of such hole portions 12 are provided. Projecting members 20 are inserted into the respective holes 12 formed in a circular shape when viewed from the front of the operation plate 11. The plurality of hole portions 12 and the protruding members 20 are arranged according to a predetermined rule along the detection surface 11a. In this example, the entire detection surface 11a is regularly arranged at regular intervals in the vertical and horizontal directions, and arranged in a matrix (orthogonal lattice) as a whole. The holes 12 and the protruding members 20 may be arranged in a honeycomb shape (hexagonal lattice shape).

図5に示すように、突出部材20は、細長い円柱状(ピン状)のピン部材21と、全体として円筒状の筒状部材22とからなる。ピン部材21の下端部は、筒状部材22に係止されている。本例では、それぞれの孔部12に、ピン部材21の先端部(上端部)が挿入されている。駆動機構30によって突出部材20が駆動されていない基準状態(図5の左側の状態)では、平坦に形成されたピン部材21の先端部(先端面)は、検知面11aのレベルに一致している。   As shown in FIG. 5, the protruding member 20 includes an elongated columnar (pin-shaped) pin member 21 and a cylindrical member 22 that is generally cylindrical. The lower end portion of the pin member 21 is locked to the cylindrical member 22. In this example, the tip end (upper end) of the pin member 21 is inserted into each hole 12. In the reference state where the protruding member 20 is not driven by the drive mechanism 30 (the state on the left side in FIG. 5), the tip portion (tip surface) of the flatly formed pin member 21 matches the level of the detection surface 11a. Yes.

図5に示すように、操作板11に対して背面側に駆動機構30が設けられている。この駆動機構30は、検知面11aに対して交差(本例では直交)する方向(これを「突出方向Z」と称する)に沿って突出部材20を進退動作させるための機構である。駆動機構30は、圧電素子31を備えている。   As shown in FIG. 5, a drive mechanism 30 is provided on the back side of the operation plate 11. The drive mechanism 30 is a mechanism for moving the protruding member 20 forward and backward along a direction intersecting (orthogonal in this example) with respect to the detection surface 11a (referred to as a “projection direction Z”). The drive mechanism 30 includes a piezoelectric element 31.

圧電素子31は圧電効果を利用した受動素子であり、圧電体に印加された電圧を力に変換し、或いは圧電体に加えられた外力を電圧に変換する。圧電素子31は、突出方向Zに振動するように設けられている。圧電素子31には、細長い円柱状の連結部材33が連結されており、この連結部材33は圧電素子31と一体的に振動する。圧電素子31に連結された側とは反対側の連結部材33の先端部は、筒状部材22の内側の空間に挿入されている。連結部材33の外周面と筒状部材22の内周面とは、互いに接している。   The piezoelectric element 31 is a passive element using a piezoelectric effect, and converts a voltage applied to the piezoelectric body into a force, or converts an external force applied to the piezoelectric body into a voltage. The piezoelectric element 31 is provided so as to vibrate in the protruding direction Z. An elongated cylindrical connecting member 33 is connected to the piezoelectric element 31, and the connecting member 33 vibrates integrally with the piezoelectric element 31. The distal end portion of the connecting member 33 opposite to the side connected to the piezoelectric element 31 is inserted into the space inside the cylindrical member 22. The outer peripheral surface of the connecting member 33 and the inner peripheral surface of the cylindrical member 22 are in contact with each other.

連結部材33と筒状部材22とが接する位置において、筒状部材22を包囲するようにバネ部材34が設けられている。バネ部材34は、連結部材33と突出部材20を構成する筒状部材22との間に所定の摩擦力を生じさせる。そして、圧電素子31を振動させることで連結部材33と筒状部材22とを摺動させて突出部材20(ピン部材21)の突出方向Zの位置を移動させ、かつ、圧電素子31の振動を止めることでその突出方向Zの位置を維持させることが可能とされている。   A spring member 34 is provided so as to surround the tubular member 22 at a position where the connecting member 33 and the tubular member 22 are in contact with each other. The spring member 34 generates a predetermined frictional force between the connecting member 33 and the cylindrical member 22 constituting the protruding member 20. Then, by vibrating the piezoelectric element 31, the connecting member 33 and the cylindrical member 22 are slid to move the position of the protruding member 20 (pin member 21) in the protruding direction Z, and the piezoelectric element 31 is vibrated. By stopping, it is possible to maintain the position in the protruding direction Z.

突出部材20は、先端部が操作板11を貫通して検知面11aより正面側に突出した状態(突出状態)と、先端部が検知面11aから突出していない状態(非突出状態)とをとり得る。ここで、突出状態は、突出方向Zに沿った突出部材20の先端部の高さが検知面11aよりも高い状態(第一状態)である。また、非突出状態は、突出方向Zに沿った突出部材20の先端部の高さが検知面11a以下の状態(第二状態)である。すなわち、この非突出状態には、突出部材20の先端部が検知面11aのレベルに一致している状態と、先端部が検知面11aより背面側に埋没した状態とが含まれる。   The protruding member 20 takes a state in which the tip end portion penetrates the operation plate 11 and protrudes to the front side from the detection surface 11a (protrusion state), and a state in which the tip end portion does not protrude from the detection surface 11a (non-projection state). obtain. Here, the protruding state is a state (first state) in which the height of the distal end portion of the protruding member 20 along the protruding direction Z is higher than that of the detection surface 11a. The non-projecting state is a state (second state) in which the height of the tip end portion of the projecting member 20 along the projecting direction Z is not more than the detection surface 11a. That is, the non-projecting state includes a state in which the tip portion of the projecting member 20 matches the level of the detection surface 11a and a state in which the tip portion is buried on the back side from the detection surface 11a.

このように、複数の突出部材20は、駆動機構30により、検知面11aからそれぞれ独立して突出可能に(突出状態と非突出状態との間で移動可能に)設けられている。そして、検知面11aの全体に出没自在に設けられる多数の突出部材20により、任意形状の凹凸を表現することが可能となっている。   As described above, the plurality of projecting members 20 are provided by the drive mechanism 30 so as to be able to project independently from the detection surface 11a (movable between the projecting state and the non-projecting state). And the unevenness | corrugation of arbitrary shapes can be expressed with many protrusion members 20 provided in the whole detection surface 11a so that it can protrude and retract.

3.入力システムの構成
図3に示すように、入力システム3は、上述した入力装置4と、表示装置40と、これらの間に介在される操作入力演算部50とを備えている。本実施形態では、操作入力演算部50はナビゲーション装置1を構成する制御演算部6に組み込まれて実装されている(図2を参照)。但し、このような構成に限られず、操作入力演算部50が制御演算部6とは独立して設けられていても良い。入力装置4と表示装置40とは、操作入力演算部50を介して情報伝達可能に接続されている。
3. Configuration of Input System As shown in FIG. 3, the input system 3 includes the input device 4 described above, a display device 40, and an operation input calculation unit 50 interposed therebetween. In this embodiment, the operation input calculating part 50 is incorporated and mounted in the control calculating part 6 which comprises the navigation apparatus 1 (refer FIG. 2). However, the present invention is not limited to this configuration, and the operation input calculation unit 50 may be provided independently of the control calculation unit 6. The input device 4 and the display device 40 are connected via an operation input calculation unit 50 so that information can be transmitted.

操作入力演算部50は、描画制御部51、ステータス判定部52、突出制御部53、位置検知部54、状態検知部55、操作判定部56、及び処理実行部57を備えている。   The operation input calculation unit 50 includes a drawing control unit 51, a status determination unit 52, a protrusion control unit 53, a position detection unit 54, a state detection unit 55, an operation determination unit 56, and a process execution unit 57.

描画制御部51は、表示画面41への表示画像を描画制御する。描画制御部51は、自位置周辺の背景、道路R(案内経路を構成する道路Sとそれ以外の道路Tとを含む)、及び名称等の画像イメージを含む複数のレイヤ(層)を生成する。また、描画制御部51は、自車両の現在位置を表す自位置マークPのイメージを含むレイヤや、目的地が設定されている場合には当該目的地までの案内経路の画像イメージを含むレイヤを生成する。更に描画制御部51は、操作標章44の画像イメージを含むレイヤや、操作カーソル45の画像イメージを含むレイヤを生成する。そして、描画制御部51は、これらの各レイヤを重ね合わせて1つの表示画像イメージを生成し、これを表示画面41に表示させる(図4を参照)。   The drawing control unit 51 performs drawing control of a display image on the display screen 41. The drawing control unit 51 generates a plurality of layers including a background around the own position, a road R (including the road S constituting the guide route and other roads T), and image images such as names. . In addition, the drawing control unit 51 displays a layer including an image of the own position mark P representing the current position of the host vehicle, or a layer including an image image of a guide route to the destination when the destination is set. Generate. Further, the drawing control unit 51 generates a layer including an image image of the operation mark 44 and a layer including an image image of the operation cursor 45. Then, the drawing control unit 51 superimposes these layers to generate one display image image, and displays it on the display screen 41 (see FIG. 4).

ここで、描画制御部51は、ユーザーからの求めや車両の走行状態等に応じて、表示画面41に操作標章44を表示させる。描画制御部51は、状況に応じて各種の操作標章44の表示/非表示を適宜切り替える。なお、図4にはそのような操作標章44として、道路Rを含む地図画像の縮尺の変更を指定するための操作ボタン(図示の例では、“−”で示された縮小ボタン及び“+”で示された拡大ボタン)が表示された例が示されている。描画制御部51は、これらの操作ボタン等によって指定された縮尺に応じて道路Rの画像イメージを含むレイヤを再生成することで、道路Rを含む地図画像を再描画する。また、描画制御部51は、自位置の移動に応じて道路Rの画像イメージを含むレイヤを再生成することで、道路Rを含む地図画像を再描画(更新)する。なお、自位置の移動とは、実空間において走行することによる自位置の移動である。   Here, the drawing control unit 51 displays the operation mark 44 on the display screen 41 in accordance with a request from the user, a traveling state of the vehicle, or the like. The drawing control unit 51 appropriately switches display / non-display of various operation marks 44 according to the situation. In FIG. 4, as such an operation mark 44, an operation button for designating a change in scale of a map image including the road R (in the illustrated example, a reduction button indicated by “−” and “+ An example in which an enlarged button indicated by “” is displayed is shown. The drawing control unit 51 redraws the map image including the road R by regenerating the layer including the image image of the road R according to the scale designated by these operation buttons and the like. The drawing control unit 51 redraws (updates) the map image including the road R by regenerating a layer including the image image of the road R according to the movement of the own position. In addition, the movement of the own position is a movement of the own position by traveling in real space.

ステータス判定部52は、表示画面41に表示される画像内容に応じて、突出部材20のそれぞれについて突出の状態を表す突出ステータスを判定する。本実施形態では、突出ステータスには「突出状態」と「非突出状態」とが含まれる。また、「突出状態」には、「高突出状態」と「低突出状態」とが含まれる。ここで、突出ステータスの1つとしての「非突出状態」は、本実施形態では、突出方向Zにおける可動範囲内で突出部材20が最小変位位置にある状態(ピン部材21の先端部が検知面11aのレベルに一致している状態)である。「高突出状態」は、突出方向Zにおける可動範囲内で突出部材20が最大変位位置にある状態である。「低突出状態」は、「高突出状態」と「非突出状態」との間の状態であり、本例では中間の状態である。本実施形態では、ステータス判定部52は、各突出部材20を高突出状態、低突出状態、及び非突出状態のうちのいずれの状態とするかを択一的に判定する。   The status determination unit 52 determines a protrusion status representing a protruding state for each of the protruding members 20 according to the image content displayed on the display screen 41. In the present embodiment, the protruding status includes a “protruding state” and a “non-projecting state”. The “protruding state” includes a “high protruding state” and a “low protruding state”. Here, the “non-projection state” as one of the projecting statuses is a state in which the projecting member 20 is at the minimum displacement position within the movable range in the projecting direction Z (the tip portion of the pin member 21 is the detection surface). 11a). The “high projecting state” is a state in which the projecting member 20 is at the maximum displacement position within the movable range in the projecting direction Z. The “low protrusion state” is a state between the “high protrusion state” and the “non-protrusion state”, and is an intermediate state in this example. In the present embodiment, the status determination unit 52 alternatively determines whether each protruding member 20 is in a high protruding state, a low protruding state, or a non-projecting state.

本実施形態では、表示画面41に表示される地図画像はナビゲーション用の地図の画像であり、自位置周辺の地図画像、自位置マークPの画像、及び操作標章44の画像等が表示され得る。ステータス判定部52は、案内経路を構成する道路Sを含む画像が表示画面41に表示されている場合、当該道路Sに対応する複数の突出部材20について、その突出ステータスを「高突出状態」と判定する。また、ステータス判定部52は、案内経路を構成する道路S以外の道路Tを含む画像が表示画面41に表示されている場合、当該道路Tに対応する複数の突出部材20について、その突出ステータスを「低突出状態」と判定する。本実施形態では、ステータス判定部52は、表示画面41の座標と検知面11aの座標とを対応付け、表示された道路S及び道路Tのそれぞれを表す軌跡に含まれる各点の座標に対応する検知面11a上の各点の座標に位置する複数の突出部材20について、その突出ステータスをそれぞれ「高突出状態」及び「低突出状態」と判定する。   In the present embodiment, the map image displayed on the display screen 41 is a map image for navigation, and a map image around the own position, an image of the own position mark P, an image of the operation mark 44, and the like can be displayed. . When the image including the road S constituting the guide route is displayed on the display screen 41, the status determination unit 52 sets the protruding status to “high protruding state” for the plurality of protruding members 20 corresponding to the road S. judge. Further, when an image including a road T other than the road S constituting the guide route is displayed on the display screen 41, the status determination unit 52 displays the protrusion status of the plurality of protruding members 20 corresponding to the road T. Determined as “low protrusion”. In the present embodiment, the status determination unit 52 associates the coordinates of the display screen 41 with the coordinates of the detection surface 11a, and corresponds to the coordinates of each point included in the trajectory representing each of the displayed road S and road T. With respect to the plurality of projecting members 20 located at the coordinates of each point on the detection surface 11a, the projecting status is determined as “high projecting state” and “low projecting state”, respectively.

また、ステータス判定部52は、自位置マークPを含む画像が表示画面41に表示されている場合、当該自位置マークPに対応する突出部材20について、その突出ステータスを「高突出状態」と判定する。また、ステータス判定部52は、表示画面41に目印となるべき特徴を有する特定施設(ランドマーク)Qを含む画像が表示されている場合、当該特定施設Qに対応する突出部材20について、その突出ステータスを「高突出状態」と判定する。更にステータス判定部52は、表示画面41に特定の操作標章44を含む画像が表示されている場合、当該操作標章44の座標に対応する突出部材20について、その突出ステータスを「低突出状態」と判定する。本実施形態では、ステータス判定部52は、表示画面41の座標と検知面11aの座標とを対応付け、表示された自位置マークP、特定施設Q、及び操作標章44のそれぞれの座標に対応する検知面11a上の座標に位置する1つ以上の突出部材20について、その突出ステータスを「高突出状態」又は「低突出状態」と判定する。   In addition, when an image including the own position mark P is displayed on the display screen 41, the status determination unit 52 determines that the protruding status of the protruding member 20 corresponding to the own position mark P is “high protruding state”. To do. Further, when an image including a specific facility (landmark) Q having a characteristic to be a landmark is displayed on the display screen 41, the status determination unit 52 projects the protruding member 20 corresponding to the specific facility Q. The status is determined as “high protruding state”. Furthermore, when an image including a specific operation mark 44 is displayed on the display screen 41, the status determination unit 52 sets the protrusion status of the protrusion member 20 corresponding to the coordinates of the operation mark 44 to “low protrusion state”. Is determined. In the present embodiment, the status determination unit 52 associates the coordinates of the display screen 41 with the coordinates of the detection surface 11a, and corresponds to the coordinates of the displayed self-location mark P, specific facility Q, and operation mark 44. The one or more projecting members 20 located at the coordinates on the detection surface 11a to be detected are determined to have a projecting status of “high projecting state” or “low projecting state”.

なお、ステータス判定部52は、表示画面41に表示された画像において、道路R、自位置マークP、及び操作標章44のいずれも表示されていない領域の各点に対応する突出部材20については、その突出ステータスを「非突出状態」と判定する。   In addition, the status determination part 52 is about the protrusion member 20 corresponding to each point of the area | region where none of the road R, the own position mark P, and the operation mark 44 is displayed in the image displayed on the display screen 41. The protrusion status is determined as “non-projection state”.

ステータス判定部52は、突出部材20のそれぞれについて判定した突出ステータスの情報を突出制御部53に出力する。   The status determination unit 52 outputs information on the protrusion status determined for each of the protruding members 20 to the protrusion control unit 53.

突出制御部53は、表示画面41に表示される画像内容に応じて、突出部材20のそれぞれについて突出の状態を制御する。突出制御部53は、表示画面41に地図画像が表示されている場合に、当該地図画像に対応させて突出部材20を突出状態とする。突出制御部53は、ステータス判定部52から受け取った情報に基づいて駆動機構30を制御し、検知面11aに対する突出部材20の突出方向Zの位置を制御する。本実施形態では、突出制御部53は、道路R、特定施設Q、自位置マークP、及び操作標章44に対応させて突出部材20を突出状態とする。ここで、表示画面41の座標と検知面11aの座標とは対応付けられている。よって、突出制御部53は、表示画面41における道路R、特定施設Q、自位置マークP、及び操作標章44の座標に対応付けられた検知面11aの座標の位置に配置されている突出部材20を突出させることができる。   The protrusion control unit 53 controls the protruding state of each of the protruding members 20 in accordance with the image content displayed on the display screen 41. When the map image is displayed on the display screen 41, the protrusion control unit 53 sets the protruding member 20 in a protruding state corresponding to the map image. The protrusion control part 53 controls the drive mechanism 30 based on the information received from the status determination part 52, and controls the position of the protrusion direction Z of the protrusion member 20 with respect to the detection surface 11a. In the present embodiment, the protrusion control unit 53 sets the protruding member 20 in a protruding state corresponding to the road R, the specific facility Q, the own position mark P, and the operation mark 44. Here, the coordinates of the display screen 41 and the coordinates of the detection surface 11a are associated with each other. Therefore, the protrusion control unit 53 is arranged at the position of the coordinates of the detection surface 11a associated with the coordinates of the road R, the specific facility Q, the own position mark P, and the operation mark 44 on the display screen 41. 20 can be projected.

本実施形態では、道路Rのうち案内経路を構成する道路Sに対応する突出部材20は、それ以外の道路Tに対応する突出部材20よりも突出量が大きくなるように突出される。また、自位置マークPや特定施設Qに対応する突出部材20も、案内経路を構成する道路S以外の道路Tに対応する突出部材20よりも突出量が大きくなるように突出される。また、操作標章44に対応する突出部材20は、案内経路を構成する道路Sや自位置マークP、特定施設Qに対応する突出部材20よりも突出量が小さくなるように突出される。本実施形態では、突出制御部53は、案内経路を構成する道路S、自位置マークP、及び特定施設Qに対応する突出部材20を「高突出状態」とし、案内経路を構成する道路S以外の道路T及び操作標章44に対応する突出部材20を「低突出状態」とする。   In the present embodiment, the protruding member 20 corresponding to the road S constituting the guide route in the road R is protruded so that the protruding amount is larger than the protruding members 20 corresponding to the other roads T. Further, the protruding member 20 corresponding to the own position mark P or the specific facility Q is also protruded so that the protruding amount is larger than the protruding member 20 corresponding to the road T other than the road S constituting the guide route. Further, the protruding member 20 corresponding to the operation mark 44 is protruded so that the protruding amount is smaller than the protruding member 20 corresponding to the road S, the own position mark P, and the specific facility Q constituting the guide route. In the present embodiment, the protrusion control unit 53 sets the protruding member 20 corresponding to the road S, the own position mark P, and the specific facility Q that constitute the guide route to the “highly protruding state”, and other than the road S that constitutes the guide route. The protruding member 20 corresponding to the road T and the operation mark 44 is set to the “low protruding state”.

突出制御部53は、道路R、特定施設Q、自位置マークP、及び操作標章44のいずれも表示されていない領域(例えば、背景等)に対応する突出部材20を「非突出状態」とする(図4を参照)。   The protrusion control unit 53 sets the protrusion member 20 corresponding to an area (for example, a background or the like) where none of the road R, the specific facility Q, the own position mark P, and the operation mark 44 is displayed as a “non-protruding state”. (See FIG. 4).

突出制御部53は、突出部材20の突出の状態を変更するに際しては、それぞれの突出部材20に対応する圧電素子31にパルス電圧を印加して、当該圧電素子31を振動させる。このとき、突出制御部53は、突出方向Zに沿った一方側への振動速度と他方側への振動速度との大小関係を調整することができるように構成されている。このような構成は、圧電素子31の振動方向に応じてデューティ比を異ならせることによって実現できる。突出制御部53は、突出方向側への振動速度を埋没方向側への振動速度よりも小さくすることで、突出部材20を突出方向側へと移動させる。一方、突出制御部53は、埋没方向側への振動速度を突出方向側への振動速度よりも小さくすることで、突出部材20を埋没方向側へと移動させる。   When changing the protruding state of the protruding member 20, the protrusion control unit 53 applies a pulse voltage to the piezoelectric element 31 corresponding to each protruding member 20 to vibrate the piezoelectric element 31. At this time, the protrusion control unit 53 is configured to be able to adjust the magnitude relationship between the vibration speed toward one side and the vibration speed toward the other side along the protrusion direction Z. Such a configuration can be realized by changing the duty ratio according to the vibration direction of the piezoelectric element 31. The protrusion control part 53 moves the protrusion member 20 to the protrusion direction side by making the vibration speed to the protrusion direction side smaller than the vibration speed to the burying direction side. On the other hand, the protrusion control part 53 moves the protrusion member 20 to the burying direction side by making the vibration speed to the burying direction side smaller than the vibration speed to the protrusion direction side.

自位置の移動に伴い、突出制御部53は、自位置と地図との位置関係の変化に応じて突出部材20の突出の状態を更新する。自位置の移動に伴い、表示画面41に表示される地図画像は更新され、表示される道路Rの形態も時々刻々と変化する。突出制御部53は、このような時々刻々と変化する道路Rの形態に伴い、検知面11aの突出部材20の突出の状態を更新する(図6を参照)。突出制御部53は、突出部材20の突出の状態が表示画面41に表示される地図に追従するように、突出部材20の突出の状態を更新する。   With the movement of the own position, the protrusion control unit 53 updates the protruding state of the protruding member 20 in accordance with the change in the positional relationship between the own position and the map. With the movement of the own position, the map image displayed on the display screen 41 is updated, and the form of the displayed road R also changes every moment. The protrusion control unit 53 updates the protrusion state of the protrusion member 20 on the detection surface 11a in accordance with the form of the road R that changes every moment (see FIG. 6). The protrusion control unit 53 updates the protrusion state of the protrusion member 20 so that the protrusion state of the protrusion member 20 follows the map displayed on the display screen 41.

位置検知部54は、タッチパッド10の検知面11aでの被検知物Dの検知位置を取得する。位置検知部54は、被検知物Dとしての指先等が検知面11aに接触等することによって生じる電極間の静電容量の変化に基づいて、被検知物Dが最も接近した電極の位置を特定する。そして、位置検知部54は、その特定された電極の位置を検知面11aでの検知位置として取得する。このような位置検知部54の機能により、タッチパッド10は、検知面11aでの検知位置に応じた入力を受け付けることができる。なお、複数の被検知物Dが同時に検知面11aに接触等している場合には、それぞれの検知位置に応じた入力を受け付けることもできる。すなわち、本実施形態に係るタッチパッド10は、いわゆるマルチタッチ入力が可能に構成されている。位置検知部54は、取得した検知位置の情報を、描画制御部51及び操作判定部56に出力する。   The position detection unit 54 acquires the detection position of the detection object D on the detection surface 11 a of the touch pad 10. The position detection unit 54 specifies the position of the electrode that the detected object D is closest to based on the change in capacitance between the electrodes that occurs when a fingertip or the like as the detected object D contacts the detection surface 11a. To do. And the position detection part 54 acquires the position of the specified electrode as a detection position in the detection surface 11a. With such a function of the position detection unit 54, the touch pad 10 can accept an input corresponding to a detection position on the detection surface 11a. In addition, when the some to-be-detected object D is contacting the detection surface 11a simultaneously, the input according to each detection position can also be received. That is, the touch pad 10 according to the present embodiment is configured to allow so-called multi-touch input. The position detection unit 54 outputs the acquired detection position information to the drawing control unit 51 and the operation determination unit 56.

状態検知部55は、突出部材20の「高突出状態」と「低突出状態」と「非突出状態」とを識別可能に検知する。状態検知部55は、例えば位置センサ(図示せず)からの情報を取得可能に構成されている。状態検知部55は、取得される各突出部材20の突出方向Zにおける位置の情報に基づいて、各突出部材20の実際の突出ステータスが「高突出状態」、「低突出状態」、及び「非突出状態」のいずれであるかを検知する。状態検知部55は、その検知結果の情報を、操作判定部56に出力する。   The state detection unit 55 detects the “high protrusion state”, the “low protrusion state”, and the “non-protrusion state” of the protrusion member 20 in a distinguishable manner. The state detection unit 55 is configured to be able to acquire information from, for example, a position sensor (not shown). Based on the acquired position information of each projecting member 20 in the projecting direction Z, the state detection unit 55 determines that the actual projecting status of each projecting member 20 is “high projecting state”, “low projecting state”, and “non-projecting state”. It is detected whether it is in the “projection state”. The state detection unit 55 outputs information on the detection result to the operation determination unit 56.

操作判定部56は、少なくとも検知面11aに対する特定操作に基づいて、ユーザーによるナビゲーション装置1への操作入力を判定する。本実施形態では、判定基準となる「特定操作」には、例えばタッチ操作、タップ操作、スライド操作(なぞり操作)、ピンチアウト操作、及びピンチイン操作等を含めることができる。タッチ操作は、検知面11aに非接触となっている被検知物Dを検知面11aに接触させる操作である。タップ操作は、検知面11aに接触している被検知物Dを一旦検知面11aから浮かせた後で再度接触させる操作である。このタップ操作には、当該タップ操作を所定時間内に2度繰り返して行うダブルタップ操作も含まれる。スライド操作は、検知面11aに接触している被検知物Dを検知面11aに沿って移動させる(なぞる)操作である。ピンチアウト操作は、検知面11aに接触している複数の被検知物Dを互いに離れるように相対移動させる操作である。ピンチイン操作は、検知面11aに接触している複数の被検知物Dを互いに近づくように相対移動させる操作である。   The operation determination unit 56 determines an operation input to the navigation device 1 by the user based on at least a specific operation on the detection surface 11a. In the present embodiment, the “specific operation” serving as the determination criterion can include, for example, a touch operation, a tap operation, a slide operation (race operation), a pinch-out operation, a pinch-in operation, and the like. The touch operation is an operation of bringing the detection object D that is not in contact with the detection surface 11a into contact with the detection surface 11a. The tap operation is an operation in which the detection object D that is in contact with the detection surface 11a is once brought up from the detection surface 11a and then brought into contact again. This tap operation includes a double tap operation in which the tap operation is repeated twice within a predetermined time. The slide operation is an operation of moving (tracing) the detection object D in contact with the detection surface 11a along the detection surface 11a. The pinch-out operation is an operation of relatively moving a plurality of detection objects D that are in contact with the detection surface 11a away from each other. The pinch-in operation is an operation of relatively moving the plurality of detection objects D that are in contact with the detection surface 11a so as to approach each other.

また本実施形態では、そのような「特定操作」には、突出部材20に対する押込操作や離隔操作を含めることもできる。押込操作とは、突出状態にある突出部材20を検知面11a側に押し込む操作である。離隔操作とは、タッチ操作又はスライド操作の後、被検知物Dが検知面11aから離される操作である。これらの各操作のうち、タッチ操作、タップ操作、ダブルタップ操作、押込操作、及び離隔操作はシングルタッチ操作に含まれ、ピンチ操作(ピンチアウト操作及びピンチイン操作)はマルチタッチ操作に含まれる。   Further, in the present embodiment, such “specific operation” may include a pushing operation and a separation operation with respect to the protruding member 20. The pushing operation is an operation of pushing the protruding member 20 in the protruding state toward the detection surface 11a. The separation operation is an operation in which the detection object D is separated from the detection surface 11a after the touch operation or the slide operation. Among these operations, touch operation, tap operation, double tap operation, push-in operation, and separation operation are included in the single touch operation, and pinch operations (pinch-out operation and pinch-in operation) are included in the multi-touch operation.

操作判定部56は、検知面11aで特定操作が行われたことに基づいて、ユーザーによるナビゲーション装置1への操作入力を判定する。このような操作入力としては、例えばシングルタッチ操作による表示画面41に表示された地図中の特定の地点の選択や、操作標章44に関連付けられた特定の機能の選択、或いはマルチタッチ操作による表示画面41に表示された地図の縮尺変更(拡大又は縮小)等が挙げられる。操作判定部56は、シングルタッチ操作に対しては、当該シングルタッチ操作が行われた検知面11aの位置に基づいて操作入力の有無を判定する。更に本実施形態では、操作判定部56は、シングルタッチ操作としての離隔操作がなされた場合に、その検知位置に基づいて操作入力の有無を判定する。   The operation determination unit 56 determines an operation input to the navigation device 1 by the user based on the specific operation performed on the detection surface 11a. As such operation input, for example, selection of a specific point in a map displayed on the display screen 41 by a single touch operation, selection of a specific function associated with the operation mark 44, or display by a multi-touch operation is performed. Examples include changing the scale of the map displayed on the screen 41 (enlarging or reducing). For a single touch operation, the operation determination unit 56 determines the presence or absence of an operation input based on the position of the detection surface 11a where the single touch operation is performed. Furthermore, in this embodiment, the operation determination part 56 determines the presence or absence of operation input based on the detection position, when the separation operation as single touch operation is made.

また、操作判定部56は、マルチタッチ操作に対しては、当該マルチタッチ操作が行われた検知面11aの位置とは無関係に、そのマルチタッチ操作が行われたことのみに基づいて、ユーザーによるナビゲーション装置1への操作入力を判定することもできる。本実施形態では、これらの離隔操作及びピンチ操作の双方が、ナビゲーション装置1への操作入力の判定基準である「特定操作」となる。操作判定部56は、検知面11aにおいて特定操作(本例では離隔操作又はピンチ操作)が行われたことを検知すると、そのことを示す情報を処理実行部57に出力する。   In addition, the operation determination unit 56 determines that the multi-touch operation is performed by the user based on only the multi-touch operation performed regardless of the position of the detection surface 11a on which the multi-touch operation has been performed. An operation input to the navigation device 1 can also be determined. In the present embodiment, both the separation operation and the pinch operation are “specific operations” that are determination criteria for the operation input to the navigation device 1. When the operation determination unit 56 detects that a specific operation (separation operation or pinch operation in this example) has been performed on the detection surface 11 a, the operation determination unit 56 outputs information indicating that to the processing execution unit 57.

処理実行部57は、操作判定部56による判定結果に基づいて処理を実行する。本実施形態では、処理実行部57は、突出割当処理を実行可能であるとともに、パターン入力処理をも実行可能に構成されている。突出割当処理は、突出状態とされた突出部材20のそれぞれに割り当てられ、被検知物Dによって突出部材20が操作(本例では離隔操作)されたことを検知した場合に、当該操作された突出部材20に応じて実行される処理である。パターン入力処理は、検知面11aで検知される複数の被検知物Dによる入力パターンが予め規定された基準パターンに合致する場合に、当該入力パターンに応じて実行される処理である。ここで、「基準パターン」は、複数の被検知物Dの少なくとも一方の検知面11aでの検知位置が移動して、複数の被検知物Dの検知面11aでの検知位置の相対位置関係が変化するパターンである。本例では、ピンチ操作による入力パターンが、この基準パターンに合致した入力パターンとなる。   The process execution unit 57 executes a process based on the determination result by the operation determination unit 56. In the present embodiment, the process execution unit 57 is configured to be able to execute the projecting assignment process and the pattern input process. The projecting assignment process is assigned to each projecting member 20 in the projecting state, and when it is detected that the projecting member 20 has been operated by the object D to be detected (separation operation in this example), the projecting projecting operation is performed. This process is executed according to the member 20. The pattern input process is a process executed according to an input pattern when input patterns by the plurality of detection objects D detected on the detection surface 11a match a predetermined reference pattern. Here, the “reference pattern” has a relative positional relationship between the detection positions of the plurality of detection objects D on the detection surface 11a by moving the detection positions of at least one detection surface 11a of the detection objects D. It is a changing pattern. In this example, the input pattern by the pinch operation is an input pattern that matches this reference pattern.

処理実行部57は、地図上の道路R、特定施設Q、自位置マークP、及び操作標章44に対応させて突出状態とされた突出部材20に対する離隔操作が判定された場合には、離隔操作がなされた突出部材20に割り当てられた突出割当処理を実行する。本実施形態では、処理実行部57は、スライド操作の後にそのような離隔操作が判定された場合に、当該離隔操作がなされた突出部材20に割り当てられた突出割当処理を実行する。すなわち、処理実行部57は、被検知物Dが検知面11aに沿って移動してから突出状態とされた突出部材20の位置において検知面11aから離れたことを検知した場合に、当該離れたことを検知した位置の突出部材20に割り当てられた突出割当処理(最後に接触された突出部材20に割り当てられた突出割当処理)を実行する。このとき、本実施形態では、最初に接触された突出部材20(或いは、検知面11aにおいて最初に被検知物Dが検知された位置)や、途中段階で接触された突出部材20(或いは、検知面11aにおいて途中段階で被検知物Dが検知された位置)は問題としない。つまり、処理実行部57は、最後に接触された突出部材20にのみ注目して、その突出部材20に割り当てられた処理を実行する。   When the separation operation is performed on the projecting member 20 that is in a projecting state corresponding to the road R on the map, the specific facility Q, the own position mark P, and the operation mark 44, the processing execution unit 57 is separated. The protrusion assignment process assigned to the protruding member 20 that has been operated is executed. In this embodiment, the process execution part 57 performs the protrusion allocation process allocated to the protrusion member 20 in which the said separation operation was made, when such a separation operation is determined after a slide operation. That is, when the process execution unit 57 detects that the detected object D has moved away from the detection surface 11a at the position of the protruding member 20 that has been in the protruding state after moving along the detection surface 11a, the processing execution unit 57 The protrusion assignment process assigned to the protruding member 20 at the position where this is detected (the protrusion assignment process assigned to the protruding member 20 that has been contacted last) is executed. At this time, in the present embodiment, the projecting member 20 that is first contacted (or the position where the detection object D is first detected on the detection surface 11a), or the projecting member 20 that is contacted in the middle stage (or detection). The position where the detection object D is detected in the middle of the surface 11a is not a problem. In other words, the process execution unit 57 pays attention only to the projecting member 20 that is contacted last, and executes the process assigned to the projecting member 20.

ここで、処理実行部57は、地図上の道路R、特定施設Q、及び自位置マークPに応じて、異なる処理を突出部材20のそれぞれに割り当てる。また、道路Rに関しては、処理実行部57は、突出部材20のそれぞれに対応する道路Rの属性を規定する属性情報に応じて、異なる処理を突出部材20のそれぞれに割り当てる。道路Rの属性情報には、経路属性及び位置属性の少なくとも一方の情報が含まれる。経路属性は、出発地から目的地までの案内経路を構成する道路であるか否か(出発地から目的地までの案内経路を構成する道路であるか、当該案内経路を構成する道路以外の道路であるか)を示す属性である。位置属性は、案内経路を構成するそれぞれの道路における自位置との位置関係(出発地から自位置までの案内経路上の位置であるか、自位置であるか、自位置から目的地までの案内経路上の位置であるか)を示す属性である。   Here, the process execution unit 57 assigns different processes to each of the protruding members 20 according to the road R on the map, the specific facility Q, and the own position mark P. For the road R, the process execution unit 57 assigns different processes to the projecting members 20 according to attribute information that defines the attributes of the road R corresponding to the projecting members 20. The attribute information of the road R includes at least one information of a route attribute and a position attribute. The route attribute is whether or not the road constitutes a guide route from the departure point to the destination (whether the road constitutes the guide route from the departure point to the destination or a road other than the road constituting the guide route) Attribute). The position attribute is the positional relationship with the own position on each road that constitutes the guide route (the position on the guide route from the starting point to the own position, whether it is the own position, or the guide from the own position to the destination) This is an attribute indicating whether the position is on the route.

処理実行部57は、道路Rに対応させて突出状態とされた突出部材20に対しては、それぞれの属性に応じて異なる処理を割り当てる。すなわち、処理実行部57は、経路属性に応じて(案内経路を構成する道路であるか否かに応じて)異なる処理を突出部材20のそれぞれに割り当てる。また、処理実行部57は、経路属性が案内経路を構成する道路であることを示している場合には、更に位置属性に応じて(案内経路を構成するそれぞれの道路における自位置との位置関係に応じて)、異なる処理を突出部材20のそれぞれに割り当てる。   The process execution unit 57 assigns different processes to the projecting members 20 that are in a projecting state corresponding to the road R according to the respective attributes. That is, the process execution unit 57 assigns a different process to each of the projecting members 20 according to the route attribute (depending on whether the road constitutes the guide route). In addition, when the route attribute indicates that the road constitutes the guide route, the process execution unit 57 further determines the positional relationship with the own position on each road constituting the guide route. A different process is assigned to each of the protruding members 20.

本実施形態では、処理実行部57は、案内経路を構成する道路S以外の道路Tに対応する突出部材20に、当該突出部材20に対応する位置を通るように案内経路を再設定する経路再設定処理を割り当てる。図7は、この経路再設定処理の一例を示している。処理実行部57は、案内経路を構成する道路S以外の道路Tに対応する突出部材20が離隔操作されたことが検知された場合に、当該離隔操作された突出部材20に割り当てられた経路再設定処理を実行する。被検知物Dが、検知面11aに沿って移動してから、道路Tに対応させて低突出状態とされた突出部材20の位置で検知面11aから離れたことが検知されると、処理実行部57は、最後に接触された突出部材20に対応する位置を通るように、案内経路を再設定する。案内経路が再設定されると、それに応じて表示画面41に表示される画像が更新され、各突出部材20の突出の状態も更新される。   In the present embodiment, the process execution unit 57 resets the guide route to the projecting member 20 corresponding to the road T other than the road S constituting the guide route so as to pass the position corresponding to the projecting member 20. Assign configuration processing. FIG. 7 shows an example of this route resetting process. When it is detected that the projecting member 20 corresponding to the road T other than the road S constituting the guide route has been operated to be separated, the process execution unit 57 performs the route reassignment assigned to the separated projecting member 20. Execute the setting process. When it is detected that the object D has moved along the detection surface 11a and then moved away from the detection surface 11a at the position of the protruding member 20 corresponding to the road T, the protrusion member 20 is in a low protruding state. The part 57 resets the guide route so as to pass through a position corresponding to the projecting member 20 that is finally contacted. When the guide route is reset, the image displayed on the display screen 41 is updated accordingly, and the protruding state of each protruding member 20 is also updated.

また、処理実行部57は、自位置に対応する突出部材20に、マッチング処理(ここでは強制マッチング処理又は再マッチング処理)を割り当てる。ここで、強制マッチング処理は、自位置をマッチングさせる道路を強制的に修正する処理である。再マッチング処理は、その時点の最新の情報に基づいて自位置をマッチングさせる道路の再計算を行う処理である。処理実行部57は、自位置マークPに対応する突出部材20が離隔操作されたことが検知された場合には、その時点で自位置がマッチングされている道路に対して予め定められた距離内に並行道路が存在するか否かを確認する。並行道路が存在する場合には、処理実行部57は、強制マッチング処理を実行して、その並行道路に自位置をマッチングさせる。並行道路が存在しない場合には、処理実行部57は、再マッチング処理を実行する。   Further, the process execution unit 57 assigns a matching process (in this case, a forced matching process or a rematching process) to the protruding member 20 corresponding to its own position. Here, the compulsory matching process is a process for forcibly correcting a road whose own position is matched. The rematching process is a process of performing recalculation of roads that match their positions based on the latest information at that time. When it is detected that the projecting member 20 corresponding to the own position mark P has been separated, the process execution unit 57 is within a predetermined distance with respect to the road whose own position is matched at that time. Check if there are parallel roads. When there is a parallel road, the process execution unit 57 executes a forced matching process to match the position with the parallel road. When there is no parallel road, the process execution unit 57 executes a rematching process.

図8は、強制マッチング処理の一例を示している。図8では、自位置がマッチングされている道路(案内経路を構成する道路S)に対して予め設定された距離内に並行道路Uが並行している。処理実行部57は、自位置マークPに対応する突出部材20が離隔操作されたことが検知された場合に、当該離隔操作された突出部材20に割り当てられた処理(本例では強制マッチング処理)を実行する。被検知物Dが、検知面11aに沿って移動してから、自位置マークPに対応させて高突出状態とされた突出部材20の位置で検知面11aから離れたことが検知されると、処理実行部57は、並行道路Uに自位置を強制的にマッチングさせる。更に本実施形態では、その並行道路Uを通るように案内経路が再設定され、それに合わせて突出部材20の突出の状態も更新される。   FIG. 8 shows an example of forced matching processing. In FIG. 8, parallel roads U are parallel to each other within a predetermined distance with respect to a road whose own position is matched (a road S constituting the guide route). When it is detected that the protruding member 20 corresponding to the own position mark P is separated, the process execution unit 57 is a process assigned to the separated member 20 (forced matching process in this example). Execute. When it is detected that the detection object D moves along the detection surface 11a and then moves away from the detection surface 11a at the position of the protruding member 20 corresponding to the own position mark P and is in a high protruding state, The process execution unit 57 forcibly matches the position with the parallel road U. Further, in the present embodiment, the guide route is reset so as to pass through the parallel road U, and the protruding state of the protruding member 20 is updated accordingly.

また、処理実行部57は、自位置から目的地までの案内経路上の位置に対応する突出部材20に行先経路情報表示処理を割り当て、出発地から自位置までの案内経路上の位置に対応する突出部材20に通過経路情報表示処理を割り当てる。行先経路情報表示処理は、自位置から目的地までの案内経路に関する将来の情報(行先経路情報)を表示する処理である。行先経路情報には、例えば自位置から目的地までの距離、到達予想時刻、自位置から目的地に至るまでに通過する場所の天候等が含まれる。通過経路情報表示処理は、出発地から自位置までの案内経路に関する過去の情報(通過経路情報)を表示する処理である。通過経路情報には、例えば出発地から自位置までの距離、走行時間等が含まれる。   In addition, the process execution unit 57 assigns the destination route information display process to the protruding member 20 corresponding to the position on the guide route from the own position to the destination, and corresponds to the position on the guide route from the departure place to the own position. A passage route information display process is assigned to the protruding member 20. The destination route information display process is a process for displaying future information (destination route information) related to the guide route from its own position to the destination. The destination route information includes, for example, the distance from the own position to the destination, the expected arrival time, the weather of the place passing from the own position to the destination, and the like. The passing route information display process is a process of displaying past information (passing route information) regarding the guide route from the departure place to the own position. The passing route information includes, for example, the distance from the departure place to the own position, the traveling time, and the like.

図9は、行先経路情報表示処理の一例を示している。処理実行部57は、自位置から目的地までの案内経路を構成する道路Sに対応する突出部材20が離隔操作されたことが検知された場合に、当該離隔操作された突出部材20に割り当てられた行先経路情報表示処理を実行する。被検知物Dが、検知面11aに沿って移動してから、自位置よりも進行方向前方側の位置において、案内経路を構成する道路Sに対応させて高突出状態とされた突出部材20の位置で検知面11aから離れたことが検知されると、処理実行部57は、表示画面41に行先経路情報を表示させる。また、図10は、通過経路情報表示処理の一例を示している。処理実行部57は、出発地から自位置までの案内経路を構成する道路Sに対応する突出部材20が離隔操作されたことが検知された場合に、当該離隔操作された突出部材20に割り当てられた通過経路情報表示処理を実行する。被検知物Dが、検知面11aに沿って移動してから、自位置よりも進行方向後方側の位置において、案内経路を構成する道路Sに対応させて高突出状態とされた突出部材20の位置で検知面11aから離れたことが検知されると、処理実行部57は、表示画面41に通過経路情報を表示させる。なお、これらの行先経路情報及び通過経路情報を、音声出力装置88から音声として出力させるように構成しても良い。   FIG. 9 shows an example of the destination route information display process. When it is detected that the projecting member 20 corresponding to the road S constituting the guide route from its own position to the destination is operated to be separated, the process execution unit 57 is assigned to the separated projecting member 20. The destination route information display process is executed. After the detected object D moves along the detection surface 11a, the protruding member 20 which is in a high protruding state corresponding to the road S constituting the guide route at a position ahead of the own position in the traveling direction. When it is detected that the position is away from the detection surface 11a, the process execution unit 57 displays the destination route information on the display screen 41. FIG. 10 shows an example of the passage route information display process. When it is detected that the protruding member 20 corresponding to the road S constituting the guide route from the departure place to the own position is operated to be separated, the process execution unit 57 is assigned to the separated projecting member 20. The passing route information display process is executed. After the detected object D moves along the detection surface 11a, the protruding member 20 that is in a high protruding state corresponding to the road S that constitutes the guide route at a position on the rear side in the traveling direction from the own position. When it is detected that the position is away from the detection surface 11a, the process execution unit 57 displays the passage route information on the display screen 41. In addition, you may comprise so that these destination route information and passage route information may be output from the audio | voice output apparatus 88 as an audio | voice.

また、処理実行部57は、特定施設Qに対応する突出部材20に特定施設情報表示処理を割り当てる。特定施設情報表示処理は、目印となるべき特徴を有する特定施設Qに関する情報(特定施設情報)を表示する処理である。特定施設情報には、例えば名称、種別や属性、電話番号等の当該特定施設Qに関する各種情報が含まれる。このような特定施設情報表示処理を割り当てる特定施設Qとしては、周囲の施設に比べて広い面積を有する施設や、周囲の施設に比べて高背の施設等が適している。   Further, the process execution unit 57 assigns the specific facility information display process to the protruding member 20 corresponding to the specific facility Q. The specific facility information display process is a process of displaying information (specific facility information) regarding the specific facility Q having a characteristic to be a landmark. The specific facility information includes various types of information related to the specific facility Q such as name, type, attribute, and telephone number. As the specific facility Q to which such specific facility information display processing is assigned, a facility having a larger area than the surrounding facilities, a tall facility or the like compared to the surrounding facilities, and the like are suitable.

図11は、特定施設情報表示処理の一例を示している。処理実行部57は、特定施設Qに対応する突出部材20が離隔操作されたことが検知された場合に、当該離隔操作された突出部材20に割り当てられた特定施設情報表示処理を実行する。被検知物Dが、検知面11aに沿って移動してから、特定施設Qに対応させて高突出状態とされた突出部材20の位置で検知面11aから離れたことが検知されると、処理実行部57は、表示画面41に特定施設情報を表示させる。なお、この特定施設情報を、音声出力装置88から音声として出力させるように構成しても良い。   FIG. 11 shows an example of the specific facility information display process. When it is detected that the protruding member 20 corresponding to the specific facility Q has been separated, the process executing unit 57 executes a specific facility information display process assigned to the separated protruding member 20. When it is detected that the detection object D moves along the detection surface 11a and then moves away from the detection surface 11a at the position of the protruding member 20 corresponding to the specific facility Q, the protrusion member 20 is in a high protruding state. The execution unit 57 displays the specific facility information on the display screen 41. In addition, you may comprise so that this specific facility information may be output as an audio | voice from the audio | voice output apparatus 88. FIG.

また、処理実行部57は、操作標章44に対応する突出部材20に操作標章選択処理を割り当てる。操作標章選択処理は、特定の操作標章44に関連付けられた処理を選択して実行させる処理である。処理実行部57は、操作標章44に対応する突出部材20が離隔操作されたことが検知された場合に、当該離隔操作された突出部材20に割り当てられた操作標章選択処理を実行する。被検知物Dが、検知面11aに沿って移動してから、操作標章44に対応させて低突出状態とされた突出部材20の位置で検知面11aから離れたことが検知されると、処理実行部57は、その操作標章44に関連付けられた処理を実行させる。   Further, the process execution unit 57 assigns an operation mark selection process to the protruding member 20 corresponding to the operation mark 44. The operation mark selection process is a process for selecting and executing a process associated with a specific operation mark 44. When it is detected that the projecting member 20 corresponding to the operation mark 44 has been separated, the process execution unit 57 performs an operation mark selection process assigned to the projecting member 20 that has been separated. When it is detected that the detection object D moves along the detection surface 11a and then moves away from the detection surface 11a at the position of the protruding member 20 which is in a low protruding state corresponding to the operation mark 44, The process execution unit 57 causes the process associated with the operation mark 44 to be executed.

このように、処理実行部57は、突出状態とされた突出部材20のそれぞれに処理を割り当て、被検知物Dによって突出部材20が離隔操作されたことを検知した場合に、突出割当処理として、経路再設定処理、マッチング処理、行先経路情報表示処理、通過経路情報表示処理、特定施設情報表示処理、又は操作標章選択処理を択一的に実行可能である。   As described above, the process execution unit 57 assigns a process to each projecting member 20 in the projecting state, and detects that the projecting member 20 is separated by the detected object D. Route reset processing, matching processing, destination route information display processing, passage route information display processing, specific facility information display processing, or operation mark selection processing can be executed alternatively.

また、処理実行部57は、被検知物Dが、検知面11aに沿って移動してから、非突出状態とされた突出部材20の位置において検知面11aから離れたことを検知した場合に、検知面11aで検知される被検知物Dによる入力パターンに応じた処理を実行する。本実施形態では、処理実行部57は、表示画面41に表示された道路R、特定施設Q、自位置マークP、及び操作標章44以外の領域に対応させて非突出状態とされた突出部材20が位置する検知面11aの領域でシングルタッチ操作に伴う離隔操作が検知された場合には、処理実行部57は、検知面11a上でのスライド操作に応じて地図画像のスクロール処理を実行する。スクロール処理は、指定された地点(ここではで離隔操作が検知された位置に対応する地点)を中心とするように地図画像を再表示させる処理である。   In addition, when the process execution unit 57 detects that the detection object D has moved away from the detection surface 11a at the position of the protruding member 20 that has not been protruded after moving along the detection surface 11a, The process according to the input pattern by the to-be-detected object D detected by the detection surface 11a is performed. In the present embodiment, the process execution unit 57 is a projecting member that is brought into a non-projecting state in correspondence with areas other than the road R, the specific facility Q, the own position mark P, and the operation mark 44 displayed on the display screen 41. When the separation operation associated with the single touch operation is detected in the region of the detection surface 11a where 20 is located, the process execution unit 57 executes the scrolling process of the map image according to the slide operation on the detection surface 11a. . The scroll process is a process for redisplaying the map image so as to be centered on a designated point (here, a point corresponding to the position where the separation operation is detected).

また、処理実行部57は、検知面11aでピンチアウト操作がなされたことが検知された場合には、当該ピンチアウト操作による入力パターン(すなわち、複数の検知位置の間隔が広くなる入力パターン)に応じて拡大表示処理を実行する。拡大表示処理は、表示画面41に表示された画像を拡大して表示させる処理である。図12は、この拡大表示処理の一例を示している。本例では、処理実行部57は、表示画面41に表示されたその時点での画像の中心点を中心として、操作量に応じて拡大表示処理を実行する。このとき、操作量が大きくなるに従って(複数の検知位置の間隔がより広げられるに従って)拡大率が大きくなるように、表示画面41に表示された画像が拡大される。   Further, when it is detected that a pinch-out operation has been performed on the detection surface 11a, the processing execution unit 57 uses an input pattern (that is, an input pattern in which the intervals between a plurality of detection positions are widened) by the pinch-out operation. The enlarged display process is executed accordingly. The enlarged display process is a process for enlarging and displaying the image displayed on the display screen 41. FIG. 12 shows an example of this enlarged display process. In this example, the process execution unit 57 executes an enlarged display process according to the operation amount, with the center point of the image displayed on the display screen 41 at that time as the center. At this time, the image displayed on the display screen 41 is enlarged so that the enlargement ratio increases as the operation amount increases (as the interval between the plurality of detection positions is further increased).

また、処理実行部57は、検知面11aでピンチイン操作がなされたことが検知された場合には、当該ピンチイン操作による入力パターン(すなわち、複数の検知位置の間隔が狭くなる入力パターン)に応じて縮小表示処理を実行する。縮小表示処理は、表示画面41に表示された画像を縮小して表示させる処理である。図13は、この縮小表示処理の一例を示している。本例では、処理実行部57は、表示画面41に表示されたその時点での画像の中心点を中心として、操作量に応じて縮小表示処理を実行する。このとき、操作量が大きくなるに従って(複数の検知位置の間隔がより狭められるに従って)拡大率が小さくなるように、表示画面41に表示された画像が縮小される。   In addition, when it is detected that a pinch-in operation has been performed on the detection surface 11a, the processing execution unit 57 responds to an input pattern by the pinch-in operation (that is, an input pattern in which the intervals between a plurality of detection positions are narrowed). Perform reduced display processing. The reduced display process is a process for reducing and displaying the image displayed on the display screen 41. FIG. 13 shows an example of the reduced display processing. In this example, the process execution unit 57 executes a reduced display process according to the operation amount, with the center point of the image displayed on the display screen 41 at that time as the center. At this time, the image displayed on the display screen 41 is reduced so that the enlargement ratio decreases as the operation amount increases (as the interval between the plurality of detection positions becomes narrower).

このように、処理実行部57は、検知面11aで検知される複数の被検知物Dによる入力パターンが予め規定された基準パターンに合致する場合に、パターン入力処理として、拡大表示処理又は縮小表示処理を択一的に実行可能である。   As described above, the process execution unit 57 performs the enlarged display process or the reduced display as the pattern input process when the input pattern by the plurality of detection objects D detected by the detection surface 11a matches the reference pattern defined in advance. Processing can be performed alternatively.

ところで、本実施形態では、処理実行部57は、突出割当処理を実行可能であるとともに、パターン入力処理をも実行可能に構成されているので、場合によっては2つの処理が競合することがある。例えば、ピンチアウト操作を行ったことによって一方の指先等が突出状態とされた突出部材20に触れた後にそのピンチアウト操作が終了された場合には、拡大表示処理と、最後に接触された突出部材20に割り当てられた突出割当処理とが競合する。このような場合、本実施形態では、処理実行部57は、複数の被検知物Dによる入力パターンが基準パターンに合致する場合には、突出部材20が離隔操作されたことを検知した場合であっても、突出割当処理を実行することなくパターン入力処理を実行する。すなわち、処理実行部57は、突出割当処理に対してパターン入力処理を優先的に実行する。   By the way, in this embodiment, since the process execution part 57 is comprised so that a protrusion allocation process can be performed and a pattern input process is also executable, two processes may compete in some cases. For example, when the pinch-out operation is finished after the one fingertip or the like has touched the protruding member 20 due to the pinch-out operation, the enlarged display process and the last touched protrusion The protrusion assignment process assigned to the member 20 competes. In such a case, in the present embodiment, the process execution unit 57 is a case where it is detected that the protruding member 20 has been separated when the input pattern by the plurality of detection objects D matches the reference pattern. However, the pattern input process is executed without executing the protrusion assignment process. That is, the process execution unit 57 preferentially executes the pattern input process with respect to the protrusion assignment process.

マルチタッチ操作において相対位置関係が略一定に保たれる場合には、ユーザーは他の指先等が検知面11aに接触した状態で検知面11aを操作している等、意図せず複数の指先等で検知面11aを操作した状態となっている可能性があると推測される。一方、マルチタッチ操作において相対位置関係が変化する場合には、ユーザーは何らかの意思をもって複数の指先等で検知面11aを操作している可能性が高いと推測される。このため、複数の被検知物Dの検知面11aでの検知位置の相対位置関係が変化するパターンを「基準パターン」とすることで、ユーザーの意思を反映していると推定される入力パターンのみを選別して、それに対応するパターン入力処理を実行させることができる。   When the relative positional relationship is kept substantially constant in the multi-touch operation, the user is operating the detection surface 11a while another fingertip or the like is in contact with the detection surface 11a. It is estimated that there is a possibility that the detection surface 11a is operated. On the other hand, when the relative positional relationship is changed in the multi-touch operation, it is estimated that the user is likely to operate the detection surface 11a with a plurality of fingertips or the like with some intention. For this reason, only the input pattern that is estimated to reflect the user's intention by setting the pattern in which the relative positional relationship of the detection positions on the detection surface 11a of the plurality of detection objects D changes as a “reference pattern”. Can be selected and a pattern input process corresponding to it can be executed.

なお、処理実行部57は、マルチタッチ操作による入力パターンが基準パターンに合致しない場合には、パターン入力処理を実行しない。このとき、マルチタッチ操作を行った少なくとも一方の指先等が、同時に、突出状態とされた突出部材20に対して離隔操作をも行った場合には、処理実行部57は、その突出部材20に割り当てられた突出割当処理を実行する。図14には、そのような状況で実行される経路再設定処理の一例を示している。これは、マルチタッチ操作において相対位置関係が略一定に保たれる場合には、ユーザーはシングルタッチ操作を意図しながらも、意図せず他の指先等が検知面11aに接触した状態となっている可能性があると推測されるからである。よって、そのような場合には、ユーザーの本来の意図を極力反映させるように、最後に離隔操作された突出部材20に割り当てられた突出割当処理を実行する。   The process execution unit 57 does not execute the pattern input process when the input pattern by the multi-touch operation does not match the reference pattern. At this time, when at least one fingertip or the like that has performed the multi-touch operation also simultaneously performs the separation operation on the protruding member 20 that is in the protruding state, the process execution unit 57 causes the protruding member 20 to Execute the assigned protrusion assignment process. FIG. 14 shows an example of the route resetting process executed in such a situation. This is because, when the relative positional relationship is kept substantially constant in the multi-touch operation, the user intends the single touch operation but unintentionally touches the detection surface 11a with another fingertip or the like. This is because it is assumed that there is a possibility. Therefore, in such a case, the projecting assignment process assigned to the projecting member 20 that is finally separated is executed so as to reflect the original intention of the user as much as possible.

更に本実施形態では、処理実行部57は、マルチタッチ操作による入力パターンが基準パターンに合致せず、突出状態とされた突出部材20に対する離隔操作も検知されなかった場合には、検知面11aで検知される被検知物Dによる入力パターンに応じた処理を実行する。本例では、検知面11a上でのスライド操作(なぞり操作)に応じて地図画像のスクロール処理を実行する。   Furthermore, in this embodiment, the process execution unit 57 uses the detection surface 11a when the input pattern by the multi-touch operation does not match the reference pattern and the separation operation on the protruding member 20 in the protruding state is not detected. Processing according to the input pattern by the detected object D to be detected is executed. In this example, a map image scroll process is executed in response to a slide operation (tracing operation) on the detection surface 11a.

4.入力システムの処理
本実施形態に係る入力システム3による処理について、図15〜図19を参照して説明する。以下に説明する処理は、操作入力演算部50の各機能部を構成するハードウェア又はソフトウェア(プログラム)或いはその両方により実行される。上記の各機能部がプログラムにより構成される場合には、操作入力演算部50を含む制御演算部6が有する演算処理装置が、各機能部を構成するプログラムを実行するコンピュータとして動作する。
4). Processing of Input System Processing performed by the input system 3 according to the present embodiment will be described with reference to FIGS. The processing described below is executed by hardware or software (program) or both constituting each functional unit of the operation input calculation unit 50. When each of the above functional units is configured by a program, the arithmetic processing device included in the control arithmetic unit 6 including the operation input arithmetic unit 50 operates as a computer that executes the program configuring each functional unit.

図15に示すように、まず表示画像イメージが作成される(ステップ#01)。本例では、主に道路R、特定施設Q、自位置マークP、及び操作標章44等を含む地図画像イメージが作成される。そして、突出状態設定処理が実行される(#02)。   As shown in FIG. 15, a display image is first created (step # 01). In this example, a map image image mainly including the road R, the specific facility Q, the own position mark P, the operation mark 44, and the like is created. Then, the protruding state setting process is executed (# 02).

図16に示すように、突出状態設定処理では、自位置決定部71により自位置が決定される(ステップ#21)。決定された自位置に基づいて、現在位置周辺の地図画像及び地図内容に係る情報が地図データベース85から取得される(#22,#23)。取得された地図画像及び地図内容に係る情報に基づいて、自位置を中心とするターンリストが作成される(#24)。地図画像に基づいて、ターンリストに接続される分岐点と分岐経路とを含む分岐経路リストが作成される(#25)。地図内容に係る情報に基づいて、ターンリストに載せる特定施設Qが抽出され、施設リストが作成される(#26)。   As shown in FIG. 16, in the protruding state setting process, the own position is determined by the own position determining unit 71 (step # 21). Based on the determined own position, the map image around the current position and information related to the map contents are acquired from the map database 85 (# 22, # 23). Based on the acquired map image and information related to the map contents, a turn list centered on the own position is created (# 24). Based on the map image, a branch route list including a branch point and a branch route connected to the turn list is created (# 25). Based on the information relating to the map contents, the specific facility Q to be put on the turn list is extracted, and the facility list is created (# 26).

ステップ#24で設定されたターンリストに基づいて、案内経路に対応する突出部材20の突出の状態が設定される(#27)。また、ステップ#25で設定された分岐経路リストに基づいて、分岐経路に対応する突出部材20の突出の状態が設定される(#28)。更に、ステップ#26で設定された施設リストに基づいて、特定施設Qに対応する突出部材20の突出の状態が設定される(#29)。また、ステップ#21で決定された自位置を表示する自位置マークPを表す突出部材20の突出の状態が設定される(#30)。ステップ#27〜#30で設定されたそれぞれの突出部材20の突出の状態を合成し、全体的な突出部材20の突出の状態が設定される(#31)。このとき、表示画面41に操作標章44が表示される場合には、当該操作標章44に対応する突出部材20の突出の状態も設定される。以上で、突出状態設定処理を終了する。   Based on the turn list set in step # 24, the protruding state of the protruding member 20 corresponding to the guide route is set (# 27). Further, based on the branch path list set in step # 25, the protruding state of the protruding member 20 corresponding to the branch path is set (# 28). Further, based on the facility list set in step # 26, the protruding state of the protruding member 20 corresponding to the specific facility Q is set (# 29). Further, the protruding state of the protruding member 20 representing the own position mark P that displays the own position determined in step # 21 is set (# 30). The protruding state of each protruding member 20 set in steps # 27 to # 30 is synthesized, and the protruding state of the entire protruding member 20 is set (# 31). At this time, when the operation mark 44 is displayed on the display screen 41, the protruding state of the protruding member 20 corresponding to the operation mark 44 is also set. Thus, the protruding state setting process is completed.

突出状態設定処理が終了すると、図15に戻り、ステップ#01で作成された表示画像イメージに基づいて表示画面41に画像が表示され、またステップ#31で合成された突出の状態に基づいて突出部材20が進退駆動される(#03)。これにより、表示画面41に表示されている道路R、特定施設Q、自位置マークP、及び操作標章44に対応する突出部材20が高突出状態又は低突出状態とされる。この状態で、入力判定処理が実行される(#04)。   When the projecting state setting process is completed, the process returns to FIG. 15, and an image is displayed on the display screen 41 based on the display image image created in step # 01, and the projecting state is projected based on the projecting state synthesized in step # 31. The member 20 is driven back and forth (# 03). As a result, the projecting member 20 corresponding to the road R, the specific facility Q, the own position mark P, and the operation mark 44 displayed on the display screen 41 is set to a high projecting state or a low projecting state. In this state, the input determination process is executed (# 04).

図17に示すように、入力判定処理では、検知面11aに対する何らかの操作が検知されると(ステップ#41:Yes)、それがシングルタッチ操作であるか否かが判定される(#42)。マルチタッチ操作である場合において(#42:No)、複数の検知位置の相対位置関係が変化する場合には(#43:Yes)、更にその変化方向が判定される(#44)。互いに近づくように相対移動していれば(#44:Yes)、処理実行部57はナビゲーション用演算部70に対して縮小表示処理を実行するように指示する(#45)。互いに遠ざかるように相対移動していれば(#44:No)、処理実行部57はナビゲーション用演算部70に対して拡大表示処理を実行するように指示する(#46)。   As shown in FIG. 17, in the input determination process, when any operation on the detection surface 11a is detected (step # 41: Yes), it is determined whether or not it is a single touch operation (# 42). In the case of a multi-touch operation (# 42: No), when the relative positional relationship of a plurality of detection positions changes (# 43: Yes), the change direction is further determined (# 44). If they have moved relative to each other (# 44: Yes), the process execution unit 57 instructs the navigation calculation unit 70 to execute the reduced display process (# 45). If they have moved relative to each other (# 44: No), the process execution unit 57 instructs the navigation calculation unit 70 to execute the enlarged display process (# 46).

検知面11aに対する操作がシングルタッチ操作である場合(#42:Yes)、又は、マルチタッチ操作による複数の検知位置の相対位置関係が変化しない場合には(#43:No)、更にそれらの操作の終了位置が判定される(#47)。操作終了位置が突出状態とされた突出部材20の位置でなければ(#47:No)、検知面11a上でのなぞり操作に応じて、処理実行部57はナビゲーション用演算部70に対してスクロール処理を実行するように指示する(#48)。一方、操作終了位置が突出状態とされた突出部材20の位置であれば(#47:Yes)、突出割当処理が実行される(#49)。   When the operation on the detection surface 11a is a single touch operation (# 42: Yes), or when the relative positional relationship between a plurality of detection positions by the multi-touch operation does not change (# 43: No), these operations are further performed. Is determined (# 47). If the operation end position is not the position of the protruding member 20 in the protruding state (# 47: No), the process execution unit 57 scrolls with respect to the navigation calculation unit 70 according to the tracing operation on the detection surface 11a. The process is instructed to be executed (# 48). On the other hand, if the operation end position is the position of the protruding member 20 in the protruding state (# 47: Yes), the protrusion allocation process is executed (# 49).

図18及び図19に示すように、突出割当処理では、最後に接触された突出部材20がターンリスト上のものであれば(ステップ#51:No)、更にその位置の詳細が判定される。最後に接触されたのが自位置に対応する突出部材20であり(#52:Yes)、案内経路から所定距離内に並行道路があれば(#53:Yes)、処理実行部57はナビゲーション用演算部70に対して強制マッチング処理を実行するように指示する(#54)。案内経路から所定距離内に並行道路がなければ(#53:No)、処理実行部57はナビゲーション用演算部70に対して再マッチング処理を実行するように指示する(#55)。   As shown in FIGS. 18 and 19, in the projecting assignment process, if the projecting member 20 that is contacted last is on the turn list (step # 51: No), the details of the position are further determined. When the projecting member 20 corresponding to its own position touched last (# 52: Yes) and there is a parallel road within a predetermined distance from the guide route (# 53: Yes), the process execution unit 57 is used for navigation. The operation unit 70 is instructed to execute the forced matching process (# 54). If there is no parallel road within a predetermined distance from the guide route (# 53: No), the process execution unit 57 instructs the navigation calculation unit 70 to execute the rematching process (# 55).

最後に接触されたのが出発地から自位置までの間の案内経路に対応する突出部材20であれば(#56:Yes)、処理実行部57はナビゲーション用演算部70に対して通過経路情報表示処理を実行するように指示する(#57)。最後に接触されたのが自位置から目的地までの間の案内経路に対応する突出部材20であれば(#56:No)、処理実行部57はナビゲーション用演算部70に対して行先経路情報表示処理を実行するように指示する(#58)。   If the last contacted is the protruding member 20 corresponding to the guide route from the departure place to the own position (# 56: Yes), the process execution unit 57 sends the passage route information to the navigation calculation unit 70. An instruction is given to execute the display process (# 57). If the last contact is the protruding member 20 corresponding to the guide route from its own position to the destination (# 56: No), the process execution unit 57 sends the destination route information to the navigation calculation unit 70. An instruction is given to execute the display process (# 58).

最後に接触されたのがターンリスト上の突出部材20ではない場合において(#51:Yes)、分岐経路上の突出部材20である場合には(#59:No)、処理実行部57はナビゲーション用演算部70に対して経路再探索処理を実行するように指示する(#60)。ここでは、最後に接触された突出部材20に対応する地点を案内経路が通るように、経路再探索処理を実行するように指示する。また、最後に接触されたのがターンリスト上の突出部材20ではなく、分岐経路上のものでもない場合において(#52:Yes,#59:Yes)、特定施設Q上の突出部材20である場合には(#61:Yes)、処理実行部57はナビゲーション用演算部70に対して特定施設情報表示処理を実行するように指示する(#62)。   When it is not the projecting member 20 on the turn list that is finally contacted (# 51: Yes), and when the projecting member 20 is on the branch path (# 59: No), the process execution unit 57 performs navigation. The operation unit 70 is instructed to execute the route re-search process (# 60). Here, it is instructed to execute the route re-search process so that the guide route passes through the point corresponding to the projecting member 20 that has been contacted last. Further, when the last contact is not the protruding member 20 on the turn list, nor the branching path (# 52: Yes, # 59: Yes), it is the protruding member 20 on the specific facility Q. In this case (# 61: Yes), the process execution unit 57 instructs the navigation calculation unit 70 to execute the specific facility information display process (# 62).

処理実行部57により実行するように指示された各処理がナビゲーション装置1で実行可能な処理であれば(#63:Yes)、ナビゲーション用演算部70は処理を実行し(#64)、突出割当処理を終了する。一方、ナビゲーション装置1で実行可能な処理でなければ(#63:No)、ナビゲーション用演算部70は処理を実行することなく突出割当処理を終了する。なお、離隔操作により最後に接触された突出部材20がターンリスト上、分岐経路上、及び特定施設Q上のいずれのものでもない場合には(#51:Yes,#59:Yes,#61:No)、本例では操作標章44に関連付けられた処理を実行させる操作標章選択処理が実行される(#66)。その後、突出割当処理を終了する。そして、図17に戻り、入力判定処理を終了する。   If each process instructed to be executed by the process execution unit 57 is a process that can be executed by the navigation device 1 (# 63: Yes), the navigation calculation unit 70 executes the process (# 64), and the projecting allocation is performed. The process ends. On the other hand, if the process is not executable by the navigation device 1 (# 63: No), the navigation calculation unit 70 ends the protrusion assignment process without executing the process. In addition, when the projecting member 20 that is finally contacted by the separation operation is not on the turn list, the branch path, or the specific facility Q (# 51: Yes, # 59: Yes, # 61: No) In this example, an operation mark selection process for executing the process associated with the operation mark 44 is executed (# 66). Thereafter, the protrusion assignment process is terminated. Then, returning to FIG. 17, the input determination process is terminated.

入力判定処理が終了すると、図15に戻り、表示画面41における表示画像の変更の有無が判定される(#05)。画面遷移がない場合には(#05:No)、再度入力判定処理を実行する。一方、例えば入力判定処理の結果として案内経路が変更された場合や強制的に自位置が補正された場合、自位置の移動により地図画像が更新された場合等により画面遷移があった場合には(#05:Yes)、処理を終了する。なお、変更後の表示画像に対して再度ステップ#01以降の処理が実行される。以上の処理が逐次繰り返して実行される。   When the input determination process ends, the process returns to FIG. 15 to determine whether or not the display image on the display screen 41 has been changed (# 05). If there is no screen transition (# 05: No), the input determination process is executed again. On the other hand, when there is a screen transition, for example, when the guidance route is changed as a result of the input determination process, when the own position is forcibly corrected, or when the map image is updated due to movement of the own position, etc. (# 05: Yes), the process is terminated. Note that the processing from step # 01 is executed again on the display image after the change. The above processing is repeatedly executed repeatedly.

本実施形態では、表示画面41の座標と検知面11aの座標とが対応付けられ、表示画面41に表示されている道路R、特定施設Q、自位置マークP、及び操作標章44に対応する突出部材20が突出状態とされる。特に本実施形態では、道路Rや自位置マークPが表示画面41に表示されている場合に、当該道路Rや自位置マークPに対応する突出部材20が突出状態とされる。これにより、ユーザーは、表示画面41に表示される道路R等の形状と、触覚により認識される突出状態にある複数の突出部材20の先端部の集合により形成される集合形状とを、意識の中で対比させて容易に関連付けることができる。このとき、自位置との関係も考慮することで、関連付けを容易に行うことができる。その結果、ユーザーは、表示画面41を注視することなく、特定の位置における検知面11aへの所定操作を容易に行うことができる。   In the present embodiment, the coordinates of the display screen 41 and the coordinates of the detection surface 11a are associated with each other and correspond to the road R, the specific facility Q, the own position mark P, and the operation mark 44 displayed on the display screen 41. The protruding member 20 is in a protruding state. In particular, in the present embodiment, when the road R and the own position mark P are displayed on the display screen 41, the protruding member 20 corresponding to the road R and the own position mark P is set in the protruding state. Thus, the user can recognize the shape of the road R and the like displayed on the display screen 41 and the aggregate shape formed by the aggregate of the tip portions of the plurality of projecting members 20 in the projecting state recognized by tactile sense. It can be easily correlated in contrast. At this time, the association can be easily performed by considering the relationship with the own position. As a result, the user can easily perform a predetermined operation on the detection surface 11a at a specific position without gazing at the display screen 41.

そして、ユーザーは、検知面11aに沿って指先等を移動させ、突出状態の突出部材20を触覚認識した後、指先等を検知面11aから離す離隔操作を行うだけで、最後に接触された突出部材20に割り当てられた処理を実行させることができる。すなわち、触感を頼りに検知面11aにおける目的の位置に到達したことを認識した後、指先等を検知面11aから離すこと以外の特別な操作を何ら要することなく、目的の処理を実行させることができる。また、検知面11aへの最初の接触位置が振動等によって目的の位置とは異なっていた場合であっても、指先等を目的の位置にまで移動させた後に検知面11aから離すことにより、目的の処理を実行させることができる。よって、利便性に優れた入力システム3を実現することができる。   Then, after the user moves the fingertip or the like along the detection surface 11a and tactilely recognizes the protruding projecting member 20, the user only performs a separation operation to separate the fingertip or the like from the detection surface 11a. The process assigned to the member 20 can be executed. That is, after recognizing that the target position on the detection surface 11a has been reached by relying on the tactile sensation, the target process can be executed without requiring any special operation other than separating the fingertip or the like from the detection surface 11a. it can. Even if the initial contact position on the detection surface 11a differs from the target position due to vibration or the like, by moving the fingertip or the like to the target position and then moving it away from the detection surface 11a, Can be executed. Therefore, the input system 3 excellent in convenience can be realized.

また、本実施形態では、ユーザーは、最後に接触された突出部材20に対応する道路の経路属性に応じて、更には、経路属性が案内経路を構成する道路であることを示している場合には位置属性にも応じて、異なる突出割当処理を実行させることができる。具体的には、経路属性及び位置属性の少なくとも一方の情報に応じて、経路再探索処理、強制マッチング処理、再マッチング処理、通過経路情報表示処理、及び行先経路情報表示処理の中から選択される突出割当処理を実行させることができる。従って、表示画面41を注視することなく、ナビゲーションにおいて重要な情報となる道路属性に応じて、必要な処理を適切に実行させることができる。   Further, in the present embodiment, the user further indicates that the route attribute indicates a road constituting the guide route according to the route attribute of the road corresponding to the projecting member 20 that is last touched. Depending on the position attribute, different protrusion assignment processes can be executed. Specifically, the route is selected from route re-search processing, forced matching processing, re-matching processing, passing route information display processing, and destination route information display processing according to information of at least one of the route attribute and the position attribute. The protrusion assignment process can be executed. Therefore, it is possible to appropriately execute necessary processing in accordance with road attributes that are important information in navigation without paying attention to the display screen 41.

また、本実施形態では、処理実行部57は、複数の被検知物Dによる入力パターンが基準パターンに合致する場合には、突出部材20が操作されたことを検知した場合であっても、突出割当処理を実行することなくパターン入力処理を実行する。よって、突出割当処理とパターン入力処理とが競合する場合には、パターン入力処理を優先的に実行する構成とすることで、全体としての処理を円滑に実行させることができる。   Further, in the present embodiment, the process execution unit 57 protrudes even when it is detected that the protruding member 20 is operated when the input pattern by the plurality of detection objects D matches the reference pattern. The pattern input process is executed without executing the allocation process. Therefore, when the protrusion assignment process and the pattern input process compete, the overall process can be smoothly executed by adopting a configuration in which the pattern input process is executed with priority.

5.その他の実施形態
最後に、本発明に係る入力システムの、その他の実施形態について説明する。なお、以下のそれぞれの実施形態で開示される構成は、矛盾が生じない限り、他の実施形態で開示される構成と組み合わせて適用することも可能である。
5. Other Embodiments Finally, other embodiments of the input system according to the present invention will be described. Note that the configurations disclosed in the following embodiments can be applied in combination with the configurations disclosed in other embodiments as long as no contradiction arises.

(1)上記の実施形態では、突出割当処理に対してパターン入力処理を優先させるための判定基準となる「基準パターン」が、複数の被検知物Dの検知面11aでの検知位置の相対位置関係が変化するパターン(具体的には、ピンチ操作による入力パターン)である構成を例として説明した。しかし、本発明の実施形態はこれに限定されない。例えば、複数の被検知物Dの検知位置が、相対位置関係が一定のままで移動するパターン(平行移動による入力パターン)も「基準パターン」に含まれても良い。 (1) In the above embodiment, the “reference pattern” serving as a determination reference for giving priority to the pattern input process over the protrusion assignment process is the relative position of the detection position on the detection surface 11a of the plurality of detection objects D. A configuration in which the relationship changes (specifically, an input pattern by a pinch operation) has been described as an example. However, the embodiment of the present invention is not limited to this. For example, a pattern (input pattern by parallel movement) in which the detection positions of a plurality of detection objects D move with the relative positional relationship being constant may be included in the “reference pattern”.

(2)上記の実施形態では、「基準パターン」に合致しないマルチタッチ操作がなされた場合には、処理実行部57は、その操作終了位置に応じて突出割当処理又はスクロール処理を実行する構成を例として説明した。しかし、本発明の実施形態はこれに限定されない。例えば、そのような場合において、検知面11aにおける非突出状態の突出部材20の位置で操作が終了したことが検知された場合には、処理実行部57は、その操作を無効と判定する構成としても良い。この場合、処理実行部57は当該操作に応じて何の処理も実行しない構成とすることができる。 (2) In the above embodiment, when a multi-touch operation that does not match the “reference pattern” is performed, the process execution unit 57 performs a projecting assignment process or a scroll process according to the operation end position. Described as an example. However, the embodiment of the present invention is not limited to this. For example, in such a case, when it is detected that the operation is completed at the position of the non-projecting protruding member 20 on the detection surface 11a, the process execution unit 57 determines that the operation is invalid. Also good. In this case, the process execution unit 57 can be configured not to execute any process in response to the operation.

(3)上記の実施形態では、処理実行部57が突出割当処理を実行するための判定基準が、突出状態とされた突出部材20に対する離隔操作が判定されたこととされている構成を例として説明した。しかし、本発明の実施形態はこれに限定されない。例えば突出状態とされた突出部材20に対する押込操作が判定されたことをその判定基準としても良い。すなわち、処理実行部57が、突出状態とされた突出部材20に対する押込操作が判定された場合に、当該押込操作がなされた突出部材20に割り当てられた突出割当処理を実行する構成としても良い。また、判定基準操作が、道路R、特定施設Q、自位置マークP、及び操作標章44毎に、離隔操作、押込操作、タッチ操作、タップ操作、及びスライド操作の中から設定されても良い。 (3) In the above-described embodiment, a configuration in which the separation operation for the protruding member 20 in the protruding state is determined as the determination criterion for the process execution unit 57 to execute the protrusion allocation process is taken as an example. explained. However, the embodiment of the present invention is not limited to this. For example, the determination criterion may be that the pushing operation on the protruding member 20 in the protruding state is determined. That is, the process execution unit 57 may execute the protrusion assignment process assigned to the protruding member 20 on which the pushing operation is performed when the pushing operation on the protruding member 20 in the protruding state is determined. Further, the determination reference operation may be set from a separation operation, a push operation, a touch operation, a tap operation, and a slide operation for each of the road R, the specific facility Q, the own position mark P, and the operation mark 44. .

(4)上記の実施形態では、道路Rの属性情報には経路属性が含まれ、その経路属性が案内経路を構成する道路であることを示している場合には更に位置属性が含まれる構成を例として説明した。しかし、本発明の実施形態はこれに限定されない。道路Rの属性情報には経路属性のみが含まれるように構成しても良いし、経路属性及び位置属性の双方を含まないように構成しても良い。 (4) In the above embodiment, the route R attribute information includes a route attribute, and when the route attribute indicates a road constituting a guide route, the position attribute is further included. Described as an example. However, the embodiment of the present invention is not limited to this. The attribute information of the road R may be configured to include only the route attribute, or may be configured not to include both the route attribute and the position attribute.

(5)上記の実施形態では、処理実行部57が、突出割処理として、最後に接触された突出部材20に対応する道路R(案内経路を構成する道路S及びそれ以外の道路T)、特定施設Q、自位置マークP、及び操作標章44に応じて、当経路再設定処理、マッチング処理、行先経路情報表示処理、通過経路情報表示処理、特定施設情報表示処理、及び操作標章選択処理のいずれかの処理を実行する構成を例として説明した。しかし、本発明の実施形態はこれに限定されない。これらの処理の割り当ては単なる一例であって、上記の実施形態とは異なる内容の処理を割り当てても良いし、上記の実施形態で説明した処理のうちの1つ以上を全く割り当てない構成としても良い。 (5) In the above embodiment, the process execution unit 57 specifies the road R (the road S constituting the guide route and the other roads T) corresponding to the projecting member 20 that has been contacted last as the projecting split process. According to the facility Q, the own position mark P, and the operation mark 44, the route resetting process, the matching process, the destination route information display process, the passing route information display process, the specific facility information display process, and the operation mark selection process The configuration for executing any one of the processes has been described as an example. However, the embodiment of the present invention is not limited to this. The assignment of these processes is merely an example, and a process having contents different from those in the above embodiment may be assigned, or one or more of the processes described in the above embodiment may not be assigned at all. good.

(6)上記の実施形態では、駆動機構30が圧電素子31を備える構成を例として説明した。しかし、本発明の実施形態はこれに限定されない。突出方向Zに沿って突出部材20を進退動作させて、突出部材20を突出状態と非突出状態との間で移動させることが可能な機構であれば、駆動機構30の具体的構成は任意である。 (6) In the above embodiment, the configuration in which the drive mechanism 30 includes the piezoelectric element 31 has been described as an example. However, the embodiment of the present invention is not limited to this. As long as the mechanism can move the projecting member 20 between the projecting state and the non-projecting state by moving the projecting member 20 forward and backward along the projecting direction Z, the specific configuration of the drive mechanism 30 is arbitrary. is there.

(7)上記の実施形態では、全ての構成が車両に搭載された車載用のナビゲーション装置1(ナビゲーションシステムの一例)に対する操作入力を行うための入力システム3を例として説明した。しかし、本発明の実施形態はこれに限定されない。すなわち、例えば上記の実施形態において説明したナビゲーション装置1の各構成がサーバ装置と車載端末装置とに分かれて備えられたクライアント/サーバ型のナビゲーションシステムや、ノート型パーソナルコンピュータ、携帯電話、スマートフォン等の他のシステム又は機器も、本発明に係る入力システム3による操作入力の対象となり得る。 (7) In the above embodiment, the input system 3 for performing operation input to the in-vehicle navigation device 1 (an example of the navigation system) in which all the configurations are mounted on the vehicle has been described as an example. However, the embodiment of the present invention is not limited to this. That is, for example, each configuration of the navigation device 1 described in the above embodiment is divided into a server device and an in-vehicle terminal device, a client / server type navigation system, a notebook personal computer, a mobile phone, a smartphone, etc. Other systems or devices can also be targets for operation input by the input system 3 according to the present invention.

(8)その他の構成に関しても、本明細書において開示された実施形態は全ての点で例示であって、本発明の実施形態はこれに限定されない。すなわち、本願の特許請求の範囲に記載されていない構成に関しては、本発明の目的を逸脱しない範囲内で適宜改変することが可能である。 (8) Regarding other configurations as well, the embodiments disclosed herein are illustrative in all respects, and the embodiments of the present invention are not limited thereto. In other words, configurations that are not described in the claims of the present application can be modified as appropriate without departing from the object of the present invention.

本発明は、タッチパッド等の入力装置を備えた入力システムに利用することができる。   The present invention can be used for an input system including an input device such as a touch pad.

3 :入力システム
4 :入力装置
11a :検知面
20 :突出部材
40 :表示装置
41 :表示画面
53 :突出制御部
57 :処理実行部
71 :自位置決定部
D :被検知物
R :道路
3: Input system 4: Input device 11a: Detection surface 20: Protruding member 40: Display device 41: Display screen 53: Protrusion control unit 57: Processing execution unit 71: Own position determining unit D: Detected object R: Road

Claims (5)

表示画面に各種画像を表示可能な表示装置と、
接触する被検知物を検知する検知面と、前記検知面に沿って所定の規則で配列されて前記検知面からそれぞれ独立して突出可能に設けられた複数の突出部材と、を有する入力装置と、
前記表示画面に地図画像が表示されている場合に、当該地図画像に対応させて前記突出部材を突出した状態とする突出制御部と、
前記突出した状態とされた前記突出部材のそれぞれに処理を割り当て、前記被検知物によって前記突出部材が操作されたことを検知した場合に、当該操作された突出部材に割り当てられた処理である突出割当処理を実行可能であるとともに、前記検知面で検知される複数の前記被検知物による入力パターンが予め規定された基準パターンに合致する場合に、当該入力パターンに応じた処理であるパターン入力処理を実行可能な処理実行部と、を備え、
前記処理実行部は、前記入力パターンが前記基準パターンに合致する場合には、前記突出部材が操作されたことを検知した場合であっても、前記突出割当処理を実行することなく前記パターン入力処理を実行する入力システム。
A display device capable of displaying various images on a display screen;
An input device comprising: a detection surface that detects an object to be detected; and a plurality of protruding members that are arranged along a predetermined rule along the detection surface and that can protrude independently from the detection surface; ,
When a map image is displayed on the display screen, a projecting control unit configured to project the projecting member corresponding to the map image;
A process is assigned to each of the projecting members that are in the projecting state, and a process assigned to the operated projecting member when it is detected that the projecting member has been operated by the object to be detected. A pattern input process which is a process according to the input pattern when the input pattern by the plurality of detected objects detected on the detection surface matches a predetermined reference pattern and can execute the allocation process A process execution unit capable of executing
When the input pattern matches the reference pattern, the process execution unit performs the pattern input process without executing the protrusion assignment process even when it is detected that the protruding member has been operated. Run the input system.
前記処理実行部は、前記入力パターンが前記基準パターンに合致しない場合であって、前記突出部材が操作されたことが検知された場合は、前記突出割当処理を実行する請求項1に記載の入力システム。   The input according to claim 1, wherein the process execution unit executes the protrusion assignment process when the input pattern does not match the reference pattern and it is detected that the protrusion member has been operated. system. 前記基準パターンは、複数の前記被検知物の少なくとも一方の前記検知面での検知位置が移動して、複数の前記被検知物の前記検知面での検知位置の相対位置関係が変化するパターンである請求項1又は2に記載の入力システム。   The reference pattern is a pattern in which the detection position on the detection surface of at least one of the plurality of detection objects moves and the relative positional relationship of the detection positions on the detection surface of the plurality of detection objects changes. The input system according to claim 1 or 2. 前記突出制御部は、前記地図画像に含まれる道路に対応させて前記突出部材を突出させ、
前記処理実行部は、前記突出部材のそれぞれに対応する前記道路の属性を規定する属性情報に応じて異なる前記突出割当処理を前記突出部材のそれぞれに割り当てる請求項1から3のいずれか一項に記載の入力システム。
The protrusion control unit causes the protrusion member to protrude corresponding to a road included in the map image,
4. The method according to claim 1, wherein the processing execution unit allocates the different projecting allocation process to each projecting member according to attribute information that defines an attribute of the road corresponding to each projecting member. 5. The input system described.
前記地図画像は、自位置決定部により決定される自位置を示す自位置画像を含むナビゲーション用の地図の画像であり、
前記属性情報は、出発地から目的地までの案内経路を構成する道路であるか否かを示す経路属性、及び、前記案内経路を構成するそれぞれの道路における前記自位置との位置関係を示す位置属性、の少なくとも一方の情報を含み、
前記処理実行部は、前記経路属性に応じて、並びに、前記経路属性が前記案内経路を構成する道路であることを示している場合には更に前記位置属性に応じて、異なる前記突出割当処理を前記突出部材のそれぞれに割り当てる請求項4に記載の入力システム。
The map image is an image of a map for navigation including a self-position image indicating a self-position determined by the self-position determination unit,
The attribute information includes a route attribute indicating whether or not the road constitutes a guide route from a departure place to a destination, and a position indicating a positional relationship with the own position on each road constituting the guide route. Including at least one of the attributes,
The processing execution unit performs the different projecting assignment processing according to the route attribute and, in the case where the route attribute indicates a road constituting the guide route, further according to the position attribute. The input system according to claim 4, wherein the input system is assigned to each of the protruding members.
JP2012127315A 2012-06-04 2012-06-04 Input system Abandoned JP2013250943A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012127315A JP2013250943A (en) 2012-06-04 2012-06-04 Input system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012127315A JP2013250943A (en) 2012-06-04 2012-06-04 Input system

Publications (1)

Publication Number Publication Date
JP2013250943A true JP2013250943A (en) 2013-12-12

Family

ID=49849511

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012127315A Abandoned JP2013250943A (en) 2012-06-04 2012-06-04 Input system

Country Status (1)

Country Link
JP (1) JP2013250943A (en)

Similar Documents

Publication Publication Date Title
JP5704408B2 (en) Operation input system
JP5754596B2 (en) Operation input device
JP5641367B2 (en) Operation input system
JP5803667B2 (en) Operation input system
JP5700254B2 (en) Operation input system
JP5773214B2 (en) Input system
JP5700253B2 (en) Operation input system
JP5743158B2 (en) Operation input system
CN107408355B (en) Map display control device and method for controlling operation touch feeling of map scrolling
JP2013250942A (en) Input system
JP5870689B2 (en) Operation input system
JP2013203155A (en) Operation input system
JP2013250943A (en) Input system
JP2013134722A (en) Operation input system
JP5870688B2 (en) Operation input system
JP5704411B2 (en) Operation input system
JP2013134717A (en) Operation input system
JP5773213B2 (en) Operation input system
JP2013257655A (en) Operation input system
JP5720953B2 (en) Operation input system
WO2015129170A1 (en) Operation system
JP2018116621A (en) Map display system and map display program
JP2013134718A (en) Operation input system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150205

A762 Written abandonment of application

Free format text: JAPANESE INTERMEDIATE CODE: A762

Effective date: 20150908