WO2008069042A1 - ナビゲーションシステムおよび地点の選択方法 - Google Patents

ナビゲーションシステムおよび地点の選択方法 Download PDF

Info

Publication number
WO2008069042A1
WO2008069042A1 PCT/JP2007/072803 JP2007072803W WO2008069042A1 WO 2008069042 A1 WO2008069042 A1 WO 2008069042A1 JP 2007072803 W JP2007072803 W JP 2007072803W WO 2008069042 A1 WO2008069042 A1 WO 2008069042A1
Authority
WO
WIPO (PCT)
Prior art keywords
facility
information
data
map
navigation
Prior art date
Application number
PCT/JP2007/072803
Other languages
English (en)
French (fr)
Inventor
Atsushi Tsurumi
Kunihiro Suga
Sayuri Yukizaki
Haruki Kuzuoka
Original Assignee
Kabushiki Kaisha Kenwood
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2006318744A external-priority patent/JP2010032213A/ja
Priority claimed from JP2006325312A external-priority patent/JP2010033101A/ja
Application filed by Kabushiki Kaisha Kenwood filed Critical Kabushiki Kaisha Kenwood
Publication of WO2008069042A1 publication Critical patent/WO2008069042A1/ja

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3679Retrieval, searching and output of POI information, e.g. hotels, restaurants, shops, filling stations, parking facilities
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/10Map spot or coordinate position indicators; Map reading aids

Definitions

  • the present invention relates to a navigation system and a point selection method.
  • Patent Document 1 discloses a navigation system.
  • the position information reading means of this navigation system reads the position information of the position designated by the position information instruction means in the sheet-like map display means.
  • the route guidance device uses this position information to guide the route.
  • Patent Document 2 discloses a navigation device. This navigation device displays a map on the display. In addition, the navigation device displays on the display the location information of the facility specified by the voice keyword within the desired search range specified by the touch panel on the display map.
  • Patent Document 3 discloses map information including a paper on which position information is recorded in a dot pattern, and an electronic pen that acquires the position information by reading the dot pattern and converts it into electronically readable position information.
  • a processing system is disclosed. The map information processing system converts the positional information of the paper acquired by the electronic pen into coordinates on the electronic map.
  • Patent Document 4 related information within a range received by an input / output processing unit (for example, a touch panel) is searched from the related information storage unit, and is recognized by the speech recognition unit from all the searched related information.
  • a navigation device for searching for related information is disclosed. Further, it is disclosed that related information is retrieved when reception of voice by the voice input unit and reception of range specification by the input / output processing unit are within a predetermined period.
  • Patent Document 5 discloses a control device using a speech recognition device that increases the recognition rate by arranging microphones at a plurality of predetermined positions and further does not unnecessarily restrict the control operation. To do.
  • Patent Document 1 Japanese Patent Application Laid-Open No. 2003-287432 (claims, etc.)
  • Patent Document 2 Japanese Patent Laid-Open No. 2002-350151 (Summary, FIG. 2, Detailed Explanation of Invention, etc.)
  • Patent Document 3 Japanese Patent Laid-Open No. 2004-294942 (claims, etc.)
  • Patent Document 4 JP 2002-350151 A (claims, etc.)
  • Patent Document 5 Japanese Patent Laid-Open No. 2001-222291 (abstract, etc.)
  • a destination such as a destination used for route search is designated on a printed map using an electronic pen or the like so that the user can easily set the destination.
  • the user can easily set the desired facility as the destination without knowing the exact facility name, for example, compared to the case where the destination is set by inputting the facility name into the navigation device. Seems to be able to.
  • the user performs a complicated operation of searching around the hierarchical facility database of the navigation device or a complicated map switching operation for displaying a predetermined area as in Patent Document 2. It seems that the desired facility can be easily set as the destination without doing anything. If the user knows the approximate location of the facility, it seems that the user can easily set the desired facility as the destination.
  • the two facilities must be able to be specified separately.
  • the map must be of a small scale. In particular, when each facility is represented by a mark on the map, it is necessary to prevent the marks from overlapping each other on the map. As a result, the map may need to be smaller.
  • the map book is a thick map divided into different papers for each town, for example. Become. The user must search for a desired facility in a thick map book divided into different papers for each town and designate it as a destination. After all, users need to know detailed information about the location of facilities in advance.
  • a microphone that collects sound is disposed at a predetermined position as described in Patent Document 5.
  • the microphone installation position in an automobile or the like is not necessarily a suitable position for picking up the voice spoken by the user while operating the touch panel of the navigation device.
  • the user must be aware of the installation position of the microphone and speak to the installation position.
  • the user must operate the touch panel of the navigation device installed in the center of the dashboard, for example, to narrow down the location, and speak with the face facing the microphone installation position.
  • Patent Document 4 even if the touch panel operation and the voice operation are simply combined, the number of operations on the touch panel can be reduced, but a series of operations for the user is complicated. There is no change in being a thing.
  • a navigation device or the like needs to accept the operation of the touch panel by the user and the user's voice separately, and then associate these operation contents internally. Therefore, as described in Patent Document 4, the navigation device and the like operate so as to associate the voice and the operation of the touch panel within a predetermined time. As a result, the user performs the operation on the touch panel and the voice operation while paying attention to the position of the touch panel and the position of the microphone, and in addition, the user suddenly completes it within a predetermined short period. You have to run it. Combining touch panel operation and voice operation creates a limitation on the operation time that was not possible with only touch panel operation, and it may not be possible for the user to be burdensome.
  • the present invention suitably uses a portable input device such as an electronic pen and a printed matter of a map so that the user can select a facility desired by the user, such as the detailed location of the facility and an accurate name. It is an object of the present invention to provide a navigation system and a point selection method that can be easily specified in the navigation main body without knowing.
  • the present invention allows a user to speak and perform a predetermined operation without being aware of the position of a microphone or the like, thereby narrowing down information by an easy operation.
  • An object is to obtain an information extraction apparatus and an information extraction method.
  • a navigation system and a point selection method that can easily narrow down facilities desired by the user by suitably using a portable input device such as an electronic pen and a printed matter of a map.
  • the purpose is to obtain.
  • a navigation system includes a portable input device that specifies a range in a map printed on a printed matter, and a navigation body.
  • the navigation main body includes a display means for displaying facilities associated with the range designated by the portable input device, and a selection means for selecting a desired point from the facilities displayed on the display means. Have.
  • the navigation system has the following features in addition to the configuration of the above-described invention. That is, a coordinate pattern that can be converted into a coordinate value by being read by the portable input device is printed on the printed matter on which the map is printed.
  • the navigation main body is stored in the range specified by the portable input device from the database that stores the display information of a plurality of facilities in association with the coordinate values of the coordinate pattern printed on the printed matter.
  • Extraction means for extracting the display information of the facility associated with the coordinate value. Further, the display means displays the display information of the facility extracted by the extracting means so that it can be selected by the selecting means.
  • the navigation system has the following features in addition to the above-described configuration of the invention. That is, in the map of the printed matter, the name of the area or a predetermined mark is printed on the coordinate pattern. In addition, in the database, display information of a facility existing in the area is associated with a coordinate value of a coordinate pattern overlapping a predetermined mark or area name.
  • the navigation system according to the present invention has the following features in addition to the configuration of the above-described invention.
  • a plurality of facility marks representing the type of facility are printed side by side on the map of the printed material, overlapping the coordinate pattern.
  • the display information of the type of the facility is associated with the coordinate value of the coordinate pattern that overlaps each facility mark, and V.
  • the navigation system has the following features in addition to the configuration of the above-described invention. That is, in the database, the display information of each facility is associated with latitude / longitude information indicating the latitude / longitude of the facility that can be used in the navigation main body. Further, the navigation main body has guide route generation means for generating a guide route using latitude and longitude information in the database of the facility selected by the selection means.
  • the navigation system has the following features in addition to the configuration of the above-described invention. That is, the database is stored in a portable recording medium that is detachable from the navigation body, and is provided to the user in association with the printed matter.
  • the navigation system according to the present invention has the following features in addition to the configuration of the above-described invention. That is, the selection means selects by operating the display means.
  • the navigation system has the following features in addition to the configuration of the above-described invention. That is, the portable input device includes a microphone that collects sound and converts the collected sound into sound data. In addition, the selection means is the audio data Select based on.
  • the navigation system according to the present invention has the following features in addition to the above-described configuration of the invention.
  • the microphone is provided in a portable input device or a navigation main body that can communicate with the portable input device.
  • the navigation system according to the present invention has the following features in addition to the above-described configuration of the invention. That is, the selection means that selects based on the display by the display means and the audio data can execute the respective processes in parallel independently of each other.
  • the portable input device includes a detection member that detects an operation for designating a range in the map by the portable input device. Further, the selection means for selecting based on the sound data executes a selection process by the selection means for the sound data in a predetermined period with reference to the detection timing of the operation by the detection member.
  • the navigation system according to the present invention has the following features in addition to the above-described configuration of the invention.
  • the selection means for selecting based on the audio data performs a selection process on the audio data for a predetermined period including a period in which the operation is detected by the detection member.
  • the navigation system according to the present invention has the following features in addition to the configuration of the invention described above. That is, the printed matter is printed together with a coordinate pattern that can be converted into a coordinate value by being read by a pattern power portable input device that indicates a direction in addition to a map.
  • the selection means selects a desired facility from the facilities displayed on the display means by selecting a symbol indicating the direction by the portable input device.
  • the navigation system according to the present invention has the following features in addition to the configuration of the above-described invention.
  • the direction indicating the symbol indicates the selection direction of the extraction facility displayed on the display means.
  • the point selection method includes a step of acquiring range data generated by designating a range in a map printed on a printed matter by a portable input device, and specifying by the acquired range data. And a step of displaying a facility associated with the range to be selected, and a step of selecting a desired point from the displayed facility.
  • a portable input device such as an electronic pen and a printed matter of a map are preferably used for designating a desired point. Therefore, the user can easily specify the desired facility on the navigation body without knowing the detailed location or the exact name of the facility.
  • the user can speak and perform a predetermined operation without being aware of the position of the microphone, etc., so that information can be narrowed down by an easy operation.
  • FIG. 1 is a car navigation system as an information extraction device according to an embodiment of the present invention.
  • Fig. 2 (a) shows one map sheet in the map book of Fig. 1.
  • Fig. 2 (b) shows one map sheet in the map book of Fig. 1.
  • FIG. 3 is an enlarged view of a paper surface showing an example of one coordinate pattern printed on the map sheet of FIG.
  • FIG. 4 is a block diagram showing an electronic circuit and the like built in the electronic pen in FIG.
  • FIG. 5 is an explanatory diagram showing the data structure of the read data in FIG.
  • FIG. 6 is an explanatory diagram showing a correspondence relationship between data accumulation periods by the read data generation unit and the audio data generation unit in FIG.
  • FIG. 7 is a block diagram showing a configuration of the navigation main body in FIG. 1.
  • FIG. 8 (a) is an explanatory diagram showing the data structure of the facility database in FIG. 8 (b)]
  • FIG. 8 (b) is an explanatory diagram showing the data structure of the facility database in FIG.
  • FIG. 9 is an explanatory diagram showing the data structure of the speech recognition dictionary database in FIG. 7.
  • FIG. 10 (a) is a diagram showing an example of the extracted facility list in FIG.
  • FIG. 10 (b) is a diagram showing an example of the extracted facility list in FIG.
  • FIG. 11 is a flowchart showing a flow of a series of processes executed by the navigation main body of FIG.
  • FIG. 12 is a diagram showing an example of a display screen of the extracted facility list displayed on the liquid crystal device in FIG.
  • FIG. 13 is a diagram showing an example of a display screen that displays a guide route from the current position to the destination selected from the extracted facility list, displayed on the liquid crystal device in FIG.
  • FIG. 14 is a flowchart showing an example of the overall processing flow of the car navigation system of FIG. 1.
  • FIG. 15 is a diagram showing an example of an extraction facility list display screen displayed on the liquid crystal device in FIG. 7.
  • FIG. 16 is a diagram showing an example of a display screen that displays a guide route from the current position to the destination selected from the extracted facility list, displayed on the liquid crystal device in FIG.
  • FIG. 17 is a diagram showing a selection pattern for selecting a desired facility from the facilities displayed on the map book and displayed on the liquid crystal device.
  • the navigation system will be described by taking a car navigation system as an example.
  • the point selection method will be explained as part of the operation of the car navigation system.
  • FIG. 1 is a configuration diagram showing a car navigation system 1 according to an embodiment of the present invention.
  • the car navigation system 1 includes a navigation body 2 as a navigation device installed in an automobile, an electronic pen 4 as a portable input device that can be connected by the navigation body 2 and a USB (Universal Serial Bus) cable 3. And a map book 5 as a printed matter of the map, and an appendix memory card 6 as a portable recording medium provided to the user as an appendix of the map book 5.
  • the USB cable 3 is a type of communication cable.
  • FIG. 2 (a) shows one map sheet 10 in the map book 5 in FIG.
  • a map 11 is printed on the map sheet 10 with ink that transmits infrared rays.
  • Map 11 at the location of the XX plateau, which is a tourist destination, the character string “XX plateau” 12, a hotel mark (H with a square) 13 as a type of a predetermined mark, and a type of a predetermined mark
  • the restaurant mark (R with square) 14 is printed.
  • a decision mark 15 and a description 16 of the facility mark in the figure are printed outside the printing range of the map 11.
  • a plurality of dots 21 are printed on the map sheet 10 with ink that absorbs infrared rays.
  • the map sheet 10 reflects infrared rays.
  • FIG. 2 (b) shows an alternative embodiment of the map sheet 10.
  • a map 11 is printed on the map sheet 10 by ink that transmits infrared rays.
  • Map 11 several facilities are printed along with roads. Specifically, each bank is printed with a B symbol with a square, a convenience store is printed with a C symbol with a square, and a restaurant is printed with an R symbol with a square.
  • examples of these map symbols are printed below the map 11.
  • a plurality of dots 21 are printed on the map sheet 10 by using ink that absorbs infrared rays.
  • FIG. 3 is an enlarged view of the paper surface showing one coordinate pattern 22 printed on the map sheet 10. As shown in Fig.
  • each dot 21 printed on the paper surface by ink that absorbs infrared rays can be displayed on the top, bottom, left, or right with reference to the position of the intersection of the vertical reference line and the horizontal reference line at predetermined intervals. It is printed at a position slightly shifted in one direction (ie, one of the four directions).
  • the combination of the deviation directions of the 36 dots 21 in each coordinate pattern 22 is unique among all the coordinate patterns 22 printed on the map book 5.
  • the combination of the misalignment direction of dots 21 by 36 dots 21 is marked on map book 5. This is different from the combination of the misalignment directions of dots 21 in all other combinations of dots 21 to be printed.
  • FIG. 4 is a block diagram showing an electronic circuit and the like built in the electronic pen 4.
  • the electronic pen 4 has a pen-shaped housing 31 similar to a ballpoint pen or a mechanical pencil.
  • the electronic circuit of FIG. A ball-point pen shaft 32 projects from one end of the pen-shaped housing 31.
  • the tip force S of the ball-point pen shaft 32 becomes the pen tip of the electronic pen 4.
  • the electronic pen 4 may have a stylus pen shaft that cannot be written instead of the ballpoint pen shaft 32.
  • the electronic pen 4 has a function of generating a coordinate value of a tracing position by the electronic pen 4 disclosed in, for example, Special Table 2004-535010 or an electronic pen 4 equivalent thereto.
  • the electronic circuit built in the electronic pen 4 is a brush as a detection member that detects the writing operation or the tracing operation on the paper by the electronic pen 4 by detecting the pressure acting on the infrared LED 33 and the pen tip. It has a pressure sensor 34, a CMOS camera 35, a USB I / F (Interface) 36, a timer 37, a microphone 38, an AD converter 39, a nonvolatile memory 40, a microcomputer 41, and the like.
  • the nonvolatile memory 40 stores read data 42 as handwriting data and voice data 43.
  • the microphone 38 is built in the end of the electronic pen 4 opposite to the pen tip. Thus, when the user holds the electronic pen 4 in his hand, the microphone 38 is located above the back of the user's hand and is located near the user's face. As shown in FIG. 4, the infrared LED 33 of the electronic pen 4 irradiates the tip of the ball-point pen shaft 32 and its surroundings with infrared rays.
  • the CMOS camera 35 receives infrared rays reflected by the map sheet 10.
  • the CMOS camera 35 outputs the received infrared intensity distribution data to the microcomputer 41.
  • a CPU Central Processing Unit
  • a control program (not shown), whereby a read data generation unit 46, an audio data generation unit 47, a data transmission unit 48, Is realized.
  • the read data generation unit 46 identifies an image of 6 X 6 dots 21 included in an infrared image (image having an infrared intensity distribution pattern) supplied from the CMOS camera 35, and the identified 6
  • the coordinate value corresponding to the combination of X6 dot 21 is 1: 1, that is, the coordinate value corresponding to the read coordinate pattern 22 is 1: 1.
  • the read data generation unit 46 arranges all the pages of the map book 5 in a virtual sheet, and calculates a coordinate value based on a predetermined position (for example, the upper left corner) of the sheet. Note that the read data generation unit 46 may calculate a coordinate value based on the upper left corner of each map sheet 10 of the map 5.
  • the read data generation unit 46 also calculates the calculated coordinate value, the current pen pressure value detected by the pen pressure sensor 34 (the current pen pressure value acting on the ballpoint pen shaft 32), and the timer 37. The current time measured by is supplied to the nonvolatile memory 40.
  • FIG. 5 is an explanatory diagram showing the data structure of the read data 42 recorded in the nonvolatile memory 40.
  • each row corresponds to one record of the read data 42.
  • the nonvolatile memory 40 adds them to the read data 42 as one record.
  • Each record of the read data 42 includes read coordinate information 51 having a coordinate value corresponding to the coordinate pattern 22 read by the electronic pen 4, and pen pressure information 52 having a pen pressure value detected by the pen pressure sensor 34 at that time. And read time information 53 having the time measured by the timer 37 at that time.
  • the read data 42 in Fig. 5 is handwritten data obtained by tracing around the hotel mark 13 in the map 11 in Fig.
  • the handwriting data is composed of a plurality of records.
  • the AD converter 39 samples a voice waveform by voice collected by the microphone 38, and generates voice data 43 representing the voice waveform.
  • the audio data generation unit 47 acquires the audio data 43 from the AD comparator 39 and stores it in the nonvolatile memory 40. Audio data 43 is stored in the nonvolatile memory 40.
  • FIG. 6 shows an accumulation period of read data 42 accumulated in the non-volatile memory 40 by the read data generation unit 46 and an accumulation period of audio data 43 accumulated in the non-volatile memory 40 by the audio data generation unit 47. It is explanatory drawing which shows a corresponding relationship.
  • the reading data generation unit 46 starts a process for accumulating the reading data 42. Further, when the detected writing pressure value of the writing pressure sensor 34 becomes smaller than a predetermined value, the reading data generating unit 46 ends the reading data 42 accumulating process.
  • the non-volatile memory 40 stores the read data 42 generated by the read data generation unit 46 during the period from the start of storage of the read data 42 to the end of storage.
  • the sound data generating unit 47 starts a process for storing the sound data 43.
  • the voice data generation unit 47 detects the voice data 43 when the timer 37 measures a predetermined no-operation period (for example, 5 seconds) after the detected pen pressure value of the pen pressure sensor 34 becomes smaller than the predetermined value. The accumulation process is terminated.
  • the non-volatile memory 40 stores the sound data 43 generated by the sound data generation unit 47 during the period from the start of storage of the sound data 43 to the end of storage.
  • the voice data generation unit 47 accumulates the voice data 43 in a series of write operation periods until a predetermined no-operation period (for example, 5 seconds) is measured.
  • the audio data generation unit 47 uses the event other than the detection of the pen pressure by the pen pressure sensor 34, for example, the connection to the navigation main body 2 by the USB cable 3 as a trigger to store the audio data 43. May be started.
  • the voice data generation unit 47 may end the storage process of the voice data 43 as soon as the detected writing pressure value of the writing pressure sensor 34 becomes smaller than a predetermined value.
  • voice data generation The unit 47 may store the audio data 43 every time it is written, or always store the audio data 43.
  • the read data 42 and audio data 43 recorded in 40 are transmitted to the navigation unit 2.
  • the electronic pen 4 and the navigation main body 2 may be provided with a wireless communication I / F such as Bluetooth instead of the USB I / Fs 36 and 68.
  • the data transmission unit 48 transmits the read data 42 and the audio data 43 recorded in the nonvolatile memory 40 to the navigation main body 2. Good.
  • FIG. 7 is a block diagram showing a configuration of the navigation main body 2 in FIG.
  • the navigation unit 2 includes a gyro sensor 61, a GPS (Global Positioning System) receiver 62, an HDD (node disk drive) 63, a key device 64, a touch panel 65, a liquid crystal device 66 as a display means, a temporary memory 67, USBI / F68, memory card l / F69, microcomputer 70, etc. Further, in FIG. 7, an appendix memory card 6 provided as an appendix of the map book 5 is described in a state inserted in the navigation main body 2.
  • GPS Global Positioning System
  • HDD node disk drive
  • a liquid crystal device 66 As shown in FIG. 1, a liquid crystal device 66, a plurality of input buttons 71 of a key device 64, and a USB I / F 68 are disposed on the front panel of the navigation body 2.
  • the USB cable 3 is connected to the USBI / F68.
  • a touch panel 65 is disposed on the front surface of the display unit of the liquid crystal device 66.
  • the gyro sensor 61 detects accelerations in the X-axis, Y-axis, and Z-axis directions.
  • the gyro sensor 61 detects the acceleration in the axial direction of the automobile on which the navigation body 2 is disposed.
  • the GPS receiver 62 receives GPS radio waves transmitted by GPS satellites and generates latitude and longitude data. That is, the GPS receiver 62 generates latitude / longitude data of the automobile on which the navigation body 2 is disposed.
  • the navigation body 2 performs route search and route guidance independently. Record the data required for this. Examples of such data include navigation data 72 and guide route data 73 generated based on the destination setting.
  • the navigation data 72 includes, for example, display map data, a plurality of node data, a plurality of link data, a plurality of facility data, and the like.
  • the display map data in the navigation data 72 is data for displaying a road map on the liquid crystal device 66.
  • the display map data is a road map of Japan at a predetermined scale. It should be noted that the range of the displayable area based on the display map data does not have to coincide with the range of the area listed in the map book 5.
  • the display map data in the navigation data 72 is composed of, for example, a plurality of texture data with a predetermined mesh size. Each texture data is associated with latitude / longitude data indicating the position of the texture data.
  • the node data in the navigation data 72 is data of road intersections and corners through which cars in the area covered by the display map data can pass.
  • the node data includes a unique node name, latitude and longitude data of intersections and corners to which it corresponds.
  • the node data is associated with attribute information such as an intersection name such as a corresponding intersection.
  • the link data in the navigation data 72 is data associated with a road section connecting the intersections.
  • Link data is associated with a unique link name and the names of multiple nodes to which it is connected.
  • the node data and link data are associated with the road name of the corresponding road (for example, national highway No. 100 spring, prefectural road ⁇ line, etc.) as attribute information.
  • the facility data in the navigation data 72 is data associated with facilities and places in the area covered by the display map data, for example, convenience stores, gas stations, financial institutions such as banks, schools, shrines, etc. .
  • the facility data has attribute information such as the name, type, latitude and longitude of the corresponding facility. This facility data is, as a matter of course, related to the facility when the data was created or before that date. This facility data does not include newly completed facilities after the data is created.
  • the memory card I / F 69 reads data from the appendix memory card 6 inserted into the navigation main body 2.
  • the appendix memory card 6 inserted into the navigation body 2 is supplied together with, for example, the map book 5 from, for example, a provider of the car navigation system 1 or a publisher.
  • the appendix memory card 6 has, for example, a nonvolatile memory such as a flash memory and a data I / F to the memory.
  • This appendix memory card 6 records a coordinate conversion table 76, a facility database 77 as an information database, a speech recognition dictionary database 78, and the like.
  • the coordinate conversion table 76 shows the latitude and longitude values of the points printed on the map book 5 in a one-to-one correspondence with the coordinate pattern 22 read by the electronic pen 4 on the map book 5. It stores data for conversion to.
  • FIG. 8A is an explanatory diagram showing the data structure of the facility database 77 in FIG.
  • the facility database 77 stores display information of a plurality of facilities in association with the coordinate values of the coordinate pattern 22 printed on the map book 5. That is, the facility database 77 has facility name information 106 of a plurality of facilities in the area printed on the map book 5 as display information.
  • latitude / longitude information 107 indicating the latitude / longitude value of each facility is associated one-to-one. The latitude and longitude values are based on a coordinate system that is consistent with the navigation data 72 recorded in the navigation body 2.
  • the plurality of facility name information 106 is classified by the facility area information 104 and the facility type (Giant) information 105, and coordinate information 103 is associated with each category.
  • the facilities of “Pension A” and the facility of “B & B B” are classified into lodging facilities 104 and 105 of “XX Plateau” and are associated with the same coordinate information 103.
  • This coordinate information 103 has a coordinate value of a coordinate pattern 22 that overlaps the hotel mark 13 printed in the map 11.
  • the facility of “Sushi A” is classified into restaurants 104 and 105 of “XX Plateau”, and is associated with coordinate information 103 different from that of the facility of “Pension A”.
  • This coordinate information 103 has the coordinate value of the coordinate pattern 22 that overlaps the restaurant mark 14 printed in the map 11.
  • the coordinate value of the coordinate pattern 22 overlapping the restaurant mark 14 is different from the coordinate value of the coordinate pattern 22 overlapping the hotel mark 13.
  • FIG. 8 (b) is an alternative embodiment showing the data structure of the facility database 77 in FIG. It is explanatory drawing of.
  • the facility database 77 stores facility information of a plurality of facilities existing in the area printed on the map book 5. Specifically, the facility database 77 stores, as facility information of each facility, facility name information 96 for displaying the facility name of the facility and latitude / longitude information 97 indicating the latitude / longitude value of the facility. Also, each facility information is associated with type information 98 according to the type (genre) of each facility. In FIG. 8, for example, the facility information of “Bank A” and the facility information of “Bank B” are associated with the facility type “Bank”. In the facility database 77, each facility information may be associated with information other than the facility type, such as the business hours of the facility.
  • FIG. 9 is an explanatory diagram showing the data structure of the speech recognition dictionary database 78 in FIG.
  • the speech recognition dictionary database 78 stores a plurality of extraction condition information 101 that limits the type (genre) of facilities to be extracted.
  • the speech recognition dictionary database 78 may store extraction condition information 101 that limits other types of facilities, such as business hours of the facility.
  • Each extraction condition information 101 is associated with registered voice envelope information 102 (registered voice data) when the extraction condition is designated by voice. More specifically, the extraction condition information 101 that restricts the type of facility to be extracted to the bank is associated with the registered speech envelope information 102 when “bank” is pronounced.
  • the temporary memory 67 in FIG. 7 is configured by a semiconductor memory such as a flash memory, for example.
  • the temporary memory 67 records acquired read data 81, acquired voice data 82, extracted facility list 83, and the like as handwriting data.
  • the acquired read data 81 and the acquired audio data 82 are data received from the electronic pen 4.
  • the acquired read data 81 and the acquired voice data 82 have the same information as the read data 42 and the voice data 43 stored in the nonvolatile memory 40 of the electronic pen 4.
  • FIG. 10 (a) is a diagram showing an example of the extracted facility list 83 in FIG.
  • the extracted facility list 83 has facility information extracted based on the read acquired read data 81.
  • the extracted facility list 83 in FIG. 10A includes facility name information 106, facility latitude / longitude information 107, area information 104, and type information 105 for each facility as the extracted facility information.
  • the facility information has the same contents as the information of the same name in the facility database 77.
  • Fig. 10 (a) matches the facility information 103 to 107 of the accommodation facilities on the XX plateau in Fig. 8 (a).
  • FIG. 10 (b) is a diagram showing an alternative embodiment which is an example of the extraction facility list 83 in FIG.
  • the extracted facility list 83 includes facility information extracted using the acquired read data 81 and the acquired voice data 82.
  • the extracted facility list 83 in FIG. 10B has facility name information 111, latitude / longitude information 112, and type information 113 for each extracted facility.
  • the extracted information is information extracted from the facility database 77.
  • the facility information 111 and 112 in the extracted facility list 83 illustrated in FIG. 10 matches the facility information 96 and 97 of some banks in the facility database 77 of FIG.
  • the microcomputer 70 of the navigation main body 2 has a memory, a CPU, an input / output port, etc., not shown. Gyro sensor 61, GPS receiver 62, HDD 63, key device 64, touch panel 65, liquid crystal device 66, temporary memory 67, USB I / F 68, memory card I / F 69, etc. are connected to the input / output ports.
  • the CPU of the navigation main unit 2 reads and executes a control program (not shown) such as memory.
  • the microcomputer 70 of the navigation main body 2 includes a current position data generation unit 85, a UI (User Interface) unit 86 as a selection unit and an in-plan route generation unit, a data acquisition unit 87, and an extraction unit. And a data processing unit 88 as a stage.
  • control program executed by the microcomputer 70 of the navigation main body 2 may be one recorded in the memory of the microcomputer 70 or the like before the navigation main body 2 is shipped. It may be recorded in the memory of the microcomputer 70 after the shipment of 2. A part of the control program may be recorded in the memory of the microcomputer 70 after the navigation main body 2 is shipped.
  • the control program recorded in the memory of the microcomputer 70 after the navigation main body 2 is shipped is recorded on a computer-readable recording medium such as a memory card or CD-ROM (Compact Disc Read Only Memory). It can be installed on your computer, or you can install it downloaded over a transmission medium such as the Internet. The same applies to the control program executed by the above-described microphone mouth computer 41 of the electronic pen 4.
  • the current position data generation unit 85 generates current position data of the vehicle in which the navigation main body 2 is installed based on the latitude and longitude data generated by the GPS receiver 62 and the acceleration data generated by the gyro sensor 61. To do.
  • the current position data includes latitude and longitude information of the current position.
  • the data acquisition unit 87 uses the USB I / F 68 of the navigation body 2 to acquire the read data 42 that the electronic pen 4 transmits to the USB I / F 68.
  • the data acquisition unit 87 acquires the read data 42 received by the USB I / F 68 and records it in the temporary memory 67.
  • the temporary memory 67 records the data acquired by the data acquisition unit 87 as acquired read data 81 and acquired audio data 82.
  • the data processing unit 88 is an extraction unit that extracts facility information associated with coordinate values within a range designated by the electronic pen 4. That is, the data processing unit 88 extracts the facility information 103 to 107 from the facility database 77 based on the acquired read data 81 and 82 recorded in the temporary memory 67, and the extracted facility information 103 to 107 is The extracted facility list 83 is recorded in the temporary memory 67.
  • the data processing unit 88 extracts facility information within the range specified in the map book 5 from the facility database 77 by the electronic pen 4, and more specifically, the read data processing unit 91, an audio data processing unit 92, and an extraction processing unit 93.
  • the read data processing unit 91, the audio data processing unit 92, and the extraction processing unit 93 can execute the respective processes in parallel independently of each other by, for example, multi-thread programming or multi-task programming.
  • the read data processing unit 91 as the first generation unit that generates the first extraction condition specifies the extraction area range using the acquired read data 81 and the coordinate conversion table 76.
  • the voice data processing unit 92 as a second generation unit that generates the second extraction condition specifies the type of facility designated by the utterance using the acquired voice data 82 and the voice recognition dictionary database 78.
  • the extraction processing unit 93 as an extraction means for performing extraction processing using the first extraction condition and the second extraction condition is the facility information of the facility corresponding to the specified extraction area range and the specified facility type. Are extracted from the facility database 77.
  • the facility information extracted by the extraction processing unit 93 is recorded in the temporary memory 67 as the extracted facility list 83. It is.
  • the UI unit 86 generates guide route data 73 and controls the display of the liquid crystal device 66. Specifically, for example, the UI unit 86 displays the extraction facility list 83 on the liquid crystal device 66. The UI unit 86 selects a destination or the like from the extracted facility list 83 displayed on the liquid crystal device 66 based on the operation data from the key device 64 touch panel 65. In addition, the UI unit 86 generates a guide route using the selected destination or the like, and causes the liquid crystal device 66 to display the generated guide route.
  • the CMOS camera 35 of the electronic pen 4 receives the infrared rays reflected by the map sheet 10, A plurality of intensity distribution data are output to the microcomputer 41 in order.
  • the read data generation unit 46 specifies a 6 ⁇ 6 dot 21 image from each intensity distribution data, and calculates the coordinate value of the position traced by the electronic pen 4.
  • a plurality of coordinate values generated by the read data generation unit 46 for each intensity distribution data are stored as read data 42. That is, in the nonvolatile memory 40, as shown in FIG. 5, the coordinate value force reading data 42 around the hotel mark 13 in the map 11 is stored.
  • the read data generation unit 46 ends the update process of the read data 42.
  • the non-volatile memory 40 stores the confirmed read data 42.
  • the hotel mark 13 is touched with the pen tip so that the coordinates! /, Corresponding to the hotel mark 13 are stored as read data 42. As a simple process.
  • the user connects the electronic pen 4 to the navigation body 2 using the USB cable 3.
  • the USB I / F 36 of the electronic pen 4 and the USB I / F 68 of the navigation main body 2 are in a state in which data can be transmitted and received by, for example, the USB mass storage class.
  • the data transmission unit 48 of the electronic pen 4 Reads the read data 42 from the nonvolatile memory 40 and transmits it to the navigation main unit 2.
  • the read data 42 transmitted by the data transmission unit 48 is transmitted to the USB I / F 68 of the navigation main body 2 via the USB I / F 36 of the electronic pen 4 and the USB cable 3.
  • the data acquisition unit 87 of the navigation main body 2 acquires the read data 42 received by the USB I / F 68 and records it in the temporary memory 67 as the acquired read data 81.
  • the same data as the read data 42 generated by the read data generation unit 46 of the electronic pen 4 is stored in the temporary memory 67 of the navigation body 2.
  • the electronic pen 4 is connected to the navigation main body 2 in advance, and while the electronic pen 4 is being read, the read data 42 is sequentially transmitted by the data transmission unit 48 and stored in the temporary memory 67 of the navigation main body 2. You may be made to do.
  • FIG. 11 is a flowchart showing a flow of a series of processing executed when the navigation main body 2 of FIG. 7 receives new acquired read data 81.
  • the data processing unit 88 of the navigation main unit 2 starts generating the extraction facility list 83 ( Step ST2).
  • the data processing unit 88 first specifies a range designated by the electronic pen 4. Specifically, for example, the data processing unit 88 reads a plurality of coordinate values of the acquired read data 81, and a coordinate value range of a predetermined shape surrounded by the plurality of coordinate values (for example, a rectangular range inscribed in the handwriting). Identify Note that the data processing unit 88 may specify a coordinate value range of a predetermined shape including a plurality of coordinate values of the acquired read data 81 (for example, a rectangular range circumscribing the handwriting).
  • the data processing unit 88 After specifying the coordinate value range specified by the electronic pen 4, the data processing unit 88 reads the coordinate information 103 from the facility database 77, and specifies the coordinate information 103 having the coordinate value within the specified coordinate value range. To do. Specifically, for example, the data processing unit 88 causes the memory force I / F 69 to sequentially acquire the coordinate information 103 of the facility database 77 recorded in the appendix memory card 6, and the acquired coordinate information 103 and Compare with the specified coordinate value range
  • the data processing unit 88 further causes the memory card I / F 69 to acquire facility information associated with the coordinate information 103.
  • the memory card I / F 69 stores the facility information of all facilities associated with the coordinate information 103 from the facility database 77 recorded in the appendix memory card 6, for example, the facility area information 104, type information 105, facility Load name information 106 and latitude / longitude information 107.
  • the data processing unit 88 adds the facility information 104 to 107 of all facilities read by the memory card I / F 69 to the extracted facility list 83.
  • the data processing unit 88 performs the determination process based on the coordinate information 103 in the facility database.
  • the data processing unit 88 specifies a page corresponding to the specified coordinate value range, Only the coordinate information 103 having the coordinate values in the page may be compared with the specified coordinate value range. As a result, it is possible to shorten the time required for generating the extracted facility list 83.
  • the extracted facility list 83 is associated with the coordinate information 103 within the coordinate value range specified by the electronic pen 4.
  • the facility information 104 to 107 of all the facilities is stored. For example, if the area around the hotel mark 13 in the map 11 in Fig. 2 (a) is traced to a circle with the electronic pen 4, the extraction facility list 83 will show the lodging facilities on the XX plateau as shown in Fig. 8 (a).
  • the facility information of 104 ⁇ ; 107 is stored.
  • the UI unit 86 reads a plurality of facility name information 106 stored in the extracted facility list 83 and displays the information on the liquid crystal device 66 (step ST3).
  • FIG. 12 is a diagram showing an example of a display screen of the extraction facility list 83 displayed on the liquid crystal device 66 in FIG.
  • the facility name information 106 of the four facilities in the extracted facility list 83 is listed.
  • the character string “Region name XX plateau” indicating the extracted area and “Genre name accommodation facility” indicating the type of the extracted facility are displayed. Is displayed.
  • the UI unit 86 reads the information of the extracted facility list 83 and displays the information. By this display, the user can know that the facility in the desired area specified on the map 11 using the electronic pen 4 is correctly extracted.
  • the UI unit 86 displays the extracted facility list 83 and then waits for an input operation (step ST4).
  • the user operates the touch panel 65 with the display screen of the extraction facility list 83 in FIG. 12 being displayed on the liquid crystal device 66.
  • the user performs an operation of selecting one of the displayed facility name information 106 and then operates the destination setting button. For example, the user operates the destination setting button 120 after selecting the displayed “Pension A”.
  • UI unit 86 determines the operation content and identifies a point used for route search. For example, if the UI unit 86 determines that the “Pension A” is selected and the destination setting button 120 has been operated based on the operation data, the facility name information 106 is “Pension A”. Select a destination for route search (step ST5).
  • the UI unit 86 After selecting the destination to be used for the route search, the UI unit 86 starts a process for generating a planned route to the identified destination (step ST6). First, the UI unit 86 reads the latitude / longitude information 107 associated with the selected facility name information 106 from the extracted facility list 83. Next, using the node data and link data of the navigation data 72, the UI unit 86 searches for a guide route from the current position to the point of the read latitude / longitude information 107. The UI unit 86 stores the searched route in the HDD 63. As a result, in the HDD 63, the power of the facility name information 106 selected by the user from the extracted facility list 83, in this case, “Pension A”, and the guidance route data 73 are recorded.
  • the UI unit 86 displays the searched route on the liquid crystal device 66.
  • the UI unit 86 reads map data of a scale including the entire searched route from the navigation data 72, and causes the liquid crystal device 66 to display a screen in which the route is allocated on the read map.
  • FIG. 13 is a diagram showing an example of a display screen that displays a guide route from the current position to the destination selected from the extracted facility list 83.
  • the current location and destination are The guide route is displayed with a bold line.
  • the UI unit 86 starts guidance by the route (step ST8).
  • the UI unit 86 causes the liquid crystal device 66 to display, for example, a mark indicating the current position generated by the current position data generation unit 85 and a part of the guidance route on a map based on the navigation data 72, for example.
  • the UI unit 86 informs the user by voice or the like and guides the route. If the UI unit 86 determines that the current position generated by the current position data generation unit 85 has deviated from the guidance route, the UI unit 86 uses the navigation data 72 to search again for the guidance route and continue guidance.
  • the electronic pen 4 designates a range by tracing around the predetermined facility marks 13 and 14 in the map book 5. Further, the liquid crystal device 66 of the navigation main body 2 displays the facility name information 106 of the facility associated with the facility marks 13 and 14 in the facility database 77. Further, the UI unit 86 selects a destination from the displayed facility name information 106.
  • the user traces around the facility marks 1 3 and 14 near the desired facility to be visited on the map 11 with the electronic pen 4, and further displays the facility name information 106 displayed on the navigation body 2. From the inside, a desired facility to be visited can be selected.
  • the user can navigate the facility by specifying the rough range using the electronic pen 4 without knowing the detailed location or exact name of the desired facility that he wants to visit. It can be easily specified as a search destination.
  • the user can use the electronic pen 4 to specify a desired facility range on the map sheet 10.
  • the user can specify the area while looking down at the surrounding area where the area where the facility that he wants to visit is strictly conscious on the map sheet 10 where the area wider than the display screen of the liquid crystal device 66 is printed. it can.
  • the user when a desired facility in the map 11 is selected as a destination by using the electronic pen 4, the user must specify the location of the facility in the map 11. For this purpose, the user knows in advance the detailed address of the facility to be set as the destination. Need to be.
  • the desired facility when the desired facility is set as the destination by switching the display of the liquid crystal device 66 as in the conventional navigation device, the user must set the desired facility before setting the destination. Need to find out. For this purpose, the user performs a complicated operation of searching through the navigation data 72 in which a plurality of facility data is hierarchized according to the type of facility, or a complicated map switching operation for displaying the facility. Or enter the exact name of the facility. Even when performing these operations, the user needs to know in advance the location of the facility to be set as the destination.
  • a plurality of coordinate patterns 22 that can be converted into coordinate values are printed on the map book 5 of this embodiment.
  • coordinate values are associated with a plurality of facility information. Therefore, the electronic pen 4 that converts the printed coordinate pattern 22 into coordinate values can be used.
  • the electronic pen 4 need not be dedicated to the navigation system 1.
  • an area name 12 such as "XX Plateau” and a facility mark 13 and 14 such as a hotel mark 13 are printed side by side in the map 11.
  • the facility corresponding to the facility marks 13 and 14 in the area is associated with the coordinate value of the coordinate pattern 22 printed over the facility marks 13 and 14. Therefore, it is not necessary to display all the facilities that can be selected as the destination in Map 11.
  • Map 11, as shown in Figure 2 (a) can be a large scale map that displays a large area. In such a large-scale map 11, the user sets the desired facility as the destination by selecting the facility marks 13 and 14 near the point where the desired facility is presumed to exist. be able to.
  • a plurality of facility marks 13, 14 representing the types of facilities are printed side by side.
  • the plurality of facility information 104 to 107 are associated with different coordinate values for the facility marks 13 and 14, respectively. Therefore, the user can select all the facilities in the area by selecting the facility marks 13 and 14 so as to surround the entire facility marks 13 and 14, or can select the facility marks 13 and 14 so as to surround them. You can select only that type of facility in the area. User, eyes If the type of facility to be set as the target location is known in advance, the number of facilities listed in the navigation body 2 can be reduced. The user can cause the navigation main body 2 to display a list according to the purpose.
  • each facility name information 106 is associated with latitude / longitude information 107 of each facility. Further, the UI unit 86 of the navigation main body 2 generates a guidance route using the latitude / longitude information 107. Therefore, the navigation main body 2 does not fail to obtain the accurate latitude / longitude information 107 of the destination selected by the user. Even if the facility of the destination selected by the user is not registered in the navigation data 72, the UI unit 86 can always generate a guidance route to that destination.
  • the facility database 77 is recorded in the appendix memory card 6 that can be attached to and detached from the navigation body 2.
  • the appendix memory card 6 is provided to the user as an appendix of the map book 5. Therefore, the user can set a facility that is not recorded in the navigation body 2 as the destination. For example, the user can use the power S to set a facility such as a tourist attraction or a store after the navigation main body 2 is shipped.
  • the read data generation unit 46 of the navigation body 2 is the electronic pen.
  • the range of the page surrounded by 4 is specified, and the facility information 104 to 107 associated with the coordinate values within the specified range are extracted.
  • the read data generation unit 46 identifies the range of the page including the part checked by the electronic pen 4, and the facility information 104 to 104 associated with the coordinate values in the identified range. May be extracted
  • the UI unit 86 has a plurality of pieces of facility name information displayed on the liquid crystal device 66.
  • the UI unit 86 may select one of a plurality of facility name information 106 displayed on the liquid crystal device 66 as a starting point or a waypoint for route search. In addition, for example, the UI unit 86 may select one of a plurality of facility name information 106 displayed on the liquid crystal device 66 as a desired point for displaying (outputting) the facility information. Yo! / [0114] In the facility database 77 of the above embodiment, each facility information 104 to 107 is associated with the coordinate value of the coordinate pattern 22 that is printed over the facility mark 13 or 14 to which it corresponds. Yes.
  • each facility information 104 to 107 is stored in the coordinate value 22 of the coordinate pattern 22 that is printed over the name 12 of the region such as “XX Plateau” to which it corresponds in the facility data base 77. It may be associated. Further, when the coordinate values of the area name 12 are associated with the facility information 104 to 107 as described above, the facility marks 13 and 14 need not be printed on the map 11. In this case, by tracing the name 12 of the area such as “XX Plateau” with the electronic pen 4, the facility associated with the area can be displayed on the liquid crystal device 66 of the navigation body 2.
  • the facility mark 13, 14 for each facility classification is printed on the map 11 of the above embodiment.
  • the plurality of facility name information 106 and latitude / longitude information 107 are classified for each region and each type of facility, and are associated with different coordinate values 103 for each classification.
  • a facility mark for each management form such as the scale and business hours of a facility is printed on the map 11 or outside the map 11, and a plurality of facility name information 106 and latitude / longitude information 107 are It is classified according to its management form, and is associated with different coordinate values for each category! /, Or even! /.
  • the liquid crystal device 66 of the above embodiment displays a list of a plurality of facility name information 106 in the extracted facility list 83.
  • the liquid crystal device 66 may display a plurality of facility name information 106 in the extracted facility list 83 in a distributed arrangement on the map of the area according to each latitude and longitude information 107. Yo! /
  • the facility database 77 of the above embodiment is recorded in the appendix memory card 6 and inserted into the navigation body 2 for use.
  • the facility database 77 may be recorded on the HDD 63 of the navigation main body 2 or may be recorded on another type of computer-readable recording medium such as a CD-ROM.
  • the facility database 77 is recorded on a server where the navigation main unit 2 can be accessed via a wireless communication line or the Internet!
  • the facility database 77 of the above embodiment includes facility name information 106 and latitude / longitude information 107 as basic facility information of each facility.
  • 77 stores, as basic facility information of each facility, additional information such as the business day, business hours, facility usage fee, facility information and advertisements of the facility, and UI part 86 stores the facility information.
  • the attached information may be displayed on the liquid crystal device 66.
  • the read data 42 generated by the electronic pen 4 is used by the navigation body 2 installed in the automobile.
  • the read data 42 generated by the electronic pen 4 may be used by a mobile terminal such as a mobile phone terminal having a GPS receiver to extract points used for route search.
  • FIG. 14 is a flowchart showing the overall processing flow of the car navigation system 1 corresponding to this series of user operations.
  • step ST2 When the user writes a circle in the center of the map sheet 10 in FIG. 2 (b) with the electronic pen 4, the pen tip of the electronic pen 4 (that is, the tip of the ballpoint pen shaft 32) is pressed against the map sheet 10. The When the tip of the ballpoint pen shaft 32 is pressed against the paper surface, the output value of the pen pressure sensor 34 rises to a predetermined value or more. As a result, the read data generation unit 46 and the audio data generation unit 47 of the electronic pen 4 determine Yes in step ST1, and start the storage process (step ST2).
  • the CMOS camera 35 of the electronic pen 4 receives the infrared ray reflected by the map sheet 10 and outputs a plurality of intensity distribution data to the microcomputer 41 in order.
  • the read data generation unit 46 identifies a 6 ⁇ 6 dot 21 image from each intensity distribution data, and calculates the coordinate value of the position traced by the electronic pen 4 .
  • a plurality of coordinate values generated by the read data generation unit 46 for each intensity distribution data are stored in the nonvolatile memory 40 as read data 42. As shown in FIG. 5, the nonvolatile memory 40 stores a plurality of coordinate value reading data 42 when a circle is written in the center of the map sheet 10.
  • the AD converter 39 samples the audio waveform generated by the microphone 38.
  • the voice data generation unit 47 Data generated by the converter 39 is stored in the nonvolatile memory 40 as audio data 43.
  • the nonvolatile memory 40 stores voice data 43 having voice envelope information of “bank” spoken by the user while performing a writing operation with the electronic pen 4.
  • the non-volatile memory 40 stores the handwriting data by the writing and the writing period. Audio data 43 for a period including this is stored.
  • the data transmission unit 48 of the electronic pen 4 reads the read data 42 from the nonvolatile memory 40. And read voice data 43 and send navigation main unit 2.
  • the read data 42 and the audio data 43 transmitted by the data transmission unit 48 are transmitted to the USB I / F 68 of the navigation main body 2 via the USB I / F 36 of the electronic pen 4 and the USB cable 3.
  • the data acquisition unit 87 of the navigation main unit 2 acquires the read data 42 and the audio data 43 received from the USB I / F 68 and records them in the temporary memory 67 as the acquired read data 81 and the acquired audio data 82 (step ST3)
  • the data processing unit 88 of the navigation body 2 starts the generation process of the extraction facility list 83.
  • the read data processing unit 91 and the voice data processing unit 92 execute each process in parallel.
  • the read data processing unit 91 specifies a range designated by the electronic pen 4 (step ST4). Specifically, for example, the read data processing unit 91 first converts all coordinate values in the acquired read data 81 into corresponding latitude and longitude values using the coordinate conversion table 76. Next, the read data processing unit 91 specifies an extraction area range of a predetermined shape (for example, a circular range inscribed in the handwriting) surrounded by the plurality of latitude and longitude values. Note that the read data processing unit 91 may specify an extraction area range having a predetermined shape including a plurality of latitude and longitude values (for example, a circular range circumscribing the handwriting).
  • a predetermined shape for example, a circular range inscribed in the handwriting
  • the voice data processing unit 92 specifies the type of facility designated by the user by voice through voice recognition processing (step ST5). Specifically, for example, the voice data processing unit 92 first sets one registered voice envelope information 102 from the voice recognition dictionary database 78. Acquire in order and compare with the acquired audio data 82. When a portion of the speech waveform based on the acquired speech data 82 that matches the speech waveform based on the registered speech envelope information 102 or matches within a predetermined error range is detected, the speech data processing unit 92 detects the speech recognition dictionary. Extraction condition information 101 corresponding to the registered speech envelope information 102 in the database 78 is acquired from the speech recognition dictionary database 78.
  • the voice data processing unit 92 repeats the above comparison process for all the registered voice envelope information 102 in the voice recognition dictionary database 78! All the registered voice envelope information 102 for which a match is determined. One or a plurality of extraction condition information 101 corresponding to is acquired. As a result, the type power of one or a plurality of facilities designated by the user by the utterance and the voice data processing unit 92 are specified. Then, the audio data processing unit 92 determines that the condition has been extracted (Yes) in step ST6, and ends the process.
  • step ST6 it is determined that the condition has not been extracted (No), and information indicating that there is no extraction condition for the facility type is generated (step ST7). Then, the audio data processing unit 92 ends the process.
  • the extraction processing unit 93 starts the extraction process of facilities corresponding to the combination of these extraction conditions (step ST8).
  • the extraction processing unit 93 first determines whether or not the type of facility to be extracted by the audio data processing unit 92 is specified. If the type of facility to be extracted is specified, the extraction processing unit 93 limits the search range of the facility database 77 to the type of facility. Specifically, for example, when “bank” is specified as the type of facility to be extracted by the voice data processing unit 92, the extraction processing unit 93 selects the search range in the facility database 77 in FIG. The facility type information 98 is limited to the bank.
  • the extraction processing unit 93 searches the facility database 77 in FIG. Is not limited. In this case, all facility information in the facility database 77 is searched.
  • the extraction processing unit 93 uses the extracted area range specified by the read data processing unit 91 to convert the latitude and longitude values in the range.
  • the associated facility information is extracted from the facility database 77.
  • the extraction processing unit 93 determines the facility information associated with the latitude and longitude values in the extracted region range within the limited range. Are extracted from the facility database 77.
  • the facility information extracted by the extraction processing unit 93 is recorded in the temporary memory 67 as the extracted facility list 83.
  • the extraction is performed.
  • the processing unit 93 determines whether the latitude / longitude value of the facility whose type information 98 is “bank” is within the extracted area range. If the latitude / longitude value of the facility is within the extracted area range, the extraction processing unit 93 reads the facility information of the facility from the facility database 77 and adds it to the extracted facility list 83.
  • the extraction processing unit 93 performs the above-described latitude / longitude comparison processing for all the facilities within the restricted range in the facility database 77, and extracts the facility information of the facilities within the extracted region range.
  • the extraction processing unit 93 extracts the facility information of the bank A and the facility information of the bank C, and extracts the extracted facility list. Add to 83.
  • the extracted facility list 83 stored in the temporary memory 67 includes bank A type information 113, facility name information 111 and latitude / longitude information 112, bank C type information 113, facility name information 111 and latitude / longitude information 112. Will be saved.
  • step ST8 When the generation process (step ST8) of the extraction facility list 83 by the extraction processing unit 93 ends, the generation process of the extraction facility list 83 by the data processing unit 88 ends.
  • the UI unit 86 reads a plurality of facility name information 111 stored in the extraction facility list 83 and displays it on the liquid crystal device 66.
  • FIG. 15 is a diagram showing an example of a display screen of the extraction facility list 83 displayed on the liquid crystal device 66 in FIG.
  • the names of multiple facilities in the extracted facility list 83 are displayed.
  • Information 111 is listed.
  • a character string of “genre name bank” indicating the type of facility extracted in the extracted facility list 83 is displayed.
  • the UI unit 86 reads necessary information from the extracted facility list 83 and generates these displays. With this display, the user can specify a range on the map sheet 10 using the electronic pen 4 and can confirm that the facility of the type specified by the utterance is correctly extracted.
  • the UI unit 86 displays the extraction facility list 83 on the liquid crystal device 66 and then waits for an input operation.
  • the user operates the touch panel 65 while the display screen of the extraction facility list 83 of FIG.
  • the user operates the destination setting button 121 after selecting one of the displayed plurality of facility name information 111.
  • the user operates the destination setting button 121 after selecting the displayed “bank A”.
  • the UI unit 86 determines the content of the operation and specifies a point used for the route search. For example, if the UI unit 86 determines that the destination setting button 121 is operated after “bank A” is selected based on the operation data, the UI unit 86 selects a facility whose facility name information 111 is “bank A” for route search. Select the destination.
  • the UI unit 86 After selecting a destination to be used for route search, the UI unit 86 starts a process for generating a planned route to the selected destination. Specifically, the UI unit 86 first reads the latitude / longitude information 112 corresponding to the selected facility name information 111 from the extracted facility list 83. Next, using the node data and link data of the navigation data 72, the UI unit 86 searches for the direction and guidance route from the current position to the point of the latitude / longitude information 112 read. Thereafter, the UI unit 86 stores the searched guidance route in the HDD 63. As a result, the guidance route data 73 is recorded in the HDD 63 to the facility designated by the user by operating the touch panel 65 (here, “Bank A”).
  • the UI unit 86 After searching for the guide route and storing it in the HDD 63, the UI unit 86 causes the liquid crystal device 66 to display the guide route stored in the HDD 63. Specifically, for example, the UI unit 86 reads the map data of the range including the starting point and the destination of the planned route from the navigation data 72, and displays a screen in which the route is assigned on the read map. Device 6 6 is displayed.
  • FIG. 16 is a diagram showing an example of a display screen that displays a guide route from the current position to the destination selected from the extracted facility list 83.
  • the current position and the destination are displayed as square figures, and the guidance route is displayed as a bold line.
  • “Bank A”, which is the name of the selected facility, is displayed near the destination.
  • the UI unit 86 starts guidance by the route. Specifically, for example, the UI unit 86 displays, on the liquid crystal device 66, a map around the current position on which a mark indicating the current position generated by the current position data generation unit 85 and a line indicating a part of the guide route are superimposed. Let In addition, when the current position moves, the UI unit 86 updates the display of the liquid crystal device 66 so that the current position mark is continuously displayed in the center of the screen. Informs by voice or the like and guides the route. If the UI unit 86 determines that the current position generated by the current position data generation unit 85 has deviated from the guidance route, the UI unit 86 uses the navigation data 72 to search again for the guidance route and continue guidance. The user can drive the vehicle according to the display on the liquid crystal device 66 and the like, and can reach “Bank A” as the selected destination.
  • the read data processing unit 91 specifies the extraction area range based on the handwriting read data 42 generated by the electronic pen 4, and the voice.
  • the data processing unit 92 identifies the type of facility to be extracted based on the speech data 43 of the utterance generated by the electronic pen 4, and the extraction processing unit 93 specifies the type of facility of the specified type within this extraction area range. Extract facility information. Therefore, the car navigation system 1 uses the two extraction conditions of the extraction area range specified by the writing operation (or tracing operation) using the electronic pen 4 and the type of facility specified by the utterance, so that the facility data It is possible to narrow down the information of the database 77.
  • FIG. 17 shows a menu selection screen 122 when there are a plurality of options in the range specified by the electronic pen 4 and the extracted facility list is displayed on the liquid crystal device 66 as shown in FIGS.
  • the desired facility name can be selected from the displayed facility names. Therefore, the user can select a desired facility name with the electronic pen 4 without performing an operation with the touch panel.
  • a plurality of patterns 123 indicating directions such as a plurality of arrows are described.
  • a plurality of dot patterns printed on the pattern 123 are printed.
  • the menu selection screen 122 can be described for each section of the map as shown in Fig. 17 or one map. It can be a single seat at a predetermined position, or it can be an independent seat as a command seat that supports navigation! /.
  • the user can select a desired facility from a plurality of facilities that are narrowed down by narrowing down a lot of facility information in a pinpoint manner by writing operation and voice operation. . That is, the user can narrow down the types of facilities without using a hand, and can immediately select a desired facility from a plurality of narrowed down facilities. In addition, the user can narrow down the facilities in a short time with substantially fewer manual operations than when trying to narrow down the same with only writing operations.
  • the microphone 38 is provided in a part of the electronic pen 4 held by the user, and the user I / F is collected in the electronic pen 4. Therefore, when the user speaks while performing a writing operation (or a tracing operation) with the electronic pen 4, the microphone 38 can generate the voice data 43 based on the speech. That is, even if the user speaks while performing a predetermined operation without being aware of the position of the microphone 38, the microphone 38 can reliably collect the sound.
  • the read data processing unit 91, the audio data processing unit 92 and the extraction of this embodiment can execute the respective processes in parallel independently of each other. Therefore, when the user speaks while performing a writing operation (or tracing operation) with the electronic pen 4, the read data processing unit 91 performs processing using the acquired read data 81, and the voice data processing unit 92 acquires it. Processing can be executed independently using the audio data 82. As a result, the car navigation system 1 has no time limit between the writing operation (or tracing operation) using the electronic pen 4 by the user and the operation by speech. Therefore, the user can perform operations and utterances without worrying about the order of the operations with the electronic pen 4 and the operations with the utterances and the time relationship.
  • the read data generation unit 46 and the audio data generation unit 47 of the electronic pen 4 of this embodiment generate the respective data when the writing pressure detected by the writing pressure sensor 34 exceeds a predetermined value.
  • the voice data processing unit 92 can specify the type of facility to be extracted based on the voice data 43 in a predetermined period based on the detection timing of the writing pressure by the writing pressure sensor 34.
  • the read data 42 and the audio data 43 are transmitted together by the data transmission unit 48 to the navigation body 2. Therefore, the extraction processing unit 93 clarifies the extraction area range as the first extraction condition generated by the read data processing unit 91 and the facility type as the second extraction condition generated by the voice data processing unit 92.
  • the extraction process can be executed in association with As a result, the car navigation system 1 limits the accumulation period of the audio data 43 in order to associate the extraction area range, which is the first extraction condition, with the type of facility to be extracted, which is the second extraction condition. do not have to.
  • the generation unit 47 does not generate each data. Therefore, a facility extraction condition not intended by the user is not generated, and the unintended facility extraction condition is not used for the facility extraction processing by the extraction processing unit 93.
  • the voice data processing unit 92 of this embodiment accumulates the voice data 43 in a predetermined no-operation period even after the writing pressure detected by the writing pressure sensor 34 becomes smaller than a predetermined value.
  • the audio data processing unit 92 processes the audio data 43. Therefore, Whether the user speaks during the writing operation (or during the tracing operation) or after the operation, the voice data processing unit 92 can limit the types of facilities to be extracted based on the speech S it can.
  • the voice data processing unit 92 can appropriately limit the types of facilities according to voices that the user utters during a writing operation or a tracing operation.
  • the voice data processing unit 92 of this embodiment compares the acquired voice data 82 with the predetermined registered voice envelope information 102 previously associated with the type of facility in the voice recognition dictionary database 78, The extraction condition of the type of facility to be extracted is generated by the limited comparison.
  • the voice data processing unit 92 when no type of facility to be extracted is specified, the voice data processing unit 92 generates information indicating that there is no extraction condition for the type of facility, and the extraction processing unit 93 Does not limit the search range. Therefore, even if the voice data processing unit 92 does not generate the facility type extraction condition based on the acquired voice data 82 because, for example, the user is not speaking, the extraction processing unit 93 The extraction process can be executed based on the extraction area range. If the user does not narrow down by voice, there is no need to instruct that. Users do not need to be aware of whether or not to narrow down by voice! /.
  • the read data 42 and audio data 43 buffered in the nonvolatile memory 40 of 4 are acquired and processed.
  • the read data processing unit 91 and the voice data processing unit 92 constantly acquire the read data 42 and the voice data 43 from the read data generation unit 46 and the voice data processing unit 92 of the electronic pen 4 in real time. It may be what is processed.
  • the electronic pen 4 is connected to the navigation main body 2 in the vehicle. It must be in a communicable state. Also, in the flowchart of FIG. 14, it is determined whether or not the process is completed after the extraction process of step ST8.
  • step ST1 or step ST3 Return to the above.
  • the navigation system 1 can narrow down the information by combining the search conditions based on the operation at each time.
  • the UI unit 86 has a plurality of pieces of facility name information displayed on the liquid crystal device 66.
  • One of 111 is selected as the destination.
  • the UI unit 86 may select one of a plurality of facility name information 111 displayed on the liquid crystal device 66 as a starting point or a waypoint for route search.
  • the read data processing unit 91 of the above embodiment compares the latitude / longitude value of each location with the extracted area range for each facility in the facility database 77, and within the extracted area range. Judging whether there is.
  • the coordinate value is associated with each facility in the facility database 77, and the read data processing unit 91 extracts the extracted area range based on the plurality of coordinate values of the acquired read data 81, and each facility in the facility database 77.
  • the coordinate values may be compared to determine whether each facility is within the extraction area range based on the inclusion relationship of the coordinate values.
  • the coordinate value associated with each facility in the facility database 77 may be the coordinate value of the individual coordinate pattern 22 printed on the map book 5 so as to overlap each location. It may be the coordinate value of the common coordinate pattern 22 that is printed over a predetermined point.
  • each facility may be associated with coordinate values of a plurality of coordinate patterns 22.
  • the liquid crystal device 66 of the above embodiment displays a list of a plurality of facility name information 111 in the extracted facility list 83.
  • the liquid crystal device 66 may display a map in which a plurality of facility name information 111 in the extracted facility list 83 is distributed and arranged based on the latitude and longitude information 112 on the map of the area. .
  • the facility database 77 of the above embodiment is recorded in the appendix memory card 6 and inserted into the navigation main body 2 for use.
  • the facility database 77 may be recorded on the HDD 63 of the navigation main body 2 or may be recorded on another type of computer-readable recording medium such as a CD-ROM.
  • the facility database 77 shows that the navigation body 2 is connected to a wireless communication line or the Internet. Recorded on a server accessible via, etc.! /, May!
  • the facility database 77 of the above embodiment includes facility name information 96 and latitude / longitude information 97 as information of each facility.
  • the facility database 77 stores, as basic facility information for each facility, additional information such as business days, business hours, facility usage fees, facility guidance and advertisements of the facility,
  • the UI unit 86 may display the attached information on the liquid crystal device 66 when the facility is selected.
  • the read data processing unit 91, the audio data processing unit 92, and the extraction processing unit 93 are provided in the navigation body 2 that can communicate with the electronic pen 4.
  • some of the read data processing unit 91, the voice data processing unit 92, and the extraction processing unit 93 are all provided in the electronic pen 4! /, May! .
  • the read data 42 generated by the electronic pen 4 is used by the navigation body 2 installed in the automobile.
  • the read data 42 generated by the electronic pen 4 may be used by a mobile terminal such as a mobile phone terminal having the GPS receiver 62 to extract a point used for route search. .
  • the above embodiment is an example in the point narrowing operation in the car navigation system 1.
  • the present invention can be used in, for example, a narrowing operation of setting items of a navigation device or a narrowing operation of information in a computer device or the like.
  • the process of specifying the extraction range (ST4) and the process of specifying the type of facility (ST5 to ST7) shown in Fig. 14 may be a serial process.
  • the extraction process (ST8) shown in Fig. 14 the ability to specify (narrow down) the facility type after specifying (narrow down) the facility type. Reverse the order of these processes. Is also possible.
  • the present invention can be suitably used to set points such as destinations, waypoints, and departure points in a navigation body that generates a guide route.
  • the present invention is suitable for narrowing down information in the facility database of the navigation main body. Can be used.

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Mathematical Physics (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Navigation (AREA)

Abstract

情報抽出装置1の電子筆記具4は、ユーザが媒体5へ書き込みをした筆跡データ42あるいは媒体5をなぞった筆跡データ42を生成するとともに、音声データ43を生成するためのマイクロホン38が配設される。第一生成手段91は、筆跡データ81(42)に基づいて第一の抽出条件を生成する。第二生成手段92は、音声データ81(43)に基づいて第二の抽出条件を生成する。抽出手段93は、情報データベース77から、第一の抽出条件および第二の抽出条件を満たす情報を抽出する。ユーザがマイクロホンなどの位置を意識することなく発話および所定の操作を為すことができ、これにより楽な操作により情報を絞り込むことができること。ユーザがマイクロホンなどの位置を意識することなく発話および所定の操作を為すことができ、これにより楽な操作により情報を絞り込むことができる。

Description

明 細 書
ナビゲーシヨンシステムおよび地点の選択方法
技術分野
[0001] 本発明は、ナビゲーシヨンシステムおよび地点の選択方法に関する。
背景技術
[0002] 特許文献 1は、ナビゲーシヨンシステムを開示する。このナビゲーシヨンシステムの 位置情報読取手段は、シート状の地図表示手段中において、位置情報指示手段に より指示された位置の位置情報を読み取る。経路誘導装置は、この位置情報を用い て経路を誘導する。
[0003] 特許文献 2は、ナビゲーシヨン装置を開示する。このナビゲーシヨン装置は、デイス プレイに地図を表示する。また、このナビゲーシヨン装置は、表示地図においてタツチ パネルにより指定された検索希望範囲内の、音声キーワードにより指定された施設の 位置情報をディスプレイに表示する。
[0004] 特許文献 3は、位置情報をドットパターンで記録した紙と、前記ドットパターンを読み 取ることで位置情報を取得し電子的に読み取り可能な位置情報に変換する電子ペン を備えた地図情報処理システムを開示する。そして、この地図情報処理システムは、 電子ペンにより取得した紙の位置情報を電子地図上の座標に変換する。
[0005] 特許文献 4は、入出力処理部(たとえばタツチパネル)で受け付けた範囲内の関連 情報を関連情報記憶部から検索すると共に、検索した全関連情報の中から、音声認 識部で認識した関連情報を検索するナビゲーシヨン装置を開示する。また、音声入 力部による音声の受付と、入出力処理部による範囲指定の受付とが所定の期間内に あった場合に、関連情報を検索することを開示する。
[0006] 特許文献 5は、マイクロホンを複数の所定位置に配置することにより、認識率を高く し、さらに、制御動作を不必要に制限することのない音声認識装置を用いた制御装 置を開示する。
[0007] 特許文献 1:特開 2003— 287432号公報(特許請求の範囲など)
特許文献 2 :特開 2002— 350151号公報 (要約、図 2、発明の詳細な説明など) 特許文献 3:特開 2004— 294942号公報(特許請求の範囲など)
特許文献 4 :特開 2002— 350151号公報(特許請求の範囲など)
特許文献 5:特開 2001— 222291号公報(要約など)
発明の開示
発明が解決しょうとする課題
[0008] 特許文献 1のように、経路探索に用いる目的地などの地点を、印刷された地図上で 電子ペンなどを用いて指定することで、ユーザによる目的地の設定が容易となるよう に思える。ユーザは、たとえば、ナビゲーシヨン装置に施設名などを入力することで目 的地を設定する場合に比べて、正確な施設名などを知らなくとも、所望の施設を容易 に目的地に設定することができるように思える。この他にもたとえば、ユーザは、ナビ ゲーシヨン装置の階層化された施設データベース内を探し回る煩雑な操作をしたり、 特許文献 2のように所定の地域を表示するための煩雑な地図の切り替え操作をしたり することなぐ所望の施設を容易に目的地に設定することができるように思える。ユー ザは、施設の大まかな位置などを知っていれば、所望の施設を容易に目的地に設定 すること力 Sできるように思える。
[0009] しかしながら、ユーザがナビゲーシヨン装置の目的地として設定可能な施設は、多 数存在する。特に、市街地や観光地などの地域にあっては、多数の施設が 1つの場 所に密集して存在している。このような事情があるため、ユーザが電子ペンを用いて 地図上で指定した範囲内には、通常、複数の施設が含まれてしまうことになる。ユー ザは、電子ペンを用いて、印刷された地図上でラフな指定をするだけでは、実際には 、所望の施設を、 目的地などとして特定することができない。
[0010] もしも、特許文献 1のように、印刷された地図上において所望の地点を電子ペンに よる指定により目的地などとして指定可能とするためには、地図は、たとえば隣接する
2つの施設が区別して指定可能となるものでなければならない。地図は、小さい縮尺 のものとならざるを得ない。特に、地図上に各施設をマークにより表す場合には、そ れらのマーク同士が地図上で重ならないようにする必要がある。そのため、地図は、 さらに小さい縮尺のものとする必要が生じる可能性がある。このような小さい縮尺の地 図を用いたとき、地図帳は、たとえば町単位で異なる紙面に分けられた分厚いものと なる。ユーザは、町単位で異なる紙面に分けられた分厚い地図帳において所望の施 設を探し、 目的地などとして指定しなければならなくなる。結局のところ、ユーザは、 施設の位置などに関して、事前に、詳しい情報を知っている必要がある。
[0011] また、従来、ナビゲーシヨン装置などにおいて所望の地点を目的地などとして選択 する場合、複数の地点の情報を有する地点データベースを用いて、地点を絞り込む 作業をする必要がある。つまり、ユーザは、たとえばナビゲーシヨン装置のタツチパネ ルを操作し、複数の地点をジャンルにより絞り込んだり、地図上に所望の地域を表示 させたりした上で、所望の目的地を選択することになる。この地点の絞込み作業は、 ユーザにとって煩雑なものである。そこで、この地点の絞込み操作を容易にするため に、特許文献 4にあるように、タツチパネルの操作と発話による操作とを組合せること が考えられる。
[0012] しかしながら、たとえば自動車などに設置されるナビゲーシヨン装置などにあっては 、音声を集音するマイクロホンは、特許文献 5にあるように所定の位置に配設される。 自動車などでのマイクロホンの設置位置は、ユーザがナビゲーシヨン装置のタツチパ ネルの操作をしながら発話した音声を拾うために好適な位置になるとは限らない。
[0013] そのため、ユーザは、マイクロホンの設置位置を意識して、その設置位置へ向かつ て発話しなければならない。つまり、ユーザは、地点の絞込み操作などにおいて、た とえばダッシュボードの中央に設置されたナビゲーシヨン装置のタツチパネルを操作 し、且つ、マイクロホンの設置位置へ顔を向けて発話しなければならない。その結果 、特許文献 4にあるようにタツチパネルの操作と音声による操作とを単に組合せるよう にしたとしても、タツチパネルへの操作回数を減らすことができるものの、ユーザにと つて一連の作業が煩雑なものであることには変わりがない。
[0014] 特に、ナビゲーシヨン装置などは、ユーザによるタツチパネルの操作とユーザの音 声とを別々に受け付け、その上で、これらの操作内容を内部で関連付ける必要があ る。そのため、ナビゲーシヨン装置などは、特許文献 4にあるように、一定時間内での 音声とタツチパネルの操作とを関連付けるように動作することになる。その結果、ユー ザは、タツチパネルへの操作と音声による操作とを、タツチパネルの位置とマイクロホ ンの位置とを意識しながら実行し、しかも、所定の短い期間の間に完了するように急 いで実行しなければならなくなってしまう。タツチパネルの操作と音声による操作とを 組合せることが、タツチパネルの操作のみの場合には無かった操作時間の制約を生 み、ユーザにとってかえって負担となってしまう可能性も否定できない。
[0015] なお、このような情報の絞込み操作の煩雑さや使い勝手の悪さは、ナビゲーシヨン 装置での地点の絞込み操作に限られるものではない。たとえば、ナビゲーシヨン装置 の設定項目の絞込み操作や、コンピュータ装置などにおける情報の絞込み操作にお いても、同様の課題が生じている。
[0016] 1つの側面において、本発明は、電子ペンなどの携帯入力装置と地図の印刷物と を好適に用いることで、ユーザが所望する施設を、ユーザがその施設の詳しい位置 や正確な名称などを知らなくとも容易に、ナビゲーシヨン本体において指定すること ができるナビゲーシヨンシステムおよび地点の選択方法を得ることを目的とする。
[0017] また、他の側面において、本発明は、ユーザがマイクロホンなどの位置を意識する ことなく発話および所定の操作を為すことができ、これにより楽な操作により情報を絞 り込むことができる情報抽出装置および情報抽出方法を得ることを目的とする。
[0018] 従って、本発明によれば、電子ペン等の携帯入力装置と地図の印刷物とを好適に 用いることで、ユーザが所望する施設を容易に絞り込むことができるナビゲーシヨンシ ステム及び地点の選択方法を得ることを目的とする。
課題を解決するための手段
[0019] 本発明に係るナビゲーシヨンシステムは、印刷物に印刷された地図中の範囲を指 定する携帯入力装置と、ナビゲーシヨン本体とを有する。そして、ナビゲーシヨン本体 は、携帯入力装置により指定された範囲内に関連付けられている施設を表示する表 示手段と、表示手段に表示された施設の内から、所望の地点を選択する選択手段と 、を有する。
[0020] 本発明に係るナビゲーシヨンシステムは、上述した発明の構成に加えて以下の特 徴を有するものである。すなわち、地図が印刷される前記印刷物には、携帯入力装 置が読み取ることで座標値へ変換可能な座標パターンが印刷される。また、ナビグー シヨン本体は、印刷物に印刷される座標パターンの座標値と対応付けて複数の施設 の表示情報を記憶するデータベースから、携帯入力装置により指定された範囲内の 座標値に対応付けられている施設の表示情報を抽出する抽出手段を有する。更に、 表示手段は、抽出手段により抽出された施設の表示情報を、選択手段により選択可 能に表示する。
[0021] 本発明に係るナビゲーシヨンシステムは、上述した発明の構成に加えて以下の特 徴を有するものである。すなわち、印刷物の地図中には、座標パターンと重ねて、そ の地域の名称あるいは所定のマークが印刷される。また、データベースでは、所定の マークあるいは地域の名称と重なる座標パターンの座標値と対応付けて、その地域 に存在する施設の表示情報が対応付けられている。
[0022] 本発明に係るナビゲーシヨンシステムは、上述した発明の構成に加えて以下の特 徴を有するものである。すなわち、印刷物の地図中には、座標パターンと重ねて、施 設の種類を表す複数の施設マークが並べて印刷される。また、データベースでは、 各施設マークと重なる前記座標パターンの座標値と対応付けて、その種類の前記施 設の表示情報が対応付けられて V、る。
[0023] 本発明に係るナビゲーシヨンシステムは、上述した発明の構成に加えて以下の特 徴を有するものである。すなわち、データベースは、各施設の表示情報に、ナビゲー シヨン本体で利用可能な、その施設の緯度経度を示す緯度経度情報が対応付けら れている。また、ナビゲーシヨン本体は、前記選択手段により選択された施設の、デ ータベースにおける緯度経度情報を用いて案内経路を生成する案内経路生成手段 を有する。
[0024] 本発明に係るナビゲーシヨンシステムは、上述した発明の構成に加えて以下の特 徴を有するものである。すなわち、データベースは、ナビゲーシヨン本体と着脱可能 な携帯記録媒体に記憶されており、印刷物と対応付けてユーザ 提供されるもので ある。
[0025] 本発明に係るナビゲーシヨンシステムは、上述した発明の構成に加えて以下の特 徴を有するものである。すなわち、選択手段は、表示手段の操作により選択する。
[0026] 本発明に係るナビゲーシヨンシステムは、上述した発明の構成に加えて以下の特 徴を有するものである。すなわち、携帯入力装置は、音声を収集し、収集した音声を 音声データに変換するマイクロホンを備えている。また、選択手段は、該音声データ に基づいて選択する。
[0027] 本発明に係るナビゲーシヨンシステムは、上述した発明の構成に加えて以下の特 徴を有するものである。すなわち、マイクロホンは、携帯入力装置あるいは携帯入力 装置と通信可能なナビゲーシヨン本体に設けられている。
[0028] 本発明に係るナビゲーシヨンシステムは、上述した発明の構成に加えて以下の特 徴を有するものである。すなわち、表示手段による表示と音声データとに基づいて選 択する選択手段は、互いに独立してそれぞれの処理を並列的に実行可能である。
[0029] 本発明に係るナビゲーシヨンシステムは、上述した発明の構成に加えて以下の特 徴を有するものである。すなわち、携帯入力装置は、携帯入力装置による地図中の 範囲を指定する操作を検出する検出部材を有する。また、音声データに基づいて選 択する選択手段は、検出部材による操作の検出タイミングを基準とした所定の期間に おける音声データについて選択手段による選択処理を実行する。
[0030] 本発明に係るナビゲーシヨンシステムは、上述した発明の構成に加えて以下の特 徴を有するものである。すなわち、音声データに基づいて選択する選択手段は、検 出部材により操作が検出されている期間を含む所定の期間の前記音声データにつ いて選択処理を実行する。
[0031] 本発明に係るナビゲーシヨンシステムは、上述した発明の構成に加えて以下の特 徴を有するものである。すなわち、印刷物には地図に加えて方向を示す図柄力 携 帯入力装置が読み取ることで座標値に変換可能な座標パターンと共に印刷される。 また、選択手段は、携帯入力装置により方向を示す図柄を選択することによって、表 示手段に表示された施設の中から所望の施設を選択する。
[0032] 本発明に係るナビゲーシヨンシステムは、上述した発明の構成に加えて以下の特 徴を有するものである。すなわち、方向を示す図柄は、表示手段に表示される抽出 施設の選択方向を示して V、る。
[0033] 本発明に係る地点の選択方法は、印刷物に印刷された地図中の範囲が携帯入力 装置により指定されることで生成される範囲データを取得するステップと、取得した範 囲データにより特定される範囲内に関連付けられている施設を表示するステップと、 表示した施設の内から、所望の地点を選択するステップと、を有する。 発明の効果
[0034] 本発明では、電子ペンなどの携帯入力装置と地図の印刷物とが、所望の地点を指 定するために好適に用いられる。そのため、ユーザは、所望する施設を、その施設の 詳しい位置や正確な名称などを知らなくとも容易に、ナビゲーシヨン本体において指 定すること力 Sでさる。
また、本発明では、ユーザがマイクロホンなどの位置を意識することなく発話および 所定の操作を為すことができ、これにより楽な操作により情報を絞り込むことができる 図面の簡単な説明
[0035] [図 1]図 1は、本発明の実施の形態に係る情報抽出装置としてのカーナビゲーシヨン
Figure imgf000009_0001
[図 2(a)]図 2 (a)は、図 1の地図帳中の 1枚の地図シートである。
[図 2(b)]図 2 (b)は、図 1の地図帳中の 1枚の地図シートである。
[図 3]図 3は、図 2の地図シートに印刷される 1つの座標パターンの一例を示す紙面の 拡大図である。
[図 4]図 4は、図 1中の電子ペンに内蔵される電子回路などを示すブロック図である。
[図 5]図 5は、図 4中の読取データのデータ構造を示す説明図である。
[図 6]図 6は、図 4中の読取データ生成部および音声データ生成部によるデータの蓄 積期間の対応関係を示す説明図である。
[図 7]図 7は、図 1中のナビゲーシヨン本体の構成を示すブロック図である。
園 8(a)]図 8 (a)は、図 7中の施設データベースのデータ構造を示す説明図である。 園 8(b)]図 8 (b)は、図 7中の施設データベースのデータ構造を示す説明図である。
[図 9]図 9は、図 7中の音声認識辞書データベースのデータ構造を示す説明図である
[図 10(a)]図 10 (a)は、図 7中の抽出施設リストの一例を示す図である。
[図 10(b)]図 10 (b)は、図 7中の抽出施設リストの一例を示す図である。
[図 11]図 11は、図 7のナビゲーシヨン本体により実行される一連の処理の流れを示す フローチャートである。 [図 12]図 12は、図 7中の液晶デバイスに表示される抽出施設リストの表示画面の一 例を示す図である。
[図 13]図 13は、図 7中の液晶デバイスに表示される、現在位置から、抽出施設リスト から選択した目的地までの案内経路を表示する表示画面の一例を示す図である。
[図 14]図 14は、図 1のカーナビゲーシヨンシステムの全体的な処理の流れの一例を 示すフローチャートである。
[図 15]図 15は、図 7中の液晶デバイスに表示される、抽出施設リストの表示画面の一 例を示す図である。
[図 16]図 16は、図 7中の液晶デバイスに表示される、現在位置から、抽出施設リスト から選択した目的地までの案内経路を表示する表示画面の一例を示す図である。
[図 17]図 17は、地図帳に表示され、液晶デバイスに表示された施設のうちから所望 の施設を選択するための選択図柄を示す図である。
符号の説明
1 カーナビゲーシヨンシステム(情報抽出装置)
2 ナビゲーシヨン本体(装置本体)
4 電子ペン (電子筆記具)
5 地図帳 (媒体)
34 筆圧センサ(検出部材)
38 マイクロホン
42 読取データ(筆跡データ)
43 音声データ
77 施設データベース(情報データベース)
78 音声認識辞書データベース
81 取得読取データ (筆跡データ)
82 音声データ
88 データ処理部
91 読取データ処理部(第一生成手段)
92 音声データ処理部(第二生成手段) 93 抽出処理部 (抽出手段)
102 登録音声エンベロープ情報 (登録音声データ)
発明を実施するための最良の形態
[0037] 以下、本発明の実施の形態に係るナビゲーシヨンシステムおよび地点の選択方法 を、図面に基づいて説明する。ナビゲーシヨンシステムは、カーナビゲーシヨンシステ ムを例に説明する。地点の選択方法は、カーナビゲーシヨンシステムの動作の一部と して説明する。
[0038] 図 1は、本発明の実施の形態に係るカーナビゲーシヨンシステム 1を示す構成図で ある。カーナビゲーシヨンシステム 1は、自動車に設置されるナビゲーシヨン装置とし てのナビゲーシヨン本体 2と、ナビゲーシヨン本体 2と USB (Universal Serial Bus )ケーブル 3により接続可能な携帯入力装置としての電子ペン 4と、地図の印刷物とし ての地図帳 5と、地図帳 5の付録としてユーザへ提供される携帯記録媒体としての付 録メモリカード 6と、を有する。 USBケーブル 3は、通信ケーブルの一種である。
[0039] 図 2 (a)は、図 1中の地図帳 5中の 1枚の地図シート 10である。地図シート 10には、 赤外線を透過するインクにより、地図 11が印刷される。地図 11中には、観光地である X X高原の位置に、「X X高原」の文字列 12と、所定のマークの一種としてのホテル マーク(四角付きの H) 13と、所定のマークの一種としてのレストランマーク(四角付き の R) 14と、が印刷されている。また、地図シート 10の下部には、地図 11の印刷範囲 外に、決定マーク 15と、図中の施設マークの説明文 16と、が印刷されている。
[0040] 地図シート 10には、さらに、赤外線を吸収するインクにより、複数のドット 21が印刷 される。なお、地図シート 10は、赤外線を反射する。
[0041] 図 2 (b)は、地図シート 10の代替的な実施形態を示したものである。地図シート 10 には、赤外線を透過するインクにより、地図 11が印刷される。地図 11中には、道路と ともに、複数の施設が印刷されている。具体的には、四角付きの Bの記号により各銀 行が印刷され、四角付きの Cの記号によりコンビニエンスストアが印刷され、四角付き の Rの記号によりレストランが印刷されている。また、地図 11の下側には、これら地図 記号の汎例が印刷されている。地図シート 10には、さらに、赤外線を吸収するインク により、複数のドット 21が印刷される。 [0042] 図 3は、地図シート 10に印刷される 1つの座標パターン 22を示す紙面の拡大図で ある。赤外線を吸収するインクにより紙面に印刷される各ドット 21は、図 3に示すよう に、所定の一定間隔毎の縦基準線と横基準線との交点の位置を基準として、上下左 右のいずれかの方向(すなわち、 4つの方向の中の 1つの方向)へ少しずれた位置に 印刷される。そして、各座標パターン 22における 36個のドット 21のずれ方向の組合 せは、少なくとも地図帳 5に印刷されるすべての座標パターン 22の中で唯一なものと される。地図帳 5に印刷される複数のドット 21の中力も任意の 6 X 6個のドット 21を選 んだとき、その 36個のドット 21によるドット 21のずれ方向の組合せは、地図帳 5に印 刷される他のすべてのドット 21の組合せにおけるドット 21のずれ方向の組合せと異 なるものとなる。
[0043] 図 4は、電子ペン 4に内蔵される電子回路などを示すブロック図である。電子ペン 4 は、図 1に示すように、ボールペンやシャープペンシルなどと同様なペン形状のハウ ジング 31を有する。このペン形状のハウジング 31内に、図 4の電子回路が内蔵され る。また、ペン形状のハウジング 31の一端には、ボールペン軸 32が突出して配設さ れる。このボールペン軸 32の先端力 S、電子ペン 4のペン先となる。なお、電子ペン 4 は、ボールペン軸 32の代わりに、書込みができないスタイラスペン軸を有するもので あってもよい。なお、この電子ペン 4は、たとえば特表 2004— 535010号に開示され る電子ペン 4、あるいはそれと同等の電子ペン 4によるなぞり位置の座標値を生成す る機能を有するものである。
[0044] 電子ペン 4に内蔵される電子回路は、赤外線 LED33、ペン先に作用する圧力を検 出することで電子ペン 4による紙などへの書込み操作あるいはなぞり操作を検出する 検出部材としての筆圧センサ 34、 CMOSカメラ 35、 USBI/F (Interface) 36、タイ マ 37、マイクロホン 38、 ADコンバータ 39、不揮発性メモリ 40、マイクロコンピュータ 4 1などを有する。不揮発性メモリ 40は、筆跡データとしての読取データ 42と、音声デ ータ 43とを記憶する。
[0045] マイクロホン 38は、電子ペン 4のペン先とは反対側の端部に内蔵される。これにより 、ユーザが電子ペン 4を手に持ったとき、マイクロホン 38は、ユーザの手の甲の上側 になり、ユーザの顔の近くに位置することになる。 [0046] 図 4に示すように、電子ペン 4の赤外線 LED33は、ボールペン軸 32の先端および その周囲へ赤外線を照射する。 CMOSカメラ 35は、地図シート 10により反射される 赤外線を受光する。 CMOSカメラ 35は、受光した赤外線の強度分布データを、マイ クロコンピュータ 41へ出力する。
[0047] マイクロコンピュータ 41には、図示外の制御プログラムを図示外の CPU (Central Processing Unit)が実行することで、読取データ生成部 46と、音声データ生成部 47と、データ送信部 48と、が実現される。
[0048] 読取データ生成部 46は、 CMOSカメラ 35から供給される赤外線画像(赤外線の強 度分布パターンを有する画像)に含まれる 6 X 6のドット 21の像を特定し、その特定し た 6 X 6のドット 21の組合せに 1対 1に対応する座標値、すなわち読み取った座標パ ターン 22に 1対 1に対応する座標値を演算する。読取データ生成部 46は、地図帳 5 のすベてのページを仮想的な枚のシート状に並べ、そのシートの所定の位置(たとえ ば左上隅)などを基準とする座標値を演算する。なお、読取データ生成部 46は、地 図帳 5の地図シート 10毎に、その左上隅を基準とする座標値を演算するようにしても よい。
[0049] また、読取データ生成部 46は、演算した座標値と、筆圧センサ 34により検出される そのときの筆圧値 (ボールペン軸 32に作用するそのときの筆圧値)と、タイマ 37により 計測されるそのときの時刻とを、不揮発性メモリ 40へ供給する。
[0050] 図 5は、不揮発性メモリ 40に記録される読取データ 42のデータ構造を示す説明図 である。図 5において、各行は、読取データ 42の 1つのレコードに対応する。不揮発 性メモリ 40は、読取データ生成部 46から上述したデータが供給されると、それらを 1 つのレコードとして読取データ 42に追加する。読取データ 42の各レコードは、電子 ペン 4が読み取った座標パターン 22に対応する座標値を有する読取座標情報 51と 、筆圧センサ 34により検出されたそのときの筆圧値を有するペン圧情報 52と、タイマ 37によるそのときの計測時刻を有する読取時刻情報 53と、を有する。なお、図 5の読 取データ 42は、図 2 (a)の地図 11中のホテルマーク 13の周囲を円でなぞった筆跡 データ又は図 2 (b)の地図 11の中央部分に縁の書き込みをした筆跡データである。 筆跡データは、複数のレコードで構成される。 [0051] ADコンバータ 39は、マイクロホン 38が収集した音声による音声波形をサンプリング し、音声波形を表す音声データ 43を生成する。音声データ生成部 47は、 ADコンパ ータ 39から音声データ 43を取得し、不揮発性メモリ 40に記憶させる。不揮発性メモリ 40には、音声データ 43が蓄積される。
[0052] 図 6は、読取データ生成部 46により不揮発性メモリ 40に蓄積される読取データ 42 の蓄積期間と、音声データ生成部 47により不揮発性メモリ 40に蓄積される音声デー タ 43の蓄積期間との対応関係を示す説明図である。
[0053] 読取データ生成部 46は、筆圧センサ 34が所定値以上の筆圧を検出すると、読取 データ 42の蓄積処理を開始する。また、読取データ生成部 46は、筆圧センサ 34の 検出筆圧値が所定値より小さくなると、読取データ 42の蓄積処理を終了する。不揮 発性メモリ 40には、この読取データ 42の蓄積開始から蓄積終了までの期間において 読取データ生成部 46が生成した読取データ 42が蓄積される。
[0054] 音声データ生成部 47は、筆圧センサ 34が所定値以上の筆圧を検出すると、音声 データ 43の蓄積処理を開始する。また、音声データ生成部 47は、筆圧センサ 34の 検出筆圧値が所定値より小さくなつてからタイマ 37により所定の無操作期間(たとえ ば 5秒)が計測されると、音声データ 43の蓄積処理を終了する。不揮発性メモリ 40に は、この音声データ 43の蓄積開始から蓄積終了までの期間において音声データ生 成部 47が生成した音声データ 43が蓄積される。
[0055] なお、この無操作期間が経過する前に次の書込みが開始されると、筆圧センサ 34 の検出筆圧値が所定値より大きくなるため、音声データ生成部 47は、音声データ 43 の蓄積処理を延長することになる。音声データ生成部 47は、所定の無操作期間(た とえば 5秒)が計測されるまでの一連の書込み操作期間において、音声データ 43を 蓄積することになる。
[0056] また、音声データ生成部 47は、筆圧センサ 34による筆圧検出以外のイベント、たと えば USBケーブル 3によるナビゲーシヨン本体 2への接続などをトリガとして、音声デ ータ 43の蓄積処理を開始するようにしてもよい。この他にもたとえば、音声データ生 成部 47は、筆圧センサ 34の検出筆圧値が所定値より小さくなると直ちに、音声デー タ 43の蓄積処理を終了するようにしてもよい。この他にもたとえば、音声データ生成 部 47は、書込み毎に音声データ 43を蓄積したり、常に音声データ 43を蓄積したりす るようにしてあよレヽ。
[0057] データ送信部 48は、 USBケーブル 3により電子ペン 4の USBI/F36と図 1中のナ ビゲーシヨン本体 2の後述する USBI/F68とが接続されて!/、る場合、不揮発性メモ リ 40に記録されている読取データ 42および音声データ 43を、ナビゲーシヨン本体 2 へ送信する。なお、電子ペン 4やナビゲーシヨン本体 2は、 USBI/F36, 68の代わり に、たとえばブルートゥースなどの無線通信 I/Fを備えるものであってもよい。この変 形例の場合、データ送信部 48は、無線通信 I/F同士が互いを認識すると、不揮発 性メモリ 40に記録される読取データ 42および音声データ 43を、ナビゲーシヨン本体 2へ送信すればよい。
[0058] 図 7は、図 1中のナビゲーシヨン本体 2の構成を示すブロック図である。ナビゲーショ ン本体 2は、ジャイロセンサ 61、 GPS (Global Positioning System)受信機 62、 HDD (ノヽードディスクドライブ) 63、キーデバイス 64、タツチパネル 65、表示手段とし ての液晶デバイス 66、一時メモリ 67、 USBI/F68,メモリカード l/F69、マイクロコ ンピュータ 70などを有する。また、図 7中には、地図帳 5の付録として提供される付録 メモリカード 6が、ナビゲーシヨン本体 2に揷入された状態で記述されている。
[0059] 図 1に示すように、ナビゲーシヨン本体 2のフロントパネルには、液晶デバイス 66と、 キーデバイス 64の複数の入力ボタン 71と、 USBI/F68とが配設される。この USBI/ F68には、 USBケーブル 3が接続される。また、液晶デバイス 66の表示部の前面に は、タツチパネル 65が配設される。フロントパネルの裏側には、図示外のメモリカード 揷入口が配設される。
[0060] ジャイロセンサ 61は、その X軸, Y軸および Z軸の軸方向での加速度を検出する。
つまり、ジャイロセンサ 61は、ナビゲーシヨン本体 2が配設される自動車の軸方向で の加速度を検出する。
[0061] GPS受信機 62は、 GPS衛星が送信する GPS電波を受信し、緯度経度データを生 成する。つまり、 GPS受信機 62は、ナビゲーシヨン本体 2が配設される自動車の緯度 経度データを生成する。
[0062] HDD63は、ナビゲーシヨン本体 2が単独で経路探索および経路案内を実行する ために必要となるデータを記録する。このようなデータとしては、たとえば、ナビゲーシ ヨンデータ 72、 目的地設定に基づいて生成した案内経路データ 73などがある。
[0063] ナビゲーシヨンデータ 72は、たとえば表示地図データ、複数のノードデータ、複数 のリンクデータ、複数の施設データなどを有する。
[0064] ナビゲーシヨンデータ 72中の表示地図データは、液晶デバイス 66に道路地図を表 示するためデータであり、たとえば所定の縮尺での日本全国の道路地図をデータ化 したものである。なお、この表示地図データによる表示可能地域の範囲は、地図帳 5 に掲載される地域の範囲と一致していなくてもよい。ナビゲーシヨンデータ 72中の表 示地図データは、たとえば所定のメッシュサイズでの複数のテクスチャデータにより構 成される。各テクスチャデータには、そのテクスチャデータの位置を示す緯度経度デ ータなどが対応付けられて!/、る。
[0065] ナビゲーシヨンデータ 72中のノードデータは、表示地図データが網羅する地域中 の自動車が通過可能な道路の交差点や曲がり角のデータである。ノードデータは、 固有のノード名や、それが対応する交差点や曲がり角の緯度経度データなどを有す る。また、ノードデータには、対応する交差点などの交差点名などが属性情報として 対応付けられている。
[0066] ナビゲーシヨンデータ 72中のリンクデータは、交差点と交差点とを結ぶ道路区間に 対応付けられるデータである。リンクデータは、固有のリンク名や、それが接続される 複数のノードのノード名などが対応付けられる。また、ノードデータおよびリンクデータ には、対応する道路の道路名(たとえば国道〇〇号泉、県道△△号線など)などが属 性情報として対応付けられている。
[0067] ナビゲーシヨンデータ 72中の施設データは、表示地図データが網羅する地域中の 施設や場所、たとえばコンビニエンスストア、ガソリンスタンド、銀行などの金融機関、 学校、神社などに対応付けられるデータである。施設データは、たとえば対応する施 設の名称、種類、緯度経度などの属性情報を有する。なお、この施設データは、当 然のことながら、そのデータが作成された時あるいはそれ以前の施設に関するデータ である。この施設データには、そのデータ作成後に新しく完成した施設などは含まれ ない。 [0068] メモリカード I/F69は、ナビゲーシヨン本体 2に揷入された付録メモリカード 6からデ ータを読み込む。ナビゲーシヨン本体 2に揷入される付録メモリカード 6は、たとえば 地図帳 5とともに、たとえばカーナビゲーシヨンシステム 1の提供元や出版社などから 供給されるものである。付録メモリカード 6は、たとえばフラッシュメモリなどの不揮発 性メモリや、そのメモリへのデータ I/Fなどを有する。そして、この付録メモリカード 6 は、座標変換テーブル 76、情報データベースとしての施設データベース 77、音声認 識辞書データベース 78などを記録する。
[0069] 座標変換テーブル 76は、電子ペン 4により読み取られた座標パターン 22と 1対 1に 対応する読取座標値を、地図帳 5においてその座標パターン 22と重ねて印刷される 地点の緯度経度値へ変換するためのデータを記憶するものである。
[0070] 図 8 (a)は、図 7中の施設データベース 77のデータ構造を示す説明図である。施設 データベース 77は、地図帳 5に印刷される座標パターン 22の座標値と対応付けて複 数の施設の表示情報を記憶するものである。すなわち、施設データベース 77は、表 示情報として、地図帳 5に印刷される地域内の複数の施設の施設名情報 106を有す る。また、複数の施設名情報 106には、それぞれの施設の緯度経度値を示す緯度経 度情報 107が 1対 1に対応付けられている。この緯度経度値は、ナビゲーシヨン本体 2に記録されるナビゲーシヨンデータ 72と整合する座標系によるものである。
[0071] また、複数の施設名情報 106は、施設の地域情報 104および施設の種類(ジヤン ノレ)情報 105により分類され、その分類毎に座標情報 103が対応付けられる。図 8(a) においてたとえば、「ペンション A」の施設と「民宿 B」の施設などは、「X X高原」の宿 泊施設 104、 105に分類され、同じ座標情報 103に対応付けられている。この座標 情報 103は、地図 11中に印刷されたホテルマーク 13と重なる座標パターン 22の座 標値を有する。また、「寿司 A」の施設は、「X X高原」のレストラン 104、 105に分類 され、「ペンション A」の施設の施設とは異なる座標情報 103に対応付けられている。 この座標情報 103は、地図 11中に印刷されたレストランマーク 14と重なる座標バタ ーン 22の座標値を有する。レストランマーク 14と重なる座標パターン 22の座標値は 、ホテルマーク 13と重なる座標パターン 22の座標値と異なる。
[0072] 図 8 (b)は、図 7中の施設データベース 77のデータ構造を示す代替的な実施形態 の説明図である。施設データベース 77は、地図帳 5に印刷される地域に存在する複 数の施設の施設情報を記憶する。具体的には、施設データベース 77は、各施設の 施設情報として、その施設の施設名を表示するための施設名情報 96と、その施設の 緯度経度値を示す緯度経度情報 97を記憶する。また、この各施設情報には、それぞ れの施設の種類(ジャンル)に応じて、種類情報 98が対応付けられている。図 8にお いてたとえば、「銀行 A」の施設情報や、「銀行 B」の施設情報には、施設の種類「銀 行」が対応付けられている。なお、施設データベース 77において、各施設情報には、 たとえば施設の営業時間帯などの施設の種類以外の情報が対応付けられていてもよ い。
[0073] 図 9は、図 7中の音声認識辞書データベース 78のデータ構造を示す説明図である 。音声認識辞書データベース 78は、抽出する施設の種類 (ジャンル)を限定する複 数の抽出条件情報 101を記憶する。なお、音声認識辞書データベース 78は、たとえ ば施設の営業時間帯などの施設の種類以外を限定する抽出条件情報 101を記憶し ていてもよい。そして、各抽出条件情報 101には、その抽出条件を音声により指定す る際の登録音声エンベロープ情報 102 (登録音声データ)が対応付けられている。具 体的には、抽出する施設の種類を銀行に限定する抽出条件情報 101には、「銀行( ぎんこう)」を発音したときの登録音声エンベロープ情報 102が対応付けられている。
[0074] 図 7中の一時メモリ 67は、たとえばフラッシュメモリなどの半導体メモリなどにより構 成される。一時メモリ 67は、筆跡データとしての取得読取データ 81、取得音声データ 82、抽出施設リスト 83などを記録する。
[0075] 取得読取データ 81および取得音声データ 82は、電子ペン 4から受信したデータで ある。取得読取データ 81および取得音声データ 82は、電子ペン 4の不揮発性メモリ 40に記憶されている読取データ 42および音声データ 43と同じ情報を有する。
[0076] 図 10 (a)は、図 7中の抽出施設リスト 83の一例を示す図である。抽出施設リスト 83 は、読み取り取得読取データ 81に基づいて抽出された施設情報を有する。図 10 (a) の抽出施設リスト 83は、抽出された施設情報として、施設毎の施設名情報 106、施 設の緯度経度情報 107、地域情報 104および種類情報 105を有する。これらの施設 情報は、施設データベース 77における同名の情報と同じ内容のものである。図 10 (a )の例の抽出施設リスト 83は、図 8 (a)中の X X高原の宿泊施設の施設情報 103〜1 07と一致している。
[0077] 図 10 (b)は、図 7中の抽出施設リスト 83の一例である代替的な実施形態を示す図 である。抽出施設リスト 83は、取得読取データ 81および取得音声データ 82を用いて 抽出された施設情報を有する。図 10 (b)の抽出施設リスト 83は、抽出された施設毎 に、施設名情報 111、緯度経度情報 112および種類情報 113を有する。これらの抽 出情報は、施設データベース 77から抽出した情報である。たとえば、図 10に例示す る抽出施設リスト 83中の施設情報 111 , 112は、図 8の施設データベース 77中の一 部の銀行の施設情報 96, 97と一致する。
[0078] ナビゲーシヨン本体 2のマイクロコンピュータ 70は、図示外のメモリ、 CPU,入出力 ポートなどを有する。入出力ポートには、ジャイロセンサ 61、 GPS受信機 62、 HDD6 3、キーデバイス 64、タツチパネル 65、液晶デバイス 66、一時メモリ 67、 USBI/F6 8、メモリカード I/F69などが接続される。ナビゲーシヨン本体 2の CPUは、メモリなど 力、ら図示外の制御プログラムを読み込んで実行する。これにより、ナビゲーシヨン本 体 2のマイクロコンピュータ 70には、現在位置データ生成部 85と、選択手段および案 内経路生成手段としての UI (User Interface)部 86と、データ取得部 87と、抽出手 段としてのデータ処理部 88と、が実現される。
[0079] なお、このナビゲーシヨン本体 2のマイクロコンピュータ 70が実行する制御プログラ ムは、ナビゲーシヨン本体 2の出荷前に、マイクロコンピュータ 70のメモリなどに記録 されたものであっても、ナビゲーシヨン本体 2の出荷後に、マイクロコンピュータ 70のメ モリなどに記録されたものであってもよい。また、制御プログラムの一部が、ナビグー シヨン本体 2の出荷後に、マイクロコンピュータ 70のメモリなどに記録されたものであ つてもよい。ナビゲーシヨン本体 2の出荷後に、マイクロコンピュータ 70のメモリなどに 記録される制御プログラムは、たとえばメモリカードや CD— ROM (Compact Disc Read Only Memory)などのコンピュータ読取可能な記録媒体に記録されてい るものをインストールしたものであっても、インターネットなどの伝送媒体を介してダウ ンロードしたものをインストールしたものであってもよレ、。上述した電子ペン 4のマイク 口コンピュータ 41が実行する制御プログラムについても、同様である。 [0080] 現在位置データ生成部 85は、 GPS受信機 62が生成する緯度経度データや、ジャ イロセンサ 61が生成する加速度データに基づいて、ナビゲーシヨン本体 2が設置さ れる自動車の現在位置データを生成する。現在位置データは、現在位置の緯度経 度情報を有する。
[0081] データ取得部 87は、ナビゲーシヨン本体 2の USBI/F68を用いて、電子ペン 4が USBI/F68へ送信する読取データ 42を取得する。データ取得部 87は、 USBI/F 68が受信した読取データ 42を取得し、一時メモリ 67に記録させる。一時メモリ 67は、 データ取得部 87が取得したデータを、取得読取データ 81および取得音声データ 82 として記録する。
[0082] データ処理部 88は、電子ペン 4により指定された範囲内の座標値に対応付けられ ている施設情報を抽出する抽出手段である。すなわち、データ処理部 88は、一時メ モリ 67に記録される取得読取データ 81、 82に基づいて、施設データベース 77から 施設情報 103〜; 107を抽出し、抽出した施設情報 103〜; 107を、抽出施設リスト 83と して一時メモリ 67に記録させる。
[0083] 代替的に、データ処理部 88は、電子ペン 4により地図帳 5中で指定された範囲内の 施設情報を、施設データベース 77から抽出するものであり、詳しくは、読取データ処 理部 91と、音声データ処理部 92と、抽出処理部 93とで構成されている。なお、読取 データ処理部 91、音声データ処理部 92および抽出処理部 93は、たとえばマルチス レッドプログラミングやマルチタスクプログラミングなどにより、互いに独立してそれぞ れの処理を並列的に実行可能である。
[0084] そして、第一の抽出条件を生成する第一生成手段としての読取データ処理部 91は 、取得読取データ 81と座標変換テーブル 76とを用いて、抽出地域範囲を特定する。 第二の抽出条件を生成する第二生成手段としての音声データ処理部 92は、取得音 声データ 82と音声認識辞書データベース 78とを用いて、発話により指定された施設 の種類を特定する。第一の抽出条件および第二の抽出条件を用いた抽出処理を実 行する抽出手段としての抽出処理部 93は、特定された抽出地域範囲と特定された 施設の種類に該当する施設の施設情報を、施設データベース 77から抽出する。抽 出処理部 93が抽出した施設情報は、抽出施設リスト 83として一時メモリ 67に記録さ れる。
[0085] UI部 86は、案内経路データ 73を生成したり、液晶デバイス 66の表示を制御したり する。具体的にはたとえば、 UI部 86は、抽出施設リスト 83を液晶デバイス 66に表示 させる。 UI部 86は、キーデバイス 64ゃタツチパネル 65からの操作データに基づいて 、液晶デバイス 66に表示した抽出施設リスト 83の中から目的地などを選択する。また 、 UI部 86は、選択した目的地などを用いて案内経路を生成し、生成した案内経路を 液晶デバイス 66に表示させる。
[0086] 次に、第 1の実施形態のカーナビゲーシヨンシステム 1の動作を説明する。以下の 動作説明は、ユーザが、電子ペン 4により図 2 (a)の地図 11中のホテルマーク 13の周 囲をなぞり、さらにナビゲーシヨン本体 2において「ペンション A」を経路探索の目的地 として選択する場合を例に説明する。
[0087] ユーザが電子ペン 4により図 2 (a)の地図 11中のホテルマーク 13の周囲をなぞると き、電子ペン 4の CMOSカメラ 35は、地図シート 10により反射される赤外線を受光し 、複数の強度分布データを順番に、マイクロコンピュータ 41へ出力する。読取データ 生成部 46は、各強度分布データにより 6 X 6のドット 21の像を特定し、電子ペン 4によ りなぞった位置の座標値を演算する。不揮発性メモリ 40には、この読取データ生成 部 46が強度分布データ毎に生成する複数の座標値が、読取データ 42として蓄積さ れる。すなわち、不揮発性メモリ 40には、図 5に示すように、地図 11中のホテルマー ク 13の周囲の複数の座標値力 読取データ 42として蓄積される。その後、たとえば 図 2 (a)の地図シート 10中の決定マーク 15がなぞられると、読取データ生成部 46は 、読取データ 42の更新処理を終了する。不揮発性メモリ 40には、確定した読取デー タ 42が格納される。なお、ここでは、ホテルマーク 13をなぞる動作について説明した 1S なぞる以外にホテルマーク 13をペン先でタツチすることにより、ホテルマーク 13に 対応して!/、る座標を読取データ 42として蓄積するような処理としてもょレ、。
[0088] 電子ペン 4による読取作業を終えると、ユーザは、 USBケーブル 3を用いて、その 電子ペン 4をナビゲーシヨン本体 2に接続する。これにより、電子ペン 4の USBI/F3 6およびナビゲーシヨン本体 2の USBI/F68は、たとえば USBマスストレージクラス などにより、データの送受信が可能な状態となる。電子ペン 4のデータ送信部 48は、 不揮発性メモリ 40から読取データ 42を読込み、ナビゲーシヨン本体 2へ送信する。デ ータ送信部 48が送信した読取データ 42は、電子ペン 4の USBI/F36および USB ケーブル 3を介して、ナビゲーシヨン本体 2の USBI/F68へ送信される。ナビゲーシ ヨン本体 2のデータ取得部 87は、 USBI/F68が受信した読取データ 42を取得し、 取得読取データ 81として一時メモリ 67に記録させる。これにより、ナビゲーシヨン本体 2の一時メモリ 67には、電子ペン 4の読取データ生成部 46が生成した読取データ 42 と同じデータが保存される。なお、電子ペン 4は、予めナビゲーシヨン本体 2に接続さ れ、電子ペン 4の読取り中に、読取データ 42は、データ送信部 48により逐次送信さ れ、ナビゲーシヨン本体 2の一時メモリ 67に格納されるようにしてもよい。
[0089] 図 11は、図 7のナビゲーシヨン本体 2が新たな取得読取データ 81を受信した場合 に実行する一連の処理の流れを示すフローチャートである。一時メモリ 67に、新たな 未処理の取得読取データ 81が保存されると (ステップ ST1で Yesとなると)、ナビグー シヨン本体 2のデータ処理部 88は、抽出施設リスト 83の生成処理を開始する(ステツ プ ST2)。
[0090] 抽出施設リスト 83の生成処理 (ステップ ST2)において、データ処理部 88は、まず、 電子ペン 4により指定された範囲を特定する。具体的にはたとえば、データ処理部 88 は、取得読取データ 81の複数の座標値を読み込み、その複数の座標値により囲ま れた所定の形状の座標値範囲(たとえば筆跡に内接する四角形の範囲)を特定する 。なお、データ処理部 88は、取得読取データ 81の複数の座標値を含む所定の形状 の座標値範囲(たとえば筆跡に外接する四角形の範囲)を特定するようにしてもよい
[0091] 電子ペン 4により指定された座標値範囲を特定した後、データ処理部 88は、施設 データベース 77から座標情報 103を読み込み、特定した座標値範囲内の座標値を 有する座標情報 103を特定する。具体的にはたとえば、データ処理部 88は、メモリ力 ード I/F69に、付録メモリカード 6に記録される施設データベース 77の座標情報 10 3を順次取得させ、その取得された座標情報 103と、特定した座標値範囲とを比較す
[0092] そして、メモリカード I/F69に取得させた座標情報 103が座標値範囲内である場 合、データ処理部 88は、さらにメモリカード I/F69にその座標情報 103と対応付けら れている施設情報を取得させる。メモリカード I/F69は、付録メモリカード 6に記録さ れる施設データベース 77から、その座標情報 103に対応付けられているすべての施 設の施設情報、たとえば施設の地域情報 104、種類情報 105、施設名情報 106およ び緯度経度情報 107を読み込む。データ処理部 88は、メモリカード I/F69が読み 込んだすべての施設の施設情報 104〜; 107を、抽出施設リスト 83に追加する。
[0093] また、データ処理部 88は、この座標情報 103による判断処理を、施設データベース
77のすベての座標情報 103について実行する。これにより、一時メモリ 67中の抽出 施設リスト 83には、特定した座標値範囲内の座標情報 103に対応付けられたすべて の施設の施設情報 104〜107が抽出されて格納される。抽出施設リスト 83には、抽 出された各施設の地域情報 104、種類情報 105、施設名情報 106および緯度経度 情報 107が格納される。
[0094] なお、たとえば施設データベース 77において、複数の座標情報 103が地図帳 5の ページ単位で分類されている場合、データ処理部 88は、特定した座標値範囲に対 応するページを特定し、そのページ内の座標値を有する座標情報 103についての み、特定した座標値範囲との対比判断を実行するようにしてもよい。これにより、抽出 施設リスト 83の生成処理に力、かる時間を短縮することができる。
[0095] データ処理部 88による抽出施設リスト 83の生成処理 (ステップ ST2)が終わると、抽 出施設リスト 83には、電子ペン 4により指定された座標値範囲内の座標情報 103に 対応付けられたすべての施設の施設情報 104〜; 107が格納される。たとえば図 2 (a) の地図 11中のホテルマーク 13の周囲を電子ペン 4で円になぞった場合、抽出施設リ スト 83には、図 8 (a)に示すように、 X X高原の宿泊施設の施設情報 104〜; 107が格 納される。 UI部 86は、抽出施設リスト 83に格納されている複数の施設名情報 106を 読み込み、液晶デバイス 66に表示させる(ステップ ST3)。
[0096] 図 12は、図 7中の液晶デバイス 66に表示される抽出施設リスト 83の表示画面の一 例を示す図である。図 12の画面中央には、抽出施設リスト 83中の 4つの施設の施設 名情報 106が一覧表示されている。また、画面上部には、抽出した地域を示す「地域 名 X X高原周辺」の文字列と、抽出した施設の種類を示す「ジャンル名 宿泊施設」 の文字列とが表示される。 UI部 86は、抽出施設リスト 83の情報を読み込んで、これ らの情報を表示する。この表示により、ユーザは、電子ペン 4を用いて地図 11上で指 定した所望の地域の施設が正しく抽出されていることを知ることができる。 UI部 86は 、抽出施設リスト 83を表示させた後、入力操作待ち状態となる (ステップ ST4)。
[0097] ユーザは、図 12の抽出施設リスト 83の表示画面が液晶デバイス 66に表示されてい る状態でタツチパネル 65を操作する。ユーザは、表示されている複数の施設名情報 106の中の 1つを選択する操作をした上で、 目的地設定ボタンを操作する。ユーザは 、たとえば、表示されている「ペンション A」を選択する操作をした上で、 目的地設定ボ タン 120を操作する。
[0098] UI部 86は、タツチパネル 65から操作データが入力されると(ステップ ST4で Yesと なると)、その操作内容を判断し、経路探索に用いる地点を特定する。 UI部 86は、た とえば操作データに基づいて「ペンション A」が選択された上で目的地設定ボタン 12 0が操作されたと判断すると、施設名情報 106が「ペンション A」である施設を、経路 探索の目的地に選択する(ステップ ST5)。
[0099] 経路探索に用いる目的地を選択した後、 UI部 86は、その特定した目的地までの案 内経路の生成処理を開始する(ステップ ST6)。 UI部 86は、まず、抽出施設リスト 83 から、選択された施設名情報 106に対応付けられている緯度経度情報 107を読み込 む。次に、 UI部 86は、ナビゲーシヨンデータ 72のノードデータおよびリンクデータな どを使用して、現在位置から、読み込んだ緯度経度情報 107の地点まで向かう案内 経路を探索する。 UI部 86は、探索した経路を、 HDD63に保存する。これにより、 H DD63には、ユーザが抽出施設リスト 83から選択した施設名情報 106の施設、ここで は「ペンション A」まで向力、う案内経路データ 73が記録される。
[0100] 案内経路を探索した後、 UI部 86は、探索した経路を、液晶デバイス 66に表示する
(ステップ ST7)。 UI部 86は、たとえば探索した経路の全体を含む縮尺の地図データ を、ナビゲーシヨンデータ 72から読み込み、その読み込んだ地図上に経路を割り付 けた画面を、液晶デバイス 66に表示させる。
[0101] 図 13は、現在位置から抽出施設リスト 83から選択した目的地までの案内経路を表 示する表示画面の一例を示す図である。図 13において、現在位置および目的地は 、四角形の図形により表示され、案内経路は、太線で表示される。また、 目的地の近 くには、選択した施設の施設名である「ペンション A」が表示されて V、る。
[0102] その後、自動車が移動し始めたり、所定の案内開始操作がなされたりすると、 UI部
86は、その経路による案内を開始する(ステップ ST8)。 UI部 86は、液晶デバイス 66 に、たとえばナビゲーシヨンデータ 72に基づく地図上に、現在位置データ生成部 85 が生成する現在位置を示すマークと、案内経路の一部とを重ねて表示させる。 UI部 86は、現在位置が案内経路の曲がり角などに近づくとその旨を音声などにより報知 し、経路を案内する。また、 UI部 86は、現在位置データ生成部 85が生成する現在 位置が案内経路を外れたと判断すると、ナビゲーシヨンデータ 72を利用して案内経 路を再探索し、案内を続ける。
[0103] 以上のように、この実施の形態のカーナビゲーシヨンシステム 1では、電子ペン 4は 、地図帳 5中の所定の施設マーク 13, 14の周囲をなぞることにより範囲を指定する。 また、ナビゲーシヨン本体 2の液晶デバイス 66は、施設データベース 77においてそ の施設マーク 13, 14に関連付けられている施設の施設名情報 106を表示する。さら に、 UI部 86は、その表示された施設名情報 106の中から目的地を選択する。
[0104] したがって、ユーザは、地図 11中の訪れたい所望の施設の近くにある施設マーク 1 3, 14の周囲を電子ペン 4でなぞり、さらにナビゲーシヨン本体 2に表示される施設名 情報 106の中から、訪れたい所望の施設を選択することができる。電子ペン 4とナビ ゲーシヨン本体 2との連係により、ユーザは、訪れたい所望の施設の詳しい位置や正 確な名称などを知らなくとも、電子ペン 4によるラフな範囲指定により、その施設を経 路探索の目的地として容易に指定することができる。
[0105] 特に、ユーザは、地図シート 10において、電子ペン 4により所望の施設の範囲を指 定すること力 Sできる。ユーザは、液晶デバイス 66の表示画面より広い範囲の地域が印 刷された地図シート 10において、訪れたい施設が存在する地域を厳密に意識するこ となぐ周囲を俯瞰しながら地域を指定することができる。
[0106] これに対してたとえば、電子ペン 4により地図 11中の所望の施設を目的地として選 択する場合、ユーザはその施設の所在地を地図 11中で特定しなければならない。そ のためには、ユーザは、事前に、 目的地に設定したい施設の詳しい住所などを知つ ている必要がある。この他にもたとえば、従来のナビゲーシヨン装置のように液晶デバ イス 66の表示を切り替えて所望の施設を目的地に設定する場合、ユーザは、その所 望の施設を目的地に設定する前に、探し出す必要がある。そのためには、ユーザは 、複数の施設データが施設の種類などにより階層化されたナビゲーシヨンデータ 72 内を探し回る煩雑な操作をしたり、その施設を表示するための煩雑な地図の切り替え 操作をしたり、その施設の正確な名称を入力したりする必要がある。これらの操作を する場合でも、ユーザは、事前に、 目的地に設定したい施設の所在地などを詳しく知 つている必要がある。
[0107] また、この実施の形態の地図帳 5には、座標値へ変換可能な複数の座標パターン 2 2が印刷される。また、施設データベース 77において、複数の施設情報には、座標 値が対応付けられている。したがって、電子ペン 4として、印刷された座標パターン 2 2を座標値へ変換するものを使用することができる。電子ペン 4は、ナビゲーシヨンシ ステム 1専用のものとする必要がない。
[0108] また、この実施の形態の地図帳 5には、地図 11中にたとえば「X X高原」などの地 域の名称 12と、ホテルマーク 13などの施設マーク 13, 14とが並べて印刷される。ま た、施設データベース 77において、その地域のその施設マーク 13, 14に対応する 施設は、その施設マーク 13, 14と重ねて印刷される座標パターン 22の座標値に対 応付けられている。したがって、地図 11中には、 目的地として選択可能なすべての 施設を表示する必要はない。地図 11は、図 2 (a)に示すように、広い地域を表示する 大きい縮尺のものとすること力できる。このような大きな縮尺の地図 11において、ユー ザは、所望の施設が存在すると推察される地点の近くにある施設マーク 13, 14を選 択することで、その所望の施設を目的地として設定することができる。
[0109] また、この実施の形態の地図 11中には、施設の種類を表す複数の施設マーク 13, 14が並べて印刷される。また、施設データベース 77において、複数の施設情報 104 〜; 107には、その施設マーク 13, 14毎に異なる座標値に対応付けられている。した がって、ユーザは、その複数の施設マーク 13, 14全体を囲むように選択することでそ の地域のすべての施設を選択したり、 1つの施設マーク 13, 14を囲むように選択す ることでその地域のその種類の施設のみを選択したりすることができる。ユーザは、 目 的地に設定する施設の種類が予め判っている場合、ナビゲーシヨン本体 2に一覧表 示される施設の個数を減らすことができる。ユーザは、ナビゲーシヨン本体 2に、 目的 に応じた一覧表示をさせることができる。
[0110] また、この実施の形態の施設データベース 77において、各施設名情報 106には、 それぞれの施設の緯度経度情報 107が対応付けられている。また、ナビゲーシヨン 本体 2の UI部 86は、この緯度経度情報 107を用いて案内経路を生成する。したがつ て、ナビゲーシヨン本体 2において、ユーザが選択した目的地の正確な緯度経度情 報 107が得られないということはない。 UI部 86は、ユーザが選択した目的地の施設 がナビゲーシヨンデータ 72に登録されていない場合であっても、必ず、その目的地ま での案内経路を生成することができる。
[0111] また、この実施の形態では、施設データベース 77は、ナビゲーシヨン本体 2と着脱 可能な付録メモリカード 6に記録されている。また、この付録メモリカード 6は、地図帳 5の付録としてユーザへ提供される。したがって、ユーザは、ナビゲーシヨン本体 2に 記録されていない施設を目的地に設定することができる。ユーザは、たとえばナビゲ ーシヨン本体 2の出荷後にできた観光名所や店舗などの施設を、 目的地として設定 すること力 Sでさる。
[0112] 上記実施の形態では、ナビゲーシヨン本体 2の読取データ生成部 46は、電子ペン
4により囲まれた紙面の範囲を特定し、その特定した範囲内の座標値に対応付けら れた施設情報 104〜; 107を抽出している。この他にもたとえば、読取データ生成部 4 6は、電子ペン 4によりチェックされた部位を含む紙面の範囲を特定し、その特定した 範囲内の座標値に対応付けられた施設情報 104〜; 107を抽出するようにしてもよい
[0113] 上記実施の形態では、 UI部 86は、液晶デバイス 66に表示する複数の施設名情報
106の中の 1つを目的地として選択している。この他にもたとえば、 UI部 86は、液晶 デバイス 66に表示する複数の施設名情報 106の中の 1つを、経路探索の出発地や 経由地などとして選択するようにしてもよい。さらに他にもたとえば、 UI部 86は、液晶 デバイス 66に表示する複数の施設名情報 106の中の 1つを、施設情報を表示(出力 )するための所望の地点として選択するようにしてもよ!/、。 [0114] 上記実施の形態の施設データベース 77において、各施設情報 104〜; 107は、そ れが対応する施設マーク 13, 14と重ねて印刷される座標パターン 22の座標値に対 応付けられている。この他にもたとえば、各施設情報 104〜; 107は、施設データべ一 ス 77において、それが対応する「X X高原」などの地域の名称 12と重ねて印刷され る座標パターン 22の座標値に対応付けられていてもよい。また、このように各施設情 報 104〜; 107に地域の名称 12の座標値を対応付ける場合、地図 11中に施設マーク 13, 14を印刷しなくてもよい。この場合、電子ペン 4によって「X X高原」などの地域 の名称 12をなぞることにより、当該地域に関連付けられた施設をナビゲーシヨン本体 2の液晶デバイス 66に表示させることができる。
[0115] 上記実施の形態の地図 11には、施設の分類毎の施設マーク 13, 14が印刷される 。また、施設データベース 77において、複数の施設名情報 106および緯度経度情 報 107は、地域毎および施設の種類毎に分類され、分類毎に異なる座標値 103に 対応付けられている。この他にもたとえば、地図 11中あるいは地図 11外に、施設の たとえば規模、営業時間などの経営形態毎の施設マークを印刷し、且つ、複数の施 設名情報 106および緯度経度情報 107は、その経営形態毎に分類され、その分類 毎に異なる座標値に対応付けられて!/、てもよ!/、。
[0116] 上記実施の形態の液晶デバイス 66は、抽出施設リスト 83中の複数の施設名情報 1 06を一覧表示する。この他にもたとえば、液晶デバイス 66は、抽出施設リスト 83中の 複数の施設名情報 106を、その地域の地図上にそれぞれの緯度経度情報 107によ り分布配置して表示するようにしてもよ!/、。
[0117] 上記実施の形態の施設データベース 77は、付録メモリカード 6に記録され、ナビゲ ーシヨン本体 2に揷入されて使用される。この他にもたとえば、施設データベース 77 は、ナビゲーシヨン本体 2の HDD63に記録されていても、 CD— ROMなどの他の種 類のコンピュータ読取可能な記録媒体に記録されていてもよい。さらに他にもたとえ ば、施設データベース 77は、ナビゲーシヨン本体 2が無線通信回線やインターネット などを介してアクセス可能なサーバ上に記録されて!/、てもよ!/、。
[0118] 上記実施の形態の施設データベース 77は、各施設の基本的な施設情報として、施 設名情報 106と緯度経度情報 107とを有する。この他にもたとえば、施設データべ一 ス 77は、各施設の基本的な施設情報として、その施設の営業日、営業時間、施設利 用料金、施設の案内や広告などの付属情報を併せて記憶し、 UI部 86は、その施設 が選択された場合に、それらの付属情報を液晶デバイス 66に表示させるようにしても よい。
[0119] 上記実施の形態では、電子ペン 4が生成する読取データ 42は、自動車に設置され るナビゲーシヨン本体 2により利用されている。この他にもたとえば、電子ペン 4が生 成する読取データ 42は、 GPS受信機を有する携帯電話端末などの携帯端末により 、経路探索に用いる地点を抽出するために利用されてもよい。
[0120] 次に、第 2の実施形態のカーナビゲーシヨンシステム 1の動作を説明する。以下の 動作説明は、ユーザが、電子ペン 4により図 2(b)の地図シート 10の中央部分に丸を 書込む操作をしながら、発話により施設の種類を「銀行」に指定した場合を例に説明 する。図 14は、この一連のユーザ操作に対応するカーナビゲーシヨンシステム 1の全 体的な処理の流れを示すフローチャートである。
[0121] ユーザが電子ペン 4により図 2 (b)の地図シート 10の中央部分に丸を書込むとき、 電子ペン 4のペン先(つまり、ボールペン軸 32の先端)が地図シート 10に圧接される 。ボールペン軸 32の先端が紙面に押し付けられることで、筆圧センサ 34の出力値は 所定値以上に上昇する。これにより、電子ペン 4の読取データ生成部 46および音声 データ生成部 47は、ステップ ST1で Yesと判断し、保存処理を開始する(ステップ ST 2)。
[0122] 保存処理では、電子ペン 4の CMOSカメラ 35は、地図シート 10により反射される赤 外線を受光し、複数の強度分布データを順番に、マイクロコンピュータ 41へ出力する 。読取データ生成部 46は、各強度分布データにより 6 X 6のドット 21の像を特定し、 電子ペン 4がなぞった位置の座標値を演算する。読取データ生成部 46が強度分布 データ毎に生成する複数の座標値は、読取データ 42として不揮発性メモリ 40に蓄積 される。不揮発性メモリ 40には、図 5に示すように、地図シート 10の中央部に丸を書 込んだときの複数の座標値力 読取データ 42として蓄積される。
[0123] また、 ADコンバータ 39は、マイクロホン 38が生成する音声波形をサンプリングする 。筆圧センサ 34の出力値が所定値以上に上昇すると、音声データ生成部 47は、 AD コンバータ 39が生成したデータを、音声データ 43として不揮発性メモリ 40に蓄積す る。不揮発性メモリ 40には、ユーザが電子ペン 4による書込み操作をしながら発話し た「銀行」の音声エンベロープ情報を有する音声データ 43が格納される。
[0124] ユーザが電子ペン 4による地図シート 10の中央部分への丸の書込みを終え、所定 の無操作期間が経過すると、不揮発性メモリ 40には、その書込みによる筆跡データ と、その書込み期間を含む期間の音声データ 43とが格納される。
[0125] そして、電子ペン 4の USBI/F36とナビゲーシヨン本体 2の USBI/F68とが USB ケーブル 3により接続されると、電子ペン 4のデータ送信部 48は、不揮発性メモリ 40 から読取データ 42および音声データ 43を読込み、ナビゲーシヨン本体 2 送信する 。データ送信部 48が送信した読取データ 42および音声データ 43は、電子ペン 4の USBI/F36および USBケーブル 3を介して、ナビゲーシヨン本体 2の USBI/F68 へ送信される。ナビゲーシヨン本体 2のデータ取得部 87は、 USBI/F68からそれが 受信した読取データ 42および音声データ 43を取得し、これらを取得読取データ 81 および取得音声データ 82として一時メモリ 67に記録させる (ステップ ST3)
[0126] 電子ペン 4から新たに取得した未処理のデータが一時メモリ 67に保存されると、ナ ビゲーシヨン本体 2のデータ処理部 88は、抽出施設リスト 83の生成処理を開始する。 抽出施設リスト 83の生成処理において、読取データ処理部 91および音声データ処 理部 92は、それぞれの処理を並列的に実行する。
[0127] 読取データ処理部 91は、電子ペン 4により指定された範囲を特定する(ステップ ST 4)。具体的にはたとえば、読取データ処理部 91は、まず、座標変換テーブル 76を用 いて、取得読取データ 81中のすべての座標値を、それぞれに対応する緯度経度値 変換する。次に、読取データ処理部 91は、その複数の緯度経度値により囲まれた 所定の形状の抽出地域範囲(たとえば筆跡に内接する円形の範囲など)を特定する 。なお、読取データ処理部 91は、複数の緯度経度値を含む所定の形状の抽出地域 範囲(たとえば筆跡に外接する円形の範囲など)を特定するようにしてもよい。
[0128] また、音声データ処理部 92は、音声認識処理により、ユーザが音声により指定した 施設の種類を特定する (ステップ ST5)。具体的にはたとえば、音声データ処理部 92 は、まず、音声認識辞書データベース 78から登録音声エンベロープ情報 102を 1つ ずつ順番に取得し、取得音声データ 82と比較する。そして、取得音声データ 82によ る音声波形中に、登録音声エンベロープ情報 102による音声波形と一致あるいは所 定の誤差範囲で合致する部分が検出されると、音声データ処理部 92は、音声認識 辞書データベース 78においてその登録音声エンベロープ情報 102に対応する抽出 条件情報 101を、音声認識辞書データベース 78から取得する。音声データ処理部 9 2は、音声認識辞書データベース 78中のすべての登録音声エンベロープ情報 102 につ!/、て以上の比較処理を繰り返し、合致判断がなされたすべての登録音声ェンべ ロープ情報 102に対応する 1つあるいは複数の抽出条件情報 101を取得する。これ により、ユーザが発話により指定した 1つあるいは複数の施設の種類力、音声データ 処理部 92により特定される。そして、音声データ処理部 92は、ステップ ST6におい て条件抽出済みである (Yes)と判断し、処理を終了する。
[0129] なお、音声認識辞書データベース 78中のすべての登録音声エンベロープ情報 10 2についての比較処理を終えたときに、抽出する施設の条件を 1つも特定していない 場合、音声データ処理部 92は、ステップ ST6において条件抽出済みでない(No)と 判断し、施設の種類の抽出条件無しを示す情報を生成する (ステップ ST7)。そして 、音声データ処理部 92は、処理を終了する。
[0130] ステップ ST4における読取データ処理部 91による抽出地域範囲の特定処理が完 了し、且つ、ステップ ST5〜ST7での音声データ処理部 92による施設の種類の特定 処理が完了すると、抽出処理部 93は、それらの抽出条件の組合せに該当する施設 の抽出処理を開始する(ステップ ST8)。
[0131] すなわち、抽出処理部 93は、まず、音声データ処理部 92により抽出する施設の種 類が特定されているか否かを判断する。そして、抽出する施設の種類が特定されて いる場合、抽出処理部 93は、施設データベース 77の検索範囲を、その種類の施設 に限定する。具体的にはたとえば、音声データ処理部 92が抽出する施設の種類とし て「銀行」を特定している場合、抽出処理部 93は、図 8 (b)中の施設データベース 77 中の検索範囲を、施設の種類情報 98が銀行である範囲に限定する。
[0132] これに対して、音声データ処理部 92により施設の種類の抽出条件無しの情報が生 成されている場合、抽出処理部 93は、図 8 (b)中の施設データベース 77の検索範囲 を限定しない。この場合、施設データベース 77のすベての施設情報が検索対象に なる。
[0133] 音声データ処理部 92による情報に基づく処理を終えると、抽出処理部 93は、次に 、読取データ処理部 91により特定された抽出地域範囲を用いて、その範囲内の緯度 経度値に対応付けられた施設情報を、施設データベース 77から抽出する。このとき、 施設データベース 77の検索範囲が前述した処理によって予め限定されている場合、 抽出処理部 93は、その限定された範囲内において、抽出地域範囲内の緯度経度値 に対応付けられた施設情報を、施設データベース 77から抽出する。抽出処理部 93 が抽出した施設情報は、抽出施設リスト 83として一時メモリ 67に記録される。
[0134] 具体的にはたとえば、抽出する施設の種類が「銀行」に限定されるとともに、電子ぺ ン 4により図 2 (b)の地図シート 10の中央部分が丸で囲まれた場合、抽出処理部 93 は、種類情報 98が「銀行」である施設の緯度経度値が、抽出地域範囲内であるか否 力、を判断する。そして、施設の緯度経度値が抽出地域範囲内である場合、抽出処理 部 93は、施設データベース 77からその施設の施設情報を読込み、抽出施設リスト 8 3に追加する。抽出処理部 93は、施設データベース 77中の制限された範囲内のす ベての施設について上述した緯度経度値の比較処理を実行し、抽出地域範囲内と なる施設の施設情報を抽出施設リスト 83へ追加する。これにより、たとえば図 2 (b)の 地図シート 10の中央部分に丸が書込まれた場合、抽出処理部 93は、銀行 Aの施設 情報と銀行 Cの施設情報とを抽出し、抽出施設リスト 83へ追加する。一時メモリ 67に 記憶される抽出施設リスト 83には、銀行 Aの種類情報 113、施設名情報 111および 緯度経度情報 112と、銀行 Cの種類情報 113、施設名情報 111および緯度経度情 報 112とが保存されることになる。
[0135] 抽出処理部 93による抽出施設リスト 83の生成処理 (ステップ ST8)が終わると、デ ータ処理部 88による抽出施設リスト 83の生成処理が終了する。 UI部 86は、抽出施 設リスト 83に格納されている複数の施設名情報 111を読み込み、液晶デバイス 66に 表示させる。
[0136] 図 15は、図 7中の液晶デバイス 66に表示される抽出施設リスト 83の表示画面の一 例を示す図である。図 15の画面中央には、抽出施設リスト 83中の複数の施設名情 報 111が一覧表示されている。また、画面上部には、抽出施設リスト 83に抽出された 施設の種類を表示する「ジャンル名 銀行」の文字列が表示される。 UI部 86は、抽 出施設リスト 83から必要な情報を読み込んで、これらの表示を生成する。この表示に より、ユーザは、電子ペン 4を用いて地図シート 10上で範囲を指定し、且つ、発話に より指定した種類の施設が正しく抽出されていることを確認することができる。 UI部 8 6は、液晶デバイス 66に抽出施設リスト 83を表示させた後、入力操作待ち状態となる
[0137] ユーザは、図 15の抽出施設リスト 83の表示画面が液晶デバイス 66に表示されてい る状態でタツチパネル 65を操作する。ユーザは、表示されている複数の施設名情報 111の中の 1つを選択する操作をした上で、 目的地設定ボタン 121を操作する。ユー ザは、たとえば、表示されている「銀行 A」を選択する操作をした上で、 目的地設定ボ タン 121を操作する。
[0138] UI部 86は、タツチパネル 65から操作データが入力されると、その操作内容を判断 し、経路探索に用いる地点を特定する。 UI部 86は、たとえば操作データに基づいて 「銀行 A」が選択された上で目的地設定ボタン 121が操作されたと判断すると、施設 名情報 111が「銀行 A」である施設を、経路探索の目的地に選択する。
[0139] 経路探索に用いる目的地を選択した後、 UI部 86は、その選択した目的地までの案 内経路の生成処理を開始する。具体的には、 UI部 86は、まず、抽出施設リスト 83か ら、選択した施設名情報 111に対応付けられて V、る緯度経度情報 112を読み込む。 次に、 UI部 86は、ナビゲーシヨンデータ 72のノードデータおよびリンクデータなどを 使用し、現在位置から読み込んだ緯度経度情報 112の地点まで向力、う案内経路を 探索する。その後、 UI部 86は、探索した案内経路を、 HDD63に保存する。これによ り、 HDD63には、ユーザがタツチパネル 65への操作により指定した施設(ここでは「 銀行 A」 )まで向力、う案内経路データ 73が記録される。
[0140] 案内経路を探索して HDD63に保存した後、 UI部 86は、 HDD63に保存されてい る案内経路を、液晶デバイス 66に表示させる。具体的にはたとえば、 UI部 86は、案 内経路の出発地および目的地を含む範囲の地図データを、ナビゲーシヨンデータ 7 2から読み込み、その読み込んだ地図上に経路を割り付けた画面を、液晶デバイス 6 6に表示させる。
[0141] 図 16は、現在位置から、抽出施設リスト 83から選択した目的地までの案内経路を 表示する表示画面の一例を示す図である。図 16において、現在位置および目的地 は、四角形の図形により表示され、案内経路は、太線で表示される。また、 目的地の 近くには、選択した施設の施設名である「銀行 A」が表示されて V、る。
[0142] その後、自動車が移動し始めたり、所定の案内開始操作がなされたりすると、 UI部
86は、その経路による案内を開始する。具体的にはたとえば、 UI部 86は、現在位置 データ生成部 85が生成する現在位置を示すマークおよび案内経路の一部を示す線 が重ねられた現在位置付近の地図を、液晶デバイス 66に表示させる。また、 UI部 86 は、現在位置が移動すると、現在位置のマークが画面中央に表示され続けるように 液晶デバイス 66の表示を更新し、現在位置が案内経路の曲がり角などに近づくとそ の旨を音声などにより報知し、経路を案内する。また、 UI部 86は、現在位置データ生 成部 85が生成する現在位置が案内経路を外れたと判断すると、ナビゲーシヨンデー タ 72を利用して案内経路を再探索し、案内を続ける。ユーザは、液晶デバイス 66の 表示などにしたがって車両を運転し、選択した目的地である「銀行 A」に到達すること ができる。
[0143] 以上のように、この実施の形態のカーナビゲーシヨンシステム 1では、読取データ処 理部 91が、電子ペン 4が生成する筆跡の読取データ 42に基づいて抽出地域範囲を 特定し、音声データ処理部 92が、電子ペン 4が生成する発話の音声データ 43に基 づいて抽出する施設の種類を特定し、抽出処理部 93が、この抽出地域範囲内の特 定された種類の施設の施設情報を抽出する。したがって、カーナビゲーシヨンシステ ム 1は、電子ペン 4を用いた書込み操作 (あるいはなぞり操作)により指定された抽出 地域範囲と、発話により指定された施設の種類との 2つの抽出条件により、施設デー タベース 77の情報を絞り込むことができる。
[0144] それ故、たとえば、地図帳 5の縮尺では複数の施設が近接してしまい、その結果と して電子ペン 4による書込み操作(あるいはなぞり操作)のみでは 1つの施設を明示 的に特定することができない場合であっても、ユーザは、その複数の施設の中の 1つ を液晶デバイス 66の表示に基づいて選択することで、所望の施設を目的地などの経 路探索に用いる地点として選択することができる。しかも、ユーザは、電子ペン 4と地 図帳 5により範囲を指定することができるので、ナビゲーシヨン本体 2の液晶デバイス 66にその範囲を表示させたりする操作をすることなぐ所望の施設を選択することが できる。
図 17は、電子ペン 4により指定された範囲に複数の選択肢があり、その選択肢が図 12、図 15のように抽出施設リストが液晶デバイス 66に表示されている場合に、メニュ 一選択画面 122を電子ペン 4で選択することにより、表示されている複数の施設名より 所望の施設名を選択できる。このためユーザはタツチパネルによる操作を行うことなく 、電子ペン 4により所望の施設名を選択することができる。このメニュー選択画面は、 複数の矢印など方向性を示す図柄 123が複数記載されており、その図柄 123を電子 ペンで指定することによって、その図柄 123に重ねて印刷されているドットパターンが 、複数の選択肢の選択するカーソルの移動方向に対応付けられており、メニュー選 択画面 122の記載個所は図 17のように地図の各項ごとに記載されてもよぐ 1冊また は 1枚の地図の所定位置に 1箇所、もしくはナビゲーシヨンの表示に対応するコマン ドシートとして独立したシートであってもよ!/、。
[0145] また、ユーザは、多くの施設情報を、書込み操作および音声による操作によりピン ポイント的に絞り込んで、少なく絞り込まれた複数の施設の中から、所望の施設を選 択すること力 Sできる。つまり、ユーザは、手を使わずに施設の種類を絞り込み、絞り込 まれた複数の施設の中から所望の施設を即座に選択することができる。また、ユーザ は、書込み操作のみで同様の絞込みをしょうとする場合に比べて実質的に少ない手 操作により、短時間で施設を絞り込むことができる。
[0146] また、マイクロホン 38は、ユーザが手に持つ電子ペン 4の一部に設けられており、ュ 一ザ I/Fが電子ペン 4に集約されている。そのため、ユーザが電子ペン 4により書込 み操作 (あるいはなぞり操作)をしつつ発話したとき、マイクロホン 38は、その発話に よる音声データ 43を生成することができる。つまり、ユーザがマイクロホン 38の位置を 意識することなく所定の操作をしながら発話したとしても、マイクロホン 38は、確実に その音声を集音することができる。
[0147] また、この実施の形態の読取データ処理部 91、音声データ処理部 92および抽出 処理部 93は、互いに独立してそれぞれの処理を並列的に実行可能である。したがつ て、ユーザが電子ペン 4による書込み操作 (あるいはなぞり操作)をしながら発話した とき、読取データ処理部 91が取得読取データ 81を用いた処理をしつつ、音声データ 処理部 92が取得音声データ 82を用いた個別独立に処理を実行することができる。こ の結果、カーナビゲーシヨンシステム 1は、ユーザによる電子ペン 4を用いた書込み 操作 (あるいはなぞり操作)と、発話による操作との間に時間的な制限などを持たない ことになる。したがって、ユーザは、電子ペン 4による操作と発話による操作との順番 や時間の前後関係などを気にすることなぐ操作および発話をすることができる。
[0148] また、この実施の形態の電子ペン 4の読取データ生成部 46および音声データ生成 部 47は、筆圧センサ 34が検出する筆圧が所定値以上になったら、それぞれのデー タの生成処理を開始する。したがって、音声データ処理部 92は、筆圧センサ 34によ る筆圧の検出タイミングを基準とした所定の期間における音声データ 43に基づいて 、抽出する施設の種類を特定することができる。そして、この読取データ 42と音声デ ータ 43とは、データ送信部 48によりナビゲーシヨン本体 2へ一緒に送信される。その ため、抽出処理部 93は、読取データ処理部 91が生成する第一の抽出条件としての 抽出地域範囲と、音声データ処理部 92が生成する第二の抽出条件としての施設の 種類とを明確に対応付けて抽出処理を実行することができる。その結果、カーナビゲ ーシヨンシステム 1は、第一の抽出条件である抽出地域範囲と、第二の抽出条件であ る抽出する施設の種類とを対応付けるために、音声データ 43の蓄積期間などを制限 する必要はない。
[0149] しかも、筆圧センサ 34が検出する筆圧が所定値より小さい場合、つまり電子ペン 4 による操作がなされて!/、な!/、場合には、読取データ生成部 46および音声データ生 成部 47は、それぞれのデータを生成しない。したがって、ユーザが意図しない施設 の抽出条件が生成されてしまったり、その意図しない施設の抽出条件が抽出処理部 93による施設の抽出処理に利用されてしまったりすることはない。
[0150] また、この実施の形態の音声データ処理部 92は、筆圧センサ 34が検出する筆圧 が所定値より小さくなつた後においても所定の無操作期間において音声データ 43を 蓄積する。音声データ処理部 92は、この音声データ 43を処理する。したがって、ュ 一ザが書込み操作中(あるいはなぞり操作中)に発話してもあるいはその操作後に発 話しても、音声データ処理部 92は、それらの発話に基づいて抽出する施設の種類を 限定すること力 Sできる。音声データ処理部 92は、ユーザが書込み操作あるいはなぞ り操作の際に発する音声により、施設の種類を適切に限定することができる。
[0151] また、この実施の形態の音声データ処理部 92は、取得音声データ 82と、音声認識 辞書データベース 78において予め施設の種類に対応付けられた所定の登録音声 エンベロープ情報 102とを比較し、その限定的な比較により抽出する施設の種類の 抽出条件を生成する。また、音声データ処理部 92は、抽出する施設の種類を 1つも 特定していない場合には、施設の種類の抽出条件無しを示す情報を生成し、抽出処 理部 93は、施設データベース 77の検索範囲を限定しない。したがって、たとえばュ 一ザが発話していないなどの理由により、音声データ処理部 92が取得音声データ 8 2に基づいて施設の種類の抽出条件を生成しない場合であっても、抽出処理部 93 は、抽出地域範囲に基づいて抽出処理を実行することができる。ユーザは、音声によ り絞込みをしない場合において、そのことを指示する必要はない。ユーザは、音声に より絞込みをするか否かを意識する必要はな!/、。
[0152] 以上の実施の形態は、本発明の好適な実施の形態の例であるが、本発明は、これ に限定されるものではなぐ発明の要旨を逸脱しない範囲において種々の変形や変 更が可能である。
[0153] 上記実施の形態の読取データ処理部 91および音声データ処理部 92は、電子ペン
4の不揮発性メモリ 40にバッファリングされた読取データ 42および音声データ 43を 取得して処理している。この他にもたとえば、読取データ処理部 91および音声データ 処理部 92は、電子ペン 4の読取データ生成部 46および音声データ処理部 92から読 取データ 42および音声データ 43をリアルタイム的に常時取得し、処理するものであ つてもよい。なお、このように電子ペン 4から読取データ処理部 91および音声データ 処理部 92へデータをリアルタイム的に常時送信する場合、電子ペン 4は、車中にお いて、ナビゲーシヨン本体 2に接続されて通信可能な状態である必要がある。また、 図 14のフローチャートにおいて、ステップ ST8の抽出処理の後に処理が終了したか 否かを判断し、処理が終えたと判断できない場合には、ステップ ST1やステップ ST3 などへ戻るようにすればよい。これにより、書込み操作や発話による操作がユーザに より複数回なされた場合であっても、ナビゲーシヨンシステム 1は、各回での操作に基 づく検索条件の組合せにより情報の絞込みをすることができる。
[0154] 上記実施の形態では、 UI部 86は、液晶デバイス 66に表示する複数の施設名情報
111の中の 1つを目的地として選択している。この他にもたとえば、 UI部 86は、液晶 デバイス 66に表示する複数の施設名情報 111の中の 1つを、経路探索の出発地や 経由地などとして選択するようにしてもよい。
[0155] 上記実施の形態の読取データ処理部 91は、施設データベース 77中の各施設に つ!/、てそれぞれの所在地の緯度経度値と抽出地域範囲とを比較して、抽出地域範 囲内であるか否かを判断している。この他にもたとえば、施設データベース 77におい て各施設に座標値を対応付け、読取データ処理部 91は、取得読取データ 81の複数 の座標値による抽出地域範囲と、施設データベース 77中の各施設の座標値とを比 較し、座標値の包含関係に基づいて、各施設が抽出地域範囲内であるか否力、を判 断するようにしてもよい。この変形例では更に、施設データベース 77において各施設 に対応付けられる座標値は、地図帳 5にいてそれぞれの所在地と重ねて印刷される 個別の座標パターン 22の座標値であっても、たとえばその地域内の所定の地点に 重ねて印刷される共通の座標パターン 22の座標値であってもよい。また、施設デー タベース 77において、各施設は、複数の座標パターン 22の座標値に対応付けられ ていてもよい。
[0156] 上記実施の形態の液晶デバイス 66は、抽出施設リスト 83中の複数の施設名情報 1 11を一覧表示する。この他にもたとえば、液晶デバイス 66は、抽出施設リスト 83中の 複数の施設名情報 111を、その地域の地図上にそれぞれの緯度経度情報 112より 分布配置した地図を表示するようにしてもよい。
[0157] 上記実施の形態の施設データベース 77は、付録メモリカード 6に記録され、ナビゲ ーシヨン本体 2に揷入されて使用される。この他にもたとえば、施設データベース 77 は、ナビゲーシヨン本体 2の HDD63に記録されていても、 CD— ROMなどの他の種 類のコンピュータ読取可能な記録媒体に記録されていてもよい。さらに他にもたとえ ば、施設データベース 77は、ナビゲーシヨン本体 2が無線通信回線やインターネット などを介してアクセス可能なサーバ上に記録されて!/、てもよ!/、。
[0158] 上記実施の形態の施設データベース 77は、各施設の情報として、施設名情報 96 と緯度経度情報 97とを有する。この他にもたとえば、施設データベース 77は、各施 設の基本的な施設情報として、その施設の営業日、営業時間、施設利用料金、施設 の案内や広告などの付属情報を併せて記憶し、 UI部 86は、その施設が選択された 場合に、それらの付属情報を液晶デバイス 66に表示させるようにしてもよい。
[0159] 上記実施の形態では、読取データ処理部 91、音声データ処理部 92および抽出処 理部 93は、電子ペン 4と通信可能なナビゲーシヨン本体 2に設けられている。この他 にもたとえば、読取データ処理部 91、音声データ処理部 92および抽出処理部 93の 中の一部ある!/、は全部力 電子ペン 4に設けられて!/、てもよ!/、。
[0160] 上記実施の形態では、電子ペン 4が生成する読取データ 42は、自動車に設置され るナビゲーシヨン本体 2により利用されている。この他にもたとえば、電子ペン 4が生 成する読取データ 42は、 GPS受信機 62を有する携帯電話端末などの携帯端末によ り、経路探索に用いる地点を抽出するために利用されてもよい。
[0161] 上記実施の形態は、カーナビゲーシヨンシステム 1での地点の絞込み操作での例 である。本発明は、この他にもたとえば、ナビゲーシヨン装置の設定項目の絞込み操 作や、コンピュータ装置などにおける情報の絞込み操作において利用することができ
[0162] 図 14に示す抽出範囲を特定する処理(ST4)と、施設の種類を特定する処理(ST 5〜ST7)とは、直列処理とすることもできる。たとえば、抽出範囲を特定する処理を 実行した後に施設の種類を特定する処理を実行したり、あるいは、その逆としたりす ること力 Sできる。また、図 14に示す抽出処理(ST8)では、施設の種類を特定した(絞 り込んだ)後に抽出範囲に基づく特定 (絞込み)を行うようにした力 これらの処理の 順序を逆とすることも可能である。
産業上の利用可能性
[0163] 本発明は、案内経路を生成するナビゲーシヨン本体において、 目的地、経由地、出 発地などの地点を設定するために好適に利用することができる。また、本発明は、ナ ビゲーシヨン本体の施設データベースなどにおいて、情報を絞り込むために好適に 利用することができる。

Claims

請求の範囲
[1] 印刷物に印刷された地図中の範囲を指定する携帯入力装置と、
上記携帯入力装置により指定された範囲内に関連付けられている施設を表示する 表示手段、および、上記表示手段に表示された施設の内から、所望の地点を選択す る選択手段を有するナビゲーシヨン本体と、
を有することを特徴とするナビゲーシヨンシステム。
[2] 前記地図が印刷される前記印刷物には、前記携帯入力装置が読み取ることで座標 値 変換可能な座標パターンが印刷され、
前記ナビゲーシヨン本体は、前記印刷物に印刷される上記座標パターンの座標値 と対応付けて複数の施設の表示情報を記憶するデータベースから、前記携帯入力 装置により指定された範囲内の座標値に対応付けられている施設の表示情報を抽 出する抽出手段を有し、更に、
前記表示手段は、上記抽出手段により抽出された施設の表示情報を、前記選択手 段により選択可能に表示すること、
を特徴とする請求項 1記載のナビゲーシヨンシステム。
[3] 前記印刷物の前記地図中には、前記座標パターンと重ねて、その地域の名称ある いは所定のマークが印刷され、
前記データベースでは、上記所定のマークあるいは上記地域の名称と重なる前記 座標パターンの座標値と対応付けて、その地域に存在する前記施設の表示情報が 対応付けられていること、
を特徴とする請求項 2記載のナビゲーシヨンシステム。
[4] 前記印刷物の前記地図中には、前記座標パターンと重ねて、施設の種類を表す複 数の施設マークが並べて印刷され、
前記データベースでは、上記各施設マークと重なる前記座標パターンの座標値と 対応付けて、その種類の前記施設の表示情報が対応付けられていること、
を特徴とする請求項 2記載のナビゲーシヨンシステム。
[5] 前記データベースは、前記各施設の表示情報に、前記ナビゲーシヨン本体で利用 可能な、その施設の緯度経度を示す緯度経度情報が対応付けられており、 前記ナビゲーシヨン本体は、前記選択手段により選択された施設の、前記データべ ースにおける上記緯度経度情報を用いて案内経路を生成する案内経路生成手段を 有すること、
を特徴とする請求項 2記載のナビゲーシヨンシステム。
[6] 前記データベースは、前記ナビゲーシヨン本体と着脱可能な携帯記録媒体に記憶 されており、前記印刷物と対応付けてユーザへ提供されるものであることを特徴とす る請求項 5記載のナビゲーシヨンシステム。
[7] 前記選択手段は、前記表示手段の操作により選択する、請求項 1に記載のナビゲ ーシヨンシステム。
[8] 前記携帯入力装置は、音声を収集し、収集した音声を音声データに変換するマイ クロホンを備え、
前記選択手段は、該音声データに基づいて選択する、請求項 1に記載のナビグー シヨンシステム。
[9] 前記マイクロホンは、前記携帯入力装置あるいは前記携帯入力装置と通信可能な 前記ナビゲーシヨン本体に設けられていることを特徴とする請求項 8に記載のナビゲ ーシヨンシステム。
[10] 前記表示手段による表示と前記音声データとに基づいて選択する選択手段は、互 いに独立してそれぞれの処理を並列的に実行可能であることを特徴とする請求項 8 に記載のナビゲーシヨンシステム。
[11] 前記携帯入力装置は、該携帯入力装置による地図中の範囲を指定する操作を検 出する検出部材を有し、
前記音声データに基づいて選択する選択手段は、上記検出部材による操作の検 出タイミングを基準とした所定の期間における前記音声データについて選択手段に よる選択処理を実行すること、
を特徴とする請求項 8記載のナビゲーシヨンシステム。
[12] 前記音声データに基づいて選択する選択手段は、前記検出部材により操作が検 出されている期間を含む所定の期間の前記音声データについて選択処理を実行す ること、 を特徴とする請求項 4記載のナビゲーシヨンシステム。
[13] 前記印刷物には地図に加えて方向を示す図柄が、前記携帯入力装置が読み取る ことで座標値に変換可能な座標パターンと共に印刷され、
前記選択手段は、前記携帯入力装置により前記方向を示す図柄を選択することに よって、前記表示手段に表示された施設の中から所望の施設を選択する、
請求項 2に記載のナビゲーシヨンシステム。
[14] 前記方向を示す図柄は、前記表示手段に表示される抽出施設の選択方向を示し ている、
請求項 13に記載のナビゲーシヨンシステム。
[15] 印刷物に印刷された地図中の範囲が携帯入力装置により指定されることで生成さ れる範囲データを取得するステップと、
取得した上記範囲データにより特定される範囲内に関連付けられている施設を表 表示した施設の内から、所望の地点を選択するステップと、
を有することを特徴とする地点の選択方法。
PCT/JP2007/072803 2006-11-27 2007-11-27 ナビゲーションシステムおよび地点の選択方法 WO2008069042A1 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2006318744A JP2010032213A (ja) 2006-11-27 2006-11-27 ナビゲーションシステムおよび地点の選択方法
JP2006-318744 2006-11-27
JP2006-325312 2006-12-01
JP2006325312A JP2010033101A (ja) 2006-12-01 2006-12-01 情報抽出装置および情報抽出方法

Publications (1)

Publication Number Publication Date
WO2008069042A1 true WO2008069042A1 (ja) 2008-06-12

Family

ID=39491945

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2007/072803 WO2008069042A1 (ja) 2006-11-27 2007-11-27 ナビゲーションシステムおよび地点の選択方法

Country Status (1)

Country Link
WO (1) WO2008069042A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05204307A (ja) * 1992-01-27 1993-08-13 Clarion Co Ltd ナビゲーション装置
JPH05265375A (ja) * 1992-03-16 1993-10-15 Clarion Co Ltd 車載用ナビゲーション装置
JPH07110239A (ja) * 1993-10-12 1995-04-25 Dainippon Printing Co Ltd 地図表示装置
JPH09101171A (ja) * 1995-10-05 1997-04-15 Denso Corp 車両用ナビゲーション装置
JP2004046424A (ja) * 2002-07-10 2004-02-12 Dainippon Printing Co Ltd 地理的情報提供システム、地理的情報提供方法、地理的情報提供プログラム、及び電子ペン用帳票

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05204307A (ja) * 1992-01-27 1993-08-13 Clarion Co Ltd ナビゲーション装置
JPH05265375A (ja) * 1992-03-16 1993-10-15 Clarion Co Ltd 車載用ナビゲーション装置
JPH07110239A (ja) * 1993-10-12 1995-04-25 Dainippon Printing Co Ltd 地図表示装置
JPH09101171A (ja) * 1995-10-05 1997-04-15 Denso Corp 車両用ナビゲーション装置
JP2004046424A (ja) * 2002-07-10 2004-02-12 Dainippon Printing Co Ltd 地理的情報提供システム、地理的情報提供方法、地理的情報提供プログラム、及び電子ペン用帳票

Similar Documents

Publication Publication Date Title
TWI364529B (ja)
JP3944671B2 (ja) ナビゲーション装置
RU2425329C2 (ru) Навигационное устройство и способ для приема и воспроизведения звуковых образцов
JP3912476B2 (ja) 地図表示装置
WO2005096183A1 (ja) データ選択装置、方法、プログラム及び記録媒体
JP2006092513A (ja) 項目検索装置
US20140058659A1 (en) Method for processing electronically stored calendar data in a computer-assisted manner
US20120215439A1 (en) More accurate navigation method
JP2003287432A (ja) ナビゲーションシステム、位置指示装置、経路誘導装置、ナビゲーションプログラム
JP2008089355A (ja) 経路入力装置
JP4001049B2 (ja) ナビゲーション装置
WO2008069042A1 (ja) ナビゲーションシステムおよび地点の選択方法
JP2010033101A (ja) 情報抽出装置および情報抽出方法
JP4705398B2 (ja) 音声案内装置、音声案内装置の制御方法及び制御プログラム
JP4158673B2 (ja) ナビゲーション装置
JP5040436B2 (ja) ナビゲーションシステムおよび地図印刷媒体を用いた地点の選択方法
JP2008232757A (ja) ナビゲーションシステム、およびスケジュール記入用媒体への書込みに基づく予定地への案内経路生成方法
JP5028936B2 (ja) ナビゲーションシステムおよびランドマークの表示方法
JP2010032213A (ja) ナビゲーションシステムおよび地点の選択方法
JP4423963B2 (ja) 電話番号による地点検索出力装置
JP2008209845A (ja) 地図中ランドマークの選択方法およびナビゲーションシステム
JP2008096144A (ja) ナビゲーションシステムおよび複数の地点を巡る案内経路の探索方法
JP2008204256A (ja) 情報管理提供システム
JP2008309541A (ja) ナビゲーションシステムおよび案内地点の変更方法
JP4483454B2 (ja) カーナビゲーション装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 07832528

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 07832528

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP