WO2005061993A1 - ナビゲーションシステム、携帯情報端末装置、サーバ、およびナビゲーション方法 - Google Patents

ナビゲーションシステム、携帯情報端末装置、サーバ、およびナビゲーション方法 Download PDF

Info

Publication number
WO2005061993A1
WO2005061993A1 PCT/JP2004/016754 JP2004016754W WO2005061993A1 WO 2005061993 A1 WO2005061993 A1 WO 2005061993A1 JP 2004016754 W JP2004016754 W JP 2004016754W WO 2005061993 A1 WO2005061993 A1 WO 2005061993A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
data
character string
character
terminal device
Prior art date
Application number
PCT/JP2004/016754
Other languages
English (en)
French (fr)
Inventor
Takeshi Takahashi
Nobuyuki Nakano
Ryotaro Iwami
Tomohiro Terada
Original Assignee
Matsushita Electric Industrial Co., Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co., Ltd. filed Critical Matsushita Electric Industrial Co., Ltd.
Priority to JP2005516430A priority Critical patent/JP4231507B2/ja
Publication of WO2005061993A1 publication Critical patent/WO2005061993A1/ja

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3605Destination input or retrieval
    • G01C21/3623Destination input or retrieval using a camera or code reader, e.g. for optical or magnetic codes

Definitions

  • Navigation system portable information terminal device, server, and navigation method
  • the present invention relates to a navigation system, a portable information terminal device, a server, and a navigation method, and more specifically, a user specifies a specific position and based on the position.
  • the present invention relates to a navigation system capable of controlling operations, a portable information terminal device, a server, and a navigation method that constitute the system.
  • navigation devices include a car navigation device mounted on a moving body such as a vehicle, a pedestrian navigation device used as an application of a PDA (small information terminal) device and a mobile phone device, and the like.
  • PDA small information terminal
  • These navigation devices can automatically search for a recommended route to the starting point force of a moving object or a desired target point, or display a map of a desired position on a screen.
  • the user inputs, for example, an address, a facility name, a telephone number, and the like at that position using voice input, a remote control, a touch panel, buttons arranged on the navigation device, and the like. And numbers.
  • the navigation device searches the position based on the input information, displays a map, and searches for a recommended route.
  • a homepage of the Internet displayed on a display screen of the device is analyzed, and the location of an address or the like displayed on the navigation device is specified.
  • a technique of extracting a character string and setting it as a target point of a recommended route is disclosed.
  • the navigation device disclosed in Japanese Patent Publication No. 2003-202234 the device is equipped with a scanner, and a character string specifying the position of an address or the like described in an arbitrary medium is captured. There is disclosed a technique in which identifiable position candidates are displayed on a screen and the user selects the position.
  • the navigation device disclosed in Japanese Patent Application Laid-Open No. 2001-255160 can only specify a desired position found while browsing the Internet homepage.
  • the trouble of the user specifying the position cannot be eliminated.
  • the navigation device disclosed in Japanese Patent Application Laid-Open No. 2003-202234 needs to include a new device called a scanner, which causes an increase in the price of the device itself. Furthermore, if there are multiple candidates for specifying the position, they are displayed on the screen for selection.For example, an on-screen display such as an arrow navigation device that performs intersection guidance using only arrows or a voice navigation device that performs only voice guidance is used. Inability to respond to poor abilities or lack of display screens.
  • an object of the present invention is to provide a navigation system, a portable information terminal device, a server, and a navigation method that can easily and reliably specify a desired position of a user, such as a target point of a recommended route. To provide.
  • the navigation system of the present invention includes a server (517) connected to a predetermined network (4), a portable information terminal device (1) capable of data communication with the server via the network, A navigation device (2) capable of data communication with a terminal device.
  • Carrying The band information terminal device includes a data transmission / reception unit (15, 16) for performing data communication with a server and a navigation device, and an imaging unit (12) for imaging an arbitrary subject to generate image data.
  • the server recognizes a character string included in the image data transmitted from the portable information terminal device and a data transmitting / receiving unit (52, 62, 73) for performing data communication with the portable information terminal device, and converts the character string to character data.
  • An image recognition conversion unit (51) that converts the character data into characters, a position identification character extraction unit (61) that extracts a character string whose geographical position can be identified, and a position identification character A position search unit (71) for searching for a geographical position indicated by the character string by using the character string extracted by the extraction unit.
  • the navigation device includes a data transmission / reception unit (20) for performing data communication with the portable information terminal device.
  • the geographical position information (position search result) searched by the position search unit is output to the navigation device via the portable information terminal device.
  • the portable information terminal device is a portable telephone device provided with an imaging unit and a data transmitting / receiving unit.
  • the portable information terminal device further includes a display unit (10) for displaying information received by the data transmission / reception unit of the portable information terminal device, and an input unit for inputting an instruction in response to a user operation. It doesn't matter if you have In this case, when receiving the geographical position information searched by the position search unit (S56), the portable information terminal device displays the position information on the display unit (S57), and the user input from the input unit. In response to the instruction (S58), the position information is output to the navigation device (S59).
  • a display unit (10) for displaying information received by the data transmission / reception unit of the portable information terminal device
  • an input unit for inputting an instruction in response to a user operation. It doesn't matter if you have In this case, when receiving the geographical position information searched by the position search unit (S56), the portable information terminal device displays the position information on the display unit (S57), and the user input from the input unit. In response to the instruction (S58), the position information is output to the navigation device (S59).
  • the position specifying character extracting unit classifies a character string whose geographical position can be specified into any of an address, a telephone number, a postal code, and a facility name, and extracts character data. S32).
  • the position search unit uses the character strings classified and extracted by the position specifying character extraction unit to narrow down the search to a single position indicated by the character strings and perform a search (72; S44 to S53).
  • the position search unit narrows down a single position as coordinate data, and obtains at least one piece of information selected from a group consisting of a position name, an address, a telephone number, and a map image of the position corresponding to the single position, and the coordinate data. Output as position information does not work.
  • the portable information terminal device may further include a connection point determination unit (14) for determining a geographical position connected to the network.
  • the location search unit Using the geographical position determined by the determining unit and the character string classified and extracted by the position specifying character extracting unit, the search is narrowed down to a single position indicated by the character string and searched (S52).
  • the navigation device and the portable information terminal device are mounted on the same moving body.
  • the navigation device further includes a current position deriving unit (212) for deriving the current position of the moving object, and a recommended route of the departure strength of the moving object whose destination is the position information output from the portable information terminal device.
  • a route search unit (211) that derives a route
  • a route guide unit (214) that analyzes the relationship between the current position derived by the current position derivation unit and the recommended route derived by the route search unit, and guides a route to the destination. Is provided.
  • the data communication between the data transmitting / receiving unit of the portable information terminal device and the data transmitting / receiving unit of the navigation device may take the following various examples.
  • data communication between the data transmitting / receiving unit of the portable information terminal device and the data transmitting / receiving unit of the navigation device is performed by wireless connection.
  • data communication between the data transmitting / receiving unit of the portable information terminal device and the data transmitting / receiving unit of the navigation device is performed by communication via a wired connection.
  • data communication between the data transmitting / receiving unit of the portable information terminal device and the data transmitting / receiving unit of the navigation device is performed via a memory card device having a built-in nonvolatile memory.
  • the network is an Internet network.
  • the portable information terminal device of the present invention can perform data communication with a server via a predetermined network.
  • the portable information terminal device includes a data transmission / reception unit that performs data communication with a server, an imaging unit that captures an image of an arbitrary subject to generate image data, and a display unit that displays information received by the data transmission / reception unit. After transmitting the image data generated by the imaging unit to the server, the data transmission / reception unit receives the geographical position information indicated by the character string included in the image data from the Sano, and the display unit transmits the data transmission / reception unit Displays the received location information.
  • a portable information terminal device is a portable telephone device including a data transmitting / receiving unit, an imaging unit, and a display unit.
  • the portable information terminal device further includes an input unit for inputting an instruction in response to a user's operation, it does not work.
  • the data transmission / reception unit further communicates with the navigation device. May be capable of data communication. In this case, when the data transmitting / receiving unit receives the position information, the position information is displayed on the display unit, and the position information is output to the navigation device in response to a user instruction input from the input unit.
  • the position information received by the data transmission / reception unit from the server is a character string that can specify a geographical position from image data transmitted to the server, which is one of an address, a telephone number, a postal code, and a facility name. It may be possible to include at least coordinate data that is extracted by classifying each character string and narrowed down to a single position indicated by the character string.
  • the location information received by the data transmission / reception unit from the server further includes at least one piece of information selected from a group name, a location name, an address, a telephone number, and a peripheral map image power according to a single location. It does not work even if it includes.
  • the portable information terminal device may further include a connection point determination unit that determines a geographical position connected to the network.
  • the coordinate data included in the position information received by the data transmission / reception unit from the server uses the geographical position determined by the connection point determination unit and the classified and extracted character strings to represent the character strings indicated by the character strings. The search is narrowed down to one position.
  • a current position deriving step (S61) for deriving the current position a route searching step (S63) for deriving a recommended route using the position information obtained by the position searching step as a destination, a current position and a recommended route
  • a route guidance step (S64-S66) for analyzing the relationship with the destination and guiding the route to the destination.
  • the method may further include a display step (S57) for displaying the position information obtained by the position search step, and an input step (S58) for inputting an instruction in response to a user operation.
  • the display step displays the position information, and when an instruction in response to the user's predetermined operation is input in the input step, the position is displayed.
  • the location information is adopted as the destination used in the route search step (S59).
  • the position specifying character extracting step the character string whose geographical position can be specified is classified into one of an address, a telephone number, a postal code, and a facility name, and the character data is extracted. ⁇ ⁇ It doesn't matter (S32).
  • the position search step using the character strings classified and extracted in the position specifying character extraction step, the search is performed by narrowing down to a single position indicated by the character strings (S44 to S53).
  • a single position is narrowed down as coordinate data, and the name, address, telephone number, and peripheral map image power of the position corresponding to the single position are selected. It does not matter if the coordinates and the coordinate data are obtained as position information.
  • the position search step uses a character string classified and extracted in the current position and position specifying character extraction step and narrows down the search to a single position indicated by the character string. ).
  • the server of the present invention can perform data communication with a portable information terminal device via a predetermined network.
  • the server includes a data transmission / reception unit, an image recognition conversion unit, a position specifying character extraction unit, and a position search unit.
  • the data transmitting / receiving unit performs data communication with the portable information terminal device.
  • the image recognition conversion unit recognizes a character string included in the image data transmitted from the portable information terminal device, and converts the character string into character data.
  • the position specifying character extracting unit extracts a character string whose geographical position can be specified from the character data converted by the image recognition converting unit.
  • the position search unit searches for a geographical position indicated by the character string using the character string extracted by the position specifying character extraction unit.
  • the data transmitting / receiving unit receives the image data transmitted from the portable information terminal device, and transmits geographical position information corresponding to the image data retrieved by the position retrieval unit to the portable information terminal device.
  • the position specifying character extracting unit classifies a character string whose geographical position can be specified into any of an address, a telephone number, a postal code, and a facility name, and extracts character data.
  • the position search unit uses the character strings classified and extracted by the position specifying character extraction unit to narrow down the search to a single position indicated by the character strings and perform a search.
  • the position search unit narrows down a single position as coordinate data, and the position name, address, telephone number, and map image power of the position corresponding to the single position are at least one piece of information and coordinate data to be selected. Output as the position information does not work.
  • a character that can be identified by a position is imaged by an image pickup unit built in the portable information terminal device, so that the user can perform a magazine or travel guidebook without performing complicated operations.
  • positional information indicated by the subject can be output to the navigation device.
  • the position of an address or facility name written in kanji that cannot be read by the user can be output to the navigation device.
  • server on the network performs processing such as image recognition conversion, extraction of position identification characters, and position search, the processing is performed by a portable information terminal device or a navigation device that has a lower processing capability than the server.
  • the processing can be performed with higher accuracy than in the case.
  • the position search data held by the device is, for example, fresh data that matches the present unless the data in the storage unit is updated by replacing with the latest map DVDROM. It does not become. In other words, the search results on such a navigation device may deviate from the current situation.
  • the server can always update to the latest data, the search result by the navigation system deviates from the current situation! /.
  • the portable information terminal device is configured by a portable telephone device with a built-in camera, it is possible to suppress an increase in price without having to provide a new U or device.
  • the mobile phone device possessed by the user can be used, it is not necessary to attach a new device around the navigation device.
  • an approximate position can be calculated by performing triangulation on the position of the connection point based on the position of the mobile phone relay antenna and the radio wave intensity.
  • the effects of the above-described navigation system can be similarly obtained by being included in the above-mentioned navigation system. Further, according to the navigation method of the present invention, the effects of the above-described navigation system can be similarly obtained.
  • FIG. 1 is a block diagram showing a hardware configuration of a mobile phone device 1 and a navigation device 2 included in a navigation system according to an embodiment of the present invention.
  • FIG. 2 is a block diagram showing a configuration of a network used in a navigation system according to one embodiment of the present invention.
  • FIG. 3 is a block diagram showing main functional configurations of the mobile phone device 1 and the navigation device 2 of FIG. 1.
  • FIG. 4 is a block diagram showing main functional configurations of an image recognition conversion server 5, a position specifying character extraction server 6, and a position search server 7 in FIG.
  • FIG. 5 is a flowchart showing an overall operation in the navigation system according to one embodiment of the present invention.
  • FIG. 6 is a subroutine showing a detailed operation of an information acquisition process in step S1 of FIG.
  • FIG. 7 is a subroutine showing a detailed operation of an image recognition conversion process in step S2 of FIG.
  • FIG. 8 is a subroutine showing a detailed operation of a position specifying character extracting process in step S3 of FIG.
  • FIG. 9 is a subroutine showing a detailed operation of a position search process in step S4 of FIG.
  • FIG. 10 is a subroutine showing a detailed operation of a position search result acquisition process in step S5 of FIG.
  • FIG. 11 is a subroutine showing a detailed operation of a route guidance process in step S6 of FIG.
  • FIG. 12 is a diagram for explaining a specific example of extracting a position specifying character string performed in step S32 of FIG.
  • the navigation system includes a portable information terminal device, a navigation device, and a server.
  • a mobile phone device will be described as an example of a mobile information terminal device. It will be described using PDA (Personal Digital Assistants).
  • PDA Personal Digital Assistants
  • a mobile phone device 1 and a navigation device 2 included in the navigation system are installed on a moving body such as a vehicle.
  • the mobile phone device 1 and the navigation device 2 can perform wireless or wired data communication with each other.
  • the mobile phone device 1 includes a display unit 10, an antenna 11, and an imaging unit 12.
  • the navigation device 2 includes a data communication unit 20, a CPU 21, an input unit 22, an interface (iZF) 23, a GPS (Global Positioning System) receiving unit 24 including an antenna 241, a self-contained navigation unit 25, a storage unit 26, and a ROM 27.
  • the CPU 21 controls the operation of each unit constituting the navigation device 2.
  • the input unit 22 is used to input data to the navigation device 2 in response to a user operation, such as a remote controller.
  • the IZF 23 is connected with a GPS receiver 24 and a self-contained navigation unit 25.
  • the GPS receiving unit 24 receives a radio wave from an artificial satellite accommodated in a positioning system represented by GPS via the antenna 241 and outputs position information indicating the current position of the moving object to the IZF 23.
  • the self-contained navigation unit 25 typically includes an acceleration sensor and an angular velocity sensor provided on the moving body, and outputs acceleration information and angular velocity information indicating the acceleration and the angular velocity of the moving body detected by them to the IZF 23. .
  • the IZF 23 transfers the input position information, acceleration information, and angular velocity information to the CPU 21.
  • the storage unit 26 includes a recording medium 262 typified by a DVD-ROM and a drive unit 261 thereof.
  • the recording medium 262 records map data necessary for navigation.
  • the drive unit 261 reads necessary map data from the recording medium 262 and transfers the map data to the RAM 28.
  • other media of the recording medium 262 include a CD-ROM, a hard disk drive, a memory card, a ROM, and the like.
  • the ROM 27 stores at least a computer program 271 that defines the operation of the navigation device 2.
  • the RAM 28 stores information transferred from each unit of the navigation device 2, and deletes information as needed.
  • the audio output control unit 29 controls audio output to the speaker 291.
  • the data communication unit 20 includes a transmission / reception unit 201 typically represented by infrared communication, and transmits and receives data to and from the mobile phone device 1.
  • the data communication unit 20 sends the information generated by the CPU 21 to an external network (see FIG. 2) via the mobile phone device 1, and transmits the information transmitted via the mobile phone device 1 to the network. Or transfer it to RAM28.
  • Other communication means of the transmission / reception unit 201 include communication using radio waves, communication using a wired connection using a modem, data transfer via a memory card, and the like.
  • the bus line 30 connects the components of the navigation device 2 so that they can communicate with each other.
  • the mobile phone device 1 has a built-in imaging unit 12 such as a digital camera, for example, and includes a display unit 10 and an antenna 11.
  • the display unit 10 has a display screen on the housing surface of the mobile phone device 1 for allowing a user to visually recognize information in accordance with an instruction of a CPU (not shown), and the display screen is a liquid crystal display or the like. Be composed.
  • the imaging unit 12 captures an image of an arbitrary subject by a user.
  • the antenna 11 connects an external network (see FIG. 2) to the mobile phone device 1 and transmits and receives information to and from the network.
  • FIG. 2 is a block diagram showing a configuration of a network used in the navigation system.
  • the network includes a computer network 4, an image recognition conversion server 5, a position specifying character extraction server 6, a position search server 7, and a mobile phone device 1.
  • the computer network 4 is a network typically represented by the Internet. Note that the mobile phone network and the computer network 4 are configured separately, but for simplicity of explanation, the mobile phone network is included in the computer network 4 and the description of the mobile phone network will be omitted.
  • the image recognition conversion server 5, the position specifying character extraction server 6, the position search server 7, and the mobile phone 1 are connected to each other so as to be able to perform data communication.
  • the image recognition conversion server 5 receives digital image data transmitted from the mobile phone device 1 via the computer network 4. Then, the image recognition conversion server 5 recognizes characters from the image represented by the received digital image data, converts the characters into digital character data composed of a single or multiple character strings, and transmits the digital character data to the position specifying character extraction server 6 Do
  • the position specifying character extraction server 6 converts a character string whose position can be specified (position specifying character string) from the digital character data transmitted from the image recognition conversion server 5 via the computer network 4 into one. Extract one or more. Then, the position specifying character extraction server 6 classifies the extracted position identifiable character strings by position attributes (address, telephone number, etc.), and transmits them together with the position attributes to the position search server 7.
  • the position search server 7 performs a position search from one or a plurality of position identifiable character strings transmitted from the position specifying character extraction server 6 via the computer network 4. Then, location search server 7 transmits the location search result to portable telephone device 1 via computer network 4.
  • the image recognition / conversion server 5, the position specifying character extraction server 6, and the position search server 7 are described as being composed of separate servers. ⁇ I don't care.
  • the image recognition conversion server 5, the position identification character extraction server 6, and the position search server 7 are configured as one server having the respective functions, the server and the mobile phone device 1 perform data communication via the computer network 4. Connected as possible.
  • FIG. 3 is a block diagram showing main functional configurations of the mobile phone device 1 and the navigation device 2.
  • main functions of the mobile phone device 1 and the navigation device 2 are realized by the CPU (not shown) and the CPU 21 of the mobile phone device 1 executing the computer program 271 respectively.
  • the computer program 271 executed by the CPU of the mobile phone device 1 may be transferred from the navigation device 2 via the data communication unit 20, or may be stored in advance in the storage unit (not shown) of the mobile phone device 1. Even if it is stored in I don't know. Further, the computer programs executed by the CPU and the CPU 21 of the mobile phone device 1 can be independent programs.
  • the CPU 21 of the navigation device 2 includes a route search unit 211, a current position derivation unit 212, a current position determination unit 213, and a route guidance unit 214. Further, the mobile phone device 1 includes a digital imaging unit 121, an image transfer unit 13, a connection point determination unit 14, a connection unit 15, and an information transmission unit 16.
  • Digital imaging section 121 captures an arbitrary subject including a character whose position can be specified by a user, and stores the captured data as digital image data. Specifically, the user uses the digital imaging unit 121 (imaging unit 12) to image a subject whose information is expressed as characters and whose position is specified with respect to the navigation device 2. Examples of the subject include business cards, magazines, travel guidebooks, and signboards in which information indicating the position is represented by characters such as addresses, telephone numbers, facility names, and postal codes.
  • the image transfer unit 13 transfers the digital image data captured by the digital imaging unit 121 to the connection unit 15 and outputs the data.
  • the transmission to the image recognition conversion server 5 via the computer network 4 is transmitted to the connection unit 15.
  • the connection point determination unit 14 determines the current position of the mobile phone device 1 using mobile phone relay antenna information of a mobile phone network (not shown) to which the connection unit 15 is connected. Specifically, the connection point determination unit 14 uses the mobile phone relay antenna power transmitted position information and triangulation results based on the radio wave intensities of a plurality of connected mobile phone relay antennas, The approximate position of the mobile phone device 1 can be determined.
  • the connection unit 15 performs data communication with the image recognition conversion server 5, the position identification character extraction server 6, and the position search server 7 via the computer network 4.
  • the connection unit 15 converts the current position information determined by the connection point determination unit 14 and the digital image data captured by the digital imaging unit 121 based on a transmission request from the image transfer unit 13 into an image via the computer network 4. Sent to recognition conversion Sano 5.
  • the connection unit 15 receives information transmitted from any of the image recognition conversion server 5, the position specifying character extraction server 6, and the position search server 7 via the computer network 4.
  • the image recognition conversion server 5, the position specifying character extraction server 6, and the position search server 7 Information transmitted from any of them and received by the connection unit 15 is displayed on the display unit 10. Further, the information transmitting unit 16 transmits the information transmitted to the connecting unit 15 to the transmitting / receiving unit 201 of the navigation device 2 according to a user's instruction.
  • the transmitting / receiving section 201 receives the information transmitted from the information transmitting section 16.
  • the current position deriving unit 212 periodically derives the current position of the moving object. Specifically, the current position deriving unit 212 obtains position information including the current position of the moving object from the GPS receiving unit 24 via the IZF 23 when GPS artificial satellite radio waves can be received. In addition, when the radio wave from the satellite cannot be received, the current position deriving unit 212 receives the acceleration information and the angular velocity information from the self-contained navigation unit 25 via the IZF 23, and uses the information to obtain the mobile unit information. Deriving the current position.
  • the route search unit 211 uses the position indicated by the information received by the transmission / reception unit 201 as the destination and the current position derived by the current position derivation unit 212 as a starting point, and recommends a route from the starting point to the destination. Is derived using the map data read into the RAM 28. Then, the route search unit 211 stores the derived recommended route in the RAM 28. Note that the route search unit 211 may use a position set by the user operating the input unit 22 as a starting point.
  • the current position determining unit 213 determines the positional relationship between the current position derived by the current position deriving unit 212 and the recommended route stored in the RAM 28. For example, the current position determination unit 213 determines whether the moving body is moving along the recommended route.
  • the route guidance unit 214 provides the user with the recommended route based on the determination by the current position determination unit 213. Specifically, the current position determination unit 213 determines that the moving object is moving along the recommended route, and the heading from the current position to the destination is turned at the intersection within a certain distance from the current position. In this case, the route guidance unit 214 instructs the voice output control unit 29 to output a voice guidance output from the speed 291 to turn the intersection in any direction.
  • FIG. 3 is a block diagram showing a configuration.
  • the image recognition conversion server 5 includes an image recognition conversion unit 51 and an information transmission / reception unit 52.
  • the position specifying character extraction server 6 includes a position specifying character extracting unit 61 and an information transmitting / receiving unit 62.
  • the position search server 7 includes a position search unit 71, a result narrowing unit 72, and an information transmitting / receiving unit 73.
  • the connection unit 15 of the mobile phone 1, the information transmission / reception unit 52 of the image recognition conversion server 5, the information transmission / reception unit 62 of the position identification character extraction server 6, and the information transmission / reception unit 73 of the position search server 7 are each connected via the computer network 4. Connected.
  • the information transmitting / receiving unit 52 of the image recognition conversion server 5 receives the digital image data and the current position information transmitted from the mobile phone device 1 via the computer network 4. Then, the information transmitting / receiving unit 52 outputs the digital image data to the image recognition conversion unit 51.
  • the image recognition conversion unit 51 recognizes characters present in the digital image data transmitted from the mobile phone device 1, converts the characters into digital character data composed of a single or a plurality of character strings, and The character data is output to the information transmitting / receiving unit 52. Then, the information transmitting / receiving unit 52 transmits the digital character data and the current position information to the position specifying character extraction server 6 via the computer network 4.
  • the information transmitting / receiving unit 62 of the position specifying character extraction server 6 receives the digital character data and the current position information transmitted from the information transmitting / receiving unit 52 of the image recognition conversion server 5. Then, the information transmitting / receiving section 62 outputs the digital character data to the position specifying character extracting section 61.
  • the position specifying character extracting unit 61 extracts a character string whose position can be specified from the output digital character data. Specifically, the position specifying character extraction unit 61 extracts a character string representing an address, a character string representing a postal code, a character string representing a telephone number, and a character string representing a facility name. Each of the extracted character strings is provided with a standing attribute.
  • the location attribute distinguishes the extracted character string, and distinguishes any of the address, zip code, telephone number, and facility name by referring to the assigned location attribute. be able to.
  • the position specifying character extracting unit 61 outputs the character string data to which the position attribute has been added to the information transmitting / receiving unit 62. Then, the information transmitting and receiving unit 62 transmits the character string data and the current The location information is transmitted to the location search server 7.
  • the information transmitting / receiving unit 73 of the position search server 7 receives the character string data and the current position information transmitted from the information transmitting / receiving unit 62 of the position specifying character extraction server via the computer network 4. Then, the information transmitting / receiving unit 73 outputs the character string data and the current position information to the position searching unit 71 and the result narrowing unit 72. Using the output character string data, the position search unit 71 performs a position search corresponding to the position attribute assigned to each. More specifically, the location search unit 71 performs address search if the assigned location attribute is an address, postal code search if a postal code, telephone number search if a telephone number, and a facility name.
  • a facility name search is performed for each character string data, and the search result is output as coordinate data.
  • the position search unit 71 analyzes each coordinate data, and adopts one of the coordinate data that results in the same position search (that is, the same coordinate data).
  • the result narrowing unit 72 narrows down to one coordinate data which can be represented by the positional force pinpoint.
  • the information transmitting / receiving unit 62 uses the coordinate data and the additional information such as the address and name of the position corresponding to the coordinate data and the surrounding map as position search result information as the position search result information via the computer network 4.
  • FIG. 5 is a flowchart showing the overall operation of the navigation system
  • FIGS. 6 to 11 are subroutines showing the detailed operation of each step shown in FIG.
  • the flowchart shown in FIG. 5 shows an example of the overall operation of the navigation system, in which the user specifies a destination on the recommended route using the mobile phone device 1 and instructs the navigation device 2 to the destination. 7 shows a process until the navigation device 2 performs route guidance from the current position to the destination.
  • a user operates the mobile phone device 1 to obtain image data including characters indicating a destination and current position information, and the mobile phone device 1 outputs the information to the computer network 4. (Step Sl).
  • the image recognition conversion processing by the image recognition conversion server 5 step S2
  • the position specifying character extraction processing by the position specifying character extraction server 6 step S3
  • the location search processing is performed by the location search server 7, and the location search result information is transmitted to the mobile phone device 1.
  • the mobile phone device 1 acquires the received position search result information (step S5) and outputs the position search result information to the navigation device 2. Then, the navigation device 2 performs a route guidance process (step S6) based on the received position search result information.
  • step S5 acquires the received position search result information
  • step S6 outputs the position search result information to the navigation device 2.
  • step S6 performs a route guidance process based on the received position search result information.
  • FIG. 6 is a subroutine showing a detailed operation of the information acquisition process in step S1 performed by the mobile phone device 1.
  • the digital imaging unit 121 captures an image of a subject in response to a user operating the mobile phone device 1 (step Sl). Specifically, the user uses the digital imaging unit 121 (imaging unit 12) to image the object designated by the navigation device 2 including a character whose position (destination) can be specified as a subject. Then, the digital image data captured by the digital imaging unit 121 is output to the image transfer unit 13.
  • connection point determination unit 14 uses the mobile phone relay antenna information of the mobile phone network to which the mobile phone device 1 is connected as described above to determine the current position of the mobile phone device 1. Compute (step S12). Then, the current position information calculated by the connection point determination unit 14 is output to the connection unit 15.
  • the image transfer unit 13 requests the connection unit 15 to transmit the digital image data output from the digital imaging unit 121 to the image recognition conversion server 5 installed on the computer network 4. Then, the connection unit 15 transmits the digital image data and the current position information output from the connection point determination unit 14 to the image recognition conversion server 5 (step S13), and ends the processing of the subroutine.
  • FIG. 7 is a subroutine showing a detailed operation of the image recognition conversion processing in step S2 performed by the image recognition conversion server 5.
  • the information transmission / reception unit 52 of the image recognition conversion server 5 receives the digital image data and the current position information transmitted from the mobile phone device 1 (step S21). Then, the information transmitting / receiving unit 52 outputs the digital image data to the image recognition conversion unit 51.
  • the image recognition conversion unit 51 recognizes characters present in the output digital image data. Recognize and convert to digital character data composed of single or multiple character strings (Step S22). Then, the image recognition conversion unit 51 determines whether or not the conversion in step S22 is successful (step S23).
  • step S23 If the conversion is successful in step S23, the image recognition conversion unit 51 outputs the converted digital character data to the information transmission / reception unit 52, and the information transmission / reception unit 52 outputs the digital character data and the current position information. It is transmitted to the position specifying character extraction server 6 (step S24), and the processing by the subroutine ends.
  • step S23 the image recognition conversion unit 51 notifies the information transmission / reception unit 52 that the conversion has failed! ⁇ , and information indicating the conversion failure is transmitted from the information transmission / reception unit 52 to the mobile phone. It is transmitted to the telephone device 1 (step S25), and the processing of the subroutine ends.
  • FIG. 8 is a subroutine showing a detailed operation of the position specifying character extraction process in step S3 performed by the position specifying character extraction server 6.
  • the information transmission / reception unit 62 of the position identification character extraction server receives the digital character data and the current position information transmitted from the image recognition conversion server 5 (step S31). Then, the information transmitting / receiving unit 62 outputs the digital character data to the position specifying character extracting unit 61.
  • the position specifying character extracting unit 61 extracts a character string whose position can be specified from the output digital character data (step S32).
  • the character string extraction method performed in step S32 will be described in detail.
  • the position specifying character extraction unit 61 is required to correctly extract a character string whose position can be specified from the digital character data, regardless of the geographical position such as an e-mail address, URL, business hours, and charges. Exclude strings that are obvious to be.
  • the position specifying character extracting unit 61 adds a character string in which “D” or “Zip code” is described in the digital character data, and then adds a numeral “#” and a symbol “-” to “#”.
  • a single digit “# ## # #” without a description of “@” or “zip code” is extracted as a post code attribute character string when an address attribute character string described later follows.
  • the position specifying character extracting unit 61 determines that the sequence of numbers “#” and symbols “one” starting with the number “0” in the digital character data is “0 # — # # # # # # # ",” 0 # # # # # # # one # # # # “,” 0 # # #-# # # # # # ",” 0 # # #-# # # # # # ",” 0 # # # # # # # # # "Or” 0 # # # # # # # # # ", the character string is a character string candidate whose location attribute is a telephone number (hereafter, telephone number attribute character Column).
  • the position specifying character extraction unit 61 arranges, in the digital character data, a character string described as “Tel” or “TEL”, followed by one digit, sixteen digits, a symbol “one”, and four digits.
  • the character string is extracted as a telephone number attribute character string whose location attribute is a telephone number.
  • the position specifying character extracting unit 61 similarly extracts a symbol "("")” instead of the symbol "-" as a telephone number attribute character string.
  • the position specifying character extracting unit 61 refers to a database (not shown) storing the names of prefectures, cities, towns, and villages nationwide, and stores the digital character data in the database in the database! If there is a character that matches any of the names, a character string candidate whose location attribute is an address (hereafter referred to as an address attribute character string) is used for the characters from the matched character to the character that can be determined as the end of the character string. Do).
  • the locations where the position identification character extraction unit 61 can determine the end are punctuation marks, boundaries with previously excluded or extracted character strings, numbers, "numbers", “numbers", and character characters of address stop characters in each region. There are spaces or line breaks after (for example, “Upper” in Kyoto).
  • facility name attribute character strings are extracted as character string candidates that are facility names (hereinafter referred to as facility name attribute character strings).
  • these character strings are also extracted as facility name attribute character strings.
  • the user may obtain a name and department name when capturing a business card, a restaurant menu when capturing a signboard, a medical treatment subject in a hospital, a road name in a schematic map, and a description when capturing a guidebook. , And corresponds to a character different from the facility name.
  • the position specifying character extracting unit 61 extracts the postal code attribute character string, the telephone number attribute character string, the address attribute character string, and the facility name attribute character string from the digital character data as the position specifying character string. Note that the above-described method of extracting a character string is merely an example. If a character string whose position can be specified can be extracted, another method of determination cannot be used.
  • FIG. 12A shows a business card captured by the digital imaging unit 121
  • FIG. 12B shows the business card of FIG. 12A
  • 2 shows a position specifying character string extracted from the character string and its position attribute.
  • the position specifying character extracting unit 61 excludes a character string “http: //Panasonic.jpZ” that is apparently unrelated to the geographical position using “http: ZZ” as a keyword. I do.
  • the position specifying character extracting unit 61 extracts the postal code attribute character string “5710050” using “” as a keyword.
  • the position specifying character extracting unit 61 does not extract anything because the business card shown in FIG. 12 (a) does not have a character string corresponding to the telephone number attribute character string in the attempt to extract the telephone number attribute character string. .
  • the position specifying character extraction unit 61 extracts the address attribute character string “1002 Kadoma 100% Kadoma Kadoma” using “Kadoma ⁇ ” as a keyword. Lastly, the position specifying character extracting unit 61 extracts the facility name attribute character strings “Matsushita Electric Industrial Co., Ltd.”, rpanasonicj, and “Takahashi-Ken” as character strings other than the character strings already extracted. .
  • the position specifying character extracting unit 61 determines whether or not the extraction of any one of the position specifying character strings in step S32 is successful (step S33). If the position specifying character extraction unit 61 succeeds in extracting one of the position specifying character strings in step S33, the information transmitting and receiving unit 62 assigns a position attribute to the position specifying character data indicating the extracted position specifying character string. Then, the position specifying character data and the above-described current position information are transmitted from the information transmitting / receiving unit 62 to the position search server 7 (step S34), and the processing of the subroutine is terminated.
  • Step S33 the position specifying character extracting unit 61 notifies the information transmitting / receiving unit 62 that the extraction has failed, and the information indicating the extraction failure is transmitted from the information transmitting / receiving unit 62 to the mobile phone 1. (Step S35), and The processing by the subroutine ends.
  • FIG. 9 is a subroutine showing a detailed operation of the position search process in step S4 performed by the position search server 7.
  • the information transmitting / receiving unit 73 of the position search server 7 receives the position specifying character data and the current position information output from the position specifying character extraction server 6 (step S41). Then, information transmitting / receiving section 73 outputs the position specifying character data and the current position information to position searching section 71 and result narrowing section 72.
  • the position search unit 71 performs a position search corresponding to the position attribute assigned to each using the output position specifying character data (step S42).
  • the position search is to obtain a geographical position indicated by the position specifying character data as coordinate data.
  • the position search unit 71 receives a plurality of position specifying character data, Perform a location search.
  • the position search unit 71 also receives position specifying character data indicating a character string different from the facility name in the position search for the facility name, and when the position search using the position specifying character data fails, Judge that the character string is not the facility name! / ⁇ and continue processing.
  • step S43 the position search unit 71 determines whether or not there is any force with the position specifying character data for which the position search in step S42 has been successful. Then, in step S42, when the position search for the deviation has succeeded in step S42, the position search unit 71 outputs the coordinate data to the result narrowing unit 72, and proceeds to the next step S44. On the other hand, if all the position searches have failed in step S42, the position search unit 71 proceeds to the next step S54.
  • step S44 the result narrowing unit 72 determines whether or not the coordinate data succeeded in step S42 is plural. Then, when there is only one piece of coordinate data, the result narrowing unit 72 does not need to narrow down the result, and thus advances the processing to the next step S55. On the other hand, when there are a plurality of pieces of coordinate data, the result narrowing unit 72 advances the processing to the next step S45.
  • step S45 the result narrowing unit 72 determines whether or not the position search using the position specifying character data indicating the telephone number attribute character string is valid. If the position search using the position specifying character data indicating the telephone number attribute character string is valid, the result narrowing unit 72 narrows down the coordinate data to one coordinate data (step S46), and proceeds to the next step. Proceed to S55. On the other hand, the result narrowing unit 72 outputs the position specifying character data indicating the telephone number attribute character string. If the used position search is invalid, the process proceeds to the next step S47.
  • step S47 the result narrowing unit 72 determines whether the position search using the position specifying character data indicating the address attribute character string is valid or not. Then, when the position search using the position specifying character data indicating the address attribute character string is valid, the result narrowing unit 72 narrows down the coordinate data to one coordinate data (step S48), and proceeds to the next step S55. Proceed. On the other hand, when the position search using the position specifying character data indicating the address attribute character string is invalid, the result narrowing unit 72 advances the processing to the next step S49.
  • step S49 the result narrowing unit 72 determines whether the position search using the position specifying character data indicating the facility name attribute character string and the postal code attribute character string is both valid. Then, if the position search using the position specifying character data indicating the facility name attribute character string and the postal code attribute character string is both valid, the result narrowing unit 72 selects the facility indicated by the facility name attribute character string. Narrow down to the coordinate data of facilities existing in the area indicated by the postal code attribute character string (step S50), and proceed to the next step S51. This means that if there are a plurality of character strings extracted as the facility name attribute character strings, or if there are a plurality of facilities having the same name, the facility is narrowed down to facilities in the area indicated by the zip code. On the other hand, when at least one of the position search using the position specifying character data indicating the facility name attribute character string and the postal code attribute character string is invalid, the result narrowing unit 72 proceeds to the next step S51. .
  • the narrowing-down process in step S50 is also effective in a case where it is not possible to narrow down to one location only in the address attribute character string in step S48. For example, if the address attribute string does not have a prefecture name but only "Akasaka 1-chome" and the postal code attribute string is "107-005 2", it is "Akasaka 1-chome in Minato-ku, Tokyo". 810-0042 "can be narrowed down to" Fukuoka @ 1-Akasaka, Chuo-ku ".
  • step S51 the result narrowing unit 72 determines whether or not there is a plurality of pieces of coordinate data remaining after the narrowing process up to the present. When there are a plurality of remaining coordinate data, the result narrowing unit 72 also determines that the geographical position indicated by the current position information transmitted from the mobile phone 1 is within a certain distance (for example, within 5 km). The process is narrowed down to one (step S52), and the process proceeds to the next step S53. This is a multiple location search, facility name In the case where there is only a name attribute character string, for example, it is assumed that the user images a signboard or the like indicating only the facility name and that the facility is near the current position. On the other hand, when there are no remaining coordinate data, the result narrowing unit 72 proceeds to the next step S53.
  • step S53 the result narrowing unit 72 determines whether or not there is a coordinate data force remaining after the narrowing process up to now. If there is only one piece of coordinate data remaining, the result narrowing unit 72 advances the processing to the next step S55. On the other hand, when there is not one piece of coordinate data remaining, the result narrowing unit 72 advances the process to the next step S54.
  • step S54 the position search unit 71 performs the process of step S54. If there is not one piece of coordinate data left in step S53 (that is, if there is a plurality or zero pieces of coordinate data), result narrowing section 72 performs the process of step S54. In step S54, the position search unit 71 or the result narrowing unit 72 notifies the information transmitting / receiving unit 73 that the search has failed, and information indicating the search failure is transmitted from the information transmitting / receiving unit 73 to the mobile phone device 1, The process according to the subroutine ends.
  • step S55 the position search unit 71 outputs the coordinate data narrowed down to one to the information transmitting / receiving unit 73, and the information transmitting / receiving unit 73 outputs the coordinate data and the address or the position of the position corresponding to the coordinate data.
  • the name and the attached information such as the map of the surroundings are transmitted to the mobile phone device 1 via the computer network 4 as the position search result information, and the processing by the subroutine ends.
  • FIG. 10 is a subroutine showing a detailed operation of the position search result obtaining process in step S5 performed by the mobile phone device 1.
  • the connection unit 15 receives the position search result information to which the position search server 7 has also transmitted (step S56), and outputs the position search result information to the display unit 10.
  • the display unit 10 displays the position search result information on the display screen (Step S57).
  • the display unit 10 displays the address, telephone number, name, map of the surrounding area, and the like of the search point included in the position search result information, and confirms that the position was searched correctly.
  • the display unit 10 displays a processing failure in any of the processing of the image recognition conversion unit 51, the position specifying character extraction unit 61, the position search unit 71, and the result narrowing unit 72. If it occurs, it will be indicated.
  • the user visually recognizes the position search result information displayed on the display unit 10, and determines whether to transmit the position search result to the navigation device 2 (step S58). Then, when transmitting the position search result to the navigation device 2, the user operates the input unit 22 to transmit the position search result information to the transmission / reception unit 201 (step S59), and ends the processing by the subroutine. I do. If the position search result is not transmitted to the navigation device 2, the information is not transmitted.
  • FIG. 11 is a subroutine showing a detailed operation of the route guidance processing of step S6 performed by the navigation device 2.
  • the current position deriving unit 212 derives the current position of the moving object (Step S61).
  • position search result information is received from the transmission / reception unit 201 (step S62).
  • the route search unit 211 derives a recommended route from the current position derived in step S61 using the position search result information acquired in step S62 as a destination (step S63).
  • the current position deriving unit 212 derives the current position of the moving object in order to guide the user to the recommended route (step S64).
  • the current position determination unit 213 determines whether or not the moving body is moving along the recommended route derived in step S63 described above (step S65). Then, when the moving object is moving along the recommended route, the route guide unit 214 performs route guidance (step S66), and proceeds to the next step S67. On the other hand, when the moving object is not moving along the recommended route, the route guidance unit 214 does not perform route guidance, and proceeds to the next step S67.
  • step S67 the navigation device 2 determines whether or not to continue the route guidance process. Then, when continuing the route guidance process, the navigation device 2 returns to step S64 to continue the process, and when ending the route guidance process, terminates the process by the subroutine.
  • a character whose position can be specified is imaged by the imaging unit built in the mobile phone device, so that the user does not need to perform complicated operations. It is possible to specify the destination of the recommended route and the position of the display screen simply by capturing an image of an object whose desired position can be specified, such as a travel guidebook, business card, or signboard. The In addition, the location such as an address or facility name written in kanji that cannot be read by the user can be output to the navigation device.
  • processing such as image recognition conversion, position identification character extraction, and position search is performed by a server on a computer network
  • these processing may be performed by a mobile phone device or a navigation device having a lower processing capacity than a server.
  • processing can be performed with higher accuracy.
  • a navigation device with poor screen display or no display unit if an erroneous location is found, there is no way for the user to confirm the fact that the erroneous location was found. By using the display unit of the device, the search results can be easily confirmed. Further, by imaging a subject with a mobile phone device with a built-in digital camera, the navigation device can suppress an increase in price without having to provide a new device.
  • the position search data held by the device is, for example, fresh data that matches the present unless the data in the storage unit is updated by exchanging the latest map DVROM. It does not become. In other words, the search results on such a navigation device may deviate from the current situation.
  • the server can always update the latest data, the search result by the navigation system is very unlikely to deviate from the current situation.
  • the navigation device 2 does not have a display unit such as a display screen, but it does not matter if it has a display unit.
  • the imaging is performed by the mobile phone device 1 separate from the navigation device 2, but the invention is not limited to this, and the imaging device may be provided in the navigation device 2! You may have a function!
  • the image recognition conversion unit, the position identification character extraction unit, and the position search unit are provided on the computer network.
  • the present invention is not limited to this, and the image recognition conversion unit is provided in the navigation device.
  • a position specifying character extracting unit and a position searching unit may be provided.
  • the navigation device 2 preferably has a display unit such as a display screen.
  • the failure is not transmitted, and the failure of each process is displayed on the display unit of the navigation device 2 itself. Is displayed and the user is notified. Further, in step S57 of FIG. 10, the position search result is displayed on the display unit of the navigation device 2 itself.
  • step S58 the user operates the operation unit of the navigation device 2 to set the destination (step S58), and the position search result is obtained.
  • Sent to route guidance processing step S59).
  • the image recognition conversion server 5, the position identification character extraction server 6, and the position search server 7 have been described as being constituted by separate servers, these may be constituted by one server as described above. I can't help. In this case, it goes without saying that the operation of performing data communication between the servers becomes unnecessary.
  • the position searched for is used as the destination of the recommended route.
  • the present invention is not limited to this. Designation of a display position, designation of a registration point, and search for facilities existing around the designated position It may be used for such purposes.
  • the power network described using the image recognition / conversion server 5, the position identification character extraction server 6, the position search server 7, and the mobile phone device 1 connected to a network represented by the Internet is used. Does not work in other modes.
  • these servers and mobile telephone device 1 may be communicably connected to each other by an in-vehicle LAN built in the vehicle in which navigation device 2 is installed.
  • means for updating the information stored in the server to the latest information is required for each vehicle. For example, a user periodically reads a recording medium such as an optical disk in which the latest information is stored into each server and reads the information. To update.
  • the navigation system, the portable information terminal device, the server, and the navigation method according to the present invention include a vehicle-mounted and pedestrian navigation device that requires a user to specify a position without performing a complicated operation. It can also be applied to applications such as inputting location information to a location.

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)
  • Instructional Devices (AREA)

Abstract

 本発明のナビゲーションシステムによれば、位置が特定できる文字を携帯電話装置(1)に内蔵された撮像部(12)で撮像することによって、ユーザは煩雑な操作をすることなく、所望の位置が特定可能な被写体を撮像するだけで、推奨経路の目的地や表示画面の位置指定等を行うことができる。また、画面表示が貧弱あるいは表示部を有しないナビゲーション装置(2)においても、携帯電話装置(1)が有する表示部(10)を利用することによって、ユーザが容易に検索結果を確認することができる。

Description

明 細 書
ナビゲーシヨンシステム、携帯情報端末装置、サーバ、およびナビゲーシ ヨン方法
技術分野
[0001] 本発明は、ナビゲーシヨンシステム、携帯情報端末装置、サーバ、およびナビゲー シヨン方法に関し、より特定的には、ユーザが特定の位置を指定しその位置に基づ
V、た動作を制御することができるナビゲーシヨンシステム、そのシステムを構成する携 帯情報端末装置、サーバ、およびナビゲーシヨン方法に関する。
背景技術
[0002] 従来、ナビゲーシヨン装置は、車両等の移動体に搭載されるカーナビゲーシヨン装 置や、 PDA (小型情報端末)装置や携帯電話装置のアプリケーションとして用いられ る歩行者ナビゲーシヨン装置等が知られている。これらのナビゲーシヨン装置は、移 動体の出発点力 所望の目標点までの推奨経路を自動的に探索したり、所望の位 置の地図を画面に表示したりすることができる。ユーザは、所望の位置をナビゲーシ ヨン装置に指定するために、例えばその位置の住所や施設名称、電話番号等を、音 声入力やリモコン、タツチパネル、ナビゲーシヨン装置に配置されたボタン等で、文字 や数字を入力する。そして、ナビゲーシヨン装置は、入力された情報に基づいて、位 置を検索して地図を表示したり推奨経路を探索したりする。
[0003] しかしながら、上述した位置の指定方法では、住所や電話番号等の位置を特定す るための情報をユーザが記憶する、もしくは、それらの情報をメモ等に書き留めておく 必要がある。さらに、上記指定方法によって、特に住所や施設名称を指定する場合、 操作が煩雑となるため、ナビゲーシヨン装置の操作に慣れて ヽな 、ユーザにとって、 簡単に位置を指定できるものではない。例えば、特開 2001— 255160号公報および 特開 2003— 202234号公報に開示されているように、このような位置指定操作の煩 雑さを解消するためのナビゲーシヨン装置がある。特開 2001— 255160号公報で開 示されたナビゲーシヨン装置では、当該装置が有する表示画面に表示されたインタ 一ネットのホームページを解析し、そこに表示されて 、る住所等の位置が特定される 文字列を抽出し、推奨経路の目標点として設定する技術が開示されている。また、特 開 2003— 202234号公報で開示されたナビゲーシヨン装置では、当該装置にスキヤ ナを装備し、任意の媒体に記載してある住所等の位置が特定される文字列を取り込 み、特定可能な位置候補を画面に表示してユーザに選択させる技術が開示されて いる。
発明の開示
発明が解決しょうとする課題
[0004] しかしながら、特開 2001— 255160号公報で開示されたナビゲーシヨン装置は、ィ ンターネットのホームページを閲覧中に見つけた所望の位置だけしか指定することが できない。つまり、ユーザが一般的に使用する場合、あるいはインターネットのホーム ページ閲覧機能がな 、ナビゲーシヨン装置の場合、ユーザが位置を指定する煩雑さ は拭えない。
[0005] また、特開 2003— 202234号公報で開示されたナビゲーシヨン装置は、スキャナと いう新たな装置を具備する必要があり、装置自体の価格上昇の原因となってしまう。 さらに、位置を特定する候補が複数ある場合、画面に表示して選択させるため、例え ば、交差点案内を矢印だけで行う矢印ナビゲーシヨン装置や音声だけで行う音声ナ ピゲーシヨン装置のように、画面表示能力が貧弱または表示画面を備えていない場 合に対応できない。
[0006] それ故に、本発明の目的は、推奨経路の目標点等、ユーザの所望の位置を簡単 に確実に指定することができるナビゲーシヨンシステム、携帯情報端末装置、サーバ 、およびナビゲーシヨン方法を提供することである。
課題を解決するための手段
[0007] 上記の目的を達成するために、本発明は以下の構成を採用した。なお、括弧内の 参照符号やステップ番号等は、本発明の理解を助けるために後述する実施形態との 対応関係を示したものであって、本発明の範囲を何ら限定するものではな 、。
[0008] 本発明のナビゲーシヨンシステムは、所定のネットワーク(4)に接続されたサーバ(5 一 7)と、ネットワークを介してサーバとデータ通信可能な携帯情報端末装置(1)と、 携帯情報端末装置との間でデータ通信可能なナビゲーシヨン装置 (2)とを含む。携 帯情報端末装置は、サーバおよびナビゲーシヨン装置とデータ通信を行うデータ送 受信部(15、 16)と、任意の被写体を撮像して画像データを生成する撮像部(12)と を備える。サーバは、携帯情報端末装置とデータ通信を行うデータ送受信部(52、 6 2、 73)と、携帯情報端末装置から送信された画像データに含まれる文字列を認識し 、それら文字列を文字データに変換する画像認識変換部(51)と、画像認識変換部 で変換された文字データ力 地理的な位置が特定可能な文字列を抽出する位置特 定文字抽出部 (61)と、位置特定文字抽出部で抽出された文字列を用いてそれら文 字列が示す地理的な位置を検索する位置検索部(71)とを備える。ナビゲーシヨン装 置は、携帯情報端末装置とデータ通信を行うデータ送受信部 (20)を備える。位置検 索部で検索された地理的な位置情報 (位置検索結果)は、携帯情報端末装置を介し てナビゲーシヨン装置に出力される。
[0009] 具体的には、携帯情報端末装置は、撮像部およびデータ送受信部を備えた携帯 電話装置である。
[0010] 携帯情報端末装置は、さらにその携帯情報端末装置のデータ送受信部が受信し た情報を表示する表示部(10)と、ユーザの操作に応答してその指示を入力する入 力部とを備えてもカゝまわない。この場合、携帯情報端末装置は、位置検索部で検索 された地理的な位置情報を受信したとき (S56)、その位置情報を表示部に表示し (S 57)、入力部から入力されるユーザの指示に応じて (S58)その位置情報をナビゲー シヨン装置に出力する(S59)。
[0011] 例えば、位置特定文字抽出部は、地理的な位置が特定可能な文字列を住所、電 話番号、郵便番号、および施設名称のいずれかにそれぞれ分類して文字データカゝら 抽出する (S32)。この場合、位置検索部は、位置特定文字抽出部で分類されて抽 出された文字列を用いて、それら文字列が示す単一の位置に絞り込んで検索する( 72 ; S44— S53)。位置検索部は、単一の位置を座標データとして絞り込み、単一の 位置に応じた位置の名称、住所、電話番号、および周辺の地図画像からなる群から 選ばれる少なくとも 1つの情報と座標データとを位置情報として出力しても力まわない 。また、携帯情報端末装置は、ネットワークと接続する地理的位置を判断する接続地 点判断部(14)を、さらに備えてもカゝまわない。この場合、位置検索部は、接続地点 判断部が判断した地理的位置におよび位置特定文字抽出部で分類されて抽出され た文字列を用いて、それら文字列が示す単一の位置に絞り込んで検索する(S52)。
[0012] 具体的には、ナビゲーシヨン装置および携帯情報端末装置は、同じ移動体に搭載 される。この場合、ナビゲーシヨン装置は、さらに移動体の現在位置を導出する現在 位置導出部(212)と、携帯情報端末装置から出力された位置情報を目的地とした移 動体の出発地力 の推奨経路を導出する経路探索部(211)と、現在位置導出部が 導出した現在位置と経路探索部が導出した推奨経路との関係を解析し、目的地まで の経路を案内する経路案内部(214)とを備える。
[0013] 携帯情報端末装置のデータ送受信部とナビゲーシヨン装置のデータ送受信部との 間のデータ通信は、以下に述べる種々の例が考えられる。第 1の例は、携帯情報端 末装置のデータ送受信部とナビゲーシヨン装置のデータ送受信部との間のデータ通 信は、無線接続による通信によって行われる。第 2の例は、携帯情報端末装置のデ ータ送受信部とナビゲーシヨン装置のデータ送受信部との間のデータ通信は、有線 接続による通信によって行われる。第 3の例は、携帯情報端末装置のデータ送受信 部とナビゲーシヨン装置のデータ送受信部との間のデータ通信は、不揮発性メモリー を内蔵したメモリーカード装置を介して行われる。
[0014] 例えば、上記ネットワークは、インターネット網である。
[0015] 本発明の携帯情報端末装置は、所定のネットワークを介してサーバとデータ通信可 能である。携帯情報端末装置は、サーバとデータ通信を行うデータ送受信部と、任意 の被写体を撮像して画像データを生成する撮像部と、データ送受信部が受信した情 報を表示する表示部とを備える。データ送受信部は、撮像部で生成された画像デー タをサーバへ送信した後、そのサーノからその画像データに含まれる文字列が示す 地理的な位置情報を受信し、表示部は、データ送受信部が受信した位置情報を表 示する。
[0016] 例えば、携帯情報端末装置は、データ送受信部、撮像部、および表示部を備えた 携帯電話装置である。
[0017] 携帯情報端末装置は、ユーザの操作に応答してその指示を入力する入力部を、さ らに備えても力まわない。また、データ送受信部は、さらにナビゲーシヨン装置との間 でデータ通信可能であってもよい。この場合、データ送受信部が位置情報を受信し たとき、その位置情報を表示部に表示し、入力部から入力されるユーザの指示に応 じてその位置情報をナビゲーシヨン装置に出力する。
[0018] データ送受信部がサーバから受信する位置情報は、そのサーバへ送信した画像デ ータから地理的な位置が特定可能な文字列が住所、電話番号、郵便番号、および 施設名称のいずれかにそれぞれ分類して抽出され、それら文字列が示す単一の位 置に絞り込んで検索された座標データを少なくとも含んでもカゝまわない。また、データ 送受信部がサーバから受信する位置情報は、さらに、単一の位置に応じた位置の名 称、住所、電話番号、および周辺の地図画像力 なる群力 選ばれる少なくとも 1つ の情報を含んでも力まわない。また、携帯情報端末装置は、ネットワークと接続する 地理的位置を判断する接続地点判断部を、さらに備えてもよい。この場合、データ送 受信部がサーバから受信する位置情報に含まれる座標データは、接続地点判断部 が判断した地理的位置および分類されて抽出された文字列を用いて、それら文字列 が示す単一の位置に絞り込んで検索される。
[0019] 本発明のナビゲーシヨン方法は、任意の被写体を撮像して画像データを生成する 撮像ステップ (S1)と、画像データに含まれる文字列を認識し、それら文字列を文字 データに変換する画像認識変換ステップ (S2)と、画像認識変換ステップで変換され た文字データ力 地理的な位置が特定可能な文字列を抽出する位置特定文字抽出 ステップ (S3)と、位置特定文字抽出ステップで抽出された文字列を用いてそれら文 字列が示す地理的な位置を検索して位置情報を得る位置検索ステップ (S4)とを含 む。
[0020] さらに、現在位置を導出する現在位置導出ステップ (S61)と、位置検索ステップが 得た位置情報を目的地とした推奨経路を導出する経路探索ステップ (S63)と、現在 位置と推奨経路との関係を解析し、目的地までの経路を案内する経路案内ステップ( S64— S66)とを含んでも力まわない。また、位置検索ステップが得た位置情報を表 示する表示ステップ (S57)と、ユーザの操作に応答してその指示を入力する入カス テツプ(S58)とを、さらに含んでもよい。この場合、表示ステップが位置情報を表示し 、入力ステップによってユーザの所定の操作に応答した指示が入力した際、その位 置情報を経路探索ステップで用いる目的地に採用する(S59)。
[0021] 位置特定文字抽出ステップは、地理的な位置が特定可能な文字列を住所、電話 番号、郵便番号、および施設名称のいずれかにそれぞれ分類して文字データ力ゝら抽 出してもカゝまわない(S32)。この場合、位置検索ステップは、位置特定文字抽出ステ ップで分類されて抽出された文字列を用いて、それら文字列が示す単一の位置に絞 り込んで検索する(S44— S53)。また、位置検索ステップは、単一の位置を座標デ ータとして絞り込み、単一の位置に応じた位置の名称、住所、電話番号、および周辺 の地図画像力 なる群力 選ばれる少なくとも 1つの情報と座標データとを位置情報 として得てもカゝまわない。また、位置検索ステップは、現在位置および位置特定文字 抽出ステップで分類されて抽出された文字列を用いて、それら文字列が示す単一の 位置に絞り込んで検索しても力まわな ヽ(S52)。
[0022] 本発明のサーバは、所定のネットワークを介して携帯情報端末装置とデータ通信可 能である。サーバは、データ送受信部、画像認識変換部、位置特定文字抽出部、お よび位置検索部を備える。データ送受信部は、携帯情報端末装置とデータ通信を行 う。画像認識変換部は、携帯情報端末装置から送信された画像データに含まれる文 字列を認識し、その文字列を文字データに変換する。位置特定文字抽出部は、画像 認識変換部で変換された文字データから地理的な位置が特定可能な文字列を抽出 する。位置検索部は、位置特定文字抽出部で抽出された文字列を用いてその文字 列が示す地理的な位置を検索する。データ送受信部は、携帯情報端末装置から送 信された画像データを受信し、位置検索部で検索されたその画像データに応じた地 理的な位置情報をその携帯情報端末装置に送信する。
[0023] 例えば、位置特定文字抽出部は、地理的な位置が特定可能な文字列を住所、電 話番号、郵便番号、および施設名称のいずれかにそれぞれ分類して文字データカゝら 抽出する。この場合、位置検索部は、位置特定文字抽出部で分類されて抽出された 文字列を用いて、それら文字列が示す単一の位置に絞り込んで検索する。位置検索 部は、単一の位置を座標データとして絞り込み、単一の位置に応じた位置の名称、 住所、電話番号、および周辺の地図画像力 なる群力 選ばれる少なくとも 1つの情 報と座標データとを位置情報として出力しても力まわない。 発明の効果
[0024] 本発明のナビゲーシヨンシステムによれば、位置が特定できる文字を携帯情報端末 装置に内蔵された撮像部で撮像することによって、ユーザは煩雑な操作をすることな ぐ雑誌や旅行ガイドブック、名刺、看板等、所望の位置が特定可能な被写体を撮像 するだけで、その被写体が示す位置情報をナビゲーシヨン装置へ出力することがで きる。また、ユーザが読めない漢字で記載された住所や施設名称等の位置もナビゲ ーシヨン装置へ出力することができる。さらに、ネットワーク網上のサーバで画像認識 変換、位置特定文字抽出、および位置検索等の処理を行うため、サーバに比べて処 理能力が低い携帯情報端末装置やナビゲーシヨン装置でこれらの処理を行うよりも、 より高精度で処理を行うことができる。ここで、一般的なナビゲーシヨン装置で位置検 索する場合、同装置が保持する位置検索データは、例えば最新の地図 DVDROM に交換して記憶部のデータを更新しない限り現在に合致した新鮮なデータにはなら ない。つまり、このようなナビゲーシヨン装置での検索結果は、現在の状況からずれて いる可能性がある。これに対して、本発明では、サーバにおいて常に最新のデータ に更新することができるため、ナビゲーシヨンシステムによる検索結果は、現在の状況 からずれて!/、る可能性が極めて少な!/、。
[0025] また、携帯情報端末装置をカメラ内蔵の携帯電話装置で構成する場合、新 U、装 置を具備する必要がなぐ価格の上昇を抑えることができる。また、ユーザが所持する 携帯電話装置が利用可能となるため、ナビゲーシヨン装置周辺に新たな装置を付属 させる必要がない。
[0026] また、画面表示が貧弱あるいは表示部を有しないナビゲーシヨン装置においては、 誤った場所が検索されてしまった場合、ユーザにとって誤った場所が検索されたとい う事実を確認する手段がないが、携帯情報端末装置に表示部が設けられている場合 、その表示部を利用することによって、ユーザは容易に検索結果を確認することがで きる。
[0027] また、地理的な位置が特定可能な文字列を住所、電話番号、郵便番号、および施 設名称のいずれかにそれぞれ分類して文字データから抽出する場合、例えば、全国 に同名の地名や同名の施設名があっても、郵便番号や住所に基づ!ヽてユーザの新 たな選択操作を必要とせず絞り込むことが出来る。また、分類に応じて処理を行うこと によって、適切な位置検索を行うことができる。また、一部の文字列が不鮮明のため 認識できなくても、他の文字列で絞り込むことが出来るので、より正確で確実な位置 検索を行うことが出来る。
[0028] また、接続地点判断部を備えて ヽる場合、接続地点の位置が携帯電話中継アンテ ナの位置と電波強度を元に三角測量を行うことで、おおよその位置が計算できる。こ れにより、全国に同名の地名や同名の施設名があっても、ユーザの新たな選択操作 を必要とせず絞り込むことが出来る。例えば、全国に同名の地名や同名の施設名が あっても、所定範囲外の遠方に位置するものを排除することができる。
[0029] また、ネットワークをインターネット網で構成することによって、新たなネットワークを 構築する必要がなぐナビゲーシヨンシステムの価格の上昇を抑えることができる。
[0030] 本発明の携帯情報端末装置およびサーバによれば、上述したナビゲーシヨンシス テムに含まれることによって上述したナビゲーシヨンシステムの効果を同様に得ること ができる。また、本発明のナビゲーシヨン方法によれば、上述したナビゲーシヨンシス テムの効果を同様に得ることができる。
図面の簡単な説明
[0031] [図 1]図 1は、本発明の一実施形態に係るナビゲーシヨンシステムに含まれる携帯電 話装置 1およびナビゲーシヨン装置 2のハードウェア構成を示すブロック図である。
[図 2]図 2は、本発明の一実施形態に係るナビゲーシヨンシステムで用いるネットヮー ク網の構成を示すブロック図である。
[図 3]図 3は、図 1の携帯電話装置 1およびナビゲーシヨン装置 2の主要な機能構成を 示すブロック図である。
[図 4]図 4は、図 2の画像認識変換サーバ 5、位置特定文字抽出サーバ 6、および位 置検索サーバ 7の主要な機能構成を示すブロック図である。
[図 5]図 5は、本発明の一実施形態に係るナビゲーシヨンシステムにおける全体動作 を示すフローチャートである。
[図 6]図 6は、図 5のステップ S1における情報取得処理の詳細な動作を示すサブルー チンである。 [図 7]図 7は、図 5のステップ S2における画像認識変換処理の詳細な動作を示すサブ ルーチンである。
[図 8]図 8は、図 5のステップ S3における位置特定文字抽出処理の詳細な動作を示 すサブルーチンである。
[図 9]図 9は、図 5のステップ S4における位置検索処理の詳細な動作を示すサブルー チンである。
[図 10]図 10は、図 5のステップ S5における位置検索結果取得処理の詳細な動作を 示すサブルーチンである。
[図 11]図 11は、図 5のステップ S6における経路案内処理の詳細な動作を示すサブ ルーチンである。
[図 12]図 12は、図 8のステップ S32で行う位置特定文字列を抽出する具体例を説明 するための図である。
符号の説明
1…携帯電話装置
10· ··表示部
11、 241…アンテナ
12…撮像部
121…デジタル撮像部
13…画像転送部
14…接続地点判断部
15· ··接続部
16· ··情報送信部
2…ナビゲーシヨン装置
20…データ通信部
201…送受信部
21 - --CPU
211…経路探索部
212…現在位置導出部 213…現在位置判断部
214…経路案内部
22…入力部
23- --I/F
24 "'GPS受信部
25· ··自立航法ユニット
26…記憶部
261…駆動部
262…記録媒体
27· -ROM
271…コンピュータプログラム
28 - --RAM
29· ··音声出力制御部
291· "スピーカ
30· ··バスライン
4…コンピュータネットワーク
5…画像認識変換サーバ
51…画像認識変換部
52、 62、 73· ··情報送受信部
6…位置特定文字抽出サーバ
61…位置特定文字抽出部
7…位置検索サーバ
71…位置検索部
72· ··結果絞込部
発明を実施するための最良の形態
図面を参照して、本発明の一実施形態に係るナビゲーシヨンシステムについて説 明する。当該ナビゲーシヨンシステムは、携帯情報端末装置、ナビゲーシヨン装置、 およびサーバを含んでいる。以下、携帯情報端末装置の一例として携帯電話装置を 用いて説明を行うが、 PDA (Personal Digital Assistants)等でも実現可能であ る。まず、図 1を参照して、当該ナビゲーシヨンシステムに含まれる携帯電話装置 1お よびナビゲーシヨン装置 2のハードウェア構成について説明する。なお、図 1は、当該 ナビゲーシヨンシステムに含まれる携帯電話装置 1およびナビゲーシヨン装置 2のハ 一ドウエア構成を示すブロック図である。
[0034] 図 1において、当該ナビゲーシヨンシステムに含まれる携帯電話装置 1およびナビ ゲーシヨン装置 2は、車両等の移動体に設置される。そして、携帯電話装置 1および ナビゲーシヨン装置 2は、互いに無線または有線によるデータ通信が可能である。携 帯電話装置 1は、表示部 10、アンテナ 11、および撮像部 12を備える。ナビゲーショ ン装置 2は、データ通信部 20、 CPU21、入力部 22、インターフェース(iZF) 23、ァ ンテナ 241を含んだ GPS (Global Positioning System)受信部 24、自立航法ュ ニット 25、記憶部 26、 ROM27、 RAM28、スピーカ 291が接続された音声出力制御 部 29、およびバスライン 30を備える。
[0035] CPU21は、ナビゲーシヨン装置 2を構成する各部の動作を制御する。入力部 22は 、例えばリモートコントローラのように、ユーザの操作に応答してナビゲーシヨン装置 2 に対してデータ入力するために用いられる。
[0036] IZF23には、 GPS受信部 24および自立航法ユニット 25が接続される。 GPS受信 部 24は、アンテナ 241を介して GPSに代表される測位システムに収容される人工衛 星からの電波を受信して、移動体の現在位置を示す位置情報を IZF23に出力する 。また、自立航法ユニット 25は、典型的には移動体に設けられる加速度センサおよび 角速度センサを含んでおり、それらにより検出された移動体の加速度および角速度 を表す加速度情報及び角速度情報を IZF23に出力する。 IZF23は、入力された 位置情報、加速度情報、および角速度情報を CPU21に転送する。
[0037] 記憶部 26は、典型的には DVD— ROMに代表される記録媒体 262とその駆動部 2 61とを含む。記録媒体 262には、ナビゲーシヨンに必要な地図データが記録される。 駆動部 261は、記録媒体 262から、必要な地図データを読み出して、 RAM28に転 送する。なお、記録媒体 262のその他の媒体としては、 CD-ROM,ハードディスクド ライブ、メモリーカードや ROM等が挙げられる。 [0038] ROM27は、少なくともナビゲーシヨン装置 2の動作を規定するコンピュータプロダラ ム 271を格納する。 RAM28は、ナビゲーシヨン装置 2の各部から転送されてくる情報 を格納し、さらに必要に応じて情報を消去する。音声出力制御部 29は、スピーカ 29 1への音声出力を制御する。
[0039] データ通信部 20は、典型的には赤外線通信に代表される送受信部 201を含み、 携帯電話装置 1とのデータの送受信を行う。データ通信部 20は、 CPU21が生成し た情報を、携帯電話装置 1を介して外部のネットワーク(図 2参照)に送出したり、ネッ トワーク力も携帯電話装置 1を介して送られてきた情報を RAM28に転送したりする。 なお、送受信部 201のその他の通信手段としては、電波による通信や、モデムを利 用した有線接続による通信、メモリーカードを介したデータ転送等が挙げられる。バス ライン 30は、ナビゲーシヨン装置 2の各部を通信可能に接続する。
[0040] 携帯電話装置 1は、例えばデジタルカメラ等の撮像部 12が内蔵されており、表示部 10およびアンテナ 11を含む。表示部 10は、 CPU (図示せず)の指示に応じてユー ザに情報を視認させるための表示画面を携帯電話装置 1の筐体表面に有しており、 当該表示画面は液晶ディスプレイ等で構成される。撮像部 12は、ユーザによって任 意の被写体を撮像する。アンテナ 11は、外部のネットワーク(図 2参照)と携帯電話装 置 1とを接続し、当該ネットワークと情報の送受信を行う。
[0041] 次に、図 2を参照してナビゲーシヨンシステムで用いるネットワーク網の構成につい て説明する。なお、図 2は、ナビゲーシヨンシステムで用いるネットワーク網の構成を 示すブロック図である。
[0042] 図 2において、ネットワーク網は、コンピュータネットワーク 4、画像認識変換サーバ 5 、位置特定文字抽出サーバ 6、位置検索サーバ 7、および携帯電話装置 1を備える。 コンピュータネットワーク 4は、典型的にはインターネットに代表されるネットワークであ る。なお、携帯電話網とコンピュータネットワーク 4とは別に構成されるが、説明を簡単 にするために携帯電話網がコンピュータネットワーク 4に含まれるものとして携帯電話 網の図示を省略して説明を行う。コンピュータネットワーク 4を介して、画像認識変換 サーバ 5、位置特定文字抽出サーバ 6、位置検索サーバ 7、および携帯電話装置 1 が互 、にデータ通信可能に接続されて!、る。 [0043] 画像認識変換サーバ 5は、携帯電話装置 1からコンピュータネットワーク 4を介して 送信されたデジタル画像データを受信する。そして、画像認識変換サーバ 5は、受信 したデジタル画像データが示す画像内から文字を認識し、単一または複数の文字列 で構成されたデジタル文字データに変換して位置特定文字抽出サーバ 6に送信する
[0044] 位置特定文字抽出サーバ 6は、画像認識変換サーバ 5からコンピュータネットヮー ク 4を介して送信されたデジタル文字データから、位置が特定可能な文字列 (位置特 定可能文字列)を 1つまたは複数抽出する。そして、位置特定文字抽出サーバ 6は、 抽出した位置特定可能文字列を位置属性 (住所、電話番号等)で分類して当該位置 属性と共に位置検索サーバ 7に送信する。
[0045] 位置検索サーバ 7は、位置特定文字抽出サーバ 6からコンピュータネットワーク 4を 介して送信された 1つまたは複数の位置特定可能文字列から位置検索を行う。そし て、位置検索サーバ 7は、コンピュータネットワーク 4を介して位置検索結果を携帯電 話装置 1に送信する。
[0046] なお、画像認識変換サーバ 5、位置特定文字抽出サーバ 6、および位置検索サー ノ 7は、それぞれ別のサーバで構成される説明をした力 これらは 1つのサーバで構 成されてもカゝまわない。画像認識変換サーバ 5、位置特定文字抽出サーバ 6、および 位置検索サーバ 7がそれぞれの機能を有する 1つのサーバで構成される場合、当該 サーバと携帯電話装置 1とがコンピュータネットワーク 4を介してデータ通信可能に接 続される。
[0047] 次に、図 3を参照して、携帯電話装置 1およびナビゲーシヨン装置 2の主要な機能 構成について説明する。なお、図 3は、携帯電話装置 1およびナビゲーシヨン装置 2 の主要な機能構成を示すブロック図である。
[0048] 図 3において、携帯電話装置 1およびナビゲーシヨン装置 2における主要機能は、 それぞれ携帯電話装置 1の CPU (図示せず)および CPU21がコンピュータプロダラ ム 271を実行することにより実現される。なお、携帯電話装置 1の CPUが実行するコ ンピュータプログラム 271は、ナビゲーシヨン装置 2からデータ通信部 20を介して転 送されてもいいし、予め携帯電話装置 1の記憶部(図示せず)に格納されていてもか まわない。また、携帯電話装置 1の CPUおよび CPU21が実行するコンピュータプロ グラムは、それぞれ独立した別のプログラムでも力まわな 、。
[0049] ナビゲーシヨン装置 2の CPU21は、経路探索部 211、現在位置導出部 212、現在 位置判断部 213、および経路案内部 214を備える。また、携帯電話装置 1は、デジタ ル撮像部 121、画像転送部 13、接続地点判断部 14、接続部 15、および情報送信 部 16を備える。
[0050] デジタル撮像部 121は、位置が特定可能な文字を含む任意の被写体がユーザに よって撮像され、当該撮像データをデジタル画像データとして記憶する。具体的には ユーザは、デジタル撮像部 121 (撮像部 12)を用いて、ナビゲーシヨン装置 2に対し て位置指定した 、情報が文字として表現されて ヽる被写体を撮像する。上記被写体 の例としては、位置を示す情報が住所、電話番号、施設名称、および郵便番号等の 文字で表現されている名刺、雑誌、旅行ガイドブック、看板等がある。
[0051] 画像転送部 13は、デジタル撮像部 121で撮像されたデジタル画像データを接続部 15に転送して出力し、コンピュータネットワーク 4を介して画像認識変換サーバ 5への 送信を接続部 15に要求する。接続地点判断部 14は、接続部 15が接続している携 帯電話網(図示せず)の携帯電話中継アンテナ情報を利用して、携帯電話装置 1の 現在位置を判断する。具体的には、接続地点判断部 14は、携帯電話中継アンテナ 力 送られてくる位置情報と、接続している複数の携帯電話中継アンテナの電波強 度に基づいた三角測量結果とを用いて、携帯電話装置 1の大略的な位置を判断す ることがでさる。
[0052] 接続部 15は、コンピュータネットワーク 4を介して画像認識変換サーバ 5、位置特定 文字抽出サーバ 6、および位置検索サーバ 7との間でデータ通信を行う。接続部 15 は、画像転送部 13からの送信要求に基づいて、接続地点判断部 14が判断した現在 位置情報とデジタル撮像部 121で撮像したデジタル画像データとを、コンピュータネ ットワーク 4を介して画像認識変換サーノ 5へ送信する。また、接続部 15は、コンビュ ータネットワーク 4を介して画像認識変換サーバ 5、位置特定文字抽出サーバ 6、およ び位置検索サーバ 7のいずれかから送信される情報を受信する。
[0053] 画像認識変換サーバ 5、位置特定文字抽出サーバ 6、および位置検索サーバ 7の いずれかから送信され接続部 15が受信した情報は、表示部 10に表示される。また、 情報送信部 16は、接続部 15に送られてきた上記情報をユーザの指示に応じてナビ ゲーシヨン装置 2の送受信部 201に送信する。
[0054] 送受信部 201は、情報送信部 16から送られてきた情報を受信する。現在位置導出 部 212は、移動体の現在位置を定期的に導出する。具体的には、現在位置導出部 2 12は、 GPSの人工衛星力 電波を受信可能な場合には、 GPS受信部 24から IZF2 3を介して移動体の現在位置を含む位置情報を取得する。また、人工衛星からの電 波を受信できない場合には、現在位置導出部 212は、自立航法ユニット 25からの加 速度情報および角速度情報を IZF23を介して受け取り、それらの情報を用いて移 動体の現在位置を導出する。
[0055] 経路探索部 211は、送受信部 201が受信した情報が示す位置を目的地、および現 在位置導出部 212により導出された現在位置を出発点とし、出発点から目的地まで の推奨経路を RAM28に読み出された地図データを使って導出する。そして、経路 探索部 211は、導出した推奨経路を RAM28に格納する。なお、経路探索部 211は 、ユーザが入力部 22を操作することにより設定された位置を出発点として用いてもか まわない。
[0056] 現在位置判断部 213は、現在位置導出部 212で導出された現在位置と、 RAM28 に格納された推奨経路との位置関係を判断する。例えば、現在位置判断部 213は、 移動体が上記推奨経路に沿って移動している力否かを判断する。
[0057] 経路案内部 214は、現在位置判断部 213の判断に基づいて、ユーザに対して上 記推奨経路の案内を行う。具体的には、現在位置判断部 213が上記推奨経路に沿 つて移動体が移動していると判断し、現在位置から目的地に向力 推奨経路が現在 位置から一定距離内の交差点で曲折する場合、経路案内部 214は、音声出力制御 部 29に対して当該交差点をいずれかの方向に曲折する旨の音声案内出力をスピー 力 291から出力する指示を行う。
[0058] 次に、図 4を参照して、画像認識変換サーバ 5、位置特定文字抽出サーバ 6、およ び位置検索サーバ 7の主要な機能構成について説明する。なお、図 4は、画像認識 変換サーバ 5、位置特定文字抽出サーバ 6、および位置検索サーバ 7の主要な機能 構成を示すブロック図である。
[0059] 図 4において、画像認識変換サーバ 5は、画像認識変換部 51および情報送受信 部 52を備えている。位置特定文字抽出サーバ 6は、位置特定文字抽出部 61および 情報送受信部 62を備えている。位置検索サーバ 7は、位置検索部 71、結果絞込部 72、および情報送受信部 73を備えている。携帯電話装置 1の接続部 15、画像認識 変換サーバ 5の情報送受信部 52、位置特定文字抽出サーバ 6の情報送受信部 62、 および位置検索サーバ 7の情報送受信部 73は、それぞれコンピュータネットワーク 4 を介して接続される。
[0060] 画像認識変換サーバ 5の情報送受信部 52は、コンピュータネットワーク 4を介して 携帯電話装置 1から送信されたデジタル画像データおよび現在位置情報を受信する 。そして、情報送受信部 52は、上記デジタル画像データを画像認識変換部 51に出 力する。画像認識変換部 51は、携帯電話装置 1から送られてきたデジタル画像デー タ内に存在する文字を認識し、単一または複数の文字列で構成されたデジタル文字 データに変換して、当該デジタル文字データを情報送受信部 52に出力する。そして 、情報送受信部 52は、コンピュータネットワーク 4を介して上記デジタル文字データ および上記現在位置情報を位置特定文字抽出サーバ 6へ送信する。
[0061] 位置特定文字抽出サーバ 6の情報送受信部 62は、画像認識変換サーバ 5の情報 送受信部 52から送信されたデジタル文字データおよび現在位置情報を受信する。 そして、情報送受信部 62は、上記デジタル文字データを位置特定文字抽出部 61に 出力する。位置特定文字抽出部 61は、出力されたデジタル文字データ中から、位置 が特定可能な文字列を抽出する。具体的には、位置特定文字抽出部 61は、住所を 表す文字列、郵便番号を表す文字列、電話番号を表す文字列、および施設名称を 表す文字列をそれぞれ抽出する。これら抽出された文字列には、それぞ; 立置属性 が付与される。位置属性とは、抽出された文字列を区別するものであり、付与された 位置属性を参照することによって、住所、郵便番号、電話番号、および施設名称のい ずれを示す文字列かを区別することができる。位置特定文字抽出部 61は、それぞれ 位置属性が付与された文字列データを情報送受信部 62に出力する。そして、情報 送受信部 62は、コンピュータネットワーク 4を介して上記文字列データおよび上記現 在位置情報を位置検索サーバ 7へ送信する。
[0062] 位置検索サーバ 7の情報送受信部 73は、コンピュータネットワーク 4を介して位置 特定文字抽出サ一ノ^の情報送受信部 62から送信された文字列データおよび現在 位置情報を受信する。そして、情報送受信部 73は、上記文字列データおよび現在 位置情報を位置検索部 71および結果絞込部 72に出力する。位置検索部 71は、出 力された文字列データを用いて、それぞれに付与された位置属性に相応した位置検 索を行う。具体的には、位置検索部 71は、付与された位置属性が住所であれば住 所検索を、郵便番号であれば郵便番号検索を、電話番号であれば電話番号検索を 、施設名称であれば施設名称検索を、それぞれ文字列データに対して行い、その検 索結果を座標データとして出力する。そして、位置検索部 71は、それぞれの座標デ ータを解析し、同一の位置検索結果 (つまり、同じ座標データ)になるものは、その 1 つを採用する。また、結果絞込部 72は、位置検索部 71の検索結果が複数の位置を 示す場合、それらの位置力 ピンポイントで表すことが可能な 、ずれか 1つの座標デ ータに絞り込む。そして、情報送受信部 62は、上記座標データと当該座標データに 対応する位置の住所や名称、周辺の地図等の付属情報とを位置検索結果情報とし て、コンピュータネットワーク 4を介して携帯電話装置 1へ送信する。
[0063] 次に、図 5—図 11を参照して、図 1一図 4に示したナビゲーシヨンシステムの動作に ついて説明する。なお、図 5は当該ナビゲーシヨンシステムにおける全体動作を示す フローチャートであり、図 6—図 11はそれぞれ図 5に示した各ステップの詳細な動作 を示すサブルーチンである。
[0064] 図 5で示すフローチャートは、ナビゲーシヨンシステムの全体動作の一例として、ュ 一ザが携帯電話装置 1を用いて推奨経路における目的地を指定してナビゲーシヨン 装置 2に当該目的地を指示し、ナビゲーシヨン装置 2が現在位置から当該目的地ま での経路案内を行うまでの処理を示している。まず、ユーザが携帯電話装置 1を操作 して目的地を示す文字を含む画像データおよび現在位置情報を取得して、当該携 帯電話装置 1がそれらの情報をコンピュータネットワーク 4に出力する情報取得処理 を行う (ステップ Sl)。そして、画像認識変換サーバ 5による画像認識変換処理 (ステ ップ S2)、位置特定文字抽出サーバ 6による位置特定文字抽出処理 (ステップ S3)、 および位置検索サーバ 7による位置検索処理 (ステップ S4)が行われ、携帯電話装 置 1へ位置検索結果情報が送信される。次に、携帯電話装置 1は、受信した位置検 索結果情報を取得して (ステップ S5)、当該位置検索結果情報をナビゲーシヨン装置 2に出力する。そして、ナビゲーシヨン装置 2は、受信した位置検索結果情報に基づ いて、経路案内処理 (ステップ S6)を行う。以下、各ステップにおける詳細な動作を説 明する。
[0065] 図 6は、携帯電話装置 1が行う上記ステップ S1の情報取得処理の詳細な動作を示 すサブルーチンである。図 6において、ユーザが携帯電話装置 1を操作することに応 じて、デジタル撮像部 121が被写体を撮像する (ステップ Sl l)。具体的にはユーザ は、デジタル撮像部 121 (撮像部 12)を用いて、ナビゲーシヨン装置 2に対して指示し た 、位置(目的地)が特定可能な文字を含むものを被写体として撮像する。そして、 デジタル撮像部 121で撮像されたデジタル画像データは、画像転送部 13へ出力さ れる。
[0066] 次に、接続地点判断部 14は、上述のようにして携帯電話装置 1が接続している携 帯電話網の携帯電話中継アンテナ情報を利用して、携帯電話装置 1の現在位置を 演算する (ステップ S 12)。そして、接続地点判断部 14で演算された現在位置情報は 、接続部 15へ出力される。
[0067] 次に、画像転送部 13は、デジタル撮像部 121から出力されたデジタル画像データ を、コンピュータネットワーク 4上に設置された画像認識変換サーバ 5へ送信するよう 、接続部 15に要求する。そして、接続部 15は、上記デジタル画像データおよび接続 地点判断部 14から出力された現在位置情報を、画像認識変換サーバ 5に送信し (ス テツプ S13)、当該サブルーチンによる処理を終了する。
[0068] 図 7は、画像認識変換サーバ 5が行う上記ステップ S2の画像認識変換処理の詳細 な動作を示すサブルーチンである。図 7において、画像認識変換サーバ 5の情報送 受信部 52は、携帯電話装置 1から送信されたデジタル画像データおよび現在位置 情報を受信する (ステップ S21)。そして、情報送受信部 52は、デジタル画像データ を画像認識変換部 51に出力する。
[0069] 次に、画像認識変換部 51は、出力されたデジタル画像データ内に存在する文字を 認識し、単一または複数の文字列で構成されたデジタル文字データに変換する (ス テツプ S22)。そして、画像認識変換部 51は、上記ステップ S22における変換が成功 したカゝ否かを判断する (ステップ S23)。
[0070] 画像認識変換部 51は、上記ステップ S23で変換に成功した場合、情報送受信部 5 2に変換したデジタル文字データを出力し、情報送受信部 52から当該デジタル文字 データおよび上記現在位置情報が位置特定文字抽出サーバ 6に送信され (ステップ S24)、当該サブルーチンによる処理を終了する。一方、画像認識変換部 51は、上 記ステップ S23で変換に失敗した場合、情報送受信部 52に変換が失敗した旨の通 知を行!ゝ、情報送受信部 52から変換失敗を示す情報が携帯電話装置 1に送信され (ステップ S25)、当該サブルーチンによる処理を終了する。
[0071] 図 8は、位置特定文字抽出サーバ 6が行う上記ステップ S3の位置特定文字抽出処 理の詳細な動作を示すサブルーチンである。図 8において、位置特定文字抽出サー ノ^の情報送受信部 62は、画像認識変換サーバ 5から送信されたデジタル文字デ ータおよび現在位置情報を受信する (ステップ S31)。そして、情報送受信部 62は、 デジタル文字データを位置特定文字抽出部 61に出力する。次に、位置特定文字抽 出部 61は、出力されたデジタル文字データ中から、位置が特定可能な文字列を抽 出する (ステップ S32)。以下、ステップ S32で行う文字列の抽出方法の一例につい て詳述する。
[0072] まず、位置特定文字抽出部 61は、上記デジタル文字データから位置が特定可能 な文字列を正しく抽出するために、メールアドレス、 URL、営業時間、料金等、地理 的な位置とは無関係であることが明白な文字列を除外する。
[0073] 次に、位置特定文字抽出部 61は、上記デジタル文字データ内に「干」や「郵便番 号」と記載された文字列に続いて数字「#」および記号「-」が「# # # # #」の ように並んでいる場合、あるいは数字「#」および記号「一」が単独で「# # #— # # # #」のように並んで!/、る場合、当該文字列を位置属性が郵便番号である文字列候補 (以下、郵便番号属性文字列と記載する)として抽出する。ただし、「〒」や「郵便番号 」の記載を伴わない単独の数字「# # # # #」は、その後に後述の住所属性 文字列が続く場合、郵便番号属性文字列として抽出される。 [0074] 次に、位置特定文字抽出部 61は、上記デジタル文字データ内に数字「0」で始まる 数字「#」および記号「一」の並びが、「0 #— # # # # # # # #」、「0 # #— # # # 一 # # # #」、「0 # # #-# # # # # #」、「0 # # #-# # # # #」、「0 # # # #一 #ー# # # #」、または「0 # # # # #— # # # #」である場合、当該文字列を位 置属性が電話番号である文字列候補 (以下、電話番号属性文字列と記載する)とし て抽出する。また、位置特定文字抽出部 61は、上記デジタル文字データ内に「Tel」 や「TEL」と記載された文字列に続いて数字 1桁一 6桁、記号「一」、および数字 4桁が 並んで!/、る場合も、当該文字列を位置属性が電話番号である電話番号属性文字列 として抽出する。なお、位置特定文字抽出部 61は、上記記号「-」の代わりに記号「(」 「)」であっても、同様に電話番号属性文字列として抽出する。
[0075] 次に、位置特定文字抽出部 61は、全国の都道府県市区町村名称を格納したデー タベース(図示せず)を参照し、上記デジタル文字データ内に当該データベースに格 納されて!/ヽる ヽずれかの名称と合致する文字がある場合、合致した文字から文字列 の終わりと判断できる文字までを、位置属性が住所である文字列候補 (以下、住所属 性文字列と記載する)として抽出する。位置特定文字抽出部 61が終わりと判断できる 箇所は、句読点、既に除外あるいは抽出した文字列との境界や、数字、「番」、「号」、 および各地方ごとにおける住所の止め字の特徴文字 (例えば京都の「上ル」等)の後 に空白や改行がある箇所である。
[0076] 次に、位置特定文字抽出部 61は、上記デジタル文字データ内に、郵便番号属性 文字列、電話番号属性文字列、住所属性文字列以外に文字列がある場合、それら 全てを位置属性が施設名称である文字列候補 (以下、施設名称属性文字列と記載 する)として抽出する。ここで、ユーザが撮像した被写体に、施設名称とは異なる文字 が含まれている場合、これらの文字列も施設名称属性文字列として抽出してしまう。 例えば、ユーザが名刺を撮像した場合の氏名や所属部署名、看板を撮像した場合 の飲食店のメニューや病院の診療科目や略地図内の道路名称、ガイドブックを撮像 した場合の説明文等が、上記施設名称とは異なる文字に相当する。しかしながら、後 述する位置検索処理において、これらの施設名称とは異なる文字列は、施設名称検 索するためのデータベースに存在しない文字列であるため、自動的に振い落される 。このように、位置特定文字抽出部 61は、上記デジタル文字データから郵便番号属 性文字列、電話番号属性文字列、住所属性文字列、および施設名称属性文字列を 位置特定文字列として抽出する。なお、上述した文字列抽出の判断方法は一例であ り、位置が特定可能な文字列を抽出できれば、別の判断方法を用いても力まわない
[0077] ここで、図 12を参照して、上記ステップ S32で行う位置特定文字列を抽出する具体 例を説明する。この具体例ではユーザが名刺を撮影することを想定しており、図 12 ( a)はユーザがデジタル撮像部 121で撮像した名刺を示し、図 12 (b)は図 12 (a)の名 刺から抽出される位置特定文字列およびその位置属性を示している。
[0078] 図 12において、位置特定文字抽出部 61は、「http : ZZ」をキーワードとして地理 的な位置とは無関係であることが明白な文字列「http: //Panasonic. jpZ」を除 外する。次に、位置特定文字抽出部 61は、「 」をキーワードとして、郵便番号属性 文字列「5710050」を抽出する。次に、位置特定文字抽出部 61は、電話番号属性 文字列の抽出を試みる力 図 12 (a)で示した名刺には電話番号属性文字列に相当 する文字列がないため、何も抽出しない。次に、位置特定文字抽出部 61は、「門真 巿」をキーワードとして住所属性文字列「門真巿大字門真 1006番地」を抽出する。最 後に、位置特定文字抽出部 61は、既に抽出した文字列以外の文字列として、施設 名称属性文字列「松下電器産業株式会社」、 rpanasonicj ,および「高橋—健」をそ れぞれ抽出する。
[0079] 図 8に戻り、位置特定文字抽出部 61は、上記ステップ S32におけるいずれかの位 置特定文字列の抽出が成功した力否かを判断する (ステップ S33)。位置特定文字 抽出部 61は、上記ステップ S33でいずれかの位置特定文字列の抽出に成功した場 合、情報送受信部 62に抽出した位置特定文字列を示す位置特定文字データに位 置属性を付与して出力し、情報送受信部 62から当該位置特定文字データおよび上 記現在位置情報が位置検索サーバ 7に送信され (ステップ S34)、当該サブルーチン による処理を終了する。一方、位置特定文字抽出部 61は、上記ステップ S33で抽出 に失敗した場合、情報送受信部 62に抽出を失敗した旨の通知を行い、情報送受信 部 62から抽出失敗を示す情報が携帯電話装置 1に送信され (ステップ S35)、当該 サブルーチンによる処理を終了する。
[0080] 図 9は、位置検索サーバ 7が行う上記ステップ S4の位置検索処理の詳細な動作を 示すサブルーチンである。図 9において、位置検索サーバ 7の情報送受信部 73は、 位置特定文字抽出サーバ 6から出力された位置特定文字データおよび現在位置情 報を受信する (ステップ S41)。そして、情報送受信部 73は、位置特定文字データお よび現在位置情報を位置検索部 71および結果絞込部 72へ出力する。
[0081] 次に、位置検索部 71は、出力された位置特定文字データを用いて、それぞれ付与 されている位置属性に相応した位置検索を行う(ステップ S42)。ここで、位置検索と は位置特定文字データが示す地理的な位置を座標データとして求めることであり、位 置検索部 71は、複数の位置特定文字データを受け取った場合、それぞれについて 上記ステップ S42の位置検索を行う。なお、位置検索部 71は、施設名称に対する位 置検索において施設名称とは異なる文字列を示す位置特定文字データも受け取つ ており、当該位置特定文字データを用いた位置検索が失敗したとき、その文字列が 施設名称ではな!/ヽと判断して処理を続ける。
[0082] 次に、位置検索部 71は、上記ステップ S42の位置検索に成功した位置特定文字 データがある力否かを判断する (ステップ S43)。そして、位置検索部 71は、上記ステ ップ S42で 、ずれかの位置検索に成功した場合、その座標データを結果絞込部 72 へ出力して処理を次のステップ S44に進める。一方、位置検索部 71は、上記ステツ プ S42で全ての位置検索に失敗した場合、処理を次のステップ S54に進める。
[0083] ステップ S44において、結果絞込部 72は、上記ステップ S42で成功した座標デー タが複数カゝ否かを判断する。そして、結果絞込部 72は、座標データが 1つである場 合、結果の絞込が不要であるため、処理を次のステップ S55へ進める。一方、結果絞 込部 72は、座標データが複数である場合、処理を次のステップ S45へ進める。
[0084] ステップ S45にお 、て、結果絞込部 72は、電話番号属性文字列を示す位置特定 文字データを用いた位置検索が有効カゝ否かを判断する。そして、結果絞込部 72は、 電話番号属性文字列を示す位置特定文字データを用いた位置検索が有効である場 合、その座標データ 1つに絞り込んで (ステップ S46)、処理を次のステップ S55に進 める。一方、結果絞込部 72は、電話番号属性文字列を示す位置特定文字データを 用いた位置検索が無効である場合、処理を次のステップ S47へ進める。
[0085] ステップ S47にお 、て、結果絞込部 72は、住所属性文字列を示す位置特定文字 データを用いた位置検索が有効カゝ否かを判断する。そして、結果絞込部 72は、住所 属性文字列を示す位置特定文字データを用いた位置検索が有効である場合、その 座標データ 1つに絞り込んで (ステップ S48)、処理を次のステップ S55に進める。一 方、結果絞込部 72は、住所属性文字列を示す位置特定文字データを用いた位置検 索が無効である場合、処理を次のステップ S49へ進める。
[0086] ステップ S49において、結果絞込部 72は、施設名称属性文字列および郵便番号 属性文字列をそれぞれ示す位置特定文字データを用いた位置検索が共に有効か 否かを判断する。そして、結果絞込部 72は、施設名称属性文字列および郵便番号 属性文字列をそれぞれ示す位置特定文字データを用いた位置検索が共に有効であ る場合、施設名称属性文字列が示す施設のうち郵便番号属性文字列が示す地域内 に存在する施設の座標データに絞り込み (ステップ S50)、処理を次のステップ S51 に進める。これは、施設名称属性文字列として抽出された文字列が複数ある場合や 、同一名称をもつ施設が複数ある場合、郵便番号が示す地域内の施設に絞り込むこ とを意味する。一方、結果絞込部 72は、施設名称属性文字列および郵便番号属性 文字列をそれぞれ示す位置特定文字データを用いた位置検索の少なくとも一方が 無効である場合、そのまま処理を次のステップ S51へ進める。
[0087] なお、上記ステップ S50の絞り込み処理は、上記ステップ S48において住所属性文 字列だけでは一箇所に絞り込めない場合も有効である。例えば、住所属性文字列に 都道府県名がなく「赤坂 1丁目」だけであるとき、郵便番号属性文字列が「107— 005 2」であれば「東京都港区赤坂 1丁目」であり、「810— 0042」であれば「福岡巿中央 区赤坂 1丁目」に絞り込むことができる。
[0088] ステップ S51において、結果絞込部 72は、現在までの絞込処理を経て残っている 座標データが複数ある力否かを判断する。そして、結果絞込部 72は、残っている座 標データが複数ある場合、携帯電話装置 1から送信された現在位置情報が示す地 理的な位置力も一定距離 (例えば 5km以内)にある座標データ 1つに絞り込み (ステ ップ S52)、処理を次のステップ S53へ進める。これは、複数の位置検索が、施設名 称属性文字列しかない場合等で、例えば、ユーザが施設名称しか表記していない看 板等を撮像し、当該施設が現在位置付近にあることを想定している。一方、結果絞込 部 72は、残っている座標データが複数ない場合、そのまま処理を次のステップ S53 へ進める。
[0089] ステップ S53において、結果絞込部 72は、現在までの絞込処理を経て残っている 座標データ力^つである力否かを判断する。そして、結果絞込部 72は、残っている座 標データが 1つである場合、処理を次のステップ S55へ進める。一方、結果絞込部 7 2は、残っている座標データが 1つでない場合、処理を次のステップ S54へ進める。
[0090] 位置検索部 71は、上記ステップ S42で全ての位置検索に失敗した場合、ステップ S54の処理を行う。また、結果絞込部 72は、上記ステップ S53で残っている座標デ ータが 1つでない(つまり、座標データが複数または 0)場合、ステップ S54の処理を 行う。ステップ S54において、位置検索部 71または結果絞込部 72は、情報送受信部 73に検索を失敗した旨の通知を行い、情報送受信部 73から検索失敗を示す情報が 携帯電話装置 1に送信され、当該サブルーチンによる処理を終了する。一方、ステツ プ S55において、位置検索部 71は、 1つに絞り込まれた座標データを情報送受信部 73に出力し、情報送受信部 73から上記座標データと当該座標データに対応する位 置の住所や名称、周辺の地図等の付属情報とを位置検索結果情報として、コンビュ ータネットワーク 4を介して携帯電話装置 1へ送信され、当該サブルーチンによる処 理を終了する。
[0091] 図 10は、携帯電話装置 1が行う上記ステップ S5の位置検索結果取得処理の詳細 な動作を示すサブルーチンである。図 10において、接続部 15は、位置検索サーバ 7 力も送信されてくる位置検索結果情報を受信し (ステップ S56)、位置検索結果情報 を表示部 10に出力する。そして、表示部 10は、位置検索結果情報を表示画面に表 示する (ステップ S57)。このとき、表示部 10が位置検索結果情報に含まれる検索地 点の住所、電話番号、名称、および周辺の地図等を表示することによって、正しく位 置検索されたことの確認にカ卩えて検索地点周辺の地理状況を、ユーザが容易に認 識することができる。また、表示部 10は、画像認識変換部 51、位置特定文字抽出部 61、位置検索部 71、および結果絞込部 72のいずれかの処理において処理失敗が 発生した場合、その旨表示する。
[0092] 次に、ユーザは、表示部 10に表示された位置検索結果情報を視認して、当該位置 検索結果をナビゲーシヨン装置 2に送信するかどうか判断する (ステップ S58)。そし て、上記位置検索結果をナビゲーシヨン装置 2に送信する場合、ユーザが入力部 22 を操作して送受信部 201に位置検索結果情報を送信し (ステップ S59)、当該サブル 一チンによる処理を終了する。なお、上記位置検索結果をナビゲーシヨン装置 2に送 信しない場合、情報の送信は行わない。
[0093] 図 11は、ナビゲーシヨン装置 2が行う上記ステップ S6の経路案内処理の詳細な動 作を示すサブルーチンである。図 11において、現在位置導出部 212は、移動体の 現在位置を導出する (ステップ S61)。次に、送受信部 201から位置検索結果情報を 受信する (ステップ S62)。そして、経路探索部 211は、上記ステップ S61で導出した 現在位置から上記ステップ S62で取得した位置検索結果情報を目的地として推奨経 路を導出する (ステップ S63)。
[0094] 次に、ユーザに対して推奨経路を案内するため、現在位置導出部 212は、移動体 の現在位置を導出する (ステップ S64)。次に、現在位置判断部 213は、移動体が上 記ステップ S63で導出した推奨経路に沿って移動して ヽるカゝ否かを判断する (ステツ プ S65)。そして、移動体が上記推奨経路に沿って移動している場合、経路案内部 2 14は、経路の案内を行い(ステップ S66)、処理を次のステップ S67へ進める。一方、 移動体が上記推奨経路に沿って移動していない場合、経路案内部 214は、経路の 案内は行わず、そのまま処理を次のステップ S67へ進める。
[0095] ステップ S67において、ナビゲーシヨン装置 2は、経路案内処理を継続するか否か を判断する。そして、ナビゲーシヨン装置 2は、経路案内処理を継続する場合、上記 ステップ S64に戻って処理を継続し、経路案内処理を終了する場合、当該サブルー チンによる処理を終了する。
[0096] このように、本発明のナビゲーシヨンシステムによれば、位置が特定できる文字を携 帯電話装置に内蔵された撮像部で撮像することによって、ユーザは煩雑な操作をす ることなぐ雑誌や旅行ガイドブック、名刺、看板等、所望の位置が特定可能な被写 体を撮像するだけで、推奨経路の目的地や表示画面の位置指定等を行うことができ る。また、ユーザが読めない漢字で記載された住所や施設名称等の位置もナビゲー シヨン装置へ出力することができる。さらに、コンピュータネットワーク網上のサーバで 画像認識変換、位置特定文字抽出、および位置検索等の処理を行うため、サーバに 比べて処理能力が低い携帯電話装置やナビゲーシヨン装置でこれらの処理を行うよ りも、より高精度で処理を行うことができる。さらに、画面表示が貧弱あるいは表示部 を有しないナビゲーシヨン装置においては、誤った場所が検索されてしまった場合、 ユーザにとって誤った場所が検索されたという事実を確認する手段がないが、携帯 電話装置が有する表示部を利用することによって、容易に検索結果を確認すること ができる。また、被写体の撮像をデジタルカメラ内蔵携帯電話装置で行うことにより、 ナビゲーシヨン装置は、新しい装置を具備する必要がなぐ価格の上昇を抑えること ができる。また、ユーザが所持する携帯電話装置を利用するので、ナビゲーシヨン装 置周辺に新たな装置を付属させる必要がない。ここで、一般的なナビゲーシヨン装置 で位置検索する場合、同装置が保持する位置検索データは、例えば最新の地図 D VDROMに交換して記憶部のデータを更新しない限り現在に合致した新鮮なデータ にはならない。つまり、このようなナビゲーシヨン装置での検索結果は、現在の状況か らずれている可能性がある。これに対して、本発明では、サーバにおいて常に最新の データに更新することができるため、ナビゲーシヨンシステムによる検索結果は、現在 の状況からずれて 、る可能性が極めて少な 、。
[0097] なお、上述した説明では、ナビゲーシヨン装置 2が表示画面等の表示部を有してい ないが、表示部を有していても力まわない。また、ナビゲーシヨン装置 2と別体の携帯 電話装置 1で撮像するようにしたが、これに限らず、ナビゲーシヨン装置 2に撮像部を 設けてもよ!、し、携帯電話装置 1にナビゲーシヨン機能を設けてもよ!、。
[0098] また、上述した説明では、コンピュータネットワーク上に、画像認識変換部、位置特 定文字抽出部、位置検索部を設けたが、これに限らず、ナビゲーシヨン装置内に画 像認識変換部、位置特定文字抽出部、位置検索部を設けてもよい。この場合、ナビ ゲーシヨン装置 2は、表示画面等の表示部を有していることが好ましい。例えば、図 7 のステップ S25、図 8のステップ S35、および図 9のステップ S54の各処理において、 失敗を送信する代わりにナビゲーシヨン装置 2自身が有する表示部に各処理の失敗 の内容を表示し、ユーザに通知する。さらに、図 10のステップ S57では、ナビゲーシ ヨン装置 2自身が有する表示部に位置検索結果を表示する。ユーザは、表示された 位置を目的地として設定してよ!、と判断した場合は、ナビゲーシヨン装置 2の操作部 を操作して目的地を設定する (ステップ S58)ことで、位置検索結果が経路案内処理 へ送られる (ステップ S59)。また、画像認識変換サーバ 5、位置特定文字抽出サー バ 6、および位置検索サーバ 7は、それぞれ別のサーバで構成される説明をしたが、 上述したようにこれらは 1つのサーバで構成されても力まわない。この場合、それぞれ のサーバ間をデータ通信する動作が不要になることは言うまでもない。
[0099] また、上述した説明では、位置検索された位置を推奨経路の目的地として使用した 力 これに限らず、表示位置の指定、登録地点の指定、指定位置周辺に存在する施 設の検索等に使用してもよい。
[0100] また、上述では、インターネットに代表されるネットワーク網に接続された画像認識 変換サーバ 5、位置特定文字抽出サーバ 6、位置検索サーバ 7、および携帯電話装 置 1を用いて説明した力 ネットワークは他の態様でも力まわない。例えば、ナビゲー シヨン装置 2が設置される車両内に構築された車内 LANによってこれらのサーバお よび携帯電話装置 1が互いに通信可能に接続されてもよい。この場合、上記サーバ に格納される情報を最新情報に更新する手段が車両毎に必要となり、例えばユーザ が定期的に最新情報が記憶された光ディスク等の記録媒体をそれぞれのサーバに 読み込ませて情報を更新する。
産業上の利用可能性
[0101] 本発明に係るナビゲーシヨンシステム、携帯情報端末装置、サーバ、およびナビゲ ーシヨン方法は、ユーザが煩雑な操作をすることなく位置指定等を行うことが必要な 車載および歩行者ナビゲーシヨン装置等に位置情報を入力する等の用途にも適用 できる。

Claims

請求の範囲
[1] 所定のネットワークに接続されたサーバと、前記ネットワークを介して前記サーバと データ通信可能な携帯情報端末装置と、前記携帯情報端末装置との間でデータ通 信可能なナビゲーシヨン装置とを含むナビゲーシヨンシステムであって、
前記携帯情報端末装置は、
前記サーバおよび前記ナビゲーシヨン装置とデータ通信を行うデータ送受信部と 任意の被写体を撮像して画像データを生成する撮像部とを備え、
前記サーバは、
前記携帯情報端末装置とデータ通信を行うデータ送受信部と、
前記携帯情報端末装置から送信された画像データに含まれる文字列を認識し、 当該文字列を文字データに変換する画像認識変換部と、
前記画像認識変換部で変換された文字データから地理的な位置が特定可能な 文字列を抽出する位置特定文字抽出部と、
前記位置特定文字抽出部で抽出された文字列を用いて当該文字列が示す地理 的な位置を検索する位置検索部とを備え、
前記ナビゲーシヨン装置は、前記携帯情報端末装置とデータ通信を行うデータ送 受信部を備え、
前記位置検索部で検索された地理的な位置情報は、前記携帯情報端末装置を介 して前記ナビゲーシヨン装置に出力されることを特徴とする、ナビゲーシヨンシステム
[2] 前記携帯情報端末装置は、前記撮像部および前記データ送受信部を備えた携帯 電話装置であることを特徴とする、請求項 1に記載のナビゲーシヨンシステム。
[3] 前記携帯情報端末装置は、さらに
当該携帯情報端末装置のデータ送受信部が受信した情報を表示する表示部と、 ユーザの操作に応答してその指示を入力する入力部とを備え、
前記携帯情報端末装置は、前記位置検索部で検索された地理的な位置情報を受 信したとき、当該位置情報を前記表示部に表示し、前記入力部から入力されるユー ザの指示に応じて当該位置情報を前記ナビゲーシヨン装置に出力することを特徴と する、請求項 1に記載のナビゲーシヨンシステム。
[4] 前記位置特定文字抽出部は、前記地理的な位置が特定可能な文字列を住所、電 話番号、郵便番号、および施設名称のいずれかにそれぞれ分類して前記文字デー タから抽出し、
前記位置検索部は、前記位置特定文字抽出部で分類されて抽出された文字列を 用いて、当該文字列が示す単一の位置に絞り込んで検索することを特徴とする、請 求項 1に記載のナビゲーシヨンシステム。
[5] 前記位置検索部は、前記単一の位置を座標データとして絞り込み、前記単一の位 置に応じた位置の名称、住所、電話番号、および周辺の地図画像力 なる群力 選 ばれる少なくとも 1つの情報と前記座標データとを前記位置情報として出力することを 特徴とする、請求項 4に記載のナビゲーシヨンシステム。
[6] 前記携帯情報端末装置は、前記ネットワークと接続する地理的位置を判断する接 続地点判断部を、さらに備え、
前記位置検索部は、前記接続地点判断部が判断した地理的位置および前記位置 特定文字抽出部で分類されて抽出された文字列を用いて、当該文字列が示す単一 の位置に絞り込んで検索することを特徴とする、請求項 4に記載のナビゲーシヨンシ ステム。
[7] 前記ナビゲーシヨン装置および前記携帯情報端末装置は、同じ移動体に搭載され 前記ナビゲーシヨン装置は、さらに
前記移動体の現在位置を導出する現在位置導出部と、
前記携帯情報端末装置から出力された位置情報を目的地とした前記移動体の出 発地からの推奨経路を導出する経路探索部と、
前記現在位置導出部が導出した現在位置と前記経路探索部が導出した推奨経 路との関係を解析し、前記目的地までの経路を案内する経路案内部とを備えることを 特徴とする、請求項 1に記載のナビゲーシヨンシステム。
[8] 前記携帯情報端末装置のデータ送受信部と前記ナビゲーシヨン装置のデータ送受 信部との間のデータ通信は、無線接続による通信によって行われることを特徴とする
、請求項 1に記載のナビゲーシヨンシステム。
[9] 前記携帯情報端末装置のデータ送受信部と前記ナビゲーシヨン装置のデータ送受 信部との間のデータ通信は、有線接続による通信によって行われることを特徴とする
、請求項 1に記載のナビゲーシヨンシステム。
[10] 前記携帯情報端末装置のデータ送受信部と前記ナビゲーシヨン装置のデータ送受 信部との間のデータ通信は、不揮発性メモリーを内蔵したメモリーカード装置を介し て行われることを特徴とする、請求項 1に記載のナビゲーシヨンシステム。
[11] 前記ネットワークは、インターネット網であることを特徴とする、請求項 1に記載のナ ピゲーシヨンシステム。
[12] 所定のネットワークを介してサーバとデータ通信可能な携帯情報端末装置であって 前記サーバとデータ通信を行うデータ送受信部と、
任意の被写体を撮像して画像データを生成する撮像部と、
前記データ送受信部が受信した情報を表示する表示部とを備え、
前記データ送受信部は、前記撮像部で生成された画像データを前記サーバへ送 信した後、当該サーバから当該画像データに含まれる文字列が示す地理的な位置 情報を受信し、
前記表示部は、前記データ送受信部が受信した位置情報を表示することを特徴と する、携帯情報端末装置。
[13] 前記携帯情報端末装置は、前記データ送受信部、前記撮像部、および前記表示 部を備えた携帯電話装置であることを特徴とする、請求項 12に記載の携帯情報端末 装置。
[14] 前記携帯情報端末装置は、ユーザの操作に応答してその指示を入力する入力部 を、さらに備え、
前記データ送受信部は、さらにナビゲーシヨン装置との間でデータ通信可能であり 前記データ送受信部が前記位置情報を受信したとき、当該位置情報を前記表示部 に表示し、前記入力部から入力されるユーザの指示に応じて当該位置情報を前記ナ ピゲーシヨン装置に出力することを特徴とする、請求項 12に記載の携帯情報端末装 置。
[15] 前記データ送受信部が前記サーバから受信する位置情報は、当該サーバへ送信 した画像データ力 地理的な位置が特定可能な文字列が住所、電話番号、郵便番 号、および施設名称のいずれかにそれぞれ分類して抽出され、当該文字列が示す 単一の位置に絞り込んで検索された座標データを少なくとも含むことを特徴とする、 請求項 12に記載の携帯情報端末装置。
[16] 前記データ送受信部が前記サーバから受信する位置情報は、さらに、前記単一の 位置に応じた位置の名称、住所、電話番号、および周辺の地図画像からなる群から 選ばれる少なくとも 1つの情報を含むことを特徴とする、請求項 15に記載の携帯情報 端末装置。
[17] 前記携帯情報端末装置は、前記ネットワークと接続する地理的位置を判断する接 続地点判断部を、さらに備え、
前記データ送受信部が前記サーバから受信する位置情報に含まれる座標データ は、前記接続地点判断部が判断した地理的位置および前記分類されて抽出された 文字列を用いて、当該文字列が示す単一の位置に絞り込んで検索されることを特徴 とする、請求項 15に記載の携帯情報端末装置。
[18] 任意の被写体を撮像して画像データを生成する撮像ステップと、
前記画像データに含まれる文字列を認識し、当該文字列を文字データに変換する 画像認識変換ステップと、
前記画像認識変換ステップで変換された文字データから地理的な位置が特定可 能な文字列を抽出する位置特定文字抽出ステップと、
前記位置特定文字抽出ステップで抽出された文字列を用いて当該文字列が示す 地理的な位置を検索して位置情報を得る位置検索ステップとを含む、ナビゲーシヨン 方法。
[19] 現在位置を導出する現在位置導出ステップと、
前記位置検索ステップが得た位置情報を目的地とした推奨経路を導出する経路探 索ステップと、
前記現在位置と前記推奨経路との関係を解析し、前記目的地までの経路を案内す る経路案内ステップとを、さらに含む、請求項 18に記載のナビゲーシヨン方法。
[20] 前記位置検索ステップが得た位置情報を表示する表示ステップと、
ユーザの操作に応答してその指示を入力する入力ステップとを、さらに含み、 前記表示ステップが前記位置情報を表示し、前記入力ステップによってユーザの 所定の操作に応答した指示が入力した際、当該位置情報を前記経路探索ステップ で用いる目的地に採用することを特徴とする、請求項 19に記載のナビゲーシヨン方 法。
[21] 前記位置特定文字抽出ステップは、前記地理的な位置が特定可能な文字列を住 所、電話番号、郵便番号、および施設名称のいずれかにそれぞれ分類して前記文 字データから抽出し、
前記位置検索ステップは、前記位置特定文字抽出ステップで分類されて抽出され た文字列を用いて、当該文字列が示す単一の位置に絞り込んで検索することを特徴 とする、請求項 18に記載のナビゲーシヨン方法。
[22] 前記位置検索ステップは、前記単一の位置を座標データとして絞り込み、前記単 一の位置に応じた位置の名称、住所、電話番号、および周辺の地図画像からなる群 力 選ばれる少なくとも 1つの情報と前記座標データとを前記位置情報として得ること を特徴とする、請求項 21に記載のナビゲーシヨン方法。
[23] 前記位置検索ステップは、現在位置および前記位置特定文字抽出ステップで分類 されて抽出された文字列を用いて、当該文字列が示す単一の位置に絞り込んで検 索することを特徴とする、請求項 21に記載のナビゲーシヨン方法。
[24] 所定のネットワークを介して携帯情報端末装置とデータ通信可能なサーバであって 前記携帯情報端末装置とデータ通信を行うデータ送受信部と、
前記携帯情報端末装置から送信された画像データに含まれる文字列を認識し、当 該文字列を文字データに変換する画像認識変換部と、
前記画像認識変換部で変換された文字データから地理的な位置が特定可能な文 字列を抽出する位置特定文字抽出部と、
前記位置特定文字抽出部で抽出された文字列を用いて当該文字列が示す地理的 な位置を検索する位置検索部とを備え、
前記データ送受信部は、前記携帯情報端末装置から送信された画像データを受 信し、前記位置検索部で検索された当該画像データに応じた地理的な位置情報を 当該携帯情報端末装置に送信することを特徴とする、サーバ。
[25] 前記位置特定文字抽出部は、前記地理的な位置が特定可能な文字列を住所、電 話番号、郵便番号、および施設名称のいずれかにそれぞれ分類して前記文字デー タから抽出し、
前記位置検索部は、前記位置特定文字抽出部で分類されて抽出された文字列を 用いて、当該文字列が示す単一の位置に絞り込んで検索することを特徴とする、請 求項 24に記載のサーバ。
[26] 前記位置検索部は、前記単一の位置を座標データとして絞り込み、前記単一の位 置に応じた位置の名称、住所、電話番号、および周辺の地図画像力 なる群力 選 ばれる少なくとも 1つの情報と前記座標データとを前記位置情報として出力することを 特徴とする、請求項 25に記載のサーバ。
PCT/JP2004/016754 2003-12-18 2004-11-11 ナビゲーションシステム、携帯情報端末装置、サーバ、およびナビゲーション方法 WO2005061993A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005516430A JP4231507B2 (ja) 2003-12-18 2004-11-11 ナビゲーションシステム、携帯情報端末装置、サーバ、およびナビゲーション方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2003421011 2003-12-18
JP2003-421011 2003-12-18

Publications (1)

Publication Number Publication Date
WO2005061993A1 true WO2005061993A1 (ja) 2005-07-07

Family

ID=34708712

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2004/016754 WO2005061993A1 (ja) 2003-12-18 2004-11-11 ナビゲーションシステム、携帯情報端末装置、サーバ、およびナビゲーション方法

Country Status (2)

Country Link
JP (1) JP4231507B2 (ja)
WO (1) WO2005061993A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1717559A3 (de) * 2005-04-27 2008-07-16 Continental Automotive GmbH Vorrichtung zum Navigieren eines Fahrzeugs und Server-System
JP2011099854A (ja) * 2009-11-03 2011-05-19 Samsung Electronics Co Ltd ユーザ端末装置、その位置提供方法及びその経路案内方法
JP2011257295A (ja) * 2010-06-10 2011-12-22 Navitime Japan Co Ltd ナビゲーションシステム、端末装置、ナビゲーションサーバ、ナビゲーション装置、ナビゲーション方法、および、プログラム
JP2016164504A (ja) * 2015-03-06 2016-09-08 セイコーソリューションズ株式会社 ナビゲーションシステム及び車載装置
KR20170064150A (ko) * 2015-11-30 2017-06-09 현대엠엔소프트 주식회사 내비게이션의 키워드 검색장치 및 그 방법

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1145277A (ja) * 1997-07-29 1999-02-16 Sony Corp 情報検索装置及び情報検索システム
JP2001133282A (ja) * 1999-11-02 2001-05-18 Alpine Electronics Inc ナビゲーションシステム
JP2002312381A (ja) * 2001-04-10 2002-10-25 Megafusion Corp 位置情報システム
JP2003308329A (ja) * 2002-04-15 2003-10-31 Matsushita Electric Ind Co Ltd 情報提示方法及び情報提示装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1145277A (ja) * 1997-07-29 1999-02-16 Sony Corp 情報検索装置及び情報検索システム
JP2001133282A (ja) * 1999-11-02 2001-05-18 Alpine Electronics Inc ナビゲーションシステム
JP2002312381A (ja) * 2001-04-10 2002-10-25 Megafusion Corp 位置情報システム
JP2003308329A (ja) * 2002-04-15 2003-10-31 Matsushita Electric Ind Co Ltd 情報提示方法及び情報提示装置

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1717559A3 (de) * 2005-04-27 2008-07-16 Continental Automotive GmbH Vorrichtung zum Navigieren eines Fahrzeugs und Server-System
JP2011099854A (ja) * 2009-11-03 2011-05-19 Samsung Electronics Co Ltd ユーザ端末装置、その位置提供方法及びその経路案内方法
US9546879B2 (en) 2009-11-03 2017-01-17 Samsung Electronics Co., Ltd. User terminal, method for providing position and method for guiding route thereof
JP2011257295A (ja) * 2010-06-10 2011-12-22 Navitime Japan Co Ltd ナビゲーションシステム、端末装置、ナビゲーションサーバ、ナビゲーション装置、ナビゲーション方法、および、プログラム
JP2016164504A (ja) * 2015-03-06 2016-09-08 セイコーソリューションズ株式会社 ナビゲーションシステム及び車載装置
KR20170064150A (ko) * 2015-11-30 2017-06-09 현대엠엔소프트 주식회사 내비게이션의 키워드 검색장치 및 그 방법
KR102418056B1 (ko) * 2015-11-30 2022-07-07 현대오토에버 주식회사 내비게이션의 키워드 검색장치 및 그 방법

Also Published As

Publication number Publication date
JPWO2005061993A1 (ja) 2007-07-12
JP4231507B2 (ja) 2009-03-04

Similar Documents

Publication Publication Date Title
US11455798B2 (en) Imaging device and information acquisition system in which an acquired image and associated information are held on a display
CN100433050C (zh) 移动通信系统、移动终端和固定站设备,字符识别设备、方法和程序
JP4994028B2 (ja) ガソリン価格情報収集システム、ガソリン価格情報収集方法およびナビゲーション装置
JP3967046B2 (ja) 電話番号による地点検索出力装置及び記録媒体
CN101925799B (zh) 具有空中搜索模块的导航装置、系统及方法
JP4755556B2 (ja) 車載装置
US20050203698A1 (en) Navigation system using POI code numbers, and operating system and method therefor
US20080051991A1 (en) Route planning systems and trigger methods thereof
WO2005024348A1 (ja) 道案内システム
CN101903747A (zh) 导航装置及方法
JP2005100276A (ja) 情報処理システム、情報処理装置、情報処理方法及びプログラム
JP2001255160A (ja) ナビゲーションシステム
WO2005061993A1 (ja) ナビゲーションシステム、携帯情報端末装置、サーバ、およびナビゲーション方法
JP4277394B2 (ja) 地点設定装置およびナビゲーション装置
JP2005140636A (ja) ナビゲーション装置、方法及びプログラム
JPWO2008149408A1 (ja) 情報検索システム、それに用いられる移動頻度管理装置およびエリア情報検索装置、移動頻度管理装置におけるプログラム、エリア情報検索装置におけるプログラム、およびそのプログラムを記録したコンピュータ読み取り可能な記録媒体
JP4978219B2 (ja) 情報伝達システムおよび情報サーバ
JP5505035B2 (ja) ナビゲーションシステム
JP2006064443A (ja) ナビゲーション装置
JP3656730B2 (ja) 電話番号による地点検索出力装置及び記録媒体
WO2014174648A1 (ja) 情報記録システム、情報取得装置、情報処理方法および情報処理プログラム
JP2018124293A (ja) 情報処理装置
JP4423963B2 (ja) 電話番号による地点検索出力装置
JP3656723B2 (ja) 電話番号による地点検索出力装置及び記録媒体
KR20100071793A (ko) 경로 서비스 제공 서버, 단말 장치 및 경로 서비스 정보 제공 방법

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

DPEN Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed from 20040101)
121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2005516430

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

WWW Wipo information: withdrawn in national office

Country of ref document: DE

122 Ep: pct application non-entry in european phase