WO2020262312A1 - 地図表現データ処理装置、対応情報の生産方法、およびプログラム - Google Patents

地図表現データ処理装置、対応情報の生産方法、およびプログラム Download PDF

Info

Publication number
WO2020262312A1
WO2020262312A1 PCT/JP2020/024435 JP2020024435W WO2020262312A1 WO 2020262312 A1 WO2020262312 A1 WO 2020262312A1 JP 2020024435 W JP2020024435 W JP 2020024435W WO 2020262312 A1 WO2020262312 A1 WO 2020262312A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
acquisition unit
representation data
unit
map
Prior art date
Application number
PCT/JP2020/024435
Other languages
English (en)
French (fr)
Inventor
バレラ エンリケ ハビエル アリアガ
高橋 徹
Original Assignee
株式会社Stroly
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社Stroly filed Critical 株式会社Stroly
Priority to US17/622,052 priority Critical patent/US20220254053A1/en
Priority to JP2021526978A priority patent/JP7513990B2/ja
Priority to EP20831278.5A priority patent/EP3992952A4/en
Priority to CN202080046781.1A priority patent/CN114008608A/zh
Publication of WO2020262312A1 publication Critical patent/WO2020262312A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/29Geographical information databases
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/53Querying
    • G06F16/532Query formulation, e.g. graphical querying
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/55Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/587Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using geographical or spatial information, e.g. location
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/907Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/909Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using geographical or spatial information, e.g. location
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/10Map spot or coordinate position indicators; Map reading aids

Definitions

  • the present invention relates to a map representation data processing device or the like that automatically acquires and outputs correspondence information indicating the correspondence between a point name acquired from map representation data and location information.
  • the position information acquisition unit that acquires the position information corresponding to the point information that is the character string acquired by the character string acquisition unit using the point dictionary, and the coordinate information and the position information acquisition unit acquired by the coordinate information acquisition unit. It is a map representation data processing device including a corresponding output unit that outputs in association with the generated position information.
  • coordinate information such as place names on map representation data can be automatically acquired in association with position information.
  • the character string acquisition unit acquires two or more character strings from the map representation data, and the character string acquisition unit acquires 2
  • the classification unit for determining whether or not each of the above character strings is a character string for specifying a point is further provided, and the corresponding output unit corresponds to the character string determined by the classification unit to be a character string for specifying a point. It is a map representation data processing device that outputs the coordinate information to be output in association with the position information.
  • the map representation data processing device of the third invention is a character string having two or more characters and a label relating to the number of appearances in the point dictionary for the second invention, and is two or three or more types. Two or more learning source information having one of the labels is given to the learning module of machine learning, the learning module is executed, and a learning device storage unit for storing the acquired learning device is further provided.
  • the classification unit uses the two or more character strings acquired by the character string acquisition unit and the learner to obtain either point information or non-point information for each of the two or more character strings by a machine learning technique.
  • the corresponding output unit is a map representation data processing device that performs the deciding classification process and outputs the coordinate information corresponding to the character string classified into the point information by the classification unit in association with the position information.
  • a characteristic symbol which is a predetermined characteristic symbol is expressed from the map representation data. It further includes a feature location detection unit that detects the feature location, the coordinate information acquisition unit acquires the coordinate information corresponding to the feature symbol, and the position information acquisition unit uses the point dictionary to make the feature symbol. It is a map representation data processing device that acquires the position information corresponding to the point information which is the corresponding character string.
  • the graphic feature points on the map representation data can be acquired, and the coordinate information and the position information of the graphic feature points can be associated and automatically acquired.
  • the map representation data processing device of the fifth invention is a map representation data processing device whose characteristic symbol is one or more kinds of symbols of an intersection or a bridge, as opposed to the fourth invention.
  • the character string acquisition unit acquires three or more character strings from the map representation data, and the position information.
  • the grouping unit further includes a grouping unit that determines two or more position information indicating positions that are close enough to satisfy a predetermined condition, and the corresponding output unit is determined by the grouping unit.
  • This is a map representation data processing device that outputs the two or more position information obtained in association with each of the two or more coordinate information acquired by the coordinate information acquisition unit.
  • a character string such as an appropriate place name on the map representation data can be extracted, and the coordinate information such as the place name and the position information can be associated and automatically acquired.
  • the accurate map information storage unit for storing accurate map information, which is accurate map information, and the grouping unit have been determined for the sixth invention. It is an area including the position indicated by the above position information, and the accurate map is in a manner in which the area specific information acquisition unit for acquiring the area specific information for specifying the area in the accurate map information and the area specified by the area specific information can be known. It is a map representation data processing device further provided with an accurate map information output unit that outputs information.
  • the range of accurate map information corresponding to the map representation data can be clarified.
  • the area specific information acquisition unit is an area including a position indicated by two or more position information determined by the grouping unit.
  • the first area specific information acquisition means for acquiring the first area specific information for specifying the first area which is the area in the accurate map information, and the outermost position information acquired by the position information acquisition unit 1
  • the outer character string determining means for determining the character string corresponding to each of the above position information and the size information regarding the size to the corner of the map representation data, which is outside the one or more character strings determined by the outer character string determining means.
  • the distance corresponding to the size information acquired by the size information acquisition means by using two or more sets of the size information acquisition means to be acquired, the coordinate information acquired by the coordinate information acquisition unit, and the position information acquired by the position information acquisition unit.
  • the second area specific information for specifying the second area which is an area obtained by expanding the first area specified by the first area specific information, is acquired.
  • the accurate map information output unit is a map representation data processing device that outputs accurate map information in a manner in which the area specified by the second area specific information can be known.
  • the area identification information or the second area identification information includes information of two points constituting the rectangle, and the area identification It is a map representation data processing device further including a direction information acquisition unit that acquires direction information regarding the direction of map representation data using information or second area specific information, and a direction information output unit that outputs direction information.
  • the map representation data processing device of the tenth invention has coordinate information and position information corresponding to each of three or more character strings acquired by the character string acquisition unit for any one of the first to fourth inventions.
  • the relationship information acquisition unit that acquires the relationship information related to the relationship between the corresponding information, which is a set with, and the relationship information are used to correspond to the relationship information that satisfies the predetermined relationship among the three or more correspondence information.
  • the related information acquisition unit is a character string of two of the three or more character strings acquired by the character string acquisition unit.
  • the relative relationship information between the corresponding information corresponding to is acquired for each set of two character strings, and the corresponding information acquisition unit groups the three or more relationship information acquired by the relationship information acquisition unit into a group. From the judgment means for determining the relational information that does not enter and the correspondence information corresponding to each of the three or more character strings acquired by the character string acquisition unit, the correspondence information corresponding to the relational information that does not enter the group is excluded, and the remaining 2
  • the relational information acquisition unit is for each set of two character strings, and the coordinate information of the two character strings.
  • the distance relationship information which is the relationship information indicating the relationship between the relative distance, which is the difference between the two character strings, and the absolute distance, which is the difference between the position information of the two character strings, is acquired, and the correspondence information acquisition unit has three or more distance relationship information. It is determined whether or not the predetermined relationship is satisfied, and the distance relationship information that does not satisfy the predetermined relationship is supported from the corresponding information corresponding to each of the three or more character strings acquired by the character string acquisition unit. It is a map representation data processing device that acquires only the remaining two or more correspondence information excluding the correspondence information.
  • the map representation data processing device of the thirteenth invention acquires the representative value of the distance-related information from three or more distance-related information for the twelfth invention, and uses the representative value of the distance-related information.
  • the map representation data processing device further includes a scale acquisition unit for acquiring scale information of map representation data and a scale information output unit for outputting scale information.
  • the map representation data processing device of the fourteenth invention has the coordinate information corresponding to the character string acquired by the character string acquisition unit and each of the four sides of the map representation data for the thirteenth invention.
  • the area-specific information acquisition unit that acquires the relative vertical distance, which is the vertical distance to the side, and acquires the area-specific information that specifies the range of the map representation data in the real world using the relative vertical distance and the scale information, and the area. It is a map representation data processing device further including an area specific information output unit for outputting specific information.
  • the range in the real world supported by the map representation data can be acquired.
  • the map representation data processing device of the fifteenth invention corresponds to the fourteenth invention with an additional point acquisition unit that acquires the point information in the range indicated by the area specific information from the point dictionary and the point information.
  • An additional position acquisition unit that acquires the position information to be performed from the point dictionary, an additional coordinate acquisition unit that acquires the coordinate information corresponding to the position information, and a position on the map representation data, and the point information is displayed at the position indicated by the coordinate information.
  • the relation information acquisition unit is for each set of two character strings, and the coordinate information of the two character strings.
  • the angle relationship information which is the relationship information indicating the relationship between the relative angle, which is the angle obtained from, and the absolute angle, which is the angle obtained from the position information of the two character strings, is acquired, and the corresponding information acquisition unit is each of 3 or more. It is determined whether or not the angle relationship information satisfies the predetermined relationship, and the angle relationship that does not satisfy the predetermined relationship is selected from the corresponding information corresponding to each of the three or more character strings acquired by the character string acquisition unit. It is a map representation data processing device that acquires only the remaining two or more correspondence information excluding the correspondence information corresponding to the information.
  • the map representation data processing apparatus of the seventeenth invention acquires the representative value of the angle-related information from three or more angle-related information for the sixteenth invention, and uses the representative value of the angle-related information.
  • the map representation data processing device further includes a direction information acquisition unit that acquires direction information indicating the direction of the map representation data, and a direction information output unit that outputs the direction information.
  • the direction information of the map representation data can be acquired.
  • the map representation data processing device of the eighteenth invention has a map representation data storage unit for storing map representation data and coordinate information output by any one of the first to seventeenth map representation data processing devices.
  • a correspondence information storage unit that stores two or more correspondence information that is a set of the position information acquired by the position information acquisition unit, a current position information acquisition unit that acquires the current position information that specifies the current position, and two or more.
  • the coordinate information acquisition unit that acquires the coordinate information corresponding to the current position information using the corresponding information of, and the current location additional map expression data that is the map expression data in which the position indicated by the coordinate information is clearly indicated on the map expression data.
  • It is a map representation data processing apparatus including a data configuration unit constituting the above and a map representation data output unit for outputting current location additional map representation data.
  • the current location can be shown on the map representation data using the automatically acquired two or more correspondence information.
  • coordinate information such as place names on map representation data can be automatically acquired in association with position information.
  • Block diagram of learning device A according to the first embodiment Block diagram of sorting device B A flowchart for explaining an operation example of the learning device A
  • Explanatory drawing of a concrete operation example of the learning device A and the classification device B Diagram showing an example of the learning source information
  • Block diagram of the map representation data processing device C according to the second embodiment A flowchart for explaining an operation example of the map representation data processing device C.
  • Flow chart explaining an example of the grouping process Flow chart explaining an example of the same area identification process
  • Flowchart explaining an example of the same direction acquisition process Flow chart explaining an example of the output processing Diagram showing examples of the map representation data, etc. Diagram showing examples of the map representation data, etc.
  • FIG. 1 Flow chart explaining an example of the same area identification process Flowchart explaining an example of the same direction information acquisition process Flowchart explaining an example of the same point addition process Flowchart explaining an example of the output map configuration processing
  • the figure which shows the specific processing example of the map representation data processing apparatus E Diagram showing an example of the map representation data
  • the learning source information is the information to be learned.
  • the learning source information has a character string and a label.
  • the character string has two or more characters.
  • the label is information on the number of occurrences in the point dictionary described later.
  • the label can take information on any one of two or more types of labels.
  • the label is the first label indicating that the number of appearances in the point dictionary is one, the second label indicating that the number of appearances in the point dictionary is 0, and the number of appearances in the point dictionary is two or more. It is preferable that it is one of the third labels indicating that it is present. That is, it is preferable that the label can take any one of the three pieces of information.
  • the point dictionary is a dictionary related to point names.
  • the point dictionary has, for example, two or more corresponding information having a point name and position information for specifying the position of the place specified by the point name.
  • a point name is, for example, a place name, a landscape name, a specific point name, a prefecture name, a municipality name, a river, a mountain, a park, a scenic spot, or the like.
  • the point dictionary has, for example, two or more corresponding information having the point name and the information of the description of the point specified by the point name.
  • the learning device is stored in the learning device storage unit A12.
  • the learner can be called a classifier. Further, the learner may be called a classification model, a prediction model, or the like.
  • a learner is information acquired by a learning module that employs machine learning techniques.
  • the machine learning technique may be deep learning, SVM, decision tree, random forest, or the like. It is preferable that the machine learning technique is, for example, a technique using a recurrent neural network (RNN). That is, it is preferable that the learner is an RNN.
  • RNN recurrent neural network
  • Reception department A2 receives various information and instructions.
  • the acceptance means acceptance of user input, reception from an external device, and the like. However, it suffices if various information and instructions can be obtained by acceptance.
  • the input means for various information and instructions may be any, for example, a touch panel, a keyboard, a mouse, or a menu screen.
  • the processing unit A3 performs various processes.
  • the various processes are, for example, processes performed by the learning unit A31.
  • the learning unit A31 uses two or more learning source information of the learning source information storage unit A11 to perform learning processing by a machine learning technique, and acquires a learning device.
  • the learning unit A31 gives each character constituting the character string of the two or more learning source information of the learning source information storage unit A11 to the learning module of machine learning in order, and assigns a label to be paired with the character string.
  • the process of sequentially giving each character constituting the character string to the machine learning learning module is, for example, a process of giving a stream of the character string to the machine learning learning module. That is, it can be said that the learning unit A31 learns the stream of the character string possessed by each of the two or more learning source information.
  • the machine learning learning module is stored in, for example, the storage unit A1.
  • a machine learning technique for acquiring a learning device for example, deep learning, SVR, random forest, decision tree, etc.
  • the learning module of machine learning is, for example, a function in a machine learning framework such as fastText, tinySVM, TensorFlow, and various random forest functions.
  • the learning device acquired by the learning unit A31 is information for outputting a label when a character string is input and given to a machine learning classification module.
  • the learning device acquired by the learning unit A31 is information for outputting a label, for example, when characters constituting a character string are given one by one in order.
  • the learning unit A31 may be considered to include the learning module or may not include the learning module.
  • Output unit A4 outputs various information.
  • the various information is, for example, a learning device.
  • the output is usually storage on a recording medium, but display on a display, projection using a projector, printing by a printer, sound output, transmission to an external device, other processing devices, etc. It may be considered that the concept includes the delivery of the processing result to the program or the like.
  • the points representing the map representation data are, for example, the center of gravity point of the map representation data, any point at the end of the map representation data, or any point constituting the boundary of the area of the map representation data.
  • the map representation data is included in the file.
  • the map representation data may be data in the database, and the data format and management method are not limited.
  • the file may contain two or more map representation data.
  • one map representation data may be realized by two or more files. That is, one map representation data may be divided into two or more files.
  • the learning device stored in the learning device A is stored in the learning device storage unit A12 constituting the classification device B.
  • Reception department B2 receives various information and instructions.
  • the acceptance means for example, acceptance of user input, reception from an external device, and the like. However, it suffices if various information and instructions can be obtained by acceptance.
  • the input means for various information and instructions may be any, for example, a touch panel, a keyboard, a mouse, or a menu screen.
  • the character string reception unit B21 accepts a character string.
  • the acceptance means, for example, acceptance of information input from an input device such as a keyboard, mouse, or touch panel, reception of information transmitted via a wired or wireless communication line, an optical disk, a magnetic disk, a semiconductor memory, or the like. It is a concept including acceptance of information read from the recording medium of.
  • the character string reception unit B21 performs character recognition processing on the map information, for example, and acquires one or more character strings.
  • the processing unit B3 performs various processes.
  • the various processes are, for example, processes performed by the classification unit B31.
  • the classification unit B31 acquires a label corresponding to the character string by a machine learning technique using the character string received by the reception unit B2 and the learner of the learner storage unit A12.
  • the classification unit B31 gives each of two or more characters constituting the character string received by the reception unit B2 to the machine learning classification module in order for each character, and supplies the learner of the learner storage unit A12 to the classification module. To execute the classification module and get the label.
  • classification unit B31 may be considered to include the classification module or may not include the classification module.
  • Output unit B4 outputs various information.
  • the various types of information are, for example, labels acquired by the classification unit B31.
  • the label output unit B41 outputs the label acquired by the classification unit B31.
  • the output means storage on a recording medium, display on a display, projection using a projector, printing by a printer, sound output, transmission to an external device, transmission to another processing device, another program, or the like. It may be considered that the concept includes the delivery of the processing result.
  • the process of storing information in the storage unit A1 etc. does not matter.
  • the information may be stored in the storage unit A1 or the like via the recording medium, or the information transmitted via the communication line or the like may be stored in the storage unit A1 or the like.
  • the information input via the input device may be stored in the storage unit A1 or the like.
  • the reception unit A2, the reception unit B2, and the character string reception unit B21 can be realized by a device driver of an input means such as a touch panel or a keyboard, a menu screen control software, or the like.
  • the processing unit A3, the learning unit A31, the storage unit A41, the processing unit B3, and the classification unit B31 can usually be realized from an MPU, a memory, or the like.
  • the processing procedure of the processing unit A3 or the like is usually realized by software, and the software is recorded on a recording medium such as ROM. However, it may be realized by hardware (dedicated circuit).
  • Step S301 The learning unit A31 substitutes 1 for the counter i.
  • Step S302 The learning unit A31 determines whether or not the i-th learning source information exists in the learning source information storage unit A11. If the i-th learning source information exists, the process goes to step S303, and if the i-th learning source information does not exist, the process goes to step S312.
  • Step S303 The learning unit A31 acquires the i-th learning source information from the learning source information storage unit A11.
  • Step S304 The learning unit A31 substitutes 1 for the counter j.
  • Step S305 The learning unit A31 determines whether or not the j-th character exists in the character string of the i-th learning source information acquired in step S303. If the j-th character exists, the process goes to step S306, and if the j-th character does not exist, the process goes to step S309.
  • Step S306 The learning unit A31 acquires the j-th character in the character string of the i-th learning source information acquired in step S303.
  • Step S307 The learning unit A31 gives the j-th character acquired in step S306 to the learning module of the storage unit A1.
  • the process of giving a character to the learning module is, for example, giving the character as an argument of the learning module which is a function or method, giving the character to the learning module which is an execution module, and the like, and the learning module gives the character. Is to enable learning processing using, and is widely interpreted.
  • Step S309 The learning unit A31 acquires the label of the i-th learning source information acquired in step S303.
  • Step S310 The learning unit A31 gives the label acquired in step S309 to the learning module of the storage unit A1.
  • the process of giving the label to the learning module is, for example, giving the label as an argument of the learning module which is a function or method, giving the label to the learning module which is the execution module, and the like, and the learning module gives the label. Is to enable learning processing using, and is widely interpreted.
  • Step S311 The learning unit A31 increments the counter i by 1. Return to step S302.
  • Step S312 The learning unit A31 executes a learning module given a character stream and a label, and acquires a learning device.
  • Step S402 The classification unit B31 substitutes 1 for the counter i.
  • Step S403 The classification unit B31 determines whether or not the i-th character exists in the character string received in step S401. If the i-th character exists, the process goes to step S404, and if the i-th character does not exist, the process goes to step S407.
  • Step S404 The classification unit B31 acquires the i-th character in the character string received in step S401.
  • Step S405 The classification unit B31 gives the i-th character acquired in step S404 to the classification module of the storage unit B1.
  • the process of giving a character to the classification module is, for example, giving the character as an argument of the classification module which is a function or a method, giving the character to the classification module which is an execution module, and the like, and the classification module gives the character. Is to enable classification processing using, and is widely interpreted.
  • Step S406 The classification unit B31 increments the counter i by 1. Return to step S403.
  • Step S408 The classification unit B31 executes the classification module and acquires a label.
  • Step S409 The label output unit B41 outputs the label acquired in step S408. Return to step S401.
  • the processing of the learning device A is the learning phase 501.
  • the processing of the classification device B is the classification phase 502.
  • the learning source information storage unit A11 of the learning device A now stores a large number of learning source information having the structure shown in FIG.
  • the learning source information has a character string and a label.
  • the label is the first label (value is "1") indicating that the number of occurrences in the point dictionary is 1, and the second label (value is "0") indicating that the number of appearances in the point dictionary is 0. ”),
  • One of the third labels (value is“ 2 ”) indicating that the number of appearances in the point dictionary is 2 or more.
  • map representation data processing device that acquires the direction information of the map representation data will be described.
  • the area specific information acquisition unit C37 includes, for example, a first area specific information acquisition unit C371, an outer character string determination unit C372, a size information acquisition unit C373, a distance information acquisition unit C374, and a second area specific information acquisition unit C375.
  • the output unit C4 includes a corresponding output unit C41, an accurate map information output unit C42, and a direction information output unit C43.
  • the various types of information are, for example, a point dictionary described later, map expression data described later, accurate map information described later, a learning device, correspondence information described later, and a classification module.
  • the storage unit C1 does not have to include the point dictionary storage unit C11.
  • the point dictionary storage unit C11 may exist in an external device (not shown).
  • the point dictionary is stored in the point dictionary storage unit C11.
  • the point dictionary has one or more point position information.
  • the point position information is information that associates the point information that specifies the point with the position information that specifies the position of the point.
  • the point position information is, for example, information having a point information and a position information.
  • the point position information is, for example, information having a pointer to the point information and a pointer to the position information.
  • the data structure of the point position information does not matter.
  • the map representation data is data representing a map.
  • Map representation data is information in which the geographical area to be represented is limited.
  • the map representation data is not accurate map information described later.
  • the map representation data is, for example, data that lacks accuracy as a map.
  • the map representation data is, for example, an old map, an illustration map, a rough map, a handwritten map, or the like, but the type is not limited.
  • It is preferable that the map representation data is associated with a map identifier that identifies the map representation data.
  • the map identifier is, for example, an ID, a file name having map representation data, a name of map representation data, or the like.
  • Accurate map information is stored in the accurate map information storage unit C13.
  • Accurate map information is accurate electronic map information.
  • the type of map indicated by accurate map information and the data format of map information do not matter.
  • the types of maps include, for example, topographic maps, geological maps, geological maps, land use maps, residential maps, route maps, road maps, guide maps, aerial photographs, satellite photographs, and the like.
  • the data format of the accurate map information is, for example, raster data, vector data, KIWI format, or the like.
  • the learning device of the learning device storage unit A12 is the learning device acquired by the learning device A.
  • the learner has a character string having two or more characters, a label relating to the number of occurrences in the point dictionary, and one of two or three or more types of labels. It is the information acquired by giving two or more learning source information to the learning module of machine learning and executing the learning module.
  • the learning device is not the learning device acquired by the learning device A, but is obtained by learning one or more positive examples that are place name information and one or more negative examples that are not place name information by a machine learning technique. It may be a learning device.
  • Correspondence information storage unit C14 stores one or more correspondence information.
  • the correspondence information is information indicating the correspondence between the coordinate information and the position information.
  • the correspondence information may be a set of information of coordinate information and position information. Further, the correspondence information may be a set of information of a pointer to coordinate information and a pointer to position information.
  • the correspondence information may correspond to the place name information, or may have the place name information.
  • the data structure of the correspondence information does not matter. It is preferable that the correspondence information corresponds to the map representation data identifier that identifies the map representation data.
  • the Reception department C2 receives various information and instructions.
  • the various information and instructions are, for example, map representation data, operation start instructions, and output instructions.
  • the operation start instruction is an instruction to start the operation of acquiring the corresponding information of the map representation data processing device C.
  • the output instruction is an instruction to output map expression data or the like.
  • the output instruction has, for example, a map representation data identifier that identifies the map representation data.
  • the acceptance means acceptance of user input, reception from an external device (for example, a terminal device (not shown)), or the like.
  • an external device for example, a terminal device (not shown)
  • the input means for various information and instructions may be any, for example, a touch panel, a keyboard, a mouse, or a menu screen.
  • the map representation data reception unit C21 receives the map representation data.
  • acceptance means accepting information input from an input device such as a keyboard, mouse, or touch panel, receiving information transmitted via a wired or wireless communication line, and recording an optical disk, magnetic disk, semiconductor memory, or the like. It is a concept including acceptance of information read from a medium. That is, the map representation data receiving unit C21 may read the map representation data from the map representation data storage unit C12.
  • the classification unit C32 determines whether or not each of one or more character strings acquired by the character string acquisition unit C31 is a character string that specifies a point.
  • the classification unit C32 determines, for example, whether or not each of one or more character strings acquired by the character string acquisition unit C31 is a character string that specifies a point to be registered.
  • the character string that specifies the point to be registered is, for example, point information or unique point information.
  • the classification unit C32 uses, for example, one or two or more character strings acquired by the character string acquisition unit C31 and a learner, and uses machine learning techniques to obtain point information or non-point information for each of the two or more character strings. Performs classification processing to determine any of the point information.
  • the classification unit C32 performs learning processing by a machine learning technique and acquires, for example, using a character string that is one or more point information as a positive example and a character string that is one or more non-point information as a negative example. Using the learned learner, a process of determining whether each of one or more character strings acquired by the character string acquisition unit C31 is point information or non-point information is performed.
  • the machine learning technique may be deep learning, SVM, decision tree, random forest, etc.
  • the learning module that performs the learning process and constitutes the learning device is, for example, a function in a machine learning framework such as fastText, tinySVM, TensorFlow, or various random forest functions.
  • the classification module that performs the processing determined by the classification unit C32 is, for example, a function in a machine learning framework such as fastText, tinySVM, TensorFlow, or various random forest functions.
  • the classification unit C32 acquires the label corresponding to each of one or more character strings acquired by the character string acquisition unit C31 by the same processing as the classification unit B31.
  • the classification unit C32 gives each of two or more characters constituting the character string acquired by the character string acquisition unit C31 to the machine learning classification module in order for each character, and provides the learner of the learner storage unit A12. It is given to the classification module, the classification module is executed, and a label is acquired.
  • the classification unit C32 determines, for example, that only the character string corresponding to the first label is the character string that specifies the point. Further, the classification unit C32 may determine, for example, that the character string corresponding to the first label and the third label is a character string for specifying a point.
  • the grouping unit C33 determines two or more position information indicating a position closer to satisfy a predetermined condition among the three or more position information acquired by the position information acquisition unit C36. That is, the grouping unit C33 performs processing for removing the position information of points that may not be located in the map representation data.
  • the position information of one or more points that will not be located in the map representation data is information indicating a position far enough to satisfy a predetermined condition with respect to other position information acquired by the position information acquisition unit C36. is there.
  • the process of the grouping unit C33 is, for example, one of the following two processes. (1) Processing using representative position information
  • the grouping unit C33 determines, for example, representative position information which is position information representing three or more position information acquired by the position information acquisition unit C36.
  • the representative position information is usually position information indicating the central portion of the three or more position information acquired by the position information acquisition unit C36.
  • the grouping unit C33 calculates, for example, the distance between each position information other than the representative position information and the representative position information, and the distance is close enough to satisfy a predetermined condition, and is representative. Acquire location information other than location information.
  • the one or more position information and the representative position information are the position information determined by the grouping unit C33.
  • the position information not acquired here is the excluded position information.
  • Examples of the representative position information acquisition method are the following (1-1) or (1-2) or (1-3) or (1-4).
  • (1-1) For example, the grouping unit C33 calculates the distance of three or more combinations of two position information out of the three or more position information acquired by the position information acquisition unit C36, and the grouping unit C33 calculates the distance of three or more combinations of the three or more combinations. Acquires two representative position information which is the shortest set which is a set of two position information corresponding to the shortest distance in the distance. (1-2) The grouping unit C33 acquires either one of the shortest sets acquired in (1-1) above as representative position information.
  • the grouping unit C33 may acquire the center of gravity point of the region including the three or more position information acquired by the position information acquisition unit C36 as the representative position information.
  • the grouping unit C33 may acquire the position information of the position closest to the center point in the area including the three or more position information acquired by the position information acquisition unit C36 as the representative position information. ..
  • the representative position information acquisition algorithm is not limited to the above (1-1) to (1-4).
  • the grouping unit C33 performs a clustering process of position information using, for example, three or more position information acquired by the position information acquisition unit C36. Then, the grouping unit C33 acquires two or more position information acquired by the clustering process. Since the clustering process is a known technique, detailed description thereof will be omitted.
  • the feature location detection unit C34 detects the feature location where the feature symbol, which is a predetermined characteristic symbol, is displayed from the map representation data.
  • the feature location detection unit C34 detects, for example, a feature location where a feature symbol, which is a predetermined characteristic symbol, is displayed from map representation data by an image recognition technique.
  • the feature symbol is one or more kinds of symbols of an intersection or a bridge.
  • a feature symbol such as an intersection or a bridge is stored in the storage unit C1, and the feature location detection unit C34, for example, shifts the pixel of the start point in the map representation data to obtain an area matching the size of the feature symbol. It is cut out from the map representation data, the similarity between the cut out area and the feature symbol of the storage unit C1 is calculated, and the area where the similarity is equal to or more than the threshold value is detected as the feature location.
  • the feature location detection unit C34 performs object recognition processing of the feature symbol on the map representation data, for example, and detects the feature location. Since the object recognition process is a known technique, detailed description thereof will be omitted.
  • the coordinate information acquisition unit C35 is information for specifying the coordinate position corresponding to the character string acquired by the character string acquisition unit C31, and is information for specifying the relative coordinate position in the map representation data (normally). , (X, y)).
  • the coordinate position corresponding to the character string is the coordinate of a point representing the area of the character string in the map representation data, and is a representative point of the character string.
  • the representative points are the center point of the character string area in the map representation data, the upper left point of the character string area in the map representation data, the lower right point of the character string area in the map representation data, and the like. ..
  • the coordinate information acquisition unit C35 acquires the coordinate information that specifies the coordinate position corresponding to the character string corresponding to the position information determined by the grouping unit C33 among the character strings acquired by the character string acquisition unit C31. good. Even in such a case, it can be said that the coordinate information acquisition unit C35 acquires the coordinate information that specifies the coordinate position corresponding to the character string acquired by the character string acquisition unit C31.
  • the coordinate information acquisition unit C35 acquires the coordinate information corresponding to the feature symbol.
  • the coordinate information acquisition unit C35 acquires the coordinate information of the representative point of the area of the feature symbol detected by the feature location detection unit C34.
  • the coordinate information acquisition unit C35 acquires, for example, the coordinate position of the center of gravity of the region in the region of the feature symbol detected by the feature location detection unit C34 as the feature location. Further, the coordinate information acquisition unit C35 acquires, for example, the coordinate position of the upper left point of the feature symbol area in the map representation data as the feature location. Further, the coordinate information acquisition unit C35 acquires, for example, the coordinate position of the lower right point of the feature symbol area in the map representation data as the feature location.
  • the position information acquisition unit C36 acquires the position information corresponding to the point information which is the character string acquired by the character string acquisition unit C31 by using the point dictionary.
  • the position information acquisition unit C36 acquires the position information paired with the point information which is the character string acquired by the character string acquisition unit C31 from the point dictionary. It should be noted that acquiring the position information using the point dictionary is usually to acquire the position information from the point dictionary.
  • the position information acquisition unit C36 acquires, for example, the position information corresponding to the point information, which is a character string corresponding to the feature symbol, from the point dictionary.
  • the character string corresponding to the feature symbol is, for example, a character string recently arranged in the feature symbol.
  • the character string corresponding to the feature symbol is, for example, a character string (for example, "intersection") that is a combination of the recently arranged character string (for example, "ABC”) of the feature symbol and the name of the feature symbol (for example, "intersection”). ABC intersection ").
  • the position information acquisition unit C36 is a character string recently arranged in the feature symbol, acquires a character string (for example, "ABC") on the map representation data, and names the feature symbol (for example, "intersection”). ") Is read from the storage unit C1, the two character strings are combined, a character string (for example,” ABC intersection ”) is acquired, and the position information paired with the character string (for example,” ABC intersection ”) is stored in a point dictionary. Obtained from the storage unit C11.
  • the position information acquisition unit C36 may acquire the position information from the point dictionary storage unit C11 existing in an external device (not shown).
  • the area identification information acquisition unit C37 is an area including a position indicated by two or more position information acquired by the position information acquisition unit C36, and may acquire area identification information for specifying an area in accurate map information.
  • the second area specific information acquisition means C375 uses the distance information acquired by the distance information acquisition means C374 to specify a second area which is an area obtained by expanding the first area specified by the first area specific information. Get specific information.
  • the second area specific information acquisition means C375 acquires the second area specific information that specifies the second area, which is an area expanded in each direction of the first area specific information by, for example, the distance information of each of the four directions. ..
  • the second area identification information is, for example, position information of two points that specify a rectangle.
  • the area specified by the first area identification information does not have to be a rectangle, and may be a polygon, a circle, or the like.
  • the first angle is “0 degrees” (two points are due north and south), and the second angle is “90 degrees” (the y-axis values of the coordinate information of the two points are the same). If, the direction information acquisition unit C38 acquires the direction information "90 degrees”.
  • the corresponding output unit C41 outputs the coordinate information corresponding to the character string classified into the point information by the classification unit C32 in association with the position information.
  • the accurate map information output unit C42 outputs accurate map information in a manner in which the area specified by the area identification information can be known, for example.
  • the output means display on a display, projection using a projector, storage on a recording medium, printing by a printer, sound output, transmission to an external device, transmission to another processing device, another program, or the like. It may be considered that the concept includes the delivery of the processing result.
  • the mode in which the area specified by the area specific information can be known is to enclose the area specified by the area specific information in a frame, to change the background color of the area specified by the area specific information, and the like. Does not matter.
  • the accurate map information output unit C42 outputs accurate map information in a manner in which, for example, the area specified by the two-area specific information can be known.
  • the direction information output unit C43 outputs the direction information acquired by the direction information acquisition unit C38.
  • the output mode of the direction information does not matter.
  • the output means display on a display, projection using a projector, storage on a recording medium, printing by a printer, sound output, transmission to an external device, transmission to another processing device, another program, or the like. It may be considered that the concept includes the delivery of the processing result.
  • the storage unit C1, the point dictionary storage unit C11, the map representation data storage unit C12, the accurate map information storage unit C13, the learning device storage unit A12, and the corresponding information storage unit C14 are preferably non-volatile recording media, but are volatile. It can also be realized with a sex recording medium.
  • the process of storing information in the storage unit C1 or the like does not matter.
  • the information may be stored in the storage unit C1 or the like via the recording medium, or the information transmitted via the communication line or the like may be stored in the storage unit C1 or the like.
  • the information input via the input device may be stored in the storage unit C1 or the like.
  • the reception unit C2 and the map expression data reception unit C21 can be realized by a device driver of an input means such as a touch panel or a keyboard, a menu screen control software, or the like.
  • the first area specific information acquisition means C371, the outer character string determination means C372, the size information acquisition means C373, the distance information acquisition means C374, and the second area specific information acquisition means C375 can usually be realized from an MPU, a memory, or the like.
  • the processing procedure of the processing unit C3 or the like is usually realized by software, and the software is recorded on a recording medium such as ROM. However, it may be realized by hardware (dedicated circuit).
  • the output unit C4, the corresponding output unit C41, the accurate map information output unit C42, and the direction information output unit C43 may or may not be considered to include output devices such as displays and speakers.
  • the output unit C4 can be realized by the driver software of the output device, the driver software of the output device, the output device, or the like.
  • Step S801 The reception unit C2 determines whether or not the operation start instruction has been received. If the operation start instruction is accepted, the process proceeds to step S802, and if the operation start instruction is not accepted, the process proceeds to step S821.
  • Step S802 The processing unit C3 substitutes 1 for the counter i.
  • Step S803 The processing unit C3 determines whether or not the i-th map representation data exists in the map representation data storage unit C12. If the i-th map representation data exists, the process goes to step S804, and if it does not exist, the process returns to step S801.
  • Step S804 The map expression data reception unit C21 acquires the i-th map expression data from the map expression data storage unit C12.
  • Step S805 The character string acquisition unit C31 acquires one or more character strings displayed on the i-th map expression data acquired in step S804.
  • the character string acquisition unit C31 acquires one or more character strings displayed on the i-th map expression data by, for example, character recognition processing.
  • Step S808 The classification unit C32 performs classification processing on the j-th character string and acquires a label.
  • the classification process is, for example, the process of the above-mentioned classification device B, for example, the processes of steps S402 to S409 of FIG.
  • Step S809 The coordinate information acquisition unit C35 determines whether or not the j-th character string is the point information to be registered. If it is the point information to be registered, it goes to step S810, and if it is not the point information to be registered, it goes to step S812.
  • the coordinate information acquisition unit C35 is an area in which the j-th character string is arranged, and acquires the coordinate information of the representative point of the area above the i-th map representation data.
  • the representative point may be the center of gravity point of the region, the upper left point, the lower right point, or the like. Further, it is assumed that the information of the area where the character string is arranged can be acquired when the character string is acquired from the map representation data.
  • Step S811 The position information acquisition unit C36 acquires the position information paired with the point information which is the j-th character string from the point dictionary storage unit C11. Then, the corresponding output unit C41 pairs the position information with the coordinate information acquired in step S810 and at least temporarily stores the position information in a buffer (not shown).
  • Step S812 The classification unit C32 increments the counter j by 1. Return to step S807.
  • Step S815) The corresponding output unit C41 determines whether or not the k-th position information exists in the position information acquired in step S813. If the k-th position information exists, the process goes to step S816, and if the k-th position information does not exist, the process goes to step S818.
  • Step S816 The corresponding output unit C41 acquires the coordinate information paired with the k-th position information from a buffer (not shown). Then, the corresponding output unit C41 stores the k-th position information and the acquired coordinate information in the corresponding information storage unit C14 in association with the i-th map representation data.
  • the area identification information acquisition unit C37 performs the area identification process.
  • the area identification process is an area corresponding to the area of the i-th map representation data, and is a process for specifying an area in accurate map information. An example of the area specifying process will be described with reference to the flowchart of FIG.
  • the direction information acquisition unit C38 performs the direction acquisition process.
  • the direction acquisition process is a process of acquiring direction information for specifying the direction of the i-th map representation data. An example of the direction acquisition process will be described with reference to the flowchart of FIG.
  • Step S820 The processing unit C3 increments the counter i by 1. Return to step S803.
  • Step S821 The reception unit C2 determines whether or not the output instruction has been received. If the output instruction is accepted, the process proceeds to step S822, and if the output instruction is not accepted, the process returns to step S801.
  • step S813 an example of the grouping process in step S813 will be described with reference to the flowchart of FIG.
  • Step S901 The grouping unit C33 substitutes 1 for the counter i.
  • Step S902 The grouping unit C33 determines whether or not there is a pair of the i-th two position information from the two or more position information acquired in step S811. If the i-th pair of position information exists, the process goes to step S903, and if it does not exist, the process goes to step S905.
  • Step S903 The grouping unit C33 calculates the distance between the two points specified by the i-th two position information.
  • Step S904 The grouping unit C33 increments the counter i by 1. Return to step S807.
  • Step S905 The grouping unit C33 acquires two position information corresponding to the minimum distance among the distances between the two points calculated in step S903. Then, the grouping unit C33 acquires any one of the two position information as the representative position information.
  • Step S906 The grouping unit C33 substitutes 1 for the counter j.
  • Step S909 The grouping unit C33 determines whether or not the distance calculated in step S907 is close enough to satisfy a predetermined condition (for example, whether or not the distance is less than the threshold value or is less than or equal to the threshold value). ) Is judged. If the distance is short enough to satisfy the predetermined condition, the distance goes to step S910, and if the distance is not close enough to satisfy the predetermined condition, the distance goes to step S911.
  • a predetermined condition for example, whether or not the distance is less than the threshold value or is less than or equal to the threshold value.
  • Step S911 The grouping unit C33 increments the counter j by 1. Return to step S807.
  • step S818 an example of the area identification process in step S818 will be described with reference to the flowchart of FIG.
  • Step S1002 The one-area identification information acquisition means C371 acquires the position information having the maximum longitude among the position information temporarily stored in the buffer (not shown) by the grouping unit C33 in step S910.
  • Step S1004 The first area identification information acquisition means C371 acquires the position information having the maximum latitude among the position information temporarily stored in the buffer (not shown) by the grouping unit C33 in step S910.
  • Step S1010 The second area identification information acquisition means C375 stores the second area identification information acquired in step S1009 in association with the i-th map representation data. Return to higher processing.
  • Step S1102 The direction information acquisition unit C38 acquires the direction information by using the four position information constituting the second area specific information.
  • Step S1103 The direction information acquisition unit C38 stores the direction information acquired in step S1102 in association with the i-th map representation data. Return to higher processing.
  • Step S1202 The output unit C4 acquires the map expression data identified by the map expression data identifier acquired in step S1201 from the map expression data storage unit C12.
  • Step S1206 The output unit C4 acquires the second region identification information paired with the map representation data acquired in step S1202.
  • the correspondence information storage unit C14 stores the correspondence information management table having the structure shown in FIG.
  • the correspondence information management table stores one or more records having "ID”, “map representation data identifier", “coordinate information”, "position information”, and "point information”.
  • the "ID” is information that identifies a record.
  • the "map representation data identifier” is information that identifies the map representation data.
  • Coordinat information is a coordinate value indicating a relative position on the map representation data.
  • “Position information” is (latitude, longitude) here.
  • Point information is a character string that has no meaning here, but is usually a point name.
  • the reception unit C2 of the map representation data processing device C receives the output instruction.
  • the output unit C4 performs the output processing described above.
  • the map representation data of 1301 in FIG. 13 and the accurate map information of 1302 are output.
  • 13021 in FIG. 13 is an area specified by the area identification information.
  • 13022 is an area specified by the second area identification information.
  • 13023 is a symbol for specifying the position information corresponding to the first label.
  • reference numeral 13024 is a symbol that identifies the position information corresponding to the third label or the position information removed by the grouping process.
  • the coordinate information such as the place name on the map representation data and the position information can be automatically acquired in association with each other.
  • a character string such as an appropriate place name on the map representation data can be extracted with high accuracy, and the coordinate information such as the place name and the position information can be associated and automatically acquired.
  • the position information acquisition unit that acquires the position information corresponding to the point information that is the character string acquired by the character string acquisition unit using the unit, the coordinate information acquired by the coordinate information acquisition unit, and the above.
  • This is a program for functioning as a corresponding output unit that outputs the position information acquired by the position information acquisition unit in association with each other.
  • FIG. 17 is a block diagram of the map representation data processing device D according to the present embodiment.
  • the map representation data processing device D includes a storage unit D1, a reception unit D2, a processing unit D3, and an output unit D4.
  • the storage unit D1 includes a map representation data storage unit C12 and a corresponding information storage unit C14.
  • the processing unit D3 includes a current position information acquisition unit D31, a coordinate information acquisition unit D32, and a data configuration unit D33.
  • the output unit D4 includes a map representation data output unit D41.
  • Various information is stored in the storage unit D1.
  • the various types of information are, for example, map representation data and corresponding information.
  • One or two or more map expression data are stored in the map expression data storage unit C12.
  • Correspondence information storage unit C14 stores two or more correspondence information. It is preferable that the correspondence information corresponds to the map representation data.
  • Reception department D2 receives various information and instructions.
  • the various information and instructions are, for example, operation start instructions.
  • the acceptance means acceptance of user input, reception from an external device (for example, a terminal device (not shown)), or the like.
  • an external device for example, a terminal device (not shown)
  • the input means for various information and instructions may be any, for example, a touch panel, a keyboard, a mouse, or a menu screen.
  • the processing unit D3 performs various processes.
  • the various processes are, for example, processes performed by the current position information acquisition unit D31, the coordinate information acquisition unit D32, and the data configuration unit D33.
  • the current position information acquisition unit D31 acquires the current position information that specifies the current position.
  • the current position information acquisition unit D31 can be realized by, for example, a GPS receiver. Since the current position information acquisition unit D31 is a known technique, detailed description thereof will be omitted.
  • the coordinate information acquisition unit D32 acquires the coordinate information corresponding to the current position information by using two or more corresponding information pairs with the target map representation data.
  • the coordinate information is a coordinate value that specifies a relative position on the displayed map representation data.
  • the coordinate information acquisition unit D32 has, for example, correspondence information 1 (coordinate information 1 (x 1 , y 1 ), position information 1 (X 1, Y 1)) and correspondence information 2 (coordinate information 2) paired with the target map representation data. (x 2, y 2), reads the position information 2 (X2, Y2)) from the correspondence information storage unit C14. Then, the coordinate information acquisition unit D32 acquires the current position information (X3, Y3) acquired by the current position information acquisition unit D31. Next, the coordinate information acquisition unit D32 calculates (X1-X2) and (Y1-Y2) from the position information 1 (X1, Y1) and the position information 2 (X2, Y2).
  • the coordinate information obtaining unit D32 is, for example, (X1-X3) and calculates the number of pixels with respect to a unit distance in the x-axis, and adds the number of the pixel and the x 1, x-coordinate for the current position information (x 3 ) To get.
  • the coordinate information obtaining unit D32 is, for example, (Y1-Y3) and calculates the number of pixels with respect to a unit distance in the y-axis, and adds the number of the pixels and y 1 and, y coordinate for the current position information (y 3) To get.
  • the data configuration unit D33 configures the current location addition map representation data which is the map representation data in which the position indicated by the coordinate information acquired by the coordinate information acquisition unit D32 is clearly indicated on the map representation data. It should be noted that the mode of clearly indicating the position indicated by the coordinate information does not matter.
  • the data configuration unit D33 arranges, for example, a predetermined symbol at a position indicated by the coordinate information.
  • the map representation data output unit D41 outputs the current location additional map representation data acquired by the data configuration unit D33.
  • the storage unit D1, the map representation data storage unit C12, and the corresponding information storage unit C14 are preferably non-volatile recording media, but can also be realized by volatile recording media.
  • the processing unit D3, the current position information acquisition unit D31, the coordinate information acquisition unit D32, and the data configuration unit D33 can usually be realized from an MPU, a memory, or the like.
  • the processing procedure of the processing unit D3 is usually realized by software, and the software is recorded on a recording medium such as ROM. However, it may be realized by hardware (dedicated circuit).
  • Step S1803 The coordinate information acquisition unit D32 acquires two or more correspondence information pairs with the map representation data identifier that identifies the map representation data acquired in step S1801 from the correspondence information storage unit C14. Next, the coordinate information acquisition unit D32 acquires the coordinate information corresponding to the current position information by using the two or more corresponding information.
  • Embodiment 4 In the present embodiment, three or more point names are acquired from the map representation data, coordinate information corresponding to each point name is acquired from the map representation data, and real position information corresponding to the point name is acquired from the point dictionary. Then, a map representation data processing device that outputs correspondence information, which is a set of appropriate coordinate information and position information, will be described using the coordinate information and the position information.
  • an inappropriate point is determined based on the relationship information regarding the relationship between the correspondence information between the two points, and the inappropriate correspondence information corresponding to the inappropriate point is not included.
  • a map representation data processing device that outputs two or more correspondence information will be described.
  • distance-related information related to distance and angle-related information related to angle are used to determine an inappropriate point.
  • an inappropriate point is a point corresponding to correspondence information that seems to be incorrect.
  • the map representation data processing device E includes a storage unit C1, a reception unit C2, a processing unit E3, and an output unit E4.
  • the relationship information acquisition unit E31 obtains relative relationship information between the corresponding information corresponding to each of the two character strings of the three or more character strings acquired by the character string acquisition unit C31 for each of the two character string pairs. It is preferable to obtain the information.
  • the correspondence information acquisition unit E32 When the correspondence information acquisition unit E32 satisfies both the distance relation information and the angle relation information in a predetermined relationship, it is preferable that the correspondence information acquisition unit E32 acquires only two or more correspondence information corresponding to the distance relation information and the angle relation information. is there.
  • the determination means E321 constituting the correspondence information acquisition unit E32 groups three or more relational information acquired by the relational information acquisition unit E31, and determines the relational information that does not belong to the group.
  • algorithm for clustering related information for example, hierarchical aggregation clustering (Hierarchical Agglomerative Clustering [HAC]) can be used.
  • HAC Hierarchical Agglomerative Clustering
  • the correspondence information acquisition means E322 excludes the correspondence information corresponding to the relational information not included in the group from the correspondence information corresponding to each of the three or more character strings acquired by the character string acquisition unit C31, and the remaining two or more correspondences. Get information only.
  • the area specific information acquisition unit E34 acquires, for example, representative values (for example, median value and average value) of two or more relative vertical distances for each side.
  • the area specific information acquisition unit E34 acquires the position information with respect to the point of the representative value of the relative vertical distance for each side, for example.
  • the area identification information acquisition unit E34 acquires the latitude or longitude of each side by, for example, "distance relationship information (MPP) x representative value of relative vertical distance" for each side.
  • MPP distance relationship information
  • Step S2404 The relationship information acquisition unit E31 acquires the coordinate information of each of the two points in the i-th set, and calculates the relative angle of the two points from the two coordinate information.
  • Step S2506 The area specific information acquisition unit E34 acquires the j-th target information to be processed.
  • Step S2508 The area identification information acquisition unit E34 uses the position information of the j-th target information, the linear distance calculated in step S2507, and the representative value (for example, MPP) of the distance-related information to the i-th side.
  • the position information of each of the two end points of is acquired.
  • the position information of each of these two end points is used as edge information.
  • the area identification information acquisition unit E34 acquires representative values (for example, median value and average value) of two or more edge information for the i-th edge.
  • the representative value is representative side information.
  • the representative edge information is, for example, the information of the middle line of two or more edge information.
  • the representative edge information is, for example, the average value of each of the two endpoints of the two or more edge information.
  • edge information 1 edge information 1 (x 11 , y 11 ) (x 12 , y 12 ) and edge information 2 (x 21 , y 21 ) (x 22 , y 22 )
  • the average value is representative edge information is ((x 11 + x 21/ 2), (y 11 + y 21/2)) ((x 12 + x 22/2), (y 12 + y 22/2)).
  • step S2105 an example of the direction information acquisition process in step S2105 will be described with reference to the flowchart of FIG.
  • Step S2601 The direction information acquisition unit E39 substitutes 1 for the counter i.
  • Step S2701 The additional point acquisition unit E35 substitutes 1 for the counter i.
  • Step S2705 The additional coordinate acquisition unit E37 acquires the coordinate information corresponding to the position information acquired in step S2703.
  • Step S2707 The additional point acquisition unit E35 determines whether or not to place the point information acquired in step S2706 in the map representation data. If it is arranged, it goes to step S2708, and if it is not arranged, it goes to step S2709. The additional point acquisition unit E35 determines that the additional point acquisition unit E35 is arranged in the map representation data, for example, when one or more attribute values corresponding to the point information acquired in step S2706 satisfy a predetermined condition.
  • the correspondence information acquisition unit E32 constitutes correspondence information having the correspondence information acquired in step S2703 and the coordinate information acquired in step S2705.
  • Step S2710 The corresponding output unit E41 accumulates the corresponding information configured in step S2709.
  • Step S2711 The counter i is incremented by 1. Return to step S2702.
  • Step S2801 The output unit E4 acquires the map representation data to be processed. It is preferable that the map representation data here is data in which points have been added by the above-mentioned point addition process.
  • the processing unit E3 acquires the current position information.
  • the processing unit E3 may have a current position information acquisition unit D31.
  • Step S2803 The processing unit E3 acquires the coordinate information corresponding to the current position information acquired in step S2802 by using the corresponding information of two or more.
  • the processing unit E3 may have a coordinate information acquisition unit D32.
  • Step S2804 The processing unit E3 configures the current location additional map representation data in which the position indicated by the coordinate information acquired in step S2803 is clearly indicated on the map representation data.
  • the processing unit E3 may have a data configuration unit D33.
  • Step S2805 The processing unit E3 acquires the area identification information acquired by the above area identification process.
  • direction information and scale information may be added to the current location additional map representation data.
  • map representation data of FIG. 30 is now stored in the map representation data storage unit C12.
  • the map representation data is appropriately referred to as an input image.
  • the map representation data reception unit C21 reads the input image from the map representation data storage unit C12.
  • the character string acquisition unit C31 performs character recognition processing (OCR) on the input image, and lists the character strings “Takatsu Post Office”, “Kajigaya Station”, “2015”, “Kawasaki Citizen's Plaza”, and “Toranomon Hospital Branch”. It is assumed that the "cargo terminal" has been acquired.
  • OCR character recognition processing
  • the classification unit C32 determines whether or not each character string acquired by the character string acquisition unit C31 is point information by using a machine learning technique (here, LSTM Neural Network). Is not the point information, and the point information flag "-1" is written.
  • LSTM Neural Network a machine learning technique
  • the point information flag is a flag for determining whether or not the character string is point information.
  • the location information acquisition unit C36 searches the point dictionary using each character string "Takatsu Post Office”, “Kajigaya Station”, “Kawasaki Citizen's Plaza”, “Toranomon Hospital Branch”, and "Cargo Terminal” as keys, and each character. Acquire the position information (latitude, longitude) corresponding to the column. Then, for example, the information shown in FIG. 32 can be obtained.
  • the relationship information acquisition unit E31 performs the inspection process using the distance relationship information as follows.
  • the related information acquisition department E31 is 2 of the C1 "Takatsu Post Office", C2 "Kajigaya Station", C3 "Kawasaki Citizen's Plaza”, C4 "Toramon Hospital Branch", and C5 "Cargo Terminal”.
  • Relative distance which is the difference in coordinate information between points belonging to each set of two points, "C1-C2", “C1-C3", “C2-C4", “C3-C4", "C3-C5", and "C4-C5". (Here, the number of pixels) is calculated from the coordinate information of each point.
  • the relationship information acquisition unit E31 is a point belonging to each group of two points, "C1-C2", “C1-C3", “C2-C4", “C3-C4", “C3-C5", and “C4-C5".
  • the absolute distance (here, meters) which is the difference in the position information between the two, is calculated from the position information of each point.
  • the relationship information acquisition unit E31 calculates the distance relationship information (here, MPP) of each set of the two points by "absolute distance / relative distance” using the relative distance and the absolute distance (FIG. 33). reference). Then, as a result of such processing, a table of distance-related information of FIG. 34 is obtained.
  • the correspondence information acquisition unit E32 clusters the distance-related information shown in FIG. 34, and "0.45", “0.41”, “0.33”, “0.41”, “0.37”, and “0.44". Group and the group of “523”, “470”, “941", and “809”. Then, the corresponding information acquisition unit E32 has the point identifiers "C1” and “0.44" corresponding to the groups of "0.45", “0.41”, “0.33”, “0.41”, “0.37” and "0.44". Obtain the point identifiers "C5" corresponding to the groups "C2", “C3", “C4" and “523”, "470”, "941", and "809".
  • the correspondence information acquisition unit E32 selects the point identifiers of a group in which the number of point identifiers satisfies a predetermined condition.
  • the predetermined conditions are, for example, "the largest number of point identifiers", "the number of point identifiers is a threshold value (for example, 3) or more", and "the number of point identifiers is a threshold value (for example, 5)”. More. " Then, the correspondence information acquisition unit E32 acquires the point identifiers “C1”, “C2”, “C3”, and “C4”.
  • the correspondence information acquisition department E32 selects "Takatsu Post Office”, “Kajigaya Station”, “Kawasaki Shimin Plaza”, and “Toranomon Hospital Branch”, and excludes (deletes) the "cargo terminal".
  • a table of distance-related information of FIG. 35 is obtained. In other words, as a result of inspection processing using distance-related information, "cargo terminal" was excluded.
  • the relationship information acquisition unit E31 performs an inspection process using the angle relationship information as follows.
  • the related information acquisition department E31 is a set of two points "C1" out of each point of C1 "Takatsu Post Office", C2 "Kajigaya Station", C3 "Kawasaki Shimin Plaza", and C4 "Toranomon Hospital Branch”.
  • -Acquire the relative angle and the absolute angle between the points belonging to each set of "C2", “C1-C3", “C2-C4", and "C3-C4".
  • the relationship information acquisition unit E31 calculates the relative angle of the two points using the coordinate information of the two points forming the set.
  • the relationship information acquisition unit E31 calculates the absolute angle of the two points using the position information of the two points constituting the set.
  • 3601 in FIG. 36 is an image of a relative angle between C1 and C3 (an angle with reference to the base in a rectangular input image).
  • 3602 in FIG. 36 is an image of an absolute angle between C1 and C3 (an angle based on the east-west direction in the real world).
  • the relationship information acquisition unit E31 calculates the angle relationship information (Rotation) using the relative angle and the absolute angle.
  • the related information acquisition unit E31 obtains the information shown in FIG. 37. Further, the information in which the information shown in FIG. 37 is tabulated is shown in FIG. 38. Further, the relationship information acquisition unit E31 calculates (cos (angle relationship information), sin (angle relationship information)) from the angle relationship information of FIG. 38, and calculates vector data for each set of two points ( See FIG. 39). Note that the vector data may be considered as angle-related information.
  • the correspondence information acquisition unit E32 clusters the vectors of FIG. 39, and groups 1 “(cos (-2), sin (-2)) (cos (-1), sin (-2))”, and Group 2 “ (Cos (-40), sin (-40)) (cos (-24), sin (-24)) (cos (-32), sin (-32)) (cos (-26), sin (-26) )) ”Is acquired. Then, the correspondence information acquisition unit E32 obtains the point identifier "C2" corresponding to the group 1 and the point identifiers "C1", "C3", and "C4" corresponding to the group 2.
  • the correspondence information acquisition unit E32 selects the point identifiers of a group in which the number of point identifiers satisfies a predetermined condition. Then, it is assumed that the correspondence information acquisition unit E32 has acquired the point identifiers "C1", “C3", and "C4". That is, the correspondence information acquisition department E32 selects "Takatsu Post Office”, “Kawasaki Shimin Plaza”, and “Toranomon Hospital Branch”, and excludes (deletes) "Kajigaya Station".
  • the correspondence information acquisition unit E32 is, for example, an appropriate value of the group 2 “(cos (-40), sin (-40)) (cos (-24), sin (-24)). ) (Cos (-32), sin (-32)) (cos (-26), sin (-26)) ”, create a link between the points, and create the largest closed space point identifiers“ C1 ”and“ You may acquire "C3" and "C4". Further, the correspondence information acquisition unit E32 may, for example, create a link between points corresponding to appropriate values in group 2 and perform a process of deleting the point identifier “C2” that is not a closed space.
  • the correspondence information acquisition department E32 has selected three points, "Takatsu Post Office”, “Kawasaki Shimin Plaza”, and “Toranomon Hospital Branch”, as the points of the correspondence information to be accumulated. Then, the correspondence information acquisition unit E32 acquires the correspondence information (coordinate information, position information) of each of the three points.
  • the correspondence information may be linked with a character string (name of a point).
  • the corresponding output unit E41 accumulates the acquired three corresponding information.
  • the storage destination of the correspondence information is, for example, the correspondence information storage unit C14 or an external device (not shown).
  • the correspondence information acquisition unit E32 obtains MPPs "0.41", “0.33”, and "0.44" corresponding to the three points "C1", “C3", and “C4".
  • the correspondence information acquisition unit E32 calculates the representative values (here, the average value) of the three MPPs and obtains “0.39” (see FIG. 41).
  • the scale acquisition unit E33 acquires the scale information (for example, “0.39”) using the representative value (MPP “0.39”) of the acquired distance-related information, and associates it with the input image. And accumulate.
  • the area identification information acquisition unit E34 performs the area identification process as follows. For example, first, the area identification information acquisition unit E34 detects each side (30a, 30b, 30c, 30d) of the area of the map of the input image of FIG. 30 by the contour extraction technique.
  • the technique for detecting the region by the contour extraction technique is a known technique.
  • the area identification information acquisition unit E34 acquires the relative distance (here, the number of pixels) "720" from the point of the point identifier "C1" to the right side 30a.
  • the relative distance is the number of pixels of the perpendicular line from the point "C1" to the right side 30a.
  • the area identification information acquisition unit E34 uses the representative value (0.39) of MPP and the number of pixels "720", and performs the calculation "720 x 0.39" to obtain the absolute distance "280 m" to the right side 30a. Is calculated.
  • the area identification information acquisition unit E34 uses the position information of "C1" and the absolute distance "280 m” to obtain the position information [35.5918, 139] to the right of the point "C1" in the right side 30a. .6053] has been obtained (see FIG. 43).
  • the area identification information acquisition unit E34 acquires the number of pixels "1199” from the point of the point identifier "C3" to the right side 30a. Further, the area identification information acquisition unit E34 multiplies the number of pixels "1199” and the representative value of MPP (0.39) to calculate the absolute distance "468m” from the point of the point identifier "C3" to the right side 30a. To do. Further, the area identification information acquisition unit E34 uses the position information of "C3" and the absolute distance "468m” to obtain the position information [35.5849,139.] Right right of the point of "C3" in the right side 30a. 6096] is acquired (see FIG. 43). Similarly, the area identification information acquisition unit E34 acquires the position information immediately to the right of the point “C4” in the right side 30a.
  • the area identification information acquisition unit E34 uses the position information and the direction information on the right side corresponding to each point of "C1", “C3", and “C4" to each place of "C1", “C3", and “C4".
  • the information on the right side from the point (straight line information) [44a, 44b, 44c] is acquired.
  • the conceptual diagram is shown in FIG. 44.
  • the area identification information acquisition unit E34 acquires the representative value of the right side (here, the median value 44c) from the information of the three right sides.
  • the representative value of this right side is determined as the boundary line of the right side in the accurate map information.
  • the representative value on the right side may be an average value.
  • the area specific information acquisition unit E34 performs the same processing as the acquisition process of the boundary line on the right side in the accurate map information, and performs the same processing as the acquisition process of the lower side (45a), the left side (45b), and the upper side (45c) in the accurate map information. Get border information.
  • the area identification information acquisition unit E34 receives the intersections (X 1 , Y 1 ) (X 2 , Y 2 ) (X 3 , Y 3 ) (X 4 , 4 ) of the four sides (44c, 45a, 45b, 45c). Y 4 ) is obtained (see FIG. 45). The intersection is (latitude, longitude).
  • the area identification information acquisition unit E34 obtains the area identification information for specifying the area of accurate map information corresponding to the area of the map in the input image.
  • the area identification information includes, for example, information on four intersections, information on two points (X 1 , Y 1 ) (X 3 , Y 3 ), or information on two points (X 2 , Y 2 ) (X 4 , Y). It is the information of 4 ).
  • the processing unit E3 reads out accurate map information including the area specified by the area identification information.
  • the processing unit E3 configures accurate map information in which the area specified by the area identification information is specified in the accurate map information.
  • the output unit E4 outputs accurate map information in which the area specified by the area identification information is specified.
  • An output example of such accurate map information is shown in FIG. The area is rectangular, which is 4601.
  • the additional point acquisition unit E35 searches the point dictionary and acquires one or more point position information within the area specified by the area identification information.
  • the additional point acquisition unit E35 acquires the point information possessed by one or more point position information.
  • the additional coordinate acquisition unit E37 acquires the coordinate information corresponding to the position information possessed by one or more point position information.
  • the point addition unit E38 arranges the character string of the acquired point information on the input image at the position indicated by the acquired coordinate information for each point position information.
  • the output unit E4 outputs the configured accurate map information. As described above, according to the present embodiment, it is possible to automatically acquire appropriate correspondence information in which coordinate information such as a place name on map representation data and position information are associated with each other.
  • the range in the real world supported by the map representation data can be acquired.
  • new point information can be added to the map representation data.
  • the direction information of the map representation data can be acquired.
  • map representation data processing device D described in the third embodiment can clearly indicate the current position on the map representation data by using one or two or more correspondence information automatically acquired in the present embodiment.
  • the current location can be indicated on the map representation data by using two or more correspondence information automatically acquired by the map representation data processing device E.
  • the processing in the present embodiment may be realized by software. Then, this software may be distributed by software download or the like. Further, this software may be recorded on a recording medium such as a CD-ROM and disseminated. It should be noted that this also applies to other embodiments herein.
  • the software that realizes the information processing device in this embodiment is the following program. That is, this program uses a computer as a map representation data reception unit that accepts map representation data that is one or more types of maps of illustration maps, handwritten maps, and schematic maps, and three or more of the map representation data.
  • a character string acquisition unit that acquires a character string, and a coordinate information acquisition unit that acquires coordinate information in the map representation data, which is coordinate information corresponding to each of three or more character strings acquired by the character string acquisition unit.
  • Each of the three or more character strings acquired by the character string acquisition unit using a point dictionary having one or more point position information that associates the point information that specifies the point with the position information that specifies the position of the point.
  • the position information acquisition unit that acquires the position information corresponding to the point information and the correspondence information that is a set of the coordinate information and the position information corresponding to each of the three or more character strings acquired by the character string acquisition unit.
  • relationship information acquisition unit that acquires relationship information related to relationships and the relationship information, only two or more correspondence information corresponding to the relationship information that satisfies a predetermined relationship is acquired from the three or more correspondence information. It is a program for functioning as a correspondence information acquisition unit and a correspondence output unit for accumulating two or more correspondence information acquired by the correspondence information acquisition unit.
  • FIG. 47 shows the appearance of a computer that executes the program described in the present specification to realize the map representation data processing device C and the like of the various embodiments described above.
  • the above embodiments can be realized in computer hardware and computer programs running on it.
  • FIG. 47 is an overview view of the computer system 300
  • FIG. 48 is a block diagram of the system 300.
  • the computer system 300 includes a computer 301 including a CD-ROM drive, a keyboard 302, a mouse 303, and a monitor 304.
  • the computer 301 in addition to the CD-ROM drive 3012, the computer 301 is connected to the MPU 3013, the bus 3014 connected to the CD-ROM drive 3012 and the like, the ROM 3015 for storing programs such as the bootup program, and the MPU 3013. It includes a RAM 3016 that is connected and for temporarily storing instructions of an application program and providing a temporary storage space, and a hard disk 3017 for storing an application program, a system program, and data.
  • the computer 301 may further include a network card that provides a connection to the LAN.
  • the program for causing the computer system 300 to execute the functions of the map representation data processing device C and the like according to the above-described embodiment is stored in the CD-ROM 3101, inserted into the CD-ROM drive 3012, and further transferred to the hard disk 3017. Is also good.
  • the program may be transmitted to the computer 301 via a network (not shown) and stored on the hard disk 3017.
  • the program is loaded into RAM 3016 at run time.
  • the program may be loaded directly from the CD-ROM3101 or network.
  • the program does not necessarily include an operating system (OS) that causes the computer 301 to execute functions such as the map representation data processing device C of the above-described embodiment, or a third-party program.
  • OS operating system
  • the program need only include a portion of the instruction that calls the appropriate function (module) in a controlled manner to obtain the desired result. It is well known how the computer system 300 works, and detailed description thereof will be omitted.
  • processing performed by hardware for example, processing performed by a modem or interface card in the transmission step (performed only by hardware). Processing is not included.
  • the number of computers that execute the above program may be singular or plural. That is, centralized processing may be performed, or distributed processing may be performed.
  • the two or more communication means existing in one device are physically one.
  • each process may be realized by centralized processing by a single device, or may be realized by distributed processing by a plurality of devices. That is, the map representation data processing device C may operate standalone.
  • the map representation data processing apparatus has an effect that coordinate information such as a place name on the map representation data and position information can be automatically acquired in association with each other, and is a map representation data processing apparatus. It is useful as such.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Library & Information Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Remote Sensing (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Processing Or Creating Images (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Instructional Devices (AREA)
  • Navigation (AREA)

Abstract

【課題】従来、地図表現データ上の地名等の座標情報と位置情報とを対応付けて自動的に取得できなかった。 【解決手段】地図表現データを受け付ける地図表現データ受付部と、地図表現データから文字列を取得する文字列取得部と、取得した文字列に対応する座標情報を取得する座標情報取得部と、地点情報と位置情報とを対応付ける1以上の地点位置情報を有する地点辞書を用いて、文字列である地点情報に対応する位置情報を取得する位置情報取得部と、座標情報と位置情報とを対応付けて出力する対応出力部とを具備する地図表現データ処理装置により、地図表現データ上の地名等の座標情報と位置情報とを対応付けて自動的に取得できる。

Description

地図表現データ処理装置、対応情報の生産方法、およびプログラム
 本発明は、地図表現データから取得した地点名と位置情報との対応を示す対応情報を自動的に取得し、出力する地図表現データ処理装置等に関するものである。
 従来、1以上の第一端末装置のユーザが、自身で作成したり、準備したりした手書きの地図や、イラスト地図などの地図をサーバ装置に登録し、1以上の第二端末装置のユーザが利用できる地図情報システムであり、当該地図にランドマーク等のオブジェクトの情報である地理情報を付与できる地図情報システムがあった(特許文献1参照)。
特開2011-158518号公報
 しかしながら、従来技術においては、手書きの地図やイラスト地図などの地図表現データ上の地名等の座標情報と位置情報とを対応付けて自動的に取得できなかった。
 本第一の発明の地図表現データ処理装置は、地点を特定する地点情報と地点の位置を特定する位置情報とを対応付ける情報である1以上の地点位置情報を有する地点辞書が格納される地点辞書格納部と、イラスト地図、手書き地図、略地図のうちのいずれか1以上の種類の地図である地図表現データを受け付ける地図表現データ受付部と、地図表現データから文字列を取得する文字列取得部と、文字列取得部が取得した文字列に対応する座標位置を特定する情報であり、地図表現データの中の相対的な座標位置を特定する情報である座標情報を取得する座標情報取得部と、地点辞書を用いて、文字列取得部が取得した文字列である地点情報に対応する位置情報を取得する位置情報取得部と、座標情報取得部が取得した座標情報と位置情報取得部が取得した位置情報とを対応付けて出力する対応出力部とを具備する地図表現データ処理装置である。
 かかる構成により、地図表現データ上の地名等の座標情報と位置情報とを対応付けて自動的に取得できる。
 また、本第二の発明の地図表現データ処理装置は、第一の発明に対して、文字列取得部は、地図表現データから2以上の文字列を取得し、文字列取得部が取得した2以上の各文字列が地点を特定する文字列であるか否かを判断する分類部をさらに具備し、対応出力部は、分類部が地点を特定する文字列であると判断した文字列に対応する座標情報と位置情報とを対応付けて出力する地図表現データ処理装置である。
 かかる構成により、地図表現データ上の適切な地名等の文字列を抽出し、当該地名等の座標情報と位置情報とを対応付けて自動的に取得できる。
 また、本第三の発明の地図表現データ処理装置は、第二の発明に対して、2以上の文字を有する文字列と、地点辞書での出現回数に関するラベルであり、2または3種類以上のラベルのうちのいずれかのラベルとを有する2以上の学習元情報を機械学習の学習モジュールに与え、学習モジュールを実行し、取得された学習器が格納される学習器格納部をさらに具備し、分類部は、文字列取得部が取得した2以上の各文字列と学習器とを用いて、機械学習の技法により2以上の各文字列に対して、地点情報または非地点情報のいずれかを決める分類処理を行い、対応出力部は、分類部が地点情報に分類した文字列に対応する座標情報と位置情報とを対応付けて出力する地図表現データ処理装置である。
 かかる構成により、地図表現データ上の適切な地名等の文字列を精度高く抽出し、当該地名等の座標情報と位置情報とを対応付けて自動的に取得できる。
 また、本第四の発明の地図表現データ処理装置は、第一から第三いずれか1つの発明に対して、地図表現データから、予め決められた特徴的な図柄である特徴図柄が表出している箇所である特徴箇所を検出する特徴箇所検出部をさらに具備し、座標情報取得部は、特徴図柄に対応する座標情報を取得し、位置情報取得部は、地点辞書を用いて、特徴図柄に対応する文字列である地点情報に対応する位置情報を取得する地図表現データ処理装置である。
 かかる構成により、地図表現データ上の図形特徴点を取得し、当該図形特徴点の座標情報と位置情報とを対応付けて自動的に取得できる。
 また、本第五の発明の地図表現データ処理装置は、第四の発明に対して、特徴図柄は、交差点または橋のうちの1種類以上の図柄である地図表現データ処理装置である。
 かかる構成により、地図表現データ上の図形特徴点である交差点または橋の地点を取得し、当該地点の座標情報と位置情報とを対応付けて自動的に取得できる。
 また、本第六の発明の地図表現データ処理装置は、第一から第五いずれか1つの発明に対して、文字列取得部は、地図表現データから3以上の文字列を取得し、位置情報取得部が取得した3以上の位置情報のうち、予め決められた条件を満たすほど近い位置を示す2以上の位置情報を決定するグループ化部をさらに具備し、対応出力部は、グループ化部が決定した2以上の各位置情報と座標情報取得部が取得した2以上の各座標情報とを対応付けて出力する地図表現データ処理装置である。
 かかる構成により、地図表現データ上の適切な地名等の文字列を抽出し、当該地名等の座標情報と位置情報とを対応付けて自動的に取得できる。
 また、本第七の発明の地図表現データ処理装置は、第六の発明に対して、正確な地図情報である正確地図情報が格納される正確地図情報格納部と、グループ化部が決定した2以上の位置情報が示す位置を含む領域であり、正確地図情報の中の領域を特定する領域特定情報を取得する領域特定情報取得部と、領域特定情報が特定する領域が分かる態様で、正確地図情報を出力する正確地図情報出力部とをさらに具備する地図表現データ処理装置である。
 かかる構成により、地図表現データに対応する正確地図情報の範囲を明確化できる。
 また、本第八の発明の地図表現データ処理装置は、第七の発明に対して、領域特定情報取得部は、グループ化部が決定した2以上の位置情報が示す位置を含む領域であり、正確地図情報の中の領域である第一領域を特定する第一領域特定情報を取得する第一領域特定情報取得手段と、位置情報取得部が取得した位置情報のうち、最も外側に位置する1以上の各位置情報に対応する文字列を決定する外側文字列決定手段と、外側文字列決定手段が決定した1以上の文字列の外側であり、地図表現データの隅までのサイズに関するサイズ情報を取得するサイズ情報取得手段と、座標情報取得部が取得した座標情報と位置情報取得部が取得した位置情報との組を2組以上用いて、サイズ情報取得手段が取得したサイズ情報に対応する距離を特定する距離情報を取得する距離情報取得手段と、距離情報を用いて、第一領域特定情報が特定する第一領域を広げた領域である第二領域を特定する第二領域特定情報を取得する第二領域特定情報取得手段とを具備し、正確地図情報出力部は、第二領域特定情報が特定する領域が分かる態様で、正確地図情報を出力する地図表現データ処理装置である。
 かかる構成により、地図表現データに対応する正確地図情報の適切な範囲を明確化できる。
 また、本第九の発明の地図表現データ処理装置は、第七または第八の発明に対して、領域特定情報または第二領域特定情報は、矩形を構成する2点の情報を含み、領域特定情報または第二領域特定情報を用いて、地図表現データの方角に関する方角情報を取得する方角情報取得部と、方角情報を出力する方角情報出力部とをさらに具備する地図表現データ処理装置である。
 かかる構成により、地図表現データの方角に関する方角情報を得ることができる。
 また、本第十の発明の地図表現データ処理装置は、第一から第四いずれか1つの発明に対して、文字列取得部が取得した3以上の各文字列に対応する座標情報と位置情報との組である対応情報の間の関係に関する関係情報を取得する関係情報取得部と、関係情報を用いて、3以上の対応情報の中で、予め決められた関係を満たす関係情報に対応する2以上の対応情報のみを取得する対応情報取得部と、対応情報取得部が取得した2以上の対応情報を蓄積する対応出力部とをさらに具備する地図表現データ処理装置である。
 かかる構成により、地図表現データ上の地名等の座標情報と位置情報とを対応付けた適切な対応情報を自動的に取得できる。
 また、本第十一の発明の地図表現データ処理装置は、第十の発明に対して、関係情報取得部は、文字列取得部が取得した3以上の文字列のうちの2つの各文字列に対応する対応情報の間の相対的な関係情報を、2つの文字列の組ごとに取得し、対応情報取得部は、関係情報取得部が取得した3以上の関係情報をグループ化し、グループに入らない関係情報を決定する判断手段と、文字列取得部が取得した3以上の各文字列に対応する対応情報の中から、グループに入らない関係情報に対応する対応情報を除き、残った2以上の対応情報のみを取得する対応情報取得手段とを具備する地図表現データ処理装置である。
 かかる構成により、地図表現データ上の地名等の座標情報と位置情報とを対応付けた適切な対応情報を自動的に取得できる。
 また、本第十二の発明の地図表現データ処理装置は、第十または第十一の発明に対して、関係情報取得部は、2つの文字列の組ごとに、2つの文字列の座標情報の差異である相対距離と2つの文字列の位置情報の差異である絶対距離との関係を示す関係情報である距離関係情報を取得し、対応情報取得部は、3以上の各距離関係情報が予め決められた関係を満たすか否かを判断し、文字列取得部が取得した3以上の各文字列に対応する対応情報の中から、予め決められた関係を満たさない距離関係情報に対応する対応情報を除き、残った2以上の対応情報のみを取得する地図表現データ処理装置である。
 かかる構成により、地図表現データ上の地名等の座標情報と位置情報とを対応付けた適切な対応情報を自動的に取得できる。
 また、本第十三の発明の地図表現データ処理装置は、第十二の発明に対して、3以上の距離関係情報から距離関係情報の代表値を取得し、距離関係情報の代表値を用いて、地図表現データの縮尺情報を取得する縮尺取得部と、縮尺情報を出力する縮尺情報出力部とをさらに具備する地図表現データ処理装置である。
 かかる構成により、地図表現データ上の地名等の座標情報と位置情報とを対応付けた適切な対応情報を自動的に取得できる。
 また、本第十四の発明の地図表現データ処理装置は、第十三の発明に対して、文字列取得部が取得した文字列に対応する座標情報と地図表現データの4辺のうちの各辺との垂直距離である相対垂直距離を取得し、相対垂直距離と縮尺情報とを用いて、地図表現データの実世界における範囲を特定する領域特定情報を取得する領域特定情報取得部と、領域特定情報を出力する領域特定情報出力部とをさらに具備する地図表現データ処理装置である。
 かかる構成により、地図表現データがサポートする実世界での範囲を取得できる。
 また、本第十五の発明の地図表現データ処理装置は、第十四の発明に対して、領域特定情報が示す範囲の地点情報を地点辞書から取得する追加地点取得部と、地点情報に対応する位置情報を地点辞書から取得する追加位置取得部と、位置情報に対応する座標情報を取得する追加座標取得部と、地図表現データの上の位置であり、座標情報が示す位置に地点情報を配置する地点追記部とをさらに具備する地図表現データ処理装置である。
 かかる構成により、地図表現データに新たな地点情報を付加できる。
 また、本第十六の発明の地図表現データ処理装置は、第十または第十一の発明に対して、関係情報取得部は、2つの文字列の組ごとに、2つの文字列の座標情報から得られる角度である相対角度と2つの文字列の位置情報から得られる角度である絶対角度との関係を示す関係情報である角度関係情報を取得し、対応情報取得部は、3以上の各角度関係情報が予め決められた関係を満たすか否かを判断し、文字列取得部が取得した3以上の各文字列に対応する対応情報の中から、予め決められた関係を満たさない角度関係情報に対応する対応情報を除き、残った2以上の対応情報のみを取得する地図表現データ処理装置である。
 かかる構成により、地図表現データ上の地名等の座標情報と位置情報とを対応付けた適切な対応情報を自動的に取得できる。
 また、本第十七の発明の地図表現データ処理装置は、第十六の発明に対して、3以上の角度関係情報から角度関係情報の代表値を取得し、角度関係情報の代表値を用いて、地図表現データの方角を示す方角情報を取得する方角情報取得部と、方角情報を出力する方角情報出力部とをさらに具備する地図表現データ処理装置である。
 かかる構成により、地図表現データの方角情報を取得できる。
 また、本第十八の発明の地図表現データ処理装置は、地図表現データが格納される地図表現データ格納部と、第一から第十七いずれか1つの地図表現データ処理装置が出力した座標情報と位置情報取得部が取得した位置情報との組である2以上の対応情報が格納される対応情報格納部と、現在位置を特定する現在位置情報を取得する現在位置情報取得部と、2以上の対応情報を用いて、現在位置情報に対応する座標情報を取得する座標情報取得部と、地図表現データの上に、座標情報が示す位置が明示された地図表現データである現在地付加地図表現データを構成するデータ構成部と、現在地付加地図表現データを出力する地図表現データ出力部とを具備する地図表現データ処理装置である。
 かかる構成により、自動取得された2以上の対応情報を用いて、地図表現データの上に現在地を示すことができる。
 本発明による地図表現データ処理装置によれば、地図表現データ上の地名等の座標情報と位置情報とを対応付けて自動的に取得できる。
実施の形態1における学習装置Aのブロック図 分類装置Bのブロック図 学習装置Aの動作例について説明するフローチャート 同分類装置Bの動作例について説明するフローチャート 同学習装置Aと分類装置Bの具体的な動作例の説明図 同学習元情報の例を示す図 実施の形態2における地図表現データ処理装置Cのブロック図 同地図表現データ処理装置Cの動作例について説明するフローチャート 同グループ化処理の例について説明するフローチャート 同領域特定処理の例について説明するフローチャート 同方角取得処理の例について説明するフローチャート 同出力処理の例について説明するフローチャート 同地図表現データ等の例を示す図 同地図表現データ等の例を示す図 同地点辞書の例を示す図 同対応情報管理表の例を示す図 実施の形態3における地図表現データ処理装置Dのブロック図 同地図表現データ処理装置Dの動作例について説明するフローチャート 実施の形態4における地図表現データ処理装置Eのブロック図 同地図表現データ処理装置Eを構成する処理部E3のブロック図 同地図表現データ処理装置Eの動作例について説明するフローチャート 同対応情報取得処理の例について説明するフローチャート 同距離関係情報取得処理の例について説明するフローチャート 同角度関係情報取得処理の例について説明するフローチャート 同領域特定処理の例について説明するフローチャート 同方角情報取得処理の例について説明するフローチャート 同地点追加処理の例について説明するフローチャート 同出力地図構成処理の例について説明するフローチャート 同地図表現データ処理装置Eの具体的な処理例を示す図 同地図表現データの例を示す図 同地図表現データ処理装置Eが処理途中に取得する情報の例を示す図 同地図表現データ処理装置Eが処理途中に取得する情報の例を示す図 同地図表現データ処理装置Eが処理途中に取得する情報のイメージを示す図 同地図表現データ処理装置Eが処理途中に取得する情報の例を示す図 同地図表現データ処理装置Eが処理途中に取得する情報の例を示す図 同地図表現データ処理装置Eが処理途中に取得する情報のイメージを示す図 同地図表現データ処理装置Eが処理途中に取得する情報のイメージを示す図 同地図表現データ処理装置Eが処理途中に取得する情報の例を示す図 同地図表現データ処理装置Eが処理途中に取得する情報の例を示す図 同地図表現データ処理装置Eの処理を説明するイメージ図 同地図表現データ処理装置Eの処理を説明するイメージ図 同地図表現データ処理装置Eの出力例を示す図 同地図表現データ処理装置Eの処理を説明するイメージ図 同地図表現データ処理装置Eの処理を説明するイメージ図 同地図表現データ処理装置Eの処理を説明するイメージ図 同地図表現データ処理装置Eの正確地図情報の出力例を示す図 上記実施の形態におけるコンピュータシステムの概観図 同コンピュータシステムのブロック図
 以下、地図表現データ処理装置等の実施形態について図面を参照して説明する。なお、実施の形態において同じ符号を付した構成要素は同様の動作を行うので、再度の説明を省略する場合がある。
 (実施の形態1)
 本実施の形態において、2以上の文字を有する文字列と、文字列を分類するためのラベルとを有する2以上の学習元情報を機械学習の技法により学習し、学習器を構成する学習装置について説明する。なお、ラベルは、地点辞書での出現回数に関するラベルであり、2または2種類以上のラベルのいずれかのラベルである。また、ラベルは、出現頻度が1、0、2以上の3種類のうちのいずれかであることは好適である。なお、機械学習の技法を用いることは、機械学習のアルゴリズムを用いることと同意義である。
 また、本実施の形態において、学習モジュールに対して、文字列を文字ごとに与え(文字列のストリームを与え)、学習させ、学習器を構成する学習装置について説明する。
 さらに、本実施の形態において、学習装置が構成した学習器を用いて、分類モジュールに文字列を与え、当該文字列に対応するラベルを取得する分類装置について説明する。なお、分類モジュールは、予測モジュールと言っても良い。
 図1は、本実施の形態における学習装置Aのブロック図である。また、図2は、本実施の形態における分類装置Bのブロック図である。
 学習装置Aは、格納部A1、受付部A2、処理部A3、および出力部A4を備える。格納部A1は、学習元情報格納部A11、および学習器格納部A12を備える。処理部A3は、学習部A31を備える。出力部A4は、蓄積部A41を備える。
 分類装置Bは、格納部B1、受付部B2、処理部B3、および出力部B4を備える。格納部B1は、学習器格納部A12を備える。受付部B2は、文字列受付部B21を備える。処理部B3は、分類部B31を備える。出力部B4は、ラベル出力部B41を備える。
 学習装置Aを構成する格納部A1には、各種の情報が格納される。各種の情報とは、例えば、後述する学習元情報、後述する学習器、学習モジュールである。学習モジュールは、学習部A31を構成するプログラムであり、学習器を取得するためのプログラムである。学習モジュールは、例えば、fastText、tinySVM、TensorFlow等の機械学習フレームワークにおける関数や各種のrandom forest関数等である。
 学習元情報格納部A11には、2以上の学習元情報が格納される。学習元情報は、学習の対象の情報である。学習元情報は、文字列とラベルとを有する。文字列は、2以上の文字を有する。ラベルは、後述する地点辞書での出現回数に関する情報である。ラベルは、2または3種類以上のラベルのうちのいずれかの情報を採り得る。
 ラベルは、地点辞書での出現回数は1回であることを示す第一ラベル、地点辞書での出現回数が0回であることを示す第二ラベル、地点辞書での出現回数が2回以上であることを示す第三ラベルのうちのいずれかであることは好適である。つまり、ラベルは、3つのうちの情報のいずれかを採り得ることは好適である。
 地点辞書とは、地点名に関する辞書である。地点辞書は、例えば、地点名と当該地点名で特定される箇所の位置を特定する位置情報とを有する2以上の対応情報を有する。地点名とは、例えば、地名、ランドスケープ名、特定の地点の名称、都道府県名、市町村名、川や山や公園や名勝等の名前です。地点辞書は、例えば、地点名と当該地点名で特定される地点の説明の情報とを有する2以上の対応情報を有する。
 学習器格納部A12には、学習器が格納される。学習器は、分類器と言っても良い。また、学習器は、分類モデル、予測モデル等と言っても良い。学習器は、機械学習の技法を採用する学習モジュールにより取得される情報である。機械学習の技法は、深層学習、SVM、決定木、ランダムフォレスト等、問わない。機械学習の技法は、例えば、回帰型ニューラルネットワーク(RNN)を用いる技法であることは好適である。つまり、学習器は、RNNであることは好適である。
 受付部A2は、各種の情報や指示を受け付ける。ここで、受け付けとは、ユーザの入力の受け付け、外部の装置からの受信等である。ただし、受け付けにより、各種の情報や指示を取得できれば良い。各種の情報や指示の入力手段は、例えば、タッチパネルやキーボードやマウスやメニュー画面によるもの等、何でも良い。
 処理部A3は、各種の処理を行う。各種の処理は、例えば、学習部A31が行う処理である。
 学習部A31は、学習元情報格納部A11の2以上の学習元情報を用いて、機械学習の技法による学習処理を行い、学習器を取得する。
 学習部A31は、例えば、学習元情報格納部A11の2以上の各学習元情報が有する文字列を構成する各文字を順番に機械学習の学習モジュールに与え、かつ文字列と対になるラベルを学習モジュールに与え、当該学習モジュールを実行し、学習器を取得する。なお、文字列を構成する各文字を順番に機械学習の学習モジュールに与える処理は、例えば、文字列のストリームを機械学習の学習モジュールに与える処理である、と言っても良い。つまり、学習部A31は、2以上の各学習元情報が有する文字列のストリームを学習する、と言っても良い。また、機械学習の学習モジュールは、例えば、格納部A1に格納されている。
 また、学習器を取得するための機械学習の技法は、例えば、深層学習、SVR、ランダムフォレスト、決定木等が使用可能である。また、機械学習の学習モジュールは、例えば、fastText、tinySVM、TensorFlow等の機械学習フレームワークにおける関数や各種のrandom forest関数等である。
 また、学習部A31が取得する学習器は、文字列を入力として、機械学習の分類モジュールに与えた場合に、ラベルを出力するための情報である。学習部A31が取得する学習器は、例えば、文字列を構成する文字を1文字ずつ、順に与えた場合に、ラベルを出力するための情報である。
 なお、学習部A31は、学習モジュールを含むと考えても、学習モジュールを含まないと考えても良い。
 出力部A4は、各種の情報を出力する。各種の情報とは、例えば、学習器である。ここで、出力とは、通常、記録媒体への蓄積であるが、ディスプレイへの表示、プロジェクターを用いた投影、プリンタでの印字、音出力、外部の装置への送信、他の処理装置や他のプログラムなどへの処理結果の引渡しなどを含む概念である、と考えても良い。
 蓄積部A41は、学習部A31が取得した学習器を蓄積する。蓄積部A41は、通常、学習器格納部A12に学習部A31が取得した学習器を蓄積する。ただし、蓄積部A41は、外部の図示しない装置に学習部A31が取得した学習器を送信しても良い。
 分類装置Bを構成する格納部B1には、各種の情報が格納される。各種の情報とは、例えば、学習器、機械学習の分類モジュール、地図情報である。
 機械学習の分類モジュールにおける機械学習の技法は、深層学習、SVM、決定木、ランダムフォレスト等、問わない。機械学習の技法は、例えば、回帰型ニューラルネットワークを用いる技法であることは好適である。分類モジュールは、受け付けられた文字列の分類のためのプログラムであり、例えば、fastText、tinySVM、TensorFlow等の機械学習フレームワークにおける関数や各種のrandom forest関数等である。
 地図情報は、地図に関する情報である。地図情報は、例えば、地図表現データである。地図表現データとは、表現する地理的な領域が限られている情報である。地図表現データは、地図表現データを識別する地図識別子と対応付いていることは好適である。地図識別子は、例えば、ID、地図表現データを有するファイル名、地図表現データの名称等である。地図表現データは、例えば、古地図、イラストマップ、略地図、手書き地図等であるが、その種類は問わない。地図表現データは、通常、画像データであるが、ベクトルデータ等でも良く、データ構造は問わない。地図表現データは、1または2以上の属性値に対応付けられている。1以上の属性値は、地図表現データの属性値である。属性値は、地図表現データの性質や特徴などを示す情報である。地図表現データに対応付けられている1以上の属性値は、領域特定情報を含む。領域特定情報は、地図表現データが表す領域を特定する情報である。領域は、通常、矩形であるが、三角形、八角形、円形等の、矩形以外の形状も良い。地図表現データが表す領域は、地図表現データが表現している領域と言っても良い。領域特定情報は、例えば、(緯度,経度)の集合である。また、領域特定情報は、例えば、基準点からの相対的な座標を示す情報の集合である。ただし、領域特定情報のデータ構造は問わず、領域を特定する情報であれば良い。
 地図表現データに対応付けられている1以上の属性値は、例えば、静的な属性値である静的属性値である。また、地図表現データに対応付けられている1以上の属性値は、例えば、動的に変化する動的属性値である。1以上の属性値は、1以上の静的属性値と1以上の動的属性値を含んでも良い。静的属性値は、例えば、地図表現データの地図としての縮尺率(適宜、単に「縮尺率」という)、地図表現データが示す領域の地図上での実施の面積(適宜、単に「面積」という)、地図の内容を示す内容情報である。内容情報は、地図表現データの完成度、地図表現データのテーマ、地図表現データに対応するメタデータ、キーワード等である。メタデータ、キーワードは、例えば、地図表現データの種類、地図表現データの領域に存在するランドスケープ名、地名等である。地図表現データの種類は、例えば、テーマパークの地図であることを示す「テーマパーク」、観光用の地図であることを示す「観光地図」、特定の領域(例えば、学校など)の地図であることを示す情報等である。また、1以上の静的属性値は、例えば、位置特定情報が示す位置を明示することを示すフラグ、または位置特定情報が示す位置を明示できないことを示すフラグ等でも良い。動的属性値は、例えば、位置特定情報が示す位置と地図表現データを代表する地点との距離、地図表現データに対するユーザのアクションに関するユーザアクション情報である。
 なお、地図表現データを代表する地点とは、例えば、地図表現データの重心点、地図表現データの端のいずれかの点、地図表現データの領域の境界を構成するいずれかの点である。
 地図表現データは、ファイルに含まれることは好適である。ただし、地図表現データは、データベース内のデータでも良く、そのデータフォーマット、管理方法は問わない。地図表現データがファイルに含まれる場合、当該ファイルに2以上の地図表現データが含まれていても良い。また、一の地図表現データが2以上のファイルにより実現されても良い。つまり、一つの地図表現データが2以上のファイルに分割されていても良い。
 分類装置Bを構成する学習器格納部A12には、学習装置Aが蓄積した学習器が格納される。
 受付部B2は、各種の情報や指示を受け付ける。ここで、受け付けとは、例えば、ユーザの入力の受け付け、外部の装置からの受信等である。ただし、受け付けにより、各種の情報や指示を取得できれば良い。各種の情報や指示の入力手段は、例えば、タッチパネルやキーボードやマウスやメニュー画面によるもの等、何でも良い。
 文字列受付部B21は、文字列を受け付ける。ここで、受け付けとは、例えば、キーボードやマウス、タッチパネルなどの入力デバイスから入力された情報の受け付け、有線もしくは無線の通信回線を介して送信された情報の受信、光ディスクや磁気ディスク、半導体メモリなどの記録媒体から読み出された情報の受け付けなどを含む概念である。
 文字列受付部B21は、例えば、地図情報に対して、文字認識処理を行い、1以上の文字列を取得する。
 処理部B3は、各種の処理を行う。各種の処理は、例えば、分類部B31が行う処理である。
 分類部B31は、受付部B2が受け付けた文字列と学習器格納部A12の学習器とを用いて、機械学習の技法により、当該文字列に対応するラベルを取得する。
 分類部B31は、例えば、受付部B2が受け付けた文字列を構成する2以上の各文字を文字毎に順番に機械学習の分類モジュールに与え、かつ学習器格納部A12の学習器を前記分類モジュールに与え、当該分類モジュールを実行し、ラベルを取得する。
 なお、分類部B31は、分類モジュールを含むと考えても、分類モジュールを含まないと考えても良い。
 出力部B4は、各種の情報を出力する。各種の情報とは、例えば、分類部B31が取得したラベルである。
 ラベル出力部B41は、分類部B31が取得したラベルを出力する。ここで、出力とは、記録媒体への蓄積、ディスプレイへの表示、プロジェクターを用いた投影、プリンタでの印字、音出力、外部の装置への送信、他の処理装置や他のプログラムなどへの処理結果の引渡しなどを含む概念である、と考えても良い。
 格納部A1、学習元情報格納部A11、学習器格納部A12、格納部B1、および学習器格納部A12は、不揮発性の記録媒体が好適であるが、揮発性の記録媒体でも実現可能である。
 格納部A1等に情報が記憶される過程は問わない。例えば、記録媒体を介して情報が格納部A1等で記憶されるようになってもよく、通信回線等を介して送信された情報が格納部A1等で記憶されるようになってもよく、あるいは、入力デバイスを介して入力された情報が格納部A1等で記憶されるようになってもよい。
 受付部A2、受付部B2、および文字列受付部B21は、タッチパネルやキーボード等の入力手段のデバイスドライバーや、メニュー画面の制御ソフトウェア等で実現され得る。
 処理部A3、学習部A31、蓄積部A41、処理部B3、および分類部B31は、通常、MPUやメモリ等から実現され得る。処理部A3等の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。
 出力部A4、出力部B4、およびラベル出力部B41は、ディスプレイやスピーカー等の出力デバイスを含むと考えても含まないと考えても良い。出力部A4等は、出力デバイスのドライバーソフトまたは、出力デバイスのドライバーソフトと出力デバイス等で実現され得る。
 次に、学習装置Aの動作例について、図3のフローチャートを用いて説明する。
 (ステップS301)学習部A31は、カウンタiに1を代入する。
 (ステップS302)学習部A31は、学習元情報格納部A11にi番目の学習元情報が存在するか否かを判断する。i番目の学習元情報が存在する場合はステップS303に行き、i番目の学習元情報が存在しない場合はステップS312に行く。
 (ステップS303)学習部A31は、学習元情報格納部A11からi番目の学習元情報を取得する。
 (ステップS304)学習部A31は、カウンタjに1を代入する。
 (ステップS305)学習部A31は、ステップS303で取得したi番目の学習元情報が有する文字列の中に、j番目の文字が存在するか否かを判断する。j番目の文字が存在する場合はステップS306に行き、j番目の文字が存在しない場合はステップS309に行く。
 (ステップS306)学習部A31は、ステップS303で取得したi番目の学習元情報が有する文字列の中のj番目の文字を取得する。
 (ステップS307)学習部A31は、ステップS306で取得したj番目の文字を格納部A1の学習モジュールに与える。なお、文字を学習モジュールに与える処理は、例えば、関数またはメソッドである学習モジュールの引数として当該文字を与えること、実行モジュールである学習モジュールに当該文字を与えること等であり、学習モジュールが当該文字を使用した学習処理ができるようにすることであり、広く解釈する。
 (ステップS308)学習部A31は、カウンタjを1、インクリメントする。ステップS305に戻る。
 (ステップS309)学習部A31は、ステップS303で取得したi番目の学習元情報が有するラベルを取得する。
 (ステップS310)学習部A31は、ステップS309で取得したラベルを格納部A1の学習モジュールに与える。なお、ラベルを学習モジュールに与える処理は、例えば、関数またはメソッドである学習モジュールの引数として当該ラベルを与えること、実行モジュールである学習モジュールに当該ラベルを与えること等であり、学習モジュールが当該ラベルを使用した学習処理ができるようにすることであり、広く解釈する。
 (ステップS311)学習部A31は、カウンタiを1、インクリメントする。ステップS302に戻る。
 (ステップS312)学習部A31は、文字のストリーム、ラベルを与えられた学習モジュールを実行し、学習器を取得する。
 (ステップS313)蓄積部A41は、ステップS312で取得された学習器を学習器格納部A12に蓄積する。処理を終了する。
 次に、分類装置Bの動作例について、図4のフローチャートを用いて説明する。
 (ステップS401)文字列受付部B21は、文字列を受け付けたか否かを判断する。文字列を受け付けた場合はステップS402に行き、文字列を受け付けなかった場合はステップS401に戻る。
 (ステップS402)分類部B31は、カウンタiに1を代入する。
 (ステップS403)分類部B31は、ステップS401で受け付けられた文字列の中に、i番目の文字が存在するか否かを判断する。i番目の文字が存在する場合はステップS404に行き、i番目の文字が存在しない場合はステップS407に行く。
 (ステップS404)分類部B31は、ステップS401で受け付けられた文字列の中のi番目の文字を取得する。
 (ステップS405)分類部B31は、ステップS404で取得したi番目の文字を格納部B1の分類モジュールに与える。なお、文字を分類モジュールに与える処理は、例えば、関数またはメソッドである分類モジュールの引数として当該文字を与えること、実行モジュールである分類モジュールに当該文字を与えること等であり、分類モジュールが当該文字を使用した分類処理ができるようにすることであり、広く解釈する。
 (ステップS406)分類部B31は、カウンタiを1、インクリメントする。ステップS403に戻る。
 (ステップS407)分類部B31は、学習器格納部A12の学習器を格納部B1の分類モジュールに与える。なお、学習器を分類モジュールに与える処理は、例えば、関数またはメソッドである分類モジュールの引数として当該学習器を与えること、実行モジュールである分類モジュールに当該学習器を与えること、関数またはメソッドである分類モジュールの引数として当該学習器へのリンク情報を与えること、実行モジュールである分類モジュールに当該学習器へのリンク情報を与えること等であり、分類モジュールが当該学習器を使用した分類処理ができるようにすることであり、広く解釈する。
 (ステップS408)分類部B31は、分類モジュールを実行し、ラベルを取得する。
 (ステップS409)ラベル出力部B41は、ステップS408で取得したラベルを出力する。ステップS401に戻る。
 なお、図4のフローチャートにおいて、電源オフや処理終了の割り込みにより処理は終了する。
 以下、本実施の形態における学習装置Aと分類装置Bの具体的な動作例について、図5を用いて説明する。学習装置Aの処理は、学習フェーズ501である。分類装置Bの処理は、分類フェーズ502である。
 今、学習装置Aの学習元情報格納部A11には、図6に示す構造を有する多数の学習元情報が格納されている、とする。図6において、学習元情報は、文字列とラベルを有する。ラベルは、地点辞書での出現回数は1回であることを示す第一ラベル(値は「1」)、地点辞書での出現回数が0回であることを示す第二ラベル(値は「0」)、地点辞書での出現回数が2回以上であることを示す第三ラベル(値は「2」)のうちのいずれかである。
 そして、学習装置Aは、学習フェーズ501において、図6に記載の学習元情報をはじめ、多数の学習元情報を格納部A1の学習モジュールに与え、学習器を構成する。ここで、学習フェーズ501において、学習部A31は、学習元情報が有する文字列を構成する文字を、1文字ずつ順番に学習モジュールに与える。また、学習部A31は、学習元情報が有するラベルを学習モジュールに与える。そして、学習部A31は、学習モジュールを実行し、学習器を取得する。そして、蓄積部A41は、当該学習器504を学習器格納部A12に蓄積する。なお、ここで、学習モジュールは、例えば、503であり、ここでは、例えば、回帰型ニューラルネットワークのうちのLong short-term memory (LSTM) を用いたモジュールである。
 次に、分類フェーズ502において、分類装置Bの文字列受付部B21は、例えば、格納部B1の地図情報に対して、文字認識処理を行い、1以上の文字列を取得する。なお、画像である地図情報に対して、文字認識処理を行い、1以上の文字列を取得する処理は公知技術であるので、詳細な説明を省略する。
 そして、分類部B31は、1以上の各文字列ごとに、文字列を構成する文字を順番に分類モジュールに与え、かつ学習器504を分類モジュールに与え、当該分類モジュールを実行し、各文字列ごとに、第一ラベル、第二ラベル、第三ラベルに対応するスコアを取得する(505)。次に、分類部B31は、最も高いスコアのラベルを取得する。次に、ラベル出力部B41は、当該最も高いスコアのラベルを、文字列に対応付けて出力する(506)。
 以上、本実施の形態によれば、地点名に関する情報を適切に分類するための学習器を取得できる。
 また、本実施の形態によれば、地点名に関する情報を適切に分類できる。
 なお、本実施の形態における処理は、ソフトウェアで実現しても良い。そして、このソフトウェアをソフトウェアダウンロード等により配布しても良い。また、このソフトウェアをCD-ROMなどの記録媒体に記録して流布しても良い。なお、このことは、本明細書における他の実施の形態においても該当する。なお、本実施の形態における学習装置Aを実現するソフトウェアは、以下のようなプログラムである。つまり、このプログラムは、2以上の文字を有する文字列と、地点辞書での出現回数に関するラベルであり、2または3種類以上のラベルのうちのいずれかのラベルとを有する2以上の学習元情報が格納される学習元情報格納部にアクセス可能なコンピュータを、前記学習元情報格納部の2以上の各学習元情報が有する文字列を構成する各文字を文字毎に順番に機械学習の学習モジュールに与え、かつ前記文字列と対になるラベルを前記学習モジュールに与え、当該学習モジュールを実行し、学習器を取得する学習部と、前記学習器を蓄積する蓄積部として機能させるためのプログラムである。
 また、本実施の形態における分類装置Bを実現するソフトウェアは、以下のようなプログラムである。つまり、このプログラムは、学習装置Aが蓄積した学習器が格納される学習器格納部にアクセス可能なコンピュータを、文字列を受け付ける文字列受付部と、前記文字列を構成する2以上の各文字を文字毎に順番に機械学習の分類モジュールに与え、かつ前記学習器を前記分類モジュールに与え、当該分類モジュールを実行し、ラベルを取得する分類部と、前記ラベルを出力するラベル出力部として機能させるためのプログラムである。
 (実施の形態2)
 本実施の形態において、地図表現データから1以上の文字列を取得し、当該1以上の各文字列と対になる位置情報(緯度,経度)を取得し、当該1以上の各文字列の地図表現データ上での座標情報を取得し、当該1以上の各文字列の座標情報と位置情報とを対応付けて蓄積する地図表現データ処理装置について説明する。
 また、本実施の形態において、地図表現データから取得した1以上の文字列から、適切な文字列を決定し、当該適切な文字列のみに対応する座標情報と位置情報とを対応付けて蓄積する地図表現データ処理装置について説明する。なお、適切な文字列の決定処理に、実施の形態1で説明した学習装置Aが取得した学習器を用いることは好適である。さらに、適切な文字列の決定処理に、実施の形態1で説明した分類装置Bにおける分類処理を用いることは好適である。
 また、本実施の形態において、地図表現データから交差点等の1以上の図形特徴点を取得し、当該1以上の各図形特徴点と対になる位置情報を取得し、当該1以上の各図形特徴点に対応する座標情報を取得し、1以上の各図形特徴点の座標情報と位置情報とを対応付けて蓄積する地図情報生成装置について説明する。なお、図形特徴点は、交差点、橋のうち1種類以上であることは好適である。
 また、本実施の形態において、地図表現データから2以上の文字列を取得し、当該2以上の各文字列と対になる位置情報が予め決められた条件を満たすほど近い位置情報の集合を取得し、当該取得した位置情報の集合に対応する文字列のみに対応する座標情報と位置情報とを対応付けて蓄積する地図表現データ処理装置について説明する。
 また、本実施の形態において、地図表現データの領域に対応する正確地図情報における領域を決定する地図表現データ処理装置について説明する。なお、かかる場合、地図表現データにおける文字列が存在しない外側の領域を考慮して、正確地図情報における領域を決定することは好適である。
 さらに、本実施の形態において、地図表現データの方角情報を取得する地図表現データ処理装置について説明する。
 図7は、本実施の形態における地図表現データ処理装置Cのブロック図である。地図表現データ処理装置Cは、格納部C1、受付部C2、処理部C3、および出力部C4を備える。
 格納部C1は、地点辞書格納部C11、地図表現データ格納部C12、正確地図情報格納部C13、学習器格納部A12、および対応情報格納部C14を備える。受付部C2は、地図表現データ受付部C21を備える。処理部C3は、文字列取得部C31、分類部C32、グループ化部C33、特徴箇所検出部C34、座標情報取得部C35、位置情報取得部C36、領域特定情報取得部C37、および方角情報取得部C38を備える。領域特定情報取得部C37は、例えば、第一領域特定情報取得手段C371、外側文字列決定手段C372、サイズ情報取得手段C373、距離情報取得手段C374、および第二領域特定情報取得手段C375を備える。出力部C4は、対応出力部C41、正確地図情報出力部C42、および方角情報出力部C43を備える。
 格納部C1には、各種の情報が格納される。各種の情報とは、例えば、後述する地点辞書、後述する地図表現データ、後述する正確地図情報、学習器、後述する対応情報、分類モジュールである。なお、格納部C1は、地点辞書格納部C11を含まなくても良い。地点辞書格納部C11は、図示しない外部の装置に存在しても良い。
 地点辞書格納部C11には、地点辞書が格納される。地点辞書は、1または2以上の地点位置情報を有する。地点位置情報は、地点を特定する地点情報と地点の位置を特定する位置情報とを対応付ける情報である。地点位置情報は、例えば、地点情報と位置情報とを有する情報である。地点位置情報は、例えば、地点情報へのポインタと位置情報へのポインタとを有する情報である。ただし、地点位置情報のデータ構造は問わない。
 また、地点情報は、例えば、地点名、地点を特定するIDである。地点名とは、例えば、地名、ランドスケープ名、特定の地点の名称、都道府県名、市町村名、川の名前や山の名前や公園の名前や名勝の名前、交差点名等の名前です。また、位置情報は、例えば、(緯度,経度)であるが、他のデータ形式でも良い。なお、地点を特定するIDは、通常、地点名に対応付いている。
 地図表現データ格納部C12には、1または2以上の地図表現データが格納される。地図表現データは、地図を表現したデータである。地図表現データは、表現する地理的な領域が限られている情報である。地図表現データは、後述する正確地図情報ではない。地図表現データは、例えば、地図として正確性を欠くデータである。地図表現データは、例えば、古地図、イラストマップ、略地図、手書き地図等であるが、その種類は問わない。地図表現データは、地図表現データを識別する地図識別子と対応付いていることは好適である。地図識別子は、例えば、ID、地図表現データを有するファイル名、地図表現データの名称等である。
 地図表現データは、通常、画像データであるが、ベクトルデータ等でも良く、データ構造は問わない。地図表現データは、地点情報の文字列を含んでも良い。また、地図表現データが画像データやベクトルデータである場合、通常、地点情報が表出したデータである。また、地図表現データは、ファイルに含まれることは好適である。地図表現データは、ファイルであっても良い。ただし、地図表現データは、データベース内のデータでも良く、そのデータフォーマット、管理方法は問わない。地図表現データがファイルに含まれる場合、当該ファイルに2以上の地図表現データが含まれていても良い。また、一の地図表現データが2以上のファイルにより実現されても良い。つまり、一つの地図表現データが2以上のファイルに分割されていても良い。また、地図表現データが一ファイルでも良いことは言うまでもない。
 正確地図情報格納部C13には、正確地図情報が格納される。正確地図情報は、正確な電子的な地図の情報である。正確地図情報により示される地図の種類や、地図情報のデータ形式などは、問わない。当該地図の種類は、例えば、地形図や、地勢図、地質図、土地利用図、住宅地図、路線図、道路地図、ガイドマップ、航空写真、衛星写真などである。また、正確地図情報のデータ形式は、例えば、ラスタデータや、ベクタデータ、KIWIフォーマットなどである。
 学習器格納部A12には、1または2以上の学習器が格納される。学習器格納部A12の学習器は、学習装置Aが取得した学習器であることは好適である。かかる場合、学習器は、上述したように、2以上の文字を有する文字列と、地点辞書での出現回数に関するラベルであり、2または3種類以上のラベルのうちのいずれかのラベルとを有する2以上の学習元情報を機械学習の学習モジュールに与え、学習モジュールを実行し、取得された情報である。ただし、学習器は、学習装置Aが取得した学習器ではなく、地名情報である1以上の正例と、地名情報ではない1以上の負例とを機械学習の技法により学習し、得られた学習器でも良い。
 対応情報格納部C14には、1または2以上の対応情報が格納される。対応情報は、座標情報と位置情報との対応を示す情報である。対応情報は、座標情報と位置情報との組の情報でも良い。また、対応情報は、座標情報へのポインタと位置情報へのポインタとの組の情報でも良い。対応情報は、地名情報に対応付いていても良いし、地名情報を有しても良い。対応情報のデータ構造は問わない。対応情報は、地図表現データを識別する地図表現データ識別子に対応付いていることは好適である。
 受付部C2は、各種の情報や指示を受け付ける。各種の情報や指示とは、例えば、地図表現データ、動作開始指示、出力指示である。動作開始指示は、地図表現データ処理装置Cの対応情報の取得動作の開始の指示である。出力指示は、地図表現データ等を出力する指示である。出力指示は、例えば、地図表現データを識別する地図表現データ識別子を有する。
 ここで、受け付けとは、ユーザの入力の受け付け、外部の装置(例えば、図示しない端末装置)からの受信等である。ただし、受け付けにより、各種の情報や指示を取得できれば良い。各種の情報や指示の入力手段は、例えば、タッチパネルやキーボードやマウスやメニュー画面によるもの等、何でも良い。
 地図表現データ受付部C21は、地図表現データを受け付ける。ここで、受け付けとは、キーボードやマウス、タッチパネルなどの入力デバイスから入力された情報の受け付け、有線もしくは無線の通信回線を介して送信された情報の受信、光ディスクや磁気ディスク、半導体メモリなどの記録媒体から読み出された情報の受け付けなどを含む概念である。つまり、地図表現データ受付部C21は、地図表現データを地図表現データ格納部C12から読み出しても良い。
 処理部C3は、各種の処理を行う。各種の処理は、例えば、文字列取得部C31、分類部C32、グループ化部C33、特徴箇所検出部C34、座標情報取得部C35、位置情報取得部C36、領域特定情報取得部C37、方角情報取得部C38、第一領域特定情報取得手段C371、外側文字列決定手段C372、サイズ情報取得手段C373、距離情報取得手段C374、第二領域特定情報取得手段C375が行う処理である。
 文字列取得部C31は、地図表現データ受付部C21が受け付けた地図表現データから1または2以上の文字列を取得する。文字列取得部C31は、地図表現データから3以上の文字列を取得することが好適である。文字列取得部C31は、例えば、地図表現データから、文字認識処理により1以上の文字列を取得する。なお、文字認識処理は公知の技術であるので、詳細な説明を省略する。また、文字列取得部C31は、例えば、地図表現データに含まれる1以上の文字列を取得する。
 分類部C32は、文字列取得部C31が取得した1または2以上の各文字列が地点を特定する文字列であるか否かを判断する。
 分類部C32は、例えば、文字列取得部C31が取得した1または2以上の各文字列が、登録すべき地点を特定する文字列であるか否かを判断する。登録すべき地点を特定する文字列は、例えば、地点情報、またはユニークな地点情報である。
 分類部C32は、例えば、文字列取得部C31が取得した1または2以上の各文字列と学習器とを用いて、機械学習の技法により2以上の各文字列に対して、地点情報または非地点情報のいずれかを決める分類処理を行う。
 分類部C32は、例えば、1以上の各地点情報である文字列を正例として、かつ1以上の各非地点情報である文字列を負例として、機械学習の技法により学習処理を行い、取得された学習器を用いて、文字列取得部C31が取得した1または2以上の各文字列が地点情報または非地点情報のいずれであるかを決定する処理を行う。
 なお、機械学習の技法は、上述した通り、深層学習、SVM、決定木、ランダムフォレスト等、問わない。また、学習処理を行い、学習器を構成する学習モジュールは、例えば、fastText、tinySVM、TensorFlow等の機械学習フレームワークにおける関数や各種のrandom forest関数等である。さらに、分類部C32の決定する処理を行う分類モジュールは、例えば、fastText、tinySVM、TensorFlow等の機械学習フレームワークにおける関数や各種のrandom forest関数等である。
 分類部C32は、分類部B31と同じ処理により、文字列取得部C31が取得した1または2以上の各文字列に対応するラベルを取得することは好適である。かかる場合、分類部C32は、文字列取得部C31が取得した文字列を構成する2以上の各文字を文字毎に順番に機械学習の分類モジュールに与え、かつ学習器格納部A12の学習器を前記分類モジュールに与え、当該分類モジュールを実行し、ラベルを取得する。
 そして、分類部C32は、例えば、第一ラベルに対応する文字列のみを、地点を特定する文字列であると判断することは好適である。また、分類部C32は、例えば、第一ラベルと第三ラベルとに対応する文字列を、地点を特定する文字列であると判断しても良い。
 グループ化部C33は、位置情報取得部C36が取得した3以上の位置情報のうち、予め決められた条件を満たすほど近い位置を示す2以上の位置情報を決定する。つまり、グループ化部C33は、地図表現データの中に位置しないであろう地点の位置情報を除く処理を行う。なお、地図表現データの中に位置しないであろう地点の1以上の位置情報は、位置情報取得部C36が取得した他の位置情報に対して予め決められた条件を満たすほど遠い位置を示す情報である。
 グループ化部C33の処理は、例えば、以下の2つの処理のいずれかである。
(1)代表位置情報を用いた処理
 グループ化部C33は、例えば、位置情報取得部C36が取得した3以上の位置情報を代表する位置情報である代表位置情報を決定する。代表位置情報は、通常、位置情報取得部C36が取得した3以上の位置情報の中の中央部を示す位置情報である。
 次に、グループ化部C33は、例えば、当該代表位置情報以外の各位置情報と代表位置情報との距離を算出し、当該距離が予め決められた条件を満たすほど近い距離の位置情報であり、代表位置情報以外の位置情報を取得する。かかる1以上の位置情報と代表位置情報とが、グループ化部C33が決定した位置情報である。なお、ここで取得されなかった位置情報は、除かれた位置情報である。
 なお、代表位置情報の取得方法の例は、以下の(1-1)または(1-2)または(1-3)または(1-4)である。
(1-1)グループ化部C33は、例えば、位置情報取得部C36が取得した3以上の各位置情報のうち2つの位置情報の3以上の組み合わせの距離を算出し、当該3以上の組み合わせの距離の中の最短の距離に対応する2つの位置情報の組である最短組である2つの代表位置情報を取得する。
(1-2)グループ化部C33は、上記(1-1)で取得した最短組の中のどちらか一方を代表位置情報として取得する。
(1-3)グループ化部C33は、位置情報取得部C36が取得した3以上の位置情報を含む領域の重心点を代表位置情報として取得しても良い。
(1-4)グループ化部C33は、位置情報取得部C36が取得した3以上の位置情報が含まれる領域の中の中心点に最も近い位置の位置情報を代表位置情報として取得しても良い。
 なお、代表位置情報の取得アルゴリズムは、上記の(1-1)から(1-4)に限られない。
(2)クラスタリング処理
 グループ化部C33は、例えば、位置情報取得部C36が取得した3以上の位置情報を用いて、位置情報のクラスタリング処理を行う。そして、グループ化部C33は、クラスタリング処理により取得された2以上の位置情報を取得する。なお、クラスタリング処理は公知技術であるので、詳細な説明は省略する。
 なお、グループ化部C33が決定した位置情報に対応する対応情報が蓄積されることとなる。また、位置情報に対応する対応情報とは、例えば、位置情報を含む対応情報、位置情報へのポインタを含む対応情報である。
 特徴箇所検出部C34は、地図表現データから、予め決められた特徴的な図柄である特徴図柄が表出している箇所である特徴箇所を検出する。特徴箇所検出部C34は、例えば、画像認識技術により、地図表現データから、予め決められた特徴的な図柄である特徴図柄が表出している箇所である特徴箇所を検出する。なお、特徴図柄とは、交差点または橋のうちの1種類以上の図柄であることは好適である。
 例えば、交差点または橋等の特徴図柄が格納部C1に格納されており、特徴箇所検出部C34は、例えば、地図表現データの中の始点の画素をずらしながら、特徴図柄のサイズに合致する領域を地図表現データから切り出し、当該切り出した領域と、格納部C1の特徴図柄との類似度を算出し、当該類似度が閾値以上の領域を、特徴箇所として検出する。
 また、特徴箇所検出部C34は、例えば、地図表現データに対して、特徴図柄のオブジェクト認識の処理を行い、特徴箇所を検出する。なお、オブジェクト認識の処理は、公知技術であるので詳細な説明は省略する。
 座標情報取得部C35は、文字列取得部C31が取得した文字列に対応する座標位置を特定する情報であり、地図表現データの中の相対的な座標位置を特定する情報である座標情報(通常、(x,y))を取得する。文字列に対応する座標位置とは、地図表現データの中の文字列の領域を代表する点の座標であり、文字列の代表点である。代表点は地図表現データの中の文字列の領域の中心点、地図表現データの中の文字列の領域の左上の点、地図表現データの中の文字列の領域の右下の点などである。つまり、文字列取得部C31が取得した文字列に対応する座標位置は、当該文字列が配置された領域の中心点の座標位置でも良いし、当該文字列が配置された領域の左上隅の箇所の座標位置でも良いし、当該文字列が配置された領域の右下隅の箇所の座標位置等でも良い。
 座標情報取得部C35は、文字列取得部C31が取得した文字列のうちの、グループ化部C33が決定した位置情報に対応する文字列に対応する座標位置を特定する座標情報を取得しても良い。かかる場合も、座標情報取得部C35は、文字列取得部C31が取得した文字列に対応する座標位置を特定する座標情報を取得する、と言える。
 座標情報取得部C35は、特徴図柄に対応する座標情報を取得する。座標情報取得部C35は、特徴箇所検出部C34が検出した特徴図柄の領域の代表点の座標の情報を取得する。
 座標情報取得部C35は、特徴箇所検出部C34が検出した特徴図柄の領域のうち、例えば、当該領域の重心点の座標位置を特徴箇所として取得する。また、座標情報取得部C35は、地図表現データの中の特徴図柄の領域のうち、例えば、当該領域の左上の点の座標位置を特徴箇所として取得する。また、座標情報取得部C35は、地図表現データの中の特徴図柄の領域のうち、例えば、当該領域の右下の点の座標位置を特徴箇所として取得する。
 位置情報取得部C36は、地点辞書を用いて、文字列取得部C31が取得した文字列である地点情報に対応する位置情報を取得する。位置情報取得部C36は、文字列取得部C31が取得した文字列である地点情報と対になる位置情報を地点辞書から取得する。なお、地点辞書を用いて位置情報を取得することは、通常、地点辞書から位置情報を取得することである。
 位置情報取得部C36は、例えば、特徴図柄に対応する文字列である地点情報に対応する位置情報を地点辞書から取得する。特徴図柄に対応する文字列とは、例えば、特徴図柄の最近に配置されている文字列である。特徴図柄に対応する文字列とは、例えば、特徴図柄の最近に配置されている文字列(例えば「ABC」)と特徴図柄の名称(例えば、「交差点」)とを組み合わせた文字列(例えば「ABC交差点」)である。つまり、位置情報取得部C36は、特徴図柄の最近に配置されている文字列であり、地図表現データの上の文字列(例えば「ABC」)を取得し、特徴図柄の名称(例えば、「交差点」)を格納部C1から読み出し、当該2つの文字列を合成し、文字列(例えば「ABC交差点」)を取得し、当該文字列(例えば「ABC交差点」)と対になる位置情報を地点辞書格納部C11から取得する。なお、位置情報取得部C36は、図示しない外部の装置に存在する地点辞書格納部C11から位置情報を取得しても良い。
 位置情報取得部C36は、例えば、特徴図柄に対応する文字列(例えば、「交差点」)を格納部C1から読み出し、当該文字列を含み、特徴図柄の最近に配置されている文字列を取得し、当該文字列に対応する位置情報を地点辞書格納部C11から取得する。
 領域特定情報取得部C37は、グループ化部C33が決定した2以上の位置情報が示す位置を含む領域であり、正確地図情報の中の領域を特定する領域特定情報を取得する。
 領域特定情報取得部C37は、位置情報取得部C36が取得した2以上の位置情報が示す位置を含む領域であり、正確地図情報の中の領域を特定する領域特定情報を取得しても良い。
 領域特定情報取得部C37は、例えば、第一領域特定情報取得手段C371、外側文字列決定手段C372、サイズ情報取得手段C373、距離情報取得手段C374、第二領域特定情報取得手段C375の処理により、領域特定情報を取得する。
 第一領域特定情報取得手段C371は、グループ化部C33が決定した2以上の位置情報が示す位置を含む領域であり、正確地図情報の中の領域である第一領域を特定する第一領域特定情報を取得する。第一領域特定情報は、例えば、矩形を特定する2点の位置情報である。ただし、第一領域特定情報により特定される領域は矩形でなくても良く、多角形や円等でも良い。
 第一領域特定情報取得手段C371は、グループ化部C33が決定した2以上の位置情報が示す位置をすべて含む矩形領域である第一領域を特定する第一領域特定情報を取得することは好適である。
 第一領域特定情報取得手段C371は、グループ化部C33が決定した2以上の位置情報が示す位置をすべて含む矩形領域であり、最小の面積の第一領域を特定する第一領域特定情報を取得することは好適である。
 外側文字列決定手段C372は、位置情報取得部C36が取得した位置情報のうち、最も外側に位置する1以上の各位置情報に対応する文字列を決定する。外側文字列決定手段C372は、4方面(地図表現データ上の上下左右)の最も外側に位置する4つの各位置情報に対応する文字列を決定することは好適である。位置情報取得部C36が取得した位置情報は、位置情報取得部C36が取得したすべての位置情報でなくても良い。位置情報取得部C36が取得した位置情報は、グループ化部C33が決定した位置情報でも良い。
 サイズ情報取得手段C373は、外側文字列決定手段C372が決定した1以上の文字列の外側であり、地図表現データの隅までのサイズを特定するサイズ情報を取得する。なお、サイズ情報は、例えば、画素数である。サイズ情報は、例えば、座標上での大きさである。
 距離情報取得手段C374は、座標情報取得部C35が取得した座標情報と位置情報取得部C36が取得した位置情報との組を2組以上用いて、サイズ情報取得手段C373が取得したサイズ情報に対応する距離を特定する距離情報を取得する。距離情報は、実際の距離、現実世界での距離を特定する情報(m,km等の単位の情報)である。
 距離情報取得手段C374は、例えば、座標情報取得部C35が取得した座標情報(例えば、(x,y)、(x,y))と位置情報取得部C36が取得した位置情報(例えば、(X1,Y1)、(X2,Y2))との組を2組以上用いて、座標情報の単位量(例えば、1画素)における距離(例えば、mの単の情報)の情報である単位情報(例えば、m/画素)を取得する。つまり、例えば、距離情報取得手段C374は、(x,y)と(x,y)との間の画素数A、および(X1,Y1)と(X2,Y2)との距離Bを算出し、演算式「単位情報=距離B/画素数A」により単位情報を取得する。そして、距離情報取得手段C374は、例えば、サイズ情報取得手段C373が取得したサイズ情報(例えば、画素数)と単位情報(例えば、1画素に対する距離)とを乗算し、距離情報を取得する。距離情報取得手段C374は、例えば、4方面の距離情報を取得することは好適である。
 第二領域特定情報取得手段C375は、距離情報取得手段C374が取得した距離情報を用いて、第一領域特定情報が特定する第一領域を広げた領域である第二領域を特定する第二領域特定情報を取得する。第二領域特定情報取得手段C375は、例えば、4方面の各距離情報の分だけ、第一領域特定情報の各方面に広げた領域である第二領域を特定する第二領域特定情報を取得する。第二領域特定情報は、例えば、矩形を特定する2点の位置情報である。ただし、第一領域特定情報により特定される領域は矩形でなくても良く、多角形や円等でも良い。
 方角情報取得部C38は、領域特定情報または第二領域特定情報を用いて、地図表現データの方角に関する方角情報を取得する。領域特定情報または第二領域特定情報が矩形である場合、方角情報取得部C38は、領域特定情報または第二領域特定情報である矩形の図形と基準となる方角(例えば、真北)に対する角度である方角情報を取得することは好適である。方角情報は、例えば、真北に対する角度(0度~360度の間の情報、または180度から180度の間の情報)である。なお、方角情報は、例えば、地図表現データにおける真北の方向を特定する情報(例えば、ベクトル)、地図表現データの中心から真上の方角を示す情報である。地図表現データの中心から真上の方角を示す情報は、例えば、角度であり、例えば、中心から真上の方角が真北の場合は「0度」、中心から真上の方角が真東の場合は「-90度」または「270度」である。
 方角情報取得部C38は、例えば、位置情報取得部C36が取得した2以上の地点の位置情報からペアを取得し、当該ペアの2つの位置情報から2つの地点の実際の、基準となる方向(例えば、北)に対する角度である第一の角度を算出する。そして、方角情報取得部C38は、例えば、座標情報取得部C35が取得した当該ペアの座標情報を取得する。次に、方角情報取得部C38は、2つの座標情報から地図表現データにおける角度である第二の角度を算出する。次に、方角情報取得部C38は、第一の角度と第二の角度とを用いて、地図表現データにおける方角に関する方角情報を取得する。第一の角度が「0度」(2つの地点が真北および真南の関係にある)であり、第二の角度が「90度」(2点の座標情報のy軸の値が同じ)である場合、方角情報取得部C38は、方角情報「90度」を取得する。
 例えば、地点1と地点2のペアの各位置情報が示す位置関係が真北を示す場合、地点1と地点2との間の第一の角度を0度と算出する。そして、方角情報取得部C38は、例えば、座標情報取得部C35が取得した当該ペアの座標情報を取得する。次に、方角情報取得部C38は、2つの座標情報から地図表現データの中の真北の方向を示す方角情報(例えば、地点1から地点2へのベクトル)を取得する。
 なお、方角情報取得部C38は、例えば、3以上の地点の位置情報から2以上のペアを取得し、2以上の各ペアに対して、上記と同様の処理を行い、2以上の方角情報を取得し、当該2以上の方角情報の代表値(例えば、平均値または中央値等)を算出することは好適である。 出力部C4は、各種の情報を出力する。各種の情報とは、例えば、対応情報、地図表現データ、正確地図情報、方角情報である。
 対応出力部C41は、座標情報取得部C35が取得した座標情報と位置情報取得部C36が取得した位置情報とを対応付けて出力する。座標情報と位置情報とを対応付けて出力することは、座標情報と位置情報とを有する対応情報を出力することでも良い。ここで、出力とは、通常、記録媒体(例えば、対応情報格納部C14)への蓄積であるが、ディスプレイへの表示、プロジェクターを用いた投影、プリンタでの印字、音出力、外部の装置への送信、他の処理装置や他のプログラムなどへの処理結果の引渡しなどを含む概念である、と考えても良い。なお、対応出力部C41は、座標情報と位置情報とを対応する地点情報をも、座標情報と位置情報と対にして出力することは好適である。
 対応出力部C41は、分類部C32が地点を特定する文字列であると判断した文字列に対応する座標情報と位置情報とを対応付けて出力する。
 対応出力部C41は、分類部C32が地点情報に分類した文字列に対応する座標情報と位置情報とを対応付けて出力する。
 対応出力部C41は、グループ化部C33が決定した2以上の各位置情報と座標情報取得部C35が取得した2以上の各座標情報とを対応付けて出力する。
 正確地図情報出力部C42は、例えば、領域特定情報が特定する領域が分かる態様で、正確地図情報を出力する。ここで、出力とは、ディスプレイへの表示、プロジェクターを用いた投影、記録媒体への蓄積、プリンタでの印字、音出力、外部の装置への送信、他の処理装置や他のプログラムなどへの処理結果の引渡しなどを含む概念である、と考えても良い。なお、領域特定情報が特定する領域が分かる態様とは、領域特定情報が特定する領域を枠で囲うこと、領域特定情報が特定する領域の背景色を他と変えること等であるが、その態様は問わない。
 正確地図情報出力部C42は、例えば、二領域特定情報が特定する領域が分かる態様で、正確地図情報を出力することは好適である。
 方角情報出力部C43は、方角情報取得部C38が取得した方角情報を出力する。方角情報の出力態様は問わない。ここで、出力とは、ディスプレイへの表示、プロジェクターを用いた投影、記録媒体への蓄積、プリンタでの印字、音出力、外部の装置への送信、他の処理装置や他のプログラムなどへの処理結果の引渡しなどを含む概念である、と考えても良い。
 格納部C1、地点辞書格納部C11、地図表現データ格納部C12、正確地図情報格納部C13、学習器格納部A12、および対応情報格納部C14は、不揮発性の記録媒体が好適であるが、揮発性の記録媒体でも実現可能である。
 格納部C1等に情報が記憶される過程は問わない。例えば、記録媒体を介して情報が格納部C1等で記憶されるようになってもよく、通信回線等を介して送信された情報が格納部C1等で記憶されるようになってもよく、あるいは、入力デバイスを介して入力された情報が格納部C1等で記憶されるようになってもよい。
 受付部C2、および地図表現データ受付部C21は、タッチパネルやキーボード等の入力手段のデバイスドライバーや、メニュー画面の制御ソフトウェア等で実現され得る。
 処理部C3、文字列取得部C31、分類部C32、グループ化部C33、特徴箇所検出部C34、座標情報取得部C35、位置情報取得部C36、領域特定情報取得部C37、方角情報取得部C38、第一領域特定情報取得手段C371、外側文字列決定手段C372、サイズ情報取得手段C373、距離情報取得手段C374、および第二領域特定情報取得手段C375は、通常、MPUやメモリ等から実現され得る。処理部C3等の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。
 出力部C4、対応出力部C41、正確地図情報出力部C42、および方角情報出力部C43は、ディスプレイやスピーカー等の出力デバイスを含むと考えても含まないと考えても良い。出力部C4は、出力デバイスのドライバーソフトまたは、出力デバイスのドライバーソフトと出力デバイス等で実現され得る。
 次に、地図表現データ処理装置Cの動作例について、図8のフローチャートを用いて説明する。
 (ステップS801)受付部C2は、動作開始指示を受け付けたか否かを判断する。動作開始指示を受け付けた場合はステップS802に行き、動作開始指示を受け付けなかった場合はステップS821に行く。
 (ステップS802)処理部C3は、カウンタiに1を代入する。
 (ステップS803)処理部C3は、i番目の地図表現データが地図表現データ格納部C12に存在するか否かを判断する。i番目の地図表現データが存在する場合はステップS804に行き、存在しない場合はステップS801に戻る。
 (ステップS804)地図表現データ受付部C21は、i番目の地図表現データを地図表現データ格納部C12から取得する。
 (ステップS805)文字列取得部C31は、ステップS804で取得したi番目の地図表現データの上に表出している1以上の文字列を取得する。文字列取得部C31は、例えば、文字認識処理により、i番目の地図表現データの上に表出している1以上の文字列を取得する。
 (ステップS806)分類部C32は、カウンタjに1を代入する。
 (ステップS807)分類部C32は、ステップS805で取得された文字列のうち、j番目の文字列が存在するか否かを判断する。j番目の文字列が存在する場合はステップS808に行き、j番目の文字列が存在しない場合はステップS813に行く。
 (ステップS808)分類部C32は、j番目の文字列に対して、分類処理を行い、ラベルを取得する。なお、分類処理は、例えば、上述した分類装置Bの処理であり、例えば、図4のステップS402からステップS409の処理である。
 (ステップS809)座標情報取得部C35は、j番目の文字列が登録すべき地点情報であるか否かを判断する。登録すべき地点情報であればステップS810に行き、登録すべき地点情報でなければステップS812に行く。
 なお、登録すべき地点情報は、例えば、ステップS808で取得されたラベルが、文字列が登録すべき文字列であることを示すラベルであることである。また、文字列が登録すべき文字列であることを示すラベルは、例えば、第一ラベルである。
 (ステップS810)座標情報取得部C35は、j番目の文字列が配置されている領域であり、i番目の地図表現データの上の領域の代表点の座標情報を取得する。なお、代表点は、当該領域の重心点でも良いし、左上の点でも良いし、右下の点等でも良い。また、文字列が配置されている領域の情報は、地図表現データから文字列を取得する際に取得され得る、とする。
 (ステップS811)位置情報取得部C36は、j番目の文字列である地点情報と対になる位置情報を地点辞書格納部C11から取得する。そして、対応出力部C41は、当該位置情報をステップS810で取得された座標情報と対にして、図示しないバッファに、少なくとも一時蓄積する。
 (ステップS812)分類部C32は、カウンタjを1、インクリメントする。ステップS807に戻る。
 (ステップS813)グループ化部C33は、ステップS811で蓄積された2以上の位置情報に対して、グループ化処理を行う。グループ化処理の例について、図9のフローチャートを用いて説明する。
 (ステップS814)対応出力部C41は、カウンタkに1を代入する。
 (ステップS815)対応出力部C41は、ステップS813で取得された位置情報の中に、k番目の位置情報が存在するか否かを判断する。k番目の位置情報が存在する場合はステップS816に行き、k番目の位置情報が存在しない場合はステップS818に行く。
 (ステップS816)対応出力部C41は、k番目の位置情報と対になる座標情報を図示しないバッファから取得する。そして、対応出力部C41は、k番目の位置情報と取得した座標情報とを対応付けて、かつi番目の地図表現データに対応付けて、対応情報格納部C14に蓄積する。
 (ステップS817)対応出力部C41は、カウンタkを1、インクリメントする。ステップS807に戻る。
 (ステップS818)領域特定情報取得部C37は、領域特定処理を行う。領域特定処理は、i番目の地図表現データの領域に対応する領域であり、正確地図情報の中での領域を特定する処理である。領域特定処理の例について、図10のフローチャートを用いて説明する。
 (ステップS819)方角情報取得部C38は、方角取得処理を行う。方角取得処理は、i番目の地図表現データの方角を特定する方角情報を取得する処理である。方角取得処理の例について、図11のフローチャートを用いて説明する。
 (ステップS820)処理部C3は、カウンタiを1、インクリメントする。ステップS803に戻る。
 (ステップS821)受付部C2は、出力指示を受け付けたか否かを判断する。出力指示を受け付けた場合はステップS822に行き、出力指示を受け付けなかった場合はステップS801に戻る。
 (ステップS822)出力部C4は、出力処理を行う。ステップS801に戻る。なお、出力処理は、出力指示に対応する地図表現データ等を出力する指示である。出力処理の例について、図12のフローチャートを用いて説明する。
 なお、図8のフローチャートにおいて、電源オフや処理終了の割り込みにより処理は終了する。
 次に、ステップS813のグループ化処理の例について、図9のフローチャートを用いて説明する。
 (ステップS901)グループ化部C33は、カウンタiに1を代入する。
 (ステップS902)グループ化部C33は、ステップS811で取得されている2以上の位置情報の中から、i番目の2つの位置情報の組が存在するか否かを判断する。i番目の2つの位置情報の組が存在する場合はステップS903に行き、存在しない場合はステップS905に行く。
 (ステップS903)グループ化部C33は、i番目の2つの位置情報が特定する2点間の距離を算出する。
 (ステップS904)グループ化部C33は、カウンタiを1、インクリメントする。ステップS807に戻る。
 (ステップS905)グループ化部C33は、ステップS903で算出した2点間の距離のうち、最小の距離に対応する2つの位置情報を取得する。そして、グループ化部C33は、2つの位置情報のうち、任意の一の位置情報を代表位置情報として取得する。
 (ステップS906)グループ化部C33は、カウンタjに1を代入する。
 (ステップS907)グループ化部C33は、ステップS811で取得されている2以上の位置情報のうち、代表位置情報以外のj番目の位置情報が存在するか否かを判断する。j番目の位置情報が存在する場合はステップS908に行き、j番目の位置情報が存在しない場合は上位処理にリターンする。
 (ステップS908)グループ化部C33は、ステップS811で取得されている2以上の位置情報のうち、代表位置情報以外の各位置情報と、代表位置情報との距離を算出する。
 (ステップS909)グループ化部C33は、ステップS907で算出した距離が、予め決められた条件を満たすほど近い距離であるか否か(例えば、距離が閾値未満、または距離が閾値以下であるか否か)を判断する。予め決められた条件を満たすほど近い距離である場合はステップS910に行き、予め決められた条件を満たすほど近い距離ではない場合はステップS911に行く。
 (ステップS910)グループ化部C33は、j番目の位置情報を図示しないバッファに一時蓄積する。なお、バッファに一時蓄積された位置情報は、グループ化部C33が取得した位置情報である。
 (ステップS911)グループ化部C33は、カウンタjを1、インクリメントする。ステップS807に戻る。
 次に、ステップS818の領域特定処理の例について、図10のフローチャートを用いて説明する。
 (ステップS1001)第一領域特定情報取得手段C371は、ステップS910でグループ化部C33が図示しないバッファに一時蓄積した位置情報のうち経度が最小の位置情報を取得する。
 (ステップS1002)一領域特定情報取得手段C371は、ステップS910でグループ化部C33が図示しないバッファに一時蓄積した位置情報のうち経度が最大の位置情報を取得する。
 (ステップS1003)第一領域特定情報取得手段C371は、ステップS910でグループ化部C33が図示しないバッファに一時蓄積した位置情報のうち緯度が最小の位置情報を取得する。
 (ステップS1004)第一領域特定情報取得手段C371は、ステップS910でグループ化部C33が図示しないバッファに一時蓄積した位置情報のうち緯度が最大の位置情報を取得する。
 (ステップS1005)第一領域特定情報取得手段C371は、ステップS1001からステップS1004で取得した4つの位置情報を境界に含み、グループ化部C33が取得したすべての位置情報を含む領域であり、矩形の領域を特定する角の4点の位置情報を有する領域特定情報を取得する。なお、第一領域特定情報取得手段C371は、ステップS1001からステップS1004で取得した4つの位置情報を境界に含み、グループ化部C33が取得したすべての位置情報を含む領域であり、面積が最小の矩形の領域を特定する角の4点の位置情報を有する領域特定情報を取得することは好適である。
 (ステップS1006)外側文字列決定手段C372は、領域特定情報で特定される領域の中の4方面(上下左右)の最も外側の文字列を取得する。そして、サイズ情報取得手段C373は、最も外側の4つの各文字列と地図表現データの最も外側との画素数であるサイズ情報を取得する。
 (ステップS1007)距離情報取得手段C374は、2組以上の位置情報と座標情報との組を用いて、画素単位(一の座標の単位)の距離を取得する。
 (ステップS1008)距離情報取得手段C374は、ステップS1007で取得した画素単位の距離とステップS1006で取得されている4つの各サイズ情報とを乗算し、4つの各方向への拡大の距離を算出する。なお、拡大する4つの方向は、領域特定情報により特定される矩形の4辺の各辺に垂直の方向である。
 (ステップS1009)第二領域特定情報取得手段C375は、第一領域特定情報の4方向の幅を、ステップS1008で取得された距離の分だけ広げた領域を特定する情報である第二領域特定情報を取得する。なお、第二領域特定情報は、通常、矩形領域を特定する2つの位置情報である。
 (ステップS1010)第二領域特定情報取得手段C375は、ステップS1009で取得した第二領域特定情報をi番目の地図表現データに対応付けて蓄積する。上位処理にリターンする。
 次に、ステップS819の方角取得処理の例について、図11のフローチャートを用いて説明する。
 (ステップS1101)方角情報取得部C38は、第二領域特定情報取得手段C375が取得した第二領域特定情報を取得する。
 (ステップS1102)方角情報取得部C38は、第二領域特定情報を構成する4つの位置情報を用いて、方角情報を取得する。
 (ステップS1103)方角情報取得部C38は、ステップS1102で取得した方角情報をi番目の地図表現データに対応付けて蓄積する。上位処理にリターンする。
 次に、ステップS822の出力処理の例について、図12のフローチャートを用いて説明する。
 (ステップS1201)出力部C4は、受け付けられた出力指示が有する地図表現データ識別子を取得する。
 (ステップS1202)出力部C4は、ステップS1201で取得した地図表現データ識別子で識別される地図表現データを地図表現データ格納部C12から取得する。
 (ステップS1203)出力部C4は、ステップS1201で取得した地図表現データ識別子と対になる1以上の座標情報を対応情報格納部C14から取得する。
 (ステップS1204)出力部C4は、ステップS1202で取得した地図表現データと対になる方角情報を取得する。
 (ステップS1205)出力部C4は、ステップS1202で取得した地図表現データの上に、1以上の各座標情報が特定する箇所を明示する地図表現データを構成し、かつステップS1204で取得した方角情報を明示する地図表現データを構成する。
 (ステップS1206)出力部C4は、ステップS1202で取得した地図表現データと対になる第二領域特定情報を取得する。
 (ステップS1207)出力部C4は、ステップS1206で取得した第二領域特定情報が特定する領域の正確地図情報を正確地図情報格納部C13から取得する。
 (ステップS1208)出力部C4は、ステップS1201で取得した地図表現データ識別子と対になる1以上の位置情報を対応情報格納部C14から取得する。
 (ステップS1209)出力部C4は、ステップS1207で取得した正確地図情報の上に、ステップS1208で取得した1以上の各位置情報が特定する箇所を明示する正確地図情報を構成する。
 (ステップS1210)出力部C4は、ステップS1205で取得した地図表現データを出力する。また、出力部C4は、ステップS1209で取得した正確地図情報を出力する。上位処理にリターンする。
 なお、図12のフローチャートにおいて、地図表現データと正確地図情報の一方のみを出力しても良い。
 また、図12のフローチャートにおいて、出力される地図表現データは、1以上の各座標情報が特定する箇所を明示していない地図表現データでも良い。また、図12のフローチャートにおいて、出力される地図表現データは、方角情報を明示していない地図表現データでも良い。
 また、図12のフローチャートにおいて、出力される正確地図情報は、第二領域特定情報を明示していない地図表現データでも良い。また、図12のフローチャートにおいて、出力される正確地図情報は、1以上の各位置情報が特定する箇所を明示していない地図表現データでも良い。さらに、図12のフローチャートにおいて、出力される正確地図情報は、領域特定情報を明示している地図表現データでも良い。
 以下、本実施の形態における地図表現データ処理装置Cの具体的な動作について説明する。
 今、例えば、図13の1301の京都の五条通の地図表現データ、図14の1401の三条通の地図表現データが地図表現データ格納部C12に格納されている、とする。そして、1301の地図表現データは、地図表現データ識別子「五条通」と対に格納されており、1401の地図表現データは、地図表現データ識別子「三条通」と対に格納されている、とする。
 また、地点辞書格納部C11には、図15に示す地点辞書が格納されている。地点辞書には、「地点情報」と「位置情報」とを有する2以上のレコードが格納される。「地点情報」は、ここでは意味を有さない文字列であるが、通常、地点名である。また、「位置情報」は、ここでは(緯度,経度)である。
 さらに、対応情報格納部C14には、図16に示す構造を有する対応情報管理表が格納されている。対応情報管理表は、「ID」「地図表現データ識別子」「座標情報」「位置情報」「地点情報」を有する1以上のレコードが格納される。「ID」はレコードを識別する情報である。「地図表現データ識別子」は地図表現データを識別する情報である。「座標情報」は地図表現データ上での相対的な位置を示す座標値である。「位置情報」は、ここでは(緯度,経度)である。「地点情報」は、ここでは意味を有さない文字列であるが、通常、地点名である。
 かかる状況において、ユーザは、地図表現データ処理装置Cに動作開始指示を入力した、とする。
 すると、地図表現データ処理装置Cの受付部C2は、動作開始指示を受け付ける。そして、地図表現データ処理装置Cは、「五条通」の地図表現データと、「三条通」の地図表現データとに対して、上述した処理を行い、各地図表現データに対応付けて、1以上の対応情報を対応情報管理表に蓄積する。このように蓄積されたレコードは、図16の「ID=1,2,3,・・・,38,・・・」のレコードである。
 また、次に、ユーザは、例えば、地図表現データ識別子「五条通」を有する出力指示を地図表現データ処理装置Cに入力した、とする。
 すると、地図表現データ処理装置Cの受付部C2は、出力指示を受け付ける。次に、出力部C4は、上述した出力処理を行う。そして、図13の1301の地図表現データと、1302の正確地図情報とが出力される。なお、図13の13021は、領域特定情報が特定する領域である。また、13022は、第二領域特定情報が特定する領域である。また、13023は、第一ラベルに対応する位置情報を特定する図柄である。さらに、13024は、第三ラベルに対応する位置情報またはグループ化処理により除かれた位置情報を特定する図柄である。
 以上、本実施の形態によれば、地図表現データ上の地名等の座標情報と位置情報とを対応付けて自動的に取得できる。
 また、本実施の形態によれば、地図表現データ上の適切な地名等の文字列を抽出し、当該地名等の座標情報と位置情報とを対応付けて自動的に取得できる。
 また、本実施の形態によれば、地図表現データ上の適切な地名等の文字列を精度高く抽出し、当該地名等の座標情報と位置情報とを対応付けて自動的に取得できる。
 また、本実施の形態によれば、地図表現データ上の図形特徴点を取得し、当該図形特徴点の座標情報と位置情報とを対応付けて自動的に取得できる。
 また、本実施の形態によれば、地図表現データに対応する正確地図情報の範囲を明確化できる。
 また、本実施の形態によれば、地図表現データに対応する正確地図情報の適切な範囲を明確化できる。
 さらに、本実施の形態によれば、地図表現データの方角に関する方角情報を得ることができる。
 なお、本実施の形態において、必須の構成は、地点辞書格納部C11、地図表現データ受付部C21、文字列取得部C31、座標情報取得部C35、位置情報取得部C36、対応出力部C41である。地図表現データ処理装置Cを構成する他の構成要素は、存在しなくても良い。
 また、本実施の形態において、図13以外の他の出力例は、図14である。
 さらに、本実施の形態における地図表現データ処理装置Cを実現するソフトウェアは、以下のようなプログラムである。つまり、このプログラムは、地点を特定する地点情報と当該地点の位置を特定する位置情報とを対応付ける情報である1以上の地点位置情報を有する地点辞書が格納される地点辞書格納部にアクセス可能なコンピュータを、イラスト地図、手書き地図、略地図のうちのいずれか1以上の種類の地図である地図表現データを受け付ける地図表現データ受付部と、前記地図表現データから文字列を取得する文字列取得部と、前記文字列取得部が取得した文字列に対応する座標位置を特定する情報であり、前記地図表現データの中の相対的な座標位置を特定する情報である座標情報を取得する座標情報取得部と、前記地点辞書を用いて、前記文字列取得部が取得した文字列である地点情報に対応する位置情報を取得する位置情報取得部と、前記座標情報取得部が取得した座標情報と前記位置情報取得部が取得した位置情報とを対応付けて出力する対応出力部として機能させるためのプログラムである。
 (実施の形態3)
 本実施の形態において、実施の形態2で取得した対応情報を用いて、地図表現データ上に現在位置を明示できる地図表現データ処理装置Dについて説明する。
 図17は、本実施の形態における地図表現データ処理装置Dのブロック図である。
 地図表現データ処理装置Dは、格納部D1、受付部D2、処理部D3、および出力部D4を備える。格納部D1は、地図表現データ格納部C12、対応情報格納部C14を備える。
 処理部D3は、現在位置情報取得部D31、座標情報取得部D32、データ構成部D33を備える。出力部D4は、地図表現データ出力部D41を備える。
 格納部D1には、各種の情報が格納される。各種の情報とは、例えば、地図表現データ、対応情報である。
 地図表現データ格納部C12には、1または2以上の地図表現データが格納される。
 対応情報格納部C14には、2以上の対応情報が格納される。対応情報は、地図表現データに対応付いていることは好適である。
 受付部D2は、各種の情報や指示を受け付ける。各種の情報や指示とは、例えば、動作開始指示である。
 ここで、受け付けとは、ユーザの入力の受け付け、外部の装置(例えば、図示しない端末装置)からの受信等である。ただし、受け付けにより、各種の情報や指示を取得できれば良い。各種の情報や指示の入力手段は、例えば、タッチパネルやキーボードやマウスやメニュー画面によるもの等、何でも良い。
 処理部D3は、各種の処理を行う。各種の処理は、例えば、現在位置情報取得部D31、座標情報取得部D32、データ構成部D33が行う処理である。
 現在位置情報取得部D31は、現在位置を特定する現在位置情報を取得する。現在位置情報取得部D31は、例えば、GPS受信機により実現され得る。現在位置情報取得部D31は、公知技術であるので、詳細な説明を省略する。
 座標情報取得部D32は、対象の地図表現データと対になる2以上の対応情報を用いて、現在位置情報に対応する座標情報を取得する。座標情報は、表示されている地図表現データの上の相対的な位置を特定する座標値である。
 座標情報取得部D32は、例えば、対象の地図表現データと対になる対応情報1(座標情報1(x,y)、位置情報1(X1,Y1))と対応情報2(座標情報2(x,y)、位置情報2(X2,Y2))とを対応情報格納部C14から読み出す。そして、座標情報取得部D32は、現在位置情報取得部D31が取得した現在位置情報(X3,Y3)を取得する。次に、座標情報取得部D32は、位置情報1(X1,Y1)と位置情報2(X2,Y2)とから(X1-X2)、(Y1-Y2)を算出する。また、座標情報取得部D32は、座標情報1(x,y)と座標情報2(x,y)とから(x-x)、(y-y)を算出する。次に、座標情報取得部D32は、(X1-X2)と(x-x)とからx軸における単位距離(例えば、100m)に対する画素数を算出する。また、座標情報取得部D32は、(Y1-Y2)と(y-y)とからy軸における単位距離(例えば、100m)に対する画素数を算出する。次に、座標情報取得部D32は、例えば、(X1-X3)とx軸における単位距離に対する画素数を算出し、当該画素数とxとを加算し、現在位置情報に対するx座標(x)を取得する。また、座標情報取得部D32は、例えば、(Y1-Y3)とy軸における単位距離に対する画素数を算出し、当該画素数とyとを加算し、現在位置情報に対するy座標(y)を取得する。
 データ構成部D33は、地図表現データの上に、座標情報取得部D32が取得した座標情報が示す位置が明示された地図表現データである現在地付加地図表現データを構成する。なお、座標情報が示す位置の明示の態様は問わない。データ構成部D33は、例えば、予め決められた図柄を座標情報が示す位置に配置する。
 出力部D4は、各種の情報を出力する。各種の情報とは、例えば、現在地付加地図表現データである。
 地図表現データ出力部D41は、データ構成部D33が取得した現在地付加地図表現データを出力する。
 格納部D1、地図表現データ格納部C12、および対応情報格納部C14は、不揮発性の記録媒体が好適であるが、揮発性の記録媒体でも実現可能である。
 格納部D1等に情報が記憶される過程は問わない。例えば、記録媒体を介して情報が格納部D1等で記憶されるようになってもよく、通信回線等を介して送信された情報が格納部D1等で記憶されるようになってもよく、あるいは、入力デバイスを介して入力された情報が格納部D1等で記憶されるようになってもよい。
 受付部D2は、タッチパネルやキーボード等の入力手段のデバイスドライバーや、メニュー画面の制御ソフトウェア等で実現され得る。
 処理部D3、現在位置情報取得部D31、座標情報取得部D32、およびデータ構成部D33は、通常、MPUやメモリ等から実現され得る。処理部D3の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。
 出力部D4、および地図表現データ出力部D41は、ディスプレイやスピーカー等の出力デバイスを含むと考えても含まないと考えても良い。出力部D4は、出力デバイスのドライバーソフトまたは、出力デバイスのドライバーソフトと出力デバイス等で実現され得る。
 次に、地図表現データ処理装置Dの動作例について、図18のフローチャートを用いて説明する。
 (ステップS1801)受付部D2は、表示対象の地図表現データを地図表現データ格納部C12から取得する。
 (ステップS1802)現在位置情報取得部D31は、現在位置情報を取得する。
 (ステップS1803)座標情報取得部D32は、ステップS1801で取得した地図表現データを識別する地図表現データ識別子と対になる2以上の対応情報を対応情報格納部C14から取得する。次に、座標情報取得部D32は、当該2以上の対応情報を用いて、現在位置情報に対応する座標情報を取得する。
 (ステップS1804)データ構成部D33は、ステップS1801で取得された地図表現データの上に、ステップS1803で取得された座標情報が示す位置が明示された地図表現データである現在地付加地図表現データを構成する。
 (ステップS1805)地図表現データ出力部D41は、ステップS1804で構成された現在地付加地図表現データを出力する。処理を終了する。
 以上、本実施の形態によれば、自動取得された2以上の対応情報を用いて、地図表現データの上に現在地を示すことができる。
 なお、本実施の形態における地図表現データ処理装置Dを実現するソフトウェアは、以下のようなプログラムである。つまり、このプログラムは、地図表現データが格納される地図表現データ格納部と、地図表現データ処理装置Cが出力した座標情報と前記位置情報取得部が取得した位置情報との組である2以上の対応情報が格納される対応情報格納部とにアクセス可能なコンピュータを、現在位置を特定する現在位置情報を取得する現在位置情報取得部と、前記2以上の対応情報を用いて、前記現在位置情報に対応する座標情報を取得する座標情報取得部と、前記地図表現データの上に、前記座標情報が示す位置が明示された地図表現データである現在地付加地図表現データを構成するデータ構成部と、前記現在地付加地図表現データを出力する地図表現データ出力部として機能させるためのプログラムである。
 (実施の形態4)
 本実施の形態において、地図表現データから、3以上の地点名を取得し、当該各地点名に対応する座標情報を地図表現データから取得し、地点名に対応するリアルな位置情報を地点辞書から取得し、座標情報と位置情報とを用いて、適切な座標情報と位置情報との組である対応情報を出力する地図表現データ処理装置について説明する。
 また、本実施の形態において、2つの地点間の対応情報の間の関係に関する関係情報に基づいて、不適切な地点を決定し、当該不適切な地点に対応する不適切な対応情報を含まない2以上の対応情報を出力する地図表現データ処理装置について説明する。なお、本実施の形態において、不適切な地点を決定するために、例えば、距離に関する距離関係情報、角度に関する角度関係情報を用いる。また、不適切な地点とは、誤りと思われる対応情報に対応する地点である。
 また、本実施の形態において、地図表現データの縮尺情報を取得し、出力する地図表現データ処理装置について説明する。
 また、本実施の形態において、地図表現データの範囲を取得し、出力する地図表現データ処理装置について説明する。
 また、本実施の形態において、地図表現データの範囲に入る地点名等を地図表現データに追加する地図表現データ処理装置について説明する。
 さらに、本実施の形態において、地図表現データの方角に関する情報を取得し、出力する地図表現データ処理装置について説明する。
 図19は、本実施の形態における地図表現データ処理装置Eのブロック図である。また、図20は、地図表現データ処理装置Eを構成する処理部E3のブロック図である。
 地図表現データ処理装置Eは、格納部C1、受付部C2、処理部E3、および出力部E4を備える。
 格納部C1は、地点辞書格納部C11、地図表現データ格納部C12、正確地図情報格納部C13、学習器格納部A12、および対応情報格納部C14を備える。受付部C2は、地図表現データ受付部C21を備える。処理部E3は、文字列取得部C31、分類部C32、特徴箇所検出部C34、座標情報取得部C35、位置情報取得部C36、関係情報取得部E31、対応情報取得部E32、縮尺取得部E33、領域特定情報取得部E34、追加地点取得部E35、追加位置取得部E36、追加座標取得部E37、地点追記部E38、および方角情報取得部E39を備える。対応情報取得部E32は、判断手段E321、および対応情報取得手段E322を備える。出力部E4は、対応出力部E41、縮尺情報出力部E42、領域特定情報出力部E43、および方角情報出力部E44を備える。
 処理部E3は、各種の処理を行う。各種の処理とは、例えば、文字列取得部C31、分類部C32、特徴箇所検出部C34、座標情報取得部C35、位置情報取得部C36、関係情報取得部E31、対応情報取得部E32、縮尺取得部E33、領域特定情報取得部E34、追加地点取得部E35、追加位置取得部E36、追加座標取得部E37、地点追記部E38、方角情報取得部E39が行う処理である。
 関係情報取得部E31は、関係情報を取得する。関係情報は、3以上の対応情報の間の関係に関する情報である。関係情報取得部E31は、3以上の対応情報を用いて、関係情報を取得する。関係情報は、例えば、後述する距離関係情報、後述する角度関係情報である。なお、対応情報は、文字列取得部C31が取得した文字列に対応する座標情報と位置情報との組である。文字列取得部C31が取得した文字列に対応する座標情報は、座標情報取得部C35が取得した情報である。文字列取得部C31が地図表現データから取得した文字列に対応する位置情報は、位置情報取得部C36が取得した情報である。なお、文字列は、通常、地点の名称である。地点は、例えば、駅、ランドスケープ、名勝、建物、都道府県、市町村、交差点、公園等である。
 関係情報取得部E31は、文字列取得部C31が取得した3以上の文字列のうちの2つの各文字列に対応する対応情報の間の相対的な関係情報を、2つの文字列の組ごとに取得することは好適である。
 関係情報取得部E31は、例えば、2つの文字列の組ごとに、2つの各文字列の対応情報を用いて、距離関係情報を取得する。距離関係情報は、2つの文字列の座標情報の差異である相対距離と2つの文字列の位置情報の差異である絶対距離との関係を示す情報である。なお、2つの文字列の組とは、文字列取得部C31が取得した3以上の文字列のうちの2つの文字列の組である。
 距離関係情報は、例えば、MPPである。MPPは、メートル・パー・ピクセル(m/pixcel)である。2つの各文字列に対応する対応情報が、対応情報1「座標情報1(x,y)位置情報1(X,Y)」、対応情報2「座標情報2(x,y)位置情報2(X,Y)」である場合、MPP=「(位置情報1と位置情報2との距離(メートル))/(座標情報1と座標情報2との間のピクセル数)」である。また、距離関係情報は、例えば、PPMである。PPMは、「PPM=(座標情報1と座標情報2との間のピクセル数)/(位置情報1と位置情報2との距離(メートル))」である。なお、位置情報1(X,Y)と位置情報2(X,Y)」との距離を算出する方法、座標情報1(x,y)と座標情報2(x,y)とのピクセル数を算出する方法は周知技術であるので、ここでの説明は省略する。
 関係情報取得部E31は、例えば、2つの文字列の組ごとに、2つの各文字列の対応情報を用いて、角度関係情報を取得する。
 角度関係情報は、相対角度と絶対角度との関係を示す情報である。相対角度は、2つの文字列の座標情報から得られる角度である。相対角度は、基準線(例えば、矩形の地図表現データの下辺の直線、または矩形の地図表現データの右辺の直線)に対して2つの座標情報を結んだ直線の角度である。また、絶対角度は、例えば、基準となる方角(例えば、東、北)の直線と2つの文字列の位置情報を結んで得られる直線との角度である。
 角度関係情報は、例えば、相対角度と絶対角度との差に関する情報(例えば、「相対角度-絶対角度」「絶対角度-相対角度」「|相対角度-絶対角度|」)である。相対角度と絶対角度との差に関する情報は、例えば、(cos(相対角度-絶対角度),sin(相対角度-絶対角度))、(cos(絶対角度-相対角度),sin(絶対角度-相対角度))等でも良い。なお、相対角度と絶対角度との差に関する情報を、適宜、Rotationと言う。
 対応情報取得部E32は、関係情報を用いて、3以上の対応情報の中で、予め決められた関係を満たす関係情報に対応する2以上の対応情報のみを取得する。
 対応情報取得部E32は、3以上の各距離関係情報が予め決められた関係を満たすか否かを判断し、文字列取得部C31が取得した3以上の各文字列に対応する対応情報の中から、予め決められた関係を満たさない距離関係情報に対応する対応情報を除き、残った2以上の対応情報のみを取得する。
 対応情報取得部E32は、3以上の各角度関係情報が予め決められた関係を満たすか否かを判断し、文字列取得部C31が取得した3以上の各文字列に対応する対応情報の中から、予め決められた関係を満たさない角度関係情報に対応する対応情報を除き、残った2以上の対応情報のみを取得する。
 対応情報取得部E32は、距離関係情報と角度関係情報の両方が予め決められた関係を満たす場合、当該距離関係情報と角度関係情報に対応する2以上の対応情報のみを取得することは好適である。
 対応情報取得部E32を構成する判断手段E321は、関係情報取得部E31が取得した3以上の関係情報をグループ化し、グループに入らない関係情報を決定する。なお、関係情報をクラスタリングするアルゴリズムとして、例えば、階層凝集クラスタリング(Hierarchical Agglomerative Clustering [HAC])が利用可能である。HACについては、インターネットURL「http://pub.ist.ac.at/~edels/Papers/1984-J-05-HierarchicalClustering.pdf」「http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.299.7703&rep=rep1&type=pdf」を参照のこと。なお、情報の集合のクラスタリングのアルゴリズムは問わない。
 対応情報取得手段E322は、文字列取得部C31が取得した3以上の各文字列に対応する対応情報の中から、グループに入らない関係情報に対応する対応情報を除き、残った2以上の対応情報のみを取得する。
 縮尺取得部E33は、3以上の距離関係情報から距離関係情報の代表値を取得し、距離関係情報の代表値を用いて、地図表現データの縮尺情報を取得する。なお、代表値は、例えば、平均値、中央値である。例えば、距離関係情報(ここでは、例えば、MPP)の代表値がαである場合、例えば、縮尺取得部E33は、縮尺情報「α」を取得する。
 領域特定情報取得部E34は、文字列取得部C31が取得した文字列に対応する座標情報と地図表現データの4辺のうちの各辺との垂直距離である相対垂直距離を取得し、相対垂直距離と縮尺情報(例えば、MPP)とを用いて、地図表現データの実世界における範囲を特定する領域特定情報を取得する。なお、実世界における範囲とは、正確地図情報の中での範囲である。
 領域特定情報取得部E34は、例えば、対応情報取得部E32が最終的に取得した2以上の各対応情報が有する座標情報と、地図表現データの各辺(上辺、下辺、左辺、右辺)との相対垂直距離を算出する。なお、点と直線との垂直距離を算出する技術は公知技術である。
 そして、領域特定情報取得部E34は、例えば、各辺ごとに、2以上の相対垂直距離の代表値(例えば、中央値、平均値)を取得する。次に、領域特定情報取得部E34は、例えば、各辺ごとに、相対垂直距離の代表値の地点に対する位置情報を取得する。次に、領域特定情報取得部E34は、例えば、各辺ごとに、「距離関係情報(MPP)×相対垂直距離の代表値」により、各辺の緯度または経度を取得する。
 追加地点取得部E35は、領域特定情報が示す範囲の地点情報を地点辞書から取得する。追加地点取得部E35は、例えば、領域特定情報が示す範囲の2以上の地点情報を地点辞書から取得し、当該取得した地点情報から、文字列取得部C31が取得した文字列を除いた地点情報を取得することは好適である。なお、使用される地点辞書は、地点辞書格納部C11の地点辞書でも、外部の図示しない装置に存在する地点辞書でも良い。
 また、追加地点取得部E35は、領域特定情報が示す範囲の地点情報と、当該地点情報の一以上の属性値(例えば、駅名、ランドスケープか否か、交差点名等)を取得し、当該予め決められた条件を満たす一以上の属性値と対になる地点情報を地点辞書から取得することは好適である。
 追加位置取得部E36は、追加地点取得部E35が取得した地点情報に対応する位置情報を地点辞書から取得する。
 追加座標取得部E37は、追加位置取得部E36が取得した位置情報に対応する座標情報を取得する。追加座標取得部E37は、例えば、一の対応情報が有する位置情報と追加位置取得部E36が取得した位置情報との差異を取得し、当該位置情報の差異と距離関係情報(MPP)とを用いて、一の対応情報が有する座標情報との差異を取得し、一の対応情報が有する座標情報と当該座標情報の差異とを用いて、追加位置取得部E36が取得した位置情報に対応する座標情報を取得する。
 地点追記部E38は、追加座標取得部E37が取得した座標情報が示す位置に、追加地点取得部E35が取得した地点情報(文字列)を配置する。なお、地点情報が追加されるのは、地図表現データの上である。
 方角情報取得部E39は、3以上の角度関係情報から角度関係情報の代表値を取得し、角度関係情報の代表値を用いて、地図表現データの方角を示す方角情報を取得する。
 角度関係情報(ここでは、例えば、「相対角度-絶対角度」)が「-30」であった場合、実世界の北が、地図表現データにおける真上から右上に30度の角度になり、方角情報取得部E39は、例えば、方角情報「30度」を得る。なお、ここでの方角情報は、地図表現データにおける真上から、時計回りの角度である、とする。なお、方角情報は、取得された角度に対応する図柄でも良い。
 出力部E4は、各種の情報を出力する。各種の情報とは、例えば、対応情報、縮尺情報、地図表現データ、正確地図情報、方角情報である。ここで出力とは、通常、記録媒体への蓄積であるが、ディスプレイへの表示、プロジェクターを用いた投影、プリンタでの印字、音出力、外部の装置への送信、他の処理装置や他のプログラムなどへの処理結果の引渡しなどを含む概念である、と考えても良い。
 対応出力部E41は、対応情報取得部E32が取得した2以上の対応情報を蓄積する。対応出力部E41は、2以上の対応情報を表示したり、他の装置に送信したりしても良い。
 縮尺情報出力部E42は、縮尺取得部E33が取得した縮尺情報を出力する。ここでの出力は、通常、表示であるが、記録媒体への蓄積、外部の装置への送信等でも良い。
 領域特定情報出力部E43は、領域特定情報取得部E34が取得した領域特定情報を出力する。ここでの出力は、通常、表示であるが、記録媒体への蓄積、外部の装置への送信等でも良い。
 方角情報出力部E44は、方角情報取得部E39が取得した方角情報を出力する。ここでの出力は、通常、表示であるが、記録媒体への蓄積、外部の装置への送信等でも良い。
 処理部E3、文字列取得部C31、分類部C32、特徴箇所検出部C34、座標情報取得部C35、位置情報取得部C36、関係情報取得部E31、対応情報取得部E32、縮尺取得部E33、領域特定情報取得部E34、追加地点取得部E35、追加位置取得部E36、追加座標取得部E37、地点追記部E38、および方角情報取得部E39は、通常、MPUやメモリ等から実現され得る。処理部E3等の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。
 出力部E4、対応出力部E41、縮尺情報出力部E42、領域特定情報出力部E43、および方角情報出力部E44は、ディスプレイやスピーカー等の出力デバイスを含むと考えても含まないと考えても良い。出力部E4等は、出力デバイスのドライバーソフトまたは、出力デバイスのドライバーソフトと出力デバイス等で実現され得る。
 次に、地図表現データ処理装置Eの動作例について、図21のフローチャートを用いて説明する。図21のフローチャートにおいて、図8のフローチャートと同一のステップについて、説明を省略する。なお、図21のフローチャートにおいて、ステップS804からS812を有する。
 (ステップS2101)処理部E3は、ステップS804で取得された地図表現データを用いて、対応情報取得処理を行う。対応情報取得処理の例について、図22のフローチャートを用いて説明する。なお、対応情報取得処理は、蓄積する1または2以上の対応情報を取得する処理である。また、処理対象の地図表現データは、通常、地図表現データ格納部C12の地図表現データであるが、外部の装置から受信された地図表現データでも良い。
 (ステップS2102)対応出力部E41は、ステップS2101で取得された1以上の対応情報を蓄積する。なお、対応情報の蓄積先は、例えば、格納部C1であるが、他の装置でも良い。対応出力部E41は、ステップS2101で取得された1以上の対応情報を、ステップS804で取得された地図表現データに対応付けて蓄積する。
 (ステップS2103)縮尺取得部E33は、ステップS2101で取得された距離関係情報の代表値(例えば、MPP)を用いて、縮尺情報を取得し、ステップS804で取得された地図表現データに対応付けて蓄積する。なお、縮尺情報の蓄積先は、例えば、格納部C1であるが、他の装置でも良い。
 (ステップS2104)領域特定情報取得部E34は、領域特定処理を行う。領域特定処理の例について、図25のフローチャートを用いて説明する。なお、領域特定処理とは、地図表現データの地図領域に対応する実世界の領域を示す情報を取得する処理である。
 (ステップS2105)方角情報取得部E39は、方角情報取得処理を行う。方角情報取得処理の例について、図26のフローチャートを用いて説明する。なお、方角情報取得処理とは、地図表現データの方角(傾きと言っても良い)に関する情報を取得する処理である。
 (ステップS2106)追加地点取得部E35等は、地点追加処理を行う。地点追加処理の例について、図27のフローチャートを用いて説明する。地点追加処理とは、地図表現データに記載されていない地点情報(文字列)を付加する処理である。
 (ステップS2107)処理部E3は、出力する地図を構成する処理を行う。かかる出力地図構成処理の例について、図28のフローチャートを用いて説明する。
 (ステップS2108)出力部E4は、ステップS2107で構成された地図表現データ、およびステップS2107で構成された正確地図情報を出力する。処理を終了する。なお、ここで、出力部E4は、地図表現データと正確地図情報のうちの一方の地図の出力を行うだけでも良い。
 次に、ステップS2101の対応情報取得処理の例について、図22のフローチャートを用いて説明する。
 (ステップS2201)関係情報取得部E31は、距離関係情報取得処理を行う。距離関係情報取得処理の例について、図23のフローチャートを用いて説明する。なお、距離関係情報取得処理は、2以上の対応情報の集合に対する1以上の距離関係情報を取得する処理である。
 (ステップS2202)判断手段E321は、ステップS2201で取得された3以上の距離関係情報をグループ化する。そして、判断手段E321は、距離関係情報に対する1または2以上のグループを取得する。なお、グループ化には、例えば、上述したHACを用いる。
 (ステップS2203)対応情報取得手段E322は、カウンタiに1を代入する。
 (ステップS2204)対応情報取得手段E322は、ステップS2202で取得されたi番目のグループが存在するか否かを判断する。i番目のグループが存在する場合はステップS2205に行き、i番目のグループが存在しない場合は上位処理にリターンする。
 (ステップS2205)対応情報取得手段E322は、i番目のグループが、グループ内の地点の数に関する予め決められた条件を満たすか否かを判断する。条件を満たす場合はステップS2206に行き、条件を満たさない場合はステップS2209に行く。なお、予め決められた条件は、例えば、i番目のグループに対応する地点(文字列と言っても良い)の数が閾値以上であること、i番目のグループに対応する地点の数が閾値より多いこと、i番目のグループに対応する地点の割合が閾値以上であること、i番目のグループに対応する地点の割合が閾値より大きいこと等である。なお、割合とは、「i番目のグループに対応する地点の数/いずれかのグループに属する地点の数」である。
 (ステップS2206)対応情報取得手段E322は、i番目のグループに対応する2以上の地点の対応情報を取得する。
 (ステップS2207)関係情報取得部E31は、ステップS2206で取得された2以上の地点の対応情報に対して、角度関係情報取得処理を行う。角度関係情報取得処理の例について、図24のフローチャートを用いて説明する。
 (ステップS2208)判断手段E321は、ステップS2207で取得された3以上の角度関係情報をグループ化する。そして、判断手段E321は、角度関係情報に対する1または2以上のグループを取得する。なお、グループ化には、例えば、上述したHACを用いる。
 (ステップS2209)対応情報取得手段E322は、カウンタjに1を代入する。
 (ステップS2210)対応情報取得手段E322は、ステップS2208で取得されたグループの中に、j番目のグループが存在するか否かを判断する。j目のグループが存在する場合はステップS2211に行き、j番目のグループが存在しない場合はステップS2214に行く。
 (ステップS2211)対応情報取得手段E322は、j番目のグループが、グループ内の地点の数に関する予め決められた条件を満たすか否かを判断する。条件を満たす場合はステップS2212に行き、条件を満たさない場合はステップS2213に行く。なお、予め決められた条件は、例えば、j番目のグループに対応する地点(文字列と言っても良い)の数が閾値以上であること、j番目のグループに対応する地点の数が閾値より多いこと、j番目のグループに対応する地点の割合が閾値以上であること、j番目のグループに対応する地点の割合が閾値より大きいこと等である。なお、割合とは、「j番目のグループに対応する地点の数/いずれかのグループに属する地点の数」である。
 (ステップS2212)対応情報取得手段E322は、j番目のグループに対応する2以上の地点の対応情報を取得する。
 (ステップS2213)対応情報取得手段E322は、カウンタj1、インクリメントする。ステップS2210に戻る。
 (ステップS2214)対応情報取得手段E322は、カウンタiを1、インクリメントする。ステップS2204に戻る。
 なお、図22のフローチャートにおいて、ステップS2202またはステップS2208で、複数のグループが検出された場合、対応情報取得手段E322は、地点の数が最も多い一のグループのみを選択しても良い。
 次に、ステップS2201の距離関係情報取得処理の例について、図23のフローチャートを用いて説明する。
 (ステップS2301)関係情報取得部E31は、カウンタiに1を代入する。
 (ステップS2302)関係情報取得部E31は、処理対象の3以上の地点の中の、i番目の2地点の組が存在するか否かを判断する。i番目の2地点の組が存在する場合はステップS2303に行き、存在しない場合は上位処理にリターンする。
 (ステップS2303)関係情報取得部E31は、i番目の組の2つの各地点の位置情報を取得し、当該2つの位置情報から2つの地点の絶対距離を算出する。
 (ステップS2304)関係情報取得部E31は、i番目の組の2つの各地点の座標情報を取得し、当該2つの座標情報から2つの地点の相対距離を算出する。
 (ステップS2305)関係情報取得部E31は、ステップS2303で算出した絶対距離と、ステップS2304で算出した相対距離とを用いて、距離関係情報(例えば、MPP)を取得し、当該距離関係情報をi番目の組の情報に対応付けて一時蓄積する。
 (ステップS2306)関係情報取得部E31は、カウンタiを1、インクリメントする。ステップS2302に戻る。
 次に、ステップS2207の角度関係情報取得処理の例について、図24のフローチャートを用いて説明する。
 (ステップS2401)関係情報取得部E31は、カウンタiに1を代入する。
 (ステップS2402)関係情報取得部E31は、処理対象の3以上の地点の中の、i番目の2地点の組が存在するか否かを判断する。i番目の2地点の組が存在する場合はステップS2403に行き、存在しない場合は上位処理にリターンする。
 (ステップS2403)関係情報取得部E31は、i番目の組の2つの各地点の位置情報を取得し、当該2つの位置情報から2つの地点の絶対角度を算出する。
 (ステップS2404)関係情報取得部E31は、i番目の組の2つの各地点の座標情報を取得し、当該2つの座標情報から2つの地点の相対角度を算出する。
 (ステップS2405)関係情報取得部E31は、ステップS2403で算出した絶対角度と、ステップS2404で算出した相対角度とを用いて、角度関係情報(例えば、Rotation)を取得し、当該角度関係情報をi番目の組の情報に対応付けて一時蓄積する。
 (ステップS2406)関係情報取得部E31は、カウンタiを1、インクリメントする。ステップS2402に戻る。
 次に、ステップS2104の領域特定処理の例について、図25のフローチャートを用いて説明する。な
 (ステップS2501)領域特定情報取得部E34は、カウンタiに1を代入する。
 (ステップS2502)領域特定情報取得部E34は、i番目の処理対象の辺が存在するか否かを判断する。i番目の辺が存在する場合はステップS2503に行き、存在しない場合は上位処理にリターンする。なお、通常、地図表現データは矩形であり、処理対処の辺は、通常、上辺、下辺、左辺、右辺の4つである。
 (ステップS2503)領域特定情報取得部E34は、地図表現データのi番目の辺を特定する辺情報を取得する。なお、辺情報は、例えば、辺を構成する2つの端点の座標情報(x,y)(x,y)である。また、領域特定情報取得部E34は、例えば、地図表現データ(通常、画像ファイル)の全体を地図データであるとの前提のもと、地図表現データのファイルの辺の2つの端点の座標情報を取得する。また、領域特定情報取得部E34は、例えば、地図表現データに対して輪郭抽出処理を行い、地図以外の領域(例えば、空白の領域)と地図の領域との輪郭線の情報を取得しても良い。かかる輪郭線の情報を取得する処理は、辺情報を取得する処理である。
 (ステップS2504)領域特定情報取得部E34は、カウンタjに1を代入する。
 (ステップS2505)領域特定情報取得部E34は、処理対象のj番目の対象情報が存在するか否かを判断する。j番目の対象情報が存在する場合はステップS2506に行き、j番目の対象情報が存在しない場合はステップS2510に行く。なお、処理対象の対象情報は、地点に対応する。
 (ステップS2506)領域特定情報取得部E34は、処理対象のj番目の対象情報を取得する。
 (ステップS2507)領域特定情報取得部E34は、j番目の地点とi番目の辺との地図表現データにおける直線距離(例えば、ピクセル数)を、j番目の対象情報が有する座標情報とi番目の辺の辺情報とを用いて算出する。
 (ステップS2508)領域特定情報取得部E34は、j番目の対象情報が有する位置情報、ステップS2507で算出した直線距離、および距離関係情報の代表値(例えば、MPP)を用いて、i番目の辺の2つの各端点の位置情報を取得する。なお、かかる2つの各端点の位置情報を辺情報とする。
 (ステップS2509)領域特定情報取得部E34は、カウンタjを1、インクリメントする。ステップS2505に戻る。
 (ステップS2510)領域特定情報取得部E34は、i番目の辺に対する2以上の辺情報の代表値(例えば、中央値、平均値)を取得する。なお、かかる代表値は、代表辺情報である。代表辺情報は、例えば、2以上の辺情報の真ん中の線の情報である。代表辺情報は、例えば、2以上の各辺情報が有する2つの各端点の平均値である。例えば、2つの辺情報が、辺情報1(x11,y11)(x12,y12)、辺情報2(x21,y21)(x22,y22)である場合、平均値の代表辺情報は、((x11+x21/2),(y11+y21/2))((x12+x22/2),(y12+y22/2))である。
 (ステップS2511)領域特定情報取得部E34は、カウンタiを1、インクリメントする。ステップS2502に戻る。
 次に、ステップS2105の方角情報取得処理の例について、図26のフローチャートを用いて説明する。
 (ステップS2601)方角情報取得部E39は、カウンタiに1を代入する。
 (ステップS2602)方角情報取得部E39は、i番目の地点の組が存在するか否かを判断する。i番目の地点の組が存在する場合はステップS2603に行き、i番目の地点の組が存在しない場合はステップS2605に行く。
 (ステップS2603)方角情報取得部E39は、i番目の地点の角度関係情報を取得する。
 (ステップS2604)方角情報取得部E39は、カウンタiを1、インクリメントする。ステップS2602に戻る。
 (ステップS2605)方角情報取得部E39は、ステップS2603で取得した2以上の角度関係情報の中の代表値(例えば、平均値、中央値)を取得する。
 (ステップS2606)方角情報取得部E39は、ステップS2605で取得した角度関係情報の中の代表値を用いて、角度情報を取得する。上位処理にリターンする。なお、方角情報取得部E39は、演算式「角度情報=f(角度関係情報の代表値)」により、角度情報を取得する。なお、演算式は、例えば、「角度情報=-1×(角度関係情報の代表値)」である。
 次に、ステップS2106の地点追加処理の例について、図27のフローチャートを用いて説明する。
 (ステップS2701)追加地点取得部E35は、カウンタiに1を代入する。
 (ステップS2702)追加地点取得部E35は、地点辞書に、i番目の地点位置情報が存在するか否かを判断する。i番目の地点位置情報が存在する場合はステップS2703に行き、i番目の地点位置情報が存在しない場合は上位処理にリターンする。
 (ステップS2703)追加位置取得部E36は、i番目の地点位置情報が有する位置情報を地点辞書から取得する。
 (ステップS2704)追加地点取得部E35は、ステップS2703で取得した位置情報が、領域特定情報が示す領域の範囲内であるか否かを判断する。領域の範囲内である場合はステップS2705に行き、領域の範囲内でない場合はステップS2711に行く。なお、領域の範囲を示す領域特定情報が存在する場合、一の位置情報が当該領域ないの地点の位置情報であるか否かを判断する処理は公知技術である。
 (ステップS2705)追加座標取得部E37は、ステップS2703で取得された位置情報に対応する座標情報を取得する。
 (ステップS2706)追加地点取得部E35は、i番目の地点位置情報が有する地点情報を地点辞書から取得する。
 (ステップS2707)追加地点取得部E35は、ステップS2706で取得した地点情報を、地図表現データに配置するか否かを判断する。配置する場合はステップS2708に行き、配置しない場合はステップS2709に行く。なお、追加地点取得部E35は、例えば、ステップS2706で取得した地点情報に対応する1以上の属性値が予め決められた条件を満たす場合に、地図表現データに配置すると判断する。
 (ステップS2708)地点追記部E38は、地図表現データの上の位置であり、ステップS2705で取得された座標情報が示す位置に、ステップS2706で取得された地点情報の文字列を配置する。
 (ステップS2709)対応情報取得部E32は、ステップS2703で取得された対応情報とステップS2705で取得された座標情報とを有する対応情報を構成する。
 (ステップS2710)対応出力部E41は、ステップS2709で構成された対応情報を蓄積する。
 (ステップS2711)カウンタiを1、インクリメントする。ステップS2702に戻る。
 次に、ステップS2107の出力地図構成処理の例について、図28のフローチャートを用いて説明する。
 (ステップS2801)出力部E4は、処理対象の地図表現データを取得する。なお、ここでの地図表現データは、上記の地点追加処理により、地点が追加されたデータであることは好適である。
 (ステップS2802)処理部E3は、現在位置情報を取得する。なお、処理部E3は、現在位置情報取得部D31を有しても良い。
 (ステップS2803)処理部E3は、2以上の対応情報を用いて、ステップS2802で取得された現在位置情報に対応する座標情報を取得する。なお、処理部E3は、座標情報取得部D32を有しても良い。
 (ステップS2804)処理部E3は、地図表現データの上に、ステップS2803で取得された座標情報が示す位置が明示された現在地付加地図表現データを構成する。なお、処理部E3は、データ構成部D33を有しても良い。
 (ステップS2805)処理部E3は、上記の領域特定処理により取得された領域特定情報を取得する。
 (ステップS2806)処理部E3は、ステップS2805で取得した領域特定情報が示す領域を含む正確地図情報を取得する。
 (ステップS2807)処理部E3は、領域特定情報が示す領域の範囲を明示した正確地図情報を構成する。上位処理にリターンする。
 なお、図28のフローチャートにおいて、現在地付加地図表現データに、方角情報や縮尺情報が付加されていても良い。
 以下、本実施の形態における地図表現データ処理装置Eの具体的な動作例について説明する。
 本具体例において、地図表現データ処理装置Eは、図29に示す処理を行う。つまり、地図表現データ処理装置Eは、(1)OCRモジュールによる動作、(2)機械学習モジュールによる動作、(3)ジオコーディングモジュールによる動作、(4)クラスタリングモジュールによる動作、(5)地図情報抽出モジュールによる動作を、順に行う。なお、図29において、(2)の処理はオプションである。
 今、図30の地図表現データが地図表現データ格納部C12に格納されている、とする。なお、地図表現データは、適宜、入力画像と言う。
 かかる状況において、地図表現データ受付部C21は、入力画像を地図表現データ格納部C12から読み出す、とする。
 文字列取得部C31は、入力画像に対して、文字認識処理(OCR)を行い、文字列のリスト「高津郵便局」「梶が谷駅」「2015」「川崎市民プラザ」「虎の門病院分院」「貨物ターミナル」を取得した、とする。
 また、座標情報取得部C35は、文字列取得部C31により取得された各文字列の座標情報を取得する。この座標情報は、入力画像における相対的な座標(x,y)である。座標情報取得部C35は、例えば、文字列が配置されている領域の重心点の座標情報を取得する。
 次に、分類部C32は、文字列取得部C31により取得された各文字列が、地点情報であるか否かを、機械学習の技法(ここでは、LSTM Neural Netowork)を用いて、「2015」が地点情報ではない、と判断し、地点情報フラグ「-1」を書き込む。以上の処理により、例えば、図31の情報が得られる。なお、地点情報フラグとは、文字列が地点情報であるか否かを判断するためのフラグである。
 次に、位置情報取得部C36は、各文字列「高津郵便局」「梶が谷駅」「川崎市民プラザ」「虎の門病院分院」「貨物ターミナル」をキーとして、地点辞書を検索し、各文字列に対応する位置情報(緯度,経度)を取得する。そして、例えば、図32の情報が得られる。
 次に、関係情報取得部E31は、以下のように、距離関係情報を用いた検査処理を行う。つまり、関係情報取得部E31は、C1「高津郵便局」、C2「梶が谷駅」、C3「川崎市民プラザ」、C4「虎の門病院分院」、C5「貨物ターミナル」の各地点のうち、2つの地点の組「C1-C2」「C1-C3」「C2-C4」「C3-C4」「C3-C5」「C4-C5」の各組に属する地点間の座標情報の差異である相対距離(ここでは、ピクセル数)を、各地点の座標情報から算出する。また、関係情報取得部E31は、2つの地点の組「C1-C2」「C1-C3」「C2-C4」「C3-C4」「C3-C5」「C4-C5」の各組に属する地点間の位置情報の差異である絶対距離(ここでは、メートル)を、各地点の位置情報から算出する。そして、関係情報取得部E31は、2つの地点の各組の距離関係情報(ここでは、MPP)を、相対距離と絶対距離とを用いて、「絶対距離/相対距離」により算出する(図33参照)。そして、かかる処理の結果、図34の距離関係情報の表が得られる。
 次に、対応情報取得部E32は、図34の距離関係情報をクラスタリングし、「0.45」「0.41」「0.33」「0.41」「0.37」「0.44」のグループと、「523」「470」「941」「809」のグループに分ける。そして、対応情報取得部E32は、「0.45」「0.41」「0.33」「0.41」「0.37」「0.44」のグループに対応する地点識別子「C1」「C2」「C3」「C4」と、「523」「470」「941」「809」のグループに対応する地点識別子「C5」を得る。
 そして、対応情報取得部E32は、地点識別子の数が予め決められた条件を満たすほど多いグループの地点識別子を選択する。なお、ここでは、予め決められた条件は、例えば、「最も地点識別子の数が多いこと」「地点識別子の数が閾値(例えば、3)以上」「地点識別子の数が閾値(例えば、5)より多い」等である。そして、対応情報取得部E32は、地点識別子「C1」「C2」「C3」「C4」を取得する。つまり、対応情報取得部E32は、「高津郵便局」「梶が谷駅」「川崎市民プラザ」「虎の門病院分院」を選択し、「貨物ターミナル」を除外(削除)する。以上の処理により、図35の距離関係情報の表が得られる。つまり、距離関係情報を用いた検査処理の結果、「貨物ターミナル」が除外された。
 次に、関係情報取得部E31は、以下のように、角度関係情報を用いた検査処理を行う。つまり、関係情報取得部E31は、C1「高津郵便局」、C2「梶が谷駅」、C3「川崎市民プラザ」、C4「虎の門病院分院」の各地点のうち、2つの地点の組「C1-C2」「C1-C3」「C2-C4」「C3-C4」の各組に属する地点間の相対角度と絶対角度とを取得する。なお、関係情報取得部E31は、組を構成する2つの地点の座標情報を用いて、当該2つの地点の相対角度を算出する。また、関係情報取得部E31は、組を構成する2つの地点の位置情報を用いて、当該2つの地点の絶対角度を算出する。また、図36の3601は、C1とC3の間の相対角度(矩形の入力画像における底辺を基準とする角度)のイメージである。また、図36の3602は、C1とC3の間の絶対角度(実世界での東西方向を基準とする角度)のイメージである。そして、関係情報取得部E31は、相対角度と絶対角度とを用いて、角度関係情報(Rotation)を算出する。なお、ここでは、関係情報取得部E31は、「角度関係情報=相対角度-絶対角度」により、角度関係情報を算出する。
 以上の処理により、関係情報取得部E31は、図37に示す情報を得る。また、図37に示す情報を表にした情報が図38である。また、関係情報取得部E31は、図38の角度関係情報から、(cos(角度関係情報),sin(角度関係情報))を算出し、2つの地点の組毎に、ベクトルデータを算出する(図39参照)。なお、ベクトルデータを角度関係情報と考えても良い。
 次に、対応情報取得部E32は、図39のベクトルをクラスタリングし、グループ1「(cos(-2),sin(-2))(cos(-1),sin(-2))」、およびグループ2「
(cos(-40),sin(-40))(cos(-24),sin(-24))(cos(-32),sin(-32))(cos(-26),sin(-26))」を取得する。そして、対応情報取得部E32は、グループ1に対応する地点識別子「C2」と、グループ2に対応する地点識別子「C1」「C3」「C4」を得る。
 そして、対応情報取得部E32は、地点識別子の数が予め決められた条件を満たすほど多いグループの地点識別子を選択する。そして、対応情報取得部E32は、地点識別子「C1」「C3」「C4」を取得した、とする。つまり、対応情報取得部E32は、「高津郵便局」「川崎市民プラザ」「虎の門病院分院」を選択し、「梶が谷駅」を除外(削除)する。
 なお、図40に示すように、対応情報取得部E32は、例えば、グループ2の適切な値「(cos(-40),sin(-40))(cos(-24),sin(-24))(cos(-32),sin(-32))(cos(-26),sin(-26))」に対応する地点間にリンクを作成し、最も大きい閉空間の地点識別子「C1」「C3」「C4」を取得しても良い。また、対応情報取得部E32は、例えば、グループ2の適切な値に対応する地点間にリンクを作成し、閉空間では無い地点識別子「C2」を削除する処理を行っても良い。
 以上の処理により、対応情報取得部E32は、蓄積する対象の対応情報の地点として、「高津郵便局」「川崎市民プラザ」「虎の門病院分院」の3つの地点を選択したこととなる。そして、対応情報取得部E32は、3つの各地点の対応情報(座標情報,位置情報)を取得する。なお、対応情報は、文字列(地点の名称)とリンク付いていても良い。
 次に、対応出力部E41は、取得された3つの対応情報を蓄積する。なお、対応情報の蓄積先は、例えば、対応情報格納部C14、または図示しない外部の装置である。
 次に、対応情報取得部E32は、3つの地点「C1」「C3」「C4」に対応するMPP「0.41」「0.33」「0.44」を得る。次に、対応情報取得部E32は、3つのMPPの代表値(ここでは、平均値)を算出し、「0.39」を得る(図41参照)。
 次に、縮尺取得部E33は、取得された距離関係情報の代表値(MPP「0.39」)を用いて、縮尺情報(例えば、「0.39」)を取得し、入力画像に対応付けて蓄積する。
 次に、方角情報取得部E39は、以下のように、方角情報取得処理を行う。つまり、方角情報取得部E39は、地点識別子「C1」「C3」「C4」のうちの各組の角度関係情報「-40」「-24」「-26」を取得する。次に、方角情報取得部E39は、角度関係情報の代表値(ここでは、平均値)「-30」を取得する。次に、方角情報取得部E39は、演算式「角度情報=-1×(角度関係情報の代表値)」により、「30度」を取得する。そして、方角情報取得部E39は、真北から30度、東側(時計回りで30度)に傾いた方角を示す図柄(ここでの角度情報)を取得する。そして、方角情報出力部E44は、方角を示す図柄(角度情報)を、入力画像に付加して、出力する。かかる出力例は、図42である。図42の4201は、角度情報の例である。
 次に、領域特定情報取得部E34は、以下のように領域特定処理を行う。例えば、まず、領域特定情報取得部E34は、輪郭抽出技術により、図30の入力画像の地図の領域の各辺(30a,30b,30c,30d)を検知する。なお、輪郭抽出技術により領域を検知する技術は公知技術である。
 次に、領域特定情報取得部E34は、地点識別子「C1」の地点から、右辺30aまでの相対距離(ここでは、ピクセル数)「720」を取得する。なお、相対距離は、「C1」の地点から右辺30aまでの垂線のピクセル数である。次に、領域特定情報取得部E34は、MPPの代表値(0.39)とピクセル数「720」とを用いて、演算「720×0.39」により、右辺30aまでの絶対距離「280m」を算出する。次に、領域特定情報取得部E34は、「C1」の位置情報と絶対距離「280m」とを用いて、右辺30aの中の「C1」の地点の真右の位置情報[35.5918,139.6053]を取得した、とする(図43参照)。
 同様に、領域特定情報取得部E34は、地点識別子「C3」の地点から、右辺30aまでのピクセル数「1199」を取得する。また、領域特定情報取得部E34は、ピクセル数「1199」とMPPの代表値(0.39)とを乗算し、地点識別子「C3」の地点からの右辺30aまでの絶対距離「468m」を算出する。また、領域特定情報取得部E34は、「C3」の位置情報と絶対距離「468m」とを用いて、右辺30aの中の「C3」の地点の真右の位置情報[35.5849,139.6096]を取得する(図43参照)。また、同様に、領域特定情報取得部E34は、右辺30aの中の「C4」の地点の真右の位置情報を取得する。
 次に、領域特定情報取得部E34は、「C1」「C3」「C4」の各地点に対応する右辺上の位置情報と方角情報とを用いて、「C1」「C3」「C4」の各地点からの右辺の情報(直線の情報)[44a,44b,44c]を取得する。なお、かかる概念図は、図44である。次に、領域特定情報取得部E34は、3つの右辺の情報から右辺の代表値(ここでは、中央値の44c)を取得する。この右辺の代表値が、正確地図情報の中の右辺の境界線として決定される。なお、右辺の代表値は、平均値でも良い。
 領域特定情報取得部E34は、正確地図情報の中の右辺の境界線の取得処理と同様の処理を行い、正確地図情報の中の下辺(45a)、左辺(45b)、および上辺(45c)の境界線の情報を取得する。次に、領域特定情報取得部E34は、4つの辺(44c,45a,45b,45c)の交点(X,Y)(X,Y)(X,Y)(X,Y)を得る(図45参照)。なお、交点は、(緯度,経度)である。
 以上の処理により、領域特定情報取得部E34は、入力画像の中の地図の領域に対応する、正確地図情報の領域を特定する領域特定情報を得る。なお、領域特定情報は、例えば、4つの交点の情報、または2点(X,Y)(X,Y)の情報、または2点(X,Y)(X,Y)の情報である。
 次に、処理部E3は、領域特定情報により特定される領域を含む正確地図情報を読み出す。次に、処理部E3は、正確地図情報に、領域特定情報により特定される領域を明示した正確地図情報を構成する。次に、出力部E4は、領域特定情報により特定される領域が明示された正確地図情報を出力する。かかる正確地図情報の出力例は、図46である。また、領域は矩形であり、4601である。
 次に、図27のフローチャートによる処理により、追加地点取得部E35は、地点辞書を検索し、領域特定情報により特定される領域の中に入る1以上の地点位置情報を取得する。次に、追加地点取得部E35は、1以上の各地点位置情報が有する地点情報を取得する。次に、追加座標取得部E37は、1以上の各地点位置情報が有する位置情報に対応する座標情報を取得する。次に、地点追記部E38は、各地点位置情報に対して、取得された座標情報が示す位置に、取得された地点情報の文字列を、入力画像の上に配置する。以上の処理により、出力対象の正確地図情報が構成される。
 次に、出力部E4は、構成された正確地図情報を出力する。 以上、本実施の形態によれば、地図表現データ上の地名等の座標情報と位置情報とを対応付けた適切な対応情報を自動的に取得できる。
 また、本実施の形態によれば、地図表現データがサポートする実世界での範囲を取得できる。
 また、本実施の形態によれば、地図表現データに新たな地点情報を付加できる。
 さらに、本実施の形態によれば、地図表現データの方角情報を取得できる。
 なお、実施の形態3で説明した地図表現データ処理装置Dは、本実施の形態において自動的に取得された1または2以上の対応情報を用いて、地図表現データ上に現在位置を明示できる。
 かかる場合、地図表現データ処理装置Eにより自動取得された2以上の対応情報を用いて、地図表現データの上に現在地を示すことができる。
 さらに、本実施の形態における処理は、ソフトウェアで実現しても良い。そして、このソフトウェアをソフトウェアダウンロード等により配布しても良い。また、このソフトウェアをCD-ROMなどの記録媒体に記録して流布しても良い。なお、このことは、本明細書における他の実施の形態においても該当する。なお、本実施の形態における情報処理装置を実現するソフトウェアは、以下のようなプログラムである。つまり、このプログラムは、コンピュータを、イラスト地図、手書き地図、略地図のうちのいずれか1以上の種類の地図である地図表現データを受け付ける地図表現データ受付部と、前記地図表現データから3以上の文字列を取得する文字列取得部と、前記文字列取得部が取得した3以上の各文字列に対応する座標情報であり、前記地図表現データの中の座標情報を取得する座標情報取得部と、地点を特定する地点情報と当該地点の位置を特定する位置情報とを対応付ける1以上の地点位置情報を有する地点辞書を用いて、前記文字列取得部が取得した3以上の各文字列である地点情報に対応する位置情報を取得する位置情報取得部と、前記文字列取得部が取得した3以上の各文字列に対応する前記座標情報と前記位置情報との組である対応情報の間の関係に関する関係情報を取得する関係情報取得部と、前記関係情報を用いて、前記3以上の対応情報の中で、予め決められた関係を満たす関係情報に対応する2以上の対応情報のみを取得する対応情報取得部と、前記対応情報取得部が取得した2以上の対応情報を蓄積する対応出力部として機能させるためのプログラムである。
 また、図47は、本明細書で述べたプログラムを実行して、上述した種々の実施の形態の地図表現データ処理装置C等を実現するコンピュータの外観を示す。上述の実施の形態は、コンピュータハードウェア及びその上で実行されるコンピュータプログラムで実現され得る。図47は、このコンピュータシステム300の概観図であり、図48は、システム300のブロック図である。
 図47において、コンピュータシステム300は、CD-ROMドライブを含むコンピュータ301と、キーボード302と、マウス303と、モニタ304とを含む。
 図48において、コンピュータ301は、CD-ROMドライブ3012に加えて、MPU3013と、CD-ROMドライブ3012等に接続されたバス3014と、ブートアッププログラム等のプログラムを記憶するためのROM3015と、MPU3013に接続され、アプリケーションプログラムの命令を一時的に記憶するとともに一時記憶空間を提供するためのRAM3016と、アプリケーションプログラム、システムプログラム、及びデータを記憶するためのハードディスク3017とを含む。ここでは、図示しないが、コンピュータ301は、さらに、LANへの接続を提供するネットワークカードを含んでも良い。
 コンピュータシステム300に、上述した実施の形態の地図表現データ処理装置C等の機能を実行させるプログラムは、CD-ROM3101に記憶されて、CD-ROMドライブ3012に挿入され、さらにハードディスク3017に転送されても良い。これに代えて、プログラムは、図示しないネットワークを介してコンピュータ301に送信され、ハードディスク3017に記憶されても良い。プログラムは実行の際にRAM3016にロードされる。プログラムは、CD-ROM3101またはネットワークから直接、ロードされても良い。
 プログラムは、コンピュータ301に、上述した実施の形態の地図表現データ処理装置C等の機能を実行させるオペレーティングシステム(OS)、またはサードパーティープログラム等は、必ずしも含まなくても良い。プログラムは、制御された態様で適切な機能(モジュール)を呼び出し、所望の結果が得られるようにする命令の部分のみを含んでいれば良い。コンピュータシステム300がどのように動作するかは周知であり、詳細な説明は省略する。
 なお、上記プログラムにおいて、情報を送信するステップや、情報を受信するステップなどでは、ハードウェアによって行われる処理、例えば、送信ステップにおけるモデムやインターフェースカードなどで行われる処理(ハードウェアでしか行われない処理)は含まれない。
 また、上記プログラムを実行するコンピュータは、単数であってもよく、複数であってもよい。すなわち、集中処理を行ってもよく、あるいは分散処理を行ってもよい。
 また、上記各実施の形態において、一の装置に存在する2以上の通信手段は、物理的に一
 また、上記各実施の形態において、各処理は、単一の装置によって集中処理されることによって実現されてもよく、あるいは、複数の装置によって分散処理されることによって実現されてもよい。つまり、地図表現データ処理装置Cは、スタンドアロンで動作しても良い。
 本発明は、以上の実施の形態に限定されることなく、種々の変更が可能であり、それらも本発明の範囲内に包含されるものであることは言うまでもない。
 以上のように、本発明にかかる地図表現データ処理装置は、地図表現データ上の地名等の座標情報と位置情報とを対応付けて自動的に取得できるという効果を有し、地図表現データ処理装置等として有用である。
 A 学習装置
 B 分類装置
 C,D,E 地図表現データ処理装置
 A1,B1,C1,D1 格納部
 A2,B2,C2,D2 受付部
 A3,B3,C3,D3,E3 処理部
 A4,B4,C4,D4、E4 出力部
 A11 学習元情報格納部
 A12 学習器格納部
 A31 学習部
 A41 蓄積部
 B21 文字列受付部
 B31 分類部
 B41 ラベル出力部
 C11 地点辞書格納部
 C12 地図表現データ格納部
 C13 正確地図情報格納部
 C14 対応情報格納部
 C21 地図表現データ受付部
 C31 文字列取得部
 C32 分類部
 C33 グループ化部
 C34 特徴箇所検出部
 C35 座標情報取得部
 C36 位置情報取得部
 C37 領域特定情報取得部
 C38 方角情報取得部
 C41 対応出力部
 C42 正確地図情報出力部
 C43 方角情報出力部
 C371 第一領域特定情報取得手段
 C372 外側文字列決定手段
 C373 サイズ情報取得手段
 C374 距離情報取得手段
 C375 第二領域特定情報取得手段
 D31 現在位置情報取得部
 D32 座標情報取得部
 D33 データ構成部
 D41 地図表現データ出力部
 E31 関係情報取得部
 E32 対応情報取得部
 E33 縮尺取得部
 E34 領域特定情報取得部
 E35 追加地点取得部
 E36 追加位置取得部
 E37 追加座標取得部
 E38 地点追記部
 E39 方角情報取得部
 E41 対応出力部
 E42 縮尺情報出力部
 E43 領域特定情報出力部
 E44 方角情報出力部
 E321 判断手段
 E322 対応情報取得手段

Claims (19)

  1. イラスト地図、手書き地図、略地図のうちのいずれか1以上の種類の地図である地図表現データを受け付ける地図表現データ受付部と、
    前記地図表現データから文字列を取得する文字列取得部と、
    前記文字列取得部が取得した文字列に対応する座標位置を特定する情報であり、前記地図表現データの中の相対的な座標位置を特定する情報である座標情報を取得する座標情報取得部と、
    地点を特定する地点情報と当該地点の位置を特定する位置情報とを対応付ける情報である1以上の地点位置情報を有する地点辞書を用いて、前記文字列取得部が取得した文字列である地点情報に対応する位置情報を取得する位置情報取得部と、
    前記座標情報取得部が取得した座標情報と前記位置情報取得部が取得した位置情報とを対応付けて出力する対応出力部とを具備する地図表現データ処理装置。
  2. 前記文字列取得部は、
    前記地図表現データから2以上の文字列を取得し、
    前記文字列取得部が取得した2以上の各文字列が地点を特定する文字列であるか否かを判断する分類部をさらに具備し、
    前記対応出力部は、
    前記分類部が地点を特定する文字列であると判断した文字列に対応する座標情報と位置情報とを対応付けて出力する請求項1記載の地図表現データ処理装置。
  3. 2以上の文字を有する文字列と、地点辞書での出現回数に関するラベルであり、2または3種類以上のラベルのうちのいずれかのラベルとを有する2以上の学習元情報を機械学習の学習モジュールに与え、当該学習モジュールを実行し、取得された学習器が格納される学習器格納部をさらに具備し、
    前記分類部は、
    前記文字列取得部が取得した2以上の各文字列と前記学習器とを用いて、機械学習の技法により前記2以上の各文字列に対して、地点情報または非地点情報のいずれかを決める分類処理を行い、
    前記対応出力部は、
    前記分類部が地点情報に分類した文字列に対応する座標情報と位置情報とを対応付けて出力する請求項2記載の地図表現データ処理装置。
  4. 前記地図表現データから、予め決められた特徴的な図柄である特徴図柄が表出している箇所である特徴箇所を検出する特徴箇所検出部をさらに具備し、
    前記座標情報取得部は、
    前記特徴図柄に対応する座標情報を取得し、
    前記位置情報取得部は、
    前記地点辞書を用いて、前記特徴図柄に対応する文字列である地点情報に対応する位置情報を取得する請求項1から請求項3いずれか一項に記載の地図表現データ処理装置。
  5. 前記文字列取得部は、
    前記地図表現データから3以上の文字列を取得し、
    前記位置情報取得部が取得した3以上の位置情報のうち、予め決められた条件を満たすほど近い位置を示す2以上の位置情報を決定するグループ化部をさらに具備し、
    前記対応出力部は、
    前記グループ化部が決定した2以上の各位置情報と前記座標情報取得部が取得した2以上の各座標情報とを対応付けて出力する請求項1から請求項4いずれか一項に記載の地図表現データ処理装置。
  6. 正確な地図情報である正確地図情報が格納される正確地図情報格納部と、
    前記グループ化部が決定した2以上の位置情報が示す位置を含む領域であり、前記正確地図情報の中の領域を特定する領域特定情報を取得する領域特定情報取得部と、
    前記領域特定情報が特定する領域が分かる態様で、前記正確地図情報を出力する正確地図情報出力部とをさらに具備する請求項5記載の地図表現データ処理装置。
  7. 前記領域特定情報取得部は、
    前記グループ化部が決定した2以上の位置情報が示す位置を含む領域であり、前記正確地図情報の中の領域である第一領域を特定する第一領域特定情報を取得する第一領域特定情報取得手段と、
    前記位置情報取得部が取得した位置情報のうち、最も外側に位置する1以上の各位置情報に対応する文字列を決定する外側文字列決定手段と、
    前記外側文字列決定手段が決定した1以上の文字列の外側であり、前記地図表現データの隅までのサイズに関するサイズ情報を取得するサイズ情報取得手段と、
    前記座標情報取得部が取得した座標情報と前記位置情報取得部が取得した位置情報との組を2組以上用いて、前記サイズ情報取得手段が取得したサイズ情報に対応する距離を特定する距離情報を取得する距離情報取得手段と、
    前記距離情報を用いて、前記第一領域特定情報が特定する第一領域を広げた領域である第二領域を特定する第二領域特定情報を取得する第二領域特定情報取得手段とを具備し、
    前記正確地図情報出力部は、
    前記第二領域特定情報が特定する領域が分かる態様で、前記正確地図情報を出力する請求項6記載の地図表現データ処理装置。
  8. 前記領域特定情報または前記第二領域特定情報は、矩形を構成する2点の情報を含み、
    前記領域特定情報または前記第二領域特定情報を用いて、前記地図表現データの方角に関する方角情報を取得する方角情報取得部と、
    前記方角情報を出力する方角情報出力部とをさらに具備する請求項7記載の地図表現データ処理装置。
  9. 前記文字列取得部が取得した3以上の各文字列に対応する前記座標情報と前記位置情報との組である対応情報の間の関係に関する関係情報を取得する関係情報取得部と、
    前記関係情報を用いて、前記3以上の対応情報の中で、予め決められた関係を満たす関係情報に対応する2以上の対応情報のみを取得する対応情報取得部と、
    前記対応情報取得部が取得した2以上の対応情報を蓄積する対応出力部とをさらに具備する請求項1から請求項4いずれか一項に記載の地図表現データ処理装置。
  10. 前記関係情報取得部は、
    前記文字列取得部が取得した3以上の文字列のうちの2つの各文字列に対応する対応情報の間の相対的な関係情報を、2つの文字列の組ごとに取得し、
    前記対応情報取得部は、
    前記関係情報取得部が取得した3以上の関係情報をグループ化し、いずれのグループにも入らない関係情報を決定する判断手段と、
    前記文字列取得部が取得した3以上の各文字列に対応する対応情報の中から、前記グループに入らない関係情報に対応する対応情報を除き、残った2以上の対応情報のみを取得する対応情報取得手段とを具備する請求項9記載の地図表現データ処理装置。
  11. 前記関係情報取得部は、
    前記2つの文字列の組ごとに、前記2つの文字列の座標情報の差異である相対距離と前記2つの文字列の位置情報の差異である絶対距離との関係を示す関係情報である距離関係情報を取得し、
    前記対応情報取得部は、
    前記3以上の各距離関係情報が予め決められた関係を満たすか否かを判断し、前記文字列取得部が取得した3以上の各文字列に対応する対応情報の中から、前記予め決められた関係を満たさない距離関係情報に対応する対応情報を除き、残った2以上の対応情報のみを取得する請求項9または請求項10記載の地図表現データ処理装置。
  12. 前記3以上の距離関係情報から距離関係情報の代表値を取得し、当該距離関係情報の代表値を用いて、地図表現データの縮尺情報を取得する縮尺取得部と、
    前記縮尺情報を出力する縮尺情報出力部とをさらに具備する請求項11記載の地図表現データ処理装置。
  13. 前記文字列取得部が取得した文字列に対応する座標情報と前記地図表現データの4辺のうちの各辺との垂直距離である相対垂直距離を取得し、当該相対垂直距離と前記縮尺情報とを用いて、前記地図表現データの実世界における範囲を特定する領域特定情報を取得する領域特定情報取得部と、
    前記領域特定情報を出力する領域特定情報出力部とをさらに具備する請求項12記載の地図表現データ処理装置。
  14. 前記領域特定情報が示す範囲の地点情報を前記地点辞書から取得する追加地点取得部と、
    前記地点情報に対応する位置情報を前記地点辞書から取得する追加位置取得部と、
    前記位置情報に対応する座標情報を取得する追加座標取得部と、
    前記地図表現データの上の位置であり、前記座標情報が示す位置に前記地点情報を配置する地点追記部とをさらに具備する請求項13記載の地図表現データ処理装置。
  15. 前記関係情報取得部は、
    前記2つの文字列の組ごとに、前記2つの文字列の座標情報から得られる角度である相対角度と前記2つの文字列の位置情報から得られる角度である絶対角度との関係を示す関係情報である角度関係情報を取得し、
    前記対応情報取得部は、
    前記3以上の各角度関係情報が予め決められた関係を満たすか否かを判断し、前記文字列取得部が取得した3以上の各文字列に対応する対応情報の中から、前記予め決められた関係を満たさない角度関係情報に対応する対応情報を除き、残った2以上の対応情報のみを取得する請求項9または請求項10記載の地図表現データ処理装置。
  16. 前記3以上の角度関係情報から角度関係情報の代表値を取得し、当該角度関係情報の代表値を用いて、地図表現データの方角を示す方角情報を取得する方角情報取得部と、
    前記方角情報を出力する方角情報出力部とをさらに具備する請求項15記載の地図表現データ処理装置。
  17. 地図表現データが格納される地図表現データ格納部と、
    請求項1から請求項16いずれか一項に記載の地図表現データ処理装置が出力した座標情報と位置情報との組である2以上の対応情報が格納される対応情報格納部と、
    現在位置を特定する現在位置情報を取得する現在位置情報取得部と、
    前記2以上の対応情報を用いて、前記現在位置情報に対応する座標情報を取得する座標情報取得部と、
    前記地図表現データの上に、前記座標情報が示す位置が明示された地図表現データである現在地付加地図表現データを構成するデータ構成部と、
    前記現在地付加地図表現データを出力する地図表現データ出力部とを具備する地図表現データ処理装置。
  18. 地図表現データ受付部と、文字列取得部と、座標情報取得部と、位置情報取得部と、対応出力部とにより実現される対応情報の生産方法であって、
    前記地図表現データ受付部が、イラスト地図、手書き地図、略地図のうちのいずれか1以上の種類の地図である地図表現データを受け付ける地図表現データ受付ステップと、
    前記文字列取得部が、前記地図表現データから文字列を取得する文字列取得ステップと、
    前記座標情報取得部が、前記文字列取得ステップで取得された文字列に対応する座標位置を特定する情報であり、前記地図表現データの中の相対的な座標位置を特定する情報である座標情報を取得する座標情報取得ステップと、
    前記位置情報取得部が、地点を特定する地点情報と当該地点の位置を特定する位置情報とを対応付ける情報である1以上の地点位置情報を有する地点辞書を用いて、前記文字列取得ステップで取得された文字列である地点情報に対応する位置情報を取得する位置情報取得ステップと、
    前記対応出力部が、前記座標情報取得ステップで取得され座標情報と前記位置情報取得ステップで取得された位置情報とを対応付けて出力する対応出力ステップとを具備する対応情報の生産方法。
  19. 地点を特定する地点情報と当該地点の位置を特定する位置情報とを対応付ける情報である1以上の地点位置情報を有する地点辞書が格納される地点辞書格納部にアクセス可能なコンピュータを、
    イラスト地図、手書き地図、略地図のうちのいずれか1以上の種類の地図である地図表現データを受け付ける地図表現データ受付部と、
    前記地図表現データから文字列を取得する文字列取得部と、
    前記文字列取得部が取得した文字列に対応する座標位置を特定する情報であり、前記地図表現データの中の相対的な座標位置を特定する情報である座標情報を取得する座標情報取得部と、
    前記地点辞書を用いて、前記文字列取得部が取得した文字列である地点情報に対応する位置情報を取得する位置情報取得部と、
    前記座標情報取得部が取得した座標情報と前記位置情報取得部が取得した位置情報とを対応付けて出力する対応出力部として機能させるためのプログラム。
PCT/JP2020/024435 2019-06-25 2020-06-22 地図表現データ処理装置、対応情報の生産方法、およびプログラム WO2020262312A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US17/622,052 US20220254053A1 (en) 2019-06-25 2020-06-22 Map representation data processing device, correspondence information production method, and program
JP2021526978A JP7513990B2 (ja) 2019-06-25 2020-06-22 地図表現データ処理装置、対応情報の生産方法、およびプログラム
EP20831278.5A EP3992952A4 (en) 2019-06-25 2020-06-22 MAPPING DATA PROCESSING DEVICE, METHOD FOR PRODUCING CORRESPONDENCE INFORMATION, AND PROGRAM
CN202080046781.1A CN114008608A (zh) 2019-06-25 2020-06-22 地图表现数据处理装置、对应信息的产生方法、以及程序

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019117259 2019-06-25
JP2019-117259 2019-06-25

Publications (1)

Publication Number Publication Date
WO2020262312A1 true WO2020262312A1 (ja) 2020-12-30

Family

ID=74060893

Family Applications (2)

Application Number Title Priority Date Filing Date
PCT/JP2020/024436 WO2020262313A1 (ja) 2019-06-25 2020-06-22 地図表現データ処理装置、情報処理方法、およびプログラム
PCT/JP2020/024435 WO2020262312A1 (ja) 2019-06-25 2020-06-22 地図表現データ処理装置、対応情報の生産方法、およびプログラム

Family Applications Before (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/024436 WO2020262313A1 (ja) 2019-06-25 2020-06-22 地図表現データ処理装置、情報処理方法、およびプログラム

Country Status (5)

Country Link
US (2) US20220254053A1 (ja)
EP (2) EP3992952A4 (ja)
JP (1) JPWO2020262313A1 (ja)
CN (2) CN114080600A (ja)
WO (2) WO2020262313A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117911573A (zh) * 2024-01-25 2024-04-19 中国南方航空股份有限公司 一种多边形空域绘制方法、装置、设备及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010272082A (ja) * 2009-05-25 2010-12-02 Hitachi Ltd 情報共有システム、情報共有方法、および情報共有プログラム
JP2011043788A (ja) * 2009-07-21 2011-03-03 Advanced Telecommunication Research Institute International 情報処理装置、情報処理方法、およびプログラム
JP2011158518A (ja) 2010-01-29 2011-08-18 Advanced Telecommunication Research Institute International 地図情報システム、端末装置、サーバ装置およびプログラム
JP2012168069A (ja) * 2011-02-16 2012-09-06 Mic Ware:Kk 地図情報処理装置、ナビゲーション装置、地図情報処理方法、およびプログラム
JP2014032308A (ja) * 2012-08-03 2014-02-20 Micware Co Ltd 地図情報処理装置、地図情報処理システム、地図情報処理方法、およびプログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002169823A (ja) * 2000-12-01 2002-06-14 Minolta Co Ltd データベース検索プログラムを記録したコンピュータ読み取り可能な記録媒体、データベース検索方法およびデータベース検索装置
EP2584515B1 (en) * 2010-06-15 2020-06-10 Navitime Japan Co., Ltd. Navigation system, terminal apparatus, navigation server, navigation apparatus, navigation method, and program
JP2012185741A (ja) 2011-03-07 2012-09-27 Ricoh Co Ltd 画像形成装置、情報処理装置、画像処理システム、及びプログラム
WO2019069366A1 (ja) 2017-10-03 2019-04-11 株式会社Stroly 情報処理装置、情報システム、情報処理方法、およびプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010272082A (ja) * 2009-05-25 2010-12-02 Hitachi Ltd 情報共有システム、情報共有方法、および情報共有プログラム
JP2011043788A (ja) * 2009-07-21 2011-03-03 Advanced Telecommunication Research Institute International 情報処理装置、情報処理方法、およびプログラム
JP2011158518A (ja) 2010-01-29 2011-08-18 Advanced Telecommunication Research Institute International 地図情報システム、端末装置、サーバ装置およびプログラム
JP2012168069A (ja) * 2011-02-16 2012-09-06 Mic Ware:Kk 地図情報処理装置、ナビゲーション装置、地図情報処理方法、およびプログラム
JP2014032308A (ja) * 2012-08-03 2014-02-20 Micware Co Ltd 地図情報処理装置、地図情報処理システム、地図情報処理方法、およびプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3992952A4

Also Published As

Publication number Publication date
JPWO2020262312A1 (ja) 2020-12-30
US20220254053A1 (en) 2022-08-11
US11928835B2 (en) 2024-03-12
JPWO2020262313A1 (ja) 2020-12-30
WO2020262313A1 (ja) 2020-12-30
CN114080600A (zh) 2022-02-22
EP3992952A1 (en) 2022-05-04
EP3992953A1 (en) 2022-05-04
EP3992952A4 (en) 2022-08-10
US20220318297A1 (en) 2022-10-06
EP3992953A4 (en) 2022-08-03
CN114008608A (zh) 2022-02-01

Similar Documents

Publication Publication Date Title
US11580755B2 (en) Method, apparatus, and system for determining polyline homogeneity
US10339669B2 (en) Method, apparatus, and system for a vertex-based evaluation of polygon similarity
EP2273337B1 (en) Generating a graphic model of a geographic object and systems thereof
CN110378293B (zh) 一种基于实景三维模型生产高精度地图的方法
US11231282B2 (en) Method and apparatus for providing node-based map matching
US20210241035A1 (en) Method, apparatus, and system for filtering imagery to train a feature detection model
US8761435B2 (en) Detecting geographic features in images based on invariant components
JP5797419B2 (ja) 地図情報処理装置、ナビゲーション装置、地図情報処理方法、およびプログラム
Agrawala Visualizing route maps
EP4273501A1 (en) Method, apparatus, and computer program product for map data generation from probe data imagery
US10776951B2 (en) Method, apparatus, and system for an asymmetric evaluation of polygon similarity
WO2020262312A1 (ja) 地図表現データ処理装置、対応情報の生産方法、およびプログラム
JP7513990B2 (ja) 地図表現データ処理装置、対応情報の生産方法、およびプログラム
EP4202833A1 (en) Method, apparatus, and system for pole extraction from a single image
KR20100138554A (ko) 여행자용 내비게이션 방법 및 그 시스템
JP2010218569A (ja) 地物情報収集装置及び地物情報収集方法
JP2021005143A (ja) 学習装置、分類装置、学習器の生産方法、分類方法、およびプログラム
Drozdzynski et al. On constructing a base map for collaborative map generation and its application in urban mobility planning
US20230358563A1 (en) Method, apparatus, and computer program product for map geometry generation based on data aggregation and conflation
CN108318044A (zh) 一个基于多源异构众包数据的风景路网建模系统
EP4300043A1 (en) Method and apparatus for providing a path-based map matcher
Edelkamp Navigation Data
Cheng Sr et al. Unite segmentation method of uneven sparse road point cloud considering multi-sampling radius
Gotlib Mobile maps-modelling of cartographic presentation
JP7035289B2 (ja) ガイド情報提案装置、およびプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20831278

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021526978

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2020831278

Country of ref document: EP

Effective date: 20220125