JP7199067B2 - Reasoning device, reasoning method and program - Google Patents

Reasoning device, reasoning method and program Download PDF

Info

Publication number
JP7199067B2
JP7199067B2 JP2021060866A JP2021060866A JP7199067B2 JP 7199067 B2 JP7199067 B2 JP 7199067B2 JP 2021060866 A JP2021060866 A JP 2021060866A JP 2021060866 A JP2021060866 A JP 2021060866A JP 7199067 B2 JP7199067 B2 JP 7199067B2
Authority
JP
Japan
Prior art keywords
point
specific point
inference
linguistic
relating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021060866A
Other languages
Japanese (ja)
Other versions
JP2022156923A (en
Inventor
祥一 澤田
光穂 山本
裕明 大島
岳洋 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Hyogo
Mitsui Sumitomo Insurance Co Ltd
Original Assignee
University of Hyogo
Mitsui Sumitomo Insurance Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Hyogo, Mitsui Sumitomo Insurance Co Ltd filed Critical University of Hyogo
Priority to JP2021060866A priority Critical patent/JP7199067B2/en
Publication of JP2022156923A publication Critical patent/JP2022156923A/en
Application granted granted Critical
Publication of JP7199067B2 publication Critical patent/JP7199067B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Instructional Devices (AREA)
  • Machine Translation (AREA)

Description

本発明は、推論装置、推論方法およびプログラムに関する。 The present invention relates to an inference device, an inference method, and a program.

特許文献1には、「端末3に含まれる位置情報検出センサ9は、GPSであってもよい…車両の現在位置を測定して、この現在位置情報を出力する。」(段落0086)、「端末3からサーバ20に…送付される情報は、…位置情報として〇県×市△町XXX」(段落0109)と記載されている。
[先行技術文献]
[特許文献]
[特許文献1] 特許第6095835号
In Patent Document 1, "The position information detection sensor 9 included in the terminal 3 may be a GPS ... measures the current position of the vehicle and outputs this current position information" (paragraph 0086), " The information sent from the terminal 3 to the server 20 is described as location information such as "0 prefecture x city △ town XXX" (paragraph 0109).
[Prior art documents]
[Patent Literature]
[Patent Document 1] Patent No. 6095835

本発明の一態様においては、推論装置が提供される。推論装置は、特定の地点を含む区域に関する地理データを取得する取得部を備えてもよい。推論装置は、任意の地点に関する第1言語表現および任意の地点を含む区域に関する地理データと、任意の地点との対応関係の学習結果に基づき、特定の地点に関する第1言語表現および取得部によって取得された地理データから特定の地点を推論する推論部を備えてもよい。 In one aspect of the invention, a reasoning apparatus is provided. The reasoning apparatus may comprise an acquisition unit for acquiring geographic data relating to an area containing a particular point. The inference device acquires a first language expression related to a specific point and an acquisition unit based on learning results of a correspondence relationship between the first language expression related to the arbitrary point and geographic data related to the area including the arbitrary point and the arbitrary point. An inference unit may be provided for inferring a particular point from the provided geographic data.

推論部は、任意の地点に関する第1言語表現から特定される複数の言語特徴量、および、任意の地点を含む区域に関する地理データに含まれる複数の地図画像または地物画像から特定される複数の画像特徴量と、任意の地点との対応関係を予め学習しておいてもよい。推論部は、取得部によって取得された地理データに含まれる複数の地図画像または地物画像から複数の画像特徴量を特定してもよい。推論部は、特定の地点に関する第1言語表現から複数の言語特徴量を特定してもよい。推論部は、特定の地点に関する複数の画像特徴量および複数の言語特徴量から特定の地点を推論してもよい。 The inference unit includes a plurality of linguistic feature amounts specified from a first language expression regarding an arbitrary point, and a plurality of map images or feature images identified from a plurality of map images or feature images included in geographic data regarding an area including the arbitrary point. Correspondence relationships between image feature amounts and arbitrary points may be learned in advance. The inference unit may specify a plurality of image feature amounts from a plurality of map images or feature images included in the geographic data acquired by the acquisition unit. The inference unit may identify a plurality of linguistic features from the first linguistic expression regarding the specific point. The inference unit may infer a specific spot from a plurality of image feature quantities and a plurality of language feature quantities relating to the specific spot.

推論部は、任意の地点を含む第1区域から、第1区域よりも小さい、任意の地点を含む第2区域へと段階的に、任意の地点に関する複数の言語特徴量および複数の画像特徴量と、任意の地点との対応関係を学習してもよい。推論部は、特定の地点を含む第3区域から、第3区域よりも小さい、特定の地点を含む第4区域へと段階的に、特定の地点に関する複数の画像特徴量および複数の言語特徴量から特定の地点を推論してもよい。 The inference unit generates a plurality of linguistic feature values and a plurality of image feature values related to the arbitrary point, step by step from a first area including the arbitrary point to a second area smaller than the first area and including the arbitrary point. , and an arbitrary point may be learned. The inference unit generates a plurality of image feature values and a plurality of language feature values related to the specific point, step by step from a third area including the specific point to a fourth area including the specific point that is smaller than the third area. A particular point may be inferred from

推論部は、特定の地点に関する複数の言語特徴量にそれぞれ対応する複数の画像特徴量に示される地理的な尤度を足し合わせることで特定の地点の画像を生成してもよい。 The inference unit may generate an image of a specific point by adding together geographical likelihoods indicated by a plurality of image feature amounts respectively corresponding to a plurality of linguistic feature amounts related to the specific point.

推論装置は、推論部が生成した特定の地点の画像の中で、最も地理的な尤度が高い点を特定の地点として決定し、決定した点の緯度および経度を算出する算出部を更に備えてもよい。 The inference device further includes a calculation unit that determines a point with the highest geographical likelihood as the specific point in the image of the specific point generated by the inference unit, and calculates the latitude and longitude of the determined point. may

推論装置は、算出部が算出した緯度および経度で特定される地点が道路上に位置していない場合に、算出部が算出した緯度および経度を、特定される地点に最も近い道路上における、特定される地点から最も近い地点の緯度および経度に補正する補正部を更に備えてもよい。 When the point specified by the latitude and longitude calculated by the calculation unit is not located on the road, the inference device converts the latitude and longitude calculated by the calculation unit to the specified point on the road closest to the specified point. A correction unit may be further provided for correcting the latitude and longitude of the point closest to the point where the measurement is performed.

取得部は、特定の地点に関する第2言語表現が入力された場合に、第2言語表現に基づいて特定の地点を含む区域のオープンデータを取得し、オープンデータから、ランドマーク、道路および交差点の少なくとも何れかによって分類した複数の地図画像または地物画像を生成してもよい。 The acquisition unit acquires open data of an area including the specific point based on the second language expression when a second language expression related to the specific point is input, and obtains landmarks, roads, and intersections from the open data. A plurality of map images or feature images classified by at least one of them may be generated.

取得部は、特定の地点に関する自然言語表現を取得し、自然言語表現を、特定の地点に関するベクトル表現である第1言語表現に変換して推論部に出力してもよい。 The acquisition unit may acquire a natural language expression regarding the specific point, convert the natural language expression into a first language expression that is a vector expression regarding the specific point, and output the first language expression to the inference unit.

本発明の一態様においては、推論方法が提供される。推論方法は、特定の地点を含む区域に関する地理データを取得する取得段階を備えてもよい。推論方法は、任意の地点に関する第1言語表現および任意の地点を含む区域に関する地理データと、任意の地点との対応関係の学習結果に基づき、特定の地点に関する第1言語表現および取得段階で取得した地理データから特定の地点を推論する推論段階を備えてもよい。 In one aspect of the invention, an inference method is provided. The inference method may comprise obtaining geographic data for an area containing a particular point. The inference method is based on the learning result of the correspondence relationship between the first language expression regarding the arbitrary point and the geographic data regarding the area including the arbitrary point and the arbitrary point, and the first language expression regarding the specific point and the acquisition stage. An inference stage may be provided for inferring a particular point from the geographic data obtained.

本発明の一態様においては、プログラムが提供される。プログラムは、コンピュータに、特定の地点を含む区域に関する地理データを取得する取得手順を実行させてもよい。プログラムは、コンピュータに、任意の地点に関する第1言語表現および任意の地点を含む区域に関する地理データと、任意の地点との対応関係の学習結果に基づき、特定の地点に関する第1言語表現および取得手順で取得した地理データから特定の地点を推論する推論手順を実行させてもよい。 In one aspect of the invention, a program is provided. The program may cause the computer to perform an acquisition procedure to acquire geographic data for the area containing the specified point. The program provides a computer with a first language expression of a specific point and an acquisition procedure based on learning results of a correspondence relationship between a first language expression of an arbitrary point and geographic data of an area containing the arbitrary point and the arbitrary point. An inference procedure may be executed to infer a specific point from the geographic data obtained in .

なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。 It should be noted that the above summary of the invention does not list all the necessary features of the invention. Subcombinations of these feature groups can also be inventions.

一実施形態によるシステム10の概略図である。1 is a schematic diagram of a system 10 according to one embodiment; FIG. 一実施形態による推論装置100のブロック図である。1 is a block diagram of a reasoning apparatus 100 according to one embodiment; FIG. 一実施形態による推論方法のフロー図である。FIG. 4 is a flow diagram of an inference method according to one embodiment; 一実施形態による、ユーザ20が位置する特定の地点を含む区域60の一例である。6 is an example of an area 60 that includes a particular point where user 20 is located, according to one embodiment. 一実施形態による、オープンデータから地図画像または地物画像を生成する方法の一例を説明するための図である。FIG. 4 is a diagram for explaining an example of a method of generating a map image or a feature image from open data according to one embodiment; 一実施形態による、オープンデータから地図画像または地物画像を生成する方法の一例を説明するための図である。FIG. 4 is a diagram for explaining an example of a method of generating a map image or a feature image from open data according to one embodiment; 一実施形態による、ランドマーク層および道路ネットワーク層のそれぞれに分類される複数の地図画像または地物画像の一例である。4 is an example of multiple map or feature images classified into a landmark layer and a road network layer, respectively, according to one embodiment. 一実施形態による、ニューラルネットワーク構造で特定の地点の画像を生成する方法の一例を説明するための図である。FIG. 4 is a diagram illustrating an example of a method for generating an image of a specific point with a neural network structure, according to one embodiment; 一実施形態による、地理的な尤度を足し合わせる方法の一例を説明するための図である。FIG. 10 is a diagram illustrating an example of a method for summing geographical likelihoods, according to one embodiment; 一実施形態による、ニューラルネットワーク構造で特定の地点の画像を生成する方法の他の一例を説明するための図である。FIG. 5 is a diagram illustrating another example of a method for generating an image of a specific point with a neural network structure, according to one embodiment; 一実施形態による学習方法のフロー図である。FIG. 4 is a flow diagram of a learning method according to one embodiment; 一実施形態による学習方法で使用する地図画像または地物画像の一例を示す図である。FIG. 4 is a diagram showing an example of map images or feature images used in the learning method according to one embodiment; 本発明の複数の態様が全体的又は部分的に具現化されうるコンピュータ1200の例を示す図である。12 illustrates an example computer 1200 in which aspects of the present invention may be implemented in whole or in part; FIG.

以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。なお、図面において、同一または類似の部分には同一の参照番号を付して、重複する説明を省く場合がある。 Hereinafter, the present invention will be described through embodiments of the invention, but the following embodiments do not limit the invention according to the claims. Also, not all combinations of features described in the embodiments are essential for the solution of the invention. In addition, in the drawings, the same or similar parts may be denoted by the same reference numerals to omit redundant description.

図1は、一実施形態によるシステム10の概略図である。システム10は、通信ネットワーク50を介して相互に通信する通信端末30および推論装置100を備える。システム10は、通信端末30を所持しているユーザ20からの自然言語で記述される自然言語表現に基づき、ユーザ20に関する地理的位置を推論するためのシステムである。なお、通信ネットワーク50は有線か無線かを問わない。 FIG. 1 is a schematic diagram of a system 10 according to one embodiment. The system 10 includes a communication terminal 30 and an inference device 100 that communicate with each other via a communication network 50 . The system 10 is a system for inferring the geographical location of the user 20 based on natural language expressions written in natural language from the user 20 who owns the communication terminal 30 . It does not matter whether the communication network 50 is wired or wireless.

本実施形態における通信端末30は、一例として、スマートフォンなどの通話機器である。通信端末30は、回線交換方式によって推論装置100と通信する。本実施形態におけるシステム10では、ユーザ20が通信端末30から推論装置100に発信し、推論装置100と音声通話する。 The communication terminal 30 in this embodiment is, as an example, a communication device such as a smart phone. The communication terminal 30 communicates with the inference device 100 by circuit switching. In the system 10 according to this embodiment, the user 20 makes a call to the inference device 100 from the communication terminal 30 to make a voice call with the inference device 100 .

本実施形態における推論装置100は、ユーザ20が音声通話中に発した自然言語で記述される自然言語表現に基づき、ユーザ20が現在いる地点の緯度および経度を特定する。 The inference device 100 in this embodiment identifies the latitude and longitude of the current location of the user 20 based on a natural language expression written in a natural language spoken by the user 20 during voice communication.

より具体的には、推論装置100は、ユーザ20との音声通話中に、ユーザ20から、ユーザ20が現在いる地点の住所と、当該地点に関する情報、例えばユーザ20が視認可能なランドマークや、ユーザ20から最も近い道路や交差点などの名称とを聞き出す。当該住所は、一例として、市区町村レベルの大まかな住所情報であってもよく、番地レベルの具体的な住所情報であってもよい。推論装置100は、これらの自然言語で記述される自然言語表現から、ルールベースの探索と機械学習による推論を行うことで、ユーザ20が現在いる地点の緯度および経度を特定する。 More specifically, during a voice call with the user 20, the inference apparatus 100 receives from the user 20 the address of the location where the user 20 is currently located and information about the location, such as landmarks visible to the user 20, The name of the nearest road or intersection is obtained from the user 20. - 特許庁For example, the address may be general address information at the municipality level, or may be specific address information at the street level. The inference device 100 identifies the latitude and longitude of the current location of the user 20 by performing rule-based search and machine learning inference from these natural language expressions.

ルールベースの探索は、例えば、ジオコーダを用いて、住所から緯度および経度を特定することを含んでもよい。また、ルールベースの探索は、例えば、オープンストリートマップ(OSM)を用いて、当該緯度および経度を中心とする一定領域内のポイントデータやラインデータを取得することを含んでもよい。また、ルールベースの探索は、例えば、住所で表される位置を特定し、当該位置が道路上や交差点上の位置ではない場合に、当該位置を、当該位置の最寄りの道路や交差点上の位置に補正することを含んでもよい。 A rule-based search may include, for example, using a geocoder to determine latitude and longitude from an address. The rule-based search may also include, for example, using Open Street Map (OSM) to acquire point data and line data within a certain area centered on the latitude and longitude. In addition, rule-based search, for example, identifies a position represented by an address, and if the position is not on a road or intersection, the position is replaced with a position on the road or intersection nearest to the position. may include correcting to

機械学習による推論は、例えば、言語表現と地理データを入力として、言語で示される地理的位置を推論することであってもよい。推論装置100は、上記の自然言語表現が、自然言語で曖昧に記述された地点を示す場合にも、ルールベースの探索と機械学習による推論とを行うことにより、当該地点の緯度および経度を高精度に特定できる。 Inference by machine learning may be, for example, taking linguistic expressions and geographic data as input and inferring geographic locations indicated in language. Inference apparatus 100 performs rule-based search and machine learning inference even when the above-described natural language expression indicates a location that is vaguely described in natural language, so that the latitude and longitude of the location can be calculated as high as possible. Can be specified with precision.

なお、本実施形態における推論装置100は、一例として、通信端末30を通じたユーザ20からの電話を自動音声で応対することにより、ユーザ20から上記の自然言語を聞き出して、当該自然言語で記述される自然言語表現を取得する。追加的に又は代替的に、推論装置100は、推論装置100を管理する会社のオペレータがユーザ20から聞き出した上記の自然言語で記述される自然言語表現を取得してもよい。 As an example, the inference apparatus 100 of the present embodiment responds to a telephone call from the user 20 through the communication terminal 30 with automatic voice, thereby eliciting the natural language from the user 20 and writing it in the natural language. to obtain a natural language representation of Additionally or alternatively, the reasoning device 100 may obtain natural language expressions written in the above-described natural language dictated by the operator of the company that manages the reasoning device 100 from the user 20 .

なお、推論装置100がユーザ20との音声通話中にユーザ20から聞き出す、ユーザ20が現在いる地点の住所は、特定の地点の住所に関する第2言語表現の一例である。また、推論装置100がユーザ20との音声通話中にユーザ20から聞き出す、上記のランドマーク、道路、交差点などの名称は、特定の地点に関する自然言語表現の一例である。 Note that the address of the location where the user 20 is currently located, which the inference device 100 hears from the user 20 during voice communication with the user 20, is an example of a second language expression regarding the address of a specific location. Also, the above names of landmarks, roads, intersections, etc. that the inference device 100 hears from the user 20 during voice communication with the user 20 are examples of natural language expressions relating to specific points.

なお、通信端末30および推論装置100は、上述の回線交換方式に代えて、パケット交換方式により通信してもよく、ユーザ20が通信端末30のインターフェースに手入力又は音声入力した言語表現を、データ通信によって推論装置100に送信してもよい。 Communication terminal 30 and reasoning apparatus 100 may communicate using a packet switching system instead of the circuit switching system described above. It may be transmitted to the reasoning device 100 by communication.

図2は、一実施形態による推論装置100のブロック図である。推論装置100は、取得部101と、推論部103と、算出部105と、補正部107と、事故情報データベース109とを備える。 FIG. 2 is a block diagram of a reasoning apparatus 100 according to one embodiment. The inference device 100 includes an acquisition unit 101 , an inference unit 103 , a calculation unit 105 , a correction unit 107 and an accident information database 109 .

取得部101は、推論装置100の外部の装置、例えば通信端末30と相互に通信する。取得部101は、他の通信端末、例えば推論装置100を管理する管理会社のコンピュータと相互に通信してもよい。 Acquisition unit 101 communicates with a device external to inference device 100 , such as communication terminal 30 . The acquisition unit 101 may communicate with another communication terminal, for example, a computer of a management company that manages the inference device 100 .

取得部101は、特定の地点を含む区域に関する地理データを取得する。より具体的には、本実施形態における取得部101は、通信端末30と通信している間、ユーザ20が音声通話中に発した、ユーザ20が現在いる地点に関する自然言語を解読して自然言語表現を取得する。当該自然言語は、例えば、当該地点の住所を示すものであってもよく、高速の〇〇IC付近や、〇〇駅付近といった特定の道路やランドマーク等を示すものであってもよい。なお、当該自然言語表現は、特定の地点に関する第2言語表現の一例である。 The acquisition unit 101 acquires geographic data regarding an area including a specific point. More specifically, while communicating with the communication terminal 30, the acquisition unit 101 in this embodiment decodes the natural language about the current location of the user 20, which is spoken by the user 20 during the voice call, and obtains the natural language Get representation. The natural language may indicate, for example, the address of the point, or may indicate a specific road, landmark, or the like near OO IC on the highway or near OO station. It should be noted that the natural language expression is an example of a second language expression regarding a specific point.

本実施形態における取得部101は、このように当該地点の自然言語表現を取得した場合に、当該自然言語表現に基づいて、ユーザ20が現在いる地点を含む区域のオープンデータを取得する。取得部101は更に、当該オープンデータから、ランドマーク、道路および交差点の少なくとも何れかによって分類した複数の地図画像または地物画像を生成する。 When acquiring the natural language expression of the point in this way, the acquisition unit 101 in this embodiment acquires the open data of the area including the point where the user 20 is currently located based on the natural language expression. The acquisition unit 101 further generates a plurality of map images or feature images classified by at least one of landmarks, roads, and intersections from the open data.

具体的な一例として、本実施形態における取得部101は、当該住所をジオコーダで緯度および経度に変換し、オープンストリートマップ(OSM)を用いて、当該緯度および経度を中心とする一定領域内のポイントデータやラインデータを取得する。 As a specific example, the acquisition unit 101 in this embodiment converts the address into latitude and longitude using a geocoder, and uses an open street map (OSM) to calculate points within a certain area centered on the latitude and longitude. Get data or line data.

本実施形態における取得部101は更に、地図描画用ライブラリによって、当該ポイントデータやラインデータから上記の複数の地図画像または地物画像を生成する。なお、オープンデータ、地図画像および地物画像は何れも、上記の地理データの一例である。 The acquisition unit 101 in the present embodiment further generates the plurality of map images or feature images from the point data and line data using the map drawing library. Note that open data, map images, and feature images are all examples of the geographic data described above.

取得部101は、取得した地理データを推論部103に出力する。より具体的には、本実施形態における取得部101は、OSMで取得したオープンデータから生成した複数の地図画像または地物画像を推論部103に出力する。 The acquisition unit 101 outputs the acquired geographic data to the inference unit 103 . More specifically, the acquisition unit 101 in this embodiment outputs a plurality of map images or feature images generated from open data acquired by OSM to the inference unit 103 .

本実施形態における取得部101は更に、特定の地点に関する自然言語表現を取得し、自然言語表現を、当該特定の地点に関するベクトル表現に変換する。具体的な一例として、本実施形態における取得部101は、通信端末30と通信している間にユーザ20が現在いる地点に関する自然言語から自然言語表現を取得した場合、Word2Vec(ワードツーベック)を用いた構文解析器を用いて、当該自然言語表現をベクトル表現に変換する。取得部101は、当該ベクトル表現を推論部103に出力する。なお、当該ベクトル表現は、特定の地点に関する第1言語表現の一例である。 The acquisition unit 101 in the present embodiment further acquires a natural language expression regarding a specific point, and converts the natural language expression into a vector expression regarding the specific point. As a specific example, when the acquisition unit 101 in this embodiment acquires a natural language expression from the natural language about the current location of the user 20 while communicating with the communication terminal 30, Word2Vec is The natural language representation is converted into a vector representation using the parser used. Acquisition unit 101 outputs the vector representation to inference unit 103 . Note that the vector representation is an example of a first language representation of a specific point.

本実施形態における取得部101は更に、補正部107から緯度および経度を入力された場合、例えば、推論装置100を管理する管理会社のコンピュータに緯度および経度を送信する。 Further, when the acquisition unit 101 in this embodiment receives the latitude and longitude input from the correction unit 107 , the acquisition unit 101 transmits the latitude and longitude to, for example, a computer of a management company that manages the inference device 100 .

推論部103は、任意の地点に関する第1言語表現および当該任意の地点を含む区域に関する地理データと、当該任意の地点との対応関係の学習結果に基づき、特定の地点に関する第1言語表現および取得部101によって取得された地理データから当該特定の地点を推論する。 The inference unit 103 acquires a first language expression related to a specific point based on the learning result of the correspondence relationship between the first language expression related to the arbitrary point and the geographic data related to the area including the arbitrary point, and the arbitrary point. The particular point is inferred from the geographic data obtained by unit 101 .

より具体的には、本実施形態における推論部103は、特定の地点に関する第1言語表現から複数の言語特徴量を特定し、また、取得部101によって取得された地理データに含まれる複数の地図画像または地物画像から複数の画像特徴量を特定する。本実施形態では、当該第1言語表現は上述のベクトル表現であり、特定の地点に関するベクトル表現は、上述の通り、取得部101から推論部103に入力される。 More specifically, the inference unit 103 in this embodiment identifies a plurality of linguistic feature amounts from the first linguistic expression related to a specific point, and also identifies a plurality of map maps included in the geographic data acquired by the acquisition unit 101. A plurality of image feature values are specified from an image or a feature image. In this embodiment, the first language expression is the vector expression described above, and the vector expression regarding a specific point is input from the acquisition unit 101 to the inference unit 103 as described above.

推論部103は更に、任意の地点に関する第1言語表現から特定される複数の言語特徴量、および、当該任意の地点を含む区域に関する地理データに含まれる複数の地図画像または地物画像から特定される複数の画像特徴量と、当該任意の地点との対応関係の学習結果に基づき、特定の地点に関する複数の画像特徴量および複数の言語特徴量から特定の地点を推論する。 The inference unit 103 further includes a plurality of linguistic feature amounts specified from the first language expression regarding an arbitrary point, and a plurality of map images or feature images included in the geographic data regarding the area containing the arbitrary point. A specific point is inferred from a plurality of image feature amounts and a plurality of linguistic feature amounts related to the specific point, based on learning results of correspondence relationships between the plurality of image feature amounts and the arbitrary point.

具体的な一例として、本実施形態における推論部103は、LSTM(Long Short-Term Memory)ネットワークおよびCNN(Convolution Neural Network)を含むニューラルネットワーク構造の深層学習モデルを有する。推論部103は、LSTMネットワークにより、ベクトル表現から複数の言語特徴量を特定し、CNNにより、複数の地図画像または地物画像から複数の画像特徴量を特定する。 As a specific example, the inference unit 103 in this embodiment has a deep learning model with a neural network structure including an LSTM (Long Short-Term Memory) network and a CNN (Convolution Neural Network). The inference unit 103 identifies a plurality of linguistic feature amounts from the vector representation using the LSTM network, and identifies a plurality of image feature amounts from the plurality of map images or feature images using the CNN.

具体的な一例において、推論部103は、上記の深層学習モデルにより、任意の地点に関するベクトル表現から特定される複数の言語特徴量、および、当該任意の地点に関する複数の地図画像または地物画像から特定される複数の画像特徴量と、当該任意の地点との対応関係を深層学習する。当該対応関係は、言語特徴量と画像特徴量との関連度合いを含む。推論部103は、例えば、事故情報データベース109に格納されている、任意の地点に関するベクトル表現および複数の地図画像または地物画像を読み出して、言語特徴量および画像特徴量をそれぞれ特定し、当該対応関係を深層学習する。 In a specific example, the inference unit 103 uses a plurality of linguistic feature amounts specified from a vector representation of an arbitrary point, and a plurality of map images or feature images of the arbitrary point, using the deep learning model described above. Deep learning is performed on the correspondence relationship between the specified plurality of image feature values and the arbitrary point. The corresponding relationship includes the degree of association between the language feature amount and the image feature amount. The inference unit 103 reads, for example, a vector representation and a plurality of map images or feature images relating to an arbitrary point stored in the accident information database 109, identifies the language feature amount and the image feature amount, respectively, and performs the correspondence. Deep learning relationships.

なお、事故情報データベース109には、任意の地点に関するベクトル表現および複数の地図画像または地物画像に代えて、任意の地点に関する自然言語表現および任意の地点の住所に関する自然言語表現が格納されていてもよい。この場合、推論部103は、事故情報データベース109から読み出したこれらの自然言語表現を取得部101に出力することで、取得部101から、任意の地点に関するベクトル表現および複数の地図画像または地物画像を入力されてもよい。 The accident information database 109 stores natural language expressions for arbitrary points and natural language expressions for addresses of arbitrary points instead of vector expressions and multiple map images or feature images for arbitrary points. good too. In this case, the inference unit 103 outputs these natural language expressions read from the accident information database 109 to the acquisition unit 101, thereby obtaining from the acquisition unit 101 a vector expression and a plurality of map images or feature images regarding an arbitrary point. may be entered.

具体的な一例において、推論部103は更に、特定の地点に関する複数の言語特徴量にそれぞれ対応する複数の画像特徴量に示される地理的な尤度を足し合わせることで特定の地点の画像を生成する。画像特徴量に示される地理的な尤度とは、例えば、各画像特徴量に対応する言語特徴量の元となった言語表現が表す場所、すなわちユーザ20が現在いる位置の尤もらしさの度合いを画像内にマッピングしたものであり、範囲、複数個所、曖昧さなどを含めて扱うことができる。なお、当該特定の地点の画像を生成することは、当該特定の地点を推論することに相当する。推論部103は、当該特定の地点の画像を算出部105に出力する。 In a specific example, the inference unit 103 further generates an image of a specific point by adding together geographical likelihoods indicated by a plurality of image feature amounts corresponding to a plurality of linguistic feature amounts related to the specific point. do. The geographical likelihood indicated by the image feature amount is, for example, the degree of likelihood of the location represented by the linguistic expression that is the basis of the linguistic feature amount corresponding to each image feature amount, that is, the position where the user 20 is currently located. It is a mapping within an image and can be handled including range, multiple locations, and ambiguity. Generating an image of the specific point corresponds to inferring the specific point. The inference unit 103 outputs the image of the specific spot to the calculation unit 105 .

本実施形態において、算出部105は、推論部103が生成した特定の地点の画像の中で、最も地理的な尤度が高い点を特定の地点として決定し、決定した点の緯度および経度を算出する。なお、当該画像には、当該画像の元となったオープンデータが有する緯度および経度の情報が紐付けられている。算出部105は、算出した緯度および経度を補正部107に出力する。 In this embodiment, the calculation unit 105 determines the point with the highest geographical likelihood as the specific point in the image of the specific point generated by the inference unit 103, and calculates the latitude and longitude of the determined point. calculate. The image is associated with latitude and longitude information of the open data that is the source of the image. Calculation unit 105 outputs the calculated latitude and longitude to correction unit 107 .

本実施形態において、補正部107は、算出部105が算出した緯度および経度で特定される地点が道路上に位置しているか否かを判断する。補正部107は、当該地点が道路上に位置していない場合に、算出部105が算出した緯度および経度を、特定される地点に最も近い道路上における、特定される地点から最も近い地点の緯度および経度に補正する。一例として、補正部107は、これらの判断および補正を行うために、道路の地図画像から特定された画像特徴量を、算出部105を介して推論部103から取得してもよい。補正部107は、緯度および経度を取得部101に出力する。 In this embodiment, the correction unit 107 determines whether or not the point specified by the latitude and longitude calculated by the calculation unit 105 is located on the road. If the point is not located on the road, the correction unit 107 replaces the latitude and longitude calculated by the calculation unit 105 with the latitude and longitude of the point closest to the specified point on the road closest to the specified point. and corrected for longitude. As an example, the correction unit 107 may acquire from the inference unit 103 via the calculation unit 105 the image feature amount specified from the map image of the road in order to perform these determinations and corrections. Correction unit 107 outputs the latitude and longitude to acquisition unit 101 .

なお、推論装置100は、算出部105および補正部107を備えなくてもよい。例えば、推論装置100は、外部装置に対して、上述の算出部105および補正部107の各処理を実行させてもよい。外部装置の一例は、上述した管理会社のコンピュータであってもよい。 Note that the inference apparatus 100 does not have to include the calculator 105 and the corrector 107 . For example, the inference apparatus 100 may cause an external device to execute each process of the calculation unit 105 and the correction unit 107 described above. An example of an external device may be the computer of the management company mentioned above.

本実施形態において、事故情報データベース109は、上述した各データを格納する。各データは、過去に車両事故が起きた場所を示すデータであってもよい。なお、推論装置100は、推論装置100全体を制御するためのプログラム等が格納されたメモリを事故情報データベース109とは別に備えてもよく、当該メモリが事故情報データベース109を含んでもよい。推論装置100の各構成は、上記で説明した各機能を実行するべく、当該メモリに格納されたプログラムを読み出す。 In this embodiment, the accident information database 109 stores each data described above. Each data may be data indicating a location where a vehicle accident occurred in the past. Note that the inference apparatus 100 may include a memory separate from the accident information database 109 that stores programs and the like for controlling the entire inference apparatus 100 , and the memory may include the accident information database 109 . Each component of the inference apparatus 100 reads the program stored in the memory in order to execute each function described above.

なお、推論装置100は、事故情報データベース109を備えなくてもよい。例えば、推論装置100は、外部装置のデータベースから、上述した各データを取得して、上述の推論や学習を実行してもよい。 Note that the inference device 100 does not have to include the accident information database 109 . For example, the inference device 100 may acquire each of the above-described data from a database of an external device and execute the above-described inference and learning.

図3は、一実施形態による推論方法のフロー図である。図3に示すフローは、一例として、ユーザ20が通信端末30を使用して推論装置100に音声通話を発信し、推論装置100が自動音声でユーザ20への応対を始めることによって開始されてもよい。ユーザ20は、自動音声の案内に従い、当該フローで必要とされる自然言語を発話する。 FIG. 3 is a flow diagram of an inference method according to one embodiment. As an example, the flow shown in FIG. 3 may be started by the user 20 using the communication terminal 30 to make a voice call to the reasoning device 100, and the reasoning device 100 starting to respond to the user 20 with automatic voice. good. The user 20 speaks the natural language required for the flow according to the automatic voice guidance.

推論装置100は、ユーザ20が発話した自然言語から、(1)特定の地点の住所に関する住所言語表現を取得し、(2)特定の地点に関する地点言語表現を取得する(ステップS101)。住所言語表現の一例は、「兵庫県神戸市中央区」という言語表現である。地点言語表現の一例は、「三宮町のコンビニ近くの、国道Aおよび国道Bの交差点付近」という言語表現である。 The inference device 100 acquires (1) an address language expression related to the address of a specific point and (2) a point language expression related to the specific point from the natural language uttered by the user 20 (step S101). An example of the address language expression is the language expression “Chuo-ku, Kobe City, Hyogo Prefecture”. An example of a point linguistic expression is the linguistic expression "near the intersection of national highway A and national highway B, near a convenience store in Sannomiya-cho."

推論装置100は、(1)当該住所を含む区域のオープンデータを取得し、オープンデータからNi個の地図画像又は地物画像を生成し、(2)地点言語表現を長さNvのベクトル表現に変換する(ステップS103)。 The inference device 100 (1) acquires open data of an area containing the address, generates Ni map images or feature images from the open data, and (2) converts the point language expression into a vector expression of length Nv. Convert (step S103).

図4は、一実施形態による、ユーザ20が位置する特定の地点を含む区域60の一例である。図4において、区域60に、緯度(latitude)および経度(longitude)をそれぞれベクトルで併記してある。区域60は、一例として、「兵庫県神戸市中央区」という言語表現で示される住所の緯度および経度を中心とする、5km四方の正方形領域である。 FIG. 4 is an example of an area 60 that includes a particular point where user 20 is located, according to one embodiment. In FIG. 4, the latitude and longitude of the area 60 are indicated by vectors. The area 60 is, for example, a 5 km square square area centered on the latitude and longitude of the address indicated by the linguistic expression "Chuo-ku, Kobe City, Hyogo Prefecture".

図4に示す通り、区域60には、自車両の傍らで通信端末30を操作しているユーザ20と、4つの交差点で交わる4本の道路と、各道路沿いに位置する3つのコンビニとが含まれる。また、単に説明を明確にする目的で、区域60上に「三宮町」と表記してある。 As shown in FIG. 4, an area 60 includes a user 20 operating a communication terminal 30 beside his/her own vehicle, four roads that intersect at four intersections, and three convenience stores located along each road. included. In addition, "Sannomiya-cho" is written on the area 60 only for the purpose of clarifying the description.

推論装置100は、ジオコーダを用いて、「兵庫県神戸市中央区」という言語表現で示される住所から緯度および経度を特定する。このように、住所言語表現に示される住所が市区町村レベルの場合、当該住所は点ではなく範囲なので、推論装置100は、当該住所の中心を代表点として、当該代表点の緯度および経度を特定してもよい。これに代えて、推論装置100は、当該範囲に基づいてオープンデータを取得してもよい。住所言語表現に示される住所が番地や号までを含んでいる場合には、当該住所は点なので、当該点の緯度および経度を特定してもよい。 The inference apparatus 100 uses a geocoder to identify the latitude and longitude from the address indicated by the linguistic expression “Chuo-ku, Kobe-shi, Hyogo”. In this way, when the address indicated in the address language expression is at the municipal level, the address is not a point but a range. may be specified. Alternatively, the reasoning apparatus 100 may acquire open data based on the range. If the address shown in the address language expression includes a house number and a number, the address is a point, so the latitude and longitude of the point may be specified.

推論装置100は更に、当該緯度および経度を中心とする区域60を定め、OSMを用いて、区域60の複数のポイントデータやラインデータを取得し、これらのオープンデータから、Ni個の、例えば150個の地図画像および地物画像を生成する。 The inference apparatus 100 further determines an area 60 centered on the latitude and longitude, acquires a plurality of point data and line data of the area 60 using OSM, and extracts Ni pieces, for example 150 points, from these open data. Generate individual map and feature images.

図5は、一実施形態による、オープンデータから地図画像または地物画像を生成する方法の一例を説明するための図である。図5は、上から順に、OSMのポイントデータ(ランドマーク)のテーブルと、当該テーブルに示される各ランドマークの地理的な尤度のグラフと、当該グラフに基づく各ランドマークの地物画像とを示す。 FIG. 5 is a diagram for explaining an example of a method for generating a map image or feature image from open data according to one embodiment. FIG. 5 shows, from top to bottom, an OSM point data (landmark) table, a graph of the geographical likelihood of each landmark shown in the table, and a feature image of each landmark based on the graph. indicates

当該テーブルには、1行目にOSMポイントデータ(ランドマーク)という大別されたグループ名が記載され、2行目の1列目から順に、ランドマークの種別、各ランドマークの名称、各ランドマークのlatitude(緯度)、および、各ランドマークのlongitude(経度)が記載される。また、当該テーブルの3行目以降の各セルには、各ポイントデータが格納されている。 In this table, the name of a broadly classified group called OSM point data (landmarks) is described in the first row, and the type of landmark, the name of each landmark, and the The latitude of the mark and the longitude of each landmark are described. Also, each point data is stored in each cell in the third and subsequent rows of the table.

図6は、一実施形態による、オープンデータから地図画像または地物画像を生成する方法の一例を説明するための図である。図6は、図5と同様、上から順に、OSMのラインデータ(道路)のテーブルおよびポイントデータ(交差点)のテーブルと、当該テーブルに示される道路および交差点のそれぞれの地理的な尤度のグラフと、当該グラフに基づく道路の地図画像および交差点の地図画像とを示す。 FIG. 6 is a diagram for explaining an example of a method of generating a map image or feature image from open data according to one embodiment. FIG. 6 shows, from top to bottom, a line data (road) table and a point data (intersection) table of OSM, and a graph of the geographical likelihood of each of the roads and intersections shown in the table, as in FIG. , and a map image of roads and a map image of intersections based on the graph.

図6の最上部左側に示すテーブルには、1行目にOSMラインデータ(道路)という大別されたグループ名が記載され、2行目以降の各行には、道路の名称とラインデータとの組み合わせが格納されている。 In the table shown on the top left side of FIG. 6, the name of a broad group of OSM line data (roads) is described in the first row, and the name of the road and the line data are described in each row after the second row. combinations are stored.

図6の最上部右側に示すテーブルには、1行目にOSMポイントデータ(交差点)という大別されたグループ名が記載され、2行目の1列目から順に、交差点の名称、各交差点のlatitude(緯度)、および、各交差点のlongitude(経度)が記載される。また、当該テーブルの3行目以降の各セルには、各ポイントデータが格納されている。 In the table shown on the uppermost right side of FIG. 6, the name of a group of OSM point data (intersections) is listed in the first row, and the name of the intersection and the name of each intersection are written in order from the first column of the second row. The latitude and longitude of each intersection are described. Also, each point data is stored in each cell in the third and subsequent rows of the table.

推論装置100は、図5および図6に例示するように、地図描画用ライブラリを用いて、OSMにおけるランドマーク、道路、交差点などのポイントデータやラインデータからNi個の地図画像および地物画像を生成する。 As illustrated in FIGS. 5 and 6, the reasoning apparatus 100 uses a map drawing library to generate Ni map images and feature images from point data and line data such as landmarks, roads, and intersections in OSM. Generate.

図7は、一実施形態による、ランドマーク層および道路ネットワーク層のそれぞれに分類される複数の地図画像または地物画像の一例である。推論装置100は、図7に示すように、Ni個の地図画像および地物画像を、ランドマーク層および道路ネットワーク層のそれぞれに分類してもよい。 FIG. 7 is an example of multiple map or feature images classified into a landmark layer and a road network layer, respectively, according to one embodiment. The inference device 100 may classify the Ni map images and feature images into the landmark layer and the road network layer, respectively, as shown in FIG.

ランドマーク層は、ランドマーク毎に、例えば店舗、建物、地形、目標物などの種類毎に、別レイヤとなっており、一例として数百層を含む。推論装置100は、例えば、図5に示すランドマークの地物画像を、ランドマーク層の何れかの層に分類する。 The landmark layer is a different layer for each landmark, for example, for each type of store, building, landform, landmark, etc., and includes several hundred layers, for example. The inference device 100 classifies, for example, the feature images of the landmarks shown in FIG. 5 into one of the landmark layers.

また、道路ネットワーク層は、歩道、車道、交差点、高速などを含み、一例として10層程度を含む。推論装置100は、例えば、図6に示す道路および交差点の地図画像を、道路ネットワーク層の何れかの層に分類する。 Also, the road network layer includes sidewalks, roadways, intersections, highways, etc., and includes about 10 layers as an example. The inference device 100 classifies, for example, the map image of roads and intersections shown in FIG. 6 into one of the road network layers.

推論装置100は、構文解析器を用いて、「三宮町のコンビニ近くの、国道Aおよび国道Bの交差点付近」という地点言語表現を、「三宮町/の/コンビニ/近く/の、/国道A/および/国道B/の/交差点/付近」のように解析し、長さNvのベクトルに埋め込む。ベクトルの単語(トークン)の数Nvは可変であり、係り受けも含まれる。 The reasoning apparatus 100 uses a syntactic analyzer to convert the point language expression "near the intersection of national highway A and national highway B near a convenience store in Sannomiya-cho" to "Sannomiya-cho/no/convenience store/nearby/no/national highway A /and/National road B//intersection/nearby” and embedded in a vector of length Nv. The number Nv of words (tokens) in the vector is variable and includes dependencies.

なお、ステップS101~ステップS103は、特定の地点を含む区域に関する地理データを取得する取得段階の一例である。 It should be noted that steps S101 to S103 are an example of acquisition steps for acquiring geographic data relating to an area including a specific point.

図3のフローの説明に戻り、推論装置100は、(1)Ni個の地図画像又は地物画像から複数の画像特徴量を特定し、(2)長さNvのベクトル表現から複数の言語特徴量を特定する(ステップS105)。推論装置100は更に、複数の画像特徴量および複数の言語特徴量から特定の地点を推論する(ステップS107)。より具体的には、推論装置100は、複数の言語特徴量にそれぞれ対応する複数の画像特徴量に示される地理的な尤度を足し合わせることで特定の地点の画像を生成する。 Returning to the description of the flow of FIG. 3, the inference device 100 (1) identifies a plurality of image feature amounts from Ni map images or feature images, and (2) identifies a plurality of language features from a vector representation of length Nv. The amount is specified (step S105). The inference device 100 further infers a specific point from the plurality of image feature amounts and the plurality of language feature amounts (step S107). More specifically, the inference apparatus 100 generates an image of a specific spot by summing up geographical likelihoods indicated by multiple image feature quantities corresponding to multiple language feature quantities.

図8は、一実施形態による、ニューラルネットワーク構造で特定の地点の画像を生成する方法の一例を説明するための図である。推論装置100は、図8に示すように、LSTMネットワークおよびCNNを含むニューラルネットワーク構造の深層学習モデルを有する。 FIG. 8 is a diagram illustrating an example of a method for generating an image of a specific point with a neural network structure, according to one embodiment. The reasoning apparatus 100 has a deep learning model of neural network structure including LSTM network and CNN, as shown in FIG.

推論装置100は、LSTMネットワークにより、ベクトル表現である言語表現(Nv)から複数の言語特徴量(Mv)を特定し、CNNにより、複数の地図画像または地物画像(256×256×Ni)から複数の画像特徴量(256×256×Mi)を特定する。 The inference apparatus 100 identifies a plurality of linguistic feature values (Mv) from a linguistic expression (Nv), which is a vector expression, by an LSTM network, and from a plurality of map images or feature images (256×256×Ni) by CNN. A plurality of image feature quantities (256×256×Mi) are specified.

推論装置100は、画像特徴量のi層目の行列と言語特徴量のi番目の値を掛け算することでi層目の特徴量とし、これをM枚生成する。推論装置100は更に、生成したM枚を足し合わせ、CNNにより、ユーザ20が位置する特定の地点を推定する画像を生成する。 The inference apparatus 100 multiplies the i-th layer matrix of the image feature amount by the i-th value of the language feature amount to obtain the i-th layer feature amount, and generates M pieces of this. The inference device 100 further adds up the generated M images to generate an image for estimating a specific point where the user 20 is located by CNN.

推論装置100は、画像特徴量のi層目の行列と言語特徴量のi番目の値を掛け算する際に、画像特徴量の各層に対して言語特徴量の各値を重みとみなして掛け合わせてもよい。推論装置100は、各層の重みを学習によって得てもよい。推論装置100は、学習の結果として、例えば「三宮町:コンビニ:交差点=3:6:1」という重みを得てもよい。 When multiplying the i-th layer matrix of the image feature amount and the i-th value of the language feature amount, the inference apparatus 100 regards each value of the language feature amount as a weight for each layer of the image feature amount and multiplies it. may The inference apparatus 100 may obtain the weight of each layer through learning. The inference device 100 may obtain, for example, weights of “Sannomiyacho: convenience store: intersection=3:6:1” as a result of learning.

図9は、一実施形態による、地理的な尤度を足し合わせる方法の一例を説明するための図である。図9は、単に説明を明確にする目的で、図5に示した各ランドマークの地理的な尤度のグラフを足し合わせるイメージ図と、当該グラフに基づく各ランドマークの地物画像を足し合わせるイメージ図とを、上下に並べて示す。推論装置100は、図9に示すイメージ図のように、複数の言語特徴量にそれぞれ対応する複数の画像特徴量に示される地理的な尤度を足し合わせることで特定の地点の画像を生成する。 FIG. 9 is a diagram illustrating an example of a method for summing geographical likelihoods, according to one embodiment. FIG. 9 shows, for the purpose of clarifying the explanation, an image diagram of adding up the geographical likelihood graph of each landmark shown in FIG. 5 and an image diagram of adding up the feature image of each landmark based on the graph. are arranged one above the other. The inference apparatus 100 generates an image of a specific point by adding up the geographical likelihoods indicated by the plurality of image feature quantities corresponding to the plurality of language feature quantities, as shown in the image diagram of FIG.

図10は、一実施形態による、ニューラルネットワーク構造で特定の地点の画像を生成する方法の他の一例を説明するための図である。当該他の一例の実施形態における推論装置100は、図8に示す実施形態と異なる点として、LSTMネットワークにより、ベクトル表現である言語表現(Nv)から複数の言語特徴量(256×256×Mv)を特定し、CNNにより、複数の地図画像または地物画像(256×256×Ni)から複数の画像特徴量(256×256×Mi)を特定する。 FIG. 10 is a diagram for explaining another example of a method for generating an image of a specific point with a neural network structure, according to one embodiment. The inference apparatus 100 in this other example embodiment differs from the embodiment shown in FIG. is specified, and a plurality of image feature amounts (256×256×Mi) are specified from a plurality of map images or feature images (256×256×Ni) by CNN.

当該他の一例の実施形態における推論装置100は、言語特徴量の層と画像特徴量の層のサイズを合わせて、層を重ねることで、2M枚の層とする。推論装置100は更に、2M枚の層を足し合わせ、CNNにより、ユーザ20が位置する特定の地点を推定する画像を生成する。 The reasoning apparatus 100 according to the other example embodiment matches the sizes of the layers of the language feature amount and the layers of the image feature amount, and stacks the layers to obtain 2M layers. The inference device 100 further adds up the 2M layers to generate an image that estimates the specific point where the user 20 is located by CNN.

なお、ステップS105~ステップS107は、学習用の任意の地点に関する第1言語表現および当該任意の地点を含む区域に関する地理データと、当該任意の地点との対応関係の学習結果に基づき、特定の地点に関する第2言語表現および取得段階で取得した地理データから特定の地点を推論する推論段階の一例である。 Note that steps S105 to S107 are based on the learning result of the correspondence relationship between the first language expression regarding the arbitrary point for learning and the geographic data regarding the area including the arbitrary point and the arbitrary point, and the specific point 2 is an example of an inference stage for inferring a particular point from a second linguistic representation of and geographic data acquired in the acquisition stage;

図3のフローの説明に戻り、推論装置100は、ステップS107で生成した画像の中で最も地理的な尤度が高い点を特定の地点として決定し、決定した点の緯度および経度を算出する(ステップS109)。推論装置100は更に、算出した緯度および経度で特定される地点が道路上に位置しているか否かを判断する(ステップS111)。 Returning to the description of the flow in FIG. 3, the inference apparatus 100 determines the point with the highest geographical likelihood in the image generated in step S107 as a specific point, and calculates the latitude and longitude of the determined point. (Step S109). The inference apparatus 100 further determines whether the point identified by the calculated latitude and longitude is located on the road (step S111).

推論装置100は、当該地点が道路上に位置していないと判断した場合には(ステップS111:YES)、当該緯度および経度を、当該緯度および経度で特定される地点に最も近い道路上における、当該地点から最も近い地点の緯度および経度に補正し(ステップS113)、補正後の緯度および経度を例えば推論装置100の管理会社のコンピュータに送信して、当該フローを終了する。 When the inference apparatus 100 determines that the point is not located on the road (step S111: YES), the latitude and longitude are the closest road points to the point specified by the latitude and longitude. The latitude and longitude are corrected to those of the nearest point from the point (step S113), the corrected latitude and longitude are sent to, for example, the computer of the management company of the reasoning apparatus 100, and the flow ends.

推論装置100は、OSMを利用して上記補正を実行してもよい。例えば、推論装置100は、道路や地物の緯度および経度のデータをOSMで検索して、当該緯度および経度から最寄りの道路上の位置の緯度および経度を取得してもよい。例えば、推論装置100は、事故情報データベース109に格納されている路上、交差点などの事故場所の補足情報を利用して、上記補正を実行してもよい。 Reasoning apparatus 100 may utilize OSM to perform the above correction. For example, the reasoning apparatus 100 may retrieve latitude and longitude data of roads and features using OSM, and obtain the latitude and longitude of the nearest position on the road from the latitude and longitude. For example, the inference device 100 may use supplementary information about the location of the accident, such as roads and intersections, stored in the accident information database 109 to perform the above correction.

推論装置100は、当該地点が道路上に位置していると判断した場合には(ステップS111:NO)、算出した緯度および経度をそのまま、例えば当該コンピュータに送信して、当該フローを終了する。 When the inference apparatus 100 determines that the point is located on the road (step S111: NO), the inference apparatus 100 transmits the calculated latitude and longitude as they are to the computer, for example, and terminates the flow.

図11は、一実施形態による学習方法のフロー図である。推論装置100は、図11に示す学習方法を、図3に示す推論方法を実行する前に実行する。推論装置100は、これに追加して、図11に示す学習方法を、図3に示す推論方法を実行していない間に実行してもよい。 FIG. 11 is a flow diagram of a learning method according to one embodiment. Inference apparatus 100 executes the learning method shown in FIG. 11 before executing the inference method shown in FIG. Inference apparatus 100 may additionally execute the learning method shown in FIG. 11 while the inference method shown in FIG. 3 is not being executed.

推論装置100は、学習対象とする区域を定め、当該区域のオープンデータを取得し、オープンデータからNi個の地図画像または地物画像を生成する(ステップS301)。当該区域は、例えば図3に示すように、5km四方程度であってもよい。推論装置100は、例えば図3のフローのステップS103における(1)と同様の処理を行うことで、Ni個の地図画像または地物画像を生成する。なお、推論装置100は、図11に示す学習のフローを実行する間、ステップS301で生成したNi個の地図画像または地物画像を固定として、繰り返し使用する。 The inference apparatus 100 determines an area to be learned, acquires open data of the area, and generates Ni map images or feature images from the open data (step S301). The area may be about 5 km square, as shown in FIG. 3, for example. The inference apparatus 100 generates Ni map images or feature images by performing the same processing as (1) in step S103 of the flow in FIG. 3, for example. Note that the inference apparatus 100 repeatedly uses the Ni map images or feature images generated in step S301 as fixed while executing the learning flow shown in FIG.

推論装置100は、事故情報データベース109から、教師データとして、(1)当該区域内の任意の地点に関する地点言語表現を取得し、(2)当該地点の緯度および経度の正解情報を取得する(ステップS303)。換言すると、推論装置100は、過去に事故が起きた場所などのデータを用いて、事故場所の言語表現と、その地点の緯度および経度とのペアを教師データとする。 The reasoning apparatus 100 acquires, as teacher data, (1) a point language expression regarding an arbitrary point within the area, and (2) correct information about the latitude and longitude of the point (step S303). In other words, the reasoning apparatus 100 uses data such as places where accidents have occurred in the past, and sets pairs of the linguistic expression of the accident place and the latitude and longitude of the point as teacher data.

推論装置100は、(1)地点言語表現を長さNvのベクトル表現に変換し、(2)正解情報の緯度および経度の地図画像を生成する(ステップS305)。推論装置100は、例えば図3のフローのステップS103における(1)および(2)と同様の処理を行うことで、長さNvのベクトル表現を特定し、且つ、正解情報の緯度および経度の地図画像を生成する。 The inference device 100 (1) converts the point language representation into a vector representation of length Nv, and (2) generates a map image of the latitude and longitude of the correct information (step S305). The inference apparatus 100 identifies the vector representation of the length Nv by performing, for example, the same processes as (1) and (2) in steps S103 in the flow of FIG. Generate an image.

推論装置100は、Ni個の地図画像又は地物画像および長さNvのベクトル表現を入力とし、正解情報に基づく地図画像を出力として深層学習し(ステップS307)、十分学習するまでステップS303からS307までを繰り返してから(ステップS309)、当該フローを終了する。 The reasoning apparatus 100 receives Ni map images or feature images and a vector representation of length Nv as input, and performs deep learning with a map image based on correct information as an output (step S307), and performs deep learning from steps S303 to S307 until sufficient learning is performed. After repeating (step S309), the flow ends.

このように、推論装置100は、Ni個の地図画像または地物画像の入力を固定として、言語表現と正解画像のペアをそれぞれ入力と出力として順次与えていくことにより、深層学習する。 In this way, the inference apparatus 100 performs deep learning by fixing the input of Ni map images or feature images, and sequentially providing pairs of linguistic expressions and correct images as inputs and outputs, respectively.

図12は、一実施形態による学習方法で使用する地図画像または地物画像の一例を示す図である。図12には、当該一実施形態による推論装置100が自動的に生成する自然言語表現と、地図画像または地物画像とのペアの一例を示す。 FIG. 12 is a diagram showing an example of a map image or feature image used in the learning method according to one embodiment. FIG. 12 shows an example of a pair of a natural language expression automatically generated by the reasoning apparatus 100 according to the embodiment and a map image or a feature image.

推論装置100は、事故データなどの実際の情報を使用する他に、データ量を補うべく、OSMの地理データを使用したり、クラウドソーシングを活用したりすることで、図12に示すようなペアを自動生成してもよい。 In addition to using actual information such as accident data, the reasoning apparatus 100 uses OSM geographic data and crowdsourcing to compensate for the amount of data, so that pairs such as those shown in FIG. can be automatically generated.

推論装置100は、図12に示すように、住所、地物名、補正情報などの様々な言語表現の組合せを自動生成してもよい。推論装置100はまた、図12に示すように、単一地点、複数地点、範囲などの任意の地図画像または地物画像を生成してもよい。 The inference apparatus 100 may automatically generate combinations of various linguistic expressions such as addresses, feature names, and correction information, as shown in FIG. The reasoning device 100 may also generate arbitrary map images or feature images such as single points, multiple points, ranges, etc., as shown in FIG.

推論装置100は、自然言語表現の自動生成データを使用する場合、先ず、地図画像または地物画像と、自動生成した言語表現とを入力とし、自動生成した画像特徴量を正解データとして事前学習を行う。次に、推論装置100は、図11の学習方法により、追加学習を行う。ただし、推論装置100は、事前学習および追加学習において、互いに同じ「地図画像または地物画像」を使用する。すなわち、推論装置100は、図11のフローのステップS301で生成する地図画像または地物画像を、事前学習および追加学習の両方で用いる。 When using automatically generated data of natural language expressions, the inference apparatus 100 first receives a map image or a feature image and an automatically generated language expression as input, and performs pre-learning using the automatically generated image feature amount as correct data. conduct. Next, the inference apparatus 100 performs additional learning according to the learning method of FIG. However, the inference apparatus 100 uses the same “map image or feature image” for both pre-learning and additional learning. That is, the reasoning apparatus 100 uses the map image or feature image generated in step S301 of the flow of FIG. 11 for both pre-learning and additional learning.

図11のように実データのみを用いる場合、必要十分な数のデータを用意することが難しい場合がある。そこで、推論装置100は、図12に示すような大量の自動生成データで事前学習した上で、少量の実データで追加学習することで精度を向上させてもよい。推論装置100は、実データの数が十分でない場合に、自動生成したデータで数を補うことで、学習モデルの精度を向上させてもよい。 When using only actual data as shown in FIG. 11, it may be difficult to prepare a necessary and sufficient number of data. Therefore, the inference apparatus 100 may perform pre-learning with a large amount of automatically generated data as shown in FIG. 12 and then perform additional learning with a small amount of actual data to improve accuracy. Inference apparatus 100 may improve the accuracy of the learning model by supplementing the number with automatically generated data when the number of actual data is not sufficient.

また、推論装置100は、再学習(ファインチューニング)してもよい。具体的には、推論装置100は、様々な区域のデータによって汎用的なベースモデルを学習し、当該ベースモデルを元にして、特定地域のデータで再学習することで、少量のデータで高い精度を実現することも可能である。もしくは、推論装置100は、汎用的なベースモデルを学習後、入力する地理画像を入れ替えるだけで、上記の再学習をすることなく、様々な地域に適用可能であってもよい。 Also, the inference apparatus 100 may perform re-learning (fine-tuning). Specifically, the inference device 100 learns a general-purpose base model from data of various areas, and re-learns with data of a specific area based on the base model, thereby achieving high accuracy with a small amount of data. is also possible. Alternatively, the inference apparatus 100 may be applicable to various regions without re-learning as described above by simply replacing the geographic image to be input after learning a general-purpose base model.

以上、上記で説明した複数の実施形態による推論装置100および推論方法によれば、特定の地点を含む区域に関する地理データを取得し、任意の地点に関する第1言語表現および任意の地点を含む区域に関する地理データと、任意の地点との対応関係の学習結果に基づき、特定の地点に関する第1言語表現および取得された地理データから特定の地点を推論する。 As described above, according to the inference apparatus 100 and the inference method according to the above-described multiple embodiments, geographic data relating to an area including a specific point is acquired, and a first language expression relating to an arbitrary point and an area including an arbitrary point A specific point is inferred from the first language representation of the specific point and the acquired geographic data based on the learning result of the correspondence between the geographic data and the arbitrary points.

例えば、保険会社が保有する既存の事故データベースに格納されている過去の事故データは、事故地の住所等の記録が正確でない場合がある。また、事故受付担当者が、自由記述で事故地を記録したものが事故データベースに格納されるため、記述内容が曖昧なことが多い。また、事故地の住所と事故場所は正確には一致しない。住所は建物の位置であるが、事故場所の殆どは道路上であるため、事故地の住所と事故場所との間にはずれがある。 For example, past accident data stored in an existing accident database owned by an insurance company may not accurately record the address of the accident location. In addition, since the free description of the location of the accident recorded by the person in charge of receiving the accident is stored in the accident database, the contents of the description are often ambiguous. Also, the address of the accident site and the accident location do not exactly match. The address is the location of the building, but most of the accident locations are on roads, so there is a discrepancy between the address of the accident location and the accident location.

上記の構成を備える推論装置100および推論方法によれば、例えば、自然言語で曖昧に表現された事故場所を示す情報から、例えば町丁目などの範囲までルールベースで絞り込んだ上で、機械学習を用いてより詳細な事故位置を推定することができる。例えば、上記の構成を備える推論装置100および推論方法によれば、過去に記録された事故データの事故地の言語表現から緯度および経度を推定することにより、どういう場所で事故が多発しているかを分析するなど、事故データの地理的な統計分析に活用したり、リスクマップを詳細に作製することができる。 According to the inference apparatus 100 and the inference method having the above configuration, for example, information indicating the location of the accident vaguely expressed in natural language is narrowed down to a range such as a town-chome, for example, based on rules, and then machine learning is performed. can be used to estimate the accident location in more detail. For example, according to the inference apparatus 100 and the inference method having the above configuration, by estimating the latitude and longitude from the linguistic expression of the accident location in the accident data recorded in the past, it is possible to determine where accidents frequently occur. It can be used for geographical statistical analysis of accident data, such as analysis, and to create detailed risk maps.

また例えば、上記の構成を備える推論装置100および推論方法によれば、保険会社のコールセンターなどの電話受付時に、より具体的に位置を特定するための質問を指示することで事故位置特定の補助をしたり、事故位置を特定する精度を向上させたりすることができる。 Further, for example, according to the reasoning device 100 and the reasoning method having the above configuration, when receiving a call from a call center of an insurance company or the like, a question for specifying a more specific position can be instructed to assist in specifying the location of the accident. Also, it is possible to improve the accuracy of identifying the accident location.

以上の複数の実施形態において、推論部103は追加的に、任意の地点を含む第1区域から、第1区域よりも小さい、任意の地点を含む第2区域へと段階的に、任意の地点に関する複数の言語特徴量および複数の画像特徴量と、任意の地点との対応関係を学習してもよい。この場合、推論部103は、特定の地点を含む第3区域から、第3区域よりも小さい、特定の地点を含む第4区域へと段階的に、特定の地点に関する複数の画像特徴量および複数の言語特徴量から特定の地点を推論してもよい。 In the above multiple embodiments, the inference unit 103 additionally gradually shifts from a first area including an arbitrary point to a second area that is smaller than the first area and includes an arbitrary point. You may learn the correspondence of the several language feature-value and several image feature-value regarding, and arbitrary points. In this case, the inference unit 103 sequentially generates a plurality of image feature values and a plurality of A specific point may be inferred from the linguistic feature of

例えば、推論部103は、区域の広さを、2000km四方の範囲、100km四方の範囲、5km四方の範囲へと段階的に変えて、それぞれでモデルを学習させてもよい。換言すると、推論部103は、機械学習で使用する画像の解像度を複数に分け、広い範囲から徐々に狭い範囲に絞り込んでいってもよい。推論部103は、広い範囲から徐々に場所を絞り込むことで、詳細な位置を推定するように構成されてもよい。換言すると、推論部103は、広い区域から順に推論を行い、徐々に範囲を絞り込んでいってもよい。 For example, the inference unit 103 may change the size of the area step by step to a range of 2000 km square, a range of 100 km square, and a range of 5 km square, and learn the model in each range. In other words, the inference unit 103 may divide the resolution of the image used in machine learning into a plurality of resolutions and gradually narrow down the range from a wide range to a narrow range. The inference unit 103 may be configured to estimate a detailed position by narrowing down the location gradually from a wide range. In other words, the inference unit 103 may make inferences in order from wide areas and gradually narrow down the area.

以上の複数の実施形態におけるシステム10では、推論装置100が、通信ネットワーク50を介して通信端末30から取得した、ユーザ20からの言語表現に基づき、ユーザ20の現在位置を推論する構成として説明した。追加的に又は代替的に、システム10は、ユーザ20の車両に搭載された推論装置100や、ユーザ20の通信端末30に実装された推論装置100等を備えてもよい。 In the system 10 according to the above multiple embodiments, the inference device 100 is configured to infer the current location of the user 20 based on the verbal expression from the user 20, which is obtained from the communication terminal 30 via the communication network 50. . Additionally or alternatively, the system 10 may include a reasoning device 100 mounted on the vehicle of the user 20, a reasoning device 100 mounted on the communication terminal 30 of the user 20, or the like.

また、以上の複数の実施形態におけるシステム10では、推論装置100は、ユーザ20の現在位置を推論する構成として説明した。追加的に又は代替的に、推論装置100は、ユーザ20が意図する目的地を推論してもよい。この場合、推論装置100は、ユーザ20の現在の位置や進行方向などのコンテキスト情報を追加的に使用して、ユーザ20が意図する目的地、すなわちユーザ20が今いる位置からの相対的な位置を推論してもよい。推論装置100は、一例として、推論した目的地までの経路をユーザ20に知らせるべく、推論した目的地までの経路情報を通信端末30、例えば車両のカーナビのディスプレイ等に表示させてもよい。推論装置100は、一例として、推論した目的地に向かって車両を自動運転させるべく、推論した目的地までの経路情報を車両に入力してもよい。なお、推論装置100は、ユーザ20が今いる位置からの相対的な位置を推論する場合、ジオコーダの代わりに、現在の位置や方向などで区域を決定してもよい。 Further, in the system 10 according to the above multiple embodiments, the inference device 100 is configured to infer the current location of the user 20 . Additionally or alternatively, reasoning device 100 may reason about the intended destination of user 20 . In this case, the inference apparatus 100 additionally uses context information such as the current position and direction of travel of the user 20 to determine the intended destination of the user 20, i.e., the position relative to the current position of the user 20. can be inferred. As an example, the inference device 100 may display the inferred route information to the destination on the communication terminal 30, for example, the car navigation display of the vehicle, in order to inform the user 20 of the inferred route to the destination. As an example, the inference device 100 may input route information to the inferred destination into the vehicle in order to automatically drive the vehicle toward the inferred destination. Note that the inference apparatus 100 may determine the area based on the current position, direction, etc. instead of using the geocoder when inferring the relative position from the current position of the user 20 .

本発明の様々な実施形態は、フローチャートおよびブロック図を参照して記載されてよく、ここにおいてブロックは、(1)操作が実行されるプロセスの段階または(2)操作を実行する役割を持つ装置のセクションを表わしてよい。特定の段階およびセクションが、専用回路、コンピュータ可読媒体上に格納されるコンピュータ可読命令と共に供給されるプログラマブル回路、および/またはコンピュータ可読媒体上に格納されるコンピュータ可読命令と共に供給されるプロセッサによって実装されてよい。専用回路は、デジタルおよび/またはアナログハードウェア回路を含んでよく、集積回路(IC)および/またはディスクリート回路を含んでよい。プログラマブル回路は、論理AND、論理OR、論理XOR、論理NAND、論理NOR、および他の論理操作、フリップフロップ、レジスタ、フィールドプログラマブルゲートアレイ(FPGA)、プログラマブルロジックアレイ(PLA)等のようなメモリ要素等を含む、再構成可能なハードウェア回路を含んでよい。 Various embodiments of the invention may be described with reference to flowchart illustrations and block diagrams, where blocks refer to (1) steps in a process in which operations are performed or (2) devices responsible for performing the operations. may represent a section of Certain steps and sections may be implemented by dedicated circuitry, programmable circuitry provided with computer readable instructions stored on a computer readable medium, and/or processor provided with computer readable instructions stored on a computer readable medium. you can Dedicated circuitry may include digital and/or analog hardware circuitry, and may include integrated circuits (ICs) and/or discrete circuitry. Programmable circuits include logic AND, logic OR, logic XOR, logic NAND, logic NOR, and other logic operations, memory elements such as flip-flops, registers, field programmable gate arrays (FPGAs), programmable logic arrays (PLAs), etc. and the like.

コンピュータ可読媒体は、適切なデバイスによって実行される命令を格納可能な任意の有形なデバイスを含んでよく、その結果、そこに格納される命令を有するコンピュータ可読媒体は、フローチャートまたはブロック図で指定された操作を実行するための手段を作成すべく実行され得る命令を含む、製品を備えることになる。コンピュータ可読媒体の例としては、電子記憶媒体、磁気記憶媒体、光記憶媒体、電磁記憶媒体、半導体記憶媒体等が含まれてよい。コンピュータ可読媒体のより具体的な例としては、フロッピー(登録商標)ディスク、ディスケット、ハードディスク、ランダムアクセスメモリ(RAM)、リードオンリメモリ(ROM)、消去可能プログラマブルリードオンリメモリ(EPROMまたはフラッシュメモリ)、電気的消去可能プログラマブルリードオンリメモリ(EEPROM)、静的ランダムアクセスメモリ(SRAM)、コンパクトディスクリードオンリメモリ(CD-ROM)、デジタル多用途ディスク(DVD)、ブルーレイ(RTM)ディスク、メモリスティック、集積回路カード等が含まれてよい。 Computer-readable media may include any tangible device capable of storing instructions to be executed by a suitable device, such that computer-readable media having instructions stored thereon may be designated in flowcharts or block diagrams. It will comprise an article of manufacture containing instructions that can be executed to create means for performing the operations described above. Examples of computer-readable media may include electronic storage media, magnetic storage media, optical storage media, electromagnetic storage media, semiconductor storage media, and the like. More specific examples of computer readable media include floppy disks, diskettes, hard disks, random access memory (RAM), read only memory (ROM), erasable programmable read only memory (EPROM or flash memory), Electrically Erasable Programmable Read Only Memory (EEPROM), Static Random Access Memory (SRAM), Compact Disc Read Only Memory (CD-ROM), Digital Versatile Disc (DVD), Blu-ray (RTM) Disc, Memory Stick, Integration Circuit cards and the like may be included.

コンピュータ可読命令は、アセンブラ命令、命令セットアーキテクチャ(ISA)命令、マシン命令、マシン依存命令、マイクロコード、ファームウェア命令、状態設定データ、またはSmalltalk(登録商標)、JAVA(登録商標)、C++等のようなオブジェクト指向プログラミング言語、および「C」プログラミング言語または同様のプログラミング言語のような従来の手続型プログラミング言語を含む、1または複数のプログラミング言語の任意の組み合わせで記述されたソースコードまたはオブジェクトコードのいずれかを含んでよい。 The computer readable instructions may be assembler instructions, Instruction Set Architecture (ISA) instructions, machine instructions, machine dependent instructions, microcode, firmware instructions, state setting data, or instructions such as Smalltalk, JAVA, C++, etc. any source or object code written in any combination of one or more programming languages, including object-oriented programming languages, and conventional procedural programming languages such as the "C" programming language or similar programming languages; may include

コンピュータ可読命令は、汎用コンピュータ、特殊目的のコンピュータ、若しくは他のプログラム可能なデータ処理装置のプロセッサまたはプログラマブル回路に対し、ローカルにまたはローカルエリアネットワーク(LAN)、インターネット等のようなワイドエリアネットワーク(WAN)を介して提供され、フローチャートまたはブロック図で指定された操作を実行するための手段を作成すべく、コンピュータ可読命令を実行してよい。プロセッサの例としては、コンピュータプロセッサ、処理ユニット、マイクロプロセッサ、デジタル信号プロセッサ、コントローラ、マイクロコントローラ等を含む。 Computer readable instructions may be transferred to a processor or programmable circuitry of a general purpose computer, special purpose computer, or other programmable data processing apparatus, either locally or over a wide area network (WAN), such as a local area network (LAN), the Internet, or the like. ) and may be executed to create means for performing the operations specified in the flowcharts or block diagrams. Examples of processors include computer processors, processing units, microprocessors, digital signal processors, controllers, microcontrollers, and the like.

図13は、本発明の複数の態様が全体的又は部分的に具現化されうるコンピュータ1200の例を示す。コンピュータ1200にインストールされたプログラムは、コンピュータ1200に、本発明の実施形態に係る装置に関連付けられるオペレーション又は当該装置の1又は複数の「部」として機能させ、又は当該オペレーション又は当該1又は複数の「部」を実行させることができ、及び/又はコンピュータ1200に、本発明の実施形態に係るプロセス又は当該プロセスの段階を実行させることができる。このようなプログラムは、コンピュータ1200に、本明細書に記載のフローチャート及びブロック図のブロックのうちのいくつか又はすべてに関連付けられた特定のオペレーションを実行させるべく、CPU1212によって実行されてよい。 FIG. 13 illustrates an example computer 1200 in which aspects of the invention may be implemented in whole or in part. Programs installed on the computer 1200 cause the computer 1200 to function as one or more "parts" of operations or one or more "parts" of an apparatus according to embodiments of the invention, or to and/or cause computer 1200 to perform processes or steps of processes according to embodiments of the present invention. Such programs may be executed by CPU 1212 to cause computer 1200 to perform certain operations associated with some or all of the blocks in the flowcharts and block diagrams described herein.

本実施形態によるコンピュータ1200は、CPU1212、RAM1214、グラフィックコントローラ1216、及びディスプレイデバイス1218を含み、これらはホストコントローラ1210によって相互に接続される。コンピュータ1200はまた、通信インターフェース1222、ハードディスクドライブ1224、DVD-ROMドライブ1226、及びICカードドライブのような入出力ユニットを含み、これらは入出力コントローラ1220を介してホストコントローラ1210に接続される。コンピュータはまた、ROM1230及びキーボード1242のようなレガシの入出力ユニットを含み、これらは入出力チップ1240を介して入出力コントローラ1220に接続される。 Computer 1200 according to this embodiment includes CPU 1212 , RAM 1214 , graphics controller 1216 , and display device 1218 , which are interconnected by host controller 1210 . Computer 1200 also includes input/output units such as communication interface 1222 , hard disk drive 1224 , DVD-ROM drive 1226 , and IC card drive, which are connected to host controller 1210 via input/output controller 1220 . The computer also includes legacy input/output units such as ROM 1230 and keyboard 1242 , which are connected to input/output controller 1220 through input/output chip 1240 .

CPU1212は、ROM1230及びRAM1214内に格納されたプログラムに従い動作し、これにより各ユニットを制御する。グラフィックコントローラ1216は、RAM1214内に提供されるフレームバッファ等又は当該グラフィックコントローラ1216自体の中に、CPU1212によって生成されるイメージデータを取得し、イメージデータがディスプレイデバイス1218上に表示させる。 The CPU 1212 operates according to programs stored in the ROM 1230 and RAM 1214, thereby controlling each unit. Graphics controller 1216 takes image data generated by CPU 1212 into a frame buffer or the like provided in RAM 1214 or into itself, and causes the image data to be displayed on display device 1218 .

通信インターフェース1222は、ネットワークを介して他の電子デバイスと通信する。ハードディスクドライブ1224は、コンピュータ1200内のCPU1212によって使用されるプログラム及びデータを格納する。DVD-ROMドライブ1226は、プログラム又はデータをDVD-ROM1201から読み取り、ハードディスクドライブ1224にRAM1214を介してプログラム又はデータを提供する。ICカードドライブは、プログラム及びデータをICカードから読み取り、及び/又はプログラム及びデータをICカードに書き込む。 Communication interface 1222 communicates with other electronic devices over a network. Hard disk drive 1224 stores programs and data used by CPU 1212 within computer 1200 . DVD-ROM drive 1226 reads programs or data from DVD-ROM 1201 and provides programs or data to hard disk drive 1224 via RAM 1214 . The IC card drive reads programs and data from IC cards and/or writes programs and data to IC cards.

ROM1230は、内部に、アクティブ化時にコンピュータ1200によって実行されるブートプログラム等、及び/又はコンピュータ1200のハードウェアに依存するプログラムを格納する。入出力チップ1240はまた、様々な入出力ユニットをパラレルポート、シリアルポート、キーボードポート、マウスポート等を介して、入出力コントローラ1220に接続してよい。 ROM 1230 stores therein programs that depend on the hardware of computer 1200, such as a boot program that is executed by computer 1200 upon activation. Input/output chip 1240 may also connect various input/output units to input/output controller 1220 via parallel ports, serial ports, keyboard ports, mouse ports, and the like.

プログラムが、DVD-ROM1201又はICカードのようなコンピュータ可読記憶媒体によって提供される。プログラムは、コンピュータ可読記憶媒体から読み取られ、コンピュータ可読記憶媒体の例でもあるハードディスクドライブ1224、RAM1214、又はROM1230にインストールされ、CPU1212によって実行される。これらのプログラム内に記述される情報処理は、コンピュータ1200に読み取られ、プログラムと、上記様々なタイプのハードウェアリソースとの間の連携をもたらす。装置又は方法が、コンピュータ1200の使用に従い情報のオペレーション又は処理を実現することによって構成されてよい。 A program is provided by a computer-readable storage medium such as a DVD-ROM 1201 or an IC card. The program is read from a computer-readable storage medium, installed in hard disk drive 1224 , RAM 1214 , or ROM 1230 , which are also examples of computer-readable storage medium, and executed by CPU 1212 . The information processing described within these programs is read by computer 1200 to provide coordination between the programs and the various types of hardware resources described above. An apparatus or method may be configured by implementing information operations or processing according to the use of computer 1200 .

例えば、通信がコンピュータ1200及び外部デバイス間で実行される場合、CPU1212は、RAM1214にロードされた通信プログラムを実行し、通信プログラムに記述された処理に基づいて、通信インターフェース1222に対し、通信処理を命令してよい。通信インターフェース1222は、CPU1212の制御の下、RAM1214、ハードディスクドライブ1224、DVD-ROM1201、又はICカードのような記録媒体内に提供される送信バッファ領域に格納された送信データを読み取り、読み取られた送信データをネットワークに送信し、又はネットワークから受信した受信データを記録媒体上に提供される受信バッファ領域等に書き込む。 For example, when communication is performed between the computer 1200 and an external device, the CPU 1212 executes a communication program loaded into the RAM 1214 and sends communication processing to the communication interface 1222 based on the processing described in the communication program. you can command. Under the control of the CPU 1212, the communication interface 1222 reads transmission data stored in a transmission buffer area provided in a recording medium such as the RAM 1214, the hard disk drive 1224, the DVD-ROM 1201, or an IC card. Data is transmitted to the network, or received data received from the network is written in a receive buffer area or the like provided on the recording medium.

また、CPU1212は、ハードディスクドライブ1224、DVD-ROMドライブ1226(DVD-ROM1201)、ICカード等のような外部記録媒体に格納されたファイル又はデータベースの全部又は必要な部分がRAM1214に読み取られるようにし、RAM1214上のデータに対し様々なタイプの処理を実行してよい。CPU1212は次に、処理されたデータを外部記録媒体にライトバックしてよい。 In addition, the CPU 1212 causes the RAM 1214 to read all or necessary portions of files or databases stored in external recording media such as a hard disk drive 1224, a DVD-ROM drive 1226 (DVD-ROM 1201), an IC card, etc. Various types of processing may be performed on the data in RAM 1214 . CPU 1212 may then write back the processed data to an external recording medium.

様々なタイプのプログラム、データ、テーブル、及びデータベースのような、様々なタイプの情報が、情報処理されるべく、記録媒体に格納されてよい。CPU1212は、RAM1214から読み取られたデータに対し、本開示の随所に記載され、プログラムの命令シーケンスによって指定される様々なタイプのオペレーション、情報処理、条件判断、条件分岐、無条件分岐、情報の検索/置換等を含む、様々なタイプの処理を実行してよく、結果をRAM1214に対しライトバックする。また、CPU1212は、記録媒体内のファイル、データベース等における情報を検索してよい。例えば、各々が第2の属性の属性値に関連付けられた第1の属性の属性値を有する複数のエントリが記録媒体内に格納される場合、CPU1212は、当該複数のエントリの中から、第1の属性の属性値が指定されている条件に一致するエントリを検索し、当該エントリ内に格納された第2の属性の属性値を読み取り、これにより予め定められた条件を満たす第1の属性に関連付けられた第2の属性の属性値を取得してよい。 Various types of information, such as various types of programs, data, tables, and databases, may be stored on the recording medium to be processed. CPU 1212 performs various types of operations on data read from RAM 1214, information processing, conditional decisions, conditional branching, unconditional branching, and information retrieval, which are described throughout this disclosure and are specified by instruction sequences of programs. Various types of processing may be performed, including /replace, etc., and the results written back to RAM 1214 . In addition, the CPU 1212 may search for information in a file in a recording medium, a database, or the like. For example, when a plurality of entries each having an attribute value of a first attribute associated with an attribute value of a second attribute are stored in the recording medium, the CPU 1212 selects the first attribute from among the plurality of entries. search for an entry that matches a condition in which the attribute value of the attribute is specified, read the attribute value of the second attribute stored in the entry, and thereby determine the first attribute that satisfies the predetermined condition An attribute value of the associated second attribute may be obtained.

以上の説明によるプログラム又はソフトウェアモジュールは、コンピュータ1200上又はコンピュータ1200近傍のコンピュータ可読記憶媒体に格納されてよい。また、専用通信ネットワーク又はインターネットに接続されたサーバシステム内に提供されるハードディスク又はRAMのような記録媒体が、コンピュータ可読記憶媒体として使用可能であり、これにより、プログラムをコンピュータ1200にネットワークを介して提供する。 Programs or software modules according to the above description may be stored in a computer readable storage medium on or near computer 1200 . Also, a recording medium such as a hard disk or RAM provided in a server system connected to a dedicated communication network or the Internet can be used as a computer-readable storage medium, whereby the program can be transferred to the computer 1200 via a network. offer.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。また、技術的に矛盾しない範囲において、特定の実施形態について説明した事項を、他の実施形態に適用することができる。また、各構成要素は、名称が同一で、参照符号が異なる他の構成要素と同様の特徴を有してもよい。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。 Although the present invention has been described above using the embodiments, the technical scope of the present invention is not limited to the scope described in the above embodiments. It is obvious to those skilled in the art that various modifications and improvements can be made to the above embodiments. In addition, matters described with respect to a specific embodiment can be applied to other embodiments as long as they are not technically inconsistent. Also, each component may have features similar to other components with the same name but different reference numerals. It is clear from the description of the scope of claims that forms with such modifications or improvements can also be included in the technical scope of the present invention.

例えば、ルールベースの探索は、カーナビゲーションシステムやスマートフォンのGPS情報から、特定の地点を含む、緯度経度の範囲で表される区域の地理データ、例えばタイル座標やメッシュコードなどの地理データを取得することを含んでもよい。すなわち、取得部は、特定の地点を含む区域に関する地理データを取得する具体例として、GPS情報から当該特定の地点を含む区域の地理データを取得してもよい。 For example, a rule-based search acquires geographic data, such as tile coordinates and mesh codes, for an area represented by a range of latitude and longitude, including a specific point, from GPS information in a car navigation system or smartphone. may include That is, as a specific example of acquiring geographic data relating to an area including a specific point, the acquisition unit may acquire geographic data of an area including the specific point from GPS information.

特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。 The execution order of each process such as actions, procedures, steps, and stages in the devices, systems, programs, and methods shown in the claims, the specification, and the drawings is particularly "before", "before etc., and it should be noted that they can be implemented in any order unless the output of the previous process is used in the subsequent process. Regarding the operation flow in the claims, the specification, and the drawings, even if the description is made using "first," "next," etc. for the sake of convenience, it means that it is essential to carry out in this order. not a thing

10 システム
20 ユーザ
30 通信端末
50 通信ネットワーク
60 区域
100 推論装置
101 取得部
103 推論部
105 算出部
107 補正部
1200 コンピュータ
1201 DVD-ROM
1210 ホストコントローラ
1212 CPU
1214 RAM
1216 グラフィックコントローラ
1218 ディスプレイデバイス
1220 入出力コントローラ
1222 通信インターフェース
1224 ハードディスクドライブ
1226 DVD-ROMドライブ
1230 ROM
1240 入出力チップ
1242 キーボード
10 system 20 user 30 communication terminal 50 communication network 60 area 100 inference device 101 acquisition unit 103 inference unit 105 calculation unit 107 correction unit 1200 computer 1201 DVD-ROM
1210 host controller 1212 CPU
1214 RAM
1216 graphic controller 1218 display device 1220 input/output controller 1222 communication interface 1224 hard disk drive 1226 DVD-ROM drive 1230 ROM
1240 input/output chip 1242 keyboard

Claims (9)

特定の地点を含む区域に関する地理データを取得する取得部と、
任意の地点に関する第1言語表現および前記任意の地点を含む区域に関する地理データと、前記任意の地点との対応関係の学習結果に基づき、前記特定の地点に関する第1言語表現および前記取得部によって取得された前記地理データから前記特定の地点を推論する推論部と
を備え
前記推論部は、
前記任意の地点に関する前記第1言語表現から特定される複数の言語特徴量、および、前記任意の地点を含む区域に関する前記地理データに含まれる複数の地図画像または地物画像から特定される複数の画像特徴量と、前記任意の地点との対応関係を学習し、
前記取得部によって取得された前記地理データに含まれる複数の地図画像または地物画像から複数の画像特徴量を特定し、
前記特定の地点に関する前記第1言語表現から複数の言語特徴量を特定し、
前記特定の地点に関する前記複数の画像特徴量および前記複数の言語特徴量から前記特定の地点を推論する、
推論装置。
an acquisition unit that acquires geographic data about an area that includes a specific point;
A first linguistic expression relating to an arbitrary point and a first linguistic expression relating to the specific point and acquired by the acquiring unit based on learning results of a correspondence relationship between the first linguistic expression relating to the arbitrary point and geographic data relating to an area including the arbitrary point and the arbitrary point. an inference unit that infers the specific point from the geographic data obtained ;
The reasoning unit
a plurality of linguistic features specified from the first language expression relating to the arbitrary point, and a plurality of map images or feature images specified from the plurality of map images or feature images included in the geographic data relating to the area containing the arbitrary point Learning the correspondence relationship between the image feature quantity and the arbitrary point,
identifying a plurality of image feature amounts from a plurality of map images or feature images included in the geographic data acquired by the acquisition unit;
Identifying a plurality of linguistic features from the first linguistic expression related to the specific point;
Inferring the specific point from the plurality of image features and the plurality of language features related to the specific point;
reasoning device.
前記推論部は、
前記任意の地点を含む第1区域から、前記第1区域よりも小さい、前記任意の地点を含む第2区域へと段階的に、前記任意の地点に関する前記複数の言語特徴量および前記複数の画像特徴量と、前記任意の地点との対応関係を学習し、
前記特定の地点を含む第3区域から、前記第3区域よりも小さい、前記特定の地点を含む第4区域へと段階的に、前記特定の地点に関する前記複数の画像特徴量および前記複数の言語特徴量から前記特定の地点を推論する、
請求項に記載の推論装置。
The reasoning unit
The plurality of linguistic features and the plurality of images relating to the arbitrary point, step by step from the first area including the arbitrary point to the second area including the arbitrary point smaller than the first area Learning the correspondence relationship between the feature quantity and the arbitrary point,
The plurality of image feature values and the plurality of languages related to the specific point, step by step from a third area including the specific point to a fourth area including the specific point that is smaller than the third area inferring the specific point from the features;
A reasoning apparatus according to claim 1 .
前記推論部は、前記特定の地点に関する前記複数の言語特徴量にそれぞれ対応する前記複数の画像特徴量に示される地理的な尤度を足し合わせることで前記特定の地点の画像を生成する、
請求項1または2に記載の推論装置。
The inference unit generates an image of the specific point by adding together the geographical likelihoods indicated by the plurality of image feature amounts respectively corresponding to the plurality of language feature amounts related to the specific point.
3. A reasoning device according to claim 1 or 2 .
前記推論部が生成した前記特定の地点の前記画像の中で、最も地理的な尤度が高い点を前記特定の地点として決定し、決定した前記点の緯度および経度を算出する算出部を更に備える、
請求項に記載の推論装置。
A calculation unit that determines a point having the highest geographical likelihood as the specific point in the image of the specific point generated by the inference unit, and calculates the latitude and longitude of the determined point. prepare
4. A reasoning apparatus according to claim 3 .
前記算出部が算出した前記緯度および前記経度で特定される地点が道路上に位置していない場合に、前記算出部が算出した前記緯度および前記経度を、特定される前記地点に最も近い道路上における、特定される前記地点から最も近い地点の緯度および経度に補正する補正部を更に備える、
請求項に記載の推論装置。
When the point specified by the latitude and longitude calculated by the calculating unit is not located on a road, the latitude and longitude calculated by the calculating unit are placed on the road closest to the specified point. In, further comprising a correction unit that corrects the latitude and longitude of the closest point from the identified point,
5. A reasoning apparatus according to claim 4 .
前記取得部は、前記特定の地点に関する第2言語表現を取得した場合に、前記第2言語表現に基づいて前記特定の地点を含む区域のオープンデータを取得し、前記オープンデータから、ランドマーク、道路および交差点の少なくとも何れかによって分類した前記複数の地図画像または地物画像を生成する、
請求項1から5の何れか一項に記載の推論装置。
The acquisition unit acquires open data of an area including the specific point based on the second language expression when the second language expression regarding the specific point is acquired, and from the open data, landmarks, generating the plurality of map images or feature images classified by at least one of roads and intersections;
A reasoning apparatus according to any one of claims 1 to 5 .
前記取得部は、前記特定の地点に関する自然言語表現を取得し、前記自然言語表現を、前記特定の地点に関するベクトル表現である前記第1言語表現に変換して前記推論部に出力する、
請求項1から6の何れか一項に記載の推論装置。
The acquisition unit acquires a natural language expression regarding the specific point, converts the natural language expression into the first language expression that is a vector expression regarding the specific point, and outputs the first language expression to the inference unit.
A reasoning apparatus according to any one of claims 1 to 6 .
コンピュータによって実行される推論方法であって、
特定の地点を含む区域に関する地理データを取得する取得段階と、
任意の地点に関する第1言語表現および前記任意の地点を含む区域に関する地理データと、前記任意の地点との対応関係の学習結果に基づき、前記特定の地点に関する第1言語表現および前記取得段階で取得した前記地理データから前記特定の地点を推論する推論段階と
を備え
前記推論段階は、
前記任意の地点に関する前記第1言語表現から特定される複数の言語特徴量、および、前記任意の地点を含む区域に関する前記地理データに含まれる複数の地図画像または地物画像から特定される複数の画像特徴量と、前記任意の地点との対応関係を学習することと、
前記取得段階で取得された前記地理データに含まれる複数の地図画像または地物画像から複数の画像特徴量を特定することと、
前記特定の地点に関する前記第1言語表現から複数の言語特徴量を特定することと、
前記特定の地点に関する前記複数の画像特徴量および前記複数の言語特徴量から前記特定の地点を推論することと
を含む、
推論方法。
A computer-implemented inference method comprising:
an acquisition step of acquiring geographic data for an area containing a particular point;
A first linguistic expression relating to an arbitrary point and a first linguistic expression relating to the specific point and acquired in the acquiring step based on learning results of a correspondence relationship between the first linguistic expression relating to the arbitrary point and geographic data relating to an area including the arbitrary point and the arbitrary point. an inferring step of inferring the particular point from the geographic data obtained from
The inference step includes:
a plurality of linguistic features specified from the first language expression relating to the arbitrary point, and a plurality of map images or feature images specified from the plurality of map images or feature images included in the geographic data relating to the area containing the arbitrary point learning the correspondence relationship between the image feature amount and the arbitrary point;
identifying a plurality of image feature amounts from a plurality of map images or feature images included in the geographic data acquired in the acquisition step;
identifying a plurality of linguistic features from the first linguistic expression relating to the specific point;
inferring the specific point from the plurality of image features and the plurality of linguistic features relating to the specific point;
including,
reasoning method.
コンピュータに、
特定の地点を含む区域に関する地理データを取得する取得手順と、
任意の地点に関する第1言語表現および前記任意の地点を含む区域に関する地理データと、前記任意の地点との対応関係の学習結果に基づき、前記特定の地点に関する第1言語表現および前記取得手順で取得した前記地理データから前記特定の地点を推論する推論手順と
を実行させるためのプログラムであり、
前記推論手順は、
前記任意の地点に関する前記第1言語表現から特定される複数の言語特徴量、および、前記任意の地点を含む区域に関する前記地理データに含まれる複数の地図画像または地物画像から特定される複数の画像特徴量と、前記任意の地点との対応関係を学習することと、
前記取得手順で取得された前記地理データに含まれる複数の地図画像または地物画像から複数の画像特徴量を特定することと、
前記特定の地点に関する前記第1言語表現から複数の言語特徴量を特定することと、
前記特定の地点に関する前記複数の画像特徴量および前記複数の言語特徴量から前記特定の地点を推論することと
を含む、
プログラム
to the computer,
an acquisition procedure for acquiring geographic data about an area containing a particular point;
A first linguistic expression relating to an arbitrary point and geographic data relating to an area including the arbitrary point, and a first linguistic expression relating to the specific point and acquired by the acquisition procedure based on learning results of a correspondence relationship between the arbitrary point and the arbitrary point a program for executing an inference procedure for inferring the specific point from the geographic data obtained by
The inference procedure includes:
a plurality of linguistic features specified from the first language expression relating to the arbitrary point, and a plurality of map images or feature images specified from the plurality of map images or feature images included in the geographic data relating to the area containing the arbitrary point learning the correspondence relationship between the image feature amount and the arbitrary point;
identifying a plurality of image feature amounts from a plurality of map images or feature images included in the geographic data acquired in the acquisition step;
identifying a plurality of linguistic features from the first linguistic expression relating to the specific point;
inferring the specific point from the plurality of image features and the plurality of linguistic features relating to the specific point;
including,
program .
JP2021060866A 2021-03-31 2021-03-31 Reasoning device, reasoning method and program Active JP7199067B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021060866A JP7199067B2 (en) 2021-03-31 2021-03-31 Reasoning device, reasoning method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021060866A JP7199067B2 (en) 2021-03-31 2021-03-31 Reasoning device, reasoning method and program

Publications (2)

Publication Number Publication Date
JP2022156923A JP2022156923A (en) 2022-10-14
JP7199067B2 true JP7199067B2 (en) 2023-01-05

Family

ID=83559411

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021060866A Active JP7199067B2 (en) 2021-03-31 2021-03-31 Reasoning device, reasoning method and program

Country Status (1)

Country Link
JP (1) JP7199067B2 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010128898A (en) 2008-11-28 2010-06-10 Denso It Laboratory Inc Content position estimating device

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010128898A (en) 2008-11-28 2010-06-10 Denso It Laboratory Inc Content position estimating device

Also Published As

Publication number Publication date
JP2022156923A (en) 2022-10-14

Similar Documents

Publication Publication Date Title
US6721653B2 (en) Navigation system, method, and program for automotive vehicle
CN112868036B (en) System and method for location recommendation
US8401780B2 (en) Method of prioritizing similar names of locations for use by a navigation system
CN113033029A (en) Automatic driving simulation method and device, electronic equipment and storage medium
JP2005141107A (en) System for providing regional map for movable body
CN107270923A (en) Method, terminal and storage medium that a kind of route is pushed
US11745727B2 (en) Methods and systems for mapping a parking area for autonomous parking
CN111859178B (en) Method and system for recommending get-on point
KR20170030379A (en) Method and system for personalized travel curation service
CN111721306B (en) Road matching method and device, electronic equipment and readable storage medium
KR20190039240A (en) Analysis, measurement and automatic classification system of road route and its operation method
CN114254837A (en) Travel route customizing method and system based on deep reinforcement learning
CN111859174A (en) Method and system for determining recommended boarding point
US9898876B2 (en) Method and apparatus for vehicle usage recording
JP7199067B2 (en) Reasoning device, reasoning method and program
US20210270629A1 (en) Method and apparatus for selecting a path to a destination
CN111046669A (en) Interest point matching method and device and computer system
JP2016080654A (en) Movement route extraction device, movement route extraction method, and movement route extraction program
US11821748B2 (en) Processing apparatus and method for determining road names
US20210103888A1 (en) Estimating system, estimating method, and information storage medium
CN114396956A (en) Navigation method and apparatus, computing device, storage medium, and computer program product
JP5322080B2 (en) Map information display device and map information display method
CN111506678A (en) Method, device and equipment for generating negative samples of arrival points
JP2020002658A (en) Information processing apparatus, river water level prediction method, and river water level prediction program
JP2902209B2 (en) Route search method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210528

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220727

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221115

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221212

R150 Certificate of patent or registration of utility model

Ref document number: 7199067

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150