JP7199067B2 - Reasoning device, reasoning method and program - Google Patents
Reasoning device, reasoning method and program Download PDFInfo
- Publication number
- JP7199067B2 JP7199067B2 JP2021060866A JP2021060866A JP7199067B2 JP 7199067 B2 JP7199067 B2 JP 7199067B2 JP 2021060866 A JP2021060866 A JP 2021060866A JP 2021060866 A JP2021060866 A JP 2021060866A JP 7199067 B2 JP7199067 B2 JP 7199067B2
- Authority
- JP
- Japan
- Prior art keywords
- point
- specific point
- inference
- linguistic
- relating
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Instructional Devices (AREA)
- Machine Translation (AREA)
Description
本発明は、推論装置、推論方法およびプログラムに関する。 The present invention relates to an inference device, an inference method, and a program.
特許文献1には、「端末3に含まれる位置情報検出センサ9は、GPSであってもよい…車両の現在位置を測定して、この現在位置情報を出力する。」(段落0086)、「端末3からサーバ20に…送付される情報は、…位置情報として〇県×市△町XXX」(段落0109)と記載されている。
[先行技術文献]
[特許文献]
[特許文献1] 特許第6095835号
In Patent Document 1, "The position information detection sensor 9 included in the terminal 3 may be a GPS ... measures the current position of the vehicle and outputs this current position information" (paragraph 0086), " The information sent from the terminal 3 to the
[Prior art documents]
[Patent Literature]
[Patent Document 1] Patent No. 6095835
本発明の一態様においては、推論装置が提供される。推論装置は、特定の地点を含む区域に関する地理データを取得する取得部を備えてもよい。推論装置は、任意の地点に関する第1言語表現および任意の地点を含む区域に関する地理データと、任意の地点との対応関係の学習結果に基づき、特定の地点に関する第1言語表現および取得部によって取得された地理データから特定の地点を推論する推論部を備えてもよい。 In one aspect of the invention, a reasoning apparatus is provided. The reasoning apparatus may comprise an acquisition unit for acquiring geographic data relating to an area containing a particular point. The inference device acquires a first language expression related to a specific point and an acquisition unit based on learning results of a correspondence relationship between the first language expression related to the arbitrary point and geographic data related to the area including the arbitrary point and the arbitrary point. An inference unit may be provided for inferring a particular point from the provided geographic data.
推論部は、任意の地点に関する第1言語表現から特定される複数の言語特徴量、および、任意の地点を含む区域に関する地理データに含まれる複数の地図画像または地物画像から特定される複数の画像特徴量と、任意の地点との対応関係を予め学習しておいてもよい。推論部は、取得部によって取得された地理データに含まれる複数の地図画像または地物画像から複数の画像特徴量を特定してもよい。推論部は、特定の地点に関する第1言語表現から複数の言語特徴量を特定してもよい。推論部は、特定の地点に関する複数の画像特徴量および複数の言語特徴量から特定の地点を推論してもよい。 The inference unit includes a plurality of linguistic feature amounts specified from a first language expression regarding an arbitrary point, and a plurality of map images or feature images identified from a plurality of map images or feature images included in geographic data regarding an area including the arbitrary point. Correspondence relationships between image feature amounts and arbitrary points may be learned in advance. The inference unit may specify a plurality of image feature amounts from a plurality of map images or feature images included in the geographic data acquired by the acquisition unit. The inference unit may identify a plurality of linguistic features from the first linguistic expression regarding the specific point. The inference unit may infer a specific spot from a plurality of image feature quantities and a plurality of language feature quantities relating to the specific spot.
推論部は、任意の地点を含む第1区域から、第1区域よりも小さい、任意の地点を含む第2区域へと段階的に、任意の地点に関する複数の言語特徴量および複数の画像特徴量と、任意の地点との対応関係を学習してもよい。推論部は、特定の地点を含む第3区域から、第3区域よりも小さい、特定の地点を含む第4区域へと段階的に、特定の地点に関する複数の画像特徴量および複数の言語特徴量から特定の地点を推論してもよい。 The inference unit generates a plurality of linguistic feature values and a plurality of image feature values related to the arbitrary point, step by step from a first area including the arbitrary point to a second area smaller than the first area and including the arbitrary point. , and an arbitrary point may be learned. The inference unit generates a plurality of image feature values and a plurality of language feature values related to the specific point, step by step from a third area including the specific point to a fourth area including the specific point that is smaller than the third area. A particular point may be inferred from
推論部は、特定の地点に関する複数の言語特徴量にそれぞれ対応する複数の画像特徴量に示される地理的な尤度を足し合わせることで特定の地点の画像を生成してもよい。 The inference unit may generate an image of a specific point by adding together geographical likelihoods indicated by a plurality of image feature amounts respectively corresponding to a plurality of linguistic feature amounts related to the specific point.
推論装置は、推論部が生成した特定の地点の画像の中で、最も地理的な尤度が高い点を特定の地点として決定し、決定した点の緯度および経度を算出する算出部を更に備えてもよい。 The inference device further includes a calculation unit that determines a point with the highest geographical likelihood as the specific point in the image of the specific point generated by the inference unit, and calculates the latitude and longitude of the determined point. may
推論装置は、算出部が算出した緯度および経度で特定される地点が道路上に位置していない場合に、算出部が算出した緯度および経度を、特定される地点に最も近い道路上における、特定される地点から最も近い地点の緯度および経度に補正する補正部を更に備えてもよい。 When the point specified by the latitude and longitude calculated by the calculation unit is not located on the road, the inference device converts the latitude and longitude calculated by the calculation unit to the specified point on the road closest to the specified point. A correction unit may be further provided for correcting the latitude and longitude of the point closest to the point where the measurement is performed.
取得部は、特定の地点に関する第2言語表現が入力された場合に、第2言語表現に基づいて特定の地点を含む区域のオープンデータを取得し、オープンデータから、ランドマーク、道路および交差点の少なくとも何れかによって分類した複数の地図画像または地物画像を生成してもよい。 The acquisition unit acquires open data of an area including the specific point based on the second language expression when a second language expression related to the specific point is input, and obtains landmarks, roads, and intersections from the open data. A plurality of map images or feature images classified by at least one of them may be generated.
取得部は、特定の地点に関する自然言語表現を取得し、自然言語表現を、特定の地点に関するベクトル表現である第1言語表現に変換して推論部に出力してもよい。 The acquisition unit may acquire a natural language expression regarding the specific point, convert the natural language expression into a first language expression that is a vector expression regarding the specific point, and output the first language expression to the inference unit.
本発明の一態様においては、推論方法が提供される。推論方法は、特定の地点を含む区域に関する地理データを取得する取得段階を備えてもよい。推論方法は、任意の地点に関する第1言語表現および任意の地点を含む区域に関する地理データと、任意の地点との対応関係の学習結果に基づき、特定の地点に関する第1言語表現および取得段階で取得した地理データから特定の地点を推論する推論段階を備えてもよい。 In one aspect of the invention, an inference method is provided. The inference method may comprise obtaining geographic data for an area containing a particular point. The inference method is based on the learning result of the correspondence relationship between the first language expression regarding the arbitrary point and the geographic data regarding the area including the arbitrary point and the arbitrary point, and the first language expression regarding the specific point and the acquisition stage. An inference stage may be provided for inferring a particular point from the geographic data obtained.
本発明の一態様においては、プログラムが提供される。プログラムは、コンピュータに、特定の地点を含む区域に関する地理データを取得する取得手順を実行させてもよい。プログラムは、コンピュータに、任意の地点に関する第1言語表現および任意の地点を含む区域に関する地理データと、任意の地点との対応関係の学習結果に基づき、特定の地点に関する第1言語表現および取得手順で取得した地理データから特定の地点を推論する推論手順を実行させてもよい。 In one aspect of the invention, a program is provided. The program may cause the computer to perform an acquisition procedure to acquire geographic data for the area containing the specified point. The program provides a computer with a first language expression of a specific point and an acquisition procedure based on learning results of a correspondence relationship between a first language expression of an arbitrary point and geographic data of an area containing the arbitrary point and the arbitrary point. An inference procedure may be executed to infer a specific point from the geographic data obtained in .
なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。 It should be noted that the above summary of the invention does not list all the necessary features of the invention. Subcombinations of these feature groups can also be inventions.
以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。なお、図面において、同一または類似の部分には同一の参照番号を付して、重複する説明を省く場合がある。 Hereinafter, the present invention will be described through embodiments of the invention, but the following embodiments do not limit the invention according to the claims. Also, not all combinations of features described in the embodiments are essential for the solution of the invention. In addition, in the drawings, the same or similar parts may be denoted by the same reference numerals to omit redundant description.
図1は、一実施形態によるシステム10の概略図である。システム10は、通信ネットワーク50を介して相互に通信する通信端末30および推論装置100を備える。システム10は、通信端末30を所持しているユーザ20からの自然言語で記述される自然言語表現に基づき、ユーザ20に関する地理的位置を推論するためのシステムである。なお、通信ネットワーク50は有線か無線かを問わない。
FIG. 1 is a schematic diagram of a
本実施形態における通信端末30は、一例として、スマートフォンなどの通話機器である。通信端末30は、回線交換方式によって推論装置100と通信する。本実施形態におけるシステム10では、ユーザ20が通信端末30から推論装置100に発信し、推論装置100と音声通話する。
The
本実施形態における推論装置100は、ユーザ20が音声通話中に発した自然言語で記述される自然言語表現に基づき、ユーザ20が現在いる地点の緯度および経度を特定する。
The
より具体的には、推論装置100は、ユーザ20との音声通話中に、ユーザ20から、ユーザ20が現在いる地点の住所と、当該地点に関する情報、例えばユーザ20が視認可能なランドマークや、ユーザ20から最も近い道路や交差点などの名称とを聞き出す。当該住所は、一例として、市区町村レベルの大まかな住所情報であってもよく、番地レベルの具体的な住所情報であってもよい。推論装置100は、これらの自然言語で記述される自然言語表現から、ルールベースの探索と機械学習による推論を行うことで、ユーザ20が現在いる地点の緯度および経度を特定する。
More specifically, during a voice call with the
ルールベースの探索は、例えば、ジオコーダを用いて、住所から緯度および経度を特定することを含んでもよい。また、ルールベースの探索は、例えば、オープンストリートマップ(OSM)を用いて、当該緯度および経度を中心とする一定領域内のポイントデータやラインデータを取得することを含んでもよい。また、ルールベースの探索は、例えば、住所で表される位置を特定し、当該位置が道路上や交差点上の位置ではない場合に、当該位置を、当該位置の最寄りの道路や交差点上の位置に補正することを含んでもよい。 A rule-based search may include, for example, using a geocoder to determine latitude and longitude from an address. The rule-based search may also include, for example, using Open Street Map (OSM) to acquire point data and line data within a certain area centered on the latitude and longitude. In addition, rule-based search, for example, identifies a position represented by an address, and if the position is not on a road or intersection, the position is replaced with a position on the road or intersection nearest to the position. may include correcting to
機械学習による推論は、例えば、言語表現と地理データを入力として、言語で示される地理的位置を推論することであってもよい。推論装置100は、上記の自然言語表現が、自然言語で曖昧に記述された地点を示す場合にも、ルールベースの探索と機械学習による推論とを行うことにより、当該地点の緯度および経度を高精度に特定できる。
Inference by machine learning may be, for example, taking linguistic expressions and geographic data as input and inferring geographic locations indicated in language.
なお、本実施形態における推論装置100は、一例として、通信端末30を通じたユーザ20からの電話を自動音声で応対することにより、ユーザ20から上記の自然言語を聞き出して、当該自然言語で記述される自然言語表現を取得する。追加的に又は代替的に、推論装置100は、推論装置100を管理する会社のオペレータがユーザ20から聞き出した上記の自然言語で記述される自然言語表現を取得してもよい。
As an example, the
なお、推論装置100がユーザ20との音声通話中にユーザ20から聞き出す、ユーザ20が現在いる地点の住所は、特定の地点の住所に関する第2言語表現の一例である。また、推論装置100がユーザ20との音声通話中にユーザ20から聞き出す、上記のランドマーク、道路、交差点などの名称は、特定の地点に関する自然言語表現の一例である。
Note that the address of the location where the
なお、通信端末30および推論装置100は、上述の回線交換方式に代えて、パケット交換方式により通信してもよく、ユーザ20が通信端末30のインターフェースに手入力又は音声入力した言語表現を、データ通信によって推論装置100に送信してもよい。
図2は、一実施形態による推論装置100のブロック図である。推論装置100は、取得部101と、推論部103と、算出部105と、補正部107と、事故情報データベース109とを備える。
FIG. 2 is a block diagram of a
取得部101は、推論装置100の外部の装置、例えば通信端末30と相互に通信する。取得部101は、他の通信端末、例えば推論装置100を管理する管理会社のコンピュータと相互に通信してもよい。
取得部101は、特定の地点を含む区域に関する地理データを取得する。より具体的には、本実施形態における取得部101は、通信端末30と通信している間、ユーザ20が音声通話中に発した、ユーザ20が現在いる地点に関する自然言語を解読して自然言語表現を取得する。当該自然言語は、例えば、当該地点の住所を示すものであってもよく、高速の〇〇IC付近や、〇〇駅付近といった特定の道路やランドマーク等を示すものであってもよい。なお、当該自然言語表現は、特定の地点に関する第2言語表現の一例である。
The
本実施形態における取得部101は、このように当該地点の自然言語表現を取得した場合に、当該自然言語表現に基づいて、ユーザ20が現在いる地点を含む区域のオープンデータを取得する。取得部101は更に、当該オープンデータから、ランドマーク、道路および交差点の少なくとも何れかによって分類した複数の地図画像または地物画像を生成する。
When acquiring the natural language expression of the point in this way, the
具体的な一例として、本実施形態における取得部101は、当該住所をジオコーダで緯度および経度に変換し、オープンストリートマップ(OSM)を用いて、当該緯度および経度を中心とする一定領域内のポイントデータやラインデータを取得する。
As a specific example, the
本実施形態における取得部101は更に、地図描画用ライブラリによって、当該ポイントデータやラインデータから上記の複数の地図画像または地物画像を生成する。なお、オープンデータ、地図画像および地物画像は何れも、上記の地理データの一例である。
The
取得部101は、取得した地理データを推論部103に出力する。より具体的には、本実施形態における取得部101は、OSMで取得したオープンデータから生成した複数の地図画像または地物画像を推論部103に出力する。
The
本実施形態における取得部101は更に、特定の地点に関する自然言語表現を取得し、自然言語表現を、当該特定の地点に関するベクトル表現に変換する。具体的な一例として、本実施形態における取得部101は、通信端末30と通信している間にユーザ20が現在いる地点に関する自然言語から自然言語表現を取得した場合、Word2Vec(ワードツーベック)を用いた構文解析器を用いて、当該自然言語表現をベクトル表現に変換する。取得部101は、当該ベクトル表現を推論部103に出力する。なお、当該ベクトル表現は、特定の地点に関する第1言語表現の一例である。
The
本実施形態における取得部101は更に、補正部107から緯度および経度を入力された場合、例えば、推論装置100を管理する管理会社のコンピュータに緯度および経度を送信する。
Further, when the
推論部103は、任意の地点に関する第1言語表現および当該任意の地点を含む区域に関する地理データと、当該任意の地点との対応関係の学習結果に基づき、特定の地点に関する第1言語表現および取得部101によって取得された地理データから当該特定の地点を推論する。
The
より具体的には、本実施形態における推論部103は、特定の地点に関する第1言語表現から複数の言語特徴量を特定し、また、取得部101によって取得された地理データに含まれる複数の地図画像または地物画像から複数の画像特徴量を特定する。本実施形態では、当該第1言語表現は上述のベクトル表現であり、特定の地点に関するベクトル表現は、上述の通り、取得部101から推論部103に入力される。
More specifically, the
推論部103は更に、任意の地点に関する第1言語表現から特定される複数の言語特徴量、および、当該任意の地点を含む区域に関する地理データに含まれる複数の地図画像または地物画像から特定される複数の画像特徴量と、当該任意の地点との対応関係の学習結果に基づき、特定の地点に関する複数の画像特徴量および複数の言語特徴量から特定の地点を推論する。
The
具体的な一例として、本実施形態における推論部103は、LSTM(Long Short-Term Memory)ネットワークおよびCNN(Convolution Neural Network)を含むニューラルネットワーク構造の深層学習モデルを有する。推論部103は、LSTMネットワークにより、ベクトル表現から複数の言語特徴量を特定し、CNNにより、複数の地図画像または地物画像から複数の画像特徴量を特定する。
As a specific example, the
具体的な一例において、推論部103は、上記の深層学習モデルにより、任意の地点に関するベクトル表現から特定される複数の言語特徴量、および、当該任意の地点に関する複数の地図画像または地物画像から特定される複数の画像特徴量と、当該任意の地点との対応関係を深層学習する。当該対応関係は、言語特徴量と画像特徴量との関連度合いを含む。推論部103は、例えば、事故情報データベース109に格納されている、任意の地点に関するベクトル表現および複数の地図画像または地物画像を読み出して、言語特徴量および画像特徴量をそれぞれ特定し、当該対応関係を深層学習する。
In a specific example, the
なお、事故情報データベース109には、任意の地点に関するベクトル表現および複数の地図画像または地物画像に代えて、任意の地点に関する自然言語表現および任意の地点の住所に関する自然言語表現が格納されていてもよい。この場合、推論部103は、事故情報データベース109から読み出したこれらの自然言語表現を取得部101に出力することで、取得部101から、任意の地点に関するベクトル表現および複数の地図画像または地物画像を入力されてもよい。
The
具体的な一例において、推論部103は更に、特定の地点に関する複数の言語特徴量にそれぞれ対応する複数の画像特徴量に示される地理的な尤度を足し合わせることで特定の地点の画像を生成する。画像特徴量に示される地理的な尤度とは、例えば、各画像特徴量に対応する言語特徴量の元となった言語表現が表す場所、すなわちユーザ20が現在いる位置の尤もらしさの度合いを画像内にマッピングしたものであり、範囲、複数個所、曖昧さなどを含めて扱うことができる。なお、当該特定の地点の画像を生成することは、当該特定の地点を推論することに相当する。推論部103は、当該特定の地点の画像を算出部105に出力する。
In a specific example, the
本実施形態において、算出部105は、推論部103が生成した特定の地点の画像の中で、最も地理的な尤度が高い点を特定の地点として決定し、決定した点の緯度および経度を算出する。なお、当該画像には、当該画像の元となったオープンデータが有する緯度および経度の情報が紐付けられている。算出部105は、算出した緯度および経度を補正部107に出力する。
In this embodiment, the
本実施形態において、補正部107は、算出部105が算出した緯度および経度で特定される地点が道路上に位置しているか否かを判断する。補正部107は、当該地点が道路上に位置していない場合に、算出部105が算出した緯度および経度を、特定される地点に最も近い道路上における、特定される地点から最も近い地点の緯度および経度に補正する。一例として、補正部107は、これらの判断および補正を行うために、道路の地図画像から特定された画像特徴量を、算出部105を介して推論部103から取得してもよい。補正部107は、緯度および経度を取得部101に出力する。
In this embodiment, the
なお、推論装置100は、算出部105および補正部107を備えなくてもよい。例えば、推論装置100は、外部装置に対して、上述の算出部105および補正部107の各処理を実行させてもよい。外部装置の一例は、上述した管理会社のコンピュータであってもよい。
Note that the
本実施形態において、事故情報データベース109は、上述した各データを格納する。各データは、過去に車両事故が起きた場所を示すデータであってもよい。なお、推論装置100は、推論装置100全体を制御するためのプログラム等が格納されたメモリを事故情報データベース109とは別に備えてもよく、当該メモリが事故情報データベース109を含んでもよい。推論装置100の各構成は、上記で説明した各機能を実行するべく、当該メモリに格納されたプログラムを読み出す。
In this embodiment, the
なお、推論装置100は、事故情報データベース109を備えなくてもよい。例えば、推論装置100は、外部装置のデータベースから、上述した各データを取得して、上述の推論や学習を実行してもよい。
Note that the
図3は、一実施形態による推論方法のフロー図である。図3に示すフローは、一例として、ユーザ20が通信端末30を使用して推論装置100に音声通話を発信し、推論装置100が自動音声でユーザ20への応対を始めることによって開始されてもよい。ユーザ20は、自動音声の案内に従い、当該フローで必要とされる自然言語を発話する。
FIG. 3 is a flow diagram of an inference method according to one embodiment. As an example, the flow shown in FIG. 3 may be started by the
推論装置100は、ユーザ20が発話した自然言語から、(1)特定の地点の住所に関する住所言語表現を取得し、(2)特定の地点に関する地点言語表現を取得する(ステップS101)。住所言語表現の一例は、「兵庫県神戸市中央区」という言語表現である。地点言語表現の一例は、「三宮町のコンビニ近くの、国道Aおよび国道Bの交差点付近」という言語表現である。
The
推論装置100は、(1)当該住所を含む区域のオープンデータを取得し、オープンデータからNi個の地図画像又は地物画像を生成し、(2)地点言語表現を長さNvのベクトル表現に変換する(ステップS103)。 The inference device 100 (1) acquires open data of an area containing the address, generates Ni map images or feature images from the open data, and (2) converts the point language expression into a vector expression of length Nv. Convert (step S103).
図4は、一実施形態による、ユーザ20が位置する特定の地点を含む区域60の一例である。図4において、区域60に、緯度(latitude)および経度(longitude)をそれぞれベクトルで併記してある。区域60は、一例として、「兵庫県神戸市中央区」という言語表現で示される住所の緯度および経度を中心とする、5km四方の正方形領域である。
FIG. 4 is an example of an area 60 that includes a particular point where
図4に示す通り、区域60には、自車両の傍らで通信端末30を操作しているユーザ20と、4つの交差点で交わる4本の道路と、各道路沿いに位置する3つのコンビニとが含まれる。また、単に説明を明確にする目的で、区域60上に「三宮町」と表記してある。
As shown in FIG. 4, an area 60 includes a
推論装置100は、ジオコーダを用いて、「兵庫県神戸市中央区」という言語表現で示される住所から緯度および経度を特定する。このように、住所言語表現に示される住所が市区町村レベルの場合、当該住所は点ではなく範囲なので、推論装置100は、当該住所の中心を代表点として、当該代表点の緯度および経度を特定してもよい。これに代えて、推論装置100は、当該範囲に基づいてオープンデータを取得してもよい。住所言語表現に示される住所が番地や号までを含んでいる場合には、当該住所は点なので、当該点の緯度および経度を特定してもよい。
The
推論装置100は更に、当該緯度および経度を中心とする区域60を定め、OSMを用いて、区域60の複数のポイントデータやラインデータを取得し、これらのオープンデータから、Ni個の、例えば150個の地図画像および地物画像を生成する。
The
図5は、一実施形態による、オープンデータから地図画像または地物画像を生成する方法の一例を説明するための図である。図5は、上から順に、OSMのポイントデータ(ランドマーク)のテーブルと、当該テーブルに示される各ランドマークの地理的な尤度のグラフと、当該グラフに基づく各ランドマークの地物画像とを示す。 FIG. 5 is a diagram for explaining an example of a method for generating a map image or feature image from open data according to one embodiment. FIG. 5 shows, from top to bottom, an OSM point data (landmark) table, a graph of the geographical likelihood of each landmark shown in the table, and a feature image of each landmark based on the graph. indicates
当該テーブルには、1行目にOSMポイントデータ(ランドマーク)という大別されたグループ名が記載され、2行目の1列目から順に、ランドマークの種別、各ランドマークの名称、各ランドマークのlatitude(緯度)、および、各ランドマークのlongitude(経度)が記載される。また、当該テーブルの3行目以降の各セルには、各ポイントデータが格納されている。 In this table, the name of a broadly classified group called OSM point data (landmarks) is described in the first row, and the type of landmark, the name of each landmark, and the The latitude of the mark and the longitude of each landmark are described. Also, each point data is stored in each cell in the third and subsequent rows of the table.
図6は、一実施形態による、オープンデータから地図画像または地物画像を生成する方法の一例を説明するための図である。図6は、図5と同様、上から順に、OSMのラインデータ(道路)のテーブルおよびポイントデータ(交差点)のテーブルと、当該テーブルに示される道路および交差点のそれぞれの地理的な尤度のグラフと、当該グラフに基づく道路の地図画像および交差点の地図画像とを示す。 FIG. 6 is a diagram for explaining an example of a method of generating a map image or feature image from open data according to one embodiment. FIG. 6 shows, from top to bottom, a line data (road) table and a point data (intersection) table of OSM, and a graph of the geographical likelihood of each of the roads and intersections shown in the table, as in FIG. , and a map image of roads and a map image of intersections based on the graph.
図6の最上部左側に示すテーブルには、1行目にOSMラインデータ(道路)という大別されたグループ名が記載され、2行目以降の各行には、道路の名称とラインデータとの組み合わせが格納されている。 In the table shown on the top left side of FIG. 6, the name of a broad group of OSM line data (roads) is described in the first row, and the name of the road and the line data are described in each row after the second row. combinations are stored.
図6の最上部右側に示すテーブルには、1行目にOSMポイントデータ(交差点)という大別されたグループ名が記載され、2行目の1列目から順に、交差点の名称、各交差点のlatitude(緯度)、および、各交差点のlongitude(経度)が記載される。また、当該テーブルの3行目以降の各セルには、各ポイントデータが格納されている。 In the table shown on the uppermost right side of FIG. 6, the name of a group of OSM point data (intersections) is listed in the first row, and the name of the intersection and the name of each intersection are written in order from the first column of the second row. The latitude and longitude of each intersection are described. Also, each point data is stored in each cell in the third and subsequent rows of the table.
推論装置100は、図5および図6に例示するように、地図描画用ライブラリを用いて、OSMにおけるランドマーク、道路、交差点などのポイントデータやラインデータからNi個の地図画像および地物画像を生成する。
As illustrated in FIGS. 5 and 6, the
図7は、一実施形態による、ランドマーク層および道路ネットワーク層のそれぞれに分類される複数の地図画像または地物画像の一例である。推論装置100は、図7に示すように、Ni個の地図画像および地物画像を、ランドマーク層および道路ネットワーク層のそれぞれに分類してもよい。
FIG. 7 is an example of multiple map or feature images classified into a landmark layer and a road network layer, respectively, according to one embodiment. The
ランドマーク層は、ランドマーク毎に、例えば店舗、建物、地形、目標物などの種類毎に、別レイヤとなっており、一例として数百層を含む。推論装置100は、例えば、図5に示すランドマークの地物画像を、ランドマーク層の何れかの層に分類する。
The landmark layer is a different layer for each landmark, for example, for each type of store, building, landform, landmark, etc., and includes several hundred layers, for example. The
また、道路ネットワーク層は、歩道、車道、交差点、高速などを含み、一例として10層程度を含む。推論装置100は、例えば、図6に示す道路および交差点の地図画像を、道路ネットワーク層の何れかの層に分類する。
Also, the road network layer includes sidewalks, roadways, intersections, highways, etc., and includes about 10 layers as an example. The
推論装置100は、構文解析器を用いて、「三宮町のコンビニ近くの、国道Aおよび国道Bの交差点付近」という地点言語表現を、「三宮町/の/コンビニ/近く/の、/国道A/および/国道B/の/交差点/付近」のように解析し、長さNvのベクトルに埋め込む。ベクトルの単語(トークン)の数Nvは可変であり、係り受けも含まれる。
The
なお、ステップS101~ステップS103は、特定の地点を含む区域に関する地理データを取得する取得段階の一例である。 It should be noted that steps S101 to S103 are an example of acquisition steps for acquiring geographic data relating to an area including a specific point.
図3のフローの説明に戻り、推論装置100は、(1)Ni個の地図画像又は地物画像から複数の画像特徴量を特定し、(2)長さNvのベクトル表現から複数の言語特徴量を特定する(ステップS105)。推論装置100は更に、複数の画像特徴量および複数の言語特徴量から特定の地点を推論する(ステップS107)。より具体的には、推論装置100は、複数の言語特徴量にそれぞれ対応する複数の画像特徴量に示される地理的な尤度を足し合わせることで特定の地点の画像を生成する。
Returning to the description of the flow of FIG. 3, the inference device 100 (1) identifies a plurality of image feature amounts from Ni map images or feature images, and (2) identifies a plurality of language features from a vector representation of length Nv. The amount is specified (step S105). The
図8は、一実施形態による、ニューラルネットワーク構造で特定の地点の画像を生成する方法の一例を説明するための図である。推論装置100は、図8に示すように、LSTMネットワークおよびCNNを含むニューラルネットワーク構造の深層学習モデルを有する。
FIG. 8 is a diagram illustrating an example of a method for generating an image of a specific point with a neural network structure, according to one embodiment. The
推論装置100は、LSTMネットワークにより、ベクトル表現である言語表現(Nv)から複数の言語特徴量(Mv)を特定し、CNNにより、複数の地図画像または地物画像(256×256×Ni)から複数の画像特徴量(256×256×Mi)を特定する。
The
推論装置100は、画像特徴量のi層目の行列と言語特徴量のi番目の値を掛け算することでi層目の特徴量とし、これをM枚生成する。推論装置100は更に、生成したM枚を足し合わせ、CNNにより、ユーザ20が位置する特定の地点を推定する画像を生成する。
The
推論装置100は、画像特徴量のi層目の行列と言語特徴量のi番目の値を掛け算する際に、画像特徴量の各層に対して言語特徴量の各値を重みとみなして掛け合わせてもよい。推論装置100は、各層の重みを学習によって得てもよい。推論装置100は、学習の結果として、例えば「三宮町:コンビニ:交差点=3:6:1」という重みを得てもよい。
When multiplying the i-th layer matrix of the image feature amount and the i-th value of the language feature amount, the
図9は、一実施形態による、地理的な尤度を足し合わせる方法の一例を説明するための図である。図9は、単に説明を明確にする目的で、図5に示した各ランドマークの地理的な尤度のグラフを足し合わせるイメージ図と、当該グラフに基づく各ランドマークの地物画像を足し合わせるイメージ図とを、上下に並べて示す。推論装置100は、図9に示すイメージ図のように、複数の言語特徴量にそれぞれ対応する複数の画像特徴量に示される地理的な尤度を足し合わせることで特定の地点の画像を生成する。
FIG. 9 is a diagram illustrating an example of a method for summing geographical likelihoods, according to one embodiment. FIG. 9 shows, for the purpose of clarifying the explanation, an image diagram of adding up the geographical likelihood graph of each landmark shown in FIG. 5 and an image diagram of adding up the feature image of each landmark based on the graph. are arranged one above the other. The
図10は、一実施形態による、ニューラルネットワーク構造で特定の地点の画像を生成する方法の他の一例を説明するための図である。当該他の一例の実施形態における推論装置100は、図8に示す実施形態と異なる点として、LSTMネットワークにより、ベクトル表現である言語表現(Nv)から複数の言語特徴量(256×256×Mv)を特定し、CNNにより、複数の地図画像または地物画像(256×256×Ni)から複数の画像特徴量(256×256×Mi)を特定する。
FIG. 10 is a diagram for explaining another example of a method for generating an image of a specific point with a neural network structure, according to one embodiment. The
当該他の一例の実施形態における推論装置100は、言語特徴量の層と画像特徴量の層のサイズを合わせて、層を重ねることで、2M枚の層とする。推論装置100は更に、2M枚の層を足し合わせ、CNNにより、ユーザ20が位置する特定の地点を推定する画像を生成する。
The
なお、ステップS105~ステップS107は、学習用の任意の地点に関する第1言語表現および当該任意の地点を含む区域に関する地理データと、当該任意の地点との対応関係の学習結果に基づき、特定の地点に関する第2言語表現および取得段階で取得した地理データから特定の地点を推論する推論段階の一例である。 Note that steps S105 to S107 are based on the learning result of the correspondence relationship between the first language expression regarding the arbitrary point for learning and the geographic data regarding the area including the arbitrary point and the arbitrary point, and the specific point 2 is an example of an inference stage for inferring a particular point from a second linguistic representation of and geographic data acquired in the acquisition stage;
図3のフローの説明に戻り、推論装置100は、ステップS107で生成した画像の中で最も地理的な尤度が高い点を特定の地点として決定し、決定した点の緯度および経度を算出する(ステップS109)。推論装置100は更に、算出した緯度および経度で特定される地点が道路上に位置しているか否かを判断する(ステップS111)。
Returning to the description of the flow in FIG. 3, the
推論装置100は、当該地点が道路上に位置していないと判断した場合には(ステップS111:YES)、当該緯度および経度を、当該緯度および経度で特定される地点に最も近い道路上における、当該地点から最も近い地点の緯度および経度に補正し(ステップS113)、補正後の緯度および経度を例えば推論装置100の管理会社のコンピュータに送信して、当該フローを終了する。
When the
推論装置100は、OSMを利用して上記補正を実行してもよい。例えば、推論装置100は、道路や地物の緯度および経度のデータをOSMで検索して、当該緯度および経度から最寄りの道路上の位置の緯度および経度を取得してもよい。例えば、推論装置100は、事故情報データベース109に格納されている路上、交差点などの事故場所の補足情報を利用して、上記補正を実行してもよい。
推論装置100は、当該地点が道路上に位置していると判断した場合には(ステップS111:NO)、算出した緯度および経度をそのまま、例えば当該コンピュータに送信して、当該フローを終了する。
When the
図11は、一実施形態による学習方法のフロー図である。推論装置100は、図11に示す学習方法を、図3に示す推論方法を実行する前に実行する。推論装置100は、これに追加して、図11に示す学習方法を、図3に示す推論方法を実行していない間に実行してもよい。
FIG. 11 is a flow diagram of a learning method according to one embodiment.
推論装置100は、学習対象とする区域を定め、当該区域のオープンデータを取得し、オープンデータからNi個の地図画像または地物画像を生成する(ステップS301)。当該区域は、例えば図3に示すように、5km四方程度であってもよい。推論装置100は、例えば図3のフローのステップS103における(1)と同様の処理を行うことで、Ni個の地図画像または地物画像を生成する。なお、推論装置100は、図11に示す学習のフローを実行する間、ステップS301で生成したNi個の地図画像または地物画像を固定として、繰り返し使用する。
The
推論装置100は、事故情報データベース109から、教師データとして、(1)当該区域内の任意の地点に関する地点言語表現を取得し、(2)当該地点の緯度および経度の正解情報を取得する(ステップS303)。換言すると、推論装置100は、過去に事故が起きた場所などのデータを用いて、事故場所の言語表現と、その地点の緯度および経度とのペアを教師データとする。
The
推論装置100は、(1)地点言語表現を長さNvのベクトル表現に変換し、(2)正解情報の緯度および経度の地図画像を生成する(ステップS305)。推論装置100は、例えば図3のフローのステップS103における(1)および(2)と同様の処理を行うことで、長さNvのベクトル表現を特定し、且つ、正解情報の緯度および経度の地図画像を生成する。
The inference device 100 (1) converts the point language representation into a vector representation of length Nv, and (2) generates a map image of the latitude and longitude of the correct information (step S305). The
推論装置100は、Ni個の地図画像又は地物画像および長さNvのベクトル表現を入力とし、正解情報に基づく地図画像を出力として深層学習し(ステップS307)、十分学習するまでステップS303からS307までを繰り返してから(ステップS309)、当該フローを終了する。
The
このように、推論装置100は、Ni個の地図画像または地物画像の入力を固定として、言語表現と正解画像のペアをそれぞれ入力と出力として順次与えていくことにより、深層学習する。
In this way, the
図12は、一実施形態による学習方法で使用する地図画像または地物画像の一例を示す図である。図12には、当該一実施形態による推論装置100が自動的に生成する自然言語表現と、地図画像または地物画像とのペアの一例を示す。
FIG. 12 is a diagram showing an example of a map image or feature image used in the learning method according to one embodiment. FIG. 12 shows an example of a pair of a natural language expression automatically generated by the
推論装置100は、事故データなどの実際の情報を使用する他に、データ量を補うべく、OSMの地理データを使用したり、クラウドソーシングを活用したりすることで、図12に示すようなペアを自動生成してもよい。
In addition to using actual information such as accident data, the
推論装置100は、図12に示すように、住所、地物名、補正情報などの様々な言語表現の組合せを自動生成してもよい。推論装置100はまた、図12に示すように、単一地点、複数地点、範囲などの任意の地図画像または地物画像を生成してもよい。
The
推論装置100は、自然言語表現の自動生成データを使用する場合、先ず、地図画像または地物画像と、自動生成した言語表現とを入力とし、自動生成した画像特徴量を正解データとして事前学習を行う。次に、推論装置100は、図11の学習方法により、追加学習を行う。ただし、推論装置100は、事前学習および追加学習において、互いに同じ「地図画像または地物画像」を使用する。すなわち、推論装置100は、図11のフローのステップS301で生成する地図画像または地物画像を、事前学習および追加学習の両方で用いる。
When using automatically generated data of natural language expressions, the
図11のように実データのみを用いる場合、必要十分な数のデータを用意することが難しい場合がある。そこで、推論装置100は、図12に示すような大量の自動生成データで事前学習した上で、少量の実データで追加学習することで精度を向上させてもよい。推論装置100は、実データの数が十分でない場合に、自動生成したデータで数を補うことで、学習モデルの精度を向上させてもよい。
When using only actual data as shown in FIG. 11, it may be difficult to prepare a necessary and sufficient number of data. Therefore, the
また、推論装置100は、再学習(ファインチューニング)してもよい。具体的には、推論装置100は、様々な区域のデータによって汎用的なベースモデルを学習し、当該ベースモデルを元にして、特定地域のデータで再学習することで、少量のデータで高い精度を実現することも可能である。もしくは、推論装置100は、汎用的なベースモデルを学習後、入力する地理画像を入れ替えるだけで、上記の再学習をすることなく、様々な地域に適用可能であってもよい。
Also, the
以上、上記で説明した複数の実施形態による推論装置100および推論方法によれば、特定の地点を含む区域に関する地理データを取得し、任意の地点に関する第1言語表現および任意の地点を含む区域に関する地理データと、任意の地点との対応関係の学習結果に基づき、特定の地点に関する第1言語表現および取得された地理データから特定の地点を推論する。
As described above, according to the
例えば、保険会社が保有する既存の事故データベースに格納されている過去の事故データは、事故地の住所等の記録が正確でない場合がある。また、事故受付担当者が、自由記述で事故地を記録したものが事故データベースに格納されるため、記述内容が曖昧なことが多い。また、事故地の住所と事故場所は正確には一致しない。住所は建物の位置であるが、事故場所の殆どは道路上であるため、事故地の住所と事故場所との間にはずれがある。 For example, past accident data stored in an existing accident database owned by an insurance company may not accurately record the address of the accident location. In addition, since the free description of the location of the accident recorded by the person in charge of receiving the accident is stored in the accident database, the contents of the description are often ambiguous. Also, the address of the accident site and the accident location do not exactly match. The address is the location of the building, but most of the accident locations are on roads, so there is a discrepancy between the address of the accident location and the accident location.
上記の構成を備える推論装置100および推論方法によれば、例えば、自然言語で曖昧に表現された事故場所を示す情報から、例えば町丁目などの範囲までルールベースで絞り込んだ上で、機械学習を用いてより詳細な事故位置を推定することができる。例えば、上記の構成を備える推論装置100および推論方法によれば、過去に記録された事故データの事故地の言語表現から緯度および経度を推定することにより、どういう場所で事故が多発しているかを分析するなど、事故データの地理的な統計分析に活用したり、リスクマップを詳細に作製することができる。
According to the
また例えば、上記の構成を備える推論装置100および推論方法によれば、保険会社のコールセンターなどの電話受付時に、より具体的に位置を特定するための質問を指示することで事故位置特定の補助をしたり、事故位置を特定する精度を向上させたりすることができる。
Further, for example, according to the
以上の複数の実施形態において、推論部103は追加的に、任意の地点を含む第1区域から、第1区域よりも小さい、任意の地点を含む第2区域へと段階的に、任意の地点に関する複数の言語特徴量および複数の画像特徴量と、任意の地点との対応関係を学習してもよい。この場合、推論部103は、特定の地点を含む第3区域から、第3区域よりも小さい、特定の地点を含む第4区域へと段階的に、特定の地点に関する複数の画像特徴量および複数の言語特徴量から特定の地点を推論してもよい。
In the above multiple embodiments, the
例えば、推論部103は、区域の広さを、2000km四方の範囲、100km四方の範囲、5km四方の範囲へと段階的に変えて、それぞれでモデルを学習させてもよい。換言すると、推論部103は、機械学習で使用する画像の解像度を複数に分け、広い範囲から徐々に狭い範囲に絞り込んでいってもよい。推論部103は、広い範囲から徐々に場所を絞り込むことで、詳細な位置を推定するように構成されてもよい。換言すると、推論部103は、広い区域から順に推論を行い、徐々に範囲を絞り込んでいってもよい。
For example, the
以上の複数の実施形態におけるシステム10では、推論装置100が、通信ネットワーク50を介して通信端末30から取得した、ユーザ20からの言語表現に基づき、ユーザ20の現在位置を推論する構成として説明した。追加的に又は代替的に、システム10は、ユーザ20の車両に搭載された推論装置100や、ユーザ20の通信端末30に実装された推論装置100等を備えてもよい。
In the
また、以上の複数の実施形態におけるシステム10では、推論装置100は、ユーザ20の現在位置を推論する構成として説明した。追加的に又は代替的に、推論装置100は、ユーザ20が意図する目的地を推論してもよい。この場合、推論装置100は、ユーザ20の現在の位置や進行方向などのコンテキスト情報を追加的に使用して、ユーザ20が意図する目的地、すなわちユーザ20が今いる位置からの相対的な位置を推論してもよい。推論装置100は、一例として、推論した目的地までの経路をユーザ20に知らせるべく、推論した目的地までの経路情報を通信端末30、例えば車両のカーナビのディスプレイ等に表示させてもよい。推論装置100は、一例として、推論した目的地に向かって車両を自動運転させるべく、推論した目的地までの経路情報を車両に入力してもよい。なお、推論装置100は、ユーザ20が今いる位置からの相対的な位置を推論する場合、ジオコーダの代わりに、現在の位置や方向などで区域を決定してもよい。
Further, in the
本発明の様々な実施形態は、フローチャートおよびブロック図を参照して記載されてよく、ここにおいてブロックは、(1)操作が実行されるプロセスの段階または(2)操作を実行する役割を持つ装置のセクションを表わしてよい。特定の段階およびセクションが、専用回路、コンピュータ可読媒体上に格納されるコンピュータ可読命令と共に供給されるプログラマブル回路、および/またはコンピュータ可読媒体上に格納されるコンピュータ可読命令と共に供給されるプロセッサによって実装されてよい。専用回路は、デジタルおよび/またはアナログハードウェア回路を含んでよく、集積回路(IC)および/またはディスクリート回路を含んでよい。プログラマブル回路は、論理AND、論理OR、論理XOR、論理NAND、論理NOR、および他の論理操作、フリップフロップ、レジスタ、フィールドプログラマブルゲートアレイ(FPGA)、プログラマブルロジックアレイ(PLA)等のようなメモリ要素等を含む、再構成可能なハードウェア回路を含んでよい。 Various embodiments of the invention may be described with reference to flowchart illustrations and block diagrams, where blocks refer to (1) steps in a process in which operations are performed or (2) devices responsible for performing the operations. may represent a section of Certain steps and sections may be implemented by dedicated circuitry, programmable circuitry provided with computer readable instructions stored on a computer readable medium, and/or processor provided with computer readable instructions stored on a computer readable medium. you can Dedicated circuitry may include digital and/or analog hardware circuitry, and may include integrated circuits (ICs) and/or discrete circuitry. Programmable circuits include logic AND, logic OR, logic XOR, logic NAND, logic NOR, and other logic operations, memory elements such as flip-flops, registers, field programmable gate arrays (FPGAs), programmable logic arrays (PLAs), etc. and the like.
コンピュータ可読媒体は、適切なデバイスによって実行される命令を格納可能な任意の有形なデバイスを含んでよく、その結果、そこに格納される命令を有するコンピュータ可読媒体は、フローチャートまたはブロック図で指定された操作を実行するための手段を作成すべく実行され得る命令を含む、製品を備えることになる。コンピュータ可読媒体の例としては、電子記憶媒体、磁気記憶媒体、光記憶媒体、電磁記憶媒体、半導体記憶媒体等が含まれてよい。コンピュータ可読媒体のより具体的な例としては、フロッピー(登録商標)ディスク、ディスケット、ハードディスク、ランダムアクセスメモリ(RAM)、リードオンリメモリ(ROM)、消去可能プログラマブルリードオンリメモリ(EPROMまたはフラッシュメモリ)、電気的消去可能プログラマブルリードオンリメモリ(EEPROM)、静的ランダムアクセスメモリ(SRAM)、コンパクトディスクリードオンリメモリ(CD-ROM)、デジタル多用途ディスク(DVD)、ブルーレイ(RTM)ディスク、メモリスティック、集積回路カード等が含まれてよい。 Computer-readable media may include any tangible device capable of storing instructions to be executed by a suitable device, such that computer-readable media having instructions stored thereon may be designated in flowcharts or block diagrams. It will comprise an article of manufacture containing instructions that can be executed to create means for performing the operations described above. Examples of computer-readable media may include electronic storage media, magnetic storage media, optical storage media, electromagnetic storage media, semiconductor storage media, and the like. More specific examples of computer readable media include floppy disks, diskettes, hard disks, random access memory (RAM), read only memory (ROM), erasable programmable read only memory (EPROM or flash memory), Electrically Erasable Programmable Read Only Memory (EEPROM), Static Random Access Memory (SRAM), Compact Disc Read Only Memory (CD-ROM), Digital Versatile Disc (DVD), Blu-ray (RTM) Disc, Memory Stick, Integration Circuit cards and the like may be included.
コンピュータ可読命令は、アセンブラ命令、命令セットアーキテクチャ(ISA)命令、マシン命令、マシン依存命令、マイクロコード、ファームウェア命令、状態設定データ、またはSmalltalk(登録商標)、JAVA(登録商標)、C++等のようなオブジェクト指向プログラミング言語、および「C」プログラミング言語または同様のプログラミング言語のような従来の手続型プログラミング言語を含む、1または複数のプログラミング言語の任意の組み合わせで記述されたソースコードまたはオブジェクトコードのいずれかを含んでよい。 The computer readable instructions may be assembler instructions, Instruction Set Architecture (ISA) instructions, machine instructions, machine dependent instructions, microcode, firmware instructions, state setting data, or instructions such as Smalltalk, JAVA, C++, etc. any source or object code written in any combination of one or more programming languages, including object-oriented programming languages, and conventional procedural programming languages such as the "C" programming language or similar programming languages; may include
コンピュータ可読命令は、汎用コンピュータ、特殊目的のコンピュータ、若しくは他のプログラム可能なデータ処理装置のプロセッサまたはプログラマブル回路に対し、ローカルにまたはローカルエリアネットワーク(LAN)、インターネット等のようなワイドエリアネットワーク(WAN)を介して提供され、フローチャートまたはブロック図で指定された操作を実行するための手段を作成すべく、コンピュータ可読命令を実行してよい。プロセッサの例としては、コンピュータプロセッサ、処理ユニット、マイクロプロセッサ、デジタル信号プロセッサ、コントローラ、マイクロコントローラ等を含む。 Computer readable instructions may be transferred to a processor or programmable circuitry of a general purpose computer, special purpose computer, or other programmable data processing apparatus, either locally or over a wide area network (WAN), such as a local area network (LAN), the Internet, or the like. ) and may be executed to create means for performing the operations specified in the flowcharts or block diagrams. Examples of processors include computer processors, processing units, microprocessors, digital signal processors, controllers, microcontrollers, and the like.
図13は、本発明の複数の態様が全体的又は部分的に具現化されうるコンピュータ1200の例を示す。コンピュータ1200にインストールされたプログラムは、コンピュータ1200に、本発明の実施形態に係る装置に関連付けられるオペレーション又は当該装置の1又は複数の「部」として機能させ、又は当該オペレーション又は当該1又は複数の「部」を実行させることができ、及び/又はコンピュータ1200に、本発明の実施形態に係るプロセス又は当該プロセスの段階を実行させることができる。このようなプログラムは、コンピュータ1200に、本明細書に記載のフローチャート及びブロック図のブロックのうちのいくつか又はすべてに関連付けられた特定のオペレーションを実行させるべく、CPU1212によって実行されてよい。
FIG. 13 illustrates an
本実施形態によるコンピュータ1200は、CPU1212、RAM1214、グラフィックコントローラ1216、及びディスプレイデバイス1218を含み、これらはホストコントローラ1210によって相互に接続される。コンピュータ1200はまた、通信インターフェース1222、ハードディスクドライブ1224、DVD-ROMドライブ1226、及びICカードドライブのような入出力ユニットを含み、これらは入出力コントローラ1220を介してホストコントローラ1210に接続される。コンピュータはまた、ROM1230及びキーボード1242のようなレガシの入出力ユニットを含み、これらは入出力チップ1240を介して入出力コントローラ1220に接続される。
CPU1212は、ROM1230及びRAM1214内に格納されたプログラムに従い動作し、これにより各ユニットを制御する。グラフィックコントローラ1216は、RAM1214内に提供されるフレームバッファ等又は当該グラフィックコントローラ1216自体の中に、CPU1212によって生成されるイメージデータを取得し、イメージデータがディスプレイデバイス1218上に表示させる。
The
通信インターフェース1222は、ネットワークを介して他の電子デバイスと通信する。ハードディスクドライブ1224は、コンピュータ1200内のCPU1212によって使用されるプログラム及びデータを格納する。DVD-ROMドライブ1226は、プログラム又はデータをDVD-ROM1201から読み取り、ハードディスクドライブ1224にRAM1214を介してプログラム又はデータを提供する。ICカードドライブは、プログラム及びデータをICカードから読み取り、及び/又はプログラム及びデータをICカードに書き込む。
ROM1230は、内部に、アクティブ化時にコンピュータ1200によって実行されるブートプログラム等、及び/又はコンピュータ1200のハードウェアに依存するプログラムを格納する。入出力チップ1240はまた、様々な入出力ユニットをパラレルポート、シリアルポート、キーボードポート、マウスポート等を介して、入出力コントローラ1220に接続してよい。
プログラムが、DVD-ROM1201又はICカードのようなコンピュータ可読記憶媒体によって提供される。プログラムは、コンピュータ可読記憶媒体から読み取られ、コンピュータ可読記憶媒体の例でもあるハードディスクドライブ1224、RAM1214、又はROM1230にインストールされ、CPU1212によって実行される。これらのプログラム内に記述される情報処理は、コンピュータ1200に読み取られ、プログラムと、上記様々なタイプのハードウェアリソースとの間の連携をもたらす。装置又は方法が、コンピュータ1200の使用に従い情報のオペレーション又は処理を実現することによって構成されてよい。
A program is provided by a computer-readable storage medium such as a DVD-
例えば、通信がコンピュータ1200及び外部デバイス間で実行される場合、CPU1212は、RAM1214にロードされた通信プログラムを実行し、通信プログラムに記述された処理に基づいて、通信インターフェース1222に対し、通信処理を命令してよい。通信インターフェース1222は、CPU1212の制御の下、RAM1214、ハードディスクドライブ1224、DVD-ROM1201、又はICカードのような記録媒体内に提供される送信バッファ領域に格納された送信データを読み取り、読み取られた送信データをネットワークに送信し、又はネットワークから受信した受信データを記録媒体上に提供される受信バッファ領域等に書き込む。
For example, when communication is performed between the
また、CPU1212は、ハードディスクドライブ1224、DVD-ROMドライブ1226(DVD-ROM1201)、ICカード等のような外部記録媒体に格納されたファイル又はデータベースの全部又は必要な部分がRAM1214に読み取られるようにし、RAM1214上のデータに対し様々なタイプの処理を実行してよい。CPU1212は次に、処理されたデータを外部記録媒体にライトバックしてよい。
In addition, the
様々なタイプのプログラム、データ、テーブル、及びデータベースのような、様々なタイプの情報が、情報処理されるべく、記録媒体に格納されてよい。CPU1212は、RAM1214から読み取られたデータに対し、本開示の随所に記載され、プログラムの命令シーケンスによって指定される様々なタイプのオペレーション、情報処理、条件判断、条件分岐、無条件分岐、情報の検索/置換等を含む、様々なタイプの処理を実行してよく、結果をRAM1214に対しライトバックする。また、CPU1212は、記録媒体内のファイル、データベース等における情報を検索してよい。例えば、各々が第2の属性の属性値に関連付けられた第1の属性の属性値を有する複数のエントリが記録媒体内に格納される場合、CPU1212は、当該複数のエントリの中から、第1の属性の属性値が指定されている条件に一致するエントリを検索し、当該エントリ内に格納された第2の属性の属性値を読み取り、これにより予め定められた条件を満たす第1の属性に関連付けられた第2の属性の属性値を取得してよい。
Various types of information, such as various types of programs, data, tables, and databases, may be stored on the recording medium to be processed.
以上の説明によるプログラム又はソフトウェアモジュールは、コンピュータ1200上又はコンピュータ1200近傍のコンピュータ可読記憶媒体に格納されてよい。また、専用通信ネットワーク又はインターネットに接続されたサーバシステム内に提供されるハードディスク又はRAMのような記録媒体が、コンピュータ可読記憶媒体として使用可能であり、これにより、プログラムをコンピュータ1200にネットワークを介して提供する。
Programs or software modules according to the above description may be stored in a computer readable storage medium on or near
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。また、技術的に矛盾しない範囲において、特定の実施形態について説明した事項を、他の実施形態に適用することができる。また、各構成要素は、名称が同一で、参照符号が異なる他の構成要素と同様の特徴を有してもよい。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。 Although the present invention has been described above using the embodiments, the technical scope of the present invention is not limited to the scope described in the above embodiments. It is obvious to those skilled in the art that various modifications and improvements can be made to the above embodiments. In addition, matters described with respect to a specific embodiment can be applied to other embodiments as long as they are not technically inconsistent. Also, each component may have features similar to other components with the same name but different reference numerals. It is clear from the description of the scope of claims that forms with such modifications or improvements can also be included in the technical scope of the present invention.
例えば、ルールベースの探索は、カーナビゲーションシステムやスマートフォンのGPS情報から、特定の地点を含む、緯度経度の範囲で表される区域の地理データ、例えばタイル座標やメッシュコードなどの地理データを取得することを含んでもよい。すなわち、取得部は、特定の地点を含む区域に関する地理データを取得する具体例として、GPS情報から当該特定の地点を含む区域の地理データを取得してもよい。 For example, a rule-based search acquires geographic data, such as tile coordinates and mesh codes, for an area represented by a range of latitude and longitude, including a specific point, from GPS information in a car navigation system or smartphone. may include That is, as a specific example of acquiring geographic data relating to an area including a specific point, the acquisition unit may acquire geographic data of an area including the specific point from GPS information.
特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。 The execution order of each process such as actions, procedures, steps, and stages in the devices, systems, programs, and methods shown in the claims, the specification, and the drawings is particularly "before", "before etc., and it should be noted that they can be implemented in any order unless the output of the previous process is used in the subsequent process. Regarding the operation flow in the claims, the specification, and the drawings, even if the description is made using "first," "next," etc. for the sake of convenience, it means that it is essential to carry out in this order. not a thing
10 システム
20 ユーザ
30 通信端末
50 通信ネットワーク
60 区域
100 推論装置
101 取得部
103 推論部
105 算出部
107 補正部
1200 コンピュータ
1201 DVD-ROM
1210 ホストコントローラ
1212 CPU
1214 RAM
1216 グラフィックコントローラ
1218 ディスプレイデバイス
1220 入出力コントローラ
1222 通信インターフェース
1224 ハードディスクドライブ
1226 DVD-ROMドライブ
1230 ROM
1240 入出力チップ
1242 キーボード
10
1210
1214 RAM
1216
1240 input/
Claims (9)
任意の地点に関する第1言語表現および前記任意の地点を含む区域に関する地理データと、前記任意の地点との対応関係の学習結果に基づき、前記特定の地点に関する第1言語表現および前記取得部によって取得された前記地理データから前記特定の地点を推論する推論部と
を備え、
前記推論部は、
前記任意の地点に関する前記第1言語表現から特定される複数の言語特徴量、および、前記任意の地点を含む区域に関する前記地理データに含まれる複数の地図画像または地物画像から特定される複数の画像特徴量と、前記任意の地点との対応関係を学習し、
前記取得部によって取得された前記地理データに含まれる複数の地図画像または地物画像から複数の画像特徴量を特定し、
前記特定の地点に関する前記第1言語表現から複数の言語特徴量を特定し、
前記特定の地点に関する前記複数の画像特徴量および前記複数の言語特徴量から前記特定の地点を推論する、
推論装置。 an acquisition unit that acquires geographic data about an area that includes a specific point;
A first linguistic expression relating to an arbitrary point and a first linguistic expression relating to the specific point and acquired by the acquiring unit based on learning results of a correspondence relationship between the first linguistic expression relating to the arbitrary point and geographic data relating to an area including the arbitrary point and the arbitrary point. an inference unit that infers the specific point from the geographic data obtained ;
The reasoning unit
a plurality of linguistic features specified from the first language expression relating to the arbitrary point, and a plurality of map images or feature images specified from the plurality of map images or feature images included in the geographic data relating to the area containing the arbitrary point Learning the correspondence relationship between the image feature quantity and the arbitrary point,
identifying a plurality of image feature amounts from a plurality of map images or feature images included in the geographic data acquired by the acquisition unit;
Identifying a plurality of linguistic features from the first linguistic expression related to the specific point;
Inferring the specific point from the plurality of image features and the plurality of language features related to the specific point;
reasoning device.
前記任意の地点を含む第1区域から、前記第1区域よりも小さい、前記任意の地点を含む第2区域へと段階的に、前記任意の地点に関する前記複数の言語特徴量および前記複数の画像特徴量と、前記任意の地点との対応関係を学習し、
前記特定の地点を含む第3区域から、前記第3区域よりも小さい、前記特定の地点を含む第4区域へと段階的に、前記特定の地点に関する前記複数の画像特徴量および前記複数の言語特徴量から前記特定の地点を推論する、
請求項1に記載の推論装置。 The reasoning unit
The plurality of linguistic features and the plurality of images relating to the arbitrary point, step by step from the first area including the arbitrary point to the second area including the arbitrary point smaller than the first area Learning the correspondence relationship between the feature quantity and the arbitrary point,
The plurality of image feature values and the plurality of languages related to the specific point, step by step from a third area including the specific point to a fourth area including the specific point that is smaller than the third area inferring the specific point from the features;
A reasoning apparatus according to claim 1 .
請求項1または2に記載の推論装置。 The inference unit generates an image of the specific point by adding together the geographical likelihoods indicated by the plurality of image feature amounts respectively corresponding to the plurality of language feature amounts related to the specific point.
3. A reasoning device according to claim 1 or 2 .
請求項3に記載の推論装置。 A calculation unit that determines a point having the highest geographical likelihood as the specific point in the image of the specific point generated by the inference unit, and calculates the latitude and longitude of the determined point. prepare
4. A reasoning apparatus according to claim 3 .
請求項4に記載の推論装置。 When the point specified by the latitude and longitude calculated by the calculating unit is not located on a road, the latitude and longitude calculated by the calculating unit are placed on the road closest to the specified point. In, further comprising a correction unit that corrects the latitude and longitude of the closest point from the identified point,
5. A reasoning apparatus according to claim 4 .
請求項1から5の何れか一項に記載の推論装置。 The acquisition unit acquires open data of an area including the specific point based on the second language expression when the second language expression regarding the specific point is acquired, and from the open data, landmarks, generating the plurality of map images or feature images classified by at least one of roads and intersections;
A reasoning apparatus according to any one of claims 1 to 5 .
請求項1から6の何れか一項に記載の推論装置。 The acquisition unit acquires a natural language expression regarding the specific point, converts the natural language expression into the first language expression that is a vector expression regarding the specific point, and outputs the first language expression to the inference unit.
A reasoning apparatus according to any one of claims 1 to 6 .
特定の地点を含む区域に関する地理データを取得する取得段階と、
任意の地点に関する第1言語表現および前記任意の地点を含む区域に関する地理データと、前記任意の地点との対応関係の学習結果に基づき、前記特定の地点に関する第1言語表現および前記取得段階で取得した前記地理データから前記特定の地点を推論する推論段階と
を備え、
前記推論段階は、
前記任意の地点に関する前記第1言語表現から特定される複数の言語特徴量、および、前記任意の地点を含む区域に関する前記地理データに含まれる複数の地図画像または地物画像から特定される複数の画像特徴量と、前記任意の地点との対応関係を学習することと、
前記取得段階で取得された前記地理データに含まれる複数の地図画像または地物画像から複数の画像特徴量を特定することと、
前記特定の地点に関する前記第1言語表現から複数の言語特徴量を特定することと、
前記特定の地点に関する前記複数の画像特徴量および前記複数の言語特徴量から前記特定の地点を推論することと
を含む、
推論方法。 A computer-implemented inference method comprising:
an acquisition step of acquiring geographic data for an area containing a particular point;
A first linguistic expression relating to an arbitrary point and a first linguistic expression relating to the specific point and acquired in the acquiring step based on learning results of a correspondence relationship between the first linguistic expression relating to the arbitrary point and geographic data relating to an area including the arbitrary point and the arbitrary point. an inferring step of inferring the particular point from the geographic data obtained from
The inference step includes:
a plurality of linguistic features specified from the first language expression relating to the arbitrary point, and a plurality of map images or feature images specified from the plurality of map images or feature images included in the geographic data relating to the area containing the arbitrary point learning the correspondence relationship between the image feature amount and the arbitrary point;
identifying a plurality of image feature amounts from a plurality of map images or feature images included in the geographic data acquired in the acquisition step;
identifying a plurality of linguistic features from the first linguistic expression relating to the specific point;
inferring the specific point from the plurality of image features and the plurality of linguistic features relating to the specific point;
including,
reasoning method.
特定の地点を含む区域に関する地理データを取得する取得手順と、
任意の地点に関する第1言語表現および前記任意の地点を含む区域に関する地理データと、前記任意の地点との対応関係の学習結果に基づき、前記特定の地点に関する第1言語表現および前記取得手順で取得した前記地理データから前記特定の地点を推論する推論手順と
を実行させるためのプログラムであり、
前記推論手順は、
前記任意の地点に関する前記第1言語表現から特定される複数の言語特徴量、および、前記任意の地点を含む区域に関する前記地理データに含まれる複数の地図画像または地物画像から特定される複数の画像特徴量と、前記任意の地点との対応関係を学習することと、
前記取得手順で取得された前記地理データに含まれる複数の地図画像または地物画像から複数の画像特徴量を特定することと、
前記特定の地点に関する前記第1言語表現から複数の言語特徴量を特定することと、
前記特定の地点に関する前記複数の画像特徴量および前記複数の言語特徴量から前記特定の地点を推論することと
を含む、
プログラム。 to the computer,
an acquisition procedure for acquiring geographic data about an area containing a particular point;
A first linguistic expression relating to an arbitrary point and geographic data relating to an area including the arbitrary point, and a first linguistic expression relating to the specific point and acquired by the acquisition procedure based on learning results of a correspondence relationship between the arbitrary point and the arbitrary point a program for executing an inference procedure for inferring the specific point from the geographic data obtained by
The inference procedure includes:
a plurality of linguistic features specified from the first language expression relating to the arbitrary point, and a plurality of map images or feature images specified from the plurality of map images or feature images included in the geographic data relating to the area containing the arbitrary point learning the correspondence relationship between the image feature amount and the arbitrary point;
identifying a plurality of image feature amounts from a plurality of map images or feature images included in the geographic data acquired in the acquisition step;
identifying a plurality of linguistic features from the first linguistic expression relating to the specific point;
inferring the specific point from the plurality of image features and the plurality of linguistic features relating to the specific point;
including,
program .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021060866A JP7199067B2 (en) | 2021-03-31 | 2021-03-31 | Reasoning device, reasoning method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021060866A JP7199067B2 (en) | 2021-03-31 | 2021-03-31 | Reasoning device, reasoning method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022156923A JP2022156923A (en) | 2022-10-14 |
JP7199067B2 true JP7199067B2 (en) | 2023-01-05 |
Family
ID=83559411
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021060866A Active JP7199067B2 (en) | 2021-03-31 | 2021-03-31 | Reasoning device, reasoning method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7199067B2 (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010128898A (en) | 2008-11-28 | 2010-06-10 | Denso It Laboratory Inc | Content position estimating device |
-
2021
- 2021-03-31 JP JP2021060866A patent/JP7199067B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010128898A (en) | 2008-11-28 | 2010-06-10 | Denso It Laboratory Inc | Content position estimating device |
Also Published As
Publication number | Publication date |
---|---|
JP2022156923A (en) | 2022-10-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6721653B2 (en) | Navigation system, method, and program for automotive vehicle | |
CN112868036B (en) | System and method for location recommendation | |
US8401780B2 (en) | Method of prioritizing similar names of locations for use by a navigation system | |
CN113033029A (en) | Automatic driving simulation method and device, electronic equipment and storage medium | |
JP2005141107A (en) | System for providing regional map for movable body | |
CN107270923A (en) | Method, terminal and storage medium that a kind of route is pushed | |
US11745727B2 (en) | Methods and systems for mapping a parking area for autonomous parking | |
CN111859178B (en) | Method and system for recommending get-on point | |
KR20170030379A (en) | Method and system for personalized travel curation service | |
CN111721306B (en) | Road matching method and device, electronic equipment and readable storage medium | |
KR20190039240A (en) | Analysis, measurement and automatic classification system of road route and its operation method | |
CN114254837A (en) | Travel route customizing method and system based on deep reinforcement learning | |
CN111859174A (en) | Method and system for determining recommended boarding point | |
US9898876B2 (en) | Method and apparatus for vehicle usage recording | |
JP7199067B2 (en) | Reasoning device, reasoning method and program | |
US20210270629A1 (en) | Method and apparatus for selecting a path to a destination | |
CN111046669A (en) | Interest point matching method and device and computer system | |
JP2016080654A (en) | Movement route extraction device, movement route extraction method, and movement route extraction program | |
US11821748B2 (en) | Processing apparatus and method for determining road names | |
US20210103888A1 (en) | Estimating system, estimating method, and information storage medium | |
CN114396956A (en) | Navigation method and apparatus, computing device, storage medium, and computer program product | |
JP5322080B2 (en) | Map information display device and map information display method | |
CN111506678A (en) | Method, device and equipment for generating negative samples of arrival points | |
JP2020002658A (en) | Information processing apparatus, river water level prediction method, and river water level prediction program | |
JP2902209B2 (en) | Route search method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210528 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220705 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220727 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221115 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221212 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7199067 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |