JP2020038071A - Information processing device, information processing method, and program - Google Patents
Information processing device, information processing method, and program Download PDFInfo
- Publication number
- JP2020038071A JP2020038071A JP2018164179A JP2018164179A JP2020038071A JP 2020038071 A JP2020038071 A JP 2020038071A JP 2018164179 A JP2018164179 A JP 2018164179A JP 2018164179 A JP2018164179 A JP 2018164179A JP 2020038071 A JP2020038071 A JP 2020038071A
- Authority
- JP
- Japan
- Prior art keywords
- information
- unit
- merging point
- merging
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 45
- 238000003672 processing method Methods 0.000 title claims abstract description 6
- 230000002093 peripheral effect Effects 0.000 claims description 13
- 238000009877 rendering Methods 0.000 claims description 6
- 238000000034 method Methods 0.000 description 21
- 238000010586 diagram Methods 0.000 description 19
- 238000004891 communication Methods 0.000 description 16
- 238000010191 image analysis Methods 0.000 description 12
- 230000008569 process Effects 0.000 description 9
- 238000012545 processing Methods 0.000 description 7
- 238000003384 imaging method Methods 0.000 description 5
- 238000012546 transfer Methods 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Abstract
Description
本発明は、情報処理装置、情報処理方法、およびプログラムに関する。 The present invention relates to an information processing device, an information processing method, and a program.
従来、地図データと、装置が搭載された移動体の位置情報と、移動体の周辺に存在するランドマーク等の対象物の検出結果とに基づいて、移動体の位置を高精度で推定する位置推定装置が知られている(特許文献1参照)。 Conventionally, a position for estimating the position of a moving object with high accuracy based on map data, position information of the moving object equipped with the device, and a detection result of an object such as a landmark existing around the moving object. An estimation device is known (see Patent Document 1).
また、近年では2以上の視点の静止画から、静止画に映り込む静止物の位置関係を予想し再現した立体イメージ図を生成する、生成方法が開示されている(非特許文献1参照)。 Also, in recent years, a generation method has been disclosed in which a stereoscopic image diagram is generated from a still image from two or more viewpoints, which predicts and reproduces the positional relationship of a still object reflected in the still image (see Non-Patent Document 1).
しかしながら、従来の技術では、音声やテキストによる会話(チャットなど)の流れに基づいて、自然に待ち合わせ場所を推定することができなかった。このため、利便性が十分でなかった。 However, according to the conventional technology, a meeting place cannot be naturally estimated based on a flow of a conversation (such as a chat) by voice or text. For this reason, convenience was not sufficient.
本発明は、このような事情を考慮してなされたものであり、待ち合わせ時の利便性を向上させることができる情報処理装置、情報処理方法、およびプログラムを提供することを目的の一つとする。 SUMMARY An advantage of some aspects of the invention is to provide an information processing device, an information processing method, and a program that can improve convenience at the time of a meeting.
本発明の一態様は、第1合流主体と第2合流主体が合流する合流ポイントに関する情報を取得する第1取得部と、前記合流ポイントに関する画像を取得する第2取得部と、前記第1取得部により取得された前記情報、および前記第2取得部により取得された前記画像に基づいて、前記合流ポイントの位置を推定する位置推定部と、を備える情報処理装置である。 One aspect of the present invention is a first acquisition unit that acquires information about a merging point where a first merging body and a second merging body merge, a second acquiring unit that acquires an image about the merging point, and the first acquisition body. An information processing apparatus comprising: a position estimating unit configured to estimate a position of the merging point based on the information acquired by the unit and the image acquired by the second acquiring unit.
本発明の一態様によれば、待ち合わせ時の利便性を向上させることができる。 According to one embodiment of the present invention, convenience at the time of meeting can be improved.
以下、図面を参照し、本発明の情報処理装置、情報処理方法、およびプログラムの実施形態について説明する。 Hereinafter, embodiments of an information processing apparatus, an information processing method, and a program according to the present invention will be described with reference to the drawings.
情報処理装置は、一以上のプロセッサにより実現される。情報処理装置は、第1合流主体と第2合流主体が合流ポイントで合流することを支援する装置である。合流とは、例えば、荷物の授受や送迎のための待ち合わせである。第1合流主体および第2合流主体は、例えば、一方が合流ポイントを指定する利用者であり、他方が撮像部を有する移動体(自律走行する車両やドローン等)である。 The information processing device is realized by one or more processors. The information processing device is a device that assists the first merging entity and the second merging entity to merge at a merging point. The merge is, for example, a meeting for transfer of luggage or pick-up and drop-off. For example, one of the first merging body and the second merging body is a user who specifies a merging point, and the other is a moving body (an autonomous vehicle or a drone) having an imaging unit.
情報処理装置は、例えば、利用者が旅行先などの不慣れな場所において、移動体に送迎や荷物の授受を依頼して待ち合わせする場合に、利用者が合流ポイントを正確に説明できない場合であっても、合流ポイントを推定することで利用者と移動体とが出会えるように支援する装置である。また、情報処理装置は、移動体の運転者(または操縦者)が存在し、その人が合流ポイント周辺の地理に詳しくない場合であっても、利用者と移動体とが出会えるように支援する。 The information processing device is, for example, a case where a user cannot accurately explain a merging point when the user requests transfer and luggage transfer to and from a moving body in an unfamiliar place such as a travel destination and waits. Is a device that assists a user and a moving body to meet by estimating a merging point. Further, the information processing device supports a user and a mobile body even when a driver (or a pilot) of the mobile body exists and the person is not familiar with the geography around the merging point. .
情報処理装置は、例えば、移動体が合流ポイントの周辺に到着した後に撮像された1以上の画像に基づいて、合流ポイントの周辺情報を生成し、生成した地理情報に基づいて合流ポイントを推定する。周辺情報とは、合流ポイント周辺の地理的情報(例えば、GNSS(Global Navigation Satellite System)受信機により測位した結果)と、合流ポイント周辺の道路、標識、建物、看板等の物標の3次元空間における配置情報とを含む。 The information processing device generates, for example, peripheral information of the merging point based on one or more images captured after the moving object arrives around the merging point, and estimates the merging point based on the generated geographic information. . The peripheral information is geographical information around the merging point (for example, a result of positioning by a GNSS (Global Navigation Satellite System) receiver) and a three-dimensional space of a target such as a road, a sign, a building, or a sign near the merging point. And the arrangement information in.
情報処理装置は、周辺情報と、利用者の合流ポイントに関する説明とに基づいて、利用者から見える風景を推定することで合流ポイントを推定し、その位置に移動体が到着することを支援する。 The information processing device estimates the merging point by estimating the scenery seen by the user based on the surrounding information and the description of the merging point of the user, and assists the moving body to arrive at the position.
[全体構成]
図1は、情報処理装置100の利用環境を示す図である。情報処理装置100は、例えば、移動体VおよびユーザデバイスUDとネットワークNWを介して通信する。情報処理装置100は、ユーザデバイスUDを介して利用者Pから、合流ポイントの近隣の特徴や、合流ポイントが面する通りの名称、合流ポイントから見える建物の特徴、利用者Pの現在地に関する情報等に基づいて合流ポイントを推定する。なお、情報処理装置100は、移動体Vに搭載されてもよい。
[overall structure]
FIG. 1 is a diagram illustrating a use environment of the
利用者Pは、「A百貨店に迎えに来てください。」のように、合流ポイントを情報処理装置100に伝える。情報処理装置100は、合流ポイントを移動体Vに連絡し、移動体Vを合流ポイント周辺に向かわせる。移動体Vは、合流ポイント周辺に到着したら、移動体Vの周辺を撮像する。情報処理装置100は、移動体Vからその画像を取得し、合流ポイントの情報と画像とに基づく待ち合わせ位置の推定結果を移動体Vに伝える。この待ち合わせ位置とは、合流ポイントよりも詳細な(粒度の高い)位置の情報であり、例えば、緯度経度高度などの座標で表される。以下、この詳細な位置を座標と称する。
The user P informs the
また、情報処理装置100は、利用者Pにより「合流ポイントの正面には、B社の看板がついた建物があります。」のような、合流ポイントを特定するための情報を併せて連絡された場合、その情報を待ち合わせ位置の推定に用いる。これにより、合流ポイントが、出入口を複数持ち、利用者の指定した位置の特定が難しい施設(例えば、ターミナル駅や、大型商業施設)であっても、待ち合わせ位置を推定することができる。
In addition, the
図2は、情報処理装置100のブロック図である。情報処理装置100は、例えば、通信部110と、第1取得部120と、第2取得部130と、位置推定部140と、待ち合わせ支援部150と、代替位置設定部160と、記憶部170とを備える。
FIG. 2 is a block diagram of the
通信部110は、ユーザデバイスUDおよび移動体Vと通信する。通信部110は、例えば、ユーザデバイスUDから合流ポイントに関する情報を自然言語(例えば、音声データやテキストデータ)の情報として受信し、第1取得部120および位置推定部140に出力する。また、通信部110は、移動体Vから受信した画像を第2取得部130に出力する。また、通信部110は、位置推定部140の推定結果を移動体Vに送信する。
The
第1取得部120は、前述のように通信部110を介して合流ポイントに関する情報を取得し、位置推定部140および待ち合わせ支援部150に出力する。
The
第2取得部130は、前述のように、通信部110を介して移動体Vから移動体Vの周辺の画像を取得する。第2取得部130が取得した画像は、記憶部170の記憶する周辺情報172aに記憶される。第2取得部130は、取得した画像の一部または全部を位置推定部140に出力する。なお、第2取得部130は、周辺情報172aに記憶された関連情報(例えば、過去に撮像された同一地点を別角度から撮像した画像)がある場合、その関連情報も併せて位置推定部140に出力してもよい。
The
位置推定部140は、通信部110により出力された合流ポイントに関する情報の音声データまたはテキストデータ、および第2取得部130により出力された画像に基づいて、合流ポイントとして利用者が意図した地点の座標(以下、待ち合わせ位置)を推定する。
The
位置推定部140は、例えば、意味解釈部142と、画像解析部144と、合流ポイント推定部146とを備える。
The
意味解釈部142は、合流ポイントに関する情報から、合流ポイントの住所または合流ポイントの住所に対応する情報(例えば、施設名称)といった地図上の位置情報として読み替えることで、合流ポイントに関する情報の意味を解釈する。意味解釈部142は、合流ポイントに関する情報が音声データである場合、音声データを形態素解析することでテキストデータに変換する。意味解釈部142は、テキストデータに対して固有名詞の抽出等の処理を行い、抽出結果の住所または住所に対応する情報に基づいて、記憶部170の記憶する地図情報172から第1領域を取得する。第1領域は、例えば、「東京都中央区日本橋」や、「米国カリフォルニア州ロサンゼルス郡バーバンク」のような合流ポイントを含む領域一体を示す住所で示される。なお、地図情報172は、例えば、道路を示すリンクと、リンクによって接続されたノードと、リンク周辺の物標(建物等)とが表現された情報である。
The
意味解釈部142は、例えば、利用者Pから提供された合流ポイントに関する情報が「C駅の北側の通りに面したカフェの前まで迎えに来てください。」のような説明であった場合、「C駅」、「北側の通り」、「カフェ」のそれぞれの指す位置を解釈し、利用者Pが示す合流ポイントに対応する住所を地図情報172から取得する。 For example, when the information on the merging point provided by the user P is an explanation such as “Please come to the front of the cafe facing the street on the north side of Station C.” By interpreting the positions indicated by “Station C”, “North Street”, and “Cafe”, the address corresponding to the merging point indicated by the user P is acquired from the map information 172.
また、意味解釈部142は、利用者Pが合流ポイントを説明する情報を解釈することで、待ち合わせ位置の候補を決定する。意味解釈部142は、例えば、利用者Pにより提供された「合流ポイントの正面には、B社の看板がついた建物があります。」のような情報から、利用者Pの示す待ち合わせ位置が物標「B社の看板がついた建物」の「正面」に存在する、という位置関係を解釈する。
In addition, the
なお、意味解釈部142は、解釈した待ち合わせ位置の候補が第1領域の示す領域内に存在しない場合、すなわち、第1領域の抽出結果が誤っている可能性が高い場合、解釈した待ち合わせ位置の候補を、通信部110を介して移動体Vに送信することで、移動体Vの目的地を訂正してもよい。意味解釈部142は、解釈した位置の情報を待ち合わせ支援部150に出力する。
Note that if the interpreted waiting position candidate does not exist in the area indicated by the first area, that is, if there is a high possibility that the extraction result of the first area is incorrect, the semantic interpreting
画像解析部144は、第2取得部130により出力された画像を解析し、待ち合わせ位置の候補を決定する。画像解析部144は、例えば、合流ポイントとして「A百貨店」が指定された場合、画像を解析し、画像内でのA百貨店の映り込む領域を特定する。また、画像解析部144は、利用者Pが待ち合わせ位置を説明するために挙げた物標の映り込む領域を特定する。なお、画像解析部144は、周辺情報172aに記憶された関連情報に含まれる画像を併せて解析してもよい。
The
画像解析部144は、例えば、画像において合流ポイントを推定する処理に必要な領域と不必要な領域とを区別し、必要な領域内の特徴点(例えば、建物等の物標の端部や輪郭)を抽出する処理を行う。また、画像解析部144は、画像内の標識や看板等の文字を認識してもよい。
The
合流ポイント推定部146は、意味解釈部142の解釈結果、および画像解析部144の解析結果に基づいて、待ち合わせ位置を推定する。合流ポイント推定部146は、合流ポイントの候補が複数存在する場合、候補から最も可能性の高い待ち合わせ位置を推定する。合流ポイント推定部146の処理は、例えば、GQN(Generative Query Network)により実現される。
The merging
GQNとは、視認できる情報から目で見えない部分を推測するレンダリング(Rendering)方法である。レンダリングとは、抽象的で高次の情報から画像等を生成する手法のことである。例えば、4脚構造のテーブルの天板部分と3つの脚が見えている場合に、視認できる情報(テーブルの天板部分および3つの脚)と視点の角度とに基づいてレンダリングすることで視認されていない他の1つの脚の位置を推測し、その脚が見える画像を演算結果として導出することができる。 GQN is a rendering method for estimating an invisible part from visible information. Rendering is a method of generating an image or the like from abstract high-order information. For example, when the tabletop and three legs of a table with a four-legged structure are visible, it is visually recognized by rendering based on visible information (tabletop and three legs of the table) and the angle of the viewpoint. The position of another leg that is not present can be estimated, and an image in which the leg can be seen can be derived as a calculation result.
合流ポイント推定部146は、待ち合わせ位置の推定結果として、待ち合わせ位置における移動体Vから見た風景を予測し、その予測風景を生成してもよい。なお、合流ポイント推定部146は、予測風景の生成に周辺情報172aの関連データを用いてもよい。
The merging
合流ポイント推定部146は、待ち合わせ位置と、その待ち合わせ位置の確度とを導出する。合流ポイント推定部146は、確度が所定の閾値以上である場合、通信部110を介して推定結果を移動体Vに送信する。合流ポイント推定部146は、確度が所定の閾値未満である場合、合流ポイントの候補を代替位置設定部160に出力する。また、合流ポイント推定部146は、利用者Pが指定した合流ポイントが乗降に不向きである場合(例えば、乗降が制限されている領域内に待ち合わせ位置が存在する場合)、合流ポイントの候補を代替位置設定部160に出力する。
The merging
待ち合わせ支援部150は、移動体Vと利用者との待ち合わせに要する情報の授受を制御することで、待ち合わせを支援する。待ち合わせ支援部150は、通信部110を介して、第1領域を移動体Vに送信することで、移動体Vを第1領域に向かわせる。また、待ち合わせ支援部150は、第1領域周辺に移動体Vが接近した際に、第2取得部130が取得する周辺の画像の撮像指示を行う。
The queuing
待ち合わせ支援部150は、移動体Vが待ち合わせ位置に到着したことを、利用者に通知する。また、待ち合わせ支援部150は、後述する代替位置設定部160が代替の合流ポイントを設定した場合に、その場所を利用者に伝達する。
The
代替位置設定部160は、位置推定部140が推定した待ち合わせ位置の確度が所定の閾値未満であった場合、周辺情報から代替の待ち合わせ位置(代替位置)を設定し、通信部110を介してユーザデバイスUDに送信する。代替位置設定部160は、位置推定部140により出力された合流ポイントの候補から代替位置を設定してもよいし、新たに合流ポイントを設定してもよい。
When the accuracy of the waiting position estimated by the
ユーザデバイスUDは、情報処理装置100より送信された代替位置に変更することに同意するか否かに対する利用者Pの応答入力を受け付ける。ユーザデバイスUDは、利用者Pが代替位置への変更に同意しない場合には、さらに第3の合流ポイント(最初に指定した合流ポイントでなく、且つ、代替位置でない場所)の指定を受け付け、情報処理装置100に送信する。ユーザデバイスUDから送信される代替位置への同意、または第3の合流ポイントの情報は、通信部110を介して待ち合わせ支援部150に入力され、処理される。
The user device UD accepts a user P's response input as to whether or not he / she agrees to change to the alternative position transmitted from the
なお、通信部110は、合流ポイントに関する情報を座標情報(例えば、待ち合わせ位置においてユーザデバイスUDが備えるGNSS受信装置により測位した結果や、所定の領域(例えば、10[平米]程度に限定可能な領域)に特定可能な詳細住所)を受信してもよい。その場合、通信部110が受信した座標情報を第1領域および待ち合わせ位置の候補としてもよい。
Note that the
[第1領域]
以下、意味解釈部142による第1領域の解釈方法について説明する。図3は、意味解釈部142による第1領域の解釈方法を説明する図である。意味解釈部142は、例えば、合流ポイントに関する情報が「A百貨店に迎えに来てください。」である場合、その情報から、「A百貨店」を解釈し、A百貨店を含む地域の地図情報172のうち任意の場所を第1領域として設定する。
[First area]
Hereinafter, a method of interpreting the first area by the semantic interpreting
意味解釈部142は、例えば、図3に示すようなA百貨店を含む地図情報172を取得した場合、第1領域として地図情報172の端部であるC1〜C4の座標のいずれか、またはA百貨店を含む地図情報172を囲んだ矩形の重心C5の座標のいずれかを選択して第1領域として設定する。
For example, when acquiring the map information 172 including the A department store as illustrated in FIG. 3, the semantic interpreting
また、意味解釈部142は、過去にA百貨店で待ち合わせ位置として利用された履歴情報を持つ場合、その場所(C6〜C8)のいずれかを選択して第1領域として設定してもよい。
Further, if the
[予測風景]
以下、合流ポイント推定部146による待ち合わせ位置の推定方法の一例について説明する。図4は、GQNによる特定位置からの風景の予測方法を模式的に示す図である。
[Prediction scenery]
Hereinafter, an example of a method of estimating the waiting position by the merging
GQNは、例えば、1以上の視点(図4の視点S1〜S3)から撮像された画像に基づいて、撮像位置以外の新しい視点から見える風景を推定する。GQNによる風景の推定方法は、画像取得ステップ、モデル生成ステップ、予測ステップの3ステップで実現される。 The GQN estimates, for example, a view seen from a new viewpoint other than the imaging position, based on images captured from one or more viewpoints (viewpoints S1 to S3 in FIG. 4). The landscape estimation method using GQN is realized in three steps: an image acquisition step, a model generation step, and a prediction step.
画像取得ステップにおいて、合流ポイント推定部146は、例えば、図4の視点S1〜S3から撮像された画像と、その画像の視点を示す情報(視線の向きを示す角度や方位の情報)を取得し、モデル生成ステップへ処理を進める。なお、視点S1〜S3の大きい矩形と小さい矩形を組み合わせたものはカメラを示すものであり、大きい矩形はカメラの撮像位置を、小さい矩形はカメラの撮像方向(大きい矩形と接していない方向に向かって撮像する)を示すものである。
In the image acquiring step, the merging
モデル生成ステップにおいて、合流ポイント推定部146は、演算モデルを生成する。演算モデルは、例えば、多段階のニューラルネットワーク(Neural Network)により構成される。演算モデルが第1ネットワークと、第2ネットワークの2段階のニューラルネットワークにより構成される場合、第1ネットワークはサンプル画像からその風景の特徴的な物標(例えば、図における球体、立方体、円錐体、各壁面等)を認識する。第1ネットワークは、表現ネットワークとも称される。また、第2ネットワークは、新しい視点(例えば、図の位置WP)から起こり得る風景の画像を生成する。第2ネットワークが生成する画像の解像度は、入力画像と同等、もしくはそれ以下となる。起こり得る風景の画像には、風景の再現率(確度情報)が併せて設定してもよい。第2ネットワークは、生成ネットワークとも称される。
In the model generation step, the merging
予測ステップにおいて、合流ポイント推定部146は、位置WPに対応する視点を示す情報のパラメータを、モデル生成ステップで生成した演算モデルに入力し、そのパラメータを演算モデルに適用して、予測風景の画像を生成する。
In the prediction step, the merging
[座標推定]
合流ポイント推定部146は、更に、予測風景の画像と第2取得部130が取得した移動体Vの周辺の画像とに基づいて、待ち合わせ位置を推定する。図5は、位置推定部140による予測風景の画像を用いた待ち合わせ位置の推定方法について説明する図である。
[Coordinate estimation]
The merging
図5の左図は、移動体Vが第1領域周辺に到着したのちに、一定間隔(時間または走行距離)毎に撮像した画像の地図上の位置と撮像方向、およびその画像の組み合わせを示す図である。図5の左下図の画像G2(t2)は、図5の左上図の画像G1(t1)を撮像したタイミング(t1)から一定間隔経過後のt2に撮像したものである。 The left diagram in FIG. 5 shows the position on the map, the imaging direction, and the combination of the images captured at regular intervals (time or travel distance) after the moving object V arrives around the first area. FIG. The image G2 (t2) in the lower left diagram of FIG. 5 is obtained at a time t2 after a certain interval has elapsed from the timing (t1) when the image G1 (t1) in the upper left diagram of FIG.
画像解析部144は、例えば、画像G1(t1)および画像G2(t2)の画像解析結果に基づいて、第1領域周辺の物標OB1〜OB7を認識する。さらに、画像解析部144は、認識した物標OB1〜OB7の3次元空間における配置情報である、周辺情報画像NIを生成する。
The
図5の右下図は、待ち合わせ位置の予測風景PLを示す図である。合流ポイント推定部146は、例えば、「合流ポイントの正面には、B社の看板がついた建物があります。」という位置指定を利用者により受けている場合、B社の看板(PO1)がついた建物(PO2)が含まれる風景を予測する。
The lower right diagram of FIG. 5 is a diagram illustrating a predicted scenery PL at the waiting position. For example, when the user has received a position designation "a building with a signboard of company B is in front of the junction point" by the user, the merging
図5の右下図は、合流ポイント推定部146による待ち合わせ位置の推定結果を示す図である。合流ポイント推定部146は、合流ポイント推定部146が生成した予測風景PLと、第2取得部130が取得した移動体Vの周辺の画像G1(t1)および画像G2(t2)、および画像解析部144が生成した周辺情報画像NIに基づいて、利用者の指定した待ち合わせ位置を推定する。合流ポイント推定部146は、例えば、「合流ポイントの正面には、B社の看板がついた建物があります。」という位置指定を利用者から受けている場合、予測風景PLと、周辺情報画像NIのマッチング処理を行い、第1領域周辺、且つ、B社の看板が見える位置WPを推定する。マッチング処理とは、例えば、予測風景PLのB社の看板(PO1)に対応する周辺情報画像NIの看板(OB7)の存在の有無や、建物(PO2およびOB4)の上に存在するPO1およびOB7の配置場所に基づいて、類似度を導出して評価することである。また、マッチング処理は、予測風景PLの不足部分と周辺情報画像NIとを合わせることで、既知の風景が出来上がるかどうか、すなわち予測風景PLと周辺情報画像NIが対応しているかどうかを確認して評価することを含んでもよい。
The lower right diagram of FIG. 5 is a diagram illustrating a result of estimating the waiting position by the merging
また、予測風景PLの作成処理は、第1取得部120により取得された情報だけに基づいて行われるのではなく、更に画像解析部144の解析結果を加味して行われてよい。この場合、予測風景PLの作成処理と画像解析処理は、互いに補完するように並行して実行されてよい。
In addition, the process of creating the predicted scenery PL may be performed not only based on the information acquired by the
図5の右図において、位置WPは物標(看板)OB7が見える位置、且つ、合流ポイントとして入力された「A百貨店」に該当する物標OB1に近接する位置であることから、合流ポイント推定部146は、確度が所定の閾値以上であると判定し、位置WPを待ち合わせ位置であると推定する。
In the right diagram of FIG. 5, the position WP is a position where the target (signboard) OB7 can be seen and a position close to the target OB1 corresponding to “A department store” input as the junction point, so that the junction point is estimated. The
合流ポイント推定部146は、指定した位置WPが適切な位置かを判定する。合流ポイント推定部146は、例えば、推定した位置WP周辺が駐停車禁止区域である場合、代替位置設定部160に代替座標を設定させる。また、例えば、図5の右図において、合流ポイント推定部146が位置WPを物標OB1から離れた位置(例えば、隣接する他のブロック)であると推定した場合、確度が所定の閾値未満であると判定し、代替位置設定部160に代替座標を設定させる。
The merging
[処理フロー]
図6は、情報処理装置100の処理の流れの一例を示すフローチャートである。まず、通信部110は、合流ポイントに関する情報を受信する(S100)。次に、第1取得部120は、合流ポイントに関する情報を取得し、位置推定部140に出力する(S102)。次に、意味解釈部142は、第1領域および合流ポイントに関する情報を解釈する(S104)。
[Processing flow]
FIG. 6 is a flowchart illustrating an example of a processing flow of the
次に、通信部110は、移動体Vにより撮像された第1領域周辺の画像を受信する(S106)。次に、画像解析部144は、第2取得部130によって取得された第1領域周辺の画像を解析する(S108)。次に、合流ポイント推定部146は、合流ポイントを推定する(S110)。
Next, the
次に、合流ポイント推定部146は、待ち合わせ位置の確度を求め、確度が閾値以上であるか否かを判定する(S112)。合流ポイント推定部146は、確度が閾値以上であると判定した場合、合流ポイントが適切な位置かを判定する(S114)。待ち合わせ支援部150は、適切な位置であると判定された場合、移動体Vに合流ポイントの位置情報を送信して、移動体Vを合流ポイントに移動させ(S116)、本フローチャートの処理を終了する。
Next, the merging
S112において確度が閾値以上であると判定しなかった場合、または、S114において適切な位置であると判定されなかった場合、待ち合わせ支援部150は代替位置設定部160に代替の合流ポイントを設定させ(S118)、S100に処理を戻す。以上、本フローチャートの処理の説明を終了する。
If it is not determined in S112 that the accuracy is equal to or greater than the threshold, or if it is not determined in S114 that the position is appropriate, the queuing
以上説明した実施形態の情報処理装置100によれば、第1合流主体と第2合流主体が合流する合流ポイントに関する情報を自然言語による情報として取得する第1取得部120と、合流ポイントに関する画像を取得する第2取得部130と、第1取得部120により取得された合流ポイントに関する情報、および第2取得部130により取得された合流ポイントに関する画像に基づいて、合流ポイントの位置を推定する位置推定部140と、を備えることにより、待ち合わせ時の利便性を向上させることができる。
According to the
以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。 As described above, the embodiments for carrying out the present invention have been described using the embodiments. However, the present invention is not limited to these embodiments at all, and various modifications and substitutions may be made without departing from the gist of the present invention. Can be added.
100…情報処理装置、120…第1取得部、130…第2取得部、140…位置推定部、142…意味解釈部、160…代替位置設定部、UD…ユーザデバイス、V…移動体
Claims (11)
前記合流ポイントに関する画像を取得する第2取得部と、
前記第1取得部により取得された前記情報、および前記第2取得部により取得された前記画像に基づいて、前記合流ポイントの位置を推定する位置推定部と、
を備える、情報処理装置。 A first acquisition unit that acquires information about a merging point where the first merging body and the second merging body merge;
A second acquisition unit that acquires an image related to the merging point;
A position estimating unit that estimates a position of the merging point based on the information acquired by the first acquiring unit and the image acquired by the second acquiring unit;
An information processing device comprising:
請求項1に記載の情報処理装置。 The position estimating unit estimates a more detailed position of the merging point than information on the merging point acquired by the first acquiring unit,
The information processing device according to claim 1.
請求項1または2に記載の情報処理装置。 The merging point is a point where the first merging body and the second merging body meet.
The information processing apparatus according to claim 1.
請求項1から3のいずれか1項に記載の情報処理装置。 The first acquisition unit acquires information about the merging point as information in a natural language.
The information processing apparatus according to claim 1.
請求項4に記載の情報処理装置。 Further comprising a semantic interpreting unit that interprets the meaning of the information acquired by the first acquiring unit, and reads the interpreted information into position information on a map including the merging point;
The information processing device according to claim 4.
請求項5に記載の情報処理装置。 The position estimating unit generates the peripheral information from the image acquired by the second acquiring unit, when there is no peripheral information that is information on the arrangement of the target in the three-dimensional space in the position information, Estimating the position based on information;
The information processing device according to claim 5.
請求項6に記載の情報処理装置。 The position estimating unit, when estimating the position, predicts by generating a landscape at the position by rendering realized by a Generative Query Network,
The information processing device according to claim 6.
請求項7に記載の情報処理装置。 The position estimating unit estimates the position by comparing the predicted presence or absence of a target of the landscape and the surrounding information, and the arrangement of the target,
The information processing device according to claim 7.
請求項1から8のいずれか1項に記載の情報処理装置。 When the position cannot be specified by the position estimating unit, a new merging point candidate is set from the image, and an alternative position setting unit is further provided.
The information processing device according to claim 1.
第1合流主体と第2合流主体が合流する合流ポイントに関する情報を取得し、
前記合流ポイントに関する画像を取得し、
前記情報、および前記画像に基づいて、前記合流ポイントの位置を推定する、
情報処理方法。 Computer
Obtain information about the merging point where the first merging body and the second merging body merge,
Obtaining an image of the merging point,
Estimating the position of the merging point based on the information and the image,
Information processing method.
第1合流主体と第2合流主体が合流する合流ポイントに関する情報を取得させ、
前記合流ポイントに関する画像を取得させ、
前記情報、および前記画像に基づいて、前記合流ポイントの位置を推定させる、
プログラム。 On the computer,
Information about the merging point where the first merging body and the second merging body merge,
Causing an image of the merging point to be acquired,
Based on the information and the image, the position of the merging point is estimated,
program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018164179A JP7184569B2 (en) | 2018-09-03 | 2018-09-03 | Information processing device, information processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018164179A JP7184569B2 (en) | 2018-09-03 | 2018-09-03 | Information processing device, information processing method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020038071A true JP2020038071A (en) | 2020-03-12 |
JP7184569B2 JP7184569B2 (en) | 2022-12-06 |
Family
ID=69737782
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018164179A Active JP7184569B2 (en) | 2018-09-03 | 2018-09-03 | Information processing device, information processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7184569B2 (en) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002048572A (en) * | 2000-08-01 | 2002-02-15 | Alpine Electronics Inc | Position detecting system and navigation system |
JP2005017074A (en) * | 2003-06-25 | 2005-01-20 | Nissan Motor Co Ltd | Device and program for transmitting/receiving information |
JP2014048079A (en) * | 2012-08-30 | 2014-03-17 | Mitsubishi Electric Corp | Navigation device |
JP2016534461A (en) * | 2013-08-30 | 2016-11-04 | クアルコム,インコーポレイテッド | Method and apparatus for representing a physical scene |
JP2018017668A (en) * | 2016-07-29 | 2018-02-01 | パナソニックIpマネジメント株式会社 | Information processing device and information processing program |
US20180164106A1 (en) * | 2016-12-13 | 2018-06-14 | Lenovo (Singapore) Pte. Ltd. | Systems and methods for identification of location for rendezvous of vehicle with person for pickup |
-
2018
- 2018-09-03 JP JP2018164179A patent/JP7184569B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002048572A (en) * | 2000-08-01 | 2002-02-15 | Alpine Electronics Inc | Position detecting system and navigation system |
JP2005017074A (en) * | 2003-06-25 | 2005-01-20 | Nissan Motor Co Ltd | Device and program for transmitting/receiving information |
JP2014048079A (en) * | 2012-08-30 | 2014-03-17 | Mitsubishi Electric Corp | Navigation device |
JP2016534461A (en) * | 2013-08-30 | 2016-11-04 | クアルコム,インコーポレイテッド | Method and apparatus for representing a physical scene |
JP2018017668A (en) * | 2016-07-29 | 2018-02-01 | パナソニックIpマネジメント株式会社 | Information processing device and information processing program |
US20180164106A1 (en) * | 2016-12-13 | 2018-06-14 | Lenovo (Singapore) Pte. Ltd. | Systems and methods for identification of location for rendezvous of vehicle with person for pickup |
Non-Patent Citations (1)
Title |
---|
"Neural scene representation and rendering", SCIENCE, vol. 360, JPN7021003649, 15 June 2018 (2018-06-15), ISSN: 0004742159 * |
Also Published As
Publication number | Publication date |
---|---|
JP7184569B2 (en) | 2022-12-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Kuriakose et al. | Tools and technologies for blind and visually impaired navigation support: a review | |
US11501524B2 (en) | Generating augmented reality images for display on a mobile device based on ground truth image rendering | |
CN108225348B (en) | Map creation and moving entity positioning method and device | |
US8526677B1 (en) | Stereoscopic camera with haptic feedback for object and location detection | |
CN105318881B (en) | Map navigation method, device and system | |
Costa et al. | Obstacle detection using stereo imaging to assist the navigation of visually impaired people | |
US10475224B2 (en) | Reality-augmented information display method and apparatus | |
US20210097103A1 (en) | Method and system for automatically collecting and updating information about point of interest in real space | |
CN111174799A (en) | Map construction method and device, computer readable medium and terminal equipment | |
US20070070069A1 (en) | System and method for enhanced situation awareness and visualization of environments | |
KR101413011B1 (en) | Augmented Reality System based on Location Coordinates and Augmented Reality Image Providing Method thereof | |
CN112101339B (en) | Map interest point information acquisition method and device, electronic equipment and storage medium | |
CN104748738A (en) | Indoor positioning navigation method and system | |
CN111221012A (en) | Method and apparatus for improved location decision based on ambient environment | |
EP2672455B1 (en) | Apparatus and method for providing 3D map showing area of interest in real time | |
EP2672401A1 (en) | Method and apparatus for storing image data | |
CN116255992A (en) | Method and device for simultaneously positioning and mapping | |
KR102622585B1 (en) | Indoor navigation apparatus and method | |
CN105547312A (en) | Electronic navigation method and apparatus | |
KR20200013155A (en) | Method and system for detecting change point of interest | |
US9418284B1 (en) | Method, system and computer program for locating mobile devices based on imaging | |
Chang et al. | Multimodal information integration for indoor navigation using a smartphone | |
JP7184569B2 (en) | Information processing device, information processing method, and program | |
US20230048235A1 (en) | Generating augmented reality images for display on a mobile device based on ground truth image rendering | |
EP3287912A1 (en) | Method for creating location-based space object, method for displaying space object, and application system thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20191101 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20191108 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200915 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210818 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210907 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211104 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220405 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220606 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221025 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221124 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7184569 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |