JP2020038071A - Information processing device, information processing method, and program - Google Patents

Information processing device, information processing method, and program Download PDF

Info

Publication number
JP2020038071A
JP2020038071A JP2018164179A JP2018164179A JP2020038071A JP 2020038071 A JP2020038071 A JP 2020038071A JP 2018164179 A JP2018164179 A JP 2018164179A JP 2018164179 A JP2018164179 A JP 2018164179A JP 2020038071 A JP2020038071 A JP 2020038071A
Authority
JP
Japan
Prior art keywords
information
unit
merging point
merging
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018164179A
Other languages
Japanese (ja)
Other versions
JP7184569B2 (en
Inventor
伸幸 清水
Nobuyuki Shimizu
伸幸 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LY Corp
Original Assignee
Z Holdings Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Z Holdings Corp filed Critical Z Holdings Corp
Priority to JP2018164179A priority Critical patent/JP7184569B2/en
Publication of JP2020038071A publication Critical patent/JP2020038071A/en
Application granted granted Critical
Publication of JP7184569B2 publication Critical patent/JP7184569B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide an information processing device, an information processing method, and a program for improving convenience at a time of meeting.SOLUTION: The information processing device includes: a first acquisition unit configured to acquire information about a meeting point at which a second merging entity and a first merging entity join; a second acquisition unit configured to acquire an image relating to the meeting point at which the second merging entity and the second merging entity join; and a position estimation unit configured to estimate a position of the meeting point on the basis of the information related to the meeting point acquired by the first acquisition unit and the image acquired by the second acquisition unit.SELECTED DRAWING: Figure 1

Description

本発明は、情報処理装置、情報処理方法、およびプログラムに関する。   The present invention relates to an information processing device, an information processing method, and a program.

従来、地図データと、装置が搭載された移動体の位置情報と、移動体の周辺に存在するランドマーク等の対象物の検出結果とに基づいて、移動体の位置を高精度で推定する位置推定装置が知られている(特許文献1参照)。   Conventionally, a position for estimating the position of a moving object with high accuracy based on map data, position information of the moving object equipped with the device, and a detection result of an object such as a landmark existing around the moving object. An estimation device is known (see Patent Document 1).

また、近年では2以上の視点の静止画から、静止画に映り込む静止物の位置関係を予想し再現した立体イメージ図を生成する、生成方法が開示されている(非特許文献1参照)。   Also, in recent years, a generation method has been disclosed in which a stereoscopic image diagram is generated from a still image from two or more viewpoints, which predicts and reproduces the positional relationship of a still object reflected in the still image (see Non-Patent Document 1).

特開2015−230213号公報JP 2015-230213 A

Ali Eslami他22名、”Neural scene representation and rendering”、 [online]、[平成30年8月1日検索]、インターネット<https://deepmind.com/blog/neural-scene-representation-and-rendering/>Ali Eslami and 22 others, "Neural scene representation and rendering", [online], [searched August 1, 2018], Internet <https://deepmind.com/blog/neural-scene-representation-and-rendering / >

しかしながら、従来の技術では、音声やテキストによる会話(チャットなど)の流れに基づいて、自然に待ち合わせ場所を推定することができなかった。このため、利便性が十分でなかった。   However, according to the conventional technology, a meeting place cannot be naturally estimated based on a flow of a conversation (such as a chat) by voice or text. For this reason, convenience was not sufficient.

本発明は、このような事情を考慮してなされたものであり、待ち合わせ時の利便性を向上させることができる情報処理装置、情報処理方法、およびプログラムを提供することを目的の一つとする。   SUMMARY An advantage of some aspects of the invention is to provide an information processing device, an information processing method, and a program that can improve convenience at the time of a meeting.

本発明の一態様は、第1合流主体と第2合流主体が合流する合流ポイントに関する情報を取得する第1取得部と、前記合流ポイントに関する画像を取得する第2取得部と、前記第1取得部により取得された前記情報、および前記第2取得部により取得された前記画像に基づいて、前記合流ポイントの位置を推定する位置推定部と、を備える情報処理装置である。   One aspect of the present invention is a first acquisition unit that acquires information about a merging point where a first merging body and a second merging body merge, a second acquiring unit that acquires an image about the merging point, and the first acquisition body. An information processing apparatus comprising: a position estimating unit configured to estimate a position of the merging point based on the information acquired by the unit and the image acquired by the second acquiring unit.

本発明の一態様によれば、待ち合わせ時の利便性を向上させることができる。   According to one embodiment of the present invention, convenience at the time of meeting can be improved.

情報処理装置100の利用環境を示す図である。FIG. 2 is a diagram illustrating a use environment of the information processing apparatus 100. 情報処理装置100のブロック図である。FIG. 2 is a block diagram of the information processing apparatus 100. 意味解釈部142による第1領域の解釈方法を説明する図である。FIG. 5 is a diagram illustrating a method of interpreting a first area by a semantic interpreting unit 142. GQNによる特定位置からの風景の推定方法を模式的に示す図である。It is a figure which shows typically the estimation method of the scenery from a specific position by GQN. 位置推定部140による待ち合わせ位置の推定方法を説明する図である。FIG. 4 is a diagram illustrating a method of estimating a waiting position by a position estimating unit 140. 情報処理装置100の処理の流れの一例を示すフローチャートである。9 is a flowchart illustrating an example of a flow of a process of the information processing apparatus 100.

以下、図面を参照し、本発明の情報処理装置、情報処理方法、およびプログラムの実施形態について説明する。   Hereinafter, embodiments of an information processing apparatus, an information processing method, and a program according to the present invention will be described with reference to the drawings.

情報処理装置は、一以上のプロセッサにより実現される。情報処理装置は、第1合流主体と第2合流主体が合流ポイントで合流することを支援する装置である。合流とは、例えば、荷物の授受や送迎のための待ち合わせである。第1合流主体および第2合流主体は、例えば、一方が合流ポイントを指定する利用者であり、他方が撮像部を有する移動体(自律走行する車両やドローン等)である。   The information processing device is realized by one or more processors. The information processing device is a device that assists the first merging entity and the second merging entity to merge at a merging point. The merge is, for example, a meeting for transfer of luggage or pick-up and drop-off. For example, one of the first merging body and the second merging body is a user who specifies a merging point, and the other is a moving body (an autonomous vehicle or a drone) having an imaging unit.

情報処理装置は、例えば、利用者が旅行先などの不慣れな場所において、移動体に送迎や荷物の授受を依頼して待ち合わせする場合に、利用者が合流ポイントを正確に説明できない場合であっても、合流ポイントを推定することで利用者と移動体とが出会えるように支援する装置である。また、情報処理装置は、移動体の運転者(または操縦者)が存在し、その人が合流ポイント周辺の地理に詳しくない場合であっても、利用者と移動体とが出会えるように支援する。   The information processing device is, for example, a case where a user cannot accurately explain a merging point when the user requests transfer and luggage transfer to and from a moving body in an unfamiliar place such as a travel destination and waits. Is a device that assists a user and a moving body to meet by estimating a merging point. Further, the information processing device supports a user and a mobile body even when a driver (or a pilot) of the mobile body exists and the person is not familiar with the geography around the merging point. .

情報処理装置は、例えば、移動体が合流ポイントの周辺に到着した後に撮像された1以上の画像に基づいて、合流ポイントの周辺情報を生成し、生成した地理情報に基づいて合流ポイントを推定する。周辺情報とは、合流ポイント周辺の地理的情報(例えば、GNSS(Global Navigation Satellite System)受信機により測位した結果)と、合流ポイント周辺の道路、標識、建物、看板等の物標の3次元空間における配置情報とを含む。   The information processing device generates, for example, peripheral information of the merging point based on one or more images captured after the moving object arrives around the merging point, and estimates the merging point based on the generated geographic information. . The peripheral information is geographical information around the merging point (for example, a result of positioning by a GNSS (Global Navigation Satellite System) receiver) and a three-dimensional space of a target such as a road, a sign, a building, or a sign near the merging point. And the arrangement information in.

情報処理装置は、周辺情報と、利用者の合流ポイントに関する説明とに基づいて、利用者から見える風景を推定することで合流ポイントを推定し、その位置に移動体が到着することを支援する。   The information processing device estimates the merging point by estimating the scenery seen by the user based on the surrounding information and the description of the merging point of the user, and assists the moving body to arrive at the position.

[全体構成]
図1は、情報処理装置100の利用環境を示す図である。情報処理装置100は、例えば、移動体VおよびユーザデバイスUDとネットワークNWを介して通信する。情報処理装置100は、ユーザデバイスUDを介して利用者Pから、合流ポイントの近隣の特徴や、合流ポイントが面する通りの名称、合流ポイントから見える建物の特徴、利用者Pの現在地に関する情報等に基づいて合流ポイントを推定する。なお、情報処理装置100は、移動体Vに搭載されてもよい。
[overall structure]
FIG. 1 is a diagram illustrating a use environment of the information processing apparatus 100. The information processing apparatus 100 communicates with the mobile unit V and the user device UD via the network NW, for example. The information processing apparatus 100 receives, from the user P via the user device UD, features near the merging point, names of streets facing the merging point, characteristics of buildings seen from the merging point, information on the current location of the user P, and the like. Is estimated on the basis of. Note that the information processing device 100 may be mounted on the moving object V.

利用者Pは、「A百貨店に迎えに来てください。」のように、合流ポイントを情報処理装置100に伝える。情報処理装置100は、合流ポイントを移動体Vに連絡し、移動体Vを合流ポイント周辺に向かわせる。移動体Vは、合流ポイント周辺に到着したら、移動体Vの周辺を撮像する。情報処理装置100は、移動体Vからその画像を取得し、合流ポイントの情報と画像とに基づく待ち合わせ位置の推定結果を移動体Vに伝える。この待ち合わせ位置とは、合流ポイントよりも詳細な(粒度の高い)位置の情報であり、例えば、緯度経度高度などの座標で表される。以下、この詳細な位置を座標と称する。   The user P informs the information processing device 100 of the merging point, such as “Please come to A department store to pick me up.” The information processing apparatus 100 communicates the merging point to the moving body V and causes the moving body V to move to the vicinity of the merging point. When the moving object V arrives near the merging point, the moving object V captures an image around the moving object V. The information processing apparatus 100 acquires the image from the moving object V, and notifies the moving object V of the estimation result of the waiting position based on the information of the merging point and the image. The waiting position is information of a position (higher granularity) that is more detailed than the merging point, and is represented by coordinates such as latitude, longitude and altitude. Hereinafter, this detailed position is referred to as a coordinate.

また、情報処理装置100は、利用者Pにより「合流ポイントの正面には、B社の看板がついた建物があります。」のような、合流ポイントを特定するための情報を併せて連絡された場合、その情報を待ち合わせ位置の推定に用いる。これにより、合流ポイントが、出入口を複数持ち、利用者の指定した位置の特定が難しい施設(例えば、ターミナル駅や、大型商業施設)であっても、待ち合わせ位置を推定することができる。   In addition, the information processing device 100 is also notified by the user P together with information for specifying the merging point, such as "There is a building with a signboard of company B in front of the merging point." In that case, the information is used for estimating the waiting position. Thereby, even if the merging point has a plurality of entrances and exits, and it is a facility (for example, a terminal station or a large commercial facility) where it is difficult to specify the position specified by the user, the meeting position can be estimated.

図2は、情報処理装置100のブロック図である。情報処理装置100は、例えば、通信部110と、第1取得部120と、第2取得部130と、位置推定部140と、待ち合わせ支援部150と、代替位置設定部160と、記憶部170とを備える。   FIG. 2 is a block diagram of the information processing apparatus 100. The information processing device 100 includes, for example, a communication unit 110, a first acquisition unit 120, a second acquisition unit 130, a position estimation unit 140, a waiting support unit 150, an alternative position setting unit 160, a storage unit 170, Is provided.

通信部110は、ユーザデバイスUDおよび移動体Vと通信する。通信部110は、例えば、ユーザデバイスUDから合流ポイントに関する情報を自然言語(例えば、音声データやテキストデータ)の情報として受信し、第1取得部120および位置推定部140に出力する。また、通信部110は、移動体Vから受信した画像を第2取得部130に出力する。また、通信部110は、位置推定部140の推定結果を移動体Vに送信する。   The communication unit 110 communicates with the user device UD and the mobile unit V. The communication unit 110 receives, for example, information about the merging point from the user device UD as information of a natural language (for example, voice data or text data), and outputs the information to the first acquisition unit 120 and the position estimation unit 140. The communication unit 110 outputs the image received from the moving object V to the second acquisition unit 130. Further, communication unit 110 transmits the estimation result of position estimation unit 140 to mobile unit V.

第1取得部120は、前述のように通信部110を介して合流ポイントに関する情報を取得し、位置推定部140および待ち合わせ支援部150に出力する。   The first acquisition unit 120 acquires information on the merging point via the communication unit 110 as described above, and outputs the information to the position estimation unit 140 and the meeting support unit 150.

第2取得部130は、前述のように、通信部110を介して移動体Vから移動体Vの周辺の画像を取得する。第2取得部130が取得した画像は、記憶部170の記憶する周辺情報172aに記憶される。第2取得部130は、取得した画像の一部または全部を位置推定部140に出力する。なお、第2取得部130は、周辺情報172aに記憶された関連情報(例えば、過去に撮像された同一地点を別角度から撮像した画像)がある場合、その関連情報も併せて位置推定部140に出力してもよい。   The second acquisition unit 130 acquires an image around the moving object V from the moving object V via the communication unit 110 as described above. The image acquired by the second acquisition unit 130 is stored in the peripheral information 172a stored in the storage unit 170. The second acquisition unit 130 outputs a part or all of the acquired image to the position estimation unit 140. When there is related information stored in the peripheral information 172a (for example, an image of the same point captured in the past from another angle), the second acquisition unit 130 also includes the relevant information together with the position estimating unit 140. May be output.

位置推定部140は、通信部110により出力された合流ポイントに関する情報の音声データまたはテキストデータ、および第2取得部130により出力された画像に基づいて、合流ポイントとして利用者が意図した地点の座標(以下、待ち合わせ位置)を推定する。   The position estimating unit 140 calculates the coordinates of the point intended by the user as the merging point based on the audio data or text data of the information related to the merging point output by the communication unit 110 and the image output by the second acquiring unit 130. (Hereinafter, a meeting position) is estimated.

位置推定部140は、例えば、意味解釈部142と、画像解析部144と、合流ポイント推定部146とを備える。   The position estimating unit 140 includes, for example, a semantic interpreting unit 142, an image analyzing unit 144, and a merging point estimating unit 146.

意味解釈部142は、合流ポイントに関する情報から、合流ポイントの住所または合流ポイントの住所に対応する情報(例えば、施設名称)といった地図上の位置情報として読み替えることで、合流ポイントに関する情報の意味を解釈する。意味解釈部142は、合流ポイントに関する情報が音声データである場合、音声データを形態素解析することでテキストデータに変換する。意味解釈部142は、テキストデータに対して固有名詞の抽出等の処理を行い、抽出結果の住所または住所に対応する情報に基づいて、記憶部170の記憶する地図情報172から第1領域を取得する。第1領域は、例えば、「東京都中央区日本橋」や、「米国カリフォルニア州ロサンゼルス郡バーバンク」のような合流ポイントを含む領域一体を示す住所で示される。なお、地図情報172は、例えば、道路を示すリンクと、リンクによって接続されたノードと、リンク周辺の物標(建物等)とが表現された情報である。   The meaning interpreting unit 142 interprets the meaning of the information about the merging point by reading the information about the merging point from the information about the merging point as the location information on the map such as the address of the merging point or the information (for example, the facility name) corresponding to the address of the merging point. I do. When the information about the merging point is audio data, the semantic interpretation unit 142 converts the audio data into text data by performing morphological analysis. The semantic interpretation unit 142 performs processing such as extraction of proper nouns on the text data, and acquires the first area from the map information 172 stored in the storage unit 170 based on the extracted address or information corresponding to the address. I do. The first area is indicated by an address indicating an integrated area including a merging point such as “Nihonbashi, Chuo-ku, Tokyo” or “Burbank, Los Angeles County, California, USA”. The map information 172 is, for example, information expressing a link indicating a road, a node connected by the link, and a target (a building or the like) around the link.

意味解釈部142は、例えば、利用者Pから提供された合流ポイントに関する情報が「C駅の北側の通りに面したカフェの前まで迎えに来てください。」のような説明であった場合、「C駅」、「北側の通り」、「カフェ」のそれぞれの指す位置を解釈し、利用者Pが示す合流ポイントに対応する住所を地図情報172から取得する。   For example, when the information on the merging point provided by the user P is an explanation such as “Please come to the front of the cafe facing the street on the north side of Station C.” By interpreting the positions indicated by “Station C”, “North Street”, and “Cafe”, the address corresponding to the merging point indicated by the user P is acquired from the map information 172.

また、意味解釈部142は、利用者Pが合流ポイントを説明する情報を解釈することで、待ち合わせ位置の候補を決定する。意味解釈部142は、例えば、利用者Pにより提供された「合流ポイントの正面には、B社の看板がついた建物があります。」のような情報から、利用者Pの示す待ち合わせ位置が物標「B社の看板がついた建物」の「正面」に存在する、という位置関係を解釈する。   In addition, the meaning interpreting unit 142 determines candidates for the queuing position by the user P interpreting the information describing the merging point. The semantic interpreting unit 142 determines the waiting position indicated by the user P based on information provided by the user P, for example, “There is a building with a signboard of the company B in front of the merging point.” Interpret the positional relationship that the mark "building with the signboard of Company B" exists "in front" of the building.

なお、意味解釈部142は、解釈した待ち合わせ位置の候補が第1領域の示す領域内に存在しない場合、すなわち、第1領域の抽出結果が誤っている可能性が高い場合、解釈した待ち合わせ位置の候補を、通信部110を介して移動体Vに送信することで、移動体Vの目的地を訂正してもよい。意味解釈部142は、解釈した位置の情報を待ち合わせ支援部150に出力する。   Note that if the interpreted waiting position candidate does not exist in the area indicated by the first area, that is, if there is a high possibility that the extraction result of the first area is incorrect, the semantic interpreting unit 142 determines the interpreted waiting position. The destination of the mobile unit V may be corrected by transmitting the candidate to the mobile unit V via the communication unit 110. The meaning interpreting unit 142 outputs the information on the interpreted position to the waiting support unit 150.

画像解析部144は、第2取得部130により出力された画像を解析し、待ち合わせ位置の候補を決定する。画像解析部144は、例えば、合流ポイントとして「A百貨店」が指定された場合、画像を解析し、画像内でのA百貨店の映り込む領域を特定する。また、画像解析部144は、利用者Pが待ち合わせ位置を説明するために挙げた物標の映り込む領域を特定する。なお、画像解析部144は、周辺情報172aに記憶された関連情報に含まれる画像を併せて解析してもよい。   The image analysis unit 144 analyzes the image output by the second acquisition unit 130, and determines a candidate for a waiting position. For example, when “A department store” is designated as the merging point, the image analysis unit 144 analyzes the image and specifies an area where the A department store is reflected in the image. Further, the image analysis unit 144 specifies an area in which the target listed by the user P for explaining the meeting position is reflected. Note that the image analysis unit 144 may also analyze an image included in the related information stored in the peripheral information 172a.

画像解析部144は、例えば、画像において合流ポイントを推定する処理に必要な領域と不必要な領域とを区別し、必要な領域内の特徴点(例えば、建物等の物標の端部や輪郭)を抽出する処理を行う。また、画像解析部144は、画像内の標識や看板等の文字を認識してもよい。   The image analysis unit 144, for example, distinguishes between a region necessary for the process of estimating the merging point in the image and an unnecessary region, and determines a feature point (for example, an edge or a contour of a target such as a building) in the necessary region. ) Is extracted. Further, the image analysis unit 144 may recognize characters such as signs and signboards in the image.

合流ポイント推定部146は、意味解釈部142の解釈結果、および画像解析部144の解析結果に基づいて、待ち合わせ位置を推定する。合流ポイント推定部146は、合流ポイントの候補が複数存在する場合、候補から最も可能性の高い待ち合わせ位置を推定する。合流ポイント推定部146の処理は、例えば、GQN(Generative Query Network)により実現される。   The merging point estimating unit 146 estimates a waiting position based on the interpretation result of the meaning interpreting unit 142 and the analysis result of the image analyzing unit 144. When there are a plurality of merging point candidates, the merging point estimating unit 146 estimates the most likely waiting position from the candidates. The processing of the merging point estimation unit 146 is realized by, for example, a GQN (Generative Query Network).

GQNとは、視認できる情報から目で見えない部分を推測するレンダリング(Rendering)方法である。レンダリングとは、抽象的で高次の情報から画像等を生成する手法のことである。例えば、4脚構造のテーブルの天板部分と3つの脚が見えている場合に、視認できる情報(テーブルの天板部分および3つの脚)と視点の角度とに基づいてレンダリングすることで視認されていない他の1つの脚の位置を推測し、その脚が見える画像を演算結果として導出することができる。   GQN is a rendering method for estimating an invisible part from visible information. Rendering is a method of generating an image or the like from abstract high-order information. For example, when the tabletop and three legs of a table with a four-legged structure are visible, it is visually recognized by rendering based on visible information (tabletop and three legs of the table) and the angle of the viewpoint. The position of another leg that is not present can be estimated, and an image in which the leg can be seen can be derived as a calculation result.

合流ポイント推定部146は、待ち合わせ位置の推定結果として、待ち合わせ位置における移動体Vから見た風景を予測し、その予測風景を生成してもよい。なお、合流ポイント推定部146は、予測風景の生成に周辺情報172aの関連データを用いてもよい。   The merging point estimating unit 146 may predict a landscape viewed from the moving object V at the waiting position as a result of estimating the waiting position, and generate the predicted scene. Note that the merging point estimating unit 146 may use the related data of the peripheral information 172a to generate the predicted scenery.

合流ポイント推定部146は、待ち合わせ位置と、その待ち合わせ位置の確度とを導出する。合流ポイント推定部146は、確度が所定の閾値以上である場合、通信部110を介して推定結果を移動体Vに送信する。合流ポイント推定部146は、確度が所定の閾値未満である場合、合流ポイントの候補を代替位置設定部160に出力する。また、合流ポイント推定部146は、利用者Pが指定した合流ポイントが乗降に不向きである場合(例えば、乗降が制限されている領域内に待ち合わせ位置が存在する場合)、合流ポイントの候補を代替位置設定部160に出力する。   The merging point estimating unit 146 derives the waiting position and the accuracy of the waiting position. When the accuracy is equal to or higher than the predetermined threshold, the merging point estimation unit 146 transmits the estimation result to the mobile unit V via the communication unit 110. When the accuracy is less than the predetermined threshold, the merging point estimation unit 146 outputs the merging point candidates to the alternative position setting unit 160. In addition, when the merging point specified by the user P is unsuitable for getting on and off (for example, when a waiting position exists in an area where getting on and off is restricted), the merging point estimation unit 146 substitutes a merging point candidate. Output to position setting section 160.

待ち合わせ支援部150は、移動体Vと利用者との待ち合わせに要する情報の授受を制御することで、待ち合わせを支援する。待ち合わせ支援部150は、通信部110を介して、第1領域を移動体Vに送信することで、移動体Vを第1領域に向かわせる。また、待ち合わせ支援部150は、第1領域周辺に移動体Vが接近した際に、第2取得部130が取得する周辺の画像の撮像指示を行う。   The queuing support unit 150 supports queuing by controlling the transfer of information required for queuing between the mobile unit V and the user. The queuing support unit 150 sends the first area to the mobile unit V via the communication unit 110, thereby moving the mobile unit V to the first area. In addition, when the moving object V approaches the periphery of the first area, the waiting support unit 150 issues an instruction to capture an image of the periphery acquired by the second acquisition unit 130.

待ち合わせ支援部150は、移動体Vが待ち合わせ位置に到着したことを、利用者に通知する。また、待ち合わせ支援部150は、後述する代替位置設定部160が代替の合流ポイントを設定した場合に、その場所を利用者に伝達する。   The meeting support unit 150 notifies the user that the moving object V has arrived at the meeting position. In addition, when the alternative position setting unit 160, which will be described later, sets an alternative merging point, the queuing support unit 150 transmits the location to the user.

代替位置設定部160は、位置推定部140が推定した待ち合わせ位置の確度が所定の閾値未満であった場合、周辺情報から代替の待ち合わせ位置(代替位置)を設定し、通信部110を介してユーザデバイスUDに送信する。代替位置設定部160は、位置推定部140により出力された合流ポイントの候補から代替位置を設定してもよいし、新たに合流ポイントを設定してもよい。   When the accuracy of the waiting position estimated by the position estimating unit 140 is less than a predetermined threshold, the substitute position setting unit 160 sets a substitute waiting position (substitute position) from the surrounding information, and Send to device UD. The alternative position setting unit 160 may set an alternative position from the merging point candidates output by the position estimating unit 140, or may set a new merging point.

ユーザデバイスUDは、情報処理装置100より送信された代替位置に変更することに同意するか否かに対する利用者Pの応答入力を受け付ける。ユーザデバイスUDは、利用者Pが代替位置への変更に同意しない場合には、さらに第3の合流ポイント(最初に指定した合流ポイントでなく、且つ、代替位置でない場所)の指定を受け付け、情報処理装置100に送信する。ユーザデバイスUDから送信される代替位置への同意、または第3の合流ポイントの情報は、通信部110を介して待ち合わせ支援部150に入力され、処理される。   The user device UD accepts a user P's response input as to whether or not he / she agrees to change to the alternative position transmitted from the information processing apparatus 100. If the user P does not agree with the change to the alternative position, the user device UD further accepts the designation of a third merging point (a place that is not the first designated merging point and is not a substitute position), and It is transmitted to the processing device 100. The consent to the alternative position transmitted from the user device UD or the information of the third merging point is input to the queuing support unit 150 via the communication unit 110 and is processed.

なお、通信部110は、合流ポイントに関する情報を座標情報(例えば、待ち合わせ位置においてユーザデバイスUDが備えるGNSS受信装置により測位した結果や、所定の領域(例えば、10[平米]程度に限定可能な領域)に特定可能な詳細住所)を受信してもよい。その場合、通信部110が受信した座標情報を第1領域および待ち合わせ位置の候補としてもよい。   Note that the communication unit 110 transmits the information about the merging point to the coordinate information (for example, a result of positioning by the GNSS receiver provided in the user device UD at the waiting position, a predetermined area (for example, an area that can be limited to about 10 square meters). ) May be received. In that case, the coordinate information received by the communication unit 110 may be used as a candidate for the first area and the waiting position.

[第1領域]
以下、意味解釈部142による第1領域の解釈方法について説明する。図3は、意味解釈部142による第1領域の解釈方法を説明する図である。意味解釈部142は、例えば、合流ポイントに関する情報が「A百貨店に迎えに来てください。」である場合、その情報から、「A百貨店」を解釈し、A百貨店を含む地域の地図情報172のうち任意の場所を第1領域として設定する。
[First area]
Hereinafter, a method of interpreting the first area by the semantic interpreting unit 142 will be described. FIG. 3 is a diagram illustrating a method of interpreting the first area by the semantic interpreting unit 142. For example, when the information regarding the merging point is “Please come to A department store.”, The meaning interpreting unit 142 interprets “A department store” from the information and outputs the map information 172 of the area including the A department store. An arbitrary place is set as the first area.

意味解釈部142は、例えば、図3に示すようなA百貨店を含む地図情報172を取得した場合、第1領域として地図情報172の端部であるC1〜C4の座標のいずれか、またはA百貨店を含む地図情報172を囲んだ矩形の重心C5の座標のいずれかを選択して第1領域として設定する。   For example, when acquiring the map information 172 including the A department store as illustrated in FIG. 3, the semantic interpreting unit 142 selects one of the coordinates of C1 to C4 that is the end of the map information 172 as the first area, or the A department store. Any one of the coordinates of the rectangular center of gravity C5 surrounding the map information 172 including is set as the first area.

また、意味解釈部142は、過去にA百貨店で待ち合わせ位置として利用された履歴情報を持つ場合、その場所(C6〜C8)のいずれかを選択して第1領域として設定してもよい。   Further, if the meaning interpreting unit 142 has history information that has been used as a waiting position at the department store A in the past, it may select any one of the places (C6 to C8) and set it as the first area.

[予測風景]
以下、合流ポイント推定部146による待ち合わせ位置の推定方法の一例について説明する。図4は、GQNによる特定位置からの風景の予測方法を模式的に示す図である。
[Prediction scenery]
Hereinafter, an example of a method of estimating the waiting position by the merging point estimation unit 146 will be described. FIG. 4 is a diagram schematically illustrating a method of predicting a landscape from a specific position using GQN.

GQNは、例えば、1以上の視点(図4の視点S1〜S3)から撮像された画像に基づいて、撮像位置以外の新しい視点から見える風景を推定する。GQNによる風景の推定方法は、画像取得ステップ、モデル生成ステップ、予測ステップの3ステップで実現される。   The GQN estimates, for example, a view seen from a new viewpoint other than the imaging position, based on images captured from one or more viewpoints (viewpoints S1 to S3 in FIG. 4). The landscape estimation method using GQN is realized in three steps: an image acquisition step, a model generation step, and a prediction step.

画像取得ステップにおいて、合流ポイント推定部146は、例えば、図4の視点S1〜S3から撮像された画像と、その画像の視点を示す情報(視線の向きを示す角度や方位の情報)を取得し、モデル生成ステップへ処理を進める。なお、視点S1〜S3の大きい矩形と小さい矩形を組み合わせたものはカメラを示すものであり、大きい矩形はカメラの撮像位置を、小さい矩形はカメラの撮像方向(大きい矩形と接していない方向に向かって撮像する)を示すものである。   In the image acquiring step, the merging point estimating unit 146 acquires, for example, an image captured from the viewpoints S1 to S3 in FIG. 4 and information indicating the viewpoint of the image (information on the angle and direction indicating the direction of the line of sight). Then, the process proceeds to the model generation step. Note that a combination of a large rectangle and a small rectangle at the viewpoints S1 to S3 indicates a camera. A large rectangle indicates the imaging position of the camera, and a small rectangle indicates the imaging direction of the camera (a direction not in contact with the large rectangle). Image pickup).

モデル生成ステップにおいて、合流ポイント推定部146は、演算モデルを生成する。演算モデルは、例えば、多段階のニューラルネットワーク(Neural Network)により構成される。演算モデルが第1ネットワークと、第2ネットワークの2段階のニューラルネットワークにより構成される場合、第1ネットワークはサンプル画像からその風景の特徴的な物標(例えば、図における球体、立方体、円錐体、各壁面等)を認識する。第1ネットワークは、表現ネットワークとも称される。また、第2ネットワークは、新しい視点(例えば、図の位置WP)から起こり得る風景の画像を生成する。第2ネットワークが生成する画像の解像度は、入力画像と同等、もしくはそれ以下となる。起こり得る風景の画像には、風景の再現率(確度情報)が併せて設定してもよい。第2ネットワークは、生成ネットワークとも称される。   In the model generation step, the merging point estimation unit 146 generates an operation model. The arithmetic model is configured by, for example, a multi-stage neural network. When the operation model is composed of a two-stage neural network of a first network and a second network, the first network extracts a characteristic target of the landscape (for example, a sphere, a cube, a cone, Recognize each wall). The first network is also called an expression network. In addition, the second network generates an image of a landscape that can occur from a new viewpoint (for example, the position WP in the figure). The resolution of the image generated by the second network is equal to or lower than the input image. A reproducibility of the landscape (accuracy information) may be set together with the image of the possible landscape. The second network is also called a generating network.

予測ステップにおいて、合流ポイント推定部146は、位置WPに対応する視点を示す情報のパラメータを、モデル生成ステップで生成した演算モデルに入力し、そのパラメータを演算モデルに適用して、予測風景の画像を生成する。   In the prediction step, the merging point estimation unit 146 inputs a parameter of information indicating a viewpoint corresponding to the position WP to the calculation model generated in the model generation step, and applies the parameter to the calculation model to generate an image of the predicted scenery. Generate

[座標推定]
合流ポイント推定部146は、更に、予測風景の画像と第2取得部130が取得した移動体Vの周辺の画像とに基づいて、待ち合わせ位置を推定する。図5は、位置推定部140による予測風景の画像を用いた待ち合わせ位置の推定方法について説明する図である。
[Coordinate estimation]
The merging point estimation unit 146 further estimates a waiting position based on the image of the predicted scenery and the image around the moving object V acquired by the second acquisition unit 130. FIG. 5 is a diagram illustrating a method of estimating a waiting position using an image of a predicted scene by the position estimating unit 140.

図5の左図は、移動体Vが第1領域周辺に到着したのちに、一定間隔(時間または走行距離)毎に撮像した画像の地図上の位置と撮像方向、およびその画像の組み合わせを示す図である。図5の左下図の画像G2(t2)は、図5の左上図の画像G1(t1)を撮像したタイミング(t1)から一定間隔経過後のt2に撮像したものである。   The left diagram in FIG. 5 shows the position on the map, the imaging direction, and the combination of the images captured at regular intervals (time or travel distance) after the moving object V arrives around the first area. FIG. The image G2 (t2) in the lower left diagram of FIG. 5 is obtained at a time t2 after a certain interval has elapsed from the timing (t1) when the image G1 (t1) in the upper left diagram of FIG.

画像解析部144は、例えば、画像G1(t1)および画像G2(t2)の画像解析結果に基づいて、第1領域周辺の物標OB1〜OB7を認識する。さらに、画像解析部144は、認識した物標OB1〜OB7の3次元空間における配置情報である、周辺情報画像NIを生成する。   The image analysis unit 144 recognizes the targets OB1 to OB7 around the first area based on the image analysis results of the image G1 (t1) and the image G2 (t2), for example. Further, the image analysis unit 144 generates a peripheral information image NI that is arrangement information of the recognized targets OB1 to OB7 in a three-dimensional space.

図5の右下図は、待ち合わせ位置の予測風景PLを示す図である。合流ポイント推定部146は、例えば、「合流ポイントの正面には、B社の看板がついた建物があります。」という位置指定を利用者により受けている場合、B社の看板(PO1)がついた建物(PO2)が含まれる風景を予測する。   The lower right diagram of FIG. 5 is a diagram illustrating a predicted scenery PL at the waiting position. For example, when the user has received a position designation "a building with a signboard of company B is in front of the junction point" by the user, the merging point estimation unit 146 adds the signboard (PO1) of company B. A scene including the building (PO2) that has been set is predicted.

図5の右下図は、合流ポイント推定部146による待ち合わせ位置の推定結果を示す図である。合流ポイント推定部146は、合流ポイント推定部146が生成した予測風景PLと、第2取得部130が取得した移動体Vの周辺の画像G1(t1)および画像G2(t2)、および画像解析部144が生成した周辺情報画像NIに基づいて、利用者の指定した待ち合わせ位置を推定する。合流ポイント推定部146は、例えば、「合流ポイントの正面には、B社の看板がついた建物があります。」という位置指定を利用者から受けている場合、予測風景PLと、周辺情報画像NIのマッチング処理を行い、第1領域周辺、且つ、B社の看板が見える位置WPを推定する。マッチング処理とは、例えば、予測風景PLのB社の看板(PO1)に対応する周辺情報画像NIの看板(OB7)の存在の有無や、建物(PO2およびOB4)の上に存在するPO1およびOB7の配置場所に基づいて、類似度を導出して評価することである。また、マッチング処理は、予測風景PLの不足部分と周辺情報画像NIとを合わせることで、既知の風景が出来上がるかどうか、すなわち予測風景PLと周辺情報画像NIが対応しているかどうかを確認して評価することを含んでもよい。   The lower right diagram of FIG. 5 is a diagram illustrating a result of estimating the waiting position by the merging point estimating unit 146. The merging point estimating unit 146 includes the predicted scenery PL generated by the merging point estimating unit 146, the image G1 (t1) and the image G2 (t2) around the moving object V acquired by the second acquiring unit 130, and the image analyzing unit. The waiting position specified by the user is estimated based on the peripheral information image NI generated by the user. The merging point estimating unit 146, for example, when receiving from the user the position designation "There is a building with a signboard of Company B in front of the merging point", the predicted scenery PL and the surrounding information image NI Is performed, and the position WP around the first area and where the signboard of the company B can be seen is estimated. The matching process includes, for example, the presence or absence of the signboard (OB7) of the peripheral information image NI corresponding to the signboard (PO1) of the company B of the predicted scenery PL, and the PO1 and OB7 existing on the buildings (PO2 and OB4). Is to derive and evaluate the similarity based on the arrangement location of. Further, the matching process checks whether a known landscape is completed by matching the insufficient portion of the predicted landscape PL and the peripheral information image NI, that is, whether the predicted landscape PL and the peripheral information image NI correspond to each other. It may include evaluating.

また、予測風景PLの作成処理は、第1取得部120により取得された情報だけに基づいて行われるのではなく、更に画像解析部144の解析結果を加味して行われてよい。この場合、予測風景PLの作成処理と画像解析処理は、互いに補完するように並行して実行されてよい。   In addition, the process of creating the predicted scenery PL may be performed not only based on the information acquired by the first acquisition unit 120 but also by taking into account the analysis result of the image analysis unit 144. In this case, the process of creating the predicted scenery PL and the image analysis process may be performed in parallel so as to complement each other.

図5の右図において、位置WPは物標(看板)OB7が見える位置、且つ、合流ポイントとして入力された「A百貨店」に該当する物標OB1に近接する位置であることから、合流ポイント推定部146は、確度が所定の閾値以上であると判定し、位置WPを待ち合わせ位置であると推定する。   In the right diagram of FIG. 5, the position WP is a position where the target (signboard) OB7 can be seen and a position close to the target OB1 corresponding to “A department store” input as the junction point, so that the junction point is estimated. The unit 146 determines that the accuracy is equal to or greater than the predetermined threshold, and estimates that the position WP is a waiting position.

合流ポイント推定部146は、指定した位置WPが適切な位置かを判定する。合流ポイント推定部146は、例えば、推定した位置WP周辺が駐停車禁止区域である場合、代替位置設定部160に代替座標を設定させる。また、例えば、図5の右図において、合流ポイント推定部146が位置WPを物標OB1から離れた位置(例えば、隣接する他のブロック)であると推定した場合、確度が所定の閾値未満であると判定し、代替位置設定部160に代替座標を設定させる。   The merging point estimation unit 146 determines whether the specified position WP is an appropriate position. The merging point estimation unit 146 causes the alternative position setting unit 160 to set alternative coordinates, for example, when the estimated position WP is a parking prohibited area around the position WP. In addition, for example, in the right diagram of FIG. 5, when the merging point estimation unit 146 estimates that the position WP is a position distant from the target OB1 (for example, another adjacent block), the accuracy is less than a predetermined threshold. It is determined that there is, and the substitute position setting unit 160 sets the substitute coordinates.

[処理フロー]
図6は、情報処理装置100の処理の流れの一例を示すフローチャートである。まず、通信部110は、合流ポイントに関する情報を受信する(S100)。次に、第1取得部120は、合流ポイントに関する情報を取得し、位置推定部140に出力する(S102)。次に、意味解釈部142は、第1領域および合流ポイントに関する情報を解釈する(S104)。
[Processing flow]
FIG. 6 is a flowchart illustrating an example of a processing flow of the information processing apparatus 100. First, the communication unit 110 receives information on the merging point (S100). Next, the first obtaining unit 120 obtains information on the merging point and outputs the information to the position estimating unit 140 (S102). Next, the semantic interpreting unit 142 interprets information on the first area and the merging point (S104).

次に、通信部110は、移動体Vにより撮像された第1領域周辺の画像を受信する(S106)。次に、画像解析部144は、第2取得部130によって取得された第1領域周辺の画像を解析する(S108)。次に、合流ポイント推定部146は、合流ポイントを推定する(S110)。   Next, the communication unit 110 receives an image around the first area captured by the moving object V (S106). Next, the image analysis unit 144 analyzes the image around the first area acquired by the second acquisition unit 130 (S108). Next, the merging point estimation unit 146 estimates a merging point (S110).

次に、合流ポイント推定部146は、待ち合わせ位置の確度を求め、確度が閾値以上であるか否かを判定する(S112)。合流ポイント推定部146は、確度が閾値以上であると判定した場合、合流ポイントが適切な位置かを判定する(S114)。待ち合わせ支援部150は、適切な位置であると判定された場合、移動体Vに合流ポイントの位置情報を送信して、移動体Vを合流ポイントに移動させ(S116)、本フローチャートの処理を終了する。   Next, the merging point estimating unit 146 obtains the accuracy of the waiting position, and determines whether or not the accuracy is equal to or greater than a threshold (S112). If the merging point estimating unit 146 determines that the accuracy is equal to or higher than the threshold, the merging point estimating unit 146 determines whether the merging point is at an appropriate position (S114). If it is determined that the position is an appropriate position, the queuing support unit 150 transmits the position information of the merging point to the moving object V, moves the moving object V to the merging point (S116), and ends the processing of this flowchart. I do.

S112において確度が閾値以上であると判定しなかった場合、または、S114において適切な位置であると判定されなかった場合、待ち合わせ支援部150は代替位置設定部160に代替の合流ポイントを設定させ(S118)、S100に処理を戻す。以上、本フローチャートの処理の説明を終了する。   If it is not determined in S112 that the accuracy is equal to or greater than the threshold, or if it is not determined in S114 that the position is appropriate, the queuing support unit 150 causes the alternative position setting unit 160 to set an alternative joining point ( (S118), the process returns to S100. This is the end of the description of the processing in this flowchart.

以上説明した実施形態の情報処理装置100によれば、第1合流主体と第2合流主体が合流する合流ポイントに関する情報を自然言語による情報として取得する第1取得部120と、合流ポイントに関する画像を取得する第2取得部130と、第1取得部120により取得された合流ポイントに関する情報、および第2取得部130により取得された合流ポイントに関する画像に基づいて、合流ポイントの位置を推定する位置推定部140と、を備えることにより、待ち合わせ時の利便性を向上させることができる。   According to the information processing apparatus 100 of the embodiment described above, the first acquisition unit 120 that acquires, as information in natural language, information about a merging point where the first merging body and the second merging body merge, and an image about the merging point. Position estimation for estimating the position of the merging point based on the information about the merging point acquired by the second acquiring unit 130 and the information about the merging point acquired by the first acquiring unit 120 and the image about the merging point acquired by the second acquiring unit 130. By providing the unit 140, the convenience at the time of meeting can be improved.

以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。   As described above, the embodiments for carrying out the present invention have been described using the embodiments. However, the present invention is not limited to these embodiments at all, and various modifications and substitutions may be made without departing from the gist of the present invention. Can be added.

100…情報処理装置、120…第1取得部、130…第2取得部、140…位置推定部、142…意味解釈部、160…代替位置設定部、UD…ユーザデバイス、V…移動体   Reference Signs List 100 information processing device, 120 first acquisition unit, 130 second acquisition unit, 140 position estimation unit, 142 meaning interpretation unit, 160 alternative position setting unit, UD user device, V mobile

Claims (11)

第1合流主体と第2合流主体が合流する合流ポイントに関する情報を取得する第1取得部と、
前記合流ポイントに関する画像を取得する第2取得部と、
前記第1取得部により取得された前記情報、および前記第2取得部により取得された前記画像に基づいて、前記合流ポイントの位置を推定する位置推定部と、
を備える、情報処理装置。
A first acquisition unit that acquires information about a merging point where the first merging body and the second merging body merge;
A second acquisition unit that acquires an image related to the merging point;
A position estimating unit that estimates a position of the merging point based on the information acquired by the first acquiring unit and the image acquired by the second acquiring unit;
An information processing device comprising:
前記位置推定部は、前記第1取得部により取得された合流ポイントに関する情報よりも、詳細な前記合流ポイントの位置を推定する、
請求項1に記載の情報処理装置。
The position estimating unit estimates a more detailed position of the merging point than information on the merging point acquired by the first acquiring unit,
The information processing device according to claim 1.
前記合流ポイントは、第1合流主体と第2合流主体が待ち合わせるポイントである、
請求項1または2に記載の情報処理装置。
The merging point is a point where the first merging body and the second merging body meet.
The information processing apparatus according to claim 1.
前記第1取得部は、前記合流ポイントに関する情報を自然言語による情報として取得する、
請求項1から3のいずれか1項に記載の情報処理装置。
The first acquisition unit acquires information about the merging point as information in a natural language.
The information processing apparatus according to claim 1.
前記第1取得部により取得された情報の意味を解釈し、前記合流ポイントを含む地図上の位置情報に読み替える、意味解釈部をさらに備える、
請求項4に記載の情報処理装置。
Further comprising a semantic interpreting unit that interprets the meaning of the information acquired by the first acquiring unit, and reads the interpreted information into position information on a map including the merging point;
The information processing device according to claim 4.
前記位置推定部は、前記位置情報における物標の3次元空間における配置に関する情報である周辺情報がない場合、前記第2取得部により取得された前記画像から前記周辺情報を生成して、前記周辺情報に基づいて前記位置を推定する、
請求項5に記載の情報処理装置。
The position estimating unit generates the peripheral information from the image acquired by the second acquiring unit, when there is no peripheral information that is information on the arrangement of the target in the three-dimensional space in the position information, Estimating the position based on information;
The information processing device according to claim 5.
前記位置推定部は、前記位置の推定する際に前記位置における風景をGenerative Query Networkにより実現されるレンダリングによって生成することで予測する、
請求項6に記載の情報処理装置。
The position estimating unit, when estimating the position, predicts by generating a landscape at the position by rendering realized by a Generative Query Network,
The information processing device according to claim 6.
前記位置推定部は、予測した前記風景と前記周辺情報の物標の有無、および前記物標の配置を照らし合わせることで前記位置を推定する、
請求項7に記載の情報処理装置。
The position estimating unit estimates the position by comparing the predicted presence or absence of a target of the landscape and the surrounding information, and the arrangement of the target,
The information processing device according to claim 7.
前記位置推定部により前記位置が特定できない場合に、前記画像から新たな合流ポイントの候補を設定する、代替位置設定部をさらに備える、
請求項1から8のいずれか1項に記載の情報処理装置。
When the position cannot be specified by the position estimating unit, a new merging point candidate is set from the image, and an alternative position setting unit is further provided.
The information processing device according to claim 1.
コンピュータが、
第1合流主体と第2合流主体が合流する合流ポイントに関する情報を取得し、
前記合流ポイントに関する画像を取得し、
前記情報、および前記画像に基づいて、前記合流ポイントの位置を推定する、
情報処理方法。
Computer
Obtain information about the merging point where the first merging body and the second merging body merge,
Obtaining an image of the merging point,
Estimating the position of the merging point based on the information and the image,
Information processing method.
コンピュータに、
第1合流主体と第2合流主体が合流する合流ポイントに関する情報を取得させ、
前記合流ポイントに関する画像を取得させ、
前記情報、および前記画像に基づいて、前記合流ポイントの位置を推定させる、
プログラム。
On the computer,
Information about the merging point where the first merging body and the second merging body merge,
Causing an image of the merging point to be acquired,
Based on the information and the image, the position of the merging point is estimated,
program.
JP2018164179A 2018-09-03 2018-09-03 Information processing device, information processing method, and program Active JP7184569B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018164179A JP7184569B2 (en) 2018-09-03 2018-09-03 Information processing device, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018164179A JP7184569B2 (en) 2018-09-03 2018-09-03 Information processing device, information processing method, and program

Publications (2)

Publication Number Publication Date
JP2020038071A true JP2020038071A (en) 2020-03-12
JP7184569B2 JP7184569B2 (en) 2022-12-06

Family

ID=69737782

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018164179A Active JP7184569B2 (en) 2018-09-03 2018-09-03 Information processing device, information processing method, and program

Country Status (1)

Country Link
JP (1) JP7184569B2 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002048572A (en) * 2000-08-01 2002-02-15 Alpine Electronics Inc Position detecting system and navigation system
JP2005017074A (en) * 2003-06-25 2005-01-20 Nissan Motor Co Ltd Device and program for transmitting/receiving information
JP2014048079A (en) * 2012-08-30 2014-03-17 Mitsubishi Electric Corp Navigation device
JP2016534461A (en) * 2013-08-30 2016-11-04 クアルコム,インコーポレイテッド Method and apparatus for representing a physical scene
JP2018017668A (en) * 2016-07-29 2018-02-01 パナソニックIpマネジメント株式会社 Information processing device and information processing program
US20180164106A1 (en) * 2016-12-13 2018-06-14 Lenovo (Singapore) Pte. Ltd. Systems and methods for identification of location for rendezvous of vehicle with person for pickup

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002048572A (en) * 2000-08-01 2002-02-15 Alpine Electronics Inc Position detecting system and navigation system
JP2005017074A (en) * 2003-06-25 2005-01-20 Nissan Motor Co Ltd Device and program for transmitting/receiving information
JP2014048079A (en) * 2012-08-30 2014-03-17 Mitsubishi Electric Corp Navigation device
JP2016534461A (en) * 2013-08-30 2016-11-04 クアルコム,インコーポレイテッド Method and apparatus for representing a physical scene
JP2018017668A (en) * 2016-07-29 2018-02-01 パナソニックIpマネジメント株式会社 Information processing device and information processing program
US20180164106A1 (en) * 2016-12-13 2018-06-14 Lenovo (Singapore) Pte. Ltd. Systems and methods for identification of location for rendezvous of vehicle with person for pickup

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
"Neural scene representation and rendering", SCIENCE, vol. 360, JPN7021003649, 15 June 2018 (2018-06-15), ISSN: 0004742159 *

Also Published As

Publication number Publication date
JP7184569B2 (en) 2022-12-06

Similar Documents

Publication Publication Date Title
Kuriakose et al. Tools and technologies for blind and visually impaired navigation support: a review
US11501524B2 (en) Generating augmented reality images for display on a mobile device based on ground truth image rendering
CN108225348B (en) Map creation and moving entity positioning method and device
US8526677B1 (en) Stereoscopic camera with haptic feedback for object and location detection
CN105318881B (en) Map navigation method, device and system
Costa et al. Obstacle detection using stereo imaging to assist the navigation of visually impaired people
US10475224B2 (en) Reality-augmented information display method and apparatus
US20210097103A1 (en) Method and system for automatically collecting and updating information about point of interest in real space
CN111174799A (en) Map construction method and device, computer readable medium and terminal equipment
US20070070069A1 (en) System and method for enhanced situation awareness and visualization of environments
KR101413011B1 (en) Augmented Reality System based on Location Coordinates and Augmented Reality Image Providing Method thereof
CN112101339B (en) Map interest point information acquisition method and device, electronic equipment and storage medium
CN104748738A (en) Indoor positioning navigation method and system
CN111221012A (en) Method and apparatus for improved location decision based on ambient environment
EP2672455B1 (en) Apparatus and method for providing 3D map showing area of interest in real time
EP2672401A1 (en) Method and apparatus for storing image data
CN116255992A (en) Method and device for simultaneously positioning and mapping
KR102622585B1 (en) Indoor navigation apparatus and method
CN105547312A (en) Electronic navigation method and apparatus
KR20200013155A (en) Method and system for detecting change point of interest
US9418284B1 (en) Method, system and computer program for locating mobile devices based on imaging
Chang et al. Multimodal information integration for indoor navigation using a smartphone
JP7184569B2 (en) Information processing device, information processing method, and program
US20230048235A1 (en) Generating augmented reality images for display on a mobile device based on ground truth image rendering
EP3287912A1 (en) Method for creating location-based space object, method for displaying space object, and application system thereof

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20191101

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20191108

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200915

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210818

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210907

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211104

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220405

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220606

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221025

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221124

R150 Certificate of patent or registration of utility model

Ref document number: 7184569

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350