JP2023044054A - Device for estimating surrounding image - Google Patents

Device for estimating surrounding image Download PDF

Info

Publication number
JP2023044054A
JP2023044054A JP2021151888A JP2021151888A JP2023044054A JP 2023044054 A JP2023044054 A JP 2023044054A JP 2021151888 A JP2021151888 A JP 2021151888A JP 2021151888 A JP2021151888 A JP 2021151888A JP 2023044054 A JP2023044054 A JP 2023044054A
Authority
JP
Japan
Prior art keywords
surrounding image
unit
surrounding
predetermined time
estimation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021151888A
Other languages
Japanese (ja)
Inventor
智也 森部
Tomoya Moribe
知洋 荻原
Tomohiro Ogiwara
誠 ▲高▼橋
Makoto Takahashi
香緒莉 新畑
Kaori Niihata
健矢 池田
Kenya Ikeda
貴之 小野寺
Takayuki Onodera
寛 河上
Hiroshi Kawakami
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2021151888A priority Critical patent/JP2023044054A/en
Publication of JP2023044054A publication Critical patent/JP2023044054A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

To estimate a near-future surrounding image of a moving object.SOLUTION: A surrounding image estimating device 1 comprises: an estimating unit 12 for estimating a surrounding image captured by a camera 3 after a predetermined time based on the surrounding image captured by the camera 3 provided in a moving object 2; a calculating unit 13 for calculating a coincident degree between the surrounding image estimated by the estimating unit 12 and a surrounding image actually captured by the camera 3 after a predetermined time; and an output unit 14 that performs output based on the coincident degree calculated by the calculation unit 13. The output unit 14 may calculate a predetermined time when the coincident degree satisfies a predetermined standard based on the coincident degree calculated by the calculating unit 13, and may output a surrounding image after the predetermined time estimated by the estimating unit 12.SELECTED DRAWING: Figure 3

Description

本開示の一側面は、周囲画像を推定する周囲画像推定装置に関する。 One aspect of the present disclosure relates to a surrounding image estimation device that estimates a surrounding image.

下記特許文献1には、移動体の周囲を撮像した周囲画像を用いる画像情報処理装置が開示されている。 Japanese Unexamined Patent Application Publication No. 2002-200001 discloses an image information processing apparatus that uses a surrounding image obtained by capturing the surroundings of a moving object.

特開2021-117833号公報JP 2021-117833 A

上記画像情報処理装置では実際に撮像された周囲画像を用いるため、例えば、推定した近未来の周囲画像に基づく処理を行うことはできない。そこで、移動する物体の近未来の周囲画像を推定することが望まれている。 Since the image information processing apparatus uses an actually captured image of the surroundings, for example, it is not possible to perform processing based on an estimated image of the surroundings in the near future. Therefore, it is desired to estimate a near-future surrounding image of a moving object.

本開示の一側面に係る周囲画像推定装置は、移動する物体に備えられた撮像手段により撮像された周囲画像に基づいて、所定時間後に撮像手段により撮像される周囲画像を推定する推定部と、推定部によって推定された周囲画像と、所定時間後に撮像手段により実際に撮像された周囲画像との合致度を算出する算出部と、算出部によって算出された合致度に基づいた出力を行う出力部と、を備える。 A surrounding image estimating device according to one aspect of the present disclosure includes an estimating unit that estimates a surrounding image captured by an imaging means after a predetermined time based on a surrounding image captured by an imaging means provided for a moving object; A calculating unit that calculates the degree of matching between the surrounding image estimated by the estimating unit and the surrounding image actually captured by the imaging means after a predetermined time, and an output unit that outputs based on the degree of matching calculated by the calculating unit. And prepare.

このような側面においては、移動する物体に備えられた撮像手段により所定時間後に撮像される周囲画像が推定される。すなわち、移動する物体の近未来の周囲画像を推定することができる。 In this aspect, an image of the surroundings captured after a predetermined period of time by an imaging means provided on a moving object is estimated. That is, it is possible to estimate a near-future surrounding image of a moving object.

本開示の一側面によれば、移動する物体の近未来の周囲画像を推定することができる。 According to one aspect of the present disclosure, a near-future ambient image of a moving object can be estimated.

実施形態に係る周囲画像推定装置を含む周囲画像推定システムのシステム構成の一例を示す図である。It is a figure which shows an example of the system configuration|structure of the surrounding image estimation system containing the surrounding image estimation apparatus which concerns on embodiment. シナリオ1の概念図である。1 is a conceptual diagram of Scenario 1; FIG. 実施形態に係る周囲画像推定装置の機能構成の一例を示す図である。It is a figure which shows an example of the functional structure of the surrounding image estimation apparatus which concerns on embodiment. 周囲画像の一例を示す図である。It is a figure which shows an example of a surrounding image. 過去・現在・未来の周囲画像の一例を示す図である。It is a figure which shows an example of the surrounding image of the past, the present, and the future. 未来の周囲画像と実際の周囲画像との比較を示す図である。FIG. 10 is a diagram showing a comparison between a future ambient image and an actual ambient image; 実施形態に係る周囲画像推定装置が実行する処理の一例を示すフローチャートである。4 is a flowchart showing an example of processing executed by the surrounding image estimation device according to the embodiment; シナリオ2の概念図である。FIG. 11 is a conceptual diagram of Scenario 2; 丁字路付近の周囲画像の一例を示す図である。It is a figure which shows an example of the surrounding image of T-junction vicinity. 丁字路を右折した際の周囲画像の一例を示す図である。It is a figure which shows an example of the surrounding image at the time of turning right at the T-junction. 丁字路を右折した際の概念図である。It is a conceptual diagram at the time of turning right at the T-junction. 丁字路を右折した際の推定された周囲画像の一例を示す図である。It is a figure which shows an example of the surrounding image estimated at the time of turning right at the T-junction. シナリオ3の概念図である。FIG. 11 is a conceptual diagram of Scenario 3; 丁字路を右折した際の推定された周囲画像(オブジェクトを含む)の一例を示す図である。FIG. 10 is a diagram showing an example of an estimated surrounding image (including an object) when turning right at a T-junction; 実施形態に係る周囲画像推定装置が実行する処理の別の一例を示すフローチャートである。9 is a flowchart showing another example of processing executed by the surrounding image estimation device according to the embodiment; 実施形態に係る周囲画像推定装置で用いられるコンピュータのハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions of the computer used with the surrounding image estimation apparatus which concerns on embodiment.

以下、図面を参照しながら本開示での実施形態を詳細に説明する。なお、図面の説明においては同一要素には同一符号を付し、重複する説明を省略する。また、以下の説明における本開示での実施形態は、本発明の具体例であり、特に本発明を限定する旨の記載がない限り、これらの実施形態に限定されないものとする。 Hereinafter, embodiments of the present disclosure will be described in detail with reference to the drawings. In the description of the drawings, the same elements are denoted by the same reference numerals, and overlapping descriptions are omitted. In addition, the embodiments of the present disclosure in the following description are specific examples of the present invention, and the present invention is not limited to these embodiments unless specifically stated to limit the present invention.

図1は、実施形態に係る周囲画像推定装置1を含む周囲画像推定システム4のシステム構成の一例を示す図である。図1に示す通り、周囲画像推定システム4は、周囲画像推定装置1(周囲画像推定装置)と、移動体2(移動する物体)と、移動体2に備えられたカメラ3(撮像手段)とを含んで構成される。周囲画像推定装置1と移動体2とはネットワークなどを介して互いに通信接続され、互いに任意の情報を任意のタイミングで送受信可能である。 FIG. 1 is a diagram showing an example of a system configuration of a surrounding image estimation system 4 including a surrounding image estimation device 1 according to an embodiment. As shown in FIG. 1, the surrounding image estimation system 4 includes a surrounding image estimation device 1 (surrounding image estimation device), a moving body 2 (moving object), and a camera 3 (imaging means) provided on the moving body 2. Consists of The surrounding image estimation device 1 and the moving object 2 are connected to communicate with each other via a network or the like, and can transmit and receive arbitrary information to and from each other at arbitrary timing.

周囲画像推定装置1は、移動体2の近未来の周囲画像を推定するコンピュータ装置である。周囲画像推定装置1は、移動体2から離れた場所(遠隔)に位置していてもよいし、移動体2に備えられていてもよい。また、周囲画像推定装置1の一部が移動体2から離れた場所(遠隔)に位置し、周囲画像推定装置1の残りの部分が移動体2に備えられていてもよい。その場合、周囲画像推定装置1の一部と残りの部分とは無線ネットワークなどを介して互いに通信接続され、一部と残りの部分とが一体となって周囲画像推定装置1として機能する。周囲画像推定装置1の詳細については後述する。 The surrounding image estimation device 1 is a computer device that estimates a near-future surrounding image of the mobile object 2 . The surrounding image estimation device 1 may be located at a location (remote) away from the mobile object 2 or may be provided in the mobile object 2 . Alternatively, part of the surrounding image estimation device 1 may be located at a location (remote) away from the moving body 2 , and the rest of the surrounding image estimation device 1 may be provided on the moving body 2 . In that case, a part and the remaining part of the surrounding image estimation device 1 are connected to communicate with each other via a wireless network or the like, and the part and the remaining part function together as the surrounding image estimation device 1 . Details of the surrounding image estimation device 1 will be described later.

移動体2は、移動する(移動可能な)物体である。物体は、人工物のような無生物であってもよいし、人のような生物であってもよい。移動体2は、例えば、車椅子、自転車、車及びトラックなどの車両、飛行機、ヘリコプター、ロケット及びドローンなどの飛行体、船(潜水艇も含む)、人、並びに、動物などである。移動体2は、それ自体が備える移動能力を用いて移動してもよいし、それ自体で移動能力を備えずに他の移動能力を用いて移動してもよい。移動体2は、位置情報を取得可能なGPS(Global Positioning System)、加速度センサ、角速度センサ及び磁気センサなどを備えてもよい。移動体2は、各種センサを用いて自身の現在の位置、加速度、速度及び移動(進行)方向並びに現在のタイムスタンプを含む移動情報を定期的に(例えば毎秒)生成し、ネットワークなどを介して周囲画像推定装置1に送信してもよい。 The moving body 2 is a moving (movable) object. Objects may be inanimate, such as man-made objects, or animate, such as people. Examples of the mobile object 2 include wheelchairs, bicycles, vehicles such as cars and trucks, aircraft such as airplanes, helicopters, rockets and drones, ships (including submarines), people, and animals. The moving body 2 may move using its own movement ability, or may move using another movement ability without having any movement ability itself. The moving body 2 may include a GPS (Global Positioning System) capable of acquiring position information, an acceleration sensor, an angular velocity sensor, a magnetic sensor, and the like. The moving body 2 uses various sensors to periodically (for example, every second) generate movement information including its own current position, acceleration, speed, movement (advancement) direction, and current time stamp, and via a network or the like It may be transmitted to the surrounding image estimation device 1 .

カメラ3は、撮像手段である。カメラ3は、周囲(周辺、近辺、近く、周り、近隣、側、あたり)を撮像し、周囲の画像である周囲画像を出力する。カメラ3は、周囲画像の時間的連なりである周囲映像(周囲動画)を出力してもよい。本実施形態では周囲画像を用いることを想定するが、それに限らず、周囲映像を用いてもよい。すなわち、本実施形態において、用語「画像」は、「映像」又は「動画」に適宜置き換えてもよい。 The camera 3 is imaging means. The camera 3 captures an image of the surroundings (periphery, neighborhood, near, surroundings, vicinity, side, perimeter) and outputs a surrounding image, which is an image of the surroundings. The camera 3 may output a surrounding video (surrounding video) that is a temporal series of surrounding images. Although it is assumed that the surrounding image is used in this embodiment, the surrounding image may be used instead. That is, in the present embodiment, the term "image" may be appropriately replaced with "video" or "moving image."

カメラ3は、撮像している画像中のオブジェクトとの距離(奥行き情報)を計測可能なカメラ3a(第一のカメラ)と、周囲を撮像可能なカメラ3b(第二のカメラ)とから構成されてもよい。カメラ3aは、例えば、ステレオカメラ又はLiDAR(Light Detection and Ranging、又は、Laser Imaging Detection and Ranging)カメラなどである。カメラ3bは、例えば、360度カメラ又は複数方向を撮像可能なカメラなどである。カメラ3bは、特殊なカメラではなく一般的なカメラであってもよい。カメラ3は、複数(2つ以上)のカメラから構成されてもよい。本実施形態において、複数のカメラで構成されるカメラ3により撮像された複数の周囲画像を総称して、カメラ3により撮像された周囲画像と適宜記す。カメラ3は、周囲画像を出力する際に、当該周囲画像に関する任意の情報である周囲情報を出力してもよい。周囲情報は、周囲画像を撮像したタイミングのタイムスタンプと、周囲画像中のオブジェクト及び当該オブジェクトとの距離に関する情報とを含んでもよい。 The camera 3 is composed of a camera 3a (first camera) capable of measuring the distance (depth information) to an object in the captured image, and a camera 3b (second camera) capable of capturing the surroundings. may The camera 3a is, for example, a stereo camera or a LiDAR (Light Detection and Ranging or Laser Imaging Detection and Ranging) camera. The camera 3b is, for example, a 360-degree camera or a camera capable of capturing images in multiple directions. The camera 3b may be a general camera instead of a special camera. The camera 3 may be composed of a plurality of (two or more) cameras. In this embodiment, a plurality of surrounding images captured by the camera 3 configured by a plurality of cameras are collectively referred to as a surrounding image captured by the camera 3 as appropriate. When outputting the surrounding image, the camera 3 may output surrounding information, which is arbitrary information related to the surrounding image. The surrounding information may include a time stamp of the timing at which the surrounding image was captured, and information about objects in the surrounding image and distances from the objects.

カメラ3により出力された周囲画像及び周囲情報は、移動体2及びネットワークなどを介して周囲画像推定装置1に送信され、周囲画像推定装置1の出力装置1006(後述)などを介して、移動体2の移動を制御する制御者に表示されてもよい。また、制御者が、移動体2の移動の制御(前進、右折、停止など)に関する制御情報を周囲画像推定装置1から移動体2に送信し、移動体2が当該制御情報に従った移動を行ってもよい。すなわち、制御者は、移動体2から送信される周囲画像及び周囲情報に基づいて、移動体2の移動を遠隔制御(遠隔操縦、遠隔操作)してもよい。 The surrounding image and surrounding information output by the camera 3 are transmitted to the surrounding image estimation device 1 via the mobile object 2 and a network, etc. 2 may be displayed to the controller controlling the movement of . In addition, the controller transmits control information regarding movement control (forward, right turn, stop, etc.) of the moving body 2 from the surrounding image estimation device 1 to the moving body 2, and the moving body 2 moves according to the control information. you can go That is, the controller may remotely control (remote control, remote control) the movement of the moving body 2 based on the surrounding image and surrounding information transmitted from the moving body 2 .

カメラ3は、移動体2が備える上述の各種センサを備え、(移動体2ではなく)カメラ3が、上述の移動情報を定期的に(例えば毎秒)生成し、ネットワークなどを介して周囲画像推定装置1に送信してもよい。 The camera 3 includes the above-described various sensors included in the mobile body 2, and the camera 3 (not the mobile body 2) periodically (for example, every second) generates the above-described movement information, and estimates the surrounding image via a network or the like. It may be sent to device 1 .

図1において、移動体2は道路上を走行(移動)する車である。周囲画像Sは、移動体2に備えられたカメラ3であって移動体2の進行方向(前方向)に向けられているカメラ3によって撮像された進行方向の画像である。周囲画像Sでは、移動体2が走行中の道路と、道路横の歩道と、歩道上を歩いている人と、進行方向の奥側に広がる山などの景色とが主に写されている。 In FIG. 1, a mobile object 2 is a vehicle that runs (moves) on a road. The surrounding image S is an image in the traveling direction taken by the camera 3 provided on the mobile body 2 and directed in the traveling direction (forward direction) of the mobile body 2 . In the surrounding image S, mainly the road on which the moving body 2 is traveling, the sidewalk beside the road, a person walking on the sidewalk, and the scenery such as the mountains spreading farther in the traveling direction are shown.

[シナリオ1]
以降ではシナリオ1での実施形態について説明する。図2は、シナリオ1の概念図である。シナリオ1では、図1で示したように、進行方向の見通しが良い道路上を車などの移動体2が走行し、進行方向に人又は障害物などの(移動する)オブジェクトB1などが存在する場面を想定する。シナリオ1では、移動体2に備えられたカメラ3(のみ)で撮像できる周囲画像(及び周囲情報)から近未来の周囲画像を推定する。
[Scenario 1]
Hereinafter, an embodiment in Scenario 1 will be described. FIG. 2 is a conceptual diagram of Scenario 1. FIG. In Scenario 1, as shown in FIG. 1, a moving body 2 such as a car runs on a road with good visibility in the direction of travel, and a (moving) object B1 such as a person or an obstacle exists in the direction of travel. Imagine a scene. In Scenario 1, a surrounding image in the near future is estimated from the surrounding image (and surrounding information) that can be captured by the camera 3 (only) provided on the moving object 2 .

図3は、実施形態に係る周囲画像推定装置1の機能構成の一例を示す図である。図3に示す通り、周囲画像推定装置1は、格納部10(格納部)と、取得部11(取得部)と、推定部12(推定部)と、算出部13(算出部)と、出力部14(出力部)とを含んで構成される。なお、図3に示す機能構成及び後述の当該機能構成の具体的な内容は、シナリオ1に限るものではなく、後述のシナリオ2及びシナリオ3でも共通する。 FIG. 3 is a diagram showing an example of the functional configuration of the surrounding image estimation device 1 according to the embodiment. As shown in FIG. 3, the surrounding image estimation device 1 includes a storage unit 10 (storage unit), an acquisition unit 11 (acquisition unit), an estimation unit 12 (estimation unit), a calculation unit 13 (calculation unit), and an output 14 (output unit). Note that the functional configuration shown in FIG. 3 and specific contents of the functional configuration described later are not limited to Scenario 1, and are common to Scenarios 2 and 3 described later.

周囲画像推定装置1の各機能ブロックは、周囲画像推定装置1内にて機能することを想定しているが、これに限るものではない。例えば、周囲画像推定装置1の機能ブロックの一部は、周囲画像推定装置1とは異なるコンピュータ装置であって、周囲画像推定装置1とネットワーク接続されたコンピュータ装置内において、周囲画像推定装置1と情報を適宜送受信しつつ機能してもよい。また、周囲画像推定装置1の一部の機能ブロックは無くてもよいし、複数の機能ブロックを一つの機能ブロックに統合してもよいし、一つの機能ブロックを複数の機能ブロックに分解してもよい。 Each functional block of the surrounding image estimation device 1 is assumed to function within the surrounding image estimation device 1, but it is not limited to this. For example, some of the functional blocks of the surrounding image estimation device 1 are computer devices different from the surrounding image estimation device 1, and are connected to the surrounding image estimation device 1 via a network. It may function while transmitting and receiving information as appropriate. Further, some functional blocks of the surrounding image estimation device 1 may be omitted, a plurality of functional blocks may be integrated into one functional block, or one functional block may be decomposed into a plurality of functional blocks. good too.

以下、図3に示す周囲画像推定装置1の各機能について説明する。 Each function of the surrounding image estimation device 1 shown in FIG. 3 will be described below.

格納部10は、周囲画像推定装置1における算出などで利用される任意の情報及び周囲画像推定装置1における算出の結果などを格納する。格納部10によって格納された情報は、周囲画像推定装置1の各機能によって適宜参照されてもよい。 The storage unit 10 stores arbitrary information used in calculations in the surrounding image estimation device 1, calculation results in the surrounding image estimation device 1, and the like. The information stored by the storage unit 10 may be referred to by each function of the surrounding image estimation device 1 as appropriate.

取得部11は、周囲画像推定装置1における算出などで利用される任意の情報を取得する。より具体的には、取得部11は、外部の装置などからネットワークなどを介して情報を取得する。取得部11は、取得した情報を格納部10によって格納させたり、周囲画像推定装置1の他の機能ブロックに出力したりする。 Acquisition unit 11 acquires arbitrary information that is used for calculation in surrounding image estimation device 1 . More specifically, the acquisition unit 11 acquires information from an external device or the like via a network or the like. The acquisition unit 11 causes the storage unit 10 to store the acquired information, and outputs the information to other functional blocks of the surrounding image estimation device 1 .

取得部11は、移動体2からネットワークなどを介して、周囲画像、周囲情報及び移動情報を取得する。取得部11によって取得された周囲画像、周囲情報及び移動情報は、周囲情報及び移動情報に含まれるタイムスタンプに基づいて、時系列に履歴情報として格納部10によって格納される。 The acquisition unit 11 acquires surrounding images, surrounding information, and movement information from the mobile object 2 via a network or the like. The ambient image, ambient information, and movement information acquired by the acquisition unit 11 are stored by the storage unit 10 as history information in chronological order based on the time stamps included in the ambient information and the movement information.

推定部12は、移動体2に備えられたカメラ3により撮像された周囲画像(又は格納部10によって格納された履歴情報)に基づいて、所定時間後にカメラ3により撮像される周囲画像を推定する。例えば、推定部12は、カメラ3により現時点までに撮像された複数の周囲画像に基づいて、基準時刻(例えば現時点)である「13時00分00秒」から所定時間「2秒」後の時刻「13時00分02秒」にカメラ3により撮像される周囲画像を推定する。ここで、移動体2は移動可能のため、移動体2は、時刻「13時00分02秒」の時点では時刻「13時00分00秒」での位置とは異なる位置にいる可能性がある。推定部12は、定期的(例えば1秒おき)・継続的に周囲画像を推定してもよい。推定部12による具体的な推定処理については後述する。 The estimating unit 12 estimates a surrounding image captured by the camera 3 after a predetermined time based on the surrounding image captured by the camera 3 provided on the moving body 2 (or the history information stored by the storage unit 10). . For example, the estimating unit 12, based on a plurality of surrounding images captured by the camera 3 up to the present time, determines the time after a predetermined time "2 seconds" from the reference time (for example, the present time) "13:00:00". A surrounding image captured by the camera 3 at "13:00:02" is estimated. Here, since the mobile object 2 is movable, there is a possibility that the mobile object 2 is in a different position at the time "13:00:02" from the position at the time "13:00:00". be. The estimation unit 12 may periodically (for example, every second) and continuously estimate the surrounding image. A specific estimation process by the estimation unit 12 will be described later.

推定部12は、複数の異なる所定時間それぞれに対応する周囲画像を推定してもよい。例えば、推定部12は、基準時刻「13時00分00秒」から所定時間「2秒」後の時刻「13時00分02秒」にカメラ3により撮像される周囲画像と、基準時刻「13時00分00秒」から所定時間「4秒」後の時刻「13時00分04秒」にカメラ3により撮像される周囲画像と、基準時刻「13時00分00秒」から所定時間「6秒」後の時刻「13時00分06秒」にカメラ3により撮像される周囲画像とを推定する。 The estimation unit 12 may estimate surrounding images corresponding to a plurality of different predetermined times. For example, the estimating unit 12 captures the ambient image captured by the camera 3 at the time “13:00:02” after the predetermined time “2 seconds” from the reference time “13:00:00” and the reference time “13:00:00”. A surrounding image captured by the camera 3 at a time "13:00:04" after a predetermined time "4 seconds" from the reference time "13:00:00" and a predetermined time "6 The surrounding image captured by the camera 3 at the time "13:00:06" after "seconds" is estimated.

推定部12は、カメラ3aにより撮像された画像中のオブジェクトとの距離と、カメラ3bにより撮像された周囲画像とに基づいて推定してもよい。具体的な推定処理については後述する。 The estimation unit 12 may estimate based on the distance to the object in the image captured by the camera 3a and the surrounding image captured by the camera 3b. A specific estimation process will be described later.

推定部12は、推定した周囲画像を、格納部10によって格納させてもよいし、周囲画像推定装置1の他の機能ブロックに出力してもよい。 The estimation unit 12 may cause the storage unit 10 to store the estimated surrounding image, or may output it to another functional block of the surrounding image estimation device 1 .

図4は、周囲画像の一例を示す図である。図4の状況などは、図1と同様であり、主に差分について説明する。周囲画像Saは、カメラ3aにより立体的に(オブジェクトとの距離を計測可能に)撮像された周囲画像である。周囲画像Sbは、カメラ3bにより全方位的に撮像された周囲画像である。図4に示す例では、周囲画像Sbは周囲画像Saよりも広い領域を撮像した周囲画像であり、周囲画像Sbの領域は周囲画像Saの領域を含む(内包する)。周囲画像Saで示される領域は、制御者が注目する注目領域であってもよい。その場合、周囲画像Sbで示される領域のうち、周囲画像Saで示される領域を除く領域は、制御者が注目しない注目領域外となる。周囲画像Sa及び周囲画像Sbでは、向かって左側の歩道上を奥側から手前側に向かって(移動体2の進行方向とは逆方向に)歩いている人B2(オブジェクト)が写されている。周囲画像Sbでは、向かって右側の歩道上を手前側から奥側に向かって(移動体2の進行方向に)歩いている人B3(オブジェクト)が写されている。 FIG. 4 is a diagram showing an example of a surrounding image. The situation in FIG. 4 and the like are the same as in FIG. 1, so differences will be mainly described. The surrounding image Sa is a surrounding image stereoscopically captured by the camera 3a (so that the distance to the object can be measured). The surrounding image Sb is a surrounding image captured omnidirectionally by the camera 3b. In the example shown in FIG. 4, the surrounding image Sb is a surrounding image obtained by imaging an area wider than the surrounding image Sa, and the area of the surrounding image Sb includes (includes) the area of the surrounding image Sa. The area indicated by the surrounding image Sa may be an attention area that the controller pays attention to. In that case, of the area shown by the surrounding image Sb, the area excluding the area shown by the surrounding image Sa is outside the attention area that the controller does not pay attention to. In the surrounding image Sa and the surrounding image Sb, a person B2 (object) walking on the sidewalk on the left side from the back side to the front side (in the direction opposite to the traveling direction of the moving body 2) is shown. . In the surrounding image Sb, a person B3 (object) walking on the sidewalk on the right side from the front side toward the back side (in the traveling direction of the moving body 2) is shown.

図5は、過去・現在・未来の周囲画像の一例を示す図である。 FIG. 5 is a diagram showing an example of past/present/future surrounding images.

図5中の左側の図に示す過去の周囲画像は、過去(例えば現時点から2秒前)にカメラ3a及びカメラ3bによりそれぞれ撮像された周囲画像Sa及び周囲画像Sbである。過去の周囲画像のうち、注目領域である周囲画像Saを過去フレームと呼ぶ。過去フレーム中に示されている人B2との距離「20m」は、カメラ3aが計測した人B2との距離を示している。なお、本実施形態において、カメラ3aが計測したオブジェクトとの距離に関する情報は、便宜上図5の周囲画像Sa中に表示しているが、実際は周囲画像Saに紐付く周囲情報に含まれているものとする。 The past surrounding images shown in the left diagram in FIG. 5 are the surrounding images Sa and Sb captured by the cameras 3a and 3b in the past (for example, two seconds before the current time). Of the past surrounding images, the surrounding image Sa, which is the region of interest, is called a past frame. The distance "20 m" to the person B2 shown in the past frame indicates the distance to the person B2 measured by the camera 3a. In the present embodiment, the information about the distance to the object measured by the camera 3a is displayed in the surrounding image Sa in FIG. 5 for the sake of convenience. and

図5中の真ん中の図に示す現在の周囲画像は、現在(現時点で)、カメラ3a及びカメラ3bによりそれぞれ撮像された周囲画像Sa及び周囲画像Sbである。現在の周囲画像のうち、注目領域である周囲画像Saを現在フレームと呼ぶ。現在フレーム中に示されている人B2との距離は「15m」であり、過去フレームと比べて移動体2に近づいている。一方、現在の周囲画像中に示されている人B3は、過去の周囲画像と比べて移動体2から遠ざかっている。現在フレームは、過去フレームと比べて周囲画像Sbの領域内を上方向に移動している。 The current surrounding images shown in the middle diagram in FIG. 5 are the surrounding image Sa and the surrounding image Sb currently (currently) captured by the cameras 3a and 3b, respectively. Among the current surrounding images, the surrounding image Sa, which is the attention area, is called a current frame. The distance to the person B2 shown in the current frame is "15 m", and is closer to the moving object 2 than in the past frame. On the other hand, the person B3 shown in the current surrounding image is farther away from the moving object 2 than in the past surrounding image. The current frame moves upward in the region of the surrounding image Sb compared to the past frames.

図5中の右側の図に示す未来の周囲画像は、推定部12によって、現在からt秒(所定時間)後にカメラ3a及びカメラ3bによりそれぞれ撮像されると推定された周囲画像Sa及び周囲画像Sbである。未来の周囲画像のうち、注目領域である周囲画像Saを未来フレームと呼ぶ。未来フレーム中に示されている人B2との距離は「10m」であり、現在フレームと比べて移動体2に近づいている。一方、未来の周囲画像(及び未来フレーム)中に示されている人B3は、現在の周囲画像と比べて移動体2から遠ざかっている。未来フレームは、現在フレームと比べて周囲画像Sbの領域内を上方向に移動している。 The future surrounding images shown in the diagram on the right side of FIG. is. Of the future surrounding images, the surrounding image Sa, which is the region of interest, is called a future frame. The distance to the person B2 shown in the future frame is "10 m", and the person is closer to the moving object 2 than in the current frame. On the other hand, the person B3 shown in the future ambient image (and future frame) is further away from the vehicle 2 than in the current ambient image. The future frame moves upward within the region of the surrounding image Sb compared to the current frame.

図5の未来の周囲画像を参照しながら、推定部12による未来フレームの具体的な推定処理について説明する。まず、人B2及び人B3を除く周囲画像Saについては、過去の周囲画像の周囲画像Saとそのタイムスタンプ、現在の周囲画像の周囲画像Sa及び周囲画像Sbとそれらのタイムスタンプ、並びに、t秒に基づいて(推定部12が)推定する。例えば、過去の周囲画像の周囲画像Saと現在の周囲画像の周囲画像Saとのタイムスタンプの差分、及び、過去の周囲画像の周囲画像Saの位置と現在の周囲画像の周囲画像Saの位置との差分(上方向の移動量)から、t秒での上方向の移動量を算出し(線形的に上方向に移動すると仮定)、現在の周囲画像の周囲画像Saを、算出した上方向の移動量分移動した周囲画像を、(人B2及び人B3を除く)未来フレームとして推定する。上方向に移動した際に新たに推定が必要となる図5に示す領域R1(未来フレームの上側)の画像については、周囲画像Sbに基づいて合成してもよい。例えば、現在の周囲画像の周囲画像Sbにおける対応する箇所の画像を利用して、領域R1の画像を生成してもよい。なお、上述の算出において、格納部10によって格納された履歴情報の移動情報に含まれる移動体2の位置、加速度、速度及び移動方向に関する情報を利用することで、移動体2の正確な移動を推定し、最終的に推定する周囲画像の推定精度を高めてもよい。未来の周囲画像の周囲画像Sbについても、未来フレームと同様に推定してもよい。 Specific estimation processing of the future frame by the estimation unit 12 will be described with reference to the future surrounding image of FIG. 5 . First, for the surrounding images Sa excluding the person B2 and the person B3, the past surrounding images Sa and their time stamps, the current surrounding images Sa and Sb and their time stamps, and t seconds is estimated (by the estimation unit 12). For example, the difference between the time stamps of the surrounding image Sa of the past surrounding image and the surrounding image Sa of the current surrounding image, and the position of the surrounding image Sa of the past surrounding image and the position of the surrounding image Sa of the current surrounding image. From the difference (upward movement amount) of , the upward movement amount in t seconds is calculated (assuming that it moves linearly upward), and the surrounding image Sa of the current surrounding image is converted to the calculated upward movement amount A surrounding image moved by the movement amount is estimated as a future frame (excluding the person B2 and the person B3). The image of the region R1 (upper side of the future frame) shown in FIG. 5, which requires new estimation when moving upward, may be combined based on the surrounding image Sb. For example, the image of the area R1 may be generated using the image of the corresponding portion in the surrounding image Sb of the current surrounding image. In addition, in the above calculation, by using information about the position, acceleration, speed, and movement direction of the moving body 2 included in the movement information of the history information stored by the storage unit 10, accurate movement of the moving body 2 can be performed. The estimation accuracy of the surrounding image that is estimated and finally estimated may be increased. The surrounding image Sb of the future surrounding image may also be estimated in the same manner as the future frame.

次に、未来フレームの人B2については、過去フレーム及び現在フレームに紐付く周囲情報に基づいて(推定部12が)推定する。例えば、過去フレーム及び現在フレームに紐付く周囲情報に含まれる人B2との距離に基づいて、人B2のx、y及びz軸方向の移動ベクトルを、過去フレーム及び現在フレームの時間差分から算出し、算出した移動ベクトル及びt秒に基づいて、上述の周囲画像Saの推定と同様に未来フレーム内での人B2を推定する。 Next, the person B2 in the future frame is estimated (by the estimation unit 12) based on the surrounding information associated with the past frame and the current frame. For example, based on the distance from the person B2 included in the surrounding information associated with the past frame and the current frame, the movement vector of the person B2 in the x, y, and z axis directions is calculated from the time difference between the past frame and the current frame, Based on the calculated movement vector and t seconds, the person B2 in the future frame is estimated in the same manner as the estimation of the surrounding image Sa described above.

最後に、未来フレームの人B3については、過去の周囲画像及び現在の周囲画像におけるカメラ3bにより取得された周囲画像Sbに基づいて(推定部12が)推定する。例えば、過去の周囲画像及び現在の周囲画像におけるカメラ3bにより取得された周囲画像Sbに基づいて、人B3のx及びy軸方向の移動ベクトルを、過去の周囲画像及び現在の周囲画像の時間差分から算出し、算出した移動ベクトル及びt秒に基づいて、上述の周囲画像Saの推定と同様に未来フレーム内での人B3を推定する。すなわち、人B3は、周囲画像Sbに基づいて算出された移動ベクトルから、注目領域内に映り込むことが推定され、未来フレームに重ね合わせられる。 Finally, the person B3 in the future frame is estimated (by the estimation unit 12) based on the surrounding image Sb acquired by the camera 3b in the past surrounding image and the current surrounding image. For example, based on the surrounding image Sb acquired by the camera 3b in the past surrounding image and the current surrounding image, the movement vector of the person B3 in the x- and y-axis directions is obtained from the time difference between the past surrounding image and the current surrounding image. Based on the calculated movement vector and t seconds, the person B3 in the future frame is estimated in the same manner as the estimation of the surrounding image Sa described above. That is, it is estimated that the person B3 will be reflected in the attention area from the movement vector calculated based on the surrounding image Sb, and superimposed on the future frame.

以上の通り、推定部12が、移動体2に備えられたカメラ3により撮像された周囲画像に基づいて、t秒後にカメラ3により撮像される未来フレーム(周囲画像)を推定する。 As described above, the estimating unit 12 estimates the future frame (surrounding image) captured by the camera 3 after t seconds, based on the surrounding image captured by the camera 3 provided on the moving object 2 .

推定部12は、周囲画像を推定した際のオブジェクトごとの推定精度を、当該周囲画像と紐付けて他の機能ブロックに出力してもよい。例えば、推定部12は、高速で移動するオブジェクト及び直進でない動きをするオブジェクトなどは低い推定精度を出力し、静止オブジェクト及び低速で直進するオブジェクトなどは高い推定精度を出力してもよい。 The estimation unit 12 may output the estimation accuracy for each object when estimating the surrounding image to another functional block in association with the surrounding image. For example, the estimation unit 12 may output low estimation accuracy for fast moving objects and non-straight moving objects, and output high estimation accuracy for stationary objects and slow straight moving objects.

算出部13は、推定部12によって推定された周囲画像と、所定時間後にカメラ3により実際に撮像された周囲画像との合致度を算出する。例えば、推定部12が、基準時刻である「13時00分00秒」から所定時間「2秒」後の時刻「13時00分02秒」にカメラ3により撮像される周囲画像を推定した場合、算出部13は、推定された当該周囲画像と、基準時刻である「13時00分00秒」から所定時間「2秒」後の時刻「13時00分02秒」にカメラ3により実際に撮像された周囲画像との合致度を算出する。 The calculation unit 13 calculates the degree of matching between the surrounding image estimated by the estimation unit 12 and the surrounding image actually captured by the camera 3 after a predetermined time. For example, when the estimation unit 12 estimates the surrounding image captured by the camera 3 at the time "13:00:02" after the predetermined time "2 seconds" from the reference time "13:00:00" , the calculation unit 13 actually captures the estimated surrounding image with the camera 3 at time ``13:00:02'' after a predetermined time ``2 seconds'' from the reference time ``13:00:00''. The degree of matching with the imaged surrounding image is calculated.

算出部13が合致度を算出する対象である片方の、推定部12によって推定された周囲画像は、推定部12によって出力されたものであってもよいし、格納部10によって格納されたものであってもよい。算出部13が合致度を算出する対象であるもう片方の、所定時間後にカメラ3により実際に撮像された周囲画像は、移動体2からネットワークなどを介して周囲画像推定装置1が受信し、格納部10によって格納されたものである。 The surrounding image estimated by the estimating unit 12, which is one of the objects for which the calculating unit 13 calculates the degree of matching, may be output by the estimating unit 12 or stored by the storage unit 10. There may be. The other surrounding image for which the calculation unit 13 calculates the degree of matching, which is actually captured by the camera 3 after a predetermined period of time, is received by the surrounding image estimation device 1 from the moving body 2 via a network or the like, and stored. stored by the unit 10;

合致度は、2つの画像が合致する度合である。合致度は、既存技術である画像間の類似度であってもよい。合致度は、例えば、「0」から「1」の実数値で表され、値が「0」に近いほど合致しておらず、値が「1」に近いほど合致していることを表してもよい。 Match is the degree to which two images match. The degree of matching may be the degree of similarity between images, which is an existing technology. The degree of matching is represented by, for example, a real number from "0" to "1". good too.

算出部13は、周囲画像中のオブジェクトの位置に基づいて合致度を算出してもよい。例えば、位置A(a,b)にいたオブジェクトが、所定時間後に位置B(c,d)にいたとする。また、推定部12によって、当該オブジェクトは所定時間後に位置X(x,y)にいると推定されたとする。その場合、例えば、算出部13は、位置Bの周囲画像と位置Xの周囲画像との類似度を算出することで合致度を算出してもよい。 The calculation unit 13 may calculate the matching degree based on the position of the object in the surrounding image. For example, assume that an object at position A (a, b) is at position B (c, d) after a predetermined period of time. It is also assumed that the estimation unit 12 estimates that the object will be at the position X(x, y) after a predetermined time. In that case, for example, the calculation unit 13 may calculate the matching degree by calculating the degree of similarity between the surrounding image of the position B and the surrounding image of the position X.

算出部13は、推定部12によって推定された複数の周囲画像それぞれに対して合致度を算出してもよい。例えば、推定部12が、基準時刻「13時00分00秒」から所定時間「2秒」後の時刻「13時00分02秒」の周囲画像と、基準時刻「13時00分00秒」から所定時間「4秒」後の時刻「13時00分04秒」の周囲画像と、基準時刻「13時00分00秒」から所定時間「6秒」後の時刻「13時00分06秒」の周囲画像とを推定したとする。その場合、算出部13は、時刻「13時00分02秒」の推定された周囲画像と当該時刻に実際に撮像された周囲画像との合致度を算出し、時刻「13時00分04秒」の推定された周囲画像と当該時刻に実際に撮像された周囲画像との合致度を算出し、時刻「13時00分06秒」の推定された周囲画像と当該時刻に実際に撮像された周囲画像との合致度を算出する。 The calculation unit 13 may calculate the matching degree for each of the plurality of surrounding images estimated by the estimation unit 12 . For example, the estimating unit 12 generates a surrounding image at a time “13:00:02” after a predetermined time “2 seconds” from the reference time “13:00:00” and a reference time “13:00:00”. Surrounding image at time ``13:00:04'' after a predetermined time ``4 seconds'' from the reference time ``13:00:00'' , and the surrounding image of . In this case, the calculation unit 13 calculates the degree of matching between the estimated surrounding image at time “13:00:02” and the surrounding image actually captured at that time, ” and the actually captured image at that time are calculated, and the estimated ambient image at time “13:00:06” and the actually captured image at that time are calculated. Calculate the degree of matching with the surrounding image.

算出部13は、算出した合致度を、格納部10によって格納させてもよいし、周囲画像推定装置1の他の機能ブロックに出力してもよい。 The calculation unit 13 may cause the storage unit 10 to store the calculated matching degree, or may output it to another functional block of the surrounding image estimation device 1 .

図6は、未来の周囲画像と実際の周囲画像との比較を示す図である。図6中の上側の図に示す未来の周囲画像は、図5の未来の周囲画像と同じである。すなわち、未来の周囲画像における未来フレームは、推定部12によって推定された周囲画像である。図6中の下側の図に示す実際の周囲画像は、図5の現在フレームの撮像時点からt秒(所定時間)後にカメラ3a及びカメラ3bによりそれぞれ実際に撮像された周囲画像Sa及び周囲画像Sbである。実際の周囲画像のうち、注目領域である周囲画像Saを実際フレームと呼ぶ。算出部13は、図6に示す未来フレームと実際フレームとの合致度を算出する(比較する)。なお、未来フレームと実際フレームとを比較した際に、比較結果に基づいて、推定部12によって行われる推定のパラメータチューニングを行い、推定の精度を向上させてもよい。パラメータチューニングを行うことで、例えば、制御者の癖などによる移動体2の速度や進行方向の特徴を反映することができる。 FIG. 6 is a diagram showing a comparison between a future ambient image and an actual ambient image. The future surrounding image shown in the upper diagram in FIG. 6 is the same as the future surrounding image in FIG. That is, the future frame in the future surrounding image is the surrounding image estimated by the estimation unit 12 . The actual surrounding images shown in the lower diagram in FIG. 6 are the surrounding image Sa and the surrounding image actually captured by the cameras 3a and 3b, respectively, after t seconds (predetermined time) from the time when the current frame in FIG. 5 was captured. Sb. Of the actual surrounding images, the surrounding image Sa, which is the attention area, is called an actual frame. The calculator 13 calculates (compares) the degree of matching between the future frame and the actual frame shown in FIG. Note that when the future frame and the actual frame are compared, parameter tuning of the estimation performed by the estimation unit 12 may be performed based on the comparison result to improve the accuracy of the estimation. By performing parameter tuning, for example, it is possible to reflect the characteristics of the speed and traveling direction of the moving body 2 due to the habits of the controller.

出力部14は、算出部13によって算出された合致度に基づいた出力を行う。例えば、出力部14は、算出部13によって算出された合致度を、出力装置1006(後述)などを介して制御者に表示してもよい。また例えば、出力部14は、算出部13によって算出された合致度と当該合致度の算出の基となった推定部12によって推定された周囲画像とを、出力装置1006(後述)などを介して制御者に表示してもよい。出力部14による出力は、表示に限らず、例えば周囲画像推定装置1の他の機能ブロックへの出力であってもよいし、ネットワークなどを介した他の装置への送信であってもよい。 The output unit 14 outputs based on the degree of matching calculated by the calculation unit 13 . For example, the output unit 14 may display the degree of matching calculated by the calculation unit 13 to the controller via the output device 1006 (described later) or the like. Further, for example, the output unit 14 outputs the degree of matching calculated by the calculating unit 13 and the surrounding image estimated by the estimating unit 12 on which the degree of matching was calculated, via the output device 1006 (described later). May be displayed to the controller. The output from the output unit 14 is not limited to display, and may be, for example, output to another functional block of the surrounding image estimation device 1 or transmission to another device via a network or the like.

出力部14は、算出部13によって算出された合致度に基づいて、合致度が所定の基準を満たす所定時間を算出し、推定部12によって推定された当該所定時間後の周囲画像を出力してもよい。例えば、合致度が上述の通り「0」から「1」の実数値で表される場合、出力部14は、算出部13によって所定の基準「0.8」以上の合致度が算出された所定時間(例えば「2秒」)を算出し、推定部12によって推定された(基準時刻から)当該所定時間後の周囲画像を出力する。 Based on the degree of matching calculated by the calculating unit 13, the output unit 14 calculates a predetermined time when the degree of matching satisfies a predetermined standard, and outputs the surrounding image after the predetermined time estimated by the estimating unit 12. good too. For example, when the degree of matching is represented by a real number between “0” and “1” as described above, the output unit 14 outputs a predetermined A time (for example, “2 seconds”) is calculated, and the surrounding image after the predetermined time (from the reference time) estimated by the estimation unit 12 is output.

出力部14は、算出部13によって算出された複数の合致度のうち所定の基準を満たす合致度を選択し、選択した当該合致度の基となった所定時間を、(上述の)合致度が所定の基準を満たす所定時間として算出してもよい。例えば、基準時刻「13時00分00秒」から所定時間「2秒」後の時刻「13時00分02秒」の周囲画像に関する合致度が「0.9」であり、基準時刻「13時00分00秒」から所定時間「4秒」後の時刻「13時00分04秒」の周囲画像に関する合致度が「0.7」であり、基準時刻「13時00分00秒」から所定時間「6秒」後の時刻「13時00分06秒」の周囲画像に関する合致度が「0.5」であり、所定の基準が「0.8」以上である場合、出力部14は、所定の基準「0.8」以上を満たす「0.9」の合致度を選択し、選択した当該合致度の基となった所定時間「2秒」を、合致度が所定の基準を満たす所定時間として算出する。そして出力部14は、推定部12によって推定された(基準時刻から)当該所定時間「2秒」後の周囲画像を出力する。 The output unit 14 selects a degree of matching that satisfies a predetermined criterion from among the plurality of degrees of matching calculated by the calculating unit 13, and outputs a predetermined time based on the selected degree of matching. It may be calculated as a predetermined time that satisfies a predetermined criterion. For example, the matching degree for the surrounding image at the time ``13:00:02'' after the predetermined time ``2 seconds'' from the reference time ``13:00:00'' is ``0.9''. The matching degree for the surrounding image at the time "13:00:04" after the predetermined time "4 seconds" from the reference time "13:00:00" is "0.7". When the matching degree for the surrounding image at the time "13:00:06" after the time "6 seconds" is "0.5" and the predetermined criterion is "0.8" or higher, the output unit 14: A matching degree of “0.9” that satisfies a predetermined criterion of “0.8” or higher is selected, and a predetermined time period of “2 seconds” that is the basis of the selected matching degree is set to a predetermined Calculate as hours. Then, the output unit 14 outputs the surrounding image after the predetermined time “2 seconds” estimated by the estimation unit 12 (from the reference time).

出力部14は、カメラ3により撮像された周囲画像が移動体2の移動を制御する制御者に表示されるまでの伝送遅延時間にさらに基づいた出力を行ってもよい。伝送遅延時間は、例えば、移動体2から遠隔(遠隔地)にいる制御者への画像伝送に関わる遅延時間である。伝送遅延時間は、周囲画像に紐付く周囲情報に含まれるタイムスタンプと周囲画像推定装置1が予め備える時刻機能で得られる(制御者に表示するタイミングでの)タイムスタンプとの差分で特定(予測)されてもよい。なお、周囲画像推定装置1とカメラ3とで時刻が同期されているものとする。例えば、出力部14は、算出部13によって算出された合致度に基づいて、合致度が所定の基準を満たし、かつ、伝送遅延時間との差が所定の基準(例えば「0.5秒」)以下の所定時間を算出し、推定部12によって推定された当該所定時間後の周囲画像を出力してもよい。 The output unit 14 may perform output further based on the transmission delay time until the surrounding image captured by the camera 3 is displayed to the controller who controls the movement of the moving body 2 . The transmission delay time is, for example, the delay time associated with image transmission from the moving object 2 to a remote controller (remote location). The transmission delay time is specified (predicted) by the difference between the time stamp included in the surrounding information associated with the surrounding image and the time stamp obtained by the time function provided in advance in the surrounding image estimation device 1 (at the timing of displaying to the controller). ) may be It is assumed that the surrounding image estimation device 1 and the camera 3 are synchronized in time. For example, based on the degree of matching calculated by the calculating unit 13, the output unit 14 determines that the degree of matching satisfies a predetermined standard and the difference from the transmission delay time is a predetermined standard (for example, "0.5 seconds"). The following predetermined time may be calculated, and the surrounding image after the predetermined time estimated by the estimation unit 12 may be output.

出力部14は、算出部13によって算出された合致度に基づいて、合致度が所定の基準を満たす所定時間を算出し、伝送遅延時間が当該所定時間以内の場合に、推定部12によって推定された当該伝送遅延時間後の周囲画像を出力してもよい。例えば、上述の例と同様に合致度が所定の基準「0.8」以上を満たす所定時間「2秒」が算出され、伝送遅延時間が「1.5秒」である場合、伝送遅延時間「1.5秒」は所定時間「2秒」以内であるため、出力部14は、推定部12によって推定された伝送遅延時間「1.5秒」後の周囲画像を出力する。 Based on the degree of matching calculated by the calculating unit 13, the output unit 14 calculates a predetermined time period when the degree of matching satisfies a predetermined criterion, and when the transmission delay time is within the predetermined time period, the transmission delay time is estimated by the estimating unit 12. Alternatively, the surrounding image after the transmission delay time may be output. For example, in the same way as in the above example, the predetermined time "2 seconds" satisfying the predetermined criterion "0.8" or higher is calculated, and if the transmission delay time is "1.5 seconds", the transmission delay time " 1.5 seconds” is within the predetermined time of “2 seconds”, the output unit 14 outputs the surrounding image after the transmission delay time “1.5 seconds” estimated by the estimation unit 12 .

出力部14は、推定部12による推定の推定精度にさらに基づいた出力を行ってもよい。例えば、出力部14は、推定部12によって出力された、周囲画像中のオブジェクトごとの推定精度の値をオブジェクト上に出力(表示)してもよいし、推定精度に応じてオブジェクトの色分けを行ってもよく、それにより制御者に対して推定精度を出力することができる。 The output unit 14 may output further based on the estimation accuracy of the estimation by the estimation unit 12 . For example, the output unit 14 may output (display) the value of the estimation accuracy for each object in the surrounding image output by the estimation unit 12 on the object, or may color-code the object according to the estimation accuracy. may be used to output the estimated accuracy to the controller.

続いて、図7を参照しながら、周囲画像推定装置1が実行する処理の例を説明する。図7は、実施形態に係る周囲画像推定装置1が実行する処理の一例を示すフローチャートである。 Next, an example of processing executed by the surrounding image estimation device 1 will be described with reference to FIG. FIG. 7 is a flowchart showing an example of processing executed by the surrounding image estimation device 1 according to the embodiment.

まず、推定部12が、移動体2に備えられたカメラ3により撮像された周囲画像Sに基づいて、所定時間t秒後にカメラ3により撮像される周囲画像Sを推定する(ステップS1、推定ステップ)。次に、算出部13が、S1において推定された周囲画像Sと、所定時間t秒後にカメラ3により実際に撮像された周囲画像Sとの合致度を算出する(ステップS2、算出ステップ)。次に、出力部14が、S2において算出された合致度に基づいた出力を行う(ステップS3、出力ステップ)。 First, the estimation unit 12 estimates the surrounding image S captured by the camera 3 after a predetermined time t seconds (step S1, estimation step ). Next, the calculation unit 13 calculates the degree of matching between the surrounding image S estimated in S1 and the surrounding image S actually captured by the camera 3 after a predetermined time t seconds (step S2, calculation step). Next, the output unit 14 outputs based on the degree of matching calculated in S2 (step S3, output step).

以上がシナリオ1での実施形態の説明である。 The above is the description of the embodiment in Scenario 1.

[シナリオ2]
以降ではシナリオ2での実施形態について説明する。図8は、シナリオ2の概念図である。シナリオ2では、建物内の廊下を車椅子などの移動体2が進み、丁字路(曲がり角)を右折する場面を想定する。図9は、丁字路付近の周囲画像の一例を示す図である。シナリオ1と同様に、移動体2は制御者が遠隔で制御可能である。移動体2が丁字路を右折する前の段階では、移動体2が備えるカメラ3では丁字路の右折先を撮像できないため、当該カメラ3が撮像できる周囲画像のみでは近未来の周囲画像は推定できない。図10は、丁字路を右折した際の周囲画像の一例を示す図である。図10に示す周囲画像は、移動体2が丁字路を右折した後に当該移動体2が備えるカメラ3によって実際に撮像されたものであり、上述の通り丁字路を右折する前の段階では撮像も推定もできない。
[Scenario 2]
An embodiment in Scenario 2 will be described below. FIG. 8 is a conceptual diagram of Scenario 2. FIG. Scenario 2 assumes a scene in which a moving object 2 such as a wheelchair is traveling along a corridor in a building and turning right at a T-junction (turning corner). FIG. 9 is a diagram showing an example of a surrounding image around a T-junction. Similar to Scenario 1, Mobile 2 is remotely controllable by the controller. Before the moving body 2 makes a right turn at the T-junction, the camera 3 of the moving body 2 cannot capture the right turn ahead of the T-junction. . FIG. 10 is a diagram showing an example of a surrounding image when turning right at a T-junction. The surrounding image shown in FIG. 10 was actually captured by the camera 3 of the moving body 2 after the moving body 2 turned right at the T-shaped road. I can't even guess.

推定部12は、所定時間後の移動体2の予測位置付近の地図情報にさらに基づいて推定してもよい。図11は、丁字路を右折した際の概念図である。推定部12は、所定時間t秒後の地点から撮像可能な撮像範囲の周囲画像を、当該地点付近の地図情報(マップデータ)に基づいて推定する。マップデータはネットワークなどを介してクラウドから取得可能であり、マップデータには当該マップデータに紐づく画像データ(航空写真、テクスチャ、風景写真など)も含まれていてもよい。推定部12は、所定時間t秒後の地点を、移動体2の速度と現在位置から予測してもよい。図12は、丁字路を右折した際の推定された周囲画像の一例を示す図である。図12に示す周囲画像のうち領域R2は、推定部12が地図情報に基づいて推定した領域である。以上がシナリオ2での実施形態の説明である。 The estimating unit 12 may further perform the estimation based on map information around the predicted position of the moving body 2 after a predetermined time. FIG. 11 is a conceptual diagram when turning right at a T-junction. The estimating unit 12 estimates a surrounding image of an imaging range that can be captured from a point after a predetermined time t seconds based on map information (map data) around the point. The map data can be obtained from the cloud via a network or the like, and the map data may include image data (aerial photographs, textures, landscape photographs, etc.) associated with the map data. The estimating unit 12 may predict the point after a predetermined time of t seconds from the speed of the moving body 2 and the current position. FIG. 12 is a diagram showing an example of an estimated surrounding image when turning right at a T-junction. A region R2 in the surrounding image shown in FIG. 12 is a region estimated by the estimation unit 12 based on the map information. The above is the description of the embodiment in Scenario 2.

[シナリオ3]
以降ではシナリオ3での実施形態について説明する。図13は、シナリオ3の概念図である。シナリオ3では、シナリオ2の場面に加えて、丁字路奥側の廊下に監視カメラCと、人B4と、移動体2とは異なる他の移動体2aとが存在する場面を想定する。シナリオ3では、丁字路の右折先の人B4(オブジェクト、障害物、動的物体)も推定する。
[Scenario 3]
Hereinafter, an embodiment in Scenario 3 will be described. FIG. 13 is a conceptual diagram of Scenario 3. FIG. In Scenario 3, in addition to the scene of Scenario 2, a scene is assumed in which a surveillance camera C, a person B4, and another moving object 2a different from the moving object 2 are present in the corridor at the back of the T-junction. In Scenario 3, the person B4 (object, obstacle, dynamic object) who turns right at the T-junction is also estimated.

推定部12は、所定時間後の移動体2の予測位置付近に存在する別のカメラ3(監視カメラC又は移動体2aが備えるカメラ)により撮像された周囲画像にさらに基づいて推定してもよい。推定部12は、所定時間後の移動体2の予測位置付近の地図情報と、当該予測位置付近に存在する別のカメラ3により撮像された周囲画像に含まれるオブジェクトとにさらに基づいて推定してもよい。 The estimating unit 12 may further perform the estimation based on a surrounding image taken by another camera 3 (surveillance camera C or a camera included in the moving object 2a) existing near the predicted position of the moving object 2 after a predetermined time. . The estimating unit 12 further estimates based on map information near the predicted position of the moving object 2 after a predetermined time and objects included in surrounding images taken by another camera 3 and present near the predicted position. good too.

すなわち、丁字路の右折先に移動体2a又は監視カメラCが存在する場合は、移動体2a又は監視カメラCで撮像された画像を活用して、人B4を推定する。移動体2aは、移動体2と同様の機能構成であり、撮像した周囲画像を移動体2aの位置情報とともに周囲画像推定装置1に送信する。移動体2a又は監視カメラCは、シナリオ1と同等の方法を採用することで、人B4の所定時間t秒後の位置を推定する。移動体2の推定部12は、所定時間t秒後の周囲画像をシナリオ2と同等の方法で推定した後に、人B4を位置座標などをもとに推定する(人B4を再現可能である)。図14は、丁字路を右折した際の推定された周囲画像(オブジェクトを含む)の一例を示す図である。図14に示す周囲画像のうち領域R2には、推定部12によって推定された人B4が含まれている。以上がシナリオ3での実施形態の説明である。 That is, when the moving body 2a or the monitoring camera C exists at the right turn ahead of the T-junction, the image captured by the moving body 2a or the monitoring camera C is used to estimate the person B4. The moving body 2a has the same functional configuration as the moving body 2, and transmits the imaged surrounding image to the surrounding image estimation device 1 together with the positional information of the moving body 2a. The moving object 2a or the monitoring camera C estimates the position of the person B4 after a predetermined time of t seconds by adopting a method equivalent to scenario 1. FIG. The estimating unit 12 of the moving object 2 estimates the surrounding image after a predetermined time t seconds by using the same method as in Scenario 2, and then estimates the person B4 based on the position coordinates (the person B4 can be reproduced). . FIG. 14 is a diagram showing an example of an estimated surrounding image (including an object) when turning right at a T-junction. A person B4 estimated by the estimation unit 12 is included in a region R2 of the surrounding image shown in FIG. The above is the description of the embodiment in Scenario 3.

続いて、図15を参照しながら、周囲画像推定装置1が実行するシナリオ1~3の処理の例を説明する。図15は、実施形態に係る周囲画像推定装置1が実行する処理の別の一例を示すフローチャートである。 Next, an example of processing of scenarios 1 to 3 executed by the surrounding image estimation device 1 will be described with reference to FIG. FIG. 15 is a flowchart showing another example of processing executed by the surrounding image estimation device 1 according to the embodiment.

まず、周囲画像推定装置1が、伝送遅延時間dを予測する(ステップS10)。次に、周囲画像推定装置1が、d秒後の移動体2の位置(自己位置)を予測する(ステップS11)。次に、周囲画像推定装置1が、移動体2が撮像した周囲画像のみでd秒後の周囲画像を推定可能(d秒後の自己位置から撮像する周囲画像に曲がり角などはなく、移動体2で撮像する周囲画像のみで推定可能)であるか否かを判定する(ステップS12)。S12にて推定可能であると判定された場合(S12:YES)、周囲画像推定装置1が、シナリオ1のパターンで周囲画像を推定する(ステップS13)。次に、周囲画像推定装置1が、d秒後に実際に撮像された周囲画像と比較してパラメータチューニングを行い(ステップS14)、処理を終了する。S12にて推定可能ではないと判定された場合(S12:NO)、周囲画像推定装置1が、シナリオ2のパターンで周囲画像を推定する(ステップS15)。S15に続き、d秒後の移動体2の予測位置付近に存在するカメラがオブジェクトを検知しているか否かを判定する(ステップS16)。S16にて検知していないと判定された場合(ステップS16:NO)、S14に続く。S16にて検知していると判定された場合(ステップS16:YES)、周囲画像推定装置1が、シナリオ3のパターンでオブジェクトを推定し(ステップS17)、S14に続く。 First, the surrounding image estimation device 1 predicts the transmission delay time d (step S10). Next, the surrounding image estimation device 1 predicts the position (self-position) of the moving body 2 after d seconds (step S11). Next, the surrounding image estimating device 1 can estimate the surrounding image after d seconds only from the surrounding image captured by the moving body 2 (the surrounding image captured from the self position after d seconds has no corners, and the moving body 2 It is determined whether or not it is possible to estimate only from the surrounding image captured in (step S12). If it is determined in S12 that estimation is possible (S12: YES), the surrounding image estimation device 1 estimates the surrounding image using the pattern of Scenario 1 (Step S13). Next, the surrounding image estimation device 1 performs parameter tuning by comparing with the surrounding image actually captured after d seconds (step S14), and the process ends. If it is determined in S12 that estimation is not possible (S12: NO), the surrounding image estimation device 1 estimates the surrounding image in the pattern of Scenario 2 (Step S15). Following S15, it is determined whether or not a camera present near the predicted position of the moving body 2 after d seconds has detected an object (step S16). If it is determined in S16 that no detection has been made (step S16: NO), the process continues to S14. If it is determined that the object is detected in S16 (step S16: YES), the surrounding image estimation device 1 estimates the object according to the pattern of Scenario 3 (step S17), and continues to S14.

続いて、実施形態に係る周囲画像推定装置1の作用効果について説明する。 Next, effects of the surrounding image estimation device 1 according to the embodiment will be described.

周囲画像推定装置1によれば、推定部12が、移動体2に備えられたカメラ3により撮像された周囲画像に基づいて、所定時間後にカメラ3により撮像される周囲画像を推定し、算出部13が、推定部12によって推定された周囲画像と、所定時間後にカメラ3により実際に撮像された周囲画像との合致度を算出し、出力部14が、算出部13によって算出された合致度に基づいた出力を行う。この構成により、移動体2に備えられたカメラ3により所定時間後に撮像される周囲画像が推定される。すなわち、移動体2の近未来の周囲画像を推定することができる。また、推定された周囲画像と実際に撮像された周囲画像との合致度に基づいた出力が行われるため、例えば、推定された周囲画像の推定精度を容易かつ効果的に活用することができる。 According to the surrounding image estimating device 1, the estimating unit 12 estimates the surrounding image captured by the camera 3 after a predetermined time based on the surrounding image captured by the camera 3 provided on the moving body 2, and the calculating unit 13 calculates the matching degree between the surrounding image estimated by the estimating unit 12 and the surrounding image actually captured by the camera 3 after a predetermined time, and the output unit 14 outputs the matching degree calculated by the calculating unit 13. based output. With this configuration, the surrounding image captured by the camera 3 provided on the moving body 2 after a predetermined time is estimated. That is, a near-future surrounding image of the moving object 2 can be estimated. In addition, since the output is performed based on the degree of matching between the estimated surrounding image and the actually captured surrounding image, for example, the estimation accuracy of the estimated surrounding image can be easily and effectively utilized.

また、周囲画像推定装置1によれば、出力部14が、算出部13によって算出された合致度に基づいて、合致度が所定の基準を満たす所定時間を算出し、推定部12によって推定された当該所定時間後の周囲画像を出力してもよい。この構成により、一定の推定精度のある、推定された周囲画像を出力することができる。 Further, according to the surrounding image estimation device 1, the output unit 14 calculates a predetermined time period in which the matching degree satisfies a predetermined standard based on the matching degree calculated by the calculating unit 13, and the estimation unit 12 estimates A surrounding image after the predetermined time may be output. With this configuration, it is possible to output an estimated surrounding image with a certain degree of estimation accuracy.

また、周囲画像推定装置1によれば、推定部12が、複数の異なる所定時間それぞれに対応する周囲画像を推定し、算出部13が、推定部12によって推定された複数の周囲画像それぞれに対して合致度を算出し、出力部14が、算出部13によって算出された複数の合致度のうち所定の基準を満たす合致度を選択し、選択した当該合致度の基となった所定時間を、合致度が所定の基準を満たす所定時間として算出してもよい。この構成により、より容易かつ確実に、一定の推定精度のある、推定された周囲画像を出力することができる。 Further, according to the surrounding image estimation device 1, the estimation unit 12 estimates the surrounding images corresponding to each of a plurality of different predetermined times, and the calculation unit 13 estimates each of the plurality of surrounding images estimated by the estimation unit 12 The output unit 14 selects a degree of matching that satisfies a predetermined criterion from among the plurality of degrees of matching calculated by the calculating unit 13, and selects a predetermined time on which the selected degree of matching is based, It may be calculated as a predetermined time when the degree of matching satisfies a predetermined criterion. With this configuration, it is possible to more easily and reliably output an estimated surrounding image with a certain degree of estimation accuracy.

また、周囲画像推定装置1によれば、カメラ3は、撮像している画像中のオブジェクトとの距離を計測可能なカメラ3aと、周囲を撮像可能なカメラ3bとから構成され、推定部12が、カメラ3aにより撮像された画像中のオブジェクトとの距離と、カメラ3bにより撮像された周囲画像とに基づいて推定してもよい。この構成により、オブジェクトとの距離を加味した推定を行うことができ、かつ、異なるカメラで撮像された画像に基づく推定を行うことができるため、より精度の高い推定を行うことができる。また、カメラ3aでz軸(奥行)方向の情報も取得することで、z軸方向にベクトルの大きい移動も推定することができる。 According to the surrounding image estimation device 1, the camera 3 is composed of the camera 3a capable of measuring the distance to an object in the captured image and the camera 3b capable of capturing the surroundings. , the distance to the object in the image captured by the camera 3a and the surrounding image captured by the camera 3b. With this configuration, it is possible to perform estimation with consideration given to the distance to the object, and it is possible to perform estimation based on images captured by different cameras, so that it is possible to perform estimation with higher accuracy. In addition, by acquiring information in the z-axis (depth) direction with the camera 3a, it is possible to estimate movement with a large vector in the z-axis direction.

また、周囲画像推定装置1によれば、出力部14が、カメラ3により撮像された周囲画像が移動体2の移動を制御する制御者に表示されるまでの伝送遅延時間にさらに基づいた出力を行ってもよい。この構成により、伝送遅延時間を考慮した出力を行うことができる。例えば、伝送遅延時間分の近未来の周囲画像を制御者に出力することで、制御者にとってはまるでリアルタイムの移動体2の周囲画像を出力することができる。 Further, according to the surrounding image estimation device 1, the output unit 14 outputs an output further based on the transmission delay time until the surrounding image captured by the camera 3 is displayed to the controller controlling the movement of the moving body 2. you can go With this configuration, it is possible to perform output in consideration of transmission delay time. For example, by outputting a near-future surrounding image for the transmission delay time to the controller, it is possible for the controller to output a real-time surrounding image of the mobile object 2 .

また、周囲画像推定装置1によれば、出力部14が、算出部13によって算出された合致度に基づいて、合致度が所定の基準を満たす所定時間を算出し、伝送遅延時間が当該所定時間以内の場合に、推定部12によって推定された当該伝送遅延時間後の周囲画像を出力してもよい。この構成により、例えば、一定の推定精度のある、リアルタイムの移動体2の周囲画像を出力することができる。 Further, according to the surrounding image estimation device 1, the output unit 14 calculates a predetermined time period in which the degree of matching satisfies a predetermined standard based on the degree of matching calculated by the calculating unit 13, and the transmission delay time is In the case of less than, the surrounding image after the transmission delay time estimated by the estimation unit 12 may be output. With this configuration, for example, it is possible to output a real-time surrounding image of the moving object 2 with a certain degree of estimation accuracy.

また、周囲画像推定装置1によれば、出力部14が、推定部12による推定の推定精度にさらに基づいた出力を行ってもよい。この構成により、推定精度を容易かつ効果的に活用することができる。 Further, according to the surrounding image estimation device 1 , the output unit 14 may output based on the estimation accuracy of the estimation by the estimation unit 12 . With this configuration, estimation accuracy can be easily and effectively utilized.

また、周囲画像推定装置1によれば、推定部12は、所定時間後の移動体2の予測位置付近の地図情報にさらに基づいて推定してもよい。この構成により、移動体2自体では推定できない部分も地図情報によって補うことができる。 Further, according to the surrounding image estimation device 1, the estimation unit 12 may further perform estimation based on map information around the predicted position of the moving object 2 after a predetermined time. With this configuration, parts that cannot be estimated by the moving body 2 itself can be compensated for by the map information.

また、周囲画像推定装置1によれば、推定部12は、所定時間後の移動体2の予測位置付近に存在する別のカメラ3により撮像された周囲画像にさらに基づいて推定してもよい。この構成により、移動体2自体では推定できない部分も別のカメラ3により撮像された周囲画像によって補うことができる。 Further, according to the surrounding image estimation device 1, the estimation unit 12 may further perform estimation based on a surrounding image captured by another camera 3 that will be present in the vicinity of the predicted position of the moving body 2 after a predetermined time. With this configuration, the part that cannot be estimated by the moving body 2 itself can be compensated for by the surrounding image captured by another camera 3 .

また、周囲画像推定装置1によれば、推定部12が、所定時間後の移動体2の予測位置付近の地図情報と、当該予測位置付近に存在する別のカメラ3により撮像された周囲画像に含まれるオブジェクトとにさらに基づいて推定してもよい。この構成により、移動体2自体では推定できない部分も、地図情報及び別のカメラ3により撮像された周囲画像に含まれるオブジェクトによって補うことができる。 Further, according to the surrounding image estimation device 1, the estimation unit 12 combines the map information near the predicted position of the moving body 2 after a predetermined time with the surrounding image captured by another camera 3 existing near the predicted position. It may be estimated further based on the included objects. With this configuration, parts that cannot be estimated by the moving body 2 itself can be compensated for by objects included in the surrounding image captured by the map information and another camera 3 .

ここで、従来の課題について説明する。移動する物体を遠隔地から操作するためには、遠隔操縦者が現地の様子をリアルタイムに把握する必要があり、現在は映像により現地の様子を把握する方法が主流である。遠隔操縦者まで現地の映像を届けるには映像伝送・エンコード・デコード等の処理により数十~数百ms程度の遅延が発生してしまうため、緊急停止の反応遅れ又は操縦者側の違和感につながってしまう。 Here, conventional problems will be described. In order to operate a moving object from a remote location, it is necessary for a remote operator to grasp the local situation in real time, and currently the mainstream method is to grasp the local situation by video. Due to processing such as video transmission, encoding, and decoding, a delay of several tens to hundreds of milliseconds is generated in order to deliver local images to the remote operator. end up

本実施形態の周囲画像推定装置1は、制御者(遠隔操縦者)に画像(映像)を伝送する際に発生してしまう遅延を考慮し、伝送遅延時間に応じた数十~数百ms程度未来の現地映像を仮想的に生成することにより、画像伝送遅延を感じさせない遠隔制御システムを実現する。周囲画像推定装置1は、移動体2の進行方向・速度、及び周辺オブジェクトのベクトルから画像伝送に関わる伝送遅延時間分だけ未来における、制御者の注目領域部分の画像を生成することができる。周囲画像推定装置1は、未来画像作成する際には、その時の画像伝送遅延分の未来画像を生成する。ただし、所定の合致率以下の場合には、合致率になるように、少し遅れた画像の未来画像を生成する。例えば5秒遅延しているとして、5秒の未来画像を生成すると、合致率が低下してしまう場合、合致率以上となる3秒を生成する。周囲画像推定装置1によれば、遠隔操縦の反応遅れの防止、及び、違和感のない遠隔操縦の実現が可能である。周囲画像推定装置1による手法は、リアルタイム遠隔制御向けの近未来映像生成手法である。 The surrounding image estimation device 1 of this embodiment considers the delay that occurs when transmitting an image (video) to the controller (remote operator), and takes several tens to several hundreds of milliseconds according to the transmission delay time. Realize a remote control system that does not make you feel image transmission delays by virtually generating future local images. The surrounding image estimating device 1 can generate an image of the controller's attention area portion in the future by the transmission delay time related to image transmission from the direction and speed of the moving body 2 and the vectors of the surrounding objects. When creating a future image, the surrounding image estimation device 1 generates a future image corresponding to the image transmission delay at that time. However, if the match rate is less than the predetermined match rate, a slightly delayed future image is generated so as to achieve the match rate. For example, assuming that there is a delay of 5 seconds, if a 5-second future image is generated, the matching rate will decrease. According to the surrounding image estimating device 1, it is possible to prevent a response delay in remote control and to realize remote control without discomfort. The method using the surrounding image estimation device 1 is a near-future video generation method for real-time remote control.

なお、上記実施形態の説明に用いたブロック図は、機能単位のブロックを示している。これらの機能ブロック(構成部)は、ハードウェア及びソフトウェアの少なくとも一方の任意の組み合わせによって実現される。また、各機能ブロックの実現方法は特に限定されない。すなわち、各機能ブロックは、物理的又は論理的に結合した1つの装置を用いて実現されてもよいし、物理的又は論理的に分離した2つ以上の装置を直接的又は間接的に(例えば、有線、無線などを用いて)接続し、これら複数の装置を用いて実現されてもよい。機能ブロックは、上記1つの装置又は上記複数の装置にソフトウェアを組み合わせて実現されてもよい。 It should be noted that the block diagrams used in the description of the above embodiments show blocks in units of functions. These functional blocks (components) are realized by any combination of at least one of hardware and software. Also, the method of implementing each functional block is not particularly limited. That is, each functional block may be implemented using one device that is physically or logically coupled, or directly or indirectly using two or more devices that are physically or logically separated (e.g. , wired, wireless, etc.) and may be implemented using these multiple devices. A functional block may be implemented by combining software in the one device or the plurality of devices.

機能には、判断、決定、判定、計算、算出、処理、導出、調査、探索、確認、受信、送信、出力、アクセス、解決、選択、選定、確立、比較、想定、期待、見做し、報知(broadcasting)、通知(notifying)、通信(communicating)、転送(forwarding)、構成(configuring)、再構成(reconfiguring)、割り当て(allocating、mapping)、割り振り(assigning)などがあるが、これらに限られない。たとえば、送信を機能させる機能ブロック(構成部)は、送信部(transmitting unit)や送信機(transmitter)と呼称される。いずれも、上述したとおり、実現方法は特に限定されない。 Functions include judging, determining, determining, calculating, calculating, processing, deriving, investigating, searching, checking, receiving, transmitting, outputting, accessing, resolving, selecting, choosing, establishing, comparing, assuming, expecting, assuming, Broadcasting, notifying, communicating, forwarding, configuring, reconfiguring, allocating, mapping, assigning, etc. can't For example, a functional block (component) that makes transmission work is called a transmitting unit or a transmitter. In either case, as described above, the implementation method is not particularly limited.

例えば、本開示の一実施の形態における周囲画像推定装置1などは、本開示の周囲画像推定方法の処理を行うコンピュータとして機能してもよい。図16は、本開示の一実施の形態に係る周囲画像推定装置1のハードウェア構成の一例を示す図である。上述の周囲画像推定装置1は、物理的には、プロセッサ1001、メモリ1002、ストレージ1003、通信装置1004、入力装置1005、出力装置1006、バス1007などを含むコンピュータ装置として構成されてもよい。 For example, the surrounding image estimation device 1 according to the embodiment of the present disclosure may function as a computer that performs the processing of the surrounding image estimation method of the present disclosure. FIG. 16 is a diagram illustrating an example of a hardware configuration of the surrounding image estimation device 1 according to an embodiment of the present disclosure. The ambient image estimation device 1 described above may be physically configured as a computer device including a processor 1001, a memory 1002, a storage 1003, a communication device 1004, an input device 1005, an output device 1006, a bus 1007, and the like.

なお、以下の説明では、「装置」という文言は、回路、デバイス、ユニットなどに読み替えることができる。周囲画像推定装置1のハードウェア構成は、図に示した各装置を1つ又は複数含むように構成されてもよいし、一部の装置を含まずに構成されてもよい。 Note that in the following description, the term "apparatus" can be read as a circuit, device, unit, or the like. The hardware configuration of the surrounding image estimation device 1 may be configured to include one or more of each device shown in the figure, or may be configured without some devices.

周囲画像推定装置1における各機能は、プロセッサ1001、メモリ1002などのハードウェア上に所定のソフトウェア(プログラム)を読み込ませることによって、プロセッサ1001が演算を行い、通信装置1004による通信を制御したり、メモリ1002及びストレージ1003におけるデータの読み出し及び書き込みの少なくとも一方を制御したりすることによって実現される。 Each function in the surrounding image estimation device 1 is performed by the processor 1001 performing calculations by loading predetermined software (programs) onto hardware such as the processor 1001 and the memory 1002, controlling communication by the communication device 1004, It is realized by controlling at least one of data reading and writing in the memory 1002 and the storage 1003 .

プロセッサ1001は、例えば、オペレーティングシステムを動作させてコンピュータ全体を制御する。プロセッサ1001は、周辺装置とのインターフェース、制御装置、演算装置、レジスタなどを含む中央処理装置(CPU:Central Processing Unit)によって構成されてもよい。例えば、上述の取得部11、推定部12、算出部13及び出力部14などは、プロセッサ1001によって実現されてもよい。 The processor 1001, for example, operates an operating system to control the entire computer. The processor 1001 may be configured by a central processing unit (CPU) including an interface with peripheral devices, a control device, an arithmetic device, registers, and the like. For example, the acquisition unit 11 , the estimation unit 12 , the calculation unit 13 , the output unit 14 and the like described above may be implemented by the processor 1001 .

また、プロセッサ1001は、プログラム(プログラムコード)、ソフトウェアモジュール、データなどを、ストレージ1003及び通信装置1004の少なくとも一方からメモリ1002に読み出し、これらに従って各種の処理を実行する。プログラムとしては、上述の実施の形態において説明した動作の少なくとも一部をコンピュータに実行させるプログラムが用いられる。例えば、取得部11、推定部12、算出部13及び出力部14は、メモリ1002に格納され、プロセッサ1001において動作する制御プログラムによって実現されてもよく、他の機能ブロックについても同様に実現されてもよい。上述の各種処理は、1つのプロセッサ1001によって実行される旨を説明してきたが、2以上のプロセッサ1001により同時又は逐次に実行されてもよい。プロセッサ1001は、1以上のチップによって実装されてもよい。なお、プログラムは、電気通信回線を介してネットワークから送信されても良い。 The processor 1001 also reads programs (program codes), software modules, data, etc. from at least one of the storage 1003 and the communication device 1004 to the memory 1002, and executes various processes according to these. As the program, a program that causes a computer to execute at least part of the operations described in the above embodiments is used. For example, the acquiring unit 11, the estimating unit 12, the calculating unit 13, and the output unit 14 may be stored in the memory 1002 and implemented by a control program that operates on the processor 1001, and other functional blocks may be implemented in the same way. good too. Although it has been explained that the above-described various processes are executed by one processor 1001, they may be executed simultaneously or sequentially by two or more processors 1001. FIG. Processor 1001 may be implemented by one or more chips. Note that the program may be transmitted from a network via an electric communication line.

メモリ1002は、コンピュータ読み取り可能な記録媒体であり、例えば、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable Programmable ROM)、RAM(Random Access Memory)などの少なくとも1つによって構成されてもよい。メモリ1002は、レジスタ、キャッシュ、メインメモリ(主記憶装置)などと呼ばれてもよい。メモリ1002は、本開示の一実施の形態に係る無線通信方法を実施するために実行可能なプログラム(プログラムコード)、ソフトウェアモジュールなどを保存することができる。 The memory 1002 is a computer-readable recording medium, and is composed of at least one of, for example, ROM (Read Only Memory), EPROM (Erasable Programmable ROM), EEPROM (Electrically Erasable Programmable ROM), and RAM (Random Access Memory). may be The memory 1002 may also be called a register, cache, main memory (main storage device), or the like. The memory 1002 can store executable programs (program code), software modules, etc. for implementing a wireless communication method according to an embodiment of the present disclosure.

ストレージ1003は、コンピュータ読み取り可能な記録媒体であり、例えば、CD-ROM(Compact Disc ROM)などの光ディスク、ハードディスクドライブ、フレキシブルディスク、光磁気ディスク(例えば、コンパクトディスク、デジタル多用途ディスク、Blu-ray(登録商標)ディスク)、スマートカード、フラッシュメモリ(例えば、カード、スティック、キードライブ)、フロッピー(登録商標)ディスク、磁気ストリップなどの少なくとも1つによって構成されてもよい。ストレージ1003は、補助記憶装置と呼ばれてもよい。上述の記憶媒体は、例えば、メモリ1002及びストレージ1003の少なくとも一方を含むデータベース、サーバその他の適切な媒体であってもよい。 The storage 1003 is a computer-readable recording medium, for example, an optical disk such as a CD-ROM (Compact Disc ROM), a hard disk drive, a flexible disk, a magneto-optical disk (for example, a compact disk, a digital versatile disk, a Blu-ray disk), smart card, flash memory (eg, card, stick, key drive), floppy disk, magnetic strip, and/or the like. Storage 1003 may also be called an auxiliary storage device. The storage medium described above may be, for example, a database, server, or other suitable medium including at least one of memory 1002 and storage 1003 .

通信装置1004は、有線ネットワーク及び無線ネットワークの少なくとも一方を介してコンピュータ間の通信を行うためのハードウェア(送受信デバイス)であり、例えばネットワークデバイス、ネットワークコントローラ、ネットワークカード、通信モジュールなどともいう。通信装置1004は、例えば周波数分割複信(FDD:Frequency Division Duplex)及び時分割複信(TDD:Time Division Duplex)の少なくとも一方を実現するために、高周波スイッチ、デュプレクサ、フィルタ、周波数シンセサイザなどを含んで構成されてもよい。例えば、上述の取得部11、推定部12、算出部13及び出力部14などは、通信装置1004によって実現されてもよい。 The communication device 1004 is hardware (transmitting/receiving device) for communicating between computers via at least one of a wired network and a wireless network, and is also called a network device, a network controller, a network card, a communication module, or the like. The communication device 1004 includes a high-frequency switch, a duplexer, a filter, a frequency synthesizer, and the like, for example, in order to realize at least one of frequency division duplex (FDD) and time division duplex (TDD). may consist of For example, the acquisition unit 11 , the estimation unit 12 , the calculation unit 13 , the output unit 14 and the like described above may be implemented by the communication device 1004 .

入力装置1005は、外部からの入力を受け付ける入力デバイス(例えば、キーボード、マウス、マイクロフォン、スイッチ、ボタン、センサなど)である。出力装置1006は、外部への出力を実施する出力デバイス(例えば、ディスプレイ、スピーカー、LEDランプなど)である。なお、入力装置1005及び出力装置1006は、一体となった構成(例えば、タッチパネル)であってもよい。 The input device 1005 is an input device (for example, keyboard, mouse, microphone, switch, button, sensor, etc.) that receives input from the outside. The output device 1006 is an output device (for example, display, speaker, LED lamp, etc.) that outputs to the outside. Note that the input device 1005 and the output device 1006 may be integrated (for example, a touch panel).

また、プロセッサ1001、メモリ1002などの各装置は、情報を通信するためのバス1007によって接続される。バス1007は、単一のバスを用いて構成されてもよいし、装置間ごとに異なるバスを用いて構成されてもよい。 Devices such as the processor 1001 and the memory 1002 are connected by a bus 1007 for communicating information. The bus 1007 may be configured using a single bus, or may be configured using different buses between devices.

また、周囲画像推定装置1は、マイクロプロセッサ、デジタル信号プロセッサ(DSP:Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)などのハードウェアを含んで構成されてもよく、当該ハードウェアにより、各機能ブロックの一部又は全てが実現されてもよい。例えば、プロセッサ1001は、これらのハードウェアの少なくとも1つを用いて実装されてもよい。 In addition, the surrounding image estimation device 1 includes hardware such as a microprocessor, a digital signal processor (DSP), an ASIC (Application Specific Integrated Circuit), a PLD (Programmable Logic Device), and an FPGA (Field Programmable Gate Array). part or all of each functional block may be implemented by the hardware. For example, processor 1001 may be implemented using at least one of these pieces of hardware.

情報の通知は、本開示において説明した態様/実施形態に限られず、他の方法を用いて行われてもよい。 Notification of information is not limited to the aspects/embodiments described in this disclosure, and may be performed using other methods.

本開示において説明した各態様/実施形態は、LTE(Long Term Evolution)、LTE-A(LTE-Advanced)、SUPER 3G、IMT-Advanced、4G(4th generation mobile communication system)、5G(5th generation mobile communication system)、FRA(Future Radio Access)、NR(new Radio)、W-CDMA(登録商標)、GSM(登録商標)、CDMA2000、UMB(Ultra Mobile Broadband)、IEEE 802.11(Wi-Fi(登録商標))、IEEE 802.16(WiMAX(登録商標))、IEEE 802.20、UWB(Ultra-WideBand)、Bluetooth(登録商標)、その他の適切なシステムを利用するシステム及びこれらに基づいて拡張された次世代システムの少なくとも一つに適用されてもよい。また、複数のシステムが組み合わされて(例えば、LTE及びLTE-Aの少なくとも一方と5Gとの組み合わせ等)適用されてもよい。 Each aspect/embodiment described in the present disclosure includes LTE (Long Term Evolution), LTE-A (LTE-Advanced), SUPER 3G, IMT-Advanced, 4G (4th generation mobile communication system), 5G (5th generation mobile communication system), FRA (Future Radio Access), NR (new Radio), W-CDMA (registered trademark), GSM (registered trademark), CDMA2000, UMB (Ultra Mobile Broadband), IEEE 802.11 (Wi-Fi (registered trademark) )), IEEE 802.16 (WiMAX®), IEEE 802.20, UWB (Ultra-WideBand), Bluetooth®, and other suitable systems and extended It may be applied to at least one of the next generation systems. Also, a plurality of systems may be applied in combination (for example, a combination of at least one of LTE and LTE-A and 5G, etc.).

本開示において説明した各態様/実施形態の処理手順、シーケンス、フローチャートなどは、矛盾の無い限り、順序を入れ替えてもよい。例えば、本開示において説明した方法については、例示的な順序を用いて様々なステップの要素を提示しており、提示した特定の順序に限定されない。 The processing procedures, sequences, flowcharts, etc. of each aspect/embodiment described in this disclosure may be rearranged as long as there is no contradiction. For example, the methods described in this disclosure present elements of the various steps using a sample order, and are not limited to the specific order presented.

入出力された情報等は特定の場所(例えば、メモリ)に保存されてもよいし、管理テーブルを用いて管理してもよい。入出力される情報等は、上書き、更新、又は追記され得る。出力された情報等は削除されてもよい。入力された情報等は他の装置へ送信されてもよい。 Input/output information and the like may be stored in a specific location (for example, memory), or may be managed using a management table. Input/output information and the like can be overwritten, updated, or appended. The output information and the like may be deleted. The entered information and the like may be transmitted to another device.

判定は、1ビットで表される値(0か1か)によって行われてもよいし、真偽値(Boolean:true又はfalse)によって行われてもよいし、数値の比較(例えば、所定の値との比較)によって行われてもよい。 The determination may be made by a value represented by one bit (0 or 1), by a true/false value (Boolean: true or false), or by numerical comparison (for example, a predetermined value).

本開示において説明した各態様/実施形態は単独で用いてもよいし、組み合わせて用いてもよいし、実行に伴って切り替えて用いてもよい。また、所定の情報の通知(例えば、「Xであること」の通知)は、明示的に行うものに限られず、暗黙的(例えば、当該所定の情報の通知を行わない)ことによって行われてもよい。 Each aspect/embodiment described in the present disclosure may be used alone, may be used in combination, or may be used by switching according to execution. In addition, the notification of predetermined information (for example, notification of “being X”) is not limited to being performed explicitly, but may be performed implicitly (for example, not notifying the predetermined information). good too.

以上、本開示について詳細に説明したが、当業者にとっては、本開示が本開示中に説明した実施形態に限定されるものではないということは明らかである。本開示は、請求の範囲の記載により定まる本開示の趣旨及び範囲を逸脱することなく修正及び変更態様として実施することができる。したがって、本開示の記載は、例示説明を目的とするものであり、本開示に対して何ら制限的な意味を有するものではない。 Although the present disclosure has been described in detail above, it should be apparent to those skilled in the art that the present disclosure is not limited to the embodiments described in this disclosure. The present disclosure can be practiced with modifications and variations without departing from the spirit and scope of the present disclosure as defined by the claims. Accordingly, the description of the present disclosure is for illustrative purposes and is not meant to be limiting in any way.

ソフトウェアは、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語と呼ばれるか、他の名称で呼ばれるかを問わず、命令、命令セット、コード、コードセグメント、プログラムコード、プログラム、サブプログラム、ソフトウェアモジュール、アプリケーション、ソフトウェアアプリケーション、ソフトウェアパッケージ、ルーチン、サブルーチン、オブジェクト、実行可能ファイル、実行スレッド、手順、機能などを意味するよう広く解釈されるべきである。 Software, whether referred to as software, firmware, middleware, microcode, hardware description language or otherwise, includes instructions, instruction sets, code, code segments, program code, programs, subprograms, and software modules. , applications, software applications, software packages, routines, subroutines, objects, executables, threads of execution, procedures, functions, and the like.

また、ソフトウェア、命令、情報などは、伝送媒体を介して送受信されてもよい。例えば、ソフトウェアが、有線技術(同軸ケーブル、光ファイバケーブル、ツイストペア、デジタル加入者回線(DSL:Digital Subscriber Line)など)及び無線技術(赤外線、マイクロ波など)の少なくとも一方を使用してウェブサイト、サーバ、又は他のリモートソースから送信される場合、これらの有線技術及び無線技術の少なくとも一方は、伝送媒体の定義内に含まれる。 Software, instructions, information, etc. may also be sent and received over a transmission medium. For example, the software uses wired technology (coaxial cable, fiber optic cable, twisted pair, Digital Subscriber Line (DSL), etc.) and/or wireless technology (infrared, microwave, etc.) to create websites, Wired and/or wireless technologies are included within the definition of transmission medium when sent from a server or other remote source.

本開示において説明した情報、信号などは、様々な異なる技術のいずれかを使用して表されてもよい。例えば、上記の説明全体に渡って言及され得るデータ、命令、コマンド、情報、信号、ビット、シンボル、チップなどは、電圧、電流、電磁波、磁界若しくは磁性粒子、光場若しくは光子、又はこれらの任意の組み合わせによって表されてもよい。 Information, signals, etc. described in this disclosure may be represented using any of a variety of different technologies. For example, data, instructions, commands, information, signals, bits, symbols, chips, etc. that may be referred to throughout the above description may refer to voltages, currents, electromagnetic waves, magnetic fields or magnetic particles, light fields or photons, or any of these. may be represented by a combination of

なお、本開示において説明した用語及び本開示の理解に必要な用語については、同一の又は類似する意味を有する用語と置き換えてもよい。 The terms explained in this disclosure and the terms necessary for understanding the present disclosure may be replaced with terms having the same or similar meanings.

本開示において使用する「システム」及び「ネットワーク」という用語は、互換的に使用される。 As used in this disclosure, the terms "system" and "network" are used interchangeably.

また、本開示において説明した情報、パラメータなどは、絶対値を用いて表されてもよいし、所定の値からの相対値を用いて表されてもよいし、対応する別の情報を用いて表されてもよい。 In addition, the information, parameters, etc. described in the present disclosure may be expressed using absolute values, may be expressed using relative values from a predetermined value, or may be expressed using other corresponding information. may be represented.

上述したパラメータに使用する名称はいかなる点においても限定的な名称ではない。さらに、これらのパラメータを使用する数式等は、本開示で明示的に開示したものと異なる場合もある。 The names used for the parameters described above are not limiting names in any way. Further, the formulas, etc., using these parameters may differ from those expressly disclosed in this disclosure.

本開示で使用する「判断(determining)」、「決定(determining)」という用語は、多種多様な動作を包含する場合がある。「判断」、「決定」は、例えば、判定(judging)、計算(calculating)、算出(computing)、処理(processing)、導出(deriving)、調査(investigating)、探索(looking up、search、inquiry)(例えば、テーブル、データベース又は別のデータ構造での探索)、確認(ascertaining)した事を「判断」「決定」したとみなす事などを含み得る。また、「判断」、「決定」は、受信(receiving)(例えば、情報を受信すること)、送信(transmitting)(例えば、情報を送信すること)、入力(input)、出力(output)、アクセス(accessing)(例えば、メモリ中のデータにアクセスすること)した事を「判断」「決定」したとみなす事などを含み得る。また、「判断」、「決定」は、解決(resolving)、選択(selecting)、選定(choosing)、確立(establishing)、比較(comparing)などした事を「判断」「決定」したとみなす事を含み得る。つまり、「判断」「決定」は、何らかの動作を「判断」「決定」したとみなす事を含み得る。また、「判断(決定)」は、「想定する(assuming)」、「期待する(expecting)」、「みなす(considering)」などで読み替えられてもよい。 As used in this disclosure, the terms "determining" and "determining" may encompass a wide variety of actions. "Judgement", "determining" are, for example, judging, calculating, computing, processing, deriving, investigating, looking up, searching, inquiring (eg, lookup in a table, database, or other data structure), ascertaining as "judged" or "determined", and the like. Also, "judgment" and "decision" are used for receiving (e.g., receiving information), transmitting (e.g., transmitting information), input, output, access (accessing) (for example, accessing data in memory) may include deeming that something has been "determined" or "decided". In addition, "judgment" and "decision" are considered to be "judgment" and "decision" by resolving, selecting, choosing, establishing, comparing, etc. can contain. In other words, "judgment" and "decision" may include considering that some action is "judgment" and "decision". Also, "judgment (decision)" may be read as "assuming", "expecting", "considering", or the like.

「接続された(connected)」、「結合された(coupled)」という用語、又はこれらのあらゆる変形は、2又はそれ以上の要素間の直接的又は間接的なあらゆる接続又は結合を意味し、互いに「接続」又は「結合」された2つの要素間に1又はそれ以上の中間要素が存在することを含むことができる。要素間の結合又は接続は、物理的なものであっても、論理的なものであっても、或いはこれらの組み合わせであってもよい。例えば、「接続」は「アクセス」で読み替えられてもよい。本開示で使用する場合、2つの要素は、1又はそれ以上の電線、ケーブル及びプリント電気接続の少なくとも一つを用いて、並びにいくつかの非限定的かつ非包括的な例として、無線周波数領域、マイクロ波領域及び光(可視及び不可視の両方)領域の波長を有する電磁エネルギーなどを用いて、互いに「接続」又は「結合」されると考えることができる。 The terms "connected," "coupled," or any variation thereof mean any direct or indirect connection or connection between two or more elements, It can include the presence of one or more intermediate elements between two elements being "connected" or "coupled." Couplings or connections between elements may be physical, logical, or a combination thereof. For example, "connection" may be read as "access". As used in this disclosure, two elements are defined using at least one of one or more wires, cables, and printed electrical connections and, as some non-limiting and non-exhaustive examples, in the radio frequency domain. , electromagnetic energy having wavelengths in the microwave and optical (both visible and invisible) regions, and the like.

本開示において使用する「に基づいて」という記載は、別段に明記されていない限り、「のみに基づいて」を意味しない。言い換えれば、「に基づいて」という記載は、「のみに基づいて」と「に少なくとも基づいて」の両方を意味する。 As used in this disclosure, the phrase "based on" does not mean "based only on," unless expressly specified otherwise. In other words, the phrase "based on" means both "based only on" and "based at least on."

本開示において使用する「第1の」、「第2の」などの呼称を使用した要素へのいかなる参照も、それらの要素の量又は順序を全般的に限定しない。これらの呼称は、2つ以上の要素間を区別する便利な方法として本開示において使用され得る。したがって、第1及び第2の要素への参照は、2つの要素のみが採用され得ること、又は何らかの形で第1の要素が第2の要素に先行しなければならないことを意味しない。 Any reference to elements using the "first," "second," etc. designations used in this disclosure does not generally limit the quantity or order of those elements. These designations may be used in this disclosure as a convenient method of distinguishing between two or more elements. Thus, reference to a first and second element does not imply that only two elements can be employed or that the first element must precede the second element in any way.

上記の各装置の構成における「手段」を、「部」、「回路」、「デバイス」等に置き換えてもよい。 The “means” in the configuration of each device described above may be replaced with “unit”, “circuit”, “device”, or the like.

本開示において、「含む(include)」、「含んでいる(including)」及びそれらの変形が使用されている場合、これらの用語は、用語「備える(comprising)」と同様に、包括的であることが意図される。さらに、本開示において使用されている用語「又は(or)」は、排他的論理和ではないことが意図される。 Where "include," "including," and variations thereof are used in this disclosure, these terms are inclusive, as is the term "comprising." is intended. Furthermore, the term "or" as used in this disclosure is not intended to be an exclusive OR.

本開示において、例えば、英語でのa、an及びtheのように、翻訳により冠詞が追加された場合、本開示は、これらの冠詞の後に続く名詞が複数形であることを含んでもよい。 In this disclosure, where articles have been added by translation, such as a, an, and the in English, the disclosure may include the plural nouns following these articles.

本開示において、「AとBが異なる」という用語は、「AとBが互いに異なる」ことを意味してもよい。なお、当該用語は、「AとBがそれぞれCと異なる」ことを意味してもよい。「離れる」、「結合される」などの用語も、「異なる」と同様に解釈されてもよい。 In the present disclosure, the term "A and B are different" may mean "A and B are different from each other." The term may also mean that "A and B are different from C". Terms such as "separate," "coupled," etc. may also be interpreted in the same manner as "different."

1…周囲画像推定装置、2・2a…移動体、3・3a・3b…カメラ、4…周囲画像推定システム、10…格納部、11…取得部、12…推定部、13…算出部、14…出力部、1001…プロセッサ、1002…メモリ、1003…ストレージ、1004…通信装置、1005…入力装置、1006…出力装置、1007…バス、B1…オブジェクト、B2・B3・B4…人、C…監視カメラ、R1・R2…領域、S・Sa・Sb…周囲画像。 DESCRIPTION OF SYMBOLS 1... Surrounding image estimation apparatus 2*2a... Moving body 3*3a*3b... Camera 4... Surrounding image estimation system 10... Storage part 11... Acquisition part 12... Estimation part 13... Calculation part 14 1001: Processor 1002: Memory 1003: Storage 1004: Communication device 1005: Input device 1006: Output device 1007: Bus B1: Object B2/B3/B4: People C: Monitor Cameras, R1 and R2...areas, S, Sa, and Sb...surrounding images.

Claims (10)

移動する物体に備えられた撮像手段により撮像された周囲画像に基づいて、所定時間後に前記撮像手段により撮像される周囲画像を推定する推定部と、
前記推定部によって推定された周囲画像と、前記所定時間後に前記撮像手段により実際に撮像された周囲画像との合致度を算出する算出部と、
前記算出部によって算出された前記合致度に基づいた出力を行う出力部と、
を備える周囲画像推定装置。
an estimating unit for estimating a surrounding image captured by the imaging means after a predetermined time based on the surrounding image captured by the imaging means provided for the moving object;
a calculating unit for calculating a degree of matching between the surrounding image estimated by the estimating unit and the surrounding image actually captured by the imaging means after the predetermined time;
an output unit that outputs based on the degree of matching calculated by the calculation unit;
An ambient image estimation device comprising:
前記出力部は、前記算出部によって算出された前記合致度に基づいて、前記合致度が所定の基準を満たす前記所定時間を算出し、前記推定部によって推定された当該所定時間後の周囲画像を出力する、
請求項1に記載の周囲画像推定装置。
The output unit calculates the predetermined time when the degree of matching satisfies a predetermined standard based on the degree of matching calculated by the calculating unit, and outputs the surrounding image after the predetermined time estimated by the estimating unit. Output,
The ambient image estimation device according to claim 1.
前記推定部は、複数の異なる前記所定時間それぞれに対応する周囲画像を推定し、
前記算出部は、前記推定部によって推定された複数の周囲画像それぞれに対して前記合致度を算出し、
前記出力部は、前記算出部によって算出された複数の前記合致度のうち所定の基準を満たす前記合致度を選択し、選択した当該合致度の基となった前記所定時間を、前記合致度が所定の基準を満たす前記所定時間として算出する、
請求項2に記載の周囲画像推定装置。
The estimating unit estimates surrounding images corresponding to each of the plurality of different predetermined times,
The calculation unit calculates the matching degree for each of the plurality of surrounding images estimated by the estimation unit;
The output unit selects the degree of matching that satisfies a predetermined criterion from among the plurality of degrees of matching calculated by the calculating unit, and outputs the predetermined time on which the selected degree of matching is based on the degree of matching. Calculate as the predetermined time that satisfies a predetermined criterion,
The ambient image estimation device according to claim 2.
前記撮像手段は、撮像している画像中のオブジェクトとの距離を計測可能な第一のカメラと、周囲を撮像可能な第二のカメラとから構成され、
前記推定部は、前記第一のカメラにより撮像された画像中のオブジェクトとの距離と、前記第二のカメラにより撮像された周囲画像とに基づいて推定する、
請求項1~3の何れか一項に記載の周囲画像推定装置。
The imaging means comprises a first camera capable of measuring the distance to an object in the image being imaged and a second camera capable of imaging the surroundings,
The estimation unit estimates based on a distance to an object in an image captured by the first camera and a surrounding image captured by the second camera.
A surrounding image estimation device according to any one of claims 1 to 3.
前記出力部は、前記撮像手段により撮像された周囲画像が前記物体の移動を制御する制御者に表示されるまでの伝送遅延時間にさらに基づいた出力を行う、
請求項1~4の何れか一項に記載の周囲画像推定装置。
The output unit performs output further based on a transmission delay time until the surrounding image captured by the imaging means is displayed to a controller controlling movement of the object.
The ambient image estimation device according to any one of claims 1 to 4.
前記出力部は、前記算出部によって算出された前記合致度に基づいて、前記合致度が所定の基準を満たす前記所定時間を算出し、前記伝送遅延時間が当該所定時間以内の場合に、前記推定部によって推定された当該伝送遅延時間後の周囲画像を出力する、
請求項5に記載の周囲画像推定装置。
The output unit calculates the predetermined time when the degree of matching satisfies a predetermined standard based on the degree of matching calculated by the calculating unit, and calculates the predetermined time when the transmission delay time is within the predetermined time. outputting a surrounding image after the transmission delay time estimated by the unit;
The ambient image estimation device according to claim 5.
前記出力部は、前記推定部による推定の推定精度にさらに基づいた出力を行う、
請求項1~6の何れか一項に記載の周囲画像推定装置。
The output unit performs output further based on the estimation accuracy of the estimation by the estimation unit.
The ambient image estimation device according to any one of claims 1 to 6.
前記推定部は、前記所定時間後の前記物体の予測位置付近の地図情報にさらに基づいて推定する、
請求項1~7の何れか一項に記載の周囲画像推定装置。
The estimation unit further estimates based on map information near the predicted position of the object after the predetermined time.
The surrounding image estimation device according to any one of claims 1 to 7.
前記推定部は、前記所定時間後の前記物体の予測位置付近に存在する別の撮像手段により撮像された周囲画像にさらに基づいて推定する、
請求項1~8の何れか一項に記載の周囲画像推定装置。
The estimating unit further estimates based on a surrounding image captured by another imaging means existing near the predicted position of the object after the predetermined time.
A surrounding image estimation device according to any one of claims 1 to 8.
前記推定部は、前記所定時間後の前記物体の予測位置付近の地図情報と、当該予測位置付近に存在する別の撮像手段により撮像された周囲画像に含まれるオブジェクトとにさらに基づいて推定する、
請求項1~9の何れか一項に記載の周囲画像推定装置。
The estimating unit further estimates based on map information in the vicinity of the predicted position of the object after the predetermined time and an object included in a surrounding image captured by another imaging means existing in the vicinity of the predicted position,
A surrounding image estimation device according to any one of claims 1 to 9.
JP2021151888A 2021-09-17 2021-09-17 Device for estimating surrounding image Pending JP2023044054A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021151888A JP2023044054A (en) 2021-09-17 2021-09-17 Device for estimating surrounding image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021151888A JP2023044054A (en) 2021-09-17 2021-09-17 Device for estimating surrounding image

Publications (1)

Publication Number Publication Date
JP2023044054A true JP2023044054A (en) 2023-03-30

Family

ID=85725598

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021151888A Pending JP2023044054A (en) 2021-09-17 2021-09-17 Device for estimating surrounding image

Country Status (1)

Country Link
JP (1) JP2023044054A (en)

Similar Documents

Publication Publication Date Title
US9641814B2 (en) Crowd sourced vision and sensor-surveyed mapping
CN108603933B (en) System and method for fusing sensor outputs with different resolutions
US20170263129A1 (en) Object detecting device, object detecting method, and computer program product
JP6462528B2 (en) MOBILE BODY TRACKING DEVICE, MOBILE BODY TRACKING METHOD, AND MOBILE BODY TRACKING PROGRAM
JP2022542413A (en) Projection method and projection system
CN113936085A (en) Three-dimensional reconstruction method and device
WO2019087891A1 (en) Information processing device and flight control system
WO2021088497A1 (en) Virtual object display method, global map update method, and device
US11836978B2 (en) Related information output device
JP2023044054A (en) Device for estimating surrounding image
WO2021192873A1 (en) Positioning system
US20220295017A1 (en) Rendezvous assistance apparatus, rendezvous assistance system, and rendezvous assistance method
JP6945004B2 (en) Information processing device
CN116533987A (en) Parking path determination method, device, equipment and automatic driving vehicle
JP7246255B2 (en) Information processing device and program
WO2020115945A1 (en) Positioning system
JP7267105B2 (en) Information processing device and program
JPWO2020115944A1 (en) Map data generator
JP2022165254A (en) Information processing device and program
WO2021075317A1 (en) Ar system and terminal
WO2022163651A1 (en) Information processing system
WO2023008277A1 (en) Content sharing system
WO2021172137A1 (en) Content sharing system and terminal
JP7246254B2 (en) Information processing device and program
JP2023035543A (en) Moving body and monitoring support system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240205