JP2023044054A - Device for estimating surrounding image - Google Patents
Device for estimating surrounding image Download PDFInfo
- Publication number
- JP2023044054A JP2023044054A JP2021151888A JP2021151888A JP2023044054A JP 2023044054 A JP2023044054 A JP 2023044054A JP 2021151888 A JP2021151888 A JP 2021151888A JP 2021151888 A JP2021151888 A JP 2021151888A JP 2023044054 A JP2023044054 A JP 2023044054A
- Authority
- JP
- Japan
- Prior art keywords
- surrounding image
- unit
- surrounding
- predetermined time
- estimation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000005540 biological transmission Effects 0.000 claims description 30
- 238000003384 imaging method Methods 0.000 claims description 17
- 238000010586 diagram Methods 0.000 description 26
- 238000000034 method Methods 0.000 description 20
- 238000012545 processing Methods 0.000 description 14
- 238000004891 communication Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 11
- 239000013598 vector Substances 0.000 description 7
- 230000008569 process Effects 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 5
- 230000001133 acceleration Effects 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 238000012544 monitoring process Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 235000015842 Hesperis Nutrition 0.000 description 1
- 235000012633 Iberis amara Nutrition 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 239000006249 magnetic particle Substances 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000007480 spreading Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
本開示の一側面は、周囲画像を推定する周囲画像推定装置に関する。 One aspect of the present disclosure relates to a surrounding image estimation device that estimates a surrounding image.
下記特許文献1には、移動体の周囲を撮像した周囲画像を用いる画像情報処理装置が開示されている。 Japanese Unexamined Patent Application Publication No. 2002-200001 discloses an image information processing apparatus that uses a surrounding image obtained by capturing the surroundings of a moving object.
上記画像情報処理装置では実際に撮像された周囲画像を用いるため、例えば、推定した近未来の周囲画像に基づく処理を行うことはできない。そこで、移動する物体の近未来の周囲画像を推定することが望まれている。 Since the image information processing apparatus uses an actually captured image of the surroundings, for example, it is not possible to perform processing based on an estimated image of the surroundings in the near future. Therefore, it is desired to estimate a near-future surrounding image of a moving object.
本開示の一側面に係る周囲画像推定装置は、移動する物体に備えられた撮像手段により撮像された周囲画像に基づいて、所定時間後に撮像手段により撮像される周囲画像を推定する推定部と、推定部によって推定された周囲画像と、所定時間後に撮像手段により実際に撮像された周囲画像との合致度を算出する算出部と、算出部によって算出された合致度に基づいた出力を行う出力部と、を備える。 A surrounding image estimating device according to one aspect of the present disclosure includes an estimating unit that estimates a surrounding image captured by an imaging means after a predetermined time based on a surrounding image captured by an imaging means provided for a moving object; A calculating unit that calculates the degree of matching between the surrounding image estimated by the estimating unit and the surrounding image actually captured by the imaging means after a predetermined time, and an output unit that outputs based on the degree of matching calculated by the calculating unit. And prepare.
このような側面においては、移動する物体に備えられた撮像手段により所定時間後に撮像される周囲画像が推定される。すなわち、移動する物体の近未来の周囲画像を推定することができる。 In this aspect, an image of the surroundings captured after a predetermined period of time by an imaging means provided on a moving object is estimated. That is, it is possible to estimate a near-future surrounding image of a moving object.
本開示の一側面によれば、移動する物体の近未来の周囲画像を推定することができる。 According to one aspect of the present disclosure, a near-future ambient image of a moving object can be estimated.
以下、図面を参照しながら本開示での実施形態を詳細に説明する。なお、図面の説明においては同一要素には同一符号を付し、重複する説明を省略する。また、以下の説明における本開示での実施形態は、本発明の具体例であり、特に本発明を限定する旨の記載がない限り、これらの実施形態に限定されないものとする。 Hereinafter, embodiments of the present disclosure will be described in detail with reference to the drawings. In the description of the drawings, the same elements are denoted by the same reference numerals, and overlapping descriptions are omitted. In addition, the embodiments of the present disclosure in the following description are specific examples of the present invention, and the present invention is not limited to these embodiments unless specifically stated to limit the present invention.
図1は、実施形態に係る周囲画像推定装置1を含む周囲画像推定システム4のシステム構成の一例を示す図である。図1に示す通り、周囲画像推定システム4は、周囲画像推定装置1(周囲画像推定装置)と、移動体2(移動する物体)と、移動体2に備えられたカメラ3(撮像手段)とを含んで構成される。周囲画像推定装置1と移動体2とはネットワークなどを介して互いに通信接続され、互いに任意の情報を任意のタイミングで送受信可能である。
FIG. 1 is a diagram showing an example of a system configuration of a surrounding image estimation system 4 including a surrounding
周囲画像推定装置1は、移動体2の近未来の周囲画像を推定するコンピュータ装置である。周囲画像推定装置1は、移動体2から離れた場所(遠隔)に位置していてもよいし、移動体2に備えられていてもよい。また、周囲画像推定装置1の一部が移動体2から離れた場所(遠隔)に位置し、周囲画像推定装置1の残りの部分が移動体2に備えられていてもよい。その場合、周囲画像推定装置1の一部と残りの部分とは無線ネットワークなどを介して互いに通信接続され、一部と残りの部分とが一体となって周囲画像推定装置1として機能する。周囲画像推定装置1の詳細については後述する。
The surrounding
移動体2は、移動する(移動可能な)物体である。物体は、人工物のような無生物であってもよいし、人のような生物であってもよい。移動体2は、例えば、車椅子、自転車、車及びトラックなどの車両、飛行機、ヘリコプター、ロケット及びドローンなどの飛行体、船(潜水艇も含む)、人、並びに、動物などである。移動体2は、それ自体が備える移動能力を用いて移動してもよいし、それ自体で移動能力を備えずに他の移動能力を用いて移動してもよい。移動体2は、位置情報を取得可能なGPS(Global Positioning System)、加速度センサ、角速度センサ及び磁気センサなどを備えてもよい。移動体2は、各種センサを用いて自身の現在の位置、加速度、速度及び移動(進行)方向並びに現在のタイムスタンプを含む移動情報を定期的に(例えば毎秒)生成し、ネットワークなどを介して周囲画像推定装置1に送信してもよい。
The moving
カメラ3は、撮像手段である。カメラ3は、周囲(周辺、近辺、近く、周り、近隣、側、あたり)を撮像し、周囲の画像である周囲画像を出力する。カメラ3は、周囲画像の時間的連なりである周囲映像(周囲動画)を出力してもよい。本実施形態では周囲画像を用いることを想定するが、それに限らず、周囲映像を用いてもよい。すなわち、本実施形態において、用語「画像」は、「映像」又は「動画」に適宜置き換えてもよい。
The
カメラ3は、撮像している画像中のオブジェクトとの距離(奥行き情報)を計測可能なカメラ3a(第一のカメラ)と、周囲を撮像可能なカメラ3b(第二のカメラ)とから構成されてもよい。カメラ3aは、例えば、ステレオカメラ又はLiDAR(Light Detection and Ranging、又は、Laser Imaging Detection and Ranging)カメラなどである。カメラ3bは、例えば、360度カメラ又は複数方向を撮像可能なカメラなどである。カメラ3bは、特殊なカメラではなく一般的なカメラであってもよい。カメラ3は、複数(2つ以上)のカメラから構成されてもよい。本実施形態において、複数のカメラで構成されるカメラ3により撮像された複数の周囲画像を総称して、カメラ3により撮像された周囲画像と適宜記す。カメラ3は、周囲画像を出力する際に、当該周囲画像に関する任意の情報である周囲情報を出力してもよい。周囲情報は、周囲画像を撮像したタイミングのタイムスタンプと、周囲画像中のオブジェクト及び当該オブジェクトとの距離に関する情報とを含んでもよい。
The
カメラ3により出力された周囲画像及び周囲情報は、移動体2及びネットワークなどを介して周囲画像推定装置1に送信され、周囲画像推定装置1の出力装置1006(後述)などを介して、移動体2の移動を制御する制御者に表示されてもよい。また、制御者が、移動体2の移動の制御(前進、右折、停止など)に関する制御情報を周囲画像推定装置1から移動体2に送信し、移動体2が当該制御情報に従った移動を行ってもよい。すなわち、制御者は、移動体2から送信される周囲画像及び周囲情報に基づいて、移動体2の移動を遠隔制御(遠隔操縦、遠隔操作)してもよい。
The surrounding image and surrounding information output by the
カメラ3は、移動体2が備える上述の各種センサを備え、(移動体2ではなく)カメラ3が、上述の移動情報を定期的に(例えば毎秒)生成し、ネットワークなどを介して周囲画像推定装置1に送信してもよい。
The
図1において、移動体2は道路上を走行(移動)する車である。周囲画像Sは、移動体2に備えられたカメラ3であって移動体2の進行方向(前方向)に向けられているカメラ3によって撮像された進行方向の画像である。周囲画像Sでは、移動体2が走行中の道路と、道路横の歩道と、歩道上を歩いている人と、進行方向の奥側に広がる山などの景色とが主に写されている。
In FIG. 1, a
[シナリオ1]
以降ではシナリオ1での実施形態について説明する。図2は、シナリオ1の概念図である。シナリオ1では、図1で示したように、進行方向の見通しが良い道路上を車などの移動体2が走行し、進行方向に人又は障害物などの(移動する)オブジェクトB1などが存在する場面を想定する。シナリオ1では、移動体2に備えられたカメラ3(のみ)で撮像できる周囲画像(及び周囲情報)から近未来の周囲画像を推定する。
[Scenario 1]
Hereinafter, an embodiment in
図3は、実施形態に係る周囲画像推定装置1の機能構成の一例を示す図である。図3に示す通り、周囲画像推定装置1は、格納部10(格納部)と、取得部11(取得部)と、推定部12(推定部)と、算出部13(算出部)と、出力部14(出力部)とを含んで構成される。なお、図3に示す機能構成及び後述の当該機能構成の具体的な内容は、シナリオ1に限るものではなく、後述のシナリオ2及びシナリオ3でも共通する。
FIG. 3 is a diagram showing an example of the functional configuration of the surrounding
周囲画像推定装置1の各機能ブロックは、周囲画像推定装置1内にて機能することを想定しているが、これに限るものではない。例えば、周囲画像推定装置1の機能ブロックの一部は、周囲画像推定装置1とは異なるコンピュータ装置であって、周囲画像推定装置1とネットワーク接続されたコンピュータ装置内において、周囲画像推定装置1と情報を適宜送受信しつつ機能してもよい。また、周囲画像推定装置1の一部の機能ブロックは無くてもよいし、複数の機能ブロックを一つの機能ブロックに統合してもよいし、一つの機能ブロックを複数の機能ブロックに分解してもよい。
Each functional block of the surrounding
以下、図3に示す周囲画像推定装置1の各機能について説明する。
Each function of the surrounding
格納部10は、周囲画像推定装置1における算出などで利用される任意の情報及び周囲画像推定装置1における算出の結果などを格納する。格納部10によって格納された情報は、周囲画像推定装置1の各機能によって適宜参照されてもよい。
The
取得部11は、周囲画像推定装置1における算出などで利用される任意の情報を取得する。より具体的には、取得部11は、外部の装置などからネットワークなどを介して情報を取得する。取得部11は、取得した情報を格納部10によって格納させたり、周囲画像推定装置1の他の機能ブロックに出力したりする。
取得部11は、移動体2からネットワークなどを介して、周囲画像、周囲情報及び移動情報を取得する。取得部11によって取得された周囲画像、周囲情報及び移動情報は、周囲情報及び移動情報に含まれるタイムスタンプに基づいて、時系列に履歴情報として格納部10によって格納される。
The
推定部12は、移動体2に備えられたカメラ3により撮像された周囲画像(又は格納部10によって格納された履歴情報)に基づいて、所定時間後にカメラ3により撮像される周囲画像を推定する。例えば、推定部12は、カメラ3により現時点までに撮像された複数の周囲画像に基づいて、基準時刻(例えば現時点)である「13時00分00秒」から所定時間「2秒」後の時刻「13時00分02秒」にカメラ3により撮像される周囲画像を推定する。ここで、移動体2は移動可能のため、移動体2は、時刻「13時00分02秒」の時点では時刻「13時00分00秒」での位置とは異なる位置にいる可能性がある。推定部12は、定期的(例えば1秒おき)・継続的に周囲画像を推定してもよい。推定部12による具体的な推定処理については後述する。
The estimating
推定部12は、複数の異なる所定時間それぞれに対応する周囲画像を推定してもよい。例えば、推定部12は、基準時刻「13時00分00秒」から所定時間「2秒」後の時刻「13時00分02秒」にカメラ3により撮像される周囲画像と、基準時刻「13時00分00秒」から所定時間「4秒」後の時刻「13時00分04秒」にカメラ3により撮像される周囲画像と、基準時刻「13時00分00秒」から所定時間「6秒」後の時刻「13時00分06秒」にカメラ3により撮像される周囲画像とを推定する。
The
推定部12は、カメラ3aにより撮像された画像中のオブジェクトとの距離と、カメラ3bにより撮像された周囲画像とに基づいて推定してもよい。具体的な推定処理については後述する。
The
推定部12は、推定した周囲画像を、格納部10によって格納させてもよいし、周囲画像推定装置1の他の機能ブロックに出力してもよい。
The
図4は、周囲画像の一例を示す図である。図4の状況などは、図1と同様であり、主に差分について説明する。周囲画像Saは、カメラ3aにより立体的に(オブジェクトとの距離を計測可能に)撮像された周囲画像である。周囲画像Sbは、カメラ3bにより全方位的に撮像された周囲画像である。図4に示す例では、周囲画像Sbは周囲画像Saよりも広い領域を撮像した周囲画像であり、周囲画像Sbの領域は周囲画像Saの領域を含む(内包する)。周囲画像Saで示される領域は、制御者が注目する注目領域であってもよい。その場合、周囲画像Sbで示される領域のうち、周囲画像Saで示される領域を除く領域は、制御者が注目しない注目領域外となる。周囲画像Sa及び周囲画像Sbでは、向かって左側の歩道上を奥側から手前側に向かって(移動体2の進行方向とは逆方向に)歩いている人B2(オブジェクト)が写されている。周囲画像Sbでは、向かって右側の歩道上を手前側から奥側に向かって(移動体2の進行方向に)歩いている人B3(オブジェクト)が写されている。
FIG. 4 is a diagram showing an example of a surrounding image. The situation in FIG. 4 and the like are the same as in FIG. 1, so differences will be mainly described. The surrounding image Sa is a surrounding image stereoscopically captured by the camera 3a (so that the distance to the object can be measured). The surrounding image Sb is a surrounding image captured omnidirectionally by the
図5は、過去・現在・未来の周囲画像の一例を示す図である。 FIG. 5 is a diagram showing an example of past/present/future surrounding images.
図5中の左側の図に示す過去の周囲画像は、過去(例えば現時点から2秒前)にカメラ3a及びカメラ3bによりそれぞれ撮像された周囲画像Sa及び周囲画像Sbである。過去の周囲画像のうち、注目領域である周囲画像Saを過去フレームと呼ぶ。過去フレーム中に示されている人B2との距離「20m」は、カメラ3aが計測した人B2との距離を示している。なお、本実施形態において、カメラ3aが計測したオブジェクトとの距離に関する情報は、便宜上図5の周囲画像Sa中に表示しているが、実際は周囲画像Saに紐付く周囲情報に含まれているものとする。
The past surrounding images shown in the left diagram in FIG. 5 are the surrounding images Sa and Sb captured by the
図5中の真ん中の図に示す現在の周囲画像は、現在(現時点で)、カメラ3a及びカメラ3bによりそれぞれ撮像された周囲画像Sa及び周囲画像Sbである。現在の周囲画像のうち、注目領域である周囲画像Saを現在フレームと呼ぶ。現在フレーム中に示されている人B2との距離は「15m」であり、過去フレームと比べて移動体2に近づいている。一方、現在の周囲画像中に示されている人B3は、過去の周囲画像と比べて移動体2から遠ざかっている。現在フレームは、過去フレームと比べて周囲画像Sbの領域内を上方向に移動している。
The current surrounding images shown in the middle diagram in FIG. 5 are the surrounding image Sa and the surrounding image Sb currently (currently) captured by the
図5中の右側の図に示す未来の周囲画像は、推定部12によって、現在からt秒(所定時間)後にカメラ3a及びカメラ3bによりそれぞれ撮像されると推定された周囲画像Sa及び周囲画像Sbである。未来の周囲画像のうち、注目領域である周囲画像Saを未来フレームと呼ぶ。未来フレーム中に示されている人B2との距離は「10m」であり、現在フレームと比べて移動体2に近づいている。一方、未来の周囲画像(及び未来フレーム)中に示されている人B3は、現在の周囲画像と比べて移動体2から遠ざかっている。未来フレームは、現在フレームと比べて周囲画像Sbの領域内を上方向に移動している。
The future surrounding images shown in the diagram on the right side of FIG. is. Of the future surrounding images, the surrounding image Sa, which is the region of interest, is called a future frame. The distance to the person B2 shown in the future frame is "10 m", and the person is closer to the moving
図5の未来の周囲画像を参照しながら、推定部12による未来フレームの具体的な推定処理について説明する。まず、人B2及び人B3を除く周囲画像Saについては、過去の周囲画像の周囲画像Saとそのタイムスタンプ、現在の周囲画像の周囲画像Sa及び周囲画像Sbとそれらのタイムスタンプ、並びに、t秒に基づいて(推定部12が)推定する。例えば、過去の周囲画像の周囲画像Saと現在の周囲画像の周囲画像Saとのタイムスタンプの差分、及び、過去の周囲画像の周囲画像Saの位置と現在の周囲画像の周囲画像Saの位置との差分(上方向の移動量)から、t秒での上方向の移動量を算出し(線形的に上方向に移動すると仮定)、現在の周囲画像の周囲画像Saを、算出した上方向の移動量分移動した周囲画像を、(人B2及び人B3を除く)未来フレームとして推定する。上方向に移動した際に新たに推定が必要となる図5に示す領域R1(未来フレームの上側)の画像については、周囲画像Sbに基づいて合成してもよい。例えば、現在の周囲画像の周囲画像Sbにおける対応する箇所の画像を利用して、領域R1の画像を生成してもよい。なお、上述の算出において、格納部10によって格納された履歴情報の移動情報に含まれる移動体2の位置、加速度、速度及び移動方向に関する情報を利用することで、移動体2の正確な移動を推定し、最終的に推定する周囲画像の推定精度を高めてもよい。未来の周囲画像の周囲画像Sbについても、未来フレームと同様に推定してもよい。
Specific estimation processing of the future frame by the
次に、未来フレームの人B2については、過去フレーム及び現在フレームに紐付く周囲情報に基づいて(推定部12が)推定する。例えば、過去フレーム及び現在フレームに紐付く周囲情報に含まれる人B2との距離に基づいて、人B2のx、y及びz軸方向の移動ベクトルを、過去フレーム及び現在フレームの時間差分から算出し、算出した移動ベクトル及びt秒に基づいて、上述の周囲画像Saの推定と同様に未来フレーム内での人B2を推定する。 Next, the person B2 in the future frame is estimated (by the estimation unit 12) based on the surrounding information associated with the past frame and the current frame. For example, based on the distance from the person B2 included in the surrounding information associated with the past frame and the current frame, the movement vector of the person B2 in the x, y, and z axis directions is calculated from the time difference between the past frame and the current frame, Based on the calculated movement vector and t seconds, the person B2 in the future frame is estimated in the same manner as the estimation of the surrounding image Sa described above.
最後に、未来フレームの人B3については、過去の周囲画像及び現在の周囲画像におけるカメラ3bにより取得された周囲画像Sbに基づいて(推定部12が)推定する。例えば、過去の周囲画像及び現在の周囲画像におけるカメラ3bにより取得された周囲画像Sbに基づいて、人B3のx及びy軸方向の移動ベクトルを、過去の周囲画像及び現在の周囲画像の時間差分から算出し、算出した移動ベクトル及びt秒に基づいて、上述の周囲画像Saの推定と同様に未来フレーム内での人B3を推定する。すなわち、人B3は、周囲画像Sbに基づいて算出された移動ベクトルから、注目領域内に映り込むことが推定され、未来フレームに重ね合わせられる。
Finally, the person B3 in the future frame is estimated (by the estimation unit 12) based on the surrounding image Sb acquired by the
以上の通り、推定部12が、移動体2に備えられたカメラ3により撮像された周囲画像に基づいて、t秒後にカメラ3により撮像される未来フレーム(周囲画像)を推定する。
As described above, the estimating
推定部12は、周囲画像を推定した際のオブジェクトごとの推定精度を、当該周囲画像と紐付けて他の機能ブロックに出力してもよい。例えば、推定部12は、高速で移動するオブジェクト及び直進でない動きをするオブジェクトなどは低い推定精度を出力し、静止オブジェクト及び低速で直進するオブジェクトなどは高い推定精度を出力してもよい。
The
算出部13は、推定部12によって推定された周囲画像と、所定時間後にカメラ3により実際に撮像された周囲画像との合致度を算出する。例えば、推定部12が、基準時刻である「13時00分00秒」から所定時間「2秒」後の時刻「13時00分02秒」にカメラ3により撮像される周囲画像を推定した場合、算出部13は、推定された当該周囲画像と、基準時刻である「13時00分00秒」から所定時間「2秒」後の時刻「13時00分02秒」にカメラ3により実際に撮像された周囲画像との合致度を算出する。
The
算出部13が合致度を算出する対象である片方の、推定部12によって推定された周囲画像は、推定部12によって出力されたものであってもよいし、格納部10によって格納されたものであってもよい。算出部13が合致度を算出する対象であるもう片方の、所定時間後にカメラ3により実際に撮像された周囲画像は、移動体2からネットワークなどを介して周囲画像推定装置1が受信し、格納部10によって格納されたものである。
The surrounding image estimated by the estimating
合致度は、2つの画像が合致する度合である。合致度は、既存技術である画像間の類似度であってもよい。合致度は、例えば、「0」から「1」の実数値で表され、値が「0」に近いほど合致しておらず、値が「1」に近いほど合致していることを表してもよい。 Match is the degree to which two images match. The degree of matching may be the degree of similarity between images, which is an existing technology. The degree of matching is represented by, for example, a real number from "0" to "1". good too.
算出部13は、周囲画像中のオブジェクトの位置に基づいて合致度を算出してもよい。例えば、位置A(a,b)にいたオブジェクトが、所定時間後に位置B(c,d)にいたとする。また、推定部12によって、当該オブジェクトは所定時間後に位置X(x,y)にいると推定されたとする。その場合、例えば、算出部13は、位置Bの周囲画像と位置Xの周囲画像との類似度を算出することで合致度を算出してもよい。
The
算出部13は、推定部12によって推定された複数の周囲画像それぞれに対して合致度を算出してもよい。例えば、推定部12が、基準時刻「13時00分00秒」から所定時間「2秒」後の時刻「13時00分02秒」の周囲画像と、基準時刻「13時00分00秒」から所定時間「4秒」後の時刻「13時00分04秒」の周囲画像と、基準時刻「13時00分00秒」から所定時間「6秒」後の時刻「13時00分06秒」の周囲画像とを推定したとする。その場合、算出部13は、時刻「13時00分02秒」の推定された周囲画像と当該時刻に実際に撮像された周囲画像との合致度を算出し、時刻「13時00分04秒」の推定された周囲画像と当該時刻に実際に撮像された周囲画像との合致度を算出し、時刻「13時00分06秒」の推定された周囲画像と当該時刻に実際に撮像された周囲画像との合致度を算出する。
The
算出部13は、算出した合致度を、格納部10によって格納させてもよいし、周囲画像推定装置1の他の機能ブロックに出力してもよい。
The
図6は、未来の周囲画像と実際の周囲画像との比較を示す図である。図6中の上側の図に示す未来の周囲画像は、図5の未来の周囲画像と同じである。すなわち、未来の周囲画像における未来フレームは、推定部12によって推定された周囲画像である。図6中の下側の図に示す実際の周囲画像は、図5の現在フレームの撮像時点からt秒(所定時間)後にカメラ3a及びカメラ3bによりそれぞれ実際に撮像された周囲画像Sa及び周囲画像Sbである。実際の周囲画像のうち、注目領域である周囲画像Saを実際フレームと呼ぶ。算出部13は、図6に示す未来フレームと実際フレームとの合致度を算出する(比較する)。なお、未来フレームと実際フレームとを比較した際に、比較結果に基づいて、推定部12によって行われる推定のパラメータチューニングを行い、推定の精度を向上させてもよい。パラメータチューニングを行うことで、例えば、制御者の癖などによる移動体2の速度や進行方向の特徴を反映することができる。
FIG. 6 is a diagram showing a comparison between a future ambient image and an actual ambient image. The future surrounding image shown in the upper diagram in FIG. 6 is the same as the future surrounding image in FIG. That is, the future frame in the future surrounding image is the surrounding image estimated by the
出力部14は、算出部13によって算出された合致度に基づいた出力を行う。例えば、出力部14は、算出部13によって算出された合致度を、出力装置1006(後述)などを介して制御者に表示してもよい。また例えば、出力部14は、算出部13によって算出された合致度と当該合致度の算出の基となった推定部12によって推定された周囲画像とを、出力装置1006(後述)などを介して制御者に表示してもよい。出力部14による出力は、表示に限らず、例えば周囲画像推定装置1の他の機能ブロックへの出力であってもよいし、ネットワークなどを介した他の装置への送信であってもよい。
The
出力部14は、算出部13によって算出された合致度に基づいて、合致度が所定の基準を満たす所定時間を算出し、推定部12によって推定された当該所定時間後の周囲画像を出力してもよい。例えば、合致度が上述の通り「0」から「1」の実数値で表される場合、出力部14は、算出部13によって所定の基準「0.8」以上の合致度が算出された所定時間(例えば「2秒」)を算出し、推定部12によって推定された(基準時刻から)当該所定時間後の周囲画像を出力する。
Based on the degree of matching calculated by the calculating
出力部14は、算出部13によって算出された複数の合致度のうち所定の基準を満たす合致度を選択し、選択した当該合致度の基となった所定時間を、(上述の)合致度が所定の基準を満たす所定時間として算出してもよい。例えば、基準時刻「13時00分00秒」から所定時間「2秒」後の時刻「13時00分02秒」の周囲画像に関する合致度が「0.9」であり、基準時刻「13時00分00秒」から所定時間「4秒」後の時刻「13時00分04秒」の周囲画像に関する合致度が「0.7」であり、基準時刻「13時00分00秒」から所定時間「6秒」後の時刻「13時00分06秒」の周囲画像に関する合致度が「0.5」であり、所定の基準が「0.8」以上である場合、出力部14は、所定の基準「0.8」以上を満たす「0.9」の合致度を選択し、選択した当該合致度の基となった所定時間「2秒」を、合致度が所定の基準を満たす所定時間として算出する。そして出力部14は、推定部12によって推定された(基準時刻から)当該所定時間「2秒」後の周囲画像を出力する。
The
出力部14は、カメラ3により撮像された周囲画像が移動体2の移動を制御する制御者に表示されるまでの伝送遅延時間にさらに基づいた出力を行ってもよい。伝送遅延時間は、例えば、移動体2から遠隔(遠隔地)にいる制御者への画像伝送に関わる遅延時間である。伝送遅延時間は、周囲画像に紐付く周囲情報に含まれるタイムスタンプと周囲画像推定装置1が予め備える時刻機能で得られる(制御者に表示するタイミングでの)タイムスタンプとの差分で特定(予測)されてもよい。なお、周囲画像推定装置1とカメラ3とで時刻が同期されているものとする。例えば、出力部14は、算出部13によって算出された合致度に基づいて、合致度が所定の基準を満たし、かつ、伝送遅延時間との差が所定の基準(例えば「0.5秒」)以下の所定時間を算出し、推定部12によって推定された当該所定時間後の周囲画像を出力してもよい。
The
出力部14は、算出部13によって算出された合致度に基づいて、合致度が所定の基準を満たす所定時間を算出し、伝送遅延時間が当該所定時間以内の場合に、推定部12によって推定された当該伝送遅延時間後の周囲画像を出力してもよい。例えば、上述の例と同様に合致度が所定の基準「0.8」以上を満たす所定時間「2秒」が算出され、伝送遅延時間が「1.5秒」である場合、伝送遅延時間「1.5秒」は所定時間「2秒」以内であるため、出力部14は、推定部12によって推定された伝送遅延時間「1.5秒」後の周囲画像を出力する。
Based on the degree of matching calculated by the calculating
出力部14は、推定部12による推定の推定精度にさらに基づいた出力を行ってもよい。例えば、出力部14は、推定部12によって出力された、周囲画像中のオブジェクトごとの推定精度の値をオブジェクト上に出力(表示)してもよいし、推定精度に応じてオブジェクトの色分けを行ってもよく、それにより制御者に対して推定精度を出力することができる。
The
続いて、図7を参照しながら、周囲画像推定装置1が実行する処理の例を説明する。図7は、実施形態に係る周囲画像推定装置1が実行する処理の一例を示すフローチャートである。
Next, an example of processing executed by the surrounding
まず、推定部12が、移動体2に備えられたカメラ3により撮像された周囲画像Sに基づいて、所定時間t秒後にカメラ3により撮像される周囲画像Sを推定する(ステップS1、推定ステップ)。次に、算出部13が、S1において推定された周囲画像Sと、所定時間t秒後にカメラ3により実際に撮像された周囲画像Sとの合致度を算出する(ステップS2、算出ステップ)。次に、出力部14が、S2において算出された合致度に基づいた出力を行う(ステップS3、出力ステップ)。
First, the
以上がシナリオ1での実施形態の説明である。
The above is the description of the embodiment in
[シナリオ2]
以降ではシナリオ2での実施形態について説明する。図8は、シナリオ2の概念図である。シナリオ2では、建物内の廊下を車椅子などの移動体2が進み、丁字路(曲がり角)を右折する場面を想定する。図9は、丁字路付近の周囲画像の一例を示す図である。シナリオ1と同様に、移動体2は制御者が遠隔で制御可能である。移動体2が丁字路を右折する前の段階では、移動体2が備えるカメラ3では丁字路の右折先を撮像できないため、当該カメラ3が撮像できる周囲画像のみでは近未来の周囲画像は推定できない。図10は、丁字路を右折した際の周囲画像の一例を示す図である。図10に示す周囲画像は、移動体2が丁字路を右折した後に当該移動体2が備えるカメラ3によって実際に撮像されたものであり、上述の通り丁字路を右折する前の段階では撮像も推定もできない。
[Scenario 2]
An embodiment in
推定部12は、所定時間後の移動体2の予測位置付近の地図情報にさらに基づいて推定してもよい。図11は、丁字路を右折した際の概念図である。推定部12は、所定時間t秒後の地点から撮像可能な撮像範囲の周囲画像を、当該地点付近の地図情報(マップデータ)に基づいて推定する。マップデータはネットワークなどを介してクラウドから取得可能であり、マップデータには当該マップデータに紐づく画像データ(航空写真、テクスチャ、風景写真など)も含まれていてもよい。推定部12は、所定時間t秒後の地点を、移動体2の速度と現在位置から予測してもよい。図12は、丁字路を右折した際の推定された周囲画像の一例を示す図である。図12に示す周囲画像のうち領域R2は、推定部12が地図情報に基づいて推定した領域である。以上がシナリオ2での実施形態の説明である。
The estimating
[シナリオ3]
以降ではシナリオ3での実施形態について説明する。図13は、シナリオ3の概念図である。シナリオ3では、シナリオ2の場面に加えて、丁字路奥側の廊下に監視カメラCと、人B4と、移動体2とは異なる他の移動体2aとが存在する場面を想定する。シナリオ3では、丁字路の右折先の人B4(オブジェクト、障害物、動的物体)も推定する。
[Scenario 3]
Hereinafter, an embodiment in
推定部12は、所定時間後の移動体2の予測位置付近に存在する別のカメラ3(監視カメラC又は移動体2aが備えるカメラ)により撮像された周囲画像にさらに基づいて推定してもよい。推定部12は、所定時間後の移動体2の予測位置付近の地図情報と、当該予測位置付近に存在する別のカメラ3により撮像された周囲画像に含まれるオブジェクトとにさらに基づいて推定してもよい。
The estimating
すなわち、丁字路の右折先に移動体2a又は監視カメラCが存在する場合は、移動体2a又は監視カメラCで撮像された画像を活用して、人B4を推定する。移動体2aは、移動体2と同様の機能構成であり、撮像した周囲画像を移動体2aの位置情報とともに周囲画像推定装置1に送信する。移動体2a又は監視カメラCは、シナリオ1と同等の方法を採用することで、人B4の所定時間t秒後の位置を推定する。移動体2の推定部12は、所定時間t秒後の周囲画像をシナリオ2と同等の方法で推定した後に、人B4を位置座標などをもとに推定する(人B4を再現可能である)。図14は、丁字路を右折した際の推定された周囲画像(オブジェクトを含む)の一例を示す図である。図14に示す周囲画像のうち領域R2には、推定部12によって推定された人B4が含まれている。以上がシナリオ3での実施形態の説明である。
That is, when the moving
続いて、図15を参照しながら、周囲画像推定装置1が実行するシナリオ1~3の処理の例を説明する。図15は、実施形態に係る周囲画像推定装置1が実行する処理の別の一例を示すフローチャートである。
Next, an example of processing of
まず、周囲画像推定装置1が、伝送遅延時間dを予測する(ステップS10)。次に、周囲画像推定装置1が、d秒後の移動体2の位置(自己位置)を予測する(ステップS11)。次に、周囲画像推定装置1が、移動体2が撮像した周囲画像のみでd秒後の周囲画像を推定可能(d秒後の自己位置から撮像する周囲画像に曲がり角などはなく、移動体2で撮像する周囲画像のみで推定可能)であるか否かを判定する(ステップS12)。S12にて推定可能であると判定された場合(S12:YES)、周囲画像推定装置1が、シナリオ1のパターンで周囲画像を推定する(ステップS13)。次に、周囲画像推定装置1が、d秒後に実際に撮像された周囲画像と比較してパラメータチューニングを行い(ステップS14)、処理を終了する。S12にて推定可能ではないと判定された場合(S12:NO)、周囲画像推定装置1が、シナリオ2のパターンで周囲画像を推定する(ステップS15)。S15に続き、d秒後の移動体2の予測位置付近に存在するカメラがオブジェクトを検知しているか否かを判定する(ステップS16)。S16にて検知していないと判定された場合(ステップS16:NO)、S14に続く。S16にて検知していると判定された場合(ステップS16:YES)、周囲画像推定装置1が、シナリオ3のパターンでオブジェクトを推定し(ステップS17)、S14に続く。
First, the surrounding
続いて、実施形態に係る周囲画像推定装置1の作用効果について説明する。
Next, effects of the surrounding
周囲画像推定装置1によれば、推定部12が、移動体2に備えられたカメラ3により撮像された周囲画像に基づいて、所定時間後にカメラ3により撮像される周囲画像を推定し、算出部13が、推定部12によって推定された周囲画像と、所定時間後にカメラ3により実際に撮像された周囲画像との合致度を算出し、出力部14が、算出部13によって算出された合致度に基づいた出力を行う。この構成により、移動体2に備えられたカメラ3により所定時間後に撮像される周囲画像が推定される。すなわち、移動体2の近未来の周囲画像を推定することができる。また、推定された周囲画像と実際に撮像された周囲画像との合致度に基づいた出力が行われるため、例えば、推定された周囲画像の推定精度を容易かつ効果的に活用することができる。
According to the surrounding
また、周囲画像推定装置1によれば、出力部14が、算出部13によって算出された合致度に基づいて、合致度が所定の基準を満たす所定時間を算出し、推定部12によって推定された当該所定時間後の周囲画像を出力してもよい。この構成により、一定の推定精度のある、推定された周囲画像を出力することができる。
Further, according to the surrounding
また、周囲画像推定装置1によれば、推定部12が、複数の異なる所定時間それぞれに対応する周囲画像を推定し、算出部13が、推定部12によって推定された複数の周囲画像それぞれに対して合致度を算出し、出力部14が、算出部13によって算出された複数の合致度のうち所定の基準を満たす合致度を選択し、選択した当該合致度の基となった所定時間を、合致度が所定の基準を満たす所定時間として算出してもよい。この構成により、より容易かつ確実に、一定の推定精度のある、推定された周囲画像を出力することができる。
Further, according to the surrounding
また、周囲画像推定装置1によれば、カメラ3は、撮像している画像中のオブジェクトとの距離を計測可能なカメラ3aと、周囲を撮像可能なカメラ3bとから構成され、推定部12が、カメラ3aにより撮像された画像中のオブジェクトとの距離と、カメラ3bにより撮像された周囲画像とに基づいて推定してもよい。この構成により、オブジェクトとの距離を加味した推定を行うことができ、かつ、異なるカメラで撮像された画像に基づく推定を行うことができるため、より精度の高い推定を行うことができる。また、カメラ3aでz軸(奥行)方向の情報も取得することで、z軸方向にベクトルの大きい移動も推定することができる。
According to the surrounding
また、周囲画像推定装置1によれば、出力部14が、カメラ3により撮像された周囲画像が移動体2の移動を制御する制御者に表示されるまでの伝送遅延時間にさらに基づいた出力を行ってもよい。この構成により、伝送遅延時間を考慮した出力を行うことができる。例えば、伝送遅延時間分の近未来の周囲画像を制御者に出力することで、制御者にとってはまるでリアルタイムの移動体2の周囲画像を出力することができる。
Further, according to the surrounding
また、周囲画像推定装置1によれば、出力部14が、算出部13によって算出された合致度に基づいて、合致度が所定の基準を満たす所定時間を算出し、伝送遅延時間が当該所定時間以内の場合に、推定部12によって推定された当該伝送遅延時間後の周囲画像を出力してもよい。この構成により、例えば、一定の推定精度のある、リアルタイムの移動体2の周囲画像を出力することができる。
Further, according to the surrounding
また、周囲画像推定装置1によれば、出力部14が、推定部12による推定の推定精度にさらに基づいた出力を行ってもよい。この構成により、推定精度を容易かつ効果的に活用することができる。
Further, according to the surrounding
また、周囲画像推定装置1によれば、推定部12は、所定時間後の移動体2の予測位置付近の地図情報にさらに基づいて推定してもよい。この構成により、移動体2自体では推定できない部分も地図情報によって補うことができる。
Further, according to the surrounding
また、周囲画像推定装置1によれば、推定部12は、所定時間後の移動体2の予測位置付近に存在する別のカメラ3により撮像された周囲画像にさらに基づいて推定してもよい。この構成により、移動体2自体では推定できない部分も別のカメラ3により撮像された周囲画像によって補うことができる。
Further, according to the surrounding
また、周囲画像推定装置1によれば、推定部12が、所定時間後の移動体2の予測位置付近の地図情報と、当該予測位置付近に存在する別のカメラ3により撮像された周囲画像に含まれるオブジェクトとにさらに基づいて推定してもよい。この構成により、移動体2自体では推定できない部分も、地図情報及び別のカメラ3により撮像された周囲画像に含まれるオブジェクトによって補うことができる。
Further, according to the surrounding
ここで、従来の課題について説明する。移動する物体を遠隔地から操作するためには、遠隔操縦者が現地の様子をリアルタイムに把握する必要があり、現在は映像により現地の様子を把握する方法が主流である。遠隔操縦者まで現地の映像を届けるには映像伝送・エンコード・デコード等の処理により数十~数百ms程度の遅延が発生してしまうため、緊急停止の反応遅れ又は操縦者側の違和感につながってしまう。 Here, conventional problems will be described. In order to operate a moving object from a remote location, it is necessary for a remote operator to grasp the local situation in real time, and currently the mainstream method is to grasp the local situation by video. Due to processing such as video transmission, encoding, and decoding, a delay of several tens to hundreds of milliseconds is generated in order to deliver local images to the remote operator. end up
本実施形態の周囲画像推定装置1は、制御者(遠隔操縦者)に画像(映像)を伝送する際に発生してしまう遅延を考慮し、伝送遅延時間に応じた数十~数百ms程度未来の現地映像を仮想的に生成することにより、画像伝送遅延を感じさせない遠隔制御システムを実現する。周囲画像推定装置1は、移動体2の進行方向・速度、及び周辺オブジェクトのベクトルから画像伝送に関わる伝送遅延時間分だけ未来における、制御者の注目領域部分の画像を生成することができる。周囲画像推定装置1は、未来画像作成する際には、その時の画像伝送遅延分の未来画像を生成する。ただし、所定の合致率以下の場合には、合致率になるように、少し遅れた画像の未来画像を生成する。例えば5秒遅延しているとして、5秒の未来画像を生成すると、合致率が低下してしまう場合、合致率以上となる3秒を生成する。周囲画像推定装置1によれば、遠隔操縦の反応遅れの防止、及び、違和感のない遠隔操縦の実現が可能である。周囲画像推定装置1による手法は、リアルタイム遠隔制御向けの近未来映像生成手法である。
The surrounding
なお、上記実施形態の説明に用いたブロック図は、機能単位のブロックを示している。これらの機能ブロック(構成部)は、ハードウェア及びソフトウェアの少なくとも一方の任意の組み合わせによって実現される。また、各機能ブロックの実現方法は特に限定されない。すなわち、各機能ブロックは、物理的又は論理的に結合した1つの装置を用いて実現されてもよいし、物理的又は論理的に分離した2つ以上の装置を直接的又は間接的に(例えば、有線、無線などを用いて)接続し、これら複数の装置を用いて実現されてもよい。機能ブロックは、上記1つの装置又は上記複数の装置にソフトウェアを組み合わせて実現されてもよい。 It should be noted that the block diagrams used in the description of the above embodiments show blocks in units of functions. These functional blocks (components) are realized by any combination of at least one of hardware and software. Also, the method of implementing each functional block is not particularly limited. That is, each functional block may be implemented using one device that is physically or logically coupled, or directly or indirectly using two or more devices that are physically or logically separated (e.g. , wired, wireless, etc.) and may be implemented using these multiple devices. A functional block may be implemented by combining software in the one device or the plurality of devices.
機能には、判断、決定、判定、計算、算出、処理、導出、調査、探索、確認、受信、送信、出力、アクセス、解決、選択、選定、確立、比較、想定、期待、見做し、報知(broadcasting)、通知(notifying)、通信(communicating)、転送(forwarding)、構成(configuring)、再構成(reconfiguring)、割り当て(allocating、mapping)、割り振り(assigning)などがあるが、これらに限られない。たとえば、送信を機能させる機能ブロック(構成部)は、送信部(transmitting unit)や送信機(transmitter)と呼称される。いずれも、上述したとおり、実現方法は特に限定されない。 Functions include judging, determining, determining, calculating, calculating, processing, deriving, investigating, searching, checking, receiving, transmitting, outputting, accessing, resolving, selecting, choosing, establishing, comparing, assuming, expecting, assuming, Broadcasting, notifying, communicating, forwarding, configuring, reconfiguring, allocating, mapping, assigning, etc. can't For example, a functional block (component) that makes transmission work is called a transmitting unit or a transmitter. In either case, as described above, the implementation method is not particularly limited.
例えば、本開示の一実施の形態における周囲画像推定装置1などは、本開示の周囲画像推定方法の処理を行うコンピュータとして機能してもよい。図16は、本開示の一実施の形態に係る周囲画像推定装置1のハードウェア構成の一例を示す図である。上述の周囲画像推定装置1は、物理的には、プロセッサ1001、メモリ1002、ストレージ1003、通信装置1004、入力装置1005、出力装置1006、バス1007などを含むコンピュータ装置として構成されてもよい。
For example, the surrounding
なお、以下の説明では、「装置」という文言は、回路、デバイス、ユニットなどに読み替えることができる。周囲画像推定装置1のハードウェア構成は、図に示した各装置を1つ又は複数含むように構成されてもよいし、一部の装置を含まずに構成されてもよい。
Note that in the following description, the term "apparatus" can be read as a circuit, device, unit, or the like. The hardware configuration of the surrounding
周囲画像推定装置1における各機能は、プロセッサ1001、メモリ1002などのハードウェア上に所定のソフトウェア(プログラム)を読み込ませることによって、プロセッサ1001が演算を行い、通信装置1004による通信を制御したり、メモリ1002及びストレージ1003におけるデータの読み出し及び書き込みの少なくとも一方を制御したりすることによって実現される。
Each function in the surrounding
プロセッサ1001は、例えば、オペレーティングシステムを動作させてコンピュータ全体を制御する。プロセッサ1001は、周辺装置とのインターフェース、制御装置、演算装置、レジスタなどを含む中央処理装置(CPU:Central Processing Unit)によって構成されてもよい。例えば、上述の取得部11、推定部12、算出部13及び出力部14などは、プロセッサ1001によって実現されてもよい。
The
また、プロセッサ1001は、プログラム(プログラムコード)、ソフトウェアモジュール、データなどを、ストレージ1003及び通信装置1004の少なくとも一方からメモリ1002に読み出し、これらに従って各種の処理を実行する。プログラムとしては、上述の実施の形態において説明した動作の少なくとも一部をコンピュータに実行させるプログラムが用いられる。例えば、取得部11、推定部12、算出部13及び出力部14は、メモリ1002に格納され、プロセッサ1001において動作する制御プログラムによって実現されてもよく、他の機能ブロックについても同様に実現されてもよい。上述の各種処理は、1つのプロセッサ1001によって実行される旨を説明してきたが、2以上のプロセッサ1001により同時又は逐次に実行されてもよい。プロセッサ1001は、1以上のチップによって実装されてもよい。なお、プログラムは、電気通信回線を介してネットワークから送信されても良い。
The
メモリ1002は、コンピュータ読み取り可能な記録媒体であり、例えば、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable Programmable ROM)、RAM(Random Access Memory)などの少なくとも1つによって構成されてもよい。メモリ1002は、レジスタ、キャッシュ、メインメモリ(主記憶装置)などと呼ばれてもよい。メモリ1002は、本開示の一実施の形態に係る無線通信方法を実施するために実行可能なプログラム(プログラムコード)、ソフトウェアモジュールなどを保存することができる。
The
ストレージ1003は、コンピュータ読み取り可能な記録媒体であり、例えば、CD-ROM(Compact Disc ROM)などの光ディスク、ハードディスクドライブ、フレキシブルディスク、光磁気ディスク(例えば、コンパクトディスク、デジタル多用途ディスク、Blu-ray(登録商標)ディスク)、スマートカード、フラッシュメモリ(例えば、カード、スティック、キードライブ)、フロッピー(登録商標)ディスク、磁気ストリップなどの少なくとも1つによって構成されてもよい。ストレージ1003は、補助記憶装置と呼ばれてもよい。上述の記憶媒体は、例えば、メモリ1002及びストレージ1003の少なくとも一方を含むデータベース、サーバその他の適切な媒体であってもよい。
The
通信装置1004は、有線ネットワーク及び無線ネットワークの少なくとも一方を介してコンピュータ間の通信を行うためのハードウェア(送受信デバイス)であり、例えばネットワークデバイス、ネットワークコントローラ、ネットワークカード、通信モジュールなどともいう。通信装置1004は、例えば周波数分割複信(FDD:Frequency Division Duplex)及び時分割複信(TDD:Time Division Duplex)の少なくとも一方を実現するために、高周波スイッチ、デュプレクサ、フィルタ、周波数シンセサイザなどを含んで構成されてもよい。例えば、上述の取得部11、推定部12、算出部13及び出力部14などは、通信装置1004によって実現されてもよい。
The
入力装置1005は、外部からの入力を受け付ける入力デバイス(例えば、キーボード、マウス、マイクロフォン、スイッチ、ボタン、センサなど)である。出力装置1006は、外部への出力を実施する出力デバイス(例えば、ディスプレイ、スピーカー、LEDランプなど)である。なお、入力装置1005及び出力装置1006は、一体となった構成(例えば、タッチパネル)であってもよい。
The
また、プロセッサ1001、メモリ1002などの各装置は、情報を通信するためのバス1007によって接続される。バス1007は、単一のバスを用いて構成されてもよいし、装置間ごとに異なるバスを用いて構成されてもよい。
Devices such as the
また、周囲画像推定装置1は、マイクロプロセッサ、デジタル信号プロセッサ(DSP:Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)などのハードウェアを含んで構成されてもよく、当該ハードウェアにより、各機能ブロックの一部又は全てが実現されてもよい。例えば、プロセッサ1001は、これらのハードウェアの少なくとも1つを用いて実装されてもよい。
In addition, the surrounding
情報の通知は、本開示において説明した態様/実施形態に限られず、他の方法を用いて行われてもよい。 Notification of information is not limited to the aspects/embodiments described in this disclosure, and may be performed using other methods.
本開示において説明した各態様/実施形態は、LTE(Long Term Evolution)、LTE-A(LTE-Advanced)、SUPER 3G、IMT-Advanced、4G(4th generation mobile communication system)、5G(5th generation mobile communication system)、FRA(Future Radio Access)、NR(new Radio)、W-CDMA(登録商標)、GSM(登録商標)、CDMA2000、UMB(Ultra Mobile Broadband)、IEEE 802.11(Wi-Fi(登録商標))、IEEE 802.16(WiMAX(登録商標))、IEEE 802.20、UWB(Ultra-WideBand)、Bluetooth(登録商標)、その他の適切なシステムを利用するシステム及びこれらに基づいて拡張された次世代システムの少なくとも一つに適用されてもよい。また、複数のシステムが組み合わされて(例えば、LTE及びLTE-Aの少なくとも一方と5Gとの組み合わせ等)適用されてもよい。 Each aspect/embodiment described in the present disclosure includes LTE (Long Term Evolution), LTE-A (LTE-Advanced), SUPER 3G, IMT-Advanced, 4G (4th generation mobile communication system), 5G (5th generation mobile communication system), FRA (Future Radio Access), NR (new Radio), W-CDMA (registered trademark), GSM (registered trademark), CDMA2000, UMB (Ultra Mobile Broadband), IEEE 802.11 (Wi-Fi (registered trademark) )), IEEE 802.16 (WiMAX®), IEEE 802.20, UWB (Ultra-WideBand), Bluetooth®, and other suitable systems and extended It may be applied to at least one of the next generation systems. Also, a plurality of systems may be applied in combination (for example, a combination of at least one of LTE and LTE-A and 5G, etc.).
本開示において説明した各態様/実施形態の処理手順、シーケンス、フローチャートなどは、矛盾の無い限り、順序を入れ替えてもよい。例えば、本開示において説明した方法については、例示的な順序を用いて様々なステップの要素を提示しており、提示した特定の順序に限定されない。 The processing procedures, sequences, flowcharts, etc. of each aspect/embodiment described in this disclosure may be rearranged as long as there is no contradiction. For example, the methods described in this disclosure present elements of the various steps using a sample order, and are not limited to the specific order presented.
入出力された情報等は特定の場所(例えば、メモリ)に保存されてもよいし、管理テーブルを用いて管理してもよい。入出力される情報等は、上書き、更新、又は追記され得る。出力された情報等は削除されてもよい。入力された情報等は他の装置へ送信されてもよい。 Input/output information and the like may be stored in a specific location (for example, memory), or may be managed using a management table. Input/output information and the like can be overwritten, updated, or appended. The output information and the like may be deleted. The entered information and the like may be transmitted to another device.
判定は、1ビットで表される値(0か1か)によって行われてもよいし、真偽値(Boolean:true又はfalse)によって行われてもよいし、数値の比較(例えば、所定の値との比較)によって行われてもよい。 The determination may be made by a value represented by one bit (0 or 1), by a true/false value (Boolean: true or false), or by numerical comparison (for example, a predetermined value).
本開示において説明した各態様/実施形態は単独で用いてもよいし、組み合わせて用いてもよいし、実行に伴って切り替えて用いてもよい。また、所定の情報の通知(例えば、「Xであること」の通知)は、明示的に行うものに限られず、暗黙的(例えば、当該所定の情報の通知を行わない)ことによって行われてもよい。 Each aspect/embodiment described in the present disclosure may be used alone, may be used in combination, or may be used by switching according to execution. In addition, the notification of predetermined information (for example, notification of “being X”) is not limited to being performed explicitly, but may be performed implicitly (for example, not notifying the predetermined information). good too.
以上、本開示について詳細に説明したが、当業者にとっては、本開示が本開示中に説明した実施形態に限定されるものではないということは明らかである。本開示は、請求の範囲の記載により定まる本開示の趣旨及び範囲を逸脱することなく修正及び変更態様として実施することができる。したがって、本開示の記載は、例示説明を目的とするものであり、本開示に対して何ら制限的な意味を有するものではない。 Although the present disclosure has been described in detail above, it should be apparent to those skilled in the art that the present disclosure is not limited to the embodiments described in this disclosure. The present disclosure can be practiced with modifications and variations without departing from the spirit and scope of the present disclosure as defined by the claims. Accordingly, the description of the present disclosure is for illustrative purposes and is not meant to be limiting in any way.
ソフトウェアは、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語と呼ばれるか、他の名称で呼ばれるかを問わず、命令、命令セット、コード、コードセグメント、プログラムコード、プログラム、サブプログラム、ソフトウェアモジュール、アプリケーション、ソフトウェアアプリケーション、ソフトウェアパッケージ、ルーチン、サブルーチン、オブジェクト、実行可能ファイル、実行スレッド、手順、機能などを意味するよう広く解釈されるべきである。 Software, whether referred to as software, firmware, middleware, microcode, hardware description language or otherwise, includes instructions, instruction sets, code, code segments, program code, programs, subprograms, and software modules. , applications, software applications, software packages, routines, subroutines, objects, executables, threads of execution, procedures, functions, and the like.
また、ソフトウェア、命令、情報などは、伝送媒体を介して送受信されてもよい。例えば、ソフトウェアが、有線技術(同軸ケーブル、光ファイバケーブル、ツイストペア、デジタル加入者回線(DSL:Digital Subscriber Line)など)及び無線技術(赤外線、マイクロ波など)の少なくとも一方を使用してウェブサイト、サーバ、又は他のリモートソースから送信される場合、これらの有線技術及び無線技術の少なくとも一方は、伝送媒体の定義内に含まれる。 Software, instructions, information, etc. may also be sent and received over a transmission medium. For example, the software uses wired technology (coaxial cable, fiber optic cable, twisted pair, Digital Subscriber Line (DSL), etc.) and/or wireless technology (infrared, microwave, etc.) to create websites, Wired and/or wireless technologies are included within the definition of transmission medium when sent from a server or other remote source.
本開示において説明した情報、信号などは、様々な異なる技術のいずれかを使用して表されてもよい。例えば、上記の説明全体に渡って言及され得るデータ、命令、コマンド、情報、信号、ビット、シンボル、チップなどは、電圧、電流、電磁波、磁界若しくは磁性粒子、光場若しくは光子、又はこれらの任意の組み合わせによって表されてもよい。 Information, signals, etc. described in this disclosure may be represented using any of a variety of different technologies. For example, data, instructions, commands, information, signals, bits, symbols, chips, etc. that may be referred to throughout the above description may refer to voltages, currents, electromagnetic waves, magnetic fields or magnetic particles, light fields or photons, or any of these. may be represented by a combination of
なお、本開示において説明した用語及び本開示の理解に必要な用語については、同一の又は類似する意味を有する用語と置き換えてもよい。 The terms explained in this disclosure and the terms necessary for understanding the present disclosure may be replaced with terms having the same or similar meanings.
本開示において使用する「システム」及び「ネットワーク」という用語は、互換的に使用される。 As used in this disclosure, the terms "system" and "network" are used interchangeably.
また、本開示において説明した情報、パラメータなどは、絶対値を用いて表されてもよいし、所定の値からの相対値を用いて表されてもよいし、対応する別の情報を用いて表されてもよい。 In addition, the information, parameters, etc. described in the present disclosure may be expressed using absolute values, may be expressed using relative values from a predetermined value, or may be expressed using other corresponding information. may be represented.
上述したパラメータに使用する名称はいかなる点においても限定的な名称ではない。さらに、これらのパラメータを使用する数式等は、本開示で明示的に開示したものと異なる場合もある。 The names used for the parameters described above are not limiting names in any way. Further, the formulas, etc., using these parameters may differ from those expressly disclosed in this disclosure.
本開示で使用する「判断(determining)」、「決定(determining)」という用語は、多種多様な動作を包含する場合がある。「判断」、「決定」は、例えば、判定(judging)、計算(calculating)、算出(computing)、処理(processing)、導出(deriving)、調査(investigating)、探索(looking up、search、inquiry)(例えば、テーブル、データベース又は別のデータ構造での探索)、確認(ascertaining)した事を「判断」「決定」したとみなす事などを含み得る。また、「判断」、「決定」は、受信(receiving)(例えば、情報を受信すること)、送信(transmitting)(例えば、情報を送信すること)、入力(input)、出力(output)、アクセス(accessing)(例えば、メモリ中のデータにアクセスすること)した事を「判断」「決定」したとみなす事などを含み得る。また、「判断」、「決定」は、解決(resolving)、選択(selecting)、選定(choosing)、確立(establishing)、比較(comparing)などした事を「判断」「決定」したとみなす事を含み得る。つまり、「判断」「決定」は、何らかの動作を「判断」「決定」したとみなす事を含み得る。また、「判断(決定)」は、「想定する(assuming)」、「期待する(expecting)」、「みなす(considering)」などで読み替えられてもよい。 As used in this disclosure, the terms "determining" and "determining" may encompass a wide variety of actions. "Judgement", "determining" are, for example, judging, calculating, computing, processing, deriving, investigating, looking up, searching, inquiring (eg, lookup in a table, database, or other data structure), ascertaining as "judged" or "determined", and the like. Also, "judgment" and "decision" are used for receiving (e.g., receiving information), transmitting (e.g., transmitting information), input, output, access (accessing) (for example, accessing data in memory) may include deeming that something has been "determined" or "decided". In addition, "judgment" and "decision" are considered to be "judgment" and "decision" by resolving, selecting, choosing, establishing, comparing, etc. can contain. In other words, "judgment" and "decision" may include considering that some action is "judgment" and "decision". Also, "judgment (decision)" may be read as "assuming", "expecting", "considering", or the like.
「接続された(connected)」、「結合された(coupled)」という用語、又はこれらのあらゆる変形は、2又はそれ以上の要素間の直接的又は間接的なあらゆる接続又は結合を意味し、互いに「接続」又は「結合」された2つの要素間に1又はそれ以上の中間要素が存在することを含むことができる。要素間の結合又は接続は、物理的なものであっても、論理的なものであっても、或いはこれらの組み合わせであってもよい。例えば、「接続」は「アクセス」で読み替えられてもよい。本開示で使用する場合、2つの要素は、1又はそれ以上の電線、ケーブル及びプリント電気接続の少なくとも一つを用いて、並びにいくつかの非限定的かつ非包括的な例として、無線周波数領域、マイクロ波領域及び光(可視及び不可視の両方)領域の波長を有する電磁エネルギーなどを用いて、互いに「接続」又は「結合」されると考えることができる。 The terms "connected," "coupled," or any variation thereof mean any direct or indirect connection or connection between two or more elements, It can include the presence of one or more intermediate elements between two elements being "connected" or "coupled." Couplings or connections between elements may be physical, logical, or a combination thereof. For example, "connection" may be read as "access". As used in this disclosure, two elements are defined using at least one of one or more wires, cables, and printed electrical connections and, as some non-limiting and non-exhaustive examples, in the radio frequency domain. , electromagnetic energy having wavelengths in the microwave and optical (both visible and invisible) regions, and the like.
本開示において使用する「に基づいて」という記載は、別段に明記されていない限り、「のみに基づいて」を意味しない。言い換えれば、「に基づいて」という記載は、「のみに基づいて」と「に少なくとも基づいて」の両方を意味する。 As used in this disclosure, the phrase "based on" does not mean "based only on," unless expressly specified otherwise. In other words, the phrase "based on" means both "based only on" and "based at least on."
本開示において使用する「第1の」、「第2の」などの呼称を使用した要素へのいかなる参照も、それらの要素の量又は順序を全般的に限定しない。これらの呼称は、2つ以上の要素間を区別する便利な方法として本開示において使用され得る。したがって、第1及び第2の要素への参照は、2つの要素のみが採用され得ること、又は何らかの形で第1の要素が第2の要素に先行しなければならないことを意味しない。 Any reference to elements using the "first," "second," etc. designations used in this disclosure does not generally limit the quantity or order of those elements. These designations may be used in this disclosure as a convenient method of distinguishing between two or more elements. Thus, reference to a first and second element does not imply that only two elements can be employed or that the first element must precede the second element in any way.
上記の各装置の構成における「手段」を、「部」、「回路」、「デバイス」等に置き換えてもよい。 The “means” in the configuration of each device described above may be replaced with “unit”, “circuit”, “device”, or the like.
本開示において、「含む(include)」、「含んでいる(including)」及びそれらの変形が使用されている場合、これらの用語は、用語「備える(comprising)」と同様に、包括的であることが意図される。さらに、本開示において使用されている用語「又は(or)」は、排他的論理和ではないことが意図される。 Where "include," "including," and variations thereof are used in this disclosure, these terms are inclusive, as is the term "comprising." is intended. Furthermore, the term "or" as used in this disclosure is not intended to be an exclusive OR.
本開示において、例えば、英語でのa、an及びtheのように、翻訳により冠詞が追加された場合、本開示は、これらの冠詞の後に続く名詞が複数形であることを含んでもよい。 In this disclosure, where articles have been added by translation, such as a, an, and the in English, the disclosure may include the plural nouns following these articles.
本開示において、「AとBが異なる」という用語は、「AとBが互いに異なる」ことを意味してもよい。なお、当該用語は、「AとBがそれぞれCと異なる」ことを意味してもよい。「離れる」、「結合される」などの用語も、「異なる」と同様に解釈されてもよい。 In the present disclosure, the term "A and B are different" may mean "A and B are different from each other." The term may also mean that "A and B are different from C". Terms such as "separate," "coupled," etc. may also be interpreted in the same manner as "different."
1…周囲画像推定装置、2・2a…移動体、3・3a・3b…カメラ、4…周囲画像推定システム、10…格納部、11…取得部、12…推定部、13…算出部、14…出力部、1001…プロセッサ、1002…メモリ、1003…ストレージ、1004…通信装置、1005…入力装置、1006…出力装置、1007…バス、B1…オブジェクト、B2・B3・B4…人、C…監視カメラ、R1・R2…領域、S・Sa・Sb…周囲画像。
DESCRIPTION OF
Claims (10)
前記推定部によって推定された周囲画像と、前記所定時間後に前記撮像手段により実際に撮像された周囲画像との合致度を算出する算出部と、
前記算出部によって算出された前記合致度に基づいた出力を行う出力部と、
を備える周囲画像推定装置。 an estimating unit for estimating a surrounding image captured by the imaging means after a predetermined time based on the surrounding image captured by the imaging means provided for the moving object;
a calculating unit for calculating a degree of matching between the surrounding image estimated by the estimating unit and the surrounding image actually captured by the imaging means after the predetermined time;
an output unit that outputs based on the degree of matching calculated by the calculation unit;
An ambient image estimation device comprising:
請求項1に記載の周囲画像推定装置。 The output unit calculates the predetermined time when the degree of matching satisfies a predetermined standard based on the degree of matching calculated by the calculating unit, and outputs the surrounding image after the predetermined time estimated by the estimating unit. Output,
The ambient image estimation device according to claim 1.
前記算出部は、前記推定部によって推定された複数の周囲画像それぞれに対して前記合致度を算出し、
前記出力部は、前記算出部によって算出された複数の前記合致度のうち所定の基準を満たす前記合致度を選択し、選択した当該合致度の基となった前記所定時間を、前記合致度が所定の基準を満たす前記所定時間として算出する、
請求項2に記載の周囲画像推定装置。 The estimating unit estimates surrounding images corresponding to each of the plurality of different predetermined times,
The calculation unit calculates the matching degree for each of the plurality of surrounding images estimated by the estimation unit;
The output unit selects the degree of matching that satisfies a predetermined criterion from among the plurality of degrees of matching calculated by the calculating unit, and outputs the predetermined time on which the selected degree of matching is based on the degree of matching. Calculate as the predetermined time that satisfies a predetermined criterion,
The ambient image estimation device according to claim 2.
前記推定部は、前記第一のカメラにより撮像された画像中のオブジェクトとの距離と、前記第二のカメラにより撮像された周囲画像とに基づいて推定する、
請求項1~3の何れか一項に記載の周囲画像推定装置。 The imaging means comprises a first camera capable of measuring the distance to an object in the image being imaged and a second camera capable of imaging the surroundings,
The estimation unit estimates based on a distance to an object in an image captured by the first camera and a surrounding image captured by the second camera.
A surrounding image estimation device according to any one of claims 1 to 3.
請求項1~4の何れか一項に記載の周囲画像推定装置。 The output unit performs output further based on a transmission delay time until the surrounding image captured by the imaging means is displayed to a controller controlling movement of the object.
The ambient image estimation device according to any one of claims 1 to 4.
請求項5に記載の周囲画像推定装置。 The output unit calculates the predetermined time when the degree of matching satisfies a predetermined standard based on the degree of matching calculated by the calculating unit, and calculates the predetermined time when the transmission delay time is within the predetermined time. outputting a surrounding image after the transmission delay time estimated by the unit;
The ambient image estimation device according to claim 5.
請求項1~6の何れか一項に記載の周囲画像推定装置。 The output unit performs output further based on the estimation accuracy of the estimation by the estimation unit.
The ambient image estimation device according to any one of claims 1 to 6.
請求項1~7の何れか一項に記載の周囲画像推定装置。 The estimation unit further estimates based on map information near the predicted position of the object after the predetermined time.
The surrounding image estimation device according to any one of claims 1 to 7.
請求項1~8の何れか一項に記載の周囲画像推定装置。 The estimating unit further estimates based on a surrounding image captured by another imaging means existing near the predicted position of the object after the predetermined time.
A surrounding image estimation device according to any one of claims 1 to 8.
請求項1~9の何れか一項に記載の周囲画像推定装置。 The estimating unit further estimates based on map information in the vicinity of the predicted position of the object after the predetermined time and an object included in a surrounding image captured by another imaging means existing in the vicinity of the predicted position,
A surrounding image estimation device according to any one of claims 1 to 9.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021151888A JP2023044054A (en) | 2021-09-17 | 2021-09-17 | Device for estimating surrounding image |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021151888A JP2023044054A (en) | 2021-09-17 | 2021-09-17 | Device for estimating surrounding image |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023044054A true JP2023044054A (en) | 2023-03-30 |
Family
ID=85725598
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021151888A Pending JP2023044054A (en) | 2021-09-17 | 2021-09-17 | Device for estimating surrounding image |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023044054A (en) |
-
2021
- 2021-09-17 JP JP2021151888A patent/JP2023044054A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9641814B2 (en) | Crowd sourced vision and sensor-surveyed mapping | |
CN108603933B (en) | System and method for fusing sensor outputs with different resolutions | |
US20170263129A1 (en) | Object detecting device, object detecting method, and computer program product | |
JP6462528B2 (en) | MOBILE BODY TRACKING DEVICE, MOBILE BODY TRACKING METHOD, AND MOBILE BODY TRACKING PROGRAM | |
JP2022542413A (en) | Projection method and projection system | |
CN113936085A (en) | Three-dimensional reconstruction method and device | |
WO2019087891A1 (en) | Information processing device and flight control system | |
WO2021088497A1 (en) | Virtual object display method, global map update method, and device | |
US11836978B2 (en) | Related information output device | |
JP2023044054A (en) | Device for estimating surrounding image | |
WO2021192873A1 (en) | Positioning system | |
US20220295017A1 (en) | Rendezvous assistance apparatus, rendezvous assistance system, and rendezvous assistance method | |
JP6945004B2 (en) | Information processing device | |
CN116533987A (en) | Parking path determination method, device, equipment and automatic driving vehicle | |
JP7246255B2 (en) | Information processing device and program | |
WO2020115945A1 (en) | Positioning system | |
JP7267105B2 (en) | Information processing device and program | |
JPWO2020115944A1 (en) | Map data generator | |
JP2022165254A (en) | Information processing device and program | |
WO2021075317A1 (en) | Ar system and terminal | |
WO2022163651A1 (en) | Information processing system | |
WO2023008277A1 (en) | Content sharing system | |
WO2021172137A1 (en) | Content sharing system and terminal | |
JP7246254B2 (en) | Information processing device and program | |
JP2023035543A (en) | Moving body and monitoring support system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240205 |