JP2023131258A - 情報処理装置、及び制御方法 - Google Patents

情報処理装置、及び制御方法 Download PDF

Info

Publication number
JP2023131258A
JP2023131258A JP2022035888A JP2022035888A JP2023131258A JP 2023131258 A JP2023131258 A JP 2023131258A JP 2022035888 A JP2022035888 A JP 2022035888A JP 2022035888 A JP2022035888 A JP 2022035888A JP 2023131258 A JP2023131258 A JP 2023131258A
Authority
JP
Japan
Prior art keywords
target area
data
robot
image
orientation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022035888A
Other languages
English (en)
Inventor
健 宮本
Takeshi Miyamoto
享 錢谷
Susumu Zenitani
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2022035888A priority Critical patent/JP2023131258A/ja
Publication of JP2023131258A publication Critical patent/JP2023131258A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

【課題】移動している移動体の位置を認識しやすくすること。【解決手段】情報処理装置は、予め対象領域において異なる時刻に測定された対象物との距離を少なくとも含む複数のデータと、当該複数のデータに基づいて予め生成された対象領域の俯瞰画像とを記憶部から取得する第1取得部と、対象物との距離を少なくとも測定可能な第1センサを備える移動体から、対象領域において第1センサを用いて測定された対象物との距離情報を少なくとも含む現在のデータを取得する第2取得部と、第1取得部が取得した複数のデータと、第2取得部が取得した現在のデータとに基づいて、対象領域の俯瞰画像上における移動体の現在の位置及び姿勢を特定する特定部と、対象領域の俯瞰画像と、対象領域の俯瞰画像上における移動体の現在の位置及び姿勢を示す情報とを出力する出力部と、を備える。【選択図】図3

Description

本開示は、情報処理装置、及び制御方法に関する。
自律走行が可能な自走式の移動体(例えば、ロボット)に設けられたセンサで撮影した画像を、PC(Personal Computer)、スマートフォンなどの他の電子機器で表示する技術がある。この技術によれば、移動体が存在する位置から離れた場所で、移動体が進む方向などの様子を知ることができる。しかしながら、移動体で撮影された画像は移動体を視点とした画像であるため、離れた場所から移動体の位置をリアルタイムに把握することが難しい場合がある。
一方、特許文献1には、車両の周りを複数のカメラで撮影した画像から、周りの環境の見下ろし画像(俯瞰画像)を生成し、地図データまたは衛星画像などの既存の俯瞰画像と比較することにより、車両の姿勢を推定する技術が開示されている。また、特許文献2には、清掃ロボットが物体までの距離データに基づいて段差、障害物、床面などを把握するとともに俯瞰画像を生成することにより、自律走行性能を高める技術が開示されている。
特開2021-167819号公報 特開2014-194729号公報
しかしながら、上述した特許文献1に開示されている技術は、ある特定の時刻に撮影されたワンショットの画像から生成した俯瞰画像を既存の俯瞰画像と比較することによりその撮影時点での車両の向きを推定するだけであるため、移動している移動体の時々の位置をリアルタイムに把握することはできない。また、特許文献2に開示されている技術は、段差、障害物、床面などを把握することができたとしても、移動している移動体の時々の位置をリアルタイムに把握することはできない。
本開示は、上記した事情に鑑みてなされたもので、移動している移動体の位置を認識しやすくすることができる情報処理装置、及び制御方法を提供することを目的の一つとする。
本開示の一態様は、予め対象領域において異なる時刻に測定された対象物との距離を少なくとも含む複数のデータと、当該複数のデータに基づいて予め生成された前記対象領域の俯瞰画像とを記憶部から取得する第1取得部と、前記対象物との距離を少なくとも測定可能な第1センサを備える移動体から、前記対象領域において前記第1センサを用いて測定された前記対象物との距離情報を少なくとも含む現在のデータを取得する第2取得部と、前記第1取得部が取得した複数のデータと、前記第2取得部が取得した現在のデータとに基づいて、前記対象領域の俯瞰画像上における前記移動体の現在の位置及び姿勢を特定する特定部と、前記対象領域の俯瞰画像と、前記対象領域の俯瞰画像上における前記移動体の現在の位置及び姿勢を示す情報とを出力する出力部と、を備える情報処理装置である。
また、本開示の一態様は、対象物との距離を少なくとも測定可能な第1センサを備える移動体が移動する対象領域において、異なる時刻に前記第1センサを用いて測定された前記対象物との距離を少なくとも含む複数のデータを前記移動体から取得するデータ取得部と、前記データ取得部が取得した複数のデータに基づいて前記対象領域の俯瞰画像を生成する生成部と、を備える情報処理装置である。
また、本開示の一態様は、情報処理装置における制御方法であって、第1取得部が、予め対象領域において異なる時刻に測定された対象物との距離を少なくとも含む複数のデータと、当該複数のデータに基づいて予め生成された前記対象領域の俯瞰画像とを記憶部から取得するステップと、第2取得部が、前記対象物との距離を少なくとも測定可能な第1センサを備える移動体から、前記対象領域において前記第1センサを用いて測定された前記対象物との距離情報を少なくとも含む現在のデータを取得するステップと、特定部が、前記第1取得部が取得した複数のデータと、前記第2取得部が取得した現在のデータとに基づいて、前記対象領域の俯瞰画像上における前記移動体の現在の位置及び姿勢を特定するステップと、出力部が、前記対象領域の俯瞰画像と、前記対象領域の俯瞰画像上における前記移動体の現在の位置及び姿勢を示す情報とを出力するステップと、を含む制御方法である。
また、本開示の一態様は、情報処理装置における制御方法であって、データ取得部が、対象物との距離を少なくとも測定可能な第1センサを備える移動体が移動する対象領域において、異なる時刻に前記第1センサを用いて測定された前記対象物との距離情報を少なくとも含む複数のデータを前記移動体から取得するステップと、生成部が、前記データ取得部が取得した複数のデータに基づいて前記対象領域の俯瞰画像を生成するステップと、を含む制御方法である。
本開示によれば、移動している移動体の位置を認識しやすくすることができる。
第1の実施形態に係る情報処理システムのハードウェア構成の一例を示すブロック図。 第1の実施形態に係るロボット制御部の機能構成の一例を示すブロック図。 第1の実施形態に係るサーバ制御部の機能構成の一例を示すブロック図。 第1の実施形態に係るロボットの位置及び姿勢を俯瞰画像上に表示した表示例を示す図。 第1の実施形態に係るロボットの進行方向の可視光画像の表示例を示す図。 第1の実施形態に係る準備段階の処理の一例を示すフローチャート。 第1の実施形態に係る運用段階の処理の一例を示すフローチャート。 第1の実施形態に係る運用段階の推定方法の具体例を示す図。 第1の実施形態に係る座標系を示す図。 第1の実施形態に係るセンサをロボットに取り付けたときの座標系を示す図。 第2の実施形態に係るロボットのハードウェア構成の一例を示すブロック図。
以下、図面を参照して、実施形態について説明する。
[第1の実施形態]
本実施形態では、移動体が移動する対象となる領域(以下、「対象領域」と称する)において、当該移動体がどこに存在するかを、ユーザが離れた位置から容易に認識可能とする構成について説明する。対象領域とは、移動体が移動可能な施設、建物、部屋などの任意の場所(空間)である。対象領域内を移動する移動体は、自律移動が可能である。本実施形態では、移動体の例として、自律走行が可能な自走式移動体であるロボットを例に説明する。ロボットは、掃除用ロボット、案内用ロボット、運搬用ロボットなど、任意の目的を有するロボットであってもよい。なお、自律制御で移動することが可能な移動体としては、自律走行が可能なロボットに限定されず、自律走行が可能な車両、自律飛行が可能なドローンなど任意の移動体を用いることができる。
(システム構成)
図1は、本実施形態に係る情報処理システム1のハードウェア構成の一例を示すブロック図である。情報処理システム1は、自律走行が可能なロボット10と、サーバ20と、端末30とを備えている。サーバ20は、ロボット10及び端末30のそれぞれとネットワークを介してデータの送受信が可能である。ネットワークは、インターネット、WAN(Wide Area Network)、LAN(Local Area Network)などの通信ネットワークである。
ロボット10は、通信部11と、可視光カメラ12と、赤外線カメラ13と、移動装置14と、ロボット制御部15とを備えている。通信部11は、ネットワークを介してサーバ20などと通信を行うための通信デバイスである。なお、通信部11は、ネットワークを介して端末30と通信を行ってもよい。
可視光カメラ12は、可視光を用いて撮像するイメージセンサを備えた撮像装置である。例えば、可視光カメラ12は、対象領域内で撮像した可視光画像のデータを出力する。
赤外線カメラ13は、ロボット10の周囲に存在する物体(以下、「対象物」と称する)との距離を、赤外線を用いて測定可能な距離センサである。赤外線カメラ13は、赤外光を発光する発光部と物体に反射した赤外光を受光するセンサ部とを含んで構成されている。例えば、赤外線カメラ13は、対象領域内において測定した対象物との距離情報(例えば、距離画像)のデータを出力する。
可視光カメラ12と赤外線カメラ13とは、同一方向を向くようにロボット10に設けられている。例えば、可視光カメラ12の光軸と赤外線カメラ13の光軸とは、略一致するように設置または調整されている。また、可視光カメラ12と赤外線カメラ13との撮像(測定)タイミングを同期させることで、同時刻のデータ、即ち対象領域内において同位置から同方向を撮像(測定)したデータを取得することができる。
なお、本実施形態では、対象物との距離を測定するための距離センサとして赤外線カメラ13を用いる例を説明するが、赤外線カメラ13に代えて又は加えて、可視光カメラ、LiDAR(Light Detection And Ranging)などを用いてもよい。可視光カメラを距離センサとして用いる場合、単眼の可視光カメラであってもよいし、2つの可視光カメラを用いたステレオカメラであってもよい。例えば、ロボット10は、赤外線カメラ13を備えずに、可視光カメラ12を用いて可視光画像と距離情報とを取得する構成としてもよい。
移動装置14は、ロボットを移動させるための走行部(例えば、車輪など)及び走行部を駆動する駆動部などを含んで構成されている。
ロボット制御部15は、CPU(Central Processing Unit)、メモリなどを含んで構成されており、ロボット10を制御するための制御プログラムを実行することにより、ロボット10の各部を制御する。ここで、図2を参照して、ロボット制御部15が制御プログラムを実行することにより実現される機能構成について説明する。
(ロボット制御部の機能構成)
図2は、本実施形態に係るロボット制御部15の機能構成の一例を示すブロック図である。ロボット制御部15は、データ送信部151と、カメラ制御部152と、位置姿勢推定部153と、走行制御部154とを備えている。
カメラ制御部152は、可視光カメラ12及び赤外線カメラ13のデータの取得タイミングなどを制御する。例えば、カメラ制御部152は、可視光カメラ12及び赤外線カメラ13を同期させて所定の時間間隔で撮像(測定)させ、その都度、可視光画像及び距離画像のデータを取得する。
位置姿勢推定部153は、可視光カメラ12を用いて取得した可視光画像と赤外線カメラ13を用いて取得した距離画像とに基づいて、ロボット10の位置及び姿勢を推定する。例えば、位置姿勢推定部153は、SLAM(Simultaneous Localization Mapping)などの技術を用いて、ロボット10の位置及び姿勢をリアルタイムに推定する。
走行制御部154は、移動装置14を制御することにより、ロボット10の移動または停止、移動させる際の方向及び速度などを制御する。例えば、ロボット制御部15は、可視光カメラ12及び赤外線カメラ13から出力されるデータ、位置姿勢推定部153により推定されたロボット10の位置及び姿勢などに基づいて、ロボット10を自律走行させる。また、走行制御部154は、予め設定された経路情報に基づいて、ロボット10を走行させてもよい。また、ロボット制御部15は、ユーザが遠隔操作するリモートコントローラ(不図示)からの操作信号を通信部11を介して取得することにより、ユーザの遠隔操作に応じてロボット10を移動させてもよい。
データ送信部151は、可視光カメラ12及び赤外線カメラ13により取得した可視光画像及び距離画像のデータ、位置姿勢推定部153により推定されたロボット10の位置及び姿勢情報などを、通信部11を介してサーバ20へ送信する。例えば、データ送信部151は、ロボット10の視点が大きく切り替わったときのみ、可視光画像及び距離画像のデータとロボット10の位置及び姿勢情報とをサーバ20へ送信してもよい。
ここで、ロボット10の視点が大きく切り替わったときとは、即ちロボット10の位置または姿勢が所定の閾値以上に変化したときであり、このときの可視光画像及び距離画像のデータのことを、「キーフレームのデータ」と称する。つまり、キーフレームとは、ロボット10の視点が大きく切り替わるフレームのことを指し、一つ前のキーフレームから回転量や並進量が所定の閾値以上になったときに検出されるフレームを指す。
このような機能構成を備えたロボット制御部15は、対象領域内においてロボット10を走行させながら、可視光カメラ12及び赤外線カメラ13を同期させて所定の時間間隔で撮像(測定)させることにより、異なる時刻の複数のデータ(可視光画像及び距離画像)を取得する。ロボット制御部15は、取得した複数のデータに基づいてロボット10の位置及び姿勢を推定し、複数のデータとロボット10の位置及び姿勢情報とを関連付けて、通信部11を介してサーバ20へ送信する。例えば、ロボット制御部15は、複数のデータのうちキーフレームのデータと、各キーフレームのデータに基づいて推定されたロボット10の位置及び姿勢情報とを関連付けてサーバ20へ送信する。
図1に戻り、サーバ20は、通信部21と、記憶部22と、サーバ制御部25とを備えている。通信部21は、ネットワークを介してロボット10及び端末30などと通信を行うための通信デバイスである。記憶部22は、HDD(Hard Disk Drive)またはSSD(Solid State Drive)などを含んで構成され、ロボット10から取得したデータ、サーバ20が生成したデータなどを記憶する。
サーバ制御部25は、CPU、メモリなどを含んで構成されており、サーバ20を制御するための制御プログラムを実行することにより、サーバ20の各部を制御する。ここで、図3を参照して、サーバ制御部25が制御プログラムを実行することにより実現される機能構成について説明する。
(サーバ制御部の機能構成)
図3は、本実施形態に係るサーバ制御部25の機能構成の一例を示すブロック図である。サーバ制御部25は、データ受信部251と、点群データ生成部252と、俯瞰画像生成部253と、データ取得部254と、位置座標変換部255と、出力部256とを備えている。
データ受信部251(第2取得部、データ取得部の一例)は、ロボット10から送信された可視光画像及び距離画像のデータとロボット10の位置及び姿勢情報とを、通信部21を介して受信する。例えば、データ受信部251は、キーフレームのデータと、各キーフレームのデータに基づいて推定されたロボット10の位置及び姿勢情報とを受信する。データ受信部251は、受信した可視光画像及び距離画像のデータとロボット10の位置及び姿勢情報とを記憶部22に記憶させる。
点群データ生成部252は、異なる時刻の複数のキーフレームのデータ(可視光画像及び距離画像)と各キーフレームのデータに基づいて推定されたロボット10の位置及び姿勢情報とに基づいて、対象領域内における対象物の位置に応じた3次元の点群データを統合した統合点群データを生成する。
ここで、点群データとは、対象領域内において検出された対象物の位置に応じた点を3次元座標上にプロットしたデータである。異なる時刻の複数のキーフレームごとに、ロボット10を視点とした対象領域内の対象物に対応する点群データが得られる。点群データ生成部252は、視点が異なる複数のキーフレームごとの3次元の点群データをキーフレームごとのロボット10の位置及び姿勢情報に基づいて統合して、対象領域の一部または全部に対応する統合点群データを生成する。
俯瞰画像生成部253(生成部の一例)は、所定の座標変換行列を用いて、点群データ生成部252により生成された統合点群データに対応する対象領域の俯瞰画像を生成する。また、俯瞰画像生成部253は、生成した俯瞰画像のデータを記憶部22に記憶させる。例えば、俯瞰画像生成部253は、キーフレームのデータと、ロボット10の位置及び姿勢情報と、生成した俯瞰画像のデータとを、キーフレームの取得時刻ごとに関連付けて記憶部22に記憶させる。この俯瞰画像の生成は、ロボット10の現在の位置及び姿勢を俯瞰画像上に表示するための準備として、事前に行われる。
データ取得部254(第1取得部の一例)は、記憶部22に記憶されている各種のデータ及び情報を、必要に応じて読み出して取得する。例えば、データ取得部254は、ロボット10から取得して記憶部22に記憶されているキーフレームのデータ及びロボット10の位置及び姿勢情報、俯瞰画像生成部253により生成された俯瞰画像のデータを、必要に応じて読み出して取得する。
位置座標変換部255(特定部の一例)は、対象領域内を走行しているロボット10から取得したロボット10の現在の位置及び姿勢を、事前に俯瞰画像生成部253により生成された対象領域の俯瞰画像上の位置及び姿勢に変換する。具体的には、位置座標変換部255は、ロボット10から取得した複数のキーフレーム(可視光画像及び距離画像)のデータ及びロボット10の位置及び姿勢情報を記憶部22から読み出す。そして、位置座標変換部255は、記憶部22から読み出した複数のキーフレーム(可視光画像及び距離画像)のデータ及びロボット10の位置及び姿勢情報と、ロボット10から取得した現在の可視光画像及び距離画像のデータ及びロボット10の現在の位置及び姿勢情報とに基づいて、対象領域の俯瞰画像上におけるロボット10の現在の位置及び姿勢を特定する。
例えば、位置座標変換部255は、対象領域の俯瞰画像上におけるロボット10の現在の位置及び姿勢を特定する際に、事前に対象領域の俯瞰画像を生成する際に用いた所定の座標変換行列を用いて、ロボット10から取得したロボット10の現在の位置及び姿勢を俯瞰画像上の位置及び姿勢に変換して特定する。位置座標変換部255は、俯瞰画像上におけるロボット10の現在の位置及び姿勢を示す情報を記憶部22に記憶させる。
出力部256は、対象領域の俯瞰画像のデータと、俯瞰画像上におけるロボット10の現在の位置及び姿勢を示す情報とを、通信部21を介して出力する。例えば、出力部256は、俯瞰画像のデータとロボット10の現在の位置及び姿勢を示す情報とのそれぞれを関連付けて、端末30で表示可能なように端末30へ送信する。なお、出力部256は、俯瞰画像上にロボット10の現在の位置及び姿勢を示す情報を付加した画像データを、端末30で表示可能なように送信してもよい。
以降において、事前に対象領域の俯瞰画像を生成する処理のことを、「準備段階の処理」、生成した俯瞰画像上におけるロボット10の現在の位置及び姿勢を特定して出力する処理のことを「運用段階の処理」と称する。
図1に戻り、端末30は、通信部31と、表示部32と、入力部33と、端末制御部35とを備えている。通信部31は、ネットワークを介してサーバ20などと通信を行うための通信デバイスである。なお、通信部31は、ネットワークを介してロボット10と通信を行ってもよい。
表示部32は、液晶ディスプレイ、有機ELディスプレイなどを含んで構成されている。入力部33は、表示部32の表示画面上へのタッチ操作による操作入力を受け付けるタッチパネルである。なお、入力部33は、キーボード、マウス、マイクなどを含む構成であってもよい。
端末制御部35は、CPU、メモリなどを含んで構成されており、端末30を制御するための制御プログラムを実行することにより、端末30の各部を制御する。例えば、端末制御部35は、サーバ20から送信されたデータを取得し、対象領域内を走行しているロボット10の現在の位置及び姿勢を示す情報を対象領域の俯瞰画像上に付加して表示部32に表示させる。
(表示例)
図4は、本実施形態に係るロボット10の位置及び姿勢を俯瞰画像上に表示した表示例を示す図である。この図では、俯瞰画像を用いた対象領域の地図M1と、地図M1上にロボット10の位置及び姿勢(向き)を示すマーカR1とが表示されている。このマーカR1は、黒丸の位置が地図M1上のロボット10の位置を示しており、三角形の開いている側がロボット10の進行方向を示している。
このように、俯瞰画像による地図上でロボット10の位置及び姿勢を確認できるため、対象領域内のロボット10の位置及び姿勢をユーザにわかりやすく伝えることができる。例えば、ロボット10の進行方向を可視光カメラ12で撮影した可視光画像を表示することもできるが、この可視光画像では地図上の位置が分かり難い。
図5は、ロボット10の進行方向の可視光画像の表示例を示す図である。この図5に示す可視光画像は、図4に示すマーカR1の位置から進行方向を撮影した可視光画像の例である。進行方向の様子はわかるものの、対象領域内のどこにロボット10が存在するのかを容易に認識することができない。
また、本実施形態では、可視光画像と距離画像とを用いて俯瞰画像が生成されるため、図4に示すように地図M1には、対象領域内の各部屋の壁などの対象物のみでなく、床の模様なども表示される。これにより、対象領域内のロボット10の位置及び姿勢をユーザによりわかりやすく伝えることができる。
(処理の動作)
次に、本実施形態に係る情報処理システム1による処理の動作について説明する。まず、図6を参照して、準備段階の処理の動作について説明する。
図6は、本実施形態に係る準備段階の処理の一例を示すフローチャートである。ここでは、対象領域の俯瞰画像を生成するために、ユーザがリモートコントローラを用いてロボット10を対象領域内で走行させる。ロボット10が対象領域の全域を走行することにより、対象領域の全域俯瞰画像を生成することができる。
(ステップS101)ロボット10は、対象領域を走行しながら所定の時間間隔で可視光カメラ12及び赤外線カメラ13を用いて可視光画像及び距離画像を取得する。そしてステップS103の処理へ進む。
(ステップS103)ロボット10は、可視光カメラ12を用いて取得した可視光画像と赤外線カメラ13を用いて取得した距離画像とに基づいて、ロボット10の位置及び姿勢を推定する。そしてステップS105の処理へ進む。
(ステップS105)ロボット10は、可視光カメラ12及び赤外線カメラ13により取得した可視光画像及び距離画像のデータ、位置姿勢推定部153により推定されたロボット10の位置及び姿勢情報などをサーバ20へ順次に送信する。例えば、ロボット制御部15は、キーフレームのデータと、各キーフレームのデータに基づいて推定されたロボット10の位置及び姿勢情報とを関連付けてサーバ20へ順次に送信する。そして、ステップS107の処理へ進む。
(ステップS107)サーバ20は、ロボット10から順次送信されたキーフレームの可視光画像及び距離画像のデータ、ロボット10の位置及び姿勢情報などを順次に取得し、記憶部22に記憶させる。そして、ステップS109の処理へ進む。
(ステップS109)サーバ20は、異なる時刻の複数のキーフレームのデータ(可視光画像及び距離画像)と各キーフレームのデータに基づいて推定されたロボット10の位置及び姿勢情報とに基づいて、対象領域内における対象物の位置に応じた3次元の点群データを統合した統合点群データを生成する。そして、ステップS109の処理へ進む。
(ステップS111)サーバ20は、ステップS109で生成した統合点群データに基づいて、対象領域の俯瞰画像を生成する。例えば、サーバ20は、所定の座標変換行列を用いて、統合点群データに対応する対象領域の俯瞰画像を生成して記憶部22に記憶させる。
次に、図7を参照して、運用段階の処理の動作について説明する。
図7は、本実施形態に係る運用段階の処理の一例を示すフローチャートである。ここでは、例えばロボット10が対象領域内で自律走行を行っているものとする。
(ステップS201)ロボット10は、対象領域を走行しながら所定の時間間隔で可視光カメラ12及び赤外線カメラ13を用いて可視光画像及び距離画像を取得する。そしてステップS203の処理へ進む。
(ステップS203)ロボット10は、可視光カメラ12を用いて取得した可視光画像と赤外線カメラ13を用いて取得した距離画像とに基づいて、ロボット10の現在の位置及び姿勢を推定する。そしてステップS205の処理へ進む。
(ステップS205)ロボット10は、可視光カメラ12及び赤外線カメラ13により取得した可視光画像及び距離画像のデータ、位置姿勢推定部153により推定されたロボット10の現在の位置及び姿勢情報などをサーバ20へ順次に送信する。そして、ステップS207の処理へ進む。
(ステップS207)サーバ20は、ロボット10から送信された可視光画像及び距離画像のデータ、ロボット10の現在の位置及び姿勢情報などを取得し、記憶部22に記憶させる。そして、ステップS209の処理へ進む。
(ステップS209)サーバ20は、可視光画像及び距離画像、ロボットの現在の位置及び姿勢に基づいて、俯瞰画像上のロボット10の現在の位置及び姿勢を特定する。具体的には、サーバ20は、準備段階の処理(図6参照)でロボット10から取得した複数のキーフレーム(可視光画像及び距離画像)のデータ及びロボット10の位置及び姿勢情報を記憶部22から読み出す。そして、サーバ20は、記憶部22から読み出した複数のキーフレーム(可視光画像及び距離画像)のデータ及びロボット10の位置及び姿勢情報と、ステップS207において対象領域内を走行しているロボット10から取得した現在の可視光画像及び距離画像のデータ及びロボット10の現在の位置及び姿勢情報とに基づいて、対象領域の俯瞰画像上におけるロボット10の現在の位置及び姿勢を特定する。例えば、サーバ20は、対象領域の俯瞰画像上におけるロボット10の現在の位置及び姿勢を特定する際に、準備段階の処理で対象領域の俯瞰画像を生成する際に用いた所定の座標変換行列を用いて、ロボット10の現在の位置及び姿勢を俯瞰画像上の位置及び姿勢に変換して特定する。サーバ20は、俯瞰画像上におけるロボット10の現在の位置及び姿勢を示す情報を記憶部22に記憶させる。そして、ステップS211の処理へ進む。
(ステップS211)サーバ20は、対象領域の俯瞰画像のデータと、俯瞰画像上におけるロボット10の現在の位置及び姿勢を示す情報とを端末30へ送信する。そして、ステップS213の処理へ進む。
(ステップS213)端末30は、対象領域の俯瞰画像のデータと、俯瞰画像上におけるロボット10の現在の位置及び姿勢を示す情報とをサーバ20から取得する。端末30は、対象領域内を走行しているロボット10の現在の位置及び姿勢を示す情報を対象領域の俯瞰画像上に付加して表示する(図4参照)。そして、ステップS215の処理へ進む。
(ステップS215)サーバ20は、このロボット10の現在の位置及び姿勢を示す情報を俯瞰画像上に表示させる運用段階の処理が終了したか否かを判定する。サーバ20は、運用段階の処理が終了していないと判定した場合、ステップS201へ戻り、処理が継続される。一方、サーバ20は、対象領域内でのロボット10の走行が終了(例えば、業務が終了)した場合、または、ユーザにより運用段階の処理の終了が指示された場合、運用段階の処理が終了したと判定し、運用段階の処理を終了する。
(ロボットの位置及び姿勢の推定方法)
次に、ロボット10の位置及び姿勢の推定方法の具体例について説明する。ロボット10の位置及び姿勢の推定方法は、準備段階と運用段階とで異なる。各段階で行うロボット10の位置及び姿勢の推定方法の一例について説明する。
(準備段階の推定方法)
準備段階では、SLAMによりロボット10の位置及び姿勢を求める。ここで求める位置及び姿勢は、ロボット19の走行開始地点からの位置及び姿勢の変化である。ここで得るデータθは、以下の(数式1)に示すように、可視光カメラ12から得られる可視光画像Iiと、赤外線カメラ13から得られる距離画像(或いは距離情報)Diと、SLAMにより得られる位置tiと、姿勢Riとの組で示される。
Figure 2023131258000002
ロボット10が対象領域内を走行し、連続的にデータを収集することで、全部でN個(Nは、自然数)の組が得られる。N個の組は、定期的な周期で撮影して取得されても良いし、キーフレームを検出することにより取得されても良い。
(運用段階の推定方法)
運用段階では、準備段階で得られた地図に基づいてロボット10の位置及び姿勢の推定が行われる。図8は、本実施形態に係る運用段階の推定方法の具体例を示す図である。具体的には、図8に示すように、(1)絶対的な位置及び姿勢の推定と、(2)相対的な位置及び姿勢の推定との組み合わせから推定する。
(1)絶対的な位置及び姿勢の推定
地図を元にした絶対的な位置及び姿勢推定の一例としてBag of Words(BoW)を使用する方法がある。BoWは、準備段階においてロボット10で撮影された複数の可視光画像Ii(i=1,2・・・,N)の中から、運用段階にてロボット10で撮影された可視光画像に最も近い可視光画像Ii′を探索する方法である。この探索により得られた可視光画像Ii′と、ロボット10で撮影された可視光画像Iiの視点とは異なる。そのため、可視光画像Ii′から可視光画像Iへの視点の移動量Δt、ΔRを求める。移動量を求める方法の一例として、各可視光画像から検出した特徴点と、特徴点周辺の特徴を示すベクトルを用いる方法がある。
BoWで探索した可視光画像Ii′に対応する位置ti及び姿勢Ri、可視光画像Ii′から可視光画像Iへの視点の移動量Δt、ΔRより、ロボット10の絶対的な位置ti及び姿勢Riは、以下の(数式2)で示される。(数式2)の「0」はゼロベクトルであり、0=(0 0 0)で示される。
Figure 2023131258000003
絶対的な位置及び姿勢の推定は、計算量や、準備段階と運用段階の環境の差異などが起因して、リアルタイムに毎回実行できない可能性がある。そのため、相対的な位置及び姿勢の推定との組み合わせからロボット10の位置及び姿勢の推定が行われる。一度、絶対的な位置及び姿勢を求めた後、それ以後は当分の間、相対的な位置及び姿勢の推定によりロボット10の位置及び姿勢を求める。相対的な位置及び姿勢を推定する方法の一例としては、SLAMがある。また、計算リソースが豊富かつ準備段階と運用段階の環境の差異が無視できる場合などは、相対的な位置及び姿勢の推定を省いても良い。
(ロボットの位置座標の変換方法)
次に、位置座標変換部255が、対象領域内を走行しているロボット10から取得したロボット10の現在の位置及び姿勢を、事前に俯瞰画像生成部253により生成された対象領域の俯瞰画像上の位置及び姿勢に変換する際の位置座標の変換方法について説明する。
前述したように、対象領域の俯瞰画像は、準備段階において点群データ生成部252により生成された統合点群データを元に、所定の座標変換行列を用いて生成される。この準備段階で計算した所定の座標変換行列を用いて、運用段階でロボット10の位置を俯瞰画像上にプロットする。
図9は、本実施形態に係る座標系を示す図である。ここでは、可視光カメラ12及び赤外線カメラ13のことを、「センサ」と総称する。oがセンサの位置、zがセンサの光軸方向、xが右方向(画像の横方向)、yが縦方向(画像の縦方向)を示す。図10は、センサをロボット10に取り付けたときの座標系を示す図である。
点群に含まれる点pをピクセルに変換する方法は、以下の(数式3)示される。
Figure 2023131258000004
Mは地平面とx-z平面が一致するように点群を座標変換するための行列である。詳細は後述する。
Pはy軸及びz軸の値を交換すると共に向きを変更する行列であり、以下の(数式4)で示される。
Figure 2023131258000005
Nは点群の座標値を-1~1に正規化する行列である。この設定方法は後述する。
Dはベクトルの一部の要素を削除する行列であり、以下の(数式5)で示される。
Figure 2023131258000006
Kは投影するときの画角や中心を設定する行列である。解像度に依存した行列であり、横方向の画像の解像度をr、縦方向の画像の解像度をrとすると、Kは以下の(数式6)で示される。投影に用いる画像の解像度ru、は開発者などによって予め決められた値である。
Figure 2023131258000007
最終的に得られるピクセルの位置p′上に、点pに対応した色を表示して俯瞰画像が生成される。同じピクセルに対応する点が複数ある場合には、最も地平面からの距離が短い点に対応する色が表示される。また、ロボット10の位置を俯瞰画像上に表示するときにも、(数式3)を用いる。俯瞰画像を生成するときに計算したK、D、N、P、Mと行った行列を用いることにより、ロボット10の位置姿勢推定部153で得られたロボット10の位置を俯瞰画像上の位置に変換することができる。
(地平面基準の座標系への変換)
地平面基準の座標系に、点群を変換する行列Mについて述べる。地平面とx-z平面が一致させるための回転行列Rg、並進ベクトルtgとすると、Mは以下の(数式7)で示される。
Figure 2023131258000008
PCA(Primary Component Analysis)などで検出した地平面の法線nと、変換後の平面の法線n、v=n×n、s=||v||、c=n・nとすると、回転行列Rgは(数式8)で示される。ここでの「×」はCross Product、「・」はInner Productを示す。
Figure 2023131258000009
また、v=(v、v、vとすると、[v]×は以下の(数式9)で示される。なお、||n||=1、||n||=1とする。
Figure 2023131258000010
地平面をn・p+d=0、変換後の平面をn・p+d=0とすると、並進ベクトルtは以下の(数式10)で示される。ここでのpは、p=(p、p、pであり、平面上の一点を示す。
Figure 2023131258000011
なお、ここでは、変換後の平面はx-z平面であるため、n=(0、1、0),d=0としている。
(点群の正規化)
次に、点群を-1~1に正規化する行列Nについて説明する。Nの定義は以下の(数式11)で示される。
Figure 2023131258000012
m=max(r-l、f-n、t-b)と示すことができ、x、y、z各軸の中で最小から最大までの距離が最も長いものである。
=(x、y、xとすると、lは上空から見た時のx軸方向の最小値(数式12)を示し、rは最大値(数式13)を示す。
Figure 2023131258000013
Figure 2023131258000014
nはy軸方向の最小値(数式14)を示し、fは最大値(数式15)を示す。
Figure 2023131258000015
Figure 2023131258000016
tは上空から見た時のz軸方向の最小値(数式16)を示し、bは最大値(数式17)を示す。
Figure 2023131258000017
Figure 2023131258000018
[実施形態のまとめ]
以上説明してきたように、本実施形態に係るサーバ20(情報処理装置の一例)は、予め(準備段階において)対象領域において異なる時刻に測定された対象物との距離を少なくとも含む複数のデータ(例えば、可視光画像及び距離画像)と、当該複数のデータに基づいて予め生成された対象領域の俯瞰画像とを記憶部22から取得する。また、サーバ20は、対象物との距離を少なくとも測定可能な可視光カメラ12及び赤外線カメラ13(第1センサの一例)を備えるロボット10(移動体の一例)から、対象領域において可視光カメラ12及び赤外線カメラ13を用いて測定された対象物との距離情報を少なくとも含む現在のデータ(例えば、可視光画像及び距離画像のデータとロボット10の位置及び姿勢情報)を(運用段階において)取得する。そして、サーバ20は、記憶部22から取得した複数のデータ(例えば、可視光画像及び距離画像)と、ロボット10から取得した現在のデータ(例えば、可視光画像及び距離画像のデータとロボット10の位置及び姿勢情報)とに基づいて、対象領域の俯瞰画像上におけるロボット10の現在の位置及び姿勢を特定する。また、サーバ20は、生成した対象領域の俯瞰画像と、対象領域の俯瞰画像上におけるロボット10の現在の位置及び姿勢を示す情報とを出力する。
これにより、サーバ20は、対象領域を移動しているロボット10の現在の位置及び姿勢を対象領域の俯瞰画像上において特定し、俯瞰画像上におけるロボット10の現在の位置及び姿勢を示す情報を出力するため、移動している移動体の位置を認識しやすくすることができる。例えば、サーバ20は、ユーザが使用している端末30に対して、対象領域の俯瞰画像上にロボット10の現在の位置及び姿勢を表示させることができるため、移動している移動体の位置を認識しやすくすることができる。
また、サーバ20は、予め(準備段階において)対象領域において異なる時刻に測定された対象物との距離情報を少なくとも含む複数のデータ(例えば、可視光画像及び距離画像)に基づいて対象領域の俯瞰画像を生成して記憶部22に記憶させる。例えば、サーバ20は、ロボット10が移動する対象領域において、予め異なる時刻に可視光カメラ12及び赤外線カメラ13(第1センサの一例)を用いて測定された対象物との距離情報を少なくとも含む複数のデータ(例えば、可視光画像及び距離画像)をロボット10から取得する。そして、サーバ20は、取得した複数のデータ(例えば、可視光画像及び距離画像)に基づいて対象領域の俯瞰画像を生成する。
これにより、サーバ20は、対象領域内においてロボット10を移動させることにより、対象領域の俯瞰画像を容易に取得することができる。
具体的には、サーバ20は、予め対象領域において異なる時刻に測定された対象物との距離情報を少なくとも含む複数のデータ(例えば、可視光画像及び距離画像)に基づいて、対象物の位置に応じた3次元の点群データを生成するとともに、所定の座標変換行列を用いて、点群データに対応する対象領域の俯瞰画像を生成する。
これにより、サーバ20は、対象領域内においてロボット10を移動させることにより、対象領域の俯瞰画像を容易に生成することができる。
また、サーバ20は、対象領域の俯瞰画像上におけるロボット10の現在の位置及び姿勢を特定する際に、事前に(準備段階において)対象領域の俯瞰画像を生成する際に用いた所定の座標変換行列を用いて特定する。
これにより、サーバ20は、事前に(準備段階において)生成した対象領域の俯瞰画像上に、ロボット10の現在の位置及び姿勢をプロットすることができる。
予め対象領域においてロボット10が移動することにより、異なる時刻に可視光カメラ12及び赤外線カメラ13(第1センサの一例)を用いて測定された対象物との距離を少なくとも含む複数のデータ(例えば、可視光画像及び距離画像)を、ロボット10から取得して記憶部22に記憶させる。
これにより、サーバ20は、対象領域内においてロボット10を移動させることにより、対象領域の俯瞰画像を生成するために必要なデータを容易に取得することができる。なお、準備段階において俯瞰画像を生成するためにロボット10を対象領域内で移動させる際は、例えばユーザがリモートコントローラを用いてロボット10を移動させるが、これに限らずロボット10が自律制御で移動しても良いし、ユーザが直接的にロボット10を移動させても良い。
なお、ロボット10が備えるセンサ(第1センサ)は、可視光カメラ12及び赤外線カメラ13であってもよいし、可視光カメラ12、赤外線カメラ13、またはLiDARのいずれか一つ又は複数であってもよい。
これにより、サーバ20は、ロボット10が、可視光カメラ12、赤外線カメラ13、またはLiDARのいずれか一つ又は複数を備えているものであれば、対象領域を移動しているロボット10の現在の位置及び姿勢を対象領域の俯瞰画像上に表示させることができる。
また、ロボット10(移動体の一例)は、自律走行が可能な自走式移動体である。
これにより、サーバ20は、対象領域を自律走行しているロボット10の現在の位置及び姿勢を対象領域の俯瞰画像上に表示させることができる。
また、本実施形態に係るサーバ20における制御方法は、予め(準備段階において)対象領域において異なる時刻に測定された対象物との距離を少なくとも含む複数のデータ(例えば、可視光画像及び距離画像)と、当該複数のデータに基づいて予め生成された対象領域の俯瞰画像とを記憶部22から取得するステップと、対象物との距離を少なくとも測定可能な可視光カメラ12及び赤外線カメラ13(第1センサの一例)を備えるロボット10(移動体の一例)から、対象領域において可視光カメラ12及び赤外線カメラ13を用いて測定された対象物との距離情報を少なくとも含む現在のデータ(例えば、可視光画像及び距離画像のデータとロボット10の位置及び姿勢情報)を(運用段階において)取得するステップと、記憶部22から取得した複数のデータ(例えば、可視光画像及び距離画像)と、ロボット10から取得した現在のデータ(例えば、可視光画像及び距離画像のデータとロボット10の位置及び姿勢情報)とに基づいて、対象領域の俯瞰画像上におけるロボット10の現在の位置及び姿勢を特定するステップと、生成した対象領域の俯瞰画像と、対象領域の俯瞰画像上におけるロボット10の現在の位置及び姿勢を示す情報とを出力するステップと、を含む。
これにより、サーバ20は、対象領域を移動しているロボット10の現在の位置及び姿勢を対象領域の俯瞰画像上において特定し、俯瞰画像上におけるロボット10の現在の位置及び姿勢を示す情報を出力するため、移動している移動体の位置を認識しやすくすることができる。例えば、サーバ20は、ユーザが使用している端末30に対して、対象領域の俯瞰画像上にロボット10の現在の位置及び姿勢を表示させることができるため、移動している移動体の位置を認識しやすくすることができる。
また、本実施形態に係るサーバ20における制御方法は、対象物との距離を少なくとも測定可能な可視光カメラ12及び赤外線カメラ13(第1センサの一例)を備えるロボット10(移動体の一例)が移動する対象領域において、異なる時刻に可視光カメラ12及び赤外線カメラ13を用いて測定された対象物との距離情報を少なくとも含む複数のデータ(例えば、可視光画像及び距離画像)をロボット10から取得するステップと、取得した複数のデータ(例えば、可視光画像及び距離画像)に基づいて対象領域の俯瞰画像を生成するステップと、を含む。
これにより、サーバ20は、対象領域内においてロボット10を移動させることにより、対象領域の俯瞰画像を容易に生成することができる。
[第2の実施形態]
次に、第2の実施形態について説明する。第1の実施形態では、可視光カメラ12及び赤外線カメラ13(或いは、LiDAR)を用いて、ロボット10の位置及び姿勢を推定する例を説明したが、さらにIMU(Inertial Measurement Unit)を用いてもよい。
図11は、本実施形態に係るロボット10Aのハードウェア構成の一例を示すブロック図である。図示するロボット10Aは、通信部11と、可視光カメラ12と、赤外線カメラ13と、移動装置14と、ロボット制御部15と、IMU16とを備えている。ロボット10Aは、IMU16を備えている点が図1に示すロボット10と異なる。IMU16は、ジャイロセンサまたは加速度センサなどロボット10Aの位置又は姿勢を検知するためのセンサを備えている。IMU16は、ジャイロセンサまたは加速度センサなどが検知する情報に基づいて、ロボット10Aの位置又は姿勢に関する情報を出力する。
ロボット10Aのロボット制御部15は、可視光カメラ12及び赤外線カメラ13が取得する画像に加えてIMU16が取得する情報に基づいて、ロボット10Aの位置及び姿勢を推定する。なお、本実施形態におけるサーバ20および端末30の構成は、基本的に第1の実施形態と同様である。
このように、本実施形態に係るロボット10Aは、ロボット10Aの位置又は姿勢を検知するためのIMU16(第2センサの一例)をさらに備えている。
そして、サーバ20は、ロボット10Aから、対象領域において可視光カメラ12及び赤外線カメラ13(第1センサの一例)を用いて測定された対象物との距離とIMU16を用いて検知された位置又は姿勢とを少なくとも含む現在のデータ(例えば、可視光画像及び距離画像のデータとロボット10の位置及び姿勢情報)を取得する。
これにより、サーバ20は、対象領域を移動しているロボット10の現在の位置及び姿勢を精度よく取得することができるため、より精度よく俯瞰画像上におけるロボット10の現在の位置及び姿勢を特定することができる。
[変形例]
なお、ロボット10(10A)の位置及び姿勢の推定は、可視光カメラ12、赤外線カメラ13、LiDAR、IMUの他に、Wheel Odometry、UWB(Ultra Wide Band)、GPS(Global Positioning System)などを利用してもよい。
また、端末30の表示部32に表示された俯瞰画像に基づいて、ロボット10(10A)の目的地または移動経路をユーザが指定できるようにしてもよい。例えば、端末30の表示部32に表示された俯瞰画像上において、ロボット10(10A)を移動させたい位置に対してユーザが操作(例えば、タップ操作)することにより、目的地を指定できる。端末30は、俯瞰画像上の操作された位置を目的地の情報として、ロボット10へ送信する。このとき、端末30からサーバ20を介してロボット10へ送信されてもよいし、端末30からサーバ20を介さずに直接的にロボット10へ送信されてもよい。また、端末30の表示部32に表示された俯瞰画像上において、ロボット10(10A)を移動させたい経路に対してユーザが操作(例えば、スライド操作)することにより、端末30は、俯瞰画像上の操作された経路を移動経路の情報として、ロボット10へ送信してもよい。ロボット10(10A)は、端末30から送信された目的地の情報または移動経路の情報に従って対象領域内を走行するように制御する。即ち、端末30を、ロボット10を遠隔操作するためのリモートコントローラとしてもよい。
また、サーバ20(俯瞰画像生成部253)により生成された対象領域の俯瞰画像に対して、ユーザが編集できるようにしてもよい。例えば、端末30が俯瞰画像の編集機能を有するアプリケーションを実行することにより、当該アプリケーションの処理により表示部32に表示された俯瞰画像の編集をユーザが行うことができる。端末30は、ユーザにより編集された俯瞰画像をサーバ20へ送信することにより、サーバ20に記憶されている俯瞰画像を、編集後の俯瞰画像へ更新する。これにより、サーバ20(俯瞰画像生成部253)により生成された俯瞰画像に、実際の対象領域と異なる部分があっても、後からユーザの手によって修正することができる。
また、点群データ生成部252は、統合点群データを生成する際に、SfM(Structure from Motion)を用いてもよい。例えば、点群データ生成部252は、SLAMにSfMを加えて最適化してもよいし、統合点群データに基づいてポリゴンを生成してもよい。SfMはAI(Artificial Intelligence)を用いるものであってもよい。
なお、上述したロボット10、サーバ20、及び端末30は、内部にコンピュータシステムを有している。そして、上述したロボット10、サーバ20、及び端末30が備える各構成の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより上述したロボット10、サーバ20、及び端末30が備える各構成における処理を行ってもよい。ここで、「記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行する」とは、コンピュータシステムにプログラムをインストールすることを含む。ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータシステム」は、インターネットやWAN、LAN、専用回線等の通信回線を含むネットワークを介して接続された複数のコンピュータ装置を含んでもよい。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。このように、プログラムを記憶した記録媒体は、CD-ROM等の非一過性の記録媒体であってもよい。
また、記録媒体には、当該プログラムを配信するために配信サーバからアクセス可能な内部又は外部に設けられた記録媒体も含まれる。なお、プログラムを複数に分割し、それぞれ異なるタイミングでダウンロードした後にロボット10、サーバ20、及び端末30が備える各構成で合体される構成や、分割されたプログラムのそれぞれを配信する配信サーバが異なっていてもよい。さらに「コンピュータ読み取り可能な記録媒体」とは、ネットワークを介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。また、上記プログラムは、上述した機能の一部を実現するためのものであってもよい。さらに、上述した機能をコンピュータシステムに既に記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。
また、上述した実施形態におけるロボット10、サーバ20、及び端末30が備える各機能の一部、または全部を、LSI(Large Scale Integration)等の集積回路として実現してもよい。各機能は個別にプロセッサ化してもよいし、一部、又は全部を集積してプロセッサ化してもよい。また、集積回路化の手法はLSIに限らず専用回路、または汎用プロセッサで実現してもよい。また、半導体技術の進歩によりLSIに代替する集積回路化の技術が出現した場合、当該技術による集積回路を用いてもよい。
以上、本開示の実施形態について図面を参照して詳述してきたが、具体的な構成はこれらの実施形態に限られるものではなく、本開示の実施形態を適宜、変形、省略したりすることが可能である。
1 情報処理システム
10,10A ロボット
11 通信部
12 可視光カメラ
13 赤外線カメラ
14 移動装置
15 ロボット制御部
16 IMU
20 サーバ
21 通信部
22 記憶部
25 サーバ制御部
30 端末
31 通信部
32 表示部
33 入力部
35 端末制御部
151 データ送信部
152 カメラ制御部
153 位置姿勢推定部
154 走行制御部
251 データ受信部
252 点群データ生成部
253 俯瞰画像生成部
254 データ取得部
255 位置座標変換部
256 出力部

Claims (12)

  1. 予め対象領域において異なる時刻に測定された対象物との距離を少なくとも含む複数のデータと、当該複数のデータに基づいて予め生成された前記対象領域の俯瞰画像とを記憶部から取得する第1取得部と、
    前記対象物との距離を少なくとも測定可能な第1センサを備える移動体から、前記対象領域において前記第1センサを用いて測定された前記対象物との距離情報を少なくとも含む現在のデータを取得する第2取得部と、
    前記第1取得部が取得した複数のデータと、前記第2取得部が取得した現在のデータとに基づいて、前記対象領域の俯瞰画像上における前記移動体の現在の位置及び姿勢を特定する特定部と、
    前記対象領域の俯瞰画像と、前記対象領域の俯瞰画像上における前記移動体の現在の位置及び姿勢を示す情報とを出力する出力部と、
    を備える情報処理装置。
  2. 前記移動体は、前記移動体の位置又は姿勢を検知するための第2センサをさらに備え、
    前記第2取得部は、
    前記移動体から、前記対象領域において前記第1センサを用いて測定された前記対象物との距離と前記第2センサを用いて検知された位置又は姿勢とを少なくとも含む現在のデータを取得する、
    請求項1に記載の情報処理装置。
  3. 予め前記対象領域において異なる時刻に測定された前記対象物との距離を少なくとも含む複数のデータに基づいて前記対象領域の俯瞰画像を生成して前記記憶部に記憶させる生成部、
    を備える請求項1または請求項2に記載の情報処理装置。
  4. 前記生成部は、
    予め前記対象領域において異なる時刻に測定された前記対象物との距離を少なくとも含む複数のデータに基づいて、前記対象物の位置に応じた3次元の点群データを生成するとともに、所定の座標変換行列を用いて、前記点群データに対応する前記対象領域の俯瞰画像を生成する、
    請求項3に記載の情報処理装置。
  5. 前記特定部は、
    前記対象領域の俯瞰画像上における前記移動体の現在の位置及び姿勢を特定する際に、事前に前記対象領域の俯瞰画像を生成する際に用いた前記所定の座標変換行列を用いて特定する、
    請求項4に記載の情報処理装置。
  6. 前記第2取得部は、
    予め前記対象領域において前記移動体が移動することにより、異なる時刻に前記第1センサを用いて測定された前記対象物との距離を少なくとも含む複数のデータを、前記移動体から取得して前記記憶部に記憶させる、
    を備える請求項1から請求項5のいずれか一項に記載の情報処理装置。
  7. 対象物との距離を少なくとも測定可能な第1センサを備える移動体が移動する対象領域において、異なる時刻に前記第1センサを用いて測定された前記対象物との距離を少なくとも含む複数のデータを前記移動体から取得するデータ取得部と、
    前記データ取得部が取得した複数のデータに基づいて前記対象領域の俯瞰画像を生成する生成部と、
    を備える情報処理装置。
  8. 前記生成部は、
    前記データ取得部が取得した複数のデータに基づいて、前記対象物の位置に応じた3次元の点群データを生成するとともに、所定の座標変換行列を用いて、前記点群データに対応する前記対象領域の俯瞰画像を生成する、
    請求項7に記載の情報処理装置。
  9. 前記第1センサは、可視光カメラ、赤外線カメラ、またはLiDAR(Light Detection And Ranging)である、
    請求項1から請求項8のいずれか一項に記載の情報処理装置。
  10. 前記移動体は、自律走行が可能な自走式移動体である、
    請求項1から請求項9のいずれか一項に記載の情報処理装置。
  11. 情報処理装置における制御方法であって、
    第1取得部が、予め対象領域において異なる時刻に測定された対象物との距離を少なくとも含む複数のデータと、当該複数のデータに基づいて予め生成された前記対象領域の俯瞰画像とを記憶部から取得するステップと、
    第2取得部が、前記対象物との距離を少なくとも測定可能な第1センサを備える移動体から、前記対象領域において前記第1センサを用いて測定された前記対象物との距離情報を少なくとも含む現在のデータを取得するステップと、
    特定部が、前記第1取得部が取得した複数のデータと、前記第2取得部が取得した現在のデータとに基づいて、前記対象領域の俯瞰画像上における前記移動体の現在の位置及び姿勢を特定するステップと、
    出力部が、前記対象領域の俯瞰画像と、前記対象領域の俯瞰画像上における前記移動体の現在の位置及び姿勢を示す情報とを出力するステップと、
    を含む制御方法。
  12. 情報処理装置における制御方法であって、
    データ取得部が、対象物との距離を少なくとも測定可能な第1センサを備える移動体が移動する対象領域において、異なる時刻に前記第1センサを用いて測定された前記対象物との距離情報を少なくとも含む複数のデータを前記移動体から取得するステップと、
    生成部が、前記データ取得部が取得した複数のデータに基づいて前記対象領域の俯瞰画像を生成するステップと、
    を含む制御方法。
JP2022035888A 2022-03-09 2022-03-09 情報処理装置、及び制御方法 Pending JP2023131258A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022035888A JP2023131258A (ja) 2022-03-09 2022-03-09 情報処理装置、及び制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022035888A JP2023131258A (ja) 2022-03-09 2022-03-09 情報処理装置、及び制御方法

Publications (1)

Publication Number Publication Date
JP2023131258A true JP2023131258A (ja) 2023-09-22

Family

ID=88065392

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022035888A Pending JP2023131258A (ja) 2022-03-09 2022-03-09 情報処理装置、及び制御方法

Country Status (1)

Country Link
JP (1) JP2023131258A (ja)

Similar Documents

Publication Publication Date Title
CN112567201B (zh) 距离测量方法以及设备
US10481265B2 (en) Apparatus, systems and methods for point cloud generation and constantly tracking position
US10096129B2 (en) Three-dimensional mapping of an environment
CN108171733B (zh) 使两个或更多个三维3d点云配准的方法
US9892491B2 (en) Systems and methods for processing mapping and modeling data
TWI827649B (zh) 用於vslam比例估計的設備、系統和方法
CN109709801A (zh) 一种基于激光雷达的室内无人机定位系统及方法
US20170301111A1 (en) Sensor fusion using inertial and image sensors
WO2016077703A1 (en) Gyroscope assisted scalable visual simultaneous localization and mapping
KR101880185B1 (ko) 이동체 포즈 추정을 위한 전자 장치 및 그의 이동체 포즈 추정 방법
RU2572637C2 (ru) Параллельное или выполняемое последовательно в онлайн- и оффлайн- режимах формирование реконструкций для трехмерного обмера помещения
US20130038717A1 (en) Image Based Position Determination
KR102006291B1 (ko) 전자 장치의 이동체 포즈 추정 방법
JP2017134617A (ja) 位置推定装置、プログラム、位置推定方法
Zhang et al. An indoor navigation aid for the visually impaired
Karam et al. Integrating a low-cost mems imu into a laser-based slam for indoor mobile mapping
JP2021193538A (ja) 情報処理装置、移動装置、情報処理システム、および方法、並びにプログラム
Muller et al. A probabilistic sonar sensor model for robust localization of a small-size blimp in indoor environments using a particle filter
JP2023131258A (ja) 情報処理装置、及び制御方法
WO2022014322A1 (ja) 情報処理システム、及び情報処理装置
WO2021210492A1 (ja) 情報処理装置、情報処理方法、およびプログラム
US20220018950A1 (en) Indoor device localization
WO2021106436A1 (ja) 画像処理装置、および画像処理方法、並びにプログラム
CN113678082A (zh) 移动体、移动体的控制方法和程序
KR102618069B1 (ko) 지상조사 로봇의 점군 자료와 시각정보를 이용한 실내건물 재난정보 분석 방법 및 장치