JP7483551B2 - Information processing device - Google Patents

Information processing device Download PDF

Info

Publication number
JP7483551B2
JP7483551B2 JP2020137465A JP2020137465A JP7483551B2 JP 7483551 B2 JP7483551 B2 JP 7483551B2 JP 2020137465 A JP2020137465 A JP 2020137465A JP 2020137465 A JP2020137465 A JP 2020137465A JP 7483551 B2 JP7483551 B2 JP 7483551B2
Authority
JP
Japan
Prior art keywords
processor
fixture
act
information
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020137465A
Other languages
Japanese (ja)
Other versions
JP2022033519A (en
Inventor
功一 渡邉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba TEC Corp
Original Assignee
Toshiba TEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba TEC Corp filed Critical Toshiba TEC Corp
Priority to JP2020137465A priority Critical patent/JP7483551B2/en
Publication of JP2022033519A publication Critical patent/JP2022033519A/en
Application granted granted Critical
Publication of JP7483551B2 publication Critical patent/JP7483551B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Description

本発明の実施形態は、情報処理装置に関する。 An embodiment of the present invention relates to an information processing device.

近年、アンテナを備える自律移動ロボットを用いてRFID(radio frequency identifier)タグなどの無線タグを読み取る読取システムが提供されている。読取システムは、自律移動ロボットを無線タグの付された複数の物品が陳列されている棚などの什器の前を通過させて、無線タグを読み取る。 In recent years, a reading system has been provided that uses an autonomous mobile robot equipped with an antenna to read wireless tags such as RFID (radio frequency identifier) tags. The reading system reads the wireless tags by passing the autonomous mobile robot in front of a display such as a shelf on which multiple items with wireless tags are displayed.

読取システムは、無線タグの読取に先立ち、自律移動ロボットの自律移動時における自己位置推定用の環境地図を作成する。例えば、読取システムは、自律移動ロボットの所定の高さに固定されたLRF(laser range finder)などを用いて、周辺環境をスキャンしながら自己位置推定用の環境地図を作成する。また、読取システムは、自己位置推定用の環境地図に対して自律移動ロボットの進入禁止エリアが設定された移動経路設定用の環境地図を作成する。 Prior to reading the wireless tag, the reading system creates an environmental map for estimating the autonomous mobile robot's self-position while it moves autonomously. For example, the reading system creates an environmental map for estimating the autonomous mobile robot's self-position while scanning the surrounding environment using a laser range finder (LRF) fixed at a specified height on the autonomous mobile robot. The reading system also creates an environmental map for setting a movement path in which no-entry areas for the autonomous mobile robot are set for the environmental map for estimating the autonomous mobile robot's self-position.

特開2019-46372号公報JP 2019-46372 A

しかしながら、棚などの什器は、水平に延びる複数の棚板を有するなど、凹凸を有した構造である。自律移動ロボットの所定の高さに固定されたLRFによって検知される棚の形は、水平面に対して実際の棚を鉛直方向に投影して得られる形と異なることがある。このため、読取システムは、自律移動ロボットの進入禁止エリアを什器の形状に合わせて正しく設定することが難しい。什器の位置を人力で入力することも可能であるが、位置を正確に入力することは難しい。 However, fixtures such as shelves have an uneven structure, with multiple shelves extending horizontally. The shape of the shelf detected by the LRF fixed at a specified height of the autonomous mobile robot may differ from the shape obtained by projecting the actual shelf vertically onto a horizontal plane. For this reason, it is difficult for the reading system to correctly set the no-entry area for the autonomous mobile robot to match the shape of the fixture. It is possible to manually input the position of the fixture, but it is difficult to input the position accurately.

本発明の実施形態が解決しようとする課題は、環境地図上に什器を正確に配置することができる情報処理装置を提供することである。 The problem that the embodiment of the present invention aims to solve is to provide an information processing device that can accurately place fixtures on an environmental map.

実施形態の情報処理装置は、入力部、第1の取得部、第2の取得部及び処理部を備える。入力部は、什器の種類を示す情報の入力を受ける。第1の取得部は、前記種類に対応する形状データを取得する。第2の取得部は、物体の位置を示す距離点データを取得する。処理部は、前記種類の前記什器の位置を、前記距離点データ及び所定のアルゴリズムを用いて決定する。 The information processing device of the embodiment includes an input unit, a first acquisition unit, a second acquisition unit, and a processing unit. The input unit receives input of information indicating the type of fixture. The first acquisition unit acquires shape data corresponding to the type. The second acquisition unit acquires distance point data indicating the position of an object. The processing unit determines the position of the fixture of the type using the distance point data and a predetermined algorithm.

第1実施形態~第3実施形態に係る読取システムの構成例を示す概略図。FIG. 1 is a schematic diagram showing an example of the configuration of a reading system according to first to third embodiments. 第1実施形態~第3実施形態に係る読取システムの構成例を示す概略図。FIG. 1 is a schematic diagram showing an example of the configuration of a reading system according to first to third embodiments. 第1実施形態~第3実施形態に係る読取システムの構成例を示すブロック図。FIG. 1 is a block diagram showing an example of the arrangement of a reading system according to first to third embodiments. 環境地図の一例を示す図。FIG. 1 is a diagram showing an example of an environment map. 図3中のサーバーのプロセッサーによる第1実施形態に係る処理の一例を示すフローチャート。4 is a flowchart showing an example of processing according to the first embodiment performed by a processor of the server in FIG. 3 . 図3中の表示装置に表示される範囲選択画面の一例を示す図。FIG. 4 is a diagram showing an example of a range selection screen displayed on the display device in FIG. 3 . 図3中の表示装置に表示される什器選択画面の一例を示す図。FIG. 4 is a diagram showing an example of a fixture selection screen displayed on the display device in FIG. 3 . 図3中のサーバーのNVMに記憶される什器テーブルの一例を示す図。FIG. 4 is a diagram showing an example of a furniture table stored in the NVM of the server in FIG. 3 . 図3中のサーバーのプロセッサーによるアルゴリズムに係る処理の一例を示すフローチャート。4 is a flowchart showing an example of processing related to an algorithm by a processor of the server in FIG. 3 . 特徴量データの作成方法の一例について説明するための図。FIG. 11 is a diagram for explaining an example of a method for creating feature amount data. 特徴量データと検知データの比較について説明するための図。FIG. 11 is a diagram for explaining a comparison between feature amount data and detection data. 環境地図の一例を示す図。FIG. 1 is a diagram showing an example of an environment map. 環境地図の一例を示す図。FIG. 1 is a diagram showing an example of an environment map. 環境地図を用いた移動経路の設定例を示す図。FIG. 13 is a diagram showing an example of setting a travel route using an environmental map. 図3中のサーバーのプロセッサーによる第2実施形態及び第3実施形態に係る処理の一例を示すフローチャート。4 is a flowchart showing an example of processing according to the second and third embodiments by a processor of the server in FIG. 3 . 図3中のシステムコントローラーのプロセッサーによる第2実施形態及び第3実施形態に係る処理の一例を示すフローチャート。4 is a flowchart showing an example of processing according to the second and third embodiments by a processor of a system controller in FIG. 3 .

以下、いくつかの実施形態に係る読取システムについて図面を用いて説明する。なお、以下の実施形態の説明に用いる各図面は、各部の縮尺を適宜変更している場合がある。また、以下の実施形態の説明に用いる各図面は、説明のため、構成を省略して示している場合がある。また、各図面及び本明細書中において、同一の符号は同様の要素を示す。 Below, the reading system according to several embodiments will be described with reference to the drawings. Note that the scale of each part in each drawing used in the description of the following embodiments may be changed as appropriate. Also, for the purpose of explanation, each drawing used in the description of the following embodiments may be shown with the configuration omitted. Also, in each drawing and in this specification, the same reference numerals indicate similar elements.

〔第1実施形態〕
図1及び図2は、第1実施形態に係る読取システム1の構成例を示す概略図である。図1は、自律移動ロボット20の進行方向と直交する方向から見た読取システム1の構成例を示す図である。図2は、自律移動ロボット20の進行方向に沿って見た読取システム1の構成例を示す図である。
First Embodiment
1 and 2 are schematic diagrams showing an example of the configuration of a reading system 1 according to the first embodiment. Fig. 1 is a diagram showing an example of the configuration of the reading system 1 as viewed from a direction perpendicular to the traveling direction of an autonomous mobile robot 20. Fig. 2 is a diagram showing an example of the configuration of the reading system 1 as viewed along the traveling direction of the autonomous mobile robot 20.

読取システム1は、複数個の無線タグが存在する領域において、複数個の無線タグを読み取るシステムである。例えば、読取システム1は、複数の棚を備える店舗での物品の棚卸などに用いられる。 The reading system 1 is a system that reads multiple wireless tags in an area where multiple wireless tags exist. For example, the reading system 1 is used for inventorying items in a store that has multiple shelves.

ここでは、読取システム1は、所定の領域Aにおける無線タグの読取を実行するものとする。領域Aは、読取システム1による複数個の無線タグの読取対象領域である。例えば、領域Aは、壁などで周囲を囲まれた店舗である。領域Aには、レジ台及び棚などの複数の什器が存在する。各棚には、読取システム1による読取対象となる無線タグの付された複数の物品が陳列されている。壁、レジ台及び棚のそれぞれは、有形の物体の一例である。なお、領域Aには、壁及び什器以外の物体が存在していてもよい。物体は、自律移動ロボット20の移動の障害となる可能性があるので、障害物ということもある。 Here, the reading system 1 executes reading of wireless tags in a specified area A. Area A is an area in which multiple wireless tags are to be read by the reading system 1. For example, area A is a store surrounded by walls or the like. Area A contains multiple fixtures such as a cash register and shelves. Each shelf displays multiple items with wireless tags attached that are to be read by the reading system 1. The walls, cash register and shelves are each an example of a tangible object. Note that area A may contain objects other than walls and fixtures. Objects may be called obstacles since they may impede the movement of the autonomous mobile robot 20.

読取システム1は、システムコントローラー10、自律移動ロボット20及びサーバー30を備える。システムコントローラー10、自律移動ロボット20及びサーバー30は、互いに電気的に接続する。 The reading system 1 includes a system controller 10, an autonomous mobile robot 20, and a server 30. The system controller 10, the autonomous mobile robot 20, and the server 30 are electrically connected to each other.

システムコントローラー10は、自律移動ロボット20を制御する装置である。例えば、システムコントローラー10は、環境地図Maを用いて自律移動ロボット20の自律移動を制御する。例えば、システムコントローラー10は、自律移動ロボット20の自律移動時に自律移動ロボット20による複数個の無線タグの読取を制御する。 The system controller 10 is a device that controls the autonomous mobile robot 20. For example, the system controller 10 controls the autonomous movement of the autonomous mobile robot 20 using an environmental map Ma. For example, the system controller 10 controls the reading of multiple wireless tags by the autonomous mobile robot 20 when the autonomous mobile robot 20 moves autonomously.

環境地図Maは、領域Aでの自律移動ロボット20の自律移動時における自己位置推定用の環境地図である。環境地図Maは、自律移動ロボット20が自律移動する領域Aに存在する物体の位置を示す情報を含む地図である。環境地図Maについては後述する。
システムコントローラー10の制御系の構成については、後述する。
The environmental map Ma is an environmental map for estimating the self-position of the autonomous mobile robot 20 when it moves autonomously in the area A. The environmental map Ma is a map that includes information indicating the positions of objects that exist in the area A in which the autonomous mobile robot 20 moves autonomously. The environmental map Ma will be described later.
The configuration of the control system of the system controller 10 will be described later.

自律移動ロボット20は、システムコントローラー10の制御に従って領域Aを移動する装置である。
自律移動ロボット20は、台車201及び車輪202を備える。
台車201は、自律移動ロボット20の外殻を形成する。台車201は、自律移動ロボット20の各要素が取り付けられる鉛直方向に延びる支持体を備える。鉛直方向は、高さ方向と同じ方向を指す。鉛直方向は、水平面に対する垂直方向と同じ方向を指す。
The autonomous mobile robot 20 is a device that moves within the area A under the control of the system controller 10 .
The autonomous mobile robot 20 includes a cart 201 and wheels 202 .
The dolly 201 forms the outer shell of the autonomous mobile robot 20. The dolly 201 is provided with a support extending in the vertical direction to which each element of the autonomous mobile robot 20 is attached. The vertical direction refers to the same direction as the height direction. The vertical direction refers to the same direction as the perpendicular direction to a horizontal plane.

車輪202は、台車201の下部に取り付けられる。車輪202は、後述するモーター262によって駆動し台車201を移動させる。また、車輪202は、台車201の移動方向を変更する。なお、台車201は、車輪以外で移動するものであっても良い。例えば、台車201は、無限軌道又は脚などを用いて移動する。 The wheels 202 are attached to the bottom of the cart 201. The wheels 202 are driven by a motor 262 (described later) to move the cart 201. The wheels 202 also change the direction of movement of the cart 201. Note that the cart 201 may be moved by something other than wheels. For example, the cart 201 moves using caterpillars or legs, etc.

自律移動ロボット20は、さらに、リーダー21、3D(three-dimensional)距離センサー22、水平方向LRF23、鉛直方向LRF24、カメラ25及び移動機構26を備える。リーダー21、3D距離センサー22、水平方向LRF23、鉛直方向LRF24及びカメラ25は、台車201の支持体に取り付けられている。 The autonomous mobile robot 20 further includes a reader 21, a 3D (three-dimensional) distance sensor 22, a horizontal LRF 23, a vertical LRF 24, a camera 25, and a moving mechanism 26. The reader 21, the 3D distance sensor 22, the horizontal LRF 23, the vertical LRF 24, and the camera 25 are attached to the support of the cart 201.

リーダー21は、物品に付された無線タグと無線通信するデバイスである。リーダー21は、自律移動ロボット20の進行方向と直交する方向を向くように、鉛直方向に並べて台車201の支持体に取り付けられている。自律移動ロボットは、一例として、リーダー211~リーダー216の6つのリーダー21を備える。 The reader 21 is a device that wirelessly communicates with a wireless tag attached to an item. The readers 21 are aligned vertically and attached to the support of the cart 201 so that they face a direction perpendicular to the traveling direction of the autonomous mobile robot 20. As an example, the autonomous mobile robot is equipped with six readers 21, reader 211 to reader 216.

リーダー21は、図示しない通信用アンテナ及び通信制御部を備える。リーダー21は、指向性アンテナを備えるものとする。リーダー21の検知範囲は、通信用アンテナの特性及び通信用アンテナの設置向きなどによって設計される。検知範囲は、通信範囲に対応する。リーダー21は、無線タグへ電波を送信する。また、リーダー21は、無線タグからの電波を受信する。リーダー21は、無線タグからの電波の受信に基づいて、無線タグの識別情報などのタグ情報を読み取る。リーダー21は、無線タグから読み取ったタグ情報をシステムコントローラー10へ送信する。 The reader 21 is equipped with a communication antenna and a communication control unit (not shown). The reader 21 is equipped with a directional antenna. The detection range of the reader 21 is designed based on the characteristics of the communication antenna and the installation direction of the communication antenna. The detection range corresponds to the communication range. The reader 21 transmits radio waves to the wireless tag. The reader 21 also receives radio waves from the wireless tag. The reader 21 reads tag information such as the identification information of the wireless tag based on the radio waves received from the wireless tag. The reader 21 transmits the tag information read from the wireless tag to the system controller 10.

リーダー211~リーダー216の検知範囲の合算は、領域Aに存在する最も高い棚の上端から下端までを包含するように設定される。なお、自律移動ロボット20が備えるリーダーの個数及び位置は、特定の構成に限定されない。例えば、自律移動ロボット20は、領域Aに存在する最も高い棚の上端から下端までを包含する検知範囲を設定された1つのリーダーを備えていてもよい。 The combined detection range of readers 211 to 216 is set to include the top to bottom of the highest shelf in area A. The number and positions of readers provided in the autonomous mobile robot 20 are not limited to a specific configuration. For example, the autonomous mobile robot 20 may be provided with one reader whose detection range is set to include the top to bottom of the highest shelf in area A.

3D距離センサー22は、3D距離センサー22の測定範囲に存在する物体との距離を3次元で測定するセンサーである。自律移動ロボット20は、一例として、3D距離センサー221及び3D距離センサー222の2つの3D距離センサー22を備える。例えば、3D距離センサー22は、RGB-Dカメラなどのカメラで構成されるが、これに限定されない。3D距離センサー22は、短距離を測定する。3D距離センサー22は、自律移動ロボット20の周囲の物体情報を3次元で捉えるために用いられる。3D距離センサー22は、測定位置毎に、測定された物体の位置に関連する複数の距離点データで構成される3次元の距離点群データを得る。3D距離センサー22は、測定位置毎に、測定で得られる距離情報をシステムコントローラー10へ送信する。距離情報は、3次元の距離点群データを含む。 The 3D distance sensor 22 is a sensor that measures the distance to an object present within the measurement range of the 3D distance sensor 22 in three dimensions. The autonomous mobile robot 20 is equipped with two 3D distance sensors 22, 3D distance sensor 221 and 3D distance sensor 222, as an example. For example, the 3D distance sensor 22 is composed of a camera such as an RGB-D camera, but is not limited to this. The 3D distance sensor 22 measures short distances. The 3D distance sensor 22 is used to capture object information around the autonomous mobile robot 20 in three dimensions. The 3D distance sensor 22 obtains three-dimensional distance point cloud data composed of multiple distance point data related to the measured position of the object for each measurement position. The 3D distance sensor 22 transmits distance information obtained by measurement to the system controller 10 for each measurement position. The distance information includes three-dimensional distance point cloud data.

3D距離センサー22は、自律移動ロボット20の進行方向と直交する方向を向くように、鉛直方向に並べて台車201の支持体に取り付けられている。 The 3D distance sensors 22 are attached to the support of the cart 201 and aligned vertically so that they face in a direction perpendicular to the traveling direction of the autonomous mobile robot 20.

3D距離センサー221及び3D距離センサー222の測定範囲の合算の上端は、自律移動ロボット20の高さを超え、什器の形状が分かる高さである。3D距離センサー221及び3D距離センサー222の測定範囲の合算は、一例として領域Aの床面から天井面までを含むように設定される。あるいは、3D距離センサー221及び3D距離センサー222の測定範囲の合算は、領域Aの床面から、自律移動ロボット20の高さ及び什器の高さを超えるような高さまでを含むように設定される。なお、自律移動ロボット20が備える3D距離センサーの個数及び位置は、特定の構成に限定されない。例えば、自律移動ロボット20は、領域Aの床面から天井面までを測定範囲とする1つの3D距離センサーを備えていてもよい。 The upper end of the combined measurement ranges of the 3D distance sensor 221 and the 3D distance sensor 222 exceeds the height of the autonomous mobile robot 20, and is at a height at which the shape of the furniture can be seen. As an example, the combined measurement ranges of the 3D distance sensor 221 and the 3D distance sensor 222 are set to include from the floor surface to the ceiling surface of area A. Alternatively, the combined measurement ranges of the 3D distance sensor 221 and the 3D distance sensor 222 are set to include from the floor surface of area A to a height that exceeds the height of the autonomous mobile robot 20 and the height of the furniture. Note that the number and positions of the 3D distance sensors provided on the autonomous mobile robot 20 are not limited to a specific configuration. For example, the autonomous mobile robot 20 may be provided with one 3D distance sensor whose measurement range extends from the floor surface to the ceiling surface of area A.

水平方向LRF23は、レーザを用いて水平方向LRF23の測定範囲に存在する物体との距離を2次元で測定するセンサーである。水平方向LRF23は、長距離を測定する。水平方向LRF23は、台車201の任意の位置に取り付けられている。水平方向LRF23は、測定位置毎に、レーザを用いて水平方向LRF23の周辺環境を水平方向にスキャンし、領域Aに存在する物体との距離を測定する。水平方向LRF23は、測定位置毎に、物体の位置に関連する複数の距離点データで構成される水平方向の距離点群データを得る。水平方向LRF23は、測定位置毎に、測定に基づく距離情報をシステムコントローラー10へ送信する。距離情報は、水平方向の距離点群データを含む。水平方向LRF23は長距離を測定可能であるので、水平方向LRF23による距離情報は、SLAM(simultaneous localization and mapping)による安定した環境地図Maの作成に用いることができる。加えて、水平方向LRF23による距離情報は、自律移動ロボット20の自律移動時において、ロバストな自己位置推定に用いることができる。 The horizontal LRF23 is a sensor that uses a laser to measure the distance to an object present in the measurement range of the horizontal LRF23 in two dimensions. The horizontal LRF23 measures long distances. The horizontal LRF23 is attached to an arbitrary position of the dolly 201. For each measurement position, the horizontal LRF23 horizontally scans the surrounding environment of the horizontal LRF23 using a laser to measure the distance to an object present in area A. For each measurement position, the horizontal LRF23 obtains horizontal distance point cloud data consisting of multiple distance point data related to the position of the object. For each measurement position, the horizontal LRF23 transmits distance information based on the measurement to the system controller 10. The distance information includes horizontal distance point cloud data. Since the horizontal LRF23 can measure long distances, the distance information from the horizontal LRF23 can be used to create a stable environmental map Ma by SLAM (simultaneous localization and mapping). In addition, distance information from the horizontal LRF 23 can be used for robust self-position estimation when the autonomous mobile robot 20 is moving autonomously.

鉛直方向LRF24は、レーザを用いて鉛直方向LRF24の測定範囲に存在する物体との距離を2次元で測定するセンサーである。鉛直方向LRF24は、短距離を測定する。鉛直方向LRF24は、自律移動ロボット20の周囲の物体情報を3次元で捉えるために用いられる。鉛直方向LRF24は、台車201の任意の位置に取り付けられている。鉛直方向LRF24は、測定位置毎に、レーザを用いて鉛直方向LRF24の周辺環境を鉛直方向にスキャンし、領域Aに存在する物体との距離を測定する。鉛直方向LRF24は、測定位置毎に、測定された物体の位置に関連する複数の距離点データで構成される鉛直方向の距離点群データを得る。鉛直方向LRF24は、測定位置毎に、測定に基づく距離情報をシステムコントローラー10へ送信する。距離情報は、鉛直方向の距離点群データを含む。 The vertical LRF24 is a sensor that uses a laser to measure the distance to an object present within the measurement range of the vertical LRF24 in two dimensions. The vertical LRF24 measures short distances. The vertical LRF24 is used to capture object information around the autonomous mobile robot 20 in three dimensions. The vertical LRF24 is attached to an arbitrary position on the cart 201. For each measurement position, the vertical LRF24 scans the surrounding environment of the vertical LRF24 in the vertical direction using a laser, and measures the distance to an object present in area A. For each measurement position, the vertical LRF24 obtains vertical distance point cloud data consisting of multiple distance point data related to the measured object position. For each measurement position, the vertical LRF24 transmits distance information based on the measurement to the system controller 10. The distance information includes vertical distance point cloud data.

カメラ25は、画像を撮像するデバイスである。カメラ25は、撮像した画像を出力する。カメラ25は、典型的には動画を撮像するビデオカメラである。しかしながら、カメラ25は、静止画を撮像するカメラであっても良い。
自律移動ロボット20の制御系の構成については、後述する。
The camera 25 is a device that captures an image. The camera 25 outputs the captured image. The camera 25 is typically a video camera that captures moving images. However, the camera 25 may be a camera that captures still images.
The configuration of the control system of the autonomous mobile robot 20 will be described later.

サーバー30は、システムコントローラー10からの情報を処理する装置である。例えば、サーバー30は、自律移動ロボット20による領域Aにおける複数個の無線タグの読取動作に先立ち、領域Aの環境地図Maを作成する。領域Aは、読取システム1による環境地図Maの作成対象領域でもある。例えば、サーバー30は、環境地図Mbを作成する。サーバー30は、情報処理装置の一例である。サーバー30の制御系の構成については、後述する。 The server 30 is a device that processes information from the system controller 10. For example, the server 30 creates an environmental map Ma of the area A prior to the autonomous mobile robot 20 reading multiple wireless tags in the area A. The area A is also a target area for creating the environmental map Ma by the reading system 1. For example, the server 30 creates an environmental map Mb. The server 30 is an example of an information processing device. The configuration of the control system of the server 30 will be described later.

図3は、読取システム1の構成例を示すブロック図である。
システムコントローラー10は、プロセッサー11、ROM(read-only memory)12、RAM(random-access memory)13、NVM(non-volatile memory)14及び通信I/F(interface)15などを備える。プロセッサー11と、ROM12、RAM13、NVM14及び通信I/F15とは、データバスなどを介して互いに接続される。
FIG. 3 is a block diagram showing an example of the configuration of the reading system 1. As shown in FIG.
The system controller 10 includes a processor 11, a read-only memory (ROM) 12, a random-access memory (RAM) 13, a non-volatile memory (NVM) 14, and a communication interface (I/F) 15. The processor 11, the ROM 12, the RAM 13, the NVM 14, and the communication interface 15 are connected to each other via a data bus or the like.

プロセッサー11は、システムコントローラー10全体の動作を制御する。例えば、プロセッサー11は、CPU(central processing unit)である。プロセッサー11は、制御部の一例である。プロセッサー11は、内部メモリ及び各種のインターフェースなどを備えてもよい。プロセッサー11は、内部メモリ、ROM12又はNVM14などに予め記憶したプログラムを実行することにより種々の処理を実現する。 The processor 11 controls the operation of the entire system controller 10. For example, the processor 11 is a CPU (central processing unit). The processor 11 is an example of a control unit. The processor 11 may include an internal memory and various interfaces. The processor 11 realizes various processes by executing programs stored in advance in the internal memory, the ROM 12, the NVM 14, or the like.

なお、プロセッサー11がプログラムを実行することにより実現する各種の機能のうちの一部は、ハードウェア回路により実現されるものであってもよい。この場合、プロセッサー11は、ハードウェア回路により実行される機能を制御する。 Note that some of the various functions realized by the processor 11 executing the program may be realized by a hardware circuit. In this case, the processor 11 controls the functions executed by the hardware circuit.

ROM12は、予め制御用のプログラム及び制御データなどを記憶する不揮発性のメモリである。ROM12は、製造段階で制御プログラム及び制御データなどを記憶した状態でシステムコントローラー10に組み込まれる。即ち、ROM12に記憶される制御プログラム及び制御データは、予めシステムコントローラー10の仕様に応じて組み込まれる。 The ROM 12 is a non-volatile memory that stores control programs, control data, and the like in advance. The ROM 12 is incorporated into the system controller 10 during the manufacturing stage with the control programs, control data, and the like stored therein. In other words, the control programs and control data stored in the ROM 12 are incorporated in advance according to the specifications of the system controller 10.

RAM13は、揮発性のメモリである。RAM13は、プロセッサー11の処理中のデータなどを一時的に記憶する。RAM13は、プロセッサー11からの命令に基づき種々のアプリケーションプログラムを記憶する。また、RAM13は、アプリケーションプログラムの実行に必要なデータ及びアプリケーションプログラムの実行結果などを記憶してもよい。 RAM 13 is a volatile memory. RAM 13 temporarily stores data being processed by processor 11. RAM 13 stores various application programs based on instructions from processor 11. RAM 13 may also store data required to execute application programs and execution results of application programs.

NVM14は、データの書き込み及び書き換えが可能な不揮発性のメモリである。例えば、NVM14は、HDD(hard disk drive)、SSD(solid state drive)、EEPROM(electric erasable programmable read-only memory)又はフラッシュメモリなどから構成される。NVM14は、システムコントローラー10の運用用途に応じて制御プログラム、アプリケーション及び種々のデータなどを記憶する。NVM14は、記憶部の一例である。 The NVM 14 is a non-volatile memory to which data can be written and rewritten. For example, the NVM 14 is composed of a hard disk drive (HDD), a solid state drive (SSD), an electrically erasable programmable read-only memory (EEPROM), or a flash memory. The NVM 14 stores control programs, applications, various data, and the like according to the operational use of the system controller 10. The NVM 14 is an example of a storage unit.

NVM14は、什器データベースを記憶する。
什器データベースは、机及び棚などの各種什器についてのデータを記憶及び管理するデータベースである。なお、什器データベースが管理する什器の種類については限定しない。什器は、例えば、店舗用什器、オフィス用什器又は家庭用家具などの種類がある。
また、什器データベースは、什器についてのデータとして什器モデルを記憶及び管理する。什器モデルは、什器の形状及び寸法などを示す画像などのデータである。
The NVM 14 stores a furniture database.
The furniture database is a database that stores and manages data on various furniture such as desks and shelves. There is no limitation on the types of furniture managed by the furniture database. For example, the types of furniture include store furniture, office furniture, and home furniture.
The furniture database also stores and manages furniture models as data on the furniture. The furniture models are data such as images that indicate the shape and dimensions of the furniture.

通信I/F15は、有線又は無線でデータを送受信するためのインターフェースである。例えば、通信I/F15は、LAN(local area network)接続をサポートするインターフェースである。通信I/F15は、有線又は無線で自律移動ロボット20と情報を送受信する。通信I/F15は、有線又は無線でサーバー30と情報を送受信する。 The communication I/F 15 is an interface for transmitting and receiving data in a wired or wireless manner. For example, the communication I/F 15 is an interface that supports a LAN (local area network) connection. The communication I/F 15 transmits and receives information to and from the autonomous mobile robot 20 in a wired or wireless manner. The communication I/F 15 transmits and receives information to and from the server 30 in a wired or wireless manner.

自律移動ロボット20の移動機構26は、自律移動ロボット20を移動させる機構である。移動機構26は、走行コントローラー261、モーター262、エンコーダー263及びIMU(inertial measurement unit)264などを備える。走行コントローラー261、モーター262、エンコーダー263及びIMU264は、互いに電気的に接続する。 The movement mechanism 26 of the autonomous mobile robot 20 is a mechanism that moves the autonomous mobile robot 20. The movement mechanism 26 includes a travel controller 261, a motor 262, an encoder 263, and an IMU (inertial measurement unit) 264. The travel controller 261, the motor 262, the encoder 263, and the IMU 264 are electrically connected to each other.

走行コントローラー261は、システムコントローラー10の制御に従って自律移動ロボット20を移動させる。走行コントローラー261は、モーター262などを制御して自律移動ロボット20を移動させる。例えば、走行コントローラー261は、モーター262に電力又はパルスなどを供給する。 The travel controller 261 moves the autonomous mobile robot 20 according to the control of the system controller 10. The travel controller 261 controls the motor 262 and the like to move the autonomous mobile robot 20. For example, the travel controller 261 supplies power or pulses to the motor 262.

走行コントローラー261は、プロセッサーなどから構成される。走行コントローラー261は、プロセッサーがソフトウェアなどのプログラムを実行することで実現されてもよい。また、走行コントローラー261は、プロセッサーとしてのASIC(application specific integrated circuit)などのハードウェアから構成されてもよい。 The driving controller 261 is configured with a processor and the like. The driving controller 261 may be realized by the processor executing a program such as software. The driving controller 261 may also be configured with hardware such as an application specific integrated circuit (ASIC) as a processor.

モーター262は、走行コントローラー261の制御に従って駆動する。モーター262は、ギア又はベルトなどを介して車輪202に接続する。モーター262は、自身の駆動力によって車輪202を回転させる。 The motor 262 is driven according to the control of the driving controller 261. The motor 262 is connected to the wheels 202 via gears, a belt, or the like. The motor 262 rotates the wheels 202 by its own driving force.

エンコーダー263は、モーター262の回転軸に接続する。エンコーダー263は、モーター262の回転角度を測定するセンサーの一例である。エンコーダー263は、回転角度を示す測定情報をシステムコントローラー10へ送信する。なお、エンコーダー263は、モーター262に内蔵されるものであってもよい。 The encoder 263 is connected to the rotation shaft of the motor 262. The encoder 263 is an example of a sensor that measures the rotation angle of the motor 262. The encoder 263 transmits measurement information indicating the rotation angle to the system controller 10. The encoder 263 may be built into the motor 262.

IMU264は、3軸の角度又は角速度及び3軸の加速度を測定するセンサーである。IMU264は、3軸の角度又は角速度及び3軸の加速度を示す測定情報をシステムコントローラー10へ送信する。 The IMU 264 is a sensor that measures three-axis angles or angular velocities and three-axis acceleration. The IMU 264 transmits measurement information indicating the three-axis angles or angular velocities and three-axis acceleration to the system controller 10.

なお、自律移動ロボット20は、システムコントローラー10を搭載してもよい。また、自律移動ロボット20は、システムコントローラー10のプロセッサー11が実現する機能(又は機能の一部)を実現するものであってもよい。 The autonomous mobile robot 20 may be equipped with a system controller 10. The autonomous mobile robot 20 may also realize the functions (or part of the functions) realized by the processor 11 of the system controller 10.

サーバー30は、プロセッサー31、ROM32、RAM33、NVM34、入力装置35、表示装置36及び通信I/F37などを備える。プロセッサー31、ROM32、RAM33、NVM34、入力装置35、表示装置36及び通信I/F37は、データバスなどを介して互いに接続される。 The server 30 includes a processor 31, a ROM 32, a RAM 33, an NVM 34, an input device 35, a display device 36, and a communication I/F 37. The processor 31, the ROM 32, the RAM 33, the NVM 34, the input device 35, the display device 36, and the communication I/F 37 are connected to each other via a data bus or the like.

プロセッサー31は、サーバー30全体の動作を制御する。例えば、プロセッサー31は、CPUである。プロセッサー31は、制御部の一例である。プロセッサー31は、内部メモリ及び各種のインターフェースなどを備えてもよい。プロセッサー31は、内部メモリ、ROM32又はNVM34などに予め記憶したプログラムを実行することにより種々の処理を実現する。 The processor 31 controls the operation of the entire server 30. For example, the processor 31 is a CPU. The processor 31 is an example of a control unit. The processor 31 may include an internal memory and various interfaces. The processor 31 realizes various processes by executing programs stored in advance in the internal memory, the ROM 32, the NVM 34, or the like.

なお、プロセッサー31がプログラムを実行することにより実現する各種の機能のうちの一部は、ハードウェア回路により実現されるものであってもよい。この場合、プロセッサー31は、ハードウェア回路により実行される機能を制御する。 Note that some of the various functions realized by the processor 31 executing the program may be realized by a hardware circuit. In this case, the processor 31 controls the functions executed by the hardware circuit.

ROM32は、予め制御用のプログラム及び制御データなどを記憶する不揮発性のメモリである。ROM32は、製造段階で制御プログラム及び制御データなどを記憶した状態でサーバー30に組み込まれる。即ち、ROM32に記憶される制御プログラム及び制御データは、予めサーバー30の仕様に応じて組み込まれる。 ROM 32 is a non-volatile memory that stores control programs, control data, and the like in advance. ROM 32 is incorporated into server 30 during the manufacturing stage with the control programs, control data, and the like stored therein. In other words, the control programs and control data stored in ROM 32 are incorporated in advance according to the specifications of server 30.

RAM33は、揮発性のメモリである。RAM33は、プロセッサー31の処理中のデータなどを一時的に記憶する。RAM33は、プロセッサー31からの命令に基づき種々のアプリケーションプログラムを記憶する。また、RAM33は、アプリケーションプログラムの実行に必要なデータ及びアプリケーションプログラムの実行結果などを記憶してもよい。 RAM 33 is a volatile memory. RAM 33 temporarily stores data being processed by processor 31. RAM 33 stores various application programs based on instructions from processor 31. RAM 33 may also store data necessary for executing application programs and execution results of application programs.

NVM34は、データの書き込み及び書き換えが可能な不揮発性のメモリである。例えば、NVM34は、HDD、SSD、EEPROM又はフラッシュメモリなどから構成される。NVM34は、サーバー30の運用用途に応じて制御プログラム、アプリケーション及び種々のデータなどを記憶する。
また、NVM14は、後述の什器テーブルTを記憶する。
The NVM 34 is a non-volatile memory to which data can be written and rewritten. For example, the NVM 34 is composed of an HDD, an SSD, an EEPROM, a flash memory, etc. The NVM 34 stores control programs, applications, various data, etc. according to the operational purpose of the server 30.
The NVM 14 also stores a furniture table T, which will be described later.

入力装置35は、ユーザによる操作に基づいて指示を受け付けるデバイスである。例えば、入力装置35は、キーボード又はタッチパッドなどであるが、これらに限定されない。入力装置35は、サーバー30が備える要素であっても、サーバー30とは独立した要素であってもよい。 The input device 35 is a device that accepts instructions based on operations by a user. For example, the input device 35 is a keyboard or a touchpad, but is not limited to these. The input device 35 may be an element included in the server 30, or may be an element independent of the server 30.

表示装置36は、各種画像を表示するデバイスである。例えば、表示装置36は、液晶ディスプレイであるが、これに限定されない。表示装置36は、表示部の一例である。表示装置36は、サーバー30が備える要素であっても、サーバー30とは独立した要素であってもよい。なお、入力装置35及び表示装置36は、タッチパネルであっても良い。 The display device 36 is a device that displays various images. For example, the display device 36 is a liquid crystal display, but is not limited to this. The display device 36 is an example of a display unit. The display device 36 may be an element included in the server 30, or an element independent of the server 30. The input device 35 and the display device 36 may be a touch panel.

通信I/F37は、有線又は無線でデータを送受信するためのインターフェースである。例えば、通信I/F37は、LAN接続をサポートするインターフェースである。通信I/F37は、有線又は無線でシステムコントローラー10と情報を送受信する。 The communication I/F 37 is an interface for transmitting and receiving data in a wired or wireless manner. For example, the communication I/F 37 is an interface that supports a LAN connection. The communication I/F 37 transmits and receives information to and from the system controller 10 in a wired or wireless manner.

例えば、通信I/F37は、水平方向LRF23による距離情報、鉛直方向LRF24による距離情報、3D距離センサー22による距離情報、エンコーダー263による測定情報及びIMU264による測定情報をシステムコントローラー10から受信する。水平方向LRF23による距離情報、鉛直方向LRF24による距離情報、3D距離センサー22による距離情報、エンコーダー263による測定情報及びIMU264による測定情報は、センサー情報ともいう。 For example, the communication I/F 37 receives distance information from the horizontal LRF 23, distance information from the vertical LRF 24, distance information from the 3D distance sensor 22, measurement information from the encoder 263, and measurement information from the IMU 264 from the system controller 10. The distance information from the horizontal LRF 23, distance information from the vertical LRF 24, distance information from the 3D distance sensor 22, measurement information from the encoder 263, and measurement information from the IMU 264 are also referred to as sensor information.

次に、プロセッサー31が実現する機能及び動作について説明する。
プロセッサー31は、ROM32又はNVM34などに記憶されるソフトウェアなどのプログラムを実行することで以下に例示する機能を実現する。
Next, the functions and operations realized by the processor 31 will be described.
The processor 31 executes programs such as software stored in the ROM 32 or the NVM 34 to realize the functions exemplified below.

プロセッサー31は、環境地図Maを作成する機能を備える。プロセッサー31は、環境地図Maの作成のために検知データを取得する。検知データは、自律移動ロボット20の移動する領域Aにおける所定高さ範囲に関するデータである。所定高さ範囲は、任意の範囲である。所定高さ範囲は、高さ方向に幅を有しない所定の高さであっても、高さ方向に幅を有するものであってもよい。そのため、検知データは、2次元の距離点群データであってもよいし、3次元の距離点群データであってもよい。所定の高さは、水平LRF24によって得られる距離点群データの高さ方向の位置に対応する。なお、所定高さ範囲は、環境地図Maの作成に関連する。そのため、例えば、データ処理の観点から、所定高さ範囲は、所定の高さ又は比較的狭い範囲である方が好ましい。
以上より、プロセッサー31は、検知データを取得することで距離点データを取得する第2の取得部として機能する。
The processor 31 has a function of creating the environmental map Ma. The processor 31 acquires detection data for creating the environmental map Ma. The detection data is data related to a predetermined height range in the area A in which the autonomous mobile robot 20 moves. The predetermined height range is an arbitrary range. The predetermined height range may be a predetermined height that does not have a width in the height direction, or may have a width in the height direction. Therefore, the detection data may be two-dimensional distance point cloud data or three-dimensional distance point cloud data. The predetermined height corresponds to the height position of the distance point cloud data obtained by the horizontal LRF 24. Note that the predetermined height range is related to the creation of the environmental map Ma. Therefore, for example, from the viewpoint of data processing, it is preferable that the predetermined height range is a predetermined height or a relatively narrow range.
As described above, the processor 31 functions as a second acquisition unit that acquires distance point data by acquiring detection data.

例えば、プロセッサー31は、環境地図Maを作成するために、システムコントローラー10を介して、自律移動ロボット20を領域A内で巡回させるように制御する。プロセッサー31は、自律移動ロボット20による領域A内の巡回に応じて、システムコントローラー10を介して、自律移動ロボット20からセンサー情報を取得する。プロセッサー31は、自律移動ロボット20による領域A内の巡回が終了するまで、センサー情報を収集する。プロセッサー31は、センサー情報をNVM34に記憶する。 For example, in order to create an environmental map Ma, the processor 31 controls the autonomous mobile robot 20 to patrol within area A via the system controller 10. As the autonomous mobile robot 20 patrols within area A, the processor 31 acquires sensor information from the autonomous mobile robot 20 via the system controller 10. The processor 31 collects sensor information until the autonomous mobile robot 20 finishes patrolling within area A. The processor 31 stores the sensor information in the NVM 34.

所定高さ範囲が所定の高さである場合の検知データの取得例について説明する。一例では、プロセッサー31は、水平方向LRF23による距離情報に含まれる水平方向の距離点群データを参照する。プロセッサー31は、水平方向の距離点群データを所定の高さにおける2次元の距離点群データとして取得する。別の例では、プロセッサー31は、3D距離センサー22による距離情報に含まれる3次元の距離点群データを参照する。プロセッサー31は、3次元の距離点群データから所定の高さにおける2次元の距離点群データを取得する。 An example of acquiring detection data when the specified height range is a specified height will be described. In one example, the processor 31 refers to the horizontal distance point cloud data included in the distance information from the horizontal LRF 23. The processor 31 acquires the horizontal distance point cloud data as two-dimensional distance point cloud data at the specified height. In another example, the processor 31 refers to the three-dimensional distance point cloud data included in the distance information from the 3D distance sensor 22. The processor 31 acquires two-dimensional distance point cloud data at the specified height from the three-dimensional distance point cloud data.

所定高さ範囲が高さ方向に幅を有する場合の検知データの取得例について説明する。一例では、プロセッサー31は、水平方向LRF23による距離情報に含まれる水平方向の距離点群データ及び鉛直方向LRF24による距離情報に含まれる鉛直方向の距離点群データを参照する。別の例では、プロセッサー31は、3D距離センサー22による距離情報に含まれる3次元の距離点群データを参照する。プロセッサー31は、3次元の距離点群データから所定高さ範囲における3次元の距離点群データを取得する。プロセッサー31は、水平方向の距離点群データ及び鉛直方向の距離点群データを組み合わせて、3次元の距離点群データを構成する。プロセッサー31は、3次元の距離点群データから所定高さ範囲における3次元の距離点群データを取得する。 An example of acquiring detection data when the specified height range has a width in the height direction will be described. In one example, the processor 31 refers to horizontal distance point cloud data included in the distance information from the horizontal direction LRF 23 and vertical distance point cloud data included in the distance information from the vertical direction LRF 24. In another example, the processor 31 refers to three-dimensional distance point cloud data included in the distance information from the 3D distance sensor 22. The processor 31 acquires three-dimensional distance point cloud data in the specified height range from the three-dimensional distance point cloud data. The processor 31 combines the horizontal distance point cloud data and the vertical distance point cloud data to construct three-dimensional distance point cloud data. The processor 31 acquires three-dimensional distance point cloud data in the specified height range from the three-dimensional distance point cloud data.

プロセッサー31は、検知データに基づいて環境地図Maを作成する。例えば、プロセッサー31は、検知データに基づいてSLAMによって環境地図Maを作成する。所定高さ範囲が所定の高さである場合、プロセッサー31は、水平方向LRF23から見たままの距離情報に基づいてSLAMによって環境地図Maを作成する。この場合、環境地図Maは、2次元の環境地図である。所定高さ範囲が高さ方向に幅を有する場合、プロセッサー31は、3次元の距離点群データに基づいてSLAMによって環境地図Maを作成する。これにより、3次元で測定された物体の位置情報が確定する。この場合、環境地図Maは、3次元の環境地図である。プロセッサー11は、検知データに加えて、センサー情報に含まれるエンコーダー263の測定に基づく測定情報及びIMU264の測定に基づく測定情報を用いてもよい。プロセッサー11は、環境地図Maを示すデータをNVM34に記憶する。システムコントローラー10は、自律移動ロボット20の自律移動時において、水平方向LRF23による距離情報と環境地図Maとのマッチングにより、自律移動ロボット20の自己位置を推定することができる。 The processor 31 creates the environmental map Ma based on the detection data. For example, the processor 31 creates the environmental map Ma by SLAM based on the detection data. When the specified height range is a specified height, the processor 31 creates the environmental map Ma by SLAM based on the distance information as seen from the horizontal direction LRF23. In this case, the environmental map Ma is a two-dimensional environmental map. When the specified height range has a width in the height direction, the processor 31 creates the environmental map Ma by SLAM based on the three-dimensional distance point cloud data. This determines the position information of the object measured in three dimensions. In this case, the environmental map Ma is a three-dimensional environmental map. In addition to the detection data, the processor 11 may use measurement information based on the measurement of the encoder 263 and measurement information based on the measurement of the IMU 264 included in the sensor information. The processor 11 stores data indicating the environmental map Ma in the NVM 34. When the autonomous mobile robot 20 moves autonomously, the system controller 10 can estimate the self-position of the autonomous mobile robot 20 by matching distance information from the horizontal direction LRF 23 with the environmental map Ma.

図4は、所定高さ範囲が所定の高さである場合の環境地図Maの一例を示す図である。したがって、図4に示す環境地図Maは、2次元の環境地図である。
環境地図Maは、未知領域、フリー領域及び障害物領域の3属性で示される。未知領域は、水平方向LRF23によって物体があって(物体が障壁となって)測定できない領域である。図4では、未知領域をドットで示している。フリー領域は、水平方向LRF23による測定の結果、物体がないことが保証されている領域である。図4では、フリー領域を白色(無地)で示している。障害物領域は、水平方向LRF23による測定の結果、物体が存在すると認識された領域である。図4では、障害物領域を黒色(べた)で示している。
Fig. 4 is a diagram showing an example of the environmental map Ma in the case where the predetermined height range is a predetermined height. Therefore, the environmental map Ma shown in Fig. 4 is a two-dimensional environmental map.
The environmental map Ma is shown with three attributes: unknown area, free area, and obstacle area. The unknown area is an area that cannot be measured due to the presence of an object due to the horizontal direction LRF23 (the object acts as a barrier). In FIG. 4, the unknown area is shown with dots. The free area is an area where the absence of an object is guaranteed as a result of measurement using the horizontal direction LRF23. In FIG. 4, the free area is shown in white (solid color). The obstacle area is an area where the presence of an object is recognized as a result of measurement using the horizontal direction LRF23. In FIG. 4, the obstacle area is shown in black (solid color).

なお、プロセッサー31は、所定高さ範囲が高さ方向に幅を有するように設定し、高さ方向に拡張した3次元の環境地図Maを作成してもよい。この場合、システムコントローラー10は、3次元の環境地図Maを用いることで、より環境変化に対してロバストに自律移動ロボット20の自己位置を推定することができる。 The processor 31 may set the predetermined height range to have a width in the height direction and create a three-dimensional environmental map Ma that is expanded in the height direction. In this case, the system controller 10 can use the three-dimensional environmental map Ma to estimate the self-position of the autonomous mobile robot 20 more robustly against environmental changes.

プロセッサー31は、領域Aに設置された什器を示す什器モデルを環境地図Ma上に配置する機能を備える。プロセッサー31は、什器の種類及び当該什器が設置されている範囲の入力を受ける。そして、プロセッサー31は、当該什器が範囲内のどの位置にあるかを特定する。このために、サーバー30の操作者は、入力装置35などを用いて、什器の種類及び当該什器が設置されている範囲をサーバー30に入力する。環境地図Ma上に什器モデルを配置する機能について、図を用いて以下詳細に説明する。 The processor 31 has a function of placing a fixture model showing the fixtures installed in the area A on the environmental map Ma. The processor 31 receives input of the type of fixture and the range in which the fixture is installed. The processor 31 then identifies where within the range the fixture is located. To this end, the operator of the server 30 inputs the type of fixture and the range in which the fixture is installed to the server 30 using the input device 35 or the like. The function of placing the fixture model on the environmental map Ma will be described in detail below with reference to the figures.

図5は、サーバー30のプロセッサー31による環境地図Ma上に什器モデルを配置する機能に係る処理の一例を示すフローチャートである。なお、以下の動作説明における処理の内容は一例であって、同様な結果を得ることが可能な様々な処理を適宜に利用できる。プロセッサー31は、例えば、ROM32又はNVM34などに記憶されたプログラムに基づいて図5の処理を実行する。 Figure 5 is a flow chart showing an example of processing related to the function of placing a furniture model on the environmental map Ma by the processor 31 of the server 30. Note that the content of the processing in the following operational description is an example, and various processing that can obtain similar results can be used as appropriate. The processor 31 executes the processing of Figure 5 based on a program stored in, for example, the ROM 32 or the NVM 34.

プロセッサー31は、例えば、環境地図Ma上に什器モデルを配置する機能の実行を開始するように指示する入力を受けたことに応じて、図5に示す処理を開始する。
図5のACT11においてサーバー30のプロセッサー31は、範囲選択画面SCaに対応した画像を生成する。そして、プロセッサー31は、生成したこの画像を表示するように表示装置36に対して指示する。表示の指示を受けて表示装置36は、範囲選択画面SCaを表示する。
The processor 31 starts the process shown in FIG. 5, for example, in response to receiving an input instructing the processor 31 to start executing a function of placing a fixture model on the environmental map Ma.
5, the processor 31 of the server 30 generates an image corresponding to the range selection screen SCa. Then, the processor 31 instructs the display device 36 to display the generated image. In response to the display instruction, the display device 36 displays the range selection screen SCa.

図6は、表示装置36に表示される範囲選択画面SCaの一例を示す図である。範囲選択画面SCaは、一例として、環境地図Ma、確定ボタンBa及び終了ボタンBbを含む。確定ボタンBaは、後述の範囲選択が終わった場合に、選択範囲を確定するためにサーバー30の操作者が操作するためのボタンである。終了ボタンBbは、環境地図Ma上への什器モデルの配置を終了するようにサーバー30に指示する場合にサーバー30の操作者が操作するためのボタンである。 Figure 6 is a diagram showing an example of the range selection screen SCa displayed on the display device 36. The range selection screen SCa includes, as an example, an environmental map Ma, a confirm button Ba, and an end button Bb. The confirm button Ba is a button that the operator of the server 30 operates to confirm the selected range when the range selection described below is completed. The end button Bb is a button that the operator of the server 30 operates to instruct the server 30 to end the placement of the furniture model on the environmental map Ma.

サーバー30の操作者は、什器が設置されている位置を含むように、環境地図Ma上で範囲選択を行う。図6には、一例として選択範囲SAを破線で示している。選択範囲SAは、什器の設置位置を含む範囲であれば良く、大きさは問わない。ただし、選択範囲SAが小さいほど、サーバー30の処理時間は、短くなる。なお、図6に示す選択範囲SAの形状は、矩形であるが、選択範囲SAの形状は矩形以外であっても良い。また、範囲選択の方法は、公知の様々な方法を用いることができる。 The operator of the server 30 selects a range on the environmental map Ma so as to include the locations where the fixtures are installed. In FIG. 6, the selection range SA is shown by a dashed line as an example. The selection range SA may be of any size as long as it includes the locations where the fixtures are installed. However, the smaller the selection range SA is, the shorter the processing time of the server 30 will be. Note that although the shape of the selection range SA shown in FIG. 6 is rectangular, the shape of the selection range SA may be other than rectangular. In addition, various known methods may be used for range selection.

ACT12においてプロセッサー31は、選択範囲を確定するための操作が行われたか否かを判定する。すなわちプロセッサー31は、確定ボタンBaを操作するなどの予め定められた操作が行われたか否かを判定する。プロセッサー31は、選択範囲を確定するための操作が行われないならば、ACT12においてNoと判定してACT13へと進む。 In ACT 12, the processor 31 determines whether or not an operation to confirm the selection range has been performed. That is, the processor 31 determines whether or not a predetermined operation, such as operating the confirmation button Ba, has been performed. If an operation to confirm the selection range has not been performed, the processor 31 determines No in ACT 12 and proceeds to ACT 13.

ACT13においてプロセッサー31は、什器モデルの配置を終了するための操作が行われたか否かを判定する。すなわちプロセッサー31は、終了ボタンBbを操作するなどの予め定められた操作が行われたか否かを判定する。プロセッサー31は、什器モデルの配置を終了するための操作が行われないならば、ACT13においてNoと判定してACT12へと戻る。かくして、プロセッサー31は、選択範囲を確定するための操作又は什器モデルの配置を終了するための操作が行われるまでACT12及びACT13を繰り返す待受状態となる。 In ACT 13, processor 31 determines whether an operation to end the placement of the fixture model has been performed. That is, processor 31 determines whether a predetermined operation, such as operating end button Bb, has been performed. If an operation to end the placement of the fixture model has not been performed, processor 31 determines No in ACT 13 and returns to ACT 12. Thus, processor 31 enters a standby state in which ACT 12 and ACT 13 are repeated until an operation to confirm the selection range or an operation to end the placement of the fixture model is performed.

プロセッサー31は、ACT12及びACT13の待受状態にあるときに選択範囲を確定するための操作が行われたならば、ACT12においてYesと判定してACT14へと進む。
以上より、プロセッサー31は、ACT12の処理を行うことで、入力装置35と協働して、選択範囲SAの入力を受ける入力部として機能する。
If an operation to confirm the selection range is performed while in the standby state in ACT 12 and ACT 13, the processor 31 judges the result as Yes in ACT 12 and proceeds to ACT 14.
As described above, by performing the process of ACT 12, the processor 31 cooperates with the input device 35 to function as an input unit that receives input of the selection range SA.

ACT14においてプロセッサー31は、什器選択画面SCbに対応した画像を生成する。そして、プロセッサー31は、生成したこの画像を表示するように表示装置36に対して指示する。表示の指示を受けて表示装置36は、什器選択画面SCbを表示する。 In ACT 14, the processor 31 generates an image corresponding to the fixture selection screen SCb. The processor 31 then instructs the display device 36 to display the generated image. In response to the display instruction, the display device 36 displays the fixture selection screen SCb.

図7は、表示装置36に表示される什器選択画面SCbの一例を示す図である。什器選択画面SCbは、例えば、什器の情報を示す複数の領域ARを含む。各領域ARは、什器テーブルTに記憶されている情報に基づく。 Figure 7 is a diagram showing an example of the fixture selection screen SCb displayed on the display device 36. The fixture selection screen SCb includes, for example, multiple areas AR showing information about fixtures. Each area AR is based on information stored in the fixture table T.

図8は、NVM34に記憶される什器テーブルTの一例を示す図である。什器テーブルTは、一例として、什器ID(identifier)に、什器に関する各種情報を関連付けることで、什器に関する各種情報を記憶及び管理する。什器に関する各種情報は、一例として、メーカー名、製品名、モデルデータ、寸法(W(width))、寸法(D(depth))、寸法(H(height))、特徴量データ及び使用アルゴリズムなどである。什器IDは、什器ごとにユニークな識別情報である。モデルデータは、什器の2次元形状又は3次元形状を示すデータである。2次元形状を示すモデルデータは、例えば平面図である。特徴量データは、什器の形状の特徴量を示すデータである。特徴量データは、形状データの一例である。使用アルゴリズムは、どのアルゴリズムを用いて什器の位置を決定するかを示す。また、使用アルゴリズムは、アルゴリズムにおいて用いるパラメーターの値を含んでも良い。 Figure 8 is a diagram showing an example of a fixture table T stored in NVM 34. As an example, the fixture table T stores and manages various pieces of information about the fixtures by associating various pieces of information about the fixtures with a fixture ID (identifier). Examples of the various pieces of information about the fixtures include the manufacturer name, product name, model data, dimensions (W (width)), dimensions (D (depth)), dimensions (H (height)), feature data, and algorithm used. The fixture ID is unique identification information for each fixture. The model data is data that indicates the two-dimensional or three-dimensional shape of the fixture. The model data that indicates the two-dimensional shape is, for example, a plan view. The feature data is data that indicates the feature amounts of the shape of the fixture. The feature data is an example of shape data. The algorithm used indicates which algorithm is used to determine the position of the fixture. The algorithm used may also include the values of parameters used in the algorithm.

図7の説明に戻る。領域ARは、領域AR内に表示されている什器モデルを選択するためのボタンである。領域ARは、例えば、領域ARa~領域AReを含む。
領域ARaは、什器モデルの什器IDを示す。
領域ARbは、什器IDに関連付けられたメーカー名などを表示する。
領域ARcは、什器IDに関連付けられた、什器の製品名などを表示する。
Returning to the explanation of Fig. 7, the area AR is a button for selecting a furniture model displayed in the area AR. The area AR includes, for example, areas ARa to ARe.
Area ARa indicates the fixture ID of the fixture model.
Area ARb displays the manufacturer name and the like associated with the fixture ID.
Area ARc displays the product name of the fixture, etc. associated with the fixture ID.

領域ARdは、什器IDに関連付けられたモデルデータに基づく什器モデルUを表示する。什器モデルUは、什器の形状を示し、2次元であっても3次元であっても良い。図7に示す什器モデルUは、什器を上方から見た平面図である。什器モデルUは、部分Uaを含む。また、什器モデルUは、部分Ubをさらに含んでも良い。なお、図6では、什器モデルUのうちの部分Uaを実線で、部分Ubを破線で示している。部分Uaは、什器の可動部分の状態によらずに什器の少なくとも一部が存在している領域を示す。そして、部分Ubは、什器の可動部分の状態によって什器の一部が存在する場合と存在しない場合がある領域を示す。換言すると、部分Ubは、什器の可動部が通過する領域から部分Uaを除いた領域を示す。一例として、部分Ubは、什器が備える引き出しが引き出される際に通過する領域である。この場合、部分Ubは、通常、引き出しが最大まで引き出された状態を示す領域である。また、別の一例として、部分Ubは、什器が備える開き戸が開閉時に通過する領域を示す。以上より、可動部が存在しない什器の什器モデルUは、部分Ubを含まない。また、可動部が存在する什器の什器モデルUであっても、可動部が引き戸であるなど、可動部がどのような状態でも(開いている状態でも閉じている状態でも)、什器を上方から見た形状に差異が無いのであれば、当該什器モデルUは、部分Ubを含まない。 The area ARd displays a fixture model U based on the model data associated with the fixture ID. The fixture model U shows the shape of the fixture and may be two-dimensional or three-dimensional. The fixture model U shown in FIG. 7 is a plan view of the fixture seen from above. The fixture model U includes a portion Ua. The fixture model U may further include a portion Ub. In FIG. 6, the portion Ua of the fixture model U is shown by a solid line, and the portion Ub is shown by a dashed line. The portion Ua indicates an area in which at least a portion of the fixture exists regardless of the state of the movable part of the fixture. The portion Ub indicates an area in which a portion of the fixture exists or does not exist depending on the state of the movable part of the fixture. In other words, the portion Ub indicates an area excluding the portion Ua from the area through which the movable part of the fixture passes. As an example, the portion Ub is an area through which a drawer provided in the fixture passes when it is pulled out. In this case, part Ub is usually the area that indicates the state in which the drawer is pulled out to its maximum. As another example, part Ub indicates the area through which a hinged door of the fixture passes when opening and closing. For this reason, a fixture model U of a fixture that does not have a movable part does not include part Ub. Even if the fixture model U of a fixture has a movable part, for example, if the movable part is a sliding door and there is no difference in the shape of the fixture viewed from above regardless of the state of the movable part (whether open or closed), the fixture model U does not include part Ub.

領域AReは、什器IDに関連付けられた寸法を表示する。 Area ARe displays the dimensions associated with the fixture ID.

サーバー30の操作者は、領域ARb~領域AReに表示された情報などを見て、環境地図Maの選択範囲SA内に配置したい什器モデルを選択する。当該什器モデルは、領域Aの選択範囲SAに対応する範囲に設置されている什器のモデルである。ここで選択された什器モデルを以下「選択モデル」という。 The operator of the server 30 looks at the information displayed in areas ARb to ARe and selects the furniture model that he or she wishes to place within the selection range SA of the environmental map Ma. The furniture model in question is a model of the furniture installed in the range corresponding to the selection range SA of area A. The furniture model selected here will hereinafter be referred to as the "selected model."

ACT15においてプロセッサー31は、什器モデルを選択する操作が行われるのを待ち受ける。すなわちプロセッサー31は、いずれかの領域ARを操作するなどの予め定められた操作が行われるのを待ち受ける。プロセッサー31は、什器モデルを選択する操作が行われたならば、ACT15においてYesと判定してACT16へと進む。
したがって、プロセッサー31は、入力装置35と協働して、ACT15の処理を行うことで、什器の種類を示す情報の入力を受ける入力部として機能する。
In ACT 15, processor 31 waits for an operation to select a furniture model. That is, processor 31 waits for a predetermined operation, such as operating any of the areas AR, to be performed. If an operation to select a furniture model is performed, processor 31 determines Yes in ACT 15 and proceeds to ACT 16.
Therefore, the processor 31 cooperates with the input device 35 to process ACT 15, thereby functioning as an input section that receives input information indicating the type of fixture.

ACT16においてプロセッサー31は、選択モデルに関連付けられた特徴量データを取得する。
したがって、プロセッサー31は、ACT15の処理を行うことで、特徴量データを取得する第1の取得部として機能する。
In ACT 16, the processor 31 acquires feature data associated with the selected model.
Therefore, by performing the process of ACT 15, the processor 31 functions as a first acquisition unit that acquires feature amount data.

ACT17においてプロセッサー31は、選択モデルに関連付けられた使用アルゴリズムを取得する。 In ACT 17, the processor 31 obtains the usage algorithm associated with the selected model.

ACT18においてプロセッサー31は、ACT17で取得したアルゴリズムを実行する。以下、当該アルゴリズムの一例について説明する。 In ACT 18, the processor 31 executes the algorithm acquired in ACT 17. An example of the algorithm is described below.

図9は、サーバー30のプロセッサー31によるACT17で取得したアルゴリズムに係る処理の一例を示すフローチャートである。プロセッサー31は、例えば、ROM32又はNVM34などに記憶されたプログラムに基づいて図9の処理を実行する。 Figure 9 is a flowchart showing an example of processing related to the algorithm acquired in ACT 17 by the processor 31 of the server 30. The processor 31 executes the processing of Figure 9 based on a program stored in, for example, the ROM 32 or the NVM 34.

図9のACT31においてサーバー30のプロセッサー31は、図8のACT16で取得した特徴量データが示す特徴量と、検知データのうち、選択範囲SA内から抽出した特徴量とを比較することで、什器の位置を特定する。ここで用いる特徴量データについて、図10を用いて説明する。 In ACT 31 of FIG. 9, the processor 31 of the server 30 identifies the position of the fixture by comparing the feature amount indicated by the feature amount data acquired in ACT 16 of FIG. 8 with the feature amount extracted from within the selection range SA of the detection data. The feature amount data used here will be explained with reference to FIG. 10.

図10は、特徴量データの作成方法の一例について説明するための図である。プロセッサー31は、図10に示すように、什器モデルUから、最前面を平面として抽出し、当該平面の特徴点Paを検出する。そして、プロセッサー31は、このように検出した特徴点Paを示すテンプレートデータTEを生成し、NVM34などに記憶する。特徴量データは、当該テンプレートデータTEを含む。 Figure 10 is a diagram for explaining an example of a method for creating feature amount data. As shown in Figure 10, the processor 31 extracts the foreground surface from the fixture model U as a plane, and detects feature points Pa of the plane. The processor 31 then generates template data TE indicating the feature points Pa detected in this manner, and stores the template data TE in the NVM 34 or the like. The feature amount data includes the template data TE.

図11は、特徴量データと検知データの比較について説明するための図である。プロセッサー31は、検知データのうち、選択範囲SA内から平面を抽出する。そして、プロセッサー31は、当該平面の特徴点Pbを検出する。さらに、プロセッサー31は、テンプレートデータTEの特徴点Paと当該平面の特徴点Pbを対応付ける。そして、プロセッサー31は、特徴点Paと特徴点Pbの一致度が閾値以上である部分を、テンプレートデータTEが示す平面と、検知データから抽出した平面とが一致しているとみなす。すなわち、プロセッサー31は、特徴点Paと特徴点Pbの一致度が閾値以上である部分に、選択モデルに対応する什器の最前面があるとみなす。なお、プロセッサー31は、検知データのうちの選択範囲SA内から複数の平面を抽出して、同様の比較を行っても良い。 FIG. 11 is a diagram for explaining the comparison of feature amount data and detection data. Processor 31 extracts a plane from within the selection range SA of the detection data. Processor 31 then detects feature points Pb of the plane. Processor 31 further associates feature points Pa of template data TE with feature points Pb of the plane. Processor 31 then considers a portion where the degree of match between feature points Pa and Pb is equal to or greater than a threshold as a match between the plane indicated by template data TE and the plane extracted from the detection data. In other words, processor 31 considers the portion where the degree of match between feature points Pa and Pb is equal to or greater than a threshold as the foreground of the fixture corresponding to the selected model. Processor 31 may extract multiple planes from within the selection range SA of the detection data and perform a similar comparison.

ACT32においてプロセッサー31は、ACT31の処理において、一致度が閾値以上である部分があったか否かを判定する。プロセッサー31は、一致度が閾値以上である部分があったならば、ACT32においてYesと判定してACT33へと進む。 In ACT 32, the processor 31 determines whether or not there is a portion in the processing of ACT 31 where the degree of match is equal to or greater than the threshold. If there is a portion in which the degree of match is equal to or greater than the threshold, the processor 31 determines Yes in ACT 32 and proceeds to ACT 33.

ACT33においてプロセッサー31は、環境地図Maの、一致度が閾値以上である部分に対応する位置それぞれに選択モデルを配置する。すなわち、プロセッサー31は、一致度が閾値以上である平面と、選択モデルの最前面が一致するように、環境地図Maに選択モデルを配置する。プロセッサー31は、ACT33の処理の後、図9に示す処理を終了する。 In ACT 33, the processor 31 places the selected model at each position on the environmental map Ma that corresponds to the portion where the degree of matching is equal to or greater than the threshold. That is, the processor 31 places the selected model on the environmental map Ma so that the foreground of the selected model matches the plane where the degree of matching is equal to or greater than the threshold. After the processing of ACT 33, the processor 31 ends the processing shown in FIG. 9.

対して、プロセッサー31は、ACT31の処理において、一致度が閾値以上である部分がなかったならば、ACT32においてNoと判定してACT34へと進む。選択範囲SA内に一致度が閾値以上である部分がない場合、当該選択範囲SA内に、選択モデルに対応する什器が設置されていないとみなすことができる。なお、プロセッサー31は、検知データから平面を抽出できなかった場合も一致度が閾値以上である部分がなかったとして、ACT32においてNoと判定する。 On the other hand, if there is no part where the degree of matching is equal to or greater than the threshold in the processing of ACT 31, the processor 31 judges No in ACT 32 and proceeds to ACT 34. If there is no part within the selection range SA where the degree of matching is equal to or greater than the threshold, it can be assumed that no fixture corresponding to the selected model is installed within the selection range SA. Note that if the processor 31 is unable to extract a plane from the detection data, it also judges No in ACT 32 as there is no part where the degree of matching is equal to or greater than the threshold.

ACT34においてプロセッサー31は、表示装置36を制御して、選択範囲SA内に、選択モデルに対応する什器が設置されていないことを示すエラー表示を含む画像を表示させる。プロセッサー31は、ACT34の処理の後、図9に示す処理を終了する。 In ACT 34, the processor 31 controls the display device 36 to display an image including an error message indicating that no fixture corresponding to the selected model is installed within the selection range SA. After processing in ACT 34, the processor 31 ends the processing shown in FIG. 9.

プロセッサー31は、図9に示す処理を終了することに伴い、ACT18の処理を終了し、ACT11へと戻る。このように、プロセッサー31は、ACT11~ACT18の処理を繰り返すことで、環境地図Ma上に什器モデルUを配置していく。これにより、プロセッサー31は、図12に示すような、環境地図Ma上に什器モデルUが配置された環境地図Mbを得る。図12は、環境地図Mbの一例を示す図である。プロセッサー31は、環境地図Mbを示すデータをNVM34に記憶する。
以上より、プロセッサー31は、ACT18の処理を行うことで、什器の位置を距離点データ及び所定のアルゴリズムを用いて決定する処理部として機能する。
9, the processor 31 ends the process of ACT 18 and returns to ACT 11. In this way, the processor 31 places the furniture model U on the environmental map Ma by repeating the processes of ACT 11 to ACT 18. As a result, the processor 31 obtains an environmental map Mb in which the furniture model U is placed on the environmental map Ma as shown in FIG. 12. FIG. 12 is a diagram showing an example of the environmental map Mb. The processor 31 stores data indicating the environmental map Mb in the NVM 34.
As described above, by performing the processing of ACT18, the processor 31 functions as a processing unit that determines the position of the fixture using distance point data and a predetermined algorithm.

サーバー30の操作者は、什器モデルUの配置を終了する場合、終了ボタンBbを操作する。
プロセッサー31は、ACT12及びACT13の待受状態にあるときに、終了ボタンBbを操作するなどの什器モデルの配置を終了するための操作が行われたならば、ACT13においてYesと判定してACT19へと進む。
When the operator of the server 30 wishes to finish arranging the fixture model U, he or she operates the end button Bb.
When the processor 31 is in the standby state of ACT 12 and ACT 13, if an operation is performed to end the arrangement of the fixture model, such as operating the end button Bb, the processor 31 judges Yes in ACT 13 and proceeds to ACT 19.

ACT19においてプロセッサー31は、自律移動ロボット20の移動経路の設定用の環境地図Mcを作成する。プロセッサー31は、ACT19の処理の後、図5に示す処理を終了する。 In ACT 19, the processor 31 creates an environmental map Mc for setting a movement path for the autonomous mobile robot 20. After processing in ACT 19, the processor 31 ends the processing shown in FIG. 5.

図13は、環境地図Mcの一例を示す図である。環境地図Mcは、環境地図Ma又は環境地図Mbに対して自律移動ロボット20の進入禁止エリアKが設定された環境地図である。なお、図13では、分かりやすくするために進入禁止エリアKを太線で示している。進入禁止エリアKは、自律移動ロボット20の進入を不可とするエリアである。進入禁止エリアは、仮想的な物体として扱われる。プロセッサー31は、例えば、環境地図Mbに配置された什器モデルUを包含する領域を進入禁止エリアKとして設定する。プロセッサー31は、環境地図Mcを示すデータをNVM34に記憶する。 Figure 13 is a diagram showing an example of the environmental map Mc. The environmental map Mc is an environmental map in which no-entry areas K for the autonomous mobile robot 20 are set for the environmental map Ma or the environmental map Mb. Note that in Figure 13, the no-entry areas K are shown with thick lines for ease of understanding. The no-entry areas K are areas into which the autonomous mobile robot 20 is prohibited from entering. The no-entry areas are treated as virtual objects. For example, the processor 31 sets an area that includes a furniture model U arranged on the environmental map Mb as the no-entry area K. The processor 31 stores data indicative of the environmental map Mc in the NVM 34.

プロセッサー31は、以下に示すように、環境地図Mcを用いて自律移動ロボット20の移動経路を設定する機能を備える。
図14は、環境地図Mcを用いた移動経路の設定例を示す図である。
プロセッサー31は、入力装置35を用いたユーザによる読取作業を開始する入力を受け付ける。次に、プロセッサー31は、NVM34から環境地図Mcを示すデータを取得する。そして、プロセッサー31は、環境地図Mcを用いて、現在位置Qaから作業開始位置Qbまでの移動経路を設定する。プロセッサー31は、自律移動ロボット20が進入禁止エリアK内に進入しないように、進入禁止エリアKを回避した移動経路を設定する。なお、プロセッサー31は、少なくとも自律移動ロボット20の大きさを考慮した分だけ進入禁止エリアKから離れた位置を通るように移動経路を設定する方が好ましい。これは、進入禁止エリアKが物体とちょうど接し、移動経路が進入禁止エリアKとちょうど接するとすると、自律移動ロボット20は、物体に接触する可能性が高いからである。同様に、プロセッサー31は、環境地図Mcを用いて、作業開始位置Qbから目的位置までの移動経路を設定する。
The processor 31 has a function of setting a movement path for the autonomous mobile robot 20 using the environmental map Mc, as will be described below.
FIG. 14 is a diagram showing an example of setting a travel route using the environmental map Mc.
The processor 31 accepts an input from the user using the input device 35 to start a reading operation. Next, the processor 31 acquires data showing the environmental map Mc from the NVM 34. Then, the processor 31 uses the environmental map Mc to set a movement route from the current position Qa to the work start position Qb. The processor 31 sets a movement route that avoids the entry-prohibited area K so that the autonomous mobile robot 20 does not enter the entry-prohibited area K. It is preferable that the processor 31 sets a movement route that passes through a position that is away from the entry-prohibited area K by at least an amount that takes into account the size of the autonomous mobile robot 20. This is because if the entry-prohibited area K exactly abuts an object and the movement route exactly abuts the entry-prohibited area K, the autonomous mobile robot 20 is highly likely to come into contact with the object. Similarly, the processor 31 uses the environmental map Mc to set a movement route from the work start position Qb to the target position.

第1実施形態の読取システム1によればサーバー30は、環境地図Maに配置する什器の種類を選択する入力を受ける。そして、サーバー30は、当該什器の什器モデルを、所定のアルゴリズムを用いて環境地図Maに配置する。したがって、第1実施形態のサーバー30は、人が什器モデルを環境地図Maに配置する場合に比べて正確な位置に什器モデルを配置することができる。 According to the reading system 1 of the first embodiment, the server 30 receives an input to select the type of fixture to be placed on the environmental map Ma. The server 30 then places a fixture model of the fixture on the environmental map Ma using a predetermined algorithm. Therefore, the server 30 of the first embodiment can place the fixture model in a more accurate position than if a person were to place the fixture model on the environmental map Ma.

また、第1実施形態の読取システム1によればサーバー30は、特徴点Paと特徴点Pbが一致する位置に什器モデルを配置する。したがって、第1実施形態のサーバー30は、什器モデルを環境地図Maに正確な位置に配置することができる。 Furthermore, according to the reading system 1 of the first embodiment, the server 30 places the furniture model at a position where the feature points Pa and Pb coincide. Therefore, the server 30 of the first embodiment can place the furniture model at an accurate position on the environmental map Ma.

また、第1実施形態の読取システム1によればサーバー30は、以上のように正確に配置した什器モデルを用いて進入禁止エリアKを設定する。したがって、第1実施形態のサーバー30は、進入禁止エリアKを正確な位置に設定することができる。 Furthermore, according to the reading system 1 of the first embodiment, the server 30 sets the no-entry area K using the furniture model that is accurately positioned as described above. Therefore, the server 30 of the first embodiment can set the no-entry area K in an accurate position.

また、第1実施形態の読取システム1によればサーバー30は、選択モデルに関連付けられたアルゴリズムを用いて什器の位置を決定する。したがって、第1実施形態のサーバー30は、什器ごとに適したアルゴリズムを用いることができる。 Furthermore, according to the reading system 1 of the first embodiment, the server 30 determines the position of the fixture using an algorithm associated with the selection model. Therefore, the server 30 of the first embodiment can use an algorithm suitable for each fixture.

〔第2実施形態〕
第2実施形態の読取システム1は、什器に付されたマーカーに記憶された情報を読み取ることで什器の種類を特定する。
第2実施形態の読取システム1の構成は、第1実施形態と同様であるので説明を省略する。
Second Embodiment
The reading system 1 of the second embodiment identifies the type of fixture by reading information stored in a marker attached to the fixture.
The configuration of the reading system 1 of the second embodiment is similar to that of the first embodiment, and therefore a description thereof will be omitted.

第2実施形態では、図11に示すように、領域A内に設置された各什器にマーカーMKが付されている。マーカーMKは、バーコード又は二次元コードなどである。什器に付されたマーカーMKは、当該什器に対応する什器モデルの什器IDを記憶する。 In the second embodiment, as shown in FIG. 11, a marker MK is attached to each fixture installed in area A. The marker MK is a barcode or a two-dimensional code. The marker MK attached to the fixture stores the fixture ID of the fixture model corresponding to the fixture.

以下、第2実施形態に係る読取システム1の動作を図15、図16及び図9などに基づいて説明する。なお、以下の動作説明における処理の内容は一例であって、同様な結果を得ることが可能な様々な処理を適宜に利用できる。図15は、サーバー30のプロセッサー31による処理の一例を示すフローチャートである。プロセッサー31は、例えば、ROM32又はNVM34などに記憶されたプログラムに基づいて図15の処理を実行する。図16は、システムコントローラー10のプロセッサー11による処理の一例を示すフローチャートである。プロセッサー11は、例えば、ROM12又はNVM14などに記憶されたプログラムに基づいて図16の処理を実行する。 The operation of the reading system 1 according to the second embodiment will be described below with reference to Figs. 15, 16, 9, etc. Note that the contents of the process in the following operation description are merely examples, and various processes capable of obtaining similar results can be used as appropriate. Fig. 15 is a flowchart showing an example of the process by the processor 31 of the server 30. The processor 31 executes the process of Fig. 15 based on a program stored in, for example, the ROM 32 or the NVM 34. Fig. 16 is a flowchart showing an example of the process by the processor 11 of the system controller 10. The processor 11 executes the process of Fig. 16 based on a program stored in, for example, the ROM 12 or the NVM 14.

図15のACT41においてサーバー30のプロセッサー31は、開始指示をシステムコントローラー10に送信するように通信I/F37に対して指示する。開始指示は、自律移動ロボット20を用いたマーカーの検出を開始するように、システムコントローラー10に指示する情報である。送信の指示を受けて通信I/F37は、当該開始指示をシステムコントローラー10に送信する。送信された当該開始指示は、システムコントローラー10の通信I/F15によって受信される。 In ACT 41 of FIG. 15, the processor 31 of the server 30 instructs the communication I/F 37 to send a start instruction to the system controller 10. The start instruction is information that instructs the system controller 10 to start detecting markers using the autonomous mobile robot 20. Upon receiving the instruction to send, the communication I/F 37 sends the start instruction to the system controller 10. The sent start instruction is received by the communication I/F 15 of the system controller 10.

一方、図16のACT51においてシステムコントローラー10のプロセッサー11は、通信I/F15によって開始指示が受信されるのを待ち受けている。プロセッサー11は、開始指示が受信されたならば、ACT51においてYesと判定してACT52へと進む。 Meanwhile, in ACT 51 of FIG. 16, the processor 11 of the system controller 10 waits for a start instruction to be received by the communication I/F 15. If a start instruction is received, the processor 11 judges Yes in ACT 51 and proceeds to ACT 52.

ACT52においてプロセッサー11は、自律移動ロボット20を制御して、領域A内の移動を開始させる。この制御に基づき、自律移動ロボット20は、カメラ25による撮像を行いながら移動する。カメラ25によって撮像された画像は、システムコントローラー10に入力する。 In ACT 52, the processor 11 controls the autonomous mobile robot 20 to start moving within area A. Based on this control, the autonomous mobile robot 20 moves while taking images with the camera 25. The images taken by the camera 25 are input to the system controller 10.

ACT53においてプロセッサー11は、什器に付されたマーカーを検知したか否かを判定する。プロセッサー11は、カメラ25によって撮像される画像に対して画像認識を行う。そして、プロセッサー11は、カメラ25によって撮像された画像内にマーカーが写っている場合、当該マーカーの存在を検知する。プロセッサー11は、マーカーを検知していないならば、ACT53においてNoと判定してACT54へと進む。 In ACT 53, processor 11 determines whether or not a marker attached to a fixture has been detected. Processor 11 performs image recognition on the image captured by camera 25. If a marker is present in the image captured by camera 25, processor 11 detects the presence of the marker. If processor 11 has not detected a marker, processor 11 determines No in ACT 53 and proceeds to ACT 54.

ACT54においてプロセッサー11は、移動を終了するか否かを判定する。例えば、プロセッサー11は、自律移動ロボット20が領域A内を十分に回り終わったと判定する場合に移動を終了すると判定する。プロセッサー11は、移動を終了すると判定しないならば、ACT54においてNoと判定してACT53へと戻る。かくして、プロセッサー11は、マーカーを検知するか、移動を終了すると判定するまでACT53及びACT54を繰り返す待受状態となる。 In ACT 54, the processor 11 determines whether or not to end the movement. For example, the processor 11 determines to end the movement when it determines that the autonomous mobile robot 20 has sufficiently gone around area A. If the processor 11 does not determine to end the movement, it determines No in ACT 54 and returns to ACT 53. Thus, the processor 11 enters a standby state in which ACT 53 and ACT 54 are repeated until the processor 11 detects a marker or determines to end the movement.

プロセッサー11は、ACT53及びACT54の待受状態にあるときにマーカーを検知したならば、ACT53においてYesと判定してACT55へと進む。ここで検知されたマーカーを以下「検知マーカー」という。 If the processor 11 detects a marker while in the standby state of ACT 53 and ACT 54, it judges Yes in ACT 53 and proceeds to ACT 55. The marker detected here is hereinafter referred to as the "detected marker."

ACT55においてプロセッサー11は、画像認識などにより、検知マーカーに記憶されている什器IDを読み取る。また、プロセッサー11は、当該検知マーカーの環境地図Ma上の位置を計測する。プロセッサー11は、マーカーの位置計測方法として、公知の種々の方法を用いて良い。 In ACT 55, the processor 11 reads the fixture ID stored in the detection marker by image recognition or the like. The processor 11 also measures the position of the detection marker on the environmental map Ma. The processor 11 may use various known methods to measure the position of the marker.

ACT56においてプロセッサー11は、検知情報を生成する。検知情報は、マーカーを検知したことを通知する情報である。検知情報は、ACT55で取得した什器ID及び検知位置情報を含む。検知位置情報は、例えば、検知マーカーの環境地図Ma上の位置を特定可能な情報である。プロセッサー11は、検知情報を生成した後、当該検知情報をサーバー30に送信するように通信I/F15に対して指示する。この送信の指示を受けて通信I/F15は、当該検知情報をサーバー30に送信する。送信された当該検知情報は、サーバー30の通信I/F37によって受信される。プロセッサー31は、ACT56の処理の後、ACT53へと戻る。 In ACT 56, the processor 11 generates detection information. The detection information is information that notifies that a marker has been detected. The detection information includes the fixture ID and detection position information acquired in ACT 55. The detection position information is, for example, information that can identify the position of the detection marker on the environmental map Ma. After generating the detection information, the processor 11 instructs the communication I/F 15 to transmit the detection information to the server 30. Upon receiving this transmission instruction, the communication I/F 15 transmits the detection information to the server 30. The transmitted detection information is received by the communication I/F 37 of the server 30. After processing in ACT 56, the processor 31 returns to ACT 53.

一方、図15のACT42においてサーバー30のプロセッサー31は、通信I/F37によって検知情報が受信されたか否かを判定する。プロセッサー31は、検知情報が受信されないならば、ACT42においてNoと判定してACT43へと進む。 On the other hand, in ACT 42 of FIG. 15, the processor 31 of the server 30 determines whether or not detection information has been received by the communication I/F 37. If detection information has not been received, the processor 31 determines No in ACT 42 and proceeds to ACT 43.

ACT43においてプロセッサー31は、通信I/F37によって終了情報が受信されたか否かを判定する。プロセッサー31は、終了情報が受信されないならば、ACT43においてNoと判定してACT42へと戻る。かくして、プロセッサー31は、検知情報又は終了情報が受信されるまでACT42及びACT43を繰り返す待受状態となる。なお、終了情報については後述する。 In ACT 43, the processor 31 determines whether or not termination information has been received by the communication I/F 37. If termination information has not been received, the processor 31 determines No in ACT 43 and returns to ACT 42. Thus, the processor 31 enters a standby state in which ACT 42 and ACT 43 are repeated until detection information or termination information is received. The termination information will be described later.

プロセッサー31は、ACT42及びACT43の待受状態にあるときに検知情報が受信されたならば、ACT42においてYesと判定してACT44へと進む。ここで受信される検知情報を以下「受信検知情報」という。
受信検知情報は、什器の種類を示す什器IDを含む。したがって、プロセッサー31は、通信I/F37と協働して、ACT42の処理を行うことで、什器の種類を示す情報の入力を受ける入力部として機能する。
If the processor 31 receives detection information while in the standby state in ACT 42 and ACT 43, the processor 31 judges that the result is Yes in ACT 42 and proceeds to ACT 44. The detection information received here is hereinafter referred to as "received detection information".
The received detection information includes a fixture ID indicating the type of the fixture. Therefore, the processor 31 cooperates with the communication I/F 37 to perform the process of ACT42, thereby functioning as an input unit that receives input of information indicating the type of the fixture.

ACT44においてプロセッサー31は、受信検知情報に含まれる検知位置情報が示す環境地図Ma上の位置を含む範囲を選択範囲SAとして決定する。プロセッサー31は、例えば、検知位置情報が示す環境地図Ma上の位置から所定の距離以内の範囲を選択範囲SAとする。
したがって、プロセッサー31は、ACT42の処理を行うことで、通信I/F37と協働して、選択範囲SAの入力を受ける入力部として機能する。
In ACT 44, the processor 31 determines a range including the position on the environmental map Ma indicated by the detection position information included in the received detection information as the selection range SA. For example, the processor 31 determines a range within a predetermined distance from the position on the environmental map Ma indicated by the detection position information as the selection range SA.
Therefore, by performing the process of ACT42, the processor 31 cooperates with the communication I/F 37 to function as an input unit that receives input of the selection range SA.

ACT45においてプロセッサー31は、什器テーブルTを参照して、受信検知情報に含まれる什器IDに関連付けられた特徴量データを取得する。
したがって、プロセッサー31は、ACT45の処理を行うことで、特徴量データを取得する第1の取得部として機能する。
In ACT45, the processor 31 refers to the fixture table T and acquires feature data associated with the fixture ID included in the received detection information.
Therefore, by performing the process of ACT45, the processor 31 functions as a first acquisition unit that acquires feature amount data.

ACT46においてプロセッサー31は、什器テーブルTを参照して、受信検知情報に含まれる什器IDに関連付けられた使用アルゴリズムを取得する。 In ACT 46, the processor 31 refers to the fixture table T and obtains the usage algorithm associated with the fixture ID included in the received detection information.

ACT47においてプロセッサー31は、ACT46で取得したアルゴリズムを実行する。当該アルゴリズムは、第1実施形態と同様である。すなわち、当該アルゴリズムの処理の一例は、図9に示す処理である。ただし、第2実施形態では、図9のACT31において、プロセッサー31は、図15のACT45で取得した特徴量データを用いる。プロセッサー31は、図9の処理を終了することに伴い、ACT47の処理を終了し、ACT42へと戻る。以上のように、サーバー30のプロセッサー31が図15のACT42~ACT47を繰り返し、システムコントローラー10のプロセッサー11が図16のACT53~ACT56の処理を繰り返す。これにより、プロセッサー31は、図12に示すような、環境地図Ma上に什器モデルUが配置された環境地図Mbを得る。
以上より、プロセッサー31は、ACT47の処理を行うことで、什器の位置を距離点データ及び所定のアルゴリズムを用いて決定する処理部として機能する。
In ACT 47, the processor 31 executes the algorithm acquired in ACT 46. The algorithm is the same as that in the first embodiment. That is, an example of the process of the algorithm is the process shown in FIG. 9. However, in the second embodiment, in ACT 31 of FIG. 9, the processor 31 uses the feature amount data acquired in ACT 45 of FIG. 15. With the end of the process of FIG. 9, the processor 31 ends the process of ACT 47 and returns to ACT 42. As described above, the processor 31 of the server 30 repeats ACT 42 to ACT 47 of FIG. 15, and the processor 11 of the system controller 10 repeats the processes of ACT 53 to ACT 56 of FIG. 16. As a result, the processor 31 obtains an environmental map Mb in which the furniture model U is arranged on the environmental map Ma as shown in FIG. 12.
As described above, by performing the processing of ACT47, the processor 31 functions as a processing unit that determines the position of the fixture using distance point data and a predetermined algorithm.

一方、プロセッサー11は、図16のACT53及びACT54の待受状態にあるときに移動を終了すると判定するならば、ACT54においてYesと判定してACT57へと進む。 On the other hand, if the processor 11 determines to end the movement when in the standby state of ACT 53 and ACT 54 in FIG. 16, it judges Yes in ACT 54 and proceeds to ACT 57.

ACT57においてプロセッサー11は、自律移動ロボット20を制御して、移動を終了させる。 In ACT 57, the processor 11 controls the autonomous mobile robot 20 to end the movement.

ACT58においてプロセッサー11は、終了情報をサーバー30に送信するように通信I/F15に対して指示する。終了情報は、領域A内のマーカーの検出が終了したこと、及び自律移動ロボット20の移動を終了したことを通知する。この送信の指示を受けて通信I/F15は、当該終了情報をサーバー30に送信する。送信された当該終了情報は、サーバー30の通信I/F37によって受信される。プロセッサー11は、ACT58の処理の後、ACT51へと戻る。 In ACT 58, the processor 11 instructs the communication I/F 15 to send end information to the server 30. The end information notifies that detection of markers in area A has ended and that the movement of the autonomous mobile robot 20 has ended. In response to this instruction to send, the communication I/F 15 sends the end information to the server 30. The sent end information is received by the communication I/F 37 of the server 30. After processing ACT 58, the processor 11 returns to ACT 51.

一方、サーバー30のプロセッサー31は、図15のACT42及びACT43の待受状態にあるときに終了情報が受信されたならば、ACT43においてYesと判定してACT19へと進む。 On the other hand, if the processor 31 of the server 30 receives termination information while in the standby state of ACT 42 and ACT 43 of FIG. 15, it judges Yes in ACT 43 and proceeds to ACT 19.

第2実施形態の読取システム1によればサーバー30は、第1実施形態と同様の効果が得られる。
また、第2実施形態の読取システム1によればサーバー30は、マーカーに記憶された什器IDを用いて什器の種類を特定する。したがって、第2実施形態のサーバー30は、人が什器の種類を入力する手間が不要である。
According to the reading system 1 of the second embodiment, the server 30 can obtain the same effects as those of the first embodiment.
Furthermore, according to the reading system 1 of the second embodiment, the server 30 identifies the type of fixture by using the fixture ID stored in the marker. Therefore, the server 30 of the second embodiment does not require a person to take the trouble of inputting the type of fixture.

また、第2実施形態の読取システム1によればサーバー30は、光学的手段によってマーカーに記憶された情報を読み取る。 Furthermore, according to the reading system 1 of the second embodiment, the server 30 reads the information stored in the marker by optical means.

〔第3実施形態〕
第3実施形態の読取システム1は、什器に付されたマーカーが、無線タグなどである。
第3実施形態の読取システム1の構成は、第1実施形態及び第2実施形態と同様であるので説明を省略する。
Third Embodiment
In the reading system 1 of the third embodiment, the marker attached to the fixture is a wireless tag or the like.
The configuration of the reading system 1 of the third embodiment is similar to that of the first and second embodiments, and therefore a description thereof will be omitted.

第3実施形態では、第2実施形態と同様に、図11に示すように、領域A内に設置された各什器にマーカーMKが付されている。ただし、第3実施形態におけるマーカーMKは、RFIDタグなどの無線タグ、又はその他の通信及び記憶が可能な装置である。什器に付されたマーカーMKは、当該什器に対応する什器モデルの什器IDを記憶する。 In the third embodiment, as in the second embodiment, as shown in FIG. 11, a marker MK is attached to each fixture installed in area A. However, the marker MK in the third embodiment is a wireless tag such as an RFID tag, or other device capable of communication and storage. The marker MK attached to the fixture stores the fixture ID of the fixture model corresponding to that fixture.

第3実施形態の読取システム1は、第2実施形態と同様に図15、図16及び図9に示す処理を行う。ただし、第3実施形態の読取システム1は、以下に示す点で第2実施形態と異なる。 The reading system 1 of the third embodiment performs the processes shown in Figures 15, 16, and 9, similar to the second embodiment. However, the reading system 1 of the third embodiment differs from the second embodiment in the following respects.

第3実施形態では、自律移動ロボット20は、リーダー21を用いたマーカーMKの検出を行いながら移動する。 In the third embodiment, the autonomous mobile robot 20 moves while detecting the marker MK using the reader 21.

第3実施形態では、図16のACT53において、システムコントローラー10のプロセッサー11は、リーダー21によってマーカーMKが検知されたか否かを判定する。
第3実施形態では、ACT55において、プロセッサー11は、リーダー21を用いて検知マーカーと通信することで、当該検知マーカーに記憶されている什器IDを読み取る。
In the third embodiment, in ACT 53 of FIG. 16, the processor 11 of the system controller 10 determines whether or not the marker MK is detected by the reader 21.
In the third embodiment, in ACT 55, the processor 11 communicates with the detection marker using the reader 21 to read the fixture ID stored in the detection marker.

第3実施形態の読取システム1によればサーバー30は、第2実施形態と同様の効果が得られる。 According to the reading system 1 of the third embodiment, the server 30 can obtain the same effect as the second embodiment.

上記の実施形態は以下のような変形も可能である。
上記の実施形態では、サーバー30のプロセッサー31は、特徴点Paを、什器モデルUから検出する。しかしながら、特徴点Paは、実際の什器から検出されたものであっても良い。
The above embodiment may be modified as follows.
In the above embodiment, the processor 31 of the server 30 detects the feature points Pa from the furniture model U. However, the feature points Pa may be detected from an actual furniture.

読取システム1は、検知データと、マーカーの検知を同時、又は並行して行っても良い。この場合、自律移動ロボット20が検知データの取得のためとマーカーの検知のためとで同じ場所を複数回移動する必要がなくなる。 The reading system 1 may perform detection of the detection data and the marker simultaneously or in parallel. In this case, the autonomous mobile robot 20 does not need to move to the same location multiple times to obtain the detection data and detect the marker.

プロセッサー11又はプロセッサー31は、上記実施形態においてプログラムによって実現する処理の一部又は全部を、回路のハードウェア構成によって実現するものであっても良い。 Processor 11 or processor 31 may implement some or all of the processing implemented by the program in the above embodiments through a hardware circuit configuration.

上記実施形態における各装置は、例えば、上記の各処理を実行するためのプログラムが記憶された状態で各装置の管理者などへと譲渡される。あるいは、当該各装置は、当該プログラムが記憶されない状態で当該管理者などに譲渡される。そして、当該プログラムが別途に当該管理者などへと譲渡され、当該管理者又はサービスマンなどによる操作に基づいて当該各装置に記憶される。このときのプログラムの譲渡は、例えば、ディスクメディア又は半導体メモリなどのようなリムーバブルな記憶媒体を用いて、あるいはインターネット又はLANなどを介したダウンロードにより実現できる。 Each device in the above embodiment is transferred to the administrator of the device, for example, with the program for executing each of the above processes stored therein. Alternatively, each device is transferred to the administrator without the program stored therein. The program is then transferred separately to the administrator, and stored in each device based on an operation by the administrator or a serviceman. The program can be transferred in this case using a removable storage medium such as a disk medium or semiconductor memory, or by downloading via the Internet or a LAN, for example.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
[C1]
什器の種類を示す情報の入力を受ける入力部と、
前記種類に対応する形状データを取得する第1の取得部と、
物体の位置を示す距離点データを取得する第2の取得部と、
前記種類の前記什器の位置を、前記距離点データ及び所定のアルゴリズムを用いて決定する処理部と、を備える情報処理装置。
[C2]
前記処理部は、前記形状データが示す特徴量と前記距離点データが示す特徴量とが一致する位置に前記什器があると決定する前記アルゴリズムを用いる、[C1]に記載の情報処理装置。
[C3]
前記入力部は、前記什器に付されたマーカーに記憶された、前記什器の前記種類を示す前記情報の入力を受ける、[C1]又は[C2]に記載の情報処理装置。
[C4]
前記入力部は、前記什器が設置されている範囲の入力を受け、
前記処理部は、前記什器の位置を前記範囲内から決定する、
[C1]乃至[C3]のいずれか1つに記載の情報処理装置。
[C5]
前記処理部は、前記種類に対応する前記アルゴリズムを用いる、
[C1]乃至[C4]のいずれか1つに記載の情報処理装置。
Although some embodiments of the present invention have been described, these embodiments are presented as examples and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, substitutions, and modifications can be made without departing from the spirit of the invention. These embodiments and their modifications are included in the scope and spirit of the invention, and are included in the scope of the invention and its equivalents described in the claims.
The invention as originally claimed in the present application is set forth below.
[C1]
An input unit that receives input of information indicating the type of fixture;
A first acquisition unit that acquires shape data corresponding to the type;
a second acquisition unit that acquires distance point data indicative of a position of an object;
An information processing device comprising: a processing unit that determines the position of the fixture of the type using the distance point data and a predetermined algorithm.
[C2]
The information processing device described in [C1], wherein the processing unit uses the algorithm to determine that the fixture is located at a position where the features indicated by the shape data and the features indicated by the distance point data match.
[C3]
The information processing device described in [C1] or [C2], wherein the input unit receives input of the information indicating the type of the fixture stored in a marker attached to the fixture.
[C4]
The input unit receives an input of an area in which the fixtures are installed,
The processing unit determines the position of the fixture within the range.
The information processing device according to any one of [C1] to [C3].
[C5]
The processing unit uses the algorithm corresponding to the type.
The information processing device according to any one of [C1] to [C4].

1……読取システム、10……システムコントローラー、11,31……プロセッサー、12,32……ROM、13,33……RAM、14,34……NVM、15,37……通信I/F、20……自律移動ロボット、21,211,212,213,214,215,216……リーダー、22,221,222……3D距離センサー、23……水平方向LRF、24……鉛直方向LRF、25……カメラ、26……移動機構、30……サーバー、35……入力装置、36……表示装置、201……台車、202……車輪、261……走行コントローラー、262……モーター、263……エンコーダー、264……IMU、K……進入禁止エリア、Ma,Mb,Mc……環境地図、MK……マーカー、Pa,Pb……特徴点、Qa……現在位置、Qb……作業開始位置、T……什器テーブル、TE……テンプレートデータ、U……什器モデル、Ua,Ub……部分
1...Reading system, 10...System controller, 11, 31...Processor, 12, 32...ROM, 13, 33...RAM, 14, 34...NVM, 15, 37...Communication I/F, 20...Autonomous mobile robot, 21, 211, 212, 213, 214, 215, 216...Reader, 22, 221, 222...3D distance sensor, 23...Horizontal LRF, 24...Vertical LRF, 25...Camera, 26...Moving mechanism, 3 0: server, 35: input device, 36: display device, 201: trolley, 202: wheels, 261: travel controller, 262: motor, 263: encoder, 264: IMU, K: no-entry area, Ma, Mb, Mc: environmental map, MK: marker, Pa, Pb: feature point, Qa: current position, Qb: work start position, T: furniture table, TE: template data, U: furniture model, Ua, Ub: part

Claims (5)

操作者により環境地図上で範囲選択された什器が設置されている範囲の入力を受け、前記什器の種類を示す情報の入力を受ける入力部と、
前記種類に対応する形状データを取得する第1の取得部と、
物体の位置を示す距離点データを取得する第2の取得部と、
前記種類の前記什器の位置を、前記距離点データ及び所定のアルゴリズムを用いて前記範囲内から決定する処理部と、を備える情報処理装置。
an input unit that receives an input of an area in which fixtures selected by an operator on an environmental map are installed and receives an input of information indicating the type of the fixtures;
A first acquisition unit that acquires shape data corresponding to the type;
a second acquisition unit that acquires distance point data indicative of a position of an object;
An information processing device comprising: a processing unit that determines the position of the fixture of the type within the range using the distance point data and a predetermined algorithm.
什器に付されたマーカーに記憶された、前記什器の種類を示す情報の入力を受ける入力部と、
前記種類に対応する形状データを取得する第1の取得部と、
物体の位置を示す距離点データを取得する第2の取得部と、
前記種類の前記什器の位置を、前記距離点データ及び所定のアルゴリズムを用いて決定する処理部と、を備える情報処理装置。
An input unit that receives input of information indicating the type of the fixture stored in a marker attached to the fixture ;
A first acquisition unit that acquires shape data corresponding to the type;
a second acquisition unit that acquires distance point data indicative of a position of an object;
An information processing device comprising: a processing unit that determines the position of the fixture of the type using the distance point data and a predetermined algorithm.
前記処理部は、前記形状データが示す特徴量と前記距離点データが示す特徴量とが一致する位置に前記什器があると決定する前記アルゴリズムを用いる、請求項1又は請求項2に記載の情報処理装置。 The information processing device according to claim 1 or 2 , wherein the processing unit uses the algorithm that determines that the fixture is located at a position where a feature amount indicated by the shape data and a feature amount indicated by the distance point data match. 前記処理部は、前記種類に対応する前記アルゴリズムを用いる、
請求項1乃至請求項のいずれか1項に記載の情報処理装置。
The processing unit uses the algorithm corresponding to the type.
The information processing device according to claim 1 .
前記入力部は、前記什器に付されたマーカーに記憶された、前記什器の前記種類を示す前記情報の入力を受ける、請求項1に記載の情報処理装置。 The information processing device according to claim 1 , wherein the input unit receives an input of the information indicating the type of the fixture, the information being stored in a marker attached to the fixture.
JP2020137465A 2020-08-17 2020-08-17 Information processing device Active JP7483551B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020137465A JP7483551B2 (en) 2020-08-17 2020-08-17 Information processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020137465A JP7483551B2 (en) 2020-08-17 2020-08-17 Information processing device

Publications (2)

Publication Number Publication Date
JP2022033519A JP2022033519A (en) 2022-03-02
JP7483551B2 true JP7483551B2 (en) 2024-05-15

Family

ID=80375260

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020137465A Active JP7483551B2 (en) 2020-08-17 2020-08-17 Information processing device

Country Status (1)

Country Link
JP (1) JP7483551B2 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009217363A (en) 2008-03-07 2009-09-24 Hitachi Ltd Environment map generating apparatus, method and program

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009217363A (en) 2008-03-07 2009-09-24 Hitachi Ltd Environment map generating apparatus, method and program

Also Published As

Publication number Publication date
JP2022033519A (en) 2022-03-02

Similar Documents

Publication Publication Date Title
US20230064687A1 (en) Restricting movement of a mobile robot
US9911226B2 (en) Method for cleaning or processing a room by means of an autonomously mobile device
US10518414B1 (en) Navigation method, navigation system, movement control system and mobile robot
CN110313863B (en) Autonomous mobile cleaning machine, cleaning method for autonomous mobile cleaning machine, and program
CN105813526B (en) Robot cleaning device and method for landmark recognition
CN108177162B (en) The interference region setting device of mobile robot
CN110037621B (en) Mobile device, cleaning robot and control method thereof
JP7340350B2 (en) Information processing device and information processing method
JP4533659B2 (en) Apparatus and method for generating map image by laser measurement
US20200306989A1 (en) Magnetometer for robot navigation
CN110313867B (en) Autonomous mobile cleaner, cleaning method for autonomous mobile cleaner, and recording medium
CN110967711A (en) Data acquisition method and system
Troniak et al. Charlie rides the elevator--integrating vision, navigation and manipulation towards multi-floor robot locomotion
Ye et al. 6-DOF pose estimation of a robotic navigation aid by tracking visual and geometric features
WO2013049597A1 (en) Method and system for three dimensional mapping of an environment
WO2019001237A1 (en) Mobile electronic device, and method in mobile electronic device
JP7483551B2 (en) Information processing device
JP7393255B2 (en) Information processing device and information processing method
US20220221872A1 (en) Information processing device, information processing method, and program
US20200241553A1 (en) Creation and loading of mapping data on autonomous robotic devices
JP7046568B2 (en) Goods management system
JP2011198173A (en) Robot system
WO2023123457A1 (en) Robot control method and apparatus, method and apparatus for controlling robot to return to base, and robot
JP2022050115A (en) Movable body position estimation system, operator terminal device, and position estimation method

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20230104

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230419

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240201

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240402

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240501

R150 Certificate of patent or registration of utility model

Ref document number: 7483551

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150