JP2020038631A - Information processing apparatus, information processing method, program, and system - Google Patents

Information processing apparatus, information processing method, program, and system Download PDF

Info

Publication number
JP2020038631A
JP2020038631A JP2019134500A JP2019134500A JP2020038631A JP 2020038631 A JP2020038631 A JP 2020038631A JP 2019134500 A JP2019134500 A JP 2019134500A JP 2019134500 A JP2019134500 A JP 2019134500A JP 2020038631 A JP2020038631 A JP 2020038631A
Authority
JP
Japan
Prior art keywords
information
information processing
control value
image
environment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019134500A
Other languages
Japanese (ja)
Other versions
JP2020038631A5 (en
Inventor
誠 冨岡
Makoto Tomioka
誠 冨岡
圭祐 立野
Keisuke Tateno
圭祐 立野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to US16/550,074 priority Critical patent/US11573574B2/en
Priority to CN201910801597.2A priority patent/CN110928291B/en
Priority to DE102019123072.1A priority patent/DE102019123072A1/en
Publication of JP2020038631A publication Critical patent/JP2020038631A/en
Publication of JP2020038631A5 publication Critical patent/JP2020038631A5/ja
Priority to US18/153,787 priority patent/US20230168686A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0251Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle

Abstract

To stably control movement of a moving body which can mount objects of plural kinds to be carried.SOLUTION: The present invention is directed to an information processing apparatus for achieving the above object and for determining a control value for use in controlling a position of a moving body for carrying a carriage object. The apparatus is characterized by having acquiring means for first information which allows a three-dimensional shape of a carriage object to be specified on the basis of a first image obtained by capturing the carriage object and second information which, on the basis of a second image obtained by capturing an environment where the moving body moves, allows distance between an object and the moving body in the environment to be specified, and determining means for determining the control value for preventing the carriage object and the object from getting closer to each other as compared with a predetermined distance.SELECTED DRAWING: Figure 6

Description

本発明は、移動体の移動制御を行う技術に関する。   The present invention relates to a technique for controlling movement of a moving object.

例えば、無人搬送車(AGV;Automated Guided Vehicle)と呼ばれる移動体がある。従来、この移動体を工場や物流倉庫等といった環境内で走行させる場合、移動体の移動制御を安定して行うため、特許文献1のように床にテープを貼り、テープを移動体に搭載したセンサで検知しながら走行させることが知られている。   For example, there is a mobile object called an automated guided vehicle (AGV). Conventionally, when this moving body is run in an environment such as a factory or a distribution warehouse, a tape is attached to the floor and the tape is mounted on the moving body as in Patent Document 1 in order to stably control the movement of the moving body. It is known to travel while detecting with a sensor.

特開2010−33434号公報JP 2010-33434 A

しかし、不特定の荷物を載せた移動体を安定的に移動させるには、移動体に載せる荷物の量や形状に合わせて移動経路を変更する必要がある。つまり、環境中の障害物と移動体または荷物との距離を適切に空けて走行するように走行経路を人手で設定する必要があった。   However, in order to stably move a moving object carrying unspecified luggage, it is necessary to change the moving route according to the amount and shape of the luggage carried on the moving object. That is, it is necessary to manually set the traveling route so that the vehicle travels with an appropriate distance between the obstacle in the environment and the moving object or the luggage.

本発明は、上記の課題に鑑みてなされたものであり、複数種類の運搬物を搭載可能な移動体の移動制御を安定的に行うことを目的とする。   The present invention has been made in view of the above problems, and has as its object to stably control the movement of a moving body on which a plurality of types of goods can be mounted.

上記の目的を達成する本発明に係る情報処理装置は、上記の目的を達成する本発明に係る情報処理装置は、運搬物を運搬する移動体の位置を制御する制御値を決定する情報処理装置であって、前記運搬物を撮像した第1の画像に基づいて前記運搬物の3次元形状を特定可能な第1の情報と、前記移動体が移動する環境を撮像した第2の画像に基づいて前記環境における物体と前記移動体との距離を特定可能な第2の情報とを取得する取得手段と、前記第1の情報と前記第2の情報に基づいて、前記運搬物と前記物体とが所定の距離より近づくことを抑制する前記制御値を決定する決定手段とを有することを特徴とする。   An information processing apparatus according to the present invention that achieves the above object is an information processing apparatus according to the present invention that achieves the above object, and an information processing apparatus that determines a control value for controlling a position of a moving object that carries a conveyed object. And based on first information capable of specifying a three-dimensional shape of the transported object based on a first image of the transported object and a second image of an environment in which the moving object moves. Acquiring means for acquiring second information capable of specifying the distance between the object and the moving object in the environment, and the transported object and the object based on the first information and the second information. And determining means for determining the control value for preventing the control value from approaching a predetermined distance.

本発明によれば、複数種類の運搬物を搭載可能な移動体の移動制御を安定的に行うことが出来る。   ADVANTAGE OF THE INVENTION According to this invention, the movement control of the moving body which can carry several types of goods can be performed stably.

移動体システムが走行する環境の一例を説明する図。The figure explaining an example of the environment in which the mobile body system runs. 情報処理システムのシステム構成例を説明する図。FIG. 2 illustrates a system configuration example of an information processing system. 移動体システムの機能構成例を説明するブロック図。FIG. 2 is a block diagram illustrating a functional configuration example of a mobile system. 情報処理装置のハードウェア構成例を示す図。FIG. 2 is a diagram illustrating a hardware configuration example of an information processing apparatus. 情報処理装置が実行する処理を説明するフローチャート。9 is a flowchart illustrating processing executed by the information processing device. 移動体システムが走行する経路の一例を説明する図。The figure explaining an example of the course which a mobile system runs. 移動体システムの機能構成例を説明するブロック図。FIG. 2 is a block diagram illustrating a functional configuration example of a mobile system. 情報処理装置が実行する処理を説明するフローチャート。9 is a flowchart illustrating processing executed by the information processing device. 表示情報を提示するGUIの一例を示す図。The figure which shows an example of the GUI which presents display information. 移動体システムの機能構成例を説明するブロック図。FIG. 2 is a block diagram illustrating a functional configuration example of a mobile system. 情報処理装置が実行する処理を説明するフローチャート。9 is a flowchart illustrating processing executed by the information processing device. 移動体システムの機能構成例を説明するブロック図。FIG. 2 is a block diagram illustrating a functional configuration example of a mobile system. 表示情報を提示するGUIの一例を示す図。The figure which shows an example of the GUI which presents display information. 情報処理装置が実行する処理を説明するフローチャート。9 is a flowchart illustrating processing executed by the information processing device.

以下、図面を参照しながら実施形態を説明する。なお、以下の実施形態において示す構成は一例に過ぎず、本発明は図示された構成に限定されるものではない。   Hereinafter, embodiments will be described with reference to the drawings. Note that the configurations shown in the following embodiments are merely examples, and the present invention is not limited to the illustrated configurations.

(実施形態1)
本実施形態では、運搬物を載せた無人搬送車(AGV)の移動制御について説明する。無人搬送車を以下では移動体と呼ぶ。この移動体は、複数種類の運搬物を搭載可能であり、この移動体に搭載された運搬物の形状によって、移動体が通行可能な経路が変化する。また、移動体システム12は、車体に搭載されたカメラの画像から空間の3次元構造を認識できる。図1では、天井に梁がある、壁や棚にでっぱりがあるような環境を移動体が移動する場合、運搬物の有無や高さによって、移動体が通ることができる場所が異なる。具体的には、運搬物の高さが破線Aより低い場合は、移動体システム12はこのまま直進可能である。しかし、運搬物15の高さは破線Bに到達するため、この場合は直進せずに迂回して進むよう移動制御する必要がある。また、運搬物が移動体システムの横幅方向にはみ出すような大きさである場合も、移動体システムは運搬物の形状を考慮した経路を走行する必要がある。また、無人搬送車のように工場や倉庫で使用される移動体は、タスクに応じて様々な運搬物を運び、指示された場所で積み下ろしを行う。あるタスクを実施する工程において移動体が搭載する運搬物の量や大きさは一定であるとは限らない。はじめに運搬物の形状についての情報を与えても、荷物の積み下ろしを行う前後で運搬物の形状についての情報を更新しなければならなかった。そこで、画像から得た運搬物の高さや縦横の3次元形状の情報に基づいて、運搬物が障害物に接触しない経路を移動体システムが走行するように、移動体の位置を制御する制御値(方向またはスピード)を決定する方法について述べる。図2に、情報処理システムの構成例を示す。運搬物センサ110が撮像した画像から推定した運搬物の3次元形状と、移動体システム12に搭載された環境センサ120が撮像した画像により推定した移動体システム12の位置姿勢情報とに基づいて、移動体システム12の制御を行う。
(Embodiment 1)
In the present embodiment, movement control of an automatic guided vehicle (AGV) carrying a load will be described. The automatic guided vehicle is hereinafter referred to as a moving object. This moving body can carry a plurality of types of transported goods, and the path through which the moving body can pass changes depending on the shape of the transported goods mounted on the moving body. Further, the mobile body system 12 can recognize the three-dimensional structure of the space from the image of the camera mounted on the vehicle body. In FIG. 1, when the moving object moves in an environment where there are beams on the ceiling and bumps on the walls and shelves, places where the moving object can pass vary depending on the presence or absence and height of the conveyed object. Specifically, when the height of the conveyed object is lower than the broken line A, the mobile system 12 can go straight. However, since the height of the transported object 15 reaches the broken line B, in this case, it is necessary to control the movement so that the transported object 15 does not go straight but advances in a detour. In addition, even when the transported object has a size that protrudes in the width direction of the mobile system, the mobile system needs to travel along a route that takes into consideration the shape of the transported object. In addition, mobile objects used in factories and warehouses, such as unmanned transport vehicles, carry various types of goods according to tasks and unload at designated locations. In the process of performing a certain task, the amount and size of the load carried by the moving object are not always constant. Even if the information about the shape of the goods is given at the beginning, the information about the shapes of the goods has to be updated before and after loading / unloading the luggage. Therefore, based on information on the height and the three-dimensional shape of the transported object obtained from the image, a control value for controlling the position of the mobile object such that the mobile object system travels on a route where the transported object does not contact an obstacle. (Direction or speed) will be described. FIG. 2 shows a configuration example of the information processing system. Based on the three-dimensional shape of the transported object estimated from the image captured by the transportable object sensor 110 and the position and orientation information of the mobile system 12 estimated from the image captured by the environment sensor 120 mounted on the mobile system 12, The mobile system 12 is controlled.

(構成説明)
図2に、本実施形態において無人搬送車(AGV)と称する移動体の位置を制御する情報処理システムの構成例を示す。本実施形態における情報処理システム1は、少なくとも1つ以上の移動体システム12、移動体管理システム13、工程管理システム14から構成される。情報処理システム1は、例えば物流システムや生産システムなどである。
(Description of configuration)
FIG. 2 illustrates a configuration example of an information processing system that controls the position of a moving object called an automated guided vehicle (AGV) in the present embodiment. The information processing system 1 according to the present embodiment includes at least one or more mobile systems 12, a mobile management system 13, and a process management system 14. The information processing system 1 is, for example, a distribution system or a production system.

移動体システム12は、工場や物流倉庫といった使用環境でタスク遂行のため必要とされる工程のスケジュールに合わせて運搬物15を搬送する無人搬送車(AGV:Automated Guided Vehicle)である。移動体システム12は環境内で複数台が移動(走行)している。また、移動体システム12は、移動体管理システム13、他の移動体システム12と、Wi−Fi通信などの無線通信で各種情報を双方向に送受信している。移動体システム12は、移動体の位置を制御する制御値を決定する情報処理装置10、制御値に従って移動体の移動制御をするアクチュエータ部130、運搬物15を撮像する運搬物センサ110と、移動体の周辺環境を観測する環境センサ120を搭載している。   The mobile system 12 is an automated guided vehicle (AGV) that transports the transported object 15 according to a schedule of a process required for performing a task in a use environment such as a factory or a distribution warehouse. A plurality of mobile systems 12 are moving (running) in the environment. Also, the mobile system 12 bidirectionally transmits and receives various information to and from the mobile management system 13 and other mobile systems 12 by wireless communication such as Wi-Fi communication. The moving body system 12 includes an information processing device 10 that determines a control value for controlling the position of the moving body, an actuator unit 130 that controls movement of the moving body according to the control value, a conveyed object sensor 110 that images the conveyed object 15, and a movement. An environment sensor 120 for observing the surrounding environment of the body is mounted.

移動体管理システム13は、移動体システム12を管理するシステムである。例えば、コンピュータサーバや、PCや、組み込みシステムや、PLC(Programmable Logic Controller)である。移動体管理システム13は、移動体システム12とWi−Fi通信などの無線通信で、移動体システム12の移動制御を行うための各種情報を双方向に送受信している。また、移動体管理システム13は、工程管理システム14と通信を行っている。   The mobile management system 13 is a system that manages the mobile system 12. For example, a computer server, a PC, an embedded system, or a PLC (Programmable Logic Controller). The mobile management system 13 bidirectionally transmits and receives various information for controlling the movement of the mobile system 12 with the mobile system 12 by wireless communication such as Wi-Fi communication. Further, the mobile object management system 13 communicates with the process management system 14.

工程管理システム14は、情報処理システム1で実行する工場や物流倉庫における工程のスケジュールなどを管理する。例えば、生産管理システムや、物流管理システムや、MES(Manufacturing Execution System)である。また、工程管理システム14は、移動体管理システム13と通信を行っている。   The process management system 14 manages a schedule of a process executed in the information processing system 1 in a factory or a distribution warehouse. For example, a production management system, a physical distribution management system, and a MES (Manufacturing Execution System). Further, the process management system 14 communicates with the mobile object management system 13.

運搬物15は、移動体システム12により運搬される貨物である。例えば、複数の工業用パーツを格納したコンテナや、複数のコンテナや段ボールがスタックされて構成される貨物などの、運搬対象となる物体である。運搬物15は、移動体システム12に積載または牽引により運搬される。   The goods 15 are the goods carried by the mobile system 12. For example, it is an object to be transported, such as a container storing a plurality of industrial parts or a cargo formed by stacking a plurality of containers or cardboard. The conveyed article 15 is conveyed to the mobile system 12 by loading or towing.

図3は、本実施形態における情報処理装置10を備える移動体システム12の機能構成例を示す図である。情報処理装置10は、運搬物画像入力部1110、運搬物情報取得部1120、環境画像入力部1130、位置姿勢情報取得部1140、保持部1150、決定部1160から構成されている。運搬物画像入力部1110は、移動体システム12に搭載された運搬物センサ110と接続されている。環境画像入力部1130は、移動体システム12に搭載された環境センサ120と接続されている。決定部1160は、アクチュエータ部130と接続されている。また、これらに加え、不図示の通信装置が移動体管理システム13と情報を双方向に通信を行っており、情報処理装置10の各種機能構成に入出力している。但し、図3は、機器構成の一例であり、本発明の適用範囲を限定するものではない。   FIG. 3 is a diagram illustrating an example of a functional configuration of a mobile system 12 including the information processing device 10 according to the present embodiment. The information processing apparatus 10 includes a load image input unit 1110, a load information acquisition unit 1120, an environment image input unit 1130, a position and orientation information acquisition unit 1140, a holding unit 1150, and a determination unit 1160. The load image input unit 1110 is connected to the load sensor 110 mounted on the mobile system 12. The environment image input unit 1130 is connected to the environment sensor 120 mounted on the mobile system 12. The determination unit 1160 is connected to the actuator unit 130. In addition, a communication device (not shown) bidirectionally communicates information with the mobile management system 13, and inputs and outputs various functions of the information processing device 10. However, FIG. 3 is an example of a device configuration, and does not limit the applicable range of the present invention.

運搬物センサ(第1センサ)110は、移動体システム12が運搬する運搬物15を計測する計測装置である。本実施形態では、運搬物センサ110は、各画素が奥行きの情報を格納するデプスマップを撮像するToF方式によるデプスカメラであり、デプスマップを出力するものとする。なお、運搬物センサ110と移動体システム12との位置姿勢関係、運搬物センサ110と環境センサ120との位置関係はあらかじめキャリブレーション済みであるとする。   The conveyed object sensor (first sensor) 110 is a measuring device that measures the conveyed object 15 conveyed by the mobile system 12. In the present embodiment, the conveyed object sensor 110 is a depth camera based on the ToF method that captures a depth map in which each pixel stores depth information, and outputs a depth map. It is assumed that the positional relationship between the load sensor 110 and the mobile system 12 and the positional relationship between the load sensor 110 and the environment sensor 120 have been calibrated in advance.

なお、運搬物センサ110は、例えば、濃淡画像やカラー画像を取得するグレースケールカメラやカラーカメラなどを用いてもよい。この場合、運搬物の形状の推定は、例えば、カラー画像から、CNN(Convolutional Neural Network)による学習ベースの方式で、運搬物の形状を表す3次元バウンディングボックスを直接推定する。具体的には、カラー画像と距離値を入力として、運搬物の大きさの絶対値を出力する学習済みモデル(CNN)を用いて運搬物の3次元形状を推定する。学習済みモデルは、様々な物体の画像に対して距離値と物体の大きさの情報を付与した教師データによって予め学習させておく。または、CNNを用いて単眼カラー画像からデプスマップを推定するネットワークを学習し、カラー画像から推定したデプスマップを利用して、本実施形態記載の処理を行ってもよい。あらかじめ不図示の記憶装置に保持したCADデータと、運搬物センサ110の取得する画像とをマッチングし、最もマッチング度合の高いCADデータの寸法から運搬物15の概略形状を推定することもできる。また、運搬物センサ110は、例えば、センサから対象物への距離をライン状にセンシングするラインセンサを用いて、運搬物15の形状を計測してもよい。この場合、運搬物15の形状計測は、例えば運搬物が移動体に積載されるタイミングで運搬物の動きに合わせてラインを走査し、運搬物の3次元点群を求めることで概略形状を推定する。以上のように、運搬物15の形状に関する情報が得られる限り、運搬物センサとして用いるセンサに制限はなく、いかなるセンサを用いてもよい。   For example, a gray scale camera or a color camera that acquires a grayscale image or a color image may be used as the transported object sensor 110. In this case, for example, the three-dimensional bounding box representing the shape of the conveyed object is directly estimated from the color image by a learning-based method using CNN (Convolutional Neural Network). Specifically, the three-dimensional shape of the transported object is estimated by using a learned model (CNN) that outputs the absolute value of the size of the transported object by using the color image and the distance value as inputs. The trained model is trained in advance by teacher data to which information of the distance value and the size of the object has been added to images of various objects. Alternatively, the processing described in the present embodiment may be performed by learning a network for estimating a depth map from a monocular color image using a CNN, and using the depth map estimated from the color image. It is also possible to match the CAD data held in a storage device (not shown) in advance with the image acquired by the conveyed object sensor 110, and to estimate the approximate shape of the conveyed object 15 from the dimension of the CAD data having the highest matching degree. Further, the load sensor 110 may measure the shape of the load 15 by using a line sensor that linearly senses the distance from the sensor to the target, for example. In this case, the shape of the transported object 15 is estimated, for example, by scanning a line according to the movement of the transported object at the timing when the transported object is loaded on the moving body, and obtaining a three-dimensional point group of the transported object. I do. As described above, as long as information on the shape of the transported object 15 can be obtained, the sensor used as the transported object sensor is not limited, and any sensor may be used.

環境センサ120は、移動体が走行している周辺環境を計測する計測装置である。本実施形態では環境センサ120はデプスカメラである。環境センサ120は、移動体の周囲を観測したデプスマップを出力するものとする。なお、ここで言うデプスマップとは、環境センサ120が取得した画像の各画素に対して、計測対象までの距離(奥行き)と相関のある値を保持する画像を指す。通常、計測対象までの距離と相関のある値は、通常の画像として構成可能な整数値であり、焦点距離から決定される所定の係数を乗ずることで、対象までの物理的な距離(例えばミリメートル)に変換することができる。デプスマップを生成するための距離の計測方式は、特に制限はない。例えば、対象物に照射したマルチスリットラインをカメラで撮像し、三角測量によって距離計測を行うアクティブステレオ方式がある。Lidarをはじめとした、光の飛行時間を利用するTime−of−flight(ToF)方式でもよい。また,ステレオカメラが撮影する画像から三角測量によって各画素の奥行きを計算するパッシブ式であってもよい。本実施形態では環境センサ120はToF方式によるデプスカメラであるものとする。環境センサ120は、計測したデプスマップを環境画像入力部1130へ送る。   The environment sensor 120 is a measuring device that measures the surrounding environment in which the moving body is traveling. In the present embodiment, the environment sensor 120 is a depth camera. It is assumed that the environment sensor 120 outputs a depth map observing the surroundings of the moving object. Here, the depth map refers to an image that holds a value correlated with the distance (depth) to the measurement target for each pixel of the image acquired by the environment sensor 120. Usually, the value correlated with the distance to the measurement target is an integer value that can be configured as a normal image, and is multiplied by a predetermined coefficient determined from the focal length to obtain the physical distance to the target (for example, millimeters). ) Can be converted. The method of measuring the distance for generating the depth map is not particularly limited. For example, there is an active stereo system in which a multi-slit line irradiated on an object is imaged by a camera and distance measurement is performed by triangulation. A Time-of-flight (ToF) system using the flight time of light, such as Lidar, may be used. Further, a passive type in which the depth of each pixel is calculated by triangulation from an image captured by a stereo camera may be used. In the present embodiment, the environment sensor 120 is a depth camera based on the ToF method. The environment sensor 120 sends the measured depth map to the environment image input unit 1130.

アクチュエータ部130は、決定部1160で決定された制御値(例えば、車輪の回転トルク、進行方向に関する移動制御情報)に基づき車輪を駆動する。本実施形態における移動制御とは、移動体が備えるアクチュエータであるモータ、および車輪の向きを変更するステアリングを制御することである。これらを制御することで、移動体を所定の目的地まで移動させる。また、制御値とは移動体を制御するための指令値のことである。具体的には、移動体の進行方向、加速度、車輪の回転スピード等である。ここでは、運搬物を搭載した移動体がある目的地に向かうのに最適な経路(例えば最短経路)を走行するような制御値を指す。   The actuator unit 130 drives the wheels based on the control values determined by the determining unit 1160 (for example, the rotational torque of the wheels and the movement control information on the traveling direction). The movement control in the present embodiment is to control a motor that is an actuator included in the moving body and a steering that changes the direction of wheels. By controlling these, the moving body is moved to a predetermined destination. The control value is a command value for controlling the moving body. Specifically, it is the traveling direction of the moving body, the acceleration, the rotation speed of the wheels, and the like. Here, it refers to a control value such that a mobile object carrying a load travels on an optimal route (for example, the shortest route) for traveling to a destination.

本実施形態における環境センサの位置姿勢とは、現実空間中に規定された世界座標系における環境センサ120の位置を表す3パラメータ、及び環境センサ120の姿勢を表す3パラメータを合わせた6パラメータのことである。ここで、世界座標系とは、床面を規定する2軸とそれらに直交し高さ方向を表す1軸により構成される座標系と定義する。なお、AGVなどの移動体の設計段階で移動体の重心位置に対する環境センサ120の取り付け位置を計測しておき、前述の取り付け位置姿勢を表す行列を外部メモリH14に記憶しておく。環境センサの位置姿勢に対して前述の取り付け位置姿勢を表す行列を掛け合わせることで移動体の重心位置を取得することができる。すなわち、世界座標系における環境センサの位置姿勢を取得することにより、世界座標系における移動体システム12の位置姿勢を容易に取得することができる。また、運搬物センサ110の光軸をZ軸、画像の水平方向をX軸、垂直方向をY軸とする撮像装置上に規定される三次元の座標系を第1座標系と呼ぶ。また、同様に、環境センサ120の光軸をZ軸、画像の水平方向をX軸、垂直方向をY軸とする撮像装置上に規定される三次元の座標系を第2座標系と呼ぶ。また、移動体システム12の進行方向をX軸、高さ方向をZ軸、それらに直交する軸をY軸とする移動体システム12上に規定される3次元の座標系を第3座標系と呼ぶ。   The position and orientation of the environment sensor according to the present embodiment are six parameters including three parameters representing the position of the environment sensor 120 in the world coordinate system defined in the real space and three parameters representing the orientation of the environment sensor 120. It is. Here, the world coordinate system is defined as a coordinate system composed of two axes that define the floor surface and one axis that is orthogonal to them and represents the height direction. At the design stage of a moving body such as an AGV, the mounting position of the environment sensor 120 with respect to the position of the center of gravity of the moving body is measured, and a matrix representing the mounting position and posture described above is stored in the external memory H14. The position of the center of gravity of the moving object can be obtained by multiplying the position and orientation of the environment sensor by the matrix representing the mounting position and orientation described above. That is, by acquiring the position and orientation of the environment sensor in the world coordinate system, the position and orientation of the mobile system 12 in the world coordinate system can be easily acquired. Further, a three-dimensional coordinate system defined on the imaging device with the optical axis of the transported object sensor 110 being the Z axis, the horizontal direction of the image being the X axis, and the vertical direction being the Y axis is referred to as a first coordinate system. Similarly, a three-dimensional coordinate system defined on the imaging device with the optical axis of the environment sensor 120 as the Z axis, the horizontal direction of the image as the X axis, and the vertical direction as the Y axis is referred to as a second coordinate system. Further, a three-dimensional coordinate system defined on the mobile body system 12 having the traveling direction of the mobile body system 12 as the X axis, the height direction as the Z axis, and the axis orthogonal thereto as the Y axis is referred to as a third coordinate system. Call.

運搬物画像入力部(第1入力部)1110は、運搬物センサ110が取得する視覚情報として、運搬物を観測したシーンの画像の各画素に対して奥行き値を格納したデプスマップを時系列(例えば毎秒60フレーム)に入力する。そして運搬物情報取得部1120に出力する。ここで、奥行き値とは、運搬物センサ110とAGVにより運搬される運搬物との距離である。   The transported object image input unit (first input unit) 1110 performs a time series (depth map) storing depth values for each pixel of the image of the scene in which the transported object is observed, as visual information acquired by the transported object sensor 110. (For example, 60 frames per second). Then, the information is output to the conveyed object information acquisition unit 1120. Here, the depth value is a distance between the conveyed object sensor 110 and the conveyed object conveyed by the AGV.

運搬物情報取得部(第1取得部)1120は、運搬物画像入力部1110が入力したデプスマップから、運搬物の3次元形状に関する情報(第1情報)を取得する。本実施形態では、運搬物の形状に関する情報として、運搬物の3次元バウンディングボックス(重心位置を表す3パラメータ、バウンディングボックスのサイズを表す3パラメータ)により表現される概略形状を推定する。具体的には、運搬物を載せた移動体の高さや、運搬物が幅方向に移動体からはみ出した部分の大きさを示す。運搬物情報取得部1120は、さらに、取得した運搬物形状を決定部1160に出力する。   The cargo information acquisition unit (first acquisition unit) 1120 acquires information (first information) on the three-dimensional shape of the cargo from the depth map input by the cargo image input unit 1110. In the present embodiment, a rough shape represented by a three-dimensional bounding box (three parameters representing the position of the center of gravity and three parameters representing the size of the bounding box) of the carried object is estimated as information on the shape of the carried object. Specifically, it indicates the height of the moving object on which the load is placed, and the size of the portion of the load that protrudes from the moving object in the width direction. The conveyed object information acquiring unit 1120 further outputs the acquired conveyed object shape to the determining unit 1160.

環境画像入力部(第2入力部)1130は、環境センサ120から、移動体が移動する環境を撮像したシーンの画像の各画素に対して奥行き値を格納したデプスマップを時系列(例えば毎秒60フレーム)に入力する。そしてデプスマップを位置姿勢情報取得部1140に出力する。奥行き値とは、環境センサ120と周辺環境における物体(例えば、壁や障害物)との距離である。   The environment image input unit (second input unit) 1130 outputs, from the environment sensor 120, a depth map in which depth values are stored for each pixel of an image of a scene in which the environment in which the moving object moves is stored in a time series (for example, 60 pixels per second). Frame). Then, it outputs the depth map to the position and orientation information acquisition unit 1140. The depth value is a distance between the environment sensor 120 and an object (for example, a wall or an obstacle) in the surrounding environment.

位置姿勢情報取得部(第2取得部)1140は、環境における物体と移動体との距離を特定可能な情報を取得する。すなわち、位置姿勢取得の指標となる位置姿勢推定用マップを保持し、環境画像入力部1130が入力したデプスマップと位置姿勢推定用マップとを用いて環境センサの位置姿勢についての情報(第2情報)を取得する。ここで、位置姿勢推定用マップとは、環境の形状を示す三次元点群データである。本実施形態では、ポイントクラウドは任意の世界座標系における三次元座標(X,Y,Z)の三値を格納したデータリストとして位置姿勢情報取得部1140が保持しているものとする。位置姿勢推定用マップは、あらかじめ環境のCADモデルから物体表面の奥行を示す3次元点群に変換されることにより生成されるものとする。なお、位置姿勢推定用マップとして、後述する制御用マップ情報を利用してもよい。位置姿勢情報取得部1140はさらに、取得した位置姿勢を決定部1160に出力する。なお、環境センサと移動体の位置関係は予めキャリブレーション済みのため、環境センサの位置姿勢がわかれば、移動体の位置と進行方向がわかる。   The position and orientation information acquisition unit (second acquisition unit) 1140 acquires information that can specify the distance between the object and the moving object in the environment. That is, a position / posture estimation map serving as an index of position / posture acquisition is held, and the information (second information) of the environment sensor is used using the depth map and the position / posture estimation map input by the environment image input unit 1130. ) To get. Here, the position and orientation estimation map is three-dimensional point cloud data indicating the shape of the environment. In the present embodiment, it is assumed that the position and orientation information acquisition unit 1140 holds the point cloud as a data list storing three values of three-dimensional coordinates (X, Y, Z) in an arbitrary world coordinate system. It is assumed that the position / posture estimation map is generated by converting the CAD model of the environment into a three-dimensional point group indicating the depth of the object surface in advance. Note that control map information described later may be used as the position and orientation estimation map. The position and orientation information acquisition unit 1140 further outputs the acquired position and orientation to the determination unit 1160. Since the positional relationship between the environment sensor and the moving body has been calibrated in advance, if the position and orientation of the environment sensor are known, the position and the traveling direction of the moving body can be known.

保持部1150は、制御用マップ情報として占有格子マップ(occupancy map)を保持する。占有格子マップとは、シーンを格子状に区切り、各格子に障害物が存在する確率を保持したマップのことである。占有格子マップは、世界座標系における3次元のボクセル空間(X,Y,Z)として保持する。または、高さ方向の情報を除いた2次元のグリッド空間(X,Y)として保持する。本実施形態では、占有格子マップは3次元ボクセル空間の情報として保持するものとする。占有格子マップは、位置姿勢推定用マップと同様に、あらかじめ環境のCADモデルから占有格子マップに変換されることにより生成されるものとする。また、これらに加え、AGVの目的地である三次元座標と姿勢を表す目的位置姿勢を保持する。目標位置姿勢は1つでも複数あってもよいが、ここでは簡単のため目標位置姿勢が1地点である例を説明する。さらに、保持部1150は、移動体の高さ・横幅・奥行を含む移動体の概略形状の情報を保持する。運搬物の概略形状は、荷物の積みおろしによって変化する場合があるため、ここでは初期値として運搬物が載っていない状態の情報を保持する。運搬物の情報は、移動体が運搬物を運ぶタスクを開始するタイミングで、後述する方法によって取得する。保持部1150は位置姿勢推定用マップまたは占有格子マップから得るマップ情報を必要に応じて決定部1160に出力する。さらに、目標位置姿勢を決定部1160に出力する。   The holding unit 1150 holds an occupancy map as control map information. The occupancy grid map is a map that divides a scene into grids and holds the probability that an obstacle exists on each grid. The occupancy grid map is stored as a three-dimensional voxel space (X, Y, Z) in the world coordinate system. Alternatively, the information is held as a two-dimensional grid space (X, Y) excluding height information. In the present embodiment, the occupancy grid map is held as information of a three-dimensional voxel space. The occupancy grid map is generated by converting the CAD model of the environment into an occupancy grid map in advance, similarly to the position and orientation estimation map. Further, in addition to these, the target position / posture indicating the three-dimensional coordinates and the posture as the destination of the AGV is held. Although there may be one or more target position / posture, an example in which the target position / posture is one point will be described here for simplicity. Further, the holding unit 1150 holds information on the approximate shape of the moving object including the height, width, and depth of the moving object. Since the outline shape of the load may change depending on the loading / unloading of the load, the information of the state where the load is not loaded is held here as an initial value. The information on the conveyed object is acquired by a method described later at the timing when the moving object starts the task of conveying the conveyed object. The holding unit 1150 outputs map information obtained from the position / posture estimation map or the occupancy grid map to the determination unit 1160 as necessary. Furthermore, the target position and orientation are output to the determination unit 1160.

決定部1160は、運搬物情報取得部1110が取得した運搬物の3次元形状に基づいて、移動体と運搬物が環境(障害物)と一定以上の距離を空けて走行するように制御値を決定する。必要に応じて、位置姿勢情報取得部1140が取得した環境センサ120の位置姿勢、保持部1150が保持する制御用マップ情報、目標の位置および姿勢の情報を利用する。決定部1160は、決定された制御値をアクチュエータ部130へ出力する。   The deciding unit 1160 sets the control value based on the three-dimensional shape of the conveyed object acquired by the conveyed object information acquiring unit 1110 so that the moving object and the conveyed object are separated from the environment (obstacle) by a certain distance or more. decide. If necessary, the position and orientation of the environment sensor 120 acquired by the position and orientation information acquisition unit 1140, the control map information held by the holding unit 1150, and the information on the target position and orientation are used. The determining unit 1160 outputs the determined control value to the actuator unit 130.

図4は、情報処理装置10のハードウェア構成を示す図である。H11はCPUであり、システムバスH21に接続された各種デバイスの制御を行う。H12はROMであり、BIOSのプログラムやブートプログラムを記憶する。H13はRAMであり、CPUであるH11の主記憶装置として使用される。H14は外部メモリであり、情報処理装置10が処理するプログラムを格納する。入力部H15はキーボードやマウス、ロボットコントローラーであり、情報等の入力に係る処理を行う。表示部H16はH11からの指示に従って情報処理装置10の演算結果を表示装置に出力する。なお、表示装置は液晶表示装置やプロジェクタ、LEDインジケーターなど、種類は問わない。また、情報処理装置が備える表示部H16が表示装置としての役割であってもよい。H17は通信インターフェイスであり、ネットワークを介して情報通信を行うものであり、通信インターフェイスはイーサネット(登録商標)でもよく、USBやシリアル通信、無線通信等種類は問わない。なお、前述した移動体管理システム13とは通信インターフェイスH17を介して情報のやり取りを行う。H18はI/Oであり、撮像装置H19から視覚情報を入力する。なお、撮像装置H19とは前述した運搬物センサ110または環境センサ120のことである。H20は前述したアクチュエータ部130のことである。   FIG. 4 is a diagram illustrating a hardware configuration of the information processing apparatus 10. H11 is a CPU for controlling various devices connected to the system bus H21. H12 is a ROM, which stores a BIOS program and a boot program. H13 is a RAM, which is used as a main storage device of the CPU H11. H14 is an external memory, which stores a program to be processed by the information processing device 10. The input unit H15 is a keyboard, a mouse, and a robot controller, and performs a process related to input of information and the like. The display unit H16 outputs the calculation result of the information processing device 10 to the display device according to the instruction from H11. The type of display device is not limited, such as a liquid crystal display device, a projector, and an LED indicator. Further, the display unit H16 included in the information processing device may serve as a display device. H17 is a communication interface for performing information communication via a network, and the communication interface may be Ethernet (registered trademark), and any type such as USB, serial communication, wireless communication, etc. may be used. Note that information is exchanged with the above-mentioned mobile management system 13 via the communication interface H17. H18 is an I / O for inputting visual information from the imaging device H19. Note that the image pickup device H19 is the above-described transported object sensor 110 or the environment sensor 120. H20 is the actuator unit 130 described above.

次に、本実施形態における処理手順について説明する。図5は、本実施形態における情報処理装置10が実行する処理の手順を示すフローチャートである。以下、フローチャートは、CPUが制御プログラムを実行することにより実現されるものとする。以下の説明では、各工程(ステップ)について先頭にSを付けて表記することで、工程(ステップ)の表記を省略する。処理ステップは、S110、S120、S130、S140、S150、S160、S170から構成されている。   Next, a processing procedure in the present embodiment will be described. FIG. 5 is a flowchart illustrating a procedure of a process executed by the information processing apparatus 10 according to the present embodiment. Hereinafter, the flowchart is realized by the CPU executing the control program. In the following description, each step (step) is described with a leading S, so that the notation of the step (step) is omitted. The processing steps include S110, S120, S130, S140, S150, S160, and S170.

S110では、システムの初期化を行う。すなわち、外部メモリH14からプログラムを読み込み、情報処理装置10を動作可能な状態にする。また、情報処理装置10に接続された各機器のパラメータ(運搬物センサ110および環境センサ120のカメラ内部パラメータと外部パラメータ)や、運搬物センサ110の初期の位置姿勢をRAMであるH13に読み込む。また、AGVの各デバイスを起動し、制御可能な状態とする。これらに加え、通信I/F(H17)を通して移動体管理システムから、AGVが向かうべき目的地の三次元座標を受信し、保持部1150に保持する。   In S110, the system is initialized. That is, the program is read from the external memory H14, and the information processing apparatus 10 is set in an operable state. In addition, the parameters of the devices connected to the information processing apparatus 10 (camera internal parameters and external parameters of the transport sensor 110 and the environment sensor 120) and the initial position and orientation of the transport sensor 110 are read into the RAM H13. In addition, each device of the AGV is activated and brought into a controllable state. In addition to these, the three-dimensional coordinates of the destination to which the AGV should travel are received from the mobile management system via the communication I / F (H17), and stored in the storage unit 1150.

S120では、運搬物画像入力部1110が、運搬物センサ120によって運搬物を撮像した画像であるデプスマップを入力する。具体的には、デプスカメラで運搬物15を撮像したシーンのデプスマップを入力する。なお、本実施形態においては、デプスマップとは各画素の奥行き値を格納した二次元配列リストのことである。   In S120, the transported object image input unit 1110 inputs a depth map which is an image of the transported object captured by the transported object sensor 120. Specifically, a depth map of a scene in which the transported object 15 is imaged by the depth camera is input. In the present embodiment, the depth map is a two-dimensional array list that stores the depth value of each pixel.

S130では、運搬物情報取得部1120が、運搬物画像入力部1110が入力したデプスマップ(第1の画像)を用いて、運搬物15の3次元形状を特定可能な情報(第1の情報)を取得する。なお、本実施形態においては、運搬物15の3次元形状を特定可能な情報とは概略形状であり、3次元バウンディングボックスを表す6パラメータ(位置3パラメータ、サイズ3パラメータ)のことである。具体的には、移動体座標系における運搬物の高さ・横幅・奥行・および重心位置により構成されるAxis−aligned boundingbox (AABB)を取得する。   In S130, the cargo information acquisition unit 1120 uses the depth map (first image) input by the cargo image input unit 1110 to specify the three-dimensional shape of the cargo 15 (first information). To get. In the present embodiment, the information that can specify the three-dimensional shape of the conveyed article 15 is a rough shape, and is six parameters (a position three parameter and a size three parameter) representing a three-dimensional bounding box. Specifically, an Axis-aligned bounding box (AABB) configured by the height, the width, the depth, and the position of the center of gravity in the moving object coordinate system is acquired.

運搬物15の概略形状の取得は、具体的には、まず、デプスマップから第1座標系に規定された3次元点群を取得する。3次元点群は、正規化画像座標系における画像座標とデプスマップの各画素の奥行値とを掛け合わせることで取得する。次に、取得した3次元点群の座標系を、運搬物撮像座標系から移動体座標系に変換する。さらに、3次元点群の中から、RANSAC(RANdom SAmple Consensus)アルゴリズムを用いて平面を除去することにより、床面等の背景となる3次元点群から、運搬物候補となる3次元点を分離する。最後に、運搬物候補の3次元点群から、3次元点群の各軸における最小値・最大値を取得することで、移動体座標系における運搬物の高さ・横幅・奥行および重心位置(AABB)を運搬物の概略形状として求める。最後に、取得した概略形状の値を、決定部1160に出力する。   To acquire the schematic shape of the transported object 15, first, a three-dimensional point group defined in the first coordinate system is acquired from the depth map. The three-dimensional point group is obtained by multiplying the image coordinates in the normalized image coordinate system by the depth value of each pixel of the depth map. Next, the coordinate system of the acquired three-dimensional point group is converted from the coordinate system of the image pickup of the transported object to the coordinate system of the moving body. Further, by removing planes from the three-dimensional point group using a RANSAC (RANdom Sample Consensus) algorithm, three-dimensional points that are candidates for a transport object are separated from the three-dimensional point group that is a background such as a floor surface. I do. Finally, by obtaining the minimum value and the maximum value in each axis of the three-dimensional point group from the three-dimensional point group of the transportable candidate, the height, width, depth, and center of gravity of the transported object in the moving body coordinate system ( AABB) is obtained as a schematic shape of the conveyed object. Finally, the acquired value of the schematic shape is output to the determination unit 1160.

S140では、環境画像入力部1130が、移動体の周辺環境を観測したデプスマップを取得する。このデプスマップは環境センサ120によって取得される。なお、本実施形態においては、デプスマップは各画素の奥行き値を格納した二次元配列リストのことである。   In S140, the environment image input unit 1130 acquires a depth map observing the surrounding environment of the moving object. This depth map is acquired by the environment sensor 120. In the present embodiment, the depth map is a two-dimensional array list that stores the depth value of each pixel.

S150では、位置姿勢情報取得部1140が、環境画像入力部1130が入力したデプスマップと、位置姿勢推定用マップとを用いて、環境センサ120の位置姿勢(第2の情報)を取得する。具体的には、まずデプスマップから第2座標系に規定された三次元点群を取得する。3次元点群は、正規化画像座標系における画像座標とデプスマップの各画素の奥行値とを掛け合わせることで取得する。次に、環境センサ120の前の時刻における位置姿勢を用いて、三次元点群を前の時刻における位置姿勢座標系に座標変換する。つまり三次元点群に前の時刻における位置姿勢の行列を掛け合わせる。取得した三次元点群と保持部1130が保持するマップ情報のポイントクラウドの各三次元点の最近傍の点同士の距離の和が小さくなるように位置姿勢を取得する。具体的には、ICP(Iterative Closest Point)アルゴリズムを用いて前の時刻における位置姿勢に対する、環境センサ120の位置姿勢を取得する。最後に、世界座標系に変換して、世界座標系における位置姿勢を決定部1160に出力する。移動体の位置姿勢を求めることによって、周辺環境と移動体との距離が得られる。   In S150, the position and orientation information acquisition unit 1140 acquires the position and orientation (second information) of the environment sensor 120 using the depth map input by the environment image input unit 1130 and the position and orientation estimation map. Specifically, first, a three-dimensional point group defined in the second coordinate system is obtained from the depth map. The three-dimensional point group is obtained by multiplying the image coordinates in the normalized image coordinate system by the depth value of each pixel of the depth map. Next, using the position and orientation of the environment sensor 120 at the previous time, the three-dimensional point group is coordinate-transformed to the position and orientation coordinate system at the previous time. That is, the three-dimensional point group is multiplied by the matrix of the position and orientation at the previous time. The position and orientation are acquired such that the sum of the distances between the nearest points of the acquired three-dimensional points and the three-dimensional points in the point cloud of the map information held by the holding unit 1130 is reduced. Specifically, the position and orientation of the environment sensor 120 with respect to the position and orientation at the previous time are acquired using an Iterative Closest Point (ICP) algorithm. Finally, the position and orientation in the world coordinate system are converted to the world coordinate system and output to the determination unit 1160. By obtaining the position and orientation of the moving body, the distance between the surrounding environment and the moving body can be obtained.

S160では、決定部1160が、移動体が移動する環境の3次元情報(第2の情報)と、運搬物の高さを特定可能な情報(第1の情報)とに基づいて、運搬物と障害物とが所定の距離より近づくことを抑制する制御値を決定する。具体的には、運搬物を載せた移動体が通過できる高さがある経路を移動するような制御値を決定する。例を図6に示す。図6(a)では、移動体E12aは運搬物を目的地E16aまで運ぶタスクを行っている。まず3次元の占有格子マップE11から、運搬物を含む移動体E12aの高さで占有格子マップE11を抽出した3次元マップである占有格子マップE13aを求める。そして、それを床面平面に射影することで、2次元の占有格子マップE14aを求める。E14aに示す2次元の占有格子マップ上で、移動体の位置姿勢E15aから目的地の位置姿勢E16aに向かうための最適な経路E17aを算出する。例えば、移動体E12aがそのまま直進した場合、E12aの運搬物が環境(例えば図のX)と接触してしまい、運搬物が崩れる可能性がある。その経路を選択しないよう、障害物の存在する領域を通らない軌跡E17aを通る制御値を決定する。また、運搬物の高さが異なる場合を図6(b)で説明する。E12bの高さに合わせて抽出される3次元の占有格子マップはE13bである。E13bの高さで2次元マップに射影した占有格子マップR14bにはXが表示されない。このように地図が異なる為、算出される経路及び制御値も異なる。具体的には移動体E12bはE12aより少ない運搬物を運ぶ場合、E12bの目の前の通路(障害物Xがあった道)が通行可能になるため、E17bのような経路を通って、E16bに向かう。   In S160, the determination unit 1160 determines whether or not the transported object is based on the three-dimensional information (second information) of the environment in which the moving object moves and information (first information) that can specify the height of the transported object. A control value for suppressing the obstacle from approaching a predetermined distance is determined. Specifically, the control value is determined so as to move along a route having a height at which the moving object carrying the load can pass. An example is shown in FIG. In FIG. 6A, the mobile unit E12a performs a task of transporting a conveyed object to a destination E16a. First, from the three-dimensional occupancy grid map E11, an occupancy grid map E13a, which is a three-dimensional map obtained by extracting the occupancy grid map E11 at the height of the moving object E12a including the transported object, is obtained. Then, a two-dimensional occupancy grid map E14a is obtained by projecting the projection on the floor plane. On the two-dimensional occupancy grid map shown in E14a, an optimal route E17a for moving from the position and orientation E15a of the moving object to the position and orientation E16a of the destination is calculated. For example, when the moving body E12a goes straight as it is, the transported object of E12a comes into contact with the environment (for example, X in the figure), and the transported object may collapse. In order not to select the route, a control value is determined that passes through a trajectory E17a that does not pass through an area where an obstacle exists. FIG. 6B illustrates a case where the heights of the goods are different. The three-dimensional occupancy grid map extracted according to the height of E12b is E13b. X is not displayed on the occupancy grid map R14b projected on the two-dimensional map at the height of E13b. Since the maps are different in this way, the calculated route and control value are also different. Specifically, when the moving object E12b carries a smaller amount of goods than the E12a, the passage (the road where the obstacle X was located) in front of the E12b is allowed to pass. Head for.

S160における処理内容を説明する。まず、位置姿勢情報取得部1140が推定した移動体座標系における運搬物の概略形状(AABB)と移動体座標系におけるAGVの概略形状(AABB)とに基づいて、それらを包括する移動体全体の高さ・横幅・奥行の概略形状を取得する。移動体全体の概略形状は、高さ・横幅・奥行のそれぞれの最小値最大値を取ることにより得る。次に、保持部1150が保持する3次元グリッドの占有格子マップから、移動体に接触しうる範囲の部分マップを占有格子マップから抜き出す。具体的には、占有格子マップにおいて、移動体全体の重心位置が(Xw, Yw, Zw)、3Dバウンディングボックスのサイズが(Sx, Sy, Sz)である場合、床面に対する高さ方向Zw±Sz/2の範囲にある占有格子マップをスライスする。このように抽出されたマップを部分占有格子マップとして取得する。さらに、部分占有格子マップを、床面に対する高さ方向(z方向)に射影することで、2次元グリッドの占有格子マップを求める。ここで、高さ方向への射影とは、占有格子(x,y,z)をz方向に走査し、各(x,y)における障害物が存在する確率の最大値を求める操作をいう。同様に、世界座標系における3次元位置姿勢として表現される移動体システム12の目標の位置及び姿勢および現在の位置及び姿勢を、位置2自由度と姿勢1自由度との合計3自由度のパラメータになるように2次元平面へ射影する。ここで位置2自由度とは環境の床に対して水平な面上の位置X、Yを指す。また、姿勢1自由度とは、環境の床に対して水平な面上での回転方向を指す。最後に、2次元グリッドの占有格子マップと目標の位置及び姿勢・現在の位置及び姿勢の情報から、両者の位置及び姿勢を最小にしつつも、障害物が存在する確率が高い格子を避けるような制御値を決定する。具体的には、まず、現在の移動体の位置及び姿勢と入力された目標の位置及び姿勢とに基づいて、両者のユークリッド距離を小さくするような制御値(前進速度と旋回方向・速度)として取りうる全てのバリエーションを制御値の候補として算出する。そして、それぞれの制御値の候補に関して、制御した後の位置及び姿勢を、予測位置姿勢として算出する。そして、2次元グリッドの占有格子マップを参照し、各予測位置姿勢に対応した障害物が存在する確率を求める。障害物が存在する確率が0である制御値の候補を算出することで、衝突が発生しないような制御値の候補を抽出する。抽出された制御値の候補の中で、目標の位置及び姿勢と予測位置姿勢とのユークリッド距離を最小とする制御値を、最終的な制御値として決定する。そして、決定した制御値をアクチュエータ部130に出力する。そして、アクチュエータ部130が、決定部1160が決定した制御値を用いてAGVを制御する。   The processing contents in S160 will be described. First, based on the approximate shape (AABB) of the conveyed object in the moving object coordinate system estimated by the position and orientation information acquisition unit 1140 and the approximate shape (AABB) of the AGV in the moving object coordinate system, the entire moving object including them is included. Get the approximate shape of height, width and depth. The general shape of the entire moving body is obtained by taking the minimum and maximum values of height, width, and depth. Next, from the occupancy grid map of the three-dimensional grid held by the holding unit 1150, a partial map of a range that can contact the moving object is extracted from the occupancy grid map. Specifically, in the occupancy grid map, if the position of the center of gravity of the entire moving object is (Xw, Yw, Zw) and the size of the 3D bounding box is (Sx, Sy, Sz), the height direction Zw ± with respect to the floor surface Slice the occupancy grid map in the range of Sz / 2. The map extracted in this way is obtained as a partial occupancy grid map. Furthermore, an occupancy grid map of a two-dimensional grid is obtained by projecting the partial occupancy grid map in the height direction (z direction) with respect to the floor surface. Here, the projection in the height direction refers to an operation of scanning the occupied grid (x, y, z) in the z direction and obtaining the maximum value of the probability that an obstacle exists at each (x, y). Similarly, the target position and orientation and the current position and orientation of the mobile body system 12 expressed as a three-dimensional position and orientation in the world coordinate system are represented by parameters of a total of three degrees of freedom of position two degrees of freedom and posture one degree of freedom. Is projected onto a two-dimensional plane such that Here, the position 2 degree of freedom indicates positions X and Y on a plane horizontal to the floor of the environment. In addition, the attitude 1 degree of freedom indicates a rotation direction on a plane horizontal to the floor of the environment. Finally, based on the occupancy grid map of the two-dimensional grid and the information on the position and orientation of the target and the current position and orientation, it is necessary to minimize the positions and orientations of both and avoid grids with a high probability of the presence of obstacles. Determine the control value. Specifically, first, based on the current position and posture of the moving object and the input target position and posture, a control value (forward speed and turning direction / speed) that reduces the Euclidean distance between both is set. All possible variations are calculated as control value candidates. Then, for each control value candidate, the position and orientation after control are calculated as the predicted position and orientation. Then, referring to the occupancy grid map of the two-dimensional grid, the probability that an obstacle corresponding to each predicted position and orientation exists is obtained. By calculating a candidate for a control value having a probability that an obstacle exists of 0, a candidate for a control value that does not cause a collision is extracted. Among the extracted control value candidates, the control value that minimizes the Euclidean distance between the target position and orientation and the predicted position and orientation is determined as the final control value. Then, the determined control value is output to the actuator unit 130. Then, the actuator unit 130 controls the AGV using the control value determined by the determining unit 1160.

具体的には、決定部1160が決定した制御値(前進速度と旋回方向・速度)となるようにアクチュエータであるモータの回転量、および車輪の向きを変更するステアリングの角度値を調整する。   Specifically, the rotation amount of the motor serving as the actuator and the steering angle value for changing the direction of the wheels are adjusted so that the control values (forward speed and turning direction / speed) determined by the determination unit 1160 are obtained.

S170では、システムを終了するか否か判定する。具体的には、保持部1150が保持する目的地座標と位置姿勢情報取得部1140が取得した環境センサ120の位置姿勢とのユークリッド距離が所定の閾値(例えば1m)以下であれば、目的地に到着したとして終了する。そうでなければS140に戻り処理を続ける。   In S170, it is determined whether to end the system. Specifically, if the Euclidean distance between the destination coordinates held by the holding unit 1150 and the position and orientation of the environment sensor 120 acquired by the position and orientation information acquisition unit 1140 is equal to or less than a predetermined threshold (for example, 1 m), the destination is determined. Finish as it arrives. If not, the process returns to S140 to continue the process.

実施形態1では、運搬物センサが運搬物の3次元概略形状を取得、運搬物を含む移動体全体の概略形状を求めて、運搬物を含む移動体と環境中の障害物とが接触しない移動経路を取得して移動体の移動制御を行う。これにより、運搬する貨物の大きさ(運搬物の高さ、運搬物が移動体からはみ出した部分等)に応じて、貨物と環境中の障害物が衝突しない安定的かつ安全な制御を行うことが可能になる。また、運搬のたびに貨物の大きさが変わるような場合においても、貨物の大きさをあらかじめ設定することなく、手間を減らして、移動体システム12の移動制御を行うことができる。   In the first embodiment, the moving object sensor acquires the three-dimensional schematic shape of the moving object, obtains the general shape of the entire moving object including the moving object, and moves the moving object including the moving object and the obstacle in the environment without contact. The route is acquired and the movement of the moving object is controlled. In this way, stable and safe control that prevents the cargo from colliding with the obstacles in the environment according to the size of the cargo to be transported (height of the cargo, the portion of the cargo protruding from the moving body, etc.) Becomes possible. Further, even in the case where the size of the cargo changes each time the cargo is transported, the movement control of the mobile body system 12 can be performed without setting the size of the cargo in advance and reducing the labor.

(変形例1−1)
本実施形態において、運搬物15は、運搬物センサ110により撮像されていたが、これに限るものではない。例えば、運搬物センサ110の代わりに、環境センサ120を用いて運搬物15を撮像してもよい。この場合、環境センサ120と運搬物センサ110は同じ装置であってもよい。この場合、例えば、運搬物センサ100と環境センサ120を兼ねる移動体に広域カメラを搭載する。また、移動体を撮像できるように環境に設置する監視カメラを広角レンズカメラやパノラマカメラにして、環境と運搬物を搭載した移動体とを同時に撮像してもよい。運搬物センサ110が環境を撮像するとともに、運搬物も撮像することにより、より少ない撮像装置により、運搬物の形状・位置・種類に応じた移動体の移動制御を行うことが可能になる。また、複数のセンサを連動させて運搬物画像を取得してもよい。例えば、移動体に搭載したデプスカメラと、環境内に1つ以上設置された広域カメラから画像を取得する。複数のセンサを使うことによって死角が減り、運搬物の情報をより正確に推定できるようになる。
(Modification 1-1)
In the present embodiment, the transported object 15 is imaged by the transported object sensor 110, but the present invention is not limited to this. For example, the transported object 15 may be imaged using the environment sensor 120 instead of the transported object sensor 110. In this case, the environment sensor 120 and the conveyed object sensor 110 may be the same device. In this case, for example, a wide-area camera is mounted on a moving body that also serves as the load sensor 100 and the environment sensor 120. In addition, the surveillance camera installed in the environment so that the moving object can be imaged may be a wide-angle lens camera or a panoramic camera, and the environment and the moving object on which the load is mounted may be simultaneously imaged. Since the transported object sensor 110 images the environment and also the transported object, it is possible to control the movement of the moving object according to the shape, position, and type of the transported object with a smaller number of imaging devices. In addition, a plurality of sensors may be linked to acquire a transported object image. For example, images are acquired from a depth camera mounted on a moving object and one or more wide-area cameras installed in the environment. By using a plurality of sensors, the blind spot is reduced, and the information on the cargo can be more accurately estimated.

(変形例1−2)
本実施形態において、運搬物センサ110は、移動体システム12に装着されていることを前提にしていたが、これに限るものではない。例えば、移動体と運搬物を観測可能な場所に設置され、工程管理システム14または、移動体システム12と通信可能である監視カメラを運搬物センサ110として利用してもよい。ここで、監視カメラは、工場や物流倉庫内といった使用環境の状況を監視するRGBカラーカメラである。工程管理システム14、または、移動体システム12中の保持部150が、環境の世界座標系上における監視カメラの位置姿勢を保持している。運搬物センサ110として監視カメラが、運搬物15の形状および位置姿勢の情報を観測する。観測された情報は、世界座標系における監視カメラ位置姿勢と、環境センサ120の位置姿勢とを用いて、移動体座標系における運搬物15の形状および位置の情報に変換されて、決定部1160に入力される。また、運搬物センサ110として用いられる外部カメラとしては、監視カメラに限るものではない。例えば、運搬物を移動体に積み込む自動機側に設置されたカメラを用いる。なお、カメラではなく、例えばラインセンサなどの2次元の距離センサを用いてもよい。また、環境に設置されたカメラ以外にも、他のAGVに搭載されたカメラや、ユーザが保持するカメラを利用してもよい。運搬物15を計測して、移動体システム12上の運搬物15の情報を取得できる限り、運搬物センサ110として用いるセンサに特に制限はない。
(Modification 1-2)
In the present embodiment, it is assumed that the transported goods sensor 110 is mounted on the mobile body system 12, but the present invention is not limited to this. For example, a monitoring camera that is installed at a place where the moving object and the conveyed object can be observed and that can communicate with the process management system 14 or the moving object system 12 may be used as the conveyed object sensor 110. Here, the surveillance camera is an RGB color camera that monitors the status of a use environment such as in a factory or a distribution warehouse. The holding unit 150 in the process management system 14 or the mobile system 12 holds the position and orientation of the monitoring camera on the world coordinate system of the environment. A monitoring camera as the load sensor 110 observes information on the shape and position and orientation of the load 15. The observed information is converted into information on the shape and position of the transported object 15 in the moving object coordinate system using the position and orientation of the monitoring camera in the world coordinate system and the position and orientation of the environment sensor 120, and transmitted to the determination unit 1160. Is entered. Further, the external camera used as the transported object sensor 110 is not limited to a monitoring camera. For example, a camera installed on the side of an automatic machine for loading a transported object on a moving body is used. Instead of a camera, for example, a two-dimensional distance sensor such as a line sensor may be used. In addition to the camera installed in the environment, a camera mounted on another AGV or a camera held by the user may be used. There is no particular limitation on the sensor used as the cargo sensor 110 as long as the cargo 15 can be measured and the information on the cargo 15 on the mobile system 12 can be acquired.

(変形例1−3)
本実施形態において、運搬物情報取得部1120は、運搬物の3次元概略形状として3次元バウンディングボックスの値を取得していたが、これに限るものではない。例えば、デプスマップ中の運搬物候補の3次元点群そのものを形状として保持しても、3次元点群からメッシュを生成し、3次元ポリゴンモデルとして扱ってもよい。または、TSDF volume(Truncated Signed Distance Function volume)のような、ボクセルごとに最近傍の3次元表面までの符号付距離を格納した方式により運搬物の形状を保持する。または、物体の存在確率をボクセルに格納した占有格子マップの形で形状を表現する。運搬物の形状の推定手段および表現方法に特に制限はない。また、決定部1160が保持する移動体の形状の保持方法・表現も、同様に、バウンディングボックスのような概略形状に限るものではなく、上記記載の方法を用いて、詳細形状を保持してもよい。位置姿勢情報取得部1140が取得する運搬物の形状情報は、運搬物15の形状や大きさを表現できる限り、いかなるものを用いてもよく、そこに制限はない。
(Modification 1-3)
In the present embodiment, the cargo information acquisition unit 1120 acquires the value of the three-dimensional bounding box as the three-dimensional schematic shape of the cargo, but is not limited thereto. For example, the three-dimensional point group itself of the cargo candidate in the depth map may be held as a shape, or a mesh may be generated from the three-dimensional point group and handled as a three-dimensional polygon model. Alternatively, the shape of the conveyed object is held by a method in which a signed distance to the nearest three-dimensional surface is stored for each voxel, such as a TSDF volume (Truncated Signed Distance Function volume). Alternatively, the shape is represented in the form of an occupancy grid map in which the existence probabilities of the objects are stored in voxels. There is no particular limitation on the means for estimating the shape of the conveyed object and the method of expression. Similarly, the holding method / expression of the shape of the moving object held by the determining unit 1160 is not limited to a schematic shape such as a bounding box, and the detailed shape may be held using the method described above. Good. As the shape information of the conveyed object acquired by the position and orientation information acquiring unit 1140, any information may be used as long as the shape and size of the conveyed object 15 can be expressed, and there is no limitation.

(変形例1−4)
本実施形態においては、運搬物情報取得部1120では、平面部分と運搬物候補部分とのセグメンテーションにより、運搬物候補の3次元点群を判別していたが、特にこれに限るものではない。例えば、移動体システム12に積載または牽引される運搬物15と運搬物センサ110との間の概略の位置関係は既知である場合を考える。このとき、運搬物が存在する範囲を、デプスマップ中の3D ROI(Region of Interest)として、与えられるものとして処理を行ってもよい。この場合、運搬物情報取得部1120では、平面部分のセグメンテーションを行う代わりに、前述の運搬物が存在する範囲を表す3D ROIを利用して、3D ROI以内の3次元点群を、運搬物候補の3次元点群として抽出する。または、例えばスタックされた箱により構成されている運搬物のように、一部の運搬物の形状が既知である場合には、テンプレートマッチングや特徴点マッチングに基づく3次元物体検出を用いて、運搬物全体の形状の位置を求めてもよい。
(Modification 1-4)
In the present embodiment, the cargo information acquisition unit 1120 determines the three-dimensional point group of the cargo candidate by segmentation of the plane portion and the cargo candidate portion, but the present invention is not particularly limited to this. For example, consider the case where the approximate positional relationship between a load 15 loaded or towed by the mobile system 12 and a load sensor 110 is known. At this time, the processing may be performed assuming that the range in which the conveyed object exists is given as a 3D ROI (Region of Interest) in the depth map. In this case, instead of performing the segmentation of the plane portion, the cargo information acquisition unit 1120 uses the 3D ROI representing the range in which the above-described cargo exists, and determines a three-dimensional point group within the 3D ROI as a cargo candidate. Are extracted as a three-dimensional point group. Alternatively, when the shape of a part of a transported object is known, such as a transported object constituted by stacked boxes, the transporting is performed using three-dimensional object detection based on template matching or feature point matching. The position of the shape of the whole object may be obtained.

(変形例1−5)
本実施形態において、制御用マップは、あらかじめ事前に設定した占有格子マップを用いる方法に限定されない。例えば、環境センサ120から取得されたデプスマップおよび位置姿勢情報取得部1140で推定された位置姿勢の情報から、障害物がある領域とない領域を算出することで、占有格子マップを動的に更新してもよい。占有格子マップの生成は、事前情報なしに0から生成する。或いは、あらかじめ保存された占有格子マップを更新する形で取得する。周囲環境中の障害物の情報を表現できる限り、占有格子マップを生成・更新する方法に特に制限はない。占有格子マップを動的に更新することで、環境に新たに置かれた荷物などの、あらかじめ生成しておいた占有格子マップに含まれない障害物も考慮して、移動体を制御できる。
(Modification 1-5)
In the present embodiment, the control map is not limited to a method using an occupancy grid map set in advance. For example, an occupancy grid map is dynamically updated by calculating an area where an obstacle is present and an area where an obstacle is not present based on the depth map acquired from the environment sensor 120 and the position and orientation information estimated by the position and orientation information acquisition unit 1140. May be. The occupancy grid map is generated from 0 without prior information. Alternatively, the occupancy grid map stored in advance is obtained by updating. There is no particular limitation on the method of generating and updating the occupancy grid map as long as information on obstacles in the surrounding environment can be represented. By dynamically updating the occupancy grid map, the moving object can be controlled in consideration of obstacles not included in the occupancy grid map generated in advance, such as luggage newly placed in the environment.

(変形例1−6)
本実施形態においては、制御用マップとして三次元の占有格子マップを用いる方法、そして、環境センサ120の位置姿勢情報として6自由度の位置姿勢パラメータを推定する方法について述べたが、これに限定されるものではない。例えば、高さ方向の情報がない、2次元の占有格子マップを利用する。或いは、環境の床と水平な面上の二次元点群データ(と色情報との組み合わせ)や、環境の床と水平な面上の二次元モデルを、制御用マップとして利用する。また、位置姿勢情報は、環境の世界座標系上における移動体システム12の位置2自由度(環境の床に対して水平な面上の位置X、Y)と姿勢1自由度(環境の床に対して水平な面上での回転方向)との合計3自由度の位置姿勢パラメータであっても良い。制御用マップは、決定部1160が利用できる形で、周囲環境中の障害物の情報を保持できる限り、保持・表現方式に制限はなく、いかなる方式を用いてもよい。
(Modification 1-6)
In the present embodiment, the method of using the three-dimensional occupancy grid map as the control map and the method of estimating the position and orientation parameters having six degrees of freedom as the position and orientation information of the environment sensor 120 have been described, but are not limited thereto. Not something. For example, a two-dimensional occupancy grid map having no height information is used. Alternatively, two-dimensional point cloud data (in combination with color information) on a plane horizontal to the floor of the environment or a two-dimensional model on a plane horizontal to the floor of the environment are used as control maps. The position and orientation information includes two degrees of freedom (positions X and Y on the plane horizontal to the floor of the environment) of the mobile system 12 on the world coordinate system of the environment and one degree of freedom of posture (on the floor of the environment). (A rotation direction on a horizontal plane) with respect to a total of three degrees of freedom. The control map is not limited to a storage / representation method as long as the information of the obstacle in the surrounding environment can be stored in a form that can be used by the determination unit 1160, and any method may be used.

(変形例1−7)
本実施形態において、位置姿勢情報取得部1140が、環境中のシーンを表す3次元点群とデプスマップとのICPアルゴリズムに基づいて環境センサ120の位置姿勢を取得する方法について述べたが、位置姿勢を取得する方法は以上のものに限らない。例えば、位置姿勢推定用マップを事前に生成せずに、移動体システム12を環境内で移動させることで生成する。具体的には、移動体システム12をリモコンや手押しで操作しながら、移動体システム12に搭載している環境センサから取得したデプスマップを複数の視点で統合することで、3次元点群データを生成する。また、位置姿勢推定用マップとして、環境のCAD図面や地図画像をそのまま、あるいはデータフォーマット変換したものを利用して、位置姿勢取得に利用してもよい。また、環境センサ120としてデプスセンサではなく、環境中のシーンをカラー画像や濃淡画像として撮像する撮像装置を利用してもよい。この場合、撮像する画像はカラー画像でも濃淡画像でもよい。この場合、入力されたカラー画像や濃淡画像から3次元の特徴点により構成される特徴点マップを生成し、環境画像入力部に入力された画像中の特徴点と、特徴点マップ中の特徴点を対応付けることで、位置姿勢を取得する。これらの処理は、マップ情報を作成しつつ位置姿勢推定を行うSLAM(Simultaneous Localization and Mapping)技術として、数多く提案されておりそれらを利用すればよい。また、位置姿勢情報取得部1140での位置姿勢情報の推定は、Wi−Fi通信の通信状況や、環境内に設置されているビーコンを併用して求めてもよい。位置姿勢情報取得部1140において、世界座標系における移動体12の位置姿勢を取得できる限り、取得方法に特に制限はなく、いかなる方法を用いてもよい。
(Modification 1-7)
In the present embodiment, the method has been described in which the position and orientation information acquisition unit 1140 acquires the position and orientation of the environment sensor 120 based on an ICP algorithm of a three-dimensional point group representing a scene in the environment and a depth map. The method of obtaining is not limited to the above. For example, the map is generated by moving the mobile system 12 in the environment without generating a position / posture estimation map in advance. Specifically, by integrating the depth map obtained from the environment sensor mounted on the mobile body system 12 from a plurality of viewpoints while operating the mobile body system 12 with a remote controller or a hand push, the three-dimensional point cloud data is obtained. Generate. Further, as the position / posture estimation map, a CAD drawing or map image of the environment may be used as it is or may be converted into a data format and used for position / posture acquisition. Further, instead of the depth sensor, an imaging device that captures a scene in the environment as a color image or a grayscale image may be used as the environment sensor 120. In this case, the captured image may be a color image or a grayscale image. In this case, a feature point map composed of three-dimensional feature points is generated from the input color image or grayscale image, and the feature points in the image input to the environment image input unit and the feature points in the feature point map are generated. And the position and orientation are acquired. Many of these processes are proposed as SLAM (Simultaneous Localization and Mapping) technology for estimating position and orientation while creating map information, and these may be used. In addition, the position and orientation information may be estimated by the position and orientation information acquisition unit 1140 using the communication status of Wi-Fi communication and a beacon installed in the environment. As long as the position and orientation information acquisition unit 1140 can acquire the position and orientation of the moving body 12 in the world coordinate system, there is no particular limitation on the acquisition method, and any method may be used.

(変形例1−8)
本実施形態において、物体の形状を取得する方法について述べたが、運搬物情報取得部1120が推定する運搬物の情報は形状に限るものではなく、例えば物体の種類や状態などの意味的情報を取得し、それに基づいて決定部1160が制御値を決定してもよい。具体的には、例えば、あらかじめガラスや液体などの壊れやすい性質の素材や揺らしては不都合な運搬物の種類を定義する。運搬物センサ110が撮像した運搬物15を含むカラー画像から、各画素が何の物体種であるかを判別するセマンティックセグメンテーションにより、運搬物候補領域の意味的クラスを推定することにより、運搬物の種類を推定する。そして、推定した種類があらかじめ定めた壊れやすい運搬物の種類に含まれるのであれば、決定部1160の制御値の最高速度を制限する。例えば、運搬物がガラス製であると推定された場合は、なるべく振動が少ない移動制御を行う。これにより、運搬物の種類に応じた速度の制御を行うことで、運搬物の運搬において、運搬物が揺れにくくなるように、または、運搬物が崩れにくくなるように移動体の移動制御を行うことが可能になる。
(Modification 1-8)
In the present embodiment, the method of acquiring the shape of the object has been described. However, the information of the conveyed object estimated by the conveyed object information obtaining unit 1120 is not limited to the shape. For example, semantic information such as the type and state of the object may be used. The determination unit 1160 may acquire the control value and determine the control value based on the acquired control value. Specifically, for example, a material having a fragile property such as glass or liquid or a type of a conveyed object that is inconvenient to shake is defined in advance. From the color image including the transported object 15 captured by the transportable object sensor 110, by semantic segmentation for determining what kind of object each pixel is, the semantic class of the transportable object candidate area is estimated, and the Estimate the type. Then, if the estimated type is included in the type of the fragile transportation object determined in advance, the maximum speed of the control value of the determination unit 1160 is limited. For example, when it is estimated that the conveyed object is made of glass, movement control with as little vibration as possible is performed. Thereby, by controlling the speed according to the type of the conveyed object, the movement of the moving object is controlled so that the conveyed object is hardly shaken or the conveyed object is hardly collapsed in the conveyance of the conveyed object. It becomes possible.

(変形例1−9)
本実施形態において、運搬物情報は、運搬物画像入力部1110に入力された運搬物が撮像されたデプスマップから、形状を計測していたが、これに限るものではない。例えば、運搬物に付与されたIDタグを利用して、運搬物の情報を得てもよい。具体的には、例えば、運搬物の形状・種類の情報またはそれらに紐づく情報が格納されたIDタグを運搬物に付与しておく。或いは、運搬物センサ110または環境センサ120が撮像した画像から、運搬物情報取得部1120がIDタグを認識することで、運搬物の形状・種類の情報を取得する。また、運搬物の情報を得る手段としては、画像を用いる方法に限るものではなく、例えば、工程管理システム14または移動体管理システム13が各運搬物の形状や種類や位置を管理しておく。S110において、目標の位置及び姿勢を受信するタイミングで、運搬物画像入力部1110が積載される運搬物の情報を受信する。このように、運搬物の形状・種類の情報を得てもよい。この場合は、運搬物センサ110は運搬物画像入力部1120に接続されている必要性はなく、運搬物センサ110がなくても特に問題はない。
(Modification 1-9)
In the present embodiment, the shape of the conveyed object information is measured from the depth map of the conveyed object input to the conveyed object image input unit 1110, but the present invention is not limited to this. For example, information on a transported item may be obtained by using an ID tag attached to the transported item. Specifically, for example, an ID tag in which information on the shape and type of the conveyed article or information associated with the information is stored is added to the conveyed article. Alternatively, the information on the shape and type of the conveyed object is obtained by recognizing the ID tag from the image captured by the conveyed object sensor 110 or the environment sensor 120, by recognizing the ID tag. The means for obtaining information on the conveyed goods is not limited to the method using images, and for example, the process management system 14 or the moving body management system 13 manages the shape, type, and position of each conveyed goods. In S110, at the timing of receiving the target position and orientation, the load image input unit 1110 receives information on the load to be loaded. In this manner, information on the shape and type of the conveyed object may be obtained. In this case, there is no need to connect the load sensor 110 to the load image input unit 1120, and there is no particular problem even without the load sensor 110.

(変形例1−10)
本実施形態において、移動体システム12は無人搬送車(AGV)の様々な形態に適用可能である。例えば、運搬物の下に潜り込んで押すことで運搬する移動体でもよい。また、車輪が縦横無尽に動くAGVでもよい。この場合、前後方向の制御値だけではなく、横方向の移動に対しても制御値を計算し、最適な制御値を決定する。また、けん引式のAGVでもよい。この場合、けん引する運搬物や台車との接合部の動きを考慮した制御値を取得する。けん引式の方が横揺れするため、通路の幅が十分広い経路を通るようにする等、移動体の形態によって制御値の決定の仕方を変えてもよい。なお、移動体システム12は、自動運転車、自律移動ロボットであってもよい。本実施形態で説明した情報処理装置をそれらに適用してもよい。また、フォーク可動部を備える自動搬送フォークリフトに対して、本実施形態を適用してもよい。ドローンといった飛行体に本実施形態を適用してもよい。
(Modification 1-10)
In the present embodiment, the mobile system 12 is applicable to various forms of an automatic guided vehicle (AGV). For example, it may be a moving object that is transported by squeezing under a conveyed object and pushing. Alternatively, an AGV in which wheels move freely in all directions may be used. In this case, the control value is calculated not only for the control value in the front-back direction but also for the movement in the horizontal direction, and the optimum control value is determined. Further, a tow type AGV may be used. In this case, the control value is obtained in consideration of the movement of the to-be-carried object or the joint with the bogie. Since the towing type rolls sideways, the way of determining the control value may be changed depending on the form of the moving body, for example, by passing the path with a sufficiently wide path. The mobile system 12 may be an autonomous vehicle or an autonomous mobile robot. The information processing device described in the present embodiment may be applied to them. Further, the present embodiment may be applied to an automatic transport forklift having a movable fork. This embodiment may be applied to a flying object such as a drone.

(変形例1−11)
本実施形態において、運搬物情報取得部1110が推定した運搬物15の概略形状に基づいて、決定部1160が、運搬物を含む移動体と、障害物との接触を考慮した制御値を決定していたが、これに限るものではない。例えば、決定部1160が移動体管理システム13および工程管理システム14と通信して、運搬物と周囲環境との障害物との接触が発生しないような形状の移動体を代わりに用いるようにシステムを運用してもよい。具体的には、移動体管理システム13が複数の移動体システムに関して、それぞれの概略形状の情報を保持する。そして、決定部1160では、それらの複数の移動体システムの概略形状に対応した、複数の2次元占有格子を取得する。これによってもっとも最短経路で運搬可能となる形状を備える移動体システムを判別する。そして、判別した移動体が運搬物を運搬するように、決定部1160が移動体管理システム13に通信を行う。運搬物の形状に応じて、一つの移動体の制御のみを行うのではなく、複数の異なる形状の移動体を選択的に運用することで、全体のシステムが最適になるように運行を制御することが可能となる。
(Modification 1-11)
In the present embodiment, the determining unit 1160 determines a control value in consideration of the contact between the moving object including the transported object and the obstacle based on the schematic shape of the transported object 15 estimated by the transported information obtaining unit 1110. But it is not limited to this. For example, the determining unit 1160 communicates with the mobile object management system 13 and the process management system 14 to set the system so that a mobile object having a shape that does not cause contact between the conveyed object and the surrounding environment does not occur. May be operated. Specifically, the mobile management system 13 holds information on the schematic shapes of a plurality of mobile systems. Then, the determining unit 1160 acquires a plurality of two-dimensional occupied grids corresponding to the schematic shapes of the plurality of mobile systems. As a result, a mobile system having a shape capable of being transported on the shortest route is determined. Then, the determining unit 1160 communicates with the mobile object management system 13 so that the determined mobile object carries the object. Depending on the shape of the conveyed goods, instead of controlling only one moving object, the operation is controlled so that the entire system is optimized by selectively operating a plurality of moving objects of different shapes. It becomes possible.

(変形例1−12)
決定部1160が、3次元の制御用マップを2次元に射影せずに、移動体と接触する範囲を抜き出した部分的な3次元制御用マップを用いて、移動体の制御値を決定する方法について述べる。図5のS160では、決定部1160が、AGVを制御するための制御値を決定する。具体的には、占有格子マップ上で定義された目的地座標と、占有格子マップ上の移動体の位置姿勢とに基づいて、占有格子マップ上で障害物の存在する確率が高い格子を避け、両者のユークリッド距離が小さくなるような制御値を決定する。
(Modification 1-12)
A method in which the determination unit 1160 determines a control value of a moving object using a partial three-dimensional control map extracted from a range that comes into contact with the moving object without projecting the three-dimensional control map in two dimensions. Is described. In S160 of FIG. 5, determination unit 1160 determines a control value for controlling AGV. Specifically, based on the destination coordinates defined on the occupied grid map and the position and orientation of the moving object on the occupied grid map, avoid grids with a high probability of the presence of obstacles on the occupied grid map, A control value that reduces the Euclidean distance between the two is determined.

まず、運搬物情報取得部1120が推定した移動体座標系における運搬物の概略形状(AABB)に基づいて、移動体全体の概略形状を取得する。次に、実施形態1と同様に、保持部1150が保持する3次元の占有格子マップから、移動体に接触しうる範囲の部分の占有格子マップを部分占有格子マップとして抽出する。次に、現在の移動体の位置姿勢と入力された目標位置姿勢とに基づいて、両者のユークリッド距離を小さくするような制御値(前進速度と旋回方向・速度)として取りうる全てのバリエーションを制御値候補として取得する。それぞれの制御値候補に関して制御後の予測位置姿勢を取得する。そして、予測位置姿勢における移動体と部分占有格子マップとの衝突判定を行う。衝突判定は、具体的には、予測位置姿勢における移動体の概略形状の範囲内の部分占有格子マップを走査する。障害物となる確率が所定以上に高い占有格子がある場合には、衝突の危険性を判定し、その予測位置姿勢を取得した制御値候補を棄却する。棄却されなかった制御値候補の中で、目標位置姿勢と予測位置姿勢とのユークリッド距離を最小とする制御値を、最終的な制御値として決定する。そして、決定した制御値をアクチュエータ部130に出力する。そして、アクチュエータ部130が、決定部1160が決定した制御値を用いてAGVを制御する。これにより、運搬する貨物の大きさに応じて、貨物と環境中の障害物が衝突しない安定的かつ安全な制御を行うことが可能になる。また、運搬のたびに貨物の大きさが変わるような場合においても、貨物の大きさをあらかじめ設定することなく、手間を減らして、移動体システム12の移動制御を行うことができる。   First, the outline shape of the entire moving object is acquired based on the outline shape (AABB) of the object in the moving object coordinate system estimated by the object information acquiring unit 1120. Next, as in the first embodiment, from the three-dimensional occupancy grid map held by the holding unit 1150, an occupancy grid map of a portion that can be in contact with the moving object is extracted as a partial occupancy grid map. Next, based on the current position and orientation of the moving object and the input target position and orientation, all variations that can be taken as control values (forward speed and turning direction / speed) that reduce the Euclidean distance between them are controlled. Get as a value candidate. For each control value candidate, a predicted position and orientation after control is obtained. Then, a collision between the moving body and the partial occupancy grid map at the predicted position and orientation is determined. Specifically, the collision determination scans the partial occupancy grid map within the range of the approximate shape of the moving body at the predicted position and orientation. If there is an occupied grid having a probability of becoming an obstacle that is higher than a predetermined value, the risk of collision is determined, and the control value candidate that has obtained the predicted position and orientation is rejected. Among the control value candidates that have not been rejected, the control value that minimizes the Euclidean distance between the target position and orientation and the predicted position and orientation is determined as the final control value. Then, the determined control value is output to the actuator unit 130. Then, the actuator unit 130 controls the AGV using the control value determined by the determining unit 1160. Thereby, it is possible to perform stable and safe control such that the cargo does not collide with an obstacle in the environment according to the size of the cargo to be carried. Further, even in the case where the size of the cargo changes each time the cargo is transported, the movement control of the mobile body system 12 can be performed without setting the size of the cargo in advance and reducing the labor.

(変形例1−13)
実保持部1150が保持する制御用マップとして占有格子マップを保持し、占有格子マップに基づいて最適な経路を決定して、決定部1160が移動体の制御値を決定していたが、これに限るものではない。その他、決定部1160が、移動体形状と環境中の障害物とが接触しないように、目的地に到達するための制御値を決定するものであればどのような制御値を決定しても用いてもよい。例えば、複数のデプスマップをキーフレームとして保持し、キーフレームの集合として、制御用マップを保持してもよい。この場合、目標位置姿勢と現在の位置姿勢とのユークリッド距離を最小化する移動制御をしながら、例えば、現在の位置姿勢の最近傍となるキーフレーム中のデプスマップと、移動体全体の概略形状との最近接距離の計算を行う。距離が所定以下の場合は、移動を止める、旋回するなどの制御を行う。障害物として判定する閾値としては、例えば、0よりも上であれば障害物があると判定する。また、キーフレームとしてデプスマップを保持することに限定されるわけでもなく、環境画像入力部1120に入力されたデプスマップと、移動体全体の概略形状との最近接距離の計算を行い、移動体の制御を行ってもよい。
(Modification 1-13)
The occupancy grid map is held as the control map held by the real holding unit 1150, and the optimum route is determined based on the occupancy grid map. The determination unit 1160 determines the control value of the moving object. It is not limited. In addition, the determination unit 1160 may use any control value as long as it determines a control value for reaching the destination so that the moving object shape does not contact the obstacle in the environment. You may. For example, a plurality of depth maps may be held as key frames, and a control map may be held as a set of key frames. In this case, for example, while performing movement control to minimize the Euclidean distance between the target position and orientation and the current position and orientation, for example, a depth map in a key frame that is the closest to the current position and orientation, and a schematic shape of the entire moving object Calculates the closest distance to. When the distance is equal to or shorter than a predetermined value, control such as stopping the movement or turning is performed. As a threshold value for determining an obstacle, for example, if it is higher than 0, it is determined that there is an obstacle. Further, the present invention is not limited to holding the depth map as a key frame, but calculates the closest distance between the depth map input to the environment image input unit 1120 and the schematic shape of the entire moving object, and May be controlled.

また、制御用マップとして、最近傍の障害物への符号付距離を格納したESDF(Euclidean Signed Distance Fields)に基づいて、障害物を回避するような制御値を計算して、移動制御を行ってもよい。また、制御用マップとして、目的地に近くなるほど小さくなるような値を格納したコストマップを保持する。決定部1160がこれと入力されたデプスマップとを入力として制御値を決定するように学習したニューラルネットワークである深層強化学習器を用いて制御値を決定してもよい。このように、運搬物を含む移動体全体の形状と壁などの障害物との接触を計算し、それらを回避しつつ移動する制御値を決定することで、安定して、安全にAGVを運用することができる。   Further, based on an ESDF (Euclidean Signed Distance Fields) storing a signed distance to the nearest obstacle as a control map, a control value for avoiding an obstacle is calculated, and movement control is performed. Is also good. In addition, as the control map, a cost map storing a value that becomes smaller as the position is closer to the destination is held. The control unit 1160 may determine the control value using a deep reinforcement learning device, which is a neural network trained to determine the control value by using this and the input depth map as an input. In this way, the AGV is operated stably and safely by calculating the contact between the shape of the entire moving object including the conveyed object and obstacles such as walls, and determining the control value for moving while avoiding them. can do.

(変形例1−14)
決定部1160は、Dynamic Window Approachを用いた。これは、現在の移動体の位置及び姿勢と入力された目標の位置及び姿勢とに基づいて、ある一時刻における両者のユークリッド距離を小さくするような制御値の取りうる全てのバリエーションを制御値の候補として算出する。しかしながら、障害物との衝突可能性の高い領域を回避してAGVの経路を設定できる方法であれば、制御値の算出方法は上記に限るものではない。例えば、ある一時刻ではなく、将来の複数の時刻における制御値のバリエーションを算出し、複数時刻の位置姿勢(予測軌跡)を算出し、予測軌跡を辿るような制御値を選択する手法であるGraph Search Approachを使用してもよい。この時、決定部1160は、2次元グリッドの占有格子マップの障害物が存在する確率が0の領域のみを通る予測軌跡を選択し、この予測軌跡を辿るような複数時刻の制御値を算出する。予測軌跡の選択方法は、移動経路が最小となるような予測軌跡を選択してもよいし、占有格子マップの障害物が存在する確率が0でない領域との距離が最大となるような予測軌跡や、ステアリングの変化が最小となるような予測軌跡を選択してもよい。また、現在位置から二次元空間の中から障害物のない一定領域をランダムにサンプリングする。そして、その地点をノードとして更に周囲の空間をランダムにサンプリングすることを繰り返して生成した予測軌跡を選択するRandomized Approachなど、任意の手法を用いることができる。
(Modification 1-14)
The determination unit 1160 used Dynamic Window Approach. This is based on the current position and orientation of the moving object and the input target position and orientation, and all possible variations of the control value such that the Euclidean distance between the two at a certain time is reduced to the control value. Calculate as a candidate. However, the method of calculating the control value is not limited to the above, as long as the method can set an AGV route while avoiding an area having a high possibility of collision with an obstacle. For example, Graph is a method of calculating a variation of a control value at a plurality of future times, not at one time, calculating a position and orientation (prediction trajectory) at a plurality of times, and selecting a control value that follows the prediction trajectory. A Search Approach may be used. At this time, the determination unit 1160 selects a predicted trajectory that passes through only the area where the probability of the presence of the obstacle in the occupied grid map of the two-dimensional grid is 0, and calculates a control value at a plurality of times that follows the predicted trajectory. . The method of selecting a predicted trajectory may select a predicted trajectory that minimizes the movement route, or a predicted trajectory that maximizes the distance to an area where the probability of the presence of an obstacle in the occupancy grid map is not zero. Alternatively, a predicted trajectory that minimizes a change in steering may be selected. In addition, a certain area without obstacles is randomly sampled from the two-dimensional space from the current position. Then, an arbitrary method such as a randomized approach that selects a predicted trajectory generated by repeatedly sampling the surrounding space at random with the point as a node can be used.

本実施形態では、Zw±Sz/2の範囲にある占有格子マップをスライスし、部分占有格子マップとして取得していたが、Zw−Sz/2<Z<Zw+Sz/2+Δm(Δmはマージン)の範囲にある占有格子マップをスライスしてもよい。このようにすることで、AGVは障害物から所定のマージン以上離れて移動することができ、安全にAGVを運用することができる。   In the present embodiment, the occupancy grid map in the range of Zw ± Sz / 2 is sliced and acquired as a partial occupancy grid map. However, the range of Zw−Sz / 2 <Z <Zw + Sz / 2 + Δm (Δm is a margin) May be sliced. By doing so, the AGV can move away from the obstacle by a predetermined margin or more, and the AGV can be operated safely.

なお、Δmといった所定の値は、ユーザによって予め設定してもよいし、移動体の走行速度に応じて変更してもよい。例えば、ユーザによって設定する場合は、工場の規定等を考慮し、占有格子マップによって物体が存在する確率が0より大きい位置からΔm=1mだけ離れて走行するように設定する。このように障害物や周辺環境と運搬物との距離に余裕を持たせることによって、運搬物が多少ずれても安定して運搬できる。また、移動体の走行速度に応じてΔmを設定する場合は、例えば、走行速度と所定の値が比例するように決定する。具体的には、移動体が1m/sで走行するときはΔm=1mとする。移動体が2m/sで走行するときはΔm=2mとする。このように障害物と運搬物との距離を取ることで、障害物と衝突する可能性を抑制することができる。   The predetermined value such as Δm may be set in advance by the user, or may be changed according to the traveling speed of the moving object. For example, when the setting is made by the user, in consideration of the regulations of the factory, the occupancy grid map is set so as to travel by Δm = 1 m from a position where the probability that an object exists is greater than 0. In this way, by providing a margin between the obstacle and the surrounding environment and the transported object, the transported object can be stably transported even if slightly shifted. When setting Δm according to the traveling speed of the moving body, for example, the traveling speed is determined so as to be proportional to a predetermined value. Specifically, when the moving body travels at 1 m / s, Δm = 1 m. When the moving body runs at 2 m / s, Δm = 2 m. By setting the distance between the obstacle and the transported object in this manner, the possibility of collision with the obstacle can be suppressed.

さらには位置姿勢情報取得部1140が位置姿勢算出時に位置姿勢のばらつき度合の値として分散値を取得算出し、決定部1160は、取得された分散値を元にΔmを設定することもできる。例えば分散値と所定の値Δmが比例するように決定する。また、事前に移動体の制御のばらつきを計測しておいて、ばらつきに比例するように所定の値Δmを決定してもよい。制御のばらつきとは、移動体が同一ルートを走行するように設定し移動させたときに実測した移動軌跡のばらつき度合のことである。同様に、決定部1160は、位置姿勢情報取得部1140によって計測された移動体の走行環境における段差の高さに基づいて所定の距離を決定してもよい。移動体を移動させたときに実測した移動体の上下方向のブレや荷物の傾き値に比例するように所定の値Δmを設定してもよい。例えば、走行経路上に段差や傾きがある箇所がある場合、移動体が上下方向に揺れて運搬物が天井や監視カメラ等に衝突するリスクがある。そのため、走行経路全体あるいは所定の高さの段差や凹凸がある領域については、段差の高さに応じてΔmを設定してもよい。走行面の凹凸のデータは、例えば、予め移動体の走行経路を走行し、3次元位置の高さ方向の変化を計測しておくとよい。このように障害物と運搬物との間に一定以上の距離を取ることで、運搬物が障害物と衝突する可能性をさらに抑制することができる。   Further, the position and orientation information acquisition unit 1140 acquires and calculates a variance value as the value of the degree of variation in the position and orientation when calculating the position and orientation, and the determination unit 1160 can set Δm based on the acquired variance value. For example, the variance and the predetermined value Δm are determined so as to be proportional. Alternatively, a variation in control of the moving object may be measured in advance, and the predetermined value Δm may be determined in proportion to the variation. The variation of the control is a variation degree of a movement locus actually measured when the moving body is set to move along the same route and moved. Similarly, the determination unit 1160 may determine the predetermined distance based on the height of the step in the traveling environment of the moving body measured by the position and orientation information acquisition unit 1140. The predetermined value Δm may be set so as to be proportional to the vertical shake of the moving object and the inclination value of the luggage measured when the moving object is moved. For example, if there is a step or a slope on the traveling route, there is a risk that the moving object shakes up and down and the conveyed object collides with a ceiling, a monitoring camera, or the like. Therefore, Δm may be set in accordance with the height of the step, for the entire traveling route or for a region having a step or irregularities of a predetermined height. The data of the unevenness of the running surface may be obtained by, for example, running on the running route of the moving body in advance and measuring a change in the three-dimensional position in the height direction. By setting a certain distance or more between the obstacle and the transported object, the possibility that the transported object collides with the obstacle can be further suppressed.

(実施形態2)
実施形態1では、保持部1150が保持する制御用マップとして占有格子マップを保持し、占有格子マップに基づいて最適な経路を取得して、決定部1160が移動体の制御値を取得していた。実施形態2では、制御用マップを保持せずに、環境センサが撮像する画像に基づいて、運搬物を含む移動体の位置を計算して、移動体の制御を行う方法について述べる。
(Embodiment 2)
In the first embodiment, the occupancy grid map is held as the control map held by the holding unit 1150, the optimal route is acquired based on the occupancy grid map, and the determination unit 1160 acquires the control value of the moving object. . In the second embodiment, a method of calculating the position of a moving object including a transported object based on an image captured by an environment sensor and controlling the moving object without holding a control map will be described.

図7に、本実施形態における情報処理装置10の機能構成例を示す。本実施形態における情報処理装置10は、実施形態1で説明した情報処理装置10から、保持部1150が除かれている点が異なる。本実施形態では実施形態1から追加または機能が異なる構成のみ説明し、それ以外の構成については図1、2と同じ機能であるものとして説明を省略する。   FIG. 7 illustrates an example of a functional configuration of the information processing apparatus 10 according to the present embodiment. The information processing apparatus 10 according to the present embodiment is different from the information processing apparatus 10 according to the first embodiment in that the holding unit 1150 is omitted. In the present embodiment, only the configuration added or different in function from the first embodiment will be described, and the description of the other configurations will be omitted because they have the same functions as those in FIGS.

決定部1160は、環境画像、位置姿勢情報取得部1140が取得した環境センサ120の位置姿勢情報、運搬物情報取得部1120が取得した運搬物の概略形状、および目標の位置及び姿勢をもとにAGVの移動制御する制御値を決定する。実施形態1と異なり、移動体の目標位置姿勢は、不図示の通信装置により移動体管理システム13から決定部1160へ直接入力される。決定部1160は、決定した制御値をアクチュエータ部130へ出力する。   The determination unit 1160 is based on the environment image, the position and orientation information of the environment sensor 120 acquired by the position and orientation information acquisition unit 1140, the schematic shape of the conveyed object acquired by the conveyed object information acquisition unit 1120, and the position and orientation of the target. A control value for controlling the movement of the AGV is determined. Unlike the first embodiment, the target position / posture of the moving object is directly input from the moving object management system 13 to the determination unit 1160 by a communication device (not shown). The determining unit 1160 outputs the determined control value to the actuator unit 130.

本実施形態における処理全体の手順は、図5と同様である。本実施形態では実施形態1と処理が異なる手順のみ説明し、それ以外の手順については図5と同じ処理であるものとして説明を省略する。   The procedure of the entire process in the present embodiment is the same as that in FIG. In the present embodiment, only the procedure that is different from that of the first embodiment will be described, and the other procedures are the same as those in FIG.

図5のS160では、決定部1160が、運搬物情報取得部1120が推定した運搬物15の概略形状と、環境画像入力部1130に入力されたデプスマップ、移動体の目標位置とに基づき、障害物を避けつつ目標位置へ向かうような移動体の制御値を決定する。具体的には、現在の移動体の位置姿勢と入力された目標位置姿勢とに基づいて、両者のユークリッド距離を小さくするような制御値(前進速度と旋回方向・速度)として取りうる全てのバリエーションを制御値候補として取得する。それぞれの制御値候補に関して制御後の予測位置姿勢を取得する。そして、予測位置姿勢における運搬物を含む移動体の概略形状・位置と、環境画像入力部1130から入力されたデプスマップから求めた3次元点群との、最近接距離の計算を行う。距離が所定以下の場合は、衝突の危険性と判定し、その予測位置姿勢を取得した制御値候補を棄却する。棄却されなかった制御値候補の中で、目標位置姿勢と予測位置姿勢とのユークリッド距離を最小とする制御値を、最終的な制御値として選択する。決定された制御値は、アクチュエータ部130へ出力する。   In S160 of FIG. 5, the determining unit 1160 determines the obstacle based on the schematic shape of the conveyed object 15 estimated by the conveyed object information obtaining unit 1120, the depth map input to the environment image input unit 1130, and the target position of the moving object. The control value of the moving object is determined so as to go to the target position while avoiding an object. More specifically, all variations that can be taken as control values (forward speed and turning direction / speed) that reduce the Euclidean distance between the two based on the current position and orientation of the moving object and the input target position and orientation. Is obtained as a control value candidate. For each control value candidate, a predicted position and orientation after control is obtained. Then, the closest distance between the approximate shape and position of the moving object including the transported object at the predicted position and orientation and the three-dimensional point group obtained from the depth map input from the environment image input unit 1130 is calculated. If the distance is equal to or less than a predetermined value, it is determined that there is a risk of collision, and the control value candidate that has obtained the predicted position and orientation is rejected. The control value that minimizes the Euclidean distance between the target position and orientation and the predicted position and orientation is selected as the final control value from among the control value candidates that have not been rejected. The determined control value is output to the actuator unit 130.

以上、実施形態2では、制御用マップを保持せずに、環境センサ120から入力された画像に基づいて、運搬物を含む移動体の概略形状の位置を取得し、移動体の制御を行う方法について述べた。制御用マップを保持しない場合においても、環境センサ120から時系列的に入力される画像から、その都度、観測される範囲で、移動体と環境中の障害物との距離を取得することで、制御用マップを保持しない場合においても、安全な移動体制御が可能となる。   As described above, in the second embodiment, a method of acquiring the position of the schematic shape of the moving object including the transported object based on the image input from the environment sensor 120 without holding the control map and controlling the moving object Was mentioned. Even in the case where the control map is not held, by acquiring the distance between the moving object and the obstacle in the environment from the image input in time series from the environment sensor 120 in the range observed each time, Even when the control map is not held, safe moving body control is possible.

(実施形態3)
実施形態1では、運搬物センサ110が取得したデプスマップから、運搬物15の概略形状を一度だけ計測し、計測した運搬物の形状を含む移動体とシーン中の障害物との接触を考慮した軌道を取得して移動体の制御を行っていた。実施形態3においては、運搬物15の形状と位置を常にトラッキングすることで、運搬物の位置や形状の変化に基づいて、移動体の制御を行う方法について述べる。
(Embodiment 3)
In the first embodiment, the approximate shape of the transported object 15 is measured only once from the depth map acquired by the transported object sensor 110, and the contact between the moving object including the measured shape of the transported object and the obstacle in the scene is considered. The trajectory was acquired to control the moving object. In the third embodiment, a method of controlling a moving object based on a change in the position or shape of a conveyed object by constantly tracking the shape and position of the conveyed object 15 will be described.

本実施形態における装置の構成は、実施形態1で説明した情報処理装置10の構成を示す図3と同一であるため省略する。なお、運搬物情報取得部1120は、実施形態1で説明した運搬物15の概略形状情報に加えて、さらに、その時系列的変化が計算できるように、前時刻における運搬物15の形状・位置の情報も保持する。そして、運搬物15の時系列変化情報も、決定部1160に出力する。決定部1160は、実施形態1で説明した情報に加え、運搬物情報取得部1120が取得した運搬物15の時間変化情報にも基づいて、AGVを制御する制御値を決定する。以上の点が実施形態1と異なる。   The configuration of the apparatus according to the present embodiment is the same as that of FIG. 3 illustrating the configuration of the information processing apparatus 10 described in the first embodiment, and a description thereof will not be repeated. In addition, in addition to the schematic shape information of the conveyed article 15 described in the first embodiment, the conveyed article information acquiring unit 1120 further calculates the shape and position of the conveyed article 15 at the previous time so that its time-series change can be calculated. It also holds information. Then, the time-series change information of the transported object 15 is also output to the determination unit 1160. The determining unit 1160 determines a control value for controlling the AGV based on the time change information of the transported object 15 acquired by the transported object information acquiring unit 1120 in addition to the information described in the first embodiment. The above points are different from the first embodiment.

図8に、本実施形態において無人搬送車(AGV)と称する移動体に適用した情報処理装置が実行する処理手順を示す。本実施形態では実施形態1と処理が異なる手順のみ説明し、それ以外の手順については図5と同じ処理であるものとして説明を省略する。   FIG. 8 shows a processing procedure executed by the information processing apparatus applied to a moving object called an automatic guided vehicle (AGV) in the present embodiment. In the present embodiment, only the procedure that is different from that of the first embodiment will be described, and the other procedures are the same as those in FIG.

S230では、実施形態1のS130と同様に、運搬物情報取得部1120が、デプスマップから運搬物15の概略形状として、3次元バウンディングボックスの情報を取得する。次に、保持していた前の時刻における3次元バウンディングボックスと、現時刻における値との差分を取ることで、前時刻から現時刻への運搬物15の概略形状と位置の変化量を取得する。変化量は、バウンディングボックスのサイズ(高さ・横幅・奥行)の変化量3パラメータ、位置の変化量3パラメータの計6パラメータを保持するものとする。最後に、取得した、現時刻における運搬物15の概略形状およびその変化量の値を、決定部1160に出力する。   In S230, as in S130 of the first embodiment, the cargo information acquisition unit 1120 acquires the information of the three-dimensional bounding box as the schematic shape of the cargo 15 from the depth map. Next, the difference between the held three-dimensional bounding box at the previous time and the value at the current time is obtained, thereby obtaining the amount of change in the approximate shape and position of the transported object 15 from the previous time to the current time. . It is assumed that the amount of change holds a total of six parameters including three parameters of the size (height / width / depth) of the bounding box and three parameters of the position. Finally, the acquired outline shape of the conveyed article 15 at the current time and the value of the amount of change are output to the determination unit 1160.

S260では、決定部1160が、運搬物情報取得部1120が推定した運搬物15の概略形状と、保持部1150が保持する占有格子マップとに基づき、障害物を避けつつ目標位置姿勢へ向かうような移動体の制御値を決定する。本実施形態では、これに加えて、運搬物情報取得部1120が取得した運搬物15の形状と位置の変化量に基づいて、制御値を決定する。実施形態1に記載した処理により移動体の制御値を決定した後、さらに、運搬物情報取得部1120が取得した運搬物15の形状と位置の変化量に基づいて、移動体の最終的な制御値を決定する。   In S260, based on the schematic shape of the cargo 15 estimated by the cargo information acquisition unit 1120 and the occupancy grid map held by the holding unit 1150, the determination unit 1160 moves toward the target position and posture while avoiding obstacles. Determine the control value of the moving object. In the present embodiment, in addition to this, the control value is determined based on the amount of change in the shape and position of the conveyed article 15 acquired by the conveyed article information acquiring unit 1120. After the control value of the moving object is determined by the processing described in the first embodiment, final control of the moving object is further performed based on the amount of change in the shape and position of the conveyed object 15 acquired by the conveyed object information acquiring unit 1120. Determine the value.

具体的には、運搬物の概略形状および位置の変化量をチェックし、両者およびどちらか一方が所定以上の量で変化が発生している場合、運搬物の崩れやズレが発生しているものとして、移動体の速度を減速させる或いは停止させるように制御値を取得する。一方で、運搬物の変化量が0または小さい場合には、安定的に運搬物を運搬できているものとして、実施形態1におけるS160記載の方法で取得した制御値をそのまま用いる。また、運搬物の変化量が、運搬物の崩れやズレが発生するほど大きくないが、変化量が0とみなせるほど小さくない場合には、運搬物に揺れが発生しているものとして、揺れの範囲を判別して、制御値を取得する。具体的には、運搬物15の概略形状を表す3次元バウンディングボックスと、運搬物の形状と位置の変化量とを足し合わせ、最大揺れ幅を包括するような運搬物の概略形状を求める。それに基づいて、S160で述べた移動体全体の概略形状を取得し、制御値を決定する。決定した制御値は、アクチュエータ部130へ出力する。   More specifically, the amount of change in the general shape and position of the conveyed goods is checked, and if both or either of them has been changed by a predetermined amount or more, the conveyed goods have collapsed or shifted. To obtain a control value so as to reduce or stop the speed of the moving object. On the other hand, when the change amount of the conveyed object is 0 or small, it is assumed that the conveyed object is stably conveyed, and the control value acquired by the method described in S160 in the first embodiment is used as it is. If the amount of change in the conveyed object is not large enough to cause collapse or displacement of the conveyed object, but not so small that the amount of change can be regarded as 0, it is determined that the conveyed object is shaking. Determine the range and obtain the control value. Specifically, the three-dimensional bounding box representing the schematic shape of the transported object 15 and the amount of change in the shape and the position of the transported object are added to obtain a schematic shape of the transported object that covers the maximum swing width. Based on this, the general shape of the entire moving body described in S160 is obtained, and the control value is determined. The determined control value is output to the actuator unit 130.

S470では、システムを終了するか否か判定する。具体的には、実施形態1のS170と同様に、保持部1150が保持する目的地座標と位置姿勢情報取得部1140が取得した環境センサ120の位置姿勢とのユークリッド距離が所定の閾値(例えば1m)以下であれば、目的地に到着したとして終了する。そうでなければS120に戻り処理を続ける。   In S470, it is determined whether to end the system. Specifically, similarly to S170 of the first embodiment, the Euclidean distance between the destination coordinates held by the holding unit 1150 and the position and orientation of the environment sensor 120 acquired by the position and orientation information acquisition unit 1140 is a predetermined threshold (for example, 1 m). If it is below, it is determined that the vehicle has arrived at the destination, and the processing ends. Otherwise, the process returns to S120 to continue the processing.

以上、実施形態3では、運搬物の形状と位置を毎フレーム計測・トラッキングを行い、その変化量を取得し、変化量に応じて運搬物のズレや崩れなどの状態変化を判別して移動体の制御を変更する方法について述べた。運搬物に状態変化があるような場合には、移動体を停止する、最大速度を制限する、といった制御や、運搬物の揺れ幅をも考慮に入れた移動体と環境との接触計算に基づいて制御を行う。これにより、運搬物の崩れやズレ、揺れといった時間的変化を考慮した安全な移動体制御が可能になる。   As described above, in the third embodiment, the shape and position of the conveyed object are measured and tracked for each frame, the amount of change is obtained, and a state change such as displacement or collapse of the conveyed object is determined according to the amount of change. How to change the control of the said. In the case of a change in the state of the transported object, it is based on control such as stopping the moving object, limiting the maximum speed, and calculating the contact between the moving object and the environment taking into account the swing width of the transferred object. Control. As a result, it is possible to safely control the moving body in consideration of temporal changes such as collapse, displacement, and shaking of the transported object.

(変形例3−1)
本実施形態では、決定部1160において、運搬物15の形状と位置の変化量に応じて、移動体の制御値を決定していたが、これに限るものではない。例えば、変化量に応じて、運搬物の崩れやズレの発生を判別したときに、制御値を取得する代わりに、不図示のアラームを鳴らして、異常を外部に示す。または、不図示のランプを点灯させて、異常を示す。または、移動体管理システム13に通信し、異常が発生したことをシステムに知らせる。
(Modification 3-1)
In the present embodiment, the determination unit 1160 determines the control value of the moving object according to the amount of change in the shape and the position of the transported object 15, but is not limited thereto. For example, when the occurrence of collapse or displacement of the conveyed object is determined in accordance with the amount of change, instead of acquiring a control value, an alarm (not shown) is sounded to indicate the abnormality to the outside. Alternatively, an abnormality is indicated by lighting a lamp (not shown). Alternatively, it communicates with the mobile management system 13 to notify the system that an abnormality has occurred.

(実施形態4)
実施形態1から3に共通して適用できるUIについて説明する。撮像装置が取得した視覚情報や、取得部が取得した位置姿勢、物体の検出結果、マップ情報などをユーザが確認することを説明する。また、AGVは自動制御で動くためユーザの入力により制御することを説明する。ユーザがAGVの状況を確認できるよう、AGVを制御することもできるように、表示装置として例えばディスプレイにGUIを表示し、マウスやタッチパネルといった入力装置によりユーザからの操作を入力する。なお、本実施形態において、ディスプレイはAGVに搭載されているものとしているが、このような構成に限るものではない。つまり、通信I/F(H17)を介して、ユーザの持つモバイル端末のディスプレイを表示装置として用いる、移動体管理システムに接続された液晶ディスプレイを表示装置として用いる。AGVに搭載されている表示装置を用いる場合でも、AGVに搭載されていない表示装置を用いる場合でも、表示情報は、情報処理装置で生成することができる。また、AGVに搭載されていない表示装置を用いる場合には、表示装置に付随する計算機が、情報処理装置から表示情報の生成に必要な情報を取得し表示情報を生成してもよい。
(Embodiment 4)
A UI that can be commonly applied to the first to third embodiments will be described. A description will be given of how a user checks visual information acquired by an imaging device, position and orientation acquired by an acquisition unit, object detection results, map information, and the like. In addition, it will be described that the AGV is controlled by a user input because the AGV is operated by automatic control. For example, a GUI is displayed on a display as a display device so that the user can control the AGV so that the user can check the status of the AGV, and inputs an operation from the user using an input device such as a mouse or a touch panel. In the present embodiment, the display is mounted on the AGV, but is not limited to such a configuration. That is, a liquid crystal display connected to the mobile object management system, which uses the display of the mobile terminal of the user as a display device, is used as the display device via the communication I / F (H17). The display information can be generated by the information processing device regardless of whether a display device mounted on the AGV is used or a display device not mounted on the AGV. When a display device not mounted on the AGV is used, a computer attached to the display device may acquire information necessary for generating display information from the information processing device and generate the display information.

実施形態4における装置の構成は、図3の機能構成に加え、図10に示すような生成部1170を有する。生成部1140は、運搬物センサ110が取得した運搬物画像、位置姿勢情報取得部1140が取得した移動体の位置姿勢、環境センサ120が取得した画像、第1取得部が計測した運搬物の情報、決定部1160が取得した制御値に基づいて表示情報を生成する。さらに、表示部140は、生成された表示情報を、AGVに搭載したタッチパネルディスプレイ等に表示する。なお、表示情報の詳細については後述する。   The configuration of the apparatus according to the fourth embodiment includes a generation unit 1170 as shown in FIG. 10 in addition to the functional configuration of FIG. The generation unit 1140 includes a conveyed object image acquired by the conveyed object sensor 110, a position and orientation of the moving object acquired by the position and orientation information acquisition unit 1140, an image acquired by the environment sensor 120, and information on the object measured by the first acquisition unit. , And generates display information based on the control value acquired by the determining unit 1160. Further, display unit 140 displays the generated display information on a touch panel display or the like mounted on the AGV. The details of the display information will be described later.

図9に、本実施形態における表示装置が提示する表示情報の一例であるGUI100を示す。G110は2次元の占有格子マップを提示するためのウィンドウである。G120は保持部1150が保持する3次元占有格子マップを提示するためのウィンドウである。G130は環境センサ120が取得した画像を提示するためのウィンドウである。G140は運搬物センサ110が取得した画像を提示するためのウィンドウである。また、G150は、位置姿勢情報取得部1140が取得した位置及び姿勢や、運搬物情報取得部1120が計測した運搬物15の情報、決定部1160が決定した制御値に関する表示情報を提示するためのウィンドウである。   FIG. 9 illustrates a GUI 100 that is an example of display information presented by the display device according to the present embodiment. G110 is a window for presenting a two-dimensional occupancy grid map. G120 is a window for presenting the three-dimensional occupancy grid map held by the holding unit 1150. G130 is a window for presenting the image acquired by the environment sensor 120. G140 is a window for presenting the image acquired by the conveyed object sensor 110. G150 is for presenting the position and orientation acquired by the position and orientation information acquisition unit 1140, the information on the conveyed object 15 measured by the conveyed object information acquisition unit 1120, and the display information on the control value determined by the determination unit 1160. It is a window.

G110は、保持部1150が保持する3次元占有格子マップを床面平面に射影した、2次元の占有格子マップの提示例を示している。G111は、環境センサ120と運搬物センサ110を搭載したAGVである。G111は、運搬物センサ110が計測した運搬物15の概略形状に基づいて計算したAGVの概略形状が表示されている。位置姿勢情報取得部1140が、環境センサの位置姿勢(AGVの位置姿勢)に基づき2Dマップ上に合成する。G112は、警告アラートとして吹き出しを提示した例である。例えば、実施形態2に記載の方法により、運搬物情報取得部1120が取得した運搬物15の変化量に基づいて決定部1160が、運搬物の崩れやズレを検出した場合に、アラートを表示する。G113は、決定部1160が決定した制御値に基づき、AGVの進行予定ルートを矢印として提示した例である。図9においては、AGVはG114に提示した目的地に向かっている。このように、2DマップとAGVの位置、異常のアラート、ルートを提示することでユーザが容易にAGVの運行状況を把握することができる。なお、G111〜G114は色や線の太さ、形状を変えることでユーザがより容易に運行状況を把握できるようにしてよい。   G110 shows a presentation example of a two-dimensional occupancy grid map obtained by projecting the three-dimensional occupancy grid map held by the holding unit 1150 onto a floor plane. G111 is an AGV equipped with an environment sensor 120 and a carried object sensor 110. G111 indicates the outline shape of the AGV calculated based on the outline shape of the article 15 measured by the article sensor 110. The position and orientation information acquisition unit 1140 composes on the 2D map based on the position and orientation of the environment sensor (the position and orientation of the AGV). G112 is an example in which a balloon is presented as a warning alert. For example, according to the method described in the second embodiment, an alert is displayed when the determination unit 1160 detects collapse or displacement of a conveyed object based on the change amount of the conveyed object 15 obtained by the conveyed object information obtaining unit 1120. . G113 is an example in which the scheduled progress route of the AGV is presented as an arrow based on the control value determined by the determination unit 1160. In FIG. 9, the AGV is heading for the destination presented at G114. As described above, the user can easily grasp the operation status of the AGV by presenting the position of the AGV, the alert of the abnormality, and the route of the abnormality. G111 to G114 may be configured so that the user can more easily grasp the operation status by changing the color, the thickness of the line, and the shape.

G120は、保持部1150が保持する3次元の占有格子マップの提示例を示している。G121は、運搬物情報取得部1120が取得した運搬物15の概略形状を、AGVのモデル上に表示した様子である。G122は、運搬物15を含むAGVの概略形状に接触しうる範囲を抜き出す部分マップを表す表示例である。この範囲の3次元占有格子マップを床面平面に射影したものがG110である。このように、3次元占有格子マップを提示することで、環境中に存在する高さが異なる障害物と、AGVおよび運搬物との3次元的な接触具合を見ながら、ユーザは運行状況を把握することができる。   G120 indicates a presentation example of a three-dimensional occupancy grid map held by the holding unit 1150. G121 is a state in which the schematic shape of the conveyed article 15 acquired by the conveyed article information acquiring unit 1120 is displayed on an AGV model. G122 is a display example showing a partial map that extracts a range that can contact the schematic shape of the AGV including the transported object 15. G110 is a projection of the three-dimensional occupancy grid map in this range onto the floor plane. As described above, by presenting the three-dimensional occupancy grid map, the user can grasp the operation status while observing the three-dimensional contact state between the obstacles having different heights existing in the environment and the AGV and the transported object. can do.

G130は、環境センサ120が取得した画像の提示例を示している。G130のように、他のAGVの進行方向を矢印で表示してもよい。矢印の表示は、移動体管理システム13等から取得する情報に基づいて生成する。   G130 indicates a presentation example of an image acquired by the environment sensor 120. Like G130, the traveling direction of another AGV may be displayed by an arrow. The display of the arrow is generated based on information acquired from the mobile management system 13 or the like.

G140は、運搬物センサ110が取得した運搬物15を撮像する画像の提示例を示している。G141は、実施形態1で説明した、運搬物情報取得部1120が取得した運搬物15の概略形状と位置、および、運搬物の種類を表す情報の提示例である。また、G142は、実施形態2で説明した、運搬物15の形状・位置の変化量から求めた、運搬物の揺れ幅を含む、運搬物の概略形状を示す提示例である。ここでは、3軸に関する矢印を表示しているが、運搬物が存在する範囲をワイヤーフレームとして表示してもよい。これにより、運搬物のサイズと位置を含む、運搬物の状況をユーザが直感的に把握することができる。   G140 shows a presentation example of an image of the conveyed object 15 acquired by the conveyed object sensor 110. G141 is a presentation example of information indicating the schematic shape and position of the conveyed article 15 acquired by the conveyed article information acquiring unit 1120 and the type of the conveyed article described in the first embodiment. G142 is a presentation example showing the schematic shape of the conveyed object, including the swing width of the conveyed object, calculated from the amount of change in the shape and position of the conveyed object 15 described in the second embodiment. Here, the arrows regarding the three axes are displayed, but the range in which the conveyed object exists may be displayed as a wire frame. This allows the user to intuitively grasp the status of the transported item, including the size and position of the transported item.

G150は、AGVを人手で操作するためのGUIや、位置姿勢情報取得部1140が取得するAGVの位置姿勢や決定部1160が決定した制御値、AGVの目標の位置及び姿勢の提示例を示している。G151は緊急停止ボタンであり、ユーザはこのボタンに指で触れることでAGVの移動を停止させることができる。G152はマウスカーソルであり、不図示のマウスやコントローラ、タッチパネルを通したユーザのタッチ動作に従ってカーソルを移動させることができ、ボタンを押下することでGUI内のボタンやラジオボタンを操作することができる。G153はAGVのコントローラを提示した例である。ユーザはコントローラの内部の円を上下左右に移動させることで、それらの入力に応じたAGVの前後左右の動作を行うことができる。G154はAGVの内部状態を提示した例である。AGVが自動走行しており、秒速0.5m/sで動作している状態を例として図示した。また、AGVが走行を開始してからの時間、目的地までにかかる残りの時間、予定に対する到着予想時刻の差といった目標の位置及び姿勢も合わせて提示した。G156はAGVの動作や表示情報の設定を行うためのGUIである。マップ情報を生成するか否か、検出した物体を提示するか否かといった操作をユーザが行うことができる。G157はAGVの目標の位置及び姿勢を提示した例である。第2取得部1140が取得した位置姿勢や、移動体管理システム13から受信した目的地座標、AGVが運搬している物品名を提示した例である。このように、目標の位置及び姿勢を提示する、ユーザからの入力に係るGUIを提示することで、より直感的にAGVを運用できるようになる。   G150 indicates a GUI for manually operating the AGV, a position and orientation of the AGV acquired by the position and orientation information acquisition unit 1140, a control value determined by the determination unit 1160, and a presentation example of a target position and orientation of the AGV. I have. G151 is an emergency stop button, and the user can stop the movement of the AGV by touching this button with a finger. G152 is a mouse cursor, which can be moved according to a user's touch operation through a mouse, controller, or touch panel (not shown), and a button or radio button in the GUI can be operated by pressing a button. . G153 is an example in which an AGV controller is presented. By moving the circle inside the controller up, down, left, and right, the user can perform the front, rear, left, and right operations of the AGV according to those inputs. G154 is an example in which the internal state of the AGV is presented. The state where the AGV is running automatically and operating at a speed of 0.5 m / s per second is shown as an example. In addition, the target position and attitude, such as the time since the AGV started running, the remaining time required to reach the destination, and the difference between the expected arrival time and the expected time, were also presented. G156 is a GUI for setting the operation of the AGV and the display information. The user can perform operations such as whether to generate map information and whether to present a detected object. G157 is an example in which the target position and orientation of the AGV are presented. This is an example in which the position and orientation acquired by the second acquisition unit 1140, the destination coordinates received from the moving object management system 13, and the name of the article carried by the AGV are presented. As described above, by presenting the GUI related to the input from the user, which indicates the target position and orientation, the AGV can be operated more intuitively.

図11を用いて情報処理装置が実行する処理を説明する。S565では、生成部1170が、撮像された画像、運搬物情報取得部1120が取得した運搬物の形状、位置姿勢情報取得部1140が取得した移動体の位置姿勢、決定部1160が決定した制御値または占有格子マップの何れかに基づいて、表示情報を生成する。そして、表示情報を表示部140に出力する。   The processing executed by the information processing apparatus will be described with reference to FIG. In step S565, the generation unit 1170 controls the captured image, the shape of the conveyed object obtained by the conveyed object information obtaining unit 1120, the position and orientation of the moving object obtained by the position and orientation information obtaining unit 1140, and the control value determined by the determining unit 1160. Alternatively, display information is generated based on any of the occupancy grid maps. Then, the display information is output to the display unit 140.

実施形態4では、撮像された画像、運搬物情報取得部1120が取得した運搬物の形状、位置姿勢情報取得部1140が取得した移動体の位置姿勢、決定部1160が決定した制御値または占有格子マップの何れかに基づいて、表示情報を生成する。これによりユーザが容易に本情報処理装置の状態を確認することができる。また、AGVの制御値や各種パラメータ、表示モード等をユーザが入力する。これにより手軽にAGVの各種設定を変更したり移動させたりすることができる。このように、GUIを提示することで手軽にAGVを運用することができるようになる。   In the fourth embodiment, the captured image, the shape of the conveyed object obtained by the conveyed object information obtaining unit 1120, the position and orientation of the moving object obtained by the position and orientation information obtaining unit 1140, the control value or the occupation grid determined by the determining unit 1160 Display information is generated based on any of the maps. Thereby, the user can easily confirm the state of the information processing apparatus. Further, the user inputs the control value of the AGV, various parameters, the display mode, and the like. Thus, various settings of the AGV can be easily changed or moved. As described above, by presenting the GUI, the AGV can be easily operated.

(実施形態5)
本実施形態では、移動体の目的地と運搬物の種類に基づいて、タスクを効率的に実行できる運搬量または移動経路をユーザに対してリコメンドする情報処理装置について説明する。通常、例えば、同じ荷物を数回(又は数台)に分けて搬送する場合、1回あたりのタスクでなるべく多くの荷物を積めば、タスクの総所要時間は短縮できる。しかし、環境によっては、運搬物が多くなった場合に走行できる経路が限定され、結果遠回りになって所要時間が増加してしまうことがある。つまり、所要時間を最小にするのに最適な運搬物の量や積み方は環境によって変化しうる。そこで、本実施形態では、荷物の大きさと環境の構造を考慮して、最適な運搬量と搬送経路の組合せをユーザに提示する。これによって、効率的に移動体を制御できる。
(Embodiment 5)
In the present embodiment, an information processing apparatus that recommends a user with a transport amount or a travel route that can efficiently execute a task based on a destination of a moving object and a type of a transported object will be described. Normally, for example, when the same luggage is transported several times (or several times), the total required time of the task can be reduced by loading as many luggage as possible per task. However, depending on the environment, the route that can be traveled when the number of items to be conveyed increases is limited, and as a result, the vehicle may be detoured and the required time may increase. In other words, the optimal amount and method of loading the cargo to minimize the required time can vary depending on the environment. Therefore, in the present embodiment, the optimal combination of the transport amount and the transport route is presented to the user in consideration of the size of the package and the structure of the environment. Thereby, the moving object can be controlled efficiently.

図12を用いて、情報処理装置10の機能構成例を説明する。なお、実施形態1と同様の機能構成については説明を省略する。   An example of a functional configuration of the information processing apparatus 10 will be described with reference to FIG. The description of the same functional configuration as in the first embodiment will be omitted.

タスク入力部(第3入力部)1200は、目的地の座標またはタスクで運ぶ運搬物の総量と大きさについて示すタスク情報を入力する。タスク情報に含まれる目的地の座標は、保持部1150が保持する制御マップと紐づけられるものとする。タスクで運ぶ運搬物の総量についてもタスク情報に含む。また、運搬物の1単位あたりの大きさを示す3次元形状データを示す運搬物情報は既知であるものとする。例えば、運搬物が立方体、横長の直方体であって、それを10単位だけ運搬することを示す。なお、1度の工程で移動体に運搬させる運搬量(例えば4単位分等)をユーザがUI等を使って入力してもよい。また、運搬物の積み方をユーザが指定してもよい。例えば、立方体の運搬物を4個移動体に搭載するとき、すべて平積みにするか、2×2で重ねるか、すべて上に重ねるか、といった積み方をユーザが入力する。   The task input unit (third input unit) 1200 inputs the coordinates of the destination or task information indicating the total amount and size of the goods to be carried by the task. The coordinates of the destination included in the task information are linked to the control map held by the holding unit 1150. The total amount of goods carried by the task is also included in the task information. Also, it is assumed that the cargo information indicating the three-dimensional shape data indicating the size per unit of the cargo is known. For example, it indicates that the conveyed object is a cube or a horizontally long rectangular parallelepiped, and that it is conveyed by 10 units. In addition, the user may input a transport amount (for example, for four units) to be transported to the moving body in one process using the UI or the like. In addition, the user may specify how to load the goods. For example, when four cubic goods are mounted on a moving object, the user inputs a method of stacking, such as flat stacking, 2 × 2 stacking, or all stacking.

候補取得部(第3取得部)1220は、タスク情報と制御用マップに基づいて、少なくとも1つ以上の運搬量と移動経路との組合せの候補を取得する。運搬量と移動経路との組み合わせの候補は例えば、次のような情報である。運搬量が4個で経路はルート1の組合せは、所要時間が50秒、運搬量が5個で経路はルート1の組合せは、所要時間が1分等。これらの情報は、運搬物の大きさや移動体の走行環境の構造を考慮し、運搬量と移動経路の組合せを取得する。なお、複数の運搬物を運ぶ場合は積み方によって形状が変化するため、積み方のバリエーションについても複数取得する。   The candidate acquiring unit (third acquiring unit) 1220 acquires at least one candidate of a combination of the transport amount and the moving route based on the task information and the control map. The candidate of the combination of the transport amount and the movement route is, for example, the following information. The combination of route 1 with a transport amount of 4 requires 50 seconds, and the combination of route 1 with a transport amount of 5 requires 1 minute. These pieces of information acquire the combination of the transport amount and the travel route in consideration of the size of the transported object and the structure of the traveling environment of the moving object. When a plurality of goods are carried, the shape changes depending on the method of stacking, and thus a plurality of variations of the method of stacking are also acquired.

生成部1270は、候補取得部1220で取得した候補をディスプレイ等に表示するための表示情報を生成する。ユーザに対して運搬量をリコメンドする場合は、例えば所要時間が最短である運搬量をリコメンドする。また、運搬量は固定で、積み方や経路の候補をリコメンドしてもよい。積み方をリコメンドする場合は、それぞれの積み方の候補(例えば平積み、重ねる等)に対して経路と所要時間を紐づける。経路をリコメンドする場合は、各経路の候補に対して、最適な運搬量または積み方を紐づける。例えば、背の低い運搬物や運搬物を平積みに対しては、天井が部分的に低い経路をリコメンドできる。天井は部分的に低い経路は、走行可能な移動体が限定されるため、複数の移動体同士の混雑が避けられる可能性がある。例えば、図13に示すようなGUIでこれらの情報をユーザに提示する。G160は、運搬物の搭載量(運搬量)に応じた運搬物の形状の推定値を示す画像である。例えば、運搬量が4個の場合は、図の斜線部のような形状で搭載されるものと仮定する。経路の候補は、この運搬物の形状を使って取得する。G171は、制御用マップに目的地(G172)と、運搬量の候補に対応したルートを示すマップである。マップは例えば前述の制御用マップ(占有格子マップ)である。ルートの一例として、R1は、通路の幅も高さも十分にあるルートである。R2は、高さは十分にあるものの、幅がR1より狭いルートである。R3は、通路の幅と高さが最も小さいルートである。G181は、運搬量の候補と、ルートの組合せを示すリストである。さらに運搬量とルートに対応した所要時間の予測値を表示する。   The generating unit 1270 generates display information for displaying the candidates acquired by the candidate acquiring unit 1220 on a display or the like. When recommending the transport amount to the user, for example, the transport amount with the shortest required time is recommended. In addition, the transport amount may be fixed, and a method of loading or a route candidate may be recommended. When recommending the stacking method, the route and the required time are associated with each stacking method candidate (for example, flat stacking, stacking, etc.). When recommending a route, an optimal carrying amount or loading method is linked to each route candidate. For example, for a short product or a flat product, a route with a partially lower ceiling can be recommended. In a route where the ceiling is partially low, the movable bodies that can travel are limited, and congestion among a plurality of movable bodies may be avoided. For example, such information is presented to the user in a GUI as shown in FIG. G160 is an image showing the estimated value of the shape of the conveyed object according to the carried amount (conveyed amount) of the conveyed object. For example, when the transport amount is four, it is assumed that it is mounted in a shape as indicated by the hatched portion in the figure. A route candidate is obtained using the shape of the conveyed article. G171 is a map indicating a destination (G172) in the control map and a route corresponding to the candidate of the transport amount. The map is, for example, the above-described control map (occupancy grid map). As an example of the route, R1 is a route having a sufficient width and height of the passage. R2 is a route that is sufficiently high but narrower than R1. R3 is the route with the smallest width and height of the passage. G181 is a list indicating combinations of transport amount candidates and routes. Furthermore, the predicted value of the required time corresponding to the transport amount and the route is displayed.

決定部1260は、運搬量と移動経路との組み合わせの候補から所定の基準に基づいて制御値を決定する。所定の基準とは、例えば、所要時間が最短な組合せ決定するといった基準である。ユーザによる指示に従って、制御値を決定してもよい。もしくは、ユーザが、図13のG181のようなリストから、好ましい運搬量とルートの組合せを選択することによって、制御値を決定してもよい。必要に応じて、運搬物情報取得部1120から、実際に積み込まれた運搬物についての情報(第1情報)との整合性から、制御値を決定する。   The determination unit 1260 determines a control value based on a predetermined criterion from a candidate combination of the transport amount and the movement route. The predetermined criterion is, for example, a criterion for determining a combination that requires the shortest time. The control value may be determined according to an instruction from the user. Alternatively, the user may determine the control value by selecting a preferable combination of the transport amount and the route from a list such as G181 in FIG. If necessary, the control value is determined based on the consistency with the information (first information) on the actually loaded cargo from the cargo information acquisition unit 1120.

図14を用いて、情報処理システム1が実行する処理について説明する。S1410では、情報処理システム1が、移動体の現在位置、運搬物情報、制御用マップ、タスク情報を初期化する。S1420では、タスク入力部1200が、目的地の座標またはタスクで運ぶ運搬物の総量と大きさについて示すタスク情報を入力する。ここでは、ユーザによって目的地の座標がタスク入力部1200に入力されるものとする。工程管理システム14から、図示しない通信部によって目的地の情報を取得してもよい。また、ここで運搬物の総量を示すタスク情報を入力する。S1430では、候補取得部1220が、タスク情報と制御用マップに基づいて、少なくとも1つ以上の運搬量と移動経路の組合せを取得する。まず、S1410で取得した運搬物情報に基づいて、移動体に搭載可能な運搬物の量を推定する。運搬物情報とは、運搬物1単位あたりの3次元形状データである。なお、移動体の荷台の3次元形状は既知であるものとする。候補取得部1220は、移動体の荷台の3次元形状と運搬物1単位あたりの3次元形状に基づいて、最大運搬量を推定する。さらに、運搬物の量(運搬物1単位から最大運搬量毎)に応じて、運搬物の積み方とその形状を推定する。推定された3次元形状から、タスク情報と制御用マップとに基づいて、運搬物をXだけ搬送する移動体が走行可能な経路を推定する。そして、その経路を走行する所要時間を取得する。S1440では、生成部1270が、候補取得部1220で取得した組合せ、具体的には移動経路をディスプレイ等に表示する表示情報を生成する。例えば、運搬物を積んだ場合の見え方を推定した画像や、移動体の現在地から目的地までの移動経路を表示する。S1450では、決定部1260が、運搬量と移動経路との組み合わせの候補から所定の基準に基づいて制御値を決定する。ある運搬量に対して複数の候補があった場合、その中から所定の条件を満たす運搬量を決定する。例えば、最短時間で走行できる経路を移動体に走行させたい場合は、条件を時間にして、タスクの総所要時間が最小になる運搬量と経路の組合せを決定する。決定された運搬量と移動経路に基づいて制御値を求める。なお、ユーザによる入力に従って、G181で示された組合せ候補の中から運搬量または経路を決定してもよい。S1460では、運搬物センサ110が、移動体に搭載された運搬物を撮像する。S1470では、運搬物情報取得部が、S1460で運搬物を撮像した画像に基づいて運搬物情報(第1情報)を取得する。S1480では、運搬物情報取得部が、第1情報と、決定された運搬物と制御値との組合せとを比較して、S1450で決定された運搬物が載せられているか確認する。指定された運搬物が正しく載せられていることを確認できた場合は、S1490に進む。決定した運搬物の量と、第1情報から得られた運搬物の量とに所定の値(例えば運搬物1単位より多い又は少ない)より大きい差があった場合は、S1450に戻る。S1490では、アクチュエータ部130が、決定された経路に対応する制御値に従って、移動体を走行させる。以上に述べた処理によって、移動体に載せる運搬物の量と経路を適切に組み合わせることができるため、効率的に移動体を制御できる。   The processing executed by the information processing system 1 will be described with reference to FIG. In S1410, the information processing system 1 initializes the current position of the moving object, the information on the transported goods, the control map, and the task information. In S1420, the task input unit 1200 inputs the coordinates of the destination or the task information indicating the total amount and size of the goods to be carried by the task. Here, it is assumed that the coordinates of the destination are input to the task input unit 1200 by the user. The destination information may be acquired from the process management system 14 by a communication unit (not shown). Here, the user inputs task information indicating the total amount of the goods. In S1430, the candidate acquiring unit 1220 acquires at least one or more combinations of the transport amount and the movement route based on the task information and the control map. First, the amount of the load that can be mounted on the moving object is estimated based on the load information acquired in S1410. The cargo information is three-dimensional shape data per unit of the cargo. It is assumed that the three-dimensional shape of the bed of the moving body is known. The candidate acquiring unit 1220 estimates the maximum transport amount based on the three-dimensional shape of the carrier of the moving object and the three-dimensional shape per unit of the transported object. Further, according to the amount of the conveyed goods (from one unit of the conveyed goods to each maximum conveyed amount), the method of stacking the conveyed goods and its shape are estimated. From the estimated three-dimensional shape, a route on which a moving object that carries the conveyed object by X is estimated based on the task information and the control map. Then, the required time for traveling on the route is acquired. In S1440, the generation unit 1270 generates display information for displaying the combination acquired by the candidate acquisition unit 1220, specifically, the movement route on a display or the like. For example, an image that estimates the appearance of a loaded object or a moving route from the current position of the moving object to the destination is displayed. In S1450, determination unit 1260 determines a control value based on a predetermined criterion from candidates for the combination of the transport amount and the movement route. When there are a plurality of candidates for a certain transport amount, a transport amount satisfying a predetermined condition is determined from the candidates. For example, if the user wants the mobile to travel on a route that can be traveled in the shortest time, the condition is set to time, and a combination of the transport amount and the route that minimizes the total required time of the task is determined. A control value is obtained based on the determined transport amount and the moving route. It should be noted that the transport amount or the route may be determined from the combination candidates indicated by G181 according to the input by the user. In S1460, the load sensor 110 captures an image of the load mounted on the moving object. In S1470, the transported article information acquisition unit acquires transported article information (first information) based on the image of the transported article captured in S1460. In S1480, the cargo information acquisition unit compares the first information with the determined combination of the cargo and the control value, and checks whether the cargo determined in S1450 is loaded. If it can be confirmed that the designated transported article is correctly placed, the process proceeds to S1490. If there is a difference between the determined amount of the load and the amount of the load obtained from the first information that is larger than a predetermined value (for example, more or less than one unit of the load), the process returns to S1450. In S1490, actuator section 130 causes the moving body to travel according to the control value corresponding to the determined route. By the processing described above, the amount and the route of the goods to be loaded on the moving body can be appropriately combined, so that the moving body can be efficiently controlled.

(その他の変形例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other modifications)
The present invention supplies a program for realizing one or more functions of the above-described embodiments to a system or an apparatus via a network or a storage medium, and one or more processors in a computer of the system or the apparatus read and execute the program. This processing can be realized. Further, it can also be realized by a circuit (for example, an ASIC) that realizes one or more functions.

本発明における環境画像入力部は、移動体に搭載されたセンサが取得する周囲環境の情報を入力するものであればいかなるものでもよい。入力する周囲環境の情報とは、通常の画像や視差画像、画像の各画素に奥行き値が格納されたデプスマップ、撮像装置に対するシーンの点の三次元座標を保持するポイントクラウドの少なくともどれか一つ、または複数のことである。これに加え、LiDARやTOFカメラなどの三次元計測装置の計測した三次元情報や、通信I/Fを介して移動体管理システムから受信する移動体の目標の位置及び姿勢や移動体の位置姿勢を入力してもよい。合わせて、焦点距離、レンズ中心、レンズ歪みなどの撮像装置のパラメータを情報処理装置に入力することもできる。   The environment image input unit according to the present invention may be any unit that inputs information on the surrounding environment acquired by a sensor mounted on a moving object. The input surrounding environment information is at least one of a normal image, a parallax image, a depth map in which a depth value is stored in each pixel of the image, and a point cloud that holds three-dimensional coordinates of scene points with respect to the imaging device. One or more. In addition to this, three-dimensional information measured by a three-dimensional measuring device such as a LiDAR or a TOF camera, a target position and a posture of the moving object received from the moving object management system via the communication I / F, and a position and posture of the moving object May be entered. In addition, parameters of the imaging device such as the focal length, the lens center, and the lens distortion can be input to the information processing device.

本発明における位置姿勢情報取得部は、環境画像入力部により入力された周囲環境の情報を用いて移動体の位置姿勢を取得するものであれば、いかなるものでもよい。環境中のシーンを表す3次元点群と環境画像入力手段により入力されたデプスマップとを用いてICPアルゴリズムに基づいて取得してもよいし、濃淡画像からSLAM技術を利用して求めてもよい。また、Wi−Fi通信の通信状況や、環境内に設置されているビーコンを併用して位置姿勢を求めても良い。   The position and orientation information acquisition unit in the present invention may be any unit as long as it acquires the position and orientation of the moving body using the information on the surrounding environment input by the environment image input unit. It may be obtained based on an ICP algorithm using a three-dimensional point group representing a scene in an environment and a depth map input by an environment image input unit, or may be obtained from a grayscale image using a SLAM technique. . Further, the position and orientation may be obtained by using the communication status of Wi-Fi communication and the beacon installed in the environment.

本発明における保持部は、移動体を制御するために参照するための制御用マップを保持する限り、いかなるものでもよい。制御用マップとしては、環境の構造や空間を表現するものであればどのようなものであってもよい。例えば、シーンを格子状に区切り、各格子に障害物が存在する確率を保持した占有格子マップなどである。占有格子マップは、世界座標系における3次元のボクセル空間(X,Y,Z)として保持してもよいし、高さ方向の情報を除いた2次元のグリッド空間(X,Y)として保持してもよい。あるいは、位置姿勢推定用マップと同様に、例えば、三次元点群データ(と色情報との組み合わせ)、キーフレームデータ(環境内の位置姿勢に紐づいたデプスマップと色情報の組み合わせ)の集合、環境の三次元モデルなどを用いてもよい。   The holding unit in the present invention may be any holding unit as long as it holds a control map to be referred to for controlling the moving object. The control map may be any map that represents the structure and space of the environment. For example, an occupancy grid map that divides a scene into grids and holds the probability that an obstacle exists in each grid. The occupancy grid map may be held as a three-dimensional voxel space (X, Y, Z) in the world coordinate system, or may be held as a two-dimensional grid space (X, Y) excluding height information. You may. Alternatively, similarly to the position and orientation estimation map, for example, a set of three-dimensional point group data (combination with color information) and key frame data (combination of depth map and color information linked to the position and orientation in the environment) Alternatively, a three-dimensional model of the environment may be used.

本発明における運搬物画像入力部は、移動体により運搬される運搬物の形状及び/もしくは位置及び/もしくは物体種類情報を入力する限り、いかなるものでもよい。運搬物の形状としては、例えば、運搬物の3次元バウンディングボックス(重心位置を表す3パラメータ、バウンディングボックスのサイズを表す3パラメータ)により表現される概略形状情報である。また、三次元点群データ(と色情報との組み合わせ)や3次元メッシュデータなどで表現してもよい。また、制御用マップと同様に占有格子マップとして表現してもよい。   The transported object image input unit according to the present invention may be of any type as long as the shape and / or position and / or object type information of the transported object transported by the moving object is input. The shape of the conveyed item is, for example, general shape information expressed by a three-dimensional bounding box (three parameters indicating the position of the center of gravity and three parameters indicating the size of the bounding box) of the conveyed item. Further, it may be represented by three-dimensional point cloud data (combination of color information) and three-dimensional mesh data. Moreover, you may represent as an occupancy grid map like a control map.

本発明における決定部は、移動体の移動を制御する制御値を決定する限り、いかなるものでもよい。例えば、保持部に保持された占有格子マップと、第1入力部により入力された運搬物形状に基づいて、運搬物と周囲環境とが接触しないような制御値を決定する。制御値の決定にあたっては、運搬物と周囲環境とが接触する可能性がある範囲の制御用マップを判別して抜き出すことで制御値を決定する。或いは、3次元の制御用マップを床面平面に射影した2次元の制御用マップを用いて制御値を決定する。   The determining unit in the present invention may be any unit as long as it determines a control value for controlling the movement of the moving object. For example, based on the occupancy grid map held by the holding unit and the shape of the load input by the first input unit, a control value is determined so that the load does not contact the surrounding environment. In determining the control value, the control value is determined by determining and extracting a control map in a range where there is a possibility that the conveyed object may come into contact with the surrounding environment. Alternatively, the control value is determined using a two-dimensional control map obtained by projecting the three-dimensional control map onto the floor plane.

本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、データ通信用のネットワーク又は各種記憶媒体を介してシステム或いは装置に供給する。そして、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。また、そのプログラムをコンピュータが読み取り可能な記録媒体に記録して提供してもよい。   The present invention is also realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or an apparatus via a data communication network or various storage media. Then, the computer (or CPU, MPU, or the like) of the system or apparatus reads out and executes the program. Further, the program may be provided by being recorded on a computer-readable recording medium.

12 移動体システム
15 運搬物
12 Mobile system 15 Cargo

Claims (20)

運搬物を運搬する移動体の位置を制御する制御値を決定する情報処理装置であって、
前記運搬物を撮像した第1の画像に基づいて前記運搬物の3次元形状を特定可能な第1の情報と、前記移動体が移動する環境を撮像した第2の画像に基づいて前記環境における物体と前記移動体との距離を特定可能な第2の情報とを取得する取得手段と、
前記第1の情報と前記第2の情報に基づいて、前記運搬物と前記物体とが所定の距離より近づくことを抑制する前記制御値を決定する決定手段とを有することを特徴とする情報処理装置。
An information processing device that determines a control value for controlling a position of a moving object that conveys a load,
The first information that can specify the three-dimensional shape of the transported object based on the first image of the transported object, and the second image that captures the environment in which the moving object moves, Acquiring means for acquiring second information capable of specifying a distance between an object and the moving body;
Information processing means for determining, based on the first information and the second information, the control value for preventing the conveyed object and the object from approaching more than a predetermined distance. apparatus.
前記取得手段は、前記画像を入力として、前記運搬物の大きさを出力する学習済みモデルに基づいて、前記第1情報を取得することを特徴とする請求項1に記載の情報処理装置。   2. The information processing apparatus according to claim 1, wherein the obtaining unit obtains the first information based on a learned model that outputs the size of the conveyed object using the image as an input. 3. 前記取得手段は、前記第2の画像に基づいて前記移動体の位置を取得し、
前記決定手段は、前記移動体の位置から予め定められた目的地の位置に到達するための前記制御値を決定することを特徴とする請求項1または2に記載の情報処理装置。
The obtaining means obtains a position of the moving body based on the second image,
The information processing apparatus according to claim 1, wherein the determining unit determines the control value for reaching a predetermined destination position from the position of the moving body.
前記第1の情報は、前記運搬物の高さ方向の大きさを示す情報であることを特徴とする請求項1乃至3のいずれか1項に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the first information is information indicating a size of the conveyed object in a height direction. 前記決定手段は、前記環境における走行経路上に存在する段差の高さに基づいて前記所定の距離を決定する請求項1乃至4のいずれか1項に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the determining unit determines the predetermined distance based on a height of a step existing on a traveling route in the environment. 前記第1の情報は、前記運搬物が前記移動体から幅方向にはみ出した大きさを示す情報であることを特徴とする請求項1乃至5のいずれか1項に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the first information is information indicating a size of the conveyed material protruding from the moving body in a width direction. 前記第1の画像は、前記移動体に搭載された撮像装置によって撮像された画像であること特徴とする請求項1乃至6のいずれか1項に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the first image is an image captured by an imaging device mounted on the moving body. 前記第1の画像は、前記移動体と前記運搬物とを観測可能な位置に設置された撮像装置によって撮像された画像であることを特徴とする請求項1乃至6のいずれか1項に記載の情報処理装置。   7. The image according to claim 1, wherein the first image is an image captured by an imaging device installed at a position where the moving object and the transported object can be observed. 8. Information processing device. 前記第2の画像は、前記移動体に搭載された撮像装置によって撮像された画像であること特徴とする請求項1乃至8のいずれか1項に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the second image is an image captured by an imaging device mounted on the moving body. 前記環境において前記物体の位置を示すマップを保持する保持手段を更に有し、
前記決定手段は、前記マップに基づいて前記物体が存在しない経路を走行するように前記制御値を決定することを特徴とする請求項1乃至9のいずれか1項に記載の情報処理装置。
Further, holding means for holding a map indicating the position of the object in the environment,
The information processing apparatus according to claim 1, wherein the determining unit determines the control value based on the map such that the control value travels on a route where the object does not exist.
前記マップは、前記環境を3次元で表現したマップであって、
前記決定手段は、前記運搬物の高さに合わせて抽出された前記マップに基づいて、前記物体が存在しない経路を走行するように前記制御値を決定することを特徴とする請求項10に記載の情報処理装置。
The map is a map expressing the environment in three dimensions,
The said determination means determines the said control value based on the said map extracted according to the height of the said conveyed object so that it may drive | work on the path | route where the said object does not exist. Information processing device.
前記取得手段は、前記第1の画像に基づいて前記運搬物の種類を示す情報を取得し、
前記決定手段は、前記運搬物の種類を示す情報に基づいて前記運搬物の種類に応じた前記制御値を決定することを特徴とする請求項1乃至11のいずれか1項に記載の情報処理装置。
The acquiring means acquires information indicating a type of the conveyed article based on the first image,
The information processing apparatus according to claim 1, wherein the determining unit determines the control value according to the type of the conveyed article based on information indicating the type of the conveyed article. apparatus.
前記取得手段は、前記第1の画像の変化に従って前記第1情報を更新し、
前記決定手段は、更新された第1の情報に基づいて、前記運搬物の形状が変化した場合には前記運搬物の形状に応じた前記制御値を決定することを特徴とする請求項1乃至12のいずれか1項に記載の情報処理装置。
The acquiring means updates the first information according to a change in the first image,
The said determination means determines the said control value according to the shape of the said conveyed article, when the shape of the said conveyed article changes based on the updated 1st information. The information processing device according to any one of claims 12 to 12.
前記決定手段によって決定された前記制御値に基づいて、前記移動体の移動経路を示す表示情報を表示する表示手段を更に有することを特徴とする請求項1乃至13のいずれか1項に記載の情報処理装置。   14. The display device according to claim 1, further comprising a display unit configured to display display information indicating a moving route of the moving object based on the control value determined by the determining unit. Information processing device. 前記取得手段は、前記第1情報に基づいて、前記運搬物の高さに従って抽出された環境の3次元マップを更に取得し、
前記決定手段は、前記3次元マップに基づいて、前記制御値を決定することを特徴とする請求項1乃至14のいずれか1項に記載の情報処理装置。
The acquiring means further acquires a three-dimensional map of the environment extracted according to the height of the conveyed article, based on the first information,
The information processing apparatus according to claim 1, wherein the determining unit determines the control value based on the three-dimensional map.
運搬物を運搬する移動体の位置を制御する制御値を決定する情報処理装置であって、
前記移動体に搭載された撮像装置によって撮像された画像から推定された前記運搬物の3次元形状を特定可能な情報と、前記移動体が移動する環境のマップとに基づいて、前記運搬物の量と移動経路との組み合わせを取得する取得手段と、
前記組み合わせに基づいて、前記運搬物と前記環境における物体とが衝突しない前記移動経路を走行する前記制御値を決定する決定手段とを有することを特徴とする情報処理装置。
An information processing device that determines a control value for controlling a position of a moving object that conveys a load,
Based on information that can specify a three-dimensional shape of the article estimated from an image captured by an imaging device mounted on the moving object and a map of an environment in which the moving object moves, Acquisition means for acquiring a combination of the amount and the travel route;
An information processing apparatus, comprising: a determination unit configured to determine, based on the combination, the control value that travels on the movement route on which the transported object does not collide with an object in the environment.
運搬物を運搬する移動体の位置を制御する制御値を決定する情報処理装置であって、
前記運搬物を撮像した第1の画像に基づいて前記運搬物の3次元形状を特定可能な第1の情報と、前記移動体が移動する環境を撮像した第2の画像に基づいて前記環境における物体と前記移動体との距離を特定可能な第2の情報とを取得する取得手段と、
前記第1の情報と前記第2の情報に基づいて、前記運搬物と前記物体とが衝突しない経路を走行する前記制御値を決定する決定手段とを有することを特徴とする情報処理装置。
An information processing device that determines a control value for controlling a position of a moving object that conveys a load,
The first information that can specify the three-dimensional shape of the transported object based on the first image of the transported object, and the second image that captures the environment in which the moving object moves, Acquiring means for acquiring second information capable of specifying a distance between an object and the moving body;
An information processing apparatus, comprising: a determination unit configured to determine the control value for traveling on a route where the conveyed object does not collide with the object based on the first information and the second information.
コンピュータを、請求項1乃至17のいずれか1項に記載の情報処理装置が有する各手段として機能させるためのプログラム。   A program for causing a computer to function as each unit included in the information processing apparatus according to claim 1. 撮像装置と、運搬物を運搬する移動体の位置を制御する制御値を決定する情報処理装置を有する情報処理システムであって、
前記撮像装置は、前記移動体と前記運搬物とを観測可能な位置に設置されており、
前記情報処理装置は、
前記撮像装置によって前記運搬物を撮像した第1の画像に基づいて前記運搬物の3次元形状を特定可能な第1の情報を取得し、前記移動体が移動する環境を撮像した第2の画像に基づいて、前記環境における物体と前記移動体との距離を特定可能な第2の情報を取得する取得手段と、
前記第1の情報と前記第2の情報に基づいて、前記運搬物と、前記物体とが所定の距離より近づくことを抑制する制御値を決定する決定手段とを有することを特徴とする情報処理システム。
An image pickup apparatus and an information processing system having an information processing apparatus that determines a control value for controlling a position of a moving object that carries a conveyed object,
The imaging device is installed at a position where the moving body and the transported object can be observed,
The information processing device,
A second image that captures an environment in which the moving object moves by acquiring first information that can specify a three-dimensional shape of the load based on a first image obtained by capturing the load by the imaging device; Acquiring means for acquiring second information capable of specifying a distance between the object and the moving object in the environment, based on
An information processing apparatus comprising: a determination unit that determines, based on the first information and the second information, a control value that suppresses the transported object and the object from approaching a predetermined distance. system.
運搬物を運搬する移動体の位置を制御する制御値を決定する情報処理方法であって、
前記運搬物を撮像した第1の画像に基づいて前記運搬物の3次元形状を特定可能な第1の情報を取得し、前記移動体が移動する環境を撮像した第2の画像に基づいて、前記環境における物体と前記移動体との距離を特定可能な第2の情報を取得する取得工程と、
前記第1の情報と前記第2の情報に基づいて、前記運搬物と、前記物体とが所定の距離より近づくことを抑制する前記制御値を決定する決定工程とを有することを特徴とする情報処理方法。
An information processing method for determining a control value for controlling a position of a moving object that transports a load,
Obtaining first information capable of specifying the three-dimensional shape of the conveyed object based on the first image of the conveyed object, based on a second image of an environment in which the moving object moves, An obtaining step of obtaining second information capable of specifying a distance between the object and the moving body in the environment,
A step of determining, based on the first information and the second information, the control value for preventing the transported object and the object from approaching a predetermined distance. Processing method.
JP2019134500A 2018-08-30 2019-07-22 Information processing apparatus, information processing method, program, and system Pending JP2020038631A (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US16/550,074 US11573574B2 (en) 2018-08-30 2019-08-23 Information processing apparatus, information processing method, information processing system, and storage medium
CN201910801597.2A CN110928291B (en) 2018-08-30 2019-08-28 Information processing apparatus, information processing method, information processing system, and storage medium
DE102019123072.1A DE102019123072A1 (en) 2018-08-30 2019-08-28 Information processing device, information processing method, information processing system and storage medium
US18/153,787 US20230168686A1 (en) 2018-08-30 2023-01-12 Information processing apparatus, information processing method, information processing system, and storage medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018161414 2018-08-30
JP2018161414 2018-08-30

Publications (2)

Publication Number Publication Date
JP2020038631A true JP2020038631A (en) 2020-03-12
JP2020038631A5 JP2020038631A5 (en) 2022-07-28

Family

ID=69738113

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019134500A Pending JP2020038631A (en) 2018-08-30 2019-07-22 Information processing apparatus, information processing method, program, and system

Country Status (2)

Country Link
JP (1) JP2020038631A (en)
CN (1) CN110928291B (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111507973A (en) * 2020-04-20 2020-08-07 上海商汤临港智能科技有限公司 Target detection method and device, electronic equipment and storage medium
WO2022145081A1 (en) * 2020-12-28 2022-07-07 パナソニックIpマネジメント株式会社 Transport system, transport method, route information creation system, and route information creation method
WO2022190461A1 (en) * 2021-03-09 2022-09-15 パナソニックIpマネジメント株式会社 Luggage transport system and transport body
WO2022202056A1 (en) * 2021-03-22 2022-09-29 ソニーグループ株式会社 Information processing device, information processing method, and program
WO2024009673A1 (en) * 2022-07-06 2024-01-11 株式会社デンソー Vehicle travel device and vehicle travel program

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113673276A (en) * 2020-05-13 2021-11-19 广东博智林机器人有限公司 Target object identification docking method and device, electronic equipment and storage medium
JP7347349B2 (en) * 2020-07-07 2023-09-20 トヨタ自動車株式会社 Information processing device, information processing system, and information processing method
CN113496046A (en) * 2021-01-18 2021-10-12 图林科技(深圳)有限公司 E-commerce logistics system and method based on block chain
US11893668B2 (en) 2021-03-31 2024-02-06 Leica Camera Ag Imaging system and method for generating a final digital image via applying a profile to image information
CN117313984A (en) * 2023-08-31 2023-12-29 中国标准化研究院 Grain condition monitoring method, device and system

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0519848A (en) * 1991-07-17 1993-01-29 Toshiba Corp Unmanned carriage
JPH07315763A (en) * 1994-05-20 1995-12-05 Yaskawa Electric Corp Automatic operation control method for container
JP2008225704A (en) * 2007-03-09 2008-09-25 Omron Corp Work evaluation device, work evaluation method and control program
JP2010044530A (en) * 2008-08-11 2010-02-25 Hitachi Industrial Equipment Systems Co Ltd Transfer robot system
JP2012022467A (en) * 2010-07-13 2012-02-02 Murata Mach Ltd Autonomous mobile body
JP2015068141A (en) * 2013-09-30 2015-04-13 株式会社小松製作所 Transport machine
US9358975B1 (en) * 2015-04-10 2016-06-07 Google Inc. Virtual moving safety limits for vehicles transporting objects
WO2016103452A1 (en) * 2014-12-26 2016-06-30 株式会社日立製作所 Transport vehicle and transport system
JP2016218933A (en) * 2015-05-26 2016-12-22 株式会社日立産機システム Drive route setting system
JP2017097847A (en) * 2015-11-12 2017-06-01 株式会社東芝 Transport device, transport system and transport method

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1215611A4 (en) * 2000-02-14 2003-01-29 Canon Kk Collecting method by information processor, and ordering method or sale method
CN102332138A (en) * 2011-11-01 2012-01-25 安徽省一一通信息科技有限公司 Electronic commerce logistics system comprising irregular goods sorting system
CN102582599A (en) * 2012-03-07 2012-07-18 浙江吉利汽车研究院有限公司 Vehicle brake control system and vehicle emergency brake avoiding method
US10025314B2 (en) * 2016-01-27 2018-07-17 Hand Held Products, Inc. Vehicle positioning and object avoidance
CN106156752B (en) * 2016-07-25 2019-05-14 长安大学 A kind of model recognizing method based on inverse projection three-view diagram
CN107169468A (en) * 2017-05-31 2017-09-15 北京京东尚科信息技术有限公司 Method for controlling a vehicle and device

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0519848A (en) * 1991-07-17 1993-01-29 Toshiba Corp Unmanned carriage
JPH07315763A (en) * 1994-05-20 1995-12-05 Yaskawa Electric Corp Automatic operation control method for container
JP2008225704A (en) * 2007-03-09 2008-09-25 Omron Corp Work evaluation device, work evaluation method and control program
JP2010044530A (en) * 2008-08-11 2010-02-25 Hitachi Industrial Equipment Systems Co Ltd Transfer robot system
JP2012022467A (en) * 2010-07-13 2012-02-02 Murata Mach Ltd Autonomous mobile body
JP2015068141A (en) * 2013-09-30 2015-04-13 株式会社小松製作所 Transport machine
WO2016103452A1 (en) * 2014-12-26 2016-06-30 株式会社日立製作所 Transport vehicle and transport system
US9358975B1 (en) * 2015-04-10 2016-06-07 Google Inc. Virtual moving safety limits for vehicles transporting objects
JP2016218933A (en) * 2015-05-26 2016-12-22 株式会社日立産機システム Drive route setting system
JP2017097847A (en) * 2015-11-12 2017-06-01 株式会社東芝 Transport device, transport system and transport method

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111507973A (en) * 2020-04-20 2020-08-07 上海商汤临港智能科技有限公司 Target detection method and device, electronic equipment and storage medium
JP2022539093A (en) * 2020-04-20 2022-09-07 上海商▲湯▼▲臨▼港智能科技有限公司 Target detection method and device, electronic device, storage medium, and program
CN111507973B (en) * 2020-04-20 2024-04-12 上海商汤临港智能科技有限公司 Target detection method and device, electronic equipment and storage medium
WO2022145081A1 (en) * 2020-12-28 2022-07-07 パナソニックIpマネジメント株式会社 Transport system, transport method, route information creation system, and route information creation method
WO2022190461A1 (en) * 2021-03-09 2022-09-15 パナソニックIpマネジメント株式会社 Luggage transport system and transport body
WO2022202056A1 (en) * 2021-03-22 2022-09-29 ソニーグループ株式会社 Information processing device, information processing method, and program
WO2024009673A1 (en) * 2022-07-06 2024-01-11 株式会社デンソー Vehicle travel device and vehicle travel program

Also Published As

Publication number Publication date
CN110928291A (en) 2020-03-27
CN110928291B (en) 2023-10-13

Similar Documents

Publication Publication Date Title
US11573574B2 (en) Information processing apparatus, information processing method, information processing system, and storage medium
JP2020038631A (en) Information processing apparatus, information processing method, program, and system
JP7341652B2 (en) Information processing device, information processing method, program, and system
US11086328B2 (en) Autonomous cart for manufacturing and warehouse applications
Kwon et al. Robust autonomous navigation of unmanned aerial vehicles (UAVs) for warehouses’ inventory application
KR102107555B1 (en) Vehicle sensor trajectory planning
AU2021230331B2 (en) Robot obstacle collision prediction and avoidance
US11529736B2 (en) Systems, apparatuses, and methods for detecting escalators
US20210103296A1 (en) Unmanned aerial vehicle for inventory management and method of operating the same
CN112689844A (en) Pallet system for the transport of goods
Behrje et al. An autonomous forklift with 3d time-of-flight camera-based localization and navigation
WO2022115215A1 (en) Systems and methods for monocular based object detection
CN112631269A (en) Autonomous mobile robot and control program for autonomous mobile robot
KR102249485B1 (en) System and method for autonomously traveling mobile robot
Anand et al. Grid-based localization stack for inspection drones towards automation of large scale warehouse systems
WO2023219058A1 (en) Information processing method, information processing device, and information processing system
US20230373769A1 (en) Automated moving vehicle and control method thereof
US20230350420A1 (en) Systems and methods for precisely estimating a robotic footprint for execution of near-collision motions
US20230236600A1 (en) Operational State Detection for Obstacles in Mobile Robots
US20230324199A1 (en) Information processing apparatus, movable apparatus, information processing method, and storage medium
WO2022018826A1 (en) Moving body control system, control device, and moving body control method
WO2023230330A1 (en) System and method for performing interactions with physical objects based on fusion of multiple sensors
WO2023192311A1 (en) Segmentation of detected objects into obstructions and allowed objects
WO2023192270A1 (en) Validating the pose of a robotic vehicle that allows it to interact with an object on fixed infrastructure
CN117170362A (en) Material handling AGV dynamic autonomous navigation intelligent obstacle avoidance system based on machine vision

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220720

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220720

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230425

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230428

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230623

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231003

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231201

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20231213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240307

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240326