JP2021146403A - Control device and program - Google Patents

Control device and program Download PDF

Info

Publication number
JP2021146403A
JP2021146403A JP2020045226A JP2020045226A JP2021146403A JP 2021146403 A JP2021146403 A JP 2021146403A JP 2020045226 A JP2020045226 A JP 2020045226A JP 2020045226 A JP2020045226 A JP 2020045226A JP 2021146403 A JP2021146403 A JP 2021146403A
Authority
JP
Japan
Prior art keywords
article
priority
articles
control device
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020045226A
Other languages
Japanese (ja)
Inventor
華馨 鄭
hua xin Zheng
華馨 鄭
淳 松村
Jun Matsumura
淳 松村
優香 渡辺
Yuka Watanabe
優香 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Infrastructure Systems and Solutions Corp
Original Assignee
Toshiba Corp
Toshiba Infrastructure Systems and Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Infrastructure Systems and Solutions Corp filed Critical Toshiba Corp
Priority to JP2020045226A priority Critical patent/JP2021146403A/en
Publication of JP2021146403A publication Critical patent/JP2021146403A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide a control device and a program capable of efficiently moving articles.SOLUTION: A control device of an embodiment comprises a first connection part, a second connection part, and a control part. The first connection part is connected to a cargo handling device that grips an article placed on a loading part and moves the article. The second connection part is connected to an imaging device that images the loading part from above. The control part acquires an image imaged by the imaging device via the second connection unit; executes a recognition process for recognizing, from the acquired image, the article placed on the loading part; calculates a separation distance between the articles recognized in the recognition process; sets a priority for movement order of the articles on the basis of the separation distance; and controls the cargo handling device via the first connection part so as to move the articles in the order according to the priority.SELECTED DRAWING: Figure 3

Description

本発明の実施形態は、制御装置及びプログラムに関する。 Embodiments of the present invention relate to control devices and programs.

従来、ロボットアーム等の移動装置を用いることで荷物等の物品の荷役(移動)が行われている。例えば、移動対象の物品が置かれた場所を撮像することで得られた画像から物品の位置、形状及び姿勢を認識し、周囲がクリアな物品から順番に把持を行う技術が知られている。 Conventionally, cargo handling (movement) of goods such as luggage has been performed by using a moving device such as a robot arm. For example, there is known a technique of recognizing the position, shape, and posture of an article from an image obtained by imaging a place where an article to be moved is placed, and grasping the article in order from an article having a clear surrounding.

特開2011−73066号公報Japanese Unexamined Patent Publication No. 2011-73066

しかしながら、従来の技術では、把持対象(移動対象)の物品と当該物品の周囲に存在する他の物品との距離に基づき順番を決定するため、物品全体の位置関係を考慮することはできず、効率性の観点から更なる改善の余地がある。 However, in the conventional technique, since the order is determined based on the distance between the article to be gripped (moving object) and other articles existing around the article, the positional relationship of the entire article cannot be considered. There is room for further improvement in terms of efficiency.

本発明が解決しようとする課題は、物品の移動を効率的に行うことが可能な制御装置及びプログラムを提供することである。 An object to be solved by the present invention is to provide a control device and a program capable of efficiently moving an article.

実施形態の制御装置は、第1の接続部と、第2の接続部と、制御部とを備える。第1の接続部は、載置部に載置された物品を把持して当該物品の移動を行う荷役装置に接続される。第2の接続部は、前記載置部を上方から撮像する撮像装置に接続される。制御部は、前記撮像装置で撮像された画像を前記第2の接続部を介して取得し、取得した前記画像から前記載置部に載置された前記物品を認識する認識処理を実行し、前記認識処理で認識された前記物品の物品間の離間距離を算出し、前記離間距離に基づいて移動順序に係る優先度を前記物品に設定し、前記第1の接続部を介して前記荷役装置を制御することで、前記優先度に応じた順序で前記物品を移動させる。 The control device of the embodiment includes a first connection unit, a second connection unit, and a control unit. The first connecting portion is connected to a cargo handling device that grips the article placed on the mounting portion and moves the article. The second connecting portion is connected to an imaging device that images the above-mentioned mounting portion from above. The control unit acquires an image captured by the image pickup device via the second connection unit, executes a recognition process for recognizing the article placed on the above-described storage unit from the acquired image, and executes a recognition process. The separation distance between the articles of the articles recognized by the recognition process is calculated, the priority related to the movement order is set for the articles based on the separation distance, and the cargo handling device is set via the first connection portion. By controlling the above, the article is moved in an order according to the priority.

図1は、第1の実施形態に係る荷役システムの構成の一例を示す図である。FIG. 1 is a diagram showing an example of a configuration of a cargo handling system according to the first embodiment. 図2は、第1の実施形態に係る制御装置のハードウェア構成の一例を示す図である。FIG. 2 is a diagram showing an example of the hardware configuration of the control device according to the first embodiment. 図3は、第1の実施形態に係る制御装置の機能構成の一例を示す図である。FIG. 3 is a diagram showing an example of the functional configuration of the control device according to the first embodiment. 図4は、第1の実施形態に係る計画部の動作を説明するための図である。FIG. 4 is a diagram for explaining the operation of the planning unit according to the first embodiment. 図5は、第1の実施形態に係る計画部の動作を説明するための図である。FIG. 5 is a diagram for explaining the operation of the planning unit according to the first embodiment. 図6は、第1の実施形態に係る計画部の動作を説明するための図である。FIG. 6 is a diagram for explaining the operation of the planning unit according to the first embodiment. 図7は、第1の実施形態の制御装置が実行する処理の一例を示すフローチャートである。FIG. 7 is a flowchart showing an example of processing executed by the control device of the first embodiment. 図8は、第1の実施形態に係る制御装置の動作例を説明するための図である。FIG. 8 is a diagram for explaining an operation example of the control device according to the first embodiment. 図9は、第1の実施形態の変形例1に係る計画部の動作を説明するための図である。FIG. 9 is a diagram for explaining the operation of the planning unit according to the first modification of the first embodiment. 図10は、第2の実施形態に係る制御装置の機能構成の一例を示す図である。FIG. 10 is a diagram showing an example of the functional configuration of the control device according to the second embodiment. 図11は、第2の実施形態の制御装置が実行する処理の一例を示すフローチャートである。FIG. 11 is a flowchart showing an example of processing executed by the control device of the second embodiment.

以下、実施形態に係る制御装置及び荷役システムを、図面を参照して説明する。 Hereinafter, the control device and the cargo handling system according to the embodiment will be described with reference to the drawings.

(第1の実施形態)
図1は、第1の実施形態に係る荷役システムの構成の一例を示す図である。
(First Embodiment)
FIG. 1 is a diagram showing an example of a configuration of a cargo handling system according to the first embodiment.

図1に示すように、荷役システム1は、荷役装置10と、カメラ20と、制御装置30とを有する。ここで、荷役装置10及びカメラ20と、制御装置30とは、例えばシリアルケーブルやLAN(Local Area Network)等を介して接続される。 As shown in FIG. 1, the cargo handling system 1 includes a cargo handling device 10, a camera 20, and a control device 30. Here, the cargo handling device 10 and the camera 20 and the control device 30 are connected via, for example, a serial cable or a LAN (Local Area Network).

荷役装置10は、荷役装置の一例である。荷役装置10は、パレット2の上面2aに載置された物品Wを目的位置に荷役(移動)するための装置である。物品Wの目的位置は、物品Wの移動先であればよく、例えばコンベアとすることができる。パレット2は、載置部の一例であり、例えば水平な床面Gに配置される。物品Wは、例えば定形又は不定形の立体物であり、パレット2の上面2aに1又は複数個載置される。なお、本実施形態では、物品Wをパレット2に載置した例を示しているが、これに限らず、例えば床面G上に載置される形態としてもよい。この場合、物品Wが載置される床面G上の領域が載置部に対応することになる。 The cargo handling device 10 is an example of a cargo handling device. The cargo handling device 10 is a device for cargo handling (moving) the article W placed on the upper surface 2a of the pallet 2 to a target position. The target position of the article W may be any destination as long as the article W is moved, and may be, for example, a conveyor. The pallet 2 is an example of a mounting portion, and is arranged on, for example, a horizontal floor surface G. The article W is, for example, a fixed or irregular three-dimensional object, and one or a plurality of articles W are placed on the upper surface 2a of the pallet 2. In this embodiment, an example in which the article W is placed on the pallet 2 is shown, but the present invention is not limited to this, and for example, the article W may be placed on the floor surface G. In this case, the area on the floor surface G on which the article W is placed corresponds to the mounting portion.

荷役装置10は、基台111と、基台111に支持されたアーム部112と、アーム部112の先端に設けられた把持部113とを備える。基台111は、床面Gに固定された筐体である。以下では、床面Gと平行な方向、すなわち重力の作用する方向に直交する方向を水平方向ともいう。また、床面Gに直交する方向、すなわち重力の作用する方向及びその逆方向を上下方向ともいう。 The cargo handling device 10 includes a base 111, an arm portion 112 supported by the base 111, and a grip portion 113 provided at the tip of the arm portion 112. The base 111 is a housing fixed to the floor surface G. Hereinafter, the direction parallel to the floor surface G, that is, the direction orthogonal to the direction in which gravity acts is also referred to as a horizontal direction. Further, the direction orthogonal to the floor surface G, that is, the direction in which gravity acts and the opposite direction are also referred to as a vertical direction.

アーム部112は、一例として多関節ロボットアームである。アーム部112は、把持部113によって保持された物品Wを上下方向に移動する動作、及び水平方向に移動する動作を実行可能に構成されている。 The arm portion 112 is, for example, an articulated robot arm. The arm portion 112 is configured to be able to perform an operation of moving the article W held by the grip portion 113 in the vertical direction and an operation of moving the article W in the horizontal direction.

例えば、アーム部112は、1軸又は2軸回りに回動可能な複数の関節により連結された3つの可動部112a〜112cで構成される。可動部112aは、基台111から延出している。可動部112bは、可動部112aから延出している。可動部112cは、可動部112bから延出している。 For example, the arm portion 112 is composed of three movable portions 112a to 112c connected by a plurality of joints that can rotate around one or two axes. The movable portion 112a extends from the base 111. The movable portion 112b extends from the movable portion 112a. The movable portion 112c extends from the movable portion 112b.

アーム部112(可動部112c)の先端には、把持部113が取り付けられている。把持部113は、物品Wを挟み込んで把持する。なお、物品Wの把持は、挟持による把持方法に限定されない。例えば、把持部113に代えて、負圧によって物品Wを吸着把持する吸着部を用いてもよい。以下、把持部113によって物品Wを把持する動作、又は物品Wを把持する動作及び当該物品Wをアーム部112によって目的位置まで移動する動作を「ピッキング」ともいう。なお、アーム部112や把持部113には、物品Wのピッキング状態を検出するためのセンサ装置(例えば、接触センサ、重量センサ等)が設けられているものとする。 A grip portion 113 is attached to the tip of the arm portion 112 (movable portion 112c). The grip portion 113 sandwiches and grips the article W. The gripping of the article W is not limited to the gripping method by pinching. For example, instead of the grip portion 113, a suction portion that sucks and grips the article W by a negative pressure may be used. Hereinafter, the operation of gripping the article W by the grip portion 113, the operation of gripping the article W, and the operation of moving the article W to the target position by the arm portion 112 are also referred to as “picking”. It is assumed that the arm portion 112 and the grip portion 113 are provided with a sensor device (for example, a contact sensor, a weight sensor, etc.) for detecting the picking state of the article W.

カメラ20は、撮像装置の一例である。カメラ20は、パレット2の上方に設けられ、パレット2の上面2aを上方から撮像する。カメラ20は、RGBカメラ21と、3次元カメラ22とを有する。なお、RGBカメラ21及び3次元カメラ22の何れも、パレット2を撮像範囲(図中の破線範囲)に含むものとする。 The camera 20 is an example of an imaging device. The camera 20 is provided above the pallet 2 and images the upper surface 2a of the pallet 2 from above. The camera 20 includes an RGB camera 21 and a three-dimensional camera 22. Both the RGB camera 21 and the three-dimensional camera 22 include the palette 2 in the imaging range (broken line range in the figure).

RGBカメラ21は、2次元画像を撮像する第1の撮像装置の一例である。RGBカメラ21は、カラー画像を撮像することが可能な撮像装置である。RGBカメラ21は、撮像によって得られた2次元画像(以下、RGB画像ともいう)を制御装置30に出力する。かかるRGB画像には、パレット2の上面2aに載置された物品Wを上方から見た状態が写し出されることになる。なお、2次元画像は、RGB画像に限らず、グレースケールの画像であってもよい。 The RGB camera 21 is an example of a first imaging device that captures a two-dimensional image. The RGB camera 21 is an imaging device capable of capturing a color image. The RGB camera 21 outputs a two-dimensional image (hereinafter, also referred to as an RGB image) obtained by imaging to the control device 30. In such an RGB image, a state in which the article W placed on the upper surface 2a of the pallet 2 is viewed from above is projected. The two-dimensional image is not limited to the RGB image, and may be a grayscale image.

3次元カメラ22は、第2の撮像装置の一例である。3次元カメラ22は、ステレオカメラや3Dレーザスキャナ装置等によって構成される。3次元カメラ22は、パレット2の上面2aを上方から撮像(又は計測)することで、パレット2の上面2aに載置された物品Wの高さや形状を3次元的に表した3次元情報を取得する。 The three-dimensional camera 22 is an example of the second imaging device. The three-dimensional camera 22 is composed of a stereo camera, a 3D laser scanner device, and the like. The three-dimensional camera 22 captures (or measures) the upper surface 2a of the pallet 2 from above to obtain three-dimensional information that three-dimensionally represents the height and shape of the article W placed on the upper surface 2a of the pallet 2. get.

また、3次元カメラ22は、取得した3次元情報からデプス(Depth)画像と点群データ(point cloud)とを生成し、制御装置30に出力する。ここで、デプス画像は、3次元カメラ22からパレット2の上面2aに載置された物品Wまでの距離情報を画像に変換したものである。また、点群データは、パレット2の上面2aに載置された物品Wの表面の形状を3次元の点群で表したデータである。以下、デプス画像及び点群データを総称して3次元画像ともいう。 Further, the three-dimensional camera 22 generates a depth image and point cloud data from the acquired three-dimensional information, and outputs the data to the control device 30. Here, the depth image is obtained by converting the distance information from the three-dimensional camera 22 to the article W placed on the upper surface 2a of the pallet 2 into an image. The point cloud data is data in which the shape of the surface of the article W placed on the upper surface 2a of the pallet 2 is represented by a three-dimensional point cloud. Hereinafter, the depth image and the point cloud data are also collectively referred to as a three-dimensional image.

RGBカメラ21及び3次元カメラ22は、制御装置30からの撮像要求に応じて撮像を実行し、当該撮像によって得られたRGB画像及び3次元画像を制御装置30に送信する。また、RGBカメラ21及び3次元カメラ22の一方を指定した撮像要求も可能となっており、この場合には、指定されたカメラ側が撮像を個別に実行する。 The RGB camera 21 and the three-dimensional camera 22 execute imaging in response to an imaging request from the control device 30, and transmit the RGB image and the three-dimensional image obtained by the imaging to the control device 30. Further, it is also possible to request an image pickup by designating one of the RGB camera 21 and the three-dimensional camera 22, and in this case, the designated camera side individually executes the image pickup.

なお、本実施形態では、3次元画像の生成を3次元カメラ22が行う構成とするが、これに限らず、制御装置30で3次元画像の生成を行う構成としてもよい。この場合、3次元カメラ22は、撮像によって取得した3次元情報を制御装置30に出力することで、3次元画像の生成が制御装置30によって行われる。 In the present embodiment, the three-dimensional image is generated by the three-dimensional camera 22, but the present invention is not limited to this, and the control device 30 may generate the three-dimensional image. In this case, the three-dimensional camera 22 outputs the three-dimensional information acquired by imaging to the control device 30, so that the control device 30 generates a three-dimensional image.

制御装置30は、本実施形態における制御装置の一例である。制御装置30は、カメラ20の撮像結果に基づいて、荷役装置10の動作を制御する。具体的には、制御装置30は、カメラ20から入力されるRGB画像及び3次元画像に基づいて、パレット2の上面2aに載置された物品Wの各々を認識し、認識した各物品Wのピッキング順序を決定する。そして、制御装置30は、荷役装置10の動作を制御することで、パレット2の上面2aに載置された物品Wの各々を、決定したピッキング順序で目的位置まで移動させる。 The control device 30 is an example of the control device in the present embodiment. The control device 30 controls the operation of the cargo handling device 10 based on the image pickup result of the camera 20. Specifically, the control device 30 recognizes each of the articles W placed on the upper surface 2a of the pallet 2 based on the RGB image and the three-dimensional image input from the camera 20, and the recognized articles W of the recognized articles W. Determine the picking order. Then, the control device 30 controls the operation of the cargo handling device 10 to move each of the articles W placed on the upper surface 2a of the pallet 2 to the target position in the determined picking order.

なお、本実施形態では、制御装置30を荷役装置10と別体としたが、荷役装置10と制御装置30とを一体的に構成する形態としてもよい。この場合、荷役装置10と制御装置30とを、荷役装置と定義してもよい。また、荷役装置10及び制御装置30に、カメラ20を含めた構成を荷役装置と定義してもよい。 In the present embodiment, the control device 30 is separated from the cargo handling device 10, but the cargo handling device 10 and the control device 30 may be integrally configured. In this case, the cargo handling device 10 and the control device 30 may be defined as the cargo handling device. Further, a configuration in which the cargo handling device 10 and the control device 30 include the camera 20 may be defined as the cargo handling device.

次に、上述した制御装置30ハードウェア構成について説明する。図2は、制御装置30のハードウェア構成の一例を示す図である。 Next, the hardware configuration of the control device 30 described above will be described. FIG. 2 is a diagram showing an example of the hardware configuration of the control device 30.

図2に示すように、制御装置30は、プロセッサ31、ROM(Read Only Memory)32、RAM(Random Access Memory)33、カメラインタフェース34、荷役装置インタフェース35及び記憶部36を備える。 As shown in FIG. 2, the control device 30 includes a processor 31, a ROM (Read Only Memory) 32, a RAM (Random Access Memory) 33, a camera interface 34, a cargo handling device interface 35, and a storage unit 36.

プロセッサ31は、制御部及びコンピュータの一例である。プロセッサ31は、制御装置30の動作を統括的に制御する。プロセッサ31は、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、ASIC(Application Specific Integrated Circuit)等によって実現することができる。 The processor 31 is an example of a control unit and a computer. The processor 31 comprehensively controls the operation of the control device 30. The processor 31 can be realized by a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), an ASIC (Application Specific Integrated Circuit), or the like.

ROM32は、プロセッサ31が実行する各種のプログラムや設定情報等を記憶する。RAM33は、プロセッサ31のワークエリアとして使用される。 The ROM 32 stores various programs and setting information executed by the processor 31. The RAM 33 is used as a work area for the processor 31.

カメラインタフェース34は、第2の接続部の一例である。カメラインタフェース34は、カメラ20を接続するための通信インタフェースである。カメラインタフェース34は、カメラ20と通信可能に接続され、プロセッサ31の制御の下、自装置とカメラ20との間の通信を制御する。 The camera interface 34 is an example of the second connection portion. The camera interface 34 is a communication interface for connecting the camera 20. The camera interface 34 is communicably connected to the camera 20 and controls communication between the own device and the camera 20 under the control of the processor 31.

例えば、プロセッサ31は、カメラインタフェース34を介して、カメラ20(RGBカメラ21、3次元カメラ22)に撮像要求を送信する。また、プロセッサ31は、カメラインタフェース34を介して、カメラ20から送信されるRGB画像及び3次元画像を取得する。 For example, the processor 31 transmits an imaging request to the camera 20 (RGB camera 21, three-dimensional camera 22) via the camera interface 34. Further, the processor 31 acquires an RGB image and a three-dimensional image transmitted from the camera 20 via the camera interface 34.

荷役装置インタフェース35は、第1の接続部の一例である。荷役装置インタフェース35は、荷役装置10を接続するための通信インタフェースである。荷役装置インタフェース35は、荷役装置10と通信可能に接続され、プロセッサ31の制御の下、自装置と荷役装置10との間の通信を制御する。 The cargo handling device interface 35 is an example of the first connection portion. The cargo handling device interface 35 is a communication interface for connecting the cargo handling device 10. The cargo handling device interface 35 is communicably connected to the cargo handling device 10 and controls communication between the own device and the cargo handling device 10 under the control of the processor 31.

例えば、プロセッサ31は、荷役装置インタフェース35を介し、荷役装置10の動作を制御する。また、プロセッサ31は、荷役装置インタフェース35を介して、荷役装置10のピッキング状態を示すセンシング結果を取得する。 For example, the processor 31 controls the operation of the cargo handling device 10 via the cargo handling device interface 35. Further, the processor 31 acquires a sensing result indicating a picking state of the cargo handling device 10 via the cargo handling device interface 35.

記憶部36は、例えば、フラッシュメモリ等の半導体メモリ素子やハードディスク等の補助記憶装置によって実現される。記憶部36は、プロセッサ31が実行する各種のプログラムや設定情報等を記憶する。また、記憶部36は、荷役装置10の上下方向及び水平方向の移動限界位置や、荷役装置10の可動範囲、荷役装置10が把持可能な物品の寸法の上限及び下限等を示した限界情報を記憶する。かかる限界情報は、例えば、後述する移動計画の導出に用いられる。 The storage unit 36 is realized by, for example, a semiconductor memory element such as a flash memory or an auxiliary storage device such as a hard disk. The storage unit 36 stores various programs and setting information executed by the processor 31. Further, the storage unit 36 stores limit information indicating the vertical and horizontal movement limit positions of the cargo handling device 10, the movable range of the cargo handling device 10, the upper limit and the lower limit of the dimensions of the articles that the cargo handling device 10 can grip, and the like. Remember. Such limit information is used, for example, for deriving a movement plan described later.

次に、図3を参照して、制御装置30が備える機能構成について説明する。図3は、制御装置30の機能構成の一例を示す図である。 Next, with reference to FIG. 3, the functional configuration included in the control device 30 will be described. FIG. 3 is a diagram showing an example of the functional configuration of the control device 30.

図3に示すように、制御装置30は、取得部311と、認識部312と、計画部313と、計画実行部314とを機能部として備える。これら機能部の一部又は全ては、プロセッサ31が、ROM32又は記憶部36に記憶されたプログラムを実行することで実現されるソフトウェア構成であってもよい。また、上述した機能部の一部又は全ては、プロセッサ31が備える専用回路によって実現されるハードウェア構成であってもよい。このように、本実施形態においてはプロセッサ31が制御部の一例として機能する。 As shown in FIG. 3, the control device 30 includes an acquisition unit 311, a recognition unit 312, a planning unit 313, and a planning execution unit 314 as functional units. A part or all of these functional units may have a software configuration realized by the processor 31 executing a program stored in the ROM 32 or the storage unit 36. Further, a part or all of the above-mentioned functional units may have a hardware configuration realized by a dedicated circuit included in the processor 31. As described above, in the present embodiment, the processor 31 functions as an example of the control unit.

取得部311は、カメラインタフェース34を介して、カメラ20で撮像されたRGB画像及び3次元画像を取得する。具体的には、取得部311は、認識部312からの指示に応じて、RGBカメラ21及び3次元カメラ22の各々に対し撮像要求を送信する。そして、取得部311は、RGBカメラ21及び3次元カメラ22の各々から送信されたRGB画像と3次元画像とを取得する。 The acquisition unit 311 acquires an RGB image and a three-dimensional image captured by the camera 20 via the camera interface 34. Specifically, the acquisition unit 311 transmits an imaging request to each of the RGB camera 21 and the three-dimensional camera 22 in response to an instruction from the recognition unit 312. Then, the acquisition unit 311 acquires the RGB image and the three-dimensional image transmitted from each of the RGB camera 21 and the three-dimensional camera 22.

なお、3次元カメラ22から三次元情報が出力される場合には、取得部311は、カメラインタフェース34を介して、3次元カメラ22で取得された3次元情報を取得する。 When the three-dimensional information is output from the three-dimensional camera 22, the acquisition unit 311 acquires the three-dimensional information acquired by the three-dimensional camera 22 via the camera interface 34.

認識部312は、RGB画像及び3次元画像に基づいて、パレット2の上面2aに載置された物品Wの位置、形状、姿勢等を認識する。具体的には、認識部312は、計画部313からの認識要求に応じて、取得部311に対し画像の取得を指示する信号を送信する。そして、認識部312は、取得部311が取得したRGB画像及び3次元画像に基づいて、パレット2の上面2aに存在する物品W各々の位置、形状、姿勢等を認識する。 The recognition unit 312 recognizes the position, shape, posture, and the like of the article W placed on the upper surface 2a of the pallet 2 based on the RGB image and the three-dimensional image. Specifically, the recognition unit 312 transmits a signal instructing the acquisition unit 311 to acquire an image in response to the recognition request from the planning unit 313. Then, the recognition unit 312 recognizes the position, shape, posture, and the like of each of the articles W existing on the upper surface 2a of the pallet 2 based on the RGB image and the three-dimensional image acquired by the acquisition unit 311.

物品Wの認識方法は特に問わず、公知の技術を用いることができる。例えば、認識部312は、RGB画像とデプス画像とに基づいて、パレット2の上面2aに存在する各物品Wの位置(水平方向の位置)及び高さ(上下方向の高さ)等を認識する。また、認識部312は、点群データに基づいて、パレット2の上面2aに存在する各物品Wの形状や姿勢等を認識する。 The method of recognizing the article W is not particularly limited, and a known technique can be used. For example, the recognition unit 312 recognizes the position (horizontal position) and height (vertical height) of each article W existing on the upper surface 2a of the pallet 2 based on the RGB image and the depth image. .. Further, the recognition unit 312 recognizes the shape, posture, and the like of each article W existing on the upper surface 2a of the pallet 2 based on the point cloud data.

なお、取得部311が3次元情報を取得した場合には、認識部312は、3次元情報に基づきデプス画像や点群データを生成する。そして、認識部312は、RGB画像とともに、生成したデプス画像や点群データを用いて、パレット2の上面2aに載置された物品Wの各々を認識する。 When the acquisition unit 311 acquires the three-dimensional information, the recognition unit 312 generates a depth image or point cloud data based on the three-dimensional information. Then, the recognition unit 312 recognizes each of the articles W placed on the upper surface 2a of the pallet 2 by using the generated depth image and point cloud data together with the RGB image.

計画部313は、認識部312の認識結果に基づいて、パレット2の上面2aに載置された各物品Wを目的位置まで移動させるための移動計画を導出する。 Based on the recognition result of the recognition unit 312, the planning unit 313 derives a movement plan for moving each article W placed on the upper surface 2a of the pallet 2 to a target position.

具体的には、計画部313は、取得部311に対し画像の取得を指示する信号を送信することで、パレット2の上面2aに存在する物品Wの認識を認識部312に指示する。計画部313は、認識部312で認識された物品Wの物品間の離間距離を算出し、算出した離間距離に基づいて、ピッキング順序に係る優先度を物品Wに設定する。そして、計画部313は、優先度に応じた順序で物品Wを目的位置まで移動させるための移動計画を導出する。 Specifically, the planning unit 313 instructs the recognition unit 312 to recognize the article W existing on the upper surface 2a of the pallet 2 by transmitting a signal instructing the acquisition unit 311 to acquire the image. The planning unit 313 calculates the separation distance between the articles of the article W recognized by the recognition unit 312, and sets the priority related to the picking order to the article W based on the calculated separation distance. Then, the planning unit 313 derives a movement plan for moving the article W to the target position in the order according to the priority.

ここで、図4〜図6を用いて、計画部313が物品Wに優先度を設定する際の動作例について説明する。 Here, an operation example when the planning unit 313 sets a priority for the article W will be described with reference to FIGS. 4 to 6.

図4〜図6は、計画部313の動作を説明するための図であり、認識部312によって認識された物品Wの状態を模式的に表している。同図において、物品Wの末尾に示す番号1〜4は、認識部312の認識によって付された各物品Wを識別するためのアイテム番号を意味する。以下では、物品Wを特定する場合には、物品Wとアイテム番号とを組み合わせた物品Wn(nはアイテム番号)と表記する。 4 to 6 are views for explaining the operation of the planning unit 313, and schematically represent the state of the article W recognized by the recognition unit 312. In the figure, the numbers 1 to 4 shown at the end of the article W mean the item numbers for identifying each article W assigned by the recognition of the recognition unit 312. In the following, when the article W is specified, it is referred to as an article Wn (n is an item number) which is a combination of the article W and the item number.

まず、計画部313は、認識部312によりパレット2の上面2aに存在する物品Wが認識されると、認識された物品Wの中から、最初のピッキング対象となる物品Wを選定する。具体的には、計画部313は、以下に示す2つの条件の一方又は両方を充足する物品Wを、最初のピッキング対象に選定する。 First, when the recognition unit 312 recognizes the article W existing on the upper surface 2a of the pallet 2, the planning unit 313 selects the article W to be the first picking target from the recognized articles W. Specifically, the planning unit 313 selects an article W that satisfies one or both of the following two conditions as the first picking target.

第1の条件は、高さが最大の物品Wであることである。第2の条件は、複数の物品Wで複数存在する場合の条件であり、物品W群の端部又は角部に存在する物品Wであることである。ここで、第1の条件は、物品Wを上方からピッキングする際の取りやすさを考慮したものである。また、第2の条件は、後述する処理において、ピッキング対象となる物品W間の離間距離をより大きく確保するための条件である。 The first condition is that the article W has the maximum height. The second condition is a condition when a plurality of articles W are present, and is an article W existing at an end or a corner of the article W group. Here, the first condition is in consideration of ease of picking the article W from above. The second condition is a condition for ensuring a larger separation distance between the articles W to be picked in the process described later.

例えば、図4に示した物品W1〜物品W4のうち、左上の端部(角部)に位置する物品W1の高さが最大であるとすると、計画部313は、物品W1を最初にピッキングするため最上位の優先度1を設定する。なお、図4では、優先度の設定対象となった物品Wを識別するため、物品W1に縦線のハッチングを施している(以下同様)。 For example, if the height of the article W1 located at the upper left end (corner) of the articles W1 to W4 shown in FIG. 4 is the maximum, the planning unit 313 picks the article W1 first. Therefore, the highest priority 1 is set. In FIG. 4, in order to identify the article W for which the priority is set, the article W1 is hatched with a vertical line (the same applies hereinafter).

図4の例の場合、計画部313は、優先度1を設定した物品W1を最初にピッキングすることを指示した移動計画を導出することで、後述する計画実行部314の制御により、物品W1のピッキングが最初に実行される。 In the case of the example of FIG. 4, the planning unit 313 derives a movement plan instructed to pick the article W1 for which the priority 1 is set first, and controls the article W1 under the control of the planning execution unit 314 described later. Picking is performed first.

また、計画部313は、次にピッキングする物品Wを選定するため、優先度1を設定した物品W1と、他の物品W2〜W4の各々との間の離間距離を算出する。なお、図5では、ピッキング済の物品Wを識別するため、物品W1に斜線のハッチングを施している(以下同様)。 Further, the planning unit 313 calculates the separation distance between the article W1 for which the priority 1 is set and each of the other articles W2 to W4 in order to select the article W to be picked next. In FIG. 5, in order to identify the picked article W, the article W1 is hatched with diagonal lines (the same applies hereinafter).

具体的には、計画部313は、図5に示すように、認識部312で認識された物品W1〜W4の形状に基づき、物品W1〜W4の各々に外接する円(以下、外接円ともいう)C1〜C4をそれぞれ設定する。ここで「外接円」は、物品Wを包含し、且つ当該物品の外縁の少なくとも2点に接(外接)する円を意味する。 Specifically, as shown in FIG. 5, the planning unit 313 circumscribes each of the articles W1 to W4 based on the shape of the articles W1 to W4 recognized by the recognition unit 312 (hereinafter, also referred to as an circumscribed circle). ) Set C1 to C4 respectively. Here, the "circumscribed circle" means a circle that includes the article W and is in contact (circumscribed) with at least two points on the outer edge of the article.

次いで、計画部313は、先の処理で優先度が設定された物品W1を基点とし、その外接円C1の中心から、他の物品W2〜W4の各々に係る外接円C2〜C4の中心までの中心間距離d12、d13、d14を離間距離としてそれぞれ算出する。以下、物品W間の離間距離を中心間距離とも表記する。 Next, the planning unit 313 uses the article W1 whose priority has been set in the previous process as a base point, and extends from the center of the circumscribed circle C1 to the center of the circumscribed circles C2 to C4 related to each of the other articles W2 to W4. The center-to-center distances d12, d13, and d14 are calculated as the separation distances, respectively. Hereinafter, the distance between the articles W is also referred to as the distance between the centers.

また、計画部313は、物品W1に係る外接円C1の半径r1と、他の外接円C2〜C4の半径r2〜r4とをそれぞれ加算することで、半径和r12(=r1+r2)、r13(=r1+r3)、r14(=r1+r4)をそれぞれ算出する。 Further, the planning unit 313 adds the radii r1 of the circumscribed circle C1 related to the article W1 and the radii r2 to r4 of the other circumscribed circles C2 to C4, respectively, to sum the radii r12 (= r1 + r2) and r13 (=). r1 + r3) and r14 (= r1 + r4) are calculated, respectively.

計画部313は、物品W2〜W4毎に中心間距離と半径和とを比較し、中心間距離が半径和よりも大きな物品Wを抽出する。例えば、図5の場合、物品W3は、中心間距離d13が半径和r13よりも大きいため、計画部313は、物品W3をピッキング候補として抽出する。また、物品W4も、中心間距離d14が半径和r14よりも大きいため、計画部313は、物品W4をピッキング候補として抽出する。また、物品W2は、中心間距離d12が半径和r12以下となるため、計画部313は、この物品W2をピッキング対象から除外する。 The planning unit 313 compares the center-to-center distance and the sum of radii for each of the articles W2 to W4, and extracts the article W whose inter-center distance is larger than the sum of radii. For example, in the case of FIG. 5, since the center-to-center distance d13 of the article W3 is larger than the sum of radii r13, the planning unit 313 extracts the article W3 as a picking candidate. Further, since the distance d14 between the centers of the article W4 is larger than the sum of radii r14, the planning unit 313 extracts the article W4 as a picking candidate. Further, since the distance d12 between the centers of the article W2 is equal to or less than the sum of radii r12, the planning unit 313 excludes the article W2 from the picking target.

ここで、中心間距離が半径和以下の物品W2は、基点とした物品W1のピッキングの際に接触等の影響を受けた(或いは受ける)可能性がある。この場合、物品W2を次のピッキング対象としても、認識処理で認識された物品W2の位置や姿勢からズレが発生している可能性があるため、ピッキングを正常に完了できない可能性がある。そのため、物品W2をピッキング対象から除外しておくことで、複数の物品Wを連続してピッキングする際の動作を円滑に行うことができる。 Here, the article W2 whose center-to-center distance is less than or equal to the sum of radii may be affected (or affected) by contact or the like during picking of the article W1 as the base point. In this case, even if the article W2 is the next picking target, the picking may not be completed normally because there is a possibility that the position or posture of the article W2 recognized by the recognition process is deviated. Therefore, by excluding the article W2 from the picking target, it is possible to smoothly perform the operation when a plurality of articles W are continuously picked.

なお、認識部312で新たな認識が行われるまでの間、物品W2に対する除外設定は維持される。また、ピッキング済の物品Wについても、ピッキング対象から除外されるものとする。 The exclusion setting for the article W2 is maintained until the recognition unit 312 performs a new recognition. In addition, the picked article W is also excluded from the picking target.

続いて、計画部313は、ピッキング候補として抽出した物品W3と物品W4との間で中心間距離d13、d14を比較し、中心間距離がより大きな物品W、つまり中心間距離が最大の物品Wを一つ選定する。図5の例では、物品W4に係る中心間距離d14の方が、物品W3に係る中心間距離d13よりも大きいため、計画部313は、物品W4を選定する。そして、計画部313は、選定した物品W4に対し次位の優先度2を設定する。この場合、計画部313は、優先度2を設定した物品W2をピッキングすることを指示した移動計画を導出する。 Subsequently, the planning unit 313 compares the center-to-center distances d13 and d14 between the articles W3 and the articles W4 extracted as picking candidates, and the article W having a larger center-to-center distance, that is, the article W having the maximum center-to-center distance. Select one. In the example of FIG. 5, since the center-to-center distance d14 related to the article W4 is larger than the center-to-center distance d13 related to the article W3, the planning unit 313 selects the article W4. Then, the planning unit 313 sets the next priority 2 for the selected article W4. In this case, the planning unit 313 derives a movement plan instructed to pick the article W2 for which the priority 2 is set.

さらに、計画部313は、優先度2を設定した物品W4を基点とし、上述と同様の処理を行うことで、物品W3に対し次位の優先度3を設定する。そして、計画部313は、優先度3を設定した物品W3をピッキングすることを指示した移動計画を導出する。 Further, the planning unit 313 sets the next-order priority 3 for the article W3 by performing the same processing as described above with the article W4 for which the priority 2 is set as a base point. Then, the planning unit 313 derives a movement plan instructing to pick the article W3 for which the priority 3 is set.

図6は、図4及び図5で説明した物品W1〜W4に対する優先度の設定結果を示している。上述したように、物品W1、物品W3、物品W4のそれぞれに対し、優先度1、優先度3、優先度2が設定される。この場合、図中矢印で示すように、優先度の順、つまり物品W1→物品W4→物品W3の順にピッキングが行われることになる。なお、図6では、ピッキング候補から除外された物品Wを識別するため、物品W2に対し×印を付している。 FIG. 6 shows the result of setting the priority for the articles W1 to W4 described with reference to FIGS. 4 and 5. As described above, priority 1, priority 3, and priority 2 are set for each of the article W1, the article W3, and the article W4. In this case, as shown by the arrows in the figure, picking is performed in the order of priority, that is, in the order of article W1 → article W4 → article W3. In FIG. 6, in order to identify the article W excluded from the picking candidates, the article W2 is marked with a cross.

なお、計画部313は、上述の処理において、ピッキング候補の物品Wが存在しないと判断した場合には、認識部312に対し認識要求を出力することで、カメラ20で撮像される新たなRGB画像及び3次元画像に基づく認識処理を実行させる。そして、計画部313は、認識部312によって取得された新たな認識結果に基づき優先度の設定を再度行う。 When the planning unit 313 determines in the above process that the picking candidate article W does not exist, the planning unit 313 outputs a recognition request to the recognition unit 312 to capture a new RGB image captured by the camera 20. And the recognition process based on the three-dimensional image is executed. Then, the planning unit 313 sets the priority again based on the new recognition result acquired by the recognition unit 312.

このように、計画部313は、上位の優先度を設定した物品Wとの離間距離が最大となる他の物品Wに次位の優先度を順次設定する。つまり、計画部313は、先にピッキングを行う物品Wから最も離れた位置に存在する他の物品Wを、次のピッキング対象に設定する。これにより、物品Wのピッキング時に、当該物品Wの周辺に存在する他の物品Wに把持部113等が接触したような場合であっても、次にピッキング対象の物品Wへの影響を抑えることができる。したがって、計画部313は、複数の物品Wを連続してピッキングする動作を効率的に行うことができる。 In this way, the planning unit 313 sequentially sets the next priority to the other articles W having the maximum separation distance from the article W for which the higher priority is set. That is, the planning unit 313 sets the other article W that exists at the position farthest from the article W to be picked first as the next picking target. As a result, even if the grip portion 113 or the like comes into contact with another article W existing around the article W during picking of the article W, the influence on the article W to be picked next can be suppressed. Can be done. Therefore, the planning unit 313 can efficiently perform the operation of continuously picking the plurality of articles W.

また、計画部313が離間距離の算出に用いる物品Wの外接円は、荷役装置10が物品Wを把持する際の重心位置や回転範囲を規定するものとなる。具体的には、荷役装置10の把持部113が物品Wを把持する際の重心位置は、物品Wの外接円の中心に略対応する。また、荷役装置10が物品Wをピッキングする際に物品Wを水平方向に回転させる場合があるが、その回転範囲は物品Wの外接円に略対応する。そのため、外接円の中心間距離や半径和を基準にピッキング候補の選定と除外とを行うことで、ピッキング時に発生する接触や荷崩れ等の影響を低減化した順序で物品Wのピッキングを行うことができる。また、例えば物品W4のように不定形の物品Wをピッキングする場合であっても、当該物品Wの重心位置や回転範囲を規定することができるため、当該物品Wのピッキングを効率的に行うことができる。 Further, the circumscribed circle of the article W used by the planning unit 313 to calculate the separation distance defines the position of the center of gravity and the rotation range when the cargo handling device 10 grips the article W. Specifically, the position of the center of gravity when the grip portion 113 of the cargo handling device 10 grips the article W substantially corresponds to the center of the circumscribed circle of the article W. Further, when the cargo handling device 10 picks the article W, the article W may be rotated in the horizontal direction, and the rotation range substantially corresponds to the circumscribed circle of the article W. Therefore, by selecting and excluding picking candidates based on the distance between the centers of the circumscribed circles and the sum of radii, picking of the article W is performed in the order in which the effects of contact and load collapse that occur during picking are reduced. Can be done. Further, even when picking an amorphous article W such as an article W4, the position of the center of gravity and the rotation range of the article W can be defined, so that the article W can be picked efficiently. Can be done.

また、計画部313は、一度の認識処理で得られた認識結果からピッキング候補を抽出できなくなるまでの間、当該認識結果を継続して用いることで、複数の物品Wの移動計画を導出する。これにより、制御装置30では、カメラ20によるRGB画像及び3次元画像の撮像回数や、認識部312が実行する認識処理の実行回数を抑えることができるため、処理負荷を低減するとともにピッキングの高速化を図ることができる。 Further, the planning unit 313 derives a movement plan of a plurality of articles W by continuously using the recognition result until the picking candidate cannot be extracted from the recognition result obtained by one recognition process. As a result, in the control device 30, the number of times the RGB image and the three-dimensional image are captured by the camera 20 and the number of times the recognition process executed by the recognition unit 312 can be suppressed can be suppressed, so that the processing load can be reduced and the picking speed can be increased. Can be planned.

なお、計画部313は、荷役装置10から通知される物品Wのピッキング状態を監視し、ピッキング状態の異常を検出した場合には、上記と同様、認識部312に認識要求を送信することで、新たなRGB画像及び3次元画像に基づく認識処理を実行させる。ここで、ピッキング状態の異常とは、例えば、予定された物品Wをピッキングできない場合や、物品Wの脱落等、ピッキングが失敗した場合等が挙げられる。 The planning unit 313 monitors the picking state of the article W notified from the cargo handling device 10, and when an abnormality in the picking state is detected, sends a recognition request to the recognition unit 312 in the same manner as described above. The recognition process based on the new RGB image and the three-dimensional image is executed. Here, the abnormal picking state includes, for example, a case where the scheduled article W cannot be picked, a case where the picking fails due to a dropout of the article W, and the like.

図3に戻り、計画実行部314は、計画部313で導出された移動計画に基づいて、荷役装置10の動作(駆動機構)を制御する。具体的には、計画実行部314は、移動計画に基づき荷役装置10の動作を制御することで、パレット2の上面に載置されたピッキング対象の物品Wを把持させ、当該物品Wを目的位置まで移動させる。 Returning to FIG. 3, the plan execution unit 314 controls the operation (drive mechanism) of the cargo handling device 10 based on the movement plan derived by the planning unit 313. Specifically, the plan execution unit 314 controls the operation of the cargo handling device 10 based on the movement plan to grip the picking target article W placed on the upper surface of the pallet 2, and moves the article W to the target position. Move to.

上述した機能構成により、制御装置30は、パレット2の上面2aに載置された物品Wを、荷役装置10を用いて目的位置まで移動させることができる。より詳細には、制御装置30は、パレット2の上面2aに載置された物品Wの各々を、設定した優先度の順に目的位置まで順次移動させることができる。 With the above-mentioned functional configuration, the control device 30 can move the article W placed on the upper surface 2a of the pallet 2 to the target position by using the cargo handling device 10. More specifically, the control device 30 can sequentially move each of the articles W placed on the upper surface 2a of the pallet 2 to the target position in the order of the set priority.

以下、上述した制御装置30の動作例について説明する。ここで、図7は、制御装置30が実行する処理の一例を示すフローチャートである。 Hereinafter, an operation example of the control device 30 described above will be described. Here, FIG. 7 is a flowchart showing an example of the process executed by the control device 30.

まず、計画部313は、認識部312を介し取得部311に撮像要求を送信させることで、カメラ20で撮像されたRGB画像及び3次元画像を取得部311に取得させる(ステップS11)。認識部312は、取得されたRGB画像及び3次元画像に基づき、物品Wを認識するための認識処理を実行する(ステップS12)。 First, the planning unit 313 causes the acquisition unit 311 to acquire the RGB image and the three-dimensional image captured by the camera 20 by transmitting the image pickup request to the acquisition unit 311 via the recognition unit 312 (step S11). The recognition unit 312 executes a recognition process for recognizing the article W based on the acquired RGB image and the three-dimensional image (step S12).

続いて、計画部313は、優先度の値を規定するインデックスnを1に設定する(ステップS13)。次いで、計画部313は、ステップS12の認識結果に基づき、物品Wが存在するか否かを判定する(ステップS14)。より詳細には、計画部313は、認識結果の中にピッキング済とされた物品W以外の物品Wが存在するか否かを判定する。 Subsequently, the planning unit 313 sets the index n that defines the priority value to 1 (step S13). Next, the planning unit 313 determines whether or not the article W exists based on the recognition result in step S12 (step S14). More specifically, the planning unit 313 determines whether or not there is an article W other than the picked article W in the recognition result.

物品Wが存在すると判定した場合(ステップS14;Yes)、計画部313は、インデックスnの値が1か否かを判定する(ステップS15)。ここで、n=1と判定した場合(ステップS15;Yes)、計画部313は、ステップS12の認識処理で認識された物品Wの中から、上述した第1の条件及び第2の条件の何れか一方又は両方に該当する物品Wを一つ選定する(ステップS16)。次いで、計画部313は、ステップS16で選定した物品Wに優先度n、つまり優先度1を設定した後(ステップS17)、ステップS22に移行する。 When it is determined that the article W exists (step S14; Yes), the planning unit 313 determines whether or not the value of the index n is 1 (step S15). Here, when it is determined that n = 1 (step S15; Yes), the planning unit 313 has selected any of the above-mentioned first condition and second condition from the article W recognized in the recognition process in step S12. One article W corresponding to one or both is selected (step S16). Next, the planning unit 313 sets the priority n, that is, the priority 1 for the article W selected in step S16 (step S17), and then proceeds to step S22.

続くステップS22において、計画部313は、優先度nを設定した物品Wの移動計画を導出する(ステップS22)。次いで、計画実行部314は、ステップS22で導出された移動計画に基づき荷役装置10を動作させることで、優先度nが設定された物品Wのピッキングを開始する(ステップS23)。 In the following step S22, the planning unit 313 derives the movement plan of the article W for which the priority n is set (step S22). Next, the plan execution unit 314 operates the cargo handling device 10 based on the movement plan derived in step S22 to start picking the article W for which the priority n has been set (step S23).

計画部313は、荷役装置10から送信されるセンシング結果に基づいてピッキングの状態を監視する。計画部313は、ピッキング状態の異常を検出すると(ステップS24;Yes)、ステップS11に処理を戻すことで、新たに撮像されるRGB画像及び3次元画像に基づく認識処理を実行させる。 The planning unit 313 monitors the picking state based on the sensing result transmitted from the cargo handling device 10. When the planning unit 313 detects an abnormality in the picking state (step S24; Yes), it returns the process to step S11 to execute the recognition process based on the newly captured RGB image and the three-dimensional image.

荷役装置10によるピッキングが正常に完了した場合には(ステップS24;No)、計画部313は、認識結果に含まれた物品Wのうち、直近の処理で優先度nを設定した物品Wの状態をピッキング済に変更する消し込み処理を行う(ステップS25)。次いで、計画部313は、インデックスnの値を1インクリメントし(ステップS26)、ステップS14に処理を戻す。 When the picking by the cargo handling device 10 is normally completed (step S24; No), the planning unit 313 states that among the articles W included in the recognition result, the article W whose priority n has been set in the latest process. Is changed to picked (step S25). Next, the planning unit 313 increments the value of the index n by 1 (step S26), and returns the process to step S14.

一方、ステップS15で、n≠1と判定した場合、つまりnの値が2以上の場合(ステップS15;No)、計画部313は、直前の処理で優先度n−1を設定した物品Wを基点に、他の物品Wとの中心間距離及び半径和を算出する(ステップS18)。 On the other hand, when it is determined in step S15 that n ≠ 1, that is, when the value of n is 2 or more (step S15; No), the planning unit 313 sets the article W whose priority n-1 is set in the immediately preceding process. At the base point, the distance between the centers and the sum of radii with the other article W is calculated (step S18).

続いて、計画部313は、ステップS18の算出結果に基づき、中心間距離が半径和以下となる物品Wをピッキング候補から除外する(ステップS19)。次いで、計画部313は、ピッキング済(又は優先度設定済)の物品W及びステップS19で除外した物品W以外の残りの物品Wの中に、中心間距離が半径和よりも大きい物品Wが存在するか否かを判定する(ステップS20)。ここで、存在しないと判定した場合には(ステップS20;No)、計画部313は、ステップS11に処理を戻すことで、新たに撮像されるRGB画像及び3次元画像に基づく認識処理を実行させる。 Subsequently, the planning unit 313 excludes the article W whose center-to-center distance is equal to or less than the sum of radii from the picking candidates based on the calculation result in step S18 (step S19). Next, the planning unit 313 has an article W whose center-to-center distance is larger than the sum of radii among the picked (or priority-set) article W and the remaining articles W other than the article W excluded in step S19. It is determined whether or not to do so (step S20). Here, if it is determined that the image does not exist (step S20; No), the planning unit 313 returns the process to step S11 to execute the recognition process based on the newly captured RGB image and the three-dimensional image. ..

また、中心間距離が半径和よりも大きい物品Wが存在すると判定した場合(ステップS20;Yes)、計画部313は、中心間距離が最大の物品Wに優先度nを設定し(ステップS21)、ステップS22に移行する。 Further, when it is determined that there is an article W whose center-to-center distance is larger than the sum of radii (step S20; Yes), the planning unit 313 sets the priority n for the article W having the maximum center-to-center distance (step S21). , Step S22.

上述したステップS16〜S21の処理により、一度の認識処理で認識された物品Wの各々に対し優先度が順次設定される。また、物品Wに優先度が設定される毎に、当該物品Wの移動計画の導出とピッキングとが実行されることで、優先度の順に物品Wのピッキングが行われる。 By the processes of steps S16 to S21 described above, the priority is sequentially set for each of the articles W recognized in one recognition process. Further, every time the priority is set for the article W, the movement plan of the article W is derived and picked, so that the article W is picked in the order of priority.

そして、計画部313は、全ての物品Wを移動した等の理由により、ステップS14で物品Wが存在しないと判定すると(ステップS14;Yes)、本処理を終了する。 Then, when the planning unit 313 determines in step S14 that the article W does not exist due to reasons such as moving all the articles W (step S14; Yes), this process ends.

ここで、図8を参照して、上述した図7の処理の動作例を説明する。なお、図8は、制御装置30の動作例を説明するための図であり、認識部312によって認識されたパレット2の上面2aでの物品Wの状態を模式的に示している。なお、図8では、図4及び図5と同様に、新たに優先度が設定された物品Wを縦線のハッチングで表し、ピッキングが完了した物品W、つまり消し込み処理が完了した物品W11を斜線のハッチングで表している。 Here, an operation example of the above-described processing of FIG. 7 will be described with reference to FIG. Note that FIG. 8 is a diagram for explaining an operation example of the control device 30, and schematically shows the state of the article W on the upper surface 2a of the pallet 2 recognized by the recognition unit 312. In FIG. 8, similarly to FIGS. 4 and 5, the article W for which the priority has been newly set is represented by the hatching of vertical lines, and the article W for which picking has been completed, that is, the article W11 for which the erasing process has been completed is represented. It is represented by diagonal hatching.

図8(a)に示すように、認識部312の認識結果に物品Wが存在する場合、計画部313は、上述した第1の条件及び第2の条件に基づき、最初のピッキング対象となる物品Wを選定する。例えば、計画部313は、図8(a)に示した11個の物品W(W11〜W21)の中から、左上端部(角度)の物品W11を選定すると、この物品W11に最上位の優先度1を設定する。優先度1が設定された物品W11は、上述したステップS22及びS23の処理を経ることでピッキングが実行される。 As shown in FIG. 8A, when the article W is present in the recognition result of the recognition unit 312, the planning unit 313 first picks the article based on the first condition and the second condition described above. Select W. For example, when the planning unit 313 selects the article W11 at the upper left end (angle) from the 11 articles W (W11 to W21) shown in FIG. 8A, the article W11 has the highest priority. Set degree 1. The article W11 for which the priority 1 is set is picked by undergoing the processes of steps S22 and S23 described above.

なお、計画部313は、物品W11のピッキングが正常に完了した後も、認識部312の認識結果を継続して利用するため、物品W11の存在は認識結果に残ることになる。そのため、計画部313は、続く図8(b)に示すように、認識結果に存在する物品W11の状態をピッキング済に変更するための消し込み処理を行う。 Since the planning unit 313 continues to use the recognition result of the recognition unit 312 even after the picking of the article W11 is normally completed, the existence of the article W11 remains in the recognition result. Therefore, as shown in FIG. 8B, the planning unit 313 performs a clearing process for changing the state of the article W11 existing in the recognition result to picked.

続いて、計画部313は、図8(b)に示すように、直前の処理で優先度を設定した物品W11を基点に、他の物品との中心間距離及び半径和をそれぞれ算出する。ここで、物品W11と物品W21との中心間距離が最大であるとすると、計画部313は、この物品W21に対し次位の優先度2を設定する。優先度2が設定された物品W21は、上述したステップS22及びS23の処理を経ることでピッキングが実行される。 Subsequently, as shown in FIG. 8B, the planning unit 313 calculates the center-to-center distance and the sum of radii with other articles, respectively, with the article W11 whose priority was set in the immediately preceding process as the base point. Here, assuming that the distance between the centers of the article W11 and the article W21 is the maximum, the planning unit 313 sets the next priority 2 for the article W21. The article W21 for which the priority 2 is set is picked by undergoing the processes of steps S22 and S23 described above.

物品W21のピッキングが正常に完了すると、計画部313は、図8(c)示すように、物品W21の消し込み処理を実行する。次いで、計画部313は、直前の処理で優先度を設定した物品W21を基点に、物品W11を除いた他の物品との中心間距離及び半径和をそれぞれ算出する。ここで、物品W20に係る中心間距離が半径和以下であったとすると、計画部313は、この物品W20をピッキング対象から除外する。また、物品W21と物品W18との中心間距離が最大であるとすると、計画部313は、この物品W18に対し次位の優先度3を設定する。優先度3が設定された物品W18は、上述したステップS22及びS23の処理を経ることでピッキングが実行される。 When the picking of the article W21 is normally completed, the planning unit 313 executes the erasing process of the article W21 as shown in FIG. 8C. Next, the planning unit 313 calculates the center-to-center distance and the sum of radii with the other articles excluding the article W11, based on the article W21 whose priority was set in the immediately preceding process. Here, assuming that the distance between the centers of the article W20 is less than or equal to the sum of radii, the planning unit 313 excludes the article W20 from the picking target. Further, assuming that the distance between the centers of the article W21 and the article W18 is the maximum, the planning unit 313 sets the next priority 3 for the article W18. The article W18 for which the priority 3 is set is picked by undergoing the processes of steps S22 and S23 described above.

物品W18のピッキングが正常に完了すると、計画部313は、図8(d)示すように、物品W18の消し込み処理を実行する。次いで、計画部313は、直前の処理で優先度を設定した物品W18を基点に、物品W11及びW21を除いた他の物品との中心間距離及び半径和をそれぞれ算出する。なお、図8(d)では、前回の処理(図8(c))でピッキング対象から除外された物品W20を×印で表している。 When the picking of the article W18 is normally completed, the planning unit 313 executes the erasing process of the article W18 as shown in FIG. 8D. Next, the planning unit 313 calculates the center-to-center distance and the sum of radii with the articles W11 and other articles excluding the articles W11 and W21, respectively, based on the article W18 whose priority was set in the immediately preceding process. In FIG. 8D, the article W20 excluded from the picking target in the previous process (FIG. 8C) is indicated by a cross.

ここで、物品W18と物品W14との中心間距離が最大であるとすると、計画部313は、この物品W14に対し次位の優先度4を設定する。優先度4が設定された物品W14は、上述したステップS22及びS23の処理を経ることでピッキングが実行される。 Here, assuming that the distance between the centers of the article W18 and the article W14 is the maximum, the planning unit 313 sets the next priority 4 for the article W14. The article W14 for which the priority 4 is set is picked by undergoing the processes of steps S22 and S23 described above.

以降、計画部313は、残りの物品Wに対し同様の処理を繰り返し行うことで、図8(e)、図8(f)に示すように、物品W19、物品W12のピッキングが順次行われる。また、処理を経ることでピッキング対象から除外された物品Wも累積し、図8(g)の状態では、ピッキング済の物品W(W11、W12、W14、W18、W19、W21)以外の残りの物品W(W13、W15、W16、W17、W20)が、全てピッキング対象から除外された状態となる。 After that, the planning unit 313 repeatedly performs the same processing on the remaining articles W, so that the articles W19 and the articles W12 are picked in sequence as shown in FIGS. 8 (e) and 8 (f). In addition, the articles W excluded from the picking target by the processing are also accumulated, and in the state of FIG. 8 (g), the remaining articles W (W11, W12, W14, W18, W19, W21) other than the picked articles W (W11, W12, W14, W18, W19, W21). The articles W (W13, W15, W16, W17, W20) are all excluded from the picking target.

この場合、計画部313は、ステップS20の処理において、中心間距離が半径和より大きな物品が存在しないと判断することで、ステップS11へと処理を戻す。これにより、カメラ20による撮像が新たに行われるため、認識部312が新たに行う認識処理の認識結果には、図8(h)に示すように、残りの物品W13、W15、W16、W17及びW20が存在することになる。 In this case, the planning unit 313 returns to step S11 by determining that there is no article whose center-to-center distance is larger than the sum of radii in the process of step S20. As a result, imaging by the camera 20 is newly performed. Therefore, as shown in FIG. 8 (h), the recognition results of the recognition process newly performed by the recognition unit 312 include the remaining articles W13, W15, W16, W17 and W20 will exist.

そして、計画部313は、図8(h)の認識結果に基づき、各物品W13、W15、W16、W17及びW20の各々に優先度を設定する処理を新たに開始することで、当該優先度の順にピッキングを行わせることができる。 Then, the planning unit 313 newly starts a process of setting a priority for each of the articles W13, W15, W16, W17, and W20 based on the recognition result of FIG. 8 (h), so that the priority can be set. Picking can be performed in order.

以上のように、制御装置30によれば、カメラ20で撮像された画像(RGB画像、3次元画像)からパレット2に載置された物品Wを認識する認識処理を実行し、認識処理で認識された物品Wの物品間の離間距離を算出し、算出した離間距離に基づいて移動順序に係る優先度を物品Wに設定し、荷役装置10を制御することで、優先度に応じた順序で物品Wを移動させる。また、制御装置30は、上記の優先度の設定に際し、上位の優先度を設定した前記物品との離間距離が最大となる他の物品に次位の優先度を順次設定する。 As described above, according to the control device 30, the recognition process of recognizing the article W placed on the pallet 2 from the image (RGB image, three-dimensional image) captured by the camera 20 is executed, and the recognition process recognizes the article W. By calculating the separation distance between the articles of the goods W, setting the priority related to the movement order to the article W based on the calculated separation distance, and controlling the cargo handling device 10, the order according to the priority is set. Move the article W. Further, when setting the priority, the control device 30 sequentially sets the next priority to the other article having the maximum distance from the article for which the higher priority is set.

上記の構成により、制御装置30は、パレット2の上面2aに載置された物品W全体の位置関係からピッキングを行う順序を決定することができるため、先にピッキングを行う物品Wと、次にピッキングを行う物品Wとの離間距離を大きく確保することができる。これにより、制御装置30では、先のピッキングにより生じる影響が、次のピッキング対象の物品Wに及ぶことを抑えることができるため、複数の物品Wを連続してピッキングする際の動作を効率的に行うことができる。したがって、制御装置30では、物品Wのピッキングを効率的に行うことができる。 With the above configuration, the control device 30 can determine the picking order from the positional relationship of the entire article W placed on the upper surface 2a of the pallet 2, so that the article W to be picked first and then the article W to be picked are then determined. A large distance from the picking article W can be secured. As a result, in the control device 30, since the influence caused by the previous picking can be suppressed from reaching the next picking target article W, the operation when continuously picking a plurality of articles W can be efficiently performed. It can be carried out. Therefore, the control device 30 can efficiently pick the article W.

また、制御装置30では、一度の認識処理で得られた認識結果から、複数の物品の優先度を順次設定し、当該優先度の順にピッキングを行わせることができる。これにより、制御装置30では、カメラ20によるRGB画像及び3次元画像の撮像回数や、認識部312が実行する認識処理の実行回数を抑えることができるため、処理負荷を低減するとともにピッキングの高速化を図ることができる。したがって、制御装置30では、物品Wのピッキングを効率的に行うことができる。 Further, in the control device 30, the priority of a plurality of articles can be sequentially set from the recognition result obtained by one recognition process, and picking can be performed in the order of the priority. As a result, in the control device 30, the number of times the RGB image and the three-dimensional image are captured by the camera 20 and the number of times the recognition process executed by the recognition unit 312 can be suppressed can be suppressed, so that the processing load can be reduced and the picking speed can be increased. Can be planned. Therefore, the control device 30 can efficiently pick the article W.

以上説明した実施形態は、上述の各装置が有する構成又は機能の一部を変更することで、適宜に変形して実施することも可能である。そこで、以下では、上述した実施形態に係るいくつかの変形例を他の実施形態として説明する。なお、以下では、上述した実施形態と異なる点を主に説明することとし、既に説明した内容と共通する点については詳細な説明を省略する。また、以下で説明する変形例は、個別に実施されてもよいし、適宜組み合わせて実施されてもよい。 The embodiment described above can be appropriately modified and implemented by changing a part of the configuration or function of each of the above-mentioned devices. Therefore, in the following, some modifications according to the above-described embodiment will be described as other embodiments. In the following, points different from the above-described embodiment will be mainly described, and detailed description of points common to the contents already described will be omitted. Further, the modifications described below may be carried out individually or in combination as appropriate.

(変形例1)
上述の実施形態では、基点となる物品Wとの中心間距離が最大となる他の物品Wを次のピッキング対象とする形態を説明したが、ピッキング対象の選定条件はこれに限らず、更なる条件を付加してもよい。
(Modification example 1)
In the above-described embodiment, the mode in which the other article W having the maximum distance from the center to the article W as the base point is set as the next picking target has been described, but the picking target selection condition is not limited to this, and further Conditions may be added.

例えば、基点となる物品Wとの中心間距離が最大となる他の物品Wを特定した後、当該他の物品Wとその周辺に存在する物品W(以下、周辺物品ともいう)との配置関係が所定の条件を満たす場合にのみ、特定した他の物品Wをピッキング対象に選定する構成としてもよい。以下、図9を参照して、本変形例の選定条件について説明する。 For example, after identifying another article W having the maximum distance between the centers of the article W as a base point, the arrangement relationship between the other article W and the article W existing in the vicinity (hereinafter, also referred to as a peripheral article). May be configured to select the specified other article W as the picking target only when the predetermined condition is satisfied. Hereinafter, the selection conditions of this modification will be described with reference to FIG.

図9は、変形例1に係る選定条件を説明するための図である。ここで、図9に示す物品W31、W32、W33の各々は、何れも認識部312によって認識された物品Wである。また、計画部313は、物品W31を基点に、物品W32及び物品W33との中心間距離をそれぞれ算出し、中心間距離が最大の物品W33を特定済みであるとする。 FIG. 9 is a diagram for explaining the selection conditions according to the first modification. Here, each of the articles W31, W32, and W33 shown in FIG. 9 is an article W recognized by the recognition unit 312. Further, it is assumed that the planning unit 313 has calculated the center-to-center distances between the article W32 and the article W33, respectively, with the article W31 as the base point, and has specified the article W33 having the maximum center-to-center distance.

上述した実施形態では、計画部313は、特定した物品W33に次位の優先度を設定することで、次のピッキング対象に選定する。しかしながら、この場合、物品W33と当該物品W33周辺の周辺物品との関係は考慮されていない。そのため、例えば、図9に示すように、物品W33の一部に物品W32が重畳して配置されているような場合には、物品W33のピッキングを行うことで、物品W32への接触や物品W32の荷崩れが発生する可能性がある。 In the above-described embodiment, the planning unit 313 selects the specified article W33 as the next picking target by setting the next priority. However, in this case, the relationship between the article W33 and the peripheral articles around the article W33 is not considered. Therefore, for example, as shown in FIG. 9, when the article W32 is superposed on a part of the article W33, the article W33 can be picked to contact the article W32 or the article W32. There is a possibility that the load will collapse.

そこで、計画部313は、物品W33を特定した後、その物品W33と、周辺物品である物品W32との配置関係が所定の条件を満たすか否かを判定し、荷崩れ等の可能性がないことが確認できた場合にのみ、物品W33を次のピッキング対象に選定する。 Therefore, after identifying the article W33, the planning unit 313 determines whether or not the arrangement relationship between the article W33 and the peripheral article W32 satisfies a predetermined condition, and there is no possibility of the load collapsing or the like. Only when it is confirmed that the article W33 is selected as the next picking target.

ここで、判定条件は、任意に設定できるものとする。例えば、物品W33と物品W32との中心間距離がその半径和より大きいことを判定条件としてもよい。また、例えば、特定した物品W33の高さが、物品W32よりも高いことを判定条件としてもよい。このような判定条件を付加することで、周辺物品との接触や荷崩れが発生する可能性が低い物品Wを、次のピッキング対象に選定することができる。 Here, it is assumed that the determination conditions can be set arbitrarily. For example, the determination condition may be that the distance between the centers of the article W33 and the article W32 is larger than the sum of the radii. Further, for example, the determination condition may be that the height of the specified article W33 is higher than that of the article W32. By adding such a determination condition, the article W, which is unlikely to come into contact with peripheral articles or collapse the load, can be selected as the next picking target.

なお、中心間距離に基づき特定した物品Wが上記の判定条件を充足しない場合、計画部313は、物品W31との中心間距離が最大となった物品W33に次位の優先度を設定することなく、当該物品W33(及び物品W32)をピッキング対象から除外する。この場合、計画部313は、物品W33及び物品W32を除いた残りの物品W(図示せず)の中から、物品W31との中心間距離が最大となる物品Wを選定し、当該物品Wに次位の優先度を設定するものとする。 If the article W specified based on the center-to-center distance does not satisfy the above determination conditions, the planning unit 313 sets the next priority to the article W33 having the maximum center-to-center distance from the article W31. The article W33 (and the article W32) is excluded from the picking target. In this case, the planning unit 313 selects the article W having the maximum distance from the center to the article W31 from the remaining articles W (not shown) excluding the article W33 and the article W32, and selects the article W as the article W. The next priority shall be set.

(変形例2)
上述の実施形態では、優先度を設定する毎に移動計画を導出してピッキングを行わせる形態を説明したが、これに限定されるものではない。例えば、計画部313は、認識された各物品Wの優先度を先に設定した後、その優先度に応じた順序でピッキングを行わせるための移動計画を一度に導出する形態としてもよい。
(Modification 2)
In the above-described embodiment, the mode in which the movement plan is derived and picking is performed each time the priority is set has been described, but the present invention is not limited to this. For example, the planning unit 313 may set the priority of each recognized article W in advance, and then derive a movement plan for picking in an order according to the priority at once.

具体的には、計画部313は、上述したステップS16及びS17の処理を実行することで一の物品Wに優先度1を選定した後、インデックスnを1インクリメントしながら、上述したステップS18〜S21の処理を繰り返し実行する。これにより、認識された物品Wの各々に優先度を順次設定することができる。 Specifically, the planning unit 313 selects priority 1 for one article W by executing the processes of steps S16 and S17 described above, and then increments the index n by 1, while steps S18 to S21 described above. Is repeated. As a result, the priority can be sequentially set for each of the recognized articles W.

そして、計画部313は、例えば中心間距離が半径和より大きな物品が存在しないと判定した場合に(ステップS20;No)、それまでに設定した各物品Wの優先度に基づき、優先度に応じた順序でピッキングを行わせるための移動計画を導出する。なお、ピッキング最中に異常が検出された場合には、移動計画を破棄した後、ステップS11に処理を戻すものとする。 Then, when the planning unit 313 determines that there is no article whose center-to-center distance is larger than the sum of radii (step S20; No), the planning unit 313 responds to the priority based on the priority of each article W set up to that point. A movement plan for picking is derived in this order. If an abnormality is detected during picking, the movement plan is discarded and then the process is returned to step S11.

このような構成とすることで、上述の実施形態と同様の効果を奏することができるため、上述の実施形態と同様に物品Wのピッキングを効率的に行うことができる。 With such a configuration, the same effect as that of the above-described embodiment can be obtained, so that the picking of the article W can be efficiently performed as in the above-mentioned embodiment.

(第2の実施形態)
次に第2の実施形態について説明する。本実施形態では、ピッキング前後の物品Wの状態を比較することで、荷崩れ等の発生を検出することが可能な形態について説明する。なお、第1の実施形態と同様の構成については同一の符号を付与し説明を省略する。
(Second Embodiment)
Next, the second embodiment will be described. In the present embodiment, a mode in which the occurrence of load collapse or the like can be detected by comparing the states of the article W before and after picking will be described. The same reference numerals are given to the same configurations as those of the first embodiment, and the description thereof will be omitted.

図10は、第2の実施形態に係る制御装置30aの機能構成の一例を示す図である。図10に示すように、制御装置30aは、取得部311と、認識部312と、計画部313aと、計画実行部314とを機能部として備える。 FIG. 10 is a diagram showing an example of the functional configuration of the control device 30a according to the second embodiment. As shown in FIG. 10, the control device 30a includes an acquisition unit 311, a recognition unit 312, a planning unit 313a, and a planning execution unit 314 as functional units.

ここで、計画部313aは、第1の実施形態の計画部313に対応する機能部であり、計画部313と同様の機能を備える。また、計画部313aは、計画部313にはない固有の機能として、荷役装置10によるピッキングが完了した場合に、認識部312を介して、RGB画像の撮像をカメラ20に要求する。計画部313aは、取得部311により新たに取得されたRGB画像と、認識部312の認識で使用された前回のRGB画像とに基づき、ピッキングの前後で生じた物品Wに係る変化量を検出する差分チェックを行う。 Here, the planning unit 313a is a functional unit corresponding to the planning unit 313 of the first embodiment, and has the same function as the planning unit 313. Further, as a unique function that the planning unit 313 does not have, the planning unit 313 requests the camera 20 to capture an RGB image via the recognition unit 312 when the picking by the cargo handling device 10 is completed. The planning unit 313a detects the amount of change related to the article W that occurs before and after picking based on the RGB image newly acquired by the acquisition unit 311 and the previous RGB image used in the recognition of the recognition unit 312. Perform a difference check.

具体的には、計画部313aは、前回のRGB画像と新たなRGB画像とで、物品Wの各々が存在する画像上の領域の変化量を検出し、当該変化量が閾値を上回る場合に差分ありと判定する。なお、差分の有無の判定方法は特に問わず、公知の技術を用いることが可能である。例えば、新旧の両RGB画像において、同一画素位置の画素毎に画素値の差分を算出し、算出した差分の平均値と、予め定めた閾値とを比較することで差分の有無を判定してもよい。また、例えば、2つの画像(画像領域)から両画像間の差分の有無を出力(推論)するよう機能付けられた機械学習モデルを用いることで、差分の有無を判定してもよい。 Specifically, the planning unit 313a detects the amount of change in the region on the image in which each of the articles W exists in the previous RGB image and the new RGB image, and when the amount of change exceeds the threshold value, the difference is obtained. Judge as yes. It should be noted that a known technique can be used regardless of the method for determining the presence or absence of the difference. For example, in both old and new RGB images, the difference in pixel value is calculated for each pixel at the same pixel position, and the presence or absence of the difference can be determined by comparing the average value of the calculated difference with a predetermined threshold value. good. Further, for example, the presence or absence of a difference may be determined by using a machine learning model that is functioned to output (infer) the presence or absence of a difference between the two images (image area).

なお、計画部313aは、認識部312で認識された物品Wのうち、消し込み処理が実行済の物品W、つまりピッキングが完了した物品Wについては差分チェックの対象から除外し、残りの物品Wを差分チェックの対象とする。具体的には、計画部313aは、認識結果等に記録されたピッキング済の状態か否かを示す状態情報に基づいて、ピッキングが未完了の物品Wを特定し、特定した物品Wを差分チェックの対象とする。また、本実施形態において、差分なしの状態とは、新旧のRGB画像で完全に一致する状態に限らず、ある程度の誤差を許容する略同等の状態を含む概念である。 In addition, among the articles W recognized by the recognition unit 312, the planning unit 313a excludes the articles W for which the erasing process has been executed, that is, the articles W for which picking has been completed, from the target of the difference check, and the remaining articles W. Is the target of the difference check. Specifically, the planning unit 313a identifies the picked article W based on the state information indicating whether or not the picked state is recorded in the recognition result or the like, and checks the difference between the identified article W. The target of. Further, in the present embodiment, the state without difference is not limited to the state in which the old and new RGB images are completely matched, but is a concept including a substantially equivalent state in which a certain degree of error is allowed.

差分チェックで差分ありと判定された場合、物品Wの配置位置や姿勢がピッキングの前後で変化したことを意味する。これは、物品Wをピッキングした際に他の物品Wに接触した可能性や荷崩れが発生した可能性があることを意味する。このような場合、前回の認識結果を基に導出した移動計画では、物品Wの位置を捕捉することができないため正常にピッキングを行うことができない可能性がある。 When it is determined that there is a difference in the difference check, it means that the arrangement position and posture of the article W have changed before and after picking. This means that when the article W is picked, it may have come into contact with another article W or a load collapse may have occurred. In such a case, the movement plan derived based on the previous recognition result may not be able to capture the position of the article W, so that picking may not be performed normally.

そこで、計画部313aは、差分チェックで差分ありと判定した場合、認識部312を介して、3次元画像の撮像をカメラ20に要求する。次いで、計画部313aは、取得部311により新たに取得された3次元画像と、先に取得しておいたRGB画像とを用いて認識部312に認識処理を実行させる。そして、計画部313aは、新たな認識結果に基づき、認識された物品Wの各々の移動計画を導出する。 Therefore, when the planning unit 313a determines that there is a difference in the difference check, the planning unit 313a requests the camera 20 to capture a three-dimensional image via the recognition unit 312. Next, the planning unit 313a causes the recognition unit 312 to execute the recognition process using the three-dimensional image newly acquired by the acquisition unit 311 and the previously acquired RGB image. Then, the planning unit 313a derives each movement plan of the recognized article W based on the new recognition result.

以下、上述した制御装置30aの動作例について説明する。ここで、図11は、制御装置30aが実行する処理の一例を示すフローチャートである。なお、ステップS31〜S44の処理は、第1の実施形態で説明した図7のステップS11〜S24の処理と同様であるため説明を省略する。 Hereinafter, an operation example of the control device 30a described above will be described. Here, FIG. 11 is a flowchart showing an example of the process executed by the control device 30a. Since the processing of steps S31 to S44 is the same as the processing of steps S11 to S24 of FIG. 7 described in the first embodiment, the description thereof will be omitted.

ステップS44において、ピッキングが正常に完了すると(ステップS44;No)、計画部313aは、認識部312を介して取得部311にRGB画像の撮像要求を送信させることで、RGBカメラ21で撮像されたRGB画像を取得部311に取得させる(ステップS45)。 When the picking is normally completed in step S44 (step S44; No), the planning unit 313a is imaged by the RGB camera 21 by causing the acquisition unit 311 to transmit an RGB image imaging request via the recognition unit 312. The acquisition unit 311 is made to acquire the RGB image (step S45).

続いて、計画部313aは、ステップS45で取得されたRGB画像と、ステップS31で取得されたRGB画像(前回のRGB画像)と、ステップS32の認識結果(前回の認識結果)とに基づき、ピッキング前後の物品Wの状態を比較する差分チェックを実行する(ステップS46)。次いで、計画部313は、差分チェックの結果に基づき、差分の有無を判定する(ステップS47)。 Subsequently, the planning unit 313a picks based on the RGB image acquired in step S45, the RGB image acquired in step S31 (previous RGB image), and the recognition result in step S32 (previous recognition result). A difference check for comparing the states of the articles W before and after is executed (step S46). Next, the planning unit 313 determines the presence or absence of the difference based on the result of the difference check (step S47).

ここで、「差分なし」と判定した場合には(ステップS47;No)、計画部313aは、ステップS48、S49の処理を実行した後、ステップS34に処理を戻す。なお、ステップS48及びS49の処理は、第1の実施形態で説明した図7のステップS25、S26と同様であるため説明を省略する。 Here, if it is determined that there is no difference (step S47; No), the planning unit 313a executes the processes of steps S48 and S49, and then returns the process to step S34. Since the processes of steps S48 and S49 are the same as those of steps S25 and S26 of FIG. 7 described in the first embodiment, the description thereof will be omitted.

一方、「差分あり」と判定した場合(ステップS47;Yes)、計画部313aは、認識部312を介して取得部311に3次元画像の撮像要求を送信させることで、3次元カメラ22で撮像された3次元画像を取得部311に取得させる(ステップS50)。続いて、計画部313aは、ステップS32に処理を戻し、ステップS45で取得されたRGB画像とステップS50で取得された3次元画像とに基づき、認識部312に認識処理を実行させる。 On the other hand, when it is determined that there is a "difference" (step S47; Yes), the planning unit 313a causes the acquisition unit 311 to transmit a three-dimensional image imaging request via the recognition unit 312, thereby capturing the image with the three-dimensional camera 22. The acquisition unit 311 is made to acquire the three-dimensional image obtained (step S50). Subsequently, the planning unit 313a returns the process to step S32, and causes the recognition unit 312 to execute the recognition process based on the RGB image acquired in step S45 and the three-dimensional image acquired in step S50.

以上のように、制御装置30aは、物品Wのピッキングが完了した後、ピッキング後に撮像された新たなRGB画像と、認識処理で使用されたRGB画像及び当該認識処理の認識結果とに基づいて、ピッキングの前後で生じた変化を検出する差分チェックを実行する。そして、制御装置30aは、差分チェックの結果、変化あり(差分あり)と判定すると、新たなRGB画像及び3次元画像を用いて認識処理を新たに行い、当該認識処理の認識結果に基づいて優先度の設定を行う。 As described above, the control device 30a is based on the new RGB image captured after the picking of the article W, the RGB image used in the recognition process, and the recognition result of the recognition process. Perform a diff check to detect changes that occur before and after picking. Then, when the control device 30a determines as a result of the difference check that there is a change (there is a difference), the control device 30a newly performs a recognition process using a new RGB image and a three-dimensional image, and gives priority based on the recognition result of the recognition process. Set the degree.

これにより、制御装置30aでは、ピッキング時の接触や荷崩れ等の発生によりパレット2の上面2aに載置された物品Wの状態が変化した場合であっても、変化後の状態を反映した認識結果に基づき物品Wのピッキングを継続させることができる。したがって、制御装置30では、物品Wのピッキングを効率的に行うことができる。 As a result, the control device 30a recognizes that even if the state of the article W placed on the upper surface 2a of the pallet 2 changes due to contact during picking, load collapse, etc., the changed state is reflected. Based on the result, the picking of the article W can be continued. Therefore, the control device 30 can efficiently pick the article W.

以上説明した実施形態は、上述の各装置が有する構成又は機能の一部を変更することで、適宜に変形して実施することも可能である。そこで、以下では、上述した実施形態に係るいくつかの変形例を他の実施形態として説明する。なお、以下では、上述した実施形態と異なる点を主に説明することとし、既に説明した内容と共通する点については詳細な説明を省略する。また、以下で説明する変形例は、個別に実施されてもよいし、適宜組み合わせて実施されてもよい。 The embodiment described above can be appropriately modified and implemented by changing a part of the configuration or function of each of the above-mentioned devices. Therefore, in the following, some modifications according to the above-described embodiment will be described as other embodiments. In the following, points different from the above-described embodiment will be mainly described, and detailed description of points common to the contents already described will be omitted. Further, the modifications described below may be carried out individually or in combination as appropriate.

(変形例1)
上述の実施形態では、図11で説明したステップS47の処理において、差分ありと判定されたことを条件に3次元画像の撮像要求を行う形態を説明した。しかしながら、3次元画像を取得するタイミングはこれに限らず、ステップS44〜S47の任意のタイミングで撮像要求を行う形態としてもよい。一例として、ステップS45でRGB画像の撮像要求を行ったタイミングで3次元画像の撮像要求を行ってもよい。
(Modification example 1)
In the above-described embodiment, in the process of step S47 described with reference to FIG. 11, a mode in which an imaging request for a three-dimensional image is performed on the condition that it is determined that there is a difference has been described. However, the timing for acquiring the three-dimensional image is not limited to this, and an imaging request may be made at any timing in steps S44 to S47. As an example, a three-dimensional image imaging request may be made at the timing when the RGB image imaging request is made in step S45.

上記の処理内容とすることで、ステップS47で差分ありと判定された場合に、より速やかに、新たなRGB画像及び3次元画像を用いた認識処理に移行することができる。なお、ステップS47で差分なしと判定された場合には、取得した3次元画像は破棄されるものとする。 By adopting the above processing contents, when it is determined in step S47 that there is a difference, it is possible to more quickly shift to the recognition processing using a new RGB image and a three-dimensional image. If it is determined in step S47 that there is no difference, the acquired three-dimensional image is discarded.

以上、本発明のいくつかの実施形態(変形例)を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 Although some embodiments (modifications) of the present invention have been described above, these embodiments are presented as examples and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other embodiments, and various omissions, replacements, and changes can be made without departing from the gist of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are also included in the scope of the invention described in the claims and the equivalent scope thereof.

1 荷役システム
10 荷役装置
20 カメラ
21 RGBカメラ
22 3次元カメラ
30 制御装置
311 取得部
312 認識部
313 計画部
314 計画実行部
1 Cargo handling system 10 Cargo handling device 20 Camera 21 RGB camera 22 3D camera 30 Control device 311 Acquisition unit 312 Recognition unit 313 Planning unit 314 Planning execution unit

Claims (11)

載置部に載置された物品を把持して当該物品の移動を行う荷役装置に接続される第1の接続部と、
前記載置部を上方から撮像する撮像装置に接続される第2の接続部と、
前記撮像装置で撮像された画像を前記第2の接続部を介して取得し、取得した前記画像から前記載置部に載置された前記物品を認識する認識処理を実行し、前記認識処理で認識された前記物品の物品間の離間距離を算出し、前記離間距離に基づいて移動順序に係る優先度を前記物品に設定し、前記第1の接続部を介して前記荷役装置を制御することで、前記優先度に応じた順序で前記物品を移動させる制御部と、
を備える制御装置。
A first connecting portion connected to a cargo handling device that grips an article placed on the loading portion and moves the article, and a first connecting portion.
A second connection part connected to an imaging device that images the above-mentioned place part from above, and
An image captured by the image pickup apparatus is acquired via the second connection portion, and a recognition process for recognizing the article placed on the above-described placement portion is executed from the acquired image, and the recognition process is performed. To calculate the recognized separation distance between articles of the article, set the priority related to the movement order to the article based on the separation distance, and control the cargo handling device via the first connection portion. Then, the control unit that moves the article in the order according to the priority, and
A control device comprising.
前記制御部は、前記優先度の設定において、上位の優先度を設定した前記物品との離間距離が最大となる他の物品に次位の優先度を順次設定する請求項1に記載の制御装置。 The control device according to claim 1, wherein the control unit sequentially sets the next priority to other articles having the maximum separation distance from the article for which the higher priority is set in the setting of the priority. .. 前記制御部は、認識した前記物品の中から、高さが最大の物品を一つ選定し、選定した物品の優先度を最上位に設定する請求項1又は2に記載の制御装置。 The control device according to claim 1 or 2, wherein the control unit selects one article having the maximum height from the recognized articles and sets the priority of the selected article to the highest level. 前記制御部は、認識した前記物品の中から、物品群の端部又は角部に存在する物品を一つ選定し、選定した物品の優先度を最上位に設定する請求項1又は2に記載の制御装置。 The control unit selects one article existing at an end or a corner of an article group from the recognized articles, and sets the priority of the selected article to the highest level according to claim 1 or 2. Control device. 前記制御部は、前記認識処理で認識された前記物品毎に、当該物品を包含し且つ当該物品の外縁の少なくとも2点に接する外接円を設定し、当該外接円の中心間の距離に基づいて前記離間距離を算出する請求項1乃至4の何れか一項に記載の制御装置。 The control unit sets an circumscribed circle that includes the article and is in contact with at least two points on the outer edge of the article for each of the articles recognized by the recognition process, and is based on the distance between the centers of the circumscribed circles. The control device according to any one of claims 1 to 4, wherein the separation distance is calculated. 前記制御部は、上位の優先度を設定した前記物品と他の物品との両物品間の離間距離が、当該両物品に係る前記外接円の各々の半径を加算した半径和以下となる場合、前記他の物品を優先度の設定対象から除外する請求項5に記載の制御装置。 When the distance between the article and the other article for which the higher priority is set is equal to or less than the sum of radii obtained by adding the radii of the circumscribed circles related to the two articles, the control unit has a higher priority. The control device according to claim 5, wherein the other article is excluded from the priority setting target. 前記制御部は、上位の優先度を設定した前記物品との離間距離が最大となった他の物品と、当該他の物品の周辺に存在する周辺物品との間の離間距離が前記半径和以下となる場合、前記他の物品を優先度の設定対象から除外する請求項6に記載の制御装置。 In the control unit, the separation distance between the other article having the maximum separation distance from the article for which the higher priority is set and the peripheral article existing around the other article is equal to or less than the sum of radii. The control device according to claim 6, wherein the other article is excluded from the priority setting target. 前記制御部は、前記荷役装置による前記物品の把持又は移動の際に異常を検出すると、前記撮像装置で撮像された新たな画像を用いて前記認識処理を実行する請求項1乃至7に記載の制御装置。 The invention according to claim 1 to 7, wherein when the control unit detects an abnormality when the cargo handling device grips or moves the article, the control unit executes the recognition process using a new image captured by the image pickup device. Control device. 前記制御部は、前記物品の移動が完了した後、当該物品の移動後に前記撮像装置で撮像された新たな画像と、前記認識処理で使用された前回の画像とに基づいて、移動済の前記物品を除く残りの物品の前記移動の前後における変化量を検出する差分チェックを実行し、当該変化量が閾値を上回った場合に、前記新たな画像を用いて前記認識処理を実行する請求項1乃至8に記載の制御装置。 After the movement of the article is completed, the control unit has moved the new image taken by the imaging device after the movement of the article and the previous image used in the recognition process. Claim 1 to execute a difference check for detecting the amount of change of the remaining articles other than the article before and after the movement, and to execute the recognition process using the new image when the amount of change exceeds the threshold value. 8. The control device according to 8. 前記第2の接続部は、2次元画像を撮像する第1の撮像装置と、3次元画像を撮像する第2の撮像装置とに接続され、
前記制御部は、前記第1の撮像装置及び前記第2の撮像装置で撮像された前記2次元画像及び前記3次元画像に基づき、前記載置部に載置された前記物品の位置、形状及び姿勢を認識する請求項1乃至9に記載の制御装置。
The second connection portion is connected to a first imaging device that captures a two-dimensional image and a second imaging device that captures a three-dimensional image.
The control unit is based on the two-dimensional image and the three-dimensional image captured by the first image pickup device and the second image pickup device, and the position, shape, and position of the article placed on the above-mentioned placement section. The control device according to claim 1 to 9, which recognizes an attitude.
載置部に載置された物品を把持して当該物品の移動を行う荷役装置に接続される第1の接続部と、前記載置部を上方から撮像する撮像装置に接続される第2の接続部とを備える制御装置のコンピュータに、
前記撮像装置で撮像された画像を前記第2の接続部を介して取得する取得ステップと、
前記取得ステップで取得した前記画像から前記載置部に載置された前記物品を認識する認識処理を実行する認識ステップと、
前記認識ステップで認識された前記物品の物品間の離間距離を算出する算出ステップと、
前記離間距離に基づいて移動順序に係る優先度を前記物品に設定する設定ステップと、
前記第1の接続部を介して前記荷役装置を制御することで、前記優先度に応じた順序で前記物品を移動させる制御ステップと、
を実行させるためのプログラム。
A first connection portion connected to a cargo handling device that grips an article placed on the mounting portion and moves the article, and a second connection portion connected to an imaging device that images the above-mentioned placement portion from above. To the computer of the control device equipped with the connection part
An acquisition step of acquiring an image captured by the imaging device via the second connection portion, and
A recognition step for executing a recognition process for recognizing the article placed on the above-mentioned placement portion from the image acquired in the acquisition step, and a recognition step.
A calculation step for calculating the separation distance between the articles recognized in the recognition step, and a calculation step.
A setting step of setting a priority related to the movement order for the article based on the separation distance, and
A control step of moving the article in an order according to the priority by controlling the cargo handling device via the first connection portion, and a control step.
A program to execute.
JP2020045226A 2020-03-16 2020-03-16 Control device and program Pending JP2021146403A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020045226A JP2021146403A (en) 2020-03-16 2020-03-16 Control device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020045226A JP2021146403A (en) 2020-03-16 2020-03-16 Control device and program

Publications (1)

Publication Number Publication Date
JP2021146403A true JP2021146403A (en) 2021-09-27

Family

ID=77850331

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020045226A Pending JP2021146403A (en) 2020-03-16 2020-03-16 Control device and program

Country Status (1)

Country Link
JP (1) JP2021146403A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102649596B1 (en) * 2023-10-12 2024-03-20 라온피플 주식회사 Apparatus and method for providing operating data controlling robot

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102649596B1 (en) * 2023-10-12 2024-03-20 라온피플 주식회사 Apparatus and method for providing operating data controlling robot

Similar Documents

Publication Publication Date Title
US10839261B2 (en) Information processing apparatus, information processing method, and storage medium
JP7466150B2 (en) Robotic system with automatic package registration mechanism and method of operation thereof
JP7191569B2 (en) gripping device
US7966094B2 (en) Workpiece picking apparatus
JP4087874B2 (en) Work picking device
US11285603B2 (en) Information processing apparatus, control method, robot system, and storage medium
JP2019063984A (en) Information processor, method, and robot system
CN111683798B (en) Workpiece pickup device and workpiece pickup method
US20070274812A1 (en) Workpiece picking device and method
JP6444499B1 (en) Control device, picking system, distribution system, program, and control method
JP6697204B1 (en) Robot system control method, non-transitory computer-readable recording medium, and robot system control device
JP7005388B2 (en) Information processing equipment and sorting system
JP6258556B1 (en) Control device, picking system, distribution system, program, control method, and production method
JP7377627B2 (en) Object detection device, object grasping system, object detection method, and object detection program
JP6363294B1 (en) Information processing apparatus, picking system, distribution system, program, and information processing method
CN114670189B (en) Storage medium, and method and system for generating control program of robot
JP2021146403A (en) Control device and program
JP2021115693A (en) Control device of robot system, control method of robot system, computer control program and robot system
US20230030852A1 (en) Control apparatus for robotic system, control method for robotic system, computer-readable storage medium storing a computer control program, and robotic system
JP2021146404A (en) Control device and program
CN111470244B (en) Control method and control device for robot system
JP2020040193A (en) Information processing device and picking system
JP2020151781A (en) Cargo handling device and cargo handling system
JP2023037715A (en) Picking device and picking method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240305

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240409