JP7136554B2 - Grasping device, learning device, program, grasping system, and learning method - Google Patents
Grasping device, learning device, program, grasping system, and learning method Download PDFInfo
- Publication number
- JP7136554B2 JP7136554B2 JP2017241555A JP2017241555A JP7136554B2 JP 7136554 B2 JP7136554 B2 JP 7136554B2 JP 2017241555 A JP2017241555 A JP 2017241555A JP 2017241555 A JP2017241555 A JP 2017241555A JP 7136554 B2 JP7136554 B2 JP 7136554B2
- Authority
- JP
- Japan
- Prior art keywords
- image data
- gripping
- edge
- unit
- flexible object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1612—Programme controls characterised by the hand, wrist, grip control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
- B25J9/163—Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
- B25J9/161—Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1669—Programme controls characterised by programming, planning systems for manipulators characterised by special application, e.g. multi-arm co-operation, assembly, grasping
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/0014—Image feed-back for automatic industrial control, e.g. robot with camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/35—Categorising the entire scene, e.g. birthday party or wedding scene
- G06V20/36—Indoor scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Description
本発明は把持装置、学習装置、学習済みモデル、把持システム、判定方法、及び学習方法に関する。 The present invention relates to a grasping device, a learning device, a trained model, a grasping system, a determination method, and a learning method.
機械学習を用いて、物体を把持する技術が知られている。例えば、非特許文献1では、把持装置は、グリッパと物体の点群が接触し、かつ、物体点群が十分にグリッパの間にあるような把持姿勢の候補を生成する。そして、この把持装置は、CNN(畳み込みニューラルネットワーク:Convolutional Neural Network)を利用して、生成した把持姿勢の候補が把持に適しているか否かを判別する。 Techniques for gripping an object using machine learning are known. For example, in Non-Patent Document 1, a gripping device generates gripping pose candidates such that a gripper and an object point group are in contact and the object point group is sufficiently between the grippers. Then, this grasping apparatus uses a CNN (Convolutional Neural Network) to determine whether the generated grasping posture candidate is suitable for grasping.
折り畳まれて積み重ねられた状態の柔軟物の把持位置の決定のために画像データを用いた機械学習を利用する場合、適切な把持位置を判別することが難しい場合がある。発明者等は、上記状態の柔軟物の側面には規則的な積層パターン形状が現れており、把持に適した部位の画像と把持に適さない部位の画像に十分な差がないため、適切な把持位置を判別することが難しいことを見出した。 When machine learning using image data is used to determine the gripping position of a folded and stacked flexible object, it may be difficult to determine the appropriate gripping position. The inventors have found that a regular lamination pattern shape appears on the side surface of the soft object in the above state, and there is no sufficient difference between the image of the part suitable for gripping and the image of the part not suitable for gripping. It was found that it is difficult to determine the gripping position.
上記目的を達成するための本発明の一態様は、物体を撮像した画像データを取得する画像データ取得部と、物体を把持する把持部と、前記把持部の動作を制御する制御部と、前記画像データ取得部が取得した、折り畳まれ積み重ねられた状態の柔軟物が撮像された前記画像データを用いて、当該画像データに写っている前記柔軟物の部位が把持に適した部位であるか否かを判定する把持位置判定部と、を有し、前記制御部は、最上段にある前記柔軟物の上面の端を変形させるよう前記把持部を制御し、前記把持位置判定部は、前記上面の端が変形された前記柔軟物が撮像された前記画像データを用いて、把持に適した部位であるか否かを判定する把持装置である。
この把持装置では、把持部により柔軟物の上面の端が変形させられる。1つに纏められた端と、そのような端ではない端とでは、変形の態様が異なるため、把持に適した部位の画像と把持に適さない部位の画像に十分な差が生じる。このため、この把持装置によれば、適切な把持位置を判別することが可能である。
One aspect of the present invention for achieving the above object is an image data acquisition unit that acquires image data of an image of an object, a grip unit that grips the object, a control unit that controls the operation of the grip unit, and Using the image data obtained by the image data acquisition unit, in which the flexible object in a folded and stacked state is imaged, whether or not the part of the flexible object shown in the image data is suitable for gripping. a gripping position determination unit that determines whether the top surface of the flexible object on the uppermost stage is deformed by the gripping position determination unit; The gripping device determines whether or not the flexible object is suitable for gripping, using the image data obtained by imaging the soft object with the deformed end of the soft object.
In this gripping device, the edge of the upper surface of the flexible object is deformed by the gripping portion. Since the mode of deformation differs between the ends that are combined and the ends that are not such ends, there is a sufficient difference between the image of the part suitable for grasping and the image of the part not suitable for grasping. Therefore, according to this gripping device, it is possible to determine an appropriate gripping position.
上記の一態様において、前記画像データ取得部が取得した、前記上面の端が変形される前の前記柔軟物が撮像された前記画像データを用いて、前記上面の端の変形のための、前記柔軟物における前記把持部との接触位置を決定する接触位置決定部をさらに有し、前記上面の端を変形させるために、前記制御部は、前記接触位置決定部により決定された前記接触位置において、前記把持部が前記柔軟物を変位させるよう制御してもよい。
このような構成によれば、柔軟物の上面の端を変形させるための制御を自律的に行うことができる。
In the above aspect, the image data obtained by the image data obtaining unit, in which the soft object is imaged before the edge of the upper surface is deformed, is used for the deformation of the edge of the upper surface. A contact position determination unit that determines a contact position of the flexible object with the grip portion, and the control unit controls the contact position determined by the contact position determination unit to deform the end of the upper surface. , the grip may be controlled to displace the flexible object.
According to such a configuration, it is possible to autonomously perform control for deforming the edge of the upper surface of the flexible object.
上記の一態様において、前記制御部は、前記把持部が前記柔軟物を押すことにより前記上面の端を変形させるよう前記把持部を制御してもよい。
このような構成によれば、容易に上面の端を変形させることができる。
In the aspect described above, the control section may control the gripping section such that the gripping section pushes the soft object, thereby deforming the edge of the upper surface.
According to such a configuration, the end of the upper surface can be easily deformed.
また、上記目的を達成するための本発明の一態様は、物体を撮像した画像データを含む訓練データを取得する訓練データ取得部と、前記訓練データ取得部が取得した前記訓練データを用いて機械学習の演算を行う学習演算部と、を有し、前記画像データは、折り畳まれ積み重ねられた状態の柔軟物であって、当該柔軟物の上面の端が規則的な積層パターン形状から変形した状態の柔軟物が写っている第1の画像データ及び第2の画像データを含み、前記第1の画像データは、前記上面の端が折り畳みにより1つに纏められた端である画像データであり、前記第2の画像データは、前記上面の端が折り畳みにより1つに纏められていない端である画像データであり、前記学習演算部は、前記訓練データを用いて、柔軟物における把持に適した部位を学習する演算を行う学習装置である。
この学習装置では、規則的な積層パターン形状から変形した状態の柔軟物についての画像を用いて学習が行われる。1つに纏められた端と、そのような端ではない端とでは、変形の態様が異なるため、学習に利用する上で十分な差がある第1の画像データと第2の画像データを用いた学習が可能となる。したがって、この学習装置によれば、適切な把持位置の学習を行うことができる。
Further, one aspect of the present invention for achieving the above object is a training data acquisition unit that acquires training data including image data of an object, and a machine using the training data acquired by the training data acquisition unit. a learning calculation unit that performs a learning calculation, wherein the image data is a flexible object in a folded and stacked state, and the edge of the upper surface of the flexible object is deformed from a regular lamination pattern shape. including first image data and second image data in which a flexible object is shown, wherein the first image data is image data in which the edge of the upper surface is an edge gathered into one by folding, The second image data is image data in which the edge of the upper surface is an edge that is not combined into one by folding, and the learning calculation unit uses the training data to obtain an image suitable for gripping a soft object. It is a learning device that performs calculations for learning body parts.
In this learning device, learning is performed using an image of a flexible object deformed from a regular lamination pattern shape. Since the mode of deformation is different between the edge that is combined into one and the edge that is not such an edge, the first image data and the second image data that have a sufficient difference for use in learning are used. It is possible to learn Therefore, according to this learning device, it is possible to learn an appropriate gripping position.
また、上記目的を達成するための本発明の一態様は、物体を撮像した画像データに基づいて、当該物体の部位に対する把持の適否を定量化した値として出力するよう、コンピュータを機能させるための学習済みモデルであって、前記学習済みモデルを構成するニューラルネットワークの重み付け係数は、物体を撮像した画像データを含む訓練データを用いて学習されており、前記訓練データに含まれる前記画像データは、折り畳まれ積み重ねられた状態の柔軟物であって、当該柔軟物の上面の端が規則的な積層パターン形状から変形した状態の柔軟物が写っている第1の画像データ及び第2の画像データを含み、前記第1の画像データは、前記上面の端が折り畳みにより1つに纏められた端である画像データであり、前記第2の画像データは、前記上面の端が折り畳みにより1つに纏められていない端である画像データであり、前記学習済みモデルは、前記ニューラルネットワークの入力層に入力された、折り畳まれ積み重ねられた状態の柔軟物が写っている画像データに対し、前記重み付け係数に従った演算を実行させ、前記画像データに写っている前記柔軟物の部位が把持に適しているか否かを前記ニューラルネットワークの出力層から出力させるよう、コンピュータを機能させる学習済みモデルである。
このモデルは、規則的な積層パターン形状から変形した状態の柔軟物についての画像を用いた学習が行われている。1つに纏められた端と、そのような端ではない端とでは、変形の態様が異なるため、第1の画像データと第2の画像データには、学習に利用する上で十分な差がある。したがって、この学習済みモデルによれば、適切な把持位置を判別することが可能である。
Further, one aspect of the present invention for achieving the above object is a computer for functioning to output a quantified value of the propriety of gripping a part of an object based on image data obtained by imaging the object. A trained model, wherein weighting coefficients of a neural network that constitutes the trained model are learned using training data including image data of an image of an object, and the image data included in the training data are: First image data and second image data showing a flexible object in a state of being folded and stacked, wherein the edge of the upper surface of the flexible object is deformed from a regular lamination pattern shape. wherein the first image data is image data in which the edge of the top surface is an edge folded into one, and the second image data is image data in which the edge of the top surface is folded into one and the trained model is input to the input layer of the neural network. It is a learned model that causes a computer to function so as to execute calculations according to the image data and output from the output layer of the neural network whether or not the part of the soft object shown in the image data is suitable for gripping.
This model is trained using images of flexible objects deformed from regular lamination patterns. Since the mode of deformation is different between the edge that is combined into one and the edge that is not such an edge, there is a sufficient difference between the first image data and the second image data for use in learning. be. Therefore, according to this trained model, it is possible to determine an appropriate gripping position.
また、上記目的を達成するための本発明の一態様は、周囲の物体を撮像する撮像装置と、前記撮像装置による画像データを取得する画像データ取得部と、物体を把持する把持部と、前記把持部の動作を制御する制御部と、前記画像データ取得部が取得した、折り畳まれ積み重ねられた状態の柔軟物が撮像された前記画像データを用いて、当該画像データに写っている前記柔軟物の部位が把持に適した部位であるか否かを判定する把持位置判定部と、を有し、前記制御部は、前記柔軟物の上面の端を変形させるよう前記把持部を制御し、前記把持位置判定部は、前記上面の端が変形された前記柔軟物が撮像された前記画像データを用いて、把持に適した部位であるか否かを判定する把持システムである。
この把持システムでは、把持部により柔軟物の上面の端が変形させられる。1つに纏められた端と、そのような端ではない端とでは、変形の態様が異なるため、把持に適した部位の画像と把持に適さない部位の画像に十分な差が生じる。このため、この把持システムによれば、適切な把持位置を判別することが可能である。
Further, one aspect of the present invention for achieving the above objects includes an imaging device that captures an image of a surrounding object, an image data acquisition unit that acquires image data from the imaging device, a gripping unit that grips the object, and Using the image data acquired by the image data acquiring unit and obtained by the image data acquiring unit, the flexible object shown in the image data is obtained by using the a gripping position determination unit that determines whether or not the portion of is suitable for gripping, wherein the control unit controls the gripping unit so as to deform an end of the upper surface of the flexible object; The gripping position determination unit is a gripping system that determines whether or not the flexible object is suitable for gripping, using the image data obtained by imaging the soft object with the deformed end of the upper surface.
In this gripping system, the edges of the top surface of the flexible object are deformed by the gripping part. Since the mode of deformation differs between the ends that are combined and the ends that are not such ends, there is a sufficient difference between the image of the part suitable for grasping and the image of the part not suitable for grasping. Therefore, according to this gripping system, it is possible to determine an appropriate gripping position.
また、上記目的を達成するための本発明の一態様は、折り畳まれ積み重ねられた状態の複数の柔軟物の上面の端を変形させるよう把持部を制御し、前記上面の端が変形された前記柔軟物が撮像された画像データを用いて、当該画像データに写っている前記柔軟物の部位が把持に適した部位であるか否かを判定する判定方法である。
この判定方法では、把持部により柔軟物の上面の端が変形させられる。1つに纏められた端と、そのような端ではない端とでは、変形の態様が異なるため、把持に適した部位の画像と把持に適さない部位の画像に十分な差が生じる。このため、この判定方法によれば、適切な把持位置を判別することが可能である。
Further, one aspect of the present invention for achieving the above object is to control the gripping section so as to deform the ends of the upper surfaces of a plurality of folded and stacked flexible objects, and to provide the above-described soft objects whose ends have been deformed. This is a determination method for determining whether or not a part of the soft object shown in the image data is suitable for gripping, using image data obtained by imaging the soft object.
In this determination method, the end of the upper surface of the flexible object is deformed by the gripping portion. Since the mode of deformation differs between the ends that are combined and the ends that are not such ends, there is a sufficient difference between the image of the part suitable for grasping and the image of the part not suitable for grasping. Therefore, according to this determination method, it is possible to determine an appropriate gripping position.
また、上記目的を達成するための本発明の一態様は、物体を撮像した画像データを含む訓練データを取得し、取得した前記訓練データを用いて、柔軟物における把持に適した部位を判定するための機械学習の演算を行い、前記画像データは、折り畳まれ積み重ねられた状態の柔軟物であって、当該柔軟物の上面の端が規則的な積層パターン形状から変形した状態の柔軟物が写っている第1の画像データ及び第2の画像データを含み、前記第1の画像データは、前記上面の端が折り畳みにより1つに纏められた端である画像データであり、前記第2の画像データは、前記上面の端が折り畳みにより1つに纏められていない端である画像データである学習方法である。
この学習方法では、規則的な積層パターン形状から変形した状態の柔軟物についての画像を用いて学習が行われる。1つに纏められた端と、そのような端ではない端とでは、変形の態様が異なるため、学習に利用する上で十分な差がある第1の画像データと第2の画像データを用いた学習が可能となる。したがって、この学習方法によれば、適切な把持位置の学習を行うことができる。
Further, according to one aspect of the present invention for achieving the above object, training data including image data of an object is acquired, and a part of a flexible object suitable for gripping is determined using the acquired training data. The image data is a flexible object in a folded and stacked state, and the flexible object in a state where the edge of the upper surface of the flexible object is deformed from the regular lamination pattern shape. wherein the first image data is image data in which the edge of the upper surface is an edge that is folded into one; and the second image The data is a learning method in which the edges of the top surface are image data that are edges that have not been folded together.
In this learning method, learning is performed using an image of a flexible object deformed from a regular lamination pattern shape. Since the mode of deformation is different between the edge that is combined into one and the edge that is not such an edge, the first image data and the second image data that have a sufficient difference for use in learning are used. It is possible to learn Therefore, according to this learning method, it is possible to learn an appropriate gripping position.
本発明によれば、折り畳まれて積み重ねられた状態の柔軟物に対する適切な把持位置を判別することができる把持装置、学習装置、学習済みモデル、把持システム、判定方法、及び学習方法を提供することができる。 According to the present invention, there are provided a gripping device, a learning device, a trained model, a gripping system, a determination method, and a learning method that can determine an appropriate gripping position for a folded and stacked flexible object. can be done.
実施の形態にかかる把持装置1は、布製品や紙製品などの形状変化し易い物体である柔軟物の把持を行う。特に、把持装置1は、折り畳まれて積み重ねられた状態の複数の柔軟物のうち、最上段に積まれている柔軟物の把持を行う。このとき把持装置1により把持される部位によっては、柔軟物の外観の状態が、折り畳まれた状態から折り畳まれていない状態へと変化してしまう。つまり、把持する位置が適切でない場合、折り畳まれた状態を維持したまま持ち上げることができない。 The gripping device 1 according to the embodiment grips soft objects such as cloth products and paper products that easily change their shape. In particular, the gripping device 1 grips the flexible object stacked on the uppermost level among the plurality of folded and stacked flexible objects. At this time, depending on the part gripped by the gripping device 1, the appearance of the flexible object changes from the folded state to the unfolded state. In other words, if the gripping position is not appropriate, the folded state cannot be lifted.
図1は、折り畳まれた柔軟物90の外観の一例を示す模式図である。なお、図1では、一例として四つ折りにされた柔軟物90の外観を示している。図1に示されるように、柔軟物90の4辺の端は特徴が異なっている。端91は、折り畳みにより1つに纏められた端であるが、他の端は折り畳みにより1つに纏められていない端である。つまり、端91は外観に1つの折り目が現れる端であるのに対し、他の端は複数の折り目が現れる端又は折り目が現れない端である。換言すると、端91は外観に1つのエッジが現れる端であるのに対し、他の端は2以上のエッジ(図1のような四つ折りの場合、具体的には2つ又は4つのエッジ)が現れる端である。さらに換言すると、端91は閉じた端であるのに対し、端91以外の端は開口した端である。
FIG. 1 is a schematic diagram showing an example of the appearance of a folded
把持位置が端91の近傍である場合、折り畳まれた状態を維持して柔軟物90を持ち上げることが比較的容易であるが、把持位置が端91以外の端の近傍である場合、折り畳まれた状態を維持して柔軟物90を持ち上げることは比較的困難である。例えば、柔軟物90の横側からエンドエフェクタを挿入し、折り畳まれた柔軟物の上側及び下側を挟んで掴む場合、把持位置が端91の近傍であれば、折り畳まれて複数枚となったシート群を全て掴むことが容易であるが、把持位置が端91以外の端の近傍であると、シート群の一部だけ掴んでしまう恐れがある。シート群の一部だけを掴んで持ち上げてしまうと、折り畳みがほどけてしまう。このように、折り畳まれた状態を維持して柔軟物を持ち上げるためには、適切な把持位置を選択する必要がある。本実施の形態では、画像に示される柔軟物の部位が適切な把持位置、すなわち、折り畳みにより1つに纏められた端の近傍であるか否かを、画像を用いた機械学習により識別する。このような手法により識別を行う場合、次のような課題がある。
When the gripping position is near the
図2A~図2Cは、折り畳まれて積み重ねられた状態の柔軟物について示す図である。図2A~図2Cでは、具体的には、折り畳まれた複数の布タオル92が積み重ねられた様子を示している。ここで、図2Aでは、印92aにより、折り畳みにより1つに纏められた端が示されており、図2B及び図2Cでは、印92b、92cにより、開口した端(折り畳みにより1つに纏められていない端)が示されている。図2A~図2Cのいずれも、類似した規則的な積層パターンが現れている。このため、図2Aに示される端と、図2B若しくは図2Cに示される端とを区別することが難しい。このため、適切な把持位置の認識が難しい。つまり、把持装置が、折り畳みを維持したまま最上段に積まれている柔軟物を持ち上げることは容易ではない。そこで、本実施の形態では、折り畳まれた柔軟物の折り畳みを維持したまま持ち上げるための以下のような技術について開示する。なお、以下の実施の形態において、柔軟物は、1つに纏められた端を有するように折り畳まれている。例えば、柔軟物は、二つ折り、四つ折り、八つ折りなど、半分に折ることが1回以上繰り返されて折り畳まれていてもよい。この場合、n+1回目の折りの際に、n回目の折りにおいて発生する折り目と直交する折り目が発生するよう折られてもよいし、平行するよう折られてもよい。なお、ここで説明した柔軟物の折り方は一例であり、これらに限定されない。
2A-2C are diagrams showing flexible objects in a folded and stacked state. 2A-2C specifically show how a plurality of folded
以下、図面を参照して実施の形態について説明する。
図3は、実施形態に係る把持装置1の概略的な構成を示すブロック図である。把持装置1は、図3に示した構成により、[1]柔軟物についての画像データに基づいて学習済みモデルを生成する学習処理と、[2]学習済みモデルを用いて、把持に適した部位についての判定を行う判定処理と、を実行する。なお、学習処理を行う装置として把持装置1を捉えた場合、把持装置1は学習装置とも称すことが可能である。
Embodiments will be described below with reference to the drawings.
FIG. 3 is a block diagram showing a schematic configuration of the gripping device 1 according to the embodiment. The gripping device 1 has the configuration shown in FIG. and a judgment process for judging about. When grasping the grasping device 1 as a device that performs learning processing, the grasping device 1 can also be referred to as a learning device.
把持装置1は、撮像装置10と、ロボットアーム11と、制御部12と、訓練データ取得部13と、学習演算部14と、モデル記憶部15と、画像データ取得部16と、接触位置決定部17と、把持位置判定部18とを備えている。
The gripping device 1 includes an
撮像装置10は、周囲の物体を撮像する装置であり、本実施の形態では、より詳細には、3次元画像情報を生成する装置である。撮像装置10の具体的な構成としては、任意の構成が採用できる。例えば、撮像装置10はステレオカメラであってもよい。また、撮像装置10は、レーザレンジファインダなどのTime-of-Flight方式の距離センサを備えていてもよいし、ドットパターンを投光して距離を測定するLight Coding方式などの距離センサを備えていてもよい。このように、撮像装置10の具体的な構成は任意であり、いずれかの技術による構成に限定されない。
The
ロボットアーム11は、物体を把持する把持部の一具体例である。図4に示すように、ロボットアーム11は、例えば、複数のリンク111と、各リンク111を回動可能に連結する関節部(手首関節、肘関節、肩関節など)112と、対象物を把持するエンドエフェクタ113と、を有する。
The
各関節部112には、各関節部112の回転情報を検出するエンコーダなどの回転センサ114と、各関節部112を駆動するサーボモータなどのアクチュエータ115と、各関節部112の操作力を検出する力センサ116と、が設けられている。力センサ116は、例えば、各関節部112のトルクを検出するトルクセンサなどである。各関節部112には、減速機構が設けられている。エンドエフェクタ113は、例えば、複数の指部などで構成され、指部で挟み込むことで対象物を把持することができる。エンドエフェクタ113には、エンドエフェクタ113を駆動するアクチュエータ117と、エンドエフェクタ113の操作力を検出する力センサ118と、が設けられている。
Each
制御部12は、ロボットアーム11の動作を制御する。制御部12は、接触位置決定部17による処理結果、又は把持位置判定部18による処理結果に基づいて、ロボットアーム11の軌道を計算する。また、制御部12は、計算された軌道に従って、ロボットアーム11を動かす。具体的には、例えば、制御部12は、回転センサ114、力センサ116、118からの出力に基づいて、アクチュエータ115、117を制御することで、ロボットアーム11をフィードバック制御する。
The
訓練データ取得部13は、物体を撮像した画像データを含む訓練データを取得する。訓練データ取得部13は、把持装置1のメモリなどの記憶装置に予め記憶された訓練データを読み込んで取得してもよいし、他の装置から送信された訓練データを取得してもよい。学習演算部14は、訓練データ取得部13が取得した訓練データを用いて機械学習の演算を行う。訓練データに含まれる画像データは、例えば2次元画像データであるが、3次元画像データであってもよい。
The training
ここで、本実施の形態で用いられる訓練データについて説明する。本実施の形態において、訓練データに含まれる画像データは、折り畳まれ積み重ねられた状態の柔軟物が写っている画像データであり、特に、柔軟物の上面の端が規則的な積層パターン形状から変形した状態の柔軟物が写っている画像データである。より詳細には、本実施の形態では、最上段に積まれた柔軟物の上面の端が側面方向から押された様子が撮像された画像データが用いられる。また、訓練データに用いられる画像データは、そのような画像データとして、次のような2種類の画像データを含む。なお、これら2種類の画像データの一方を第1の画像データと称し、他方を第2の画像データと称すこととする。 Here, the training data used in this embodiment will be described. In the present embodiment, the image data included in the training data is image data showing flexible objects in a folded and stacked state. This is image data showing a flexible object in a state where it is stretched. More specifically, in the present embodiment, image data is used in which the edge of the upper surface of the topmost flexible object is pushed from the side. Image data used as training data includes the following two types of image data as such image data. One of these two types of image data is called first image data, and the other is called second image data.
第1の画像データは、撮像されている変形した端が、折り畳みにより1つに纏められた端である画像データである。つまり、第1の画像データは、折り畳みにより1つに纏められた端において、側面方向からの押圧による変形が生じている様子が撮像された画像データである。訓練データにおいて、第1の画像データに対しては、把持に適した部位についての画像であることを示すラベルが対応づけられている。第2の画像データは、撮像されている変形した端が、折り畳みにより1つに纏められていない端である画像データである。つまり、第2の画像データは、折り畳みにより1つに纏められた端以外の端において、側面方向からの押圧による変形が生じている様子が撮像された画像データである。訓練データにおいて、第2の画像データに対しては、把持に適さない部位についての画像であることを示すラベルが対応づけられている。なお、第1の画像データ及び第2のデータは、画像データから切り出された部分画像データであってもよい。 The first image data is image data in which the deformed edges being imaged are edges that have been folded together. In other words, the first image data is image data in which deformation due to pressure from the side direction is occurring at the end that has been combined into one by folding. In the training data, the first image data is associated with a label indicating that it is an image of a region suitable for grasping. The second image data is image data in which the deformed edges being imaged are edges that are not brought together by folding. In other words, the second image data is image data in which deformation due to pressure from the side direction occurs at the ends other than the ends that are combined into one by folding. In the training data, the second image data is associated with a label indicating that it is an image of a part unsuitable for grasping. Note that the first image data and the second data may be partial image data cut out from the image data.
学習演算部14は、このような訓練データを用いて、柔軟物における把持に適した部位を学習する演算を行う。本実施の形態では、機械学習モデルとして、CNN(畳み込みニューラルネットワーク:Convolutional Neural Network)を用いる。より具体的には、把持に適した部位又は把持に適さない部位の画像内の座標位置とともに、把持の適否を出力可能なCNN YOLO v2を機械学習モデルとして用いる。なお、物体を撮像した画像データに基づいて、当該物体の部位に対する把持の適否を定量化した値として出力することが可能な他のニューラルネットワークが用いられてもよいし、その他の機械学習モデルが用いられてもよい。本実施の形態では、学習演算部14は、訓練データを用いて、具体的には、ニューラルネットワークの重み付け係数といったパラメータの値を計算する。学習演算部14は、訓練データを用いた演算処理の終了後、学習済みのモデルを、モデル記憶部15に記憶させる。
The learning
したがって、モデル記憶部15には、物体を撮像した画像データに基づいて、当該物体の部位に対する把持の適否を定量化した値として出力するよう、コンピュータを機能させるための次のような学習済みモデルが記憶される。すなわち、この学習済みモデルを構成するニューラルネットワークの重み付け係数は、物体を撮像した画像データを含む訓練データを用いて学習されている。なお、この画像データは、上述の第1の画像データ及び第2の画像データを含む。そして、この学習済みモデルは、ニューラルネットワークの入力層に入力された、折り畳まれ積み重ねられた状態の柔軟物が写っている画像データに対し、重み付け係数に従った演算を実行させ、この画像データに写っている柔軟物の部位が把持に適しているか否かをニューラルネットワークの出力層から出力させるよう、コンピュータを機能させる。なお、入力層には、折り畳まれ積み重ねられた状態の柔軟物が写っていない画像データが入力される場合もある。このように、モデル記憶部15に記憶される学習済みモデルは、プログラムモジュールとして利用される。
Therefore, in the
画像データ取得部16は、物体を撮像した画像データを取得する。画像データ取得部16は、例えば、折り畳まれ積み重ねられた状態の柔軟物が撮像された画像データを取得する。本実施の形態では、画像データ取得部16は、撮像装置10により撮像された画像データを取得するが、把持装置1のメモリなどの記憶装置に予め記憶された画像データを読み込んで取得してもよいし、他の装置から送信された画像データを取得してもよい。なお、本実施の形態では、ロボットアーム11の制御を行うために3次元画像データが取得されるが、単に適切な把持位置の判定を行う上では、必ずしも3次元画像データを必要としない。すなわち、2次元画像データであっても、学習済みモデルによる、適切な把持位置の判定は可能である。
The image
接触位置決定部17は、把持対象物である柔軟物をロボットアーム11(より詳細にはエンドエフェクタ113)により変形させるための接触位置を決定する。より、詳細には、接触位置決定部17は、積み上げられた柔軟物の上面の端の変形のための接触位置を決定する。つまり、接触位置決定部17は、ロボットアーム11が把持対象物に変位を付与する際の把持対象物におけるロボットアーム11との接触位置を決定する。本実施の形態は、変位は、把持対象物をロボットアーム11(エンドエフェクタ113)が押すことにより付与される。このため、本実施の形態では、接触位置決定部17は、ロボットアーム11が把持対象物である柔軟物を押すための接触位置を決定する。接触位置決定部17は、画像データ取得部16が取得した画像データであって、上面の端がロボットアーム11により変形される前の柔軟物が撮像された画像データを用いて、接触位置を決定する。なお、接触位置の決定の詳細については、フローチャートを用いて後述する。
The contact
把持位置判定部18は、画像データ取得部16が取得した画像データを用いて、当該画像データに写っている柔軟物の部位が把持に適した部位であるか否かを判定する。すなわち、把持位置判定部18は、折り畳まれ積み重ねられた状態の柔軟物が撮像された画像データを用いて、当該画像データに写っている柔軟物の一部分が、把持に適した部位であるか否かを判定する。ここで、把持位置判定部18は、より詳細には、上面の端に対する変形が行われた柔軟物が撮像された画像データを用いて判定を行う。また、その際、把持位置判定部18は、モデル記憶部15に記憶された学習済みモデルを用いる。すなわち、本実施の形態の把持位置判定部18は、画像データ取得部16が取得した画像データに対し、予め重み付け係数を含むパラメータが設定された上述のCNNを適用し、把持に適した領域及び把持に適さない領域を判別し、把持に適した領域を出力する。
The grip
制御部12は、上述の通り、ロボットアーム11を制御する。特に、制御部12は、把持位置の判定の際、最上段にある柔軟物の上面の端を変形させるようロボットアーム11を制御する。具体的には、制御部12は、接触位置決定部17により決定された接触位置においてロボットアーム11が柔軟物を所定の力で押すことにより柔軟物の端を変形させるようロボットアーム11を制御する。本実施の形態では、制御部12は、接触位置決定部17により決定された接触位置である、最上段の柔軟物の上面の端を、側面方向からロボットアーム11のエンドエフェクタ113により押すよう制御する。変形を発生させるための動作が単に押す動作であるため容易に変形を実現することができる。
The
なお、本実施の形態では、このように柔軟物の端を横方向から押すが、把持位置の判定の際、他の位置に対してロボットアーム11が変位を付与してもよい。例えば、制御部12は、最上段の柔軟物の上面において、端から所定の距離だけ離れた位置を上側から押すよう制御してもよい。また、本実施の形態では、制御部12は接触位置において柔軟物を押すよう制御するが、制御部12は、柔軟物の端を変形させるために、このような動作に限らず、ロボットアーム11の他の動作により柔軟物を変位させてもよい。例えば、接触位置決定部17により決定された接触位置において柔軟物を引っ張るなどといった、他の動作による変位の付与によって、柔軟物の端の変形が行われてもよい。なお、学習済みモデルを作成するために用いられる訓練データ(学習演算部14で用いられる訓練データ)に含まれる画像データは、把持位置の判定の際に行われるロボットアーム11による変形方法と同じ変形方法により変形された柔軟物の画像データである。
In the present embodiment, the end of the soft object is pushed laterally as described above, but the
また、制御部12は、把持位置判定部18により把持に適した領域であると判定された部位を把持位置として、把持対象の柔軟物を把持するようロボットアーム11を制御する。本実施の形態では、制御部12は、把持に適した領域であると判定された端を、横方向から掴んで柔軟物を把持するようにロボットアーム11を制御するが、把持に適すると判定された端の近傍を、任意の方向から掴んで柔軟物を把持してもよい。
Further, the
制御部12、訓練データ取得部13、学習演算部14、画像データ取得部16、接触位置決定部17、及び、把持位置判定部18は、例えば、把持装置1が備えるメモリなどの記憶装置に記憶された種々の命令を含むプログラムが、把持装置1が備えるプロセッサにより実行されることにより実現される。また、モデル記憶部15は、把持装置1が備えるメモリなどの記憶装置により構成される。ここで、プロセッサは、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、又はGPU(Graphics Processing Unit)であってもよいし、他の種類のプロセッサであってもよい。メモリは、揮発性メモリであってもいし、不揮発性メモリであってもよい。
The
次に、把持装置1の動作について、フローチャートを用いて説明する。
図5は、把持装置1による学習処理の流れを示すフローチャートである。
学習処理では、まず、ステップ10(S10)において、訓練データ取得部13が訓練データを取得する。ステップ10で取得される訓練データは、ラベル付けが行われた上述の第1の画像データ及び第2の画像データを含む。
次にステップ11(S11)において、学習演算部14が、ステップ10で取得された訓練データを用いて、把持に適した部位を判定するCNNの学習のための所定の演算処理を行う。
次に、ステップ12(S12)において、モデル記憶部15は、ステップ11の演算処理の完了によりパラメ-タの値が決定された学習済みモデルを記憶する。
Next, the operation of the gripping device 1 will be described using a flowchart.
FIG. 5 is a flowchart showing the flow of learning processing by the gripping device 1. As shown in FIG.
In the learning process, first, in step 10 (S10), the training
Next, in step 11 (S11), the learning
Next, at step 12 (S12), the
図6は、把持装置1が把持対象物を把持する際の処理の流れを示すフローチャートである。
把持の実行の際は、まず、ステップ20(S20)において、画像データ取得部16が、撮像装置10により物体が撮像された画像データを取得する。
次に、ステップ21(S21)において、接触位置決定部17が、把持対象物である柔軟物を変形させるための接触位置を決定する。本実施の形態では、接触位置決定部17は、具体的には、図7のフローチャートに示す処理により、接触位置を決定する。
FIG. 6 is a flow chart showing the flow of processing when the gripping device 1 grips a gripping target.
When gripping is performed, first, in step 20 (S20), the image
Next, in step 21 (S21), the contact
以下、図7のフローチャートを参照して、接触位置決定部17の処理の詳細について説明する。
まず、ステップ210(S210)において、接触位置決定部17は、把持対象物である柔軟物が置かれている平面を検出する。すなわち、接触位置決定部17は、画像データ取得部16により取得された画像データに対して、所定の画像解析処理を行って、平面を検出する。
次に、ステップ211(S211)において、接触位置決定部17は、ステップ210で検出された平面より上側に画像内において存在する塊を所定の画像解析処理を行って検出し、当該画像から切り出す。
次に、ステップ212(S212)において、接触位置決定部17は、ステップ211で切り出した塊の画像に対して所定のエッジ検出処理を行う。このエッジ検出処理により検出されたエッジは、把持対象物(積み上げられた柔軟物)の輪郭に相当する。
次に、ステップ213(S213)において、接触位置決定部17は、積み上げられた柔軟物の上面の端を、接触位置として決定する。これを実現するために、具体的には、接触位置決定部17は、ステップ212で検出されたエッジのうち最も高い位置(最も上側の位置)に存在するエッジの位置を接触位置として決定する。
Details of the processing of the contact
First, at step 210 (S210), the contact
Next, at step 211 (S211), the contact
Next, at step 212 ( S<b>212 ), the contact
Next, in step 213 (S213), the contact
以上のようにして、接触位置が決定されると、処理はステップ22(図5参照)へ移行する。
ステップ22(S22)において、把持対象物の端を変形させるため、制御部12は、ステップ21で決定した接触位置をエンドエフェクタ113により横方向から押すようロボットアーム11を制御する(図8参照)。
次に、ステップ23(S23)において、画像データ取得部16が、撮像装置10により物体が撮像された画像データを取得する。なお、ステップ23で取得される画像データには、ステップ22による変形が生じている把持対象物が撮像されている。布製品などでは、エンドエフェクタ113を離した後も、押されたことによる変形が維持される。このため、ステップ23では、エンドエフェクタ113を柔軟物から離した状態で撮像された画像データが取得されてもよい。
ステップ24(S24)において、把持位置判定部18は、把持に適した位置についての判定処理を行う。すなわち、把持位置判定部18は、ステップ23で取得された画像データに写っている把持対象物の部位が把持に適した部位であるか否かを、学習済みモデルを用いて判定する。把持に適した位置が発見された場合(ステップ25(S25)でYes)、処理は、ステップ26へ移行する。把持に適した位置が発見されなかった場合(ステップ25でNo)、処理はステップ20に戻る。処理がステップ20に戻った場合、例えば、前回とは異なる方向から撮影された画像データについて、ステップ20以降の処理が繰り返されることとなる。これにより、他の端についても、同様に、把持に適した位置についての判定処理が行われる。
ステップ26(S26)において、把持対象物を把持するため、制御部12は、ステップ24で把持に適すると判定された位置をエンドエフェクタ113により横方向から掴むようロボットアーム11を制御する。
After the contact position is determined as described above, the process proceeds to step 22 (see FIG. 5).
In step 22 (S22), the
Next, at step 23 ( S<b>23 ), the image
At step 24 (S24), the gripping
In step 26 (S26), the
このように構成された把持装置1によれば、把持位置の判定の際、ロボットアーム11により柔軟物の上面の端が変形させられる。1つに纏められた端と、そのような端ではない端とでは、変形の態様は異なる。つまり、把持位置判定部18は、把持に適するか部位か否かによって態様の異なる画像を用いて判定を行うこととなる。このため、把持位置判定部18は、適切な把持位置を判別することが可能である。また、把持装置1は、上述した接触位置決定部17を有する。このため、変形を発生させるための接触位置を自律的に決定することができる。すなわち、把持装置1では、制御部12が接触位置決定部17により決定された接触位置に従って制御を行うので、把持装置1に自律的に柔軟物を変形させることができる。
According to the gripping device 1 configured in this manner, the edge of the upper surface of the flexible object is deformed by the
なお、本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。例えば、上記の実施の形態では、把持装置1が図3に示した全ての構成要素を含んだが、これらのうち一部が他の装置に含まれてもよい。例えば、図9に示すようなシステムが構築されてもよい。 It should be noted that the present invention is not limited to the above embodiments, and can be modified as appropriate without departing from the scope of the invention. For example, in the above embodiment, the grasping device 1 includes all the components shown in FIG. 3, but some of them may be included in another device. For example, a system as shown in FIG. 9 may be constructed.
図9は、撮像装置10と、サーバ3と、把持装置4とを有する把持システム2について示す模式図である。図9に示す把持システム2は、撮像装置10が把持装置4ではなく、空間内に設置されている。また、図3に示した構成要素のうち、訓練データ取得部13、学習演算部14、モデル記憶部15、及び、把持位置判定部18をサーバ3が備え、その他の構成要素を把持装置4が備えている。この場合、制御部12、画像データ取得部16、及び接触位置決定部17は、例えば、把持装置4が備えるメモリなどの記憶装置に記憶された種々の命令を含むプログラムが、把持装置4が備えるプロセッサにより実行されることにより実現される。また、訓練データ取得部13、学習演算部14及び、把持位置判定部18は、例えば、サーバ3が備えるメモリなどの記憶装置に記憶された種々の命令を含むプログラムが、サーバ3が備えるプロセッサにより実行されることにより実現される。また、モデル記憶部15は、サーバ3が備えるメモリなどの記憶装置により構成される。撮像装置10と把持装置4との間では、画像データの送受信が行われる。すなわち、把持装置4の画像データ取得部16は、撮像装置10から送信され、把持装置4により受信された画像データを取得する。また、サーバ3と把持装置4との間では、把持位置判定部18の処理に必要な画像データの送受信及び把持位置判定部18による処理結果の送受信が行われる。
FIG. 9 is a schematic diagram showing a
なお、図9は分散処理の一例であり、他の組み合わせ、又は他の装置により、分散処理が行われてもよい。図3に示した構成例及び図9に示した構成例に限らず、例えば、学習演算部14による処理をサーバが実行し、把持位置判定部18による処理を把持装置により行うようシステムが構成されてもよいし、逆に、学習演算部14による処理を把持装置が実行し、把持位置判定部18による処理をサーバにより行うようシステムが構成されてもよい。
Note that FIG. 9 is an example of distributed processing, and distributed processing may be performed by other combinations or other devices. The configuration example shown in FIG. 3 and the configuration example shown in FIG. 9 are not the only examples. Conversely, the system may be configured such that the processing by the learning
なお、上述したプログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、Compact Disc Read Only Memory(CD-ROM)、CD-R、CD-R/W、半導体メモリ(例えば、マスクROM、Programmable ROM(PROM)、Erasable PROM(EPROM)、フラッシュROM、Random Access Memory(RAM))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。 It should be noted that the programs described above can be stored and supplied to computers using various types of non-transitory computer readable media. Non-transitory computer-readable media include various types of tangible storage media. Examples of non-transitory computer-readable media include magnetic recording media (e.g., floppy disks, magnetic tapes, hard disk drives), magneto-optical recording media (e.g., magneto-optical discs), Compact Disc Read Only Memory (CD-ROM), CD-ROM. Includes R, CD-R/W, semiconductor memory (e.g. Mask ROM, Programmable ROM (PROM), Erasable PROM (EPROM), Flash ROM, Random Access Memory (RAM)). The program may also be delivered to the computer on various types of transitory computer readable medium. Examples of transitory computer-readable media include electrical signals, optical signals, and electromagnetic waves. Transitory computer-readable media can deliver the program to the computer via wired channels, such as wires and optical fibers, or wireless channels.
1 把持装置
2 把持システム
3 サーバ
4 把持装置
10 撮像装置
11 ロボットアーム
12 制御部
13 訓練データ取得部
14 学習演算部
15 モデル記憶部
16 画像データ取得部
17 接触位置決定部
18 把持位置判定部
1 gripping
Claims (7)
物体を把持する把持部と、
前記把持部の動作を制御する制御部と、
前記画像データ取得部が取得した、折り畳まれ積み重ねられた状態の柔軟物が撮像された前記画像データを用いて、当該画像データに写っている前記柔軟物の部位が把持に適した部位であるか否かを判定する把持位置判定部と、
を有し、
前記制御部は、最上段にある前記柔軟物の上面の端を変形させるよう前記把持部を制御し、
前記把持位置判定部は、前記把持部の制御により前記上面の端が変形された前記柔軟物が撮像された前記画像データを用いて、把持に適した部位であるか否かを判定する
把持装置。 an image data acquisition unit that acquires image data obtained by imaging an object;
a gripping part that grips an object;
a control unit that controls the operation of the gripping unit;
Using the image data obtained by the image data acquisition unit, in which the flexible object in a folded and stacked state is imaged, whether the part of the flexible object shown in the image data is suitable for gripping. a gripping position determination unit that determines whether or not
has
The control unit controls the gripping unit to deform the end of the upper surface of the soft object on the uppermost stage,
The gripping position determination unit determines whether or not the soft object is a part suitable for gripping, using the image data obtained by imaging the flexible object whose end of the upper surface is deformed under the control of the gripping unit. Gripping device .
前記上面の端を変形させるために、前記制御部は、前記接触位置決定部により決定された前記接触位置において、前記把持部が前記柔軟物を変位させるよう制御する
請求項1に記載の把持装置。 Using the image data obtained by the image data acquisition unit, in which the flexible object is imaged before the edge of the upper surface is deformed, the gripping unit of the flexible object for deforming the edge of the upper surface It further has a contact position determination unit that determines the contact position with
The gripping device according to claim 1, wherein the control unit controls the gripping unit to displace the soft object at the contact position determined by the contact position determination unit in order to deform the edge of the upper surface. .
請求項1又は2に記載の把持装置。 The gripping device according to claim 1 or 2, wherein the control section controls the gripping section such that the gripping section pushes the soft object to deform the edge of the upper surface.
前記訓練データ取得部が取得した前記訓練データを用いて機械学習の演算を行う学習演算部と、
を有し、
前記画像データは、折り畳まれ積み重ねられた状態の柔軟物であって、当該柔軟物の上面の端が規則的な積層パターン形状から変形した状態の柔軟物が写っている第1の画像データ及び第2の画像データを含み、
前記第1の画像データは、前記上面の端が折り畳みにより1つに纏められた端である画像データであり、
前記第2の画像データは、前記上面の端が折り畳みにより1つに纏められていない端である画像データであり、
前記学習演算部は、前記訓練データを用いて、柔軟物における把持に適した部位を学習する演算を行う
学習装置。 a training data acquisition unit that acquires training data including image data obtained by imaging an object;
a learning computation unit that performs machine learning computation using the training data acquired by the training data acquisition unit;
has
The image data includes first image data and first image data showing a flexible object in a state of being folded and stacked, with the edge of the upper surface of the flexible object being deformed from a regular lamination pattern shape. 2 image data,
The first image data is image data in which the edge of the upper surface is an edge that is combined into one by folding,
The second image data is image data in which the edge of the upper surface is an edge that is not combined into one by folding,
The learning device, wherein the learning calculation unit uses the training data to perform a calculation for learning a part of a flexible object that is suitable for gripping.
前記学習済みモデルを構成するニューラルネットワークの重み付け係数は、物体を撮像した画像データを含む訓練データを用いて学習されており、
前記訓練データに含まれる前記画像データは、折り畳まれ積み重ねられた状態の柔軟物であって、当該柔軟物の上面の端が規則的な積層パターン形状から変形した状態の柔軟物が写っている第1の画像データ及び第2の画像データを含み、
前記第1の画像データは、前記上面の端が折り畳みにより1つに纏められた端である画像データであり、
前記第2の画像データは、前記上面の端が折り畳みにより1つに纏められていない端である画像データであり、
前記学習済みモデルは、前記ニューラルネットワークの入力層に入力された、折り畳まれ積み重ねられた状態の柔軟物が写っている画像データに対し、前記重み付け係数に従った演算を前記コンピュータに実行させ、前記画像データに写っている前記柔軟物の部位が把持に適しているか否かを前記ニューラルネットワークの出力層から出力させる
プログラム。 A program executed by the computer to output a value quantifying the propriety of gripping a part of the object based on image data obtained by imaging the object, wherein the program has been learned. including the model
The weighting coefficients of the neural network that constitutes the trained model are learned using training data including image data obtained by imaging an object,
The image data included in the training data is a flexible object in a folded and stacked state, and shows a flexible object in a state where the edge of the upper surface of the flexible object is deformed from a regular lamination pattern shape. including one image data and a second image data,
The first image data is image data in which the edge of the upper surface is an edge that is combined into one by folding,
The second image data is image data in which the edge of the upper surface is an edge that is not combined into one by folding,
The trained model causes the computer to perform calculations according to the weighting coefficients on image data in which flexible objects in a folded and stacked state are input to the input layer of the neural network, and output from the output layer of the neural network whether or not the part of the soft object shown in the image data is suitable for gripping;
program .
前記撮像装置による画像データを取得する画像データ取得部と、
物体を把持する把持部と、
前記把持部の動作を制御する制御部と、
前記画像データ取得部が取得した、折り畳まれ積み重ねられた状態の柔軟物が撮像された前記画像データを用いて、当該画像データに写っている前記柔軟物の部位が把持に適した部位であるか否かを判定する把持位置判定部と、
を有し、
前記制御部は、前記柔軟物の上面の端を変形させるよう前記把持部を制御し、
前記把持位置判定部は、前記把持部の制御により前記上面の端が変形された前記柔軟物が撮像された前記画像データを用いて、把持に適した部位であるか否かを判定する
把持システム。 an imaging device for imaging surrounding objects;
an image data acquisition unit that acquires image data from the imaging device;
a gripping part that grips an object;
a control unit that controls the operation of the gripping unit;
Using the image data obtained by the image data acquisition unit, in which the flexible object in a folded and stacked state is imaged, whether the part of the flexible object shown in the image data is suitable for gripping. a gripping position determination unit that determines whether or not
has
The control unit controls the gripping unit to deform the end of the upper surface of the flexible object,
The gripping position determining unit determines whether or not the soft object is a part suitable for gripping, using the image data obtained by imaging the flexible object whose end of the upper surface is deformed under the control of the gripping unit. Gripping system .
取得した前記訓練データを用いて、柔軟物における把持に適した部位を判定するための機械学習の演算を行い、
前記画像データは、折り畳まれ積み重ねられた状態の柔軟物であって、当該柔軟物の上面の端が規則的な積層パターン形状から変形した状態の柔軟物が写っている第1の画像データ及び第2の画像データを含み、
前記第1の画像データは、前記上面の端が折り畳みにより1つに纏められた端である画像データであり、
前記第2の画像データは、前記上面の端が折り畳みにより1つに纏められていない端である画像データである
学習方法。 Acquire training data including image data of an object,
Using the acquired training data, perform machine learning calculations for determining a part of a flexible object that is suitable for gripping,
The image data includes first image data and first image data showing a flexible object in a state of being folded and stacked, with the edge of the upper surface of the flexible object being deformed from a regular lamination pattern shape. 2 image data,
The first image data is image data in which the edge of the upper surface is an edge that is combined into one by folding,
The learning method, wherein the second image data is image data in which edges of the upper surface are edges that are not combined into one by folding.
Priority Applications (8)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017241555A JP7136554B2 (en) | 2017-12-18 | 2017-12-18 | Grasping device, learning device, program, grasping system, and learning method |
EP18208069.7A EP3499463B1 (en) | 2017-12-18 | 2018-11-23 | Grasping apparatus, learned model and determination method |
EP21168900.5A EP3869464A1 (en) | 2017-12-18 | 2018-11-23 | Learning apparatus, grasping system, and learning method |
US16/214,556 US11383378B2 (en) | 2017-12-18 | 2018-12-10 | Grasping apparatus, learning apparatus, learned model, grasping system, determination method, and learning method |
KR1020180160688A KR102140637B1 (en) | 2017-12-18 | 2018-12-13 | Grasping apparatus, grasping system, and determination method |
CN201811525879.6A CN110046538B (en) | 2017-12-18 | 2018-12-13 | Gripping device, gripping system, determination method, learning device, model and method |
KR1020200030705A KR102140639B1 (en) | 2017-12-18 | 2020-03-12 | Learning apparatus, non-transitory computer readable medium storing a learned model, and learning method |
JP2022039854A JP7201858B2 (en) | 2017-12-18 | 2022-03-15 | Judgment method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017241555A JP7136554B2 (en) | 2017-12-18 | 2017-12-18 | Grasping device, learning device, program, grasping system, and learning method |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022039854A Division JP7201858B2 (en) | 2017-12-18 | 2022-03-15 | Judgment method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019107725A JP2019107725A (en) | 2019-07-04 |
JP7136554B2 true JP7136554B2 (en) | 2022-09-13 |
Family
ID=64604427
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017241555A Active JP7136554B2 (en) | 2017-12-18 | 2017-12-18 | Grasping device, learning device, program, grasping system, and learning method |
Country Status (5)
Country | Link |
---|---|
US (1) | US11383378B2 (en) |
EP (2) | EP3499463B1 (en) |
JP (1) | JP7136554B2 (en) |
KR (2) | KR102140637B1 (en) |
CN (1) | CN110046538B (en) |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6680732B2 (en) * | 2017-08-23 | 2020-04-15 | ファナック株式会社 | Goods stacking device and machine learning device |
JP7136554B2 (en) * | 2017-12-18 | 2022-09-13 | 国立大学法人信州大学 | Grasping device, learning device, program, grasping system, and learning method |
US11584016B2 (en) * | 2018-04-24 | 2023-02-21 | Fanuc Corporation | Robot controller and system |
JP7047726B2 (en) * | 2018-11-27 | 2022-04-05 | トヨタ自動車株式会社 | Gripping robot and control program for gripping robot |
JP2020110874A (en) * | 2019-01-11 | 2020-07-27 | 倉敷紡績株式会社 | Flexible object stacking method, clothing folding and stacking method, and robot system |
CN110253581A (en) * | 2019-06-25 | 2019-09-20 | 华北水利水电大学 | A kind of auxiliary grip method of view-based access control model identification |
WO2021001039A1 (en) * | 2019-07-03 | 2021-01-07 | Sewts Gmbh | Method for positioning a limp, flat workpiece and positioning apparatus |
JP7342676B2 (en) | 2019-12-13 | 2023-09-12 | トヨタ自動車株式会社 | Remote control system and remote control method |
CN111145257B (en) * | 2019-12-27 | 2024-01-05 | 深圳市越疆科技有限公司 | Article grabbing method and system and article grabbing robot |
JP7342974B2 (en) * | 2020-01-15 | 2023-09-12 | オムロン株式会社 | Control device, learning device, control method, and control program |
US10759054B1 (en) * | 2020-02-26 | 2020-09-01 | Grey Orange Pte. Ltd. | Method and system for handling deformable objects |
WO2022085408A1 (en) * | 2020-10-19 | 2022-04-28 | 三菱電機株式会社 | Robot control device and robot control method |
CN112297013B (en) * | 2020-11-11 | 2022-02-18 | 浙江大学 | Robot intelligent grabbing method based on digital twin and deep neural network |
CN113459101B (en) * | 2021-03-05 | 2022-08-09 | 牧今科技 | Method and computing system for performing gripping area detection |
US11911919B2 (en) | 2021-03-05 | 2024-02-27 | Mujin, Inc. | Method and computing system for performing grip region detection |
US11752525B2 (en) | 2021-07-16 | 2023-09-12 | Mihir Kothari | System and method of laundry sorting |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017185578A (en) | 2016-04-05 | 2017-10-12 | 株式会社リコー | Object gripping device and gripping control program |
Family Cites Families (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4355795A (en) | 1980-03-04 | 1982-10-26 | Bobst Champlain, Inc. | Sheet handling device |
DE4124077C2 (en) * | 1991-07-19 | 1995-03-09 | Fraunhofer Ges Forschung | Device for receiving limp flat parts |
JPH0780790A (en) * | 1993-09-16 | 1995-03-28 | Fujitsu Ltd | Three-dimensional object grasping system |
US20010056313A1 (en) * | 2000-05-08 | 2001-12-27 | Osborne William Joseph | Object locating and retrieving system utilizing labels |
JP3855050B2 (en) * | 2002-04-26 | 2006-12-06 | 独立行政法人産業技術総合研究所 | Clothing state estimation method and program |
AU2003243948A1 (en) * | 2002-06-24 | 2004-01-06 | Matsushita Electric Industrial Co., Ltd. | Articulated driving mechanism, method of manufacturing the mechanism, and holding hand and robot using the mechanism |
JP2009279700A (en) | 2008-05-21 | 2009-12-03 | Purex:Kk | Work gripping method and work gripping device |
BRPI0921932B1 (en) * | 2008-11-26 | 2019-10-01 | H.W.J. Designs For Agribusiness, Inc. | METHOD FOR RESTORING BAG AND PLACING BALLET IN BAG, BAG RESTORATION SET, BAG FOR BAGING A BALLET BAG |
US8997670B2 (en) * | 2010-03-18 | 2015-04-07 | Wayne J. Book | Conveyance system that transports fabric |
US9969041B2 (en) * | 2010-12-01 | 2018-05-15 | Seven Dreamers Laboratories, Inc. | Deformable thin object spreading device and method |
JP5952136B2 (en) | 2012-08-29 | 2016-07-13 | 倉敷紡績株式会社 | Method and apparatus for automatically detecting edge of cloth, and cloth unfolding and feeding apparatus having the apparatus |
JP6364836B2 (en) * | 2014-03-14 | 2018-08-01 | セイコーエプソン株式会社 | Robot, robot system, and control device |
KR20150118813A (en) | 2014-04-15 | 2015-10-23 | 삼성전자주식회사 | Providing Method for Haptic Information and Electronic Device supporting the same |
US9427874B1 (en) * | 2014-08-25 | 2016-08-30 | Google Inc. | Methods and systems for providing landmarks to facilitate robot localization and visual odometry |
US9561587B2 (en) * | 2014-12-16 | 2017-02-07 | Amazon Technologies, Inc. | Robotic grasping of items in inventory system |
JP6522488B2 (en) | 2015-07-31 | 2019-05-29 | ファナック株式会社 | Machine learning apparatus, robot system and machine learning method for learning work taking-out operation |
CN108885715B (en) * | 2016-03-03 | 2020-06-26 | 谷歌有限责任公司 | Deep machine learning method and device for robot grabbing |
US9962989B2 (en) * | 2016-04-01 | 2018-05-08 | Bastian Solutions, Llc | Robotic system for placing printed material into boxes |
US9981379B1 (en) * | 2016-05-12 | 2018-05-29 | X Development Llc | Detachable support member for robot gripper |
JP7136554B2 (en) * | 2017-12-18 | 2022-09-13 | 国立大学法人信州大学 | Grasping device, learning device, program, grasping system, and learning method |
US10981272B1 (en) * | 2017-12-18 | 2021-04-20 | X Development Llc | Robot grasp learning |
JP7325896B2 (en) * | 2019-04-04 | 2023-08-15 | 花王株式会社 | Sheet transfer method |
FR3096672B1 (en) * | 2019-06-03 | 2021-04-30 | Jyga Process | installation and method for handling flat blanks |
US11738447B2 (en) * | 2019-07-29 | 2023-08-29 | Nimble Robotics, Inc. | Storage systems and methods for robotic picking |
US10759054B1 (en) * | 2020-02-26 | 2020-09-01 | Grey Orange Pte. Ltd. | Method and system for handling deformable objects |
-
2017
- 2017-12-18 JP JP2017241555A patent/JP7136554B2/en active Active
-
2018
- 2018-11-23 EP EP18208069.7A patent/EP3499463B1/en active Active
- 2018-11-23 EP EP21168900.5A patent/EP3869464A1/en active Pending
- 2018-12-10 US US16/214,556 patent/US11383378B2/en active Active
- 2018-12-13 CN CN201811525879.6A patent/CN110046538B/en active Active
- 2018-12-13 KR KR1020180160688A patent/KR102140637B1/en active IP Right Grant
-
2020
- 2020-03-12 KR KR1020200030705A patent/KR102140639B1/en active IP Right Grant
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017185578A (en) | 2016-04-05 | 2017-10-12 | 株式会社リコー | Object gripping device and gripping control program |
Non-Patent Citations (4)
Title |
---|
Hiroyuki Yuba and Kimitoshi Yamazaki,Unfolding an Item of Rectangular Clothing Using a Single Arm and an Assistant Instrument,The Proceedings of JSME annual Conference on Robotics and Mechatronics,2014年05月,http://ais.shinshu-u.ac.jp/~aislab/papers/2014_SII_yuba.pdf |
Jeremy Maitin-Shepard, Marco Cusumano-Towner, Jinna Lei and Pieter Abbeel,Cloth Grasp Point Detection based on Maltiple-View Geometric Cues with Application to Robotic Towel Folding,2010 IEEE International Conference on Robotics and Automation,2010年05月03日,https://people.eecs.berkeley.edu/~pabbeel/papers/Maitin-ShepardCusumano-TownerLeiAbbeel_ICRA2010.pdf |
佐野 知樹,出村 聡規,中島 渉,長濱 虎太郎,竹下 佳佑,山崎 公俊,第18回計測自動制御学会システムインテグレーション部門講演会講演論文集,単腕ロボットによる折り重ねられたタオルの分離と掴み上げ,2017年12月22日,http://ais.shinshu-u.ac.jp/~aislab/papers/201712_SI_sano.pdf |
守屋 佑亮,田中 大輔,山崎 公俊,竹下 佳佑,単腕マニピュレータによる折り畳まれた布製品の適切な掴み上げ,ロボティクス・メカトロニクス講演会2017講演論文集,2017年05月12日,http://ais.shinshu-u.ac.jp/~aislab/papers/201705_robomech_moriya.pdf |
Also Published As
Publication number | Publication date |
---|---|
JP2019107725A (en) | 2019-07-04 |
EP3499463A3 (en) | 2019-09-04 |
KR20200032057A (en) | 2020-03-25 |
KR102140639B1 (en) | 2020-08-04 |
US11383378B2 (en) | 2022-07-12 |
EP3499463A2 (en) | 2019-06-19 |
KR20190073282A (en) | 2019-06-26 |
CN110046538B (en) | 2023-04-25 |
EP3869464A1 (en) | 2021-08-25 |
US20190184554A1 (en) | 2019-06-20 |
EP3499463B1 (en) | 2021-11-17 |
KR102140637B1 (en) | 2020-08-04 |
CN110046538A (en) | 2019-07-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7136554B2 (en) | Grasping device, learning device, program, grasping system, and learning method | |
JP6604832B2 (en) | Machine learning support device | |
US9902059B2 (en) | Robot teaching apparatus, method, and robot system | |
JP2017177294A (en) | Robot control device, robot control method, robot system and computer program | |
Namiki et al. | Robotic origami folding with dynamic motion primitives | |
WO2011065035A1 (en) | Method of creating teaching data for robot, and teaching system for robot | |
JP6541397B2 (en) | INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM | |
JPWO2018092254A1 (en) | Gripping force setting system, gripping force setting method, and gripping force estimation system | |
Namiki et al. | Origami folding by multifingered hands with motion primitives | |
JP2020508888A5 (en) | ||
JP2015112654A (en) | Control apparatus, robot, teaching data generation method, and robot system | |
JP7186349B2 (en) | END EFFECTOR CONTROL SYSTEM AND END EFFECTOR CONTROL METHOD | |
Berger et al. | Inferring guidance information in cooperative human-robot tasks | |
Huang et al. | Grasping novel objects with a dexterous robotic hand through neuroevolution | |
Misimi et al. | Robotic handling of compliant food objects by robust learning from demonstration | |
JP6838833B2 (en) | Gripping device, gripping method, and program | |
JP7201858B2 (en) | Judgment method | |
Hundhausen et al. | Fast reactive grasping with in-finger vision and in-hand fpga-accelerated cnns | |
JP2008183629A (en) | Robot and its control device and control method | |
Vásquez et al. | In-hand object shape identification using invariant proprioceptive signatures | |
Guo et al. | Deformation control of a deformable object based on visual and tactile feedback | |
KR20200133337A (en) | Control device, control method, and program | |
WO2021029205A1 (en) | Information processing device, information processing method, program, and robot | |
Guo et al. | A system of robotic grasping with experience acquisition | |
CN114051443A (en) | Information processing device, robot system, and information processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200807 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210527 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210608 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210706 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20211221 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220315 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20220315 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20220316 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20220413 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20220419 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220705 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220725 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220809 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220901 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7136554 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |