JP7136554B2 - Grasping device, learning device, program, grasping system, and learning method - Google Patents

Grasping device, learning device, program, grasping system, and learning method Download PDF

Info

Publication number
JP7136554B2
JP7136554B2 JP2017241555A JP2017241555A JP7136554B2 JP 7136554 B2 JP7136554 B2 JP 7136554B2 JP 2017241555 A JP2017241555 A JP 2017241555A JP 2017241555 A JP2017241555 A JP 2017241555A JP 7136554 B2 JP7136554 B2 JP 7136554B2
Authority
JP
Japan
Prior art keywords
image data
gripping
edge
unit
flexible object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017241555A
Other languages
Japanese (ja)
Other versions
JP2019107725A (en
Inventor
公俊 山崎
知樹 佐野
聡規 出村
渉 中島
佳佑 竹下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shinshu University NUC
Toyota Motor Corp
Original Assignee
Shinshu University NUC
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shinshu University NUC, Toyota Motor Corp filed Critical Shinshu University NUC
Priority to JP2017241555A priority Critical patent/JP7136554B2/en
Priority to EP18208069.7A priority patent/EP3499463B1/en
Priority to EP21168900.5A priority patent/EP3869464A1/en
Priority to US16/214,556 priority patent/US11383378B2/en
Priority to KR1020180160688A priority patent/KR102140637B1/en
Priority to CN201811525879.6A priority patent/CN110046538B/en
Publication of JP2019107725A publication Critical patent/JP2019107725A/en
Priority to KR1020200030705A priority patent/KR102140639B1/en
Priority to JP2022039854A priority patent/JP7201858B2/en
Application granted granted Critical
Publication of JP7136554B2 publication Critical patent/JP7136554B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1612Programme controls characterised by the hand, wrist, grip control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1669Programme controls characterised by programming, planning systems for manipulators characterised by special application, e.g. multi-arm co-operation, assembly, grasping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0014Image feed-back for automatic industrial control, e.g. robot with camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/35Categorising the entire scene, e.g. birthday party or wedding scene
    • G06V20/36Indoor scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Description

本発明は把持装置、学習装置、学習済みモデル、把持システム、判定方法、及び学習方法に関する。 The present invention relates to a grasping device, a learning device, a trained model, a grasping system, a determination method, and a learning method.

機械学習を用いて、物体を把持する技術が知られている。例えば、非特許文献1では、把持装置は、グリッパと物体の点群が接触し、かつ、物体点群が十分にグリッパの間にあるような把持姿勢の候補を生成する。そして、この把持装置は、CNN(畳み込みニューラルネットワーク:Convolutional Neural Network)を利用して、生成した把持姿勢の候補が把持に適しているか否かを判別する。 Techniques for gripping an object using machine learning are known. For example, in Non-Patent Document 1, a gripping device generates gripping pose candidates such that a gripper and an object point group are in contact and the object point group is sufficiently between the grippers. Then, this grasping apparatus uses a CNN (Convolutional Neural Network) to determine whether the generated grasping posture candidate is suitable for grasping.

Marcus Gualtieri, Andreas ten Pas, Kate Saenko, and Robert Platt, “High precision grasp pose detection in dense clutter”, arXiv preprint arXiv:1603.01564, 2016.Marcus Gualtieri, Andreas ten Pas, Kate Saenko, and Robert Platt, “High precision grasp pose detection in dense clutter”, arXiv preprint arXiv:1603.01564, 2016.

折り畳まれて積み重ねられた状態の柔軟物の把持位置の決定のために画像データを用いた機械学習を利用する場合、適切な把持位置を判別することが難しい場合がある。発明者等は、上記状態の柔軟物の側面には規則的な積層パターン形状が現れており、把持に適した部位の画像と把持に適さない部位の画像に十分な差がないため、適切な把持位置を判別することが難しいことを見出した。 When machine learning using image data is used to determine the gripping position of a folded and stacked flexible object, it may be difficult to determine the appropriate gripping position. The inventors have found that a regular lamination pattern shape appears on the side surface of the soft object in the above state, and there is no sufficient difference between the image of the part suitable for gripping and the image of the part not suitable for gripping. It was found that it is difficult to determine the gripping position.

上記目的を達成するための本発明の一態様は、物体を撮像した画像データを取得する画像データ取得部と、物体を把持する把持部と、前記把持部の動作を制御する制御部と、前記画像データ取得部が取得した、折り畳まれ積み重ねられた状態の柔軟物が撮像された前記画像データを用いて、当該画像データに写っている前記柔軟物の部位が把持に適した部位であるか否かを判定する把持位置判定部と、を有し、前記制御部は、最上段にある前記柔軟物の上面の端を変形させるよう前記把持部を制御し、前記把持位置判定部は、前記上面の端が変形された前記柔軟物が撮像された前記画像データを用いて、把持に適した部位であるか否かを判定する把持装置である。
この把持装置では、把持部により柔軟物の上面の端が変形させられる。1つに纏められた端と、そのような端ではない端とでは、変形の態様が異なるため、把持に適した部位の画像と把持に適さない部位の画像に十分な差が生じる。このため、この把持装置によれば、適切な把持位置を判別することが可能である。
One aspect of the present invention for achieving the above object is an image data acquisition unit that acquires image data of an image of an object, a grip unit that grips the object, a control unit that controls the operation of the grip unit, and Using the image data obtained by the image data acquisition unit, in which the flexible object in a folded and stacked state is imaged, whether or not the part of the flexible object shown in the image data is suitable for gripping. a gripping position determination unit that determines whether the top surface of the flexible object on the uppermost stage is deformed by the gripping position determination unit; The gripping device determines whether or not the flexible object is suitable for gripping, using the image data obtained by imaging the soft object with the deformed end of the soft object.
In this gripping device, the edge of the upper surface of the flexible object is deformed by the gripping portion. Since the mode of deformation differs between the ends that are combined and the ends that are not such ends, there is a sufficient difference between the image of the part suitable for grasping and the image of the part not suitable for grasping. Therefore, according to this gripping device, it is possible to determine an appropriate gripping position.

上記の一態様において、前記画像データ取得部が取得した、前記上面の端が変形される前の前記柔軟物が撮像された前記画像データを用いて、前記上面の端の変形のための、前記柔軟物における前記把持部との接触位置を決定する接触位置決定部をさらに有し、前記上面の端を変形させるために、前記制御部は、前記接触位置決定部により決定された前記接触位置において、前記把持部が前記柔軟物を変位させるよう制御してもよい。
このような構成によれば、柔軟物の上面の端を変形させるための制御を自律的に行うことができる。
In the above aspect, the image data obtained by the image data obtaining unit, in which the soft object is imaged before the edge of the upper surface is deformed, is used for the deformation of the edge of the upper surface. A contact position determination unit that determines a contact position of the flexible object with the grip portion, and the control unit controls the contact position determined by the contact position determination unit to deform the end of the upper surface. , the grip may be controlled to displace the flexible object.
According to such a configuration, it is possible to autonomously perform control for deforming the edge of the upper surface of the flexible object.

上記の一態様において、前記制御部は、前記把持部が前記柔軟物を押すことにより前記上面の端を変形させるよう前記把持部を制御してもよい。
このような構成によれば、容易に上面の端を変形させることができる。
In the aspect described above, the control section may control the gripping section such that the gripping section pushes the soft object, thereby deforming the edge of the upper surface.
According to such a configuration, the end of the upper surface can be easily deformed.

また、上記目的を達成するための本発明の一態様は、物体を撮像した画像データを含む訓練データを取得する訓練データ取得部と、前記訓練データ取得部が取得した前記訓練データを用いて機械学習の演算を行う学習演算部と、を有し、前記画像データは、折り畳まれ積み重ねられた状態の柔軟物であって、当該柔軟物の上面の端が規則的な積層パターン形状から変形した状態の柔軟物が写っている第1の画像データ及び第2の画像データを含み、前記第1の画像データは、前記上面の端が折り畳みにより1つに纏められた端である画像データであり、前記第2の画像データは、前記上面の端が折り畳みにより1つに纏められていない端である画像データであり、前記学習演算部は、前記訓練データを用いて、柔軟物における把持に適した部位を学習する演算を行う学習装置である。
この学習装置では、規則的な積層パターン形状から変形した状態の柔軟物についての画像を用いて学習が行われる。1つに纏められた端と、そのような端ではない端とでは、変形の態様が異なるため、学習に利用する上で十分な差がある第1の画像データと第2の画像データを用いた学習が可能となる。したがって、この学習装置によれば、適切な把持位置の学習を行うことができる。
Further, one aspect of the present invention for achieving the above object is a training data acquisition unit that acquires training data including image data of an object, and a machine using the training data acquired by the training data acquisition unit. a learning calculation unit that performs a learning calculation, wherein the image data is a flexible object in a folded and stacked state, and the edge of the upper surface of the flexible object is deformed from a regular lamination pattern shape. including first image data and second image data in which a flexible object is shown, wherein the first image data is image data in which the edge of the upper surface is an edge gathered into one by folding, The second image data is image data in which the edge of the upper surface is an edge that is not combined into one by folding, and the learning calculation unit uses the training data to obtain an image suitable for gripping a soft object. It is a learning device that performs calculations for learning body parts.
In this learning device, learning is performed using an image of a flexible object deformed from a regular lamination pattern shape. Since the mode of deformation is different between the edge that is combined into one and the edge that is not such an edge, the first image data and the second image data that have a sufficient difference for use in learning are used. It is possible to learn Therefore, according to this learning device, it is possible to learn an appropriate gripping position.

また、上記目的を達成するための本発明の一態様は、物体を撮像した画像データに基づいて、当該物体の部位に対する把持の適否を定量化した値として出力するよう、コンピュータを機能させるための学習済みモデルであって、前記学習済みモデルを構成するニューラルネットワークの重み付け係数は、物体を撮像した画像データを含む訓練データを用いて学習されており、前記訓練データに含まれる前記画像データは、折り畳まれ積み重ねられた状態の柔軟物であって、当該柔軟物の上面の端が規則的な積層パターン形状から変形した状態の柔軟物が写っている第1の画像データ及び第2の画像データを含み、前記第1の画像データは、前記上面の端が折り畳みにより1つに纏められた端である画像データであり、前記第2の画像データは、前記上面の端が折り畳みにより1つに纏められていない端である画像データであり、前記学習済みモデルは、前記ニューラルネットワークの入力層に入力された、折り畳まれ積み重ねられた状態の柔軟物が写っている画像データに対し、前記重み付け係数に従った演算を実行させ、前記画像データに写っている前記柔軟物の部位が把持に適しているか否かを前記ニューラルネットワークの出力層から出力させるよう、コンピュータを機能させる学習済みモデルである。
このモデルは、規則的な積層パターン形状から変形した状態の柔軟物についての画像を用いた学習が行われている。1つに纏められた端と、そのような端ではない端とでは、変形の態様が異なるため、第1の画像データと第2の画像データには、学習に利用する上で十分な差がある。したがって、この学習済みモデルによれば、適切な把持位置を判別することが可能である。
Further, one aspect of the present invention for achieving the above object is a computer for functioning to output a quantified value of the propriety of gripping a part of an object based on image data obtained by imaging the object. A trained model, wherein weighting coefficients of a neural network that constitutes the trained model are learned using training data including image data of an image of an object, and the image data included in the training data are: First image data and second image data showing a flexible object in a state of being folded and stacked, wherein the edge of the upper surface of the flexible object is deformed from a regular lamination pattern shape. wherein the first image data is image data in which the edge of the top surface is an edge folded into one, and the second image data is image data in which the edge of the top surface is folded into one and the trained model is input to the input layer of the neural network. It is a learned model that causes a computer to function so as to execute calculations according to the image data and output from the output layer of the neural network whether or not the part of the soft object shown in the image data is suitable for gripping.
This model is trained using images of flexible objects deformed from regular lamination patterns. Since the mode of deformation is different between the edge that is combined into one and the edge that is not such an edge, there is a sufficient difference between the first image data and the second image data for use in learning. be. Therefore, according to this trained model, it is possible to determine an appropriate gripping position.

また、上記目的を達成するための本発明の一態様は、周囲の物体を撮像する撮像装置と、前記撮像装置による画像データを取得する画像データ取得部と、物体を把持する把持部と、前記把持部の動作を制御する制御部と、前記画像データ取得部が取得した、折り畳まれ積み重ねられた状態の柔軟物が撮像された前記画像データを用いて、当該画像データに写っている前記柔軟物の部位が把持に適した部位であるか否かを判定する把持位置判定部と、を有し、前記制御部は、前記柔軟物の上面の端を変形させるよう前記把持部を制御し、前記把持位置判定部は、前記上面の端が変形された前記柔軟物が撮像された前記画像データを用いて、把持に適した部位であるか否かを判定する把持システムである。
この把持システムでは、把持部により柔軟物の上面の端が変形させられる。1つに纏められた端と、そのような端ではない端とでは、変形の態様が異なるため、把持に適した部位の画像と把持に適さない部位の画像に十分な差が生じる。このため、この把持システムによれば、適切な把持位置を判別することが可能である。
Further, one aspect of the present invention for achieving the above objects includes an imaging device that captures an image of a surrounding object, an image data acquisition unit that acquires image data from the imaging device, a gripping unit that grips the object, and Using the image data acquired by the image data acquiring unit and obtained by the image data acquiring unit, the flexible object shown in the image data is obtained by using the a gripping position determination unit that determines whether or not the portion of is suitable for gripping, wherein the control unit controls the gripping unit so as to deform an end of the upper surface of the flexible object; The gripping position determination unit is a gripping system that determines whether or not the flexible object is suitable for gripping, using the image data obtained by imaging the soft object with the deformed end of the upper surface.
In this gripping system, the edges of the top surface of the flexible object are deformed by the gripping part. Since the mode of deformation differs between the ends that are combined and the ends that are not such ends, there is a sufficient difference between the image of the part suitable for grasping and the image of the part not suitable for grasping. Therefore, according to this gripping system, it is possible to determine an appropriate gripping position.

また、上記目的を達成するための本発明の一態様は、折り畳まれ積み重ねられた状態の複数の柔軟物の上面の端を変形させるよう把持部を制御し、前記上面の端が変形された前記柔軟物が撮像された画像データを用いて、当該画像データに写っている前記柔軟物の部位が把持に適した部位であるか否かを判定する判定方法である。
この判定方法では、把持部により柔軟物の上面の端が変形させられる。1つに纏められた端と、そのような端ではない端とでは、変形の態様が異なるため、把持に適した部位の画像と把持に適さない部位の画像に十分な差が生じる。このため、この判定方法によれば、適切な把持位置を判別することが可能である。
Further, one aspect of the present invention for achieving the above object is to control the gripping section so as to deform the ends of the upper surfaces of a plurality of folded and stacked flexible objects, and to provide the above-described soft objects whose ends have been deformed. This is a determination method for determining whether or not a part of the soft object shown in the image data is suitable for gripping, using image data obtained by imaging the soft object.
In this determination method, the end of the upper surface of the flexible object is deformed by the gripping portion. Since the mode of deformation differs between the ends that are combined and the ends that are not such ends, there is a sufficient difference between the image of the part suitable for grasping and the image of the part not suitable for grasping. Therefore, according to this determination method, it is possible to determine an appropriate gripping position.

また、上記目的を達成するための本発明の一態様は、物体を撮像した画像データを含む訓練データを取得し、取得した前記訓練データを用いて、柔軟物における把持に適した部位を判定するための機械学習の演算を行い、前記画像データは、折り畳まれ積み重ねられた状態の柔軟物であって、当該柔軟物の上面の端が規則的な積層パターン形状から変形した状態の柔軟物が写っている第1の画像データ及び第2の画像データを含み、前記第1の画像データは、前記上面の端が折り畳みにより1つに纏められた端である画像データであり、前記第2の画像データは、前記上面の端が折り畳みにより1つに纏められていない端である画像データである学習方法である。
この学習方法では、規則的な積層パターン形状から変形した状態の柔軟物についての画像を用いて学習が行われる。1つに纏められた端と、そのような端ではない端とでは、変形の態様が異なるため、学習に利用する上で十分な差がある第1の画像データと第2の画像データを用いた学習が可能となる。したがって、この学習方法によれば、適切な把持位置の学習を行うことができる。
Further, according to one aspect of the present invention for achieving the above object, training data including image data of an object is acquired, and a part of a flexible object suitable for gripping is determined using the acquired training data. The image data is a flexible object in a folded and stacked state, and the flexible object in a state where the edge of the upper surface of the flexible object is deformed from the regular lamination pattern shape. wherein the first image data is image data in which the edge of the upper surface is an edge that is folded into one; and the second image The data is a learning method in which the edges of the top surface are image data that are edges that have not been folded together.
In this learning method, learning is performed using an image of a flexible object deformed from a regular lamination pattern shape. Since the mode of deformation is different between the edge that is combined into one and the edge that is not such an edge, the first image data and the second image data that have a sufficient difference for use in learning are used. It is possible to learn Therefore, according to this learning method, it is possible to learn an appropriate gripping position.

本発明によれば、折り畳まれて積み重ねられた状態の柔軟物に対する適切な把持位置を判別することができる把持装置、学習装置、学習済みモデル、把持システム、判定方法、及び学習方法を提供することができる。 According to the present invention, there are provided a gripping device, a learning device, a trained model, a gripping system, a determination method, and a learning method that can determine an appropriate gripping position for a folded and stacked flexible object. can be done.

折り畳まれた柔軟物の外観の一例を示す模式図である。FIG. 3 is a schematic diagram showing an example of the appearance of a folded flexible object; 折り畳まれて積み重ねられた状態の柔軟物について示す図である。FIG. 10 is a diagram showing flexible objects in a folded and stacked state; 折り畳まれて積み重ねられた状態の柔軟物について示す図である。FIG. 10 is a diagram showing flexible objects in a folded and stacked state; 折り畳まれて積み重ねられた状態の柔軟物について示す図である。FIG. 10 is a diagram showing flexible objects in a folded and stacked state; 実施形態に係る把持装置の概略的な構成を示すブロック図である。1 is a block diagram showing a schematic configuration of a grasping device according to an embodiment; FIG. ロボットアームの概略的な構成を示すブロック図である。2 is a block diagram showing a schematic configuration of a robot arm; FIG. 実施形態に係る把持装置による学習処理の流れを示すフローチャートである。6 is a flow chart showing the flow of learning processing by the gripping device according to the embodiment. 実施形態に係る把持装置が把持対象物を把持する際の処理の流れを示すフローチャートである。4 is a flow chart showing the flow of processing when the gripping device according to the embodiment grips a gripping target. 図6に示すS21(接触位置の決定)の詳細を示すフローチャートである。FIG. 7 is a flowchart showing details of S21 (determination of contact position) shown in FIG. 6; FIG. エンドエフェクタにより柔軟物が押される様子を示す図である。FIG. 10 is a diagram showing how a flexible object is pushed by an end effector; 撮像装置と、サーバと、把持装置とを有する把持システムについて示す模式図である。1 is a schematic diagram showing a gripping system including an imaging device, a server, and a gripping device; FIG.

実施の形態にかかる把持装置1は、布製品や紙製品などの形状変化し易い物体である柔軟物の把持を行う。特に、把持装置1は、折り畳まれて積み重ねられた状態の複数の柔軟物のうち、最上段に積まれている柔軟物の把持を行う。このとき把持装置1により把持される部位によっては、柔軟物の外観の状態が、折り畳まれた状態から折り畳まれていない状態へと変化してしまう。つまり、把持する位置が適切でない場合、折り畳まれた状態を維持したまま持ち上げることができない。 The gripping device 1 according to the embodiment grips soft objects such as cloth products and paper products that easily change their shape. In particular, the gripping device 1 grips the flexible object stacked on the uppermost level among the plurality of folded and stacked flexible objects. At this time, depending on the part gripped by the gripping device 1, the appearance of the flexible object changes from the folded state to the unfolded state. In other words, if the gripping position is not appropriate, the folded state cannot be lifted.

図1は、折り畳まれた柔軟物90の外観の一例を示す模式図である。なお、図1では、一例として四つ折りにされた柔軟物90の外観を示している。図1に示されるように、柔軟物90の4辺の端は特徴が異なっている。端91は、折り畳みにより1つに纏められた端であるが、他の端は折り畳みにより1つに纏められていない端である。つまり、端91は外観に1つの折り目が現れる端であるのに対し、他の端は複数の折り目が現れる端又は折り目が現れない端である。換言すると、端91は外観に1つのエッジが現れる端であるのに対し、他の端は2以上のエッジ(図1のような四つ折りの場合、具体的には2つ又は4つのエッジ)が現れる端である。さらに換言すると、端91は閉じた端であるのに対し、端91以外の端は開口した端である。 FIG. 1 is a schematic diagram showing an example of the appearance of a folded soft object 90. As shown in FIG. Note that FIG. 1 shows the appearance of a flexible object 90 folded in four as an example. As shown in FIG. 1, the edges of the four sides of flexible object 90 have different characteristics. Edge 91 is the edge that is folded together, while the other edge is the edge that is not folded together. In other words, the edge 91 is the edge where one crease appears in appearance, whereas the other edge is the edge where a plurality of creases appear or no crease appears. In other words, the edge 91 is the edge where one edge appears in appearance, while the other edge has two or more edges (in the case of the four-fold as in FIG. 1, specifically two or four edges). is the edge where appears. In other words, end 91 is a closed end while the ends other than end 91 are open ends.

把持位置が端91の近傍である場合、折り畳まれた状態を維持して柔軟物90を持ち上げることが比較的容易であるが、把持位置が端91以外の端の近傍である場合、折り畳まれた状態を維持して柔軟物90を持ち上げることは比較的困難である。例えば、柔軟物90の横側からエンドエフェクタを挿入し、折り畳まれた柔軟物の上側及び下側を挟んで掴む場合、把持位置が端91の近傍であれば、折り畳まれて複数枚となったシート群を全て掴むことが容易であるが、把持位置が端91以外の端の近傍であると、シート群の一部だけ掴んでしまう恐れがある。シート群の一部だけを掴んで持ち上げてしまうと、折り畳みがほどけてしまう。このように、折り畳まれた状態を維持して柔軟物を持ち上げるためには、適切な把持位置を選択する必要がある。本実施の形態では、画像に示される柔軟物の部位が適切な把持位置、すなわち、折り畳みにより1つに纏められた端の近傍であるか否かを、画像を用いた機械学習により識別する。このような手法により識別を行う場合、次のような課題がある。 When the gripping position is near the edge 91, it is relatively easy to lift the flexible object 90 while maintaining the folded state. It is relatively difficult to maintain and lift flexible object 90 . For example, when an end effector is inserted from the lateral side of the flexible object 90 to grip the upper and lower sides of the folded flexible object, if the gripping position is near the end 91, the flexible object is folded into a plurality of sheets. Although it is easy to grasp the entire sheet group, if the grasping position is near an end other than the end 91, there is a risk that only a part of the sheet group will be grasped. If only a part of the sheet group is grabbed and lifted, the folding will unfold. Thus, in order to lift the flexible object while maintaining the folded state, it is necessary to select an appropriate gripping position. In the present embodiment, machine learning using images is used to identify whether or not the part of the soft object shown in the image is at an appropriate grip position, that is, near the end that is folded into one. When performing identification by such a method, there are the following problems.

図2A~図2Cは、折り畳まれて積み重ねられた状態の柔軟物について示す図である。図2A~図2Cでは、具体的には、折り畳まれた複数の布タオル92が積み重ねられた様子を示している。ここで、図2Aでは、印92aにより、折り畳みにより1つに纏められた端が示されており、図2B及び図2Cでは、印92b、92cにより、開口した端(折り畳みにより1つに纏められていない端)が示されている。図2A~図2Cのいずれも、類似した規則的な積層パターンが現れている。このため、図2Aに示される端と、図2B若しくは図2Cに示される端とを区別することが難しい。このため、適切な把持位置の認識が難しい。つまり、把持装置が、折り畳みを維持したまま最上段に積まれている柔軟物を持ち上げることは容易ではない。そこで、本実施の形態では、折り畳まれた柔軟物の折り畳みを維持したまま持ち上げるための以下のような技術について開示する。なお、以下の実施の形態において、柔軟物は、1つに纏められた端を有するように折り畳まれている。例えば、柔軟物は、二つ折り、四つ折り、八つ折りなど、半分に折ることが1回以上繰り返されて折り畳まれていてもよい。この場合、n+1回目の折りの際に、n回目の折りにおいて発生する折り目と直交する折り目が発生するよう折られてもよいし、平行するよう折られてもよい。なお、ここで説明した柔軟物の折り方は一例であり、これらに限定されない。 2A-2C are diagrams showing flexible objects in a folded and stacked state. 2A-2C specifically show how a plurality of folded cloth towels 92 are stacked. Here, in FIG. 2A, markings 92a indicate the ends folded together, and in FIGS. end) are shown. A similar regular lamination pattern appears in all of FIGS. 2A-2C. Therefore, it is difficult to distinguish between the edge shown in FIG. 2A and the edge shown in FIG. 2B or 2C. Therefore, it is difficult to recognize an appropriate gripping position. In other words, it is not easy for the gripping device to lift the flexible object stacked on the top while maintaining the folded state. Therefore, in the present embodiment, the following technique for lifting a folded flexible object while maintaining the folded state is disclosed. It should be noted that in the following embodiments, the flexible object is folded to have a united end. For example, the flexible object may be folded in half by repeating one or more folds such as two folds, four folds, and eight folds. In this case, when the n+1 fold is made, the fold may be perpendicular to or parallel to the fold made in the n fold. It should be noted that the method of folding the soft object described here is merely an example, and the present invention is not limited to these.

以下、図面を参照して実施の形態について説明する。
図3は、実施形態に係る把持装置1の概略的な構成を示すブロック図である。把持装置1は、図3に示した構成により、[1]柔軟物についての画像データに基づいて学習済みモデルを生成する学習処理と、[2]学習済みモデルを用いて、把持に適した部位についての判定を行う判定処理と、を実行する。なお、学習処理を行う装置として把持装置1を捉えた場合、把持装置1は学習装置とも称すことが可能である。
Embodiments will be described below with reference to the drawings.
FIG. 3 is a block diagram showing a schematic configuration of the gripping device 1 according to the embodiment. The gripping device 1 has the configuration shown in FIG. and a judgment process for judging about. When grasping the grasping device 1 as a device that performs learning processing, the grasping device 1 can also be referred to as a learning device.

把持装置1は、撮像装置10と、ロボットアーム11と、制御部12と、訓練データ取得部13と、学習演算部14と、モデル記憶部15と、画像データ取得部16と、接触位置決定部17と、把持位置判定部18とを備えている。 The gripping device 1 includes an imaging device 10, a robot arm 11, a control unit 12, a training data acquisition unit 13, a learning calculation unit 14, a model storage unit 15, an image data acquisition unit 16, and a contact position determination unit. 17 and a gripping position determination unit 18 .

撮像装置10は、周囲の物体を撮像する装置であり、本実施の形態では、より詳細には、3次元画像情報を生成する装置である。撮像装置10の具体的な構成としては、任意の構成が採用できる。例えば、撮像装置10はステレオカメラであってもよい。また、撮像装置10は、レーザレンジファインダなどのTime-of-Flight方式の距離センサを備えていてもよいし、ドットパターンを投光して距離を測定するLight Coding方式などの距離センサを備えていてもよい。このように、撮像装置10の具体的な構成は任意であり、いずれかの技術による構成に限定されない。 The imaging device 10 is a device that captures an image of a surrounding object, and more specifically, a device that generates three-dimensional image information in the present embodiment. Any configuration can be adopted as a specific configuration of the imaging device 10 . For example, the imaging device 10 may be a stereo camera. In addition, the imaging device 10 may include a time-of-flight distance sensor such as a laser range finder, or a light coding distance sensor that measures distance by projecting a dot pattern. may As described above, the specific configuration of the imaging device 10 is arbitrary, and is not limited to a configuration based on any technology.

ロボットアーム11は、物体を把持する把持部の一具体例である。図4に示すように、ロボットアーム11は、例えば、複数のリンク111と、各リンク111を回動可能に連結する関節部(手首関節、肘関節、肩関節など)112と、対象物を把持するエンドエフェクタ113と、を有する。 The robot arm 11 is a specific example of a gripper that grips an object. As shown in FIG. 4, the robot arm 11 includes, for example, a plurality of links 111, joints (wrist joints, elbow joints, shoulder joints, etc.) 112 that rotatably connect the links 111, and gripping objects. and an end effector 113 for

各関節部112には、各関節部112の回転情報を検出するエンコーダなどの回転センサ114と、各関節部112を駆動するサーボモータなどのアクチュエータ115と、各関節部112の操作力を検出する力センサ116と、が設けられている。力センサ116は、例えば、各関節部112のトルクを検出するトルクセンサなどである。各関節部112には、減速機構が設けられている。エンドエフェクタ113は、例えば、複数の指部などで構成され、指部で挟み込むことで対象物を把持することができる。エンドエフェクタ113には、エンドエフェクタ113を駆動するアクチュエータ117と、エンドエフェクタ113の操作力を検出する力センサ118と、が設けられている。 Each joint portion 112 includes a rotation sensor 114 such as an encoder for detecting rotation information of each joint portion 112, an actuator 115 such as a servomotor for driving each joint portion 112, and an operation force of each joint portion 112. A force sensor 116 is provided. The force sensor 116 is, for example, a torque sensor that detects torque of each joint 112 . Each joint 112 is provided with a reduction mechanism. The end effector 113 is composed of, for example, a plurality of finger portions, and can grip an object by pinching it with the finger portions. The end effector 113 is provided with an actuator 117 that drives the end effector 113 and a force sensor 118 that detects the operating force of the end effector 113 .

制御部12は、ロボットアーム11の動作を制御する。制御部12は、接触位置決定部17による処理結果、又は把持位置判定部18による処理結果に基づいて、ロボットアーム11の軌道を計算する。また、制御部12は、計算された軌道に従って、ロボットアーム11を動かす。具体的には、例えば、制御部12は、回転センサ114、力センサ116、118からの出力に基づいて、アクチュエータ115、117を制御することで、ロボットアーム11をフィードバック制御する。 The control unit 12 controls the motion of the robot arm 11 . The control unit 12 calculates the trajectory of the robot arm 11 based on the processing result by the contact position determination unit 17 or the processing result by the gripping position determination unit 18 . Also, the control unit 12 moves the robot arm 11 according to the calculated trajectory. Specifically, for example, the control unit 12 feedback-controls the robot arm 11 by controlling the actuators 115 and 117 based on the outputs from the rotation sensor 114 and the force sensors 116 and 118 .

訓練データ取得部13は、物体を撮像した画像データを含む訓練データを取得する。訓練データ取得部13は、把持装置1のメモリなどの記憶装置に予め記憶された訓練データを読み込んで取得してもよいし、他の装置から送信された訓練データを取得してもよい。学習演算部14は、訓練データ取得部13が取得した訓練データを用いて機械学習の演算を行う。訓練データに含まれる画像データは、例えば2次元画像データであるが、3次元画像データであってもよい。 The training data acquisition unit 13 acquires training data including image data obtained by imaging an object. The training data acquisition unit 13 may read and acquire training data stored in advance in a storage device such as a memory of the gripping device 1, or may acquire training data transmitted from another device. The learning calculation unit 14 performs machine learning calculations using the training data acquired by the training data acquisition unit 13 . The image data included in the training data is, for example, two-dimensional image data, but may be three-dimensional image data.

ここで、本実施の形態で用いられる訓練データについて説明する。本実施の形態において、訓練データに含まれる画像データは、折り畳まれ積み重ねられた状態の柔軟物が写っている画像データであり、特に、柔軟物の上面の端が規則的な積層パターン形状から変形した状態の柔軟物が写っている画像データである。より詳細には、本実施の形態では、最上段に積まれた柔軟物の上面の端が側面方向から押された様子が撮像された画像データが用いられる。また、訓練データに用いられる画像データは、そのような画像データとして、次のような2種類の画像データを含む。なお、これら2種類の画像データの一方を第1の画像データと称し、他方を第2の画像データと称すこととする。 Here, the training data used in this embodiment will be described. In the present embodiment, the image data included in the training data is image data showing flexible objects in a folded and stacked state. This is image data showing a flexible object in a state where it is stretched. More specifically, in the present embodiment, image data is used in which the edge of the upper surface of the topmost flexible object is pushed from the side. Image data used as training data includes the following two types of image data as such image data. One of these two types of image data is called first image data, and the other is called second image data.

第1の画像データは、撮像されている変形した端が、折り畳みにより1つに纏められた端である画像データである。つまり、第1の画像データは、折り畳みにより1つに纏められた端において、側面方向からの押圧による変形が生じている様子が撮像された画像データである。訓練データにおいて、第1の画像データに対しては、把持に適した部位についての画像であることを示すラベルが対応づけられている。第2の画像データは、撮像されている変形した端が、折り畳みにより1つに纏められていない端である画像データである。つまり、第2の画像データは、折り畳みにより1つに纏められた端以外の端において、側面方向からの押圧による変形が生じている様子が撮像された画像データである。訓練データにおいて、第2の画像データに対しては、把持に適さない部位についての画像であることを示すラベルが対応づけられている。なお、第1の画像データ及び第2のデータは、画像データから切り出された部分画像データであってもよい。 The first image data is image data in which the deformed edges being imaged are edges that have been folded together. In other words, the first image data is image data in which deformation due to pressure from the side direction is occurring at the end that has been combined into one by folding. In the training data, the first image data is associated with a label indicating that it is an image of a region suitable for grasping. The second image data is image data in which the deformed edges being imaged are edges that are not brought together by folding. In other words, the second image data is image data in which deformation due to pressure from the side direction occurs at the ends other than the ends that are combined into one by folding. In the training data, the second image data is associated with a label indicating that it is an image of a part unsuitable for grasping. Note that the first image data and the second data may be partial image data cut out from the image data.

学習演算部14は、このような訓練データを用いて、柔軟物における把持に適した部位を学習する演算を行う。本実施の形態では、機械学習モデルとして、CNN(畳み込みニューラルネットワーク:Convolutional Neural Network)を用いる。より具体的には、把持に適した部位又は把持に適さない部位の画像内の座標位置とともに、把持の適否を出力可能なCNN YOLO v2を機械学習モデルとして用いる。なお、物体を撮像した画像データに基づいて、当該物体の部位に対する把持の適否を定量化した値として出力することが可能な他のニューラルネットワークが用いられてもよいし、その他の機械学習モデルが用いられてもよい。本実施の形態では、学習演算部14は、訓練データを用いて、具体的には、ニューラルネットワークの重み付け係数といったパラメータの値を計算する。学習演算部14は、訓練データを用いた演算処理の終了後、学習済みのモデルを、モデル記憶部15に記憶させる。 The learning calculation unit 14 uses such training data to perform calculations for learning parts of a flexible object that are suitable for gripping. In this embodiment, a CNN (Convolutional Neural Network) is used as a machine learning model. More specifically, CNN YOLO v2 is used as a machine learning model, which is capable of outputting the appropriateness of gripping along with the coordinate position in the image of a part suitable for gripping or not suitable for gripping. It should be noted that another neural network capable of outputting a quantified value of the propriety of gripping a part of the object based on image data obtained by imaging the object may be used, or another machine learning model may be used. may be used. In the present embodiment, the learning calculation unit 14 uses the training data to specifically calculate parameter values such as weighting coefficients of the neural network. The learning calculation unit 14 stores the learned model in the model storage unit 15 after the calculation processing using the training data is completed.

したがって、モデル記憶部15には、物体を撮像した画像データに基づいて、当該物体の部位に対する把持の適否を定量化した値として出力するよう、コンピュータを機能させるための次のような学習済みモデルが記憶される。すなわち、この学習済みモデルを構成するニューラルネットワークの重み付け係数は、物体を撮像した画像データを含む訓練データを用いて学習されている。なお、この画像データは、上述の第1の画像データ及び第2の画像データを含む。そして、この学習済みモデルは、ニューラルネットワークの入力層に入力された、折り畳まれ積み重ねられた状態の柔軟物が写っている画像データに対し、重み付け係数に従った演算を実行させ、この画像データに写っている柔軟物の部位が把持に適しているか否かをニューラルネットワークの出力層から出力させるよう、コンピュータを機能させる。なお、入力層には、折り畳まれ積み重ねられた状態の柔軟物が写っていない画像データが入力される場合もある。このように、モデル記憶部15に記憶される学習済みモデルは、プログラムモジュールとして利用される。 Therefore, in the model storage unit 15, based on the image data obtained by imaging the object, the following learned model for functioning the computer is output as a value quantifying the propriety of gripping the part of the object. is stored. That is, the weighting coefficients of the neural network that constitutes this trained model are learned using training data including image data obtained by imaging an object. Note that this image data includes the above-described first image data and second image data. Then, this trained model performs an operation according to the weighting coefficients on the image data, which is input to the input layer of the neural network and shows the flexible objects in a folded and stacked state. The computer is operated to output from the output layer of the neural network whether or not the part of the soft object shown is suitable for gripping. The input layer may receive image data that does not show the folded and stacked flexible objects. Thus, the learned models stored in the model storage unit 15 are used as program modules.

画像データ取得部16は、物体を撮像した画像データを取得する。画像データ取得部16は、例えば、折り畳まれ積み重ねられた状態の柔軟物が撮像された画像データを取得する。本実施の形態では、画像データ取得部16は、撮像装置10により撮像された画像データを取得するが、把持装置1のメモリなどの記憶装置に予め記憶された画像データを読み込んで取得してもよいし、他の装置から送信された画像データを取得してもよい。なお、本実施の形態では、ロボットアーム11の制御を行うために3次元画像データが取得されるが、単に適切な把持位置の判定を行う上では、必ずしも3次元画像データを必要としない。すなわち、2次元画像データであっても、学習済みモデルによる、適切な把持位置の判定は可能である。 The image data acquisition unit 16 acquires image data obtained by imaging an object. The image data acquisition unit 16 acquires, for example, image data in which flexible objects in a folded and stacked state are imaged. In the present embodiment, the image data acquisition unit 16 acquires image data captured by the imaging device 10, but image data stored in advance in a storage device such as a memory of the gripping device 1 may be read and acquired. Alternatively, image data transmitted from another device may be obtained. In this embodiment, three-dimensional image data is obtained for controlling the robot arm 11, but the three-dimensional image data is not necessarily required for simply determining an appropriate gripping position. That is, even with two-dimensional image data, it is possible to determine an appropriate gripping position using a trained model.

接触位置決定部17は、把持対象物である柔軟物をロボットアーム11(より詳細にはエンドエフェクタ113)により変形させるための接触位置を決定する。より、詳細には、接触位置決定部17は、積み上げられた柔軟物の上面の端の変形のための接触位置を決定する。つまり、接触位置決定部17は、ロボットアーム11が把持対象物に変位を付与する際の把持対象物におけるロボットアーム11との接触位置を決定する。本実施の形態は、変位は、把持対象物をロボットアーム11(エンドエフェクタ113)が押すことにより付与される。このため、本実施の形態では、接触位置決定部17は、ロボットアーム11が把持対象物である柔軟物を押すための接触位置を決定する。接触位置決定部17は、画像データ取得部16が取得した画像データであって、上面の端がロボットアーム11により変形される前の柔軟物が撮像された画像データを用いて、接触位置を決定する。なお、接触位置の決定の詳細については、フローチャートを用いて後述する。 The contact position determination unit 17 determines a contact position for deforming a soft object, which is a grasped object, by the robot arm 11 (more specifically, the end effector 113). More specifically, the contact position determination unit 17 determines the contact position for deformation of the edge of the upper surface of the piled flexible object. That is, the contact position determination unit 17 determines the contact position of the grasped object with the robot arm 11 when the robot arm 11 imparts displacement to the grasped object. In this embodiment, the displacement is applied by pushing the gripped object with the robot arm 11 (end effector 113). For this reason, in the present embodiment, the contact position determination unit 17 determines the contact position for the robot arm 11 to push the soft object that is the object to be gripped. The contact position determination unit 17 determines the contact position using the image data acquired by the image data acquisition unit 16, which is the image data of the flexible object before the end of the upper surface is deformed by the robot arm 11. do. The details of determining the contact position will be described later using a flowchart.

把持位置判定部18は、画像データ取得部16が取得した画像データを用いて、当該画像データに写っている柔軟物の部位が把持に適した部位であるか否かを判定する。すなわち、把持位置判定部18は、折り畳まれ積み重ねられた状態の柔軟物が撮像された画像データを用いて、当該画像データに写っている柔軟物の一部分が、把持に適した部位であるか否かを判定する。ここで、把持位置判定部18は、より詳細には、上面の端に対する変形が行われた柔軟物が撮像された画像データを用いて判定を行う。また、その際、把持位置判定部18は、モデル記憶部15に記憶された学習済みモデルを用いる。すなわち、本実施の形態の把持位置判定部18は、画像データ取得部16が取得した画像データに対し、予め重み付け係数を含むパラメータが設定された上述のCNNを適用し、把持に適した領域及び把持に適さない領域を判別し、把持に適した領域を出力する。 The grip position determination unit 18 uses the image data acquired by the image data acquisition unit 16 to determine whether or not the part of the flexible object shown in the image data is suitable for gripping. That is, the gripping position determining unit 18 uses image data obtained by capturing images of flexible objects in a folded and stacked state to determine whether a part of the flexible object shown in the image data is a part suitable for gripping. determine whether More specifically, the gripping position determining unit 18 uses image data obtained by capturing an image of a flexible object whose upper surface has been deformed with respect to the edge. Also, at that time, the gripping position determination unit 18 uses the learned model stored in the model storage unit 15 . That is, the gripping position determination unit 18 of the present embodiment applies the above-described CNN, in which parameters including weighting coefficients are set in advance, to the image data acquired by the image data acquisition unit 16, and determines the region and the area suitable for gripping. A region unsuitable for grasping is determined, and a region suitable for grasping is output.

制御部12は、上述の通り、ロボットアーム11を制御する。特に、制御部12は、把持位置の判定の際、最上段にある柔軟物の上面の端を変形させるようロボットアーム11を制御する。具体的には、制御部12は、接触位置決定部17により決定された接触位置においてロボットアーム11が柔軟物を所定の力で押すことにより柔軟物の端を変形させるようロボットアーム11を制御する。本実施の形態では、制御部12は、接触位置決定部17により決定された接触位置である、最上段の柔軟物の上面の端を、側面方向からロボットアーム11のエンドエフェクタ113により押すよう制御する。変形を発生させるための動作が単に押す動作であるため容易に変形を実現することができる。 The controller 12 controls the robot arm 11 as described above. In particular, the control unit 12 controls the robot arm 11 to deform the edge of the upper surface of the uppermost soft object when determining the gripping position. Specifically, the control unit 12 controls the robot arm 11 so that the robot arm 11 pushes the flexible object with a predetermined force at the contact position determined by the contact position determining unit 17, thereby deforming the end of the flexible object. . In this embodiment, the control unit 12 controls the end effector 113 of the robot arm 11 to push the edge of the upper surface of the uppermost flexible object, which is the contact position determined by the contact position determination unit 17, from the side direction. do. Since the action for generating the deformation is simply a pushing action, the deformation can be easily realized.

なお、本実施の形態では、このように柔軟物の端を横方向から押すが、把持位置の判定の際、他の位置に対してロボットアーム11が変位を付与してもよい。例えば、制御部12は、最上段の柔軟物の上面において、端から所定の距離だけ離れた位置を上側から押すよう制御してもよい。また、本実施の形態では、制御部12は接触位置において柔軟物を押すよう制御するが、制御部12は、柔軟物の端を変形させるために、このような動作に限らず、ロボットアーム11の他の動作により柔軟物を変位させてもよい。例えば、接触位置決定部17により決定された接触位置において柔軟物を引っ張るなどといった、他の動作による変位の付与によって、柔軟物の端の変形が行われてもよい。なお、学習済みモデルを作成するために用いられる訓練データ(学習演算部14で用いられる訓練データ)に含まれる画像データは、把持位置の判定の際に行われるロボットアーム11による変形方法と同じ変形方法により変形された柔軟物の画像データである。 In the present embodiment, the end of the soft object is pushed laterally as described above, but the robot arm 11 may apply displacement to other positions when determining the gripping position. For example, the control unit 12 may control the upper surface of the uppermost soft object so that a position a predetermined distance away from the edge is pushed from above. In this embodiment, the control unit 12 controls to push the soft object at the contact position. The soft object may be displaced by other actions of . For example, the end of the flexible object may be deformed by applying a displacement by another action such as pulling the flexible object at the contact position determined by the contact position determination unit 17 . Note that the image data included in the training data (training data used in the learning calculation unit 14) used to create the learned model is deformed in the same manner as the deformation method by the robot arm 11 that is performed when determining the gripping position. It is image data of a flexible object deformed by the method.

また、制御部12は、把持位置判定部18により把持に適した領域であると判定された部位を把持位置として、把持対象の柔軟物を把持するようロボットアーム11を制御する。本実施の形態では、制御部12は、把持に適した領域であると判定された端を、横方向から掴んで柔軟物を把持するようにロボットアーム11を制御するが、把持に適すると判定された端の近傍を、任意の方向から掴んで柔軟物を把持してもよい。 Further, the control unit 12 controls the robot arm 11 so as to grip the flexible object to be gripped, with the region determined by the gripping position determination unit 18 as being suitable for gripping as the gripping position. In the present embodiment, the control unit 12 controls the robot arm 11 so as to grip the soft object by laterally gripping the edge determined to be the area suitable for gripping. A soft object may be gripped by grasping the vicinity of the cut edge from any direction.

制御部12、訓練データ取得部13、学習演算部14、画像データ取得部16、接触位置決定部17、及び、把持位置判定部18は、例えば、把持装置1が備えるメモリなどの記憶装置に記憶された種々の命令を含むプログラムが、把持装置1が備えるプロセッサにより実行されることにより実現される。また、モデル記憶部15は、把持装置1が備えるメモリなどの記憶装置により構成される。ここで、プロセッサは、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、又はGPU(Graphics Processing Unit)であってもよいし、他の種類のプロセッサであってもよい。メモリは、揮発性メモリであってもいし、不揮発性メモリであってもよい。 The control unit 12, the training data acquisition unit 13, the learning calculation unit 14, the image data acquisition unit 16, the contact position determination unit 17, and the grip position determination unit 18 are stored in a storage device such as a memory included in the grip device 1, for example. A program including various commands executed by the gripping device 1 is executed by a processor. Also, the model storage unit 15 is configured by a storage device such as a memory included in the gripping device 1 . Here, the processor may be a CPU (Central Processing Unit), MPU (Micro Processing Unit), GPU (Graphics Processing Unit), or other types of processors. The memory may be volatile memory or non-volatile memory.

次に、把持装置1の動作について、フローチャートを用いて説明する。
図5は、把持装置1による学習処理の流れを示すフローチャートである。
学習処理では、まず、ステップ10(S10)において、訓練データ取得部13が訓練データを取得する。ステップ10で取得される訓練データは、ラベル付けが行われた上述の第1の画像データ及び第2の画像データを含む。
次にステップ11(S11)において、学習演算部14が、ステップ10で取得された訓練データを用いて、把持に適した部位を判定するCNNの学習のための所定の演算処理を行う。
次に、ステップ12(S12)において、モデル記憶部15は、ステップ11の演算処理の完了によりパラメ-タの値が決定された学習済みモデルを記憶する。
Next, the operation of the gripping device 1 will be described using a flowchart.
FIG. 5 is a flowchart showing the flow of learning processing by the gripping device 1. As shown in FIG.
In the learning process, first, in step 10 (S10), the training data acquisition unit 13 acquires training data. The training data obtained in step 10 includes the labeled first image data and second image data described above.
Next, in step 11 (S11), the learning calculation unit 14 uses the training data acquired in step 10 to perform predetermined calculation processing for learning CNN for determining a part suitable for grasping.
Next, at step 12 (S12), the model storage unit 15 stores the learned model whose parameter values have been determined upon completion of the arithmetic processing at step 11. FIG.

図6は、把持装置1が把持対象物を把持する際の処理の流れを示すフローチャートである。
把持の実行の際は、まず、ステップ20(S20)において、画像データ取得部16が、撮像装置10により物体が撮像された画像データを取得する。
次に、ステップ21(S21)において、接触位置決定部17が、把持対象物である柔軟物を変形させるための接触位置を決定する。本実施の形態では、接触位置決定部17は、具体的には、図7のフローチャートに示す処理により、接触位置を決定する。
FIG. 6 is a flow chart showing the flow of processing when the gripping device 1 grips a gripping target.
When gripping is performed, first, in step 20 (S20), the image data acquisition unit 16 acquires image data of an object captured by the imaging device 10. FIG.
Next, in step 21 (S21), the contact position determination unit 17 determines a contact position for deforming the soft object that is the grasped object. In the present embodiment, the contact position determination unit 17 specifically determines the contact position by the process shown in the flowchart of FIG.

以下、図7のフローチャートを参照して、接触位置決定部17の処理の詳細について説明する。
まず、ステップ210(S210)において、接触位置決定部17は、把持対象物である柔軟物が置かれている平面を検出する。すなわち、接触位置決定部17は、画像データ取得部16により取得された画像データに対して、所定の画像解析処理を行って、平面を検出する。
次に、ステップ211(S211)において、接触位置決定部17は、ステップ210で検出された平面より上側に画像内において存在する塊を所定の画像解析処理を行って検出し、当該画像から切り出す。
次に、ステップ212(S212)において、接触位置決定部17は、ステップ211で切り出した塊の画像に対して所定のエッジ検出処理を行う。このエッジ検出処理により検出されたエッジは、把持対象物(積み上げられた柔軟物)の輪郭に相当する。
次に、ステップ213(S213)において、接触位置決定部17は、積み上げられた柔軟物の上面の端を、接触位置として決定する。これを実現するために、具体的には、接触位置決定部17は、ステップ212で検出されたエッジのうち最も高い位置(最も上側の位置)に存在するエッジの位置を接触位置として決定する。
Details of the processing of the contact position determining unit 17 will be described below with reference to the flowchart of FIG. 7 .
First, at step 210 (S210), the contact position determination unit 17 detects a plane on which the flexible object, which is the object to be gripped, is placed. That is, the contact position determination unit 17 performs predetermined image analysis processing on the image data acquired by the image data acquisition unit 16 to detect a plane.
Next, at step 211 (S211), the contact position determining unit 17 performs predetermined image analysis processing to detect a mass present in the image above the plane detected at step 210, and cuts it out from the image.
Next, at step 212 ( S<b>212 ), the contact position determining unit 17 performs predetermined edge detection processing on the lump image cut out at step 211 . The edges detected by this edge detection process correspond to the outline of the grasped object (pile up soft objects).
Next, in step 213 (S213), the contact position determination unit 17 determines the edge of the upper surface of the piled up flexible objects as the contact position. Specifically, in order to achieve this, the contact position determination unit 17 determines the position of the edge existing at the highest position (uppermost position) among the edges detected in step 212 as the contact position.

以上のようにして、接触位置が決定されると、処理はステップ22(図5参照)へ移行する。
ステップ22(S22)において、把持対象物の端を変形させるため、制御部12は、ステップ21で決定した接触位置をエンドエフェクタ113により横方向から押すようロボットアーム11を制御する(図8参照)。
次に、ステップ23(S23)において、画像データ取得部16が、撮像装置10により物体が撮像された画像データを取得する。なお、ステップ23で取得される画像データには、ステップ22による変形が生じている把持対象物が撮像されている。布製品などでは、エンドエフェクタ113を離した後も、押されたことによる変形が維持される。このため、ステップ23では、エンドエフェクタ113を柔軟物から離した状態で撮像された画像データが取得されてもよい。
ステップ24(S24)において、把持位置判定部18は、把持に適した位置についての判定処理を行う。すなわち、把持位置判定部18は、ステップ23で取得された画像データに写っている把持対象物の部位が把持に適した部位であるか否かを、学習済みモデルを用いて判定する。把持に適した位置が発見された場合(ステップ25(S25)でYes)、処理は、ステップ26へ移行する。把持に適した位置が発見されなかった場合(ステップ25でNo)、処理はステップ20に戻る。処理がステップ20に戻った場合、例えば、前回とは異なる方向から撮影された画像データについて、ステップ20以降の処理が繰り返されることとなる。これにより、他の端についても、同様に、把持に適した位置についての判定処理が行われる。
ステップ26(S26)において、把持対象物を把持するため、制御部12は、ステップ24で把持に適すると判定された位置をエンドエフェクタ113により横方向から掴むようロボットアーム11を制御する。
After the contact position is determined as described above, the process proceeds to step 22 (see FIG. 5).
In step 22 (S22), the control unit 12 controls the robot arm 11 so that the contact position determined in step 21 is laterally pressed by the end effector 113 in order to deform the end of the gripped object (see FIG. 8). .
Next, at step 23 ( S<b>23 ), the image data acquisition section 16 acquires image data of the object imaged by the imaging device 10 . Note that the image data acquired in step 23 includes an image of the grasped object deformed in step 22 . A cloth product or the like maintains its deformation due to being pushed even after the end effector 113 is released. Therefore, in step 23, image data captured with the end effector 113 separated from the soft object may be acquired.
At step 24 (S24), the gripping position determination unit 18 performs determination processing regarding a position suitable for gripping. That is, the gripping position determining unit 18 determines, using the learned model, whether or not the part of the object to be gripped shown in the image data acquired in step 23 is suitable for gripping. If a position suitable for gripping is found (Yes in step 25 (S25)), the process proceeds to step 26. FIG. If no position suitable for grasping is found (No at step 25), the process returns to step 20. When the process returns to step 20, for example, the process after step 20 is repeated for image data captured from a direction different from the previous one. As a result, the other ends are similarly subjected to the determination process regarding positions suitable for gripping.
In step 26 (S26), the control unit 12 controls the robot arm 11 so that the end effector 113 laterally grips the position determined to be suitable for gripping in step 24 in order to grip the gripping target.

このように構成された把持装置1によれば、把持位置の判定の際、ロボットアーム11により柔軟物の上面の端が変形させられる。1つに纏められた端と、そのような端ではない端とでは、変形の態様は異なる。つまり、把持位置判定部18は、把持に適するか部位か否かによって態様の異なる画像を用いて判定を行うこととなる。このため、把持位置判定部18は、適切な把持位置を判別することが可能である。また、把持装置1は、上述した接触位置決定部17を有する。このため、変形を発生させるための接触位置を自律的に決定することができる。すなわち、把持装置1では、制御部12が接触位置決定部17により決定された接触位置に従って制御を行うので、把持装置1に自律的に柔軟物を変形させることができる。 According to the gripping device 1 configured in this manner, the edge of the upper surface of the flexible object is deformed by the robot arm 11 when determining the gripping position. Edges that are joined together and edges that are not such edges deform differently. In other words, the gripping position determination unit 18 performs determination using images having different modes depending on whether the part is suitable for gripping. Therefore, the gripping position determination unit 18 can determine an appropriate gripping position. Further, the gripping device 1 has the contact position determination section 17 described above. Therefore, the contact position for generating deformation can be determined autonomously. That is, in the gripping device 1, the control unit 12 performs control according to the contact position determined by the contact position determining unit 17, so the gripping device 1 can autonomously deform the flexible object.

なお、本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。例えば、上記の実施の形態では、把持装置1が図3に示した全ての構成要素を含んだが、これらのうち一部が他の装置に含まれてもよい。例えば、図9に示すようなシステムが構築されてもよい。 It should be noted that the present invention is not limited to the above embodiments, and can be modified as appropriate without departing from the scope of the invention. For example, in the above embodiment, the grasping device 1 includes all the components shown in FIG. 3, but some of them may be included in another device. For example, a system as shown in FIG. 9 may be constructed.

図9は、撮像装置10と、サーバ3と、把持装置4とを有する把持システム2について示す模式図である。図9に示す把持システム2は、撮像装置10が把持装置4ではなく、空間内に設置されている。また、図3に示した構成要素のうち、訓練データ取得部13、学習演算部14、モデル記憶部15、及び、把持位置判定部18をサーバ3が備え、その他の構成要素を把持装置4が備えている。この場合、制御部12、画像データ取得部16、及び接触位置決定部17は、例えば、把持装置4が備えるメモリなどの記憶装置に記憶された種々の命令を含むプログラムが、把持装置4が備えるプロセッサにより実行されることにより実現される。また、訓練データ取得部13、学習演算部14及び、把持位置判定部18は、例えば、サーバ3が備えるメモリなどの記憶装置に記憶された種々の命令を含むプログラムが、サーバ3が備えるプロセッサにより実行されることにより実現される。また、モデル記憶部15は、サーバ3が備えるメモリなどの記憶装置により構成される。撮像装置10と把持装置4との間では、画像データの送受信が行われる。すなわち、把持装置4の画像データ取得部16は、撮像装置10から送信され、把持装置4により受信された画像データを取得する。また、サーバ3と把持装置4との間では、把持位置判定部18の処理に必要な画像データの送受信及び把持位置判定部18による処理結果の送受信が行われる。 FIG. 9 is a schematic diagram showing a gripping system 2 having an imaging device 10, a server 3, and a gripping device 4. As shown in FIG. In the gripping system 2 shown in FIG. 9, the imaging device 10 is installed in space instead of the gripping device 4 . 3, the server 3 includes the training data acquisition unit 13, the learning calculation unit 14, the model storage unit 15, and the gripping position determination unit 18, and the other components are provided by the gripping device 4. I have. In this case, the control unit 12, the image data acquisition unit 16, and the contact position determination unit 17 are provided with a program including various instructions stored in a storage device such as a memory provided in the gripping device 4. It is realized by being executed by a processor. Further, the training data acquisition unit 13, the learning calculation unit 14, and the gripping position determination unit 18 are configured such that a program including various instructions stored in a storage device such as a memory provided in the server 3 is executed by a processor provided in the server 3. It is realized by being executed. Also, the model storage unit 15 is configured by a storage device such as a memory included in the server 3 . Image data is transmitted and received between the imaging device 10 and the gripping device 4 . That is, the image data acquisition unit 16 of the gripping device 4 acquires the image data transmitted from the imaging device 10 and received by the gripping device 4 . Further, between the server 3 and the gripping device 4, transmission/reception of image data required for processing by the gripping position determination unit 18 and transmission/reception of processing results by the gripping position determination unit 18 are performed.

なお、図9は分散処理の一例であり、他の組み合わせ、又は他の装置により、分散処理が行われてもよい。図3に示した構成例及び図9に示した構成例に限らず、例えば、学習演算部14による処理をサーバが実行し、把持位置判定部18による処理を把持装置により行うようシステムが構成されてもよいし、逆に、学習演算部14による処理を把持装置が実行し、把持位置判定部18による処理をサーバにより行うようシステムが構成されてもよい。 Note that FIG. 9 is an example of distributed processing, and distributed processing may be performed by other combinations or other devices. The configuration example shown in FIG. 3 and the configuration example shown in FIG. 9 are not the only examples. Conversely, the system may be configured such that the processing by the learning calculation unit 14 is performed by the gripping device, and the processing by the gripping position determination unit 18 is performed by the server.

なお、上述したプログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、Compact Disc Read Only Memory(CD-ROM)、CD-R、CD-R/W、半導体メモリ(例えば、マスクROM、Programmable ROM(PROM)、Erasable PROM(EPROM)、フラッシュROM、Random Access Memory(RAM))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。 It should be noted that the programs described above can be stored and supplied to computers using various types of non-transitory computer readable media. Non-transitory computer-readable media include various types of tangible storage media. Examples of non-transitory computer-readable media include magnetic recording media (e.g., floppy disks, magnetic tapes, hard disk drives), magneto-optical recording media (e.g., magneto-optical discs), Compact Disc Read Only Memory (CD-ROM), CD-ROM. Includes R, CD-R/W, semiconductor memory (e.g. Mask ROM, Programmable ROM (PROM), Erasable PROM (EPROM), Flash ROM, Random Access Memory (RAM)). The program may also be delivered to the computer on various types of transitory computer readable medium. Examples of transitory computer-readable media include electrical signals, optical signals, and electromagnetic waves. Transitory computer-readable media can deliver the program to the computer via wired channels, such as wires and optical fibers, or wireless channels.

1 把持装置
2 把持システム
3 サーバ
4 把持装置
10 撮像装置
11 ロボットアーム
12 制御部
13 訓練データ取得部
14 学習演算部
15 モデル記憶部
16 画像データ取得部
17 接触位置決定部
18 把持位置判定部
1 gripping device 2 gripping system 3 server 4 gripping device 10 imaging device 11 robot arm 12 control unit 13 training data acquisition unit 14 learning calculation unit 15 model storage unit 16 image data acquisition unit 17 contact position determination unit 18 grip position determination unit

Claims (7)

物体を撮像した画像データを取得する画像データ取得部と、
物体を把持する把持部と、
前記把持部の動作を制御する制御部と、
前記画像データ取得部が取得した、折り畳まれ積み重ねられた状態の柔軟物が撮像された前記画像データを用いて、当該画像データに写っている前記柔軟物の部位が把持に適した部位であるか否かを判定する把持位置判定部と、
を有し、
前記制御部は、最上段にある前記柔軟物の上面の端を変形させるよう前記把持部を制御し、
前記把持位置判定部は、前記把持部の制御により前記上面の端が変形された前記柔軟物が撮像された前記画像データを用いて、把持に適した部位であるか否かを判定する
把持装置。
an image data acquisition unit that acquires image data obtained by imaging an object;
a gripping part that grips an object;
a control unit that controls the operation of the gripping unit;
Using the image data obtained by the image data acquisition unit, in which the flexible object in a folded and stacked state is imaged, whether the part of the flexible object shown in the image data is suitable for gripping. a gripping position determination unit that determines whether or not
has
The control unit controls the gripping unit to deform the end of the upper surface of the soft object on the uppermost stage,
The gripping position determination unit determines whether or not the soft object is a part suitable for gripping, using the image data obtained by imaging the flexible object whose end of the upper surface is deformed under the control of the gripping unit. Gripping device .
前記画像データ取得部が取得した、前記上面の端が変形される前の前記柔軟物が撮像された前記画像データを用いて、前記上面の端の変形のための、前記柔軟物における前記把持部との接触位置を決定する接触位置決定部をさらに有し、
前記上面の端を変形させるために、前記制御部は、前記接触位置決定部により決定された前記接触位置において、前記把持部が前記柔軟物を変位させるよう制御する
請求項1に記載の把持装置。
Using the image data obtained by the image data acquisition unit, in which the flexible object is imaged before the edge of the upper surface is deformed, the gripping unit of the flexible object for deforming the edge of the upper surface It further has a contact position determination unit that determines the contact position with
The gripping device according to claim 1, wherein the control unit controls the gripping unit to displace the soft object at the contact position determined by the contact position determination unit in order to deform the edge of the upper surface. .
前記制御部は、前記把持部が前記柔軟物を押すことにより前記上面の端を変形させるよう前記把持部を制御する
請求項1又は2に記載の把持装置。
The gripping device according to claim 1 or 2, wherein the control section controls the gripping section such that the gripping section pushes the soft object to deform the edge of the upper surface.
物体を撮像した画像データを含む訓練データを取得する訓練データ取得部と、
前記訓練データ取得部が取得した前記訓練データを用いて機械学習の演算を行う学習演算部と、
を有し、
前記画像データは、折り畳まれ積み重ねられた状態の柔軟物であって、当該柔軟物の上面の端が規則的な積層パターン形状から変形した状態の柔軟物が写っている第1の画像データ及び第2の画像データを含み、
前記第1の画像データは、前記上面の端が折り畳みにより1つに纏められた端である画像データであり、
前記第2の画像データは、前記上面の端が折り畳みにより1つに纏められていない端である画像データであり、
前記学習演算部は、前記訓練データを用いて、柔軟物における把持に適した部位を学習する演算を行う
学習装置。
a training data acquisition unit that acquires training data including image data obtained by imaging an object;
a learning computation unit that performs machine learning computation using the training data acquired by the training data acquisition unit;
has
The image data includes first image data and first image data showing a flexible object in a state of being folded and stacked, with the edge of the upper surface of the flexible object being deformed from a regular lamination pattern shape. 2 image data,
The first image data is image data in which the edge of the upper surface is an edge that is combined into one by folding,
The second image data is image data in which the edge of the upper surface is an edge that is not combined into one by folding,
The learning device, wherein the learning calculation unit uses the training data to perform a calculation for learning a part of a flexible object that is suitable for gripping.
物体を撮像した画像データに基づいて、当該物体の部位に対する把持の適否を定量化した値として出力するよう、コンピュータを機能させるために当該コンピュータに実行されるプログラムであって、前記プログラムは学習済みモデルを含み、
前記学習済みモデルを構成するニューラルネットワークの重み付け係数は、物体を撮像した画像データを含む訓練データを用いて学習されており、
前記訓練データに含まれる前記画像データは、折り畳まれ積み重ねられた状態の柔軟物であって、当該柔軟物の上面の端が規則的な積層パターン形状から変形した状態の柔軟物が写っている第1の画像データ及び第2の画像データを含み、
前記第1の画像データは、前記上面の端が折り畳みにより1つに纏められた端である画像データであり、
前記第2の画像データは、前記上面の端が折り畳みにより1つに纏められていない端である画像データであり、
前記学習済みモデルは、前記ニューラルネットワークの入力層に入力された、折り畳まれ積み重ねられた状態の柔軟物が写っている画像データに対し、前記重み付け係数に従った演算を前記コンピュータに実行させ、前記画像データに写っている前記柔軟物の部位が把持に適しているか否かを前記ニューラルネットワークの出力層から出力させる
プログラム
A program executed by the computer to output a value quantifying the propriety of gripping a part of the object based on image data obtained by imaging the object, wherein the program has been learned. including the model
The weighting coefficients of the neural network that constitutes the trained model are learned using training data including image data obtained by imaging an object,
The image data included in the training data is a flexible object in a folded and stacked state, and shows a flexible object in a state where the edge of the upper surface of the flexible object is deformed from a regular lamination pattern shape. including one image data and a second image data,
The first image data is image data in which the edge of the upper surface is an edge that is combined into one by folding,
The second image data is image data in which the edge of the upper surface is an edge that is not combined into one by folding,
The trained model causes the computer to perform calculations according to the weighting coefficients on image data in which flexible objects in a folded and stacked state are input to the input layer of the neural network, and output from the output layer of the neural network whether or not the part of the soft object shown in the image data is suitable for gripping;
program .
周囲の物体を撮像する撮像装置と、
前記撮像装置による画像データを取得する画像データ取得部と、
物体を把持する把持部と、
前記把持部の動作を制御する制御部と、
前記画像データ取得部が取得した、折り畳まれ積み重ねられた状態の柔軟物が撮像された前記画像データを用いて、当該画像データに写っている前記柔軟物の部位が把持に適した部位であるか否かを判定する把持位置判定部と、
を有し、
前記制御部は、前記柔軟物の上面の端を変形させるよう前記把持部を制御し、
前記把持位置判定部は、前記把持部の制御により前記上面の端が変形された前記柔軟物が撮像された前記画像データを用いて、把持に適した部位であるか否かを判定する
把持システム。
an imaging device for imaging surrounding objects;
an image data acquisition unit that acquires image data from the imaging device;
a gripping part that grips an object;
a control unit that controls the operation of the gripping unit;
Using the image data obtained by the image data acquisition unit, in which the flexible object in a folded and stacked state is imaged, whether the part of the flexible object shown in the image data is suitable for gripping. a gripping position determination unit that determines whether or not
has
The control unit controls the gripping unit to deform the end of the upper surface of the flexible object,
The gripping position determining unit determines whether or not the soft object is a part suitable for gripping, using the image data obtained by imaging the flexible object whose end of the upper surface is deformed under the control of the gripping unit. Gripping system .
物体を撮像した画像データを含む訓練データを取得し、
取得した前記訓練データを用いて、柔軟物における把持に適した部位を判定するための機械学習の演算を行い、
前記画像データは、折り畳まれ積み重ねられた状態の柔軟物であって、当該柔軟物の上面の端が規則的な積層パターン形状から変形した状態の柔軟物が写っている第1の画像データ及び第2の画像データを含み、
前記第1の画像データは、前記上面の端が折り畳みにより1つに纏められた端である画像データであり、
前記第2の画像データは、前記上面の端が折り畳みにより1つに纏められていない端である画像データである
学習方法。
Acquire training data including image data of an object,
Using the acquired training data, perform machine learning calculations for determining a part of a flexible object that is suitable for gripping,
The image data includes first image data and first image data showing a flexible object in a state of being folded and stacked, with the edge of the upper surface of the flexible object being deformed from a regular lamination pattern shape. 2 image data,
The first image data is image data in which the edge of the upper surface is an edge that is combined into one by folding,
The learning method, wherein the second image data is image data in which edges of the upper surface are edges that are not combined into one by folding.
JP2017241555A 2017-12-18 2017-12-18 Grasping device, learning device, program, grasping system, and learning method Active JP7136554B2 (en)

Priority Applications (8)

Application Number Priority Date Filing Date Title
JP2017241555A JP7136554B2 (en) 2017-12-18 2017-12-18 Grasping device, learning device, program, grasping system, and learning method
EP18208069.7A EP3499463B1 (en) 2017-12-18 2018-11-23 Grasping apparatus, learned model and determination method
EP21168900.5A EP3869464A1 (en) 2017-12-18 2018-11-23 Learning apparatus, grasping system, and learning method
US16/214,556 US11383378B2 (en) 2017-12-18 2018-12-10 Grasping apparatus, learning apparatus, learned model, grasping system, determination method, and learning method
KR1020180160688A KR102140637B1 (en) 2017-12-18 2018-12-13 Grasping apparatus, grasping system, and determination method
CN201811525879.6A CN110046538B (en) 2017-12-18 2018-12-13 Gripping device, gripping system, determination method, learning device, model and method
KR1020200030705A KR102140639B1 (en) 2017-12-18 2020-03-12 Learning apparatus, non-transitory computer readable medium storing a learned model, and learning method
JP2022039854A JP7201858B2 (en) 2017-12-18 2022-03-15 Judgment method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017241555A JP7136554B2 (en) 2017-12-18 2017-12-18 Grasping device, learning device, program, grasping system, and learning method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022039854A Division JP7201858B2 (en) 2017-12-18 2022-03-15 Judgment method

Publications (2)

Publication Number Publication Date
JP2019107725A JP2019107725A (en) 2019-07-04
JP7136554B2 true JP7136554B2 (en) 2022-09-13

Family

ID=64604427

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017241555A Active JP7136554B2 (en) 2017-12-18 2017-12-18 Grasping device, learning device, program, grasping system, and learning method

Country Status (5)

Country Link
US (1) US11383378B2 (en)
EP (2) EP3499463B1 (en)
JP (1) JP7136554B2 (en)
KR (2) KR102140637B1 (en)
CN (1) CN110046538B (en)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6680732B2 (en) * 2017-08-23 2020-04-15 ファナック株式会社 Goods stacking device and machine learning device
JP7136554B2 (en) * 2017-12-18 2022-09-13 国立大学法人信州大学 Grasping device, learning device, program, grasping system, and learning method
US11584016B2 (en) * 2018-04-24 2023-02-21 Fanuc Corporation Robot controller and system
JP7047726B2 (en) * 2018-11-27 2022-04-05 トヨタ自動車株式会社 Gripping robot and control program for gripping robot
JP2020110874A (en) * 2019-01-11 2020-07-27 倉敷紡績株式会社 Flexible object stacking method, clothing folding and stacking method, and robot system
CN110253581A (en) * 2019-06-25 2019-09-20 华北水利水电大学 A kind of auxiliary grip method of view-based access control model identification
WO2021001039A1 (en) * 2019-07-03 2021-01-07 Sewts Gmbh Method for positioning a limp, flat workpiece and positioning apparatus
JP7342676B2 (en) 2019-12-13 2023-09-12 トヨタ自動車株式会社 Remote control system and remote control method
CN111145257B (en) * 2019-12-27 2024-01-05 深圳市越疆科技有限公司 Article grabbing method and system and article grabbing robot
JP7342974B2 (en) * 2020-01-15 2023-09-12 オムロン株式会社 Control device, learning device, control method, and control program
US10759054B1 (en) * 2020-02-26 2020-09-01 Grey Orange Pte. Ltd. Method and system for handling deformable objects
WO2022085408A1 (en) * 2020-10-19 2022-04-28 三菱電機株式会社 Robot control device and robot control method
CN112297013B (en) * 2020-11-11 2022-02-18 浙江大学 Robot intelligent grabbing method based on digital twin and deep neural network
CN113459101B (en) * 2021-03-05 2022-08-09 牧今科技 Method and computing system for performing gripping area detection
US11911919B2 (en) 2021-03-05 2024-02-27 Mujin, Inc. Method and computing system for performing grip region detection
US11752525B2 (en) 2021-07-16 2023-09-12 Mihir Kothari System and method of laundry sorting

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017185578A (en) 2016-04-05 2017-10-12 株式会社リコー Object gripping device and gripping control program

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4355795A (en) 1980-03-04 1982-10-26 Bobst Champlain, Inc. Sheet handling device
DE4124077C2 (en) * 1991-07-19 1995-03-09 Fraunhofer Ges Forschung Device for receiving limp flat parts
JPH0780790A (en) * 1993-09-16 1995-03-28 Fujitsu Ltd Three-dimensional object grasping system
US20010056313A1 (en) * 2000-05-08 2001-12-27 Osborne William Joseph Object locating and retrieving system utilizing labels
JP3855050B2 (en) * 2002-04-26 2006-12-06 独立行政法人産業技術総合研究所 Clothing state estimation method and program
AU2003243948A1 (en) * 2002-06-24 2004-01-06 Matsushita Electric Industrial Co., Ltd. Articulated driving mechanism, method of manufacturing the mechanism, and holding hand and robot using the mechanism
JP2009279700A (en) 2008-05-21 2009-12-03 Purex:Kk Work gripping method and work gripping device
BRPI0921932B1 (en) * 2008-11-26 2019-10-01 H.W.J. Designs For Agribusiness, Inc. METHOD FOR RESTORING BAG AND PLACING BALLET IN BAG, BAG RESTORATION SET, BAG FOR BAGING A BALLET BAG
US8997670B2 (en) * 2010-03-18 2015-04-07 Wayne J. Book Conveyance system that transports fabric
US9969041B2 (en) * 2010-12-01 2018-05-15 Seven Dreamers Laboratories, Inc. Deformable thin object spreading device and method
JP5952136B2 (en) 2012-08-29 2016-07-13 倉敷紡績株式会社 Method and apparatus for automatically detecting edge of cloth, and cloth unfolding and feeding apparatus having the apparatus
JP6364836B2 (en) * 2014-03-14 2018-08-01 セイコーエプソン株式会社 Robot, robot system, and control device
KR20150118813A (en) 2014-04-15 2015-10-23 삼성전자주식회사 Providing Method for Haptic Information and Electronic Device supporting the same
US9427874B1 (en) * 2014-08-25 2016-08-30 Google Inc. Methods and systems for providing landmarks to facilitate robot localization and visual odometry
US9561587B2 (en) * 2014-12-16 2017-02-07 Amazon Technologies, Inc. Robotic grasping of items in inventory system
JP6522488B2 (en) 2015-07-31 2019-05-29 ファナック株式会社 Machine learning apparatus, robot system and machine learning method for learning work taking-out operation
CN108885715B (en) * 2016-03-03 2020-06-26 谷歌有限责任公司 Deep machine learning method and device for robot grabbing
US9962989B2 (en) * 2016-04-01 2018-05-08 Bastian Solutions, Llc Robotic system for placing printed material into boxes
US9981379B1 (en) * 2016-05-12 2018-05-29 X Development Llc Detachable support member for robot gripper
JP7136554B2 (en) * 2017-12-18 2022-09-13 国立大学法人信州大学 Grasping device, learning device, program, grasping system, and learning method
US10981272B1 (en) * 2017-12-18 2021-04-20 X Development Llc Robot grasp learning
JP7325896B2 (en) * 2019-04-04 2023-08-15 花王株式会社 Sheet transfer method
FR3096672B1 (en) * 2019-06-03 2021-04-30 Jyga Process installation and method for handling flat blanks
US11738447B2 (en) * 2019-07-29 2023-08-29 Nimble Robotics, Inc. Storage systems and methods for robotic picking
US10759054B1 (en) * 2020-02-26 2020-09-01 Grey Orange Pte. Ltd. Method and system for handling deformable objects

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017185578A (en) 2016-04-05 2017-10-12 株式会社リコー Object gripping device and gripping control program

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Hiroyuki Yuba and Kimitoshi Yamazaki,Unfolding an Item of Rectangular Clothing Using a Single Arm and an Assistant Instrument,The Proceedings of JSME annual Conference on Robotics and Mechatronics,2014年05月,http://ais.shinshu-u.ac.jp/~aislab/papers/2014_SII_yuba.pdf
Jeremy Maitin-Shepard, Marco Cusumano-Towner, Jinna Lei and Pieter Abbeel,Cloth Grasp Point Detection based on Maltiple-View Geometric Cues with Application to Robotic Towel Folding,2010 IEEE International Conference on Robotics and Automation,2010年05月03日,https://people.eecs.berkeley.edu/~pabbeel/papers/Maitin-ShepardCusumano-TownerLeiAbbeel_ICRA2010.pdf
佐野 知樹,出村 聡規,中島 渉,長濱 虎太郎,竹下 佳佑,山崎 公俊,第18回計測自動制御学会システムインテグレーション部門講演会講演論文集,単腕ロボットによる折り重ねられたタオルの分離と掴み上げ,2017年12月22日,http://ais.shinshu-u.ac.jp/~aislab/papers/201712_SI_sano.pdf
守屋 佑亮,田中 大輔,山崎 公俊,竹下 佳佑,単腕マニピュレータによる折り畳まれた布製品の適切な掴み上げ,ロボティクス・メカトロニクス講演会2017講演論文集,2017年05月12日,http://ais.shinshu-u.ac.jp/~aislab/papers/201705_robomech_moriya.pdf

Also Published As

Publication number Publication date
JP2019107725A (en) 2019-07-04
EP3499463A3 (en) 2019-09-04
KR20200032057A (en) 2020-03-25
KR102140639B1 (en) 2020-08-04
US11383378B2 (en) 2022-07-12
EP3499463A2 (en) 2019-06-19
KR20190073282A (en) 2019-06-26
CN110046538B (en) 2023-04-25
EP3869464A1 (en) 2021-08-25
US20190184554A1 (en) 2019-06-20
EP3499463B1 (en) 2021-11-17
KR102140637B1 (en) 2020-08-04
CN110046538A (en) 2019-07-23

Similar Documents

Publication Publication Date Title
JP7136554B2 (en) Grasping device, learning device, program, grasping system, and learning method
JP6604832B2 (en) Machine learning support device
US9902059B2 (en) Robot teaching apparatus, method, and robot system
JP2017177294A (en) Robot control device, robot control method, robot system and computer program
Namiki et al. Robotic origami folding with dynamic motion primitives
WO2011065035A1 (en) Method of creating teaching data for robot, and teaching system for robot
JP6541397B2 (en) INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM
JPWO2018092254A1 (en) Gripping force setting system, gripping force setting method, and gripping force estimation system
Namiki et al. Origami folding by multifingered hands with motion primitives
JP2020508888A5 (en)
JP2015112654A (en) Control apparatus, robot, teaching data generation method, and robot system
JP7186349B2 (en) END EFFECTOR CONTROL SYSTEM AND END EFFECTOR CONTROL METHOD
Berger et al. Inferring guidance information in cooperative human-robot tasks
Huang et al. Grasping novel objects with a dexterous robotic hand through neuroevolution
Misimi et al. Robotic handling of compliant food objects by robust learning from demonstration
JP6838833B2 (en) Gripping device, gripping method, and program
JP7201858B2 (en) Judgment method
Hundhausen et al. Fast reactive grasping with in-finger vision and in-hand fpga-accelerated cnns
JP2008183629A (en) Robot and its control device and control method
Vásquez et al. In-hand object shape identification using invariant proprioceptive signatures
Guo et al. Deformation control of a deformable object based on visual and tactile feedback
KR20200133337A (en) Control device, control method, and program
WO2021029205A1 (en) Information processing device, information processing method, program, and robot
Guo et al. A system of robotic grasping with experience acquisition
CN114051443A (en) Information processing device, robot system, and information processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200807

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210527

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210608

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210706

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20211221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220315

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20220315

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20220316

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20220413

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20220419

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220725

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220809

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220901

R150 Certificate of patent or registration of utility model

Ref document number: 7136554

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150