JP2017130003A - Clothing type determination device and clothing type determination method - Google Patents

Clothing type determination device and clothing type determination method Download PDF

Info

Publication number
JP2017130003A
JP2017130003A JP2016008403A JP2016008403A JP2017130003A JP 2017130003 A JP2017130003 A JP 2017130003A JP 2016008403 A JP2016008403 A JP 2016008403A JP 2016008403 A JP2016008403 A JP 2016008403A JP 2017130003 A JP2017130003 A JP 2017130003A
Authority
JP
Japan
Prior art keywords
clothing
type
contour
image data
type determination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016008403A
Other languages
Japanese (ja)
Inventor
喜多 泰代
Yasuyo Kita
泰代 喜多
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute of Advanced Industrial Science and Technology AIST
Original Assignee
National Institute of Advanced Industrial Science and Technology AIST
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Institute of Advanced Industrial Science and Technology AIST filed Critical National Institute of Advanced Industrial Science and Technology AIST
Priority to JP2016008403A priority Critical patent/JP2017130003A/en
Publication of JP2017130003A publication Critical patent/JP2017130003A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a clothing type determination device capable of more accurately determining the type of clothing.SOLUTION: A clothing type determination device 3 comprises: a featured value calculation part 33 for calculating a featured value from an image obtained by imaging clothing C by an imaging part 2; a contour pattern extraction part 34 for extracting a contour pattern in accordance with the featured value from a plurality of contour patterns preliminarily created by using a clothing virtual model; a type-categorized image data creation part 35 for creating type-categorized image data by using the contour pattern extracted by the contour pattern extraction part; a contour line data acquisition part 36 for acquiring contour line data of the clothing C from the image captured by the imaging part 2; a coincidence degree calculation part 37 for calculating a coincidence degree between the type-categorized image data created by the type-categorized image data creation part 35 and the contour line data acquired by the contour line data acquisition part 36; and a determination part 38 for determining the type corresponding to the type-categorized image data with the highest coincidence degree calculated by the coincidence degree calculation part 37 as the type of the clothing C.SELECTED DRAWING: Figure 1

Description

本発明は、衣類の種別を判定するための装置及び方法に関するものである。   The present invention relates to an apparatus and a method for determining the type of clothing.

これまで、ロボットに衣類の種別を判定させる方法について研究が進められてきているが、衣類は変形により形が変わるという第1の問題があり、また、同じ種別であってもそのデザインには多様性があるという第2の問題があるため、種別の判定は難しいものとなっていた。   So far, research has been conducted on how to make robots determine the type of clothing, but there is a first problem that the shape of clothing changes due to deformation, and there are various designs for the same type. Since there is a second problem that there is a characteristic, it is difficult to determine the type.

このような状況において、本願に係る発明者は以下の非特許文献1を発表し、上記第1の問題に対しては、ロボットが衣類を持ち上げて把持する際の手順を工夫することで、種別毎に少数の限定された形状に遷移させるという解決策が示された。   In such a situation, the inventor according to the present application has published the following Non-Patent Document 1, and for the first problem, by devising the procedure when the robot lifts and holds the clothing, A solution has been shown that transitions to a limited number of shapes each time.

また、同文献において、上記第2の問題に対しては、各種別をある幅を持った「らしさ画像」(likelihood image)で表現することによって、種別毎に上記デザインの相違を網羅する統一的な画像を生成するという解決策が示された。なお、これまで、本願に係る発明者らによって、衣類のつるされた状態を推定する技術につき、以下の特許文献1及び2が開示されている。   Also, in the same document, the second problem is unified to cover the differences in the design for each type by expressing each type as a “likelihood image” with a certain width. A solution to generate a good image was shown. In addition, the following patent documents 1 and 2 are disclosed by the inventors which concern on this application about the technique which estimates the state where the clothes were hung.

特開2004−5361号公報JP 2004-5361 A 特開2010−61431号公報JP 2010-61431 A

Jingyu Hu, Yasuyo Kita, “Classification of the category of clothing item after bringing it into limited shapes”, Proc. of IEEE-RAS 15th International Conference on Humanoid Robots (Humanoids 2015) 2015.11.3-5, pp.588-594Jingyu Hu, Yasuyo Kita, “Classification of the category of clothing item after bringing it into limited shapes”, Proc. Of IEEE-RAS 15th International Conference on Humanoid Robots (Humanoids 2015) 2015.11.3-5, pp.588-594

しかし、上記非特許文献1に示された技術においては、衣類の種別によっては、らしさ画像の持つ上記幅が広くなり、他の衣類まで包含してしまうため、その結果として衣類の種別を誤判定してしまうという問題がある。   However, in the technique disclosed in Non-Patent Document 1, depending on the type of clothing, the width of the uniqueness image becomes wider and includes other clothing, and as a result, the type of clothing is erroneously determined. There is a problem of end up.

本発明は、このような問題を解決するためになされたもので、衣類の種別をより精度よく判定する衣類種別判定装置と衣類種別判定方法を提供することを目的とする。   The present invention has been made to solve such a problem, and an object of the present invention is to provide a clothing type determination device and a clothing type determination method for determining the type of clothing more accurately.

上記課題を解決するため、本発明は、少なくとも二点で支持された衣類を撮像することにより得られた画像から特徴量を算出する特徴量算出手段と、衣類仮想モデルを用いて予め作成された複数の輪郭パターンの中から特徴量に応じて輪郭パターンを抽出する輪郭パターン抽出手段と、輪郭パターン抽出手段により抽出された輪郭パターンを用いて種類別画像データを作成する種類別画像データ作成手段と、撮像することにより得られた画像から衣類の輪郭線データを取得する輪郭線データ取得手段と、種類別画像データ作成手段により作成された種類別画像データと輪郭線データ取得手段により取得された輪郭線データとの一致度を算出する一致度算出手段と、一致度算出手段により算出された一致度が最も高い種類別画像データに対応する種別を衣類の種別と判定する判定手段とを備えた衣類種別判定装置を提供する。   In order to solve the above-mentioned problem, the present invention was created in advance using a feature amount calculation means for calculating a feature amount from an image obtained by imaging clothing supported at least at two points, and a clothing virtual model. A contour pattern extracting means for extracting a contour pattern from a plurality of contour patterns in accordance with a feature quantity; a type-specific image data creating means for creating type-specific image data using the contour pattern extracted by the contour pattern extracting means; , Contour data acquisition means for acquiring the contour line data of the clothing from the image obtained by imaging, and the type-specific image data created by the type-specific image data creation means and the contour acquired by the contour line data acquisition means A degree of coincidence calculating means for calculating the degree of coincidence with the line data, and corresponding to the type-specific image data calculated by the degree of coincidence calculating means. Providing clothing type determination device and a determining means and the garment of the type of classification.

また、上記課題を解決するため、本発明は、観測対象となる衣類を予め定められた手順により少なくとも二点で支持する第1のステップと、第1のステップにおいて支持された衣類を撮像し、得られた画像から特徴量を算出する第2のステップと、衣類仮想モデルを用いて予め作成された複数の輪郭パターンの中から特徴量に応じて輪郭パターンを抽出する第3のステップと、第3のステップで抽出された輪郭パターンを用いて種類別画像データを作成する第4のステップと、第2のステップで得られた画像から衣類の輪郭線データを取得する第5のステップと、第4のステップで作成された種類別画像データと第5のステップで取得された輪郭線データとの一致度を算出する第6のステップと、第6のステップで算出された一致度が最も高い種類別画像データに対応する種別を衣類の種別と判定する第7のステップとを有する衣類種別判定方法を提供する。   In order to solve the above-mentioned problem, the present invention images the clothing supported in the first step, the first step of supporting the clothing to be observed at at least two points according to a predetermined procedure, A second step of calculating a feature amount from the obtained image, a third step of extracting a contour pattern according to the feature amount from a plurality of contour patterns created in advance using a clothing virtual model, A fourth step of creating type-specific image data using the contour pattern extracted in step 3, a fifth step of acquiring clothing contour data from the image obtained in the second step, The sixth step for calculating the degree of coincidence between the type-specific image data created in step 4 and the contour line data obtained in the fifth step, and the degree of coincidence calculated in the sixth step are the highest. Providing clothing type determination method and a seventh step of determining the type of a clothing type corresponding to the type-specific image data.

本発明によれば、衣類の種別をより精度よく判定する衣類種別判定装置と衣類種別判定方法を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the clothing type determination apparatus and clothing type determination method which determine the classification of clothing more accurately can be provided.

本発明の実施の形態に係る衣類種別判定装置3を含む衣類種別判定システムの構成を示すブロック図である。It is a block diagram which shows the structure of the clothing type determination system containing the clothing type determination apparatus 3 which concerns on embodiment of this invention. 図1に示された衣類種別判定システムの動作の概要を説明するためのフローチャートである。It is a flowchart for demonstrating the outline | summary of operation | movement of the clothing classification determination system shown by FIG. 図1に示された衣類種別判定システムの動作を具体的に説明するためのフローチャートである。It is a flowchart for demonstrating concretely the operation | movement of the clothing type determination system shown by FIG. 図3のステップS1における特定形状の発現方法を具体的に説明するための図である。It is a figure for demonstrating concretely the expression method of the specific shape in step S1 of FIG. 図3のステップS3aにおける特徴量の算出及びステップS3bにおける二次元輪郭線の抽出動作を説明するための図である。It is a figure for demonstrating the calculation of the feature-value in step S3a of FIG. 3, and the extraction operation | movement of the two-dimensional outline in step S3b. 図3のステップS11における特定形状のシミュレーションから同図のステップS12における基準輪郭パターンの作成を経て、同図のステップS4におけるらしさ画像を作成するまでの過程を説明するための図である。It is a figure for demonstrating the process from creating the reference | standard outline pattern in step S12 of the figure through the simulation of the specific shape in step S11 of FIG. 3 to creating the likelihood image in step S4 of the figure. 観測対象とする衣類がズボンの場合に作成されるらしさ画像L2の作成過程の概要を示す図である。It is a figure which shows the outline | summary of the creation process of the uniqueness image L2 produced when the clothing made into an observation object is pants. 図3のステップS5における一致度Rの算出動作を説明するための図である。It is a figure for demonstrating the calculation operation | movement of the matching degree R in step S5 of FIG.

以下において、本発明の実施の形態を図面を参照しつつ詳しく説明する。なお、図中同一符号は同一又は相当部分を示す。
図1は、本発明の実施の形態に係る衣類種別判定装置3を含む衣類種別判定システムの構成を示すブロック図である。図1に示されるように、衣類種別判定システムは、観測対象となる衣類Cを支持する支持部1と、衣類Cを撮像する撮像部2と、支持部1及び撮像部2を制御する衣類種別判定装置3とを備える。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In the drawings, the same reference numerals indicate the same or corresponding parts.
FIG. 1 is a block diagram showing a configuration of a clothing type determination system including a clothing type determination device 3 according to an embodiment of the present invention. As shown in FIG. 1, the clothing type determination system includes a support unit 1 that supports the clothing C to be observed, an imaging unit 2 that captures the clothing C, and a clothing type that controls the support unit 1 and the imaging unit 2. And a determination device 3.

ここで、支持部1は衣類Cを点P1で支持するロボットアーム101と、点P2で支持するロボットアーム102とを含む。なお、図1においては、衣類Cがズボンであって、ロボットアーム101,102による支持により、後述する特定形状が発現されている状態が図示されている。   Here, the support unit 1 includes a robot arm 101 that supports the clothing C at the point P1 and a robot arm 102 that supports the clothing C at the point P2. In FIG. 1, clothing C is trousers, and a state in which a specific shape described later is expressed by support by robot arms 101 and 102 is illustrated.

また、撮像部2は衣類Cを撮像するためのカメラにより構成される。また、衣類種別判定装置3は、バス4と、撮像部2及びバス4に接続された記憶部10と、バス4に接続された表示部20と、バス4に接続され支持部1及び撮像部2を制御する制御部30とを含む。   The imaging unit 2 is configured by a camera for imaging the clothing C. The clothing type determination device 3 includes a bus 4, an imaging unit 2 and a storage unit 10 connected to the bus 4, a display unit 20 connected to the bus 4, a support unit 1 and an imaging unit connected to the bus 4. 2 and a control unit 30 that controls 2.

さらに、制御部30は、ロボットアーム制御部31と、撮像制御部32と、特徴量算出部33と、輪郭パターン抽出部34と、種類別画像データ作成部35と、輪郭線データ取得部36と、一致度算出部37と、判定部38とを含む。   Further, the control unit 30 includes a robot arm control unit 31, an imaging control unit 32, a feature amount calculation unit 33, a contour pattern extraction unit 34, a type-specific image data creation unit 35, and a contour line data acquisition unit 36. , A degree-of-matching calculation unit 37 and a determination unit 38 are included.

以下において、図2を参照して、上記のような構成を有する衣類種別判定システムの動作の概要を説明する。   Below, with reference to FIG. 2, the outline | summary of operation | movement of the clothing classification determination system which has the above structures is demonstrated.

ステップS1において、支持部1は観測対象となる衣類を予め定められた手順により少なくとも二点で支持する。   In step S1, the support unit 1 supports the clothing to be observed at at least two points according to a predetermined procedure.

次に、ステップS2において、ステップS1で支持された衣類を撮像部2で撮像し、制御部30は得られた画像から特徴量を算出する。   Next, in step S2, the clothing supported in step S1 is imaged by the imaging unit 2, and the control unit 30 calculates a feature amount from the obtained image.

次に、ステップS3において、制御部30は衣類仮想モデルを用いて予め作成された複数の輪郭パターンの中から特徴量に応じて輪郭パターンを抽出し、ステップS4において、ステップS3で抽出された輪郭パターンを用いて種類別画像データを作成する。   Next, in step S3, the control unit 30 extracts a contour pattern according to the feature amount from a plurality of contour patterns created in advance using the clothing virtual model, and in step S4, the contour extracted in step S3. Create image data by type using patterns.

次に、ステップS5において、制御部30はステップS2で得られた画像から衣類の輪郭線データを取得し、ステップS6において、ステップS4で作成された種類別画像データとステップS5で取得された輪郭線データとの一致度を算出する。   Next, in step S5, the control unit 30 acquires clothing outline data from the image obtained in step S2. In step S6, the type-specific image data created in step S4 and the outline obtained in step S5. The degree of coincidence with the line data is calculated.

そして、ステップS7において、制御部30はステップS6で算出された一致度が最も高い種類別画像データに対応する種別を観測対象衣類の種別と判定する。なお、「種別」とは、シャツ、ズボン、スカート、タオルの別に留まらず、長袖シャツと半袖シャツ、及び長ズボンと半ズボンの別を意味する。   In step S7, the control unit 30 determines that the type corresponding to the type-specific image data having the highest degree of coincidence calculated in step S6 is the type of the clothing to be observed. The “type” means not only shirts, trousers, skirts, and towels, but also long-sleeved shirts and short-sleeved shirts, and long-sleeved shirts and shorts.

以下において、図3を参照して、図1に示された衣類種別判定システムの動作を具体的に説明する。   Hereinafter, the operation of the clothing type determination system shown in FIG. 1 will be described in detail with reference to FIG.

ステップS1において、ロボットアーム制御部31は、双腕のロボットアーム101,102を制御することにより、予め定められた手順で観測対象となる衣類Cを机上から持ち上げ、少数の限定された特定形状を発現させる。   In step S1, the robot arm control unit 31 controls the two-armed robot arms 101 and 102 to lift the clothing C to be observed from the desk according to a predetermined procedure, so that a small number of limited specific shapes can be obtained. To express.

ここで、図4を参照しつつ、かかる特定形状の発現方法を具体的に説明する。なお、図4においては、観測対象とされる衣類が長袖シャツの場合が図示されている。   Here, the expression method of the specific shape will be specifically described with reference to FIG. FIG. 4 shows a case where the clothing to be observed is a long sleeve shirt.

図4に示されるように、衣類C10が無造作に折り畳まれて机上に置かれている場合、ロボットアーム制御部31は、衣類C10の任意の点Paをロボットアームに把持させる。次に、ロボットアーム制御部31は、ロボットアームが点Paを把持した状態における衣類C20の最下点Pbと、点Paを通る鉛直軸周りに衣類C20を回転させたときに凸点となる点のうち把持している点Paに最も近接した点Pcとを、それぞれロボットアーム101,102に支持させる。このようにして予め定められた手順により広げられた状態における衣類C30の輪郭が、上記の特定形状に該当することになる。   As shown in FIG. 4, when the garment C10 is randomly folded and placed on a desk, the robot arm control unit 31 causes the robot arm to grip an arbitrary point Pa of the garment C10. Next, the robot arm control unit 31 becomes a convex point when the garment C20 is rotated about the lowest point Pb of the garment C20 with the robot arm gripping the point Pa and the vertical axis passing through the point Pa. The robot arm 101, 102 supports the point Pc closest to the gripped point Pa, respectively. Thus, the outline of the garment C30 in a state of being spread by a predetermined procedure corresponds to the specific shape.

次に、ステップS2において、撮像制御部32は、ステップS1において支持された衣類Cを撮像部2に撮像させ、衣類種別判定装置3に三次元観測データを取得させる。このとき、記憶部10が観測対象である衣類Cの領域画像を記憶することによって、本領域画像が抽出される。   Next, in step S2, the imaging control unit 32 causes the imaging unit 2 to image the clothing C supported in step S1, and causes the clothing type determination device 3 to acquire three-dimensional observation data. At this time, the storage unit 10 stores the region image of the clothing C that is the observation target, so that the main region image is extracted.

次に、ステップS3aにおいて、特徴量算出部33は特徴量K1,K2を算出する。ここで、特徴量K1,K2はそれぞれ次式で示される比をとることにより算出される。   Next, in step S3a, the feature amount calculation unit 33 calculates feature amounts K1 and K2. Here, the feature amounts K1 and K2 are calculated by taking the ratio represented by the following equation, respectively.

Figure 2017130003
Figure 2017130003

なお、上式において、LAは、図5に示されるように、観測対象となる衣類(ここでは例としてズボンが示されている)を点P1及び点P2の二点で支持して特定形状とした場合における点P1と点P2間の距離を示す。また、図5に示されるように、それぞれ、LBはステップS2で抽出された画像領域の高さ、LCは当該画像領域の最大幅を示す。   In the above equation, as shown in FIG. 5, LA has a specific shape by supporting the clothing to be observed (here, pants are shown as an example) at two points P 1 and P 2. In this case, the distance between the points P1 and P2 is shown. Further, as shown in FIG. 5, LB indicates the height of the image area extracted in step S2, and LC indicates the maximum width of the image area.

また、ステップS3bにおいては、図5に示されるように、輪郭線データ取得部36が、抽出された上記画像領域から二次元の輪郭線CDを抽出する。   In step S3b, as shown in FIG. 5, the contour data acquisition unit 36 extracts a two-dimensional contour CD from the extracted image region.

一方、予め輪郭パターン抽出部34は、ステップS11において、衣類の種別毎に様々なデザインや素材の衣類仮想モデルを用いて上記特定形状をシミュレーションし、ステップS12において、上記シミュレーションの結果として算出された三次元形状の距離画像上での二次元輪郭線を抽出して両手把持点若しくは両支持点間の距離を用いて大きさを正規化することによって、衣類の種別毎の基準輪郭パターンを作成する。なお、上記のように、観測対象衣類の種別によっては特定形状が複数生じるため、そのような種別については同一種別について複数の基準輪郭パターンが作成されることになる。   On the other hand, in step S11, the contour pattern extraction unit 34 simulates the specific shape using clothing virtual models of various designs and materials for each clothing type, and is calculated as a result of the simulation in step S12. Create a reference contour pattern for each type of clothing by extracting a two-dimensional contour line on a three-dimensional distance image and normalizing the size using the distance between the grip points of both hands or the support points. . Note that, as described above, a plurality of specific shapes are generated depending on the type of clothing to be observed, and therefore, for such a type, a plurality of reference contour patterns are created for the same type.

ここで、輪郭パターン抽出部34のステップS11及びステップS12における動作について、図6を参照しつつ具体的に説明する。   Here, the operation in steps S11 and S12 of the contour pattern extraction unit 34 will be specifically described with reference to FIG.

上記のように、輪郭パターン抽出部34は衣類の種別毎に基準輪郭パターンを作成するが、図6においては、長袖シャツという種別を例として基準輪郭パターンCKを作成する方法が図示されている。   As described above, the contour pattern extraction unit 34 creates a reference contour pattern for each type of clothing, but FIG. 6 illustrates a method of creating a reference contour pattern CK taking a long sleeve shirt as an example.

輪郭パターン抽出部34は、長袖シャツという種別において様々なデザインや柔らかさ(素材)を持った複数の衣類仮想モデルCa0,Cb0,Cc0を作成し、各衣類仮想モデルについて三次元の距離画像として特定形状画像Ca1,Cb1,Cc1をシミュレーションする。   The contour pattern extraction unit 34 creates a plurality of clothing virtual models Ca0, Cb0, Cc0 having various designs and softness (materials) in the type of long-sleeved shirt, and specifies each clothing virtual model as a three-dimensional distance image. The shape images Ca1, Cb1, and Cc1 are simulated.

そして、輪郭パターン抽出部34は、各特定形状画像Ca1,Cb1,Cc1についてそれぞれ二次元輪郭線Ca2,Cb2,Cc2を抽出し、抽出された二次元輪郭線Ca2,Cb2,Cc2の大きさを長袖シャツの上部における両手把持点若しくは両支持点間の距離で正規化して重畳させることによって、長袖シャツについての基準輪郭パターンCKを作成する。   Then, the contour pattern extraction unit 34 extracts two-dimensional contour lines Ca2, Cb2, and Cc2 for the specific shape images Ca1, Cb1, and Cc1, respectively, and sets the sizes of the extracted two-dimensional contour lines Ca2, Cb2, and Cc2 to long sleeves. A reference contour pattern CK for the long-sleeved shirt is created by normalizing and superimposing the distance between the two hand grip points or the support points at the upper part of the shirt.

ここで、図3におけるステップS4において、輪郭パターン抽出部34は、ステップS12で予め作成された基準輪郭パターンCKを構成要素とする母集団の中から、特徴量K1,K2に応じて基準輪郭パターンCKを選択し、選択した基準輪郭パターンCKの二次元輪郭線を抽出する。そして、輪郭パターン抽出部34は、このような方法で抽出した二次元輪郭線のみを用いて、観測対象衣類に応じた基準輪郭パターンを種別毎に作成する。また、種類別画像データ作成部35は、このようにして作成された基準輪郭パターンを元にらしさ画像を作成し、図6には長袖シャツのらしさ画像L1が例示される。   Here, in step S4 in FIG. 3, the contour pattern extraction unit 34 selects a reference contour pattern according to the feature amounts K1 and K2 from the population having the reference contour pattern CK created in advance in step S12 as a constituent element. CK is selected, and a two-dimensional contour line of the selected reference contour pattern CK is extracted. And the outline pattern extraction part 34 produces the reference | standard outline pattern according to observation object clothing for every classification using only the two-dimensional outline extracted by such a method. Further, the type-specific image data creation unit 35 creates a unique image based on the reference contour pattern created in this way, and FIG. 6 illustrates a long-sleeved shirt unique image L1.

ここで、「特徴量K1,K2に応じて基準輪郭パターンを選択」とは、特徴量K1,K2が完全に一致する基準輪郭パターンを選択するだけでなく、同一衣類であっても支持の仕方で上記高さLB及び最大幅LCが多少変動し得ることを考慮して、特徴量K1,K2がそれぞれ幅(K1±α1)、幅(K2±α2)内に入る基準輪郭パターンも選択することを意味する。ここで、α1とα2は定数であって、衣類の種別毎に予め定められる。   Here, “selecting a reference contour pattern according to the feature values K1 and K2” means not only selecting a reference contour pattern that completely matches the feature values K1 and K2, but also supporting the same clothing. In consideration of the fact that the height LB and the maximum width LC may vary somewhat, the reference contour pattern in which the feature values K1 and K2 fall within the width (K1 ± α1) and the width (K2 ± α2), respectively, is also selected. Means. Here, α1 and α2 are constants and are predetermined for each type of clothing.

また、種類別画像データ作成部35は、基準輪郭パターンで囲まれた部分を画素値1、それ以外の部分を画素値0とした上で、ガウスフィルタを施して平滑化することによりらしさ画像L1を作成する。   Further, the type-specific image data creation unit 35 sets the portion surrounded by the reference contour pattern to the pixel value 1 and sets the other portion to the pixel value 0, and then applies a Gaussian filter to smooth the appearance image L1. Create

なお、上記のように、図6においては、長袖シャツという種別について、らしさ画像L1が作成される過程が示されているが、他の種別についても同様な方法により種別毎のらしさ画像を作成することができ、図7においては、長ズボンという種別について、らしさ画像L2が作成される過程の概要が示されている。   Note that, as described above, FIG. 6 shows the process of creating the uniqueness image L1 for the type of long-sleeved shirt, but for other types, the uniqueness image for each type is created by the same method. FIG. 7 shows an outline of the process of creating the uniqueness image L2 for the type of long pants.

次に、一致度算出部37は、ステップS5において、ステップS3bで抽出された二次元の輪郭線CDと各らしさ画像との一致度Rを算出する。ここで、一致度Rは次式により算出される。   Next, in step S5, the degree of coincidence calculation unit 37 calculates the degree of coincidence R between the two-dimensional contour CD extracted in step S3b and each likelihood image. Here, the degree of coincidence R is calculated by the following equation.

Figure 2017130003
Figure 2017130003

上式において、それぞれNは輪郭線CDの総画素数、nは輪郭線CDを構成する各画素点を意味し、nは1からNの値をとる。またそれぞれ、(in,jn)はn番目の画素点の座標、L(in,jn)はn番目の画素点における画素値(0〜1間の確率値を持つ)を意味する。   In the above equation, N represents the total number of pixels of the contour CD, n represents each pixel point constituting the contour CD, and n takes a value from 1 to N. In addition, (in, jn) means the coordinates of the nth pixel point, and L (in, jn) means the pixel value (having a probability value between 0 and 1) at the nth pixel point.

ここで、画素値L(in,jn)は、図8(a)及び図8(b)に示されるように、輪郭線CDを各らしさ画像L1,L2と重ね合わせたときに、輪郭線CDを構成する各画素について、らしさ画像L1,L2と完全に重なる場合には1、完全に重ならない場合には0、それらの中間状態、すなわち、らしさ画像L1,L2の周縁部分に位置する場合にはその重なりの度合いに応じて0から1の間の値をとる。   Here, as shown in FIG. 8A and FIG. 8B, the pixel value L (in, jn) is obtained when the contour line CD is superimposed on each of the likelihood images L1 and L2. Is 1 when completely overlapping with the likelihood images L1 and L2, 0 when not completely overlapping, that is, when the pixels are positioned in the peripheral portion of the likelihood images L1 and L2. Takes a value between 0 and 1 depending on the degree of overlap.

これらより、算出された一致度Rは輪郭線CDを構成する各画素が有する画素値の平均値を意味するため、本平均値が大きい程、輪郭線CDとらしさ画像L1,L2とは全体として重なり具合が大きいことになる。   From these, the calculated degree of coincidence R means the average value of the pixel values of each pixel constituting the contour line CD. Therefore, the larger the average value, the more the contour line CD uniqueness images L1 and L2 are as a whole. The degree of overlap will be large.

図8においては、図5に示される長ズボンについての輪郭線CDが、それぞれ図8(a)では図7に示された長ズボンのらしさ画像L2と、図8(b)では図6に示された長袖シャツのらしさ画像L1と重ね合わされた状態が示されているが、図8(a)の方が全体として重なりの程度が大きいため、上記の[数2]式により算出される一致度Rは図8(a)の方が図8(b)より大きな値となる。   In FIG. 8, the contour line CD for the long pants shown in FIG. 5 is shown in FIG. 8 (a) as the long pants appearance image L2 shown in FIG. 7, and in FIG. 8 (b) as shown in FIG. 8 shows a state in which the image of the long-sleeved shirt is overlapped with the appearance image L1, but since the degree of overlap is larger as a whole in FIG. R is larger in FIG. 8A than in FIG. 8B.

そして、判定部38は、ステップS6において、算出された一致度Rが最大となるらしさ画像に対応する種別を、観測対象とした衣類の種別として判定する。従って、判定部38は、図8の場合には、観測対象とした衣類の種別を長ズボンと判定する。なお、判定部38は、この判定結果を表示部20に表示させることもできる。   In step S <b> 6, the determination unit 38 determines the type corresponding to the likelihood image where the calculated matching degree R is the maximum as the type of clothing to be observed. Accordingly, in the case of FIG. 8, the determination unit 38 determines that the type of clothing to be observed is long pants. The determination unit 38 can also display the determination result on the display unit 20.

なお、図3に示されたステップS11及びステップS12における動作は、観測対象の種別判定において予め一度だけ実行し、得られた結果を全観測において繰り返し利用すれば足り、観測毎に実行する必要はない。   It should be noted that the operations in step S11 and step S12 shown in FIG. 3 need only be executed once in advance in the determination of the type of observation target, and it is sufficient to repeatedly use the obtained results in all observations. Absent.

また、本発明の実施の形態に係る上記の衣類種別判定装置3は、図1に示された制御部30を、バス4に接続された中央演算処理装置(Central Processing Unit:CPU)によって構成し、図2及び図3に示された手順をプログラミング言語で記したソフトウェアをかかるCPUで実行させることによっても同じ機能を実現できる。   In addition, the above-described clothing type determination device 3 according to the embodiment of the present invention includes the control unit 30 illustrated in FIG. 1 by a central processing unit (CPU) connected to the bus 4. The same function can be realized by causing the CPU described above to execute the software described in the programming language with the procedure shown in FIGS.

以上より、本発明の実施の形態に係る衣類種別判定装置3及び衣類種別判定装置3を含む上記衣類種別判定システムと、衣類種別判定方法によれば、衣類の各種別におけるらしさ画像が、観測されたデータに適応した二次元輪郭線だけを用いて作成されるため、双腕ロボット等が自律的に衣類を自動ハンドリングするための最初の段階として観測対象である衣類の種別を判定する機能を高精度化することができる。   As described above, according to the clothing type determination system including the clothing type determination device 3 and the clothing type determination device 3 and the clothing type determination method according to the embodiment of the present invention, the uniqueness image of each type of clothing is observed. Since it is created using only two-dimensional contour lines adapted to the acquired data, the function to determine the type of clothing to be observed is enhanced as the first step for autonomous handling of clothing automatically by a dual-arm robot etc. It can be made accurate.

そして、このような高精度化により、衣類の取り扱いの自動化を通じ、介護や家庭、また第三次産業など日常品を扱う局面でも役に立つ自律ロボットの実現を図ることができる。   And with such high precision, it is possible to realize an autonomous robot that is useful even in the handling of everyday items such as nursing care, home, and tertiary industry through automation of clothing handling.

1 支持部
2 撮像部
3 衣類種別判定装置
31 ロボットアーム制御部
32 撮像制御部
33 特徴量算出部
34 輪郭パターン抽出部
35 種類別画像データ作成部
36 輪郭線データ取得部
37 一致度算出部
38 判定部
101,102 ロボットアーム
LA 支持点間距離
LB 高さ
LC 最大幅。

DESCRIPTION OF SYMBOLS 1 Support part 2 Imaging part 3 Clothing classification determination apparatus 31 Robot arm control part 32 Imaging control part 33 Feature-value calculation part 34 Contour pattern extraction part 35 Type-specific image data creation part 36 Contour line data acquisition part 37 Matching degree calculation part 38 Determination Part 101, 102 Robot arm LA Distance between support points LB Height LC Maximum width.

Claims (9)

少なくとも二点で支持された衣類を撮像することにより得られた画像から特徴量を算出する特徴量算出手段と、
衣類仮想モデルを用いて予め作成された複数の輪郭パターンの中から前記特徴量に応じて前記輪郭パターンを抽出する輪郭パターン抽出手段と、
前記輪郭パターン抽出手段により抽出された前記輪郭パターンを用いて種類別画像データを作成する種類別画像データ作成手段と、
前記撮像することにより得られた画像から前記衣類の輪郭線データを取得する輪郭線データ取得手段と、
前記種類別画像データ作成手段により作成された前記種類別画像データと前記輪郭線データ取得手段により取得された前記輪郭線データとの一致度を算出する一致度算出手段と、
前記一致度算出手段により算出された前記一致度が最も高い前記種類別画像データに対応する種別を前記衣類の種別と判定する判定手段とを備えた衣類種別判定装置。
A feature amount calculating means for calculating a feature amount from an image obtained by imaging clothing supported by at least two points;
Contour pattern extraction means for extracting the contour pattern according to the feature amount from a plurality of contour patterns created in advance using a clothing virtual model;
Type-specific image data creation means for creating type-specific image data using the contour pattern extracted by the contour pattern extraction means;
Contour data acquisition means for acquiring contour data of the clothing from the image obtained by imaging,
A degree of coincidence calculating means for calculating a degree of coincidence between the image data classified by type created by the image data creating means classified by type and the contour line data obtained by the contour line data obtaining means;
A clothing type determination device comprising: a determination unit that determines a type corresponding to the type-specific image data having the highest degree of matching calculated by the matching level calculation unit as the type of clothing.
前記衣類を支持する支持手段をさらに備え、前記支持手段は、
ロボットアームと、
前記ロボットアームにより観測対象となる前記衣類を予め定められた手順により支持させるロボットアーム制御部とを含む請求項1に記載の衣類種別判定装置。
The apparatus further comprises support means for supporting the garment, and the support means includes
A robot arm,
The clothing type determination apparatus according to claim 1, further comprising a robot arm control unit configured to support the clothing to be observed by the robot arm according to a predetermined procedure.
前記特徴量は、
前記画像の中で前記衣類が被写体とされている領域の高さの関数である第1の特徴量と、
前記画像の中で前記衣類が被写体とされている領域の最大幅の関数である第2の特徴量とを含む請求項1に記載の衣類種別判定装置。
The feature amount is
A first feature that is a function of the height of the area in which the clothing is the subject in the image;
The clothing type determination apparatus according to claim 1, further comprising: a second feature amount that is a function of a maximum width of an area in which the clothing is a subject in the image.
前記種類別画像データ作成手段は、前記輪郭パターンで囲まれた画像領域を平滑化することにより前記種類別画像データを作成する請求項1に記載の衣類種別判定装置。   The clothing type determination apparatus according to claim 1, wherein the type-specific image data creation unit creates the type-specific image data by smoothing an image region surrounded by the contour pattern. 観測対象となる衣類を予め定められた手順により少なくとも二点で支持する第1のステップと、
前記第1のステップにおいて支持された前記衣類を撮像し、得られた画像から特徴量を算出する第2のステップと、
衣類仮想モデルを用いて予め作成された複数の輪郭パターンの中から前記特徴量に応じて前記輪郭パターンを抽出する第3のステップと、
前記第3のステップで抽出された前記輪郭パターンを用いて種類別画像データを作成する第4のステップと、
前記第2のステップで得られた前記画像から前記衣類の輪郭線データを取得する第5のステップと、
前記第4のステップで作成された前記種類別画像データと前記第5のステップで取得された前記輪郭線データとの一致度を算出する第6のステップと、
前記第6のステップで算出された前記一致度が最も高い前記種類別画像データに対応する種別を前記衣類の種別と判定する第7のステップとを有する衣類種別判定方法。
A first step of supporting the clothing to be observed at least two points according to a predetermined procedure;
A second step of imaging the clothing supported in the first step and calculating a feature value from the obtained image;
A third step of extracting the contour pattern according to the feature amount from a plurality of contour patterns created in advance using a clothing virtual model;
A fourth step of creating type-specific image data using the contour pattern extracted in the third step;
A fifth step of acquiring contour data of the clothing from the image obtained in the second step;
A sixth step of calculating a degree of coincidence between the image data classified by type created in the fourth step and the contour line data obtained in the fifth step;
A clothing type determination method comprising: a seventh step of determining a type corresponding to the type-specific image data having the highest degree of matching calculated in the sixth step as the type of clothing.
前記予め定められた手順は、
前記衣類の任意の箇所を把持する把持ステップと、
前記衣類の中で前記把持ステップにより最下点となった箇所を第1の支持点として支持する第1の支持ステップと、
前記第1の支持点を通る鉛直軸を回転軸として前記衣類を回転させ、前記鉛直軸からの距離が極大となる点のうち前記第1の支持点に最も近い点を第2の支持点として支持する第2の支持ステップとを有する請求項5に記載の衣類種別判定方法。
The predetermined procedure is:
A grasping step for grasping an arbitrary portion of the clothing;
A first support step for supporting, as a first support point, a point that is the lowest point in the clothing by the gripping step;
The clothing is rotated using a vertical axis passing through the first support point as a rotation axis, and a point closest to the first support point among points where the distance from the vertical axis is a maximum is defined as a second support point. The clothing type determination method according to claim 5, further comprising a second supporting step of supporting.
前記特徴量は、
前記画像の中で前記衣類が被写体とされている領域の高さの関数である第1の特徴量と、
前記画像の中で前記衣類が被写体とされている領域の最大幅の関数である第2の特徴量とを含む請求項5に記載の衣類種別判定方法。
The feature amount is
A first feature that is a function of the height of the area in which the clothing is the subject in the image;
The clothing type determination method according to claim 5, further comprising: a second feature amount that is a function of a maximum width of an area in which the clothing is a subject in the image.
前記輪郭パターンは、前記衣類仮想モデルの二次元輪郭線を、前記第1のステップにおける支持点間の距離を揃えて正規化した上で重畳させることよって作成する請求項5に記載の衣類種別判定方法。   The clothing type determination according to claim 5, wherein the contour pattern is created by superimposing the two-dimensional contour line of the clothing virtual model after aligning and normalizing the distances between the support points in the first step. Method. 前記種類別画像データは、前記輪郭パターンで囲まれた画像領域を平滑化することにより作成される請求項5に記載の衣類種別判定方法。

The clothing type determination method according to claim 5, wherein the type-specific image data is created by smoothing an image region surrounded by the contour pattern.

JP2016008403A 2016-01-20 2016-01-20 Clothing type determination device and clothing type determination method Pending JP2017130003A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016008403A JP2017130003A (en) 2016-01-20 2016-01-20 Clothing type determination device and clothing type determination method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016008403A JP2017130003A (en) 2016-01-20 2016-01-20 Clothing type determination device and clothing type determination method

Publications (1)

Publication Number Publication Date
JP2017130003A true JP2017130003A (en) 2017-07-27

Family

ID=59394858

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016008403A Pending JP2017130003A (en) 2016-01-20 2016-01-20 Clothing type determination device and clothing type determination method

Country Status (1)

Country Link
JP (1) JP2017130003A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112195611A (en) * 2019-06-19 2021-01-08 青岛海尔洗衣机有限公司 Clothes treatment equipment and control method thereof

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112195611A (en) * 2019-06-19 2021-01-08 青岛海尔洗衣机有限公司 Clothes treatment equipment and control method thereof
CN112195611B (en) * 2019-06-19 2023-04-21 青岛海尔洗衣机有限公司 Clothes treatment equipment and control method thereof

Similar Documents

Publication Publication Date Title
Corona et al. Active garment recognition and target grasping point detection using deep learning
US20210287091A1 (en) Neural network training method and image matching method and apparatus
US20190099891A1 (en) Information processing apparatus, method, and robot system
Cusumano-Towner et al. Bringing clothing into desired configurations with limited perception
Kita et al. Clothes handling based on recognition by strategic observation
Sun et al. A heuristic-based approach for flattening wrinkled clothes
US11475500B2 (en) Device and method for item recommendation based on visual elements
Gabas et al. Robot-aided cloth classification using depth information and CNNs
KR102580009B1 (en) Clothes Fitting System And Operation Method of Threof
Jiménez et al. Perception of cloth in assistive robotic manipulation tasks
JP2013109691A (en) Image processing device, image processing method, and image processing program
Estevez et al. Improving and evaluating robotic garment unfolding: A garment-agnostic approach
Estevez et al. Enabling garment-agnostic laundry tasks for a robot household companion
JP2017130003A (en) Clothing type determination device and clothing type determination method
GB2503331A (en) Aligning garment image with image of a person, locating an object in an image and searching for an image containing an object
US20170287210A1 (en) System for 3D Clothing Model Creation
Pradhan et al. A hand gesture recognition using feature extraction
Moriya et al. A method of picking up a folded fabric product by a single-armed robot
Yamazaki A method of grasp point selection from an item of clothing using hem element relations
Gabas et al. Physical edge detection in clothing items for robotic manipulation
JP6041710B2 (en) Image recognition method
JP2020126414A (en) Machine learning tutor data creation assisting method and machine learning tutor data creation assisting program
JP5545564B2 (en) Cloth product gripping system
Wagner et al. CTU color and depth image dataset of spread garments
Chen et al. Learning to grasp clothing structural regions for garment manipulation tasks