JP2014091008A - Sewing device - Google Patents

Sewing device Download PDF

Info

Publication number
JP2014091008A
JP2014091008A JP2012244957A JP2012244957A JP2014091008A JP 2014091008 A JP2014091008 A JP 2014091008A JP 2012244957 A JP2012244957 A JP 2012244957A JP 2012244957 A JP2012244957 A JP 2012244957A JP 2014091008 A JP2014091008 A JP 2014091008A
Authority
JP
Japan
Prior art keywords
sewing
end position
holding frame
product
cloth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012244957A
Other languages
Japanese (ja)
Other versions
JP5993283B2 (en
Inventor
Mitsuhiro Yoshihira
光宏 吉平
Etsuo Nemoto
越男 根本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Juki Corp
Original Assignee
Juki Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Juki Corp filed Critical Juki Corp
Priority to JP2012244957A priority Critical patent/JP5993283B2/en
Priority to CN201310549801.9A priority patent/CN103806225B/en
Publication of JP2014091008A publication Critical patent/JP2014091008A/en
Application granted granted Critical
Publication of JP5993283B2 publication Critical patent/JP5993283B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Sewing Machines And Sewing (AREA)

Abstract

PROBLEM TO BE SOLVED: To perform sewing of a workpiece with accuracy and stably at a sewing position with an end position being a reference by enabling correct recognition of the end position of the workpiece while keeping a satisfactory holding property of the workpiece by a cloth holding frame.SOLUTION: A cloth holding frame 9a includes: a plurality of contact parts 22 which come in contact with one part of an end surface of a workpiece 21 and which determine a surface direction position of the workpiece with respect to the cloth holding frame; and a plurality of openings 24a and 24b for edge detection which expose an end part of the workpiece of a portion adjacent to the end surface so that it can be detected by a camera 41 while being in contact with the contact part, including certain space in front of the end surface of the end part. A shape recognition part 4 detects an end position of the workpiece exposed at the openings for edge detection by the camera, and recognises the end position of the workpiece based on the detected end position. The shape recognition part recognizes the end position corresponding to the contact part by complementing based on the end position detected at the openings for edge detection on both sides of the contact part.

Description

本発明は、被縫製物の形状を認識した上で布送り制御し当該被縫製物を縫製する縫製装置に関する。   The present invention relates to a sewing apparatus that recognizes the shape of a workpiece and controls the cloth feed and sews the workpiece.

従来、水平面内を動作可能に構成された布送り下板及び布送り外枠に縫製物本体を挟持し、縫製物本体上に被縫製物を設置し、これを予めプログラミングされた縫製経路に沿って移動させながら縫うことにより縫製物本体に被縫製物を縫い付ける縫製装置が用いられている。
このような縫製装置においては、被縫製物を位置決め保持するために、布送り外枠には被縫製物の縫製箇所に対応した溝や穴などの開口が形成された布保持枠が固定される。そして、被縫製物は、布保持枠に形成された開口の内壁面や、当該開口の内縁部に形成された位置決め用段部などの内壁面に被縫製物の外周端縁が当接することによって位置決めされることが一般的に行われる。このように位置決めされた被縫製物は、被縫製物の外周端縁から一定幅の縫い代を持たせて縫製されることが少なくなく、従って被縫製物の外周端縁を基準とした所定位置を針落ち目標位置として縫製することはよく行われる。
Conventionally, the sewing machine body is sandwiched between a cloth feed lower plate and a cloth feed outer frame which are configured to be operable in a horizontal plane, and the work to be sewn is installed on the sewing machine body, and this is followed along a pre-programmed sewing path. 2. Description of the Related Art Sewing apparatuses that sew a workpiece to be sewn by sewing while moving the sewing machine are used.
In such a sewing apparatus, in order to position and hold the sewing product, a cloth holding frame in which openings such as grooves and holes corresponding to the sewing locations of the sewing product are formed is fixed to the cloth feed outer frame. . Then, the outer peripheral edge of the sewing product comes into contact with the inner wall surface of the opening formed in the cloth holding frame or the inner wall surface of the positioning step formed on the inner edge of the opening. It is generally done to be positioned. The sewing product positioned in this way is often sewn with a certain margin of sewing margin from the outer peripheral edge of the sewing product, and accordingly, a predetermined position based on the outer peripheral edge of the sewing product is set. Sewing as a needle entry target position is often performed.

しかしながら、作業者が被縫製物を布保持枠にセットする際の位置ずれや被縫製物の裁断時の個々の大きさのばらつき、皮革や織物などの可とう性材料で構成される被縫製物の寸法変化により、被縫製物の外周端縁が布保持枠に形成された開口の内壁面や、位置決め用段部などの内壁面に当接せず、本来ならば被縫製物の外周端縁から一定幅の位置を縫製されるはずが、ずれた位置を縫製してしまい、不良品となってしまうことがあった。   However, when the worker sets the sewing object on the cloth holding frame, the positional deviation of the sewing object, the variation in individual sizes when the sewing object is cut, and the sewing article made of a flexible material such as leather or fabric. The outer peripheral edge of the sewing product does not come into contact with the inner wall surface of the opening formed in the cloth holding frame and the inner wall surface of the positioning step or the like. Although the position of a certain width should be sewn from, the shifted position may be sewn, resulting in a defective product.

かかる問題を解決するため特許文献1には、「縁位置感知装置は回転軸受上に装架された走査カメラを有し、該軸受はミシンヘッドに装着され、前記カメラが針の軸線と同軸的に回転し、縫製面内の針貫通点のまわりの仮想円に接する線を走査する」と記載されている。そして、縫製物本体に固定された被縫製物は、走査カメラに装着された照明装置により縫製物本体に対して被縫製物の外周端縁が強調され、走査カメラによりこの被縫製物の外周端縁を感知し、予めプログラミングされた縫製パターンに対して、検出された被縫製物の実際位置に従って縫製経路を修正しながら被縫製物の外周端縁から一定幅の縫い代位置を縫製する縫製装置が記載されている。
同問題を解決するため特許文献2には、縫製工程の前工程として外形認識装置によって被縫製物の外形認識を行い、縫製物本体に固定された被縫製物は、被縫製物の外周端縁測方部に設けられた照明装置により縫製物本体に対して被縫製物の外周端縁が強調され、CCDカメラによりこの被縫製物の外周端縁を感知し、外形認識装置から電子ミシンへと縫製物を移載し、検出された被縫製物の外形形状を元に被縫製物の外周端縁から一定幅の縫い代位置を縫製する縫製装置が記載されている。
In order to solve such a problem, Patent Document 1 discloses that “the edge position sensing device has a scanning camera mounted on a rotary bearing, the bearing is mounted on a sewing head, and the camera is coaxial with the axis of the needle. ”And scans a line in contact with a virtual circle around the needle penetration point in the sewing surface”. Then, the outer peripheral edge of the sewing product is emphasized with respect to the sewing product main body by the illumination device mounted on the scanning camera, and the outer peripheral edge of the sewing product is fixed by the scanning camera. A sewing device that senses an edge and sews a sewing margin position of a certain width from an outer peripheral edge of the sewing product while correcting a sewing path according to the detected actual position of the sewing product with respect to a pre-programmed sewing pattern. Have been described.
In order to solve this problem, Japanese Patent Laid-Open No. 2004-26853 discloses that the outer shape of the sewing product is recognized by the outer shape recognition device as a pre-process of the sewing process, and the sewing product fixed to the sewing product body is the outer peripheral edge of the sewing product. The outer peripheral edge of the sewing product is emphasized with respect to the sewing product body by the illumination device provided in the measuring unit, and the outer peripheral edge of the sewing product is detected by the CCD camera, and the outer shape recognition device changes to the electronic sewing machine. There is described a sewing apparatus that transfers a sewing product and sews a sewing margin position having a certain width from an outer peripheral edge of the sewing product based on the detected outer shape of the sewing product.

特公平7−28962号公報Japanese Patent Publication No. 7-28962 特開平05−225315号公報JP 05-225315 A

しかしながら、上述した特許文献1,2に記載のいずれの縫製装置においても、照明装置によって縫製物本体に対して被縫製物の外周端縁を強調し、カメラによって被縫製物の外周端縁を認識することから、従来のように被縫製物の外周端縁を開口の内壁面や、位置決め用段部の内壁面に当接させ位置決めする布保持枠を使用することができない。
なぜなら、図13に例示するように、縫製物本体19上の被縫製物21の外周縁部を所定の幅で布保持枠9xによって保持し、被縫製物21の布厚に応じて開口20xの内縁部に形成された位置決め段部の内壁面23に被縫製物21の外周端縁が当接した状態や、作業者が縫製物をセットする際に位置ずれさせてしまった状態においては、被縫製物21の外周端縁の一部もしくは全部が布保持枠9xの下側に隠れてしまうため、カメラによって被縫製物21の外周端縁を認識することはできない。
さらに、図14に例示するように縫製物本体19上の被縫製物21の外周端縁は、布保持枠9yに形成された開口20yの内壁面22に当接した状態、もしくは被縫製物21の裁断時の個々の大きさのばらつきや皮革や織物などの可とう性材料の寸法変化により、被縫製物21の外周端縁が内壁面22と当接せず、若干の隙間を持った状態である場合がある。この場合、被縫製物21の外周端縁に内壁面22が近接しすぎているため、照明装置により縫製物本体に対して被縫製物21の外周端縁の陰影を強調することが困難であり、カメラによって被縫製物21の外周端縁を正確に認識することができない。
However, in any of the sewing devices described in Patent Documents 1 and 2 described above, the illumination device emphasizes the outer peripheral edge of the sewing product with respect to the sewing product body, and the camera recognizes the outer peripheral edge of the sewing product. For this reason, it is not possible to use a cloth holding frame that positions the outer peripheral edge of the workpiece to be brought into contact with the inner wall surface of the opening or the inner wall surface of the positioning step portion as in the prior art.
This is because, as illustrated in FIG. 13, the outer peripheral edge portion of the sewing product 21 on the sewing product body 19 is held by the cloth holding frame 9 x with a predetermined width, and the opening 20 x of the opening 20 x is set according to the cloth thickness of the sewing product 21. In a state where the outer peripheral edge of the sewing object 21 is in contact with the inner wall surface 23 of the positioning step formed on the inner edge part, or in a state where the operator has shifted the position when setting the sewing object, Since part or all of the outer peripheral edge of the sewing product 21 is hidden under the cloth holding frame 9x, the outer peripheral edge of the sewing product 21 cannot be recognized by the camera.
Furthermore, as illustrated in FIG. 14, the outer peripheral edge of the sewing product 21 on the sewing product body 19 is in contact with the inner wall surface 22 of the opening 20 y formed in the cloth holding frame 9 y, or the sewing product 21. The outer peripheral edge of the workpiece 21 does not come into contact with the inner wall surface 22 due to variations in individual sizes at the time of cutting and dimensional changes of flexible materials such as leather and fabric, and there is a slight gap. It may be. In this case, since the inner wall surface 22 is too close to the outer peripheral edge of the sewing product 21, it is difficult to emphasize the shadow of the outer peripheral edge of the sewing product 21 with respect to the sewing product body by the lighting device. The outer peripheral edge of the workpiece 21 cannot be accurately recognized by the camera.

そこで本発明は、布保持枠による被縫製物の保持性を良好にしたまま、被縫製物の端位置の正確な認識を可能とすることにより、当該端位置を基準とした縫製位置での被縫製物の縫製を精度よく安定的に行うことを課題とする。   Therefore, the present invention enables accurate recognition of the end position of the sewing product while maintaining the holding property of the sewing product by the cloth holding frame, thereby enabling the sewing position at the sewing position based on the end position. It is an object to sew a sewn product accurately and stably.

請求項1記載の発明は、被縫製物を縫製するミシン本体と、
前記被縫製物の縫製領域を針落ち可能に露出させる縫製用開口部が形成された布保持枠を有し、当該布保持枠を介して前記被縫製物を水平面内で移動させる布送り部と、
前記布保持枠に位置決めされた前記被縫製物の端位置を、対物検知手段を用いて認識する形状認識部と、
前記形状認識部で認識された前記端位置を基準に縫製位置を決定し、当該縫製位置で縫製作業を行わせるように、前記ミシン本体と前記布送り部を制御するミシン制御部とを備える縫製装置において、
前記布保持枠は、
前記被縫製物の端面に当接する複数の当接部と、
前記布保持枠を切欠いて前記縫製用開口部に連続して形成され、被縫製物の端部の一部を露出させる複数のエッジ検出用開口部とを有し、前記形状認識部は、前記対物検知手段により前記エッジ検出用開口部で露出する前記被縫製物の端位置を検出し、当該検出した端位置に基づいて前記被縫製物の端位置を認識することを特徴とする縫製装置である。
The invention according to claim 1 is a sewing machine main body for sewing a workpiece.
A cloth feed part having a cloth holding frame formed with a sewing opening that exposes a sewing region of the sewing object so as to allow needle dropping; and a cloth feed part that moves the sewing object in a horizontal plane via the cloth holding frame; ,
A shape recognition unit for recognizing an end position of the sewing object positioned on the cloth holding frame using an objective detection unit;
Sewing provided with the sewing machine main body and a sewing machine control unit for controlling the cloth feed unit so that a sewing position is determined based on the end position recognized by the shape recognition unit and sewing work is performed at the sewing position. In the device
The cloth holding frame is
A plurality of abutting portions that abut against the end surface of the sewing product;
The cloth holding frame is cut out and formed continuously with the sewing opening, and has a plurality of edge detection openings that expose a part of the end of the sewing object. A sewing apparatus characterized in that an end position of the sewing product exposed at the edge detection opening is detected by an object detection means, and an end position of the sewing product is recognized based on the detected end position. is there.

請求項2記載の発明は、前記形状認識部は、前記当接部に対応する端位置を、当該当接部の両隣の前記エッジ検出用開口部で検出された端位置に基づき補完することで認識することを特徴とする請求項1に記載の縫製装置である。   According to a second aspect of the present invention, the shape recognition unit complements the end position corresponding to the contact part based on the end positions detected at the edge detection openings adjacent to the contact part. The sewing apparatus according to claim 1, wherein the sewing apparatus is recognized.

請求項3記載の発明は、前記形状認識部は、前記複数の当接部の各々において前記補完を直線補間で行うか又はスプライン補間で行うかを選択設定可能に構成されていることを特徴とする請求項2に記載の縫製装置である。   The invention according to claim 3 is characterized in that the shape recognition unit is configured to be able to select and set whether the complement is performed by linear interpolation or spline interpolation in each of the plurality of contact portions. The sewing apparatus according to claim 2.

請求項4記載の発明は、前記ミシン制御部は、前記縫製位置を指定する縫製パターンデータを、前記形状認識部で認識した端位置に基づき作成することを特徴とする請求項1から請求項3のうちいずれか一に記載の縫製装置である。   According to a fourth aspect of the present invention, the sewing machine control unit creates sewing pattern data for designating the sewing position based on the end position recognized by the shape recognition unit. It is a sewing device as described in any one of these.

請求項5記載の発明は、前記ミシン制御部は、設計上の前記被縫製物の端位置に適合して予め作成された標準縫製パターンデータを、前記形状認識部で認識した端位置に適合するように補正することで前記縫製パターンデータを作成することを特徴とする請求項4に記載の縫製装置である。   According to a fifth aspect of the present invention, the sewing machine control unit conforms to the end position recognized by the shape recognition unit with the standard sewing pattern data created in advance in conformity with the designed end position of the sewing object. The sewing apparatus according to claim 4, wherein the sewing pattern data is created by correcting as described above.

請求項6記載の発明は、前記ミシン制御部は、前記布送り部の制御に係り縫製位置を定義するための二次元座標上において前記標準縫製パターンデータにより指定される縫製位置により特定される縫製経路形状を拡大・縮小、回転移動又は平行移動する態様で座標変換することで、前記標準縫製パターンデータを前記形状認識部で認識した端位置に適合するように補正することを特徴とする請求項5に記載の縫製装置である。   According to a sixth aspect of the present invention, the sewing machine control unit is identified by a sewing position specified by the standard sewing pattern data on a two-dimensional coordinate for defining a sewing position in connection with the control of the cloth feeding unit. The coordinate is converted in a manner of enlarging / reducing, rotating, or translating a path shape, so that the standard sewing pattern data is corrected to match the end position recognized by the shape recognition unit. 5. The sewing apparatus according to 5.

請求項7記載の発明は、設計上の前記被縫製物の端位置に対する前記形状認識部で認識した端位置のずれ量を算出し、当該ずれ量が所定の閾値を超えている場合に被縫製物の位置ずれを表示出力することを特徴とする請求項1から請求項6のうちいずれか一に記載の縫製装置である。   The invention according to claim 7 calculates a deviation amount of the end position recognized by the shape recognition unit with respect to the designed end position of the sewing product, and when the deviation amount exceeds a predetermined threshold value, the sewing is performed. The sewing apparatus according to any one of claims 1 to 6, wherein a displacement of an object is displayed and output.

請求項1記載の発明によれば、前記布保持枠を切欠いて前記縫製用開口部に連続して形成され、被縫製物の端部の一部を露出させる複数のエッジ検出用開口部を有するので、この端部のエッジラインをエッジ検出用開口部を介してカメラ、レーザ変位計などの光その他の電磁波を媒介とした対物検知手段により良好に検出することができ、検出した結果に基づき被縫製物の端位置を認識するから、被縫製物の端位置の正確な認識が可能となる。
さらに、ミシン制御部は形状認識部で認識された端位置を基準にして縫製位置を決定するから、同発明によれば、被縫製物の端位置を基準とした縫製位置での被縫製物の縫製を精度よく安定的に行うことができる。
According to the first aspect of the present invention, the cloth holding frame is notched and formed continuously to the sewing opening, and has a plurality of edge detection openings that expose a part of the end of the sewing object. Therefore, the edge line of this end can be detected well by an objective detection means mediated by light or other electromagnetic waves such as a camera or a laser displacement meter through the edge detection opening. Since the end position of the sewing product is recognized, the end position of the sewing product can be accurately recognized.
Furthermore, since the sewing machine control unit determines the sewing position based on the end position recognized by the shape recognition unit, according to the present invention, the sewing product at the sewing position based on the end position of the sewing product is determined. Sewing can be performed accurately and stably.

請求項2記載の発明によれば、布保持枠の当接部に対応する被縫製物の端位置を含めて被縫製物の外形を認識することができ、被縫製物の端位置を基準とした縫製位置での被縫製物の縫製を精度よく行うことができる。   According to the second aspect of the invention, it is possible to recognize the outer shape of the sewing product including the end position of the sewing product corresponding to the contact portion of the cloth holding frame, and the end position of the sewing product is used as a reference. It is possible to accurately sew the work to be sewn at the sewing position.

請求項3記載の発明によれば、エッジ検出用開口部に露出する予定の被縫製物のエッジラインや当接部に対応する予定の被縫製物のエッジラインに合わせて適切な補間方法を予め設定することができ、適切な補間を経て、被縫製物の端位置を基準とした縫製位置での被縫製物の縫製を精度よく行うことができる。   According to the third aspect of the present invention, an appropriate interpolation method is preliminarily set in accordance with the edge line of the sewing product scheduled to be exposed to the edge detection opening and the edge line of the sewing product scheduled to correspond to the contact portion. It is possible to set, and through appropriate interpolation, the sewing product can be accurately sewn at the sewing position based on the end position of the sewing product.

請求項4記載の発明によれば、形状認識部で認識した端位置に基づき縫製位置を指定する縫製パターンデータを作成し、被縫製物の端位置を基準とした縫製位置での被縫製物の縫製を精度よく行うことができる。   According to the fourth aspect of the invention, the sewing pattern data for designating the sewing position based on the end position recognized by the shape recognition unit is created, and the sewing product at the sewing position based on the end position of the sewing product is generated. Sewing can be performed with high accuracy.

請求項5記載の発明によれば、予め作成された標準縫製パターンデータを、形状認識部で認識した端位置に適合するように補正することで縫製パターンデータを作成するので、計算負荷を軽減して、被縫製物の端位置を基準とした縫製位置での被縫製物の縫製を迅速且つ精度よく行うことができる。   According to the fifth aspect of the present invention, since the sewing pattern data is created by correcting the standard sewing pattern data created in advance so as to match the end position recognized by the shape recognition unit, the calculation load is reduced. As a result, it is possible to quickly and accurately perform the sewing of the sewing product at the sewing position based on the end position of the sewing product.

請求項6記載の発明によれば、予め作成された標準縫製パターンデータの縫製経路形状を拡大・縮小、回転移動又は平行移動する態様で座標変換するだけで縫製パターンデータを作成するので、さらに計算負荷を軽減して、被縫製物の端位置を基準とした縫製位置での被縫製物の縫製を迅速且つ精度よく行うことができる。   According to the sixth aspect of the present invention, since the sewing pattern data is created simply by performing coordinate conversion in a manner of enlarging / reducing, rotating or translating the sewing route shape of the standard sewing pattern data created in advance, further calculation is performed. The load can be reduced, and the sewing product can be sewn quickly and accurately at the sewing position based on the end position of the sewing product.

請求項7記載の発明によれば、作業者による被縫製物の位置直しが必要となるような被縫製物の著しい位置ずれを作業者に知らせることができ、作業者による位置直しを経ることにより被縫製物の端位置を基準とした縫製位置での被縫製物の縫製を精度よく行うことができる。   According to the seventh aspect of the invention, it is possible to notify the operator of a significant positional shift of the sewing product that requires the operator to reposition the sewing product, and through the repositioning by the operator. Sewing of the sewing product at the sewing position based on the end position of the sewing product can be performed with high accuracy.

本発明の一実施形態に係る縫製装置の斜視図である。It is a perspective view of the sewing apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態に係る縫製装置の正面図である。但し、カメラを分離して示す。It is a front view of the sewing device concerning one embodiment of the present invention. However, the camera is shown separately. 本発明の一実施形態に係る縫製装置の制御ブロック図である。It is a control block diagram of the sewing apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態に係る縫製装置の布送り部に布保持枠を装着した状態の詳細斜視図である。It is a detailed perspective view of the state which attached the cloth holding frame to the cloth feed part of the sewing device concerning one embodiment of the present invention. 本発明の一実施形態に係る布保持枠の布保持部及びこれに保持された被縫製物(ポケット生地)の平面図である。It is a top view of the cloth holding part of the cloth holding frame which concerns on one Embodiment of this invention, and the to-be-sewn material (pocket cloth) hold | maintained at this. 本発明の一実施形態に係る布保持枠の布保持部及びこれに保持された被縫製物(ポケット生地)の平面図であり、図5とは異なり位置決め段部を有したものを示す。It is a top view of the cloth holding part of the cloth holding frame which concerns on one Embodiment of this invention, and the to-be-sewn material (pocket cloth) hold | maintained at this, The thing which has the positioning step part unlike FIG. 本発明の一実施形態において認識された被縫製物(ポケット生地)の外周端縁位置の線図である。It is a diagram of the outer periphery edge position of the sewing thing (pocket cloth) recognized in one embodiment of the present invention. 本発明の一実施形態に係る布保持枠の布保持部及びこれに保持された被縫製物(ポケット生地)の平面図である。被縫製物がずれて設置された場合を示す。It is a top view of the cloth holding part of the cloth holding frame which concerns on one Embodiment of this invention, and the to-be-sewn material (pocket cloth) hold | maintained at this. This shows the case where the workpiece is installed with a shift. 本発明の一実施形態に係る縫製装置に係る縫製処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the sewing process which concerns on the sewing apparatus which concerns on one Embodiment of this invention. 本発明の他の一実施形態に係る被縫製物(ロゴマーク)の平面図である。It is a top view of a to-be-sewn product (logo mark) according to another embodiment of the present invention. 本発明の他の一実施形態に係る布保持枠の布保持部及びこれに保持された被縫製物(ロゴマーク)の平面図である。It is a top view of the cloth holding part of the cloth holding frame which concerns on other one Embodiment of this invention, and the to-be-sewn product (logo mark) hold | maintained at this. 本発明の他の一実施形態において認識された被縫製物(ロゴマーク)の外周端縁位置の線図である。It is a diagram of the outer peripheral edge position of the sewing product (logo mark) recognized in another embodiment of the present invention. 従来の一例に係る布保持枠の布保持部及びこれに保持された被縫製物(ポケット生地)の平面図であり、位置決め段部を有したものを示す。It is a top view of the cloth holding part of the cloth holding frame which concerns on an example of the past, and the to-be-sewn material (pocket cloth) hold | maintained at this, and shows what has the positioning step part. 従来の一例に係る布保持枠の布保持部及びこれに保持された被縫製物(ポケット生地)の平面図である。It is a top view of the cloth holding part of the cloth holding frame which concerns on an example of the past, and the to-be-sewn material (pocket cloth) hold | maintained at this.

以下に本発明の一実施形態につき図面を参照して説明する。以下は本発明の一実施形態であって本発明を限定するものではない。   An embodiment of the present invention will be described below with reference to the drawings. The following is one embodiment of the present invention and does not limit the present invention.

〔縫製装置の概要〕
図1から図3によって示すように本実施形態の縫製装置1は、ミシン本体2と、布送り部3と、形状認識部4と、ミシン制御部5と、縫製パターンデータベース51と、表示装置52とを備えて構成される。
ミシン本体2は、縫い針の動作等を行うミシンアーム部2aと、釜の動作等を行うミシンベッド部2bと、ミシンテーブル2cとを備え、被縫製物を縫製する。
形状認識部4は、カメラ41と、照明装置42と、画像認識制御部43と、設定入力部44と、設定保存データベース45とを備える。画像認識制御部43はカメラ41及び照明装置42を制御して画像情報を取得し、取得した画像のエッジ抽出処理など画像処理を行って被縫製物の形状認識を行う。
画像認識制御部43、ミシン制御部5、設定入力部44、設定保存データベース45及び縫製パターンデータベース51は、情報処理装置、情報入力装置及び情報記憶装置により構成される情報処理システムであって、画像認識制御部43とミシン制御部5とが同一又は別々のICチップで動作するとか、設定保存データベース45と縫製パターンデータベース51とが同一又は別々のハードディスク又はICチップに構築されるとか、ミシン本体2の筐体内に又は外部装置として構成されるかなどのハードウエア構成は問わない。
表示装置52は、画像表示のほか任意に音声表示を行う。
[Outline of sewing device]
As shown in FIGS. 1 to 3, the sewing apparatus 1 according to the present embodiment includes a sewing machine body 2, a cloth feeding unit 3, a shape recognition unit 4, a sewing machine control unit 5, a sewing pattern database 51, and a display device 52. And is configured.
The sewing machine body 2 includes a sewing machine arm portion 2a for operating a sewing needle, a sewing machine bed portion 2b for operating a shuttle, and a sewing table 2c, and sews a workpiece.
The shape recognition unit 4 includes a camera 41, a lighting device 42, an image recognition control unit 43, a setting input unit 44, and a setting storage database 45. The image recognition control unit 43 controls the camera 41 and the illumination device 42 to acquire image information, and performs image processing such as edge extraction processing of the acquired image to recognize the shape of the sewing product.
The image recognition control unit 43, the sewing machine control unit 5, the setting input unit 44, the setting storage database 45, and the sewing pattern database 51 are an information processing system including an information processing device, an information input device, and an information storage device. The recognition control unit 43 and the sewing machine control unit 5 operate on the same or different IC chips, the setting storage database 45 and the sewing pattern database 51 are constructed on the same or different hard disks or IC chips, or the sewing machine body 2 Any hardware configuration may be used, such as whether it is configured within the housing or as an external device.
The display device 52 performs audio display arbitrarily in addition to image display.

図4に示すように布送り部3は、布送り下板7と、布送り外枠8と、布送り土台10と、布送りアーム11と、XY駆動部(ミシンベッド部2bに搭載)とを備えて構成される。布送り外枠8には布保持枠9が着脱自在に固定される。布送り外枠8は布送りアーム11に固定され、布送りアーム11は布送り土台10に上下動可能に固定されている。また、布送り下板7は布送り土台10に固定されている。布送り土台10は、図示のないモータやタイミングベルト、タイミングプーリ等により構成されるXY駆動部により水平面(図中のX−Y平面)内で動作可能に構成されており、布送り土台10とともに布送り下板7、布送り外枠8及び布送り外枠8の下面に固定された布保持枠9が一体となって水平面内を動作する。縫製位置はこの布送り部3の制御に係る二次元座標X−Yによって定義される。各被縫製物の縫製位置は被縫製物ごとに対応した縫製パターンデータによって指定される。各縫製パターンデータは縫製パターンデータベース51に保存されている。
布保持枠9には、被縫製物の縫製領域を針落ち可能に露出させる縫製用開口部20が形成されている。また、布送り部3は布保持枠を介して被縫製物を水平面内で移動させる。
As shown in FIG. 4, the cloth feed section 3 includes a cloth feed lower plate 7, a cloth feed outer frame 8, a cloth feed base 10, a cloth feed arm 11, and an XY drive section (mounted on the sewing machine bed section 2 b). It is configured with. A cloth holding frame 9 is detachably fixed to the cloth feed outer frame 8. The cloth feed outer frame 8 is fixed to a cloth feed arm 11, and the cloth feed arm 11 is fixed to a cloth feed base 10 so as to be movable up and down. The cloth feed lower plate 7 is fixed to the cloth feed base 10. The cloth feed base 10 is configured to be operable in a horizontal plane (XY plane in the drawing) by an XY drive unit including a motor, a timing belt, a timing pulley, and the like (not shown). The cloth feed lower plate 7, the cloth feed outer frame 8, and the cloth holding frame 9 fixed to the lower surface of the cloth feed outer frame 8 integrally operate in the horizontal plane. The sewing position is defined by a two-dimensional coordinate XY related to the control of the cloth feeding unit 3. The sewing position of each sewing product is specified by sewing pattern data corresponding to each sewing product. Each sewing pattern data is stored in the sewing pattern database 51.
The cloth holding frame 9 is formed with a sewing opening 20 that exposes the sewing area of the sewing object so that the needle can be dropped. In addition, the cloth feed section 3 moves the sewing object in a horizontal plane via the cloth holding frame.

図5に示す被縫製物21は、ジーパンなどのポケット生地であり、上辺がポケット口となり、下端中央に頂点を有した五角形の外形を形成している。
これに対応する図5に示す布保持枠9aにあっては、縫製用開口部20aが被縫製物21のポケット口となる上辺を除く4辺に沿った一定幅の外周端縁部を上方に露出させる溝状に形成されている。被縫製物21は、布送り下板7と布送り外枠8に挟持されたジーンズ生地などの縫製物本体上に載っており、縫製用開口部20aに囲まれる内側部分において布保持枠9aの裏面で浮き上がらないように押さえられる。
縫製用開口部20aの外側内壁面は、上記4辺のそれぞれ添って形成されており、被縫製物21の外周端縁に当接して布保持枠9aに対し被縫製物21のX−Y面方向位置を決める当接部22を構成する。但し、被縫製物21の5つの角部に対応してエッジ検出用開口部24a、24bが形成されている。そのうち2つのエッジ検出用開口部24b,24bは、縫製用開口部20aの上側に形成され、被縫製物21の上辺側の2つの角部に対応する。また、残りの3つのエッジ検出用開口部24a,24a,24aは、被縫製物21の下辺側の3つの角部に対応して形成されている。
A sewing product 21 shown in FIG. 5 is a pocket fabric such as jeans, and has a pentagonal outer shape with an upper side serving as a pocket mouth and a vertex at the center of the lower end.
In the cloth holding frame 9a shown in FIG. 5 corresponding to this, the peripheral edge of the constant width along the four sides excluding the upper side where the sewing opening 20a becomes the pocket opening of the sewing object 21 is directed upward. It is formed in a groove shape to be exposed. The article to be sewn 21 is placed on a sewn article body such as jeans cloth sandwiched between the cloth feed lower plate 7 and the cloth feed outer frame 8, and the cloth holding frame 9a is surrounded by an inner portion surrounded by the sewing opening 20a. It is pressed so that it does not float on the back side.
The outer inner wall surface of the sewing opening 20a is formed along each of the four sides, and abuts on the outer peripheral edge of the sewing object 21, and the XY plane of the sewing object 21 with respect to the cloth holding frame 9a. A contact portion 22 for determining the direction position is configured. However, edge detection openings 24 a and 24 b are formed corresponding to the five corners of the workpiece 21. Of these, the two edge detection openings 24b, 24b are formed above the sewing opening 20a and correspond to the two corners on the upper side of the sewing object 21. The remaining three edge detection openings 24 a, 24 a, 24 a are formed corresponding to the three corners on the lower side of the sewing product 21.

以上のエッジ検出用開口部24a,24bのように、縫製位置に近い端部を露出させるエッジ検出用開口部は縫製用開口部に連続して一体的に形成することが好ましい。一方、ポケット口中央部のように縫製位置から遠い端部についてはエッジ検出用開口部(破線部)24cのように、縫製用開口部から独立した状態で設けることもでき、必ずしも縫製用開口部とエッジ検出用開口部とは一体の開口と形成する必要はない。本実施形態では、エッジ検出用開口部(破線部)24cは設けられていないものとする。エッジ検出用開口部が縫製用開口部と一体である場合は、エッジ検出のための開口領域と縫製のための開口領域とが重複していてよい。エッジ検出用開口部同士は当接部22を介して複数設けられ、当接部22の両端にエッジ検出用開口部を設ける。
すなわち、エッジ検出用開口部24a,24bは、布保持枠9aの所定位置を切欠いて、縫製用開口部20aに連続して一体的に形成され、被縫製物の端部の一部を露出させている。特に、被縫製物の端部の一部として、角部を露出させると好ましい。
Like the edge detection openings 24a and 24b, the edge detection opening that exposes the end close to the sewing position is preferably formed continuously and integrally with the sewing opening. On the other hand, the end portion far from the sewing position such as the pocket mouth central portion can be provided independently of the sewing opening portion as in the edge detection opening portion (dashed line portion) 24c. And the edge detection opening need not be formed as an integral opening. In the present embodiment, the edge detection opening (broken line) 24c is not provided. When the edge detection opening is integrated with the sewing opening, the opening area for edge detection and the opening area for sewing may overlap. A plurality of edge detection openings are provided via the contact portion 22, and edge detection openings are provided at both ends of the contact portion 22.
That is, the edge detection openings 24a and 24b are formed integrally with the sewing opening 20a by notching a predetermined position of the cloth holding frame 9a and exposing a part of the end of the sewing object. ing. In particular, it is preferable to expose the corner portion as a part of the end portion of the sewing object.

いずれのエッジ検出用開口部24a,24bも、当接部22に被縫製物21の端面が当接した状態において当該端面に隣接する部位の被縫製物21の端部を対物検知手段により検出可能とするように、当該端部の端面前方の一定の空間を含めて露出させる。本実施形態では対物検知手段はカメラ41により構成される。   Any of the edge detection openings 24a and 24b can detect the end portion of the sewing product 21 at a portion adjacent to the end surface by the object detection means when the end surface of the sewing product 21 is in contact with the contact portion 22. As described above, a certain space in front of the end face of the end portion is exposed. In the present embodiment, the objective detection means is constituted by a camera 41.

一方、図6にも同様の被縫製物21及びこれに対応する布保持枠9bが示される。但し、図6に示す布保持枠9bは、図13を参照して説明した位置決め用段部の構造を採用するものである。
すなわち、図6に示す布保持枠9bにおいては、位置決め用段部の内壁面が被縫製物21の外周端縁に当接して布保持枠9bに対し被縫製物21のX−Y面方向位置を決める当接部23を構成する。その他の点について布保持枠9bは、図5の布保持枠9aと同様である。図6において被縫製物21は、布保持枠9bの縫製用開口部20bに囲まれる内側部分及び当接部23前方の一定幅の外周端縁部において布保持枠9bの裏面で浮き上がらないように押さえられる。
On the other hand, FIG. 6 also shows a similar workpiece 21 and a cloth holding frame 9b corresponding thereto. However, the cloth holding frame 9b shown in FIG. 6 adopts the structure of the positioning step described with reference to FIG.
That is, in the cloth holding frame 9b shown in FIG. 6, the inner wall surface of the positioning step portion abuts on the outer peripheral edge of the sewing object 21, and the position of the sewing object 21 in the XY plane with respect to the cloth holding frame 9b. A contact portion 23 for determining The cloth holding frame 9b is the same as the cloth holding frame 9a in FIG. In FIG. 6, the article to be sewn 21 does not float on the back surface of the cloth holding frame 9 b at the inner peripheral portion surrounded by the sewing opening 20 b of the cloth holding frame 9 b and the outer peripheral edge of the constant width in front of the contact portion 23. Pressed.

〔縫製処理の流れ〕
以上の構成の布保持枠9aを適用して縫製装置1を用いて縫製を行う際、作業者は布保持枠9aの縫製用開口部20aに被縫製物21をセットする(図9,ステップS3)。このとき、被縫製物21は布保持枠9aに設けられた縫製用開口部20aの内壁面で構成された当接部22によって位置規制され、布保持枠9aに対して正しく位置決めされる。しかし、被縫製物21の裁断時の個々の大きさのばらつきや皮革や織物などの可とう性材料の寸法変化などで、布保持枠9aに設けられた当接部22と被縫製物21の外周端縁とが当接せず、若干の隙間があったとしても構わない。
[Flow of sewing processing]
When sewing is performed using the sewing apparatus 1 by applying the cloth holding frame 9a having the above configuration, the operator sets the workpiece 21 in the sewing opening 20a of the cloth holding frame 9a (FIG. 9, step S3). ). At this time, the position of the sewing object 21 is regulated by the contact portion 22 formed by the inner wall surface of the sewing opening 20a provided in the cloth holding frame 9a, and is correctly positioned with respect to the cloth holding frame 9a. However, the contact portion 22 provided on the cloth holding frame 9a and the sewing product 21 may vary depending on variations in individual sizes at the time of cutting the sewing product 21 or changes in dimensions of a flexible material such as leather or fabric. It does not matter if there is a slight gap without contact with the outer peripheral edge.

次に照明装置42により布保持枠9aの縫製用開口部20aに位置決めされた被縫製物21を照らし、カメラ41により被縫製物21の外周端縁を撮像する(図9,ステップS4)このとき、布保持枠9aに設けられたエッジ検出用開口部24a,24bにおいては、被縫製物21の外周端縁の前方に十分な空間が設けられているため、照明装置42によりエッジ検出用開口部24a,24b内の被縫製物21の外周端縁の陰影がはっきりとする。
次に形状認識部4の画像認識制御部43は、カメラ41により撮像された被縫製物21の画像データにエッジ抽出処理をする。このときエッジ抽出処理をする箇所は、エッジ検出用開口部24a,24b内に撮影された被縫製物21の外周端縁のみに対して行う。この場合、被縫製物21の外周端縁全周のエッジ抽出処理する場合に比べ、エッジ抽出処理に掛かる演算処理時間は大幅に短縮される。このエッジ抽出処理によって抽出された被縫製物21の外周端縁は、図7に示す太い実線25で表示された箇所である。
すなわち、形状認識部4は、布保持枠9に位置決めされた被縫製物21の端位置を、カメラ41(対物検知手段)により、エッジ検出用開口部で露出する被縫製物21の端位置を検出し、検出した端位置に基づいて被縫製物21の端位置を認識している。
Next, the lighting device 42 illuminates the sewing object 21 positioned in the sewing opening 20a of the cloth holding frame 9a, and the camera 41 images the outer peripheral edge of the sewing object 21 (FIG. 9, step S4). In the edge detection openings 24 a and 24 b provided in the cloth holding frame 9 a, a sufficient space is provided in front of the outer peripheral edge of the sewing object 21. The shadow of the outer peripheral edge of the sewing object 21 in 24a, 24b is clear.
Next, the image recognition control unit 43 of the shape recognition unit 4 performs edge extraction processing on the image data of the sewing product 21 captured by the camera 41. At this time, the edge extraction processing is performed only on the outer peripheral edge of the sewing object 21 photographed in the edge detection openings 24a and 24b. In this case, the calculation processing time required for the edge extraction process is significantly shortened as compared with the case of performing the edge extraction process on the entire outer peripheral edge of the workpiece 21. The outer peripheral edge of the sewing product 21 extracted by the edge extraction process is a portion indicated by a thick solid line 25 shown in FIG.
That is, the shape recognizing unit 4 determines the end position of the sewing product 21 that is positioned on the cloth holding frame 9 and the end position of the sewing product 21 that is exposed at the edge detection opening by the camera 41 (object detection means). The end position of the sewing product 21 is recognized based on the detected end position.

図6に示した布保持枠9bを適用して縫製装置1を用いて縫製を行う場合でも同様に布保持枠9bの縫製用開口部20bに被縫製物21をセットし(図9,ステップS3)、照明装置42で照明した状態でカメラ41で撮像する(図9,ステップS4)。
この場合、当接部23の前方に位置する所定の幅の被縫製物21の外周端縁部は布保持枠9bの下側に位置する。そのためこの部分はエッジ抽出することができないが、図5に示した布保持枠9aと同様にエッジ検出用開口部24a,24b内の範囲のみ、エッジ抽出処理を行う。
このエッジ抽出処理によって抽出された被縫製物21の外周端縁も、図7に示す太い実線25で表示された箇所となる。
以上のように形状認識部4は、カメラ41によりエッジ検出用開口部24a,24bで露出する被縫製物21の外周端縁位置を検出する(図9,ステップS5)。
Even when sewing is performed using the sewing apparatus 1 by applying the cloth holding frame 9b shown in FIG. 6, the workpiece 21 is set in the sewing opening 20b of the cloth holding frame 9b (FIG. 9, step S3). The image is taken by the camera 41 in the state illuminated by the illumination device 42 (FIG. 9, step S4).
In this case, the outer peripheral edge of the workpiece 21 having a predetermined width positioned in front of the contact portion 23 is positioned below the cloth holding frame 9b. For this reason, although this portion cannot be subjected to edge extraction, the edge extraction processing is performed only in the range within the edge detection openings 24a and 24b in the same manner as the cloth holding frame 9a shown in FIG.
The outer peripheral edge of the sewing product 21 extracted by this edge extraction processing is also a portion indicated by the thick solid line 25 shown in FIG.
As described above, the shape recognizing unit 4 detects the outer peripheral edge position of the sewing product 21 exposed at the edge detection openings 24a and 24b by the camera 41 (FIG. 9, step S5).

以上のエッジ抽出処理をエッジ検出用開口部内に撮影される画像領域に限定するために、作業者は予めエッジ抽出箇所の設定を行う(図9,ステップS1)。例えば、表示装置52に表示したエッジ抽出箇所の設定画面上でエッジ抽出箇所(エッジ検出用開口部24a,24b内)をウィンドウで区切って設定を行う。このエッジ抽出箇所の設定は設定入力部44から画像認識制御部43に入力され、被縫製物毎に関連付けして設定保存データベース45に保存され、その被縫製物の縫製データが呼び出される度に呼び出され使用され、また設定は更新することが可能である。
また、エッジ抽出箇所を区切るウィンドウの内側に布保持枠9(9a,9b)が入らないように設定する。布保持枠9(9a,9b)の境界部を被縫製物21の外周端縁と誤って判定しないためである。これによってエッジ検出用開口部24a,24b内にウィンドウで区切った範囲の画像データのみをエッジ抽出処理することになる。
In order to limit the above edge extraction processing to the image area photographed in the edge detection opening, the operator sets the edge extraction location in advance (FIG. 9, step S1). For example, on the setting screen of the edge extraction location displayed on the display device 52, the edge extraction location (in the edge detection openings 24a and 24b) is set by dividing it with a window. The setting of the edge extraction portion is input from the setting input unit 44 to the image recognition control unit 43, stored in the setting storage database 45 in association with each sewing object, and is called each time the sewing data of the sewing object is called. The settings can be updated as well.
Further, the cloth holding frame 9 (9a, 9b) is set so as not to enter the inside of the window that divides the edge extraction portion. This is because the boundary portion of the cloth holding frame 9 (9a, 9b) is not erroneously determined as the outer peripheral edge of the sewing product 21. As a result, only the image data in the range divided by the window in the edge detection openings 24a and 24b is subjected to edge extraction processing.

撮像された画像データは、画像認識制御部43によってエッジ抽出処理が行われる。一般的には、撮像された画像データを二値化処理などによってエッジ抽出処理が行われる。エッジ抽出処理によって得られた画像内の座標はカメラ41と布送り部3の相対位置から算出された変換式によって画像認識制御部43が布送り部3の制御に係る二次元座標X−Yに変換する。すなわち、撮像画像に基づく布送り部3の縫製位置制御が正しくできるように変換される。カメラ41による撮像時に布送り部3がどの座標にあっても撮像時の布送り部3の座標が画像認識制御部43に入力されて上記変換式によって正しく変換される。また、カメラ41の設置座標も画像認識制御部43に予め入力されており、カメラ41がどの位置に設置されても上記変換式によって正しく変換される。図1においてはミシンアーム部2aに固定されたカメラ41及び照明装置42を示したが、カメラ41及び照明装置42をミシン本体2から(例えばX方向に)離して設置することも可能であり、その場合、布送り部3により布保持枠9をカメラ41の撮像範囲内に配置して撮像した後、布送り部3により布保持枠9をミシン本体2の方に移動させて縫製作業を行えばよい。したがって、カメラ41及び照明装置42やこれらを含んだ形状認識部4などもミシン本体2に対して一体的に搭載せずミシン本体2と別ユニットで構成することは可能であり、図3に示すように各部を接続すれば足りる。   The captured image data is subjected to edge extraction processing by the image recognition control unit 43. Generally, edge extraction processing is performed by binarization processing on captured image data. The coordinates in the image obtained by the edge extraction process are converted into two-dimensional coordinates XY related to the control of the cloth feeding unit 3 by the image recognition control unit 43 by a conversion formula calculated from the relative position of the camera 41 and the cloth feeding unit 3. Convert. That is, conversion is performed so that the sewing position control of the cloth feed unit 3 based on the captured image can be performed correctly. The coordinates of the cloth feed unit 3 at the time of image pickup by the camera 41 are input to the image recognition control unit 43 and correctly converted by the above conversion formula. In addition, the installation coordinates of the camera 41 are also input in advance to the image recognition control unit 43, and the camera 41 is correctly converted by the above conversion formula regardless of the position where the camera 41 is installed. Although the camera 41 and the illumination device 42 fixed to the sewing machine arm 2a are shown in FIG. 1, the camera 41 and the illumination device 42 can be installed away from the sewing machine body 2 (for example, in the X direction). In that case, the cloth holding frame 9 is arranged within the imaging range of the camera 41 by the cloth feeding section 3 and images are taken. Then, the cloth holding frame 9 is moved toward the sewing machine body 2 by the cloth feeding section 3 to perform the sewing work. Just do it. Therefore, the camera 41 and the illumination device 42 and the shape recognition unit 4 including them can be configured as a separate unit from the sewing machine body 2 without being mounted integrally with the sewing machine body 2, as shown in FIG. 3. It is sufficient to connect each part as follows.

さらにエッジ検出用開口部の設置箇所について説明する。ポケット生地である被縫製部21の外周端縁のように、複数の直線部で構成される場合は、少なくとも各直線部の両端部にエッジ検出用開口部を設ける。直線部が短い場合は、直線部全体をエッジ検出用開口部とすることが望ましい。直線部の途中にエッジ検出用開口部を1〜数箇所設けても良い。
図5に示した布保持枠9aを適用する場合にあっては、当接部22に対応する外周端縁位置、図6に示した布保持枠9bを適用する場合にあっては、当接部23に対応する外周端縁位置は、エッジ抽出処理では取得せず、図7に示すようにエッジ抽出により検出された外周端縁位置である太い実線25から直線補間処理によって認識する(図9,ステップS6)。このような非エッジ抽出箇所の補間処理方法は、予め作業者の操作により設定される。すなわち、作業者の操作により設定入力部44から画像認識制御部43に入力され、設定保存データベース45に保存される(図9,ステップS2)。その設定は画像認識制御部43によって複数の当接部22,22,22,22又は23,23,23,23の各々において補完を直線補間で行うか又はスプライン補間で行うかを選択設定可能にされている。ここでは、作業者はすべて直線補間を選択する。
画像認識制御部43は、こうして得られた直線補間処理部分である二点鎖線26(図7)と太い実線25(図7)とを合わせて被縫製物21の外周端縁位置として確定させて、被縫製物21の外周端縁位置の認識処理を完了する(図9,ステップS7)。
すなわち、形状認識部4は、それを構成する画像認識制御部43によって、当接部に対応する端位置を、当接部の両隣のエッジ検出用開口部で検出された端位置に基づき補完しており、その補完を直線補間で行うか又はスプライン補間で行うかを選択設定可能である。
画像認識制御部43は、以上により認識した被縫製物21の外周端縁位置のデータをミシン制御部5に送信する。
Furthermore, the installation location of the edge detection opening will be described. In the case where it is composed of a plurality of straight portions, such as the outer peripheral edge of the sewing portion 21 that is a pocket fabric, edge detection openings are provided at least at both ends of each straight portion. When the straight line portion is short, it is desirable that the entire straight line portion be an edge detection opening. One to several edge detection openings may be provided in the middle of the straight line portion.
In the case of applying the cloth holding frame 9a shown in FIG. 5, the outer peripheral edge position corresponding to the contact portion 22, and in the case of applying the cloth holding frame 9b shown in FIG. The outer peripheral edge position corresponding to the unit 23 is not acquired by the edge extraction process, but is recognized by the linear interpolation process from the thick solid line 25 which is the outer peripheral edge position detected by the edge extraction as shown in FIG. , Step S6). Such an interpolation processing method for a non-edge extraction portion is set in advance by an operator's operation. That is, it is input from the setting input unit 44 to the image recognition control unit 43 by the operator's operation and stored in the setting storage database 45 (FIG. 9, step S2). As for the setting, it is possible to select and set whether interpolation is performed by linear interpolation or spline interpolation in each of the plurality of contact portions 22, 22, 22, 22 or 23, 23, 23, 23 by the image recognition control unit 43. Has been. Here, all operators select linear interpolation.
The image recognition control unit 43 combines the two-dot chain line 26 (FIG. 7) and the thick solid line 25 (FIG. 7), which are the linear interpolation processing portions obtained in this way, to determine the outer peripheral edge position of the sewing product 21. Then, the process of recognizing the outer peripheral edge position of the workpiece 21 is completed (FIG. 9, step S7).
That is, the shape recognition unit 4 complements the end position corresponding to the contact part based on the end positions detected at the edge detection openings adjacent to the contact part by the image recognition control unit 43 constituting the shape recognition unit 4. It is possible to select and set whether the interpolation is performed by linear interpolation or spline interpolation.
The image recognition control unit 43 transmits the data of the outer peripheral edge position of the sewing object 21 recognized as described above to the sewing machine control unit 5.

ミシン制御部5は、形状認識部4で認識された被縫製物21の外周端縁位置を基準にして縫製用開口20a,20bに露出する縫製領域内における縫製位置を決定する。そのためにミシン制御部5は、画像認識制御部43から取得した被縫製物21の外周端縁位置のデータに基づき、縫製パターンデータを作成する(図9,ステップS8)。
すなわち、ミシン制御部5は、縫製位置を指定する縫製パターンデータを、形状認識部4で認識した端位置に基づき作成する。
縫製パターンデータは、外周端縁位置のデータと、被縫製物21のポケット口となる上辺を除く4辺に沿って外周端縁位置から一定距離の内側を縫製するとのコマンド(縫製パターンデータの形式でないもの)とに基づき作成してもよい。そのコマンドは、作業者が表示装置52に表示された座標画面上で特定するように逐一入力することでもよい。
The sewing machine control unit 5 determines a sewing position in the sewing region exposed to the sewing openings 20a and 20b with reference to the outer peripheral edge position of the workpiece 21 recognized by the shape recognition unit 4. For this purpose, the sewing machine control unit 5 creates sewing pattern data based on the data of the outer peripheral edge position of the workpiece 21 acquired from the image recognition control unit 43 (step S8 in FIG. 9).
That is, the sewing machine control unit 5 creates sewing pattern data for designating a sewing position based on the end position recognized by the shape recognition unit 4.
The sewing pattern data includes data on the outer peripheral edge position and a command (sewing pattern data format for sewing the inside of a fixed distance from the outer peripheral edge position along the four sides excluding the upper side serving as the pocket opening of the sewing object 21. May be created based on The command may be input one by one so that the operator specifies on the coordinate screen displayed on the display device 52.

しかし、縫製パターンデータは、予め登録してあった標準縫製パターンデータを、形状認識部4で認識された被縫製物21の外周端縁位置に適合するように補正することで効率よく作成することができる。標準縫製パターンデータは、縫製パターンデータベース51に登録されている。標準縫製パターンデータは、設計上の被縫製物21の端位置に適合して予め作成されたものである。言い換えれば、標準縫製パターンデータは、被縫製物21の端位置に誤差が無い場合にそのまま適合する縫製パターンデータである。したがって、標準縫製パターンデータが基準としている外周端縁位置と形状認識部4で認識された被縫製物21の外周端縁位置との差が一定の許容範囲内に収束するようにミシン制御部5が標準縫製パターンデータを修正し、布保持枠9にセットされた被縫製物21に対して実行される縫製パターンデータとする。
そのためには例えば、ミシン制御部5は、布送り部3の制御に係り縫製位置を定義するための二次元座標X−Y上において標準縫製パターンデータにより指定される縫製位置により特定される縫製経路形状を拡大・縮小、回転移動又は平行移動する態様で座標変換することで、標準縫製パターンデータを形状認識部4で認識した外周端縁位置に適合するように補正する。
However, the sewing pattern data is efficiently created by correcting the pre-registered standard sewing pattern data so as to conform to the outer peripheral edge position of the workpiece 21 recognized by the shape recognition unit 4. Can do. The standard sewing pattern data is registered in the sewing pattern database 51. The standard sewing pattern data is created in advance in conformity with the designed end position of the sewing product 21. In other words, the standard sewing pattern data is sewing pattern data that is adapted as it is when there is no error in the end position of the workpiece 21. Accordingly, the sewing machine control unit 5 is arranged so that the difference between the outer peripheral edge position based on the standard sewing pattern data and the outer peripheral edge position of the workpiece 21 recognized by the shape recognition unit 4 converges within a certain allowable range. The standard sewing pattern data is corrected to be sewing pattern data to be executed for the workpiece 21 set on the cloth holding frame 9.
For this purpose, for example, the sewing machine control unit 5 determines the sewing path specified by the standard sewing pattern data on the two-dimensional coordinates XY for defining the sewing position in connection with the control of the cloth feeding unit 3. The coordinate is converted in such a manner that the shape is enlarged / reduced, rotated, or translated, so that the standard sewing pattern data is corrected to match the outer peripheral edge position recognized by the shape recognition unit 4.

次に、ミシン制御部5は、作成された縫製パターンデータに基づきミシン本体2と布送り部3の駆動系に制御信号を送信し縫製作業を行わせる。
すなわち、ミシン制御部5の制御によりミシン本体2が縫製動作しつつ、縫製パターンデータにより指定される縫製位置が順次針落ち位置を通過するように布送り部3が被縫製物21を水平面X―Y内で動作させ、被縫製物21の外周端縁から一定幅の位置を正確に縫製する(図9,ステップS9)。上述したように被縫製物21は布保持枠9(9a,9b)に保持されているため、縫製時に被縫製物の浮き上がりが防止され、綺麗な縫い目が形成される。
言い換えると、ミシン制御部5は、形状認識部4で認識された端位置を基準に縫製位置を決定し、当該縫製位置で縫製作業を行わせるように、ミシン本体2と布送り部3を制御している。
Next, the sewing machine control unit 5 transmits a control signal to the drive system of the sewing machine body 2 and the cloth feed unit 3 based on the created sewing pattern data to cause the sewing operation to be performed.
That is, while the sewing machine main body 2 performs the sewing operation under the control of the sewing machine control unit 5, the cloth feed unit 3 moves the workpiece 21 to the horizontal plane X− so that the sewing position specified by the sewing pattern data sequentially passes the needle drop position. It is operated in Y, and a position having a constant width is accurately sewn from the outer peripheral edge of the workpiece 21 (FIG. 9, step S9). As described above, since the sewing object 21 is held by the cloth holding frame 9 (9a, 9b), the sewing object is prevented from being lifted during sewing, and a beautiful seam is formed.
In other words, the sewing machine control unit 5 determines the sewing position based on the end position recognized by the shape recognition unit 4, and controls the sewing machine body 2 and the cloth feed unit 3 so that the sewing operation is performed at the sewing position. doing.

また、図8に示すように作業者が被縫製物21をセットする際に生じる位置ずれに対しても、上記と同様にエッジ検出用開口部24a,24b内のみをエッジ抽出処理、補間処理を行うことによって、被縫製物21の外周端縁位置の認識が可能である。このとき、被縫製物21が設計上の被縫製物21の端位置から許容できない範囲までずれていることがわかるので、作業者に対して被縫製物の位置ずれを知らせることも可能となる。そのためにミシン制御部5は、設計上の被縫製物21の端位置に対する形状認識部4で認識した端位置のずれ量を算出する。そしてミシン制御部5は、当該ずれ量が所定の閾値を超えている場合に被縫製物の位置ずれを表示装置52に表示出力する。所定の閾値は図8に示すように被縫製物21が当接部22を超えるか、又は大幅に離れるような許容できない設置状態を分別できるように設定する。   In addition, as shown in FIG. 8, the edge extraction process and the interpolation process are performed only in the edge detection openings 24a and 24b in the same manner as described above, even with respect to a positional shift that occurs when the operator sets the sewing product 21. By doing so, it is possible to recognize the position of the outer peripheral edge of the workpiece 21. At this time, since it can be seen that the workpiece 21 is displaced from the designed end position of the workpiece 21 to an unacceptable range, it is possible to inform the operator of the positional deviation of the workpiece. Therefore, the sewing machine control unit 5 calculates a deviation amount of the end position recognized by the shape recognition unit 4 with respect to the designed end position of the sewing product 21. The sewing machine control unit 5 displays and outputs the positional deviation of the sewing product on the display device 52 when the deviation amount exceeds a predetermined threshold value. As shown in FIG. 8, the predetermined threshold value is set so that an unacceptable installation state in which the workpiece 21 exceeds the contact portion 22 or is largely separated can be separated.

なお、本実施形態では、対物検知手段としてカメラを用い、カメラで撮像した画像データからエッジ抽出処理によって被縫製物の外周端縁位置のデータを取得したが、例えばカメラを使用したオートフォーカスや全焦点処理などの被縫製物の高さ情報から被縫製物の外周端縁位置のデータを取得する方式や、またはレーザ変位計などにより被縫製物の高さ情報から外周端縁位置のデータを取得する方式など、他の方式も適用することが可能である。対物検知手段が種々のものに変更され、媒体が種々の波長又は偏光特性の光やその他の電磁波に変更されても、エッジ検出用開口部を介することで被縫製物のエッジの検出が良好となる限りこれを適用する意義がある。
また、本実施形態では、ポケット生地(被縫製物)を、ジーンズ生地(縫製物本体)上の所定位置に載置した後、布保持枠9aを下降させて、ポケット生地とジーンズ生地を押圧している。この状態で、ポケット生地をジーンズ生地に縫い付けつけるものに適用されている。
これに対して、本願発明は、生地(縫製物本体)にマークやラベル(被縫製物)を縫い付ける場合、そのマークやラべルの外形形状より若干小さな切抜き部を布保持枠に形成し、さらに、その布保持枠に被縫製物の端部の一部を露出させる複数のエッジ検出用開口部を形成したものにも適用できる。この場合の作業手順は、生地を布保持枠で押圧した後、マークやラベル(被縫製物)を切り抜き部に装着・位置決めさせ、次に被縫製物の端位置を認識させ、ポケット生地をジーンズ生地に縫い付けつける。
In the present embodiment, a camera is used as the objective detection means, and the data of the outer peripheral edge position of the sewing object is acquired from the image data captured by the camera by the edge extraction process. Data on the outer peripheral edge position of the sewing object is acquired from the height information of the sewing object such as focus processing, or the data on the outer peripheral edge position is acquired from the height information of the sewing object using a laser displacement meter, etc. It is possible to apply other methods, such as a method to do. Even if the objective detection means is changed to various ones and the medium is changed to light of various wavelengths or polarization characteristics or other electromagnetic waves, the edge detection opening can be detected well through the edge detection opening. It is meaningful to apply this as much as possible.
In this embodiment, after placing the pocket fabric (sewn product) at a predetermined position on the jeans fabric (sewn product body), the fabric holding frame 9a is lowered to press the pocket fabric and the jeans fabric. ing. In this state, the present invention is applied to a device in which pocket fabric is sewn to jeans fabric.
In contrast, in the present invention, when a mark or label (sewing object) is sewed on a fabric (sewing body), a cutout portion slightly smaller than the outer shape of the mark or label is formed on the cloth holding frame. Furthermore, the present invention can also be applied to a cloth holding frame formed with a plurality of edge detection openings that expose part of the end of the sewing product. In this case, the work procedure is to press the fabric with the cloth holding frame, and then place and position the mark or label (sewn product) on the cutout part, then recognize the end position of the sewn product, and the pocket fabric into jeans. Sew on the fabric.

〔他の実施形態〕
次に他の実施形態として、被縫製物が図10に示すロゴマーク31である場合につき説明する。縫製装置1及びその処理内容は上述の内容とほぼ同様であるが、ロゴマーク31は曲線外形を有し、そのためにスプライン補間を選択設定する点で異なる。以下詳細に説明する。
[Other Embodiments]
Next, as another embodiment, a case where the sewing product is a logo mark 31 shown in FIG. 10 will be described. The sewing device 1 and the processing contents thereof are substantially the same as the above-described contents, but the logo mark 31 has a curved outline, and therefore differs in that spline interpolation is selected and set. This will be described in detail below.

図10に示す被縫製物31のような場合でも、図11に示すような縫製用開口部30と、当接部32a,32cと、エッジ検出用開口部33a,33b,33cとを布保持枠9cに設けることにより、被縫製物31の外周端縁位置の認識が可能である。
上述した被縫製物(ポケット生地)21の場合と同様に照明装置42により布保持枠9cの縫製用開口部30に位置決めされた被縫製物31を照らし、カメラ41により被縫製物31の外周端縁を撮像する(図9,ステップS4)。このとき、布保持枠9cに設けられたエッジ検出用開口部33a,33b,33c内には、被縫製物31の外周端縁の前方に十分な空間が設けられているため、照明装置42によりエッジ検出用開口部33a,33b,33c内で露出する被縫製物31の外周端縁の陰影がはっきりとする。
次に形状認識部4の画像認識制御部43は、カメラ41により撮像された被縫製物31の画像データにエッジ抽出処理をする(図9,ステップS5)。このときエッジ抽出処理をする箇所は、エッジ検出用開口部33a,33b,33c内に撮影された被縫製物31の外周端縁のみに対して行う。この場合、被縫製物31の外周端縁全周のエッジ抽出処理する場合に比べ、エッジ抽出処理に掛かる演算処理時間は大幅に短縮される。このエッジ抽出処理によって抽出された被縫製物31の外周端縁は、図12に示す太い実線34で表示された箇所である。
Even in the case of the sewing object 31 shown in FIG. 10, the sewing opening 30, the contact parts 32a and 32c, and the edge detection openings 33a, 33b and 33c as shown in FIG. By providing in 9c, the outer peripheral edge position of the to-be-sewn item 31 can be recognized.
As in the case of the sewing product (pocket fabric) 21 described above, the lighting device 42 illuminates the sewing product 31 positioned in the sewing opening 30 of the cloth holding frame 9c, and the camera 41 causes the outer peripheral edge of the sewing product 31 to illuminate. The edge is imaged (FIG. 9, step S4). At this time, a sufficient space is provided in front of the outer peripheral edge of the sewing object 31 in the edge detection openings 33a, 33b, and 33c provided in the cloth holding frame 9c. The shadow of the outer peripheral edge of the sewing object 31 exposed in the edge detection openings 33a, 33b, and 33c is clear.
Next, the image recognition control unit 43 of the shape recognition unit 4 performs an edge extraction process on the image data of the sewing object 31 imaged by the camera 41 (FIG. 9, step S5). At this time, the edge extraction processing is performed only on the outer peripheral edge of the sewing object 31 photographed in the edge detection openings 33a, 33b, and 33c. In this case, the calculation processing time required for the edge extraction process is greatly reduced as compared with the case of performing the edge extraction process on the entire outer peripheral edge of the sewing object 31. The outer peripheral edge of the sewing product 31 extracted by this edge extraction processing is a portion indicated by a thick solid line 34 shown in FIG.

さらにエッジ検出用開口部の設置箇所について説明する。被縫製部31の外周端縁のように、直線部と曲線部で構成される場合、直線部に関しては上述した被縫製部21の場合と同様に、少なくとも各直線部の両端部にエッジ検出用開口部を設ける。直線部が短い場合は、直線部全体をエッジ検出用開口部33bとすることが望ましい。直線部の途中にエッジ検出用開口部を1〜数箇所設けても良い。
同一半径で表される曲線部は、少なくとも各曲線部の両端部及び中間点付近にエッジ検出用開口部33cを設ける。また図示しないが同一半径で表される曲線部が短い場合も、直線部と同様に曲線部全体をエッジ検出用開口部で露出させることが望ましい。曲線部の途中にエッジ検出用開口部33cを中間点付近以外にも1〜数箇所設けても良い。また図示しないが複数の半径もしくは徐々に半径が変化するような曲線部は、曲線部の両端部にエッジ検出用開口部を設けるだけでなく、その途中に数箇所のエッジ検出用開口部を設ける。複数の半径もしくは徐々に半径が変化するような曲線部が短い場合も、上記と同様に曲線部全体をエッジ検出用開口部で露出させることが望ましい。
Furthermore, the installation location of the edge detection opening will be described. When the straight portion and the curved portion are formed as the outer peripheral edge of the sewing portion 31, the straight portion is for edge detection at least at both ends of each straight portion as in the case of the sewing portion 21 described above. An opening is provided. When the straight line portion is short, it is desirable that the entire straight line portion be the edge detection opening 33b. One to several edge detection openings may be provided in the middle of the straight line portion.
The curved portions represented by the same radius are provided with edge detection openings 33c at least near both ends and the middle point of each curved portion. Although not shown, it is desirable to expose the entire curved portion through the edge detection opening as well as the straight portion even when the curved portion represented by the same radius is short. One or several edge detection openings 33c may be provided in the middle of the curved portion in addition to the vicinity of the intermediate point. In addition, although not shown, a curved portion having a plurality of radii or gradually changing radii has not only edge detection openings at both ends of the curved portion, but also several edge detection openings in the middle. . Even in the case where a plurality of radii or a curved portion where the radius gradually changes is short, it is desirable to expose the entire curved portion through the edge detection opening as described above.

布保持枠9cに設けられた縫製用開口部30の内壁面で構成される当接部32a,32cに対応する外周端縁位置は、エッジ抽出処理では取得せず、エッジ抽出により検出された外周端縁位置である太い実線34(図12)から補間処理によって取得する(図9,ステップS6)。したがって、作業者は直線状の当接部32aに対応する外周端縁については直線補間とする設定を、曲線状の当接部32cに対応する外周端縁についてはスプライン補間する設定を、設定入力部44から画像認識制御部43に入力する(図9,ステップS2)。
画像認識制御部43は、こうして得られた直線補間処理部分である二点鎖線35(図12)と、スプライン補間処理部分である二点鎖線36(図12)と、太い実線34(図12)とを合わせて被縫製物31の外周端縁位置として確定させて、被縫製物31の外周端縁位置の認識処理を完了する(図9,ステップS7)。
その後は、上述した被縫製物(ポケット生地)21の場合と同様に、被縫製物(ロゴマーク)31につき縫製パターンデータの作成(図9,ステップS8)、縫製(図9,ステップS9)を行う。
The outer peripheral edge positions corresponding to the contact portions 32a and 32c formed by the inner wall surface of the sewing opening 30 provided in the cloth holding frame 9c are not acquired by the edge extraction process, but are detected by the edge extraction. It is acquired by interpolation processing from the thick solid line 34 (FIG. 12) which is the edge position (FIG. 9, step S6). Accordingly, the operator inputs the setting for setting the linear interpolation for the outer peripheral edge corresponding to the linear contact portion 32a and the setting for performing the spline interpolation for the outer peripheral edge corresponding to the curved contact portion 32c. The image is input from the unit 44 to the image recognition control unit 43 (FIG. 9, step S2).
The image recognition control unit 43 includes the two-dot chain line 35 (FIG. 12) that is the linear interpolation processing portion thus obtained, the two-dot chain line 36 (FIG. 12) that is the spline interpolation processing portion, and the thick solid line 34 (FIG. 12). Are determined as the outer peripheral edge position of the sewing product 31, and the recognition processing of the outer peripheral edge position of the sewing product 31 is completed (FIG. 9, step S7).
Thereafter, as in the case of the sewing product (pocket fabric) 21 described above, sewing pattern data is created for the sewing product (logo mark) 31 (FIG. 9, step S8) and sewing (FIG. 9, step S9). Do.

以上説明したように上記実施形態の縫製装置によれば、布保持枠による被縫製物の保持性が良好であるとともに、被縫製物の端位置の正確な認識が可能となるから、被縫製物の端位置を基準とした縫製位置での被縫製物の縫製を精度よく安定的に行うことができる。   As described above, according to the sewing apparatus of the above-described embodiment, the sewing product can be well held by the cloth holding frame and the end position of the sewing product can be accurately recognized. The sewing product can be sewn accurately and stably at the sewing position based on the end position.

1 縫製装置
2 ミシン本体
3 布送り部
4 形状認識部
5 ミシン制御部
7 下板
8 外枠
9 布保持枠
9a 布保持枠
9b 布保持枠
10 土台
11 アーム
20 縫製用開口部
20a 縫製用開口部
20b 縫製用開口部
21 被縫製物(ポケット生地)
22 当接部
23 当接部
24a,24b エッジ検出用開口部
30 縫製用開口部
31 被縫製物(ロゴマーク)
32a,32c 当接部
33a,33b,33cエッジ検出用開口部
41 カメラ
42 照明装置
DESCRIPTION OF SYMBOLS 1 Sewing machine 2 Sewing machine main body 3 Cloth feed part 4 Shape recognition part 5 Sewing machine control part 7 Lower plate 8 Outer frame 9 Cloth holding frame 9a Cloth holding frame 9b Cloth holding frame 10 Base 11 Arm 20 Sewing opening 20a Sewing opening 20b Sewing opening 21 Sewn product (pocket fabric)
22 Contact part 23 Contact part 24a, 24b Edge detection opening 30 Sewing opening 31 Sewing object (logo mark)
32a, 32c Contact portions 33a, 33b, 33c Edge detection opening 41 Camera 42 Illumination device

Claims (7)

被縫製物を縫製するミシン本体と、
前記被縫製物の縫製領域を針落ち可能に露出させる縫製用開口部が形成された布保持枠を有し、当該布保持枠を介して前記被縫製物を水平面内で移動させる布送り部と、
前記布保持枠に位置決めされた前記被縫製物の端位置を、対物検知手段を用いて認識する形状認識部と、
前記形状認識部で認識された前記端位置を基準に縫製位置を決定し、当該縫製位置で縫製作業を行わせるように、前記ミシン本体と前記布送り部を制御するミシン制御部とを備える縫製装置において、
前記布保持枠は、
前記被縫製物の端面に当接する複数の当接部と、
前記布保持枠を切欠いて前記縫製用開口部に連続して形成され、被縫製物の端部の一部を露出させる複数のエッジ検出用開口部とを有し、前記形状認識部は、前記対物検知手段により前記エッジ検出用開口部で露出する前記被縫製物の端位置を検出し、当該検出した端位置に基づいて前記被縫製物の端位置を認識することを特徴とする縫製装置。
A sewing machine body for sewing the workpiece,
A cloth feed part having a cloth holding frame formed with a sewing opening that exposes a sewing region of the sewing object so as to allow needle dropping; and a cloth feed part that moves the sewing object in a horizontal plane via the cloth holding frame; ,
A shape recognition unit for recognizing an end position of the sewing object positioned on the cloth holding frame using an objective detection unit;
Sewing provided with the sewing machine main body and a sewing machine control unit for controlling the cloth feed unit so that a sewing position is determined based on the end position recognized by the shape recognition unit and sewing work is performed at the sewing position. In the device
The cloth holding frame is
A plurality of abutting portions that abut against the end surface of the sewing product;
The cloth holding frame is cut out and formed continuously with the sewing opening, and has a plurality of edge detection openings that expose a part of the end of the sewing object. A sewing apparatus that detects an end position of the sewing product exposed at the edge detection opening by an object detection means and recognizes the end position of the sewing product based on the detected end position.
前記形状認識部は、前記当接部に対応する端位置を、当該当接部の両隣の前記エッジ検出用開口部で検出された端位置に基づき補完することで認識することを特徴とする請求項1に記載の縫製装置。 The shape recognition unit recognizes an end position corresponding to the contact portion by complementing the end position based on the end positions detected at the edge detection openings adjacent to the contact portion. Item 2. The sewing device according to Item 1. 前記形状認識部は、前記複数の当接部の各々において前記補完を直線補間で行うか又はスプライン補間で行うかを選択設定可能に構成されていることを特徴とする請求項2に記載の縫製装置。 The sewing according to claim 2, wherein the shape recognition unit is configured to be able to select and set whether the complement is performed by linear interpolation or spline interpolation in each of the plurality of contact portions. apparatus. 前記ミシン制御部は、前記縫製位置を指定する縫製パターンデータを、前記形状認識部で認識した端位置に基づき作成することを特徴とする請求項1から請求項3のうちいずれか一に記載の縫製装置。 The said sewing machine control part produces the sewing pattern data which designates the said sewing position based on the end position recognized by the said shape recognition part, The Claim 1 characterized by the above-mentioned. Sewing device. 前記ミシン制御部は、設計上の前記被縫製物の端位置に適合して予め作成された標準縫製パターンデータを、前記形状認識部で認識した端位置に適合するように補正することで前記縫製パターンデータを作成することを特徴とする請求項4に記載の縫製装置。 The sewing machine control unit corrects the standard sewing pattern data created in advance so as to match the designed end position of the sewing product so as to match the end position recognized by the shape recognition unit. The sewing apparatus according to claim 4, wherein pattern data is created. 前記ミシン制御部は、前記布送り部の制御に係り縫製位置を定義するための二次元座標上において前記標準縫製パターンデータにより指定される縫製位置により特定される縫製経路形状を拡大・縮小、回転移動又は平行移動する態様で座標変換することで、前記標準縫製パターンデータを前記形状認識部で認識した端位置に適合するように補正することを特徴とする請求項5に記載の縫製装置。 The sewing machine control unit enlarges / reduces or rotates the sewing path shape specified by the sewing position specified by the standard sewing pattern data on the two-dimensional coordinates for defining the sewing position in connection with the control of the cloth feeding unit. The sewing apparatus according to claim 5, wherein the standard sewing pattern data is corrected so as to match the end position recognized by the shape recognition unit by performing coordinate conversion in a manner of moving or translating. 設計上の前記被縫製物の端位置に対する前記形状認識部で認識した端位置のずれ量を算出し、当該ずれ量が所定の閾値を超えている場合に被縫製物の位置ずれを表示出力することを特徴とする請求項1から請求項6のうちいずれか一に記載の縫製装置。 The shift amount of the end position recognized by the shape recognition unit with respect to the design end position of the sewing product is calculated, and when the shift amount exceeds a predetermined threshold value, the positional shift of the sewing product is displayed and output. The sewing device according to any one of claims 1 to 6, wherein the sewing device is characterized in that:
JP2012244957A 2012-11-07 2012-11-07 Sewing device Active JP5993283B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2012244957A JP5993283B2 (en) 2012-11-07 2012-11-07 Sewing device
CN201310549801.9A CN103806225B (en) 2012-11-07 2013-11-07 Apparatus for sewing

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012244957A JP5993283B2 (en) 2012-11-07 2012-11-07 Sewing device

Publications (2)

Publication Number Publication Date
JP2014091008A true JP2014091008A (en) 2014-05-19
JP5993283B2 JP5993283B2 (en) 2016-09-14

Family

ID=50703584

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012244957A Active JP5993283B2 (en) 2012-11-07 2012-11-07 Sewing device

Country Status (2)

Country Link
JP (1) JP5993283B2 (en)
CN (1) CN103806225B (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016063894A (en) * 2014-09-24 2016-04-28 Juki株式会社 Shape recognition device and sewing machine
KR101743997B1 (en) * 2016-05-26 2017-06-07 주식회사 비오지엠 Pattern Sewing machine Controlled automatically and the Method for Controlling thereof
WO2018206145A1 (en) * 2017-05-08 2018-11-15 Pfaff Industriesysteme Und Maschinen Gmbh Pocket sew-on template, and automatic sewing system and method for producing a cargo pocket
CN110359185A (en) * 2018-04-09 2019-10-22 Juki株式会社 Sewing system
JP2021524297A (en) * 2018-05-18 2021-09-13 パフ インドゥストリージステーメ ウント マシーネン ゲーエムベーハー How to control the position of the seam contour with respect to the structure of the sewing material
JP2022145797A (en) * 2018-06-20 2022-10-04 Juki株式会社 Sewing machine and sewing method

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103993431B (en) * 2014-06-12 2016-02-03 杰克缝纫机股份有限公司 A kind of vision correction methods for sewing and system
JP2017169760A (en) * 2016-03-23 2017-09-28 ブラザー工業株式会社 Conveyance device and conveyance system
JP2019005500A (en) * 2017-06-28 2019-01-17 ブラザー工業株式会社 Sewing system
JP7045147B2 (en) * 2017-07-19 2022-03-31 Juki株式会社 sewing machine
JP7108431B2 (en) * 2018-03-07 2022-07-28 Juki株式会社 MOTOR CONTROL DEVICE, SEWING MACHINE, AND MOTOR CONTROL METHOD
WO2020110281A1 (en) 2018-11-30 2020-06-04 オリンパス株式会社 Gripping mechanism

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0257288A (en) * 1988-04-28 1990-02-27 Janome Sewing Mach Co Ltd Embroidery sewing machine
JPH02257989A (en) * 1988-10-20 1990-10-18 Kochs Adler Ag Method and device for sewing neck to drum body of clothe
JPH0368874U (en) * 1989-11-10 1991-07-08
JPH0489092A (en) * 1990-07-31 1992-03-23 Juki Corp Fabric feeder for pattern sewing machine
JPH06126048A (en) * 1992-10-15 1994-05-10 Juki Corp Sewing pattern corrector for electronic cycle sewing machine
JP2000271366A (en) * 1999-03-19 2000-10-03 Aisin Seiki Co Ltd Manual clamp type fabric holding frame
JP2006115910A (en) * 2004-10-19 2006-05-11 Juki Corp Sewing machine and sewing data preparation device
JP2012179229A (en) * 2011-03-01 2012-09-20 Brother Ind Ltd Sewing machine, seam data generation device, and seam data generation program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2602977B2 (en) * 1990-04-27 1997-04-23 ジューキ株式会社 Work supply device for sewing device
JPH07148370A (en) * 1993-11-30 1995-06-13 Juki Corp Automatic sewing machine
US5584258A (en) * 1994-12-23 1996-12-17 Ideal Equipment Company, Ltd. Semi-automatic pocket and pocket flap setter

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0257288A (en) * 1988-04-28 1990-02-27 Janome Sewing Mach Co Ltd Embroidery sewing machine
JPH02257989A (en) * 1988-10-20 1990-10-18 Kochs Adler Ag Method and device for sewing neck to drum body of clothe
JPH0368874U (en) * 1989-11-10 1991-07-08
JPH0489092A (en) * 1990-07-31 1992-03-23 Juki Corp Fabric feeder for pattern sewing machine
JPH06126048A (en) * 1992-10-15 1994-05-10 Juki Corp Sewing pattern corrector for electronic cycle sewing machine
JP2000271366A (en) * 1999-03-19 2000-10-03 Aisin Seiki Co Ltd Manual clamp type fabric holding frame
JP2006115910A (en) * 2004-10-19 2006-05-11 Juki Corp Sewing machine and sewing data preparation device
JP2012179229A (en) * 2011-03-01 2012-09-20 Brother Ind Ltd Sewing machine, seam data generation device, and seam data generation program

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016063894A (en) * 2014-09-24 2016-04-28 Juki株式会社 Shape recognition device and sewing machine
KR101743997B1 (en) * 2016-05-26 2017-06-07 주식회사 비오지엠 Pattern Sewing machine Controlled automatically and the Method for Controlling thereof
WO2017204521A1 (en) * 2016-05-26 2017-11-30 주식회사 비오지엠 Electronically controlled pattern sewing machine that automatically detects and programs coordinate of sewing object and method for controlling same
WO2018206145A1 (en) * 2017-05-08 2018-11-15 Pfaff Industriesysteme Und Maschinen Gmbh Pocket sew-on template, and automatic sewing system and method for producing a cargo pocket
CN110359185A (en) * 2018-04-09 2019-10-22 Juki株式会社 Sewing system
CN110359185B (en) * 2018-04-09 2022-06-24 Juki株式会社 Sewing system
JP2021524297A (en) * 2018-05-18 2021-09-13 パフ インドゥストリージステーメ ウント マシーネン ゲーエムベーハー How to control the position of the seam contour with respect to the structure of the sewing material
JP2022145797A (en) * 2018-06-20 2022-10-04 Juki株式会社 Sewing machine and sewing method
JP7316420B2 (en) 2018-06-20 2023-07-27 Juki株式会社 Sewing machine and sewing method

Also Published As

Publication number Publication date
CN103806225B (en) 2017-12-26
CN103806225A (en) 2014-05-21
JP5993283B2 (en) 2016-09-14

Similar Documents

Publication Publication Date Title
JP5993283B2 (en) Sewing device
JP4776034B2 (en) Automatic cutting device and manufacturing method of groove processed product
JP2016063894A (en) Shape recognition device and sewing machine
JP5942389B2 (en) sewing machine
CN110582385B (en) Cutting machine and machine-readable carrier
JP7176966B2 (en) Image inspection device
JP5698042B2 (en) Fabric cutting apparatus and method
EP3715135A1 (en) Non-transitory computer-readable medium, print image control device, and control method of print image control device
CN1409591A (en) Method and device for searching standard and method for detecting standard position
JP2018008334A (en) Cutting device and cutting method
JP2020125938A (en) Eyeglass lens peripheral edge processing information acquisition device and eyeglass lens peripheral edge processing information acquisition program
JP3759983B2 (en) Image processing device
JP7094282B2 (en) Anti-board work equipment
JP3958815B2 (en) Tool position measuring method in NC machine tools
EP3860857B1 (en) Laser marking through the lens of an image scanning system with multiple location image calibration
JP2007324266A (en) Electronic component mounting apparatus
JP2004213562A (en) Component recognition data creating method, creating device and component recognition data creating program
KR20220133780A (en) Processing apparatus
JP2014030496A (en) Method for detecting button direction, device for detecting button direction, and device for feeding button
CN114599476B (en) Metal plate processing system, laser processing machine, metal plate processing method, and storage medium
US11286597B2 (en) Sewing machine and sewing method
JP6904674B2 (en) Sewing machine, embroidery frame judgment method and program
CN112388187A (en) Laser processing apparatus
JP2008139260A (en) Image display unit and method, appearance inspection device, cream solder printer
JP2021010620A (en) Sewing system and sewing machine

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151019

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160711

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160726

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160819

R150 Certificate of patent or registration of utility model

Ref document number: 5993283

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150