JP4434775B2 - Yarn data analysis device for textile machinery - Google Patents

Yarn data analysis device for textile machinery Download PDF

Info

Publication number
JP4434775B2
JP4434775B2 JP2004043402A JP2004043402A JP4434775B2 JP 4434775 B2 JP4434775 B2 JP 4434775B2 JP 2004043402 A JP2004043402 A JP 2004043402A JP 2004043402 A JP2004043402 A JP 2004043402A JP 4434775 B2 JP4434775 B2 JP 4434775B2
Authority
JP
Japan
Prior art keywords
time
yarn
data
frequency
som
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004043402A
Other languages
Japanese (ja)
Other versions
JP2005232624A (en
Inventor
新 増田
吉田  智
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Murata Machinery Ltd
Original Assignee
Murata Machinery Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Murata Machinery Ltd filed Critical Murata Machinery Ltd
Priority to JP2004043402A priority Critical patent/JP4434775B2/en
Publication of JP2005232624A publication Critical patent/JP2005232624A/en
Application granted granted Critical
Publication of JP4434775B2 publication Critical patent/JP4434775B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Treatment Of Fiber Materials (AREA)
  • Spinning Or Twisting Of Yarns (AREA)

Description

この発明は延伸仮撚加工機、紡糸巻取機、紡績機、巻返機などの繊維機械の糸データの解析に関する。   The present invention relates to analysis of yarn data of textile machines such as a drawing false twisting machine, a spinning winder, a spinning machine, and a rewinding machine.

延伸仮撚加工機、紡糸機から防止されたフィラメント糸を巻き取る紡糸巻取機、あるいは巻返機などの繊維機械では、張力センサを設けて処理中の糸の張力を監視し、繊維機械の制御にフィードバックする。またこれ以外に、糸の太さや糸の温度などの波形も繊維機械の制御に重要である。これに関連して特許文献1は、延伸仮撚加工機でのツィスター(仮撚装置)の下流側に張力センサを設け、測定した糸の張力を高速フーリエ変換(FFT)して、延伸仮撚加工機を管理することを開示している。特許文献2は自己組織化マップ(SOM)の学習について開示しているが、繊維機械への応用には触れていない。特許文献3は発明者らの先願で、繊維機械の糸の張力波形を時間周波数分解した後に、自己組織化マップで処理して、繊維機械の異常原因を推定することを開示している。   In textile machines such as draw-twisting machines, spinning winders that take up filament yarns that are prevented from spinning machines, or rewinding machines, tension sensors are provided to monitor the tension of the yarn being processed. Feedback to control. In addition, waveforms such as yarn thickness and yarn temperature are also important for controlling textile machinery. In this connection, Patent Document 1 provides a tension sensor on the downstream side of a twister (false twisting device) in a drawing false twisting machine, performs fast Fourier transform (FFT) on the measured yarn tension, and draws false twisting. The management of the processing machine is disclosed. Patent Document 2 discloses learning of a self-organizing map (SOM), but does not mention application to a textile machine. Patent Document 3 discloses the prior application of the inventors of the present invention in which the yarn tension waveform of the textile machine is time-frequency resolved and then processed with a self-organizing map to estimate the cause of the abnormality of the textile machine.

延伸仮撚加工機での糸の張力波形を例に、糸データの解析を図1〜図3に示すと、1は延伸仮撚加工機で、1錘分を模式的に示している。2は仮撚する糸を給糸するための給糸パッケージで、給糸パッケージ2からの糸12は、第1フィードローラFR1を介して第1ヒータH1を通過し、クーリングプレートC1で冷却される。なお給糸パッケージを、通常POY(部分延伸糸)を用いるため、POYと呼ぶことがあり、また延伸仮撚加工機1で処理する糸は合成繊維のフィラメント糸である。4はツィスターで、図2に示すように、糸12は一対のベルト14,16間を例えば図の上から下向きに通過して、ベルト14,16により撚りを与えられる。また、糸12は、第1フィードローラFR1と第2フィードローラFR2との間で延伸される。ツィスター4で与えられた撚りは、第1フィードローラFR1まで伝搬し、前記のヒータH1とクーリングプレートC1とを介して、固定される。   Taking the tension waveform of the yarn in the drawing false twisting machine as an example, the analysis of the yarn data is shown in FIG. 1 to FIG. 3, where 1 is a drawing false twisting machine and schematically shows one spindle. Reference numeral 2 denotes a yarn supply package for supplying a yarn to be false twisted. The yarn 12 from the yarn supply package 2 passes through the first heater H1 via the first feed roller FR1 and is cooled by the cooling plate C1. . Since the yarn supply package normally uses POY (partially drawn yarn), it may be called POY, and the yarn processed by the drawn false twisting machine 1 is a filament yarn of synthetic fiber. Reference numeral 4 denotes a twister. As shown in FIG. 2, the yarn 12 passes between a pair of belts 14 and 16, for example, downward from the top of the figure and is twisted by the belts 14 and 16. Further, the yarn 12 is stretched between the first feed roller FR1 and the second feed roller FR2. The twist given by the twister 4 propagates to the first feed roller FR1 and is fixed via the heater H1 and the cooling plate C1.

ツィスター4の下流側(解撚側)には、この下流側における糸の解撚張力が加工後の糸の品質や性状に大きく関係するため、張力センサ6を設け、糸の張力信号(この場合は、糸の解撚信号)Tを制御部8へ入力する。制御部8では、糸の張力波形に基づいて、ツィスター4等にフィードバック制御を加え、ツィスター4の出口側での糸張力を一定にするように制御する。そして張力センサ6の下流側には、第2フィードローラFR2を設けて第2フィードローラFR2までに撚りを解き、次いで第2ヒータH2及び第3フィードローラFR3を設け、糸に弛緩熱処理を与える。このように延伸同時仮撚作用により、表面が平滑なフィラメント糸に嵩高さと伸縮性とを与える。なおこの明細書で、上流/下流は糸の進行方向に沿って定め、給糸パッケージ2に近い側を上流側とし、最終の延伸仮撚加工糸パッケージ10に近い側を下流側とする。上記ツイスターはベルト式のものに限らず、フリクションディスク式のものであってもよい。後者の場合は、上述したフィードバック制御を省略するのが一般的である。延伸仮撚加工された糸は、巻取パッケージ10として巻き取られる。なおWDは巻取ドラムで、巻き取りパッケージ10と接触して回転させる。   A tension sensor 6 is provided on the downstream side (twisting side) of the twister 4 because the untwisting tension of the yarn on the downstream side is greatly related to the quality and properties of the processed yarn. Inputs the yarn untwisting signal T) to the control unit 8. The control unit 8 applies feedback control to the twister 4 and the like based on the yarn tension waveform to control the yarn tension at the exit side of the twister 4 to be constant. Further, on the downstream side of the tension sensor 6, a second feed roller FR2 is provided to untwist up to the second feed roller FR2, and then a second heater H2 and a third feed roller FR3 are provided to give relaxation heat treatment to the yarn. In this way, the filament yarn having a smooth surface is given bulkiness and stretchability by the simultaneous simultaneous false twisting action. In this specification, upstream / downstream is determined along the traveling direction of the yarn, the side close to the yarn supply package 2 is the upstream side, and the side close to the final drawn false twisted yarn package 10 is the downstream side. The twister is not limited to a belt type but may be a friction disk type. In the latter case, the above feedback control is generally omitted. The drawn false twisted yarn is wound up as a winding package 10. The WD is a take-up drum that rotates in contact with the take-up package 10.

図3に、張力センサの構成を示すと、18は回転体で、支点20を中心にして回転し、21〜23はローラで、24は回転体18を例えば時計回り方向に引っ張るバネである。糸の張力がローラ22に加わると、回転体18には例えば反時計回りのモーメントWが加わり、このモーメントWがバネ24からの力Fとつり合う位置へ回転体18は回転する。そこで回転体18の回転角やその微分値などを監視すると、糸12の張力を監視できる。なお糸の張力は、これ以外にも種々のセンサで検出でき、張力センサの種類は任意である。   FIG. 3 shows the configuration of the tension sensor. Reference numeral 18 denotes a rotating body, which rotates around a fulcrum 20, 21 to 23 are rollers, and 24 is a spring that pulls the rotating body 18 in a clockwise direction, for example. When the tension of the yarn is applied to the roller 22, for example, a counterclockwise moment W is applied to the rotating body 18, and the rotating body 18 rotates to a position where the moment W balances with the force F from the spring 24. Therefore, the tension of the yarn 12 can be monitored by monitoring the rotation angle of the rotating body 18 and its differential value. In addition, the tension | tensile_strength of a thread | yarn can be detected with various sensors other than this, and the kind of tension sensor is arbitrary.

しかしながら、糸の張力波形の解析、特に張力の異常波形の解析は容易ではない。図4〜図7に、延伸仮撚加工機1での糸の解撚張力の異常波形の例を示す。異常の原因には、給糸パッケージでの糸の解ジョ不良(POYF)、給糸パッケージでの糸の内層解ジョ不良(POYI)、給糸パッケージでの糸の最外層乱れ(POYD)、糸の結合部の通過(TAIL)、センサの異常などの電気的な異常(ELEC)、糸はずれなどのその他の異常(OTHR)などがある。これらの異常波形を図4〜図7に示すが、異常波形からどのような異常が生じているのかを、機械的に推測することは困難である。例えば、POYF16の波形とPOYF14の波形が同じ原因に基づくものと分類でき、TAIL24の波形を、POYF16の波形から見て、POYF14の波形よりも非類似な波形である、と認識できる、認識装置を開発するのは容易ではない。   However, it is not easy to analyze the yarn tension waveform, particularly the abnormal tension waveform. 4-7 show examples of abnormal waveforms of yarn untwisting tension in the drawing false twisting machine 1. FIG. Causes of abnormalities include yarn disengagement failure (POYF) in the yarn supply package, yarn inner layer disassembly failure (POYI) in the yarn supply package, outermost layer disturbance (POYD) in the yarn supply package, yarn There are electrical abnormalities (ELEC) such as sensor passages (TAIL), sensor abnormalities, and other abnormalities (OTHR) such as thread breakage. These abnormal waveforms are shown in FIG. 4 to FIG. 7, but it is difficult to mechanically estimate what kind of abnormality has occurred from the abnormal waveform. For example, it is possible to classify the waveform of POYF16 and the waveform of POYF14 based on the same cause, and recognize the TAIL24 waveform as a dissimilar waveform from the waveform of POYF14 when viewed from the waveform of POYF16. It is not easy to develop.

これらのため、延伸仮撚加工機での糸の異常張力波形を機械的に解析して、異常原因を自動的に突き止めることは困難である。このため現状では、異常張力波形を記憶し、熟練したオペレータやサービスマンが波形を分析して、原因(異常箇所)をマニュアルで判断している。そこで延伸仮撚加工機の異常張力波形などを自動的に解析できれば、大きな意味がある。そしてこれに関する問題は、糸の異常張力波形から異常原因を解析することが困難であることにある。例えば前記のPOYF16とPOYF14及びTAIL24の波形の場合、これらの波形間の見かけ上の類似点と相違点とを用いて、異常原因を解明するのは難しい。従って、このような見かけ上の特徴ではなく、異常原因の解明に有効な特徴を、波形から抽出する必要がある。   For these reasons, it is difficult to mechanically analyze the abnormal tension waveform of the yarn in the drawing false twisting machine and automatically determine the cause of the abnormality. Therefore, at present, the abnormal tension waveform is stored, and a skilled operator or service person analyzes the waveform and manually determines the cause (abnormal part). Therefore, if an abnormal tension waveform of a drawing false twisting machine can be automatically analyzed, it has great significance. The problem with this is that it is difficult to analyze the cause of the abnormality from the abnormal tension waveform of the yarn. For example, in the case of the above-described waveforms of POYF16, POYF14, and TAIL24, it is difficult to elucidate the cause of abnormality using apparent similarities and differences between these waveforms. Therefore, it is necessary to extract from the waveform a feature that is effective for elucidating the cause of the abnormality, instead of such an apparent feature.

なお張力波形の解析が難しいことは、延伸仮撚加工機に限らず、紡糸巻取機や巻返機などでも同様である。特に異常張力波形などの異常信号は、パルス的に発現するので、スペクトルとしては非定常であり、フーリエ変換などの通常のスペクトル解析が用いられない。また異常原因が異なるにもかかわらず、一見したところ波形が類似している場合が多く、真の特徴を抽出するのが難しい。
発明者はこのような問題に対して、前記のように特許文献3で、時間周波数分解とSOMとを用いた異常原因の解析装置を提案した。そしてその後、異常原因の解析精度を増すため、時間周波数分解信号からノイズを除去する必要があること、ニューラルネットワークの学習に、異常原因の種類を既知データとして付加した方が効果的であること、などを見出した。またニューラルネットワークとして用いるSOMの学習では、全ての入力ベクトルに対して公平に、言い換えると全ての入力ベクトルの特徴を効果的に学習できる、学習法が必要であることを見出した。さらに学習させたSOMの評価が必要であることも見出した。
特許第3453319号公報 特開2000−122989号公報 特願2002−350783号明細書
The difficulty in analyzing the tension waveform is not limited to the drawing false twisting machine, but is the same in the spinning winder and the rewinding machine. In particular, since an abnormal signal such as an abnormal tension waveform is expressed in a pulse manner, the spectrum is non-stationary, and normal spectrum analysis such as Fourier transform is not used. Moreover, although the cause of abnormality is different, the waveforms are often similar at first glance, and it is difficult to extract true features.
As described above, the inventor proposed an abnormality cause analysis apparatus using time-frequency decomposition and SOM in order to solve such a problem. And then, in order to increase the analysis accuracy of the cause of abnormality, it is necessary to remove noise from the time-frequency resolved signal, and it is more effective to add the type of cause of abnormality as known data to the learning of the neural network, Etc. In addition, it has been found that learning of SOM used as a neural network requires a learning method that can effectively learn the characteristics of all input vectors in a fair manner with respect to all input vectors. We also found that it was necessary to evaluate the learned SOM.
Japanese Patent No. 3453319 JP 2000-122989 A Japanese Patent Application No. 2002-350783

この発明の基本的課題は、繊維機械の異常原因の推定精度を増すことができるようにすることにある。
この発明での追加の課題は、時間周波数分解信号の高周波側でのノイズを除去し、時間周波数分解信号中のノイズを小さくすることにある。
この発明での追加の課題は、時間周波数分解信号から繊維機械の異常原因を推定するための、精度の高いニューラルネットワークが得られるようにすることにある。
この発明での追加の課題は、SOMの学習時の入力ベクトルの入力順序等に依存せずに、効果的な学習が行えるようにすることにある。
この発明での追加の課題は、SOMの性能を評価し得るようにすることにある。
この発明の課題はまた、時間周波数分解信号に異常原因の既知データを付加して、解析装置の学習や初期化などを行うことにより、異常原因が未知の糸データを正確に分類できるようにすることにある。
A basic object of the present invention is to be able to increase the estimation accuracy of the cause of abnormality of a textile machine.
An additional problem in the present invention is to remove noise on the high frequency side of the time-frequency resolved signal and reduce the noise in the time-frequency resolved signal.
An additional object of the present invention is to obtain a highly accurate neural network for estimating the cause of abnormality of a textile machine from a time-frequency resolved signal.
An additional problem of the present invention is to enable effective learning without depending on the input order of input vectors at the time of SOM learning.
An additional problem with the present invention is to be able to evaluate the performance of the SOM.
Another object of the present invention is to add the known data of the cause of abnormality to the time-frequency resolved signal and perform learning, initialization, etc. of the analysis device so that the yarn data of which the cause of abnormality is unknown can be accurately classified. There is.

この発明は、繊維機械で処理中の糸データの解析装置において、糸データから、高周波側のノイズを除去して時間周波数分解するための変換手段を設けたことを特徴とする。
好ましくは、前記変換手段を、糸データを時間周波数分解するための時間周波数分解手段と、時間周波数分解した糸データに対して、高周波側の信号中の小信号成分に対するダイナミックレンジを圧縮するノイズ除去手段とで構成する。
また好ましくは、前記変換手段からの信号を処理して、繊維機械の異常原因を推定するためのニューラルネットワークを設ける。
特に好ましくは、前記変換手段からの信号に既知の異常原因のデータを付加して、前記ニューラルネットワークを学習させる。
ここに時間周波数分解は、周波数あるいはその逆数であるスケールaと時間パラメータbと時間tとの関数である窓関数Ψ(a,b,t)と、糸データx(t)との積を、時間tに関して積分することにより、糸データx(t)を、周波数あるいはその逆数であるスケールaと、時間パラメータbとの関数である変換値X(a,b)に変換することである。
The present invention is characterized in that, in a yarn data analyzing apparatus being processed by a textile machine, conversion means for removing high-frequency noise and performing time-frequency decomposition from yarn data is provided.
Preferably, the conversion means includes time frequency decomposition means for time-frequency-decomposing the yarn data, and noise removal for compressing a dynamic range for a small signal component in a high-frequency signal for the time-frequency decomposed yarn data. Means.
Preferably, a neural network is provided for processing the signal from the converting means to estimate the cause of abnormality of the textile machine.
Particularly preferably, the neural network is trained by adding known abnormality cause data to the signal from the conversion means.
Here, the time-frequency decomposition is the product of the thread function x (t) and the window function Ψ (a, b, t), which is a function of the frequency a or the inverse of the scale a, the time parameter b and the time t By integrating with respect to time t, the yarn data x (t) is converted into a converted value X (a, b) that is a function of a scale a that is a frequency or its reciprocal and a time parameter b.

また好ましくは、前記ニューラルネットワークがSOM(自己組織化マップ)で、コードブックベクトルを持つセルを複数有し、SOMの学習時に、前記変換手段からの信号である複数の入力ベクトルの各々に対して、近接したコードブックベクトルを持つセルを割り当てた後に、割り当てたセルの周囲のセルのコードブックベクトルを変更して学習させる。   Preferably, the neural network is a SOM (self-organizing map), and has a plurality of cells having codebook vectors, and for each of a plurality of input vectors which are signals from the conversion means during SOM learning. After assigning cells having adjacent codebook vectors, the codebook vectors of the cells around the assigned cells are changed and learned.

好ましくは、前記ニューラルネットワークがSOM(自己組織化マップ)で、コードブックベクトルを持つセルを複数有し、前記変換手段からの入力ベクトルに対して、近接したコードブックベクトルを持つセルを割り当てると共に、割り当てたセルの周囲のセルのコードブックベクトルを変更して学習するようにし、
さらに入力ベクトルに対応する異常原因を、入力ベクトルの種類として、入力ベクトルの種類と、入力ベクトルを割り当てたSOM上のセル間の位置の相関を、SOMの評価として求めるための評価手段を設ける。
Preferably, the neural network is a SOM (self-organizing map), has a plurality of cells having codebook vectors, and assigns cells having adjacent codebook vectors to the input vector from the converting means, Change the codebook vector of the cells around the assigned cell to learn,
Furthermore, an abnormality means corresponding to the input vector is set as the type of the input vector, and an evaluation unit is provided for obtaining a correlation between the type of the input vector and the position between cells on the SOM to which the input vector is assigned as the SOM evaluation.

この発明はまた、繊維機械で処理中の糸データの解析装置において、糸データx(t)(tは時間を表す変数)から高周波側のノイズを除去して時間周波数分解するための時間周波数分解手段と、得られた時間周波数分解信号に既知の異常原因のデータを付加するための手段、とを設けたことを特徴とする:ここに時間周波数分解は、周波数あるいはその逆数であるスケールaと時間パラメータbと時間tとの関数である窓関数Ψ(a,b,t)と、糸データx(t)との積を、時間tに関して積分することにより、糸データx(t)を、周波数あるいはその逆数であるスケールaと、時間パラメータbとの関数である変換値X(a,b)に変換することである。好ましくは、前記時間周波数分解信号により繊維機械の異常原因を推定するためのニューラルネットワークを設けると共に、前記既知の異常原因のデータを付加した時間周波数分解信号を用いて、前記ニューラルネットワークを学習させる。 The present invention also provides a time-frequency decomposition for removing high-frequency noise from the yarn data x (t) (t is a variable representing time) and performing time-frequency decomposition in a yarn data analyzing apparatus being processed by a textile machine. And means for adding known anomalous cause data to the obtained time-frequency resolved signal, wherein the time-frequency resolution is a scale a that is a frequency or its inverse. By integrating the product of the window function Ψ (a, b, t), which is a function of the time parameter b and the time t, and the yarn data x (t) with respect to the time t, the yarn data x (t) is Conversion to a converted value X (a, b) that is a function of the frequency a or the inverse of the scale a and the time parameter b. Preferably, a neural network for estimating the cause of abnormality of the textile machine is provided from the time-frequency resolved signal, and the neural network is trained by using the time-frequency resolved signal to which the known abnormality cause data is added.

繊維機械の種類や糸のデータの種類は任意であるが、好ましくは繊維機械で処理中の糸データを、延伸仮撚加工機で処理される糸の解撚張力データとする。   The type of the textile machine and the type of yarn data are arbitrary, but preferably the yarn data being processed by the textile machine is the untwisting tension data of the yarn processed by the drawing false twisting machine.

この発明の糸データの解析装置は、繊維機械と一体にしても良く、あるいは繊維機械とは別体にしてネットワークなどを介してサービスセンターなどに設置しても良い。また時間周波数分解や学習用に異常原因を示す既知データを付加するところまでは繊維工場などで処理して、これに対応する時間周波数分解手段やノイズ除去手段、異常原因の既知データの付加手段までは繊維工場に設け、ニューラルネットワークはサービスセンターなどに分離して設けても良い。さらにSOMには、学習用の入力ベクトルに教師データを付加したものを含めるものとする。   The yarn data analyzing apparatus of the present invention may be integrated with the textile machine, or may be installed in a service center or the like separately from the textile machine via a network or the like. Also, processing up to the point where known data indicating the cause of abnormality is added for time-frequency decomposition or learning is processed at a textile factory, etc., and the corresponding time-frequency decomposition means, noise removing means, and means for adding known data of the cause of abnormality May be provided in a textile factory, and a neural network may be provided separately in a service center or the like. Further, the SOM includes a learning input vector with teacher data added.

この発明では、繊維機械で処理中の糸データを、時間周波数分解するように変換する。このような変換には、例えばウェーブレット変換が有る。そしてこの変換により、糸のデータx(t)は変換値X(a,b)に変換され、ここでaは周波数やその逆数に相当するスケールなどの変数である。bは時間に対応する変数で、変換値X(a,b)は時刻bの付近の糸のデータを周波数やスケールなどで分解した際のa成分を意味する。例えば糸のデータがパルス的な異常波形の場合、パルスの発現開始からの時間をbとすると、変数bはパルス内での時間を示している。なお糸のデータには例えば糸の張力波形や太さの波形、温度波形などがある。 In the present invention, the yarn data being processed by the textile machine is converted so as to be time-frequency resolved. Such conversion includes, for example, wavelet conversion. By this conversion , the yarn data x (t) is converted into a converted value X (a, b), where a is a variable such as a frequency or a scale corresponding to the reciprocal thereof. b is a variable corresponding to time, and the converted value X (a, b) means the a component when the yarn data near time b is decomposed by frequency, scale, or the like. For example, when the yarn data is a pulse-like abnormal waveform, the variable b indicates the time within the pulse, where b is the time from the start of the pulse expression. The yarn data includes, for example, a yarn tension waveform, a thickness waveform, and a temperature waveform.

次に発明者は、時間周波数分解信号の高周波側にはノイズが多いことを見出した。これは異常信号とは関係のない定常的な糸の振動等のデータが、小信号として多数含まれるためであった。そこで時間周波数分解信号の高周波側からノイズを除去することにより、糸のデータの解析精度を向上させた。   Next, the inventor has found that there is a lot of noise on the high frequency side of the time-frequency resolved signal. This is because a lot of data such as steady yarn vibrations which are not related to the abnormal signal are included as small signals. Therefore, by removing noise from the high frequency side of the time-frequency resolved signal, the analysis accuracy of the yarn data was improved.

また時間周波数分解した糸のデータはニューラルネットワークで処理して、繊維機械の異常原因を推定することが好ましい。またニューラルネットワークには、異常原因を視覚的に表示するのが容易なSOM(自己組織化マップ)が好ましい。SOMの学習で、時間周波数分解信号から成る入力ベクトルに、その異常原因を既知データとして付加して学習させると、学習はより効果的になり、実使用時に未知の異常原因のデータを正確に分類できるようになった。   Moreover, it is preferable to estimate the cause of the abnormality of the textile machine by processing the time-frequency decomposed yarn data with a neural network. The neural network is preferably an SOM (self-organizing map) that can easily display the cause of the abnormality visually. In SOM learning, if the cause of abnormality is added to the input vector consisting of time-frequency-resolved signals and learned as known data, the learning becomes more effective, and the data of unknown abnormality causes is correctly classified in actual use. I can do it now.

SOMの学習では、入力ベクトルを複数用い、各入力ベクトルに例えば最近接したコードブックベクトルを持つセルを割り当て、割り当てたセルの周囲のコードブックベクトルを修正する。複数の入力ベクトルを1つずつSOMに入力し、入力の都度、周囲のセルのコードブックベクトルを修正すると、入力の順序等にSOMの学習が依存する。また入力ベクトルを複数サイクル学習させるものとして、学習サイクル毎に入力の順序を変更しても、結果は余り改善されなかった。これに対して、複数の入力ベクトルに対して最初に近接したセルを割り当て、次いで割り当て済みの各セルの周囲のセルのコードブックベクトルを変更すると、言い換えると、セルの割り当てを複数の入力ベクトルに対し一括して行い、周囲のセルのコードブックベクトルの変更をこの後に行うと、より精度の高いSOMを得ることができた。   In SOM learning, a plurality of input vectors are used, a cell having, for example, the closest codebook vector is assigned to each input vector, and a codebook vector around the assigned cell is corrected. When a plurality of input vectors are input to the SOM one by one and the codebook vector of the surrounding cells is corrected each time the input is made, the learning of the SOM depends on the order of input. Moreover, even if the order of inputs was changed for each learning cycle as an input vector learned for a plurality of cycles, the results were not improved so much. On the other hand, if you first assign adjacent cells to multiple input vectors, then change the codebook vector of the cells around each assigned cell, in other words, change the cell assignment to multiple input vectors. On the other hand, if the code book vector of the surrounding cells was changed after this, the SOM with higher accuracy could be obtained.

学習したSOMは、入力ベクトルの種類と、SOM上のセルの位置の相関を求めることにより評価できた。同じ種類の入力ベクトルに対するSOM上のクラスターがより明瞭になれば、言い換えると、入力ベクトルの種類毎のクラスターが互いに入り混じらずに形成されるようになると、より良いSOMということができる。そして、入力ベクトルの種類とSOM上のセルの位置の相関を求めることにより、学習済みのSOMの評価が可能になった。   The learned SOM can be evaluated by obtaining the correlation between the type of the input vector and the position of the cell on the SOM. If the clusters on the SOM for the same type of input vector become clearer, in other words, if the clusters for each type of input vector are formed without intermingling with each other, it can be said that the SOM is better. Then, the learned SOM can be evaluated by obtaining the correlation between the type of the input vector and the position of the cell on the SOM.

時間周波数分解信号から成る入力ベクトルに、その異常原因を既知データとして付加すると、ニューラルネットワークの学習をより効果的に行うことができた。なおニューラルネットワークを、時間周波数分解手段や既知データの付加手段とは別体に設けることも可能で、時間周波数分解手段と既知データの付加手段とをまとめて糸データの解析装置とすることもできる。   When the cause of the abnormality was added to the input vector consisting of the time-frequency resolved signal as known data, the neural network could be learned more effectively. The neural network can be provided separately from the time frequency decomposition means and the known data addition means, and the time frequency decomposition means and the known data addition means can be combined into a yarn data analysis device. .

以下に本発明を実施するための最適実施例を示す。   In the following, an optimum embodiment for carrying out the present invention will be shown.

図8〜図20に、実施例とその特性とを示す。対象とする繊維機械は、図1の延伸仮撚加工機1であるが、紡糸巻取機や巻返機あるいは紡績機などでも良く、解析対象の糸のデータは張力波形の他に、糸の太さや糸の温度などでも良い。さらに張力センサ6の種類は任意で、張力センサ6はツィスター4の上流側にも配置しても良いが、延伸仮撚加工機においては、ツイスターの下流側における糸の解撚張力を検出できるように設けるのが好ましい。図8に、糸張力の解析装置30を示すと、張力センサ6からの張力信号Tは制御部8に入力され、例えばフィードバック信号として、延伸仮撚機1の制御に用いられる。制御部8は例えばアラームレベルを越えた信号を異常信号とし、例えばバッファを設けて波形を記憶し、アラームレベルを越えた異常信号が生じると、異常信号とその周囲の波形とを、工場LANなどを介して、糸張力の解析装置30へ入力する。解析装置30には、前段の特徴ベクトル抽出部32と後段のニューラルネットワーク42とがある。なお、解析装置30は、延伸仮撚加工機毎に設けても、また延伸仮撚加工機の錘毎に設けても、あるいは繊維工場毎に設けても良く、またインターネットなどを介して遠隔のサービスセンターなどに設けても良い。   8 to 20 show examples and their characteristics. The target textile machine is the drawing false twisting machine 1 of FIG. 1, but it may be a spinning winder, a rewinding machine, a spinning machine, etc. Thickness or yarn temperature may be used. Further, the type of the tension sensor 6 is arbitrary, and the tension sensor 6 may be arranged on the upstream side of the twister 4. However, in the drawing false twisting machine, the untwisting tension of the yarn on the downstream side of the twister can be detected. It is preferable to provide in. FIG. 8 shows the yarn tension analyzing device 30. A tension signal T from the tension sensor 6 is input to the control unit 8, and is used as a feedback signal for controlling the drawing false twisting machine 1, for example. For example, the control unit 8 sets a signal exceeding the alarm level as an abnormal signal and stores, for example, a buffer to store a waveform. When an abnormal signal exceeding the alarm level is generated, the abnormal signal and its surrounding waveform are converted into a factory LAN or the like Is input to the yarn tension analyzing device 30. The analysis device 30 includes a front-stage feature vector extraction unit 32 and a rear-stage neural network 42. The analysis device 30 may be provided for each drawing false twisting machine, may be provided for each weight of the drawing false twisting machine, or may be provided for each fiber factory, or remotely via the Internet or the like. It may be provided in a service center.

ウェーブレット変換部34は特徴ベクトル抽出部32の主要部で、36は不等間隔ダウンサンプリング処理部で、ウェーブレット変換した信号(ウェーブレット変換値)に対して、信号の特徴を表す点をサンプリングするように、不等間隔でサンプリングする。ダウンサンプリングにより、ウェーブレット変換値は間引かれる。   The wavelet transform unit 34 is a main part of the feature vector extraction unit 32, and 36 is an unequal-interval downsampling processing unit that samples points representing signal features with respect to a wavelet transformed signal (wavelet transform value). Sampling at unequal intervals. Wavelet transform values are decimated by downsampling.

ノイズ除去部38では、ダウンサンプリングした特徴ベクトルの内で、高周波側のX2,X3信号(j=2,3の信号)に対し、小信号部分(メジアンや平均などからの偏差の小さな信号の部分)の値を、メジアンや平均などに揃える処理を行う。40は端部処理部で、延伸仮撚加工機の運転開始や運転終了、糸切れなどの不連続点に対し、不連続点での張力波形に対するウェーブレット変換値を記憶する。そして端部処理部40は、ウェーブレット変換部34で求めたウェーブレット変換値のうち、自己で記憶している信号、即ち不連続点に対するウェーブレット変換値と類似のものを検索して、変換値から削除する。   In the noise removal unit 38, a small signal portion (a signal portion having a small deviation from the median, average, etc.) with respect to the high-frequency X2, X3 signal (j = 2, 3 signal) in the downsampled feature vector. ) Process to align median and median values. Reference numeral 40 denotes an end processing unit that stores a wavelet transform value for a tension waveform at a discontinuous point with respect to a discontinuous point such as the start and end of operation of the drawing false twisting machine and yarn breakage. Then, the end processing unit 40 searches the wavelet transformation value obtained by the wavelet transformation unit 34 for a signal stored by itself, that is, a similar one to the wavelet transformation value for the discontinuous point, and deletes it from the transformation value. To do.

ニューラルネットワーク42は、自己組織化マップ(SOM)44と、その学習用の学習データ入力部46と、評価部48とから成る。学習データ入力部46では、特徴ベクトル抽出部32の信号に、異常原因を示す信号を付加してSOM44に入力して学習させる。評価部48は、SOMの学習結果を評価する。SOMは例えば2次元に配置されたセルをマップとして用い、各セルの持つ特徴ベクトルをコードブックベクトルと呼び、特徴ベクトル抽出部32から入力される特徴ベクトルを入力ベクトルと呼ぶ。学習過程では、複数の入力ベクトルの各々に対し、最も近いコードブックベクトルを持つセルを検索する。全ての入力ベクトルに対してセルを割り当てた後に、セルのコードブックベクトルの値を変更する。例えば最初の入力ベクトルに対応するセルから初めて、1ベクトルずつ順に、入力ベクトルに割り当てたセルとその周囲のセルとのコードブックベクトルを、入力ベクトルに近づけるように更新する。入力ベクトルに対するセルの割り当てと、セルのコードブックベクトルの変更とを別個に行うので、この学習をバッチ学習という。   The neural network 42 includes a self-organizing map (SOM) 44, a learning data input unit 46 for learning, and an evaluation unit 48. The learning data input unit 46 adds a signal indicating the cause of abnormality to the signal of the feature vector extraction unit 32 and inputs it to the SOM 44 for learning. The evaluation unit 48 evaluates the learning result of the SOM. SOM uses, for example, two-dimensionally arranged cells as a map, the feature vector of each cell is called a codebook vector, and the feature vector input from the feature vector extraction unit 32 is called an input vector. In the learning process, a cell having the closest codebook vector is searched for each of a plurality of input vectors. After assigning cells to all input vectors, the value of the cell codebook vector is changed. For example, starting from the cell corresponding to the first input vector, the codebook vector of the cell assigned to the input vector and its surrounding cells are updated so as to approach the input vector one by one. This learning is referred to as batch learning because cell assignment to an input vector and cell codebook vector change are performed separately.

評価部48はSOMの学習結果(学習後の各セルのコードブックベクトルの値)を評価し、例えば評価指数が所定の値以上になるまで、もしくはSOMのコードブックベクトルの値が収束するまで、あるいは所定の回数バッチ学習を繰り返すまで、バッチ学習を複数回繰り返す。SOMの学習が終了すると、異常原因が未知の入力ベクトルを入力し、SOMで分類し、端末50などに表示する。   The evaluation unit 48 evaluates the learning result of the SOM (the value of the codebook vector of each cell after learning), for example, until the evaluation index becomes a predetermined value or more, or until the value of the SOM codebook vector converges. Alternatively, batch learning is repeated a plurality of times until batch learning is repeated a predetermined number of times. When SOM learning is completed, input vectors whose unknown cause is unknown are input, classified by SOM, and displayed on the terminal 50 or the like.

図9に、ウェーブレット変換のアルゴリズムを示す。アナライジングウェーブレットとして、例えば、
Ψ(t)=t・(2π)-1/2exp(-t2/2) (1)
を用いる。アナライジングウェーブレットは逆変換が可能なウェーブレットであり、Ψ(t)はガウス関数の1階導関数に負号を加えたものに相当する。(1)式のアナライジングウェーブレットΨ(t)を用い、入力張力波形x(t)を(2)式に従い、離散ウェーブレット変換する。
Xj(b)=2-3j/2∫Ψ((t-b)・2-j)x(t)dt (2)
なお(2)式においてjは整数で、ウェーブレット変換で用いるスケール(前記のa)を2jに限定したもので、積分範囲は−∞から∞である。bは時間パラメータで、異常波形信号の開始時刻を例えば時刻0とすると、時刻bの付近の信号をガウシアンの1階導関数を窓関数としてウェーブレット変換することになる。このウェーブレット変換では、時刻b付近の信号をスケール2jで変換するので、変換値にはスケールを表す添字jと時刻を表す変数bとが加わることになる。
FIG. 9 shows a wavelet transform algorithm. As an analyzing wavelet, for example,
Ψ (t) = t · ( 2π) -1/2 exp (-t 2/2) (1)
Is used. An analyzing wavelet is a wavelet that can be inversely transformed, and Ψ (t) corresponds to a first-order derivative of a Gaussian function plus a negative sign. Using the analyzing wavelet Ψ (t) in equation (1), the input tension waveform x (t) is subjected to discrete wavelet transformation according to equation (2).
Xj (b) = 2 -3j / 2 ∫Ψ ((tb) · 2 -j ) x (t) dt (2)
In equation (2), j is an integer, the scale used in the wavelet transform (a) is limited to 2 j , and the integration range is from −∞ to ∞. b is a time parameter. If the start time of the abnormal waveform signal is, for example, time 0, the signal near time b is wavelet transformed using the first-order derivative of Gaussian as a window function. In this wavelet transform, a signal near time b is transformed with a scale 2 j , so that a subscript j representing the scale and a variable b representing the time are added to the converted value.

延伸仮撚加工機の運転開始点や終了点、糸切れ点などの不連続点に対するウェーブレット変換値を、ニューラルネットワークでの処理対象から除去する。そこで、これらの不連続点に対するウェーブレット変換値を、端部処理部40に記憶し、不連続点でのウェーブレット変換値に類似の信号を、求めたウェーブレット変換値より除去する。   Wavelet transform values for discontinuous points such as the operation start point, end point, and yarn breakage point of the drawing false twisting machine are removed from the processing target in the neural network. Therefore, the wavelet transform values for these discontinuous points are stored in the end processing unit 40, and signals similar to the wavelet transform values at the discontinuous points are removed from the obtained wavelet transform values.

またウェーブレット変換値を不等間隔でダウンサンプリングする。ウェーブレット変換値Xj(b)は連続変数bを備えており、冗長性の高い信号である。そこでこれを適宜の時間間隔でサンプリングし、冗長度を低下させて、ニューラルネットワークでの処理を容易にする。ウェーブレット変換値を間引いて、冗長度を低下させることを、ダウンサンプリングと呼ぶ。ダウンサンプリングは一定の時間間隔で行っても良く、ウェーブレット変換値の特徴を取りこぼさないように、不等の時間間隔で行っても良い。   In addition, the wavelet transform values are down-sampled at unequal intervals. The wavelet transform value Xj (b) has a continuous variable b and is a highly redundant signal. Therefore, this is sampled at appropriate time intervals to reduce the redundancy and facilitate the processing in the neural network. Decreasing the redundancy by thinning out the wavelet transform values is called downsampling. Downsampling may be performed at regular time intervals, or may be performed at unequal time intervals so as not to miss the features of the wavelet transform values.

ダウンサンプリングの例を図10に示す。図の最上段には張力波形そのものを示し、以下の5段にはj=6からj=2までのウェーブレット変換値を示し、横軸はbである。このうちj=6が最も粗いスケールで、最も低周波数成分に対応し、j=2が最も細かいスケールで、高周波成分に対応する。不等間隔ダウンサンプリングでは、
bjk=argmax|Xj(b)| (3)
を求める。ここでXj(b)の絶対値の最大値を求める範囲は、bが2j・kb0以上で、2j・(k+1)b0未満の範囲とし、argmaxは|Xj(b)|の最大値に対応するbの値をbjkとして出力する関数である。またkは区間の番号、b0は区間の幅である。そしてこのbjkに対するウェーブレット変換の値をXj(bjk)とする。
An example of downsampling is shown in FIG. The uppermost part of the figure shows the tension waveform itself, the following five parts show the wavelet transform values from j = 6 to j = 2, and the horizontal axis is b. Among these, j = 6 is the coarsest scale and corresponds to the lowest frequency component, and j = 2 is the finest scale and corresponds to the high frequency component. In unequal interval downsampling,
bjk = argmax | Xj (b) | (3)
Ask for. Here, the range for obtaining the maximum absolute value of Xj (b) is a range where b is 2 j · kb 0 or more and less than 2 j · (k + 1) b 0 , and argmax is the maximum of | Xj (b) | This is a function that outputs the value b corresponding to the value as bjk. K is the section number, and b 0 is the section width. The value of the wavelet transform for this bjk is assumed to be Xj (bjk).

この不等間隔ダウンサンプリングにより、所定の区間内でウェーブレット変換値の絶対値の最大値をサンプリングできる。これにより、特徴点を取りこぼさずに特徴ベクトルを低次元化できるだけでなく、波形の局所的な延び縮みに対してロバスト(頑健)な特徴ベクトルを抽出できる。得られたウェーブレット変換値をニューラルネットワークに出力する。なおウェーブレット変換値の絶対値の最大値に代えて、ウェーブレット変換値の極大値や極小値、変曲点などをサンプリングしても良い。   By this unequal interval downsampling, it is possible to sample the maximum absolute value of the wavelet transform value within a predetermined interval. As a result, it is possible not only to reduce the feature vectors without missing feature points, but also to extract feature vectors that are robust against local expansion and contraction of the waveform. The obtained wavelet transform value is output to the neural network. Note that instead of the maximum absolute value of the wavelet transform value, the maximum value, minimum value, inflection point, etc. of the wavelet transform value may be sampled.

高周波側のX2,X3の信号では、信号の大部分は異常張力パルスとは関係のない、張力の振動などによるものであることが判明した。そこでこのような信号を除去することが、SOMでの解析を容易にするために望ましい。なおここでは簡単のため、添字bや添字kは示さない。X2に対して、その項数をn2、分布のメジアンをm2,標準偏差をσ2として、例えばm2±σ2・(2Logn2)1/2の範囲内の信号をm2に揃える(5)。ここにLogは自然対数で
(2Logn2)1/2を係数g2というと、g2は項数n2の増加関数で、例えば1よりも大きな値である。ここでの処理は、X2,X3の信号の大部分が意味がないので、メジアンや平均などから、標準偏差σ2の所定倍以上離れている信号のみを残し、これよりも小さな信号をノイズとして除去することである。同様の処理を信号X3にも施し、得られた信号S2,S3を、信号X2,X3の代わりに、ウェーブレット変換部の出力として用いる。
In the X2 and X3 signals on the high frequency side, it has been found that most of the signals are due to tension vibrations that are not related to abnormal tension pulses. Therefore, it is desirable to remove such a signal in order to facilitate analysis by the SOM. For the sake of simplicity, subscript b and subscript k are not shown here. For X2, the number of terms is n2, the median of the distribution is m2, and the standard deviation is σ2, and for example, signals within a range of m2 ± σ2 · (2 Logn2) 1/2 are aligned with m2 (5). Where Log is the natural logarithm
When (2Logn2) 1/2 is a coefficient g2, g2 is an increasing function of the number of terms n2, and is a value larger than 1, for example. Since most of the X2 and X3 signals are meaningless in this processing, only signals that are more than a predetermined multiple of the standard deviation σ2 from the median or average are left, and signals smaller than this are removed as noise It is to be. Similar processing is performed on the signal X3, and the obtained signals S2 and S3 are used as the output of the wavelet transform unit instead of the signals X2 and X3.

X2,X3に対するノイズ除去を模式的に図11に示す。メジアンm2から±g2・σ2以内の信号をメジアンに揃え、その外側に分布していた信号を有効な信号として用いる。ノイズの除去は、高周波側での小さな信号に対して、ダイナミックレンジを縮めることであり、実施例ではメジアンから±g2・σ2以内の信号のダイナミックレンジを0にしたが、これに限るものではない。   FIG. 11 schematically shows noise removal for X2 and X3. A signal within ± g 2 · σ 2 from the median m 2 is aligned with the median, and a signal distributed outside the median is used as an effective signal. Noise removal is to reduce the dynamic range for small signals on the high frequency side. In the embodiment, the dynamic range of signals within ± g 2 · σ 2 from the median is set to 0, but this is not restrictive. .

図12に、自己組織化マップSOMの学習アルゴリズムを示す。ウェーブレット変換部からの入力ベクトルN(ここでは225次元のベクトルで、その番号を添字iで示すことがある)に対して、9種類の異常原因を示す9項を付加する。例えば5番目の異常原因に対応する入力ベクトルであれば、異常原因に対する9項の5番目の項の値をzとし、他を0とする。全ての入力ベクトルの集団での共相関行列を求め、その最大固有値を求めてその2乗をzとする。これによって適度の強さの教師信号が得られた。   FIG. 12 shows a learning algorithm for the self-organizing map SOM. Nine terms indicating nine types of abnormal causes are added to an input vector N (here, a 225-dimensional vector, the number of which may be indicated by a suffix i) from the wavelet transform unit. For example, for an input vector corresponding to the fifth cause of abnormality, the value of the fifth term of the ninth term for the cause of abnormality is set to z, and the others are set to 0. The co-correlation matrix for all input vector groups is obtained, the maximum eigenvalue is obtained, and the square thereof is defined as z. As a result, a teacher signal of moderate strength was obtained.

またSOMの各セルのコードブックベクトルを適当な値に初期化し、ここで教師信号(異常原因)に対する部分の初期値は0にした。次にバッチ学習でSOMを学習させる。全入力ベクトルN1〜Nmに対して、最も近いコードブックベクトルを持つセルC1〜Cnを求める。次に例えば1からmへの順で、入力ベクトルNiを取り出し、セルCiとその付近のセルのコードブックベクトルをNiに近づける。全入力ベクトルに対してこの処理を行うと、バッチ学習を1回行ったことになり、SOMの評価指数が所定以上になった、SOMの各セルのコードブックベクトルが収束した、あるいは所定回数以上バッチ学習を繰り返した、などの事情が生じるまで、バッチ学習を繰り返す。   In addition, the codebook vector of each cell of the SOM is initialized to an appropriate value, and the initial value of the portion for the teacher signal (cause of abnormality) is set to 0 here. Next, SOM is learned by batch learning. For all input vectors N1 to Nm, cells C1 to Cn having the closest codebook vector are obtained. Next, for example, in the order from 1 to m, the input vector Ni is taken out, and the code book vector of the cell Ci and the neighboring cells is made closer to Ni. If this processing is performed for all input vectors, batch learning is performed once, the SOM evaluation index is greater than or equal to a predetermined value, the codebook vector of each cell of the SOM has converged, or more than a predetermined number of times. Batch learning is repeated until circumstances such as repeated batch learning occur.

図13にSOMの評価アルゴリズムを示す。SOMが入力ベクトルの種類毎に分かれ、同種の入力ベクトルが集まってクラスターを形成し、種類の異なるクラスターが分離されていると、良いSOMであると考えられる。そこで入力ベクトルの対(i,j)に対して、S(i,j)を定め、入力ベクトルi,jの種類が同じであれば正の値(例えば1)、異なれば負の値(例えば−1)とする。S(i,j)は、入力ベクトルi,jの種類が同じか異なるかで、値が異なればよい。入力ベクトルi,jに対応するセルのSOM上の距離を求め、この距離の単調減少関数R(i,j)の値を求める。R(i,j)の値は入力ベクトルjが入力ベクトルiの近傍で値が大、遠方で値が小とし、負にはならないものとする。S(i,j)・R(i,j)を全ての入力ベクトルのペアに渡って加算したものを、SOMの評価指数とした。なお入力ベクトルの数が異なるSOMを評価する場合、評価指数を入力ベクトルの数などで割って評価した。   FIG. 13 shows a SOM evaluation algorithm. If the SOM is divided for each type of input vector and the same type of input vectors are gathered to form a cluster, and different types of clusters are separated, it is considered to be a good SOM. Therefore, S (i, j) is determined for the input vector pair (i, j). If the types of the input vectors i, j are the same, a positive value (for example, 1), otherwise, a negative value (for example, -1). The value of S (i, j) may be different depending on whether the types of the input vectors i, j are the same or different. The distance on the SOM of the cell corresponding to the input vector i, j is obtained, and the value of the monotone decreasing function R (i, j) of this distance is obtained. The value of R (i, j) is assumed to be large when the input vector j is in the vicinity of the input vector i and small at a distance, and not negative. The SOM evaluation index was obtained by adding S (i, j) · R (i, j) over all pairs of input vectors. When evaluating SOMs with different numbers of input vectors, the evaluation index was divided by the number of input vectors.

図14に、SOMによる入力ベクトルの分類アルゴリズムを示す。ウェーブレット変換部で得られた入力ベクトルに最も近いコードブックベクトルを持つセルを求め、このセルの付近にマークを付けて、マップを例えば2次元図形として表示する。この表示では、マップを2次元あるいは3次元などの多次元のセルのアレイとして表示し、セルに付されているラベルを色分けやラベル名の表示などで表示し、入力ベクトルに最も近いセルをマークして表示する。2次元表示の場合、セルを6角形として表示すると、表示が容易である。   FIG. 14 shows an input vector classification algorithm by SOM. A cell having a codebook vector closest to the input vector obtained by the wavelet transform unit is obtained, a mark is added near the cell, and the map is displayed as, for example, a two-dimensional figure. In this display, the map is displayed as an array of multidimensional cells such as 2D or 3D, the labels attached to the cells are displayed by color coding or label names, etc., and the cell closest to the input vector is marked And display. In the case of two-dimensional display, display is easy if the cells are displayed as hexagons.

図4〜図7の延伸仮撚加工機の異常張力波形を再度検討する。なおここでのラベル付けは、熟練したオペレータの判断によるもので、必ずしも正確ではない。またPOYF01の右側などで張力が急激に0に低下しているのは、糸切れが生じたためである。このような糸切れ自体を主な特徴としてニューラルネットワークが処理しないようにするため、端部処理部で糸切れなどの不連続点に対するウェーブレット変換値を記憶し、類似したウェーブレット変換値を取り除くようにしてある。   The abnormal tension waveform of the drawing false twisting machine shown in FIGS. 4 to 7 will be examined again. The labeling here is based on the judgment of a skilled operator and is not necessarily accurate. Also, the reason that the tension suddenly drops to 0 on the right side of POYF01, etc. is due to thread breakage. In order to prevent the neural network from processing such thread breaks as a main feature, the edge processing unit stores wavelet transform values for discontinuous points such as thread breaks and removes similar wavelet transform values. It is.

図4〜図7を参照すると、異常張力波形をその発生原因に従って分類するためのポイントは、一見したところ分かりにくい。例えば図4のPOYF16と図6のTAIL08は、未熟練者には類似の信号に見える。またPOYF12はPOYF11と類似しているというよりも、図6のTAIL10やTAIL22に類似した信号のように見える。このように異常張力波形を、張力波形そのものから解析することは困難である。   4 to 7, the point for classifying the abnormal tension waveform according to the cause of the abnormal tension waveform is difficult to understand at first glance. For example, POYF16 in FIG. 4 and TAIL08 in FIG. 6 appear to be similar signals to an unskilled person. Further, POYF12 looks more like a signal similar to TAIL10 and TAIL22 in FIG. 6, rather than similar to POYF11. Thus, it is difficult to analyze the abnormal tension waveform from the tension waveform itself.

ウェーブレット変換とSOMによる異常波形の分類を図15〜図20に示す。各図では、入力ベクトルに対し、最も近いコードブックベクトルを有するセルを入力ベクトルの種類(1〜9)でラベルした。各セルは六角形に表示され、意味のあるセルは1つ置きに配置されている。各セルの色(濃淡レベル)は、隣接する6セルとの間のコードブックベクトルの平均距離を表し、セルとセルとの間の六角形の色(濃淡レベル)は、これらの2つのセル間のコードブックベクトルの距離を表している。なお距離の定義はここではユークリッド距離である。また濃い色の六角形の繋がりは、コードブックベクトルが近接したセルの集団と集団との間の壁を表している。また薄い色で連続した領域は、コードブックベクトルが近接した集団を表している。SOMの表示では1つのセルに複数のデータが割り当てられると、ラベルが縦に並んで表示され、セルの境界がはっきりしない。そこで図15、図17〜図20では、1つのセルに種類の異なるラベルがあると、周囲と種類の異なる方のラベルを太い黒丸で囲み、この場合はラベルが1個で黒丸で囲まれている。また隣接したセルの対でラベルが異なると、これらのセルの対を囲んで表示した。   Classification of abnormal waveforms by wavelet transform and SOM is shown in FIGS. In each figure, the cell having the closest codebook vector to the input vector is labeled with the type (1-9) of the input vector. Each cell is displayed in a hexagon, and every other meaningful cell is arranged. The color (shading level) of each cell represents the average distance of the codebook vector between 6 adjacent cells, and the hexagonal color (shading level) between cells is the distance between these two cells. Represents the distance of the codebook vector. Here, the definition of distance is Euclidean distance. A dark hexagonal connection represents a wall between groups of cells with close proximity to the codebook vector. In addition, a continuous area in a light color represents a group in which codebook vectors are close to each other. In the SOM display, when a plurality of data is assigned to one cell, labels are displayed in a vertical line, and the cell boundary is not clear. Therefore, in FIGS. 15 and 17 to 20, if there are different types of labels in one cell, the label of the different type from the surrounding area is surrounded by a thick black circle. In this case, one label is surrounded by a black circle. Yes. In addition, when the labels of adjacent cell pairs are different, these cell pairs are surrounded and displayed.

図15は、学習時に異常原因を示すデータを教師データとして付加し(教師ON)、X2,X3に対するノイズを除去し(スレッショルドON)、バッチ学習(バッチON)を行った際の結果である。種類の異なる入力ベクトルが近接した位置に表れる個所にマークした。図16は、図15のSOMで100個の未知の入力ベクトルを分類した結果である。未知の入力ベクトルを囲んで表示し、これらはラベルが1〜100である。なお前記のように、ラベル10以上は入力ベクトルの種類ではあり得ない。9種類の異常原因に分類できない入力ベクトルは皆無で、このことはまた、100個の入力ベクトルをほぼ正しく分類できたことを示している。   FIG. 15 shows the results when batch learning (batch ON) is performed by adding data indicating the cause of abnormality during learning (teacher ON), removing noise with respect to X2 and X3 (threshold ON). Marked places where different types of input vectors appear in close proximity. FIG. 16 shows the result of classifying 100 unknown input vectors with the SOM of FIG. Unknown input vectors are enclosed and displayed, and these are labeled 1-100. As described above, the label 10 or higher cannot be a type of input vector. There are no input vectors that cannot be classified into nine types of abnormal causes, which also indicates that 100 input vectors could be classified almost correctly.

図17は、教師OFF、スレッショルドON、バッチ学習ONの条件で学習させたSOMを示す。図15に比べ、異常原因が異なるセルが近接している例が増している。図18は、教師ON、スレッショルドOFF、バッチ学習ONの条件で学習させたSOMを示す。図15に比べ、異常原因が異なるセルが近接している例が増している。図19は、教師OFF、スレッショルドOFF、バッチ学習ONの条件で学習させたSOMを示し、バッチ学習を用いた点以外は特許文献3のSOMに対応する。図15〜図18に比べ、異常原因が異なるセルが近接している例が増している。この図から、教師学習やノイズの除去(スレッショルド)により、信頼性のあるSOMが得られることが分かる。   FIG. 17 shows the SOM learned under the conditions of teacher OFF, threshold ON, and batch learning ON. Compared to FIG. 15, there are more examples in which cells having different causes of abnormality are in close proximity. FIG. 18 shows the SOM learned under the conditions of teacher ON, threshold OFF, and batch learning ON. Compared to FIG. 15, there are more examples in which cells having different causes of abnormality are in close proximity. FIG. 19 shows the SOM learned under the conditions of teacher OFF, threshold OFF, and batch learning ON, and corresponds to the SOM of Patent Document 3 except that batch learning is used. Compared to FIGS. 15 to 18, there are more examples in which cells having different causes of abnormality are close to each other. From this figure, it can be seen that a reliable SOM can be obtained by teacher learning and noise removal (threshold).

図20は、教師ON、スレッショルドON、バッチ学習OFFの条件で学習させたSOMを示す。種類の異なる入力ベクトルが入り混じった領域が見られ、例えば図の右側の異常原因3,9が入り混じった領域がある。この図から逆に、バッチ学習により効果的な学習を行えることが分かる。   FIG. 20 shows the SOM learned under the conditions of teacher ON, threshold ON, and batch learning OFF. A region where different types of input vectors are mixed is seen, for example, there is a region where abnormal causes 3 and 9 are mixed on the right side of the figure. On the contrary, it can be seen that effective learning can be performed by batch learning.

なお発明者は入力ベクトルの次元数を下げて処理を簡単にするため、ウェーブレット変換により得られた入力ベクトルから、統計量を抽出して特徴ベクトルとすることを検討した。例えば前記のX1〜X6の正の項のみを集めて負や0の項を0としたベクトルと、負の項のみを集めて正や0の項を0としたベクトルを作成した。これによってベクトルの次元は2倍になるが、正の項のみを集めて統計量を求めることができ、同様に負の項のみを集めて統計量を求めることができる。統計量として、ベクトルの正の項、負の項の各々の総和、平均、分散、3次,4次のモーメントなどを用いると、X1〜X6に対して、各Xiに対して統計量が5×2の10個あることから、60次元の特徴ベクトルとなった。これによってベクトルの次元は数分の1以下に減少したが、1つのデータの中に複数の異常な張力パルスが含まれる場合、分類精度が低下することが判明したため、それ以上は検討しなかった。   In order to simplify the processing by reducing the number of dimensions of the input vector, the inventor studied to extract a statistic from the input vector obtained by the wavelet transform and use it as a feature vector. For example, a vector in which only the positive terms X1 to X6 are collected and the negative and zero terms are set to 0, and a vector in which only the negative terms are collected and the positive and zero terms are set to 0 are created. This doubles the dimension of the vector, but only positive terms can be collected to determine statistics, and similarly only negative terms can be collected to determine statistics. When the sum, average, variance, third-order, fourth-order moment, etc. of the positive and negative terms of the vector are used as the statistics, the statistics for each Xi is 5 for X1 to X6. Since there were 10 x2 pixels, the feature vector was 60 dimensional. This reduced the vector dimension to less than a fraction, but it turned out that classification accuracy would be reduced if multiple abnormal tension pulses were included in one data, so no further considerations were made. .

教師信号を用いた図15,図18のSOMについて、評価指数を求めたところ、図15(教師信号ON、ノイズカットON、バッチ学習)で6224,図18(教師信号ON、ノイズカットOFF、バッチ学習)で4833となり、ノイズカットの効果が認められた。
15 and FIG. 18 using the teacher signal, the evaluation index was obtained. In FIG. 15 (teacher signal ON, noise cut ON, batch learning), 6224, FIG. 18 (teacher signal ON, noise cut OFF, batch) Learning) was 4833, and the effect of noise cut was recognized.

実施例で糸張力の解析対象とした延伸仮撚加工機のブロック図Block diagram of a drawing false twisting machine that was analyzed for yarn tension in the examples 図1の延伸仮撚加工機で用いたツィスターの模式図Schematic diagram of the twister used in the drawing false twisting machine shown in FIG. 図1の延伸仮撚加工機で用いた張力センサの模式図Schematic diagram of the tension sensor used in the drawing false twisting machine shown in FIG. 図1の延伸仮撚加工機での糸の解撚張力の異常波形の例を示し、給糸パッケージ(POY)の解ジョ不良(POYF)による波形を7例示す。An example of an abnormal waveform of the yarn untwisting tension in the drawing false twisting machine of FIG. 1 is shown, and seven examples of waveforms due to a yarn unwinding failure (POYF) of the yarn supply package (POY) are shown. 図1の延伸仮撚加工機での糸の解撚張力の異常波形の例を示し、給糸パッケージ(POY)の内層解ジョ不良(POYI)による波形2例と、給糸パッケージの最外層乱れ(POYD)の波形5例を示す。Fig. 1 shows an example of an abnormal waveform of the yarn untwisting tension in the drawing false twisting machine. Two examples of waveforms due to the inner layer disassembly failure (POYI) of the yarn feeding package (POY) and the outermost layer disturbance of the yarn feeding package 5 examples of (POYD) waveforms are shown. 図1の延伸仮撚加工機での糸の解撚張力の異常波形の例を示し、糸結合部の不良によるテールの通過(TAIL)による波形5例と、センサ異常などの電気的異常によるもの(ELEC)の波形4例を示す。Fig. 1 shows examples of abnormal waveforms of yarn untwisting tension in the drawing false twisting machine shown in Fig. 1, with five examples of waveforms caused by tail passage (TAIL) due to defective yarn joints, and electrical abnormalities such as sensor abnormalities. 4 examples of (ELEC) waveforms are shown. 図1の延伸仮撚加工機での糸の解撚張力の異常波形の例を示し、図4〜図6以外の異常原因によるもの(OTHR)の波形6例を示す。The example of the abnormal waveform of the untwisting tension | tensile_strength of the thread | yarn in the drawing false twisting machine of FIG. 1 is shown, and the example of the waveform 6 by the thing other than the cause of abnormality (OTHR) other than FIGS. 実施例の糸張力の解析装置のブロック図Block diagram of the device for analyzing the yarn tension of the embodiment 実施例でのウェーブレット変換アルゴリズムを示すフローチャートThe flowchart which shows the wavelet transformation algorithm in an Example 実施例でのウェーブレット変換波形を示し、最上段は生の波形を、2〜6段目が、j=6〜2でのウェーブレット変換値(実線)と、不等間隔ダウンサンプリングによりサンプリングした特徴ベクトルの成分(丸印)とを示す。The wavelet transform waveform in the embodiment is shown, the top stage is the raw waveform, the second to sixth stages are the wavelet transform values (solid line) at j = 6 to 2, and the feature vector sampled by unequal interval downsampling (Indicated by a circle). 実施例でのウェーブレット変換値からのノイズ除去のモデルを示す図The figure which shows the model of the noise removal from the wavelet transformation value in an Example 実施例での自己組織化マップ(SOM)の学習アルゴリズムを示すフローチャートThe flowchart which shows the learning algorithm of the self-organization map (SOM) in an Example 実施例でのSOMの評価アルゴリズムを示すフローチャートThe flowchart which shows the evaluation algorithm of SOM in an Example 実施例でのSOMによる糸張力の異常波形の分類アルゴリズムを示すフローチャートThe flowchart which shows the classification algorithm of the abnormal waveform of the thread tension by SOM in an Example 実施例での学習済みのSOMを示し、添字は異常原因を示し、教師信号を付加しX2,X3成分からノイズを除去した入力ベクトルを用いてバッチ学習した際のものである。The learned SOM in the embodiment is shown, the subscript indicates the cause of the abnormality, and the batch learning is performed using the input vector in which the teacher signal is added and the noise is removed from the X2 and X3 components. 図15のSOMで1〜100の異常原因未知の入力ベクトルを分類した際のSOMの出力を示す。FIG. 16 shows the output of the SOM when the input vectors of unknown cause 1 to 100 are classified by the SOM of FIG. 実施例での学習済みのSOMを示し、添字は異常原因を示し、教師信号を付加せず、X2,X3成分からノイズを除去した入力ベクトルを用いてバッチ学習した際のものである。The learned SOM in the embodiment is shown, the subscript indicates the cause of the abnormality, the teacher signal is not added, and batch learning is performed using an input vector in which noise is removed from the X2 and X3 components. 実施例での学習済みのSOMを示し、添字は異常原因を示し、教師信号を付加したが、X2,X3成分からのノイズを除去しなかった入力ベクトルを用いてバッチ学習した際のものである。The learned SOM in the embodiment is shown, the subscript indicates the cause of the abnormality, the teacher signal is added, but the batch learning is performed using the input vector that does not remove the noise from the X2 and X3 components. . 学習済みのSOMの例を示し、添字は異常原因を示し、教師信号を付加せず、かつX2,X3成分からのノイズも除去しなかった入力ベクトルを用いて、バッチ学習した際のものである。An example of a learned SOM is shown. The subscript indicates the cause of abnormality, the teacher signal is not added, and the batch learning is performed using the input vector from which the noise from the X2 and X3 components is not removed. . 実施例での学習済みのSOMを示し、添字は異常原因を示し、教師信号を付加し、X2,X3成分からのノイズを除去した入力ベクトルを用いたが、通常のシーケンシャル学習を行った際のものである。The learned SOM in the embodiment is shown, the subscript indicates the cause of the abnormality, the teacher signal is added, and the input vector from which the noise from the X2 and X3 components is removed is used, but when the normal sequential learning is performed Is.

符号の説明Explanation of symbols

1 延伸仮撚加工機
2 給糸パッケージ(POY)
H1,H2 ヒータ
C1 クーリングプレート
FR1〜FR3 フィードローラ
4 ツィスター
6 張力センサ
8 制御部
10 延伸仮撚加工糸パッケージ
12 フィラメント糸
14,16 ベルト
18 回転体
20 支点
21〜23 ローラ
24 バネ
30 糸張力の解析装置
32 特徴ベクトル抽出部
34 ウェーブレット変換部
36 不等間隔ダウンサンプリング処理部
38 ノイズ除去部
40 端部処理部
42 ニューラルネットワーク
44 自己組織化マップ(SOM)
46 学習データ入力部
48 評価部
50 端末
1 Drawing false twisting machine 2 Yarn supply package (POY)
H1, H2 heater
C1 cooling plate
FR1 to FR3 Feed roller 4 Twister 6 Tension sensor 8 Control unit 10 Stretch false twisted yarn package 12 Filament yarns 14 and 16 Belt 18 Rotating body 20 Support points 21 to 23 Roller 24 Spring 30 Thread tension analyzer 32 Feature vector extraction unit 34 Wavelet transform unit 36 Unequally spaced downsampling processing unit 38 Noise removal unit 40 End processing unit 42 Neural network 44 Self-organizing map (SOM)
46 Learning Data Input Unit 48 Evaluation Unit 50 Terminal

Claims (9)

繊維機械で処理中の糸データの解析装置において、
糸データx(t)(tは時間を表す変数)から高周波側のノイズを除去して時間周波数分解するための変換手段を設けたことを特徴とする、繊維機械の糸データの解析装置:ここに時間周波数分解は、周波数あるいはその逆数であるスケールaと時間パラメータbと時間tとの関数である窓関数Ψ(a,b,t)と、糸データx(t)との積を、時間tに関して積分することにより、糸データx(t)を、周波数あるいはその逆数であるスケールaと、時間パラメータbとの関数である変換値X(a,b)に変換することである。
In the device for analyzing yarn data being processed by a textile machine,
Yarn data analysis apparatus for textile machinery, characterized in that it is provided with conversion means for removing high-frequency noise from yarn data x (t) (t is a variable representing time) and performing time-frequency decomposition: In the time-frequency decomposition, the product of the window function Ψ (a, b, t), which is a function of the frequency a or the inverse of the scale a, the time parameter b, and the time t, and the yarn data x (t) is expressed as time. By integrating with respect to t, the yarn data x (t) is converted into a converted value X (a, b) that is a function of the scale a which is the frequency or its reciprocal and the time parameter b.
前記変換手段を、糸データを時間周波数分解するための時間周波数分解手段と、時間周波数分解した糸データに対して、高周波側の信号中の小信号成分に対するダイナミックレンジを圧縮するノイズ除去手段とで構成したことを特徴とする、請求項1の繊維機械の糸データの解析装置。 The conversion means includes a time-frequency decomposition means for time-frequency decomposition of the yarn data, and a noise removal means for compressing the dynamic range for the small signal component in the signal on the high frequency side for the yarn data subjected to time-frequency decomposition. The apparatus for analyzing yarn data of a textile machine according to claim 1, wherein the apparatus is configured. 前記変換手段からの信号を処理して、繊維機械の異常原因を推定するためのニューラルネットワークを設けたことを特徴とする、請求項1または2の繊維機械の糸データの解析装置。 The apparatus for analyzing yarn data of a textile machine according to claim 1 or 2, further comprising a neural network for processing a signal from the converting means to estimate a cause of abnormality of the textile machine. 前記変換手段からの信号に既知の異常原因のデータを付加して、前記ニューラルネットワークを学習させるようにしたことを特徴とする、請求項3の繊維機械の糸データの解析装置。 4. The textile machine yarn data analysis apparatus according to claim 3, wherein said neural network is trained by adding known abnormality cause data to the signal from said conversion means. 前記ニューラルネットワークがSOM(自己組織化マップ)で、コードブックベクトルを持つセルを複数有し、SOMの学習時に、前記変換手段からの信号である複数の入力ベクトルの各々に対して、近接したコードブックベクトルを持つセルを割り当てた後に、割り当てたセルの周囲のセルのコードブックベクトルを変更して学習するようにしたことを特徴とする、請求項3または4の繊維機械の糸データの解析装置。 The neural network is a SOM (self-organizing map), has a plurality of cells having codebook vectors, and at the time of SOM learning, a code close to each of a plurality of input vectors which are signals from the conversion means The apparatus for analyzing yarn data of a textile machine according to claim 3 or 4, characterized in that after assigning a cell having a book vector, learning is performed by changing a codebook vector of cells around the assigned cell. . 前記ニューラルネットワークがSOM(自己組織化マップ)で、コードブックベクトルを持つセルを複数有し、前記変換手段からの入力ベクトルに対して、近接したコードブックベクトルを持つセルを割り当てると共に、割り当てたセルの周囲のセルのコードブックベクトルを変更して学習するようにし、
さらに入力ベクトルに対応する異常原因を、入力ベクトルの種類として、入力ベクトルの種類と、入力ベクトルを割り当てたSOM上のセル間の位置の相関を、SOMの評価として求めるための評価手段を設けたことを特徴とする、請求項3〜5のいずれかの繊維機械の糸データの解析装置。
The neural network is a SOM (self-organizing map), has a plurality of cells having code book vectors, assigns cells having adjacent code book vectors to the input vector from the conversion means, and assigns the assigned cells. To learn by changing the codebook vector of cells around
Furthermore, an evaluation means is provided for determining the cause of the abnormality corresponding to the input vector as the type of the input vector, and calculating the correlation between the type of the input vector and the position between cells on the SOM to which the input vector is assigned as the evaluation of the SOM. The apparatus for analyzing yarn data of a textile machine according to any one of claims 3 to 5.
繊維機械で処理中の糸データの解析装置において、
糸データx(t)(tは時間を表す変数)から高周波側のノイズを除去して時間周波数分解するための時間周波数分解手段と、得られた時間周波数分解信号に既知の異常原因のデータを付加するための手段、とを設けたことを特徴とする、繊維機械の糸データの解析装置:ここに時間周波数分解は、周波数あるいはその逆数であるスケールaと時間パラメータbと時間tとの関数である窓関数Ψ(a,b,t)と、糸データx(t)との積を、時間tに関して積分することにより、糸データx(t)を、周波数あるいはその逆数であるスケールaと、時間パラメータbとの関数である変換値X(a,b)に変換することである。
In the device for analyzing yarn data being processed by a textile machine,
Time-frequency decomposition means for removing high-frequency noise from the yarn data x (t) (t is a variable representing time) and performing time-frequency decomposition, and the data of the known cause of abnormality in the obtained time-frequency decomposition signal An apparatus for analyzing the yarn data of a textile machine, characterized in that: means for adding frequency, wherein time-frequency decomposition is a function of scale a, time parameter b, and time t, which is frequency or its inverse By integrating the product of the window function Ψ (a, b, t) and the thread data x (t) with respect to time t, the thread data x (t) is converted to a scale a which is a frequency or its inverse. The conversion to the conversion value X (a, b) which is a function with the time parameter b.
前記時間周波数分解信号により繊維機械の異常原因を推定するためのニューラルネットワークを設けると共に、前記既知の異常原因のデータを付加した時間周波数分解信号を用いて、前記ニューラルネットワークを学習させるようにしたことを特徴とする、請求項7の繊維機械の糸データの解析装置。 A neural network for estimating the cause of abnormality of the textile machine from the time-frequency resolved signal is provided, and the neural network is trained using the time-frequency resolved signal to which the data of the known cause of abnormality is added. An apparatus for analyzing yarn data of a textile machine according to claim 7. 前記繊維機械で処理中の糸データが、延伸仮撚加工機で処理される糸の解撚張力データであることを特徴とする、請求項1〜8のいずれかの繊維機械の糸データの解析装置。 The yarn data of the textile machine according to any one of claims 1 to 8, wherein the yarn data being processed by the textile machine is untwisting tension data of a yarn processed by a drawing false twisting machine. apparatus.
JP2004043402A 2004-02-19 2004-02-19 Yarn data analysis device for textile machinery Expired - Fee Related JP4434775B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004043402A JP4434775B2 (en) 2004-02-19 2004-02-19 Yarn data analysis device for textile machinery

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004043402A JP4434775B2 (en) 2004-02-19 2004-02-19 Yarn data analysis device for textile machinery

Publications (2)

Publication Number Publication Date
JP2005232624A JP2005232624A (en) 2005-09-02
JP4434775B2 true JP4434775B2 (en) 2010-03-17

Family

ID=35015869

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004043402A Expired - Fee Related JP4434775B2 (en) 2004-02-19 2004-02-19 Yarn data analysis device for textile machinery

Country Status (1)

Country Link
JP (1) JP4434775B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105404153A (en) * 2015-12-17 2016-03-16 吉林大学 Coil winding machine control method based on BP nerve network, and coil winding machine

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019137835A1 (en) * 2018-01-09 2019-07-18 Oerlikon Textile Gmbh & Co. Kg Method and device for monitoring a texturing process
CN112342653B (en) * 2020-11-03 2021-10-29 华祥(中国)高纤有限公司 A add bullet equipment that is used for DTY to have super gentle flat silk of light
CN113848706B (en) * 2021-09-13 2024-01-12 无锡宏源机电科技股份有限公司 Silk thread tension detection method, control method and control device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105404153A (en) * 2015-12-17 2016-03-16 吉林大学 Coil winding machine control method based on BP nerve network, and coil winding machine
CN105404153B (en) * 2015-12-17 2017-12-08 吉林大学 A kind of coil winding machine control method and coil winding machine based on BP neural network

Also Published As

Publication number Publication date
JP2005232624A (en) 2005-09-02

Similar Documents

Publication Publication Date Title
Tang et al. Fault diagnosis for a wind turbine transmission system based on manifold learning and Shannon wavelet support vector machine
Al-Bugharbee et al. A fault diagnosis methodology for rolling element bearings based on advanced signal pretreatment and autoregressive modelling
Lei et al. An intelligent fault diagnosis method using unsupervised feature learning towards mechanical big data
Kankar et al. Rolling element bearing fault diagnosis using wavelet transform
Ding et al. Time–frequency manifold sparse reconstruction: A novel method for bearing fault feature extraction
ES2917375T3 (en) Device and method for detecting a failure in a spinning machine and for estimating one or more sources of the failure
CN112651928B (en) Polyester filament yarn uniformity online detection system based on dynamic convolution neural network
WO2018180197A1 (en) Data analysis device, data analysis method and data analysis program
JP4434775B2 (en) Yarn data analysis device for textile machinery
El-Geiheini et al. Yarn tensile properties modeling using artificial intelligence
CN107563403B (en) Working condition identification method for high-speed train operation
CN111488935A (en) Coal mill fault diagnosis method based on neural network unified modeling
Lazzerini et al. Classifier ensembles to improve the robustness to noise of bearing fault diagnosis
CN113255591A (en) Bearing fault diagnosis method based on random forest and fusion characteristics
CN107688820A (en) A kind of Elevator Fault Diagnosis method based on BCSA Support Vector Machines Optimizeds
CN111636123B (en) Intelligent spinning production line fault detection system
CN115204257A (en) Anomaly monitoring method for sensor data
KR20210006832A (en) Method and apparatus for machine fault diagnosis
JP2004183139A (en) Device and method for analyzing operation condition of textile machine
Zhou et al. Fabric defect detection using a hybrid and complementary fractal feature vector and FCM-based novelty detector
Olsson et al. Fault diagnosis of industrial robots using acoustic signals and case-based reasoning
CN111733498A (en) Intelligent spinning spun yarn fault detection system
JP2004183140A (en) Apparatus and method for analyzing yarn tension for textile machine
CN116453544A (en) Industrial equipment operation state monitoring method based on voiceprint recognition
JP2006169661A (en) Analyzer and mechanical equipment mounted therewith and analysis program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070316

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070329

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080704

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080825

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090929

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091214

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091222

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130108

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees