KR20200128239A - Mechanical diagnostic system based on image learning and method for mechanical diagnosis using the same - Google Patents
Mechanical diagnostic system based on image learning and method for mechanical diagnosis using the same Download PDFInfo
- Publication number
- KR20200128239A KR20200128239A KR1020190047303A KR20190047303A KR20200128239A KR 20200128239 A KR20200128239 A KR 20200128239A KR 1020190047303 A KR1020190047303 A KR 1020190047303A KR 20190047303 A KR20190047303 A KR 20190047303A KR 20200128239 A KR20200128239 A KR 20200128239A
- Authority
- KR
- South Korea
- Prior art keywords
- unit
- learning
- images
- state
- neural network
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01M—TESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
- G01M7/00—Vibration-testing of structures; Shock-testing of structures
- G01M7/02—Vibration-testing by means of a shake table
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
- G06T2207/30164—Workpiece; Machine component
Abstract
Description
본 발명은 영상 학습을 통한 기계 진단시스템 및 이를 이용한 기계 진단방법에 관한 것으로, 더욱 상세하게는 카메라와 같은 촬영 장치에 의해 촬영된 영상을 바탕으로 학습을 수행하여 기계 장치와 같은 대상체의 정상 상태 또는 비정상 상태에 대한 판단을 수행하여 진단을 수행할 수 있는 영상 학습을 통한 기계 진단시스템 및 이를 이용한 기계 진단방법에 관한 것이다.The present invention relates to a machine diagnosis system through image learning and a machine diagnosis method using the same, and more particularly, to a normal state of an object such as a mechanical device by performing learning based on an image captured by a photographing device such as a camera. The present invention relates to a machine diagnosis system through image learning capable of performing diagnosis by performing a judgment on an abnormal state, and a machine diagnosis method using the same.
촬영된 영상을 활용하여 대상물의 움직임을 측정하는 기술에 대한 연구는 다수 진행되고 있으며, 고속촬영 기법과 영상처리 기술의 진보에 따라 그 응용범위도 확대되고 있다. A number of studies are being conducted on the technology to measure the motion of an object by using the captured image, and its application range is expanding with the advancement of high-speed shooting techniques and image processing technologies.
최근 MIT CSAIL(Computer Science and Artificial Intelligence Laboratory)에서는 딥러닝을 활용하여 대상체에 대한 주파수와 같은 사전 정보의 입력 없이 영상의 미세한 움직임을 증폭시키는 연구를 발표하였으며, RDI Technologies 사에서는 진동거동을 증폭하여 가시화하는 장비를 개발하여 출시하였다. 이러한 기술들은, 펌프와 같은 회전 기계의 미세한 기계적 진동을 큰 움직임으로 증폭하여 이를 가시화함으로써, 사람의 눈으로 거시적인 움직임의 변화를 판단하고 진단하는 기술에 활용될 수 있다. Recently, MIT CSAIL (Computer Science and Artificial Intelligence Laboratory) published a study to amplify the fine motion of an image without inputting prior information such as frequency of an object using deep learning, and RDI Technologies amplifies and visualizes the vibration behavior. Developed and released the equipment. These techniques can be utilized in a technique for determining and diagnosing changes in macroscopic movements with human eyes by amplifying and visualizing microscopic mechanical vibrations of a rotating machine such as a pump into large motions.
그러나, 상기와 같은 가시화기술의 경우, 최종적으로 영상을 판독하는 것은 여전히 대상체에 대한 물리적 지식과 경험을 가지는 전문가의 영역으로, 그 판독결과가 사람에 따라 상이할 수 있는 불확실성이 존재한다. However, in the case of the above-described visualization technology, the final reading of an image is an area of an expert who still has physical knowledge and experience of an object, and there is an uncertainty in which the reading result may differ from person to person.
한편, 딥러닝 기술을 기반으로 한 대상체의 진단 방법이나 장치에 관한 기술로서, 대한민국 등록특허 제10-1818394호에서는 설비로부터 취득되는 데이터를 바탕으로 특징을 추출하여 특징 맵 이미지를 생성하고 이를 바탕으로 학습을 수행하여, 설비의 상태를 진단하는 기술을 개시하고 있다. Meanwhile, as a technology related to a method or apparatus for diagnosing an object based on a deep learning technology, Korean Patent Registration No. 10-1818394 extracts a feature based on data acquired from a facility to generate a feature map image, and Disclosing a technique for diagnosing the state of equipment by performing learning.
또한, 대한민국 등록특허 제10-0199105호에서는 모터나 엔진 등의 회전체로부터 진동신호를 분석하여 이상 원인을 알아내기 위한 방법으로, 진동을 계측한 진동신호를 신호처리한 후 이를 학습하여 이상 여부를 예측하는 기술을 개시하고 있다. In addition, Korean Patent Registration No. 10-0199105 is a method to find out the cause of an abnormality by analyzing a vibration signal from a rotating body such as a motor or an engine. Disclosing technology to predict.
이상과 같이, 현재 딥러닝 기술을 기반으로 학습하여 대상체의 상태를 진단하는 기술은, 학습의 대상이 되는 정보가 별도의 신호처리 단계를 통해 가공된 정보로서, 가공된 정보를 활용함으로써 학습의 효과를 향상시킬 수는 있으나, 정보 가공을 위한 신호처리 단계가 필요하므로 데이터 처리 및 학습 시간이 증가하며, 해당 대상체의 상태 또는 진단하려는 상태에 국한되어 적용되는 한계가 있어 범용성이 높지 않은 문제가 있다. As described above, the technology for diagnosing the state of an object by learning based on the current deep learning technology is information processed through a separate signal processing step, and the effectiveness of learning by using the processed information. Although can be improved, since a signal processing step for information processing is required, data processing and learning time increases, and there is a problem that the versatility is not high because there is a limitation applied only to the state of the object or the state to be diagnosed.
이에, 본 발명의 기술적 과제는 이러한 점에서 착안된 것으로 본 발명의 목적은 움직이거나 진동하고 있는 기계 장치를 포함하는 동적 시스템에 대하여 촬영 장치에 의해 측정되고 영상 처리되지 않은 원본 영상을 그대로 활용하여 학습에 의해 대상체의 정상 상태 또는 비정상 상태에 대한 판단을 수행할 수 있어 별도의 데이터 처리 단계를 생략하여 용이하게 상기 기계 장치에 대한 진동을 상시 모니터링할 수 있으며 사용성을 향상시킬 수 있는 영상 학습을 통한 기계 진단시스템을 제공하는 것이다. Accordingly, the technical problem of the present invention is conceived in this respect, and an object of the present invention is to learn by using the original image measured by the photographing device and not image-processed for a dynamic system including a moving or vibrating mechanical device. Because it is possible to determine the normal state or abnormal state of the object by using the device, it is possible to easily monitor the vibration of the device at all times by omitting a separate data processing step, and to improve the usability of the machine through image learning. It is to provide a diagnostic system.
또한, 본 발명의 다른 목적은 상기 기계 진단시스템을 이용한 기계 진단방법을 제공하는 것이다. Another object of the present invention is to provide a machine diagnosis method using the machine diagnosis system.
상기한 본 발명의 목적을 실현하기 위한 일 실시예에 의한 기계 진단시스템은 촬영부, 선택부, 학습부 및 판단부를 포함한다. 상기 촬영부는 대상체에 대한 이미지를 연속으로 촬영한다. 상기 선택부는 상기 연속 촬영된 이미지들 중에서 학습의 대상이 되는 소정 구간의 이미지들을 선택하는 선행 분류부, 및 상기 대상체의 정상 상태 또는 비정상 상태에 대한 판단 기준을 제공하는 판단기준 입력부를 포함한다. 상기 학습부는 상기 선택된 소정 구간의 이미지들에 대하여, 상기 판단 기준을 바탕으로 상기 대상체의 상태를 학습한다. 상기 판단부는 상기 학습된 결과를 이용하여, 상기 연속 촬영된 이미지들로부터 상기 대상체의 상태를 판단한다. A machine diagnosis system according to an embodiment for realizing the object of the present invention includes a photographing unit, a selection unit, a learning unit, and a determination unit. The photographing unit continuously photographs images of the object. The selection unit includes a pre-classification unit that selects images of a predetermined section to be learned from among the continuously photographed images, and a determination criterion input unit that provides a determination criterion for a normal state or an abnormal state of the object. The learning unit learns the state of the object based on the determination criterion with respect to the images of the selected predetermined section. The determination unit determines the state of the object from the consecutively photographed images using the learned result.
일 실시예에서, 상기 학습부는, 합성곱신경망(convolution neural network, CNN)을 이용하여 상기 대상체의 상태를 학습할 수 있다. In an embodiment, the learning unit may learn the state of the object using a convolution neural network (CNN).
일 실시예에서, 상기 학습부가 2차원 합성곱신경망으로 학습할 지, 또는 복수 프레임을 이용한 2차원 합성곱신경망으로 학습하거나 3차원 합성곱신경망으로 학습할 지에 대한 정보를 상기 촬영부로 제공하는 정보 입력부를 더 포함할 수 있다. In one embodiment, information input for providing information on whether the learning unit learns with a 2D convolutional neural network, or learns with a 2D convolutional neural network using multiple frames or a 3D convolutional neural network to the photographing unit May contain more wealth.
일 실시예에서, 상기 촬영부는, 상기 학습부가 2차원 합성곱신경망으로 학습하는 경우, 고정된 위치 및 각도에서 상기 대상체를 촬영하고, 상기 학습부가 복수 프레임을 이용한 2차원 합성곱신경망으로 학습하거나 3차원 합성곱신경망으로 학습하는 경우, 변화된 위치 또는 각도에서 상기 대상체를 촬영할 수 있다. In one embodiment, the photographing unit, when the learning unit learns with a two-dimensional convolutional neural network, photographs the object at a fixed position and angle, and the learning unit learns with a two-dimensional convolutional neural network using multiple frames, or 3 When learning with a dimensional convolutional neural network, the object may be photographed at a changed position or angle.
일 실시예에서, 상기 판단부는, 상기 고정된 위치 및 각도에서 연속 촬영된 상기 대상체에 대한 이미지들을 바탕으로 상기 대상체의 정상 상태 또는 비정상 상태를 판단하는 제1 판단부, 및 상기 위치 또는 각도와 무관하게 시간에 따라 연속 촬영된 상기 대상체에 대한 이미지들을 바탕으로 상기 대상체의 정상 상태 또는 비정상 상태를 판단하는 제2 판단부를 포함할 수 있다. In one embodiment, the determination unit comprises a first determination unit that determines a normal state or an abnormal state of the object based on images of the object continuously photographed at the fixed position and angle, and is independent of the position or angle. It may include a second determination unit that determines a normal state or an abnormal state of the object based on images of the object continuously photographed over time.
일 실시예에서, 상기 대상체는, 고정된 상태에서 진동하는 진동 구조물일 수 있다. In one embodiment, the object may be a vibration structure that vibrates in a fixed state.
일 실시예에서, 상기 대상체의 상태 판단 기준은, 상기 진동 구조물의 진동 범위에 대한 임계값(threshold)으로 제공될 수 있다. In an embodiment, the criterion for determining the state of the object may be provided as a threshold for the vibration range of the vibration structure.
일 실시예에서, 상기 학습부는, 상기 대상체의 연속 촬영된 이미지들의 차이가 상기 임계값의 범위 내에 속하는지의 여부를 바탕으로, 상기 대상체의 상태를 학습할 수 있다. In an embodiment, the learning unit may learn a state of the object based on whether a difference between consecutively photographed images of the object falls within a range of the threshold value.
일 실시예에서, 상기 선행 분류부는, 상기 연속 촬영된 이미지들 중에서 학습의 대상이 되는 소정 구간의 이미지들을 제외한 나머지 구간의 이미지들을 상기 판단부로 제공하고, 상기 판단부는, 상기 나머지 구간의 이미지들로부터 상기 대상체의 상태를 판단할 수 있다. In one embodiment, the preceding classification unit provides images of the remaining sections except for images of a predetermined section to be learned from among the consecutively photographed images to the determination section, and the determination section includes images of the remaining sections. The state of the object may be determined.
상기한 본 발명의 다른 목적을 실현하기 위한 일 실시예에 의한 기계 진단방법에서, 대상체에 대한 이미지를 연속으로 촬영한다. 상기 대상체의 정상 상태 또는 비정상 상태에 대한 판단 기준을 제공받는다. 상기 연속 촬영된 이미지들 중에서 학습의 대상이 되는 소정 구간의 이미지들을 선택한다. 상기 선택된 소정 구간의 이미지들에 대하여, 상기 판단 기준을 바탕으로 상기 대상체의 상태를 학습한다. 상기 학습된 결과를 이용하여, 상기 연속 촬영된 이미지들로부터 상기 대상체의 상태를 판단한다. In the machine diagnosis method according to an embodiment for realizing another object of the present invention described above, images of an object are continuously photographed. A criterion for determining a normal state or an abnormal state of the subject is provided. Among the continuously photographed images, images of a predetermined section to be learned are selected. With respect to the images of the selected predetermined section, the state of the object is learned based on the determination criterion. Using the learned result, the state of the object is determined from the continuously photographed images.
일 실시예에서, 상기 대상체에 대한 이미지를 촬영하는 단계 이전에, 상기 촬영되는 공간상의 특징으로, 상기 학습부가 2차원 합성곱신경망으로 학습할 지, 또는 복수 프레임을 이용한 2차원 합성곱신경망으로 학습하거나 3차원 합성곱신경망으로 학습할 지에 대한 정보를 입력받는 단계를 더 포함할 수 있다. In one embodiment, prior to the step of capturing an image of the object, as a feature of the space to be photographed, whether the learning unit learns with a 2D convolutional neural network or learns with a 2D convolutional neural network using multiple frames Or, the step of receiving information on whether to learn with a 3D convolutional neural network may be further included.
일 실시예에서, 상기 대상체에 대한 이미지를 촬영하는 단계에서, 상기 학습부가 2차원 합성곱신경망으로 학습하는 경우, 고정된 위치 및 각도에서 상기 대상체를 촬영하고, 상기 학습부가 2차원 합성곱신경망으로 학습하거나 3차원 합성곱신경망으로 학습하는 경우, 변화된 위치 또는 각도에서 상기 대상체를 촬영할 수 있다. In one embodiment, in the step of capturing an image of the object, when the learning unit learns with a 2D convolutional neural network, the learning unit captures the object at a fixed position and angle, and the learning unit uses a 2D convolutional neural network. When learning or learning with a 3D convolutional neural network, the object can be photographed at a changed position or angle.
본 발명의 실시예들에 의하면, 움직이거나 진동하고 있는 기계 장치를 포함하는 동적 시스템에 대하여, 촬영부에 의해 촬영된 대상체에 대한 연속 촬영 이미지들에 대하여 별도의 영상 처리를 수행하지 않고, 원본 이미지들을 그대로 학습시켜 대상체의 상태, 즉 정상 상태 또는 비정상 상태에 대하여 판단을 수행할 수 있으므로, 상기 기계 장치를 포함하는 동적 시스템과 같은 대상체에 대한 진동을 빠르고 즉각적으로 처리할 수 있어, 상시 모니터링을 수행할 수 있으며, 사용성을 향상시킬 수 있다. According to embodiments of the present invention, for a dynamic system including a moving or vibrating mechanical device, a separate image processing is not performed on consecutive images of an object captured by the photographing unit, and an original image Because it is possible to perform judgment on the state of the object, that is, a normal state or an abnormal state by learning them as it is, it is possible to quickly and immediately process vibrations on the object, such as a dynamic system including the mechanical device, so that constant monitoring is performed. Can be done, and usability can be improved.
즉, 별도의 원본 영상 처리가 불필요하므로, CCTV와 같은 범용 이미지 촬영 장치를 통해서도 움직이거나 진동하고 있는 기계 장치를 포함하는 동적 시스템과 같은 대상체에 대한 정상 상태의 여부를 실시간으로 모니터링할 수 있다. That is, since separate original image processing is not required, it is possible to monitor in real time whether an object is in a normal state, such as a dynamic system including a moving or vibrating mechanical device, even through a general-purpose image capturing device such as CCTV.
특히, 상기 학습을 합성곱신경망을 이용하여 수행하는 것으로, 고정된 상태에서 진동하는 진동 구조물에 대한 진동의 정상 상태 여부를 상기 신경망을 통해 학습을 수행하여 판단함으로써, 신경망 학습을 통한 진동 구조물의 진단을 정확하고 효과적으로 수행할 수 있다. In particular, the learning is performed using a convolutional neural network, and by performing learning through the neural network to determine whether the vibration of the vibrating structure vibrating in a fixed state is in a normal state, diagnosis of the vibrating structure through neural network learning Can be performed accurately and effectively.
한편, 상기 신경망을 통한 학습은, 2차원 또는 3차원 학습으로 구분되어 수행될 수 있으며, 특히 3차원 학습(또는, 복수 프레임을 이용한 2차원 학습)을 수행하는 경우, 촬영부의 위치나 각도와 무관하게 촬영된 이미지 원본을 통해 진동의 정상 상태 여부를 학습하여 이를 판단할 수 있으므로, 실제 기계 진단에 있어 다양한 위치에 설치되거나 이동되는 CCTV 등의 카메라를 이용한 실시간 모니터링을 수행할 수 있다. On the other hand, learning through the neural network may be divided into two-dimensional or three-dimensional learning, and in particular, when performing three-dimensional learning (or two-dimensional learning using multiple frames), it is irrelevant to the position or angle of the photographing unit. Since it can be determined by learning whether or not the vibration is in a normal state through the original image taken, real-time monitoring can be performed using cameras such as CCTV installed or moved in various locations for actual machine diagnosis.
또한, 연속 촬영되는 이미지들 중에서, 소정 구간의 이미지들은 학습을 위해 선택되어 학습이 수행되고, 상기 구간을 제외한 나머지 구간의 이미지들에 대하여는 상기 대상체의 상태를 판단하기 위해 제공될 수 있으므로, 학습을 위한 별도의 이미지 데이터들이 제공되지 않더라도, 현재의 대상체의 상태에 대한 연속적인 촬영이미지들에 대하여 학습 및 판단을 수행할 수 있어, 기계 진단의 효율성이 향상되고 실시간 모니터링이 가능하게 된다. In addition, among consecutively photographed images, images of a predetermined section are selected for learning and learning is performed, and images of the remaining sections other than the section may be provided to determine the state of the object. Even if separate image data is not provided, it is possible to learn and judge successive photographed images for the current state of the object, thereby improving the efficiency of machine diagnosis and enabling real-time monitoring.
도 1은 본 발명의 일 실시예에 의한 기계 진단시스템을 도시한 모식도이다.
도 2는 도 1의 학습부에서 2차원 CNN(convolutional neural network)으로 학습하는 예를 도시한 모식도이다.
도 3a는 도 1의 학습부에서 복수 프레임을 이용한 2차원 CNN으로 학습하는 예를 도시한 모식도이고, 도 3b는 도 1의 학습부에서 3차원 CNN으로 학습하는 예를 도시한 모식도이다.
도 4a는 도 1의 학습부에서 학습을 수행하는 구조의 예를 도시한 모식도이며, 도 4b는 도 4a의 학습을 수행하는 구조에서의 특징 맵(feature map)의 예를 도시한 모식도이다.
도 5a는 도 1의 촬영부에서 대상체에 대하여 촬영한 이미지의 예를 도시한 것이며, 도 5b는 도 5a의 촬영된 대상체의 이미지들의 차이의 예를 도시한 것이다.
도 6a는 도 1의 촬영부에서 대상체에 대하여 촬영한 이미지의 다른 예를 도시한 것이며, 도 6b는 도 6a의 촬영된 대상체의 이미지들의 차이의 다른 예를 도시한 것이다.
도 7은 도 6a의 촬영된 이미지들에 대하여, 주파수를 분석한 예를 도시한 그래프들이고, 도 8은 도 7의 분석된 각각의 예에 대하여 도 1의 판단부에서 판단 결과를 도시한 그래프이다.
도 9는 도 1의 기계 진단시스템을 이용한 기계 진단방법을 도시한 흐름도이다. 1 is a schematic diagram showing a machine diagnosis system according to an embodiment of the present invention.
FIG. 2 is a schematic diagram illustrating an example of learning with a two-dimensional convolutional neural network (CNN) in the learning unit of FIG. 1.
FIG. 3A is a schematic diagram showing an example of learning with a two-dimensional CNN using a plurality of frames in the learning unit of FIG. 1, and FIG. 3B is a schematic diagram showing an example of learning with a three-dimensional CNN in the learning unit of FIG. 1.
FIG. 4A is a schematic diagram showing an example of a structure in which the learning unit of FIG. 1 performs learning, and FIG. 4B is a schematic diagram showing an example of a feature map in the structure of FIG. 4A.
FIG. 5A illustrates an example of an image photographed with respect to an object by the photographing unit of FIG. 1, and FIG. 5B illustrates an example of differences between images of the object photographed in FIG. 5A.
FIG. 6A illustrates another example of an image photographed with respect to an object by the photographing unit of FIG. 1, and FIG. 6B illustrates another example of differences between images of the object photographed in FIG. 6A.
7 is a graph showing an example of analyzing the frequency of the captured images of FIG. 6A, and FIG. 8 is a graph showing the determination result by the determination unit of FIG. 1 for each analyzed example of FIG. 7. .
9 is a flowchart illustrating a machine diagnosis method using the machine diagnosis system of FIG. 1.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 형태를 가질 수 있는 바, 실시예들을 본문에 상세하게 설명하고자 한다. 그러나 이는 본 발명을 특정한 개시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다. 제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. The present invention will be described in detail in the text, since various modifications can be made and various forms can be obtained. However, this is not intended to limit the present invention to a specific form of disclosure, it is to be understood as including all changes, equivalents, or substitutes included in the spirit and scope of the present invention. In describing each drawing, similar reference numerals have been used for similar elements. Terms such as first and second may be used to describe various components, but the components should not be limited by the terms.
상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. These terms are used only for the purpose of distinguishing one component from another component. The terms used in the present application are only used to describe specific embodiments, and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise.
본 출원에서, "포함하다" 또는 "이루어진다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. In the present application, terms such as "comprise" or "consist of" are intended to designate the presence of features, numbers, steps, actions, elements, parts, or a combination thereof described in the specification, but one or more other features. It is to be understood that the presence or addition of elements or numbers, steps, actions, components, parts, or combinations thereof, does not preclude in advance the possibility of being added.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which the present invention belongs. Terms as defined in a commonly used dictionary should be interpreted as having a meaning consistent with the meaning in the context of the related technology, and should not be interpreted as an ideal or excessively formal meaning unless explicitly defined in this application. Does not.
이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다.Hereinafter, preferred embodiments of the present invention will be described in more detail with reference to the accompanying drawings.
도 1은 본 발명의 일 실시예에 의한 기계 진단시스템을 도시한 모식도이다. 도 2는 도 1의 학습부에서 2차원 CNN(convolutional neural network)으로 학습하는 예를 도시한 모식도이다. 도 3a는 도 1의 학습부에서 복수 프레임을 이용한 2차원 CNN으로 학습하는 예를 도시한 모식도이고, 도 3b는 도 1의 학습부에서 3차원 CNN으로 학습하는 예를 도시한 모식도이다. 도 4a는 도 1의 학습부에서 학습을 수행하는 구조의 예를 도시한 모식도이며, 도 4b는 도 4a의 학습을 수행하는 구조에서의 특징 맵(feature map)의 예를 도시한 모식도이다. 도 5a는 도 1의 촬영부에서 대상체에 대하여 촬영한 이미지의 예를 도시한 것이며, 도 5b는 도 5a의 촬영된 대상체의 이미지들의 차이의 예를 도시한 것이다. 도 6a는 도 1의 촬영부에서 대상체에 대하여 촬영한 이미지의 다른 예를 도시한 것이며, 도 6b는 도 6a의 촬영된 대상체의 이미지들의 차이의 다른 예를 도시한 것이다. 1 is a schematic diagram showing a machine diagnosis system according to an embodiment of the present invention. FIG. 2 is a schematic diagram illustrating an example of learning with a two-dimensional convolutional neural network (CNN) in the learning unit of FIG. 1. FIG. 3A is a schematic diagram showing an example of learning with a two-dimensional CNN using a plurality of frames in the learning unit of FIG. 1, and FIG. 3B is a schematic diagram showing an example of learning with a three-dimensional CNN in the learning unit of FIG. 1. FIG. 4A is a schematic diagram showing an example of a structure in which the learning unit of FIG. 1 performs learning, and FIG. 4B is a schematic diagram showing an example of a feature map in the structure of FIG. 4A. FIG. 5A illustrates an example of an image photographed with respect to an object by the photographing unit of FIG. 1, and FIG. 5B illustrates an example of differences between images of the object photographed in FIG. 5A. FIG. 6A illustrates another example of an image photographed with respect to an object by the photographing unit of FIG. 1, and FIG. 6B illustrates another example of differences between images of the object photographed in FIG. 6A.
우선, 도 1을 참조하면, 본 실시예에 의한 기계 진단시스템(10)은 펌프나 모터 등과 같은 고정된 상태에서 진동하는 진동 구조물인 대상체(100)에 대하여, 합성곱신경망(convolution neural network, CNN)을 활용하여 학습을 수행하고, 이를 바탕으로 상기 대상체(100)의 진동 상태가 정상 상태인지 또는 비정상 상태를 판단하여, 상기 대상체(100)를 진단하는 시스템이다. First, referring to FIG. 1, the
보다 구체적으로, 상기 기계 진단시스템(10)은 촬영부(200), 정보 입력부(300), 선택부(400), 학습부(500) 및 판단부(600)를 포함한다. More specifically, the
상기 촬영부(200)는 상기 대상체(100)에 대한 이미지를 촬영하는 것으로, 예를 들어, 카메라나 CCTV와 같은 촬영이 가능한 장치일 수 있다. The photographing
상기 촬영부(200)는 상기 대상체(100)에 대하여 일정 시간 간격으로 연속적인 이미지를 촬영하며, 이렇게 촬영된 연속 촬영 이미지들은 상기 선택부(400)로 제공된다. The photographing
본 실시예에서, 상기 대상체(100)는 앞서 설명한 바와 같이, 진동하는 진동 구조물로서, 상기 진동 구조물이 진동하는 경우, 상기 촬영부(200)에서 촬영되는 연속 촬영 이미지들은 진동이 수행되는 영역 또는 부분에서 변화하게 된다. In this embodiment, the
즉, 연속 촬영된 2개의 연속 이미지들을 서로 비교해 보건대, 상기 진동 구조물이 진동하는 부분을 중심으로 상기 2개의 연속 이미지들은 서로 차이가 발생하게 된다. 즉, 본 실시예에서는, 이러한 2개의 연속 이미지들이 가지는 이미지 원본 자체의 차이점을 중심으로 상기 학습부(500)에서 학습을 수행할 수 있다. That is, as a result of comparing two consecutive images taken consecutively with each other, a difference occurs between the two consecutive images centering on a part where the vibration structure vibrates. That is, in the present embodiment, the
이와 관련하여, 도 5a를 참조하면, 상기 촬영부(200)에서 상기 대상체(100)의 예로서, 가진기 상에 외팔보(cantilever)(101)가 고정된 진동 구조물에 대하여 촬영한 이미지(110)를 도시하였다. In this regard, referring to FIG. 5A, as an example of the
즉, 상기 촬영부(200)에서는, 상기 대상체(100)에 대한 연속 촬영을 통해, 상기 도 5a에 도시된 바와 같은 상기 외팔보(101)를 포함하는 진동 구조물에 대한 연속 촬영 이미지를 획득하게 된다. That is, the photographing
이 경우, 상기 연속 촬영된 대상체(100)의 이미지들의 차이에 관한 도 5b를 참조하면, 상기 진동 구조물에서는 외팔보(101)를 중심으로 진동이 수행되고 있으므로, 외팔보(101)를 중심으로 한 구조체 만이 상기 이미지 차이에서 현출되는 것을 확인할 수 있다. In this case, referring to FIG. 5B regarding the difference between the images of the
또 다른 대상체(100)의 예로서, 도 6a를 참조하면, 상기 촬영부(200)에서 상기 대상체(100)의 다른 예로서, 펌프(102)와 같은 고정된 진동 구조물에 대하여 촬영한 이미지(111)를 도시하였다. As another example of the
즉, 상기 촬영부(200)에서는, 상기 대상체(100)에 대한 연속 촬영을 통해, 상기 도 6a에 도시된 바와 같은 상기 펌프(102)에 대한 연속 촬영 이미지를 획득하게 된다. That is, the photographing
이 경우, 상기 연속 촬영된 대상체(100)의 이미지들의 차이에 관한 도 6b를 참조하면, 상기 펌프(102)는 전체 구조물이 전체적으로 진동이 수행되고 있으므로, 진동이 수행되는 각 부분이나 요소들이 상기 이미지 차이에서 현출되는 것을 확인할 수 있다. In this case, referring to FIG. 6B regarding the difference between the images of the
이상과 같이, 상기 학습부(500)에서는, 이러한 2개의 연속 이미지들이 가지는 이미지 원본 자체의 차이점을 중심으로 학습을 수행하는 것으로, 후술하겠으나, 상기 연속 이미지들이 가지는 차이점, 즉 이미지 차이에서 현출되는 대상체의 차이가 소정의 범위 이내에 속하는지의 여부를 바탕으로 정상 상태 또는 비정상 상태의 여부를 학습하게 된다. As described above, the
한편, 상기 촬영부(200)는, 상기 학습부(500)에서의 학습의 종류에 따라, 고정된 위치 및 각도에서 상기 대상체(100)를 촬영할 수도 있으며, 위치 또는 각도가 변화되면서 상기 대상체(100)를 촬영할 수도 있다. On the other hand, the photographing
즉, 후술되는 상기 학습부(500)는, 소위, 합성곱신경망(convolution neural network, CNN)을 이용하여 상기 촬영부(200)에서 촬영된 연속 촬영 이미지들에 대한 학습을 수행하는데, 2차원 CNN으로 학습하거나, 이와 달리 복수의 프레임을 이용한 2차원 CNN 또는 3차원 CNN으로 학습할 수 있다. That is, the
상기 학습부(500)가 2차원 CNN으로 학습을 수행하는 경우, 상기 학습부(500)는, 촬영된 이미지들의 공간상의 특징(feature)을 추출하여 학습을 수행하는 것으로, 촬영된 이미지들의 공간이 동일하게 유지되어야 한다. When the
이에, 상기 학습부(500)가 2차원 CNN으로 학습을 수행하는 경우라면, 상기 촬영부(200)는, 위치 및 각도가 변화하지 않은 고정된 위치 및 각도에서 상기 대상체(100)에 대한 연속 촬영을 수행하여야 하며, 이렇게 촬영된 연속 이미지들을 상기 선택부(400)로 제공하게 된다. Accordingly, if the
이와 달리, 상기 학습부(500)가 복수의 프레임을 이용한 2차원 CNN 또는 3차원 CNN으로 학습을 수행하는 경우라면, 상기 학습부(500)는 촬영된 이미지들의 시간 및 주파수에 대한 특징(feature)을 추출하여 이를 분류하고, 학습을 수행하는 것으로, 촬영된 이미지들의 공간이 동일하게 유지될 필요는 없다. On the contrary, if the
이에, 상기 학습부(500)가 복수의 프레임을 이용한 2차원 CNN 또는 3차원 CNN으로 학습을 수행하는 경우라면, 상기 촬영부(200)는 위치 또는 각도가 변화하면서 상기 대상체(100)에 대한 연속 촬영을 수행할 수 있으며, 이렇게 촬영된 연속 이미지들을 상기 선택부(400)로 제공하게 된다. Thus, if the
상기 정보 입력부(300)는 상기 학습부(500)에서 상기 합성곱신경망을 활용하여 학습을 수행하는 경우, 2차원 CNN으로 학습할 것인지, 이와 달리 복수의 프레임을 이용한 2차원 CNN 또는 3차원 CNN으로 학습할 것인지에 대한 정보를 상기 촬영부(200)로 제공한다. When the
그리하여, 상기 촬영부(200)에서는, 상기 정보 입력부(300)에서 제공되는 상기 학습부(500)에서의 학습 수행의 형태에 대한 정보를 제공받고, 이를 바탕으로 상기 대상체(100)에 대한 촬영의 방법, 즉 고정된 위치 및 각도에서 촬영을 수행할 것인지, 위치 또는 각도를 변화시켜가면서 촬영을 수행할 것인지를 선택한다. Thus, the photographing
이와 달리, 상기 정보 입력부(300)에서 상기 학습부(500)에서의 학습 수행의 형태에 관한 정보를 제공받지 않고, 상기 촬영부(200)에서 상기 정보 입력부(300)로 촬영의 방법에 대한 정보를 제공할 수도 있다. In contrast, the
즉, 상기 촬영부(200)가 위치 및 각도를 고정한 상태에서만 상기 대상체(100)에 대한 촬영을 수행할 수 있다면, 상기 정보 입력부(300)에 해당 정보를 제공하고, 이를 상기 학습부(500)에서 활용하여, 상기 학습부(500)에서는 2차원 CNN으로 학습을 수행할 수 있다. That is, if the photographing
마찬가지로, 상기 촬영부(200)가 위치 또는 각도를 고정하지 않은 상태에서도 상기 대상체(100)에 대한 촬영을 수행할 수 있다면, 상기 정보 입력부(300)에 해당 정보를 제공하고, 이를 상기 학습부(500)에서 활용하여, 상기 학습부(500)에서는 복수의 프레임을 이용한 2차원 CNN 또는 3차원 CNN으로 학습 학습을 수행할 수 있다. Similarly, if the photographing
이상과 같이, 상기 촬영부(200)에서 상기 대상체(100)에 대한 이미지를 연속으로 촬영하여, 상기 촬영된 이미지들을 상기 선택부(400)로 제공한다. As described above, the photographing
상기 선택부(400)는 선행 분류부(410) 및 판단 기준 입력부(420)를 포함한다. The
상기 선행 분류부(410)는, 상기 촬영부(200)에 의해 연속으로 촬영된 상기 대상체(100)에 대한 연속 이미지들 중에서, 학습의 대상이 되는 이미지들을 선택하여, 이를 상기 학습부(500)로 제공한다. The preceding
이 경우, 상기 촬영된 이미지는 일정한 시간 간격으로 촬영된 연속되는 이미지들이므로, 상기 선행 분류부(410)에서는, 소정 구간의 시간을 선택하여, 선택되는 구간에서 촬영된 연속 이미지들을 학습의 대상이 되는 이미지들로 선택하여 상기 학습부(500)로 제공한다. In this case, since the photographed images are consecutive images photographed at regular time intervals, the preceding
상기 선행 분류부(410)에서 선택하는 구간은 사용자의 선택에 따라 다양하게 설정될 수 있으나, 상기 학습부(500)에서 학습을 수행하기 위한 최소한의 구간으로 설정되어야 한다. The section selected by the preceding
한편, 상기 선행 분류부(410)에서 선택된 구간 외에, 구간에서의 촬영된 이미지들은, 상기 판단부(600)로 제공된다. Meanwhile, images photographed in the section other than the section selected by the preceding
즉, 본 실시예의 경우, 상기 대상체(100)에 대한 연속 촬영된 이미지들 중에서 소정 구간의 이미지들은 상기 학습부(500)에서의 학습의 대상이 되며, 상기 학습의 대상으로 선택되지 않은 구간의 이미지들은 상기 판단부(600)로 제공되어, 최종적으로 상기 대상체(100)의 진동 등의 상태가 정상인지 비정상인지의 판단의 자료가 된다. That is, in the case of the present embodiment, images of a predetermined section among consecutively photographed images of the
이상과 같이, 상기 촬영부(200)에서 촬영된 연속 이미지들에 대하여, 임의의 구간을 선택하여 학습을 수행하고, 나머지 구간에 대하여 대상체의 상태를 판단함으로써, 별도의 학습을 위한 데이터의 준비를 생략할 수 있어, 상기 대상체에 대한 모니터링을 연속으로 수행하면서 학습과 상태 판단을 실시간으로 수행할 수 있어, 기계 진단시스템의 사용성 및 활용성이 향상될 수 있다. As described above, by selecting an arbitrary section for continuous images photographed by the photographing
이와 달리, 상기 촬영부(200)에서는, 상기 학습부(500)에서의 학습의 대상이 되는 이미지들을 별도로 촬영하여 상기 학습부(500)로 제공할 수 있으며, 상기 판단부(600)에서의 판단의 대상이 되는 이미지들을 별도로 촬영하여 상기 판단부(600)로 제공할 수도 있다. In contrast, in the photographing
상기 판단기준 입력부(420)는, 상기 대상체(100)의 정상 상태 또는 비정상 상태에 대한 판단 기준을 제공하는 것으로, 사용자에 의해 기준이 설정되어 제공될 수 있다. The determination
이와 달리, 도시하지는 않았으나, 상기 판단기준 입력부(420)는, 별도의 데이터베이스 등을 통해 기 판단된 대상체의 종류, 및 해당 대상체에서의 진동에 의해 위험이 발생하는 기준에 관한 정보를 바탕으로, 상기 대상체(100)의 정상 상태 또는 비정상 상태에 대한 판단 기준을 스스로 설정할 수도 있다. Unlike this, although not shown, the determination
상기 대상체(100)가 앞서 예시한 바와 같이, 고정된 상태에서 진동하는 진동 구조물인 경우라면, 상기 판단기준 입력부(420)로 제공되거나 상기 판단기준 입력부(420)에서 설정하는 판단 기준은, 상기 진동 구조물의 진동 범위에 대한 임계값(threshold)일 수 있다. If the
즉, 상기 진동 구조물의 진동 범위의 임계값을 기준으로, 상기 임계값을 초과하는 경우, 상기 대상체(100)는 비정상 상태에 해당되고, 상기 임계값의 범위 내에서 진동하는 경우 상기 대상체(100)는 정상 상태에 해당되는 것으로, 이러한 임계값에 대한 정보를 상기 학습부(500)로 제공하게 된다. That is, based on the threshold value of the vibration range of the vibration structure, if the threshold value is exceeded, the
상기 학습부(500)는 상기 촬영부(200)에서 촬영된 연속되는 이미지들 중, 상기 선행 분류부(410)에서 선택된 소정 구간의 연속 이미지들에 대하여, 상기 판단기준을 바탕으로 상기 대상체(100)의 상태에 대하여 학습을 수행한다. The
이 경우, 상기 선행 분류부(410)를 통해서는, 소정 구간의 연속 이미지들이 제공될 수도 있으며, 앞서 설명한 바와 같이, 학습을 위해 별도로 촬영된 연속 이미지들이 상기 학습부(500)로 제공될 수도 있다. In this case, through the preceding
상기 학습부(500)는, 상기 제공되는 연속 촬영된 이미지들에 대하여, 학습을 수행하는데, 이 경우 학습 수행의 방법은, 앞서 설명한 바와 같은, 합성곱신경망을 이용하게 된다. The
즉, 상기 학습부(500)는, 상기 제공되는 판단 기준, 예를 들어, 진동 범위에 대한 임계값을 바탕으로, 상기 연속 촬영된 이미지들을 바탕으로 상기 대상체(100)가 정상 상태에 해당되는지, 또는 비정상 상태에 해당되는지를 학습하게 된다. That is, the
상기 학습부(500)의 학습의 방법과 관련하여, 상기 학습부(500)는 신경망을 이용한 학습을 수행하는 것으로 구체적인 내부 학습 알고리즘을 도식화한 것은 도 4a 및 도 4b와 같다. Regarding the learning method of the
즉, 본 실시예에서의 상기 학습부(500)에서는, 신경망을 이용한 학습을 수행함에 있어, 도 4a에 도시된 바와 같이, 복수의 연속된 대상체(100)에 대한 이미지들을 제공받으면, 이를 바탕으로 이미지의 크기를 변환하면서 복수의 신경망 회로를 수행하여 상기 대상체(100)의 상태에 대하여 정상 상태인지 비정상 상태인지를 분류하여 학습을 수행하게 된다. That is, in the
이러한 상기 학습부(500)의 학습의 수행을 통해, 도 4b에 도시된 바와 같이, 상기 대상체(100)에 대한 이미지는 차츰 구체화되도록 학습되어, 상기 대상체(100)의 전체적인 형상에 대한 학습이 수행될 수 있으며, 이를 바탕으로 상기 대상체(100)의 상태에 대한 판단을 수행할 수 있을 정도로 학습을 수행하게 된다. Through the learning performed by the
한편, 본 실시예의 경우, 상기 학습부(500)는 원본 이미지들을 바탕으로 대상체의 진동 상태를 학습하는 것으로, 앞서 설명한 바와 같이, 연속 촬영된 2개의 연속 이미지들을 서로 비교하여, 상기 진동 구조물이 진동함으로써 이미지들의 차이가 발생하는 부분을 확인함으로써 학습을 수행할 수 있다. Meanwhile, in the case of the present embodiment, the
즉, 상기 이미지들의 차이를 통해, 상기 학습부(500)는 이렇게 차이나는 부분의 진동의 범위가 상기 제공된 판단 기준인 임계값의 범위 이내에 속하는가의 여부를 학습할 수 있다. That is, through the difference between the images, the
정상상태 학습부(510)에서는, 상기 연속 촬영된 이미지들의 차이가 상기 임계값의 범위 이내에 속하는 이미지들을 학습하여, 상기 대상체(100)의 정상 상태에 대한 학습을 수행할 수 있다. The steady
마찬가지로, 비정상상태 학습부(520)에서는, 상기 연속 촬영된 이미지들의 차이가 상기 임계값의 범위를 벗어나는 이미지들을 학습하여, 상기 대상체(100)의 비정상 상태에 대한 학습을 수행할 수 있다. Likewise, the abnormal
한편, 상기 학습부(500)는 2차원 CNN으로 학습하거나, 이와 달리, 복수 프레임을 이용한 2차원 CNN 또는 3차원 CNN으로 학습할 수 있음을 설명하였다. On the other hand, it has been described that the
즉, 도 2를 참조하면, 상기 학습부(500)에서 2차원 CNN으로 학습을 수행하는 경우, 상기 촬영부(200)는 고정된 위치 및 각도에서 상기 대상체(100)에 대한 이미지(110)를 연속으로 촬영하게 되며, 이렇게 촬영된 연속 이미지들(110)을 통해 상기 학습부(500)는, 앞서 설명한 바와 같은 학습을 수행하여, 후술되는 판단부(600)를 통한 상기 대상체(100)의 상태 판단을 수행할 수 있다. That is, referring to FIG. 2, when the
이러한 2차원 CNN으로 학습을 수행하는 경우, 상기 학습부(500)는 상기 촬영된 이미지의 공간상의 특징을 추출하여 학습을 수행하는 것으로, 이를 위해 상기 위치 및 각도는 고정되어야 한다. When learning is performed with such a two-dimensional CNN, the
이 경우, 상태 판단의 대상이 되는 상기 대상체(100)의 이미지들 역시, 고정된 위치 및 각도에서 촬영된 이미지들이다. In this case, the images of the
이와 달리, 도 3a를 참조하면, 상기 학습부(500)에서 복수의 프레임을 이용한 2차원 CNN으로 학습을 수행하는 경우, 상기 촬영부(200)는 다양한 위치 또는 각도에 해당되는 복수의 프레임(frame) 상에서 상기 대상체(100)에 대한 이미지(120)를 연속으로 촬영하게 되며, 이렇게 촬영된 연속 이미지들(120)을 통해 상기 학습부(500)는, 앞서 설명한 바와 같은 학습을 수행하여, 후술되는 판단부(600)를 통한 상기 대상체(100)의 상태 판단을 수행할 수 있다. In contrast, referring to FIG. 3A, when the
이 경우, 상태 판단의 대상이 되는 상기 대상체(100)의 이미지들 역시, 다양한 위치 또는 각도에 해당되는 복수의 프레임(frame) 상에서 촬영된 이미지들이다. In this case, the images of the
나아가, 도 3b를 참조하면, 상기 학습부(500)에서 3차원 CNN으로 학습을 수행하는 경우, 상기 촬영부(200)는 3차원 공간상의 다양한 위치 또는 각도에서 상기 대상체(100)에 대한 이미지(130)를 연속으로 촬영하게 되며, 이렇게 촬영된 연속 이미지들(130)을 통해 상기 학습부(500)는, 앞서 설명한 바와 같은 학습을 수행하여, 후술되는 판단부(600)를 통한 상기 대상체(100)의 상태 판단을 수행할 수 있다. Furthermore, referring to FIG. 3B, when the
이 경우, 상태 판단의 대상이 되는 상기 대상체(100)의 이미지들 역시, 3차원 공간상의 다양한 위치 또는 각도에서 촬영된 이미지들이다. In this case, the images of the
이러한 복수의 프레임을 이용한 2차원 CNN 또는 3차원 CNN으로 학습을 수행하는 경우, 상기 학습부(500)는 상기 촬영된 이미지의 시간 또는 주파수에 대한 특징을 추출하여 학습을 수행하는 것으로, 촬영된 이미지들의 위치 또는 각도는 다양하게 가변되어도 무방하게 된다. When learning is performed using a two-dimensional CNN or a three-dimensional CNN using a plurality of frames, the
상기 판단부(600)는, 상기 학습부(500)에서의 학습된 결과를 이용하여, 상기 선행 분류부(410)를 통해 선택되어 제공된 상기 대상체(100)에 대한 연속 이미지들로부터 상기 대상체(100)의 상태를 판단하게 된다. The
구체적으로, 상기 판단부(600)는 제1 판단부(610) 및 제2 판단부(620)를 포함하는데, 상기 제1 판단부(610)는 상기 고정된 위치 및 각도에서 연속 촬영된 상기 대상체(100)에 대한 이미지들을 바탕으로 상기 대상체(100)의 정상 상태 또는 비정상 상태를 판단하며, 상기 제2 판단부(620)는 상기 위치 또는 각도와 무관하게 시간에 따라 연속 촬영된 상기 대상체(100)에 대한 이미지들을 바탕으로 상기 대상체(100)의 정상 상태 또는 비정상 상태를 판단한다. Specifically, the
즉, 상기 학습부(500)가 2차원 CNN을 통해 학습하는 경우, 상기 제1 판단부(610)에서 상기 학습된 결과를 바탕으로, 상기 대상체(100)의 정상 상태 또는 비정상 상태를 판단하며, 상기 학습부(500)가 복수 프레임을 이용한 2차원 CNN 또는 3차원 CNN을 통해 학습하는 경우, 상기 제2 판단부(620)에서 상기 학습된 결과를 바탕으로, 상기 대상체(100)의 정상 상태 또는 비정상 상태를 판단한다. That is, when the
물론, 본 실시예에서는, 상기 판단부(600)가 상기 제1 판단부(610) 및 제2 판단부(620)로 구분되어, 학습 방법에 따라 판단의 주체가 변경되는 것을 예시하여 설명하였으나, 상기 판단부(600)는 상기와 같이 구분되지 않고 하나의 판단부에서 학습 방법을 고려하여 상기 대상체(100)의 정상 상태 또는 비정상 상태를 판단할 수 있다. Of course, in the present embodiment, the
한편, 본 실시예에서는, 상기 판단부(600)는 상기 학습부(500)와는 별개의 구성으로서, 상기 학습부(500)에서 학습된 결과를 바탕으로 상기 판단부(600)에서 상기 대상체(100)의 상태를 판단하는 것으로 설명하였으나, 상기 판단부(600)는 상기 학습부(500)와 일체로 형성되는 것으로, 상기 학습부(500)가 학습의 수행과 함께 제공되는 이미지들을 바탕으로 상기 대상체(100)의 상태를 판단하는 기능을 동시에 수행할 수도 있다. Meanwhile, in the present embodiment, the
도 7은 도 6a의 촬영된 이미지들에 대하여, 주파수를 분석한 예를 도시한 그래프들이고, 도 8은 도 7의 분석된 각각의 예에 대하여 도 1의 판단부에서 판단 결과를 도시한 그래프이다. 7 is a graph showing an example of analyzing the frequency of the captured images of FIG. 6A, and FIG. 8 is a graph showing the determination result by the determination unit of FIG. 1 for each analyzed example of FIG. 7. .
이는, 본 실시예에서의 상기 기계 진단시스템(10)을 통한 기계 진단의 정확성을 검증하기 위한 실험 결과에 대한 그래프들이다. These are graphs of experimental results for verifying the accuracy of machine diagnosis through the
즉, 도 7 및 도 8은, 도 6a를 참조하여 설명한, 상기 대상체(100)가 펌프(102)와 같은 고정된 진동 구조물인 경우, 상기 펌프(102)의 진동 상태에 관하여 9개의 서로 다른 진동 상태에 대한 이미지들(이 경우, 이미지들은 고정된 위치 및 각도의 촬영부에서 촬영된 이미지들임)을 바탕으로 상기 학습부(500)에서 학습을 수행하고, 상기 판단부(600)에서 상기 펌프(102)의 진동 상태가 정상 상태인지 또는 비정상 상태인지의 여부를 판단한 결과를 도시한 것이다. That is, FIGS. 7 and 8 show nine different vibrations with respect to the vibration state of the
다만, 상기 판단부(600)에서의 판단의 정확성을 평가하기 위해, 상기 9개의 서로 다른 진동 상태에 대한 이미지들에 대하여 별도의 주파수 분석을 수행하였다. However, in order to evaluate the accuracy of the determination by the
즉, 도 7을 참조하면, 실제 상기 펌프(102)의 9가지의 서로 다른 진동 상태에 대한 주파수 분석의 결과, Case 1 및 Case 9 만이 소정의 범위, 즉 앞서 설명한 임계값의 범위 이내에 속하는 정상상태인 것으로 파악되었으며, 나머지 Case 2 내지 Case 8은 상기 임계값의 범위를 벗어나는 것으로 분석되었다. That is, referring to FIG. 7, as a result of frequency analysis for 9 different vibration states of the
이러한 주파수 분석 결과와, 본 실시예에 의한 기계 진단시스템(10)을 이용한 상기 펌프(102)의 진동 상태에 대한 학습 및 진동 상태에 대한 판단의 결과를, 비교하건대, 도 8에 도시된 바와 같이, 상기 판단부(600)에서는 Case 1 및 Case 2에 대하여는 정상 상태인 것으로 판단하였고, Case 2 내지 Case 8은 비정상 상태인 것으로 판단하였다. This frequency analysis result and the result of learning about the vibration state of the
이상과 같이, 상기 펌프(102)의 9가지의 서로 다른 진동 상태에 대한 이미지들을 바탕으로 상기 기계 진단시스템(10)에서는 주파수 분석의 결과와 동일하게 진동 상태에 대하여 판단을 수행하였다. As described above, based on images of nine different vibration states of the
[표 1] 기계 진단시스템을 이용한 진단 정확도 수행 결과[Table 1] Diagnosis accuracy results using a machine diagnosis system
또한, 상기 [표 1]은 초당 프레임(frame per second, fps) 120이고, 1개의 이미지 데이터는 1080*1920*3인 이미지를 사용하여 학습 및 테스트를 수행한 결과이다. In addition, [Table 1] is a result of training and testing using an image of 120 frames per second (fps), and one image data is 1080*1920*3.
상기 [표 1]을 통해 확인되는 바와 같이, 본 실시예의 상기 기계 진단시스템(10)을 이용하여 학습을 수행하고, 이를 바탕으로 펌프(102)와 같은 진동 구조물에 대한 진동 상태에 대한 진단을 수행하였을 때, 진동 상태가 정상 상태인지 비정상 상태인지의 여부에 대한 진단 정확도는 오차 없이 모두 100%임을 확인할 수 있다. As confirmed through [Table 1], learning is performed using the
이하에서는, 도 1을 참조하여 설명한 기계 진단시스템(10)을 이용한 기계 진단 방법을 도면을 참조하여 설명한다. 또한, 이하에서 설명하는 기계 진단방법에서는, 상기 기계 진단시스템(10)의 각 구성요소들의 구성이나 기능은 실질적으로 동일하므로, 진단단계를 중심으로 설명하되, 기 설명된 동일한 구성요소의 구성이나 기능에 대하여는 중복되는 설명은 생략한다. Hereinafter, a machine diagnosis method using the
도 9는 도 1의 기계 진단시스템을 이용한 기계 진단방법을 도시한 흐름도이다. 9 is a flowchart illustrating a machine diagnosis method using the machine diagnosis system of FIG. 1.
도 9를 참조하면, 상기 기계 진단방법에서는, 우선, 상기 정보 입력부(300)에서 공간상의 특징에 대한 정보를 상기 촬영부(200)로 제공하여, 상기 촬영부(200)에서는 상기 공간상의 특징에 대한 정보를 입력받는다(단계 S10). Referring to FIG. 9, in the machine diagnosis method, first, the
이 경우, 상기 공간상의 특징이란, 상기 촬영부(200)에서 촬영되는 상기 대상체(100)가 위치하는 공간상의 특징으로서, 상기 학습부(500)가 2차원 합성곱신경망으로 학습할 지, 또는 복수 프레임을 이용한 2차원 합성곱신경망으로 학습하거나 3차원 합성곱신경망으로 학습할 지에 대한 정보에 해당된다. In this case, the spatial feature is a spatial feature in which the
나아가, 실시예에 따라서는, 상기 정보 입력부(300)를 통해 상기 공간상의 특징에 대한 정보를 제공받지 않고, 상기 촬영부(200)가 촬영할 수 있는 상태, 즉 위치 및 각도가 고정된 상태에서만 촬영이 가능한지의 여부에 대한 정보를 역으로 상기 정보 입력부(300)로 제공할 수 있으며, 이렇게 제공된 공간상의 특징에 대한 정보는 상기 학습부(500)로 제공되어, 학습 수행 방법이 선택될 수 있음은 앞서 설명한 바와 같다. Further, depending on the embodiment, without being provided with information on the spatial characteristics through the
이 후, 상기 촬영부(200)는 상기 대상체(100)에 대한 이미지를 연속으로 촬영한다(단계 S20). Thereafter, the photographing
이 경우, 상기 촬영부(200)는, 상기 학습부(500)가 2차원 합성곱신경망으로 학습하는 경우, 고정된 위치 및 각도에서 상기 대상체(100)를 촬영하여, 촬영된 이미지들을 상기 선택부(400)로 제공한다. In this case, when the
이와 달리, 상기 촬영부(200)는, 상기 학습부(500)가 2차원 합성곱신경망으로 학습하거나 3차원 합성곱신경망으로 학습하는 경우, 변화된 위치 또는 각도에서 상기 대상체(100)를 촬영하여, 촬영된 이미지들을 상기 선택부(400)로 제공한다. In contrast, when the
이 후, 상기 선택부(400)의, 상기 판단기준 입력부(420)는 상기 대상체(100)의 판단 기준, 즉, 상기 대상체(100)의 진동 상태가 정상 상태에 해당되는지 또는 비정상 상태에 해당되는지에 대한 판단 기준을 제공 받는다(단계 S30). Thereafter, the determination
이 경우, 상기 제공받는 판단 기준은, 사용자의 입력에 의해 결정될 수 있으며, 별도의 데이터 베이스를 통해 판단되어 제공될 수 있다. In this case, the provided determination criterion may be determined by a user's input, and may be determined and provided through a separate database.
또한, 상기 판단 기준은, 예를 들어, 상기 대상체(100)가 고정된 상태에서 진동하는 진동 구조물인 경우라면, 상기 진동 구조물의 진동 범위에 대한 임계값(threshold)일 수 있다. In addition, the determination criterion may be, for example, a threshold for a vibration range of the vibration structure in the case of a vibration structure that vibrates while the
이 후, 상기 선행 분류부(410)는, 상기 촬영부(200)로부터 제공되는 상기 대상체(100)에 대한 연속 촬영된 이미지들 중에서, 상기 학습부(500)에서 학습의 대상이 되는 소정 구간의 이미지들을 선택하여, 상기 학습부(500)로 제공한다(단계 S40). Thereafter, the preceding
이 경우, 상기 선택되는 구간은, 상기 학습부(500)에서 학습을 수행하기 위한 정보가 최소한으로 포함되도록 설정될 수 있으며, 상기 연속 촬영된 이미지들 중에서, 상기 선행 분류부(410)에서 선택된 소정 구간의 이미지들을 제외한, 다른 구간의 이미지들은, 상기 판단부(600)로 제공된다(단계 S60). In this case, the selected section may be set to contain a minimum amount of information for performing learning in the
이와 달리, 상기 촬영부(200)에서는, 상기 학습부(500)에서의 학습을 수행하기 위한 연속 이미지들을, 별도로 촬영할 수 있으며, 이렇게 촬영된 연속 촬영 이미지들이 상기 학습부(500)로 제공될 수도 있다. In contrast, in the photographing
한편, 상기 촬영부(200)에서, 학습을 위한 이미지들을 별도로 촬영하여 학습부로 제공하는 경우라면, 상기 대상체(100)의 상태에 대한 판단을 위한 이미지들도 별도로 촬영되어, 상기 판단부(600)로 제공될 수 있다(단계 S60). Meanwhile, if the photographing
한편, 상기 학습부(500)에서는, 상기 학습의 대상이 되는 연속 촬영 이미지들을 바탕으로 상기 대상체(100)의 상태가 정상 상태인지 비정상 상태인지에 대한 학습을 수행한다(단계 S50). On the other hand, the
이 경우, 상기 정상 상태 또는 비정상 상태의 학습의 기준은, 상기 판단기준 입력부(420)를 통해 입력된 판단 기준을 적용하게 된다. In this case, the criterion of learning in the normal state or the abnormal state is applied to the determination criterion input through the determination
상기 학습부(500)에서는, 2차원 합성곱신경망으로 학습을 수행할 수 있으며, 이와 달리, 복수 프레임을 이용한 2차원 합성곱신경망으로 학습하거나 3차원 합성곱신경망으로 학습을 수행할 수 있다. The
이러한 학습부의 수행 방법은, 상기 촬영부(200)의 촬영이 고정된 위치 및 각도에서만 대상체에 대한 촬영을 수행할 수 있는가의 여부를 고려하여 선택될 수 있으며, 이와 달리, 상기 정보 입력부(300)를 통해 입력되는 상기 공간상의 특징에 대한 정보를 바탕으로 선택될 수도 있음은 앞서 설명한 바와 같다. This method of performing the learning unit may be selected in consideration of whether or not the photographing of the object can be performed only at a fixed position and angle in which the photographing of the photographing
나아가, 상기 학습부(500)에서의, 합성곱신경망을 이용한 학습 수행 방법에 대하여도 앞서 설명한 바와 같다. Further, a method of performing learning using a convolutional neural network in the
그리하여, 상기 학습부(500)에서, 상기 대상체(100)의 진동 상태 등에 대하여 정상 상태인지 비정상 상태인지에 대한 학습 수행이 완료되면, 상기 판단부(600)에서는, 상기 대상체(100)에 대한 연속 촬영 이미지들을 제공받고(단계 S60), 상기 공간상의 특징을 바탕으로, 상기 연속 촬영된 이미지들로부터 상기 대상체(100)의 정상 상태 또는 비정상 상태를 판단한다(단계 S70). Thus, when the
이 경우, 상기 판단부(600)는 제1 판단부(610) 및 제2 판단부(620)를 포함하여, 상기 제1 판단부(610)에서는, 상기 학습부(500)가 2차원 합성곱신경망으로 학습을 수행하는 경우에 대하여, 고정된 위치 및 각도에서 연속 촬영된 상기 대상체(100)에 대한 이미지들을 바탕으로 상기 대상체(100)의 정상 상태 또는 비정상 상태를 판단한다. In this case, the
이와 달리, 상기 제2 판단부(620)에서는, 상기 학습부(500)가 복수 프레임을 이용한 2차원 합성곱신경망 또는 3차원 합성곱신경망으로 학습을 수행하는 경우에 대하여, 위치 또는 각도와 무관하게 시간에 따라 연속 촬영된 상기 대상체(100)에 대한 이미지들을 바탕으로 상기 대상체(100)의 정상 상태 또는 비정상 상태를 판단하게 된다. In contrast, in the
이상과 같이, 상기 기계 진단방법을 통해서는, 고정된 상태에서 진동하는 펌프 등과 같은 진동 구조물에 대하여 연속 촬영되는 이미지의 원본을 바탕으로 상기 진동 구조물의 진동 상태에 대한 학습을 수행하고, 이를 바탕으로, 상기 진동 구조물이 정상 상태의 범위에서 진동하는지, 비정상 상태의 범위에서 진동하는지에 대한 판단을 수행할 수 있다. As described above, through the machine diagnosis method, learning about the vibration state of the vibrating structure is performed based on the original image of a vibrating structure such as a pump that vibrates in a fixed state, based on this. , It is possible to determine whether the vibrating structure vibrates in a range of a normal state or a range of an abnormal state.
상기와 같은 본 발명의 실시예들에 의하면, 움직이거나 진동하고 있는 기계 장치를 포함하는 동적 시스템에 대하여, 촬영부에 의해 촬영된 대상체에 대한 연속 촬영 이미지들에 대하여 별도의 영상 처리를 수행하지 않고, 원본 이미지들을 그대로 학습시켜 대상체의 상태, 즉 정상 상태 또는 비정상 상태에 대하여 판단을 수행할 수 있으므로, 상기 기계 장치를 포함하는 동적 시스템과 같은 대상체에 대한 진동을 빠르고 즉각적으로 처리할 수 있어, 상시 모니터링을 수행할 수 있으며, 사용성을 향상시킬 수 있다. According to the embodiments of the present invention as described above, for a dynamic system including a moving or vibrating mechanical device, a separate image processing is not performed on consecutive images of an object captured by the photographing unit. , As the original images can be learned as it is to determine the state of the object, that is, a normal state or an abnormal state, it is possible to quickly and immediately process the vibration of the object, such as a dynamic system including the mechanical device, Monitoring can be performed and usability can be improved.
즉, 별도의 원본 영상 처리가 불필요하므로, CCTV와 같은 범용 이미지 촬영 장치를 통해서도 움직이거나 진동하고 있는 기계 장치를 포함하는 동적 시스템과 같은 대상체에 대한 정상 상태의 여부를 실시간으로 모니터링할 수 있다. That is, since separate original image processing is not required, it is possible to monitor in real time whether an object is in a normal state, such as a dynamic system including a moving or vibrating mechanical device, even through a general-purpose image capturing device such as CCTV.
특히, 상기 학습을 합성곱신경망을 이용하여 수행하는 것으로, 고정된 상태에서 진동하는 진동 구조물에 대한 진동의 정상 상태 여부를 상기 신경망을 통해 학습을 수행하여 판단함으로써, 신경망 학습을 통한 진동 구조물의 진단을 정확하고 효과적으로 수행할 수 있다. In particular, the learning is performed using a convolutional neural network, and by performing learning through the neural network to determine whether the vibration of the vibrating structure vibrating in a fixed state is in a normal state, diagnosis of the vibrating structure through neural network learning Can be performed accurately and effectively.
한편, 상기 신경망을 통한 학습은, 2차원 또는 3차원 학습으로 구분되어 수행될 수 있으며, 특히 3차원 학습(또는, 복수 프레임을 이용한 2차원 학습)을 수행하는 경우, 촬영부의 위치나 각도와 무관하게 촬영된 이미지 원본을 통해 진동의 정상 상태 여부를 학습하여 이를 판단할 수 있으므로, 실제 기계 진단에 있어 다양한 위치에 설치되거나 이동되는 CCTV 등의 카메라를 이용한 실시간 모니터링을 수행할 수 있다. On the other hand, learning through the neural network may be divided into two-dimensional or three-dimensional learning, and in particular, when performing three-dimensional learning (or two-dimensional learning using multiple frames), it is irrelevant to the position or angle of the photographing unit. Since it can be determined by learning whether or not the vibration is in a normal state through the original image taken, real-time monitoring can be performed using cameras such as CCTV installed or moved in various locations for actual machine diagnosis.
또한, 연속 촬영되는 이미지들 중에서, 소정 구간의 이미지들은 학습을 위해 선택되어 학습이 수행되고, 상기 구간을 제외한 나머지 구간의 이미지들에 대하여는 상기 대상체의 상태를 판단하기 위해 제공될 수 있으므로, 학습을 위한 별도의 이미지 데이터들이 제공되지 않더라도, 현재의 대상체의 상태에 대한 연속적인 촬영이미지들에 대하여 학습 및 판단을 수행할 수 있어, 기계 진단의 효율성이 향상되고 실시간 모니터링이 가능하게 된다. In addition, among consecutively photographed images, images of a predetermined section are selected for learning and learning is performed, and images of the remaining sections other than the section may be provided to determine the state of the object. Even if separate image data is not provided, it is possible to learn and judge successive photographed images for the current state of the object, thereby improving the efficiency of machine diagnosis and enabling real-time monitoring.
상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although the above has been described with reference to preferred embodiments of the present invention, those skilled in the art will be able to variously modify and change the present invention without departing from the spirit and scope of the present invention described in the following claims. You will understand that you can
10 : 기계 진단시스템
100 : 대상체
200 : 촬영부
300 : 정보 입력부
400 : 선택부
410 : 선행 분류부
420 : 판단기준 입력부
500 : 학습부
510 : 정상상태 학습부
520 : 비정상상태 학습부
600 : 판단부
610 : 제1 판단부
620 : 제2 판단부10: mechanical diagnosis system 100: object
200: photographing unit 300: information input unit
400: selection unit 410: preceding classification unit
420: judgment criteria input unit 500: learning unit
510: steady state learning unit 520: abnormal state learning unit
600: judgment unit 610: first judgment unit
620: second judgment unit
Claims (12)
상기 연속 촬영된 이미지들 중에서 학습의 대상이 되는 소정 구간의 이미지들을 선택하는 선행 분류부, 및 상기 대상체의 정상 상태 또는 비정상 상태에 대한 판단 기준을 제공하는 판단기준 입력부를 포함하는 선택부;
상기 선택된 소정 구간의 이미지들에 대하여, 상기 판단 기준을 바탕으로 상기 대상체의 상태를 학습하는 학습부; 및
상기 학습된 결과를 이용하여, 상기 연속 촬영된 이미지들로부터 상기 대상체의 상태를 판단하는 판단부를 포함하는 기계 진단시스템. A photographing unit that continuously photographs images of the object;
A selection unit including a pre-classifying unit for selecting images of a predetermined section to be learned from among the continuously photographed images, and a determination criterion input unit for providing a determination criterion for a normal state or an abnormal state of the object;
A learning unit that learns the state of the object based on the determination criterion for the images of the selected predetermined section; And
A machine diagnosis system including a determination unit that determines a state of the object from the continuously photographed images using the learned result.
합성곱신경망(convolution neural network, CNN)을 이용하여 상기 대상체의 상태를 학습하는 것을 특징으로 하는 기계 진단시스템. The method of claim 1, wherein the learning unit,
A machine diagnostic system comprising learning the state of the object using a convolution neural network (CNN).
상기 학습부가 2차원 합성곱신경망으로 학습할 지, 또는 복수 프레임을 이용한 2차원 합성곱신경망으로 학습하거나 3차원 합성곱신경망으로 학습할 지에 대한 정보를 상기 촬영부로 제공하는 정보 입력부를 더 포함하는 기계 진단시스템. The method of claim 2,
The machine further comprising an information input unit for providing information on whether the learning unit is to learn with a 2D convolutional neural network, a 2D convolutional neural network using multiple frames, or a 3D convolutional neural network to the photographing unit Diagnostic system.
상기 학습부가 2차원 합성곱신경망으로 학습하는 경우, 고정된 위치 및 각도에서 상기 대상체를 촬영하고,
상기 학습부가 복수 프레임을 이용한 2차원 합성곱신경망으로 학습하거나 3차원 합성곱신경망으로 학습하는 경우, 변화된 위치 또는 각도에서 상기 대상체를 촬영하는 것을 특징으로 하는 기계 진단시스템. The method of claim 3, wherein the photographing unit,
When the learning unit learns with a 2D convolutional neural network, photographing the object at a fixed position and angle,
When the learning unit learns with a two-dimensional convolutional neural network using a plurality of frames or a three-dimensional convolutional neural network, the learning unit photographs the object at a changed position or angle.
상기 고정된 위치 및 각도에서 연속 촬영된 상기 대상체에 대한 이미지들을 바탕으로 상기 대상체의 정상 상태 또는 비정상 상태를 판단하는 제1 판단부; 및
상기 위치 또는 각도와 무관하게 시간에 따라 연속 촬영된 상기 대상체에 대한 이미지들을 바탕으로 상기 대상체의 정상 상태 또는 비정상 상태를 판단하는 제2 판단부를 포함하는 것을 특징으로 하는 기계 진단시스템. The method of claim 4, wherein the determination unit,
A first determination unit determining a normal state or an abnormal state of the object based on images of the object continuously photographed at the fixed position and angle; And
And a second determination unit that determines a normal state or an abnormal state of the object based on images of the object continuously photographed over time regardless of the position or angle.
고정된 상태에서 진동하는 진동 구조물인 것을 특징으로 하는 기계 진단시스템. The method of claim 1, wherein the subject,
Machine diagnosis system, characterized in that the vibration structure vibrating in a fixed state.
상기 진동 구조물의 진동 범위에 대한 임계값(threshold)으로 제공되는 것을 특징으로 하는 기계 진단시스템. The method of claim 6, wherein the criteria for determining the state of the object are:
Machine diagnosis system, characterized in that provided as a threshold for the vibration range of the vibration structure.
상기 대상체의 연속 촬영된 이미지들의 차이가 상기 임계값의 범위 내에 속하는지의 여부를 바탕으로, 상기 대상체의 상태를 학습하는 것을 특징으로 하는 기계 진단시스템. The method of claim 7, wherein the learning unit,
A machine diagnostic system, characterized in that the state of the object is learned based on whether a difference between the consecutively photographed images of the object falls within a range of the threshold value.
상기 선행 분류부는, 상기 연속 촬영된 이미지들 중에서 학습의 대상이 되는 소정 구간의 이미지들을 제외한 나머지 구간의 이미지들을 상기 판단부로 제공하고,
상기 판단부는, 상기 나머지 구간의 이미지들로부터 상기 대상체의 상태를 판단하는 것을 특징으로 하는 기계 진단시스템. The method of claim 1,
The preceding classification unit provides, to the determination unit, images of the remaining sections excluding images of a predetermined section to be learned from among the continuously photographed images,
And the determination unit determines a state of the object from images of the remaining section.
상기 대상체의 정상 상태 또는 비정상 상태에 대한 판단 기준을 제공받는 단계;
상기 연속 촬영된 이미지들 중에서 학습의 대상이 되는 소정 구간의 이미지들을 선택하는 단계;
상기 선택된 소정 구간의 이미지들에 대하여, 상기 판단 기준을 바탕으로 상기 대상체의 상태를 학습하는 단계; 및
상기 학습된 결과를 이용하여, 상기 연속 촬영된 이미지들로부터 상기 대상체의 상태를 판단하는 단계를 포함하는 기계 진단방법. Continuously photographing an image of the object;
Receiving a criterion for determining a normal state or an abnormal state of the subject;
Selecting images of a predetermined section to be learned from among the continuously photographed images;
Learning a state of the object based on the determination criterion with respect to the images in the selected predetermined section; And
And determining a state of the object from the continuously photographed images using the learned result.
상기 촬영되는 공간상의 특징으로, 상기 학습부가 2차원 합성곱신경망으로 학습할 지, 또는 복수 프레임을 이용한 2차원 합성곱신경망으로 학습하거나 3차원 합성곱신경망으로 학습할 지에 대한 정보를 입력받는 단계를 더 포함하는 기계 진단방법. The method of claim 10, prior to the step of taking an image of the object,
The step of receiving information on whether the learning unit learns with a two-dimensional convolutional neural network, learning with a two-dimensional convolutional neural network using multiple frames, or learning with a three-dimensional convolutional neural network, as a feature of the space to be photographed. Machine diagnostic method further comprising.
상기 학습부가 2차원 합성곱신경망으로 학습하는 경우, 고정된 위치 및 각도에서 상기 대상체를 촬영하고,
상기 학습부가 2차원 합성곱신경망으로 학습하거나 3차원 합성곱신경망으로 학습하는 경우, 변화된 위치 또는 각도에서 상기 대상체를 촬영하는 것을 특징으로 하는 기계 진단방법. The method of claim 11, wherein in the step of taking an image of the object,
When the learning unit learns with a 2D convolutional neural network, photographing the object at a fixed position and angle,
When the learning unit learns with a two-dimensional convolutional neural network or a three-dimensional convolutional neural network, the object is photographed at a changed position or angle.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190047303A KR102233109B1 (en) | 2019-04-23 | 2019-04-23 | Mechanical diagnostic system based on image learning and method for mechanical diagnosis using the same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190047303A KR102233109B1 (en) | 2019-04-23 | 2019-04-23 | Mechanical diagnostic system based on image learning and method for mechanical diagnosis using the same |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20200128239A true KR20200128239A (en) | 2020-11-12 |
KR102233109B1 KR102233109B1 (en) | 2021-03-29 |
Family
ID=73398636
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190047303A KR102233109B1 (en) | 2019-04-23 | 2019-04-23 | Mechanical diagnostic system based on image learning and method for mechanical diagnosis using the same |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102233109B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023121161A1 (en) * | 2021-12-21 | 2023-06-29 | 주식회사 포스코 | Motion magnification devices and methods of using thereof |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100199105B1 (en) | 1996-11-05 | 1999-06-15 | 이해규 | Vibration monitoring device of rotating body with learning function |
KR20150116086A (en) * | 2014-04-04 | 2015-10-15 | 아진산업(주) | Image acquisition method for avoiding vibration of Vision examination equipment |
KR20160093253A (en) * | 2015-01-29 | 2016-08-08 | 쿠도커뮤니케이션 주식회사 | Video based abnormal flow detection method and system |
KR101818394B1 (en) | 2017-05-11 | 2018-01-12 | 울산대학교 산학협력단 | Method and apparatus for diagnosing facility condition |
KR20190004173A (en) * | 2017-07-03 | 2019-01-11 | 한국철도기술연구원 | Apparatus and method for monitoring of pantograph in electric railway |
-
2019
- 2019-04-23 KR KR1020190047303A patent/KR102233109B1/en active IP Right Grant
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100199105B1 (en) | 1996-11-05 | 1999-06-15 | 이해규 | Vibration monitoring device of rotating body with learning function |
KR20150116086A (en) * | 2014-04-04 | 2015-10-15 | 아진산업(주) | Image acquisition method for avoiding vibration of Vision examination equipment |
KR20160093253A (en) * | 2015-01-29 | 2016-08-08 | 쿠도커뮤니케이션 주식회사 | Video based abnormal flow detection method and system |
KR101818394B1 (en) | 2017-05-11 | 2018-01-12 | 울산대학교 산학협력단 | Method and apparatus for diagnosing facility condition |
KR20190004173A (en) * | 2017-07-03 | 2019-01-11 | 한국철도기술연구원 | Apparatus and method for monitoring of pantograph in electric railway |
Non-Patent Citations (1)
Title |
---|
영상 증폭기술을 활용한 진동기반 고장진단 기술 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023121161A1 (en) * | 2021-12-21 | 2023-06-29 | 주식회사 포스코 | Motion magnification devices and methods of using thereof |
Also Published As
Publication number | Publication date |
---|---|
KR102233109B1 (en) | 2021-03-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JPWO2020031984A1 (en) | Parts inspection method and inspection system | |
US20180211138A1 (en) | Information processing device, information processing method, and storage medium | |
US11715190B2 (en) | Inspection system, image discrimination system, discrimination system, discriminator generation system, and learning data generation device | |
JP6024658B2 (en) | Object detection apparatus, object detection method, and program | |
JP2008224626A5 (en) | ||
CN104101294B (en) | Analytical equipment, analysis program and analysis system | |
JP6304244B2 (en) | 3D shape measuring apparatus, 3D shape measuring method, and 3D shape measuring program | |
KR20150120774A (en) | System and method for detecting region of interest | |
CN113837079A (en) | Automatic focusing method and device for microscope, computer equipment and storage medium | |
JP6841608B2 (en) | Behavior detection system | |
JP6361775B2 (en) | Method and apparatus for identifying target posture | |
CN110826522A (en) | Method and system for monitoring abnormal human behavior, storage medium and monitoring equipment | |
JP2017203701A (en) | Information processing apparatus, measurement system, information processing method, and program | |
JP2011133984A (en) | Motion feature extraction device and motion feature extraction method | |
JP7372017B2 (en) | Steel component learning device, steel component estimation device, steel type determination device, steel component learning method, steel component estimation method, steel type determination method, and program | |
JP2014126494A (en) | Inspection support device, inspection support method, robot system, control device, robot and program | |
CN103096117B (en) | Video noise detection method and device | |
KR102233109B1 (en) | Mechanical diagnostic system based on image learning and method for mechanical diagnosis using the same | |
JP7186128B2 (en) | Article recognition system and article recognition method | |
JP6715282B2 (en) | Quality monitoring system | |
JP6805199B2 (en) | Equipment monitoring system | |
CN112204957A (en) | White balance processing method and device, movable platform and camera | |
US20160044295A1 (en) | Three-dimensional shape measurement device, three-dimensional shape measurement method, and three-dimensional shape measurement program | |
US20210127068A1 (en) | Main subject determining apparatus, image capturing apparatus, main subject determining method, and storage medium | |
JP2019139618A5 (en) |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |