KR20200128239A - Mechanical diagnostic system based on image learning and method for mechanical diagnosis using the same - Google Patents

Mechanical diagnostic system based on image learning and method for mechanical diagnosis using the same Download PDF

Info

Publication number
KR20200128239A
KR20200128239A KR1020190047303A KR20190047303A KR20200128239A KR 20200128239 A KR20200128239 A KR 20200128239A KR 1020190047303 A KR1020190047303 A KR 1020190047303A KR 20190047303 A KR20190047303 A KR 20190047303A KR 20200128239 A KR20200128239 A KR 20200128239A
Authority
KR
South Korea
Prior art keywords
unit
learning
images
state
neural network
Prior art date
Application number
KR1020190047303A
Other languages
Korean (ko)
Other versions
KR102233109B1 (en
Inventor
선경호
김병옥
이동현
전병찬
서윤호
문석준
Original Assignee
한국기계연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국기계연구원 filed Critical 한국기계연구원
Priority to KR1020190047303A priority Critical patent/KR102233109B1/en
Publication of KR20200128239A publication Critical patent/KR20200128239A/en
Application granted granted Critical
Publication of KR102233109B1 publication Critical patent/KR102233109B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01MTESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
    • G01M7/00Vibration-testing of structures; Shock-testing of structures
    • G01M7/02Vibration-testing by means of a shake table
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component

Abstract

In a machine diagnosis system through image learning and a machine diagnosis method using the same, the machine diagnosis system includes a photographing unit, a selection unit, a learning unit, and a determination unit. The photographing unit continuously photographs images of an object. The selection unit includes a pre-classification unit selecting images of a predetermined section to be learned from the continuously photographed images, and a determination criterion input unit providing a determination criterion for a normal state or an abnormal state of the object. The learning unit learns a state of the object based on the determination criterion with respect to the images of the selected predetermined section. The determination unit determines the state of the object from the continuously photographed images using the learned result.

Description

영상 학습을 통한 기계 진단시스템 및 이를 이용한 기계 진단방법 {MECHANICAL DIAGNOSTIC SYSTEM BASED ON IMAGE LEARNING AND METHOD FOR MECHANICAL DIAGNOSIS USING THE SAME}Machine diagnosis system through image learning and machine diagnosis method using the same {MECHANICAL DIAGNOSTIC SYSTEM BASED ON IMAGE LEARNING AND METHOD FOR MECHANICAL DIAGNOSIS USING THE SAME}

본 발명은 영상 학습을 통한 기계 진단시스템 및 이를 이용한 기계 진단방법에 관한 것으로, 더욱 상세하게는 카메라와 같은 촬영 장치에 의해 촬영된 영상을 바탕으로 학습을 수행하여 기계 장치와 같은 대상체의 정상 상태 또는 비정상 상태에 대한 판단을 수행하여 진단을 수행할 수 있는 영상 학습을 통한 기계 진단시스템 및 이를 이용한 기계 진단방법에 관한 것이다.The present invention relates to a machine diagnosis system through image learning and a machine diagnosis method using the same, and more particularly, to a normal state of an object such as a mechanical device by performing learning based on an image captured by a photographing device such as a camera. The present invention relates to a machine diagnosis system through image learning capable of performing diagnosis by performing a judgment on an abnormal state, and a machine diagnosis method using the same.

촬영된 영상을 활용하여 대상물의 움직임을 측정하는 기술에 대한 연구는 다수 진행되고 있으며, 고속촬영 기법과 영상처리 기술의 진보에 따라 그 응용범위도 확대되고 있다. A number of studies are being conducted on the technology to measure the motion of an object by using the captured image, and its application range is expanding with the advancement of high-speed shooting techniques and image processing technologies.

최근 MIT CSAIL(Computer Science and Artificial Intelligence Laboratory)에서는 딥러닝을 활용하여 대상체에 대한 주파수와 같은 사전 정보의 입력 없이 영상의 미세한 움직임을 증폭시키는 연구를 발표하였으며, RDI Technologies 사에서는 진동거동을 증폭하여 가시화하는 장비를 개발하여 출시하였다. 이러한 기술들은, 펌프와 같은 회전 기계의 미세한 기계적 진동을 큰 움직임으로 증폭하여 이를 가시화함으로써, 사람의 눈으로 거시적인 움직임의 변화를 판단하고 진단하는 기술에 활용될 수 있다. Recently, MIT CSAIL (Computer Science and Artificial Intelligence Laboratory) published a study to amplify the fine motion of an image without inputting prior information such as frequency of an object using deep learning, and RDI Technologies amplifies and visualizes the vibration behavior. Developed and released the equipment. These techniques can be utilized in a technique for determining and diagnosing changes in macroscopic movements with human eyes by amplifying and visualizing microscopic mechanical vibrations of a rotating machine such as a pump into large motions.

그러나, 상기와 같은 가시화기술의 경우, 최종적으로 영상을 판독하는 것은 여전히 대상체에 대한 물리적 지식과 경험을 가지는 전문가의 영역으로, 그 판독결과가 사람에 따라 상이할 수 있는 불확실성이 존재한다. However, in the case of the above-described visualization technology, the final reading of an image is an area of an expert who still has physical knowledge and experience of an object, and there is an uncertainty in which the reading result may differ from person to person.

한편, 딥러닝 기술을 기반으로 한 대상체의 진단 방법이나 장치에 관한 기술로서, 대한민국 등록특허 제10-1818394호에서는 설비로부터 취득되는 데이터를 바탕으로 특징을 추출하여 특징 맵 이미지를 생성하고 이를 바탕으로 학습을 수행하여, 설비의 상태를 진단하는 기술을 개시하고 있다. Meanwhile, as a technology related to a method or apparatus for diagnosing an object based on a deep learning technology, Korean Patent Registration No. 10-1818394 extracts a feature based on data acquired from a facility to generate a feature map image, and Disclosing a technique for diagnosing the state of equipment by performing learning.

또한, 대한민국 등록특허 제10-0199105호에서는 모터나 엔진 등의 회전체로부터 진동신호를 분석하여 이상 원인을 알아내기 위한 방법으로, 진동을 계측한 진동신호를 신호처리한 후 이를 학습하여 이상 여부를 예측하는 기술을 개시하고 있다. In addition, Korean Patent Registration No. 10-0199105 is a method to find out the cause of an abnormality by analyzing a vibration signal from a rotating body such as a motor or an engine. Disclosing technology to predict.

이상과 같이, 현재 딥러닝 기술을 기반으로 학습하여 대상체의 상태를 진단하는 기술은, 학습의 대상이 되는 정보가 별도의 신호처리 단계를 통해 가공된 정보로서, 가공된 정보를 활용함으로써 학습의 효과를 향상시킬 수는 있으나, 정보 가공을 위한 신호처리 단계가 필요하므로 데이터 처리 및 학습 시간이 증가하며, 해당 대상체의 상태 또는 진단하려는 상태에 국한되어 적용되는 한계가 있어 범용성이 높지 않은 문제가 있다. As described above, the technology for diagnosing the state of an object by learning based on the current deep learning technology is information processed through a separate signal processing step, and the effectiveness of learning by using the processed information. Although can be improved, since a signal processing step for information processing is required, data processing and learning time increases, and there is a problem that the versatility is not high because there is a limitation applied only to the state of the object or the state to be diagnosed.

대한민국 등록특허 제10-1818394호Korean Patent Registration No. 10-1818394 대한민국 등록특허 제10-0199105호Korean Patent Registration No. 10-0199105

이에, 본 발명의 기술적 과제는 이러한 점에서 착안된 것으로 본 발명의 목적은 움직이거나 진동하고 있는 기계 장치를 포함하는 동적 시스템에 대하여 촬영 장치에 의해 측정되고 영상 처리되지 않은 원본 영상을 그대로 활용하여 학습에 의해 대상체의 정상 상태 또는 비정상 상태에 대한 판단을 수행할 수 있어 별도의 데이터 처리 단계를 생략하여 용이하게 상기 기계 장치에 대한 진동을 상시 모니터링할 수 있으며 사용성을 향상시킬 수 있는 영상 학습을 통한 기계 진단시스템을 제공하는 것이다. Accordingly, the technical problem of the present invention is conceived in this respect, and an object of the present invention is to learn by using the original image measured by the photographing device and not image-processed for a dynamic system including a moving or vibrating mechanical device. Because it is possible to determine the normal state or abnormal state of the object by using the device, it is possible to easily monitor the vibration of the device at all times by omitting a separate data processing step, and to improve the usability of the machine through image learning. It is to provide a diagnostic system.

또한, 본 발명의 다른 목적은 상기 기계 진단시스템을 이용한 기계 진단방법을 제공하는 것이다. Another object of the present invention is to provide a machine diagnosis method using the machine diagnosis system.

상기한 본 발명의 목적을 실현하기 위한 일 실시예에 의한 기계 진단시스템은 촬영부, 선택부, 학습부 및 판단부를 포함한다. 상기 촬영부는 대상체에 대한 이미지를 연속으로 촬영한다. 상기 선택부는 상기 연속 촬영된 이미지들 중에서 학습의 대상이 되는 소정 구간의 이미지들을 선택하는 선행 분류부, 및 상기 대상체의 정상 상태 또는 비정상 상태에 대한 판단 기준을 제공하는 판단기준 입력부를 포함한다. 상기 학습부는 상기 선택된 소정 구간의 이미지들에 대하여, 상기 판단 기준을 바탕으로 상기 대상체의 상태를 학습한다. 상기 판단부는 상기 학습된 결과를 이용하여, 상기 연속 촬영된 이미지들로부터 상기 대상체의 상태를 판단한다. A machine diagnosis system according to an embodiment for realizing the object of the present invention includes a photographing unit, a selection unit, a learning unit, and a determination unit. The photographing unit continuously photographs images of the object. The selection unit includes a pre-classification unit that selects images of a predetermined section to be learned from among the continuously photographed images, and a determination criterion input unit that provides a determination criterion for a normal state or an abnormal state of the object. The learning unit learns the state of the object based on the determination criterion with respect to the images of the selected predetermined section. The determination unit determines the state of the object from the consecutively photographed images using the learned result.

일 실시예에서, 상기 학습부는, 합성곱신경망(convolution neural network, CNN)을 이용하여 상기 대상체의 상태를 학습할 수 있다. In an embodiment, the learning unit may learn the state of the object using a convolution neural network (CNN).

일 실시예에서, 상기 학습부가 2차원 합성곱신경망으로 학습할 지, 또는 복수 프레임을 이용한 2차원 합성곱신경망으로 학습하거나 3차원 합성곱신경망으로 학습할 지에 대한 정보를 상기 촬영부로 제공하는 정보 입력부를 더 포함할 수 있다. In one embodiment, information input for providing information on whether the learning unit learns with a 2D convolutional neural network, or learns with a 2D convolutional neural network using multiple frames or a 3D convolutional neural network to the photographing unit May contain more wealth.

일 실시예에서, 상기 촬영부는, 상기 학습부가 2차원 합성곱신경망으로 학습하는 경우, 고정된 위치 및 각도에서 상기 대상체를 촬영하고, 상기 학습부가 복수 프레임을 이용한 2차원 합성곱신경망으로 학습하거나 3차원 합성곱신경망으로 학습하는 경우, 변화된 위치 또는 각도에서 상기 대상체를 촬영할 수 있다. In one embodiment, the photographing unit, when the learning unit learns with a two-dimensional convolutional neural network, photographs the object at a fixed position and angle, and the learning unit learns with a two-dimensional convolutional neural network using multiple frames, or 3 When learning with a dimensional convolutional neural network, the object may be photographed at a changed position or angle.

일 실시예에서, 상기 판단부는, 상기 고정된 위치 및 각도에서 연속 촬영된 상기 대상체에 대한 이미지들을 바탕으로 상기 대상체의 정상 상태 또는 비정상 상태를 판단하는 제1 판단부, 및 상기 위치 또는 각도와 무관하게 시간에 따라 연속 촬영된 상기 대상체에 대한 이미지들을 바탕으로 상기 대상체의 정상 상태 또는 비정상 상태를 판단하는 제2 판단부를 포함할 수 있다. In one embodiment, the determination unit comprises a first determination unit that determines a normal state or an abnormal state of the object based on images of the object continuously photographed at the fixed position and angle, and is independent of the position or angle. It may include a second determination unit that determines a normal state or an abnormal state of the object based on images of the object continuously photographed over time.

일 실시예에서, 상기 대상체는, 고정된 상태에서 진동하는 진동 구조물일 수 있다. In one embodiment, the object may be a vibration structure that vibrates in a fixed state.

일 실시예에서, 상기 대상체의 상태 판단 기준은, 상기 진동 구조물의 진동 범위에 대한 임계값(threshold)으로 제공될 수 있다. In an embodiment, the criterion for determining the state of the object may be provided as a threshold for the vibration range of the vibration structure.

일 실시예에서, 상기 학습부는, 상기 대상체의 연속 촬영된 이미지들의 차이가 상기 임계값의 범위 내에 속하는지의 여부를 바탕으로, 상기 대상체의 상태를 학습할 수 있다. In an embodiment, the learning unit may learn a state of the object based on whether a difference between consecutively photographed images of the object falls within a range of the threshold value.

일 실시예에서, 상기 선행 분류부는, 상기 연속 촬영된 이미지들 중에서 학습의 대상이 되는 소정 구간의 이미지들을 제외한 나머지 구간의 이미지들을 상기 판단부로 제공하고, 상기 판단부는, 상기 나머지 구간의 이미지들로부터 상기 대상체의 상태를 판단할 수 있다. In one embodiment, the preceding classification unit provides images of the remaining sections except for images of a predetermined section to be learned from among the consecutively photographed images to the determination section, and the determination section includes images of the remaining sections. The state of the object may be determined.

상기한 본 발명의 다른 목적을 실현하기 위한 일 실시예에 의한 기계 진단방법에서, 대상체에 대한 이미지를 연속으로 촬영한다. 상기 대상체의 정상 상태 또는 비정상 상태에 대한 판단 기준을 제공받는다. 상기 연속 촬영된 이미지들 중에서 학습의 대상이 되는 소정 구간의 이미지들을 선택한다. 상기 선택된 소정 구간의 이미지들에 대하여, 상기 판단 기준을 바탕으로 상기 대상체의 상태를 학습한다. 상기 학습된 결과를 이용하여, 상기 연속 촬영된 이미지들로부터 상기 대상체의 상태를 판단한다. In the machine diagnosis method according to an embodiment for realizing another object of the present invention described above, images of an object are continuously photographed. A criterion for determining a normal state or an abnormal state of the subject is provided. Among the continuously photographed images, images of a predetermined section to be learned are selected. With respect to the images of the selected predetermined section, the state of the object is learned based on the determination criterion. Using the learned result, the state of the object is determined from the continuously photographed images.

일 실시예에서, 상기 대상체에 대한 이미지를 촬영하는 단계 이전에, 상기 촬영되는 공간상의 특징으로, 상기 학습부가 2차원 합성곱신경망으로 학습할 지, 또는 복수 프레임을 이용한 2차원 합성곱신경망으로 학습하거나 3차원 합성곱신경망으로 학습할 지에 대한 정보를 입력받는 단계를 더 포함할 수 있다. In one embodiment, prior to the step of capturing an image of the object, as a feature of the space to be photographed, whether the learning unit learns with a 2D convolutional neural network or learns with a 2D convolutional neural network using multiple frames Or, the step of receiving information on whether to learn with a 3D convolutional neural network may be further included.

일 실시예에서, 상기 대상체에 대한 이미지를 촬영하는 단계에서, 상기 학습부가 2차원 합성곱신경망으로 학습하는 경우, 고정된 위치 및 각도에서 상기 대상체를 촬영하고, 상기 학습부가 2차원 합성곱신경망으로 학습하거나 3차원 합성곱신경망으로 학습하는 경우, 변화된 위치 또는 각도에서 상기 대상체를 촬영할 수 있다. In one embodiment, in the step of capturing an image of the object, when the learning unit learns with a 2D convolutional neural network, the learning unit captures the object at a fixed position and angle, and the learning unit uses a 2D convolutional neural network. When learning or learning with a 3D convolutional neural network, the object can be photographed at a changed position or angle.

본 발명의 실시예들에 의하면, 움직이거나 진동하고 있는 기계 장치를 포함하는 동적 시스템에 대하여, 촬영부에 의해 촬영된 대상체에 대한 연속 촬영 이미지들에 대하여 별도의 영상 처리를 수행하지 않고, 원본 이미지들을 그대로 학습시켜 대상체의 상태, 즉 정상 상태 또는 비정상 상태에 대하여 판단을 수행할 수 있으므로, 상기 기계 장치를 포함하는 동적 시스템과 같은 대상체에 대한 진동을 빠르고 즉각적으로 처리할 수 있어, 상시 모니터링을 수행할 수 있으며, 사용성을 향상시킬 수 있다. According to embodiments of the present invention, for a dynamic system including a moving or vibrating mechanical device, a separate image processing is not performed on consecutive images of an object captured by the photographing unit, and an original image Because it is possible to perform judgment on the state of the object, that is, a normal state or an abnormal state by learning them as it is, it is possible to quickly and immediately process vibrations on the object, such as a dynamic system including the mechanical device, so that constant monitoring is performed. Can be done, and usability can be improved.

즉, 별도의 원본 영상 처리가 불필요하므로, CCTV와 같은 범용 이미지 촬영 장치를 통해서도 움직이거나 진동하고 있는 기계 장치를 포함하는 동적 시스템과 같은 대상체에 대한 정상 상태의 여부를 실시간으로 모니터링할 수 있다. That is, since separate original image processing is not required, it is possible to monitor in real time whether an object is in a normal state, such as a dynamic system including a moving or vibrating mechanical device, even through a general-purpose image capturing device such as CCTV.

특히, 상기 학습을 합성곱신경망을 이용하여 수행하는 것으로, 고정된 상태에서 진동하는 진동 구조물에 대한 진동의 정상 상태 여부를 상기 신경망을 통해 학습을 수행하여 판단함으로써, 신경망 학습을 통한 진동 구조물의 진단을 정확하고 효과적으로 수행할 수 있다. In particular, the learning is performed using a convolutional neural network, and by performing learning through the neural network to determine whether the vibration of the vibrating structure vibrating in a fixed state is in a normal state, diagnosis of the vibrating structure through neural network learning Can be performed accurately and effectively.

한편, 상기 신경망을 통한 학습은, 2차원 또는 3차원 학습으로 구분되어 수행될 수 있으며, 특히 3차원 학습(또는, 복수 프레임을 이용한 2차원 학습)을 수행하는 경우, 촬영부의 위치나 각도와 무관하게 촬영된 이미지 원본을 통해 진동의 정상 상태 여부를 학습하여 이를 판단할 수 있으므로, 실제 기계 진단에 있어 다양한 위치에 설치되거나 이동되는 CCTV 등의 카메라를 이용한 실시간 모니터링을 수행할 수 있다. On the other hand, learning through the neural network may be divided into two-dimensional or three-dimensional learning, and in particular, when performing three-dimensional learning (or two-dimensional learning using multiple frames), it is irrelevant to the position or angle of the photographing unit. Since it can be determined by learning whether or not the vibration is in a normal state through the original image taken, real-time monitoring can be performed using cameras such as CCTV installed or moved in various locations for actual machine diagnosis.

또한, 연속 촬영되는 이미지들 중에서, 소정 구간의 이미지들은 학습을 위해 선택되어 학습이 수행되고, 상기 구간을 제외한 나머지 구간의 이미지들에 대하여는 상기 대상체의 상태를 판단하기 위해 제공될 수 있으므로, 학습을 위한 별도의 이미지 데이터들이 제공되지 않더라도, 현재의 대상체의 상태에 대한 연속적인 촬영이미지들에 대하여 학습 및 판단을 수행할 수 있어, 기계 진단의 효율성이 향상되고 실시간 모니터링이 가능하게 된다. In addition, among consecutively photographed images, images of a predetermined section are selected for learning and learning is performed, and images of the remaining sections other than the section may be provided to determine the state of the object. Even if separate image data is not provided, it is possible to learn and judge successive photographed images for the current state of the object, thereby improving the efficiency of machine diagnosis and enabling real-time monitoring.

도 1은 본 발명의 일 실시예에 의한 기계 진단시스템을 도시한 모식도이다.
도 2는 도 1의 학습부에서 2차원 CNN(convolutional neural network)으로 학습하는 예를 도시한 모식도이다.
도 3a는 도 1의 학습부에서 복수 프레임을 이용한 2차원 CNN으로 학습하는 예를 도시한 모식도이고, 도 3b는 도 1의 학습부에서 3차원 CNN으로 학습하는 예를 도시한 모식도이다.
도 4a는 도 1의 학습부에서 학습을 수행하는 구조의 예를 도시한 모식도이며, 도 4b는 도 4a의 학습을 수행하는 구조에서의 특징 맵(feature map)의 예를 도시한 모식도이다.
도 5a는 도 1의 촬영부에서 대상체에 대하여 촬영한 이미지의 예를 도시한 것이며, 도 5b는 도 5a의 촬영된 대상체의 이미지들의 차이의 예를 도시한 것이다.
도 6a는 도 1의 촬영부에서 대상체에 대하여 촬영한 이미지의 다른 예를 도시한 것이며, 도 6b는 도 6a의 촬영된 대상체의 이미지들의 차이의 다른 예를 도시한 것이다.
도 7은 도 6a의 촬영된 이미지들에 대하여, 주파수를 분석한 예를 도시한 그래프들이고, 도 8은 도 7의 분석된 각각의 예에 대하여 도 1의 판단부에서 판단 결과를 도시한 그래프이다.
도 9는 도 1의 기계 진단시스템을 이용한 기계 진단방법을 도시한 흐름도이다.
1 is a schematic diagram showing a machine diagnosis system according to an embodiment of the present invention.
FIG. 2 is a schematic diagram illustrating an example of learning with a two-dimensional convolutional neural network (CNN) in the learning unit of FIG. 1.
FIG. 3A is a schematic diagram showing an example of learning with a two-dimensional CNN using a plurality of frames in the learning unit of FIG. 1, and FIG. 3B is a schematic diagram showing an example of learning with a three-dimensional CNN in the learning unit of FIG. 1.
FIG. 4A is a schematic diagram showing an example of a structure in which the learning unit of FIG. 1 performs learning, and FIG. 4B is a schematic diagram showing an example of a feature map in the structure of FIG. 4A.
FIG. 5A illustrates an example of an image photographed with respect to an object by the photographing unit of FIG. 1, and FIG. 5B illustrates an example of differences between images of the object photographed in FIG. 5A.
FIG. 6A illustrates another example of an image photographed with respect to an object by the photographing unit of FIG. 1, and FIG. 6B illustrates another example of differences between images of the object photographed in FIG. 6A.
7 is a graph showing an example of analyzing the frequency of the captured images of FIG. 6A, and FIG. 8 is a graph showing the determination result by the determination unit of FIG. 1 for each analyzed example of FIG. 7. .
9 is a flowchart illustrating a machine diagnosis method using the machine diagnosis system of FIG. 1.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 형태를 가질 수 있는 바, 실시예들을 본문에 상세하게 설명하고자 한다. 그러나 이는 본 발명을 특정한 개시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다. 제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. The present invention will be described in detail in the text, since various modifications can be made and various forms can be obtained. However, this is not intended to limit the present invention to a specific form of disclosure, it is to be understood as including all changes, equivalents, or substitutes included in the spirit and scope of the present invention. In describing each drawing, similar reference numerals have been used for similar elements. Terms such as first and second may be used to describe various components, but the components should not be limited by the terms.

상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. These terms are used only for the purpose of distinguishing one component from another component. The terms used in the present application are only used to describe specific embodiments, and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise.

본 출원에서, "포함하다" 또는 "이루어진다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. In the present application, terms such as "comprise" or "consist of" are intended to designate the presence of features, numbers, steps, actions, elements, parts, or a combination thereof described in the specification, but one or more other features. It is to be understood that the presence or addition of elements or numbers, steps, actions, components, parts, or combinations thereof, does not preclude in advance the possibility of being added.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which the present invention belongs. Terms as defined in a commonly used dictionary should be interpreted as having a meaning consistent with the meaning in the context of the related technology, and should not be interpreted as an ideal or excessively formal meaning unless explicitly defined in this application. Does not.

이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다.Hereinafter, preferred embodiments of the present invention will be described in more detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 의한 기계 진단시스템을 도시한 모식도이다. 도 2는 도 1의 학습부에서 2차원 CNN(convolutional neural network)으로 학습하는 예를 도시한 모식도이다. 도 3a는 도 1의 학습부에서 복수 프레임을 이용한 2차원 CNN으로 학습하는 예를 도시한 모식도이고, 도 3b는 도 1의 학습부에서 3차원 CNN으로 학습하는 예를 도시한 모식도이다. 도 4a는 도 1의 학습부에서 학습을 수행하는 구조의 예를 도시한 모식도이며, 도 4b는 도 4a의 학습을 수행하는 구조에서의 특징 맵(feature map)의 예를 도시한 모식도이다. 도 5a는 도 1의 촬영부에서 대상체에 대하여 촬영한 이미지의 예를 도시한 것이며, 도 5b는 도 5a의 촬영된 대상체의 이미지들의 차이의 예를 도시한 것이다. 도 6a는 도 1의 촬영부에서 대상체에 대하여 촬영한 이미지의 다른 예를 도시한 것이며, 도 6b는 도 6a의 촬영된 대상체의 이미지들의 차이의 다른 예를 도시한 것이다. 1 is a schematic diagram showing a machine diagnosis system according to an embodiment of the present invention. FIG. 2 is a schematic diagram illustrating an example of learning with a two-dimensional convolutional neural network (CNN) in the learning unit of FIG. 1. FIG. 3A is a schematic diagram showing an example of learning with a two-dimensional CNN using a plurality of frames in the learning unit of FIG. 1, and FIG. 3B is a schematic diagram showing an example of learning with a three-dimensional CNN in the learning unit of FIG. 1. FIG. 4A is a schematic diagram showing an example of a structure in which the learning unit of FIG. 1 performs learning, and FIG. 4B is a schematic diagram showing an example of a feature map in the structure of FIG. 4A. FIG. 5A illustrates an example of an image photographed with respect to an object by the photographing unit of FIG. 1, and FIG. 5B illustrates an example of differences between images of the object photographed in FIG. 5A. FIG. 6A illustrates another example of an image photographed with respect to an object by the photographing unit of FIG. 1, and FIG. 6B illustrates another example of differences between images of the object photographed in FIG. 6A.

우선, 도 1을 참조하면, 본 실시예에 의한 기계 진단시스템(10)은 펌프나 모터 등과 같은 고정된 상태에서 진동하는 진동 구조물인 대상체(100)에 대하여, 합성곱신경망(convolution neural network, CNN)을 활용하여 학습을 수행하고, 이를 바탕으로 상기 대상체(100)의 진동 상태가 정상 상태인지 또는 비정상 상태를 판단하여, 상기 대상체(100)를 진단하는 시스템이다. First, referring to FIG. 1, the machine diagnosis system 10 according to the present embodiment provides a convolution neural network (CNN) for an object 100, which is a vibration structure that vibrates in a fixed state such as a pump or a motor. ) To perform learning, and to determine whether the vibration state of the object 100 is a normal state or an abnormal state based on this, and diagnose the object 100.

보다 구체적으로, 상기 기계 진단시스템(10)은 촬영부(200), 정보 입력부(300), 선택부(400), 학습부(500) 및 판단부(600)를 포함한다. More specifically, the machine diagnosis system 10 includes a photographing unit 200, an information input unit 300, a selection unit 400, a learning unit 500, and a determination unit 600.

상기 촬영부(200)는 상기 대상체(100)에 대한 이미지를 촬영하는 것으로, 예를 들어, 카메라나 CCTV와 같은 촬영이 가능한 장치일 수 있다. The photographing unit 200 photographs an image of the object 100 and may be a device capable of photographing, such as a camera or a CCTV.

상기 촬영부(200)는 상기 대상체(100)에 대하여 일정 시간 간격으로 연속적인 이미지를 촬영하며, 이렇게 촬영된 연속 촬영 이미지들은 상기 선택부(400)로 제공된다. The photographing unit 200 photographs continuous images of the object 100 at predetermined time intervals, and the photographed continuous photographed images are provided to the selection unit 400.

본 실시예에서, 상기 대상체(100)는 앞서 설명한 바와 같이, 진동하는 진동 구조물로서, 상기 진동 구조물이 진동하는 경우, 상기 촬영부(200)에서 촬영되는 연속 촬영 이미지들은 진동이 수행되는 영역 또는 부분에서 변화하게 된다. In this embodiment, the object 100 is a vibrating structure that vibrates as described above, and when the vibrating structure vibrates, the continuous photographed images captured by the photographing unit 200 are regions or parts where vibration is performed. Will change in

즉, 연속 촬영된 2개의 연속 이미지들을 서로 비교해 보건대, 상기 진동 구조물이 진동하는 부분을 중심으로 상기 2개의 연속 이미지들은 서로 차이가 발생하게 된다. 즉, 본 실시예에서는, 이러한 2개의 연속 이미지들이 가지는 이미지 원본 자체의 차이점을 중심으로 상기 학습부(500)에서 학습을 수행할 수 있다. That is, as a result of comparing two consecutive images taken consecutively with each other, a difference occurs between the two consecutive images centering on a part where the vibration structure vibrates. That is, in the present embodiment, the learning unit 500 may perform learning based on the difference between the original image itself of the two consecutive images.

이와 관련하여, 도 5a를 참조하면, 상기 촬영부(200)에서 상기 대상체(100)의 예로서, 가진기 상에 외팔보(cantilever)(101)가 고정된 진동 구조물에 대하여 촬영한 이미지(110)를 도시하였다. In this regard, referring to FIG. 5A, as an example of the object 100 by the photographing unit 200, an image 110 photographed of a vibrating structure in which a cantilever 101 is fixed on a vibrator Is shown.

즉, 상기 촬영부(200)에서는, 상기 대상체(100)에 대한 연속 촬영을 통해, 상기 도 5a에 도시된 바와 같은 상기 외팔보(101)를 포함하는 진동 구조물에 대한 연속 촬영 이미지를 획득하게 된다. That is, the photographing unit 200 acquires a continuous photographing image of the vibrating structure including the cantilever 101 as shown in FIG. 5A through continuous photographing of the object 100.

이 경우, 상기 연속 촬영된 대상체(100)의 이미지들의 차이에 관한 도 5b를 참조하면, 상기 진동 구조물에서는 외팔보(101)를 중심으로 진동이 수행되고 있으므로, 외팔보(101)를 중심으로 한 구조체 만이 상기 이미지 차이에서 현출되는 것을 확인할 수 있다. In this case, referring to FIG. 5B regarding the difference between the images of the object 100 photographed continuously, since the vibration structure is vibrating around the cantilever 101, only the structure centered on the cantilever 101 is It can be seen that it emerges from the image difference.

또 다른 대상체(100)의 예로서, 도 6a를 참조하면, 상기 촬영부(200)에서 상기 대상체(100)의 다른 예로서, 펌프(102)와 같은 고정된 진동 구조물에 대하여 촬영한 이미지(111)를 도시하였다. As another example of the object 100, referring to FIG. 6A, as another example of the object 100 by the photographing unit 200, an image 111 photographed with respect to a fixed vibration structure such as a pump 102 ) Is shown.

즉, 상기 촬영부(200)에서는, 상기 대상체(100)에 대한 연속 촬영을 통해, 상기 도 6a에 도시된 바와 같은 상기 펌프(102)에 대한 연속 촬영 이미지를 획득하게 된다. That is, the photographing unit 200 acquires a continuous photographing image of the pump 102 as shown in FIG. 6A through continuous photographing of the object 100.

이 경우, 상기 연속 촬영된 대상체(100)의 이미지들의 차이에 관한 도 6b를 참조하면, 상기 펌프(102)는 전체 구조물이 전체적으로 진동이 수행되고 있으므로, 진동이 수행되는 각 부분이나 요소들이 상기 이미지 차이에서 현출되는 것을 확인할 수 있다. In this case, referring to FIG. 6B regarding the difference between the images of the object 100 photographed continuously, the pump 102 is vibrating as a whole, so each part or element on which the vibration is performed is You can see that it emerges from the difference.

이상과 같이, 상기 학습부(500)에서는, 이러한 2개의 연속 이미지들이 가지는 이미지 원본 자체의 차이점을 중심으로 학습을 수행하는 것으로, 후술하겠으나, 상기 연속 이미지들이 가지는 차이점, 즉 이미지 차이에서 현출되는 대상체의 차이가 소정의 범위 이내에 속하는지의 여부를 바탕으로 정상 상태 또는 비정상 상태의 여부를 학습하게 된다. As described above, the learning unit 500 performs learning based on the difference between the original image itself of these two consecutive images, which will be described later, but the difference between the consecutive images, that is, the object manifested from the image difference Based on whether the difference between is within a predetermined range, it is learned whether there is a normal state or an abnormal state.

한편, 상기 촬영부(200)는, 상기 학습부(500)에서의 학습의 종류에 따라, 고정된 위치 및 각도에서 상기 대상체(100)를 촬영할 수도 있으며, 위치 또는 각도가 변화되면서 상기 대상체(100)를 촬영할 수도 있다. On the other hand, the photographing unit 200 may photograph the object 100 at a fixed position and angle according to the type of learning in the learning unit 500. As the position or angle changes, the object 100 ) Can also be taken.

즉, 후술되는 상기 학습부(500)는, 소위, 합성곱신경망(convolution neural network, CNN)을 이용하여 상기 촬영부(200)에서 촬영된 연속 촬영 이미지들에 대한 학습을 수행하는데, 2차원 CNN으로 학습하거나, 이와 달리 복수의 프레임을 이용한 2차원 CNN 또는 3차원 CNN으로 학습할 수 있다. That is, the learning unit 500 to be described later performs learning on the continuous photographed images captured by the photographing unit 200 using a so-called convolution neural network (CNN), which is a two-dimensional CNN. Alternatively, it can be learned with a two-dimensional CNN or a three-dimensional CNN using a plurality of frames.

상기 학습부(500)가 2차원 CNN으로 학습을 수행하는 경우, 상기 학습부(500)는, 촬영된 이미지들의 공간상의 특징(feature)을 추출하여 학습을 수행하는 것으로, 촬영된 이미지들의 공간이 동일하게 유지되어야 한다. When the learning unit 500 performs learning by using a 2D CNN, the learning unit 500 performs learning by extracting spatial features of the captured images, and the space of the captured images is It should remain the same.

이에, 상기 학습부(500)가 2차원 CNN으로 학습을 수행하는 경우라면, 상기 촬영부(200)는, 위치 및 각도가 변화하지 않은 고정된 위치 및 각도에서 상기 대상체(100)에 대한 연속 촬영을 수행하여야 하며, 이렇게 촬영된 연속 이미지들을 상기 선택부(400)로 제공하게 된다. Accordingly, if the learning unit 500 performs learning using a 2D CNN, the photographing unit 200 continuously photographs the object 100 at a fixed position and angle where the position and angle are not changed. Is to be performed, and the continuous images captured in this way are provided to the selection unit 400.

이와 달리, 상기 학습부(500)가 복수의 프레임을 이용한 2차원 CNN 또는 3차원 CNN으로 학습을 수행하는 경우라면, 상기 학습부(500)는 촬영된 이미지들의 시간 및 주파수에 대한 특징(feature)을 추출하여 이를 분류하고, 학습을 수행하는 것으로, 촬영된 이미지들의 공간이 동일하게 유지될 필요는 없다. On the contrary, if the learning unit 500 performs learning using a two-dimensional CNN or a three-dimensional CNN using a plurality of frames, the learning unit 500 features time and frequency characteristics of the captured images. By extracting and classifying them, and performing learning, the space of the captured images does not need to be kept the same.

이에, 상기 학습부(500)가 복수의 프레임을 이용한 2차원 CNN 또는 3차원 CNN으로 학습을 수행하는 경우라면, 상기 촬영부(200)는 위치 또는 각도가 변화하면서 상기 대상체(100)에 대한 연속 촬영을 수행할 수 있으며, 이렇게 촬영된 연속 이미지들을 상기 선택부(400)로 제공하게 된다. Thus, if the learning unit 500 performs learning using a two-dimensional CNN or a three-dimensional CNN using a plurality of frames, the photographing unit 200 continuously moves the object 100 while the position or angle is changed. Capturing can be performed, and continuous images captured in this way are provided to the selection unit 400.

상기 정보 입력부(300)는 상기 학습부(500)에서 상기 합성곱신경망을 활용하여 학습을 수행하는 경우, 2차원 CNN으로 학습할 것인지, 이와 달리 복수의 프레임을 이용한 2차원 CNN 또는 3차원 CNN으로 학습할 것인지에 대한 정보를 상기 촬영부(200)로 제공한다. When the learning unit 500 performs learning using the convolutional neural network, the information input unit 300 determines whether to learn with a two-dimensional CNN, or otherwise, a two-dimensional CNN or a three-dimensional CNN using a plurality of frames. Information on whether to learn is provided to the photographing unit 200.

그리하여, 상기 촬영부(200)에서는, 상기 정보 입력부(300)에서 제공되는 상기 학습부(500)에서의 학습 수행의 형태에 대한 정보를 제공받고, 이를 바탕으로 상기 대상체(100)에 대한 촬영의 방법, 즉 고정된 위치 및 각도에서 촬영을 수행할 것인지, 위치 또는 각도를 변화시켜가면서 촬영을 수행할 것인지를 선택한다. Thus, the photographing unit 200 receives information on the type of learning performed by the learning unit 500 provided from the information input unit 300, and based on this, the photographing of the object 100 is performed. Select a method, that is, whether to perform photographing at a fixed position and angle, or to perform photographing while changing the position or angle.

이와 달리, 상기 정보 입력부(300)에서 상기 학습부(500)에서의 학습 수행의 형태에 관한 정보를 제공받지 않고, 상기 촬영부(200)에서 상기 정보 입력부(300)로 촬영의 방법에 대한 정보를 제공할 수도 있다. In contrast, the information input unit 300 does not receive information on the type of learning performed by the learning unit 500, and information on a method of photographing from the photographing unit 200 to the information input unit 300 You can also provide

즉, 상기 촬영부(200)가 위치 및 각도를 고정한 상태에서만 상기 대상체(100)에 대한 촬영을 수행할 수 있다면, 상기 정보 입력부(300)에 해당 정보를 제공하고, 이를 상기 학습부(500)에서 활용하여, 상기 학습부(500)에서는 2차원 CNN으로 학습을 수행할 수 있다. That is, if the photographing unit 200 can perform photographing of the object 100 only when the position and angle are fixed, corresponding information is provided to the information input unit 300 and the learning unit 500 By utilizing in, the learning unit 500 may perform learning with a 2D CNN.

마찬가지로, 상기 촬영부(200)가 위치 또는 각도를 고정하지 않은 상태에서도 상기 대상체(100)에 대한 촬영을 수행할 수 있다면, 상기 정보 입력부(300)에 해당 정보를 제공하고, 이를 상기 학습부(500)에서 활용하여, 상기 학습부(500)에서는 복수의 프레임을 이용한 2차원 CNN 또는 3차원 CNN으로 학습 학습을 수행할 수 있다. Similarly, if the photographing unit 200 can perform photographing of the object 100 even when the position or angle is not fixed, corresponding information is provided to the information input unit 300 and the learning unit ( 500), the learning unit 500 may perform learning and learning using a 2D CNN or a 3D CNN using a plurality of frames.

이상과 같이, 상기 촬영부(200)에서 상기 대상체(100)에 대한 이미지를 연속으로 촬영하여, 상기 촬영된 이미지들을 상기 선택부(400)로 제공한다. As described above, the photographing unit 200 continuously photographs images of the object 100 and provides the photographed images to the selection unit 400.

상기 선택부(400)는 선행 분류부(410) 및 판단 기준 입력부(420)를 포함한다. The selection unit 400 includes a prior classification unit 410 and a determination criterion input unit 420.

상기 선행 분류부(410)는, 상기 촬영부(200)에 의해 연속으로 촬영된 상기 대상체(100)에 대한 연속 이미지들 중에서, 학습의 대상이 되는 이미지들을 선택하여, 이를 상기 학습부(500)로 제공한다. The preceding classification unit 410 selects images to be learned from among consecutive images of the object 100 continuously photographed by the photographing unit 200, and the learning unit 500 Provided as

이 경우, 상기 촬영된 이미지는 일정한 시간 간격으로 촬영된 연속되는 이미지들이므로, 상기 선행 분류부(410)에서는, 소정 구간의 시간을 선택하여, 선택되는 구간에서 촬영된 연속 이미지들을 학습의 대상이 되는 이미지들로 선택하여 상기 학습부(500)로 제공한다. In this case, since the photographed images are consecutive images photographed at regular time intervals, the preceding classification unit 410 selects a time of a predetermined interval, and the continuous images photographed in the selected interval are subject to learning. Selected images are selected and provided to the learning unit 500.

상기 선행 분류부(410)에서 선택하는 구간은 사용자의 선택에 따라 다양하게 설정될 수 있으나, 상기 학습부(500)에서 학습을 수행하기 위한 최소한의 구간으로 설정되어야 한다. The section selected by the preceding classification unit 410 may be set in various ways according to the user's selection, but must be set as a minimum section for the learning unit 500 to perform learning.

한편, 상기 선행 분류부(410)에서 선택된 구간 외에, 구간에서의 촬영된 이미지들은, 상기 판단부(600)로 제공된다. Meanwhile, images photographed in the section other than the section selected by the preceding classification unit 410 are provided to the determination unit 600.

즉, 본 실시예의 경우, 상기 대상체(100)에 대한 연속 촬영된 이미지들 중에서 소정 구간의 이미지들은 상기 학습부(500)에서의 학습의 대상이 되며, 상기 학습의 대상으로 선택되지 않은 구간의 이미지들은 상기 판단부(600)로 제공되어, 최종적으로 상기 대상체(100)의 진동 등의 상태가 정상인지 비정상인지의 판단의 자료가 된다. That is, in the case of the present embodiment, images of a predetermined section among consecutively photographed images of the object 100 are subject to learning by the learning unit 500, and an image of a section that is not selected as an object of learning. Are provided to the determination unit 600, and finally become data for determining whether a state such as vibration of the object 100 is normal or abnormal.

이상과 같이, 상기 촬영부(200)에서 촬영된 연속 이미지들에 대하여, 임의의 구간을 선택하여 학습을 수행하고, 나머지 구간에 대하여 대상체의 상태를 판단함으로써, 별도의 학습을 위한 데이터의 준비를 생략할 수 있어, 상기 대상체에 대한 모니터링을 연속으로 수행하면서 학습과 상태 판단을 실시간으로 수행할 수 있어, 기계 진단시스템의 사용성 및 활용성이 향상될 수 있다. As described above, by selecting an arbitrary section for continuous images photographed by the photographing unit 200 and performing learning, and determining the state of the object for the remaining sections, preparation of data for separate learning is performed. Since it can be omitted, learning and status determination can be performed in real time while continuously monitoring the object, so that the usability and utility of the machine diagnosis system can be improved.

이와 달리, 상기 촬영부(200)에서는, 상기 학습부(500)에서의 학습의 대상이 되는 이미지들을 별도로 촬영하여 상기 학습부(500)로 제공할 수 있으며, 상기 판단부(600)에서의 판단의 대상이 되는 이미지들을 별도로 촬영하여 상기 판단부(600)로 제공할 수도 있다. In contrast, in the photographing unit 200, images subject to learning in the learning unit 500 may be separately photographed and provided to the learning unit 500, and the determination unit 600 determines Images that are the target of may be separately photographed and provided to the determination unit 600.

상기 판단기준 입력부(420)는, 상기 대상체(100)의 정상 상태 또는 비정상 상태에 대한 판단 기준을 제공하는 것으로, 사용자에 의해 기준이 설정되어 제공될 수 있다. The determination criterion input unit 420 provides a criterion for determining a normal state or an abnormal state of the object 100, and a criterion may be set and provided by a user.

이와 달리, 도시하지는 않았으나, 상기 판단기준 입력부(420)는, 별도의 데이터베이스 등을 통해 기 판단된 대상체의 종류, 및 해당 대상체에서의 진동에 의해 위험이 발생하는 기준에 관한 정보를 바탕으로, 상기 대상체(100)의 정상 상태 또는 비정상 상태에 대한 판단 기준을 스스로 설정할 수도 있다. Unlike this, although not shown, the determination criterion input unit 420, based on information on the type of an object previously determined through a separate database, and a criterion in which risk occurs due to vibration in the object, the A criterion for determining a normal state or an abnormal state of the object 100 may be set by itself.

상기 대상체(100)가 앞서 예시한 바와 같이, 고정된 상태에서 진동하는 진동 구조물인 경우라면, 상기 판단기준 입력부(420)로 제공되거나 상기 판단기준 입력부(420)에서 설정하는 판단 기준은, 상기 진동 구조물의 진동 범위에 대한 임계값(threshold)일 수 있다. If the object 100 is a vibration structure that vibrates in a fixed state as illustrated above, the determination criterion provided to the determination criterion input unit 420 or set by the determination criterion input unit 420 is the vibration It may be a threshold for the vibration range of the structure.

즉, 상기 진동 구조물의 진동 범위의 임계값을 기준으로, 상기 임계값을 초과하는 경우, 상기 대상체(100)는 비정상 상태에 해당되고, 상기 임계값의 범위 내에서 진동하는 경우 상기 대상체(100)는 정상 상태에 해당되는 것으로, 이러한 임계값에 대한 정보를 상기 학습부(500)로 제공하게 된다. That is, based on the threshold value of the vibration range of the vibration structure, if the threshold value is exceeded, the object 100 corresponds to an abnormal state, and if the object 100 vibrates within the threshold value, the object 100 Is corresponding to the normal state, and provides information on such a threshold to the learning unit 500.

상기 학습부(500)는 상기 촬영부(200)에서 촬영된 연속되는 이미지들 중, 상기 선행 분류부(410)에서 선택된 소정 구간의 연속 이미지들에 대하여, 상기 판단기준을 바탕으로 상기 대상체(100)의 상태에 대하여 학습을 수행한다. The learning unit 500 selects the object 100 based on the determination criterion with respect to consecutive images of a predetermined section selected by the preceding classification unit 410 among consecutive images captured by the photographing unit 200. ) To perform learning.

이 경우, 상기 선행 분류부(410)를 통해서는, 소정 구간의 연속 이미지들이 제공될 수도 있으며, 앞서 설명한 바와 같이, 학습을 위해 별도로 촬영된 연속 이미지들이 상기 학습부(500)로 제공될 수도 있다. In this case, through the preceding classification unit 410, consecutive images of a predetermined section may be provided, and as described above, consecutive images separately photographed for learning may be provided to the learning unit 500. .

상기 학습부(500)는, 상기 제공되는 연속 촬영된 이미지들에 대하여, 학습을 수행하는데, 이 경우 학습 수행의 방법은, 앞서 설명한 바와 같은, 합성곱신경망을 이용하게 된다. The learning unit 500 performs learning on the provided consecutively photographed images. In this case, the learning performance method uses a convolutional neural network as described above.

즉, 상기 학습부(500)는, 상기 제공되는 판단 기준, 예를 들어, 진동 범위에 대한 임계값을 바탕으로, 상기 연속 촬영된 이미지들을 바탕으로 상기 대상체(100)가 정상 상태에 해당되는지, 또는 비정상 상태에 해당되는지를 학습하게 된다. That is, the learning unit 500, based on the provided determination criterion, for example, a threshold value for a vibration range, whether the object 100 corresponds to a normal state based on the continuously photographed images, Or, they learn whether they fall into an abnormal state.

상기 학습부(500)의 학습의 방법과 관련하여, 상기 학습부(500)는 신경망을 이용한 학습을 수행하는 것으로 구체적인 내부 학습 알고리즘을 도식화한 것은 도 4a 및 도 4b와 같다. Regarding the learning method of the learning unit 500, the learning unit 500 performs learning using a neural network, and a detailed internal learning algorithm is schematically illustrated in FIGS. 4A and 4B.

즉, 본 실시예에서의 상기 학습부(500)에서는, 신경망을 이용한 학습을 수행함에 있어, 도 4a에 도시된 바와 같이, 복수의 연속된 대상체(100)에 대한 이미지들을 제공받으면, 이를 바탕으로 이미지의 크기를 변환하면서 복수의 신경망 회로를 수행하여 상기 대상체(100)의 상태에 대하여 정상 상태인지 비정상 상태인지를 분류하여 학습을 수행하게 된다. That is, in the learning unit 500 in the present embodiment, in performing learning using a neural network, as shown in FIG. 4A, when images for a plurality of consecutive objects 100 are provided, based on this, While changing the size of the image, a plurality of neural network circuits are performed to classify whether the state of the object 100 is in a normal state or an abnormal state to perform learning.

이러한 상기 학습부(500)의 학습의 수행을 통해, 도 4b에 도시된 바와 같이, 상기 대상체(100)에 대한 이미지는 차츰 구체화되도록 학습되어, 상기 대상체(100)의 전체적인 형상에 대한 학습이 수행될 수 있으며, 이를 바탕으로 상기 대상체(100)의 상태에 대한 판단을 수행할 수 있을 정도로 학습을 수행하게 된다. Through the learning performed by the learning unit 500, as shown in FIG. 4B, the image of the object 100 is gradually learned to be concrete, so that the learning of the overall shape of the object 100 is performed. Based on this, learning is performed to the extent that it is possible to judge the state of the object 100.

한편, 본 실시예의 경우, 상기 학습부(500)는 원본 이미지들을 바탕으로 대상체의 진동 상태를 학습하는 것으로, 앞서 설명한 바와 같이, 연속 촬영된 2개의 연속 이미지들을 서로 비교하여, 상기 진동 구조물이 진동함으로써 이미지들의 차이가 발생하는 부분을 확인함으로써 학습을 수행할 수 있다. Meanwhile, in the case of the present embodiment, the learning unit 500 learns the vibration state of the object based on the original images. As described above, by comparing two consecutive images taken continuously, the vibration structure is vibrated. By doing so, learning can be performed by checking the part where the difference between the images occurs.

즉, 상기 이미지들의 차이를 통해, 상기 학습부(500)는 이렇게 차이나는 부분의 진동의 범위가 상기 제공된 판단 기준인 임계값의 범위 이내에 속하는가의 여부를 학습할 수 있다. That is, through the difference between the images, the learning unit 500 may learn whether or not the range of the vibration of such a difference is within the range of the threshold value that is the provided criterion.

정상상태 학습부(510)에서는, 상기 연속 촬영된 이미지들의 차이가 상기 임계값의 범위 이내에 속하는 이미지들을 학습하여, 상기 대상체(100)의 정상 상태에 대한 학습을 수행할 수 있다. The steady state learning unit 510 may learn images in which a difference between the consecutively photographed images falls within a range of the threshold value, and learn about the normal state of the object 100.

마찬가지로, 비정상상태 학습부(520)에서는, 상기 연속 촬영된 이미지들의 차이가 상기 임계값의 범위를 벗어나는 이미지들을 학습하여, 상기 대상체(100)의 비정상 상태에 대한 학습을 수행할 수 있다. Likewise, the abnormal state learning unit 520 may learn images in which the difference between the consecutively photographed images exceeds the range of the threshold value to perform learning on the abnormal state of the object 100.

한편, 상기 학습부(500)는 2차원 CNN으로 학습하거나, 이와 달리, 복수 프레임을 이용한 2차원 CNN 또는 3차원 CNN으로 학습할 수 있음을 설명하였다. On the other hand, it has been described that the learning unit 500 can learn with a 2D CNN, or otherwise, learn with a 2D CNN or a 3D CNN using multiple frames.

즉, 도 2를 참조하면, 상기 학습부(500)에서 2차원 CNN으로 학습을 수행하는 경우, 상기 촬영부(200)는 고정된 위치 및 각도에서 상기 대상체(100)에 대한 이미지(110)를 연속으로 촬영하게 되며, 이렇게 촬영된 연속 이미지들(110)을 통해 상기 학습부(500)는, 앞서 설명한 바와 같은 학습을 수행하여, 후술되는 판단부(600)를 통한 상기 대상체(100)의 상태 판단을 수행할 수 있다. That is, referring to FIG. 2, when the learning unit 500 performs learning with a 2D CNN, the photographing unit 200 captures an image 110 of the object 100 at a fixed position and angle. The learning unit 500 is continuously photographed, and the learning unit 500 performs learning as described above through the continuous images 110 photographed in this way, and the state of the object 100 through the determination unit 600 to be described later. Judgment can be carried out.

이러한 2차원 CNN으로 학습을 수행하는 경우, 상기 학습부(500)는 상기 촬영된 이미지의 공간상의 특징을 추출하여 학습을 수행하는 것으로, 이를 위해 상기 위치 및 각도는 고정되어야 한다. When learning is performed with such a two-dimensional CNN, the learning unit 500 performs learning by extracting spatial features of the captured image, and for this purpose, the position and angle must be fixed.

이 경우, 상태 판단의 대상이 되는 상기 대상체(100)의 이미지들 역시, 고정된 위치 및 각도에서 촬영된 이미지들이다. In this case, the images of the object 100 that are the object of the state determination are also images captured at a fixed position and angle.

이와 달리, 도 3a를 참조하면, 상기 학습부(500)에서 복수의 프레임을 이용한 2차원 CNN으로 학습을 수행하는 경우, 상기 촬영부(200)는 다양한 위치 또는 각도에 해당되는 복수의 프레임(frame) 상에서 상기 대상체(100)에 대한 이미지(120)를 연속으로 촬영하게 되며, 이렇게 촬영된 연속 이미지들(120)을 통해 상기 학습부(500)는, 앞서 설명한 바와 같은 학습을 수행하여, 후술되는 판단부(600)를 통한 상기 대상체(100)의 상태 판단을 수행할 수 있다. In contrast, referring to FIG. 3A, when the learning unit 500 performs learning with a 2D CNN using a plurality of frames, the photographing unit 200 includes a plurality of frames corresponding to various positions or angles. ), the image 120 of the object 100 is continuously photographed, and the learning unit 500, through the continuous images 120 photographed in this way, performs learning as described above, and will be described later. The determination unit 600 may determine the state of the object 100.

이 경우, 상태 판단의 대상이 되는 상기 대상체(100)의 이미지들 역시, 다양한 위치 또는 각도에 해당되는 복수의 프레임(frame) 상에서 촬영된 이미지들이다. In this case, the images of the object 100 that are the object of the state determination are also images captured on a plurality of frames corresponding to various positions or angles.

나아가, 도 3b를 참조하면, 상기 학습부(500)에서 3차원 CNN으로 학습을 수행하는 경우, 상기 촬영부(200)는 3차원 공간상의 다양한 위치 또는 각도에서 상기 대상체(100)에 대한 이미지(130)를 연속으로 촬영하게 되며, 이렇게 촬영된 연속 이미지들(130)을 통해 상기 학습부(500)는, 앞서 설명한 바와 같은 학습을 수행하여, 후술되는 판단부(600)를 통한 상기 대상체(100)의 상태 판단을 수행할 수 있다. Furthermore, referring to FIG. 3B, when the learning unit 500 performs learning with a 3D CNN, the photographing unit 200 includes images of the object 100 at various positions or angles in the 3D space ( 130) is continuously photographed, and the learning unit 500 performs learning as described above through the continuous images 130 photographed in this way, and the object 100 through the determination unit 600 to be described later. ) Can be performed.

이 경우, 상태 판단의 대상이 되는 상기 대상체(100)의 이미지들 역시, 3차원 공간상의 다양한 위치 또는 각도에서 촬영된 이미지들이다. In this case, the images of the object 100, which are the object of the state determination, are also images photographed at various positions or angles in the 3D space.

이러한 복수의 프레임을 이용한 2차원 CNN 또는 3차원 CNN으로 학습을 수행하는 경우, 상기 학습부(500)는 상기 촬영된 이미지의 시간 또는 주파수에 대한 특징을 추출하여 학습을 수행하는 것으로, 촬영된 이미지들의 위치 또는 각도는 다양하게 가변되어도 무방하게 된다. When learning is performed using a two-dimensional CNN or a three-dimensional CNN using a plurality of frames, the learning unit 500 performs learning by extracting a time or frequency feature of the photographed image. Their position or angle can be varied in various ways.

상기 판단부(600)는, 상기 학습부(500)에서의 학습된 결과를 이용하여, 상기 선행 분류부(410)를 통해 선택되어 제공된 상기 대상체(100)에 대한 연속 이미지들로부터 상기 대상체(100)의 상태를 판단하게 된다. The determination unit 600 uses the result learned by the learning unit 500 to determine the object 100 from consecutive images of the object 100 selected and provided through the preceding classification unit 410. ).

구체적으로, 상기 판단부(600)는 제1 판단부(610) 및 제2 판단부(620)를 포함하는데, 상기 제1 판단부(610)는 상기 고정된 위치 및 각도에서 연속 촬영된 상기 대상체(100)에 대한 이미지들을 바탕으로 상기 대상체(100)의 정상 상태 또는 비정상 상태를 판단하며, 상기 제2 판단부(620)는 상기 위치 또는 각도와 무관하게 시간에 따라 연속 촬영된 상기 대상체(100)에 대한 이미지들을 바탕으로 상기 대상체(100)의 정상 상태 또는 비정상 상태를 판단한다. Specifically, the determination unit 600 includes a first determination unit 610 and a second determination unit 620, wherein the first determination unit 610 is the object continuously photographed at the fixed position and angle. A normal state or an abnormal state of the object 100 is determined based on the images of 100, and the second determination unit 620 determines the object 100 continuously photographed over time, regardless of the position or angle. A normal state or an abnormal state of the object 100 is determined based on the images of ).

즉, 상기 학습부(500)가 2차원 CNN을 통해 학습하는 경우, 상기 제1 판단부(610)에서 상기 학습된 결과를 바탕으로, 상기 대상체(100)의 정상 상태 또는 비정상 상태를 판단하며, 상기 학습부(500)가 복수 프레임을 이용한 2차원 CNN 또는 3차원 CNN을 통해 학습하는 경우, 상기 제2 판단부(620)에서 상기 학습된 결과를 바탕으로, 상기 대상체(100)의 정상 상태 또는 비정상 상태를 판단한다. That is, when the learning unit 500 learns through a 2D CNN, the first determination unit 610 determines a normal state or an abnormal state of the object 100 based on the learned result, When the learning unit 500 learns through a two-dimensional CNN or a three-dimensional CNN using a plurality of frames, based on the learned result in the second determination unit 620, the normal state of the object 100 or Determine the abnormal state.

물론, 본 실시예에서는, 상기 판단부(600)가 상기 제1 판단부(610) 및 제2 판단부(620)로 구분되어, 학습 방법에 따라 판단의 주체가 변경되는 것을 예시하여 설명하였으나, 상기 판단부(600)는 상기와 같이 구분되지 않고 하나의 판단부에서 학습 방법을 고려하여 상기 대상체(100)의 정상 상태 또는 비정상 상태를 판단할 수 있다. Of course, in the present embodiment, the determination unit 600 is divided into the first determination unit 610 and the second determination unit 620, and the subject of the determination is changed according to the learning method. The determination unit 600 may determine a normal state or an abnormal state of the object 100 in consideration of a learning method in one determination unit without being classified as described above.

한편, 본 실시예에서는, 상기 판단부(600)는 상기 학습부(500)와는 별개의 구성으로서, 상기 학습부(500)에서 학습된 결과를 바탕으로 상기 판단부(600)에서 상기 대상체(100)의 상태를 판단하는 것으로 설명하였으나, 상기 판단부(600)는 상기 학습부(500)와 일체로 형성되는 것으로, 상기 학습부(500)가 학습의 수행과 함께 제공되는 이미지들을 바탕으로 상기 대상체(100)의 상태를 판단하는 기능을 동시에 수행할 수도 있다. Meanwhile, in the present embodiment, the determination unit 600 is a separate configuration from the learning unit 500, and the determination unit 600 determines the object 100 based on the result learned by the learning unit 500. ), but the determination unit 600 is formed integrally with the learning unit 500, and the object is based on images provided with the learning unit 500 The function of determining the state of (100) may be performed at the same time.

도 7은 도 6a의 촬영된 이미지들에 대하여, 주파수를 분석한 예를 도시한 그래프들이고, 도 8은 도 7의 분석된 각각의 예에 대하여 도 1의 판단부에서 판단 결과를 도시한 그래프이다. 7 is a graph showing an example of analyzing the frequency of the captured images of FIG. 6A, and FIG. 8 is a graph showing the determination result by the determination unit of FIG. 1 for each analyzed example of FIG. 7. .

이는, 본 실시예에서의 상기 기계 진단시스템(10)을 통한 기계 진단의 정확성을 검증하기 위한 실험 결과에 대한 그래프들이다. These are graphs of experimental results for verifying the accuracy of machine diagnosis through the machine diagnosis system 10 in this embodiment.

즉, 도 7 및 도 8은, 도 6a를 참조하여 설명한, 상기 대상체(100)가 펌프(102)와 같은 고정된 진동 구조물인 경우, 상기 펌프(102)의 진동 상태에 관하여 9개의 서로 다른 진동 상태에 대한 이미지들(이 경우, 이미지들은 고정된 위치 및 각도의 촬영부에서 촬영된 이미지들임)을 바탕으로 상기 학습부(500)에서 학습을 수행하고, 상기 판단부(600)에서 상기 펌프(102)의 진동 상태가 정상 상태인지 또는 비정상 상태인지의 여부를 판단한 결과를 도시한 것이다. That is, FIGS. 7 and 8 show nine different vibrations with respect to the vibration state of the pump 102 when the object 100 is a fixed vibration structure such as the pump 102 as described with reference to FIG. 6A. The learning unit 500 performs learning based on images of the state (in this case, the images are images taken by the photographing unit at a fixed position and angle), and the pump (in this case, the determination unit 600) The result of determining whether the vibration state of 102) is a normal state or an abnormal state is shown.

다만, 상기 판단부(600)에서의 판단의 정확성을 평가하기 위해, 상기 9개의 서로 다른 진동 상태에 대한 이미지들에 대하여 별도의 주파수 분석을 수행하였다. However, in order to evaluate the accuracy of the determination by the determination unit 600, a separate frequency analysis was performed on the images for the nine different vibration states.

즉, 도 7을 참조하면, 실제 상기 펌프(102)의 9가지의 서로 다른 진동 상태에 대한 주파수 분석의 결과, Case 1 및 Case 9 만이 소정의 범위, 즉 앞서 설명한 임계값의 범위 이내에 속하는 정상상태인 것으로 파악되었으며, 나머지 Case 2 내지 Case 8은 상기 임계값의 범위를 벗어나는 것으로 분석되었다. That is, referring to FIG. 7, as a result of frequency analysis for 9 different vibration states of the pump 102, only Case 1 and Case 9 are in a predetermined range, that is, a steady state that falls within the range of the threshold value described above. It was found to be, and the remaining Cases 2 to 8 were analyzed to be out of the range of the threshold value.

이러한 주파수 분석 결과와, 본 실시예에 의한 기계 진단시스템(10)을 이용한 상기 펌프(102)의 진동 상태에 대한 학습 및 진동 상태에 대한 판단의 결과를, 비교하건대, 도 8에 도시된 바와 같이, 상기 판단부(600)에서는 Case 1 및 Case 2에 대하여는 정상 상태인 것으로 판단하였고, Case 2 내지 Case 8은 비정상 상태인 것으로 판단하였다. This frequency analysis result and the result of learning about the vibration state of the pump 102 using the machine diagnosis system 10 according to the present embodiment and the determination of the vibration state are compared, as shown in FIG. , The determination unit 600 determined that Case 1 and Case 2 were in a normal state, and Case 2 to Case 8 determined that it was an abnormal state.

이상과 같이, 상기 펌프(102)의 9가지의 서로 다른 진동 상태에 대한 이미지들을 바탕으로 상기 기계 진단시스템(10)에서는 주파수 분석의 결과와 동일하게 진동 상태에 대하여 판단을 수행하였다. As described above, based on images of nine different vibration states of the pump 102, the machine diagnostic system 10 judged the vibration state in the same manner as the frequency analysis result.

[표 1] 기계 진단시스템을 이용한 진단 정확도 수행 결과[Table 1] Diagnosis accuracy results using a machine diagnosis system

Figure pat00001
Figure pat00001

또한, 상기 [표 1]은 초당 프레임(frame per second, fps) 120이고, 1개의 이미지 데이터는 1080*1920*3인 이미지를 사용하여 학습 및 테스트를 수행한 결과이다. In addition, [Table 1] is a result of training and testing using an image of 120 frames per second (fps), and one image data is 1080*1920*3.

상기 [표 1]을 통해 확인되는 바와 같이, 본 실시예의 상기 기계 진단시스템(10)을 이용하여 학습을 수행하고, 이를 바탕으로 펌프(102)와 같은 진동 구조물에 대한 진동 상태에 대한 진단을 수행하였을 때, 진동 상태가 정상 상태인지 비정상 상태인지의 여부에 대한 진단 정확도는 오차 없이 모두 100%임을 확인할 수 있다. As confirmed through [Table 1], learning is performed using the machine diagnosis system 10 of the present embodiment, and based on this, a diagnosis of the vibration state of a vibration structure such as the pump 102 is performed. When doing so, it can be confirmed that the diagnosis accuracy of whether the vibration state is a normal state or an abnormal state is 100% without error.

이하에서는, 도 1을 참조하여 설명한 기계 진단시스템(10)을 이용한 기계 진단 방법을 도면을 참조하여 설명한다. 또한, 이하에서 설명하는 기계 진단방법에서는, 상기 기계 진단시스템(10)의 각 구성요소들의 구성이나 기능은 실질적으로 동일하므로, 진단단계를 중심으로 설명하되, 기 설명된 동일한 구성요소의 구성이나 기능에 대하여는 중복되는 설명은 생략한다. Hereinafter, a machine diagnosis method using the machine diagnosis system 10 described with reference to FIG. 1 will be described with reference to the drawings. In addition, in the machine diagnosis method to be described below, since the configuration or function of each component of the machine diagnosis system 10 is substantially the same, the description will focus on the diagnosis step, but the configuration or function of the same component as previously described. A redundant description of is omitted.

도 9는 도 1의 기계 진단시스템을 이용한 기계 진단방법을 도시한 흐름도이다. 9 is a flowchart illustrating a machine diagnosis method using the machine diagnosis system of FIG. 1.

도 9를 참조하면, 상기 기계 진단방법에서는, 우선, 상기 정보 입력부(300)에서 공간상의 특징에 대한 정보를 상기 촬영부(200)로 제공하여, 상기 촬영부(200)에서는 상기 공간상의 특징에 대한 정보를 입력받는다(단계 S10). Referring to FIG. 9, in the machine diagnosis method, first, the information input unit 300 provides information on spatial features to the photographing unit 200, and the photographing unit 200 provides information on the spatial characteristics. Information about is received (step S10).

이 경우, 상기 공간상의 특징이란, 상기 촬영부(200)에서 촬영되는 상기 대상체(100)가 위치하는 공간상의 특징으로서, 상기 학습부(500)가 2차원 합성곱신경망으로 학습할 지, 또는 복수 프레임을 이용한 2차원 합성곱신경망으로 학습하거나 3차원 합성곱신경망으로 학습할 지에 대한 정보에 해당된다. In this case, the spatial feature is a spatial feature in which the object 100 photographed by the photographing unit 200 is located, and whether the learning unit 500 learns with a two-dimensional convolutional neural network or a plurality of It corresponds to information on whether to learn with a 2D convolutional neural network using frames or a 3D convolutional neural network.

나아가, 실시예에 따라서는, 상기 정보 입력부(300)를 통해 상기 공간상의 특징에 대한 정보를 제공받지 않고, 상기 촬영부(200)가 촬영할 수 있는 상태, 즉 위치 및 각도가 고정된 상태에서만 촬영이 가능한지의 여부에 대한 정보를 역으로 상기 정보 입력부(300)로 제공할 수 있으며, 이렇게 제공된 공간상의 특징에 대한 정보는 상기 학습부(500)로 제공되어, 학습 수행 방법이 선택될 수 있음은 앞서 설명한 바와 같다. Further, depending on the embodiment, without being provided with information on the spatial characteristics through the information input unit 300, the photographing unit 200 can shoot only in a state in which the position and angle are fixed. Information on whether this is possible can be provided to the information input unit 300 in reverse, and the information on the spatial features provided as such is provided to the learning unit 500, so that a method of performing learning can be selected. As described above.

이 후, 상기 촬영부(200)는 상기 대상체(100)에 대한 이미지를 연속으로 촬영한다(단계 S20). Thereafter, the photographing unit 200 continuously photographs images of the object 100 (step S20).

이 경우, 상기 촬영부(200)는, 상기 학습부(500)가 2차원 합성곱신경망으로 학습하는 경우, 고정된 위치 및 각도에서 상기 대상체(100)를 촬영하여, 촬영된 이미지들을 상기 선택부(400)로 제공한다. In this case, when the learning unit 500 learns with a two-dimensional convolutional neural network, the photographing unit 200 photographs the object 100 at a fixed position and angle, and selects the photographed images. Provided at 400.

이와 달리, 상기 촬영부(200)는, 상기 학습부(500)가 2차원 합성곱신경망으로 학습하거나 3차원 합성곱신경망으로 학습하는 경우, 변화된 위치 또는 각도에서 상기 대상체(100)를 촬영하여, 촬영된 이미지들을 상기 선택부(400)로 제공한다. In contrast, when the learning unit 500 learns with a two-dimensional convolutional neural network or a three-dimensional convolutional neural network, the photographing unit 200 photographs the object 100 at a changed position or angle, The photographed images are provided to the selection unit 400.

이 후, 상기 선택부(400)의, 상기 판단기준 입력부(420)는 상기 대상체(100)의 판단 기준, 즉, 상기 대상체(100)의 진동 상태가 정상 상태에 해당되는지 또는 비정상 상태에 해당되는지에 대한 판단 기준을 제공 받는다(단계 S30). Thereafter, the determination criterion input unit 420 of the selection unit 400 determines whether the determination criterion of the object 100, that is, the vibration state of the object 100 corresponds to a normal state or an abnormal state. The criterion for determining is provided (step S30).

이 경우, 상기 제공받는 판단 기준은, 사용자의 입력에 의해 결정될 수 있으며, 별도의 데이터 베이스를 통해 판단되어 제공될 수 있다. In this case, the provided determination criterion may be determined by a user's input, and may be determined and provided through a separate database.

또한, 상기 판단 기준은, 예를 들어, 상기 대상체(100)가 고정된 상태에서 진동하는 진동 구조물인 경우라면, 상기 진동 구조물의 진동 범위에 대한 임계값(threshold)일 수 있다. In addition, the determination criterion may be, for example, a threshold for a vibration range of the vibration structure in the case of a vibration structure that vibrates while the object 100 is fixed.

이 후, 상기 선행 분류부(410)는, 상기 촬영부(200)로부터 제공되는 상기 대상체(100)에 대한 연속 촬영된 이미지들 중에서, 상기 학습부(500)에서 학습의 대상이 되는 소정 구간의 이미지들을 선택하여, 상기 학습부(500)로 제공한다(단계 S40). Thereafter, the preceding classification unit 410, among consecutively photographed images of the object 100 provided from the photographing unit 200, the predetermined section of the learning unit 500 Images are selected and provided to the learning unit 500 (step S40).

이 경우, 상기 선택되는 구간은, 상기 학습부(500)에서 학습을 수행하기 위한 정보가 최소한으로 포함되도록 설정될 수 있으며, 상기 연속 촬영된 이미지들 중에서, 상기 선행 분류부(410)에서 선택된 소정 구간의 이미지들을 제외한, 다른 구간의 이미지들은, 상기 판단부(600)로 제공된다(단계 S60). In this case, the selected section may be set to contain a minimum amount of information for performing learning in the learning unit 500, and among the consecutively photographed images, a predetermined section selected by the preceding classification unit 410 Images of other sections, excluding the images of sections, are provided to the determination unit 600 (step S60).

이와 달리, 상기 촬영부(200)에서는, 상기 학습부(500)에서의 학습을 수행하기 위한 연속 이미지들을, 별도로 촬영할 수 있으며, 이렇게 촬영된 연속 촬영 이미지들이 상기 학습부(500)로 제공될 수도 있다. In contrast, in the photographing unit 200, continuous images for performing learning in the learning unit 500 may be separately photographed, and the continuous photographed images taken in this way may be provided to the learning unit 500. have.

한편, 상기 촬영부(200)에서, 학습을 위한 이미지들을 별도로 촬영하여 학습부로 제공하는 경우라면, 상기 대상체(100)의 상태에 대한 판단을 위한 이미지들도 별도로 촬영되어, 상기 판단부(600)로 제공될 수 있다(단계 S60). Meanwhile, if the photographing unit 200 separately photographs images for learning and provides them to the learning unit, images for determining the state of the object 100 are also photographed separately, and the determination unit 600 It may be provided as (step S60).

한편, 상기 학습부(500)에서는, 상기 학습의 대상이 되는 연속 촬영 이미지들을 바탕으로 상기 대상체(100)의 상태가 정상 상태인지 비정상 상태인지에 대한 학습을 수행한다(단계 S50). On the other hand, the learning unit 500 learns whether the state of the object 100 is a normal state or an abnormal state based on the continuously photographed images to be learned (step S50).

이 경우, 상기 정상 상태 또는 비정상 상태의 학습의 기준은, 상기 판단기준 입력부(420)를 통해 입력된 판단 기준을 적용하게 된다. In this case, the criterion of learning in the normal state or the abnormal state is applied to the determination criterion input through the determination criterion input unit 420.

상기 학습부(500)에서는, 2차원 합성곱신경망으로 학습을 수행할 수 있으며, 이와 달리, 복수 프레임을 이용한 2차원 합성곱신경망으로 학습하거나 3차원 합성곱신경망으로 학습을 수행할 수 있다. The learning unit 500 may perform learning with a 2D convolutional neural network. Alternatively, learning may be performed with a 2D convolutional neural network using multiple frames or a 3D convolutional neural network.

이러한 학습부의 수행 방법은, 상기 촬영부(200)의 촬영이 고정된 위치 및 각도에서만 대상체에 대한 촬영을 수행할 수 있는가의 여부를 고려하여 선택될 수 있으며, 이와 달리, 상기 정보 입력부(300)를 통해 입력되는 상기 공간상의 특징에 대한 정보를 바탕으로 선택될 수도 있음은 앞서 설명한 바와 같다. This method of performing the learning unit may be selected in consideration of whether or not the photographing of the object can be performed only at a fixed position and angle in which the photographing of the photographing unit 200 is fixed. Unlike this, the information inputting unit 300 As described above, it may be selected based on the information on the spatial feature input through.

나아가, 상기 학습부(500)에서의, 합성곱신경망을 이용한 학습 수행 방법에 대하여도 앞서 설명한 바와 같다. Further, a method of performing learning using a convolutional neural network in the learning unit 500 is the same as described above.

그리하여, 상기 학습부(500)에서, 상기 대상체(100)의 진동 상태 등에 대하여 정상 상태인지 비정상 상태인지에 대한 학습 수행이 완료되면, 상기 판단부(600)에서는, 상기 대상체(100)에 대한 연속 촬영 이미지들을 제공받고(단계 S60), 상기 공간상의 특징을 바탕으로, 상기 연속 촬영된 이미지들로부터 상기 대상체(100)의 정상 상태 또는 비정상 상태를 판단한다(단계 S70). Thus, when the learning unit 500 completes learning whether the vibration state of the object 100 is in a normal state or an abnormal state, the determination unit 600 The photographed images are provided (step S60), and a normal state or an abnormal state of the object 100 is determined from the continuously photographed images based on the spatial feature (step S70).

이 경우, 상기 판단부(600)는 제1 판단부(610) 및 제2 판단부(620)를 포함하여, 상기 제1 판단부(610)에서는, 상기 학습부(500)가 2차원 합성곱신경망으로 학습을 수행하는 경우에 대하여, 고정된 위치 및 각도에서 연속 촬영된 상기 대상체(100)에 대한 이미지들을 바탕으로 상기 대상체(100)의 정상 상태 또는 비정상 상태를 판단한다. In this case, the determination unit 600 includes a first determination unit 610 and a second determination unit 620, and in the first determination unit 610, the learning unit 500 is In the case of performing learning using a neural network, a normal state or an abnormal state of the object 100 is determined based on images of the object 100 continuously photographed at a fixed position and angle.

이와 달리, 상기 제2 판단부(620)에서는, 상기 학습부(500)가 복수 프레임을 이용한 2차원 합성곱신경망 또는 3차원 합성곱신경망으로 학습을 수행하는 경우에 대하여, 위치 또는 각도와 무관하게 시간에 따라 연속 촬영된 상기 대상체(100)에 대한 이미지들을 바탕으로 상기 대상체(100)의 정상 상태 또는 비정상 상태를 판단하게 된다. In contrast, in the second determination unit 620, regardless of a position or angle, when the learning unit 500 performs learning using a two-dimensional convolutional neural network or a three-dimensional convolutional neural network using multiple frames. A normal state or an abnormal state of the object 100 is determined based on images of the object 100 continuously photographed over time.

이상과 같이, 상기 기계 진단방법을 통해서는, 고정된 상태에서 진동하는 펌프 등과 같은 진동 구조물에 대하여 연속 촬영되는 이미지의 원본을 바탕으로 상기 진동 구조물의 진동 상태에 대한 학습을 수행하고, 이를 바탕으로, 상기 진동 구조물이 정상 상태의 범위에서 진동하는지, 비정상 상태의 범위에서 진동하는지에 대한 판단을 수행할 수 있다. As described above, through the machine diagnosis method, learning about the vibration state of the vibrating structure is performed based on the original image of a vibrating structure such as a pump that vibrates in a fixed state, based on this. , It is possible to determine whether the vibrating structure vibrates in a range of a normal state or a range of an abnormal state.

상기와 같은 본 발명의 실시예들에 의하면, 움직이거나 진동하고 있는 기계 장치를 포함하는 동적 시스템에 대하여, 촬영부에 의해 촬영된 대상체에 대한 연속 촬영 이미지들에 대하여 별도의 영상 처리를 수행하지 않고, 원본 이미지들을 그대로 학습시켜 대상체의 상태, 즉 정상 상태 또는 비정상 상태에 대하여 판단을 수행할 수 있으므로, 상기 기계 장치를 포함하는 동적 시스템과 같은 대상체에 대한 진동을 빠르고 즉각적으로 처리할 수 있어, 상시 모니터링을 수행할 수 있으며, 사용성을 향상시킬 수 있다. According to the embodiments of the present invention as described above, for a dynamic system including a moving or vibrating mechanical device, a separate image processing is not performed on consecutive images of an object captured by the photographing unit. , As the original images can be learned as it is to determine the state of the object, that is, a normal state or an abnormal state, it is possible to quickly and immediately process the vibration of the object, such as a dynamic system including the mechanical device, Monitoring can be performed and usability can be improved.

즉, 별도의 원본 영상 처리가 불필요하므로, CCTV와 같은 범용 이미지 촬영 장치를 통해서도 움직이거나 진동하고 있는 기계 장치를 포함하는 동적 시스템과 같은 대상체에 대한 정상 상태의 여부를 실시간으로 모니터링할 수 있다. That is, since separate original image processing is not required, it is possible to monitor in real time whether an object is in a normal state, such as a dynamic system including a moving or vibrating mechanical device, even through a general-purpose image capturing device such as CCTV.

특히, 상기 학습을 합성곱신경망을 이용하여 수행하는 것으로, 고정된 상태에서 진동하는 진동 구조물에 대한 진동의 정상 상태 여부를 상기 신경망을 통해 학습을 수행하여 판단함으로써, 신경망 학습을 통한 진동 구조물의 진단을 정확하고 효과적으로 수행할 수 있다. In particular, the learning is performed using a convolutional neural network, and by performing learning through the neural network to determine whether the vibration of the vibrating structure vibrating in a fixed state is in a normal state, diagnosis of the vibrating structure through neural network learning Can be performed accurately and effectively.

한편, 상기 신경망을 통한 학습은, 2차원 또는 3차원 학습으로 구분되어 수행될 수 있으며, 특히 3차원 학습(또는, 복수 프레임을 이용한 2차원 학습)을 수행하는 경우, 촬영부의 위치나 각도와 무관하게 촬영된 이미지 원본을 통해 진동의 정상 상태 여부를 학습하여 이를 판단할 수 있으므로, 실제 기계 진단에 있어 다양한 위치에 설치되거나 이동되는 CCTV 등의 카메라를 이용한 실시간 모니터링을 수행할 수 있다. On the other hand, learning through the neural network may be divided into two-dimensional or three-dimensional learning, and in particular, when performing three-dimensional learning (or two-dimensional learning using multiple frames), it is irrelevant to the position or angle of the photographing unit. Since it can be determined by learning whether or not the vibration is in a normal state through the original image taken, real-time monitoring can be performed using cameras such as CCTV installed or moved in various locations for actual machine diagnosis.

또한, 연속 촬영되는 이미지들 중에서, 소정 구간의 이미지들은 학습을 위해 선택되어 학습이 수행되고, 상기 구간을 제외한 나머지 구간의 이미지들에 대하여는 상기 대상체의 상태를 판단하기 위해 제공될 수 있으므로, 학습을 위한 별도의 이미지 데이터들이 제공되지 않더라도, 현재의 대상체의 상태에 대한 연속적인 촬영이미지들에 대하여 학습 및 판단을 수행할 수 있어, 기계 진단의 효율성이 향상되고 실시간 모니터링이 가능하게 된다. In addition, among consecutively photographed images, images of a predetermined section are selected for learning and learning is performed, and images of the remaining sections other than the section may be provided to determine the state of the object. Even if separate image data is not provided, it is possible to learn and judge successive photographed images for the current state of the object, thereby improving the efficiency of machine diagnosis and enabling real-time monitoring.

상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although the above has been described with reference to preferred embodiments of the present invention, those skilled in the art will be able to variously modify and change the present invention without departing from the spirit and scope of the present invention described in the following claims. You will understand that you can

10 : 기계 진단시스템 100 : 대상체
200 : 촬영부 300 : 정보 입력부
400 : 선택부 410 : 선행 분류부
420 : 판단기준 입력부 500 : 학습부
510 : 정상상태 학습부 520 : 비정상상태 학습부
600 : 판단부 610 : 제1 판단부
620 : 제2 판단부
10: mechanical diagnosis system 100: object
200: photographing unit 300: information input unit
400: selection unit 410: preceding classification unit
420: judgment criteria input unit 500: learning unit
510: steady state learning unit 520: abnormal state learning unit
600: judgment unit 610: first judgment unit
620: second judgment unit

Claims (12)

대상체에 대한 이미지를 연속으로 촬영하는 촬영부;
상기 연속 촬영된 이미지들 중에서 학습의 대상이 되는 소정 구간의 이미지들을 선택하는 선행 분류부, 및 상기 대상체의 정상 상태 또는 비정상 상태에 대한 판단 기준을 제공하는 판단기준 입력부를 포함하는 선택부;
상기 선택된 소정 구간의 이미지들에 대하여, 상기 판단 기준을 바탕으로 상기 대상체의 상태를 학습하는 학습부; 및
상기 학습된 결과를 이용하여, 상기 연속 촬영된 이미지들로부터 상기 대상체의 상태를 판단하는 판단부를 포함하는 기계 진단시스템.
A photographing unit that continuously photographs images of the object;
A selection unit including a pre-classifying unit for selecting images of a predetermined section to be learned from among the continuously photographed images, and a determination criterion input unit for providing a determination criterion for a normal state or an abnormal state of the object;
A learning unit that learns the state of the object based on the determination criterion for the images of the selected predetermined section; And
A machine diagnosis system including a determination unit that determines a state of the object from the continuously photographed images using the learned result.
제1항에 있어서, 상기 학습부는,
합성곱신경망(convolution neural network, CNN)을 이용하여 상기 대상체의 상태를 학습하는 것을 특징으로 하는 기계 진단시스템.
The method of claim 1, wherein the learning unit,
A machine diagnostic system comprising learning the state of the object using a convolution neural network (CNN).
제2항에 있어서,
상기 학습부가 2차원 합성곱신경망으로 학습할 지, 또는 복수 프레임을 이용한 2차원 합성곱신경망으로 학습하거나 3차원 합성곱신경망으로 학습할 지에 대한 정보를 상기 촬영부로 제공하는 정보 입력부를 더 포함하는 기계 진단시스템.
The method of claim 2,
The machine further comprising an information input unit for providing information on whether the learning unit is to learn with a 2D convolutional neural network, a 2D convolutional neural network using multiple frames, or a 3D convolutional neural network to the photographing unit Diagnostic system.
제3항에 있어서, 상기 촬영부는,
상기 학습부가 2차원 합성곱신경망으로 학습하는 경우, 고정된 위치 및 각도에서 상기 대상체를 촬영하고,
상기 학습부가 복수 프레임을 이용한 2차원 합성곱신경망으로 학습하거나 3차원 합성곱신경망으로 학습하는 경우, 변화된 위치 또는 각도에서 상기 대상체를 촬영하는 것을 특징으로 하는 기계 진단시스템.
The method of claim 3, wherein the photographing unit,
When the learning unit learns with a 2D convolutional neural network, photographing the object at a fixed position and angle,
When the learning unit learns with a two-dimensional convolutional neural network using a plurality of frames or a three-dimensional convolutional neural network, the learning unit photographs the object at a changed position or angle.
제4항에 있어서, 상기 판단부는,
상기 고정된 위치 및 각도에서 연속 촬영된 상기 대상체에 대한 이미지들을 바탕으로 상기 대상체의 정상 상태 또는 비정상 상태를 판단하는 제1 판단부; 및
상기 위치 또는 각도와 무관하게 시간에 따라 연속 촬영된 상기 대상체에 대한 이미지들을 바탕으로 상기 대상체의 정상 상태 또는 비정상 상태를 판단하는 제2 판단부를 포함하는 것을 특징으로 하는 기계 진단시스템.
The method of claim 4, wherein the determination unit,
A first determination unit determining a normal state or an abnormal state of the object based on images of the object continuously photographed at the fixed position and angle; And
And a second determination unit that determines a normal state or an abnormal state of the object based on images of the object continuously photographed over time regardless of the position or angle.
제1항에 있어서, 상기 대상체는,
고정된 상태에서 진동하는 진동 구조물인 것을 특징으로 하는 기계 진단시스템.
The method of claim 1, wherein the subject,
Machine diagnosis system, characterized in that the vibration structure vibrating in a fixed state.
제6항에 있어서, 상기 대상체의 상태 판단 기준은,
상기 진동 구조물의 진동 범위에 대한 임계값(threshold)으로 제공되는 것을 특징으로 하는 기계 진단시스템.
The method of claim 6, wherein the criteria for determining the state of the object are:
Machine diagnosis system, characterized in that provided as a threshold for the vibration range of the vibration structure.
제7항에 있어서, 상기 학습부는,
상기 대상체의 연속 촬영된 이미지들의 차이가 상기 임계값의 범위 내에 속하는지의 여부를 바탕으로, 상기 대상체의 상태를 학습하는 것을 특징으로 하는 기계 진단시스템.
The method of claim 7, wherein the learning unit,
A machine diagnostic system, characterized in that the state of the object is learned based on whether a difference between the consecutively photographed images of the object falls within a range of the threshold value.
제1항에 있어서,
상기 선행 분류부는, 상기 연속 촬영된 이미지들 중에서 학습의 대상이 되는 소정 구간의 이미지들을 제외한 나머지 구간의 이미지들을 상기 판단부로 제공하고,
상기 판단부는, 상기 나머지 구간의 이미지들로부터 상기 대상체의 상태를 판단하는 것을 특징으로 하는 기계 진단시스템.
The method of claim 1,
The preceding classification unit provides, to the determination unit, images of the remaining sections excluding images of a predetermined section to be learned from among the continuously photographed images,
And the determination unit determines a state of the object from images of the remaining section.
대상체에 대한 이미지를 연속으로 촬영하는 단계;
상기 대상체의 정상 상태 또는 비정상 상태에 대한 판단 기준을 제공받는 단계;
상기 연속 촬영된 이미지들 중에서 학습의 대상이 되는 소정 구간의 이미지들을 선택하는 단계;
상기 선택된 소정 구간의 이미지들에 대하여, 상기 판단 기준을 바탕으로 상기 대상체의 상태를 학습하는 단계; 및
상기 학습된 결과를 이용하여, 상기 연속 촬영된 이미지들로부터 상기 대상체의 상태를 판단하는 단계를 포함하는 기계 진단방법.
Continuously photographing an image of the object;
Receiving a criterion for determining a normal state or an abnormal state of the subject;
Selecting images of a predetermined section to be learned from among the continuously photographed images;
Learning a state of the object based on the determination criterion with respect to the images in the selected predetermined section; And
And determining a state of the object from the continuously photographed images using the learned result.
제10항에 있어서, 상기 대상체에 대한 이미지를 촬영하는 단계 이전에,
상기 촬영되는 공간상의 특징으로, 상기 학습부가 2차원 합성곱신경망으로 학습할 지, 또는 복수 프레임을 이용한 2차원 합성곱신경망으로 학습하거나 3차원 합성곱신경망으로 학습할 지에 대한 정보를 입력받는 단계를 더 포함하는 기계 진단방법.
The method of claim 10, prior to the step of taking an image of the object,
The step of receiving information on whether the learning unit learns with a two-dimensional convolutional neural network, learning with a two-dimensional convolutional neural network using multiple frames, or learning with a three-dimensional convolutional neural network, as a feature of the space to be photographed. Machine diagnostic method further comprising.
제11항에 있어서, 상기 대상체에 대한 이미지를 촬영하는 단계에서,
상기 학습부가 2차원 합성곱신경망으로 학습하는 경우, 고정된 위치 및 각도에서 상기 대상체를 촬영하고,
상기 학습부가 2차원 합성곱신경망으로 학습하거나 3차원 합성곱신경망으로 학습하는 경우, 변화된 위치 또는 각도에서 상기 대상체를 촬영하는 것을 특징으로 하는 기계 진단방법.
The method of claim 11, wherein in the step of taking an image of the object,
When the learning unit learns with a 2D convolutional neural network, photographing the object at a fixed position and angle,
When the learning unit learns with a two-dimensional convolutional neural network or a three-dimensional convolutional neural network, the object is photographed at a changed position or angle.
KR1020190047303A 2019-04-23 2019-04-23 Mechanical diagnostic system based on image learning and method for mechanical diagnosis using the same KR102233109B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190047303A KR102233109B1 (en) 2019-04-23 2019-04-23 Mechanical diagnostic system based on image learning and method for mechanical diagnosis using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190047303A KR102233109B1 (en) 2019-04-23 2019-04-23 Mechanical diagnostic system based on image learning and method for mechanical diagnosis using the same

Publications (2)

Publication Number Publication Date
KR20200128239A true KR20200128239A (en) 2020-11-12
KR102233109B1 KR102233109B1 (en) 2021-03-29

Family

ID=73398636

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190047303A KR102233109B1 (en) 2019-04-23 2019-04-23 Mechanical diagnostic system based on image learning and method for mechanical diagnosis using the same

Country Status (1)

Country Link
KR (1) KR102233109B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023121161A1 (en) * 2021-12-21 2023-06-29 주식회사 포스코 Motion magnification devices and methods of using thereof

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100199105B1 (en) 1996-11-05 1999-06-15 이해규 Vibration monitoring device of rotating body with learning function
KR20150116086A (en) * 2014-04-04 2015-10-15 아진산업(주) Image acquisition method for avoiding vibration of Vision examination equipment
KR20160093253A (en) * 2015-01-29 2016-08-08 쿠도커뮤니케이션 주식회사 Video based abnormal flow detection method and system
KR101818394B1 (en) 2017-05-11 2018-01-12 울산대학교 산학협력단 Method and apparatus for diagnosing facility condition
KR20190004173A (en) * 2017-07-03 2019-01-11 한국철도기술연구원 Apparatus and method for monitoring of pantograph in electric railway

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100199105B1 (en) 1996-11-05 1999-06-15 이해규 Vibration monitoring device of rotating body with learning function
KR20150116086A (en) * 2014-04-04 2015-10-15 아진산업(주) Image acquisition method for avoiding vibration of Vision examination equipment
KR20160093253A (en) * 2015-01-29 2016-08-08 쿠도커뮤니케이션 주식회사 Video based abnormal flow detection method and system
KR101818394B1 (en) 2017-05-11 2018-01-12 울산대학교 산학협력단 Method and apparatus for diagnosing facility condition
KR20190004173A (en) * 2017-07-03 2019-01-11 한국철도기술연구원 Apparatus and method for monitoring of pantograph in electric railway

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
영상 증폭기술을 활용한 진동기반 고장진단 기술 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023121161A1 (en) * 2021-12-21 2023-06-29 주식회사 포스코 Motion magnification devices and methods of using thereof

Also Published As

Publication number Publication date
KR102233109B1 (en) 2021-03-29

Similar Documents

Publication Publication Date Title
JPWO2020031984A1 (en) Parts inspection method and inspection system
US20180211138A1 (en) Information processing device, information processing method, and storage medium
US11715190B2 (en) Inspection system, image discrimination system, discrimination system, discriminator generation system, and learning data generation device
JP6024658B2 (en) Object detection apparatus, object detection method, and program
JP2008224626A5 (en)
CN104101294B (en) Analytical equipment, analysis program and analysis system
JP6304244B2 (en) 3D shape measuring apparatus, 3D shape measuring method, and 3D shape measuring program
KR20150120774A (en) System and method for detecting region of interest
CN113837079A (en) Automatic focusing method and device for microscope, computer equipment and storage medium
JP6841608B2 (en) Behavior detection system
JP6361775B2 (en) Method and apparatus for identifying target posture
CN110826522A (en) Method and system for monitoring abnormal human behavior, storage medium and monitoring equipment
JP2017203701A (en) Information processing apparatus, measurement system, information processing method, and program
JP2011133984A (en) Motion feature extraction device and motion feature extraction method
JP7372017B2 (en) Steel component learning device, steel component estimation device, steel type determination device, steel component learning method, steel component estimation method, steel type determination method, and program
JP2014126494A (en) Inspection support device, inspection support method, robot system, control device, robot and program
CN103096117B (en) Video noise detection method and device
KR102233109B1 (en) Mechanical diagnostic system based on image learning and method for mechanical diagnosis using the same
JP7186128B2 (en) Article recognition system and article recognition method
JP6715282B2 (en) Quality monitoring system
JP6805199B2 (en) Equipment monitoring system
CN112204957A (en) White balance processing method and device, movable platform and camera
US20160044295A1 (en) Three-dimensional shape measurement device, three-dimensional shape measurement method, and three-dimensional shape measurement program
US20210127068A1 (en) Main subject determining apparatus, image capturing apparatus, main subject determining method, and storage medium
JP2019139618A5 (en)

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant