KR20200072817A - 합성곱 신경망법을 이용한 체결력 예측방법 - Google Patents

합성곱 신경망법을 이용한 체결력 예측방법 Download PDF

Info

Publication number
KR20200072817A
KR20200072817A KR1020180160834A KR20180160834A KR20200072817A KR 20200072817 A KR20200072817 A KR 20200072817A KR 1020180160834 A KR1020180160834 A KR 1020180160834A KR 20180160834 A KR20180160834 A KR 20180160834A KR 20200072817 A KR20200072817 A KR 20200072817A
Authority
KR
South Korea
Prior art keywords
image
fastening force
neural network
convolutional neural
cepstrum
Prior art date
Application number
KR1020180160834A
Other languages
English (en)
Other versions
KR102598426B1 (ko
Inventor
권재수
도경민
김완승
박준홍
Original Assignee
현대자동차주식회사
한양대학교 산학협력단
기아자동차주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대자동차주식회사, 한양대학교 산학협력단, 기아자동차주식회사 filed Critical 현대자동차주식회사
Priority to KR1020180160834A priority Critical patent/KR102598426B1/ko
Priority to DE102019131465.8A priority patent/DE102019131465A1/de
Priority to US16/691,308 priority patent/US11530957B2/en
Priority to CN201911157381.3A priority patent/CN111325314A/zh
Publication of KR20200072817A publication Critical patent/KR20200072817A/ko
Application granted granted Critical
Publication of KR102598426B1 publication Critical patent/KR102598426B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01LMEASURING FORCE, STRESS, TORQUE, WORK, MECHANICAL POWER, MECHANICAL EFFICIENCY, OR FLUID PRESSURE
    • G01L5/00Apparatus for, or methods of, measuring force, work, mechanical power, or torque, specially adapted for specific purposes
    • G01L5/24Apparatus for, or methods of, measuring force, work, mechanical power, or torque, specially adapted for specific purposes for determining value of torque or twisting moment for tightening a nut or other member which is similarly stressed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01LMEASURING FORCE, STRESS, TORQUE, WORK, MECHANICAL POWER, MECHANICAL EFFICIENCY, OR FLUID PRESSURE
    • G01L1/00Measuring force or stress, in general
    • G01L1/24Measuring force or stress, in general by measuring variations of optical properties of material when it is stressed, e.g. by photoelastic stress analysis using infrared, visible light, ultraviolet
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/18Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/02Preprocessing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/08Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/08Feature extraction
    • G06F2218/10Feature extraction by analysing the shape of a waveform, e.g. extracting parameters relating to peaks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/12Classification; Matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Abstract

본 발명은 합성곱 신경망법을 이용한 체결력 예측방법에 관한 것으로서, 보다 상세하게는 볼트의 체결력을 예측하는 합성곱 신경망법을 이용한 체결력 예측방법에 관한 것으로서, 신호처리 분석장치로부터 Cepstrum 이미지를 생성하는 Cepstrum 이미지 생성단계; 인공지능학습을 통해 상기 생성된 Cepstrum 이미지의 픽셀에 소정의 가중치값을 곱하고 특성 이미지를 추출하는 특성 이미지 추출단계; 상기 추출된 특성 이미지 중에서 가장 큰 픽셀을 추출하는 대표 이미지 추단계; 상기 추출된 대표 이미지 정보를 종합하여 종합 이미지를 생성하는 이미지 종합단계; 상기 종합된 이미지를 기설정된 값과 비교하여 예측되는 체결력을 표시하는 체결력 예측단계; 를 포함하는 합성곱 신경망법을 이용한 체결력 예측방법을 제공하여, 이미지의 크기를 줄이면서 데이터 처리의 속도가 빠르기 때문에 실시간 측정이 용이해지는 강점이 있다.

Description

합성곱 신경망법을 이용한 체결력 예측방법{A joint force predicting method in use with convolutional neural networks}
본 발명은 합성곱 신경망법을 이용한 체결력 예측방법에 관한 것으로서, 보다 상세하게는 볼트의 체결력을 예측하는 합성곱 신경망법을 이용한 체결력 예측방법에 관한 것이다.
볼트는 부품간 체결에 중요한 요소로 사용된다.
강 구조물의 접합부에는 규정에 적합한 볼트를 사용하여야 하고, 볼트의 축력은 엄격하게 관리되어야 한다.
한국산업규격(Korean industrial Standards; KS)은 볼트의 종류를 토크계수에 따라 A종과 B종으로 분류하고, 적합한 토크계수를 규정하고 있다.
KS규격은 A종 볼트에 대해서는 토크계수의 평균값이 0.11~0.15에 적합하도록, B종 볼트에 대해서는 토크계수의 평균값이 0.15~0.19에 적합하도록 규정하고 있다.
볼트의 체결축력은 토크값, 토크계수 및 볼트의 직경으로부터 계산될 수 있고, 토크값을 조절함으로써 원하는 체결축력을 얻을 수 있다.
볼트의 축력 관리를 위하여 조임 방법이 사용되고 있으며, 일반적으로 볼트의 조임 방법은 토크제어방식(Torque control method)과 너트 회전각 방식(turn of the nut method)으로 분류된다.
너트 회전각 방식은 너트의 회전각도를 이용하기 때문에 축력의 산포가 상대적으로 적은 이점이 있다.
이에 배해, 토크제어방식은 토크값의 상한 및 하한을 결정하고 토크렌치를 이용하여 볼트를 조이기 때문에 작업성이 우수한 이점이 있다.
그러나, 볼트의 토크계수는 일정하게 유지되지 않고, 물리적 요인인 볼트의 길이 및 환경적 요인인 온도와 같은 여러가지 요인으로 인해 변경될 수 있다.
따라서, 토크제어방식은 토크계수의 변화로 인하여 축력의 산포가 큰 단점이 있다.
또한, 현장에서는 토크렌치를 사용하여 볼트를 조인 후, 별도의 계측장치를 사용하여 조여진 볼트의 축력을 측정하는 것이 요구되는 불편함이 있다.
따라서, 볼트가 적절한 체결력을 유지하기 위하여 볼트 체결력을 예측하는 것은 중요하다.
한편, 최근 인공지능을 이용한 각종 예측 기술들이 등장하고 있다.
그 중에서도 볼트의 체결력에 대하여 인공 신경망을 통한 예측 기술이 도 4에 소개되고 있다.
도 4는 종래 기술의 인공 신경망법의 구성도이다.
도 4와 같은 종래 인공 신경망을 이용한 축력 계산법은 센서부를 통해 취득한 신호에서 Cepstral Coefficient 와 STFT를 각각 도출한다.
Cepstral Coefficient의 경우 취득한 신호를 소음의 영향을 줄이기 위해 고주파대역만을 하이패스필터를 사용하여 추출한다.
그 후에 각각의 프레임에 대푯값을 뽑은 후 수백개로 등분된 주파수영역에 각각 이등변 삼각형 형태 분포의 가중치를 곱한 후 합산하여 구한다.
산출된 값에 Log를 취하고 Discrete Cosine Transform을 거쳐서 Cepstral Coefficient를 도출한다.
STFT의 경우 취득 신호를 짧은 시간을 기준으로 50%의 겹침구간을 가지면서 Fast Fourier Transform을 거쳐 수백 여개의 프레임을 갖는 주파수 영역 데이터로 변환된다.
이러한 Cepstral Coefficient 및 STFT된 데이터의 특징은 Supervised Signal로 입력되며 비용 함수를 이용한 경사하강법을 통해 다층 Weight Matrix Layer를 형성하며 이를 이용하여 축력 예측값을 표시한다.
그러나, 이와 같은 종래의 예측 기술은 복잡하기 때문에 실시간 축력 예측이 어렵고 정확도도 낮은 문제가 있었다.
KR 2009-0015359 A KR 411094 B1 KR 317522 B1
위와 같은 문제점을 해결하기 위한 본 발명은 간단하면서도 정확도가 향상되어 실시간으로 예측이 가능한 합성곱 신경망법을 이용한 체결력 예측방법을 제공하는 것에 목적이 있다.
신호처리 분석장치로부터 Cepstrum 이미지를 생성하는 Cepstrum 이미지 생성단계; 인공지능학습을 통해 상기 생성된 Cepstrum 이미지의 픽셀에 소정의 가중치값을 곱하고 특성 이미지를 추출하는 특성 이미지 추출단계; 상기 추출된 특성 이미지 중에서 가장 큰 픽셀을 추출하는 대표 이미지 추단계; 상기 추출된 대표 이미지 정보를 종합하여 종합 이미지를 생성하는 이미지 종합단계; 상기 종합된 이미지를 기설정된 값과 비교하여 예측되는 체결력을 표시하는 체결력 예측단계; 를 포함하는 합성곱 신경망법을 이용한 체결력 예측방법을 포함한다.
또한, 상기 이미지 종합단계와 상기 체결력 예측단계 사이에는 상기 가중치 값의 최적화를 위한 Adam Optimization이 적용되는 것을 특징으로 하는 합성곱 신경망법을 이용한 체결력 예측방법을 포함한다.
또한,상기 Adam Optimization에는 손실함수가 적용되는 것을 특징으로 하는 합성곱 신경망법을 이용한 체결력 예측방법을 포함한다.
또한, 상기 특성 이미지 추출단계에는 Convolution filter가 적용되는 것을 특징으로 하는 합성곱 신경망법을 이용한 체결력 예측방법을 포함한다.
또한, 상기 대표 이미지 추출단계는 Pooling filter가 적용되는 것을 특징으로 하는 합성곱 신경망법을 이용한 체결력 예측방법을 포함한다.
또한, 상기 Convolution filter는 적어도 2 이상이 연속하여 적용되는 것을 특징으로 하는 합성곱 신경망법을 이용한 체결력 예측방법을 포함한다.
또한, 상기 추출된 대표 이미지가 적어도 한번 다시 상기 특성 이미지 추출단계를 거치는 것을 특징으로 하는 합성곱 신경망법을 이용한 체결력 예측방법을 포함한다.
또한, 신호처리 분석장치로부터 Cepstrum 이미지를 생성하는 Cepstrum 이미지 생성단계; 상기 생성된 Cepstrum 이미지를 기설정된 값과 비교하여 예측되는 체결력을 표시하는 예측단계; 를 포함하는 합성곱 신경망법을 이용한 체결력 예측방법을 포함한다.
이와 같은 본 발명에 따르면 다음과 같은 효과가 있다.
첫째, 이미지의 크기를 줄이면서 데이터 처리의 속도가 빠르기 때문에 실시간 측정이 용이해지는 강점이 있다.
둘째, Adam Optimization 을 적용하기 때문에 반복학습을 통해 경로를 계속하여 찾아가면 가중치들이 충분히 갱신되므로 손실값이 줄어들고 예측의 정확도가 향상되는 장점이 있다.
셋째, 기존의 경사하강법에 비하여 속도가 빠른 장점이 있어 실시간 측정 시스템에서 사용하기 적합한 이점이 있다.
넷째, 체결이 진행되는 동안 신호의 크기가 크게 나오기 때문에 속도가 다른 다단 체결시 명확한 구분이 가능한 이점이 있다.
다섯째, 다단 체결에서 명확한 구분이 이루어지기 때문에 합성곱 신경망의 이미지로 사용할 때 Feature Map을 도출하기가 용이한 장점이 있다.
도 1은 본 발명의 바람직한 실시 예에 따른 흐름도이다.
도 2는 본 발명의 바람직한 실시 예에 따른 합성곱 신경망법의 구성도이다.
도 3은 본 발명의 바람직한 실시 예에 따른 필터의 구성도이다.
도 4는 종래 기술의 인공 신경망법의 구성도이다.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는바, 특정 실시예들을 도면에 예시하고 상세한 설명에 구체적으로 설명하고자 한다. 그러나 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용한다.
제 1, 제 2등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제 1 구성요소는 제 2구성요소로 명명될 수 있고, 유사하게 제 2 구성요소도 제 1 구성요소로 명명될 수 있다. "및/또는" 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미가 있다.
일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않아야 한다.
본 발명의 바람직한 실시 예에 따른 합성곱 신경망법을 이용한 체결력 예측방법의 흐름을 설명한다.
도 2는 본 발명의 바람직한 실시 예에 따른 합성곱 신경망법의 구성도이고, 도 3은 본 발명의 바람직한 실시 예에 따른 필터의 구성도이다.
먼저 Cepstrum 이미지 생성단계(S1)는 신호처리 분석장치로부터 Cepstrum 이미지를 생성(S20)한다.
생성된 Cepstrum 이미지는 취득한 신호의 체결력이 증가함에 따른 주파수 변화 정보를 픽셀 값으로 담고 있다.
Cepstrum 이미지는 신호처리 및 분석 장치(S10)로부터 획득될 수 있다.
학습 Cepstrum 이미지(S30)는 생성된 Cepstrum 이미지로부터 획득될 수 있다.
다음으로 특성 이미지 추출단계(S2)는 인공지능학습을 통해 생성된 Cepstrum 이미지(S30)의 픽셀에 소정의 가중치 값을 곱하고 특성 이미지를 추출한다.
이 때 특성 이미지 추출단계(S2)는 Convolution filter(S40)가 적용되는 것이 바람직할 수 있다.
Convolution Filter는 작은 크기의 필터로서 이미지 픽셀에 곱할 가중치 값을 가진다.
보다 상세하게는 Convolution Filter는 입력된 이미지의 추출을 위하여 사용하는 Convolutional Neural Network의 Layer 중 하나이다.
이는 각각의 Deep Learning 학습에서 Convolution Filter의 행렬이 갖는 값은 Mask라 불린다.
Convolution Filter가 사용됨으로써 반복적인 학습을 통한 Mask의 값이 판별에 적절한 값으로 변하며, 그에 따라 학습의 정확도가 높아진다.
Cepstrum 이미지를 Convolution Filter에 입력시키면 이미지 위를 필터가 움직이면서 기설정된 적절한 가중치 값을 곱해서 특성 이미지를 추출하는 것이다.
추출된 특성 이미지는 Pooling Filter(S50)로 입력된다.
Pooling Filter(S50)는 픽셀 정보 중에서도 대표값들만을 뽑아낸다.
보다 상세하게는 Pooling Filter(S50)는 Convolution을 통하여 도출된 Feature Map의 가장 부각되는 값을 도출하기 위하여 이용되며, 이미지의 크기를 줄이기 위하여 이용된다.
추출된 특성 이미지가 Pooling Filter(S50)를 통과하면 대표정보만이 저장되며 이미지의 크기가 줄어들게 된다.
Convolution filter는 적어도 2 이상이 연속하여 적용되는 것이 바람직할 수 있다.
다음으로 대표 이미지 추출단계(S3)는 추출된 특성 이미지 중에서 가장 큰 픽셀을 추출한다.
이 때 대표 이미지 추출단계(S3)는 Pooling filter가 적용되는 것이 바람직할 수 있다.
또한, 추출된 대표 이미지가 적어도 한번 다시 특성 이미지 추출단계를 거치는 것이 바람직할 수 있다.
다음으로 이미지 종합단계(S4)는 추출된 대표 이미지 정보를 종합하여 종합 이미지를 생성한다.
마지막으로 체결력 예측단계(S5)는 종합된 이미지를 기설정된 값과 비교하여 예측되는 체결력을 표시(S80)한다.
이 때, 대표값들로 구성된 정보들을 최종적으로 Dense Layer가 종합하여서 가장 높은 확률을 가지는 체결력으로 예측값을 표시한다
예측값은 체결력별 Probability vector(S70)로 나타낸다.
한편, Adam Optimization(S62)은 이미지 종합단계(S4)와 체결력 예측단계(S5) 사이에서 가중치 값의 최적화를 위한 이 적용되는 것이 바람직할 수 있다.
Adam Optimizer를 이용하여 최소값을 도출하기 때문에 기존의 경사하강법에 비하여 속도가 빠른 장점이 있어 실시간 측정 시스템에서 사용하기 적합하게 된다.
이 때 Adam Optimization(S62)에는 손실함수(S61)가 적용되는 것이 바람직할 수 있다.
다시 말해서, Adam Optimization 기법은 Convolution Filter의 최적화를 돕는다.
최적화가 충분히 이루어진 Filter는 이미지의 특성을 효과적으로 추출할 수 있도록 하는 가중치 값을 가진다
도 3을 참조하여 본 발명의 바람직한 실시 예에 따른 필터의 구성에 대하여 상술하면 다음과 같다.
Cepstrum 이미지(100)는 부품으로부터 측정된 데이터로 획득되며, 이 때 이미지의 크기는 599x32 픽셀사이즈이다.
Convolution Filter(200)가 3x3 크기의 Filter가 오른쪽 혹은 아래로 1칸씩 움직이며 이미지 전체에 적용되어 Cepstrum 변화의 특성을 추출한다.
보다 상세하게는 Convolution Filter(200)는 제1 Convolution Filter(210) 및 제2 Convolution Filter(220)가 연속하여 적용될 수 있다.
Convolution Filter(200)로부터 추출된 제1 특성 이미지(310)의 크기는 599x32 픽셀 사이즈로 유지된다.
제1 특성 이미지(310)는 제1 Pooling Filter(410)에 입력된다.
Pooling Filter(400)는 순차적으로 제1 Pooling Filter(410) 및 제2 Pooling Filter(420)를 포함할 수 있다.
Convolution이 끝난 제1 특성 이미지(310)가 Pooling Filter(400)에 들어가면 이미지의 모든 영역이 2x2 영역으로 나뉘게 되고, 각 영역 중 가장 큰 픽셀 값이 추출된다.
이것이 제1 대표 이미지(510)이다.
즉, 도면과 같이 4개의 값 중 1개 대표 이미지 값만 취득하므로 이미지 가로 세로 사이즈가 절반으로 줄어든다.
제1 대표 이미지(510)는 다시 제3 Convolution Filter(230), 제4 Convolution Filter(240)를 거쳐 제2 특성 이미지(320)로 도출된다.
제2 특성 이미지(320)가 다시 제2 Pooling Filter(420)를 거쳐 제2 대표 이미지(520)가 얻어진다.
종합 이미지(600)는 Dense Layer(S60) 이미지 정보를 종합하여 50kN~81kN의 31 Class 중 각 Class과의 유사도를 측정하며 이를 모두 더하면 1이 된다.
체결력 예측단계(S5)는 측정한 유사도 중 가장 높은 유사도를 얻은 Class를 판별 체결력으로 확정한다.
위와 같이 Convolution Filter(200)가 제1 Convolution Filter(210) 및 제2 Convolution Filter(220)가 이중으로 사용되는 것이 바람직할 수 있다.
이처럼, 제1 Convolution Filter(210) 및 제2 Convolution Filter(220)를 통해서 획득된 특성 이미지가 제1 Pooling Filter(410)에 제공되고, 다시 제3 Convolution Filter(230) 및 제4 Convolution Filter(240)를 통해서 획득된 특성 이미지가 제2 Pooling Filter(420)에 제공되는 다중 필터 구조를 적용하는 것이 바람직할 수 있다.
즉, 이중 Convolution Filter에 Pooling Filter를 합친 삼중 Filter 구조를 반복해서 사용한 다중 Filter 구조를 적용하는 것이 바람직할 수 있는 것이다.
이와 같이 Convolution Filter를 복층으로 쌓아 깊은 특성을 추출할 수 있다.
또한, Pooling Filter를 적어도 1회 이상 사용함으로써 중요한 정보를 더 작은 이미지에 저장하도록 할 수 있기 때문에 실시간 예측의 속도 및 정확도가 향상되는 것이다.
한편, 본 발명의 바람직한 실시 예에 따른 합성곱 신경망법을 이용한 체결력 예측방법
은 신호처리 분석장치로부터 Cepstrum 이미지를 생성하는 Cepstrum 이미지 생성단계(S31)와 생성된 Cepstrum 이미지를 기설정된 값과 비교하여 예측되는 체결력을 표시하는 예측단계(S80)으로 구성하는 것이 가능하다.
S1 : Cepstrum 이미지 생성단계
S2 : 특성 이미지 추출단계
S3 : 대표 이미지 추출단계
S4 : 이미지 종합단계
S5 : 체결력 예측단계

Claims (8)

  1. 신호처리 분석장치로부터 Cepstrum 이미지를 생성하는 Cepstrum 이미지 생성단계;
    인공지능학습을 통해 상기 생성된 Cepstrum 이미지의 픽셀에 소정의 가중치 값을 곱하고 특성 이미지를 추출하는 특성 이미지 추출단계;
    상기 추출된 특성 이미지 중에서 가장 큰 픽셀을 추출하는 대표 이미지 추출단계;
    상기 추출된 대표 이미지 정보를 종합하여 종합 이미지를 생성하는 이미지 종합단계;
    상기 종합된 이미지를 기설정된 값과 비교하여 예측되는 체결력을 표시하는 체결력 예측단계; 를 포함하는,
    합성곱 신경망법을 이용한 체결력 예측방법.
  2. 제1항에 있어서,
    상기 이미지 종합단계와 상기 체결력 예측단계 사이에는 상기 가중치 값의 최적화를 위한 Adam Optimization이 적용되는 것을 특징으로 하는,
    합성곱 신경망법을 이용한 체결력 예측방법.
  3. 제2항에 있어서,
    상기 Adam Optimization에는 손실함수가 적용되는 것을 특징으로 하는,
    합성곱 신경망법을 이용한 체결력 예측방법.
  4. 제1항에 있어서,
    상기 특성 이미지 추출단계에는 Convolution filter가 적용되는 것을 특징으로 하는,
    합성곱 신경망법을 이용한 체결력 예측방법.
  5. 제1항에 있어서,
    상기 대표 이미지 추출단계는 Pooling filter가 적용되는 것을 특징으로 하는,
    합성곱 신경망법을 이용한 체결력 예측방법.
  6. 제4항에 있어서,
    상기 Convolution filter는 적어도 2 이상이 연속하여 적용되는 것을 특징으로 하는,
    합성곱 신경망법을 이용한 체결력 예측방법.
  7. 제6항에 있어서
    상기 추출된 대표 이미지가 적어도 한번 다시 상기 특성 이미지 추출단계를 거치는 것을 특징으로 하는,
    합성곱 신경망법을 이용한 체결력 예측방법.
  8. 신호처리 분석장치로부터 Cepstrum 이미지를 생성하는 Cepstrum 이미지 생성단계;
    상기 생성된 Cepstrum 이미지를 기설정된 값과 비교하여 예측되는 체결력을 표시하는 예측단계; 를 포함하는,
    합성곱 신경망법을 이용한 체결력 예측방법.
KR1020180160834A 2018-12-13 2018-12-13 합성곱 신경망법을 이용한 체결력 예측방법 KR102598426B1 (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020180160834A KR102598426B1 (ko) 2018-12-13 2018-12-13 합성곱 신경망법을 이용한 체결력 예측방법
DE102019131465.8A DE102019131465A1 (de) 2018-12-13 2019-11-21 Verfahren zur vorhersage einer spannkraft unter verwendung eines neuronalen faltungsnetzwerk-verfahrens
US16/691,308 US11530957B2 (en) 2018-12-13 2019-11-21 Method for predicting clamp force using convolutional neural network
CN201911157381.3A CN111325314A (zh) 2018-12-13 2019-11-22 使用卷积神经网络法来预测夹紧力的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180160834A KR102598426B1 (ko) 2018-12-13 2018-12-13 합성곱 신경망법을 이용한 체결력 예측방법

Publications (2)

Publication Number Publication Date
KR20200072817A true KR20200072817A (ko) 2020-06-23
KR102598426B1 KR102598426B1 (ko) 2023-11-06

Family

ID=70858885

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180160834A KR102598426B1 (ko) 2018-12-13 2018-12-13 합성곱 신경망법을 이용한 체결력 예측방법

Country Status (4)

Country Link
US (1) US11530957B2 (ko)
KR (1) KR102598426B1 (ko)
CN (1) CN111325314A (ko)
DE (1) DE102019131465A1 (ko)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100317522B1 (ko) 1998-10-21 2002-06-20 이종훈 산업용보일러본체의지지볼트하중조정방법
KR100411094B1 (ko) 2001-04-13 2003-12-18 현대자동차주식회사 차량의 실린더 헤드 볼트 신장량 측정장치 및 축력 측정방법
KR20090015359A (ko) 2007-08-08 2009-02-12 한국전력공사 볼트 축력 예측 방법
JP2013175003A (ja) * 2012-02-24 2013-09-05 Osaka Prefecture Univ Psf推定方法とそれを用いた劣化画像の復元方法およびこれらを記録したプログラムとそれを実行するコンピュータ装置
CN108417228A (zh) * 2018-02-02 2018-08-17 福州大学 乐器音色迁移下的人声音色相似性度量方法
KR20180125285A (ko) * 2017-05-15 2018-11-23 현대자동차주식회사 볼트 축력 측정방법

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2309002A1 (en) * 2000-05-23 2001-11-23 Jonathan Martin Shekter Digital film grain reduction
CN100511273C (zh) * 2000-09-27 2009-07-08 大卫·N·雷文 用于建立不随传感器状态的系统性变换而变化的激励表示的自参照方法和装置
US7167773B2 (en) * 2001-03-21 2007-01-23 Signature Control Systems Process and apparatus for improving and controlling the curing of natural and synthetic moldable compounds
US20080221487A1 (en) * 2007-03-07 2008-09-11 Motek Bv Method for real time interactive visualization of muscle forces and joint torques in the human body
US8126275B2 (en) * 2007-04-24 2012-02-28 Microsoft Corporation Interest point detection
US9630821B2 (en) * 2011-09-06 2017-04-25 Loron, Inc. Clamping assembly for load-carrying vehicle
US9439668B2 (en) * 2012-04-09 2016-09-13 Ethicon Endo-Surgery, Llc Switch arrangements for ultrasonic surgical instruments

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100317522B1 (ko) 1998-10-21 2002-06-20 이종훈 산업용보일러본체의지지볼트하중조정방법
KR100411094B1 (ko) 2001-04-13 2003-12-18 현대자동차주식회사 차량의 실린더 헤드 볼트 신장량 측정장치 및 축력 측정방법
KR20090015359A (ko) 2007-08-08 2009-02-12 한국전력공사 볼트 축력 예측 방법
JP2013175003A (ja) * 2012-02-24 2013-09-05 Osaka Prefecture Univ Psf推定方法とそれを用いた劣化画像の復元方法およびこれらを記録したプログラムとそれを実行するコンピュータ装置
KR20180125285A (ko) * 2017-05-15 2018-11-23 현대자동차주식회사 볼트 축력 측정방법
CN108417228A (zh) * 2018-02-02 2018-08-17 福州大学 乐器音色迁移下的人声音色相似性度量方法

Also Published As

Publication number Publication date
DE102019131465A1 (de) 2020-06-18
US11530957B2 (en) 2022-12-20
US20200191667A1 (en) 2020-06-18
KR102598426B1 (ko) 2023-11-06
CN111325314A (zh) 2020-06-23

Similar Documents

Publication Publication Date Title
Brunet et al. Experimental and analytical necking studies of anisotropic sheet metals
Sveshnikov Applied methods of the theory of random functions
Wang et al. Link the remote sensing big data to the image features via wavelet transformation
EP2047426A2 (en) Method for signal conditioning
CN109145841A (zh) 一种基于视频监控的异常事件的检测方法及装置
Bogoslovsky et al. A way of energy analysis for image and video sequence processing
Oliveri et al. Data analysis and chemometrics
KR20200072817A (ko) 합성곱 신경망법을 이용한 체결력 예측방법
CN113343863B (zh) 融合表征网络模型训练方法、指纹表征方法及其设备
CN113109780B (zh) 基于复数密集连接神经网络的高分辨距离像目标识别方法
CN108507607B (zh) 一种基于核函数的微弱信号检测方法
CN111222558B (zh) 图像处理方法及存储介质
Duan et al. An anchor box setting technique based on differences between categories for object detection
Culpepper Texture metric that predicts target detection performance
Ayache et al. A central limit theorem for the generalized quadratic variation of the step fractional Brownian motion
Nalepa et al. Spearman’s rho modification in digital image processing
Cai et al. Violence detection based on spatio-temporal feature and fisher vector
Heidary et al. Urban change detection by fully convolutional siamese concatenate network with attention
Li et al. Image splicing detection based on Markov features in QDCT domain
KR20200114231A (ko) 볼트 축력 예측 방법
Kneller et al. Scaling of the memory function and Brownian motion
CN112396602A (zh) 基于帧间跨尺度相似性聚合的钢材涂层检测方法
Rybin et al. Pattern recognition of 1D and 2D signals using normalization and normal transformation
Asmara et al. Tropical hardwood species identification based on first order statistical moment of cross section images color and texture extraction using gray level co-occurrence matrix
Sontag et al. Exact computation of amplification for a class of nonlinear systems arising from cellular signaling pathways

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant