KR102121462B1 - A device that divides the body skin into the type of skin required for the procedure through image analysis using convolution neural network - Google Patents

A device that divides the body skin into the type of skin required for the procedure through image analysis using convolution neural network Download PDF

Info

Publication number
KR102121462B1
KR102121462B1 KR1020180009463A KR20180009463A KR102121462B1 KR 102121462 B1 KR102121462 B1 KR 102121462B1 KR 1020180009463 A KR1020180009463 A KR 1020180009463A KR 20180009463 A KR20180009463 A KR 20180009463A KR 102121462 B1 KR102121462 B1 KR 102121462B1
Authority
KR
South Korea
Prior art keywords
unit
body skin
image
operator
neural network
Prior art date
Application number
KR1020180009463A
Other languages
Korean (ko)
Other versions
KR20190090583A (en
Inventor
안준범
박준철
김태영
Original Assignee
안준범
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 안준범 filed Critical 안준범
Priority to KR1020180009463A priority Critical patent/KR102121462B1/en
Publication of KR20190090583A publication Critical patent/KR20190090583A/en
Application granted granted Critical
Publication of KR102121462B1 publication Critical patent/KR102121462B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/44Detecting, measuring or recording for evaluating the integumentary system, e.g. skin, hair or nails
    • A61B5/441Skin evaluation, e.g. for skin disorder diagnosis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0002Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
    • A61B5/0015Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network characterised by features of the telemetry system
    • A61B5/0022Monitoring a patient using a global network, e.g. telephone networks, internet
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays

Abstract

본 발명은 컨볼루션 신경망(CNN, Convolution Neural Network)을 기반으로 하여 별도로 미리 입력받은 신체 피부 이미지를 통해 미리 학습하는 학습부; 컨볼루션 신경망을 기반으로 미리 학습되어진 학습부의 파라미터(Parameter)를 통해, 시술자로부터 입력받은 신체 피부 이미지를 분석, 분류하는 분석부; 시술자로부터 입력받은 신체 피부 이미지가 포함된 최종 분류 내용을 분석부로부터 전달받아 시술자가 볼 수 있게 표시하고, 시술자로부터 최종 분류 내용 선택을 입력받을 수 있는 장치를 포함하며, 장치를 통해 시술자로부터 선택된 최종 분류 내용을 피 시술자가 볼 수 있게 표시하는 표시부; 및 시술자로부터 선택된 최종 분류 내용 및 최종 분류 내용에 포함된 신체 피부 이미지의 특징을 표시부로부터 전달받아, 시술장치에 전달하는 시술부;를 포함하는 것을 특징으로 하는 컨볼루션 신경망을 이용한 이미지 분석을 통해 신체피부를 시술에 필요한 피부 타입으로 구분, 이를 저장, 전달하는 장치에 관한 것이다.The present invention is based on a convolutional neural network (CNN, Convolution Neural Network) learning unit for learning in advance through a previously input body skin image; An analysis unit that analyzes and classifies the body skin image received from the operator through a parameter of the learning unit previously learned based on the convolutional neural network; Includes a device that receives the final classification contents including the body skin image input from the operator from the analysis unit for viewing by the operator, and includes a device capable of receiving the selection of the final classification content from the operator, and the final selected from the operator through the device A display unit for displaying the classification contents to be viewed by the operator; And a surgical unit receiving the characteristics of the final classification content selected from the operator and the body skin image included in the final classification content from the display unit and transmitting the characteristics of the body skin to the surgical device. The body through image analysis using a convolutional neural network, comprising: It relates to a device for classifying skin into skin types necessary for the procedure, and storing and delivering the skin.

Description

컨볼루션 신경망을 이용한 이미지 분석을 통해 신체피부를 시술에 필요한 피부 타입으로 구분, 이를 저장, 전달하는 장치{A device that divides the body skin into the type of skin required for the procedure through image analysis using convolution neural network}A device that divides the body skin into the type of skin required for the procedure through image analysis using convolution neural network }

본 발명은 신체피부를 분석하여 시술에 필요한 피부 타입으로 구분, 저장, 전달하는 장치로서, 보다 상세하게는 컨볼루션 신경망을 통해 이미지 데이터를 분류하는 작업을 사전에 학습하여 시술의 효율성을 높이고 이를 계량화하여 저장, 전달하는 장치에 관한 것이다.The present invention is a device for analyzing, dividing, storing, and transmitting body skin by analyzing the skin type required for the procedure. More specifically, the operation of classifying image data through a convolutional neural network in advance to improve the efficiency of the procedure and quantify it It relates to a storage, delivery device.

종래에는 전문 지식을 갖춘 시술자의 진단을 말, 그림, 피부 사진 등을 통해 비 계량적으로 피 시술자에게 전달하기 때문에, 피 시술자가 이를 명확히 이해하는데 어려움이 있었다.In the related art, since the diagnosis of the operator with expertise is transmitted non-quantitatively to the operator through words, pictures, skin pictures, etc., it is difficult for the operator to clearly understand this.

또한, 종래의 시술 방식 중 일 예로 레이저 조사기를 시술부위에 시술 함에 있어서 시술자가 조사기를 직접 들고 조사하는 방식으로 치료 하였다.In addition, as an example of the conventional treatment method, when the laser irradiator was applied to the treatment site, the operator was treated by directly irradiating the irradiator.

이처럼 비 체계적이고 비 계량적인 조사 방식으로 시술자가 조사해야 하는 환부를 잊거나, 중복되게 조사하는 경우가 발생해 최초 의도 보다 많은 에너지를 전달하게 되어 정상조직에 부수적인 광열효과를 내거나, 부족한 에너지 전달로 시술의 적절한 효과를 보지 못하는 등의 문제점이 있었다.In this unstructured and non-quantitative survey method, the operator may forget the affected area or duplicate it, resulting in more energy than the original intention, resulting in incidental photothermal effects on normal tissues or insufficient energy delivery There were problems such as not seeing the proper effect of the procedure.

이에, 특허문헌1은 피부 영상으로부터 색소 침착 영역의 상태를 복수의 파라미터를 통해 도출하고, 도출된 복수의 파라미터에 가중치를 적용하여 색소 침착의 정도를 정량화하는 표현 지수로 나타내어 상기와 같은 문제를 막고자 하였다.Accordingly, Patent Document 1 derives the state of the pigmentation region from the skin image through a plurality of parameters, and applies weights to the derived plurality of parameters to represent the expression index to quantify the degree of pigmentation to prevent the above problems. I was sleeping.

그러나, 특허문헌1은 수많은 입력 데이터를 일일이 전처리하여 영상처리모듈에 입력하여 분석하므로 결과를 도출하는데 많은 시간이 소요되는 문제점이 있다.However, Patent Document 1 has a problem in that it takes a lot of time to derive a result because a large number of input data are pre-processed and input to an image processing module for analysis.

특허문헌1 : 국내 등록특허 제10-1197798호 (2012.10.30. 등록)Patent Literature 1: Domestic Registered Patent No. 10-1197798 (2012.10.30. registered)

이에, 본 발명은 컨볼루션 신경망을 통해 이미지 데이터를 분류하는 작업을 사전에 학습하여 시술의 효율성을 높이고 이를 계량화하여 저장, 전달하는 장치를 제공하는데 목적이 있다.Accordingly, an object of the present invention is to provide an apparatus for learning the task of classifying image data through a convolutional neural network in advance to increase the efficiency of the procedure and to quantify and store and deliver it.

상기와 같은 목적을 달성하기 위해 본 발명은, 컨볼루션 신경망(CNN, Convolution Neural Network)을 기반으로 하여 별도로 미리 입력받은 신체 피부 이미지를 통해 미리 학습하는 학습부; 컨볼루션 신경망을 기반으로 미리 학습되어진 학습부의 파라미터(Parameter)를 통해, 시술자로부터 입력받은 신체 피부 이미지를 분석, 분류하는 분석부; 시술자로부터 입력받은 신체 피부 이미지가 포함된 최종 분류 내용을 분석부로부터 전달받아 시술자가 볼 수 있게 표시하고, 시술자로부터 최종 분류 내용 선택을 입력받을 수 있는 장치를 포함하며, 장치를 통해 시술자로부터 선택된 최종 분류 내용을 피 시술자가 볼 수 있게 표시하는 표시부; 및 시술자로부터 선택된 최종 분류 내용 및 최종 분류 내용에 포함된 신체 피부 이미지의 특징을 표시부로부터 전달받아, 시술장치에 전달하는 시술부;를 포함하는 것을 특징으로 하는 컨볼루션 신경망을 이용한 이미지 분석을 통해 신체피부를 시술에 필요한 피부 타입으로 구분, 이를 저장, 전달하는 장치를 제공한다.In order to achieve the above object, the present invention is based on a convolutional neural network (CNN, Convolution Neural Network) learning unit for learning in advance through a previously input body skin image; An analysis unit that analyzes and classifies body skin images received from the operator through parameters of a learning unit previously learned based on a convolutional neural network; It includes a device that can receive the final classification contents including the body skin image input from the operator from the analysis unit for viewing by the operator, and includes a device capable of receiving the selection of the final classification content from the operator, and the final selected from the operator through the device A display unit for displaying the classified contents to be viewed by the operator; And a surgical unit receiving the characteristics of the final classification content selected from the operator and the body skin image included in the final classification content from the display unit and transmitting the characteristics of the body skin to the surgical device. The body through image analysis using a convolutional neural network, comprising: Provides a device for classifying skin into skin types necessary for the procedure, and storing and delivering the skin.

본 발명은 시술자의 비 계량적이고 추상적으로 피 시술자에게 전달 되는 의료 정보를 체계적, 계량적 수치로 대체하는 효과가 있다.The present invention has an effect of replacing medical information delivered to the non-quantitatively and abstractly the operator with a systematic and quantitative numerical value.

또한, 본 발명은 환자의 상태를 입력함에 있어, 컨볼루션 신경망 기반의 이미지 패턴 정보를 이용한 딥러닝 시스템을 제공하여, 입력의 효율성을 높이는 효과가 있다.In addition, the present invention provides a deep learning system using convolutional neural network-based image pattern information in inputting a patient's condition, thereby improving input efficiency.

도 1은 본 발명의 실시예를 따른 컨볼루션 신경망 기반의 딥러닝 시스템을 이용한 장치의 블록도,
도 2는 본 발명의 실시예를 따른 다중 컨볼루션 신경망의 구성도,
도 3은 본 발명의 실시예를 따른 컨볼루션 신경망 기반의 세부 진단 그룹, 상위 진단 그룹, 시술 그룹을 나타낸 구성도,
도 4는 본 발명의 실시예를 따른 표시부에 상위 진단 그룹, 시술 그룹, 시술 파라미터 추천 화면의 체계를 나타낸 모식도이다.
1 is a block diagram of an apparatus using a deep learning system based on a convolutional neural network according to an embodiment of the present invention;
2 is a configuration diagram of a multiple convolutional neural network according to an embodiment of the present invention,
Figure 3 is a detailed diagram showing a convolutional neural network-based detailed diagnostic group, a higher diagnostic group, and a surgical group according to an embodiment of the present invention,
4 is a schematic diagram showing a system of a high-level diagnosis group, a treatment group, and a procedure parameter recommendation screen on a display unit according to an embodiment of the present invention.

이하에서 본 발명의 바람직한 실시예를 도면을 참조하여 상세히 설명하기로 한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings.

도 1 내지 도 4에 도시된 바와 같이, 본 발명의 실시예를 따른 컨볼루션 신경망 기반의 딥러닝 시스템을 이용한 장치는, 컨볼루션 신경망(CNN, Convolution Neural Network)을 기반으로 하여 별도로 미리 입력받은 신체 피부 이미지를 통해 미리 학습하는 학습부(10); 상기 컨볼루션 신경망을 기반으로 미리 학습되어진 학습부(10)의 파라미터(Parameter)를 통해, 시술자로부터 입력받은 신체 피부 이미지를 분석, 분류하는 분석부(20); 상기 시술자로부터 입력받은 신체 피부 이미지가 포함된 최종 분류 내용을 분석부(20)로부터 전달받아 시술자가 볼 수 있게 표시하고, 상기 시술자로부터 최종 분류 내용 선택을 입력받을 수 있는 장치를 포함하며, 상기 장치를 통해 시술자로부터 선택된 최종 분류 내용을 피 시술자가 볼 수 있게 표시하는 표시부(30); 및 상기 시술자로부터 선택된 최종 분류 내용 및 상기 최종 분류 내용에 포함된 신체 피부 이미지의 특징을 표시부(30)로부터 전달받아, 시술장치에 전달하는 시술부(40);를 포함한다.As illustrated in FIGS. 1 to 4, a device using a deep learning system based on a convolutional neural network according to an embodiment of the present invention, a body previously received separately based on a convolutional neural network (CNN) A learning unit 10 learning in advance through a skin image; An analysis unit 20 for analyzing and classifying the body skin image received from the operator through the parameters of the learning unit 10 previously learned based on the convolutional neural network; And a device capable of receiving the final classification information including the body skin image input from the operator from the analysis unit 20 for display by the operator, and receiving the selection of the final classification content from the operator, and the device Display unit 30 for displaying the final classification selected from the operator through the visible to the operator; And a treatment unit 40 that receives characteristics of the final classification content selected from the operator and the body skin image included in the final classification content from the display unit 30 and delivers the characteristics to the surgical device.

상기 딥러닝은 큰 틀에서 사람의 사고방식을 컴퓨터에게 가르치는 기계학습(machine learning)의 한 분야로서, 여러 비선형 변환기법의 조합을 통해 높은 수준의 추상화(abstractions, 다량의 데이터나 복잡한 자료들 속에서 핵심적인 내용 또는 기능을 요약하는 작업)를 시도하는 기계학습(machine learning) 알고리즘의 집합으로 정의된다.Deep learning is a field of machine learning that teaches a person's way of thinking to a computer in a large frame, through a combination of several nonlinear transformation methods, in a high level of abstraction, a large amount of data, or complex data. It is defined as a set of machine learning algorithms that attempt to summarize the core content or functions.

즉, 딥러닝 기술을 적용하면 사람이 모든 판단 기준을 정해주지 않아도 컴퓨터가 스스로 인지,추론,판단할 수 있게 되고, 음성,이미지 인식과 사진 분석 등에 광범위하게 활용하는 것이 가능하다.In other words, if deep learning technology is applied, a computer can recognize, reason, and judge by itself even if a person does not set all judgment criteria, and it can be widely used for voice, image recognition, and photo analysis.

본 발명에서 제안하는 방법의 컨볼루션 신경망은 딥러닝의 일종으로, 컨볼루션 레이어(Convolution layer), 풀링 레이어(Pooling layer), 언풀링 레이어(Unpooling layer), 디컨볼루션 레이어(Deconvolution layer)로 이루어져 있다.The convolutional neural network of the method proposed in the present invention is a type of deep learning, and consists of a convolution layer, a pooling layer, an unpooling layer, and a deconvolution layer. have.

컨볼루션 신경망은 입력 영상에 대하여 컨볼루션 레이어와 풀링 레이어를 번갈아 가면서 수행함으로써 영상으로부터 인식 대상의 특징을 추출하고 추출된 특징의 차원수를 줄여나가게 된다.The convolutional neural network extracts the feature of the recognition object from the image and reduces the number of dimensions of the extracted feature by alternately performing the convolution layer and the pooling layer on the input image.

언풀링 레이어는 풀링 레이어에서 사라진 공간정보들의 문제를 해결하기 위하여 사용된다.The unpooling layer is used to solve the problem of spatial information disappeared from the pooling layer.

디컨볼루션 레이어는 언풀링 레이어를 거치면서 작아진 요소들을 학습된 필터를 이용하여 새로운 값을 생성하기 위하여 사용된다. The deconvolution layer is used to generate new values using the learned filter of the small elements passing through the unpooling layer.

상기 풀링 레이어는 컨볼루션 레이어의 피처맵(Feature map)의 크기를 줄여주는 역할을 수행한다.The pooling layer serves to reduce the size of the feature map of the convolution layer.

이때 상기 풀링 레이어는 맥스 풀링 레이어(Max pooling layer)와 에버리지 풀링 레이어(Average pooling layer) 중 어느 하나를 사용할 수 있다.At this time, the pooling layer may use any one of a Max pooling layer and an Average pooling layer.

상기 맥스 풀링을 자세히 설명하면 다음과 같다.The Max pooling will be described in detail as follows.

상기 맥스 풀링은 피처맵을 임의의 크기로 잘라낸 다음, 잘라낸 크기의 이미지 영역에서 가장 큰 값을 뽑아내는 방법이다. 이는 전체 데이터의 사이즈가 줄어들기 때문에 연산에 들어가는 컴퓨팅 리소스가 적어진다는 장점이 있다.The max pooling is a method of cutting a feature map to an arbitrary size and then extracting the largest value from the image area of the cut size. This has the advantage that the total data size is reduced, so there are fewer computing resources to enter the operation.

예를 들어, 피처맵에 스트라이드(Stride)가 2인 풀링 필터(Pooling filter)를 사용할 경우, 총 4개의 출력 값이 생기는데, 여기서, 상기 맥스 풀링 레이어는 풀링 필터 안의 4개 파라미터값들 중 최대값 1개를 선택하고 나머지 3개 파라미터 값은 버림으로써 피처맵의 크기를 줄여준다.For example, when a pooling filter having a stride of 2 is used in the feature map, a total of four output values are generated, where the max pooling layer is the maximum value among the four parameter values in the pooling filter. Select one and discard the remaining three parameter values to reduce the size of the feature map.

또한, 상기 에버리지 풀링 레이어는 풀링 필터 안의 4개 파라미터값들을 평균 낸 평균값 1개를 선택함으로써 피처맵의 크기를 줄여준다.In addition, the average pooling layer reduces the size of the feature map by selecting one average value averaged over four parameter values in the pooling filter.

본 발명에서 상기 풀링 레이어는 한개 이상이며, 풀리 커넥티드 레이어(Fully connected layer)가 2개 이상으로 구성될 수 있다.In the present invention, the pooling layer may be one or more, and two or more fullly connected layers may be formed.

상기 풀리 커넥티드 레이어는 기존 신경망과 같은 형태의 레이어로서, 모든 입력 노드(Input Node)가 모든 출력 노드(Output Node)로 연결된 상태이고 실제로 컴퓨터는 상기 풀리 커넥티드 레이어를 통해 특징 데이터를 학습하게 된다.The pulley connected layer is a layer in the same form as a conventional neural network, and all input nodes are connected to all output nodes, and a computer actually learns feature data through the pulley connected layer. .

상기 풀리 커넥티드 레이어는 컨볼루션 레이어와 풀링 레이어에서 추출된 특징값들을 기존의 뉴럴 네트워크(Neural Network)에 넣는다.The pulley connected layer puts feature values extracted from the convolution layer and the pooling layer into an existing neural network.

상기 풀리 커넥티드 레이어의 출력단에는 입력 영상에 포함된 각 진단의 종류와 위치에 따른 확률값을 표시하기 위해 소프트맥스(Softmax) 함수가 사용될 수 있다.A softmax function may be used at an output terminal of the fully connected layer to display probability values according to types and locations of each diagnosis included in the input image.

이때, 상기 소프트맥스 함수는 입력받은 값을 0~1사이의 값으로 모두 정규화하여 출력하며, 출력 값들의 총합은 항상 1이 되는 특성을 가진 함수이다.At this time, the softmax function outputs the input value by normalizing all values between 0 and 1, and the sum of the output values is always 1.

또한, 본 발명은 컨볼루션 필터를 적용하여 추출된 피처맵에 leaky ReLU(Rectified Linear Unit) 활성화 함수를 적용할 수 있다.In addition, the present invention can apply a leaky ReLU (Rectified Linear Unit) activation function to a feature map extracted by applying a convolution filter.

이는, 컨볼루션 신경망 시스템에서 신경망이 깊어질수록 학습이 어렵기 때문에 역전파(Back-propagation, 다층 퍼셉트론 학습에 사용되는 통계적 기법) 알고리즘 방법을 사용하는데, 기존의 시그모이드 함수(Sigmoid function)를 활성화 함수로 사용할 경우 레이어가 깊어지면 역전파(Back-propagation) 알고리즘이 제대로 동작하지 않을 수 있어(Gradient Vanishing 현상: 결과값을 CNN의 뒤에서 앞으로 전달할 때 전달 값이 사라지는 현상) leaky ReLU 활성화 함수를 사용한다.This is because the deeper the neural network in the convolutional neural network system, the more difficult it is to learn, so the back-propagation (statistical technique used for multi-layer perceptron learning) algorithm method is used. When used as an activation function, the back-propagation algorithm may not work properly when the layer is deep (Gradient Vanishing phenomenon: the passing value disappears when forwarding the result from the back of the CNN). Use the leaky ReLU activation function do.

본 발명은 컨볼루션 신경망의 출력단으로부터 출력되는 결과와 출력 기대값과의 차이를 참고한 다음, 역전파 알고리즘을 이용하여 상기 컨볼루션 신경망의 네트(Net)에 해당하는 가중치값을 변화시키는 단계; 및 영상을 반복적으로 적용함으로써 컨볼루션 신경망의 출력단으로부터 출력되는 결과가 출력 기대값으로 수렴하도록 하고, 실제 출력값과 출력 기대값의 차이가 최소화되면 컨볼루션 신경망의 학습을 마치는 단계를 포함한다.The present invention refers to a difference between a result output from an output terminal of a convolutional neural network and an expected output value, and then, using a back propagation algorithm, changing a weight value corresponding to the net of the convolutional neural network; And applying the image repeatedly to converge the result output from the output terminal of the convolutional neural network to the output expected value, and finish learning the convolutional neural network when the difference between the actual output value and the output expected value is minimized.

즉, 입력 정보마다 입력 정보에 학습을 통해 얻은 가중치를 적용한 값과, 입력 정보들의 관계를 패턴화한 패턴 정보에 패턴 가중치를 적용한 값을 얻고 이를 합한다.That is, for each input information, a weighted value obtained through learning is applied to the input information, and a value obtained by applying a pattern weight to pattern information patterning a relationship between input information is obtained and summed.

그리고, 입력의 수만큼 존재하는 합한 값들을 최종적으로 합해 출력 정보를 얻는다.Then, the summed values existing as many as the number of inputs are finally summed to obtain output information.

보다 구체적으로, 도 1에 도시된 바와 같이, 본 발명의 실시예를 따른 컨볼루션 신경망을 이용한 장치는, 학습부(10)가 분석부(20), 표시부(30)와는 물리적으로 구분된 별도의 장치에 있게 할 수 있다.More specifically, as shown in Figure 1, the apparatus using the convolutional neural network according to an embodiment of the present invention, the learning unit 10 is a separate physically separated from the analysis unit 20, the display unit 30 Device.

그리고, 상기 컨볼루션 신경망은 자료의 양 및 아키텍처의 구조에 따라 무수히 많은 양의 연산을 하게 된다.And, the convolutional neural network performs a myriad of calculations depending on the amount of data and the structure of the architecture.

그러나, 본 장치로써 이루고자 하는 목표에 있어 해당 연산시간은 큰 걸림돌이기 때문에, 데이터의 수집과 데이터의 학습은 분석부(20)와는 별도로 구성된 학습부(10)에서 실시하고 학습의 결과를 검토 확인하여, 개별 분석부(20)에 유무선 방식 통신을 통해 파라미터를 전달한다.However, since the operation time is a major obstacle to the goal to be achieved by the apparatus, the collection of data and the learning of the data are performed by the learning unit 10 configured separately from the analysis unit 20, and the results of the learning are reviewed and confirmed. , The parameters are transmitted to the individual analysis unit 20 through wired/wireless communication.

상기 학습부(10)의 학습에 필요한 신체 피부 이미지는 가시광선, 편광, 자외선, 적외선 중 어느 하나를 이용하는 카메라가 포함된 영상 입력부를 통해 미리 획득되어, 상기 학습부(10)에 미리 입력된다.The body skin image required for learning of the learning unit 10 is obtained in advance through an image input unit including a camera using any one of visible light, polarization, ultraviolet light, and infrared light, and is previously input to the learning unit 10.

또한, 상기 학습부(10)의 학습에 필요한 신체 피부 이미지는 시술자로부터 핸드피스 또는 기타 스캐너 장치 등을 통해 미리 획득할 수 있다.In addition, the body skin image necessary for learning of the learning unit 10 may be obtained in advance through a handpiece or other scanner device from the operator.

도 2에 도시된 바와 같이, 상기 학습부(10)는 신체 피부 이미지에 1Χ1, 3Χ3 및 5Χ5중 어느 하나의 컨볼루션 필터를 적용하여, 상기 신체 피부 이미지를 피처맵으로 변환하는 컨볼루션 레이어를 포함한다.As shown in FIG. 2, the learning unit 10 includes a convolutional layer that converts the body skin image into a feature map by applying any one of 1Χ1, 3Χ3, and 5Χ5 convolution filters to the body skin image do.

그리고, 상기 학습부(10)는 신체 피부 이미지의 데이터 크기를 줄여주는 풀링 레이어(Pooling Layer)를 포함한다.In addition, the learning unit 10 includes a pooling layer that reduces the data size of the body skin image.

즉, 상기 학습부(10)는 컨볼루션 레이어와 풀링 레이어를 번갈아가며 구성하여 입력된 이미지의 특징을 추출하여 입력데이터의 특징이 강조된 작은 데이터로 만들어 분류하는 것이다.That is, the learning unit 10 is configured to alternately configure the convolution layer and the pooling layer to extract the characteristics of the input image and classify it into small data with the characteristics of the input data emphasized.

그리고, 상기 분석부(20)는 영상 입력부를 포함할 수 있다.In addition, the analysis unit 20 may include an image input unit.

상기 영상 입력부는 시술자가 필요한 부분의 신체 피부 이미지를 획득할 수 있는 카메라와 연결되어 직접적인 입력 영상을 수신하거나, 무선 네트워크 또는 인터넷 네트워크로부터 수신 받을 수 있다.The image input unit may be connected to a camera capable of acquiring a body skin image of a part required by the operator to receive a direct input image, or may be received from a wireless network or an Internet network.

상기 영상 입력부의 카메라는 가시광선, 편광, 자외선, 적외선중 어느 하나를 이용하여 신체 피부 이미지를 획득할 수 있다.The camera of the image input unit may acquire a body skin image using any one of visible light, polarization, ultraviolet light, and infrared light.

이와 같은 다양한 루트를 통해 영상을 입력 받음으로써, 다양한 환경 및 대량의 영상 데이터가 빅데이터로서의 기능을 수행하여 보다 정확하고 높은 수준의 영상 학습 데이터를 획득할 수 있게 된다.By receiving images through various routes, various environments and large amounts of image data can function as big data to obtain more accurate and high-quality image learning data.

그리고, 상기 표시부(30)는 분석부(20) 및 시술자로부터 데이터를 입력받아, 유·무선 방식을 통해 시술부(40)로 전달한다.Then, the display unit 30 receives data from the analysis unit 20 and the operator, and transmits the data to the procedure unit 40 through a wired or wireless method.

여기서, 상기 시술부(40)는 레이저 조사기 등과 같은 피부 치료를 위한 시술장치를 포함하며, 분석부(20) 및 시술자로부터 입력받은 데이터를 상기 시술장치에 전달해준다.Here, the treatment unit 40 includes a treatment device for skin treatment such as a laser irradiator, and transmits data received from the analysis unit 20 and the operator to the treatment device.

또한, 시술장치에는 장치의 Type, 출력 에너지, 빔 Size, Pulse Duration, Frequency 등 출력시 정해져야할 Parameter 들이 있다. 위 항목 중 상기 장치의 Type는 시술장치를 시술자에게 추천하는 수준의 구분이며, 이하 Parameter는 추천 시술장치 내의 설정 값들을 의미한다.In addition, the treatment device has parameters to be determined when outputting the device type, output energy, beam size, pulse duration, and frequency. Among the above items, the type of the device is a classification of a level in which the surgical device is recommended to the operator, and the following parameters refer to set values in the recommended surgical device.

도 3에 도시된 바와 같이, 본 발명의 상기 분석부(20)는 최종적으로 얻어진 출력정보를 세부 진단명으로 구분 하고(세부 진단 그룹), 상기 세부 진단 그룹을 포함하는 상위 진단명(상위 진단 그룹)과, 상위 진단 그룹에 적용 가능한 시술 그룹으로 라벨 별로 분류하여 표시부(30)를 통해 출력한다.As shown in FIG. 3, the analysis unit 20 of the present invention divides the output information finally obtained into a detailed diagnosis name (detailed diagnosis group), and a higher diagnosis name (higher diagnosis group) including the detailed diagnosis group. , It is classified as a treatment group applicable to the upper diagnosis group by label and output through the display unit 30.

상기 상위 진단 그룹 내의 라벨은 각각 일정 세부 진단 그룹의 라벨을 하위로 포함한다. Each label in the upper diagnostic group includes a label of a specific detailed diagnostic group as a lower level.

각각의 상기 상위 진단 그룹 라벨은 하위로 포함하는 세부 진단 자식 그룹이 갖는 각 라벨의 확률의 합으로 이루어진다.Each of the upper diagnostic group labels consists of the sum of the probability of each label of the sub-diagnosis child group included as a lower level.

상기 시술 그룹은 시술자가 본 발명이 적용된 장치를 통해 진행 하고자 하는 시술항목을 각각의 라벨로 모아 놓은 집합이다.The treatment group is a collection of treatment items, which are to be performed by the operator through the apparatus to which the present invention is applied, with respective labels.

도 4는 본 발명의 실시예를 따른 상기 표시부(30)를 통한 진단명 입력 화면의 예이다.4 is an example of a screen for inputting a diagnosis name through the display unit 30 according to an embodiment of the present invention.

상기 표시부(30)는 도 4에 도시된 바와 같이, 분류된 이미지를 상위 진단 그룹의 라벨 내 높은 확률 순으로 나열하여 표시하고, 시술자로부터 상기 상위 진단 그룹과 시술 그룹 중 각각 한가지를 선택 입력받을 수 있는 기능을 포함한다.As shown in FIG. 4, the display unit 30 displays and displays the classified images in the order of high probability in the label of the upper diagnosis group, and can select and input one of the upper diagnosis group and the treatment group from the operator, respectively. Includes features.

이때, 상기 표시부(30)는 선택 입력받은 시술 그룹 중 한가지 라벨을 토대로 시술자에게 시술장치 및 상기 시술장치 내 파라미터((Parameter)를 시술부(40)로부터 전달받아 추천 할 수 있다.In this case, the display unit 30 may recommend the operator by receiving the procedure device and the parameters in the procedure device from the procedure unit 40 based on one label of the selected procedure group.

이러한 구성을 가진 본 발명의 사용에 따른 본 발명의 작용에 대하여 살펴보기로 한다.It will be described with respect to the operation of the present invention according to the use of the present invention having such a configuration.

시술자는 환자의 신체 피부 이미지를 분석부(20)에 입력한다.The operator inputs the image of the patient's body skin into the analysis unit 20.

이때 상기 신체 피부 이미지는 가시광선, 편광, 자외선, 적외선중 어느 하나를 이용하는 영상 입력부의 카메라로 획득할 수 있다.In this case, the body skin image may be acquired by a camera of an image input unit using any one of visible light, polarized light, ultraviolet light, and infrared light.

그러면, 상기 분석부(20)는 컨볼루션 신경망을 기반으로 미리 학습되어진 학습부(10)의 파라미터와 비교하여 입력된 신체 피부 이미지를 분류한다.Then, the analysis unit 20 classifies the input body skin image by comparing with the parameters of the learning unit 10 previously learned based on the convolutional neural network.

여기서, 상기 학습부(10)는 신체 피부 이미지로 학습하여 컨볼루션 신경망 아키텍쳐를 구성한다.Here, the learning unit 10 constructs a convolutional neural network architecture by learning a body skin image.

그리고, 상기 분석부(20)는 입력된 신체 피부 이미지를 세부 진단 그룹, 상위 진단 그룹 및 시술 그룹으로 라벨 별로 분류하여 표시부(30)를 통해 표시한다.In addition, the analysis unit 20 classifies the input body skin images into detailed diagnosis groups, upper diagnosis groups, and treatment groups for each label and displays them through the display unit 30.

이때 상위 진단 그룹의 각각의 라벨은 일정 세부 진단 그룹의 라벨을 하위로 포함하고, 포함된 하위 라벨의 확률의 합으로 이루어진다.At this time, each label of the upper diagnosis group includes a label of a specific detailed diagnosis group as a lower part, and is made of the sum of the probability of the lower label.

상기 표시부(30)는 입력 이미지, 상위 진단 그룹 및 시술 그룹의 라벨을 높은 확률 순으로 표시하고, 시술자로부터 상위 진단 그룹과 시술 그룹 각각의 내부 라벨을 선택 입력받을 수 있다.The display unit 30 may display the input image, the upper diagnosis group, and the label of the treatment group in the order of high probability, and may receive input of the internal label of each of the upper diagnosis group and the treatment group from the operator.

그러면, 상기 표시부(30)는 선택 입력받은 시술 그룹 내의 한가지 라벨을 토대로 시술부(40)로부터, 시술장치 및 상기 시술장치 내 파라미터((Parameter)를 전달받아 표시하여 시술자에게 추천하게 된다.Then, the display unit 30 receives and displays the procedure device and the parameters in the procedure device from the procedure unit 40 based on one label in the selected procedure group, and recommends it to the operator.

그리고, 상기 시술부(40)에서 출력되는 신체 피부 이미지의 특징은 학습부(10)와는 별개로 분석부(20)와 표시부(30)에 입력된 수치표이며, 이는 진단명, 환부의 크기, 명도 등과 같은 값에 따라 단순 조건 선택으로 선정되는 값이다.In addition, the characteristics of the body skin image output from the treatment unit 40 are numerical tables input to the analysis unit 20 and the display unit 30 separately from the learning unit 10, which are the diagnosis name, the size of the affected area, and the brightness. It is a value selected by simple condition selection according to values such as.

또한, 상기 시술부(40)에서 출력되는 신체 피부 이미지의 특징은 표시부(30)에서 상기 시술부(40)로 유·무선 방식의 통신으로 전달될 수 있다.In addition, the characteristics of the body skin image output from the treatment unit 40 may be transferred from the display unit 30 to the treatment unit 40 through wired or wireless communication.

또한, 상기 표시부(30)는 최종 분류 내용을 토대로 시술 전후를 비교하여 피 시술자가 볼 수 있게 디스플레이처럼 볼 수 있게 표시할 수 있다.In addition, the display unit 30 may compare the before and after the procedure based on the final classification, and display it so that the operator can see it like a display.

이와 같이 본 발명은 시술자 및 피 시술자에게 컨볼루션 신경망 기반의 학습부를 통해 시술에 대한 체계적이고 정량화된 최종 분류 내용을 신속하게 제공하여 상술한 종래의 문제점들을 해소할 수 있다.As described above, the present invention can solve the above-described problems by quickly providing a systematic and quantitative final classification of the procedure to the operator and the operator through a convolutional neural network-based learning unit.

본 명세서에서 설명되는 실시예와 첨부된 도면은 본 발명에 포함되는 기술적 사상의 일부를 예시적으로 설명하는 것에 불과하다. 따라서, 본 명세서에 개시된 실시예들은 본 발명의 기술적 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이므로, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아님은 자명하다. 본 발명의 명세서 및 도면에 포함된 기술적 사상의 범위 내에서 당업자가 용이하게 유추할 수 있는 변형예와 구체적인 실시 예는 모두 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The embodiments described in the present specification and the accompanying drawings are merely illustrative of some of the technical spirit included in the present invention. Therefore, the embodiments disclosed in the present specification are not intended to limit the technical spirit of the present invention, but to explain the scope of the technical spirit of the present invention. Within the scope of the technical spirit included in the specification and drawings of the present invention, modifications and specific embodiments that can be easily inferred by those skilled in the art should be interpreted as being included in the scope of the present invention.

10 : 학습부 20 : 분석부
30 : 표시부 40 : 시술부
10: learning unit 20: analysis unit
30: display unit 40: treatment unit

Claims (12)

컨볼루션 신경망(CNN, Convolution Neural Network)을 기반으로 하여 별도로 미리 입력받은 신체 피부 이미지를 통해 미리 학습하는 학습부(10);
상기 컨볼루션 신경망을 기반으로 미리 학습되어진 학습부(10)의 파라미터(Parameter)를 통해, 시술자로부터 입력받은 신체 피부 이미지를 분석, 분류하는 분석부(20);
상기 시술자로부터 입력받은 신체 피부 이미지가 포함된 최종 분류 내용을 분석부(20)로부터 전달받아 시술자가 볼 수 있게 표시하고, 상기 시술자로부터 최종 분류 내용 선택을 입력받을 수 있는 장치를 포함하며, 상기 장치를 통해 시술자로부터 선택된 최종 분류 내용을 피 시술자가 볼 수 있게 표시하는 표시부(30); 및
상기 시술자로부터 선택된 최종 분류 내용 및 상기 최종 분류 내용에 포함된 신체 피부 이미지의 특징을 표시부(30)로부터 전달받아, 시술장치에 전달하는 시술부(40);를 포함하고,
상기 분석부(20)는 시술자가 필요한 부분의 신체 피부 이미지를 획득할 수 있는 카메라가 포함된 영상 입력부를 갖으며,
상기 분석부(20)는 영상 입력부를 통해 입력받은 신체 피부 이미지를, 컨볼루션 신경망을 기반으로 미리 학습되어진 학습부(10)의 파라미터를 통해 분류하며,
상기 영상 입력부를 통해 입력받은 신체 피부 이미지는 세부 진단 분류로 분류될 확률을 분석하는 세부 진단 그룹과, 상기 세부 진단 그룹을 포함하는 상위 진단 분류인 상위 진단 그룹, 및 상기 상위 진단 그룹에 적용 가능한 시술 그룹으로 라벨 별로 분류되는 것을 특징으로 하는 컨볼루션 신경망을 이용한 이미지 분석을 통해 신체피부를 시술에 필요한 피부 타입으로 구분, 이를 저장, 전달하는 장치.
A learning unit 10 for learning in advance through a body skin image previously input separately based on a convolutional neural network (CNN);
An analysis unit 20 for analyzing and classifying the body skin image received from the operator through the parameters of the learning unit 10 previously learned based on the convolutional neural network;
And a device capable of receiving the final classification information including the body skin image input from the operator from the analysis unit 20 for display by the operator, and receiving the selection of the final classification content from the operator, and the device Display unit 30 for displaying the final classification selected from the operator through the visible to the operator; And
It includes; a surgical unit 40 for receiving the characteristics of the final classification content selected from the operator and the body skin image included in the final classification content from the display unit 30 and transmitting the characteristics to the surgical device;
The analysis unit 20 has an image input unit that includes a camera capable of acquiring a body skin image of a part required by the operator,
The analysis unit 20 classifies the body skin image received through the image input unit through the parameters of the learning unit 10 previously learned based on the convolutional neural network,
The body skin image received through the image input unit is a detailed diagnosis group that analyzes the probability of being classified into a detailed diagnosis classification, a high diagnosis group that is a high-level diagnosis classification including the detailed diagnosis group, and a procedure applicable to the high-level diagnosis group A device that classifies body skin into skin types required for the procedure through image analysis using a convolutional neural network, which is classified into groups by label, and stores and delivers it.
청구항 1에 있어서,
상기 학습부(10)는 분석부(20), 표시부(30)와는 물리적으로 구분된 별도의 장치에 있는 것을 특징으로 하는 컨볼루션 신경망을 이용한 이미지 분석을 통해 신체피부를 시술에 필요한 피부 타입으로 구분, 이를 저장, 전달하는 장치.
The method according to claim 1,
The learning unit 10 is classified into skin types required for the procedure through image analysis using a convolutional neural network, characterized in that it is on a separate device physically separated from the analysis unit 20 and the display unit 30. , A device that stores and delivers it.
청구항 1에 있어서,
상기 학습부(10)는 신체 피부 이미지에 1Χ1, 3Χ3 및 5Χ5중 어느 하나의 컨볼루션 필터를 적용하여, 상기 신체 피부 이미지를 피처맵으로 변환하는 컨볼루션 레이어를 포함하는 것을 특징으로 하는 컨볼루션 신경망을 이용한 이미지 분석을 통해 신체피부를 시술에 필요한 피부 타입으로 구분, 이를 저장, 전달하는 장치.
The method according to claim 1,
The learning unit 10 includes a convolutional layer that converts the body skin image into a feature map by applying any one of 1Χ1, 3Χ3, and 5Χ5 convolution filters to the body skin image. Device that classifies body skin into skin types required for the procedure through image analysis using, stores, and transmits it.
청구항 1에 있어서,
상기 학습부(10)는 신체 피부 이미지의 데이터 크기를 줄여주는 풀링 레이어(Pooling Layer)를 포함하는 것을 특징으로 하는 컨볼루션 신경망을 이용한 이미지 분석을 통해 신체피부를 시술에 필요한 피부 타입으로 구분, 이를 저장, 전달하는 장치.
The method according to claim 1,
The learning unit 10 classifies the body skin into skin types required for the procedure through image analysis using a convolutional neural network, characterized in that it includes a pooling layer that reduces the data size of the body skin image. Storage and delivery device.
청구항 1에 있어서,
상기 학습부(10)는 분석부(20)에 파라미터를 전달함에 있어서 유·무선방식 통신을 사용하는 것을 특징으로 하는 컨볼루션 신경망을 이용한 이미지 분석을 통해 신체피부를 시술에 필요한 피부 타입으로 구분, 이를 저장, 전달하는 장치.
The method according to claim 1,
The learning unit 10 classifies the body skin into skin types required for the procedure through image analysis using a convolutional neural network, characterized in that wired/wireless communication is used to transmit parameters to the analysis unit 20, A device that stores and delivers it.
청구항 1에 있어서,
상기 학습부(10)의 학습에 필요한 신체 피부 이미지는 가시광선, 편광, 자외선, 적외선 중 어느 하나를 이용하는 카메라가 포함된 영상 입력부를 통해 미리 획득되어, 상기 학습부(10)에 미리 입력되는 것을 포함하는 것을 특징으로 하는 컨볼루션 신경망을 이용한 이미지 분석을 통해 신체피부를 시술에 필요한 피부 타입으로 구분, 이를 저장, 전달하는 장치.
The method according to claim 1,
The body skin image necessary for learning of the learning unit 10 is obtained in advance through an image input unit including a camera using any one of visible light, polarization, ultraviolet light, and infrared light, and is input in advance to the learning unit 10 Device for classifying body skin into skin types required for the procedure through image analysis using a convolutional neural network, characterized in that it comprises, storing, and transmitting it.
삭제delete 청구항 1에 있어서,
상기 영상 입력부의 카메라는 가시광선, 편광, 자외선, 적외선 중 어느 하나를 이용하여 신체 피부 이미지를 획득하는 것을 특징으로 하는 컨볼루션 신경망을 이용한 이미지 분석을 통해 신체피부를 시술에 필요한 피부 타입으로 구분, 이를 저장, 전달하는 장치.
The method according to claim 1,
The camera of the image input unit is classified into skin types required for the procedure through image analysis using a convolutional neural network, characterized in that the body skin image is acquired using any one of visible light, polarization, ultraviolet light, and infrared light. A device that stores and delivers it.
삭제delete 삭제delete 청구항 1에 있어서,
상기 표시부(30)는 분류된 신체 피부 이미지를 상위 진단 그룹의 라벨 내 높은 확률 순으로 나열하여 표시하고, 시술자로부터 상위 진단 그룹과 시술 그룹 각각의 내부 라벨을 선택 입력받을 수 있는 기능을 포함하는 것을 특징으로 하는 컨볼루션 신경망을 이용한 이미지 분석을 통해 신체피부를 시술에 필요한 피부 타입으로 구분, 이를 저장, 전달하는 장치.
The method according to claim 1,
The display unit 30 lists and displays the classified body skin images in the order of the highest probability in the label of the upper diagnosis group, and includes a function to select and input the internal label of each of the upper diagnosis group and the treatment group from the operator Device that classifies body skin into skin types required for the procedure through image analysis using a convolutional neural network, and stores and transmits it.
청구항 11에 있어서,
상기 표시부(30)는 선택 입력받은 시술 그룹 내의 한가지 라벨을 토대로 시술부(40)로부터, 시술장치 및 상기 시술장치 내 파라미터((Parameter)를 전달받아 표시하여 시술자에게 추천하는 것을 특징으로 하는 컨볼루션 신경망을 이용한 이미지 분석을 통해 신체피부를 시술에 필요한 피부 타입으로 구분, 이를 저장, 전달하는 장치.
The method according to claim 11,
The display unit 30 is a convolution characterized in that it recommends to the operator by receiving and displaying a procedure device and a parameter (Parameter) in the procedure device from the procedure unit 40 based on one label in the selected procedure group. A device that classifies body skin into skin types required for the procedure through image analysis using a neural network, and stores and transmits it.
KR1020180009463A 2018-01-25 2018-01-25 A device that divides the body skin into the type of skin required for the procedure through image analysis using convolution neural network KR102121462B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180009463A KR102121462B1 (en) 2018-01-25 2018-01-25 A device that divides the body skin into the type of skin required for the procedure through image analysis using convolution neural network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180009463A KR102121462B1 (en) 2018-01-25 2018-01-25 A device that divides the body skin into the type of skin required for the procedure through image analysis using convolution neural network

Publications (2)

Publication Number Publication Date
KR20190090583A KR20190090583A (en) 2019-08-02
KR102121462B1 true KR102121462B1 (en) 2020-06-10

Family

ID=67614113

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180009463A KR102121462B1 (en) 2018-01-25 2018-01-25 A device that divides the body skin into the type of skin required for the procedure through image analysis using convolution neural network

Country Status (1)

Country Link
KR (1) KR102121462B1 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021141187A1 (en) * 2020-01-08 2021-07-15 주식회사 에프앤디파트너스 Skin image-based skin disease identification apparatus
KR102364204B1 (en) * 2020-06-11 2022-02-18 주식회사 스타고바이오티 Scalp management system using panoptic segmentation
EP3922202A1 (en) * 2020-06-12 2021-12-15 Koninklijke Philips N.V. System and method for determining skin contact for a personal care device
CN113298841B (en) * 2021-07-26 2024-01-12 四川大学华西医院 Skin oil parting method, computer equipment, system and storage medium
KR102632282B1 (en) * 2021-10-26 2024-02-01 주식회사 제이시스메디칼 Ultrasound irradiation control method by tumor volume and device thereof

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017045341A (en) 2015-08-28 2017-03-02 カシオ計算機株式会社 Diagnostic apparatus, leaning processing method in diagnostic apparatus, and program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101197798B1 (en) 2012-02-27 2012-11-05 경일대학교산학협력단 An apparatus for skin diagnosis
KR20130133969A (en) * 2012-05-30 2013-12-10 주식회사 센바이텍 Automatically controlled laser apparatus by image-analysis
KR101803471B1 (en) * 2016-02-15 2017-12-01 성균관대학교 산학협력단 Deep learning system and learning method using of convolutional neural network based image patterning

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017045341A (en) 2015-08-28 2017-03-02 カシオ計算機株式会社 Diagnostic apparatus, leaning processing method in diagnostic apparatus, and program

Also Published As

Publication number Publication date
KR20190090583A (en) 2019-08-02

Similar Documents

Publication Publication Date Title
KR102121462B1 (en) A device that divides the body skin into the type of skin required for the procedure through image analysis using convolution neural network
US20220327714A1 (en) Motion Engine
Karri et al. Transfer learning based classification of optical coherence tomography images with diabetic macular edema and dry age-related macular degeneration
Chakrabarty A deep learning method for the detection of diabetic retinopathy
Yuille et al. Vision as Bayesian inference: analysis by synthesis?
WO2022212921A1 (en) Continually learning audio feedback engine
KR20180053003A (en) Method and apparatus for detection and diagnosis of plant diseases and insects using deep learning
CN104881683B (en) Cataract eye fundus image sorting technique based on assembled classifier and sorter
Sirish Kaushik et al. Pneumonia detection using convolutional neural networks (CNNs)
Yadav et al. HSV model‐based segmentation driven facial acne detection using deep learning
Paulun et al. A retinotopic spiking neural network system for accurate recognition of moving objects using neucube and dynamic vision sensors
CN108734283A (en) Nerve network system
CN110516791A (en) A kind of vision answering method and system based on multiple attention
CN110139067A (en) A kind of wild animal monitoring data management information system
Bedeli et al. Clothing identification via deep learning: forensic applications
Krishna et al. Classification of Glaucoma Optical Coherence Tomography (OCT) Images Based on Blood Vessel Identification Using CNN and Firefly Optimization.
Dong et al. Multi-reservoirs EEG signal feature sensing and recognition method based on generative adversarial networks
Amorim et al. Interpreting deep learning models for ordinal problems.
CN112990007B (en) Facial expression recognition method and system based on regional grouping and internal association fusion
Vinodhini et al. Detection of Post COVID-Pneumonia Using Histogram Equalization, CLAHE Deep Learning Techniques
KR102451102B1 (en) Companion animal skin lesion classification system and method based on artificial intelligence using clinical and image information
Hemanth et al. Diabetic retinopathy diagnosis in retinal images using hopfield neural network
Shivaanivarsha et al. An Efficient Fully Automated Detection of Mucormycosis Using Three-Dimensional Deep Learning on Computer Tomography Studies
Sottocornola et al. Contextual multi-armed bandit strategies for diagnosing post-harvest diseases of apple
Rababaah Deep learning of human posture image classification using convolutional neural networks

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant