KR101955919B1 - 딥러닝 기반의 영상데이터 내 관심영역 설정방법 및 프로그램 - Google Patents

딥러닝 기반의 영상데이터 내 관심영역 설정방법 및 프로그램 Download PDF

Info

Publication number
KR101955919B1
KR101955919B1 KR1020170122028A KR20170122028A KR101955919B1 KR 101955919 B1 KR101955919 B1 KR 101955919B1 KR 1020170122028 A KR1020170122028 A KR 1020170122028A KR 20170122028 A KR20170122028 A KR 20170122028A KR 101955919 B1 KR101955919 B1 KR 101955919B1
Authority
KR
South Korea
Prior art keywords
contour
image
learning
input
image data
Prior art date
Application number
KR1020170122028A
Other languages
English (en)
Inventor
심우현
성유섭
최규진
Original Assignee
재단법인 아산사회복지재단
울산대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 재단법인 아산사회복지재단, 울산대학교 산학협력단 filed Critical 재단법인 아산사회복지재단
Priority to KR1020170122028A priority Critical patent/KR101955919B1/ko
Application granted granted Critical
Publication of KR101955919B1 publication Critical patent/KR101955919B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • G06K9/3233
    • G06K9/4604
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 딥러닝 기반의 관심영역 설정방법 및 설정프로그램에 관한 것이다.
본 발명의 일실시예에 따른 딥러닝 기반의 관심영역 설정방법은, 빅데이터 내에 포함된 특정한 개수의 최초영상데이터에 대한 제1윤곽선을 수신하여, 제1윤곽이미지를 획득하는 단계(S200); 특정한 개수의 상기 제1윤곽이미지를 학습하는 단계(S400); 제1학습결과를 기반으로 영상데이터 전체에 관심영역의 경계로 산출된 제1윤곽선을 표시하는 단계(S600); 전체 제1윤곽이미지 중에서 특정한 개수에 대해 제2윤곽선을 수신하여 제2윤곽이미지를 획득하는 단계(S800; 제2윤곽이미지 획득단계); 상기 특정한 개수의 제2윤곽이미지를 학습하는 단계(S1000); 및 제2학습결과를 기반으로 영상데이터 전체에 대해 관심영역의 경계로 판단된 제2윤곽선을 표시하는 단계(S1200);를 포함한다.

Description

딥러닝 기반의 영상데이터 내 관심영역 설정방법 및 프로그램 {METHOD AND PROGRAM FOR PROVIDING THT REGION-OF-INTEREST IN IMAGE BY DEEP-LEARING ALGORITHM}
본 발명은 딥러닝 기반의 영상데이터 내 관심영역 설정방법 및 프로그램에 관한 것으로, 보다 자세하게는 컴퓨팅시스템에 의해 딥러닝 기반으로 빅데이터로 구축된 영상데이터 내 관심영역을 설정하는 방법 및 프로그램에 관한 것이다.
빅데이터로 구축된 영상데이터를 기반으로 딥러닝 분석을 수행하기 위해서는 영상데이터 내에 분석대상이 되는 관심영역(Region-Of-Interest; ROI)을 설정하여야 한다. 예를 들어, 의료영상데이터를 분석하여 특정 신체부위의 종양 특성을 분석하고자 하는 경우, 의료진이 빅데이터로 구축된 의료영상 각각에 관심영역인 종양의 윤곽선을 직접 그리는 과정을 수행한다.
그러나, 딥러닝 분석 수행을 위해 구축된 빅데이터 내에 다량의 영상데이터가 포함되므로, 각 영상데이터에 관심영역을 그리는 라벨링 과정을 수행하는데 소요되는 시간이 길어서, 딥러닝을 이용한 영상 빅데이터 분석이 제한되고 있다. 따라서, 빅데이터로 구축된 영상에 관심영역을 라벨링(Labeling)하는데 소요되는 시간을 단축하기 위한 기술이 필요하다.
한국등록특허공보 제10-1718159호 (2017.03.14. 등록)
본 발명은 일부 영상데이터에 대해 사용자로부터 입력된 윤곽선을 학습하여 전체 영상데이터 내 관심영역을 자동으로 설정함에 따라, 빅데이터로 구축된 영상데이터를 이용한 분석 수행을 용이하게 하는, 딥러닝 기반의 영상데이터 내 관심영역 설정방법 및 프로그램을 제공하고자 한다.
본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
본 발명의 일실시예에 따른 딥러닝 기반의 관심영역 설정방법은, 빅데이터 내에 포함된 특정한 개수의 최초영상데이터에 대한 제1윤곽선을 수신하여, 제1입력윤곽이미지를 획득하는 단계; 특정한 개수의 상기 제1입력윤곽이미지를 학습하여 제1학습결과를 생성하는 제1입력윤곽이미지 학습단계; 상기 제1학습결과를 기반으로 영상데이터 전체에 관심영역의 경계로 산출된 제1윤곽선을 표시하여 제1생성윤곽이미지를 생성하는 단계; 전체 제1윤곽이미지 중에서 특정한 개수에 대해 제2윤곽선을 수신하여 제2입력윤곽이미지를 획득하되, 상기 제2윤곽선은 상기 제1윤곽선을 기반으로 관심영역의 실제윤곽에 근사하게 보정된 것인, 제2입력윤곽이미지 획득단계; 특정한 개수의 상기 제1입력윤곽이미지를 학습하여 제1학습결과를 생성하는 제1입력윤곽이미지 학습단계; 및 상기 제2학습결과를 기반으로 영상데이터 전체에 대해 관심영역의 경계로 판단된 제2윤곽선을 표시하여 제2생성윤곽이미지를 생성하는 단계;를 포함한다.
또한, 다른 일실시예로, 상기 제2입력윤곽이미지 획득단계, 상기 제2입력윤곽이미지 학습단계 및 상기 제2생성윤곽이미지 생성단계를 특정 횟수 반복수행하는 단계;를 더 포함한다.
또한, 다른 일실시예로, 상기 최초영상데이터는, 의료영상장치에서 획득되는 의료영상데이터이다.
또한, 다른 일실시예로, 상기 관심영역은, 상기 의료영상데이터 내에 포함된 종양 또는 특정한 장기이다.
또한, 다른 일실시예로, 상기 제2입력윤곽이미지 학습단계는, 특정한 제2입력윤곽이미지에 이미 표시된 제1윤곽선과 동일한 제2입력윤곽이미지에 입력된 상기 제2윤곽선의 차이를 학습하는 것을 특징으로 한다.
또한, 다른 일실시예로, 상기 제1입력윤곽이미지 획득단계 및 상기 제2입력윤곽이미지 획득단계는, 사용자로부터 화면상에 표시되는 각각의 영상데이터에 윤곽선을 입력받는 것을 특징으로 한다.
또한, 다른 일실시예로, 신규영상데이터가 수신되면, 최종학습결과를 기반으로 상기 신규영상데이터에 포함된 관심영역의 윤곽선을 산출하는 단계;를 더 포함하되, 상기 최종학습결과는 상기 제2입력윤곽이미지 획득단계, 상기 제2입력윤곽이미지 학습단계 및 상기 제2생성윤곽이미지 생성단계를 특정 횟수 반복함에 따라 상기 컴퓨팅시스템이 학습하여 생성된 것이다.
본 발명의 다른 일실시예에 따른 딥러닝 기반의 관심영역 설정프로그램은, 하드웨어인 컴퓨터와 결합되어 상기 언급된 딥러닝 기반의 관심영역 설정방법을 실행하며, 매체에 저장된다.
상기와 같은 본 발명에 따르면, 빅데이터로 구축된 영상데이터를 기반으로 딥러닝 분석을 수행하고자 하는 경우에, 전체 영상데이터에 대해 관심영역 윤곽선을 모두 그리는 대신 특정 개수의 영상데이터에만 윤곽선을 입력하는 과정을 특정 횟수 수행하여, 간편하게 전체 빅데이터에 대해 관심영역 라벨링을 수행할 수 있다.
또한, 입력윤곽이미지를 획득하고 학습하는 과정을 반복함에 따라, 학습결과가 정교해질 수 있다. 즉, 컴퓨팅시스템을 통해 제N윤곽선을 학습하여 그리는 과정을 반복할수록 실제 관심영역의 경계선에 가까운 윤곽선을 자동으로 생성할 수 있다.
또한, 제N회 학습을 통해 도출된 제N학습결과를 기반으로, 컴퓨팅시스템은 신규입력된 영상데이터에 대해 바로 윤곽선을 추출하여 줄 수 있다. 즉, 의료영상 진단에 적용하는 경우, 의료진은 컴퓨팅시스템에 의해 신속하게 그려진 병변 또는 신체 장기의 경계선을 기반으로 빠르고 정확한 진단을 할 수 있다.
도 1은 본 발명의 일실시예에 따른 딥러닝 기반의 관심영역 설정방법에 대한 순서도이다.
도 2는 본 발명의 일실시예에 따라 제1윤곽이미지에 제2윤곽선을 입력한 제2입력윤곽이미지의 예시도면이다.
도 3은 본 발명의 일실시예에 따른 제N윤곽이미지 생성과정을 반복수행하는 단계를 더 포함하는, 딥러닝 기반의 관심영역 설정방법에 대한 순서도이다.
도 4는 본 발명의 일실시예에 따른 제N학습결과를 기반으로 신규영상데이터에 윤곽선을 생성하는 과정을 더 포함하는, 딥러닝 기반의 관심영역 설정방법에 대한 순서도이다.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명한다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 게시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 게시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.
본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다.
본 명세서에서 '영상데이터'는 윤곽선 추출이 필요한 영상을 의미한다. 예를 들어, 영상데이터는 특정한 신체부위 또는 병변을 포함하는 영상일 수 있다.
본 명세서에서 '최초영상데이터'는 동일한 관심영역을 포함하는, 빅데이터를 형성하는 영상으로서, 관심영역에 대한 윤곽(또는 경계) 설정이 되지 않은 영상을 의미한다. 예를 들어, 상기 최초영상데이터는 의료영상장치에서 획득되는 의료영상데이터가 해당될 수 있다.
본 명세서에서 '관심영역(Region of Interest; ROI)'은, 영상데이터 내에서 딥러닝을 이용한 빅데이터로 구축된 영상데이터를 분석하기 위해 경계(Boundary) 또는 윤곽(Contour)가 설정되어야 하는 영역을 의미한다. 예를 들어, 의료영상데이터가 빅데이터로 구축된 최초영상데이터인 경우, 상기 관심영역은 의료영상데이터 내에 포함된 종양 또는 특정한 장기일 수 있다.
본 명세서에서 '제N윤곽선(N은 자연수)'은 사용자로부터 제N번째 시행에서 입력된 윤곽선을 의미한다.
본 명세서에서 '입력윤곽이미지'는 최초영상데이터 내 관심영역에 대한 윤곽선을 입력받아서 생성된 이미지를 의미한다. 즉, '입력윤곽이미지'는 최초영상데이터에 사용자로부터 입력된 윤곽선이 결합된 이미지를 의미한다. 예를 들어, '입력윤곽이미지'는 사용자로부터 화면에 표시된 영상데이터에 대해 윤곽선을 직접 입력받아서 생성될 수 있다. 즉, 제1입력윤곽이미지는 특정한 개수의 최초영상데이터에 제1윤곽선을 입력받은 이미지이고, 제N입력윤곽이미지는 특정한 개수의 제N-1윤곽이미지에 대해 제N윤곽선을 입력받은 이미지이다.
본 명세서에서 '생성윤곽이미지'는 컴퓨팅시스템의 입력윤곽이미지의 학습결과를 기반으로 윤곽선이 생성된 이미지를 의미한다. 즉, 제1생성윤곽이미지는 제1입력윤곽이미지를 학습한 결과를 기반으로 최초영상데이터에 제1윤곽선이 표시된 이미지이고, 제N생성윤곽이미지는 특정한 개수의 제N입력윤곽이미지를 학습한 결과를 기반으로 제N윤곽선이 표시된 이미지이다.
본 명세서에서 '제N윤곽이미지'는 특정한 제N단계의 윤곽선이 입력된 전체 이미지를 의미한다(N은 자연수). 즉, 제N윤곽이미지는 복수의 제N입력윤곽이미지 및 복수의 제N생성윤곽이미지를 포함하는 것으로, 제N윤곽선이 표시된 전체 이미지를 의미한다.
본 명세서에서 '컴퓨터'는 연산처리를 수행하여 사용자에게 결과를 시각적으로 제시할 수 있는 다양한 장치들이 모두 포함된다. 예를 들어, 컴퓨터는 데스크 탑 PC, 노트북(Note Book) 뿐만 아니라 스마트폰(Smart phone), 태블릿 PC, 셀룰러폰(Cellular phone), 피씨에스폰(PCS phone; Personal Communication Service phone), 동기식/비동기식 IMT-2000(International Mobile Telecommunication-2000)의 이동 단말기, 팜 PC(Palm Personal Computer), 개인용 디지털 보조기(PDA; Personal Digital Assistant) 등도 해당될 수 있다. 또한, 컴퓨터는 의료영상을 획득하거나 관찰하는 의료장비도 해당될 수 있다. 또한, 컴퓨터는 다양한 클라이언트 컴퓨터와 연결되는 서버 컴퓨터가 해당될 수 있다.
본 명세서에서 '컴퓨팅시스템'은 하나 이상의 컴퓨터로 이루어진 시스템을 의미한다. 컴퓨팅시스템은 심층신경망을 형성하여 영상데이터의 관심영역을 추출하는 역할을 수행한다.
본 발명의 실시예들에 따른 심층신경망(Deep Neural Network; DNN)은, 하나 이상의 컴퓨터 내에 하나 이상의 레이어(Layer)를 구축하여 복수의 데이터를 바탕으로 판단을 수행하는 시스템 또는 네트워크를 의미한다. 예를 들어, 심층신경망은 컨볼루션 풀링 층(Convolutional Pooling Layer), 로컬 접속 층(a locally-connected layer) 및 완전 연결 층(fully-connected layer)을 포함하는 층들의 세트로 구현될 수 있다. 컨볼루션 풀링 층 또는 로컬 접속 층은 영상 내 특징들을 추출하도록 구성 될 수 있다. 완전 연결 층은 영상의 특징 간의 상관 관계를 결정할 수 있다. 일부 실시 예에서, 심층신경망의 전체적인 구조는 컨볼루션 풀링 층에 로컬 접속 층이 이어지고, 로컬 접속 층에 완전 연결 층이 이러지는 형태로 이루어질 수 있다. 심층신경망은 다양한 판단기준(즉, 파라미터(Parameter))를 포함할 수 있고, 입력되는 영상 분석을 통해 새로운 판단기준(즉, 파라미터)를 추가할 수 있다.
본 발명의 실시예들에 따른 심층신경망은, 영상분석에 적합한 콘볼루셔널 신경망이라고 부르는 구조로서, 주어진 영상 데이터들로부터 가장 분별력(Discriminative Power)가 큰 특징을 스스로 학습하는 특징 추출층(Feature Extraction Layer)와 추출된 특징을 기반으로 가장 높은 예측 성능을 내도록 예측 모델을 학습하는 예측층(Prediction Layer)이 통합된 구조로 구성될 수 있다.
특징 추출층은 영상의 각 영역에 대해 복수의 필터를 적용하여 특징 지도(Feature Map)를 만들어 내는 콘볼루션 층(Convolution Layer)과 특징 지도를 공간적으로 통합함으로써 위치나 회전의 변화에 불변하는 특징을 추출할 수 있도록 하는 통합층(Pooling Layer)을 번갈아 수 차례 반복하는 구조로 형성될 수 있다. 이를 통해, 점, 선, 면 등의 낮은 수준의 특징에서부터 복잡하고 의미 있는 높은 수준의 특징까지 다양한 수준의 특징을 추출해낼 수 있다.
콘볼루션 층은 입력 영상의 각 패치에 대하여 필 터와 국지 수용장(Local Receptive Field)의 내적에 비선형 활성 함수(Activation Function)을 취함으로 서 특징지도(Feature Map)을 구하게 되는데, 다른 네트워크 구조와 비교하여, CNN은 희소한 연결성 (Sparse Connectivity)과 공유된 가중치(Shared Weights)를 가진 필터를 사용하는 특징이 있다. 이러한 연결구조는 학습할 모수의 개수를 줄여주고, 역전파 알고리즘을 통한 학습을 효율적으로 만들어 결과적으로 예측 성능을 향상 시킨다.
통합 층(Pooling Layer 또는 Sub-sampling Layer)은 이전 콘볼루션 층에서 구해진 특징 지도의 지역 정보를 활용하여 새로운 특징 지도를 생성한다. 일반적으로 통합 층에 의해 새로 생성된 특징지도는 원래의 특징 지도보다 작은 크기로 줄어드는데, 대표적인 통합 방법으로는 특징 지도 내 해당 영역의 최대값을 선택하는 최대 통합(Max Pooling)과 특징 지도 내 해당 영역의 평균값을 구하는 평균 통합(Average Pooling) 등이 있다. 통합 층의 특징지도는 일반적으로 이전 층의 특징 지도보다 입력 영상에 존재하는 임의의 구조나 패턴의 위치에 영향을 적게 받을 수 있다. 즉, 통합층은 입력 영상 혹은 이전 특징 지도에서의 노이즈나 왜곡과 같은 지역적 변화에 보다 강인한 특징을 추출할 수 있게 되고, 이러한 특징은 분류 성능에 중요한 역할을 할 수 있다. 또 다른 통합 층의 역할은, 깊은 구조상에서 상위의 학습 층으로 올라갈수록 더 넓은 영역의 특징을 반영할 수 있게 하는 것으로서, 특징 추출 층이 쌓이면서, 하위 층에서는 지역적인 특징을 반영하고 상위 층으로 올라 갈수록 보다 추상적인 전체 영상의 특징을 반영하는 특징 생성할 수 있다.
이와 같이, 콘볼루션 층과 통합 층의 반복을 통해 최종적으로 추출된 특징은 다중 신경망(MLP: Multi-layer Perception)이나 서포트 벡터 머신(SVM: Support Vector Machine)과 같은 분류 모델이 완전 연결 층(Fully-connected Layer)의 형태로 결합되어 분류 모델 학습 및 예측에 사용될 수 있다.
다만, 본 발명의 실시예들에 따른 심층신경망의 구조는 이에 한정되지 아니하고, 다양한 구조의 신경망으로 형성될 수 있다.
이하, 도면을 참조하여 본 발명의 실시예들에 따른 딥러닝 기반의 관심영역 설정방법 및 설정프로그램에 대해 설명하기로 한다.
도 1은 본 발명의 일실시예에 따른 딥러닝 기반의 관심영역 설정방법에 대한 순서도이다.
도 1을 참조하면, 본 발명의 일실시예에 따른 딥러닝 기반의 관심영역 설정방법은, 빅데이터 내에 포함된 특정한 개수의 최초영상데이터에 대한 제1윤곽선을 수신하여, 제1윤곽이미지를 획득하는 단계(S200); 특정한 개수의 상기 제1윤곽이미지를 학습하는 단계(S400); 제1학습결과를 기반으로 영상데이터 전체에 관심영역의 경계로 산출된 제1윤곽선을 표시하는 단계(S600); 전체 제1윤곽이미지 중에서 특정한 개수에 대해 제2윤곽선을 수신하여 제2윤곽이미지를 획득하는 단계(S800; 제2윤곽이미지 획득단계); 상기 특정한 개수의 제2윤곽이미지를 학습하는 단계(S1000); 및 제2학습결과를 기반으로 영상데이터 전체에 대해 관심영역의 경계로 판단된 제2윤곽선을 표시하는 단계(S1200);를 포함한다. 이하, 각 단계에 대한 상세한 설명을 기재한다.
빅데이터를 기반으로 영상데이터를 분석하기 위해서는, 영상데이터 내에 관심영역을 설정하는 과정이 필요하다. 즉, 컴퓨팅시스템이 빅데이터로 구축된 영상데이터를 학습하여 정확한 결과(예를 들어, 관심영역의 특성)를 제시하기 위해서는 관심영역의 경계가 정확하게 추출되어야 한다. 예를 들어, 의료영상데이터를 분석하여 특정 신체부위의 종양 특성을 분석하고자 하는 경우, 각각의 의료영상데이터 내에 포함된 종양에 정확히 윤곽선을 그려서 라벨링을 하여야 한다. 이 때, 의료진 또는 연구자가 빅데이터로 구축된 각각 의료영상에 직접 관심영역의 윤곽선을 그리는 과정을 수행하였다. 따라서, 빅데이터로 구축된 영상에 관심영역을 라벨링(Labeling)하는데 소요되는 시간을 단축하기 위한 기술이 필요하다.
컴퓨팅시스템은 빅데이터 내에 포함된 특정한 개수의 최초영상데이터에 대한 제1윤곽선을 수신하여, 제1윤곽이미지를 획득한다(S200). 컴퓨팅시스템은 동일한 관심영역을 포함하는 복수의 최초영상데이터(예를 들어, 의료영상인 경우, 동일한 신체부위의 종양을 포함한 의료영상 또는 동일한 방향에서 측정된 의료영상)로 형성된 빅데이터를 저장공간에서 로드(Load)하거나 수신한다. 컴퓨팅시스템은 빅데이터 내에 포함된 특정한 개수(빅데이터를 구성하는 전체 영상데이터 개수에 비해 적은 개수)의 최초영상데이터를 사용자에게 제공한다. 컴퓨팅시스템은 특정한 개수의 최초영상데이터를 순차적으로 제공할 수도 있고, 화면 상에 한번에 제공할 수도 있다. 또한, 컴퓨팅시스텀은 특정한 개수의 최초영상데이터를 임의로 추출하여 제공할 수도 있고, 사용자로부터 특정한 개수의 최초영상데이터를 선택받아서 제공할 수도 있다.
일실시예로, 컴퓨팅시스템이 사용자가 보유한 단말장치인 경우, 컴퓨팅시스템은 단말장치에 구비된 디스플레이 상에 특정한 개수의 최초영상데이터를 제공할 수 있다. 다른 일실시예로, 컴퓨팅시스템이 분석서버에 해당하는 경우, 컴퓨팅시스템은 사용자클라이언트로 특정 개수의 최초영상데이터를 전송하여 사용자클라이언트에 구비된 디스플레이 상에 표시를 요청할 수 있다.
그 후, 컴퓨팅시스템은 사용자로부터 특정개수의 영상데이터에 제1윤곽선이 표시된 제1입력윤곽데이터를 획득한다. 일실시예로, 컴퓨팅시스템이 사용자의 단말장치인 경우, 최초영상데이터에 제1윤곽선이 그려진 상태로 저장하여 제1입력윤곽데이터를 획득한다. 다른 일실시예로, 컴퓨팅시스템이 분석서버인 경우, 컴퓨팅시스템은 사용자클라이언트에 의해 최초영상데이터에 제1윤곽선을 표시하여 저장된 제1입력윤곽이미지를 수신한다.
컴퓨팅시스템은 특정한 개수의 상기 제1윤곽이미지를 학습한다(S400). 즉, 컴퓨팅시스템은 심층신경망을 이용하여 복수의 제1입력윤곽데이터를 학습한다. 이를 통해, 컴퓨팅시스템은 제1입력윤곽데이터에 포함된 제1윤곽선의 특징 또는 기준(즉, 제1학습결과)을 생성한다.
컴퓨팅시스템은 제1학습결과를 기반으로 최초영상데이터 전체에 관심영역의 경계로 산출된 제1윤곽선을 표시한다(S600). 즉, 컴퓨팅시스템은 제1입력윤곽데이터로 생성되지 않은 최초영상데이터에 대해 제1학습결과를 기반으로 제1윤곽선을 생성하는 과정을 수행한다.
컴퓨팅시스템은 제1윤곽이미지 전체 중에서 특정한 개수에 대해 제2윤곽선을 수신하여 제2윤곽이미지를 획득한다(S800; 제2윤곽이미지 획득단계). 상기 제2윤곽선은 상기 제1윤곽선을 기반으로 관심영역의 실제윤곽에 근사하게 보정된 것이다. 즉, 컴퓨팅시스템은 특정개수의 제1윤곽이미지를 사용자에게 제공하여 제1윤곽선(10)보다 관심영역의 실제윤곽선에 근사한 제2윤곽선(20)이 표시된 제2입력윤곽이미지를 획득한다. 제2입력윤곽이미지로 생성될 제1윤곽이미지는 제1입력윤곽이미지로 한정되지 않고, 제1윤곽이미지 전체 중에서 임의로 추출될 수 있다. 컴퓨팅시스템은 특정한 개수의 최초영상데이터를 순차적으로 제공할 수도 있고, 화면 상에 한번에 제공할 수도 있다.
일실시예로, 컴퓨팅시스템이 사용자가 보유한 단말장치인 경우, 컴퓨팅시스템은 단말장치에 구비된 디스플레이 상에 특정한 개수의 제1윤곽이미지를 제공할 수 있다. 다른 일실시예로, 컴퓨팅시스템이 분석서버에 해당하는 경우, 컴퓨팅시스템은 사용자클라이언트로 특정 개수의 제1윤곽이미지를 전송하여 사용자클라이언트에 구비된 디스플레이 상에 표시를 요청할 수 있다.
그 후, 컴퓨팅시스템은 사용자로부터 특정개수의 영상데이터에 제2윤곽선(20)이 표시된 제2입력윤곽데이터를 획득한다. 사용자는 제1윤곽이미지 내의 제1윤곽선(10)과 관심영역의 실제윤곽(예를 들어, 의료영상인 경우, 의료진의 임상적 판단에 의한 종양 또는 장기의 실제윤곽)을 비교하여 수정된 제2윤곽선을 입력한다. 사용자는 화면상에 제1윤곽선(10)이 표시된 상태로 제2윤곽선(20)을 표시할 수 있다.
일실시예로, 컴퓨팅시스템이 사용자의 단말장치인 경우, 제1윤곽이미지 상에 제2윤곽선이 입력되면, 컴퓨팅시스템은 제1윤곽이미지에서 제1윤곽선(10)을 분리하여 제거하고 제2윤곽선(20)을 결합한 상태로 저장하여 제2입력윤곽데이터를 획득한다.
다른 일실시예로, 컴퓨팅시스템이 분석서버인 경우, 컴퓨팅시스템은 사용자클라이언트에 의해 제1윤곽이미지에 제2윤곽선(20)을 결합한 상태의 이미지를 수신한 후 제1윤곽이미지와 비교하여 제1윤곽선(10)이 제거된 제2입력윤곽이미지를 생성한다. 제1윤곽선(10)의 제거를 분석서버가 수행하므로, 사용자클라이언트에서는 제2윤곽선(20)을 입력받는 과정 이외에 제2입력윤곽이미지 생성을 위한 과정을 수행하지 않아도 된다.
또 다른 일실시예로, 컴퓨팅시스템이 분석서버이고 사용자클라이언트이 관심영역에 상응하는 윤곽선을 그리기 위한 전용프로그램을 포함하는 경우, 사용자클라이언트는 컴퓨팅시스템(즉, 분석서버)로부터 제공된 제1윤곽이미지에 제2윤곽선(20)이 입력되면, 전용프로그램에 의해 제1윤곽선(10)을 제거하고 제2윤곽선(20)을 결합하여 제2입력윤곽이미지를 생성한다. 컴퓨팅시스템(즉, 분석서버)는 사용자클라이언트로부터 제2입력윤곽이미지를 수신한다.
구체적으로, 도 2에서와 같이, 영상데이터가 특정한 신체 장기 또는 병변을 포함하는 의료영상인 경우, 컴퓨팅시스템은 사용자에게 사용자의 윤곽선 입력 또는 제1학습결과에 따른 제1윤곽선(10)이 표시된 제1윤곽이미지를 제공하고, 사용자로부터 제2윤곽선(20)을 제1윤곽이미지 상에 직접 입력받는다. 이를 통해, 컴퓨팅시스템은 제1윤곽이미지 상의 실제 관심영역과 제1윤곽선(10)의 차이를 확인하면서 실제 관심영역에 근사한 제2윤곽선(20)을 입력받을 수 있다.
컴퓨팅시스템은 상기 특정한 개수의 제2입력윤곽이미지를 학습한다(S1000). 즉, 컴퓨팅시스템은 심층신경망을 이용하여 복수의 제2입력윤곽데이터를 학습한다. 이를 통해, 컴퓨팅시스템은 제2입력윤곽데이터에 포함된 제1윤곽선의 특징 또는 기준(즉, 제2학습결과)을 생성한다.
일실시예로, 컴퓨팅시스템은, 특정한 제2입력윤곽이미지와 동일한 최초영상데이터에 대한 제1윤곽선과 제2입력윤곽이미지에 표시된 제2윤곽선을 비교하여 학습할 수 있다. 즉, 동일한 최초영상데이터에 대해 그려진 제1윤곽선과 제2윤곽선을 비교하여 제1학습결과에서 특징 또는 기준을 변경 또는 수정하여 제2학습결과를 생성할 수 있다. 다른 일실시예로, 컴퓨팅시스템은 제2입력윤곽이미지 내의 제2윤곽선 생성기준과 제1윤곽선과 제2윤곽선의 차이를 기반으로 제2학습결과를 생성한다.
컴퓨팅시스템은 제2학습결과를 기반으로 영상데이터 전체에 대해 관심영역의 경계로 판단된 제2윤곽선을 표시한다(S1200). 즉, 컴퓨팅시스템은 제2입력윤곽데이터로 생성되지 않은 제1윤곽이미지에 대해 제1학습결과를 기반으로 제2윤곽선을 생성하는 과정을 수행한다.
또한, 다른 일실시예로, 상기 제2윤곽이미지 획득단계(S800), 상기 제2윤곽이미지 학습단계(S1000) 및 상기 제2윤곽선표시단계(S1200)를 특정 횟수 반복수행하는 단계;를 더 포함한다. 즉, 도 3에서와 같이, 컴퓨팅시스템은 사용자로부터 제N-1윤곽이미지에 제N윤곽선을 입력받아 제N입력윤곽이미지를 생성하고, 제N입력윤곽이미지를 심층신경망을 통해 학습하여 제N학습결과를 생성한 후, 제N학습결과를 기반으로 제N입력윤곽이미지로 생성되지 않은 제N-1윤곽이미지에 제N윤곽선을 표시하여 제N생성윤곽이미지를 획득한다(N은 3 이상의 자연수)(S1400). 이를 통해, 컴퓨팅시스템은 입력윤곽이미지 학습을 통해 윤곽선 생성과정을 반복하여 동일한 관심영역을 포함하는 영상데이터에 윤곽선을 정확히 그리기 위한 학습결과를 정교화할 수 있다.
이를 통해, 전체 영상데이터에 대해 관심영역 윤곽선을 모두 그리는 대신 특정 개수의 영상데이터에만 윤곽선을 입력하는 과정을 특정 횟수 수행하여, 간단히 전체 빅데이터에 대해 관심영역 라벨링을 수행할 수 있다.
또한, 다른 일실시예로, 도 4에서와 같이, 신규영상데이터가 수신되면, 최종학습결과를 기반으로 상기 신규영상데이터에 포함된 관심영역의 윤곽선을 산출하는 단계(S1600);를 더 포함한다. 상기 최종학습결과는 상기 제2윤곽이미지 획득단계, 상기 제2윤곽이미지 학습단계 및 상기 제2윤곽선표시단계를 특정 횟수 반복(즉, 제N윤곽이미지(N은 2 이상의 자연수)를 생성하는 과정까지 수행)함에 따라 상기 컴퓨팅시스템이 학습하여 생성된 것이다. 즉, 컴퓨팅시스템은 신규영상데이터가 입력되면 제N학습결과(N은 2 이상의 자연수)를 통해 자동으로 윤곽선을 산출할 수 있다. 예를 들어, 의료영상데이터 내에 포함된 종양이 관심영역인 경우, 컴퓨팅시스템은 제N학습결과를 통해 동일조건에서 획득된 신규영상데이터에 포함된 종양영역에 자동으로 윤곽선을 생성할 수 있다.
이상에서 전술한 본 발명의 일 실시예에 따른 딥러닝 기반의 관심영역 설정방법은, 하드웨어인 컴퓨터와 결합되어 실행되기 위해 프로그램(또는 어플리케이션)으로 구현되어 매체에 저장될 수 있다.
상기 전술한 프로그램은, 상기 컴퓨터가 프로그램을 읽어 들여 프로그램으로 구현된 상기 방법들을 실행시키기 위하여, 상기 컴퓨터의 프로세서(CPU)가 상기 컴퓨터의 장치 인터페이스를 통해 읽힐 수 있는 C, C++, JAVA, 기계어 등의 컴퓨터 언어로 코드화된 코드(Code)를 포함할 수 있다. 이러한 코드는 상기 방법들을 실행하는 필요한 기능들을 정의한 함수 등과 관련된 기능적인 코드(Functional Code)를 포함할 수 있고, 상기 기능들을 상기 컴퓨터의 프로세서가 소정의 절차대로 실행시키는데 필요한 실행 절차 관련 제어 코드를 포함할 수 있다. 또한, 이러한 코드는 상기 기능들을 상기 컴퓨터의 프로세서가 실행시키는데 필요한 추가 정보나 미디어가 상기 컴퓨터의 내부 또는 외부 메모리의 어느 위치(주소 번지)에서 참조되어야 하는지에 대한 메모리 참조관련 코드를 더 포함할 수 있다. 또한, 상기 컴퓨터의 프로세서가 상기 기능들을 실행시키기 위하여 원격(Remote)에 있는 어떠한 다른 컴퓨터나 서버 등과 통신이 필요한 경우, 코드는 상기 컴퓨터의 통신 모듈을 이용하여 원격에 있는 어떠한 다른 컴퓨터나 서버 등과 어떻게 통신해야 하는지, 통신 시 어떠한 정보나 미디어를 송수신해야 하는지 등에 대한 통신 관련 코드를 더 포함할 수 있다.
상기 저장되는 매체는, 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상기 저장되는 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있지만, 이에 제한되지 않는다. 즉, 상기 프로그램은 상기 컴퓨터가 접속할 수 있는 다양한 서버 상의 다양한 기록매체 또는 사용자의 상기 컴퓨터상의 다양한 기록매체에 저장될 수 있다. 또한, 상기 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장될 수 있다.
이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다.

Claims (9)

  1. 컴퓨팅시스템에 의해, 딥러닝 기반 영상데이터 분석 시에 사용되는 빅데이터에 관심영역을 설정하는 방법에 있어서,
    상기 빅데이터 내에 포함된 특정한 개수의 최초영상데이터에 대한 제1윤곽선을 수신하여, 제1입력윤곽이미지를 획득하는 단계;
    특정한 개수의 상기 제1입력윤곽이미지를 학습하여 제1학습결과를 생성하는 제1입력윤곽이미지 학습단계;
    상기 제1학습결과를 기반으로 영상데이터 전체에 관심영역의 경계로 산출된 제1윤곽선을 표시하여 제1생성윤곽이미지를 생성하는 단계;
    전체 제1윤곽이미지 중에서 특정한 개수에 대해 제2윤곽선을 수신하여 제2입력윤곽이미지를 획득하되, 상기 제2윤곽선은 상기 제1윤곽선을 기반으로 관심영역의 실제윤곽에 근사하게 보정된 것인, 제2입력윤곽이미지 획득단계;
    상기 특정한 개수의 제2입력윤곽이미지를 학습하여 제2학습결과를 생성하되, 상기 제2학습결과는 특정한 제2입력윤곽이미지에 이미 표시된 제1윤곽선과 동일한 제2입력윤곽이미지에 입력된 상기 제2윤곽선의 차이를 기반으로 하여 생성되는, 제2입력윤곽이미지 학습단계; 및
    상기 제2학습결과를 기반으로 영상데이터 전체에 대해 관심영역의 경계로 판단된 제2윤곽선을 표시하여 제2생성윤곽이미지를 생성하는 단계;를 포함하고,
    상기 제2학습결과는 상기 실제윤곽에 근사한 상기 제2윤곽선과 상기 제1윤곽선의 차이를 나타내는 상기 제1윤곽선의 특징 또는 기준인, 딥러닝 기반의 관심영역 설정방법.
  2. 제1항에 있어서,
    상기 제2입력윤곽이미지 획득단계, 상기 제2입력윤곽이미지 학습단계 및 상기 제2생성윤곽이미지 생성단계를 특정 횟수 반복수행하는 단계;를 더 포함하는, 딥러닝 기반의 관심영역 설정방법.
  3. 제1항에 있어서,
    상기 최초영상데이터는,
    의료영상장치에서 획득되는 의료영상데이터인, 딥러닝 기반의 관심영역 설정방법.
  4. 제3항에 있어서,
    상기 관심영역은,
    상기 의료영상데이터 내에 포함된 종양 또는 특정한 장기인, 딥러닝 기반의 관심영역 설정방법.
  5. 제1항에 있어서,
    상기 제2입력윤곽이미지 획득단계, 상기 제2입력윤곽이미지 학습단계 및 상기 제2생성윤곽이미지를 생성하는 단계를 특정 횟수 반복수행하는 단계; 및
    사용자로부터 제N-1윤곽이미지에 제N윤곽선을 입력받아 제N입력윤곽이미지를 생성하고, 제N입력윤곽이미지를 학습하여 제N학습결과를 생성한 후, 제N학습결과를 기반으로 제N-1윤곽이미지에 제N윤곽선을 표시하는 단계를 더 포함하고,
    N은 3이상의 자연수인,
    딥러닝 기반의 관심영역 설정방법.
  6. 제1항에 있어서,
    상기 제1입력윤곽이미지 획득단계 및 상기 제2입력윤곽이미지 획득단계는,
    사용자로부터 화면상에 표시되는 각각의 영상데이터에 윤곽선을 입력받는 것을 특징으로 하는, 딥러닝 기반의 관심영역 설정방법.
  7. 제1항에 있어서,
    신규영상데이터가 수신되면, 최종학습결과를 기반으로 상기 신규영상데이터에 포함된 관심영역의 윤곽선을 산출하는 단계;를 더 포함하되,
    상기 최종학습결과는 상기 제2입력윤곽이미지 획득단계, 상기 제2입력윤곽이미지 학습단계 및 상기 제2생성윤곽이미지 생성단계를 특정 횟수 반복함에 따라 상기 컴퓨팅시스템이 학습하여 생성된 것인, 딥러닝 기반의 관심영역 설정방법.
  8. 제1항에 있어서,
    신규영상데이터가 수신되면, 최종학습결과를 기반으로 상기 신규영상데이터에 포함된 관심영역의 윤곽선을 산출하는 단계를 더 포함하고,
    상기 최종학습결과는 상기 제2입력윤곽이미지 획득단계, 상기 제2입력윤곽이미지 학습단계 및 상기 제2생성윤곽이미지를 생성하는 단계를 특정 횟수 반복함에 따라 상기 컴퓨팅시스템이 학습하여 생성된 것인,
    딥러닝 기반의 관심영역 설정방법.
  9. 하드웨어인 컴퓨터와 결합되어, 제1항 내지 제8항 중 어느 한 항의 방법을 실행시키기 위하여 매체에 저장된, 딥러닝 기반의 관심영역 설정프로그램.
KR1020170122028A 2017-09-21 2017-09-21 딥러닝 기반의 영상데이터 내 관심영역 설정방법 및 프로그램 KR101955919B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170122028A KR101955919B1 (ko) 2017-09-21 2017-09-21 딥러닝 기반의 영상데이터 내 관심영역 설정방법 및 프로그램

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170122028A KR101955919B1 (ko) 2017-09-21 2017-09-21 딥러닝 기반의 영상데이터 내 관심영역 설정방법 및 프로그램

Publications (1)

Publication Number Publication Date
KR101955919B1 true KR101955919B1 (ko) 2019-03-08

Family

ID=65800337

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170122028A KR101955919B1 (ko) 2017-09-21 2017-09-21 딥러닝 기반의 영상데이터 내 관심영역 설정방법 및 프로그램

Country Status (1)

Country Link
KR (1) KR101955919B1 (ko)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190110967A (ko) 2019-09-11 2019-10-01 엘지전자 주식회사 객체 식별 장치 및 방법
KR102139582B1 (ko) 2019-12-05 2020-07-29 주식회사 인텔리빅스 다중 roi 및 객체 검출 dcnn 기반의 cctv 영상분석장치 및 그 장치의 구동방법
KR20210032174A (ko) * 2019-09-16 2021-03-24 연세대학교 원주산학협력단 탈모 진단을 위한 진단시스템 및 방법
KR20210150171A (ko) * 2020-06-03 2021-12-10 고려대학교 산학협력단 딥러닝 알고리즘 기반의 초음파 영상에서의 말초신경 자동 인식 및 신경 지표 측정 방법 및 장치
KR20220075728A (ko) * 2020-11-30 2022-06-08 동의대학교 산학협력단 의료용 이미지의 3차원 메쉬 생성을 위한 장치 및 방법
KR20220158998A (ko) * 2021-05-25 2022-12-02 한국교통대학교산학협력단 생체 조직을 가시화하는 방법 및 장치
KR20230100584A (ko) * 2021-12-28 2023-07-05 고려대학교 산학협력단 인공지능 기반의 근육 초음파를 이용한 수근관 증후군 진단 시스템 및 방법

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009211138A (ja) * 2008-02-29 2009-09-17 Fujifilm Corp 対象領域抽出方法および装置ならびにプログラム
JP2011024799A (ja) * 2009-07-27 2011-02-10 Fujifilm Corp 医用画像処理装置および方法並びにプログラム
KR101718159B1 (ko) 2014-05-12 2017-03-22 연세대학교 산학협력단 의료 영상으로부터 관심영역(roi) 값을 추출하는 방법 및 이 방법을 수행하는 프로그램이 기록된 컴퓨터 판독 가능한 기록 매체
JP2017512091A (ja) * 2014-02-27 2017-05-18 インパック メディカル システムズ、 インク.Impac Medical Systems Inc. 適応性放射線治療における自動輪郭抽出システム及び方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009211138A (ja) * 2008-02-29 2009-09-17 Fujifilm Corp 対象領域抽出方法および装置ならびにプログラム
JP2011024799A (ja) * 2009-07-27 2011-02-10 Fujifilm Corp 医用画像処理装置および方法並びにプログラム
JP2017512091A (ja) * 2014-02-27 2017-05-18 インパック メディカル システムズ、 インク.Impac Medical Systems Inc. 適応性放射線治療における自動輪郭抽出システム及び方法
KR101718159B1 (ko) 2014-05-12 2017-03-22 연세대학교 산학협력단 의료 영상으로부터 관심영역(roi) 값을 추출하는 방법 및 이 방법을 수행하는 프로그램이 기록된 컴퓨터 판독 가능한 기록 매체

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11170266B2 (en) 2019-09-11 2021-11-09 Lg Electronics Inc. Apparatus and method for identifying object
KR20190110967A (ko) 2019-09-11 2019-10-01 엘지전자 주식회사 객체 식별 장치 및 방법
KR20210032174A (ko) * 2019-09-16 2021-03-24 연세대학교 원주산학협력단 탈모 진단을 위한 진단시스템 및 방법
KR102314338B1 (ko) * 2019-09-16 2021-10-18 연세대학교 원주산학협력단 탈모 진단을 위한 진단시스템 및 방법
KR102139582B1 (ko) 2019-12-05 2020-07-29 주식회사 인텔리빅스 다중 roi 및 객체 검출 dcnn 기반의 cctv 영상분석장치 및 그 장치의 구동방법
KR102416698B1 (ko) 2020-06-03 2022-07-05 고려대학교 산학협력단 딥러닝 알고리즘 기반의 초음파 영상에서의 말초신경 자동 인식 및 신경 지표 측정 방법 및 장치
KR20210150171A (ko) * 2020-06-03 2021-12-10 고려대학교 산학협력단 딥러닝 알고리즘 기반의 초음파 영상에서의 말초신경 자동 인식 및 신경 지표 측정 방법 및 장치
KR20220075728A (ko) * 2020-11-30 2022-06-08 동의대학교 산학협력단 의료용 이미지의 3차원 메쉬 생성을 위한 장치 및 방법
KR102615255B1 (ko) * 2020-11-30 2023-12-19 동의대학교 산학협력단 의료용 이미지의 3차원 메쉬 생성을 위한 장치 및 방법
KR20220158998A (ko) * 2021-05-25 2022-12-02 한국교통대학교산학협력단 생체 조직을 가시화하는 방법 및 장치
KR102655176B1 (ko) * 2021-05-25 2024-04-05 국립한국교통대학교산학협력단 생체 조직을 가시화하는 방법 및 장치
KR20230100584A (ko) * 2021-12-28 2023-07-05 고려대학교 산학협력단 인공지능 기반의 근육 초음파를 이용한 수근관 증후군 진단 시스템 및 방법
KR102590387B1 (ko) 2021-12-28 2023-10-17 고려대학교 산학협력단 인공지능 기반의 근육 초음파를 이용한 수근관 증후군 진단 시스템 및 방법

Similar Documents

Publication Publication Date Title
KR101955919B1 (ko) 딥러닝 기반의 영상데이터 내 관심영역 설정방법 및 프로그램
JP7058373B2 (ja) 医療画像に対する病変の検出及び位置決め方法、装置、デバイス、及び記憶媒体
CN109214343B (zh) 用于生成人脸关键点检测模型的方法和装置
CN109800732B (zh) 用于生成漫画头像生成模型的方法和装置
CN107818554B (zh) 信息处理设备和信息处理方法
CN107679466B (zh) 信息输出方法和装置
AU2011254040B2 (en) Method, apparatus and system for determining a saliency map for an input image
CN110930296B (zh) 图像处理方法、装置、设备及存储介质
CN111275784A (zh) 生成图像的方法和装置
CN114820584B (zh) 肺部病灶定位装置
CN111160114B (zh) 手势识别方法、装置、设备及计算机可读存储介质
CN112529149B (zh) 一种数据处理方法及相关装置
CN113408570A (zh) 一种基于模型蒸馏的图像类别识别方法、装置、存储介质及终端
CN112115900B (zh) 图像处理方法、装置、设备及存储介质
CN113449851A (zh) 数据处理方法及设备
CN111507288A (zh) 图像检测方法、装置、计算机设备和存储介质
CN108038473B (zh) 用于输出信息的方法和装置
CN109241930B (zh) 用于处理眉部图像的方法和装置
CN111091055A (zh) 脸型识别方法、装置、设备及计算机可读存储介质
CN112330671A (zh) 细胞分布状态的分析方法、装置、计算机设备和存储介质
CN112801238B (zh) 一种图像分类方法、装置、电子设备及存储介质
CN112509052B (zh) 黄斑中心凹的检测方法、装置、计算机设备和存储介质
CN111582208B (zh) 用于生成生物体姿态关键点信息的方法和装置
CN110942033B (zh) 用于推送信息的方法、装置、电子设备和计算机介质
CN113822871A (zh) 基于动态检测头的目标检测方法、装置、存储介质及设备

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant