KR20230095336A - 인터렉티브 이미지 세그멘테이션 방법 및 그 장치 - Google Patents

인터렉티브 이미지 세그멘테이션 방법 및 그 장치 Download PDF

Info

Publication number
KR20230095336A
KR20230095336A KR1020210184715A KR20210184715A KR20230095336A KR 20230095336 A KR20230095336 A KR 20230095336A KR 1020210184715 A KR1020210184715 A KR 1020210184715A KR 20210184715 A KR20210184715 A KR 20210184715A KR 20230095336 A KR20230095336 A KR 20230095336A
Authority
KR
South Korea
Prior art keywords
image
cross
region
sectional image
input
Prior art date
Application number
KR1020210184715A
Other languages
English (en)
Inventor
이명준
Original Assignee
주식회사 렛서
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 렛서 filed Critical 주식회사 렛서
Priority to KR1020210184715A priority Critical patent/KR20230095336A/ko
Publication of KR20230095336A publication Critical patent/KR20230095336A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/30Polynomial surface description
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration by the use of local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4318Generation of visual interfaces for content selection or interaction; Content or additional data rendering by altering the content in the rendering process, e.g. blanking, blurring or masking an image region
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/12Bounding box

Abstract

인터렉티브 이미지 세그멘테이션(segmentation) 방법 및 그 방법을 수행하는 장치가 제공된다. 본 개시의 몇몇 실시예에 따른 인터렉티브 이미지 세그멘테이션 방법은, 컴퓨팅 장치에 의해 수행되는 방법에 있어서, 3차원 이미지의 제1 단면 이미지에 대한 사용자의 입력에 응답하여, 상기 제1 단면 이미지의 적어도 일부 영역인 제1 주요 영역을 마스킹(masking)하는 단계, 상기 마스킹된 제1 주요 영역을 포함하는 3차원 영역을 상기 3차원 이미지로부터 세그멘테이션(segmentation)하는 단계 및 상기 3차원 영역의 불확실성(uncertainty)을 나타내는 불확실성 지수에 기초하여 결정된 상기 3차원 이미지의 제2 단면 이미지를 표시하는 단계를 포함할 수 있다.

Description

인터렉티브 이미지 세그멘테이션 방법 및 그 장치{INTERACTIVE IMAGE SEGMENTATION METHOD AND APPARATUS THEREOF}
본 개시는 인터렉티브 이미지 세그멘테이션(segmentation) 방법 및 그 장치에 관한 것이다. 보다 자세하게는, 3차원 이미지 분석을 위한 데이터의 구축을 위해, 3차원 이미지에 촬영된 3차원 객체의 영역을 손쉽게 세그멘테이션하는 방법 및 그 장치에 관한 것이다.
최근 인공 지능 기술의 발전에 따라 헬스 케어 분야에 인공 지능 기술이 적극적으로 도입되고 있으며, 이러한 인공 지능 기술의 도입에 따라, 의료 이미지 분석을 위한 학습 데이터의 수요 또한 폭발적으로 증가하고 있는 추세이다.
이러한 의료 이미지 분석을 위한 적절한 학습 데이터를 마련하기 위해서는, 이미지 내의 객체의 위치 및 객체의 모양 등을 고려하여, 이미지를 분할해 이미지의 각 픽셀에 레이블(label)을 부여하는 이미지 세그멘테이션(segmentation)이 선행되어야 한다.
이러한 이미지 세그멘테이션을 위해, 사용자는 이미지마다 일일이 객체를 지정하는 등의 작업을 수행해야 하므로, 상당한 시간과 노력이 소요되었다. 특히, 의료 이미지의 경우 이미지 세그멘테이션을 위한 전문적인 지식이 별도로 요구되며, 그 난이도 또한 어려웠다. 게다가, 의료 이미지는 주로 3차원 이미지의 형태를 가지고 있으므로, 3차원 이미지 세그멘테이션을 위해서는 3차원 이미지로부터 추출된 100장 이상의 2차원 이미지마다 개별적으로 작업을 수행해야 했었다.
한국등록특허 제10-2315574호 (2016.06.13 공개)
본 개시의 몇몇 실시예를 통해 해결하고자 하는 기술적 과제는, 이미지 분석을 위한 학습 데이터를 구축하기 위한 방법 및 그 방법을 수행하는 장치를 제공하는 것이다.
본 개시의 몇몇 실시예를 통해 해결하고자 하는 다른 기술적 과제는, 사용자의 입력을 반영하여 이미지 세그멘테이션 결과를 추론하는 방법 및 그 방법을 수행하는 장치를 제공하는 것이다.
본 개시의 몇몇 실시예를 통해 해결하고자 하는 또 다른 기술적 과제는, 3차원 이미지 세그멘테이션을 위해 소요되는 시간과 노력을 경감시키기 위한 방법 및 그 방법을 수행하는 장치를 제공하는 것이다.
본 개시의 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 개시의 기술분야에서의 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
상기 기술적 과제를 해결하기 위한, 본 개시의 몇몇 실시예에 따른 인터렉티브 이미지 세그멘테이션 방법은, 컴퓨팅 장치에 의해 수행되는 방법에 있어서, 3차원 이미지의 제1 단면 이미지에 대한 사용자의 입력에 응답하여, 상기 제1 단면 이미지의 적어도 일부 영역인 제1 주요 영역을 마스킹(masking)하는 단계, 상기 마스킹된 제1 주요 영역을 포함하는 3차원 영역을 상기 3차원 이미지로부터 세그멘테이션(segmentation)하는 단계 및 상기 3차원 영역의 불확실성(uncertainty)을 나타내는 불확실성 지수에 기초하여 결정된 상기 3차원 이미지의 제2 단면 이미지를 표시하는 단계를 포함할 수 있다.
몇몇 실시예에서, 상기 사용자의 입력에 응답하여, 상기 제1 주요 영역을 마스킹하는 단계는, 제1 입력에 대응되는 제1 포인트를 상기 제1 주요 영역의 내부를 가리키는 포인트로 식별하는 단계, 상기 제1 입력과 구별되는 제2 입력에 대응되는 제2 포인트를 상기 제1 주요 영역의 외부를 가리키는 포인트로 식별하는 단계 및 상기 제1 포인트 및 상기 제2 포인트를 이용하여, 상기 제1 주요 영역을 마스킹하는 단계를 포함하거나 상기 사용자의 입력에 대응되는 경계 박스(bounding box)를 이용하여, 상기 제1 주요 영역을 마스킹하는 단계를 포함하거나 상기 사용자의 스크리블(scribble) 입력을 이용하여, 상기 제1 주요 영역을 마스킹하는 단계를 포함할 수 있다.
몇몇 실시예에서, 상기 제1 주요 영역을 마스킹하는 단계는, 마스킹 완료 조건을 만족할 때까지 입력된 상기 사용자의 입력에 대응되도록, 상기 마스킹된 제1 주요 영역을 갱신하여 표시하는 단계를 포함할 수 있다.
몇몇 실시예에서, 상기 불확실성 지수에 기초하여 결정된 상기 3차원 이미지의 제2 단면 이미지를 표시하는 단계는, 상기 3차원 이미지와 상기 마스킹된 제1 주요 영역을 이용하여, 복수의 3차원 예측 영역을 생성하는 단계 및 상기 3차원 이미지의 단면 이미지마다 대응되는 상기 복수의 3차원 예측 영역 각각의 단면적의 분산 값을 이용하여, 상기 3차원 이미지의 단면 이미지마다 불확실성 지수를 산출하는 단계를 포함할 수 있다. 여기서, 상기 불확실성 지수에 기초하여 결정된 상기 3차원 이미지의 제2 단면 이미지를 표시하는 단계는, 상기 3차원 이미지의 단면 이미지마다 산출된 복수의 불확실성 지수 중 최대인 불확실성 지수에 대응되는 단면 이미지를 상기 제2 단면 이미지로 표시하는 단계를 더 포함할 수 있다.
몇몇 실시예에서, 상기 제2 단면 이미지에 대한 상기 사용자의 입력에 응답하여, 상기 3차원 영역을 갱신하여 표시하는 단계를 더 포함하고, 상기 3차원 영역을 갱신하여 표시하는 단계는, 상기 제2 단면 이미지에 대한 상기 사용자의 입력에 응답하여, 상기 제2 단면 이미지의 적어도 일부 영역인 제2 주요 영역을 마스킹하는 단계 및 상기 마스킹된 제1 주요 영역과 상기 마스킹된 제2 주요 영역이 상기 3차원 영역에 포함되도록, 상기 3차원 영역을 갱신하여 표시하는 단계를 포함할 수 있다. 여기서, 상기 3차원 영역을 갱신하여 표시하는 단계는, 세그멘테이션 완료 조건을 만족할 때까지, 상기 불확실성 지수에 기초하여 결정된 상기 3차원 이미지의 단면 이미지를 표시하고, 상기 표시된 단면 이미지에 대한 상기 사용자의 입력에 응답하여 상기 3차원 영역을 갱신하여 표시하는 단계를 포함할 수 있다.
본 개시의 다른 몇몇 실시예에 따른 인터렉티브 이미지 세그멘테이션 장치는, 프로세서, 네트워크 인터페이스, 메모리 및 상기 메모리에 로드(load)되고, 상기 프로세서에 의해 실행되는 컴퓨터 프로그램을 포함하되, 상기 컴퓨터 프로그램은, 3차원 이미지의 제1 단면 이미지에 대한 사용자의 입력에 응답하여, 상기 제1 단면 이미지의 적어도 일부 영역인 제1 주요 영역을 마스킹(masking)하는 인스트럭션(instruction), 상기 마스킹된 제1 주요 영역을 포함하는 3차원 영역을 상기 3차원 이미지로부터 세그멘테이션(segmentation)하는 인스트럭션 및 상기 3차원 영역의 불확실성(uncertainty)을 나타내는 불확실성 지수에 기초하여 상기 3차원 이미지의 제2 단면 이미지를 결정하는 인스트럭션을 포함할 수 있다.
도 1은 본 개시의 몇몇 실시예에 따른 인터렉티브 이미지 세그멘테이션(segmentation) 장치가 적용될 수 있는 예시적인 환경을 도시한다.
도 2는 본 개시의 몇몇 실시예에 따른 인터렉티브 이미지 세그멘테이션 방법을 설명하기 위한 예시적인 순서도이다.
도 3 및 도 4는 도 2를 참조하여 설명된 제1 주요 영역의 마스킹(masking) 동작을 보다 구체적으로 설명하기 위한 예시적인 순서도이다.
도 5는 도 2를 참조하여 설명된 3차원 영역의 갱신 동작을 보다 구체적으로 설명하기 위한 예시적인 순서도이다.
도 6은 도 5를 참조하여 설명된 제2 단면 이미지의 결정 동작을 보다 구체적으로 설명하기 위한 예시적인 순서도이다.
도 7은 도 5를 참조하여 설명된 제2 단면 이미지를 이용한 3차원 영역의 갱신 동작을 보다 구체적으로 설명하기 위한 예시적인 순서도이다.
도 8은 도 2를 참조하여 설명된 3차원 영역의 갱신 동작을 보다 구체적으로 설명하기 위한 예시적인 순서도이다.
도 9는 본 개시의 몇몇 실시예에서 참조될 수 있는 의료 이미지에 대한 사용자의 입력 툴(tool)을 설명하기 위한 예시적인 도면이다.
도 10 내지 도 12는 본 개시의 몇몇 실시예에서 참조될 수 있는 이미지 세그멘테이션을 위한 사용자의 입력을 설명하기 위한 예시적인 도면이다.
도 13 및 도 14는 본 개시의 몇몇 실시예에서 참조될 수 있는 단면 이미지의 결정 동작 및 마스킹 동작을 설명하기 위한 예시적인 도면이다.
도 15는 도 10, 도 13 및 도 14를 참조하여 설명된 사용자의 입력에 응답하여 세그멘테이션된 3차원 영역을 설명하기 위한 예시적인 도면이다.
도 16은 본 개시의 몇몇 실시예에 따른 방법을 실행할 수 있는 사용자 인터페이스(User Inteface, UI)를 설명하기 위한 예시적인 도면이다.
도 17는 본 개시의 다양한 실시예에 따른 장치 및/또는 시스템을 구현할 수 있는 예시적인 컴퓨팅 장치를 도시한다.
이하, 첨부된 도면을 참조하여 본 개시의 바람직한 실시예들을 상세히 설명한다. 본 개시의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 개시의 기술적 사상은 이하의 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 이하의 실시예들은 본 개시의 기술적 사상을 완전하도록 하고, 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 본 개시의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 개시의 기술적 사상은 청구항의 범주에 의해 정의될 뿐이다.
각 도면의 구성 요소들에 참조 부호를 부가함에 있어서, 동일한 구성 요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 개시를 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 개시의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다. 본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 개시를 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다.
또한, 본 개시의 구성 요소를 설명하는 데 있어서, 제1, 제2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 어떤 구성 요소가 다른 구성요소에 "연결", "결합" 또는 "접속"된다고 기재된 경우, 그 구성 요소는 그 다른 구성 요소에 직접적으로 연결되거나 또는 접속될 수 있지만, 각 구성 요소 사이에 또 다른 구성 요소가 "연결", "결합" 또는 "접속"될 수도 있다고 이해되어야 할 것이다.
명세서에서 사용되는 "포함한다 (comprises)" 및/또는 "포함하는 (comprising)"은 언급된 구성 요소, 단계, 동작 및/또는 소자는 하나 이상의 다른 구성 요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다.
이하, 본 개시의 다양한 실시예들에 대하여 첨부된 도면에 따라 상세하게 설명한다.
도 1은 본 개시의 몇몇 실시예에 따른 인터렉티브 이미지 세그멘테이션(segmentation) 장치(100)가 적용될 수 있는 예시적인 환경을 도시한다. 도 1은 1개의 사용자 단말(200)이 인터렉티브 이미지 세그멘테이션 장치(100)와 네트워크를 통해 연결된 일례를 도시하고 있으나, 이는 이해의 편의를 제공하기 위한 것일 뿐이고, 사용자 단말(200)의 개수는 얼마든지 달라질 수 있다. 한편, 도 1은 본 개시의 목적을 달성하기 위한 바람직한 실시예를 도시하고 있을 뿐이며, 필요에 따라 일부 구성 요소가 추가되거나 삭제될 수 있다.
이하, 도 1에 도시된 각 구성 요소에 대해 보다 구체적으로 설명하기로 한다.
우선, 인터렉티브 이미지 세그멘테이션 장치(100)는 외부 장치(e.g., CT 촬영 기기, MRI 촬영 기기, 데이터베이스, 사용자 단말(200))로부터 3차원 이미지를 획득할 수 있다. 또한, 인터렉티브 이미지 세그멘테이션 장치(100)는 획득된 3차원 이미지에 대한, 사용자 단말(200)로부터 수신된 사용자의 입력에 응답하여, 3차원 이미지로부터 3차원 영역(i.e., 관심 객체의 영역)을 세그멘테이션할 수 있다.
즉, 인터렉티브 이미지 세그멘테이션 장치(100)는 사용자 단말(200)과의 상호 작용을 통해 3차원 이미지로부터 3차원 영역(i.e., 관심 객체의 영역)을 세그멘테이션할 수 있으며, 사용자 단말(200)에서 상호 작용을 위한 사용자 인터페이스(User Interface, UI)가 구현되도록 하기 위한 다양한 정보를 사용자 단말(200)에 전송할 수 있다.
이러한 인터렉티브 이미지 세그멘테이션 장치(100)는, 하나 이상의 컴퓨팅 장치로 구현될 수 있다. 예를 들어, 인터렉티브 이미지 세그멘테이션 장치(100)의 모든 기능은 단일 컴퓨팅 장치에서 구현될 수 있다. 다른 예로써, 인터렉티브 이미지 세그멘테이션 장치(100)의 제1 기능은 제1 컴퓨팅 장치에서 구현되고, 제2 기능은 제2 컴퓨팅 장치에서 구현될 수도 있다. 여기서, 컴퓨팅 장치는, 노트북, 데스크톱(desktop), 랩탑(laptop) 등이 될 수 있으나, 이에 국한되는 것은 아니며 컴퓨팅 기능이 구비된 모든 종류의 장치를 포함할 수 있다. 다만, 인터렉티브 이미지 세그멘테이션 장치(100)가 사용자 단말(200)과 연동하여 다양한 3차원 이미지를 처리해야 되는 환경이라면, 인터렉티브 이미지 세그멘테이션 장치(100)는 고성능의 서버급 컴퓨팅 장치로 구현되는 것이 바람직할 수 있다. 이러한 컴퓨팅 장치의 일례에 대해서는 추후 도 17을 참조하여 설명하기로 한다.
또한, 인터렉티브 이미지 세그멘테이션 장치(100)는, 추후 명세서의 기재를 통해 구체화될 몇몇 동작들을 실행하기 위해서, 인공 신경망 구조를 갖는 모듈을 포함할 수 있으며, 이러한 모듈은 공지된 모든 기술이 적용되어 인터렉티브 이미지 세그멘티이션 장치(100)가 수행하는 각각의 동작들이 최적의 형태로 실행될 수 있도록 구현될 수 있음을 유의해야 한다.
중복된 설명의 배제를 위해, 인터렉티브 이미지 세그멘테이션 장치(100)가 사용자 단말(200)과 상호 작용하여 3차원 이미지로부터 3차원 영역을 세그멘테이션하는 구체적인 동작들에 관해서는, 추후 도 2 이하의 명세서의 기재를 통해 구체적으로 설명하기로 한다.
다음으로, 사용자 단말(200)은 인터렉티브 이미지 세그멘테이션 장치(100)가 전송하는 다양한 정보로 구현된 사용자 인터페이스를 실행할 수 있다. 여기서, 사용자 단말(200)은 인터렉티브 이미지 세그멘테이션 장치(100)가 전송하는 시각적 정보를 디스플레이하기 위한 디스플레이 화면을 포함할 수 있으며, 사용자 인터페이스를 통한 사용자의 입력을 수신하기 위한 다양한 입력 장치(e.g., 마우스, 키보드, 펜, 터치 스크린 등)를 포함할 수도 있다. 이러한 사용자 단말(200)은 인터렉티브 이미지 세그멘테이션 장치(100)와 상호 작용하기 위한 웹 브라우저(Web browser) 또는 전용 애플리케이션이 설치될 수 있으며, 예를 들어, 사용자 단말(200)은 데스크탑(desktop), 워크스테이션(workstation), 랩탑(laptop), 태블릿(tablet) 및 스마트폰(smart phone) 중 어느 하나가 될 수 있으나, 이에 한정되지 않고, 컴퓨팅 기능이 구비된 모든 종류의 장치를 포함할 수 있다. 이러한 컴퓨팅 기능이 구비된 모든 종류의 장치의 일례에 대해서는 추후 도 17을 참조하여 설명하기로 한다.
도 1과 관련하여, 몇몇 실시예에서, 인터렉티브 이미지 세그멘테이션 장치(100)와 사용자 단말(200)은, 네트워크를 통해 통신할 수 있다. 이러한 네트워크는 근거리 통신망(Local Area Network, LAN), 광역 통신망(Wide Area Network, WAN), 이동 통신망(mobile radio communication network) 및 Wibro(Wireless Broadband Internet) 등과 같은 모든 종류의 유/무선 네트워크로 구현될 수 있다.
지금까지 도 1을 참조하여 본 개시의 몇몇 실시예에 따른 인터렉티브 이미지 세그멘테이션 장치(100)가 적용될 수 있는 예시적인 환경에 대하여 설명하였다. 이하에서는, 본 개시의 다양한 실시예에 따른 방법들에 대하여 상세하게 설명하도록 한다.
후술될 방법들의 각 단계는 컴퓨팅 장치에 의해 수행될 수 있다. 다시 말하면, 방법들의 각 단계는 컴퓨팅 장치의 프로세서에 의해 실행되는 하나 이상의 인스트럭션들로 구현될 수 있다. 방법들에 포함되는 모든 단계는 하나의 물리적인 컴퓨팅 장치에 의하여 실행될 수도 있을 것이나, 방법의 제1 단계들은 제1 컴퓨팅 장치에 의하여 수행되고, 방법의 제2 단계들은 제2 컴퓨팅 장치에 의하여 수행될 수도 있다.
이하에서는, 방법들의 각 단계가 도 1에 예시된 인터렉티브 이미지 세그멘테이션 장치에 의해 수행되는 것을 가정하여 설명을 이어가도록 한다. 다만, 설명의 편의상, 방법들에 포함되는 각 단계의 동작 주체는 그 기재가 생략될 수도 있다. 또한, 인터렉티브 이미지 세그멘테이션 장치(100)를 기준으로 방법들의 각 단계가 설명된다고 하더라도, 인터렉티브 이미지 세그멘테이션 장치(100)에서 수행되는 각 단계에 대응되는 사용자 단말(200)의 동작들이 본 개시의 범위에서 배제되는 것이 아님을 유의해야 한다.
도 2를 참조하면 단계 S100에서, 3차원 이미지의 제1 단면 이미지에 대한 사용자의 입력에 응답하여, 제1 단면 이미지의 적어도 일부 영역인 제1 주요 영역이 마스킹될 수 있다.
여기서, 제1 단면 이미지는 3차원 이미지에 대한 임의의 단면 이미지를 의미할 수 있으나, 몇몇 실시예에서, 제1 단면 이미지는 사용자의 선택에 의해 결정될 수도 있다. 이때, 3차원 이미지의 제1 단면 이미지를 선택하기 위한 사용자 인터페이스가 사용자 단말에 구현될 수 있으며, 예를 들어, 대표적인 몇몇 단면 이미지(e.g., 3차원 이미지의 중심점을 기준으로 한 XY 평면, YZ 평면 및 ZX 평면) 중 어느 하나를 제1 단면 이미지로 선택하기 위한 사용자 인터페이스가 사용자 단말에 구현될 수 있고, 다른 예를 들어, 임의의 3개 포인트(point)에 대응되는 평면이 제1 단면 이미지로 선택되도록 임의의 3개 포인트를 선택하기 위한 사용자 인터페이스가 사용자 단말에 구현될 수도 있다. 다만, 상술한 예시들에 본 개시의 범위가 한정되는 것은 아니고, 3차원 이미지의 단면 이미지를 사용자가 선택하기 위한 모든 방법들이 본 개시에 적용될 수 있음을 유의해야 한다.
또한 여기서, 제1 주요 영역은 제1 단면 이미지의 적어도 일부 영역으로써, 사용자의 입력에 응답하여 선택된 영역일 수 있다. 이때, 제1 주요 영역이 사용자에게 시각적으로 인식될 수 있도록, 제1 주요 영역은 마스킹될 수 있다. 구체적인 예를 들어, 도 10에 도시된 제1 단면 이미지(10)의 제1 주요 영역(11)과 같이, 사용자에게 선택되지 않은 다른 영역과 구별되도록 마스킹될 수 있다.
상술한 단계 S100의 동작을 구현하기 위해서, 예를 들어, U-NET, DeepLab V3+ 등과 같은, 2차원 세그멘테이션을 수행하는 인공 지능 모델이 참조될 수 있으며, 본 개시의 논지를 흐리지 않기 위해 구체적인 설명은 생략하기로 한다.
단계 S100과 관련된 보다 구체적인 설명을 위해, 이하에서, 도 3 및 도 4를 참조하여 설명하기로 한다.
도 3을 참조하면, 포지티브 입력에 대응되는 제1 포인트가 제1 주요 영역의 내부를 가리키는 포인트로 식별될 수 있고(S110), 네거티브 입력에 대응되는 제2 포인트가 제1 주요 영역의 외부를 가리키는 포인트로 식별될 수 있고(S120), 제1 포인트 및 제2 포인트를 이용하여 제1 주요 영역이 마스킹될 수 있다(S130). 즉, 제1 단면 이미지에 대한 몇몇의 포지티브 입력 및 몇몇의 네거티브 입력에 응답하여 제1 주요 영역이 마스킹될 수 있으며, 구체적으로, 제1 단면 이미지의 몇몇 포인트에 대한 구체적인 정보(e.g., 전경(foreground) 또는 배경(background))가 부가됨으로써, 사용자의 관심 영역이 쉽게 선택될 수 있다.
도 3을 참조하여 설명된 포지티브 입력 및 네거티브 입력을 이용한 제1 주요 영역의 마스킹 동작을 보다 구체적으로 설명하기 위해, 이하에서, 도 9 및 도 10을 참조하여 설명하기로 한다.
도 9는 제1 단면 이미지(10)에 대한 사용자의 입력 툴(tool)의 일례를 도시한다. 도 9에 도시된 바에 따르면, 사용자 단말의 입력 장치의 위치에 대응되는 포인트를 가리키는 포인터(1), 포인터(1)의 위치를 사용자가 보다 쉽게 인식할 수 있도록 하는 보조 인디케이터(2)가 제1 단면 이미지(10) 상을 네비게이트(navigate)할 수 있다. 여기서, 포인터(1)를 이용하면 제1 단면 이미지(10)의 특정 포인트에 대한 포지티브 입력 또는 네거티브 입력을 수행할 수 있다.
도 10은 제1 단면 이미지(10)에 포지티브 입력에 대응되는 제1 포인트(3a, 13b, 13c) 및 네거티브 입력에 대응되는 제2 포인트(15)가 입력된 일례를 도시하고 있으며, 포인트들(13a, 13b, 13c, 15)을 이용하여 제1 주요 영역(11)을 마스킹할 수 있다.
지금까지 도 3 및 관련 예시 도면들을 참조하여 설명된 방법에 따르면, 사용자의 입력을 반영하여 이미지 세그멘테이션에 대한 추론 결과가 도출될 수 있으며, 제1 단면 이미지의 모든 픽셀에 대해 구체적인 정보(e.g., 전경(foreground) 또는 배경(background))를 부가하지 않는 경우에도 제1 주요 영역이 동적으로 마스킹됨으로써, 사용자의 개입을 최소화함에 따라 마스킹에 소요되는 시간과 노력을 감소시킬 수 있다.
이하, 도 3 및 관련 예시 도면들을 참조하여 설명된 사용자의 입력 외에도 본 개시에서 참조될 수 있는 다양한 사용자의 입력에 대해 구체적으로 설명하기로 한다.
단계 S100과 관련하여, 몇몇 실시예에서, 사용자의 입력에 응답하여 제1 주요 영역을 마스킹하는 단계는, 사용자의 입력에 대응되는 경계 박스(bounding box)를 이용하여 제1 주요 영역을 마스킹하는 단계를 포함할 수 있다. 구체적으로 본 실시예에 따르면, 경계 박스 내부에 위치한 객체를 경계 박스 외부와 구별하여 마스킹할 수 있으며, 예를 들어, 도 11에 도시된 바와 같은 경계 박스(12)를 기초로 경계 박스(12) 내부에 위치한 소를 외부와 구별되도록 마스킹할 수 있다.
단계 S100과 관련하여, 다른 몇몇 실시예에서, 사용자의 입력에 응답하여 제1 주요 영역을 마스킹하는 단계는, 사용자의 스크리블(scribble) 입력을 이용하여 제1 주요 영역을 마스킹하는 단계를 포함할 수 있다. 구체적으로 본 실시예에 따르면, 사용자의 스크리블(scribble) 입력에 대응되는 객체가 마스킹될 수 있으며, 예를 들어, 도 12에 도시된 바와 같이, 제1 스크리블 입력(14a)에 응답하여 하늘을 제1 색으로 마스킹할 수 있고, 제2 스크리블 입력(14b)에 응답하여 나무를 제2 색으로 마스킹할 수 있고, 제3 스크리블 입력(14c, 14e)에 응답하여 소를 제3 색으로 마스킹할 수 있고, 제4 스크리블 입력(14d)에 응답하여 풀을 제4 색으로 마스킹할 수 있다.
단계 S100과 관련하여 지금까지 설명된 실시예들을 구현하기 위해, 모든 공지 기술이 참조될 수 있으며, 사용자가 의도한 제1 주요 영역을 제1 단면 이미지에서 선택/마스킹하는 기술이라면 어떠한 기술이라도 본 개시에 적용될 수 있다.
도 4를 참조하면, 마스킹 완료 조건이 만족되지 않으면(S140), 사용자의 입력에 대응되도록 마스킹된 제1 주요 영역이 갱신될 수 있다(S150). 즉, 마스킹 완료 조건이 만족될 때까지 반복하여 사용자의 입력에 대응되도록 마스킹된 제1 주요 영역이 갱신될 수 있으며, 이러한 마스킹된 제1 주요 영역의 갱신은 사용자의 입력에 대응되도록 시시각각 시각적으로 표시될 수 있다. 예를 들어, 도 10에 도시된 제1 단면 이미지(10)의 제1 주요 영역(11) 외부의 제1 특정 포인트에 포지티브 입력을 수행하면, 제1 특정 포인트가 제1 주요 영역(11)에 포함되도록 제1 주요 영역(11)이 갱신될 수 있다. 다른 예를 들어, 도 10에 도시된 제1 단면 이미지(10)의 제1 주요 영역(11) 내부의 제2 특정 포인트에 네거티브 입력을 수행하면, 제2 특정 포인트가 제1 주요 영역(11)에 포함되지 않도록 제1 주요 영역(11)이 갱신될 수도 있다. 상술한 예시 외에도 다양한 사용자의 입력에 따라 제1 주요 영역(11)이 갱신될 수 있으며, 사용자의 입력에 대응되도록 제1 주요 영역을 갱신하는 동작이라면 얼마든지 본 개시의 범위에 포함될 수 있다.
여기서, 마스킹 완료 조건은 제1 단면 이미지에 대한 제1 주요 영역의 마스킹을 완료하는 조건을 의미할 수 있다. 몇몇 실시예에서, 마스킹 완료 조건은 제1 주요 영역의 마스킹이 완료되었음을 알리는 사용자의 입력이 수신되었는지를 판정하는 조건일 수 있다. 즉, 시각적으로 갱신된 제1 주요 영역을 사용자가 실시간으로 확인하고, 갱신된 제1 주요 영역이 사용자가 의도한 제1 주요 영역에 부합하면 제1 주요 영역의 마스킹이 완료되었음을 알리는 입력을 사용자가 수행함으로써, 마스킹 완료 조건이 달성될 수 있다. 예를 들어, 도 16의 사용자 인터페이스(50)에 도시된 확인 버튼(80)에 대한 사용자의 입력에 따라 마스킹 완료 조건이 달성될 수 있다.
도 4 및 관련 도면에 도시된 실시예에 따르면, 사용자가 의도한 제1 주요 영역에 부합하도록 제1 주요 영역을 갱신하고, 갱신된 제1 주요 영역을 시각적으로 시시각각 표시함으로써, 2차원 이미지 세그멘테이션을 인터렉티브(interactive)하게 수행할 수 있다.
이하에서는, 다시 도 2를 참조하여 설명하기로 한다.
도 2를 참조하면 단계 S200에서, 마스킹된 제1 주요 영역을 포함하는 3차원 영역이 3차원 이미지로부터 세그멘테이션될 수 있다. 구체적으로, 3차원 이미지와 마스킹된 제1 주요 영역을 포함하는 제1 단면 이미지를 이용하여, 3차원 이미지와 마스킹된 제1 주요 영역이 연쇄(concatenate)된 형태로 3차원 영역(e.g., 관심 영역)이 세그멘테이션될 수 있으며, 예를 들어, 도 15의 (A)에 도시된 바와 같이, 도 10에서 마스킹된 제1 주요 영역(11)에 대응한 3차원 영역(17)이 3차원 이미지로부터 세그멘테이션될 수 있다.
이러한 3차원 영역을 세그멘테이션하기 위해서, 예를 들어, 3D U-NET 등과 같은, 3차원 세그멘테이션을 수행하는 인공 지능 모델이 참조될 수 있으며, 본 개시의 논지를 흐리지 않기 위해 구체적인 설명은 생략하기로 한다.
다음으로 단계 S300에서, 제1 단면 이미지와 구별되는 3차원 이미지의 다른 단면 이미지에 대한 사용자의 입력에 응답하여, 3차원 영역이 갱신될 수 있다. 즉, 제1 단면 이미지와 구별되는 3차원 이미지의 다른 단면 이미지에 관한 정보들이 추가적으로 이용됨으로써, 3차원 영역이 보다 정교하게 갱신될 수 있으며, 이하, 도 5를 참조하여 단계 S300에 관해 보다 구체적으로 설명하기로 한다.
도 5를 참조하면 단계 S310에서, 3차원 영역의 불확실성(uncertainty)을 나타내는 불확실성 지수에 기초하여, 제1 단면 이미지와 구별되는 3차원 이미지의 제2 단면 이미지가 결정될 수 있다. 여기서, 결정된 제2 단면 이미지는 사용자에게 시각적으로 표시될 수 있으며, 경우에 따라서, 결정된 단면 이미지는 3차원 이미지의 중심점을 기준으로 한 XY 평면, YZ 평면 및 ZX 평면 중 어느 하나로 결정될 수도 있다. 또한 여기서, 불확실성 지수는 부족한 입력 정보(e.g., 마스킹된 단면 이미지)로 인한 3차원 영역의 불확실성을 나타내는 지수로써, 예를 들어, Monte Carlo Dropout을 이용한 Bayesian SegNet, Neural Bootstrapping 등을 이용하여 산출할 수 있다.
단계 S310에 관한 구체적인 설명을 위해, 도 6을 참조하여 설명하기로 한다.
도 6을 참조하면 단계 S311에서, 3차원 이미지와 마스킹된 제1 주요 영역을 이용하여 복수의 3차원 예측 영역이 생성될 수 있다. 본 단계에서는, 상술한 바와 같이, 부족한 입력 정보로 인한 3차원 영역의 불확실성을 Monte Carlo Dropout을 이용하여 해소함으로써, 랜덤하게 생성된 복수의 3차원 예측 영역이 생성될 수 있다.
또한 단계 S312에서, 3차원 이미지의 단면 이미지마다 대응되는 복수의 3차원 예측 영역 각각의 단면적의 분산 값을 이용하여, 3차원 이미지의 단면 이미지마다 불확실성 지수를 산출할 수 있다. 구체적으로, 상대적으로 더 부족한 입력 정보를 갖는 3차원 이미지의 단면 이미지의 경우, 3차원 이미지의 단면 이미지에 대응되는 복수의 3차원 예측 영역 각각의 단면적들은 상대적으로 각기 다른 단면적을 가질 가능성이 높으므로, 단면적의 분산 값이 높을 수 있으며, 반면에, 상대적으로 덜 부족한 입력 정보를 갖는 3차원 이미지의 단면 이미지의 경우, 3차원 이미지의 단면 이미지에 대응되는 복수의 3차원 예측 영역 각각의 단면적들은 상대적으로 균일한 단면적을 가질 가능성이 높으므로, 단면적의 분산 값이 낮을 수 있다.
몇몇 실시예에서는, 단면적의 분산 값을 이용한 예시와 달리, 얼마든지 대응되는 다른 형태(e.g., 엔트로피)를 이용하여, 불확실성 지수를 3차원 이미지의 단면 이미지마다 산출할 수 있으며, 보다 구체적인 설명은, 본 개시의 논지를 흐리지 않기 위해 생략하기로 한다.
또한 단계 S313에서, 3차원 이미지의 단면 이미지마다 산출된 복수의 불확실성 지수 중 최대인 불확실성 지수에 대응되는 단면 이미지가 제2 단면 이미지로 결정될 수 있다. 구체적으로, 상술한 단계 S312에서 가장 부족한 입력 정보를 갖는 3차원 이미지의 단면 이미지가 제2 단면 이미지로 결정될 수 있으며, 추후 설명될 몇몇 단계들에 따라 제2 단면 이미지에 대한 제2 주요 영역이 결정됨으로써, 3차원 영역이 갱신될 수 있다. 예를 들어, 도 10의 제1 단면 이미지(10)에 대한 제1 주요 영역(11)의 마스킹이 완료된 후, 도 13의 (A)에 도시된 바와 같이, 제2 단면 이미지(20)가 결정되어 사용자 단말에 표시될 수 있다. 이때, 제1 단면 이미지(10)에 대한 동작 이후에, 도 13 (A)에 도시된 제2 단면 이미지(20)는 3차원 이미지의 단면 이미지 중 불확실성 지수가 최대인 단면 이미지로 이해될 수 있다.
도 13과 관련하여, 몇몇 실시예에서, 제2 단면 이미지(20)는, 제1 주요 영역(11)으로 인해 기 생성된 3차원 영역에 대응되는 마스킹된 제2 주요 영역(21)을 사용자의 입력 이전에도 포함할 수 있으며, 본 실시예에 따르면, 마스킹된 제2 주요 영역(21)을 보완하는 사용자의 입력만 있으면 제2 주요 영역(21)이 갱신될 수 있으므로, 사용자의 개입이 보다 적어질 수 있다.
지금까지 도 6 및 관련 예시 도면을 참조하여 설명된 실시예에 따르면, 3차원 영역을 추출하기 위한 가장 부족한 입력 정보를 갖는 단면 이미지를 동적으로 결정할 수 있다. 즉, 3차원 영역을 세그멘테이션하기 위한 가장 적절한 단면 이미지를 사용자에게 추천함으로써, 다수의 단면 이미지(e.g., 100장 이상의 단면 이미지)를 가공해야만 함에 따라 발생하는 시간과 노력을 경감시킬 수 있다.
다시 도 5를 참조하면 단계 S320에서, 제2 단면 이미지에 대한 사용자의 입력에 응답하여 3차원 영역이 갱신될 수 있다. 단계 S320과 관련하여, 도 7을 참조하면, 제2 단면 이미지에 대한 사용자의 입력에 응답하여 제2 단면 이미지의 적어도 일부 영역인 주요 영역이 마스킹될 수 있고(S321), 마스킹된 제1 주요 영역과 마스킹된 제2 주요 영역이 3차원 영역에 포함되도록 3차원 영역이 갱신될 수 있다(S322). 상술한 단계 S321은 입력의 대상이 되는 단면 이미지만이 상이하므로, 도 2에 도시된 단계 S100에 관한 설명을 참조하면 이해될 수 있다. 또한, 상술한 단계 S322는 제2 주요 영역이 제1 주요 영역과 함께 포함되도록 3차원 영역을 생성/갱신하는 것이므로, 도 2에 도시된 단계 S200에 관한 설명을 참조하면 이해될 수 있다.
관련 예시 도면들과 함께 단계 S320에 관한 구체적인 설명을 추가하면, 도 13의 (B)에 도시된 바와 같이 포인트(23, 25)들에 대한 포지티브 입력/네거티브 입력이 수행됨으로써, 제2 단면 이미지(20)의 제2 주요 영역(21)이 마스킹될 수 있다. 이렇게 마스킹된 제2 주요 영역이 3차원 영역의 갱신에 이용됨으로써, 보다 정교하게 사용자가 의도하는 관심 영역을 세그멘테이션할 수 있다.
이하, 도 8을 참조하여 3차원 영역의 갱신 동작을 보다 구체적으로 설명하기로 한다.
도 8을 참조하면, 세그멘테이션 완료 조건이 만족되지 않으면(S330), 불확실성 지수에 기초하여 3차원 이미지의 단면 이미지가 결정될 수 있고(S340), 결정된 단면 이미지에 대한 사용자의 입력에 응답하여 3차원 영역이 결정될 수 있다.
여기서, 세그멘테이션 완료 조건은 단면 이미지의 결정 및 3차원 영역의 갱신을 완료하는 조건을 의미할 수 있다.
몇몇 실시예에서, 세그멘테이션 완료 조건은 사전에 결정된 횟수(e.g., 2회)만큼 3차원 영역의 갱신이 수행되었는지를 판정하는 조건일 수 있다. 즉, 반복적인 단면 이미지의 결정 및 3차원 영역의 갱신으로 인해 소요되는 시간 대비 가장 높은 효율을 얻을 수 있는 횟수가 사전에 결정될 수 있으며, 대상 3차원 이미지의 종류 및 추후 세그멘테이션된 3차원 영역이 이용될 분석의 종류 등에 따라 얼마든지 횟수는 달라질 수 있다.
다른 몇몇 실시예에서, 세그멘테이션 완료 조건은 3차원 영역의 세그멘테이션이 완료되었음을 알리는 사용자의 입력이 수신되었는지를 판정하는 조건일 수도 있다. 즉, 시각적으로 갱신된 3차원 영역을 사용자가 실시간으로 확인하고, 갱신된 3차원 영역이 사용자가 의도한 3차원 영역에 부합하면 3차원 영역의 세그멘테이션이 완료되었음을 알리는 입력을 사용자가 수행함으로써, 세그멘테이션 완료 조건이 달성될 수 있다.
또한 도 8의 상술한 단계 S340 및 단계 S350은, 세그멘테이션 완료 조건이 만족될 때까지 수행되는 점이 상이할 뿐이므로, 도 5에 도시된 단계 S310 및 단계 S320에 관한 설명을 참조하면 이해될 수 있다.
관련 예시 도면들과 함께 도 8에 도시된 순서도에 관한 구체적인 설명을 추가하면, 도 10의 제1 단면 이미지(10)에 대한 제1 주요 영역(11)의 마스킹이 완료되고, 도 13의 (B)와 같이 제2 단면 이미지(20)에 대한 제2 주요 영역(21)이 완료된 후, 도 14의 (A)에 도시된 바와 같이, 제3 단면 이미지(30)가 결정되어 사용자 단말에 표시될 수 있다. 이때, 도 14 (A)에 도시된 제3 단면 이미지(20)는, 제1 단면 이미지(10)에 대한 동작 및 제2 단면 이미지(20)에 대한 동작 이후에, 3차원 이미지의 단면 이미지 중 불확실성 지수가 최대인 단면 이미지로 이해될 수 있다. 또한, 도 14의 (B)에 도시된 바와 같이 포인트(33a, 33b, 35a, 35b)들에 대한 포지티브 입력/네거티브 입력이 수행됨으로써, 제3 단면 이미지(30)의 제3 주요 영역(31)이 마스킹될 수 있다. 이렇게 마스킹된 제3 주요 영역이 3차원 영역의 갱신에 이용됨으로써, 보다 정교하게 사용자가 의도하는 관심 영역을 세그멘테이션할 수 있으며, 예를 들어, 도 15의 (B)에 도시된 바와 같이, 도 10의 제1 주요 영역(11), 도 13의 제2 주요 영역(21) 및 도 14의 제3 주요 영역(31)에 대응한 3차원 영역(37)이 3차원 이미지로부터 보다 정교하게 세그멘테이션될 수 있다.
구체적으로, 실제 값(ground truth)과 단계별로 세그멘테이션된 3차원 영역을 비교하면, 1) 하나의 단면 이미지에 대응하는 제1 주요 영역이 포함되도록 형성된 3차원 영역, 2) 제1 주요 영역과 다른 단면 이미지에 대응하는 제2 주요 영역이 포함되도록 형성된 3차원 영역, 3) 제1 주요 영역, 제2 주요 영역과 또 다른 단면 이미지에 대응하는 제3 주요 영역이 포함되도록 형성된 3차원 영역은, 서로 다른 단면 이미지에 대한 동작이 거듭될수록(i.e., 3), 2), 1) 순서대로) 실제 값과 유사해질 수 있다. 즉, 하나의 단면 이미지와 구별되는 3차원 이미지의 다른 단면 이미지에 관한 정보들이 추가적으로 이용됨에 따라, 3차원 영역이 보다 정교하게 갱신될 수 있다.
도 16은 사용자 인터페이스(50)의 일례를 도시하고 있으며, 사용자 단말에는 도 16과 같이, 단면 이미지를 표시하는 단면 이미지 영역(60)과 세그멘테이션된 3차원 영역을 표시하는 결과 확인 영역(70)을 함께 표시할 수 있다.
지금까지 도 2 내지 도 16을 참조하여 본 개시의 몇몇 실시예에 따른 인터렉티브 이미지 세그멘테이션 방법에 대하여 설명하였다. 상술한 방법에 따르면, 이미지 분석을 위한 학습 데이터를 구축하기 위한 방법으로써, 이미지 세그멘테이션을 위해 소요되는 시간과 노력을 효과적으로 경감시킬 수 있다. 특히, 3차원 이미지의 여러 단면 이미지 중 마스킹이 요구되는 특정 단면 이미지를 동적으로 추천함으로써, 3차원 이미지 세그멘테이션을 위해 소요되는 시간과 노력을 더욱 효과적으로 경감시킬 수 있다.
이하, 도 17을 참조하여 본 개시의 몇몇 실시예에 따른 인터렉티브 이미지 세그멘테이션 장치 및 사용자 단말을 구현할 수 있는 예시적인 컴퓨팅 장치(1500)를 보다 구체적으로 설명하기로 한다.
컴퓨팅 장치(1500)는 하나 이상의 프로세서(1510), 버스(1550), 통신 인터페이스(1570), 프로세서(1510)에 의하여 수행되는 컴퓨터 프로그램(1591)을 로드(load)하는 메모리(1530)와, 컴퓨터 프로그램(1591)을 저장하는 스토리지(1590)를 포함할 수 있다. 다만, 도 17에는 본 개시의 실시예와 관련 있는 구성 요소들 만이 도시되어 있다. 따라서, 본 개시가 속한 기술 분야의 통상의 기술자라면 도 17에 도시된 구성 요소들 외에 다른 범용적인 구성 요소들이 더 포함될 수 있음을 알 수 있다.
프로세서(1510)는 컴퓨팅 장치(1500)의 각 구성의 전반적인 동작을 제어한다. 프로세서(1510)는 CPU(Central Processing Unit), MPU(Micro Processor Unit), MCU(Micro Controller Unit), GPU(Graphic Processing Unit) 또는 본 개시의 기술 분야에 잘 알려진 임의의 형태의 프로세서를 포함하여 구성될 수 있다. 또한, 프로세서(1510)는 본 개시의 실시예들에 따른 방법을 실행하기 위한 적어도 하나의 애플리케이션 또는 프로그램에 대한 연산을 수행할 수 있다. 컴퓨팅 장치(1500)는 하나 이상의 프로세서를 구비할 수 있다.
메모리(1530)는 각종 데이터, 명령 및/또는 정보를 저장한다. 메모리(1530)는 본 개시의 실시예들에 따른 방법을 실행하기 위하여 스토리지(1590)로부터 하나 이상의 프로그램(1591)을 로드 할 수 있다. 메모리(1530)는 RAM과 같은 휘발성 메모리로 구현될 수 있을 것이나, 본 개시의 기술적 범위가 이에 한정되는 것은 아니다.
버스(1550)는 컴퓨팅 장치(1500)의 구성 요소 간 통신 기능을 제공한다. 버스(1550)는 주소 버스(Address Bus), 데이터 버스(Data Bus) 및 제어 버스(Control Bus) 등 다양한 형태의 버스로 구현될 수 있다.
통신 인터페이스(1570)는 컴퓨팅 장치(1500)의 유무선 인터넷 통신을 지원한다. 또한, 통신 인터페이스(1570)는 인터넷 통신 외의 다양한 통신 방식을 지원할 수도 있다. 이를 위해, 통신 인터페이스(1570)는 본 개시의 기술 분야에 잘 알려진 통신 모듈을 포함하여 구성될 수 있다.
몇몇 실시예들에 따르면, 통신 인터페이스(1570)는 생략될 수도 있다.
스토리지(1590)는 상기 하나 이상의 프로그램(1591)과 각종 데이터를 비임시적으로 저장할 수 있다.
스토리지(1590)는 ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리 등과 같은 비휘발성 메모리, 하드 디스크, 착탈형 디스크, 또는 본 개시가 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터로 읽을 수 있는 기록 매체를 포함하여 구성될 수 있다.
컴퓨터 프로그램(1591)은 메모리(1530)에 로드 될 때 프로세서(1510)로 하여금 본 개시의 다양한 실시예에 따른 방법/동작을 수행하도록 하는 하나 이상의 인스트럭션(instruction)들을 포함할 수 있다. 즉, 프로세서(1510)는 상기 하나 이상의 인스트럭션들을 실행함으로써, 본 개시의 다양한 실시예에 따른 방법/동작들을 수행할 수 있다.
위와 같은 경우, 컴퓨팅 장치(1500)를 통해 본 개시의 몇몇 실시예에 따른 인터렉티브 이미지 세그멘테이션 장치가 구현되거나 사용자 단말이 구현될 수 있다.
지금까지 도 1 내지 도 17을 참조하여 설명된 본 개시의 기술적 사상은 컴퓨터가 읽을 수 있는 매체 상에 컴퓨터가 읽을 수 있는 코드로 구현될 수 있다. 이러한 컴퓨터로 읽을 수 있는 기록 매체는, 예를 들어 이동형 기록 매체(CD, DVD, 블루레이 디스크, USB 저장 장치, 이동식 하드 디스크)이거나, 고정식 기록 매체(ROM, RAM, 컴퓨터 구비 형 하드 디스크)일 수 있다. 이러한 컴퓨터로 읽을 수 있는 기록 매체에 기록된 컴퓨터 프로그램은 인터넷 등의 네트워크를 통하여 다른 컴퓨팅 장치에 전송되어 상기 다른 컴퓨팅 장치에 설치될 수 있고, 이로써 다른 컴퓨팅 장치에서 사용될 수 있다.
지금까지 도 1 내지 도 17을 참조하여 본 개시의 다양한 실시예들 및 그 실시예들에 따른 효과들을 언급하였다. 본 개시의 기술적 사상에 따른 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 명세서의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
이상에서, 본 개시의 실시예를 구성하는 모든 구성 요소들이 하나로 결합되거나 결합되어 동작하는 것으로 설명되었다고 해서, 본 개시의 기술적 사상이 반드시 이러한 실시예에 한정되는 것은 아니다. 즉, 본 개시의 목적 범위 안에서라면, 그 모든 구성 요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다.
또한, 도면에서 동작들이 특정한 순서로 도시되어 있지만, 반드시 동작들이 도시된 특정한 순서로 또는 순차적 순서로 실행되어야만 하거나 또는 모든 도시된 동작들이 실행되어야만 원하는 결과를 얻을 수 있는 것으로 이해되어서는 안 된다. 특정 상황에서는, 멀티 태스킹 및 병렬 처리가 유리할 수도 있다. 더욱이, 위에 설명한 실시예들에서 다양한 구성들의 분리는 그러한 분리가 반드시 필요한 것으로 이해되어서는 안 되고, 설명된 프로그램 컴포넌트들 및 시스템들은 일반적으로 단일 소프트웨어 제품으로 함께 통합되거나 다수의 소프트웨어 제품으로 패키지 될 수 있음을 이해하여야 한다.
이상 첨부된 도면을 참조하여 본 개시의 실시예들을 설명하였지만, 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자는 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 본 개시가 다른 구체적인 형태로도 실시될 수 있다는 것을 이해할 수 있다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로 이해해야만 한다. 본 개시의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 개시에 의해 정의되는 기술적 사상의 권리범위에 포함되는 것으로 해석되어야 할 것이다.

Claims (10)

  1. 컴퓨팅 장치에 의해 수행되는 방법에 있어서,
    3차원 이미지의 제1 단면 이미지에 대한 사용자의 입력에 응답하여, 상기 제1 단면 이미지의 적어도 일부 영역인 제1 주요 영역을 마스킹(masking)하는 단계;
    상기 마스킹된 제1 주요 영역을 포함하는 3차원 영역을 상기 3차원 이미지로부터 세그멘테이션(segmentation)하는 단계; 및
    상기 3차원 영역의 불확실성(uncertainty)을 나타내는 불확실성 지수에 기초하여 결정된 상기 3차원 이미지의 제2 단면 이미지를 표시하는 단계를 포함하는,
    인터렉티브 이미지 세그멘테이션 방법.
  2. 제1항에 있어서,
    상기 사용자의 입력에 응답하여, 상기 제1 주요 영역을 마스킹하는 단계는,
    제1 입력에 대응되는 제1 포인트를 상기 제1 주요 영역의 내부를 가리키는 포인트로 식별하는 단계;
    상기 제1 입력과 구별되는 제2 입력에 대응되는 제2 포인트를 상기 제1 주요 영역의 외부를 가리키는 포인트로 식별하는 단계; 및
    상기 제1 포인트 및 상기 제2 포인트를 이용하여, 상기 제1 주요 영역을 마스킹하는 단계를 포함하는,
    인터렉티브 이미지 세그멘테이션 방법.
  3. 제1항에 있어서,
    상기 사용자의 입력에 응답하여, 상기 제1 주요 영역을 마스킹하는 단계는,
    상기 사용자의 입력에 대응되는 경계 박스(bounding box)를 이용하여, 상기 제1 주요 영역을 마스킹하는 단계를 포함하는,
    인터렉티브 이미지 세그멘테이션 방법.
  4. 제1항에 있어서,
    상기 사용자의 입력에 응답하여, 상기 제1 주요 영역을 마스킹하는 단계는,
    상기 사용자의 스크리블(scribble) 입력을 이용하여, 상기 제1 주요 영역을 마스킹하는 단계를 포함하는,
    인터렉티브 이미지 세그멘테이션 방법.
  5. 제1항에 있어서,
    상기 제1 주요 영역을 마스킹하는 단계는,
    마스킹 완료 조건을 만족할 때까지 입력된 상기 사용자의 입력에 대응되도록, 상기 마스킹된 제1 주요 영역을 갱신하여 표시하는 단계를 포함하는,
    인터렉티브 이미지 세그멘테이션 방법.
  6. 제1항에 있어서,
    상기 불확실성 지수에 기초하여 결정된 상기 3차원 이미지의 제2 단면 이미지를 표시하는 단계는,
    상기 3차원 이미지와 상기 마스킹된 제1 주요 영역을 이용하여, 복수의 3차원 예측 영역을 생성하는 단계; 및
    상기 3차원 이미지의 단면 이미지마다 대응되는 상기 복수의 3차원 예측 영역 각각의 단면적의 분산 값을 이용하여, 상기 3차원 이미지의 단면 이미지마다 불확실성 지수를 산출하는 단계를 포함하는,
    인터렉티브 이미지 세그멘테이션 방법.
  7. 제6항에 있어서,
    상기 불확실성 지수에 기초하여 결정된 상기 3차원 이미지의 제2 단면 이미지를 표시하는 단계는,
    상기 3차원 이미지의 단면 이미지마다 산출된 복수의 불확실성 지수 중 최대인 불확실성 지수에 대응되는 단면 이미지를 상기 제2 단면 이미지로 표시하는 단계를 더 포함하는,
    인터렉티브 이미지 세그멘테이션 방법.
  8. 제1항에 있어서,
    상기 제2 단면 이미지에 대한 상기 사용자의 입력에 응답하여, 상기 3차원 영역을 갱신하여 표시하는 단계를 더 포함하고,
    상기 3차원 영역을 갱신하여 표시하는 단계는,
    상기 제2 단면 이미지에 대한 상기 사용자의 입력에 응답하여, 상기 제2 단면 이미지의 적어도 일부 영역인 제2 주요 영역을 마스킹하는 단계; 및
    상기 마스킹된 제1 주요 영역과 상기 마스킹된 제2 주요 영역이 상기 3차원 영역에 포함되도록, 상기 3차원 영역을 갱신하여 표시하는 단계를 포함하는,
    인터렉티브 이미지 세그멘테이션 방법.
  9. 제8항에 있어서,
    상기 3차원 영역을 갱신하여 표시하는 단계는,
    세그멘테이션 완료 조건을 만족할 때까지, 상기 불확실성 지수에 기초하여 결정된 상기 3차원 이미지의 단면 이미지를 표시하고, 상기 표시된 단면 이미지에 대한 상기 사용자의 입력에 응답하여 상기 3차원 영역을 갱신하여 표시하는 단계를 포함하는,
    인터렉티브 이미지 세그멘테이션 방법.
  10. 프로세서;
    네트워크 인터페이스;
    메모리; 및
    상기 메모리에 로드(load)되고, 상기 프로세서에 의해 실행되는 컴퓨터 프로그램을 포함하되,
    상기 컴퓨터 프로그램은,
    3차원 이미지의 제1 단면 이미지에 대한 사용자의 입력에 응답하여, 상기 제1 단면 이미지의 적어도 일부 영역인 제1 주요 영역을 마스킹(masking)하는 인스트럭션(instruction);
    상기 마스킹된 제1 주요 영역을 포함하는 3차원 영역을 상기 3차원 이미지로부터 세그멘테이션(segmentation)하는 인스트럭션; 및
    상기 3차원 영역의 불확실성(uncertainty)을 나타내는 불확실성 지수에 기초하여 상기 3차원 이미지의 제2 단면 이미지를 결정하는 인스트럭션을 포함하는,
    인터렉티브 이미지 세그멘테이션 장치.
KR1020210184715A 2021-12-22 2021-12-22 인터렉티브 이미지 세그멘테이션 방법 및 그 장치 KR20230095336A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210184715A KR20230095336A (ko) 2021-12-22 2021-12-22 인터렉티브 이미지 세그멘테이션 방법 및 그 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210184715A KR20230095336A (ko) 2021-12-22 2021-12-22 인터렉티브 이미지 세그멘테이션 방법 및 그 장치

Publications (1)

Publication Number Publication Date
KR20230095336A true KR20230095336A (ko) 2023-06-29

Family

ID=86946143

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210184715A KR20230095336A (ko) 2021-12-22 2021-12-22 인터렉티브 이미지 세그멘테이션 방법 및 그 장치

Country Status (1)

Country Link
KR (1) KR20230095336A (ko)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102315574B1 (ko) 2014-12-03 2021-10-20 삼성전자주식회사 데이터 분류 방법 및 장치와 관심영역 세그멘테이션 방법 및 장치

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102315574B1 (ko) 2014-12-03 2021-10-20 삼성전자주식회사 데이터 분류 방법 및 장치와 관심영역 세그멘테이션 방법 및 장치

Similar Documents

Publication Publication Date Title
CN111192356B (zh) 感兴趣区域的显示方法、装置、设备和存储介质
CN114155543B (zh) 神经网络训练方法、文档图像理解方法、装置和设备
JP7061225B2 (ja) 病巣検出方法、装置、機器および記憶媒体
CN113614780A (zh) 使用损失函数学习检测模型
KR102186632B1 (ko) 의료 영상의 분석 모델을 학습시키는 학습 장치 및 그 학습 방법
US11043027B2 (en) Three-dimensional graphics image processing
JP2020503611A (ja) 複合現実において動的仮想コンテンツを生成するデバイスおよび方法
US20230237777A1 (en) Information processing apparatus, learning apparatus, image recognition apparatus, information processing method, learning method, image recognition method, and non-transitory-computer-readable storage medium
US20200160575A1 (en) Apparatus and method for editing data and program
US11776132B2 (en) Multi-phase object contour refinement
US11854192B2 (en) Multi-phase object contour refinement
CN114708374A (zh) 虚拟形象生成方法、装置、电子设备和存储介质
CN113822283A (zh) 文本内容处理方法、装置、计算机设备及存储介质
KR20230095336A (ko) 인터렉티브 이미지 세그멘테이션 방법 및 그 장치
US20220092448A1 (en) Method and system for providing annotation information for target data through hint-based machine learning model
CN109308703B (zh) 利用结构化的用户点击点对解剖结构智能描轮廓
US11087069B2 (en) Method of visually interacting with a document by dynamically displaying a fill area in a boundary
CN114092608A (zh) 表情的处理方法及装置、计算机可读存储介质、电子设备
CN113538467A (zh) 图像分割方法和装置及图像分割模型的训练方法和装置
KR20230095350A (ko) 이미지 세그멘테이션 결과의 검증 방법 및 그 장치
CN115809325B (zh) 文档处理模型训练方法、文档处理方法、装置及设备
CN113129362B (zh) 一种三维坐标数据的获取方法及装置
US11923071B2 (en) Multi-phase object contour refinement
KR101599692B1 (ko) Pca 기법을 활용한 어휘의 시각화 방법 및 그 장치
US20230205556A1 (en) Method and electronic device for analyzing application screen