KR102064367B1 - 이미지 태깅 장치 및 이를 이용한 이미지 태깅 방법 - Google Patents

이미지 태깅 장치 및 이를 이용한 이미지 태깅 방법 Download PDF

Info

Publication number
KR102064367B1
KR102064367B1 KR1020180051767A KR20180051767A KR102064367B1 KR 102064367 B1 KR102064367 B1 KR 102064367B1 KR 1020180051767 A KR1020180051767 A KR 1020180051767A KR 20180051767 A KR20180051767 A KR 20180051767A KR 102064367 B1 KR102064367 B1 KR 102064367B1
Authority
KR
South Korea
Prior art keywords
image
correct answer
line
answer line
interface
Prior art date
Application number
KR1020180051767A
Other languages
English (en)
Other versions
KR20190134885A (ko
Inventor
금지수
조준익
김재찬
Original Assignee
주식회사 셀바스에이아이
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 셀바스에이아이 filed Critical 주식회사 셀바스에이아이
Priority to KR1020180051767A priority Critical patent/KR102064367B1/ko
Publication of KR20190134885A publication Critical patent/KR20190134885A/ko
Application granted granted Critical
Publication of KR102064367B1 publication Critical patent/KR102064367B1/ko

Links

Images

Classifications

    • G06K9/20
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06K9/40
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/30Noise filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Tourism & Hospitality (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Software Systems (AREA)
  • Economics (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Biophysics (AREA)
  • Computing Systems (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Electrically Operated Instructional Devices (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 프로세서에 의해 구동되는 이미지 태깅 장치에 관한 발명으로, 본 발명의 일 실시예에 따른 이미지 태깅 장치는 일련의 이미지 중 하나가 표시되고, 이미지에 대해 정답 라인을 입력받도록 구성된 터치 패널을 가지는 표시부, 이미지에 대응하는 정답 라인을 저장하도록 구성된 저장부 및 저장부에 저장된 정답 라인을 학습 서버로 전송하도록 구성된 통신부를 포함하고, 프로세서는 표시부에 일련의 이미지를 선택하기 위한 제1 인터페이스, 이미지의 밝기 또는 대비를 조절하도록 구성된 제2 인터페이스 및 이미지의 배율을 조절하도록 구성된 제3 인터페이스가 일련의 이미지 중 하나와 함께 표시되도록 한다.

Description

이미지 태깅 장치 및 이를 이용한 이미지 태깅 방법{IMAGE TAGGING DEVICE AND METHOD THEREOF}
본 발명은 이미지 태깅 장치 및 이를 이용한 이미지 태깅 방법에 관한 것으로서, 보다 상세하게는 이미지 태깅을 용이하게 수행할 수 있는, 이미지 태깅 장치 및 이를 이용한 이미지 태깅 방법에 관한 것이다.
머신러닝을 통해 다수의 이미지 세트를 학습시켜, 이미지의 내용을 구별하거나, 이미지 내의 특정 영역을 검출하는 방식들이 존재한다. 예를 들어, MRI나 CT로 획득된 이미지 내에서 특정 장기나 병변의 영역을 예측하도록 모델이 머신러닝을 통해 학습될 수 있다. 이러한 이미지 내에서의 영역 예측을 학습시키기 위해서, 학습되는 이미지가 정답 영역을 가지도록 준비될 수 있다. 그러나, 정답 영역을 가지는 이미지를 획득하기 위해서 전문지식을 가지거나 전문적으로 트레이닝된 인력이 요구될 수 있다.
정답 영역을 가지는 이미지를 획득하는 것은 예를 들어 이미지 태깅을 통해 수행될 수 있다. 예를 들어, 전문가는, 이미지 태깅을 통해, 이미지에 정답 영역을 표시할 수 있다. 그러나, 다수의 경우들에서 이미지 태깅이 요구되는 이미지의 개수가 너무 많아, 소요되는 시간과 비용이 크게 발생하는 문제가 있었다.
이에, 본 발명이 해결하고자 하는 과제는 이미지 태깅을 간편하고 신속하게 수행할 수 있는 이미지 태깅 장치 및 이를 이용한 이미지 태깅 방법을 제공하는 것이다.
본 발명이 해결하고자 하는 또 다른 과제는 이미지 태깅에 최적화된 인터페이스를 제공할 수 있는 이미지 태깅 장치 및 이를 이용한 이미지 태깅 방법을 제공하는 것이다.
본 발명의 과제들은 이상에서 언급한 과제들로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
전술한 바와 같은 과제를 해결하기 위하여 프로세서에 의해 구동되는 이미지 태깅 장치에 있어서, 본 발명의 일 실시예에 따른 이미지 태깅 장치는 일련의 이미지 중 하나가 표시되고, 이미지에 대해 정답 라인을 입력받도록 구성된 터치 패널을 가지는 표시부, 이미지에 대응하는 정답 라인을 저장하도록 구성된 저장부 및 저장부에 저장된 정답 라인을 학습 서버로 전송하도록 구성된 통신부를 포함하고, 프로세서는 표시부에 일련의 이미지를 선택하기 위한 제1 인터페이스, 이미지의 밝기 또는 대비를 조절하도록 구성된 제2 인터페이스 및 이미지의 배율을 조절하도록 구성된 제3 인터페이스가 일련의 이미지 중 하나와 함께 표시되도록 한다.
본 발명의 다른 특징에 따르면, 제1 인터페이스는, 일련의 이미지 중 첫번째 이미지가 선택되도록 구성된 제1 메뉴, 이미지의 이전 이미지가 선택되도록 구성된 제2 메뉴, 이미지의 다음 이미지가 선택되도록 구성된 제3 메뉴 및 일련의 이미지 중 마지막 이미지가 선택되도록 구성된 제4 메뉴를 포함할 수 있다.
본 발명의 또 다른 특징에 따르면, 제2 인터페이스는, 이미지의 밝기가 조절되도록 구성된 밝기 조절 메뉴 및 이미지의 대비가 조절되도록 구성된 대비 조절 메뉴를 포함하고, 밝기 조절 메뉴 및 대비 조절 메뉴는 슬라이드 바 형식으로 이루어질 수 있다.
본 발명의 또 다른 특징에 따르면, 제3 인터페이스는, 이미지의 배율이 확대되도록 구성된 확대 메뉴 및 이미지의 배율이 축소되도록 구성된 축소 메뉴를 포함할 수 있다.
본 발명의 또 다른 특징에 따르면, 저장부는, 복수의 카테고리 및 복수의 카테고리 각각에 저장된 적어도 하나 이상의 레이어를 포함하고, 정답 라인은 복수의 카테고리 중 하나의 카테고리의 레이어에 저장되고, 레이어를 선택하기 위한 제4 인터페이스가 표시부에 더 표시될 수 있다.
본 발명의 또 다른 특징에 따르면, 하나의 레이어에는 적어도 하나 이상의 정답 라인이 저장될 수 있다.
본 발명의 또 다른 특징에 따르면, 저장부에 정답용 라인과, 정답용 라인이 입력된 이미지의 밝기, 대비 및 배율이 함께 저장되고, 통신부는 저장부에 저장된 정답용 라인과 함께 이미지의 밝기, 대비 및 배율을 학습 서버로 함께 전송할 수 있다.
본 발명의 또 다른 특징에 따르면, 프로세서는, 이미지에 가이드 라인을 표시하는 가이드부 및 정답 라인을 보정하는 보정부를 포함할 수 있다.
본 발명의 또 다른 특징에 따르면, 가이드부는, 이미지의 일부 영역의 밝기값과 이미지의 나머지 영역의 밝기값간의 차이값이 임계치를 초과하는 경우, 일부 영역을 가이드 라인으로 표시할 수 있다.
본 발명의 또 다른 특징에 따르면, 가이드부는, 이미지의 일부 영역의 질감과 이미지의 나머지 영역의 질감간의 유사도가 임계치 미만인 경우, 일부 영역을 가이드 라인으로 표시할 수 있다.
본 발명의 또 다른 특징에 따르면, 표시부의 터치패널에 복수의 점이 입력되는 경우, 보정부는 복수의 점을 하나의 선으로 이어 정답 라인을 생성할 수 있다.
본 발명의 또 다른 특징에 따르면, 보정부는 복수의 점에 대하여 베지에 곡선을 적용하여 정답 라인을 생성할 수 있다.
본 발명의 또 다른 특징에 따르면, 정답 라인은 입력 장치에 의해 표시부에 입력되고, 입력 장치는, 터치펜, 손가락, 터치 패드 또는 마우스를 포함할 수 있다.
본 발명의 또 다른 특징에 따르면, 이미지는 의료 영상에 대한 이미지이고, 정답 라인은 의료 영상에서 병변 또는 조직의 일부를 표시하는 라인일 수 있다.
전술한 바와 같은 과제를 해결하기 위하여 본 발명의 일 실시예에 따른 이미지 태깅 방법은, 이미지 태깅 장치의 표시부에 일련의 이미지 중 하나의 이미지 및 이미지에 대해 가이드 라인을 표시하는 단계, 이미지 태깅 장치의 표시부에서 이미지에 대해 정답 라인을 입력받는 단계, 정답 라인을 저장부에 저장하는 단계 및 저장부에 저장된 정답 라인을 학습 서버로 전송하는 단계를 포함하고, 저장부는 복수의 카테고리와, 복수의 카테고리 각각에 저장된 적어도 하나 이상의 레이어를 포함하고, 표시부에는 일련의 이미지를 검색하기 위한 제1 인터페이스, 이미지의 밝기 또는 대비를 조절하도록 구성된 제2 인터페이스, 이미지의 배율을 조절하도록 구성된 제3 인터페이스 및 레이어를 선택하기 위한 제4 인터페이스가 일련의 이미지 중 하나와 함께 표시되도록 구성된다.
본 발명의 다른 특징에 따르면, 정답 라인을 입력받는 단계는, 제1 인터페이스를 조작하여 일련의 이미지 중 하나의 이미지를 선택하여, 이미지를 표시부에 표시하는 단계, 제2 인터페이스를 조작하여 이미지의 밝기 및/또는 대비를 조절하는 단계, 제3 인터페이스를 조작하여 이미지의 배율을 조절하는 단계, 복수의 카테고리 중 하나의 카테고리를 선택하는 단계, 하나의 카테고리에서 적어도 하나 이상의 레이어를 생성하는 단계, 제4 인터페이스를 조작하여 레이어 중 하나의 레이어를 선택하는 단계 및 표시부로부터 이미지에 대해 정답 라인을 입력받는 단계를 포함하고, 하나의 레이어에는 적어도 하나 이상의 정답 라인이 저장될 수 있다.
기타 실시예의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.
본 발명은 사용자가 간편하고 신속하게 이미지 태깅 방법을 수행할 수 있는 이미지 태깅 장치 및 이를 이용한 이미지 태깅 방법을 제공할 수 있다.
본 발명은 이미지 태깅에 최적화된 인터페이스를 제공하여 이미지 태깅을 효율적으로 수행할 수 있는 이미지 태깅 장치 및 이를 이용한 이미지 태깅 방법을 제공할 수 있다.
본 발명에 따른 효과는 이상에서 예시된 내용에 의해 제한되지 않으며, 더욱 다양한 효과들이 본 명세서 내에 포함되어 있다.
도 1a는 본 발명의 일 실시예에 따른 이미지 태깅 장치 및 학습 서버와의 관계를 설명하기 위한 개략도이다.
도 1b는 본 발명의 일 실시예에 따른 이미지 태깅 장치의 구성을 나타낸 블록도이다.
도 2는 본 발명의 일 실시예에 따른 이미지 태깅 장치의 표시부에서 예시적인 출력 화면을 도시한 도면이다.
도 3은 본 발명의 일 실시예에 따른 이미지 태깅 방법을 설명하기 위한 순서도이다.
도 4는 본 발명의 일 실시예에 따른 이미지 태깅 장치의 가이드부를 설명하기 위한 예시적인 출력 화면을 도시한 도면이다.
도 5a 및 도 5b는 본 발명의 일 실시예에 따른 이미지 태깅 장치의 제2 인터페이스를 설명하기 위한 예시적인 출력 화면을 도시한 도면이다.
도 6a 및 도 6b는 본 발명의 일 실시예에 따른 이미지 태깅 장치의 제3 인터페이스를 설명하기 위한 예시적인 출력 화면을 도시한 도면이다.
도 7a 내지 도 7c는 본 발명의 일 실시예에 따른 이미지 태깅 장치의 제4 인터페이스를 설명하기 위한 예시적인 출력 화면을 도시한 도면이다.
도 8a 및 도 8b는 본 발명의 일 실시예에 따른 이미지 태깅 장치의 보정부를 설명하기 위한 예시적인 출력 화면을 도시한 도면이다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.
또한 제1, 제2 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.
명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.
본 발명의 여러 실시예들의 각각 특징들이 부분적으로 또는 전체적으로 서로 결합 또는 조합 가능하며, 당업자가 충분히 이해할 수 있듯이 기술적으로 다양한 연동 및 구동이 가능하며, 각 실시예들이 서로에 대하여 독립적으로 실시 가능할 수도 있고 연관 관계로 함께 실시 가능할 수도 있다.
이하, 첨부된 도면을 참조하여 본 발명의 다양한 실시예들을 상세히 설명한다.
도 1a는 본 발명의 일 실시예에 따른 이미지 태깅 장치 및 학습 서버와의 관계를 설명하기 위한 개략도이다.
이하에서는 본 발명에서 사용자(US)는 이미지 태깅 시스템(1000)을 통해 이미지에 정답 라인을 태깅하는 사용자(US)인 것으로 하여 설명하기로 한다.
도 1a를 참조하면, 이미지 태깅 시스템(1000)은 이미지 태깅 장치(10) 및 학습 서버(20)를 포함한다.
이미지 태깅 시스템(1000)은 이미지에서 특정 영역의 태깅을 수행할 수 있는 이미지 태깅 방법을 제공하는 시스템이다. 본 명세서에서 이미지 태깅은 특정 영역이 다른 영역과 구분되도록 정답 라인을 표시하고, 정답 라인과 함께 특정 영역의 정보를 함께 저장하는 것으로 정의될 수 있다.
학습 서버(20)는 정답 라인의 표시가 필요한 일련의 이미지가 저장된다. 학습 서버(20)는 일련의 이미지를 이미지 태깅 장치(10)로 전송할 수 있다. 이때, 일련의 이미지는 외부의 서버로부터 업데이트되거나, 외부의 저장 매체로부터 입력 받을 수 있다.
그리고 학습 서버(20)는 이미지 태깅 장치(10)로부터, 이미지에 대한 정답 라인과, 정답 라인이 표시된 이미지의 속성 정보 등을 수신하여 저장한다. 구체적으로, 이미지 내에서 정답 라인의 좌표, 정답 라인을 입력한 사용자(US)의 정보, 정답 라인이 저장된 레이어 및 카테고리, 정답 라인이 표시된 이미지의 밝기, 대비 또는 배율 등의 이미지 속성 정보 등이 학습 서버(20)에 저장된다.
그리고 학습 서버(20)는 이미지 태깅 장치(10)로부터 수신한 정답 라인과 이미지의 속성 정보 등을 학습하여, 정답 라인의 예측에 필요한 패턴을 생성할 수 있다. 이후, 학습 서버(20)는 패턴에 기초하여, 이미지에서 특정 영역을 검출하여 정답 라인을 표시할 수 있고, 특정 영역이 어떠한 영역인지에 대한 정보까지 예측할 수 있다.
학습 서버(20) 및 이미지 태깅 장치(10)는 서로 동일한 네트워크 내에 존재하거나 통신으로 연결되어 본 발명의 일 실시예에 따른 이미지 태깅 장치(10) 및 이를 이용한 이미지 태깅 방법을 수행할 수 있도록 구성된다.
학습 서버(20)는 코로케이션 서버 (co-location server), 클라우드 서버 (cloud server) 일 수 있고, 이러한 서버에 포함되는 서버 또는 장치일 수도 있고, 이에 제한되지는 않는 다양한 공지의 형태로 구현될 수도 있다.
이미지 태깅 장치(10)는 일련의 이미지가 표시되고, 일련의 이미지에 대한 정답 라인이 입력되는 장치이다. 이미지 태깅 장치(10)는 학습 서버(20)와 통신가능하게 연결될 수 있다.
이미지 태깅 장치(10)는 학습 서버(20)로부터 일련의 이미지를 수신하고 일련의 이미지 각각에 대한 정답 라인을 입력 받을 수 있다. 다만, 이미지 태깅 장치(10)에 표시되는 이미지는 학습 서버(20)로부터 수신한 이미지 외에, 이미지 태깅 장치(10)에 별도로 저장된 이미지일 수 있다.
한편, 도 1b에서는 이미지 태깅 장치(10)가 학습 서버(20)와 연결되어 구동되는 것으로 도시되었으나, 이미지 태깅 장치(10)는 학습 서버(20)에 포함되어 구동될 수도 있으며, 이에 제한되지 않는다.
이미지 태깅 장치(10)는 유무선 통신 환경에서 웹 또는 모바일 서비스를 이용할 수 있는 통신 단말일 수 있다. 예를 들어, 이미지 태깅 장치(10)는 사용자(US)의 컴퓨터일 수 있고, 또는 사용자(US)의 휴대용 단말일 수 있다. 도 1a에서는 이미지 태깅 장치(10)가 스마트폰 또는 컴퓨터인 것으로 도시되었으나, 이에 제한되는 것은 아니다.
이미지 태깅 장치(10)는 상술한 바와 같이, 학습 서버(20)와 통신하며 이미지 태깅을 위해, 이미지의 속성을 변경하거나, 정답 라인을 표시할 수 있는 툴 또는 인터페이스 등을 제공할 수 있는 프로그램이 탑재될 수 있는 것이라면 제한 없이 채용될 수 있다.
한편, 이미지 태깅 장치(10)는 표시부(100), 저장부(200), 통신부(300) 및 프로세서(400) 등을 구비할 수 있다.
도 1a에서는 설명의 편의를 위해, 학습 서버(20) 및 이미지 태깅 장치(10)가 각각 1개인 것으로 도시되었으나, 학습 서버(20) 및 이미지 태깅 장치(10)는 복수 개 구비될 수도 있고, 복수의 학습 서버(20)와 복수의 이미지 태깅 장치(10)와 통신할 수 있다.
이하에서는 도 1b를 함께 참조하여 이미지 태깅 시스템(1000)에서의 학습 서버(20)와 이미지 태깅 장치(10)의 구성에 대하여 설명하기로 한다.
도 1b는 본 발명의 일 실시예에 따른 이미지 태깅 장치의 구성을 나타낸 블록도이다.
도 1b를 참조하면, 이미지 태깅 장치(10)는 표시부(100), 저장부(200), 통신부(300) 및 프로세서(400)를 포함한다.
표시부(100)는 일련의 이미지 중 하나가 표시되고, 이미지에 대한 정답 라인을 입력받도록 구성된 터치 패널을 포함한다. 구체적으로, 표시부(100)는 이미지를 표시하고, 사용자(US)로부터 입력 받은 정답 라인을 이미지와 함께 표시할 수 있다.
그리고 표시부(100)는 사용자(US)로부터 이미지에 대한 정답 라인을 입력 받는다. 구체적으로, 표시부(100)에는 사용자(US)로부터 입력 장치를 통해 일련의 이미지들 각각에 대한 정답 라인이 입력될 수 있다.
입력 장치는 표시부(100)의 터치 패널에 신호를 입력할 수 있는 장치일 수 있다. 예를 들어, 입력 장치는 터치펜, 터치 패드 등의 장치일 수 있다. 또한, 입력 장치는 표시부(100)의 터치 패널에 신호를 입력하는 대신, 마우스 등의 입력 장치를 이용하여 정답 라인을 입력할 수 있는 장치일 수 있다. 사용자(US)는 입력 장치를 사용하여 섬세하고, 정확하게 정답 라인을 입력할 수 있다. 또한, 사용자(US)는 손가락을 이용해 직접 표시부(100)에 정답 라인을 입력할 수도 있다. 입력 장치는 다양하게 변경될 수 있으며, 이에 제한되지 않는다.
한편, 표시부(100)는 모니터와 같은 별도의 표시장치일 수도 있고, 이미지 태깅 장치(10)에 구비된 디스플레이일 수도 있으나, 이에 제한되지 않는다.
저장부(200)에는 일련의 이미지가 저장된다. 이미지는 학습 서버(20)로부터 제공되어 저장부(200)에 저장될 수도 있으나, 외부 저장 매체 등으로부터 저장부(200)에 직접 저장될 수도 있다. 예를 들어, 이미지는 의료용 영상으로부터의 이미지이거나, 자동차, 동물 등 특정 대상에 대한 이미지 등일 수 있고, 그레이 이미지 또는 컬러 이미지 일 수 있다.
또한, 저장부(200)에는 이미지에 대응하는 정답 라인이 저장된다. 구체적으로, 저장부(200)는 표시부(100)를 통해 입력된 정답 라인과, 정답 라인이 입력된 이미지의 속성 정보가 저장된다. 예를 들어, 이미지 내에서 정답 라인의 좌표, 정답 라인을 입력한 사용자(US)의 정보, 정답 라인이 저장된 레이어 및 카테고리, 정답 라인이 표시된 이미지의 밝기, 대비 또는 배율 등의 이미지 속성 정보 있다. 이외에도, 저장부(200)에는 이미지 태깅 장치(10)의 구동에 필요한 정보들이 저장될 수 있다.
저장부(200)는 복수의 카테고리와, 복수의 카테고리 각각에 저장된 적어도 하나 이상의 레이어로 분류되어 데이터가 저장된다. 그리고 레이어에는 적어도 하나 이상의 정답 라인이 저장된다. 카테고리와 레이어는 정답 라인의 종류 및 개수에 따라 다양하게 생성될 수 있다.
구체적으로, 카테고리는 정답 라인이 표시된 영역의 종류에 따라 복수 개 생성될 수 있다. 예를 들어, 이미지가 의료용 영상이고, 정답 라인을 출혈 부위, 용종 부위에만 표시하고자 하는 경우, 출혈 부위에 관한 카테고리 및 용종 부위에 관한 카테고리를 생성할 수 있다. 카테고리는 사용자(US)에 의해 자유롭게 생성, 삭제 및 수정되어 저장부(200)에 저장될 수 있다.
레이어에는 하나의 카테고리와 관련한 정답 라인이 저장된다. 예를 들어, 이미지가 의료용 영상이고, 하나의 이미지에서 출혈 부위가 2곳인 경우, 출혈 부위에 관한 카테고리에서 출혈 부위 2곳을 나타내는 정답 라인이 2개의 레이어 각각에 저장될 수 있다. 즉, 하나의 레이어에 하나의 정답 라인이 저장될 수 있다. 또한, 출혈 부위에 관한 카테고리에서 하나의 레이어에 2개의 정답 라인이 저장될 수 있다.
이때, 각각의 레이어에서 정답 라인은 서로 다른 색상으로 표시될 수도 있고, 정답 라인은 실선 또는 점선 등의 서로 다른 종류의 선으로 표시될 수도 있다. 즉, 레이어 각각에 입력된 정답 라인은 색 또는 종류 등으로 구분될 수 있다. 따라서, 사용자(US)는 각 레이어에 입력된 정답 라인을 구분할 수 있다.
따라서, 하나의 카테고리는 적어도 하나 이상의 레이어를 포함하고, 레이어의 개수는 정답 라인의 개수와 항상 동일하지 않다. 하나의 레이어에 복수의 정답 라인이 저장될 수도 있고, 하나의 레이어에 하나의 정답 라인이 저장될 수도 있다.
통신부(300)는 이미지 태깅 장치(10)와 학습 서버(20) 사이에서 이미지 태깅 시스템(1000) 수행을 위한 데이터를 송수신한다. 구체적으로, 통신부(300)는 학습 서버(20)로부터 정답 라인의 태깅이 필요한 일련의 이미지를 수신하여 저장부(200)에 저장한다. 저장부(200)에 저장된 이미지는 표시부(100)에 표시되어, 사용자(US)로부터 정답 라인을 입력 받을 수 있다.
그리고 통신부(300)는 저장부(200)에 저장된 정답 라인 및 이미지의 속성 정보를 학습 서버(20)로 전송한다. 이외에도, 통신부(300)는 이미지 태깅 장치(10)의 구동에 필요한 정보들을 이미지 태깅 장치(10)와 학습 서버(20) 사이에서 송수신할 수 있다.
프로세서(400)는 본 발명의 일 실시예에 따른 이미지 태깅 장치(10) 및 이를 이용한 이미지 태깅 방법을 수행하기 위한 다양한 데이터를 처리하여 이미지 태깅 장치(10)를 구동한다.
프로세서(400)는 표시부(100), 저장부(200) 및 통신부(300)가 구동되도록 할 수 있다. 예를 들어, 프로세서(400)는 통신부(300)가 학습 서버(20)로부터 수신한 일련의 이미지 중 하나의 이미지가 표시부(100)에 표시되도록 한다.
또한, 프로세서(400)는 표시부(100)에 이미지와 함께 이미지 태깅 방법을 수행하기 위한 인터페이스가 표시부(100)에 구현되도록 한 플랫폼을 제공하도록 할 수 있다.
한편, 이미지 태깅 장치(10)는 적어도 하나 이상의 프로세서(400)(processor)에 해당하거나, 적어도 하나 이상의 프로세서(400)를 포함할 수 있다. 이에, 이미지 태깅 장치(10)는 마이크로 프로세서나 범용 컴퓨터 시스템과 같은 다른 하드웨어 장치에 포함된 형태로 구동될 수도 있고, 별도의 장치로 구현되어 구동될 수도 있다.
한편, 이미지 태깅 장치(10)는 프로세서(400)에 포함되어, 프로세서(400)에 의해 구동되는 가이드부(410) 및 보정부(420)를 포함한다.
가이드부(410)는 이미지에 가이드 라인을 표시한다. 가이드 라인은 정답 라인으로 예측되는 부분에 표시된 것으로, 사용자(US)는 가이드 라인을 참조하여 표시부(100)에 이미지의 정답 라인을 입력할 수 있다.
가이드부(410)는 이미지를 분석하여 가이드 라인을 표시할 수 있다. 구체적으로, 가이드부(410)는 이미지의 일부 영역의 밝기 값과, 이미지의 나머지 영역에서 밝기 값 간의 차이 값이 임계치를 초과하는 경우, 일부 영역을 가이드 라인으로 표시할 수 있다.
예를 들어, 이미지의 일부 영역의 밝기 값이 나머지 영역에서 밝기 값과 2배 이상 차이 나면, 가이드부(410)는 이미지의 일부 영역을 가이드 라인으로 표시할 수 있다.
아울러, 가이드부(410)는 이미지의 일부 영역의 질감과, 이미지의 나머지 영역의 질감간의 유사도가 임계치 미만인 경우, 일부 영역을 가이드 라인으로 표시할 수 있다.
예를 들어, 가이드부(410)에서 이미지의 일부 영역의 질감이 이미지의 나머지 영역의 질감과 비교하여, 유사도가 30% 미만이라고 판단한 경우, 이미지의 일부 영역을 가이드 라인으로 표시할 수 있다.
한편, 가이드부(410)의 가이드 라인 표시 기준은 이미지의 밝기 값 및 이미지의 질감 외에 이미지의 색상 범위 등 다양한 기준에 따라 가이드 라인을 표시할 수 있다. 또한, 표시 기준은 학습 서버(20)에서 생성된 패턴에 기초하여 정해질 수도 있으며, 이에 제한되지 않는다.
보정부(420)는 표시부(100)에 사용자(US)가 입력한 정답 라인을 보정한다. 구체적으로, 보정부(420)는 사용자(US)가 입력한 정답 라인이 삐뚤게 입력된 경우, 정답 라인을 완만하게 보정할 수 있다.
또한, 보정부(420)는 표시부(100)에 사용자(US)가 정답 라인을 표시할 부분을 따라 입력한 복수의 점이 입력된 경우, 복수의 점을 하나의 선으로 이어 정답 라인을 완성할 수 있다. 이때, 보정부(420)는 복수의 점에 대하여 베지에 곡선을 적용하여 정답 라인을 완성할 수 있다.
한편, 표시부(100), 통신부(300), 저장부(200)와 가이드부(410) 및 보정부(420)를 포함하는 프로세서(400)가 이미지 태깅 장치(10)에 모두 포함된 것으로 도시하여 설명하였지만, 이에 제한되지 않고, 이미지 태깅 장치(10)가 상술한 기능을 수행할 수 있도록 구성된다면, 표시부(100), 통신부(300), 저장부(200) 및 프로세서(400)가 이미지 태깅 장치(10)의 외부에 별도로 배치된 구성일 수도 있다.
이하에서는 앞서 설명한 본 발명의 일 실시예에 따른 이미지 태깅 장치(10)에 대한 설명에 기초하여, 이미지 태깅 장치(10)가 사용자(US)에게 구현된 예시적인 모습을 설명하기로 한다.
도 2는 본 발명의 일 실시예에 따른 이미지 태깅 장치의 표시부에서 예시적인 출력 화면을 도시한 도면이다.
도 1a, 도 1b 및 도 2를 함께 참조하면, 이미지 태깅 장치(10)의 표시부(100)의 출력 화면은 이미지 표시창(110), 제1 인터페이스 내지 제6 인터페이스(120, 130, 140, 150, 160, 170)를 포함한다. 그리고 이미지 태깅 장치(10)의 프로세서(400)는, 표시부(100)에 이미지 표시창(110)의 이미지와 함께, 제1 인터페이스 내지 제6 인터페이스(120, 130, 140, 150, 160, 170)가 표시되도록 할 수 있다.
먼저, 이미지 표시창(110)은 일련의 이미지 중 하나가 표시되는 영역이다. 이미지는 저장부(200)에 저장된 이미지로, 학습 서버(20) 또는 외부 저장 매체 등으로부터 저장부(200)에 저장된 이미지일 수 있다.
이미지 표시창(110)에 표시된 이미지는 기설정된 이미지 기본 속성 값에 대응하여 표시될 수 있다. 예를 들어, 이미지의 밝기는 0이고, 대비는 0이며, 배율은 100%으로 이미지의 기본 속성 값이 설정된 경우, 이미지 표시창(110)에 최초로 표시된 이미지는 상기 이미지의 기본 속성 값으로 표시된다. 다만, 이미지의 기본 속성 값은 이미지의 특성에 따라 고정되지 않고, 가변될 수도 있고, 사용자(US)의 설정에 따라 다르게 설정될 수도 있으며, 이에 제한되지 않는다.
제1 인터페이스(120)는 일련의 이미지 중 하나를 선택하여 이미지 표시창(110)에 표시되도록 한다. 구체적으로, 제1 인터페이스(120)는 제1 메뉴(121), 제2 메뉴(122), 제3 메뉴(123) 및 제4 메뉴(124)를 포함한다.
제1 메뉴(121)는 일련의 이미지 중 첫 번째 이미지가 선택되도록 구성된다. 예를 들어, 제1 메뉴(121)를 선택하는 경우, 복수의 이미지 중 첫 번째 이미지가 이미지 표시창(110)에 표시될 수 있다.
이때, 이미지의 순번은 이미지의 파일 명, 이미지의 생성 날짜 등 다양한 기준에 따라 설정될 수 있다.
제2 메뉴(122)는 현재 이미지 표시창(110)에 표시된 이미지의 이전 순서의 이미지가 선택되도록 구성된다. 예를 들어, 이미지 표시창(110)에 두 번째 이미지가 표시된 경우, 제2 메뉴(122)를 선택하면 이미지 표시창(110)에 첫 번째 이미지가 표시될 수 있다.
제3 메뉴(123)는 현재 이미지 표시창(110)에 표시된 이미지의 다음 순서의 이미지가 선택되도록 구성된다. 예를 들어, 이미지 표시창(110)에 두 번째 이미지가 표시된 경우, 제3 메뉴(123)를 선택하면 이미지 표시창(110)에 세 번째 이미지가 표시될 수 있다.
제4 메뉴(124)는 일련의 이미지 중 마지막 이미지가 선택되도록 구성된다. 예를 들어, 제4 메뉴(124)를 선택하는 경우, 복수의 이미지 중 마지막 이미지가 이미지 표시창(110)에 표시될 수 있다.
사용자(US)는 제1 인터페이스(120)의 제1 메뉴(121) 내지 제4 메뉴(124)를 선택하여, 정답 라인을 표시하고자 하는 특정 이미지를 용이하게 선택할 수 있다.
또한, 사용자(US)는 제1 인터페이스(120)의 제1 메뉴(121) 내지 제4 메뉴(124)를 선택하는 대신, 이미지 표시창(110)에서 이미지를 슬라이드하거나, 탭하여 다른 이미지를 표시할 수 있다. 예를 들어, 사용자(US)가 이미지 표시창(110)에서 이미지를 한번 탭하거나, 이미지를 특정 방향으로 슬라이드하는 경우, 이미지 표시창(110)에 다음 순서의 이미지가 표시될 수 있다.
이때, 이미지 표시창(110)에 표시된 이미지의 파일명 등의 정보가 이미지 안내창(IM)에 표시된다. 따라서, 사용자(US)는 현재 이미지 표시창(110)에 표시된 이미지가 어떤 이미지인지 빠르게 파악할 수 있다.
제2 인터페이스(130)는 이미지의 밝기 또는 대비를 조절하도록 구성된다. 구체적으로, 제2 인터페이스(130)는 밝기 조절 메뉴(132) 및 대비 조절 메뉴(131)를 포함한다. 그리고 제2 인터페이스(130)의 밝기 조절 메뉴(132) 및 대비 조절 메뉴(131)는 슬라이드 바 형식으로 이루어질 수 있다.
대비 조절 메뉴(131)는 이미지 표시창(110)에 표시된 이미지의 대비가 조절되도록 구성된다. 예를 들어, 사용자(US)는 대비 조절 메뉴(131)의 바(131a)를 슬라이드하여 이미지의 밝은 곳은 더 밝게, 어두운 곳은 더 어둡게 하여 이미지의 대비를 조절할 수 있다. 또한, 사용자(US)는 대비 조절 메뉴(131)의 바(131a)를 슬라이드하는 대신, 수치 입력칸(131b)에 수치를 입력하여 이미지의 대비를 섬세하게 조절할 수도 있다. 대비 조절 메뉴(131)의 대비 조절 방식은 다양하게 변경될 수 있으며, 이에 제한되지 않는다.
밝기 조절 메뉴(132)는 이미지 표시창(110)에 표시된 이미지의 밝기가 조절되도록 구성된다. 예를 들어, 사용자(US)는 밝기 조절 메뉴(132)의 바(132a)를 슬라이드하여 이미지의 밝기를 조절할 수 있다. 또한, 사용자(US)는 밝기 조절 메뉴(132)의 바(132a)를 슬라이드하는 대신, 수치 입력칸(132b)에 수치를 입력하여 이미지의 밝기를 섬세하게 조절할 수도 있다. 밝기 조절 메뉴(132)의 밝기 조절 방식은 다양하게 변경될 수 있으며, 이에 제한되지 않는다.
제3 인터페이스(140)는 이미지의 배율을 조절하도록 구성된다. 구체적으로, 제3 인터페이스(140)는 확대 메뉴(141) 및 축소 메뉴(142)를 포함한다.
확대 메뉴(141)는 이미지 표시창(110)에 표시된 이미지의 배율이 확대되도록 구성된다. 확대 메뉴(141)를 선택하면 이미지의 배율이 일정 수치만큼 확대될 수 있다. 예를 들어, 확대 메뉴(141)를 한번 선택할 때마다, 이미지의 배율이 10%씩 확대될 수 있다.
이때, 확대 메뉴(141)에 의해 이미지의 일부만이 이미지 표시창(110)에 표시되는 경우, 사용자(US)는 이미지 표시창(110)의 이미지를 드래그하여 이미지의 상하좌우 부분이 이미지 표시창(110)에 표시되도록 할 수 있다.
축소 메뉴(142)는 이미지 표시창(110)에 표시된 이미지의 배율이 축소되도록 구성된다. 축소 메뉴(142)를 선택하면 이미지의 배율이 일정 수치만큼 축소될 수 있다. 예를 들어, 축소 메뉴(142)를 한번 선택할 때마다, 이미지의 배율이 10%씩 축소될 수 있다.
한편, 도 2에는 도시되지 않았으나, 제3 인터페이스(140)는 축소되거나 확대된 이미지의 배율을 초기의 배율로 조절하는 메뉴, 이미지가 이미지 표시창(110)에 꽉 차도록 이미지의 배율을 조절하는 메뉴 또는 이미지가 원본 해상도의 원본 배율로 이미지 표시창(110) 창에 나타나도록 이미지의 배율을 조절하는 메뉴 등이 더 포함될 수 있다.
또한, 사용자(US)는 제3 인터페이스(140)의 확대 메뉴(141) 및 축소 메뉴(142)를 선택하는 대신 이미지 표시창(110)의 이미지를 손가락으로 터치하여 이미지를 확대하거나 축소할 수 있다.
제4 인터페이스(150)는 레이어를 선택하도록 구성된다. 구체적으로, 제4 인터페이스(150)는 카테고리 선택 메뉴(151), 레이어 선택 메뉴(152) 및 레이어 표시 메뉴(153)를 포함한다.
카테고리 선택 메뉴(151)는 복수의 카테고리 중 하나를 선택하거나, 카테고리를 생성, 수정 및 삭제하도록 구성된다. 카테고리는 상술한 바와 같이, 저장부(200)에 저장되는 정답 라인의 종류에 따라 생성될 수 있다. 이미지 표시창(110)에 표시된 이미지에서 정답 라인을 표시해야 할 영역이 있는 경우, 사용자(US)는 카테고리 선택 메뉴(151)에서 정답 라인에 대응하는 카테고리를 생성 또는 선택한 후, 정답 라인을 표시할 수 있다.
예를 들어, 사용자(US)가 이미지 표시창(110)에 표시된 이미지에서 출혈 부위 1곳을 발견한 경우, 사용자(US)는 카테고리 선택 메뉴(151)에서 출혈 부위에 관한 카테고리를 선택한 후, 정답 라인을 표시할 수 있다. 만약, 카테고리 선택 메뉴(151)에 출혈 부위에 관한 카테고리가 없는 경우, 사용자(US)는 카테고리 선택 메뉴(151)에서 출혈 부위에 관한 카테고리를 새롭게 생성할 수 있다. 만약, 카테고리를 잘못 생성된 경우, 사용자는 카테고리 선택 메뉴(151)에서 카테고리를 삭제하거나, 수정할 수도 있다.
그리고 카테고리 선택 메뉴(151)에서 선택된 카테고리는 카테고리 안내창(CM)에 표시된다. 따라서, 사용자(US)는 현재 선택된 카테고리가 어떤 카테고리인지 빠르게 파악할 수 있다.
레이어 선택 메뉴(152)는 하나의 카테고리 내에서 복수의 레이어 중 하나를 선택하거나, 하나의 카테고리 내에 레이어를 생성, 수정 및 삭제하도록 구성된다. 카테고리 선택 메뉴(151)에서 특정 카테고리가 선택된 후, 사용자(US)는 레이어 선택 메뉴(152)에서 정답 라인을 저장할 레이어를 생성 또는 선택한 후, 정답 라인을 표시할 수 있다.
예를 들어, 사용자(US)가 이미지 표시창(110)에 표시된 이미지에서 출혈 부위 2곳을 발견한 경우, 사용자(US)는 카테고리 선택 메뉴(151)에서 출혈 부위에 관한 카테고리를 선택하고, 하나의 출혈 부위에 대하여 레이어 선택 메뉴(152)에서 레이어를 생성 또는 선택한 후, 정답 라인을 표시할 수 있다. 또, 나머지 출혈 부위에 대하여 레이어 선택 메뉴(152)에서 기존의 레이어를 선택하여 정답 라인을 표시할 수도 있고, 새로운 레이어를 생성 또는 선택한 후, 정답 라인을 표시할 수 있다. 즉, 하나의 레이어에 복수의 정답 라인을 표시할 수도 있고, 하나의 레이어에 하나의 정답 라인만을 표시할 수도 있다. 만약, 레이어를 잘못 생성한 경우, 레이어 선택 메뉴(152)에서 레이어를 삭제하거나, 수정할 수도 있다.
그리고 레이어 선택 메뉴(152)에서 선택된 레이어는 레이어 안내창(LM)에 표시된다. 따라서, 사용자(US)는 현재 선택된 레이어가 어떤 레이어인지 빠르게 파악할 수 있다.
한편, 카테고리 선택 메뉴(151) 및 레이어 선택 메뉴(152)에서 특정 카테고리 및 특정 레이어를 선택한 뒤 표시부(100)에 입력된 정답 라인은, 저장부(200)에서 특정 카테고리 및 특정 레이어로 분류되어 저장된다. 다르게 말하면, 저장부(200)에는 정답 라인과, 정답 라인이 표시된 카테고리 및 레이어에 대한 정보가 함께 저장된다.
레이어 표시 메뉴(153)는 복수의 레이어 중 표시부(100)에 표시할 레이어를 선택할 수 있다. 구체적으로, 표시부(100)의 이미지 표시창(110)에서 하나의 이미지가 표시되고, 하나의 이미지에 대하여 복수의 카테고리의 복수의 레이어가 생성되어 각각의 레이어에 정답 라인이 표시된다. 이때, 레이어 표시 메뉴(153)에서 특정 레이어를 선택하는 경우, 특정 레이어에 표시된 정답 라인만을 이미지와 함께 이미지 표시창(110)에 표시할 수 있다.
예를 들어, 하나의 이미지에 출혈 부위에 관한 카테고리에서의 하나의 레이어에 정답 라인이 표시되고, 용종 부위에 관한 카테고리에서 하나의 레이어에 정답 라인이 표시된 경우, 사용자(US)는 레이어 표시 메뉴(153)에서 용종 부위에 관한 카테고리의 레이어만을 선택하여 이미지 표시창(110)에 이미지와 함께 용종 부위에 관한 정답 라인만이 표시되도록 할 수 있다. 또, 사용자(US)는 레이어 표시 메뉴(153)에서 출혈 부위에 관한 카테고리의 레이어와 용종 부위에 관한 카테고리의 레이어 둘 다를 선택하여, 이미지 표시창(110)에 이미지와 함께 출혈 부위에 관한 정답 라인 및 용종 부위에 관한 정답 라인 둘 다 표시되도록 할 수 있다.
제5 인터페이스(160)는 정답 라인을 편집하도록 구성된다. 구체적으로, 제5 인터페이스(160)는 정답 라인 폭 조절 메뉴(161), 정답 라인 삭제 메뉴(162), 정답 라인 전체 삭제 메뉴(163)를 포함한다.
정답 라인 폭 조절 메뉴(161)는 정답 라인의 폭을 조절하도록 구성된다. 예를 들어, 하나의 이미지에서 아주 작은 영역을 정답 라인으로 표시할 경우, 사용자(US)는 정답 라인의 폭을 작게 설정하여, 정답 라인을 표시할 수 있다.
정답 라인 삭제 메뉴(162)는 정답 라인을 삭제하도록 구성된다. 구체적으로, 이미지 표시창(110)에 표시된 이미지에 대하여 정답 라인을 잘못 표시한 경우, 정답 라인 삭제 메뉴(162)를 선택하여 정답 라인을 삭제할 수 있다.
정답 라인 전체 삭제 메뉴(163)는 하나의 이미지 내에서 모든 정답 라인을 삭제하거나, 하나의 이미지의 복수의 카테고리 중 하나의 카테고리 내에서 모든 정답 라인을 삭제하거나, 또는 복수의 레이어 중 하나의 레이어 내에서 모든 정답 라인을 삭제하도록 구성된다.
예를 들어, 하나의 이미지에 대하여 복수의 카테고리와, 복수의 카테고리 각각에서 복수의 레이어가 생성되고, 복수의 레이어 각각에 정답 라인이 표시된 경우, 사용자(US)는 정답 라인 전체 삭제 메뉴(163)를 선택하여, 하나의 이미지의 모든 카테고리 및 모든 레이어에서의 정답 라인을 한번에 삭제할 수 있다. 또한, 사용자(US)는 정답 라인 전체 삭제 메뉴(163)를 선택하여, 복수의 카테고리 중 하나의 카테고리에 포함된 모든 정답 라인을 한번에 삭제할 수 있다. 마지막으로, 사용자(US)는 정답 라인 전체 삭제 메뉴(163)를 선택하여, 하나의 레이어에 포함된 복수의 정답 라인을 한번에 삭제할 수 있다.
제6 인터페이스(170)는 정답 라인을 저장하고, 사용자(US) 정보를 편집하도록 구성된다. 구체적으로, 제6 인터페이스(170)는 사용자 정보 메뉴(171) 및 정답 라인 저장 메뉴(172)를 포함한다.
사용자 정보 메뉴(171)는 정답 라인을 입력하는 사용자(US)에 대한 정보를 저장하도록 구성된다. 구체적으로, 복수의 사용자(US)가 하나의 이미지 태깅 장치(10)를 공유하여 정답 라인을 입력하는 경우, 각각의 사용자(US)는 사용자 정보 메뉴(171)에서 자신의 식별 정보를 입력하고, 정답 라인을 이미지에 표시할 수 있다. 그리고 저장부(200)에는 정답 라인 및 이미지의 속성 정보와 함께 사용자(US) 정보도 함께 저장될 수 있다.
예를 들어, 사용자(US)는 사용자 정보 메뉴(171)를 선택하여, 사용자(US)의 이름, 사용자(US)의 아이디, 사용자(US)의 전화 번호 등의 식별 정보를 입력한 후, 이미지에 정답 라인을 표시할 수 있다.
그리고 사용자 정보 메뉴(171)에서 입력된 사용자(US) 정보에 기초하여 사용자(US)의 이름 또는 식별 번호가 사용자 안내창(UM)에 표시된다. 따라서, 사용자(US)는 현재 사용자 안내창(UM)에 표시된 사용자(US) 정보가 제대로 입력되었는지 확인할 수 있다.
정답 라인 저장 메뉴(172)는 정답 라인을 저장부(200)에 저장하도록 구성된다. 구체적으로, 사용자(US)가 이미지 표시창(110)에 표시된 하나의 이미지에 대하여 정답 라인의 표시를 완료하면, 사용자(US)는 정답 라인 저장 메뉴(172)를 선택하여 하나의 이미지에 대한 정답 라인을 저장부(200)에 저장할 수 있다. 이때, 저장부(200)에는 정답 라인과 함께 이미지의 속성 정보 등이 함께 저장된다.
한편, 도 2에 도시된 바와 같은 인터페이스의 형태와 위치 등은 예시적인 것으로, 각 인터페이스의 메뉴는 하나의 메뉴로 구현되거나, 하나의 메뉴가 둘 이상의 메뉴로 분리될 수 있으며, 각 메뉴의 배치 또한 도면에 도시된 것 이외에도 다양할 수 있다.
이하에서는 도 1a 내지 도 2를 참조하여 설명한 본 발명의 일 실시예에 따른 이미지 태깅 장치(10)에 대한 설명에 기초하고, 도 3 내지 도 4b를 참조하여 이미지 태깅 장치(10)를 이용한 이미지 태깅 방법에 대하여 설명하기로 한다.
도 3은 본 발명의 일 실시예에 따른 이미지 태깅 방법을 설명하기 위한 순서도이다. 도 4는 본 발명의 일 실시예에 따른 이미지 태깅 장치의 가이드부를 설명하기 위한 예시적인 출력 화면을 도시한 도면이다.
이미지 태깅 장치의 표시부에 일련의 이미지 중 하나의 이미지 및 하나의 이미지에 대해 가이드 라인을 표시한다(S100).
도 4를 참조하면, 사용자(US)는 제1 인터페이스(120)의 제1 메뉴(121) 내지 제4 메뉴(124)를 선택하여 일련의 이미지 중 제1 이미지(IMG1)가 이미지 표시창(110)에 표시되도록 선택한다.
그리고 이미지 태깅 장치(10)의 프로세서(400)의 가이드부(410)는 이미지 표시창(110)에 표시된 제1 이미지(IMG1)를 분석하여, 정답 라인으로 예측되는 부분에 가이드 라인(GL)을 표시한다.
구체적으로, 가이드부(410)는 제1 이미지(IMG1)에서 특정 영역의 밝기 값과 나머지 영역의 밝기 값의 차이 값이 50을 초과하는 경우, 특정 영역에 대하여 가이드 라인(GL)을 표시할 수 있다. 예를 들어, 제1 이미지(IMG1)에서 제1 영역(AR1)은 밝기 값이 80이고, 제2 영역(AR2)은 밝기 값이 20인 경우, 제1 영역(AR1)에서의 밝기 값과 제2 영역(AR2)에서의 밝기 값의 차이 값은 60이므로, 기준 차이 값인 50을 초과한다. 그러므로, 가이드부(410)는 제1 영역(AR1) 또는 제2 영역(AR2)을 가이드 라인(GL)으로 표시할 수 있고, 이미지 표시창(110)에 제1 이미지(IMG1)와 함께 가이드 라인(GL)이 표시된다. 다만, 가이드부(410)는 제1 영역(AR1) 및 제2 영역(AR2) 중 면적이 더 작은 영역을 가이드 라인(GL)으로 표시할 수 있으나, 이에 제한되지 않는다.
이때, 제1 영역(AR1) 및 제2 영역(AR2)은 서로 인접한 영역일 수도 있고, 서로 이격된 영역일 수도 있다.
그리고 사용자(US)는 이미지 표시창(110)에 표시된 제1 이미지(IMG1)에 대한 정답 라인을 입력하기 전, 가이드 라인(GL)을 참조하여 정답 라인을 찾을 수 있다.
이어서, 이미지 태깅 장치의 표시부에서 이미지에 대해 정답 라인을 입력 받는다(S200). 구체적으로, 제2 인터페이스를 조작하여 이미지의 밝기 및/또는 대비를 조절한다(S210).
도 5a 및 도 5b는 본 발명의 일 실시예에 따른 이미지 태깅 장치의 제2 인터페이스를 설명하기 위한 예시적인 출력 화면을 도시한 도면이다.
도 5a 및 도 5b를 참조하면, 사용자(US)는 제2 인터페이스(130)를 조작하여 이미지에서 정답 라인을 표시할 영역을 찾을 수 있다.
먼저, 도 5a를 참조하면, 표시부(100)의 이미지 표시창(110)에 제1 이미지(IMG1)가 표시된다. 구체적으로, 사용자(US)는 이미지 태깅 장치(10)의 표시부(100)에 표시된 제1 인터페이스(120)를 조작하여 복수의 이미지 중 제1 이미지(IMG1)가 이미지 표시창(110)에 표시되도록 할 수 있다.
이때, 이미지 표시창(110)에 표시된 제1 이미지(IMG1)의 밝기는 기본 속성 값이 적용된 상태로, 예를 들어, 제1 이미지(IMG1)의 밝기는 0으로 설정된 상태일 수 있다. 다만, 기본 속성 값은 이미지 태깅 장치(10)의 설정에 따라 다양하게 변경될 수 있다.
그리고 도 5b를 참조하면, 사용자(US)는 이미지 태깅 장치(10)의 표시부(100)에 제1 이미지(IMG1)와 함께 표시된 제2 인터페이스(130)를 조작하여 제1 이미지(IMG1)의 밝기를 조절할 수 있다. 구체적으로, 사용자(US)는 제2 인터페이스(130)의 밝기 조절 메뉴(132)의 바(132a)를 슬라이드하거나, 수치 입력칸(132b)에 수치를 입력하여 제1 이미지(IMG1)의 밝기를 더 밝게 또는 더 어둡게 조절할 수 있다.
예를 들어, 사용자(US)는 밝기 조절 메뉴(132)의 바(132a)를 슬라이드하거나, 수치 입력칸(132b)에 50을 입력하여 제1 이미지(IMG1)의 밝기를 50으로 조절할 수 있다.
그리고 사용자(US)는 밝기가 0인 제1 이미지(IMG1)와 밝기가 50인 제1 이미지(IMG1)를 비교하여, 정답 라인을 표시할 제1 정답 영역(AA1)을 찾을 수 있다. 예를 들어, 밝기가 0인 제1 이미지(IMG1)에서 시인되지 않던 제1 정답 영역(AA1)은 밝기가 50으로 조절된 제1 이미지(IMG1)에서 용이하게 시인될 수 있다.
따라서, 본 발명의 일 실시예에 따른 이미지 태깅 장치(10)는 이미지의 밝기를 조절하여 정답 라인을 표시할 영역을 용이하게 찾을 수 있다. 또한, 이미지 태깅 장치(10)는 이미지의 밝기만이 아니라, 이미지의 대비를 조절하여 정답 라인을 표시할 영역을 용이하게 찾을 수 있다. 사용자(US)는 이미지의 특성에 따라, 이미지의 밝기 및/또는 대비를 조절하여 정답 라인을 표시할 영역을 찾을 수 있다.
이어서, 제3 인터페이스를 조작하여 이미지의 배율을 조절한다(S220).
도 6a 및 도 6b는 본 발명의 일 실시예에 따른 이미지 태깅 장치의 제3 인터페이스를 설명하기 위한 예시적인 출력 화면을 도시한 도면이다.
도 6a 및 도 6b를 참조하면, 사용자(US)는 제3 인터페이스(140)를 조작하여 제1 이미지(IMG1)에서 정답 라인을 표시할 영역을 찾을 수 있다.
먼저, 도 6a를 참조하면, 표시부(100)의 이미지 표시창(110)에 제1 이미지(IMG1)가 표시된다. 그리고 사용자(US)는 이미지 태깅 장치(10)의 표시부(100)에 표시된 제1 인터페이스(120)를 조작하여 복수의 이미지 중 제1 이미지(IMG1)가 이미지 표시창(110)에 표시되도록 할 수 있다.
이때, 이미지 표시창(110)에 표시된 제1 이미지(IMG1)의 배율은 기본 속성 값이 적용된 상태로, 예를 들어, 이미지의 배율은 100%로 설정된 상태일 수 있다.
그리고 도 6b를 참조하면, 사용자(US)는 이미지 태깅 장치(10)의 표시부(100)에 제1 이미지(IMG1)와 함께 표시된 제3 인터페이스(140)를 조작하여 제1 이미지(IMG1)의 배율을 조절할 수 있다. 구체적으로, 사용자(US)는 제3 인터페이스(140)의 확대 메뉴(141) 또는 축소 메뉴(142)를 선택하여 제1 이미지(IMG1)의 배율을 확대하거나, 축소할 수 있다.
예를 들어, 사용자(US)는 제3 인터페이스(140)의 확대 메뉴(141)를 선택하여 제1 이미지(IMG1)의 배율을 200%로 조절할 수 있다. 이때, 사용자(US)는 제3 인터페이스(140)의 확대 메뉴(141) 대신 제1 이미지(IMG1)를 터치하여 확대할 수도 있다.
다만, 100% 배율의 제1 이미지(IMG1)가 이미지 표시창(110)의 대부분을 차지했거나, 이미지 표시창(110)보다 컸던 경우, 200% 배율의 제1 이미지(IMG1)의 일부 영역은 이미지 표시창(110)에서 보이지 않을 수도 있다.
이때, 200% 배율의 제1 이미지(IMG1)가 이미지 표시창(110)에 모두 보이지 않더라도, 사용자(US)는 제1 이미지(IMG1)를 상하좌우로 드래그하여 제1 이미지(IMG1)의 전체 영역을 확인할 수 있다.
그리고 사용자(US)는 100% 배율의 제1 이미지(IMG1)와 200% 배율의 제1 이미지(IMG1)를 비교하여, 정답 라인을 표시할 제2 정답 영역(AA2)을 찾을 수 있다. 예를 들어, 100% 배율의 제1 이미지(IMG1)에서 확인하기 어려웠던 제2 정답 영역(AA2)은 200% 배율의 제1 이미지(IMG1)에서 용이하게 확인할 수 있다. 그리고 제2 정답 영역(AA2)은 도 7a 내지 도 7c를 참조하여 후술하겠지만 제2 정답 라인(AL2)으로 표시될 수 있다.
따라서, 본 발명의 일 실시예에 따른 이미지 태깅 장치(10)는 이미지의 배율을 조절하여 정답 라인을 표시할 영역을 용이하게 발견할 수 있다. 사용자(US)는 편의에 따라, 이미지를 확대 또는 축소하여 정답 라인을 표시할 영역을 찾을 수 있다.
이어서, 제4 인터페이스를 조작하여 복수의 카테고리 중 하나의 카테고리를 선택하고, 하나의 카테고리에서 하나의 레이어를 선택한다(S230). 이어서, 표시부로부터 이미지에 대해 정답 라인을 입력 받는다(S240).
도 7a 내지 도 7c는 본 발명의 일 실시예에 따른 이미지 태깅 장치의 제4 인터페이스를 설명하기 위한 예시적인 출력 화면을 도시한 도면이다.
상술한 바와 같이, 사용자(US)는 제1 인터페이스(120)를 조작하여 복수의 이미지 중 제1 이미지(IMG1)를 이미지 표시창(110)에 표시한다. 이어서, 사용자(US)는 제2 인터페이스(130) 및/또는 제3 인터페이스(140)를 조작하여 제1 이미지(IMG1)의 밝기, 대비 또는 배율 중 적어도 하나를 조절하여 정답 라인을 표시할 제1 정답 영역(AA1) 및 제2 정답 영역(AA2)을 찾을 수 있다.
그리고 사용자(US)가 정답 라인을 표시할 제1 정답 영역(AA1) 및 제2 정답 영역(AA2)을 찾은 경우, 사용자(US)는 제4 인터페이스(150)를 조작하여 정답 라인에 대응하는 카테고리를 선택 또는 생성하고, 카테고리에서 하나의 레이어를 선택 또는 생성한 후, 정답 라인을 입력할 수 있다.
예를 들어, 도 5a 및 도 5b를 참조하여 상술한 바와 같이, 사용자(US)는 제1 이미지(IMG1)의 밝기를 조절하여 제1 정답 영역(AA1)을 찾을 수 있다.
그리고 도 7a를 참조하면, 사용자(US)는 제4 인터페이스(150)를 조작하여 카테고리 및 레이어를 선택하고, 제1 정답 영역(AA1)에 제1 정답 라인(AL1)을 입력한다. 예를 들어, 제1 정답 영역(AA1)이 복수의 카테고리 중 제1 카테고리에 대응하는 경우, 사용자(US)는 제4 인터페이스(150)의 카테고리 메뉴에서 제1 카테고리를 선택한다. 만약, 제1 카테고리가 카테고리 메뉴에 없는 경우, 사용자(US)는 제1 카테고리를 새롭게 생성하여 제1 카테고리를 선택할 수 있다. 그리고 카테고리 안내창(CM)에 제1 카테고리가 선택된 상태임이 표시된다.
이어서, 사용자(US)는 제4 인터페이스(150)의 레이어 선택 메뉴(152)에서 제1 레이어를 선택하여 제1 정답 라인(AL1)을 입력한다. 만약, 제1 레이어가 레이어 선택 메뉴(152)에 없는 경우, 사용자(US)는 제1 레이어를 새롭게 생성하여 제1 레이어를 선택할 수 있다. 그리고 레이어 안내창(LM)에 제1 레이어가 선택된 상태임이 표시된다.
이때, 제1 정답 라인(AL1)을 입력하기 전에, 제1 정답 영역(AA1)의 크기 등을 고려하여 사용자(US)는 제5 인터페이스(160)의 정답 라인 폭 조절 메뉴(161)를 조작하여, 제1 정답 라인(AL1)의 폭을 조절할 수 있다. 예를 들어, 제1 정답 영역(AA1)의 크기가 매우 작은 경우, 사용자(US)는 제5 인터페이스(160)의 정답 라인 폭 조절 메뉴(161)를 조작하여 제1 정답 라인(AL1)의 폭을 줄일 수 있다.
또한, 도 6a 및 6b를 참조하여 상술한 바와 같이, 사용자(US)는 제1 이미지(IMG1)의 배율을 조절하여 제2 정답 영역(AA2)을 찾을 수 있다.
도 7b를 참조하면, 사용자(US)는 제4 인터페이스(150)를 조작하여 카테고리 및 레이어를 선택하고, 제2 정답 영역(AA2)에 제2 정답 라인(AL2)을 입력한다. 예를 들어, 제2 정답 영역(AA2)이 복수의 카테고리 중 제1 카테고리에 대응하는 경우, 사용자(US)는 제4 인터페이스(150)의 카테고리 메뉴에서 제1 카테고리를 선택한다.
이어서, 사용자(US)는 제4 인터페이스(150)의 레이어 선택 메뉴(152)에서 제2 레이어를 선택하여 제2 정답 라인(AL2)을 입력한다. 다만, 사용자(US)는 레이어 선택 메뉴(152)에서 제1 정답 라인(AL1)이 저장된 제1 레이어를 선택하고, 제1 레이어에 제2 정답 라인(AL2)을 입력할 수도 있으며, 이에 제한되지 않는다.
한편, 사용자(US)는 제1 정답 라인(AL1) 및 제2 정답 라인(AL2)이 올바르게 입력되었는지, 또는 제1 정답 라인(AL1)으로 표시된 제1 정답 영역(AA1) 및 제2 정답 라인(AL2)으로 표시된 제2 정답 영역(AA2)을 오검출하였는지 검토하기 위해, 제1 정답 라인(AL1) 및 제2 정답 라인(AL2)을 이미지 표시창(110)에 표시하여 검토할 수 있다.
도 7c를 참조하면, 사용자(US)는 제4 인터페이스(150)를 조작하여 각각의 레이어에 표시된 정답 라인을 선택적으로 볼 수 있다. 예를 들어, 사용자(US)는 제4 인터페이스(150)의 레이어 표시 메뉴(153)에서 제1 카테고리의 제1 레이어 및 제2 레이어를 선택한다. 그리고 레이어 안내창(LM)에 제1 레이어 및 제2 레이어가 선택된 상태임이 표시된다.
이어서, 이미지 표시창(110)에는 제1 이미지(IMG1)와 함께 제1 레이어에 표시된 제1 정답 라인(AL1)과, 제2 레이어에 표시된 제2 정답 라인(AL2)이 표시 된다. 사용자(US)는 제1 정답 라인(AL1)과 제2 정답 라인(AL2)을 다시 한번 검토하여, 제1 정답 라인(AL1) 및 제2 정답 라인(AL2)의 오류를 검출할 수 있다.
또한, 사용자(US)는 제4 인터페이스(150)의 레이어 표시 메뉴(153)에서 제1 카테고리의 제1 레이어만을 선택하여 제1 정답 라인(AL1)을 검토할 수도 있고, 제2 레이어만을 선택하여 제2 정답 라인(AL2)만을 검토할 수도 있으며, 사용자(US)의 편의에 따라 레이어 표시 메뉴(153)는 다양하게 선택될 수 있다.
이때, 제1 정답 라인(AL1) 및 제2 정답 라인(AL2)에 오류가 검출된 경우, 사용자(US)는 제5 인터페이스(160)의 정답 라인 삭제 메뉴(162) 또는 정답 라인 전체 삭제 메뉴(163)를 선택하여 제1 정답 라인(AL1) 및/또는 제2 정답 라인(AL2)을 삭제하고, 새롭게 정답 라인을 입력할 수 있다.
이어서, 보정부로부터 표시부에 입력된 정답 라인이 보정된다(S250).
도 8a 및 도 8b는 본 발명의 일 실시예에 따른 이미지 태깅 장치의 보정부를 설명하기 위한 예시적인 출력 화면을 도시한 도면이다.
도 8a를 참조하면, 이미지 태깅 장치(10)의 표시부(100)에서 이미지 표시창(110)에 표시된 제2 이미지(IMG2)에 대하여 제3 정답 라인(AL3)이 입력된다. 이때, 제3 정답 라인(AL3)은 삐뚤게 입력될 수 있다.
이에, 프로세서(400)의 보정부(420)에서 사용자(US)로부터 입력된 제3 정답 라인(AL3)이 보정된다. 예를 들어, 제3 정답 라인(AL3)이 삐뚤게 입력된 경우, 보정부(420)는 제3 정답 라인(AL3)을 매끈하고 완만하게 보정하여, 보정된 제3 정답 라인(AL3')을 표시할 수 있다.
도 8b를 참조하면, 이미지 태깅 장치(10)의 표시부(100)에서 이미지 표시창(110)에 표시된 제2 이미지(IMG2)에 대하여 제4 정답 라인(AL4)이 입력된다. 이때, 제4 정답 라인(AL4)은 하나의 라인으로 이어지지 않고, 복수의 점으로 이루어진다.
이에, 프로세서(400)의 보정부(420)에서 사용자(US)로부터 입력된 제4 정답 라인(AL4)의 복수의 점을 하나의 라인으로 이어져, 완전한 형태의 보정된 제4 정답 라인(AL4')이 생성된다. 그리고 복수의 점을 잇는 보정된 제4 정답 라인(AL4')은 베지에 곡선이 적용되어 생성될 수 있다.
이어서, 정답 라인을 저장부에 저장한다(S300).
보정부(420)에 의해, 보정까지 완료된 복수의 정답 라인이 저장부(200)에 저장된다. 구체적으로, 사용자(US)는 이미지 태깅 장치(10)의 표시부(100)에 표시된 제6 인터페이스(170)를 조작하여 정답 라인을 저장할 수 있다.
먼저, 사용자(US)는 제6 인터페이스(170)의 사용자 정보 메뉴(171)를 선택한다. 사용자(US)는 사용자 정보 메뉴(171)에서 사용자(US)의 정보를 저장한다. 예를 들어, 사용자(US)는 사용자 정보 메뉴(171)에 자신의 이름 및 전화 번호를 입력할 수 있다. 이때, 사용자 정보 메뉴(171)를 조작하여 사용자(US) 정보를 입력하는 것은 이미지 태깅 장치(10)에 정답 라인을 입력하기 전에 입력할 수도 있으며, 정답 라인을 저장부(200)에 저장하기 전이라면, 사용자 정보 메뉴(171)를 조작하는 것은 특별히 제한되지 않는다. 이때, 사용자 안내창(UM)에 사용자(US) 정보가 표시될 수 있다.
또한, 사용자 정보 메뉴(171)에 사용자(US) 정보를 입력하지 않고도 이미지 태깅 장치(10)에 정답 라인을 입력하고 저장부(200)에 저장할 수도 있다. 이러한 경우, 저장부(200)에 저장된 정답 라인은 사용자(US) 정보를 포함하지 않고, 별도로 저장될 수 있다. 그리고 사용자 안내창(UM)에도 사용자(US) 정보가 공란으로 표시될 수 있다.
이어서, 사용자(US)는 제6 인터페이스(170)의 정답 라인 저장 메뉴(172)를 선택한다. 사용자(US)는 정답 라인 저장 메뉴(172)를 선택하여, 지금까지 입력한 작업 내용, 즉 정답 라인을 저장부(200)에 저장할 수 있다.
저장부에 저장된 정답 라인을 학습 서버로 전송한다(S400).
학습 서버(20) 내에는 제1 이미지(IMG1), 제1 이미지(IMG1)의 제1 정답 라인(AL1) 및 제2 정답 라인(AL2), 그리고 제1 정답 라인(AL1) 및 제2 정답 라인(AL2)에 각각 대응하는 제1 이미지(IMG1)의 속성 정보 등이 함께 저장된다.
구체적으로, 학습 서버(20)에 제1 이미지(IMG1) 내에 제1 정답 라인(AL1) 및 제1 정답 라인(AL1)에 대응하는 제1 이미지(IMG1)의 속성 정보가 저장된다. 예를 들어, 학습 서버(20) 내에는 제1 이미지(IMG1)의 제1 정답 라인(AL1)에 대하여, 제1 이미지(IMG1), 제1 정답 라인(AL1)이 표시된 제1 카테고리 및 제1 레이어, 제1 정답 라인(AL1)의 좌표, 제1 정답 라인(AL1)의 폭, 제1 정답 라인(AL1)이 입력된 상태에서 제1 이미지(IMG1)의 밝기, 대비 및 배율, 제1 정답 라인(AL1)을 입력한 사용자(US) 정보 등이 함께 저장된다.
또한, 학습 서버(20)에 제1 이미지(IMG1) 내에 제2 정답 라인(AL2) 및 제2 정답 라인(AL2)에 대응하는 제1 이미지(IMG1)의 속성 정보가 저장된다. 예를 들어, 학습 서버(20) 내에는 제1 이미지(IMG1)의 제2 정답 라인(AL2)에 대하여, 제1 이미지(IMG1), 제2 정답 라인(AL2)이 표시된 제1 카테고리 및 제2 레이어, 제2 정답 라인(AL2)의 좌표, 제2 정답 라인(AL2)의 폭, 제2 정답 라인(AL2)이 입력된 상태에서 제1 이미지(IMG1)의 밝기, 대비 및 배율, 제2 정답 라인(AL2)을 입력한 사용자(US) 정보 등이 함께 저장된다.
또한, 제1 이미지(IMG1)에 대하여 프로세서(400)의 가이드부(410)에서 예측한 가이드 라인(GL)에 대한 정보 또한 학습 서버(20)에 함께 저장된다.
한편, 프로세서(400)의 가이드부(410)는 저장부(200)에 저장되어, 학습 서버(20)로 전송된 정답 라인 및 이미지의 속성 정보로부터 생성된 패턴에 기초하여 다른 이미지에 대한 가이드 라인(GL)을 표시하도록 업데이트된다. 예를 들어, 복수의 이미지 각각에서 특정 색상 범위를 가진 영역이 여러 차례 정답 라인으로 표시된 경우, 프로세서(400)의 가이드부(410)는 이미지에서 특정 색상 범위를 가진 영역을 검출하여 가이드 라인(GL)으로 표시할 수 있다.
본 발명의 일 실시예에 따른 이미지 태깅 장치(10)는 이미지 태깅에 최적화된 인터페이스를 구비하여 이미지 태깅을 빠르고 간편하게 수행할 수 있다. 구체적으로, 이미지 태깅 장치(10)의 표시부(100)에는 이미지와 함께 제1 인터페이스(120) 내지 제6 인터페이스(170)가 표시된다. 사용자(US)는 제1 인터페이스(120)를 조작하여 정답 라인을 입력할 이미지를 빠르게 선택할 수 있다. 사용자(US)는 제2 인터페이스(130) 및 제3 인터페이스(140)를 조작하여 이미지에서 정답 라인을 입력할 영역을 용이하게 발견할 수 있다. 사용자(US)는 제4 인터페이스(150)를 조작하여 정답 라인의 종류에 따라 특정 카테고리를 선택하고, 정답 라인의 개수에 따라 특정 레이어를 생성 및 선택할 수 있다. 사용자(US)는 제5 인터페이스(160)를 조작하여 정답 라인의 폭을 설정하거나, 정답 라인을 삭제하는 등 정답 라인을 편집할 수 있다. 사용자(US)는 제6 인터페이스(170)를 조작하여 작업한 내용인 정답 라인을 저장하고, 사용자(US) 정보 등을 입력할 수 있다. 따라서, 본 발명의 일 실시예에 따른 이미지 태깅 장치(10)는 이미지 태깅과 관련한 인터페이스로 구성된 표시부(100)를 사용자(US)에게 제공하여, 이미지 태깅을 빠르게 수행할 수 있다.
본 명세서에서, 각 블록 또는 각 단계는 특정된 논리적 기능 (들) 을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. 또한, 몇 가지 대체 실시예들에서는 블록들 또는 단계들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 블록들 또는 단계들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 블록들 또는 단계들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다.
본 명세서에 개시된 실시예들과 관련하여 설명된 방법 또는 알고리즘의 단계는 프로세서에 의해 실행되는 하드웨어, 소프트웨어 모듈 또는 그 2 개의 결합으로 직접 구현될 수도 있다. 소프트웨어 모듈은 RAM 메모리, 플래시 메모리, ROM 메모리, EPROM 메모리, EEPROM 메모리, 레지스터, 하드 디스크, 착탈형 디스크, CD-ROM 또는 당업계에 알려진 임의의 다른 형태의 저장 매체에 상주할 수도 있다. 예시적인 저장 매체는 프로세서에 커플링되며, 그 프로세서는 저장 매체로부터 정보를 판독할 수 있고 저장 매체에 정보를 기입할 수 있다. 다른 방법으로, 저장 매체는 프로세서와 일체형일 수도 있다. 프로세서 및 저장 매체는 주문형 집적회로 내에 상주할 수도 있다. ASIC는 사용자 단말기 내에 상주할 수도 있다. 다른 방법으로, 프로세서 및 저장 매체는 사용자 단말기 내에 개별 컴포넌트로서 상주할 수도 있다.
이상 첨부된 도면을 참조하여 본 발명의 실시예들을 더욱 상세하게 설명하였으나, 본 발명은 반드시 이러한 실시예로 국한되는 것은 아니고, 본 발명의 기술사상을 벗어나지 않는 범위 내에서 다양하게 변형실시될 수 있다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.
1000: 이미지 태깅 시스템
10: 이미지 태깅 장치
20: 학습 서버
100: 표시부
200: 저장부
300: 통신부
400: 프로세서
410: 가이드부
420: 보정부
110: 이미지 표시창
120: 제1 인터페이스
121: 제1 메뉴
122: 제2 메뉴
123: 제3 메뉴
124: 제4 메뉴
130: 제2 인터페이스
131: 대비 조절 메뉴
131a: 바
131b: 수치 입력칸
132: 밝기 조절 메뉴
132a: 바
132b: 수치 입력칸
140: 제3 인터페이스
141: 확대 메뉴
142: 축소 메뉴
150: 제4 인터페이스
151: 카테고리 선택 메뉴
152: 레이어 선택 메뉴
153: 레이어 표시 메뉴
160: 제5 인터페이스
161: 정답 라인 폭 조절 메뉴
162: 정답 라인 삭제 메뉴
163: 정답 라인 전체 삭제 메뉴
170: 제6 인터페이스
171: 사용자 정보 메뉴
172: 정답 라인 저장 메뉴
AR1: 제1 영역
AR2: 제2 영역
AA1: 제1 정답 영역
AA2: 제2 정답 영역
AL1: 제1 정답 라인
AL2: 제2 정답 라인
AL3: 제3 정답 라인
AL3': 보정된 제3 정답 라인
AL4: 제4 정답 라인
AL4': 보정된 제4 정답 라인
GL: 가이드 라인
CM: 카테고리 안내창
LM: 레이어 안내창
UM: 사용자 안내창
IM: 이미지 안내창
IMG1: 제1 이미지
IMG2: 제2 이미지
US: 사용자

Claims (16)

  1. 프로세서에 의해 구동되는 이미지 태깅 장치에 있어서,
    일련의 이미지 중 하나가 표시되고, 상기 이미지에 대해 정답 라인을 입력받도록 구성된 터치 패널을 가지는 표시부;
    상기 이미지에 대응하는 상기 정답 라인을 저장하도록 구성된 저장부; 및
    상기 저장부에 저장된 상기 정답 라인을 학습 서버로 전송하도록 구성된 통신부를 포함하고,
    상기 프로세서는 상기 표시부에 상기 일련의 이미지를 선택하기 위한 제1 인터페이스, 상기 이미지의 밝기 또는 대비를 조절하도록 구성된 제2 인터페이스 및 상기 이미지의 배율을 조절하도록 구성된 제3 인터페이스가 상기 일련의 이미지 중 하나와 함께 표시되도록 하고,
    상기 프로세서는 상기 이미지의 일부 영역의 밝기 값과 상기 이미지의 나머지 영역의 밝기 값 간의 차이 값이 임계치를 초과하는 경우, 상기 표시부로 하여금 상기 일부 영역을 가이드 라인으로 표시하도록 구성되는, 이미지 태깅 장치.
  2. 제1항에 있어서,
    상기 제1 인터페이스는,
    상기 일련의 이미지 중 첫번째 이미지가 선택되도록 구성된 제1 메뉴;
    상기 이미지의 이전 이미지가 선택되도록 구성된 제2 메뉴;
    상기 이미지의 다음 이미지가 선택되도록 구성된 제3 메뉴; 및
    상기 일련의 이미지 중 마지막 이미지가 선택되도록 구성된 제4 메뉴를 포함하는, 이미지 태깅 장치.
  3. 제1항에 있어서,
    상기 제2 인터페이스는,
    상기 이미지의 밝기가 조절되도록 구성된 밝기 조절 메뉴; 및
    상기 이미지의 대비가 조절되도록 구성된 대비 조절 메뉴를 포함하고,
    상기 밝기 조절 메뉴 및 상기 대비 조절 메뉴는 슬라이드 바 형식으로 이루어진, 이미지 태깅 장치.
  4. 제1항에 있어서,
    상기 제3 인터페이스는,
    상기 이미지의 배율이 확대되도록 구성된 확대 메뉴; 및
    상기 이미지의 배율이 축소되도록 구성된 축소 메뉴를 포함하는, 이미지 태깅 장치.
  5. 제1항에 있어서,
    상기 저장부는,
    복수의 카테고리; 및
    상기 복수의 카테고리 각각에 저장된 적어도 하나 이상의 레이어를 포함하고,
    상기 정답 라인은 상기 복수의 카테고리 중 하나의 카테고리의 상기 레이어에 저장되고,
    상기 레이어를 선택하기 위한 제4 인터페이스가 상기 표시부에 더 표시되는, 이미지 태깅 장치.
  6. 제5항에 있어서,
    하나의 상기 레이어에는 적어도 하나 이상의 상기 정답 라인이 저장되는, 이미지 태깅 장치.
  7. 제1항에 있어서,
    상기 저장부에 상기 정답 라인과, 상기 정답 라인이 입력된 상기 이미지의 밝기, 대비 및 배율이 함께 저장되고,
    상기 통신부는 상기 저장부에 저장된 상기 정답 라인과 함께 상기 이미지의 상기 밝기, 상기 대비 및 상기 배율을 상기 학습 서버로 함께 전송하는, 이미지 태깅 장치.
  8. 제1항에 있어서,
    상기 프로세서는,
    상기 이미지에 상기 가이드 라인을 표시하는 가이드부; 및
    상기 정답 라인을 보정하는 보정부를 포함하는, 이미지 태깅 장치.
  9. 삭제
  10. 제8항에 있어서,
    상기 가이드부는,
    상기 이미지의 일부 영역의 질감과 상기 이미지의 나머지 영역의 질감간의 유사도가 임계치 미만인 경우, 상기 일부 영역을 상기 가이드 라인으로 표시하는, 이미지 태깅 장치.
  11. 제8항에 있어서,
    상기 표시부의 상기 터치패널에 복수의 점이 입력되는 경우, 상기 보정부는 상기 복수의 점을 하나의 선으로 이어 상기 정답 라인을 생성하는, 이미지 태깅 장치.
  12. 제11항에 있어서,
    상기 보정부는 상기 복수의 점에 대하여 베지에 곡선을 적용하여 상기 정답 라인을 생성하는, 이미지 태깅 장치.
  13. 제1항에 있어서,
    상기 정답 라인은 입력 장치에 의해 상기 표시부에 입력되고,
    상기 입력 장치는, 터치펜, 손가락, 터치 패드 또는 마우스를 포함하는, 이미지 태깅 장치.
  14. 제1항에 있어서,
    상기 이미지는 의료 영상에 대한 이미지이고,
    상기 정답 라인은 상기 의료 영상에서 병변 또는 조직의 일부를 표시하는 라인인, 이미지 태깅 장치.
  15. 이미지 태깅 장치의 표시부에 일련의 이미지 중 하나의 이미지 및 상기 이미지에 대해 가이드 라인을 표시하는 단계;
    상기 이미지 태깅 장치의 표시부에서 상기 이미지에 대해 정답 라인을 입력받는 단계;
    상기 정답 라인을 저장부에 저장하는 단계; 및
    상기 저장부에 저장된 상기 정답 라인을 학습 서버로 전송하는 단계를 포함하고,
    상기 저장부는 복수의 카테고리와, 상기 복수의 카테고리 각각에 저장된 적어도 하나 이상의 레이어를 포함하고,
    상기 표시부에는 상기 일련의 이미지를 검색하기 위한 제1 인터페이스, 상기 이미지의 밝기 또는 대비를 조절하도록 구성된 제2 인터페이스, 상기 이미지의 배율을 조절하도록 구성된 제3 인터페이스 및 상기 레이어를 선택하기 위한 제4 인터페이스가 상기 일련의 이미지 중 하나와 함께 표시되도록 구성되고,
    상기 이미지의 일부 영역의 밝기 값과 상기 이미지의 나머지 영역의 밝기 값 간의 차이 값이 임계치를 초과하는 경우, 상기 일부 영역을 상기 가이드 라인으로 표시하는, 이미지 태깅 방법.
  16. 제15항에 있어서,
    상기 정답 라인을 입력받는 단계는,
    상기 제1 인터페이스를 조작하여 상기 일련의 이미지 중 하나의 상기 이미지를 선택하여, 상기 이미지를 상기 표시부에 표시하는 단계;
    상기 제2 인터페이스를 조작하여 상기 이미지의 상기 밝기 또는 상기 대비를 조절하는 단계;
    상기 제3 인터페이스를 조작하여 상기 이미지의 상기 배율을 조절하는 단계;
    상기 복수의 카테고리 중 하나의 카테고리를 선택하는 단계;
    상기 하나의 카테고리에서 적어도 하나 이상의 레이어를 생성하는 단계;
    상기 제4 인터페이스를 조작하여 상기 레이어 중 하나의 레이어를 선택하는 단계; 및
    상기 표시부로부터 상기 이미지에 대해 상기 정답 라인을 입력받는 단계를 포함하고,
    상기 하나의 레이어에는 적어도 하나 이상의 상기 정답 라인이 저장되는, 이미지 태깅 방법.
KR1020180051767A 2018-05-04 2018-05-04 이미지 태깅 장치 및 이를 이용한 이미지 태깅 방법 KR102064367B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180051767A KR102064367B1 (ko) 2018-05-04 2018-05-04 이미지 태깅 장치 및 이를 이용한 이미지 태깅 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180051767A KR102064367B1 (ko) 2018-05-04 2018-05-04 이미지 태깅 장치 및 이를 이용한 이미지 태깅 방법

Publications (2)

Publication Number Publication Date
KR20190134885A KR20190134885A (ko) 2019-12-05
KR102064367B1 true KR102064367B1 (ko) 2020-02-11

Family

ID=69002321

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180051767A KR102064367B1 (ko) 2018-05-04 2018-05-04 이미지 태깅 장치 및 이를 이용한 이미지 태깅 방법

Country Status (1)

Country Link
KR (1) KR102064367B1 (ko)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101818074B1 (ko) * 2017-07-20 2018-01-12 (주)제이엘케이인스펙션 인공지능 기반 의료용 자동 진단 보조 방법 및 그 시스템

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6089886B2 (ja) * 2013-03-29 2017-03-08 オムロン株式会社 領域分割方法および検査装置
KR101728045B1 (ko) * 2015-05-26 2017-04-18 삼성전자주식회사 의료 영상 디스플레이 장치 및 의료 영상 디스플레이 장치가 사용자 인터페이스를 제공하는 방법

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101818074B1 (ko) * 2017-07-20 2018-01-12 (주)제이엘케이인스펙션 인공지능 기반 의료용 자동 진단 보조 방법 및 그 시스템

Also Published As

Publication number Publication date
KR20190134885A (ko) 2019-12-05

Similar Documents

Publication Publication Date Title
US10516830B2 (en) Guided image composition on mobile devices
US6999068B2 (en) System and method for enabling users to edit graphical images
US8687901B2 (en) Information processing system, information processing apparatus, processing method thereof, and non-transitory computer-readable storage medium
US7743331B1 (en) Viewing and modifying content slide navigation properties
US20200334411A1 (en) Computer implemented accessibility systems and methods
CN103941855A (zh) 医用图像参照装置以及医用图像参照方法
US20070071319A1 (en) Method, apparatus, and program for dividing images
US9432583B2 (en) Method of providing an adjusted digital image representation of a view, and an apparatus
US11823593B2 (en) Method for displaying learning content of terminal and application program therefor
US11683438B2 (en) Systems and methods to semi-automatically segment a 3D medical image using a real-time edge-aware brush
US7177468B2 (en) Image processing system, imaging device, and parameter-determining program
KR102064367B1 (ko) 이미지 태깅 장치 및 이를 이용한 이미지 태깅 방법
JP2009075846A (ja) 輪郭抽出装置及びプログラム
US11449701B2 (en) Non-transitory computer readable medium storing image processing program, image processing apparatus, and non-transitory computer readable medium storing program
EP1211639A2 (en) Method and apparatus for extracting object from video image
US20210271352A1 (en) Image processing apparatus, image processing method, and program
JP2009290476A (ja) 画像編集装置、記録媒体および画像編集方法
JP2009253474A (ja) 画像処理装置、画像処理方法及び画像処理プログラム
WO2024009888A1 (ja) 情報処理装置及びその制御方法及びプログラム
US11240384B2 (en) Information processing apparatus, method for information processing, and storage medium
CN115016644A (zh) 一种图像处理方法及系统
JP2012133459A (ja) 画像評価装置、及び方法、並びにプログラム、そのプログラムを記録したコンピュータ読み取り可能な記録媒体
JP6670918B2 (ja) 生成装置、生成方法及び生成プログラム
US20210157969A1 (en) Information processing system, information processing apparatus, and non-transitory computer readable medium storing program
JP7130953B2 (ja) 医用画像表示システム及び医用画像表示装置

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant