KR102498597B1 - 전자 장치 및 이를 이용하여 관심 영역을 설정하여 오브젝트를 식별하는 방법 - Google Patents

전자 장치 및 이를 이용하여 관심 영역을 설정하여 오브젝트를 식별하는 방법 Download PDF

Info

Publication number
KR102498597B1
KR102498597B1 KR1020170106133A KR20170106133A KR102498597B1 KR 102498597 B1 KR102498597 B1 KR 102498597B1 KR 1020170106133 A KR1020170106133 A KR 1020170106133A KR 20170106133 A KR20170106133 A KR 20170106133A KR 102498597 B1 KR102498597 B1 KR 102498597B1
Authority
KR
South Korea
Prior art keywords
region
content
processor
electronic device
interest
Prior art date
Application number
KR1020170106133A
Other languages
English (en)
Other versions
KR20190021049A (ko
Inventor
김무정
김대희
신대규
조성대
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Priority to KR1020170106133A priority Critical patent/KR102498597B1/ko
Priority to US16/108,980 priority patent/US10769475B2/en
Publication of KR20190021049A publication Critical patent/KR20190021049A/ko
Application granted granted Critical
Publication of KR102498597B1 publication Critical patent/KR102498597B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • G06V10/235Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition based on user input or interaction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • G06V10/464Salient features, e.g. scale invariant feature transforms [SIFT] using a plurality of salient features, e.g. bag-of-words [BoW] representations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20101Interactive definition of point of interest, landmark or seed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20104Interactive definition of region of interest [ROI]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 발명의 다양한 실시예들에 따른 전자 장치는, 디스플레이 및 상기 디스플레이와 기능적으로 연결된 프로세서를 포함하고, 상기 프로세서는, 상기 디스플레이를 이용하여, 적어도 하나의 오브젝트를 포함하는 콘텐트를 출력하고, 상기 콘텐트의 전체 영역 중 적어도 하나의 지점을 지정하는 사용자 입력을 수신하고, 상기 적어도 하나의 지점을 기준으로 상기 전체 영역 중 일부를 탐색 영역으로 결정하고, 상기 탐색 영역에 기반하여 상기 콘텐트와 관련된 특징 맵(saliency map)을 획득하고, 및 상기 특징 맵에 기반하여 사용자의 관심 영역을 결정하도록 설정될 수 있다. 또 다른 예로, 상기 프로세서는, 상기 콘텐트의 전체 영역을 미리 지정된 기준에 기반하여 유사 영역으로 분할한 콘텐트와 관련된 인덱스 맵(index map)을 획득하고, 상기 특징 맵 및 상기 인덱스 맵을 중첩하여 사용자의 관심 영역을 결정할 수도 있다. 이 밖에 다른 실시예들이 가능하다.

Description

전자 장치 및 이를 이용하여 관심 영역을 설정하여 오브젝트를 식별하는 방법 {ELECTRONIC DEVICE AND METHOD FOR IDENTIFYING OBJECT BASED ON SETTING REGION-OF-INTEREST BY USING THE SAME}
본 발명은 전자 장치 및 이를 이용하여 관심 영역을 설정하여 오브젝트를 식별하는 방법에 관한 것이다.
정보통신 기술과 반도체 기술 등의 눈부신 발전에 힘입어 전자 장치의 보급과 이용이 급속도로 증가하고 있다. 이러한 전자 장치들은 각자의 전통적인 고유 영역에 머무르지 않고 다양한 기능들을 컨버전스(convergence)하여 제공 하는 추세에 있다. 예를 들어, 전자 장치는 획득한 콘텐트로부터 오브젝트를 식별하는 기능을 제공할 수 있다.
선행문헌 (KR20100118162 A)은 현출 맵(saliency map)을 통해 물체 감지하는 기술에서, 감지된 시드(하나의 점)와 인접한 점의 유사도를 평가하여 물체의 영역(유사영역)을 특정하는 기술을 포함하고 있다.
동영상에서 오브젝트를 식별하기 위해서, 전자 장치는 상기 동영상의 연속된 프레임들을 비교하고, 배경 영역과 움직이는 오브젝트 영역을 분리시키는 방법을 이용할 수 있다.
다만, 정지 영상에서 오브젝트를 식별하기 위해서는, 전자 장치가 색상을 기반으로 유사 영역을 분리하면, 오브젝트에 해당하는 영역을 일일이 사용자 가 선택하여 오브젝트를 식별하거나, 사용자가 오브젝트의 외곽에 폐곡선을 그림으로써 오브젝트를 식별할 수 있다.
최근에는, 정지 영상 내 가장 특징적인 영역을 특징 맵으로 변환하여 오브젝트를 식별하는 방법 등이 이용되고 있다.
이러한 사용자 입력에 기초하여 오브젝트를 식별하는 방법은 사용자 입력의 정교함에 영향을 많이 받을 뿐 아니라, 사용자에게 과다한 인터랙션을 요구할 수 있다. 또한, 특징 맵에 의한 방식은 사용자가 원하는 오브젝트를 정확하게 식별할 수 없을 뿐 아니라, 오브젝트의 윤곽선 정보가 정확하게 반영되지 않을 수 있다.
본 발명의 다양한 실시예들에 따른 전자 장치는, 디스플레이 및 상기 디스플레이와 기능적으로 연결된 프로세서를 포함하고, 상기 프로세서는, 상기 디스플레이를 이용하여, 적어도 하나의 오브젝트를 포함하는 콘텐트를 출력하고, 상기 콘텐트의 전체 영역 중 적어도 하나의 지점을 지정하는 사용자 입력을 수신하고, 상기 적어도 하나의 지점을 기준으로 상기 전체 영역 중 일부를 탐색 영역으로 결정하고, 상기 탐색 영역에 기반하여 상기 콘텐트와 관련된 특징 맵(saliency map)을 획득하고, 및 상기 특징 맵에 기반하여 사용자의 관심 영역을 결정하도록 설정될 수 있다.
본 발명의 다양한 실시예들에 따른 관심 영역을 설정하여 오브젝트를 식별하는 방법은, 디스플레이를 이용하여, 적어도 하나의 오브젝트를 포함하는 콘텐트를 출력하는 동작, 상기 콘텐트의 전체 영역 중 적어도 하나의 지점을 지정하는 사용자 입력을 수신하는 동작, 상기 적어도 하나의 지점을 기준으로 상기 전제 영역 중 일부를 탐색 영역으로 결정하는 동작, 상기 탐색 영역에 기반하여 상기 콘텐트와 관련된 특징 맵(saliency map)을 획득하는 동작, 및 상기 특징 맵에 기반하여 사용자의 관심 영역을 결정하는 동작을 포함할 수 있다.
본 발명의 다양한 실시예들에 따른, 전자 장치는 단순한 사용자 입력을 통해 사용자가 원하는 오브젝트를 정확하게 식별할 수 있으며, 사용자의 관심 영역을 직관적으로 확인할 수 있도록 사용자 인터페이스를 제공할 수 있다.
도 1은, 다양한 실시예들에 따른, 관심 영역을 설정하여 오브젝트를 식별하기 위한, 네트워크 환경 내의 전자 장치의 블럭도이다.
도 2는 다양한 실시예에 따른 프로세서를 나타내는 블록도이다.
도 3은 다양한 실시예에 따른 오브젝트를 식별하는 방법을 나타내는 흐름도이다.
도 4a 내지 4f는 오브젝트를 식별하는 일 예를 나타내는 도면이다.
도 5는 사용자 입력 전 제공된 관심 영역이 존재하는 경우를 나타내는 흐름도이다.
도 6은 미리 제공되는 관심 영역의 일 예를 나타내는 도면이다.
도 7a 내지 도 7c는, 미리 제공되는 관심 영역 내에서 사용자 입력이 수신될 경우, 오브젝트를 식별하는 일 예를 나타내는 도면이다.
도 8a 내지 도 8c는, 미리 제공되는 관심 영역 밖에서 사용자 입력이 수신될 경우, 오브젝트를 식별하는 일 예를 나타내는 도면이다.
도 1은, 다양한 실시예들에 따른, 관심 영역을 설정하여 오브젝트를 식별하기 위한, 네트워크 환경(100) 내의 전자 장치(101)의 블럭도이다. 도 1을 참조하면, 네트워크 환경(100)에서 전자 장치(101)는 제 1 네트워크(198)(예: 근거리 무선 통신)를 통하여 전자 장치(102)와 통신하거나, 또는 제 2 네트워크(199)(예: 원거리 무선 통신)를 통하여 전자 장치(104) 또는 서버(108)와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 서버(108)를 통하여 전자 장치(104)와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 프로세서(120), 메모리(130), 입력 장치(150), 음향 출력 장치(155), 표시 장치(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 햅틱 모듈(179), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 가입자 식별 모듈(196), 및 안테나 모듈(197)을 포함할 수 있다. 어떤 실시예에서는, 전자 장치(101)에는, 이 구성요소들 중 적어도 하나(예: 표시 장치(160) 또는 카메라 모듈(180))가 생략되거나 다른 구성 요소가 추가될 수 있다. 어떤 실시예에서는, 예를 들면, 표시 장치(160)(예: 디스플레이)에 임베디드된 센서 모듈(176)(예: 지문 센서, 홍채 센서, 또는 조도 센서)의 경우와 같이, 일부의 구성요소들이 통합되어 구현될 수 있다.
프로세서(120)는, 예를 들면, 소프트웨어(예: 프로그램(140))를 구동하여 프로세서(120)에 연결된 전자 장치(101)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)을 제어할 수 있고, 다양한 데이터 처리 및 연산을 수행할 수 있다. 프로세서(120)는 다른 구성요소(예: 센서 모듈(176) 또는 통신 모듈(190))로부터 수신된 명령 또는 데이터를 휘발성 메모리(132)에 로드하여 처리하고, 결과 데이터를 비휘발성 메모리(134)에 저장할 수 있다. 일실시예에 따르면, 프로세서(120)는 메인 프로세서(121)(예: 중앙 처리 장치 또는 어플리케이션 프로세서), 및 이와는 독립적으로 운영되고, 추가적으로 또는 대체적으로, 메인 프로세서(121)보다 저전력을 사용하거나, 또는 지정된 기능에 특화된 보조 프로세서(123)(예: 그래픽 처리 장치, 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 여기서, 보조 프로세서(123)는 메인 프로세서(121)와 별개로 또는 임베디드되어 운영될 수 있다.
이런 경우, 보조 프로세서(123)는, 예를 들면, 메인 프로세서(121)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(121)를 대신하여, 또는 메인 프로세서(121)가 액티브(예: 어플리케이션 수행) 상태에 있는 동안 메인 프로세서(121)와 함께, 전자 장치(101)의 구성요소들 중 적어도 하나의 구성요소(예: 표시 장치(160), 센서 모듈(176), 또는 통신 모듈(190))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일실시예에 따르면, 보조 프로세서(123)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성 요소(예: 카메라 모듈(180) 또는 통신 모듈(190))의 일부 구성 요소로서 구현될 수 있다. 메모리(130)는, 전자 장치(101)의 적어도 하나의 구성요소(예: 프로세서(120) 또는 센서모듈(176))에 의해 사용되는 다양한 데이터, 예를 들어, 소프트웨어(예: 프로그램(140)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 저장할 수 있다. 메모리(130)는, 휘발성 메모리(132) 또는 비휘발성 메모리(134)를 포함할 수 있다.
프로그램(140)은 메모리(130)에 저장되는 소프트웨어로서, 예를 들면, 운영 체제(142), 미들 웨어(144) 또는 어플리케이션(146)을 포함할 수 있다.
입력 장치(150)는, 전자 장치(101)의 구성요소(예: 프로세서(120))에 사용될 명령 또는 데이터를 전자 장치(101)의 외부(예: 사용자)로부터 수신하기 위한 장치로서, 예를 들면, 마이크, 마우스, 또는 키보드를 포함할 수 있다.
음향 출력 장치(155)는 음향 신호를 전자 장치(101)의 외부로 출력하기 위한 장치로서, 예를 들면, 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용되는 스피커와 전화 수신 전용으로 사용되는 리시버를 포함할 수 있다. 일실시예에 따르면, 리시버는 스피커와 일체 또는 별도로 형성될 수 있다.
표시 장치(160)는 전자 장치(101)의 사용자에게 정보를 시각적으로 제공하기 위한 장치로서, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일실시예에 따르면, 표시 장치(160)는 터치 회로(touch circuitry) 또는 터치에 대한 압력의 세기를 측정할 수 있는 압력 센서를 포함할 수 있다.
오디오 모듈(170)은 소리와 전기 신호를 쌍방향으로 변환시킬 수 있다. 일실시예에 따르면, 오디오 모듈(170)은, 입력 장치(150) 를 통해 소리를 획득하거나, 음향 출력 장치(155), 또는 전자 장치(101)와 유선 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(102)(예: 스피커 또는 헤드폰))를 통해 소리를 출력할 수 있다.
센서 모듈(176)은 전자 장치(101)의 내부의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 센서 모듈(176)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다.
인터페이스(177)는 외부 전자 장치(예: 전자 장치(102))와 유선 또는 무선으로 연결할 수 있는 지정된 프로토콜을 지원할 수 있다. 일실시예에 따르면, 인터페이스(177)는 HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.
연결 단자(178)는 전자 장치(101)와 외부 전자 장치(예: 전자 장치(102))를 물리적으로 연결시킬 수 있는 커넥터, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.
햅틱 모듈(179)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 햅틱 모듈(179)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.
카메라 모듈(180)은 정지 영상 및 동영상을 촬영할 수 있다. 일실시예에 따르면, 카메라 모듈(180)은 하나 이상의 렌즈, 이미지 센서, 이미지 시그널 프로세서, 또는 플래시를 포함할 수 있다.
전력 관리 모듈(188)은 전자 장치(101)에 공급되는 전력을 관리하기 위한 모듈로서, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구성될 수 있다.
배터리(189)는 전자 장치(101)의 적어도 하나의 구성 요소에 전력을 공급하기 위한 장치로서, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.
통신 모듈(190)은 전자 장치(101)와 외부 전자 장치(예: 전자 장치(102), 전자 장치(104), 또는 서버(108))간의 유선 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(190)은 프로세서(120)(예: 어플리케이션 프로세서)와 독립적으로 운영되는, 유선 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일실시예에 따르면, 통신 모듈(190)은 무선 통신 모듈(192)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(194)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함하고, 그 중 해당하는 통신 모듈을 이용하여 제 1 네트워크(198)(예: 블루투스, WiFi direct 또는 IrDA(infrared data association) 같은 근거리 통신 네트워크) 또는 제 2 네트워크(199)(예: 셀룰러 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부 전자 장치와 통신할 수 있다. 상술한 여러 종류의 통신 모듈(190)은 하나의 칩으로 구현되거나 또는 각각 별도의 칩으로 구현될 수 있다.
일실시예에 따르면, 무선 통신 모듈(192)은 가입자 식별 모듈(196)에 저장된 사용자 정보를 이용하여 통신 네트워크 내에서 전자 장치(101)를 구별 및 인증할 수 있다.
안테나 모듈(197)은 신호 또는 전력을 외부로 송신하거나 외부로부터 수신하기 위한 하나 이상의 안테나들을 포함할 수 있다. 일시예에 따르면, 통신 모듈(190)(예: 무선 통신 모듈(192))은 통신 방식에 적합한 안테나를 통하여 신호를 외부 전자 장치로 송신하거나, 외부 전자 장치로부터 수신할 수 있다.
상기 구성요소들 중 일부 구성요소들은 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input/output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))를 통해 서로 연결되어 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.
일실시예에 따르면, 명령 또는 데이터는 제 2 네트워크(199)에 연결된 서버(108)를 통해서 전자 장치(101)와 외부의 전자 장치(104)간에 송신 또는 수신될 수 있다. 전자 장치(102, 104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 일실시예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 다른 하나 또는 복수의 외부 전자 장치에서 실행될 수 있다. 일실시예에 따르면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로 또는 요청에 의하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 그와 연관된 적어도 일부 기능을 외부 전자 장치에게 요청할 수 있다. 상기 요청을 수신한 외부 전자 장치는 요청된 기능 또는 추가 기능을 실행하고, 그 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 수신된 결과를 그대로 또는 추가적으로 처리하여 요청된 기능이나 서비스를 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다.
도 2는 다양한 실시예에 따른 프로세서를 나타내는 블록도이다.
다양한 실시예들에 따르면, 프로세서(120)는 탐색 영역 결정부(210), 주요 영역 검출부(220), 영역 분할부(230) 및 관심 영역 결정부(240)를 포함할 수 있다. 도 2는 하나의 프로세서가 탐색 영역 결정부(210), 주요 영역 검출부(220), 영역 분할부(230) 및 관심 영역 결정부(240)를 포함하는 것처럼 도시하고 있으나, 탐색 영역 결정부(210), 주요 영역 검출부(220), 영역 분할부(230) 및 관심 영역 결정부(240)는 별도의 분리된 프로세서들에 포함될 수도 있다.
다양한 실시예들에 따르면, 탐색 영역 결정부(210)는 사용자가 지정한 적어도 하나의 지점을 기준으로 콘텐트의 전체 영역 중 일부를 탐색 영역으로 결정할 수 있다. 탐색 영역 결정부(210)는, 예를 들어, 콘텐트를 구성하는 하나 이상의 픽셀들 또는 복수의 픽셀들을 포함하는 블록들의 상대적 변화를 확인하고, 상기 상대적 변화에 기반하여 상기 콘텐트와 관련된 엔트로피 맵(entropy map)을 획득할 수 있다. 엔트로피 맵이 획득되면, 탐색 영역 결정부(210)는, 다시 엔트로피 맵을 일정 기준에 따라 분할할 수 있다. 탐색 영역 결정부(210)는 분할된 영역들 중 사용자에 의해 지정된 지점이 속하는 적어도 하나의 영역을 확인하고, 상기 확인된 적어도 하나의 영역에 대한 통계적 특성을 계산할 수 있다. 또한, 상기 확인된 적어도 하나의 영역과 유사한 통계적 특성을 가지는 다른 영역들을 확인할 수 있다. 이후, 탐색 영역 결정부(210)는 사용자에 의해 지정된 지점이 속하는 적어도 하나의 영역 및 이와 유사한 통계적 특성을 가지는 다른 영역들을 포함하는 탐색 영역을 결정할 수 있다.
다양한 실시예들에 따르면, 주요 영역 검출부(220)는 탐색 영역에 기반하여 상기 콘텐트와 관련된 특징 맵(saliency map)을 획득할 수 있다 주요 영역 검출부(220)는, 예를 들어, 탐색 영역에 머신러닝(machine-learning) 알고리즘, 딥러닝(deep-learning) 알고리즘 또는 이미지 프로세싱(image processing) 알고리즘 등을 적용하여 주요 영역이 반영된 특징 맵을 획득할 수 있다. 또 다른 예로, 주요 영역 검출부(220)는 사용자가 지정한 지점에 기반하여 서로 다른 가중치를 적어도 일부 특징 맵에 적용시킴으로써 가중치가 적용된 특징 맵을 획득할 수 있다.
다양한 실시예들에 따르면, 영역 분할부(230)는 상기 콘텐트의 전체 영역을 미리 지정된 기준에 기반하여 유사 영역으로 분할한 상기 콘텐트와 관련된 인덱스 맵(index map)을 획득할 수 있다. 예를 들어, 영역 분할부(230)는 콘텐트에 슈퍼 픽셀(super-pixel) 알고리즘을 적용하여 동일 또는 유사한 색상을 가지는 영역들로 콘텐트를 분할할 수 있다. 또한, 영역 분할부(230)는 분할된 영역들 각각에 인덱스(index)를 부여함으로써 콘텐트와 관련된 인덱스 맵을 획득할 수 있다.
다양한 실시예들에 따르면, 관심 영역 결정부(240)는 상기 엔트로피 맵에 의해 결정된 탐색 영역에 기반하여 획득된 특징 맵 및 콘텐트의 전체 영역에 기반하여 획득된 인덱스 맵에 기반하여 사용자의 관심 영역을 결정할 수 있다. 관심 영역 결정부(240)는, 예를 들어, 특징 맵(또는 가중치가 적용된 특징 맵)과 인덱스 맵을 중첩시킴으로써 오브젝트를 식별할 수 있다. 한 실시예에 따르면, 유사 영역들로 분할된 인덱스 맵에 기초하여 특징 맵 내 주요 영역의 크기를 고려하면 사용자가 지정한 지점에 대응하는 오브젝트를 식별할 수 있다. 또한, 오브젝트를 식별한 관심 영역 결정부(240)는 상기 오브젝트를 포함하는 사용자의 관심 영역을 결정하고, 사용자의 관심 영역에 윤곽선을 표시하여 디스플레이를 통해 출력할 수 있다.
본 발명의 다양한 실시예들에 따른 전자 장치(예: 도 1 의 전자 장치(101))는, 디스플레이(예: 도 1 의 표시 장치(160)) 및 상기 디스플레이와 기능적으로 연결된 프로세서(예: 도 1 의 프로세서(120))를 포함하고, 상기 프로세서는, 상기 디스플레이를 이용하여, 적어도 하나의 오브젝트를 포함하는 콘텐트를 출력하고, 상기 콘텐트의 전체 영역 중 적어도 하나의 지점을 지정하는 사용자 입력을 수신하고, 상기 적어도 하나의 지점을 기준으로 상기 전체 영역 중 일부를 탐색 영역으로 결정하고, 상기 탐색 영역에 기반하여 상기 콘텐트와 관련된 특징 맵(saliency map)을 획득하고, 및 상기 특징 맵에 기반하여 사용자의 관심 영역을 결정하도록 설정될 수 있다.
본 발명의 다양한 실시예들에 따른 전자 장치(예: 도 1 의 전자 장치(101))의 상기 프로세서(예: 도 1 의 프로세서(120))는, 상기 콘텐트의 전체 영역을 미리 지정된 기준에 기반하여 유사 영역으로 분할한 상기 콘텐트와 관련된 인덱스 맵(index map)을 획득하고, 상기 사용자의 관심 영역은 상기 특징 맵 및 상기 인덱스 맵에 기반하여 결정되는 것을 특징으로 할 수 있따.
본 발명의 다양한 실시예들에 따른 전자 장치(예: 도 1 의 전자 장치(101))의 상기 프로세서(예: 도 1 의 프로세서(120))는, 상기 콘텐트를 구성하는 하나 이상의 픽셀들 또는 복수의 픽셀들을 포함하는 블록들의 상대적 변화를 확인하고, 상기 상대적 변화에 기반하여 상기 콘텐트와 관련된 엔트로피 맵(entropy map)을 획득하도록 설정될 수 있다.
본 발명의 다양한 실시예들에 따른 전자 장치(예: 도 1 의 전자 장치(101))의 상기 프로세서(예: 도 1 의 프로세서(120))는, 상기 엔트로피 맵을 일정 기준에 따라 분할하고, 상기 사용자에 의해 지정된 지점이 속하는 적어도 하나의 영역을 확인하고, 상기 확인된 적어도 하나의 영역에 대한 통계적 특성을 계산하고, 상기 확인된 적어도 하나의 영역과 유사한 통계적 특성을 가지는 다른 영역들을 확인하고, 및 상기 확인된 적어도 하나의 영역 및 상기 확인된 다른 영역들을 포함하는 탐색 영역을 결정하도록 설정될 수 있다.
본 발명의 다양한 실시예들에 따른 전자 장치(예: 도 1 의 전자 장치(101))의 상기 프로세서(예: 도 1 의 프로세서(120))는, 상기 사용자가 지정한 지점에 기반하여 가중치 매트릭스(weighting matrix)를 생성하고, 상기 가중치 매트릭스를 적어도 일부 상기 특징 맵에 적용하여 가중치가 적용된 특징 맵을 획득하도록 설정될 수 있다.
본 발명의 다양한 실시예들에 따른 전자 장치(예: 도 1 의 전자 장치(101))의 상기 미리 지정된 기준은 색상, 윤곽선 또는 콘트라스트(contrast) 중 적어도 하나의 기준을 포함하는 것을 특징으로 할 수 있다.
본 발명의 다양한 실시예들에 따른 전자 장치(예: 도 1 의 전자 장치(101))의 상기 프로세서(예: 도 1 의 프로세서(120))는, 상기 특징 맵 내 주요 영역 및 상기 인덱스 맵 내 유사 영역을 중첩시켜 상기 사용자가 지정한 지점에 따른 오브젝트를 식별하도록 설정될 수 있다.
본 발명의 다양한 실시예들에 따른 전자 장치(예: 도 1 의 전자 장치(101))의 상기 프로세서(예: 도 1 의 프로세서(120))는, 상기 콘텐트의 주요 영역을 관심 영역으로 제공하고, 및 상기 사용자 입력이 상기 제공된 관심 영역 내에서 수신되었을 경우, 상기 제공된 관심 영역 이외의 영역을 비 탐색 영역으로 결정하도록 설정될 수 있다.
본 발명의 다양한 실시예들에 따른 전자 장치(예: 도 1 의 전자 장치(101))의 상기 프로세서(예: 도 1 의 프로세서(120))는, 상기 콘텐트의 주요 영역을 관심 영역으로 제공하고, 및 상기 사용자 입력이 상기 제공된 관심 영역 내에서 수신되지 않았을 경우, 상기 제공된 관심 영역을 포함하는 상기 콘텐트의 적어도 일부 영역을 비 탐색 영역으로 결정하도록 설정될 수 있다.
본 발명의 다양한 실시예들에 따른 전자 장치(예: 도 1 의 전자 장치(101))의 상기 사용자 입력은 신체의 적어도 일부 또는 펜을 이용한 터치 입력, 상기 신체의 적어도 일부 또는 상기 펜을 이용한 호버링 입력 또는 비 접촉식 인식 기능 중 적어도 하나를 이용한 입력을 포함하는 것을 특징으로 할 수 있다.
도 3은 다양한 실시예에 따른 오브젝트를 식별하는 방법을 나타내는 흐름도이다.
도 3을 참조하면, 동작 310에서 전자 장치(예: 도 1의 전자 장치(101))의 프로세서((예: 도 1의 프로세서(120))는 디스플레이(예: 도 1의 표시 장치(160))를 이용하여, 적어도 하나의 오브젝트를 포함하는 콘텐트를 출력할 수 있다.
다양한 실시예들에 따르면, 콘텐트는 이미지 및 영상 등 다양한 디지털 방식으로 제공되는 정보들을 포함할 수 있다. 콘텐트는, 예를 들어, 그림 및 사진과 같은 이미지뿐만 아니라, 카메라가 캡처하는 프리뷰 이미지, 텍스트 등 장치가 화면에 출력할 수 있는 모든 컨텐츠를 포함할 수 있다. 오브젝트는, 예를 들어, 콘텐트 내 배경 영역과 구별되는 모든 물체를 포함하는 의미로 사용될 수 있다.
동작 320에서, 전자 장치(예: 도 1의 전자 장치(101))의 프로세서(예: 도 1의 프로세서(120))는 상기 콘텐트의 전체 영역 중 적어도 하나의 지점을 지정하는 사용자 입력을 수신할 수 있다.
다양한 실시예들에 따르면, 사용자 입력은 콘텐트 내 적어도 하나의 지점을 지정할 수 있는 다양한 방식을 포함할 수 있다. 사용자 입력은, 예를 들어, 입력 장치를 이용하여 적어도 하나의 지점을 지정하는 입력을 포함할 수 있다. 또한, 디스플레이가 터치 패널을 포함하는 경우, 신체의 적어도 일부(예: 손가락) 또는 펜을 이용하여 적어도 하나의 지점을 지정하는 터치 입력을 포함할 수 있다. 어떤 실시예에서는, 펜 또는 신체의 적어도 일부(예: 손가락)을 이용한 호버링 입력을 통하여 적어도 하나의 지점을 지정할 수 있다. 또 다른 예로, 전자 장치의 프로세서는 비 접촉식 인식 기능 중 적어도 하나를 이용하여 적어도 하나의 지점을 지정할 수 있다. 예컨대, 프로세서는 카메라 또는 마이크를 통해 사용자의 얼굴, 시선, 홍채, 핸드 모션, 음성 등을 인식하여 적어도 하나의 지점을 지정할 수 있다.
다양한 실시예에 따르면, 사용자는 복수의 지점을 지정할 수도 있다. 본 문서에서는 사용자가 하나의 지점을 지정하였을 경우를 가정하여 설명하고 있다. 다만, 다양한 실시예들에 따르면, 사용자는 복수의 지점을 지정할 수도 있고, 이때, 프로세서는 사용자가 지정한 복수의 지점 각각에 대응하는 복수의 오브젝트를 식별할 수 있다.
동작 330에서, 전자 장치(예: 도 1의 전자 장치(101))의 프로세서((예: 도 1의 프로세서(120))는 상기 적어도 하나의 지점을 기준으로 상기 전체 영역 중 일부를 탐색 영역으로 결정할 수 있다.
콘텐트가 복수의 오브젝트를 포함하는 경우, 사용자에 의해 선택된 오브젝트 이외의 다른 오브젝트를 식별하는 것은 불필요할 수 있다. 다만, 콘텐트의 전체 영역을 탐색 영역으로 하면, 사용자가 선택하지 않은 오브젝트가 식별될 수 있다. 또한, 이로 인해 오브젝트들의 윤곽선 정보가 정확하게 반영되지 않을 수도 있다. 따라서, 프로세서는 사용자가 지정한 적어도 하나의 지점에 대응하는 오브젝트를 식별하기 위해서, 오브젝트를 탐색하는 영역을 전체 콘텐트의 영역 중 일부 영역으로 제한할 수 있다.
다양한 실시예들에 따르면, 프로세서는 사용자에 의해 선택된 오브젝트가 전체 콘텐트의 영역 중 얼마만큼의 영역에 걸쳐 존재할 수 있는 지를 예측하고 탐색 영역을 결정할 수 있다. 예를 들어, 프로세서(예: 도 1의 프로세서(120) 또는 도 2의 탐색 영역 결정부(210))는 콘텐트를 구성하는 픽셀들 또는 복수의 픽셀들을 포함하는 블록들 각각이 가지는 정보에 기반하여 인접한 픽셀들 또는 인접한 블록들의 상대적 변화를 확인할 수 있다. 또한, 이러한 픽셀들의 상대적 변화 또는 블록들의 상대적 변화에 기반하여 콘텐트와 관련된 엔트로피 맵을 획득할 수 있다. 한 실시예에 따르면, 프로세서는, 사용자가 지정한 지점과 대응하는 픽셀 또는 블록을 기준으로, 인접한 픽셀들 또는 블록들의 상대적 변화를 콘텐트에 순차적으로 반영함으로써 엔트로피 맵을 획득할 수도 있다.
엔트로피 맵이 획득되면, 프로세서는 다시 엔트로피 맵을 일정 기준에 따라 분할할 수 있다. 예를 들어, 프로세서는 엔트로피 맵을 5×5 단위 또는 3×3 단위 등 다양한 단위로 분할할 수 있다. 프로세서는 분할된 영역들 중 사용자에 의해 지정된 지점이 속하는 적어도 하나의 영역을 확인하고, 상기 확인된 적어도 하나의 영역에 대한 통계적 특성을 계산할 수 있다. 이후, 프로세서는 상기 확인된 적어도 하나의 영역과 유사한 통계적 특성을 가지는 다른 영역들을 확인할 수 있다.
프로세서는 사용자에 의해 지정된 지점이 속하는 적어도 하나의 영역 및 이와 유사한 통계적 특성을 가지는 다른 영역들을 포함하는 탐색 영역을 결정할 수 있다. 이때, 탐색 영역은 사용자에 의해 지정된 지점이 속하는 적어도 하나의 영역을 포함하는 하나의 형상으로 형성될 수 있다. 예를 들어, 통계적 특성이 유사한 어떤 영역이 탐색 영역과 분리되어 존재한다면, 이러한 영역은 탐색 영역에서 제외시킬 수 있다.
탐색 영역이 결정되면, 동작 340에서 전자 장치(예: 도 1의 전자 장치(101))의 프로세서((예: 도 1의 프로세서(120))는 상기 탐색 영역에 기반하여 상기 콘텐트와 관련된 특징 맵을 획득할 수 있다.
다양한 실시예들에 따르면, 프로세서는 탐색 영역 내 주요 영역을 나타내는 특징 맵을 획득할 수 있다. 프로세서(예: 도 1 의 프로세서(120) 또는 도 2의 주요 영역 검출부(220))는, 예를 들어, 탐색 영역에 머신러닝 알고리즘, 딥러닝 알고리즘 또는 이미지 프로세싱 알고리즘 등을 적용하여 주요 영역이 반영된 특징 맵을 획득할 수 있다. 주요 영역이란 탐색 영역 내 오브젝트들이 차지하는 적어도 일부 영역을 의미할 수 있다. 예를 들어, 픽셀들 각각에 특징 값을 부여하고, 미리 지정된 일정 값 이상의 특징 값을 가지는 픽셀들을 종합하면, 주요 영역을 획득할 수 있다.
다양한 실시예들예 따르면, 프로세서는 사용자가 지정한 지점에 기반하여 서로 다른 가중치를 적어도 일부 특징 맵에 적용시킬 수도 있다. 예를 들어, 프로세서는 사용자가 지정한 지점에 높은 가중치를 부여하고, 상기 사용자가 지정한 지점으로부터 멀어질수록 가중치가 낮아지는 가중치 매트릭스(weighting matrix)를 생성할 수 있다. 또한, 이러한 가중치 매트릭스를 적어도 일부 특징 맵에 적용하여 가중치가 적용된 특징 맵을 획득할 수 있다. 가중치가 적용된 특징 맵은 사용자가 지정한 지점에 대응하는 오브젝트가 주요 영역에 반영되도록 유도할 수 있다.
동작 350에서 전자 장치(예: 도 1의 전자 장치(101))의 프로세서((예: 도 1의 프로세서(120))는 콘텐트와 관련된 인덱스 맵을 획득할 지 결정할 수 있다.
다양한 실시예들에 따르면, 프로세서(예: 도 1의 프로세서(120) 또는 도 2의 영역 분할부(230))는 콘텐트를 미리 지정된 기준에 기반하여 유사 영역으로 분할할 수 있다. 프로세서는, 예를 들어, 콘텐트를 색상, 윤곽선 또는 콘트라스트(contrast) 기준으로 분석하고, 유사 영역들로 분할할 수 있다. 콘텐트를 유사 영역으로 분할하기 위해 프로세서는 콘텐트에 슈퍼 픽셀 알고리즘을 적용하고, 동일 또는 유사한 색상을 가지는 영역들로 콘텐트를 분할할 수 있다. 또한, 프로세서는 분할된 영역들 각각에 인덱스(index)를 부여함으로써 콘텐트와 관련된 인덱스 맵을 획득할 수 있다.
다양한 실시예에 따르면, 인덱스 맵을 획득하는 동작은 생략될 수 있다. 예를 들어, 콘텐트 내 오브젝트가 배경과 대비하여 명확하게 구별된다면, 인덱스 맵을 획득하지 않더라도 오브젝트를 식별할 수 있다. 또 다른 예로, 카메라의 프리뷰 이미지 내에서 오브젝트를 식별하고자 한다면, 처리 속도 및 전류 소모를 고려하여 인덱스 맵을 획득하지 않고 오브젝트를 식별할 수 있다. 따라서, 프로세서는 콘텐트와 관련된 인덱스 맵을 획득할지 결정하고, 결정 결과에 기반하여, 동작 360 또는 동작 370을 수행할 수 있다.
또한, 본 문서에서는 동작 350이 동작 330 이후에 수행되는 것처럼 설명하고 있으나, 한 실시예에 따르면, 전자 장치는 하나의 프로세서 또는 서로 다른 둘 이상의 프로세서를 이용하여 동작 330과 동작 350을 동시에 수행할 수도 있다.
콘텐트와 관련된 인덱스 맵을 획득하지 않는 것으로 결정되면, 동작 360에서 전자 장치(예: 도 1의 전자 장치(101))의 프로세서((예: 도 1의 프로세서(120))는 상기 특징 맵에 기반하여 사용자의 관심 영역을 결정할 수 있다. 예를 들어, 프로세서는 특징 맵에 기반하여 사용자의 관심 영역을 결정할 수 있다. 예를 들어, 특징 맵 내 주요 영역과 대응하는 영역을 사용자의 관심 영역으로 결정할 수 있다.
콘텐트와 관련된 인덱스 맵을 획득하는 것으로 결정되면, 동작 370에서 전자 장치(예: 도 1의 전자 장치(101))의 프로세서((예: 도 1의 프로세서(120))는 상기 특징 맵 및 상기 인덱스 맵에 기반하여 사용자의 관심 영역을 결정할 수 있다.다양한 실시예들에 따르면, 프로세서(도 1의 프로세서(120) 또는 도 2의 관심 영역 결정부(240))는 특징 맵(또는 가중치가 적용된 특징 맵)과 인덱스 맵을 중첩시킴으로써 오브젝트를 식별할 수 있다. 프로세서는, 예를 들어, 특징 맵 내 주요 영역과 중첩되는 인덱스 맵 내 유사 영역이 오브젝트 전부 또는 일부인지를 결정할 수 있다. 또한, 오브젝트의 일부라고 결정된 유사 영역들이 다수라면, 이러한 유사 영역들을 종합하여 하나의 오브젝트로 식별할 수 있다. 특징 맵은 오브젝트의 윤곽선 정보를 정확하게 반영하지 못하며, 인덱스 맵은 오브젝트의 형상 및 위치 정보를 정확하게 반영하지 못하기 때문에 상호 보완시킴으로써 사용자가 선택한 객체를 비교적 정확하게 식별할 수 있는 것이다.
다양한 실시예들에 따르면, 오브젝트를 식별한 프로세서는 상기 오브젝트를 포함하는 사용자의 관심 영역을 결정할 수 있다. 예를 들어, 오브젝트는 임의의 형상으로 형성될 수 있으므로, 프로세서는 식별된 오브젝트를 포함하는 사용자의 관심 영역을 결정할 수 있다. 또한, 프로세서는 사용자가 직관적으로 사용자의 관심 영역을 확인할 수 있도록 디스플레이를 이용하여 사용자의 관심 영역을 표시할 수 있다. 예를 들어, 사용자의 관심 영역에 윤곽선을 표시하여 디스플레이를 통해 출력할 수 있다.
도 4a 내지 4f는 오브젝트를 식별하는 일 예를 나타내는 도면이다.
도 4a를 참조하면, 전자 장치(예: 도 1의 전자 장치(101))의 프로세서((예: 도 1의 프로세서(120))는 디스플레이(예: 도 1의 표시 장치(160))를 이용하여, 적어도 하나의 오브젝트를 포함하는 콘텐트(401)를 출력할 수 있다. 콘텐트(401)는, 예를 들어, 제 1 오브젝트(411), 제 2 오브젝트(412), 제 3 오브젝트(413), 제 4 오브젝트(414) 및 제 5 오브젝트(415)를 포함할 수 있다. 사용자는, 제 1 오브젝트(411)를 선택하기 위해서, 제 1 오브젝트(411)를 형성하는 영역의 일 지점(421)을 펜(420) 또는 손가락을 이용하여 터치하거나 호버링할 수 있다. 또 어떤 실시예에서는, 비 접촉식 인식 기능 중 적어도 하나를 이용하여 제 1 오브젝트(411)를 형성하는 영역의 일 지점(421)을 지정할 수 있다.
도 4b를 참조하면, 전자 장치(예: 도 1의 전자 장치(101))의 프로세서((예: 도 1의 프로세서(120))는 상기 사용자가 지정한 일 지점(421)을 기준으로 콘텐트(401)의 전체 영역 중 일부를 탐색 영역으로 결정할 수 있다. 예를 들어, 전자 장치는 콘텐트(401)와 관련된 엔트로피 맵을 획득하고, 엔트로피 맵을 일정 기준에 따라 분할할 수 있다. 도 4b는 엔트로피 맵을 5×5 단위로 분할한 예를 나타내고 있으나, 이에 한정하는 것은 아니다. 전자 장치는 분할된 영역들 중 사용자에 의해 지정된 지점이 속하는 적어도 하나의 영역(430)을 확인하고, 상기 확인된 적어도 하나의 영역(430)에 대한 통계적 특성을 계산할 수 있다. 또한, 상기 확인된 적어도 하나의 영역과 유사한 통계적 특성을 가지는 다른 영역들(441)을 확인할 수 있다. 이후, 전자 장치는 사용자에 의해 지정된 지점이 속하는 적어도 하나의 영역(430) 및 이와 유사한 통계적 특성을 가지는 다른 영역들(441)을 포함하는 탐색 영역을 결정할 수 있다. 또한, 도 4b에서는 설명의 편의를 위하여 분할된 엔트로피 맵이 화면에 표시되는 것처럼 나타내고 있지만, 엔트로피 맵은 화면에 표시되지 않을 수 있다.
도 4c를 참조하면, 전자 장치(예: 도 1의 전자 장치(101))의 프로세서((예: 도 1의 프로세서(120))는 상기 탐색 영역(441)에 기반하여 상기 콘텐트(401)와 관련된 특징 맵을 획득할 수 있다. 예를 들어, 전자 장치는, 도 4c의 (a)에 도시된 것과 같이, 결정된 탐색 영역에 기반하여 주요 영역(450)이 반영된 특징 맵을 획득할 수 있다. 또 다른 예로, 전자 장치는, 적어도 일부 특징 맵에 가중치 매트릭스를 적용하여 가중치가 적용된 특징 맵을 획득할 수도 있다. 이후, 프로세서는, 도 4c의 (b)에 도시된 것과 같이, 탐색 영역에서 제외된 비 탐색 영역(442)을 도 4c의 (a)에서 획득한 특징 맵에 결합하여 전체 콘텐트와 동일한 크기를 가지는 특징 맵을 획득할 수 있다. 도 4c에서는 설명의 편의를 위하여 특징 맵이 화면에 표시되는 것처럼 나타내고 있지만, 특징 맵은 화면에 표시되지 않을 수 있다.
도 4d를 참조하면, 전자 장치(예: 도 1의 전자 장치(101))의 프로세서((예: 도 1의 프로세서(120))는 상기 콘텐트를 미리 지정된 기준에 기반하여 유사 영역으로 분할하여 상기 콘텐트와 관련된 인덱스 맵을 획득할 수 있다. 예를 들어, 전자 장치는 콘텐트의 전체 영역을 색상, 윤곽선 또는 콘트라스트(contrast) 기준으로 분석하고, 유사 영역들로 분할한 상기 콘텐트와 관련된 인덱스 맵을 획득할 수 있다. 도 4d에서는 설명의 편의를 위하여 인덱스 맵이 화면에 표시되는 것처럼 나타내고 있지만, 인덱스 맵은 화면에 표시되지 않을 수 있다.
도 4e를 참조하면, 전자 장치(예: 도 1의 전자 장치(101))의 프로세서((예: 도 1의 프로세서(120))는 상기 특징 맵 및 상기 인덱스 맵에 기반하여 오브젝트를 식별할 수 있다. 예를 들어, 특징 맵과 인덱스 맵을 중첩시킴으로써 오브젝트를 식별할 수 있다. 보다 구체적으로, 인덱스 맵으로부터 윤곽선 정보를 획득하고, 특징 맵으로부터 형상 및 위치 정보를 획득하여 사용자가 지정한 일 지점(421)과 대응하는 제 1 오브젝트(411)를 식별할 수 있다.
도 4f를 참조하면, 전자 장치(예: 도 1의 전자 장치(101))의 프로세서((예: 도 1의 프로세서(120))는 상기 식별된 오브젝트(411)에 기반하여 사용자의 관심 영역을(460) 결정할 수 있고, 이를 표시할 수도 있다. 사용자의 관심 영역(460)은 상기 식별된 오브젝트를 포함하는 다양한 형태로 나타낼 수 있다. 도 4f는 박스 형태의 사용자의 관심 영역을 나타내고 있지만, 이에 한정하는 것은 아니다.
도 5는 사용자 입력 전 제공된 관심 영역이 존재하는 경우를 나타내는 흐름도이다.
도 3에 있어서, 프로세서는, 동작 320을 수행하기 전, 상기 콘텐트의 주요 영역을 관심 영역으로 제공할 수 있다. 예를 들어, 전자 장치는 전체 콘텐트와 관련된 특징 맵을 획득하고, 전체 콘텐트에 대한 주요 영역을 포함하는 관심 영역을 사용자 입력의 수신 전에 미리 제공할 수 있다. 또 다른 예로, 사용자의 이전 입력에 기반하여 관심 영역이 결정되었다면, 미리 결정되었던 관심 영역을 다시 제공할 수도 있다. 이러한 경우, 도 3의 동작 320은 다음과 같은 동작들을 더 포함할 수 있다.
도 5를 참조하면, 동작 510에서 전자 장치(예: 도 1의 전자 장치(101))의 프로세서((예: 도 1의 프로세서(120))는 제공된 관심 영역이 존재하는지 여부를 확인할 수 있다.
제공된 관심 영역이 존재한다면, 동작 520에서 전자 장치(예: 도 1의 전자 장치(101))의 프로세서((예: 도 1의 프로세서(120))는 사용자 입력이 상기 제공된 관심 영역 내에서 수신되는 지를 확인할 수 있다. 예를 들어, 사용자는 제공된 관심 영역 내 적어도 하나의 오브젝트를 식별하고자 할 수 있다. 또 어떤 실시예에서는, 제공된 관심 영역 밖에 위치하는 다른 오브젝트를 식별하고자 할 수 있다. 프로세서는 이러한 사용자의 의도를 고려하여 탐색 영역을 결정하기 위해 사용자의 입력이 어디에서 수신되는지를 확인할 수 있다.
사용자 입력이 상기 제공된 관심 영역 내에서 수신되었다면, 동작 530에서 전자 장치(예: 도 1의 전자 장치(101))의 프로세서((예: 도 1의 프로세서(120))는 상기 제공된 관심 영역 이외의 영역을 비 탐색 영역으로 결정할 수 있다. 예를 들어, 프로세서는 사용자가 식별하고자 하는 오브젝트가 상기 제공된 관심 영역 내 내에 있다고 가정하고, 상기 제공된 관심 영역 이외의 영역은 오브젝트를 탐색하지 않을 수 있다.
다양한 실시예들에 따르면, 프로세서는 상기 제공된 관심 영역이 포함하는 영역을 탐색 영역으로 결정할 수 있다. 예를 들어, 제공된 관심 영역 내 주요 영역을 반영한 콘텐트와 관련된 특징 맵을 획득할 수 있다.
또 어떤 실시예에 따르면, 프로세서는 사용자 입력에 따라 지정된 적어도 하나의 지점을 기준으로 상기 제공된 관심 영역의 일부를 탐색 영역으로 결정할 수 있다. 예를 들어, 상기 제공된 관심 영역 내에서 엔트로피 맵을 획득하고, 상기 엔트로피 맵에 기반하여 탐색 영역을 결정할 수 있다.
사용자 입력이 상기 제공된 관심 영역 내에서 수신되지 않았다면, 동작 540에서 전자 장치(예: 도 1의 전자 장치(101))의 프로세서(예: 도 1의 프로세서(120))는 상기 제공된 관심 영역을 포함하는 상기 콘텐트의 적어도 일부 영역을 비 탐색 영역으로 결정할 수 있다. 예를 들어, 프로세서는 사용자가 특정하고자 하는 오브젝트가 상기 제공된 관심 영역 밖에 있다고 가정하고, 상기 미리 제공되는 관심 영역 내에서는 오브젝트를 탐색하지 않을 수 있다.
다양한 실시예들에 따르면, 비 탐색 영역은 제공된 관심 영역 이외의 영역을 일부 포함할 수 있다. 예를 들어, 사용자 입력이 제공된 관심 영역의 우측면 밖의 어느 지점에서 수신되었다면, 프로세서는 제공된 관심 영역의 좌측면 밖에는 사용자가 특정하고자 하는 오브젝트가 없다고 결정하고, 제공된 관심 영역의 좌측면 밖을 제공된 관심 영역과 함께 비 탐색 영역으로 결정할 수 있다. 또 어떤 실시예에서는, 제공된 관심 영역의 우측면 밖을 제외한 모든 영역을 비 탐색 영역으로 결정할 수도 있다.
비 탐색 영역이 결정되면, 전자 장치는 비 탐색 영역 이외의 영역을 탐색 영역으로 결정하고, 콘텐트와 관련된 특징 맵을 획득할 수 있다. 또 어떤 실시예에서는, 비 탐색 영역 이외의 영역에서 엔트로피 맵을 획득하고, 상기 엔트로피 맵에 기반하여 탐색 영역을 결정할 수도 있다.
도 6은 미리 제공되는 관심 영역의 일 예를 나타내는 도면이다.
전자 장치(예: 도 1의 전자 장치(101))의 프로세서(예: 도 1의 프로세서(120))는 디스플레이(예: 도 1의 표시 장치(160))를 이용하여, 적어도 하나의 오브젝트를 포함하는 콘텐트(601)를 출력할 수 있다. 콘텐트는, 예를 들어, 제 1 오브젝트(611), 제 2 오브젝트(612), 제 3 오브젝트(613), 제 4 오브젝트(614) 및 제 5 오브젝트(615)를 포함할 수 있다.
다양한 실시예들에 따르면, 프로세서는 콘텐트(601)의 전체 영역과 관련된 특징 맵을 획득하고, 콘텐트(601)의 전체 영역 내 주요 영역을 포함하는 관심 영역(620)을 사용자 입력을 수신하기 전 미리 제공할 수 있다. 콘텐트(601)의 전체 영역과 관련된 특징 맵은 사용자가 특정한 지점이 없으므로, 가중치 매트릭스를 획득할 수 없다. 또한, 콘텐트(601)의 전체 영역과 관련된 특징 맵은 윤곽선 정보가 정확하게 반영되지 않기 때문에 분리된 다수의 오브젝트들(예: 제 1 오브젝트(611), 제 2 오브젝트(612), 제 3 오브젝트(613))을 하나의 오브젝트로 인식할 수 있다.
도 7a 내지 도 7c는, 미리 제공되는 관심 영역 내에서 사용자 입력이 수신될 경우, 오브젝트를 식별하는 일 예를 나타내는 도면이다.
도 7a를 참조하면, 전자 장치(예: 도 1의 전자 장치(101))의 프로세서(예: 도 1의 프로세서(120))는 디스플레이(예: 도 1의 표시 장치(160))를 이용하여, 적어도 하나의 오브젝트를 포함하는 콘텐트(701)를 출력할 수 있다. 콘텐트(701)는, 예를 들어, 제 1 오브젝트(711), 제 2 오브젝트(712), 제 3 오브젝트(713), 제 4 오브젝트(714) 및 제 5 오브젝트(715)를 포함할 수 있다. 프로세서는 콘텐트(701)의 전체 영역과 관련된 특징 맵을 획득하고, 콘텐트(701)의 전체 영역 내 주요 영역을 포함하는 관심 영역(730)을 사용자 입력을 수신하기 전 미리 제공할 수 있다.
이후, 프로세서는, 적어도 하나의 지점을 지정하는 사용자 입력을 수신하고, 상기 사용자 입력이 상기 제공된 관심 영역(730) 내에서 수신되는지를 확인할 수 있다. 예를 들어, 사용자는 제공된 관심 영역(730) 내에 포함된 제 1 오브젝트(711)를 선택하기 위해서 제 1 오브젝트(711)가 형성하는 영역의 일 지점(721)을 펜(720) 또는 손가락을 이용하여 터치하거나 호버링할 수 있다. 또 어떤 실시예에서는, 비 접촉식 인식 기능 중 적어도 하나를 이용하여 제 1 오브젝트(711)를 형성하는 영역의 일 지점(721)을 지정할 수 있다. 이때, 전자 장치는 사용자 입력이 상기 미리 제공되는 관심 영역 내에서 수신되었음을 확인할 수 있다.
도 7b를 참조하면, 전자 장치(예: 도 1의 전자 장치(101))의 프로세서(예: 도 1의 프로세서(120))는 상기 제공된 관심 영역(730) 이외의 영역을 비 탐색 영역(741)으로 결정할 수 있다. 또한, 프로세서는 상기 제공된 관심 영역(730)을 탐색 영역(740)으로 결정할 수 있다. 어떤 실시예에 따르면, 전자 장치는 사용자 입력에 따라 지정된 적어도 하나의 지점을 기준으로 상기 제공된 관심 영역(730)의 적어도 일부 영역을 탐색 영역으로 결정할 수도 있다. 예를 들어, 상기 제공된 관심 영역(730) 내에서 상기 콘텐트와 관련된 엔트로피 맵을 획득하고, 상기 엔트로피 맵에 기반하여 탐색 영역을 결정할 수 있다.
도 7c를 참조하면, 탐색 영역을 결정한 전자 장치의 프로세서는 상기 탐색 영역에 기반하여 상기 콘텐트와 관련된 특징 맵을 획득하고 상기 특징 맵에 기반하여 제 1 오브젝트(711)를 포함하는 사용자의 관심 영역(750)을 결정할 수 있다. 또 어떤 실시예에서는, 상기 콘텐트(701)의 전체 영역을 미리 지정된 기준에 따라 유사 영역으로 분할한 상기 콘텐트와 관련된 인덱스 맵을 획득하고, 상기 특징 맵 및 상기 인덱스 맵에 기반하여 제 1 오브젝트(711)를 포함하는 사용자의 관심 영역(750)을 결정할 수 있다. 사용자의 관심 영역(750)은 상기 식별된 제 1 오브젝트(711)를 포함하는 다양한 형태로 나타낼 수 있다. 예를 들어, 도 7c는 박스 형태의 사용자의 관심 영역을 나타내고 있지만, 이에 한정하는 것은 아니다.
도 8a 내지 도 8c는, 미리 제공되는 관심 영역 밖에서 사용자 입력이 수신될 경우, 오브젝트를 식별하는 일 예를 나타내는 도면이다.
도 8a를 참조하면, 전자 장치(예: 도 1의 전자 장치(101))의 프로세서(예: 도 1의 프로세서(120))는 디스플레이(예: 도 1의 표시 장치(160))를 이용하여, 적어도 하나의 오브젝트를 포함하는 콘텐트(801)를 출력할 수 있다. 콘텐트(801)는, 예를 들어, 제 1 오브젝트(811), 제 2 오브젝트(812), 제 3 오브젝트(813), 제 4 오브젝트(814) 및 제 5 오브젝트(815)를 포함할 수 있다. 프로세서는 콘텐트(801)의 전체 영역과 관련된 특징 맵을 획득하고, 콘텐트(801)의 전체 영역 내 주요 영역을 포함하는 관심 영역(830)을 사용자 입력을 수신하기 전 미리 제공할 수 있다.
이후, 프로세서는, 적어도 하나의 지점을 지정하는 사용자 입력을 수신하고, 상기 사용자 입력이 상기 제공된 관심 영역(830) 내에서 수신되는지를 확인할 수 있다. 예를 들어, 사용자는 상기 제공된 관심 영역(830) 밖에 포함된 제 4 오브젝트(814)를 선택하기 위해서 제 4 오브젝트(814)가 형성하는 영역의 적어도 일 지점(821)을 펜(820) 또는 손가락을 이용하여 터치하거나 호버링할 수 있다. 또 어떤 실시예에서는, 비 접촉식 인식 기능 중 적어도 하나를 이용하여 제 4 오브젝트(814)를 형성하는 영역의 일 지점(821)을 지정할 수 있다. 이때, 프로세서는 사용자 입력이 상기 제공된 관심 영역(830) 밖에서 수신되었음을 확인할 수 있다.
도 8b를 참조하면, 전자 장치(예: 도 1의 전자 장치(101))의 프로세서(예: 도 1의 프로세서(120))는 상기 제공된 관심 영역(830)을 포함하는 적어도 일부 영역을 비 탐색 영역(841)으로 결정할 수 있다. 예를 들어, 프로세서는 사용자가 특정하고자 하는 오브젝트가 상기 제공된 관심 영역(830) 밖에 있다고 가정하고, 상기 제공된 관심 영역(830) 내에서는 오브젝트를 탐색하지 않을 수 있다. 도 8b는 전자 장치가 사용자 입력이 제공된 관심 영역(830)의 우측면 밖의 어느 지점에서 수신되었음을 인식하고, 제공된 관심 영역(830)의 우측면 밖을 제외한 모든 영역을 비 탐색 영역(841)으로 결정하는 예를 나타내고 있다. 또 어떤 실시예에서는, 제공된 관심 영역(830)만을 비 탐색 영역으로 결정할 수 있으며 제공된 관심 영역(830)의 좌측면 밖만을 미리 제공되는 관심 영역과 함께 비 탐색 영역으로 결정할 수도 있다.
비 탐색 영역(841)이 결정되면, 전자 장치는 비 탐색 영역(841) 이외의 영역을 탐색 영역(840)으로 결정하고, 콘텐트(801)와 관련된 특징 맵을 획득할 수 있다. 또 어떤 실시예에서는, 비 탐색 영역 이외의 영역에서 엔트로피 맵을 획득하고, 상기 엔트로피 맵에 기반하여 탐색 영역을 결정할 수도 있다.
도 8c를 참조하면, 탐색 영역을 결정한 전자 장치(예: 도 1의 전자 장치(101))의 프로세서(예: 도 1의 프로세서(120))는 상기 탐색 영역(840)에 기반하여 상기 콘텐트와 관련된 특징 맵을 획득하고 상기 특징 맵에 기반하여 사용자의 관심 영역(850)을 결정할 수 있다. 또 어떤 실시예에서는, 상기 콘텐트를 미리 지정된 기준에 따라 유사 영역으로 분할하여 상기 콘텐트와 관련된 인덱스 맵을 획득하고, 상기 특징 맵 및 상기 인덱스 맵에 기반하여 사용자의 관심 영역(850)을 결정할 수 있다. 사용자의 관심 영역(850)은 상기 식별된 오브젝트를 포함하는 다양한 형태로 나타낼 수 있다. 예를 들어, 도 8c는 박스 형태의 사용자의 관심 영역을 나타내고 있지만, 이에 한정하는 것은 아니다.
본 발명의 다양한 실시예들에 따른 관심 영역을 설정하여 오브젝트를 식별하는 방법은, 디스플레이를 이용하여, 적어도 하나의 오브젝트를 포함하는 콘텐트를 출력하는 동작(예: 도 3의 동작 310), 상기 콘텐트의 전체 영역 중 적어도 하나의 지점을 지정하는 사용자 입력을 수신하는 동작(예: 도 3의 동작 320), 상기 적어도 하나의 지점을 기준으로 상기 전제 영역 중 일부를 탐색 영역으로 결정하는 동작(예: 도 3의 동작 330), 상기 탐색 영역에 기반하여 상기 콘텐트와 관련된 특징 맵(saliency map)을 획득하는 동작(예: 도 3의 동작 340), 및 상기 특징 맵에 기반하여 사용자의 관심 영역을 결정하는 동작(예: 도 3의 동작 360)을 포함할 수 있다.
본 발명의 다양한 실시예들에 따른 관심 영역을 설정하여 오브젝트를 식별하는 방법은, 상기 콘텐트의 전체 영역을 미리 지정된 기준에 기반하여 유사 영역으로 분할한 상기 콘텐트와 관련된 인덱스 맵(index map)을 획득하는 동작(예: 도 3의 동작 350)을 더 포함하고, 상기 사용자의 관심 영역은 상기 특징 맵 및 상기 인덱스 맵에 기반하여 결정(예: 도 3의 동작 370)되는 것을 특징으로 할 수 있다.
본 발명의 다양한 실시예들에 따른 관심 영역을 설정하여 오브젝트를 식별하는 방법은, 상기 콘텐트를 구성하는 하나 이상의 픽셀들 또는 복수의 픽셀들을 포함하는 블록들의 상대적 변화를 확인하고, 상기 상대적 변화에 기반하여 상기 콘텐트와 관련된 엔트로피 맵(entropy map)을 획득하는 동작을 더 포함할 수 있다.
본 발명의 다양한 실시예들에 따른 관심 영역을 설정하여 오브젝트를 식별하는 방법은, 상기 엔트로피 맵을 일정 기준에 따라 분할하는 동작, 상기 사용자에 의해 지정된 지점이 속하는 적어도 하나의 영역을 확인하는 동작,상기 확인된 적어도 하나의 영역에 대한 통계적 특성을 계산하는 동작, 상기 확인된 적어도 하나의 영역과 유사한 통계적 특성을 가지는 다른 영역들을 확인하는 동작, 및 상기 확인된 적어도 하나의 영역 및 상기 확인된 다른 영역들을 포함하는 탐색 영역을 결정하는 동작을 더 포함할 수 있다.
본 발명의 다양한 실시예들에 따른 관심 영역을 설정하여 오브젝트를 식별하는 방법은, 상기 사용자가 지정한 지점에 기반하여 가중치 매트릭스(weighting matrix)를 생성하는 동작, 상기 가중치 매트릭스를 적어도 일부 상기 특징 맵에 적용하여 가중치가 적용된 특징 맵을 획득하는 동작을 더 포함할 수 있다.
본 발명의 다양한 실시예들에 따른 관심 영역을 설정하여 오브젝트를 식별하는 방법의 상기 미리 지정된 기준은 색상, 윤곽선 또는 콘트라스트(contrast) 중 적어도 하나의 기준을 포함하는 것을 특징으로 할 수 있다.
본 발명의 다양한 실시예들에 따른 관심 영역을 설정하여 오브젝트를 식별하는 방법은, 상기 특징 맵 내 주요 영역 및 상기 인덱스 맵 내 유사 영역을 중첩시켜 상기 사용자가 지정한 지점에 따른 오브젝트를 식별하는 동작을 더 포함할 수 있다.
본 발명의 다양한 실시예들에 따른 관심 영역을 설정하여 오브젝트를 식별하는 방법은, 상기 콘텐트의 주요 영역을 관심 영역으로 제공하는 동작(예: 도 5의 동작 510), 및 상기 사용자 입력이 상기 제공된 관심 영역 내에서 수신되었을 경우, 상기 제공된 관심 영역 이외의 영역을 비 탐색 영역으로 결정하는 동작(예: 도 5의 동작 530)을 더 포함할 수 있다.
본 발명의 다양한 실시예들에 따른 관심 영역을 설정하여 오브젝트를 식별하는 방법은, 상기 콘텐트의 주요 영역을 관심 영역으로 제공하는 동작(예: 도 5의 동작 510), 및 상기 사용자 입력이 상기 제공된 관심 영역 내에서 수신되지 않았을 경우, 상기 제공된 관심 영역을 포함하는 상기 콘텐트의 적어도 일부 영역을 비 탐색 영역으로 결정하는 동작(예: 도 5의 동작 540)을 더 포함할 수 있다.
본 발명의 다양한 실시예들에 따른 관심 영역을 설정하여 오브젝트를 식별하는 방법의 상기 사용자 입력은 신체의 적어도 일부 또는 펜을 이용한 터치 입력, 상기 신체의 적어도 일부 또는 상기 펜을 이용한 호버링 입력 또는 비 접촉식 인식 기능 중 적어도 하나를 이용한 입력을 포함하는 것을 특징으로 할 수 있다.
본 문서에 개시된 다양한 실시예들에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치 (예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 또는 가전 장치 중 적어도 하나를 포함할 수 있다. 본 문서의 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.
본 문서의 다양한 실시예들 및 이에 사용된 용어들은 본 문서에 기재된 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 및/또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및/또는 B 중 적어도 하나", "A, B 또는 C" 또는 "A, B 및/또는 C 중 적어도 하나" 등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", "첫째" 또는 "둘째" 등의 표현들은 해당 구성요소들을, 순서 또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에 "(기능적으로 또는 통신적으로) 연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제 3 구성요소)를 통하여 연결될 수 있다.
본 문서에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구성된 유닛을 포함하며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로 등의 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 모듈은 ASIC(application-specific integrated circuit)으로 구성될 수 있다.
본 문서의 다양한 실시예들은 기기(machine)(예: 컴퓨터)로 읽을 수 있는 저장 매체(machine-readable storage media)(예: 내장 메모리(136) 또는 외장 메모리(138))에 저장된 명령어를 포함하는 소프트웨어(예: 프로그램(140))로 구현될 수 있다. 기기는, 저장 매체로부터 저장된 명령어를 호출하고, 호출된 명령어에 따라 동작이 가능한 장치로서, 개시된 실시예들에 따른 전자 장치(예: 전자 장치(101))를 포함할 수 있다. 상기 명령이 프로세서(예: 프로세서(120))에 의해 실행될 경우, 프로세서가 직접, 또는 상기 프로세서의 제어하에 다른 구성요소들을 이용하여 상기 명령에 해당하는 기능을 수행할 수 있다. 명령은 컴파일러 또는 인터프리터에 의해 생성 또는 실행되는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장매체는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, '비일시적'은 저장매체가 신호(signal)를 포함하지 않으며 실재(tangible)한다는 것을 의미할 뿐 데이터가 저장매체에 반영구적 또는 임시적으로 저장됨을 구분하지 않는다.
일시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 온라인으로 배포될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.
다양한 실시예들에 따른 구성 요소(예: 모듈 또는 프로그램) 각각은 단수 또는 복수의 개체로 구성될 수 있으며, 전술한 해당 서브 구성 요소들 중 일부 서브 구성 요소가 생략되거나, 또는 다른 서브 구성 요소가 다양한 실시예에 더 포함될 수 있다. 대체적으로 또는 추가적으로, 일부 구성 요소들(예: 모듈 또는 프로그램)은 하나의 개체로 통합되어, 통합되기 이전의 각각의 해당 구성 요소에 의해 수행되는 기능을 동일 또는 유사하게 수행할 수 있다. 다양한 실시예들에 따른, 모듈, 프로그램 또는 다른 구성 요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱하게 실행되거나, 적어도 일부 동작이 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다.

Claims (20)

  1. 전자 장치에 있어서,
    디스플레이; 및
    상기 디스플레이와 기능적으로 연결된 프로세서를 포함하고, 상기 프로세서는,
    상기 디스플레이를 이용하여, 적어도 하나의 오브젝트를 포함하는 콘텐트를 출력하고;
    상기 콘텐트의 전체 영역 중 적어도 하나의 지점을 지정하는 사용자 입력을 수신하고;
    상기 적어도 하나의 지점을 기준으로 상기 전체 영역 중 일부를 탐색 영역으로 결정하고;
    상기 탐색 영역에 기반하여 상기 콘텐트와 관련된 특징 맵(saliency map)을 획득하고; 및
    상기 콘텐트의 전체 영역을 미리 지정된 기준에 기반하여 유사 영역으로 분할한 상기 콘텐트와 관련된 인덱스 맵(index map)을 획득하고;
    상기 사용자의 관심 영역은
    상기 특징 맵 및 상기 인덱스 맵에 기반하여 결정되는 것을 특징으로 하는 전자 장치.

  2. 삭제
  3. 제 1 항에 있어서, 상기 프로세서는,
    상기 콘텐트를 구성하는 하나 이상의 픽셀들 또는 복수의 픽셀들을 포함하는 블록들의 상대적 변화를 확인하고, 상기 상대적 변화에 기반하여 상기 콘텐트와 관련된 엔트로피 맵(entropy map)을 획득하도록 설정된 전자 장치.
  4. 제 3 항에 있어서, 상기 프로세서는,
    상기 엔트로피 맵을 일정 기준에 따라 분할하고,
    상기 사용자에 의해 지정된 지점이 속하는 적어도 하나의 영역을 확인하고,
    상기 확인된 적어도 하나의 영역에 대한 통계적 특성을 계산하고,
    상기 확인된 적어도 하나의 영역과 유사한 통계적 특성을 가지는 다른 영역들을 확인하고, 및
    상기 확인된 적어도 하나의 영역 및 상기 확인된 다른 영역들을 포함하는 탐색 영역을 결정하도록 설정된 전자 장치.
  5. 제 1 항에 있어서, 상기 프로세서는,
    상기 사용자가 지정한 지점에 기반하여 가중치 매트릭스(weighting matrix)를 생성하고,
    상기 가중치 매트릭스를 적어도 일부 상기 특징 맵에 적용하여 가중치가 적용된 특징 맵을 획득하도록 설정된 전자 장치.
  6. 제 1 항에 있어서,
    상기 미리 지정된 기준은 색상, 윤곽선 또는 콘트라스트(contrast) 중 적어도 하나의 기준을 포함하는 것을 특징으로 하는 전자 장치.
  7. 제 1 항에 있어서, 상기 프로세서는,
    상기 특징 맵 내 주요 영역 및 상기 인덱스 맵 내 유사 영역을 중첩시켜 상기 사용자가 지정한 지점에 따른 오브젝트를 식별하도록 설정된 전자 장치.
  8. 제 1 항에 있어서, 상기 프로세서는,
    상기 콘텐트의 주요 영역을 관심 영역으로 제공하고, 및
    상기 사용자 입력이 상기 제공된 관심 영역 내에서 수신되었을 경우, 상기 제공된 관심 영역 이외의 영역을 비 탐색 영역으로 결정하도록 설정된 전자 장치.
  9. 제 1 항에 있어서, 상기 프로세서는,
    상기 콘텐트의 주요 영역을 관심 영역으로 제공하고, 및
    상기 사용자 입력이 상기 제공된 관심 영역 내에서 수신되지 않았을 경우, 상기 제공된 관심 영역을 포함하는 상기 콘텐트의 적어도 일부 영역을 비 탐색 영역으로 결정하도록 설정된 전자 장치.
  10. 제 1 항에 있어서,
    상기 사용자 입력은 신체의 적어도 일부 또는 펜을 이용한 터치 입력, 상기 신체의 적어도 일부 또는 상기 펜을 이용한 호버링 입력 또는 비 접촉식 인식 기능 중 적어도 하나를 이용한 입력을 포함하는 것을 특징으로 하는 전자 장치.
  11. 관심 영역을 설정하여 오브젝트를 식별하는 방법에 있어서,
    디스플레이를 이용하여, 적어도 하나의 오브젝트를 포함하는 콘텐트를 출력하는 동작;
    상기 콘텐트의 전체 영역 중 적어도 하나의 지점을 지정하는 사용자 입력을 수신하는 동작;
    상기 적어도 하나의 지점을 기준으로 상기 전체 영역 중 일부를 탐색 영역으로 결정하는 동작;
    상기 탐색 영역에 기반하여 상기 콘텐트와 관련된 특징 맵(saliency map)을 획득하는 동작; 및
    상기 콘텐트의 전체 영역을 미리 지정된 기준에 기반하여 유사 영역으로 분할한 상기 콘텐트와 관련된 인덱스 맵(index map)을 획득하는 동작을 더 포함하고,
    상기 사용자의 관심 영역은 상기 특징 맵 및 상기 인덱스 맵에 기반하여 결정되는 것을 특징으로 하는 방법.
  12. 삭제
  13. ◈청구항 13은(는) 설정등록료 납부시 포기되었습니다.◈
    제 11 항에 있어서,
    상기 콘텐트를 구성하는 하나 이상의 픽셀들 또는 복수의 픽셀들을 포함하는 블록들의 상대적 변화를 확인하고, 상기 상대적 변화에 기반하여 상기 콘텐트와 관련된 엔트로피 맵(entropy map)을 획득하는 동작을 더 포함하는 방법.
  14. ◈청구항 14은(는) 설정등록료 납부시 포기되었습니다.◈
    제 13 항에 있어서,
    상기 엔트로피 맵을 일정 기준에 따라 분할하는 동작;
    상기 사용자에 의해 지정된 지점이 속하는 적어도 하나의 영역을 확인하는 동작;
    상기 확인된 적어도 하나의 영역에 대한 통계적 특성을 계산하는 동작;
    상기 확인된 적어도 하나의 영역과 유사한 통계적 특성을 가지는 다른 영역들을 확인하는 동작; 및
    상기 확인된 적어도 하나의 영역 및 상기 확인된 다른 영역들을 포함하는 탐색 영역을 결정하는 동작을 더 포함하는 방법.
  15. ◈청구항 15은(는) 설정등록료 납부시 포기되었습니다.◈
    제 13 항에 있어서,
    상기 사용자가 지정한 지점에 기반하여 가중치 매트릭스(weighting matrix)를 생성하는 동작; 및
    상기 가중치 매트릭스를 적어도 일부 상기 특징 맵에 적용하여 가중치가 적용된 특징 맵을 획득하는 동작을 더 포함하는 방법.
  16. ◈청구항 16은(는) 설정등록료 납부시 포기되었습니다.◈
    제 11 항에 있어서,
    상기 미리 지정된 기준은 색상, 윤곽선 또는 콘트라스트(contrast) 중 적어도 하나의 기준을 포함하는 것을 특징으로 하는 방법.
  17. ◈청구항 17은(는) 설정등록료 납부시 포기되었습니다.◈
    제 11 항에 있어서,
    상기 특징 맵 내 주요 영역 및 상기 인덱스 맵 내 유사 영역을 중첩시켜 상기 사용자가 지정한 지점에 따른 오브젝트를 식별하는 동작을 더 포함하는 방법.
  18. ◈청구항 18은(는) 설정등록료 납부시 포기되었습니다.◈
    제 11 항에 있어서,
    상기 콘텐트의 주요 영역을 관심 영역으로 제공하는 동작; 및
    상기 사용자 입력이 상기 제공된 관심 영역 내에서 수신되었을 경우, 상기 제공된 관심 영역 이외의 영역을 비 탐색 영역으로 결정하는 동작을 더 포함하는 방법.
  19. ◈청구항 19은(는) 설정등록료 납부시 포기되었습니다.◈
    제 11 항에 있어서,
    상기 콘텐트의 주요 영역을 관심 영역으로 제공하는 동작; 및
    상기 사용자 입력이 상기 제공된 관심 영역 내에서 수신되지 않았을 경우, 상기 제공된 관심 영역을 포함하는 상기 콘텐트의 적어도 일부 영역을 비 탐색 영역으로 결정하는 동작을 더 포함하는 방법.
  20. ◈청구항 20은(는) 설정등록료 납부시 포기되었습니다.◈
    제 11 항에 있어서,
    상기 사용자 입력은 신체의 적어도 일부 또는 펜을 이용한 터치 입력, 상기 신체의 적어도 일부 또는 상기 펜을 이용한 호버링 입력 또는 비 접촉식 인식 기능 중 적어도 하나를 이용한 입력을 포함하는 것을 특징으로 하는 방법.
KR1020170106133A 2017-08-22 2017-08-22 전자 장치 및 이를 이용하여 관심 영역을 설정하여 오브젝트를 식별하는 방법 KR102498597B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020170106133A KR102498597B1 (ko) 2017-08-22 2017-08-22 전자 장치 및 이를 이용하여 관심 영역을 설정하여 오브젝트를 식별하는 방법
US16/108,980 US10769475B2 (en) 2017-08-22 2018-08-22 Method of identifying objects based on region of interest and electronic device supporting the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170106133A KR102498597B1 (ko) 2017-08-22 2017-08-22 전자 장치 및 이를 이용하여 관심 영역을 설정하여 오브젝트를 식별하는 방법

Publications (2)

Publication Number Publication Date
KR20190021049A KR20190021049A (ko) 2019-03-05
KR102498597B1 true KR102498597B1 (ko) 2023-02-14

Family

ID=65435297

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170106133A KR102498597B1 (ko) 2017-08-22 2017-08-22 전자 장치 및 이를 이용하여 관심 영역을 설정하여 오브젝트를 식별하는 방법

Country Status (2)

Country Link
US (1) US10769475B2 (ko)
KR (1) KR102498597B1 (ko)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102283452B1 (ko) * 2019-09-05 2021-07-30 강원대학교산학협력단 작물 이미지의 병해충 검출 방법 및 장치
CN110933446B (zh) * 2019-11-15 2021-05-25 网宿科技股份有限公司 一种感兴趣区域的识别方法、系统及设备
CN110996099B (zh) * 2019-11-15 2021-05-25 网宿科技股份有限公司 一种视频编码方法、系统及设备
CN112765975B (zh) * 2020-12-25 2023-08-04 北京百度网讯科技有限公司 分词岐义处理方法、装置、设备以及介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160360267A1 (en) * 2014-01-14 2016-12-08 Alcatel Lucent Process for increasing the quality of experience for users that watch on their terminals a high definition video stream

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100327103B1 (ko) 1998-06-03 2002-09-17 한국전자통신연구원 사용자의조력및물체추적에의한영상객체분할방법
KR100866963B1 (ko) * 2007-03-12 2008-11-05 삼성전자주식회사 수평 방향의 기울어짐 왜곡과 수직 방향의 스케일링 왜곡을보정할 수 있는 디지털 영상 안정화 방법
US8132096B1 (en) * 2007-03-26 2012-03-06 Hewlett-Packard Development Company, L.P. Image composition evaluation
US8005264B2 (en) * 2008-06-09 2011-08-23 Arcsoft, Inc. Method of automatically detecting and tracking successive frames in a region of interesting by an electronic imaging device
US8369652B1 (en) * 2008-06-16 2013-02-05 Hrl Laboratories, Llc Visual attention system for salient regions in imagery
US8374436B2 (en) * 2008-06-30 2013-02-12 Thomson Licensing Method for detecting layout areas in a video image and method for generating an image of reduced size using the detection method
KR20110129158A (ko) 2010-05-25 2011-12-01 경북대학교 산학협력단 영상 처리 시스템에서의 객체 후보 영역 검출 방법 및 시스템
US8560517B2 (en) * 2011-07-05 2013-10-15 Microsoft Corporation Object retrieval using visual query context
US8873845B2 (en) * 2012-08-08 2014-10-28 Microsoft Corporation Contextual dominant color name extraction
US20150178786A1 (en) * 2012-12-25 2015-06-25 Catharina A.J. Claessens Pictollage: Image-Based Contextual Advertising Through Programmatically Composed Collages
US20140269901A1 (en) * 2013-03-13 2014-09-18 Magnum Semiconductor, Inc. Method and apparatus for perceptual macroblock quantization parameter decision to improve subjective visual quality of a video signal
US20140307076A1 (en) * 2013-10-03 2014-10-16 Richard Deutsch Systems and methods for monitoring personal protection equipment and promoting worker safety
KR20150120774A (ko) * 2014-04-18 2015-10-28 삼성전자주식회사 관심영역 검출 시스템 및 방법
US11151630B2 (en) * 2014-07-07 2021-10-19 Verizon Media Inc. On-line product related recommendations
US9870617B2 (en) * 2014-09-19 2018-01-16 Brain Corporation Apparatus and methods for saliency detection based on color occurrence analysis
US9507506B2 (en) * 2014-11-13 2016-11-29 Interactive Memories, Inc. Automatic target box in methods and systems for editing content-rich layouts in media-based projects
US9329762B1 (en) * 2015-06-02 2016-05-03 Interactive Memories, Inc. Methods and systems for reversing editing operations in media-rich projects
US10489691B2 (en) * 2016-01-15 2019-11-26 Ford Global Technologies, Llc Fixation generation for machine learning
US11075992B2 (en) * 2016-07-28 2021-07-27 International Business Machines Corporation System and method for providing medical attention
JP6798183B2 (ja) * 2016-08-04 2020-12-09 株式会社リコー 画像解析装置、画像解析方法およびプログラム

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160360267A1 (en) * 2014-01-14 2016-12-08 Alcatel Lucent Process for increasing the quality of experience for users that watch on their terminals a high definition video stream

Also Published As

Publication number Publication date
US10769475B2 (en) 2020-09-08
KR20190021049A (ko) 2019-03-05
US20190065879A1 (en) 2019-02-28

Similar Documents

Publication Publication Date Title
KR102498597B1 (ko) 전자 장치 및 이를 이용하여 관심 영역을 설정하여 오브젝트를 식별하는 방법
KR102500666B1 (ko) 입력 인터페이스를 구성하는 방법 및 이를 사용하는 전자 장치
US11416080B2 (en) User intention-based gesture recognition method and apparatus
US11189102B2 (en) Electronic device for displaying object for augmented reality and operation method therefor
US11461949B2 (en) Electronic device for providing avatar and operating method thereof
US11017263B2 (en) Apparatus and method for recognizing object in image
KR102665643B1 (ko) 아바타 표시를 제어하기 위한 방법 및 그 전자 장치
KR102423295B1 (ko) 심도 맵을 이용하여 객체를 합성하기 위한 장치 및 그에 관한 방법
KR102543695B1 (ko) 영상 처리 방법 및 이를 지원하는 전자 장치
US11580889B2 (en) Electronic device, method, and computer-readable medium for displaying screen in deformable display panel
KR102646344B1 (ko) 이미지를 합성하기 위한 전자 장치 및 그의 동작 방법
US20230074380A1 (en) Electronic device for providing augmented reality service and operating method thereof
CN111684782B (zh) 电子设备及其控制方法
US20200202114A1 (en) Electronic device for tracking user activity and method of operating the same
KR102500145B1 (ko) 전자 장치 및 전자 장치의 컨텐트 전송 방법
US11189067B2 (en) Electronic device and content generation method
US20200341629A1 (en) Electronic device including display device including touch sensor
US11392282B2 (en) Electronic device for providing graphical content and method for controlling same
KR102592124B1 (ko) 수평 동기화 신호에 기반하여 업 스케일링을 수행하는 시간 구간을 확장하기 위한 전자 장치 및 방법
US11144791B2 (en) Electronic apparatus for recognizing user and controlling method thereof
US11221761B2 (en) Electronic device for controlling operation by using display comprising restriction area, and operation method therefor
US11042223B2 (en) Electronic device for recognizing user's gesture
US11062485B2 (en) Display processing method and device for applying an attribute of a reference image to a target image
KR20210012562A (ko) 아바타를 제공하는 전자 장치 및 그의 동작 방법

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant