KR102465039B1 - 사용자 인터랙션을 검출하는 방법 및 이를 지원하는 전자 장치 - Google Patents

사용자 인터랙션을 검출하는 방법 및 이를 지원하는 전자 장치 Download PDF

Info

Publication number
KR102465039B1
KR102465039B1 KR1020210193214A KR20210193214A KR102465039B1 KR 102465039 B1 KR102465039 B1 KR 102465039B1 KR 1020210193214 A KR1020210193214 A KR 1020210193214A KR 20210193214 A KR20210193214 A KR 20210193214A KR 102465039 B1 KR102465039 B1 KR 102465039B1
Authority
KR
South Korea
Prior art keywords
area
processor
changed
electronic device
image
Prior art date
Application number
KR1020210193214A
Other languages
English (en)
Other versions
KR102465039B9 (ko
Inventor
박정욱
황명현
임서영
최정우
서영선
Original Assignee
(주)웅진씽크빅
주식회사 아티젠스페이스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)웅진씽크빅, 주식회사 아티젠스페이스 filed Critical (주)웅진씽크빅
Priority to KR1020210193214A priority Critical patent/KR102465039B1/ko
Priority to KR1020220128904A priority patent/KR20230103921A/ko
Application granted granted Critical
Publication of KR102465039B1 publication Critical patent/KR102465039B1/ko
Priority to US18/146,632 priority patent/US20230215218A1/en
Publication of KR102465039B9 publication Critical patent/KR102465039B9/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces
    • G06F9/453Help systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/40Document-oriented image-based pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/40Document-oriented image-based pattern recognition
    • G06V30/41Analysis of document content
    • G06V30/418Document matching, e.g. of document images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/13Type of disclosure document
    • G06V2201/131Book
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/113Recognition of static hand signs

Abstract

다양한 실시예들에 따른 전자 장치에서 사용자 인터랙션을 검출하는 방법은, 카메라를 통하여, 적어도 하나의 제 1 영역을 포함하는 문서의 제 1 이미지를 획득하는 동작, 상기 적어도 하나의 제 1 영역에 대응하고 상기 제 1 이미지에 포함된 적어도 하나의 제 1 부분이 변화하는지 여부를 결정하는 동작, 및 상기 적어도 하나의 제 1 부분이 변화됨을 결정함에 기반하여, 상기 적어도 하나의 제 1 부분에 대응하는 상기 전자 장치의 기능을 수행하는 동작을 포함할 수 있다.

Description

사용자 인터랙션을 검출하는 방법 및 이를 지원하는 전자 장치{METHOD FOR DETECTING USER INTERACTION AND ELECTRONIC DEVICE SUPPORTING THE SAME}
본 개시의 다양한 실시예들은, 사용자 인터랙션을 검출하는 방법 및 이를 지원하는 전자 장치에 관한 것이다.
스마트 폰(smart phone), 태블릿(tablet) 과 같은 전자 장치가 광범위하게 보급되고 있다. 전자 장치는, 디스플레이를 통하여, 사용자에게 다양한 콘텐트를 제공할 수 있다. 예를 들어, 전자 장치는, 실물 도서에 포함된 내용물과 실질적으로 동일한, 텍스트 및/또는 이미지를 포함하는 전자 도서를 제공할 수 있다.
전자 장치는, 디스플레이를 통하여 전자 도서를 표시하는 동안, 사용자 입력에 기반하여, 기능을 수행할 수 있다. 예를 들어, 전자 장치는, 영어 단어를 포함하는 전자 도서를 표시하는 동안, 영어 단어가 표시된 영역에 대한 사용자 입력에 기반하여, 영어 단어의 발음 및/또는 영어 단어의 뜻을 오디오 장치를 통하여 출력할 수 있다.
또한, 전자 장치는, 실물 도서가 전자 장치의 카메라의 화각 범위 내에 위치하는 경우, 카메라를 통하여 실물 도서의 이미지를 획득할 수 있다. 전자 장치는, 획득된 실물 도서의 이미지와 관련된 이미지를 전자 장치의 디스플레이를 통하여 표시할 수 있다.
한국등록특허 제10-1587471호
전자 장치는, 전자 장치의 카메라의 화각 범위 내에 위치하는 실물 도서의 이미지와 관련되고 디스플레이를 통하여 표시되는 이미지(예: 실물 도서의 이미지와 실질적으로 동일한 이미지)에 대한 사용자 입력에 기반하여, 기능을 수행할 수 있다.
전자 장치는, 상기 실물 도서에 대한 사용자의 인터랙션(interaction)(예: 사용자가 손가락을 이용하여 실물 도서와 접촉하는 행위)에 기반하여, 기능을 수행하기 어려울 수 있다.
본 개시의 다양한 실시예들은, 문서(예: 실물 도서)에 대한 사용자 인터랙션에 기반하여, 전자 장치가 기능을 제공하도록 하는, 사용자 인터랙션을 검출하는 방법 및 이를 지원하는 전자 장치에 관한 것이다.
본 개시가 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
다양한 실시예들에 따른 전자 장치에서 사용자 인터랙션을 검출하는 방법은, 카메라를 통하여, 적어도 하나의 제 1 영역을 포함하는 문서의 제 1 이미지를 획득하는 동작, 상기 적어도 하나의 제 1 영역에 대응하고 상기 제 1 이미지에 포함된 적어도 하나의 제 1 부분이 변화하는지 여부를 결정하는 동작, 및 상기 적어도 하나의 제 1 부분이 변화됨을 결정함에 기반하여, 상기 적어도 하나의 제 1 부분에 대응하는 상기 전자 장치의 기능을 수행하는 동작을 포함할 수 있다.
다양한 실시예들에 따른 프로세서에 의해 실행 가능한 프로그램 코드를 저장하는 비일시적 컴퓨터 판독가능 매체는, 상기 프로그램 코드가 실행되는 경우 상기 프로그램 코드는 상기 프로세서가, 카메라를 통하여, 적어도 하나의 제 1 영역을 포함하는 문서의 제 1 이미지를 획득하고, 상기 적어도 하나의 제 1 영역에 대응하고 상기 제 1 이미지에 포함된 적어도 하나의 제 1 부분이 변화하는지 여부를 결정하고, 및 상기 적어도 하나의 제 1 부분이 변화됨을 결정함에 기반하여, 상기 적어도 하나의 제 1 부분에 대응하는 상기 전자 장치의 기능을 수행하도록 구성될 수 있다.
다양한 실시예에 따른 사용자 인터랙션을 검출하는 방법 및 이를 지원하는 전자 장치는, 문서(예: 실물 도서)에 대한 사용자 인터랙션에 기반하여, 전자 장치가 기능을 제공하도록 할 수 있다.
도 1은, 다양한 실시예들에 따른, 사용자 인터랙션을 검출하는 방법을 설명하기 위한 도면이다.
도 2는, 다양한 실시예들에 따른, 전자 장치의 블록도이다.
도 3은, 다양한 실시예들에 따른, 사용자 인터랙션을 검출하는 방법을 설명하기 위한 흐름도이다.
도 4는, 다양한 실시예들에 따른, 적어도 하나의 제 1 영역에 대한 사용자 인터랙션에 기반하여 전자 장치의 기능을 수행하는 방법을 설명하기 위한 예시도이다.
도 5는, 다양한 실시예들에 따른, 적어도 하나의 제 1 영역에 대하여 연속적으로 입력되는 터치를 검출하는 방법을 설명하기 위한 예시도이다.
도 6은, 다양한 실시예들에 따른, 적어도 하나의 제 1 영역에 대한 더블 터치를 검출하는 방법을 설명하기 위한 예시도이다.
도 7은, 다양한 실시예들에 따른, 적어도 하나의 제 1 부분의 형태에 기반하여, 사용자 인터랙션을 검출하는 방법을 설명하기 위한 예시도이다.
도 8은, 다양한 실시예들에 따른, 복수의 제 1 영역들에 대한 사용자 인터랙션에 기반하여 전자 장치의 기능을 수행하는 방법을 설명하기 위한 예시도이다.
도 9는, 다양한 실시예들에 따른, 사용자 인터랙션을 검출하는 방법을 설명하기 위한 흐름도이다.
도 10은, 다양한 실시예들에 따른, 사용자 인터랙션을 검출하는 방법을 설명하기 위한 예시도이다.
도 11은, 다양한 실시예들에 따른, 사용자 인터랙션을 검출하는 방법을 설명하기 위한 흐름도이다.
도 12는, 다양한 실시예들에 따른, 사용자 인터랙션을 검출하는 방법을 설명하기 위한 예시도이다.
도 13은, 다양한 실시예들에 따른, 사용자 인터랙션을 검출하는 방법을 설명하기 위한 예시도이다.
도 14는, 다양한 실시예들에 따른, 사용자 인터랙션을 검출하는 방법을 설명하기 위한 흐름도이다.
도 15는, 다양한 실시예들에 따른, 사용자 인터랙션을 검출하는 방법을 설명하기 위한 예시도이다.
도 16은, 다양한 실시예들에 따른, 사용자 인터랙션에 기반하여 전자 장치의 기능을 수행하는 방법을 설명하기 위한 예시도이다.
도 17a 및 도 17b는, 다양한 실시예들에 따른, 사용자 인터랙션에 기반하여 전자 장치의 기능을 수행하는 방법을 설명하기 위한 예시도들이다.
도 18a 및 도 18b는, 다양한 실시예들에 따른, 사용자 인터랙션에 기반하여 전자 장치의 기능을 수행하는 방법을 설명하기 위한 예시도들이다.
도 19는, 다양한 실시예들에 따른, 사용자 인터랙션에 기반하여 전자 장치의 기능을 수행하는 방법을 설명하기 위한 예시도이다.
도 20은, 다양한 실시예들에 따른, 사용자 인터랙션에 기반하여 전자 장치의 기능을 수행하는 방법을 설명하기 위한 예시도이다.
도 21은, 다양한 실시예들에 따른, 사용자 인터랙션에 기반하여 전자 장치의 기능을 수행하는 방법을 설명하기 위한 예시도이다.
본 개시에 기재된 실시예는 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 다양한 실시예들에 따르면, 사상을 명확히 설명하기 위한 것이므로, 본 개시가 이하에 기재된 실시예에 의해 한정되는 것은 아니며, 다양한 실시예들에 따르면, 본 개시의 범위는, 본 개시의 사상을 벗어나지 아니하는 수정예 또는 변형예를 포함하는 것으로 해석되어야 한다.
본 개시에서 사용되는 용어는 본 발명에서의 기능을 고려하여 가능한 현재 널리 사용되고 있는 일반적인 용어를 선택하였으나 이는 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자의 의도, 관례 또는 새로운 기술의 출현 등에 따라 달라질 수 있다. 다만, 이와 달리 특정한 용어를 임의의 의미로 정의하여 사용하는 경우에는 그 용어의 의미에 관하여 별도로 기재할 것이다. 따라서 본 개시에서 사용되는 용어는 단순한 용어의 명칭이 아닌 그 용어가 가진 실질적인 의미와 본 개시의 전반에 걸친 내용을 토대로 해석되어야 한다.
본 개시에 첨부된 도면은 본 개시를 용이하게 설명하기 위한 것으로 도면에 도시된 형상은 다양한 실시예들에 따르면, 이해를 돕기 위하여 필요에 따라 과장되어 표시된 것일 수 있으므로 본 개시가 도면에 의해 한정되는 것은 아니다.
본 개시에서 본 개시에 관련된 공지의 구성 또는 기능에 대한 구체적인 설명이 요지를 흐릴 수 있다고 판단되는 경우에 이에 관한 자세한 설명은 필요에 따라 생략하기로 한다.
본 개시의 다양한 실시예들 및 이에 사용된 용어들은 본 개시에 기재된 기술적 특징들을 특정한 실시예들로 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나","A 또는 B 중 적어도 하나,""A, B 또는 C," "A, B 및 C 중 적어도 하나,"및 "A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에, "기능적으로" 또는 "통신적으로"라는 용어와 함께 또는 이런 용어 없이, "커플드" 또는 "커넥티드"라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 제 3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.
본 개시에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로 등의 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일실시예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다.
본 개시의 실시예들에 기재된 기기(machine)(예: 전자 장치(110), 카메라 장치(120), 서버(140))의 동작들은, 기기에 의해 읽을 수 있는 기록 매체(또는 저장 매체(storage medium))에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예: 프로그램)로서 구현될 수 있다. 예를 들면, 기기(예: 전자 장치(110), 카메라 장치(120), 서버(140))의 제어 회로(예: 프로세서)는, 기록 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장매체는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, '비일시적'은 저장매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.
일 실시예에 따르면, 본 개시에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두개의 사용자 장치들(예: 스마트폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.
다양한 실시예들에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있다. 다양한 실시예들에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시예들에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.
도 1은, 다양한 실시예들에 따른, 사용자 인터랙션을 검출하는 방법을 설명하기 위한 도면(100)이다.
일 실시예에서, 도 1은 사용자 인터랙션을 검출하는 방법을 수행하기 위한 시스템을 설명하기 위한 도면일 수 있다.
도 1을 참조하면, 사용자 인터랙션을 검출하는 방법을 수행하기 위한 시스템은, 전자 장치(110), 카메라 장치(120), 및 서버(140)를 포함할 수 있다.
일 실시예에서, 전자 장치(110)는, 문서(130)의 이미지에 기반하여, 문서(130)에 대한 사용자 인터랙션을 검출할 수 있다.
일 실시예에서, 문서(130)는 실물 도서를 포함할 수 있다. 예를 들어, 문서(130)는, 종이 상에 텍스트 및/또는 이미지가 인쇄된 하나 이상의 페이지들을 포함하는 실물 도서를 포함할 수 있다. 다만, 이에 제한되지 않으며, 문서(130)는, 전자 장치(110) 외에 다른 전자 장치(예: 스마트 폰, 태블릿)을 통하여 표시되는 이미지를 포함할 수도 있다. 이하, 설명의 편의를 위하여, 문서(130)는 실물 도서임을 가정하여 설명하도록 한다.
일 실시예에서, 문서(130)는, 사용자와의 인터랙션을 통하여, 전자 장치(110)가 기능을 수행하도록 하기 위한 적어도 하나의 영역(이하, '적어도 하나의 제 1 영역'으로 지칭함)(예: 영역(131))을 포함할 수 있다. 예를 들어, 문서(130)는, 입력 도구(예: 사용자의 손가락(150), 전자 펜, 또는 마커(marker))에 의해 접촉되는 경우(또는 가려지는 경우), 전자 장치(110)가 기능을 수행하도록 하기 위한 적어도 하나의 제 1 영역을 포함할 수 있다. 일 실시예에서, 적어도 하나의 제 1 영역은 문서(130)에 인쇄된 다양한 도형들 및/또는 이미지를 포함할 수 있다. 다만, 적어도 하나의 제 1 영역은 문서(130)에 인쇄되는 도형들 및/또는 이미지에 제한되지 않는다.
일 실시예에서, 전자 장치(110)는, 카메라를 통하여, 문서(130)에 대한 이미지를 획득할 수 있다. 예를 들어, 전자 장치(110)는, 카메라 장치(120)의 제 1 카메라(121)(이하, '제 1 카메라'로 지칭함)를 통하여 획득된 문서(130)에 대한 이미지를, 카메라 장치(120)로부터 수신할 수 있다. 다른 예를 들어, 전자 장치(110)는, 전자 장치(110)에 포함된 제 2 카메라(111)(이하, '제 2 카메라'로 지칭함)를 통하여, 문서(130)에 대한 이미지를 획득할 수 있다. 전자 장치(110)는, 카메라 장치(120)로부터 수신된 이미지 또는 제 2 카메라(111)를 통하여 획득된 이미지에 기반하여, 적어도 하나의 제 1 영역에 대한 사용자 인터랙션을 검출할 수 있다. 일 실시예에서, 적어도 하나의 제 1 영역에 대한 사용자 인터랙션은, 사용자가 적어도 하나의 제 1 영역을 터치하는(또는 적어도 하나의 제 1 영역을 가리는) 행위를 포함할 수 있다. 일 실시예에서, 전자 장치(110)는, 적어도 하나의 제 1 영역에 대한 사용자 인터랙션에 기반하여, 전자 장치(110)의 기능을 수행할 수 있다. 전자 장치(110)는, 전자 장치(110)의 기능 수행 결과를 출력할 수 있다. 예를 들어, 전자 장치(110)는, 디스플레이 모듈(112)을 통하여, 전자 장치(110)의 기능 수행 결과를 나타내는 화면을 표시할 수 있다. 전자 장치(110)가, 획득된 이미지에 기반하여 적어도 하나의 제 1 영역에 대한 사용자 인터랙션을 검출하는 동작 및 전자 장치(110)의 기능을 수행함으로써 전자 장치(110)의 기능 수행 결과를 출력하는 동작은, 상세히 후술하도록 한다.
일 실시예에서, 카메라 장치(120)는, 제 1 카메라(121)를 통하여, 이미지를 획득할 수 있다. 예를 들어, 카메라 장치(120)는, 제 1 카메라(121)를 통하여, 제 1 카메라(121)의 화각 범위 내에 적어도 일부가 위치하는 문서(130)에 대한 이미지를 획득할 수 있다. 일 실시예에서, 카메라 장치(120)는, 통신 모듈(예: 무선 통신 모듈 또는 유선 통신 모듈)을 통하여, 전자 장치(110)로, 상기 획득된 문서(130)에 대한 이미지를 전송할 수 있다.
일 실시예에서, 카메라 장치(120)는 전자 장치(110)를 거치할 수 있다. 예를 들어, 카메라 장치(120)는, 도 1에 도시된 바와 같이, 전자 장치(110)를 거치할 수 있도록 구현된 하우징(housing)을 포함할 수 있다.
일 실시예에서, 서버(140)는, 통신 모듈을 통하여, 전자 장치(110)와 통신을 수행할 수 있다. 일 실시예에서, 서버(140)는, 통신 모듈을 통하여, 전자 장치(110)로 문서(130)와 관련된 데이터를 전송할 수 있다. 예를 들어, 문서(130)가 복수의 페이지들을 포함하는 경우, 전자 장치(110)는 카메라(예: 제 1 카메라(121) 또는 제 2 카메라(111))를 통하여 복수의 페이지들 중 표지(예: 첫 번째 페이지)에 대한 이미지를 획득할 수 있다. 전자 장치(110)는, 표지에 대한 이미지의 적어도 일부에 기반하여, 문서(130)를 식별할 수 있다. 예를 들어, 전자 장치(110)는 상기 표지에 인쇄된 이미지를 식별함으로써 문서(130)의 제목 및/또는 종류를 식별할 수 있다. 전자 장치(110)는, 통신 모듈을 통하여, 상기 식별된 문서(130)와 관련된 데이터를 서버(140)로 요청할 수 있다. 서버(140)는, 상기 요청에 대응하여, 통신 모듈을 통하여, 상기 식별된 문서(130)와 관련된 데이터를, 전자 장치(110)로 전송할 수 있다. 예를 들어, 서버(140)는, 문서(130)에 포함된 복수의 페이지들에 대응하는 복수의 페이지들(예: 문서(130)에 포함된 복수의 페이지들의 콘텐트와 실질적으로 동일한 콘텐트를 포함하고 디스플레이 모듈(112)을 통하여 표시 가능한 복수의 페이지들)에 대한 데이터를, 통신 모듈을 통하여, 전자 장치(110)로 전송할 수 있다.
일 실시예에서, 서버(140)는, 이하에서 설명하는, 전자 장치(110)가 사용자 인터랙션을 검출하는 동작의 일부를 수행할 수 있다.
도 2는, 다양한 실시예들에 따른, 전자 장치(110)의 블록도이다.
도 2를 참조하면, 일 실시예에서, 전자 장치(110)는, 통신 모듈(210), 디스플레이 모듈(220), 카메라 모듈(230), 메모리(240), 및/또는 프로세서(250)를 포함할 수 있다.
일 실시예에서, 통신 모듈(210)은, 전자 장치(110)와 외부 전자 장치(예: 카메라 장치(120), 서버) 간 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다.
일 실시예에서, 통신 모듈(210)은 무선 통신 모듈(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈)(예: LAN(local area network) 통신 모듈), 또는 전력선 통신 모듈)을 포함할 수 있다.
일 실시예에서, 디스플레이 모듈(220)(예: 도 1의 디스플레이 모듈(112))은, 전자 장치(110)의 외부(예: 사용자)로 정보를 시각적으로 제공할 수 있다. 디스플레이 모듈(220)은, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일 실시예에서, 디스플레이 모듈(220)은 터치를 감지하도록 설정된 터치 센서, 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 압력 센서를 포함할 수 있다.
일 실시예에서, 카메라 모듈(230)은, 정지 영상 및 동영상을 촬영하기 위한 카메라(예: 도 1의 제 2 카메라(111))를 포함할 수 있다. 일 실시예에서, 카메라 모듈(230)은, 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다.
일 실시예에서, 메모리(240)는, 전자 장치(110)의 적어도 하나의 구성 요소(예: 프로세서(250))에 의해 사용되는 다양한 데이터를 저장할 수 있다.
일 실시예에서, 메모리(240)는 사용자 인터랙션을 검출하는 동작을 위한 정보를 저장할 수 있다. 메모리(240)가 저장하는 사용자 인터랙션을 검출하는 동작을 위한 정보는 상세히 후술하도록 한다.
일 실시예에서, 프로세서(250)는, 예를 들어, 소프트웨어(예: 프로그램)를 실행하여 프로세서(250)에 연결된 전자 장치(110)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)를 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다.
일 실시예에서, 프로세서(250)는 사용자 인터랙션을 검출하는 동작을 전반적으로 제어할 수 있다. 일 실시예에서, 프로세서(250)는, 사용자 인터랙션을 검출하는 동작을 수행하기 위한 하나 이상의 프로세서들을 포함할 수 있다. 프로세서(250)가 사용자 인터랙션을 검출하기 위하여 수행하는 동작에 대해서는, 도 3 이하를 참조하여 설명하도록 한다.
도 2에서 전자 장치(110)가 통신 모듈(210), 디스플레이 모듈(220), 카메라 모듈(230), 메모리(240), 및/또는 프로세서(250)를 포함하는 것으로 예시하고 있지만, 전자 장치(110)는 도 2에 도시된 구성들 외에 추가적인 구성을 더 포함하거나, 도 2에 도시된 구성들 중 일부를 포함하지 않을 수 있다. 예를 들어, 전자 장치(110)는, 구성요소(예: 프로세서(250))에 사용될 명령 또는 데이터를 전자 장치(110)의 외부(예: 사용자)로부터 수신할 수 있는 입력 모듈(예: 마이크, 마우스, 키보드, 키(예: 버튼), 또는 디지털 펜(예: 스타일러스 펜)), 음향 신호를 전자 장치(110)의 외부로 출력할 수 음향 출력 모듈을 더 포함할 수 있다. 다른 예를 들어, 프로세서(250)는, 전자 장치(110)가 카메라 장치(120)로부터 수신된 문서에 대한 이미지에 기반하여 사용자 인터랙션을 검출하기 위한 동작을 수행하는 경우, 카메라 모듈(230)을 포함하지 않을 수 있다.
도 3은, 다양한 실시예들에 따른, 사용자 인터랙션을 검출하는 방법을 설명하기 위한 흐름도(300)이다.
도 3을 참조하면, 동작 301에서, 일 실시예에서, 프로세서(250)는, 카메라를 통하여, 적어도 하나의 제 1 영역을 포함하는 문서의 제 1 이미지(이하, '제 1 이미지'로 지칭함)를 획득할 수 있다.
일 실시예에서, 적어도 하나의 제 1 영역은, 적어도 하나의 제 1 영역에 대한 사용자 인터랙션에 기반하여 전자 장치(110)가 기능을 수행하도록 하기 위한 영역일 수 있다. 예를 들어, 적어도 하나의 제 1 영역은, 적어도 하나의 제 1 영역이 입력 도구(예: 사용자의 손가락, 전자 펜, 또는 마커(marker))에 의해 접촉되는 경우, 전자 장치(110)가 기능을 수행하도록 하기 위한 영역일 수 있다. 일 실시예에서, 적어도 하나의 제 1 영역은 문서에 인쇄된 다양한 도형들 및/또는 이미지를 포함할 수 있다.
일 실시예에서, 프로세서(250)는, 카메라 장치(120)가 제 1 카메라(121)를 이용하여 획득한 문서의 제 1 이미지를, 통신 모듈(210)을 통하여 수신할 수 있다. 다만, 이에 제한되지 않으며, 프로세서(250)는, 카메라 모듈(230)(예: 제 2 카메라(111))을 통하여, 문서의 제 1 이미지를 획득할 수도 있다.
일 실시예에서, 제 1 이미지는, 카메라(예: 제 1 카메라(121) 및/또는 제 2 카메라(111))를 통하여, 연속적으로 획득되는 복수의 프레임들(frames)을 포함할 수 있다. 다만, 이에 제한되지 않으며, 제 1 이미지는 카메라를 통하여 획득되는 하나의 프레임일 수도 있다.
도 3에 도시하지는 않았지만, 일 실시예에서, 프로세서(250)는, 문서가 복수의 페이지들을 포함하는 경우, 카메라(예: 제 1 카메라(121) 및/또는 제 2 카메라(111))를 통하여, 표지에 대한 이미지를 획득할 수 있다. 프로세서(250)는, 표지에 대한 이미지의 적어도 일부에 대응하고(예: 매핑되고(mapped)) 메모리(240)에 저장된 이미지를 확인함으로써, 문서를 식별할 수 있다. 프로세서(250)는, 통신 모듈(210)을 통하여, 식별된 문서와 관련된 데이터를 서버(140)로 요청할 수 있다. 프로세서(250)는, 서버(140)로부터, 상기 요청에 응답하여, 통신 모듈(210)을 통하여, 식별된 문서와 관련된 데이터를 수신할 수 있다. 예를 들어, 프로세서(250)는, 통신 모듈(210)을 통하여, 서버(140)로부터, 문서에 포함된 복수의 페이지들에 대응하는 복수의 페이지들(예: 문서에 포함된 복수의 페이지들의 콘텐트와 실질적으로 동일한 콘텐트를 포함하고 디스플레이 모듈(220)을 통하여 표시 가능한 복수의 페이지들)에 대한 데이터를 수신할 수 있다. 일 실시예에서, 프로세서(250)는, 서버(140)로부터 수신되고 상기 식별된 문서와 관련된 데이터를 메모리(240)에 저장할 수 있다. 프로세서(250)는, 서버(140)로부터 수신되고 상기 식별된 문서와 관련된 데이터의 적어도 일부를, 디스플레이 모듈(220)을 통하여 표시할 수 있다.
동작 303에서, 일 실시예에서, 프로세서(250)는, 적어도 하나의 제 1 영역에 대응하고, 제 1 이미지에 포함된 적어도 하나의 제 1 부분(이하, '적어도 하나의 제 1 부분'으로 지칭함)이 변화하는지 여부를 결정할 수 있다.
일 실시예에서, 적어도 하나의 제 1 부분은, 제 1 이미지 내에서, 문서에 인쇄된 적어도 하나의 제 1 영역에 대한 이미지 부분(예: 제 1 이미지 내에서 문서에 인쇄된 적어도 하나의 제 1 영역이 촬영된 부분)일 수 있다.
일 실시예에서, 프로세서(250)는, 적어도 하나의 제 1 부분의 면적 및/또는 형태가 변화하는지 여부를 결정할 수 있다.
일 실시예에서, 프로세서(250)는, 제 1 이미지로서, 카메라(예: 제 1 카메라(121) 및/또는 제 2 카메라(111))를 통하여 연속적으로 복수의 프레임들을 획득할 수 있다. 프로세서(250)는, 복수의 프레임들 각각에 포함된 적어도 하나의 제 1 부분의 면적 및/또는 형태가 변화하는지 여부를 결정할 수 있다. 예를 들어, 제 1 시점 및 제 2 시점 사이에 사용자가 입력 도구(예: 손가락)을 이용하여 적어도 하나의 제 1 영역을 터치할 수 있다. 다른 예를 들어, 제 1 시점 및 제 2 시점 사이에 사용자가 입력 도구(예: 손가락)을 이용하여 적어도 하나의 제 1 영역을 가릴 수 있다. 프로세서(250)는, 카메라(예: 제 1 카메라(121) 및/또는 제 2 카메라(111))를 통하여, 제 1 시점에 상기 입력 도구에 의해 터치되지 않은(또는 가려지지 않은) 적어도 하나의 제 1 영역에 대응하는 적어도 하나의 제 1 부분을 포함하는 제 1 프레임을 획득하고, 제 2 시점에 상기 입력 도구에 의해 적어도 일부가 터치된(또는 가려진) 적어도 하나의 제 1 영역에 대응하는 적어도 하나의 제 1 부분을 포함하는 제 2 프레임을 획득할 수 있다. 상기 제 1 프레임은 적어도 하나의 제 1 영역에 대응하는 적어도 하나의 제 1 부분을 포함하고, 상기 제 2 프레임은 적어도 일부의 면적이 감소되거나 및/또는 적어도 일부의 형태가 변화된 적어도 하나의 제 1 부분을 포함할 수 있다. 프로세서(250)는, 제 1 시점에 획득된 제 1 프레임 및 제 2 시점에 획득된 제 2 프레임 내에서, 적어도 하나의 제 1 부분의 면적 및/또는 형태의 변화된 것으로 확인된 경우, 적어도 하나의 제 1 부분이 변화된 것으로 결정할 수 있다.
일 실시예에서, 프로세서(250)는, 적어도 하나의 제 1 부분의 면적 및/또는 형태의 변화 및 변화된 적어도 하나의 제 1 부분의 면적 및/또는 형태의 유지 시간에 기반하여, 적어도 하나의 제 1 부분이 변화되는지 여부를 결정할 수 있다.
일 실시예에서, 프로세서(250)는, 적어도 하나의 제 1 부분의 면적 및/또는 형태의 변화된 시점부터, 변화된 적어도 하나의 제 1 부분의 면적 및/또는 형태가 유지된 후, 적어도 하나의 제 1 부분의 면적 및/또는 형태가 상기 변화 전으로 복원되는 시점까지의 시간이 지정된 시간 보다 짧은 경우, 적어도 하나의 제 1 부분이 변화하지 않은 것으로 결정할 수 있다. 예를 들어, 프로세서(250)는, 적어도 하나의 제 1 부분의 면적이 감소된 시점부터 지정된 시간 내에, 적어도 하나의 제 1 부분의 면적이, 상기 감소 전 면적으로 증가된 경우, 적어도 하나의 제 1 부분이 변화되지 않은 것으로 결정할 수 있다.
일 실시예에서, 프로세서(250)는, 적어도 하나의 제 1 부분의 면적 및/또는 형태의 변화된 시점부터, 변화된 적어도 하나의 제 1 부분의 면적 및/또는 형태가 유지된 후, 적어도 하나의 제 1 부분의 면적 및/또는 형태가 상기 변화 전으로 복원되는 시점까지의 시간이 지정된 시간과 동일하거나 긴 경우, 적어도 하나의 제 1 부분이 변화된 것으로 결정할 수 있다. 예를 들어, 프로세서(250)는, 적어도 하나의 제 1 부분의 면적이 감소된 시점부터 지정된 시간 후에, 적어도 하나의 제 1 부분의 면적이, 상기 감소 전 면적으로 증가된 경우, 적어도 하나의 제 1 부분이 변화된 것으로 결정할 수 있다. 프로세서(250)가 적어도 하나의 제 1 부분의 면적 및/또는 형태의 변화 및 변화된 적어도 하나의 제 1 부분의 면적 및/또는 형태의 유지 시간에 기반하여, 적어도 하나의 제 1 부분이 변화되는지 여부를 결정함으로써, 적어도 하나의 제 1 영역이 상기 지정된 시간 이하의 시간 동안 터치된 경우(예: 사용자의 의도와 다르게 적어도 하나의 제 1 영역이 스치듯이 터치된 경우), 적어도 하나의 제 1 부분에 대응하는 전자 장치(110)의 기능이 실행되지 않도록 할 수 있다.
일 실시예에서, 프로세서(250)는, 적어도 하나의 제 1 부분의 면적 및/또는 형태의 변화에 기반하여, 적어도 하나의 제 1 영역에 대한 사용자 인터랙션의 종류를 식별할 수 있다. 예를 들어, 프로세서(250)는, 적어도 하나의 제 1 부분의 면적 및/또는 형태의 변화에 기반하여, 적어도 하나의 제 1 영역에 대한 터치 다운(touch down), 더블 터치(double touch), 및 일정 방향으로 연속적으로 입력되는 터치를 식별할 수 있다. 프로세서(250)가, 적어도 하나의 제 1 부분의 면적 및/또는 형태의 변화에 기반하여, 적어도 하나의 제 1 영역에 대한 사용자 인터랙션의 종류를 식별하는 동작에 대해서는, 상세히 후술하도록 한다.
동작 304에서, 일 실시예에서, 프로세서(250)는, 상기 적어도 하나의 제 1 부분이 변화됨을 결정함에 기반하여, 상기 적어도 하나의 제 1 부분에 대응하는 전자 장치(110)의 기능을 수행할 수 있다.
이하, 도 4 내지 도 8을 참조하여, 동작 303 및 동작 304에 대하여, 보다 상세히 설명하도록 한다.
도 4는, 다양한 실시예들에 따른, 적어도 하나의 제 1 영역에 대한 사용자 인터랙션에 기반하여 전자 장치(110)의 기능을 수행하는 방법을 설명하기 위한 예시도(400)이다.
일 실시예에서, 문서(410)(예: 실물 도서)는, 사람 이미지 부분(421) 및 차량 이미지 부분(422)을 포함하는 이미지(420), 복수의 제 1 영역들(예: 영역 5(441), 영역 6(442), 영역 7(443), 영역 8(444)), 및 복수의 제 2 영역들(예: 영역 1(431), 영역 2(432), 영역 3(433), 영역 4(434))을 포함할 수 있다. 예를 들어, 문서(410)는, 문서(410)에 사람 이미지 부분(421), 차량 이미지 부분(422), 복수의 제 1 영역들(예: 영역 5(441), 영역 6(442), 영역 7(443), 영역 8(444)), 및 복수의 제 2 영역들(예: 영역 1(431), 영역 2(432), 영역 3(433), 영역 4(434))이 인쇄된 문서일 수 있다.
일 실시예에서, 복수의 제 2 영역들(예: 영역 1(431), 영역 2(432), 영역 3(433), 영역 4(434))은, 각각, 복수의 제 1 영역들(예: 영역 5(441), 영역 6(442), 영역 7(443), 영역 8(444))에 대응할 수 있다. 복수의 제 2 영역들(예: 영역 1(431), 영역 2(432), 영역 3(433), 영역 4(434))은, 각각, 복수의 제 1 영역들(예: 영역 5(441), 영역 6(442), 영역 7(443), 영역 8(444))에 대응하는 복수의 제 1 부분들에 대응하는 전자 장치(110)의 기능들을 가이드(guide)하는 텍스트들(예: 'jump', 'run', 'small', 'smile')을 포함할 수 있다.
일 실시예에서, 사용자가, 입력 도구(예: 손가락(470))를 이용하여, 복수의 제 1 영역들(예: 영역 5(441), 영역 6(442), 영역 7(443), 영역 8(444)) 중에서, 적어도 하나의 제 1 영역을 터치할 수 있다(또는 가릴 수 있다). 프로세서(250)는, 상기 터치된 적어도 하나의 제 1 영역에 대응하는 적어도 하나의 제 1 부분의 면적이 변화됨을 결정할 수 있다. 프로세서(250)는, 적어도 하나의 제 1 부분에 대응하는 전자 장치(110)의 기능을 수행할 수 있다. 예를 들어, 프로세서(250)는, 도 4에 도시된 바와 같이, 손가락(470)에 의해 영역 7(443)이 터치된 경우, 카메라(예: 제 1 카메라(121) 및/또는 제 2 카메라(111))를 통하여 획득된 문서(410)의 이미지(예: 문서(410)를 촬영한 복수의 프레임들) 내에서, 영역 7(443)에 대응하는 부분의 면적이 변화됨을 결정할 수 있다. 프로세서(250)는, 영역 7(443)에 대응하는 부분의 면적이 변화됨을 결정한 경우, 영역 7(443)에 대응하는 부분에 대응하는 전자 장치(110)의 기능으로서, 디스플레이 모듈(220)을 통하여, 차량 이미지 부분(422)의 크기가 감소된 이미지를 포함하는 화면을 표시할 수 있다. 일 실시예에서, 프로세서(250)는, 손가락(470)에 의해 영역 7(443)이 터치됨에 의해 차량 이미지 부분(422)의 크기가 감소된 화면을 표시하는 기능과 동일 또는 유사하게, 손가락(470)에 의해 영역 5(441)가 터치된 경우 차량 이미지 부분(422)이 점프하는 애니메이션을 표시하고, 손가락(470)에 의해 영역 6(442)가 터치된 경우 차량 이미지 부분(422)이 일 방향으로 이동하는 애니메이션을 표시하고, 손가락(470)에 의해 영역 8(444)가 터치된 경우 사람 이미지 부분(421)의 사람이 웃는 표정을 짓는 애니메이션을 표시할 수 있다. 다만, 복수의 제 1 영역들(예: 영역 5(441), 영역 6(442), 영역 7(443), 영역 8(444)) 중에서 적어도 하나의 제 1 영역이 터치됨에 의해 수행되는 전자 장치(110)의 기능은 전술한 예시들에 제한되지 않는다.
도 5는, 다양한 실시예들에 따른, 적어도 하나의 제 1 영역에 대하여 연속적으로 입력되는 터치를 검출하는 방법을 설명하기 위한 예시도(500)이다.
도 5를 참조하면, 일 실시예에서, 프로세서(250)는, 적어도 하나의 제 1 영역에 대응하는 적어도 하나의 제 1 부분의 면적의 변화 및 적어도 하나의 제 1 부분의 형태 변화(및/또는 적어도 하나의 제 1 부분 내에서 면적이 감소된 부분의 위치 변화)에 기반하여, 적어도 하나의 제 1 영역에 대하여 연속적으로 입력되는 터치를 검출할 수 있다.
일 실시예에서, 참조 부호 501에 도시된 바와 같이, 사용자는 손가락(570)을 이용하여 제 1 방향(571)으로 적어도 하나의 제 1 영역(510)을 연속적으로 터치할 수 있다.
일 실시예에서, 프로세서(250)는, 적어도 하나의 제 1 영역(510)이 연속적으로 터치되는 경우, 적어도 하나의 제 1 영역(510)에 대응하는 적어도 하나의 제 1 부분(520)이 변화됨을 결정할 수 있다.
일 실시예에서, 프로세서(250)는, 참조 부호 502에 도시된 바와 같이, 사용자가 적어도 하나의 제 1 영역(510)을 터치(예: 터치 다운(touch down))하는 경우, 제 1 이미지에 포함된 적어도 하나의 제 1 부분(520)의 일부의 면적이, 적어도 하나의 제 1 영역(510) 내에서 사용자에 의해 터치되지 않은 영역에 대응하는 부분(521)의 면적 및 적어도 하나의 제 1 영역(510) 내에서 사용자에 의해 터치된 영역에 대응하는 부분(522)의 면적을 합산한 면적으로부터 부분(521)의 면적으로 감소되고, 제 1 이미지에 포함된 적어도 하나의 제 1 부분(520)의 형태가 부분(521) 및 부분(522)을 포함하는 부분의 형태(예: 부분(521) 및 부분(522)을 포함하는 부분의 외곽선에 의해 형성되는 형태)로부터 부분(521)의 형태(예: 부분(521)의 외곽선에 의해 형성되는 형태)로 변경됨을 확인할 수 있다. 프로세서(250)는, 참조 부호 503 및 참조 부호 504에 도시된 바와 같이, 사용자가 적어도 하나의 제 1 영역(510)을 터치를 유지한 상태에서 제 1 방향(571)으로 연속적으로 터치를 이동시키는 경우, 제 1 이미지에 포함된 적어도 하나의 제 1 부분(520)의 면적은 부분(521)의 면적과 실질적으로 동일하게 유지되고, 제 1 이미지에 포함된 적어도 하나의 제 1 부분(520)의 형태는, 부분(521)의 형태로부터, 부분(531) 및 부분(541)의 형태로, 연속적으로 변경됨을 확인할 수 있다. 일 실시예에서, 프로세서(250)는, 참조 부호 502 내지 참조 부호 504에 도시된 바와 같이, 제 1 이미지에 포함된 적어도 하나의 제 1 부분(520)의 면적이 감소된 후 유지되는 동안, 제 1 이미지에 포함된 적어도 하나의 제 1 부분(520)의 형태가 연속적으로 변화되는 경우, 사용자에 의해 적어도 하나의 제 1 영역(510)이 연속적으로 터치되는 인터랙션이 발생한 것으로 결정할 수 있다. 일 실시예에서, 프로세서(250)는, 제 1 이미지에 포함된 적어도 하나의 제 1 부분(520)의 면적이 감소된 후 유지되는 동안, 제 1 이미지에 포함된 적어도 하나의 제 1 부분(520)의 형태가 연속적으로 변화되는 경우(예: 제 1 이미지에 포함된 적어도 하나의 제 1 부분(520)의 형태가 부분(531)의 형태 및 부분(541)의 형태로 순차적으로 변화되는 경우), 적어도 하나의 제 1 부분(520) 및 제 1 이미지에 포함된 적어도 하나의 제 1 부분(520)의 형태의 연속적인 변화에 대응하는 전자 장치(110)의 기능을 수행할 수 있다. 예를 들어, 프로세서(250)는, 제 1 이미지에 포함된 적어도 하나의 제 1 부분(520)의 면적이 감소된 후 유지되고 제 1 이미지에 포함된 적어도 하나의 제 1 부분(520)의 형태가 제 1 방향(571)에 대응하는 방향을 따라 연속적으로 변화되는 동안, 디스플레이 모듈(220)을 통하여, 제 1 방향(571)에 대응하는 방향을 따라 점진적으로 길이가 증가하는 라인(line)을 표시할 수 있다.
일 실시예에서, 프로세서(250)는, 참조 부호 502에 도시된 바와 같이, 사용자가 적어도 하나의 제 1 영역(510)을 터치하는 경우, 제 1 이미지에 포함된 적어도 하나의 제 1 부분(520)의 면적이, 부분(521)의 면적 및 부분(522)의 면적을 합산한 면적으로부터 부분(521)의 면적으로 감소됨을 확인하고, 적어도 하나의 제 1 부분(520) 내에서 감소된 면적에 대응하는 부분(522)의 위치를 확인할 수 있다. 프로세서(250)는, 참조 부호 503 및 참조 부호 504에 도시된 바와 같이, 사용자가 적어도 하나의 제 1 영역(510)을 터치를 유지한 상태에서 제 1 방향(571)으로 터치를 연속적으로 이동시키는 경우, 제 1 이미지에 포함된 적어도 하나의 제 1 부분(520)의 면적(예: 부분(531)의 면적 및 부분(541)의 면적 각각)은 부분(521)의 면적과 실질적으로 동일하게 유지됨을 확인하고, 적어도 하나의 제 1 영역(510)에서 감소된 면적에 대응하는 부분(532) 및 부분(542)의 위치들을 확인할 수 있다. 일 실시예에서, 프로세서(250)는, 참조 부호 502 내지 참조 부호 504에 도시된 바와 같이, 제 1 이미지에 포함된 적어도 하나의 제 1 부분(520)의 면적이 감소된 후 유지되는 동안, 적어도 하나의 제 1 부분(520) 내에서 감소된 면적에 대응하는 부분의 위치가 연속적으로 변화되는 경우, 사용자가에 의해 적어도 하나의 제 1 영역(510)이 연속적으로 터치되는 인터랙션이 발생한 것으로 결정할 수 있다. 일 실시예에서, 프로세서(250)는, 적어도 하나의 제 1 부분(520)의 면적이 감소된 후 유지되는 동안, 적어도 하나의 제 1 부분(520) 내에서 감소된 면적에 대응하는 부분의 위치가 연속적으로 변화되는 경우, 적어도 하나의 제 1 부분(520) 및 감소된 면적에 대응하는 부분의 위치 변화에 대응하는 전자 장치(110)의 기능을 수행할 수 있다. 예를 들어, 프로세서(250)는, 적어도 하나의 제 1 부분(520)의 면적이 감소된 후 유지되고 적어도 하나의 제 1 부분(520) 내에서 감소된 면적에 대응하는 부분의 위치가 제 1 방향(571)에 대응하는 방향을 따라 연속적으로 변화되는 동안, 디스플레이 모듈(220)을 통하여, 제 1 방향(571)에 대응하는 방향을 따라 점진적으로 길이가 증가하는 라인을 표시할 수 있다.
도 6은, 다양한 실시예들에 따른, 적어도 하나의 제 1 영역에 대한 더블(double) 터치를 검출하는 방법을 설명하기 위한 예시도(600)이다.
도 6을 참조하면, 일 실시예에서, 프로세서(250)는, 적어도 하나의 제 1 부분의 면적의 연속적인 변화에 기반하여, 적어도 하나의 제 1 영역에 대한 더블 터치를 검출할 수 있다.
일 실시예에서, 참조 부호 601에 도시된 바와 같이, 사용자는 손가락(670)을 이용하여 문서(610)의 적어도 하나의 제 1 영역(620)을 터치 다운할 수 있다. 프로세서(250)는, 사용자의 손가락(670)에 의해 적어도 하나의 제 1 영역(620)이 터치된 경우, 제 1 이미지에 포함된 적어도 하나의 제 1 부분(640)의 면적이, 적어도 하나의 제 1 영역(620) 내에서 사용자에 의해 터치되지 않은 영역에 대응하는 부분(641)의 면적 및 적어도 하나의 제 1 영역(620) 내에서 사용자에 의해 터치된 영역에 대응하는 부분(642)의 면적을 합산한 면적으로부터 부분(641)의 면적으로 감소됨을 확인할 수 있다.
일 실시예에서, 참조 부호 602에 도시된 바와 같이, 사용자는 손가락(670)을 이용하여 문서(610)의 적어도 하나의 제 1 영역(620)을 터치 다운한 후 적어도 하나의 제 1 영역(620)으로부터 손가락(670)을 터치 업(touch up)할 수 있다. 프로세서(250)는, 사용자의 손가락(670)이 적어도 하나의 제 1 영역(620)으로부터 터치 업된 경우, 제 1 이미지에 포함된 적어도 하나의 제 1 부분(640)의 면적이, 부분(641)의 면적으로부터 부분(641)의 면적 및 부분(642)의 면적을 합산한 면적으로 증가됨을 확인할 수 있다. 다만, 이에 제한되지 않으며, 프로세서(250)는, 사용자의 손가락(670)이 적어도 하나의 제 1 영역(620)으로부터 터치 업된 경우, 제 1 이미지에 포함된 적어도 하나의 제 1 부분(640)의 면적이, 부분(641)의 면적으로부터, 부분(641) 및 상기 합산한 면적 사이에 있는 면적으로 증가됨을 확인할 수도 있다.
일 실시예에서, 참조 부호 603에 도시된 바와 같이, 사용자의 손가락(670)은 문서(610)의 적어도 하나의 제 1 영역(620)으로부터 터치 업한 후 사용자는 손가락(670)을 이용하여 적어도 하나의 제 1 영역(620)을 다시 터치 다운할 수 있다. 프로세서(250)는, 사용자에 의해 적어도 하나의 제 1 영역(620)이 다시 터치 다운된 경우, 제 1 이미지에 포함된 적어도 하나의 제 1 부분(640)의 면적이, 상기 합산한 면적으로부터 부분(661)의 면적으로 감소됨을 확인할 수 있다.
일 실시예에서, 프로세서(250)는, 참조 부호 601 내지 참조 부호 606을 통하여 예시한 바와 같이, 제 1 이미지에 포함된 적어도 하나의 제 1 부분(640)의 면적이 연속적으로 감소, 증가, 및 감소된 경우, 사용자가 적어도 하나의 제 1 영역을 더블 터치한 것으로 결정할 수 있다. 예를 들어, 프로세서(250)는, 제 1 이미지에 포함된 적어도 하나의 제 1 부분(640)의 면적이 연속적으로 감소, 증가, 및 감소되는 패턴(pattern)인 것으로 식별된 경우, 사용자가 적어도 하나의 제 1 영역을 더블 터치한 것으로 결정할 수 있다.
일 실시예에서, 프로세서(250)는, 지정된 시간 내에, 제 1 이미지에 포함된 적어도 하나의 제 1 부분(640)의 면적이 연속적으로 감소, 증가, 감소된 경우, 사용자가 적어도 하나의 제 1 영역을 더블 터치한 것으로 결정할 수 있다.
일 실시예에서, 프로세서(250)는, 사용자가 적어도 하나의 제 1 영역을 더블 터치한 경우, 적어도 하나의 제 1 영역에 대한 더블 터치에 대응하는 전자 장치(110)의 기능을 수행할 수 있다.
도 7은, 다양한 실시예들에 따른, 적어도 하나의 제 1 부분의 형태에 기반하여, 사용자 인터랙션을 검출하는 방법을 설명하기 위한 예시도(700)이다.
도 7을 참조하면, 일 실시예에서, 프로세서(250)는, 제 1 이미지에 포함된(예: 제 1 이미지 내에서 확인된), 적어도 하나의 제 1 부분의 형태(예: 형상)(또는 적어도 하나의 제 1 부분의 형태의 변화)에 기반하여, 적어도 하나의 제 1 부분에 대응하는 전자 장치(110)의 기능을 실행할지 여부를 결정할 수 있다.
일 실시예에서, 프로세서(250)는, 적어도 하나의 제 1 부분의 형태가 지정된 형태(예: 메모리(240)에 저장된 지정된 형태)에 대응하는 경우, 적어도 하나의 제 1 부분에 대응하는 전자 장치(110)의 기능을 실행할 것을 결정할 수 있다. 예를 들어, 프로세서(250)는, 참조 부호 701 및 참조 부호 702에서, 제 1 이미지에 포함된 적어도 하나의 제 1 부분(710, 720)의 형태의 적어도 일부가 참조 부호 711 또는 참조 부호 721과 같이, 손가락(예: 손가락 끝 부분)의 일부의 형태에 대응하는 경우, 적어도 하나의 제 1 부분에 대응하는 전자 장치(110)의 기능을 실행할 것을 결정할 수 있다. 다른 예를 들어, 프로세서(250)는, 참조 부호 703에서, 제 1 이미지에 포함된 적어도 하나의 제 1 부분(730)의 형태의 일부가 참조 부호 731과 같이, 손가락(예: 손가락 끝 부분)의 일부의 형태에 대응하지 않는 경우, 적어도 하나의 제 1 부분에 대응하는 전자 장치(110)의 기능을 실행하지 않을 것을 결정할 수 있다. 또 다른 예를 들어, 프로세서(250)는, 참조 부호 701 및 참조 부호 702에서, 제 1 이미지에 포함된 적어도 하나의 제 1 부분(710, 720) 내에서 면적이 감소된 부분의 형태가 참조 부호 712 또는 참조 부호 723과 같이, 손가락의 일부의 형태에 대응하는 경우, 적어도 하나의 제 1 부분에 대응하는 전자 장치(110)의 기능을 실행할 것을 결정할 수 있다. 또 다른 예를 들어, 프로세서(250)는, 참조 부호 703에서, 제 1 이미지에 포함된 적어도 하나의 제 1 부분(730) 내에서 면적이 감소된 부분의 형태가 참조 부호 732와 같이, 손가락의 일부의 형태에 대응하지 않는 경우, 적어도 하나의 제 1 부분에 대응하는 전자 장치(110)의 기능을 실행하지 않을 것을 결정할 수 있다.
도 8은, 다양한 실시예들에 따른, 복수의 제 1 영역들에 대한 사용자 인터랙션에 기반하여 전자 장치(110)의 기능을 수행하는 방법을 설명하기 위한 예시도(800)이다.
도 8을 참조하면, 일 실시예에서, 프로세서(250)는, 복수의 제 1 부분들의 변화에 대응하는 전자 장치(110)의 기능을 실행할 수 있다. 예를 들어, 도 8에서, 문서(830)는, 복수의 제 1 영역들(예: 영역 1(831), 영역 2(832), 영역 3(833), 영역 4(834), 영역 5(835), 영역 6(836))을 포함할 수 있다. 프로세서(250)는, 디스플레이 모듈(220)을 통하여, 문서(830)(예: 문서(830)의 내용)에 대응하는 화면(810)을 표시할 수 있다. 사용자(예: 사용자의 손가락(870))가 영역 1(831) 및 영역(836)을 지정된 시간 내에 연속적으로 터치하는 경우, 프로세서(250)는, 카메라 모듈(230)(예: 제 1 카메라(121))을 통하여 획득된 제 1 이미지 내에서, 영역 1(831) 및 영역(836) 각각에 대응하는 복수의 1 부분들(841, 846)이 연속적으로 변화된 것으로 결정할 수 있다. 프로세서(250)는, 영역 1(831) 및 영역 6(836) 각각에 대응하는 복수의 1 부분들(841, 846)이 연속적으로 변화된 것으로 결정한 경우, 전자 장치(110)의 기능으로서, 영역 1(831) 및 영역 6(836) 각각에 대응하는 복수의 1 부분들(841, 846)을 연결하는 라인(847)을, 디스플레이 모듈(220)을 통하여, 표시할 수 있다. 다만, 복수의 제 1 부분들의 변화에 대응하는 전자 장치(110)의 기능은 전술한 예시에 제한되지 않는다.
도 9는, 다양한 실시예들에 따른, 사용자 인터랙션을 검출하는 방법을 설명하기 위한 흐름도(900)이다.
도 10은, 다양한 실시예들에 따른, 사용자 인터랙션을 검출하는 방법을 설명하기 위한 예시도(1000)이다.
도 9 및 도 10을 참조하면, 도 9 및 도 10은, 적어도 하나의 제 1 부분이 변화하는지 여부 및 적어도 하나의 제 1 영역이 손가락에 의해 가려지는지 여부에 기반하여, 전자 장치(110)의 기능을 실행하기 위한 방법을 설명하는 도면일 수 있다.
동작 901에서, 일 실시예에서, 프로세서(250)는, 카메라(예: 제 1 카메라(121) 및/또는 제 2 카메라(111))를 통하여, 적어도 하나의 제 1 영역을 포함하는 문서의 제 1 이미지를 획득할 수 있다.
동작 901의 적어도 일부는, 도 3의 동작 301과 적어도 일부가 동일 또는 유사하므로 상세한 설명은 생략하기로 한다.
동작 903에서, 일 실시예에서, 프로세서(250)는, 적어도 하나의 제 1 영역에 대응하고, 제 1 이미지에 포함된 적어도 하나의 제 1 부분이 변화하는지 여부를 결정할 수 있다.
동작 903의 적어도 일부는, 도 3의 동작 303과 적어도 일부가 동일 또는 유사하므로 상세한 설명은 생략하기로 한다.
동작 905에서, 일 실시예에서, 프로세서(250)는, 적어도 하나의 제 1 영역이 손가락에 의해 가려지는지 여부를 결정할 수 있다. 예를 들어, 프로세서(250)는, 동작 903에서, 적어도 하나의 제 1 부분이 변화하는 것으로 결정한 경우, 적어도 하나의 제 1 영역이 손가락에 의해 가려지는지 여부를 결정할 수 있다.
일 실시예에서, 도 10에 도시된 바와 같이, 사용자는 문서에 포함된 적어도 하나의 제 1 영역(1010)을 손가락(1020)의 끝 부분(예: 손톱(1021)을 포함하는 부분)을 이용하여 터치할 수 있다. 프로세서(250)는, 카메라(예: 제 1 카메라(121) 및/또는 제 2 카메라(111))를 통하여 획득된 적어도 하나의 제 1 영역(1010)에 대한 제 1 이미지에 기반하여, 적어도 하나의 제 1 부분이 손톱(1021)을 포함하는 부분에 대한 이미지 부분과 중첩됨을 확인할 수 있다. 프로세서(250)는, 제 1 이미지 내에서 적어도 하나의 제 1 부분이 손톱(1021)을 포함하는 부분에 대한 이미지 부분과 중첩됨이 확인된 경우, 적어도 하나의 제 1 영역이 손가락에 의해 가려진 것으로 결정할 수 있다.
동작 907에서, 일 실시예에서, 프로세서(250)는, 적어도 하나의 제 1 영역이 손가락에 의해 가려진 것으로 결정된 경우, 적어도 하나의 제 1 부분에 대응하는 전자 장치(110)의 기능을 수행할 수 있다.
동작 907에서 프로세서(250)가 적어도 하나의 제 1 부분에 대응하는 전자 장치(110)의 기능을 수행하는 동작은, 도 3의 동작 304에서 프로세서(250)가 적어도 하나의 제 1 부분에 대응하는 전자 장치(110)의 기능을 수행하는 동작과 적어도 일부가 동일 또는 유사하므로, 상세한 설명은 생략하기로 한다.
일 실시예에서, 프로세서(250)는, 적어도 하나의 제 1 부분의 변화뿐만 아니라, 적어도 하나의 제 1 영역이 손가락에 의해 가려졌는지 여부에 기반하여, 전자 장치(110)의 기능을 수행함으로써, 전자 장치(110)는 적어도 하나의 제 1 영역에 대한 보다 정확한 사용자 인터랙션을 검출할 수 있다.
도 11은, 다양한 실시예들에 따른, 사용자 인터랙션을 검출하는 방법을 설명하기 위한 흐름도(1100)이다.
도 12는, 다양한 실시예들에 따른, 사용자 인터랙션을 검출하는 방법을 설명하기 위한 예시도(1200)이다.
도 13은, 다양한 실시예들에 따른, 사용자 인터랙션을 검출하는 방법을 설명하기 위한 예시도(1300)이다.
도 11 내지 도 13을 참조하면, 동작 1101에서, 일 실시예에서, 프로세서(250)는, 카메라(예: 제 1 카메라(121) 및/또는 제 2 카메라(111))를 통하여, 복수의 제 1 영역들을 포함하는 문서의 제 1 이미지를 획득할 수 있다.
동작 1101에서 프로세서(250)가 카메라(예: 제 1 카메라(121) 및/또는 제 2 카메라(111))를 통하여 복수의 제 1 영역들을 포함하는 문서의 제 1 이미지를 획득하는 동작은, 도 3의 동작 301에서 프로세서(250)가 카메라(예: 제 1 카메라(121) 및/또는 제 2 카메라(111))를 통하여 적어도 하나의 제 1 영역들을 포함하는 문서의 제 1 이미지를 획득하는 동작과, 적어도 일부가 동일 또는 유사하므로 상세한 설명은 생략하기로 한다.
동작 1103에서, 일 실시예에서, 프로세서(250)는, 상기 복수의 제 1 영역들 중에서, 2개 이상의 제 1 영역들에 대응하고, 제 1 이미지에 포함된 2개 이상의 제 1 부분들이 변화하는지 여부를 결정할 수 있다. 예를 들어, 문서에 포함된 복수의 제 1 영역들 중에서 2개 이상의 제 1 영역들이 사용자에 의해 가려질 수 있다. 이러한 경우, 프로세서(250)는, 문서에 대한 제 1 이미지에 기반하여, 상기 2개 이상의 제 1 영역들에 각각 대응하는 상기 2개 이상의 제 1 부분들이 변화됨을 결정할 수 있다.
동작 1104에서, 일 실시예에서, 프로세서(250)는, 2개 이상의 제 1 부분들의 위치에 기반하여, 2개 이상의 제 1 부분들 중에서 제 1 부분(예: 하나의 제 1 부분)을 선택할 수 있다. 예를 들어, 프로세서(250)는, 상기 2개 이상의 제 1 영역들에 각각 대응하는 상기 2개 이상의 제 1 부분들이 변화됨을 결정한 경우, 2개 이상의 제 1 부분들의 위치에 기반하여, 2개 이상의 제 1 부분들 중에서 하나의 제 1 부분을 선택할 수 있다.
일 실시예에서, 프로세서(250)는, 상기 2개 이상의 제 1 부분들 중에서, 상기 2개 이상의 제 1 영역들 중에서 문서 내에서 가장 위쪽에 배치된 제 1 영역에 대응하는 제 1 부분을 선택할 수 있다. 예를 들어, 도 12에서, 문서(1230)는, 복수의 제 1 영역들(예: 영역 1(1231), 영역 2(1232), 영역 3(1233), 영역 4(1234), 영역 5(1235), 영역 6(1236))을 포함할 수 있다. 프로세서(250)는, 디스플레이 모듈(220)을 통하여, 문서(1230)(예: 문서(1230)의 내용)에 대응하는 화면(1210)을 표시할 수 있다. 사용자(예: 사용자의 손가락(1270))가 복수의 제 1 영역들(예: 영역 1(1231), 영역 2(1232), 영역 3(1233), 영역 4(1234), 영역 5(1235), 영역 6(1236)) 중에서 상기 2개 이상의 제 1 영역들로서, 영역 1(1231) 및 영역 5(1235)를 가린 경우, 프로세서(250)는, 카메라(예: 제 1 카메라(121))를 통하여 획득된 문서(1230)에 대한 제 1 이미지에 기반하여, 영역 1(1231)에 대응하는 제 1 부분 및 영역 5(1235)에 대응하는 제 1 부분 중에서 문서(1230) 내에서 가장 위쪽에 배치된 영역 1(1231)에 대응하는 제 1 부분을 선택할 수 있다.
일 실시예에서, 프로세서(250)는, 상기 2개 이상의 제 1 부분들 중에서, 문서에 대한 제 1 이미지 내에서 가장 위쪽에 위치하는 제 1 부분을 선택할 수 있다. 예를 들어, 도 13에서, 문서(1330)는, 복수의 제 1 영역들(예: 영역 1(1331), 영역 2(1332), 영역 3(1333), 영역 4(1334), 영역 5(1335), 영역 6(1336))을 포함할 수 있다. 프로세서(250)는, 디스플레이 모듈(220)을 통하여, 문서(1330)(예: 문서(1330)의 내용)에 대응하는 화면(1310)을 표시할 수 있다. 사용자(예: 사용자의 손가락(1370))가 복수의 제 1 영역들(예: 영역 1(1331), 영역 2(1332), 영역 3(1333), 영역 4(1334), 영역 5(1335), 영역 6(1336)) 중에서 상기 2개 이상의 제 1 영역들로서, 영역 1(1331) 및 영역 4(1334)를 가린 경우, 프로세서(250)는, 카메라(예: 제 1 카메라(121))를 통하여 획득된 문서(1330)에 대한 제 1 이미지에 기반하여, 영역 1(1331)에 대응하는 제 1 부분 및 영역 4(1334)에 대응하는 제 1 부분 중에서, 제 1 이미지 내에서 가장 위쪽에 위치하는 영역 4(1334)에 대응하는 제 1 부분을 선택할 수 있다.
동작 1107에서, 일 실시예에서, 프로세서(250)는, 동작 1104에서 선택된 제 1 부분에 대응하는 전자 장치(110)의 기능을 수행할 수 있다. 예를 들어, 프로세서(250)는, 상기 2개 이상의 제 1 부분들이 변화된 것으로 결정한 경우에도, 상기 선택된 제 1 부분에 대응하는 전자 장치(110)의 기능을 수행하고, 선택되지 않은 제 1 부분에 대응하는 전자 장치(110)의 기능을 수행하지 않을 수 있다.
일 실시예에서, 동작 1104 및 동작 1107은, 도 3의 동작 304에 포함되는 동작일 수 있다.
일 실시예에서, 프로세서(250)가, 2개 이상의 제 1 부분들이 변화된 경우, 2개 이상의 제 1 부분들의 위치에 기반하여 하나의 제 1 부분에 대응하는 전자 장치(110)의 기능만을 수행함으로써, 사용자의 의도와 다르게 사용자에 의해 가려진 제 1 영역에 대응하는 전자 장치(110)의 기능이 잘못 수행되는 것을 방지할 수 있다.
도 14는, 다양한 실시예들에 따른, 사용자 인터랙션을 검출하는 방법을 설명하기 위한 흐름도(1400)이다.
도 15는, 다양한 실시예들에 따른, 사용자 인터랙션을 검출하는 방법을 설명하기 위한 예시도(1500)이다.
도 14 및 도 15를 참조하면, 동작 1401에서, 일 실시예에서, 프로세서(250)는, 카메라(예: 제 1 카메라(121) 및/또는 제 2 카메라(111))를 통하여, 하나 이상의 제 1 영역들을 포함하는 문서의 제 1 이미지를 획득할 수 있다.
동작 1401에서, 프로세서(250)가 카메라를 통하여 하나 이상의 제 1 영역들을 포함하는 문서의 제 1 이미지를 획득하는 동작은, 도 3의 동작 301에서 프로세서(250)가 카메라를 통하여 적어도 하나의 제 1 영역을 포함하는 문서의 제 1 이미지를 획득하는 동작과 적어도 일부가 동일 또는 유사하므로, 상세한 설명은 생략하기로 한다.
동작 1403에서, 일 실시예에서, 프로세서(250)는, 상기 하나 이상의 제 1 영역들 중에서 적어도 하나의 제 1 영역이 선택 가능함을 지시하는 가이드를 포함하는 화면을 디스플레이 모듈(220)을 통하여 표시할 수 있다.
일 실시예에서, 도 15에 도시된 바와 같이, 프로세서(250)는, 하나 이상의 제 1 영역들(1531, 1532)을 포함하는 문서(1530)의 제 1 이미지와 관련된 화면(1510)을 디스플레이 모듈(220)을 통하여 표시할 수 있다. 화면(1510)에 포함된 오브젝트들(1551, 1552)은, 각각, 하나 이상의 제 1 영역들(1531, 1532)에 대응하는 하나 이상의 제 1 부분들을 나타낼 수 있다. 예를 들어, 화면(1510)에 포함된 오브젝트들(1551, 1552)은, 각각, 하나 이상의 제 1 영역들(1531, 1532)에 대응하는 하나 이상의 제 1 부분들에 대응할 수 있다. 프로세서(250)는, 하나 이상의 제 1 영역들(1531, 1532) 중에서 제 1 영역(1531)이 사용자에 의해 선택 가능한 영역임을 지시하는 가이드로서, 화면(1510)에 포함된 오브젝트들(1551, 1552) 중에서 오브젝트(1551)를 둘러싸는 인디케이션(indication)(1541)을, 디스플레이 모듈(220)을 통하여 표시할 수 있다. 다만, 하나 이상의 제 1 영역들(1531, 1532) 중에서 제 1 영역(1531)이 사용자에 의해 선택 가능한 영역임을 지시하는 방법은 상기 인디케이션(1541)을 표시하는 예시에 제한되지 않는다.
일 실시예에서, 프로세서(250)는, 문서에 관련된 어플리케이션의 진행 상황에 따라, 하나 이상의 제 1 영역들 중에서 선택 가능한 영역을 변경할 수 있다. 예를 들어, 프로세서(250)는, 도 15에서, 하나 이상의 제 1 영역들(1531, 1532) 중에서 제 1 영역(1531)이 사용자에 의해 선택 가능함을 지시하는 인디케이션(1541)을 디스플레이 모듈(220)을 통하여 표시할 수 있다. 프로세서(250)는, 제 1 영역(1531)에 대응하는 제 1 부분의 변화에 기반하여, 제 1 부분(제 1 영역(1531)에 대응하는 제 1 부분)에 대응하는 전자 장치(110)의 기능을 실행할 수 있다. 프로세서(250)는, 상기 전자 장치(110)의 기능을 실행한 후, 하나 이상의 제 1 영역들(1531, 1532) 중에서 제 2 영역(1532)이 사용자에 의해 선택 가능함을 지시하는 인디케이션(미도시)을 디스플레이 모듈(220)을 통하여 표시할 수 있다.
동작 1405에서, 일 실시예에서, 프로세서(250)는, 제 1 이미지에 기반하여, 선택 가능한 제 1 영역에 대응하는 적어도 하나의 제 1 부분이 변화하는지 여부를 결정할 수 있다.
일 실시예에서, 프로세서(250)는, 제 1 이미지 내에서, 가이드(예: 인디케이션(1541))에 의해 지시되는 제 1 부분이 변화하는지 여부를 결정할 수 있다. 예를 들어, 프로세서(250)는, 제 1 이미지 내에서, 가이드에 의해 지시되는 제 1 부분의 면적 및/또는 형태가 변화되는지 여부를 결정할 수 있다.
동작 1407에서, 일 실시예에서, 프로세서(250)는, 적어도 하나의 제 1 부분이 변화됨을 결정함에 기반하여, 적어도 하나의 제 1 부분에 대응하는 전자 장치(110)의 기능을 수행할 수 있다. 예를 들어, 도 15에서, 프로세서(250)는, 가이드(예: 인디케이션(1541))에 의해 지시되는 오브젝트(1551)(또는 제 1 영역(1531)에 대응하는 제 1 부분)에 대응하는 전자 장치(110)의 기능을 수행할 수 있다.
일 실시예에서, 프로세서(250)는, 하나 이상의 제 1 영역들 중에서 가이드에 의해 선택 가능한 영역으로서 지시되지 않는 제 1 영역에 대응하는 제 1 부분이 변화되더라도, 제 1 부분에 대응하는 전자 장치(110)의 기능을 수행하지 않을 수 있다. 예를 들어, 도 15에서, 프로세서(250)는, 가이드(예: 인디케이션(1541))에 의해 지시되지 않는 오브젝트(1552)에 대응하는 제 1 영역(1532)이 사용자에 의해 가려지더라도(예: 제 1 영역(1532)이 사용자에 대한 사용자 인터랙션이 검출되더라도), 제 1 부분(제 1 영역(1532)에 대응하는 제 1 부분)에 대응하는 전자 장치(110)의 기능을 수행하지 않을 수 있다.
도 16은, 다양한 실시예들에 따른, 사용자 인터랙션에 기반하여 전자 장치(110)의 기능을 수행하는 방법을 설명하기 위한 예시도(1600)이다.
도 16을 참조하면, 일 실시예에서, 문서(1630)는 복수의 제 1 영역들(예: 영역 1(1631), 영역 2(1632), 영역 3(1633), 영역 4(1634), 영역 5(1641), 영역 6(1642), 영역 7(1643), 영역 8(1644))을 포함할 수 있다.
일 실시예에서, 프로세서(250)는, 복수의 제 1 영역들 중에서, 사용자 인터랙션이 검출된(예: 사용자에 의해 터치된) 영역에 대응하는 전자 장치(110)의 기능을 수행할 수 있다. 예를 들어, 프로세서(250)는, 단어 "excited"를 포함하는 영역 5(1641)(또는 영역 1(1631))에 대한 터치가 검출된 경우(예: 영역 5(1641)에 대응하는 제 1 부분이 변화됨을 결정한 경우), 디스플레이 모듈(220)을 통하여 단어 "excited"를 포함하는 텍스트(1652) 및 이미지(1651)를 포함하는 화면(1610)를 표시하고, 음향 출력 장치(예: 스피커))를 통하여 단어 "excited"에 대응하는 오디오(예: 단어 "excited"의 발음(1661) 및 뜻(1662))를 출력할 수 있다. 다른 예를 들어, 도 16에 도시하지는 않았지만, 프로세서(250)는, 단어 "angry"를 포함하는 영역 6(1642)(또는 영역 2(1632))에 대한 터치가 검출된 경우, 디스플레이 모듈(220)을 통하여 단어 "angry"를 포함하는 텍스트 및 이미지를 포함하는 화면을 표시하고, 음향 출력 장치를 통하여 단어 "angry"에 대응하는 오디오(예: 단어 "angry"의 발음 및 뜻)를 출력할 수 있다.
도 17a 및 도 17b는, 다양한 실시예들에 따른, 사용자 인터랙션에 기반하여 전자 장치(110)의 기능을 수행하는 방법을 설명하기 위한 예시도들(1701, 1702)이다.
도 17a 및 도 17b를 참조하면, 일 실시예에서, 문서는, 복수의 제 1 영역들(예: 영역 1(1741), 영역 2(1742), 영역 3(1743), 영역 4(1744), 영역 5(1751), 영역 6(1752), 영역 7(1753), 영역 8(1754))을 포함하는 제 1 페이지(1730) 및 복수의 제 1 영역들(예: 영역 9(1731), 영역 10(1732))을 포함하는 제 2 페이지(1740)를 포함할 수 있다.
일 실시예에서, 프로세서(250)는, 도 17a에 도시된 바와 같이, 영역 9(1731) 및 영역 10(1732) 중에서 영역 9(1731)에 대한 사용자 인터랙션이 검출된 후, 영역 9(1731)에 대응하고 문서에 포함된 문장(예: "Kate can't wait to get to the zoo")에 적합한 단어 "excited"를 포함하는 영역 5(1751)(또는 영역 1(1741))에 대한 사용자 인터랙션이 검출된 경우, 디스플레이 모듈(220)을 통하여 상기 문장에 적합한 단어 "excited"가 선택됨을 나타내는 이미지(1721)를 포함하는 화면(1710)을 표시하고, 음향 출력 모듈을 통하여 상기 문장에 적합한 단어 "excited"가 선택된 경우 출력하도록 설정된 오디오(1722)를 출력할 수 있다.
일 실시예에서, 프로세서(250)는, 도 17b에 도시된 바와 같이, 영역 9(1731) 및 영역 10(1732) 중에서 영역 9(1731)에 대한 사용자 인터랙션이 검출된 후, 영역 9(1731)에 대응하고 문서에 포함된 문장(예: "Kate can't wait to get to the zoo")에 적합하지 않은 단어 "angry"를 포함하는 영역 6(1752)(또는 영역 2(1742))에 대한 사용자 인터랙션이 검출된 경우, 디스플레이 모듈(220)을 통하여 상기 문장에 적합하지 않은 단어 "angry"가 선택됨을 나타내는 이미지(1723)를 포함하는 화면(1720)을 표시하고, 음향 출력 모듈을 통하여 상기 문장에 적합하지 않은 단어 "angry"가 선택된 경우 출력하도록 설정된 오디오(1724)를 출력할 수 있다.
도 18a 및 도 18b는, 다양한 실시예들에 따른, 사용자 인터랙션에 기반하여 전자 장치(110)의 기능을 수행하는 방법을 설명하기 위한 예시도들(1801, 1802)이다.
도 18a 및 도 18b를 참조하면, 일 실시예에서, 문서(1830)는, 적어도 하나의 제 1 영역(예: 영역 1(1831)) 및 적어도 하나의 제 1 영역에 대응하는 이미지(1832)를 포함할 수 있다.
일 실시예에서, 프로세서(250)는, 도 18a에 도시된 바와 같이, 영역 1(1931)에 대한 사용자 인터랙션이 검출된 후, 카메라(예: 제 1 카메라(121))를 통하여, 적어도 하나의 제 1 영역에 대응하는 이미지(1832)에 적합한 2개의 마커들(예: 그림 카드 1(1841) 및 그림 카드 2(1842))에 대한 이미지를 획득할 수 있다. 프로세서(250)는, 상기 획득된 이미지에 기반하여, 그림 카드 1(1841)이 나타내는 컵(cup) 및 그림 카드 2(1842)이 나타내는 케이크(cake)의 조합이, 이미지(1832)가 나타내는 컵 케이크에 대응함을 확인할 수 있다. 프로세서(250)는, 그림 카드 1(1841)이 나타내는 컵(cup) 및 그림 카드 2(1842)이 나타내는 케이크(cake)의 조합이, 이미지(1832)가 나타내는 컵 케이크에 대응하는 경우, 디스플레이 모듈(220)을 통하여, 그림 카드 1(1841)이 나타내는 컵(cup) 및 그림 카드 2(1842)이 나타내는 케이크(cake)의 조합이, 이미지(1832)가 나타내는 컵 케이크에 대응하는 경우 표시되도록 설정된 이미지(1811) 및 텍스트(1812)(예: "cupcake")를 포함하는 화면(1810)를 표시할 수 있다.
일 실시예에서, 프로세서(250)는, 도 18b에 도시된 바와 같이, 영역 1(1931)에 대한 사용자 인터랙션이 검출된 후, 카메라(예: 제 1 카메라(121))를 통하여, 적어도 하나의 제 1 영역에 대응하는 이미지(1832)에 적합한 2개의 마커들(예: 그림 카드 3(1843) 및 그림 카드 4(1844))에 대한 이미지를 획득할 수 있다. 프로세서(250)는, 상기 획득된 이미지에 기반하여, 그림 카드 3(1843)이 나타내는 컵(cup) 및 그림 카드 4(1844)이 나타내는 공(ball)의 조합이, 이미지(1832)가 나타내는 컵 케이크에 대응하지 않음을 확인할 수 있다. 프로세서(250)는, 그림 카드 3(1843)이 나타내는 컵(cup) 및 그림 카드 4(1844)이 나타내는 공(ball)의 조합이, 이미지(1832)가 나타내는 컵 케이크에 대응하지 않는 경우, 디스플레이 모듈(220)을 통하여, 그림 카드 3(1843)이 나타내는 컵(cup) 및 그림 카드 4(1844)이 나타내는 공(ball)의 조합이, 이미지(1832)가 나타내는 컵 케이크에 대응하지 않는 경우 표시되도록 설정된 이미지(1821) 및 텍스트(1822)(예: "Uh oh!")를 포함하는 화면(1820)를 표시할 수 있다.
도 19는, 다양한 실시예들에 따른, 사용자 인터랙션에 기반하여 전자 장치(110)의 기능을 수행하는 방법을 설명하기 위한 예시도(1900)이다.
도 19를 참조하면, 일 실시예에서, 프로세서(250)는, 전자 장치(110)에서 게임 어플리케이션이 실행되는 동안, 문서에 대한 사용자 인터랙션에 기반하여, 게임 어플리케이션과 관련된 기능을 수행할 수 있다.
일 실시예에서, 문서(1930) 내에서, 사람의 왼손에 대응하는 외곽선(1941) 내부에 복수의 제 1 영역들(예: 영역 1(1941-1), 영역 2(1941-2), 영역 1(1941-3), 영역 4(1941-4), 영역 5(1941-5))이 표시되고, 사람의 오른손에 대응하는 외곽선(1942) 내부에 복수의 제 1 영역들(예: 영역 6(1942-1), 영역 7(1942-2), 영역 8(1942-3), 영역 9(1942-4), 영역 10(1942-5))이 표시될 수 있다.
일 실시예에서, 게임 어플리케이션은, 영어 단어를 포함하고 이동하는 오브젝트들(1911, 1912, 1913, 1914) 각각이 고정된 오브젝트들(1921, 1922, 1923, 1924)의 위치에 도달하는 때, 오브젝트들(1911, 1912, 1913, 1914) 각각에 포함된 영어 단어의 음절의 개수와 동일한 개수로 복수의 제 1 영역들(예: 영역 1(1941-1), 영역 2(1941-2), 영역 1(1941-3), 영역 4(1941-4), 영역 5(1941-5), 영역 6(1942-1), 영역 7(1942-2), 영역 8(1942-3), 영역 9(1942-4), 영역 10(1942-5))에 대한 사용자 인터랙션이 검출되는 경우, 스코어(score)가 증가하는 게임 어플리케이션일 수 있다. 예를 들어, 프로세서(250)는, 오브젝트에 포함된 영어 단어의 음절의 개수가 2개이고, 오브젝트에 포함된 영어 단어의 음절의 개수와 동일한 2개의 제 1 영역들에 대한 사용자 인터랙션이 검출되는 경우, 게임 상에서 스코어를 증가시키고 대응하는 이미지(1927)를 디스플레이 모듈(220)을 통하여 표시할 수 있다.
도 20은, 다양한 실시예들에 따른, 사용자 인터랙션에 기반하여 전자 장치(110)의 기능을 수행하는 방법을 설명하기 위한 예시도(2000)이다.
도 20을 참조하면, 일 실시예에서, 프로세서(250)는, 전자 장치(110)에서 게임 어플리케이션(예: 방 탈출 게임 어플리케이션)이 실행되는 동안, 문서에 대한 사용자 인터랙션에 기반하여, 게임 어플리케이션과 관련된 기능을 수행할 수 있다.
일 실시예에서, 문서(2030)는 복수의 제 1 영역들(2031, 2032, 2033, 2034, 2035, 2036, 2037, 2038, 2039)를 포함할 수 있다.
일 실시예에서, 프로세서(250)는, 방 탈출 게임 어플리케이션이 실행되는 동안, 문서(2030)에 대응하는 화면(2010)을 디스플레이 모듈(220)을 통하여 표시할 수 있다. 프로세서(250)는, 화면(2010)을 표시하는 동안, 복수의 제 1 영역들(2031, 2032, 2033, 2034, 2035, 2036, 2037, 2038, 2039) 중에서 하나의 제 1 영역(예: 영역(2036))에 대한 사용자 인터랙션에 검출된 경우, 사용자 인터랙션이 검출된 하나의 제 1 영역(예: 영역(2036))에 대한 사용자 인터랙션이 검출된 경우 표시하도록 설정된 방 공간과 관련된 화면을 디스플레이 모듈(220)을 통하여 표시할 수 있다.
도 21은, 다양한 실시예들에 따른, 사용자 인터랙션에 기반하여 전자 장치(110)의 기능을 수행하는 방법을 설명하기 위한 예시도(2100)이다.
도 21을 참조하면, 일 실시예에서, 사용자는 문서(2130)(예: 보드 게임 판) 및 전자 장치(110)를 이용하여 보드 게임을 진행할 수 있다.
일 실시예에서, 문서(2130)는, 보드 게임을 진행하기 위하여 인쇄된, 복수의 제 1 영역들(예: 영역들(2150, 2151, 2152))을 포함할 수 있다. 일 실시예에서, 프로세서(250)는, 카메라를 통하여 획득된 문서(2130)에 대한 제 1 이미지에 기반하여, 문서(2130)에 대응하는 화면(2110)을 디스플레이 모듈(220)을 통하여 표시할 수 있다. 프로세서(250)는, 마커(예: 게임 말(2161, 2162))에 의해 복수의 제 1 영역들이 가려진 경우, 화면(2110) 내에서 마커(예: 게임 말(2161, 2162))에 대응하는 오브젝트(예: 오브젝트들(2161-1, 2162-1))을 상기 가려진 복수의 제 1 영역들에 대응하는 화면(2110)의 위치로 이동시킬 수 있다.
일 실시예에서, 프로세서(250)는, 카메라(예: 제 1 카메라(121) 및/또는 제 2 카메라(111))를 통하여 획득된 이미지에 기반하여, 주사위(2140)가 나타내는 숫자(예: 숫자 3(2141))를 확인할 수 있다. 프로세서(250)는, 상기 가려진 복수의 제 1 영역들에 대응하는 화면(2110)의 위치 또는 상기 가려진 복수의 제 1 영역들의 위치와, 주사위(2140)가 나타내는 숫자(예: 숫자 6(2141))에 기반하여, 마커(예: 게임 말(2161, 2162))에 대응하는 오브젝트(예: 오브젝트들(2161-1, 2162-1))의 위치를 이동시킬 수 있다.
다양한 실시예들에 따른 전자 장치에서 사용자 인터랙션을 검출하는 방법은, 카메라를 통하여, 적어도 하나의 제 1 영역을 포함하는 문서의 제 1 이미지를 획득하는 동작, 상기 적어도 하나의 제 1 영역에 대응하고 상기 제 1 이미지에 포함된 적어도 하나의 제 1 부분이 변화하는지 여부를 결정하는 동작, 및 상기 적어도 하나의 제 1 부분이 변화됨을 결정함에 기반하여, 상기 적어도 하나의 제 1 부분에 대응하는 상기 전자 장치의 기능을 수행하는 동작을 포함할 수 있다.
다양한 실시예에서, 상기 제 1 이미지를 획득하는 동작은, 상기 전자 장치와 통신 연결된 카메라 장치의 카메라 또는 상기 전자 장치의 카메라를 통하여, 상기 문서에 대한 복수의 프레임들을 연속적으로 획득하는 동작을 포함할 수 있다.
다양한 실시예에서, 적어도 하나의 제 1 부분이 변화하는지 여부를 결정하는 동작은, 상기 복수의 프레임들에 기반하여, 상기 적어도 하나의 제 1 부분의 면적이 변화하는지 여부를 결정하는 동작을 포함할 수 있다.
다양한 실시예에서, 상기 적어도 하나의 제 1 부분의 면적이 변화하는지 여부를 결정하는 동작은, 상기 복수의 프레임들에 기반하여, 상기 적어도 하나의 제 1 부분의 면적이 감소되는지 여부를 결정하는 동작을 포함할 수 있다.
다양한 실시예에서, 상기 적어도 하나의 제 1 부분의 면적이 변화하는지 여부를 결정하는 동작은, 상기 복수의 프레임들에 기반하여, 상기 적어도 하나의 제 1 부분의 면적이 감소, 증가, 및 감소되는 패턴을 확인하는 동작을 포함할 수 있다.
다양한 실시예에서, 상기 적어도 하나의 제 1 부분의 면적이 변화하는지 여부를 결정하는 동작은, 상기 적어도 하나의 제 1 부분의 면적이 감소 후 유지되고, 상기 적어도 하나의 제 1 부분의 형태 또는 상기 적어도 하나의 제 1 부분 내에서 상기 면적이 감소된 부분의 위치가 변화하는지 여부를 결정하는 동작을 포함할 수 있다.
다양한 실시예에서, 적어도 하나의 제 1 부분이 변화하는지 여부를 결정하는 동작은, 상기 복수의 프레임들에 기반하여, 상기 적어도 하나의 제 1 부분의 형태가 변화하는지 여부를 결정하는 동작을 포함할 수 있다.
다양한 실시예에서, 상기 방법은, 적어도 하나의 제 1 부분이 변화됨을 결정함에 기반하여, 상기 적어도 하나의 제 1 영역이 손가락에 의해 가려지는지 여부를 결정하는 동작을 더 포함할 수 있다.
다양한 실시예에서, 적어도 하나의 제 1 영역을 포함하는 문서의 제 1 이미지를 획득하는 동작은, 복수의 제 1 영역들을 포함하는 문서의 제 1 이미지를 획득하는 동작을 포함하고, 상기 적어도 하나의 제 1 부분이 변화하는지 여부를 결정하는 동작은, 상기 복수의 제 1 영역들 중에서 2개 이상의 제 1 영역들에 대응하고 상기 제 1 이미지에 포함된 2개 이상의 제 1 부분들이 변화하는지 여부를 결정하는 동작을 포함하고, 상기 전자 장치의 기능을 수행하는 동작은, 상기 2개 이상의 제 1 부분들이 변화된 경우, 상기 문서 내에서 상기 2개 이상의 제 1 영역들의 위치들 또는 상기 제 1 이미지 내에서 상기 2개 이상의 제 1 부분들의 위치들에 기반하여, 제 1 부분을 선택하는 동작, 및 상기 선택된 제 1 부분에 대응하는 상기 전자 장치의 기능을 수행하는 동작을 포함할 수 있다.
다양한 실시예에서, 상기 방법은 상기 적어도 하나의 제 1 영역이 선택 가능함을 지시하는 가이드(guide)를 포함하는 화면을 표시하는 동작을 더 포함할 수 있다.
또한, 상술한 본 발명의 실시예에서 사용된 데이터의 구조는 컴퓨터로 읽을 수 있는 기록매체에 여러 수단을 통하여 기록될 수 있다. 상기 컴퓨터로 읽을 수 있는 기록매체는 마그네틱 저장매체(예를 들면, 롬, 플로피 디스크, 하드 디스크 등), 광학적 판독 매체(예를 들면, CD-ROM, DVD 등)와 같은 저장매체를 포함한다.
다양한 실시예들에 따른 프로세서에 의해 실행 가능한 프로그램 코드를 저장하는 비일시적 컴퓨터 판독가능 매체는, 상기 프로그램 코드가 실행되는 경우 상기 프로그램 코드는 상기 프로세서가, 카메라를 통하여, 적어도 하나의 제 1 영역을 포함하는 문서의 제 1 이미지를 획득하고, 상기 적어도 하나의 제 1 영역에 대응하고 상기 제 1 이미지에 포함된 적어도 하나의 제 1 부분이 변화하는지 여부를 결정하고, 및 상기 적어도 하나의 제 1 부분이 변화됨을 결정함에 기반하여, 상기 적어도 하나의 제 1 부분에 대응하는 상기 전자 장치의 기능을 수행하도록 구성될 수 있다.
다양한 실시예에서, 상기 프로그램 코드가 실행되는 경우 상기 프로그램 코드는 전자 장치의 프로세서가, 상기 전자 장치와 통신 연결된 카메라 장치의 카메라 또는 상기 전자 장치의 카메라를 통하여, 상기 문서에 대한 복수의 프레임들을 연속적으로 획득하도록 구성될 수 있다.
다양한 실시예에서, 상기 프로그램 코드가 실행되는 경우 상기 프로그램 코드는 전자 장치의 프로세서가, 상기 복수의 프레임들에 기반하여, 상기 적어도 하나의 제 1 부분의 면적이 변화하는지 여부를 결정하도록 구성될 수 있다.
다양한 실시예에서, 상기 프로그램 코드가 실행되는 경우 상기 프로그램 코드는 전자 장치의 프로세서가, 상기 복수의 프레임들에 기반하여, 상기 적어도 하나의 제 1 부분의 면적이 감소되는지 여부를 결정하도록 구성될 수 있다.
다양한 실시예에서, 상기 프로그램 코드가 실행되는 경우 상기 프로그램 코드는 전자 장치의 프로세서가, 상기 복수의 프레임들에 기반하여, 상기 적어도 하나의 제 1 부분의 면적이 감소, 증가, 및 감소되는 패턴을 확인하도록 구성될 수 있다.
다양한 실시예에서, 상기 프로그램 코드가 실행되는 경우 상기 프로그램 코드는 전자 장치의 프로세서가, 상기 적어도 하나의 제 1 부분의 면적이 감소 후 유지되고, 상기 적어도 하나의 제 1 부분의 형태 또는 상기 적어도 하나의 제 1 부분 내에서 상기 면적이 감소된 부분의 위치가 변화하는지 여부를 결정하도록 구성될 수 있다.
다양한 실시예에서, 상기 프로그램 코드가 실행되는 경우 상기 프로그램 코드는 전자 장치의 프로세서가, 상기 복수의 프레임들에 기반하여, 상기 적어도 하나의 제 1 부분의 형태가 변화하는지 여부를 결정하도록 구성될 수 있다.
다양한 실시예에서, 상기 프로그램 코드가 실행되는 경우 상기 프로그램 코드는 전자 장치의 프로세서가, 적어도 하나의 제 1 부분이 변화됨을 결정함에 기반하여, 상기 적어도 하나의 제 1 영역이 손가락에 의해 가려지는지 여부를 결정하도록 더 구성될 수 있다.
다양한 실시예에서, 상기 프로그램 코드가 실행되는 경우 상기 프로그램 코드는 전자 장치의 프로세서가, 복수의 제 1 영역들을 포함하는 문서의 제 1 이미지를 획득하고, 상기 복수의 제 1 영역들 중에서 2개 이상의 제 1 영역들에 대응하고 상기 제 1 이미지에 포함된 2개 이상의 제 1 부분들이 변화하는지 여부를 결정하고, 상기 2개 이상의 제 1 부분들이 변화된 경우, 상기 문서 내에서 상기 2개 이상의 제 1 영역들의 위치들 또는 상기 제 1 이미지 내에서 상기 2개 이상의 제 1 부분들의 위치들에 기반하여, 제 1 부분을 선택하고, 및 상기 선택된 제 1 부분에 대응하는 상기 전자 장치의 기능을 수행하도록 구성될 수 있다.
다양한 실시예에서, 상기 프로그램 코드가 실행되는 경우 상기 프로그램 코드는 전자 장치의 프로세서가, 상기 적어도 하나의 제 1 영역이 선택 가능함을 지시하는 가이드(guide)를 포함하는 화면을 표시하도록 더 구성될 수 있다.
110 : 전자 장치 120 : 카메라 장치
130 : AMS사 140 : 서버

Claims (20)

  1. 전자 장치에서 사용자 인터랙션을 검출하는 방법에 있어서,
    상기 전자 장치의 프로세서가, 카메라를 이용하여, 적어도 하나의 제 1 영역이 인쇄된 실물 문서의 제 1 이미지를 획득하는 동작;
    상기 프로세서가, 입력 도구에 의해 상기 실물 문서의 상기 적어도 하나의 제 1 영역의 적어도 일부가 가려짐으로써, 상기 획득된 제 1 이미지 내에서 상기 적어도 하나의 제 1 영역에 대응하는 적어도 하나의 오브젝트(object)의 면적이 변화됨을 결정하는 동작; 및
    상기 프로세서가, 상기 적어도 하나의 오브젝트의 면적이 변화됨을 결정함에 기반하여, 상기 적어도 하나의 오브젝트에 대응하는 상기 전자 장치의 기능을 수행하는 동작을 포함하고,
    상기 적어도 하나의 오브젝트의 면적이 변화됨을 결정하는 동작은,
    상기 적어도 하나의 오브젝트의 면적이 변화된 후, 상기 적어도 하나의 오브젝트의 면적이 지정된 시간 내에 상기 적어도 하나의 오브젝트의 면적이 변화되기 전 면적으로 다시 변화된 경우, 상기 적어도 하나의 오브젝트의 면적이 변화되지 않은 것으로 결정하는 동작; 및
    상기 적어도 하나의 오브젝트의 면적이 변화된 후, 상기 적어도 하나의 오브젝트의 면적이 상기 지정된 시간이 경과된 후 상기 적어도 하나의 오브젝트의 면적이 변화되기 전 면적으로 다시 변화된 경우, 상기 적어도 하나의 오브젝트의 면적이 변화된 것으로 결정하는 동작을 포함하고,
    상기 적어도 하나의 제 1 영역이 인쇄된 상기 실물 문서의 상기 제 1 이미지를 획득하는 동작은, 상기 프로세서가, 복수의 제 1 영역들이 인쇄된 상기 실물 문서의 상기 제 1 이미지를 획득하는 동작을 포함하고,
    상기 적어도 하나의 오브젝트의 면적이 변화됨을 결정하는 동작은, 상기 프로세서가, 상기 제 1 이미지 내에서 상기 복수의 제 1 영역들 중에서 2개 이상의 제 1 영역들 각각에 대응하는 2개 이상의 오브젝트들의 면적들이 변화됨을 결정하는 동작을 포함하고,
    상기 전자 장치의 기능을 수행하는 동작은,
    상기 프로세서가, 상기 2개 이상의 오브젝트들의 면적들이 변화된 경우, 상기 실물 문서 내에서 상기 2개 이상의 제 1 영역들의 위치들 또는 상기 제 1 이미지 내에서 상기 2개 이상의 오브젝트들의 위치들에 기반하여, 상기 2개 이상의 오브젝트들 중에서 하나의 오브젝트를 선택하는 동작; 및
    상기 프로세서가, 상기 선택된 하나의 오브젝트에 대응하는 상기 전자 장치의 기능을 수행하는 동작을 포함하는 방법.
  2. 제 1 항에 있어서,
    상기 제 1 이미지를 획득하는 동작은,
    상기 프로세서가, 상기 전자 장치와 통신 연결된 카메라 장치의 카메라 또는 상기 전자 장치의 카메라를 통하여, 상기 실물 문서에 대한 복수의 프레임들을 연속적으로 획득하는 동작을 포함하는 방법.
  3. 제 2 항에 있어서,
    적어도 하나의 오브젝트의 면적이 변화됨을 결정하는 동작은,
    상기 프로세서가, 상기 복수의 프레임들에 기반하여, 상기 적어도 하나의 오브젝트의 면적이 변화됨을 결정하는 동작을 포함하는 방법.
  4. 제 3 항에 있어서,
    상기 적어도 하나의 오브젝트의 면적이 변화됨을 결정하는 동작은,
    상기 프로세서가, 상기 복수의 프레임들에 기반하여, 상기 적어도 하나의 오브젝트의 면적이 감소됨을 결정하는 동작을 포함하는 방법.
  5. 제 3 항에 있어서,
    상기 적어도 하나의 오브젝트의 면적이 변화됨을 결정하는 동작은,
    상기 프로세서가, 상기 복수의 프레임들에 기반하여, 상기 적어도 하나의 오브젝트의 면적이 감소, 증가, 및 감소되는 패턴을 확인하는 동작을 포함하는 방법.
  6. 제 3 항에 있어서,
    상기 적어도 하나의 오브젝트의 면적이 변화됨을 결정하는 동작은,
    상기 프로세서가, 상기 적어도 하나의 오브젝트의 면적이 감소 후 유지되고, 상기 적어도 하나의 오브젝트의 형태 또는 상기 적어도 하나의 오브젝트 내에서 상기 면적이 감소된 부분의 위치가 변화됨을 결정하는 동작을 포함하는 방법.
  7. 삭제
  8. 제 1 항에 있어서,
    상기 입력 도구는, 사용자의 손가락, 전자 펜, 또는 마커(marker)를 포함하는 방법.
  9. 삭제
  10. 제 1 항에 있어서,
    상기 프로세서가 상기 적어도 하나의 제 1 영역이 선택 가능함을 지시하는 가이드(guide)를 포함하는 화면을 표시하는 동작을 더 포함하는 방법.
  11. 전자 장치의 프로세서에 의해 실행 가능한 프로그램 코드를 저장하는 비일시적 컴퓨터 판독가능 매체에 있어서, 상기 프로그램 코드가 실행되는 경우 상기 프로그램 코드는 상기 프로세서가:
    카메라를 이용하여, 적어도 하나의 제 1 영역이 인쇄된 실물 문서의 제 1 이미지를 획득하고,
    입력 도구에 의해 상기 실물 문서의 상기 적어도 하나의 제 1 영역의 적어도 일부가 가려짐으로써, 상기 획득된 제 1 이미지 내에서 상기 적어도 하나의 제 1 영역에 대응하는 적어도 하나의 오브젝트의 면적이 변화됨을 결정하고, 및
    상기 적어도 하나의 오브젝트의 면적이 변화됨을 결정함에 기반하여, 상기 적어도 하나의 오브젝트에 대응하는 상기 전자 장치의 기능을 수행하도록 구성되고,
    상기 프로그램 코드는 상기 프로세서가,
    상기 적어도 하나의 오브젝트의 면적이 변화된 후, 상기 적어도 하나의 오브젝트의 면적이 지정된 시간 내에 상기 적어도 하나의 오브젝트의 면적이 변화되기 전 면적으로 다시 변화된 경우, 상기 적어도 하나의 오브젝트의 면적이 변화되지 않은 것으로 결정하고, 및
    상기 적어도 하나의 오브젝트의 면적이 변화된 후, 상기 적어도 하나의 오브젝트의 면적이 상기 지정된 시간이 경과된 후 상기 적어도 하나의 오브젝트의 면적이 변화되기 전 면적으로 다시 변화된 경우, 상기 적어도 하나의 오브젝트의 면적이 변화된 것으로 결정하도록 구성되고,
    상기 프로그램 코드는 상기 프로세서가,
    복수의 제 1 영역들이 인쇄된 상기 실물 문서의 상기 제 1 이미지를 획득하고,
    상기 제 1 이미지 내에서 상기 복수의 제 1 영역들 중에서 2개 이상의 제 1 영역들에 대응하는 2개 이상의 오브젝트들의 면적들이 변화됨을 결정하고,
    상기 2개 이상의 오브젝트들의 면적들이 변화된 경우, 상기 실물 문서 내에서 상기 2개 이상의 제 1 영역들의 위치들 또는 상기 제 1 이미지 내에서 상기 2개 이상의 오브젝트들의 위치들에 기반하여, 상기 2개 이상의 오브젝트들 중에서 하나의 오브젝트를 선택하고, 및
    상기 선택된 하나의 오브젝트에 대응하는 상기 전자 장치의 기능을 수행하도록 구성된,
    비일시적인 컴퓨터 판독가능 매체.
  12. 제 11 항에 있어서,
    상기 프로그램 코드가 실행되는 경우 상기 프로그램 코드는 상기 프로세서가,
    상기 전자 장치와 통신 연결된 카메라 장치의 카메라 또는 상기 전자 장치의 카메라를 통하여, 상기 실물 문서에 대한 복수의 프레임들을 연속적으로 획득하도록 구성된,
    비일시적인 컴퓨터 판독가능 매체.
  13. 제 12 항에 있어서,
    상기 프로그램 코드가 실행되는 경우 상기 프로그램 코드는 상기 프로세서가,
    상기 복수의 프레임들에 기반하여, 상기 적어도 하나의 오브젝트의 면적이 변화됨을 결정하도록 구성된,
    비일시적인 컴퓨터 판독가능 매체.
  14. 제 13 항에 있어서,
    상기 프로그램 코드가 실행되는 경우 상기 프로그램 코드는 상기 프로세서가,
    상기 복수의 프레임들에 기반하여, 상기 적어도 하나의 오브젝트의 면적이 감소됨을 결정하도록 구성된,
    비일시적인 컴퓨터 판독가능 매체.
  15. 제 13 항에 있어서,
    상기 프로그램 코드가 실행되는 경우 상기 프로그램 코드는 상기 프로세서가,
    상기 복수의 프레임들에 기반하여, 상기 적어도 하나의 오브젝트의 면적이 감소, 증가, 및 감소되는 패턴을 확인하도록 구성된,
    비일시적인 컴퓨터 판독가능 매체.
  16. 제 13 항에 있어서,
    상기 프로그램 코드가 실행되는 경우 상기 프로그램 코드는 상기 프로세서가,
    상기 적어도 하나의 오브젝트의 면적이 감소 후 유지되고, 상기 적어도 하나의 오브젝트의 형태 또는 상기 적어도 하나의 오브젝트 내에서 상기 면적이 감소된 부분의 위치가 변화됨을 결정하도록 구성된,
    비일시적인 컴퓨터 판독가능 매체.
  17. 삭제
  18. 제 11 항에 있어서,
    상기 입력 도구는, 사용자의 손가락, 전자 펜, 또는 마커를 포함하는,
    비일시적인 컴퓨터 판독가능 매체.
  19. 삭제
  20. 제 11 항에 있어서,
    상기 프로그램 코드가 실행되는 경우 상기 프로그램 코드는 상기 프로세서가,
    상기 적어도 하나의 제 1 영역이 선택 가능함을 지시하는 가이드(guide)를 포함하는 화면을 표시하도록 더 구성된,
    비일시적인 컴퓨터 판독가능 매체.
KR1020210193214A 2021-12-30 2021-12-30 사용자 인터랙션을 검출하는 방법 및 이를 지원하는 전자 장치 KR102465039B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020210193214A KR102465039B1 (ko) 2021-12-30 2021-12-30 사용자 인터랙션을 검출하는 방법 및 이를 지원하는 전자 장치
KR1020220128904A KR20230103921A (ko) 2021-12-30 2022-10-07 사용자 인터랙션을 검출하는 방법 및 이를 지원하는 전자 장치
US18/146,632 US20230215218A1 (en) 2021-12-30 2022-12-27 Method of detecting user interaction and electronic device supporting the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210193214A KR102465039B1 (ko) 2021-12-30 2021-12-30 사용자 인터랙션을 검출하는 방법 및 이를 지원하는 전자 장치

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020220128904A Division KR20230103921A (ko) 2021-12-30 2022-10-07 사용자 인터랙션을 검출하는 방법 및 이를 지원하는 전자 장치

Publications (2)

Publication Number Publication Date
KR102465039B1 true KR102465039B1 (ko) 2022-11-10
KR102465039B9 KR102465039B9 (ko) 2023-04-12

Family

ID=84101869

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020210193214A KR102465039B1 (ko) 2021-12-30 2021-12-30 사용자 인터랙션을 검출하는 방법 및 이를 지원하는 전자 장치
KR1020220128904A KR20230103921A (ko) 2021-12-30 2022-10-07 사용자 인터랙션을 검출하는 방법 및 이를 지원하는 전자 장치

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020220128904A KR20230103921A (ko) 2021-12-30 2022-10-07 사용자 인터랙션을 검출하는 방법 및 이를 지원하는 전자 장치

Country Status (2)

Country Link
US (1) US20230215218A1 (ko)
KR (2) KR102465039B1 (ko)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100042006A (ko) * 2008-10-15 2010-04-23 엘지전자 주식회사 이동 단말기 및 이것의 터치 인식 방법
KR20150072729A (ko) * 2013-12-20 2015-06-30 삼성전자주식회사 휴대장치 및 그 컨텐츠 공유 방법
KR101587471B1 (ko) 2014-03-17 2016-01-21 홍익대학교 산학협력단 웨어러블 컴퓨터를 이용한 독서 증강을 위한 책 시스템 및 독서 증강 방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100042006A (ko) * 2008-10-15 2010-04-23 엘지전자 주식회사 이동 단말기 및 이것의 터치 인식 방법
KR20150072729A (ko) * 2013-12-20 2015-06-30 삼성전자주식회사 휴대장치 및 그 컨텐츠 공유 방법
KR101587471B1 (ko) 2014-03-17 2016-01-21 홍익대학교 산학협력단 웨어러블 컴퓨터를 이용한 독서 증강을 위한 책 시스템 및 독서 증강 방법

Also Published As

Publication number Publication date
US20230215218A1 (en) 2023-07-06
KR20230103921A (ko) 2023-07-07
KR102465039B9 (ko) 2023-04-12

Similar Documents

Publication Publication Date Title
US11262835B2 (en) Human-body-gesture-based region and volume selection for HMD
US11080937B2 (en) Wearable augmented reality devices with object detection and tracking
CN107809504B (zh) 显示信息的方法、装置、终端及存储介质
US10642366B2 (en) Proximity sensor-based interactions
KR102097452B1 (ko) 프로젝터를 포함하는 전자 장치 및 그 제어 방법
EP3037924A1 (en) Augmented display and glove with markers as us user input device
US10394316B2 (en) Multiple display modes on a mobile device
JP2006350705A (ja) 情報提供装置および方法並びにプログラム
US20180213147A1 (en) Information processing apparatus having camera function and producing guide display to capture character recognizable image, control method thereof, and storage medium
US20230140737A1 (en) Drift cancelation for portable object detection and tracking
EP2690524A1 (en) Electronic apparatus, control method, and control program
CN111420395A (zh) 游戏中的交互方法及装置、可读存储介质、电子设备
KR102604937B1 (ko) 캐릭터를 포함하는 동영상을 생성하기 위한 전자 장치 및 그에 관한 방법
US9454300B2 (en) Device, control method, and storage medium storing program
KR102465039B1 (ko) 사용자 인터랙션을 검출하는 방법 및 이를 지원하는 전자 장치
US20150253932A1 (en) Information processing apparatus, information processing system and information processing method
CN116580707A (zh) 基于语音生成动作视频的方法和装置
KR102175519B1 (ko) 실제 사물의 사용성을 증강하는 가상 콘텐츠 제공 장치 및 방법
US11810231B2 (en) Electronic device and method for editing content of external device
JP6227183B1 (ja) 画像表示プログラム及び情報端末
KR101592977B1 (ko) 디스플레이 장치 및 그 제어 방법
US20230367402A1 (en) Information processing device, information processing system, information processing method, and non-transitory computer readable medium
KR102526634B1 (ko) 마커를 이용하여 콘텐트를 제공하는 방법 및 이를 지원하는 전자 장치
JP2014063344A (ja) 携帯端末装置、表示プログラムおよび記録媒体
US9372661B2 (en) Apparatus and method of generating a sound effect in a portable terminal

Legal Events

Date Code Title Description
AMND Amendment
X091 Application refused [patent]
A107 Divisional application of patent
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant
G170 Re-publication after modification of scope of protection [patent]