KR101628246B1 - 컨텐츠 표시 방법 및 장치 - Google Patents

컨텐츠 표시 방법 및 장치 Download PDF

Info

Publication number
KR101628246B1
KR101628246B1 KR1020140134477A KR20140134477A KR101628246B1 KR 101628246 B1 KR101628246 B1 KR 101628246B1 KR 1020140134477 A KR1020140134477 A KR 1020140134477A KR 20140134477 A KR20140134477 A KR 20140134477A KR 101628246 B1 KR101628246 B1 KR 101628246B1
Authority
KR
South Korea
Prior art keywords
content
input tool
information
display unit
display
Prior art date
Application number
KR1020140134477A
Other languages
English (en)
Other versions
KR20150100470A (ko
Inventor
김도현
정호영
이원희
이재웅
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to EP15752585.8A priority Critical patent/EP3111313A4/en
Priority to PCT/KR2015/001430 priority patent/WO2015126098A1/en
Priority to CN201580010129.3A priority patent/CN106062700A/zh
Priority to US14/629,763 priority patent/US20150242108A1/en
Publication of KR20150100470A publication Critical patent/KR20150100470A/ko
Application granted granted Critical
Publication of KR101628246B1 publication Critical patent/KR101628246B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B1/00Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
    • H04B1/38Transceivers, i.e. devices in which transmitter and receiver form a structural unit and in which at least one part is used for functions of transmitting and receiving
    • H04B1/40Circuits
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/046Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by electromagnetic means

Abstract

기재된 실시예는 보다 직관적으로 컨텐츠를 제공할 수 있는 단말기 및 단말기의 컨텐츠 표시 방법에 관한 것으로서, 표시부에 제 1 컨텐츠를 표시하고, 표시부에 표시된 제 1 컨텐츠에 대한 입력 도구의 근접 여부에 대한 근접 정보를 획득하고, 근접 정보에 기초하여 제 1 컨텐츠의 소정의 영역 내에 제 2 커넨츠를 표시하는 단계를 포함하는 방법이 제공될 수 있다.

Description

컨텐츠 표시 방법 및 장치{Method and Apparatus of Displaying Content}
기재된 실시예는 보다 직관적으로 컨텐츠를 제공할 수 있는 단말기 및 단말기의 제어 방법에 관한 것이다.
통신 기술이 발전되고 전자 장치가 소형화됨에 따라 이동 단말기가 일반 소비자에게 널리 보급되고 있다. 특히 최근에는 스마트폰 또는 스마트 태블릿과 같은 개인용 단말기가 널리 보급되고 있다.
단말기는 표시 장치를 포함할 수 있다. 표시 장치는 예를 들어 터치스크린일 수 있다. 표시 장치는 컨텐츠를 표시하는 기능뿐 아니라 사용자로부터 입력을 수신하는 기능도 함께 수행할 수 있다. 예를 들어, 터치스크린은 화면을 표시하는 기능뿐 아니라 사용자로부터 터치 입력을 수신하는 기능도 함께 수행할 수 있다.
단말기의 사용자는 손가락 또는 입력 도구를 이용하여 단말기를 제어할 수 있다. 사용자는 손가락 또는 입력 도구를 이용하여 정보를 입력할 수 있다. 단말기는 사용자로부터 수신된 정보에 따라 화면을 표시하거나 소리를 재생할 수 있다.
기재된 실시예에 따르면 보다 직관적으로 컨텐츠를 제공할 수 있는 단말기 및 단말기의 제어 방법이 제공될 수 있다.
또한, 보다 간단한 조작에 의해 화면을 표시하거나 소리를 재생할 수 있는 단말기 및 단말기의 제어 방법이 제공될 수 있다.
본 발명의 일 실시예는, 본 발명의 일 실시예에 따른 단말기는, 상기 단말기에 표시된 제 1 컨텐츠에 대한 입력 도구의 근접 여부에 대한 근접 정보를 획득하는 입력부; 상기 근접 정보에 기초하여 상기 제 1 컨텐츠의 소정의 영역 내에 제 2 컨텐츠를 표시하도록 표시부를 제어하는 제어부; 및 상기 근접 정보에 기초하여 제 1 컨텐츠 및 제 2 컨텐츠를 표시하는 표시부를 포함할 수 있다.
상기 제어부는, 상기 입력 도구가 상기 표시부로부터 소정 범위 내에 근접해있는지 판단하고, 상기 판단에 기초하여 상기 제 1 컨텐츠의 소정의 영역 내에 제 2 컨텐츠를 표시하도록 표시부를 제어할 수 있다.
상기 근접 정보는 상기 입력 도구의 위치에 대한 정보를 더 포함하며, 상기 제어부는, 상기 입력 도구의 위치에 기초하여, 상기 제 1 컨텐츠의 소정의 영역 내에 제 2 컨텐츠를 중첩하여 표시하도록 표시부를 제어할 수 있다.
상기 근접 정보는 상기 단말기와 상기 입력 도구의 근접 정도에 대한 정보를 더 포함하고, 상기 제어부는, 상기 근접 정도에 대한 정보에 기초하여 상기 제 1 컨텐츠의 소정의 영역 내에 상기 제 2 컨텐츠를 표시하도록 상기 표시부를 제어할 수 있다.
상기 제어부는, 상기 근접 정도에 대한 정보에 기초하여 복수의 컨텐츠들 중 상기 제 2 컨텐츠를 선택할 수 있다.
상기 제어부는, 상기 근접 정보에 기초하여, 소정의 시간 동안 상기 입력 도구의 위치의 변화량을 소정의 기준과 비교하고, 상기 비교 결과에 기초하여 상기 제 1 컨텐츠의 소정의 영역 내에 제 3 컨텐츠를 표시하도록 상기 표시부를 제어할 수 있다.
상기 제1 내지 제 3 컨텐츠는 텍스트, 그림, 사진 또는 동영상 중에서 적어도 하나 이상을 포함할 수 있다.
상기 제어부는, 상기 입력 도구로부터 수신된 입력 정보에 기초하여 상기 제 1 컨텐츠 내의 소정의 영역에 상기 제 3 컨텐츠를 표시하도록 상기 표시부를 제어할 수 있다.
상기 입력부는 상기 입력 도구에 의한 터치입력을 더 감지하고, 상기 제어부는 상기 터치입력에 따라 상기 제 1 컨텐츠의 소정의 영역 내에 상기 제 3 컨텐츠가 표시되도록 상기 표시부를 제어할 수 있다.
상기 입력 도구의 위치에 대한 정보는, 상기 입력 도구의 끝부분으로부터 상기 표시부를 향해 수직으로 연장된 직선과 상기 표시부의 표면이 만나는 지점의 위치에 대한 정보를 포함하며, 상기 제어부는 상기 입력도구의 끝부분으로부터 상기 표시부를 향해 수직으로 연장된 직선과 상기 표시부의 표면이 만나는 지점의 위치에 대한 정보 및 상기 단말기와 상기 입력 도구의 근접 정도에 대한 정보를 이용하여 상기 표시부를 제어할 수 있다.
상기 단말기는, 소리를 재생하는 스피커를 더 포함하고, 상기 제어부는 상기 근접 정보를 이용하여 상기 스피커를 제어할 수 있다.
본 발명의 일 실시예에 따른 단말기의 컨텐츠 표시 방법에 있어서, 상기 표시부에 제 1 컨텐츠를 표시하는 단계; 상기 표시부에 표시된 제 1 컨텐츠에 대한 입력 도구의 근접 여부에 대한 근접 정보를 획득하는 단계; 상기 근접 정보에 기초하여 상기 제 1 컨텐츠의 소정의 영역 내에 제 2 컨텐츠를 표시하는 단계를 포함할 수 있다.
상기 표시하는 단계는, 상기 입력 도구가 상기 표시부로부터 소정 범위 내에 근접해있는지 판단하는 단계; 및 상기 판단에 기초하여 상기 제 1 컨텐츠의 소정의 영역 내에 제 2 컨텐츠를 표시하는 단계를 포함할 수 있다.
상기 근접 정보는 상기 입력 도구의 위치에 대한 정보를 더 포함하며, 상기 표시하는 단계는, 상기 입력 도구의 위치에 기초하여 상기 제 1 컨텐츠의 소정의 영역 내에 제 2 컨텐츠를 중첩하여 표시하는 단계를 포함할 수 있다.
상기 근접 정보는 상기 단말기와 상기 입력 도구의 근접 정도에 대한 정보를 더 포함하고, 상기 표시하는 단계는, 상기 근접 정도에 대한 정보에 기초하여, 상기 제 1 컨텐츠의 소정의 영역 내에 상기 제 2 컨텐츠를 표시하는 단계를 포함할 수 있다.
상기 표시하는 단계는, 상기 근접 정도에 대한 정보에 기초하여, 복수의 컨텐츠들 중 상기 제 2 컨텐츠를 선택하는 단계를 더 포함할 수 있다.
상기 표시하는 단계는, 상기 근접 정보에 기초하여, 소정의 시간 동안의 상기 입력 도구의 위치의 변화량을 소정의 기준과 비교하는 단계; 및 상기 비교 결과에 기초하여 상기 제 1 컨텐츠의 소정의 영역 내에 제 3 컨텐츠를 표시하는 단계를 더 포함할 수 있다.
상기 제 1 내지 제 3 컨텐츠는 텍스트, 그림, 사진 또는 동영상 중에서 적어도 하나 이상을 포함할 수 있다.
상기 표시하는 단계는, 상기 입력 도구로부터 입력 정보를 수신하는 단계; 및 상기 수신된 입력 정보에 기초하여 상기 제 1 컨텐츠 내의 소정의 영역에 상기 제 3 컨텐츠를 표시하는 단계를 더 포함할 수 있다.
상기 표시하는 단계는, 상기 입력 도구에 의한 터치입력을 감지하는 단계; 및 상기 터치입력에 따라 상기 제 1 컨텐츠의 소정의 영역 내에 상기 제 3 컨텐츠를 표시하는 단계를 더 포함할 수 있다.
상기 입력 도구의 위치에 대한 정보는 상기 입력 도구의 끝부분으로부터 상기 표시부를 향해 수직으로 연장된 직선과 상기 표시부의 표면이 만나는 지점의 위치에 대한 정보를 포함하며, 상기 표시하는 단계는, 상기 입력도구의 끝부분으로부터 상기 표시부를 향해 수직으로 연장된 직선과 상기 표시부의 표면이 만나는 지점의 위치에 대한 정보 및 상기 단말기와 상기 입력 도구의 근접 정도에 대한 정보를 이용하여 상기 제 1 컨텐츠의 소정의 영역 내에 상기 제 2 컨텐츠를 표시하는 단계를 포함할 수 있다.
상기 방법은, 상기 근접 정보를 이용하여 상기 단말기에 포함된 스피커를 제어하는 단계를 더 포함할 수 있다.
본 발명의 일 실시예는, 상기 방법을 실행시키기 위한 프로그램이 기록된 컴퓨터로 읽을 수 있는 기록 매체를 제공할 수 있다.
기재된 실시예에 따르면 보다 직관적으로 컨텐츠가 제공될 수 있다.
또한, 보다 간단한 조작에 의해 화면이 표시되거나 소리가 재생될 수 있다.
도 1은 본 발명의 일 실시예에 따른 단말기의 구성을 나타내는 블록도이다.
도 2는 본 발명의 일 실시예에 따른 입력 도구로부터 입력을 수신하기 전에 단말기에 표시된 화면을 도시한다.
도 3은 본 발명의 일 실시예에 따른 입력 도구가 단말기로부터 5cm 범위 내에 위치한 경우 단말기에 표시된 화면을 도시한다.
도 4는 본 발명의 일 실시예에 따른 입력 도구가 단말기로부터 3cm 범위 내에 위치한 경우 단말기에 표시된 화면을 도시한다.
도 5는 본 발명의 일 실시예에 따른 입력 도구가 단말기로부터 1cm 범위 내에 위치한 경우 단말기에 표시된 화면을 도시한다.
도 6은 본 발명의 일 실시예에 따른 추가적인 컨텐츠가 팝업 형식으로 더 표시된 단말기의 화면을 도시한다.
도 7은 본 발명의 일 실시예에 따른 동영상이 팝업 형식으로 더 표시된 단말기의 화면을 도시한다.
도 8은 본 발명의 일 실시예에 따른 추가적인 컨텐츠가 표시된 이후에 새로운 컨텐츠가 표시된 단말기의 화면을 도시한다.
도 9는 본 발명의 일 실시예에 따른 컨텐츠 표시 방법이 수행되는 과정을 나타내는 순서도이다.
도 10은 본 발명의 일부 실시예에 따른 복수의 레이어로 구성된 컨텐츠를 도시한다.
도 11은 본 발명의 일부 실시예에 따른 근접 정보에 따른 복수의 레이어로 구성된 컨텐츠를 표시하는 화면을 도시한다.
도 12는 본 발명의 일부 실시예에 따른 근접 정보에 따른 복수의 레이어로 구성된 컨텐츠를 도시하는 방법을 나타내는 순서도이다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.
비록 "제1" 또는 "제2" 등이 다양한 구성요소를 서술하기 위해서 사용되나, 이러한 구성요소는 상기와 같은 용어에 의해 제한되지 않는다. 상기와 같은 용어는 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용될 수 있다. 따라서, 이하에서 언급되는 제1구성요소는 본 발명의 기술적 사상 내에서 제2구성요소일 수도 있다.
본 명세서에서 사용된 용어는 실시예를 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 또는 "포함하는(comprising)"은 언급된 구성요소 또는 단계가 하나 이상의 다른 구성요소 또는 단계의 존재 또는 추가를 배제하지 않는다는 의미를 내포한다.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 해석될 수 있다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.
이하에서는, 도 1 내지 도 9를 참조하여 실시예에 따른 단말기 및 단말기의 제어 방법에 대해 상세히 설명하기로 한다.
도 1은 실시예에 따른 단말기(100)의 구성을 나타내는 블록도이다. 단말기(100)는 예를 들어, 랩탑 컴퓨터, 퍼스널 컴퓨터, 스마트폰, 또는 스마트 태블릿 등 다양한 전자기기일 수 있다. 도 1을 참조하면, 단말기(100)는 입력부(110), 표시부(120), 스피커(130), 및 제어부(140)를 포함할 수 있다.
일부 실시예에 따르면, 단말기(100)가 포함하는 입력부(110), 표시부(120), 스피커(130) 및 제어부(140)는 하나 이상의 프로세서를 포함할 수 있으며, 하드웨어로 구성될 수 있다.
본 발명의 일 실시예에 따르면 입력부(110)는 외부로부터 입력을 수신할 수 있다. 입력부(110)는 단말기(100)의 사용자로부터 입력을 수신할 수 있다. 입력부(110)는 예를 들어, 터치스크린, 터치패드 등 다양한 사용자 인터페이스를 포함할 수 있다. 추가적으로, 본 발명의 일 실시예에 따르면, 입력부(110)는 입력 도구로부터 입력을 수신할 수 있다.
본 발명의 일 실시예에 다르면, 입력 도구는 전자 펜, 스타일러스 펜과 같은 전자기 공명(Electomagnetic Resonance, EMR) 방식을 사용하는 펜일 수 있다. 또한 본 발명의 일 실시예에 따르면, 입력 도구는 단말기를 사용하는 사용자의 신체의 일부일 수 있다. 예를 들어, 입력도구는 사용자의 손가락일 수 있다.
본 발명의 일 실시예에 따르면, 입력부(110)는 전자기 공명 펜으로부터 입력을 수신할 수 있도록 전자기 공명 방식의 터치스크린을 포함할 수 있다. 또한, 본 발명의 일 실시예에 따르면 입력 도구는 적어도 하나 이상의 버튼을 포함할 수 있으며, 입력 도구는 버튼을 통해 사용자의 입력을 수신할 수 있고, 버튼을 통해 수신한 사용자의 입력을 단말기에 전송할 수 있다.
본 발명의 일 실시예에 따르면, 입력부(110)는 입력 도구를 통해 터치입력을 수신할 수 있다. 사용자는 입력 도구를 이용하여 단말기(100)의 표시부(120)의 특정한 지점을 터치할 수 있다. 또한, 입력부(110)는 입력 도구로부터 버튼입력을 수신할 수 있다. 추가적으로 입력 도구는 입력도구에 포함된 버튼을 누르거나 상기 버튼의 눌림을 해제하는 사용자 입력을 수신할 수 있다.
또한, 본 발명의 일 실시예에 따르면 입력부(110)는 단말기(100)에 대한 입력 도구의 근접 정보를 획득할 수 있다.
본 발명의 일 실시예에 따르면, 근접 정보는 입력 도구가 단말기(100)에 근접하는지에 대한 정보를 포함할 수 있다. 즉, 근접 정보는 입력 도구가 단말기(100)의 표시부 위에 위치하는지에 대한 정보 또는 입력 도구가 표시부로부터 소정 범위 내에 근접해있는지에 대한 정보 중 적어도 하나를 포함할 수 있다.
본 발명의 일 실시예에 따르면, 단말기는 입력 도구가 단말기(100)의 표시부 위의 소정의 범위 내에 근접하는지를 감지하고, 감지 결과에 기초하여 입력 도구가 단말기에 근접하는지 판단할 수 있다.
추가적으로, 본 발명의 일 실시예에 따르면, 근접 정보는 입력 도구의 위치에 대한 정보를 포함할 수 있다. 즉, 근접 정보는 입력 도구가 단말기(100)를 기준으로 어디에 위치해 있는지에 대한 정보를 포함할 수 있다. 예를 들어, 근접 정보는 입력 도구의 3차원 좌표에 대한 정보를 포함할 수 있다.
또한 본 발명의 일 실시예에 따르면, 근접 정보는 단말기(100)와 입력 도구의 근접 정도에 대한 정보를 포함할 수 있다. 즉, 근접 정보는 입력 도구가 단말기와 얼마나 근접해 있는지에 대한 정보를 포함할 수 있다. 예를 들어, 단말기는 입력 도구가 단말기로부터 3cm 내에 위치해있는지, 5cm 내에 근접해있는지 감지할 수 있다.
본 발명의 일 실시예에 따르면, 표시부(120)는 화면을 표시할 수 있다. 즉, 표시부(120)는 컨텐츠 표시할 수 있다. 예를 들어, 표시부(120)가 표시하는 화면은 그림, 사진, 또는 동영상과 같은 컨텐츠를 표시한 화면일 수 있다. 표시부(120)는 예를 들어, LCD(Liquid Crystal Display), OLED(Organic Light Emitting Diode), PDP(Plasma Display Panel) 등의 평판 표시 장치를 포함할 수 있다. 또한 표시부(120)는, 곡면 디스플레이 또는 플렉서블 디스플레이(flexible display)를 포함할 수 있다. 표시부(120)와 입력부(110)는, 일체로 구성될 수도 있고, 별개로 구성될 수도 있다.
본 발명의 일 실시예에 따르면 표시부(120)는 제 1 컨텐츠 및 제 2 컨텐츠를 표시할 수 있다. 즉, 표시부(120)는 근접 정보에 기초하여 제 1 컨텐츠 및 제 2 컨텐츠를 표시할 수 있다. 또한 표시부(120)는 제 1 컨텐츠, 제 2 컨텐츠와는 상이한 제 3 컨텐츠를 더 표시할 수도 있다.
본 발명의 일 실시예에 따르면 표시부(120)가 컨텐츠를 표시하는 방법에는 제한이 없다. 표시부(120)는 제어부(140)의 제어에 따라 제 1 컨텐츠와 제 2 컨텐츠를 함께 표시할 수 있고, 제 1 컨텐츠의 소정의 범위 내에 제 2 컨텐츠를 표시할 수도 있다. 또한 제 1 컨텐츠의 소정의 범위 내에 제 2 컨텐츠를 중첩하여 표시할 수 도 있다.
본 발명의 일 실시예에 따르면, 스피커(130)는 소리를 재생할 수 있다. 스피커(130)에서 재생되는 소리는 청각적인 컨텐츠를 포함할 수 있다. 예를 들어, 상기 소리는 효과음 또는 음악을 포함할 수 있다.
본 발명의 일 실시예에 따르면, 제어부(140)는 입력부(110)에 의해 획득되거나 감지된 정보를 이용하여 표시부(120) 또는 스피커(130)를 제어할 수 있다. 예를 들어, 제어부(140)는 입력부(110)에 의해 획득, 수신 및 감지된 근접 정보를 이용하여 표시부(120)에 컨텐츠가 표시되도록 제어하거나 스피커(130)에서 소리가 재생되도록 제어할 수 있다. 제어부(140)는 예를 들어, 중앙처리장치(Central Processing Unit, CPU)일 수 있다.
본 발명의 일 실시예에 따르면, 제어부(140)는 입력 도구가 표시부(120)에 근접하는지 여부에 대한 정보인 근접 정보에 기초하여 제 1 컨텐츠의 소정의 영역 내에 제 2 컨텐츠를 표시하도록 표시부를 제어할 수 있다. 즉, 제어부(140)는 입력 도구가 표시부(120)로부터 소정 범위 내에 근접해 있는지 감지, 판단하고, 판단에 기초하여 제 1 컨텐츠의 소정의 영역 내에 제 2 컨텐츠를 표시하도록 표시부를 제어할 수 있다. 예를 들어, 제어부(140)는 입력 도구가 표시부(120) 위의 소정의 범위 내에 위치하는지 여부에 따라 제 1 컨텐츠의 소정의 영역 내에 제 2 컨텐츠를 표시할지 여부를 결정할 수 있다.
추가적으로, 본 발명의 일 실시예에 따르면 제어부(140)는 입력 도구의 위치에 기초하여 제 1 컨텐츠의 소정의 영역 내에 제 2 컨텐츠를 중첩하여 표시하도록 표시부(120)를 제어할 수 있다. 예를 들어, 제어부(140)는 입력 도구의 끝부분으로부터 상기 표시부를 향해 수직으로 연장된 직선과 상기 표시부의 표면이 만나는 지점의 위치 또는 입력 도구의 위치를 기준으로, 제 1 컨텐츠의 소정의 영역 내에 제 2 컨텐츠를 중첩하여 표시하도록 표시부(120)를 제어할 수 있다.
본 발명의 일 실시예에 따르면 제어부(140)는 표시부(120)에 대한 입력 도구의 근접 정도에 따라 표시부(120)가 컨텐츠를 표시하도록 제어할 수 있다.
즉, 본 발명의 일 실시예에 따르면 제어부(140)는 근접 정도에 대한 정보에 기초하여 복수의 컨텐츠들 중 하나의 컨텐츠인 제 2 컨텐츠를 선택하고, 선택한 제 2 컨텐츠를 제 1 컨텐츠와 함께 또는 별도로 표시하도록 표시부(120)를 제어할 수 있다.
또한 본 발명의 일 실시예에 따르면, 제어부(140)는 입력 도구의 근접 정보에 기초하여, 소정의 시간 동안 입력 도구의 위치의 변화량이 소정의 기준 이하인 경우, 제 1 컨텐츠의 소정의 영역 내에 제 2 컨텐츠와는 상이한 제 3 컨텐츠를 표시하도록 표시부(120)를 제어할 수 있다. 본 발명의 일 실시예에 따르면, 표시부(120)는 제 1 컨텐츠에 중첩하여 제 3 컨텐츠를 표시할 수 있으며, 제 1 컨텐츠를 표시하지 않고 제 3 컨텐츠만을 표시할 수도 있고, 제 1 컨텐츠, 제 2 컨텐츠 및 제 3 컨텐츠를 함께 표시할 수도 있다.
또한 본 발명의 일 실시예에 다르면 제어부(140)는 입력 도구로부터 수신된 입력 정보 또는 입력 도구에 의한 터치 입력에 기초하여 제 1 내지 제 3 컨텐츠 중 적어도 하나를 표시하도록 표시부(120)를 제어할 수도 있다.
도 2는 본 발명의 일 실시예에 따른 입력 도구로부터 입력을 수신하기 전에 단말기(100)에 표시된 화면을 도시한다.
본 발명의 일 실시예에 따르면, 입력부(110)에 의해 입력 도구의 위치에 대한 정보가 감지되거나 입력 도구로부터 입력이 수신되기 전에, 표시부(120)는 도 2와 같은 화면을 표시할 수 있다. 도 2를 참조하면, 표시부(120)는 제 1 컨텐츠인 옷을 입고 있는 사람의 영상을 표시할 수 있다.
도 3은 입력 도구가 단말기(100)로부터 5cm 범위 내에 위치한 경우 단말기(100)에 표시된 화면을 도시한다.
본 발명의 일 실시예에 따르면, 단말기(100)의 사용자는 입력 도구의 끝부분이 단말기(100)로부터 5cm 범위 내에 위치하도록 입력 도구를 이동시킬 수 있다. 예를 들어, 입력 도구의 끝부분으로부터 단말기(100)의 표시부(120)를 향해 수직으로 연장된 선분의 길이는 5cm일 수 있다도 3을 참조하면, 입력 도구의 끝부분으로부터 단말기(100)의 표시부(120)를 향해 수직으로 연장된 직선과 표시부(120)의 표면이 만나는 지점에는 표시부(120)에 표시된 제 1 컨텐츠인 옷을 입고 있는 사람의 어깨 부분의 영상이 표시될 수 있다. 입력 도구가 단말기(100)로부터 5cm범위에 위치한 경우에 표시되는 화면은 도 2의 화면과 아무런 차이가 없을 수 있다. 다시 말해서, 입력 도구가 단말기(100)로부터 5cm범위에 위치한 경우에 표시된 컨텐츠는 입력부(110)에 의해 입력 도구의 위치에 대한 정보가 감지되거나 입력 도구로부터 입력이 수신되기 전에 표시되는 컨텐츠와 동일할 수 있다.
도 4는 입력 도구가 단말기(100)로부터 3cm 범위 내에 위치한 경우 단말기(100)에 표시된 화면이다. 사용자는 입력 도구의 끝부분이 단말기(100)로부터 3cm 범위 내에 위치하도록 입력 도구를 이동시킬 수 있다. 예를 들어, 입력 도구의 끝부분으로부터 단말기(100)의 표시부(120)를 향해 수직으로 연장된 선분의 길이는 3cm일 수 있다.
도 4를 참조하면, 입력 도구의 끝부분으로부터 단말기(100)의 표시부(120)를 향해 수직으로 연장된 직선과 표시부(120)의 표면이 만나는 지점은 표시부(120)에 표시된 제 1 컨텐츠인 옷을 입고 있는 사람의 가슴 부분의 영상에 대응될 수 있다. 본 발명의 일 실시예에 따르면 입력 도구가 단말기(100)로부터 3cm 범위 내에 위치한 경우에 표시되는 화면은 입력부(110)에 의해 입력 도구의 위치에 대한 정보가 감지되거나 입력 도구로부터 입력이 수신되기 전에 표시된 화면과 서로 다를 수 있다. 즉, 표시부(120)에 표시되는 컨텐츠가 변경될 수 있다.
도 4를 참조하면, 입력 도구가 단말기(100)로부터 3cm의 높이에 위치한 경우에는, 제 1 컨텐츠인 옷을 입은 사람 영상의 소정의 범위 내인 가슴 부분의 영상 대신에 제 2 컨텐츠인 내부 장기 영상을 표시할 수 있다.
물론 본 발명의 일 실시예에 따르면 입력 도구가 단말기(100)의 측면 또는 뒷면으로부터 소정의 범위 내에 위치하고 있는 경우에도 동일한 방식이 사용될 수 있다.
도 5는 입력 도구가 단말기로부터 1cm 범위 내에 위치한 경우 단말기에 표시된 화면이다. 단말기의 사용자는 입력 도구의 끝부분이 단말기(100)로부터 1cm 범위 내에 위치하도록 입력 도구를 이동시킬 수 있다. 다시 말해서, 입력 도구의 끝부분으로부터 단말기(100)의 표시부(120)를 향해 수직으로 연장된 선분의 길이는 1cm일 수 있다.
도 5를 참조하면, 입력 도구의 끝부분으로부터 단말기(100)의 표시부(120)를 향해 수직으로 연장된 직선과 표시부(120)의 표면이 만나는 지점은 표시부(120)에 표시되는 제 1 컨텐츠인 옷을 입은 사람의 어깨 부분에 대응될 수 있다. 입력 도구가 단말기(100)로부터 1cm 범위 내에 위치한 경우에 표시되는 화면은 입력부(110)에 의해 입력 도구의 위치에 대한 정보가 감지되거나 입력 도구로부터 입력이 수신되기 전에 표시된 화면과 서로 다를 수 있다. 또한, 입력 도구가 단말기(100)로부터 1cm의 높이에 위치한 경우에 표시되는 화면은 입력 도구가 단말기(100)로부터 3cm의 높이에 위치한 경우에 표시되는 화면과 서로 다를 수 있다.
도 5를 참조하면, 입력 도구가 단말기(100)로부터 1cm의 높이에 위치한 경우에 표시되는 화면은 제 1 컨텐츠인 옷을 입은 사람의 소정의 범위 내인 어깨 부분에 제 2 컨텐츠인 내부 뼈 영상을 표시할 수 있다.
즉, 본 발명의 일 실시예에 따르면 표시부(120)는 입력 도구가 얼마나 표시부(120)와 근접되어 있는지 여부에 따라 다른 화면 또는 다른 컨텐츠를 표시할 수 있다. 예를 들어, 옷을 입은 사람인 제 1 컨텐츠를 표시중이던 표시부(120)는 입력 도구가 3cm 내에 위치하는 경우, 입력 도구의 위치를 기준으로 제 1 컨텐츠의 소정의 범위 내에 내부 장기 영상을 표시하고, 입력 도구가 3cm 내에 위치하는 경우 표시부(120)는 입력 도구의 위치를 기준으로 제 1 컨텐츠의 소정의 범위 내에 뼈 영상을 표시할 수 있다.
또한, 제어부(140)는 입력 도구의 근접 정보에 기초하여 소정의 시간 동안 소정의 기준보다 입력 도구의 위치의 변화량이 적은 경우 표시부(120)에 다른 컨텐츠가 표시되도록 제어할 수 있다. 이는 도 6에서 설명한다.
도 6은 도 2의 화면에서 추가적인 컨텐츠가 팝업 형식으로 더 표시된 화면이다.
본 발명의 일 실시예에 따르면 단말기의 사용자는 입력 도구의 끝부분이 단말기(100)로부터 3cm 범위 내에 위치하도록 입력 도구를 이동시킬 수 있다. 예를 들어, 입력 도구의 끝부분으로부터 단말기(100)의 표시부(120)를 향해 수직으로 연장된 직선과 표시부(120)의 표면이 만나는 지점은 사람의 배 부분에 대응될 수 있다. 표시부(120)는 입력 도구의 근접 도에 따라 제 1 컨텐츠인 옷을 입은 사람의 배 부분의 내부 장기 영상이 표시될 수 있다.
본 발명의 일 실시예에 따르면 입력 도구는 3초 이상 움직이지 않도록 하거나 단말기로부터 0.5 cm의 범위 내에서만 움직일 수 있다. 3초가 경과하는 경우, 표시된 장기 중에서 입력 도구의 끝부분이 가리키는 장기에 대한 추가적인 컨텐츠가 표시부(120)에 표시될 수 있다. 도 6을 참조하면, 제 1 컨텐츠인 옷을 입은 사람의 소정의 영역인 배를 표시한 영역에 제 2 컨텐츠인 내부 장기 중에서 대장에 대한 영상이 표시되고 있으며, 추가적으로, 제 3 컨텐츠인 대장의 상세 정보를 표시하는 영상이 팝업 형태로 더 표시될 수 있다. 본 발명의 일 실시예에 따르면 단말기(100)가 표시하는 컨텐츠는 시각적인 컨텐츠 뿐만 아니라 청각적인 컨텐츠를 포함할 수 있다. 본 발명의 일 실시예에 따르면 청각적인 컨텐츠는 스피커(130)에 의해 재생될 수 있다. 예를 들어, 옷을 입은 사람의 가슴 대신에 표시된 내부 장기 중에서 입력 도구의 끝부분이 가리키는 장기가 심장인 경우, 심장 박동 소리가 스피커(130)에 의해 재생될 수 있다.
본 발명의 일 실시예에 따르면, 시각적인 컨텐츠는 동영상을 포함할 수 있다. 추가적인 컨텐츠에 포함된 시각적인 컨텐츠는 표시부(120)에 표시되고, 추가적인 컨텐츠에 포함된 청각적인 컨텐츠는 스피커(130)에 의해 재생될 수 있다. 예를 들어, 제어부(140)는 입력 도구의 끝부분이 가리키는 위치에 기초하여 표시부(120)에 표시된 옷을 입은 사람을 나타내는 제 1 컨텐츠의 가슴 부분의 영상 대신에 표시된 내부 장기에 대한 영상 중에서 하나의 장기를 선택하고, 선택한 장기가 폐인 경우, 폐에 대한 동영상이 재생하도록 표시부(120)를 제어할 수 있다. 도 7은 도 2의 화면에서 동영상이 팝업 형식으로 더 표시된 화면이다.
다른 실시예에 따르면, 제어부(140)는 입력 도구로부터 수신된 입력 정보에 따라 표시부(120)에 다른 컨텐츠가 표시되도록 제어할 수 있다.
예를 들어, 단말기의 사용자는 입력 도구의 끝부분이 단말기(100)로부터 3cm 내에 위치하도록 입력 도구를 이동시킬 수 있다. 입력 도구의 끝부분으로부터 단말기(100)의 표시부(120)를 향해 수직으로 연장된 직선과 표시부(120)의 표면이 만나는 지점은 표시부(120)가 표시하는 제 1 컨텐츠인 옷을 입은 사람의 가슴 부분에 대응될 수 있다. 표시부(120)에는 사람의 가슴 부분의 내부 장기 영상이 표시될 수 있다. 단말기의 사용자는 입력 도구에 포함된 버튼을 클릭할 수 있다. 제어부(140)는 입력 도구로부터 버튼을 클릭한 입력 정보를 수신하고, 입력 정보에 기초하여 표시된 장기 중에서 입력 도구의 끝부분이 가리키는 장기에 대한 추가적인 컨텐츠가 표시부(120)에 표시하도록 표시부(120)를 제어할 수 있다. 도 7을 참조하면, 제 1 컨텐츠인 옷을 입은 사람의 소정의 영역인 가슴 영역에 제 2 컨텐츠인 내부 영상과 함께 제 3 컨텐츠인 폐에 대한 추가적인 컨텐츠가 더 표시될 수 있다. 물론 제어부(140)는 입력 도구로부터 수신한 입력 정보에 기초하여 제 2 컨텐츠의 표시 여부를 결정할 수도 있다.
본 발명의 일 실시예에 따르면, 제어부(140)는 입력 도구로부터 수신된 터치입력에 따라 표시부(120)에 다른 컨텐츠가 표시되도록 제어할 수 있다.
예를 들어, 사용자는 입력 도구의 끝부분이 단말기(100)로부터 3cm 내에 위치하도록 입력 도구를 이동시킬 수 있다. 입력 도구의 끝부분으로부터 단말기(100)의 표시부(120)를 향해 수직으로 연장된 직선과 표시부(120)의 표면이 만나는 지점은 제 1 컨텐츠인 옷을 입은 사람의 가슴 부분의 영상에 대응될 수 있다. 또한 표시부(120)는 제 2 컨텐츠인 사람의 가슴 부분의 내부 장기 영상이 표시할 수 있다.
단말기의 사용자는 입력 도구를 이용하여 표시된 제 2 컨텐츠인 내부 장기 영상 중에서 적어도 하나의 장기 영상을 터치할 수 있다. 제어부(140)는 터치된 장기 영상에 대한 추가적인 컨텐츠인 제 3 컨텐츠를 표시하도록 표시부(120)를 제어할 수 있다. 즉, 도 7을 참조하면, 단말기(100)는 옷을 입은 사람의 가슴 영역의 영상 대신에 표시된 내부 장기 영상 중에서 입력 도구에 의해 선택된 폐에 대한 추가적인 컨텐츠를 팝업 형식으로 더 표시할 수 있다.
또한 본 발명의 일 실시예에 따르면, 제어부(140)는 입력부(110)에 의해 획득하거나 감지한 정보를 이용하여 표시부(120)에 다른 화면이 표시되도록 한 이후에, 입력부(110)에 의해 추가적으로 수신하거나 감지한 정보를 이용하여 표시부(120)에 또 다른 화면이 표시되도록 할 수 있다.
예를 들어, 도 7의 화면이 표시된 상태에서, 사용자는 입력 도구의 끝부분이 동영상 컨텐츠를 가리키도록 입력 도구를 이동시킬 수 있다. 상기와 같이 입력 도구가 이동된 후에, 제어부(140)는 소정의 시간 동안 입력 도구의 위치의 변화량이 소정의 기준 이하인 경우 표시부(120)에 다른 컨텐츠가 표시하도록 표시부(120)를 제어할 수 있다.
예를 들어, 3초 동안 입력 도구가 움직이지 않는 경우, 표시부(120)에는 폐에 대한 상세한 설명이 표시될 수 있다. 도 8은 추가적인 컨텐츠로서 동영상 컨텐츠가 표시된 이후에 새로운 컨텐츠가 표시된 화면이다.
도 9는 실시예에 따른 단말기(100)의 제어 방법이 수행되는 과정을 나타내는 순서도이다. 도 9를 참조하면, 단계 S100에서 표시부(120)는 제 1 컨텐츠를 표시할 수 있다. 제어부(140)는 표시부(120)를 제어함으로써, 도 2에서와 같이 표시부(120)에 화면이 표시되도록 할 수 있다.
단계 S110에서, 단말기(100)의 입력부(110)는 입력 도구의 근접 여부에 대한 근접 정보를 획득할 수 있다. 근접 정보는 단말기(100)의 소정의 범위 이내에 입력 도구가 존재하는지 여부에 대한 정보를 포함할 수 있으며, 단말기의 표시부(120) 위 또는 표시부(120) 위의 소정의 범위 내에 입력 도구가 위치하는지에 대한 정보를 포함할 수 있다. 이는 도 1에서 설명한 내용과 대응되므로, 자세한 설명은 생략한다.
단계 S120에서 단말기(100)는 근접 정보에 기초하여 제 1 컨텐츠 내의 소정의 영역 내에 제 2 컨텐츠를 표시할 수 있다.
추가적으로, 본 발명의 일 실시예에 따르면 단말기(100)는 입력 도구의 근접 정도에 따라 복수의 컨텐츠들 중 제 2 컨텐츠를 선택하고, 선택한 제 2 컨텐츠를 제 1 컨텐츠와 함께 표시할 수 있다.
예를 들어, 도 4 및 도 5를 참조하면, 제어부(140)는 입력 도구의 근접 정도에 따라, 장기 영상을 표시하는 컨텐츠 또는 뼈 영상을 표시하는 컨텐츠 중에서 하나의 컨텐츠를 선택할 수 있다. 입력 도구가 단말기(100)로부터 3cm의 높이에 위치한 경우, 제어부(140)는 장기 영상을 표시하는 컨텐츠를 선택할 수 있다. 입력 도구가 단말기(100)로부터 1cm의 높이에 위치한 경우, 제어부(140)는 뼈 영상을 표시하는 컨텐츠를 선정할 수 있다.
추가적으로, 본 발명의 일 실시예에 따르면 표시부(120)는 제 1 컨텐츠 및 제 2 컨텐츠와는 상이한 제 3 컨텐츠를 표시할 수 있다. 제어부(140)는 표시부(120)를 제어함으로써, 제 3 컨텐츠가 표시부(120)에 표시되도록 할 수 있다. 예를 들어, 단말기(100)는 소정의 시간 동안 입력 도구가 위치의 변화량이 소정이 기준 이하인 경우 제 3 컨텐츠를 표시할 수 있으며, 입력 도구의 터치입력 또는 입력 도구로부터 수신한 입력 정보에 기초하여 제 3 컨텐츠를 표시할 수도 있다.
추가적으로 본 발명의 일 실시예에 따르면 단말기(100)는 도 1 내지 도 8에서 설명한 바와 같이 입력 도구와 단말기의 근접 여부, 근접 정도 및 입력 도구의 위치의 변화량에 기초하여 제 1 컨텐츠, 제 2 컨텐츠 및 제 3 컨텐츠를 표시할 수 있다. 이는 도 1 내지 도 8에서 설명한 바와 대응되므로, 자세한 설명은 생략한다.
도 10은 본 발명의 일부 실시예에 따른 복수의 레이어로 구성된 컨텐츠를 도시한다.
일부 실시예에 따르면, 컨텐츠는 복수의 레이어로 구성될 수 있다. 도 10을 참조하면, 옷을 입은 사람의 이미지인 제 1 컨텐츠(1001)가 가장 상위의 레이어를 구성하는 컨텐츠이고, 내부 장기의 이미지인 제 2 컨텐츠(1003)가 제 1 하위 레이어를 구성하는 컨텐츠이며, 뼈 이미지인 제 3 컨텐츠(1005)가 제 2 하위 레이어를 구성하는 컨텐츠 일 수 있다.
또한, 도 10을 참조하면, 컨텐츠를 구성하는 각각의 레이어는 제 1 컨텐츠(1001), 제 2 컨텐츠(1003) 및 제 3 컨텐츠(1005)일 수 있다. 즉, 각각의 레이어인, 제 1 컨텐츠(1001), 제 2 컨텐츠(1003) 및 제 3 컨텐츠(1005)가 계층적인 구조로, 하나의 컨텐츠를 구성할 수 있다.
일부 실시예에 따르면, 디바이스는 복수의 레이어루 구성된 컨텐츠를 표시하는 방법으로써, 가장 상위의 레이어를 구성하는 컨텐츠만이 표시할 수도 있으며, 도 10의 왼쪽 그림처럼 가장 상위의 레이어를 구성하는 컨텐츠는 전체를 표시하고, 하위의 레이어를 구성하는 컨텐츠는 일부만을 표시할 수도 있다.또한, 일부 실시예에 따르면, 단말기(100)는 제 1 컨텐츠(1001)를 표시할 수 있다. 입력 도구가 근접되지 않은 경우, 단말기는 제 1 컨텐츠(1001)만을 표시하고, 하위의 레이어들인 제 2 컨텐츠(1003) 및 제 3 컨텐츠(1005)은 표시하지 않을 수 있다. 일부 실시예에 따르면, 단말기(100)는 표시 이전에 하위의 레이어들의 표시를 위한 렌더링을 수행할 수는 있다.
일부 실시예에 따르면, 도 7에서 설명한 추가적인 컨텐츠들이 하나의 레이어를 구성할 수도 있다. 즉, 폐 또는 심장과 같은 장기에 관한 설명 및 관련 정보를 제공하기 위한 링크, 영상, 소리에 관한 링크 정보 또는 내부 뼈에 관한 설명과 같은 추가적인 컨텐츠가 하나의 레이어를 구성할 수도 있다. 추가적인 컨텐츠가 구성하는 하나의 레이어 또한 제 1 내지 제 3 컨텐츠와 같이 입력 도구의 근접 정보에 기초하여 표시될 수 있다.
일부 실시예에 따르면, 단말기(100)는 입력 도구의 근접 정보에 기초하여, 표시할 레이어를 결정할 수 있다. 이는 도 11에서 자세히 설명한다.
도 11은 본 발명의 일부 실시예에 따른 근접 정보에 따른 복수의 레이어로 구성된 컨텐츠를 표시하는 화면을 도시한다.
도 11을 참조하면, 입력 도구가 단말기(100)로부터 근접 정보에 기초하여 표시할 레이어를 결정할 수 있다.
예를 들어, 입력 도구가 제 1 높이에 위치한 경우에는, 단말기(100)는 가장 상위의 레이어인 제 1 컨텐츠(1001)의 소정의 범위 내인 가슴 부분의 영상 대신에 제 1 하위 레이어인 제 2 컨텐츠(1003)인 내부 장기 영상을 표시할 수 있다.
또한, 입력 도구가 제 2 높이에 위치한 경우에는, 단말기(100)는 가장 상위의 레이어인 제 1 컨텐츠(1001)의 소정의 범위 내인 가슴 부분의 영상 대신에 제 2 하위 레이어인 제 3 컨텐츠(1005)인 내부 뼈 영상을 표시할 수 있다.
일부 실시예에 따르면, 단말기(100)는 입력 도구의 근접 정보에 기초하여 제 1 컨텐츠(1001)를 표시하지 않고, 제 1 하위 레이어인 제 2 컨텐츠(1003) 또는 제 2 하위 레이어인 제 3 컨텐츠(1003)를 표시할 수 도 있다.
또한 일부 실시예에 따르면, 단말기(100)는 입력 도구의 근접 정보에 기초하여 입력 도구의 끝부분으로부터 단말기(100)의 표시부(120)를 향해 수직으로 연장된 직선과 표시부(120)의 표면이 만나는 지점으로부터 소정의 범위만큼 제 1 컨텐츠(1001), 제 2 컨텐츠 또는 제 3 컨텐츠(1003) 중 적어도 하나를 표시할 수도 있다.
도 12는 본 발명의 일부 실시예에 따른 근접 정보에 따른 복수의 레이어로 구성된 컨텐츠를 도시하는 방법을 나타내는 순서도이다.
단계 1201에서, 단말기(100)는 복수의 레이어로 구성된 컨텐츠를 표시할 수 있다.
일부 실시예에 따르면, 단말기(100)는 복수의 레이어로 구성된 컨텐츠 중 가장 상위 레이어를 구성하는 컨텐츠만을 표시할 수도 있다. 또한 단말기(100)는 복수의 레이어를 각각을 구성하는 모든 컨텐츠를 병렬적으로 표시할 수도 있다.
단계 1203에서, 단말기(100)는 입력 도구의 근접 정보를 획득할 수 있다.
일부 실시예에 따르면, 근접 정보는 단말기(100)의 소정의 범위 이내에 입력 도구가 존재하는지 여부에 대한 정보를 포함할 수 있으며, 단말기의 표시부(120) 위 또는 표시부(120) 위의 소정의 범위 내에 입력 도구가 위치하는지에 대한 정보를 포함할 수 있다. 이는 도 1에서 설명한 내용과 대응되므로, 자세한 설명은 생략한다.
단계 1205에서, 단말기(100)는 획득한 근접 정보에 기초하여 복수의 레이어 중 표시할 레이어를 결정할 수 있다.
즉, 단말기(100)는 입력 도구와 단말기 간의 거리와 표시할 레이어를 맵핑함으로써, 입력 도구로부터 획득한 근접 정보에 기초하여, 컨텐츠를 구성하는 복수의 레이어 중 어떤 레이어를 표시할지 결정할 수 있다. 단말기(100)는 어떤 레이어를 표시할 지 결정한 후, 표시가 결정된 레이어를 구성하는 컨텐츠를 표시할 수 있다. 이는 도 11에서 설명한 바와 대응된다.단계 1207에서, 단말기(100)는 결정된 레이어를 구성하는 컨텐츠를 표시할 수 있다.
일부 실시예에 따르면, 단말기(100)의 표시부로부터 입력 도구의 거리가 가까울수록 가장 하위의 레이어를 구성하는 컨텐츠를 표시할 수도 있고, 표시부로부터 입력 도구의 거리가 멀수록 가장 하위의 레이어를 구성하는 컨텐츠를 표시할 수도 있다.
또한 일부 실시예에 따르면, 단말기(100)는 표시부로부터 입력 도구의 거리가 가까워질수록 하위의 레이어를 추가적으로 표시할 수도 있다.
이상에서 설명된 실시예에 따르면, 보다 직관적으로 컨텐츠가 제공될 수 있다. 또한, 보다 간단한 조작에 의해 화면이 표시되거나 소리가 재생될 수 있다.
이상에서 첨부된 도면을 참조하여 본 발명의 실시예들을 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.
본 발명에 따른 장치는 프로세서, 프로그램 데이터를 저장하고 실행하는 메모리, 디스크 드라이브와 같은 영구 저장부(permanent storage), 외부 장치와 통신하는 통신 포트, 터치 패널, 키(key), 버튼 등과 같은 사용자 인터페이스 장치 등을 포함할 수 있다. 소프트웨어 모듈 또는 알고리즘으로 구현되는 방법들은 상기 프로세서상에서 실행 가능한 컴퓨터가 읽을 수 있는 코드들 또는 프로그램 명령들로서 컴퓨터가 읽을 수 있는 기록 매체 상에 저장될 수 있다. 여기서 컴퓨터가 읽을 수 있는 기록 매체로 마그네틱 저장 매체(예컨대, ROM(read-only memory), RAM(random-access memory), 플로피 디스크, 하드 디스크 등) 및 광학적 판독 매체(예컨대, 시디롬(CD-ROM), 디브이디(DVD: Digital Versatile Disc)) 등이 있다. 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템들에 분산되어, 분산 방식으로 컴퓨터가 판독 가능한 코드가 저장되고 실행될 수 있다. 매체는 컴퓨터에 의해 판독가능하며, 메모리에 저장되고, 프로세서에서 실행될 수 있다.
본 발명에서 인용하는 공개 문헌, 특허 출원, 특허 등을 포함하는 모든 문헌들은 각 인용 문헌이 개별적으로 및 구체적으로 병합하여 나타내는 것 또는 본 발명에서 전체적으로 병합하여 나타낸 것과 동일하게 본 발명에 병합될 수 있다.
본 발명의 이해를 위하여, 도면에 도시된 바람직한 실시 예들에서 참조 부호를 기재하였으며, 본 발명의 실시 예들을 설명하기 위하여 특정 용어들을 사용하였으나, 특정 용어에 의해 본 발명이 한정되는 것은 아니며, 본 발명은 당업자에 있어서 통상적으로 생각할 수 있는 모든 구성 요소들을 포함할 수 있다.
본 발명은 기능적인 블록 구성들 및 다양한 처리 단계들로 나타내어질 수 있다. 이러한 기능 블록들은 특정 기능들을 실행하는 다양한 개수의 하드웨어 또는/및 소프트웨어 구성들로 구현될 수 있다. 예를 들어, 본 발명은 하나 이상의 마이크로프로세서들의 제어 또는 다른 제어 장치들에 의해서 다양한 기능들을 실행할 수 있는, 메모리, 프로세싱, 로직(logic), 룩업 테이블(look-up table) 등과 같은 직접 회로 구성들을 채용할 수 있다. 본 발명에의 구성 요소들이 소프트웨어 프로그래밍 또는 소프트웨어 요소들로 실행될 수 있는 것과 유사하게, 본 발명은 데이터 구조, 프로세스들, 루틴들 또는 다른 프로그래밍 구성들의 조합으로 구현되는 다양한 알고리즘을 포함하여, C, C++, 자바(Java), 어셈블러(assembler) 등과 같은 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능적인 측면들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다. 또한, 본 발명은 전자적인 환경 설정, 신호 처리, 및/또는 데이터 처리 등을 위하여 종래 기술을 채용할 수 있다. ‘매커니즘’, ‘요소’, ‘수단’, ‘구성’과 같은 용어는 넓게 사용될 수 있으며, 기계적이고 물리적인 구성들로서 한정되는 것은 아니다. 상기 용어는 프로세서 등과 연계하여 소프트웨어의 일련의 처리들(routines)의 의미를 포함할 수 있다.
본 발명에서 설명하는 특정 실행들은 일 실시 예들로서, 어떠한 방법으로도 본 발명의 범위를 한정하는 것은 아니다. 명세서의 간결함을 위하여, 종래 전자적인 구성들, 제어 시스템들, 소프트웨어, 상기 시스템들의 다른 기능적인 측면들의 기재는 생략될 수 있다. 또한, 도면에 도시된 구성 요소들 간의 선들의 연결 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것으로서, 실제 장치에서는 대체 가능하거나 추가의 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들로서 나타내어질 수 있다. 또한, ‘필수적인’, ‘중요하게’ 등과 같이 구체적인 언급이 없다면 본 발명의 적용을 위하여 반드시 필요한 구성 요소가 아닐 수 있다.
본 발명의 명세서(특히 특허청구범위에서)에서 ‘상기’의 용어 및 이와 유사한 지시 용어의 사용은 단수 및 복수 모두에 해당하는 것일 수 있다. 또한, 본 발명에서 범위(range)를 기재한 경우 상기 범위에 속하는 개별적인 값을 적용한 발명을 포함하는 것으로서(이에 반하는 기재가 없다면), 발명의 상세한 설명에 상기 범위를 구성하는 각 개별적인 값을 기재한 것과 같다. 마지막으로, 본 발명에 따른 방법을 구성하는 단계들에 대하여 명백하게 순서를 기재하거나 반하는 기재가 없다면, 상기 단계들은 적당한 순서로 행해질 수 있다. 반드시 상기 단계들의 기재 순서에 따라 본 발명이 한정되는 것은 아니다. 본 발명에서 모든 예들 또는 예시적인 용어(예들 들어, 등등)의 사용은 단순히 본 발명을 상세히 설명하기 위한 것으로서 특허청구범위에 의해 한정되지 않는 이상 상기 예들 또는 예시적인 용어로 인해 본 발명의 범위가 한정되는 것은 아니다. 또한, 당업자는 다양한 수정, 조합 및 변경이 부가된 특허청구범위 또는 그 균등물의 범주 내에서 설계 조건 및 팩터에 따라 구성될 수 있음을 알 수 있다.
100: 단말기
110: 입력부
120: 표시부
130: 스피커
140: 제어부

Claims (23)

  1. 제 1 컨텐츠를 표시하는 표시부;
    상기 제 1 컨텐츠가 표시된 영역으로의 입력 도구의 근접 여부에 대한 근접 정보를 획득하는 입력부;
    상기 근접 정보에 기초하여 상기 제 1 컨텐츠가 표시된 영역 중에서 적어도 일부에 상기 제 1 컨텐츠를 대신하여 제 2 컨텐츠가 표시되도록 상기 표시부를 제어하는 제어부; 및
    상기 근접 정보에 기초하여 제 1 컨텐츠 및 제 2 컨텐츠를 표시하는 표시부를 포함하고,
    상기 제어부는,
    상기 표시부 상에서 상기 입력 도구의 위치에 따라 상기 제 2 컨텐츠를 표시할 지 여부를 결정하고,
    상기 제 1 컨텐츠가 표시된 영역 중 상기 제 2 컨텐츠가 표시되는 영역을, 상기 입력 도구의 끝부분으로부터 상기 표시부를 향해 수직으로 연장된 직선과 상기 표시부의 표면이 만나는 지점의 위치에 대한 정보에 기초하여 결정하고,
    상기 제 2 컨텐츠에서 상기 위치에 대한 정보와 대응하는 영역을 표시하도록 상기 표시부를 제어하고,
    상기 입력 도구의 위치의 변화량에 기초하여 상기 제 1 컨텐츠가 표시된 영역 내에 제 3 컨텐츠를 표시하도록 상기 표시부를 제어하는 단말기.
  2. 제 1 항에 있어서,
    상기 제어부는,
    상기 입력 도구가 상기 표시부로부터 소정 범위 내에 근접해있는지 판단하고, 상기 판단에 기초하여 상기 제 1 컨텐츠의 소정의 영역 내에 제 2 컨텐츠를 표시하도록 표시부를 제어하는 것을 특징으로 하는 단말기.
  3. 제 1 항에 있어서,
    상기 근접 정보는 상기 입력 도구의 위치에 대한 정보를 더 포함하며,
    상기 제어부는,
    상기 입력 도구의 위치에 기초하여, 상기 제 1 컨텐츠의 소정의 영역 내에 제 2 컨텐츠를 중첩하여 표시하도록 표시부를 제어하는 것을 특징으로 하는 단말기.
  4. 제3항에 있어서,
    상기 근접 정보는 상기 단말기와 상기 입력 도구의 근접 정도에 대한 정보를 더 포함하고,
    상기 제어부는,
    상기 근접 정도에 대한 정보에 기초하여 상기 제 1 컨텐츠의 소정의 영역 내에 상기 제 2 컨텐츠를 표시하도록 상기 표시부를 제어하는 단말기.
  5. 제4항에 있어서,
    상기 제어부는,
    상기 근접 정도에 대한 정보에 기초하여 복수의 컨텐츠들 중 상기 제 2 컨텐츠를 선택하는 것을 특징으로 하는 단말기.
  6. 제3항에 있어서,
    상기 제어부는,
    상기 근접 정보에 기초하여, 소정의 시간 동안 상기 입력 도구의 위치의 변화량이 소정의 기준보다 작은 경우, 상기 제 1 컨텐츠의 소정의 영역 내에 상기 제 3 컨텐츠를 표시하도록 상기 표시부를 제어하는 단말기.
  7. 제6항에 있어서,
    상기 제 1 내지 제 3 컨텐츠는 텍스트, 그림, 사진 또는 동영상 중에서 적어도 하나 이상을 포함하는 단말기.
  8. 제6항에 있어서,
    상기 제어부는,
    상기 입력 도구로부터 수신된 입력 정보에 기초하여 상기 제 1 컨텐츠 내의 소정의 영역에 상기 제 3 컨텐츠를 표시하도록 상기 표시부를 제어하는 단말기.
  9. 제6항에 있어서,
    상기 입력부는 상기 입력 도구에 의한 터치입력을 더 감지하고,
    상기 제어부는 상기 터치입력에 따라 상기 제 1 컨텐츠의 소정의 영역 내에 상기 제 3 컨텐츠가 표시되도록 상기 표시부를 제어하는 단말기.
  10. 제4항에 있어서,
    상기 제어부는 상기 입력 도구의 끝부분으로부터 상기 표시부를 향해 수직으로 연장된 직선과 상기 표시부의 표면이 만나는 지점의 위치에 대한 정보 및 상기 단말기와 상기 입력 도구의 근접 정도에 대한 정보를 이용하여 상기 표시부를 제어하는 단말기.
  11. 제1항에 있어서,
    상기 단말기는, 소리를 재생하는 스피커를 더 포함하고,
    상기 제어부는 상기 근접 정보를 이용하여 상기 스피커를 제어하는 단말기.
  12. 단말기의 컨텐츠 표시 방법에 있어서,
    표시부에 제 1 컨텐츠를 표시하는 단계;
    상기 제 1 컨텐츠가 표시된 영역으로의 입력 도구의 근접 여부에 대한 근접 정보를 획득하는 단계; 및
    상기 근접 정보에 기초하여 상기 제 1 컨텐츠가 표시된 영역 중에서 적어도 일부에 상기 제 1 컨텐츠를 대신하여 제 2 컨텐츠를 표시하는 단계를 포함하고,
    상기 제 2 컨텐츠는 상기 표시부 상에서 상기 입력 도구의 위치에 따라 표시될 지 여부가 결정되고,
    상기 제 1 컨텐츠가 표시된 영역 중 상기 제 2 컨텐츠가 표시되는 영역은, 상기 입력 도구의 끝부분으로부터 상기 표시부를 향해 수직으로 연장된 직선과 상기 표시부의 표면이 만나는 지점의 위치에 대한 정보에 기초하여 결정되고,
    상기 제 2 컨텐츠는 상기 위치에 대한 정보와 대응하는 영역이 표시되고,
    상기 입력 도구의 위치의 변화량에 기초하여 상기 제 1 컨텐츠가 표시된 영역 내에 제 3 컨텐츠가 표시되는 방법.
  13. 제 12 항에 있어서,
    상기 표시하는 단계는,
    상기 입력 도구가 상기 표시부로부터 소정 범위 내에 근접해있는지 판단하는 단계; 및
    상기 판단에 기초하여 상기 제 1 컨텐츠의 소정의 영역 내에 제 2 컨텐츠를 표시하는 단계를 포함하는 방법.
  14. 제 12 항에 있어서,
    상기 근접 정보는 상기 입력 도구의 위치에 대한 정보를 더 포함하며,
    상기 표시하는 단계는, 상기 입력 도구의 위치에 기초하여 상기 제 1 컨텐츠의 소정의 영역 내에 제 2 컨텐츠를 중첩하여 표시하는 단계를 포함하는 방법.
  15. 제14항에 있어서,
    상기 근접 정보는 상기 단말기와 상기 입력 도구의 근접 정도에 대한 정보를 더 포함하고,
    상기 표시하는 단계는,
    상기 근접 정도에 대한 정보에 기초하여, 상기 제 1 컨텐츠의 소정의 영역 내에 상기 제 2 컨텐츠를 표시하는 단계를 포함하는 방법.
  16. 제15항에 있어서,
    상기 표시하는 단계는, 상기 근접 정도에 대한 정보에 기초하여, 복수의 컨텐츠들 중 상기 제 2 컨텐츠를 선택하는 단계를 더 포함하는 것을 특징으로 하는 방법.
  17. 제14항에 있어서,
    상기 표시하는 단계는,
    상기 근접 정보에 기초하여,
    소정의 시간 동안의 상기 입력 도구의 위치의 변화량이 소정의 기준보다 작은 지 여부를 비교하는 단계; 및
    상기 비교 결과에 기초하여 상기 제 1 컨텐츠의 소정의 영역 내에 상기 제 3 컨텐츠를 표시하는 단계를 더 포함하는 방법.
  18. 제17항에 있어서,
    상기 제 1 내지 제 3 컨텐츠는 텍스트, 그림, 사진 또는 동영상 중에서 적어도 하나 이상을 포함하는 방법.
  19. 제17항에 있어서,
    상기 표시하는 단계는, 상기 입력 도구로부터 입력 정보를 수신하는 단계; 및
    상기 수신된 입력 정보에 기초하여 상기 제 1 컨텐츠 내의 소정의 영역에 상기 제 3 컨텐츠를 표시하는 단계를 더 포함하는 방법.
  20. 제17항에 있어서,
    상기 표시하는 단계는,
    상기 입력 도구에 의한 터치입력을 감지하는 단계; 및
    상기 터치입력에 따라 상기 제 1 컨텐츠의 소정의 영역 내에 상기 제 3 컨텐츠를 표시하는 단계를 더 포함하는 방법.
  21. 제14항에 있어서,
    상기 표시하는 단계는,
    상기 입력 도구의 끝부분으로부터 상기 표시부를 향해 수직으로 연장된 직선과 상기 표시부의 표면이 만나는 지점의 위치에 대한 정보 및 상기 단말기와 상기 입력 도구의 근접 정도에 대한 정보를 이용하여 상기 제 1 컨텐츠의 소정의 영역 내에 상기 제 2 컨텐츠를 표시하는 단계를 포함하는 방법.
  22. 제12항에 있어서,
    상기 방법은,
    상기 근접 정보를 이용하여 상기 단말기에 포함된 스피커를 제어하는 단계를 더 포함하는 방법.
  23. 제12항 내지 제22항 중 어느 한 항의 방법을 실행시키기 위한 프로그램이 기록된 컴퓨터로 읽을 수 있는 기록 매체.
KR1020140134477A 2014-02-24 2014-10-06 컨텐츠 표시 방법 및 장치 KR101628246B1 (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP15752585.8A EP3111313A4 (en) 2014-02-24 2015-02-12 Method and apparatus for displaying content using proximity information
PCT/KR2015/001430 WO2015126098A1 (en) 2014-02-24 2015-02-12 Method and apparatus for displaying content using proximity information
CN201580010129.3A CN106062700A (zh) 2014-02-24 2015-02-12 用于使用接近信息显示内容的方法和设备
US14/629,763 US20150242108A1 (en) 2014-02-24 2015-02-24 Method and apparatus for displaying content using proximity information

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020140021525 2014-02-24
KR20140021525 2014-02-24

Publications (2)

Publication Number Publication Date
KR20150100470A KR20150100470A (ko) 2015-09-02
KR101628246B1 true KR101628246B1 (ko) 2016-06-08

Family

ID=54242184

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140134477A KR101628246B1 (ko) 2014-02-24 2014-10-06 컨텐츠 표시 방법 및 장치

Country Status (3)

Country Link
EP (1) EP3111313A4 (ko)
KR (1) KR101628246B1 (ko)
CN (1) CN106062700A (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017183743A1 (ko) * 2016-04-19 2017-10-26 엘지전자 주식회사 이동 단말기, 스타일러스 펜 및 그 제어방법

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080120568A1 (en) * 2006-11-20 2008-05-22 Motorola, Inc. Method and device for entering data using a three dimensional position of a pointer
US8432365B2 (en) * 2007-08-30 2013-04-30 Lg Electronics Inc. Apparatus and method for providing feedback for three-dimensional touchscreen
KR20100069842A (ko) * 2008-12-17 2010-06-25 삼성전자주식회사 사용자 인터페이스를 구현하는 전자장치 및 그 방법
US8890818B2 (en) * 2010-09-22 2014-11-18 Nokia Corporation Apparatus and method for proximity based input
US9043732B2 (en) * 2010-10-21 2015-05-26 Nokia Corporation Apparatus and method for user input for controlling displayed information
FR2971066B1 (fr) * 2011-01-31 2013-08-23 Nanotec Solution Interface homme-machine tridimensionnelle.
JP5309187B2 (ja) * 2011-05-26 2013-10-09 富士フイルム株式会社 医用情報表示装置およびその動作方法、並びに医用情報表示プログラム
KR102040857B1 (ko) * 2012-07-17 2019-11-06 삼성전자주식회사 펜 인식 패널을 포함한 단말기의 기능 운용 방법 및 이를 지원하는 단말기

Also Published As

Publication number Publication date
KR20150100470A (ko) 2015-09-02
EP3111313A1 (en) 2017-01-04
EP3111313A4 (en) 2017-10-25
CN106062700A (zh) 2016-10-26

Similar Documents

Publication Publication Date Title
EP3350679B1 (en) Electronic device and method for processing gesture thereof
KR101927438B1 (ko) 홀 영역을 가지는 전자 장치 및 전자 장치의 홀 영역 제어방법
JP2022176955A (ja) オーディオメディア制御のためのユーザインタフェース
CN109840061A (zh) 控制屏幕显示的方法及电子设备
EP3130980A1 (en) Portable apparatus and method for displaying a screen
EP3469468B1 (en) Method and electronic device for recognizing touch
JP7307811B2 (ja) アイテムを追跡及び発見するためのユーザインタフェース
CN107037966B (zh) 感测输入的压力的电子设备和用于操作电子设备的方法
US10254958B2 (en) Electronic device and display method thereof
KR20170053280A (ko) 복수의 전자장치 사이에서 가상 객체를 표시하는 방법 및 이를 지원하는 전자 장치
KR20170124759A (ko) 화면 출력 방법 및 이를 수행하는 전자 장치
CN104081438B (zh) 姓名气泡处理
US10990748B2 (en) Electronic device and operation method for providing cover of note in electronic device
KR20160005895A (ko) 전자 장치 및 전자 장치의 인터페이스 제공 방법, 전자 장치를 위한 액세서리
KR102521192B1 (ko) 전자 장치 및 그의 동작 방법
KR20150129386A (ko) 폴더블 디스플레이 디바이스 및 그 제어 방법
KR20180089085A (ko) 어플리케이션을 전환하기 위한 방법 및 그 전자 장치
US20160170636A1 (en) Method and apparatus for inputting information by using on-screen keyboard
EP2998850B1 (en) Device for handling touch input and method thereof
US20220084374A1 (en) User interfaces for indicating distance
CN109804618B (zh) 用于显示图像的电子设备和计算机可读记录介质
KR20180017977A (ko) 터치의 압력 입력에 기반하여 선택 영역을 결정하는 전자 장치 및 방법
KR102328102B1 (ko) 전자 장치 및 전자 장치의 화면 표시방법
US20160349857A1 (en) Control method and electronic device
JP7146134B1 (ja) オーディオを共有するための方法及びユーザインタフェース

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20190530

Year of fee payment: 4