KR102427833B1 - 사용자 단말장치 및 디스플레이 방법 - Google Patents

사용자 단말장치 및 디스플레이 방법 Download PDF

Info

Publication number
KR102427833B1
KR102427833B1 KR1020150168789A KR20150168789A KR102427833B1 KR 102427833 B1 KR102427833 B1 KR 102427833B1 KR 1020150168789 A KR1020150168789 A KR 1020150168789A KR 20150168789 A KR20150168789 A KR 20150168789A KR 102427833 B1 KR102427833 B1 KR 102427833B1
Authority
KR
South Korea
Prior art keywords
display area
terminal device
user terminal
user
displayed
Prior art date
Application number
KR1020150168789A
Other languages
English (en)
Other versions
KR20170062954A (ko
Inventor
파리차이 카푸르
메훌 쿠마르
김선화
김진성
김화경
판카즈 아가와
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020150168789A priority Critical patent/KR102427833B1/ko
Priority to US15/290,431 priority patent/US10698564B2/en
Priority to PCT/KR2016/012846 priority patent/WO2017095040A1/en
Publication of KR20170062954A publication Critical patent/KR20170062954A/ko
Application granted granted Critical
Publication of KR102427833B1 publication Critical patent/KR102427833B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • G06F3/04855Interaction with scrollbars
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0381Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback

Abstract

사용자 단말장치가 개시된다. 본 사용자 단말장치는, 사용자 단말장치의 전면 및 측면을 구성하고, 사용자 단말장치의 전면에 배치되는 메인 표시 영역과 메인 표시 영역으로부터 측면 방향으로 연장되어 구부러진 부분을 포함하는 보조 표시 영역으로 구분되는 터치 스크린, 및, 메인 표시 영역에 디스플레이된 아이콘을 보조 표시 영역으로 이동하는 입력을 감지하면, 아이콘을 보조 표시 영역에 디스플레이하도록 터치 스크린을 제어하는 프로세서를 포함한다.

Description

사용자 단말장치 및 디스플레이 방법{USER TERMINAL DEVICE AND METHOD FOR DISPLAY THEREOF}
본 개시는 사용자 단말장치 및 디스플레이 방법에 대한 것으로, 보다 상세하게는 메인 표시 영역과 적어도 하나의 보조 표시 영역으로 구분되는 터치 스크린을 이용하여 다양한 인터렉션을 제공할 수 있는 사용자 단말장치 및 디스플레이 방법에 대한 것이다.
전자 기술의 발달에 힘입어 다양한 유형의 사용자 단말장치들이 개발 및 보급되고 있다. 최근에는 사용자 단말장치의 크기도 최소화되면서 그 기능은 더욱 다양해져, 그 수요가 점점 더 늘어나고 있다.
사용자 단말장치는 사용자의 요청에 따라 멀티미디어 컨텐츠나, 애플리케이션 화면 등과 같이 다양한 컨텐츠를 제공할 수 있다. 사용자는 사용자 단말장치에 구비된 버튼이나 터치 스크린 등을 이용하여, 자신이 사용하고자 하는 기능을 선택할 수 있다. 사용자 단말장치는 사용자와의 인터렉션에 따라 선택적으로 프로그램을 실행시켜, 그 실행 결과를 디스플레이할 수 있다.
한편, 사용자 단말장치에서 제공할 수 있는 기능이 점차 다양해짐에 따라, 컨텐츠를 디스플레이하는 방식이나 사용자 인터렉션 방식에 대해서도 다양한 니즈(needs)가 발생하고 있다. 즉, 컨텐츠의 종류 및 기능이 크게 증대함에 따라, 단순히 버튼을 선택하거나, 터치 스크린을 터치하는 종래의 인터렉션 방식으로는 부족한 경우가 발생할 수 있다.
이에 따라, 사용자가 좀 더 편리한 방식으로 사용자 단말장치를 이용할 수 있도록 하는 사용자 인터렉션 기술에 대한 필요성이 대두되었다. 특히, 사용자가 시각, 청각 또는 신체에 불편함을 갖는 경우, 보다 편리하게 사용자 단말장치와 인터렉션을 수행할 수 있는 방법이 요구되었다.
본 개시는 상술한 필요성에 따른 것으로, 본 개시의 목적은, 메인 표시 영역과 적어도 하나의 보조 표시 영역으로 구분되는 터치 스크린을 이용하여 다양한 인터렉션을 제공할 수 있는 사용자 단말장치 및 디스플레이 방법을 제공하는 데 있다.
상술한 목적을 달성하기 위한 본 개시의 일 실시 예에 따른, 사용자 단말장치는, 상기 사용자 단말장치의 전면 및 측면을 구성하고, 상기 사용자 단말장치의 전면에 배치되는 메인 표시 영역과 상기 메인 표시 영역으로부터 상기 측면 방향으로 연장되어 구부러진 부분을 포함하는 보조 표시 영역으로 구분되는 터치 스크린, 및, 상기 메인 표시 영역에 디스플레이된 아이콘을 상기 보조 표시 영역으로 이동하는 입력을 감지하면, 상기 아이콘을 상기 보조 표시 영역에 디스플레이하도록 상기 터치 스크린을 제어하는 프로세서를 포함한다.
한편, 상기 프로세서는, 특정 애플리케이션 실행시, 상기 특정 애플리케이션에 대응하여 등록된 아이콘이 상기 보조 표시 영역에 디스플레이하도록 상기 터치 스크린을 제어할 수 있다.
이 경우, 상기 프로세서는, 현재 구동 중인 애플리케이션에 대응하여 등록된 아이콘의 개수가 기설정된 개수 이상이면, 기설정된 기준으로 정렬된 아이콘만을 상기 보조 표시 영역 상에 디스플레이하도록 상기 터치 스크린을 제어할 수 있다.
한편, 상기 아이콘은, 상기 보조 표시 영역에 문자 입력 영역에 입력 가능한 이모티콘, 특수 문자, 기설정된 문자 세트 및 특정 기능을 수행하도록 하는 아이콘 중 적어도 하나일 수 있다.
한편, 상기 프로세서는, 상기 메인 표시 영역에 가상 키보드 또는 필기 입력 영역을 디스플레이하고, 상기 보조 표시 영역에 상기 이동된 아이콘을 디스플레이하도록 상기 터치 스크린을 제어할 수 있다.
한편, 상기 프로세서는, 상기 이동된 아이콘을 기설정된 이벤트에 대응되는 기능 아이콘으로 등록할 수 있다.
이 경우, 상기 프로세서는, 상기 보조 표시 영역 상의 기설정된 입력을 감지하면, 상기 보조 표시 영역에 디스플레이된 기능 아이콘을 다른 기능 아이콘으로 가변하여 디스플레이하도록 상기 터치 스크린을 제어할 수 있다.
한편, 상기 프로세서는, 상기 메인 표시 영역의 기설정된 영역에 상기 가상 키보드 또는 필기 입력 영역을 디스플레이하고, 상기 가상 키보드 또는 필기 입력 영역의 측면의 보조 표시 영역에만 상기 기능 아이콘을 디스플레이하도록 상기 터치 스크린을 제어할 수 있다.
한편, 본 개시의 다른 실시 예에 따른 사용자 단말장치는, 상기 사용자 단말장치의 전면 및 측면을 구성하고, 상기 사용자 단말장치의 전면에 배치되는 메인 표시 영역과 상기 메인 표시 영역으로부터 상기 측면 방향으로 연장되어 구부러진 부분을 포함하는 보조 표시 영역으로 구분되는 터치 스크린, 및, 설정된 이벤트가 발생하면, 상기 이벤트에 대응되는 정보를 표시할 표시 영역을 상기 메인 표시 영역 또는 상기 보조 표시 영역 중에서 결정하고, 결정된 영역에 상기 이벤트에 대응되는 정보가 디스플레이되도록 상기 터치 스크린을 제어하는 프로세서를 포함한다.
이 경우, 상기 프로세서는, 상기 사용자 단말장치의 위치, 시간, 배치 방향, 상기 이벤트에 대응되는 애플리케이션 종류 및 정보량 중 적어도 하나에 기초하여 상기 메인 표시 영역 또는 상기 보조 표시 영역 중 하나의 영역을 결정할 수 있다.
한편, 상기 터치 스크린은, 복수의 보조 표시 영역을 포함하며, 상기 프로세서는, 상기 이벤트에 대응되는 정보를 보조 표시 영역에서 표시하는 것으로 결정한 경우, 상기 복수의 보조 표시 영역 중 상기 이벤트에 대응되는 정보를 표시할 보조 표시 영역을 결정할 수 있다.
이 경우, 본 사용자 단말장치는, 상기 사용자 단말장치 주변의 소리를 복수의 위치에서 입력받는 마이크부를 더 포함하고, 상기 프로세서는, 상기 마이크부를 통하여 입력된 소리의 방향을 판단하고, 상기 판단된 방향에 대응되는 보조 표시 영역에 방향 정보가 표시되도록 상기 터치 스크린을 제어할 수 있다.
이 경우, 상기 프로세서는, 상기 입력된 소리를 분석하고, 상기 분석된 소리에 대응되는 정보를 상기 메인 표시 영역, 제1 보조 표시 영역 및 상기 제2 보조 표시 영역 중 적어도 하나에 표시하도록 상기 터치 스크린을 제어할 수 있다.
한편, 본 사용자 단말장치는, 상기 사용자 단말장치와 인접한 타 단말장치로부터 복수의 데이터 및 상기 복수의 데이터의 순서 정보를 수신하는 통신부를 더 포함할 수 있다.
이 경우, 상기 타 단말장치는, 정류소 단말, 신호등 단말 중 적어도 하나이며, 상기 데이터는, 신호등 상태 정보, 정차된 버스 정보, 정차 예정인 버스의 시간 정보 중 적어도 하나를 포함할 수 있다.
한편, 본 개시의 일 실시 예에 따른 메인 표시 영역과 상기 메인 표시 영역으로부터 측면 방향으로 연장되어 구부러진 부분을 포함하는 보조 표시 영역으로 구분된 터치 스크린을 포함하는 사용자 단말장치의 디스플레이 방법은, 상기 메인 표시 영역에 디스플레이된 아이콘을 상기 보조 표시 영역으로 이동하는 입력을 감지하는 단계, 및, 상기 아이콘을 상기 보조 표시 영역에 디스플레이하는 단계를 포함한다.
이 경우, 상기 디스플레이하는 단계는, 특정 애플리케이션 실행시, 상기 특정 애플리케이션에 대응하여 등록된 아이콘이 상기 보조 표시 영역에 디스플레이할 수 있다.
한편, 본 개시의 다른 실시 예에 따른 메인 표시 영역과 상기 메인 표시 영역으로부터 측면 방향으로 연장되어 구부러진 부분을 포함하는 보조 표시 영역으로 구분된 터치 스크린을 포함하는 사용자 단말장치의 디스플레이 방법은, 기설정된 이벤트의 발생을 감지하는 단계, 상기 이벤트에 대응되는 정보를 표시할 표시 영역을 상기 메인 표시 영역 또는 상기 보조 표시 영역 중에서 결정하는 단계, 및, 상기 결정된 영역에 상기 이벤트에 대응되는 정보를 디스플레이하는 단계를 포함한다.
이 경우, 상기 결정하는 단계는, 상기 사용자 단말장치의 위치, 시간, 배치 방향, 상기 이벤트에 대응되는 애플리케이션 종류 및 정보량 중 적어도 하나에 기초하여 상기 메인 표시 영역 또는 상기 보조 표시 영역 중 하나의 영역을 결정할 수 있다.
한편, 상기 터치 스크린은, 복수의 보조 표시 영역을 포함하며, 상기 디스플레이 방법은, 상기 이벤트에 대응되는 정보를 보조 표시 영역에서 표시하는 것으로 결정한 경우, 상기 복수의 보조 표시 영역 중 상기 이벤트에 대응되는 정보를 표시할 보조 표시 영역을 결정하는 단계를 더 포함할 수 있다.
도 1은 본 개시의 일 실시 예에 따른 사용자 단말장치의 구성을 나타내는 블럭도,
도 2 내지 도 10은 터치 스크린의 다양한 구성 예를 나타내는 도면,
도 11 내지 도 13은 본 실시 예에 따른 사용자 단말장치의 외형을 나타내는 도면,
도 14는 본 개시의 다양한 실시 예에 따른 사용자 단말장치의 구성을 나타내는 블럭도,
도 15는 사용자 단말장치의 소프트웨어 구성의 일 예를 나타내는 도면,
도 16a는 메인 표시 영역 및 서브 표시 영역의 레이아웃의 다양한 예를 나타내는 도면,
도 16b는 터치 스크린의 구체적인 구성을 도시한 도면,
도 17 내지 도 50은 본 개시의 다양한 실시 예에 따른 사용자 단말장치에서 표시하는 인터렉션 화면의 예를 나타내는 도면, 그리고,
도 51 내지 도 54는 본 개시의 일 실시 예에 따른 사용자 단말장치의 디스플레이 방법을 설명하기 위한 흐름도이다.
본 실시예들은 다양한 변환을 가할 수 있고 여러 가지 실시 예를 가질 수 있는바, 특정 실시 예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나 이는 특정한 실시 형태에 대해 범위를 한정하려는 것이 아니며, 개시된 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 실시 예들을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
본 출원에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 권리범위를 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다." 또는 "구성되다." 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
실시예에 있어서 ‘모듈’ 혹은 ‘부’는 적어도 하나의 기능이나 동작을 수행하며, 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다. 또한, 복수의 ‘모듈’ 혹은 복수의 ‘부’는 특정한 하드웨어로 구현될 필요가 있는 ‘모듈’ 혹은 ‘부’를 제외하고는 적어도 하나의 모듈로 일체화되어 적어도 하나의 프로세서(미도시)로 구현될 수 있다.
도 1은 본 개시의 일 실시 예에 따른 사용자 단말장치의 구성을 나타내는 블럭도이다. 도 1의 사용자 단말장치(1000)는 중앙에 있는 컴퓨터와 통신망으로 연결되어 있는 데이터를 입력하거나 처리 결과를 출력하는 장치로, 예를 들어, TV, PC, 랩탑 PC, 휴대폰, 태블릿 PC, PDA, MP3 플레이어, 키오스크, 전자 액자 등과 같이 다양한 유형의 장치 등일 수 있다. 휴대폰이나 태블릿 PC, PDA, MP3 플레이어, 랩탑 PC 등과 같이 휴대 가능한 유형의 장치로 구현되는 경우에는 모바일 디바이스로 명명할 수도 있으나, 본 명세서에서는 사용자 단말장치로 통칭하여 설명한다.
도 1을 참조하면, 사용자 단말장치(1000)는 터치 스크린(100) 및 프로세서(200)를 포함한다.
터치 스크린(100)은 디스플레이 기능과 사용자 조작을 입력받는 기능을 함께 수행할 수 있는 구성으로, 메인 표시 영역과 적어도 하나의 서브 표시 영역으로 구분된다. 서브 표시 영역의 면적은 메인 표시 영역보다는 작을 수 있다. 또한, 적어도 하나의 서브 표시 영역은 메인 표시 영역과 상이한 면을 형성할 수 있다. 가령, 메인 표시 영역이 사용자 단말장치(1000)의 전면(front surface)에 배치되었다면, 적어도 하나의 서브 표시 영역은 사용자 단말장치(1000)의 외관을 이루는 면(surface)들 중에서 우측면(right side surface), 좌측면(left side surface), 후면(back surface)과 같이 서로 다른 면에 배치될 수 있다.
여기서 전면은 사용자와 인터렉션이 수행되는 주된 영역으로, 사용자가 사용자 단말장치를 사용 중인 경우에 사용자 방향으로 배치되는 영역이다. 그리고 측면은 상술한 바와 같이 정면을 기준으로 좌측면, 우측면일 수 있으며, 경우에 따라서 상부면, 하부면일 수도 있다. 이에 따라, 메인 표시 영역은 사용자 방향으로 배치된 영역이라고 지칭할 수 있으며, 보조 표시 영역은 정면을 기준으로 좌측면 또는 우측면 영역이라고 지칭할 수도 있다.
한편, 메인 표시 영역을 포함하는 면(평면 또는 곡면)과, 적어도 하나의 서브 표시 영역을 포함하는 면(평면 또는 곡면)은 둔각을 이루도록 고정될 수 있다. 서브 표시 영역의 형태, 위치, 개수는 실시 예에 따라 다양하게 구현될 수 있다. 이에 대해서는 후술하는 부분에서 도면과 함께 구체적으로 설명한다. 여기서, 서브 표시 영역은 에지 또는 에지 영역으로 지칭될 수도 있다. 그리고 상술한 터치 스크린은 구부러진 형태를 갖는다는 점에서, 벤디드 터치 스크린으로 지칭될 수 있으며, 구부러진 형태가 가변 가능한 경우에는 플렉서블 터치 스크린으로 지칭될 수도 있다.
프로세서(200)는 터치 스크린(100)의 메인 표시 영역 및 적어도 하나의 서브 표시 영역을 개별적으로 제어할 수 있다. 가령, 메인 표시 영역 및 적어도 하나의 서브 표시 영역에서는, 서로 다른 컨텐츠를 디스플레이할 수 있다. 또한, 프로세서(200)는 터치 스크린(100)의 메인 표시 영역 및 적어도 하나의 서브 표시 영역이 하나의 컨텐츠를 디스플레이하도록 터치 스크린(100)을 제어할 수도 있다. 메인 표시 영역 및 적어도 하나의 서브 표시 영역에 표시되는 컨텐츠의 종류, 표시 방법, 레이아웃 등은 실시 예에 따라 다양하게 변경될 수 있다. 이에 대해서는, 후술하는 부분에서 구체적으로 설명한다. 여기서 디스플레이란 프로세서(200)에서 생성된 영상을 LCD/E-ink 등과 같은 다양한 영상 표시 소자를 이용하여 표시하는 것을 의미한다.
도 2는 하나의 서브 표시 영역 및 메인 표시 영역으로 구분되는 터치 스크린을 포함하는 사용자 단말장치의 외관 구성의 예를 나타내는 도면이다.
도 2를 참조하면, 터치 스크린(100)은 사용자 단말장치(1000)의 전면(front surface)에 배치된 메인 표시 영역(1010) 및 사용자 단말장치(1000)의 우측면에 배치된 서브 표시 영역(1020)으로 구분될 수 있다. 도 2에서는, 메인 표시 영역(1010)과 서브 표시 영역(1020)은 경계 영역(1050)을 기준으로 구분된다. 터치 스크린(100)이 벤딩된 상태라는 점을 고려하여, 경계 영역(1050)을 벤딩 라인이라고 표현할 수도 있다.
도 3은 도 2의 사용자 단말장치의 단면 구성을 나타내는 도면이다. 도 3에 따르면, 터치 스크린(100)의 메인 표시 영역(1010)과 서브 표시 영역(1020)은 사용자 단말장치(1000)의 전면 및 측면에 각각 배치된다. 한편, 도시된 예에서는 서브 표시 영역(1020)이 측면의 일부 영역에만 배치되는 것으로 도시하였지만, 구현시에는 측면 전체를 덮는 형태로도 배치될 수 있다.
도 4 및 도 5는 두 개의 서브 표시 영역 및 메인 표시 영역으로 구분되는 터치 스크린을 포함하는 사용자 단말장치의 외관 구성 예 및 그 단면 구성 예를 나타내는 도면이다.
도 4를 참조하면, 메인 표시 영역(1010)은 전면에 배치되고, 우측면 및 좌측면에 각각 서브 표시 영역(1020, 1030)이 배치된다. 메인 표시 영역(1010)과 각 서브 표시 영역(1020, 1030)은 경계 영역(1050-1, 1050-2)에 의해 구분된다.
도 5를 참조하면, 각 서브 표시 영역(1020, 1030)은 전면 방향에서 시청 가능하도록 메인 표시 영역(1010)과 둔각을 이루면서 배치될 수 있다. 한편, 도시된 예에서는 서브 표시 영역(1020, 1030)이 측면의 일부 영역에만 배치되는 것으로 도시하였지만, 구현시에 서브 표시 영역(1020,1030) 각각은 각 측면의 전체 영역에 배치될 수도 있다. 이와 같은 예에 대해서는 아래의 도 6 및 도 7을 참조하여 설명한다.
도 6 및 도 7은 두 개의 서브 표시 영역 및 메인 표시 영역으로 구분되는 터치 스크린을 포함하는 사용자 단말장치의 또 다른 예를 나타내는 도면이다.
도 6 및 도 7을 참조하면, 두 개의 서브 표시 영역(1020, 1030)은 메인 표시 영역(1010)을 기준으로 양 측면에 배치되며, 전면 방향이 아닌 우측 및 좌측 방향에서 시청 가능한 각도로 고정될 수 있다. 구체적으로, 각 서브 표시 영역(1020, 1030)은 메인 표시 영역(1010)을 포함하는 면과, 90도에 가깝게 벤딩될 수 있다.
한편, 본 개시의 또 다른 실시 예에 따르면, 서브 표시 영역은 메인 표시 영역(1010)의 반대 방향 측에도 배치될 수도 있다. 이와 같은 실시 예에 대해서는 도 8 및 도 9를 참조하여 이하에서 설명한다.
도 8 및 도 9는 두 개의 서브 표시 영역 및 메인 표시 영역으로 구분되는 터치 스크린을 포함하는 사용자 단말장치의 또 다른 예를 나타낸다.
도 8 및 도 9를 참조하면, 터치 스크린(100)은 전면에 형성된 메인 표시 영역(1010), 측면에 형성된 제1 서브 표시 영역(1020), 후면에 형성된 제3 서브 표시 영역(1040)으로 구분된다. 구체적으로, 제3 서브 표시 영역(1040)은 후면 전체를 덮지 않고, 후면의 일부 영역에만 형성될 수 있다. 프로세서(200)는 제1 경계 영역(1050-1) 및 제3 경계 영역(1050-3)을 기준으로, 메인 표시 영역(1010), 제1 서브 표시 영역(1020), 제3 서브 표시 영역(1040)을 구분하여, 영역별로 상이한 컨텐츠를 디스플레이할 수 있다.
한편, 도 3 내지 도 9에서는, 서브 표시 영역(1020, 1030)이 라운드 형태로 벤딩된 형태를 도시하였으나, 서브 표시 영역(1020, 1030, 1040)도 평면 형태로 구성될 수 있다. 이 경우, 메인 표시 영역(1010)을 포함하는 평면과, 서브 표시 영역(1020, 1030, 1040)을 포함하는 평면은, 경계 라인을 따라 접할 수 있다. 즉, 경계 영역(1050-1, 1050-2, 1050-3)은 라인 형상이 될 수도 있다.
한편, 사용자 단말장치(1000)는 삼각형 형태의 단면을 가질 수 있다. 이 경우, 메인 표시 영역(1010)을 포함하는 면과 서브 표시 영역(1020)을 포함하는 면은 경계 영역(1050)에서 둔각(θ)을 이루도록 서로 연결된다. 이 밖에도, 단면 구성은 사다리꼴, 5각형 등과 같은 다양한 형태로 구성될 수 있다.
또한, 이상에서는 터치 스크린(100)이 사용자 단말장치의 전면을 기준으로 가로 방향으로 벤딩된 상태를 도시하였으나, 반드시 이에 한정되는 것은 아니다. 즉, 터치 스크린(100)은 사용자 단말장치(1000)의 전면을 기준으로 세로 방향으로 벤딩될 수도 있다.
도 10은 터치 스크린(100)이 세로 방향으로 벤딩된 상태를 나타낸다. 구체적으로는, 터치 스크린(100)은 사용자 단말장치(1000)의 전면에 배치된 메인 표시 영역(1010) 및 하측 면에 배치된 서브 표시 영역(1020)으로 구분될 수 있다. 메인 표시 영역(1010)의 상측에는 스피커부(390)가 배치될 수 있다.
한편, 도 1에서는, 터치 스크린(100) 및 프로세서(200)를 포함하는 사용자 단말장치의 구성을 도시하였으나, 실시 예에 따라서, 사용자 단말장치(1000)는 다양한 구성요소를 더 포함할 수 있다. 가령, 사용자 단말장치(1000)는 각종 애플리케이션이 저장된 메모리를 더 포함할 수 있다. 프로세서(200)는 사용자 제스처에 따라 메모리에 저장된 애플리케이션을 실행시켜, 그 애플리케이션이 제공하는 컨텐츠를 메인 표시 영역 및 서브 표시 영역에 표시할 수 있다. 이하에서는 설명을 용이하게 하기 위하여, 메인 표시 영역에 표시되는 컨텐츠는 메인 컨텐츠, 서브 표시 영역에 표시되는 컨텐츠는 서브 컨텐츠로 명명하여 설명한다. 또한, 설명의 편의를 위하여, 제1 애플리케이션이 제공하는 메인 컨텐츠는 제1 메인 컨텐츠, 제1 애플리케이션이 제공하는 서브 컨텐츠는 제1 서브 컨텐츠, 제2 애플리케이션이 제공하는 메인 컨텐츠는 제2 메인 컨텐츠, 제2 애플리케이션이 제공하는 서브 컨텐츠는 제2 서브 컨텐츠로 기재한다. 여기서 애플리케이션이란 특정 서비스를 제공하기 위하여, 플랫폼에 설치 가능한 프로그램이다.
프로세서(200)는 메인 컨텐츠와 서브 컨텐츠를 다른 레이아웃으로 표시할 수 있다. 프로세서(200)는 애플리케이션이 변경되면, 변경된 애플리케이션에 따른 메인 컨텐츠 및 서브 컨텐츠를 메인 표시 영역 및 서브 표시 영역에 각각 디스플레이할 수 있다.
그 밖에도 사용자 단말장치(1000)는 다양한 형태로 구성될 수 있다.
도 11은 한 개의 서브 표시 영역 및 메인 표시 영역으로 구분되는 터치 스크린을 포함하는 사용자 단말 장치의 외관 구성 예를 나타내는 도면이다.
도 11을 참조하면, 메인 표시 영역(1010)은 전면에 배치되고, 우측면에 서브 표시 영역(1020)이 배치된다. 메인 표시 영역(1010)과 서브 표시 영역(1020)은 경계 영역(1050)에 의해 구분된다.
그리고 사용자 단말장치(1000)의 후면 및 측면에는 사용자 단말장치의 외형을 구성하는 케이스(302)가 배치된다. 이러한 케이스(302)는 금속 또는 플라스틱 등의 다양한 재료로 구성될 수 있으며, 케이스(302)의 측면(구체적으로, 사용자 단말장치(1000)의 측면)에 복수의 돌기(301)를 가질 수 있다.
이러한 복수의 돌기(301)는 서브 표시 영역(1020)의 특정 위치를 사용자가 손쉽게 인지하기 위한 것으로, 후술할 구분된 보조 터치 영역의 위치에 대응되게 배치될 수 있다. 한편, 도시된 예에서는 돌기를 이용하였지만, 사용자가 촉감을 특정 위치를 인지할 수 있다면, 돌기 이외에 홈 등을 이용할 수 있을 뿐만 아니라, 다른 케이스 영역과 다른 질감의 재질을 갖는 표면이나, 진동 기능을 통한 햅틱으로도 구현될 수도 있다. 또한, 도시된 예에서는 케이스(302)에 3개의 돌기만을 포함하는 것으로 도시하였지만, 구현시에는 4개 이상의 돌기를 포함하도록 구현될 수도 있다.
도 12 및 도 13은 두 개의 서브 표시 영역 및 메인 표시 영역으로 구분되는 터치 스크린을 포함하는 사용자 단말 장치의 외관 구성 예를 나타내는 도면이다.
도 12를 참조하면, 메인 표시 영역(1010)은 전면에 배치되고, 좌측면 및 우측면 각각에 서브 표시 영역(1020, 1030)이 배치된다. 메인 표시 영역(1010)과 서브 표시 영역(1020, 1030)은 경계 영역(1050-1, 1050-2)에 의해 구분된다.
그리고 사용자 단말장치(1000)의 후면 및 측면에는 사용자 단말장치의 외형을 구성하는 케이스(302)가 배치된다. 그리고 케이스의 좌측면 및 우측면 각각에 복수의 돌기(301-1, 301-2)가 배치된다.
한편, 이상에서는 사용자 단말장치(1000)를 구성하는 케이스에 돌기가 배치되는 것으로 도시하고 설명하였지만, 구현시에는 사용자 단말장치(1000)와 분리 가능한 케이스에 돌기가 배치될 수도 있다. 이와 같은 예에 대해서는 도 13을 참조하여 이하에서 설명한다.
도 13을 참조하면, 케이스(305)는 사용자 단말장치(1000)에 탈부착이 가능하며, 장착된 경우에는 사용자 단말장치(1000)의 후면 및 측면을 감싸게 배치된다. 그리고 케이스의 좌측면 및 우측면 각각에 복수의 돌기(306)가 배치된다. 이러한 케이스(305)는 사용자 단말장치(1000)의 내부를 개방하기 위한 커버(예를 들어, 배터리 커버)일 수 있으며, 사용자가 사용자 단말장치(1000)의 외형의 보호를 위해 추가적으로 장착하는 범퍼 케이스 등일 수도 있다.
도 14는 휴대폰으로 구현된 사용자 단말장치(1000)의 세부 구성의 일 예를 나타내는 블럭도이다.
도 14를 참조하면, 사용자 단말장치(1000)는 터치 스크린(100), 프로세서(200), 저장부(310), GPS 칩(320), 통신부(330), 비디오 프로세서(340), 오디오 프로세서(350), 버튼(360), 마이크부(370), 촬상부(380), 스피커부(390), 구동부(395), 움직임 감지부(400)를 포함한다.
터치 스크린(100)은 상술한 바와 같이 메인 표시 영역 및 적어도 하나의 서브 표시 영역으로 구분될 수 있다. 터치 스크린(100)은 LCD(Liquid Crystal Display), OLED(Organic Light Emitting Diodes) 디스플레이, PDP(Plasma Display Panel) 등과 같은 다양한 형태의 디스플레이로 구현될 수 있다. 터치 스크린(100) 내에는 a-si TFT, LTPS(low temperature poly silicon) TFT, OTFT(organic TFT) 등과 같은 형태로 구현될 수 있는 구동 회로, 백라이트 유닛 등도 함께 포함될 수 있다. 또한, 터치 스크린(100)은 벤디드 디스플레이 또는 플렉서블 디스플레이로 구현될 수도 있다. 또는, 플렉서블 하지 않은 일반 디스플레이로 구현될 수도 있다. 일반 디스플레이로 구현되는 경우, 복수의 디스플레이를 서로 연결하여 터치 스크린(100)을 구성할 수 있다.
한편, 터치 스크린(100)은 사용자의 터치 제스처를 감지하기 위한 터치 센서를 포함할 수 있다. 이를 통하여 터치 스크린은 사용자의 각종 명령(또는 사용자 제스처)을 입력받을 수 있다. 터치 센서는 정전식이나, 감압식, 압전식 등과 같은 다양한 유형의 센서로 구현될 수 있다. 정전식은 터치 스크린 표면에 코팅된 유전체를 이용하여, 사용자의 신체 일부가 터치 스크린 표면에 터치되었을 때 사용자의 인체로 여기되는 미세 전기를 감지하여 터치 좌표를 산출하는 방식이다. 감압식은 터치 스크린에 내장된 두 개의 전극 판을 포함하여, 사용자가 화면을 터치하였을 경우, 터치된 지점의 상하 판이 접촉되어 전류가 흐르게 되는 것을 감지하여 터치 좌표를 산출하는 방식이다. 이 밖에도, 사용자 단말장치(1000)가 펜 입력 기능도 지원하는 경우, 터치 스크린(100)은 사용자의 손가락 이외에도 펜과 같은 입력 수단을 이용한 사용자 제스처도 감지할 수 있다. 여기서 사용자 제스처의 감지는 사용자 명령의 입력으로 지칭될 수도 있다. 즉, 사용자 명령의 입력은 사용자 제스처의 감지와 동일한 의미로 해석될 수 있다. 여기서 사용자 제스처는 사용자의 손가락 등의 신체부위를 이용하여 터치 스크린(100) 상의 터치, 드래그, 드래그 앤 드롭, 플릭(flick), 스와이프, 더블 탭, 핀치 오픈, 핀치 클로즈, 터치 앤 홀드 등의 제스처를 의미한다. 특히 메인 표시 영역에 디스플레이된 아이콘을 보조 표시 영역으로 이동하는 입력, 즉, 드래그 앤 드롭을 기능 아이콘 등록 제스처라고 지칭할 수 있다.
입력 수단이 내부에 코일을 포함하는 스타일러스 펜일 경우, 사용자 단말장치(1000)는 스타일러스 펜 내부의 코일에 의해 변화되는 자기장을 감지할 수 있는 자기장 감지 센서를 포함할 수도 있다. 이에 따라, 터치 제스처뿐만 아니라 근접 제스처, 즉, 호버링(hovering)도 감지할 수 있게 된다.
한편, 이상에서는 하나의 터치 스크린(100)이 영상의 표시 기능 및 터치 제스처의 감지 기능 모두 수행하는 것으로 설명하였지만, 구현시에 표시 기능과 제스처 감지 기능은 서로 다른 구성에서 수행될 수 있다. 즉, 영상 표시만 가능한 디스플레이 장치와 터치 감지만이 가능한 터치 패널을 조합하여 터치 스크린(100)을 구현할 수도 있다.
저장부(310)는 사용자 단말장치(1000)의 동작에 필요한 각종 프로그램 및 데이터를 저장할 수 있다. 구체적으로는, 저장부(310)에는 메인 표시 영역 및 서브 표시 영역에 표시될 각종 UI를 구성하기 위한 프로그램 및 데이터 등이 저장될 수 있다.
그리고 저장부(310)는 복수의 애플리케이션을 저장한다. 또한, 저장부(310)는 각 애플리케이션에 대응되는 기능 아이콘 정보를 저장한다. 여기서, 아이콘이란 사용자 단말장치에서 제공하는 명령을 문자 또는 그림으로 나타낸 것이다. 그리고 기능 아이콘 정보란 메인 표시 영역에 가상 키보드가 표시될 때, 가상 키보드 측면의 보조 표시 영역 상에 표시될 수 있는 아이콘에 대한 정보로, 문자 입력 영역에 입력 가능한 이모티콘, 특수 문자, 기설정된 문자 세트, 특정 기능(예를 들어, 메일 전송, 문자 전송 등)을 수행하도록 하는 아이콘 등의 정보일 수 있다. 여기서 기설정된 문자 세트는 사용자가 빈번하게 사용하는 문자 세트로, 예를 들어, '.com', '.kr' 등일 수 있다.
그리고 저장부(310)는 타 단말장치로부터 수신되는 데이터를 저장할 수 있다. 여기서 타 단말장치는 정류소 단말, 신호등 등일 수 있으며, 타 단말장치가 정류소 단말인 경우 수신되는 데이터는 정차된 버스 정보, 정차 예정인 버스의 시간 정보(예를 들어, 도착 예정 시간) 등일 수 있으며, 타 단말장치가 신호등인 경우, 수신되는 데이터는 현재 신호 상태 정보 등일 수 있다.
프로세서(200)는 저장부(310)에 저장된 프로그램 및 데이터를 이용하여 터치 스크린(100)의 메인 표시 영역 및 서브 표시 영역 각각에 컨텐츠를 디스플레이한다. 또한, 프로세서(200)는 메인 표시 영역, 서브 표시 영역 및 그 사이의 경계에 해당하는 경계 영역에 대하여 사용자 터치가 이루어지면, 그 터치에 대응되는 제어 동작을 수행한다.
프로세서(200)는 RAM(210), ROM(220), CPU(230), GPU(Graphic Processing Unit)(240), 버스(250)를 포함한다. RAM(210), ROM(220), CPU(230), GPU(Graphic Processing Unit)(240) 등은 버스(250)를 통해 서로 연결될 수 있다.
CPU(230)는 저장부(310)에 액세스하여, 저장부(310)에 저장된 O/S를 이용하여 부팅을 수행한다. 그리고 저장부(310)에 저장된 각종 프로그램, 컨텐츠, 데이터 등을 이용하여 다양한 동작을 수행한다.
ROM(220)에는 시스템 부팅을 위한 명령어 세트 등이 저장된다. 턴-온 명령이 입력되어 전원이 공급되면, CPU(230)는 ROM(220)에 저장된 명령어에 따라 저장부(310)에 저장된 O/S를 RAM(210)에 복사하고, O/S를 실행시켜 시스템을 부팅시킨다. 부팅이 완료되면, CPU(230)는 저장부(310)에 저장된 각종 프로그램을 RAM(210)에 복사하고, RAM(210)에 복사된 프로그램을 실행시켜 각종 동작을 수행한다.
GPU(240)는 사용자 단말장치(1000)의 부팅이 완료되면, 메인 표시 영역 및 서브 표시 영역 중에서 활성화된 영역에 UI를 디스플레이한다. 구체적으로는, GPU(240)는 연산부(미도시) 및 렌더링부(미도시)를 이용하여 아이콘, 이미지, 텍스트 등과 같은 다양한 객체를 포함하는 화면을 생성할 수 있다. 연산부는 화면의 레이아웃에 따라 각 객체들이 표시될 좌표값, 형태, 크기, 컬러 등과 같은 속성 값을 연산한다. 렌더링부는 연산부에서 연산한 속성값에 기초하여 객체를 포함하는 다양한 레이아웃의 화면을 생성한다. 렌더링부에서 생성된 화면은 터치 스크린(100)으로 제공되어, 메인 표시 영역 및 서브 표시 영역에 각각 표시된다.
GPS 칩(320)은 GPS(Grobal Positioning System) 위성으로부터 GPS 신호를 수신하여, 사용자 단말장치(1000)의 현재 위치를 산출하기 위한 구성요소이다. 프로세서(200)는 내비게이션 프로그램을 이용할 때나 그 밖에 사용자의 현재 위치가 필요할 경우에, GPS 칩(320)을 이용하여 사용자 위치를 산출할 수 있다.
통신부(330)는 다양한 유형의 통신방식에 따라 다양한 유형의 외부 기기와 통신을 수행하는 구성이다. 통신부(330)는 와이파이칩(331), 블루투스 칩(332), 무선 통신 칩(333), NFC 칩(334)을 포함한다. 프로세서(200)는 통신부(330)를 이용하여 각종 외부 기기와 통신을 수행한다.
와이파이 칩(331), 블루투스 칩(332)은 각각 WiFi 방식, 블루투스 방식으로 통신을 수행한다. 와이파이 칩(331)이나 블루투스 칩(332)을 이용하는 경우에는 SSID 및 세션 키 등과 같은 각종 연결 정보를 먼저 송수신하여, 이를 이용하여 통신 연결한 후 각종 정보들을 송수신할 수 있다. 무선 통신 칩(333)은 IEEE, 지그비, 3G(3rd Generation), 3GPP(3rd Generation Partnership Project), LTE(Long Term Evoloution) 등과 같은 다양한 통신 규격에 따라 통신을 수행하는 칩을 의미한다. NFC 칩(334)은 135kHz, 13.56MHz, 433MHz, 860~960MHz, 2.45GHz 등과 같은 다양한 RF-ID 주파수 대역들 중에서 13.56MHz 대역을 사용하는 NFC(Near Field Communication) 방식으로 동작하는 칩을 의미한다.
비디오 프로세서(340)는 통신부(330)를 통해 수신된 컨텐츠 또는, 저장부(310)에 저장된 컨텐츠에 포함된 비디오 데이터를 처리하기 위한 구성요소이다. 비디오 프로세서(340)에서는 비디오 데이터에 대한 디코딩, 스케일링, 노이즈 필터링, 프레임 레이트 변환, 해상도 변환 등과 같은 다양한 이미지 처리를 수행할 수 있다.
오디오 프로세서(350)는 통신부(330)를 통해 수신된 컨텐츠 또는, 저장부(310)에 저장된 컨텐츠에 포함된 오디오 데이터를 처리하기 위한 구성요소이다. 오디오 프로세서(350)에서는 오디오 데이터에 대한 디코딩이나 증폭, 노이즈 필터링 등과 같은 다양한 처리가 수행될 수 있다.
프로세서(200)는 멀티미디어 컨텐츠에 대한 재생 애플리케이션이 실행되면 비디오 프로세서(340) 및 오디오 프로세서(350)를 구동시켜, 해당 컨텐츠를 재생할 수 있다. 이때, 터치 스크린(100)은 비디오 프로세서(340)에서 생성한 이미지 프레임을 메인 표시 영역, 서브 표시 영역 중 적어도 하나의 영역에 디스플레이할 수 있다.
또한, 스피커부(390)는 오디오 프로세서(350)에서 생성한 오디오 데이터를 출력한다. 그리고 스피커부(390)는 토크백(또는 음성 출력 기능) 구동시, 메인 표시 영역(1010) 상에 표시된 텍스트, 기능 정보 등을 사용자에게 음성으로 제공할 수 있다. 또한, 스피커부(390)는 주변 장치로부터 수신된 정보를 사용자에게 음성으로 제공할 수 있다.
버튼(360)은 사용자 단말장치(1000)의 본체 외관의 전면부나 측면부, 배면부 등의 임의의 영역에 형성된 기계적 버튼, 터치 패드, 휠 등과 같은 다양한 유형의 버튼이 될 수 있다.
마이크부(370)는 사용자 음성이나 기타 소리를 입력받아 오디오 데이터로 변환하기 위한 구성이다. 프로세서(200)는 마이크부(370)를 통해 입력되는 사용자 음성을 통화(call) 과정에서 이용하거나, 오디오 데이터로 변환하여 저장부(310)에 저장할 수 있다. 한편, 마이크부(370)는 복수의 위치에서 소리 입력을 받는 스테레오 마이크로 구성될 수 있다. 따라서, 마이크부(370)는 입력된 소리를 이용하여 음원의 위치를 판단할 수도 있다. 한편, 구현시에는 마이크부(370)는 복수의 방향에서 입력된 복수의 음원을 생성하고, 상술한 바와 같은 방향 판단은 프로세서(200)가 수행할 수도 있다.
촬상부(380)는 사용자의 제어에 따라 정지 영상 또는 동영상을 촬상하기 위한 구성이다. 촬상부(380)는 전면 카메라, 후면 카메라와 같이 복수 개로 구현될 수 있다. 상술한 바와 같이, 촬상부(380)는 사용자의 시선 추적을 위한 실시 예에서 사용자의 이미지를 획득하기 위한 수단으로 사용될 수 있다.
촬상부(380) 및 마이크부(370)가 마련된 경우, 프로세서(200)는 마이크부(370)를 통해 입력되는 사용자 음성이나 촬상부(380)에 의해 인식되는 사용자 모션에 따라 제어 동작을 수행할 수도 있다. 즉, 사용자 단말장치(1000)는 모션 제어 모드나 음성 제어 모드로 동작할 수 있다. 모션 제어 모드로 동작하는 경우, 프로세서(200)는 촬상부(380)를 활성화시켜 사용자를 촬상하고, 사용자의 모션 변화를 추적하여 그에 대응되는 제어 동작을 수행한다. 음성 제어 모드로 동작하는 경우 프로세서(200)는 마이크부(370)를 통해 입력된 사용자 음성을 분석하고, 분석된 사용자 음성에 따라 제어 동작을 수행하는 음성 인식 모드로 동작할 수도 있다.
모션 제어 모드나 음성 제어 모드가 지원되는 사용자 단말장치(1000)에서는, 음성 인식 기술 또는 모션 인식 기술이 상술한 다양한 실시 예에 사용될 수 있다. 가령, 사용자가 홈 화면에 표시된 오브젝트를 선택하는 듯한 모션을 취하거나, 그 오브젝트에 대응되는 음성 명령어를 발음하는 경우, 해당 오브젝트가 선택된 것으로 판단하고, 그 오브젝트에 매칭된 제어 동작을 수행할 수 있다.
구동부(395)는 햅틱 피드백을 생성한다. 구체적으로, 구동부(395)는 진동을 생성할 수 있는 모터 등을 이용하여 특정 이벤트가 발생하면, 사용자에게 햅틱 피드백을 생성할 수 있다.
움직임 감지부(400)는 사용자 단말장치(1000)의 본체 움직임을 감지하기 위한 구성요소이다. 즉, 사용자 단말장치(1000)는 다양한 방향으로 회전되거나 기울어질 수 있다. 움직임 감지부(400)는 지자기 센서, 자이로 센서, 가속도 센서 등과 같은 다양한 센서들 중 적어도 하나를 이용하여 회전 방향 및 각도, 기울기 등과 같은 움직임 특성을 감지할 수 있다.
그 밖에, 도 14에 도시하지는 않았으나, 실시 예에 따라서는, 사용자 단말장치(1000) 내에 USB 커넥터가 연결될 수 있는 USB 포트나, 헤드셋, 마우스, LAN 등과 같은 다양한 외부 단자와 연결하기 위한 다양한 외부 입력 포트, DMB(Digital Multimedia Broadcasting) 신호를 수신하여 처리하는 DMB 칩, 다양한 센서 등을 더 포함할 수 있음은 물론이다.
한편, 상술한 바와 같이, 저장부(310)에는 다양한 프로그램이 저장될 수 있다. 도 15는 사용자 단말장치(1000)에 저장된 소프트웨어의 구조를 설명하기 위한 도면이다. 도 15를 참조하면, 저장부(310)에는 OS(1210), 커널(1220), 미들웨어(1230), 애플리케이션(1240) 등을 포함하는 소프트웨어가 저장될 수 있다.
운영체제(Operating System: OS, 1210)는 하드웨어의 전반적인 동작을 제어하고 관리하는 기능을 수행한다. 즉, OS(1210)는 하드웨어 관리와 메모리, 보안 등의 기본적인 기능을 담당하는 계층이다.
커널(1220)은 터치 스크린(100)에서 감지되는 터치 신호 등을 비롯한 각종 신호들을 미들웨어(1220)로 전달하는 통로 역할을 한다.
미들웨어(1220)는 사용자 단말장치(1000)의 동작을 제어하는 각종 소프트웨어 모듈을 포함한다. 구체적으로, 미들웨어(1230)는 X11 모듈(1230-1), APP 매니저(1230-2), 연결 매니저(1230-3), 보안 모듈(1230-4), 시스템 매니저(1230-5), 멀티미디어 프레임워크(1230-6), 메인 UI 프레임워크(1230-7), 윈도우 매니저(1230-8), 서브 UI 프레임워크(1230-9)를 포함할 수 있다.
X11 모듈(1230-1)은 사용자 단말장치(1000)에 구비된 각종 하드웨어들로부터 각종 이벤트 신호를 수신하는 모듈이다. 여기서 이벤트란, 사용자 제스처가 감지되는 이벤트, 사용자 단말장치(1000)가 특정 방향으로 움직이는 이벤트, 시스템 알람(alarm)이 발생하는 이벤트, 특정 프로그램이 실행 또는 종료되는 이벤트 등과 같이 다양하게 설정될 수 있다.
APP 매니저(1230-2)는 저장부(310)에 설치(install)된 각종 애플리케이션(1240)의 실행 상태를 관리하는 모듈이다. APP 매니저(1230-2)는 X11 모듈(1230-1)로부터 애플리케이션 실행 이벤트가 감지되면, 해당 이벤트에 대응되는 애플리케이션을 호출하여 실행시킨다.
연결 매니저(1230-3)는 유선 또는 무선 네트워크 연결을 지원하기 위한 모듈이다. 연결 매니저(1230-3)는 DNET 모듈, UPnP 모듈 등과 같은 다양한 세부 모듈들을 포함할 수 있다.
보안 모듈(1230-4)은 하드웨어에 대한 인증(Certification), 요청 허용(Permission), 보안 저장(Secure Storage) 등을 지원하는 모듈이다.
시스템 매니저(1230-5)는 사용자 단말장치(1000) 내의 각 구성요소들의 상태를 모니터링하고, 그 모니터링 결과를 타 모듈들에게 제공한다. 가령, 배터리 잔량이 부족하거나, 에러가 발생하는 경우, 통신 연결 상태가 끊어지는 경우 등이 발생하면 시스템 매니저(1230-5)는 그 모니터링 결과를 메인 UI 프레임워크(1230-7)나 서브 UI 프레임워크(1230-9)로 제공하여 알림 메시지나 알림 음을 출력할 수 있다.
멀티미디어 프레임워크(1230-6)는 사용자 단말장치(1000)에 저장되어 있거나, 외부 소스로부터 제공되는 멀티미디어 컨텐츠를 재생하기 위한 모듈이다. 멀티미디어 프레임워크(1230-6)는 플레이어 모듈, 캠코더 모듈, 사운드 처리 모듈 등을 포함할 수 있다. 이에 따라, 각종 멀티미디어 컨텐츠를 재생하여 화면 및 음향을 생성하여 재생하는 동작을 수행할 수 있다.
메인 UI 프레임워크(1230-7)는 터치 스크린(100)의 메인 표시 영역에 표시할 각종 UI를 제공하기 위한 모듈이고, 서브 UI 프레임워크(1230-9)는 서브 표시 영역에 표시할 각종 UI를 제공하기 위한 모듈이다. 메인 UI 프레임워크(1230-7) 및 서브 UI 프레임워크(1230-9)는 각종 오브젝트를 구성하는 이미지 합성기(Image Compositor module), 오브젝트가 표시될 좌표를 산출하는 좌표 합성기, 구성된 오브젝트를 산출된 좌표에 렌더링하는 렌더링 모듈, 2D 또는 3D 형태의 UI를 구성하기 위한 툴(tool)을 제공하는 2D/3D UI 툴킷 등을 포함할 수 있다. 이러한 메인 UI 프레임워크(1230-7)는 터치 스크린(100) 내의 메인 표시 영역에 화소 구동을 제어하는 메인 소스 IC와 연동되어 동작할 수 있다 . 그리고, 보조 UI 프레임워크(1230-0)는 터치 스크린 (100) 내의 보조 표시 영역에 화소 구동을 제어하는 보조 소스 IC와 연동되어 동작할 수 있다. 이러한 메인 소스 IC 및 보조 소스 IC에 대해서는 도 16c와 관련하여 후술한다.
윈도우 매니저(1230-8)는 사용자의 신체나 펜을 이용한 터치 이벤트나 기타 입력 이벤트를 감지할 수 있다. 윈도우 매니저(1230-8)는 이러한 이벤트가 감지되면 메인 UI 프레임워크(1230-7) 또는 서브 UI 프레임워크(1230-9)로 이벤트 신호를 전달하여, 이벤트에 대응되는 동작을 수행하도록 한다.
그 밖에도, 사용자가 화면을 터치 및 드래그하는 경우, 그 드래그 궤적에 따라 라인을 드로잉하기 위한 필기 모듈이나, 움직임 감지부(400)에서 감지된 센서 값에 기초하여 피치각, 롤각, 요우각 등을 산출하기 위한 각도 산출 모듈 등과 같은 다양한 프로그램 모듈이 저장될 수도 있다.
애플리케이션 모듈(1240)은 다양한 기능을 지원하기 위한 애플리케이션들(1240-1 ~ 1240-n)을 포함한다. 예를 들어, 내비게이션 프로그램 모듈, 게임 모듈, 전자 책 모듈, 달력 모듈, 알람 관리 모듈 등과 같은 다양한 서비스를 제공하기 위한 프로그램 모듈을 포함할 수 있다. 이러한 애플리케이션들은 디폴트로 설치되어 있을 수도 있고, 사용자가 사용 과정에서 임의로 설치하여 사용할 수도 있다. CPU(230)는 오브젝트가 선택되면, 애플리케이션 모듈(1240)을 이용하여 선택된 오브젝트에 대응되는 애플리케이션을 실행시킬 수 있다.
도 15에 표시된 소프트웨어 구조는 일 예에 불과하므로, 반드시 이에 한정되어야 하는 것은 아니다. 따라서, 필요에 따라 일부가 생략 또는 변형되거나, 추가될 수도 있음은 물론이다. 가령, 저장부(310)에는 각종 센서들에서 센싱된 신호들을 분석하기 위한 센싱 모듈이나, 메신저 프로그램, SMS(Short Message Service) & MMS(Multimedia Message Service) 프로그램, 이메일 프로그램 등과 같은 메시징 모듈, 전화 정보 수집기(Call Info Aggregator) 프로그램 모듈, VoIP 모듈, 웹 브라우저 모듈 등과 같이 다양한 프로그램들이 추가로 마련될 수도 있다.
한편, 상술한 바와 같이 사용자 단말장치(1000)는 휴대폰, 태블릿 PC, 랩탑 PC, PDA, MP3 플레이어, 전자 액자 장치, TV, PC, 키오스크 등과 같은 다양한 유형의 장치로 구현될 수 있다. 따라서, 도 14 및 도 15에서 설명한 구성은, 사용자 단말장치(1000)의 종류에 따라 다양하게 변형될 수 있다.
이상에서 설명한 바와 같이, 사용자 단말장치(1000)는 다양한 형태 및 구성으로 구현될 수 있다. 사용자 단말장치(1000)의 프로세서(200)는 실시 예에 따라 다양한 사용자 인터렉션을 지원할 수 있다.
이하에서는, 본 개시의 다양한 실시 예에 따른 사용자 인터렉션 방법에 대하여 구체적으로 설명한다.
본 개시의 일 실시 예로, 프로세서(200)는 사용자 단말장치(1000)에 설치된 애플리케이션의 실행을 요청하는 신호를 수신할 수 있다. 예를 들어, 사용자 단말장치(1000)의 외부 기기로부터 데이터를 수신하거나, 사용자 단말장치(1000) 본체에 구비된 버튼 또는 터치 스크린(100)을 이용하여 사용자가 애플리케이션의 실행을 요청받거나, 또는 애플리케이션을 일정 시각에 자동으로 실행시키는 사전 설정이 있는 경우 프로세서(200)는 애플리케이션의 실행을 요청하는 신호를 수신할 수 있다.
프로세서(200)는 요청 신호에 응답하여, 애플리케이션의 UI를 터치 스크린(100)에 표시할 수 있다. 구체적으로, 프로세서(200)는 요청 신호에 응답하여, 애플리케이션을 제1 레이아웃 또는 제2 레이아웃 중 하나로 선택적으로 표시할 수 있다. 이때, 제1 레이아웃은 터치 스크린(100)의 서브 표시 영역의 디스플레이 레이아웃을 의미하고, 제2 레이아웃은 터치 스크린(100)의 메인 표시 영역의 디스플레이 레이아웃을 의미할 수 있다.
구체적으로, 프로세서(200)는 사용자에게 정보를 표시해야 하는 이벤트(예를 들어, 알림 메시지 표시 등)가 발생하면, 해당 정보를 메인 표시 영역에 표시할 것인지, 보조 표시 영역에 표시할 것인지를 선행적으로 결정할 수 있다. 예를 들어, 사용자의 위치가 영화관 또는 도서관과 같은 위치인 경우, 프로세서(200)는 상술한 GPS(320)을 통하여 사용자의 위치를 판단하고, 사용자의 위치가 영화관 또는 도서관과 같은 위치인 경우에는 해당 메시지를 보조 표시 영역에 표시하는 것으로 결정할 수 있다. 이때, 프로세서(200)는 보조 표시 영역에 정보를 표시하는 과정 중에 메인 표시 영역은 어떠한 정보도 표시하지 않도록, 즉, 검정 화면이 표시되도록 터치 스크린(100)을 제어할 수 있다.
또는 프로세서(200)는 정보를 표시할 시간을 고려하여 표시 영역을 결정할 수 있다. 예를 들어, 심야 시간에 SMS 문자는 SNS 알람이 필요한 경우, 프로세서(220)는 해당 정보가 메인 표시 영역이 아닌 보조 표시 영역에만 디스플레이되도록 터치 스크린(100)을 제어할 수 있다.
또는 프로세서(200)는 사용자 단말장치의 배치 방향을 고려하여 표시 영역을 결정할 수 있다. 예를 들어, 사용자 단말장치를 가로 방향으로 배치하여 이용중인 경우, 알림 메시지 역시 가로 방향으로 표시하는 것이 사용자가 읽기에 편하다. 따라서, 프로세서(200)는 평상시에는 정보가 메인 표시 영역에 표시되도록 제어하다가, 사용자 단말장치의 배치 방향이 가로 방향인 경우에는 알람 정보가 보조 표시 영역에 디스플레이되도록 터치 스크린(100)을 제어할 수 있다.
또는 프로세서(200)는 이벤트에 대응되는 애플리케이션 종류에 기초하여 표시 영역을 결정할 수 있다. 예를 들어, 프로세서(200)는 sms와 같은 애플리케이션의 알림은 보조 표시 영역에 표시되는 것으로 결정하고, SNS 애플리케이션의 알람은 메인 표시 영역에 표시되는 것으로 결정할 수 있다. 이러한 결정 방식은 제조사가 미리 디폴트로 설정해 놓을 수 있으며, 사용자가 설정을 통하여 설정 및 변경할 수도 있다.
또는 프로세서(200)는 표시될 정보의 양(즉, 정보량)에 따라 표시 영역을 결정할 수 있다. 여기서 정보량은 정보를 구성하는 데이터의 크기 또는 정보를 나타내는 텍스트 길이로 표현될 수 있다. 예를 들어, 프로세서(200)는 보조 표시 영역에 표시 가능한 문자가 20글자인 경우, 20글자 이하의 메시지는 보조 표시 영역에 표시하는 것으로 결정하고, 20글자 초과는 메인 표시 영역에 표시하는 것으로 결정할 수도 있다. 상술한 20글자는 임의의 숫자이며, 보조 표시 영역의 크기 및 보조 표시 영역에 표시되는 정보의 포인트 크기 등에 의하여 가변될 수 있다.
한편, 사용자 단말장치(1000)가 복수의 보조 표시 영역을 갖고, 기설정된 이벤트에 대응되는 정보를 보조 표시 영역에 표시하는 것으로 결정되면, 프로세서(200)는 복수의 보조 표시 영역 중 상기 정보를 표시할 보조 표시 영역을 결정할 수 있다. 여기서 이벤트는 정보 표시가 필요한 상황을 의미하며, 예를 들어, SMS 수신, SNS 수신 등의 상황일 수 있다. 그리고 이벤트에 대응되는 정보란 해당 정보 표시가 필요하다는 정보 표시(예를 들어, SMS가 수신된 경우, SMS 내용 표시 없이 SMS가 수신되었다는 알림) 또는 수신된 정보 그 자체(예를 들어, SMS 수신의 경우, SMS 메시지 내용)일 수 있다.
이때, 표시될 정보에 방향 정보가 포함되어 있지 않다면, 프로세서(200)는 수신된 정보를 디폴트로 설정된 보조 표시 영역에 표시할 수 있다. 반면에 표시될 정보에 방향 정보를 갖는 경우, 방향에 대응되는 보조 표시 영역 해당 정보를 표시할 수 있다.
프로세서(200)는 사용자 단말 장치(1000)의 현재 상태가 제1 레이아웃 표시 상태인 경우, 애플리케이션을 터치 스크린(100)의 서브 표시 영역에 제1 레이아웃으로 표시할 수 있다. 이때, 애플리케이션은 서브 표시 영역의 전체에 표시될 수도 있고, 또는 서브 표시 영역의 일부에만 표시될 수도 있다. 또는, 애플리케이션의 UI는 메인 표시 영역 및 서브 표시 영역 모두에서 표시될 수도 있고, 또는, 실행된 애플리케이션 UI의 일부가 서브 표시 영역 상에만 표시될 수도 있다.
도 16a는 레이아웃의 예를 나타내는 도면이다. 도 16a를 참조하면, 터치 스크린(100)의 서브 표시 영역(1020)에는 제1 레이아웃으로 화면이 디스플레이되고, 메인 표시 영역(1010)에는 제2 레이아웃으로 화면이 디스플레이된다. 여기서, 레이아웃이란 각종 정보를 표시하기 위한 영역의 크기, 형태, 배치 위치, 배치 순서 등을 정해 둔 정보를 의미한다.
그리고 제1 레이아웃(160)은 구분된 복수의 영역(1621, 1622, 1623)으로 구분된다. 이하에서는 설명을 용이하게 하기 위하여, 구분된 복수의 영역(1621, 1622, 1623)을 보조 터치 영역이라고 지칭한다.
보조 터치 영역은 해당 영역에 대한 터치 제스처를 기설정된 버튼 입력으로 처리하는 영역으로, 사용자가 보조 터치 영역을 터치하면, 단순히 해당 영역에 표시된 UI를 선택하는 제스처로 취급하지 않고, 해당 영역에 매핑된 특정 버튼이 입력된 것으로 처리할 수 있다. 이와 같은 예에 대해서는 도 35를 참조하여 후술한다.
일 실시 예에 따르면, 사용자가 문자 입력이 필요한 부분을 터치하거나 경우, 프로세서(200)는 문자 입력을 위한 가상 키보드를 표시할 수 있다. 구체적으로, 프로세서(200)는 메인 표시 영역 상에 현재 구동 중인 애플리케이션의 UI와 가상 키보드가 디스플레이되도록 터치 스크린(100)을 제어할 수 있다. 여기서 가상 키보드는 사용자로부터 텍스트 등의 문자를 입력받기 위한 터치 UI로 qwerty 자판이나, 2벌식 자판, 3벌식 자판, 숫자 키패드, 천지인 자판 등 다양한 자판 형태를 가질 수 있다. 또한, 가상 키보드는 사용자로부터 직접 필기를 입력받기 위한 필기 입력 영역일 수 있다.
그리고 가상 키보드가 메인 표시 영역 상에 표시되면, 프로세서(200)는 서브 표시 영역에 기능 아이콘을 표시할 수 있다. 구체적으로, 프로세서(200)는 가상 키보드가 표시되는 영역의 좌측 및/또는 우측의 서브 표시 영역 상에 기능 아이콘을 표시할 수 있다.
여기서, 기능 아이콘은 현재 표시중인 가상 키보드의 기능을 확장하기 위한 아이콘으로, 이모티콘, 특수 문자, 기설정된 문자 세트, 특정 기능을 수행하도록 하는 아이콘 등일 수 있다. 이와 같이 본 실시 예에 따른 사용자 단말장치(1000)는 키보드 기능을 확장할 수 있는 기능 아이콘을 서브 표시 영역 상에 제공하는바, 사용자는 보다 손쉽게 문자 입력을 수행할 수 있다.
한편, 기능 아이콘은 하나의 세트로 존재할 수 있지만, 구현시에는 복수의 세트로 존재할 수 있다. 구체적으로, 애플리케이션의 종류마다 다른 기능 아이콘이 표시될 수 있다. 따라서, 프로세서(200)는 현재 구동중인 애플리케이션에 대응되는 기능 아이콘을 서브 표시 영역 상에 표시할 수 있다. 또한, 구현시에는 가상 키보드의 종류마다 다른 기능 아이콘이 표시될 수 있다. 예를 들어, 한글 자판(ex, 2벌식 자판)인 경우에는 제1 기능 아이콘 세트가 표시되고, 영문 자판(ex, qwerty 자판)인 경우에는 제2 기능 아이콘 세트가 표시될 수 있다.
한편, 사용자가 손쉽게 기능 아이콘을 터치할 수 있도록, 프로세서(200)는 가상 키보드의 좌측 영역 및/또는 우측 영역에만 표시할 수 있다. 만약, 기등록된 아이콘을 모두 가상 키보드의 좌측 영역 및 우측 영역에 표시할 수 없는 경우, 즉, 등록된 기능 아이콘이 기설정된 개수를 초과하면, 프로세서(200)는 기등록된 복수의 기능 아이콘을 사용 빈도, 최근 사용 기록 등을 기준으로 정렬하여 기설정된 개수만큼만 표시할 수 있다.
그리고 사용자가 보조 표시 영역에 대한 기설정된 터치 제스처를 입력하면, 프로세서(200)는 현재 표시중인 기능 아이콘과 다른 기능 아이콘(구체적으로, 해당 애플리케이션에 대해서 기등록된 아이콘 중 표시되지 않은 아이콘)을 표시할 수 있다.
한편, 사용자가 보조 표시 영역 상에 표시된 기능 아이콘을 선택하면, 프로세서(200)는 해당 기능 아이콘에 대응되는 문자, 문자 셋, 이모티콘 등을 메인 표시 영역 상의 문자 입력 창에 표시할 수 있다. 또한, 사용자가 선택한 기능 아이콘이 특정 기능을 수행하는 아이콘이면, 프로세서(200)는 해당 아이콘에 대응되는 기능을 수행할 수 있다.
또한, 본 개시의 일 실시 예에 따르면, 사용자로부터 토크백 기능(또는 음성 출력 기능)을 요청받으면, 프로세서(200)는 토크백 기능에 따른 동작을 수행할 수 있다. 여기서 토크백 기능은, 메인 표시 영역 상에 표시되는 UI에 대한 정보를 음성으로 출력하는 기능으로, 주로 시각 장애인이 사용자 단말장치를 활용하는데 도움을 주는 기능이다. 시각 장애인은 시각적인 정보 없이 특정 영역을 선택해야 하는바, 토크백 기능이 활성화되면 터치 제스처 및 해당 터치 제스처에 대응되는 기능은 일반적인 경우와 달라진다.
그리고 프로세서(200)는 토크백 기능이 활성화되면, 동일한 터치 제스처에 대해서 터치 제스처가 수행되는 영역별로 다른 기능을 수행할 수 있다. 구체적으로, 프로세서(200)는 메인 표시 영역에 대한 제1 터치 제스처에 대해서는 일반적인 토크백 기능(예를 들어, 제1 터치 제스처가 터치인 경우, 읽어주기 기능)과 관련된 기능을 수행하고, 보조 표시 영역에 대한 제1 터치 제스처에 대해서는 일반적인 기능(구체적으로, 토크백 기능이 활성화되기 전과 같은 기능, 예를 들어, 제1 터치 제스처가 터치인 경우, 선택 기능)을 수행할 수 있다. 이러한 동작에 대해서는 도 24 내지 도 34를 참조하여 후술한다.
또한, 본 개시의 일 실시 예에 따르면, 프로세서(200)는 복수의 보조 터치 영역에 대한 터치 제스처를 기설정된 버튼 입력으로 처리할 수 있다. 구체적으로, 프로세서(200)는 구분된 보조 터치 영역을 락 스크린 화면 상의 터치 영역과 같이 활용할 수 있다. 따라서, 프로세서(200)는 복수의 보조 터치 영역을 지나는 터치 제스처가 감지되면, 터치 제스처에 대응되는 보조 터치 영역과 기등록된 락 스크린 잠금 정보를 비교하여 사용자 단말장치의 기능 잠금을 해지할 수 있다. 이와 같은 동작에 대해서는 도 36을 참조하여 후술한다.
또한, 프로세서(200)는 구분된 보조 터치 영역을 6 점자 키보드 입력으로 처리할 수 있다. 구체적으로, 점자는 6개의 닷으로 표현될 수 있는데, 6개의 보조 터치 영역의 위치를 점자의 6개에 매핑하고, 프로세서(200)는 6개 터치 보조 터치 영역에 대한 터치 제스처를 6점자 키보드 입력으로 처리할 수 있다. 이러한 동작에 대해서는 도 37 내지 도 39를 참조하여 후술한다.
또한, 프로세서(200)는 구분된 보조 터치 영역에 대한 기설정된 동작을 수행하는 퀵 버튼으로 활용할 수 있다. 구체적으로, 프로세서(200)는 복수의 보조 터치 영역 중 적어도 두 개 이상의 터치 영역에 대한 터치 제스처가 동시에 감지되면, 터치 제스처가 감지된 복수의 보조 터치 영역에 대응되는 애플리케이션의 구동 또는 특정 기능의 실행으로 취급하여, 그에 따른 동작을 수행할 수 있다. 이러한 동작에 대해서는 도 40을 참조하여 후술한다.
또한, 본 개시의 일 실시 예에 따르면, 마이크부(370)를 통하여 사용자 단말장치(1000) 주변의 소리를 감지하면, 프로세서(200)는 감지된 소리의 방향 정보를 표시할 수 있다. 구체적으로, 청각 장애를 갖는 사용자는, 주변에서 발생하는 소리를 감지할 수 없다. 이러한 경우, 프로세서(200)는 기등록된 소리가 감지되는 경우, 감지된 소리의 정보 및/또는 소리의 방향의 정보를 메인 표시 영역 및/또는 보조 표시 영역 상에 디스플레이되도록 터치 스크린(100)을 제어할 수 있다. 이러한 동작에 대해서는 도 41 및 도 42를 참조하여 후술한다.
또한, 본 개시의 일 실시 예에 따르면, 통신부(330)를 통하여 타 단말장치로부터 정보를 수신하면, 프로세서(200)는 수신된 정보가 표시되도록 터치 스크린(100)을 제어할 수 있다. 이때, 프로세서(200)는 타 단말장치의 위치 방향을 감지하고, 감지된 위치 방향에 대응되는 보조 표시 영역에 수신된 정보를 표시할 수 있다. 이때, 수신된 정보가 순서 정보를 포함하면, 프로세서(200)는 순서 정보에 복수의 터치 영역을 매핑하고, 복수의 터치 영역에 대응되는 정보만을 사용자에게 제공할 수 있다. 또한, 사용자가 정보를 표시한 영역을 터치하면, 프로세서(200)는 해당 표시 영역에 제공되는 정보보다 구체적인 정보를 메인 표시 영역에 표시되도록 터치 스크린(100)을 제어할 수도 있다. 이러한 동작에 대해서는 도 43 내지 도 47을 참조하여 후술한다.
또한, 본 개시의 일 실시 예에 따르면, 프로세서(200)는 특정 이벤트가 발생하면, 메인 표시 영역에 복수의 아이콘을 표시하고, 감지된 사용자 단말장치(1000)의 움직임에 대응하여, 표시된 복수의 아이콘을 메인 표시 영역 및 보조 표시 영역 상에 이동하여 표시하고, 보조 표시 영역의 기설정된 영역에 위치하는 아이콘에 대응되는 애플리케이션에 대한 UI를 메인 표시 영역에 디스플레이하도록 터치 스크린을 제어할 수 있다. 이러한 동작에 대해서는 도 48 내지 도 50을 참조하여 후술한다.
이상과 같이 본 실시 예에 따른 사용자 단말장치(1000)는 보조 표시 영역을 이용하여 다양한 정보를 제공할 수 있는바, 사용자는 보다 많은 정보를 제공받을 수 있다. 또한, 물리적으로 식별이 가능한 보조 표시 영역을 활용하는바, 사용자는 보다 손쉽게 인터렉션을 할 수 있게 된다.
도 16b는 터치 스크린의 구체적인 구성을 도시한 도면이다.
도 16b를 참조하면, 터치 스크린(100)은 패널 영역(110) 및 구동부(120)로 구성된다.
패널 영역(110)은 복수의 화소를 갖는 패널로 구성된다. 이러한 패널은 LCD(Liquid Crystal Display), OLED(Organic Light Emitting Diodes) 디스플레이, PDP(Plasma Display Panel) 등과 같은 다양한 형태의 디스플레이일 수 있다. 그리고 패널 영역(110)의 일 면에는 사용자 터치 제스처를 감지하기 위한 터치 감지 전극이 배치될 수 있다. 이상에서는 패널 영역과 터치 감지 전극이 구분된 것으로 설명하였지만, 구현시에 패널 영역 내에 터치 감지 전극이 포함되어 있을 수도 있다.
이러한 패널 영역(110)은 배치 형태에 따라 메인 패널 영역(111), 제1 보조 패널 영역(112) 및 제2 보조 패널 영역(113)으로 구분될 수 있다. 구현시에는 각 패널 영역은 물리적으로 구분된 별도의 패널일 수도 있다.
메인 패널 영역(111)은 메인 표시 영역(1010)에 대응되는 물리적인 디스플레이 구성으로, 예를 들어, 1440*2560 픽셀 화소를 가질 수 있다. 여기서 각 픽셀은 3개의 서브 픽셀(R/G/B)을 포함할 수 있다. 따라서, 메인 패널 영역(111)은 메인 소스 IC(121)로부터 각 서브 픽셀(메인 표시 영역(1010)에 대응되는 화소 내의 서브 픽셀들)을 구동시키기 위한 게이트 구동 제어 신호 및 소스 구동 제어 신호를 수신하며, 수신된 게이트 구동 제어 신호 및 소스 구동 제어 신호에 따라 각 서브 픽셀에 대응되는 트랜지스터가 구동되며, 그에 따라 메인 표시 영역(1010)에 대응되는 영상을 표시할 수 있다.
제1 보조 패널 영역(112)은 제1 서브 표시 영역(1020)에 대응되는 물리적인 디스플레이 구성으로, 예를 들어, 160*2560 픽셀 화소를 가질 수 있다. 여기서 각 픽셀은 3개의 서브 픽셀(R/G/B)을 포함할 수 있다. 따라서, 제1 보조 패널 영역(112)은 제1 보조 소스 IC(122)로부터 각 서브 픽셀(제1 서브 표시 영역(1020)에 대응되는 화소 내의 서브 픽셀들)을 구동시키기 위한 게이트 구동 제어 신호 및 소스 구동 제어 신호를 수신하며, 수신된 게이트 구동 제어 신호 및 소스 구동 제어 신호에 따라 각 서브 픽셀에 대응되는 트랜지스터가 구동되며, 그에 따라 제1 보조 표시 영역(1020)에 대응되는 영상을 표시할 수 있다.
제2 보조 패널 영역(113)은 제2 서브 표시 영역(1030)에 대응되는 물리적인 디스플레이 구성으로, 예를 들어, 160*2560 픽셀 화소를 가질 수 있으며, 각 픽셀 구성 및 영상 표시 방법은 제1 보조 표시 패널 영역(112)에서 상술한 바와 동일할 수 있다.
소스 IC(120)는 패널 영역(110) 내의 화소를 구동시키기 위한 구동 제어 신호를 제공한다. 구체적으로, 소스 IC(120)는 메인 소스 IC(121), 제1 보조 소스 IC(122), 제2 보조 소스 IC(123)로 구성될 수 있다.
메인 소스 IC(121)는 메인 패널 영역(111)을 구동시키는 DDI(Display Driver IC)이다. 메인 소스 IC(121)는 메인 표시 영역(1010)에 표시될 영상에 대응되는 구동 제어 신호를 수신하고, 수신된 구동 제어 신호에 대응되는 게이트 구동 제어 신호, 소스 구동 제어 신호를 생성하여 메인 패널 영역(111)에 제공할 수 있다. 여기서 DDI는 LCD, PDP 등 디스플레이를 구성하는 수많은 화소를 구동하는데 이용되는 칩으로, 디스플레이의 화소 내의 RGB를 표시하는 부화소 각각의 트랜지스터를 조정하는 칩이다. 구현시에는 메인 소스 IC는 메인 게이트 IC, 메인 소스 IC 등 복수의 IC로 구현될 수도 있다.
제1 보조 소스 IC(122)는 제1 보조 패널 영역(112)을 구동시키는 DDI(Display Driver IC)이다. 제1 보조 소스 IC(122)는 제1 보조 표시 영역(1020)에 표시될 영상에 대응되는 구동 제어 신호를 수신하고, 수신된 구동 제어 신호에 대응되는 게이트 구동 제어 신호, 소스 구동 제어 신호를 생성하여 제1 보조 패널 영역(112)에 제공할 수 있다.
제2 보조 소스 IC(123)는 제2 보조 패널 영역(113)을 구동시키는 DDI(Display Driver IC)이다. 제2 보조 소스 IC(123)는 제2 보조 표시 영역(1030)에 표시될 영상에 대응되는 구동 제어 신호를 수신하고, 수신된 구동 제어 신호에 대응되는 게이트 구동 제어 신호, 소스 구동 제어 신호를 생성하여 제2 보조 패널 영역(113)에 제공할 수 있다.
여기서 제1 보조 소스 IC(122)와 제2 보조 소스 IC(123)는 메인 소스 IC(121)가 읽어오는 데이터 주소를 직접 또는 AP를 통하여 전달받을 수 있다. 구체적으로, 메인 표시 영역(1010)에 표시중인 아이콘이 서브 표시 영역(1020, 1030)으로 이동된 경우, 해당 아이콘에 대응되는 데이터가 저장된 메모리 주소가 제1 보조 소스 IC(122) 또는 제2 보조 소스 IC(123)로 전달되며, 제1 보조 소스 IC(122) 또는 제2 보조 소스 IC(123)는 해당 주소에서 아이콘에 대응되는 데이터를 수신하여 보조 패널 영역(112, 113)을 구동할 수 있다.
한편, 도 16b를 도시하고 설명함에 있어서, 소스 IC를 3개의 IC로 구성하였지만, 구현시에는 2개 이하의 IC(예를 들어, 제1 보조 소스 IC와 제2 보조 소스 IC를 하나로 구성)로 구성할 수도 있으며, 4개 이상의 IC로도 구현할 수도 있다.
이하에서는 도 17 내지 도 50을 참조하여, 다양한 인터렉션 예들을 설명한다. 이하에서는 설명을 용이하게 하기 위하여, 사용자에게 표시되는 디스플레이 화면을 화면(또는 사용자 인터페이스 창)이라고 지칭하고, 해당 화면을 구성하는 레이아웃 요소들을 UI라고 지칭한다. 따라서, 화면은 복수의 UI를 포함할 수 있으며, 하나의 UI만을 포함할 수 있다. 그리고 UI는 하나의 UI 요소(예를 들어, 텍스트, 이미지, 렌더링 객체 등)을 포함할 수 있으며, 복수의 UI 요소를 포함할 수도 있다.
도 17은 가상 키보드가 활성화된 경우 표시될 수 있는 사용자 인터페이스 창의 예이다.
도 17을 참조하면, 사용자 인터페이스 창은 메인 표시 영역(1010) 및 보조 표시 영역(1020, 1030)을 포함한다.
메인 표시 영역(1010)은 현재 구동중인 애플리케이션(예를 들어, SNS)의 UI(1711)와 가상 키보드(1712)를 포함한다. 가상 키보드는 메인 표시 영역(1010)의 기설정된 영역, 구체적으로, 메인 표시 영역(1010)의 하단에 배치될 수 있다. 도시된 예에서는 qwerty 방식의 가상 키보드가 표시되었지만, 다른 형태의 키보드 UI가 표시될 수 있다. 또한, 구현시에는 이모티콘, 텍스트 등의 기정의된 문자 세트를 입력받기 위한 가상 키보드뿐만 아니라, 메인 표시 영역(1010)에 사용자로부터 직접 필기를 입력받는 필기 입력 영역이 표시될 수도 있다.
보조 표시 영역(1020, 1030) 각각은 복수의 기능 아이콘(1721, 1722)을 표시한다. 여기서, 복수의 기능 아이콘(1721, 1722)은 가상 키보드(1712)의 좌측 및 우측 영역에 배치되는바, 즉, 사용자의 엄지손가락이 닫는 범위 내에 기능 아이콘이 배치되는바, 사용자는 가상 키보드의 타이핑 중에 손쉽게 기능 아이콘을 선택할 수 있다.
도 18은 가상 키보드가 활성화된 경우 표시될 수 있는 다른 사용자 인터페이스 창의 예이다.
도 18을 참조하면, 사용자 인터페이스 창은 메인 표시 영역(1010) 및 보조 표시 영역(1020, 1030)을 포함한다.
메인 표시 영역(1010)은 현재 구동중인 애플리케이션(예를 들어, SMS)의 UI(1811)와 가상 키보드(1812)를 포함한다. 가상 키보드(1812)는 메인 표시 영역(1010)의 기설정된 영역, 구체적으로, 메인 표시 영역(1010)의 하단에 배치될 수 있다. 도시된 예에서는 qwerty 방식의 가상 키보드가 표시되었지만, 다른 형태의 키보드 UI가 표시될 수 있다.
보조 표시 영역(1020, 1030) 각각은 복수의 기능 아이콘(1821, 1822)을 표시한다. 여기서, 복수의 기능 아이콘(1821, 1822)은 SMS 애플리케이션에 특화된 기능 아이콘으로 구성될 수 있다.
도 19는 가상 키보드가 활성화된 경우 표시될 수 있는 또 다른 사용자 인터페이스 창의 예이다.
도 19를 참조하면, 사용자 인터페이스 창은 메인 표시 영역(1010) 및 보조 표시 영역(1020, 1030)을 포함한다.
메인 표시 영역(1010)은 현재 구동중인 애플리케이션(예를 들어, 메일)의 UI(1911)와 가상 키보드(1912)를 포함한다. 가상 키보드(1912)는 메인 표시 영역(1010)의 기설정된 영역, 구체적으로, 메인 표시 영역(1010)의 하단에 배치될 수 있다. 도시된 예에서는 qwerty 방식의 가상 키보드가 표시되었지만, 다른 형태의 키보드 UI가 표시될 수 있다.
보조 표시 영역(1020, 1030) 각각은 복수의 기능 아이콘(1921, 1922)을 표시한다. 여기서, 복수의 기능 아이콘(1921, 1922)은 메일 애플리케이션에 특화된 기능 아이콘을 포함할 수 있다.
한편, 도 17 내지 도 18을 도시하고 설명함에 있어서, 보조 표시 영역(1020, 1030) 각각에 기능 아이콘이 표시되는 것으로 도시하였지만, 구현시에는 두 영역 중 하나의 보조 표시 영역에만 기능 아이콘이 표시될 수도 있다.
한편, 도시된 예에서는 5개의 기능 아이콘만이 표시되었지만, 각 애플리케이션에 대해서 더 많은 기능 아이콘이 등록될 수 있으며, 이 경우, 프로세서(200)는 각 기능 아이콘의 실행 빈도, 최근 실행 이력 등을 고려하여 정렬하여 표시할 수 있다. 이 경우, 사용자는 도 28과 같은 터치 제스처를 이용하여 다른 기능 아이콘을 표시하는 명령을 입력할 수 있으며, 프로세서(200)는 그에 따라 표시되지 않은 기능 아이콘이 터치 제스처가 입력된 서브 표시 영역 상에 표시되도록 터치 스크린(100)을 제어할 수 있다.
또한, 좌/우측 동일한 개수의 기능 아이콘이 표시되었지만, 서로 표시되는 기능 아이콘의 개수는 상이할 수 있으며, 기능 아이콘의 속성에 따라 서로 다른 영역에 배치될 수 있다. 예를 들어, 이모티콘들은 우측 보조 표시 영역(1020)에만 표시되고, 특정 기능을 수행하도록 하는 기능 아이콘은 좌측 보조 표시 영역(1030)에만 표시될 수도 있다. 그러나 구현시에 배치 순서나 표시되는 기능 아이콘의 예는 사용자가 가변할 수도 있다. 이러한 동작에 대해서는 도 20을 참조하여 이하에서 설명한다.
도 20은 기능 아이콘을 추가하는 제1 실시 예를 설명하기 위한 사용자 인터페이스 창의 예이다.
도 20a 및 도 20b를 참조하면, 사용자 인터페이스 창은 메인 표시 영역(1010) 및 보조 표시 영역(1020, 1030)을 포함한다.
메인 표시 영역(1010)은 현재 구동중인 애플리케이션(예를 들어, SMS)의 UI와 가상 키보드(2012)를 포함한다.
가상 키보드(2012)에 표시된 이모티콘 중 웃는 이모티콘(2013)을 자주 사용하여 기능 아이콘으로 등록하고 싶은 경우, 사용자는 가상 키보드(2012) 상에 표시된 이모티콘 중 기능 아이콘으로 등록할 아이콘(2013)을 선택하고, 해당 아이콘을 드래그 앤 드롭 방식으로 보조 표시 영역에 놓을 수 있다. 이러한 터치 제스처가 입력되면, 프로세서(200)는 드롭된 아이콘에 대한 기능 아이콘 등록 명령인 것으로 판단하고, 이동된 아이콘을 신규 기능 아이콘으로 등록할 수 있다. 따라서, 도 20b를 참조하면, 좌측 보조 표시 영역(2023)에는 사용자가 선택한 아이콘이 기능 아이콘을 포함한다.
한편, 도 20a, 20b를 설명함에 있어서, 메인 표시 영역 상에 표시되는 아이콘과 보조 표시 영역 상에 표시되는 아이콘이 동일한 것으로 도시하였지만, 구현시에는 그 크기, 색상 등은 다를 수 있으며, 다른 아이콘 형상으로 표시될 수도 있다.
도 21은 기능 아이콘을 추가하는 제2 실시 예를 설명하기 위한 사용자 인터페이스 창의 예이다.
도 21a 및 도 21b를 참조하면, 사용자 인터페이스 창은 메인 표시 영역(1010) 및 보조 표시 영역(1020, 1030)을 포함한다.
메인 표시 영역(1010)은 현재 구동중인 애플리케이션(예를 들어, 메일)의 UI(2111)와 가상 키보드(2112)를 포함한다.
사용자는 애플리케이션 UI 상의 아이콘을 드래그 앤 드롭 방식으로 보조 표시 영역 상으로 이동할 수 있다. 이러한 터치 제스처가 입력되면, 프로세서(200)는 사용자가 선택한 UI 상의 기능을 기능 아이콘으로 등록할 수 있다. 한편, 이러한 기능은 메일 애플리케이션에만 동작하는바, 프로세서(200)는 해당 기능 아이콘을 메일 애플리케이션의 기능 아이콘으로 등록할 수 있다. 따라서, 도 21b를 참조하면, 좌측 보조 표시 영역(2123)에는 사용자가 선택한 UI 영역이 기능 아이콘을 포함한다.
도 22 및 도 23은 기능 아이콘을 추가하는 제3 실시 예를 설명하기 위한 사용자 인터페이스 창의 예이다.
도 22를 참조하면, 사용자 인터페이스 창은 메인 표시 영역(1010) 및 보조 표시 영역(1020, 1030)을 포함한다.
메인 표시 영역(1010)은 현재 구동중인 애플리케이션(예를 들어, 노트 작성 애플리케이션)의 UI(2211)와 가상 키보드(2212)를 포함한다.
보조 표시 영역(1020, 1030) 각각은 해당 애플리케이션에 대응되는 기능 아이콘(2221, 2222)을 가상 키보드(2212)의 좌측 및 우측에 표시한다.
한편, 보조 표시 영역(1030)은 기능 아이콘을 추가하는 설정 아이콘(2223)을 포함한다. 사용자가 설정 아이콘(2223)을 선택하면, 도 23과 같이 메인 표시 영역은 변경될 수 있다.
도 23을 참조하면, 사용자 인터페이스 창은 메인 표시 영역(1010)에 등록 가능한 복수의 신규 기능 아이콘을 표시할 수 있다. 여기서 표시되는 신규 기능 아이콘은 현재 구동중인 애플리케이션(예를 들어, 노트 작성 애플리케이션)과 관련된 아이콘과 가상 키보드(2212)와 관련된 아이콘들일 수 있다.
사용자는 표시된 메인 표시 영역(1010) 중 하나를 선택하여, 선택한 아이콘을 기능 아이콘으로 등록할 수 있다. 또는 도 20 및 도 21과 같은 방식으로, 메인 표시 영역(1010)에 표시된 아이콘 중 하나를 보조 표시 영역(1020, 1030)으로 이동하여 기능 아이콘으로 등록할 수 도있다.
한편, 도 22 및 도 23을 설명함에 있어서, 설정 아이콘(2223)을 사용자가 선택하는 경우, 신규 기능 아이콘을 등록 하기 위한 도 23과 같은 사용자 인터페이스 창이 표시되는 것으로 설명하였지만, 구현시에는 등록된 기능 아이콘 중 현재 보조 표시 영역에 표시되지 않는 기능 아이콘을 표시할 수도 있다. 즉, 도 22의 설정 아이콘(2223)이 눌러지면, 현재 등록된 기능 아이콘들 중 보조 표시 영역(1020, 1030)에 표시되지 않은 것들이 메인 표시 영역(1010)에 표시될 수 있다.
도 24 내지 도 34는 다양한 터치 제스처를 설명하기 위한 도면이다.
도 24를 참조하면, 사용자는 메인 표시 영역(1010) 상에 터치를 할 수 있다. 이러한 사용자 터치에 대응하여, 프로세서(200)는 해당 터치 영역에 대응되는 기능을 수행할 수 있다. 예를 들어, 사용자가 터치한 영역이 특정 애플리케이션에 대응되는 아이콘이 배치된 영역이면, 해당 아이콘에 대응되는 애플리케이션을 구동하는 기능을 수행할 수 있다. 그리고 사용자가 터치한 영역이 특정 URL 주소를 갖는 영역이면, 해당 URL 주소에 대응되는 웹 페이지로 이동하는 기능을 수행할 수 있다. 한편, 토크백 기능이 활성화되어 있는 경우, 터치 제스처에 대응하여, 프로세서(200)는 해당 터치 영역에 대응되는 텍스트 또는 기능 등을 소리로 출력하는 토크백 기능을 수행할 수 있다.
도 25를 참조하면, 사용자는 메인 표시 영역(1010) 상에 기설정된 시간 간격 내에 두 번의 터치(이하, 더블 터치)를 할 수 있다. 토크백 기능이 활성화되어 있는 경우, 프로세서(200)는 더블 터치가 이루어진 영역에 대응되는 기능을 수행할 수 있다. 예를 들어, 사용자가 더블 터치한 영역이 특정 애플리케이션에 대응되는 아이콘이 배치된 영역이면, 해당 아이콘에 대응되는 애플리케이션을 구동하는 기능을 수행할 수 있다. 그리고 사용자가 더블 터치한 영역이 특정 URL 주소를 갖는 영역이면, 해당 URL 주소에 대응되는 웹 페이지로 이동하는 기능을 수행할 수 있다.
도 24 및 도 25를 비교하면, 동일한 기능(터치 영역에 대응되는 기능 수행)에 대해서 토크백 기능의 활성화 여부에 따라 서로 다른 제스처에 의하여 동작함을 알 수 있다.
도 26을 참조하면, 사용자는 메인 표시 영역(1010) 상에 복수의 영역을 터치하고, 동일한 방향으로 스크롤 하는 제스처를 입력할 수 있다. 토크백 기능이 활성화되어 있는 경우, 프로세서(200)는 현재 메인 표시 영역 상에 UI를 사용자의 제스처의 스크롤 방향에 대응하는 방향으로 스크롤하여 표시할 수 있다. 한편, 이러한 기능 동작은, 토크백이 비활성화된 상태에서의 하나의 영역에 대한 터치 및 스크롤 동작에 대응될 수 있다. 한편, 도시된 예에서는 두 개의 터치를 이용하는 것을 설명하였지만, 구현시에는 세개의 터치를 이용하는 형태로 구현될 수도 있다.
도 27을 참조하면, 사용자는 메인 표시 영역(1010) 상에 두 개의 영역을 터치하고, 상호 회전하는 방향으로 스크롤 하는 제스처를 입력할 수 있다. 토크백 기능이 활성화되어 있는 경우, 프로세서(200)는 현재 표시된 UI를 다른 애플리케이션의 UI, 홈 화면, 목록 화면으로 전환하여 표시할 수 있다. 여기서 목록 화면은 사용자가 최근에 사용한 애플리케이션을 리스트형태로 표시하는 화면이다.
도 28을 참조하면, 사용자는 보조 표시 영역(1020) 상에 하나의 영역을 터치하여 가로 방향으로 스크롤 하는 제스처를 입력할 수 있다. 토크백 기능이 비활성화되어 있는 경우, 프로세서(200)는 보조 표시 영역 상의 UI를 가변하여 표시하는 기능을 수행할 수 있다. 예를 들어, 보조 표시 영역 상에 표시중인 기능 아이콘을 다른 기능 아이콘으로 변경하거나, 보조 표시 영역 상에 표시중인 위젯을 다른 위젯으로 변경할 수 있다.
반면에 토크백 기능이 활성화되어 있는 경우, 해당 제스처에 대응하여, 프로세서(200)는 메인 표시 영역 상의 UI를 좌우 스크롤하여 표시할 수 있다.
도 29를 참조하면, 사용자는 보조 표시 영역(1020) 상에 하나의 영역을 터치하여 길이 방향으로 스크롤 하는 제스처를 입력할 수 있다. 토크백 기능이 비활성화되어 있는 경우, 프로세서(200)는 보조 표시 영역 상의 UI를 가변하여 표시하는 기능을 수행할 수 있다. 예를 들어, 보조 표시 영역 상에 알람 메시지가 표시된 경우, 해당 터치 제스처가 입력되면, 알람 메시지의 표시를 중지할 수 있다.
반면에 토크백 기능이 활성화되어 있는 경우, 해당 제스처에 대응하여, 프로세서(200)는 메인 표시 영역 상의 UI를 스크롤하여 표시할 수 있다.
한편, 토크백 기능이 활성화되어 있는 경우, 해당 제스처가 메인 표시 영역(1010) 상에서 수행된 경우, 프로세서(200)는 별도의 반응을 수행하지 않을 수 있다. 이와 같이 본 실시 예에서는 동일한 터치 제스처에 대해서 영역별로 다른 인터렉션을 제공할 수 있다. 이러한 예에 대해서 도 30 및 도 31을 참조하여 자세히 설명한다.
도 30을 참조하면, 사용자 인터페이스 창은 메인 표시 영역(1010), 보조 표시 영역(1020, 1030)을 포함한다.
메인 표시 영역(1010)은 현재 구동중인 애플리케이션의 UI를 표시한다. 토크백 기능이 비활성화된 상태에서 사용자는 메인 표시 영역(1010)의 일부분을 터치하고 스크롤하는 터치 제스처를 입력하여, 표시된 UI 내의 컨텐츠를 스크롤할 수 있다.
그러나 토크백 기능이 활성화된 경우에서는, 도 26에 도시된 바와 같은 다른 제스처를 이용하여야 한다. 그러나 본 실시 예에서는 도 26에서 설명한 바와 같은 터치 제스처뿐만 아니라, 보조 표시 영역 상에 기존과 같은 터치 제스처를 이용하여 UI를 스크롤 하는 기능을 제공할 수 있다.
도 31은 참조하면, 메인 표시 영역(1010)은 복수의 선택 영역을 표시한다. 토크백 기능이 비활성화된 상태에서, 사용자는 해당 선택 영역을 메인 표시 영역 상에서 선택하는 것만으로 손쉽게 선택할 수 있다. 그러나 토크백이 활성화된 상태에서는, 해당 영역을 선택하기 위해서는 선택된 영역이 자신이 원하는 영역인지를 토크백으로 청취하고, 해당 영역이 맞으면 더블 터치와 같은 제스처를 입력하여야 한다. 그러나 본 실시 예에서는 해당 기능에 추가로, 보조 표시 영역 상에서도 해당 선택 영역을 확장하여 표시하고, 토크백 기능이 활성화된 경우에도, 사용자는 보조 표시 영역 상에 표시된 선택 영역을 선택하는 동작만으로 선택 동작을 수행할 수 있다.
도 32를 참조하면, 사용자는 보조 표시 영역(1020)에서 메인 표시 영역(1010)으로 향하는 터치 스크롤 제스처를 입력할 수 있다. 이때, 프로세서(200)는 보조 표시 영역의 터치에 대응하여 햅틱을 발생시키고, 백스페이스 기능을 수행할 수 있다. 예를 들어, 현재 표시중인 UI 내의 컨텐츠가 웹 페이지인 상태에서 상술한 터치 스크롤 제스처가 입력되면, 프로세서(200)는 현재 표시되는 웹 페이지 이전의 웹 페이지가 디스플레이되도록 터치 스크린을 제어할 수 있다. 그리고 현재 표시중인 UI가 계층적인 폴더 내의 컨텐츠를 표시하는 화면이면, 프로세서(200)는 상술한 터치 스크롤 제스처에 대응하여 현재 표시중인 폴더의 상위 폴더 내의 컨텐츠가 디스플레이되도록 터치 스크린을 제어할 수 있다.
도 33을 참조하면, 사용자는 보조 표시 영역(1030)에서 메인 표시 영역(1010)으로 향하는 터치 스크롤 제스처를 입력할 수 있다. 이때, 프로세서(200)는 보조 표시 영역의 터치에 대응하여 햅틱을 발생시키고, 현재 표시되는 애플리케이션과 다른 애플리케이션의 UI가 디스플레이되도록 터치 스크린(100)을 제어할 수 있다.
이때 디스플레이되는 다른 애플리케이션은 사용자가 현재 애플리케이션의 이용 직전에 사용한 애플리케이션일 수 있다. 예를 들어, 사용자가 순차적으로 A, B, C 애플리케이션을 이용한 이후에 상술한 터치 스크롤 제스처를 입력하면, 프로세서(200)는 C 애플리케이션에 대응한 UI를 B 애플리케이션에 대응한 UI로 전환되도록 할 수 있다. 상술한 다른 애플리케이션은 사용자의 사용 이력과 무관하게 기설정된 특정의 애플리케이션일 수 있다. 예를 들어, 사용자가 음악 애플리케이션을 미리 특정 애플리케이션으로 설정한 상태라면, 사용자가 상술한 터치 스크롤 제스처를 입력하면, 프로세서(200)는 음악 애플리케이션에 대응한 UI가 디스플레이되도록 터치 스크린(100)을 제어할 수 있다.
도 34를 참조하면, 사용자는 보조 표시 영역(1020, 1030) 각각을 터치하고, 두 터치 영역 모두 메인 표시 영역(1010)으로 향하는 터치 스크롤 제스처를 입력할 수 있다. 이때, 프로세서(200)는 현재 구동중인 애플리케이션을 종료하고, 홈 화면이 디스플레이되도록 터치 스크린(100)을 제어할 수 있다. 또한, 구현시에는 홈 화면 이외에 다른 애플리케이션(예를 들어, 사용자가 직전에 사용한 애플리케이션 또는 디폴트로 설정된 애플리케이션)의 UI가 디스플레이될 수도 있다. 또한, 현재 구동중인 애플리케이션이 내부적으로 여러 페이지를 가질 수 있는 애플리케이션(예를 들어, 웹 브라우저)인 경우, 현재 표시중인 페이지(예를 들어, 웹 페이지)를 닫고 다른 페이지(또는 즐겨찾기 목록)가 디스플레이될 수도 있다.
도 35 내지 도 37은 보조 표시 영역을 복수의 보조 터치 영역으로 구분하고, 구분된 복수의 보조 터치 영역을 기설정된 버튼 입력으로 처리하는 실시 예를 설명하기 위한 도면이다.
도 35를 참조하면, 사용자 인터페이스 창은 메인 표시 영역(1010) 및 보조 표시 영역(1020, 1030)을 포함한다.
보조 표시 영역(1020, 1030) 각각은 3개로 서로 이격되어 구분된 보조 표시 영역을 갖는다. 사용자가 해당 보조 표시 영역을 터치하면, 프로세서(200)는 햅틱 피드백이 발생하도록 구동부(395)를 제어할 수 있다. 한편, 각 보조 표시 영역의 측면에는 도 12 내지 도 13에서 도시한 바와 같은 돌기(301, 306)가 배치될 수 있다.
도 36은 상술한 복수의 보조 터치 영역을 락 스크린의 터치 영역으로 활용하는 실시예를 설명하기 위한 도면이다.
도 36을 참조하면, 사용자 인터페이스 창은 메인 표시 영역(1010), 보조 표시 영역(1020, 1030)을 포함한다.
사용자 단말장치(1000)의 기능이 잠겨 있는 경우, 메인 표시 영역(1010)은 락 스크린이 표시된다. 한편, 시각 장애인의 경우, 락 스크린상의 터치 영역을 이동하여 패턴을 입력하는 것이 어렵다. 따라서, 본 실시 예에서는 물리적으로 확인이 용이한 복수의 보조 터치 영역 상에서 터치 패턴을 입력받는다. 사용자가 보조 터치 영역 상에서 터치 패턴을 입력하면, 프로세서(200)는 입력된 터치 패턴과 기등록된 터치 패턴을 비교하여 사용자 단말장치(1000)의 기능 잠금을 해지할 수 있다.
도 37은 복수의 보조 터치 영역을 6점자 키보드 입력으로 활용하는 실시 예를 설명하는 도면이고, 도 38은 국문 6점자의 예를 도시한 도면, 도 39는 알파벳 6점자의 예를 도시한 도면이다.
도 38 및 도 39에 도시된 바와 같이 점자는 6개의 닷으로 표현될 수 있는데, 본 실시 예에 따른 6개의 보조 표시 영역을 해당 6개의 닷에 매핑함으로써, 사용자는 손쉽게 점자 표시 방식으로 문자를 입력할 수 있다. 예를 들어, 도 37과 같이 보조 표시 영역(1020, 1030) 각각의 상부 보조 표시 영역을 동시에 터치하는 동작을 통하여, 문자 '나' , 알파벳 'c', 숫자 '3'을 손쉽게 입력할 수 있게 된다.
도 40은 복수의 보조 터치 영역을 퀵 버튼으로 활용하는 실시 예를 설명하기 위한 도면이다.
도 40a를 참조하면, 사용자는 구분된 복수의 보조 터치 영역을 동시에 터치할 수 있으며, 이 경우, 프로세서(200)는 해당 터치 방식에 대응되는 애플리케이션을 구동할 수 있다. 예를 들어, 카메라 구동이 4개의 보조 터치 영역의 터치에 매핑된 경우, 사용자는 보조 터치 영역 4개 영역을 동시에 터치할 수 있다. 이 경우, 프로세서(200)는 해당 터치 제스처에 매핑된 카메라 애플리케이션을 구동하고, 해당 카메라 애플리케이션에 대응되는 UI를 도 40b에 도시된 바와 같이, 메인 표시 영역(1010)에 디스플레이할 수 있다.
한편, 토크백 기능이 활성화된 상태에서 상술한 터치 제스처가 수행된다면, 카메라 애플리케이션 구동과 동시에 촬상된 화면에 대한 인지 기능이 자동으로 활성화 될 수 있다. 여기서 인지 기능은 촬상된 사물을 파악하여 음성으로 읽어주는 기능 또는 촬상된 화면에서 텍스트를 인식하여 인식된 텍스트를 음성으로 읽어주는 기능이다.
도 41 및 도 42는 주변의 소리 정보를 메시지로 제공하는 실시 예를 설명하기 위한 도면이다.
도 41을 참조하면, 마이크부(370)를 통하여 기설정된 크기 이상의 소리가 감지되면, 프로세서(370)는 마이크부(370)를 통하여 수신된 소리의 방향, 종류를 식별할 수 있다. 그리고 프로세서(200)는 파악된 방향 및 종류를 메인 표시 영역(1010)에 표시하고, 방향 정보를 소리 방향에 대응되는 보조 표시 영역(1030)에 표시할 수 있다. 또한, 프로세서(200)는 소리 크기에 대한 정보도 도 41에 도시된 바와 같이 색상 또는 이퀄라이저 형태로 표시하도록 터치 스크린(100)을 제어할 수 있다.
도 42를 참조하면, 사용자 인터페이스 창은 메인 표시 영역(1010), 보조 표시 영역(1020, 1030)을 포함한다.
프로세서(200)는 기설정된 소리가 감지되면, 해당 소리에 대응되는 메시지를 메인 표시 영역(1010) 상에 디스플레이되도록 터치 스크린(100)을 제어할 수 있다.
한편, 구현시에는 특정의 소리 크기 이상이 감지된 경우에만 상술한 정보 제공 동작이 수행되도록 구현될 수 있을 뿐만 아니라, 크기와 무관하게 특정 종류(예를 들어, 아기 울음, 초인종, 신호등 소리 등)의 소리가 감지된 경우에는 무조건 정보 제공 동작이 수행되도록 구현될 수도 있다.
도 43 내지 45는 타 단말장치부터 제공되는 정보를 사용자에게 제공하는 실시 예를 설명하기 위한 도면이다.
신호등에는 주변 단말장치에 현재 신호등 상태 정보를 제공하는 단말장치가 구비될 수 있다. 이 경우, 신호등 근처로 이동한 사용자 단말장치(1000)는 신호등에 구비된 단말장치로부터 신호 상태의 정보를 수신할 수 있으며, 프로세서(200)는 수신된 정보가 표시되도록 터치 스크린(100)을 제어할 수 있다.
도 43을 참조하면, 신호등이 사용자의 좌측에 위치하는 경우, 프로세서(200)는 신호등의 위치를 감지하고, 신호등으로부터 전달된 신호 정보를 보조 표시 영역(1030)에 표시할 수 있다. 구체적으로, 프로세서(200)는 신호등 단말장치에서 제공되는 데이터 또는 신호등에서 발생하는 신호를 분석하여 신호등의 위치를 감지하고, 감지된 방향에 대응되는 보조 표시 영역에 전달된 신호 정보(예를 들어, 현재 신호 정보)를 디스플레이할 수 있다. 이때, 사용자가 손쉽게 해당 정보를 인지할 수 있는 아이콘(4310)으로 표시할 수 있다.
이때, 사용자가 보조 표시 영역을 터치한 경우, 메인 표시 영역(1010) 상에 신호의 상태를 텍스트 형태로 제공할 수도 있다. 또한, 수신된 정보를 음성으로 사용자에게 제공할 수도 있다. 이때, 제공되는 정보는 현재 신호 상태, 현재 신호 상태의 유지 시간 등의 정보일 수 있다.
도 44를 참조하면, 버스 정류장에는 도착한 버스의 정보 및 해당 버스 정류장을 지나치는 버스의 도착 예상 시간 정보를 제공하는 단말장치가 위치할 수 있다. 이 경우, 사용자가 버스 정류장으로 이동하면, 사용자 단말장치(1000)는 버스 정류장의 단말장치로부터 각종 정보(예를 들어, 현재 정차중인 버스 정보, 도착 예정중인 버스의 시간 정보 등)를 수신할 수 있다. 이때, 사용자가 주로 사용하는 버스 정보가 사용자 단말장치(10000)에 기등록되어 있다면, 해당 버스에 대한 정보만을 사용자에게 음성으로 제공할 수 있다.
한편, 버스 정류장에는 여러 대의 버스가 위치할 수 있다. 이때, 버스 정류장의 단말장치는 버스 정류장에 도착한 버스 정보와 해당 버스의 순서 정보를 사용자 단말장치(1000)에 제공할 수 있다. 이러한 정보를 제공받은 사용자 단말장치는 복수의 보조 표시 영역과 순서 정보를 매핑할 수 있다.
그리고 프로세서(200)는 버스의 승강장의 방향(구체적으로, 사용자를 기준으로 우측에 버스가 도착하는지, 좌측에 버스가 도착하는지)을 감지하고, 감지된 방향에 대응되는 보조 표시 영역에 정류장의 단말장치로부터 수신된 정보를 디스플레이할 수 있다.
그리고 사용자가 보조 표시 영역의 첫 번째 영역을 터치하면, 사용자 단말장치(1000)는 첫 번째 위치하는 버스의 정보(예를 들어, 110번 버스)를 제공하고, 두 번째 영역을 터치하면, 도 45에 도시된 바와 같이 두 번째 위치하는 버스의 정보(예를 들어, 220 버스)를 제공할 수 있다.
또한, 사용자가 보조 표시 영역의 각 영역을 터치한 경우에는, 각 터치 영역에 대응되는 버스의 상세 정보(예를 들어, 버스 번호, 버스 최종 목적지 정보 등)를 메인 표시 영역 상에 표시할 수 있다.
도 46 및 도 47은 경로 정보를 사용자에게 제공하는 실시 예를 설명하기 위한 도면이다.
최근에 사용자 단말장치는 GPS 기능이 탑재되어, 모르는 길도 손쉽게 안내하는 내비게이션 기능을 제공한다. 내비게이션 기능이 수행되는 경우, 사용자 단말장치는 지도를 표시하고, 현재 이동해야 하는 방향 등을 메시지로 표시하거나 음성 제공한다.
한편, 시각 장애인의 경우, 지도를 볼 수 없기 때문에 종래에는 현재 이동해야 하는 방향에 대한 정보만을 제공받을 수밖에 없다. 그러나 본 실시 예에서는 복수의 보조 표시 영역과 복수의 경로를 매핑하여 손쉽게 현재 정보 및 차후의 이동 방향에 대한 정보도 제공받을 수 있다. 구체적으로, 도 46을 참조하면, 사용자는 최상부의 보조 터치 영역을 터치하여, 현재 이동해야 하는 방향 정보를 제공받을 수 있다. 그리고 도 47과 같은 다음 보조 터치 영역을 터치하여 현재 이동 이후의 이동 방향에 대한 정보도 제공받을 수 있다.
한편, 도시된 예에서는 복수의 이동 경로와 복수의 보조 표시 영역을 매핑하여 사용자에게 제공하는 실시 예만을 도시하고 설명하였지만, 여러 단계 또는 순서가 있는 정보라면, 상술한 이동 경로 이외에 다른 정보(예를 들어, 요리 순서, 작업 순서, 스케줄)도 복수의 보조 표시 영역에 매핑되어 사용자에게 제공될 수도 있다.
도 48 내지 도 50은 복수의 아이콘 중 특정 아이콘을 선택하는 방법을 설명하기 위한 도면이다.
손가락 사용에 불편한 상황에 있거나, 손가락 사용이 어려운 상지 지체 장애인의 경우, 메인 표시 영역 상에 표시된 복수의 아이콘 중 특정 아이콘을 선택하기 어려운 점이 있었다.
이에 따라, 본 실시 예에서는 사용자 단말장치(1000)를 움직이는 동작으로 손쉽게 아이콘을 선택하는 방법을 제공한다.
도 48을 참조하면, 단말장치를 좌우로 흔드는 이벤트, 복수의 보조 터치 영역이 감지되는 이벤트 등이 감지되면, 프로세서(200)는 메인 표시 영역에 복수의 아이콘을 표시하고, 보조 표시 영역 상에 선택 영역임을 나타내는 UI(4830)가 표시되도록 터치 스크린(100)을 제어할 수 있다.
이와 같은 상태에서, 사용자는 사용자 단말장치(1000)를 좌/우 또는 상/하로 틸팅(tilting)할 수 있다. 이때 프로세서(200)는 사용자 단말장치(1000)의 움직임에 대응하여, 표시된 복수의 아이콘을 메인 표시 영역 및 보조 표시 영역 상에 이동하여 표시하고, 메인 표시 영역에 대한 터치가 감지되면, 선택 영역 상에 위치한 아이콘에 대응되는 기능을 수행할 수 있다.
예를 들어, 사용자가 도 48과 같이 복수의 아이콘이 배치된 화면에서, 카메라 애플리케이션을 구동하고자 하는 경우의 동작을 도 48을 참조하여 이하에서 설명한다.
현재 카메라 애플리케이션에 대응되는 아이콘을 선택 영역(4830) 상에 이동시키기 위하여, 사용자는 도 48과 같이 우측으로 3번의 틸팅 동작과 상부로 1번의 틸팅 동작을 수행할 수 있다.
구체적으로, 복수의 아이콘이 메인 표시 영역(1010) 상에 표시중인 상태에서 사용자가 사용자 단말장치를 우측으로 틸팅하면, 메인 표시 영역의 복수의 아이콘은 전체적으로 우측으로 이동될 수 있다. 이에 따라, 복수의 아이콘은 메인 표시 영역과 보조 표시 영역 상에 함께 표시된다(4911).
사용자가 다시 한 번, 사용자 단말장치를 우측으로 틸팅하면, 표시된 복수의 아이콘은 전체적으로 우측으로 이동되어 표시된다(4922). 그리고 사용자가 다시 한 번, 사용자 단말장치를 우측으로 틸팅하면, 표시된 복수의 아이콘은 전체적으로 우측으로 이동되어 표시된다(4913)
그리고 사용자가 사용자 단말장치를 상부로 틸팅하면, 표시된 복수의 아이콘은 전체적으로 상부로 이동되어 표시된다(4914).
최종적으로 사용자가 실행하고자 하는 아이콘이 선택 영역(4930) 상에 위치하는바, 사용자는 메인 표시 영역(1010)의 아무 영역을 터치하여 카메라 애플리케이션을 구동시킬 수 있다.
한편, 이상에서는 복수의 아이콘의 이동에 대응하여, 메인 표시 영역 또는 보조 표시 영역 밖으로 이동하는 아이콘이 점차 사라지는 형태의 예를 도시하였지만, 아이콘이 배치되는 화면은 복수의 페이지로 구성될 수 있다는 점에서, 복수의 아이콘의 이동에 대응하여 현재 화면에 인접한 타 페이지의 아이콘이 사라진 아이콘을 대신하여 표시될 수도 있다. 이와 같은 예에 대해서는 도 50을 참조하여 이하에서 설명한다.
도 50을 참조하면, 기설정된 이벤트가 발생하면, 보조 표시 영역 상의 기설정된 영역 선택 영역을 나타내는 UI(5020)가 표시된다. 이때, 사용자가 우측으로 틸팅하면, 표시중인 복수의 아이콘을 전체적으로 우측으로 이동하며, 이동에 따라 생성된 빈 공간에는 현재 화면의 좌측 페이지의 최우측에 배치되던 아이콘들이 표시된다. 이후에 사용자가 재차 우측으로 틸팅하면, 표시중인 복수의 아이콘은 전체적으로 우측으로 이동되면, 좌측 페이지의 위치하던 새로운 아이콘들이 표시된다. 이때, 사용자가 상측으로 틸팅하면, 표시중인 복수의 아이콘은 전체적으로 상부로 이동되어 표시된다. 한편, 최상부에 배치되던 아이콘은 하부로 이동하여 표시된다.
이와 같이 사용자는 사용자 단말장치(1000)를 틸팅하는 동작으로 구동하고자 하는 아이콘을 손쉽게 선택할 수 있는바, 손쉬운 인터렉션이 가능하게 된다.
도 51 내지 도 53은 본 개시의 일 실시 예에 따른 사용자 단말장치의 디스플레이 방법을 설명하기 위한 흐름도이다.
구체적으로, 도 51은 제1 실시 예(키보드 기능 확장)에 따른 사용자 단말장치의 디스플레이 방법을 설명하기 위한 흐름도이다.
도 51을 참조하면, 메인 표시 영역 상에 디스플레이된 아이콘을 보조 표시 영역으로 이동하는 사용자 제스처를 감지한다(S5110). 구체적으로, 사용자가 메인 표시 영역 상에 디스플레이된 여러 아이콘 중 기능 아이콘으로 등록 하고자 하는 아이콘을 선택하고, 해당 아이콘을 보조 표시 영역으로 이동하고, 해당 아이콘을 해당 보조 표시 영역에 놓는 사용자 제스처(즉, 드래그 앤 드롭 제스처)를 감지할 수 있다. 이와 같은 특정 아이콘에 대한 드래그 앤 드롭이 감지되면, 사용자가 해당 아이콘에 대한 기능 아이콘으로 등록 하고자 하는 제어 명령인 것으로 판단하고, 해당 아이콘을 기능 아이콘으로 등록하는 절차를 수행할 수 있다. 이에 따라, 메인 표시 영역 상에 표시된 아이콘을 보조 표시 영역에 놓은 사용자 제스처를 등록 제스처로 지칭할 수 있다. 한편, 이상에서는 드래근 앤 드롭 방식으로 기능 아이콘을 등록하는 예만을 설명하였지만, 구현시에는 기설정된 세팅 UI 화면 상에 표시된 복수의 아이콘 중 기능 아이콘에 등록할 아이콘을 선택받는 형태로도 구현될 수 있다.
한편, 사용자 단말장치가 복수의 보조 표시 영역을 갖는 경우, 사용자가 드롭한 보조 표시 영역에 해당 기능 아이콘을 등록할 수 있다. 만약, 사용자 단말장치가 복수의 보조 표시 영역을 가지며, 각 보조 표시 영역별로 다른 종류의 아이콘이 구분되어 표시된다면, 사용자가 드롭한 보조 표시 영역과 무관하게, 해당 아이콘의 종류에 대응되는 보조 표시 영역에 해당 기능 아이콘은 등록될 수 있다.
한편, 이상에서는 사용자가 아이콘을 보조 표시 영역으로 드래그 앤 드롭하는 경우, 바로 기능 아이콘으로 등록되는 것으로 설명하였지만, 구현시에는 사용자에게 해당 아이콘을 기능 아이콘으로 등록하는 것이 맞는지 확인하는 절차가 추가적으로 수행될 수도 있다.
이동된 아이콘을 보조 표시 영역에 디스플레이한다(S5120). 구체적으로, 해당 아이콘이 기능 아이콘으로 등록되면, 보조 표시 영역에 해당 아이콘을 표시할 수도 있다. 한편, 사용자 단말장치가 복수의 보조 표시 영역을 갖는 경우, 사용자가 지정한 보조 표시 영역 또는 해당 아이콘의 종류에 대응되는 보조 표시 영역에 해당 아이콘이 표시될 수 있다.
이상에서는 등록 이후에 바로 보조 표시 영역에 아이콘을 표시하는 동작을 설명하였지만, 등록된 이후에는 도 52와 같은 동작을 통하여 기능 아이콘의 표시 동작이 수행될 수 있다.
도 52는 또 다른 제1 실시 예(키보드 기능 확장)에 따른 사용자 단말장치의 디스플레이 방법을 설명하기 위한 흐름도이다.
도 52를 참조하면, 문자 입력이 필요한 상황인지를 판단한다(S5210). 구체적으로, 사용자가 현재 구동중인 애플리케이션 상에 문자 입력이 필요한 영역을 선택하였는지를 판단한다. 예를 들어, 사용자가 인터넷 서핑 중에 웹 페이지 주소를 입력하는 영역을 선택하거나, 검색어를 입력받는 영역을 선택하였는지를 판단할 수 있다.
판단 결과, 문자 입력이 필요한 사항이면, 현재 애플리케이션에 대응하는 기능 아이콘이 등록되었는지를 판단한다(S5220), 한편, 기능 아이콘이 모든 애플리케이션에 대해서 공통으로 표시되는 경우에는, 기등록된 아이콘이 있는지만을 판단할 수도 있다.
기등록된 기능 아이콘이 없으면(S5220-N), 가상 키보드만을 기설정된 영역(키보드 영역)에 메인 표시 영역 상에 표시할 수 있다(S5230).
한편, 기등록된 기능 아이콘이 있으면(S5220-Y), 메인 표시 영역의 기설정된 키보드 영역(메인 표시 영역의 하단)에 가상 키보드를 표시하고, 가상 키보드의 좌측 및/또는 우측의 보조 표시 영역 상에 기능 아이콘을 표시할 수 있다(S5240). 한편, 기등록된 기능 아이콘이 기설정된 개수 이상이면, 기설정된 정렬 기준에 따라 정렬된 기능 아이콘만을 보조 표시 영역 상에 표시할 수 있다.
이상과 같은 제1 실시 예에 따른 사용자 단말장치의 디스플레이 방법은, 가상 키보드 기능을 확장할 수 있는 기능 아이콘을 보조 표시 영역 상에 표시하는바, 사용자는 더욱 용이하게 원하는 문자 입력을 수행할 수 있게 된다. 또한, 기능 아이콘을 손쉽게 터치할 수 있는 가상 키보드 주변에만 배치하는바, 사용자는 가상 키보드의 타이핑 중에 손쉽게 기능 아이콘을 선택할 수 있다. 도 52와 같은 디스플레이 방법은, 도 1 또는 도 14의 구성을 가지는 사용자 단말장치 상에 실행될 수 있으며, 그 밖의 구성을 가지는 사용자 단말장치 상에서 실행될 수 있다.
도 53은 제2 실시 예(인터렉션 방법 확장)에 따른 사용자 단말장치의 인터렉션 방법을 설명하기 위한 흐름도이다.
도 53을 참조하면, 토크백 기능이 활성화되어 있는지를 판단할 수 있다(S5310). 토크백 기능이 활성화된 상태에서(S5310-Y), 사용자의 터치 제스처가 보조 표시 영역에서 이루어 진것인지를 판단할 수 있다(S5320).
판단 결과, 보조 표시 영역이 아니라, 메인 표시 영역에 대한 터치 제스처인 경우라면(S5320-N), 해당 터치 제스처에 대응한 토크백 기능을 수행할 수 있다(S5340).
한편, 사용자의 터치가 보조 표시 영역이면, 현재 터치 제스처를 토크백 기능이 비활성화된 상태에서의 메인 표시 영역 상의 터치 제스처로 취급하여 기능을 수행할 수 있다(S5330).
이상과 같은 제2 실시 예에 따른 사용자 단말장치의 인터렉션 방법은, 토크백 기능이 활성화된 경우에도 다양한 인터렉션을 지원하는바, 사용자의 편의성이 향상된다. 도 53과 같은 인터렉션 방법은, 도 1 또는 도 14의 구성을 가지는 사용자 단말장치 상에 실행될 수 있으며, 그 밖의 구성을 가지는 사용자 단말장치 상에서 실행될 수 있다.
도 54는 제3 실시 예(인터렉션 확장)에 따른 사용자 단말장치의 인터렉션 방법을 설명하기 위한 흐름도이다.
도 54를 참조하면, 이벤트가 발생 되었는지를 판단한다(S5410). 구체적으로, 사용자 단말장치가 좌우로 흔들리는 움직임 제스처가 입력되거나, 복수의 보조 터치 영역이 터치되는 터치 제스처가 입력되었는지를 판단할 수 있다.
기설정된 이벤트가 발생하면, 사용자 단말장치의 움직임을 감지한다(S5420). 그리고 감지된 움직임에 대응하여 표시된 복수의 아이콘을 이동한다(S5430). 한편, 사용자의 선택 제스처가 입력되었는지를 판단한다(S5440).
선택 제스처가 입력되지 않았으며(S5440-N), 상술한 움직임 감지 및 아이콘 이동을 반복한다.
선택 제스처가 입력되면, 기설정된 영역에 위치한 아이콘에 대응되는 기능을 수행할 수 있다(S5450).
이상과 같은 제3 실시 예에 따른 사용자 단말장치의 인터렉션 방법은, 단말장치의 움직임을 이용하여 인터렉션으로 활용할 수 있는바, 사용자 편의성이 향상된다. 도 54와 같은 인터렉션 방법은, 도 1 또는 도 14의 구성을 가지는 사용자 단말장치 상에 실행될 수 있으며, 그 밖의 구성을 가지는 사용자 단말장치 상에서 실행될 수 있다.
또한, 상술한 다양한 실시 예들에 따른 사용자 단말장치의 인터렉션 방법 또는 화면 디스플레이 방법은 비일시적 판독 가능 매체(non-transitory readable medium) 에 저장될 수 있다. 이러한 비일시적 판독 가능 매체는 다양한 장치에 탑재되어 사용될 수 있다.
비일시적 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등이 될 수 있다.
또한, 이상에서는 본 개시의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 개시는 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 개시의 요지를 벗어남이 없이 당해 개시가 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 개시의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.
100 : 터치 스크린 200 : 프로세서
1000 : 사용자 단말장치 1010 : 메인 표시 영역
1020, 1030: 서브 표시 영역

Claims (20)

  1. 사용자 단말장치에 있어서,
    상기 사용자 단말장치의 전면 및 측면을 구성하고, 상기 사용자 단말장치의 전면에 배치되는 메인 표시 영역과 상기 메인 표시 영역으로부터 상기 측면 방향으로 연장되어 구부러진 부분을 포함하는 보조 표시 영역으로 구분되는 터치 스크린; 및
    상기 메인 표시 영역 상에 어플리케이션의 사용자 인터페이스가 표시된 상태에서 상기 메인 표시 영역에 표시된 제1 아이콘을 상기 보조 표시 영역으로 이동시키는 제1 사용자 명령이 입력되면, 기능 아이콘 등록 명령이 입력된 것으로 판단하여 상기 제1 아이콘을 상기 어플리케이션에 대한 기능 아이콘으로 등록하고, 상기 보조 표시 영역 상에 기능 아이콘을 표시하도록 터치 스크린을 제어하며,
    상기 보조 표시 영역 상에 표시된 상기 기능 아이콘을 선택하는 제2 사용자 명령이 입력되면, 상기 메인 표시 영역 내에 표시된 상기 어플리케이션을 실행하는 프로세서; 를 포함하는 사용자 단말 장치.
  2. 제1항에 있어서,
    상기 프로세서는,
    특정 애플리케이션 실행시, 상기 특정 애플리케이션에 대응하여 등록된 기능 아이콘을 상기 보조 표시 영역에 디스플레이하도록 상기 터치 스크린을 제어하는 사용자 단말장치.
  3. 제2항에 있어서,
    상기 프로세서는,
    현재 구동 중인 애플리케이션에 대응하여 등록된 아이콘의 개수가 기설정된 개수 이상이면, 기설정된 기준으로 정렬된 아이콘만을 상기 보조 표시 영역 상에 디스플레이하도록 상기 터치 스크린을 제어하는 사용자 단말장치.
  4. 제1항에 있어서,
    상기 기능 아이콘은,
    상기 보조 표시 영역에 문자 입력 영역에 입력 가능한 이모티콘, 특수 문자, 기설정된 문자 세트 및 특정 기능을 수행하도록 하는 아이콘 중 적어도 하나인 사용자 단말장치.
  5. 제1항에 있어서,
    상기 프로세서는,
    상기 메인 표시 영역에 가상 키보드 또는 필기 입력 영역을 디스플레이하고, 상기 보조 표시 영역에 상기 기능 아이콘을 디스플레이하도록 상기 터치 스크린을 제어하는 사용자 단말장치.
  6. 제1항에 있어서,
    상기 프로세서는,
    상기 기능 아이콘은 기설정된 이벤트에 대응되는 사용자 단말장치.
  7. 제6항에 있어서,
    상기 프로세서는,
    상기 보조 표시 영역 상의 기설정된 입력을 감지하면, 상기 보조 표시 영역에 디스플레이된 상기 기능 아이콘을 다른 기능 아이콘으로 가변하여 디스플레이하도록 상기 터치 스크린을 제어하는 사용자 단말장치.
  8. 제5항에 있어서,
    상기 프로세서는,
    상기 메인 표시 영역의 기설정된 영역에 상기 가상 키보드 또는 필기 입력 영역을 디스플레이하고, 상기 가상 키보드 또는 필기 입력 영역의 측면의 보조 표시 영역에만 상기 기능 아이콘을 디스플레이하도록 상기 터치 스크린을 제어하는 사용자 단말장치.
  9. 삭제
  10. 삭제
  11. 삭제
  12. 제1항에 있어서,
    상기 사용자 단말장치 주변의 소리를 복수의 위치에서 입력받는 마이크부;를 더 포함하고,
    상기 프로세서는,
    상기 마이크부를 통하여 입력된 소리의 방향을 판단하고, 상기 판단된 방향에 대응되는 보조 표시 영역에 방향 정보가 표시되도록 상기 터치 스크린을 제어하는 사용자 단말장치.
  13. ◈청구항 13은(는) 설정등록료 납부시 포기되었습니다.◈
    제12항에 있어서,
    상기 프로세서는,
    상기 입력된 소리를 분석하고, 상기 분석된 소리에 대응되는 정보를 상기 메인 표시 영역, 제1 보조 표시 영역 및 제2 보조 표시 영역 중 적어도 하나에 표시하도록 상기 터치 스크린을 제어하는 사용자 단말장치.
  14. ◈청구항 14은(는) 설정등록료 납부시 포기되었습니다.◈
    제1항에 있어서,
    상기 사용자 단말장치와 인접한 타 단말장치로부터 복수의 데이터 및 상기 복수의 데이터의 순서 정보를 수신하는 통신부;를 더 포함하는 사용자 단말장치.
  15. ◈청구항 15은(는) 설정등록료 납부시 포기되었습니다.◈
    제14항에 있어서,
    상기 타 단말장치는, 정류소 단말, 신호등 단말 중 적어도 하나이며,
    상기 데이터는,
    신호등 상태 정보, 정차된 버스 정보, 정차 예정인 버스의 시간 정보 중 적어도 하나를 포함하는 사용자 단말장치.
  16. 메인 표시 영역과 상기 메인 표시 영역으로부터 측면 방향으로 연장되어 구부러진 부분을 포함하는 보조 표시 영역으로 구분된 터치 스크린을 포함하는 사용자 단말장치의 디스플레이 방법에 있어서,
    상기 메인 표시 영역 상에 어플리케이션의 사용자 인터페이스가 표시된 상태에서 상기 메인 표시 영역에 표시된 제1 아이콘을 상기 보조 표시 영역으로 이동시키는 제1 사용자 명령이 입력되면, 기능 아이콘 등록 명령이 입력된 것으로 판단하여 상기 제1 아이콘을 상기 어플리케이션에 대한 기능 아이콘으로 등록하고, 상기 보조 표시 영역 상에 기능 아이콘을 표시하는 단계; 및
    상기 보조 표시 영역 상에 표시된 상기 기능 아이콘을 선택하는 제2 사용자 명령이 입력되면, 상기 메인 표시 영역 내에 표시된 상기 어플리케이션을 실행하는 단계; 를 포함하는 디스플레이 방법.
  17. ◈청구항 17은(는) 설정등록료 납부시 포기되었습니다.◈
    제16항에 있어서,
    특정 애플리케이션 실행시, 상기 특정 애플리케이션에 대응하여 등록된 아이콘이 상기 보조 표시 영역에 디스플레이하는 단계; 를 더 포함하는 디스플레이 방법.

  18. 삭제
  19. 삭제
  20. 삭제
KR1020150168789A 2015-11-30 2015-11-30 사용자 단말장치 및 디스플레이 방법 KR102427833B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020150168789A KR102427833B1 (ko) 2015-11-30 2015-11-30 사용자 단말장치 및 디스플레이 방법
US15/290,431 US10698564B2 (en) 2015-11-30 2016-10-11 User terminal device and displaying method thereof
PCT/KR2016/012846 WO2017095040A1 (en) 2015-11-30 2016-11-09 User terminal device and displaying method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150168789A KR102427833B1 (ko) 2015-11-30 2015-11-30 사용자 단말장치 및 디스플레이 방법

Publications (2)

Publication Number Publication Date
KR20170062954A KR20170062954A (ko) 2017-06-08
KR102427833B1 true KR102427833B1 (ko) 2022-08-02

Family

ID=58778332

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150168789A KR102427833B1 (ko) 2015-11-30 2015-11-30 사용자 단말장치 및 디스플레이 방법

Country Status (3)

Country Link
US (1) US10698564B2 (ko)
KR (1) KR102427833B1 (ko)
WO (1) WO2017095040A1 (ko)

Families Citing this family (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USD618248S1 (en) 2008-09-23 2010-06-22 Apple Inc. Graphical user interface for a display screen or portion thereof
USD767595S1 (en) 2014-09-03 2016-09-27 Apple Inc. Display screen or portion thereof with graphical user interface
KR20180070659A (ko) 2015-12-21 2018-06-26 구글 엘엘씨 메시징 애플리케이션들을 위한 자동적인 제안들 및 다른 콘텐츠
US10530723B2 (en) 2015-12-21 2020-01-07 Google Llc Automatic suggestions for message exchange threads
US10387461B2 (en) 2016-08-16 2019-08-20 Google Llc Techniques for suggesting electronic messages based on user activity and other context
US10547574B2 (en) 2016-09-20 2020-01-28 Google Llc Suggested responses based on message stickers
US10511450B2 (en) 2016-09-20 2019-12-17 Google Llc Bot permissions
US10015124B2 (en) 2016-09-20 2018-07-03 Google Llc Automatic response suggestions based on images received in messaging applications
US10416846B2 (en) * 2016-11-12 2019-09-17 Google Llc Determining graphical element(s) for inclusion in an electronic communication
USD818037S1 (en) 2017-01-11 2018-05-15 Apple Inc. Type font
US10146768B2 (en) 2017-01-25 2018-12-04 Google Llc Automatic suggested responses to images received in messages using language model
WO2018212822A1 (en) 2017-05-16 2018-11-22 Google Inc. Suggested actions for images
US10404636B2 (en) 2017-06-15 2019-09-03 Google Llc Embedded programs and interfaces for chat conversations
US10348658B2 (en) 2017-06-15 2019-07-09 Google Llc Suggested items for use with embedded applications in chat conversations
CN107479784B (zh) * 2017-07-31 2022-01-25 腾讯科技(深圳)有限公司 表情展示方法、装置及计算机可读存储介质
CN111708470A (zh) * 2017-09-05 2020-09-25 Oppo广东移动通信有限公司 通知消息显示方法及装置
USD843442S1 (en) 2017-09-10 2019-03-19 Apple Inc. Type font
USD844049S1 (en) 2017-09-14 2019-03-26 Apple Inc. Type font
CN108089786B (zh) 2017-12-14 2019-12-31 Oppo广东移动通信有限公司 用户界面显示方法、装置、设备及存储介质
US10891526B2 (en) 2017-12-22 2021-01-12 Google Llc Functional image archiving
USD844700S1 (en) 2018-01-18 2019-04-02 Apple Inc. Type font
CN108646971B (zh) * 2018-05-17 2020-07-24 Oppo广东移动通信有限公司 屏幕发声控制方法、装置以及电子装置
USD846633S1 (en) 2018-06-03 2019-04-23 Apple Inc. Type font
USD879132S1 (en) 2018-06-03 2020-03-24 Apple Inc. Electronic device with graphical user interface
CN109407949B (zh) * 2018-10-17 2021-03-02 维沃移动通信有限公司 一种显示控制方法及终端
KR20200093091A (ko) * 2019-01-07 2020-08-05 현대자동차주식회사 단말기, 그를 가지는 차량 및 그 제어 방법
USD900925S1 (en) 2019-02-01 2020-11-03 Apple Inc. Type font and electronic device with graphical user interface
USD902221S1 (en) 2019-02-01 2020-11-17 Apple Inc. Electronic device with animated graphical user interface
USD900871S1 (en) 2019-02-04 2020-11-03 Apple Inc. Electronic device with animated graphical user interface
CN112130740B (zh) * 2019-06-24 2023-08-11 中兴通讯股份有限公司 一种屏幕显示方法及装置
USD949236S1 (en) 2019-07-16 2022-04-19 Apple Inc. Type font
USD945390S1 (en) * 2019-09-24 2022-03-08 Beijing Xiaomi Mobile Software Co., Ltd. Mobile phone with animated graphical user interface
USD947805S1 (en) * 2019-09-24 2022-04-05 Beijing Xiaomi Mobile Software Co., Ltd. Mobile phone with graphical user interface
USD917540S1 (en) 2019-09-30 2021-04-27 Apple Inc. Electronic device with animated graphical user interface
CN110737383B (zh) * 2019-09-30 2021-06-18 广州视源电子科技股份有限公司 元素添加方法、装置和电子设备
US11402973B2 (en) 2020-05-08 2022-08-02 Sony Interactive Entertainment Inc. Single representation of a group of applications on a user interface
US11524228B2 (en) 2020-05-08 2022-12-13 Sony Interactive Entertainment Inc. Sorting computer applications or computer files and indicating a sort attribute in a user interface
US11797154B2 (en) * 2020-05-08 2023-10-24 Sony Interactive Entertainment Inc. Inserting a graphical element cluster in a tiled library user interface
CN114527894A (zh) * 2020-10-31 2022-05-24 华为终端有限公司 一种交互方法以及终端设备

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040223623A1 (en) * 2003-05-07 2004-11-11 Sunplus Technology Co., Ltd. Apparatus and method for detecting sound direction
US20110054890A1 (en) * 2009-08-25 2011-03-03 Nokia Corporation Apparatus and method for audio mapping

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7631267B2 (en) * 2006-02-17 2009-12-08 Microsoft Corporation Auxiliary display sidebar integration
US9250703B2 (en) * 2006-03-06 2016-02-02 Sony Computer Entertainment Inc. Interface with gaze detection and voice input
KR20080041809A (ko) 2006-11-08 2008-05-14 삼성전자주식회사 휴대용 단말기에서 디스플레이 제어 방법 및 장치
US8638302B2 (en) 2009-12-22 2014-01-28 Nokia Corporation Apparatus with multiple displays
KR101879333B1 (ko) 2011-12-06 2018-07-17 엘지전자 주식회사 이동 단말기 및 그의 아이콘 배열방법
KR101515629B1 (ko) 2012-01-07 2015-04-27 삼성전자주식회사 플렉서블 표시부를 갖는 휴대단말의 이벤트 제공 방법 및 장치
US9395852B2 (en) 2012-05-07 2016-07-19 Cirque Corporation Method for distinguishing between edge swipe gestures that enter a touch sensor from an edge and other similar but non-edge swipe actions
KR101515623B1 (ko) * 2012-05-14 2015-04-28 삼성전자주식회사 벤디드 디스플레이를 갖는 휴대단말의 기능 운용 방법 및 장치
KR101562005B1 (ko) * 2012-07-24 2015-10-22 남양주시 방범시스템과 다양한 정보를 제공하는 승강장 및 그 방법
KR101987160B1 (ko) 2012-09-24 2019-09-30 삼성전자주식회사 디스플레이 드라이버 집적회로, 그것을 포함하는 디스플레이 시스템 및 그것의 디스플레이 데이터 처리 방법
KR101368651B1 (ko) 2013-02-01 2014-03-10 한국기술교육대학교 산학협력단 시각 장애인을 위한 단말기 케이스
KR20150007910A (ko) * 2013-07-11 2015-01-21 삼성전자주식회사 사용자 인터렉션을 제공하는 사용자 단말 장치 및 그 방법
KR101504236B1 (ko) * 2013-07-23 2015-03-19 엘지전자 주식회사 이동 단말기
KR20150039293A (ko) 2013-10-02 2015-04-10 주식회사 엘지유플러스 사용자 인터페이스 제공을 위한 장치, 방법, 및 기록 매체
US9990125B2 (en) * 2013-11-15 2018-06-05 Lg Electronics Inc. Mobile terminal and method of controlling the same
KR101588294B1 (ko) 2013-12-30 2016-01-28 삼성전자주식회사 사용자 인터렉션을 제공하는 사용자 단말 장치 및 그 방법
US9443516B2 (en) * 2014-01-09 2016-09-13 Honeywell International Inc. Far-field speech recognition systems and methods
KR20150107476A (ko) 2014-03-14 2015-09-23 엘지전자 주식회사 이동 단말기
KR101624161B1 (ko) 2014-06-27 2016-05-25 삼성전자주식회사 투과 영역을 포함하는 커버를 가지는 휴대 단말기의 디스플레이 방법 및 장치
KR101559091B1 (ko) 2014-09-02 2015-10-12 삼성전자주식회사 벤디드 디스플레이를 구비한 휴대 단말기의 제어 방법 및 장치
KR101516766B1 (ko) 2014-09-02 2015-05-04 삼성전자주식회사 곡면 표시 영역을 가지는 디스플레이 및 이를 포함하는 전자 장치
KR20160027856A (ko) 2014-09-02 2016-03-10 삼성전자주식회사 벤디드 디스플레이와 커버를 갖는 휴대단말 및 그 어플리케이션 실행 방법
US9911416B2 (en) * 2015-03-27 2018-03-06 Qualcomm Incorporated Controlling electronic device based on direction of speech

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040223623A1 (en) * 2003-05-07 2004-11-11 Sunplus Technology Co., Ltd. Apparatus and method for detecting sound direction
US20110054890A1 (en) * 2009-08-25 2011-03-03 Nokia Corporation Apparatus and method for audio mapping

Also Published As

Publication number Publication date
WO2017095040A1 (en) 2017-06-08
US10698564B2 (en) 2020-06-30
KR20170062954A (ko) 2017-06-08
US20170153792A1 (en) 2017-06-01

Similar Documents

Publication Publication Date Title
KR102427833B1 (ko) 사용자 단말장치 및 디스플레이 방법
KR102230708B1 (ko) 사용자 인터렉션을 제공하는 사용자 단말 장치 및 그 방법
KR102423826B1 (ko) 사용자 단말 장치 및 그의 제어 방법
KR102255143B1 (ko) 벤디드 디스플레이를 구비한 휴대 단말기의 제어 방법 및 장치
US10416883B2 (en) User terminal apparatus and controlling method thereof
US10067666B2 (en) User terminal device and method for controlling the same
KR102168648B1 (ko) 사용자 단말 장치 및 그 제어 방법
US10572148B2 (en) Electronic device for displaying keypad and keypad displaying method thereof
US11243687B2 (en) User terminal apparatus and controlling method thereof
KR101559091B1 (ko) 벤디드 디스플레이를 구비한 휴대 단말기의 제어 방법 및 장치
KR102426088B1 (ko) 사용자 단말 장치 및 이의 디스플레이 방법
KR20150095533A (ko) 전자 장치 및 색인 표시 방법
EP3287886B1 (en) User terminal apparatus and controlling method thereof
EP3128397B1 (en) Electronic apparatus and text input method for the same
KR102305314B1 (ko) 사용자 단말 장치 및 그의 제어 방법
KR20170009688A (ko) 전자 장치 및 이의 제어 방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant