KR20150037026A - 디지털 디바이스 및 그 제어 방법 - Google Patents

디지털 디바이스 및 그 제어 방법 Download PDF

Info

Publication number
KR20150037026A
KR20150037026A KR20130116199A KR20130116199A KR20150037026A KR 20150037026 A KR20150037026 A KR 20150037026A KR 20130116199 A KR20130116199 A KR 20130116199A KR 20130116199 A KR20130116199 A KR 20130116199A KR 20150037026 A KR20150037026 A KR 20150037026A
Authority
KR
South Korea
Prior art keywords
touch
sensor unit
distance
touch sensor
effective recognition
Prior art date
Application number
KR20130116199A
Other languages
English (en)
Other versions
KR102165445B1 (ko
Inventor
김지환
박시화
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020130116199A priority Critical patent/KR102165445B1/ko
Priority to US14/168,455 priority patent/US9927914B2/en
Priority to CN201480053426.1A priority patent/CN105579945B/zh
Priority to PCT/KR2014/001362 priority patent/WO2015046683A1/en
Priority to EP14849237.4A priority patent/EP3053015B1/en
Publication of KR20150037026A publication Critical patent/KR20150037026A/ko
Application granted granted Critical
Publication of KR102165445B1 publication Critical patent/KR102165445B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures

Abstract

본 명세서는 디지털 디바이스에 대한 것으로, 보다 상세하게는 양면 터치 인식이 가능한 디지털 디바이스에 관한 것이다.
일 실시예에 따른 디지털 디바이스는, 적어도 하나의 비주얼 오브젝트를 디스플레이하는 디스플레이 유닛; 상기 디지털 디바이스의 전면에 대한 터치 입력을 센싱하는 전면 터치 센서 유닛; 상기 디지털 디바이스의 후면에 대한 터치 입력을 센싱하는 후면 터치 센서 유닛; 및 상기 디스플레이 유닛, 상기 전면 터치 센서 유닛 및 상기 후면 터치 센서 유닛을 제어하는 프로세서를 포함하고, 상기 프로세서는, 상기 전면 터치 센서 유닛 또는 상기 후면 터치 센서 유닛에 대한, 제 1 레퍼런스 위치 및 제 2 터치 위치를 획득하고,상기 제 1 레퍼런스 위치 및 상기 제 2 터치 위치 간의 거리(distance)를 획득하고, 상기 제 1 레퍼런스 위치 및 상기 제 2 터치 위치 간의 거리가 유효 인식 거리(valid recognition distance) 이내인지 여부를 판단하되, 상기 후면 터치 센서 유닛에 대한 유효 인식 거리는 상기 전면 터치 센서 유닛에 대한 유효 인식 거리보다 길게 설정될 수 있다.

Description

디지털 디바이스 및 그 제어 방법{DIGITAL DEVICE AND CONTROLLING METHOD THEREOF}
본 명세서는 디지털 디바이스에 대한 것으로, 보다 상세하게는 양면 터치 인식이 가능한 디지털 디바이스에 관한 것이다.
기술이 발전함에 따라, 스마트폰, 태블릿(Tablet) PC 등과 같은 터치 인식 가능한 디지털 디바이스의 사용이 점차 일반화되고 있다. 또한, 최근에는 전면 터치와 함께 후면 터치를 이용하여 디바이스의 동작을 제어할 수 있는, 양면 터치 인식이 가능한 디지털 디바이스의 사용도 보편화되고 있다.
그런데, 이러한 양면 터치 인식 가능한 디지털 디바이스에서, 후면 터치를 이용하여 디바이스의 동작을 제어하는 경우에는, 터치 제스처를 직접 관찰할 수 있는 전면 터치와는 달리, 터치 오차가 발생하기 쉽다.
따라서, 본 명세서는 디바이스의 후면에 대한 터치 시 발생하는 터치 오차를 보정하기 위하여, 유효한 전면 터치로 인식되기 위한 유효 인식 거리와 유효한 후면 터치로 인식되기 위한 유효 인식 거리를 다르게 설정하는, 디지털 디바이스를 제공함을 목적으로 한다.
전술한 기술적 과제를 해결하기 위하여, 일 실시예에 따른 디지털 디바이스는, 적어도 하나의 비주얼 오브젝트를 디스플레이하는 디스플레이 유닛; 상기 디지털 디바이스의 전면에 대한 터치 입력을 센싱하는 전면 터치 센서 유닛; 상기 디지털 디바이스의 후면에 대한 터치 입력을 센싱하는 후면 터치 센서 유닛; 및 상기 디스플레이 유닛, 상기 전면 터치 센서 유닛 및 상기 후면 터치 센서 유닛을 제어하는 프로세서를 포함하고, 상기 프로세서는, 상기 전면 터치 센서 유닛 또는 상기 후면 터치 센서 유닛에 대한, 제 1 레퍼런스 위치 및 제 2 터치 위치를 획득하고,상기 제 1 레퍼런스 위치 및 상기 제 2 터치 위치 간의 거리(distance)를 획득하고, 상기 제 1 레퍼런스 위치 및 상기 제 2 터치 위치 간의 거리가 유효 인식 거리(valid recognition distance) 이내인지 여부를 판단하되, 상기 후면 터치 센서 유닛에 대한 유효 인식 거리는 상기 전면 터치 센서 유닛에 대한 유효 인식 거리보다 길게 설정될 수 있다.
또한, 일 실시예에 따른 디지털 디바이스는, 비주얼 오브젝트를 디스플레이하는 디스플레이 유닛; 상기 디지털 디바이스의 전면에 대한 터치 입력을 센싱하는 전면 터치 센서 유닛; 상기 디지털 디바이스의 후면에 대한 터치 입력을 센싱하는 후면 터치 센서 유닛; 및 상기 디스플레이 유닛, 상기 전면 터치 센서 유닛 및 상기 후면 터치 센서 유닛을 제어하는 프로세서를 포함하고, 상기 프로세서는, 상기 전면 터치 센서 유닛 또는 상기 후면 터치 센서 유닛 중 하나의 센서 유닛에 대한 제 1 터치 및 제 2 터치의, 위치 및 시간에 따라서 상기 제 1 터치 입력 및 상기 제 2 터치 입력을 하나의 더블 터치 제스처로 인식하되, 상기 제 1 터치 및 제 2 터치의 위치 간의 거리가 유효 인식 거리 이내이고, 상기 제 1 터치 및 제 2 터치의 시간 간격이 유효 인식 시간 간격 이내인 경우로, 상기 후면 터치 센서 유닛에 대한 유효 인식 거리는 상기 전면 터치 센서 유닛에 대한 유효 인식 거리보다 길게 설정될 수 있다.
또한, 일 실시예에 따른 디지털 디바이스의 제어 방법은, 전면 터치 센서 유닛 또는 후면 터치 센서 유닛에 대한, 제 1 레퍼런스 위치 및 제 2 터치 위치를 획득하는 단계; 상기 제 1 레퍼런스 위치 및 상기 제 2 터치 위치 간의 거리를 획득하는 단계; 및 상기 제 1 레퍼런스 위치 및 상기 제 2 터치 위치 간의 거리가 유효 인식 거리(valid recognition distance) 이내인지 여부를 판단하는 단계를 포함하며, 상기 후면 터치 센서 유닛에 대한 유효 인식 거리는 상기 전면 터치 센서 유닛에 대한 유효 인식 거리보다 길게 설정될 수 있다.
일 실시예에 따른 디스플레이 디바이스는, 후면 터치 센서 유닛에 대한 유효 인식 거리를 전면 터치 센서 유닛에 대한 유효 인식 거리보다 길게 설정하여, 디바이스의 후면에 대한 더블 터치 시 발생하는 터치 오차를 보정할 수 있다. 또한, 이를 통해 후면 터치를 이용하여 전면에 디스플레이된 비주얼 오브젝트의 동작을 제어하는 경우에 발생하는 터치 오차도 보정할 수 있다.
또한, 전면에 디스플레이된 복수의 비주얼 오브젝트 중 하나를 선택하는 후면 터치가 입력될 때 사용자에게 비주얼 피드백을 제공하여, 후면 터치를 이용하여 복수의 비주얼 오브젝트의 동작을 제어하는 경우에 발생하는 터치 오류를 수정할 수 있다.
도 1은 일 실시예에 따른 디지털 디바이스의 블록도이다.
도 2는 일 실시예에 따른 디지털 디바이스를 나타낸다.
도 3은 다른 실시예에 따른 디지털 디바이스를 나타낸다.
도 4는 일 실시예에 따른 디바이스의 전면 또는 후면에 두번의 터치 입력을 인식하는 디지털 디바이스를 나타낸다.
도 5는 일 실시예에 따른 하나의 비주얼 오브젝트에 대한 터치 입력을 인식하는 디지털 디바이스를 나타내는 도면이다.
도 6은 일 실시예에 따른 복수의 비주얼 오브젝트 중 어느 하나에 대한 터치 입력을 인식하는 디지털 디바이스를 나타내는 도면이다.
도 7은 일 실시예에 따른 디지털 디바이스의 제어 방법의 순서도이다.
도 8은 일 실시예에 따른 제 1 레퍼런스 위치가 제 1 터치 위치인 경우, 디지털 디바이스의 제어 방법의 순서도이다.
도 9는 일 실시예에 따른 제 1 레퍼런스 위치가 비주얼 오브젝트 위치인 경우, 디지털 디바이스의 제어 방법의 순서도이다.
본 명세서에서 사용되는 용어는 본 명세서에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어를 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도, 관례 또는 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한 특정 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 실시예의 설명 부분에서 그 의미를 기재할 것이다. 따라서 본 명세서에서 사용되는 용어는, 단순한 용어의 명칭이 아닌 그 용어가 아닌 실질적인 의미와 본 명세서의 전반에 걸친 내용을 토대로 해석되어야 함을 밝혀두고자 한다.
더욱이, 이하 첨부 도면들 및 첨부 도면들에 기재된 내용들을 참조하여 실시예를 상세하게 설명하지만, 실시예들에 의해 제한되거나 한정되는 것은 아니다.
본 명세서는, 디지털 디바이스에 관한 것이다. 본 명세서에서, 디지털 디바이스는 이미지 디스플레이 및 양면 터치 인식이 가능한 전자 디바이스를 의미한다. 예를 들면, 디지털 디바이스는 스마트 폰, 스마트 패드, PDA(Personal Digital Assistant), 노트북, 태블릿 피씨 또는 스마트 테이블, HMD(Head Mounted Display)일 수 있다.
도 1은 일 실시예에 따른 디지털 디바이스의 블록도이다.
도 1을 참조하면, 디지털 디바이스(100)는 디스플레이 유닛(110), 전면 터치 센서 유닛(120), 후면 터치 센서 유닛(130), 프로세서(140)를 포함할 수 있다.
디스플레이 유닛(110)은 디스플레이 스크린에 이미지를 디스플레이할 수 있다. 보다 상세하게는, 디스플레이 유닛(110)은 프로세서(140)의 제어 명령에 기초하여 디스플레이 스크린에 이미지를 디스플레이할 수 있다.
일 실시예에서, 디스플레이 유닛(110)은 디지털 디바이스(100)의 전면 또는 후면에 하나의 디스플레이 스크린을 구비하는 단면 디스플레이 유닛일 수 있다. 또한, 디스플레이 유닛(110)은 디지털 디바이스(100)의 전면 및 후면에 복수의 디스플레이 스크린을 구비하는 양면 디스플레이 유닛일 수 있다. 또한, 디스플레이 유닛(110)은 휘어질 수 있는 디스플레이 스크린을 구비하는 플렉서블 디스플레이 유닛일 수 있다. 또한, 디스플레이 유닛(110)은 접힐 수 있는 디스플레이 스크린을 구비하는 폴더블 디스플레이 유닛일 수 있다.
본 명세서에서, 디스플레이 유닛(110)은 디스플레이 스크린에 적어도 하나의 비주얼 오브젝트를 디스플레이할 수 있다. 본 명세서에서, 비주얼 오브젝트는 시각적으로 확인할 수 있는 오브젝트로서, 대응하는 어플리케이션 또는 기능을 실행하기 위하여 사용자의 터치 입력을 요구하는 오브젝트를 의미한다. 즉, 비주얼 오브젝트에 대한 사용자의 터치 입력이 인식되는 경우, 디지털 디바이스(100)는 터치 입력이 인식된 비주얼 오브젝트에 대응하는 어플리케이션 또는 기능을 실행할 수 있다.
다음으로, 전면 터치 센서 유닛(120) 및 후면 터치 센서 유닛(130)은 각각 디지털 디바이스(100)의 전면 및 후면에 대한 사용자의 터치 입력을 디텍트할 수 있다. 보다 상세하게는, 전면 터치 센서 유닛(120) 및 후면 터치 센서 유닛(130)은 각각 디지털 디바이스(100)에 장착된 별개의 전면 터치 센서 및 후면 터치 센서를 사용하여, 디지털 디바이스(100)의 전면 및 후면에 대한 사용자의 터치 입력을 디텍트하고, 디텍트된 결과를 프로세서(140)에 전달할 수 있다. 이러한, 전면 터치 센서 유닛(120) 및 후면 터치 센서 유닛(130)은 디지털 디바이스(100)에 장착된 하나의 터치 센서를 사용하는 하나의 터치 센서 유닛일 수 있다. 이하에서는 전면 터치 센서 유닛을 전면 센서 유닛으로, 후면 터치 센서 유닛을 후면 센서 유닛으로 약칭할 수 있다.
다음으로, 프로세서(140)는 다양한 어플리케이션을 실행하고, 디바이스 내부의 데이터를 프로세싱할 수 있다. 또한, 프로세서(140)는 디지털 디바이스(100)의 각 유닛들을 제어하며, 유닛들 간의 데이터 송/수신을 제어할 수 있다.
본 명세서에서, 프로세서(140)는 전면 터치 센서 유닛(120) 또는 후면 터치 센서 유닛(130)에 중 하나의 센서 유닛에 대한 제 1 레퍼런스 위치 및 제 2 터치 위치를 획득할 수 있다. 여기서, 제 1 레퍼런스 위치는 제 1 터치 위치 또는 비주얼 오브젝트 위치일 수 있다. 또한, 프로세서(140)는 제 1 레퍼런스 위치 및 제 2 터치 위치 간의 거리를 획득할 수 있다. 또한, 프로세서(140)는 제 1 레퍼런스 위치 및 제 2 터치 위치 간의 거리가 유효 인식 거리(valid recognition distance) 이내인지 여부를 판단할 수 있다. 이러한 프로세서에 대한 설명은 각 도면을 참조하여 이하에서 상세히 하도록 한다.
상술한, 도 1은 일 실시예에 따른 디지털 디바이스(100)의 블록도로서, 분리하여 표시된 블록들은 디바이스의 엘러먼트들을 논리적으로 구별하여 도시한 것이다. 따라서 상술한 디바이스의 엘러먼트들은 디바이스의 설계에 따라 하나의 칩으로 또는 복수의 칩으로 장착될 수도 있다. 또한, 도 1의 디지털 디바이스(100)는 일 실시예에 해당하는 것으로, 본 명세서의 실시예들의 수행에 도 1에 포함된 모든 엘러먼트들이 필요한 것은 아니다. 이하에서는 본 명세서의 실시예에 필요한 엘러먼트들 및 그들의 동작에 대하여 상세히 설명하도록 한다.
도 2는 일 실시예에 따른 디지털 디바이스를 나타낸다.
보다 상세하게는, 도 2a는 디바이스의 전면 및 후면에 터치 입력이 인식되는 디지털 디바이스를 나타내고, 도 2b는 단면 디스플레이 유닛을 구비한, 디바이스의 전면 및 후면에 터치 입력이 인식되는 디지털 디바이스를 나타내고, 도 2c는 양면 디스플레이 유닛을 구비한, 디바이스의 전면 및 후면에 터치 입력이 인식되는 디지털 디바이스를 나타낸다.
도 2a를 참조하면, 디지털 디바이스(100)는 디바이스의 전면에 구비된 디스플레이 유닛(110)을 이용하여, 비주얼 오브젝트(11)를 디스플레이할 수 있다. 또한, 디지털 디바이스(100)는 전면 또는 후면 터치 센서 유닛을 이용하여, 디바이스의 전면 또는 후면에 대한 터치 입력을 인식할 수 있다.
도 2b를 참조하면, 디지털 디바이스(100)는 전면 디스플레이 유닛(110)을 이용하여, 비주얼 오브젝트(11)를 디스플레이할 수 있다. 또한, 디지털 디바이스(100)는 전면에 디스플레이된 비주얼 오브젝트(11)에 대응하는 터치 영역(12)을 후면 터치 인식 영역 내에 설정할 수 있다. 이를 통해, 디지털 디바이스는, 전면에 디스플레이된 비주얼 오브젝트(11)에 대한 터치 입력이 인식되는 경우뿐 아니라, 후면에 설정된 터치 영역(12)에 대한 터치 입력이 인식되는 경우에도, 비주얼 오브젝트(11)에 대응하는 어플리케이션 또는 기능을 실행할 수 있다.
도 2c를 참조하면, 디지털 디바이스(100)는 전면 디스플레이 유닛(110-1)을 이용하여, 제 1 비주얼 오브젝트(11-1)를 디스플레이할 수 있다. 또한, 디지털 디바이스(100)는 후면 디스플레이 유닛(110-2)을 이용하여, 제 1 비주얼 오브젝트(11-1)에 대응하는 제 2 비주얼 오브젝트(11-2)를 디스플레이할 수 있다. 여기서, 제 1 비주얼 오브젝트(11-1)와 제 2 비주얼 오브젝트(11-2)는 대응하는 어플리케이션 또는 기능이 동일한 오브젝트일 수 있다. 즉, 디지털 디바이스(100)는 제 1 비주얼 오브젝트(11-1)에 대한 사용자의 터치 입력이 인식되거나, 제 2 비주얼 오브젝트(11-2)에 대한 사용자의 터치 입력이 인식되는 경우에, 동일한 어플리케이션 또는 기능을 실행할 수 있다. 일 실시예에서, 후면 디스플레이 유닛(110-2)은 센서 유닛을 통해 사용자의 시선이 디텍트 된 경우에만, 제 1 비주얼 오브젝트(11-1)에 대응하는 제 2 비주얼 오브젝트(11-2)를 디스플레이할 수 있다.
도 3은 다른 실시예에 따른 디지털 디바이스를 나타낸다.
보다 상세하게는, 도 3a는 플렉서블 또는 폴더블 디스플레이 유닛을 구비한, 디바이스의 전면 및 후면에 사용자의 터치 입력이 인식되는 디지털 디바이스를 나타내고, 도 3b는 플렉서블 또는 폴더블 디스플레이 유닛을 구비한 디지털 디바이스가 펼쳐진 상태를 나타낸다.
도 3a 및 3b를 참조하면, 디지털 디바이스(100)는 전면 디스플레이 유닛(110-1)을 이용하여, 제 1 비주얼 오브젝트(11-1)를 디스플레이할 수 있다. 또한, 디지털 디바이스(100)는 후면 디스플레이 유닛(110-2)을 이용하여, 제 1 비주얼 오브젝트(11-1)에 대응하는 제 2 비주얼 오브젝트(11-2)를 디스플레이할 수 있다. 여기서, 전면 디스플레이 유닛(110-1)과 후면 디스플레이 유닛(110-2)은 서로 연결된 하나의 플렉서블 또는 폴더블 디스플레이 유닛일 수 있다. 그리고, 제 1 비주얼 오브젝트(11-1)와 제 2 비주얼 오브젝트(11-2)는, 상술한 바와 같이, 대응되는 어플리케이션 또는 기능이 동일한 비주얼 오브젝트일 수 있다. 즉, 디지털 디바이스(100)는 제 1 비주얼 오브젝트(11-1)에 대한 터치 입력이 인식되거나, 제 2 비주얼 오브젝트(11-2)에 대한 터치 입력이 인식되는 경우, 동일한 어플리케이션 또는 기능을 실행할 수 있다.
도 4는 일 실시예에 따른 디바이스의 전면 또는 후면에 두번의 터치 입력을 인식하는 디지털 디바이스를 나타낸다. 즉, 도 4는 제 1 레퍼런스 위치가 제 1 터치 위치인 경우의 실시예를 나타낸다.
이하에서는 프로세서의 동작을 중심으로 이를 상세히 설명하도록 한다.
도 4를 참조하면, 전면 터치 센서 유닛 또는 후면 터치 센서 유닛에 대한 제 1 터치 입력 및 제 2 터치 입력이 센싱된 경우, 프로세서는 센싱 결과를 이용하여 제 1 터치 위치 및 제 2 터치 위치를 획득할 수 있다. 여기서, 제 1 터치 위치 및 제 2 터치 위치는 각각 제 1 터치 입력으로부터 인식된 터치 좌표 및 제 2 터치 입력으로부터 인식된 터치 좌표일 수 있다.
나아가, 전면 터치 센서 유닛 또는 후면 터치 유닛에 대한 제 1 터치 입력 및 제 2 터치 입력이 센싱된 경우, 프로세서는 센싱 결과를 이용하여 제 1 터치 면적(area) 및 제 2 터치 면적을 추가적으로 획득하고, 제 1 터치 면적 및 제 2 터치 면적이 면적-스레시홀드(threshold) 이상인지 여부를 판단할 수 있다. 이때, 후면 터치 센서 유닛에 대한 면적-스레시홀드는 전면 터치 센서 유닛에 대한 면적-스레시홀드보다 높게 설정될 수 있다. 또한, 제 1 터치 면적 및 제 2 터치 면적이 각각 면적-스레시홀드 이상인 경우, 프로세서는 제 1 터치 입력 및 제 2 터치 입력 각각을 유효한 터치 입력으로 인식할 수 있다.
또한, 프로세서는 제 1 터치 위치 및 제 2 터치 위치 간의 거리(21,31)를 획득하고, 획득된 제 1 터치 위치 및 제 2 터치 위치 간의 거리(21,31)가 유효 인식 거리(22,32) 이내인지 여부를 판단할 수 있다. 이하에서, 제 1 터치 위치 및 제 2 터치 위치 간의 거리(21,22)는 더블 터치 거리로 약칭될 수 있다.
여기서, 유효 인식 거리는 두번의 터치가 하나의 유효한 더블 터치 제스처로 인식되기 위해 요구되는 최대(maxium) 더블 터치 거리를 의미한다. 즉, 더블 터치 거리가 유효 인식 거리 내인 경우, 프로세서는 두번의 터치를 하나의 유효한 더블 터치 제스처로 인식할 수 있다. 이러한, 유효 인식 거리는 디지털 디바이스의 제조 단계에 의해 설정되거나, 사용자에 의해 설정될 수 있다. 이때, 도 4에 도시된 바와 같이, 후면 터치 센서 유닛에 대한 유효 인식 거리(32)는 전면 터치 센서 유닛에 대한 유효 인식 거리(22)보다 길게 설정될 수 있다. 이를 통해, 디바이스의 전면에 사용자의 시선이 고정된 상태에서 디바이스의 후면을 터치하는 경우에 발생하는 터치 오차를 보정할 수 있다. 또한, 도 4에서는 제 1 터치 위치를 기준으로 더블 터치 거리가 유효 인식 거리 이내인지 여부를 판단하고 있으나, 제 2 터치 위치를 기준으로 더블 터치 거리가 유효 인식 거리 이내인지 여부를 판단할 수도 있다.
또한, 더블 터치 거리가 유효 인식 거리 내인 경우, 프로세서는 제 1 터치 위치로 인식된 제 1 터치 및 제 2 터치 위치로 인식된 제 2 터치를 하나의 더블 터치 제스처로 인식할 수 있다. 또한, 더블 터치 거리가 유효 인식 거리 외인 경우, 프로세서는 제 1 터치 위치로 인식된 제 1 터치 및 제 2 터치 위치로 인식된 제 2 터치 각각을 별도의 터치 입력으로 인식할 수 있다.
또한, 제 1 터치 및 제 2 터치가 하나의 더블 터치 제스처로 인식된 경우, 프로세서는 비주얼 피드백, 오디오 피드백 또는 택타일 피드백 중 적어도 하나의 피드백을 제공할 수 있다. 예를 들면, 프로세서는 디스플레이 유닛을 이용하여 "더블 터치 제스처 인식"과 같은 텍스트 메시지를 비주얼 피드백으로 제공할 수 있고, 사용자는 시각으로 이를 확인할 수 있다. 다른 예를 들면, 프로세서는 스피커 유닛을 이용하여 "더블 터치 제스처 인식"과 같은 오디오 메시지를 오디오 피드백으로 제공할 수 있고, 사용자는 청각으로 이를 확인할 수 있다. 또 다른 예를 들면, 프로세서는 미세진동 액츄에이터를 이용하여 미세 진동을 택타일 피드백으로 제공할 수 있고, 사용자는 촉각으로 이를 확인할 수 있다.
정리하면, 도 4의 왼쪽에서처럼 전면 터치 센서 유닛에 대한 더블 터치 거리(21)가 유효 인식 거리(22) 이내인 경우 또는 도 4의 오른쪽에서처럼 후면 터치 센서 유닛에 대한 더블 터치 거리(31)가 유효 인식 거리(32) 이내인 경우, 프로세서는 전면 또는 후면에 대한 두번의 터치를 하나의 유효한 더블 터치 제스처로 인식하고, 피드백을 사용자에게 제공할 수 있다. 이때, 디지털 디바이스는 후면 터치 센서 유닛에 대한 유효 인식 거리(32)를 전면 터치 센서 유닛에 대한 유효 인식 거리(22)보다 길게 설정함으로써, 디바이스의 후면을 터치하는 경우에 발생하는 터치 오차를 보정할 수 있다.
나아가, 더블 터치 거리가 유효 인식 거리 내인 경우, 프로세서는 제 1 터치 및 제 2 터치 간의 시간 간격을 더 획득하고, 획득된 제 1 터치 및 제 2 터치 간의 시간 간격이 유효 인식 시간 간격 이내인지 여부를 판단할 수 있다. 이하에서, 제 1 터치 및 제 2 터치 간의 시간 간격은 터치 시간 간격으로 약칭될 수 있다.
여기서, 유효 인식 시간 간격은 특정한 거리 내의 두번의 터치가 하나의 유효한 더블 터치 제스처로 인식되기 위해 요구되는 최대(maxium) 터치 시간 간격을 의미한다. 즉, 터치 시간 간격이 유효 인식 시간 간격 내인 경우, 프로세서는 특정한 거리 내의 두번의 터치를 하나의 유효한 더블 터치 제스처로 인식할 수 있다. 이러한, 유효 인식 시간 간격은 디지털 디바이스의 제조 단계에 의해 설정되거나, 사용자에 의해 설정될 수 있다. 이때, 후면 터치 센서 유닛에 대한 유효 인식 시간 간격은 전면 터치 센서 유닛에 대한 유효 인식 시간 간격과 동일하게 설정될 수 있다. 또한, 후면 터치 센서 유닛에 대한 유효 인식 시간 간격은 전면 터치 센서 유닛에 대한 유효 인식 시간 간격보다 길거나 짧게 설정될 수 있다.
또한, 더블 터치 거리가 유효 인식 거리 내이고 터치 시간 간격이 유효 인식 시간 간격 내인 경우, 프로세서는 제 1 터치 및 제 2 터치를 하나의 더블 터치 제스처로 인식할 수 있다. 또한, 더블 터치 거리가 유효 인식 거리 내이지만 터치 시간 간격이 유효 인식 시간 간격 외인 경우, 프로세서는 제 1 터치 및 제 2 터치 각각을 별도의 터치 입력으로 인식할 수 있다.
도 5는 일 실시예에 따른 비주얼 오브젝트에 대한 터치 입력을 인식하는 디지털 디바이스를 나타내는 도면이다. 즉, 도 5는 제 1 레퍼런스 위치가 비주얼 오브젝트 위치인 경우의 실시예를 나타낸다.
보다 상세하게는, 도 5a는 비주얼 오브젝트가 실행 아이콘인 경우, 비주얼 오브젝트에 대한 터치 입력을 인식하는 디지털 디바이스를 나타내고, 도 5b는 비주얼 오브젝트가 상태 창인 경우, 비주얼 오브젝트에 대한 터치 입력을 인식하는 디지털 디바이스를 나타낸다.
이하에서는 프로세서의 동작을 중심으로 이를 상세히 설명하도록 한다.
도 5a를 참조하면, 프로세서는 디스플레이 유닛(110)을 이용하여 비주얼 오브젝트(11)를 디스플레이할 수 있다. 여기서, 비주얼 오브젝트는 실행 아이콘일 수 있다.
또한, 프로세서는 전면 터치 센서 유닛 또는 상기 후면 터치 센서 유닛에 대한 비주얼 오브젝트 위치를 획득할 수 있다. 일 실시예로서, 프로세서는 전면 터치 센서 유닛 또는 상기 후면 터치 센서 유닛에 대한 터치 입력이 센싱된 이후에, 비주얼 오브젝트 위치를 획득할 수 있다. 다른 실시예로서, 프로세서는 전면 터치 센서 유닛 또는 상기 후면 터치 센서 유닛에 대한 터치 입력이 센싱되기 이전에, 비주얼 오브젝트 위치를 획득할 수 있다.
또한, 전면 터치 센서 유닛 또는 후면 터치 센서 유닛에 대한 터치 입력이 센싱된 경우, 프로세서는 센싱 결과를 이용하여 터치 입력으로부터 터치 위치를 획득할 수 있다. 여기서, 터치 위치는 터치 입력으로부터 인식된 터치 좌표일 수 있다.
나아가, 전면 터치 센서 유닛 또는 후면 터치 센서 유닛에 대한 터치 입력이 센싱된 경우, 프로세서는 터치 입력으로부터 터치 면적(area)을 추가적으로 획득하고, 터치 면적이 면적-스레시홀드(threshold) 이상인지 여부를 판단할 수 있다. 이때, 후면 터치 센서 유닛에 대한 면적-스레시홀드는 전면 터치 센서 유닛에 대한 면적-스레시홀드보다 높게 설정될 수 있다. 또한, 터치 면적이 면적-스레시홀드 이상인 경우, 프로세서는 터치 입력을 유효한 터치 입력으로 인식할 수 있다.
또한, 프로세서는 비주얼 오브젝트 위치 및 터치 위치 간의 거리(41,51)를 획득하고, 획득된 비주얼 오브젝트 위치 및 터치 위치 간의 거리(41,51)가 유효 인식 거리(42,52) 이내인지 여부를 판단할 수 있다. 이하에서, 비주얼 오브젝트 위치 및 터치 위치 간의 거리(41,51)는 싱글 터치 거리로 약칭될 수 있다.
여기서, 유효 인식 거리는 터치 위치로 인식된 터치를 비주얼 오브젝트에 대한 터치 입력으로 인식하기 위해 요구되는 최대(maxium) 싱글 터치 거리를 의미한다. 즉, 싱글 터치 거리가 유효 인식 거리 내인 경우, 프로세서는 터치 위치로 인식된 터치를 비주얼 오브젝트에 대한 터치 입력으로 인식할 수 있다. 이러한, 유효 인식 거리는 디지털 디바이스의 제조 단계에 의해 설정되거나, 사용자에 의해 설정될 수 있다. 이때, 도 5a에도시된 바와 같이, 후면 터치 센서 유닛에 대한 유효 인식 거리(52)는 전면 터치 센서 유닛에 대한 유효 인식 거리(42)보다 길게 설정될 수 있다. 이를 통해, 디지털 디바이스는 디바이스의 전면에 사용자의 시선이 고정된 상태에서 디바이스의 후면을 터치하는 경우에 발생하는 터치 오차를 보정할 수 있다.
또한, 싱글 터치 거리가 유효 인식 거리 내인 경우, 프로세서는 터치 위치로 인식된 터치를 비주얼 오브젝트에 대한 터치 입력으로 인식할 수 있다.
또한, 프로세서는 비주얼 오브젝트에 대응하는 어플리케이션 또는 기능을 실행할 수 있다. 다시 말해, 프로세서는 실행 아이콘에 대응하는 어플리케이션 또는 기능을 실행할 수 있다.
정리하면, 도 5a의 왼쪽에서처럼 전면 터치 센서 유닛에 대한 싱글 터치 거리(41)가 유효 인식 거리(42) 이내인 경우 또는 도 5a의 오른쪽에서처럼 후면 터치 센서 유닛에 대한 싱글 터치 거리(51)가 유효 인식 거리(52) 이내인 경우, 프로세서는 전면 또는 후면에 대한 터치를 실행 아이콘에 대한 터치 입력으로 인식할 수 있다. 그리고, 디지털 디바이스는 실행 아이콘에 대응하는 어플리케이션 또는 기능을 실행할 수 있다. 이때, 디지털 디바이스는 후면 터치 센서 유닛에 대한 유효 인식 거리(52)를 전면 터치 센서 유닛에 대한 유효 인식 거리(42)보다 길게 설정함으로써, 디바이스의 후면을 터치하는 경우에 발생하는 터치 오차를 보정할 수 있다.또한, 도 5a에서는 비주얼 오브젝트 위치를 기준으로 싱글 터치 거리가 유효 인식 거리 이내인지 여부를 판단하고 있으나, 터치 위치를 기준으로 싱글 터치 거리가 유효 인식 거리 이내인지 여부를 판단할 수도 있다.
도 5b를 참조하면, 프로세서는 디스플레이 유닛을 이용하여 비주얼 오브젝트를 디스플레이(11)할 수 있다. 여기서, 비주얼 오브젝트는 상태 창일 수 있다.
또한, 전면 터치 센서 유닛 또는 후면 터치 센서 유닛에 대한 터치 입력이 센싱된 경우, 프로세서는 센싱 결과를 이용하여 터치 입력으로부터 터치 위치를 획득할 수 있다.
또한, 프로세서는 비주얼 오브젝트 위치 및 터치 위치 간의 거리(41,51)를 획득하고, 획득된 비주얼 오브젝트 위치 및 터치 위치 간의 거리(41,51)가 유효 인식 거리(42,52) 이내인지 여부를 판단할 수 있다. 여기서, 도 5b의 왼쪽 위/아래에 도시된 바와 같이, 비주얼 오브젝트 위치 및 터치 위치 간의 거리(41,51)는 상태 창과 터치 위치 간의 수직 거리일 수 있고, 유효 인식 거리(42,52)는 상태 창과 도시된 점선과의 수직 거리일 수 있다. 상술한 바와 같이, 비주얼 오브젝트 위치 및 터치 위치 간의 거리(41,51)는 싱글 터치 거리로 약칭될 수 있고, 유효 인식 거리는 도 5a에서 정의된 의미와 동일하다.
또한, 도 5b의 왼쪽 위에서처럼 전면 터치 센서 유닛에 대한 싱글 터치 거리(41)가 유효 인식 거리(42) 이내인 경우 또는 도 5b의 왼쪽 아래에서처럼 후면 터치 센서 유닛에 대한 싱글 터치 거리(51)가 유효 인식 거리(52) 이내인 경우, 프로세서는 전면 또는 후면에 대한 터치를 상태 창에 대한 터치 입력으로 인식할 수 있다. 이때, 도 5b에 도시된 바와 같이, 디지털 디바이스는 후면 터치 센서 유닛에 대한 유효 인식 거리(52)를 전면 터치 센서 유닛에 대한 유효 인식 거리(42)보다 길게 설정함으로써, 디바이스의 후면을 터치하는 경우에 발생하는 터치 오차를 보정할 수 있다.
또한, 상태 창을 아래로 드래그 하는 터치 제스처가 입력되는 경우, 도 5b의 오른쪽 위/아래에서처럼, 디지털 디바이스는 알림판(60)을 디스플레이 할 수 있다.
도 6은 일 실시예에 따른 복수의 비주얼 오브젝트 중 어느 하나에 대한 터치 입력을 인식하는 디지털 디바이스를 나타내는 도면이다. 즉, 도 6은 제 1 레퍼런스 위치가 비주얼 오브젝트 위치인 경우의 실시예를 나타낸다.
이하에서는 프로세서의 동작을 중심으로 이를 상세히 설명하도록 한다.
도 6a를 참조하면, 프로세서는 디스플레이 유닛을 통해 복수의 비주얼 오브젝트(11-1,11-2)를 디스플레이할 수 있다. 여기서, 비주얼 오브젝트는 실행 아이콘일 수 있다. 이하에서는 편의상, 복수의 비주얼 오브젝트를 제 1 비주얼 오브젝트(11-1) 및 제 2 비주얼 오브젝트(11-2)로 지칭하지만, 복수의 비주얼 오브젝트는 셋 이상의 비주얼 오브젝트를 포함할 수 있다.
또한, 프로세서는 전면 터치 센서 유닛 또는 상기 후면 터치 센서 유닛에 대한 제 1 비주얼 오브젝트 위치 및 제 2 비주얼 오브젝트 위치를 획득할 수 있다. 일 실시예로서, 프로세서는 전면 터치 센서 유닛 또는 상기 후면 터치 센서 유닛에 대한 터치 입력이 센싱된 이후에, 제 1 비주얼 오브젝트 위치 및 제 2 비주얼 오브젝트 위치를 획득할 수 있다. 다른 실시예로서, 프로세서는 전면 터치 센서 유닛 또는 상기 후면 터치 센서 유닛에 대한 터치 입력이 센싱되기 이전에, 제 1 비주얼 오브젝트 위치 및 제 2 비주얼 오브젝트 위치를 획득할 수 있다.
또한, 전면 터치 센서 유닛 또는 후면 터치 센서 유닛을 통해 터치 입력이 센싱된 경우, 프로세서는 센싱 결과를 이용하여 터치 입력으로부터 터치 위치를 획득할 수 있다.
나아가, 전면 터치 센서 유닛 또는 후면 터치 센서 유닛을 통해 터치 입력이 센싱된 경우, 프로세서는 센싱 결과를 이용하여 터치 입력으로부터 터치 면적(area)을 추가적으로 획득하고, 터치 면적이 면적-스레시홀드(threshold) 이상인지 여부를 판단할 수 있다. 이때, 후면 터치 센서 유닛에 대한 면적-스레시홀드는 전면 터치 센서 유닛에 대한 면적-스레시홀드보다 높게 설정될 수 있다. 또한, 터치 인식 면적이 면적-스레시홀드 이상인 경우, 프로세서는 터치 입력을 유효 터치 입력으로 인식할 수 있다.
또한, 프로세서는 제 1 비주얼 오브젝트 위치 및 터치 위치 간의 거리(41-1,51-1)를 획득하고, 획득된 제 1 비주얼 오브젝트 위치 및 터치 위치 간의 거리(41-1,51-1)가 제 1 유효 인식 거리(42-1,52-1) 이내인지 여부를 판단할 수 있다. 또한, 프로세서는 제 2 비주얼 오브젝트 위치 및 터치 위치 간의 거리(41-2,51-2)를 획득하고, 획득된 제 2 비주얼 오브젝트 위치 및 터치 위치 간의 거리(41-2,51-2)가 제 2 유효 인식 거리(42-2,52-2) 이내인지 여부를 판단할 수 있다. 이하에서, 제 1 비주얼 오브젝트 위치 및 터치 위치 간의 거리(41-1,51-1)는 제 1 싱글 터치 거리로 약칭될 수 있고, 제 2 비주얼 오브젝트 위치 및 터치 위치 간의 거리(41-2,51-2)는 제 2 싱글 터치 거리로 약칭될 수 있고, 또한, 제 1 싱글 터치 거리 및 제 2 싱글 터치 거리는 싱글 터치 거리로 통칭될 수 있다.
여기서, 제 1 및 제 2 유효 인식 거리는, 각각 터치 위치로 인식된 터치를 제 1 및 제 2 비주얼 오브젝트에 대한 터치 입력으로 인식하기 위해 요구되는 최대(maxium) 싱글 터치 거리를 의미한다. 이때, 제 1 및 제 2 유효 인식 거리는 동일한 유효 인식 거리로 설정될 수 있다. 이러한, 유효 인식 거리는 디지털 디바이스의 제조 단계에 의해 설정되거나, 사용자에 의해 설정될 수 있다.
이 경우, 디지털 디바이스는 각 비주얼 오브젝트의 위치를 고려하여 전면 또는 후면 터치 센서 유닛에 대한 제 1 및 제 2 유효 인식 거리를 설정할 수 있다. 예를 들면, 디지털 디바이스는 각 비주얼 오브젝트의 위치를 고려하여, 각 비주얼 오브젝트에 대한 터치 입력으로 인식되는 영역이 서로 겹치지 않도록 제 1 유효 인식 거리 및 제 2 유효 인식 거리를 설정할 수 있다. 즉, 디지털 디바이스는, 도 6a의 왼쪽에서처럼각 비주얼 오브젝트의 위치가 서로 멀리 위치하는 경우에, 도 6a의 오른쪽에서처럼 각 비주얼 오브젝트의 위치가 서로 가까이 위치하는 경우보다, 제 1 및 제 2 유효 인식 거리를 더 길게 설정할 수 있다. 또한, 디지털 디바이스는, 도 6a에서처럼 복수의 비주얼 오브젝트를 디스플레이하는 경우에, 도 5a에서처럼 하나의 비주얼 오브젝트를 디스플레이하는 경우보다, 유효 인식 거리를 더 짧게 설정할 수 있다. 이를 통해, 각 비주얼 오브젝트에 대한 터치 입력으로 인식되는 영역이 서로 겹치지 않을 수 있다. 또한, 디지털 디바이스는, 후면 터치 센서 유닛에 대한 제 1 및 제 2 유효 인식 거리를 전면 터치 센서 유닛에 대한 제 1 및 제 2 유효 인식 거리보다 길게 설정할 수 있다. 이를 통해, 디바이스의 전면에 사용자의 시선이 고정된 상태에서 디바이스의 후면을 터치하는 경우에 발생하는 터치 오차를 보정할 수 있다.
또한, 싱글 터치 거리가 유효 인식 거리 내인 비주얼 오브젝트가 존재하는 경우, 프로세서는 터치 위치로 인식된 터치를 해당 비주얼 오브젝트에 대한 터치 입력으로 인식할 수 있다. 예를 들면, 도 6a 왼쪽에서처럼, 제 1 싱글 터치 거리(41-1)가 제 1 유효 인식 거리(42-1) 내이고, 제 2 싱글 터치 거리(41-2)가 제 2 유효 인식 거리(42-2) 내인 경우, 싱글 터치 거리가 유효 인식 거리 내인 제 1 비주얼 오브젝트(11-1)가 존재하므로, 프로세서는 터치 위치로 인식된 터치를 제 1 비주얼 오브젝트(11-1)에 대한 터치 입력으로 인식할 수 있다.
나아가, 싱글 터치 거리가 유효 인식 거리 내인 비주얼 오브젝트가 복수 개 존재할 수도 있는데, 이에 대하여는 도 6b를 참조하여 이하에서 상세히 설명하도록 한다.
또한, 프로세서는 터치 입력이 인식된 비주얼 오브젝트에 대응하는 어플리케이션 또는 기능을 실행할 수 있다.
이하에서는, 도 6b를 참조하여, 싱글 터치 거리가 유효 인식 거리 내인 비주얼 오브젝트가 복수 개 존재하는 경우를 설명한다.
도 6b의 왼쪽에서처럼, 제 1 터치에 대한 싱글 터치 거리가 유효 인식 거리 내인 복수 개의 비주얼 오브젝트(11-1,11-2)가 존재할 수 있다. 즉, 제 1 비주얼 오브젝트 위치 및 제 1 터치 위치 간의 거리가 제 1 유효 인식 거리 내이고, 제 2 비주얼 오브젝트 위치 및 제 2 터치 위치 간의 거리가 제 2 유효 인식 거리 내인 경우가 존재할 수 있다.
이 경우, 프로세서는, 도 6b의 가운데에서처럼, 디스플레이 유닛을 통해 비주얼 피드백을 제공할 수 있다. 즉, 프로세서는 제 1 터치를 하나의 비주얼 오브젝트에 대한 터치 입력으로 인식하기 위한 비주얼 피드백을 제공할 수 있다. 이때, 프로세서는 텍스트 메시지와 함께, 제 1 비주얼 오브젝트 위치와 제 2 비주얼 오브젝트(11-2) 위치를 변경하여 디스플레이하는 비주얼 피드백을 제공할 수 있다. 예를 들면, 프로세서는 디스플레이 유닛을 통해 "실행하려는 비주얼 오브젝트를 다시 터치 하세요"와 같은 텍스트 메시지와 함께, 각 오브젝트가 명확히 구분되도록 제 1 비주얼 오브젝트(11-1)와 제 2 비주얼 오브젝트(11-2)의 위치를 변경하여 디스플레이하는 비주얼 피드백을 제공할 수 있다. 이를 통해, 사용자는 시각으로 이를 확인할 수 있고, 실행하려는 비주얼 오브젝트를 다시 정확히 터치할 수 있게 된다. 나아가, 프로세서는 비주얼 피드백을 제공함과 함께 제 1 유효 인식 거리 및 제 2 유효 인식 거리를 더 길게 재설정할 수 있다.
또한, 도 6b의 오른쪽에서처럼, 실행하려는 제 2 비주얼 오브젝트(11-2)에 대한 제 2 터치 입력이 인식되는 경우, 프로세서는 제 2 터치 입력이 인식된 제 2 비주얼 오브젝트(11-2)에 대응하는 어플리케이션 또는 기능을 실행할 수 있다.
도 6c는 일 실시예에 따른 비주얼 오브젝트가 휴지통 아이콘을 포함하는 경우, 비주얼 오브젝트에 대한 터치 입력을 인식하는 디지털 디바이스를 나타낸다.
도 6c에서처럼, 제 1 비주얼 오브젝트(11-1)은 삭제하려는 실행 아이콘이고, 제 2 비주얼 오브젝트(11-2)는 아이콘을 삭제하는 휴지통 기능을 갖는 휴지통 아이콘 일 수 있다.
이때, 사용자의 터치 입력에 의해 제 1 비주얼 오브젝트(11-1)가 제 2 비주얼 오브젝트(11-2)의 위치로 드래그 된 경우, 프로세서는 제 2 비주얼 오브젝트 위치 및 최종 터치 위치 간의 거리가 유효 인식 거리 내인지 여부를 판단할 수 있다. 여기서, 사용자는 실행 아이콘의 삭제를 위해, 길게 누르는(long press) 터치 제스처를 통해 제 1 비주얼 오브젝트(11-1)를 선택하고, 드래그(drag) 터치 제스처를 통해 선택된 제 1 비주얼 오브젝트(11-1)를 제 2 비주얼 오브젝트(11-2)의 위치로 이동시킬 수 있다.
또한, 제 2 비주얼 오브젝트 위치 및 최종 터치 위치 간의 거리가 유효 인식 거리 내인 경우, 프로세서는 최종 터치 위치로 인식된 터치를 제 2 비주얼 오브젝트(11-2)에 대한 터치 입력으로 인식할 수 있다.
또한, 프로세서는 제 2 비주얼 오브젝트(11-2)에 대응하는 아이콘 삭제 기능을 실행하여 제 2 비주얼 오브젝트(11-2)로 드래그된 제 1 비주얼 오브젝트(11-1)를 삭제할 수 있다. 이때, 디지털 디바이스는 후면 터치 센서 유닛에 대한 유효 인식 거리를 전면 터치 센서 유닛에 대한 유효 인식 거리보다 길게 설정함으로써, 디바이스의 후면을 터치하는 경우에 발생하는 터치 오차를 보정할 수 있다.
도 7은 일 실시예에 따른 디지털 디바이스의 제어 방법의 순서도이다.
도 7을 참조하면, 디지털 디바이스는 전면 터치 센서 유닛 또는 후면 터치 센서 유닛에 대한, 제 1 레퍼런스 위치 및 제 2 터치 위치를 획득할 수 있다(S710). 일 실시예에서, 제 1 레퍼런스 위치는 제 1 터치 위치일 수 있고, 이는 도 8을 참조하여 이하에서 상세히 설명한다. 다른 실시예에서, 제 1 레퍼런스 위치는 비주얼 오브젝트 위치일 수 있고, 이는 도 9을 참조하여 이하에서 상세히 설명한다.
다음으로, 디지털 디바이스는 제 1 레퍼런스 위치 및 제 2 터치 위치 간의 거리를 획득할 수 있다(S720).
다음으로, 디지털 디바이스는 제 1 레퍼런스 위치 및 제 2 터치 위치 간의 거리가 유효 인식 거리(valid recognition distance) 이내인지 여부를 판단할 수 있다(S730). 이때, 도 4 내지 6에서 상술한 바와 같이, 디지털 디바이스는 후면 터치 센서 유닛에 대한 유효 인식 거리를 전면 터치 센서 유닛에 대한 유효 인식 거리보다 길게 설정할 수 있다. 이를 통해, 디바이스의 전면에 사용자의 시선이 고정된 상태에서 디바이스의 후면을 터치하는 경우에 발생하는 터치 오차를 보정할 수 있다.
도 8은 일 실시예에 따른 제 1 레퍼런스 위치가 제 1 터치 위치인 경우, 디지털 디바이스의 제어 방법의 순서도이다.
도 8을 참조하면, 디지털 디바이스는 전면 터치 센서 유닛 또는 후면 터치 센서 유닛에 대한, 제 1 터치 위치 및 제 2 터치 위치를 획득할 수 있다(S810). 이때, 디지털 디바이스는, 도 4에서 상술한 방법을 사용하여, 제 1 터치 위치 및 제 2 터치 위치를 획득할 수 있다.
다음으로, 디지털 디바이스는 제 1 터치 위치 및 제 2 터치 위치 간의 거리를 획득할 수 있다(S820).
다음으로, 디지털 디바이스는 제 1 터치 위치 및 제 2 터치 위치 간의 거리가 유효 인식 거리(valid recognition distance) 이내인지 여부를 판단할 수 있다(S830). 여기서, 유효 인식 거리는, 도 4에서 상술한 바와 같이, 두번의 터치가 하나의 유효한 더블 터치 제스처로 인식되기 위해 요구되는 최대(maxium) 더블 터치 거리를 의미한다. 이러한, 유효 인식 거리는 디지털 디바이스의 제조 단계에 의해 설정되거나, 사용자에 의해 설정될 수 있다. 이때, 디지털 디바이스는 후면 터치 센서 유닛에 대한 유효 인식 거리를 전면 터치 센서 유닛에 대한 유효 인식 거리보다 길게 설정할 수 있다. 이를 통해, 디바이스의 전면에 사용자의 시선이 고정된 상태에서 디바이스의 후면을 터치하는 경우에 발생하는 터치 오차를 보정할 수 있다.
다음으로, 제 1 터치 위치 및 제 2 터치 위치 간의 거리가 유효 인식 거리 내인 경우, 디지털 디바이스는 제 1 터치 위치로 인식된 제 1 터치 및 제 2 터치 위치로 인식된 제 2 터치를 하나의 더블 터치 제스처로 인식할 수 있다(S840). 또한, 터치 인식 거리가 유효 인식 거리 외인 경우, 디지털 디바이스는 제 1 터치 위치로 인식된 제 1 터치 및 제 2 터치 위치로 인식된 제 2 터치 각각을 별도의 터치 입력으로 인식할 수 있다(S850).
다음으로, 제 1 터치 및 제 2 터치가 하나의 더블 터치 제스처로 인식된 경우, 프로세서는, 도 4에서 상술한 바와 같이, 비주얼 피드백, 오디오 피드백 또는 택타일 피드백 중 적어도 하나의 피드백을 제공할 수 있다.
나아가, 터치 인식 거리가 유효 인식 거리 내인 경우, 디지털 디바이스는, 도 4에서 상술한 바와 같이, 제 1 터치 및 제 2 터치 간의 시간 간격을 더 획득하고, 획득된 제 1 터치 및 제 2 터치 간의 시간 간격이 유효 인식 시간 간격 이내인지 여부를 판단할 수 있다. 또한, 제 1 터치 및 제 2 터치 간의 시간 간격이 유효 인식 시간 간격 내인 경우, 디지털 디바이스는 제 1 터치 및 제 2 터치를 하나의 더블 터치 제스처로 인식할 수 있다. 또한, 제 1 터치 및 제 2 터치 간의 시간 간격이 유효 인식 시간 간격 외인 경우, 터치 인식 거리가 유효 인식 거리 내인 경우일지라도, 디지털 디바이스는 제 1 터치 및 제 2 터치 각각을 별도의 터치 입력으로 인식할 수 있다. 이때, 디지털 디바이스는 후면 터치 센서 유닛에 대한 유효 인식 시간 간격을 전면 터치 센서 유닛에 대한 유효 인식 시간 간격과 동일하게 설정할 수 있다.
도 9는 일 실시예에 따른 제 1 레퍼런스 위치가 비주얼 오브젝트 위치인 경우, 디지털 디바이스의 제어 방법의 순서도이다.
도 9를 참조하면, 디지털 디바이스는 전면 터치 센서 유닛 또는 후면 터치 센서 유닛에 대한, 비주얼 오브젝트 위치 및 제 2 터치 위치를 획득할 수 있다(S910). 여기서, 비주얼 오브젝트는 실행 아이콘 또는 상태 창일 수 있다. 이때, 디지털 디바이스는, 도 5 내지 6에서 상술한 방법을 사용하여, 비주얼 오브젝트 위치 및 제 2 터치 위치를 획득할 수 있다.
다음으로, 디지털 디바이스는 비주얼 오브젝트 위치 및 제 2 터치 위치 간의 거리를 획득할 수 있다(S920).
다음으로, 디지털 디바이스는 비주얼 오브젝트 위치 및 제 2 터치 위치 간의 거리가 유효 인식 거리(valid recognition distance) 이내인지 여부를 판단할 수 있다(S930). 여기서, 유효 인식 거리는, 도 5 내지 도 6에서 상술한 바와 같이, 터치 위치로 인식된 터치를 비주얼 오브젝트에 대한 터치 입력으로 인식하기 위해 요구되는 최대(maxium) 싱글 터치 거리를 의미한다. 이러한, 유효 인식 거리는 디지털 디바이스의 제조 단계에 의해 설정되거나, 사용자에 의해 설정될 수 있다. 이때, 디지털 디바이스는 후면 터치 센서 유닛에 대한 유효 인식 거리를 전면 터치 센서 유닛에 대한 유효 인식 거리보다 길게 설정할 수 있다. 이를 통해, 디바이스의 전면에 사용자의 시선이 고정된 상태에서 디바이스의 후면을 터치하는 경우에 발생하는 터치 오차를 보정할 수 있다.
다음으로, 비주얼 오브젝트 위치 및 제 2 터치 위치 간의 거리가 유효 인식 거리 내인 경우, 디지털 디바이스는 터치 위치로 인식된 터치를 비주얼 오브젝트에 대한 터치 입력으로 인식할 수 있다(S940). 이때, 디지털 디바이스는 도 5 내지 도 6에서 상술한 방법을 사용하여, 터치 위치로 인식된 터치를 비주얼 오브젝트에 대한 터치 입력으로 인식할 수 있다.
다음으로, 사용자의 터치를 비주얼 오브젝트에 대한 터치 입력으로 인식하는 경우, 디지털 디바이스는 비주얼 오브젝트에 대응하는 어플리케이션 또는 기능을 실행할 수 있다. 이때, 디지털 디바이스는, 도 5 내지 도 6에서 상술한 바와 같이 비주얼 오브젝트에 대응하는 어플리케이션 또는 기능을 실행할 수 있다.
나아가, 설명의 편의를 위하여 각 도면을 나누어 설명하였으나, 각 도면에 서술되어 있는 실시예들을 병합하여 새로운 실시예를 구현하도록 설계하는 것도 가능하다. 그리고, 당업자의 필요에 따라, 이전에 설명된 실시예들을 실행하기 위한 프로그램이 기록되어 있는 컴퓨터에서 판독 가능한 기록 매체를 설계하는 것도 본 발명의 권리범위에 속한다.
본 명세서에 따른 디지털 디바이스 및 그 제어 방법은 상기한 바와 같이 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시 예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.
한편, 본 명세서의 디지털 디바이스 및 그 제어 방법은 네트워크 디바이스에 구비된 프로세서가 읽을 수 있는 기록매체에 프로세서가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 프로세서가 읽을 수 있는 기록매체는 프로세서에 의해 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 프로세서가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, 자기테이프, 플로피디스크, 광 데이터 저장 장치 등이 있으며, 또한, 인터넷을 통한 전송 등과 같은 캐리어 웨이브의 형태로 구현되는 것도 포함한다. 또한, 프로세서가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 프로세서가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
또한, 이상에서는 본 명세서의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 명세서는 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 명세서의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형 실시들은 본 명세서의 기술적 사상이나 전망으로부터 개별적으로 이해돼서는 안될 것이다.
그리고 당해 명세서에서는 물건 발명과 방법 발명이 모두 설명되고 있으며, 필요에 따라 양 발명의 설명은 보충적으로 적용될 수 있다.
11 : 비주얼 오브젝트
100 : 디지털 디바이스
110 : 디스플레이 유닛

Claims (20)

  1. 디지털 디바이스에 있어서,
    적어도 하나의 비주얼 오브젝트를 디스플레이하는 디스플레이 유닛;
    상기 디지털 디바이스의 전면에 대한 터치 입력을 센싱하는 전면 터치 센서 유닛;
    상기 디지털 디바이스의 후면에 대한 터치 입력을 센싱하는 후면 터치 센서 유닛; 및
    상기 디스플레이 유닛, 상기 전면 터치 센서 유닛 및 상기 후면 터치 센서 유닛을 제어하는 프로세서를 포함하고,
    상기 프로세서는,
    상기 전면 터치 센서 유닛 또는 상기 후면 터치 센서 유닛에 대한, 제 1 레퍼런스 위치 및 제 2 터치 위치를 획득하고,
    상기 제 1 레퍼런스 위치 및 상기 제 2 터치 위치 간의 거리(distance)를 획득하고,
    상기 제 1 레퍼런스 위치 및 상기 제 2 터치 위치 간의 거리가 유효 인식 거리(valid recognition distance) 이내인지 여부를 판단하되,
    상기 후면 터치 센서 유닛에 대한 유효 인식 거리는 상기 전면 터치 센서 유닛에 대한 유효 인식 거리보다 긴, 디지털 디바이스.
  2. 제 1항에 있어서,
    상기 제 1 레퍼런스 위치는 제 1 터치 위치이고,
    상기 프로세서는,
    상기 1 레퍼런스 위치 및 상기 제 2 터치 위치 간의 거리가 상기 유효 인식 거리 내인 경우, 상기 제 1 터치 위치로 인식된 제 1 터치 및 상기 제 2 터치 위치로 인식된 제 2 터치를 하나의 더블 터치 제스처로 인식하고,
    상기 1 레퍼런스 위치 및 상기 제 2 터치 위치 간의 거리가 상기 유효 인식 거리 외인 경우, 상기 제 1 터치 및 상기 제 2 터치 각각을 별도의 터치 입력으로 인식하는, 디지털 디바이스.
  3. 제 2항에 있어서,
    상기 프로세서는,
    상기 1 레퍼런스 위치 및 상기 제 2 터치 위치 간의 거리가 유효 인식 거리 내인 경우, 상기 제 1 터치 및 상기 제 2 터치의 시간 간격(time interval)을 획득하고, 상기 시간 간격이 유효 인식 시간 간격(valid recognition time interval) 이내인지 여부를 판단하되,
    상기 시간 간격이 유효 인식 시간 간격 내인 경우, 상기 제 1 터치 및 제 2 터치를 하나의 더블 터치 제스처로 인식하고,
    상기 시간 간격이 유효 인식 시간 간격 외인 경우, 상기 제 1 터치 및 제 2 터치 각각을 별도의 터치 입력으로 인식하는, 디지털 디바이스.
  4. 제 3항에 있어서,
    상기 후면 터치 센서 유닛에 대한 유효 인식 시간 간격은 상기 전면 터치 센서 유닛에 대한 유효 인식 시간 간격과 동일한, 디지털 디바이스.
  5. 제 1항에 있어서,
    상기 제 1 레퍼런스 위치는 제 1 비주얼 오브젝트의 위치이고,
    상기 프로세서는,
    상기 1 레퍼런스 위치 및 상기 제 2 터치 위치 간의 거리가 유효 인식 거리 내인 경우, 상기 제 2 터치 위치로 인식된 제 2 터치를 상기 제 1 비주얼 오브젝트에 대한 터치 입력으로 인식하는, 디지털 디바이스.
  6. 제 1항에 있어서,
    상기 제 1 레퍼런스 위치는 제 1 비주얼 오브젝트의 위치이고,
    상기 프로세서는,
    상기 전면 터치 센서 유닛 또는 상기 후면 터치 센서 유닛에 대한, 제 2 레퍼런스 위치를 더 획득하고 -상기 제 2 레퍼런스 위치는 제 2 비주얼 오브젝트의 위치임-,
    상기 제 2 레퍼런스 위치 및 상기 제 2 터치 위치 간의 거리(distance)를 더 획득하고,
    상기 제 1 레퍼런스 위치 및 상기 제 2 터치 위치 간의 거리가 제 1 유효 인식 거리 이내인지 여부를 판단하고, 상기 제 2 레퍼런스 위치 및 상기 제 2 터치 위치 간의 거리가 제 2 유효 인식 거리 이내인지 여부를 판단하되,
    상기 제 1 레퍼런스 위치 및 상기 제 2 터치 위치 간의 거리가 제 1 유효 인식 거리 내인 경우, 상기 제 2 터치 위치로 인식된 제 2 터치를 상기 제 1 비주얼 오브젝트에 대한 터치 입력으로 인식하고,
    상기 제 2 레퍼런스 위치 및 상기 제 2 터치 위치 간의 거리가 제 2 유효 인식 거리 내인 경우, 상기 제 2 터치 위치로 인식된 제 2 터치를 상기 제 2 비주얼 오브젝트에 대한 터치 입력으로 인식하는, 디지털 디바이스.
  7. 제 6항에 있어서,
    상기 제 1 유효 인식 거리 및 상기 제 2 유효 인식 거리는 동일한 유효 인식 거리인, 디지털 디바이스.
  8. 제 6항에 있어서,
    상기 프로세서는,
    상기 제 1 비주얼 오브젝트 및 상기 제 2 비주얼 오브젝트의 위치를 고려하여, 상기 제 1 유효 인식 거리 및 상기 제 2 유효 인식 거리를 설정하는, 디지털 디바이스.
  9. 제 6항에 있어서,
    상기 프로세서는,
    상기 제 1 레퍼런스 위치 및 상기 제 2 터치 위치 간의 거리가 제 1 유효 인식 거리 내이고, 상기 제 2 레퍼런스 위치 및 상기 제 2 터치 위치 간의 거리가 제 2 유효 인식 거리 내인 경우, 상기 제 2 터치를 하나의 비주얼 오브젝트에 대한 터치 입력으로 인식하기 위한 비주얼 피드백을 제공하는, 디지털 디바이스.
  10. 제 1항에 있어서,
    상기 프로세서는,
    상기 전면 터치 센서 유닛 또는 상기 후면 터치 센서 유닛에 대한, 상기 터치 입력으로부터 터치 면적(area)을 획득하고,
    상기 터치 면적이 면적-스레시홀드(threshold) 이상인지 여부를 판단하되,
    상기 후면 터치 센서 유닛에 대한 면적-스레시홀드는 상기 전면 터치 센서 유닛에 대한 면적-스레시홀드보다 높은, 디지털 디바이스.
  11. 제 7항에 있어서,
    상기 프로세서는,
    상기 터치 면적이 면적-스레시홀드 이상인 경우, 상기 터치 입력을 유효 터치로 인식하는, 디지털 디바이스.
  12. 제 1항에 있어서,
    상기 전면 터치 센서 유닛 및 상기 후면 터치 센서 유닛은 하나의 센서 유닛으로 구성되는, 디지털 디바이스.
  13. 전면 터치 센서 유닛 또는 후면 터치 센서 유닛에 대한, 제 1 레퍼런스 위치 및 제 2 터치 위치를 획득하는 단계;
    상기 제 1 레퍼런스 위치 및 상기 제 2 터치 위치 간의 거리를 획득하는 단계; 및
    상기 제 1 레퍼런스 위치 및 상기 제 2 터치 위치 간의 거리가 유효 인식 거리(valid recognition distance) 이내인지 여부를 판단하는 단계를 포함하며,
    상기 후면 터치 센서 유닛에 대한 유효 인식 거리는 상기 전면 터치 센서 유닛에 대한 유효 인식 거리보다 긴, 디지털 디바이스의 제어 방법.
  14. 제 13항에 있어서,
    상기 제 1 레퍼런스 위치는 제 1 터치 위치이고,
    상기 1 레퍼런스 위치 및 상기 제 2 터치 위치 간의 거리가 유효 인식 거리 내인 경우, 상기 1 터치 위치로 인식된 제 1 터치 및 상기 제 2 터치 위치로 인식된 제 2 터치를 하나의 더블 터치 제스처로 인식하고,
    상기 1 레퍼런스 위치 및 상기 제 2 터치 위치 간의 거리가 유효 인식 거리 외인 경우, 상기 제 1 터치 및 상기 제 2 터치 각각을 별도의 터치 입력으로 인식하는, 디지털 디바이스의 제어 방법.
  15. 제 14항에 있어서,
    상기 1 레퍼런스 위치 및 상기 제 2 터치 위치 간의 거리가 유효 인식 거리 내인 경우, 상기 제 1 터치 및 상기 제 2 터치의 시간 간격을 획득하고, 상기 시간 간격이 유효 인식 시간 간격 이내인지 여부를 판단하는 단계;를 더 포함하며,
    상기 시간 간격(interval)이 유효 인식 시간 간격 내인 경우, 상기 제 1 터치 및 제 2 터치를 하나의 더블 터치 제스처로 인식하고,
    상기 시간 간격(interval)이 유효 인식 시간 간격 외인 경우, 상기 제 1 터치 및 제 2 터치 각각을 별도의 터치 입력으로 인식하는, 디지털 디바이스의 제어 방법.
  16. 제 15항에 있어서,
    상기 후면 터치 센서 유닛에 대한 유효 인식 시간 간격은 상기 전면 터치 센서 유닛에 대한 유효 인식 시간 간격과 동일한, 디지털 디바이스의 제어 방법.
  17. 제 13항에 있어서,
    상기 제 1 레퍼런스 위치는 상기 비주얼 오브젝트이고,
    상기 1 레퍼런스 위치 및 상기 제 2 터치 위치 간의 거리가 유효 인식 거리 내인 경우, 상기 제 2 터치 위치로 인식된 제 2 터치를 상기 비주얼 오브젝트에 대한 터치 입력으로 인식하는, 디지털 디바이스의 제어 방법.
  18. 디지털 디바이스에 있어서,
    비주얼 오브젝트를 디스플레이하는 디스플레이 유닛;
    상기 디지털 디바이스의 전면에 대한 터치 입력을 센싱하는 전면 터치 센서 유닛;
    상기 디지털 디바이스의 후면에 대한 터치 입력을 센싱하는 후면 터치 센서 유닛; 및
    상기 디스플레이 유닛, 상기 전면 터치 센서 유닛 및 상기 후면 터치 센서 유닛을 제어하는 프로세서를 포함하고,
    상기 프로세서는,
    상기 전면 터치 센서 유닛 또는 상기 후면 터치 센서 유닛 중 하나의 센서 유닛에 대한 제 1 터치 및 제 2 터치의, 위치 및 시간에 따라서 상기 제 1 터치 입력 및 상기 제 2 터치 입력을 하나의 더블 터치 제스처로 인식하되,
    상기 제 1 터치 및 제 2 터치의 위치 간의 거리가 유효 인식 거리 이내이고,
    상기 제 1 터치 및 제 2 터치의 시간 간격이 유효 인식 시간 간격 이내인 경우로,
    상기 후면 터치 센서 유닛에 대한 유효 인식 거리는 상기 전면 터치 센서 유닛에 대한 유효 인식 거리보다 긴, 디지털 디바이스.
  19. 제 18항에 있어서,
    상기 후면 터치 센서 유닛에 대한 유효 인식 시간 간격은 상기 전면 터치 센서 유닛에 대한 유효 인식 시간 간격과 동일한, 디지털 디바이스.
  20. 제 18항에 있어서,
    상기 전면 터치 센서 유닛 및 상기 후면 터치 센서 유닛은 하나의 센서 유닛으로 구성되는, 디지털 디바이스.
KR1020130116199A 2013-09-30 2013-09-30 디지털 디바이스 및 그 제어 방법 KR102165445B1 (ko)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1020130116199A KR102165445B1 (ko) 2013-09-30 2013-09-30 디지털 디바이스 및 그 제어 방법
US14/168,455 US9927914B2 (en) 2013-09-30 2014-01-30 Digital device and control method thereof
CN201480053426.1A CN105579945B (zh) 2013-09-30 2014-02-20 数字设备及其控制方法
PCT/KR2014/001362 WO2015046683A1 (en) 2013-09-30 2014-02-20 Digital device and control method thereof
EP14849237.4A EP3053015B1 (en) 2013-09-30 2014-02-20 Digital device and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130116199A KR102165445B1 (ko) 2013-09-30 2013-09-30 디지털 디바이스 및 그 제어 방법

Publications (2)

Publication Number Publication Date
KR20150037026A true KR20150037026A (ko) 2015-04-08
KR102165445B1 KR102165445B1 (ko) 2020-10-14

Family

ID=52739677

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130116199A KR102165445B1 (ko) 2013-09-30 2013-09-30 디지털 디바이스 및 그 제어 방법

Country Status (5)

Country Link
US (1) US9927914B2 (ko)
EP (1) EP3053015B1 (ko)
KR (1) KR102165445B1 (ko)
CN (1) CN105579945B (ko)
WO (1) WO2015046683A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023132643A1 (en) * 2022-01-05 2023-07-13 Samsung Electronics Co., Ltd. Method and electronic device for providing control functionality of display

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101459552B1 (ko) * 2013-06-19 2014-11-07 주식회사 케이티 디바이스의 레이아웃 영역에 객체를 표시하는 방법 및 디바이스
US10089786B2 (en) * 2013-08-19 2018-10-02 Qualcomm Incorporated Automatic customization of graphical user interface for optical see-through head mounted display with user interaction tracking
US20160026281A1 (en) * 2014-07-25 2016-01-28 Hannstar Display (Nanjing) Corporation Shadeless touch hand-held electronic device and computer-executed method
JP2018028804A (ja) * 2016-08-18 2018-02-22 株式会社デンソーテン 入力制御装置、入力制御方法、入力制御プログラムおよび入力制御システム
US10908720B2 (en) * 2018-05-21 2021-02-02 Yungu (Gu'an) Technology Co., Ltd. Display device

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100078234A (ko) * 2008-12-30 2010-07-08 삼성전자주식회사 듀얼 터치 센서를 이용하여 제어 신호를 입력하는 장치 및 방법
US20100188353A1 (en) * 2009-01-23 2010-07-29 Samsung Electronics Co., Ltd. Mobile terminal having dual touch screen and method of controlling content therein
US20100277439A1 (en) * 2009-04-30 2010-11-04 Motorola, Inc. Dual Sided Transparent Display Module and Portable Electronic Device Incorporating the Same
US20110157053A1 (en) * 2009-12-31 2011-06-30 Sony Computer Entertainment Europe Limited Device and method of control
EP2341418A1 (en) * 2009-12-31 2011-07-06 Sony Computer Entertainment Europe Limited Device and method of control
KR20120006187A (ko) * 2010-07-12 2012-01-18 엘지전자 주식회사 이동단말기 및 그 제어방법
US20130181930A1 (en) * 2010-09-27 2013-07-18 Sony Computer Entertainment Inc. Information processing device

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101077854B1 (ko) 2008-05-22 2011-10-31 (주)멜파스 복수의 접촉 입력을 감지하는 방법 및 장치
KR101520689B1 (ko) * 2008-10-22 2015-05-21 엘지전자 주식회사 이동 단말기 및 이를 이용한 화면 스크롤 방법
US9092135B2 (en) * 2010-11-01 2015-07-28 Sony Computer Entertainment Inc. Control of virtual object using device touch interface functionality
JP5917805B2 (ja) * 2011-01-05 2016-05-18 ソニー株式会社 情報処理装置、情報処理方法およびコンピュータプログラム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100078234A (ko) * 2008-12-30 2010-07-08 삼성전자주식회사 듀얼 터치 센서를 이용하여 제어 신호를 입력하는 장치 및 방법
US20100188353A1 (en) * 2009-01-23 2010-07-29 Samsung Electronics Co., Ltd. Mobile terminal having dual touch screen and method of controlling content therein
KR20100086639A (ko) * 2009-01-23 2010-08-02 삼성전자주식회사 듀얼 터치 스크린을 구비한 휴대 단말기 및 그 컨텐츠 제어방법
US20100277439A1 (en) * 2009-04-30 2010-11-04 Motorola, Inc. Dual Sided Transparent Display Module and Portable Electronic Device Incorporating the Same
US20110157053A1 (en) * 2009-12-31 2011-06-30 Sony Computer Entertainment Europe Limited Device and method of control
EP2341418A1 (en) * 2009-12-31 2011-07-06 Sony Computer Entertainment Europe Limited Device and method of control
KR20120006187A (ko) * 2010-07-12 2012-01-18 엘지전자 주식회사 이동단말기 및 그 제어방법
US20130181930A1 (en) * 2010-09-27 2013-07-18 Sony Computer Entertainment Inc. Information processing device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023132643A1 (en) * 2022-01-05 2023-07-13 Samsung Electronics Co., Ltd. Method and electronic device for providing control functionality of display

Also Published As

Publication number Publication date
EP3053015B1 (en) 2019-06-12
KR102165445B1 (ko) 2020-10-14
CN105579945A (zh) 2016-05-11
US9927914B2 (en) 2018-03-27
US20150091877A1 (en) 2015-04-02
EP3053015A4 (en) 2017-06-14
CN105579945B (zh) 2019-07-05
WO2015046683A1 (en) 2015-04-02
EP3053015A1 (en) 2016-08-10

Similar Documents

Publication Publication Date Title
US20210191582A1 (en) Device, method, and graphical user interface for a radial menu system
KR102020345B1 (ko) 터치스크린을 구비하는 단말에서 홈 화면의 구성 방법 및 장치
US9965033B2 (en) User input method and portable device
KR102058990B1 (ko) 모바일 디바이스 및 그 제어 방법
AU2013276998B2 (en) Mouse function provision method and terminal implementing the same
EP2940572A1 (en) Method and electronic device for managing display objects
KR102021048B1 (ko) 사용자 입력을 제어하기 위한 방법 및 그 전자 장치
JP5837955B2 (ja) 電子装置の機能の実行方法及びその電子装置
US11086497B2 (en) Electronic apparatus and notification displaying method for electronic apparatus
US11112959B2 (en) Linking multiple windows in a user interface display
US11824898B2 (en) User interfaces for managing a local network
KR102165445B1 (ko) 디지털 디바이스 및 그 제어 방법
US10019148B2 (en) Method and apparatus for controlling virtual screen
CN108228024A (zh) 一种应用控制的方法、终端及计算机可读介质
US9691270B1 (en) Automatically configuring a remote control for a device
US20140165011A1 (en) Information processing apparatus
KR102376183B1 (ko) 오디오 공유를 위한 방법들 및 사용자 인터페이스들
EP3407174B1 (en) Method and apparatus for operating a plurality of objects on pressure touch-control screen
KR102160105B1 (ko) 사용자 인터페이스를 제공하는 방법 및 장치
TWI483175B (zh) 資料分享系統及其資料分享方法
KR102086676B1 (ko) 유저 인터페이스를 통한 입력 처리 장치 및 방법
KR101371524B1 (ko) 원격 접속 제어용 마우스 장치
KR20120134469A (ko) 움직임 감지장치를 이용한 휴대 단말의 포토 앨범 이미지 표시 방법 및 장치
JP2015153239A (ja) 携帯端末装置、表示方法およびプログラム

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant