KR20140140759A - 터치스크린을 구비하는 디바이스에서 화면 표시 방법 및 장치 - Google Patents

터치스크린을 구비하는 디바이스에서 화면 표시 방법 및 장치 Download PDF

Info

Publication number
KR20140140759A
KR20140140759A KR1020130061534A KR20130061534A KR20140140759A KR 20140140759 A KR20140140759 A KR 20140140759A KR 1020130061534 A KR1020130061534 A KR 1020130061534A KR 20130061534 A KR20130061534 A KR 20130061534A KR 20140140759 A KR20140140759 A KR 20140140759A
Authority
KR
South Korea
Prior art keywords
item
input
auxiliary area
touch
change input
Prior art date
Application number
KR1020130061534A
Other languages
English (en)
Other versions
KR102120651B1 (ko
Inventor
김경태
이창호
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020130061534A priority Critical patent/KR102120651B1/ko
Priority to US14/283,500 priority patent/US9886741B2/en
Priority to EP14169898.5A priority patent/EP2808776A3/en
Publication of KR20140140759A publication Critical patent/KR20140140759A/ko
Application granted granted Critical
Publication of KR102120651B1 publication Critical patent/KR102120651B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/04164Connections between sensors and controllers, e.g. routing lines between electrodes and connection pads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04805Virtual magnifying lens, i.e. window or frame movable on top of displayed information to enlarge it for better reading or selection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

본 발명은 터치스크린을 구비하는 디바이스에서 화면 표시 방법 및 장치에 관한 것으로, 본 발명의 터치스크린을 구비하는 디바이스에서 화면 표시 방법은 상기 터치스크린에 적어도 하나의 아이템을 표시하는 단계, 상기 표시된 적어도 하나의 아이템 중 임의의 아이템을 선택하기 위한 터치 입력 감지 시, 상기 아이템에 대한 보조 영역을 표시할 필요가 있는지 판단하는 단계, 및 필요 시, 선택된 아이템에 대응되는 아이템 관련 정보를 적어도 하나의 보조 영역에 표시하는 단계를 포함하는 것을 특징으로 한다.

Description

터치스크린을 구비하는 디바이스에서 화면 표시 방법 및 장치{METHOD AND APPARATUS FOR DISPLAYING A SEEN IN A DEVICE COMPRISING A TOUCH SCREEN}
본 발명은 화면 표시 방법에 관한 것으로, 보다 구체적으로 터치스크린을 구비하는 디바이스에서 화면을 표시하는 방법 및 장치에 관한 것이다.
최근 휴대 단말기는 전자수첩 기능, 게임 기능, 스케줄 관리 기능 등과 같은 다양한 부가 서비스를 제공할 수 있도록 하는 멀티미디어 기기로 발전하는 추세에 있다. 상기와 같이 휴대 단말기가 다양한 부가 서비스를 제공함에 따라 다양한 종류의 부가 서비스를 보다 편리하게 관리하고 이용할 수 있는 사용자 인터페이스는 필수적이다.
일반적으로 모바일 브라우저(mobile browser)에서는 특정 아이템 터치 시, 선택된 아이템이 무엇인지 보여주기 위해 포커스 링(focus ring)으로 선택된 아이템을 표시한다. 그런데 모바일 기기의 해상도가 고해상도로 발전함에 따라, 동일한 줌 배율에도 기존보다 더 작은 영역에 내용이 디스플레이 되고 있다. 이에 따라, 선택하고자 하는 아이템이 사용자 손가락과 같은 터치 객체에 가려 안 보이는 경우가 발생할 수 있다.
이 경우, 줌(zoom) 배율을 확대하여 아이템의 크기를 확대할 수 있지만, 이를 위해 줌(zoom) 배율을 확대시키기 위한 부가적인 사용자 동작이 필요하다는 문제점이 있다.
본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것으로서, 터치스크린을 구비하는 디바이스에서 특정 아이템 선택 시 상기 선택된 아이템이 터치 객체에 의해 가려지는 경우, 선택된 아이템에 대응되는 아이템 관련 정보를 별도로 표시하는 화면 표시 방법 및 장치를 제공하는 것을 그 목적으로 한다.
또한, 본 발명은 사용자가 아이템을 잘못 선택한 경우, 원하는 아이템으로 용이하게 선택을 변경하는 방법 및 장치를 제공하는 것을 또 다른 목적으로 한다.
상기와 같은 문제점을 해결하기 위한 본 발명의 터치스크린을 구비하는 디바이스에서 화면 표시 방법은 상기 터치스크린에 적어도 하나의 아이템을 표시하는 단계, 상기 표시된 적어도 하나의 아이템 중 임의의 아이템을 선택하기 위한 터치 입력 감지 시, 상기 아이템에 대한 보조 영역을 표시할 필요가 있는지 판단하는 단계, 및 필요 시, 선택된 아이템을 적어도 하나의 보조 영역에 표시하는 단계를 포함하는 것을 특징으로 한다.
또한, 본 발명의 터치스크린을 구비하는 디바이스는 사용자로부터 터치 입력을 수신하거나 또는 적어도 하나의 아이템을 표시하는 터치스크린, 및 상기 표시된 적어도 하나의 아이템 중 임의의 아이템을 선택하기 위한 터치 입력 감지 시 상기 아이템에 대한 보조 영역을 표시할 필요가 있는지 판단하고, 필요 시 선택된 아이템을 적어도 하나의 보조 영역에 표시하도록 제어하는 제어부를 포함하는 것을 특징으로 한다.
본 발명에 따르면, 아이템을 선택하는 경우 사용자가 선택한 아이템에 대응되는 아이템 관련 정보를 별도의 보조 영역을 통해 확인할 수 있으므로 사용자 편의성이 증대될 수 있다. 또한, 본 발명에 따르면 사용자가 아이템을 잘못 선택한 경우, 원하는 아이템으로 용이하게 선택을 변경할 수 있으므로 잘못된 터치에 의한 오동작을 방지할 수 있다.
도 1은 사용자가 선택하고자 하는 아이템의 크기 및 터치 객체의 크기에 따라 아이템이 가려지거나 또는 가려지지 않는 경우를 도시하는 도면.
도 2는 본 발명의 실시예에 따른 디바이스(200)의 내부 구조를 도시하는 블록도.
도 3은 본 발명의 실시예에 따른 보조 영역 표시 방법을 도시하는 도면.
도 4는 디바이스(200)가 보조 영역(310) 표시 필요성 여부를 판단하는 구체적인 방법을 도시하는 도면.
도 5는 본 발명의 일 실시예에 따라 보조 영역을 표시하는 위치를 도시하는 도면.
도 6은 본 발명의 실시예에 따른 보조 영역 표시 방법을 도시하는 도면.
도 7은 본 발명의 실시예에 따라 사용자에 의해 선택된 아이템을 보조 영역에 표시하고 있는 상태에서 선택된 아이템을 변경하는 경우, 상기 보조 영역 표시 방법을 도시하는 도면.
도 8은 본 발명의 본 발명의 다른 실시예에 따라 사용자에 의해 선택된 아이템을 보조 영역에 표시하고 있는 상태에서 선택된 아이템을 변경하는 경우, 상기 보조 영역 표시 방법을 도시하는 도면.
도 9는 본 발명의 실시예에 따른 디바이스(200)의 동작 순서도를 도시하는 순서도.
도 10은 본 발명의 일 실시예에 따라 디바이스가 보조 영역 표시 필요성을 판단하는 과정을 도시하는 순서도.
본 발명의 아이템(Item)이란 어플리케이션, 폴더, 위젯 등을 식별하거나 실행하기 위한 단위, 또는 웹 페이지 상의 텍스트, 정지 영상, 동영상 등 사용자에 의해 선택 가능한 모든 객체를 의미할 수 있다.
또한, 본 발명의 터치 객체(touch object)란 터치스크린(touch screen)에 가압식 또는 정전식으로 터치 입력을 가하는 물체를 의미할 수 있으며, 사용자 손가락, 스타일러스 펜 등을 포함할 수 있지만, 반드시 이에 한정되는 것은 아니다.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시 예들을 상세히 설명한다. 이 때, 첨부된 도면에서 동일한 구성 요소는 가능한 동일한 부호로 나타내고 있음에 유의해야 한다. 또한 본 발명의 요지를 흐리게 할 수 있는 공지 기능 및 구성에 대한 상세한 설명은 생략할 것이다.
도 1은 사용자가 선택하고자 하는 아이템의 크기 및 터치 객체의 크기에 따라 아이템이 가려지거나 또는 가려지지 않는 경우를 도시하는 도면이다.
우선, 도 1a는 터치 객체의 크기보다 사용자에 의해 선택되는 웹 페이지 상의 아이템(텍스트 형식의 기사)의 크기가 작지 않아, 사용자가 선택된 아이템을 용이하게 확인할 수 있는 경우를 도시한다.
도 1a에서 도시되는 바와 같이, 사용자에 의해 선택된 아이템은 포커스 링(focus ring)과 같은 형태로, 선택된 아이템을 링 형태로 둘러쌓거나 또는 배경색이 변경되어 표시된다.
한편, 도 1b는 터치 객체의 크기와 사용자에 의해 선택되는 웹 페이지 상의 아이템(텍스트 형식의 언론사)의 크기가 비슷하여, 사용자가 선택된 아이템을 용이하게 확인할 수 없는 경우를 도시한다.
도 1b에서 도시되는 바와 같이, 웹 페이지 상에 표시된 아이템의 크기가 터치 객체가 터치 입력을 위해 터치스크린 상에 접촉하는 면적의 크기와 비슷하거나, 또는 더 작은 경우에는 선택되는 부분이 터치 객체에 가려지게 된다. 이에 따라 사용자는 어떠한 아이템이 선택되었는지 확인할 수 없다.
또한, 도 1b에서와 같이, 종래에는 터치 입력을 잘못 수행한 경우 포커스 링을 통해 터치 입력이 잘못된 것을 확인할 수 있더라도, 바로 해당 페이지(page)에 진입하게 되며 원하는 아이템으로 포커스를 변경할 수 없다.
본 발명에서는 이와 같은 문제점을 해결하기 위해, 보조 영역을 정의하며, 사용자에 의해 선택된 아이템에 대응되는 아이템 관련 정보(item related information)를 상기 보조 영역에 표시하는 방안을 제안한다. 상기 아이템 관련 정보는 상기 선택된 아이템에 대응하는 텍스트, 정지 영상, 동영상, 웹 사이트 주소, 하위 메뉴 중 적어도 하나를 포함할 수 있다.
또는, 본 발명의 다른 실시예에 따르면, 사용자에 의해 선택된 아이템을 상기 보조 영역에 표시할 수도 있다.
도 2는 본 발명의 실시예에 따른 디바이스(200)의 내부 구조를 도시하는 블록도이다. 도 1에서 도시되는 바와 같이, 본 발명의 디바이스(200)는 무선 통신부(210), 오디오 처리부(220), 터치스크린부(230), 키 입력부(240), 저장부(250) 및 제어부(260)를 포함할 수 있다.
무선통신부(210)는 디바이스(200)의 무선 통신을 위한 해당 데이터의 송수신 기능을 수행한다. 무선통신부(210)는 송신되는 신호의 주파수를 상승 변환 및 증폭하는 RF송신기와, 수신되는 신호를 저 잡음 증폭하고 주파수를 하강 변환하는 RF수신기 등으로 구성될 수 있다. 또한, 무선통신부(210)는 무선 채널을 통해 데이터를 수신하여 제어부(260)로 출력하고, 제어부(260)로부터 출력된 데이터를 무선 채널을 통해 전송할 수 있다.
상기 무선통신부(210)가 도면상에서 점선으로 표시된 이유는 본 발명의 실시예에 따른 디바이스(200)가 반드시 무선통신부(210)를 구비할 필요는 없기 때문이다. 다시 말해, 본 발명의 디바이스(200)가 MP3 플레이어, 또는 전자 사전과 같은 디바이스(Device)인 경우에는 무선통신부(210)가 반드시 구비될 필요는 없는 것이다.
오디오처리부(220)는 코덱(CODEC)으로 구성될 수 있으며, 코덱은 패킷 데이터 등을 처리하는 데이터 코덱과 음성 등의 오디오 신호를 처리하는 오디오 코덱으로 구성될 수 있다. 오디오 처리부(220)는 디지털 오디오 신호를 오디오 코덱을 통해 아날로그 오디오 신호로 변환하여 스피커(SPK)를 통해 재생하고, 마이크(MIC)로부터 입력되는 아날로그 오디오 신호를 오디오 코덱을 통해 디지털 오디오 신호로 변환한다.
터치스크린부(230)는 터치센서부(231) 및 표시부(232)를 포함한다. 터치센서부(231)는 사용자의 터치 입력을 감지한다. 터치센서부(231)는 정전용량 방식(capacitive overlay), 압력식, 저항막 방식(resistive overlay), 적외선 감지 방식(infrared beam) 등의 터치 감지 센서로 구성되거나, 압력 감지 센서(pressure sensor)로 구성될 수도 있다. 상기 센서들 이외에도 물체의 접촉 또는 압력을 감지할 수 있는 모든 종류의 센서 기기가 본 발명의 터치센서부(231)로 구성될 수 있다. 터치센서부(231)는 사용자의 터치 입력을 감지하고, 감지 신호를 발생시켜 제어부(160)로 전송한다. 상기 감지 신호에는 사용자가 터치를 입력한 좌표 데이터가 포함된다. 사용자가 터치 위치 이동 동작을 입력한 경우에 터치센서부(231)는 터치 위치 이동 경로의 좌표 데이터를 포함한 감지 신호를 발생시켜 제어부(260)로 전송한다.
표시부(232)는 액정표시장치(LCD, Liquid Crystal Display), 유기 발광 다이오드(OLED, Organic Light Emitting Diodes), 능동형 유기 발광 다이오드(AMOLED, Active Matrix Organic Light Emitting Diodes) 등으로 형성될 수 있으며, 디바이스(200)의 메뉴, 입력된 데이터, 기능 설정 정보 및 기타 다양한 정보를 사용자에게 시각적으로 제공한다. 표시부(232)는 디바이스(200)의 부팅 화면, 대기 화면, 메뉴 화면, 통화 화면, 기타 어플리케이션 화면을 출력하는 기능을 수행한다.
키 입력부(140)는 디바이스(200)를 제어하기 위한 사용자의 키 조작을 입력받고 입력 신호를 생성하여 제어부(260)에 전달한다. 키 입력부(240)는 숫자 키, 방향키를 포함하는 키패드로 구성될 수 있으며, 디바이스(200)의 일면에 소정의 기능키로 형성될 수 있다. 본 발명의 실시예에 따라 터치스크린부(230)만으로 모든 조작이 가능한 디바이스의 경우에는 키 입력부(240)가 생략될 수도 있다.
저장부(250)는 디바이스(200)의 동작에 필요한 프로그램 및 데이터를 저장하는 역할을 수행하며, 프로그램 영역과 데이터 영역으로 구분될 수 있다. 프로그램 영역은 디바이스(200)의 전반적인 동작을 제어하는 프로그램 및 디바이스(200)를 부팅시키는 운영체제(OS, Operating System), 멀티미디어 컨텐츠 재생 등에 필요한 응용 프로그램, 디바이스(200)의 기타 옵션 기능, 예컨대, 카메라 기능, 소리 재생 기능, 이미지 또는 동영상 재생 기능에 필요한 응용 프로그램 등을 저장할 수 있다. 데이터 영역은 디바이스(200)의 사용에 따라 발생하는 데이터가 저장되는 영역으로서, 이미지, 동영상, 폰 북, 오디오 데이터 등을 저장할 수 있다.
제어부(260)는 디바이스의 각 구성 요소에 대한 전반적인 동작을 제어한다. 특히, 제어부(260)는 페이지에서 특정 아이템 선택 시 상기 선택된 아이템이 터치 객체에 의해 가려지더라도, 선택된 아이템을 별도로 표시하기 위한 일련의 과정을 제어할 수 있다.
특히 본 발명의 실시예에 따른 제어부(260)는 상기 표시된 적어도 하나의 아이템 중 임의의 아이템을 선택하기 위한 터치 입력 감지 시 상기 아이템에 대한 보조 영역을 표시할 필요가 있는지 판단하고, 필요 시 선택된 아이템에 대응되는 아이템 관련 정보를 적어도 하나의 보조 영역에 표시하도록 제어할 수 있다. 상기 아이템 관련 정보는 예를 들어, 상기 선택된 아이템에 대응하는 텍스트, 정지 영상, 동영상, 웹 사이트 주소, 하위 메뉴 중 적어도 하나를 포함할 수 있다. 또는, 본 발명의 다른 실시예에 따르면 제어부(260)는 사용자에 의해 선택된 아이템을 상기 보조 영역에 표시하도록 제어할 수도 있다.
예를 들어, 제어부(260)는 너비(width)와 높이(height)로 정의되는 기준 영역과, 상기 터치스크린의 해상도 정보와 상기 터치스크린에 표시 중인 화면의 줌 배율 정보에 기반하여, 상기 보조 영역 표시 필요 여부를 판단할 수 있다. 구체적인 판단과정은 순서도를 통해 구체적으로 후술하도록 한다.
또한, 본 발명의 다양한 실시예에 따르면 제어부(260)는 상기 선택된 아이템과, 상기 선택된 아이템에 설정된 거리 내에 위치한 인접한 아이템(또는 인접한 아이템에 대응되는 아이템 관련 정보)을 상기 적어도 하나의 보조 영역에 표시하도록 제어할 수 있다.
또한, 본 발명의 다양한 실시예에 따르면 제어부(260)는 상기 터치 입력 감지 후 상기 선택된 아이템을 변경하기 위한 변경 입력이 감지되는지 판단할 수 있다. 그리고 제어부(260)는 변경 입력 감지 시 상기 변경 입력이 설정된 영역을 벗어나는지 판단하며, 벗어나는 경우 상기 변경 입력을 화면 전환을 위한 입력으로 처리할 수 있다. 반면, 벗어나지 않는 경우, 제어부(260)는 상기 변경 입력에 따라 재선택되는 아이템에 대응되는 아이템 관련 정보를 상기 보조 영역에 표시하도록 제어할 수 있다.
또한, 본 발명의 다양한 실시예에 따르면 제어부(260)는 상기 터치 입력 감지 후 상기 선택된 아이템을 변경하기 위한 변경 입력이 감지되는지 판단할 수 있다. 그리고 제어부(260)는 변경 입력 감지 시 상기 변경 입력이 설정된 개수의 아이템을 지나치는지 판단하며, 지나치는 경우 상기 변경 입력을 화면 전환을 위한 입력으로 처리할 수 있다. 반면, 지나치지 않는 경우, 제어부(260)는 상기 변경 입력에 따라 재선택되는 아이템에 대응되는 아이템 관련 정보를 상기 보조 영역에 표시하도록 제어할 수 있다.
또한, 본 발명의 다양한 실시예에 따르면 제어부(260)는 상기 선택된 아이템의 크기, 상기 선택된 아이템의 위치, 상기 터치 입력이 발생한 위치 중 적어도 하나에 의해 상기 보조 영역의 위치를 결정하여 표시하도록 제어할 수 있다.
도 3은 본 발명의 실시예에 따른 보조 영역 표시 방법을 도시하는 도면이다.
디바이스(200)는 웹 페이지 내의 특정 아이템에 대한 선택 입력 감지 시, 상기 선택된 아이템이 터치 객체에 의해 가려지는지 여부를 판단한다. 가려진다고 판단하는 경우, 디바이스(200)는 도 3에서 도시되는 바와 같이, 보조 영역(310)을 표시하여 사용자에 의해 선택된 아이템에 대응되는 아이템 관련 정보를 상기 보조 영역(310) 내에 표시한다. 상기 보조 영역(310)은 선택된 아이템 및 상기 아이템을 둘러쌓는 포커스 링의 이미지를 포함할 수 있다.
본 발명의 일 실시예에 따르면, 상기 디바이스(200)는 터치 객체의 크기 정보에 기반하여 미리 정해진 영역의 dpi(dot per inch) 및 현재 브라우저의 줌 배율 정보에 따라 보조 영역(310) 표시 필요성 여부를 판단할 수 있다. 상기 보조 영역(310) 표시 필요성 여부를 판단하는 구체적인 방법을 도 4를 참고하여 기술하도록 한다.
도 4는 디바이스(200)가 보조 영역(310) 표시 필요성 여부를 판단하는 구체적인 방법을 도시하는 도면이다.
도 4에서 도시되는 바와 같이, 본 발명의 실시예에서는 보조 영역(310) 표시 필요성 여부를 판단하기 위한 기준으로, 너비(width)와 높이(height)로 정의되는 기준 영역(reference area)(410)을 정의한다. 본 발명에서는 상기 기준 영역(410)이 터치 객체에 의해 가려질 수 있는 크기로 정의될 수도 있다. 상기 기준 영역(410)은 터치 객체가 터치스크린 상에 터치 입력을 가할 시, 상기 터치 객체가 상기 터치스크린 상에 접촉되는 단면적에 기반하여 설정될 수 있다.
상기 기준 영역은, 사용자가 별도의 설정 절차를 통해 등록할 수도 있으며, 또는 사용자가 별도의 설정 절차를 통해 등록되지 않은 경우에는 디폴트로 설정된 값을 사용할 수도 있다. 본 발명의 다양한 실시예에 따르면, 상기 기준 영역은 터치 객체의 종류, 예를 들어 손가락 또는 터치 펜 등에 따라 다르게 설정될 수도 있다. 또는, 상기 기준 영역(410)은 얼굴 인식 등의 기술로 사용자의 나이를 추론하여 해당 나이 대에 맞는 사이즈로 정의할 수도 있다.
디바이스(200)는 상기 기준 영역(410)과, 해상도 및 현재 브라우저의 줌 배율 정보에 기반하여 상기 보조 영역(310)을 표시할 필요가 있는지 여부를 확인할 수 있다. 상기 해상도는 영상이나 모니터의 화면을 구현하는데 쓰는 픽셀의 수를 의미할 수 있으며, 본 발명의 실시예에 따르면 상기 해상도는 1인치당 몇 개의 픽셀(pixel)로 이루어졌는지를 나타내는 ppi(pixel per inch)와 1인치당 몇 개의 점(dot)로 이루어졌는지를 나타내는 dpi(dot per inch)를 포함할 수 있다.
상기 확인 과정에 대해 설명하면, 예를 들어 디바이스(200)는 상기 기준 영역(410)에 기반하여 임계값을 설정할 수 있고, 상기 임계값과 사용자의 터치 입력에 의해 선택된 아이템의 크기를 비교하여, 그 결과에 따라 상기 보조 영역(310)을 표시할 필요가 있는지 여부를 판단할 수 있다. 이 경우, 디바이스(200)는 상기 선택된 아이템의 크기가 상기 임계값 보다 큰 경우 보조 영역(310)을 표시할 필요가 없는 것으로 판단할 수 있으며, 또는 상기 선택된 아이템의 크기가 상기 임계값 보다 작은 경우 보조 영역(310)을 표시할 필요가 있는 것으로 판단할 수 있다.
또는, 본 발명의 다른 실시예에 따르면, 디바이스(200)는 선택된 아이템의 너비 또는 높이가 상기 기준 영역(410)의 너비 또는 높이 이상인 경우, 보조 영역(310)을 표시할 필요가 없는 것으로 판단할 수 있다. 또는, 디바이스(200)는 선택된 아이템의 너비 및 높이가 모두 상기 기준 영역(410)의 너비 및 높이 미만인 경우, 보조 영역(310)을 표시할 필요가 있는 것으로 판단할 수 있다.
도 5는 본 발명의 일 실시예에 따라 보조 영역을 표시하는 위치를 도시하는 도면이다.
본 발명의 다양한 실시예에 따르면, 보조 영역(530)이 표시되는 위치는, 선택된 아이템의 크기, 위치, 기준 영역(520)의 크기, 터치 입력된 위치(touch point)(510) 중 적어도 하나에 기반하여 결정될 수 있다. 예를 들어, 도 5에서 도시되는 바와 같이 선택된 아이템을 기준으로, 상기 선택된 아이템의 좌측에 보조 영역(530)이 표시될 수 있다.
그러나 이는, 선택된 아이템의 우측에 보조 영역(530)을 표시하는 것을 배제하는 것은 아니다. 예를 들어, 사용자가 오른손잡이인 경우 상기 보조 영역(530)은 상기 선택된 아이템의 좌측에 표시될 수도 있으며, 또는 사용자가 왼손잡이인 경우 상기 보조 영역(530)은 상기 선택된 아이템의 우측에 표시될 수도 있다.
또는, 본 발명의 다른 실시예에 따르면, 상기 보조 영역(530)은 사용자 설정에 따라 선택된 아이템의 좌측 또는 우측 중 어느 방향으로 표시될 수도 있다.
상기 보조 영역(530)의 크기는 현재 브라우저에서의 줌 배율에 대한 정보, 폰트 크기에 대한 정보에 따라, 선택된 아이템의 크기를 동일하게 상기 보조 영역(530) 상에 표시하거나 또는 기존 크기보다 일정 비율 확대하여 표시할 수도 있다.
도 6은 본 발명의 실시예에 따른 보조 영역 표시 방법을 도시하는 도면이다.
도 6에서는 사용자에 의해 선택된 아이템뿐만 아니라, 터치 객체에 의해 가려질 수 있는 아이템(또는 아이템 관련 정보)을 추가적으로 보조 영역에 표시하는 방법을 도시한다.
우선, 도 6a에서는 “Linkd"라는 아이템이 선택되었으며, 상기 선택된 아이템이 터치 객체에 의해 가려지게 되어 보조 영역(610)에 상기 선택된 아이템이 표시되는 것이 도시된다. 또한, 도 6a에서 확인할 수 있듯이, ”Linki"라는 아이템은 터치 객체에 의해 가려진다.
디바이스(200)는 표시된 아이템의 크기, 위치, 기준 영역(520)의 크기, 터치 입력된 위치(touch point), dpi, 현재의 줌 배율에 대한 정보들에 기반하여, 선택되지는 않았지만 선택된 아이템과 인접하여 터치 객체에 의해 가려지는 아이템들(예를 들어, Linki)을 결정할 수 있다.
이 경우, 본 발명의 실시예에 따른 디바이스(200)는 도 6b에서 도시되는 바와 같이, 사용자 선택에 의해 선택된 아이템(Linkd)은 제1 보조 영역(620)에 표시하고, 사용자에 의해 선택되지는 않았지만 터치 객체에 의해 가려진 아이템(Linki)은 제2 보조 영역(630)에 표시할 수 있다. 이로써, 사용자는 자신이 선택한 아이템뿐만 아니라, 터치 객체에 의해 가려진 상기 선택된 아이템에 인접한 아이템들도 확인할 수 있다.
한편, 도 6b에서는 제1 보조 영역(620)과 제2 보조 영역(630)이 별도의 영역으로 구성되는 경우를 예시하였지만, 반드시 이에 한정되는 것은 아니다. 예를 들어, 하나의 보조 영역에 선택된 아이템과 이에 인접한 아이템을 동시에 표시할 수도 있다. 이 경우, 하나의 보조 영역에 표시된 복수 개의 아이템 중, 사용자에 의해 선택된 아이템은 하이라이트 등을 통하여 별도 표시될 수도 있다.
도 7은 본 발명의 실시예에 따라 사용자에 의해 선택된 아이템에 대응되는 아이템 관련 정보를 보조 영역에 표시하고 있는 상태에서 선택된 아이템을 변경하는 경우, 상기 보조 영역 표시 방법을 도시하는 도면이다.
우선, 도 7a는 사용자에 의해 선택된 아이템인 “Linkd"가 터치 객체에 의해 가려지게 되어, 보조 영역(710)에 상기 선택된 아이템을 표시하는 경우를 도시한다. 그리고 디바이스(200)는 선택을 위한 터치 입력 감지 후, 상기 터치 입력이 해제되는지 여부를 판단한다. 터치 입력이 해제되는 경우라면 디바이스(200)는 상기 선택된 아이템과 관련된 기능을 수행할 수 있다.
한편, 사용자가 선택을 의도한 아이템과, 실제로 선택되어 상기 보조 영역(710)에 표시된 아이템 관련 정보가 상이할 수 있다. 예를 들어, 사용자가 “Linki"라는 아이템을 선택하려고 했으나, 실제로 선택된 아이템으로 감지되어 보조 영역(710)에 표시된 아이템 관련 정보가 "Linkd"인 경우를 가정할 수 있다. 이 경우, 사용자는 선택된 아이템을 변경하고자 의도할 수 있다.
이를 위해, 사용자가 터치 입력의 터치 상태를 유지한 상태로 터치 객체를 이동시키는 경우, 페이지를 넘기는 패닝(panning) 동작과, 선택된 아이템을 변경하려는 사용자 입력이 구분되지 않을 수 있다.
본 발명에서는 이를 해결하기 위해, 변경 기준 영역(720)을 정의할 수 있다. 변경 기준 영역(720)은 선택된 아이템을 기준으로 일정 크기의 영역으로 정의될 수 있다. 상기 변경 기준 영역(720)은 임의의 도형 형상 예를 들어, 직사각형, 정사각형, 원, 타원 등의 도형 형상으로 정의될 수 있다.
본 발명의 실시예에서는 상기 변경 기준 영역(720)을 기준으로, 아이템 선택 후 연속하여 감지되는 드래그 입력이 상기 변경 기준 영역(720)을 벗어나는지 여부에 따라 그 처리를 달리 할 수 있다.
구체적으로, 도 7b는 드래그 입력이 변경 기준 영역(720)을 벗어나지 않는 경우의 처리 방법을 도시하는 도면이다.
도 7b를 참고하여 설명하면, 상기 변경 기준 영역(720)을 기준으로, 아이템 선택 후 연속하여 감지되는 변경 입력(예를 들어, 드래그 입력, 이하에서는 드래그 입력으로 기술함)이 상기 변경 기준 영역(720)을 벗어나지 않는 경우, 디바이스(200)는 상기 드래그 입력에 따라 재선택되는 아이템에 대응되는 아이템 관련 정보를 보조 영역(710)에 표시할 수 있다. 즉, 사용자의 드래그 입력에 따라, 선택된 아이템이 "Linki"로 변경되었고 동시에 상기 드래그 입력이 변경 기준 영역(720)을 벗어나지 않는 경우, 디바이스(200)는 상기 드래그 입력에 따라 보조 영역(710)에 표시되는 아이템 관련 정보를 변경시켜 표시할 수 있다.
반면, 도 7c는 드래그 입력이 변경 기준 영역(730)을 벗어나는 경우의 처리 방법을 도시하는 도면이다.
도 7c를 참고하여 설명하면, 상기 변경 기준 영역(720)을 기준으로, 아이템 선택 후 연속하여 감지되는 드래그 입력이 상기 변경 기준 영역(720)을 벗어나는 경우, 디바이스(200)는 상기 드래그 입력을 패닝 또는 스크롤 입력으로 처리한다. 이에 따라, 현재 표시 중인 화면이 드래그 입력의 방향에 따라 전환되거나 움직일 수 있다.
도 8은 본 발명의 본 발명의 다른 실시예에 따라 사용자에 의해 선택된 아이템에 대응되는 아이템 관련 정보를 보조 영역에 표시하고 있는 상태에서 선택된 아이템을 변경하는 경우, 상기 보조 영역 표시 방법을 도시하는 도면이다.
우선, 도 8을 통해 설명될 실시예에서는, 디바이스(200)의 화면상에 적어도 하나의 아이템이 어느 일 방향, 예를 들어 좌우 방향 또는 상하 방향, 또는 격자 모양으로 배열되는 것을 가정한다. 도 8a에서는 복수 개의 아이템이 격자 형태로 배열된 예시를 도시한다.
동시에, 도 8a에서는 사용자에 의해 선택된 아이템인 “Linkd"가 터치 객체에 의해 가려지게 되어, 보조 영역(810)에 상기 선택된 아이템에 대응되는 아이템 관련 정보를 표시하는 경우를 도시한다. 그리고 디바이스(200)는 선택을 위한 터치 입력 감지 후, 상기 터치 입력이 해제되는지 여부를 판단한다. 터치 입력이 해제되는 경우라면 디바이스(200)는 상기 선택된 아이템과 관련된 기능을 수행할 수 있다.
한편, 도 7에서 설명한 바와 같이, 사용자가 선택을 의도한 아이템과, 실제로 선택되어 상기 보조 영역(810)에 표시된 아이템이 상이할 수 있다. 예를 들어, 사용자가 “Linki"라는 아이템을 선택하려고 했으나, 실제로 선택된 아이템으로 감지되어 보조 영역(710)에 표시된 아이템이 "Linkd"인 경우를 가정할 수 있다. 이 경우, 사용자는 선택된 아이템을 변경하고자 의도할 수 있다.
도 8에서 도시되는 본 발명의 실시예에서는 이를 해결하기 위해, 터치 입력 후 연속하여 입력되는 드래그 입력이 설정된 개수의 아이템을 지나치는지 여부에 기반하여 상기 드래그 입력을 처리할 수 있다.
구체적으로, 도 8b에서는 상기 드래그 입력이 미리 설정된 개수의 아이템을 지나치지 않는 경우에 대해 도시한다. 즉, 아이템 선택 후 연속하여 감지되는 드래그 입력이 미리 설정된 개수의 아이템을 지나치지 않는 경우, 디바이스(200)는 상기 드래그 입력에 따라 보조 영역(810)에 표시되는 아이템 관련 정보를 변경시켜 표시할 수 있다. 즉, 사용자의 드래그 입력에 따라, 선택된 아이템이 "Linki"로 변경되었고 동시에 상기 드래그 입력이 미리 설정된 개수의 아이템을 지나치지 않는 경우, 디바이스(200)는 상기 드래그 입력에 따라 보조 영역(810)에 표시되는 아이템 관련 정보를 변경시켜 표시할 수 있다.
반면, 도 8c는 상기 드래그 입력이 미리 설정된 개수의 아이템을 지나치는 경우에 대해 도시한다. 즉, 아이템 선택 후 연속하여 감지되는 드래그 입력이 미리 설정된 개수의 아이템을 지나치는 경우, 디바이스(200)는 상기 드래그 입력을 패닝 또는 스크롤 입력으로 처리한다. 이에 따라, 현재 표시 중인 화면이 드래그 입력의 방향에 따라 전환되거나 움직일 수 있다.
도 9는 본 발명의 실시예에 따른 디바이스(200)의 동작 순서도를 도시하는 순서도이다.
우선, 디바이스(200)의 터치스크린 또는 표시부에 적어도 하나의 아이템을 포함하는 화면이 표시되었음을 가정한다. 상기 화면은 브라우저, 바탕화면, 홈화면 등을 포함하지만 반드시 이에 한정되는 것은 아니다.
그리고 디바이스(200)는 S910 단계에서, 터치 입력이 감지되었는지 여부를 판단한다. 상기 터치 입력은 사용자의 손가락, 터치펜 등을 포함하는 터치 객체에 의해 수행될 수 있다. 그리고 디바이스(200)는 S920 단계로 진행하여 보조 영역을 표시할 필요가 있는지 여부를 판단한다. 이를 위해, 디바이스(200)는 상기한 바와 같이, 너비(width)와 높이(height)로 정의되는 기준 영역(reference area)을 정의하고, 상기 기준 영역과 dpi 및 현재 화면의 줌 배율 정보에 기반하여 상기 보조 영역 표시 필요 여부를 판단할 수 있다. 디바이스(200)가 보조 영역 표시 필요 여부를 판단하는 구체적인 과정은 상술한 바 있으니, 자세한 설명은 생략하기로 한다.
보조 영역 표시가 필요 없을 것으로 판단한 경우, 디바이스(200)는 S950 단계로 진행하며, 이에 대해서는 후술하도록 한다.
반면, 보조 영역 표시가 필요할 것으로 판단한 경우, 디바이스(200)는 S940 단계로 진행하여 적어도 하나의 보조 영역을 표시한다. 이 경우, 디바이스(200)는 상기 터치 입력에 의해 선택된 아이템에 대응되는 아이템 관련 정보를 보조 영역에 표시할 수 있다. 상기 아이템 관련 정보는 상기 선택된 아이템에 대응하는 텍스트, 정지 영상, 동영상, 웹 사이트 주소, 하위 메뉴 중 적어도 하나를 포함할 수 있다.
또한, 디바이스(200)는 상기 선택된 아이템에 대응되는 아이템 관련 정보를 현재 표시 중인 크기와 동일하게 또는 일정 비율 확대하여 상기 보조 영역에 표시할 수도 있다. 또한, 디바이스(200)는 상기 선택된 아이템과 인접한 아이템에 대응되는 아이템 관련 정보를 상기 보조 영역에 또는 별도의 보조 영역에 표시할 수도 있다.
그리고 디바이스(200)는 S950 단계로 진행하여, 상기 터치 입력이 해제되었는지 여부를 판단한다. 터치 입력이 해제된 경우, 디바이스(200)는 S960 단계로 진행하여, 상기 터치 입력에 의해 선택된 아이템에 대응하는 기능을 수행한다. 예를 들어, 상기 선택된 아이템을 실행하거나, 또는 상기 선택된 아이템에 포함된 하위 메뉴 등을 표시할 수 있다.
터치 입력이 해제되지 않은 경우, 디바이스(200)는 S970 단계로 진행하여 터치 입력의 위치가 변경되었는지 여부를 판단한다. 예를 들어, 사용자가 드래그 입력을 수행하는 경우, 최초 터치 입력이 발생한 위치와 현재 터치 입력이 발생하고 있는 위치가 상이할 수 있다.
터치 위치가 변경된 경우, 디바이스(200)는 S980 단계로 진행하여 설정된 거리를 초과하여 상기 터치 입력의 위치가 변경되었는지, 또는 설정된 개수의 아이템을 초과하여 상기 터치 입력의 위치가 변경되었는지 여부를 판단한다.
설정된 기준을 초과한 경우, 디바이스(200)는 S990 단계로 진행하여 보조 영역에 표시하는 아이템을 변경하여 표시한다. 이를 위해, 디바이스(200)는 현재 터치 입력이 발생한 위치에 대응하는 아이템에 대응되는 아이템 관련 정보를 상기 보조 영역에 표시할 수 있다.
도 10은 본 발명의 일 실시예에 따라 디바이스가 보조 영역 표시 필요성을 판단하는 과정을 도시하는 순서도이다.
우선, 디바이스(200)는 S1010 단계에서, 터치 객체에 대한 정보가 설정되었는지 여부를 판단한다. 상기 터치 객체에 대한 정보는 터치 객체 종류(손가락인지, 펜인지 등), 터치 객체의 크기, 터치 객체의 단면적 등에 대한 정보를 포함할 수 있다.
터치 객체에 대한 정보가 설정되지 않은 경우, 디바이스(200)는 S1020 단계로 진행하여 미리 설정된 디폴트값을 사용하여 이후의 절차를 진행한다.
한편, 터치 객체에 대한 정보가 설정된 경우, 디바이스(200)는 설정된 터치 객체 정보에 기반하여 이후의 절차를 진행한다. 구체적으로, 디바이스(200)는 S1030 단계로 진행하여, dpi 및 현재 화면(예를 들어, 웹 페이지)의 줌 배율에 기반하여 임계값을 설정한다.
그리고 디바이스(200)는 S1040 단계로 진행하여, 터치 입력에 의해 임의의 아이템이 선택되었는지 여부를 판단한다. 아이템이 선택되었다면, 디바이스(200)는 S1050 단계로 진행하여 상기 선택된 아이템의 크기와 상기 설정된 임계값을 비교하고, S1060 단계에서 선택된 아이템의 크기가 임계값 보다 큰지 여부를 판단한다. 큰 경우라면, 아이템의 크기가 충분히 커서 터치 객체에 의해 그 내용이 완전히 가려지지는 않는다는 것을 의미한다. 이 경우, 디바이스(200)는 상기 선택된 아이템에 포커스를 표시한다.
한편, 선택된 아이템의 크기가 임계값 보다 작은 경우라면, 아이템이 터치 객체에 의해 가려지게 되어, 사용자가 선택된 아이템을 용이하게 확인할 수 없는 경우를 의미한다. 이 경우, 디바이스(200)는 S1070 단계로 진행하여, 보조 영역을 표시하고, 상기 선택된 아이템에 대응되는 아이템 관련 정보를 상기 보조 영역 내에 표시한다.
본 발명에 따르면, 아이템을 선택하는 경우 사용자가 선택한 아이템에 대응되는 아이템 관련 정보를 별도의 보조 영역을 통해 확인할 수 있으므로 사용자 편의성이 증대될 수 있다. 또한, 본 발명에 따르면 사용자가 아이템을 잘못 선택한 경우, 원하는 아이템으로 용이하게 선택을 변경할 수 있으므로 잘못된 터치에 의한 오동작을 방지할 수 있다.
본 명세서와 도면에 개시된 본 발명의 실시예들은 본 발명의 기술 내용을 쉽게 설명하고 본 발명의 이해를 돕기 위해 특정 예를 제시한 것일 뿐이며, 본 발명의 범위를 한정하고자 하는 것은 아니다. 여기에 개시된 실시예들 이외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형 예들이 실시 가능하다는 것은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 자명한 것이다.
210 : 무선 통신부220 : 오디오 처리부
230 : 터치스크린부 231 : 터치 센서부
232 : 표시부240 : 키 입력부
250 : 저장부260 : 제어부

Claims (16)

  1. 터치스크린을 구비하는 디바이스에서 화면 표시 방법에 있어서,
    상기 터치스크린에 적어도 하나의 아이템을 표시하는 단계;
    상기 표시된 적어도 하나의 아이템 중 임의의 아이템을 선택하기 위한 터치 입력 감지 시, 상기 아이템에 대한 보조 영역을 표시할 필요가 있는지 판단하는 단계; 및
    필요 시, 선택된 아이템에 대응되는 아이템 관련 정보를 적어도 하나의 보조 영역에 표시하는 단계를 포함하는 것을 특징으로 하는 화면 표시 방법.
  2. 제1항에 있어서, 상기 판단 단계는,
    너비(width)와 높이(height)로 정의되는 기준 영역과, 상기 터치스크린의 해상도 정보와 상기 터치스크린에 표시 중인 화면의 줌 배율 정보에 기반하여, 상기 보조 영역 표시 필요 여부를 판단하는 것을 특징으로 하는 화면 표시 방법.
  3. 제2항에 있어서, 상기 표시 단계는,
    상기 선택된 아이템에 대응되는 아이템 관련 정보와, 상기 선택된 아이템에 설정된 거리 내에 위치한 인접한 아이템에 대응되는 아이템 관련 정보를 상기 적어도 하나의 보조 영역에 표시하는 것을 특징으로 하는 화면 표시 방법.
  4. 제1항에 있어서, 상기 표시 단계 이후에,
    상기 터치 입력 감지 후, 상기 선택된 아이템을 변경하기 위한 변경 입력이 감지되는지 판단하는 단계;
    변경 입력 감지 시, 상기 변경 입력이 설정된 영역을 벗어나는지 판단하는 단계; 및
    벗어나는 경우 상기 변경 입력을 화면 전환을 위한 입력으로 처리하고, 벗어나지 않는 경우 상기 변경 입력에 따라 재선택되는 아이템에 대응되는 아이템 관련 정보를 상기 보조 영역에 표시하는 단계를 더 포함하는 것을 특징으로 하는 화면 표시 방법.
  5. 제1항에 있어서, 상기 표시 단계 이후에,
    상기 터치 입력 감지 후, 상기 선택된 아이템을 변경하기 위한 변경 입력이 감지되는지 판단하는 단계;
    변경 입력 감지 시, 상기 변경 입력이 설정된 개수의 아이템을 지나치는지 판단하는 단계; 및
    지나치는 경우 상기 변경 입력을 화면 전환을 위한 입력으로 처리하고, 지나치지 않는 경우 상기 변경 입력에 따라 재선택되는 아이템에 대응되는 아이템 관련 정보를 상기 보조 영역에 표시하는 단계를 더 포함하는 것을 특징으로 하는 화면 표시 방법.
  6. 제1항에 있어서, 상기 표시 단계는,
    상기 선택된 아이템의 크기, 상기 선택된 아이템의 위치, 상기 터치 입력이 발생한 위치 중 적어도 하나에 의해 상기 보조 영역의 위치를 결정하여 표시하는 것을 특징으로 하는 화면 표시 방법.
  7. 제1항에 있어서, 상기 아이템 관련 정보는,
    상기 선택된 아이템에 대응하는 텍스트, 정지 영상, 동영상, 웹 사이트 주소, 하위 메뉴 중 적어도 하나를 포함하는 것을 특징으로 하는 화면 표시 방법.
  8. 제1항에 있어서, 상기 표시 단계는,
    상기 선택된 아이템을 상기 적어도 하나의 보조 영역에 표시하는 것을 특징으로 하는 화면 표시 방법.
  9. 터치스크린을 구비하는 디바이스에 있어서,
    사용자로부터 터치 입력을 수신하거나 또는 적어도 하나의 아이템을 표시하는 터치스크린; 및
    상기 표시된 적어도 하나의 아이템 중 임의의 아이템을 선택하기 위한 터치 입력 감지 시 상기 아이템에 대한 보조 영역을 표시할 필요가 있는지 판단하고, 필요 시 선택된 아이템에 대응되는 아이템 관련 정보를 적어도 하나의 보조 영역에 표시하도록 제어하는 제어부를 포함하는 것을 특징으로 하는 디바이스.
  10. 제9항에 있어서, 상기 제어부는,
    너비(width)와 높이(height)로 정의되는 기준 영역과, 상기 터치스크린의 해상도 정보와 상기 터치스크린에 표시 중인 화면의 줌 배율 정보에 기반하여, 상기 보조 영역 표시 필요 여부를 판단하는 것을 특징으로 하는 디바이스.
  11. 제10항에 있어서, 상기 제어부는,
    상기 선택된 아이템에 대응되는 아이템 관련 정보와, 상기 선택된 아이템에 설정된 거리 내에 위치한 인접한 아이템에 대응되는 아이템 관련 정보를 상기 적어도 하나의 보조 영역에 표시하도록 제어하는 것을 특징으로 하는 디바이스.
  12. 제9항에 있어서, 상기 제어부는,
    상기 터치 입력 감지 후 상기 선택된 아이템을 변경하기 위한 변경 입력이 감지되는지 판단하고, 변경 입력 감지 시 상기 변경 입력이 설정된 영역을 벗어나는지 판단하며, 벗어나는 경우 상기 변경 입력을 화면 전환을 위한 입력으로 처리하고, 벗어나지 않는 경우 상기 변경 입력에 따라 재선택되는 아이템에 대응되는 아이템 관련 정보를 상기 보조 영역에 표시하도록 제어하는 것을 특징으로 하는 디바이스.
  13. 제9항에 있어서, 상기 제어부는,
    상기 터치 입력 감지 후 상기 선택된 아이템을 변경하기 위한 변경 입력이 감지되는지 판단하고, 변경 입력 감지 시 상기 변경 입력이 설정된 개수의 아이템을 지나치는지 판단하며, 지나치는 경우 상기 변경 입력을 화면 전환을 위한 입력으로 처리하고, 지나치지 않는 경우 상기 변경 입력에 따라 재선택되는 아이템에 대응되는 아이템 관련 정보를 상기 보조 영역에 표시하도록 제어하는 것을 특징으로 하는 디바이스.
  14. 제9항에 있어서, 상기 제어부는,
    상기 선택된 아이템의 크기, 상기 선택된 아이템의 위치, 상기 터치 입력이 발생한 위치 중 적어도 하나에 의해 상기 보조 영역의 위치를 결정하여 표시하도록 제어하는 것을 특징으로 하는 디바이스.
  15. 제9항에 있어서, 상기 아이템 관련 정보는,
    상기 선택된 아이템에 대응하는 텍스트, 정지 영상, 동영상, 웹 사이트 주소, 하위 메뉴 중 적어도 하나를 포함하는 것을 특징으로 하는 디바이스.
  16. 제9항에 있어서, 상기 제어부는,
    상기 선택된 아이템을 상기 적어도 하나의 보조 영역에 표시하도록 제어하는 것을 특징으로 하는 디바이스.
KR1020130061534A 2013-05-30 2013-05-30 터치스크린을 구비하는 디바이스에서 화면 표시 방법 및 장치 KR102120651B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020130061534A KR102120651B1 (ko) 2013-05-30 2013-05-30 터치스크린을 구비하는 디바이스에서 화면 표시 방법 및 장치
US14/283,500 US9886741B2 (en) 2013-05-30 2014-05-21 Method and apparatus for displaying images in touchscreen-based devices
EP14169898.5A EP2808776A3 (en) 2013-05-30 2014-05-26 Method and apparatus for displaying images in touchscreen-based devices

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130061534A KR102120651B1 (ko) 2013-05-30 2013-05-30 터치스크린을 구비하는 디바이스에서 화면 표시 방법 및 장치

Publications (2)

Publication Number Publication Date
KR20140140759A true KR20140140759A (ko) 2014-12-10
KR102120651B1 KR102120651B1 (ko) 2020-06-09

Family

ID=50819591

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130061534A KR102120651B1 (ko) 2013-05-30 2013-05-30 터치스크린을 구비하는 디바이스에서 화면 표시 방법 및 장치

Country Status (3)

Country Link
US (1) US9886741B2 (ko)
EP (1) EP2808776A3 (ko)
KR (1) KR102120651B1 (ko)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10453085B2 (en) * 2013-09-27 2019-10-22 Gree, Inc. Reward giving method, computer-readable recording medium, server device, and game system
JP6062351B2 (ja) * 2013-11-28 2017-01-18 京セラ株式会社 電子機器
JP5917753B1 (ja) * 2015-07-27 2016-05-18 ヤフー株式会社 情報処理装置、情報処理方法、情報処理プログラムおよび配信装置
DE102016124277A1 (de) * 2016-04-19 2017-10-19 Patty's Gmbh Verfahren zum Ermitteln und Anzeigen von Produkten auf einer elektronischen Anzeigeeinrichtung

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000075766A1 (en) * 1999-06-02 2000-12-14 Ncr International, Inc. Self-service terminal
KR20110121926A (ko) * 2010-05-03 2011-11-09 삼성전자주식회사 터치 스크린에서 선택된 정보에 대응하는 부가정보를 포함하는 투명 팝업을 표시하는 방법 및 장치

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5416895A (en) * 1992-04-08 1995-05-16 Borland International, Inc. System and methods for improved spreadsheet interface with user-familiar objects
US20070061753A1 (en) * 2003-07-17 2007-03-15 Xrgomics Pte Ltd Letter and word choice text input method for keyboards and reduced keyboard systems
US7802202B2 (en) 2005-03-17 2010-09-21 Microsoft Corporation Computer interaction based upon a currently active input device
US7680333B2 (en) * 2005-04-21 2010-03-16 Microsoft Corporation System and method for binary persistence format for a recognition result lattice
US7886233B2 (en) * 2005-05-23 2011-02-08 Nokia Corporation Electronic text input involving word completion functionality for predicting word candidates for partial word inputs
US7908082B2 (en) * 2007-05-04 2011-03-15 The Boeing Company Methods and systems for displaying airport moving map information
US8375336B2 (en) * 2008-05-23 2013-02-12 Microsoft Corporation Panning content utilizing a drag operation
US8245156B2 (en) * 2008-06-28 2012-08-14 Apple Inc. Radial menu selection
KR101010283B1 (ko) 2008-10-24 2011-01-24 삼성전자주식회사 휴대단말기의 웹 페이지 제공 방법 및 장치
JP4683126B2 (ja) 2008-12-26 2011-05-11 ブラザー工業株式会社 入力装置
US20120192108A1 (en) * 2011-01-26 2012-07-26 Google Inc. Gesture-based menu controls
US9116616B2 (en) * 2011-02-10 2015-08-25 Blackberry Limited Portable electronic device and method of controlling same
FR2973899B1 (fr) 2011-04-07 2013-04-26 Archos Procede de selection d'un element d'une interface utilisateur et dispositif mettant en oeuvre un tel procede.
US20130014053A1 (en) * 2011-07-07 2013-01-10 Microsoft Corporation Menu Gestures
KR101891475B1 (ko) * 2012-01-06 2018-09-28 삼성전자 주식회사 디스플레이장치 및 그 제어방법, 입력장치, 디스플레이 시스템
US20130227463A1 (en) * 2012-02-24 2013-08-29 Research In Motion Limited Electronic device including touch-sensitive display and method of controlling same
EP2631762A1 (en) * 2012-02-24 2013-08-28 Research In Motion Limited Method and apparatus for providing an option to enable multiple selections
US9477382B2 (en) * 2012-12-14 2016-10-25 Barnes & Noble College Booksellers, Inc. Multi-page content selection technique
WO2014139129A1 (en) * 2013-03-14 2014-09-18 Hewlett-Packard Development Company, L.P. Operation panel for electronic device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000075766A1 (en) * 1999-06-02 2000-12-14 Ncr International, Inc. Self-service terminal
KR20110121926A (ko) * 2010-05-03 2011-11-09 삼성전자주식회사 터치 스크린에서 선택된 정보에 대응하는 부가정보를 포함하는 투명 팝업을 표시하는 방법 및 장치

Also Published As

Publication number Publication date
EP2808776A2 (en) 2014-12-03
US20140359507A1 (en) 2014-12-04
KR102120651B1 (ko) 2020-06-09
US9886741B2 (en) 2018-02-06
EP2808776A3 (en) 2015-04-01

Similar Documents

Publication Publication Date Title
US11460972B2 (en) Method for displaying background screen in mobile terminal
AU2017200873B2 (en) Method and apparatus for providing character input interface
US10482573B2 (en) Method and mobile device for displaying image
KR101726607B1 (ko) 휴대 단말기의 화면 제어 방법 및 장치
US20140059457A1 (en) Zooming display method and apparatus
US10942620B2 (en) Information processing apparatus, information processing method, program, and information processing system
KR101662726B1 (ko) 전자 기기의 스크롤 방법 및 장치
AU2011243470B2 (en) Method for providing Graphical User Interface and mobile device adapted thereto
US20200371685A1 (en) Graphical User Interface Display Method And Electronic Device
KR102006740B1 (ko) 휴대 단말기의 화면 표시 방법 및 장치
US20120044175A1 (en) Letter input method and mobile device adapted thereto
JP2012505567A (ja) 開いているウインドウのライブプレビュー
US9569099B2 (en) Method and apparatus for displaying keypad in terminal having touch screen
JP6002688B2 (ja) 携帯端末機のgui提供方法及び装置
KR20140011072A (ko) 다양한 제스처를 이용하여 키패드를 표시하는 방법 및 장치
KR20130097331A (ko) 터치 스크린을 구비하는 전자기기에서 객체를 선택하기 위한 장치 및 방법
US20130145301A1 (en) Method and apparatus for displaying task management screen of mobile device having touch screen
KR20140140759A (ko) 터치스크린을 구비하는 디바이스에서 화면 표시 방법 및 장치
KR102323440B1 (ko) 페이지 운용 방법 및 그 전자 장치
US10895955B2 (en) Apparatus and method for grouping and displaying icons on a screen
KR20110100121A (ko) 휴대 단말기의 문자 입력 방법 및 장치
KR20140103631A (ko) 유저 인터페이스를 통한 입력 처리 장치 및 방법
KR101352506B1 (ko) 단말 장치에서의 아이템 표시 방법 및 그 방법에 따른 단말 장치

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant