KR20150019370A - 휴대 장치에서 3차원 방식의 페이지 탐색 방법 및 이를 위한 휴대 장치 - Google Patents

휴대 장치에서 3차원 방식의 페이지 탐색 방법 및 이를 위한 휴대 장치 Download PDF

Info

Publication number
KR20150019370A
KR20150019370A KR20130096138A KR20130096138A KR20150019370A KR 20150019370 A KR20150019370 A KR 20150019370A KR 20130096138 A KR20130096138 A KR 20130096138A KR 20130096138 A KR20130096138 A KR 20130096138A KR 20150019370 A KR20150019370 A KR 20150019370A
Authority
KR
South Korea
Prior art keywords
page
pages
user input
input means
portable device
Prior art date
Application number
KR20130096138A
Other languages
English (en)
Inventor
김명식
김준우
이성오
정문식
김선아
최성도
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR20130096138A priority Critical patent/KR20150019370A/ko
Priority to US14/284,105 priority patent/US20150052425A1/en
Priority to EP14176434.0A priority patent/EP2843533A3/en
Priority to CN201410363635.8A priority patent/CN104375757A/zh
Priority to PCT/KR2014/007488 priority patent/WO2015023108A1/en
Publication of KR20150019370A publication Critical patent/KR20150019370A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/103Formatting, i.e. changing of presentation of documents
    • G06F40/114Pagination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0483Interaction with page-structured environments, e.g. book metaphor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)

Abstract

본 발명의 실시 예에서는 휴대 장치에서 적층 구조를 가지는 페이지들 간의 이동을 위한 사용자 인터페이스를 제공한다. 이를 위해 휴대 장치와 사용자 입력 수단과의 거리를 측정하고, 측정되는 거리에 따라 적층 구조를 가지는 페이지들 간의 순차적인 이동을 표시하고, 어느 한 페이지의 선택을 위한 상기 사용자 입력 수단의 움직임이 감지되면, 선택된 페이지를 표시하는 과정으로 이루어진다. 이와 같이 본 발명의 실시 예에 따르면, 사용자가 사용자 입력 수단을 휴대 장치의 전면을 향하여 가까이 가져감에 따라 적층 구조의 페이지들의 전면에 표시된 페이지부터 순차적으로 하나씩 이동되어 표시되어, 사용자는 페이지들을 하나씩 확인할 수 있을 뿐만 아니라 원하는 페이지가 보이면 그 페이지를 선택하는 제스처를 취함으로써 직관적인 선택이 가능하게 된다.

Description

휴대 장치에서 3차원 방식의 페이지 탐색 방법 및 이를 위한 휴대 장치{METHOD FOR NAVIGATING PAGES USING THREE-DIMENSINAL MANNER IN MOBILE DEVICE AND THE MOBILE DEVICE THEREFOR}
본 발명은 휴대 장치에서 3차원 방식의 페이지 탐색 방법 및 장치에 관한 것이다.
최근 들어, 통신 기술의 급속한 발전으로 인해 휴대 장치에서의 기능이 점차 확대되고 있고 통신 속도 및 내장 용량이 증가하면서 사용자가 접근이 가능한 자료의 용량이 증가하여, 이에 맞추어 보다 다양한 사용자 인터페이스(User Interface: UI) 및 그를 이용한 다양한 기능들이 제공되고 있다. 또한, 휴대 장치에서는 다양한 기능들을 제어하기 위한 다양한 입력 방식들을 제공한다.
일반적인 휴대 장치에서 다양한 기능들을 이용하거나 자료에 접근하기 위해서는, 사용자는 휴대 장치에 구비된 키들에 대한 키 입력을 통해 제어할 수 있다. 또는 터치스크린(touchscreen)이 구비된 휴대 장치의 경우 상기 터치스크린의 특정 영역에 터치 입력을 통해 상기 휴대 장치를 제어할 수 있다.
예를 들어, 사용자가 휴대 장치에서 도 1에서와 같이 문서의 페이지를 보는 경우 방향성이 있는 키버튼을 입력하거나 좌측 또는 우측으로 스윕(Sweep)하는 터치 인터랙션(Interaction)을 입력해야만 도 1(a) 내지 도 1(c)에서와 같이 문서 페이지들 간을 이동할 수 있다. 하지만 이동하고자 하는 페이지의 수가 방대할 경우 수십 차례 반복적인 터치 인터랙션이 요구되므로, 이는 사용자 입장에서는 매우 번거롭게 느껴질 수 있다.
또한, 도 2에서는 썸네일들이 행과 열로 배치되는 화면을 예시하고 있는데, 한 화면에 표시되지 않은 썸네일을 보기 위해서는 도 2(a)에서와 같이 스크롤 방식으로 썸네일 간을 이동하여야 하며, 도 2(b)에서와 같이 원하는 썸네일을 선택해야지만 도 2(c)에서와 같이 선택된 썸네일이 표시된다. 하지만 이러한 썸네일 방식은 실제 이미지의 크기보다 훨씬 작게 표시되므로, 정확한 식별이 어려울 수 있을 뿐만 아니라 별도의 확대 또는 축소 과정이 요구된다.
또한, 도 3에서는 입력창에 검색 페이지의 번호를 입력하여 이동하는 방식을 예시하고 있다. 도 3(a) 및 도 3(b)에서는 도 1(a) 내지 도 1(c)에서와 같은 방식으로 좌우 터치 인터랙션을 이용하여 페이지들 간 이동을 보여주며, 도 3(c)에서는 검색 페이지의 번호를 입력한 경우 도 3(d)에서와 같이 입력된 번호에 해당하는 페이지 화면이 출력되는 경우를 예시하고 있다. 하지만 검색하고자 하는 페이지를 정확하게 모르면 검색 페이지를 찾을 수 없어 반복된 검색 과정이 요구된다.
이와 같이, 종래에는 휴대 장치의 제어를 위한 특정 입력 수단들에 직접 입력을 발생함으로써 휴대 장치의 제어가 가능하다.
상기와 같이, 휴대 장치의 키 입력 또는 터치 입력과 같은 획일화된 입력 방식에 의해서만 제어가 되는 단순한 방식을 통해 연속적으로 문서의 페이지, 사진 등을 로딩하여 보는 경우에는 사용자는 키버튼을 계속해서 누르고 있거나 반복적으로 눌러야 하며, 터치 입력도 마찬가지로 반복적으로 해야 한다.
게다가 페이지들의 수가 매우 많은 경우에는 이러한 키버튼이나 터치 입력을 통한 연속적인 보기 방식은 한계가 있다. 이와 같이 종래에는 사용자가 휴대 장치에서 원하는 페이지를 보기 위해서는 키패드, 터치스크린 등과 같이 하드웨어적으로 누르는 동작이 필요한 사용자 인터페이스를 이용할 수 밖에 없었다. 만일 사용자의 직관적 동작에 의한 연속적인 페이지들의 보기 제어가 가능하다면 사용자 경험을 향상시킬 수 있을 것이다.
상기한 바를 달성하기 위한 본 발명은, 휴대 장치에서 3차원 방식의 페이지 탐색 방법에 있어서, 복수의 페이지들을 서로 중첩시켜 3차원으로 표시하는 과정과, 사용자 입력 수단과의 거리를 검출하는 과정과, 상기 검출되는 거리에 따라 상기 복수의 페이지들을 순차적으로 이동시켜 표시하는 과정과, 페이지 선택을 위한 상기 사용자 입력 수단의 움직임을 감지하면, 선택된 페이지를 표시하는 과정을 포함함을 특징으로 한다.
또한 본 발명은, 3차원 방식의 페이지 탐색을 수행하기 위한 휴대 장치에 있어서, 복수의 페이지들을 서로 중첩하여 3차원으로 표시하는 표시부와, 상기 복수의 페이지들 간의 이동을 제어하기 위해 상기 표시부와 사용자 입력 수단과의 거리를 검출하는 제1센서부와, 상기 검출된 거리에 따라 상기 복수의 페이지들을 순차적으로 이동시켜 상기 표시부 상에 표시하도록 제어하며, 페이지 선택을 위한 상기 사용자 입력 수단의 움직임이 감지되면 선택된 페이지를 상기 표시부 상에 표시하도록 제어하는 제어부를 포함함을 특징으로 한다.
본 발명에 따르면, 사용자의 직관적 동작에 의한 연속적인 페이지들의 보기가 가능할 뿐만 아니라 이러한 페이지들 간의 이동을 3차원으로 표시하여 사용자 경험을 향상시킬 수 있는 이점이 있다.
또한 본 발명은 휴대 장치에 대한 직접적인 입력 없이도 빠르고 직관적인 페이지 검색 및 선택이 가능한 이점이 있다.
또한 본 발명은 각 페이지들을 서로 중첩하여 3차원으로 표시하여 한정된 크기의 휴대 장치의 화면을 효율적으로 사용할 수 있을 뿐만 아니라 선택된 페이지를 전면에 표시하여 각 페이지들에 표시되는 내용을 손쉽게 확인할 수 있다.
도 1은 종래의 스윕(Sweep)하는 터치 인터랙션(Interaction)에 따른 페이지 간 이동을 보여주는 화면예시도,
도 2는 종래의 스크롤 방식의 썸네일 간 이동을 보여주는 화면예시도,
도 3은 종래의 검색 페이지 번호 입력 방식의 페이지 간 이동을 보여주는 화면예시도,
도 4는 본 발명의 바람직한 실시 예에 따른 휴대 장치를 나타내는 개략적인 블록도,
도 5는 본 발명의 실시 예에 따른 휴대 장치의 전면 사시도를 나타낸 도면,
도 6은 본 발명의 실시 예에 따른 휴대 장치의 후면 사시도를 나타낸 도면,
도 7은 본 발명의 일실시 예에 따른 3차원 방식의 페이지 탐색을 위한 휴대 장치에서의 동작흐름도,
도 8은 본 발명의 일실시 예에 따른 문서 페이지들 간의 이동을 보여주는 화면예시도,
도 9는 본 발명의 일실시 예에 따른 사진들 간의 이동을 보여주는 화면예시도,
도 10은 본 발명의 일실시 예에 따른 웹 페이지들 간의 이동을 보여주는 화면예시도,
도 11은 본 발명의 일실시 예에 따른 운영체계별 바탕화면들 간의 이동을 보여주는 화면예시도,
도 12는 본 발명의 일실시 예에 따른 작업일자별 작업문서 간의 이동을 보여주는 화면예시도,
도 13은 본 발명의 다른 실시 예에 따른 3차원 방식의 페이지 탐색을 위한 휴대 장치에서의 동작흐름도,
도 14 및 도 15는 본 발명의 다른 실시 예에 따른 아이템별 페이지 정렬 방식을 설명하기 위한 화면예시도,
도 16은 본 발명의 또다른 실시 예에 따른 화면 확대 또는 축소 방식을 설명하기 위한 화면예시도.
이하, 첨부된 도면들에 기재된 내용들을 참조하여 본 발명에 따른 예시적 실시예를 상세하게 설명한다. 다만, 본 발명이 예시적 실시예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일한 참조부호는 실질적으로 동일한 기능을 수행하는 부재를 나타낸다.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 본 출원에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.
본 발명의 실시 예에서는 휴대 장치에서 적층 구조를 가지는 페이지들 간의 이동을 위한 사용자 인터페이스를 제공한다. 이를 위해 휴대 장치와 사용자 입력 수단과의 거리를 측정하고, 측정되는 거리에 따라 적층 구조를 가지는 페이지들 간의 순차적인 이동을 표시하고, 어느 한 페이지의 선택을 위한 상기 사용자 입력 수단의 움직임이 감지되면, 선택된 페이지를 표시하는 과정으로 이루어진다. 이와 같이 본 발명의 실시 예에 따르면, 사용자가 사용자 입력 수단을 휴대 장치의 전면을 향하여 가까이 가져감에 따라 적층 구조의 페이지들의 전면에 표시된 페이지부터 순차적으로 하나씩 이동되어 표시되어, 사용자는 페이지들을 하나씩 확인할 수 있을 뿐만 아니라 원하는 페이지가 보이면 그 페이지를 선택하는 제스처를 취함으로써 직관적인 선택이 가능하게 된다.
본 발명에서 휴대 장치는 터치 스크린을 구비하는 임의의 장치일 수 있으며, 휴대 장치는 이동 단말, 통신 단말, 휴대용 통신 단말, 휴대용 이동 단말 등으로 칭할 수 있다.
예를 들어, 휴대 장치는 스마트폰, 휴대폰, 게임기, TV, 디스플레이 장치, 차량용 헤드 유닛, 노트북 컴퓨터, 랩탑 컴퓨터, 태블릿(Tablet) 컴퓨터, PMP(Personal Media Player), PDA(Personal Digital Assistants) 등 일 수 있다. 휴대 장치는 무선 통신 기능을 갖는 포켓 사이즈의 휴대용 통신 단말로서 구현될 수 있다. 또한, 휴대 장치는 플렉서블 디스플레이 장치일 수 있다. 이외에도 자료를 표시하는 화면을 가지고, 화면 상부의 입력부의 위치 및 거리를 감지할 수 있는 장치이면 모두 본 발명이 적용 가능함은 물론이다.
이러한 휴대 장치의 대표적인 구성은 휴대폰에 대한 것이며, 이러한 휴대 장치의 대표적인 구성에서 일부 구성 소자는 필요에 따라 생략되거나 변경될 수 있다.
도 4는 본 발명의 일 실시 예에 따른 휴대 장치를 나타내는 개략적인 블록도이다.
도 4를 참조하면, 휴대 장치(100)는 하나의 터치 스크린(190) 및 적어도 하나의 터치 스크린 컨트롤러(195)를 포함한다. 본 발명에서는 표시부 및 디스플레이 컨트롤러의 일 예로, 각각 터치 스크린(190) 및 터치 스크린 컨트롤러(195)인 경우를 예로 들어 설명한다. 또한, 휴대 장치(100)는 제어부(110), 통신 모듈(120), 카메라 모듈(150), 입/출력 모듈(160), 센서 모듈(170), 저장부(175) 및 전원 공급부(180)를 포함한다.
먼저, 제어부(110)는 CPU(111), 휴대 장치(100)의 제어를 위한 제어 프로그램이 저장된 롬(ROM, 112) 및 휴대 장치(100)의 외부로부터 입력되는 신호 또는 데이터를 기억하거나, 휴대 장치(100)에서 수행되는 작업을 위한 기억 영역으로 사용되는 램(RAM, 113)을 포함할 수 있다. CPU(111), 롬(112) 및 램(113)은 내부 버스(bus)를 통해 상호 연결될 수 있다.
또한, 제어부(110)는 통신 모듈(120), 카메라 모듈(150), 입/출력 모듈(160), 센서 모듈(170), 저장부(175), 전원 공급부(180), 터치 스크린(190) 및 터치 스크린 컨트롤러(195)를 제어할 수 있다.
통신 모듈(120)은 이동 통신 모듈, 무선랜 모듈, 및 근거리 통신 모듈 중 적어도 하나를 포함할 수 있다. 통신 모듈(120)은 제어부(110)의 제어에 따라 서버 등의 외부 저장 매체, 외부 전자 장치, 다른 휴대 단말 등과 무선 신호를 송수신할 수 있다.
카메라 모듈(150)은 이미지 센서를 구비하며, 제어부(110)의 제어에 따라 정지 영상 또는 동영상을 촬영하는 제1 카메라(151) 및 제2 카메라(152) 중 적어도 하나를 포함할 수 있다. 제1 카메라(151)는 상기 휴대 장치(100) 전면에 배치되고, 제2 카메라(152)는 상기 휴대 장치(100)의 후면에 배치될 수 있다.
또한 카메라 모듈(150)은 추가로 제3카메라를 더 포함할 수 있다. 이러한 경우 제 3 카메라는 제1카메라(151) 또는 제2카메라(152)에 인접하게 배치되어 3차원 정지 이미지 및 3차원 동영상을 촬영할 수 있다.
제1 및 제2 카메라(151, 152)는 각각 렌즈계, 이미지 센서 등을 포함할 수 있다. 제1 및 제2 카메라(151, 152)는 각각 렌즈계를 통해 입력되는 광신호를 전기적인 이미지 신호로 변환하여 제어부(110)로 출력하고, 사용자는 이러한 제1 및 제2 카메라(151, 152)를 통해 동영상 또는 정지 영상을 촬영할 수 있다.
입/출력 모듈(160)은 적어도 하나의 버튼(161), 적어도 하나의 진동 소자(164), 키패드(166) 중 적어도 하나를 포함할 수 있다. 그리고, 이러한 입/출력 모듈(160)은 이에 국한되지 않으며, 적어도 하나의 마이크, 적어도 하나의 스피커, 이어폰 연결잭 이외에도 마우스, 트랙볼, 조이스틱 또는 커서 방향 키들과 같은 커서 컨트롤(cursor control)이 터치 스크린(190) 상의 커서의 움직임을 제어하기 위해 제공될 수 있다.
버튼(161)은 상기 휴대 장치(100)의 하우징(또는 케이스)의 전면, 측면 또는 후면에 형성될 수 있으며, 전원/잠금 버튼, 볼륨 버튼, 메뉴 버튼, 홈 버튼, 돌아가기 버튼(back button) 및 검색 버튼 중 적어도 하나를 포함할 수 있다.
진동 소자(164)는 제어부(110)의 제어에 따라 전기적 신호를 기계적 진동으로 변환할 수 있다. 예를 들어, 진동 모드에 있는 휴대 장치(100)는 다른 장치(도시되지 아니함)로부터 음성 또는 화상 통화가 수신되는 경우, 진동 소자(164)가 동작한다. 진동 소자(164)는 상기 휴대 장치(100)의 하우징 내에 하나 또는 복수로 형성될 수 있다. 진동 소자(164)는 터치 스크린(190), 입/출력 모듈(160) 또는 기타 입력 수단을 통한 사용자 입력에 대응하여 동작할 수 있다.
키패드(166)는 휴대 장치(100)의 제어를 위해 사용자로부터 키 입력을 수신할 수 있다. 키패드(166)는 휴대 장치(100)에 형성되는 물리적인 키패드(도시되지 아니함) 또는 터치 스크린(190)에 표시되는 가상의 키패드(도시되지 아니함)를 포함한다. 휴대 장치(100)에 형성되는 물리적인 키패드는 휴대 장치(100)의 성능 또는 구조에 따라 제외될 수 있다.
센서 모듈(170)은 휴대 장치(100)의 상태 및 휴대 장치(100) 주변의 상황을 검출하는 적어도 하나의 센서를 포함한다. 예를 들어, 센서 모듈(170)은 사용자의 휴대 장치(100)에 대한 접근 여부를 검출하는 근접 센서, 휴대 장치(100) 주변의 빛의 양을 검출하는 조도 센서(도시되지 아니함), 또는 휴대 장치(100)의 동작(예를 들어, 휴대 장치(100)의 회전, 휴대 장치(100)의 가속 또는 진동)을 검출하는 모션 센서(도시되지 아니함), 지구 자기장을 이용해 휴대 장치(100)의 방위(point of the compass)를 검출하는 지자기 센서(Geo-magnetic Sensor), 중력의 작용 방향을 검출하는 중력 센서(Gravity Sensor), 대기의 압력을 측정하여 고도를 검출하는 고도계(Altimeter) 중 적어도 하나의 센서를 포함할 수 있다. 또한, 사용자를 촬영하기 위한 카메라 모듈(150)도 센서 모듈(170)에 포함될 수 있다. 센서 모듈(170)에 구비되는 센서는 본 발명에서 예시하는 센서 이외의 센서가 휴대 장치(100)의 성능에 따라 추가되거나 삭제될 수 있음은 물론이다.
또한 본 발명의 실시 예에 따라 센서 모듈(170)은 휴대 장치(100)로부터 사용자 입력 수단까지의 물리적 거리를 획득하는 깊이 센서를 포함할 수 있다. 즉, 깊이 정보를 획득하기 위해 TOF(Time Of Flight) 방식의 깊이 센서가 이용될 수 있다. 예를 들어, 빛, 전파, 음파 등을 이용한 거리 감지 센서의 사용이 가능하다. 이러한 센서는 반사되어 오는 빛, 전파, 음파의 파장의 변화, 접근에 따른 정전용량의 변화, 또는 반사파의 각도 변화 및 시간차 등을 이용하여 거리를 측정한다. 여기서, 본 발명의 실시 예에 따른 깊이 센서는 사용자 입력 수단과의 거리를 측정하는 역할을 하므로, 거리 센서로도 이해되어야 한다.
거리 센서는 휴대 장치(100)의 전면에 배치되며, 적외선 광원과 적외선 카메라를 포함할 수 있다. 이러한 경우 적외선 광원은 적외선을 출력하고, 적외선 카메라는 물체로부터 반사된 적외선을 검출한다. 예를 들어, 적외선 광원은 행렬 구조의 LED 어레이로 구성될 수 있다. 적외선 카메라는 적외선을 통과시키고 적외선 이외의 파장 대역을 차단하는 필터와, 필터를 통과한 적외선을 포커싱하는 렌즈계와, 렌즈계에 의해 형성된 광학 이미지를 전기적인 이미지 신호로 변환하여 출력하는 이미지 센서를 포함할 수 있다. 예를 들어, 이미지 센서는 행렬 구조의 PD 어레이로 구성될 수 있다.
이러한 방식의 센서들 이외에도 깊이 정보를 측정 및/또는 계산하기 위해 다른 기술들이 이용될 수 있음은 물론이다.
예를 들면, 물체의 접근시 물체의 크기 변화를 감지하는 센서의 사용이 가능하다. 일반적으로 물체의 접근시 크기가 커지기 때문에 크기의 변화를 통해 거리의 변화를 계산하는 것이 가능하다. 이를 위해 카메라 모듈(150)을 깊이 측정을 위한 센서로 사용할 수 있다.
또한, 본 발명에서는 이러한 센서들을 각각 독립적으로 사용할 수 있으며, 다르게는 수직 방향으로 거리 변화를 감지하는 센서의 정밀성, 형태 변화를 감지하는 센서를 이용한 수평면에서의 변화 감지에 있어서의 편의성 등을 고려하여 둘 이상의 센서들의 조합을 이용하는 것도 가능하다. 이와 같이 둘 이상의 센서들의 조합을 이용할 경우에는 사용자 입력 수단의 접근, 높이, 높이 변화, 수평 위치 및 수평 변화에 있어 보다 정확한 측정 결과를 얻을 수 있다.
한편, 제1카메라(151)는 휴대 장치(100)의 전면에 배치되므로 사용자의 손, 스타일러스 펜 등의 사용자 입력 수단을 촬영한 영상을 출력한다. 이에 따라 제어부(110)는 사용자 입력 수단을 촬영한 영상에 기반하여, 촬영된 물체의 크기 변화를 통해 거리 변화를 계산할 수 있다.
본 발명의 실시 예에서는 터치스크린(190)의 전면으로부터 사용자 입력 수단까지의 거리에 따라 페이지들 간의 순차적인 이동을 예를 들어 설명하나, 센서 모듈(170)을 후면에 배치하거나 제2카메라(152)를 이용하여 후면으로부터의 사용자 입력 수단까지의 거리도 페이지들 간의 이동을 위해 이용 가능하다. 예를 들어, 터치스크린(190)의 전면을 기준점으로 설정할 수 있으며, 다르게는 터치스크린(190)의 후면으로부터 일정 거리 떨어진 위치를 기준점으로 설정할 수 있다. 이에 따라 제어부(110)는 터치스크린(190)의 전면으로부터 사용자 입력 수단과의 거리를 측정할 수 있으며, 다르게는 터치스크린(190)을 지나쳐서 일정 거리 이내까지의 거리를 측정하도록 설정할 수도 있다.
표시부는 투명 디스플레이로 구현되는 경우에 휴대 장치(100)의 후면에서 손을 움직임에 따라 그 움직임을 표시함으로써 손의 움직임을 사용자가 관측하도록 할 수 있다.
또한 본 발명의 실시 예에 따라 터치스크린(190) 상에서의 페이지, 객체 등을 선택하기 위한 사용자 입력을 감지하기 위해 사용자 입력 수단의 위치를 감지하는 센서를 더 포함한다. 이를 위해 거리 센서 어레이가 이용될 수 있으며, 이러한 거리 센서 어레이는 사용자 입력 수단의 수평 이동을 감지하고 위치 측정을 수행한다.
본 발명의 실시 예에 따라 사용자 입력 수단의 수평 방향으로의 이동을 감지하기 위해서는 휴대 장치(100) 전면에 배치되며, 최소 4개의 거리 센서 어레이가 요구된다. 이러한 수평 방향으로의 이동을 감지하기 위해서는 터치스크린(190) 상의 미리 지정된 위치를 중심으로 정한다. 예를 들어, 손가락 끝을 기준점으로 하는 경우 손가락으로 판단되는 물체의 끝단의 수평면 투영 위치를 수평면에서의 위치로 결정한다.
또한 제1카메라(151) 또는 제2카메라(152)로 촬영한 이미지로부터 수평 방향의 위치 및 이동을 감지하는 것이 가능하다.
본 발명의 실시 예에 따라 상기와 같은 센서들을 각각 개별적으로 이용하여 사용자 입력 수단의 수직 방향으로 이동한 거리, 수평 방향으로 이동한 거리를 측정할 수 있으며, 그 센서들의 조합을 통해서도 측정이 가능함은 물론이다. 예를 들어, 깊이 센서와 카메라를 이용하는 방식, 카메라만을 이용하는 방식, 거리 센서 어레이만을 이용하는 방식 등 다양한 센서의 조합이 가능하며, 이에 따라 사용자 입력 수단의 휴대 장치(100)로의 접근, 거리, 거리 변화, 수평 위치 및 수평 변화 등을 감지할 수 있다.
저장부(175)는 제어부(110)의 제어에 따라 통신 모듈(120), 카메라 모듈(150), 입/출력 모듈(160), 센서 모듈(170) 또는 터치 스크린(190)의 동작에 따라 입/출력되는 신호 또는 데이터를 저장할 수 있다. 저장부(175)는 휴대 장치(100) 또는 제어부(110)의 제어를 위한 제어 프로그램 및 어플리케이션들을 저장할 수 있다.
“저장부”라는 용어는 저장부(175), 제어부(110) 내 롬(112), 램(113) 또는 휴대 장치(100)에 장착되는 메모리 카드(예를 들어, SD 카드, 메모리 스틱) 등의 임의의 데이터 저장 장치를 지칭하는 용어로 사용된다. 저장부(175)는 비휘발성 메모리, 휘발성 메모리, 하드 디스크 드라이브(HDD) 또는 솔리드 스테이트 드라이브(SSD)를 포함할 수도 있다.
저장부(175)는 기계(예를 들어, 컴퓨터)로 읽을 수 있는 매체이며, 기계로 읽을 수 있는 매체라는 용어는 기계가 특정 기능을 수행할 수 있도록 상기 기계로 데이터를 제공하는 매체로 정의될 수 있다. 저장부(175)는 비휘발성 매체(non-volatile media) 및 휘발성 매체를 포함할 수 있다. 이러한 모든 매체는 상기 매체에 의해 전달되는 명령들이 상기 명령들을 상기 기계로 읽어 들이는 물리적 기구에 의해 검출될 수 있도록 유형의 것이어야 한다.
상기 기계로 읽을 수 있는 매체는, 이에 한정되지 않지만, 플로피 디스크(floppy disk), 플렉서블 디스크(flexible disk), 하드 디스크, 자기 테이프, 시디롬(compact disc read-only memory: CD-ROM), 광학 디스크, 펀치 카드(punch card), 페이퍼 테이프(paper tape), 램, 피롬(Programmable Read-Only Memory: PROM), 이피롬(Erasable PROM: EPROM) 및 플래시-이피롬(FLASH-EPROM) 중의 적어도 하나를 포함한다.
전원 공급부(180)는 제어부(110)의 제어에 따라 휴대 장치(100)의 하우징에 배치되는 하나 또는 복수의 배터리에 전력을 공급할 수 있다. 하나 또는 복수의 배터리는 휴대 장치(100)에 전력을 공급한다. 또한, 전원 공급부(180)는 커넥터와 연결된 유선 케이블을 통해 외부의 전원 소스로부터 입력되는 전원을 휴대 장치(100)로 공급할 수 있다.
그리고, 휴대 장치(100)는 사용자에게 다양한 서비스(예, 통화, 데이터 전송, 방송, 사진촬영)에 대응되는 사용자 그래픽 인터페이스를 제공하는 적어도 하나의 터치 스크린(190)을 포함할 수 있다.
터치 스크린(190)은 휴대 장치(100)의 운영체제(OS; Operation System)에 기초하여, 사용자에게 다양한 서비스(예, 통화, 데이터 전송, 방송, 사진촬영)에 대응되는 사용자 인터페이스를 디스플레이할 수 있다. 터치 스크린(190)은 사용자 그래픽 인터페이스에 입력되는 적어도 하나의 사용자 입력에 대응되는 아날로그 신호를 터치 스크린 컨트롤러(195)로 출력할 수 있다. 터치 스크린(190)은 사용자의 신체(예를 들어, 검지를 포함하는 손가락) 를 통해 적어도 하나의 사용자 입력을 수신할 수 있다. 터치 스크린(190)은 하나의 터치의 연속적인 움직임을 수신할 수도 있다. 터치 스크린(190)은 입력되는 터치의 연속적인 움직임에 대응되는 신호를 터치 스크린 컨트롤러(195)로 출력할 수 있다.
본 발명의 실시 예에서 터치는 터치 스크린(190)과 손가락 등의 사용자 입력 수단과의 접촉에 한정되지 않고, 비접촉(예를 들어, 터치 스크린(190)과의 직접 접촉 없이 사용자 입력 수단을 검출할 수 있는 인식 거리(예를 들어, 1cm) 이내에 사용자 입력 수단이 위치하는 경우)을 포함할 수 있다.
이러한, 터치 스크린(190)은 예를 들어, 정전용량(capacitive) 방식, 적외선(infrared) 방식, 초음파(acoustic wave) 방식, 또는 이들의 조합으로 구현될 수 있다.
터치 스크린 컨트롤러(195)는 터치 스크린(190)으로부터 입력된 아날로그 신호를 디지털 신호로 변환하여 제어부(110)로 전송한다. 제어부(110)는 터치 스크린 컨트롤러(195)부터 수신한 디지털 신호를 이용하여 터치 스크린(190)에 표시되는 유저 인터페이스를 제어할 수 있다. 예를 들어, 제어부(110)는 직접 터치 이벤트 또는 호버링 이벤트에 응답하여 터치 스크린(190)에 표시된 단축 아이콘(도시되지 아니함) 또는 객체가 선택 또는 실행되도록 할 수 있다. 또한, 터치 스크린 컨트롤러(195)는 제어부(110)에 통합될 수도 있다.
터치 스크린 컨트롤러(195)는 터치 스크린(190)을 통해 출력되는 값(예컨대, 전류값 등)을 검출하여 사용자 입력 위치뿐만 아니라 호버링 간격 또는 거리를 확인할 수 있고, 확인된 거리 값을 디지털 신호(예컨대, Z좌표)로 변환하여 제어부(110)로 제공할 수도 있다. 또한, 제어부(110)는 상기 터치 스크린(190)뿐만 아니라 카메라 모듈(150), 입/출력 모듈(160), 및 센서모듈(170) 등을 통해 수신되는 다양한 사용자 입력을 검출할 수 있다. 상기 사용자 입력은 상기 터치뿐만 아니라, 사용자의 제스처(gesture), 음성, 눈동자 움직임, 생체신호 등 상기 장치(100) 내로 입력되는 다양한 형태의 정보를 포함할 수 있다. 제어부(110)는 상기 검출된 사용자 입력에 대응하는 미리 정해진 동작 또는 기능이 휴대 장치(100) 내에서 수행되도록 제어할 수 있다.
도 5는 본 발명의 실시 예에 따른 휴대 장치의 전면 사시도를 나타낸 도면이고, 도 6은 본 발명의 실시 예에 따른 휴대 장치의 후면 사시도를 나타낸 도면이다.
도 5 및 도 6을 참조하면, 휴대 장치(100)의 전면(101) 중앙에는 터치 스크린(190)이 배치된다. 터치 스크린(190)은 휴대 장치(100)의 전면(101)의 대부분을 차지하도록 크게 형성될 수 있다.
휴대 장치(100)의 전면(101)의 가장자리에는 제1 카메라(151)와 조도 센서(170a) 및 근접 센서(170b)가 배치될 수 있다. 휴대 장치(100)의 후면(103)에는 제2 카메라(152), 플래시(flash, 153), 스피커(163)가 배치될 수 있다.
본 발명의 실시 예에서 후방은 휴대 장치(100)의 후면과 대면하는 방향이고, 전방은 휴대 장치(100)의 전면과 대면하는 방향이며, 전방은 일 방향을 나타내고, 후방은 일 방향에 반대인 방향을 나타낸다.
본 발명의 실시 예에서는 사용자 입력 수단과의 거리 검출에 따른 페이지 간 이동을 보여주는 방법을 제공하며, 제어부(110)는 휴대 장치(100) 내 다른 구성 소자들을 제어하여 3차원 방식의 페이지 탐색 방법을 수행한다.
도 7은 본 발명의 일실시 예에 따른 3차원 방식의 페이지 탐색을 위한 휴대 장치에서의 동작흐름도이다.
도 7을 참조하면, 적층된 구조를 갖는 페이지 목록의 표시를 위한 어플리케이션 실행이 실행되면, 700단계에서 적층된 구조를 갖는 페이지 목록의 표시 모드로 진입한다. 그리고 제어부(110)는 705단계에서 그 페이지 목록의 초기 페이지 또는 모드 진입 시 표시되던 화면을 표시한다. 여기서, 페이지 목록은, 각 페이지별로 순서를 정해 중첩해서 표시 가능한 오브젝트들 및 복수의 선택 가능한 아이템들이 표시된다. 이러한 오브젝트의 예로는, 사진, 이미지, 웹 페이지, 문서, 이메일, 스케줄러, 음악 앨범, 복수의 운영체계(OS), 작업일자별 작업 문서 등이 있으며, 이외에도 각 페이지별로 서로 중첩되어 표시될 수 있는 오브젝트이면 모두 가능하다. 또한, 복수의 선택 가능한 아이템들은 상기 페이지들을 재정렬하기 위한 기준이 되는 것으로, 예를 들어, 이미지, 텍스트 중 적어도 하나를 포함하는 형태로 표시될 수 있다. 여기서, 이미지는 그 아이템을 용이하게 식별하기 위한 캐릭터, 심볼 등과 같은 이미지로 이루어지거나, 그 아이템의 특성을 설명하는 제목(title)을 포함할 수도 있다.
이어, 제어부(110)는 710단계에서 센서 모듈(170)을 통해 사용자 입력 수단과의 거리를 측정하여, 측정된 거리에 따라 적층된 구조를 갖는 페이지 목록 간 이동을 표시한다. 이때, 본 발명의 실시예에 따라 페이지 목록 간 이동은 3차원 방식으로 표시되며, 예를 들어 사용자 입력 수단과 터치스크린(190) 간의 거리가 짧아질수록 현재 표시되고 있는 페이지에서 순차적으로 페이지들이 변경되어 표시된다. 즉, 사용자 입력 수단과의 거리에 따라 페이지 목록들 간의 네비게이션 동작이 3차원 방식의 시각적 효과 또는 애니메이션을 이용하여 전면으로 이동되어 표시될 수 있다. 이때, 전면에 배치되는 페이지 이외의 나머지 페이지들은 그 전면의 페이지 앞뒤에 있는 페이지들을 봄으로써 보다 쉽게 브라우징하는 것을 가능하게 하도록 그 전면의 페이지에 일부 중첩되어 표시된다. 이와 같이 사용자 입력 수단과의 거리는 하나의 페이지에서 다음 페이지로의 이동을 정하기 위해 이용된다.
여기서, 거리에 따른 페이지 이동은 거리 변화에 따라 이동을 하는 것 외에 거리 센서의 거리 측정 감도에 따라 다양한 방식으로 이동하는 것이 가능하다. 예를 들어, 표시부로부터 손가락이나 스타일러스 펜까지의 거리를 3단계로 구분하는 경우에는 1단계에서는 페이지 뒤로, 2단계에서는 페이지 이동을 멈추고, 3단계에서는 페이지 앞으로 이동할 수 있다. 또한 이와 유사하게 5단계로 구분하는 경우에는 1단계에서는 빠르게 뒤로, 2단계에서는 뒤로, 3단계에서는 멈추고, 4단계에서는 앞으로, 5단계에서는 빠르게 앞으로 가는 방식으로 각 단계에서 설정한 범위로 이동하는 것이 가능하다.
이어, 제어부(110)는 715단계에서 페이지 선택을 위한 사용자 입력 수단의 움직임이 있는지를 판단한다. 본 발명에서 페이지 선택을 위한 사용자 입력 수단의 움직임은 상기 휴대 장치의 전면에 평행하는 상기 사용자 입력 수단의 수평 방향으로의 이동을 나타낸다. 이외에도 사용자가 손을 돌리는 동작이나 손가락으로 제스처를 취하는 등 미리 정해진 제스처를 이용하여 페이지를 선택할 수 있다. 이때, 사용자 입력 수단의 움직임은 사용자 입력 수단의 수직 방향으로의 이동이 일정 시간 멈춘 상태에서 판단하는 것이 바람직하다. 그러면 제어부(110)는 720단계에서 선택된 페이지 화면을 표시한다.
도 8은 본 발명의 일실시 예에 따른 문서 페이지들 간의 이동을 보여주는 화면예시도이다.
도 8(a)를 참조하면, 적층된 구조(800)를 가지는 문서 페이지 목록에서 그 페이지 간 이동을 예시하고 있다. 초기 문서 페이지(805)를 시작으로 사용자 입력 수단의 수직 방향(815)의 이동에 따라 페이지들이 순차적으로 하나씩 변경되어 표시된다. 이때, 사용자 입력 수단이 휴대 장치(100)의 전면을 향해 이동할 경우 앞페이지로부터 뒷페이지로 변경되어 표시되며, 휴대 장치(100)의 전면으로부터 사용자 방향으로 이동할 경우에는 뒷페이지로부터 앞페이지로 변경되어 표시된다.
이때, 표시 화면에는 전체 문서 페이지의 수와 함께 현재 페이지의 번호가 표시되는 영역(810)이 배치될 수 있다. 이러한 상태에서 사용자 입력 수단의 수평 방향(820)으로의 움직임 감지되면 현재의 페이지(825)가 도 8(b)에서와 같이 표시될 수 있다. 여기서, 현재의 페이지(825)는 사용자 입력 수단의 수직 방향으로의 이동이 멈춘 지점에 해당하는 페이지이다.
도 9는 본 발명의 일실시 예에 따른 사진들 간의 이동을 보여주는 화면예시도이다. 도 9(a)에서는 적층 구조(900)를 갖는 초기 페이지 화면에 사진(902)이 표시되는 경우를 예시하며, 수직 방향(905)으로 이동 후 수평 방향(910)으로 이동했을 경우에 선택된 사진 페이지(915)는 도 9(b)와 같이 표시될 수 있다.
도 10은 본 발명의 일실시 예에 따른 웹 페이지들 간의 이동을 보여주는 화면예시도이다. 도 10(a)에서는 사용자가 여러 웹 페이지들(1000)을 화면 상에 띄워놓은 경우 그 웹 페이지들 간의 이동을 사용자 입력 수단의 수직 방향(1005)으로의 이동 및 수평 방향(1010)으로의 이동을 통해 도 9(b)에서와 같이 웹 페이지(1015)를 선택하는 경우를 예시하고 있다.
도 11은 본 발명의 일실시 예에 따른 바탕화면들 간의 이동을 보여주는 화면예시도이다. 여러 개의 바탕화면을 지정하여 사용하는 운영체계의 경우, 또는 하나의 휴대 장치에 여러 개의 운영체계를 설치하여 사용하는 경우 등 복수의 바탕화면을 가지는 경우 바탕화면(1100) 간의 이동에도 본 발명이 적용될 수 있다. 도 11(a)에서는 사용자가 여러 바탕화면들(1000)을 화면 상에 띄워 놓고, 사용자 입력 수단의 수직 방향(1105)으로의 이동 및 수평 방향(1110)으로의 이동을 통해 도 11(b)에서와 같이 바탕화면(1115)을 선택하는 경우를 예시하고 있다.
한편, 상기한 바에서는 사용자 입력 수단과의 거리에 따라 페이지들 간의 이동만을 예시하고 있으나, 도 12에서와 같이 사용자 입력 수단과의 거리를 시간축에 할당하여 시간의 변화를 나타내는 데 이용할 수도 있다.
도 12는 본 발명의 일실시 예에 따른 작업일자별 작업문서 간의 이동을 보여주는 화면예시도이다.
도 12(a)에서는 서로 중첩되어 표시되는 적층 구조(1200)의 작업일자별 작업 문서를 예시하고 있다. 이러한 경우 사용자 입력 수단을 가까이 가져감에 따라 현재 시점의 작업 문서들로부터 시작하여 하나씩 순차적으로 과거 시점에 해당하는 작업 문서들이 표시된다. 이와 반대로 사용자 입력 수단이 멀어짐에 따라 반대로 과거에서 시작하여 현재 시점에 해당하는 작업 문서들로 변경되어 표시된다. 즉, 사용자 입력 수단의 수직 방향(1205)으로의 이동은 작업일자별 작업 문서들 간의 이동을 제어하는 데 이용되며, 수평 방향(1210)으로의 이동은 사용자가 원하는 작업일자의 작업 문서(1215)를 선택하는 데 이용된다. 이에 따라 도 12(b)에서와 같이 선택된 작업일자의 작업 문서(1215)에 해당하는 화면이 표시될 수 있다. 이때, 선택된 페이지에 해당하는 작업일자의 작업 문서에 연관된 동작이 수행될 수 있다. 이에 따라 상기 작업일자의 작업 문서로 복원하는 동작이 수행될 수 있으며, 이와 동시에 화면에는 그 복원 동작이 진행 중임이 함께 표시될 수 있다.
이러한 수직 이동에 따른 페이지, 시간, 사진 등의 이동에 있어 수직 이동 방향과 앞뒤, 전후의 방향은 설정에 따라 앞서 기술한 것과 반대로 하는 것이 가능하다. 예를 들어 사용자 입력수단이 휴대 장치(100)의 전면을 향해 이동할 경우 뒷페이지에서 앞페이지로 변경되어 표시하는 것이 가능하다.
도 13은 본 발명의 다른 실시 예에 따른 3차원 방식의 페이지 탐색을 위한 휴대 장치에서의 동작흐름도이다.
도 13을 참조하면, 제어부(110)는 1300단계에서 적층된 구조를 갖는 페이지 목록의 표시 모드로 진입하면, 1305단계에서 복수개의 아이템들이 배치된 초기 페이지를 표시한다. 이러한 초기 페이지를 예시하면 도 14(a)에서와 같다.
도 14(a)는 가수(1400), 곡명(1405), 앨범(1410) 등의 아이템이 배치된 음악 앨범 페이지가 표시되는 터치스크린(190) 화면을 예시하고 있다. 도 14(a)에서는 음악 앨범 페이지의 경우 가수, 곡명, 앨범 등이 아이템으로써 표시되는 경우를 예시하고 있으나, 날짜, 플레이리스트 등 페이지 목록 간 재정렬을 위해 다양한 아이템이 적용될 수 있다. 예를 들어, 정렬 기준으로 페이지의 번호, 생성시간, 이름 등으로 정렬될 수 있으며, 사진의 경우에는 찍힌 인물 등이 정렬을 위한 기준으로 사용될 수 있다. 이와 같이 정렬 기준은 페이지 화면의 미리 정해진 영역에 표시될 수 있다.
사용자는 사용자 입력 수단을 수직 방향(1415)으로 이동시켜 도 14(b)에서와 같이 어느 하나의 아이템(1410)을 선택할 수 있다. 이를 위해 제어부(110)는 1310단계에서 사용자 입력 수단의 이동이 감지되는지를 판단하여, 사용자 입력 수단의 이동이 감지되면 1315단계에서 그 사용자 입력 수단의 위치를 판별한다. 이때, 그 위치 판별은 직접적인 터치 방식, 호버링 등의 간접 터치 방식이 이용될 수 있으며, 다르게는 사용자 입력 수단의 수직 방향으로 이동 시 표시부에 투영한 2차원상의 위치에 따라 선택 가능한 아이템들이 표시될 수 있다.
도 15(a) 및 도 15(b)는 사용자 입력 수단의 수직 방향(1500)으로의 이동에 따라 선택 가능한 아이템들이 다르게 표시되는 경우를 예시하고 있다. 이와 같이 제어부(110)는 1320단계에서 판별된 위치에 대응하는 아이템이 선택되었음을 표시한다. 그리고 나서 그 아이템을 선택하기 위한 사용자 입력 수단의 제스처를 통해 그 아이템을 선택할 수 있다. 만일 어느 하나의 아이템이 선택되면 제어부(110)는 1325단계에서 선택된 아이템을 기준으로 페이지 목록을 재정렬한다.
이어, 제어부(110)는 1330단계에서 재정렬된 페이지 목록 간 이동을 위한 사용자 입력 수단의 수직 이동이 있는지를 판단한다. 만일 수직 이동이 있으면 1335단계에서 사용자 입력 수단의 수직 이동에 따라 상기 재정렬된 페이지 목록 간 이동을 표시한다. 그리고나서 제어부(110)는 1340단계에서 사용자 입력 수단의 수평 이동이 있는지를 판단한다. 만일 사용자 입력 수단의 수평 이동이 감지되면, 1345단계에서 사용자 입력 수단의 현재 수직 거리에 대응하는 페이지를 선택하여 표시한다.
상기한 바 이외에 휴대 장치의 제어를 위해 사용자 입력 수단과의 거리가 이용될 수 있다. 예를 들어, 도 16(a)에서와 같이 사용자 입력 수단을 휴대 장치(100)의 전면을 향하는 방향(1600)으로 그 휴대 장치(100)를 향해 가까이 가져감에 따라 화면에 표시되는 객체(1605)가 축소 표시될 수 있다. 도 16(b)에서와 같이 휴대 장치(100)의 전면으로부터 벗어나는 방향(1610)으로 사용자 입력 수단이 멀어짐에 따라 화면에 표시되는 객체(1610)가 확대 표시될 수 있다.
또한, 전술한 예들에서, 화면을 표시하는 표시부의 대표적인 예로 터치스크린을 예시하고 있으나, 터치스크린 대신에 터치 감지 기능이 없는 액정표시장치(Liquid Crystal Display: LCD), 유기발광다이오드(Organic Light Emitting Diodes: OLED), LED 등과 같은 통상의 디스플레이 유닛을 사용할 수도 있다.
본 발명의 실시 예들은 하드웨어, 소프트웨어 또는 하드웨어 및 소프트웨어의 조합의 형태로 실현 가능하다는 것을 알 수 있을 것이다. 이러한 임의의 소프트웨어는 예를 들어, 삭제 가능 또는 재기록 가능 여부와 상관없이, ROM 등의 저장 장치와 같은 휘발성 또는 비휘발성 저장 장치, 또는 예를 들어, RAM, 메모리 칩, 장치 또는 집적 회로와 같은 메모리, 또는 예를 들어 CD, DVD, 자기 디스크 또는 자기 테이프 등과 같은 광학 또는 자기적으로 기록 가능함과 동시에 기계(예를 들어, 컴퓨터)로 읽을 수 있는 저장 매체에 저장될 수 있다. 휴대 장치 내에 포함될 수 있는 저장부는 본 발명의 실시 예들을 구현하는 지시들을 포함하는 프로그램 또는 프로그램들을 저장하기에 적합한 기계로 읽을 수 있는 저장 매체의 한 예임을 알 수 있을 것이다. 따라서, 본 발명은 본 명세서의 임의의 청구항에 기재된 장치 또는 방법을 구현하기 위한 코드를 포함하는 프로그램 및 이러한 프로그램을 저장하는 기계로 읽을 수 있는 저장 매체를 포함한다. 또한, 이러한 프로그램은 유선 또는 무선 연결을 통해 전달되는 통신 신호와 같은 임의의 매체를 통해 전자적으로 이송될 수 있고, 본 발명은 이와 균등한 것을 적절하게 포함한다.
또한, 상기 휴대 장치는 유선 또는 무선으로 연결되는 프로그램 제공 장치로부터 상기 프로그램을 수신하여 저장할 수 있다. 상기 프로그램 제공 장치는 상기 3차원 방식의 페이지 탐색 방법을 수행하도록 하는 지시들을 포함하는 프로그램 등을 저장하기 위한 메모리와, 상기 휴대 장치와의 유선 또는 무선 통신을 수행하기 위한 통신부와, 상기 휴대 장치의 요청 또는 자동으로 해당 프로그램을 상기 휴대 장치로 전송하는 제어부를 포함할 수 있다.
상술한 본 발명의 설명에서는 구체적인 실시 예에 관해 설명하였으나, 여러 가지 변형이 본 발명의 범위에서 벗어나지 않고 실시할 수 있다. 따라서 본 발명의 범위는 설명된 실시 예에 의하여 정할 것이 아니고 특허청구범위와 특허청구범위의 균등한 것에 의해 정해져야 한다.

Claims (20)

  1. 휴대 장치에서 3차원 방식의 페이지 탐색 방법에 있어서,
    복수의 페이지들을 서로 중첩시켜 3차원으로 표시하는 과정과,
    사용자 입력 수단과의 거리를 검출하는 과정과,
    상기 검출되는 거리에 따라 상기 복수의 페이지들을 순차적으로 이동시켜 표시하는 과정과,
    페이지 선택을 위한 상기 사용자 입력 수단의 움직임을 감지하면, 선택된 페이지를 표시하는 과정을 포함함을 특징으로 하는 3차원 방식의 페이지 탐색 방법.
  2. 제1항에 있어서, 상기 복수의 페이지들을 순차적으로 이동시켜 표시하는 동안 상기 복수의 페이지들 중 상기 검출된 거리에 대응하는 어느 하나의 페이지를 전면에 표시하는 과정을 더 포함함을 특징으로 하는 3차원 방식의 페이지 탐색 방법.
  3. 제1항에 있어서, 상기 복수의 페이지들에는,
    각 페이지별로 순서를 정해 중첩해서 표시 가능한 오브젝트들 및 복수의 선택 가능한 아이템들 중 적어도 하나가 배치됨을 특징으로 하는 3차원 방식의 페이지 탐색 방법.
  4. 제3항에 있어서, 상기 오브젝트들은,
    사진, 이미지, 웹 페이지, 문서, 이메일, 스케줄러, 음악 앨범, 복수의 운영체계(OS), 작업일자별 작업 문서 중 어느 하나와 연관되는 것임을 특징으로 하는 3차원 방식의 페이지 탐색 방법.
  5. 제4항에 있어서, 상기 복수의 페이지들이 상기 작업일자별 작업 문서일 경우, 상기 선택된 페이지를 표시한 후 상기 선택된 페이지에 해당하는 작업일자의 작업 문서에 연관된 동작을 수행하는 과정을 더 포함함을 특징으로 하는 3차원 방식의 페이지 탐색 방법.
  6. 제5항에 있어서, 상기 선택된 페이지에 해당하는 작업일자의 작업 문서에 연관된 동작은,
    상기 작업일자의 작업 문서로 복원하는 동작임을 특징으로 하는 3차원 방식의 페이지 탐색 방법.
  7. 제1항에 있어서, 상기 페이지 선택을 위한 상기 사용자 입력 수단의 움직임은,
    상기 휴대 장치의 전면에 평행하는 상기 사용자 입력 수단의 수평 방향으로의 이동을 나타내는 것임을 특징으로 하는 3차원 방식의 페이지 탐색 방법.
  8. 제1항에 있어서, 상기 페이지 선택을 위한 상기 사용자 입력 수단의 움직임은,
    미리 설정된 제스처에 해당하는 것임을 특징으로 하는 3차원 방식의 페이지 탐색 방법.
  9. 제3항에 있어서,
    상기 페이지가 표시되는 상태에서 상기 사용자 입력 수단의 위치에 대응하는 아이템을 선택하는 과정과,
    상기 선택된 아이템을 기준으로 상기 복수의 페이지들을 재정렬하여 표시하는 과정을 더 포함함을 특징으로 하는 3차원 방식의 페이지 탐색 방법.
  10. 제3항에 있어서, 상기 복수의 선택 가능한 아이템들은,
    날짜, 제목 중 적어도 하나를 표시함을 특징으로 하는 3차원 방식의 페이지 탐색 방법.
  11. 3차원 방식의 페이지 탐색을 수행하기 위한 휴대 장치에 있어서,
    복수의 페이지들을 서로 중첩하여 3차원으로 표시하는 표시부와,
    상기 복수의 페이지들 간의 이동을 제어하기 위해 상기 표시부와 사용자 입력 수단과의 거리를 검출하는 제1센서부와,
    상기 검출된 거리에 따라 상기 복수의 페이지들을 순차적으로 이동시켜 상기 표시부 상에 표시하도록 제어하며, 페이지 선택을 위한 상기 사용자 입력 수단의 움직임이 감지되면 선택된 페이지를 상기 표시부 상에 표시하도록 제어하는 제어부를 포함함을 특징으로 하는 3차원 방식의 페이지 탐색을 수행하기 위한 휴대 장치.
  12. 제11항에 있어서, 상기 제어부는,
    상기 복수의 페이지들을 순차적으로 이동시켜 표시하는 동안 상기 복수의 페이지들 중 상기 검출된 거리에 대응하는 어느 하나의 페이지를 전면에 표시하도록 제어함을 특징으로 하는 3차원 방식의 페이지 탐색을 수행하기 위한 휴대 장치.
  13. 제11항에 있어서, 상기 복수의 페이지들에는,
    각 페이지별로 순서를 정해 중첩해서 표시 가능한 오브젝트들 및 복수의 선택 가능한 아이템들 중 적어도 하나가 배치됨을 특징으로 하는 3차원 방식의 페이지 탐색을 수행하기 위한 휴대 장치.
  14. 제13항에 있어서, 상기 오브젝트들은,
    사진, 이미지, 웹 페이지, 문서, 이메일, 스케줄러, 음악 앨범, 복수의 운영체계(OS), 작업일자별 작업 문서 중 어느 하나와 연관되는 것임을 특징으로 하는 3차원 방식의 페이지 탐색을 수행하기 위한 휴대 장치.
  15. 제14항에 있어서, 상기 제어부는,
    상기 복수의 페이지들이 상기 작업일자별 작업 문서일 경우, 상기 선택된 페이지를 표시한 후 상기 선택된 페이지에 해당하는 작업일자의 작업 문서에 연관된 동작을 수행함을 특징으로 하는 3차원 방식의 페이지 탐색을 수행하기 위한 휴대 장치.
  16. 제15항에 있어서, 상기 선택된 페이지에 해당하는 작업일자의 작업 문서에 연관된 동작은,
    상기 작업일자의 작업 문서로 복원하는 동작임을 특징으로 하는 3차원 방식의 페이지 탐색을 수행하기 위한 휴대 장치.
  17. 제11항에 있어서,
    상기 표시부의 면에 평행하는 상기 사용자 입력 수단의 수평 방향으로의 움직임을 검출하는 제2센서부를 더 포함함을 특징으로 하는 3차원 방식의 페이지 탐색을 수행하기 위한 휴대 장치.
  18. 제17항에 있어서, 상기 제어부는,
    상기 제2센서부를 통해 상기 사용자 입력 수단의 수평 방향으로의 이동을 나타내는 움직임이 검출되면, 상기 선택된 페이지를 표시하도록 제어함을 특징으로 하는 3차원 방식의 페이지 탐색을 수행하기 위한 휴대 장치.
  19. 제14항에 있어서, 상기 제어부는,
    상기 페이지가 표시되는 상태에서 상기 사용자 입력 수단의 위치에 대응하는 아이템을 선택한 후, 상기 선택된 아이템을 기준으로 상기 복수의 페이지들을 재정렬하여 표시함을 특징으로 하는 3차원 방식의 페이지 탐색을 수행하기 위한 휴대 장치.
  20. 제19항에 있어서, 상기 복수의 선택 가능한 아이템들은,
    날짜, 제목 중 적어도 하나를 표시함을 특징으로 하는 3차원 방식의 페이지 탐색을 수행하기 위한 휴대 장치.
KR20130096138A 2013-08-13 2013-08-13 휴대 장치에서 3차원 방식의 페이지 탐색 방법 및 이를 위한 휴대 장치 KR20150019370A (ko)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR20130096138A KR20150019370A (ko) 2013-08-13 2013-08-13 휴대 장치에서 3차원 방식의 페이지 탐색 방법 및 이를 위한 휴대 장치
US14/284,105 US20150052425A1 (en) 2013-08-13 2014-05-21 Method of searching for page using three-dimensional manner in portable device and portable device for the same
EP14176434.0A EP2843533A3 (en) 2013-08-13 2014-07-10 Method of searching for a page in a three-dimensional manner in a portable device and a portable device for the same
CN201410363635.8A CN104375757A (zh) 2013-08-13 2014-07-28 利用三维方式搜索页面的方法及用于该方法的便携式装置
PCT/KR2014/007488 WO2015023108A1 (en) 2013-08-13 2014-08-12 Method of searching for page using three-dimensional manner in portable device and portable device for the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR20130096138A KR20150019370A (ko) 2013-08-13 2013-08-13 휴대 장치에서 3차원 방식의 페이지 탐색 방법 및 이를 위한 휴대 장치

Publications (1)

Publication Number Publication Date
KR20150019370A true KR20150019370A (ko) 2015-02-25

Family

ID=51178728

Family Applications (1)

Application Number Title Priority Date Filing Date
KR20130096138A KR20150019370A (ko) 2013-08-13 2013-08-13 휴대 장치에서 3차원 방식의 페이지 탐색 방법 및 이를 위한 휴대 장치

Country Status (5)

Country Link
US (1) US20150052425A1 (ko)
EP (1) EP2843533A3 (ko)
KR (1) KR20150019370A (ko)
CN (1) CN104375757A (ko)
WO (1) WO2015023108A1 (ko)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103988163A (zh) 2011-12-07 2014-08-13 国际商业机器公司 用于显示电子文档的方法及其设备和计算机程序
KR101515623B1 (ko) * 2012-05-14 2015-04-28 삼성전자주식회사 벤디드 디스플레이를 갖는 휴대단말의 기능 운용 방법 및 장치
US10101882B2 (en) * 2015-06-05 2018-10-16 Apple Inc. Movement between multiple views
JP2020024545A (ja) * 2018-08-07 2020-02-13 コイト電工株式会社 非接触入力装置
CN109634510B (zh) * 2018-12-14 2021-04-02 掌阅科技股份有限公司 基于电子书的章节信息显示方法及电子设备
CN111273778B (zh) * 2020-02-14 2023-11-07 北京百度网讯科技有限公司 基于手势控制电子设备的方法和装置
CN114661213A (zh) * 2022-03-01 2022-06-24 携程旅游网络技术(上海)有限公司 基于移动端的页面展示交互方法、系统、设备和介质

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101269375B1 (ko) * 2006-05-24 2013-05-29 엘지전자 주식회사 터치스크린 장치 및 이의 이미지 표시방법
US7978091B2 (en) * 2006-08-24 2011-07-12 Navisense Method and device for a touchless interface
US7941391B2 (en) * 2007-05-04 2011-05-10 Microsoft Corporation Link spam detection using smooth classification function
US8593408B2 (en) * 2008-03-20 2013-11-26 Lg Electronics Inc. Electronic document reproduction apparatus and reproducing method thereof
KR101474450B1 (ko) * 2008-03-20 2014-12-22 엘지전자 주식회사 전자문서 재생 장치 및 이의 전자문서 재생 방법
US8525802B2 (en) * 2008-03-31 2013-09-03 Lg Electronics Inc. Portable terminal capable of sensing proximity touch and method for providing graphic user interface using the same
JP2011134271A (ja) * 2009-12-25 2011-07-07 Sony Corp 情報処理装置、情報処理方法およびプログラム
US8860672B2 (en) * 2010-05-26 2014-10-14 T-Mobile Usa, Inc. User interface with z-axis interaction
JP5501992B2 (ja) * 2010-05-28 2014-05-28 パナソニック株式会社 情報端末、画面部品表示方法、プログラム、及び記録媒体
JP2012083889A (ja) * 2010-10-08 2012-04-26 Sony Corp 情報処理装置、情報処理方法、及びプログラム
KR102033599B1 (ko) * 2010-12-28 2019-10-17 삼성전자주식회사 페이지간 오브젝트 이동 방법 및 인터페이스 장치
US8291349B1 (en) * 2011-01-19 2012-10-16 Google Inc. Gesture-based metadata display
CN103339589A (zh) * 2011-03-17 2013-10-02 露露软件公司 用于三维观看的方法
US20130283203A1 (en) * 2012-04-24 2013-10-24 Yahoo! Inc. Method and system for displaying search results
US20140195890A1 (en) * 2013-01-09 2014-07-10 Amazon Technologies, Inc. Browser interface for accessing supplemental content associated with content pages

Also Published As

Publication number Publication date
US20150052425A1 (en) 2015-02-19
EP2843533A2 (en) 2015-03-04
WO2015023108A1 (en) 2015-02-19
CN104375757A (zh) 2015-02-25
EP2843533A3 (en) 2015-03-11

Similar Documents

Publication Publication Date Title
US11314804B2 (en) Information search method and device and computer readable recording medium thereof
US10775896B2 (en) Method for controlling display of multiple objects depending on input related to operation of mobile terminal, and mobile terminal therefor
KR20150019370A (ko) 휴대 장치에서 3차원 방식의 페이지 탐색 방법 및 이를 위한 휴대 장치
US9852491B2 (en) Objects in screen images
KR102081817B1 (ko) 디지타이저 모드 전환 방법
KR102028952B1 (ko) 휴대 단말에 의해 촬영된 이미지들을 합성하는 방법, 기계로 읽을 수 있는 저장 매체 및 휴대 단말
KR102158098B1 (ko) 이미지 인식을 이용한 이미지 레이아웃 방법 및 장치
US20080120568A1 (en) Method and device for entering data using a three dimensional position of a pointer
US11513676B2 (en) Method and system for controlling device
EP2726969B1 (en) Displaying content
CN105144069A (zh) 对于显示内容的基于语义缩放的导航
US20100039401A1 (en) Electronic device and method for viewing displayable medias
KR20140110584A (ko) 증강 현실 제공 방법, 저장 매체 및 휴대 단말
KR20140112774A (ko) 이미지 편집 방법, 저장 매체 및 단말
US20140327634A1 (en) Portable terminal and method for protecting a displayed object
US20150067615A1 (en) Method, apparatus, and recording medium for scrapping content
KR102255087B1 (ko) 객체를 디스플레이하는 전자 장치 및 방법
US8941767B2 (en) Mobile device and method for controlling the same
KR20150007577A (ko) 데이터 병합을 제어하는 휴대 단말 및 방법
KR20150105749A (ko) 영상을 디스플레이하는 방법 및 장치
KR102076629B1 (ko) 휴대 장치에 의해 촬영된 이미지들을 편집하는 방법 및 이를 위한 휴대 장치
US9886167B2 (en) Display apparatus and control method thereof
US20150042621A1 (en) Method and apparatus for controlling 3d object
KR101585245B1 (ko) 이미지 처리 방법 및 이를 적용한 이미지 표시 장치
CN111666027A (zh) 在设备上显示对象的方法及其设备

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E601 Decision to refuse application