KR20150127777A - 이동 단말에서 모션 기반의 화면 제어 방법 및 이를 위한 이동 단말 - Google Patents

이동 단말에서 모션 기반의 화면 제어 방법 및 이를 위한 이동 단말 Download PDF

Info

Publication number
KR20150127777A
KR20150127777A KR1020120024541A KR20120024541A KR20150127777A KR 20150127777 A KR20150127777 A KR 20150127777A KR 1020120024541 A KR1020120024541 A KR 1020120024541A KR 20120024541 A KR20120024541 A KR 20120024541A KR 20150127777 A KR20150127777 A KR 20150127777A
Authority
KR
South Korea
Prior art keywords
mobile terminal
image
touch input
touch
screen
Prior art date
Application number
KR1020120024541A
Other languages
English (en)
Other versions
KR101861377B1 (ko
Inventor
홍현수
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020120024541A priority Critical patent/KR101861377B1/ko
Priority to US13/782,551 priority patent/US20130239032A1/en
Publication of KR20150127777A publication Critical patent/KR20150127777A/ko
Application granted granted Critical
Publication of KR101861377B1 publication Critical patent/KR101861377B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B1/00Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
    • H04B1/38Transceivers, i.e. devices in which transmitter and receiver form a structural unit and in which at least one part is used for functions of transmitting and receiving
    • H04B1/40Circuits
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/163Indexing scheme relating to constructional details of the computer
    • G06F2200/1637Sensing arrangement for detection of housing movement or orientation, e.g. for controlling scrolling or cursor movement on the display of an handheld computer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/12Details of telephonic subscriber devices including a sensor for measuring a physical value, e.g. temperature or motion

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

본 발명은 이동 단말의 이미지를 손쉽게 확대 또는 축소할 수 있도록 하는 방법을 구현한다. 이를 위해 본 발명은 이미지 뷰어 기능이 실행되면, 사용자로부터의 더블 탭 터치 입력을 감지하여 상기 이미지 뷰어 화면의 확대 또는 축소를 결정하며, 터치 입력이 유지되는 상태에서 상기 이동 단말의 움직임 정도 또는 움직임 방향에 따라 단계적으로 상기 이미지 뷰어 화면을 확대 또는 축소하도록 제어하는 과정으로 이루어진다. 이렇게 함으로써, 사용자는 이동 단말을 한 손으로 움켜쥔 상황에서도 쉽게 원하는 크기의 화면으로 조절할 수 있다.

Description

이동 단말에서 모션 기반의 화면 제어 방법 및 이를 위한 이동 단말{METHOD FOR CONTROLLING SCREEN BASED ON MOTION OF MOBILE TERMINAL AND THE MOBILE TERMINAL THEREFOR}
본 발명은 이동 단말에서 모션 기반의 화면 제어 방법 및 그 이동 단말에 관한 것으로, 특히 이동 단말에서 모션에 따라 화면을 확대 또는 축소하기 위한 방법 및 그 이동 단말에 관한 것이다.
최근 들어, 통신 기술의 급속한 발전으로 인해 이동 단말에서의 기능이 점차 확대되고 있으며, 이에 맞추어 보다 다양한 사용자인터페이스(User Interface: UI) 및 그를 이용한 다양한 기능들이 제공되고 있다. 또한, 이동 단말에서는 다양한 기능들을 제어하기 위한 다양한 입력 방식들을 제공한다.
그 중에서도 손가락/터치 펜 등을 이용한 입력 제스처를 인식하여 사용자 친화적인 사용자 인터페이스를 구현하고 있다. 현재에는 터치스크린 상에 싱글핑거(Single-Finger) 기반의 싱글 터치(Single-Touch) 입력에 따른 동작을 처리하는 인터페이스에서, 멀티핑거(Multi-Finger) 기반의 멀티 터치(Multi-Touch) 입력에 따른 동작을 처리하는 사용자 인터페이스가 구현되고 있다.
이러한 터치스크린은 입력 센싱을 하는 표면과 출력 디스플레이 역할을 하는 표면을 서로 겹쳐 놓은 구조를 가진다. 따라서 상기 터치스크린에서는 멀티 터치를 바탕으로 입력되는 사용자의 의도를 분석 및 인지하고, 그에 따른 결과를 출력할 수 있다. 예를 들어, 사용자가 이동 단말에서 사진 폴더에 저장된 사진을 확대해서 보고자 하는 경우 터치스크린 상에서 표시되는 화면을 탭핑(tapping)하거나 터치 후 손가락을 좌우로 벌림으로써 화면을 확대 또는 축소한다.
상기와 같은 경우에는 터치스크린 화면의 특정 부분을 확대 또는 축소할 때 기 설정된 확대 또는 축소 키를 누르거나 멀티 터치 입력을 통해서만 화면의 확대나 축소 배율을 조정하도록 제어된다. 하지만 손가락을 좌우로 벌려 확대 또는 축소를 실행할 경우 손가락을 벌리는 범위에 있어 한계가 있다. 따라서 터치스크린의 입력 및 손가락을 벌리는 제스처만으로는 사용자가 원하는 동작을 신속하고 정확하게 수행하기에는 어려움이 따른다. 게다가 기존의 터치스크린에서는 더블탭(double tap) 터치 입력을 통해 화면을 최대 확대 또는 기본 화면 보기로 전환하도록 되어 있을 뿐, 원하는 확대 비율로 조정하기 위한 별도의 터치 항목을 선택해야만 한다.
따라서 본 발명은 이동 단말의 화면 확대 또는 축소를 간편하고 용이할 수 있도록 하는 모션 기반의 화면 제어 방법 및 이를 위한 이동 단말을 제공한다.
상기한 바를 달성하기 위한 본 발명은, 모션 기반의 화면 제어를 위한 이동 단말에 있어서, 이미지를 화면에 표시하고, 사용자 입력 수단이 상기 화면을 터치함에 따른 터치 입력을 감지하는 터치 인터페이스와, 상기 이동 단말의 움직임을 감지하는 센서부와, 상기 터치 입력에 따라 상기 이미지의 확대 또는 축소를 결정하고, 상기 터치 입력이 유지되는 상태에서 상기 센서부를 통한 움직임이 있는 경우, 상기 움직임에 대응하여 상기 이미지를 확대 또는 축소하도록 제어하는 제어부를 포함함을 특징으로 한다.
또한 본 발명은, 이동 단말에서 모션 기반의 화면 제어를 위한 방법에 있어서, 이미지를 화면에 표시하는 과정과, 사용자 입력 수단이 상기 화면을 터치함에 따른 터치 입력을 감지하는 과정과, 상기 터치 입력이 유지되는 상태에서 상기 이동 단말의 움직임이 있는지를 판단하는 과정과, 상기 움직임에 대응하여 상기 이미지를 확대 또는 축소하여 표시하는 과정을 포함함을 특징으로 한다.
본 발명에 따르면, 간단하고 편리한 이동 단말의 화면 확대 및 축소 기능의 사용자 인터페이스를 제공한다. 또한, 본 발명에 따른 모션 기반의 화면의 확대 및 축소 기능은 터치와 모션의 조합에 따라 사용자는 이동 단말을 한 손으로 움켜쥔 상황에서도 쉽게 원하는 크기의 화면으로 조절할 수 있다. 이러한 장점으로 주로 한 손으로 사용하는 TV나 PC 등을 위한 리모콘 기기에도 본 발명을 적용하기에 적합하다. 또한, 기존 터치 인터페이스가 그대로 유지된 채로 확장된 형태의 인터페이스가 제공됨으로써 사용자는 사용자의 기호와 휴대 상황에 따라 화면 확대 및 축소 제어 모드를 선택적으로 사용할 수 있다.
도 1은 본 발명의 실시예에 따른 이동 단말의 내부블록 구성도,
도 2는 본 발명의 실시예에 따른 더블 탭 터치 입력을 예시한 도면,
도 3은 본 발명의 실시예에 따른 화면 확대 또는 축소를 설명하기 위한 화면예시도,
도 4는 본 발명의 실시예에 따른 모션 기반의 화면 확대 또는 축소를 위한 이동 단말의 동작 흐름도.
이하 본 발명에 따른 바람직한 실시 예를 첨부한 도면을 참조하여 상세히 설명한다. 하기 설명에서는 구체적인 구성 소자 등과 같은 특정 사항들이 나타나고 있는데 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐 이러한 특정 사항들이 본 발명의 범위 내에서 소정의 변형이나 혹은 변경이 이루어질 수 있음은 이 기술 분야에서 통상의 지식을 가진 자에게는 자명하다 할 것이다.
본 발명은 이동 단말의 이미지를 손쉽게 확대 또는 축소할 수 있도록 하는 방법을 구현한다. 이를 위해 본 발명은 이미지 뷰어 기능이 실행되면, 사용자로부터의 더블 탭 터치 입력을 감지하여 이미지 뷰어 화면 내 이미지의 확대 또는 축소를 결정하며, 터치 입력이 유지되는 상태에서 상기 이동 단말의 움직임 정도 또는 움직임 방향에 따라 단계적으로 상기 이미지를 확대 또는 축소하도록 제어하는 과정으로 이루어진다. 이렇게 함으로써, 사용자는 이동 단말을 한 손으로 움켜쥔 상황에서도 쉽게 원하는 크기의 이미지로 조절할 수 있다.
상기한 바와 같은 기능이 구현된 이동 단말의 동작 및 그 구성요소를 도 1을 참조하여 설명한다. 여기서, 이동 단말에는 스마트폰, 휴대폰, 태블릿(Tablet) PC, 디지털 카메라, MP3 플레이어, 게임기, 디스플레이 장치 등 복수개의 이미지 저장 및 보기 기능을 지원하는 장치들이 해당되며, 이미지들이 TV에 표시되는 경우에는 그 TV로 제어신호를 보내는 리모콘이 이에 해당할 것이다.
도 1은 본 발명의 일 실시 예에 따른 이동 단말의 개략도이다. 도 1을 참조하면, 이동 단말(100)은 표시부(112) 및 터치부(114)를 갖는 터치 인터페이스(110), 제어부(120), 센서부(130), 센서검출부(135), 저장부(140) 및 무선 통신부(150)를 포함한다. 상기 터치 인터페이스(110)는 터치스크린으로 칭할 수도 있고, 상기 터치부(114)는 터치 패널로도 칭할 수 있다. 본 예에서, 통신 기능을 갖는 이동 단말을 예시하고 있으나, 본 발명은 통신 기능을 갖지 않는 임의의 단말에도 적용될 수 있다. 예를 들어, 터치 인터페이스와 센서부가 장착된 리모콘으로 TV 화면을 확대, 축소하는 경우에도 본 발명이 유사하게 적용될 수 있다.
상기 표시부(112)는 적어도 하나의 이미지를 표시하며, 상기 표시부(112)는 PDP(Plasma Display Panel), LCD(liquid crystal display), OLED(Organic Light Emitting Diodes), LED 등을 포함할 수 있다. 본 발명의 실시예에서는 이동 단말(100)의 움직임에 따라 화면을 확대 또는 축소한다고 기재한다고 설명하나, 화면 내의 이미지를 축소 또는 확대하는 것으로 이해되어야 함은 물론이다.
상기 터치부(114)는 표시부(112) 상에 배치되고, 사용자는 상기 터치 인터페이스(110)의 표면(즉, 상기 터치부(114)의 표면)에 표시된 다양한 실행 가능한 아이템을 사용자 입력 수단을 이용하여 터치하여 상기 아이템과 관련된 애플리케이션 또는 링크 페이지의 실행이 가능하도록 한다. 상기 터치부(114)는 상기 이동 단말(100)의 전면에 배치되고, 상기 표시부(112)는 상기 터치부(114)의 아래에 배치된다. 상기 표시부(112)에 의해 생성된 영상은 상기 투명한 터치부(114)를 통해 사용자에게 보이게 된다. 본 발명에서, 아이템은 아이콘, 그림, 메뉴, 웹 페이지 상의 링크(텍스트 등으로 표시된) 등을 포함한다.
상기 제어부(120)는 중앙처리장치로서 이동 단말(100)의 전반적인 동작을 제어한다.
상기 센서부(130)는 이동 단말(100)의 위치, 방위, 움직임을 감지하는 센서로서, 가속도계(accelerometer), 자이로스코프(gyroscope), 충격 센서(shock sensor), 기울기 센서 (tilt sensor) 등의 관성 센서, 고도계, 중력 센서, 지자기 센서, 또는 이들의 조합으로 구현될 수 있다. 물론, 본 발명이 이에 한정되는 것은 아니며, 센서부(130)는 이동 단말(100)의 움직임 방향 또는 기울어짐을 감지할 수 있는 다른 유형의 센서로 구현될 수도 있다.
센서검출부(135)는 센서부(130)를 모니터링하여 센서부(130)에서 발생한 신호를 판단한다. 구체적으로, 센서검출부(135)는 가속도 센서 또는 자이로 센서 등에 의해 수집되는 센서 신호를 기반으로 이동 단말(100)의 기울임 동작, 사용자를 중심으로 사용자에게로 이동 단말(100)이 수평으로 당겨지는 동작, 사용자로부터 수평으로 멀어지는 방향으로 이동 단말(100)을 미는 동작 등을 구분하고, 해당 동작 신호를 제어부(120)로 전달한다.
이에 따라 표시부(112)는 제어부(120)의 제어하에 사용자 요청에 따라 확대 또는 축소를 필요로 하는 이미지를 출력하며, 도 2에 도시된 바와 같이 더블 탭 터치 입력을 통해 화면 내 이미지를 최대 확대 또는 기본 크기로 출력한다. 도 2를 참조하면, 사용자가 터치 인터페이스(110) 상에 사용자 입력 수단의 예로써 한 손가락으로 더블 탭 터치 또는 트리플 탭 터치 입력을 하면, 화면 내 이미지가 지정된 크기로 확대되거나 축소되게 된다. 이때, 터블 탭 터치 동작이 유지되는 상태에서 즉, 사용자가 손가락을 화면에서 떼지 않고 그대로 유지하는 상태에서 제어부(120)는 센서 검출부(135)로부터 기울임 또는 밀거나 당기는 동작 신호가 입력되면, 표시부(112)를 통해 확대 또는 축소된 이미지를 출력할 수 있다.
저장부(140)는 상기 이동 단말(100)의 운영 시스템, 다양한 애플리케이션들, 상기 이동 단말(100)로 입력되는 정보 및 그 내부에서 생성되는 정보 등을 저장한다. 예를 들어, 저장부(140)는 사진 등과 같은 영상을 저장하며, 움직임 변화율 예컨대, 움직임 이동 거리 또는 기울어짐 각도에 대응하여 화면 확대 비율 또는 화면 축소 비율을 맵핑한 정보를 저장한다. 이러한 저장부(140)로는 비휘발성 메모리를 사용할 수 있다.
상기 무선 통신부(150)는 상기 제어부(120)로부터의 데이터를 무선 송신하거나 대기로부터 데이터를 무선 수신하여 상기 제어부(120)로 전달한다.
도 3은 본 발명의 실시예에 따른 화면 확대 또는 축소를 설명하기 위한 화면을 예시하고 있다. 도 3을 참조하면, 사용자가 사진이나 웹 페이지와 같은 이미지의 출력을 위해서 이미지 뷰어 어플리케이션을 실행시키면, 참조번호 300에서와 같은 화면이 출력될 수 있다. 이미지는 이동 단말의 저장부(140)에 저장되어 있으며, 무선 인터넷이 가능한 단말이라면 기 저장되어 있는 웹 페이지 이미지를 보기 위하여 이미지 뷰어를 실행할 필요 없이 웹 페이지의 실행이 가능하다. 이러한 화면이 출력되는 상태에서 사용자가 싱글 터치(Single-Touch) 입력을 할 경우 일반적으로 그 영상 보기 어플리케이션 관련 항목들이 표시되게 된다. 하지만 사용자가 영상의 원하는 부분을 확대해서 보기 위해서는 일단 더블 탭 터치 입력이 이루어져야 한다. 이러한 더블 탭 터치 입력은 한 손가락 또는 두 손가락 이상을 이용해서도 가능하다.
따라서 참조번호 300에서와 같은 영상 보기 화면이 출력되면, 사용자는 더블 탭 터치 입력을 통해 확대 또는 축소할 부분에 대한 기준점을 정할 수 있다. 이후, 사용자가 터치 입력을 유지한 상태에서 이동 단말(100)을 350방향에서와 같이 후면으로 기울이거나 355방향에서와 같이 미는 동작을 하게 되면, 참조번호 310의 화면에서와 같이 그 기준점을 중심으로 기울임 정도 또는 미는 동작에 따른 이동 거리에 대응하는 비율로 확대되는 이미지가 상기 영상 보기 화면 상에 출력된다. 이러한 이동 단말(100)을 일정 각도 이상 기울이거나 밀게 되면 참조번호 320에서와 같이 화면 내에는 확대 이미지가 출력되게 된다. 이때, 확대 이미지는 단순히 이미지의 전체에 해당할 수 있으나, 기준점을 중심으로 한 부분이 확대되는 것이 바람직하다.
이와 반대로 사용자가 터치 입력을 유지한 상태에서 참조번호 330의 화면 상태에서 이동 단말(100)을 370방향에서와 같이 끌어당기는 동작을 하거나 365방향에서와 같이 전면으로 기울이게 되면, 기준점을 중심으로 참조번호 340에서와 같이 축소된 이미지가 출력되게 된다. 이와 같이 사용자가 더블 탭 터치 입력 이후 터치 입력을 유지한 상태에서 사용자가 이동 단말(100)을 전후로 기울이거나 앞뒤로 당기거나 미는 등의 동작을 하게 되면, 기울임 정도 또는 이동 거리에 따른 비율로 확대 또는 축소되는 이미지가 출력된다.
만일 이미지가 확대되거나 축소되는 상태에서 사용자가 터치를 중단하거나 기울임 동작을 중지하여 평형 상태로 전환할 경우 이동 단말(100)도 이미지의 확대 또는 축소 동작을 중지한다. 이러한 중지에 따라 중지된 시점의 확대 또는 축소된 상태의 이미지가 표시되게 된다. 또한, 이동 단말(100)을 밀 때 이미지가 확대되고 이동 단말(100)을 당길 때 이미지가 축소되는 기능은 사용자 설정에 의하여 변경이 가능하다. 예를 들어 이동 단말(100)을 밀 때 이미지가 축소되고 이동 단말(100)을 당길 때 이미지가 확대되도록 변경이 가능하다.
이하, 본 발명의 실시예에 따른 모션 기반의 화면 확대 또는 축소를 위한 이동 단말의 동작 과정을 도 4를 참조하여 설명한다.
도 4를 참조하면, 이동 단말(100)은 400단계에서 어플리케이션 실행에 따른 화면을 표시한다. 여기서, 실행되는 어플리케이션은 확대 또는 축소를 필요로 하는 화면 내 이미지가 출력되는 어플리케이션이면 모두 가능하다. 이러한 화면이 표시되는 상태에서 이동 단말(100)은 405단계에서 더블 탭 터치 입력이 있으면, 410단계에서 지정된 크기로 이미지 확대를 수행한다. 즉, 화면 내 최대 크기의 이미지로로 확대된다.
이러한 상태에서 이동 단말(100)은 415단계에서 단말 움직임이 인식되는지를 판단한다. 만일 단말 움직임이 인식되면, 420단계에서 터치 입력이 유지되고 있는지를 판단한다. 이와 달리 단말 움직임이 인식되지 않으면, 400단계로 되돌아간다.
한편, 터치 입력이 유지되고 있지 않은 상태 즉, 터치가 해제된 경우에는 440단계로 진행한다. 이와 달리 터치 입력이 유지되고 있는 상태이라면, 425단계에서 인식된 움직임이 전후방 기울임 또는 밀거나 당기는 움직임 중 어느 하나에 해당하는지를 판단한다. 만일 인식된 움직임이 전후방 기울임 또는 밀거나 당기는 움직임 중 어디에도 해당하지 않는 경우 415단계로 되돌아가 단말 움직임이 인식되는지를 판단한다.
반면, 425단계에서 인식된 움직임이 전후방 기울임 또는 밀거나 당기는 움직임 중 어느 하나에 해당할 경우 이동 단말(100)은 430단계에서 기울임 또는 밀거나 당기는 움직임 정도에 따라 단계적으로 화면 즉, 화면 내 이미지를 확대 또는 축소를 수행한다. 여기서, 밀거나 당기는 움직임 정도는 수평 방향으로의 이동 거리를 의미한다. 이러한 경우 사용자는 한 손가락을 사용하여 특정 지점을 더블 탭 터치 입력을 하게 되면, 터치 입력 지점을 중심으로 이미지를 최대 크기로 확대시킨 후, 손가락을 떼지 않고 기울이거나 밀거나 당기는 모션으로 원하는 확대 비율로 조절할 수 있다.
이어, 이동 단말(100)은 435단계에서 터치 입력이 해제되지 않는 한 405단계로 되돌아가 전술한 과정을 반복한다. 터치가 해제된 이후 405단계로 되돌아가면 이동 단말(100)은 다시 더블 탭 터치 입력이 있으면 미리 지정된 크기의 이미지로 원상 복귀하게 된다. 즉, 기본 크기의 이미지가 출력된다. 이러한 상태에서도 손가락을 떼지 않고 기울이거나 밀거나 당기는 모션으로 원하는 비율로 화면 크기를 조절할 수 있다. 한편, 435단계에서 터치 입력이 해제된 경우 440단계에서 터치 해제된 시점의 확대 또는 축소된 이미지를 출력한다. 다시 말하면, 확대 또는 축소 화면이 출력되고 있는 상태에서 사용자가 화면으로부터 손가락을 떼면, 확대/축소 동작은 중지되게 된다.
본 발명의 실시 예들은 하드웨어, 소프트웨어 또는 하드웨어 및 소프트웨어의 조합의 형태로 실현 가능하다는 것을 알 수 있을 것이다. 이러한 임의의 소프트웨어는 예를 들어, 삭제 가능 또는 재기록 가능 여부와 상관없이, ROM 등의 저장 장치와 같은 휘발성 또는 비휘발성 저장 장치, 또는 예를 들어, RAM, 메모리 칩, 장치 또는 집적 회로와 같은 메모리, 또는 예를 들어 CD, DVD, 자기 디스크 또는 자기 테이프 등과 같은 광학 또는 자기적으로 기록 가능함과 동시에 기계로 읽을 수 있는 저장 매체에 저장될 수 있다. 저장부는 본 발명의 실시 예들을 구현하는 지시들을 포함하는 프로그램 또는 프로그램들을 저장하기에 적합한 기계로 읽을 수 있는 저장 매체의 한 예임을 알 수 있을 것이다. 따라서, 본 발명은 본 명세서의 임의의 청구항에 기재된 방법을 구현하기 위한 코드를 포함하는 프로그램 및 이러한 프로그램을 저장하는 기계로 읽을 수 있는 저장 매체를 포함한다. 또한, 이러한 프로그램은 유선 또는 무선 연결을 통해 전달되는 통신 신호와 같은 임의의 매체를 통해 전자적으로 이송될 수 있고, 본 발명은 이와 균등한 것을 적절하게 포함한다.
또한, 상기 이동 단말은 유선 또는 무선으로 연결되는 프로그램 제공 장치로부터 상기 프로그램을 수신하여 저장할 수 있다. 상기 프로그램 제공 장치는 상기 이동 단말이 기설정된 모션 기반의 화면 제어를 위한 방법을 수행하도록 하는 지시들을 포함하는 프로그램, 모션 기반의 화면 제어를 위한 방법에 필요한 정보 등을 저장하기 위한 메모리와, 상기 이동 단말와의 유선 또는 무선 통신을 수행하기 위한 통신부와, 상기 이동 단말의 요청 또는 자동으로 해당 프로그램을 상기 이동 단말로 전송하는 제어부를 포함할 수 있다.

Claims (15)

  1. 모션 기반의 화면 제어를 위한 이동 단말에 있어서,
    이미지를 화면에 표시하고, 사용자 입력 수단이 상기 화면을 터치함에 따른 터치 입력을 감지하는 터치 인터페이스와,
    상기 이동 단말의 움직임을 감지하는 센서부와,
    상기 터치 입력에 따라 상기 이미지의 확대 또는 축소를 결정하고, 상기 터치 입력이 유지되는 상태에서 상기 센서부를 통한 움직임이 있는 경우, 상기 움직임에 대응하여 상기 이미지를 확대 또는 축소하도록 제어하는 제어부를 포함함을 특징으로 하는 모션 기반의 화면 제어를 위한 이동 단말.
  2. 제1항에 있어서, 상기 터치 입력은,
    더블 탭 터치 입력인 것을 특징으로 하는 모션 기반의 화면 제어를 위한 이동 단말.
  3. 제1항에 있어서,
    상기 센서부를 모니터링하여 상기 센서부에서 발생한 신호를 근거로 상기 움직임이 상기 이동 단말의 전방 기울임 동작, 상기 이동 단말의 후방 기울임 동작, 상기 이동 단말의 사용자를 중심으로 상기 이동 단말이 상기 사용자에게로 수평으로 당겨지는 동작, 상기 사용자로부터 수평으로 멀어지는 방향으로 상기 이동 단말을 미는 동작 중 어느 하나에 해당하는지를 구분하는 센서검출부를 더 포함함을 특징으로 하는 모션 기반의 화면 제어를 위한 이동 단말.
  4. 제3항에 있어서, 상기 제어부는,
    상기 센서검출부에 의해 구분된 상기 전방 또는 후방 기울임 동작에 따라 상기 터치 입력이 발생한 지점을 중심으로 상기 이미지를 단계적으로 확대 또는 축소하도록 제어함을 특징으로 하는 모션 기반의 화면 제어를 위한 이동 단말.
  5. 제3항에 있어서, 상기 제어부는,
    상기 센서검출부에 의해 구분된 상기 밀거나 당기는 동작에 따라 상기 터치 입력이 발생한 지점을 중심으로 상기 이미지를 단계적으로 확대 또는 축소하도록 제어함을 특징으로 하는 모션 기반의 화면 제어를 위한 이동 단말.
  6. 제1항에 있어서, 상기 제어부는,
    상기 터치가 해제되면, 상기 터치가 해제된 시점의 확대 또는 축소된 이미지를 상기 터치 인터페이스 상에 표시되도록 제어함을 특징으로 하는 모션 기반의 화면 제어를 위한 이동 단말.
  7. 제1항에 있어서, 상기 제어부는,
    상기 터치 입력에 따라 상기 이미지를 최대로 확대하고, 상기 터치 입력이 해제된 후 상기 터치 입력이 다시 있으면 상기 확대된 이미지가 기본 크기로 복귀하도록 제어함을 특징으로 하는 모션 기반의 화면 제어를 위한 이동 단말.
  8. 이동 단말에서 모션 기반의 화면 제어를 위한 방법에 있어서,
    이미지를 화면에 표시하는 과정과,
    사용자 입력 수단이 상기 화면을 터치함에 따른 터치 입력을 감지하는 과정과,
    상기 터치 입력이 유지되는 상태에서 상기 이동 단말의 움직임이 있는지를 판단하는 과정과,
    상기 움직임에 대응하여 상기 이미지를 확대 또는 축소하여 표시하는 과정을 포함함을 특징으로 하는 이동 단말에서 모션 기반의 화면 제어를 위한 방법.
  9. 제8항에 있어서, 상기 터치 입력은,
    더블 탭 터치 입력인 것을 특징으로 하는 이동 단말에서 모션 기반의 화면 제어를 위한 방법.
  10. 제8항에 있어서, 상기 움직임은,
    상기 이동 단말의 전방 기울임 동작, 상기 이동 단말의 후방 기울임 동작, 상기 이동 단말의 사용자를 중심으로 상기 이동 단말이 상기 사용자에게로 수평으로 당겨지는 동작, 상기 사용자로부터 수평으로 멀어지는 방향으로 상기 이동 단말을 미는 동작 중 어느 하나인 것을 특징으로 하는 이동 단말에서 모션 기반의 화면 제어를 위한 방법.
  11. 제10항에 있어서, 상기 표시하는 과정은,
    상기 이동 단말의 전방 기울임 동작 또는 상기 이동 단말의 후방 기울임 동작에 따라 상기 터치 입력이 발생한 지점을 중심으로 상기 이미지를 단계적으로 확대 또는 축소하여 표시하는 과정임을 특징으로 하는 이동 단말에서 모션 기반의 화면 제어를 위한 방법.
  12. 제10항에 있어서, 상기 표시하는 과정은,
    상기 밀거나 당기는 동작에 따라 상기 터치 입력이 발생한 지점을 중심으로 상기 이미지를 단계적으로 확대 또는 축소하여 표시하는 과정임을 특징으로 하는 이동 단말에서 모션 기반의 화면 제어를 위한 방법.
  13. 제8항에 있어서, 상기 터치가 해제되면, 상기 터치가 해제된 시점의 확대 또는 축소된 이미지를 표시하는 과정을 더 포함함을 특징으로 하는 이동 단말에서 모션 기반의 화면 제어를 위한 방법.
  14. 제8항에 있어서, 상기 터치 입력이 있으면, 상기 터치 입력에 따라 상기 이미지를 최대로 확대하고, 상기 터치 입력이 해제된 후 상기 터치 입력이 다시 있으면 상기 확대된 이미지를 기본 크기로 복귀시키는 과정을 더 포함함을 특징으로 하는 이동 단말에서 모션 기반의 화면 제어를 위한 방법.
  15. 제8항 내지 제14항 중 어느 한 항에 따른 모션 기반의 화면 제어를 위한 방법을 실행하기 위한 프로그램을 기록한 기계로 읽을 수 있는 저장 매체.







KR1020120024541A 2012-03-09 2012-03-09 이동 단말에서 모션 기반의 화면 제어 방법 및 이를 위한 이동 단말 KR101861377B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020120024541A KR101861377B1 (ko) 2012-03-09 2012-03-09 이동 단말에서 모션 기반의 화면 제어 방법 및 이를 위한 이동 단말
US13/782,551 US20130239032A1 (en) 2012-03-09 2013-03-01 Motion based screen control method in a mobile terminal and mobile terminal for the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120024541A KR101861377B1 (ko) 2012-03-09 2012-03-09 이동 단말에서 모션 기반의 화면 제어 방법 및 이를 위한 이동 단말

Publications (2)

Publication Number Publication Date
KR20150127777A true KR20150127777A (ko) 2015-11-18
KR101861377B1 KR101861377B1 (ko) 2018-05-28

Family

ID=49115208

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120024541A KR101861377B1 (ko) 2012-03-09 2012-03-09 이동 단말에서 모션 기반의 화면 제어 방법 및 이를 위한 이동 단말

Country Status (2)

Country Link
US (1) US20130239032A1 (ko)
KR (1) KR101861377B1 (ko)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101990036B1 (ko) 2012-10-31 2019-06-17 엘지전자 주식회사 이동 단말기 및 그것의 제어 방법
US9177362B2 (en) * 2013-08-02 2015-11-03 Facebook, Inc. Systems and methods for transforming an image
JP6452409B2 (ja) * 2014-11-28 2019-01-16 キヤノン株式会社 画像表示装置、画像表示方法
WO2016082215A1 (zh) * 2014-11-28 2016-06-02 华为技术有限公司 一种移动屏幕界面的方法及终端
EP3059669A1 (en) * 2015-02-19 2016-08-24 Nokia Technologies OY Controlling display of video content
KR102614026B1 (ko) * 2019-01-29 2023-12-13 삼성전자주식회사 복수의 렌즈를 구비하는 전자 장치 및 그 제어 방법
CN109992131B (zh) * 2019-04-11 2024-02-20 成都极飓力网络科技有限公司 移动智能终端屏幕操控器
CN110825336A (zh) * 2019-11-08 2020-02-21 广东明创软件科技有限公司 分屏显示方法、装置、终端设备及存储介质

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030001863A1 (en) * 2001-06-29 2003-01-02 Brian Davidson Portable digital devices
US8788977B2 (en) * 2008-11-20 2014-07-22 Amazon Technologies, Inc. Movement recognition as input mechanism
US8558803B2 (en) * 2008-11-28 2013-10-15 Samsung Electronics Co., Ltd. Input device for portable terminal and method thereof
US8351910B2 (en) * 2008-12-02 2013-01-08 Qualcomm Incorporated Method and apparatus for determining a user input from inertial sensors
KR101567785B1 (ko) * 2009-05-28 2015-11-11 삼성전자주식회사 휴대단말에서 줌 기능 제어 방법 및 장치
US20110298830A1 (en) * 2010-06-07 2011-12-08 Palm, Inc. Single Point Input Variable Zoom
US8977987B1 (en) * 2010-06-14 2015-03-10 Google Inc. Motion-based interface control on computing device
US20120032877A1 (en) * 2010-08-09 2012-02-09 XMG Studio Motion Driven Gestures For Customization In Augmented Reality Applications
KR101830962B1 (ko) * 2010-12-29 2018-02-22 삼성전자주식회사 휴대용 단말기에서 출력 화면을 제어하기 위한 장치 및 방법
KR102098258B1 (ko) * 2013-02-04 2020-04-07 삼성전자 주식회사 콘텐츠 편집 방법 및 이를 구현하는 전자기기

Also Published As

Publication number Publication date
KR101861377B1 (ko) 2018-05-28
US20130239032A1 (en) 2013-09-12

Similar Documents

Publication Publication Date Title
KR101861377B1 (ko) 이동 단말에서 모션 기반의 화면 제어 방법 및 이를 위한 이동 단말
KR101452038B1 (ko) 모바일 기기 및 그 화면 제어 방법
US9898179B2 (en) Method and apparatus for scrolling a screen in a display apparatus
ES2748044T3 (es) Aparato de pantalla y procedimiento de control del mismo
KR102097496B1 (ko) 폴더블 이동 단말기 및 그 제어 방법
KR101500051B1 (ko) 3d 리모콘에서 사용하기 위한 gui 애플리케이션
US9001056B2 (en) Operating method of terminal based on multiple inputs and portable terminal supporting the same
KR102091028B1 (ko) 사용자 기기의 오브젝트 운용 방법 및 장치
US9323351B2 (en) Information processing apparatus, information processing method and program
EP3057312A2 (en) Image display apparatus and method
EP2806339A1 (en) Method and apparatus for displaying a picture on a portable device
JP6448900B2 (ja) 状況情報基盤の情報提供方法、そのシステム及びその記録媒体
JP5304577B2 (ja) 携帯情報端末および表示制御方法
KR102097495B1 (ko) 디지털 디바이스 및 그 제어 방법
US20160349946A1 (en) User terminal apparatus and control method thereof
KR20140137996A (ko) 휴대 단말기에서 화면을 표시하는 방법 및 장치
US10908868B2 (en) Data processing method and mobile device
US10719147B2 (en) Display apparatus and control method thereof
JP2017134632A (ja) 表示装置、表示制御方法及びプログラム
KR20110066545A (ko) 터치스크린을 이용하여 이미지를 표시하기 위한 방법 및 단말
KR102157621B1 (ko) 휴대장치 및 그 컨텐츠 공유 방법
US11461005B2 (en) Display system, display control method, and information storage medium
KR101601763B1 (ko) 거치형 단말기에 대한 모션 제어 방법
KR20100135165A (ko) 터치스크린을 이용한 포인팅장치 제어방법과 이를 적용한 휴대단말기
KR20130097511A (ko) 디스플레이 장치의 화면 스크롤 방법 및 그 장치

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
GRNT Written decision to grant