KR102049259B1 - 모션 기반 사용자 인터페이스 제어 장치 및 방법 - Google Patents

모션 기반 사용자 인터페이스 제어 장치 및 방법 Download PDF

Info

Publication number
KR102049259B1
KR102049259B1 KR1020180131846A KR20180131846A KR102049259B1 KR 102049259 B1 KR102049259 B1 KR 102049259B1 KR 1020180131846 A KR1020180131846 A KR 1020180131846A KR 20180131846 A KR20180131846 A KR 20180131846A KR 102049259 B1 KR102049259 B1 KR 102049259B1
Authority
KR
South Korea
Prior art keywords
image
electronic device
movement
display
mobile terminal
Prior art date
Application number
KR1020180131846A
Other languages
English (en)
Other versions
KR20180121849A (ko
Inventor
홍현수
정영근
이재면
김일환
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020180131846A priority Critical patent/KR102049259B1/ko
Publication of KR20180121849A publication Critical patent/KR20180121849A/ko
Application granted granted Critical
Publication of KR102049259B1 publication Critical patent/KR102049259B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/02Affine transformations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B1/00Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
    • H04B1/38Transceivers, i.e. devices in which transmitter and receiver form a structural unit and in which at least one part is used for functions of transmitting and receiving
    • H04B1/40Circuits
    • H04B1/401Circuits for selecting or indicating operating mode
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/161Indexing scheme relating to constructional details of the monitor
    • G06F2200/1614Image rotation following screen orientation, e.g. switching from landscape to portrait mode
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/163Indexing scheme relating to constructional details of the computer
    • G06F2200/1637Sensing arrangement for detection of housing movement or orientation, e.g. for controlling scrolling or cursor movement on the display of an handheld computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04104Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

모션 기반 사용자 인터페이스 제어 장치에 있어서, 이미지를 출력하고 사용자에 의해 적어도 하나의 점을 입력받는 터치스크린과. 상기 장치의 움직임을 감지하는 센서부와, 상기 센서부로부터 상기 장치의 움직임이 감지되면 상기 장치의 움직임 정도 계산하는 움직임 계산부와, 상기 터치스크린으로부터 적어도 하나의 점이 터치되면, 상기 터치되는 점의 개수를 파악하고, 상기 움직임 계산부로부터 상기 장치의 움직임 정도에 관한 정보를 수신한 후, 상기 터치되는 점의 개수에 따라 상기 이미지의 크기를 변경할 것인지 또는 상기 이미지의 위치를 변경할 것인지 여부를 판단하는 제어부를 포함함을 특징으로 한다.

Description

모션 기반 사용자 인터페이스 제어 장치 및 방법{APPARATUS AND METHOD FOR CONTROLLING USER INTERFACE BASED MOTION}
본 발명은 사용자 인터페이스 제어에 관한 것으로, 특히 이동단말기의 모션에 따라서 인터페이스를 제어할 수 있는 장치 및 방법에 관한 것이다.
오늘날 TV, 휴대폰, MP3 플레이어, PMP, 스마트폰 등의 전자기기에는 다양한 입출력 장치들이 장착된다. 다양한 입출력 장치들은 사용자가 전자기기를 편리하게 제어할 수 있도록 하기 위해 제공된다.
이러한 입출력 장치 중 터치스크린의 활용도가 최근 기하급수적으로 증가하고 있다. 특히, 휴대폰, 스마트폰, 노트북과 같은 이동단말기 시장에서 터치 패널의 탑재 비중이 점차 증가하고 있으며, 대부분의 스마트폰에서 터치스크린 패널의 채용이 일반화될 것으로 전망되고 있다. 또한 상기 터치스크린 패널의 채용 일반화로 인하여 상기 이동단말기용 터치스크린 시장이 급성장할 것으로 전망된다. 아울러, TV나 냉장고와 같은 가전 부분에서도 터치스크린 패널의 채용이 일반화되고 있으며, 이동단말기에 이어 향후 상가 가전 부분이 터치스크린 패널의 채용 분야로서 높은 비중을 차지할 것으로 예상된다.
최근에 인간과 터치스크린 간의 자연스러운 상호 작용을 위하여 시각 정보를 기반으로 한 사용자 의도 및 행위 인식에 대한 연구가 활발히 진행되고 있다. 그 중에서도 손가락/터치 펜 등을 이용한 입력 제스처를 인식하여 사용자 친화적인 사용자 인터페이스를 구현하고 있다. 현재에는 터치스크린 상에 싱글 핑거(Single-Finger) 기반의 싱글 터치(Single-Touch) 입력에 따른 동작을 처리하는 인터페이스에서, 멀티 핑거(Multi-Finger) 기반의 멀티 터치(Multi-Touch) 입력에 따른 동작을 처리하는 사용자 인터페이스가 구현되고 있다.
이러한 터치스크린은 입력 센싱을 하는 표면과 출력 디스플레이 역할을 하는 표면을 서로 겹쳐 놓은 구조를 가진다. 따라서 상기 터치스크린에서는 멀티 터치를 바탕으로 입력되는 사용자의 의도를 분석 및 인지하고, 그에 따른 결과를 출력할 수 있다. 특히 멀티 터치 기반의 사용자 인터페이스에서는 터치스크린 화면에서 터치되는 손가락/터치 펜의 숫자와 이에 따른 동작을 인식하여 해당 명령을 실행하도록 설계된다. 이와 같은 멀티 터치 입력을 지원하는 이동단말기의 내부 구성도를 살펴보면 다음과 같다.
도 1은 일반적인 멀티 터치 입력을 지원하는 이동단말기의 내부 구성도이다. 도 1의 이동단말기는 출력부(101), 제어부(103), 저장부(105) 및 입력부(107)를 포함한다.
도 1을 참조하면, 출력부(101)는 터치스크린 화면에 그림 또는 웹 페이지와 같은 이미지를 출력하는 역할을 한다. 그림 또는 웹 페이지와 같은 이미지는 저장부(105)에 저장되며, 해당 이미지가 터치스크린 화면에 출력되면 사용자는 편의에 따라 입력부(107)를 이용하여 이미지를 확대 또는 축소할 수 있다. 이미지를 확대 또는 축소하는 방법으로는 터치스크린 화면에 출력된 이미지에서 원하는 부분을 손가락 두 개를 이용하여 동시에 터치하여 확대 또는 축소한다. 손가락 대신 터치 펜을 이용할 수도 있다. 제어부(103)는 입력부(107)를 통하여 멀티 터치가 입력되면 이를 분석하여 멀티 터치가 이루어진 영역을 확대 또는 축소하여 터치스크린 화면 상에 출력하도록 출력부(101)를 제어하는 역할을 한다.
상기 도 1의 구성도를 이용하여 멀티 터치 입력에 따른 동작 과정을 나타낸 예시도를 살펴보면 다음과 같다.
도 2는 기존의 멀티 터치 입력에 따른 동작 과정을 나타낸 예시도이다. 도 2는 멀티 터치를 이용하여 터치스크린 상의 특정 영역을 확대하는 과정을 나타내고 있다.
도 2의 (a)는 터치스크린(201) 상에 표시된 자동차 이미지(203)를 확대하기 위하여 두 개의 손가락(205)을 터치한 모습을 도시하고 있다. 두 개의 손가락(205)이 터치되는 위치에 따라서 확대되는 영역이 달라질 수 있다. 도 2의 (b)는 터치스크린(201) 상에 표시된 자동차 이미지(203)를 두 개의 손가락(205)을 서로 벌려 확대한 모습을 도시하고 있다. 두 개의 손가락(205)을 벌리는 정도에 따라서 자동차 이미지(203)의 확대 정도는 달라질 수 있다.
도 2에서는 이미지를 확대하는 과정만을 설명하고 있으나, 확대된 이미지를 축소하는 과정 또한 두 개의 손가락(205)을 이용하여 구현이 가능하다.
하지만, 상기와 같은 경우에는 터치스크린 화면의 특정 부분을 확대 또는 축소할 때 미리 설정된 확대 또는 축소 키를 누르거나 멀티 터치 입력을 통해서만 화면의 확대나 축소 배율을 조정하도록 제어된다. 또한 화면과 화면 간의 이동이나 한 화면의 특정 부분에서 다른 부분으로 이동 보기를 할 때에도 미리 설정된 이동 키를 누르거나 터치스크린 화면의 임의의 영역을 터치 드래그하여 이동하도록 제어된다. 이로 인하여 연속적인 확대 또는 축소의 동작을 할 때에는 연속적인 키의 입력이나 멀티 터치 동작이 계속해서 이루어져야 하며, 하나의 화면의 특정 부분에서 다른 부분의 이동 보기에 있어서도 원하는 위치까지 이동하기 위해 계속해서 키를 입력하거나 연속적인 터치 드래그를 수행하여야 하는 번거로움이 따르게 된다. 따라서 터치스크린의 입력 및 제스처만으로는 사용자가 원하는 동작을 신속하고 정확하게 수행하기에는 어려움이 따른다.
본 발명은 모션을 기반으로 하여 이미지의 확대/축소 및 이동을 수행할 수 있는 사용자 인터페이스 제어 장치 및 방법을 제공하고자 한다.
본 발명의 일 실시예에 따르면, 모션 기반 사용자 인터페이스 제어 장치에 있어서, 이미지를 출력하고 사용자에 의해 적어도 하나의 점을 입력받는 터치스크린과. 상기 장치의 움직임을 감지하는 센서부와, 상기 센서부로부터 상기 장치의 움직임이 감지되면 상기 장치의 움직임 정도 계산하는 움직임 계산부와, 상기 터치스크린으로부터 적어도 하나의 점이 터치되면, 상기 터치되는 점의 개수를 파악하고, 상기 움직임 계산부로부터 상기 장치의 움직임 정도에 관한 정보를 수신한 후, 상기 터치되는 점의 개수에 따라 상기 이미지의 크기를 변경할 것인지 또는 상기 이미지의 위치를 변경할 것인지 여부를 판단하는 제어부를 포함함을 특징으로 한다.
본 발명의 다른 실시예에 따르면, 모션 기반 사용자 인터페이스 제어 방법에 있어서, 터치스크린에 이미지를 출력하는 과정과, 상기 터치스크린에 적어도 하나의 점이 터치되면, 터치되는 점의 개수를 파악하는 과정과, 상기 터치되는 점의 개수에 따라 상기 이미지의 크기를 변경할 것인지 또는 상기 이미지의 위치를 변경할 것인지 여부를 판단하는 과정과, 상기 터치스크린을 포함하는 장치의 움직임에 따라서 상기 이미지의 크기 또는 위치를 변경하는 과정을 포함함을 특징으로 한다.
본 발명의 다른 실시예에 따르면, 전자 장치는 이미지를 표시하는 디스플레이; 및 상기 디스플레이 상의 터치 지점의 개수가 제1값이면, 상기 전자 장치의 움직임을 상기 이미지를 움직이기 위한 명령으로 판단하고, 상기 전자 장치의 상기 움직임에 대응하는 상기 이미지의 쉬프트(shift) 정도를 판단하고, 상기 쉬프트 정도에 기초하여 상기 이미지를 쉬프트하고, 상기 쉬프트된 이미지를 표시하도록 상기 디스플레이를 제어하는 프로세서;를 포함할 수 있다.
본 발명의 다른 실시예에 따르면,전자 장치에서 이미지를 표시하는 방법은, 이미지를 표시하는 동작; 상기 전자 장치의 디스플레이 상의 터치 지점의 개수가 제1값이면, 상기 전자 장치의 움직임을 상기 이미지를 움직이기 위한 명령으로 판단하는 동작; 상기 전자 장치의 상기 움직임에 대응하는 상기 이미지의 쉬프트 정도를 판단하는 동작; 및 상기 쉬프트 정도에 기초하여 상기 이미지를 쉬프트하고, 상기 쉬프트된 이미지를 표시하는 동작;을 포함할 수 있다.
본 발명은 이동단말기 터치스크린 화면에 터치되는 점의 수에 따라서 터치스크린 화면에 출력된 이미지의 확대/축소 또는 이동이 용이하게 전환되며, 이동단말기의 모션에 의해 이미지가 확대/축소 또는 이동되므로 이미지를 원하는 크기나 위치로 용이하게 제어가 가능한 효과가 있다. 또한 기존 터치 사용자 인터페이스가 그대로 유지되면서 모션 기반의 사용자 인터페이스가 제공되므로 사용자의 기호와 휴대 상황에 따라서 이미지의 확대/축소 또는 이동을 위한 제어 모드를 선택적으로 사용할 수 있는 효과가 있다.
도 1은 일반적인 멀티 터치 입력을 지원하는 이동단말기의 내부 구성도
도 2는 일반적인 멀티 터치 입력에 따른 동작 방법을 나타낸 도면
도 3은 본 발명의 일 실시예에 따른 모션 기반의 사용자 인터페이스 제어를 수행하는 이동단말기의 내부 구성도
도 4 및 5는 본 발명의 일 실시예에 따른 이동단말기의 모션 변화를 나타낸 도면
도 6은 본 발명의 일 실시예에 따른 이미지의 확대 또는 축소를 수행하는 모습을 나타낸 도면
도 7은 본 발명의 일 실시예에 따른 이미지의 이동을 수행하는 모습을 나타낸 도면
도 8은 본 발명의 일 실시예에 따른 특정 키들을 할당하여 모션 기반의 사용자 인터페이스 제어를 수행하는 모습을 나타낸 도면
도 9는 본 발명의 일 실시예에 따른 모션 기반의 사용자 인터페이스 제어를 수행하는 방법을 나타낸 순서도
이하 본 발명에 따른 바람직한 실시예를 첨부한 도면을 참조하여 상세히 설명한다. 하기 설명에서는 구체적인 구성 소자 등과 같은 특정 사항들이 나타나고 있는데 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐 이러한 특정 사항들이 본 발명의 범위 내에서 소정의 변형이나 혹은 변경이 이루어질 수 있음은 이 기술 분야에서 통상의 지식을 가진 자에게는 자명하다 할 것이다.
도 3은 본 발명의 일 실시예에 따른 모션 기반의 사용자 인터페이스 제어를 수행하는 이동단말기(전자 장치)의 내부 구성도이다. 도 3의 이동단말기는 출력부(301), 제어부(303), 저장부(305), 입력부(307), 움직임 계산부(309) 또는 센서부(311)를 포함한다.
도 3을 참조하면, 출력부(301)는 터치스크린 화면에 사진 또는 웹 페이지와 같은 이미지를 출력하는 역할을 한다. 사진 또는 웹 페이지와 같은 이미지는 저장부(305)에 저장되어 있으며, 필요에 따라서 저장부(305)에 저장되어 있는 다른 이미지를 이용하거나 별도로 장착된 카메라부를 이용하여 직접 원하는 사진을 캡쳐할 수도 있다.
입력부(307)는 터치스크린 화면을 통하여 터치되는 점의 수, 드래그(drag) 등을 입력받는 역할을 하며, 움직임 계산부(309)는 이동단말기가 움직이는 방향이나 각도를 계산하여 이를 제어부(303)로 송신하는 역할을 한다. 이동단말기는 기본적으로 상하좌우로 움직일 수 있으며, 이동단말기를 사용하는 사용자를 중심으로 이동단말기가 사용자 방향으로 수평으로 당겨지는 앞 방향과 수평으로 밀려지는 뒤 방향으로 움직일 수도 있다. 이동단말기가 움직이는 각도는 현재의 위치를 0도로 가정하여 상기 이동단말기가 기울어지는 방향으로 각도를 계산한다. 움직임 계산부(309)는 이동단말기가 움직이는 방향이나 각도를 계산하기 위하여 센서부(311)를 이용하며, 더 구체적으로는 센서부(311)에 포함되어 있는 적어도 하나의 센서 중 자이로스코프 센서를 이용하여 이동단말기가 움직이는 방향이나 각도를 계산한다. 자이로스코프 센서는 가속 센서에 각각의 회전을 넣어 총 6축을 인식할 수 있도록 하여 가속 센서 대비 좀 더 정밀한 동작을 인식할 수 있는 센서로, 가속 및 감속뿐만 아니라 높이와 회전 기울기까지 감지할 수 있는 센서이다.
제어부(303)는 입력부(307)를 통하여 터치스크린 화면에 터치되는 점의 수 및 터치 드래그에 관한 정보를 수신하고, 움직임 계산부(309)를 통하여 이동단말기의 움직임 계산 정보를 수신하여, 터치되는 점의 수에 따라서 터치스크린 화면에 출력된 이미지를 각각 다르게 제어하는 역할을 한다.
먼저, 터치스크린의 화면의 임의의 영역에 둘 이상의 점이 터치되었다면, 제어부(303)는 터치스크린 화면에 출력된 이미지의 확대 또는 축소에 대한 명령으로 인식하고 움직임 계산부(309)를 통하여 수신되는 이동단말기의 움직임 변화에 대응하여 이미지를 확대 또는 축소한다. 예를 들어, 터치스크린 화면의 임의의 영역에 두 점이 터치되고, 이동단말기의 현재 각도는 고정된 채로 사용자 방향으로 당겨지거나 사용자 방향으로 이동단말기의 각도를 조절되는 경우 상기 이동단말기는 출력된 이미지를 확대한다. 상기 현재 각도는 고정된 채로 사용자 반대 방향으로 밀려지거나 사용자 반대 방향으로 이동단말기의 각도가 조절되면 상기 이동단말기는 출력된 이미지를 축소한다. 즉, 상기의 방식은 손가락 두 개를 이용하여 이미지를 확대 또는 축소하는 기존의 멀티 터치 방식을 이용하였을 때와 동일한 효과를 가진다. 이는 도 4를 통하여 명확하게 알 수 있다.
도 4는 본 발명의 일 실시예에 따른 이동단말기(전자 장치)의 모션 변화를 나타낸 도면이다. 도 4에서는 사용자가 이동단말기 터치스크린 화면의 임의의 두 점을 터치하고 있는 것으로 가정한다.
도 4의 (a)를 참조하면, 사용자가 이동단말기 터치스크린 화면의 임의의 두 부분을 터치한 채로 이동단말기의 현재 각도는 고정하고 Z축 방향으로 이동단말기를 당기면 출력된 이미지가 확대되고, 반대로 -Z축 방향으로 이동단말기를 밀면 출력된 이미지가 축소된다. 도 4의 (b)는 이동단말기가 이동한 경로를 측면에서 도시한 것으로, 이동단말기의 각도의 변화 없이 Z축 또는 -Z축 방향으로만 이동단말기가 이동되었음을 알 수 있다. 또한 도 4의 (c)는 Y, -Y축을 회전축으로 설정하고 이동단말기의 기울기 변화를 도시한 것으로 이동단말기의 각도를 기울여 터치스크린 화면에 출력된 이미지를 확대 또는 축소할 수 있다.
다음으로, 터치스크린 화면의 임의의 영역에 하나의 점이 터치되었다면, 제어부(303)는 터치스크린 화면에 출력된 이미지의 이동에 대한 명령으로 인식하고 움직임 계산부(309)를 통하여 수신되는 이동단말기의 움직임 변화에 대응하여 이미지를 상하좌우로 이동한다. 예를 들어 터치스크린 화면의 임의의 영역에 하나의 점이 터치되고, 이동단말기가 왼쪽으로 움직이거나 또는 왼쪽으로 이동단말기의 각도가 조절되는 경우, 이동단말기의 출력된 이미지의 위치가 왼쪽으로 이동된다. 즉, 사용자가 터치스크린 화면을 터치한 후 드래깅(Dragging)하여 이미지를 원하는 방향으로 이동하는 방식을 이용하였을 때와 동일한 효과를 가진다. 이는 도 5를 통하여 명확하게 알 수 있다.
도 5는 본 발명의 일 실시예에 따른 모션 변화를 나타낸 도면이다. 도 5에서는 사용자가 이동단말기 터치스크린 화면의 임의의 한 점을 터치하고 있는 것으로 가정한다.
도 5의 (a)를 참조하면, 사용자가 이동단말기 터치스크린 화면의 임의의 한 부분을 터치한 채로 이동단말기의 현재 각도는 고정하고 X, -X, Y, -Y 축 방향으로 이동단말기를 이동하면, 터치스크린 화면에 출력된 이미지의 위치가 이동된 방향에 따라서 이동한다. 도 5의 (b), (c)는 Z, -Z축, 또는 Y, -Y축을 회전축으로 설정하고 이동단말기의 기울기 변화를 도시한 것으로, Z, -Z축이 회전축으로 설정된 경우에는 출력된 이미지가 좌우로 이동할 수 있으며, Y, -Y축이 회전축으로 설정된 경우에는 출력된 이미지가 상하로 이동할 수 있다.
여기서 Y, -Y축이 회전축으로 설정되는 경우는 터치스크린 화면에 터치되는 점의 수에 따라서 출력된 이미지의 변환이 달라진다. 도 4의 경우에는 이미지의 확대 또는 축소가 수행되며, 도 5의 경우에는 이미지의 상하 이동이 수행됨을 알 수 있다.
또한 제어부(303)는 기존과 같이 터치스크린 화면의 임의의 영역에 적어도 하나의 점이 터치되고 난 이후에 발생될 수 있는 드래깅과 같은 재스처에 대응하여 터치스크린 화면에 출력된 이미지를 제어할 수도 있다. 예를 들어 터치스크린 화면의 임의의 영역에 하나의 점이 터치되고, 터치된 상태에서 왼쪽으로 드래그하면 출력된 이미지를 왼쪽으로 이동하거나, 다음 이미지를 출력하는 등의 효과를 줄 수 있다. 두 점이 터치되면, 기존의 멀티 터치 방식을 이용하여 출력된 이미지의 확대 또는 축소도 가능하다.
상기 도 3의 블록 구성도를 이용하여 출력된 이미지를 제어하는 방법을 살펴보면 다음과 같다.
도 6은 본 발명의 일 실시예에 따른 이미지의 확대 또는 축소를 수행하는 모습을 나타낸 도면이다.
도 6을 참조하면, 도 6의 (a)에서는 사용자가 이동단말기 터치스크린의 화면의 임의의 영역에 둘 이상의 점들을 누른 채로 화면을 바라보면서 이동단말기를 당기는 모션을 취하고 있으며, 이러한 모션에 대응하여 출력된 이미지가 확대되는 기능이 이루어진다. 도 6의 (b)는 측면에서 바라본 모습으로 사용자가 화면을 당길 때의 모습을 도시하고 있다. 도 6의 (b)를 참조하면, 이동단말기의 각도를 앞으로 기울이지 않고 도 4에서와 같이 이동단말기를 사용자 방향으로 당기기만 하여도 이미지가 확대됨을 알 수 있다.
도 6에 도시되지는 않았지만, 사용자가 이동단말기 터치스크린의 화면의 임의의 영역에 둘 이상의 점들을 누른 채로 화면을 바라보면서 이동단말기를 사용자 반대 방향으로 미는 모션을 취하는 경우, 출력된 이미지가 축소되는 기능이 이루어질 수 있다. 이동단말기를 당길 때 이미지가 확대되고 이동단말기를 밀 때 이미지가 축소되는 기능은 사용자 설정에 의하여 변경이 가능하다. 예를 들어 이동단말기를 당길 때 이미지가 축소되고 이동단말기를 밀 때 이미지가 확대되도록 변경이 가능하다.
이미지의 확대 또는 축소 비율은 사용자 모션에 의해 변화하는 이동단말기의 센서부(311)에 내장된 자이로스코프 센서를 이용하여 도 4, 5에 도시된 각 축 방향의 회전각 측정치에 비례하도록 설계할 수 있다. 이와 같은 이미지의 확대 또는 축소 기능이 제공되는 상황에서 사용자는 터치된 두 개의 점들을 누른 채로 기존 멀티 터치에 의한 이미지의 확대 또는 축소 기능을 동작시킬 수도 있으며, 기존 멀티 터치에 의한 확대 또는 축소 기능이 수행되는 동안에는 모션에 의한 이미지의 확대 또는 축소 기능을 비활성화하여 기존 멀티 터치에 의한 확대 또는 축소 기능과 상호 간섭을 일으키지 않도록 할 수도 있다.
본 발명에서는 사용자가 터치스크린 화면에 하나의 점만을 터치하거나 터치가 이루어지지 않는 경우에는 이미지의 확대 및 축소 동작은 비활성화된다.
도 7은 본 발명의 일 실시예에 따른 이미지의 이동을 수행하는 모습을 나타낸 도면이다.
도 7을 참조하면, 도 7의 (a)에서는 터치스크린 화면의 출력된 이미지의 이동 동작에 관한 것으로, 사용자가 이동단말기의 터치스크린 화면의 임의의 영역에 하나의 점을 누른 채로 화면을 바라보면서 이동단말기를 왼쪽에서 오른쪽으로 이동하는 모션을 취하고 있으며, 이러한 모션에 대응하여 출력된 이미지가 오른쪽에서 왼쪽으로 이동하는 기능이 이루어진다. 도 7의 (b)는 터치스크린 화면만을 도시한 것으로 왼쪽 도면은 이동단말기를 이동하기 전의 이미지를 도시한 것이고, 오른쪽 도면은 사용자가 이동단말기를 왼쪽에서 오른쪽으로 이동하였을 때에 출력되는 이미지의 변화를 도시한 것이다. 또한 도 7의 (b)를 살펴보면, 이미지가 이동하면서 화면 밖 좌측에 존재하여 화면 상에 보이지 않던 이미지가 이동하여 화면에 보이게 됨을 알 수 있다. 이는 다르게 응용하면 여러 장의 이미지가 함께 나열되어 있는 경우에는 이동단말기를 이동하면서 나열된 순서대로 이미지를 순차적으로 보여지게 할 수도 있을 것이다.
이미지의 이동 시 이동되는 이미지의 면적은 사용자 모션에 의해 변화하는 이동단말기에 내장된 자이로스코프 센서를 이용하여 도 4, 5에 도시된 각 축 방향의 회전각 측정치에 비례하도록 설계할 수 있다. 이와 같은 이미지의 이동 기능이 제공되는 상황에서 사용자는 터치된 하나의 점을 누른 채로 드래깅 기능을 이용하여 이미지를 이동할 수 있으며, 드래깅 기능이 동작하는 동안에는 모션에 의한 이미지 이동 기능은 비활성화되어 드래깅 기능과 상호 간섭을 일으키지 않도록 할 수도 있다.
본 발명에서는 사용자가 터치스크린 화면에 둘 이상의 점을 터치하거나 터치가 이루어지지 않는 경우에는 이미지의 이동 동작은 비활성화된다.
본 발명에서는 터치스크린 화면의 임의의 영역에 터치되는 점의 수에 따라서 출력된 이미지의 제어 방법이 달라질 수 있음을 설명하고 있지만, 특정 키들을 할당하여 키가 눌려진 개수에 따라서 출력된 이미지의 제어 방법을 달리 할 수도 있을 것이다. 이를 하기의 도면을 통하여 설명하면 다음과 같다.
도 8은 본 발명의 일 실시예에 따른 특정 키들을 할당하여 모션 기반의 사용자 인터페이스 제어를 수행하는 모습을 나타낸 도면이다.
도 8의 (a)에서는 사용자가 이미지 뷰어 실행 중 키패드의 숫자 버튼 1과 3을 함께 또는 일정한 시간 간격을 두고 누르게 되면, 이동단말기는 출력된 이미지의 확대 또는 축소에 대한 명령으로 인식하도록 설정이 가능하다. 이후 이동단말기의 움직임에 따라서 출력된 이미지의 확대 또는 축소가 가능하다.
도 8의 (b)에서는 사용자가 이미지 뷰어 실행 중 키패드의 숫자 버튼 1 또는 3 중 어느 하나만 누르게 되면, 이동단말기는 출력된 이미지의 이동에 대한 명령으로 인식하도록 설정할 수도 있을 것이다. 상기와 같은 버튼은 물리적인 버튼이 될 수도 있고 터치스크린 외에 별도로 장착된 터치에 의해 동작되는 버튼일 수도 있다.
도 9는 본 발명의 일 실시예에 따른 모션 기반의 사용자 인터페이스 제어를 수행하는 방법을 나타낸 순서도이다.
도 9를 참조하면, 901단계에서 이동단말기는 사용자 입력이 수신되면 사진이나 웹 페이지와 같은 이미지의 출력을 위해서 이미지 뷰어를 실행한다. 이미지는 이동단말기의 저장부(305)에 저장되어 있으며, 무선 인터넷이 가능한 단말기라면 미리 저장되어 있는 웹 페이지 이미지를 보기 위하여 이미지 뷰어를 실행할 필요 없이 웹 페이지의 실행이 가능하다. 903단계에서 이동단말기는 입력부(307)를 통하여 터치 입력이 감지되었는지의 여부를 판단한다. 만약 터치 입력이 감지되지 않았다면 901단계로 돌아가 이미지 뷰어 실행을 계속 진행한다. 만약 터치 입력이 감지되었다면, 905단계로 진행한다.
905단계에서 이동단말기는 터치스크린 화면에 터치된 점의 수를 파악하고, 파악된 점의 개수에 따라서 이미지 제어를 다르게 수행한다. 만약 터치된 점의 수가 2개 이상이라면, 이동단말기는 이미지의 확대 또는 축소를 수행하는 것으로 인식하고 이동단말기의 움직임 감지를 시작한다. 이 후 907단계에서 이동단말기가 도 4와 같이 앞, 뒤로 이동하거나 앞, 뒤로 각도를 조절하는 경우 움직임 또는 기울기 정도를 계산하고 이에 대응하여 이미지를 확대 또는 축소하는 동작을 수행한다. 이동단말기의 움직임 감지는 센서부(311)의 자이로스코프 센서에 의해 센싱되며, 이동단말기의 움직임 또는 기울기 정도는 움직임 계산부(309)에서 담당한다. 또한 터치되는 2개 이상의 점들 대신 2개 이상의 버튼들을 할당하여 이미지가 축소 또는 확대되는 과정을 수행하도록 제어할 수도 있다.
만약 터치된 점의 수가 1개라면, 이동단말기는 이미지의 이동을 수행하는 것으로 인식하고 이동단말기의 움직임 감지를 시작한다. 이후 909단계에서 이동단말기가 도 5와 같이 상하좌우로 이동하거나 앞뒤 또는 좌우로 각도를 조절하는 경우 움직임 또는 기울기 정도를 계산하고 이에 대응하여 이미지를 움직이는 방향으로 이동하는 동작을 수행한다. 이 또한 이동단말기의 움직임 감지는 센서부(311)의 자이로스코프 센서가 센싱하며, 이동단말기의 움직임 또는 기울기 정도는 움직임 계산부(309)에서 담당한다. 또한 터치되는 1개의 점 대시 특정 버튼을 할당하여 이미지가 이동되는 동작을 수행하도록 제어할 수도 있다.
한편 상기한 본 발명의 설명에서는 구체적인 실시예에 관해 설명하였으나 여러 가지 변형이 본 발명의 범위를 벗어나지 않고 실시될 수 있다. 따라서 본 발명의 범위는 설명된 실시예에 의하여 정할 것이 아니고 청구범위와 같은 청구범위와 균등한 것에 의하여 정하여져야 할 것이다.
301: 출력부 303: 제어부
305: 저장부 307:입력부
309: 움직임 계산부 311: 센서부

Claims (18)

  1. 전자 장치에 있어서,
    디스플레이; 및
    제1 이미지를 표시하도록 상기 디스플레이를 제어하고, 상기 디스플레이 상의 터치 지점의 개수가 제1값을 유지하는 동안에, 상기 전자 장치의 움직임을 감지하고-상기 전자 장치의 움직임은 상기 제1 이미지를 움직이기 위한 명령으로 인식됨-, 상기 전자 장치가 움직인 거리 및 상기 전자 장치가 움직인 방향을 식별하고, 상기 전자 장치가 움직인 거리에 기초하여 상기 전자 장치가 움직인 방향의 반대 방향으로 상기 제1 이미지를 움직임으로써 제2 이미지를 생성하고, 상기 제2 이미지를 표시하도록 상기 디스플레이를 제어하는 프로세서;를 포함함을 특징으로 하는 전자 장치.
  2. 제1항에 있어서,
    상기 전자 장치의 움직임과 관련된 하나 이상의 센싱 값들을 생성하는 하나 이상의 센서들을 더 포함하고,
    상기 프로세서는, 상기 하나 이상의 센싱 값들에 기초하여 상기 전자 장치가 움직인 거리 또는 상기 전자 장치가 움직인 방향을 판단함을 특징으로 하는 전자 장치.
  3. 제1항에 있어서, 상기 프로세서는,
    상기 전자 장치가 왼쪽에서 오른쪽으로 움직이면, 상기 제1 이미지를 오른쪽에서 왼쪽으로 쉬프트(shift)시킴으로써 상기 제2 이미지를 생성함을 특징으로 하는 전자 장치.
  4. 제1항에 있어서, 상기 프로세서는,
    상기 전자 장치가 오른쪽에서 왼쪽으로 움직이면, 상기 제1 이미지를 왼쪽에서 오른쪽으로 쉬프트시킴으로써 상기 제2 이미지를 생성함을 특징으로 하는 전자 장치.
  5. 제1항에 있어서, 상기 프로세서는,
    상기 전자 장치가 위로 움직이면, 상기 제1 이미지를 아래로 쉬프트시킴으로써 상기 제2 이미지를 생성함을 특징으로 하는 전자 장치.
  6. 제1항에 있어서, 상기 프로세서는,
    상기 전자 장치가 아래로 움직이면, 상기 제1 이미지를 위로 쉬프트시킴으로써 상기 제2 이미지를 생성함을 특징으로 하는 전자 장치.
  7. 제1항에 있어서, 상기 프로세서는,
    상기 전자 장치가 왼쪽에서 오른쪽으로 움직이면, 상기 전자 장치에 미리 저장된 다수의 이미지들의 배열 순서에 따라, 상기 다수의 이미지들 중 상기 제1 이미지의 다음 순서에 해당하는 이미지를 표시하도록 상기 디스플레이를 제어함을 특징으로 하는 전자 장치.
  8. 제1항에 있어서, 상기 프로세서는,
    상기 전자 장치가 오른쪽에서 왼쪽으로 움직이면, 상기 전자 장치에 미리 저장된 다수의 이미지들의 배열 순서에 따라, 상기 다수의 이미지들 중 상기 제1 이미지의 이전 순서에 해당하는 이미지를 표시하도록 상기 디스플레이를 제어함을 특징으로 하는 전자 장치.
  9. 제1항에 있어서, 상기 프로세서는,
    상기 터치 지점의 수가 제2값이면, 상기 전자 장치의 움직임을 상기 제1 이미지를 확대(zooming-in) 또는 축소(zooming-out)하기 위한 명령으로서 인식하고, 상기 전자 장치의 움직임에 기초하여 상기 제1 이미지를 상기 확대 또는 상기 축소하여 표시하도록 상기 디스플레이를 제어함을 특징으로 하는 전자 장치.
  10. 전자 장치에서 이미지를 표시하는 방법에 있어서,
    제1 이미지를 표시하는 동작;
    상기 전자 장치의 디스플레이 상의 터치 지점의 개수가 제1값을 유지하는 동안에, 상기 전자 장치의 움직임을 감지하는 동작-상기 전자 장치의 움직임은 상기 제1 이미지를 움직이기 위한 명령으로서 인식됨-;
    상기 전자 장치가 움직인 거리 및 상기 전자 장치가 움직인 방향을 식별하는 동작;
    상기 전자 장치가 움직인 거리에 기초하여 상기 전자 장치가 움직인 방향의 반대 방향으로 상기 제1 이미지를 움직임으로써 제2 이미지를 생성하는 동작; 및
    상기 제2 이미지를 표시하는 동작;을 포함함을 특징으로 하는 표시 방법.
  11. 제10항에 있어서, 상기 전자 장치가 움직인 거리 및 상기 전자 장치가 움직인 방향을 식별하는 동작은,
    상기 전자 장치의 움직임과 관련된 하나 이상의 센싱 값들을 생성하는 동작; 및
    상기 하나 이상의 센싱 값들에 기초하여 상기 전자 장치가 움직인 거리 또는 상기 전자 장치가 움직인 방향을 판단하는 동작;을 더 포함함을 특징으로 하는 표시 방법.
  12. 제10항에 있어서, 상기 제2 이미지는,
    상기 전자 장치가 왼쪽에서 오른쪽으로 움직인 것에 대응하여, 상기 제1 이미지가 오른쪽에서 왼쪽으로 쉬프트됨으로써 생성됨을 특징으로 하는 표시 방법.
  13. 제10항에 있어서, 상기 제2 이미지는,
    상기 전자 장치가 오른쪽에서 왼쪽으로 움직인 것에 대응하여, 상기 제1 이미지가 왼쪽에서 오른쪽으로 쉬프트됨으로써 생성됨을 특징으로 하는 표시 방법.
  14. 제10항에 있어서, 상기 제2 이미지는,
    상기 전자 장치가 위로 움직인 것에 대응하여, 상기 제1 이미지가 아래로 쉬프트됨으로써 생성됨을 특징으로 하는 표시 방법.
  15. 제10항에 있어서, 상기 제2 이미지는,
    상기 전자 장치가 아래로 움직인 것에 대응하여, 상기 제1 이미지가 위로 쉬프트됨으로써 생성됨을 특징으로 하는 표시 방법.
  16. 제10항에 있어서,
    상기 전자 장치가 왼쪽에서 오른쪽으로 움직이면, 상기 전자 장치에 미리 저장된 다수의 이미지들의 배열 순서에 따라, 상기 다수의 이미지들 중 상기 제1 이미지의 다음 순서에 해당하는 이미지가 표시됨을 특징으로 하는 표시 방법.
  17. 제10항에 있어서,
    상기 전자 장치가 오른쪽에서 왼쪽으로 움직이면, 상기 전자 장치에 미리 저장된 다수의 이미지들의 배열 순서에 따라, 상기 다수의 이미지들 중 상기 제1 이미지의 이전 순서에 해당하는 이미지가 표시됨을 특징으로 하는 표시 방법.
  18. 제10항에 있어서,
    상기 터치 지점의 수가 제2값이면, 상기 전자 장치의 움직임을 상기 제1 이미지를 확대(zooming-in) 또는 축소(zooming-out)하기 위한 명령으로서 판단하는 동작; 및
    상기 전자 장치의 상기 움직임에 기초하여 상기 제1 이미지를 상기 확대 또는 상기 축소하는 동작;을 더 포함함을 특징으로 하는 표시 방법.
KR1020180131846A 2018-10-31 2018-10-31 모션 기반 사용자 인터페이스 제어 장치 및 방법 KR102049259B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180131846A KR102049259B1 (ko) 2018-10-31 2018-10-31 모션 기반 사용자 인터페이스 제어 장치 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180131846A KR102049259B1 (ko) 2018-10-31 2018-10-31 모션 기반 사용자 인터페이스 제어 장치 및 방법

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020100100435A Division KR101915615B1 (ko) 2010-10-14 2010-10-14 모션 기반 사용자 인터페이스 제어 장치 및 방법

Publications (2)

Publication Number Publication Date
KR20180121849A KR20180121849A (ko) 2018-11-09
KR102049259B1 true KR102049259B1 (ko) 2019-11-28

Family

ID=64426532

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180131846A KR102049259B1 (ko) 2018-10-31 2018-10-31 모션 기반 사용자 인터페이스 제어 장치 및 방법

Country Status (1)

Country Link
KR (1) KR102049259B1 (ko)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6317114B1 (en) 1999-01-29 2001-11-13 International Business Machines Corporation Method and apparatus for image stabilization in display device
US6834249B2 (en) 2001-03-29 2004-12-21 Arraycomm, Inc. Method and apparatus for controlling a computing system
US20100058254A1 (en) * 2008-08-29 2010-03-04 Tomoya Narita Information Processing Apparatus and Information Processing Method

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101414767B1 (ko) * 2007-05-15 2014-07-03 엘지전자 주식회사 이동통신 단말기 및 그 제어방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6317114B1 (en) 1999-01-29 2001-11-13 International Business Machines Corporation Method and apparatus for image stabilization in display device
US6834249B2 (en) 2001-03-29 2004-12-21 Arraycomm, Inc. Method and apparatus for controlling a computing system
US20100058254A1 (en) * 2008-08-29 2010-03-04 Tomoya Narita Information Processing Apparatus and Information Processing Method

Also Published As

Publication number Publication date
KR20180121849A (ko) 2018-11-09

Similar Documents

Publication Publication Date Title
KR101915615B1 (ko) 모션 기반 사용자 인터페이스 제어 장치 및 방법
JP5553812B2 (ja) スクロール制御装置、端末装置およびスクロール制御方法
US20180150214A1 (en) Display control apparatus, display control method and display control program
US8847978B2 (en) Information processing apparatus, information processing method, and information processing program
JP5446624B2 (ja) 情報表示装置、情報表示方法及びプログラム
KR20110041915A (ko) 데이터 표시 방법 및 그를 수행하는 단말기
JP2009140368A (ja) 入力装置、表示装置、入力方法、表示方法及びプログラム
US10671269B2 (en) Electronic device with large-size display screen, system and method for controlling display screen
JP2015035092A (ja) 表示制御装置及び表示制御装置の制御方法
JP2015138360A (ja) オブジェクト操作システム及びオブジェクト操作制御プログラム並びにオブジェクト操作制御方法
US20150020024A1 (en) Zoom control of screen image in electronic device
KR102049259B1 (ko) 모션 기반 사용자 인터페이스 제어 장치 및 방법
US20110119579A1 (en) Method of turning over three-dimensional graphic object by use of touch sensitive input device
KR20110066545A (ko) 터치스크린을 이용하여 이미지를 표시하기 위한 방법 및 단말
AU2017210607B2 (en) Apparatus and method for controlling motion-based user interface
KR20140083303A (ko) 멀티 포인트 터치를 이용한 사용자 인터페이스 제공 방법 및 이를 위한 장치
KR101165388B1 (ko) 이종의 입력 장치를 이용하여 화면을 제어하는 방법 및 그 단말장치
KR20130037138A (ko) 카메라를 이용한 사용자 입력 인식 장치 및 방법
KR101136327B1 (ko) 휴대 단말기의 터치 및 커서 제어방법 및 이를 적용한 휴대 단말기
JP5516794B2 (ja) 携帯情報端末、表示制御方法およびプログラム
CN104793853B (zh) 使用者界面的操作方法与电子装置
JP2014149853A (ja) 携帯情報端末、表示制御方法およびプログラム
KR20140083301A (ko) 원 포인트 터치를 이용한 사용자 인터페이스 제공 방법 및 이를 위한 장치

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right