KR20140027837A - 모바일 디바이스 및 모바일 디바이스에서 사용자 인터페이스 방법 - Google Patents

모바일 디바이스 및 모바일 디바이스에서 사용자 인터페이스 방법 Download PDF

Info

Publication number
KR20140027837A
KR20140027837A KR1020120093944A KR20120093944A KR20140027837A KR 20140027837 A KR20140027837 A KR 20140027837A KR 1020120093944 A KR1020120093944 A KR 1020120093944A KR 20120093944 A KR20120093944 A KR 20120093944A KR 20140027837 A KR20140027837 A KR 20140027837A
Authority
KR
South Korea
Prior art keywords
mobile device
input
predetermined
transparency
size
Prior art date
Application number
KR1020120093944A
Other languages
English (en)
Inventor
한종호
김정헌
박홍식
송지혜
조종근
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020120093944A priority Critical patent/KR20140027837A/ko
Publication of KR20140027837A publication Critical patent/KR20140027837A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B1/00Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
    • H04B1/38Transceivers, i.e. devices in which transmitter and receiver form a structural unit and in which at least one part is used for functions of transmitting and receiving
    • H04B1/40Circuits
    • H04B1/401Circuits for selecting or indicating operating mode
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Abstract

본 발명에 따른 모바일 디바이스는 오브젝트를 디스플레이하는 터치 스크린; 및 상기 오브젝트 변형에 대응된 입력이 수신되면 상기 오브젝트 변형에 대응된 입력에 따라 상기 오브젝트 변형 형태를 판단하고, 오브젝트 변형 형태에 따라 오브젝트 형태를 변형하여 변형된 오브젝트를 표시하도록 제어하는 제어부를 포함하는 것을 특징으로 한다.

Description

모바일 디바이스 및 모바일 디바이스에서 사용자 인터페이스 방법{MOBILE DEVICE AND METHOD FOR USER INTERFACE IN MOBILE DEVICE}
본 발명은 사용자 인터페이스에 관한 것으로서, 더욱 상세하게는, 모바일 디바이스에서 표시되는 오브젝트를 사용자가 실제 현실 생활에서 다루는 것처럼 변형 및 이동시킬 수 있는 모바일 디바이스 및 모바일 디바이스에서 사용자 인터페이스 방법에 관한 것이다.
최근 모바일 디바이스와 같은 전자 기기(예, 휴대폰, 스마트폰 또는 태블릿 PC)는 적어도 하나 이상의 디스플레이 장치를 가지고 있으며, 디스플레이 장치로는 사용자에게 친숙하고 변형 가능한 사용자 인터페이스를 제공할 수 있다는 장점을 가진 터치 스크린이 널리 사용되고 있다.
사용자 인터페이스(UI:User Interface)란 사용자가 컴퓨터, 이동 단말, TV 등의 전자 기기와 정보를 교환할 때, 정보를 교환하는 작업 환경을 말하며, 통상적으로 그래픽 사용자 인터페이스 기술이 주로 이용되고 있다. 예를 들면 사용자가 모바일 디바이스 상의 기능을 조작하고자 할 때 터치 방식을 이용하여 이동 단말 화면에 있는 아이콘을 선택하여 작업을 수행하도록 하는 환경 등을 말한다.
이러한 그래픽 사용자 인터페이스 기술은 최근 향상된 사용자 경험(User Experience)을 기반으로 한 사용자 인터페이스(UX)가 도입된 제품들이 많은 성공을 거두게 되면서 휴대폰, 스마트폰 등의 모바일 기기뿐만 아니라 각종 전자 장치에 UX를 기반으로한 보다 향상된 그래픽 사용자 인터페이스를 도입하고자 하는 연구가 많이 진행되고 있다. 예를 들면, 스마트 기기상에서 상품과 서비스 앱을 출시할 때 제일 먼저 UX를 기반으로 고객의 사용(행동)습관을 고려하고, 이를 통해 화면 설계나 디자인을 고객중심으로 구성함으로써 고객 편의성을 극대화하고자 하는 등 UX 기반의 사용자 인터페이스 제공으로 서비스 만족도를 높이는데 기여하고 있다.
따라서 상기한 바와 같은 UX 기반의 사용자 인터페이스 제공 추세에 따라 모바일 기기의 오브젝트를 다루는 사용자의 사용(행동)습관을 고려하여 이를 화면 설계나 디자인에 반영한다면, 사용자가 보다 편리하게 모바일 기기를 이용할 수 있게 할 수 있을 것이다.
따라서 본 발명의 목적은 모바일 기기에서 터치 스크린에 표시되는 오브젝트를 UX를 기반으로 사용자가 실제 현실 생활에서 다루는 것처럼 변형 및 이동시킬 수 있는 모바일 기기에서 사용자 인터페이스 장치 및 방법을 제공함에 있다.
또한 본 발명의 다른 목적은 사용자가 실제 현실 생활에서 노트를 구겨 버리거나, 노트를 찢어 버리는 것처럼 모바일 기기에서 터치 스크린에 표시되는 오브젝트를 변형 및 이동시켜 삭제할 수 있는 모바일 기기에서 사용자 인터페이스 장치 및 방법을 제공함에 있다.
상기와 같은 본 발명의 목적들 중 적어도 하나는 하기의 구성요소들에 의해 달성될 수 있다.
본 발명의 모바일 디바이스는 오브젝트를 디스플레이하는 터치 스크린; 및 상기 오브젝트 변형에 대응된 입력이 수신되면 상기 오브젝트 변형에 대응된 입력에 따라 상기 오브젝트 변형 형태를 판단하고, 오브젝트 변형 형태에 따라 오브젝트 형태를 변형하여 변형된 오브젝트를 표시하도록 제어하는 제어부를 포함하는 것을 특징으로 한다.
또한 본 발명의 모바일 디바이스에서 사용자 인터페이스 방법은 오브젝트를 디스플레이하는 하는 과정과, 상기 오브젝트 변형에 대응된 입력이 수신되면 상기 오브젝트 변형에 대응된 입력에 따라 상기 오브젝트 변형 형태를 판단하는 과정과, 상기 오브젝트 변형 형태에 따라 오브젝트 형태를 변형하여 변형된 오브젝트를 표시하는 과정을 포함하는 것을 특징으로 한다.
본 발명에 따르면, 모바일 기기에서 터치 스크린에 표시되는 오브젝트를 사용자가 실제 현실 생활에서 다루는 것처럼 변형 및 이동시킬 수 있도록 함으로써 보다 친숙하고 편리하게 모바일 기기를 이용할 수 있도록 하는 효과가 있다.
또한 본 발명에 따르면, 사용자가 실제 현실 생활에서 노트를 구겨 버리거나, 노트를 찢어 버리는 것처럼 모바일 기기에서 터치 스크린에 표시되는 오브젝트를 변형 및 이동시켜 삭제함으로써, 모바일 기기의 노트를 사용할 때 실제 노트를 사용하는 것과 같은 효과를 줄 수 있는 이점이 있다.
도 1은 본 발명의 일 실시예에 따른 모바일 디바이스를 나타내는 개략적인 블록도
도 2는 본 발명의 일 실시예에 따른 모바일 디바이스에서 터치스크린에 표시되는 오브젝트의 변형 동작에 대한 흐름도
도 3은 본 발명의 일 실시예에 따른 모바일 디바이스에서 터치스크린에 표시되는 오브젝트의 변형 형태가 구겨짐 형태로 변형되는 경우를 나타낸 도면
도 4는 본 발명의 일 실시 예에 따른 오브젝트의 변형 형태가 구겨짐 형태인 경우 구겨지는 형태의 다양한 모양을 나타낸 도면
도 5는 본 발명의 일 실시 예에 따른 오브젝트의 변형 형태가 찢어짐 형태인 경우를 나타낸 도면
도 6은 본 발명의 일 실시 예에 따른 모바일 디바이스에서 터치스크린에 표시되는 오브젝트의 이동 동작에 대한 흐름도
도 7은 본 발명의 일 실시 예에 따른 모바일 디바이스의 방향 및 기울기를 설명하기 위한 도면
도 8은 본 발명의 일 실시 예에 따른 모바일 디바이스의 방향 및 기울기에 따른 오브젝트의 이동 방향과 크기 및 투명도 변화를 설명하기 위한 도면
도 9는 본 발명의 일 실시 예에 따른 오브젝트의 변형 및 이동 방법이 노트 기능에 적용된 경우 오브젝트의 변형 및 이동 동작에 대한 흐름도
도 10은 본 발명의 일 실시 예에 따라 노트에서 오브젝트가 구겨지는 동작에 대한 화면들을 나타낸 도면
도 11 및 도 12는 본 발명의 일 실시 예에 따라 구겨진 오브젝트가 이동되는 동작을 나타낸 도면
이하, 첨부된 도면들에 기재된 내용들을 참조하여 본 발명에 따른 예시적 실시예를 상세하게 설명한다. 다만, 본 발명이 예시적 실시예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일한 참조부호는 실질적으로 동일한 기능을 수행하는 부재를 나타낸다.
도 1은 본 발명의 일 실시예에 따른 모바일 디바이스를 나타내는 개략적인 블록도이다. 도 1을 참조하면, 모바일 디바이스(이하 '장치'라 칭함)(100)는 이동통신 모듈(120), 서브통신 모듈(130) 및 커넥터(165)를 이용하여 외부장치(도시되지 아니함)와 연결될 수 있다. "외부 장치"는 다른 장치(도시되지 아니함), 휴대폰(도시되지 아니함), 스마트폰(도시되지 아니함), 태블릿PC(도시되지 아니함) 및 서버(도시되지 아니함)를 포함한다.
도 1을 참조하면, 장치(100)는 터치스크린(190) 및 터치스크린 컨트롤러(195)를 포함한다. 또한, 장치(100)는 제어부(110), 이동통신 모듈(120), 서브통신 모듈(130), 멀티미디어 모듈(140), 카메라 모듈(150), GPS모듈(155), 입/출력 모듈(160), 센서 모듈(170), 전원공급부(180) 및 저장부(185)를 포함한다. 서브통신 모듈(130)은 무선랜 모듈(131) 및 근거리통신 모듈(132) 중 적어도 하나를 포함하고, 멀티미디어 모듈(140)은 방송통신 모듈(141), 오디오재생 모듈(142) 및 동영상재생 모듈(143) 중 적어도 하나를 포함한다. 카메라 모듈(150)은 제1 카메라(151) 및 제2 카메라(152) 중 적어도 하나를 포함하고, 입/출력 모듈(160)은 버튼(161), 마이크(162), 스피커(163), 진동모터(164), 커넥터(165), 및 키패드(166) 중 적어도 하나를 포함한다.
제어부(110)는 CPU(111), 장치(100)의 제어를 위한 제어프로그램이 저장된 롬(ROM, 112) 및 장치(100)의 외부로부터 입력되는 신호 또는 데이터를 기억하거나, 장치(100)에서 수행되는 작업을 위한 기억영역으로 사용되는 램(RAM, 113)을 포함할 수 있다. CPU(111)는 싱글 코어, 듀얼 코어, 트리플 코어, 또는 쿼드 코어를 포함할 수 있다. CPU(111), 롬(112) 및 램(113)은 내부버스(bus)를 통해 상호 연결될 수 있다.
제어부(110)는 이동통신 모듈(120), 서브통신 모듈(130), 멀티미디어 모듈(140), 카메라 모듈(150), GPS 모듈(155), 입/출력 모듈(160), 센서 모듈(170), 전원공급부(180), 저장부(185), 터치스크린(190) 및 터치스크린 컨트롤러(195)를 제어할 수 있다.
이러한 제어부(110)는 터치스크린(190)에 오브젝트가 표시되도록 제어하고, 오브젝트가 표시된 상태에서 오브젝트 변형에 대응된 입력이 있으면 구겨짐 또는 찢김 등과 같은 오브젝트 변형 형태를 판단하고, 오브젝트 변형 형태에 따라 오브젝트 형태를 변형하여 표시되도록 제어한다. 이때 오브젝트는 구겨지거나 찢어질 수 있는 종이의 물성을 가지는 것이 바람직하며, 제어부(110)는 오브젝트를 구겨짐 또는 찢김 외에도 접히거나 바람에 날리는 형태로 변형하여 표시되도록 제어할 수도 있다. 또한 제어부(110)는 오브젝트가 표시된 상태에서 가속도 센서(172)를 이용하여 장치(100)의 방향 및 기울기를 계산하고, 장치(100)의 방향 및 기울기에 따라 오브젝트의 이동 방향과 크기 및 투명도를 판단하여 오브젝트를 이동시키면서 오브젝트의 크기 및 투명도를 변화시켜 표시되도록 제어한다. 또한 제어부(110)는 오브젝트가 표시된 상태에서 터치(싱글 또는 멀티) 입력, 터치 제스쳐 입력, 에어 제스쳐 입력, 버튼 입력, 음성 입력, 바람 입력에 따라 장치(100)의 방향 및 기울기를 계산하고, 장치(100)의 방향 및 기울기에 따라 오브젝트의 이동 방향과 크기 및 투명도를 판단하여 오브젝트를 이동시키면서 오브젝트의 크기 및 투명도를 변화시켜 표시되도록 제어한다. 이때 제어부(110)는 오브젝트의 이동거리가 미리 정해진 범위를 초과하면 오브젝트가 화면상에서 사라지도록 제어하고, 오브젝트를 삭제한다.
이동통신 모듈(120)은 제어부(110)의 제어에 따라 적어도 하나-하나 또는 복수-의 안테나(도시되지 아니함)를 이용하여 이동 통신을 통해 장치(100)가 외부 장치와 연결되도록 한다. 이동통신 모듈(120)은 장치(100)에 입력되는 전화번호를 가지는 휴대폰(도시되지 아니함), 스마트폰(도시되지 아니함), 태블릿PC 또는 다른 장치(도시되지 아니함)와 음성 통화, 화상 통화, 문자메시지(SMS) 또는 멀티미디어 메시지(MMS)를 위한 무선 신호를 송/수신한다.
서브통신 모듈(130)은 무선랜 모듈(131)과 근거리통신 모듈(132) 중 적어도 하나를 포함할 수 있다. 예를 들어, 무선랜 모듈(131)만 포함하거나, 근거리통신 모듈(132)만 포함하거나 또는 무선랜 모듈(131)과 근거리통신 모듈(132)을 모두 포함할 수 있다.
무선랜 모듈(131)은 제어부(110)의 제어에 따라 무선 AP(access point)(도시되지 아니함)가 설치된 장소에서 인터넷에 연결될 수 있다. 무선랜 모듈(131)은 미국전기전자학회(IEEE)의 무선랜 규격(IEEE802.11x)을 지원한다. 근거리통신 모듈(132)은 제어부(110)의 제어에 따라 장치(100)와 화상형성장치(도시되지 아니함) 사이에 무선으로 근거리 통신을 할 수 있다. 근거리 통신방식은 블루투스(bluetooth), 적외선 통신(IrDA, infrared data association) 등이 포함될 수 있다.
장치(100)는 성능에 따라 이동통신 모듈(120), 무선랜 모듈(131), 및 근거리통신 모듈(132) 중 적어도 하나를 포함할 수 있다. 예를 들어, 장치(100)는 성능에 따라 이동통신 모듈(120), 무선랜 모듈(131), 및 근거리통신 모듈(132)들의 조합을 포함할 수 있다.
멀티미디어 모듈(140)은 방송통신 모듈(141), 오디오재생 모듈(142) 또는 동영상재생 모듈(143)을 포함할 수 있다. 방송통신 모듈(141)은 제어부(110)의 제어에 따라 방송통신 안테나(도시되지 아니함)를 통해 방송국에서부터 송출되는 방송 신호(예, TV방송 신호, 라디오방송 신호 또는 데이터방송 신호) 및 방송부가 정보(예, EPS(Electric Program Guide) 또는 ESG(Electric Service Guide))를 수신할 수 있다. 오디오재생 모듈(142)는 제어부(110)의 제어에 따라 저장되거나 또는 수신되는 디지털 오디오 파일(예, 파일 확장자가 mp3, wma, ogg 또는 wav인 파일)을 재생할 수 있다. 동영상재생 모듈(143)은 제어부(110)의 제어에 따라 저장되거나 또는 수신되는 디지털 동영상 파일(예, 파일 확장자가 mpeg, mpg, mp4, avi, mov, 또는 mkv인 파일)을 재생할 수 있다. 동영상재생 모듈(143)은 디지털 오디오 파일을 재생할 수 있다.
멀티미디어 모듈(140)은 방송통신 모듈(141)을 제외하고 오디오재생 모듈(142)과 동영상재생 모듈(143)을 포함할 수 있다. 또한, 멀티미디어 모듈(140)의 오디오재생 모듈(142) 또는 동영상재생 모듈(143)은 제어부(100)에 포함될 수 있다.
카메라 모듈(150)은 제어부(110)의 제어에 따라 정지이미지 또는 동영상을 촬영하는 제1 카메라(151) 및 제2 카메라(152) 중 적어도 하나를 포함할 수 있다. 또한, 제1 카메라(151) 또는 제2 카메라(152)는 촬영에 필요한 광량을 제공하는 보조 광원(예, 플래시(도시되지 아니함))를 포함할 수 있다. 제1 카메라(151)는 상기 장치(100) 전면에 배치되고, 제2 카메라(152)는 상기 장치(100)의 후면에 배치될 수 있다.
GPS 모듈(155)은 지구 궤도상에 있는 복수의 GPS위성(도시되지 아니함)에서부터 전파를 수신하고, GPS위성(도시되지 아니함)에서부터 장치(100)까지 전파도달시간(Time of Arrival)을 이용하여 장치(100)의 위치를 산출할 수 있다.
입/출력 모듈(160)은 복수의 버튼(161), 마이크(162), 스피커(163), 진동모터(164), 커넥터(165), 및 키패드(166) 중 적어도 하나를 포함할 수 있다.
버튼(161)은 상기 장치(100)의 하우징의 전면, 측면 또는 후면에 형성될 수 있으며, 전원/잠금 버튼(도시되지 아니함), 볼륨버튼(도시되지 아니함), 메뉴 버튼, 홈 버튼, 돌아가기 버튼(back button) 및 검색 버튼(161) 중 적어도 하나를 포함할 수 있다.
마이크(162)는 제어부(110)의 제어에 따라 음성(voice) 또는 사운드(sound)를 입력 받아 전기적인 신호를 생성한다.
스피커(163)는 제어부(110)의 제어에 따라 이동통신 모듈(120), 서브통신 모듈(130), 멀티미디어 모듈(140) 또는 카메라 모듈(150)의 다양한 신호(예, 무선신호, 방송신호, 디지털 오디오 파일, 디지털 동영상 파일 또는 사진 촬영 등)에 대응되는 사운드를 장치(100) 외부로 출력할 수 있다. 스피커(163)는 장치(100)가 수행하는 기능에 대응되는 사운드(예, 전화 통화에 대응되는 버튼 조작음, 또는 통화 연결음)를 출력할 수 있다. 스피커(163)는 상기 장치(100)의 하우징의 적절한 위치 또는 위치들에 하나 또는 복수로 형성될 수 있다.
진동모터(164)는 제어부(110)의 제어에 따라 전기적 신호를 기계적 진동으로 변환할 수 있다. 예를 들어, 진동 모드에 있는 장치(100)는 다른 장치(도시되지 아니함)로부터 음성통화가 수신되는 경우, 진동모터(164)가 동작한다. 상기 장치(100)의 하우징 내에 하나 또는 복수로 형성될 수 있다. 진동모터(164)는 터치스크린(190) 상을 터치하는 사용자의 터치 동작 및 터치스크린(190) 상에서의 터치의 연속적인 움직임에 응답하여 동작할 수 있다.
커넥터(165)는 장치(100)와 외부장치(도시되지 아니함) 또는 전원소스(도시되지 아니함)를 연결하기 위한 인터페이스로 이용될 수 있다. 제어부(110)의 제어에 따라 커넥터(165)에 연결된 유선 케이블을 통해 장치(100)의 저장부(175)에 저장된 데이터를 외부 장치(도시되지 아니함)로 전송하거나 또는 외부 장치(도시되지 아니함)에서부터 데이터를 수신할 수 있다. 커넥터(165)에 연결된 유선 케이블을 통해 전원소스(도시되지 아니함)에서부터 전원이 입력되거나 배터리(도시되지 아니함)를 충전할 수 있다.
키패드(166)는 장치(100)의 제어를 위해 사용자로부터 키 입력을 수신할 수 있다. 키패드(166)는 장치(100)에 형성되는 물리적인 키패드(도시되지 아니함) 또는 터치스크린(190)에 표시되는 가상의 키패드(도시되지 아니함)를 포함한다. 장치(100)에 형성되는 물리적인 키패드(도시되지 아니함)는 장치(100)의 성능 또는 구조에 따라 제외될 수 있다.
센서 모듈(170)은 장치(100)의 상태를 검출하는 적어도 하나의 센서를 포함한다. 예를 들어, 센서모듈(170)은 사용자의 장치(100)에 대한 접근여부를 검출하는 근접센서(174), 장치(100) 주변의 빛의 양을 검출하는 조도센서(도시되지 아니함), 또는 장치(100)의 동작(예, 장치(100)의 회전, 장치(100)에 가해지는 가속도 또는 진동)을 검출하는 가속도센서(172)를 포함할 수 있다. 적어도 하나의 센서는 장치(100)의 방향 및 기울기를 포함하는 상태를 검출하고, 검출에 대응되는 신호를 생성하여 제어부(110)로 전송할 수 있다. 센서모듈(170)의 센서는 장치(100)의 성능에 따라 추가되거나 삭제될 수 있다.
전원공급부(180)는 제어부(110)의 제어에 따라 장치(100)의 하우징에 배치되는 하나 또는 복수의 배터리(도시되지 아니함)에 전원을 공급할 수 있다. 하나 또는 복수의 배터리(도시되지 아니함)는 장치(100)에 전원을 공급한다. 또한, 전원공급부(180)는 커넥터(165)와 연결된 유선 케이블을 통해 외부의 전원소스(도시되지 아니함)에서부터 입력되는 전원을 장치(100)로 공급할 수 있다.
저장부(185)는 제어부(110)의 제어에 따라 이동통신 모듈(120), 서브통신 모듈(130), 멀티미디어 모듈(140), 카메라 모듈(150), GPS모듈(155), 입/출력 모듈(160), 센서 모듈(170), 터치스크린(190)의 동작에 대응되게 입/출력되는 신호 또는 데이터를 저장할 수 있다. 저장부(185)는 장치(100) 또는 제어부(110)의 제어를 위한 제어 프로그램 및 어플리케이션들을 저장할 수 있다.
"저장부"라는 용어는 저장부(185), 제어부(110)내 롬(112), 램(113) 또는 장치(100)에 장착되는 메모리 카드(도시되지 아니함)(예, SD 카드, 메모리 스틱)를 포함한다. 저장부는 비휘발성메모리, 휘발성메모리, 하드 디스크 드라이브(HDD) 또는 솔리드 스테이트 드라이브(SSD)를 포함할 수 있다.
터치스크린(190)은 사용자에게 다양한 서비스(예, 통화, 데이터 전송, 방송, 사진촬영)에 대응되는 유저 인터페이스를 제공할 수 있다. 터치스크린(190)은 유저 인터페이스에 입력되는 적어도 하나의 터치에 대응되는 아날로그 신호를 터치스크린 컨트롤러(195)로 전송할 수 있다. 터치스크린(190)은 사용자의 신체(예, 엄지를 포함하는 손가락) 또는 터치가능한 입력 수단(예, 스타일러스 펜)을 통해 적어도 하나의 터치를 입력받을 수 있다. 또한, 터치스크린(190)은 적어도 하나의 터치 중에서, 하나의 터치의 연속적인 움직임을 입력받을 수 있다. 터치스크린(190)은 입력되는 터치의 연속적인 움직임에 대응되는 아날로그 신호를 터치스크린 컨트롤러(195)로 전송할 수 있다.
본 발명에서 터치는 터치스크린(190)과 사용자의 신체 또는 터치 가능한 입력 수단과의 접촉에 한정되지 않고, 비접촉(예, 터치스크린(190)과 사용자의 신체 또는 터치 가능한 입력 수단과 검출가능한 간격이 1 mm 이하)을 포함할 수 있다. 터치스크린(190)에서 검출 가능한 간격은 장치(100)의 성능 또는 구조에 따라 변경될 수 있다.
터치스크린(190)은 예를 들어, 저항막(resistive) 방식, 정전용량(capacitive) 방식, 적외선(infrared) 방식 또는 초음파(acoustic wave) 방식으로 구현될 수 있다.
터치스크린 컨트롤러(195)는 터치스크린(190)에서부터 수신된 아날로그 신호를 디지털 신호로 변환하여 제어부(110)로 전송한다. 제어부(110)는 터치스크린 컨트롤러(195)로부터 수신된 디지털 신호를 이용하여 터치스크린(190)을 제어할 수 있다. 예를 들어, 제어부(110)는 터치에 응답하여 터치스크린(190)에 표시된 단축 아이콘(도시되지 아니함)이 선택되게 하거나 또는 단축 아이콘(도시되지 아니함)을 실행할 수 있다. 또한, 터치스크린 컨트롤러(195)는 제어부(110)에 포함될 수도 있다.
본 발명의 실시 예에 따르면 상기한 바와 같이 구성된 장치(100) 즉, 모바일 디바이스(100)는 터치 스크린에 표시되는 오브젝트를 사용자의 입력에 따라 사용자가 실제 현실 생활에서 변형시키는 것처럼 미리 정해진 형태로 변형한다.
도 2는 본 발명의 일 실시 예에 따른 모바일 디바이스(100)에서 터치스크린(190)에 표시되는 오브젝트의 변형 동작에 대한 흐름도이다.
도 2를 참조하면, 모바일 디바이스(100)는 터치 스크린 컨트롤러(195)를 제어하여 터치스크린(190)에 오브젝트를 표시한다(S202). 이때 오브젝트는 웹 페이지, 사진, 이미지 등 터치스크린(190)에 표시되는 각종 객체들이 될 수 있다.
모바일 디바이스(100)는 오브젝트가 표시된 상태에서 오브젝트 변형에 대응된 입력이 수신되는지 판단한다(S204). 예컨대 오브젝트 변형에 대응된 입력은 미리 정해진 터치 입력, 미리 정해진 터치 제스쳐 입력, 미리 정해진 에어 제스쳐 입력, 미리 정해진 버튼 입력, 미리 정해진 음성 입력, 미리 정해진 바람 입력 중 어느 하나일 수 있다.
오브젝트 변형에 대응된 입력이 미리 정해진 터치 입력인 경우 모바일 디바이스(100)는 사용자에 의해 터치스크린(190)에 미리 정해진 터치 입력이 수행되면 오브젝트 변형에 대응된 입력이 있는 것으로 판단할 수 있다. 오브젝트 변형에 대응된 입력이 미리 정해진 터치 제스처 입력인 경우 모바일 디바이스(100)는 사용자에 의해 터치스크린(190)에 미리 정해진 터치 제스쳐 입력이 수행되면 오브젝트 변형에 대응된 입력이 있는 것으로 판단할 수 있다. 이때 터치 제스쳐란 터치스크린(190)에 터치된 상태에서 제스쳐 동작이 수행되는 것을 말한다. 오브젝트 변형에 대응된 입력이 미리 정해진 에어 제스쳐 입력인 경우 모바일 디바이스(100)는 사용자에 의해 터치스크린(190)과 인접한 거리에서 미리 정해진 에어 제스쳐 입력이 수행되면 오브젝트 변형에 대응된 입력이 있는 것으로 판단할 수 있다. 에어 제스쳐란 터치스크린(190)과 일정거리 떨어진 거리에서 제스쳐 동작이 수행되는 것을 말한다. 오브젝트 변형에 대응된 입력이 미리 정해진 버튼 입력인 경우 모바일 디바이스(100)는 사용자에 의해 미리 정해진 버튼이 눌려지면 오브젝트 변형에 대응된 입력이 있는 것으로 판단할 수 있다. 오브젝트 변형에 대응된 입력이 미리 정해진 음성 입력인 경우 모바일 디바이스(100)는 마이크(162)를 통해 미리 정해진 음성 명령이 입력되면 오브젝트 변형에 대응된 입력이 있는 것으로 판단할 수 있다. 오브젝트 변형에 대응된 입력이 미리 정해진 음성 입력인 경우 미리 정해진 바람 입력인 경우 모바일 디바이스(100)는 마이크(162)를 통해 미리 정해진 바람이 입력되면 오브젝트 변형에 대응된 입력이 있는 것으로 판단할 수 있다.
모바일 디바이스(100)는 오브젝트 변형에 대응된 입력이 있으면 오브젝트 변형 형태를 판단한다(S206). 이때 오브젝트는 구겨지거나 찢어질 수 있는 종이의 물성을 가질 수 있으며, 이때 오브젝트 변형 형태는 구겨짐 형태 및 찢어짐 형태 외에도 접히거나 바람에 날리는 형태를 포함한다.
예컨대 모바일 디바이스(100)는 오브젝트 변형에 대응된 입력이 어느 변형 형태에 대응된 입력인지, 예컨대 구겨짐에 대응된 입력인지 찢어짐에 대응된 입력인지 또는 접힘에 대응된 입력인지 바람에 날리는 형태에 대응된 입력인지 판단하여 오브젝트 변형 형태를 판단할 수 있다.
오브젝트 변형 형태가 판단되면, 모바일 디바이스(100)는 오브젝트 변형 형태에 따라 오브젝트 형태를 변형한다(S208). 예컨대 모바일 디바이스(100)는 오브젝트 변형 형태가 구겨짐 형태인 경우 오브젝트를 미리 정해진 구겨짐 방식에 따라 구겨짐 형태로 변형하여 표시하고, 오브젝트 변형 형태가 찢어짐 형태인 경우 오브젝트를 미리 정해진 찢어짐 방식에 따라 찢어짐 형태로 변형하여 표시한다. 또한 오브젝트 변형 형태가 접히는 형태인 경우 오브젝트를 미리 정해진 접힘 방식에 따라 변형하여 표시하고, 오브젝트 변형 형태가 바람에 날리는 형태인 경우 미리 정해진 날림 방식에 따라 날리는 형태로 변형하여 표시한다.
오브젝트 변형 형태가 구겨짐 형태인 경우에 대해 좀더 설명하면, 도 3은 본 발명의 일 실시예에 따른 모바일 디바이스(100)에서 터치스크린(190)에 표시되는 오브젝트의 변형 형태가 구겨짐 형태로 변형되는 경우를 나타낸 도면이다. 도 3을 참조하면, 제어부(110)는 도 3의 (a)와 같은 오브젝트(300)를 도 3의 (b), (c), (d)와 같은 다양한 구겨짐 방식으로 변형할 수 있다. 도 3의 (b)는 오브젝트(300)가 중간 크기의 구겨짐 형태(310)로 변형되는 방식을 도시하고 있다. 도 3의 (c)는 오브젝트(300)가 작은 크기의 구겨짐 형태(320)로 변형되는 방식을 도시하고 있다. 도 3의 (d)는 오브젝트(300)가 약간 구겨지는 구겨짐 형태(330)로 변형되는 방식을 도시하고 있다. 이와 같이 상세한 설명에 기재된 형태 이외에도 본 발명의 실시 예에 따르면 오브젝트(300)는 다양한 크기와 다양한 구겨짐 정도로 구겨질 수 있다. 한편, 오브젝트(300)는 같은 크기더라도 다른 모양으로 구겨질 수도 있다. 도 4는 본 발명의 일 실시 예에 따른 오브젝트의 변형 형태가 구겨짐 형태인 경우 구겨지는 형태의 다양한 모양을 나타낸 도면이다. 도 4를 참조하면, 도 3의 (a)와 같은 오브젝트(300)는 같은 크기더라도 도 4의 (a) 내지 도 4의 (f)와 같이 다양한 모양으로 구겨질 수도 있다.
한편, 오브 젝트 변형 형태가 찢어짐 형태인 경우에 대해 좀더 설명하면, 도 5는 본 발명의 일 실시 예에 따른 오브젝트의 변형 형태가 찢어짐 형태인 경우를 나타낸 도면이다. 도 5를 참조하면, 도 5의 (a)와 같은 오브젝트(500)를 도 5의 (b), (c)와 같은 다양한 찢어짐 방식으로 변형할 수 있다. 도 5의 (b)는 오브젝트(500)가 수평방향으로 찢어지는 찢어짐 형태(510)로 변형되는 방식을 도시하고 있다. 도 5의 (c)는 오브젝트(500)가 앞쪽으로 찢어지는 찢어짐 형태(520)로 변형되는 방식을 도시하고 있다. 이와 같이 상세한 설명에 기재된 형태 이외에도 본 발명의 실시 예에 따르면 오브젝트(500)는 다양한 방향으로 찢어지는 방식이 이용될 수 있다.
한편, 본 발명의 실시 예에 따른 모바일 디바이스(100)는 터치스크린(190)에 표시되는 오브젝트 또는 변형된 오브젝트를 모바일 디바이스(100)의 방향 및 기울기에 따라 실제 현실 생활에서 이동되는 것처럼 터치스크린(190) 상에서 이동시킨다.
도 6은 본 발명의 일 실시 예에 따른 모바일 다비이스(100)에서 터치스크린에 표시되는 오브젝트의 이동 동작에 대한 흐름도이다. 도 6을 참조하면, 모바일 디바이스(100)는 터치스크린(190)에 오브젝트가 표시된 상태에서(S602) 가속도 센서(172)를 이용하여 모바일 디바이스(100)의 방향 및 기울기를 계산한다(S604).
도 7은 본 발명의 일 실시 예에 따른 모바일 디바이스(100)의 방향 및 기울기를 설명하기 위한 도면이다. 도 7의 (a)는 터치스크린(190)의 화면이 정면으로 보이는 상태를 도시하고 있으며, 본 발명의 실시 예에서는 도 7의 (a)와 같은 상태를 기본 상태로 정의한다. 기본 상태에서 모바일 디바이스(100)의 방향은 정면 방향이고, 기울기 값은 0이다. 도 7의 (b)는 터치스크린(190)의 화면이 우측방향으로 일정각도 기울어진 상태를 도시하고 있다. 도 7의 (c)는 터치스크린(190)의 화면이 좌측방향으로 일정각도 기울어진 상태를 도시하고 있다. 도 7의 (d)는 터치스크린(190)의 화면이 정면방향으로 일정각도 기울어진 상태를 도시하고 있다. 제어부(110)는 가속도 센서(172)를 이용하여 모바일 디바이스(100)가 전면, 후면, 좌측, 우측 방향 중 어느 방향으로 얼마의 각도만큼 기울어졌는지 계산한다.모바일 디바이스(100)는 모바일 디바이스(100)의 방향 및 기울기에 따라 터치스크린(190) 화면에서 오브젝트가 이동할 이동 방향과 크기 및 투명도 변화를 판단한다(S606).
도 8은 본 발명의 일 실시 예에 따른 모바일 디바이스(100)의 방향 및 기울기에 따른 오브젝트의 이동 방향과 크기 및 투명도 변화를 설명하기 위한 도면이다. 도 8을 참조하면, 도 8의 (a)와 같이 모바일 디바이스(100)의 방향 및 기울기가 기본 상태인 경우에는 오브젝트가 이동할 이동 방향과 크기 및 투명도 변화가 없는 0이다.
도 8의 (b)와 같이 모바일 디바이스(100)의 방향 및 기울기가 우측 방향으로 일정각도 기울어진 경우 모바일 디바이스(100)는 오브젝트가 이동할 이동 방향을 우측 방향으로 일정각도 기울어진 방향으로 판단하고, 오브젝트가 우측 방향으로 일정각도 기울어진 방향으로 이동하면, 실제 환경에서와 같이 오브젝트의 크기가 이동하는 거리에 반비례하여 점점 작아지는 것처럼 보여지는 효과를 주기 위해 오브젝트의 크기를 이동 거리에 반비례하여 점점 작아지는 값으로 판단한다. 또한 오브젝트의 투명도는 오브젝트가 우측 방향으로 일정각도 기울어진 방향으로 이동하면, 실제 환경에서와 같이 오브젝트가 점점 이동하는 거리에 반비례하여 흐릿하게 보여지도록 하는 효과를 주기 위해 모바일 디바이스(100)는 오브젝트의 투명도를 이동거리에 반비례하여 점점 투명해지는 값으로 판단한다.
도 8의 (c)와 같이 모바일 디바이스(100)의 방향 및 기울기가 좌측 방향으로 일정각도 기울어진 경우 모바일 디바이스(100)는 오브젝트가 이동할 이동 방향을 좌측 방향으로 일정각도 기울어진 방향으로 판단하고, 오브젝트가 좌측 방향으로 일정각도 기울어진 방향으로 이동하면, 실제 환경에서와 같이 오브젝트의 크기가 이동하는 거리에 반비례하여 점점 작아지는 것처럼 보여지는 효과를 주기 위해 오브젝트의 크기를 이동 거리에 반비례하여 점점 작아지는 값으로 판단한다. 또한 오브젝트의 투명도는 오브젝트가 좌측 방향으로 일정각도 기울어진 방향으로 이동하면, 오브젝트는 점점 이동하는 거리에 반비례하여 흐릿하게 보여지므로 이에 따라 모바일 디바이스(100)는 오브젝트의 투명도를 이동거리에 반비례하여 점점 투명해지는 값으로 판단한다.
도 8의 (d)와 같이 모바일 디바이스(100)의 방향 및 기울기가 사용자쪽 즉 앞쪽인 전면방향으로 일정각도 기울어진 경우 모바일 디바이스(100)는 오브젝트가 이동할 이동 방향을 전면 방향으로 일정각도 기울어진 방향으로 판단하고, 오브젝트가 전면 방향으로 이동하면, 오브젝트의 크기는 점점 이동하는 거리에 비례하여 커지는 것처럼 보여지므로 이에 따라 모바일 디바이스(100)는 오브젝트의 크기를 이동 거리에 비례하여 점점 커지는 값으로 판단한다. 또한 오브젝트의 투명도는 오브젝트가 전면 방향으로 일정각도 기울어진 방향으로 이동하면, 실제 환경에서 오브젝트는 점점 이동하는 거리에 비례하여 또렷하게 보여지므로 실제 환경에서 오브젝트가 이동하는 것처럼 보이기 위해 모바일 디바이스(100)는 오브젝트의 투명도를 이동거리에 비례하여 점점 투명도가 낮아지는 값으로 판단한다.
상기한 바와 같이 모바일 디바이스(100)의 방향 및 기울기에 따라 터치스크린(190) 화면에서 오브젝트가 이동할 이동 방향과 크기 및 투명도 변화를 판단되면, 모바일 디바이스(100)는 오브젝트를 해당 이동 방향으로 이동시키면서 오브젝트의 크기 및 투명도를 변화시켜 표시한다(S608).
이때 모바일 디바이스(100)는 터치스크린(190)에 오브젝트가 표시된 상태에서(S602) 가속도 센서(172)외에 자이로 센서(미도시) 또는 터치 제스쳐 입력, 터치 입력, 에어 제스쳐 입력, 버튼 입력, 음성 입력, 바람 입력 중 적어도 하나를 이용하여 모바일 디바이스(100)의 이동 방향 및 기울기를 계산하고, 오브젝트를 해당 이동방향 및 기울기에 따라 이동시키면서 오브젝트의 크기 및 투명도를 변화시켜 표시할 수 있다.
오브젝트를 해당 이동방향 및 기울기에 따라 이동시키면서 모바일 디바이스(100)는 오브젝트의 이동 거리가 미리 정해진 범위를 초과하는지 판단한다(S610). 즉, 모바일 디바이스(100)는 화면 상의 오브젝트의 이동 거리가 화면에 표시될 수 있는 이동 거리를 초과하는지 판단한다.
모바일 디바이스(100)는 오브젝트의 이동 거리가 미리 정해진 범위를 초과하면 해당 오브젝트를 삭제한다(S612). 이때 오브젝트의 투명도를 최대로 하여 화면상에서 오브젝트가 사라지는 것처럼 보여지게 할 수도 있다.
한편, 전술한 바와 같은 모바일 디바이스(100)에서 오브젝트의 변형 및 이동 방법은 다양한 실시예에 적용될 수 있다. 이하 본 발명의 설명에서는 상기 오브젝트의 변형 및 이동 방법이 모바일 디바이스(100)의 노트 기능에 적용된 경우를 예를 들어 설명한다.
도 9는 본 발명의 일 실시 예에 따른 오브젝트의 변형 및 이동 방법이 노트 기능에 적용된 경우 오브젝트의 변형 및 이동 동작에 대한 흐름도이다. 노트 기능은 모바일 디바이스(100)에 실제 펜으로 노트에 메모하는 것과 같이 전자펜(미도시) 또는 터치로 터치 스크린에 메모를 입력하면 메모가 입력 및 저장되는 기능이다. 노트 기능은 복수의 페이지로 구성될 수 있다. 본 발명에서는 노트의 한 페이지가 하나의 오브젝트가 될 수 있고, 노트의 한 페이지뿐만 아니라 한 페이지 내에 특정 영역이 오브젝트가 될 수도 있다. 본 발명에서는 노트의 한 페이지를 오브젝트로 하는 경우에 대해 설명한다.
도 9를 참조하면, 모바일 디바이스(100)는 노트 화면에 사용자에 의한 펜입력 또는 터치 입력에 따라 오브젝트를 표시한다(S902). 모바일 디바이스(100)는 오브젝트가 표시된 상태에서 사용자에 의해 입력되어 생성된 오브젝트의 삭제 요청이 있는지 판단한다(S902). 모바일 디바이스(100)는 오브젝트 삭제 요청이 있으면 오브젝트의 형태를 구겨진 형태로 변형한다(S904).
도 10은 본 발명의 일 실시 예에 따라 노트에서 오브젝트가 구겨지는 동작에 대한 화면들을 나타낸 도면이다. 도 10을 참조하면, 사용자는 전자펜 도 10의 (a)와 같이 노트의 한 페이지에 "6"과 같이 원하는 메모를 입력할 수 있다. 사용자는 "6"이 입력된 페이지에 해당하는 오브젝트를 삭제하고자 하는 경우 도 10의 (b)와 같이 메뉴에서 "delete" 메뉴를 선택하여 오브젝트 삭제 요청을 할 수 있다. 오브젝트 삭제 요청이 있으면 모바일 디바이스(100)는 도 10의 (c)와 같이 삭제 확인 메시지를 표시하고, 사용자에 의해 "OK"(14)가 선택되면 삭제 요청을 확인한다. 모바일 디바이스(100)는 오브젝트 삭제 요청이 확인되면 도 10의 (d)와 같이 삭제 대상 오브젝트(16)를 구겨짐 처리하여 도 10의 (e)와 같이 구겨진 형태의 오브젝트(18)로 변형한다.
다시 도 9를 참조하면, 모바일 디바이스(100)는 변형된 오브젝트 즉 구겨진 형태의 오브젝트(18)가 표시된 상태에서 가속도 센서(172)를 이용하여 모바일 디바이스(100)의 방향 및 기울기를 계산한다(S906). 예컨대 모바일 디바이스(100)는 가속도 센서(172)를 이용하여 모바일 디바이스(100)가 전면, 후면, 좌측, 우측 방향 중 어느 방향으로 얼마의 각도만큼 기울어졌는지 계산한다.
모바일 디바이스(100)는 모바일 디바이스(100)의 방향 및 기울기에 따라 터치스크린(190) 화면에서 구겨진 형태의 오브젝트(18)가 이동할 이동 방향과 크기 및 투명도 변화를 판단한다(S908). 예컨대 모바일 디바이스(100)는 모바일 디바이스(100)가 전면, 후면, 좌측, 우측 방향 중 어느 방향으로 얼마의 각도만큼 기울어졌는지에 따라 구겨진 형태의 오브젝트(18)가 이동할 이동 방향과 구겨진 형태의 오브젝트(18)가 이동하면서 변화될 구겨진 형태의 오브젝트(18)의 크기 및 투명도 변화를 판단한다. 예컨대 모바일 디바이스(100)의 방향 및 기울기가 기본 상태인 경우에는 구겨진 형태의 오브젝트(18)가 이동할 이동 방향과 크기 및 투명도 변화가 없는 0으로 판단하고, 모바일 디바이스(100)의 방향 및 기울기가 우측 방향으로 일정각도 기울어진 경우 모바일 디바이스(100)는 구겨진 형태의 오브젝트(18)가 이동할 이동 방향을 우측 방향으로 일정각도 기울어진 방향으로 판단하고, 구겨진 형태의 오브젝트(18)가 우측 방향으로 일정각도 기울어진 방향으로 이동하면, 실제 환경에서와 같이 구겨진 형태의 오브젝트(18)의 크기가 이동하는 거리에 반비례하여 점점 작아지는 것처럼 보여지는 효과를 주기 위해 구겨진 형태의 오브젝트(18)의 크기를 이동 거리에 반비례하여 점점 작아지는 값으로 판단한다. 또한 구겨진 형태의 오브젝트(18)의 투명도는 실제 환경에서와 같이 구겨진 형태의 오브젝트(18)가 점점 이동하는 거리에 반비례하여 흐릿하게 보여지도록 하는 효과를 주기 위해 모바일 디바이스(100)는 오브젝트의 투명도를 이동거리에 반비례하여 점점 투명해지는 값으로 판단한다.
또한 모바일 디바이스(100)의 방향 및 기울기가 좌측 방향으로 일정각도 기울어진 경우 모바일 디바이스(100)는 구겨진 형태의 오브젝트(18)가 이동할 이동 방향을 좌측 방향으로 일정각도 기울어진 방향으로 판단하고, 오브젝트가 좌측 방향으로 일정각도 기울어진 방향으로 이동하면, 실제 환경에서와 같이 구겨진 형태의 오브젝트(18)의 크기가 이동하는 거리에 반비례하여 점점 작아지는 것처럼 보여지는 효과를 주기 위해 구겨진 형태의 오브젝트(18)의 크기를 이동 거리에 반비례하여 점점 작아지는 값으로 판단한다. 또한 구겨진 형태의 오브젝트(18)의 투명도는 구겨진 형태의 오브젝트(18)가 좌측 방향으로 일정각도 기울어진 방향으로 이동하면, 구겨진 형태의 오브젝트(18)는 점점 이동하는 거리에 반비례하여 흐릿하게 보여지므로 이에 따라 모바일 디바이스(100)는 구겨진 형태의 오브젝트(18)의 투명도를 이동거리에 반비례하여 점점 투명해지는 값으로 판단한다.
또한 모바일 디바이스(100)의 방향 및 기울기가 사용자쪽 즉 앞쪽인 전면방향으로 일정각도 기울어진 경우 모바일 디바이스(100)는 구겨진 형태의 오브젝트(18)가 이동할 이동 방향을 전면 방향으로 일정각도 기울어진 방향으로 판단하고, 구겨진 형태의 오브젝트(18)가 전면 방향으로 이동하면, 사용자 입장에서 구겨진 형태의 오브젝트(18)의 크기는 점점 이동하는 거리에 비례하여 커지는 것처럼 보여지므로 이에 따라 모바일 디바이스(100)는 구겨진 형태의 오브젝트(18)의 크기를 이동 거리에 비례하여 점점 커지는 값으로 판단한다. 또한 오브젝트의 투명도는 구겨진 형태의 오브젝트(18)가 전면 방향으로 이동하면, 실제 환경에서 구겨진 형태의 오브젝트(18)는 점점 이동하는 거리에 비례하여 또렷하게 보여지므로 실제 환경에서 구겨진 형태의 오브젝트(18)가 앞으로 다가오는 것처럼 보이기 위해 모바일 디바이스(100)는 구겨진 형태의 오브젝트(18)의 투명도를 이동거리에 비례하여 점점 투명도가 낮아지는 값으로 판단한다.
상기한 바와 같이 모바일 디바이스(100)의 방향 및 기울기에 따라 터치스크린(190) 화면에서 구겨진 형태의 오브젝트(18)가 이동할 이동 방향과 크기 및 투명도 변화를 판단되면, 모바일 디바이스(100)는 구겨진 형태의 오브젝트(18)를 해당 이동 방향으로 이동시키면서 크기 및 투명도를 변화시켜 표시한다(S910). 그리고 모바일 디바이스(100)는 구겨진 형태의 오브젝트(18)의 이동 거리가 미리 정해진 범위를 초과하는지 판단한다(S912). 즉, 모바일 디바이스(100)는 화면 상의 구겨진 형태의 오브젝트(18)의 이동 거리가 화면에 표시될 수 있는 이동 거리를 초과하는지 판단한다. 모바일 디바이스(100)는 구겨진 형태의 오브젝트(18)의 이동 거리가 미리 정해진 범위를 초과하면 해당 오브젝트를 삭제처리한다(S914). 이때 오브젝트의 투명도를 최대로 하여 화면상에서 구겨진 형태의 오브젝트(18)가 사라지는 것처럼 보여지게 할 수도 있다.
도 11 및 도 12는 본 발명의 일 실시 예에 따라 구겨진 오브젝트(18)가 이동되는 동작을 나타낸 도면이다. 도 11을 참조하면, 도 11의 (a)와 같이 구겨진 형태의 오브젝트(18)는 모바일 디바이스(100)가 좌측 방향으로 기울어진다면, 도 11의 (b)와 같이 구겨진 형태의 오브젝트(18)는 크기가 작아지고 점점 투명해지면서 좌측하단 방향으로 이동되어 표시되며, 화면을 벗어나게 되는 경우 도 11의 (c)와 같이 삭제되어 화면에서 사라지게 된다.
한편, 본 발명의 다른 실시 예에 따르면 구겨진 오브젝트(18)는 모바일 디바이스(100)의 방향 및 기울기가 0이라면, 미리 정해진 방식으로 화면에서 사라지는 방식이 이용될 수도 있다. 도 12를 참조하면, 도 12의 (a)내지 (c)와 같이 구겨진 오브젝트(18)는 크기가 작아지고 점점 투명해지면서 삭제 아이콘 방향으로 이동되어 표시되며, 삭제 아이콘에 도달한 경우 삭제되어 화면에서 사라지게 될 수도 잇다.
상기한 바와 같은 본 발명에 따르면 사용자가 실제 현실 생활에서 노트를 구겨 버리거나, 노트를 찢어 버리는 것처럼 모바일 기기에서 터치 스크린에 표시되는 오브젝트를 변형 및 이동시켜 삭제함으로써, 모바일 디바이스의 노트를 사용할 때 실제 노트를 사용하는 것과 같은 효과를 얻을 수 있다.
본 발명의 예시적 실시예에 따른 방법들은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 분야에서 통상의 지식을 가진 자에게 공지되어 사용 가능한 것일 수도 있다.

Claims (14)

  1. 오브젝트를 디스플레이하는 터치 스크린; 및
    상기 오브젝트 변형에 대응된 입력이 수신되면 상기 오브젝트 변형에 대응된 입력에 따라 상기 오브젝트 변형 형태를 판단하고, 오브젝트 변형 형태에 따라 오브젝트 형태를 변형하여 변형된 오브젝트를 표시하도록 제어하는 제어부를 포함하는 모바일 디바이스.
  2. 제1항에 있어서,
    상기 오브젝트 변형에 대응된 입력은 미리 정해진 터치 입력, 미리 정해진 터치 제스쳐 입력, 미리 정해진 에어 제스쳐 입력, 미리 정해진 버튼 입력, 미리 정해진 음성 입력, 미리 정해진 바람 입력 중 어느 하나인 것을 특징으로 하는 모바일 디바이스.
  3. 제1항에 있어서,
    상기 오브젝트 변형 형태는 구겨짐 형태, 찢어짐 형태, 접히는 형태, 바람에 날리는 형태 중 적어도 하나를 포함하는 것을 특징으로 하는 모바일 디바이스.
  4. 제1항에 있어서,
    상기 모바일 디바이스의 회전 및 상기 모바일 디바이스에 가해지는 가속도를 검출하는 가속도 센서를 더 포함하고,
    상기 제어부는 상기 가속도 센서를 이용하여 상기 모바일 디바이스의 방향 및 기울기를 계산하여, 상기 계산된 모바일 디바이스의 방향 및 기울기에 따라 상기 오브젝트의 이동 방향과 이동 방향으로 이동에 따른 오브젝트의 크기 및 투명도 변화를 판단하고, 판단 결과에 따라 상기 오브젝트를 상기 오브젝트의 크기 및 투명도를 변화시키면서 상기 이동방향으로 이동시켜 표시하도록 제어하는 것을 특징으로 하는 모바일 디바이스.
  5. 제1항에 있어서,
    상기 모바일 디바이스의 각속도를 검출하는 자이로 센서를 더 포함하고,
    상기 제어부는 상기 자이로 센서를 이용하여 상기 모바일 디바이스의 방향 및 기울기를 계산하여, 상기 계산된 모바일 디바이스의 방향 및 기울기에 따라 상기 오브젝트의 이동 방향과 이동 방향으로 이동에 따른 오브젝트의 크기 및 투명도 변화를 판단하고, 판단 결과에 따라 상기 오브젝트를 상기 오브젝트의 크기 및 투명도를 변화시키면서 상기 이동방향으로 이동시켜 표시하도록 제어하는 것을 특징으로 하는 모바일 디바이스.
  6. 제1항에 있어서,
    상기 제어부는 미리 정해진 터치 입력, 미리 정해진 터치 제스쳐 입력, 미리 정해진 에어 제스쳐 입력, 미리 정해진 버튼 입력, 미리 정해진 음성 입력, 미리 정해진 바람 입력 중 어느 하나의 입력에 따라 상기 오브젝트의 이동 방향과 이동 방향으로 이동에 따른 오브젝트의 크기 및 투명도 변화를 판단하고, 판단 결과에 따라 상기 오브젝트를 상기 오브젝트의 크기 및 투명도를 변화시키면서 상기 이동방향으로 이동시켜 표시하도록 제어하는 것을 특징으로 하는 모바일 디바이스.
  7. 제4 내지 6항 중 어느 한 항에 있어서,
    상기 제어부는 상기 오브젝트의 이동 거리가 미리 정해진 범위를 초과하면 상기 오브젝트를 상기 터치스크린 상에서 삭제하는 것을 특징으로 하는 모바일 디바이스.
  8. 오브젝트를 디스플레이하는 하는 과정과,
    상기 오브젝트 변형에 대응된 입력이 수신되면 상기 오브젝트 변형에 대응된 입력에 따라 상기 오브젝트 변형 형태를 판단하는 과정과,
    상기 오브젝트 변형 형태에 따라 오브젝트 형태를 변형하여 변형된 오브젝트를 표시하는 과정을 포함하는 모바일 디바이스에서 사용자 인터페이스 방법.
  9. 제8항에 있어서,
    상기 오브젝트 변형에 대응된 입력은 미리 정해진 터치 입력, 미리 정해진 터치 제스쳐 입력, 미리 정해진 에어 제스쳐 입력, 미리 정해진 버튼 입력, 미리 정해진 음성 입력, 미리 정해진 바람 입력 중 어느 하나인 것을 특징으로 하는 모바일 디바이스에서 사용자 인터페이스 방법.
  10. 제8항에 있어서,
    상기 오브젝트 변형 형태는 구겨짐 형태, 찢어짐 형태, 접히는 형태, 바람에 날리는 형태 중 적어도 하나를 포함하는 것을 특징으로 하는 모바일 디바이스에서 사용자 인터페이스 방법.
  11. 제8항에 있어서,
    상기 모바일 디바이스의 회전 및 상기 모바일 디바이스에 가해지는 가속도를 검출하여 상기 모바일 디바이스의 방향 및 기울기를 계산하는 과정과,
    상기 계산된 모바일 디바이스의 방향 및 기울기에 따라 상기 오브젝트의 이동 방향과 이동 방향으로 이동에 따른 오브젝트의 크기 및 투명도 변화를 판단하는 과정과,
    상기 판단 결과에 따라 상기 오브젝트를 상기 오브젝트의 크기 및 투명도를 변화시키면서 상기 이동방향으로 이동시켜 표시하는 과정을 더 포함하는 것을 특징으로 하는 모바일 디바이스에서 사용자 인터페이스 방법.
  12. 제8항에 있어서,
    상기 모바일 디바이스의 각속도를 검출하여 상기 모바일 디바이스의 방향 및 기울기를 계산하는 과정과,
    상기 계산된 모바일 디바이스의 방향 및 기울기에 따라 상기 오브젝트의 이동 방향과 이동 방향으로 이동에 따른 오브젝트의 크기 및 투명도 변화를 판단하는 과정과,
    상기 판단 결과에 따라 상기 오브젝트를 상기 오브젝트의 크기 및 투명도를 변화시키면서 상기 이동방향으로 이동시켜 표시하는 과정을 더 포함하는 것을 특징으로 하는 모바일 디바이스에서 사용자 인터페이스 방법.
  13. 제8항에 있어서,
    미리 정해진 터치 입력, 미리 정해진 터치 제스쳐 입력, 미리 정해진 에어 제스쳐 입력, 미리 정해진 버튼 입력, 미리 정해진 음성 입력, 미리 정해진 바람 입력 중 어느 하나의 입력에 따라 상기 모바일 디바이스의 방향 및 기울기를 계산하는 과정과,
    상기 계산된 모바일 디바이스의 방향 및 기울기에 따라 상기 오브젝트의 이동 방향과 이동 방향으로 이동에 따른 오브젝트의 크기 및 투명도 변화를 판단하는 과정과,
    상기 판단 결과에 따라 상기 오브젝트를 상기 오브젝트의 크기 및 투명도를 변화시키면서 상기 이동방향으로 이동시켜 표시하는 과정을 더 포함하는 것을 특징으로 하는 모바일 디바이스에서 사용자 인터페이스 방법.
  14. 제11 내지 13항 중 어느 한 항에 있어서,
    상기 제어부는 상기 오브젝트의 이동 거리가 미리 정해진 범위를 초과하면 상기 오브젝트를 상기 터치스크린 상에서 삭제하는 과정을 더 포함하는 것을 특징으로 하는 모바일 디바이스에서 사용자 인터페이스 방법.
KR1020120093944A 2012-08-27 2012-08-27 모바일 디바이스 및 모바일 디바이스에서 사용자 인터페이스 방법 KR20140027837A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120093944A KR20140027837A (ko) 2012-08-27 2012-08-27 모바일 디바이스 및 모바일 디바이스에서 사용자 인터페이스 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120093944A KR20140027837A (ko) 2012-08-27 2012-08-27 모바일 디바이스 및 모바일 디바이스에서 사용자 인터페이스 방법

Publications (1)

Publication Number Publication Date
KR20140027837A true KR20140027837A (ko) 2014-03-07

Family

ID=50641592

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120093944A KR20140027837A (ko) 2012-08-27 2012-08-27 모바일 디바이스 및 모바일 디바이스에서 사용자 인터페이스 방법

Country Status (1)

Country Link
KR (1) KR20140027837A (ko)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107391004A (zh) * 2016-05-16 2017-11-24 谷歌公司 用户界面的基于姿势的控制
US10823841B1 (en) 2015-10-06 2020-11-03 Google Llc Radar imaging on a mobile computing device
US11221682B2 (en) 2014-08-22 2022-01-11 Google Llc Occluded gesture recognition
US11687167B2 (en) 2019-08-30 2023-06-27 Google Llc Visual indicator for paused radar gestures
US11709552B2 (en) 2015-04-30 2023-07-25 Google Llc RF-based micro-motion tracking for gesture tracking and recognition
US11790693B2 (en) 2019-07-26 2023-10-17 Google Llc Authentication management through IMU and radar
US11816101B2 (en) 2014-08-22 2023-11-14 Google Llc Radar recognition-aided search
US11868537B2 (en) 2019-07-26 2024-01-09 Google Llc Robust radar-based gesture-recognition by user equipment

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11221682B2 (en) 2014-08-22 2022-01-11 Google Llc Occluded gesture recognition
US11816101B2 (en) 2014-08-22 2023-11-14 Google Llc Radar recognition-aided search
US11709552B2 (en) 2015-04-30 2023-07-25 Google Llc RF-based micro-motion tracking for gesture tracking and recognition
US11693092B2 (en) 2015-10-06 2023-07-04 Google Llc Gesture recognition using multiple antenna
US11656336B2 (en) 2015-10-06 2023-05-23 Google Llc Advanced gaming and virtual reality control using radar
US10823841B1 (en) 2015-10-06 2020-11-03 Google Llc Radar imaging on a mobile computing device
US11385721B2 (en) 2015-10-06 2022-07-12 Google Llc Application-based signal processing parameters in radar-based detection
US11481040B2 (en) 2015-10-06 2022-10-25 Google Llc User-customizable machine-learning in radar-based gesture detection
US11698439B2 (en) 2015-10-06 2023-07-11 Google Llc Gesture recognition using multiple antenna
US11592909B2 (en) 2015-10-06 2023-02-28 Google Llc Fine-motion virtual-reality or augmented-reality control using radar
US11175743B2 (en) 2015-10-06 2021-11-16 Google Llc Gesture recognition using multiple antenna
US11698438B2 (en) 2015-10-06 2023-07-11 Google Llc Gesture recognition using multiple antenna
CN107391004A (zh) * 2016-05-16 2017-11-24 谷歌公司 用户界面的基于姿势的控制
US11531459B2 (en) 2016-05-16 2022-12-20 Google Llc Control-article-based control of a user interface
CN107391004B (zh) * 2016-05-16 2020-11-06 谷歌有限责任公司 用户界面的基于控制物品的控制
US11003345B2 (en) 2016-05-16 2021-05-11 Google Llc Control-article-based control of a user interface
US11790693B2 (en) 2019-07-26 2023-10-17 Google Llc Authentication management through IMU and radar
US11868537B2 (en) 2019-07-26 2024-01-09 Google Llc Robust radar-based gesture-recognition by user equipment
US11687167B2 (en) 2019-08-30 2023-06-27 Google Llc Visual indicator for paused radar gestures

Similar Documents

Publication Publication Date Title
US11132025B2 (en) Apparatus including multiple touch screens and method of changing screens therein
US10635295B2 (en) Device including plurality of touch screens and screen change method for the device
KR102097496B1 (ko) 폴더블 이동 단말기 및 그 제어 방법
US10254915B2 (en) Apparatus, method, and computer-readable recording medium for displaying shortcut icon window
KR102016975B1 (ko) 디스플레이 장치 및 그 제어 방법
EP2796982B1 (en) Method and apparatus for providing a changed shortcut icon corresponding to a status thereof
KR101888457B1 (ko) 복수 개의 어플리케이션을 실행하는 터치스크린을 가지는 장치 및 그 제어 방법
KR20140027837A (ko) 모바일 디바이스 및 모바일 디바이스에서 사용자 인터페이스 방법
KR102158098B1 (ko) 이미지 인식을 이용한 이미지 레이아웃 방법 및 장치
KR20140139377A (ko) 환경정보를 이용한 화면 표시 제어 장치 및 방법
KR102145577B1 (ko) 사용자 인터페이스 표시 방법 및 장치
US20180329598A1 (en) Method and apparatus for dynamic display box management
KR20150081657A (ko) 휴대 단말 및 그 제어 방법
KR20140110646A (ko) 사용자 단말 및 사용자 단말에서 화면 표시 방법
KR20140062190A (ko) 패럴랙스 스크롤 기능을 가지는 모바일 장치 및 그 제어 방법
KR20140038854A (ko) 모바일 디바이스 및 모바일 디바이스에서 사용자 인터페이스 방법
KR102187856B1 (ko) 사용자 인터페이스 표시 방법 및 장치
KR102186819B1 (ko) 노트 기능을 지원하는 모바일 단말기 및 그의 제어 방법
KR102482630B1 (ko) 사용자 인터페이스 표시 방법 및 장치
KR102239019B1 (ko) 사용자 인터페이스 표시 방법 및 장치
KR20140126506A (ko) 스타일러스 펜의 입력 지점을 측정하는 전자 장치 및 그 제어 방법
KR20140117092A (ko) 디스플레이 장치 및 그 제어 방법
KR20140089714A (ko) 상태 바를 변경하는 모바일 장치 및 그 제어 방법
KR102278676B1 (ko) 사용자 인터페이스 표시 방법 및 장치
KR20150025655A (ko) 객체 디스플레이 방법 및 그 장치

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid