KR20110122005A - Mobile terminal and control method thereof - Google Patents
Mobile terminal and control method thereof Download PDFInfo
- Publication number
- KR20110122005A KR20110122005A KR1020100041562A KR20100041562A KR20110122005A KR 20110122005 A KR20110122005 A KR 20110122005A KR 1020100041562 A KR1020100041562 A KR 1020100041562A KR 20100041562 A KR20100041562 A KR 20100041562A KR 20110122005 A KR20110122005 A KR 20110122005A
- Authority
- KR
- South Korea
- Prior art keywords
- gesture
- text
- mode
- input
- user
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B21/00—Projectors or projection-type viewers; Accessories therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Telephone Function (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
본 발명은 이동 단말기 및 그 제어방법에 관한 것으로서, 보다 구체적으로는 제 1문자입력모드와 제 2문자입력모드를 선택적으로 활성화 할 수 있는 이동 단말기 및 그 제어방법에 관한 것이다.The present invention relates to a mobile terminal and a control method thereof, and more particularly, to a mobile terminal and a control method capable of selectively activating a first character input mode and a second character input mode.
개인용 컴퓨터, 노트북, 휴대폰 등과 같은 단말기(terminal)는 기능이 다양화됨에 따라 예를 들어, 사진이나 동영상의 촬영, 음악이나 동영상 파일의 재생, 게임, 방송의 수신 등의 복합적인 기능들을 갖춘 멀티미디어 기기(Multimedia player) 형태로 구현되고 있다. A terminal such as a personal computer, a notebook computer, or a mobile phone has various functions, for example, a multimedia device having a complex function such as photographing or photographing of a moving picture, reproduction of music or a moving picture file, (Multimedia player).
단말기는 이동 가능 여부에 따라 이동 단말기(mobile terminal) 및 고정 단말기(stationary terminal)로 나뉠 수 있다. 다시 이동 단말기는 사용자의 직접 휴대 가능 여부에 따라 휴대(형) 단말기(handheld terminal) 및 거치형 단말기(vehicle mount terminal)로 나뉠 수 있다.The terminal can move It may be divided into a mobile terminal and a stationary terminal, depending on whether it is present. The mobile terminal may be further classified into a handheld terminal and a vehicle mount terminal according to whether a user can directly carry it.
단말기의 기능 지지 및 증대를 위해, 단말기의 구조적인 부분 및/또는 소프트웨어적인 부분을 개량하는 것이 고려되고 있다.In order to support and enhance the functionality of the terminal, it is contemplated to improve the structural and / or software portion of the terminal.
최근 이동 단말기를 포함한 다양한 단말기들은 복합적이고 다양한 기능들을 제공함에 따라 메뉴 구조 또한 복잡해지는 추세이다. 또한 이동 단말기로 웹페이지를 포함하는 각종 디지털문서를 디스플레이할 수 있는 기능이 추가되고 있다.Recently, a variety of terminals including mobile terminals provide a complex and various functions, and the menu structure is also becoming complicated. In addition, a function of displaying various digital documents including a web page is added to a mobile terminal.
본 발명은 제 1문자입력모드와 제 2문자입력모드를 선택적으로 활성화 할 수 있는 이동 단말기 및 그 제어방법에 관한 것이다.The present invention relates to a mobile terminal capable of selectively activating a first character input mode and a second character input mode, and a control method thereof.
상기한 과제를 실현하기 위한 본 발명의 일 실시예에 따른 이동 단말기는, 스틱형 몸체; 상기 스틱형 몸체의 일단에 마련된 프로젝터; 사용자의 제스쳐 입력을 감지하는 제스쳐 감지센서; 및 상기 제스쳐 감지센서의 동작을 통하여 문자를 입력받되, 상기 프로젝터에 의하여 표시된 가상키(virtual key)에 대한 상기 사용자의 제스쳐를 통하여 상기 문자를 입력받는 제 1문자입력모드와, 상기 사용자의 필기입력 제스쳐를 통하여 상기 문자를 입력받는 제 2문자입력모드 중 어느 하나의 문자입력모드를 선택적으로 활성화하는 제어부를 포함할 수 있다.Mobile terminal according to an embodiment of the present invention for realizing the above object, the stick-shaped body; A projector provided at one end of the stick-shaped body; A gesture sensor for detecting a gesture input of a user; And a first text input mode through which the text is input through an operation of the gesture detecting sensor and the text is input through a gesture of the user with respect to a virtual key displayed by the projector, and the user's handwriting input. It may include a control unit for selectively activating any one character input mode of the second character input mode for receiving the character through the gesture.
또한, 상기한 과제를 실현하기 위한 본 발명의 일 실시예에 따른 이동 단말기는, 스틱형 몸체; 상기 스틱형 몸체의 일단에 마련된 프로젝터; 사용자의 제스쳐 동작을 촬영하는 카메라; 및 상기 카메라가 촬영한 영상에 기초하여 문자를 입력받되, 상기 프로젝터에 의하여 표시된 가상키에 대한 터치동작인 제 1제스쳐를 통하여 상기 문자를 입력받는 제 1문자입력모드와, 필기입력 동작인 제 2제스쳐를 통하여 상기 문자를 입력받는 제 2문자입력모드 중 어느 하나의 문자입력모드를 선택적으로 활성화하는 제어부를 포함할 수 있다.In addition, the mobile terminal according to an embodiment of the present invention for realizing the above object, a stick-shaped body; A projector provided at one end of the stick-shaped body; A camera for photographing a gesture of a user; And a first text input mode for receiving text based on an image captured by the camera, the first text input mode for receiving the text through a first gesture that is a touch motion on a virtual key displayed by the projector, and a second handwriting input motion. It may include a control unit for selectively activating any one character input mode of the second character input mode for receiving the character through the gesture.
또한, 상기한 과제를 실현하기 위한 본 발명의 일 실시예에 따른 이동 단말기의 제어방법은, 제 1문자입력모드와 제 2문자입력모드 중 어느 하나의 문자입력모드에 대한 선택신호를 수신하는 단계; 및 상기 선택된 어느 하나의 문자입력모드에 따라 사용자의 문자입력을 수신하는 단계를 포함하며,상기 제 1문자입력모드는, 프로젝터에 의하여 표시된 가상키(virtual key)에 대한 상기 사용자의 제스쳐에 기초하여 상기 문자입력을 수신하며, 상기 제 2문자입력모드는, 사용자의 필기입력 제스쳐에 기초하여 상기 문자입력을 수신하는 것을 특징으로 할 수 있다.In addition, the control method of the mobile terminal according to an embodiment of the present invention for realizing the above object, the step of receiving a selection signal for any one of the first text input mode and the second text input mode; ; And receiving a text input of the user according to the selected text input mode, wherein the first text input mode is based on the user's gesture with respect to the virtual key displayed by the projector. The text input may be received, and the second text input mode may receive the text input based on a user's handwriting input gesture.
본 발명에 따른 이동 단말기 및 그 제어방법은, 제 1문자입력모드와 제 2문자입력모드를 선택적으로 활성화 할 수 있는 효과가 있다.The mobile terminal and its control method according to the present invention have the effect of selectively activating the first character input mode and the second character input mode.
도 1은 본 발명의 일 실시예에 따른 이동 단말기의 블록 구성도(block diagram)이다.
도 2는 도 1 이동 단말기의 사시도이다.
도 3은 도 2 이동 단말기에 대한 부분 확대도이다.
도 4는 도 1 이동 단말기의 프로젝터 모듈의 블록도(block diagram)이다.
도 5 및 도 6은 도 4 프로젝터 모듈 및 카메라의 작동을 도시한 도면이다.
도 7은 도 1 이동 단말기의 문자입력모드 진입에 따른 작동 과정을 도시한 플로우챠트이다.
도 8은 도 7 가상키를 통한 문자입력 단계를 보다 구체화한 플로우챠트이다.
도 9는 도 8 가상키를 통한 문자입력 과정을 도시한 도면이다.
도 10 및 도 11은 카메라를 통한 제스쳐 입력을 촬영하는 과정을 도시한 도면이다.
도 12는 도 7 제스쳐를 통한 문자입력 단계를 보다 구체화한 플로우챠트이다.
도 13은 제스쳐를 통한 문자입력 과정을 도시한 도면이다.
도 14는 본 발명의 다른 실시예에 따른 콘텐츠 표시모드에 따른 작동 과정을 도시한 플로유챠트이다.
도 15 및 도 16은 콘텐츠 표시 상태를 도시한 도면이다.
도 17 내지 도 19는 도 1 이동 단말기의 동작을 도시한 도면이다.
도 20은 도 15에 따른 콘텐츠의 다른 예를 도시한 도면이다.
도 21 및 도 22는 본 발명의 또 다른 실시예에 따른 콘텐츠 표시 상태를 도시한 도면이다.
도 23 및 도 24는 본 발명의 또 다른 실시예에 따른 콘텐츠 표시 상태를 도시한 도면이다.
도 25는 본 발명의 또 다른 실시예에 따른 이동 단말기를 도시한 도면이다.1 is a block diagram of a mobile terminal according to an embodiment of the present invention.
2 is a perspective view of the mobile terminal of FIG. 1.
3 is a partially enlarged view of the mobile terminal of FIG. 2.
4 is a block diagram of a projector module of the mobile terminal of FIG. 1.
5 and 6 are views illustrating the operation of the projector module and the camera of FIG. 4.
FIG. 7 is a flowchart illustrating an operation process according to entry of a text input mode of the mobile terminal of FIG. 1.
FIG. 8 is a flowchart more specifically illustrating a character input step through the virtual key of FIG. 7.
9 is a diagram illustrating a character input process through the virtual key of FIG. 8.
10 and 11 illustrate a process of photographing a gesture input through a camera.
FIG. 12 is a flowchart more specifically illustrating a character input step through the gesture of FIG. 7.
13 is a diagram illustrating a character input process through gestures.
14 is a flow chart illustrating an operation process according to a content display mode according to another embodiment of the present invention.
15 and 16 are diagrams showing a content display state.
17 to 19 are diagrams illustrating the operation of the mobile terminal of FIG. 1.
20 is a diagram illustrating another example of the content according to FIG. 15.
21 and 22 are diagrams illustrating a content display state according to another embodiment of the present invention.
23 and 24 illustrate a content display state according to another embodiment of the present invention.
25 is a diagram illustrating a mobile terminal according to another embodiment of the present invention.
본 발명의 상술한 목적, 특징들 및 장점은 첨부된 도면과 관련된 다음의 상세한 설명을 통해 보다 분명해질 것이다. 다만, 본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예들을 가질 수 있는 바, 이하에서는 특정 실시예들을 도면에 예시하고 이를 상세히 설명하고자 한다. 명세서 전체에 걸쳐서 동일한 참조번호들은 원칙적으로 동일한 구성요소들을 나타낸다. 또한, 본 발명과 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 본 명세서의 설명 과정에서 이용되는 숫자(예를 들어, 제1, 제2 등)는 하나의 구성요소를 다른 구성요소와 구분하기 위한 식별기호에 불과하다The above objects, features and advantages of the present invention will become more apparent from the following detailed description taken in conjunction with the accompanying drawings. It is to be understood, however, that the invention is not limited to the disclosed embodiments, but, on the contrary, is intended to cover various modifications and similarities. Like reference numerals designate like elements throughout the specification. In addition, when it is determined that the detailed description of the known function or configuration related to the present invention may unnecessarily obscure the subject matter of the present invention, the detailed description thereof will be omitted. In addition, the numbers (eg, first, second, etc.) used in the description process of the present specification are merely identification symbols for distinguishing one component from another component.
이하, 본 발명과 관련된 이동 단말기에 대하여 도면을 참조하여 보다 상세하게 설명한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. Hereinafter, a mobile terminal according to the present invention will be described in more detail with reference to the accompanying drawings. The suffixes "module" and "unit" for components used in the following description are given or used in consideration of ease of specification, and do not have distinct meanings or roles from each other.
본 명세서에서 설명되는 이동 단말기에는 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 디지털방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 네비게이션 등이 포함될 수 있다. 그러나, 본 명세서에 기재된 실시예에 따른 구성은 이동 단말기에만 적용 가능한 경우를 제외하면, 디지털 TV, 데스크탑 컴퓨터 등과 같은 고정 단말기에도 적용될 수도 있음을 본 기술분야의 당업자라면 쉽게 알 수 있을 것이다.The mobile terminal described herein may include a mobile phone, a smart phone, a laptop computer, a digital broadcasting terminal, a personal digital assistant (PDA), a portable multimedia player (PMP), navigation, and the like. However, it will be readily apparent to those skilled in the art that the configuration according to the embodiments described herein may also be applied to fixed terminals such as digital TVs, desktop computers, etc., except when applicable only to mobile terminals.
도 1은 본 발명의 일 실시예와 관련된 이동 단말기의 블록 구성도(block diagram)이다.1 is a block diagram of a mobile terminal according to an embodiment of the present invention.
상기 이동 단말기(100)는 무선 통신부(110), A/V(Audio/Video) 입력부(120), 사용자 입력부(130), 센싱부(140), 출력부(150), 메모리부(160), 인터페이스부(170), 제어부(180) 및 전원 공급부(190) 등을 포함할 수 있다. 도 1에 도시된 구성요소들이 필수적인 것은 아니어서, 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖는 이동 단말기를 구현될 수도 있다.The
이하, 상기 구성요소들에 대해 차례로 살펴본다.Hereinafter, the components will be described in order.
무선 통신부(110)는 이동 단말기(100)와 무선 통신 시스템 사이 또는 이동 단말기(100)와 이동 단말기(100)가 위치한 네트워크 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 예를 들어, 무선 통신부(110)는 방송 수신 모듈(111), 이동통신 모듈(112), 무선 인터넷 모듈(113), 근거리 통신 모듈(114) 및 위치정보 모듈(115) 등을 포함할 수 있다.The
방송 수신 모듈(111)은 방송 채널을 통하여 외부의 방송 관리 서버로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다. The
상기 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 상기 방송 관리 서버는, 방송 신호 및/또는 방송 관련 정보를 생성하여 송신하는 서버 또는 기 생성된 방송 신호 및/또는 방송 관련 정보를 제공받아 단말기에 송신하는 서버를 의미할 수 있다. 상기 방송 신호는, TV 방송 신호, 라디오 방송 신호, 데이터 방송 신호를 포함할 뿐만 아니라, TV 방송 신호 또는 라디오 방송 신호에 데이터 방송 신호가 결합한 형태의 방송 신호도 포함할 수 있다. The broadcast channel may include a satellite channel and a terrestrial channel. The broadcast management server may mean a server that generates and transmits a broadcast signal and / or broadcast related information or a server that receives a previously generated broadcast signal and / or broadcast related information and transmits the same to a terminal. The broadcast signal may include not only a TV broadcast signal, a radio broadcast signal, and a data broadcast signal, but also a broadcast signal having a data broadcast signal combined with a TV broadcast signal or a radio broadcast signal.
상기 방송 관련 정보는, 방송 채널, 방송 프로그램 또는 방송 서비스 제공자에 관련한 정보를 의미할 수 있다. 상기 방송 관련 정보는, 이동통신망을 통하여도 제공될 수 있다. 이러한 경우에는 상기 이동통신 모듈(112)에 의해 수신될 수 있다.The broadcast related information may mean information related to a broadcast channel, a broadcast program, or a broadcast service provider. The broadcast related information may also be provided through a mobile communication network. In this case, it may be received by the
상기 방송 관련 정보는 다양한 형태로 존재할 수 있다. 예를 들어, DMB(Digital Multimedia Broadcasting)의 EPG(Electronic Program Guide) 또는 DVBH(Digital Video BroadcastHandheld)의 ESG(Electronic Service Guide) 등의 형태로 존재할 수 있다.The broadcast related information may exist in various forms. For example, it may exist in the form of Electronic Program Guide (EPG) of Digital Multimedia Broadcasting (DMB) or Electronic Service Guide (ESG) of Digital Video BroadcastHandheld (DVBH).
상기 방송 수신 모듈(111)은, 각종 방송 시스템을 이용하여 방송 신호를 수신하는데, 특히, DMBT(Digital Multimedia BroadcastingTerrestrial), DMBS(Digital Multimedia BroadcastingSatellite), MediaFLO(Media Forward Link Only), DVBH(Digital Video BroadcastHandheld), ISDBT(Integrated Services Digital BroadcastTerrestrial) 등의 디지털 방송 시스템을 이용하여 디지털 방송 신호를 수신할 수 있다. 물론, 상기 방송 수신 모듈(111)은, 상술한 디지털 방송 시스템뿐만 아니라 방송 신호를 제공하는 다른 방송 시스템에 적합하도록 구성될 수도 있다.The
방송 수신 모듈(111)을 통해 수신된 방송 신호 및/또는 방송 관련 정보는 메모리부(160)에 저장될 수 있다.The broadcast signal and / or broadcast related information received through the
이동통신 모듈(112)은, 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 상기 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다. The
무선 인터넷 모듈(113)은 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 무선 인터넷 모듈(113)은 이동 단말기(100)에 내장되거나 외장될 수 있다. 무선 인터넷 기술로는 WLAN(Wireless LAN)(WiFi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 등이 이용될 수 있다. The
근거리 통신 모듈(114)은 근거리 통신을 위한 모듈을 말한다. 근거리 통신 기술로 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), ZigBee 등이 이용될 수 있다.The short
위치정보 모듈(115)은 이동 단말기의 위치를 확인하거나 얻기 위한 모듈이다. 상기 위치정보 모듈의 대표적인 예로는 GPS(Global Position System) 모듈이 있다. 현재 기술에 의하면, 상기 GPS모듈(115)은, 일 지점(개체)이 3개 이상의 위성으로부터 떨어진 거리에 관한 정보와, 상기 거리 정보가 측정된 시간에 관한 정보를 산출한 다음 상기 산출된 거리 정보에 삼각법을 적용함으로써, 일 시간에 일 지점(개체)에 대한 위도, 경도, 및 고도에 따른 3차원의 위치 정보를 산출할 수 있다. 나아가, 3개의 위성을 이용하여 위치 및 시간 정보를 산출하고, 또 다른 1개의 위성을 이용하여 상기 산출된 위치 및 시간 정보의 오차를 수정하는 방법 또한 사용되고 있다. GPS 모듈(115)은 현 위치를 실시간으로 계속 산출하고 그를 이용하여 속도 정보를 산출하기도 한다. The
도 1을 참조하면, A/V(Audio/Video) 입력부(120)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 이에는 카메라(121)와 마이크(122) 등이 포함될 수 있다. 카메라(121)는 화상 통화모드 또는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 처리된 화상 프레임은 디스플레이부(151)에 표시될 수 있다.Referring to FIG. 1, the A /
카메라(121)에서 처리된 화상 프레임은 메모리부(160)에 저장되거나 무선 통신부(110)를 통하여 외부로 전송될 수 있다. 카메라(121)는 단말기의 구성 태양에 따라 2개 이상이 구비될 수도 있다.The image frame processed by the
마이크(122)는 통화모드 또는 녹음모드, 음성인식 모드 등에서 마이크로폰(Microphone)에 의해 외부의 음향 신호를 입력받아 전기적인 음성 데이터로 처리한다. 처리된 음성 데이터는 통화 모드인 경우 이동통신 모듈(112)을 통하여 이동통신 기지국으로 송신 가능한 형태로 변환되어 출력될 수 있다. 마이크(122)에는 외부의 음향 신호를 입력받는 과정에서 발생되는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘이 구현될 수 있다.The
사용자 입력부(130)는 사용자가 단말기의 동작 제어를 위한 입력 데이터를 발생시킨다. 사용자 입력부(130)는 키 패드(key pad) 돔 스위치 (dome switch), 터치 패드(정압/정전), 조그 휠, 조그 스위치 등으로 구성될 수 있다. The
센싱부(140)는 이동 단말기(100)의 개폐 상태, 이동 단말기(100)의 위치, 사용자 접촉 유무, 이동 단말기의 방위, 이동 단말기의 가속/감속 등과 같이 이동 단말기(100)의 현 상태를 감지하여 이동 단말기(100)의 동작을 제어하기 위한 센싱 신호를 발생시킨다. 예를 들어 이동 단말기(100)가 슬라이드 폰 형태인 경우 슬라이드 폰의 개폐 여부를 센싱할 수 있다. 또한, 전원 공급부(190)의 전원 공급 여부, 인터페이스부(170)의 외부 기기 결합 여부 등과 관련된 센싱 기능을 담당할 수도 있다. 한편, 상기 센싱부(140)는 근접센서를 포함할 수 있다. The
출력부(150)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 이에는 디스플레이부(151), 음향 출력 모듈(152), 알람부(153), 및 햅틱 모듈(154) 등이 포함될 수 있다.The
디스플레이부(151)는 이동 단말기(100)에서 처리되는 정보를 표시 출력한다. 예를 들어, 이동 단말기가 통화 모드인 경우 통화와 관련된 UI(User Interface) 또는 GUI(Graphic User Interface)를 표시한다. 이동 단말기(100)가 화상 통화 모드 또는 촬영 모드인 경우에는 촬영 또는/및 수신된 영상 또는 UI, GUI를 표시한다. The
디스플레이부(151)는 액정 디스플레이(liquid crystal display), 박막 트랜지스터 액정 디스플레이(thin film transistorliquid crystal display), 유기 발광 다이오드(organic lightemitting diode), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 중에서 적어도 하나를 포함할 수 있다. The
이들 중 일부 디스플레이는 그를 통해 외부를 볼 수 있도록 투명형 또는 광투과형으로 구성될 수 있다. 이는 투명 디스플레이라 호칭될 수 있는데, 상기 투명 디스플레이의 대표적인 예로는 투명 LCD 등이 있다. 디스플레이부(151)의 후방 구조 또한 광 투과형 구조로 구성될 수 있다. 이러한 구조에 의하여, 사용자는 단말기 바디의 디스플레이부(151)가 차지하는 영역을 통해 단말기 바디의 후방에 위치한 사물을 볼 수 있다.Some of these displays can be configured to be transparent or light transmissive so that they can be seen from the outside. This may be referred to as a transparent display. A representative example of the transparent display is a transparent LCD. The rear structure of the
이동 단말기(100)의 구현 형태에 따라 디스플레이부(151)이 2개 이상 존재할 수 있다. 예를 들어, 이동 단말기(100)에는 복수의 디스플레이부들이 하나의 면에 이격되거나 일체로 배치될 수 있고, 또한 서로 다른 면에 각각 배치될 수도 있다. There may be two or
디스플레이부(151)와 터치 동작을 감지하는 센서(이하, '터치 센서'라 함)가 상호 레이어 구조를 이루는 경우(이하, '터치 스크린'이라 약칭함)에, 디스플레이부(151)는 출력 장치 이외에 입력 장치로도 사용될 수 있다. 터치 센서는, 예를 들어, 터치 필름, 터치 시트, 터치 패드 등의 형태를 가질 수 있다.When the
터치 센서는 디스플레이부(151)의 특정 부위에 가해진 압력 또는 디스플레이부(151)의 특정 부위에 발생하는 정전 용량 등의 변화를 전기적인 입력신호로 변환하도록 구성될 수 있다. 터치 센서는 터치 되는 위치 및 면적뿐만 아니라, 터치 시의 압력까지도 검출할 수 있도록 구성될 수 있다. The touch sensor may be configured to convert a change in pressure applied to a specific portion of the
터치 센서에 대한 터치 입력이 있는 경우, 그에 대응하는 신호(들)는 터치 제어기로 보내진다. 터치 제어기는 그 신호(들)를 처리한 다음 대응하는 데이터를 제어부(180)로 전송한다. 이로써, 제어부(180)는 디스플레이부(151)의 어느 영역이 터치 되었는지 여부 등을 알 수 있게 된다.If there is a touch input to the touch sensor, the corresponding signal (s) is sent to the touch controller. The touch controller processes the signal (s) and then transmits the corresponding data to the
도 1을 참조하면, 상기 터치스크린에 의해 감싸지는 이동 단말기의 내부 영역 또는 상기 터치 스크린의 근처에 근접센서가 배치될 수 있다. 상기 근접센서는 소정의 검출면에 접근하는 물체, 혹은 근방에 존재하는 물체의 유무를 전자계의 힘 또는 적외선을 이용하여 기계적 접촉이 없이 검출하는 센서를 말한다. 근접센서는 접촉식 센서보다는 그 수명이 길며 그 활용도 또한 높다. Referring to FIG. 1, a proximity sensor may be disposed in an inner region of the mobile terminal or in the vicinity of the touch screen, which is enclosed by the touch screen. The proximity sensor refers to a sensor that detects the presence or absence of an object approaching a predetermined detection surface or a nearby object without mechanical contact using the force of an electromagnetic field or infrared rays. The proximity sensor has a longer life span than the contact sensor and its utilization is also high.
상기 근접센서의 예로는 투과형 광전 센서, 직접 반사형 광전 센서, 미러 반사형 광전 센서, 고주파 발진형 근접센서, 정전용량형 근접센서, 자기형 근접센서, 적외선 근접센서 등이 있다.Examples of the proximity sensor include a transmission type photoelectric sensor, a direct reflection type photoelectric sensor, a mirror reflection type photoelectric sensor, a high frequency oscillation type proximity sensor, a capacitive proximity sensor, a magnetic proximity sensor, and an infrared proximity sensor.
상기 터치스크린이 정전식인 경우에는 상기 포인터의 근접에 따른 전계의 변화로 상기 포인터의 근접을 검출하도록 구성된다. 이 경우 상기 터치 스크린(터치 센서)은 근접센서로 분류될 수도 있다.When the touch screen is capacitive, the touch screen is configured to detect the proximity of the pointer by the change of the electric field according to the proximity of the pointer. In this case, the touch screen (touch sensor) may be classified as a proximity sensor.
이하에서는 설명의 편의를 위해, 상기 터치스크린 상에 포인터가 접촉되지 않으면서 근접되어 상기 포인터가 상기 터치스크린 상에 위치함이 인식되도록 하는 행위를 "근접 터치(proximity touch)"라고 칭하고, 상기 터치스크린 상에 포인터가 실제로 접촉되는 행위를 "접촉 터치(contact touch)"라고 칭한다. 상기 터치스크린 상에서 포인터로 근접 터치가 되는 위치라 함은, 상기 포인터가 근접 터치될 때 상기 포인터가 상기 터치스크린에 대해 수직으로 대응되는 위치를 의미한다.Hereinafter, for convenience of explanation, the act of allowing the pointer to be recognized without being in contact with the touch screen so that the pointer is located on the touch screen is referred to as a "proximity touch", and the touch The act of actually touching the pointer on the screen is called "contact touch." The position where the proximity touch is performed by the pointer on the touch screen refers to a position where the pointer is perpendicular to the touch screen when the pointer is in proximity proximity.
상기 근접센서는, 근접 터치 및 근접 터치 패턴(예를 들어, 근접 터치 거리, 근접 터치 방향, 근접 터치 속도, 근접 터치 시간, 근접 터치 위치, 근접 터치 이동 상태 등)을 감지한다. 상기 감지된 근접 터치 동작 및 근접 터치 패턴에 상응하는 정보는 터치 스크린상에 출력될 수 있다. The proximity sensor detects a proximity touch and a proximity touch pattern (e.g., a proximity touch distance, a proximity touch direction, a proximity touch speed, a proximity touch time, a proximity touch position, a proximity touch movement state, and the like). Information corresponding to the sensed proximity touch operation and proximity touch pattern may be output on the touch screen.
음향 출력 모듈(152)은 호신호 수신, 통화모드 또는 녹음 모드, 음성인식 모드, 방송수신 모드 등에서 무선 통신부(110)로부터 수신되거나 메모리부(160)에 저장된 오디오 데이터를 출력할 수도 있다. 음향 출력 모듈(152)은 이동 단말기(100)에서 수행되는 기능(예를 들어, 호신호 수신음, 메시지 수신음 등)과 관련된 음향 신호를 출력한다. 이러한 음향 출력 모듈(152)에는 리시버(Receiver), 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다.The
알람부(153)는 이동 단말기(100)의 이벤트 발생을 알리기 위한 신호를 출력한다. 이동 단말기에서 발생 되는 이벤트의 예로는 호 신호 수신, 메시지 수신, 키 신호 입력, 터치 입력 등이 있다. 알람부(153)는 비디오 신호나 오디오 신호 이외에 다른 형태, 예를 들어 진동으로 이벤트 발생을 알리기 위한 신호를 출력할 수도 있다. 비디오 신호나 오디오 신호는 디스플레이부(151)이나 음성 출력 모듈(152)을 통해서도 출력될 수 있다.The
햅틱 모듈(haptic module)(154)은 사용자가 느낄 수 있는 다양한 촉각 효과를 발생시킨다. 햅틱 모듈(154)이 발생시키는 촉각 효과의 대표적인 예로는 진동이 있다. 햅택 모듈(154)이 발생하는 진동의 세기와 패턴 등은 제어가능하다. 예를 들어, 서로 다른 진동을 합성하여 출력하거나 순차적으로 출력할 수도 있다. The
햅틱 모듈(154)은, 진동 외에도, 접촉 피부면에 대해 수직 운동하는 핀 배열에 의한 자극에 의한 효과, 분사구나 흡입구를 통한 공기의 분사력이나 흡입력을 통한 자극에 의한 효과, 피부 표면을 스치는 자극에 의한 효과, 전극(eletrode)의 접촉을 통한 자극에 의한 효과, 정전기력을 이용한 자극에 의한 효과, 흡열이나 발열 가능한 소자를 이용한 냉온감 재현에 의한 효과 등 다양한 촉각 효과를 발생시킬 수 있다. In addition to the vibration, the
햅틱 모듈(154)은 직접적인 접촉을 통해 촉각 효과의 전달할 수 있을 뿐만 아니라, 사용자의 손가락이나 팔 등의 근 감각을 통해 촉각 효과를 느낄 수 있도록 구현할 수도 있다. 햅틱 모듈(154)은 휴대 단말기(100)의 구성 태양에 따라 2개 이상이 구비될 수 있다.The
메모리부(160)는 제어부(180)의 동작을 위한 프로그램을 저장할 수 있고, 입/출력되는 데이터들(예를 들어, 폰북, 메시지, 정지영상, 동영상 등)을 임시 저장할 수도 있다. 상기 메모리부(160)는 상기 터치스크린 상의 터치 입력시 출력되는 다양한 패턴의 진동 및 음향에 관한 데이터를 저장할 수 있다.The
메모리부(160)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(ReadOnly Memory, ROM), EEPROM(Electrically Erasable Programmable ReadOnly Memory), PROM(Programmable ReadOnly Memory) 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 이동 단말기(100)는 인터넷(internet)상에서 상기 메모리부(160)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작할 수도 있다.The
인터페이스부(170)는 이동 단말기(100)에 연결되는 모든 외부기기와의 통로 역할을 한다. 인터페이스부(170)는 외부 기기로부터 데이터를 전송받거나 전원을 공급받아 이동 단말기(100) 내부의 각 구성 요소에 전달하거나 이동 단말기(100) 내부의 데이터가 외부 기기로 전송되도록 한다. 예를 들어, 유/무선 헤드셋 포트, 외부 충전기 포트, 유/무선 데이터 포트, 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트, 오디오 I/O(Input/Output) 포트, 비디오 I/O(Input/Output) 포트, 이어폰 포트 등이 인터페이스부(170)에 포함될 수 있다. The
식별 모듈은 이동 단말기(100)의 사용 권한을 인증하기 위한 각종 정보를 저장한 칩으로서, 사용자 인증 모듈(User Identify Module, UIM), 가입자 인증 모듈(Subscriber Identify Module, SIM), 범용 사용자 인증 모듈(Universal Subscriber Identity Module, USIM) 등을 포함할 수 있다. 식별 모듈이 구비된 장치(이하 '식별 장치')는, 스마트 카드(smart card) 형식으로 제작될 수 있다. 따라서 식별 장치는 포트를 통하여 단말기(100)와 연결될 수 있다. The identification module is a chip that stores various types of information for authenticating the usage rights of the
상기 인터페이스부는 이동 단말기(100)가 외부 크래들(cradle)과 연결될 때 상기 크래들로부터의 전원이 상기 이동 단말기(100)에 공급되는 통로가 되거나, 사용자에 의해 상기 크래들에서 입력되는 각종 명령 신호가 상기 이동 단말기로 전달되는 통로가 될 수 있다. 상기 크래들로부터 입력되는 각종 명령 신호 또는 상기 전원은 상기 이동 단말기가 상기 크래들에 정확히 장착되었음을 인지하기 위한 신호로 동작될 수도 있다.The interface unit may be a passage through which power from the cradle is supplied to the
제어부(180)는 통상적으로 이동 단말기의 전반적인 동작을 제어한다. 예를 들어 음성 통화, 데이터 통신, 화상 통화 등을 위한 관련된 제어 및 처리를 수행한다. 제어부(180)는 멀티 미디어 재생을 위한 멀티미디어 모듈(181)을 구비할 수도 있다. 멀티미디어 모듈(181)은 제어부(180) 내에 구현될 수도 있고, 제어부(180)와 별도로 구현될 수도 있다.The
상기 제어부(180)는 상기 터치스크린 상에서 행해지는 필기 입력 또는 그림 그리기 입력을 각각 문자 및 이미지로 인식할 수 있는 패턴 인식 처리를 행할 수 있다. The
전원 공급부(190)는 제어부(180)의 제어에 의해 외부의 전원, 내부의 전원을 인가받아 각 구성요소들의 동작에 필요한 전원을 공급한다.The
여기에 설명되는 다양한 실시예는 예를 들어, 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록매체 내에서 구현될 수 있다.Various embodiments described herein may be implemented in a recording medium readable by a computer or similar device using, for example, software, hardware or a combination thereof.
하드웨어적인 구현에 의하면, 여기에 설명되는 실시예는 ASICs (application specific integrated circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gate arrays, 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(microcontrollers), 마이크로 프로세서(microprocessors), 기능 수행을 위한 전기적인 유닛 중 적어도 하나를 이용하여 구현될 수 있다. 일부의 경우에 그러한 실시예들이 제어부(180)에 의해 구현될 수 있다.According to a hardware implementation, the embodiments described herein may be implemented as application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays May be implemented using at least one of processors, controllers, microcontrollers, microprocessors, and electrical units for performing functions. In some cases such embodiments may be implemented using a
소프트웨어적인 구현에 의하면, 절차나 기능과 같은 실시예들은 적어도 하나의 기능 또는 작동을 수행하게 하는 별개의 소프트웨어 모듈과 함께 구현될 수 있다. 소프트웨어 코드는 적절한 프로그램 언어로 쓰여진 소프트웨어 어플리케이션에 의해 구현될 수 있다. 또한, 소프트웨어 코드는 메모리부(160)에 저장되고, 제어부(180)에 의해 실행될 수 있다.In a software implementation, embodiments such as procedures or functions may be implemented with separate software modules that allow at least one function or operation to be performed. The software code may be implemented by a software application written in a suitable programming language. Also, the software codes may be stored in the
센싱부(140)는 모션센서 모듈(142)을 포함할 수 있다.The
모션센서 모듈(142)은 이동 단말기(100)의 자세변화를 감지할 수 있다. 자세변화는, 특정 지점에서 이동 단말기(100)가 지면과 이루는 각도의 변화, 제 1지점에서 제 2지점으로의 이동 등을 포함할 수 있다. 각도의 변화, 이동 등을 감지함은, 특정 기준 자세에서의 이동 방향, 이동 속도, 이동 가속도 중 적어도 어느 하나를 감지함을 의미한다. 해당하는 부분에서 보다 구체적으로 설명하겠지만, 모션센서 모듈(142)은 이동 단말기(100) 내부의 어느 일 측 또는 이동 단말기(100) 내부의 복수 위치에 마련될 수 있다. 모션센서 모듈(142)은 가속도 센서, GPS 센서 등을 포함할 수 있다. The
가속도 센서는 제 1지점에서 제 2지점으로 이동하는 과정에서의 가속도 변화를 감지할 수 있다. 가속도 센서로 감지된 가속도를 적분하면 속도를 알 수 있으며, 속도를 적분하면 거리를 알 수 있다. 특정 값을 미분하는 경우에는 잡음의 영향으로 인하여 비정상적인 값이 산출될 수 있으므로, 가속도를 감지한 후 적분하는 방법으로 원하는 값을 산출할 수 있다.The acceleration sensor may detect an acceleration change in the process of moving from the first point to the second point. By integrating the acceleration detected by the acceleration sensor, the speed can be known, and by integrating the speed, the distance can be known. In the case of differentiating a specific value, an abnormal value may be calculated due to the influence of noise, and thus, a desired value may be calculated by integrating after detecting the acceleration.
GPS 센서는 인공위성으로부터 수신한 신호를 감지할 수 있다. 수신한 신호를 기 설정된 방법을 통하여 가공하면, 지표상의 절대 좌표를 산출할 수 있다. 이에 시간을 대입하면, 속도 등을 알 수 있다. The GPS sensor may detect a signal received from the satellite. If the received signal is processed through a preset method, absolute coordinates on the surface of the earth can be calculated. By substituting the time, the speed and the like can be known.
출력부(150)는 프로젝터 모듈(155)을 더 포함할 수 있다. 프로젝터 모듈(155)은 빛과 렌즈 시스템을 사용하여 영상을 프로젝션(projection)하는 장치일 수 있다. 프로젝터 모듈(155)은, 스크린과 같은 평면에 빛을 조사(照射)하여 영상을 표현할 수 있다. 본 발명의 일 실시예에 따른 이동 단말기(100)는, 스크린과 같은 특정 위치만이 아니라 책상, 벽면 등 주위의 평탄한 면에 영상을 조사할 수 있다. 따라서 영상을 표시함에 있어서 장소의 제약을 덜 받을 수 있다. 또한, 작은 크기의 몸체(도 2의 10)로 인하여 디스플레이(도 2의 30)의 면적이 작은 경우에도 정보 표시의 제약을 받지 않을 수 있다. 프로젝터 모듈(155)의 구성은 해당하는 부분에서 보다 구체적으로 설명하도록 한다.The
도 2는 도 1 이동 단말기의 사시도이다.2 is a perspective view of the mobile terminal of FIG. 1.
이에 도시한 바와 같이, 본 발명의 일 실시예에 따른 이동 단말기(100)는 스틱형 몸체(10)와, 스틱형 몸체(10)의 외주면(外周面)을 따라 마련된 터치스크린(20)과, 스틱형 몸체(30)의 일 끝단에 마련된 입력버튼(30)을 포함할 수 있다.As shown in the drawing, the
스틱형 몸체(10)는 원통형일 수 있다. 즉, 원기둥 형상일 수 있음을 의미한다. 스틱형 몸체(10)는 축방향(X방향)으로 길 수 있다. 즉, 원통의 지름방향(Z방향)의 길이에 비하여, 원통의 축방향(X방향) 길이가 더 길게 마련될 수 있음을 의미한다. 축방향(X방향)으로 긴 원통형으로 마련됨으로 인하여, 사용자가 이동 단말기(100)를 보관하기가 용이할 수 있다. 예를 들어, 와이셔츠 포켓 등에 보관하기가 보다 편리해질 수 있다. 또한, 직사각 형상인 경우보다 사용자가 이동 단말기(100)를 파지하기가 보다 용이할 수 있다. 나아가, 스틱형 몸체(10)의 형상을 이용하여 고유한 조작이 가능할 수 있다. 예를 들어, 스틱형 몸체(10)를 회전시키는 등의 조작이 가능할 수 있음을 의미한다. 스틱형 몸체(10)에 대한 회전 조작은, 스틱형 몸체(10)가 회전가능한 제 1,2스틱형 몸체(12, 14)로 구분됨으로써 가능할 수 있다.Stick-shaped
제 1,2스틱형 몸체(12, 14)는 축방향(X방향)으로 나란하게 마련될 수 있다. 또한, 제 1,2스틱형 몸체(12, 14)는 어느 하나를 기준으로 할 때 다른 하나가 회전할 수 있다. 예를 들어, 사용자는 제 1,2스틱형 몸체(12, 14)를 서로 다른 손으로 파지한 후에, 제 1스틱형 몸체(12)를 시계방향 또는 반시계방향으로 회전시킬 수 있음을 의미한다. 제 1스틱형 몸체(12)가 시계방향 또는 반시계방향으로 회전되는 신호를 수신하면, 제어부(도 1의 180)는 특정 아이템을 선택하거나, 화면을 전환하는 등 특정한 동작이 수행되도록 할 수 있다. 제 1,2스틱형 몸체(12, 14)의 사이에는, 제 1,2스틱형 몸체(12, 14)의 회전이 원활하게 이루어질 수 있도록 하는 원형 고리 형상의 스페이서(16, spacer)가 위치할 수 있다.The first and second
터치스크린(20)은 스틱형 몸체(10)의 외주면(外周面)에 위치할 수 있다. 스틱형 몸체(10)의 외주면에 위치하는 터치스크린(20)은, 원통형으로 마련될 수 있다. 즉, 터치스크린(20)이 평면이 아닌 곡면일 수 있음을 의미한다. 터치스크린(20)은 스틱형 몸체(10) 외주면의 일 영역 또는 전체 영역에 마련될 수 있다. 터치스크린(20)은 영상을 표시한다는 측면에서는 출력부(도 1의 150)로 볼 수 있으며, 터치스크린(20)을 통하여 사용자의 터치입력을 수신한다는 측면에서는 사용자 입력부(도 1의 130)로 볼 수 있다.The
입력버튼(30)은 스틱형 몸체(10)의 일 끝단에 마련될 수 있다. 스틱형 몸체(10)의 일 끝단에 마련된 입력버튼(30)을 통하여 사용자로부터 물리적인 키 입력을 받을 수 있다. 즉, 사용자가 입력버튼(30)을 축방향(X방향)으로 가압하면, 입력버튼(30)이 축방향(X방향)으로 이동하며 키 신호를 발생할 수 있다. 발생한 키 신호를 제어부(도 1의 180)가 수신하면, 제어부(도 1의 180)는 터치스크린(20)의 표시를 변경하는 등 그에 대응된 특정 동작이 수행되도록 할 수 있다.The
도 3은 도 2 이동 단말기에 대한 부분 확대도이다.3 is a partially enlarged view of the mobile terminal of FIG. 2.
이에 도시한 바와 같이, 본 발명의 일 실시예에 따른 이동 단말기(100)에는 프로젝터(155)와 카메라(121)가 마련될 수 있다.As shown in the drawing, the
프로젝터(155)는 외부 물체를 향하여 빛을 조사(照射)하여 영상을 표시할 수 있다. 디스플레이(20)가 아닌 외부 물체의 표면에 영상을 표시할 수 있음으로 인하여, 디스플레이(20) 면적의 크기에 제한되지 않고 필요한 정보를 표시할 수 있다. 프로젝터(155)를 통하여 표시되는 영상과, 터치스크린(20)에 표시되는 영상은(M) 서로 다를 수 있다. 예를 들어 문자메시지가 수신된 경우에, 터치스크린(20)에는 발신자, 수신 시각 등의 간단한 정보가 표시되고, 프로젝터(155)를 통해서는 실제 문자메세지 내용이 표시될 수 있다. 이와 같은 경우라면, 사용자는 터치스크린(20)에 표시된 간략정보를 보고 그 내용을 확인하고자 할 때만 프로젝터(155)를 선택적으로 활성화할 수 있다.The
프로젝터(155)는 스틱형 몸체(10)의 일 끝단에 마련될 수 있다. 예를 들어, 도시한 바와 같이, 제 1스틱형 몸체(12)의 끝단에 위치할 수 있다. 제 1스틱형 몸체(12)의 끝단에 위치함으로 인하여, 사용자는 영상이 표시될 물체의 표면을 향하도록 스틱형 몸체(10)를 자연스럽게 파지하여 사용할 수 있다. 프로젝터(155)가 영상을 표시하는 방법에 대해서는, 해당하는 부분에서 보다 구체적으로 설명하도록 한다.The
카메라(121)는 외부 영상을 촬영할 수 있다. 보다 구체적으로, 카메라(121)는 사용자의 제스쳐(gesture)(포스쳐(posture)를 포함) 입력을 촬영할 수 있다. 시각적 영상에 대한 촬영이라는 방식으로 센싱이 이루어지지만, 사용자가 취한 제스쳐를 감지한다는 점에서 카메라(121)는 제스쳐 감지센서의 일종이라 할 수 있다.The
카메라(121)를 통하여 촬영된 제스쳐 영상은 제어부(도 1의 180)로 전달될 수 있다. 제스쳐 영상을 전달받은 제어부(도 1의 180)는, 이를 분석하여 이동 단말기(100)의 특정 기능과 관련된 제스쳐라면 해당하는 기능을 활성화 또는 비활성화시킬 수 있다. The gesture image photographed through the
카메라(121)는 프로젝터(155)와 동일한 평면 상에 마련될 수 있다. 전술한 바와 같이, 본 발명의 일 실시예에 따른 프로젝터(155)가 스틱형 몸체(10)의 일 끝단에 마련되므로, 카메라(121)도 스틱형 몸체(10)의 동일한 일 끝단에 마련될 수 있다. 카메라(121)가 촬영하는 제스쳐는, 프로젝터(155)를 통하여 표시된 영상에 대한 사용자의 제스쳐일 수 있다. 따라서 프로젝터(155)에서 영상이 조사되는 방향을 향하여 카메라(121)가 표시되어야, 조사된 영상에 대한 사용자의 제스쳐 동작을 원활하게 촬영할 수 있다. 예를 들어, 프로젝터(155)를 통하여 조사되는 영상은 가상키(virtual key)일 수 있다. 가상키가 프로젝터(155)를 통하여 외부 물체의 표면에 표시되면, 사용자는 표시된 가상키 위에서 손가락을 움직여 키입력 동작을 취할 수 있다. 카메라(121)가 프로젝터(155)와 동일한 방향에 마련되어 있음으로 인하여, 카메라(121)는 조사된 영상에 대한 사용자의 손가락 움직임을 촬영할 수 있다.The
도 4는 도 1 이동 단말기의 프로젝터 모듈의 블록도(block diagram)이다.4 is a block diagram of a projector module of the mobile terminal of FIG. 1.
이에 도시한 바와 같이, 본 발명의 일 실시예에 따른 이동 단말기(100)의 프로젝터 모듈(155)은 광원(156)과, 광학 처리부(157)와, 모듈레이터(158)를 포함할 수 있다.As shown in the drawing, the
광원(156)은 RGB 각각 혹은 RGB가 합쳐진 빛을 생성할 수 있다. 광원(156)은 효율적으로 빛을 발산할 수 있는 LED(Liget Emitting Diode) 또는 레이져 일 수 있다. 광원(156)에서 발생된 빛은 광학 처리부(157)로 전달될 수 있다.The
광학 처리부(157)는 단수 또는 복수개 렌즈의 조합체일 수 있다. 예를 들어, 광학 처리부(157)는 집광 렌즈와 특정 파장의 빛 만을 통과시키는 다이크로익 미러(dichroic mirror)를 포함하는 색합성계일 수 있다. 광원(156)에서 발산된 빛은, 렌즈들을 통과하며 소정 형태의 빛으로 성형될 수 있다. 즉, 광원(156)에서 발생된 빛은 광원(156)을 시점으로 하여 부채꼴 형상으로 발산되는 형태일 수 있으나, 광학 처리부(157)를 거치며 동일한 광축을 가지는 빛으로 가공될 수 있음을 의미한다. 광학 처리부(157)는 모듈레이터(158)의 전후에 위치할 수 있다.The
모듈레이터(158)는 제어부(180)의 제어신호에 의하여 이미지를 형성할 수 있다. 모듈레이터(158)는 빛이 투과되는 정도, 빛이 반사되는 정도 등을 조절하여 빛의 명암을 조절할 수 있다. 즉, RGB 형태의 빛이 모듈레이터(158)를 통과하며 일정한 형상을 가지게 됨을 의미한다. 따라서 모듈레이터(158)를 통과한 후에 광학 처리부(157)를 더 거쳐 투영면(PL)에 빛이 비추어지면, 사용자가 시각적으로 인식할 수 있는 형상이 보여질 수 있다.The
도 5 및 도 6은 도 4 프로젝터 모듈 및 카메라의 작동을 도시한 도면이다.5 and 6 are views illustrating the operation of the projector module and the camera of FIG. 4.
이들 도면에 도시한 바와 같이, 본 발명의 일 실시예에 따른 이동 단말기(100)는 프로젝션 방식으로 영상을 투사하고, 투사한 영상에 대한 제스쳐 동작을 인식하여 특정 기능이 실행되도록 할 수 있다.As shown in these figures, the
도 5에 도시한 바와 같이, 사용자는 수신한 메시지(DM)를 투영면(PL)에 조사할 수 있다. 투영면(PL)에 대한 영상의 조사는, 프로젝터(도 4의 155)를 통하여 이루어질 수 있다. 제어부(도 1의 180)는 투영면(PL)에 대하여 영상이 조사되는 시점부터 디스플레이(20)에 표시되는 영상과, 투영면(PL)에 표시되는 영상이 서로 달라지도록 할 수 있다. 즉, 디스플레이(20)에는 투영되는 콘텐츠에 대한 간단한 설명이 표시되고, 투영면(PL)에는 콘텐츠 자체가 표시될 수 있음을 의미한다. 예를 들어, 도시한 바와 같이, 디스플레이(20)에는 James Brown으로부터 메시지가 12:59 am 에 도착하였음을 표시하고, 투영면(PL)에는 수신한 메시지(DM) 자체가 표시될 수 있음을 의미한다.As illustrated in FIG. 5, the user may examine the received message DM on the projection surface PL. Irradiation of the image onto the projection surface PL may be performed through the
도 6에 도시한 바와 같이, 사용자는 손가락(F) 등으로 메뉴(ME)를 선택하는 제스쳐를 취할 수 있다. 사용자가 제스쳐를 취하면, 제어부(도 1의 180)는 카메라(도 3의 121)를 통하여 촬영된 영상을 분석하여 이를 인식할 수 있다. 즉, 제어부(도 1의 180)가 카메라(도 3의 121)에서 촬영된 영상을 분석하여 메뉴(ME) 영역에 제스쳐가 있었는지 여부, 제스쳐가 있다면 어떠한 제스쳐 인지를 판단할 수 있다. 예를 들어, 도시한 바와 같이, 사용자는 손가락(F)으로 메뉴(ME) 중에서 ‘Reply’부분을 터치하는 제스쳐 동작을 취하고 있다. 이와 같은 제스쳐 동작이 카메라(도 3의 121)로 촬영되어 제어부(도 1의 180)에 전달되면, 제어부(도 1의 180)는 제스쳐 동작을 분석하여 메뉴(ME)의 특정 영역에 대한 터치동작임을 판단할 수 있다. 메뉴(ME)의 특정 영역에 대한 터치동작인 것으로 판단하면, 제어부(도 1의 180)는 터치된 지점을 시각적으로 표시하는 인디케이터를 표시하고 그 터치동작에 대응된 기능을 실행할 수 있다.As shown in FIG. 6, the user may make a gesture of selecting the menu ME with the finger F or the like. When the user makes a gesture, the
도 7은 도 1 이동 단말기의 문자입력모드 진입에 따른 작동 과정을 도시한 플로우챠트이다.FIG. 7 is a flowchart illustrating an operation process according to entry of a text input mode of the mobile terminal of FIG. 1.
이에 도시한 바와 같이, 본 발명의 일 실시예에 따른 이동 단말기(100)의 제어부(도 1의 180)는 문자입력모드로 진입하는 단계(S10)를 개시되도록 할 수 있다.As shown in FIG. 1, the controller (180 of FIG. 1) of the
문자입력모드는 사용자로부터 각종 문자를 입력받을 수 있는 상태가 되도록 함을 의미한다. 즉, 메시지의 작성, 이메일의 작성, 각종 메모의 작성 등 문자입력이 필요한 상태일 수 있다. 예를 들어, 상대방으로부터 메시지를 수신받은 경우에, 사용자가 ‘응답’버튼을 선택하면 문자입력모드로 진입할 수 있다. 또한, 사용자가 메모 작성을 위한 메뉴를 선택하는 순간 문자입력모드로 진입할 수 있다. 문자입력모드에서 입력할 수 있는 ‘문자’는 알파벳 등 특정한 언어의 문자 및 각종 기호, 수식 등을 포함할 수 있다.The text input mode means that the user can enter various characters from the user. That is, a text input may be required, such as writing a message, writing an email, or writing various memos. For example, when receiving a message from the other party, when the user selects the 'response' button may enter the text input mode. In addition, when the user selects a menu for writing a memo, the user may enter the text input mode. 'Character' that can be input in the text input mode may include characters of a specific language such as alphabets, various symbols, and equations.
문자입력모드로 진입하면, 제어부(도 1의 180)는 제 1,2문자입력모드 중 어느 하나를 선택하는 단계(S20) 및 선택된 문자입력모드로 문자입력이 수행되는 단계(S30, S40)를 진행할 수 있다.When entering the character input mode, the controller (180 of FIG. 1) selects one of the first and second character input modes (S20) and performs character input in the selected character input mode (S30, S40). You can proceed.
제 1,2문자입력모드 중 어느 하나에 대한 선택은, 사용자의 선택 또는 제어부(도 1의 180)의 제어동작에 의하여 진행될 수 있다. 사용자의 선택에 의하여 진행되는 경우는, 메뉴(menu)를 통하여 선택하는 경우일 수 있다. 즉, 문자입력 메뉴의 서브 메뉴(sub menu) 또는 팝업창을 통한 선택을 통하여 제 1,2문자입력모드 중 어느 하나의 문자입력모드가 진행될 수 있다. 제어부(도 1의 180)의 제어동작에 의하여 진행되는 경우는, 특정한 순간의 상태에 대한 제어부(도 1의 180)의 판단에 의하여 제 1,2문자입력모드 중 어느 하나의 문자입력모드가 진행될 수 있다. 제 1,2문자입력모드 중 어느 하나에 대한 선택은 해당하는 부분에서 보다 구체적으로 설명하도록 한다.The selection of any one of the first and second character input modes may be performed by a user's selection or a control operation of the
제 1문자입력모드는 가상키(virtual key, 도 9의 VK)를 통한 문자입력(S30)일 수 있다. 가상키(도 9의 VK)는 쿼티(QWERTY)자판의 배열을 따라 표시될 수 있다. 가상키(도 9의 VK)는 프로젝터(도 3의 155)에 의하여 표시될 수 있다. 즉, 제 1문자입력모드가 활성화되면, 제어부(도 1의 180)은 프로젝터(도 3의 155)를 작동시켜 가상키(도 9의 VK)가 표시되도록 할 수 있다. 사용자는 가상키(도 9의 VK)에 대한 터치동작을 통하여 문자를 입력할 수 있다. 따라서 문자의 입력을 보다 분명하게 수행할 수 있다. 즉, 표시된 키에 대한 터치동작이 수행되면 카메라(도 3의 121)가 그 터치동작을 촬영하여 어떠한 키가 터치되었는지 판단하므로, 사용자가 입력하고자 의도한 문자가 정확하게 입력될 수 있다.The first character input mode may be a character input S30 through a virtual key (VK of FIG. 9). The virtual key (VK of FIG. 9) may be displayed along an array of QWERTY keyboards. The virtual key (VK of FIG. 9) may be displayed by the
제 2문자입력모드는 제스쳐를 통한 문자입력(S40)일 수 있다. 제 2문자입력모드에서의 제스쳐는 필기입력 제스쳐일 수 있다. 즉, 사용자가 손가락 등으로 가상 평면에 문자를 그리는 제스쳐를 취하면, 카메라(도 3의 121)가 이를 촬영하여 어떠한 문자가 입력되었는지 판단할 수 있다. 제 2문자입력모드에 의하면, 제 1문자입력모드를 통한 입력의 경우보다 보다 문자입력의 자유도가 높을 수 있다. 예를 들어, 자신만의 특징을 부여하여 독득하게 문자를 표시하거나, 각종 그림을 그릴 수 있다. 따라서 이를 상대방에게 송부하면, 감정적 교감이 보다 풍부해지는 효과를 기대할 수 있다.The second character input mode may be a character input through a gesture (S40). The gesture in the second character input mode may be a handwriting input gesture. That is, when the user makes a gesture of drawing a character on the virtual plane with a finger or the like, the camera (121 of FIG. 3) may photograph the image to determine which character is input. According to the second character input mode, the degree of freedom of character input may be higher than that of the input through the first character input mode. For example, it is possible to display a character or draw various pictures by giving its own characteristics. Therefore, when sent to the other party, the effect can be expected to be richer emotional sympathy.
제어부(도 1의 180)는 문자입력모드가 종료되었는가 여부를 판단(S50)하여, 종료되지 않은 경우에는 해당하는 문자입력모드로의 문자입력을 계속할 수 있다.The controller (180 of FIG. 1) determines whether the text input mode is terminated (S50), and if not, the controller (180 of FIG. 1) may continue inputting the text into the corresponding text input mode.
도 8은 도 7 가상키를 통한 문자입력 단계를 보다 구체화한 플로우챠트이고, 도 9는 도 8 가상키를 통한 문자입력 과정을 도시한 도면이다.FIG. 8 is a flowchart more specifically illustrating a character input step through the virtual key of FIG. 7, and FIG. 9 is a diagram illustrating a character input process through the virtual key of FIG. 8.
이들 도면에 도시한 바와 같이, 본 발명의 일 실시예에 따른 이동 단말기(100)에서 가상키(VK)를 통한 문자입력 단계(도 7의 S30)는, 프로젝터 모듈을 활성화하는 단계(S31)로부터 개시될 수 있다.As shown in these figures, the character input step (S30 of FIG. 7) through the virtual key (VK) in the
프로젝터 모듈(도 3의 155)이 활성화되면, 영상을 투영면(PL)에 조사할 수 있는 상태가 될 수 있다. 특정 상태에 있을 때 제어부(도 1의 180)가 선택적으로 프로젝터 모듈(도 3의 155)을 활성화하므로, 배터리 전원의 낭비하는 효과를 기대할 수 있다.When the
프로젝터 모듈이 활성화되면, 가상키(VK)를 표시하는 단계(S33)가 진행될 수 있다.When the projector module is activated, step S33 of displaying the virtual key VK may be performed.
가상키(VK)는 프로젝터 모듈(도 3의 155)에 의하여, 투영면(PL)에 표시될 수 있다. 가상키(VK)는 쿼티형 자판배열 등으로 표시될 수 있다.The virtual key VK may be displayed on the projection surface PL by the
가상키(VK)를 표시하는 한편, 카메라(도 3의 121)를 활성화하는 단계(S35)가 진행될 수 있다.While displaying the virtual key VK, the step S35 of activating the
카메라(도 3의 121)가 활성화 되면, 가상키(VK)에 대한 사용자의 터치입력을 촬영할 수 있다. 특정 상태에 있을 때 제어부(도 1의 180)가 선택적으로 카메라(도 3의 121)를 활성화하므로, 배터리 전원의 낭비를 방지하는 효과를 기대할 수 있다.When the
카메라(도 3의 121)가 활성화 되면, 가상키(VK)에 대한 터치동작을 감지하는 단계(S37)가 진행될 수 있다.When the
프로젝터 모듈(도 3의 155)에 의하여 가상키(VK)가 표시되고 카메라(도 3의 121)가 활성화 되면, 사용자가 가상키(VK)에 대하여 취하는 터치동작을 감지할 수 있다. 즉, 사용자가 손가락(F) 등으로 행하는 제스쳐가 카메라(도 3의 121)를 통하여 촬영될 수 있음을 의미한다.When the virtual key VK is displayed by the
가상키(VK)에 대한 터치동작을 감지하면, 감지한 터치동작에 대응된 키 값(IM)을 표시하는 단계(S39)가 진행될 수 있다.If a touch operation on the virtual key VK is detected, step S39 of displaying a key value IM corresponding to the detected touch operation may be performed.
제어부(도 1의 180)은 가상키(VK)에 대한 터치동작을 분석하여 가상키(VK)의 어떤 부분이 터치되었는지 판단할 수 있다. 가상키(VK)의 특정 부분에 대한 터치가 판단되면, 제어부(도 1의 180)는 프로젝터 모듈(도 3의 155)을 통하여 그 키 값(IM)이 표시되도록 할 수 있다. 즉, 사용자가 입력한 값이 표시되도록 할 수 있다. 따라서 사용자는 자신이 의도한 대로 입력되었는가 여부를 즉시 확인할 수 있다. 나아가, 사용자가 입력한 키 값은 스틱형 몸체(10)에 마련된 디스플레이(151)에도 표시될 수 있다.The
도 10 및 도 11은 카메라를 통한 제스쳐 입력을 찰영하는 과정을 도시한 도면이다.10 and 11 illustrate a process of gesturing a gesture input through a camera.
도 10에 도시한 바와 같이, 제어부(180)는 프로젝터 모듈(155) 및 카메라(121)를 제어할 수 있다. 제어부(180)의 제어신호에 의하여 프로젝터 모듈(155)은 영상(PI)을 조사할 수 있다. 조사하는 영상(PI)에는 제 1,2가상키(VK1, VK2)가 포함될 수 있다. As shown in FIG. 10, the
사용자는 제 1위치(FA)에서 제 2위치(FB)로 손가락을 이동할 수 있다.The user may move a finger from the first position FA to the second position FB.
사용자가 손가락을 이동시키는 영상은, 카메라(121)에 의하여 촬영될 수 있다. 카메라(121)에 의하여 촬영된 영상은 제어부(180)에 의하여 분석되어, 사용자가 제 1,2가상키(VK1, VK2) 중 어떤 키에 대한 터치입력을 수행하는지 여부를 판단할 수 있다.An image in which the user moves a finger may be photographed by the
도 11에 도시한 바와 같이, 사용자가 손가락을 3차원 공간상에서 이동하더라도, 2차원 평면상의 이동으로 해석될 수 있다. 즉, 카메라(121)에서 촬영된 3차원의 손가락의 영상을 XY평면 상의 2차원 손가락 영상으로 근사화 또는 변형할 수 있음을 의미한다. 제어부(180)는, 2차원 영상화한 손가락의 이동과 표시된 제 1,2가상키(VK1, VK2)의 좌표를 고려하여 터치동작이 입력된 위치를 판단할 수 있다.As shown in Fig. 11, even if a user moves a finger in three-dimensional space, it can be interpreted as a movement on a two-dimensional plane. That is, it means that the image of the three-dimensional finger photographed by the
도 12는 도 7 제스쳐를 통한 문자입력 단계를 보다 구체화한 플로우챠트이고, 도 13은 제스쳐를 통한 문자입력 과정을 도시한 도면이다.FIG. 12 is a flowchart illustrating a text input step through the gesture of FIG. 7, and FIG. 13 illustrates a text input process through a gesture.
이들 도면에 도시한 바와 같이, 본 발명의 일 실시예에 따른 이동 단말기(100)에서 제스쳐를 통해 문자를 입력받는 단계(도 7의 S40)는, 프로젝터 모듈(도 3의 155)을 활성화 하는 단계(S41)로부터 개시될 수 있다.As shown in these figures, in the
프로젝터 모듈(도 3의 155)이 활성되면, 카메라(도 3의 121)를 활성화하는 단계(S43)가 진행될 수 있다.When the
카메라(도 3의 121)가 활성화되면, 사용자가 취한 제스쳐를 감지하는 단계(S45)가 진행될 수 있다.When the
사용자의 제스쳐는 필기입력 제스쳐일 수 있다. 즉, 가상 평면상에서 손가락(F)을 움직여 문자를 그리는 제스쳐일 수 있다. 가상키(도 9의 VK)를 이용한 입력방식에 대하여, 필기입력 제스쳐를 인식한 문자입력 방식은 입력자 각각의 개성을 보다 뚜렷하게 표현할 수 있다. 즉, 입력자 각각의 독특한 필기입력 방식이 그대로 표현할 수 있음을 의미한다. 카메라(도 3의 121)는 사용자가 취한 제스쳐를 촬영하고, 제어부(도 1의 180)는 촬영한 영상을 분석하여 어떠한 문자가 입력되었는지 여부를 판단할 수 있다.The gesture of the user may be a handwriting input gesture. That is, it may be a gesture of drawing a character by moving the finger F on the virtual plane. With respect to the input method using the virtual key (VK of FIG. 9), the character input method recognizing the handwriting input gesture can express the individuality of each inputter more clearly. That is, the unique handwriting input method of each inputter can be expressed as it is. The camera (121 of FIG. 3) photographs a gesture taken by the user, and the controller (180 of FIG. 1) may analyze the photographed image to determine whether any character is input.
제스쳐를 감지하면, 감지한 제스쳐에 대응된 영상을 표시하는 단계(S47)가 진행될 수 있다.When the gesture is detected, step S47 of displaying an image corresponding to the detected gesture may be performed.
감지한 제스쳐에 대응된 영상은, 사용자가 취한 필기입력 제스쳐의 궤적을 따라 표현될 수 있다. 따라서 사용자는 자신이 의도한 대로 입력이 되었는지 여부를 입력과 실질적으로 동시에 확인할 수 있다. 나아가, 사용자가 입력한 키 값은 스틱형 몸체(10)에 마련된 디스플레이(151)에도 표시될 수 있다.The image corresponding to the detected gesture may be expressed along the trajectory of the handwriting input gesture taken by the user. Therefore, the user can check whether the input has been performed as he intended, at the same time as the input. Furthermore, the key value input by the user may be displayed on the
도 14는 본 발명의 다른 실시예에 따른 콘텐츠 표시모드에 따른 작동 과정을 도시한 플로유챠트이고, 도 15 및 도 16은 콘텐츠 표시 상태를 도시한 도면이다.14 is a flowchart illustrating an operation process according to a content display mode according to another embodiment of the present invention, and FIGS. 15 and 16 are views illustrating a content display state.
도 14에 도시한 바와 같이, 본 발명의 다른 실시예에 이동 단말기(100)의 제어부(도 1의 180)은, 콘테츠 표시모드에 진입하는 단계(S60)가 진행되도록 할 수 있다.As shown in FIG. 14, according to another embodiment of the present invention, the controller (180 of FIG. 1) of the
콘텐츠 표시모드에 진입하면, 프로젝터 모듈을 활성화 하는 단계(S70) 및 모션센서 모듈(도 18의 142)을 활성화 하는 단계(S80)가 진행될 수 있다.When entering the content display mode, a step S70 of activating the projector module and a step S80 of activating the
모션센서 모듈(도 18의 142)은 이동 단말기(100) 자체가 3차원 공간상에서 이동하는 궤적 및 속도를 감지할 수 있는 모듈이다. The
모션센서 모듈(도 18의 142)이 활성화되면, 이동 단말기(100)의 모션을 감지하는 단계(S90) 및 감지한 모션을 반영하여 표시화면을 변환하는 단계(S100)가 진행될 수 있다.When the
사용자가 이동 단말기(100) 자체에 대하여 제스쳐는, 그 제스쳐에 대응하여 현재 표시되고 있는 화면의 표시가 변환되도록 하는 것을 목적할 수 있다. 따라서 모션센서 모듈(도 18의 142)에 의하여 사용자의 제스쳐가 감지되면, 제어부(도 1의 180)는 프로젝터 모듈(도 3의 155)에 의하여 표시되는 화면의 표시를 변경할 수 있다.The user's gesture with respect to the
도 15에 도시한 바와 같이, 이동 단말기(100)의 프로젝터 모듈(도 3의 155)에 의하여, 콘텐츠(C)가 표시될 수 있다. 이때, 콘텐츠(C) 전체는 표시된 제 1영역(PA1)에 비하여 클 수 있다. 다만, 프로젝터 모듈(도 3의 155)에 의하여 표시될 수 있는 영역의 한계로 인하여, 콘텐츠(C) 전체 중 제 1영역(PA1) 만이 사용자에게 보여질 수 있다. 이때, 사용자는 스틱형 몸체(10)를 상하 좌우로 이동하는 제스쳐를 통하여 콘텐츠(C)가 표시되는 부분이 변화되도록 할 수 있다.As illustrated in FIG. 15, the content C may be displayed by the
도 16에 도시한 바와 같이, 현재 표시되고 있는 제 1영역(PA)은 콘텐츠(C) 전체의 일부 영역일 수 있다. 사용자는 현재 위치에서 좌측으로 스틱형 몸체(10)를 이동함으로써 제 2영역(PA2)이 표시되도록 할 수 있다. 또한, 좌측으로 짧고 빠르게 이동하는 제스쳐를 취함으로써 제 1영역(PA1)에서 제 3영역(PA3)으로의 전환이 빠르게 이루어지도록 할 수 있다. 이와 같은 제스쳐는, 상하 좌우 방향으로 행하여 질 수 있으며, 제스쳐가 행하여지는 속도에 따라서 화면이 전환되는 속도도 달라질 수 있다.As illustrated in FIG. 16, the currently displayed first area PA may be a partial area of the entire content C. As shown in FIG. The user may cause the second area PA2 to be displayed by moving the stick-shaped
도 17 내지 도 19는 도 1 이동 단말기의 동작을 도시한 도면이다.17 to 19 are diagrams illustrating the operation of the mobile terminal of FIG. 1.
도 17에 도시한 바와 같이, 모션센서 모듈(142)은 이동 단말기의 끝단 내측에 위치할 수 있다. 제 1위치(P1)는 제 1이동단말기(100a)에 대응되고, 제 2위치(P2)는 제 2이동단말기(100b)에 대응되며, 제 3위치(P3)는 제 3이동단말기(100c)에 대응될 수 있다. 사용자는 이동 단말기(100)의 상측을 잡고 이동 단말기(100)를 이동시킬 것으로 예상할 수 있으므로, 사용자가 파지하는 위치의 반대 방향 끝단 측에 모션센서 모듈(142)이 위치되도록 하는 것이 이동 단말기(100)에 가하는 사용자의 제스쳐를 효과적으로 감지할 수 있다. 다만, 모센센서 모듈(142)의 위치와 개수가 이에 한정되는 것이 아님은 물론이다.As shown in FIG. 17, the
도 18에 도시한 바와 같이, 사용자가 이동 단말기(100)를 잡고 3차원 공간을 이동할 수 있다. 즉, 제 1위치(P1)에서 시작하여 제 2위치(P2)를 거쳐 제 3위치(P3)까지 이동할 수 있다. 각 위치를 이동할 때는, 각도 및 가속도가 상이할 수 있다. 모션센서 모듈(도 1의 142)은 이와 같은 각도 및 가속도의 변화를 감지함으로써 사용자의 제스쳐 입력을 감지할 수 있다.As illustrated in FIG. 18, the user may move the three-dimensional space by holding the
도 19에 도시한 바와 같이, 이동 단말기(100)의 이동은 궤적(TR)으로 표현될 수 있다. 궤적(TR)은 특정한 문자를 나타내기 위하여 이동 단말기(100)가 공간상에서 이동하는 경로를 나타낸다. 궤적(TR)의 기울기(TL1, TL2)와 특정 기울기(TL1, TL2) 전후의 시간을 고려함으로써 제어부(TR)는 이동 단말기(100) 궤적(TR)의 변경을 판별할 수 있다. 따라서 궤적(TR)의 변경을 계속하여 추적하면, 사용자가 이동 단말기(100)를 통하여 나타내고자 하는 문자를 인식할 수 있다.As shown in FIG. 19, the movement of the
도 20은 도 15에 따른 콘텐츠의 다른 예를 도시한 도면이다.20 is a diagram illustrating another example of the content according to FIG. 15.
이에 도시한 바와 같이, 본 발명의 콘텐츠(C)는 웹페이지(WP)일 수 있다. 표시되어야 할 웹페이지(WP)의 면적이, 표시영역(PA)보다 클 수 있다. 따라서 제어부(도 1의 180)는 이동 단말기(100)의 현재 자세에 기초하여 웹페이지(WP)의 일부 영역을 표시할 수 있다. 또한 이동 단말기(100)에 가해지는 사용자의 제스쳐에 따라서 현재의 표시영역(PA)에서 상측 똔느 하측을 표시할 수 있다.As shown in the drawing, the content C of the present invention may be a web page WP. The area of the web page WP to be displayed may be larger than the display area PA. Accordingly, the
도 21 및 도 22는 본 발명의 또 다른 실시예에 따른 콘텐츠 표시 상태를 도시한 도면이다.21 and 22 are diagrams illustrating a content display state according to another embodiment of the present invention.
이들 도면에 도시한 바와 같이, 본 발명의 일 실시예에 따른 이동 단말기(100)의 제어부(도 1의 180)는, 스틱형 몸체(10)를 돌리는 등의 동작에 대응하여 표시되는 화면의 크기를 변환할 수 있다.As shown in these figures, the controller (180 of FIG. 1) of the
도 21에 도시한 바와 같이, 수신한 메시지(DM)가 표시될 수 있다. 그런데 표시된 수신한 메시지(DM)에 포함된 글씨가 작게 표현될 수 있다. 이와 같은 경우에, 사용자는 스틱형 몸체(10) 자체를 특정 방향으로 회전시킬 수 있다. 즉, 스틱형 몸체(10)의 축방향에 대하여 시계방향 또는 반시계방향으로 회전하는 제스쳐를 취할 수 있다. 또는, 제 1,2스틱형 몸체(12, 14) 중에서 제 1스틱형 몸체(12)를 회전시킬 수 있다. 즉, 제 2스틱형 몸체(14)에 대하여 제 1스틱형 몸체(12)가 상대회전 하도록 함을 의미한다.As shown in FIG. 21, the received message DM may be displayed. However, the text included in the displayed received message DM may be represented small. In such a case, the user can rotate the stick-shaped
도 22에 도시한 바와 같이, 사용자가 취한 제스쳐에 대응하여, 제어부(도 1의 180)는 표시된 화면의 크기를 확대할 수 있다. 도 21 및 도 22에서는 화면의 확대를 표현하였으나, 그 반대의 경우도 가능함은 물론이다.As illustrated in FIG. 22, in response to the gesture taken by the user, the
도 23 및 도 24는 본 발명의 또 다른 실시예에 따른 콘텐츠 표시 상태를 도시한 도면이다.23 and 24 illustrate a content display state according to another embodiment of the present invention.
이들 도면에 도시한 바와 같이, 본 발명의 일 실시예에 따른 이동 단말기(100)의 제어부(도 1의 180)는, 이동 단말기(100)와 표시된 콘텐츠(C) 사이의 거리에 따라서 영상의 크기를 조절할 수 있다.As shown in these figures, the controller (180 of FIG. 1) of the
도 23에 도시한 바와 같이, 이동 단말기(100)와 표시된 콘텐츠(C) 사이는 제 1거리(D1) 만큼 이격되어 있을 수 있으며, 이때 콘텐츠(C)는 상대적으로 작은 크기로 표현될 수 있다.As shown in FIG. 23, the
도 24에 도시한 바와 같이, 사용자가 이동 단말기(100)를 콘텐츠(C)에 접근시켜 제 1거리(D1)보다 가까운 제 2거리(D2)에 이르면, 콘텐츠(C)가 확대될 수 있다. 표시된 콘텐츠(C)와 이동 단말기(100) 사이의 거리는 거리센서 등을 통하여 감지될 수 있다.As shown in FIG. 24, when the user approaches the content C and reaches the second distance D2 closer to the first distance D1, the content C may be enlarged. The distance between the displayed content C and the
도 25는 본 발명의 또 다른 실시예에 따른 이동 단말기를 도시한 도면이다.25 is a diagram illustrating a mobile terminal according to another embodiment of the present invention.
이에 도시한 바와 같이, 본 발명의 다른 실시예에 따른 이동 단말기(100)는 콘텐츠를 다른 전자 디바이스(200, 300, 400)로 송신할 수 있다. 예를 들어, TV(200)의 디스플레이(251)에 수신한 메시지가 표시되도록 하는 등의 동작이 가능할 수 있음을 의미한다. 이때, 송신할 다른 전자 디바이스(200, 300, 400)는, 이동 단말기(100)가 위치한 장소, 이동 단말기(100)와의 거리 등에 따라서 자동적으로 조절되거나, 사용자가 특정 전자 디바이스(200, 300, 400)를 선택할 수 있다.As shown in the drawing, the
이와 같이 본 발명은 기재된 실시예들에 한정되는 것이 아니고, 본 발명의 사상 및 범위를 벗어나지 않고 다양하게 수정 및 변형할 수 있음은 이 기술의 분야에서 통상의 지식을 가진 자에게 자명하다. 따라서, 그러한 수정예 또는 변형예들은 본 발명의 특허청구범위에 속한다 하여야 할 것이다.As described above, the present invention is not limited to the described embodiments, and various modifications and changes can be made without departing from the spirit and scope of the present invention. Accordingly, such modifications or variations are intended to fall within the scope of the appended claims.
100 : 이동 단말기 110 : 무선 통신부
140 : 센싱부 151 : 디스플레이부
180 : 제어부100: mobile terminal 110: wireless communication unit
140: sensing unit 151: display unit
180:
Claims (20)
상기 스틱형 몸체의 일단에 마련된 프로젝터;
사용자의 제스쳐 입력을 감지하는 제스쳐 감지센서; 및
상기 제스쳐 감지센서의 동작을 통하여 문자를 입력받되, 상기 프로젝터에 의하여 표시된 가상키(virtual key)에 대한 상기 사용자의 제스쳐를 통하여 상기 문자를 입력받는 제 1문자입력모드와, 상기 사용자의 필기입력 제스쳐를 통하여 상기 문자를 입력받는 제 2문자입력모드 중 어느 하나의 문자입력모드를 선택적으로 활성화하는 제어부를 포함하는 이동 단말기.Stick-shaped body;
A projector provided at one end of the stick-shaped body;
A gesture sensor for detecting a gesture input of a user; And
A first text input mode in which text is input through an operation of the gesture detecting sensor and the text is input through a gesture of the user with respect to a virtual key displayed by the projector; and a handwriting input gesture of the user And a controller for selectively activating any one of the second text input modes through which the text is input.
상기 제 1문자입력모드는, SMS 문자메시지 작성모드, 이메일 작성모드, 메모 작성모드 중 적어도 어느 하나이며,
상기 제 2문자입력모드는, MMS 문자메시지 작성모드, 그림 작성모드 중 적어도 어느 하나인 것을 특징으로 하는 이동 단말기.The method of claim 1,
The first text input mode is at least one of an SMS text message writing mode, an email writing mode, and a memo writing mode.
The second text input mode is at least one of an MMS text message creation mode and a picture creation mode.
상기 제스쳐 감지센서는,
상기 일단에 마련되어, 상기 사용자가 취한 상기 제스쳐 영상을 촬영하는 카메라인 것을 특징으로 하는 이동 단말기.The method of claim 1,
The gesture sensor,
And a camera provided at the one end to capture the gesture image taken by the user.
상기 카메라는,
실질적으로 상기 프로젝터에서 조사(照射)된 영상의 표시범위 내에서 사용자가 취한 상기 제스쳐를 촬영하는 것을 특징으로 하는 이동 단말기.The method of claim 3,
The camera,
And the user's gesture taken within the display range of the image irradiated from the projector.
상기 제어부는,
상기 제 1,2문자입력모드 중 어느 하나의 문자입력모드를 선택적으로 활성화할 때, 상기 카메라를 함께 활성화 하는 것을 특징으로 하는 이동 단말기.The method of claim 3,
The control unit,
And selectively activating any one of the first and second text input modes in the text input mode.
상기 제스쳐 감지센서는,
상기 스틱형 몸체에 대한 상기 제스쳐 입력을 감지하는 모션센서 모듈인 것을 특징으로 하는 이동 단말기.The method of claim 1,
The gesture sensor,
The mobile terminal, characterized in that the motion sensor module for detecting the gesture input to the stick-shaped body.
상기 가상키는,
쿼티(QWERTY) 자판배열을 따라 표시되는 것을 특징으로 하는 이동 단말기.The method of claim 1,
The virtual key,
QWERTY A mobile terminal, characterized in that displayed along the keyboard layout.
상기 제어부는,
상기 문자입력모드가 활성화되었을 때, 상기 입력받은 문자가 상기 프로젝터에 의하여 표시되도록 하는 것을 특징으로 하는 이동 단말기.The method of claim 1,
The control unit,
And when the text input mode is activated, the received text is displayed by the projector.
상기 제어부는,
상기 제 2문자입력모드가 활성화되었을 때, 상기 필기입력 제스쳐의 궤적을 따라 상기 입력받은 문자가 표시되도록 하는 것을 특징으로 하는 이동 단말기.The method of claim 8,
The control unit,
And when the second character input mode is activated, the received character is displayed along the trajectory of the handwriting input gesture.
상기 스틱형 몸체의 외주면(外周面)을 따라 곡면으로 마련된 터치스크린을 더 포함하는 것을 특징으로 하는 이동 단말기.The method of claim 1,
The mobile terminal further comprises a touch screen provided with a curved surface along the outer circumferential surface of the stick-shaped body.
상기 스틱형 몸체의 일단에 마련된 프로젝터;
사용자의 제스쳐 동작을 촬영하는 카메라; 및
상기 카메라가 촬영한 영상에 기초하여 문자를 입력받되, 상기 프로젝터에 의하여 표시된 가상키에 대한 터치동작인 제 1제스쳐를 통하여 상기 문자를 입력받는 제 1문자입력모드와, 필기입력 동작인 제 2제스쳐를 통하여 상기 문자를 입력받는 제 2문자입력모드 중 어느 하나의 문자입력모드를 선택적으로 활성화하는 제어부를 포함하는 이동 단말기.Stick-shaped body;
A projector provided at one end of the stick-shaped body;
A camera for photographing a gesture of a user; And
A first text input mode for receiving text based on an image captured by the camera, the first text input mode for receiving the text through a first gesture of touch on a virtual key displayed by the projector, and a second gesture of handwriting input; And a controller for selectively activating any one of the second text input modes through which the text is input.
상기 제 1문자입력모드는, SMS 문자메시지 작성모드, 이메일 작성모드, 메모 작성모드 중 적어도 어느 하나이며,
상기 제 2문자입력모드는, MMS 문자메시지 작성모드, 그림 작성모드 중 적어도 어느 하나인 것을 특징으로 하는 이동 단말기.12. The method of claim 11,
The first text input mode is at least one of an SMS text message writing mode, an email writing mode, and a memo writing mode.
The second text input mode is at least one of an MMS text message creation mode and a picture creation mode.
상기 제어부는,
상기 제 1,2문자입력모드 중 어느 하나의 문자입력모드를 선택적으로 활성화할 때, 상기 카메라를 함께 활성화 하는 것을 특징으로 하는 이동 단말기.12. The method of claim 11,
The control unit,
And selectively activating any one of the first and second text input modes in the text input mode.
상기 제어부는,
상기 문자입력모드가 활성화되었을 때, 상기 입력받은 문자가 상기 프로젝터에 의하여 표시되도록 하는 것을 특징으로 하는 이동 단말기.12. The method of claim 11,
The control unit,
And when the text input mode is activated, the received text is displayed by the projector.
상기 스틱형 몸체의 외주면(外周面)을 따라 곡면으로 마련된 터치스크린을 더 포함하는 것을 특징으로 하는 이동 단말기.12. The method of claim 11,
The mobile terminal further comprises a touch screen provided with a curved surface along the outer circumferential surface of the stick-shaped body.
상기 선택된 어느 하나의 문자입력모드에 따라 사용자의 문자입력을 수신하는 단계를 포함하며,
상기 제 1문자입력모드는, 프로젝터에 의하여 표시된 가상키(virtual key)에 대한 상기 사용자의 제스쳐에 기초하여 상기 문자입력을 수신하며,
상기 제 2문자입력모드는, 사용자의 필기입력 제스쳐에 기초하여 상기 문자입력을 수신하는 것을 특징으로 하는 이동 단말기의 제어방법.Receiving a selection signal for any one of a first text input mode and a second text input mode; And
Receiving a text input of the user according to the selected text input mode;
The first text input mode receives the text input based on the user's gesture with respect to the virtual key displayed by the projector,
The second text input mode is a control method of a mobile terminal, characterized in that for receiving the text input based on a user's handwriting input gesture.
프로젝터 및 카메라를 활성화 하는 단계; 및
상기 활성화된 카메라로 상기 제스쳐를 촬영하는 단계를 더 포함하는 이동 단말기의 제어방법.17. The method of claim 16,
Activating the projector and the camera; And
And photographing the gesture with the activated camera.
상기 표시된 가상키에 대한 상기 사용자의 제스쳐는,
상기 표시된 가상키에 대한 터치동작인 것을 특징으로 하는 이동 단말기의 제어방법.17. The method of claim 16,
The user's gesture with respect to the displayed virtual key is
And a touch operation on the displayed virtual key.
상기 수신한 문자입력을 상기 프로젝터를 통하여 표시하는 단계를 더 포함하는 이동 단말기의 제어방법.17. The method of claim 16,
And displaying the received text input through the projector.
상기 제 2문자입력모드는,
상기 필기입력 제스쳐의 궤적을 따라 상기 수신한 문자입력을 상기 프로젝터를 통하여 표시하는 것을 특징으로 하는 이동 단말기의 제어방법.The method of claim 19,
The second character input mode,
And displaying the received text input through the projector along the trajectory of the handwriting input gesture.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020100041562A KR20110122005A (en) | 2010-05-03 | 2010-05-03 | Mobile terminal and control method thereof |
US13/088,114 US8896578B2 (en) | 2010-05-03 | 2011-04-15 | Mobile terminal and method of controlling the same |
EP11003294.3A EP2385684B1 (en) | 2010-05-03 | 2011-04-19 | Mobile terminal with elongated body and projector |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020100041562A KR20110122005A (en) | 2010-05-03 | 2010-05-03 | Mobile terminal and control method thereof |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20110122005A true KR20110122005A (en) | 2011-11-09 |
Family
ID=45392710
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020100041562A KR20110122005A (en) | 2010-05-03 | 2010-05-03 | Mobile terminal and control method thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20110122005A (en) |
-
2010
- 2010-05-03 KR KR1020100041562A patent/KR20110122005A/en not_active Application Discontinuation
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102073827B1 (en) | Electronic device and control method thereof | |
KR101694787B1 (en) | Mobile terminal and control method for mobile terminal | |
KR20110080760A (en) | Mobile terminal and control method thereof | |
KR20150084320A (en) | Mobile terminal and method for controlling the same | |
KR101725388B1 (en) | Mobile terminal and control method therof | |
KR20110055058A (en) | Mobile terminal and control method thereof | |
KR20110080915A (en) | Method, system and mobile terminal for video service providing | |
KR20140033704A (en) | Mobile terminal and control method therof | |
KR20120076137A (en) | Mobile terminal and method for controlling screen display thereof | |
KR101967765B1 (en) | Mobile terminal and method for controlling of the same | |
KR20110028809A (en) | Mobile terminal and information prcessing method thereof | |
KR20140134556A (en) | Electronic device and control method thereof | |
KR20150064535A (en) | Electronic device and control method thereof | |
KR101750896B1 (en) | Mobile terminal and control method therof | |
KR20120023964A (en) | Mobile terminal and control method therof | |
KR101653259B1 (en) | Mobile terminal | |
KR101786513B1 (en) | METHOD FOR enhancing a screen of the mobile terminal | |
KR20110122005A (en) | Mobile terminal and control method thereof | |
KR101060547B1 (en) | Mobile terminal, and security method using the mobile terminal | |
KR20110022780A (en) | Mobile terminal | |
KR20120011138A (en) | Mobile terminal and editing method of augmented reality information using the mobile terminal | |
KR101637389B1 (en) | Mobile terminal and control method thereof | |
KR101657204B1 (en) | Mobile terminal and control method therof | |
KR20150069210A (en) | Electronic device and control method thereof | |
KR102018351B1 (en) | Mobile terminal and control method therof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E601 | Decision to refuse application |