KR20120031805A - Mobile terminal and operation control method thereof - Google Patents

Mobile terminal and operation control method thereof Download PDF

Info

Publication number
KR20120031805A
KR20120031805A KR1020100093414A KR20100093414A KR20120031805A KR 20120031805 A KR20120031805 A KR 20120031805A KR 1020100093414 A KR1020100093414 A KR 1020100093414A KR 20100093414 A KR20100093414 A KR 20100093414A KR 20120031805 A KR20120031805 A KR 20120031805A
Authority
KR
South Korea
Prior art keywords
3d
mobile terminal
projection
operation
control method
Prior art date
Application number
KR1020100093414A
Other languages
Korean (ko)
Inventor
김종환
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020100093414A priority Critical patent/KR20120031805A/en
Publication of KR20120031805A publication Critical patent/KR20120031805A/en

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • G03B35/08Stereoscopic photography by simultaneous recording
    • G03B35/10Stereoscopic photography by simultaneous recording having single camera with stereoscopic-base-defining system
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B1/00Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
    • H04B1/38Transceivers, i.e. devices in which transmitter and receiver form a structural unit and in which at least one part is used for functions of transmitting and receiving
    • H04B1/40Circuits
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers; Analogous equipment at exchanges
    • H04M1/72Substation extension arrangements; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selecting
    • H04M1/725Cordless telephones
    • H04M1/72519Portable communication terminals with improved user interface to control a main telephone operation mode or to indicate the communication status
    • H04M1/72522With means for supporting locally a plurality of applications to increase the functionality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/139Format conversion, e.g. of frame-rate or size
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance

Abstract

PURPOSE: A mobile terminal and an operation control method thereof are provided to control motion related to three-dimensional projection with intuitive manipulation when using a three-dimensional projection function in the mobile terminal. CONSTITUTION: An operation control method for a mobile terminal is as follows. A three-dimensional projector module is installed in a body. Three-dimensional image is projected at an incident plane separate from the body through the three-dimensional projector module(S210). A pre-set three-dimensional gesture is detected according to the analysis of visual data obtained through a camera(S220). Operation related to the three-dimensional projection is implemented corresponding to the detected three-dimensional gesture(S225). The three-dimensional projector module is controlled.

Description

휴대 단말기 및 그 동작 제어방법{Mobile terminal and operation control method thereof} Mobile terminal and its operation control method {Mobile terminal and operation control method thereof}

본 발명은 휴대 단말기 및 그 동작 제어방법에 관한 것으로, 더욱 상세하게는 3D 제스쳐(3D gesture)를 이용하여 3D 프로젝션 관련 기능을 제어할 수 있는 휴대 단말기 및 그 동작 제어방법에 관한 것이다. The present invention relates to a portable terminal, and relates to the operation control method, and more particularly, to a mobile terminal and its operation control method that can control the 3D projection function associated to the 3D gesture (3D gesture).

휴대 단말기는 휴대가 가능하면서 음성 및 영상 통화를 수행할 수 있는 기능, 정보를 입?출력할 수 있는 기능, 및 데이터를 저장할 수 있는 기능 등을 하나 이상 갖춘 휴대용 기기이다. The mobile terminal is a portable device with one or more of the features that you can carry your mouth? Output function, the information that you can perform voice and video calls as possible, and the ability to store data. 이러한 휴대 단말기는 그 기능이 다양화됨에 따라, 사진이나 동영상의 촬영, 음악 파일이나 동영상 파일의 재생, 게임, 방송의 수신, 무선 인터넷 등과 같은 복잡한 기능들을 갖추게 되었으며, 종합적인 멀티미디어 기기(multimedia player) 형태로 구현되고 있다. The mobile terminal as angry that versatile, which was equipped complex features, such as playback of the shooting of photos, videos, music files, video files, games, receiving broadcast, wireless Internet access, comprehensive multimedia equipment (multimedia player) It has been implemented in the form.

이러한 멀티미디어 기기의 형태로 구현된 휴대 단말기는, 복잡한 기능을 구현하기 위해 하드웨어나 소프트웨어적 측면에서 새로운 시도들이 다양하게 적용되고 있다. Such a mobile terminal implemented as a multimedia device, a new approach in terms of hardware or software have been variously applied to implement a complex function. 일 예로 사용자가 쉽고 편리하게 기능을 검색하거나 선택하기 위한 사용자 인터페이스(User Interface) 환경 등이 있다. One such example is the user interface (User Interface) environment for the user to easily and conveniently retrieve or select functions.

한편, 최근에는 3D 입체 영상을 투사할 수 있는 3D 프로젝터도 등장하고 있는데, 이와 같은 3D 프로젝터 기능이 휴대 단말기에 적용된 경우, 휴대 단말기에 장착되는 3D 프로젝터 모듈을 통해 3D 입체 영상을 투사할 수 있다. Recently, there has appeared even 3D projector capable of projecting a 3D stereoscopic image, when such a 3D projector function applied to a portable terminal, it is possible to project the 3D images through 3D projector module mounted on the portable terminal.

그런데, 휴대 단말기에서 3D 프로젝션과 관련된 동작의 제어를 위해, 휴대 단말기에 표시된 메뉴 화면을 터치하는 방식이나 휴대 단말기에 구비된 키를 조작하는 방식은, 휴대 단말기 본체의 움직임으로 인하여 3D 입체 화면을 흔들리게 할 수 있다. By the way, for the control of operations associated with 3D projection in a mobile terminal, method of operating the keys provided in the system or portable device, touch the menu screen displayed on a mobile terminal, shaking the 3D stereoscopic screen due to the motion of the portable terminal main body may incorrectly. 또한, 3D 입체 영상에서 2D 영상으로 표시된 메뉴 화면으로 순간적으로 시차가 변화는 경우 어지러움을 유발할 수 있으며, 특히 셔터글라스 방식으로 3D 안경을 착용하는 상태에서 휴대 단말기에 표시된 메뉴 화면을 통해 관련 동작을 제어하는데 번거로운 점이 존재한다. In addition, 3D on the three-dimensional image to the menu screen displayed as a 2D image instantaneously when the time difference changes, and may cause dizziness, especially the related operations while wearing the 3D glasses, through a menu screen displayed on the portable terminal control a shutter glass scheme for present cumbersome problem.

따라서, 휴대 단말기에서 3D 프로젝션과 관련된 동작을 직관적인 조작에 따라 편리하게 제어하기 위해서는 기존의 입출력 방식과는 다른 새로운 입출력방식을 통해 휴대 단말기의 동작을 제어할 필요가 있다. Therefore, in order to conveniently controlled in accordance with the intuitive motion associated with the 3D projection in a mobile terminal from the existing input method, it is necessary to control the operation of the wireless terminal through the other input and output new way.

따라서, 본 발명의 목적은, 3D 프로젝션과 관련된 동작을 3D 제스쳐를 이용하여 제어할 수 있는 휴대 단말기 및 그 동작 제어방법을 제공함에 있다. Accordingly, it is an object of the present invention is the operation related to the 3D projection to provide a mobile terminal and its operation control method that can be controlled by using a 3D gesture.

상기 목적을 달성하기 위한 본 발명에 따른 휴대 단말기의 동작 제어방법은, 본체에 3D 프로젝터 모듈을 마련하고, 상기 3D 프로젝터 모듈을 통해 상기 본체로부터 이격된 투사면에 3D 입체 영상을 투사하는 단계, 카메라를 통해 획득하는 비주얼 데이터의 분석에 따라 기설정된 3D 제스쳐를 검출하는 단계, 및 상기 검출된 3D 제스쳐에 대응하는 3D 프로젝션 관련 동작이 수행되도록 상기 3D 프로젝터 모듈을 제어하는 단계를 포함한다. An operation control method for a mobile terminal according to the present invention for achieving the above object, the method comprising: providing a 3D projector module to the main body, and projects the 3D stereoscopic image on the projection surface is spaced apart from the main body through the 3D projector module, a camera detecting a 3D gesture predetermined according to analysis of visual data acquired through, and controlling the 3D projector module, such that the 3D projection-related operation is performed corresponding to the detected 3D gesture.

또한, 본 발명에 따른 휴대 단말기는, 카메라가 구비된 본체, 상기 본체에 구비되며, 광원으로부터 출사된 광을 조사하여 상기 본체로부터 이격된 투사면에 3D 입체 영상을 투사하는 3D 프로젝터 모듈, 및 상기 카메라를 통해 획득하는 비주얼 데이터의 분석에 따라 기설정된 3D 제스쳐가 검출되면, 상기 검출된 3D 제스쳐에 대응하는 3D 프로젝션 관련 동작이 수행되도록 상기 3D 프로젝터 모듈을 제어하는 제어부를 포함한다. In addition, the portable terminal according to the present invention, the main body having a camera, 3D projector module is provided to the main body, projecting the 3D stereoscopic image by irradiating the light emitted from the light source to the projection plane spaced from the main body, and the When the preset according to analysis of visual data acquired through the camera 3D gesture is detected, a control unit for controlling the projector module, the 3D 3D projection associated action corresponding to the detected 3D gesture to be performed.

본 발명에 따르면, 손의 움직임이나 손동작 등과 같은 3D 제스쳐에 따라 3D 프로젝션과 관련된 동작을 제어할 수 있다. According to the invention, it is possible to control motion associated with the 3D projection in accordance with the 3D gesture such as hand movements or gestures. 이에 따라, 휴대 단말기에서 3D 프로젝션 기능을 사용하는 경우, 직관적인 조작에 의해 3D 프로젝션과 관련된 동작을 편리하게 제어할 수 있다. Accordingly, it is a convenient way to control motion associated with the 3D projection by the case of using a 3D projection function in a portable terminal, an intuitive operation.

도 1은 본 발명의 일실시예에 따른 휴대 단말기의 블럭 구성도, 1 is a block diagram of a wireless terminal according to an embodiment of the present invention,
도 2는 본 발명의 일실시예에 따른 휴대 단말기를 전면에서 바라본 사시도, Figure 2 is a perspective view viewed from the front of a mobile terminal according to one embodiment of the invention,
도 3는 도 2에 도시한 휴대 단말기의 후면 사시도, Figure 3 is a rear perspective view of the portable terminal shown in FIG. 2,
도 4a 및 도 4b는 본 발명의 일실시예에 따른 휴대 단말기의 동작 제어방법에 대한 설명에 제공되는 흐름도, Figures 4a and 4b are flow charts provided in the description of the operation control method of a portable terminal according to an embodiment of the present invention,
도 5 내지 도 7은 본 발명의 일실시예에 따른 휴대 단말기에서 3D 제스쳐의 설정과 관련된 과정에 대한 설명에 참조되는 도면, 그리고 5 to 7 is a view referred to in the description of the procedures involved in the set of 3D gesture in the portable terminal according to an embodiment of the invention, and
도 8 내지 도 15는 본 발명의 일실시예에 따라 3D 제스쳐에 의해 3D 프로젝션 관련 동작이 수행되는 예를 설명하기 위한 도면이다. 8 to 15 are diagrams for explaining an example of the 3D projection-related operation performed by the 3D gesture in accordance with an embodiment of the invention.

이하에서는 도면을 참조하여 본 발명을 보다 상세하게 설명한다. Hereinafter will be described with reference to the drawings the present invention in more detail.

본 명세서에서 기술되는 휴대 단말기에는, 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(notebook computer), 디지털방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 카메라, 네비게이션, 타블렛 컴퓨터(tablet computer), 이북(e-book) 단말기 등이 포함된다. In the portable terminal described herein, mobile phones, smart phones (smart phone), a notebook computer (notebook computer), a digital broadcast terminal, PDA (Personal Digital Assistants), PMP (Portable Multimedia Player), cameras, navigation, a tablet computer ( and the like tablet computer), e-book (e-book) terminal. 또한, 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 단순히 본 명세서 작성의 용이함만이 고려되어 부여되는 것으로서, 그 자체로 특별히 중요한 의미 또는 역할을 부여하는 것은 아니다. In addition, the suffix of the components used in the following description, "module" and "unit" are given merely as being taken into consideration only the easiness of writing this specification, it does not give a particularly important meaning or role by themselves. 따라서, 상기 "모듈" 및 "부"는 서로 혼용되어 사용될 수도 있다. Accordingly, the "module" and "unit" may be used interchangeably with each other.

도 1은 본 발명의 일실시예에 따른 휴대 단말기의 블럭 구성도(block diagram)이다. 1 is a block diagram of a mobile terminal according to one embodiment of the present invention (block diagram). 도 1을 참조하여 본 발명의 일실시예에 따른 휴대 단말기를 기능에 따른 구성요소 관점에서 살펴보면 다음과 같다. Referring to Fig. 1 to the wireless terminal in accordance with an exemplary embodiment of the present invention in the point of view of the component features as follows.

도 1을 참조하면, 본 휴대 단말기(100)는, 무선 통신부(110), A/V(Audio/Video) 입력부(120), 사용자 입력부(130), 센싱부(140), 출력부(150), 메모리(160), 인터페이스부(170), 제어부(180), 및 전원 공급부(190)를 포함할 수 있다. 1, the mobile terminal 100, the wireless communication unit (110), A / V (Audio / Video) input unit 120, a user input unit 130, a sensing unit 140, an output unit 150 and it may include a memory 160, an interface unit 170, a controller 180, and a power supply unit 190. 이와 같은 구성요소들은 실제 응용에서 구현될 때 필요에 따라 2 이상의 구성요소가 하나의 구성요소로 합쳐지거나, 혹은 하나의 구성요소가 2 이상의 구성요소로 세분되어 구성될 수 있다. These components are combined or require two or more components, one of the components based on, when implemented in a real application, or one component may be configured is subdivided into two or more components.

무선 통신부(110)는 방송수신 모듈(111), 이동통신 모듈(113), 무선 인터넷 모듈(115), 근거리 통신 모듈(117), 및 GPS 모듈(119) 등을 포함할 수 있다. Wireless communication unit 110 may include a broadcast receiving module 111, a mobile communication module 113, a wireless Internet module 115, a short-range communication module 117, and GPS module 119.

방송수신 모듈(111)은 방송 채널을 통하여 외부의 방송관리 서버로부터 방송 신호 및 방송관련 정보 중 적어도 하나를 수신한다. It broadcast receiving module 111 receives at least one of a broadcast signal and broadcast associated information from an external broadcast management server through a broadcast channel. 이때, 방송 채널은 위성 채널, 지상파 채널 등을 포함할 수 있다. At this time, the broadcast channel may include a satellite channel, a terrestrial channel. 방송관리 서버는, 방송 신호 및 방송 관련 정보 중 적어도 하나를 생성하여 송신하는 서버나, 기 생성된 방송 신호 및 방송관련 정보 중 적어도 하나를 제공받아 단말기에 송신하는 서버를 의미할 수 있다. Broadcast management server may generate at least one of a broadcast signal and broadcast-related information by providing a server or group at least one of the generated broadcast signal and broadcast-related information to be transmitted received may represent a server for transmitting to the terminal.

방송관련 정보는, 방송 채널, 방송 프로그램 또는 방송 서비스 제공자에 관련한 정보를 의미할 수 있다. Broadcast-related information may be information regarding a broadcast channel, a broadcast program or a broadcast service provider. 방송 신호는, TV 방송 신호, 라디오 방송 신호, 데이터 방송 신호를 포함할 뿐만 아니라, TV 방송 신호 또는 라디오 방송 신호에 데이터 방송 신호가 결합한 형태의 방송 신호도 포함할 수 있다. Broadcast signals, it is possible not only include a TV broadcast signal, a radio broadcast signal, a data broadcast signal, and also include a broadcast signal in the form of a data broadcast signal to the TV broadcast signal or a radio broadcast signal combined. 방송관련 정보는, 이동통신망을 통하여도 제공될 수 있으며, 이 경우에는 이동통신 모듈(113)에 의해 수신될 수 있다. Broadcasting related information can be provided even through a mobile communication network, in this case, it can be received by the mobile communication module 113. 방송관련 정보는 다양한 형태로 존재할 수 있다. Broadcast-related information may exist in various forms. 예를 들어, DMB(Digital Multimedia Broadcasting)의 EPG(Electronic Program Guide) 또는 DVB-H(Digital Video Broadcast-Handheld)의 ESG(Electronic Service Guide) 등의 형태로 존재할 수 있다. For example, there may be in the form of (Electronic Service Guide) of the ESG EPG (Electronic Program Guide) or DVB-H (Digital Video Broadcast-Handheld) of the DMB (Digital Multimedia Broadcasting).

방송수신 모듈(111)은, 각종 방송 시스템을 이용하여 방송 신호를 수신하는데, 특히, DMB-T(Digital Multimedia Broadcasting-Terrestrial), DMB-S(Digital Multimedia Broadcasting-Satellite), MediaFLO(Media Forward Link Only), DVB-H(Digital Video Broadcast-Handheld), ISDB-T(Integrated Services Digital Broadcast-Terrestrial) 등의 디지털 방송 시스템을 이용하여 디지털 방송 신호를 수신할 수 있다. Broadcast receiving module 111 receives broadcasting signals using various broadcasting systems, and more particularly, DMB-T (Digital Multimedia Broadcasting-Terrestrial), DMB-S (Digital Multimedia Broadcasting-Satellite), MediaFLO (Media Forward Link Only ), it is possible to receive digital broadcasting signals using digital broadcasting systems such as DVB-H (digital Video broadcast-Handheld), ISDB-T (Integrated Services digital broadcast-Terrestrial). 또한, 방송수신 모듈(111)은, 이와 같은 디지털 방송 시스템뿐만 아니라 방송 신호를 제공하는 모든 방송 시스템에 적합하도록 구성될 수 있다. In addition, the broadcast receiving module 111 may be configured not only this digital broadcasting system, such as to be suitable for every broadcast system that provides a broadcast signal. 방송수신 모듈(111)을 통해 수신된 방송 신호 및/또는 방송 관련 정보는 메모리(160)에 저장될 수 있다. The broadcast signal and / or broadcast associated information received via the broadcast receiving module 111 may be stored in memory 160.

이동통신 모듈(113)은, 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. A mobile communication module 113 transmits and receives the radio signal and at least one of a base station, an external terminal, a server on a mobile communication network. 여기서, 무선 신호는, 음성 호 신호, 화상 통화 호 신호, 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다. Here, the wireless signals may include various types of data according to a voice call signal, a video call, the call signaling, or text / multimedia message transmission and reception.

무선 인터넷 모듈(115)은 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 무선 인터넷 모듈(115)은 휴대 단말기(100)에 내장되거나 외장될 수 있다. A wireless Internet module 115 is to say a module for wireless Internet connection, a wireless Internet module 115 may be external or internal to the mobile terminal 100. 무선 인터넷 기술로는 WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 등이 이용될 수 있다. The wireless Internet technology can include WLAN (Wireless LAN) (Wi-Fi), Wibro (Wireless broadband), Wimax (World Interoperability for Microwave Access), (High Speed ​​Downlink Packet Access) HSDPA can be used.

근거리 통신 모듈(117)은 근거리 통신을 위한 모듈을 말한다. Short-range communication module 117 refers to a module for local area communication. 근거리 통신 기술로 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), 지그비(ZigBee) 등이 이용될 수 있다. A short-range communication techniques such as Bluetooth (Bluetooth), RFID (Radio Frequency Identification), infrared data association (IrDA, infrared Data Association), UWB (Ultra Wideband), ZigBee (ZigBee) may be used.

GPS(Global Position System) 모듈(119)은 복수 개의 GPS 인공위성으로부터 위치 정보를 수신한다. GPS (Global Position System) module 119 receives position information from a plurality of GPS satellites.

A/V(Audio/Video) 입력부(120)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 이에는 카메라(121)와 마이크(123) 등이 포함될 수 있다. A / V (Audio / Video) input unit 120 is for an audio signal or a video signal input, and thus may be included such as camera 121 and a microphone 123. 카메라(121)는 화상 통화모드 또는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. Camera 121 processes a image frame, such as still images or video obtained by image sensors in a video call mode or a photographing mode. 그리고, 처리된 화상 프레임은 디스플레이부(151)에 표시될 수 있다. And, the processed image frames can be displayed on the display section 151.

카메라(121)에서 처리된 화상 프레임은 메모리(160)에 저장되거나 무선 통신부(110)를 통하여 외부로 전송될 수 있다. The image frames processed by the camera 121 may be transmitted to the outside or stored in the memory 160 through the wireless communication unit 110. 카메라(121)는 단말기의 구성 태양에 따라 2개 이상이 구비될 수도 있다. Camera 121 may also be provided with two or more, depending on the configuration of the solar device.

마이크(123)는 통화모드 또는 녹음모드, 음성인식 모드 등에서 마이크로폰(Microphone)에 의해 외부의 음향 신호를 입력받아 전기적인 음성 데이터로 처리한다. Microphone 123 receives an external sound signal by a microphone (Microphone) from the call mode or a recording mode, voice recognition mode and processes to the electrical voice data. 그리고, 처리된 음성 데이터는 통화 모드인 경우 이동통신 모듈(113)를 통하여 이동통신 기지국으로 송신 가능한 형태로 변환되어 출력될 수 있다. And, the processed voice data is converted into a form transmittable to a mobile communication base station if the communication mode through the mobile communication module 113 may be output. 마이크 (123)는 외부의 음향 신호를 입력받는 과정에서 발생하는 잡음(noise)를 제거하기 위한 다양한 잡음 제거 알고리즘이 사용될 수 있다. Microphone 123 has a variety of noise removal algorithms for removing noise (noise) generated in the course of receiving the acoustic signal from the outside may be used.

사용자 입력부(130)는 사용자가 단말기의 동작 제어를 위하여 입력하는 키 입력 데이터를 발생시킨다. A user input unit 130 generates key input data that the user input for controlling the operation of the terminal. 사용자 입력부(130)는 사용자의 푸시 또는 터치 조작에 의해 명령 또는 정보를 입력받을 수 있는 키 패드(key pad), 돔 스위치(dome switch), 터치 패드(정압/정전) 등으로 구성될 수 있다. A user input unit 130 may be configured with a keypad that can receive input commands or information by a user's push or touch operation (key pad), dome switches (dome switch), a touch pad (static pressure / electrostatic), and the like. 또한, 사용자 입력부(130)는 키를 회전시키는 조그 휠 또는 조그 방식이나 조이스틱과 같이 조작하는 방식이나, 핑거 마우스 등으로 구성될 수 있다. In addition, the user input unit 130 may be configured in such a way that the steps a jog wheel or a jog or a joystick to rotate the key way or a finger mouse or the like. 특히, 터치 패드가 후술하는 디스플레이부(151)와 상호 레이어 구조를 이룰 경우, 이를 터치스크린(touch screen)이라 부를 수 있다. In particular, when the touch pad to achieve a display unit 151 and the mutual layer structure to be described later, may be referred to these as a touch screen (touch screen).

센싱부(140)는 휴대 단말기(100)의 개폐 상태, 휴대 단말기(100)의 위치, 사용자 접촉 유무 등과 같이 휴대 단말기(100)의 현 상태를 감지하여 휴대 단말기(100)의 동작을 제어하기 위한 센싱 신호를 발생시킨다. Sensing unit 140 senses the current state of the mobile terminal 100, such as location, user contact with the presence or absence of the on-off state, the mobile terminal 100 of the portable terminal 100 for controlling the operation of the mobile terminal 100 and it generates a sensing signal. 예를 들어 휴대 단말기(100)가 슬라이드 폰 형태인 경우 슬라이드 폰의 개폐 여부를 센싱할 수 있다. For example, it is possible to open and close the sensing whether a slide phone, if the mobile terminal 100 is a slide phone type. 또한, 전원 공급부(190)의 전원 공급 여부, 인터페이스부(170)의 외부 기기 결합 여부 등과 관련된 센싱 기능을 담당할 수 있다. Further, it is possible to charge the sensing function related to whether or not the external device coupling the power supply unit 190 supplies power, whether the interface unit 170 of.

센싱부(140)는 감지센서(141), 압력센서(143), 및 모션 센서(145) 등을 포함할 수 있다. The sensing unit 140 may include a sensor 141, a pressure sensor 143, and a motion sensor 145 or the like. 감지센서(141)는 휴대 단말기(100)로 접근하는 물체나, 휴대 단말기(100)의 근방에 존재하는 물체의 유무 등을 기계적 접촉이 없이 검출할 수 있도록 한다. Sensor 141 can detect the presence or absence, etc. of the object existing in the vicinity of the object, or the mobile terminal 100 to access to the mobile terminal 100 without any mechanical contact. 감지센서(141)는, 교류자계의 변화나 정자계의 변화를 이용하거나, 혹은 정전용량의 변화율 등을 이용하여 근접물체를 검출할 수 있다. Sensor 141, by using a change in the alternating current based change in the magnetic field or sperm, or the like change rate of the capacitance is possible to detect the proximity object. 감지센서(141)는 구성 태양에 따라 2개 이상이 구비될 수 있다. Sensor 141 has two or more may be provided depending on the configuration aspect.

압력센서(143)는 휴대 단말기(100)에 압력이 가해지는지 여부와, 그 압력의 크기 등을 검출할 수 있다. Pressure sensor 143 may detect whether the echoed pressurized to the mobile terminal 100, such as size of that pressure. 압력센서(143)는 사용환경에 따라 휴대 단말기(100)에서 압력의 검출이 필요한 부위에 설치될 수 있다. Pressure sensor 143 may be installed in areas that require detection of a pressure in the mobile terminal 100 according to the use environment. 만일, 압력센서(143)가 디스플레이부(151)에 설치되는 경우, 압력센서(143)에서 출력되는 신호에 따라, 디스플레이부(151)를 통한 터치 입력과, 터치 입력보다 더 큰 압력이 가해지는 압력터치 입력을 식별할 수 있다. If, pressure sensor 143, the display unit 151 when it is installed in, in accordance with the signal output from the pressure sensor 143, a display unit 151 to a touch input, and that a greater pressure is applied than the touch input via It may identify a pressure-touch input. 또한, 압력센서(143)에서 출력되는 신호에 따라, 압력터치 입력시 디스플레이부(151)에 가해지는 압력의 크기도 알 수 있다. Further, there can be seen the amount of pressure applied to the pressure-touch display unit 151 during the input in accordance with a signal outputted from the pressure sensor 143.

모션 센서(145)는 가속도 센서, 자이로 센서 등을 이용하여 휴대 단말기(100)의 위치나 움직임 등을 감지한다. Motion sensor 145 using the acceleration sensor, gyro sensor or the like detects the location or movement of the mobile terminal 100. 모션 센서(145)에 사용될 수 있는 가속도 센서는 어느 한 방향의 가속도 변화에 대해서 이를 전기 신호로 바꾸어 주는 소자로서, MEMS(micro-electromechanical systems) 기술의 발달과 더불어 널리 사용되고 있다. An acceleration sensor that can be used for the motion sensor 145 is a device that converts it into an electric signal for the acceleration change in either direction, it has been widely used with the MEMS (micro-electromechanical systems), the development of technology. 가속도 센서에는, 자동차의 에어백 시스템에 내장되어 충돌을 감지하는데 사용하는 큰 값의 가속도를 측정하는 것부터, 사람 손의 미세한 동작을 인식하여 게임 등의 입력 수단으로 사용하는 미세한 값의 가속도를 측정하는 것까지 다양한 종류가 있다. Acceleration sensors, built into the car's air bag system starting with measuring the value greater acceleration that is used to detect a collision, to recognize a fine operation of the hands to measure the acceleration of the fine value, which is used as input means such as a game until there is a wide variety. 가속도 센서는 보통 2축이나 3축을 하나의 패키지에 실장하여 구성되며, 사용 환경에 따라서는 Z축 한 축만 필요한 경우도 있다. The acceleration sensor according to the normal two-axis or three-axis is constituted by mounting on a package, the use environment may also, if necessary, a shaft axis Z. 따라서, 어떤 이유로 Z축 방향 대신 X축 또는 Y축 방향의 가속도 센서를 써야 할 경우에는 별도의 조각 기판을 사용하여 가속도 센서를 주 기판에 세워서 실장할 수도 있다. Thus, if for some reason have to use an acceleration sensor in the X-axis or Y-axis direction instead of the Z-axis direction it may be mounted upright an acceleration sensor on the main board by using a separate piece of substrate.

또한, 자이로 센서는 각속도를 측정하는 센서로서, 기준 방향에 대해 돌아간 방향을 감지할 수 있다. In addition, the gyro sensor is a sensor for measuring the angular velocity, it is possible to detect the direction to return to the reference direction.

출력부(150)는 오디오 신호 또는 비디오 신호 또는 알람(alarm) 신호의 출력을 위한 것이다. Output unit 150 is to the output of an audio signal or a video signal or an alarm (alarm) signals. 출력부(150)에는 디스플레이부(151), 음향출력 모듈(153), 알람부(155), 및 햅틱 모듈(157) 등이 포함될 수 있다. Output section 150 may include such as a display 151, a sound output module 153, an alarm unit 155, and a haptic module 157.

디스플레이부(151)는 휴대 단말기(100)에서 처리되는 정보를 표시 출력한다. Display section 151 displays and outputs information processed in the mobile terminal 100. 예를 들어 휴대 단말기(100)가 통화 모드인 경우 통화와 관련된 UI(User Interface) 또는 GUI(Graphic User Interface)를 표시한다. For example, if the mobile terminal 100 is in communication mode and displays a UI (User Interface) or GUI (Graphic User Interface) related to the call. 그리고 휴대 단말기(100)가 화상 통화 모드 또는 촬영 모드인 경우, 촬영되거나 수신된 영상을 각각 혹은 동시에 표시할 수 있으며, UI, GUI를 표시한다. And if the mobile terminal 100 is in a video call mode or a photographing mode, it is possible to display the captured or received images, respectively, or at the same time, and displays the UI, GUI.

한편, 전술한 바와 같이, 디스플레이부(151)와 터치패드가 상호 레이어 구조를 이루어 터치스크린으로 구성되는 경우, 디스플레이부(151)는 출력 장치 이외에 사용자의 터치에 의한 정보의 입력이 가능한 입력 장치로도 사용될 수 있다. On the other hand, a display unit 151, and when the touch pad is made consists of a touch screen, a mutual layer structure, the display unit 151 is an input device capable of inputting information by the user's touch in addition to an output device as described above It may also be used.

만일, 디스플레이부(151)가 터치스크린으로 구성되는 경우, 터치스크린 패널, 터치스크린 패널 제어기 등을 포함할 수 있다. If If, the display unit 151 is composed of a touch screen may include a touch screen panel, a touch screen panel controller. 이 경우, 터치스크린 패널은 외부에 부착되는 투명한 패널로서, 휴대 단말기(100)의 내부 버스에 연결될 수 있다. In this case, the touch screen panel is a transparent panel attached to the outside, can be coupled to the internal bus of the mobile terminal 100. 터치스크린 패널은 접촉 결과를 주시하고 있다가, 터치입력이 있는 경우 대응하는 신호들을 터치스크린 패널 제어기로 보낸다. The touch screen panel has been considered the result of the contact, and sends a signal corresponding to the case with a touch input to the touch screen panel controller. 터치스크린 패널 제어기는 그 신호들을 처리한 다음 대응하는 데이터를 제어부(180)로 전송하여, 제어부(180)가 터치입력이 있었는지 여부와 터치스크린의 어느 영역이 터치 되었는지 여부를 알 수 있도록 한다. The touch screen panel controller to know whether to send the next corresponding data to a processing of the signal to the controller 180, the controller 180 has a certain area of ​​whether the touch screen if there has been a touch input if the touch.

디스플레이부(151)는 전자종이(e-Paper)로 구성될 수도 있다. Display unit 151 may be configured with an electronic paper (e-Paper). 전자종이(e-Paper)는 일종의 반사형 디스플레이로서, 기존의 종이와 잉크처럼 높은 해상도, 넓은 시야각, 밝은 흰색 배경으로 우수한 시각 특성을 가진다. Electronic paper (e-Paper) is a type of reflective display and has a high resolution, wide viewing angle, excellent viewing angle characteristic as a bright white background, like conventional paper and ink. 전자종이(e-Paper)는 플라스틱, 금속, 종이 등 어떠한 기판상에도 구현이 가능하고, 전원을 차단한 후에도 화상이 유지되고 백라이트(back light) 전원이 없어 휴대 단말기(100)의 배터리 수명이 오래 유지될 수 있다. Electronic paper (e-Paper) will be implemented in the any substrate such as plastic, metal, paper, and even after the power off, the image is preserved and the backlight (back light) power do not have a battery life of the mobile terminal 100 long It can be maintained. 전자종이로는 정전화가 충전된 반구형 트위스트 볼을 이용하거나, 전기영동법 및 마이크로 캡슐 등을 이용할 수 있다. E-paper is a tablet using a hemispherical twist ball telephone is charged, or the like can be used electrophoresis and microcapsules.

이외에도 디스플레이부(151)는 액정 디스플레이(liquid crystal display), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display), 유기 발광 다이오드(organic light-emitting diode), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 중에서 적어도 하나를 포함할 수도 있다. In addition to the display unit 151 is a liquid crystal display (liquid crystal display), a thin film transistor liquid crystal display (thin film transistor-liquid crystal display), OLED (organic light-emitting diode), a flexible display (flexible display), 3-dimensional display It may include at least one of (3D display). 그리고, 휴대 단말기(100)의 구현 형태에 따라 디스플레이부(151)가 2개 이상 존재할 수도 있다. Then, the display unit 151 according to the implementation of the mobile terminal 100, there may be two or more. 예를 들어, 휴대 단말기(100)에 외부 디스플레이부(미도시)와 내부 디스플레이부(미도시)가 동시에 구비될 수 있다. For example, a mobile terminal outside the display portion (not shown) and an internal display unit (not shown) to 100 may be provided at the same time.

음향출력 모듈(153)은 호신호 수신, 통화모드 또는 녹음 모드, 음성인식 모드, 방송수신 모드 등에서 무선 통신부(110)로부터 수신되거나 메모리(160)에 저장된 오디오 데이터를 출력한다. The sound output module 153 receives the call signaling, call mode or a recording mode, a voice recognition mode, broadcast reception mode, etc. received from the wireless communication unit 110 or outputs the audio data stored in the memory 160. 또한, 음향출력 모듈(153)은 휴대 단말기(100)에서 수행되는 기능, 예를 들어, 호신호 수신음, 메시지 수신음 등과 관련된 음향 신호를 출력한다. Further, the audio output module 153 outputs sound signals related to functions performed in the mobile terminal 100, e.g., a call signal incoming sound, incoming sound messages. 이러한 음향출력 모듈(153)에는 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다. The audio output module 153 can include such as a speaker (speaker), a buzzer (Buzzer).

알람부(155)는 휴대 단말기(100)의 이벤트 발생을 알리기 위한 신호를 출력한다. The alarm unit 155 outputs a signal for announcing an event occurrence of the mobile terminal 100. 휴대 단말기(100)에서 발생하는 이벤트의 예로는 호 신호 수신, 메시지 수신, 키 신호 입력 등이 있다. Examples of events generated in the mobile terminal 100 may include call signal reception, message reception, key signal input. 알람부(155)는 오디오 신호나 비디오 신호 이외에 다른 형태로 이벤트 발생을 알리기 위한 신호를 출력한다. The alarm unit 155 outputs a signal for announcing an event occurrence in another form other than an audio signal or a video signal. 예를 들면, 진동 형태로 신호를 출력할 수 있다. For example, it is possible to output the signal to the vibration type. 알람부(155)는 호 신호가 수신되거나 메시지가 수신된 경우, 이를 알리기 위해 신호를 출력할 수 있다. An alarm unit 155 when the call signal is received or a message is received, it is possible to output a signal to indicate this. 또한. Also. 알람부(155)는 키 신호가 입력된 경우, 키 신호 입력에 대한 피드백으로 신호를 출력할 수 있다. The alarm unit 155 may output a signal as feedback on, key input signal when a key signal is input. 이러한 알람부(155)가 출력하는 신호를 통해 사용자는 이벤트 발생을 인지할 수 있다. Through a signal such that the alarm unit 155 outputs the user can recognize the occurrence of an event. 휴대 단말기(100)에서 이벤트 발생 알림을 위한 신호는 디스플레이부(151)나 음향출력 모듈(153)를 통해서도 출력될 수 있다. Signal for the occurrence of an event notification from the mobile terminal 100 may be output via the display 151 or the audio output module 153.

햅틱 모듈(haptic module)(157)은 사용자가 느낄 수 있는 다양한 촉각 효과를 발생시킨다. The haptic module (haptic module) (157) generates a variety of tactile effects which a user can feel. 햅틱 모듈(157)이 발생시키는 촉각 효과의 대표적인 예로는 진동 효과가 있다. A typical example of the tactile effect of the haptic module 157 may generate a vibration effect. 햅틱 모듈(157)이 촉각 효과로 진동을 발생시키는 경우, 햅택 모듈(157)이 발생하는 진동의 세기와 패턴 등은 변환가능하며, 서로 다른 진동을 합성하여 출력하거나 순차적으로 출력할 수도 있다. When generating vibrations by the haptic module 157. The haptic effect, haeptaek module (157) intensity and pattern of vibration that is generated and the like can also be converted, and outputs the synthesized one another or the other vibration output sequentially.

햅틱 모듈(157)은 진동 외에도, 접촉 피부 면에 대해 수직 운동하는 핀 배열에 의한 자극에 의한 효과, 분사구나 흡입구를 통한 공기의 분사력이나 흡입력을 통한 자극에 의한 효과, 피부 표면을 스치는 자극에 의한 효과, 전극(eletrode)의 접촉을 통한 자극에 의한 효과, 정전기력을 이용한 자극에 의한 효과, 흡열이나 발열이 가능한 소자를 이용한 냉온감 재현에 의한 효과 등 다양한 촉각 효과를 발생시킬 수 있다. The haptic module 157 is stimulated rub the effect, the surface of the skin by stimulating with blowing force or suction force of air through the effect, the injection Laguna inlet by the stimulation by the pin arrangement for vertical movement against a contact skin surface in addition to vibration effect, the electrode effect due to the effect, stimulated by an electrostatic force due to the magnetic poles through a contact (eletrode), such as effects due to the cold sense reproduction using an endothermic or exothermic device is available can generate a variety of haptic effects. 햅틱 모듈(157)은 직접적인 접촉을 통해 촉각 효과의 전달할 수 있을 뿐만 아니라, 사용자의 손가락이나 팔 등의 근감각을 통해 촉각 효과를 느낄 수 있도록 구현할 수도 있다. The haptic module 157 may implement not only can deliver the tactile effect through direct contact, in order to feel a tactile effect through a muscle sensation such as fingers or arm of the user. 햅틱 모듈(157)은 휴대 단말기(100)의 구성 태양에 따라 2개 이상이 구비될 수 있다. The haptic module 157 may have more than one can be provided according to configuration aspects of the mobile terminal 100.

메모리(160)는 제어부(180)의 처리 및 제어를 위한 프로그램이 저장될 수도 있고, 입력되거나 출력되는 데이터들(예를 들어, 폰북, 메시지, 정지영상, 동영상 등)의 임시 저장을 위한 기능을 수행할 수도 있다. A function for temporary storage in memory 160 of data may be a program for processing and controlling of the controller 180 stores an input or output (for example, phone book, messages, still images, video, etc.) It may be performed.

메모리(160)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램, 롬 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. Memory 160 is a flash type of memory (flash memory type), hard disk type (hard disk type), a multimedia card micro type (multimedia card micro type), a card type memory (e.g., SD or XD memory), RAM , it may include at least one type of storage medium of the ROM. 또한, 휴대 단말기(100)는 인터넷(internet) 상에서 메모리(150)의 저장 기능을 수행하는 웹 스토리지(web storage)를 운영할 수도 있다. Further, the mobile terminal 100 may operate a web storage (web storage) that performs the storage function of the memory 150 on the Internet (internet).

인터페이스부(170)는 휴대 단말기(100)에 연결되는 모든 외부기기와의 인터페이스 역할을 수행한다. Interface unit 170 performs an interface with all external devices connected to the mobile terminal 100. 휴대 단말기(100)에 연결되는 외부기기의 예로는, 유/무선 헤드셋, 외부 충전기, 유/무선 데이터 포트, 메모리 카드(Memory card), SIM(Subscriber Identification Module) 카드, UIM(User Identity Module) 카드 등과 같은 카드 소켓, 오디오 I/O(Input/Output) 단자, 비디오 I/O(Input/Output) 단자, 이어폰 등이 있다. Examples of the external device connected to the mobile terminal 100, the wired / wireless headset, an external charger, wired / wireless data port, a memory card (Memory card), SIM (Subscriber Identification Module) card, UIM (User Identity Module) card there is a card socket, an audio I / O (Input / Output) terminals, video I / O (Input / Output) terminals, earphones, etc., such as. 인터페이스부(170)는 이러한 외부 기기로부터 데이터를 전송받거나 전원을 공급받아 휴대 단말기(100) 내부의 각 구성 요소에 전달할 수 있고, 휴대 단말기(100) 내부의 데이터가 외부 기기로 전송되도록 할 수 있다. Interface unit 170 may receive or transmit data from such an external device when supplied with power can be transmitted to each of the components inside the mobile terminal 100, it is possible to ensure that the data within the mobile terminal 100 is transmitted to an external device .

인터페이스부(170)는 휴대 단말기(100)가 외부 크래들(cradle)과 연결될 때 연결된 크래들로부터의 전원이 휴대 단말기(100)에 공급되는 통로가 되거나, 사용자에 의해 크래들에서 입력되는 각종 명령 신호가 휴대 단말기(100)로 전달되는 통로가 될 수 있다. Interface unit 170 and various command signals that are mobile terminal 100 or a channel to be supplied to an external cradle (cradle) and the mobile terminal 100, the power from the cradle connected when it is connected, the input from the cradle by a user mobile Access may be delivered to the terminal 100.

3D 프로젝터 모듈(175)은 내부에 구비된 램프 등과 같은 광원으로부터 출사된 광을 조사하여, 휴대 단말기(100)로부터 이격된 투사면에 2D 영상이나 3D 입체 영상을 투사할 수 있다. 3D projector module 175 is irradiated with light emitted from a light source such as a lamp provided in the light, it is possible to project a 2D image or a 3D stereoscopic image on the projection surface remote from the mobile terminal 100. 3D 프로젝터 모듈(175)에는 LCOS(Liquid Crystal On Silicon) 방식, DLP(Digital Light Processing) 방식, 및 LCD 방식 등이 사용될 수 있다. 3D projector module 175 may be used include (Liquid Crystal On Silicon) LCOS way, DLP (Digital Light Processing) system, and an LCD system.

제어부(180)는 통상적으로 상기 각부의 동작을 제어하여 휴대 단말기(100)의 전반적인 동작을 제어한다. The controller 180 typically controls the operation of the each part controls the overall operation of the mobile terminal 100. 예를 들어 음성 통화, 데이터 통신, 화상 통화 등을 위한 관련된 제어 및 처리를 수행한다. For example, performs control and processing related to speech call, data communication, video call and the like. 또한, 제어부(180)는 멀티 미디어 재생을 위한 멀티미디어 재생 모듈(181)을 구비할 수도 있다. In addition, the controller 180 may include a multimedia play module 181 for multimedia playback. 멀티미디어 재생 모듈(181)은 제어부(180) 내에 하드웨어로 구성될 수도 있고, 제어부(180)와 별도로 소프트웨어로 구성될 수도 있다. The multimedia player module 181 may be configured in hardware within the controller 180, it may be of a separate software and controller 180.

그리고, 전원 공급부(190)는 제어부(180)의 제어에 의해 외부의 전원, 내부의 전원을 인가받아 각 구성요소들의 동작에 필요한 전원을 공급한다. Then, the power supply unit 190 provides power required for the operation of each component is received by an external power source, the internal power supply under the control of the controller 180.

이와 같은 구성의 휴대 단말기(100)는 유무선 통신 시스템 및 위성 기반 통신 시스템을 포함하여, 프레임(frame) 또는 패킷(packet)을 통하여 데이터(data)를 전송할 수 있는 통신 시스템에서 동작 가능하도록 구성될 수 있다. The mobile terminal 100 of the same configuration can be configured, including wired and wireless communication systems and satellite-based communication system, a frame to be operating in a communication system that can transmit data (data) through the (frame) or a packet (packet) have.

도 2는 본 발명의 일실시예에 따른 휴대 단말기를 전면에서 바라본 사시도이고, 도 3는 도 2에 도시한 휴대 단말기의 후면 사시도이다. Figure 2 is a perspective view viewed from the front of a mobile terminal according to one embodiment of the invention, Figure 3 is a rear perspective view of the portable terminal shown in FIG. 이하에서는 도 2 및 도 3을 참조하여, 본 발명과 관련된 휴대 단말기를 외형에 따른 구성요소 관점에서 살펴 보기로 한다. Hereinafter, with reference to Figures 2 and 3, and a look at the component point of view according to a wireless terminal associated with the present invention in outline. 또한, 이하에서는 설명의 편의상, 폴더 타입, 바 타입, 스윙타입, 슬라이더 타입 등과 같은 여러 타입의 휴대 단말기들 중에서 전면 터치스크린이 구비되어 있는, 바 타입의 휴대 단말기를 예로 들어 설명한다. Further, in the following for convenience, description of the folder type, bar type, swing type, that is provided with a front touch screen, from among several types of mobile terminals such as a slider type will be described, for the bar type portable terminal as an example. 그러나, 본 발명은 바 타입의 휴대 단말기에 한정되는 것은 아니고 전술한 타입을 포함한 모든 타입의 휴대 단말기에 적용될 수 있다. However, the present invention can be applied to any type of mobile terminal is not limited to the bar type mobile terminal including the types described above.

도 2를 참조하면, 휴대 단말기(100)의 외관을 이루는 케이스는, 프론트 케이스(100-1)와 리어 케이스(100-2)에 의해 형성된다. 2, the case constituting the external appearance of the portable terminal 100 is formed by a front case 100-1 and the rear case 100-2. 프론트 케이스(100-1)와 리어 케이스(100-2)에 의해 형성된 공간에는 각종 전자부품들이 내장된다. Space formed by the front case 100-1 and the rear case 100-2 there are various types of electronic components are embedded. 프론트 케이스(100-1)와 리어 케이스(100-2)는 합성수지를 사출하여 형성되거나, 금속 재질, 예를 들어 스테인레스 스틸(STS) 또는 티타늄(Ti) 등과 같은 금속 재질을 갖도록 형성될 수도 있다. The front case 100-1 and the rear case 100-2 may be formed to have a metal material such as may be formed by injection molding a synthetic resin, metallic material, such as stainless steel (STS) or titanium (Ti).

본체, 구체적으로 프론트 케이스(100-1)에는 디스플레이부(151), 제1 음향출력모듈(153a), 제1 카메라(121a), 및 제1 내지 제3 사용자 입력부(130a, 130b, 130c)가 배치될 수 있다. Body, specifically the front case 100-1, the display unit 151, a first sound output module (153a), the first camera (121a), and the first to third user input unit (130a, 130b, 130c) It may be placed. 그리고, 리어 케이스(100-2)의 측면에는 제4 사용자 입력부(130d), 제5 사용자 입력부(130e), 및 마이크(123)가 배치될 수 있다. Then, the side of the rear case 100-2 may be the fourth user input unit (130d), the fifth user input unit (130e), and a microphone 123 is disposed.

디스플레이부(151)는 터치패드가 레이어 구조로 중첩됨으로써, 디스플레이부(151)가 터치스크린으로 동작하여 사용자의 터치에 의한 정보의 입력이 가능하도록 구성할 수도 있다. Display unit 151 may be by being overlaid with the layer structure of the touch pad, the display unit 151 operates as a touch screen configured to enable input of information by the user's touch.

제1 음향출력 모듈(153a)은 리시버 또는 스피커의 형태로 구현될 수 있다. First sound output module (153a) it may be implemented in the form of a receiver or speaker. 제1 및 제2 카메라(121a, 121b)는 사용자 등에 대한 이미지 또는 동영상을 촬영하기에 적절한 형태로 구현될 수 있다. First and second cameras (121a, 121b) may be implemented in a form suitable for taking pictures or video for a user or the like. 제1 카메라(121)는, 후술하는 3D 프로젝션 모드에서 3D 제스쳐의 인식을 위해 사용될 수도 있다. The first camera 121, may be used for the recognition of the 3D gesture in 3D projection mode, which will be described later.

그리고, 마이크(123)는 사용자의 음성, 기타 소리 등을 입력받기 적절한 형태로 구현될 수 있다. Then, the microphone 123 may be implemented in an appropriate form for inputting the user's voice, other sound and so on.

제1 내지 제5 사용자 입력부(130a, 130b, 130c, 130d, 130e)와 후술하는 제6 및 제7 사용자 입력부(130f, 130g)는 사용자 입력부(130)라 통칭할 수 있으며, 사용자가 촉각적인 느낌을 주면서 조작하게 되는 방식(tactile manner)이라면 어떤 방식이든 채용될 수 있다. First to fifth sixth and seventh user input unit (130f, 130g) may be collectively called the user input unit 130, sense the user and tactile to a user input will be described later (130a, 130b, 130c, 130d, 130e) and If you are giving to the operation mode (tactile manner) it may be employed any way.

예를 들어, 사용자 입력부(130)는 사용자의 푸시 또는 터치 조작에 의해 명령 또는 정보를 입력받을 수 있는 돔 스위치 또는 터치 패드로 구현되거나, 키를 회전시키는 휠 또는 조그 방식이나 조이스틱과 같이 조작하는 방식 등으로도 구현될 수 있다. For example, the user input unit 130 is implemented as a dome switch or touch pad which can receive commands or information by a user's push or touch operation, or the way that the steps wheel or jog manner, or a joystick to rotate keys It may be implemented as such. 기능적인 면에서, 제1 내지 제3 사용자 입력부(130a, 130b, 130c)는 시작, 종료, 스크롤 등과 같은 명령을 입력하기 위한 것이고, 제4 사용자 입력부(130d)는 동작 모드의 선택 등을 입력하기 위한 것이다. From a functional aspect, the first to third user input unit (130a, 130b, 130c) is to input the start and end, is for inputting a command such as a scroll, a fourth user input unit (130d) is selected in the operation mode, etc. intended. 또한, 제5 사용자 입력부(130e)는 휴대 단말기(100) 내의 특수한 기능을 활성화하기 위한 핫 키(hot-key)로서 작동할 수 있다. Further, the fifth user input unit (130e) may operate as a hot key (hot-key) for activating a particular function within the mobile terminal 100.

도 3을 참조하면, 리어 케이스(100-2)의 후면에는 제2 카메라(121b)가 추가로 장착될 수 있으며, 리어 케이스(100-2)의 측면에는 제6 및 제7 사용자 입력부(130f, 130g)와, 인터페이스부(170)가 배치될 수 있다. 3, the side of the rear case 100-2 may be the rear second camera (121b) is mounted additionally, the rear case 100-2 In the sixth and seventh user input unit (130f, the 130g) and an interface unit 170 may be disposed.

제2 카메라(121b)는 제1 카메라(121a)와 실질적으로 반대되는 촬영 방향을 가지며, 제1 카메라(121a)와 서로 다른 화소를 가질 수 있다. A second camera (121b) may have a first camera (121a) and substantially has a photographing direction that is opposite to the first camera (121a) and a different pixel. 제2 카메라(121b)에 인접하게는 플래쉬(미도시)와 거울(미도시)이 추가로 배치될 수도 있다. The second is close to the camera (121b) may be arranged to add a flash (not shown) and a mirror (not shown). 또한, 제2 카메라(121b) 인접하게 다른 카메라를 더 설치하여 3차원 입체 영상의 촬영을 위해 사용할 수도 있다. In addition, the second camera (121b) adjacent to the further installing another camera may be used for recording of three-dimensional image.

플래쉬는 제2 카메라(121b)로 피사체를 촬영하는 경우에 상기 피사체를 향해 빛을 비추게 된다. Flash is lit the light toward the subject in the case of photographing the subject with the second camera (121b). 거울은 사용자가 제2 카메라(121b)를 이용하여 자신을 촬영(셀프 촬영)하고자 하는 경우에, 사용자 자신의 얼굴 등을 비춰볼 수 있게 한다. The mirror allows the user In light of the second shot himself using the camera (121b) (self-photographing) if it is desired to, the user's own face or the like.

리어 케이스(100-2)에는 제2 음향출력 모듈(미도시)가 추가로 배치될 수도 있다. Rear case 100-2, it may be arranged to add the second audio output module (not shown). 제2 음향출력 모듈은 제1 음향출력 모듈(153a)와 함께 스테레오 기능을 구현할 수 있으며, 스피커폰 모드로 통화를 위하여 사용될 수도 있다. The second sound output module may be used for the call, the speaker phone mode may implement a stereo function together with the first sound output module (153a).

인터페이스부(170)는 외부 기기와 데이터가 교환되는 통로로 사용될 수 있다. Interface unit 170 may be used as a passage through which the external apparatus and the data exchange. 그리고, 프로톤 케이스(100-1) 및 리어 케이스(100-2)의 일 영역에는 통화 등을 위한 안테나 외에 방송신호 수신용 안테나(미도시)가 배치될 수 있다. And, it proton case 100-1 and the rear case 100-2 work area (not shown) in addition to the broadcasting signal receiving antenna can be an antenna for a call, etc. can be placed. 안테나는 리어 케이스(100-2)에서 인출 가능하게 설치될 수 있다. Antenna may be installed to be drawn out from the rear case 100-2.

리어 케이스(100A-2)의 상측에는, 3D 프로젝터 모듈(175)이 배치될 수 있다. In the upper side of the rear case (100A-2), there 3D projector module 175 can be disposed. 3D 프로젝터 모듈(175)은 광원으로부터 출사된 광을 조사하여 투사면에 2D 영상이나 3D 입체 영상을 투사한다. 3D projector module 175 is irradiated with light emitted from the light source to project a 2D image or a 3D stereoscopic image on a projection surface. 3D 프로젝터 모듈(175)에 인접하게는 3D 프로젝터 모듈(175)에서 투사되는 영상의 촛점 조절 등을 위한 스위치(177)가 배치될 수 있다. Is adjacent to the 3D projector module 175 may be disposed a 3D projector module 175, switch 177 for such as focus control of the image projected from. 리어 케이스(100-2) 측에는 휴대 단말기(100)에 전원을 공급하기 위한 전원공급부(190)가 장착될 수 있다. There rear case the power supply unit 190 for supplying power to the mobile terminal 100 side (100-2) can be mounted. 전원공급부(190)는, 예를 들어 충전 가능한 배터리로서, 충전 등을 위하여 리어 케이스(100-2)에 착탈 가능하게 결합될 수 있다. Power supply unit 190 is, for example, as a rechargeable battery and may be detachably coupled to the rear case 100-2 for such charge.

이상에서는 제2 카메라(121b) 등이 리어 케이스(100-2)에 배치되는 것으로 설명하였으나, 반드시 이에 제한되는 것은 아니다. In the above it has been described as including a second camera (121b) disposed in the rear case 100-2, but are not necessarily limited thereto. 또한, 제2 카메라(121b)가 별도로 구비되지 않더라도, 제1 카메라(121a)를 회전 가능하게 형성되어 제2 카메라(121b)의 촬영 방향까지 촬영 가능하도록 구성될 수도 있다. In addition, the second camera (121b) even if it is not provided separately, the 1 is formed to enable the camera is rotated (121a) may be configured so as to photograph to a photographing direction of the second camera (121b).

도 4a 및 도 4b는 본 발명의 일실시예에 따른 휴대 단말기의 제어방법에 대한 설명에 제공되는 흐름도이다. Figures 4a and 4b are flow charts provided in the description of the method of controlling a mobile terminal according to one embodiment of the present invention.

도 4a를 참조하면, 사용자 명령 등에 따라, 3D 입체 영상을 투사하는 기능을 제공하는 3D 프로젝션 모드가 선택되면(S200), 제어부(180)는 3D 프로젝터 모듈(175)을 구동한다(S205). When Referring to Figure 4a, according to the user command selecting the 3D projection mode that provides the ability to project the 3D stereoscopic image (S200), the controller 180 drives the 3D projector module (175) (S205).

3D 프로젝터 모듈(175)이 구동에 따라, 3D 프로젝터 모듈(175)의 내부에 구비되는 램프와 같은 광원으로부터 출사된 광이 조사되어, 본체로부터 이격된 투사면에 좌안 이미지와 우안 이미지의 시차를 이용하는 3D 입체 영상(Stereoscopic 3D image)이 투사된다(S210). 3D projector module 175 is in accordance with the drive, 3D projector module 175, the light emitted from a light source such as a lamp provided in the interior of the irradiated, on the projection surface remote from the body using a parallax of the left eye image and the right eye image 3D stereoscopic image (3D stereoscopic image) is projected (S210).

3D 입체 영상(Stereoscopic 3D image)이란 모니터나 스크린상에서 사물이 위치한 점진적 깊이(depth)와 실체(Reality)를 현실 공간과 동일하게 느낄 수 있도록 하는 영상을 의미한다. The stereoscopic 3D (Stereoscopic 3D image) is gradually deep (depth) and reality (Reality) things are located on a monitor or screen means the image to make you feel the same way as the real space. 3D 입체 영상은, 두 눈이 서로 다른 2차원 이미지를 보고, 그 이미지들이 망막을 통하여 뇌로 전달되면, 이를 융합하여 입체 영상의 깊이 및 실체감을 느끼게 하는 것이다. 3D stereoscopic image is, to see the eyes of different two-dimensional image, when the image to the brain passing through the retina, and to fuse them to feel a sense of depth and reality of the stereoscopic image. 대략 65㎜ 떨어져 있는 사람의 눈의 위치에 의하여 이루어지는 양안 시차(binocular disparity)가 입체감을 느끼게 한다. The binocular disparity (binocular disparity) formed by the position of the human eye detached approximately 65㎜ to feel a stereoscopic effect. 양안 시차는 모든 3차원 표시 장치가 기본적으로 만족시켜야 하는 가장 중요한 요소이다. Binocular disparity is the most important factor in all the three-dimensional display device must meet to default.

3D 입체 영상을 표시하는 방식에는, 안경을 사용하는 스테레오스코픽 (Stereoscopic)방식, 무안경 방식인 오토스테레오스코픽(Auto-steroscopic) 방식, 및 홀로그래픽(Holographic)을 사용하는 프로젝션 방식 등이 있다. Method for displaying a 3D stereoscopic image, there is a stereoscopic (Stereoscopic) using glasses system, autostereoscopic methods of autostereoscopic (Auto-steroscopic) scheme, and a projection system that uses the graphics alone (Holographic) and the like.

3D 프로젝터 모듈(175)은 좌안 이미지와 우안 이미지를 담당하는 2개의 영상엔진과 램프를 각각 구비하여, 왼쪽 눈과 오른쪽 눈에 보여질 입체 영상을 한 개의 렌즈를 통해 투사할 수 있다. 3D projector module 175 can be projected and provided with two video engine and the lamp that is responsible for the left eye images and right-eye image, respectively, the quality three-dimensional image displayed on the right and left eyes with a single lens. 이때 3D 입체 영상은 셔터글라스 방식으로 3D 안경을 착용해서 보는 방식으로 표현할 수도 있고, 무안경 방식으로 표시할 수도 있다. The 3D stereoscopic image may be expressed by way of looking by wearing the 3D glasses, the shutter glass method, it is also possible to display the non-glasses method.

만일, 3D 제스쳐(3D gesture)를 인식하도록 설정되어 있는 경우(S215), 제어부(180)는 카메라(121)를 통해 획득하는 비주얼 데이터의 분석을 통해 미리 설정되어 있는 3D 제스쳐가 검출되는지 여부를 판단한다(S220). If, determines whether or not the case is set up to recognize the 3D gesture (3D gesture) (S215), the controller 180 is that the 3D gesture that is set beforehand through analysis of visual data acquired through the camera 121 detected and (S220).

여기서, 3D 제스쳐는 사용자 손이나 기타 근접물체의 움직임과 같은 모션 제스쳐(motion gesture)나, 손이나 근접물체의 모양, 크기 등을 인식하거나 특정 손동작과 같은 핸드 제스쳐(hand gesture)를 의미한다. Here, the 3D gesture recognizing the user the shape of a finger or other close-motion gestures, such as movement of the object (gesture motion), or a finger or object close-up, size, or mean a hand gesture (hand gesture), such as specific hand gestures. 이와 같은 3D 제스쳐와 3D 제스쳐에 대응하는 3D 프로젝션 관련 동작은 사용자에 의해 미리 설정될 수 있다. Such 3D and 3D gesture operation corresponding to the 3D projection related gestures may be pre-set by the user.

또한, 3D 제스쳐의 인식 설정은, 3D 프로젝터 모듈(175)의 구동 후, 카메라 버튼이나 프로젝터 버튼 등과 같은 특정 키를 누르거나, 관련 메뉴에서 선택할 수 있다. In addition, the set of 3D gesture recognition is, after the driving of the 3D projector module 175, pressing a specific key such as a button or buttons and the projector, it is possible to select the relevant menu. 또한, 미리 자동 실행을 선택하여, 3D 프로젝트 모듈(175)의 구동과 함께 3D 제스쳐 인식이 자동 설정되도록 구성할 수도 있다. It is also possible to configure such that the 3D gesture recognition automatically set with the operation of selecting a pre-run automatically, project 3D module 175.

설정 상태에 따라서는, 일정 시간 동안 3D 제스처가 인식되지 않는 경우, 배터리 소모를 줄이기 위해 카메라(121) 등의 구동을 자동으로 정지시킬 수도 있다. According to the setting conditions, when 3D gesture is not recognized for a predetermined time, it is also possible to automatically stop the driving, such as the camera 121 in order to save battery life.

S220 단계의 판단 결과, 기설정된 3D 제스쳐가 검출된 경우, 제어부(180)는 검출된 3D제스쳐에 대응하는 3D 프로젝션 관련 동작이 수행되도록 한다(S225). If the determination result of step S220, the group set 3D gesture is detected, the control unit 180 to perform the 3D projection related operations corresponding to the detected 3D gesture (S225).

예컨대, 사용자의 손을 카메라(121)에 근접시킨 경우, 근접 거리에 따라 3D 입체 영상의 입체감을 조절하거나, 사용자의 손가락을 모았다가 피는 경우 3D 입체 영상을 확대하는 동작 등을 수행할 수 있다. For example, the user's hands can be performed, such as the case where proximity to the camera 121, a close-up according to the distance to adjust the stereoscopic effect of the 3D stereoscopic image, or if the blood is collected the user's finger action to expand the 3D stereoscopic image.

이외에도 3D 입체 영상에서 2D 영상으로 전환하거나 그 반대로 전환하는 동작, 다른 장면을 표시하는 동작, 제어를 위한 포인트나 제어 메뉴를 3D 입체 영상에 표시하는 동작, 3D 입체 영상에서 특정 오브젝트가 표시되는 레이어의 전환 등과 같은 3D 프로젝션 관련 동작을 미리 설정된 3D 제스쳐에 따라 수행할 수 있다. In addition to the layer that a particular object displayed in the switch to the 2D image on the 3D stereoscopic image or the reverse operation to switch the operation of displaying a point, the control menu for the operation, control to display the different scenes on 3D images, the 3D stereoscopic image It may be carried along the 3D projection-related operations, such as switching to a 3D gesture preset.

도 4b를 참조하면, 3D 제스쳐에 의한 동작 외에 기타 다른 프로젝터 기능이 선택된 경우에는(S230), 제어부(180)는 선택된 기능에 대응하는 동작이 수행되도록 제어한다(S235). If Referring to Figure 4b, in addition to operations by the 3D gesture other projector functions are selected (S230), the controller 180 controls to perform the operation corresponding to the selected function (S235). 또한, 3D 프로젝션 모드에서, 통화 수신, 메시지 수신, 이메일 수신 등과 같은 통신 이벤트가 발행하는 경우, 통신 이벤트 발생을 나타내는 알림 메시지나 알림음과 같은 알림 신호를 출력할 수 있다. Also, in the 3D projection mode, call reception can be issued when a communication event such as a message reception, email reception, outputs a notification signal such as a notification or alarm sound indicating the communication event. 설정 상태에 따라서는 3D 프로젝터 모드가 종료된 후, 통신 이벤트의 발생을 나타내는 알림 신호가 출력되도록 구성할 수 있다. Therefore, the setting may be configured to output an alert signal indicating the occurrence of a communication event after the 3D mode, the projector end.

그리고, 3D 프로젝션 모드의 종료가 선택되지 않는 경우, 제어부(180)는 S215 단계 이후의 과정이 반복적으로 수행되도록 한다(S240). And, so that if it does 3D projection mode termination is not selected, the controller 180 is repeatedly performed after the process of step S215 (S240).

이와 같은 과정에 의해, 3D 프로젝션 모드에서 3D 제스쳐를 이용하여 3D 프로젝션과 관련된 동작을 제어할 수 있다. By this process, such as, by using a 3D gesture in 3D projection mode, it is possible to control motion associated with the 3D projection.

다음의 도 5 내지 도 7은 본 발명의 일실시예에 따른 휴대 단말기에서 3D 제스쳐 설정과 관련된 과정에 대한 설명에 참조되는 도면이다. Next 5 to 7 is a diagram referred to in description of the procedures involved in the 3D gesture set in the portable terminal according to an embodiment of the present invention.

도 5는 프로젝터 메뉴 선택 화면의 일 예를 나타낸 것이다. Figure 5 illustrates an example of a menu selection screen projector. 프로젝터 메뉴 화면(300)에서 3D 제스쳐 인식을 설정하거나 해제할 수 있다. In the menu screen, the projector 300 can be turned on or off the 3D gesture recognition. 즉, 3D 제스쳐 인식 메뉴에서 '설정'(303) 항목이 선택된 경우, 3D 프로젝션 모드에서 3D 제스쳐를 인식하고, '해제'(305) 항목이 선택된 경우 3D 프로젝션 모드에서 3D 제스쳐를 인식하지 않도록 설정할 수 있다. That is, if the 3D gesture recognition menu "Options" 303 items is selected, recognizing the 3D gesture in 3D projection mode, and the "out" 305. If the item is selected can be set so as not to recognize the 3D gesture in 3D projection mode, have.

도 6은 프로젝터 설정 화면의 일 예를 나타낸 것이다. Figure 6 illustrates an example of a setting screen projector. 프로젝터 설정 화면(310)에서 3D 제스처 인식에 대한 자동 실행이나 수동 실행 등을 선택할 수 있다. In the projector setup screen 310 may select automatic or manual execution, such as run on 3D gesture recognition. 즉, '자동 실행'(313) 항목을 선택한 경우, 3D 프로젝터 모듈(175)의 구동 시, 카메라(121)를 동시에 구동하여 3D 제스처 인식을 자동으로 실행할 수 있다. That is, the "automatic execute" 313, if selecting the item, and the time of driving the 3D projector module 175, camera 121 at the same time driving can be automatically executed by the 3D gesture recognition. '수동 실행'(315) 항목을 선택한 경우에는 3D 프로젝터 모듈(175) 구동 후, 특정 키나 메뉴를 통해 3D 제스처 인식을 수동으로 실행할 수 있다. When the "manual run" to select (315) column can be carried out a 3D gesture recognition manually through the 3D projector module 175 is then driven, the specific key or menu.

또한, 3D 제스쳐 설정 메뉴에서 '설정'(315) 항목을 선택하여 새로운 3D 제스쳐를 설정할 수 있고, '해제'(317) 항목을 선택하여 설정된 3D 제스쳐의 설정을 해제할 수도 있다. Further, it is possible to set a new 3D gesture by selecting the "Options" 315 entry in the 3D gesture setting menu, it is also possible to disable the 3D gesture set by selecting the "off '317 item.

도 7은 3D 제스쳐를 설정하는 화면의 일 예를 나타낸 것이다. Figure 7 illustrates an example of a screen for setting the 3D gesture. 도 7의 (a) 는 손가락을 원형으로 움직이는 3D 제스쳐에 대해 3D 입체 영상을 X축 방향으로 이동시키는 동작을 설정하는 화면(320)을 나타낸 것이다. Figure 7 (a) illustrates a screen 320 for setting an operation for moving a 3D stereoscopic image in the X-axis direction with respect to the 3D gesture moving the finger in a circular motion. 도 7의 (b) 는 손가락을 아래로 꺽인 화살 모양으로 움직이는 3D 제스쳐에 대해 3D 입체 영상을 Y축 방향으로 이동시키는 동작을 설정하는 화면(330)을 나타낸 것이다. 7 (b) illustrates a screen 330 for setting an operation for moving a 3D stereoscopic image in the Y-axis direction with respect to the 3D gesture kkeokin moving the arrow-shaped fingers down. 그리고, 도 7의 (a)는 손가락을 위로 꺽인 화살 모양으로 움직이는 3D 제스쳐에 대해 3D 입체 영상을 깊이감을 변화시키는 동작을 설정하는 화면(340)을 나타낸 것이다. And, (a) of Figure 7 shows a screen 340 for setting the operation of changing the depth of the 3D stereoscopic image for 3D gesture kkeokin up a finger moving in an arrow shape.

이와 같이, 3D 제스쳐의 설정 및 3D 제스쳐의 종류와 개수 등은 사용자에 의해 설정이 가능하다. In this manner, setting and type and number of 3D gesture of 3D gesture and the like can be set by the user.

도 8 내지 도 15는 본 발명의 일실시예에 따라 3D 제스쳐에 의해 3D 프로젝션 관련 동작이 수행되는 예를 설명하기 위한 도면이다. 8 to 15 are diagrams for explaining an example of the 3D projection-related operation performed by the 3D gesture in accordance with an embodiment of the invention.

도 8의 (a)는 투사면에 3D 입체 영상(360)이 표시된 상태에서, 사용자 손(500)이 제1 카메라(121a)로 접근하고 있는 것을 나타낸 것이다. (A) of Figure 8 shows that in the state shown in the 3D stereoscopic image 360, the user's hand 500 approaches the first camera (121a) on the projection surface. 이와 같은 상태에서, 도 8의 (b)에 도시한 바와 같이, 사용자 손(500)이 제1 카메라(121a)로 더 근접하는 3D 제스쳐가 있으면, 투사면에 입체감이 더 높아진 3D 입체 영상(370)을 표시할 수 있다. In such a state, as shown in (b) of Figure 8, user's hand 500, first, if the 3D gesture further close-up by a camera (121a), increased more three-dimensional appearance to the projection surface, the 3D stereoscopic image (370 ) it can be displayed.

이와 같이, 3D 입체 영상이 투사되고 있는 상태에서 사용자 손이나 기타 근접물체가 휴대 단말기(100)로 가까워지거나 멀어지는 3D 제스쳐에 의해 3D 입체 영상의 입체감을 조절할 수 있다. In this way, the 3D stereoscopic image from being projected state is user finger or other close-up objects may adjust the stereoscopic effect of the 3D stereoscopic image by the 3D gesture away from or closer to the mobile terminal 100.

도 9의 (a)는 투사면에 3D 입체 영상(380)이 표시된 상태에서, 사용자의 손(500)이 제1 카메라(121a)로 접근하는 3D 제스쳐가 있는 경우를 나타낸 것이다. (A) of Figure 9 shows the case where the 3D gesture that while 3D stereoscopic image 380 is displayed, the user's hand 500 approaches the first camera (121a) on the projection surface. 이와 같이 3D 제스쳐가 있는 경우, 도 9의 (b)에 도시한 바와 같이, 투사면에 2D 영상(390)을 표시할 수 있다. In this manner, when in the 3D gesture, it is possible to display the 2D image 390 on the projection surface as shown in (b) of FIG.

이와 같이, 3D 입체 영상이 투사되고 있는 상태에서 기설정된 3D 제스쳐가 있는 경우, 2D 영상의 투사 상태로 전환할 수 있다. Like this, when the 3D gesture set based on the state in which the 3D stereoscopic image is projected, it is possible to switch to the projection state of the 2D image. 마찬가지로, 2D 영상이 투사되고 있는 상태에서 기설정된 3D 제스쳐가 있는 경우, 3D 입체 영상의 투사 상태로 전환할 수도 있다. Similarly, if the 3D gesture set based on the state in which the 2D image is projected, it is also possible to switch to the projection state of the 3D stereoscopic image.

도 10의 (a)는 투사면에 3D 입체 영상(400)이 표시된 상태에서, 사용자 손(500)이 손가락이 모아져서 제1 카메라(121a)로 접근하고 있는 것을 나타낸 것이다. Figure 10 (a) shows so while the displayed 3D stereoscopic image 400, the user's hand 500 is gathered up to the projection surface, and in that access to the first camera (121a). 이와 같은 상태에서, 도 10의 (b)에 도시한 바와 같이, 사용자 손(500)의 손가락을 벌리는 3D 제스쳐가 있으면, 투사면에 확대된 3D 입체 영상(410)을 표시할 수 있다. In such a state, as shown in FIG. 10 (b), if a 3D gesture-open the fingers of user's hand 500, it is possible to display a 3D stereoscopic image (410) enlarged on the projection surface.

이와 같이, 3D 입체 영상이 투사되고 있는 상태에서, 특정 손동작과 같이 미리 설정된 3D 제스쳐에 따라 3D 입체 영상을 확대하거나 축소할 수 있으며, 화면을 이동시켜 표시하거나, 화면의 크기를 조절할 수도 있다. In this way, in the state in which the 3D stereoscopic image is projected, it is possible to enlarge the 3D stereoscopic image or reduced in accordance with the 3D gestures preset as specific hand gestures, to move the display screen, or may adjust the magnification of the screen.

도 11의 (a)는 투사면에 3D 입체 영상(420)이 표시된 상태에서, 사용자 손(500)이 제1 카메라(121a)로 접근하고 있는 것을 나타낸 것이다. (A) of Figure 11 shows that in the state shown in the 3D stereoscopic image 420, the user's hand 500 approaches the first camera (121a) on the projection surface. 이와 같은 상태에서, 도 11의 (b)에 도시한 바와 같이, 사용자 손(500)이 옆으로 이동하는 3D 제스쳐가 있으면, 이전이나 다음 3D 입체 영상(430)을 표시할 수 있다. In such a state, as shown in FIG. 11 (b), if a 3D gesture to the user's hand 500 is moved to the side, it is possible to display the next or previous 3D stereoscopic image (430).

이와 같이, 3D 입체 영상이 투사되고 있는 상태에서 사용자 손이나 기타 근접물체가 움직이는 3D 제스쳐가 있는 경우, 움직이는 방향에 따라 이전이나 다음 3D 입체 영상을 표시하거나, 3D 입체 동영상 재생의 경우 고속 탐색 동작을 수행할 수 있다. Thus, 3D, if three-dimensional image is in being projected state in which the user's hand or other close-up 3D gesture object is moving, the previous or the following cases display the 3D stereoscopic image, or, 3D stereoscopic video playback fast search operation in accordance with the moving direction It can be carried out.

도 12는 투사면에 3D 입체 영상(450)이 표시된 상태에서, 사용자의 손(500)이 제1 카메라(121a)로 접근하는 3D 제스쳐가 있는 경우를 나타낸 것이다. 12 shows a case in which the 3D gesture that while 3D stereoscopic image 450 is displayed, the user's hand 500 approaches the first camera (121a) on the projection surface. 이와 같이 3D 제스쳐가 있는 경우, 투사면에 회전각 또는 깊이감 제어를 위한 포인터(453)을 표시할 수 있다. In this manner, when in the 3D gesture, it is possible to display each or pointer 453 for the depth control rotation on the projection surface. 포인터(453)가 표시 상태에서, 손이나 근접물체의 움직임을 통해 3D 입체 영상(450)의 회전이나 깊이 등을 조절할 수 있다. Pointer 453 in the display state, it is possible via a movement of a finger or object close-controlled, such as rotation or the depth of the 3D stereoscopic image (450).

또한, 검지 손가락 접었다 피면 마우스 클릭 동작, 중지 손가락을 접었다 피면 마우스 우 클릭에 해당하는 동작을 수행할 수 있다. In addition, the index finger folded folded blooms mouse-click behavior, stop the finger Releasees may perform an operation corresponding to a mouse right-click. 또한, 약지 손가락을 한번 접었다 피면 다음 화면 표시, 모든 손가락 폈다가 접으면 현재 창 닫기, 세 손가락 폈다 접으면 현재 포인터와 동일 깊이의 레이어에 있는 아이콘만 보여 주는 동작, 두 손가락을 폈다 접으면 현재 레이어에서 한 층 내려가거나 혹은 In addition, the ring finger once folded blooms next screen display, when all the fingers open and close the fold if the current window close contact years if the finger smoked folded open and close the operation, two fingers, showing only the icon in the layers of the current pointer and the same depth the current layer down on a floor or in or 올라가는 동작 등을 수행할 수도 있다. It may perform operations such as blasting.

도 13은 투사면에 3D 입체 영상(460)이 표시된 상태에서, 사용자의 손(500)이 제1 카메라(121a)로 접근하는 3D 제스쳐가 있는 경우를 나타낸 것이다. Figure 13 illustrates the case in which the 3D gesture that is shown in the 3D stereoscopic image (460) on a projection surface state, the user's hand (500) access to the first camera (121a). 이와 같이 3D 제스쳐가 있는 경우, 투사면에 제어 메뉴(463)를 표시할 수 있다. Thus, if the 3D gesture, it is possible to display the control menu 463 on the projection surface.

제어 메뉴(463)가 표시되면, 검지 손가락을 구부리는 움직임이나 약지 손가락을 구부리는 움직임 등과 같은 3D 제스쳐에 의해 제어 메뉴(463)에서 원하는 항목을 선택하여 실행할 수 있다. When the control menu 463 is displayed, can be executed by selecting a desired item from the menu control 463, by the 3D gesture, such as bending the index finger moves the bending movement or ring finger.

도 14는 투사면에 3D 입체 영상(470)이 표시된 상태에서, 사용자의 손(500)이 제1 카메라(121a)로 접근하는 3D 제스쳐가 있는 경우를 나타낸 것이다. Figure 14 illustrates the case in which the 3D gesture that while 3D stereoscopic image 470 is displayed, the user's hand 500 approaches the first camera (121a) on the projection surface. 이와 같이 3D 제스쳐가 있는 경우, 투사면에 3D 효과를 설정할 수 있는 3D 효과 메뉴(473)를 표시할 수 있다. Thus, if the 3D gesture, it is possible to display 3D effects menu 473 to set the 3D effect on the projection surface.

이러한 3D 효과 메뉴(473)을 통해 3D 입체 영상(470)의 밝기나 색상을 조절하거나, 배경색, 선색 등을 선택할 수 있다. These through 3D effect setting (473) to adjust the brightness or color of the 3D stereoscopic image (470), or can select a background color, and so on seonsaek.

도 15의 (a)는 투사면에 3D 입체 영상(480)이 표시된 상태에서, 사용자의 손(500)이 제1 카메라(121a)로 접근하는 3D 제스쳐가 있는 경우를 나타낸 것이다. (A) of Figure 15 illustrates the case in which the 3D gesture that while 3D stereoscopic image 480 is displayed, the user's hand 500 approaches the first camera (121a) on the projection surface. 이와 같이 3D 제스쳐가 있는 경우, 도 15의 (b)에 도시한 바와 같이, 3D 입체 영상(480)에서 선택된 객체들(483, 485)간의 깊이를 서로 변경하여 표시할 수 있다. In this manner, when in the 3D gesture may be displayed by changing the depth between the 3D stereoscopic image (480) of the selected object (483, 485) with each other as shown in FIG. 15 (b).

즉, 3D 제스처 인식 가능한 상태에서, 기지정된 3D 제스쳐가 감지되면, 선택된 객체를 간의 깊이가 서로 전환되어, 뒤쪽에 있던 객체를 앞으로 이동시키고 앞쪽에 있던 객체를 뒤로 이동시킬 수 있다. That is, if the 3D gesture recognition state, based 3D gesture is detected is specified, is the depth between the selected object switch between, it is possible to move an object that was on the back of forward moves the object was on the front side back. 또한, 멀티태스킹 중 뒷쪽 레이어(layer)에 배치된 애플리케이션을 앞쪽 레이어에 배치된 애플리케이션과 스위칭하여 전환 실행하는 것도 가능하다. It is also possible to execute switching to the application with a switching arrangement disposed in front of the application layer on the back layer (layer) of the multi-tasking.

이외에도, 3D 제스쳐에 의해 3D 입체 동영상의 재생 정지, 일시 정지, 다시 재생 등의 재생과 관련된 동작의 제어를 수행할 수 있다. In addition, the reproduction stop of the 3D stereoscopic video by the 3D gesture, pause, it is possible to perform the control of operations associated with reproduction, such as a replay. 또한, 3D 제스처 인식 가능한 상태에서, 손의 크기 변화를 감지하여 손의 크기가 일정 비율 이상 커지거나 심하게 왜곡되는 경우에는 카메라(121)가 가려진 것으로 판단하여, 3D 프로젝터 모듈(147)의 구동을 정지 또는 일시 정지할 수도 있다. Also, in the 3D gesture recognition state, when sensing the change in size of the hand that the size of the hands is increased or severely distorted more than a predetermined ratio, it is determined that the camera 121 is covered, stop the driving of the 3D projector module 147 or it may be suspended. 입술에 사용자의 손을 가져가는 움직임에 의해서도 3D 프로젝터 모듈(147)의 구동을 정지하거나, 음향 출력을 정지시킬 수 있다. Even by taking the user's hand to the lips motion stop the driving of the 3D projector module 147, or it can stop the sound output.

그리고, 본 발명에 따른 휴대 단말기 및 그 동작 제어방법은 상기한 바와 같이 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다. And, all of the respective embodiments the mobile terminal and its operation control method is not specific to the composition and method of the embodiments described as above can be applied to only the embodiments so that various modifications may be made in accordance with the present invention or it may be part of a selectively combined in configuration.

한편, 본 발명은 휴대 단말기에 구비된 프로세서가 읽을 수 있는 기록매체에 프로세서가 읽을 수 있는 코드로서 구현하는 것이 가능하다. On the other hand, the present invention can be realized as code that can be read in the processor-readable recording medium is a processor provided in the mobile terminal. 프로세서가 읽을 수 있는 기록매체는 프로세서에 의해 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. The recording medium having processor-readable any type of recording device in which data readable by a processor storage. 프로세서가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한 인터넷을 통한 전송 등과 같은 캐리어 웨이브의 형태로 구현되는 것도 포함한다. Examples of the recording medium on which a processor-readable and a ROM, RAM, CD-ROM, magnetic tapes, floppy disks, optical data storage, and it is implemented in the form of carrier waves such as data transmission through the Internet. 또한 프로세서가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 프로세서가 읽을 수 있는 코드가 저장되고 실행될 수 있다. In addition, the processor-readable recording medium is distributed over network coupled computer systems so that the processor can read the code stored and executed in a distributed fashion.

또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안될 것이다. In addition, more than the been shown and described a preferred embodiment of the invention, the invention is not limited to the embodiment of the above-described particular, technology pertaining the art without departing from the subject matter of the present invention invention claimed in the claims field in the embodiment and various modifications are possible as well as by those of ordinary skill, this modified embodiment would should not be understood individually from the technical spirit or prospect of the present invention.

110 : 무선 통신부 120 : A/V 입력부 110: radio communication unit 120: A / V input unit
130 : 사용자 입력부 140 : 센싱부 130: a user input unit 140: a sensing unit
150 : 출력부 151 : 디스플레이부 150: output unit 151: display unit
160 : 메모리 170 : 인터페이스부 160: memory 170: interface unit
180 : 제어부 180: control unit

Claims (20)

  1. 본체에 3D 프로젝터 모듈을 마련하고, 상기 3D 프로젝터 모듈을 통해 상기 본체로부터 이격된 투사면에 3D 입체 영상을 투사하는 단계; Comprising: providing a 3D projector module to the main body, and projects the 3D stereoscopic image on the projection surface is spaced apart from the main body through the 3D projector module;
    카메라를 통해 획득하는 비주얼 데이터의 분석에 따라 기설정된 3D 제스쳐를 검출하는 단계; Detecting a 3D gesture predetermined according to analysis of visual data acquired through the camera; And
    상기 검출된 3D 제스쳐에 대응하는 3D 프로젝션 관련 동작이 수행되도록 상기 3D 프로젝터 모듈을 제어하는 단계를 포함하는 휴대 단말기의 동작 제어방법. An operation control method for a mobile terminal comprising the step of controlling the 3D projector module, such that the 3D projection associated action corresponding to the detected 3D gesture performed.
  2. 제1항이 있어서, In the first term,
    상기 3D 프로젝션 관련 동작은, 상기 3D 입체 영상의 입체감 조절 및 화면 이동 중 어느 하나인 것을 특징으로 하는 휴대 단말기의 동작 제어방법. The 3D projection-related operation is an operation control method for a mobile terminal, it characterized in that any of the three-dimensional display and control movement of the 3D stereoscopic image one.
  3. 제1항이 있어서, In the first term,
    상기 3D 프로젝션 관련 동작은, 3D 입체 영상의 투사와 2D 영상의 투사 간의 전환인 것을 특징으로 하는 휴대 단말기의 동작 제어방법. The 3D projection-related operation is an operation control method for a mobile terminal, characterized in that the transition between the projection of a 3D stereoscopic image and a 2D image projection.
  4. 제1항이 있어서, In the first term,
    상기 3D 프로젝션 관련 동작은, 상기 투사면에 제어를 위한 포인터의 표시 및 제어 메뉴의 표시 중 어느 하나인 것을 특징으로 하는 휴대 단말기의 동작 제어방법. The 3D projection-related operation is an operation control method for a mobile terminal, characterized in that one of the displays of the transparent display and control menu for the control of the pointer on one surface.
  5. 제1항이 있어서, In the first term,
    상기 3D 프로젝션 관련 동작은, 상기 3D 입체 영상의 확대, 축소, 및 회전 중 어느 하나인 것을 특징으로 하는 휴대 단말기의 동작 제어방법. The 3D projection-related operation is an operation control method for a mobile terminal, characterized in that any one of the expansion of the 3D stereoscopic image, reduction, and rotation.
  6. 제1항에 있어서, According to claim 1,
    상기 3D 프로젝션 관련 동작은, 상기 3D 입체 영상에서 선택된 객체들간의 깊이를 서로 전환시키는 표시인 것을 특징으로 하는 휴대 단말기의 동작 제어방법. The 3D projection-related operation is an operation control method for a mobile terminal, characterized in that display to switch between the depth of a selected object from among the 3D stereoscopic image.
  7. 제1항에 있어서, According to claim 1,
    상기 3D 프로젝션 관련 동작은, 상기 3D 입체 영상의 밝기 조절, 크기 조절, 및 색상 조절 중 어느 하나인 것을 특징으로 하는 휴대 단말기의 동작 제어방법. The 3D projection-related operation is an operation control method for a mobile terminal, it characterized in that the brightness control of the 3D stereoscopic image, scaling, and any one of a color adjustment.
  8. 제1항에 있어서, According to claim 1,
    상기 3D 프로젝션 관련 동작은, 상기 3D 입체 영상의 이전이나 다음 영상의 표시인 것을 특징으로 하는 휴대 단말기의 동작 제어방법. The 3D projection-related operation is an operation control method for a mobile terminal, characterized in that the display of the next or previous image of the 3D stereoscopic image.
  9. 제1항에 있어서, According to claim 1,
    상기 3D 프로젝션 관련 동작은, 서로 다른 레이어에 배치된 애플리케이션 간의 전환 실행인 것을 특징으로 하는 휴대 단말기의 동작 제어방법. The 3D projection-related operation is an operation control method for a mobile terminal, it characterized in that the transition between each other running the applications disposed in the other layer.
  10. 제1항에 있어서, According to claim 1,
    상기 3D 제스쳐에 대응하는 기능을 설정할 수 있는 메뉴를 제공하는 단계를 더 포함하는 것을 특징으로 하는 휴대 단말기의 동작 제어방법. An operation control method for a mobile terminal according to claim 1, further comprising providing a menu to set a function corresponding to the 3D gesture.
  11. 제1항에 있어서, According to claim 1,
    상기 3D 제스쳐의 인식 여부를 선택할 수 있는 메뉴를 제공하는 단계를 더 포함하는 휴대 단말기의 동작 제어방법. An operation control method of the portable terminal further comprising providing a menu for selecting whether or not the recognition of the 3D gesture.
  12. 제1항에 있어서, According to claim 1,
    일정 시간 동안 상기 3D 제스쳐가 검출되지 않으면, 상기 카메라의 구동을 정지하는 단계를 더 포함하는 휴대 단말기의 동작 제어방법. If the predetermined period of time the 3D gesture is detected during an operation control method of the portable terminal further comprises the step of stopping the operation of the camera.
  13. 제1항에 있어서, According to claim 1,
    통신 이벤트의 발생시, 상기 통신 이벤트 발생을 나타내는 알림 신호를 출력하는 단계를 더 포함하는 휴대 단말기의 동작 제어방법. An operation control method for a mobile terminal, further comprising outputting a notification signal indicating the event, the communications event of the communication event.
  14. 카메라가 구비된 본체; A body with a camera;
    상기 본체에 구비되며, 광원으로부터 출사된 광을 조사하여 상기 본체로부터 이격된 투사면에 3D 입체 영상을 투사하는 3D 프로젝터 모듈; 3D projector module is provided to the main body, projecting the 3D stereoscopic image by irradiating the light emitted from the light source on a projection surface, remote from the main body; And
    상기 카메라를 통해 획득하는 비주얼 데이터의 분석에 따라 기설정된 3D 제스쳐가 검출되면, 상기 검출된 3D 제스쳐에 대응하는 3D 프로젝션 관련 동작이 수행되도록 상기 3D 프로젝터 모듈을 제어하는 제어부를 포함하는 휴대 단말기. When the 3D gesture predetermined according to analysis of visual data acquired through the detection to the camera, the portable terminal comprising a control section for controlling the 3D projector module a 3D projection associated action corresponding to the detected 3D gesture to be performed.
  15. 제14항이 있어서, In the fourteenth paragraph,
    상기 3D 프로젝션 관련 동작은, 상기 3D 입체 영상의 입체감 조절 및 화면 이동 중 어느 하나인 것을 특징으로 하는 휴대 단말기. The 3D projection-related operation is a wireless terminal, characterized in that at least one of three-dimensional display and control movement of the 3D stereoscopic image.
  16. 제14항이 있어서, In the fourteenth paragraph,
    상기 3D 프로젝션 관련 동작은, 3D 입체 영상의 투사와 2D 영상의 투사 간의 전환인 것을 특징으로 하는 휴대 단말기. The 3D projection-related operation is a wireless terminal, characterized in that the transition between the projection of a 3D stereoscopic image and a 2D image projection.
  17. 제14항에 있어서, 15. The method of claim 14,
    상기 제어부는, 일정 시간 동안 상기 3D 제스쳐가 검출되지 않으면, 상기 카메라의 구동을 정지하는 것을 특징으로 하는 휴대 단말기. If the control unit, for a period of time the 3D gesture is detected, the wireless terminal, characterized in that for stopping the operation of the camera.
  18. 제14항에 있어서, 15. The method of claim 14,
    상기 제어부는, 소정 3D 제스쳐가 검출되면, 상기 3D 프로젝터 모듈의 구동을 정지하는 것을 특징으로 하는 휴대 단말기. When the control section, the predetermined 3D gesture is detected, the wireless terminal, characterized in that for stopping the operation of the 3D projector module.
  19. 제14항에 있어서, 15. The method of claim 14,
    디스플레이부를 더 포함하며, Further comprising a display portion,
    상기 제어부는, 상기 3D 제스쳐의 인식 여부를 선택할 수 있는 메뉴를 상기 디스플레이부에 표시하는 것을 특징으로 하는 휴대 단말기. Wherein, the portable terminal to a menu for selecting whether or not the recognition of the 3D gesture characterized in that the display on the display unit.
  20. 제14항에 있어서, 15. The method of claim 14,
    상기 제어부는, 사용자 명령에 따라 상기 3D 제스쳐에 대응하는 기능을 설정하는 것을 특징으로 하는 휴대 단말기. Wherein, the mobile terminal, characterized in that to set a function corresponding to the 3D gesture based on the user command.
KR1020100093414A 2010-09-27 2010-09-27 Mobile terminal and operation control method thereof KR20120031805A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020100093414A KR20120031805A (en) 2010-09-27 2010-09-27 Mobile terminal and operation control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100093414A KR20120031805A (en) 2010-09-27 2010-09-27 Mobile terminal and operation control method thereof

Publications (1)

Publication Number Publication Date
KR20120031805A true KR20120031805A (en) 2012-04-04

Family

ID=46135163

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100093414A KR20120031805A (en) 2010-09-27 2010-09-27 Mobile terminal and operation control method thereof

Country Status (1)

Country Link
KR (1) KR20120031805A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013180446A1 (en) * 2012-05-29 2013-12-05 Kim Seok-Joong Remote manipulation device and remote manipulation method for performing virtual touch by using information displayed through projector
WO2014022490A1 (en) * 2012-07-31 2014-02-06 Intel Corporation Context-driven adjustment of camera parameters
US9330470B2 (en) 2010-06-16 2016-05-03 Intel Corporation Method and system for modeling subjects from a depth map
US9477303B2 (en) 2012-04-09 2016-10-25 Intel Corporation System and method for combining three-dimensional tracking with a three-dimensional display for a user interface
US9910498B2 (en) 2011-06-23 2018-03-06 Intel Corporation System and method for close-range movement tracking

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9330470B2 (en) 2010-06-16 2016-05-03 Intel Corporation Method and system for modeling subjects from a depth map
US9910498B2 (en) 2011-06-23 2018-03-06 Intel Corporation System and method for close-range movement tracking
US9477303B2 (en) 2012-04-09 2016-10-25 Intel Corporation System and method for combining three-dimensional tracking with a three-dimensional display for a user interface
WO2013180446A1 (en) * 2012-05-29 2013-12-05 Kim Seok-Joong Remote manipulation device and remote manipulation method for performing virtual touch by using information displayed through projector
US9569103B2 (en) 2012-05-29 2017-02-14 VTouch Co., Ltd. Remote control apparatus and method for performing virtual touch by using information displayed by a projector
WO2014022490A1 (en) * 2012-07-31 2014-02-06 Intel Corporation Context-driven adjustment of camera parameters

Similar Documents

Publication Publication Date Title
KR101617289B1 (en) Mobile terminal and operation control method thereof
KR101685363B1 (en) Mobile terminal and operation method thereof
KR101668240B1 (en) Mobile terminal and operation control method thereof
KR101832959B1 (en) Mobile device and control method for the same
CN102479052B (en) The mobile terminal operation control method thereof
EP2341693A1 (en) Mobile terminal, mobile terminal system, and method for controlling operation of the same
KR101691833B1 (en) Mobile terminal and Method for controlling photographing image thereof
KR101626301B1 (en) Electronic device and operation control method thereof
KR101602363B1 (en) A control method of a three-dimensional user interface, and this mobile terminal with
KR101643869B1 (en) Operating a Mobile Termianl with a Vibration Module
KR101758164B1 (en) Mobile twrminal and 3d multi-angle view controlling method thereof
US9635227B2 (en) 3D camera assembly having a bracket for cameras and mobile terminal having the same
CN102566747B (en) A mobile terminal and a method for controlling the operation of the mobile terminal
CN102445989B (en) The mobile terminal operation control method thereof
KR101748668B1 (en) Mobile twrminal and 3d image controlling method thereof
US9256283B2 (en) Mobile terminal and method of controlling operation thereof
KR101694154B1 (en) Mobile terminal and operation control method thereof
KR20120009834A (en) Mobile terminal and operation control method thereof
KR20120134228A (en) Mobile terminal and 3d image displaying method thereof
EP2323026A2 (en) Mobile terminal and image processing method therefor
KR101735614B1 (en) Mobile terminal and operation control method thereof
KR20120067445A (en) Mobile terminal and operation control method thereof
KR20100064873A (en) Terminal and method for controlling the same
KR20110122979A (en) Mobile terminal and method for controlling the same
KR101660505B1 (en) Mobile terminal and control method therof

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application