KR20130029862A - Mobile terminal and method for controlling thereof - Google Patents

Mobile terminal and method for controlling thereof Download PDF

Info

Publication number
KR20130029862A
KR20130029862A KR1020110093221A KR20110093221A KR20130029862A KR 20130029862 A KR20130029862 A KR 20130029862A KR 1020110093221 A KR1020110093221 A KR 1020110093221A KR 20110093221 A KR20110093221 A KR 20110093221A KR 20130029862 A KR20130029862 A KR 20130029862A
Authority
KR
South Korea
Prior art keywords
holographic image
information
holographic
output
module
Prior art date
Application number
KR1020110093221A
Other languages
Korean (ko)
Inventor
김종환
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020110093221A priority Critical patent/KR20130029862A/en
Publication of KR20130029862A publication Critical patent/KR20130029862A/en

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03HHOLOGRAPHIC PROCESSES OR APPARATUS
    • G03H1/00Holographic processes or apparatus using light, infrared or ultraviolet waves for obtaining holograms or for obtaining an image from them; Details peculiar thereto
    • G03H1/22Processes or apparatus for obtaining an optical image from holograms
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B7/00Recording or reproducing by optical means, e.g. recording using a thermal beam of optical radiation by modifying optical properties or the physical structure, reproducing using an optical beam at lower power by sensing optical properties; Record carriers therefor
    • G11B7/007Arrangement of the information on the record carrier, e.g. form of tracks, actual track shape, e.g. wobbled, or cross-section, e.g. v-shaped; Sequential information structures, e.g. sectoring or header formats within a track
    • G11B7/00772Arrangement of the information on the record carrier, e.g. form of tracks, actual track shape, e.g. wobbled, or cross-section, e.g. v-shaped; Sequential information structures, e.g. sectoring or header formats within a track on record carriers storing information in the form of optical interference patterns, e.g. holograms
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • H04M1/0202Portable telephone sets, e.g. cordless phones, mobile phones or bar type handsets
    • H04M1/026Details of the structure or mounting of specific components
    • H04M1/0272Details of the structure or mounting of specific components for a projector or beamer module assembly
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/22Details of telephonic subscriber devices including a touch pad, a touch sensor or a touch detector

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Telephone Function (AREA)

Abstract

PURPOSE: A portable terminal and a control method thereof are provided to offer a convenient holography UI(User Interface). CONSTITUTION: A holography storage medium records interference fringes generated by a light interference phenomenon. A holography output module outputs a first holography image by generating the interference fringe and a diffraction phenomenon with light emitted from the holography storage medium based on a control unit(180) when one of the trigger events is generated. The control unit controls the holography output module to output the first holography image including first information for notifying an emergency situation to a user. [Reference numerals] (110) Wireless communication unit; (111) Broadcasting reception module; (112) Mobile communication module; (113) Wireless Internet module; (114) Local area communication module; (115) Location information module; (120) A/V input unit; (121) Camera; (122) Microphone; (130) User input unit; (140) Sensing unit; (141) Proximity sensor; (150) Output unit; (151) Display unit; (152) Sound output module; (153) Alarm unit; (154) Haptic module; (155) Projector module; (156) Holography module; (160) Memory; (170) Interface unit; (180) Control unit; (181) Multimedia module; (190) Power supplying unit

Description

이동 단말기 및 그 제어방법 {MOBILE TERMINAL AND METHOD FOR CONTROLLING THEREOF}Mobile terminal and its control method {MOBILE TERMINAL AND METHOD FOR CONTROLLING THEREOF}

본 발명은 홀로그래피 사용자 인터페이스를 제공할 수 있는 이동 단말기에 관한 것이다.The present invention relates to a mobile terminal capable of providing a holographic user interface.

단말기는 이동 가능 여부에 따라 이동 단말기(mobile/portable terminal) 및 고정 단말기(stationary terminal)으로 나뉠 수 있다. 다시 이동 단말기는 사용자의 직접 휴대 가능 여부에 따라 휴대(형) 단말기(handheld terminal) 및 거치형 단말기(vehicle mount terminal)로 나뉠 수 있다. Terminals may be divided into mobile / portable terminals and stationary terminals according to their mobility. The mobile terminal may be further classified into a handheld terminal and a vehicle mount terminal according to whether a user can directly carry it.

이와 같은 단말기(terminal)는 기능이 다양화됨에 따라 예를 들어, 사진이나 동영상의 촬영, 음악이나 동영상 파일의 재생, 게임, 방송의 수신 등의 복합적인 기능들을 갖춘 멀티미디어 기기(Multimedia player) 형태로 구현되고 있다. Such a terminal has various functions, for example, in the form of a multimedia device having multiple functions such as photographing and photographing of a moving picture, reproduction of a music or video file, reception of a game and broadcasting, etc. .

이러한 단말기의 기능 지지 및 증대를 위해, 단말기의 구조적인 부분 및/또는 소프트웨어적인 부분을 개량하는 것이 고려될 수 있다.In order to support and enhance the functionality of such terminals, it may be considered to improve the structural and / or software parts of the terminal.

최근, 단말기를 통해 홀로그래피(holography) 영상이 구현될 수 있게 됨에 따라, 홀로그래피 사용자 인터페이스를 통한 보다 편리한 조작 방법들이 요구된다. 또한, 위급 상황을 주변에 효과적으로 알리기 위해 홀로그래피 영상을 활용하는 방법이 요구되는 실정이다.Recently, as holography images can be realized through a terminal, more convenient operation methods through a holography user interface are required. In addition, there is a need for a method of utilizing a holographic image to effectively notify an emergency of the surroundings.

본 발명은 보다 편리한 홀로그래피 사용자 인터페이스를 제공하기 위한 것이다. The present invention is to provide a more convenient holographic user interface.

본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다. It is to be understood that both the foregoing general description and the following detailed description are exemplary and explanatory and are not restrictive of the invention, unless further departing from the spirit and scope of the invention as defined by the appended claims. It will be possible.

상기한 과제를 실현하기 위한 본 발명의 일예와 관련된 이동 단말기는 제어부, 빛의 간섭(interference) 현상에 의해 생성된 간섭무늬를 기록하기 위한 홀로그래피 저장매체와 기 설정된 복수의 트리거(trigger) 이벤트 중 적어도 어느 하나의 이벤트가 발생하는 경우, 상기 제어부의 제어에 따라 상기 홀로그래피 저장매체에 조사된 빛이 상기 간섭무늬와 회절(diffraction) 현상을 일으켜 생성한 제 1 홀로그래피 영상을 출력하기 위한 홀로그래피 출력 모듈을 포함하되, 상기 제어부는 사용자의 긴급 상황을 알리기 위해 미리 설정된 제 1 정보를 포함하는 상기 제 1 홀로그래피 영상이 출력되도록 제어할 수 있다.A mobile terminal according to an embodiment of the present invention for realizing the above object includes at least one of a control unit, a holographic storage medium for recording an interference pattern generated by an interference phenomenon of light, and a plurality of preset trigger events. And a holographic output module for outputting a first holographic image generated by light emitted from the holographic storage medium under the control of the controller to cause the interference fringe and a diffraction phenomenon under the control of the controller. However, the controller may control the first holographic image including the first information set in advance in order to notify the user of an emergency situation.

또한, 상기 기 설정된 복수의 트리거 이벤트는 특정 키 입력 이벤트, 특정 패턴의 터치 입력 이벤트, 음성 인식 이벤트, 모션(motion) 인식 이벤트, 지문 인식 이벤트, 아이 트랙킹(Eye-Tracking) 인식 이벤트, 바람 인식 이벤트를 포함할 수 있다.The preset plurality of trigger events may include a specific key input event, a touch input event of a specific pattern, a voice recognition event, a motion recognition event, a fingerprint recognition event, an eye-tracking recognition event, and a wind recognition event. It may include.

또한, 무선 통신부를 더 포함하고, 상기 제어부는 기 설정된 객체로부터 상기 무선 통신부를 통해 호 연결 시도 또는 메시지를 수신하는 경우, 상기 제 1 홀로그래피 영상이 출력되도록 제어할 수 있다.The apparatus may further include a wireless communication unit, and the controller may control to output the first holographic image when a call connection attempt or a message is received from the preset object through the wireless communication unit.

또한, 센싱부와 무선 통신부를 더 포함하고, 상기 제 1 정보는 상기 센싱부를 통해 인식된 상기 사용자의 음성 정보 또는 상기 무선 통신부를 통해 기 설정된 객체로부터 수신한 메시지 정보일 수 있다.The apparatus may further include a sensing unit and a wireless communication unit, and the first information may be voice information of the user recognized through the sensing unit or message information received from a predetermined object through the wireless communication unit.

또한, 상기 제어부는 상기 음성 정보 또는 메시지 정보가 기 설정된 키워드 정보를 적어도 일부 포함하는 경우, 상기 제 1 정보가 상기 음성 정보 또는 메시지 정보가 되도록 제어할 수 있다.The controller may control the first information to be the voice information or the message information when the voice information or the message information includes at least part of preset keyword information.

또한, 상기 제어부는 기 설정된 적어도 하나의 홀로그래피 패턴에 따라 상기 제 1 홀로그래피 영상이 출력되도록 제어하고, 상기 적어도 하나의 홀로그래피 패턴은 상기 홀로그래피 출력 모듈과 상기 출력된 홀로그래피 영상과의 거리 차이 및 상기 출력된 홀로그래피 영상의 모양 중 적어도 하나에 의해 결정되며, 상기 거리 차이 및 상기 출력된 홀로그래피 영상의 모양은 시간에 따라 변화될 수 있다.The controller may be configured to output the first holographic image according to at least one preset holographic pattern, and the at least one holographic pattern may include a distance difference between the holographic output module and the output holographic image and the output. It is determined by at least one of the shape of the holographic image, the distance difference and the shape of the output holographic image may be changed over time.

또한, 상기 제어부는 기 설정된 적어도 하나의 홀로그래피 패턴에 따라 상기 제 1 홀로그래피 영상이 출력되도록 제어하고, 상기 적어도 하나의 홀로그래피 패턴은 상기 출력된 홀로그래피 영상의 이동, 회전, 색상 변화, 크기 변화, 점멸 중 적어도 하나에 의해 결정되며, 상기 이동, 회전, 색상 변화, 크기 변화, 점멸은 시간에 따라 변화될 수 있다.The controller may be configured to output the first holographic image according to at least one preset holographic pattern, and the at least one holographic pattern may be moved, rotated, changed in color, changed in size, or flickered in the output holographic image. Determined by at least one, the movement, rotation, color change, size change, flashing may change over time.

또한, 알람부와 무선 통신부를 더 포함하고, 상기 제 1 홀로그래피 영상이 출력되는 경우, 상기 제어부는 상기 알람부를 통해 상기 사용자의 긴급 상황을 알리기 위한 신호를 출력하거나 상기 무선 통신부를 통해 기 설정된 객체로 호 연결 시도 또는 미리 설정된 메시지를 전송할 수 있다.The controller may further include an alarm unit and a wireless communication unit, and when the first holographic image is output, the controller may output a signal for notifying the emergency situation of the user through the alarm unit or may be a preset object through the wireless communication unit. A call connection attempt or a preset message can be sent.

또한, 위치 정보 모듈을 더 포함하고, 상기 제어부는, 상기 기 설정된 객체로 호 연결 시도 또는 미리 설정된 메시지를 전송하는 경우, 상기 위치 정보 모듈을 통해 획득한 상기 이동 단말기의 위치 정보를 함께 전송할 수 있다.The apparatus may further include a location information module, and the controller may transmit the location information of the mobile terminal obtained through the location information module when the call connection attempt or the preset message is transmitted to the preset object. .

또한, 무선 통신부를 더 포함하고, 상기 제어부는 상기 무선 통신부를 통해 적어도 하나의 외부 기기와 데이터 경로를 구축하고, 상기 구축한 데이터 경로를 통해 상기 제 1 정보를 상기 적어도 하나의 외부 기기로 전송할 수 있다.The apparatus may further include a wireless communication unit, and the controller may establish a data path with at least one external device through the wireless communication unit, and transmit the first information to the at least one external device through the constructed data path. have.

또한, 상기 제어부는 상기 제 1 정보를 복수의 정보로 분리하고, 상기 분리된 복수의 정보 각각을 상기 이동 단말기 및 상기 적어도 하나의 외부 기기가 홀로그래피 영상으로 출력할 수 있다.The controller may separate the first information into a plurality of pieces of information, and the mobile terminal and the at least one external device may output each of the separated pieces of information as a holographic image.

또한, 상기 홀로그래피 출력 모듈과 동일한 방향을 향하도록 구성된 카메라를 더 포함하고, 상기 카메라를 통해 소정의 형상이 인식되는 경우, 상기 제어부는 상기 제 1 홀로그래피 영상이 출력되지 않도록 제어할 수 있다.The apparatus may further include a camera configured to face the same direction as the holographic output module, and when a predetermined shape is recognized by the camera, the controller may control the first holographic image not to be output.

또한, 상기 카메라를 통해 상기 소정의 형상이 인식되지 않는 경우, 상기 제 1 홀로그래피 영상이 다시 출력되도록 제어할 수 있다.In addition, when the predetermined shape is not recognized through the camera, the first holographic image may be controlled to be output again.

또한, 상기 이동 단말기와 상기 사용자와의 거리 차이가 미리 설정된 임계 거리를 초과하는 경우, 상기 제어부는 상기 제 1 홀로그래피 영상이 출력되도록 제어할 수 있다.The controller may control the first holographic image to be output when the distance difference between the mobile terminal and the user exceeds a preset threshold distance.

한편, 상기한 과제를 실현하기 위한 본 발명의 일예와 관련된 이동 단말기 제어방법은 복수의 트리거(trigger) 이벤트 및 사용자의 긴급 상황을 알리기 위한 제 1 정보가 미리 설정되는 단계, 상기 복수의 트리거(trigger) 이벤트 중 적어도 어느 하나의 이벤트가 발생하는 단계와 홀로그래피 출력 모듈이 상기 제 1 정보를 포함하는 제 1 홀로그래피 영상을 출력하는 단계를 포함할 수 있다.On the other hand, the mobile terminal control method according to an embodiment of the present invention for realizing the above problem is a step of setting a plurality of trigger events and first information for informing the user of an emergency situation, the plurality of triggers (trigger) ) Generating at least one event and outputting a first holographic image including the first information by the holographic output module.

또한, 상기 복수의 트리거 이벤트는 특정 키 입력 이벤트, 특정 패턴의 터치 입력 이벤트, 음성 인식 이벤트, 모션(motion) 인식 이벤트, 지문 인식 이벤트, 아이 트랙킹(Eye-Tracking) 인식 이벤트, 바람 인식 이벤트를 포함할 수 있다.The plurality of trigger events may include a specific key input event, a touch input event of a specific pattern, a voice recognition event, a motion recognition event, a fingerprint recognition event, an eye-tracking recognition event, and a wind recognition event. can do.

또한, 상기 제 1 정보는 센싱부를 통해 인식된 상기 사용자의 음성 정보 또는 무선 통신부를 통해 기 설정된 객체로부터 수신한 메시지 정보일 수 있다.The first information may be voice information of the user recognized through the sensing unit or message information received from a preset object through the wireless communication unit.

또한, 상기 음성 정보 또는 메시지 정보가 기 설정된 키워드 정보를 적어도 일부 포함하는 경우, 상기 제 1 정보는 상기 음성 정보 또는 메시지 정보일 수 있다.In addition, when the voice information or the message information includes at least some preset keyword information, the first information may be the voice information or the message information.

또한, 상기 제 1 홀로그래피 영상이 출력되는 경우, 알람부를 통해 상기 사용자의 긴급 상황을 알리기 위한 신호를 출력하거나 무선 통신부를 통해 기 설정된 객체로 호 연결 시도 또는 미리 설정된 메시지를 전송하는 단계를 더 포함할 수 있다.The method may further include outputting a signal for notifying the emergency situation of the user through an alarm unit or transmitting a call connection attempt or a preset message to a preset object through a wireless communication unit when the first holographic image is output. Can be.

또한, 무선 통신부를 통해 적어도 하나의 외부 기기와 데이터 경로를 구축하는 단계와 상기 구축한 데이터 경로를 통해 상기 제 1 정보를 상기 적어도 하나의 외부 기기로 전송하는 단계를 더 포함할 수 있다.The method may further include establishing a data path with at least one external device through a wireless communication unit, and transmitting the first information to the at least one external device through the established data path.

상기와 같이 구성되는 본 발명의 적어도 하나의 실시예에 관련된 이동 단말기는 홀로그래피 사용자 인터페이스를 통하여 보다 편리하게 조작될 수 있다. The mobile terminal according to at least one embodiment of the present invention configured as described above may be more conveniently operated through a holographic user interface.

또한, 본 발명에 따르면 단말이 인식한 이벤트를 기반으로 미리 지정된 홀로그래피 기능이 사용자에게 제공될 수 있다.In addition, according to the present invention, a predetermined holography function may be provided to a user based on an event recognized by the terminal.

또한, 본 발명에 따르면 홀로그래피 패턴 효과를 부여한 홀로그래피 영상을 투사할 수 있다.In addition, according to the present invention, it is possible to project a holographic image provided with a holographic pattern effect.

본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다. The effects obtained by the present invention are not limited to the above-mentioned effects, and other effects not mentioned can be clearly understood by those skilled in the art from the following description will be.

도 1은 본 발명의 일 실시예와 관련된 이동 단말기의 블록 구성도(block diagram).
도 2는 본 발명의 일 실시예에 관련된 이동 단말기의 전면 사시도.
도 3은 본 발명과 관련된 이동 단말기의 일 작동 상태를 설명하기 위한 이동 단말기의 정면도.
도 4는 본 발명의 일 실시예에 관련하여 홀로그래피 모듈을 포함하는 이동 단말기를 나타내는 도면.
도 5는 홀로그래피 원리를 설명하기 위한 개념도.
도 6은 투과형 홀로그래피 방식을 설명하기 위한 개념도.
도 7은 반사형 홀로그래피 방식을 설명하기 위한 개념도.
도 8은 본 발명의 일 실시예와 관련하여 SOS 홀로그래피 영상을 투사하기 위한 트리거 이벤트의 일례를 나타내는 도면.
도 9는 본 발명의 일 실시예와 관련하여 기 설정된 텍스트가 SOS 홀로그래피 영상으로 투사되는 일례를 나타내는 도면.
도 10은 본 발명의 일 실시예와 관련하여 단말이 수신한 음성 또는 메시지를 홀로그래피 영상으로 투사하는 일례를 나타내는 도면.
도 11은 본 발명의 일 실시예와 관련하여 기 설정된 키워드를 이용하여 SOS 홀로그래피 영상을 투사하는 일례를 나타내는 도면.
도 12은 본 발명의 일 실시예와 관련하여 기 설정된 패턴에 따라 SOS 홀로그래피 영상이 투사되는 일례를 나타내는 도면,
도 13은 본 발명의 일 실시예와 관련하여 SOS 홀로그래피 영상을 투사하면서 부가 기능을 함께 실행하는 일례를 나타내는 도면,
도 14는 본 발명의 일 실시예와 관련하여 SOS 홀로그래피 영상 관련 정보를 다른 외부 기기와 공유하는 일례를 나타내는 도면.
도 15는 본 발명의 일 실시예와 관련하여 홀로그래피 영상의 투사로부터 사용자를 보호하기 위한 방법의 일례를 나타내는 도면.
도 16은 본 발명의 일 실시예와 관련하여 홀로그래피 영상을 투사할 수 있는 단말의 도난을 방지하기 위한 방법의 일례를 나타내는 도면.
1 is a block diagram of a mobile terminal according to an embodiment of the present invention.
2 is a front perspective view of a mobile terminal according to an embodiment of the present invention;
3 is a front view of a mobile terminal for explaining an operation state of the mobile terminal according to the present invention;
4 illustrates a mobile terminal including a holography module in accordance with one embodiment of the present invention.
5 is a conceptual diagram for explaining the holographic principle.
6 is a conceptual diagram for explaining a transmissive holography method.
7 is a conceptual diagram for explaining a reflective holography method.
8 illustrates an example of a trigger event for projecting a SOS holographic image in accordance with one embodiment of the present invention.
FIG. 9 illustrates an example in which preset text is projected onto an SOS holographic image in accordance with an embodiment of the present invention. FIG.
FIG. 10 is a diagram for one example of projecting a voice or message received by a terminal into a holographic image in accordance with one embodiment of the present invention; FIG.
FIG. 11 illustrates an example of projecting an SOS holographic image using a preset keyword in accordance with an embodiment of the present invention. FIG.
12 is a diagram illustrating an example in which an SOS holographic image is projected according to a preset pattern in accordance with an embodiment of the present invention;
FIG. 13 is a view showing an example of executing an additional function together while projecting an SOS holographic image according to an embodiment of the present invention; FIG.
FIG. 14 illustrates an example of sharing SOS holographic image related information with another external device in accordance with an embodiment of the present invention. FIG.
15 illustrates an example of a method for protecting a user from projection of a holographic image in accordance with one embodiment of the present invention.
FIG. 16 illustrates an example of a method for preventing theft of a terminal capable of projecting a holographic image in accordance with an embodiment of the present invention. FIG.

이하, 본 발명과 관련된 이동 단말기에 대하여 도면을 참조하여 보다 상세하게 설명한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. Hereinafter, a mobile terminal related to the present invention will be described in detail with reference to the drawings. The suffix "module" and " part "for the components used in the following description are given or mixed in consideration of ease of specification, and do not have their own meaning or role.

본 명세서에서 설명되는 이동 단말기에는 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 디지털방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 네비게이션 등이 포함될 수 있다. 그러나, 본 명세서에 기재된 실시예에 따른 구성은 이동 단말기에만 적용 가능한 경우를 제외하면, 디지털 TV, 데스크탑 컴퓨터 등과 같은 고정 단말기에도 적용될 수도 있음을 본 기술분야의 당업자라면 쉽게 알 수 있을 것이다.The mobile terminal described in this specification may include a mobile phone, a smart phone, a laptop computer, a digital broadcasting terminal, a PDA (Personal Digital Assistants), a PMP (Portable Multimedia Player), and navigation. However, it will be readily apparent to those skilled in the art that the configuration according to the embodiments described herein may also be applied to fixed terminals such as digital TVs, desktop computers, etc., except when applicable only to mobile terminals.

전체구성Overall configuration

도 1은 본 발명의 일 실시예와 관련된 이동 단말기의 블록 구성도(block diagram)이다.1 is a block diagram of a mobile terminal according to an embodiment of the present invention.

상기 이동 단말기(100)는 무선 통신부(110), A/V(Audio/Video) 입력부(120), 사용자 입력부(130), 센싱부(140), 출력부(150), 메모리(160), 인터페이스부(170), 제어부(180) 및 전원 공급부(190) 등을 포함할 수 있다. 도 1에 도시된 구성요소들이 필수적인 것은 아니어서, 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖는 이동 단말기가 구현될 수도 있다.The mobile terminal 100 includes a wireless communication unit 110, an audio / video input unit 120, a user input unit 130, a sensing unit 140, an output unit 150, a memory 160, A controller 170, a controller 180, a power supply 190, and the like. The components shown in FIG. 1 are not essential, and a mobile terminal having more or fewer components may be implemented.

이하, 상기 구성요소들에 대해 차례로 살펴본다.Hereinafter, the components will be described in order.

무선 통신부(110)는 이동 단말기(100)와 무선 통신 시스템 사이 또는 이동 단말기(100)와 이동 단말기(100)가 위치한 네트워크 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 예를 들어, 무선 통신부(110)는 방송 수신 모듈(111), 이동통신 모듈(112), 무선 인터넷 모듈(113), 근거리 통신 모듈(114) 및 위치정보 모듈(115) 등을 포함할 수 있다.The wireless communication unit 110 may include one or more modules for enabling wireless communication between the mobile terminal 100 and the wireless communication system or between the mobile terminal 100 and the network in which the mobile terminal 100 is located. For example, the wireless communication unit 110 may include a broadcast receiving module 111, a mobile communication module 112, a wireless Internet module 113, a short range communication module 114, and a location information module 115 .

방송 수신 모듈(111)은 방송 채널을 통하여 외부의 방송 관리 서버로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다. The broadcast receiving module 111 receives a broadcast signal and / or broadcast related information from an external broadcast management server through a broadcast channel.

상기 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 상기 방송 관리 서버는, 방송 신호 및/또는 방송 관련 정보를 생성하여 송신하는 서버 또는 기 생성된 방송 신호 및/또는 방송 관련 정보를 제공받아 단말기에 송신하는 서버를 의미할 수 있다. 상기 방송 신호는, TV 방송 신호, 라디오 방송 신호, 데이터 방송 신호를 포함할 뿐만 아니라, TV 방송 신호 또는 라디오 방송 신호에 데이터 방송 신호가 결합한 형태의 방송 신호도 포함할 수 있다. The broadcast channel may include a satellite channel and a terrestrial channel. The broadcast management server may refer to a server for generating and transmitting broadcast signals and / or broadcast related information, or a server for receiving broadcast signals and / or broadcast related information generated by the broadcast management server and transmitting the generated broadcast signals and / or broadcast related information. The broadcast signal may include a TV broadcast signal, a radio broadcast signal, a data broadcast signal, and a broadcast signal in which a data broadcast signal is combined with a TV broadcast signal or a radio broadcast signal.

상기 방송 관련 정보는, 방송 채널, 방송 프로그램 또는 방송 서비스 제공자에 관련한 정보를 의미할 수 있다. 상기 방송 관련 정보는, 이동통신망을 통하여도 제공될 수 있다. 이러한 경우에는 상기 이동통신 모듈(112)에 의해 수신될 수 있다.The broadcast-related information may refer to a broadcast channel, a broadcast program, or information related to a broadcast service provider. The broadcast related information may also be provided through a mobile communication network. In this case, it may be received by the mobile communication module 112.

상기 방송 관련 정보는 다양한 형태로 존재할 수 있다. 예를 들어, DMB(Digital Multimedia Broadcasting)의 EPG(Electronic Program Guide) 또는 DVB-H(Digital Video Broadcast-Handheld)의 ESG(Electronic Service Guide) 등의 형태로 존재할 수 있다.The broadcast related information may exist in various forms. For example, it may exist in the form of Electronic Program Guide (EPG) of Digital Multimedia Broadcasting (DMB) or Electronic Service Guide (ESG) of Digital Video Broadcast-Handheld (DVB-H).

상기 방송 수신 모듈(111)은, 예를 들어, DMB-T(Digital Multimedia Broadcasting-Terrestrial), DMB-S(Digital Multimedia Broadcasting-Satellite), MediaFLO(Media Forward Link Only), DVB-H(Digital Video Broadcast-Handheld), ISDB-T(Integrated Services Digital Broadcast-Terrestrial) 등의 디지털 방송 시스템을 이용하여 디지털 방송 신호를 수신할 수 있다. 물론, 상기 방송 수신 모듈(111)은, 상술한 디지털 방송 시스템뿐만 아니라 다른 방송 시스템에 적합하도록 구성될 수도 있다.The broadcast receiving module 111 may include, for example, Digital Multimedia Broadcasting-Terrestrial (DMB-T), Digital Multimedia Broadcasting-Satellite (DMB-S), Media Forward Link Only (MediaFLO), and Digital Video Broadcast (DVB-H). Digital broadcast signals can be received using digital broadcasting systems such as Handheld and Integrated Services Digital Broadcast-Terrestrial (ISDB-T). Of course, the broadcast receiving module 111 may be adapted to other broadcasting systems as well as the digital broadcasting system described above.

방송 수신 모듈(111)을 통해 수신된 방송 신호 및/또는 방송 관련 정보는 메모리(160)에 저장될 수 있다.The broadcast signal and / or broadcast related information received through the broadcast receiving module 111 may be stored in the memory 160.

이동통신 모듈(112)은, 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 상기 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다. The mobile communication module 112 transmits and receives radio signals to at least one of a base station, an external terminal, and a server on a mobile communication network. The wireless signal may include various types of data depending on a voice call signal, a video call signal or a text / multimedia message transmission / reception.

무선 인터넷 모듈(113)은 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 이동 단말기(100)에 내장되거나 외장될 수 있다. 무선 인터넷 기술로는 WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 등이 이용될 수 있다. The wireless Internet module 113 is a module for wireless Internet access, and may be built in or externally attached to the mobile terminal 100. Wireless Internet technologies may include Wireless LAN (Wi-Fi), Wireless Broadband (Wibro), World Interoperability for Microwave Access (Wimax), High Speed Downlink Packet Access (HSDPA), and the like.

근거리 통신 모듈(114)은 근거리 통신을 위한 모듈을 말한다. 근거리 통신(short range communication) 기술로 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), ZigBee 등이 이용될 수 있다.The short range communication module 114 refers to a module for short range communication. Bluetooth, Radio Frequency Identification (RFID), infrared data association (IrDA), Ultra Wideband (UWB), ZigBee, and the like can be used as a short range communication technology.

위치정보 모듈(115)은 이동 단말기의 위치를 획득하기 위한 모듈로서, 그의 대표적인 예로는 GPS(Global Position System) 모듈이 있다.The position information module 115 is a module for obtaining the position of the mobile terminal, and a representative example thereof is a Global Position System (GPS) module.

도 1을 참조하면, A/V(Audio/Video) 입력부(120)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 이에는 카메라(121)와 마이크(122) 등이 포함될 수 있다. 카메라(121)는 화상 통화모드 또는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 처리된 화상 프레임은 디스플레이부(151)에 표시될 수 있다.Referring to FIG. 1, an A / V (Audio / Video) input unit 120 is for inputting an audio signal or a video signal, and may include a camera 121 and a microphone 122. The camera 121 processes image frames such as still images or moving images obtained by the image sensor in the video call mode or the photographing mode. The processed image frame can be displayed on the display unit 151. [

카메라(121)에서 처리된 화상 프레임은 메모리(160)에 저장되거나 무선 통신부(110)를 통하여 외부로 전송될 수 있다. 카메라(121)는 사용 환경에 따라 2개 이상이 구비될 수도 있다.The image frame processed by the camera 121 may be stored in the memory 160 or transmitted to the outside through the wireless communication unit 110. [ Two or more cameras 121 may be provided depending on the use environment.

마이크(122)는 통화모드 또는 녹음모드, 음성인식 모드 등에서 마이크로폰(Microphone)에 의해 외부의 음향 신호를 입력받아 전기적인 음성 데이터로 처리한다. 처리된 음성 데이터는 통화 모드인 경우 이동통신 모듈(112)을 통하여 이동통신 기지국으로 송신 가능한 형태로 변환되어 출력될 수 있다. 마이크(122)에는 외부의 음향 신호를 입력받는 과정에서 발생되는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘이 구현될 수 있다.The microphone 122 receives an external sound signal through a microphone in a communication mode, a recording mode, a voice recognition mode, or the like, and processes it as electrical voice data. The processed voice data can be converted into a form that can be transmitted to the mobile communication base station through the mobile communication module 112 when the voice data is in the call mode, and output. Various noise reduction algorithms may be implemented in the microphone 122 to remove noise generated in receiving an external sound signal.

사용자 입력부(130)는 사용자가 단말기의 동작 제어를 위한 입력 데이터를 발생시킨다. 사용자 입력부(130)는 키 패드(key pad) 돔 스위치 (dome switch), 터치 패드(정압/정전), 조그 휠, 조그 스위치 등으로 구성될 수 있다. The user input unit 130 generates input data for a user to control the operation of the terminal. The user input unit 130 may include a key pad dome switch, a touch pad (static pressure / capacitance), a jog wheel, a jog switch, and the like.

센싱부(140)는 이동 단말기(100)의 개폐 상태, 이동 단말기(100)의 위치, 사용자 접촉 유무, 이동 단말기의 방위, 이동 단말기의 가속/감속 등과 같이 이동 단말기(100)의 현 상태를 감지하여 이동 단말기(100)의 동작을 제어하기 위한 센싱 신호를 발생시킨다. 예를 들어 이동 단말기(100)가 슬라이드 폰 형태인 경우 슬라이드 폰의 개폐 여부를 센싱할 수 있다. 또한, 전원 공급부(190)의 전원 공급 여부, 인터페이스부(170)의 외부 기기 결합 여부 등을 센싱할 수도 있다. 한편, 상기 센싱부(140)는 근접 센서(141)를 포함할 수 있다. The sensing unit 140 senses the current state of the mobile terminal 100 such as the open / close state of the mobile terminal 100, the position of the mobile terminal 100, the presence or absence of user contact, the orientation of the mobile terminal, And generates a sensing signal for controlling the operation of the mobile terminal 100. For example, when the mobile terminal 100 is in the form of a slide phone, it may sense whether the slide phone is opened or closed. In addition, whether the power supply unit 190 is supplied with power, whether the interface unit 170 is coupled to the external device may be sensed. Meanwhile, the sensing unit 140 may include a proximity sensor 141.

더 나아가 센싱부(140)는 이동 단말기(100)의 주변 소음(예를 들면, 20db)을 측정하여 센싱 신호를 발생시키거나 조도 센서로서 이동 단말기(100)의 주변 밝기(예를 들면, 20lm)를 측정하여 센싱 신호를 발생시킬 수도 있다.Furthermore, the sensing unit 140 generates a sensing signal by measuring the ambient noise (for example, 20db) of the mobile terminal 100 or the ambient brightness (for example, 20lm) of the mobile terminal 100 as an illuminance sensor. It is also possible to generate a sensing signal by measuring.

출력부(150)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 이에는 디스플레이부(151), 음향 출력 모듈(152), 알람부(153), 햅틱 모듈(154) 및 프로젝터 모듈(155) 등이 포함될 수 있다.The output unit 150 is for generating an output relating to visual, auditory or tactile sense and includes a display unit 151, an acoustic output module 152, an alarm unit 153, a haptic module 154, 155, and the like.

디스플레이부(151)는 이동 단말기(100)에서 처리되는 정보를 표시(출력)한다. 예를 들어, 이동 단말기가 통화 모드인 경우 통화와 관련된 UI(User Interface) 또는 GUI(Graphic User Interface)를 표시한다. 이동 단말기(100)가 화상 통화 모드 또는 촬영 모드인 경우에는 촬영 또는/및 수신된 영상 또는 UI, GUI를 표시한다. The display unit 151 displays (outputs) information processed by the mobile terminal 100. For example, when the mobile terminal is in the call mode, a UI (User Interface) or a GUI (Graphic User Interface) associated with a call is displayed. When the mobile terminal 100 is in the video communication mode or the photographing mode, the photographed and / or received video or UI and GUI are displayed.

디스플레이부(151)는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 중에서 적어도 하나를 포함할 수 있다. The display unit 151 includes a liquid crystal display (LCD), a thin film transistor-liquid crystal display (TFT LCD), an organic light-emitting diode (OLED), and a flexible display (flexible). and at least one of a 3D display.

이들 중 일부 디스플레이는 그를 통해 외부를 볼 수 있도록 투명형 또는 광투과형으로 구성될 수 있다. 이는 투명 디스플레이라 호칭될 수 있는데, 상기 투명 디스플레이의 대표적인 예로는 TOLED(Transparant OLED) 등이 있다. 디스플레이부(151)의 후방 구조 또한 광 투과형 구조로 구성될 수 있다. 이러한 구조에 의하여, 사용자는 단말기 바디의 디스플레이부(151)가 차지하는 영역을 통해 단말기 바디의 후방에 위치한 사물을 볼 수 있다.Some of these displays may be transparent or light transmissive so that they can be seen through. This can be referred to as a transparent display, and a typical example of the transparent display is TOLED (Transparent OLED) and the like. The rear structure of the display unit 151 may also be of a light transmission type. With this structure, the user can see an object located behind the terminal body through the area occupied by the display unit 151 of the terminal body.

이동 단말기(100)의 구현 형태에 따라 디스플레이부(151)이 2개 이상 존재할 수 있다. 예를 들어, 이동 단말기(100)에는 복수의 디스플레이부들이 하나의 면에 이격되거나 일체로 배치될 수 있고, 또한 서로 다른 면에 각각 배치될 수도 있다. There may be two or more display units 151 according to the embodiment of the mobile terminal 100. For example, in the mobile terminal 100, a plurality of display portions may be spaced apart from one another, or may be disposed integrally with one another, and may be disposed on different surfaces, respectively.

디스플레이부(151)와 터치 동작을 감지하는 센서(이하, '터치 센서'라 함)가 상호 레이어 구조를 이루는 경우(이하, '터치 스크린'이라 함)에, 디스플레이부(151)는 출력 장치 이외에 입력 장치로도 사용될 수 있다. 터치 센서는, 예를 들어, 터치 필름, 터치 시트, 터치 패드 등의 형태를 가질 수 있다.When the display unit 151 and a sensor for detecting a touch operation (hereinafter, referred to as a touch sensor) form a mutual layer structure (hereinafter referred to as a touch screen), the display unit 151 may be configured in addition to an output device. Can also be used as an input device. The touch sensor may have the form of, for example, a touch film, a touch sheet, a touch pad, or the like.

터치 센서는 디스플레이부(151)의 특정 부위에 가해진 압력 또는 디스플레이부(151)의 특정 부위에 발생하는 정전 용량 등의 변화를 전기적인 입력신호로 변환하도록 구성될 수 있다. 터치 센서는 터치 되는 위치 및 면적뿐만 아니라, 터치 시의 압력까지도 검출할 수 있도록 구성될 수 있다. The touch sensor may be configured to convert a change in a pressure applied to a specific portion of the display unit 151 or a capacitance generated in a specific portion of the display unit 151 into an electrical input signal. The touch sensor can be configured to detect not only the position and area to be touched but also the pressure at the time of touch.

터치 센서에 대한 터치 입력이 있는 경우, 그에 대응하는 신호(들)는 터치 제어기로 보내진다. 터치 제어기는 그 신호(들)를 처리한 다음 대응하는 데이터를 제어부(180)로 전송한다. 이로써, 제어부(180)는 디스플레이부(151)의 어느 영역이 터치 되었는지 여부 등을 알 수 있게 된다.If there is a touch input to the touch sensor, the corresponding signal (s) is sent to the touch controller. The touch controller processes the signal (s) and transmits the corresponding data to the controller 180. As a result, the controller 180 can know which area of the display unit 151 is touched.

상기 근접 센서(141)는 상기 터치스크린에 의해 감싸지는 이동 단말기의 내부 영역 또는 상기 터치 스크린의 근처에 배치될 수 있다. 상기 근접 센서는 소정의 검출면에 접근하는 물체, 혹은 근방에 존재하는 물체의 유무를 전자계의 힘 또는 적외선을 이용하여 기계적 접촉이 없이 검출하는 센서를 말한다. 근접 센서는 접촉식 센서보다는 그 수명이 길며 그 활용도 또한 높다. The proximity sensor 141 may be disposed in an inner region of the mobile terminal or in the vicinity of the touch screen, which is enclosed by the touch screen. The proximity sensor refers to a sensor that detects the presence or absence of an object approaching a predetermined detection surface or a nearby object without mechanical contact using the force of an electromagnetic field or infrared rays. The proximity sensor has a longer life span than the contact sensor and its utilization is also high.

상기 근접 센서의 예로는 투과형 광전 센서, 직접 반사형 광전 센서, 미러 반사형 광전 센서, 고주파 발진형 근접 센서, 정전용량형 근접 센서, 자기형 근접 센서, 적외선 근접 센서 등이 있다. 상기 터치스크린이 정전식인 경우에는 상기 포인터의 근접에 따른 전계의 변화로 상기 포인터의 근접을 검출하도록 구성된다. 이 경우 상기 터치 스크린(터치 센서)은 근접 센서로 분류될 수도 있다.Examples of the proximity sensor include a transmission photoelectric sensor, a direct reflection photoelectric sensor, a mirror reflection photoelectric sensor, a high frequency oscillation proximity sensor, a capacitive proximity sensor, a magnetic proximity sensor, and an infrared proximity sensor. And to detect the proximity of the pointer by the change of the electric field along the proximity of the pointer when the touch screen is electrostatic. In this case, the touch screen (touch sensor) may be classified as a proximity sensor.

이하에서는 설명의 편의를 위해, 상기 터치스크린 상에 포인터가 접촉되지 않으면서 근접되어 상기 포인터가 상기 터치스크린 상에 위치함이 인식되도록 하는 행위를 "근접 터치(proximity touch)"라고 칭하고, 상기 터치스크린 상에 포인터가 실제로 접촉되는 행위를 "접촉 터치(contact touch)"라고 칭한다. 상기 터치스크린 상에서 포인터로 근접 터치가 되는 위치라 함은, 상기 포인터가 근접 터치될 때 상기 포인터가 상기 터치스크린에 대해 수직으로 대응되는 위치를 의미한다.Hereinafter, for convenience of explanation, the act of allowing the pointer to be recognized without being in contact with the touch screen so that the pointer is located on the touch screen is referred to as a "proximity touch", and the touch The act of actually touching the pointer on the screen is called "contact touch." The position where the pointer is proximately touched on the touch screen means a position where the pointer is vertically corresponding to the touch screen when the pointer is touched.

상기 근접센서는, 근접 터치와, 근접 터치 패턴(예를 들어, 근접 터치 거리, 근접 터치 방향, 근접 터치 속도, 근접 터치 시간, 근접 터치 위치, 근접 터치 이동 상태 등)을 감지한다. 상기 감지된 근접 터치 동작 및 근접 터치 패턴에 상응하는 정보는 터치 스크린상에 출력될 수 있다. The proximity sensor detects a proximity touch and a proximity touch pattern (e.g., a proximity touch distance, a proximity touch direction, a proximity touch speed, a proximity touch time, a proximity touch position, a proximity touch movement state, and the like). Information corresponding to the detected proximity touch operation and the proximity touch pattern may be output on the touch screen.

음향 출력 모듈(152)은 호신호 수신, 통화모드 또는 녹음 모드, 음성인식 모드, 방송수신 모드 등에서 무선 통신부(110)로부터 수신되거나 메모리(160)에 저장된 오디오 데이터를 출력할 수 있다. 음향 출력 모듈(152)은 이동 단말기(100)에서 수행되는 기능(예를 들어, 호신호 수신음, 메시지 수신음 등)과 관련된 음향 신호를 출력하기도 한다. 이러한 음향 출력 모듈(152)에는 리시버(Receiver), 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다.The sound output module 152 may output audio data received from the wireless communication unit 110 or stored in the memory 160 in a call signal reception, a call mode or a recording mode, a voice recognition mode, a broadcast reception mode, and the like. The sound output module 152 also outputs sound signals related to functions (e.g., call signal reception sound, message reception sound, etc.) performed in the mobile terminal 100. [ The audio output module 152 may include a receiver, a speaker, a buzzer, and the like.

알람부(153)는 이동 단말기(100)의 이벤트 발생을 알리기 위한 신호를 출력한다. 이동 단말기에서 발생 되는 이벤트의 예로는 호 신호 수신, 메시지 수신, 키 신호 입력, 터치 입력 등이 있다. 알람부(153)는 비디오 신호나 오디오 신호 이외에 다른 형태, 예를 들어 진동으로 이벤트 발생을 알리기 위한 신호를 출력할 수도 있다. 상기 비디오 신호나 오디오 신호는 디스플레이부(151)나 음성 출력 모듈(152)을 통해서도 출력될 수 있어서, 그들(151,152)은 알람부(153)의 일부로 분류될 수도 있다.The alarm unit 153 outputs a signal for notifying the occurrence of an event of the mobile terminal 100. Examples of events that occur in the mobile terminal include call signal reception, message reception, key signal input, touch input, and the like. The alarm unit 153 may output a signal for notifying the occurrence of an event in a form other than the video signal or the audio signal, for example, vibration. The video signal or the audio signal may be output through the display unit 151 or the audio output module 152 so that they may be classified as a part of the alarm unit 153.

햅틱 모듈(haptic module)(154)은 사용자가 느낄 수 있는 다양한 촉각 효과를 발생시킨다. 햅틱 모듈(154)이 발생시키는 촉각 효과의 대표적인 예로는 진동이 있다. 햅택 모듈(154)이 발생하는 진동의 세기와 패턴 등은 제어가능하다. 예를 들어, 서로 다른 진동을 합성하여 출력하거나 순차적으로 출력할 수도 있다. The haptic module 154 generates various tactile effects that the user can feel. Vibration is a representative example of the haptic effect generated by the haptic module 154. The intensity and pattern of vibration generated by the haptic module 154 can be controlled. For example, different vibrations may be synthesized and output or sequentially output.

햅틱 모듈(154)은, 진동 외에도, 접촉 피부면에 대해 수직 운동하는 핀 배열, 분사구나 흡입구를 통한 공기의 분사력이나 흡입력, 피부 표면에 대한 스침, 전극(eletrode)의 접촉, 정전기력 등의 자극에 의한 효과와, 흡열이나 발열 가능한 소자를 이용한 냉온감 재현에 의한 효과 등 다양한 촉각 효과를 발생시킬 수 있다. In addition to vibration, the haptic module 154 may be configured to provide a pin array that vertically moves with respect to the contact skin surface, a jetting force or suction force of air through an injection or inlet port, grazing to the skin surface, contact of an electrode, electrostatic force, and the like. Various tactile effects can be generated, such as effects by the endothermic and the reproduction of a sense of cold using the elements capable of endotherm or heat generation.

햅틱 모듈(154)은 직접적인 접촉을 통해 촉각 효과의 전달할 수 있을 뿐만 아니라, 사용자가 손가락이나 팔 등의 근 감각을 통해 촉각 효과를 느낄 수 있도록 구현할 수도 있다. 햅틱 모듈(154)은 휴대 단말기(100)의 구성 태양에 따라 2개 이상이 구비될 수 있다.The haptic module 154 can be implemented not only to transmit the tactile effect through the direct contact but also to allow the user to feel the tactile effect through the muscular sensation of the finger or arm. The haptic module 154 may include two or more haptic modules 154 according to the configuration of the portable terminal 100.

프로젝터 모듈(155)은, 이동 단말기(100)를 이용하여 이미지 프로젝트(project) 기능을 수행하기 위한 구성요소로서, 제어부(180)의 제어 신호에 따라 디스플레이부(151)상에 디스플레이되는 영상과 동일하거나 적어도 일부가 다른 영상을 외부 스크린 또는 벽에 디스플레이할 수 있다.The projector module 155 is a component for performing an image project function using the mobile terminal 100 and is similar to the image displayed on the display unit 151 in accordance with a control signal of the controller 180 Or at least partly display another image on an external screen or wall.

구체적으로, 프로젝터 모듈(155)은, 영상을 외부로 출력하기 위한 빛(일 예로서, 레이저 광)을 발생시키는 광원(미도시), 광원에 의해 발생한 빛을 이용하여 외부로 출력할 영상을 생성하기 위한 영상 생성 수단 (미도시), 및 영상을 일정 초점 거리에서 외부로 확대 출력하기 위한 렌즈(미도시)를 포함할 수 있다. 또한, 프로젝터 모듈(155)은, 렌즈 또는 모듈 전체를 기계적으로 움직여 영상 투사 방향을 조절할 수 있는 장치(미도시)를 포함할 수 있다.Specifically, the projector module 155 includes a light source (not shown) that generates light (for example, laser light) for outputting an image to the outside, a light source And a lens (not shown) for enlarging and outputting the image at a predetermined focal distance to the outside. Further, the projector module 155 may include a device (not shown) capable of mechanically moving the lens or the entire module to adjust the image projection direction.

프로젝터 모듈(155)은 디스플레이 수단의 소자 종류에 따라 CRT(Cathode Ray Tube) 모듈, LCD(Liquid Crystal Display) 모듈 및 DLP(Digital Light Processing) 모듈 등으로 나뉠 수 있다. 특히, DLP 모듈은, 광원에서 발생한 빛이 DMD(Digital Micromirror Device) 칩에 반사됨으로써 생성된 영상을 확대 투사하는 방식으로 프로젝터 모듈(151)의 소형화에 유리할 수 있다.The projector module 155 can be divided into a CRT (Cathode Ray Tube) module, an LCD (Liquid Crystal Display) module and a DLP (Digital Light Processing) module according to the type of the display means. In particular, the DLP module may be advantageous for miniaturization of the projector module 151 by enlarging and projecting an image generated by reflecting light generated from a light source on a DMD (Digital Micromirror Device) chip.

바람직하게, 프로젝터 모듈(155)은, 이동 단말기(100)의 측면, 정면 또는 배면에 길이 방향으로 구비될 수 있다. 물론, 프로젝터 모듈(155)은, 필요에 따라 이동 단말기(100)의 어느 위치에라도 구비될 수 있음은 당연하다.Preferably, the projector module 155 may be provided longitudinally on the side, front or back side of the mobile terminal 100. It goes without saying that the projector module 155 may be provided at any position of the mobile terminal 100 as occasion demands.

다음으로, 홀로그래피 모듈(156)은 홀로그래피 저장매체와 홀로그래피 출력 모듈을 포함할 수 있고, 홀로그래피 영상을 외부로 투사할 수 있다.Next, the holography module 156 may include a holographic storage medium and a holographic output module, and project the holographic image to the outside.

홀로그래피 저장매체는 조사된 물체파 및 기준파가 서로 간섭(interference) 현상을 일으켜 생성한 간섭무늬를 기록하기 위한 저장매체로 포토폴리머와 같이 빛의 세기에 따라 반응하는 재료로 구성된다.Holographic storage medium is a storage medium for recording the interference pattern generated by the interference of the irradiated object wave and the reference wave is composed of a material that reacts according to the intensity of light, such as a photopolymer.

이때, 제어부(180)의 제어에 따라 홀로그래피 출력 모듈은 홀로그래피 저장매체에 기준파와 동일한 재생파를 조사하고, 조사된 재생파가 홀로그래피 저장매체에 기록된 간섭무늬와 회절(diffraction) 현상을 일으켜 생성한 홀로그래피 영상을 출력할 수 있다.At this time, according to the control of the controller 180, the holographic output module irradiates a reproduction wave identical to the reference wave to the holographic storage medium, and the generated reproduction wave is generated by causing an interference fringe and a diffraction phenomenon recorded on the holographic storage medium. The holographic image can be output.

홀로그래피 영상의 구체적인 투사 방법은 이하 도 4 내지 도 7을 참조하여 구체적으로 후술한다.A detailed projection method of the holographic image will be described below in detail with reference to FIGS. 4 to 7.

또한, 상기에서는 홀로그래피 저장매체와 홀로그래피 출력 모듈이 홀로그래피 모듈(156)에 포함되어 함께 구현되는 것으로 설명하였으나 이는 단순한 일례에 불과하고 별개의 구성으로 이동 단말기(100)에 포함될 수도 있다.In addition, in the above description, the holographic storage medium and the holographic output module are included in the holography module 156 to be implemented together, but this is merely a mere example and may be included in the mobile terminal 100 in a separate configuration.

메모리부(160)는 제어부(180)의 처리 및 제어를 위한 프로그램이 저장될 수도 있고, 입/출력되는 데이터들(예를 들어, 전화번호부, 메시지, 오디오, 정지영상, 동영상 등)의 임시 저장을 위한 기능을 수행할 수도 있다. 상기 메모리부(160)에는 상기 데이터들 각각에 대한 사용 빈도(예를 들면, 각 전화번호, 각 메시지, 각 멀티미디어에 대한 사용빈도)도 함께 저장될 수 있다. 또한, 상기 메모리부(160)에는 상기 터치스크린 상의 터치 입력시 출력되는 다양한 패턴의 진동 및 음향에 관한 데이터를 저장할 수 있다.The memory unit 160 may store a program for processing and controlling the control unit 180 and temporarily store the input / output data (e.g., telephone directory, message, audio, For example. The memory unit 160 may also store the frequency of use of each of the data (for example, each telephone number, each message, and frequency of use for each multimedia). In addition, the memory unit 160 may store data on vibration and sound of various patterns output when the touch is input on the touch screen.

더 나아가 홀로그래피 모듈(156)의 홀로그래피 영상 투사를 지원하기 위해, 홀로그래피 간섭무늬에 대한 정보를 저장할 수 있다. 즉, 메모리부(160)에 저장된 정보를 통해 사용자의 음성, 어플리케이션의 실행 결과 등을 홀로그래피 모듈(156)을 통해 외부로 출력하는 것이 가능해진다.Furthermore, in order to support the holographic image projection of the holography module 156, information about the holographic interference fringe may be stored. That is, the user's voice, the execution result of the application, and the like can be output to the outside through the holography module 156 through the information stored in the memory unit 160.

메모리(160)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 이동 단말기(100)는 인터넷(internet)상에서 상기 메모리(160)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작할 수도 있다.The memory 160 may be a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (for example, SD or XD memory), a RAM (Random Access Memory), SRAM (Static Random Access Memory), ROM (Read Only Memory), EEPROM (Electrically Erasable Programmable Read-Only Memory), PROM A disk, and / or an optical disk. The mobile terminal 100 may operate in association with a web storage that performs a storage function of the memory 160 on the Internet.

인터페이스부(170)는 이동 단말기(100)에 연결되는 모든 외부기기와의 통로 역할을 한다. 인터페이스부(170)는 외부 기기로부터 데이터를 전송받거나, 전원을 공급받아 이동 단말기(100) 내부의 각 구성 요소에 전달하거나, 이동 단말기(100) 내부의 데이터가 외부 기기로 전송되도록 한다. 예를 들어, 유/무선 헤드셋 포트, 외부 충전기 포트, 유/무선 데이터 포트, 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트, 오디오 I/O(Input/Output) 포트, 비디오 I/O(Input/Output) 포트, 이어폰 포트 등이 인터페이스부(170)에 포함될 수 있다.The interface unit 170 serves as a path for communication with all external devices connected to the mobile terminal 100. The interface unit 170 receives data from an external device or supplies power to each component in the mobile terminal 100 or transmits data to the external device. For example, a wired / wireless headset port, an external charger port, a wired / wireless data port, a memory card port, a port for connecting a device having an identification module, an audio I / O port, A video input / output (I / O) port, an earphone port, and the like may be included in the interface unit 170.

식별 모듈은 이동 단말기(100)의 사용 권한을 인증하기 위한 각종 정보를 저장한 칩으로서, 사용자 인증 모듈(User Identify Module, UIM), 가입자 인증 모듈(Subscriber Identify Module, SIM), 범용 사용자 인증 모듈(Universal Subscriber Identity Module, USIM) 등을 포함할 수 있다. 식별 모듈이 구비된 장치(이하 '식별 장치')는, 스마트 카드(smart card) 형식으로 제작될 수 있다. 따라서 식별 장치는 포트를 통하여 단말기(100)와 연결될 수 있다. The identification module is a chip for storing various information for authenticating the use right of the mobile terminal 100 and includes a user identification module (UIM), a subscriber identity module (SIM), a general user authentication module A Universal Subscriber Identity Module (USIM), and the like. Devices with identification modules (hereinafter referred to as "identification devices") can be manufactured in a smart card format. Accordingly, the identification device can be connected to the terminal 100 through the port.

상기 인터페이스부는 이동단말기(100)가 외부 크래들(cradle)과 연결될 때 상기 크래들로부터의 전원이 상기 이동단말기(100)에 공급되는 통로가 되거나, 사용자에 의해 상기 크래들에서 입력되는 각종 명령 신호가 상기 이동단말기로 전달되는 통로가 될 수 있다. 상기 크래들로부터 입력되는 각종 명령 신호 또는 상기 전원은 상기 이동단말기가 상기 크래들에 정확히 장착되었음을 인지하기 위한 신호로 동작될 수도 있다.The interface unit may be a passage through which power from the cradle is supplied to the mobile terminal 100 when the mobile terminal 100 is connected to an external cradle, or various command signals input from the cradle by a user may be transferred. It may be a passage that is delivered to the terminal. The various command signals or the power source input from the cradle may be operated as a signal for recognizing that the mobile terminal is correctly mounted on the cradle.

제어부(controller, 180)는 통상적으로 이동 단말기의 전반적인 동작을 제어한다. 예를 들어 음성 통화, 데이터 통신, 화상 통화 등을 위한 관련된 제어 및 처리를 수행한다. 제어부(180)는 멀티 미디어 재생을 위한 멀티미디어 모듈(181)을 구비할 수도 있다. 멀티미디어 모듈(181)은 제어부(180) 내에 구현될 수도 있고, 제어부(180)와 별도로 구현될 수도 있다.The controller 180 typically controls the overall operation of the mobile terminal. For example, voice communication, data communication, video communication, and the like. The control unit 180 may include a multimedia module 181 for multimedia playback. The multimedia module 181 may be implemented in the control unit 180 or may be implemented separately from the control unit 180. [

상기 제어부(180)는 상기 터치스크린 상에서 행해지는 필기 입력 또는 그림 그리기 입력을 각각 문자 및 이미지로 인식할 수 있는 패턴 인식 처리를 행할 수 있다. The controller 180 may perform a pattern recognition process for recognizing handwriting input or drawing input performed on the touch screen as characters and images, respectively.

전원 공급부(190)는 제어부(180)의 제어에 의해 외부의 전원, 내부의 전원을 인가받아 각 구성요소들의 동작에 필요한 전원을 공급한다.The power supply unit 190 receives an external power source and an internal power source under the control of the controller 180 to supply power for operation of each component.

여기에 설명되는 다양한 실시예는 예를 들어, 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록매체 내에서 구현될 수 있다.The various embodiments described herein may be embodied in a recording medium readable by a computer or similar device using, for example, software, hardware, or a combination thereof.

하드웨어적인 구현에 의하면, 여기에 설명되는 실시예는 ASICs (application specific integrated circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gate arrays, 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적인 유닛 중 적어도 하나를 이용하여 구현될 수 있다. 일부의 경우에 본 명세서에서 설명되는 실시예들이 제어부(180) 자체로 구현될 수 있다.According to a hardware implementation, the embodiments described herein include application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays (FPGAs), and the like. It may be implemented using at least one of processors, controllers, micro-controllers, microprocessors, and electrical units for performing other functions. The described embodiments may be implemented by the controller 180 itself.

소프트웨어적인 구현에 의하면, 본 명세서에서 설명되는 절차 및 기능과 같은 실시예들은 별도의 소프트웨어 모듈들로 구현될 수 있다. 상기 소프트웨어 모듈들 각각은 본 명세서에서 설명되는 하나 이상의 기능 및 작동을 수행할 수 있다. 적절한 프로그램 언어로 쓰여진 소프트웨어 어플리케이션으로 소프트웨어 코드가 구현될 수 있다. 상기 소프트웨어 코드는 메모리(160)에 저장되고, 제어부(180)에 의해 실행될 수 있다.According to the software implementation, embodiments such as the procedures and functions described herein may be implemented as separate software modules. Each of the software modules may perform one or more of the functions and operations described herein. Software code can be implemented in a software application written in a suitable programming language. The software code is stored in the memory 160 and can be executed by the control unit 180. [

기구 설명Organization description

도 2는 본 발명과 관련된 이동 단말기 또는 휴대 단말기의 일 예를 전면에서 바라본 사시도이다.FIG. 2 is a perspective view of a mobile terminal or a portable terminal according to the present invention, as viewed from the front.

개시된 휴대 단말기(100)는 바 형태의 단말기 바디를 구비하고 있다. 다만, 본 발명은 여기에 한정되지 않고, 2 이상의 바디들이 상대 이동 가능하게 결합되는 슬라이드 타입, 폴더 타입, 스윙 타입, 스위블 타입 등 다양한 구조에 적용이 가능하다. The disclosed mobile terminal 100 has a bar-shaped terminal body. However, the present invention is not limited thereto, and can be applied to various structures such as a slide type, a folder type, a swing type, and a swivel type in which two or more bodies are relatively movably coupled.

바디는 외관을 이루는 케이스(케이싱, 하우징, 커버 등)를 포함한다. 본 실시예에서, 케이스는 프론트 케이스(101)와 리어 케이스(102)로 구분될 수 있다. 프론트 케이스(101)와 리어 케이스(102)의 사이에 형성된 공간에는 각종 전자부품들이 내장된다. 프론트 케이스(101)와 리어 케이스(102) 사이에는 적어도 하나의 중간 케이스가 추가로 배치될 수도 있다.The body includes a case (a casing, a housing, a cover, and the like) which forms an appearance. In this embodiment, the case may be divided into a front case 101 and a rear case 102. [ A variety of electronic components are embedded in the space formed between the front case 101 and the rear case 102. At least one intermediate case may be additionally disposed between the front case 101 and the rear case 102. [

케이스들은 합성수지를 사출하여 형성되거나 금속 재질, 예를 들어 스테인레스 스틸(STS) 또는 티타늄(Ti) 등과 같은 금속 재질을 갖도록 형성될 수도 있다.The cases may be formed by injecting synthetic resin or may be formed of a metal material, for example, a metal material such as stainless steel (STS) or titanium (Ti).

단말기 바디, 주로 프론트 케이스(101)에는 디스플레이부(151), 음향출력부(152), 카메라(121), 사용자 입력부(130/131,132), 마이크(122), 인터페이스(170) 등이 배치될 수 있다.The display unit 151, the sound output unit 152, the camera 121, the user input units 130/131 and 132, the microphone 122, the interface 170, and the like may be disposed in the front body 101 have.

디스플레이부(151)는 프론트 케이스(101)의 주면의 대부분을 차지한다. 디스플레이부(151)의 양단부 중 일 단부에 인접한 영역에는 음향출력부(151)와 카메라(121)가 배치되고, 다른 단부에 인접한 영역에는 사용자 입력부(131)와 마이크(122)가 배치된다. 사용자 입력부(132)와 인터페이스(170) 등은 프론트 케이스(101) 및 리어 케이스(102)의 측면들에 배치될 수 있다.The display unit 151 occupies most of the main surface of the front case 101. A sound output unit 151 and a camera 121 are disposed in an area adjacent to one end of both ends of the display unit 151 and a user input unit 131 and a microphone 122 are disposed in an area adjacent to the other end. The user input unit 132 and the interface 170 may be disposed on the side surfaces of the front case 101 and the rear case 102. [

사용자 입력부(130)는 휴대 단말기(100)의 동작을 제어하기 위한 명령을 입력받기 위해 조작되는 것으로서, 복수의 조작 유닛들(131,132)을 포함할 수 있다. 조작 유닛들(131,132)은 조작부(manipulating portion)로도 통칭 될 수 있으며, 사용자가 촉각 적인 느낌을 가면서 조작하게 되는 방식(tactile manner)이라면 어떤 방식이든 채용될 수 있다.The user input unit 130 is operated to receive a command for controlling the operation of the portable terminal 100 and may include a plurality of operation units 131 and 132. The manipulation units 131 and 132 may also be collectively referred to as manipulating portions, and may be employed in any manner as long as the user operates the tactile manner with a tactile feeling.

제1 또는 제2조작 유닛들(131, 132)에 의하여 입력되는 내용은 다양하게 설정될 수 있다. 예를 들어, 제1 조작 유닛(131)은 시작, 종료, 스크롤 등과 같은 명령을 입력받고, 제2 조작 유닛(132)은 음향출력부(152)에서 출력되는 음향의 크기 조절 또는 디스플레이부(151)의 터치 인식 모드로의 전환 등과 같은 명령을 입력받을 수 있다.The contents inputted by the first or second operation unit 131 or 132 may be variously set. For example, the first operation unit 131 receives commands such as start, end, scroll, and the like, and the second operation unit 132 controls the size of the sound output from the sound output unit 152 or the size of the sound output from the display unit 151 To the touch recognition mode of the touch screen.

전면 터치Front touch

이하, 도 3을 참조하여 디스플레이부(151)와 터치 패드(135)의 서로 연관된 작동 방식에 대하여 살펴본다.Hereinafter, the operation of the display unit 151 and the touch pad 135 will be described with reference to FIG. 3.

도 3은 본 발명과 관련된 휴대 단말기의 일 작동 상태를 설명하기 위한 휴대 단말기의 정면도이다.3 is a front view of a portable terminal for explaining an operation state of the portable terminal according to the present invention.

디스플레이부(151)에는 다양한 종류의 시각 정보들이 표시될 수 있다. 이들 정보들은 문자, 숫자, 기호, 그래픽, 또는 아이콘 등의 형태로 표시될 수 있다.Various types of time information can be displayed on the display unit 151. [ These pieces of information can be displayed in the form of letters, numbers, symbols, graphics, or icons.

이러한 정보의 입력을 위하여 상기 문자, 숫자, 기호, 그래픽 또는 아이콘 들 중 적어도 하나는 일정한 배열을 이루어 표시됨으로써 키패드의 형태로 구현될 수 있다. 이러한 키패드는 소위 '가상 키패드'(virtual keypad)라 불릴 수 있다. At least one of the letters, numbers, symbols, graphics, or icons may be displayed in a predetermined arrangement for inputting such information, thereby being implemented as a keypad. Such a keypad may be referred to as a so-called " virtual keypad ".

도 3은 단말기 바디의 전면을 통해 가상 키패드에 가해진 터치를 입력받는 것을 나타내고 있다. 3 illustrates inputting of a touch applied to the virtual keypad through the front surface of the terminal body.

디스플레이부(151)는 전체 영역으로 작동되거나, 복수의 영역들로 나뉘어져 작동될 수 있다. 후자의 경우, 상기 복수의 영역들은 서로 연관되게 작동되도록 구성될 수 있다.The display unit 151 may operate as an entire area or may be divided into a plurality of areas and operated. In the latter case, the plurality of areas can be configured to operate in association with each other.

예를 들어, 디스플레이부(151)의 상부와 하부에는 출력창(151a)과 입력창(151b)이 각각 표시된다. 출력창(151a)과 입력창(151b)은 각각 정보의 출력 또는 입력을 위해 할당되는 영역이다. 입력창(151b)에는 전화 번호 등의 입력을 위한 숫자가 표시된 가상 키패드(151c)가 출력된다. 가상 키패드(151c)가 터치되면, 터치된 가상 키패드에 대응되는 숫자 등이 출력창(151a)에 표시된다. 제1조작 유닛(131)이 조작되면 출력창(151a)에 표시된 전화번호에 대한 호 연결이 시도된다.For example, an output window 151a and an input window 151b are displayed on the upper and lower portions of the display unit 151, respectively. The output window 151a and the input window 151b are areas allocated for outputting or inputting information, respectively. In the input window 151b, a virtual keypad 151c is displayed in which a number for inputting a telephone number or the like is displayed. When the virtual keypad 151c is touched, numbers and the like corresponding to the touched virtual keypad are displayed on the output window 151a. When the first operation unit 131 is operated, call connection to the telephone number displayed on the output window 151a is attempted.

이상의 실시예들에 개시된 입력 방식뿐만 아니라, 디스플레이부(151) 또는 터치 패드(135)는 스크롤(scroll)에 의해 터치 입력받도록 구성될 수 있다. 사용자는 디스플레이부(151) 또는 터치 패드(135)를 스크롤 함으로써 디스플레이부(151)에 표시된 개체, 예를 들어 아이콘 등에 위치한 커서 또는 포인터를 이동시킬 수 있다. 나아가, 손가락을 디스플레이부(151) 또는 터치 패드(135) 상에서 이동시키는 경우, 손가락이 움직이는 경로가 디스플레이부(151)에 시각적으로 표시될 수도 있다. 이는 디스플레이부(151)에 표시되는 이미지를 편집함에 유용할 것이다.The display unit 151 or the touch pad 135 may be configured to receive a touch input by scrolling, as well as the input method described in the above embodiments. The user can move a cursor or a pointer located on an object displayed on the display unit 151, for example, an icon or the like, by scrolling the display unit 151 or the touch pad 135. [ Further, when the finger is moved on the display portion 151 or the touch pad 135, the path along which the finger moves may be visually displayed on the display portion 151. [ This will be useful for editing the image displayed on the display unit 151. [

디스플레이부(151)(터치 스크린) 및 터치 패드(135)가 일정 시간 범위 내에서 함께 터치되는 경우에 대응하여, 단말기의 일 기능이 실행될 수도 있다. 함께 터치되는 경우로는, 사용자가 엄지 및 검지를 이용하여 단말기 바디를 집는(clamping) 경우가 있을 수 있다. 상기 일 기능은, 예를 들어, 디스플레이부(151) 또는 터치 패드(135)에 대한 활성화 또는 비활성화 등이 있을 수 있다.One function of the terminal may be executed in response to a case where the display unit 151 (touch screen) and the touch pad 135 are touched together within a predetermined time range. In the case of being touched together, there may be a case where the user clamps the terminal body using the thumb and index finger. The one function may be activation or deactivation of the display unit 151 or the touch pad 135, for example.

이하에서는 본 발명의 실시예들에서 적용될 수 있는 이동 단말기의 홀로그래피 영상 표현 방법 및 그를 위한 구조에 대해 설명한다.Hereinafter, a holographic image representation method of a mobile terminal and a structure therefor that can be applied to embodiments of the present invention will be described.

구체적인 홀로그래피 영상에 대한 설명에 앞서, 홀로그래피 모듈(156)을 포함하는 이동 단말기의 형태를 도 4를 참조하여 설명한다.Prior to the description of the holographic image, a form of a mobile terminal including the holography module 156 will be described with reference to FIG. 4.

홀로그래피 모듈은(156)은 이동 단말기의 전면 또는 후면에 배치되어 장착될 수 있다.The holography module 156 may be disposed and mounted on the front or rear side of the mobile terminal.

도 4는 본 발명의 일 실시예에 관련하여 홀로그래피 모듈을 포함하는 이동 단말기를 나타내는 도면이다.4 is a diagram illustrating a mobile terminal including a holography module according to an embodiment of the present invention.

먼저, 도 4a를 참조하면, 홀로그래피 모듈(156)은 이동 단말기의 전면에 구비되어 도시되어 있다. 이때, 홀로그래피 모듈(156)은 카메라(121)와 함께 이동 단말기의 전면에 구비될 수 있으며, 제어부(180)의 제어에 따라 생성된 홀로그래피 영상(411)을 투사하여 표시할 수 있다.First, referring to FIG. 4A, the holography module 156 is illustrated in front of a mobile terminal. In this case, the holography module 156 may be provided on the front surface of the mobile terminal together with the camera 121 and may project and display the holographic image 411 generated under the control of the controller 180.

또한, 도 4b에 도시된 것과 같이, 홀로그래피 모듈은(156) 이동 단말기의 후면의 일부 영역에 포함될 수 있고, 카메라(121)와 함께 포함될 수도 있으며, 제어부(180)의 제어에 따라 생성된 홀로그래피 영상(412)을 투사하여 표시한다.In addition, as illustrated in FIG. 4B, the holography module 156 may be included in a partial region of the rear surface of the mobile terminal, may be included together with the camera 121, and a holographic image generated under the control of the controller 180. Project and display (412).

홀로그래피 모듈(156)을 통해 구현될 수 있는 홀로그래피 영상은 평면 영상 및 입체 영상을 모두 포함할 수 있다.The holographic image that may be implemented through the holography module 156 may include both a planar image and a stereoscopic image.

이때, 홀로그래피 모듈(156)을 통해 구현되는 입체 영상은 크게 2D 입체영상 및 3D 입체 영상으로 구분될 수 있다.In this case, the stereoscopic image implemented through the holography module 156 may be largely divided into a 2D stereoscopic image and a 3D stereoscopic image.

2D 입체영상 방식은 양안에 동일한 영상을 제공하는 방식(monoscopic)으로, 제어부(180)의 제어에 따라 가상의 입체공간 상에 하나 이상의 점, 선, 면 또는 그들의 조합을 통하여 생성된 다면체를 배치하고, 그를 특정 시점에서 바라본 영상을 표시하도록하는 방법이다.The 2D stereoscopic image method is a monoscopic method of providing the same image in both eyes, and arranges a polyhedron generated through one or more points, lines, faces, or a combination thereof in a virtual stereoscopic space under the control of the controller 180. , How to display the image that he viewed at a certain point in time.

다음으로, 3D 입체 영상 방식은 양안에 서로 다른 영상을 제공하는 방식(stereo scopic)으로, 인간이 육안으로 사물을 볼 때 입체감을 느끼는 원리를 이용한 방법이다. 즉, 사람의 두 눈은 서로 간에 이루는 거리에 의해 동일한 사물을 볼때 서로 다른 평면 영상을 보게 된다. 이러한 서로 다른 평면 영상은 망막을 통하여 뇌로 전달되고, 뇌는 이를 융합하여 입체 영상의 깊이(depth) 및 실제감(reality)을 느끼게 된다. 따라서, 사람마다 다소간의 차이는 있으나, 양안이 서로 이루는 거리에 의한 양안시차(binocular disparity)가 입체감을 느끼게 하며, 이러한 양안시차를 이용하여 영상을 표시하도록 하는 방법이다.Next, the 3D stereoscopic image method is a method of providing different images to both eyes (stereo scopic), a method using a principle that the human body feels a three-dimensional feeling when viewing the object. In other words, the two eyes of a person see different plane images when they see the same thing by the distance between them. These different planar images are transmitted to the brain through the retina, and the brain fuses them to feel the depth and reality of the stereoscopic image. Therefore, although there is a slight difference for each person, the binocular disparity due to the distance between the two eyes makes a sense of three-dimensional feeling, and a method of displaying an image using the binocular disparity.

후술할 홀로그래피 모듈(156)을 통해 생성되는 홀로그래피 영상은 전술한 평면 영상 및 입체 영상을 모두 포함할 수 있으나 설명의 편의를 위해 이하에서는 2D 입체영상 방식으로 표시되는 것으로 가정하여 설명한다. 그러나 본 발명의 내용이 이에 한정되는 것은 아니다.The holographic image generated by the holography module 156 to be described later may include both the above-described planar image and stereoscopic image, but for convenience of description, the holographic image will be described on the assumption that it is displayed in a 2D stereoscopic image. However, the content of the present invention is not limited thereto.

이하에서는 본 발명의 실시예들에서 적용될 수 있는 이동 단말기의 홀로그래피 영상 표현 방법 및 그를 위한 구조에 대해 구체적으로 설명한다.Hereinafter, a holographic image representation method and a structure therefor of a mobile terminal that can be applied in embodiments of the present invention will be described in detail.

종래의 영상이 물체의 밝고 어두운 면의 분포만을 기록한 데 반해, 홀로그래피 영상 표현 방법은 파동인 빛이 가지는 모든 정보, 즉 진폭과 위상을 동시에 축적하고 재생하는 영상 표시 방법으로 이해될 수 있다.While the conventional image only records the distribution of the bright and dark sides of the object, the holographic image representation method can be understood as an image display method that simultaneously accumulates and reproduces all information, ie, amplitude and phase, of the light as the wave.

홀로그래피 영상 표현 방법을 도 5를 참조하여 설명한다.A holographic image representation method will be described with reference to FIG. 5.

도 5는 홀로그래피 원리를 설명하기 위한 개념도이다.5 is a conceptual diagram for explaining the holographic principle.

먼저, 도 5a를 참조하면, 레이저 광원(501)에서 나온 간섭성 빛은 스플리터(splitter, 502)를 통해 둘로 나누어진다. First, referring to FIG. 5A, the coherent light from the laser light source 501 is divided into two through a splitter 502.

이 중 한 광선을 피사체(507)를 비추도록 하면 피사체 표면에서 빛이 반사될 수 있고, 이하에서는 이 광선을 물체파라고 한다.If one of the beams is made to shine on the subject 507, the light may be reflected on the surface of the subject. Hereinafter, the beam is referred to as an object wave.

또한, 나머지 다른 한 광선은 렌즈로 확산시켜 직접 홀로그래피 감광재료(505) 전면에 비추게 할 수 있고, 이하에서는 이 광선을 기준파라고 호칭한다.In addition, the other light ray can be diffused through the lens to directly illuminate the entire holographic photosensitive material 505, which is hereinafter referred to as a reference wave.

홀로그래피 감광재료(505) 상에 물체파와 기준파가 서로 간섭(interference) 현상을 일으켜 1 mm당 500~1,500개 정도의 매우 섬세하고 복잡한만든다. 이때, 이러한 간섭무늬를 기록한 사진을 홀로그램이라고 한다.The object wave and the reference wave interfere with each other on the holographic photosensitive material 505, making about 500 to 1,500 very delicate and complex. At this time, the photo recording such interference pattern is called hologram.

이후, 도 5b에 도시된 것과 같이 생성된기준파와 같은 광선을 감광재료(505)에 투사하면 간섭무늬가역할을 해서 기준파가 입사한 방향과 다른 위치에서 빛이 회절되고, 회절된 빛이 모여 처음 물체에서 반사해서 생긴 빛과 같이 형성됨으로써, 홀로그래피 영상(509)을 투사하게 된다. 즉, 홀로그램에서 처음의 물체광이 재생될 수 있고, 이를 통한 영상 표현 방법을 홀로그래피 영상 표현 방법이라 칭한다.Subsequently, when a light beam such as a reference wave generated as shown in FIG. 5B is projected onto the photosensitive material 505, the interference pattern serves to diffract light at a position different from the direction in which the reference wave is incident, and the diffracted light gathers. By forming the light reflected by the first object, the holographic image 509 is projected. That is, the first object light can be reproduced in the hologram, and the image expression method through the hologram is called a holographic image expression method.

이때, 재생된 파면 안에서 들여다보면 처음 물체가 보이기는 하나 마치 물체가 안쪽에 있는 것처럼 보인다. 그리고 보는 지점을 이동하면 물체가 보이는 위치도 변하여 마치보는 것처럼 보인다. 또한, 원래 물체의 파면이 재생되기 때문에 아주 약간 변형한 물체에서 나오는 파면과도 간섭시킬 수가 있다는 특징이 있다.At this time, when looking inside the reproduced wavefront, the first object is visible, but it looks as if the object is inside. And as you move to the point of view, the position of the object changes as well, making it look as if you are looking at it. In addition, since the wavefront of the original object is reproduced, it can also interfere with the wavefront coming from a very deformed object.

재생 방식에 따라 홀로그래피 영상 표현 방법은 투과형 홀로그래피 영상 표현 방식과 반사형 폴로그래피 영상 표시 방식으로 구분될 수 있다.According to the reproduction method, the holographic image representation method may be classified into a transmissive holographic image representation method and a reflective polographic image display method.

(1)투과형 홀로그래피 영상 표현 방식(1) transmission holographic image representation

이는 홀로그램의 뒤에서 빛을 비추어 투과하여 나온 상을 홀로그램 앞에서 관찰할 수 있도록 하는 방식이다. 투과형 홀로그래피 영상 표현 방식에서는 제작 시에 물체파와 기준파를 같은 방향으로 사진필름에 노출시키게 되고 생성된 홀로그래피 영상은 색이 선명하고 밝은 것이 특징이다.This is a way to see the image transmitted through the light behind the hologram in front of the hologram. In the transmission holographic image representation method, the object wave and the reference wave are exposed to the photographic film in the same direction during production, and the generated holographic image is characterized by vivid and bright colors.

(2)반사형 홀로그래피 영상 표시 방식(2) reflective holographic image display system

이는 홀로그램의 앞에서 빛을 비추어 반사하여 나온 상을 홀로그램의 앞에서 관찰할 수 있도록 하는 방식으로 물체파와 기준파의 방향을 감광재료에 서로 반대 방향에서 입사하도록 제작된다. 반사형 홀로그래피 영상 표시 방식으로 생성된 홀로그래피 영상은 입체감이 뛰어난 것이 특징이다.It is manufactured so that the direction of the object wave and the reference wave are incident on the photosensitive material in opposite directions so that the image reflected by the light in front of the hologram can be observed in front of the hologram. The holographic image generated by the reflective holographic image display method is characterized by excellent stereoscopic effect.

상기 투과형 홀로그래피 영상 표현 방식과 반사형 폴로그래피 영상 표시 방식을 도 6 및 도 7을 참조하여 구체적으로 설명한다.The transmissive holographic image representation method and the reflective polygraphy image display method will be described in detail with reference to FIGS. 6 and 7.

도 6은 투과형 홀로그래피 방식을 설명하기 위한 개념도이다.6 is a conceptual diagram for describing a transmissive holography method.

도 6a를 참조하면, 레이저 광원(601)에서 나온 빛이 공간필터(spatial filter, 602)를 통과한 후 매끈한 구면파로 퍼져나간다. 50:50 스프리터(beamsplitter, 605)에서 두 개의 광선으로 나누어진 구면파 중 하나는 물체(608)에 조명되어 물체파를 만들고, 다른 하나는 그대로 필름(607)에 조명되어 기준파를 만든다. 물체(608)에 조명된 물체파도 필름(607)에 조명된다.Referring to FIG. 6A, light emitted from the laser light source 601 passes through a spatial filter 602 and then spreads into a smooth spherical wave. One of the spherical waves divided into two rays in a 50:50 splitter (605) is illuminated on the object 608 to produce an object wave, and the other is illuminated on the film 607 to create a reference wave. The object wave film 607 illuminated by the object 608 is illuminated.

이때, 필름에 조명된 물체파와 기준파가 서로 간섭 현상을 일으켜 간섭무늬가 만들어지고, 상기 간섭무늬가 필름(607)에 기록된다.At this time, the object wave and the reference wave illuminated on the film cause interference with each other to create an interference fringe, and the interference fringe is recorded on the film 607.

즉, 도 6b에서 도시된 것과 같이 물체파와 기준파는 필름(607)의 동일한 면으로 함께 투사되어 간섭무늬를 생성한다.That is, as illustrated in FIG. 6B, the object wave and the reference wave are projected together on the same surface of the film 607 to generate an interference fringe.

이후, 도 6c에 도시된 것과 같이, 기준파를 필름(607)에 투사하면, 이전의 물체파와 기준파가 입사된 면의 반대 면 방향으로 물체파가 투과되어 홀로그래피 영상을 생성한다.Subsequently, as shown in FIG. 6C, when the reference wave is projected onto the film 607, the object wave is transmitted in a direction opposite to the plane where the previous object wave and the reference wave are incident to generate a holographic image.

다음으로, 도 7은 반사형 홀로그래피 방식을 설명하기 위한 개념도이다.Next, FIG. 7 is a conceptual diagram for describing a reflective holography method.

도 7a를 참조하면, 도 6a와 같이 레이저 광원(701)에서 나온 빛이 공간필터(spatial filter, 702)를 통과한 후 매끈한 구면파로 퍼져나가고, 50:50 스프리터(beamsplitter, 705)를 통해 두 개의 광선으로 나누어지며, 하나는 물체(708)에 조명되어 물체파를 만들고, 다른 하나는 그대로 필름(707)에 조명되어 기준파를 만든다.Referring to FIG. 7A, light emitted from the laser light source 701 passes through a spatial filter 702 and then spreads out as a smooth spherical wave as shown in FIG. 6A, and then passes through two 50:50 splitters 705. It is divided into light rays, one of which is illuminated by the object 708 to produce an object wave, and the other of which is illuminated by the film 707 as it is to create a reference wave.

단, 도 6a와 달리 기준파와 물체파는 서로 반대되는 위치에서 필름(707)으로 조명된다.However, unlike FIG. 6A, the reference wave and the object wave are illuminated by the film 707 at positions opposite to each other.

즉, 도 7b와 같이 기준파는 필름(707)의 왼쪽 면으로 투사되고, 물체파는 필름(707)의 우측 상단 면을 통해 투사된다. 이후, 도 7c에 도시된 것과 같이, 기준파를 필름에 투사하면, 반대 방향으로 물체파가 투과되어 홀로그래피 영상을 생성한다.That is, as shown in FIG. 7B, the reference wave is projected onto the left side of the film 707, and the object wave is projected through the upper right side of the film 707. Then, as shown in Figure 7c, when the reference wave is projected on the film, the object wave is transmitted in the opposite direction to generate a holographic image.

상기에서 설명한 필름(607, 707)은 본 명세서에서는 홀로그래피 저장매체로 표현되고, 상기 필름에 빛을 발산하여 홀로그래피 영상을 생성할 수 있는 다른 구성요소는 본 명세서에서는 홀로그래피 출력 모듈로 표현된다.The films 607 and 707 described above are represented by the holographic storage medium in this specification, and other components capable of generating a holographic image by emitting light to the film are represented by the holographic output module.

전술한 것과 같이, 설명의 편의를 위해 본 명세서에서는 상기에서는 홀로그래피 저장매체와 홀로그래피 출력 모듈이 홀로그래피 모듈(156)에 포함되어 함께 구현되는 것으로 설명하나 이는 단순한 일례에 불과하고 별개의 구성으로 이동 단말기(100)에 포함될 수도 있다.As described above, for convenience of description, in the present specification, the holographic storage medium and the holographic output module will be described as being implemented together with the holography module 156. 100).

또한, 설명의 편의를 위하여, 이하에서 언급되는 이동 단말기는 도 1에 도시된 구성요소들 중 적어도 하나를 포함하고, 디스플레이부(151)는 터치 스크린인 것으로 가정한다.In addition, for convenience of description, it is assumed that the mobile terminal mentioned below includes at least one of the components shown in FIG. 1, and the display unit 151 is a touch screen.

보통 디스플레이부(151) 상에서 특정 오브젝트를 가리키거나 메뉴를 선택하기 위한 화살표 또는 손가락 형태의 그래픽은 포인터(pointer) 또는 커서(cursor)로 호칭된다. Usually, a graphic in the form of an arrow or a finger for pointing a specific object or selecting a menu on the display unit 151 is called a pointer or a cursor.

그러나, 포인터의 경우 터치 조작 등을 위한 손가락이나 스타일러스 펜 등을 의미하는 것으로 혼용되는 경우가 많다. However, in the case of a pointer, it often means a finger or a stylus pen for a touch operation or the like.

따라서 본 명세서에서는 이 둘을 명확히 구분하기 위하여 디스플레이부(151)에 표시되는 그래픽을 커서라 칭하고, 손가락이나 스타일러스 펜과 같이 터치, 근접터치, 제스쳐(gesture)를 수행할 수 있는 물리적 수단을 포인터라 칭한다.Therefore, in the present specification, the graphic displayed on the display unit 151 is referred to as a cursor to clearly distinguish the two, and a physical means capable of performing touch, proximity touch, and gesture such as a finger or a stylus pen is referred to as a pointer. It is called.

또한, 전술한 것과 같이 홀로그래피 영상은 평면 영상 및 입체 영상을 모두 포함할 수 있으나 설명의 편의를 위해 이하에서는 2D 입체영상 방식으로 표시되는 것으로 가정하여 설명한다.In addition, as described above, the holographic image may include both a planar image and a stereoscopic image, but for convenience of description, the holographic image will be described below on the assumption that it is displayed in a 2D stereoscopic image.

종래의 이동 단말기는 사용자의 위급 상황을 주변에 알리기 위한 수단으로 빈번하게 활용되어 왔다. 예를 들면, 알람부(153)를 통해 출력된 경고음을 이용하여 사용자 주변에 위급 상황을 알리거나 무선 통신부(110)를 통해 병원, 경찰서 등과 같은 기관에 미리 설정된 긴급 메시지 또는 긴급 호 신호를 전송될 수 있었다.Conventional mobile terminals have been frequently used as a means for informing a user of an emergency situation. For example, the alarm sound output through the alarm unit 153 may be used to notify an emergency situation around the user or to transmit a preset emergency message or emergency call signal to an institution such as a hospital or a police station through the wireless communication unit 110. Could.

최근, 단말기를 통해 홀로그래피(holography) 영상이 구현될 수 있게 됨에 따라 편리한 홀로그래피 사용자 인터페이스가 사용자에게 제공된다. 따라서 사용자의 위급 상황을 주변에 효과적으로 알리기 위해 홀로그래피 영상을 활용하는 방법도 함께 요구되고 있다.Recently, as holography images can be implemented through a terminal, a convenient holography user interface is provided to a user. Therefore, there is a demand for a method of utilizing holographic images to effectively inform the user of an emergency situation.

따라서 본 발명에서는 사용자의 위급 상황을 단말이 소정 이벤트를 통해 인식하고, 사용자의 위급 상황을 주변에 알리기 위한 홀로그래피 영상을 표현하는 방법을 제공한다.Accordingly, the present invention provides a method for a terminal to recognize an emergency situation of a user through a predetermined event and to express a holographic image for notifying the user of an emergency situation to the surroundings.

이하에서는, 일반적인 홀로그래피 영상과 사용자의 위급 상황을 알리는 홀로그래피 영상을 구분하기 위해, 사용자의 위급 상황을 알리기 위한 홀로그래피 영상을 SOS 홀로그래피 영상이라 호칭한다.Hereinafter, in order to distinguish between a general holographic image and a holographic image informing the user of an emergency, the holographic image for informing the user of an emergency is referred to as an SOS holography image.

본 발명을 구현하기 위한 단계는 크게 두 단계를 포함한다.The steps for implementing the present invention largely comprise two steps.

먼저, 단말은 사용자가 위급 상황이라는 사실을 미리 설정한 트리거 이벤트를 통해 인식할 수 있다. 즉, SOS 홀로그래피 영상을 투사하기 위한 트리거 이벤트가 발생하는 단계가 요구된다.First, the terminal may recognize that the user is in an emergency situation through a preset trigger event. That is, a step of generating a trigger event for projecting the SOS holographic image is required.

다음으로, 단말은 인식한 사용자의 위급 상황에 따라 미리 설정된 내용을 홀로그래피 영상으로 투사할 수 있다. 예를 들어, 미리 지정된 텍스트, 센싱부(140)가 인식한 사용자의 음성 내용, 무선 통신부(110)를 통해 수신한 메시지 내용 등을 홀로그래피 영상으로 투사할 수 있다.Next, the terminal may project the preset content in the holographic image according to the recognized emergency of the user. For example, the predetermined text, the voice content of the user recognized by the sensing unit 140, and the message content received through the wireless communication unit 110 may be projected as a holographic image.

이때, 단말은 부가기능으로 홀로그래피 영상을 투사함과 동시에 알람부(153)를 통해 경고음을 주변으로 출력하거나 미리 설정된 기관에 호신호 또는 메시지를 전송할 수 있다. 이와 관련하여 부가 기능에 대한 구체적인 설명은 후술한다.In this case, the terminal may project the holographic image as an additional function and simultaneously output a warning sound through the alarm unit 153 or transmit a call signal or a message to a preset organ. In this regard, a detailed description of the additional function will be described later.

이하에서는, SOS 홀로그래피 영상을 투사하기 위한 트리거 이벤트와 트리거 이벤트를 통해 출력되는 SOS 홀로그래피 영상의 내용에 대해 구체적으로 설명한다.Hereinafter, a trigger event for projecting the SOS holographic image and the contents of the SOS holographic image output through the trigger event will be described in detail.

먼저, SOS 홀로그래피 영상을 투사하기 위한 트리거 이벤트에 대해 설명한다.First, a trigger event for projecting an SOS holographic image will be described.

SOS 홀로그래피 영상을 투사하기 위한 트리거 이벤트는 특정 키 입력에 따른 이벤트, 특정 패턴의 터치 입력에 따른 이벤트, 음성 인식에 따른 이벤트, 자이로 센서를 기초로 단말의 움직임 또는 기울기 변화에 따른 이벤트, 지문 인식에 따른 이벤트, 바람 인식에 따른 이벤트, 아이 트랙킹(Eye-Tracking) 인식에 따른 이벤트, 외부 기기를 통한 이벤트, 미리 설정된 객체로부터 호 신호 또는 메시지를 수신하는 이벤트 등을 포함한다.The trigger event for projecting the SOS holographic image includes an event according to a specific key input, an event according to a touch input of a specific pattern, an event according to voice recognition, an event according to a movement or tilt change of the terminal based on a gyro sensor, and a fingerprint recognition. Event, wind event, eye-tracking event, event through an external device, an event of receiving a call signal or a message from a preset object, and the like.

즉, SOS 홀로그래피 영상을 투사하기 위한 특정 키를 별도로 구비하는 단말을 제작하고, 상기 특정 키가 사용자의 조작에 의해 선택되는 이벤트를 트리거 이벤트로 할 수 있다. 또한, 기존의 사용자 입력부(130)에 포함된 소정의 키를 미리 설정된 시간 이상 누르거나 미리 설정된 패턴으로 누르는 이벤트를 포함할 수도 있다. 예를 들면, 키 패드에 포함된 복수의 숫자 키 중 “1” 숫자 키를 3초 이상 누르는 이벤트, 상기 “1” 숫자 키를 3회 연속하여 누르는 이벤트 등을 들 수 있다.That is, a terminal having a specific key for projecting the SOS holographic image may be manufactured separately, and an event in which the specific key is selected by a user's operation may be used as a trigger event. In addition, an event of pressing a predetermined key included in the existing user input unit 130 for a predetermined time or a predetermined pattern may be included. For example, an event of pressing the "1" number key for three seconds or more, or an event of pressing the "1" number key three times in succession among the plurality of number keys included in the keypad.

또한, 센싱부(140)를 통해 인식되는 특정 패턴의 터치가 입력되는 이벤트를 트리거 이벤트로 할 수 있다. 특정 패턴의 터치 입력의 예로는 사용자가 이동 단말기의 일부 영역을 터치하거나 터치스크린의 일정 영역을 초과하는 터치 면적을 손바닥으로 쥐는 터치 입력이 포함될 수 있다. 또한, 터치스크린 상에서 소정 영역을 롱터치, 근접터치, 롱근접터치, 멀티터치하는 것 등도 이에 해당될 수 있다.In addition, an event in which a touch of a specific pattern recognized through the sensing unit 140 is input may be used as a trigger event. Examples of the touch input having a specific pattern may include a touch input in which a user touches a part of the mobile terminal or grabs a touch area with a palm that exceeds a certain area of the touch screen. In addition, the touch screen may be a long touch, a proximity touch, a long proximity touch, or a multi-touch on the touch screen.

또한, 센싱부(140)를 통해 음성이 인식되는 경우, 인식된 음성을 분석하고, 분석된 각 음성이 이벤트가 되도록 설정할 수 있다. 예를 들어, 사용자로부터 “Help Me”와 같은 음성이 인식된 경우, SOS 홀로그래피 영상이 외부로 출력될 수 있다.In addition, when a voice is recognized through the sensing unit 140, the recognized voice may be analyzed and the analyzed voice may be set to be an event. For example, when a voice such as “Help Me” is recognized by the user, the SOS holographic image may be output to the outside.

또한, 자이로 센서는 단말의 움직임의 변화 또는 기울기의 변화 등을 인식할 수 있으므로, 사용자가 단말을 흔드는 움직임의 횟수, 세기 또는 단말을 기울이는 각도, 세기 등에 따른 이벤트를 트리거 이벤트로 할 수 있다.In addition, since the gyro sensor may recognize a change in the movement of the terminal or a change in the tilt, the gyro sensor may use the trigger event as an event according to the number of times the user shakes the terminal, the intensity or the angle at which the terminal is tilted, and the intensity.

또한, 사용자의 복수의 지문 중 어느 지문을 센싱부(140)가 인식하는지 여부에 따라 트리거 이벤트를 설정할 수 있다. 즉, 사용자의 엄지, 검지, 중지, 약지, 새끼 손가락의 지문은 서로 상이하므로, 각 손가락의 지문에 따라 트리거 이벤트를 설정하거나 사용자 별로 지문이 상이하므로 이에 따라 트리거 이벤트를 설정할 수도 있다.In addition, the trigger event may be set according to whether the sensing unit 140 recognizes one of a plurality of fingerprints of the user. That is, since the fingerprints of the thumb, index finger, middle finger, and little finger of the user are different from each other, the trigger event may be set according to the fingerprint of each finger or the trigger event may be set accordingly because the fingerprint is different for each user.

또한, 바람 인식에 따른 이벤트로서 사용자에 의한 바람의 세기, 바람의 패턴을 SOS 홀로그래피 영상을 위한 트리거 이벤트로 설정할 수 있다.In addition, as an event according to wind recognition, the wind intensity and wind pattern by the user may be set as a trigger event for the SOS holographic image.

또한, 아이 트랙킹(Eye-Tracking) 인식에 따른 이벤트도 활용될 수 있다. 즉, 단말이 사용자의 아이 트랙킹(Eye-Tracking)을 인식한 이후, 사용자의 눈 깜빡임 횟수, 눈을 깜빡이는 패턴 각각이 트리거 이벤트가 되도록 설정될 수 있다.In addition, an event according to eye-tracking recognition may also be utilized. That is, after the terminal recognizes the eye tracking of the user, the number of eye blinks and the pattern of eye blinking of the user may be set to be a trigger event.

또한, 외부 기기를 통한 이벤트도 트리거 이벤트가 될 수 있다. 외부 기기는 헬스 케어 기기를 포함할 수 있다. 헬스 케어 기기는 호흡, 맥박, 체온, 혈압 등의 사용자 상태 정보를 실시간으로 체크하고, 사용자 움직임이 검출되지 않거나 응급상황 검출 신호가 발생하면 이를 단말에 알린다. 단말은 무선 통신부(110)을 통해 원거리 통신 또는 근거리 통신하여 상기 헬스 케어 기기로부터 상기 상황을 인식하고, 이를 SOS 홀로그래피 영상을 위한 트리거 이벤트로 활용할 수 있다.In addition, an event through an external device may also be a trigger event. The external device may include a health care device. The health care device checks user state information such as breathing, pulse, body temperature, and blood pressure in real time, and notifies the terminal when a user's movement is not detected or an emergency detection signal is generated. The terminal recognizes the situation from the health care device by remote communication or short-range communication through the wireless communication unit 110, and may use it as a trigger event for the SOS holographic image.

또한, 미리 설정된 객체로부터 호 신호 또는 메시지를 수신하는 이벤트가 트리거 이벤트가 될 수 있다. 미리 설정된 객체는 외부 단말, 외부 기관 등을 포함한다. 예를 들어, 외부 기관은 재난안전대책본부, 도로교통센터, 기상청, 소방본부, 경찰청 등을 들 수 있다. 미리 설정된 객체로부터 메시지 또는 호 신호를 수신하는 이벤트가 발생하는 경우, 단말은 SOS 홀로그래피 영상을 투사할 수 있다. 이때, 미리 설정된 객체는 사용자의 조작에 의해 변경될 수 있다.In addition, an event for receiving a call signal or a message from a preset object may be a trigger event. The preset object includes an external terminal, an external organization, and the like. For example, external agencies may include disaster safety response headquarters, road traffic centers, meteorological offices, firefighting headquarters, and police offices. When an event of receiving a message or call signal from a preset object occurs, the terminal may project the SOS holographic image. In this case, the preset object may be changed by a user's manipulation.

단, 전술한 SOS 홀로그래피 영상을 투사하기 위한 트리거 이벤트들은 단순히 예시적인 것에 불과하고, 사용자의 위험 상황과 직결된 다른 이벤트들도 트리거 이벤트로 설정될 수 있고, 본 발명의 내용이 이에 한정되는 것은 아니다.However, the trigger events for projecting the above-mentioned SOS holographic image are merely exemplary, and other events directly related to a dangerous situation of the user may also be set as trigger events, and the present disclosure is not limited thereto. .

다음으로, 트리거 이벤트가 발생한 경우, 홀로그래피 모듈(156)을 통해 투사되는 SOS 홀로그래피 영상의 내용에 대해 설명한다.Next, when a trigger event occurs, the contents of the SOS holographic image projected through the holography module 156 will be described.

투사되는 SOS 홀로그래피 영상의 내용은 미리 설정된 텍스트, 외부 객체로부터 수신한 메시지, 센싱부(140)를 통해 인식된 사용자의 음성 등을 포함한다.The content of the projected SOS holography image includes preset text, a message received from an external object, a user's voice recognized through the sensing unit 140, and the like.

먼저, 투사되는 SOS 홀로그래피 영상의 내용은 미리 설정된 텍스트가 될 수 있다. 예를 들면, “Help Me”, “도와주세요”, “병원으로 연락해주세요” 등의 텍스트가 사용자에 의해 미리 설정될 수 있고, 단말은 상기 설정된 텍스트를 SOS 홀로그래피 영상으로 투사할 수 있다. 이때, SOS 홀로그래피 영상을 위한 텍스트는 사용자에 의해 수정될 수 있는 것은 자명하다.First, the content of the projected SOS holography image may be preset text. For example, texts such as “Help Me”, “Help”, “Contact a hospital”, and the like may be preset by the user, and the terminal may project the set text onto the SOS holographic image. At this time, it is obvious that the text for the SOS holographic image can be modified by the user.

또한, 단말은 외부 객체로부터 수신한 메시지를 홀로그래피 영상의 내용으로 하여 투사할 수도 있다. 외부 객체는 외부 단말, 외부 기관 등을 포함한다. 외부 기관은 재난안전대책본부, 도로교통센터, 기상청, 소방본부, 경찰청 등을 들 수 있다. 예를 들어, 재난안전대책본부로부터 “해일이 몰려 오고 있습니다. 높은 위치로 대피해주시기 바랍니다”와 같은 메시지를 수신한 경우, 상기 수신한 메시지를 SOS 홀로그래피 영상으로 외부에 출력할 수 있다.In addition, the terminal may project a message received from an external object as the content of the holographic image. The external object includes an external terminal, an external organization, and the like. External organizations include disaster safety measures headquarters, road traffic centers, meteorological offices, firefighting headquarters, and police offices. For example, “Tsunamis are coming from the Disaster Safety Response Headquarters. Please evacuate to a higher location ”. You can output the received message as an SOS holographic image to the outside.

이때, 수신한 메시지에 포함된 내용이 많은 경우, 단말은 미리 설정된 크기로 상기 메시지 내용을 나누고, 소정 시간 간격에 따라 메시지를 출력하거나 압축된 SOS 홀로그래피 영상을 출력할 수 있다.In this case, when there are many contents included in the received message, the terminal may divide the contents of the message into a preset size, and output the message or the compressed SOS holographic image at predetermined time intervals.

예를 들어, 재난안전대책본부로부터 “해일이 몰려 오고 있습니다. 높은 위치로 대피해주시기 바랍니다.”라는 메시지를 수신한 경우, 단말은 “해일이 몰려 오고 있습니다.”를 먼저 홀로그래피 영상으로 투사하고, 소정 시간이 경과한 이후에 “높은 위치로 대피해주시기 바랍니다.”를 투사할 수 있다. 또한, 압축하여 “해일, 높은 위치로 대피”를 홀로그래피 영상으로 투사할 수도 있다.For example, “Tsunamis are coming from the Disaster Safety Response Headquarters. If you receive the message "Please evacuate to a higher location.", The terminal will first project the "Tsunami is coming" as a holographic image, and after a certain time, please evacuate to a higher location. Can project. It can also be compressed to project "tsunamis, evacuation to higher positions" as holographic images.

또한, 단말은 센싱부(140)를 통해 인식된 사용자 음성을 홀로그래피 영상의 내용으로 하여 투사할 수도 있다. 예를 들어, 사용자로부터 “열이 많이 납니다. 병원으로 연락 부탁 드려요.”와 같은 음성을 인식한 경우, 상기 인식한 음성 내용을 SOS 홀로그래피 영상으로 외부에 출력할 수 있다.In addition, the terminal may project the user voice recognized by the sensing unit 140 as the content of the holographic image. For example, “A lot of heat is coming from the user. Please contact the hospital. ”If the voice is recognized, the recognized voice content can be output to the outside as an SOS holographic image.

이때, 인식한 음성 내용이 많은 경우, 단말은 미리 설정된 크기로 상기 음성 내용을 나누고, 소정 시간 간격에 따라 음성 내용을 출력하거나 압축하여 SOS 홀로그래피 영상으로 출력할 수 있다.In this case, when the recognized voice content is many, the terminal may divide the voice content into a preset size, output or compress the voice content according to a predetermined time interval, and output the SOS holographic image.

예를 들어, “열이 많이 납니다. 병원으로 연락 부탁 드려요.”와 같은 음성을 인식한 경우, 단말은 “열이 많이 납니다.”를 먼저 홀로그래피 영상으로 투사하고, 소정 시간이 경과한 이후에 “병원으로 연락 부탁 드려요.”를 투사할 수 있다. 또한, 압축하여 “열, 병원으로 연락”을 홀로그래피 영상으로 투사할 수도 있다.For example, “I have a lot of fever. If it recognizes a voice such as "Please contact the hospital.", The terminal will first project a "hot fever" as a holographic image, and after a certain time has elapsed, "Please contact the hospital." Can be. It can also be compressed to project "heat, contact hospital" as a holographic image.

또한, 외부 객체로부터 수신한 메시지 또는 센싱부(140)를 통해 인식된 사용자 음성을 SOS 홀로그래피 영상으로 투사하는 경우, 단말은 무조건 상기 내용을 홀로그래피 영상으로 투사하지 않고, 미리 설정된 키워드가 포함된 경우에만 투사할 수도 있다.In addition, when projecting a user's voice recognized through a message received from an external object or the sensing unit 140 to the SOS holographic image, the terminal does not unconditionally project the above content into the holographic image, and only when a preset keyword is included. You can also project.

예를 들어, 사용자에 의해 키워드로 “병원”이 설정되었다고 가정한다. 만약, 재난안전대책본부로부터 “해일이 몰려 오고 있습니다. 높은 위치로 대피해주시기 바랍니다.”라는 메시지를 수신한 경우, 수신한 메시지에는 “병원” 키워드가 포함되어 있지 않으므로, 수신한 메시지는 홀로그래피 영상으로 투사되지 않는다. 또한, 사용자로부터 “열이 많이 납니다. 병원으로 연락 부탁 드려요.”와 같은 음성을 인식한 경우, 인식한 음성 내용에 “병원” 키워드가 포함되어 있으므로, 단말은 홀로그래피 모듈(156)을 통해 인식한 음성 내용을 SOS 홀로그래피 영상으로 투사한다.For example, assume that "hospital" is set as a keyword by the user. If there is a tsunami coming, Please evacuate to a higher location. ”Since the received message does not contain the keyword“ hospital, ”the received message will not be projected as a holographic image. Also, the user said, “There is a lot of heat. Please contact the hospital. ”Since the recognized voice content includes the keyword“ hospital, ”the terminal projects the voice content recognized through the holography module 156 as the SOS holographic image.

한편, 투사되는 SOS 홀로그래피 영상은 일반적인 홀로그래피 영상과 구분되기 위해 소정의 홀로그래피 패턴에 따라 투사되도록 제어될 수도 있다.Meanwhile, the projected SOS holographic image may be controlled to be projected according to a predetermined holography pattern to be distinguished from a general holographic image.

홀로그래피 패턴이란 홀로그래피 모듈(156)을 통해 투사된 홀로그래피 영상이 시간에 따라 미리 설정된 패턴으로 변화하여 사용자에게 제공되는 것을 의미한다.The holographic pattern means that the holographic image projected through the holography module 156 is changed to a preset pattern over time and provided to the user.

홀로그래피 패턴은 다음에서 설명하는 방식으로 다양하게 설정될 수 있다.The holographic pattern may be variously set in the manner described below.

먼저, 홀로그래피 출력 모듈과 홀로그래피 영상과의 거리차이를 시간에 따라 변화시킴으로써, 홀로그래피 패턴을 설정할 수 있다.First, the holographic pattern may be set by changing the distance difference between the holographic output module and the holographic image over time.

즉, 홀로그래피 모듈(156)과 홀로그래피 영상과의 거리차이를 시간에 따라 변화시킴으로써, 홀로그래피 모듈(156)을 통해 투사된 홀로그래피 영상을 상하로 이동시킬 수 있으므로 소정 홀로그래피 패턴의 설정이 가능하다.That is, by changing the distance difference between the holography module 156 and the holographic image with time, the holographic image projected through the holography module 156 can be moved up and down, so that a predetermined holography pattern can be set.

다음으로, 홀로그래피 모듈(156)에서 투사된 홀로그래피 영상의 모양을 시간에 따라 변화시킴으로써, 홀로그래피 패턴을 설정할 수 있다.Next, the holographic pattern may be set by changing the shape of the holographic image projected by the holography module 156 over time.

예를 들어 제어부(180)는 홀로그래피 모듈(156)에서 투사된 홀로그래피 영상이 처음에는 원형의 모양을 갖도록 제어하다가 시간이 흐름에 따라 사각형의 모양으로 변경되도록 제어할 수 있다. 이를 통해 홀로그래피 영상은 시간에 따라 다양한 모양으로 변경되므로, 홀로그래피 패턴의 설정이 가능하다.For example, the controller 180 may control the holographic image projected by the holography module 156 to have a circular shape at first, and then change the rectangular shape as time passes. As a result, the holographic image is changed into various shapes according to time, so that the holographic pattern can be set.

또한, 홀로그래피 모듈(156)을 통해 투사된 홀로그래피 영상을 좌우로 이동시키거나 회전시키는 방법이 적용될 수도 있다.In addition, a method of moving or rotating the holographic image projected through the holography module 156 to the left or right may be applied.

즉, 홀로그래피 모듈과 홀로그래피 영상과의 거리차이를 동일하게 유지하면서, 투사되는 홀로그래피 영상이 시간에 따라 좌우로 이동, 회전 또는 좌우로 이동하면서 회전시킴으로써, 홀로그래피 패턴의 설정을 할 수 있다.That is, while maintaining the same distance difference between the holographic module and the holographic image, the holographic pattern can be set by rotating the projected holographic image to move left and right, rotate, or move side to side according to time.

또한, 시간에 따라 투사된 홀로그래피 영상의 색상 또는 크기를 변형하거나 홀로그래피 영상이 점멸되도록 조절함으로써 홀로그래피 패턴을 설정할 수 있다. 더 나아가, 투사 밝기, 재생빈도, 조명 비추기, 진동 피드백, 사운드 삽입, 이미지 삽입, 반복 투사 등을 통해서도 홀로그래피 패턴의 설정이 가능하다.In addition, the holographic pattern may be set by changing the color or size of the projected holographic image or adjusting the holographic image to blink. Furthermore, the holographic pattern may be set through projection brightness, refresh rate, illumination, vibration feedback, sound insertion, image insertion, repetitive projection, and the like.

단, 상기에서는 개별적인 요소(facror)에 의해 홀로그래피 패턴이 설정되는 것으로 가정하여 설명하였으나 복수의 요소들에 의해 홀로그래피 패턴이 설정될 수도 있다.In the above description, it is assumed that the holographic pattern is set by individual elements, but the holographic pattern may be set by a plurality of elements.

예를 들어, 시간에 따라 홀로그래피 모듈(156)과 홀로그래피 영상과의 거리차이를 변경시키면서, 투사되는 홀로그래피 영상을 좌우로 이동하며 회전하도록 홀로그래피 패턴을 설정할 수도 있다.For example, the holographic pattern may be set to rotate and rotate the projected holographic image from side to side while changing the distance difference between the holographic module 156 and the holographic image over time.

또한, 상기에서는 홀로그래피 영상 전체에 대해 홀로그래피 패턴이 설정되는 것으로 가정하여 설명하였으나 이는 단순한 예시적인 내용에 불과하고, 홀로그래피 영상의 일부 영역 만에 대해 홀로그래피 패턴이 적용되는 것도 가능하다.In addition, in the above description, it is assumed that the holographic pattern is set for the entire holographic image. However, the holographic pattern is merely exemplary, and the holographic pattern may be applied to only a part of the holographic image.

한편, 투사되는 SOS 홀로그래피 영상이 표시되는 지속 시간 또는 반복하여 표시되는 횟수도 사용자에 의해 지정될 수 있다.Meanwhile, the duration of displaying the projected SOS holographic image or the number of times of repeatedly displaying the SOS holographic image may be specified by the user.

예를 들어, SOS 홀로그래피 영상은 10분 동아 홀로그래피 모듈을 통해 투사되도록 지정될 수 있다. 또한, SOS 홀로그래피 영상은 20회 반복하여 표시되도록 설정될 수도 있을 것이다.For example, the SOS holographic image may be designated to be projected through a 10 minute east holography module. In addition, the SOS holographic image may be set to be repeatedly displayed 20 times.

이하에서는, 도8 내지 도 12를 참조하여 SOS 홀로그래피 영상을 투사하기 위한 트리거 이벤트와 트리거 이벤트를 통해 출력되는 SOS 홀로그래피 영상의 내용에 대해 구체적으로 설명한다.Hereinafter, the trigger event for projecting the SOS holographic image and the contents of the SOS holographic image output through the trigger event will be described in detail with reference to FIGS. 8 to 12.

먼저, 도 8을 참조하여 본 발명에 적용되는 트리거 이벤트에 대해 설명한다.First, a trigger event applied to the present invention will be described with reference to FIG. 8.

도 8은 본 발명의 일 실시예와 관련하여 SOS 홀로그래피 영상을 투사하기 위한 트리거 이벤트의 일례를 나타내는 도면이다.8 illustrates an example of a trigger event for projecting an SOS holographic image in accordance with an embodiment of the present invention.

먼저, 도 8a는 특정 키 입력에 따른 이벤트의 일례를 나타낸다.First, FIG. 8A illustrates an example of an event according to a specific key input.

도 8a에서는 단말이 SOS 홀로그래피 영상을 투사하기 위한 특정 키(811)를 별도로 구비한다. 따라서 사용자가 특정 키(811)를 선택하는 경우, SOS 홀로그래피 영상은 투사된다. 도시되지는 않았지만 특정 키 입력에 따른 이벤트는 기존의 사용자 입력부(130)에 포함된 소정의 키를 미리 설정된 시간 이상 누르거나 미리 설정된 패턴으로 누르는 이벤트를 포함할 수도 있다. In FIG. 8A, the terminal separately includes a specific key 811 for projecting the SOS holographic image. Therefore, when the user selects a specific key 811, the SOS holographic image is projected. Although not shown, an event according to a specific key input may include an event of pressing a predetermined key included in the existing user input unit 130 for a predetermined time or a predetermined pattern.

다음으로, 도 8b는 특정 패턴의 터치 입력에 따른 이벤트를 나타낸다.8B illustrates an event according to a touch input of a specific pattern.

도 8 b에서는 터치스크린 상의 소정 영역을 롱터치하면, SOS 홀로그래피 영상은 투사된다. 도시되지는 않았지만 특정 패턴의 터치 입력에 따른 이벤트는 근접터치, 롱근접터치, 멀티터치 입력 이벤트를 포함할 수 있다.In FIG. 8B, when the predetermined area on the touch screen is long touched, the SOS holographic image is projected. Although not shown, an event according to a touch input of a specific pattern may include a proximity touch, a long proximity touch, and a multi-touch input event.

또한, 도 8c에서는 음성 인식에 따른 이벤트를 나타낸다. 8C illustrates an event according to voice recognition.

사용자로부터 “Help Me(813)”와 같은 음성이 인식된 경우, SOS 홀로그래피 영상이 외부로 출력될 수 있다.When a voice such as “Help Me 813” is recognized by the user, the SOS holographic image may be output to the outside.

또한, 도 8d에서는 자이로 센서를 기초로 단말의 움직임 또는 기울기 변화에 따른 이벤트를 나타낸다.In addition, FIG. 8D illustrates an event according to a movement or tilt change of the terminal based on the gyro sensor.

도 8d를 참조하면, 사용자는 단말의 위치를 814에서 815를 거쳐 816으로 변화시킴으로써, SOS 홀로그래피 영상이 외부로 출력되도록 조절할 수 있다.Referring to FIG. 8D, the user may adjust the position of the terminal from 814 to 815 to 816 to adjust the output of the SOS holographic image to the outside.

도 8d에서는 단말의 위치의 변화를 중심으로 설명하였으나 사용자가 단말을 흔드는 움직임의 횟수, 세기 또는 단말을 기울이는 각도, 세기 등에 따른 이벤트를 트리거 이벤트로 할 수도 있다.In FIG. 8D, the change of the position of the terminal has been described, but an event according to the number of times the user shakes the terminal, the strength or the angle of tilting the terminal, or the like may be used as a trigger event.

또한, 도 8e에서는 지문 인식에 따른 이벤트를 나타낸다.8E illustrates an event according to fingerprint recognition.

사용자의 복수의 지문 각각은 서로 다른 모양이므로 어느 지문을 센싱부(140)가 인식하는지 여부에 따라 SOS 홀로그래피 영상이 투사되도록 트리거 이벤트를 설정할 수 있다. 도시되지는 않았지만 사용자별로 지문 인식 이벤트가 적용될 수도 있다.Since each of the plurality of fingerprints of the user has a different shape, the trigger event may be set so that the SOS holographic image is projected according to whether the fingerprint 140 recognizes the fingerprint. Although not shown, a fingerprint recognition event may be applied for each user.

또한, 도 8f에서는 바람 인식에 따른 이벤트를 나타낸다.8F illustrates an event according to wind recognition.

도 8f에 도시된 것과 같이, 사용자에 의한 바람의 세기, 바람의 패턴을 SOS 홀로그래피 영상을 위한 트리거 이벤트로 설정할 수 있다.As shown in FIG. 8F, the wind intensity and the wind pattern by the user may be set as a trigger event for the SOS holographic image.

또한, 도 8g에서는 아이 트랙킹(Eye-Tracking) 인식에 따른 이벤트를 나타낸다.8G illustrates an event according to eye-tracking recognition.

도 8g에 도시된 것과 같이, 단말이 사용자의 아이 트랙킹(Eye-Tracking)을 인식한 이후, 사용자의 눈 깜빡임 횟수, 눈을 깜빡이는 패턴 각각이 트리거 이벤트가 되도록 설정될 수 있다.As illustrated in FIG. 8G, after the terminal recognizes the eye tracking of the user, the number of eye blinks and the pattern of eye blinking of the user may be set to be a trigger event.

도 8h에서는 외부 기기를 통한 이벤트를 나타낸다.8H illustrates an event through an external device.

도 8h에서는 외부 기기는 헬스 케어 기기인 것으로 가정한다.In FIG. 8H, it is assumed that the external device is a health care device.

헬스 케어 기기는 사용자의 호흡, 맥박, 체온, 혈압 등을 체크하고, 사용자 움직임이 검출되지 않거나 응급상황 검출 신호가 발생(817)하면 이를 원거리 통신 또는 근거리 통신을 통해 단말에 알린다. 이때, 단말은 상기 상황을 인식하고, SOS 홀로그래피 영상을 투사한다.The health care device checks the user's breathing, pulse, body temperature, blood pressure, etc., and notifies the terminal of the user through telecommunication or short-range communication when the user's movement is not detected or an emergency detection signal is generated (817). At this time, the terminal recognizes the situation and projects the SOS holographic image.

또한, 도 8i에서는 미리 설정된 객체로부터 호 신호 또는 메시지를 수신하는 이벤트를 나타낸다.In addition, FIG. 8I illustrates an event of receiving a call signal or a message from a preset object.

도 8i에서는 미리 설정된 객체로 재난안전대책본부가 설정된 것으로 가정한다. 따라서 재난안전대책본부부터 호 신호 또는 메시지(818)을 단말이 수신하는 경우, SOS 홀로그래피 영상이 투사된다.In FIG. 8I, it is assumed that the disaster safety measures headquarters is set as a preset object. Therefore, when the terminal receives the call signal or message 818 from the disaster safety response headquarters, the SOS holographic image is projected.

다음으로, 도 9 내지 도 12를 참조하여 트리거 이벤트를 통해 출력되는 SOS 홀로그래피 영상의 내용에 대해 구체적으로 설명한다.Next, the contents of the SOS holographic image output through the trigger event will be described in detail with reference to FIGS. 9 to 12.

도 9는 본 발명의 일 실시예와 관련하여 기 설정된 텍스트가 SOS 홀로그래피 영상으로 투사되는 일례를 나타내는 도면이다.FIG. 9 illustrates an example in which preset text is projected onto an SOS holographic image in accordance with an embodiment of the present invention.

도 9a에서는 음성 인식에 따른 이벤트가 트리거 이벤트이고, 사용자로부터 “SOS 병원”과 같은 음성이 인식된 것으로 가정한다.In FIG. 9A, it is assumed that an event according to voice recognition is a trigger event, and a voice such as “SOS hospital” is recognized by a user.

이때, 센싱부(140)를 통해 “SOS 병원”과 같은 음성이 인식된 경우, 제어부(180)의 제어에 따라 홀로그래피 모듈(156)은 미리 설정된 텍스트인 “저를 서울성모병원으로 후송해주세요(911)” 또는 “아버지 좀 불러주세요. 홍길동 010-1234-5678(912)”를 SOS 홀로그래피 영상으로 투사한다.At this time, when the voice such as "SOS hospital" is recognized through the sensing unit 140, the holography module 156 under the control of the control unit 180, the text of the pre-set "Please send me to Seoul St. Mary's Hospital (911) ) ”Or“ Please call me father. Hong Gil-dong 010-1234-5678 (912) ”is projected on the SOS holographic image.

도 9b에서는 특정 키 선택에 따른 이벤트가 트리거 이벤트이고, 사용자로부터 특정 키가 선택된 것으로 가정한다.In FIG. 9B, it is assumed that an event according to a specific key selection is a trigger event, and a specific key is selected by a user.

센싱부(140)를 통해 특정 키가 선택된 것이 인식된 경우, 제어부(180)의 제어에 따라 홀로그래피 모듈(156)은 미리 설정된 텍스트인 “저 좀 앉혀주세요(921)” 또는 “저 좀 병원에 데려다 주세요(922)”를 SOS 홀로그래피 영상으로 투사한다.When it is recognized that a specific key is selected through the sensing unit 140, the holography module 156 under the control of the controller 180 may take the preset text “Please sit down 921” or “take me to the hospital. 922 ”as a SOS holographic image.

또한, 도 10은 본 발명의 일 실시예와 관련하여 단말이 수신한 음성 또는 메시지를 홀로그래피 영상으로 투사하는 일례를 나타내는 도면이다.Also, FIG. 10 is a diagram illustrating an example of projecting a voice or a message received by a terminal as a holographic image according to an embodiment of the present invention.

먼저, 도 10a에서는 단말이 수신한 음성을 홀로그래피 영상으로 투사하는 것으로 가정한다.First, in FIG. 10A, it is assumed that the voice received by the terminal is projected as a holographic image.

센싱부(140)를 통해 “Help Me(1011)”라는 음성을 인식하는 경우, 단말은 제어부(180)의 제어에 따라 인식된 음성 “Help Me(1011)”를 SOS홀로그래피 영상(1012)으로 외부에 출력한다.When the voice “Help Me 1011” is recognized through the sensing unit 140, the terminal externally outputs the recognized voice “Help Me 1011” under the control of the controller 180 as the SOS holographic image 1012. Output to.

다음으로, 도 10b에서는 단말이 수신한 메시지를 홀로그래피 영상으로 투사하는 것으로 가정한다.Next, in FIG. 10B, it is assumed that the message received by the terminal is projected as a holographic image.

단말은 외부 객체로부터 긴급 정보 메시지(1021)를 수신할 수 있고, 수신한 메시지를 홀로그래피 영상으로 투사한다.The terminal may receive an emergency information message 1021 from an external object and project the received message as a holographic image.

도 10b에서는 수신한 “해일이 몰려오고 있습니다. 이 메시지 수신 시, 높은 위치로 최대한 빨리 대피해 주시기 바랍니다 재난안전대책본부” 메시지(1022)를 SOS 홀로그래피 영상으로 투사한다.In Figure 10b, “Tsunamis are coming. When you receive this message, please evacuate to a higher location as soon as possible. Project the “Disaster and Safety Countermeasures Headquarter” message 1022 on the SOS holographic image.

한편, 도 11은 본 발명의 일 실시예와 관련하여 기 설정된 키워드를 이용하여 SOS 홀로그래피 영상을 투사하는 일례를 나타내는 도면이다.11 is a diagram illustrating an example of projecting an SOS holographic image by using a preset keyword in accordance with an embodiment of the present invention.

도 11에서는 키워드로 “Help ME”가 지정된 것으로 가정한다.In FIG. 11, it is assumed that "Help ME" is designated as a keyword.

또한, 도 11에서는 인식한 음성 내용 또는 메시지 내용이 많은 경우, 내용을 압축하여 SOS 홀로그래피 영상으로 출력하도록 미리 지정된 것으로 가정한다.In addition, in FIG. 11, it is assumed that when there are many recognized voice content or message content, the content is pre-designated to compress and output the content as an SOS holographic image.

도 11a를 참조하면, 단말은 센싱부(140)를 통해 “저를 서울성모병원으로 후송해주세요. Help Me(1111)”라는 음성을 인식한다. 이때, 제어부(180)는 인식된 음성에 키워드인 “Help ME”가 포함되었는지 여부를 판단하고, 도 11a에서 인식된 음성에는 키워드가 포함되었다. 이때, “저를 서울성모병원으로 후송해주세요. Help Me(1111)”의 음성 내용이 많으므로, 제어부(180)는 압축된 “Help Me”만 SOS 홀로그래피 영상(1112)으로 표시하도록 제어할 수 있다.Referring to Figure 11a, the terminal through the sensing unit 140 "Please send me to Seoul St. Mary's Hospital. Help Me ”(1111). At this time, the controller 180 determines whether the keyword “Help ME” is included in the recognized voice, and the keyword is included in the recognized voice in FIG. 11A. At this time, “Please take me to Seoul St. Mary's Hospital. Since there are many audio contents of “Help Me 1111”, the controller 180 may control to display only the compressed “Help Me” as the SOS holographic image 1112.

다음으로, 도 11b를 참조하면, 단말은 외부 기기로부터 “Help Me. 저를 서울성모병원으로 후송해주세요. 도와주세요.(1121)”라는 메시지를 수신한다. 이때, 제어부(180)는 수신된 메시지에 키워드인 “Help ME”가 포함되었는지 여부를 판단하고, 도 11b에서 단말이 수신한 메시지에는 키워드가 포함되었음을 확인할 수 있다. 이때, “Help Me. 저를 서울성모병원으로 후송해주세요. 도와주세요.(1121)”의 메시지 내용이 많으므로, 제어부(180)는 압축된 “Help Me”만 SOS 홀로그래피 영상(1122)으로 표시하도록 제어할 수도 있다.Next, referring to FIG. 11B, the terminal uses the “Help Me. Please take me to Seoul St. Mary's Hospital. Please help me (1121) ”. In this case, the controller 180 determines whether the keyword “Help ME” is included in the received message, and confirms that the keyword is included in the message received by the terminal in FIG. 11B. At this time, “Help Me. Please take me to Seoul St. Mary's Hospital. Please help. 1112 ”, the controller 180 may control to display only the compressed“ Help Me ”as the SOS holographic image 1122.

또한, 도 12은 본 발명의 일 실시예와 관련하여 기 설정된 패턴에 따라 SOS 홀로그래피 영상이 투사되는 일례를 나타내는 도면이다.12 is a diagram illustrating an example in which an SOS holographic image is projected according to a preset pattern in accordance with an embodiment of the present invention.

도 12에서는 홀로그래피 모듈과 홀로그래피 영상과의 거리차이를 동일하게 유지하면서, 투사되는 홀로그래피 영상을 시간에 따라 회전하는 홀로그래피 패턴에 따라 SOS 홀로그래피 영상이 투사된다.In FIG. 12, while maintaining the same distance difference between the holographic module and the holographic image, the SOS holographic image is projected according to a holographic pattern that rotates the projected holographic image over time.

이를 통해 투사되는 SOS 홀로그래피 영상은 일반적인 홀로그래피 영상과 손쉽게 구분될 수 있다.The SOS holographic image projected through this can be easily distinguished from the general holographic image.

또한, 도시되지는 않았지만 전술한 것과 같이 홀로그래피 출력 모듈과 홀로그래피 영상과의 거리차이를 시간에 따라 변화시키거나 투사된 홀로그래피 영상의 모양을 시간에 따라 변화시켜 홀로그래피 패턴을 설정하는 것도 가능하다.In addition, although not shown, as described above, the holographic pattern may be set by changing the distance difference between the holographic output module and the holographic image over time or by changing the shape of the projected holographic image over time.

한편, 본 발명의 일 실시예에 따르면 SOS 홀로그래피 영상을 투사함과 동시에 단말에 설정된 부가 기능이 함께 실행될 수 있다.Meanwhile, according to an exemplary embodiment of the present invention, an additional function set in the terminal may be simultaneously executed while projecting the SOS holographic image.

SOS 홀로그래피 영상과 함께 실행되는 부가 기능은 비상벨 출력 기능, SOS 호 신호 전송 기능, SOS 메시지 전송 기능, 멀티 홀로그래피(Multi-Holography) 기능을 포함한다.Additional functions implemented with the SOS holographic image include an emergency bell output function, SOS call signal transmission function, SOS message transmission function, and multi-holography function.

먼저, 비상벨 출력 기능은 홀로그래피 모듈(156)을 통해 SOS 홀로그래피 영상을 투사함과 동시에 알람부(153)를 통해 경고음을 외부로 출력하는 기능이다.First, the emergency bell output function is a function of projecting the SOS holographic image through the holography module 156 and simultaneously outputting a warning sound through the alarm unit 153.

경고음과 SOS 홀로그래피 영상이 함께 투사되면 주변에 위험을 더욱 신속하게 알릴 수 있으므로 유리하다.Projecting a beep and SOS holographic image together is advantageous because it can alert you to the surroundings more quickly.

다음으로, SOS 호 신호 전송 기능은 SOS 홀로그래피 영상을 투사함과 동시에 미리 설정된 객체로 무선 통신부(110)을 통해 호 신호를 전송하는 기능이다.Next, the SOS call signal transmission function is a function of transmitting a call signal through the wireless communication unit 110 to a predetermined object while simultaneously projecting the SOS holographic image.

여기서, 미리 설정된 객체는 외부 단말, 외부 기관 등을 포함한다. 외부 기관의 예로는 재난안전대책본부, 도로교통센터, 기상청, 소방본부, 경찰청 등을 들 수 있다.Here, the preset object includes an external terminal, an external organization, and the like. Examples of external agencies include disaster safety response headquarters, road traffic centers, meteorological offices, firefighting headquarters, and police offices.

더 나아가, 호 신호 시도가 성공한 경우, 메모리(160)에 저장된 음성을 미리 설정된 객체로 전송할 수 있다. 예를 들어, 병원이 객체로 설정되고, 호 신호 시도가 성공한 경우, 메모리(160)에 저장된 “도와주세요” 음성이 전송될 수 있다.Furthermore, when the call signal attempt is successful, the voice stored in the memory 160 may be transmitted to a preset object. For example, when a hospital is set as an object and a call signal attempt is successful, a "help" voice stored in the memory 160 may be transmitted.

또한, SOS 메시지 전송 기능은 SOS 홀로그래피 영상을 투사함과 동시에 미리 설정된 객체로 무선 통신부(110)을 통해 메시지를 전송하는 기능이다.In addition, the SOS message transmission function is a function of transmitting a message through the wireless communication unit 110 to a predetermined object while simultaneously projecting the SOS holographic image.

여기서, 미리 설정된 객체는 SOS 호 신호 전송 기능에서 설명한 것과 같이 외부 단말, 외부 기관 등을 포함한다. 외부 기관의 예로는 재난안전대책본부, 도로교통센터, 기상청, 소방본부, 경찰청 등을 들 수 있다. Here, the preset object includes an external terminal, an external organization, and the like as described in the SOS call signal transmission function. Examples of external agencies include disaster safety response headquarters, road traffic centers, meteorological offices, firefighting headquarters, and police offices.

미리 설정된 객체로 전송되는 메시지는 단말 제조시 미리 지정되거나 사용자가 임의로 수정할 수 있다. 예를 들어, “Help Me. 저를 서울성모병원으로 후송해주세요. 도와주세요.”와 같은 내용의 메시지를 전송할 수 있다.The message transmitted to the preset object may be previously designated at the time of terminal manufacture or may be arbitrarily modified by the user. For example, “Help Me. Please take me to Seoul St. Mary's Hospital. Please help me ”.

더 나아가, 메시지를 전송하는 경우, 위치정보모듈(115)을 통해 사용자의 현재 위치를 파악하고, 파악된 위치 정보를 함께 전송할 수 있다. 이 경우, 사용자의 위험상황을 주변에 알림과 동시에 위치를 알릴 수 있어 유리하다.Furthermore, in the case of transmitting a message, the current location of the user may be determined through the location information module 115, and the detected location information may be transmitted together. In this case, it is advantageous to notify the surroundings of the user's dangerous situation and the location at the same time.

또한, 멀티 홀로그래피(Multi-Holography) 기능은 SOS 홀로그래피 영상에 포함된 내용을 분리하여 복수개의 단말이 홀로그래피 영상으로 투사하는 기능이다.In addition, a multi-holography function is a function in which a plurality of terminals project a holographic image by separating contents included in the SOS holographic image.

하나의 단말이 출력할 수 있는 홀로그래피 영상의 사이즈(size)는 한계가 있다. 따라서, SOS 홀로그래피 영상에 포함된 내용을 분리하여 복수개의 단말이 홀로그래피 영상으로 투사함으로써, 더 큰 홀로그래피 영상의 구현이 가능하며 주변에 사용자의 위험을 더 신속하게 알릴 수 있다는 장점이 있다.The size of a holographic image that one terminal can output is limited. Accordingly, by separating the contents included in the SOS holographic image and projecting the plurality of terminals to the holographic image, a larger holographic image can be realized and the user's risk can be informed more quickly.

예를 들어, 세 개의 단말이 “저를 서울성모병원으로 후송해주세요”라는 내용의 SOS 홀로그래피 영상을 투사하고자 하는 경우, 제 1 단말은 “저를”, 제 2 단말은 “서울성모병원으로”, 제 3 단말은 “후송해주세요”을 각각 SOS 홀로그래피 영상으로 투사할 수 있다.For example, if three terminals want to project an SOS holographic image of “Please transfer me to Seoul St. Mary's Hospital”, the first terminal is “Me” and the second terminal is “Seoul St. Mary's Hospital”, The third terminal may project the "please send" to each SOS holographic image.

더 나아가, 하나의 내용을 분리하여 표시하는 세 개의 단말의 위치를 조정하여, 출력된 세 개의 SOS 홀로그래피 영상이 연결되도록 할 수 있다. 이를 통해 훨씬 더 큰 사이즈의 SOS 홀로그래피 영상을 구현할 수 있으므로 주위에 사용자의 위험을 효율적으로 알릴 수 있다.Further, by adjusting the positions of the three terminals to display a separate content, it is possible to connect the three output SOS holographic images. This enables the creation of much larger SOS holographic images, which effectively communicates the user's risks to the surroundings.

단, 전술한 SOS 홀로그래피 영상과 함께 실행되는 부가 기능은 예시적인 것에 불과하고, 사용자의 조작에 따라 단말의 다른 기능이 SOS 홀로그래피 영상과 함께 실행될 수 있다.However, the additional function executed together with the aforementioned SOS holographic image is merely exemplary, and other functions of the terminal may be executed together with the SOS holographic image according to a user's manipulation.

이하에서는 도 13을 참조하여, SOS 홀로그래피 영상과 함께 실행되는 부가 기능을 구체적으로 설명한다.Hereinafter, referring to FIG. 13, an additional function executed together with the SOS holographic image will be described in detail.

도 13은 본 발명의 일 실시예와 관련하여 SOS 홀로그래피 영상을 투사하면서 부가 기능을 함께 실행하는 일례를 나타내는 도면이다.FIG. 13 is a diagram for one example of executing an additional function together while projecting an SOS holographic image according to an embodiment of the present invention.

먼저, 도 13a는 비상벨 출력 기능을 나타내고, 홀로그래피 모듈(156)을 통해 SOS 홀로그래피 영상을 투사함과 동시에 비상벨(1310)이 외부로 출력된다.First, FIG. 13A illustrates an emergency bell output function, and simultaneously outputs an SOS holographic image through the holography module 156 and outputs an emergency bell 1310 to the outside.

또한, 도 13b는 SOS 호 신호 전송 기능을 나타내고, SOS 홀로그래피 영상을 투사함과 동시에 미리 설정된 객체로 무선 통신부(110)을 통해 호 신호(1320)를 전송한다.In addition, FIG. 13B illustrates the SOS call signal transmission function, and simultaneously transmits the call signal 1320 through the wireless communication unit 110 to a predetermined object while projecting the SOS holographic image.

또한, 도 13c는 SOS 메시지 전송 기능을 나타낸다. 이 경우, SOS 홀로그래피 영상을 투사함과 동시에 미리 설정된 객체로 무선 통신부(110)을 통해 “Help Me. 저를 서울 성모 병원으로 후송해주세요. 도와주세요.”라는 메시지(1330)를 전송한다.In addition, Figure 13C shows the SOS message transmission function. In this case, at the same time as projecting the SOS holographic image through the wireless communication unit 110 as a predetermined object “Help Me. Please take me to Seoul St. Mary's Hospital. Please help me ”(1330).

또한, 도 13d는 위치정보모듈을 통해 파악한 사용자의 현재 위치 정보(1342)를 포함한 SOS 메시지(1341)를 미리 설정된 객체로 전송하는 일례를 나타낸다.In addition, FIG. 13D illustrates an example of transmitting the SOS message 1341 including the current location information 1342 of the user identified through the location information module to a preset object.

도 13d에 나타낸 것과 같이, 사용자의 현재 위치 정보(1342)가 메시지에 포함되어 전송되고, 메시지를 수신한 객체는 사용자의 위급 상황 및 사용자의 위치를 한번에 파악할 수 있으므로 효율적인 대처가 가능하다.As shown in FIG. 13D, the current location information 1342 of the user is included in the message and transmitted, and the object receiving the message can grasp the user's emergency situation and the user's location at a time, thereby effectively coping with the situation.

도 13e는 멀티 홀로그래피(Multi-Holography) 기능의 일례를 나타낸다.13E illustrates an example of a multi-holography function.

도 13e에서는 두 개의 단말이 멀티 홀로그래피 기능을 실행하고, 단말의 위치를 조정하여 투사된 홀로그래피 영상이 연결되어 표시되도록 조절된 것으로 가정한다.In FIG. 13E, it is assumed that two terminals execute a multi-holography function and adjust the position of the terminal so that the projected holographic images are connected and displayed.

도 13e를 참조하면, 제 1 단말과 제 2 단말은 “Help. Please”라는 내용을 “Help(1351)”와 “Please(1352)”로 나누어 각각 홀로그래피 영상으로 투사한다.Referring to FIG. 13E, the first terminal and the second terminal are “Help. Please divide the word “Help” into “Help (1351)” and “Please (1352)” and project it as a holographic image.

이 경우, 결과적으로 투사된 홀로그래피 영상은 연결되어 하나의 단말이 표시하는 홀로그래피 영상의 2배 크기로 SOS 홀로그래피 영상을 투사할 수 있다.In this case, as a result, the projected holographic image may be connected to project the SOS holographic image at twice the size of the holographic image displayed by one terminal.

한편, 본 발명의 일 실시예에 따르면 단말은 다른 외부 기기와 SOS 홀로그래피 영상을 공유할 수 있다.Meanwhile, according to an embodiment of the present invention, the terminal may share the SOS holographic image with another external device.

즉, 무선 통신부(110)를 통해 복수의 외부 기기와 데이터 경로를 구축하고, SOS 홀로그래피 영상과 관련된 정보를 공유하는 것이 가능하다.That is, it is possible to establish a data path with a plurality of external devices through the wireless communication unit 110 and share information related to the SOS holographic image.

예를 들어, 트리거 이벤트가 어느 하나의 단말에서 발생한 경우, 미리 지정된 내용을 SOS 홀로그래피 영상으로 투사함과 동시에 데이터 경로를 구축한 주변의 기기에 상기 상황 및 정보를 전송할 수 있다. 이때, 트리거 이벤트가 발생한 단말과 데이터 경로를 구축한 복수의 홀로그래피 기기들도 함께 SOS 홀로그래피 영상을 투사함으로써, 주변에 사용자의 위험 상황을 더욱 효과적으로 알릴 수 있다.For example, when a trigger event occurs in one of the terminals, the situation and the information may be transmitted to a peripheral device that establishes a data path while simultaneously projecting a predetermined content to the SOS holographic image. In this case, the SOS holographic image together with the plurality of holographic devices that establish the data path with the terminal where the trigger event occurs may also effectively notify the user of the dangerous situation to the surroundings.

이와 관련된 구체적인 내용을 도14를 통해 설명한다.Specific details related to this will be described with reference to FIG. 14.

도 14는 본 발명의 일 실시예와 관련하여 SOS 홀로그래피 영상 관련 정보를 다른 외부 기기와 공유하는 일례를 나타내는 도면이다.FIG. 14 is a diagram for one example of sharing SOS holographic image related information with another external device in accordance with one embodiment of the present invention.

도 14에서는 제 1 단말을 소지하고 있는 사용자가 위급 상황에 처한 것으로 가정한다.In FIG. 14, it is assumed that a user possessing a first terminal is in an emergency situation.

제 1 단말에 위급 상황이 발생되면, 이와 관련된 정보(1410)가 자동 또는 수동으로 제 1 단말과 데이터 경로를 구축한 복수의 외부 기기로 전송된다.When an emergency occurs in the first terminal, information 1410 related thereto is automatically or manually transmitted to a plurality of external devices that have established a data path with the first terminal.

위급 상황과 관련된 정보(1410)를 수신한 복수의 외부 기기는 미리 설정된 내용을 SOS 홀로그래피 영상으로 투사한다. 도 14a에서는 “홍길동님이 24시간 동안 휴대폰을 사용하지 않았습니다.”라는 내용의 SOS 홀로그래피 영상을 복수의 외부 기기들이 투사한다.The plurality of external devices that receive the information 1410 related to the emergency situation project the preset contents to the SOS holographic image. In FIG. 14A, a plurality of external devices project the SOS holographic image of “Hong Gil Dong has not used the mobile phone for 24 hours.”

다음으로, 도 14b에서는 위치정보모듈을 통해 파악한 사용자의 현재 위치 정보를 포함한 SOS 메시지(1420)를 제 1 단말과 데이터 경로를 구축한 복수의 외부 기기로 전송한다.Next, in FIG. 14B, the SOS message 1420 including the current location information of the user identified through the location information module is transmitted to a plurality of external devices that have established a data path with the first terminal.

위급 상황과 관련된 정보(1420)를 수신한 복수의 외부 기기는 사용자의 현재 위치 정보를 포함하는 SOS 홀로그래피 영상(1421, 4122, 1423, 1424, 1425)을 외부로 투사한다. 따라서 사용자의 위급 상황 및 사용자의 위치를 한번에 파악할 수 있으므로 효율적인 대처가 가능하다.The plurality of external devices that receive the information 1420 related to the emergency situation project the SOS holographic images 1421, 4122, 1423, 1424, and 1425 including the current location information of the user to the outside. Therefore, the emergency situation of the user and the location of the user can be grasped at a time, thus enabling effective coping.

한편, 본 발명의 일 실시예에 따르면, 홀로그래피 영상의 투사로부터 사용자를 보호하기 위한 다양한 기능이 제공될 수 있다.Meanwhile, according to an embodiment of the present invention, various functions may be provided to protect the user from the projection of the holographic image.

즉, 홀로그래피 영상을 사용자의 눈으로 직접 투사하는 경우, 위험을 초래할 수 있으므로 이를 예방하기 위한 기능에 대해 이하 도 15를 참조하여 설명한다.That is, when directly projecting the holographic image into the eyes of the user may cause a risk, a function for preventing this will be described with reference to FIG. 15.

도 15는 본 발명의 일 실시예와 관련하여 홀로그래피 영상의 투사로부터 사용자를 보호하기 위한 방법의 일례를 나타내는 도면이다.15 illustrates an example of a method for protecting a user from projection of a holographic image in accordance with one embodiment of the present invention.

도 15에서는 카메라(121)와 홀로그래피 모듈(156)이 동일한 방향을 향하도록 단말에 구비된 것으로 가정한다.In FIG. 15, it is assumed that the camera 121 and the holography module 156 are provided in the terminal to face the same direction.

이때, 사용자는 소정 메뉴(1511)를 이용하여 카메라(121)의 렌즈를 통해 소정의 형상이 인식되면 홀로그래피 모듈(156)이 홀로그래피 영상을 투사하지 않도록 할 수 있다.In this case, when a predetermined shape is recognized through the lens of the camera 121 using the predetermined menu 1511, the user may prevent the holography module 156 from projecting the holographic image.

즉, 카메라(121)의 렌즈를 통해 소정의 형상이 인식되면, 홀로그래피 영상은 투사되지 않는다(1512). 또한, 카메라(121)의 렌즈를 통해 소정의 형상이 인식되지 않는 경우에만 홀로그래피 영상(1513)은 투사된다.That is, when a predetermined shape is recognized through the lens of the camera 121, the holographic image is not projected (1512). In addition, the holographic image 1513 is projected only when a predetermined shape is not recognized through the lens of the camera 121.

다음으로, 도 15b를 참조하면, 홀로그래피 영상을 투사하기 직전 및/또는 직후에 홀로그래피 영상이 투사됨을 미리 알리는 방법이 적용된다.Next, referring to FIG. 15B, a method of notifying that the holographic image is projected immediately before and / or immediately after projecting the holographic image is applied.

사용자가 특정 키(1521)를 선택하여 홀로그래피 영상이 투사되도록 명령한 경우, 제어부(180)는 “홀로그래피 레이저 빛을 직접 보시면 매우 위험합니다”와 같은 내용의 음성, 메시지 등을 외부로 출력하도록 제어할 수 있다. 또한, 사용자의 눈에 도달하지 않는 거리 이내에서 “홀로그래피 레이저 빛을 직접 보시면 매우 위험합니다”와 같은 내용의 홀로그래피 영상(1522)을 투사할 수도 있다.When the user selects a specific key 1521 to command the holographic image to be projected, the controller 180 may control to output a voice, a message, etc., such as “It is very dangerous to see the holographic laser light directly”. Can be. In addition, it is also possible to project a holographic image 1522, such as "looking directly at the holographic laser light is very dangerous" within a distance that does not reach the eyes of the user.

또한, 도 15c에 도시된 것과 같이, 형상 인식 유무에 따라 홀로그래피 영상의 투사를 잠시 멈춤(PAUSE)/재 실시(RESUME)하도록 제어할 수도 있다.In addition, as shown in FIG. 15C, the projection of the holographic image may be paused (PAUSE) / resume (RESUME) depending on the presence or absence of shape recognition.

즉, 홀로그래피 영상(1541)이 투사되고, 카메라(121)를 통해 형상이 인식되는 경우, 제어부(180)는 홀로그래피 모듈(156)이 홀로그래피 영상(1541)을 투사하지 않도록 잠시 멈춤(PAUSE) 기능을 실행한다(1542).That is, when the holographic image 1541 is projected and the shape is recognized through the camera 121, the controller 180 performs a pause function so that the holography module 156 does not project the holographic image 1541. To execute (1542).

이후, 카메라(121)를 통해 형상이 인식되지 않으면, 제어부(180)는 홀로그래피 모듈(156)이 홀로그래피 영상(1541)을 투사하도록 재 실시(RESUME) 기능을 실행한다.Thereafter, if the shape is not recognized through the camera 121, the controller 180 executes a resumption function so that the holography module 156 projects the holographic image 1541.

따라서 형상 인식 유무에 따라 유동적으로 홀로그래피 영상의 투사 여부를 결정할 수 있다는 효과가 보장된다.Therefore, it is possible to determine whether or not to project the holographic image in a flexible manner depending on the shape recognition.

한편, 본 발명의 일 실시예에 따르면, 단말의 분실 또는 도난을 방지하기 위해 홀로그래피 기능을 활용하는 방법이 제공될 수 있다.Meanwhile, according to an embodiment of the present invention, a method of utilizing a holography function may be provided to prevent the loss or theft of a terminal.

예를 들어, 사용자와 단말 간의 임계 거리를 미리 설정하고, 사용자와 단말의 거리 차이가 미리 설정한 임계 거리를 벗어나는 경우, 제어부(180)는 소정의 홀로그래피 영상이 단말로부터 투사되도록 제어할 수 있다. 이때, “도난 경보”와 같은 내용을 포함하는 홀로그래피 영상이 투사될 수 있다.For example, when the threshold distance between the user and the terminal is set in advance, and the distance difference between the user and the terminal is outside the preset threshold distance, the controller 180 may control the predetermined holographic image to be projected from the terminal. In this case, a holographic image including contents such as “theft alarm” may be projected.

또한, 사용자가 단말의 도난 사실을 확인한 경우, 외부 기기 등을 통해 단말을 원격으로 제어하여 홀로그래피 영상을 투사하도록 할 수 있다. 이때, “분실된 휴대폰입니다.”와 같은 내용의 홀로그래피 영상이 투사되도록 함으로써, 주변에 긴급 상황을 신속하게 알릴 수 있다.In addition, when the user confirms that the terminal has been stolen, the user may remotely control the terminal through an external device to project the holographic image. At this time, by allowing the holographic image to be projected such as "It is a lost mobile phone", it is possible to quickly inform the surroundings of an emergency situation.

이를 도 16을 참조하여 구체적으로 설명한다. This will be described in detail with reference to FIG. 16.

도 16은 본 발명의 일 실시예와 관련하여 홀로그래피 영상을 투사할 수 있는 단말의 도난을 방지하기 위한 방법의 일례를 나타내는 도면이다.FIG. 16 illustrates an example of a method for preventing theft of a terminal capable of projecting a holographic image in accordance with an embodiment of the present invention.

먼저, 도 16a를 참조하면, 사용자와 단말 간의 임계 거리를 미리 설정하는 방법의 일례를 나타낸다.First, referring to FIG. 16A, an example of a method of presetting a threshold distance between a user and a terminal is illustrated.

도 16a에서는 사용자와 단말 간의 임계 거리로 50m가 설정된 것으로 가정한다. In FIG. 16A, it is assumed that 50m is set as a threshold distance between the user and the terminal.

따라서 사용자와 단말의 거리 차이가 50m를 초과하는 경우, 제어부(180)는 미리 설정된 내용인 “도난 경보 <휴대폰 주인으로부터 50m를 벗어났습니다.>”와 같은 내용의 홀로그래피 영상을 외부에 투사할 수 있다.Therefore, when the distance between the user and the terminal exceeds 50m, the controller 180 can project a holographic image having a content such as "theft alarm <50m away from the owner of the phone>" which is a preset content. .

또한, 도 16b를 참조하면, 단말을 원격으로 제어하여 홀로그래피 영상을 투사하도록 하는 일례를 나타낸다.In addition, referring to FIG. 16B, an example of projecting a holographic image by remotely controlling a terminal is illustrated.

사용자가 단말의 분실 또는 도난을 확인한 경우, 외부 기기 등을 통해 원격으로 단말이 홀로그래피 영상을 투사하도록 제어할 수 있다(1621).When the user confirms the loss or theft of the terminal, the terminal may remotely control the holographic image to be projected through an external device (1621).

이에 따라 제어부(180)는 “분실 휴대폰입니다. <홍길동 010-1234-5678>로 연락 주시면 후사하겠습니다.”와 같은 내용의 홀로그래피 영상을 외부에 출력한다.Accordingly, the controller 180 is “lost cell phone. If you contact us at <Hong Gil-dong 010-1234-5678>, we will revert. ”

단, 도 16을 참조하여 설명한 방법은 단순히 예시적인 것에 불과하고, 홀로그래피 기능을 이용하는 다른 방법들을 통해 본 발명의 내용이 구현될 수 있다. However, the method described with reference to FIG. 16 is merely exemplary, and the contents of the present invention may be implemented through other methods using a holography function.

한편, 본 발명의 일실시예에 의하면, 전술한 방법은, 프로그램이 기록된 매체에 프로세서가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 프로세서가 읽을 수 있는 매체의 예로는, ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장장치 등이 있으며, 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다.Meanwhile, according to an embodiment of the present invention, the above-described method may be implemented as code that can be read by a processor in a medium in which a program is recorded. Examples of the medium that can be read by the processor include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage, etc., and may be implemented in the form of a carrier wave (e.g., transmission over the Internet) .

상기와 같이 설명된 입체 영상을 표시할 수 있는 디스플레이부를 구비한 이동 단말기는 상기 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.A mobile terminal having a display unit capable of displaying a stereoscopic image as described above is not limited to the configuration and method of the above-described embodiments, but the embodiments may be modified in various ways. All or some of these may optionally be combined.

Claims (20)

제어부;
빛의 간섭(interference) 현상에 의해 생성된 간섭무늬를 기록하기 위한 홀로그래피 저장매체; 및
기 설정된 복수의 트리거(trigger) 이벤트 중 적어도 어느 하나의 이벤트가 발생하는 경우, 상기 제어부의 제어에 따라 상기 홀로그래피 저장매체에 조사된 빛이 상기 간섭무늬와 회절(diffraction) 현상을 일으켜 생성한 제 1 홀로그래피 영상을 출력하기 위한 홀로그래피 출력 모듈을 포함하되,
상기 제어부는 사용자의 긴급 상황을 알리기 위해 미리 설정된 제 1 정보를 포함하는 상기 제 1 홀로그래피 영상이 출력되도록 제어하는 것을 특징으로 하는, 이동 단말기.
A control unit;
A holographic storage medium for recording an interference fringe generated by an interference phenomenon of light; And
When at least one of a plurality of preset trigger events occurs, the first light generated by the interference pattern and the diffraction phenomenon by the light irradiated to the holographic storage medium under the control of the controller Including a holographic output module for outputting a holographic image,
The control unit is characterized in that for controlling the output of the first holographic image including the first information is set in advance to inform the user of the emergency situation.
제 1항에 있어서,
상기 기 설정된 복수의 트리거 이벤트는 특정 키 입력 이벤트, 특정 패턴의 터치 입력 이벤트, 음성 인식 이벤트, 모션(motion) 인식 이벤트, 지문 인식 이벤트, 아이 트랙킹(Eye-Tracking) 인식 이벤트, 바람 인식 이벤트를 포함하는, 이동 단말기.
The method of claim 1,
The preset plurality of trigger events include a specific key input event, a touch input event of a specific pattern, a voice recognition event, a motion recognition event, a fingerprint recognition event, an eye-tracking recognition event, and a wind recognition event. Mobile terminal.
제 1항에 있어서,
무선 통신부를 더 포함하고,
상기 제어부는 기 설정된 객체로부터 상기 무선 통신부를 통해 호 연결 시도 또는 메시지를 수신하는 경우, 상기 제 1 홀로그래피 영상이 출력되도록 제어하는 것을 특징으로 하는, 이동 단말기.
The method of claim 1,
Further comprising a wireless communication unit,
The control unit controls to output the first holographic image when a call connection attempt or a message is received from a preset object through the wireless communication unit.
제 1항에 있어서,
센싱부; 및
무선 통신부를 더 포함하고,
상기 제 1 정보는 상기 센싱부를 통해 인식된 상기 사용자의 음성 정보 또는 상기 무선 통신부를 통해 기 설정된 객체로부터 수신한 메시지 정보인 것을 특징으로 하는, 이동 단말기.
The method of claim 1,
Sensing unit; And
Further comprising a wireless communication unit,
And the first information is voice information of the user recognized through the sensing unit or message information received from a preset object through the wireless communication unit.
제 4항에 있어서,
상기 제어부는 상기 음성 정보 또는 메시지 정보가 기 설정된 키워드 정보를 적어도 일부 포함하는 경우, 상기 제 1 정보가 상기 음성 정보 또는 메시지 정보가 되도록 제어하는 것을 특징으로 하는, 이동 단말기.
5. The method of claim 4,
The controller controls the first information to be the voice information or the message information when the voice information or the message information includes at least a part of preset keyword information.
제 1항에 있어서,
상기 제어부는 기 설정된 적어도 하나의 홀로그래피 패턴에 따라 상기 제 1 홀로그래피 영상이 출력되도록 제어하고,
상기 적어도 하나의 홀로그래피 패턴은 상기 홀로그래피 출력 모듈과 상기 출력된 홀로그래피 영상과의 거리 차이 및 상기 출력된 홀로그래피 영상의 모양 중 적어도 하나에 의해 결정되며,
상기 거리 차이 및 상기 출력된 홀로그래피 영상의 모양은 시간에 따라 변화될 수 있는 것을 특징으로 하는, 이동 단말기.
The method of claim 1,
The controller controls the first holographic image to be output according to at least one preset holographic pattern.
The at least one holographic pattern is determined by at least one of a distance difference between the holographic output module and the output holographic image and a shape of the output holographic image.
The distance difference and the shape of the output holographic image may be changed over time, the mobile terminal.
제 1항에 있어서,
상기 제어부는 기 설정된 적어도 하나의 홀로그래피 패턴에 따라 상기 제 1 홀로그래피 영상이 출력되도록 제어하고,
상기 적어도 하나의 홀로그래피 패턴은 상기 출력된 홀로그래피 영상의 이동, 회전, 색상 변화, 크기 변화, 점멸 중 적어도 하나에 의해 결정되며,
상기 이동, 회전, 색상 변화, 크기 변화, 점멸은 시간에 따라 변화될 수 있는 것을 특징으로 하는, 이동 단말기.
The method of claim 1,
The controller controls the first holographic image to be output according to at least one preset holographic pattern.
The at least one holographic pattern is determined by at least one of the movement, rotation, color change, size change, and blinking of the output holographic image.
The movement, rotation, color change, size change, flashing may be changed over time, the mobile terminal.
제 1항에 있어서,
알람부; 및
무선 통신부를 더 포함하고,
상기 제 1 홀로그래피 영상이 출력되는 경우, 상기 제어부는 상기 알람부를 통해 상기 사용자의 긴급 상황을 알리기 위한 신호를 출력하거나 상기 무선 통신부를 통해 기 설정된 객체로 호 연결 시도 또는 미리 설정된 메시지를 전송하도록 제어하는 것을 특징으로 하는, 이동 단말기.
The method of claim 1,
An alarm unit; And
Further comprising a wireless communication unit,
When the first holographic image is output, the controller outputs a signal for notifying an emergency situation of the user through the alarm unit, or controls to transmit a call connection attempt or a preset message to a preset object through the wireless communication unit. Mobile terminal, characterized in that.
제 8항에 있어서,
위치 정보 모듈을 더 포함하고,
상기 제어부는,
상기 기 설정된 객체로 호 연결 시도 또는 미리 설정된 메시지를 전송하는 경우, 상기 위치 정보 모듈을 통해 획득한 상기 이동 단말기의 위치 정보를 함께 전송하도록 제어하는 것을 특징으로 하는, 이동 단말기.
The method of claim 8,
Further comprises a location information module,
The control unit,
And transmitting the location information of the mobile terminal obtained through the location information module when the call connection attempt or the preset message is transmitted to the preset object.
제 1항에 있어서,
무선 통신부를 더 포함하고,
상기 제어부는 상기 무선 통신부를 통해 적어도 하나의 외부 기기와 데이터 경로를 구축하고, 상기 구축한 데이터 경로를 통해 상기 제 1 정보를 상기 적어도 하나의 외부 기기로 전송하도록 제어하는 것을 특징으로 하는, 이동 단말기.
The method of claim 1,
Further comprising a wireless communication unit,
The control unit establishes a data path with at least one external device through the wireless communication unit, and controls to transmit the first information to the at least one external device through the constructed data path. .
제 10항에 있어서,
상기 제어부는 상기 제 1 정보를 복수의 정보로 분리하고, 상기 분리된 복수의 정보 각각을 상기 이동 단말기 및 상기 적어도 하나의 외부 기기가 홀로그래피 영상으로 출력하도록 제어하는 것을 특징으로 하는, 이동 단말기.
The method of claim 10,
And the control unit divides the first information into a plurality of pieces of information, and controls the mobile terminal and the at least one external device to output each of the separated pieces of information as a holographic image.
제 1항에 있어서,
상기 홀로그래피 출력 모듈과 동일한 방향을 향하도록 구성된 카메라를 더 포함하고,
상기 카메라를 통해 소정의 형상이 인식되는 경우, 상기 제어부는 상기 제 1 홀로그래피 영상이 출력되지 않도록 제어하는 것을 특징으로 하는, 이동 단말기.
The method of claim 1,
Further comprising a camera configured to face the same direction as the holographic output module,
When the predetermined shape is recognized by the camera, the controller is characterized in that the control to not output the first holographic image, the mobile terminal.
제 12항에 있어서,
상기 카메라를 통해 상기 소정의 형상이 인식되지 않는 경우, 상기 제 1 홀로그래피 영상이 다시 출력되도록 제어하는 것을 특징으로 하는, 이동 단말기.
13. The method of claim 12,
And when the predetermined shape is not recognized through the camera, controlling the first holographic image to be output again.
제 1항에 있어서,
상기 이동 단말기와 상기 사용자와의 거리 차이가 미리 설정된 임계 거리를 초과하는 경우,
상기 제어부는 상기 제 1 홀로그래피 영상이 출력되도록 제어하는 것을 특징으로 하는, 이동 단말기.
The method of claim 1,
When the distance difference between the mobile terminal and the user exceeds a preset threshold distance,
The controller controls the first holographic image to be output.
복수의 트리거(trigger) 이벤트 및 사용자의 긴급 상황을 알리기 위한 제 1 정보가 미리 설정되는 단계;
상기 복수의 트리거(trigger) 이벤트 중 적어도 어느 하나의 이벤트가 발생하는 단계; 및
홀로그래피 출력 모듈이 상기 제 1 정보를 포함하는 제 1 홀로그래피 영상을 출력하는 단계를 포함하는, 이동 단말기의 제어방법.
Presetting a plurality of trigger events and first information for informing an emergency of a user;
Generating at least one of the plurality of trigger events; And
And outputting, by the holographic output module, a first holographic image including the first information.
제 15항에 있어서,
상기 복수의 트리거 이벤트는 특정 키 입력 이벤트, 특정 패턴의 터치 입력 이벤트, 음성 인식 이벤트, 모션(motion) 인식 이벤트, 지문 인식 이벤트, 아이 트랙킹(Eye-Tracking) 인식 이벤트, 바람 인식 이벤트를 포함하는, 이동 단말기의 제어방법.
16. The method of claim 15,
The plurality of trigger events include a specific key input event, a touch input event of a specific pattern, a voice recognition event, a motion recognition event, a fingerprint recognition event, an eye-tracking recognition event, a wind recognition event, Control method of a mobile terminal.
제 15항에 있어서,
상기 제 1 정보는 센싱부를 통해 인식된 상기 사용자의 음성 정보 또는 무선 통신부를 통해 기 설정된 객체로부터 수신한 메시지 정보인 것을 특징으로 하는, 이동 단말기의 제어방법.
16. The method of claim 15,
And the first information is voice information of the user recognized through a sensing unit or message information received from a preset object through a wireless communication unit.
제 17항에 있어서,
상기 음성 정보 또는 메시지 정보가 기 설정된 키워드 정보를 적어도 일부 포함하는 경우, 상기 제 1 정보는 상기 음성 정보 또는 메시지 정보인 것을 특징으로 하는, 이동 단말기의 제어방법.
18. The method of claim 17,
And the first information is the voice information or the message information when the voice information or the message information includes at least a part of preset keyword information.
제 15항에 있어서,
상기 제 1 홀로그래피 영상이 출력되는 경우, 알람부를 통해 상기 사용자의 긴급 상황을 알리기 위한 신호를 출력하거나 무선 통신부를 통해 기 설정된 객체로 호 연결 시도 또는 미리 설정된 메시지를 전송하는 단계를 더 포함하는, 이동 단말기의 제어방법.
16. The method of claim 15,
When the first holographic image is output, the method further includes outputting a signal for notifying the emergency situation of the user through an alarm unit or transmitting a call connection attempt or a preset message to a preset object through a wireless communication unit. Terminal control method.
제 15항에 있어서,
무선 통신부를 통해 적어도 하나의 외부 기기와 데이터 경로를 구축하는 단계; 및
상기 구축한 데이터 경로를 통해 상기 제 1 정보를 상기 적어도 하나의 외부 기기로 전송하는 단계를 더 포함하는, 이동 단말기의 제어방법.
16. The method of claim 15,
Establishing a data path with at least one external device through a wireless communication unit; And
And transmitting the first information to the at least one external device through the established data path.
KR1020110093221A 2011-09-16 2011-09-16 Mobile terminal and method for controlling thereof KR20130029862A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110093221A KR20130029862A (en) 2011-09-16 2011-09-16 Mobile terminal and method for controlling thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110093221A KR20130029862A (en) 2011-09-16 2011-09-16 Mobile terminal and method for controlling thereof

Publications (1)

Publication Number Publication Date
KR20130029862A true KR20130029862A (en) 2013-03-26

Family

ID=48179601

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110093221A KR20130029862A (en) 2011-09-16 2011-09-16 Mobile terminal and method for controlling thereof

Country Status (1)

Country Link
KR (1) KR20130029862A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101867021B1 (en) * 2017-08-01 2018-06-12 아란타(주) Emergency rescue system and emergency rescue method using the same
WO2018147548A1 (en) * 2017-02-10 2018-08-16 아란타(주) Emergency lifesaving system and emergency lifesaving method using same
CN109344811A (en) * 2018-11-26 2019-02-15 北京小米移动软件有限公司 Story machine and Story machine system
JP2021508844A (en) * 2017-12-21 2021-03-11 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation Methods, computer systems and computer programs for determining and projecting holographic object paths and object movements through the collaboration of multiple devices.

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018147548A1 (en) * 2017-02-10 2018-08-16 아란타(주) Emergency lifesaving system and emergency lifesaving method using same
US10536572B2 (en) 2017-02-10 2020-01-14 Ahranta Co., Ltd. Emergency lifesaving system and emergency lifesaving method using the same
KR101867021B1 (en) * 2017-08-01 2018-06-12 아란타(주) Emergency rescue system and emergency rescue method using the same
JP2021508844A (en) * 2017-12-21 2021-03-11 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation Methods, computer systems and computer programs for determining and projecting holographic object paths and object movements through the collaboration of multiple devices.
CN109344811A (en) * 2018-11-26 2019-02-15 北京小米移动软件有限公司 Story machine and Story machine system

Similar Documents

Publication Publication Date Title
KR101846168B1 (en) Mobile terminal and method for controlling thereof
KR101674957B1 (en) Mobile terminal and method for controlling thereof
KR101728728B1 (en) Mobile terminal and method for controlling thereof
KR101728725B1 (en) Mobile terminal and method for controlling thereof
KR20140016495A (en) Mobile terminal and method for controlling the same
US9563173B2 (en) Mobile terminal and system for controlling holography provided therewith
KR20110054256A (en) Mobile terminal and method for controlling thereof
US20150304642A1 (en) Mobile terminal
KR101867814B1 (en) Mobile terminal and method for controlling thereof
KR101809954B1 (en) Mobile terminal and method for controlling thereof
KR20120031805A (en) Mobile terminal and operation control method thereof
KR20130029862A (en) Mobile terminal and method for controlling thereof
KR101633336B1 (en) Mobile terminal and method for controlling thereof
KR101873412B1 (en) Mobile terminal and holography controlling system having the same
KR101740442B1 (en) Mobile terminal and method for controlling thereof
KR101629313B1 (en) Mobile terminal and method for controlling the same
KR101847493B1 (en) Mobile terminal and method for controlling thereof
KR20150094358A (en) Mobile terminal and method for controlling the same
KR101870724B1 (en) Mobile terminal and holography controlling system having the same
KR101882263B1 (en) Mobile terminal and method for controlling thereof
KR20120081651A (en) Mobile terminal and method for controlling the same
KR101861667B1 (en) Mobile terminal and method for controlling thereof
KR101799269B1 (en) Mobile terminal and method for controlling thereof
KR101847494B1 (en) Mobile terminal and method for controlling thereof
KR20110060125A (en) Mobile terminal and method for controlling thereof

Legal Events

Date Code Title Description
WITN Withdrawal due to no request for examination