WO2018155733A1 - Augmented reality system comprising portable terminal device and projection device - Google Patents

Augmented reality system comprising portable terminal device and projection device Download PDF

Info

Publication number
WO2018155733A1
WO2018155733A1 PCT/KR2017/001964 KR2017001964W WO2018155733A1 WO 2018155733 A1 WO2018155733 A1 WO 2018155733A1 KR 2017001964 W KR2017001964 W KR 2017001964W WO 2018155733 A1 WO2018155733 A1 WO 2018155733A1
Authority
WO
WIPO (PCT)
Prior art keywords
terminal device
portable terminal
virtual image
processor
projection
Prior art date
Application number
PCT/KR2017/001964
Other languages
French (fr)
Korean (ko)
Inventor
이현민
Original Assignee
이현민
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 이현민 filed Critical 이현민
Publication of WO2018155733A1 publication Critical patent/WO2018155733A1/en

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/12Projectors or projection-type viewers; Accessories therefor adapted for projection of either still pictures or motion pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72409User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories
    • H04M1/72412User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories using two-way short-range wireless interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/725Cordless telephones

Definitions

  • the present embodiment relates to an augmented reality system, and more particularly, an augmentation apparatus including a projection apparatus capable of recognizing external objects and projecting augmented reality contents adjacent to an object, and a portable terminal apparatus wirelessly communicating with the projection apparatus. It is about a real system.
  • portable terminal devices eg, smartphones
  • portable terminal devices can implement various functions beyond the conventional call function.
  • personal assistant services / robots have been released to provide users with various user experiences.
  • users In order to utilize various functions of the portable terminal device, users input a lot of information and may receive various information from the portable terminal device. In order to obtain such various pieces of information from the portable terminal device, the user enters an active process of directly inputting the information.
  • interactions through voice are used in addition to the basic touch input.
  • the interaction through voice is limited in the input / output method, and the transmission of unwanted information due to the nature of the sound can cause fatigue to the user.
  • An object of the present invention for solving the above problems is to provide a projection-based augmented reality system that can improve the user's convenience and provide a variety of user experience.
  • a portable terminal device may include a display; Memory; Communication circuitry for communicating with an external projection device; And a processor electrically connected to the display, the memory, and the communication circuit, wherein the processor detects at least one event occurring in the portable terminal device, generates a virtual image in response to the event, and generates the virtual image.
  • the projection device may be set to project the virtual image to the outside by transmitting an image to the projection device through the communication circuit.
  • FIG. 1 is a block diagram illustrating components of an augmented reality system according to various embodiments of the present disclosure.
  • FIG. 2 is a block diagram of a projection apparatus according to various embodiments of the present disclosure.
  • FIG. 3 is a detailed configuration diagram of a projection apparatus according to various embodiments of the present disclosure.
  • FIG. 4 illustrates a pattern project according to various embodiments of the present disclosure.
  • 5A to 5B illustrate a focal length of a projection apparatus according to various embodiments of the present disclosure.
  • FIG. 6 is a block diagram of a portable terminal device according to various embodiments of the present disclosure.
  • FIG. 7 is a detailed block diagram of a second processor of a mobile terminal device according to various embodiments of the present disclosure.
  • 8A to 8C illustrate embodiments of function control of a mobile terminal device according to various embodiments of the present disclosure.
  • 9A is a detailed block diagram of a second processor of a mobile terminal device according to various embodiments of the present disclosure.
  • 9B illustrates each module for generating emotional information according to various embodiments of the present disclosure.
  • FIGS 10A through 10C illustrate virtual images including character images according to various embodiments of the present disclosure.
  • FIG. 11 illustrates a method of storing a recognized image according to various embodiments of the present disclosure.
  • FIG. 12 illustrates functions that may be performed by the secretary robot using the augmented reality system according to various embodiments of the present disclosure.
  • FIG. 13 and 14 are flowcharts of a virtual image providing method according to various embodiments of the present disclosure.
  • FIG. 1 is a block diagram illustrating components of an augmented reality system according to various embodiments of the present disclosure.
  • An augmented reality system may include a projection device 110 and a portable terminal device 120. Some configurations and / or functions of the projection device 110 may be implemented on the portable terminal device 120 according to actual implementations, and on the contrary, some components and / or functions of the projection device 110 may be implemented by the projection device 110. It may be implemented in the above.
  • the function of the projection apparatus 110 may be representative of recognition of the object 140 (eg, a user's hand) and projection of the virtual image 130.
  • the projection apparatus 110 may include an object recognition module 140 for detecting the presence or movement of the surrounding object 140 and a projection module for projecting an image to the outside.
  • the object sensor is for realizing a vision in augmented reality, may acquire an image of a target area around the projection apparatus 110, and check the existence and movement of the object 140 from the acquired image.
  • the user may install the projection device 110 around the book while reading the book and direct the view of the projection module toward the book, in which case the projection module shoots the book, the user's hand, and the like. You can check the movement.
  • the object sensor may include a camera and / or an infrared sensor, and according to an embodiment, the object 140 may be recognized in 3D using a plurality of cameras and / or infrared sensors.
  • the projection module may display the virtual image 130 by projecting it to the outside.
  • the virtual image 130 may be displayed on an area of the book while the user reads the book.
  • Information displayed through the virtual image 130 will not be limited, but, for example, as shown in FIG. 1, weather information may be displayed as a related image and text information, and a predetermined character image may be displayed. have.
  • the user may simultaneously recognize the virtual image 130 (eg, weather information) and reality information projected adjacent to the object 140 (eg, the user's hand).
  • the virtual image 130 may include a predetermined character image.
  • the character image may be changed according to the surrounding environment or the recognized object 140 to express the current state and emotion of the user.
  • the projection apparatus 110 may include more various components, such as a first communication circuit and a first processor, and a detailed configuration and function of the projection apparatus 110 will be described in detail later with reference to FIGS. 2 to 5.
  • the mobile terminal device 120 may be implemented as a known electronic device that can be carried by a user, such as a smart phone and a tablet PC, and a detailed embodiment is not limited thereto.
  • the portable terminal device 120 can wirelessly communicate with the projection device 110 and receives the related information (eg, existence of the object and movement of the object, etc.) of the object 140 recognized by the projection device 110.
  • the projection apparatus 110 may provide the virtual image 130 to be projected.
  • the portable terminal device 120 may perform various operations based on the object related information received from the projection device 110. According to an embodiment, the portable terminal device 120 may perform a control operation corresponding to the received object related information. For example, when a user moves a hand, the user may turn over a page of an application (eg, an e-book) currently displayed on the portable terminal device 120 or terminate the application.
  • an application eg, an e-book
  • the portable terminal device 120 may generate a virtual image 130 to be projected by the projection device 110 and provide it to the projection device 110.
  • the virtual image 130 may include a character image
  • the portable terminal device 120 may correct the character image according to an event occurring in an application installed and executed on the portable terminal device 120.
  • the mobile terminal device 120 may be equipped with an emotion engine to correct a character image according to the various events, for example, a schedule recorded on a schedule application, a message received from a message application, or the like. Emotion information may be generated based on the emotion information, and the character image may be corrected according to the emotion information.
  • the projection device 110 is generally installed and used by a user at a fixed position.
  • the projection device 110 may have a size similar to that of the portable terminal device 120 for convenience of use.
  • the projection device 110 may receive information (eg, virtual image, weather / time, widget information, etc.) received from the portable terminal device 120 from another device on the Internet.
  • the projection apparatus 110 may include a processor (eg, a first processor) capable of directly executing an application and rendering a virtual image.
  • a processor eg, a first processor
  • at least some of the functions of the portable terminal device 120 in the augmented reality system may be performed on the projection device 110, and at least some of the functions may be performed on other devices, and the projection device 110 and the other device may be connected to the Internet. Can communicate with.
  • FIG. 2 is a block diagram of a projection apparatus according to various embodiments of the present disclosure.
  • the projection apparatus 200 includes a projection module 230, an object sensor 240, a first communication circuit 220, and a first processor 210, some of which are omitted or substituted. If so, there will be no problem in implementing the various embodiments of the present invention.
  • the projection apparatus 200 may be the projection apparatus 110 of FIG. 1.
  • the first processor 210 is configured to perform operations or data processing related to control and / or communication of each component of the projection apparatus 200.
  • the illustrated projection module 230, the object sensor 240, Each component of the projection apparatus 200 including the first communication circuit 220 may be electrically and / or functionally connected.
  • the first communication circuit 220 is a configuration for communicating with the portable terminal device using near field communication.
  • the short-range wireless communication used may include, for example, wireless fidelity (WiFi), Bluetooth (bluetooth), Bluetooth low power (BLE), Zigbee, and near field communication (NFC), but are not limited thereto. Standard or nonstandard short range wireless communication may be utilized.
  • the first communication circuit 220 may be connected to a network and may communicate with the mobile terminal device through the network.
  • the projection apparatus 200 may be connected to the Internet through the first communication circuit 220, and may generate and display a virtual image using information obtained on the Internet.
  • the projection module 230 may project a virtual image (for example, the virtual image 130 of FIG. 1) to the outside and display the same.
  • the virtual image may be an image generated by the first processor 210 or an image received from the portable terminal device through the first communication circuit 220.
  • the virtual image may include a character image and may be projected onto a real area to implement augmented reality.
  • the virtual image may be image information obtained from another device on the Internet other than the portable terminal device.
  • the virtual image may include information related to an object recognized by the object sensor 240 to be described later.
  • the object sensor 240 may recognize text in the book, and the projection module 230 may include information related to the recognized text (eg, translation of text, text to the Internet).
  • the virtual image including the searched and retrieved information) can be projected adjacent to the corresponding text.
  • the first processor 210 may directly generate a virtual image.
  • the virtual image may be one received by another device on the Internet.
  • the object sensor 240 may include a software and / or hardware configuration for recognizing an object in the real world (eg, the object 140 of FIG. 1).
  • the hardware of the object sensor 240 may include a camera and an infrared sensor
  • the software may include a series of logic to detect the coordinates and movement of the object from the captured image.
  • the object sensor 240 may acquire the three-dimensional coordinates of the object by using optical triangulation, time delay measurement, and measurement method using structured light, and detect the presence and movement of the object by detecting the coordinate movement. For example, the object sensor 240 may check the gesture of the user's hand.
  • the object sensor 240 may include two or more cameras and / or infrared sensors to obtain three-dimensional coordinates of the object.
  • the camera or infrared sensor may include a pattern projector (described in detail later with reference to FIG. 4).
  • the object sensor 240 may acquire only an image of a real space through a camera and provide the image to the portable terminal device.
  • the object recognition may be performed by analyzing the image in the mobile terminal device.
  • FIG. 3 is a detailed configuration diagram of a projection apparatus according to various embodiments of the present disclosure.
  • the projection module (eg, the projection module of FIG. 2) may include an output 310, a lens 312, and a mirror 314.
  • the output unit 310 may output the virtual image received from the processor.
  • the output unit 310 may include, for example, a light emitting unit (not shown) for emitting light and a liquid crystal layer (not shown) for selectively transmitting the light emitted from the light emitting unit by using a change in the liquid crystal transmittance to output a virtual image. It may include. In addition, various known techniques may be applied to the output of the virtual image.
  • At least one lens 312 may be provided on the rear surface of the output unit 310. Light through the output 310 may be refracted by the lens 312 and directed toward the mirror 314. Accordingly, the projection apparatus 300 may be miniaturized by reducing a path through which light passes.
  • the lens 312 may be implemented as a Fresnel lens.
  • the first processor may adjust the position and size (or magnification) of the virtual image by adjusting the angle of the mirror 314.
  • the lens 312 and the mirror 314 may function as a short focal length lens capable of projecting an image at a close distance.
  • the projection apparatus 300 may include an object sensor (eg, the object sensor 240 of FIG. 2) for recognizing an external object.
  • the object sensor may include at least one (eg two) cameras 322 and / or at least one (eg two) infrared sensors 324 for obtaining a real image. .
  • the object sensor may include at least one (eg two) cameras 322 and / or at least one (eg two) infrared sensors 324 for obtaining a real image. .
  • only at least one camera 322 may be included, or at least one infrared sensor 324 may be included.
  • the first camera and the second camera may be Images of the same area can be obtained, and since the positions of the first camera and the second camera (or the first infrared sensor and the second infrared sensor) are partially spaced to photograph the corresponding areas at different angles, the three-dimensional object Can be recognized.
  • the camera 322 and / or the infrared sensor 324 may be implemented as a pattern projector.
  • FIG. 4 illustrates a pattern projector according to various embodiments of the present disclosure.
  • the object sensor eg, the object sensor 240 of FIG. 2 of the projection device (eg, the projection device 200 of FIG. 2 and / or the projection device 300 of FIG. 3) may be a pattern projector ( pattern projector).
  • the pattern projector may not recognize the pattern in the eyes of a user using an infrared sensor (for example, the infrared sensor 324 of FIG. 3).
  • the pattern projector includes two light emitters 422 and 424, and the two light emitters 422 and 424 are control signals of a first processor (eg, the first processor 210 of FIG. 2). Depending on the light output can be selectively.
  • the output light may be light in the infrared region.
  • two light emitting units 422 and 424 are illustrated, but the number of light emitting units is not limited thereto, and one or three light emitting units may be used.
  • the light output from each of the light emitting parts 422 and 424 passes through the pattern film 430, and the light output from the pattern film 430 may be repeated by crossing the light and dark portions.
  • the pattern film 430 may be formed to cross the area passing through the light and the area blocking the parallel to each other.
  • Light passing through the pattern film 430 may be magnified through the lens 440 to be projected onto the area of the object.
  • the light output from each of the first light emitting unit 422 and the second light emitting unit 424 may be patterned and projected, and may be projected at different positions.
  • An object sensor may project the patterned light and photograph the object to generate a 3D map of the object. That is, the object can be recognized using the pattern projector, which can use the configured projector module and can be configured as an additional infrared pattern projector module.
  • the added projection module may be configured to change the phase of the projected image by changing the infrared emitter to obtain three-dimensional coordinates of the object.
  • 5A to 5B illustrate a focal length of a projection apparatus according to various embodiments of the present disclosure.
  • the object sensor may include at least one camera (eg, the first camera 322 and the second camera 324 of FIG. 3).
  • the projection apparatus may arrange the camera obliquely due to the characteristics of the miniaturized product, and thus the camera may acquire an image at an oblique position with respect to the plane on which the object is provided.
  • the focal length (or depth of field) of the camera of the input image may not include both the near and far sides, and as a result, it may be difficult to obtain a clear image.
  • the projection apparatus may have a larger focal length by partially tilting the lens of the camera in order to solve the above problems.
  • the image sensor and the lens is arranged in parallel as in the prior art.
  • the plane in which the focus is formed may also be tilted. Accordingly, it is possible to solve the structural problem that the camera is obliquely arranged due to the miniaturized product characteristics.
  • a tilted lens may have a focal length in a wider range than a case of using a half-lens.
  • FIG. 6 is a block diagram of a portable terminal device according to various embodiments of the present disclosure.
  • the portable terminal device 600 includes a display 630, a second communication circuit 620, a second processor 610 and a memory 640, even if some of the illustrated configuration is omitted or replaced It will be no problem to implement various embodiments of the present invention.
  • the portable terminal device may be the portable terminal device 120 of FIG. 1.
  • the display 630 displays an image and may be used as a liquid crystal display (LCD), a light-emitting diode (LED) display, an organic light-emitting diode (OLED) display, or the like. Can be implemented.
  • LCD liquid crystal display
  • LED light-emitting diode
  • OLED organic light-emitting diode
  • the display 630 may include a touch sensor (not shown) capable of sensing a touch input generated on a cover window (not shown) formed in front of the display 630.
  • the second communication circuit 620 is configured to wirelessly transmit and receive data with an external device (eg, the projection device 110 of FIG. 1) and includes an antenna (not shown) and a communication processor (not shown). can do.
  • the second communication circuit 620 may receive object-related information, transmit a virtual image, or communicate with each other through a network by a projection apparatus and various known short-range wireless communication schemes (eg, Wifi and Bluetooth).
  • the memory 640 may include known volatile memory and non-volatile memory.
  • the memory 640 may store various instructions that may be performed by the second processor 610. Such instructions may include control instructions such as arithmetic and logical operations, data movement, input / output, and the like that can be recognized by the second processor 610.
  • control instructions such as arithmetic and logical operations, data movement, input / output, and the like that can be recognized by the second processor 610.
  • Various applications that perform functions such as schedules, games, and messages may be stored in the memory 640, and the processor 610 may execute applications stored in the memory 640.
  • the second processor 610 may be configured to perform operations or data processing related to control and / or communication of components of the mobile terminal device 600, and may include a display 630, a second communication circuit 620,
  • the memory 640 may be electrically and / or functionally connected to the memory 640.
  • the second processor 610 is a hardware or software configuration that performs each function, and includes a gesture recognition module, a function mapping module, and a function control module to be described later with reference to FIG. 7, or a character generation module and emotion to be described later with reference to FIG. 9. Module and a virtual image generation module. Detailed functions of each module will be described in more detail with reference to FIGS. 7 and 9.
  • the second communication circuit 620 may receive object information from the projection apparatus.
  • the object information may include the existence, type (eg, human hand, object, etc.) and movement (eg, movement direction and speed, etc.) of the object (eg, the object 140 of FIG. 1).
  • the second processor 610 may obtain object information received through the second communication circuit 620. According to an embodiment of the present disclosure, the second processor 610 may generate the object information by receiving the real image photographed by the projection apparatus and performing object recognition therefrom. In another embodiment, the second processor 610 may perform object recognition directly on the projection apparatus. Afterwards, the generated object information may be received.
  • the second processor 610 may confirm a control operation of the mobile terminal device 600 corresponding to the object information and perform the identified control operation.
  • the memory 640 may store a table that maps functions that may be performed on the mobile terminal device 600 according to each user gesture, and may be allocated to each application.
  • the processor may find object information to be performed on the executed application (or on another application or on another device) in the table and perform a corresponding operation.
  • the gesture for moving the user's hand to the right may correspond to the operation of turning to the next page and the gesture of moving the left to the previous page.
  • the gesture to move downward may correspond to an operation of terminating the e-book application.
  • a gesture of moving a user's hand in the direction in which the user moves his / her hand while the message application is executed may correspond to an operation of outputting a received message as a voice and a gesture of moving the gesture in the opposite direction to delete the corresponding message.
  • a gesture of moving a hand upward may correspond to an operation of transmitting a message.
  • the second processor 610 may generate a virtual image (eg, the virtual image 130 of FIG. 1).
  • the second processor 610 transmits the generated virtual image to the projection apparatus through the second communication circuit 620, and the projection apparatus may project the virtual image into the real world.
  • the virtual image may be a still image or a video, and may be a 3D stereoscopic image.
  • the virtual image may include a character image.
  • the character may utilize various kinds of well-known characters, and the type of the character image may be determined according to a user's selection.
  • the character may be changed according to at least one event occurring on the mobile terminal device 600.
  • the virtual image may be based on, for example, an image generated by an application or a widget executed by the second processor 610.
  • images generated by various applications such as a clock, weather, music, SNS, a schedule, and an email may be included in the virtual image.
  • the second processor 610 may include time information generated by the clock application in the virtual image, and may further include text and character images related to the clock notification.
  • the second processor 610 may detect at least one event occurring in the portable terminal device 600 and generate a virtual image in response to the detected event.
  • the event may be an event occurring on an executing application.
  • a virtual image including schedule information may be generated and provided to the projection apparatus.
  • a notification arrives from the SNS and the message application
  • a virtual image including the corresponding notification information may be generated and provided to the projection apparatus.
  • sound data including event information eg, message content, notification sound effect, etc.
  • event information eg, message content, notification sound effect, etc.
  • the second processor 610 may generate a virtual image based on the object information received from the projection device. For example, the second processor 610 obtains the current state of the user (for example, emotional information, etc.) or the surrounding situation (for example, a place / time estimation based on surrounding objects, etc.) from the recognized object information. You can create a suitable virtual image.
  • the current state of the user for example, emotional information, etc.
  • the surrounding situation for example, a place / time estimation based on surrounding objects, etc.
  • the virtual image includes a predetermined character
  • the second processor 610 may generate emotion information of the character included in the virtual image and correct the character included in the virtual image according to the emotion information. have.
  • the character image may have a bright or cute shape. If the user is depressed, the character image may have a dark expression or a slightly gloomy shape. Can be.
  • the emotion information may be classified according to a person's emotion type such as white music, and the memory 640 may store various character images corresponding to each emotion information.
  • the second processor 610 may generate the emotion information by referring to the information of the running application. For example, referring to a schedule created in a schedule application, the type and number of schedules can be referred to. If today's schedule is a class, a test, etc., and the number is large, the user's emotion can be predicted by depressed emotion. Accordingly, the second processor 610 may output a character image corresponding to the depressed emotion. As another example, the second processor 610 may estimate the emotion of the user by referring to the text or the emoticon of the message sent or received in the message application.
  • the second processor 610 may generate the emotion information based on the object related information received through the second communication circuit 620. For example, when the object sensor of the projection device photographs the user's face and the facial expression of the user is recognized as a depressed expression, the second processor 610 may determine that the user's emotion is depressed with reference to the object related information. Character images corresponding thereto may be generated.
  • FIG. 7 is a detailed block diagram of a second processor of a mobile terminal device according to various embodiments of the present disclosure.
  • the second processor 710 may include a gesture recognition module 712, a function mapping module 714, and a function control module 716. .
  • Each module may be a set of programs executed by the second processor 710 as a software module.
  • the gesture recognition module 712 may recognize the gesture of the user through the object information received from the projection device.
  • the user's gesture may be a gesture of moving a hand down or up, or a gesture having a smiley face.
  • the gesture recognition module 712 may also obtain object information about an object that is not a user.
  • the gesture recognition module 712 may map gestures of various types of users to simple operations based on the object information. For example, the form of the user moving the hand down will be very diverse, the gesture recognition module 712 analyzes the object information to classify the various forms as the user moving the hand down, identification corresponding to You can give a code.
  • the function mapping module 714 may check a control operation mapped with the type of the gesture recognized by the gesture recognition module 712.
  • the portable terminal device may store a table that maps functions that can be performed on the portable terminal device (or another device) in response to each user gesture, and the function mapping module 714 stores the table. You can check the control operation with reference.
  • the mapped functions may be allocated for each application.
  • the music playback application may have a control command mapped to decrease the volume
  • the calendar application may display a control command mapped to display the calendar for the next month.
  • the function mapping module 714 may identify an application currently being executed by the second processor 710, and identify on the table a gesture of the recognized user and a function mapped to the currently running application.
  • the processor may find object information to be performed on the executed application (or on another application or on another device) in the table and perform a corresponding operation.
  • the function mapping module 714 may identify a corresponding control operation based on the voice data input from the user in addition to the object information.
  • the voice data may be obtained by the projection device or the portable terminal device.
  • the voice data may be for selecting an application or device to perform a mapped function, or for confirming a corresponding control operation in consideration of both object information and voice data.
  • the function control module 716 may perform the identified control function. According to an embodiment, the function control module 716 may transmit a command to a component (eg, the display 630 or a sound output device) that performs the identified control operation. According to an embodiment, the identified control operation may be an operation performed by an external device (eg, TV, lighting, boiler, electric / gas, washing machine, door lock, etc.) based on IoT, and in this case, the function control module ( 716 may transmit a corresponding command to an external device through a second communication circuit (eg, the second communication circuit 620 of FIG. 6).
  • a second communication circuit eg, the second communication circuit 620 of FIG. 6
  • 8A to 8C illustrate embodiments of function control of a mobile terminal device according to various embodiments of the present disclosure.
  • FIG. 8A illustrates a control operation performed on the mobile terminal device 820 according to the movement of a user's hand.
  • the projection device 810 may photograph an area where the user's hand is located in the real world and perform object recognition. In this case, it is assumed that the user has made an operation 830 for moving the hand from right to left.
  • the projection device 810 may transmit object information including the user's gesture 830 to the mobile terminal device 820.
  • a second processor (eg, the second processor 610 of FIG. 6) of the mobile terminal device 820 corresponds to a user's gesture in a table stored on a memory (memory 640 of FIG. 6) using object information.
  • the control operation can be confirmed.
  • the second processor may further check voice data collected by the user using a microphone (not shown), and check a control operation corresponding thereto.
  • the second processor may perform a control operation corresponding to the gesture of the user in the currently running application.
  • the control operation corresponding to the gesture 830 in which the user moves his hand to the left in the e-book application may be an operation of turning a page of the e-book.
  • the second processor may execute the application running in the background (eg.
  • the control operation eg, change to the next track) corresponding to the music application
  • the priority of an application performing a control operation may be determined according to a user's setting or an attribute of an application running in the background.
  • 8B illustrates an operation for providing information related to a recognized object.
  • the object information obtained by the projection apparatus 810 may include text or image information in a user's hand and an object (eg, a book, paper, etc.).
  • an object eg, a book, paper, etc.
  • the second processor of the mobile terminal device 820 may recognize the user's finger 830 and check the text (eg, cygbot) around the finger 830.
  • the second processor may recognize the text and check the information corresponding to the text (eg, the URL of the cygbot homepage) through the Internet.
  • the portable terminal device 820 may provide the confirmed information to the projection device 810, and the projection device 810 may provide augmented reality by projecting the acquired information around the corresponding text.
  • the recognized text may be translated and displayed in another language, or the recognized text and related information may be retrieved from information stored in the mobile terminal device 820 (eg, a contact or a memo).
  • information stored in the mobile terminal device 820 eg, a contact or a memo.
  • information corresponding to the image may be searched and provided.
  • 8C illustrates an operation of transmitting a command of a control operation performed by another device.
  • the second processor of the portable terminal device 820 controls the control.
  • Information related to the operation may be transmitted to the other external device 850.
  • the portable terminal device 820 may be wirelessly connected to another external device 850 (eg, a television).
  • another external device 850 eg, a television.
  • the second processor of the portable terminal device 820 may provide a command related to the control operation. It may transmit to the external device 850.
  • the projection device 810 and the portable terminal device 820 are used to control various electronic devices (eg, TV, lighting, boiler, electric / gas, washing machine, door lock, etc.) based on the Internet of things (IoT). can do.
  • various electronic devices eg, TV, lighting, boiler, electric / gas, washing machine, door lock, etc.
  • IoT Internet of things
  • 9A is a detailed block diagram of a second processor of a mobile terminal device according to various embodiments of the present disclosure.
  • the second processor 910 may include a character generation module 912, an emotion module 914, and a virtual image generation module 916.
  • Each module may be a set of programs executed by the second processor 910 as a software module.
  • the second processor 910 may include each module (eg, gesture recognition module 712, function mapping module 714, function control module 716) included in FIG. 7 and FIG. 9A. Each module may be included in all or only some of them.
  • the character generation module 912 may generate a character to be displayed through the virtual image.
  • the character may utilize various kinds of well-known characters, and a type of character to be included in the virtual image may be determined according to a user's selection.
  • the emotion module 914 may predict an emotion of the user based on various pieces of information identified on the portable terminal device, and accordingly, may perform an operation for reflecting the emotion information on the character.
  • the second processor 910 may generate emotion information of the character in response to at least one event (eg, an event occurring in an application) occurring in the portable terminal device.
  • the second processor 910 may generate the emotion information of the character further based on the object information received from the projection apparatus. That is, the second processor 910 may predict the current emotional state of the user by using the application installed by the user and the gesture of the user in the portable terminal device.
  • the type and number of schedules can be referred to. If today's schedule is a class, a test, etc., and the number is large, the user's emotion can be predicted by depressed emotion.
  • the second processor 910 may estimate the emotion of the user by referring to the text or the emoticon of the message sent or received in the message application.
  • the second processor 910 determines that the user's emotion is depressed with reference to the object information and accordingly the character image Can be corrected.
  • the second processor 910 may obtain emotional information of the user using physical health information obtained from a wearable device (for example, a smart watch, a smart glass, etc.) worn by the user.
  • a wearable device for example, a smart watch, a smart glass, etc.
  • the second processor 910 may correct the character included in the virtual image based on the predicted emotion information. For example, if the user is in a pleasant mood, the character image may have a bright or cute shape. If the user is depressed, the character image may have a dark expression or a slightly gloomy shape. Can be.
  • Emotional information may be classified according to a person's emotion type such as white music, and the memory may store various character images corresponding to each emotion information.
  • 9B illustrates each process for generating emotion information according to various embodiments of the present disclosure.
  • the illustrated method of generating emotion information may be performed by a second processor of the portable terminal device.
  • the second processor may acquire behavior pattern information and environment information of the user. At least some of these may be obtained from the projection apparatus. The second processor may recognize the emotional state of the current user using the obtained information.
  • the second processor may determine attributes (eg, facial expressions, behaviors, etc.) to be applied to the character based on the emotional state of the user and the basic inclination of the character to be used for the virtual image. According to an embodiment, the second processor may determine an attribute to be applied to the character by using the character's characteristic and the predicted user's emotion information on the emotion DB.
  • attributes eg, facial expressions, behaviors, etc.
  • the second processor may reflect the determined attribute on the character, generate a virtual image including the character, and provide the same to the projection apparatus.
  • the second processor may change the character of the virtual image and provide it to the projection apparatus.
  • the augmented reality system can communicate emotionally with the user, not just information transmission.
  • FIGS 10A through 10C illustrate virtual images including character images according to various embodiments of the present disclosure.
  • FIG. 10A illustrates a screen on which a virtual image 1000a is generated based on information of a clock widget.
  • the virtual image 1000a may include time information 1010a generated by the widget.
  • the second processor eg, the second processor 610 of FIG. 6
  • the generated text information 1012a may be output as sound by a sound output device (not shown) at least partially simultaneously with the display of the virtual image 1000a.
  • a predetermined character 1050a may be displayed in one region of the virtual image 1000a. At least a part of the character 1050a may be changed based on emotion information of the user.
  • the second processor may provide the generated virtual image 1000a to the projection apparatus, and the projection apparatus may project the virtual image 1000a to the real world.
  • 10B illustrates that the character image is changed according to the emotion information of the user.
  • the second processor may generate the emotion information of the user with reference to the contents registered in the certain application. For example, if the registered schedule of today and tomorrow is a schedule of generally enjoyable content such as a class reunion, the second processor may predict that the user is a pleasant emotion and correct the character 1050b with a smile.
  • the user may directly predict the schedule of the day through the expression of the character 1050b without seeing exactly what the schedule 1010b is specified in the schedule application.
  • 10C illustrates that the character image is changed according to the gesture of the user.
  • the second processor may predict the emotional state of the user based on the object information received from the projection apparatus. For example, when it is recognized that the user moves his hand quickly (1070c) or makes an angry facial expression, the facial expression of the character 1050c may be changed to correspond thereto.
  • the mobile terminal device may display at least a portion of the generated virtual image on a display of the mobile terminal device.
  • FIG. 11 illustrates a method of storing a recognized image according to various embodiments of the present disclosure.
  • the second processor may store the recognized object information in a memory.
  • the second processor may select an application to use for storage based on the user gesture.
  • the business card image may be recognized by the projection device.
  • the second processor may recognize that the card is a business card based on the object information, and search for an application (eg, a business card APP, a memo APP, a schedule APP, a word APP) capable of storing a business card image.
  • an application eg, a business card APP, a memo APP, a schedule APP, a word APP
  • the second processor may generate a user interface for selecting one of the searched applications for storing the recognized business card image, and include the user interface in a virtual image and provide the same to the projection apparatus.
  • the projection device may project the virtual image, recognize the direction of the user's gesture, and provide the same to the portable terminal device.
  • the second processor may store the recognized business card image using an application corresponding to the direction of the user's gesture.
  • FIG. 12 illustrates functions that may be performed by the secretary robot using the augmented reality system according to various embodiments of the present disclosure.
  • a projection device eg, the projection device 110 of FIG. 1
  • a portable terminal device eg, the mobile terminal device 120 of FIG. 1
  • It can be used as a secretary robot that serves as a secretary to the user.
  • the portable terminal device may output a sound for notifying the time at a specific time or a time registered by the user, and the projection device may project a virtual image related to the time information.
  • the user may input a predetermined control command for controlling the mobile terminal device or another device by performing a gesture registered in advance on the virtual image.
  • FIG. 12 illustrates various fields that can be implemented through the augmented reality system as described above, and various embodiments of the present invention are not limited thereto.
  • FIG. 13 is a flowchart illustrating a virtual image providing method according to various embodiments of the present disclosure.
  • the illustrated method may be performed by the projection apparatus (for example, the projection apparatus 110 of FIG. 1) and the portable terminal apparatus (for example, the portable terminal apparatus 120 of FIG. 1) described above. Technical description thereof will be omitted.
  • the projection device and the portable terminal device may establish a wireless communication connection. Accordingly, the object information recognized by the projection apparatus may be provided to the portable terminal apparatus, and the portable terminal apparatus may provide a virtual image to the projection apparatus.
  • the portable terminal device may detect an event occurring on the portable terminal device.
  • the event may include an event (eg, notification) occurring on an application (eg, a schedule, SNS, a message application, etc.) installed and executed in the portable terminal device.
  • an application eg, a schedule, SNS, a message application, etc.
  • the mobile terminal device may generate a virtual image.
  • the mobile terminal device may generate a virtual image corresponding to the detected event.
  • the virtual image includes a predetermined character image, and the portable terminal device generates user's emotion information by referring to an event occurring on the portable terminal device and / or received object information and the like, and generates the emotion information. Based on this, the character image can be corrected.
  • the portable terminal device may provide a virtual image to the projection device, and the projection device may project it to the real space.
  • FIG. 14 is a flowchart illustrating a virtual image providing method according to various embodiments of the present disclosure.
  • the illustrated method may be performed by the projection apparatus (for example, the projection apparatus 110 of FIG. 1) and the portable terminal apparatus (for example, the portable terminal apparatus 120 of FIG. 1) described above. Technical description thereof will be omitted.
  • the portable terminal device may receive object information from the projection device.
  • the portable terminal device may check a control operation of the portable terminal device (or another device) corresponding to the object information.
  • the portable terminal device may perform the identified control operation.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

According to various embodiments of the present invention, an augmented reality system comprises: a projection device; and a portable terminal device, wherein the projection device can comprise: a projection module for projecting a virtual image to the outside; an object sensor for recognizing surrounding objects; a first communication circuit for communicating with the portable terminal device; and a first processor for transmitting object information related to the recognized object to the portable terminal device through the first communication circuit, and the portable terminal device can comprise: a second communication circuit for communicating with the projection device; and a processor configured to detect at least one event occurring in the portable terminal device, generate a virtual image in response to the event, and transmit the virtual image to the projection device through the communication circuit such that the projection device projects the virtual image to the outside. In addition, various embodiments are possible.

Description

휴대 단말 장치와 프로젝션 장치를 포함하는 증강 현실 시스템Augmented Reality System Including Portable Terminal Device and Projection Device
본 실시예는 증강 현실 시스템에 관한 것으로서, 보다 상세하게는 외부 오브젝트를 인식하고 오브젝트에 인접하여 증강 현실 컨텐츠를 투영할 수 있는 프로젝션 장치 및 상기 프로젝션 장치와 무선으로 통신 가능한 휴대 단말 장치를 포함하는 증강 현실 시스템에 관한 것이다.The present embodiment relates to an augmented reality system, and more particularly, an augmentation apparatus including a projection apparatus capable of recognizing external objects and projecting augmented reality contents adjacent to an object, and a portable terminal apparatus wirelessly communicating with the projection apparatus. It is about a real system.
이동통신 기술 및 프로세서 기술의 발달에 따라 휴대 단말 장치(예: 스마트폰)는 종래의 통화 기능에서 나아가 다양한 기능들을 구현할 수 있게 되었다. 더불어 최근에는 개인 비서 서비스/로봇 등이 출시되어 사용자에게 다양한 사용자 경험을 제공하고 있다.With the development of mobile communication technology and processor technology, portable terminal devices (eg, smartphones) can implement various functions beyond the conventional call function. Recently, personal assistant services / robots have been released to provide users with various user experiences.
휴대 단말 장치의 다양한 기능들을 활용하기 위해 사용자들은 많은 정보들을 입력하고 있으며, 휴대 단말 장치로부터 다양한 정보들을 받아들일 수 있다. 이러한 다양한 정보들을 휴대 단말 장치로부터 획득하기 위해서는 사용자가 직접 입력하는 능동적인 과정을 거치게 된다.  In order to utilize various functions of the portable terminal device, users input a lot of information and may receive various information from the portable terminal device. In order to obtain such various pieces of information from the portable terminal device, the user enters an active process of directly inputting the information.
사용자가 휴대 단말 장치와 인터랙션 하기 위한 방법으로써 기본적인 터치 입력 이외에 음성을 통한 인터랙션이 사용되고 있다. 하지만, 음성을 통한 인터랙션은 입/출력 방식에 있어 한계가 있고, 소리의 특성 상 원하지 않는 정보의 전달은 사용자에게 피로감을 줄 수 있다.As a method for the user to interact with the portable terminal device, interactions through voice are used in addition to the basic touch input. However, the interaction through voice is limited in the input / output method, and the transmission of unwanted information due to the nature of the sound can cause fatigue to the user.
상기 문제점을 해결하기 위한 본 발명의 목적은 사용자의 편의성을 향상 시키고 다양한 사용자 경험을 제공할 수 있는 프로젝션 기반의 증강 현실 시스템을 제공하는 데 있다.An object of the present invention for solving the above problems is to provide a projection-based augmented reality system that can improve the user's convenience and provide a variety of user experience.
본 발명의 다양한 실시예에 따른 휴대 단말 장치는, 디스플레이; 메모리; 외부의 프로젝션 장치와 통신 하기 위한 통신 회로; 및 상기 디스플레이, 메모리 및 통신 회로와 전기적으로 연결되는 프로세서를 포함하며, 상기 프로세서는, 상기 휴대 단말 장치에서 발생하는 적어도 하나의 이벤트를 감지하고, 상기 이벤트에 대응하여 가상 이미지를 생성하고, 상기 가상 이미지를 상기 통신 회로를 통해 상기 프로젝션 장치에 전송하여 상기 프로젝션 장치가 상기 가상 이미지를 외부로 투영하도록 설정될 수 있다.According to various embodiments of the present disclosure, a portable terminal device may include a display; Memory; Communication circuitry for communicating with an external projection device; And a processor electrically connected to the display, the memory, and the communication circuit, wherein the processor detects at least one event occurring in the portable terminal device, generates a virtual image in response to the event, and generates the virtual image. The projection device may be set to project the virtual image to the outside by transmitting an image to the projection device through the communication circuit.
상술한 본 발명에 따르면, 사용자의 편의성을 향상 시키고 다양한 사용자 경험을 제공할 수 있는 프로젝션 기반의 증강 현실 시스템을 제공할 수 있다.According to the present invention described above, it is possible to provide a projection-based augmented reality system that can improve the user's convenience and provide a variety of user experience.
도 1은 본 발명의 다양한 실시예에 따른 증강 현실 시스템을 구성하는 각 구성들을 도시한 것이다.1 is a block diagram illustrating components of an augmented reality system according to various embodiments of the present disclosure.
도 2는 본 발명의 다양한 실시예에 따른 프로젝션 장치의 블록도이다.2 is a block diagram of a projection apparatus according to various embodiments of the present disclosure.
도 3은 본 발명의 다양한 실시예에 따른 프로젝션 장치의 세부 구성도이다.3 is a detailed configuration diagram of a projection apparatus according to various embodiments of the present disclosure.
도 4는 본 발명의 다양한 실시예에 따른 패턴 프로젝트를 도시한 것이다.4 illustrates a pattern project according to various embodiments of the present disclosure.
도 5a 내지 5b는 본 발명의 다양한 실시예에 따른 프로젝션 장치의 초점 거리를 도시한 것이다.5A to 5B illustrate a focal length of a projection apparatus according to various embodiments of the present disclosure.
도 6은 본 발명의 다양한 실시예에 따른 휴대 단말 장치의 블록도이다.6 is a block diagram of a portable terminal device according to various embodiments of the present disclosure.
도 7은 본 발명의 다양한 실시예에 따른 휴대 단말 장치의 제2프로세서의 세부 블록도이다.7 is a detailed block diagram of a second processor of a mobile terminal device according to various embodiments of the present disclosure.
도 8a 내지 8c는 본 발명의 다양한 실시예에 따른 휴대 단말 장치의 기능 제어의 실시예들을 도시한 것이다.8A to 8C illustrate embodiments of function control of a mobile terminal device according to various embodiments of the present disclosure.
도 9a는 본 발명의 다양한 실시예에 따른 휴대 단말 장치의 제2프로세서의 세부 블록도이다.9A is a detailed block diagram of a second processor of a mobile terminal device according to various embodiments of the present disclosure.
도 9b는 본 발명의 다양한 실시예에 따른 감성 정보를 생성하기 위한 각 모듈을 도시한 것이다.9B illustrates each module for generating emotional information according to various embodiments of the present disclosure.
도 10a 내지 10c는 본 발명의 다양한 실시예에 따른 캐릭터 이미지를 포함하는 가상 이미지를 도시한 것이다.10A through 10C illustrate virtual images including character images according to various embodiments of the present disclosure.
도 11는 본 발명의 다양한 실시예에 따라 인식된 이미지를 저장하는 방법을 도시한 것이다.11 illustrates a method of storing a recognized image according to various embodiments of the present disclosure.
도 12는 본 발명의 다양한 실시예에 따른 증강 현실 시스템을 이용한 비서 로봇이 수행할 수 있는 기능들을 도시한 것이다.12 illustrates functions that may be performed by the secretary robot using the augmented reality system according to various embodiments of the present disclosure.
도 13 및 14는 본 발명의 다양한 실시예에 따른 가상 이미지 제공 방법의 흐름도이다.13 and 14 are flowcharts of a virtual image providing method according to various embodiments of the present disclosure.
이하, 본 명세서의 다양한 실시예가 첨부된 도면을 참조하여 기재된다. 그러나, 이는 본 명세서에 기재된 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 명세서의 실시예의 다양한 변경(modifications), 균등물(equivalents), 및/또는 대체물(alternatives)을 포함하는 것으로 이해되어야 한다.Hereinafter, various embodiments of the present disclosure will be described with reference to the accompanying drawings. However, this is not intended to limit the techniques described herein to a particular embodiment and should be understood to include various modifications, equivalents, and / or alternatives to the embodiments herein. .
도 1은 본 발명의 다양한 실시예에 따른 증강 현실 시스템을 구성하는 각 구성들을 도시한 것이다.1 is a block diagram illustrating components of an augmented reality system according to various embodiments of the present disclosure.
본 발명의 다양한 실시예에 따른 증강 현실 시스템은 프로젝션 장치(110) 및 휴대 단말 장치(120)를 포함할 수 있다. 실제 구현 형태에 따라 프로젝션 장치(110)의 일부 구성 및/또는 기능이 휴대 단말 장치(120) 상에서 구현될 수 있으며, 반대로 휴대 단말 장치(120)의 일부 구성 및/또는 기능이 프로젝션 장치(110) 상에서 구현될 수도 있다.An augmented reality system according to various embodiments of the present disclosure may include a projection device 110 and a portable terminal device 120. Some configurations and / or functions of the projection device 110 may be implemented on the portable terminal device 120 according to actual implementations, and on the contrary, some components and / or functions of the projection device 110 may be implemented by the projection device 110. It may be implemented in the above.
프로젝션 장치(110)의 기능은 대표적으로 오브젝트(140)(예: 사용자의 손)의 인식 및 가상 이미지(130) 투영을 예로 들 수 있다. 이를 위해 프로젝션 장치(110)는 주변의 오브젝트(140)의 존재 또는 이동을 감지하기 위한 오브젝트(140) 인식 모듈 및 이미지를 외부로 투영하기 위한 프로젝션 모듈을 포함할 수 있다.The function of the projection apparatus 110 may be representative of recognition of the object 140 (eg, a user's hand) and projection of the virtual image 130. To this end, the projection apparatus 110 may include an object recognition module 140 for detecting the presence or movement of the surrounding object 140 and a projection module for projecting an image to the outside.
먼저, 오브젝트 센서는 증강 현실에서의 비전을 구현하기 위한 것으로서, 프로젝션 장치(110) 주변의 대상 영역의 이미지를 획득하고, 획득된 이미지로부터 오브젝트(140)의 존재 및 이동 여부를 확인할 수 있다. 예를 들어, 사용자는 책을 읽는 중에 책의 주변에 프로젝션 장치(110)를 설치하고 프로젝션 모듈의 시야가 책을 향하도록 할 수 있으며, 이 경우 프로젝션 모듈은 책 및 사용자의 손 등을 촬영하고 그 움직임을 확인할 수 있다. First, the object sensor is for realizing a vision in augmented reality, may acquire an image of a target area around the projection apparatus 110, and check the existence and movement of the object 140 from the acquired image. For example, the user may install the projection device 110 around the book while reading the book and direct the view of the projection module toward the book, in which case the projection module shoots the book, the user's hand, and the like. You can check the movement.
오브젝트 센서는 카메라 및/또는 적외선 센서를 포함할 수 있으며, 일 실시예에 따르면 복수의 카메라 및/또는 적외선 센서를 이용하여 오브젝트(140)를 3D로 인식할 수 있다. The object sensor may include a camera and / or an infrared sensor, and according to an embodiment, the object 140 may be recognized in 3D using a plurality of cameras and / or infrared sensors.
프로젝션 모듈은 가상 이미지(130)를 외부로 투사 시켜 표시할 수 있다. 예를 들어, 사용자가 책을 읽는 중에 책의 일 영역 상에 가상 이미지(130)가 표시될 수 있다. 가상 이미지(130)를 통해 표시되는 정보에는 한정됨이 없을 것이나, 예를 들어, 도 1에 도시된 바와 같이, 날씨 정보가 관련 이미지 및 텍스트 정보로써 표시될 수 있으며, 소정의 캐릭터 이미지가 표시될 수 있다. 사용자는 오브젝트(140)(예: 사용자의 손)에 인접하여 투사되는 가상 이미지(130)(예: 날씨 정보) 및 현실 정보를 동시에 인식할 수 있다.The projection module may display the virtual image 130 by projecting it to the outside. For example, the virtual image 130 may be displayed on an area of the book while the user reads the book. Information displayed through the virtual image 130 will not be limited, but, for example, as shown in FIG. 1, weather information may be displayed as a related image and text information, and a predetermined character image may be displayed. have. The user may simultaneously recognize the virtual image 130 (eg, weather information) and reality information projected adjacent to the object 140 (eg, the user's hand).
일 실시예에 따르면, 가상 이미지(130)는 소정의 캐릭터 이미지를 포함할 수 있다. 캐릭터 이미지는 주변 환경 또는 인식되는 오브젝트(140)에 따라 변경되어, 사용자의 현재 상태 및 감정을 표현할 수 있다.According to an embodiment, the virtual image 130 may include a predetermined character image. The character image may be changed according to the surrounding environment or the recognized object 140 to express the current state and emotion of the user.
프로젝션 장치(110)는 제1통신 회로, 제1프로세서 등 보다 다양한 구성들을 포함할 수 있으며, 프로젝션 장치(110)의 보다 상세한 구성 및 기능에 대해서는 도 2 내지 도 5를 통해 상세히 후술하기로 한다.The projection apparatus 110 may include more various components, such as a first communication circuit and a first processor, and a detailed configuration and function of the projection apparatus 110 will be described in detail later with reference to FIGS. 2 to 5.
휴대 단말 장치(120)는 스마트폰, 태블릿 PC 등 사용자가 휴대 가능한 공지의 전자 장치로 구현될 수 있으며 상세한 구현 예는 이에 한정되지 않는다.The mobile terminal device 120 may be implemented as a known electronic device that can be carried by a user, such as a smart phone and a tablet PC, and a detailed embodiment is not limited thereto.
휴대 단말 장치(120)는 프로젝션 장치(110)와 무선으로 통신 가능하며 프로젝션 장치(110)에 의해 인식된 오브젝트(140)의 관련 정보(예: 오브젝트의 존재 여부 및 오브젝트의 이동 등)를 수신하고, 프로젝션 장치(110)가 투영할 가상 이미지(130) 정보를 제공할 수도 있다.The portable terminal device 120 can wirelessly communicate with the projection device 110 and receives the related information (eg, existence of the object and movement of the object, etc.) of the object 140 recognized by the projection device 110. In addition, the projection apparatus 110 may provide the virtual image 130 to be projected.
휴대 단말 장치(120)는 프로젝션 장치(110)로부터 수신한 오브젝트 관련 정보에 기초하여 다양한 동작을 수행할 수 있다. 일 실시예에 따르면, 휴대 단말 장치(120)는 수신한 오브젝트 관련 정보에 대응되는 제어 동작을 수행할 수 있다. 예를 들어, 사용자가 손을 움직이는 경우, 그에 대응하여 휴대 단말 장치(120) 상에 현재 표시된 어플리케이션(예: 전자책)의 페이지를 넘기 거나, 어플리케이션을 종료시킬 수 있다.The portable terminal device 120 may perform various operations based on the object related information received from the projection device 110. According to an embodiment, the portable terminal device 120 may perform a control operation corresponding to the received object related information. For example, when a user moves a hand, the user may turn over a page of an application (eg, an e-book) currently displayed on the portable terminal device 120 or terminate the application.
일 실시예에 따르면, 휴대 단말 장치(120)는 프로젝션 장치(110)가 투사할 가상 이미지(130)를 생성하여 프로젝션 장치(110)에 제공할 수 있다. 여기서, 가상 이미지(130)는 캐릭터 이미지를 포함할 수 있으며, 휴대 단말 장치(120)는 휴대 단말 장치(120) 상에 설치 및 실행된 어플리케이션에서 발생하는 이벤트에 따라 캐릭터 이미지를 보정할 수 있다. 일 실시예에 따르면 휴대 단말 장치(120)는 감성 엔진을 탑재하여, 상기 다양한 이벤트에 따라 캐릭터 이미지를 보정할 수 있는데, 예를 들어, 일정 어플리케이션 상에 기록된 일정, 메시지 어플리케이션에서 수신되는 메시지 등에 기초하여 감성 정보를 생성하고, 감성 정보에 따라 캐릭터 이미지를 보정할 수 있다. According to an exemplary embodiment, the portable terminal device 120 may generate a virtual image 130 to be projected by the projection device 110 and provide it to the projection device 110. Here, the virtual image 130 may include a character image, and the portable terminal device 120 may correct the character image according to an event occurring in an application installed and executed on the portable terminal device 120. According to an embodiment, the mobile terminal device 120 may be equipped with an emotion engine to correct a character image according to the various events, for example, a schedule recorded on a schedule application, a message received from a message application, or the like. Emotion information may be generated based on the emotion information, and the character image may be corrected according to the emotion information.
휴대 단말 장치(120)의 보다 상세한 구성 및 기능에 대해서는 도 6 내지 도 11을 통해 보다 상세히 설명하기로 한다.More detailed configurations and functions of the mobile terminal device 120 will be described in more detail with reference to FIGS. 6 to 11.
프로젝션 장치(110)는 휴대 단말 장치(120)와 달리 사용자가 고정된 위치에 설치하여 사용하는 것이 일반적이나, 사용상 편의를 위해 그 크기는 휴대 단말 장치(120)와 비슷한 크기 일 수 있다.Unlike the portable terminal device 120, the projection device 110 is generally installed and used by a user at a fixed position. However, the projection device 110 may have a size similar to that of the portable terminal device 120 for convenience of use.
일 실시예에 따르면, 프로젝션 장치(110)는 휴대 단말 장치(120)로부터 수신하는 정보(예: 가상 이미지, 날씨/시간 등 위젯 정보 등)를 인터넷 상의 다른 장치로부터 수신할 수 있다. 이 경우, 프로젝션 장치(110)는 어플리케이션을 직접 실행하고, 가상 이미지를 렌더링 할 수 있는 프로세서(예: 제1프로세서)를 포함할 수 있다. 이 경우, 증강 현실 시스템에서 휴대 단말 장치(120)의 기능 중 적어도 일부는 프로젝션 장치(110) 상에서 수행되고, 나머지 적어도 일부는 다른 장치에서 수행 가능하며, 프로젝션 장치(110)와 상기 다른 장치는 인터넷으로 통신할 수 있다.According to an embodiment, the projection device 110 may receive information (eg, virtual image, weather / time, widget information, etc.) received from the portable terminal device 120 from another device on the Internet. In this case, the projection apparatus 110 may include a processor (eg, a first processor) capable of directly executing an application and rendering a virtual image. In this case, at least some of the functions of the portable terminal device 120 in the augmented reality system may be performed on the projection device 110, and at least some of the functions may be performed on other devices, and the projection device 110 and the other device may be connected to the Internet. Can communicate with.
도 2는 본 발명의 다양한 실시예에 따른 프로젝션 장치의 블록도이다.2 is a block diagram of a projection apparatus according to various embodiments of the present disclosure.
도시된 바와 같이, 프로젝션 장치(200)는 프로젝션 모듈(230), 오브젝트 센서(240), 제1통신 회로(220) 및 제1프로세서(210)를 포함하며, 도시된 구성 중 일부가 생략 또는 치환되더라도 본 발명의 다양한 실시예를 구현함에는 지장이 없을 것이다. 프로젝션 장치(200)는 도 1의 프로젝션 장치(110)일 수 있다.As shown, the projection apparatus 200 includes a projection module 230, an object sensor 240, a first communication circuit 220, and a first processor 210, some of which are omitted or substituted. If so, there will be no problem in implementing the various embodiments of the present invention. The projection apparatus 200 may be the projection apparatus 110 of FIG. 1.
제1프로세서(210)는 프로젝션 장치(200)의 각 구성 요소들의 제어 및/또는 통신에 관한 연산이나 데이터 처리를 수행할 수 있는 구성으로써, 도시된 프로젝션 모듈(230), 오브젝트 센서(240), 제1통신 회로(220)를 포함하는 프로젝션 장치(200)의 각 구성 요소들과 전기적 및/또는 기능적으로 연결될 수 있다.The first processor 210 is configured to perform operations or data processing related to control and / or communication of each component of the projection apparatus 200. The illustrated projection module 230, the object sensor 240, Each component of the projection apparatus 200 including the first communication circuit 220 may be electrically and / or functionally connected.
제1통신 회로(220)는 근거리 무선 통신을 이용하여 휴대 단말 장치와 통신하기 위한 구성이다. 사용되는 근거리 무선 통신은 예를 들어, WiFi(wireless fidelity), 블루투스(bluetooth), 블루투스 저전력(BLE), 지그비(Zigbee), NFC(near field communication) 등을 예로 들 수 있으나, 이에 한정되지 않으며 다양한 규격 또는 비규격의 근거리 무선 통신이 활용될 수 있다. 일 실시예에 따르면, 제1통신 회로(220)는 네트워크로 접속 가능하며, 네트워크를 통해 휴대 단말 장치와 통신할 수 있다.The first communication circuit 220 is a configuration for communicating with the portable terminal device using near field communication. The short-range wireless communication used may include, for example, wireless fidelity (WiFi), Bluetooth (bluetooth), Bluetooth low power (BLE), Zigbee, and near field communication (NFC), but are not limited thereto. Standard or nonstandard short range wireless communication may be utilized. According to an exemplary embodiment, the first communication circuit 220 may be connected to a network and may communicate with the mobile terminal device through the network.
일 실시예에 따르면, 프로젝션 장치(200)는 제1통신 회로(220)를 통해 인터넷으로 접속할 수 있으며, 인터넷 상에서 획득한 정보를 이용하여 가상 이미지를 생성 및 표시할 수 있다.According to an embodiment, the projection apparatus 200 may be connected to the Internet through the first communication circuit 220, and may generate and display a virtual image using information obtained on the Internet.
프로젝션 모듈(230)은 가상 이미지(예: 도 1의 가상 이미지(130))를 외부로 투사 시켜 표시할 수 있다. 여기서, 가상 이미지는 제1프로세서(210)에 의해 생성된 이미지이거나, 제1통신 회로(220)를 통해 휴대 단말 장치로부터 수신된 이미지일 수 있다. 가상 이미지는 캐릭터 이미지를 포함할 수 있으며, 실제 영역에 투사되어 증강 현실을 구현할 수 있게 된다. 일 실시예에 따르면, 가상 이미지는 휴대 단말 장치가 아닌 인터넷 상의 다른 장치로부터 획득한 이미지 정보일 수 있다.The projection module 230 may project a virtual image (for example, the virtual image 130 of FIG. 1) to the outside and display the same. Here, the virtual image may be an image generated by the first processor 210 or an image received from the portable terminal device through the first communication circuit 220. The virtual image may include a character image and may be projected onto a real area to implement augmented reality. According to an embodiment, the virtual image may be image information obtained from another device on the Internet other than the portable terminal device.
일 실시예에 따르면, 가상 이미지는 후술할 오브젝트 센서(240)에 의해 인식된 오브젝트와 관련된 정보를 포함할 수 있다. 예를 들어, 사용자가 책을 읽고 있을 때, 오브젝트 센서(240)는 책 내의 텍스트를 인식할 수 있으며, 프로젝션 모듈(230)은 인식된 텍스트와 관련된 정보(예: 텍스트의 번역, 텍스트를 인터넷으로 검색하여 검색된 정보)를 포함하는 가상 이미지를 해당 텍스트에 인접하여 투사할 수 있다.According to an embodiment, the virtual image may include information related to an object recognized by the object sensor 240 to be described later. For example, when a user is reading a book, the object sensor 240 may recognize text in the book, and the projection module 230 may include information related to the recognized text (eg, translation of text, text to the Internet). The virtual image including the searched and retrieved information) can be projected adjacent to the corresponding text.
일 실시예에 따르면, 제1프로세서(210)가 직접 가상 이미지를 생성할 수 있다. 다른 일 실시예에 따르면, 가상 이미지는 인터넷 상의 다른 장치에 의해 수신되는 것일 수도 있다.According to an embodiment, the first processor 210 may directly generate a virtual image. According to another embodiment, the virtual image may be one received by another device on the Internet.
오브젝트 센서(240)는 현실 세계의 오브젝트(예: 도 1의 오브젝트(140))를 인식하기 위한 소프트웨어 및/또는 하드웨어 구성을 포함할 수 있다. 일 실시예에 따르면, 오브젝트 센서(240)의 하드웨어는 카메라 및 적외선 센서를 포함할 수 있으며, 소프트웨어는 촬영된 이미지로부터 오브젝트의 좌표 및 이동을 검출하는 일련의 로직을 포함할 수 있다. 오브젝트 센서(240)는 광학적인 삼각측량법, 시간지연 측정법, 구조광을 이요한 측정법 등을 이용하여 오브젝트의 3차원 좌표를 획득하고, 좌표 이동을 감지함으로써 오브젝트의 존재 및 이동을 검출할 수 있다. 예를 들어, 오브젝트 센서(240)는 사용자의 손의 제스쳐를 확인할 수 있다. 일 실시예에 따르면, 오브젝트 센서(240)는 오브젝트의 3차원 좌표를 획득하기 위해 2개 이상의 카메라 및/또는 적외선 센서를 포함할 수 있다. 또한 일 실시예에 따르면, 상기 카메라 또는 적외선 센서는 패턴 프로젝터(pattern projector)를 포함할 수 있다(도 4를 통해 상세 후술).The object sensor 240 may include a software and / or hardware configuration for recognizing an object in the real world (eg, the object 140 of FIG. 1). According to one embodiment, the hardware of the object sensor 240 may include a camera and an infrared sensor, and the software may include a series of logic to detect the coordinates and movement of the object from the captured image. The object sensor 240 may acquire the three-dimensional coordinates of the object by using optical triangulation, time delay measurement, and measurement method using structured light, and detect the presence and movement of the object by detecting the coordinate movement. For example, the object sensor 240 may check the gesture of the user's hand. According to an embodiment, the object sensor 240 may include two or more cameras and / or infrared sensors to obtain three-dimensional coordinates of the object. According to an embodiment, the camera or infrared sensor may include a pattern projector (described in detail later with reference to FIG. 4).
일 실시예에 따르면, 오브젝트 센서(240)의 기능 중 적어도 일부는 휴대 단말 장치 상에서 수행될 수 있는데, 예를 들어 오브젝트 센서(240)는 카메라를 통해 실제 공간의 이미지만을 획득하여 휴대 단말 장치로 제공하고, 휴대 단말 장치에서 이미지의 분석을 통해 오브젝트 인식을 수행할 수 있다. According to an embodiment, at least some of the functions of the object sensor 240 may be performed on the portable terminal device. For example, the object sensor 240 may acquire only an image of a real space through a camera and provide the image to the portable terminal device. The object recognition may be performed by analyzing the image in the mobile terminal device.
도 3은 본 발명의 다양한 실시예에 따른 프로젝션 장치의 세부 구성도이다.3 is a detailed configuration diagram of a projection apparatus according to various embodiments of the present disclosure.
이하에서는 도 3을 통해 프로젝션 장치(300)가 가상 이미지를 투과하기 위한 하드웨어 적 구성에 대해 보다 상세히 설명하기로 한다. 도 3에 개시된 형태는 일 실시예에 불과하며, 다양한 형태의 프로젝션 장치가 사용될 수 있다.Hereinafter, a hardware configuration for transmitting the virtual device to the virtual image will be described in more detail with reference to FIG. 3. 3 is only an example, and various types of projection apparatuses may be used.
프로젝션 모듈(예: 도 2의 프로젝션 모듈)은 출력부(310), 렌즈(312) 및 미러(314)를 포함할 수 있다.The projection module (eg, the projection module of FIG. 2) may include an output 310, a lens 312, and a mirror 314.
출력부(310)는 프로세서로부터 전달 받은 가상 이미지를 출력할 수 있다. 출력부(310)는 예를 들어 빛을 발광하는 발광부(미도시)와 액정 투과도의 변화를 이용하여 발광부에서 발광되는 빛을 선택적으로 투과 시켜 가상 이미지가 출력되도록 하는 액정층(미도시)을 포함할 수 있다. 그 외에, 가상 이미지의 출력에는 공지된 다양한 기술들이 적용될 수 있다.The output unit 310 may output the virtual image received from the processor. The output unit 310 may include, for example, a light emitting unit (not shown) for emitting light and a liquid crystal layer (not shown) for selectively transmitting the light emitted from the light emitting unit by using a change in the liquid crystal transmittance to output a virtual image. It may include. In addition, various known techniques may be applied to the output of the virtual image.
출력부(310)의 후면에는 적어도 하나의 렌즈(312)가 마련될 수 있다. 출력부(310)를 통한 빛은 렌즈(312)에서 굴절되어 미러(314)로 향할 수 있다. 이에 따라, 빛이 통과하는 경로를 줄여 프로젝션 장치(300)를 소형화가 가능할 수 있다. 상기 렌즈(312)는 프레넬 렌즈(Fresnel lens)로 구현될 수 있다.At least one lens 312 may be provided on the rear surface of the output unit 310. Light through the output 310 may be refracted by the lens 312 and directed toward the mirror 314. Accordingly, the projection apparatus 300 may be miniaturized by reducing a path through which light passes. The lens 312 may be implemented as a Fresnel lens.
렌즈(312)에서 굴절된 빛은 미러(314)를 통해 외부로 출력될 수 있다. 제1프로세서(예: 도 2의 제1프로세서(210))는 미러(314)의 각도를 조절하여 가상 이미지가 형성되는 위치와 크기(또는 배율)를 조절할 수 있다.Light refracted by the lens 312 may be output to the outside through the mirror 314. The first processor (eg, the first processor 210 of FIG. 2) may adjust the position and size (or magnification) of the virtual image by adjusting the angle of the mirror 314.
일 실시예에 따르면, 상기 렌즈(312) 및 미러(314)는 가까운 거리에 이미지를 투영할 수 있는 단초점 렌즈(short focal length lens)로 기능할 수 있다.According to an embodiment, the lens 312 and the mirror 314 may function as a short focal length lens capable of projecting an image at a close distance.
프로젝션 장치(300)는 외부의 오브젝트를 인식하기 위한 오브젝트 센서(예: 도 2의 오브젝트 센서(240))를 포함할 수 있다. 일 실시예에 따르면, 오브젝트 센서는 현실 이미지를 획득하기 위한 적어도 하나의(예: 2개) 카메라(322) 및/또는 적어도 하나의(예: 2개) 적외선 센서(324)를 포함할 수 있다. 이 중 적어도 하나의 카메라(322)만을 포함하거나, 적어도 하나의 적외선 센서(324)만을 포함할 수도 있다.The projection apparatus 300 may include an object sensor (eg, the object sensor 240 of FIG. 2) for recognizing an external object. According to one embodiment, the object sensor may include at least one (eg two) cameras 322 and / or at least one (eg two) infrared sensors 324 for obtaining a real image. . Among these, only at least one camera 322 may be included, or at least one infrared sensor 324 may be included.
프로젝션 장치(300)가 2개의 카메라(322)(또는 2개의 적외선 센서(324))를 구비한 경우, 제1카메라 및 제2카메라(또는 제1적외선 센서 및 제2적외선 센서)는 현실 세계의 동일한 영역의 이미지를 획득할 수 있으며, 제1카메라와 제2카메라(또는 제1적외선 센서 및 제2적외선 센서)의 위치가 일부 이격되어 서로 다른 각도에서 해당 영역을 촬영할 수 있으므로, 3차원의 오브젝트를 인식할 수 있다.If the projection device 300 is equipped with two cameras 322 (or two infrared sensors 324), the first camera and the second camera (or the first infrared sensor and the second infrared sensor) may be Images of the same area can be obtained, and since the positions of the first camera and the second camera (or the first infrared sensor and the second infrared sensor) are partially spaced to photograph the corresponding areas at different angles, the three-dimensional object Can be recognized.
일 실시예에 따르면, 상기 카메라(322) 및/또는 적외선 센서(324)는 패턴 프로젝터로 구현될 수 있다.According to an embodiment, the camera 322 and / or the infrared sensor 324 may be implemented as a pattern projector.
도 4는 본 발명의 다양한 실시예에 따른 패턴 프로젝터를 도시한 것이다.4 illustrates a pattern projector according to various embodiments of the present disclosure.
일 실시예에 따르면, 프로젝션 장치(예: 도 2의 프로젝션 장치(200) 및/또는 도 3의 프로젝션 장치(300))의 오브젝트 센서(예: 도 2의 오브젝트 센서(240))는 패턴 프로젝터(pattern projector)를 포함할 수 있다. 상기 패턴 프로젝터는 적외선 센서(예: 도 3의 적외선 센서(324))를 이용하여, 사용자의 눈에는 그 패턴이 인지되지 않을 수 있다.According to an embodiment, the object sensor (eg, the object sensor 240 of FIG. 2) of the projection device (eg, the projection device 200 of FIG. 2 and / or the projection device 300 of FIG. 3) may be a pattern projector ( pattern projector). The pattern projector may not recognize the pattern in the eyes of a user using an infrared sensor (for example, the infrared sensor 324 of FIG. 3).
도시된 바와 같이, 패턴 프로젝터는 2개의 발광부(422, 424)를 포함하며, 2개의 발광부(422, 424)는 제1프로세서(예: 도 2의 제1프로세서(210))의 제어 신호에 따라 선택적으로 빛을 출력할 수 있다. 여기서, 출력되는 빛은 적외선 영역의 빛일 수 있다. 도 4에서는 2개의 발광부(422, 424)를 포함하는 것으로 도시 하였으나, 발광부의 수는 이에 한정되지 않으며, 1개 또는 3개 이상의 발광부가 사용될 수도 있다.As shown, the pattern projector includes two light emitters 422 and 424, and the two light emitters 422 and 424 are control signals of a first processor (eg, the first processor 210 of FIG. 2). Depending on the light output can be selectively. Here, the output light may be light in the infrared region. In FIG. 4, two light emitting units 422 and 424 are illustrated, but the number of light emitting units is not limited thereto, and one or three light emitting units may be used.
각 발광부(422, 424)에서 출력되는 빛은 패턴 필름(430)을 통과하며, 패턴 필름(430)을 출력한 빛은 밝은 부분과 어두운 부분이 교차하여 반복되는 형태일 수 있다. 이를 위해, 패턴 필름(430)은 빛을 통과하는 영역과 차단하는 영역을 서로 평행하도록 교차하여 형성할 수 있다.The light output from each of the light emitting parts 422 and 424 passes through the pattern film 430, and the light output from the pattern film 430 may be repeated by crossing the light and dark portions. To this end, the pattern film 430 may be formed to cross the area passing through the light and the area blocking the parallel to each other.
패턴 필름(430)을 통과한 빛은 렌즈(440)를 통해 확대되어 오브젝트의 영역으로 투영될 수 있다. 도 4에 도시된 바와 같이, 제1발광부(422) 및 제2발광부(424)에서 각각 출력되는 빛은 패턴화 되어 투영되고, 서로 다른 위치에 투영될 수 있다.Light passing through the pattern film 430 may be magnified through the lens 440 to be projected onto the area of the object. As shown in FIG. 4, the light output from each of the first light emitting unit 422 and the second light emitting unit 424 may be patterned and projected, and may be projected at different positions.
오브젝트 센서(예: 도 2의 오브젝트 센서(240))는 패턴화 된 빛을 투영하고 오브젝트를 촬영하여 오브젝트의 3D 맵을 생성할 수 있다. 즉, 패턴 프로젝터를 이용하여 오브젝트의 인식이 가능하며 이는 구성된 프로젝터 모듈을 이용할 수 있으며 또한 추가적인 적외선 패턴 프로젝터 모듈로 구성이 가능하다. 추가된 프로젝션 모듈은 오브젝트의 3차원 좌표를 획득하기 위하여 적외선 발광부의 변경으로 투사 이미지의 위상을 변경할 수 있는 구조로 구성 될 수 있다.An object sensor (eg, the object sensor 240 of FIG. 2) may project the patterned light and photograph the object to generate a 3D map of the object. That is, the object can be recognized using the pattern projector, which can use the configured projector module and can be configured as an additional infrared pattern projector module. The added projection module may be configured to change the phase of the projected image by changing the infrared emitter to obtain three-dimensional coordinates of the object.
도 5a 내지 5b는 본 발명의 다양한 실시예에 따른 프로젝션 장치의 초점 거리를 도시한 것이다.5A to 5B illustrate a focal length of a projection apparatus according to various embodiments of the present disclosure.
일 실시예에 따르면, 오브젝트 센서(예: 도 2의 오브젝트 센서(240))는 적어도 하나의 카메라(예: 도 3의 제1카메라(322) 및 제2카메라(324))를 포함할 수 있다. 프로젝션 장치는 소형화 된 제품의 특성 상 카메라를 비스듬하게 배치할 수 있으며, 그에 따라 카메라는 오브젝트가 마련되는 평면에 대해 비스듬한 위치에서의 영상을 획득할 수 있다. 이 경우, 입력되는 영상의 카메라의 초점 거리(또는 DOF(depth of field))가 가까운 쪽과 먼 쪽을 모두 포함하지 못하여 결과적으로 선명한 영상을 얻기 힘들 수 있다.According to an embodiment, the object sensor (eg, the object sensor 240 of FIG. 2) may include at least one camera (eg, the first camera 322 and the second camera 324 of FIG. 3). . The projection apparatus may arrange the camera obliquely due to the characteristics of the miniaturized product, and thus the camera may acquire an image at an oblique position with respect to the plane on which the object is provided. In this case, the focal length (or depth of field) of the camera of the input image may not include both the near and far sides, and as a result, it may be difficult to obtain a clear image.
본 발명의 다양한 실시예에 따른 프로젝션 장치는 상기와 같은 문제점을 해결하기 위하여, 카메라의 렌즈를 일부 기울여서(tilt) 더 넓은 초점 거리를 가질 수 있다. 도 5a의 첫번째 그림을 참고 하면, 종래와 같이 이미지 센서와 렌즈가 평행하게 배치되어 있다. 다양한 실시예에 따른 프로젝션 장치는 두번째 그림과 같이 이미지 센서와 렌즈를 평행하게 하지 않고 렌즈를 일부 기울여서 배치하는 결과 초점이 형성되는 평면 역시 기울여 질 수 있다. 이에 따라, 소형화 제품 특성 상 카메라를 비스듬하게 배치할 수 밖에 없는 구조적 문제를 해결할 수 있다.The projection apparatus according to various embodiments of the present disclosure may have a larger focal length by partially tilting the lens of the camera in order to solve the above problems. Referring to the first picture of Figure 5a, the image sensor and the lens is arranged in parallel as in the prior art. In the projection apparatus according to various embodiments of the present disclosure, as a result of arranging the lens by tilting the lens without paralleling the image sensor and the lens, the plane in which the focus is formed may also be tilted. Accordingly, it is possible to solve the structural problem that the camera is obliquely arranged due to the miniaturized product characteristics.
도 5b를 참고 하면, 이반 렌즈를 사용하는 경우보다 기울여진 렌즈(tilted lens)를 사용하는 경우 보다 넓은 범위에서 초점 거리를 가질 수 있음을 알 수 있다.Referring to FIG. 5B, it can be seen that a tilted lens may have a focal length in a wider range than a case of using a half-lens.
도 6은 본 발명의 다양한 실시예에 따른 휴대 단말 장치의 블록도이다.6 is a block diagram of a portable terminal device according to various embodiments of the present disclosure.
도시된 바와 같이, 휴대 단말 장치(600)는 디스플레이(630), 제2통신 회로(620), 제2프로세서(610) 및 메모리(640)를 포함하며, 도시된 구성 중 일부가 생략 또는 치환되더라도 본 발명의 다양한 실시예를 구현함에는 지장이 없을 것이다. 휴대 단말 장치는 도 1의 휴대 단말 장치(120)일 수 있다.As shown, the portable terminal device 600 includes a display 630, a second communication circuit 620, a second processor 610 and a memory 640, even if some of the illustrated configuration is omitted or replaced It will be no problem to implement various embodiments of the present invention. The portable terminal device may be the portable terminal device 120 of FIG. 1.
디스플레이(630)는 영상을 표시하며, 액정 디스플레이(liquid crystal display(LCD)), 발광 다이오드(light-emitting diode(LED)) 디스플레이, 유기 발광 다이오드(organic light-emitting diode(OLED)) 디스플레이 등으로 구현될 수 있다.The display 630 displays an image and may be used as a liquid crystal display (LCD), a light-emitting diode (LED) display, an organic light-emitting diode (OLED) display, or the like. Can be implemented.
디스플레이(630)는 디스플레이(630)의 전면에 형성된 커버 윈도우(미도시) 상에서 발생되는 터치 입력을 감지할 수 있는 터치 센서(미도시)를 포함할 수 있다.The display 630 may include a touch sensor (not shown) capable of sensing a touch input generated on a cover window (not shown) formed in front of the display 630.
제2통신 회로(620)는 외부 장치(예: 도 1의 프로젝션 장치(110))와 무선으로 데이터를 송수신하기 위한 구성으로써 안테나(미도시) 및 커뮤니케이션 프로세서(communication processor)(미도시)를 포함할 수 있다. 제2통신 회로(620)는 프로젝션 장치와 공지의 다양한 근거리 무선 통신 방식(예: Wifi, Bluetooth)에 의해 오브젝트 관련 정보를 수신하거나, 가상 이미지를 전송할 수 있으며, 네트워크를 통해 서로 통신할 수도 있다.The second communication circuit 620 is configured to wirelessly transmit and receive data with an external device (eg, the projection device 110 of FIG. 1) and includes an antenna (not shown) and a communication processor (not shown). can do. The second communication circuit 620 may receive object-related information, transmit a virtual image, or communicate with each other through a network by a projection apparatus and various known short-range wireless communication schemes (eg, Wifi and Bluetooth).
메모리(640)는 공지의 휘발성 메모리(volatile memory) 및 비휘발성 메모리(non-volatile memory)를 포함할 수 있다. 메모리(640)는 제2프로세서(610)에서 수행될 수 있는 다양한 인스트럭션(instruction)들을 저장할 수 있다. 이와 같은 인스트럭션들은 제2프로세서(610)에 의해 인식될 수 있는 산술 및 논리 연산, 데이터 이동, 입출력 등의 제어 명령을 포함할 수 있다. 메모리(640)에는 일정, 게임, 메시지 등의 기능을 수행하는 다양한 어플리케이션들이 저장될 수 있으며, 프로세서(610)는 메모리(640)에 저장된 어플리케이션을 실행할 수 있다.The memory 640 may include known volatile memory and non-volatile memory. The memory 640 may store various instructions that may be performed by the second processor 610. Such instructions may include control instructions such as arithmetic and logical operations, data movement, input / output, and the like that can be recognized by the second processor 610. Various applications that perform functions such as schedules, games, and messages may be stored in the memory 640, and the processor 610 may execute applications stored in the memory 640.
제2프로세서(610)는 휴대 단말 장치(600)의 각 구성요소들의 제어 및/또는 통신에 관한 연산이나 데이터 처리를 수행할 수 있는 구성으로써, 디스플레이(630), 제2통신 회로(620), 메모리(640)와 전기적 및/또는 기능적으로 연결될 수 있다. 제2프로세서(610)는 각 기능을 수행하는 하드웨어 또는 소프트웨어 구성으로써, 도 7을 통해 후술할 제스쳐 인식 모듈, 기능 맵핑 모듈 및 기능 제어 모듈을 포함하거나, 도 9를 통해 후술할 캐릭터 생성 모듈, 감성 모듈 및 가상 이미지 생성 모듈을 포함할 수 있다. 각각의 모듈의 상세한 기능에 대해서는 도 7 및 도 9를 통해 보다 상세히 설명하기로 한다.The second processor 610 may be configured to perform operations or data processing related to control and / or communication of components of the mobile terminal device 600, and may include a display 630, a second communication circuit 620, The memory 640 may be electrically and / or functionally connected to the memory 640. The second processor 610 is a hardware or software configuration that performs each function, and includes a gesture recognition module, a function mapping module, and a function control module to be described later with reference to FIG. 7, or a character generation module and emotion to be described later with reference to FIG. 9. Module and a virtual image generation module. Detailed functions of each module will be described in more detail with reference to FIGS. 7 and 9.
다양한 실시예에 따르면, 제2통신 회로(620)는 프로젝션 장치로부터 오브젝트 정보를 수신할 수 있다. 여기서, 오브젝트 정보는 오브젝트(예: 도 1의 오브젝트(140))의 존재, 종류(예: 사람의 손, 물체 등) 및 움직임(예: 이동 방향 및 속도 등)를 포함할 수 있다. According to various embodiments, the second communication circuit 620 may receive object information from the projection apparatus. Here, the object information may include the existence, type (eg, human hand, object, etc.) and movement (eg, movement direction and speed, etc.) of the object (eg, the object 140 of FIG. 1).
제2프로세서(610)는 제2통신 회로(620)를 통해 수신된 오브젝트 정보를 획득할 수 있다. 일 실시예에 따르면, 제2프로세서(610)는 프로젝션 장치에서 촬영된 현실 이미지를 수신하고 그로부터 오브젝트 인식을 수행하여 오브젝트 정보를 생성할 수 있으며, 다른 실시예로써 프로젝션 장치에서 직접 오브젝트 인식을 수행한 후 생성된 오브젝트 정보를 수신할 수도 있다.The second processor 610 may obtain object information received through the second communication circuit 620. According to an embodiment of the present disclosure, the second processor 610 may generate the object information by receiving the real image photographed by the projection apparatus and performing object recognition therefrom. In another embodiment, the second processor 610 may perform object recognition directly on the projection apparatus. Afterwards, the generated object information may be received.
다양한 실시예에 따르면, 제2프로세서(610)는 오브젝트 정보에 대응되는 휴대 단말 장치(600)의 제어 동작을 확인하고, 확인된 제어 동작을 수행할 수 있다. 메모리(640)는 각각의 사용자 제스쳐에 따라 휴대 단말 장치(600) 상에서 수행할 수 있는 기능을 맵핑한 테이블을 저장할 수 있으며, 이는 각각의 어플리케이션 별로 할당될 수 있다. 오브젝트 정보가 수신되면, 프로세서는 실행된 어플리케이션 상에서(또는 다른 어플리케이션 상에서 또는 다른 장치 상에서) 수행할 오브젝트 정보를 상기 테이블에서 찾고, 해당 동작을 수행할 수 있다.According to various embodiments of the present disclosure, the second processor 610 may confirm a control operation of the mobile terminal device 600 corresponding to the object information and perform the identified control operation. The memory 640 may store a table that maps functions that may be performed on the mobile terminal device 600 according to each user gesture, and may be allocated to each application. When the object information is received, the processor may find object information to be performed on the executed application (or on another application or on another device) in the table and perform a corresponding operation.
예를 들어, 전자책 어플리케이션이 실행된 상태에서 사용자가 손을 우측으로 이동 시키는 제스쳐는 다음 페이지로 넘기는 동작, 좌측으로 이동 시키는 제스쳐는 이전 페이지로 돌아가는 동작에 대응될 수 있다. 또한, 아래로 이동 시키는 제스쳐는 전자책 어플리케이션을 종료하는 동작에 대응될 수 있다. 다른 예로써, 메시지 어플리케이션이 실행 된 상태에서 사용자가 손을 자신이 위치한 방향으로 이동하는 제스쳐는 수신된 메시지를 음성으로 출력하는 동작, 반대 방향으로 이동하는 제스쳐는 해당 메시지를 삭제하는 동작에 대응될 수 있다. 또한, 메시지 어플리케이션을 실행 후 사용자가 음성으로 메시지를 입력한 경우 손을 위쪽으로 이동하는 제스쳐는 메시지를 전송하는 동작에 대응될 수 있다.For example, in a state in which the e-book application is executed, the gesture for moving the user's hand to the right may correspond to the operation of turning to the next page and the gesture of moving the left to the previous page. In addition, the gesture to move downward may correspond to an operation of terminating the e-book application. As another example, a gesture of moving a user's hand in the direction in which the user moves his / her hand while the message application is executed may correspond to an operation of outputting a received message as a voice and a gesture of moving the gesture in the opposite direction to delete the corresponding message. Can be. Also, when a user inputs a message by voice after executing a message application, a gesture of moving a hand upward may correspond to an operation of transmitting a message.
상기 기능 제어와 관련된 다양한 실시예에 대해서는 도 7 내지 도 8을 통해 보다 상세히 설명하기로 한다.Various embodiments related to the function control will be described in more detail with reference to FIGS. 7 to 8.
다양한 실시예에 따르면, 제2프로세서(610)는 가상 이미지(예: 도 1의 가상 이미지(130))를 생성할 수 있다. 제2프로세서(610)는 생성된 가상 이미지를 제2통신 회로(620)를 통해 프로젝션 장치에 전송하며, 프로젝션 장치는 가상 이미지를 현실 세계로 투영할 수 있다. According to various embodiments, the second processor 610 may generate a virtual image (eg, the virtual image 130 of FIG. 1). The second processor 610 transmits the generated virtual image to the projection apparatus through the second communication circuit 620, and the projection apparatus may project the virtual image into the real world.
다양한 실시예에 따르면, 가상 이미지는 정지 이미지 또는 동영상일 수 있으며, 3차원 입체 영상일 수 있다. 가상 이미지는 캐릭터 이미지를 포함할 수 있다. 캐릭터는 널리 알려진 다양한 종류의 캐릭터가 활용될 수 있으며, 사용자의 선택에 따라 캐릭터 이미지의 종류가 결정될 수 있다. 상기 캐릭터는 휴대 단말 장치(600) 상에서 발생하는 적어도 하나의 이벤트에 따라 변경될 수도 있다.According to various embodiments, the virtual image may be a still image or a video, and may be a 3D stereoscopic image. The virtual image may include a character image. The character may utilize various kinds of well-known characters, and the type of the character image may be determined according to a user's selection. The character may be changed according to at least one event occurring on the mobile terminal device 600.
가상 이미지는 예를 들어, 제2프로세서(610)에 의해 실행된 어플리케이션 또는 위젯에 의해 생성된 이미지에 기반할 수 있다. 일 실시예에 따르면, 시계, 날씨, 음악, SNS, 스케줄, 이메일 등 다양한 어플리케이션에 의해 생성된 이미지들이 가상 이미지에 포함될 수 있다. 예를 들어, 제2프로세서(610)는 시계 어플리케이션에서 생성된 시간 정보를 가상 이미지에 포함할 수 있으며, 시계 알림과 관련된 텍스트 및 캐릭터 이미지를 더 포함할 수 있다.The virtual image may be based on, for example, an image generated by an application or a widget executed by the second processor 610. According to an embodiment, images generated by various applications such as a clock, weather, music, SNS, a schedule, and an email may be included in the virtual image. For example, the second processor 610 may include time information generated by the clock application in the virtual image, and may further include text and character images related to the clock notification.
다양한 실시예에 따르면, 제2프로세서(610)는 휴대 단말 장치(600)에서 발생하는 적어도 하나의 이벤트를 감지하고, 감지된 이벤트에 대응하여 가상 이미지를 생성할 수 있다. 여기서, 상기 이벤트는 실행 중인 어플리케이션 상에서 발생한 이벤트일 수 있다.According to various embodiments, the second processor 610 may detect at least one event occurring in the portable terminal device 600 and generate a virtual image in response to the detected event. In this case, the event may be an event occurring on an executing application.
예를 들어, 스케줄 어플리케이션에서 등록된 특정 스케줄 시간이 도래한 경우, 스케줄 정보를 포함하는 가상 이미지를 생성하여 프로젝션 장치로 제공할 수 있다. 또한, SNS, 메시지 어플리케이션에서 알림이 도달한 경우, 해당 알림 정보를 포함하는 가상 이미지를 생성하여 프로젝션 장치로 제공할 수 있다. 일 실시예에 따르면, 가상 이미지와 함께, 어플리케이션에서 생성된 이벤트 정보(예: 메시지 내용, 알림 효과음 등)를 포함하는 사운드 데이터를 프로젝션 장치로 제공할 수 있다.For example, when a specific schedule time registered in the schedule application arrives, a virtual image including schedule information may be generated and provided to the projection apparatus. In addition, when a notification arrives from the SNS and the message application, a virtual image including the corresponding notification information may be generated and provided to the projection apparatus. According to an embodiment, sound data including event information (eg, message content, notification sound effect, etc.) generated in an application may be provided to the projection apparatus together with the virtual image.
다양한 실시예에 따르면, 제2프로세서(610)는 프로젝션 장치로부터 수신된 오브젝트 정보에 더 기초하여 가상 이미지를 생성할 수 있다. 예를 들어, 제2프로세서(610)는 인식된 오브젝트 정보로부터 사용자의 현 상태(예: 감성 정보 등) 또는 주변 상황(예: 주변 오브젝트들에 기반한 장소/시간 추정 등)을 획득하고, 그에 대해 적합한 가상 이미지를 생성할 수 있다. According to various embodiments, the second processor 610 may generate a virtual image based on the object information received from the projection device. For example, the second processor 610 obtains the current state of the user (for example, emotional information, etc.) or the surrounding situation (for example, a place / time estimation based on surrounding objects, etc.) from the recognized object information. You can create a suitable virtual image.
다양한 실시예에 따르면, 가상 이미지는 소정의 캐릭터를 포함하며, 제2프로세서(610)는 가상 이미지 내에 포함된 캐릭터의 감성 정보를 생성하고, 감성 정보에 따라 가상 이미지에 포함되는 캐릭터를 보정할 수 있다.According to various embodiments, the virtual image includes a predetermined character, and the second processor 610 may generate emotion information of the character included in the virtual image and correct the character included in the virtual image according to the emotion information. have.
예를 들어, 사용자가 즐거운 기분인 경우 캐릭터 이미지의 표정이 밝거나 귀여운 모양의 캐릭터 이미지를 출력할 수 있으며, 우울한 기분인 경우 캐릭터 이미지가 어두운 표정을 가지거나 다소 침울한 모양의 캐릭터 이미지를 출력할 수 있다. For example, if the user is in a pleasant mood, the character image may have a bright or cute shape. If the user is depressed, the character image may have a dark expression or a slightly gloomy shape. Can be.
감성 정보는 희로애락과 같은 사람의 감정 종류에 따라 구분될 수 있으며, 메모리(640)는 각 감성 정보에 대응되는 다양한 캐릭터 이미지를 저장할 수 있다.The emotion information may be classified according to a person's emotion type such as white music, and the memory 640 may store various character images corresponding to each emotion information.
다양한 실시예에 따르면, 제2프로세서(610)는 실행 중인 어플리케이션의 정보를 참고 하여 감성 정보를 생성할 수 있다. 예를 들어, 일정 어플리케이션에서 작성 된 일정을 참고 하여, 일정의 종류 및 개수를 참고할 수 있다. 오늘의 일정이 수업, 시험 등이고 그 수가 많다면 사용자의 감성은 우울한 감정으로 예측할 수 있다. 제2프로세서(610)는 이에 따라 우울한 감정에 대응되는 캐릭터 이미지를 출력할 수 있다. 또 다른 예를 들면, 제2프로세서(610)는 메시지 어플리케이션에서 발신 또는 수신되는 메시지의 텍스트 또는 이모티콘을 참고하여 사용자의 감성을 추정할 수 있다. According to various embodiments, the second processor 610 may generate the emotion information by referring to the information of the running application. For example, referring to a schedule created in a schedule application, the type and number of schedules can be referred to. If today's schedule is a class, a test, etc., and the number is large, the user's emotion can be predicted by depressed emotion. Accordingly, the second processor 610 may output a character image corresponding to the depressed emotion. As another example, the second processor 610 may estimate the emotion of the user by referring to the text or the emoticon of the message sent or received in the message application.
다른 일 실시예에 따르면, 제2프로세서(610)는 제2통신 회로(620)를 통해 수신되는 오브젝트 관련 정보에 기초하여 감성 정보를 생성할 수 있다. 예를 들어, 프로젝션 장치의 오브젝트 센서가 사용자의 얼굴을 촬영하고, 사용자의 얼굴 표정이 우울한 표정으로 인식되는 경우, 제2프로세서(610)는 오브젝트 관련 정보를 참고하여 사용자의 감성이 우울한 것으로 결정하고 그에 대응되는 캐릭터 이미지를 생성할 수 있다.According to another embodiment, the second processor 610 may generate the emotion information based on the object related information received through the second communication circuit 620. For example, when the object sensor of the projection device photographs the user's face and the facial expression of the user is recognized as a depressed expression, the second processor 610 may determine that the user's emotion is depressed with reference to the object related information. Character images corresponding thereto may be generated.
상기 가상 이미지의 생성 및 보정과 관련된 다양한 실시예에 대해서는 도 9 내지 도 10을 통해 보다 상세히 설명하기로 한다.Various embodiments related to generation and correction of the virtual image will be described in more detail with reference to FIGS. 9 to 10.
도 7은 본 발명의 다양한 실시예에 따른 휴대 단말 장치의 제2프로세서의 세부 블록도이다.7 is a detailed block diagram of a second processor of a mobile terminal device according to various embodiments of the present disclosure.
도시된 바와 같이, 제2프로세서(710)(예: 도 6의 제2프로세서(610))는 제스쳐 인식 모듈(712), 기능 맵핑 모듈(714), 기능 제어 모듈(716)을 포함할 수 있다. 상기 각 모듈은 소프트웨어 모듈로써 제2프로세서(710)에 의해 실행되는 프로그램들의 집합일 수 있다. As shown, the second processor 710 (eg, the second processor 610 of FIG. 6) may include a gesture recognition module 712, a function mapping module 714, and a function control module 716. . Each module may be a set of programs executed by the second processor 710 as a software module.
제스쳐 인식 모듈(712)은 프로젝션 장치로부터 수신된 오브젝트 정보를 통해 사용자의 제스쳐를 인식할 수 있다. 예를 들어, 사용자의 제스쳐는 손을 아래 또는 위로 움직이는 제스쳐이거나, 웃는 표정의 얼굴을 띄는 제스쳐를 예로 들 수 있다. 또한, 제스쳐 인식 모듈(712)은 사용자가 아닌 물체에 대한 오브젝트 정보도 획득할 수 있다. The gesture recognition module 712 may recognize the gesture of the user through the object information received from the projection device. For example, the user's gesture may be a gesture of moving a hand down or up, or a gesture having a smiley face. In addition, the gesture recognition module 712 may also obtain object information about an object that is not a user.
제스쳐 인식 모듈(712)은 오브젝트 정보에 기초하여, 다양한 유형의 사용자의 제스쳐를 단순한 동작에 맵핑할 수 있다. 예를 들어, 사용자가 손을 아래로 움직이는 형태는 매우 다양할 것이며, 제스쳐 인식 모듈(712)은 오브젝트 정보를 분석하여 여러 다양한 형태들을 사용자가 손을 아래로 움직이는 형태로 분류하고, 그에 대응하는 식별 코드를 부여할 수 있다. The gesture recognition module 712 may map gestures of various types of users to simple operations based on the object information. For example, the form of the user moving the hand down will be very diverse, the gesture recognition module 712 analyzes the object information to classify the various forms as the user moving the hand down, identification corresponding to You can give a code.
기능 맵핑 모듈(714)은 제스쳐 인식 모듈(712)에서 인식된 제스쳐의 유형과 맵핑되는 제어 동작을 확인할 수 있다. 일 실시예에 따르면, 휴대 단말 장치는 메모리에 각 사용자 제스쳐에 대응하여 휴대 단말 장치(또는 다른 장치) 상에서 수행할 수 있는 기능을 맵핑한 테이블을 저장할 수 있으며, 기능 맵핑 모듈(714)은 저장된 테이블을 참고 하여 제어 동작을 확인할 수 있다. The function mapping module 714 may check a control operation mapped with the type of the gesture recognized by the gesture recognition module 712. According to an embodiment of the present disclosure, the portable terminal device may store a table that maps functions that can be performed on the portable terminal device (or another device) in response to each user gesture, and the function mapping module 714 stores the table. You can check the control operation with reference.
일 실시예에 따르면, 맵핑된 기능들은 어플리케이션 별로 할당될 수 있다. 예를 들어, 사용자가 손을 아래로 움직이는 동일한 동작에 대해, 음악 재생 어플리케이션은 볼륨을 줄이는 제어 명령이 맵핑되어 있을 수 있고, 캘린더 어플리케이션에서는 다음 달의 달력을 표시하느나 제어 명령이 맵핑되어 있을 수 있다. 기능 맵핑 모듈(714)은 현재 제2프로세서(710)에 의해 실행 중인 어플리케이션을 파악하고, 인식된 사용자의 제스쳐와 현재 실행 중인 어플리케이션에 맵핑되는 기능을 테이블 상에서 확인할 수 있다.According to an embodiment, the mapped functions may be allocated for each application. For example, for the same motion as the user moves his hand down, the music playback application may have a control command mapped to decrease the volume, and the calendar application may display a control command mapped to display the calendar for the next month. have. The function mapping module 714 may identify an application currently being executed by the second processor 710, and identify on the table a gesture of the recognized user and a function mapped to the currently running application.
이는 각각의 어플리케이션 별로 할당될 수 있다. 오브젝트 정보가 수신되면, 프로세서는 실행된 어플리케이션 상에서(또는 다른 어플리케이션 상에서 또는 다른 장치 상에서) 수행할 오브젝트 정보를 상기 테이블에서 찾고, 해당 동작을 수행할 수 있다.This may be allocated for each application. When the object information is received, the processor may find object information to be performed on the executed application (or on another application or on another device) in the table and perform a corresponding operation.
일 실시예에 따르면, 기능 맵핑 모듈(714)은 오브젝트 정보에 더불어, 사용자로부터 입력된 음성 데이터에 기반하여 대응되는 제어 동작을 확인할 수 있다. 음성 데이터는 프로젝션 장치 또는 휴대 단말 장치에 의해 획득될 수 있다.According to an embodiment, the function mapping module 714 may identify a corresponding control operation based on the voice data input from the user in addition to the object information. The voice data may be obtained by the projection device or the portable terminal device.
일 실시예에 따르면, 음성 데이터는 맵핑 된 기능을 수행할 어플리케이션 또는 장치를 선택하기 위한 것이거나, 오브젝트 정보와 음성 데이터를 모두 고려하여 대응되는 제어 동작을 확인하기 위한 것일 수 있다.According to an embodiment, the voice data may be for selecting an application or device to perform a mapped function, or for confirming a corresponding control operation in consideration of both object information and voice data.
기능 제어 모듈(716)은 확인된 제어 기능을 수행할 수 있다. 일 실시예에 따르면, 기능 제어 모듈(716)은 확인된 제어 동작을 수행하는 구성(예: 디스플레이(630), 사운드 출력 장치)에 명령을 전송할 수 있다. 일 실시예에 따르면, 확인된 제어 동작은 IoT에 기반하여 외부 장치(예: TV, 조명, 보일러, 전기/가스, 세탁기, 도어락 등)가 수행하는 동작일 수 있으며, 이 경우, 기능 제어 모듈(716)은 제2통신 회로(예: 도 6의 제2통신 회로(620))를 통해 해당 명령을 외부 장치로 전송할 수 있다.The function control module 716 may perform the identified control function. According to an embodiment, the function control module 716 may transmit a command to a component (eg, the display 630 or a sound output device) that performs the identified control operation. According to an embodiment, the identified control operation may be an operation performed by an external device (eg, TV, lighting, boiler, electric / gas, washing machine, door lock, etc.) based on IoT, and in this case, the function control module ( 716 may transmit a corresponding command to an external device through a second communication circuit (eg, the second communication circuit 620 of FIG. 6).
도 8a 내지 8c는 본 발명의 다양한 실시예에 따른 휴대 단말 장치의 기능 제어의 실시예들을 도시한 것이다.8A to 8C illustrate embodiments of function control of a mobile terminal device according to various embodiments of the present disclosure.
도 8a는 사용자의 손의 움직임에 따라 휴대 단말 장치(820) 상에서 수행하는 제어 동작을 예시하고 있다.8A illustrates a control operation performed on the mobile terminal device 820 according to the movement of a user's hand.
프로젝션 장치(810)는 현실 세계에서 사용자의 손이 위치하는 영역을 촬영하고, 오브젝트 인식을 수행할 수 있다. 이 경우, 사용자가 손을 오른쪽에서 왼쪽으로 이동 시키는 동작(830)을 한 것으로 가정한다.The projection device 810 may photograph an area where the user's hand is located in the real world and perform object recognition. In this case, it is assumed that the user has made an operation 830 for moving the hand from right to left.
프로젝션 장치(810)는 이와 같은 사용자의 제스쳐(830)를 포함하는 오브젝트 정보를 휴대 단말 장치(820)에 전송할 수 있다. The projection device 810 may transmit object information including the user's gesture 830 to the mobile terminal device 820.
휴대 단말 장치(820)의 제2프로세서(예: 도 6의 제2프로세서(610))는 오브젝트 정보를 이용하여, 메모리(도 6의 메모리(640)) 상에 저장된 테이블에서 사용자의 제스쳐에 대응되는 제어 동작을 확인할 수 있다. 일 실시예에 따르면, 제2프로세서는 마이크(미도시)를 이용해 수집된 사용자의 음성 데이터를 더 확인하고, 그에 대응되는 제어 동작을 확인할 수 있다.A second processor (eg, the second processor 610 of FIG. 6) of the mobile terminal device 820 corresponds to a user's gesture in a table stored on a memory (memory 640 of FIG. 6) using object information. The control operation can be confirmed. According to an embodiment of the present disclosure, the second processor may further check voice data collected by the user using a microphone (not shown), and check a control operation corresponding thereto.
제2프로세서는 현재 실행 중인 어플리케이션에서 사용자의 제스쳐에 대응되는 제어 동작을 수행할 수 있다. 도시된 바와 같이, 전자책 어플리케이션에서 사용자가 손을 좌로 움직이는 제스쳐(830)에 대응되는 제어 동작은 전자책의 페이지를 넘기는 동작일 수 있다.The second processor may perform a control operation corresponding to the gesture of the user in the currently running application. As shown, the control operation corresponding to the gesture 830 in which the user moves his hand to the left in the e-book application may be an operation of turning a page of the e-book.
일 실시예에 따르면, 제2프로세서는 인식된 사용자 제스쳐와 현재 포 그라운드에서 실행 중인 어플리케이션(예: 도 8a의 전자책 어플리케이션)에 대응되는 제어 동작이 없는 경우, 백 그라운드에서 실행 중인 어플리케이션(예: 음악 어플리케이션)에 대응되는 제어 동작(예: 다음 트랙으로 변경)을 확인하고, 해당 어플리케이션에 대해 확인된 제어 동작을 수행할 수 있다. 제어 동작을 수행하는 어플리케이션의 우선 순위는 사용자의 설정 또는 백 그라운드에서 실행 중인 어플리케이션의 속성에 따라 결정될 수 있다.According to an embodiment of the present disclosure, if there is no control operation corresponding to the recognized user gesture and the application currently running in the foreground (eg, the e-book application of FIG. 8A), the second processor may execute the application running in the background (eg The control operation (eg, change to the next track) corresponding to the music application) and perform the identified control operation for the corresponding application. The priority of an application performing a control operation may be determined according to a user's setting or an attribute of an application running in the background.
도 8b는 인식된 오브젝트와 관련된 정보를 제공하는 동작을 예시하고 있다.8B illustrates an operation for providing information related to a recognized object.
도 8b를 참고 하면, 프로젝션 장치(810)가 획득한 오브젝트 정보는 사용자의 손 및 물체(예: 책, 종이 등) 내의 텍스트 또는 이미지 정보를 포함할 수 있다.Referring to FIG. 8B, the object information obtained by the projection apparatus 810 may include text or image information in a user's hand and an object (eg, a book, paper, etc.).
휴대 단말 장치(820)의 제2프로세서는 사용자의 손가락(830)을 인식하고, 손가락(830)의 주변에 있는 텍스트(예: cygbot)를 확인할 수 있다. 제2프로세서는 해당 텍스트를 인식하고, 해당 텍스트에 대응되는 정보(예: cygbot 홈페이지의 URL)를 인터넷을 통해 확인할 수 있다. 휴대 단말 장치(820)는 확인된 정보를 프로젝션 장치(810)에 제공할 수 있으며, 프로젝션 장치(810)는 해당 텍스트의 주변에 획득한 정보를 투영함으로써 증강 현실을 제공할 수 있다.The second processor of the mobile terminal device 820 may recognize the user's finger 830 and check the text (eg, cygbot) around the finger 830. The second processor may recognize the text and check the information corresponding to the text (eg, the URL of the cygbot homepage) through the Internet. The portable terminal device 820 may provide the confirmed information to the projection device 810, and the projection device 810 may provide augmented reality by projecting the acquired information around the corresponding text.
다른 일 실시예에 따르면, 인식한 텍스트를 다른 언어로 번역하여 표시하거나, 휴대 단말 장치(820)에 저장된 정보(예: 연락처, 메모 등)에서 인식한 텍스트와 관련 정보를 검색할 수 있으며, 인식한 오브젝트가 이미지인 경우 해당 이미지에 대응되는 정보를 검색하여 제공할 수도 있다.According to another exemplary embodiment, the recognized text may be translated and displayed in another language, or the recognized text and related information may be retrieved from information stored in the mobile terminal device 820 (eg, a contact or a memo). When an object is an image, information corresponding to the image may be searched and provided.
도 8c는 다른 장치에서 수행하는 제어 동작의 명령을 전송하는 동작을 예시하고 있다.8C illustrates an operation of transmitting a command of a control operation performed by another device.
일 실시예에 따르면, 휴대 단말 장치(820)의 제2프로세서는 오브젝트 정보에 대응되는 제어 동작이 휴대 단말 장치(820)와 다른 외부 장치 상에서 수행하는 제어 동작인 경우, 제2통신 회로가 상기 제어 동작에 관련된 정보를 상기 다른 외부 장치(850)로 전송하도록 할 수 있다.According to an embodiment of the present disclosure, when the control operation corresponding to the object information is a control operation performed on an external device different from the portable terminal device 820, the second processor of the portable terminal device 820 controls the control. Information related to the operation may be transmitted to the other external device 850.
도시된 바와 같이, 휴대 단말 장치(820)는 다른 외부 장치(850)(예: 텔레비전)와 무선으로 연결될 수 있다. 휴대 단말 장치(820)의 제2프로세서는 프로젝션 장치(810)에 의해 인식된 사용자의 제스쳐가 외부 장치(850)에서 수행하는 제어 동작(예: 채널 변경)인 경우, 해당 제어 동작과 관련된 명령을 외부 장치(850)에 전송할 수 있다.As illustrated, the portable terminal device 820 may be wirelessly connected to another external device 850 (eg, a television). When the user's gesture recognized by the projection device 810 is a control operation (for example, a channel change) performed by the external device 850, the second processor of the portable terminal device 820 may provide a command related to the control operation. It may transmit to the external device 850.
이에 따라, 프로젝션 장치(810) 및 휴대 단말 장치(820)를 이용하여, IoT(internet of things) 기반으로 여러 전자 장치(예: TV, 조명, 보일러, 전기/가스, 세탁기, 도어락 등)를 제어할 수 있다.Accordingly, the projection device 810 and the portable terminal device 820 are used to control various electronic devices (eg, TV, lighting, boiler, electric / gas, washing machine, door lock, etc.) based on the Internet of things (IoT). can do.
도 9a는 본 발명의 다양한 실시예에 따른 휴대 단말 장치의 제2프로세서의 세부 블록도이다.9A is a detailed block diagram of a second processor of a mobile terminal device according to various embodiments of the present disclosure.
도시된 바와 같이, 제2프로세서(910)(예: 도 6의 제2프로세서(610))는 캐릭터 생성 모듈(912), 감성 모듈(914), 가상 이미지 생성 모듈(916)을 포함할 수 있다. 상기 각 모듈은 소프트웨어 모듈로써 제2프로세서(910)에 의해 실행되는 프로그램들의 집합일 수 있다. As shown, the second processor 910 (eg, the second processor 610 of FIG. 6) may include a character generation module 912, an emotion module 914, and a virtual image generation module 916. . Each module may be a set of programs executed by the second processor 910 as a software module.
다양한 실시예에 따르면, 제2프로세서(910)는 도 7에 포함된 각 모듈(예: 제스쳐 인식 모듈(712), 기능 맵핑 모듈(714), 기능 제어 모듈(716))과 도 9a에 포함된 각 모듈을 모두 포함하거나, 그 중 일부만을 포함할 수 있다.According to various embodiments, the second processor 910 may include each module (eg, gesture recognition module 712, function mapping module 714, function control module 716) included in FIG. 7 and FIG. 9A. Each module may be included in all or only some of them.
캐릭터 생성 모듈(912)은 가상 이미지를 통해 표시할 캐릭터를 생성할 수 있다. 캐릭터는 널리 알려진 다양한 종류의 캐릭터가 활용될 수 있으며, 사용자의 선택에 따라 가상 이미지에 포함할 캐릭터의 종류가 결정될 수 있다.The character generation module 912 may generate a character to be displayed through the virtual image. The character may utilize various kinds of well-known characters, and a type of character to be included in the virtual image may be determined according to a user's selection.
감성 모듈(914)은 휴대 단말 장치 상에서 확인된 여러 정보들을 기반으로 사용자의 감성을 예측하고, 그에 따라 캐릭터에 감성 정보를 반영하기 위한 동작을 수행할 수 있다. The emotion module 914 may predict an emotion of the user based on various pieces of information identified on the portable terminal device, and accordingly, may perform an operation for reflecting the emotion information on the character.
일 실시예에 따르면, 제2프로세서(910)는 휴대 단말 장치에서 발생하는 적어도 하나의 이벤트(예: 어플리케이션에서 발생하는 이벤트)에 대응하여 캐릭터의 감성 정보를 생성할 수 있다. 또한, 제2프로세서(910)는 프로젝션 장치로부터 수신된 오브젝트 정보에 더 기초하여 캐릭터의 감성 정보를 생성할 수 있다. 즉, 제2프로세서(910)는 휴대 단말 장치에서 사용자가 설치한 어플리케이션과 사용자의 제스처를 이용하여 사용자의 현재 감성 상태를 예측 할 수 있다.According to an embodiment, the second processor 910 may generate emotion information of the character in response to at least one event (eg, an event occurring in an application) occurring in the portable terminal device. In addition, the second processor 910 may generate the emotion information of the character further based on the object information received from the projection apparatus. That is, the second processor 910 may predict the current emotional state of the user by using the application installed by the user and the gesture of the user in the portable terminal device.
예를 들어, 일정 어플리케이션에서 작성 된 일정을 참고 하여, 일정의 종류 및 개수를 참고할 수 있다. 오늘의 일정이 수업, 시험 등이고 그 수가 많다면 사용자의 감성은 우울한 감정으로 예측할 수 있다. 또 다른 예를 들면, 제2프로세서(910)는 메시지 어플리케이션에서 발신 또는 수신되는 메시지의 텍스트 또는 이모티콘을 참고하여 사용자의 감성을 추정할 수 있다. For example, referring to a schedule created in a schedule application, the type and number of schedules can be referred to. If today's schedule is a class, a test, etc., and the number is large, the user's emotion can be predicted by depressed emotion. For another example, the second processor 910 may estimate the emotion of the user by referring to the text or the emoticon of the message sent or received in the message application.
또한, 프로젝션 장치로부터 수신된 오브젝트 정보를 통해 확인 결과, 사용자의 얼굴 표정이 우울한 표정으로 인식되는 경우, 제2프로세서(910)는 오브젝트 정보를 참고하여 사용자의 감성이 우울한 것으로 결정하고 그에 따라 캐릭터 이미지를 보정할 수 있다.In addition, when the user's facial expression is recognized as a depressed expression through the object information received from the projection apparatus, the second processor 910 determines that the user's emotion is depressed with reference to the object information and accordingly the character image Can be corrected.
일 실시예에 따르면, 제2프로세서(910)는 사용자가 착용하는 웨어러블 기기(예: 스마트 와치, 스마트 글래스 등)로부터 얻게 되는 신체 건강정보를 이용하여 사용자의 감성정보를 얻을 수 있다.According to an embodiment of the present disclosure, the second processor 910 may obtain emotional information of the user using physical health information obtained from a wearable device (for example, a smart watch, a smart glass, etc.) worn by the user.
제2프로세서(910)는 예측된 감성 정보를 기반으로 가상 이미지에 포함된 캐릭터를 보정할 수 있다. 예를 들어, 사용자가 즐거운 기분인 경우 캐릭터 이미지의 표정이 밝거나 귀여운 모양의 캐릭터 이미지를 출력할 수 있으며, 우울한 기분인 경우 캐릭터 이미지가 어두운 표정을 가지거나 다소 침울한 모양의 캐릭터 이미지를 출력할 수 있다. The second processor 910 may correct the character included in the virtual image based on the predicted emotion information. For example, if the user is in a pleasant mood, the character image may have a bright or cute shape. If the user is depressed, the character image may have a dark expression or a slightly gloomy shape. Can be.
감성 정보는 희로애락과 같은 사람의 감정 종류에 따라 구분될 수 있으며, 메모리는 각 감성 정보에 대응되는 다양한 캐릭터 이미지를 저장할 수 있다.Emotional information may be classified according to a person's emotion type such as white music, and the memory may store various character images corresponding to each emotion information.
도 9b는 본 발명의 다양한 실시예에 따른 감성 정보를 생성하기 위한 각 과정을 도시한 것이다.9B illustrates each process for generating emotion information according to various embodiments of the present disclosure.
도시된 감성 정보의 생성 방법은 휴대 단말 장치의 제2프로세서에 의해 수행될 수 있다. The illustrated method of generating emotion information may be performed by a second processor of the portable terminal device.
제2프로세서는 사용자의 행동 패턴 정보 및 환경 정보를 획득할 수 있다. 이 중 적어도 일부는 프로젝션 장치로부터 획득할 수 있다. 제2프로세서는 획득된 정보들을 이용하여 현재 사용자의 감정 상태를 인식할 수 있다.The second processor may acquire behavior pattern information and environment information of the user. At least some of these may be obtained from the projection apparatus. The second processor may recognize the emotional state of the current user using the obtained information.
제2프로세서는 사용자의 감정 상태와 가상 이미지에 사용할 캐릭터의 기본 성향을 바탕으로, 캐릭터에 적용할 속성(예: 표정, 행동 등)을 결정할 수 있다. 일 실시예에 따르면, 제2프로세서는 감정 DB 상에서 캐릭터의 특징과 예측된 사용자의 감성 정보를 활용하여 캐릭터에 적용할 속성을 결정할 수 있다.The second processor may determine attributes (eg, facial expressions, behaviors, etc.) to be applied to the character based on the emotional state of the user and the basic inclination of the character to be used for the virtual image. According to an embodiment, the second processor may determine an attribute to be applied to the character by using the character's characteristic and the predicted user's emotion information on the emotion DB.
제2프로세서는 결정된 속성을 캐릭터에 반영하고, 캐릭터를 포함하는 가상 이미지를 생성하여 프로젝션 장치에 제공할 수 있다. 프로젝션 장치가 가상 이미지를 투영하고 있는 상태에서 사용자의 감성 정보가 변경된 것으로 파악되는 경우, 제2프로세서는 가상 이미지의 캐릭터를 변경하여 프로젝션 장치에 제공할 수 있다.The second processor may reflect the determined attribute on the character, generate a virtual image including the character, and provide the same to the projection apparatus. When it is determined that the emotional information of the user is changed while the projection apparatus is projecting the virtual image, the second processor may change the character of the virtual image and provide it to the projection apparatus.
이에 따라, 증강 현실 시스템은 단순한 정보전달이 아닌 사용자와 감성적 교감을 할 수 있다.Accordingly, the augmented reality system can communicate emotionally with the user, not just information transmission.
도 10a 내지 10c는 본 발명의 다양한 실시예에 따른 캐릭터 이미지를 포함하는 가상 이미지를 도시한 것이다.10A through 10C illustrate virtual images including character images according to various embodiments of the present disclosure.
도 10a는 시계 위젯의 정보를 바탕으로 가상 이미지(1000a)를 생성한 화면을 예시한 것이다. FIG. 10A illustrates a screen on which a virtual image 1000a is generated based on information of a clock widget.
가상 이미지(1000a)는 위젯에서 생성된 시간 정보(1010a)를 포함할 수 있다. 제2프로세서(예: 도 6의 제2프로세서(610))는 시간 정보로부터 텍스트 정보(1012 a)를 생성할 수 있다. 일 실시예에 따르면, 생성된 텍스트 정보(1012a)는 가상 이미지(1000a)의 표시와 적어도 일부 동시에 사운드 출력 장치(미도시)에 의해 사운드로 출력될 수도 있다.The virtual image 1000a may include time information 1010a generated by the widget. The second processor (eg, the second processor 610 of FIG. 6) may generate text information 1012 a from time information. According to an embodiment, the generated text information 1012a may be output as sound by a sound output device (not shown) at least partially simultaneously with the display of the virtual image 1000a.
가상 이미지(1000a)의 일 영역에는 소정의 캐릭터(1050a)가 표시될 수 있다. 상기 캐릭터(1050a)는 사용자의 감성 정보에 기초하여 그 적어도 일부가 변경될 수 있다.A predetermined character 1050a may be displayed in one region of the virtual image 1000a. At least a part of the character 1050a may be changed based on emotion information of the user.
제2프로세서는 이와 같이 생성된 가상 이미지(1000a)를 프로젝션 장치에 제공하고, 프로젝션 장치는 가상 이미지(1000a)를 현실 세계에 투영할 수 있다.The second processor may provide the generated virtual image 1000a to the projection apparatus, and the projection apparatus may project the virtual image 1000a to the real world.
도 10b는 사용자의 감성 정보에 따라 캐릭터 이미지가 변경된 것을 예시한 것이다.10B illustrates that the character image is changed according to the emotion information of the user.
일 실시예에 따르면, 제2프로세서는 일정 어플리케이션에 등록된 내용을 참고 하여, 사용자의 감성 정보를 생성할 수 있다. 예를 들어, 오늘 및 내일의 등록된 일정이 동창회 등 일반적으로 즐거운 내용의 일정인 경우, 제2프로세서는 사용자가 즐거운 감정인 것으로 예측하고, 캐릭터(1050b)를 웃는 얼굴로 보정할 수 있다.According to an embodiment of the present disclosure, the second processor may generate the emotion information of the user with reference to the contents registered in the certain application. For example, if the registered schedule of today and tomorrow is a schedule of generally enjoyable content such as a class reunion, the second processor may predict that the user is a pleasant emotion and correct the character 1050b with a smile.
이에 따라, 사용자는 직접 일정 어플리케이션에 지정된 오늘 일정(1010b)이 무엇인지 정확하게 보지 않고, 캐릭터(1050b)의 표정을 통해 오늘의 일정을 예측할 수도 있다.Accordingly, the user may directly predict the schedule of the day through the expression of the character 1050b without seeing exactly what the schedule 1010b is specified in the schedule application.
도 10c는 사용자의 제스쳐에 따라 캐릭터 이미지가 변경된 것을 예시하고 있다.10C illustrates that the character image is changed according to the gesture of the user.
일 실시예에 따르면, 제2프로세서는 프로젝션 장치로부터 수신한 오브젝트 정보에 기초하여 사용자의 감성 상태를 예측할 수 있다. 예를 들어, 사용자가 손을 빨리 움직이거나(1070c), 화난 표정을 짓는 것이 인식되는 경우, 캐릭터(1050c)의 표정을 그에 대응되도록 변경할 수 있다.According to an embodiment, the second processor may predict the emotional state of the user based on the object information received from the projection apparatus. For example, when it is recognized that the user moves his hand quickly (1070c) or makes an angry facial expression, the facial expression of the character 1050c may be changed to correspond thereto.
상기 도 10a 내지 10c는 일 실시예들에 불과하며, 어플리케이션, 오브젝트 정보 외에 다양한 입력 정보들을 기반으로 다양한 캐릭터 이미지들의 감성을 생성할 수 있다. 또한, 다양한 실시예에 따르면, 휴대 단말 장치는 생성된 가상 이미지 중 적어도 일부를 휴대 단말 장치의 디스플레이에 표시할 수도 있다.10A to 10C are merely exemplary embodiments and may generate emotions of various character images based on various input information in addition to application and object information. According to various embodiments, the mobile terminal device may display at least a portion of the generated virtual image on a display of the mobile terminal device.
도 11는 본 발명의 다양한 실시예에 따라 인식된 이미지를 저장하는 방법을 도시한 것이다.11 illustrates a method of storing a recognized image according to various embodiments of the present disclosure.
다양한 실시예에 따르면, 제2프로세서는 인식된 오브젝트 정보를 메모리에 저장할 수 있다. 이 경우, 제2프로세서는 사용자 제스쳐에 기초하여 저장에 사용할 어플리케이션을 선택할 수 있다.According to various embodiments, the second processor may store the recognized object information in a memory. In this case, the second processor may select an application to use for storage based on the user gesture.
도시된 바와 같이, 명함 이미지가 프로젝션 장치에 의해 인식될 수 있다. 제2프로세서는 오브젝트 정보에 기초하여 명함임을 인식하고, 명함 이미지를 저장할 수 있는 어플리케이션(예: 명함 APP, 메모 APP, 스케줄 APP, 단어 APP)을 탐색할 수 있다.As shown, the business card image may be recognized by the projection device. The second processor may recognize that the card is a business card based on the object information, and search for an application (eg, a business card APP, a memo APP, a schedule APP, a word APP) capable of storing a business card image.
제2프로세서는 탐색된 어플리케이션 중 인식된 명함 이미지를 저장하기 위한 어느 하나를 선택할 수 있는 사용자 인터페이스를 생성하고, 상기 사용자 인터페이스를 가상 이미지에 포함하여 프로젝션 장치에 제공할 수 있다.The second processor may generate a user interface for selecting one of the searched applications for storing the recognized business card image, and include the user interface in a virtual image and provide the same to the projection apparatus.
프로젝션 장치는 가상 이미지를 투영하고, 사용자의 제스쳐의 방향을 인식하여 휴대 단말 장치에 제공할 수 있다. 제2프로세서는 사용자의 제스쳐의 방향에 대응되는 어플리케이션을 이용하여 인식된 명함 이미지를 저장할 수 있다.The projection device may project the virtual image, recognize the direction of the user's gesture, and provide the same to the portable terminal device. The second processor may store the recognized business card image using an application corresponding to the direction of the user's gesture.
도 12는 본 발명의 다양한 실시예에 따른 증강 현실 시스템을 이용한 비서 로봇이 수행할 수 있는 기능들을 도시한 것이다.12 illustrates functions that may be performed by the secretary robot using the augmented reality system according to various embodiments of the present disclosure.
본 발명의 다양한 실시예들에 따르면, 프로젝션 장치(예: 도 1의 프로젝션 장치(110))와 휴대 단말 장치(예: 도 1의 휴대 단말 장치(120))를 이용하여 양방향 인터랙션이 가능하므로, 사용자에게 비서 역할을 하는 비서 로봇으로 활용할 수 있다.According to various embodiments of the present disclosure, since a two-way interaction is possible using a projection device (eg, the projection device 110 of FIG. 1) and a portable terminal device (eg, the mobile terminal device 120 of FIG. 1), It can be used as a secretary robot that serves as a secretary to the user.
예를 들어, 시간 정보와 관련하여, 휴대 단말 장치는 특정 시간 또는 사용자가 등록해 둔 시간에 시간을 알리기 위한 사운드를 출력하고, 프로젝션 장치는 시간 정보와 관련된 가상 이미지를 투영할 수 있다. 이 경우, 사용자는 가상 이미지 상에서 미리 등록된 제스처를 수행함으로써 휴대 단말 장치 또는 다른 장치를 제어하기 위한 소정의 제어 명령을 입력할 수 있다.For example, in relation to the time information, the portable terminal device may output a sound for notifying the time at a specific time or a time registered by the user, and the projection device may project a virtual image related to the time information. In this case, the user may input a predetermined control command for controlling the mobile terminal device or another device by performing a gesture registered in advance on the virtual image.
도 12는 이와 같이 증강 현실 시스템을 통해 구현할 수 있는 다양한 분야들을 예시하고 있으며, 본 발명의 다양한 실시예들이 이에 한정되지는 않는다.12 illustrates various fields that can be implemented through the augmented reality system as described above, and various embodiments of the present invention are not limited thereto.
도 13은 본 발명의 다양한 실시예에 따른 가상 이미지 제공 방법의 흐름도이다.13 is a flowchart illustrating a virtual image providing method according to various embodiments of the present disclosure.
도시된 방법은 앞서 설명한 프로젝션 장치(예: 도 1의 프로젝션 장치(110))와 휴대 단말 장치(예: 도 1의 휴대 단말 장치(120))에 의해 수행될 수 있으며, 이하에서는 앞서 설명한 바 있는 기술적 특징에 대해서는 그 설명을 생략하기로 한다.The illustrated method may be performed by the projection apparatus (for example, the projection apparatus 110 of FIG. 1) and the portable terminal apparatus (for example, the portable terminal apparatus 120 of FIG. 1) described above. Technical description thereof will be omitted.
동작 1310에서, 프로젝션 장치 및 휴대 단말 장치는 무선 통신 연결을 수립할 수 있다. 그에 따라, 프로젝션 장치에서 인식한 오브젝트 정보는 휴대 단말 장치로 제공될 수 있고, 휴대 단말 장치는 프로젝션 장치에 가상 이미지를 제공할 수 있다.In operation 1310, the projection device and the portable terminal device may establish a wireless communication connection. Accordingly, the object information recognized by the projection apparatus may be provided to the portable terminal apparatus, and the portable terminal apparatus may provide a virtual image to the projection apparatus.
동작 1320에서, 휴대 단말 장치는 휴대 단말 장치 상에서 발생한 이벤트를 감지할 수 있다. 일 실시예에 따르면, 상기 이벤트는 휴대 단말 장치에 설치 및 실행 된 어플리케이션(예: 일정, SNS, 메시지 어플리케이션 등) 상에서 발생한 이벤트(예: 알림)를 포함할 수 있다.In operation 1320, the portable terminal device may detect an event occurring on the portable terminal device. According to an embodiment, the event may include an event (eg, notification) occurring on an application (eg, a schedule, SNS, a message application, etc.) installed and executed in the portable terminal device.
동작 1330에서, 휴대 단말 장치는 가상 이미지를 생성할 수 있다. 일 실시예에 따르면, 휴대 단말 장치는 상기 감지된 이벤트에 대응하는 가상 이미지를 생성할 수 있다. 일 실시예에 따르면, 가상 이미지는 소정의 캐릭터 이미지를 포함하며, 휴대 단말 장치는 휴대 단말 장치 상에서 발생한 이벤트 및/또는 수신한 오브젝트 정보 등을 참고 하여, 사용자의 감성 정보를 생성하고, 상기 감성 정보에 바탕하여 캐릭터 이미지를 보정할 수 있다.In operation 1330, the mobile terminal device may generate a virtual image. According to an embodiment, the mobile terminal device may generate a virtual image corresponding to the detected event. According to an embodiment of the present disclosure, the virtual image includes a predetermined character image, and the portable terminal device generates user's emotion information by referring to an event occurring on the portable terminal device and / or received object information and the like, and generates the emotion information. Based on this, the character image can be corrected.
동작 1340에서, 휴대 단말 장치는 가상 이미지를 프로젝션 장치에 제공하고, 프로젝션 장치는 이를 실제 공간에 투영할 수 있다.In operation 1340, the portable terminal device may provide a virtual image to the projection device, and the projection device may project it to the real space.
도 14는 본 발명의 다양한 실시예에 따른 가상 이미지 제공 방법의 흐름도이다.14 is a flowchart illustrating a virtual image providing method according to various embodiments of the present disclosure.
도시된 방법은 앞서 설명한 프로젝션 장치(예: 도 1의 프로젝션 장치(110))와 휴대 단말 장치(예: 도 1의 휴대 단말 장치(120))에 의해 수행될 수 있으며, 이하에서는 앞서 설명한 바 있는 기술적 특징에 대해서는 그 설명을 생략하기로 한다.The illustrated method may be performed by the projection apparatus (for example, the projection apparatus 110 of FIG. 1) and the portable terminal apparatus (for example, the portable terminal apparatus 120 of FIG. 1) described above. Technical description thereof will be omitted.
동작 1410에서, 휴대 단말 장치는 프로젝션 장치로부터 오브젝트 정보를 수신할 수 있다.In operation 1410, the portable terminal device may receive object information from the projection device.
동작 1420에서, 휴대 단말 장치는 오브젝트 정보에 대응되는 상기 휴대 단말 장치(또는 다른 장치)의 제어 동작을 확인할 수 있다.In operation 1420, the portable terminal device may check a control operation of the portable terminal device (or another device) corresponding to the object information.
동작 1430에서, 휴대 단말 장치는 상기 확인된 제어 동작을 수행할 수 있다.In operation 1430, the portable terminal device may perform the identified control operation.

Claims (10)

  1. 휴대 단말 장치에 있어서,In a portable terminal device,
    디스플레이;display;
    메모리;Memory;
    외부의 프로젝션 장치와 통신 하기 위한 통신 회로; 및Communication circuitry for communicating with an external projection device; And
    상기 디스플레이, 메모리 및 통신 회로와 전기적으로 연결되는 프로세서를 포함하며,A processor electrically connected with the display, memory, and communication circuitry;
    상기 프로세서는,The processor,
    상기 휴대 단말 장치에서 발생하는 적어도 하나의 이벤트를 감지하고,Detect at least one event occurring in the portable terminal device,
    상기 이벤트에 대응하여 가상 이미지를 생성하고,Generates a virtual image in response to the event,
    상기 가상 이미지를 상기 통신 회로를 통해 상기 프로젝션 장치에 전송하여 상기 프로젝션 장치가 상기 가상 이미지를 외부로 투영하도록 설정된 휴대 단말 장치.And transmit the virtual image to the projection apparatus through the communication circuit so that the projection apparatus projects the virtual image to the outside.
  2. 제 1항에 있어서,The method of claim 1,
    상기 프로세서는,The processor,
    상기 메모리에 저장된 적어도 하나의 어플리케이션을 실행하고,Executing at least one application stored in the memory,
    상기 어플리케이션에서 발생되는 이벤트에 따라 상기 가상 이미지를 생성하는 휴대 단말 장치.The mobile terminal device to generate the virtual image according to the event generated in the application.
  3. 제 2항에 있어서,The method of claim 2,
    상기 가상 이미지는 적어도 하나의 캐릭터를 포함하고,The virtual image includes at least one character,
    상기 프로세서는,The processor,
    상기 어플리케이션에서 발생되는 이벤트에 따라 상기 캐릭터의 감성 정보를 생성하고, 상기 감성 정보에 따라 상기 가상 이미지에 포함되는 캐릭터를 보정하는 휴대 단말 장치.And generating emotion information of the character according to an event generated in the application, and correcting a character included in the virtual image according to the emotion information.
  4. 제 3항에 있어서,The method of claim 3, wherein
    상기 통신 회로는,The communication circuit,
    상기 프로젝션 장치가 외부의 오브젝트를 인식하여 생성된 오브젝트 정보를 수신하고,The projection apparatus receives object information generated by recognizing an external object,
    상기 프로세서는,The processor,
    상기 수신된 오브젝트 정보에 더 기초하여 상기 캐릭터의 감성 정보를 생성하는 휴대 단말 장치.The mobile terminal device is further configured to generate emotion information of the character based on the received object information.
  5. 휴대 단말 장치의 가상 이미지 제공 방법에 있어서,In the virtual image providing method of a mobile terminal device,
    상기 휴대 단말 장치에서 발생하는 적어도 하나의 이벤트를 감지하는 동작;Detecting at least one event occurring in the portable terminal device;
    상기 이벤트에 대응하여 가상 이미지를 생성하는 동작; 및Generating a virtual image in response to the event; And
    상기 가상 이미지를 외부의 프로젝션 장치에 전송하여 상기 프로젝션 장치가 상기 가상 이미지를 외부로 투영하도록 하는 동작을 포함하는 방법.Transmitting the virtual image to an external projection device to cause the projection device to project the virtual image to the outside.
  6. 프로젝션 장치; 및Projection devices; And
    휴대 단말 장치를 포함하고,A mobile terminal device,
    상기 프로젝션 장치는,The projection device,
    가상 이미지를 외부에 투영하기 위한 프로젝션 모듈;A projection module for projecting the virtual image to the outside;
    주변의 오브젝트를 인식하는 오브젝트 센서; An object sensor for recognizing surrounding objects;
    상기 휴대 단말 장치와 통신하기 위한 제1통신 회로; 및A first communication circuit for communicating with the portable terminal device; And
    상기 인식된 오브젝트에 관련된 오브젝트 정보를 상기 제1통신 회로를 통해 상기 휴대 단말 장치에 전송하도록 하는 제1프로세서를 포함하며,A first processor configured to transmit object information related to the recognized object to the portable terminal device through the first communication circuit,
    상기 휴대 단말 장치는,The portable terminal device,
    상기 프로젝션 장치와 통신하기 위한 제2통신 회로; 및Second communication circuitry for communicating with the projection device; And
    상기 휴대 단말 장치에서 발생하는 적어도 하나의 이벤트를 감지하고, 상기 이벤트에 대응하여 가상 이미지를 생성하고, 상기 가상 이미지를 상기 통신 회로를 통해 상기 프로젝션 장치에 전송하여 상기 프로젝션 장치가 상기 가상 이미지를 외부로 투영하도록 설정된 프로세서를 포함하는 증강 현실 시스템.Detects at least one event occurring in the portable terminal device, generates a virtual image in response to the event, and transmits the virtual image to the projection device through the communication circuit so that the projection device externally transmits the virtual image. Augmented reality system comprising a processor set to project to.
  7. 휴대 단말 장치에 있어서,In a portable terminal device,
    디스플레이;display;
    메모리;Memory;
    외부의 프로젝션 장치와 통신 하기 위한 통신 회로; 및Communication circuitry for communicating with an external projection device; And
    상기 디스플레이, 메모리 및 통신 회로와 전기적으로 연결되는 프로세서를 포함하며,A processor electrically connected with the display, memory, and communication circuitry;
    상기 프로세서는,The processor,
    상기 통신 회로를 통해 상기 프로젝션 장치가 외부의 오브젝트를 인식하여 생성된 오브젝트 정보를 수신하고,Receiving the object information generated by the projection apparatus recognizes an external object through the communication circuit,
    상기 오브젝트 정보에 대응되는 상기 휴대 단말 장치의 제어 동작을 확인하고, Confirm a control operation of the portable terminal device corresponding to the object information;
    상기 확인된 제어 동작을 수행하도록 설정된 휴대 단말 장치.And a portable terminal device configured to perform the identified control operation.
  8. 제 7항에 있어서,The method of claim 7, wherein
    상기 프로세서는,The processor,
    상기 오브젝트 정보에 대응되는 제어 동작이 다른 외부 장치 상에서 수행하는 제어 동작인 경우, 상기 통신 회로가 상기 제어 동작에 관련된 정보를 상기 다른 외부 장치로 전송하도록 하는 휴대 단말 장치.And when the control operation corresponding to the object information is a control operation performed on another external device, causing the communication circuit to transmit information related to the control operation to the other external device.
  9. 제 7항에 있어서,The method of claim 7, wherein
    상기 오브젝트는 사용자의 신체의 일부를 포함하며,The object includes a part of the user's body,
    상기 프로세서는 상기 오브젝트의 이동 방향에 따라 상기 제어 동작을 결정하는 전자 장치.The processor determines the control operation according to the moving direction of the object.
  10. 프로젝션 장치; 및Projection devices; And
    휴대 단말 장치를 포함하고,A mobile terminal device,
    상기 프로젝션 장치는,The projection device,
    가상 이미지를 외부에 투영하기 위한 프로젝션 모듈;A projection module for projecting the virtual image to the outside;
    주변의 오브젝트를 인식하는 오브젝트 센서; An object sensor for recognizing surrounding objects;
    상기 휴대 단말 장치와 통신하기 위한 제1통신 회로; 및A first communication circuit for communicating with the portable terminal device; And
    상기 인식된 오브젝트에 관련된 오브젝트 정보를 상기 제1통신 회로를 통해 상기 휴대 단말 장치에 전송하도록 하는 제1프로세서를 포함하며,A first processor configured to transmit object information related to the recognized object to the portable terminal device through the first communication circuit,
    상기 휴대 단말 장치는,The portable terminal device,
    상기 프로젝션 장치와 통신하기 위한 제2통신 회로; 및Second communication circuitry for communicating with the projection device; And
    상기 제2통신 회로로부터 오브젝트 정보가 수신되는 경우, 상기 오브젝트 정보에 대응되는 상기 휴대 단말 장치의 제어 동작을 확인하고, 상기 확인된 제어 동작을 수행하는 제2프로세서를 포함하는 증강현실 시스템.And a second processor configured to check a control operation of the portable terminal device corresponding to the object information and to perform the identified control operation when object information is received from the second communication circuit.
PCT/KR2017/001964 2017-02-22 2017-02-23 Augmented reality system comprising portable terminal device and projection device WO2018155733A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2017-0023596 2017-02-22
KR1020170023596A KR20180097031A (en) 2017-02-22 2017-02-22 Augmented reality system including portable terminal device and projection device

Publications (1)

Publication Number Publication Date
WO2018155733A1 true WO2018155733A1 (en) 2018-08-30

Family

ID=63252855

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2017/001964 WO2018155733A1 (en) 2017-02-22 2017-02-23 Augmented reality system comprising portable terminal device and projection device

Country Status (2)

Country Link
KR (1) KR20180097031A (en)
WO (1) WO2018155733A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220120303A (en) * 2021-02-23 2022-08-30 삼성전자주식회사 Display device and operating method for the same

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110071349A (en) * 2009-12-21 2011-06-29 삼성전자주식회사 Method and apparatus for controlling external output of a portable terminal
KR20130042010A (en) * 2010-12-29 2013-04-25 엠파이어 테크놀로지 디벨롭먼트 엘엘씨 Environment-dependent dynamic range control for gesture recognition
KR20150046594A (en) * 2013-10-22 2015-04-30 삼성전자주식회사 Terminal apparatus and control method thereof
KR20160045945A (en) * 2014-10-15 2016-04-28 한국과학기술원 Bidirectional interactive user interface based on projector
JP2016126500A (en) * 2014-12-26 2016-07-11 Kddi株式会社 Wearable terminal device and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110071349A (en) * 2009-12-21 2011-06-29 삼성전자주식회사 Method and apparatus for controlling external output of a portable terminal
KR20130042010A (en) * 2010-12-29 2013-04-25 엠파이어 테크놀로지 디벨롭먼트 엘엘씨 Environment-dependent dynamic range control for gesture recognition
KR20150046594A (en) * 2013-10-22 2015-04-30 삼성전자주식회사 Terminal apparatus and control method thereof
KR20160045945A (en) * 2014-10-15 2016-04-28 한국과학기술원 Bidirectional interactive user interface based on projector
JP2016126500A (en) * 2014-12-26 2016-07-11 Kddi株式会社 Wearable terminal device and program

Also Published As

Publication number Publication date
KR20180097031A (en) 2018-08-30

Similar Documents

Publication Publication Date Title
WO2019164374A1 (en) Electronic device and method for managing custom object on basis of avatar
WO2018128526A1 (en) System and method for augmented reality control
WO2016175412A1 (en) Mobile terminal and controlling method thereof
WO2015156465A1 (en) Flexible glass display apparatus and method for controlling the same
WO2016190505A1 (en) Glass type terminal and control method therefor
WO2016093506A1 (en) Mobile terminal and control method therefor
WO2017119664A1 (en) Display apparatus and control methods thereof
WO2019164092A1 (en) Electronic device for providing second content for first content displayed on display according to movement of external object, and operating method therefor
WO2017126741A1 (en) Hmd device and method for controlling same
EP3167610A1 (en) Display device having scope of accreditation in cooperation with depth of virtual object and controlling method thereof
WO2020054978A1 (en) Device and method for generating image
WO2017030236A1 (en) Mobile terminal and control method therefor
WO2019124841A1 (en) Electronic device and method for executing function according to stroke input
WO2020222428A1 (en) Electronic apparatus and method for outputting image thereof
WO2014193136A1 (en) Electronic device, control method of electronic device and computer readable recording medium
WO2022131549A1 (en) Electronic device and operation method of electronic device
WO2020171342A1 (en) Electronic device for providing visualized artificial intelligence service on basis of information about external object, and operating method for electronic device
WO2017126709A1 (en) Mobile terminal and control method therefor
WO2018155733A1 (en) Augmented reality system comprising portable terminal device and projection device
WO2021107200A1 (en) Mobile terminal and mobile terminal control method
WO2021137321A1 (en) Electronic device for displaying content and control method therefor
WO2018070756A1 (en) Method, device and recording medium for processing image
WO2019143002A1 (en) Camera and mobile terminal including same
WO2019245102A1 (en) Method and electronic device for displaying content
WO2018070604A1 (en) Method for processing virtual user interface object for communication between users, and system performing same

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17898129

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17898129

Country of ref document: EP

Kind code of ref document: A1