WO2017065556A1 - Image projection apparatus, method for expanding projection area thereof, and non-temporary computer-readable recording medium - Google Patents

Image projection apparatus, method for expanding projection area thereof, and non-temporary computer-readable recording medium Download PDF

Info

Publication number
WO2017065556A1
WO2017065556A1 PCT/KR2016/011554 KR2016011554W WO2017065556A1 WO 2017065556 A1 WO2017065556 A1 WO 2017065556A1 KR 2016011554 W KR2016011554 W KR 2016011554W WO 2017065556 A1 WO2017065556 A1 WO 2017065556A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
image projection
projection apparatus
processor
module
Prior art date
Application number
PCT/KR2016/011554
Other languages
French (fr)
Korean (ko)
Inventor
김중형
송세준
양성광
이윤기
김희경
박정철
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Publication of WO2017065556A1 publication Critical patent/WO2017065556A1/en

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]

Definitions

  • the present invention relates to an image projection apparatus, a projection area expansion method thereof, and a non-transitory computer readable recording medium, and more particularly, to calculate an expansion projection area by a plurality of image projection devices, and to calculate an image in the calculated expansion area. And a non-transitory computer readable recording medium.
  • a projector is a type of display device that displays an image by projecting an input image signal onto a screen using light emitted from a light source. Such projectors are used for various purposes in conference rooms, theaters, home theaters, and the like.
  • an overlapping area is calculated by capturing an image projected by another device other than the projector, and correction of the overlapping area is performed.
  • an image analysis process and the like are necessary, there is a problem in that it takes a long time to expand the screen.
  • an image that can calculate the entire projection area by using a relative position between a plurality of devices, and can generate content having a size and shape corresponding to the entire projection area
  • a projection device, a method of expanding the projection area thereof, and a non-transitory computer readable recording medium may be provided.
  • An image projection apparatus an optical module for projecting light in the direction of the surface extending from the placement surface on which the image projection apparatus is disposed, other image projection located within a certain distance range from the image projection apparatus
  • the sensor module for detecting a device the communication module and the communication with the detected other image projection device through the communication module, the image is projected through the optical module based on the distance to the other image projection device. It may include a processor.
  • the processor may be configured to generate at least a portion of the content as the image according to a distance from the other image projection apparatus, and combine the image projected by the other image projection apparatus and the image to form one content. have.
  • the processor may be further configured to divide one content into a plurality of sub-images, control the optical module to project one of the plurality of sub-images according to the distance from the other image projection apparatus, and the plurality of subs.
  • the other one of the images may be transmitted to the other image projection apparatus through the communication module.
  • the sensor module outputs a detection value for detecting at least one of a distance from the other image projector, a rotation angle of the image projector, and an angle between the image projector and the other image projector,
  • the communication module may receive information of the other image projection apparatus, and the processor may process an image projected through the optical module based on the detected value and the received information.
  • the other image projection apparatus may include a sensor module that detects a rotation angle of the other image projection apparatus, and the information of the other image projection apparatus may be rotation angle information.
  • the processor may provide a screen for setting which one of a first projection area of the image projection device and a second projection area of the other image projection device is extended.
  • the processor may differently adjust the transparency of the first projection area of the image projection device that overlaps with the second projection area of the other image projection device.
  • the processor may provide a guide message for guiding a position where the other image projection apparatus should be arranged.
  • the optical module may project light when one surface of the image projection apparatus is disposed close to the placement surface, and stop the light projection when one surface of the image projection apparatus is spaced apart from the placement surface. .
  • a method of expanding a projection area of an image projection apparatus may include detecting another image projection apparatus located within a predetermined distance from the image projection apparatus, and communicating with the detected other image projection apparatus. And projecting an image in a surface direction extending from an arrangement surface on which the image projection apparatus is disposed, based on the distance from the other image projection apparatus.
  • the projecting may include generating at least a portion of the content as the image according to a distance from the other image projection apparatus, and combining the image projected by the other image projection apparatus and the image to form one content. can do.
  • the projecting may include: dividing one content into a plurality of sub-images, projecting one of the plurality of sub-images, and a plurality of sub-images according to a distance from the other image projecting device. And transmitting the other to the other image projection apparatus.
  • the sensing may include outputting a detection value for detecting at least one of a distance from the other image projection apparatus, a rotation angle of the image projection apparatus, and an angle between the image projection apparatus and the other image projection apparatus.
  • the communication may include receiving information of the other image projection apparatus, and the projecting may process the projected image based on the detected value and the received information.
  • the other image projector may be information about rotation angles detected by the other image projector.
  • the method may further include providing a screen for setting which one of the first projection area of the image projection device and the second projection area of the other image projection device to extend the projection area.
  • the method may further include differently adjusting transparency of the first projection area of the image projection device that overlaps with the second projection area of the other image projection device.
  • the method may further include providing a guide message for guiding a position where the other image projection apparatus should be arranged.
  • the projecting may include projecting light when one surface of the image projection apparatus is disposed close to the layout surface, and stopping the light projection when one surface of the image projection apparatus is spaced apart from the layout surface. have.
  • non-transitory computer-readable recording medium including a program for executing a method for expanding the projection area of the image projection apparatus according to another embodiment of the present invention, other image projection is located within a certain distance range from the image projection apparatus Detecting a device, communicating with the detected other image projection device, and projecting an image in a direction extending from a placement surface on which the image projection device is disposed, based on a distance from the other image projection device; It may include a method of expanding the projection area of the image projection apparatus including.
  • a user may obtain an effect of quickly and easily projecting an image on a screen having an expanded size only by moving the plurality of image projectors in proximity.
  • FIG. 1A and 1B are views for explaining a concept of an image projection apparatus according to an embodiment of the present invention.
  • FIG. 2 is a schematic block diagram illustrating a configuration of an image projection apparatus according to an embodiment of the present invention
  • 3A is a block diagram for explaining in detail the configuration of an image projection apparatus according to an embodiment of the present invention.
  • 3B illustrates an example of a module stored in a memory of an image projection apparatus according to an embodiment of the present invention
  • 3C is a diagram illustrating examples of an external device capable of receiving data by an image projection device according to an embodiment of the present invention
  • FIG. 4 is a view showing an optical module of the image projection apparatus according to an embodiment of the present invention.
  • 5 to 7B are diagrams for determining a projection area expansion situation of an image projection apparatus according to an embodiment of the present invention.
  • FIGS. 8A to 8C are views illustrating various embodiments of positions where keys are arranged when the area extension function is activated through a key;
  • FIG. 9 is a diagram illustrating a plurality of image projection apparatuses interlocking to project one content image according to an embodiment of the present invention.
  • 10A to 11B are views illustrating region expansion around one image projection apparatus among a plurality of image projection apparatuses according to an embodiment of the present invention
  • 12A to 12C illustrate information necessary for determining an entire projection area in an image projection apparatus according to an embodiment of the present invention
  • 13A to 13E are views for explaining an overlapping area in which projection areas overlap
  • 14A to 15C are diagrams for describing a method of delivering image data, according to various embodiments of the present disclosure.
  • 16A to 16F are diagrams for explaining a method of providing a guide message for guiding a position of an image projection apparatus for creating a specific enlarged area
  • 17 to 19 are flowcharts illustrating a method of expanding a projection area of an image projection apparatus, according to various embodiments of the present disclosure.
  • first and second may be used to describe various components, but the components are not limited by the terms. The terms are only used to distinguish one component from another.
  • first component may be referred to as the second component, and similarly, the second component may also be referred to as the first component.
  • FIGS. 1A and 1B are diagrams for describing a concept of an image projection apparatus 100 according to an exemplary embodiment.
  • the image projection apparatus 100 may be implemented as a projector using a single focus optical system.
  • the image projection apparatus 100 may be a projector using a projection lens mirror system.
  • the image projection apparatus 100 may project an image when the image projection apparatus 100 is located close to a horizontal surface (bottom surface) such as a table.
  • the image projection apparatus 100 may project an image when positioned close to a vertical surface such as a wall surface.
  • Image projection apparatus 100 according to an embodiment of the present invention is different from the general projector in that it projects an image on the installation surface.
  • the image projection apparatus 100 according to an embodiment of the present invention has a difference from a general projector in that it is portable.
  • the image projection apparatus 100 may project an image when the image is close to the target surface (projection surface) to be projected, so that the user may use the image projection function with a simple operation of laying down the image projection apparatus 100. And efficient power management is also possible. That is, the image projection apparatus 100 projects light when one surface of the image projection apparatus 100 is disposed close to the layout surface, and stops light projection when one surface of the image projection apparatus 100 is spaced apart from the layout surface. can do.
  • the image projection apparatus 100-1 may include an optical module 160-1, a communication module 120-1, a sensor module 140-1, and a processor 110-1. .
  • the optical module 160-1 may project an image in a surface direction extending from the placement surface on which the image projection apparatus 100-1 is disposed.
  • the optical module 160-1 may include a lens and a mirror.
  • the size of the image projected by the optical module 160-1 may be determined by the distance between the lens and the mirror. Since the size of the image projected by the image projection apparatus 100-1 is determined, even if a separate device does not capture the image projected by the plurality of image projection apparatuses 100-1, 100-2, the plurality of image projections
  • the size and shape of the entire projection area can be determined using the relative position information between the devices 100-1 and 100-2.
  • the projection distance may be fixed according to the specification of the optical module 160-1 due to the characteristics of the ultra short focus optical system. The configuration of the optical module 160-1 will be described in detail with reference to FIG. 4 below.
  • the sensor module 140-1 may include various types of sensors.
  • the sensor module 140-1 may include an ultrasonic sensor 144, a proximity sensor 147, and the like, which may sense another adjacent image projection device 100-2.
  • the sensor module 140-1 may include a gyro sensor 142, an acceleration sensor 143, a geomagnetic sensor, or the like, which can know the rotation angle of the image projection apparatus 100-1.
  • the front end direction may be defined as the x-axis direction
  • the direction perpendicular to the bottom surface may be defined as the z-axis. have.
  • the rotation angle of the image projection apparatus 100-1 means the degree of rotation about the z axis.
  • the rotation angle may alternatively be represented by the yaw angle.
  • the sensor module 140-1 may use at least one of a distance, an angle, and rotation angle information of the image projection apparatus 100-1 from another image projection apparatus 100-2, which is information necessary to calculate the total projection area using various sensors. You can output a sense value that detects one.
  • the communication module 120-1 may perform a function of communicating with another image projection apparatus 100-2 or the external device 400.
  • the communication module 120-1 may transmit and receive image data, rotation angle information, a control command, and the like with another image projection apparatus 100-2 using a WiFi mirroring method.
  • the communication module 120-1 may use various methods of communication not only WiFi mirroring.
  • the processor 110-1 controls the overall configuration of the image projector 100-1.
  • the processor 110-1 communicates with the detected other image projection apparatus 100-2 through the communication module 120-1, the processor 110-1 is based on the distance from the other image projection apparatus 100-2 to the optical module 160.
  • the image can be projected through -1).
  • the processor 110-1 may generate at least a portion of content as an image according to the distance from the other image projector 100-2 to project the image and the optical module 160-1 from the other image projector 100-2.
  • Images may be combined to form a single content.
  • a part of the content means a part of space.
  • a part of the content means a part of space for each frame constituting the video.
  • the processor 110-1 may divide one content into a plurality of sub images according to the distance from the other image projection apparatus 100-2.
  • the processor 110-1 may control the optical module 160-1 to project one of the plurality of sub-images.
  • the processor 110-1 may control the communication module 120-1 to transmit the other one of the plurality of sub-images to another image projection apparatus 100-2.
  • the plurality of image projectors 100-1 and 100-2 may share sync information for syncing not only a plurality of sub-images, respectively.
  • the processor 110-1 may output a sensed value output from the sensor module 140-1 (distance from another image projection apparatus 100-2, rotation angle of the image projection apparatus 100-1, and image projection). Information of another image projection apparatus 100-2 received through the communication module 120-1 and at least one of angles between the device 100-1 and the other image projection apparatus 100-2. The size and shape of the entire projection area can be determined.
  • the other image projection apparatus 100-2 may also include the sensor module 140-2 itself.
  • the sensor module 140-2 may detect location information including a rotation angle of the other image projector 100-2.
  • the information of the other image projection apparatus 100-2 used by the processor 110-1 may be location information of another image projection apparatus.
  • the processor 110-1 may generate an image having a size and shape corresponding to the size and shape of the entire projection area. For example, the processor 110-1 may generate the projection image in the largest rectangular shape that may be included in the entire projection area.
  • one image projection apparatus of the plurality of image projection apparatuses 100 for expanding the projection area may be determined as a master image projection apparatus in charge of overall control. For example, a method of determining an external device 400 transmitting image data and the first-facing image projection apparatus 100 as a master, a method of receiving a master selection from a user, and an image projection area having the widest of all projection areas. Various methods may be applied, such as a method of determining the image projection apparatus 100 occupying an area as a master.
  • the image projector 100 may include one or more processors 110, a communication module 120, a memory 130, a sensor module 140, an input device 150, an optical module 160, and an interface.
  • An audio module 180, a camera module 191, an indicator 192, a motor 193, a power management module 194, a battery 195, and a wireless charging module 196 may be included.
  • the processor 110 may control a plurality of hardware or software components connected to the processor 110 by driving an operating system or an application program, and may perform various data processing and operations including multimedia data.
  • the processor 110 may be implemented in the form of a system on chip (SoC).
  • SoC system on chip
  • the processor 110 may further include a graphic processing unit (GPU).
  • the communication module 120 is configured as a wireless communication module to perform a wireless communication function with the outside.
  • the communication module 120 may include various modules such as a WiFi module 121, a Bluetooth module 122, and a radio frequency (RF) module 123.
  • RF radio frequency
  • various connection information such as SSID and session key may be transmitted and received first, and then various data may be transmitted and received using the communication connection.
  • the WiFi module 121 and the BT module 122 are illustrated as separate blocks, but may be implemented in the form of an integrated chip (IC) or an IC package including several types of wireless communication modules.
  • IC integrated chip
  • the RF module 123 may transmit and receive data through the transmission and reception of RF signals.
  • the RF module 123 may include a transceiver, a power amp module (PAM), a frequency filter, a low noise amplifier (LNA), or the like.
  • PAM power amp module
  • LNA low noise amplifier
  • the communication module 120 may perform communication according to various communication standards such as IEEE, Zigbee, 3rd Generation (3G), 3rd Generation Partnership Project (3GPP), Long Term Evolution (LTE), and the like.
  • 3G 3rd Generation
  • 3GPP 3rd Generation Partnership Project
  • LTE Long Term Evolution
  • the memory 130 may store various data, programs, or applications for driving and controlling the image projection apparatus 100.
  • the memory 130 may store information about the size and shape of the reference image.
  • the memory 130 may include an internal memory 131.
  • the internal memory 131 may be volatile memory such as dynamic RAM (DRAM), static RAM (SRAM), synchronous dynamic RAM (SDRAM), or one time programmable ROM (OTPROM), programmable ROM (PROM), or erasable EPROM. and non-volatile memory such as programmable ROM (EPROM), electrically erasable and programmable ROM (EEPROM), mask ROM, flash ROM, NAND flash memory, and NOR flash memory.
  • the sensor module 140 may detect a state of the image projector 100 and convert the detected information into an electrical signal.
  • the sensor module 140 may include a gesture sensor 141, a gyro sensor 142, an acceleration sensor 143, an ultrasonic sensor 144, an infrared sensor 145, a hall sensor 146, a proximity sensor 147, and an illuminance sensor. 148 may be included.
  • the sensor module 140 may include an olfactory sensor (E-nose sensor, not shown), an EMG sensor (electromyography sensor, not shown), an EEG sensor (electroencephalogram sensor, not shown), an ECG sensor (electrocardiogram sensor, not shown), It may include an iris sensor (not shown) or a fingerprint sensor (not shown), a pressure sensor (not shown).
  • E-nose sensor not shown
  • EMG sensor electroencephalogram sensor
  • ECG sensor electrocardiogram sensor
  • It may include an iris sensor (not shown) or a fingerprint sensor (not shown), a pressure sensor (not shown).
  • the sensor module 140 may detect whether the image projection apparatus 100 is close to the placement surface. For example, the sensor module 140 may determine whether the sensor module 140 is close to the placement surface by using the illumination sensor 148 attached to one surface of the image projection apparatus 100. In addition, the sensor module 140 may detect a recognition mark marked with infrared rays using the infrared sensor 145. Through this, the sensor module 140 may detect the size and shape of the projected image.
  • the sensor module 140 may determine how much the image is rotated based on the reference direction by determining the degree of rotation of the image projection apparatus 100.
  • the sensor module 140 may detect whether another image projection apparatus 100 ′ is adjacent to each other or a distance from the other image projection apparatus 100 ′.
  • the input device 150 may receive a user input.
  • the input device 150 may include a physical button, an optical key or a keypad.
  • the optical module 160 may project an image.
  • the optical module 160 may include an illumination module 161 and a projection module 162.
  • the projection module 162 may display an image by projecting light onto the projection surface.
  • the projection module 162 may project light in a surface direction extending from the placement surface on which the image projection apparatus 100 is disposed.
  • the optical module 160 may project light when the image projector 100 is located on the placement surface or when the image projection device 100 is located within a predetermined distance from the placement surface. For example, when the image projection apparatus 100 is not close to the placement surface, the power management module 194 may block supplying power to the optical module 160 to prevent the optical module 160 from operating. Can be.
  • the projection module 162 projects light
  • various methods such as DLP, LCOS, 3LCD, and laser may be used.
  • the interface 170 may include a high-definition multimedia interface (HDMI) 171 and a universal serial bus 172 (USB).
  • HDMI high-definition multimedia interface
  • USB universal serial bus
  • the interface 170 may transmit and receive data by wired connection with an external device.
  • the audio module 180 may bidirectionally convert a voice and an electrical signal.
  • the audio module 180 may process voice information input or output through the speaker 181, the microphone 182, or the like.
  • the camera module 191 may capture still images and videos.
  • the camera module 191 may include an image sensor and the like, and may capture a projection image to analyze a property of the projection image.
  • the indicator 192 may display a state of the image projection apparatus 100 or some components thereof, for example, a booting state, a message state, or a charging state.
  • the motor 193 may convert electrical signals into mechanical vibrations.
  • the power management module 194 manages power of the image projector 100. For example, when one surface of the image projection apparatus 100 is disposed to be close to the placement surface on which the image is to be projected, the power management module 194 may apply power to the optical module 160.
  • the battery 195 may store or generate electricity, and supply power to the image projector 100 by using the stored or generated electricity.
  • the battery 195 may include a rechargeable battery or a solar battery.
  • the wireless charging module 196 may include a circuit capable of wireless charging, for example, a circuit such as a coil loop, a resonant circuit or a rectifier.
  • the wireless charging module 169 may use a magnetic resonance method, a magnetic induction method, or an electromagnetic wave method as a wireless charging method.
  • Each of the above-described components of the image projection apparatus 100 according to various embodiments of the present disclosure may be configured with one or more components, and the name of the corresponding component may vary according to the type of device. .
  • the image projection apparatus 100 according to various embodiments of the present disclosure may be configured to include at least one of the above components, and some components may be omitted or further include other components.
  • some of the components of the image projection apparatus 100 according to various embodiments of the present disclosure are combined to form an entity, and thus may perform the same functions of the corresponding components before being combined. have.
  • the memory 130 includes an operating system 132, a signal processing module 133, a device position determination module 134, a projection surface analysis module 135, a projection image expandability determination module 136, and a user. It may include an input processing module 137.
  • the operating system 132 controls the overall operation of the image projection apparatus 100.
  • the signal processing module 133 may perform buffering or signal decoding so that the content received through the communication module 120 may be projected through the optical module 160.
  • the signal processing module 133 may process the image data received by the image projection apparatus 100.
  • the signal processing module 133 may perform various image processing such as decoding, scaling, noise filtering, frame rate conversion, resolution conversion, etc. on the video data.
  • the device position determination module 134 may determine whether the image projection apparatus 100 is located on the placement surface. For example, the device position determination module 134 may determine whether the image projection apparatus 100 is located on the placement surface or approached within a predetermined distance.
  • the device position determination module 134 may determine whether the surface on which the image projection apparatus 100 is located is perpendicular to or horizontal to the gravity direction (eg, perpendicular to the ground surface or horizontal).
  • the projection surface analysis module 135 may correct the image by analyzing the projector projection surface. For example, the projection surface analysis module 135 may correct geometric information color information of the projection image.
  • the projection image expandability determination module 136 may determine whether there is at least one other image projection apparatus in the vicinity of the image projection apparatus 100, and determine the expansion possibility of the projection image.
  • the user input processing module 137 senses a user input in the output projection image and processes data in response thereto.
  • 3C is a diagram illustrating an example of external devices capable of receiving data by the image projection apparatus 100.
  • the image projection apparatus 100 may receive content to be projected from the external device 400 through the communication module 120 or the interface 170.
  • Examples of the external device 400 include a flexible device 400-1, a watch-type device 400-2, a tablet PC 400-3, a mobile device 400-4, a display device 400-5, a notebook computer. Computer 400-6, desktop computer 400-7, wearable device 400-8 such as smart glasses, and the like.
  • the external device 400 is not limited thereto, and any external device 400 may be any device capable of transmitting content to the image projector 100 by wire or wirelessly.
  • the image projector 100 may store the content received from the external device 400 in the memory 130.
  • the illumination optical system 11 and the projection lens unit 13 may be disposed in the housing 16.
  • the light projected by the illumination optical system 11 may change the direction of light vertically through the prism 12.
  • the projection lens unit 13 is composed of a combination of lenses 14, and the combination of lenses 14 serves to prevent an image from being distorted even at a small projection distance.
  • the projection lens unit 13 may include a mirror 15, and may reflect light to the side through the mirror 15. The projection lens unit 13 enables the projection to the side projection surface even at a short projection distance by using the ultra short focus lens in combination of the lenses.
  • the optical module 160 may be configured by horizontally positioning the illumination optical system 11 and the projection lens unit 13 except for the prism 12.
  • the image projection apparatus 100-1 determines whether the screen can be expanded without a separate device, and uses relative position information with another image projection apparatus 100-2.
  • the expanded total projection area can be determined.
  • the processor 110 may detect the proximity of another image projection apparatus 100-2 using the sensor module 140.
  • the processor 110 may determine that the projection area is extended. For example, the processor 110 may expand and extend the projection area by using a magnetic sensor, a proximity sensor, an infrared sensor, a depth camera, a UWB radar, and the like included in the sensor module 140. It can be seen that another image projector 100-2 is in proximity. Since it is necessary to approach within a certain distance to extend the projection area, the processor 110 may activate the projection area extension function only when the approach of another image projection apparatus 100-2 is detected.
  • the processor 110 may activate the projection area extension function only when the approach of the other image projection apparatus 100-2 is detected and the communication with the other image projection apparatus 100-2 is detected.
  • whether to activate the projection area extension function may be guided by the color of the button.
  • the processor 110 may display the color of the button as a color indicating activation (eg, green). Can be.
  • the processor 110 changes the color of the button to a color (for example, red) indicating inactivation. I can display it.
  • the sensor module 140 may start to detect whether another image projection apparatus 100-2 is in proximity.
  • the processor 110 may detect the presence of another image projector 100-2 using the communication module 120.
  • the processor 110 may provide a guide message to inform the user that there is no other image projection apparatus 100-2 in proximity to the user.
  • the processor 110 may provide a guide message to a user by using at least one of a guide image included in a laser, an LED, a mechanical sound, a voice guide, a vibration, and a projection image.
  • the processor 110 may control the optical module 160 to project a guide message such as 'close two devices'.
  • the processor 110 communicates to send a control command that causes the paged external device 400 to provide a guide message, ⁇ close two devices '' with an OSD message or voice.
  • Module 120 can be controlled.
  • the processor 110 may again determine whether it is communicable with the other image projection apparatus 100-2. Can be. In addition, if there is no communication connection, the processor 110 may provide a guide message for the communication connection.
  • the processor 110 when the other image projection apparatus 100-2 is not detected at the periphery for a preset time, the processor 110 does not have the other image projection apparatus 100-2 in the vicinity. You can also provide a guide message to inform the.
  • a user input for allowing the plurality of image projectors 100 to be connected to the same network may be performed.
  • a user input for activating the projection area extension function may be performed.
  • the processor 110 may receive such user input in a variety of ways, as shown in FIGS. 8A-8C.
  • the external device 400 and the first image projector 100-1 are paired with each other so that the screen of the external device 400 is projected by the first image projector 100-1. It can be seen.
  • the processor 110-1 may receive a user input through an input device 150-1 (eg, a physical button) provided outside the image projection apparatus 100-1.
  • FIG. 8B is a diagram illustrating an embodiment in which a button for receiving a user input is included in a projection screen and provided.
  • the processor 110 may determine that a network connection or a projection area extension function activation input has been received.
  • the first image projector 100-1 may receive a user input through the paired external device 400.
  • FIG. 9 is a diagram illustrating that the projection areas of the first image projection device 100-1 and the second image projection device 100-2 are integrated and extended to the entire projection area. It can be seen that the 'A' image provided by the external device 400 is projected on the entire projection area.
  • a plurality of image projectors 100-1 and 100-2 are horizontally arranged, and the processor 110 may cover the entire projection area only by a distance between the plurality of image projectors 100-1 and 100-2. Can be calculated A case where the arrangement of the plurality of image projectors 100-1 and 100-2 is misaligned will be described in detail later with reference to FIG. 12.
  • 10A and 10B illustrate a plurality of image projection apparatuses 100-1 and 100-2 according to an embodiment of the present invention connected to external devices 400-1 and 400-2, respectively. It is a figure which shows the extended case.
  • the first image projector 100-1 is paired with the first external device 400-1 to project an 'A' image provided by the first external device 400-1.
  • the second image projector 100-2 is paired with the second external device 400-2 to project the 'B' image provided by the second external device 400-2.
  • the image projected by any of the image projection devices 100-1 and 100-2 is linked. There is a need to determine whether to project.
  • the processor 110 may select to project the image projected by the image projection apparatus 100 that has requested the projection area expansion function in association.
  • the processor 110 may control the 'A' image to be projected in the entire extended projection area.
  • the processor 110 may control the 'B' image to be projected in the entire extended projection area.
  • the processor 110 may provide a screen for setting which of the first projection area and the second projection area to extend the projection area.
  • the processor 110 may determine the entire projection area based on the area set by the screen.
  • the processor 110 may provide a screen including a UI to determine the entire projection area based on the set area.
  • the entire projection area of the same shape will be determined no matter which projection area is centered.
  • FIGS. 11A and 11B when the image projection directions of the plurality of image projection apparatuses 100-1 and 100-2 are different from each other, the entire projection area (edge blending screen) can be represented. There is a need to decide whether or not to decide.
  • a method of expanding a projection area around the image projection apparatus 100 in which a user command for activating the projection area extension function is input, and connected to an external device 400 for delivering content How to extend the projection area around the image projection device 100, how to extend the projection area around the image projection device 100 that the user last installed, the image projection device 100 last connected to the network Various methods may be applied, such as a method of extending the projection area around the center.
  • FIGS. 12A to 12C a method of calculating an entire projection area according to an embodiment of the present invention will be described with reference to FIGS. 12A to 12C.
  • Image projection apparatus 100 has a projection area of a predetermined size and shape. Accordingly, the entire projection area can be calculated only by the relative arrangement information of the plurality of image projectors 100. In other words, without an image processing process through a separate device, the processor 110 can determine the form in which the plurality of projection areas overlap.
  • the processor 110 may calculate the entire projection area based on only the distance information between the devices. This is because the image projection apparatus 100 according to the exemplary embodiment of the present invention using the ultra short focus optical system has a constant projection area. For example, the processor 110 may measure the distance between the devices using the ultrasonic sensor 144.
  • the processor 110 determines the distance between the devices.
  • the entire projection area can be calculated from the information and the angle information between the devices.
  • the processor 110 may determine the horizontal and vertical distances from the other image projection apparatus 100-2 using the distance information and the angle information. For example, the processor 110 may determine the horizontal and vertical distances by converting the (r, ⁇ ) coordinate values into the (x, y) coordinate values.
  • FIG. 12C illustrates that the image projection apparatus 100-1 rotates the z axis (the axis perpendicular to the placement surface) as the rotation axis, and thus the image projection direction of the image projection apparatus 100-2 does not match.
  • Figure is a diagram.
  • the processor 110 may obtain rotation angle information of the image projection apparatus 100-1 by using the sensor module 140.
  • the sensor module 140 may detect the rotation angle of the image projector 100-1 through the geomagnetic sensor.
  • the processor 110 may determine the total projection area by combining distance information, angle information, and tilt information of the image projection apparatus 100-1 between the plurality of image projection apparatuses 100-1 and 100-2. .
  • the processor 110 may control the communication module 120 to receive rotation angle information of the other image projector 100-2.
  • 13A to 13E illustrate an example of expanding a screen by arranging a plurality of image projection apparatuses 100 in various forms.
  • FIG. 13A illustrates a case where the plurality of image projectors 100-1 and 100-2 are horizontally arranged
  • FIG. 13B illustrates a case where the plurality of image projectors 100-1 and 100-2 are vertically arranged.
  • the case is shown.
  • the processor 100 determines an entire projection area, and among the entire projection areas, the first projection area by the first image projection apparatus 100-1 and the second projection area by the second image projection apparatus 100-2 are determined. It is possible to determine where overlapping regions overlap. Since light is overlapped and projected in the overlapping area, the processor 110 may adjust the transparency of the image projected on the overlapping area so that the brightness of the entire projection area is constant.
  • regions in which the number of overlapping overlapping regions are different are generated.
  • the processor 110 may maintain a constant brightness of the entire projection area by adjusting an alpha value for each overlapping area.
  • the processor 110 may perform correction to rotate and reduce the projected image.
  • the overlapped region is not parallel but has a parallelogram shape.
  • FIGS. 14A to 14C are diagrams illustrating a method of transmitting image data in the image projection apparatus 100 according to an exemplary embodiment.
  • a method of dividing content into a plurality of sub-images by the external device 400 may be applied.
  • An image projected from the first image projector 100-1 will be displayed on the left side of the entire projection area, and an image projected from the second image projector 100-2 will be displayed on the right side of the entire projection area.
  • the processor 110-1 may receive, through the communication module 120-1, data obtained by dividing the content into a plurality of sub-images (eg, a left A screen and a right A screen) in advance by the external device 400. have.
  • the processor 110-1 transmits the remaining A screen data, other than the left A screen data, to be projected through the optical module 160-1, to the other image projection apparatus 100-2. 120-1 can be controlled.
  • FIG. 14B is a diagram illustrating an embodiment in which all devices 400, 100-1, and 100-2 share all image data.
  • the processors 110-1 and 110-2 of the image projection apparatuses 100-1 and 100-2 divide the contents into a plurality of sub-images, and the optical modules 160-1 and 160-2 of the optical modules 160-1 and 160-2. ) To determine the sub image to be projected.
  • the processor 110-1 may divide content (A screen data) received from the external device 400 into a plurality of sub-images.
  • the processor 110-1 projects one of the plurality of sub images (left A screen data) onto the projection surface through the optical module 160-1, and the other of the plurality of sub images (right A screen data).
  • the communication module 120-1 may be controlled to transmit the data to the other image projection apparatus 100-2.
  • 15A to 15C are diagrams for describing a procedure of transmitting data in a plurality of image projection apparatuses 100 according to various embodiments of the present disclosure.
  • the data transferred between the image projection apparatuses 100 may include not only image data but also data on a projection area.
  • a method of distributing and transferring data by the image projector 100 connected to the external device 400 may be applied. That is, the image projection apparatus 100 connected to the external device 400 performs all the functions related to data distribution.
  • FIG. 15B is a diagram illustrating a method of sequentially transmitting data by the plurality of image projection apparatuses 100.
  • the image projection apparatus 100 may deliver only data used in another image projection apparatus among all the data, or may transmit the entire data again as it is.
  • a method of transmitting data may be taken as illustrated in FIG. 15C.
  • the image projection apparatus 100-1 may calculate the entire projection area and generate content suitable for the image projection apparatus 100-1.
  • the processor 110 may provide a guide message for guiding a position where the other image projection apparatus 100-2 should be disposed.
  • the processor 110 may provide various guide messages as shown in FIGS. 16A-16F.
  • the guide message may be provided in at least one of an optical signal, an audio signal, a vibration signal, and an image signal.
  • the image projection apparatus 100-1 may include an LED 192-1 as an indicator.
  • the position where the other image projection apparatus 100-2 is to be disposed may be a horizontal position (P point).
  • the processor 110-1 may control the LED 192-1 to be displayed as a red light source. If the other image projection apparatus 100-2 is disposed at a corresponding position, the processor 110-1 may control the LED 192-1 to be displayed as a green light source.
  • the processor 110 may provide a guide to the user by varying the blinking speed of the LED 192-1 in proportion to the distance from the target point.
  • the shape of the light source may be used to indicate a direction to be moved.
  • the indicator 192 may include a plurality of LED lamps.
  • the processor 110-1 may display a position where the other image projection apparatus 100-2 should be disposed by using a laser.
  • 16D and 16E illustrate an embodiment in which the processor 110-1 provides a guide message for guiding a location where the other image projection apparatus 100-2 should be disposed according to a desired image ratio.
  • the processor 110-1 provides a guide message for guiding a location where the other image projection apparatus 100-2 should be disposed according to a desired image ratio.
  • the enlarged entire projection area has an image ratio of 4: 3. If the other image projector 100-2 is disposed at the point P4, the entire enlarged projection area has an image ratio of 16: 9.
  • the processor 110-1 may cause the optical module 160 to project a guide message indicating the image ratio. Can be controlled. In the case of FIG. 16D, the processor 110-1 may control the optical module 160 to project a 16: 9 guide message. Likewise, in the case of FIG. 16E, the processor 110-1 may control the optical module 160 to project a 4: 3 guide message.
  • FIG. 16E is a diagram illustrating an embodiment of projecting a guide message for guiding a direction in which another image projection apparatus 100-2 should move. If the other image projection apparatus 100-2 is disposed at a position capable of constructing a desired extended screen, a guide message such as 'put on the screen extended position' may be provided through the projection screen.
  • the processor 110 may provide a distance between the plurality of image projectors 100 as an audio signal or a vibration signal.
  • the processor 110 may control the audio module 180 such that a voice signal is generated as the distance between the plurality of image projectors 100 approaches.
  • the processor 110 may control the motor 193 so that vibration is generated as the distance between the plurality of image projectors 100 approaches.
  • a user can project an image on a screen of an expanded size quickly and easily by only moving the plurality of image projectors in proximity.
  • 17 to 19 are flowcharts illustrating a method of expanding a projection area of an image projection apparatus 100 according to various embodiments of the present disclosure.
  • the image projection apparatus 100 detects whether another adjacent image projection apparatus 100-2 exists (S1710).
  • the image projection apparatus 100 may detect whether another image projection apparatus 100-2 is located within a predetermined distance range by using an ultrasonic sensor or a proximity sensor.
  • the image projector 100 communicates with another detected image projector. Since the process of transmitting the area data and the image data is necessary, the image projection apparatus 100 may further determine the possibility of communication connection.
  • the image projection apparatus 100 When communicating with another image projection apparatus 100-2, the image projection apparatus 100 displays an image based on the detected distance from the other image projection apparatus 100-2, on which the image projection apparatus 100 is disposed. It can project in the surface direction extending from the (S1730).
  • 18 is a flowchart illustrating a method of expanding a projection area of the image projection apparatus 100 according to an embodiment of the present invention in more detail. 18 illustrates the interlocking operation with the other image projection apparatus 100-2 described in detail in operation S1730 in more detail.
  • Steps S1810 and S1820 correspond to steps S1710 and S1720, and a description thereof will be omitted.
  • the image projection apparatus 100 When the image projection apparatus 100 detects the other image projection apparatus 100-2 and confirms that the communication is connected, the first projection area of the image projection apparatus 100 and the second projection of the other image projection apparatus 100-2 The entire projection area is determined by combining the areas (S1830). For example, the image projection apparatus 100 may determine how the first projection region and the second projection region are based on the relative distance, angle, and rotation angle information of the image projection apparatus 100 from another image projection apparatus 100-2. You can determine if it is deployed. By combining this information, the image projector 100 may determine the size and shape of the entire projection area.
  • the image projection apparatus 100 generates content having a size and shape corresponding to the size and shape of the entire projection area (S1840).
  • the image projection apparatus 100 may determine an area occupied by the first projection region and the second projection region among the entire projection regions, and may determine the content portion that should be projected by each of the image projection apparatuses 100 and 100-2. have. That is, the image projecting apparatus 100 is configured to generate another content by combining the image projected by the other image projector 100-2 and the image projected by the image projecting apparatus 100 to form one content. 2) at least a part of the content may be generated as an image according to a distance from the content.
  • the image projection apparatus 100 may divide the content into a plurality of sub-images.
  • the image projection apparatus 100 projects a sub-image to be projected in the first projection area among the plurality of sub-images onto the projection surface, and the sub-image projection apparatus 100-2 to project the sub-image to be projected in the second projection area. It may be provided as (S1860).
  • 19 is a flowchart illustrating a process of determining whether the image projection apparatus 100 according to an embodiment of the present invention can execute a projection area extension function.
  • the image projection apparatus 100 may receive a user command for activating the projection area extension function (S1910). In response to the user command, the image projection apparatus 100 determines whether the other image projection apparatus 100-2 is located within a predetermined distance (S1920). The image projection apparatus 100 may determine whether another image projection apparatus 100-2 exists within a predetermined distance by using a proximity sensor or an ultrasonic sensor. If there is no other image projection apparatus 100-2 within a predetermined distance (S1920-N), the image projection apparatus 100 may provide a guide message for distance movement (S1950). For example, the image projection apparatus 100 may provide a guide message for designating a specific position as well as moving the distance.
  • the image projection apparatus 100 checks whether each image projection apparatus is in a communication connection state (S1930). Since the projection area expansion function may be performed under the premise of transmitting and receiving data, when it is determined that the communication connection is not made (S1930-N), the image projection apparatus 100 may provide a guide for the communication connection ( S1960).
  • the image projection apparatus 100 may execute the projection area extension function in conjunction with the other image projection apparatus 100-2.
  • the methods described above may be embodied in the form of program instructions that may be executed by various computer means and may be recorded in a computer readable medium.
  • the computer readable medium may include program instructions, data files, data structures, etc. alone or in combination.
  • Program instructions recorded on the media may be those specially designed and constructed for the purposes of the present invention, or they may be of the kind well-known and available to those having skill in the computer software arts.
  • Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tape, optical media such as CD-ROMs, DVDs, and magnetic disks, such as floppy disks.
  • Examples of program instructions include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like.
  • the hardware device may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Geometry (AREA)
  • Optics & Photonics (AREA)

Abstract

Provided are an image projection apparatus, a method for expanding the projection area thereof, and a non-temporary computer-readable recording medium. An image projection apparatus according to one embodiment of the present invention may comprise: an optical module for projecting a beam in a surface direction extending from the placement surface on which the image projection apparatus is placed; a sensor module, located within a set distance from the image projection apparatus, for sensing another image projection apparatus; a communication module; and a processor for projecting, via the optical module, the image on the basis of the distance from the other image projection apparatus when communication is established with the other sensed image projection apparatus by means of the communication module.

Description

영상 투사 장치, 그의 투사 영역 확장 방법 및 비일시적 컴퓨터 판독가능 기록매체Image projection apparatus, its projection area expansion method and non-transitory computer readable recording medium
본 발명은 영상 투사 장치, 그의 투사 영역 확장 방법 및 비일시적 컴퓨터 판독가능 기록매체에 관한 것으로, 더욱 구체적으로는, 복수의 영상 투사 장치에 의한 확장 투사 영역을 계산하고, 영상을 계산된 확장 영역에 맞게 보정하는 영상 투사 장치, 그의 투사 영역 확장 방법 및 비일시적 컴퓨터 판독가능 기록매체에 관한 것이다.The present invention relates to an image projection apparatus, a projection area expansion method thereof, and a non-transitory computer readable recording medium, and more particularly, to calculate an expansion projection area by a plurality of image projection devices, and to calculate an image in the calculated expansion area. And a non-transitory computer readable recording medium.
프로젝터는 입력된 영상 신호를 광원에서 방출되는 빛을 이용하여 스크린에 투영시켜 영상을 보여주는 디스플레이 장치의 일종이다. 이러한, 프로젝터는 회의실, 극장, 가정의 홈시어터 등에 다양하게 이용되고 있다.A projector is a type of display device that displays an image by projecting an input image signal onto a screen using light emitted from a light source. Such projectors are used for various purposes in conference rooms, theaters, home theaters, and the like.
하지만, 기존의 프로젝터는 크고, 무거우며, 고정된 위치에 설치하여 활용되었다는 점에서 불편함이 존재하였다. 이에 따라, 휴대성을 강조한 피코 프로젝터가 개발되었으나, 원하는 영상을 보기 위해서 삼각대를 설치하고, 초점을 맞추는 번거로운 과정이 필요하였다. 이와 더불어, 프로젝터 면과 프로젝트 사이에 사람이나 물체가 존재하면 그림자가 생겨, 컨텐츠를 시청하는데 방해요소로 작용한다는 문제점이 있었다.However, the existing projectors were inconvenient in that they were installed in a large, heavy, fixed location. Accordingly, although a pico projector that emphasizes portability has been developed, a cumbersome process of installing and focusing on a tripod is required to view a desired image. In addition, there is a problem that if a person or an object exists between the projector surface and the project, shadows are generated, which interferes with viewing content.
기존에 복수의 프로젝터를 이용하여 화면을 확장하고자 할 때, 프로젝터 이외에 별도의 장치가 투사된 영상을 촬영하여 겹침 영역을 계산하고, 겹침 영역에 대한 보정을 수행하였다. 이와 같이, 영상 분석 과정 등이 필수적으로 필요하였기 때문에, 화면 확장에 많은 시간이 소요되는 문제점이 존재하였다.When a screen is expanded by using a plurality of projectors, an overlapping area is calculated by capturing an image projected by another device other than the projector, and correction of the overlapping area is performed. As such, since an image analysis process and the like are necessary, there is a problem in that it takes a long time to expand the screen.
상술한 문제점을 해결하기 위한 본 발명의 일 실시 예에 따르면, 복수의 디바이스 간의 상대적 위치를 이용하여 전체 투사 영역을 계산하고, 전체 투사 영역에 대응되는 크기 및 형태를 갖는 컨텐츠를 생성할 수 있는 영상 투사 장치, 그의 투사 영역 확장 방법 및 비일시적 컴퓨터 판독가능 기록매체가 제공될 수 있다.According to an embodiment of the present invention for solving the above problems, an image that can calculate the entire projection area by using a relative position between a plurality of devices, and can generate content having a size and shape corresponding to the entire projection area A projection device, a method of expanding the projection area thereof, and a non-transitory computer readable recording medium may be provided.
본 발명의 일 실시 예에 따른 영상 투사 장치는, 상기 영상 투사 장치가 배치된 배치면으로부터 연장된 표면 방향으로 광을 투사하기 위한 광학 모듈, 상기 영상 투사 장치로부터 일정 거리 범위 이내에 위치하는 타 영상 투사 장치를 감지하기 위한 센서 모듈, 통신 모듈 및 상기 감지된 타 영상 투사 장치와 상기 통신 모듈을 통해 통신이 되면, 상기 타 영상 투사 장치와의 거리에 기초하여 상기 광학 모듈을 통하여 상기 영상이 투사되도록 하는 프로세서를 포함할 수 있다.An image projection apparatus according to an embodiment of the present invention, an optical module for projecting light in the direction of the surface extending from the placement surface on which the image projection apparatus is disposed, other image projection located within a certain distance range from the image projection apparatus When the sensor module for detecting a device, the communication module and the communication with the detected other image projection device through the communication module, the image is projected through the optical module based on the distance to the other image projection device. It may include a processor.
그리고, 상기 프로세서는, 상기 타 영상 투사 장치와의 거리에 따라 상기 컨텐츠의 적어도 일 부분을 상기 영상으로 생성하여 상기 타 영상 투사 장치에서 투사하는 영상과 상기 영상이 조합되어 하나의 컨텐츠를 구성할 수 있다.The processor may be configured to generate at least a portion of the content as the image according to a distance from the other image projection apparatus, and combine the image projected by the other image projection apparatus and the image to form one content. have.
또한, 상기 프로세서는, 상기 타 영상 투사 장치와의 거리에 따라, 하나의 컨텐츠를 복수의 서브 영상으로 분할하고, 상기 복수의 서브 영상 중 하나를 투사하도록 상기 광학 모듈을 제어하고, 상기 복수의 서브 영상 중 다른 하나를 상기 타 영상 투사 장치로 상기 통신 모듈을 통하여 전송할 수 있다.The processor may be further configured to divide one content into a plurality of sub-images, control the optical module to project one of the plurality of sub-images according to the distance from the other image projection apparatus, and the plurality of subs. The other one of the images may be transmitted to the other image projection apparatus through the communication module.
그리고, 상기 센서 모듈은, 상기 타 영상 투사 장치와의 거리, 상기 영상 투사 장치의 회전 각도, 상기 영상 투사 장치와 상기 타 영상 투사 장치 사이의 각도 중 적어도 하나 이상을 감지하는 감지 값을 출력하고, 상기 통신 모듈은, 상기 타 영상 투사 장치의 정보를 수신하고, 상기 프로세서는, 상기 감지 값과 상기 수신된 정보를 기반으로 상기 광학 모듈을 통해 투사되는 영상을 처리할 수 있다.The sensor module outputs a detection value for detecting at least one of a distance from the other image projector, a rotation angle of the image projector, and an angle between the image projector and the other image projector, The communication module may receive information of the other image projection apparatus, and the processor may process an image projected through the optical module based on the detected value and the received information.
또한, 상기 타 영상 투사 장치는 타 영상 투사 장치의 회전 각도를 감지하는 센서 모듈을 구비하고, 상기 타 영상 투사 장치의 정보는 회전 각도 정보일 수 있다.The other image projection apparatus may include a sensor module that detects a rotation angle of the other image projection apparatus, and the information of the other image projection apparatus may be rotation angle information.
그리고, 상기 프로세서는, 상기 영상 투사 장치의 제1 투사 영역 및 상기 타 영상 투사 장치의 제2 투사 영역 중 어느 영역을 중심으로 투사 영역을 확장할 것인지를 설정하는 화면을 제공할 수 있다.The processor may provide a screen for setting which one of a first projection area of the image projection device and a second projection area of the other image projection device is extended.
또한, 상기 프로세서는, 상기 영상 투사 장치의 제1 투사 영역 중에서 상기 타 영상 투사 장치의 제2 투사 영역과 중첩되는 영역의 투명도를 상이하게 조정할 수 있다.The processor may differently adjust the transparency of the first projection area of the image projection device that overlaps with the second projection area of the other image projection device.
그리고, 상기 프로세서는, 영상의 확대 비율이 설정되면, 상기 타 영상 투사 장치가 배치되어야 하는 위치를 안내하는 가이드 메시지를 제공할 수 있다.When the enlargement ratio of the image is set, the processor may provide a guide message for guiding a position where the other image projection apparatus should be arranged.
또한, 상기 광학 모듈은, 상기 배치면에 상기 영상 투사 장치의 일 면이 근접하도록 배치되면 광을 투사하고, 상기 배치면으로부터 상기 영상 투사 장치의 일 면이 이격되면 상기 광 투사를 중지할 수 있다.The optical module may project light when one surface of the image projection apparatus is disposed close to the placement surface, and stop the light projection when one surface of the image projection apparatus is spaced apart from the placement surface. .
한편, 본 발명의 다른 실시 예에 따른 영상 투사 장치의 투사 영역 확장 방법은, 상기 영상 투사 장치로부터 일정 거리 범위 이내에 위치하는 타 영상 투사 장치를 감지하는 단계, 상기 감지된 타 영상 투사 장치와 통신하는 단계 및 상기 타 영상 투사 장치와의 거리에 기초하여 영상을 상기 영상 투사 장치가 배치된 배치면으로부터 연장된 표면 방향으로 투사하는 단계를 포함할 수 있다.In another aspect, a method of expanding a projection area of an image projection apparatus may include detecting another image projection apparatus located within a predetermined distance from the image projection apparatus, and communicating with the detected other image projection apparatus. And projecting an image in a surface direction extending from an arrangement surface on which the image projection apparatus is disposed, based on the distance from the other image projection apparatus.
그리고, 상기 투사하는 단계는, 상기 타 영상 투사 장치와의 거리에 따라 상기 컨텐츠의 적어도 일 부분을 상기 영상으로 생성하여 상기 타 영상 투사 장치에서 투사하는 영상과 상기 영상이 조합되어 하나의 컨텐츠를 구성할 수 있다.The projecting may include generating at least a portion of the content as the image according to a distance from the other image projection apparatus, and combining the image projected by the other image projection apparatus and the image to form one content. can do.
또한, 상기 투사하는 단계는, 상기 타 영상 투사 장치와의 거리에 따라, 하나의 컨텐츠를 복수의 서브 영상으로 분할하는 단계, 상기 복수의 서브 영상 중 하나를 투사하는 단계 및 상기 복수의 서브 영상 중 다른 하나를 상기 타 영상 투사 장치로 전송하는 단계를 포함할 수 있다.The projecting may include: dividing one content into a plurality of sub-images, projecting one of the plurality of sub-images, and a plurality of sub-images according to a distance from the other image projecting device. And transmitting the other to the other image projection apparatus.
그리고, 상기 감지하는 단계는, 상기 타 영상 투사 장치와의 거리, 상기 영상 투사 장치의 회전 각도, 상기 영상 투사 장치와 상기 타 영상 투사 장치 사이의 각도 중 적어도 하나 이상을 감지하는 감지 값을 출력하고, 상기 통신하는 단계는, 상기 타 영상 투사 장치의 정보를 수신하며, 상기 투사하는 단계는, 상기 감지 값과 상기 수신된 정보를 기반으로 상기 투사되는 영상을 처리할 수 있다.The sensing may include outputting a detection value for detecting at least one of a distance from the other image projection apparatus, a rotation angle of the image projection apparatus, and an angle between the image projection apparatus and the other image projection apparatus. The communication may include receiving information of the other image projection apparatus, and the projecting may process the projected image based on the detected value and the received information.
또한, 상기 타 영상 투사 장치의 정보는 상기 타 영상 투사 장치에서 감지된 회전 각도 정보일 수 있다.The other image projector may be information about rotation angles detected by the other image projector.
그리고, 상기 영상 투사 장치의 제1 투사 영역 및 상기 타 영상 투사 장치의 제2 투사 영역 중 어느 영역을 중심으로 투사 영역을 확장할 것인지를 설정하는 화면을 제공하는 단계를 더 포함할 수 있다.The method may further include providing a screen for setting which one of the first projection area of the image projection device and the second projection area of the other image projection device to extend the projection area.
또한, 상기 영상 투사 장치의 제1 투사 영역 중에서 상기 타 영상 투사 장치의 제2 투사 영역과 중첩되는 영역의 투명도를 상이하게 조정하는 단계를 더 포함할 수 있다.The method may further include differently adjusting transparency of the first projection area of the image projection device that overlaps with the second projection area of the other image projection device.
그리고, 영상의 확대 비율이 설정되면, 상기 타 영상 투사 장치가 배치되어야 하는 위치를 안내하는 가이드 메시지를 제공하는 단계를 더 포함할 수 있다.If the enlargement ratio of the image is set, the method may further include providing a guide message for guiding a position where the other image projection apparatus should be arranged.
또한, 상기 투사하는 단계는, 상기 배치면에 상기 영상 투사 장치의 일 면이 근접하도록 배치되면 광을 투사하고, 상기 배치면으로부터 상기 영상 투사 장치의 일 면이 이격되면 상기 광 투사를 중지할 수 있다.The projecting may include projecting light when one surface of the image projection apparatus is disposed close to the layout surface, and stopping the light projection when one surface of the image projection apparatus is spaced apart from the layout surface. have.
한편, 본 발명의 또 다른 실시 예에 따른 영상 투사 장치의 투사 영역 확장 방법을 실행하기 위한 프로그램을 포함하는 비일시적 컴퓨터 판독가능 기록매체는, 상기 영상 투사 장치로부터 일정 거리 범위 이내에 위치하는 타 영상 투사 장치를 감지하는 단계, 상기 감지된 타 영상 투사 장치와 통신하는 단계 및 상기 타 영상 투사 장치와의 거리에 기초하여 영상을 상기 영상 투사 장치가 배치된 배치면으로부터 연장된 표면 방향으로 투사하는 단계를 포함하는 영상 투사 장치의 투사 영역 확장 방법을 포함할 수 있다.On the other hand, non-transitory computer-readable recording medium including a program for executing a method for expanding the projection area of the image projection apparatus according to another embodiment of the present invention, other image projection is located within a certain distance range from the image projection apparatus Detecting a device, communicating with the detected other image projection device, and projecting an image in a direction extending from a placement surface on which the image projection device is disposed, based on a distance from the other image projection device; It may include a method of expanding the projection area of the image projection apparatus including.
상술한 바와 같은 본 발명의 다양한 실시 예에 의하면, 사용자는 복수의 영상 투사 장치를 근접시키는 동작만으로 신속하고 용이하게 확장된 크기의 화면으로 영상을 투사할 수 있는 효과를 얻을 수 있다.According to various embodiments of the present disclosure as described above, a user may obtain an effect of quickly and easily projecting an image on a screen having an expanded size only by moving the plurality of image projectors in proximity.
도 1a 및 도 1b는 본 발명의 일 실시 예에 따른 영상 투사 장치의 개념을 설명하기 위한 도면,1A and 1B are views for explaining a concept of an image projection apparatus according to an embodiment of the present invention;
도 2는 본 발명의 일 실시 예에 따른 영상 투사 장치의 구성을 설명하기 위한 개략적인 블럭도,2 is a schematic block diagram illustrating a configuration of an image projection apparatus according to an embodiment of the present invention;
도 3a는 본 발명의 일 실시 예에 따른 영상 투사 장치의 구성을 상세히 설명하기 위한 블럭도,3A is a block diagram for explaining in detail the configuration of an image projection apparatus according to an embodiment of the present invention;
도 3b는 본 발명의 일 실시 예에 따른 영상 투사 장치의 메모리에 저장되는 모듈의 예를 도시한 도면,3B illustrates an example of a module stored in a memory of an image projection apparatus according to an embodiment of the present invention;
도 3c는 본 발명의 일 실시 예에 따른 영상 투사 장치가 데이터를 수신할 수 있는 외부 기기의 예시들을 도시한 도면,3C is a diagram illustrating examples of an external device capable of receiving data by an image projection device according to an embodiment of the present invention;
도 4는 본 발명의 일 실시 예에 따른 영상 투사 장치의 광학 모듈을 도시한 도면,4 is a view showing an optical module of the image projection apparatus according to an embodiment of the present invention;
도 5 내지 도 7b는 본 발명의 일 실시 예에 따른 영상 투사 장치의 투사 영역 확장 상황 판단에 관한 도면,5 to 7B are diagrams for determining a projection area expansion situation of an image projection apparatus according to an embodiment of the present invention;
도 8a 내지 도 8c는 영역 확장 기능을 키를 통해 활성화 시킬 경우, 키가 배치된 위치의 다양한 실시 예를 도시한 도면,8A to 8C are views illustrating various embodiments of positions where keys are arranged when the area extension function is activated through a key;
도 9는 본 발명의 일 실시 예에 따른 복수의 영상 투사 장치가 연동하여 하나의 컨텐츠 영상을 투사하는 것을 도시한 도면,9 is a diagram illustrating a plurality of image projection apparatuses interlocking to project one content image according to an embodiment of the present invention;
도 10a 내지 도 11b는 본 발명의 일 실시 예에 따른 복수의 영상 투사 장치 중 하나의 영상 투사 장치를 중심으로 영역 확장된 것을 도시한 도면,10A to 11B are views illustrating region expansion around one image projection apparatus among a plurality of image projection apparatuses according to an embodiment of the present invention;
도 12a 내지 도 12c는 본 발명의 일 실시 예에 따른 영상 투사 장치에서 전체 투사 영역을 결정하는데 필요한 정보들을 도시한 도면,12A to 12C illustrate information necessary for determining an entire projection area in an image projection apparatus according to an embodiment of the present invention;
도 13a 내지 도 13e는 투사 영역이 중첩되는 중첩 영역에 대하여 설명하기 위한 도면,13A to 13E are views for explaining an overlapping area in which projection areas overlap;
도 14a 내지 도 15c는 본 발명의 다양한 실시 예에 따른 영상 데이터의 전달 방법을 설명하기 위한 도면,14A to 15C are diagrams for describing a method of delivering image data, according to various embodiments of the present disclosure;
도 16a 내지 도 16f는 특정 확대 영역을 만들기 위한 영상 투사 장치의 위치를 안내하는 가이드 메시지 제공 방법을 설명하기 위한 도면, 그리고,16A to 16F are diagrams for explaining a method of providing a guide message for guiding a position of an image projection apparatus for creating a specific enlarged area;
도 17 내지 도 19는 본 발명의 다양한 실시 예에 따른 영상 투사 장치의 투사 영역 확장 방법을 설명하기 위한 흐름도이다.17 to 19 are flowcharts illustrating a method of expanding a projection area of an image projection apparatus, according to various embodiments of the present disclosure.
이하에서는 본 발명의 바람직한 실시 예가 첨부된 도면을 참조하여 상세히 설명한다. 본 발명을 설명함에 있어서, 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단된 경우 그 상세한 설명은 생략한다. 그리고 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.Hereinafter, with reference to the accompanying drawings a preferred embodiment of the present invention will be described in detail. In describing the present invention, when it is determined that the detailed description of the related known function or configuration may unnecessarily obscure the subject matter of the present invention, the detailed description thereof will be omitted. In addition, terms to be described below are terms defined in consideration of functions in the present invention, and may vary according to a user, an operator, or a custom. Therefore, the definition should be made based on the contents throughout the specification.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 용어들에 의해 한정되지는 않는다. 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 항목들의 조합 또는 복수의 관련된 항목들 중의 어느 하나의 항목을 포함한다.Terms including ordinal numbers such as first and second may be used to describe various components, but the components are not limited by the terms. The terms are only used to distinguish one component from another. For example, without departing from the scope of the present invention, the first component may be referred to as the second component, and similarly, the second component may also be referred to as the first component. The term and / or includes any one of a plurality of related items or a combination of a plurality of related items.
본 명세서에서 사용한 용어는 실시예를 설명하기 위해 사용된 것으로, 본 발명을 제한 및/또는 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원서에서, 포함하다 또는 가지다 등의 용어는 명세서상에 기재된 특징, 숫자, 동작, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 동작, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting and / or limiting of the invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In the present application, the term including or having is intended to indicate that there is a feature, number, operation, operation, component, part, or a combination thereof described in the specification, one or more other features or numbers, operation It is to be understood that the present invention does not exclude in advance the possibility of the presence or the addition of an operation, a component, a part, or a combination thereof.
도 1a 및 도 1b는 본 발명의 일 실시 예에 따른 영상 투사 장치(100)의 개념을 설명하기 위한 도면이다. 예를 들어, 영상 투사 장치(100)는 단초점 광학계를 이용한 프로젝터로 구현될 수 있다. 또한, 영상 투사 장치(100)는 프로젝션 렌즈 미러 시스템(projection lens mirror system)을 이용한 프로젝터 일 수 있다.1A and 1B are diagrams for describing a concept of an image projection apparatus 100 according to an exemplary embodiment. For example, the image projection apparatus 100 may be implemented as a projector using a single focus optical system. In addition, the image projection apparatus 100 may be a projector using a projection lens mirror system.
도 1a에 도시된 바와 같이, 본 발명의 일 실시 예에 따른 영상 투사 장치(100)는 테이블과 같은 수평 면(바닥면) 상에 근접하여 위치하게 되면 영상을 투사할 수 있다. 또한, 도 1b에 도시된 바와 같이, 영상 투사 장치(100)는 벽면과 같은 수직 면 상에 근접하여 위치하게 되면 영상을 투사할 수 있다. 본 발명의 일 실시 예에 따른 영상 투사 장치(100)는 설치면에 영상을 투사한다는 점에서 일반적인 프로젝터와 차이점이 있다. 또한, 본 발명의 일 실시 예에 따른 영상 투사 장치(100)는 포터블(portable)하다는 점에서 일반적인 프로젝터와 차이점이 있다. As shown in FIG. 1A, the image projection apparatus 100 according to an exemplary embodiment may project an image when the image projection apparatus 100 is located close to a horizontal surface (bottom surface) such as a table. In addition, as illustrated in FIG. 1B, the image projection apparatus 100 may project an image when positioned close to a vertical surface such as a wall surface. Image projection apparatus 100 according to an embodiment of the present invention is different from the general projector in that it projects an image on the installation surface. In addition, the image projection apparatus 100 according to an embodiment of the present invention has a difference from a general projector in that it is portable.
이와 같이 영상 투사 장치(100)는 영상이 투사될 대상 표면(투사면)에 근접한 경우에 영상을 투사하도록 할 수 있어, 사용자가 영상 투사 장치(100)를 내려놓는 간단한 동작만으로 영상 투사 기능을 사용할 수 있으며, 효율적인 전력 관리도 가능하다. 즉, 영상 투사 장치(100)는 배치면에 영상 투사 장치(100)의 일 면이 근접하도록 배치되면 광을 투사하고, 배치면으로부터 영상 투사 장치(100)의 일 면이 이격되면 광 투사를 중지할 수 있다.As such, the image projection apparatus 100 may project an image when the image is close to the target surface (projection surface) to be projected, so that the user may use the image projection function with a simple operation of laying down the image projection apparatus 100. And efficient power management is also possible. That is, the image projection apparatus 100 projects light when one surface of the image projection apparatus 100 is disposed close to the layout surface, and stops light projection when one surface of the image projection apparatus 100 is spaced apart from the layout surface. can do.
도 2를 참조하면, 영상 투사 장치(100-1)는 광학 모듈(160-1), 통신 모듈(120-1), 센서 모듈(140-1), 프로세서(110-1)를 포함할 수 있다.Referring to FIG. 2, the image projection apparatus 100-1 may include an optical module 160-1, a communication module 120-1, a sensor module 140-1, and a processor 110-1. .
광학 모듈(160-1)은 영상 투사 장치(100-1)가 배치되는 배치면으로부터 연장된 표면 방향으로 영상을 투사할 수 있다. 예를 들어, 광학 모듈(160-1)은 렌즈와 미러를 포함할 수 있다. 렌즈와 미러 사이의 거리 등에 의하여, 광학 모듈(160-1)에서 투사하는 영상의 크기가 결정될 수 있다. 영상 투사 장치(100-1)에서 투사되는 영상의 크기가 결정되기 때문에, 복수의 영상 투사 장치(100-1, 100-2)에서 투사된 영상을 별도의 장치가 촬영하지 않더라도, 복수의 영상 투사 장치(100-1, 100-2) 간의 상대적인 위치 정보를 이용하여 전체 투사 영역의 크기 및 형태가 파악될 수 있다. 또한, 초단초점 광학계의 특성상, 광학 모듈(160-1)의 스펙에 따라 투사 거리가 고정될 수 있다. 광학 모듈(160-1)의 구성에 대하여는 이하에서 도 4를 참조하여 상세히 설명하기로 한다.The optical module 160-1 may project an image in a surface direction extending from the placement surface on which the image projection apparatus 100-1 is disposed. For example, the optical module 160-1 may include a lens and a mirror. The size of the image projected by the optical module 160-1 may be determined by the distance between the lens and the mirror. Since the size of the image projected by the image projection apparatus 100-1 is determined, even if a separate device does not capture the image projected by the plurality of image projection apparatuses 100-1, 100-2, the plurality of image projections The size and shape of the entire projection area can be determined using the relative position information between the devices 100-1 and 100-2. In addition, the projection distance may be fixed according to the specification of the optical module 160-1 due to the characteristics of the ultra short focus optical system. The configuration of the optical module 160-1 will be described in detail with reference to FIG. 4 below.
센서 모듈(140-1)은 다양한 종류의 센서들을 포함할 수 있다. 예를 들어, 센서 모듈(140-1)은 인접한 타 영상 투사 장치(100-2)를 감지할 수 있는 초음파 센서(144), 근접 센서(147) 등을 포함할 수 있다. 또한, 센서 모듈(140-1)은 영상 투사 장치(100-1)의 회전 각도를 알 수 있는 자이로 센서(142), 가속도 센서(143), 지자기 센서 등을 포함할 수 있다. 예를 들어, 영상 투사 장치(100-1)가 바닥면에 수평하게 놓여진 경우, 그 전단부 방향을 x축 방향, 측면 방향을 y축 방향, 바닥면으로부터 수직한 방향을 z축이라고 정의할 수 있다. 이 경우, 영상 투사 장치(100-1)의 회전 각도란 z축을 기준으로 회전된 정도를 의미한다. 회전 각도는 다르게는 요우각으로 표현될 수도 있다.The sensor module 140-1 may include various types of sensors. For example, the sensor module 140-1 may include an ultrasonic sensor 144, a proximity sensor 147, and the like, which may sense another adjacent image projection device 100-2. In addition, the sensor module 140-1 may include a gyro sensor 142, an acceleration sensor 143, a geomagnetic sensor, or the like, which can know the rotation angle of the image projection apparatus 100-1. For example, when the image projection apparatus 100-1 is placed horizontally on the bottom surface, the front end direction may be defined as the x-axis direction, the lateral direction as the y-axis direction, and the direction perpendicular to the bottom surface may be defined as the z-axis. have. In this case, the rotation angle of the image projection apparatus 100-1 means the degree of rotation about the z axis. The rotation angle may alternatively be represented by the yaw angle.
센서 모듈(140-1)은 다양한 센서들을 이용하여 전체 투사 영역을 계산하는데 필요한 정보인 타 영상 투사 장치(100-2)와의 거리, 각도 및 영상 투사 장치(100-1)의 회전 각도 정보 중 적어도 하나를 감지하는 감지 값을 출력할 수 있다.The sensor module 140-1 may use at least one of a distance, an angle, and rotation angle information of the image projection apparatus 100-1 from another image projection apparatus 100-2, which is information necessary to calculate the total projection area using various sensors. You can output a sense value that detects one.
통신 모듈(120-1)은 타 영상 투사 장치(100-2) 또는 외부 기기(400)와 통신하는 기능을 수행할 수 있다. 예를 들어, 통신 모듈(120-1)은 WiFi mirroring 방식을 이용하여 타 영상 투사 장치(100-2)와 영상 데이터, 회전 각도 정보, 제어 명령 등을 송수신할 수 있다. 통신 모듈(120-1)은 WiFi mirroring 방식만이 아닌 다양한 방식의 통신 방법을 이용할 수 있다.The communication module 120-1 may perform a function of communicating with another image projection apparatus 100-2 or the external device 400. For example, the communication module 120-1 may transmit and receive image data, rotation angle information, a control command, and the like with another image projection apparatus 100-2 using a WiFi mirroring method. The communication module 120-1 may use various methods of communication not only WiFi mirroring.
프로세서(110-1)는 영상 투사 장치(100-1)의 전반적인 구성을 제어한다. 프로세서(110-1)는 감지된 타 영상 투사 장치(100-2)와 통신 모듈(120-1)을 통해 통신이 되면, 타 영상 투사 장치(100-2)와의 거리에 기초하여 광학 모듈(160-1)을 통하여 영상이 투사되도록 할 수 있다.The processor 110-1 controls the overall configuration of the image projector 100-1. When the processor 110-1 communicates with the detected other image projection apparatus 100-2 through the communication module 120-1, the processor 110-1 is based on the distance from the other image projection apparatus 100-2 to the optical module 160. The image can be projected through -1).
프로세서(110-1)는 타 영상 투사 장치(100-2)와의 거리에 따라 컨텐츠의 적어도 일 부분을 영상으로 생성하여 타 영상 투사 장치(100-2)에서 투사하는 영상과 광학 모듈(160-1)에서 투사하는 영상이 조합되어 하나의 컨텐츠를 구성하도록 할 수 있다. 여기서 컨텐츠의 일 부분이란 공간적인 일 부분을 의미한다. 예를 들어, 동영상 컨텐츠의 경우, 컨텐츠의 일 부분이란 동영상을 구성하는 각 프레임마다의 공간적인 일 부분을 의미한다.The processor 110-1 may generate at least a portion of content as an image according to the distance from the other image projector 100-2 to project the image and the optical module 160-1 from the other image projector 100-2. ) Images may be combined to form a single content. Here, a part of the content means a part of space. For example, in the case of video content, a part of the content means a part of space for each frame constituting the video.
프로세서(110-1)는 타 영상 투사 장치(100-2)와의 거리에 따라, 하나의 컨텐츠를 복수의 서브 영상으로 분할할 수 있다. 그리고, 프로세서(110-1)는 복수의 서브 영상 중 하나를 투사하도록 광학 모듈(160-1)을 제어할 수 있다. 또한, 프로세서(110-1)는 복수의 서브 영상 중 나머지 하나를 타 영상 투사 장치(100-2)로 전송하도록 통신 모듈(120-1)을 제어할 수 있다. 복수의 영상 투사 장치(100-1, 100-2)에서 투사된 영상이 조합됨으로써, 투사면에 하나의 컨텐츠가 형성될 수 있다. 복수의 영상 투사 장치(100-1, 100-2)는 각각 복수의 서브 영상뿐만 아니라 싱크를 맞추기 위한 싱크 정보를 공유할 수 있다.The processor 110-1 may divide one content into a plurality of sub images according to the distance from the other image projection apparatus 100-2. The processor 110-1 may control the optical module 160-1 to project one of the plurality of sub-images. In addition, the processor 110-1 may control the communication module 120-1 to transmit the other one of the plurality of sub-images to another image projection apparatus 100-2. By combining images projected by the plurality of image projectors 100-1 and 100-2, one content may be formed on the projection surface. The plurality of image projectors 100-1 and 100-2 may share sync information for syncing not only a plurality of sub-images, respectively.
예를 들어, 프로세서(110-1)는 센서 모듈(140-1)에서 출력된 감지 값(타 영상 투사 장치(100-2)와의 거리, 영상 투사 장치(100-1)의 회전 각도, 영상 투사 장치(100-1)와 타 영상 투사 장치(100-2) 사이의 각도 중 적어도 하나 이상을 포함) 및 통신 모듈(120-1)을 통해 수신된 타 영상 투사 장치(100-2)의 정보를 이용하여 전체 투사 영역의 크기 및 형태를 판단할 수 있다.For example, the processor 110-1 may output a sensed value output from the sensor module 140-1 (distance from another image projection apparatus 100-2, rotation angle of the image projection apparatus 100-1, and image projection). Information of another image projection apparatus 100-2 received through the communication module 120-1 and at least one of angles between the device 100-1 and the other image projection apparatus 100-2. The size and shape of the entire projection area can be determined.
타 영상 투사 장치(100-2) 역시 자체적으로 센서 모듈(140-2)을 포함할 수 있다. 그리고, 센서 모듈(140-2)은 타 영상 투사 장치(100-2)의 회전 각도를 포함하는 위치 정보를 감지할 수 있다. 예를 들어, 프로세서(110-1)에서 이용하는 타 영상 투사 장치(100-2)의 정보는 타 영상 투사 장치의 위치 정보일 수 있다.The other image projection apparatus 100-2 may also include the sensor module 140-2 itself. In addition, the sensor module 140-2 may detect location information including a rotation angle of the other image projector 100-2. For example, the information of the other image projection apparatus 100-2 used by the processor 110-1 may be location information of another image projection apparatus.
프로세서(110-1)는 전체 투사 영역의 크기 및 형태에 대응되는 크기 및 형태를 갖는 영상을 생성할 수 있다. 예를 들어, 프로세서(110-1)는 전체 투사 영역 내부에 포함될 수 있는 가장 큰 직사각형 형태로 투사 영상을 생성할 수 있다.The processor 110-1 may generate an image having a size and shape corresponding to the size and shape of the entire projection area. For example, the processor 110-1 may generate the projection image in the largest rectangular shape that may be included in the entire projection area.
본 발명의 일 실시 예에 따라면, 투사 영역을 확장하기 위한 복수의 영상 투사 장치(100) 중 하나의 영상 투사 장치를 전체적인 제어를 담당하는 마스터 영상 투사 장치로 결정할 수 있다. 예를 들어, 영상 데이터를 전송하는 외부 기기(400)와 처음 페이링된 영상 투사 장치(100)를 마스터로 결정하는 방법, 사용자로부터 마스터를 선택받는 방법, 영상 투사 영역이 전체 투사 영역 중 가장 넓은 영역을 차지하는 영상 투사 장치(100)를 마스터로 결정하는 방법 등 다양한 방법이 적용될 수 있다.According to an embodiment of the present disclosure, one image projection apparatus of the plurality of image projection apparatuses 100 for expanding the projection area may be determined as a master image projection apparatus in charge of overall control. For example, a method of determining an external device 400 transmitting image data and the first-facing image projection apparatus 100 as a master, a method of receiving a master selection from a user, and an image projection area having the widest of all projection areas. Various methods may be applied, such as a method of determining the image projection apparatus 100 occupying an area as a master.
도 3a는 본 발명의 일 실시 예에 따른 영상 투사 장치(100)의 구성을 상세히 설명하기 위한 블럭도이다. 도 3a를 참조하면, 영상 투사 장치(100)는 하나 이상의 프로세서(110), 통신 모듈(120), 메모리(130), 센서 모듈(140), 입력 장치(150), 광학 모듈(160), 인터페이스(170), 오디오 모듈(180), 카메라 모듈(191), 인디케이터(192), 모터(193), 전력 관리 모듈(194), 배터리(195), 무선 충전 모듈(196)을 포함할 수 있다.3A is a block diagram illustrating in detail the configuration of the image projection apparatus 100 according to an exemplary embodiment. Referring to FIG. 3A, the image projector 100 may include one or more processors 110, a communication module 120, a memory 130, a sensor module 140, an input device 150, an optical module 160, and an interface. An audio module 180, a camera module 191, an indicator 192, a motor 193, a power management module 194, a battery 195, and a wireless charging module 196 may be included.
프로세서(110)는 운영체제 또는 응용 프로그램을 구동하여 프로세서(110)에 연결된 다수의 하드웨어 또는 소프트웨어 구성요소들을 제어할 수 있고, 멀티미디어 데이터를 포함한 각종 데이터 처리 및 연산을 수행할 수 있다. 예를 들면, 프로세서(110)는 SoC(system on chip)의 형태로 구현될 수 있다. 또한, 프로세서 (110)는 GPU(graphic processing unit, 미도시)를 더 포함할 수도 있다.The processor 110 may control a plurality of hardware or software components connected to the processor 110 by driving an operating system or an application program, and may perform various data processing and operations including multimedia data. For example, the processor 110 may be implemented in the form of a system on chip (SoC). In addition, the processor 110 may further include a graphic processing unit (GPU).
통신 모듈(120)은 무선 통신 모듈로 구성되어 외부와 무선 통신 기능을 수행한다. 통신 모듈(120)은 WiFi 모듈(121), Bluetooth 모듈(122), RF(radio frequency) 모듈(123) 등 다양한 모듈을 포함할 수 있다. WiFi 모듈(121)이나 BT 모듈(122)를 이용하는 경우에는 SSID 및 세션 키 등과 같은 각종 연결 정보를 먼저 송수신하고, 이를 이용하여 통신 연결한 후 각종 데이터들을 송수신할 수 있다.The communication module 120 is configured as a wireless communication module to perform a wireless communication function with the outside. The communication module 120 may include various modules such as a WiFi module 121, a Bluetooth module 122, and a radio frequency (RF) module 123. In the case of using the WiFi module 121 or the BT module 122, various connection information such as SSID and session key may be transmitted and received first, and then various data may be transmitted and received using the communication connection.
도 3a에서는 WiFi 모듈(121)이나 BT 모듈(122)을 각각 별개의 블록으로 도시하였으나, 여러 종류의 무선 통신 모듈을 포함하는 IC(integrated chip) 또는 IC 패키지의 형태로 구현될 수도 있다.In FIG. 3A, the WiFi module 121 and the BT module 122 are illustrated as separate blocks, but may be implemented in the form of an integrated chip (IC) or an IC package including several types of wireless communication modules.
RF 모듈(123)은 RF 신호의 송수신을 통하여 데이터를 송수신할 수 있다. RF 모듈(123)은 트랜시버(transcever), PAM(power amp module), 주파수 필터(frequency filter) 또는 LNA(low noise amplifier) 등을 포함할 수도 있다. 도 3a에서는 WiFi 모듈(121) 및 BT 모듈(122)이 하나의 RF 모듈(123)을 서로 공유하는 것으로 도시하였으나, 각각 별개의 RF 모듈(123)을 통하여 RF 신호의 송수신을 수행할 수도 있다.The RF module 123 may transmit and receive data through the transmission and reception of RF signals. The RF module 123 may include a transceiver, a power amp module (PAM), a frequency filter, a low noise amplifier (LNA), or the like. In FIG. 3A, although the WiFi module 121 and the BT module 122 share one RF module 123 with each other, RF signals may be transmitted and received through separate RF modules 123, respectively.
통신 모듈(120)은 IEEE, 지그비, 3G(3rd Generation), 3GPP(3rd Generation Partnership Project), LTE(Long Term Evolution) 등과 같은 다양한 통신 규격에 따라 통신을 수행할 수 있다.The communication module 120 may perform communication according to various communication standards such as IEEE, Zigbee, 3rd Generation (3G), 3rd Generation Partnership Project (3GPP), Long Term Evolution (LTE), and the like.
메모리(130)는 영상 투사 장치(100)를 구동하고 제어하는 다양한 데이터, 프로그램 또는 어플리케이션을 저장할 수 있다. 예를 들어, 메모리(130)는 기준 영상의 크기 및 형태에 대한 정보를 저장할 수 있다. 메모리(130)는 내장 메모리(131)를 포함할 수 있다. 예를 들어, 내장 메모리(131)는 DRAM(dynamic RAM), SRAM(static RAM), SDRAM(synchronous dynamic RAM)과 같은 휘발성 메모리 또는 OTPROM(one time programmable ROM), PROM(programmable ROM), EPROM(erasable and programmable ROM), EEPROM(electrically erasable and programmable ROM), mask ROM, flash ROM, NAND flash memory, NOR flash memory와 같은 비휘발성 메모리 중 적어도 하나를 포함할 수 있다.The memory 130 may store various data, programs, or applications for driving and controlling the image projection apparatus 100. For example, the memory 130 may store information about the size and shape of the reference image. The memory 130 may include an internal memory 131. For example, the internal memory 131 may be volatile memory such as dynamic RAM (DRAM), static RAM (SRAM), synchronous dynamic RAM (SDRAM), or one time programmable ROM (OTPROM), programmable ROM (PROM), or erasable EPROM. and non-volatile memory such as programmable ROM (EPROM), electrically erasable and programmable ROM (EEPROM), mask ROM, flash ROM, NAND flash memory, and NOR flash memory.
센서 모듈(140)은 영상 투사 장치(100)의 상태를 감지하고, 감지된 정보를 전기 신호로 변환할 수 있다. 센서 모듈(140)은 제스쳐 센서(141), 자이로 센서(142), 가속도 센서(143), 초음파 센서(144), 적외선 센서(145), 홀 센서(146), 근접 센서(147), 조도 센서(148)를 포함할 수 있다. 또한, 센서 모듈(140)은 후각 센서(E-nose sensor, 미도시), EMG 센서(electromyography sensor, 미도시), EEG 센서(electroencephalogram sensor, 미도시), ECG 센서(electrocardiogram sensor, 미도시), 홍채 센서(미도시) 또는 지문 센서(미도시), 압력 센서 (미도시) 등을 포함할 수 있다.The sensor module 140 may detect a state of the image projector 100 and convert the detected information into an electrical signal. The sensor module 140 may include a gesture sensor 141, a gyro sensor 142, an acceleration sensor 143, an ultrasonic sensor 144, an infrared sensor 145, a hall sensor 146, a proximity sensor 147, and an illuminance sensor. 148 may be included. In addition, the sensor module 140 may include an olfactory sensor (E-nose sensor, not shown), an EMG sensor (electromyography sensor, not shown), an EEG sensor (electroencephalogram sensor, not shown), an ECG sensor (electrocardiogram sensor, not shown), It may include an iris sensor (not shown) or a fingerprint sensor (not shown), a pressure sensor (not shown).
센서 모듈(140)은 영상 투사 장치(100)가 배치면에 근접하였는지 감지할 수 있다. 예를 들어, 센서 모듈(140)은 영상 투사 장치(100)의 일 면에 부착된 조도 센서(148)를 이용하여 배치면과의 근접 여부를 판단할 수도 있다. 또한, 센서 모듈(140)은 적외선 센서(145)를 이용하여 적외선으로 표식된 인식 표지를 감지할 수 있다. 이를 통해, 센서 모듈(140)은 투사된 영상의 크기 및 형태를 감지할 수 있다.The sensor module 140 may detect whether the image projection apparatus 100 is close to the placement surface. For example, the sensor module 140 may determine whether the sensor module 140 is close to the placement surface by using the illumination sensor 148 attached to one surface of the image projection apparatus 100. In addition, the sensor module 140 may detect a recognition mark marked with infrared rays using the infrared sensor 145. Through this, the sensor module 140 may detect the size and shape of the projected image.
또한, 센서 모듈(140)은 영상 투사 장치(100)의 회전 정도를 판단하여 기준 방향을 기준으로 얼마나 회전하였는지를 감지할 수 있다. 센서 모듈(140)은 주변에 다른 영상 투사 장치(100')가 인접해있는지, 다른 영상 투사 장치(100')와의 거리는 어떠한지를 감지할 수도 있다.In addition, the sensor module 140 may determine how much the image is rotated based on the reference direction by determining the degree of rotation of the image projection apparatus 100. The sensor module 140 may detect whether another image projection apparatus 100 ′ is adjacent to each other or a distance from the other image projection apparatus 100 ′.
입력 장치(150)는 사용자 입력을 수신할 수 있다. 예를 들어, 입력 장치(150)는 물리적인 버튼, 광학식 키 또는 키패드를 포함할 수 있다.The input device 150 may receive a user input. For example, the input device 150 may include a physical button, an optical key or a keypad.
광학 모듈(160)은 영상을 투사할 수 있다. 광학 모듈(160)은 조명 모듈(161) 및 투사 모듈(162)을 포함할 수 있다. 투사 모듈(162)은 투사면에 빛을 투사하여 영상을 표시할 수 있다. 투사 모듈(162)은 영상 투사 장치(100)가 배치된 배치면으로부터 연장된 표면 방향으로 광을 투사할 수 있다.The optical module 160 may project an image. The optical module 160 may include an illumination module 161 and a projection module 162. The projection module 162 may display an image by projecting light onto the projection surface. The projection module 162 may project light in a surface direction extending from the placement surface on which the image projection apparatus 100 is disposed.
광학 모듈(160)은 영상 투사 장치(100)가 배치면에 위치한 경우 또는 배치면으로부터 기설정된 거리 이내로 근접하면 광을 투사할 수 있다. 예를 들어, 영상 투사 장치(100)가 배치면에 근접하지 않은 경우에, 전력 관리 모듈(194)은 광학 모듈(160)에 전원을 공급하는 것을 차단하여 광학 모듈(160)이 동작하지 않도록 할 수 있다.The optical module 160 may project light when the image projector 100 is located on the placement surface or when the image projection device 100 is located within a predetermined distance from the placement surface. For example, when the image projection apparatus 100 is not close to the placement surface, the power management module 194 may block supplying power to the optical module 160 to prevent the optical module 160 from operating. Can be.
투사 모듈(162)이 빛을 투사하는 방식으로는 DLP, LCOS, 3LCD, 레이저 방식 등 다양한 방식을 이용할 수 있다. As the projection module 162 projects light, various methods such as DLP, LCOS, 3LCD, and laser may be used.
인터페이스(170)는 HDMI(high-definition multimedia interface, 171) 및 USB(universal serial bus, 172)를 포함할 수 있다. 인터페이스(170)는 외부 기기와 유선 연결하여 데이터를 송수신할 수 있다.The interface 170 may include a high-definition multimedia interface (HDMI) 171 and a universal serial bus 172 (USB). The interface 170 may transmit and receive data by wired connection with an external device.
오디오 모듈(180)은 음성과 전기 신호를 쌍방향으로 변환시킬 수 있다. 오디오 모듈(180)은 스피커(181) 또는 마이크(182) 등을 통해 입력 또는 출력되는 음성 정보를 처리할 수 있다.The audio module 180 may bidirectionally convert a voice and an electrical signal. The audio module 180 may process voice information input or output through the speaker 181, the microphone 182, or the like.
카메라 모듈(191)은 정지 영상 및 동영상을 촬영할 수 있다. 카메라 모듈(191)은 이미지 센서 등을 포함할 수 있으며, 투사 영상을 촬영하여 투사 영상의 성질을 분석할 수 있다.The camera module 191 may capture still images and videos. The camera module 191 may include an image sensor and the like, and may capture a projection image to analyze a property of the projection image.
인디케이터(192)는 영상 투사 장치(100) 혹은 그 일부 구성요소의 상태, 예를 들면, 부팅 상태, 메시지 상태 또는 충전 상태 등을 표시할 수 있다.The indicator 192 may display a state of the image projection apparatus 100 or some components thereof, for example, a booting state, a message state, or a charging state.
모터(193)는 전기적 신호를 기계적 진동으로 변환할 수 있다.The motor 193 may convert electrical signals into mechanical vibrations.
전력 관리 모듈(194)은 영상 투사 장치(100)의 전력을 관리한다. 예를 들어, 영상 투사 장치(100)의 일 면이 영상을 투사할 배치면에 근접하도록 배치되면, 전력 관리 모듈(194)은 광학 모듈(160)에 전원을 인가할 수 있다.The power management module 194 manages power of the image projector 100. For example, when one surface of the image projection apparatus 100 is disposed to be close to the placement surface on which the image is to be projected, the power management module 194 may apply power to the optical module 160.
배터리(195)는 전기를 저장 또는 생성할 수 있고, 그 저장 또는 생성된 전기를 이용하여 영상 투사 장치(100)에 전원을 공급할 수 있다. 예를 들어, 배터리(195)는 충전식 전지(rechargeable battery) 또는 태양 전지(solar battery) 등을 포함할 수 있다.The battery 195 may store or generate electricity, and supply power to the image projector 100 by using the stored or generated electricity. For example, the battery 195 may include a rechargeable battery or a solar battery.
무선 충전 모듈(196)은 무선 충전을 할 수 있는 회로, 예를 들면, 코일 루프, 공진 회로 또는 정류기 등의 회로를 포함할 수 있다. 그리고, 무선 충전 모듈(169)은 무선 충전 방식으로 자기공명 방식, 자기유도 방식 또는 전자기파 방식 등을 이용할 수 있다.The wireless charging module 196 may include a circuit capable of wireless charging, for example, a circuit such as a coil loop, a resonant circuit or a rectifier. The wireless charging module 169 may use a magnetic resonance method, a magnetic induction method, or an electromagnetic wave method as a wireless charging method.
본 발명의 다양한 실시 예에 따른 영상 투사 장치(100)의 전술한 구성요소들 각각은 하나 또는 그 이상의 부품(component)으로 구성될 수 있으며, 해당 구성 요소의 명칭은 기기의 종류에 따라서 달라질 수 있다. 본 발명의 다양한 실시 예에 따른 영상 투사 장치(100)는 전술한 구성요소 중 적어도 하나를 포함하여 구성될 수 있으며, 일부 구성요소가 생략되거나 또는 추가적인 다른 구성요소를 더 포함할 수 있다. 또한, 본 발명의 다양한 실시 예에 따른 영상 투사 장치(100)의 구성 요소들 중 일부가 결합되어 하나의 개체(entity)로 구성됨으로써, 결합 되기 이전의 해당 구성 요소들의 기능을 동일하게 수행할 수 있다.Each of the above-described components of the image projection apparatus 100 according to various embodiments of the present disclosure may be configured with one or more components, and the name of the corresponding component may vary according to the type of device. . The image projection apparatus 100 according to various embodiments of the present disclosure may be configured to include at least one of the above components, and some components may be omitted or further include other components. In addition, some of the components of the image projection apparatus 100 according to various embodiments of the present disclosure are combined to form an entity, and thus may perform the same functions of the corresponding components before being combined. have.
도 3b는 본 발명의 일 실시 예에 따른 영상 투사 장치(100)의 메모리(130)에 저장되는 모듈의 일 예이다. 도 3b를 참조하면, 메모리(130)는 운영체제(132), 신호처리 모듈(133), 기기 포지션 판단 모듈(134), 투사면 분석 모듈(135), 투사 영상 확장성 판단 모듈(136), 사용자 입력 처리 모듈(137)을 포함할 수 있다.3B is an example of a module stored in the memory 130 of the image projection apparatus 100 according to an embodiment of the present invention. Referring to FIG. 3B, the memory 130 includes an operating system 132, a signal processing module 133, a device position determination module 134, a projection surface analysis module 135, a projection image expandability determination module 136, and a user. It may include an input processing module 137.
운영체제(132)는 영상 투사 장치(100)의 전반적인 동작을 제어한다.The operating system 132 controls the overall operation of the image projection apparatus 100.
신호처리 모듈(133)은 통신 모듈(120)을 통해 수신한 컨텐츠를 광학 모듈(160)을 통해 투사될 수 있도록 버퍼링 또는 신호 복호화를 수행할 수 있다. 신호처리 모듈(133)는 영상 투사 장치(100)가 수신한 영상 데이터에 대한 처리를 수행할 수 있다. 신호처리 모듈(133)은 비디오 데이터에 대한 디코딩, 스케일링, 노이즈 필터링, 프레임 레이트 변환, 해상도 변환 등과 같은 다양한 이미지 처리를 수행할 수 있다.The signal processing module 133 may perform buffering or signal decoding so that the content received through the communication module 120 may be projected through the optical module 160. The signal processing module 133 may process the image data received by the image projection apparatus 100. The signal processing module 133 may perform various image processing such as decoding, scaling, noise filtering, frame rate conversion, resolution conversion, etc. on the video data.
기기 포지션 판단 모듈(134)은 영상 투사 장치(100)가 배치면에 위치하였는지를 판단할 수 있다. 예를 들면, 기기 포지션 판단 모듈(134)은 영상 투사 장치(100)가 배치면에 위치하거나 기설정된 거리 이내로 접근하였는지 판단할 수 있다.The device position determination module 134 may determine whether the image projection apparatus 100 is located on the placement surface. For example, the device position determination module 134 may determine whether the image projection apparatus 100 is located on the placement surface or approached within a predetermined distance.
다른 예로, 기기 포지션 판단 모듈(134)은 영상 투사 장치(100)가 위치한 표면이 중력 방향과 수직인지 수평인지(예를 들어, 지표면에 수직인지 수평인지) 판단할 수 있다.As another example, the device position determination module 134 may determine whether the surface on which the image projection apparatus 100 is located is perpendicular to or horizontal to the gravity direction (eg, perpendicular to the ground surface or horizontal).
투사면 분석 모듈(135)은 프로젝터 투사면을 분석해서 영상을 보정할 수 있다. 예를 들어, 투사면 분석 모듈(135)은 투사 영상의 기하 정보 색상 정보 등을 보정할 수 있다.The projection surface analysis module 135 may correct the image by analyzing the projector projection surface. For example, the projection surface analysis module 135 may correct geometric information color information of the projection image.
투사 영상 확장성 판단 모듈(136)는 영상 투사 장치(100)의 주변에 적어도 하나의 다른 영상 투사 장치가 존재하는지 판단하여, 투사 영상의 확장 가능성을 결정할 수 있다.The projection image expandability determination module 136 may determine whether there is at least one other image projection apparatus in the vicinity of the image projection apparatus 100, and determine the expansion possibility of the projection image.
사용자 입력 처리 모듈(137)은 출력된 투사 영상에서의 사용자 입력을 감지하고, 이에 대응하여 데이터를 처리한다.The user input processing module 137 senses a user input in the output projection image and processes data in response thereto.
도 3c는 영상 투사 장치(100)가 데이터를 수신할 수 있는 외부 기기들의 예를 도시한 도면이다. 본 발명의 일 실시 예에 따르면, 영상 투사 장치(100)는 투사할 컨텐츠를 외부 기기(400)로부터 통신 모듈(120) 또는 인터페이스(170)을 통해 수신할 수 있다.3C is a diagram illustrating an example of external devices capable of receiving data by the image projection apparatus 100. According to an embodiment of the present disclosure, the image projection apparatus 100 may receive content to be projected from the external device 400 through the communication module 120 or the interface 170.
외부 기기(400)의 예로는 플렉서블 장치(400-1), 시계형 장치(400-2), 타블렛 PC(400-3), 모바일 장치(400-4), 디스플레이 장치(400-5), 노트북 컴퓨터(400-6), 데스크탑 컴퓨터(400-7), 스마트 안경과 같은 웨어러블 디바이스(400-8) 등이 있을 수 있다. 외부 기기(400)는 이들로 한정되지 않으며 유선 또는 무선으로 컨텐츠를 영상 투사 장치(100)에 전송할 수 있는 장치라면 어느 것이든 가능하다. 영상 투사 장치(100)는 외부 기기(400)로부터 수신한 컨텐츠를 메모리(130)에 저장할 수도 있다.Examples of the external device 400 include a flexible device 400-1, a watch-type device 400-2, a tablet PC 400-3, a mobile device 400-4, a display device 400-5, a notebook computer. Computer 400-6, desktop computer 400-7, wearable device 400-8 such as smart glasses, and the like. The external device 400 is not limited thereto, and any external device 400 may be any device capable of transmitting content to the image projector 100 by wire or wirelessly. The image projector 100 may store the content received from the external device 400 in the memory 130.
도 4는 본 발명의 일 실시 예에 따른 광학 모듈(160)의 일 예를 도시한 도면이다. 도 4를 참조하면, 하우징(16) 내부에 조명 광학계(11) 및 투사 렌즈부(13)가 배치될 수 있다. 조명 광학계(11)에서 투사된 빛은 프리즘(12)을 통하여 수직으로 빛의 방향이 변경될 수 있다. 투사 렌즈부(13)는 렌즈의 조합(14)으로 이루어져 있으며, 렌즈의 조합(14)은 작은 투사 거리에서도 상이 왜곡되지 않도록 하는 기능을 수행한다. 또한, 투사 렌즈부(13)은 미러(15)를 구비할 수 있으며, 미러(15)를 통해 빛을 측면으로 반사시킬 수 있다. 투사 렌즈부(13)는 렌즈의 조합에 초단초점 렌즈를 이용함으로써, 짧은 투사 거리에서도 측면의 투사면으로 투사가 가능하도록 한다. 다른 예에서, 프리즘(12)을 제외하고 조명 광학계(11)와 투사 렌즈부(13)를 수평으로 위치시켜 광학 모듈(160)을 구성할 수도 있다.4 is a diagram illustrating an example of an optical module 160 according to an exemplary embodiment. Referring to FIG. 4, the illumination optical system 11 and the projection lens unit 13 may be disposed in the housing 16. The light projected by the illumination optical system 11 may change the direction of light vertically through the prism 12. The projection lens unit 13 is composed of a combination of lenses 14, and the combination of lenses 14 serves to prevent an image from being distorted even at a small projection distance. In addition, the projection lens unit 13 may include a mirror 15, and may reflect light to the side through the mirror 15. The projection lens unit 13 enables the projection to the side projection surface even at a short projection distance by using the ultra short focus lens in combination of the lenses. In another example, the optical module 160 may be configured by horizontally positioning the illumination optical system 11 and the projection lens unit 13 except for the prism 12.
이하에서는, 도면들을 참조하여 본 발명의 일 실시 예에 따른 영상 투사 장치(100)의 특징을 설명하기로 한다.Hereinafter, features of the image projection apparatus 100 according to an exemplary embodiment will be described with reference to the drawings.
본 발명의 일 실시 예에 따른 영상 투사 장치(100-1)는 별도의 장치 없이도 화면을 확장할 수 있는 상황인지를 판단하고, 타 영상 투사 장치(100-2)와의 상대적 위치 정보 등을 이용하여 확장된 전체 투사 영역을 판단할 수 있다.The image projection apparatus 100-1 according to an embodiment of the present invention determines whether the screen can be expanded without a separate device, and uses relative position information with another image projection apparatus 100-2. The expanded total projection area can be determined.
도 5를 참조하면, 프로세서(110)는 타 영상 투사 장치(100-2)의 근접 여부를 센서 모듈(140)을 이용하여 감지할 수 있다. 기설정된 거리 이내로 타 영상 투사 장치(100-2)가 접근하였음을 감지하면, 프로세서(110)는 투사 영역을 확장할 수 있는 상황으로 판단할 수 있다. 예를 들어, 센서 모듈(140)에 포함된 마그네틱 센서, 근접 센서, 적외선 센서 또는 뎁스 카메라, UWB 레이더(Ultra Wide Bnad Radar) 등을 이용하여, 프로세서(110)는 연동하여 투사 영역 확장을 할 수 있는 타 영상 투사 장치(100-2)가 근접하였음을 알 수 있다. 투사 영역 확장을 위하여는 일정 거리 이내로 접근하는 것이 필요하기 때문에, 프로세서(110)는 타 영상 투사 장치(100-2)의 접근이 감지된 경우에만 투사 영역 확장 기능을 활성화시킬 수 있다.Referring to FIG. 5, the processor 110 may detect the proximity of another image projection apparatus 100-2 using the sensor module 140. When the other image projection apparatus 100-2 detects that the other image projection apparatus 100-2 has approached within a predetermined distance, the processor 110 may determine that the projection area is extended. For example, the processor 110 may expand and extend the projection area by using a magnetic sensor, a proximity sensor, an infrared sensor, a depth camera, a UWB radar, and the like included in the sensor module 140. It can be seen that another image projector 100-2 is in proximity. Since it is necessary to approach within a certain distance to extend the projection area, the processor 110 may activate the projection area extension function only when the approach of another image projection apparatus 100-2 is detected.
다른 예로, 프로세서(110)는 타 영상 투사 장치(100-2)의 접근이 감지되고, 감지된 타 영상 투사 장치(100-2)와 통신이 된 경우에만 투사 영역 확장 기능을 활성화시킬 수도 있다.As another example, the processor 110 may activate the projection area extension function only when the approach of the other image projection apparatus 100-2 is detected and the communication with the other image projection apparatus 100-2 is detected.
예를 들어, 도 6과 같이 투사 영역 확장 기능의 활성화 여부가 버튼의 색으로 안내될 수 있다. 도 6의 좌측 도면에서는 두 영상 투사 장치(100-1, 100-2)가 일정 거리 이내로 접근하였기 때문에, 프로세서(110)는 버튼의 색을 활성화를 나타내는 색(예를 들어, 녹색)으로 표시할 수 있다. 반대로, 도 6의 우측 도면에서는 두 영상 투사 장치(100-1, 100-2)가 일정 거리 이내에 있지 않기 때문에, 프로세서(110)는 버튼의 색을 비활성화를 나타내는 색(예를 들어, 적색)으로 표시할 수 있다. For example, as illustrated in FIG. 6, whether to activate the projection area extension function may be guided by the color of the button. In the left figure of FIG. 6, since the two image projection apparatuses 100-1 and 100-2 approach within a certain distance, the processor 110 may display the color of the button as a color indicating activation (eg, green). Can be. In contrast, in the right figure of FIG. 6, since the two image projection apparatuses 100-1 and 100-2 are not within a certain distance, the processor 110 changes the color of the button to a color (for example, red) indicating inactivation. I can display it.
다른 예로, 프로세서(110)에서 투사 영역 확장 기능을 활성화하면, 센서 모듈(140)은 근접한 타 영상 투사 장치(100-2)가 존재하는지에 대한 감지를 시작할 수 있다. 또는, 프로세서(110)는 통신 모듈(120)을 이용하여 타 영상 투사 장치(100-2)의 존재를 감지할 수도 있다.As another example, when the processor 110 activates the projection area extension function, the sensor module 140 may start to detect whether another image projection apparatus 100-2 is in proximity. Alternatively, the processor 110 may detect the presence of another image projector 100-2 using the communication module 120.
투사 영역 확장 기능이 활성화되었으나, 근접한 타 영상 투사 장치(100-2)가 없다면, 프로세서(110)는 사용자에게 근접한 타 영상 투사 장치(100-2)가 없다는 것을 안내하는 가이드 메시지를 제공할 수 있다. 예를 들어, 프로세서(110)는 레이저, LED, 기계음 사운드, 음성 안내, 진동, 투사 영상에 포함된 안내 영상 중 적어도 하나를 이용하여 사용자에게 가이드 메시지를 제공할 수 있다.If the projection area extension function is activated but no other image projection apparatus 100-2 is in close proximity, the processor 110 may provide a guide message to inform the user that there is no other image projection apparatus 100-2 in proximity to the user. . For example, the processor 110 may provide a guide message to a user by using at least one of a guide image included in a laser, an LED, a mechanical sound, a voice guide, a vibration, and a projection image.
도 7a를 참조하면, 사용자에 의해 투사 영역 확장 기능 활성화 명령이 영상 투사 장치(100-1)에 입력되었으나, 타 영상 투사 장치(100-2)는 일정 거리 이내로 접근하지 않았음을 알 수 있다. 프로세서(110)는 '두 디바이스를 가깝게 하세요' 등의 가이드 메시지를 투사하도록 광학 모듈(160)을 제어할 수 있다.Referring to FIG. 7A, it can be seen that the user inputs the projection area extension function activation command to the image projection apparatus 100-1, but the other image projection apparatus 100-2 does not approach within a certain distance. The processor 110 may control the optical module 160 to project a guide message such as 'close two devices'.
다른 예로, 도 7b에 도시된 바와 같이, 프로세서(110)는 페이링된 외부 기기(400)가 OSD 메시지나 음성으로 '두 디바이스를 가깝게 하세요'라는 가이드 메시지를 제공하도록 하는 제어 명령을 전송하도록 통신 모듈(120)을 제어할 수 있다.As another example, as shown in FIG. 7B, the processor 110 communicates to send a control command that causes the paged external device 400 to provide a guide message, `` close two devices '' with an OSD message or voice. Module 120 can be controlled.
본 발명의 다른 실시 예에 따르면, 근접한 타 영상 투사 장치(100-2)가 존재함을 감지한 후, 프로세서(110)는 재차 타 영상 투사 장치(100-2)와 통신 연결 가능한지에 대해 판단할 수 있다. 그리고, 통신 연결되지 않은 상태라면, 프로세서(110)는 통신 연결에 대한 가이드 메시지를 제공할 수 있다.According to another embodiment of the present disclosure, after detecting that the other image projection apparatus 100-2 is in proximity, the processor 110 may again determine whether it is communicable with the other image projection apparatus 100-2. Can be. In addition, if there is no communication connection, the processor 110 may provide a guide message for the communication connection.
본 발명의 또 다른 실시 예에서, 기설정된 시간 동안 주변에 타 영상 투사 장치(100-2)를 감지하지 못한 경우에, 프로세서(110)는 타 영상 투사 장치(100-2)가 주변에 부존재함을 알리는 가이드 메시지를 제공할 수도 있다.According to another embodiment of the present invention, when the other image projection apparatus 100-2 is not detected at the periphery for a preset time, the processor 110 does not have the other image projection apparatus 100-2 in the vicinity. You can also provide a guide message to inform the.
본 발명의 일 실시 예에 따르면, 복수의 영상 투사 장치(100)가 동일 네트워크에 연결될 수 있도록 하는 사용자 입력이 수행될 수 있다. 또는, 투사 영역 확장 기능을 활성화하는 사용자 입력이 수행될 수 있다. 예를 들어, 프로세서(110)는 이러한 사용자 입력은 도 8a 내지 도 8c에 도시된 바와 같이, 다양한 방식을 통하여 수신할 수 있다.According to an embodiment of the present disclosure, a user input for allowing the plurality of image projectors 100 to be connected to the same network may be performed. Alternatively, a user input for activating the projection area extension function may be performed. For example, the processor 110 may receive such user input in a variety of ways, as shown in FIGS. 8A-8C.
도 8a를 참고하면, 외부 기기(400)와 제1 영상 투사 장치(100-1)는 서로 페어링되어, 외부 기기(400)의 화면이 제1 영상 투사 장치(100-1)에 의해 투사되고 있음을 알 수 있다. 영상 투사 장치(100-1)의 외측에 마련된 입력 장치(150-1)(예를 들어, 물리적 버튼)을 통해, 프로세서(110-1)는 사용자 입력을 수신할 수 있다.Referring to FIG. 8A, the external device 400 and the first image projector 100-1 are paired with each other so that the screen of the external device 400 is projected by the first image projector 100-1. It can be seen. The processor 110-1 may receive a user input through an input device 150-1 (eg, a physical button) provided outside the image projection apparatus 100-1.
도 8b는 사용자 입력을 수신할 수 있는 버튼이 투사 화면에 포함되어 제공되는 실시 예를 도시한 도면이다. 센서 모듈(140)이 투사 화면에 포함된 버튼을 누르는 사용자 제스쳐를 감지하면, 프로세서(110)는 네트워크 연결 또는 투사 영역 확장 기능 활성화 입력이 수신된 것으로 판단할 수 있다.FIG. 8B is a diagram illustrating an embodiment in which a button for receiving a user input is included in a projection screen and provided. When the sensor module 140 detects a user gesture of pressing a button included in the projection screen, the processor 110 may determine that a network connection or a projection area extension function activation input has been received.
다른 예로, 도 8c에 도시된 것과 같이, 제1 영상 투사 장치(100-1)는 페어링된 외부 기기(400)를 통해 사용자 입력을 수신할 수도 있다.As another example, as illustrated in FIG. 8C, the first image projector 100-1 may receive a user input through the paired external device 400.
도 9는 제1 영상 투사 장치(100-1) 및 제2 영상 투사 장치(100-2)의 투사 영역이 통합되어 전체 투사 영역으로 확장된 것을 도시한 도면이다. 외부 기기(400)에서 제공하는 'A' 영상이 전체 투사 영역에 투사됨을 확인할 수 있다. 도 9는 복수의 영상 투사 장치(100-1, 100-2)가 수평하게 배치되어, 프로세서(110)는 복수의 영상 투사 장치(100-1, 100-2) 사이의 거리만으로 전체 투사 영역을 계산할 수 있다. 복수의 영상 투사 장치(100-1, 100-2)의 배치가 어긋난 경우에 대해서는 도 12에서 다시 상세히 설명하기로 한다.FIG. 9 is a diagram illustrating that the projection areas of the first image projection device 100-1 and the second image projection device 100-2 are integrated and extended to the entire projection area. It can be seen that the 'A' image provided by the external device 400 is projected on the entire projection area. In FIG. 9, a plurality of image projectors 100-1 and 100-2 are horizontally arranged, and the processor 110 may cover the entire projection area only by a distance between the plurality of image projectors 100-1 and 100-2. Can be calculated A case where the arrangement of the plurality of image projectors 100-1 and 100-2 is misaligned will be described in detail later with reference to FIG. 12.
도 10a 및 도 10b는 본 발명의 일 실시 예에 따른 복수의 영상 투사 장치(100-1, 100-2)가 각각 외부 기기(400-1, 400-2)와 연결되어 있다가, 투사 영역을 확장한 경우를 도시한 도면이다.10A and 10B illustrate a plurality of image projection apparatuses 100-1 and 100-2 according to an embodiment of the present invention connected to external devices 400-1 and 400-2, respectively. It is a figure which shows the extended case.
도 10a를 참조하면, 제1 영상 투사 장치(100-1)는 제1 외부 기기(400-1)와 페어링되어, 제1 외부 기기(400-1)에서 제공하는 'A' 영상을 투사한다. 마찬가지로, 제2 영상 투사 장치(100-2)는 제2 외부 기기(400-2)와 페어링되어, 제2 외부 기기(400-2)에서 제공하는 'B' 영상을 투사한다.Referring to FIG. 10A, the first image projector 100-1 is paired with the first external device 400-1 to project an 'A' image provided by the first external device 400-1. Similarly, the second image projector 100-2 is paired with the second external device 400-2 to project the 'B' image provided by the second external device 400-2.
복수의 영상 투사 장치(100-1, 100-2)가 연동하여 전체 투사 영역에 하나의 컨텐츠를 투사하고자 할 때, 어느 영상 투사 장치(100-1, 100-2)에서 투사되던 영상을 연동하여 투사할 것인지 판단할 필요성이 존재한다.When the plurality of image projectors 100-1 and 100-2 are linked to project one content to the entire projection area, the image projected by any of the image projection devices 100-1 and 100-2 is linked. There is a need to determine whether to project.
예를 들어, 도 10a 및 도 10b에 도시된 것과 같이, 프로세서(110)는 투사 영역 확장 기능을 요청한 영상 투사 장치(100)에서 투사하던 영상을 연동하여 투사하도록 선택할 수 있다. 도 10a에서는 제1 영상 투사 장치(100-1)에 마련된 버튼을 통한 사용자 입력에 대응하여, 프로세서(110)는 'A' 영상이 확장된 전체 투사 영역에서 투사되도록 제어할 수 있다. 반대로, 도 10b에서는 제2 영상 투사 장치(100-1)에 마련된 버튼을 통한 사용자 입력에 대응하여, 프로세서(110)는 'B' 영상이 확장된 전체 투사 영역에서 투사되도록 제어할 수 있다.For example, as shown in FIGS. 10A and 10B, the processor 110 may select to project the image projected by the image projection apparatus 100 that has requested the projection area expansion function in association. In FIG. 10A, in response to a user input through a button provided in the first image projector 100-1, the processor 110 may control the 'A' image to be projected in the entire extended projection area. In contrast, in FIG. 10B, in response to a user input through a button provided in the second image projector 100-1, the processor 110 may control the 'B' image to be projected in the entire extended projection area.
다른 실시 예로, 프로세서(110)는 제1 투사 영역 및 제2 투사 영역 중 어느 영역을 중심으로 투사 영역을 확장할 것인지를 설정하는 화면을 제공할 수도 있다. 프로세서(110)는 화면에 의해 설정된 영역을 중심으로 전체 투사 영역을 결정할 수 있다. 예를 들어, 프로세서(110)는 UI가 포함된 화면을 제공하여, 설정된 영역을 중심으로 전체 투사 영역을 결정할 수 있다. 도 9 내지 도 10b와 같은 경우에는, 어느 투사 영역을 중심으로 하더라도 동일한 형태의 전체 투사 영역이 결정될 것이다. 하지만, 도 11a 및 도 11b에 도시된 바과 같이, 복수의 영상 투사 장치(100-1, 100-2)의 영상 투사 방향이 상이한 경우에는 어느 것을 중심으로 전체 투사 영역(edge blending 화면으로도 표현 가능)을 결정할 것인지를 판단해야 할 필요성이 있다.In another embodiment, the processor 110 may provide a screen for setting which of the first projection area and the second projection area to extend the projection area. The processor 110 may determine the entire projection area based on the area set by the screen. For example, the processor 110 may provide a screen including a UI to determine the entire projection area based on the set area. In the case of FIGS. 9 to 10B, the entire projection area of the same shape will be determined no matter which projection area is centered. However, as illustrated in FIGS. 11A and 11B, when the image projection directions of the plurality of image projection apparatuses 100-1 and 100-2 are different from each other, the entire projection area (edge blending screen) can be represented. There is a need to decide whether or not to decide.
상술한 화면 또는 UI를 제공하는 방법 이외에도, 투사 영역 확장 기능을 활성화시키는 사용자 명령이 입력된 영상 투사 장치(100)를 중심으로 투사 영역을 확장하는 방법, 컨텐츠를 전달하는 외부 기기(400)와 연결된 영상 투사 장치(100)를 중심으로 투사 영역을 확장하는 방법, 사용자가 마지막으로 설치한 영상 투사 장치(100)를 중심으로 투사 영역을 확장하는 방법, 네트워크에 마지막으로 연결된 영상 투사 장치(100)를 중심으로 투사 영역을 확장하는 방법 등 다양한 방법이 적용될 수 있다.In addition to the above-described method of providing a screen or UI, a method of expanding a projection area around the image projection apparatus 100 in which a user command for activating the projection area extension function is input, and connected to an external device 400 for delivering content. How to extend the projection area around the image projection device 100, how to extend the projection area around the image projection device 100 that the user last installed, the image projection device 100 last connected to the network Various methods may be applied, such as a method of extending the projection area around the center.
이하에서는 도 12a 내지 도 12c를 참조하여, 본 발명의 일 실시 예에 따른 전체 투사 영역을 계산하는 방법을 설명하기로 한다.Hereinafter, a method of calculating an entire projection area according to an embodiment of the present invention will be described with reference to FIGS. 12A to 12C.
본 발명의 일 실시 예에 따른 영상 투사 장치(100)는 기 결정된 크기 및 형태의 투사 영역을 갖는다. 이에 따라, 복수의 영상 투사 장치(100)의 상대적 배치 정보만으로도 전체 투사 영역을 계산할 수 있게 된다. 즉, 별도의 장치를 통한 영상처리 과정 없이도, 프로세서(110)는 복수의 투사 영역이 겹쳐지는 형태를 파악할 수 있게 된다. Image projection apparatus 100 according to an embodiment of the present invention has a projection area of a predetermined size and shape. Accordingly, the entire projection area can be calculated only by the relative arrangement information of the plurality of image projectors 100. In other words, without an image processing process through a separate device, the processor 110 can determine the form in which the plurality of projection areas overlap.
도 12a에 도시된 바와 같이, 복수의 영상 투사 장치(100-1, 100-2)가 수평하게 배치된 경우, 프로세서(110)는 장치들 사이의 거리 정보만으로 전체 투사 영역을 계산할 수 있다. 왜냐하면, 초단초점 광학계를 이용하는 본 발명의 일 실시 예에 따른 영상 투사 장치(100)는 일정한 투사 영역을 갖기 때문이다. 예를 들어, 프로세서(110)는 초음파 센서(144)를 이용하여 장치들 사이의 거리를 측정할 수 있다.As shown in FIG. 12A, when the plurality of image projectors 100-1 and 100-2 are horizontally arranged, the processor 110 may calculate the entire projection area based on only the distance information between the devices. This is because the image projection apparatus 100 according to the exemplary embodiment of the present invention using the ultra short focus optical system has a constant projection area. For example, the processor 110 may measure the distance between the devices using the ultrasonic sensor 144.
다음으로, 도 12b에 도시된 바와 같이, 복수의 영상 투사 장치(100-1, 100-2)의 투사 방향이 동일한 경우(회전 각도가 동일한 경우)에, 프로세서(110)는 장치들 사이의 거리 정보 및 장치들 사이의 각도 정보를 통해 전체 투사 영역을 계산할 수 있다. 프로세서(110)는 거리 정보 및 각도 정보를 이용하여, 타 영상 투사 장치(100-2)와의 수평, 수직 거리를 판단할 수 있다. 예를 들어, 프로세서(110)는 (r, θ) 좌표 값을 (x, y) 좌표 값으로 변환하여 수평, 수직 거리를 판단할 수 있다.Next, as shown in FIG. 12B, when the projection directions of the plurality of image projectors 100-1 and 100-2 are the same (when the rotation angles are the same), the processor 110 determines the distance between the devices. The entire projection area can be calculated from the information and the angle information between the devices. The processor 110 may determine the horizontal and vertical distances from the other image projection apparatus 100-2 using the distance information and the angle information. For example, the processor 110 may determine the horizontal and vertical distances by converting the (r, θ) coordinate values into the (x, y) coordinate values.
도 12c는 영상 투사 장치(100-1)가 z축(배치면에 수직한 방향의 축)을 회전축으로 하는 회전이 있어, 타 영상 투사 장치(100-2)와 영상 투사 방향이 일치하지 않는 경우를 도시한 도면이다. 이러한 경우, 프로세서(110)는 센서 모듈(140)을 이용하여 영상 투사 장치(100-1)의 회전 각도 정보를 얻을 수 있다. 예를 들어, 센서 모듈(140)은 영상 투사 장치(100-1)의 회전 각도를 지자기 센서를 통해 감지할 수 있다.12C illustrates that the image projection apparatus 100-1 rotates the z axis (the axis perpendicular to the placement surface) as the rotation axis, and thus the image projection direction of the image projection apparatus 100-2 does not match. Figure is a diagram. In this case, the processor 110 may obtain rotation angle information of the image projection apparatus 100-1 by using the sensor module 140. For example, the sensor module 140 may detect the rotation angle of the image projector 100-1 through the geomagnetic sensor.
프로세서(110)는 복수의 영상 투사 장치(100-1, 100-2)들 사이의 거리 정보, 각도 정보 및 영상 투사 장치(100-1)의 기울임 정보를 조합하여, 전체 투사 영역을 결정할 수 있다. 프로세서(110)는 타 영상 투사 장치(100-2)의 회전 각도 정보를 수신하도록 통신 모듈(120)을 제어할 수도 있다.The processor 110 may determine the total projection area by combining distance information, angle information, and tilt information of the image projection apparatus 100-1 between the plurality of image projection apparatuses 100-1 and 100-2. . The processor 110 may control the communication module 120 to receive rotation angle information of the other image projector 100-2.
도 13a 내지 도 13e는 다양한 형태로 복수의 영상 투사 장치(100)를 배치하여 화면을 확장하는 것을 도시한 도면이다.13A to 13E illustrate an example of expanding a screen by arranging a plurality of image projection apparatuses 100 in various forms.
도 13a는 복수의 영상 투사 장치(100-1, 100-2)를 수평으로 배치한 경우를 도시한 것이며, 도 13b는 복수의 영상 투사 장치(100-1, 100-2)를 수직으로 배치한 경우를 도시한 것이다. 프로세서(100)는 전체 투사 영역을 결정하고, 전체 투사 영역 중 제1 영상 투사 장치(100-1)에 의한 제1 투사 영역과 제2 영상 투사 장치(100-2)에 의한 제2 투사 영역이 중첩되는 중첩 영역이 어디인지 판단할 수 있다. 중첩 영역에는 빛이 중첩되어 투사되기 때문에, 프로세서(110)는 중접 영역에 투사된 영상의 투명도를 조정하여 전체 투사 영역의 밝기가 일정하도록 조정할 수 있다.FIG. 13A illustrates a case where the plurality of image projectors 100-1 and 100-2 are horizontally arranged, and FIG. 13B illustrates a case where the plurality of image projectors 100-1 and 100-2 are vertically arranged. The case is shown. The processor 100 determines an entire projection area, and among the entire projection areas, the first projection area by the first image projection apparatus 100-1 and the second projection area by the second image projection apparatus 100-2 are determined. It is possible to determine where overlapping regions overlap. Since light is overlapped and projected in the overlapping area, the processor 110 may adjust the transparency of the image projected on the overlapping area so that the brightness of the entire projection area is constant.
도 13c 및 도 13d와 같이 더 많은 수의 영상 투사 장치(100)를 사용할 경우, 중첩 영역의 중첩 횟수가 서로 다른 영역들이 발생하게 된다. 예를 들어, 프로세서(110)는 각 중첩 영역별로 알파 값을 조정하는 방식으로 전체 투사 영역의 밝기를 일정하게 유지할 수 있다.When using a larger number of image projection apparatuses 100 as shown in FIGS. 13C and 13D, regions in which the number of overlapping overlapping regions are different are generated. For example, the processor 110 may maintain a constant brightness of the entire projection area by adjusting an alpha value for each overlapping area.
도 13e와 같이, 복수의 영상 투사 장치(100-1, 100-2)가 중력 방향을 기준으로 회전된 상태라면, 프로세서(110)는 투사되는 영상을 회전시키고 축소하는 보정을 수행할 수 있다. 회전 및 축소 보정이 수행된 경우에는, 도 13e의 아래 도면에 도시된 것과 같이, 중첩 영역이 직사각형 형태가 아닌 평행사변형 형태를 띄게된다.As shown in FIG. 13E, when the plurality of image projectors 100-1 and 100-2 are rotated based on the gravity direction, the processor 110 may perform correction to rotate and reduce the projected image. In the case where the rotation and reduction correction is performed, as shown in the lower figure of FIG. 13E, the overlapped region is not parallel but has a parallelogram shape.
도 14a 내지 도 14c는 본 발명의 일 실시 예에 따른 영상 투사 장치(100)에서 영상 데이터를 전달하는 방식에 대하여 도시한 도면이다.14A to 14C are diagrams illustrating a method of transmitting image data in the image projection apparatus 100 according to an exemplary embodiment.
도 14a를 참조하면, 외부 기기(400)에서 컨텐츠를 복수의 서브 영상으로 분할하는 방식이 적용될 수 있다. 전체 투사 영역 중 좌측에는 제1 영상 투사 장치(100-1)로부터 투사된 영상이 표시될 것이며, 전체 투사 영역 중 우측에는 제2 영상 투사 장치(100-2)로부터 투사된 영상이 표시될 것이다. 프로세서(110-1)는 외부 기기(400)에서 미리 컨텐츠를 복수의 서브 영상(예를 들어, 좌측 A 화면 및 우측 A 화면)으로 분할한 데이터를 통신 모듈(120-1)을 통해 수신할 수 있다. 그리고, 프로세서(110-1)는 광학 모듈(160-1) 통해 투사할 데이터인 좌측 A 화면 데이터를 제외한, 나머지 데이터인 우측 A 화면 데이터를 타 영상 투사 장치(100-2)로 전송하도록 통신 모듈(120-1)을 제어할 수 있다.Referring to FIG. 14A, a method of dividing content into a plurality of sub-images by the external device 400 may be applied. An image projected from the first image projector 100-1 will be displayed on the left side of the entire projection area, and an image projected from the second image projector 100-2 will be displayed on the right side of the entire projection area. The processor 110-1 may receive, through the communication module 120-1, data obtained by dividing the content into a plurality of sub-images (eg, a left A screen and a right A screen) in advance by the external device 400. have. The processor 110-1 transmits the remaining A screen data, other than the left A screen data, to be projected through the optical module 160-1, to the other image projection apparatus 100-2. 120-1 can be controlled.
도 14b는 모든 장치(400, 100-1, 100-2)가 전체 영상 데이터를 공유하는 실시 예를 도시한 도면이다. 이러한 경우, 각 영상 투사 장치(100-1, 100-2)의 프로세서(110-1, 110-2)는 컨텐츠를 복수의 서브 영상으로 분할하고, 자신의 광학 모듈(160-1, 160-2)을 통해 투사할 서브 영상을 판단할 수 있다.FIG. 14B is a diagram illustrating an embodiment in which all devices 400, 100-1, and 100-2 share all image data. In this case, the processors 110-1 and 110-2 of the image projection apparatuses 100-1 and 100-2 divide the contents into a plurality of sub-images, and the optical modules 160-1 and 160-2 of the optical modules 160-1 and 160-2. ) To determine the sub image to be projected.
도 14c를 참조하면, 프로세서(110-1)는 외부 기기(400)로부터 수신한 컨텐츠(A 화면 데이터)를 복수의 서브 영상으로 분할할 수 있다. 그리고, 프로세서(110-1)는 복수의 서브 영상 중 하나(좌측 A 화면 데이터)를 광학 모듈(160-1)을 통해 투사면으로 투사하고, 복수의 서브 영상 중 다른 하나(우측 A 화면 데이터)를 타 영상 투사 장치(100-2)로 전송하도록 통신 모듈(120-1)을 제어할 수 있다.Referring to FIG. 14C, the processor 110-1 may divide content (A screen data) received from the external device 400 into a plurality of sub-images. The processor 110-1 projects one of the plurality of sub images (left A screen data) onto the projection surface through the optical module 160-1, and the other of the plurality of sub images (right A screen data). The communication module 120-1 may be controlled to transmit the data to the other image projection apparatus 100-2.
도 15a 내지 도 15c는 본 발명의 다양한 실시 예에 따른 복수의 영상 투사 장치(100)에서의 데이터 전송하는 순서를 설명하기 위한 도면이다. 영상 투사 장치(100)들 간에 전달하는 데이터는 영상 데이터 뿐만 아니라 투사 영역에 대한 데이터도 포함될 수 있다.15A to 15C are diagrams for describing a procedure of transmitting data in a plurality of image projection apparatuses 100 according to various embodiments of the present disclosure. The data transferred between the image projection apparatuses 100 may include not only image data but also data on a projection area.
도 15a에 도시된 것과 같이, 외부 기기(400)와 연결된 영상 투사 장치(100)가 데이터를 분배하여 전달하는 방법이 적용될 수 있다. 즉, 외부 기기(400)와 연결된 영상 투사 장치(100)가 데이터 분배에 관한 기능을 모두 수행하는 실시 예에 해당한다.As shown in FIG. 15A, a method of distributing and transferring data by the image projector 100 connected to the external device 400 may be applied. That is, the image projection apparatus 100 connected to the external device 400 performs all the functions related to data distribution.
도 15b는 복수의 영상 투사 장치(100)들이 순차적으로 데이터를 전달하는 방식을 도시한 도면이다. 예를 들어, 영상 투사 장치(100)는 전체 데이터 중 다른 영상 투사 장치에서 사용되는 데이터만을 전달할 수도 있고, 전체 데이터를 그대로 다시 전달할 수도 있다.FIG. 15B is a diagram illustrating a method of sequentially transmitting data by the plurality of image projection apparatuses 100. For example, the image projection apparatus 100 may deliver only data used in another image projection apparatus among all the data, or may transmit the entire data again as it is.
다른 예로, 빠른 데이터 전송을 위하여, 도 15c에 도시된 것과 같이 데이터를 전송하는 방식을 취할 수도 있을 것이다.As another example, for fast data transmission, a method of transmitting data may be taken as illustrated in FIG. 15C.
본 발명의 일 실시 예에 따른 영상 투사 장치(100-1)는 특정 거리 이내에 타 영상 투사 장치(100-2)가 존재한다면 전체 투사 영역을 계산하여 그에 적합한 컨텐츠를 생성할 수 있다. 하지만, 특정 비율 또는 크기로 영상을 확대하고 싶은 경우에는, 복수의 영상 투사 장치(100-1, 100-2)들이 배치되여야 하는 위치가 결정된다. 이러한 경우에, 프로세서(110)는 타 영상 투사 장치(100-2)가 배치되어야 하는 위치를 안내하는 가이드 메시지를 제공할 수 있다. 프로세서(110)는 도 16a 내지 도 16f에 도시된 것과 같은 다양한 가이드 메시지를 제공할 수 있다. 예를 들어, 가이드 메시지는 광 신호, 음성 신호, 진동 신호, 영상 신호 중 적어도 하나의 형태로 제공될 수 있다.If another image projection apparatus 100-2 exists within a specific distance, the image projection apparatus 100-1 according to an embodiment of the present invention may calculate the entire projection area and generate content suitable for the image projection apparatus 100-1. However, when the image is to be enlarged by a specific ratio or size, a position where the plurality of image projectors 100-1 and 100-2 should be arranged is determined. In this case, the processor 110 may provide a guide message for guiding a position where the other image projection apparatus 100-2 should be disposed. The processor 110 may provide various guide messages as shown in FIGS. 16A-16F. For example, the guide message may be provided in at least one of an optical signal, an audio signal, a vibration signal, and an image signal.
도 16a는 광원을 이용하는 방법의 일 예로 LED의 색상을 이용하는 것을 나타낸 도면이다. 도 16a를 참조하면, 영상 투사 장치(100-1)는 인디케이터로 LED(192-1)를 포함할 수 있다. 예를 들어, 타 영상 투사 장치(100-2)가 배치되어야 하는 위치가 수평인 위치(P 지점)일 수 있다. 타 영상 투사 장치(100-2)가 해당 위치에 배치되지 않은 경우에, 프로세서(110-1)는 LED(192-1)가 적색 광원으로 표시되도록 제어할 수 있다. 만일, 타 영상 투사 장치(100-2)가 해당 위치에 배치되면, 프로세서(110-1)는 LED(192-1)가 녹색 광원으로 표시되도록 제어할 수 있다.16A illustrates an example of using a color of an LED as a method of using a light source. Referring to FIG. 16A, the image projection apparatus 100-1 may include an LED 192-1 as an indicator. For example, the position where the other image projection apparatus 100-2 is to be disposed may be a horizontal position (P point). When the other image projection apparatus 100-2 is not disposed at the corresponding position, the processor 110-1 may control the LED 192-1 to be displayed as a red light source. If the other image projection apparatus 100-2 is disposed at a corresponding position, the processor 110-1 may control the LED 192-1 to be displayed as a green light source.
다른 예로는, 프로세서(110)는 목표 지점으로부터 떨어진 정도에 비례해서 LED(192-1)의 깜빡임 속도를 다르게 해서 사용자에게 가이드를 제공할 수도 있다. As another example, the processor 110 may provide a guide to the user by varying the blinking speed of the LED 192-1 in proportion to the distance from the target point.
다른 예로, 도 16b에 도시된 것과 같이, 광원의 모양을 이용하여 이동시켜야 하는 방향을 지시할 수도 있다. 도 16b와 같은 경우, 화살표와 같은 모양을 표현하기 위하여, 인디케이터(192)는 복수의 LED 램프를 포함할 수 있다.As another example, as shown in FIG. 16B, the shape of the light source may be used to indicate a direction to be moved. In the case of FIG. 16B, in order to express a shape such as an arrow, the indicator 192 may include a plurality of LED lamps.
도 16c를 참조하면, 프로세서(110-1)는 레이저를 이용하여 타 영상 투사 장치(100-2)가 배치되어야 하는 위치를 표시할 수 있다.Referring to FIG. 16C, the processor 110-1 may display a position where the other image projection apparatus 100-2 should be disposed by using a laser.
도 16d 및 16e는 원하는 영상 비율에 따라, 프로세서(110-1)가 타 영상 투사 장치(100-2)가 배치되어야 하는 위치를 안내하는 가이드 메시지를 제공하는 실시 예를 도시한 도면이다. 도16d 및 도 16의 P3 지점에 타 영상 투사 장치(100-2)가 배치되면, 확대된 전체 투사 영역은 4:3의 영상 비율을 갖게 된다. 만일, P4 지점에 타 영상 투사 장치(100-2)가 배치되면, 확대된 전체 투사 영역은 16:9의 영상 비율을 갖게 된다.16D and 16E illustrate an embodiment in which the processor 110-1 provides a guide message for guiding a location where the other image projection apparatus 100-2 should be disposed according to a desired image ratio. When the other image projection apparatus 100-2 is disposed at points P3 of FIGS. 16D and 16, the enlarged entire projection area has an image ratio of 4: 3. If the other image projector 100-2 is disposed at the point P4, the entire enlarged projection area has an image ratio of 16: 9.
또한, 타 영상 투사 장치(100-2)가 전체 투사 영역이 특정 영상 비율을 갖기 위한 위치에 배치된 경우, 프로세서(110-1)는 영상 비율을 나타내는 안내 메시지를 투사하도록 광학 모듈(160)을 제어할 수 있다. 도 16d의 경우, 프로세서(110-1)는 16:9 라는 안내 메시지를 투사하도록 광학 모듈(160)을 제어할 수 있다. 마찬가지로, 도 16e의 경우, 프로세서(110-1)는 4:3 이라는 안내 메시지를 투사하도록 광학 모듈(160)을 제어할 수 있다.In addition, when the other image projection apparatus 100-2 is disposed at a position where the entire projection area has a specific image ratio, the processor 110-1 may cause the optical module 160 to project a guide message indicating the image ratio. Can be controlled. In the case of FIG. 16D, the processor 110-1 may control the optical module 160 to project a 16: 9 guide message. Likewise, in the case of FIG. 16E, the processor 110-1 may control the optical module 160 to project a 4: 3 guide message.
도 16e는 타 영상 투사 장치(100-2)가 이동해야 하는 방향을 안내하는 가이드 메시지를 투사하는 실시 예를 도시한 도면이다. 만일, 원하는 확장 화면을 구성할 수 있는 위치에 타 영상 투사 장치(100-2)가 배치된 경우, '화면 확장 위치에 놓여졌습니다'와 같은 가이드 메시지가 투사 화면을 통해 제공될 수 있다.FIG. 16E is a diagram illustrating an embodiment of projecting a guide message for guiding a direction in which another image projection apparatus 100-2 should move. If the other image projection apparatus 100-2 is disposed at a position capable of constructing a desired extended screen, a guide message such as 'put on the screen extended position' may be provided through the projection screen.
그 밖에, 프로세서(110)는 복수의 영상 투사 장치(100)간의 거리를 음성 신호나 진동 신호로 제공할 수도 있다. 예를 들어, 프로세서(110)는 복수의 영상 투사 장치(100)간의 거리가 근접할수록 음성 신호가 크게 발생되도록 오디오 모듈(180)을 제어할 수 있다. 다른 예로, 프로세서(110)는 복수의 영상 투사 장치(100)간의 거리가 근접할수록 진동이 강하게 발생되도록 모터(193)를 제어할 수 있다.In addition, the processor 110 may provide a distance between the plurality of image projectors 100 as an audio signal or a vibration signal. For example, the processor 110 may control the audio module 180 such that a voice signal is generated as the distance between the plurality of image projectors 100 approaches. As another example, the processor 110 may control the motor 193 so that vibration is generated as the distance between the plurality of image projectors 100 approaches.
상술한 바와 같은 다양한 실시 예에 의하여, 사용자는 복수의 영상 투사 장치를 근접시키는 동작만으로 신속하고 용이하게 확장된 크기의 화면으로 영상을 투사할 수 있게 된다.According to various embodiments as described above, a user can project an image on a screen of an expanded size quickly and easily by only moving the plurality of image projectors in proximity.
도 17 내지 도 19는 본 발명의 다양한 실시 예에 따른 영상 투사 장치(100)의 투사 영역 확장 방법을 설명하기 위한 흐름도이다.17 to 19 are flowcharts illustrating a method of expanding a projection area of an image projection apparatus 100 according to various embodiments of the present disclosure.
도 17을 참조하면, 영상 투사 장치(100)는 인접하는 타 영상 투사 장치(100-2)가 존재하는지를 감지한다(S1710). 예를 들어, 영상 투사 장치(100)는 초음파 센서, 근접 센서 등을 이용하여 타 영상 투사 장치(100-2)가 일정 거리 범위 이내에 위치하는지 감지할 수 있다.Referring to FIG. 17, the image projection apparatus 100 detects whether another adjacent image projection apparatus 100-2 exists (S1710). For example, the image projection apparatus 100 may detect whether another image projection apparatus 100-2 is located within a predetermined distance range by using an ultrasonic sensor or a proximity sensor.
.그리고, 영상 투사 장치(100)는 감지된 타 영상 투사 장치와 통신 연결한다(S1720). 영역 데이터 및 영상 데이터를 전송하는 과정이 필요하기 때문에, 영상 투사 장치(100)는 통신 연결 가능성에 대한 판단을 추가적으로 진행할 수 있다.In operation S1720, the image projector 100 communicates with another detected image projector. Since the process of transmitting the area data and the image data is necessary, the image projection apparatus 100 may further determine the possibility of communication connection.
타 영상 투사 장치(100-2)와 통신이 되면, 영상 투사 장치(100)는 감지된 타 영상 투사 장치(100-2)와의 거리에 기초하여 영상을 영상 투사 장치(100)가 배치된 배치면으로부터 연장된 표면 방향으로 투사할 수 있다(S1730).When communicating with another image projection apparatus 100-2, the image projection apparatus 100 displays an image based on the detected distance from the other image projection apparatus 100-2, on which the image projection apparatus 100 is disposed. It can project in the surface direction extending from the (S1730).
도 18은 본 발명의 일 실시 예에 따른 영상 투사 장치(100)의 투사 영역 확장 방법을 보다 구체적으로 설명한 흐름도이다. 도 18은 특히 S1730 단계에서 설명한 타 영상 투사 장치(100-2)와의 연동 동작을 보다 구체적으로 도시한 것이다.18 is a flowchart illustrating a method of expanding a projection area of the image projection apparatus 100 according to an embodiment of the present invention in more detail. 18 illustrates the interlocking operation with the other image projection apparatus 100-2 described in detail in operation S1730 in more detail.
S1810 및 S1820 단계는 S1710 및 S1720 단계와 대응되는바, 이에 대한 설명은 생략하기로 한다.Steps S1810 and S1820 correspond to steps S1710 and S1720, and a description thereof will be omitted.
영상 투사 장치(100)는 타 영상 투사 장치(100-2)를 감지하고 통신 연결된 것을 확인하면, 영상 투사 장치(100)의 제1 투사 영역과 타 영상 투사 장치(100-2)의 제2 투사 영역을 조합하여 전체 투사 영역을 결정한다(S1830). 예를 들어, 영상 투사 장치(100)는 타 영상 투사 장치(100-2)와의 상대적인 거리, 각도 및 영상 투사 장치(100)의 회전 각도 정보를 이용하여 제1 투사 영역과 제2 투사 영역이 어떻게 배치되는지 판단할 수 있다. 이러한 정보를 조합하여, 영상 투사 장치(100)는 전체 투사 영역의 크기 및 형태를 판단할 수 있다.When the image projection apparatus 100 detects the other image projection apparatus 100-2 and confirms that the communication is connected, the first projection area of the image projection apparatus 100 and the second projection of the other image projection apparatus 100-2 The entire projection area is determined by combining the areas (S1830). For example, the image projection apparatus 100 may determine how the first projection region and the second projection region are based on the relative distance, angle, and rotation angle information of the image projection apparatus 100 from another image projection apparatus 100-2. You can determine if it is deployed. By combining this information, the image projector 100 may determine the size and shape of the entire projection area.
영상 투사 장치(100)는 전체 투사 영역의 크기 및 형태에 대응되는 크기 및 형태를 갖는 컨텐츠를 생성한다(S1840). 그리고, 영상 투사 장치(100)는 전체 투사 영역 중 제1 투사 영역 및 제2 투사 영역이 차지하는 영역을 판단하여, 각 영상 투사 장치(100, 100-2)에서 투사해야 하는 컨텐츠 부분을 판단할 수 있다. 즉, 타 영상 투사 장치(100-2)에서 투사하는 영상과 영상 투사 장치(100)이 투사하는 영상이 조합되어 하나의 컨텐츠를 구성하도록, 영상 투사 장치(100)는 타 영상 투사 장치(100-2)와의 거리에 따라 컨텐츠의 적어도 일 부분을 영상으로 생성할 수 있다.The image projection apparatus 100 generates content having a size and shape corresponding to the size and shape of the entire projection area (S1840). In addition, the image projection apparatus 100 may determine an area occupied by the first projection region and the second projection region among the entire projection regions, and may determine the content portion that should be projected by each of the image projection apparatuses 100 and 100-2. have. That is, the image projecting apparatus 100 is configured to generate another content by combining the image projected by the other image projector 100-2 and the image projected by the image projecting apparatus 100 to form one content. 2) at least a part of the content may be generated as an image according to a distance from the content.
그리고, 영상 투사 장치(100)는 컨텐츠를 복수의 서브 영상으로 분할할 수 있다(S1850). 그리고, 영상 투사 장치(100)는 복수의 서브 영상 중 제1 투사 영역에서 투사되어야 하는 서브 영상을 투사면에 투사하고, 제2 투사 영역에서 투사되어야 하는 서브 영상을 타 영상 투사 장치(100-2)로 제공할 수 있다(S1860).In operation S1850, the image projection apparatus 100 may divide the content into a plurality of sub-images. The image projection apparatus 100 projects a sub-image to be projected in the first projection area among the plurality of sub-images onto the projection surface, and the sub-image projection apparatus 100-2 to project the sub-image to be projected in the second projection area. It may be provided as (S1860).
도 19는 본 발명의 일 실시 예에 따른 영상 투사 장치(100)가 투사 영역 확장 기능을 실행할 수 있는지 판단하는 과정을 설명한 흐름도이다.19 is a flowchart illustrating a process of determining whether the image projection apparatus 100 according to an embodiment of the present invention can execute a projection area extension function.
우선, 영상 투사 장치(100)는 투사 영역 확장 기능을 활성화시키는 사용자 명령을 수신할 수 있다(S1910). 사용자 명령에 대응하여, 영상 투사 장치(100)는 타 영상 투사 장치(100-2)가 일정 거리 내에 위치하여 있는지 판단한다(S1920). 영상 투사 장치(100)는 근접 센서, 초음파 센서 등을 이용하여 일정 거리 내에 타 영상 투사 장치(100-2)가 존재하는지를 판단할 수 있다. 만일, 일정 거리 이내에 타 영상 투사 장치(100-2)가 없다면(S1920-N), 영상 투사 장치(100)는 거리 이동에 대한 가이드 메시지를 제공할 수 있다(S1950). 예를 들어, 영상 투사 장치(100)는 거리 이동 뿐아니라 특정 위치를 지정하는 가이드 메시지를 제공할 수도 있다.First, the image projection apparatus 100 may receive a user command for activating the projection area extension function (S1910). In response to the user command, the image projection apparatus 100 determines whether the other image projection apparatus 100-2 is located within a predetermined distance (S1920). The image projection apparatus 100 may determine whether another image projection apparatus 100-2 exists within a predetermined distance by using a proximity sensor or an ultrasonic sensor. If there is no other image projection apparatus 100-2 within a predetermined distance (S1920-N), the image projection apparatus 100 may provide a guide message for distance movement (S1950). For example, the image projection apparatus 100 may provide a guide message for designating a specific position as well as moving the distance.
타 영상 투사 장치(100-2)가 일정 거리 내에 존재하는 것으로 판단되면(S1920-Y), 영상 투사 장치(100)는 각 영상 투사 장치들이 통신 연결된 상태인지를 점검한다(S1930). 데이터를 송수신하는 것을 전제로 투사 영역 확장 기능이 수행될 수 있기 때문에, 통신 연결이 되지 않은 것으로 판단되면(S1930-N), 영상 투사 장치(100)는 통신 연결에 대한 가이드를 제공할 수 있다(S1960).If it is determined that the other image projection apparatus 100-2 exists within a predetermined distance (S1920-Y), the image projection apparatus 100 checks whether each image projection apparatus is in a communication connection state (S1930). Since the projection area expansion function may be performed under the premise of transmitting and receiving data, when it is determined that the communication connection is not made (S1930-N), the image projection apparatus 100 may provide a guide for the communication connection ( S1960).
통신 연결이 된 것으로 판단되면(S1930-Y, S1970-Y), 영상 투사 장치(100)는 타 영상 투사 장치(100-2)와 연동하여 투사 영역 확장 기능을 실행할 수 있다.If it is determined that the communication connection is made (S1930-Y, S1970-Y), the image projection apparatus 100 may execute the projection area extension function in conjunction with the other image projection apparatus 100-2.
그 밖의 영상 투사 장치(100)의 투사 영역 확장 방법에 대한 다양한 실시 예는 영상 투사 장치(100)의 실시 예에 대한 설명과 중복되는바 생략하기로 한다.Various embodiments of the method of expanding the projection area of the image projection apparatus 100 overlap with the description of the embodiment of the image projection apparatus 100 and will be omitted.
상기에서 설명된 방법들은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광 기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기의 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The methods described above may be embodied in the form of program instructions that may be executed by various computer means and may be recorded in a computer readable medium. The computer readable medium may include program instructions, data files, data structures, etc. alone or in combination. Program instructions recorded on the media may be those specially designed and constructed for the purposes of the present invention, or they may be of the kind well-known and available to those having skill in the computer software arts. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tape, optical media such as CD-ROMs, DVDs, and magnetic disks, such as floppy disks. Magneto-optical media, and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like. The hardware device may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.
이상과 같이 본 발명은 비록 한정된 실시 예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시 예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다. 그러므로, 본 발명의 범위는 설명된 실시 예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.As described above, although the present invention has been described with reference to the limited embodiments and the drawings, the present invention is not limited to the above embodiments, and those skilled in the art to which the present invention pertains various modifications and variations from such descriptions. This is possible. Therefore, the scope of the present invention should not be limited to the described embodiments, but should be determined not only by the claims below but also by the equivalents of the claims.

Claims (15)

  1. 영상 투사 장치에 있어서,In the image projection apparatus,
    상기 영상 투사 장치가 배치된 배치면으로부터 연장된 표면 방향으로 광을 투사하기 위한 광학 모듈;An optical module for projecting light in a surface direction extending from an arrangement surface on which the image projector is disposed;
    상기 영상 투사 장치로부터 일정 거리 범위 이내에 위치하는 타 영상 투사 장치를 감지하기 위한 센서 모듈;A sensor module for detecting another image projection apparatus located within a predetermined distance range from the image projection apparatus;
    통신 모듈; 및Communication module; And
    상기 감지된 타 영상 투사 장치와 상기 통신 모듈을 통해 통신이 되면, 상기 타 영상 투사 장치와의 거리에 기초하여 상기 광학 모듈을 통하여 상기 영상이 투사되도록 하는 프로세서;를 포함하는 영상 투사 장치.And a processor configured to project the image through the optical module based on a distance from the other image projection apparatus when the detected other image projection apparatus communicates with the communication module.
  2. 제1항에 있어서,The method of claim 1,
    상기 프로세서는,The processor,
    상기 타 영상 투사 장치와의 거리에 따라 상기 컨텐츠의 적어도 일 부분을 상기 영상으로 생성하여 상기 타 영상 투사 장치에서 투사하는 영상과 상기 영상이 조합되어 하나의 컨텐츠를 구성하도록 하는 것을 특징으로 하는 영상 투사 장치.At least a portion of the content is generated as the image according to a distance from the other image projector so that the image projected by the other image projector and the image are combined to form one content Device.
  3. 제1항에 있어서,The method of claim 1,
    상기 프로세서는,The processor,
    상기 타 영상 투사 장치와의 거리에 따라, 하나의 컨텐츠를 복수의 서브 영상으로 분할하고, 상기 복수의 서브 영상 중 하나를 투사하도록 상기 광학 모듈을 제어하고, 상기 복수의 서브 영상 중 다른 하나를 상기 타 영상 투사 장치로 상기 통신 모듈을 통하여 전송하도록 하는, 영상 투사 장치.According to the distance from the other image projection apparatus, the content is divided into a plurality of sub-images, the optical module is controlled to project one of the plurality of sub-images, and the other of the plurality of sub-images And transmit to another image projecting device through the communication module.
  4. 제3항에 있어서,The method of claim 3,
    상기 센서 모듈은, 상기 타 영상 투사 장치와의 거리, 상기 영상 투사 장치의 회전 각도, 상기 영상 투사 장치와 상기 타 영상 투사 장치 사이의 각도 중 적어도 하나 이상을 감지하는 감지 값을 출력하고,The sensor module outputs a detection value for detecting at least one of a distance from the other image projector, a rotation angle of the image projector, and an angle between the image projector and the other image projector,
    상기 통신 모듈은, The communication module,
    상기 타 영상 투사 장치의 정보를 수신하고,Receiving information of the other image projection apparatus,
    상기 프로세서는,The processor,
    상기 감지 값과 상기 수신된 정보를 기반으로 상기 광학 모듈을 통해 투사되는 영상을 처리하는 영상 투사 장치.And an image projector processing the image projected through the optical module based on the detected value and the received information.
  5. 제4항에 있어서,The method of claim 4, wherein
    상기 타 영상 투사 장치는 타 영상 투사 장치의 회전 각도를 감지하는 센서 모듈을 구비하고,The other image projection device includes a sensor module for detecting a rotation angle of the other image projection device,
    상기 타 영상 투사 장치의 정보는 회전 각도 정보인 것을 특징으로 하는 영상 투사 장치.And the information of the other image projector is rotation angle information.
  6. 제2항에 있어서,The method of claim 2,
    상기 프로세서는,The processor,
    상기 영상 투사 장치의 제1 투사 영역 및 상기 타 영상 투사 장치의 제2 투사 영역 중 어느 영역을 중심으로 투사 영역을 확장할 것인지를 설정하는 화면을 제공하는 것을 특징으로 하는 영상 투사 장치.And a screen for setting which one of the first projection area of the image projection device and the second projection area of the other image projection device to extend the projection area.
  7. 제1항에 있어서,The method of claim 1,
    상기 프로세서는,The processor,
    상기 영상 투사 장치의 제1 투사 영역 중에서 상기 타 영상 투사 장치의 제2 투사 영역과 중첩되는 영역의 투명도를 상이하게 조정하는 것을 특징으로 하는 영상 투사 장치.And differently adjusting transparency of a region overlapping with a second projection region of the other image projection apparatus among the first projection regions of the image projection apparatus.
  8. 제1항에 있어서,The method of claim 1,
    상기 프로세서는,The processor,
    영상의 확대 비율이 설정되면, 상기 타 영상 투사 장치가 배치되어야 하는 위치를 안내하는 가이드 메시지를 제공하는 것을 특징으로 하는 영상 투사 장치.And a magnification ratio of the image, providing a guide message for guiding a position where the other image projection apparatus should be arranged.
  9. 제1항에 있어서,The method of claim 1,
    상기 광학 모듈은,The optical module,
    상기 배치면에 상기 영상 투사 장치의 일 면이 근접하도록 배치되면 광을 투사하고, 상기 배치면으로부터 상기 영상 투사 장치의 일 면이 이격되면 상기 광 투사를 중지하는 것을 특징으로 하는 영상 투사 장치.And projecting light when one surface of the image projection apparatus is disposed close to the layout surface, and stopping the light projection when one surface of the image projection apparatus is spaced apart from the layout surface.
  10. 영상 투사 장치의 투사 영역 확장 방법에 있어서,In the projection area expansion method of the image projection device,
    상기 영상 투사 장치로부터 일정 거리 범위 이내에 위치하는 타 영상 투사 장치를 감지하는 단계;Detecting another image projection apparatus located within a predetermined distance range from the image projection apparatus;
    상기 감지된 타 영상 투사 장치와 통신하는 단계; 및Communicating with the detected other image projection apparatus; And
    상기 타 영상 투사 장치와의 거리에 기초하여 영상을 상기 영상 투사 장치가 배치된 배치면으로부터 연장된 표면 방향으로 투사하는 단계;를 포함하는 투사 영역 확장 방법.And projecting an image based on a distance from the other image projecting device in a surface direction extending from an arrangement surface on which the image projecting device is disposed.
  11. 제10항에 있어서,The method of claim 10,
    상기 투사하는 단계는,The projecting step,
    상기 타 영상 투사 장치와의 거리에 따라 상기 컨텐츠의 적어도 일 부분을 상기 영상으로 생성하여 상기 타 영상 투사 장치에서 투사하는 영상과 상기 영상이 조합되어 하나의 컨텐츠를 구성하는 것을 특징으로 하는 투사 영역 확장 방법.Projection area expansion, characterized in that to generate at least a portion of the content as the image according to the distance to the other image projection device to combine the image projected by the other image projection device and the image to form a single content. Way.
  12. 제10항에 있어서,The method of claim 10,
    상기 투사하는 단계는,The projecting step,
    상기 타 영상 투사 장치와의 거리에 따라, 하나의 컨텐츠를 복수의 서브 영상으로 분할하는 단계;Dividing one content into a plurality of sub-images according to a distance from the other image projector;
    상기 복수의 서브 영상 중 하나를 투사하는 단계; 및Projecting one of the plurality of sub-images; And
    상기 복수의 서브 영상 중 다른 하나를 상기 타 영상 투사 장치로 전송하는 단계;를 포함하는 것을 특징으로 하는 투사 영역 확장 방법.And transmitting another one of the plurality of sub-images to the other image projection apparatus.
  13. 제12항에 있어서,The method of claim 12,
    상기 감지하는 단계는, 상기 타 영상 투사 장치와의 거리, 상기 영상 투사 장치의 회전 각도, 상기 영상 투사 장치와 상기 타 영상 투사 장치 사이의 각도 중 적어도 하나 이상을 감지하는 감지 값을 출력하고,The detecting may include outputting a detection value for detecting at least one of a distance from the other image projection apparatus, a rotation angle of the image projection apparatus, and an angle between the image projection apparatus and the other image projection apparatus,
    상기 통신하는 단계는, 상기 타 영상 투사 장치의 정보를 수신하며,The communicating may include receiving information of the other image projection apparatus.
    상기 투사하는 단계는, 상기 감지 값과 상기 수신된 정보를 기반으로 상기 투사되는 영상을 처리하는 것을 특징으로 하는 투사 영역 확장 방법.The projecting step may include processing the projected image based on the detected value and the received information.
  14. 제13항에 있어서,The method of claim 13,
    상기 타 영상 투사 장치의 정보는 상기 타 영상 투사 장치에서 감지된 회전 각도 정보인 것을 특징으로 하는 영상 투사 장치.And the information of the other image projection apparatus is rotation angle information detected by the other image projection apparatus.
  15. 제11항에 있어서,The method of claim 11,
    상기 영상 투사 장치의 제1 투사 영역 및 상기 타 영상 투사 장치의 제2 투사 영역 중 어느 영역을 중심으로 투사 영역을 확장할 것인지를 설정하는 화면을 제공하는 단계;를 더 포함하는 것을 특징으로 하는 투사 영역 확장 방법.And providing a screen for setting which one of a first projection area of the image projection device and a second projection area of the other image projection device to extend the projection area around. Zone expansion method.
PCT/KR2016/011554 2015-10-15 2016-10-14 Image projection apparatus, method for expanding projection area thereof, and non-temporary computer-readable recording medium WO2017065556A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2015-0144047 2015-10-15
KR1020150144047A KR20170044399A (en) 2015-10-15 2015-10-15 Image projection apparatus, projection area expanding method of thereof and non-transitory computer readable recording medium

Publications (1)

Publication Number Publication Date
WO2017065556A1 true WO2017065556A1 (en) 2017-04-20

Family

ID=58517369

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2016/011554 WO2017065556A1 (en) 2015-10-15 2016-10-14 Image projection apparatus, method for expanding projection area thereof, and non-temporary computer-readable recording medium

Country Status (2)

Country Link
KR (1) KR20170044399A (en)
WO (1) WO2017065556A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108168070A (en) * 2017-12-26 2018-06-15 珠海格力电器股份有限公司 Equipment installation method and device

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022234942A1 (en) * 2021-05-07 2022-11-10 삼성전자주식회사 Electronic apparatus and control method therefor
KR20240009810A (en) * 2022-07-14 2024-01-23 삼성전자주식회사 Image display apparatus and control method thereof

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009290412A (en) * 2008-05-28 2009-12-10 Nikon Corp Projector and multi-projection system
JP2013195498A (en) * 2012-03-16 2013-09-30 Nikon Corp Multi-projector system
US20150077642A1 (en) * 2013-09-19 2015-03-19 Seiko Epson Corporation Display system, image display device, and method of controlling display system
KR101526998B1 (en) * 2008-10-16 2015-06-08 엘지전자 주식회사 a mobile telecommunication device and a power saving method thereof
US20150244998A1 (en) * 2014-02-27 2015-08-27 Shinsuke Yanazume Image projection system and image projection apparatus
JP2015159522A (en) * 2014-01-21 2015-09-03 セイコーエプソン株式会社 Projector, control method of projector, and display device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009290412A (en) * 2008-05-28 2009-12-10 Nikon Corp Projector and multi-projection system
KR101526998B1 (en) * 2008-10-16 2015-06-08 엘지전자 주식회사 a mobile telecommunication device and a power saving method thereof
JP2013195498A (en) * 2012-03-16 2013-09-30 Nikon Corp Multi-projector system
US20150077642A1 (en) * 2013-09-19 2015-03-19 Seiko Epson Corporation Display system, image display device, and method of controlling display system
JP2015159522A (en) * 2014-01-21 2015-09-03 セイコーエプソン株式会社 Projector, control method of projector, and display device
US20150244998A1 (en) * 2014-02-27 2015-08-27 Shinsuke Yanazume Image projection system and image projection apparatus

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108168070A (en) * 2017-12-26 2018-06-15 珠海格力电器股份有限公司 Equipment installation method and device
CN108168070B (en) * 2017-12-26 2023-12-05 珠海格力电器股份有限公司 Equipment installation method and device

Also Published As

Publication number Publication date
KR20170044399A (en) 2017-04-25

Similar Documents

Publication Publication Date Title
WO2017078356A1 (en) Display device and image displaying method therefor
WO2018056473A1 (en) Head-mounted display device
WO2018070751A1 (en) Electronic device having a plurality of displays and operating method thereof
WO2016006734A1 (en) Method and device for recognizing biometric information
WO2017065535A1 (en) Electronic device and method for controlling same
WO2021201450A1 (en) Image projecting apparatus and controlling method thereof
EP2941664A1 (en) Head mounted display and method for controlling the same
WO2015190798A1 (en) Method and apparatus for generating image data by using region of interest set by position information
WO2017065556A1 (en) Image projection apparatus, method for expanding projection area thereof, and non-temporary computer-readable recording medium
WO2015186964A1 (en) Imaging device and video generation method by imaging device
WO2017126741A1 (en) Hmd device and method for controlling same
WO2017018591A1 (en) Mobile terminal having camera and control method therefor
WO2019074243A1 (en) Display device, user terminal device, display system including the same and control method thereof
WO2020262808A1 (en) Method for providing service related to electronic device by forming zone, and device therefor
WO2016048050A1 (en) Method for acquiring sensor data and electronic device thereof
WO2017164545A1 (en) Display device and method for controlling display device
WO2016047824A1 (en) Image information projection device and projection device control method
WO2020096139A1 (en) Damper device for image camera equipment to which various vibration-absorbing damping components are applied
WO2016088922A1 (en) Method for providing interface using mobile device and wearable device
WO2017065553A1 (en) Image projection apparatus, projection method thereof, and non-temporary computer-readable recording medium
WO2016122153A1 (en) Display apparatus and control method thereof
WO2018026093A1 (en) Electronic apparatus and controlling method thereof
WO2017086635A1 (en) Remote control device, method for driving remote control device, image display device, method for driving image display device, and computer-readable recording medium
WO2017065555A1 (en) Image projection device, image correction method thereof and non-transitory computer-readable recording medium
WO2019135513A1 (en) Electronic device and controlling method thereof

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16855773

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16855773

Country of ref document: EP

Kind code of ref document: A1