WO2023113201A1 - Electronic device and control method therefor - Google Patents

Electronic device and control method therefor Download PDF

Info

Publication number
WO2023113201A1
WO2023113201A1 PCT/KR2022/016225 KR2022016225W WO2023113201A1 WO 2023113201 A1 WO2023113201 A1 WO 2023113201A1 KR 2022016225 W KR2022016225 W KR 2022016225W WO 2023113201 A1 WO2023113201 A1 WO 2023113201A1
Authority
WO
WIPO (PCT)
Prior art keywords
electronic device
distance
projection
projection surface
sensor
Prior art date
Application number
PCT/KR2022/016225
Other languages
French (fr)
Korean (ko)
Inventor
김형철
이태영
채성호
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020220038434A external-priority patent/KR20230092682A/en
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Publication of WO2023113201A1 publication Critical patent/WO2023113201A1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01DMEASURING NOT SPECIALLY ADAPTED FOR A SPECIFIC VARIABLE; ARRANGEMENTS FOR MEASURING TWO OR MORE VARIABLES NOT COVERED IN A SINGLE OTHER SUBCLASS; TARIFF METERING APPARATUS; MEASURING OR TESTING NOT OTHERWISE PROVIDED FOR
    • G01D21/00Measuring or testing not otherwise provided for
    • G01D21/02Measuring two or more variables by means not covered by a single other subclass
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01PMEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
    • G01P15/00Measuring acceleration; Measuring deceleration; Measuring shock, i.e. sudden change of acceleration
    • G01P15/18Measuring acceleration; Measuring deceleration; Measuring shock, i.e. sudden change of acceleration in two or more dimensions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/06Systems determining position data of a target
    • G01S13/08Systems for measuring distance only
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/02Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems using reflection of acoustic waves
    • G01S15/06Systems determining the position data of a target
    • G01S15/08Systems for measuring distance only
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • G03B21/53Means for automatic focusing, e.g. to compensate thermal effects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]

Definitions

  • the present disclosure relates to an electronic device and a control method thereof, and more particularly, to an electronic device outputting a corrected projection image on a projection surface and a control method thereof.
  • the electronic device may correct the projected image according to the arrangement of the electronic device and the projection direction toward the projection surface and finally output the projected image.
  • a representative example of correcting an image may include keystone correction.
  • Keystone correction may refer to an operation of correcting a trapezoidal image into a rectangular shape. Specifically, whether or not keystone correction is necessary may be determined according to a direction in which the electronic device projects toward the projection surface.
  • the function for automatically performing keystone correction may be a keystone correction function.
  • Leveling may refer to an operation of rotating an image based on a direction in which the projection surface is viewed.
  • the present disclosure has been devised to improve the above problems, and an object of the present disclosure is an electronic device that corrects an image based on state information of the electronic device and state information of the projection surface and outputs the corrected image to the projection surface, and control thereof. in providing a way.
  • An electronic device for achieving the above object obtains state information of the electronic device based on sensing data acquired through a projection unit, a first sensor unit, a second sensor unit, and the first sensor unit, and , Obtain state information of the projection surface based on sensing data obtained through the second sensor unit, correct a projection image based on the state information of the electronic device and the state information of the projection surface, and correct the projected image. and a processor controlling the projection unit to output ? to the projection surface.
  • the state information of the electronic device includes x-axis rotation information and y-axis rotation information of the electronic device
  • the state information of the projection surface includes y-axis rotation information of the projection surface and It may include z-axis rotation information.
  • the processor levels and corrects the projected image based on x-axis rotation information of the electronic device, y-axis rotation information of the electronic device, y-axis rotation information of the projection surface, and z-axis rotation information of the projection surface Based on the keystone correction of the projected image.
  • the second sensor unit includes a first distance sensor and a second distance sensor
  • the processor determines the first distance and the second distance between the first distance sensor and the projection surface obtained from the first distance sensor.
  • State information of the projection surface may be obtained based on a second distance obtained from a sensor and a second distance between the second distance sensor and the projection surface.
  • the second sensor unit further includes a third distance sensor, and the processor determines z of the projection surface based on a first distance obtained from the first distance sensor and a second distance obtained from the second distance sensor. Obtain axis rotation information, and based on at least one of the first distance and the second distance and a third distance between the third distance sensor and the projection surface obtained from the third distance sensor, the projection surface y-axis rotation information of can be obtained.
  • the processor identifies a projection area on the projection surface where the projection image is projected, obtains a fourth distance between the first distance sensor and a position corresponding to the projection area from the first distance sensor, and A fifth distance between the second distance sensor and a position corresponding to the projection area may be acquired from a second distance sensor, and a focus of the electronic device may be determined based on the fourth distance and the fifth distance.
  • the processor determines the focus of the electronic device by identifying a distance sensor corresponding to a smaller distance among the fourth distance and the fifth distance and assigning a higher weight to sensing data obtained from the identified distance sensor. and output the corrected projection image to the projection surface based on the determined focus of the electronic device.
  • the projection unit includes a projection lens, and when a lens shift function is performed with respect to the projection lens, the processor moves the second sensor unit based on movement information corresponding to the lens shift function.
  • the processor obtains a projection distance between the electronic device and the projection surface through the second sensor unit, determines a ratio of the corrected projection image based on the obtained projection distance, and determines a ratio of the corrected projection image based on the determined ratio.
  • the projection unit may be controlled to output the corrected projection image to the projection surface.
  • the first sensor unit may include at least one of a gravity sensor, an acceleration sensor, and a gyro sensor
  • the second sensor unit may include at least one ToF sensor.
  • a control method of an electronic device including a first sensor unit and a second sensor unit includes obtaining state information of the electronic device based on sensing data acquired through the first sensor unit and the second sensor unit. Obtaining state information of the projection surface based on sensing data acquired through a unit, correcting a projection image based on the state information of the electronic device and the state information of the projection surface, and converting the corrected projection image to the projection surface. It includes the step of outputting to the slope.
  • the state information of the electronic device includes x-axis rotation information and y-axis rotation information of the electronic device
  • the state information of the projection surface includes y-axis rotation information of the projection surface and It may include z-axis rotation information.
  • the correcting of the projected image may include leveling and correcting the projected image based on x-axis rotation information of the electronic device, y-axis rotation information of the electronic device, y-axis rotation information of the projection surface, and the projection surface
  • the projected image may be keystone-corrected based on z-axis rotation information of .
  • the second sensor unit includes a first distance sensor and a second distance sensor, and the obtaining of the state information of the projection surface is between the first distance sensor obtained from the first distance sensor and the projection surface.
  • State information of the projection surface may be obtained based on a first distance and a second distance between the second distance sensor and the projection surface obtained from the second distance sensor.
  • the second sensor unit further includes a third distance sensor
  • the obtaining of state information of the projection surface includes a first distance obtained from the first distance sensor and a second distance obtained from the second distance sensor.
  • control method includes identifying a projection area where the projection image is projected on the projection surface, obtaining a fourth distance between the first distance sensor and a position corresponding to the projection area from the first distance sensor. Obtaining a fifth distance between the second distance sensor and a position corresponding to the projection area from the second distance sensor, and determining a focus of the electronic device based on the fourth distance and the fifth distance. It may further include steps to do.
  • control method may further include moving the second sensor unit based on movement information corresponding to the lens shift function when performing a lens shift function with respect to the projection lens of the electronic device.
  • control method may include obtaining a projection distance between the electronic device and the projection surface through the second sensor unit, determining a ratio of the corrected projection image based on the obtained projection distance, and The method may further include outputting the corrected projection image to the projection surface based on the ratio.
  • the first sensor unit may include at least one of a gravity sensor, an acceleration sensor, and a gyro sensor
  • the second sensor unit may include at least one ToF sensor.
  • FIG. 1 is a perspective view illustrating an external appearance of an electronic device according to an embodiment of the present disclosure.
  • FIG. 2 is a block diagram illustrating a configuration of an electronic device according to an embodiment of the present disclosure.
  • FIG. 3 is a block diagram showing the configuration of the electronic device of FIG. 2 in detail.
  • FIG. 4 is a perspective view illustrating an external appearance of an electronic device according to other embodiments of the present disclosure.
  • FIG. 5 is a perspective view illustrating an external appearance of an electronic device according to another embodiment of the present disclosure.
  • FIG. 6 is a perspective view illustrating an external appearance of an electronic device according to another embodiment of the present disclosure.
  • FIG. 7 is a perspective view illustrating an external appearance of an electronic device according to another embodiment of the present disclosure.
  • FIG. 8 is a perspective view illustrating a state in which the electronic device of FIG. 7 is rotated.
  • FIG. 9 is a flowchart illustrating an operation of correcting a projected image using state information of an electronic device and state information of a projection surface.
  • FIG. 10 is a diagram for explaining z-axis rotation information of an electronic device.
  • 11 is a diagram for explaining y-axis rotation information of an electronic device.
  • FIG. 12 is a diagram for explaining x-axis rotation information of an electronic device.
  • 13 is a diagram for explaining rotation information of an electronic device.
  • FIG. 14 is a flowchart illustrating an operation of correcting a projected image based on rotation information of an electronic device.
  • 15 is a diagram for explaining rotation information of the projection surface.
  • 16 is a diagram for explaining z-axis rotation information of a projection surface.
  • 17 is a flowchart illustrating an operation of correcting a projected image based on z-axis rotation information of a projection surface.
  • 18 is a diagram for explaining an operation of obtaining z-axis rotation information of a projection surface.
  • 19 is a view for explaining the light receiving unit of the second sensor unit.
  • 20 is a diagram for explaining y-axis rotation information of a projection surface.
  • 21 is a flowchart illustrating an operation of correcting a projected image based on y-axis rotation information of a projection surface.
  • 22 is a diagram for explaining an operation of obtaining y-axis rotation information of a projection surface.
  • 23 is a table for explaining whether leveling correction or keystone correction is performed based on state information of an electronic device and state information of a projection surface.
  • 24 is a flowchart for explaining whether leveling correction or keystone correction is performed based on state information of an electronic device and state information of a projection surface.
  • 25 is a diagram for explaining a second sensor unit according to various embodiments.
  • 26 is a diagram for explaining an offset of a projection lens.
  • 27 is a flowchart illustrating an operation of outputting a projected image in consideration of a ratio of the projected image.
  • 28 is a diagram for explaining an operation of outputting a projection image in consideration of a projection distance.
  • 29 is a view for explaining the arrangement of the first distance sensor and the second distance sensor included in the second sensor unit.
  • FIG. 30 is a diagram for explaining an operation of outputting a projection image in a state in which the projection surface is not rotated along the z-axis.
  • 31 is a diagram for explaining the reason for correcting a projection image in consideration of state information of the projection surface in a state in which the projection surface is rotated along the z-axis.
  • 32 is a diagram for explaining an operation of correcting a projected image in a state in which the projection surface is not rotated along the y-axis.
  • 33 is a diagram for explaining the reason for correcting a projection image in consideration of state information of the projection surface in a state in which the projection surface is rotated along the y-axis.
  • 34 is a flowchart for explaining an operation of determining a focus based on a distance between a projection area and a distance sensor.
  • 35 is a diagram for explaining an operation of determining a focus based on a distance between a projection area and a distance sensor.
  • 36 is a flowchart illustrating an operation of determining a focus by assigning a weight to a distance between a projection area and a distance sensor.
  • 37 is a diagram for explaining an operation of determining a focus by assigning a weight to a distance between a projection area and a distance sensor.
  • 38 is a diagram for explaining an operation of determining a focus based on a distance between a projection area and a distance sensor in a state in which the projection surface is rotated along the z-axis.
  • 39 is a flowchart for explaining an operation of controlling the second sensor unit according to whether a lens shift function is performed.
  • 40 is a diagram for explaining an operation of controlling the second sensor unit according to the lens shift function.
  • 41 is a flowchart for explaining an operation of correcting a projection image based on x-axis rotation information of a projection surface.
  • FIG. 42 is a diagram for explaining an operation of correcting a projection image based on x-axis rotation information of a projection surface.
  • 43 is a flowchart illustrating a method of controlling an electronic device according to an exemplary embodiment.
  • expressions such as “has,” “can have,” “includes,” or “can include” indicate the existence of a corresponding feature (eg, numerical value, function, operation, or component such as a part). , which does not preclude the existence of additional features.
  • a component e.g., a first component
  • another component e.g., a second component
  • connection to it should be understood that an element may be directly connected to another element, or may be connected through another element (eg, a third element).
  • a “module” or “unit” performs at least one function or operation, and may be implemented in hardware or software or a combination of hardware and software.
  • a plurality of “modules” or a plurality of “units” are integrated into at least one module and implemented by at least one processor (not shown), except for “modules” or “units” that need to be implemented with specific hardware. It can be.
  • the term user may refer to a person using an electronic device or a device (eg, an artificial intelligence electronic device) using an electronic device.
  • a device eg, an artificial intelligence electronic device
  • FIG. 1 is a perspective view illustrating an external appearance of an electronic device 100 according to an embodiment of the present disclosure.
  • the electronic device 100 may include a head 103, a body 105, a projection lens 110, a connector 130, or a cover 107.
  • the electronic device 100 may be a device of various types.
  • the electronic device 100 may be a projector device that enlarges and projects an image onto a wall or a screen
  • the projector device may be an LCD projector or a digital light processing (DLP) projector using a digital micromirror device (DMD).
  • DLP digital light processing
  • DMD digital micromirror device
  • the electronic device 100 may be a home or industrial display device, or a lighting device used in daily life, a sound device including a sound module, a portable communication device (eg, a smartphone), It may be implemented as a computer device, a portable multimedia device, a wearable device, or a home appliance.
  • the electronic device 100 according to an embodiment of the present disclosure is not limited to the above-described devices, and the electronic device 100 may be implemented as an electronic device 100 having two or more functions of the above-described devices.
  • the electronic device 100 may be used as a display device, a lighting device, or a sound device by turning off a projector function and turning on a lighting function or a speaker function according to manipulation of a processor, and AI including a microphone or communication device.
  • a speaker a speaker.
  • the main body 105 is a housing forming an exterior, and may support or protect components (eg, the components shown in FIG. 3 ) of the electronic device 100 disposed inside the main body 105 .
  • the body 105 may have a structure close to a cylindrical shape as shown in FIG. 1 .
  • the shape of the main body 105 is not limited thereto, and according to various embodiments of the present disclosure, the main body 105 may be implemented in various geometric shapes such as a column, a cone, and a sphere having a polygonal cross section.
  • the size of the main body 105 may be a size that a user can hold or move with one hand, may be implemented in a very small size for easy portability, and may be implemented in a size that can be placed on a table or coupled to a lighting device.
  • the material of the main body 105 may be implemented with matte metal or synthetic resin so as not to be stained with user's fingerprints or dust, or the exterior of the main body 105 may be made of a smooth gloss.
  • a friction area may be formed on a portion of the exterior of the body 105 so that a user can grip and move the main body 105 .
  • the main body 105 may be provided with a bent gripping portion or a support 108a (see FIG. 4 ) that the user can grip in at least a portion of the area.
  • the projection lens 110 is formed on one surface of the main body 105 to project light passing through the lens array to the outside of the main body 105 .
  • the projection lens 110 of various embodiments may be an optical lens coated with low dispersion in order to reduce chromatic aberration.
  • the projection lens 110 may be a convex lens or a condensing lens, and the projection lens 110 according to an embodiment may adjust the focus by adjusting the positions of a plurality of sub-lenses.
  • the head 103 is provided to be coupled to one surface of the main body 105 to support and protect the projection lens 110 .
  • the head 103 may be coupled to the main body 105 so as to be swivelable within a predetermined angular range based on one surface of the main body 105 .
  • the head 103 is automatically or manually swiveled by a user or a processor to freely adjust the projection angle of the projection lens 110 .
  • the head 103 is coupled to the main body 105 and includes a neck extending from the main body 105, so that the head 103 is tilted or tilted to adjust the projection angle of the projection lens 110. can be adjusted
  • the electronic device 100 adjusts the direction of the head 103 and adjusts the emission angle of the projection lens 110 while the position and angle of the main body 105 are fixed, so that light or an image can be projected to a desired location.
  • the head 103 may include a handle that the user can grasp after rotating in a desired direction.
  • a plurality of openings may be formed on the outer circumferential surface of the main body 105 . Audio output from the audio output unit may be output to the outside of the main body 105 of the electronic device 100 through the plurality of openings.
  • the audio output unit may include a speaker, and the speaker may be used for general purposes such as multimedia playback, recording playback, and audio output.
  • a heat dissipation fan (not shown) may be provided inside the main body 105, and when the heat dissipation fan (not shown) is driven, air or heat inside the main body 105 passes through a plurality of openings. can emit. Therefore, the electronic device 100 can discharge heat generated by driving the electronic device 100 to the outside and prevent the electronic device 100 from overheating.
  • the connector 130 may connect the electronic device 100 to an external device to transmit/receive electrical signals or receive power from the outside.
  • the connector 130 may be physically connected to an external device.
  • the connector 130 may include an input/output interface, and may communicate with an external device through wired or wireless communication or receive power.
  • the connector 130 may include an HDMI connection terminal, a USB connection terminal, an SD card receiving groove, an audio connection terminal, or a power outlet, or may include Bluetooth, Wi-Fi, or wireless connection to an external device wirelessly.
  • a charging connection module may be included.
  • the connector 130 may have a socket structure connected to an external lighting device, and may be connected to a socket receiving groove of the external lighting device to receive power.
  • the size and standard of the connector 130 having a socket structure may be variously implemented in consideration of a receiving structure of a coupleable external device.
  • the diameter of the junction of the connector 130 may be implemented as 26 mm, and in this case, the electronic device 100 replaces a conventionally used light bulb and an external lighting device such as a stand. can be coupled to Meanwhile, when fastened to a socket located on an existing ceiling, the electronic device 100 is projected from top to bottom, and when the electronic device 100 is not rotated by coupling the socket, the screen cannot be rotated either.
  • the electronic device 100 is socket-coupled to the ceiling stand so that the electronic device 100 can rotate even when the socket is coupled and power is supplied, and the head 103 is moved from one side of the main body 105. It swivels and adjusts the emission angle to project the screen to a desired position or rotate the screen.
  • the connector 130 may include a coupling sensor, and the coupling sensor may sense whether or not the connector 130 is coupled with an external device, a coupling state, or a coupling target, and transmit the sensor to the processor, based on the received detection value. Driving of the electronic device 100 may be controlled.
  • the cover 107 can be coupled to and separated from the main body 105 and can protect the connector 130 so that the connector 130 is not constantly exposed to the outside.
  • the shape of the cover 107 may have a shape continuous with the body 105 as shown in FIG. 1, or may be implemented to correspond to the shape of the connector 130.
  • the cover 107 can support the electronic device 100, and the electronic device 100 can be used by being coupled to the cover 107 and coupled to or mounted on an external cradle.
  • a battery may be provided inside the cover 107 .
  • a battery may include, for example, a non-rechargeable primary cell, a rechargeable secondary cell or a fuel cell.
  • the electronic device 100 may include a camera module, and the camera module may capture still images and moving images.
  • the camera module may include one or more lenses, image sensors, image signal processors, or flashes.
  • the electronic device 100 may include a protective case (not shown) to protect the electronic device 100 and easily carry it, or a stand supporting or fixing the main body 105. (not shown), and may include a bracket (not shown) coupled to a wall or partition.
  • the electronic device 100 may provide various functions by being connected to various external devices using a socket structure.
  • the electronic device 100 may be connected to an external camera device using a socket structure.
  • the electronic device 100 may use the projection unit 111 to provide an image stored in a connected camera device or an image currently being captured.
  • the electronic device 100 may be connected to a battery module to receive power using a socket structure.
  • the electronic device 100 may be connected to an external device using a socket structure, but this is merely an example, and may be connected to an external device using another interface (eg, USB, etc.).
  • FIG. 2 is a block diagram illustrating a configuration of an electronic device 100 according to an embodiment of the present disclosure.
  • the electronic device 100 may include a projection unit 111 , a sensor unit 113 and a processor 114 .
  • the projection unit 111 may output an image to be output from the electronic device 100 to the projection surface.
  • the projection unit 111 may include a projection lens 110 .
  • the projection unit 111 may perform a function of outputting an image on a projection surface. A detailed description related to the projection unit 111 is described in FIG. 3 .
  • the electronic device 100 may project images in various ways.
  • the projection unit 111 may include a projection lens 110 .
  • the projection surface may be a part of a physical space on which an image is output or a separate screen.
  • the sensor unit 113 may include at least one of the first sensor unit 113-1 and the second sensor unit 113-2.
  • the first sensor unit 113 - 1 may mean a sensor unit that obtains sensing data for analyzing state information of the electronic device 100 .
  • the second sensor unit 113 - 2 may mean a sensor unit that obtains sensing data for analyzing state information of the projection surface 10 .
  • the processor 114 may perform overall control operations of the electronic device 100 . Specifically, the processor 114 functions to control the overall operation of the electronic device 100 .
  • the keystone correction function may be performed according to various methods.
  • the processor 114 may automatically perform a keystone correction function. Specifically, the processor 114 may automatically perform a keystone correction function based on the obtained state information. When the keystone correction function is performed automatically, the keystone correction function may be described as an auto-keystone function.
  • the keystone correction function may be performed manually.
  • the processor 114 may perform a keystone correction function according to a user's input or user's manipulation.
  • the user may use the keystone correction function to make the projected image rectangular by manipulating the electronic device 100 while viewing the projected image on the projection surface.
  • the keystone correction function may be a function to solve a problem that a trapezoidal image is output on the projection surface due to the inclination of the electronic device 100 .
  • the keystone correction function may be a function of correcting an image so that a trapezoidal image output on the projection surface is output as a rectangular or square image.
  • the keystone correction function may be described as keystone correction. Depending on the direction of keystone correction, it can be divided into left and right keystone correction or up and down keystone correction.
  • the leveling correction function may be performed according to various methods.
  • the processor 114 may automatically perform a leveling correction function. Specifically, the processor 114 may automatically perform a leveling correction function based on the obtained state information. When the leveling correction function is performed automatically, the leveling correction function may be described as an auto-leveling function.
  • the leveling correction function may be performed manually.
  • the processor 114 may perform a leveling correction function according to a user's input or user's manipulation.
  • the user may use the leveling correction function to rotate the projected image by manipulating the electronic device 100 while viewing the projected image on the projection surface.
  • the leveling correction function may mean a function of rotating an image.
  • the processor 114 may control the projected image to be output by rotating the image by a specific angle using a leveling correction function.
  • the processor 114 may perform a leveling correction function using software.
  • the processor 114 may correct the image so that the rotated image is output using the leveling correction function.
  • the processor 114 may control the projection unit 111 to output the rotated image.
  • the processor 114 may perform a leveling correction function using hardware.
  • the processor 114 may rotate the image by rotating the projection lens 110 included in the projection unit 111 .
  • the processor 114 may rotate an image by controlling a fixing member included in the electronic device 100 .
  • the fixing member may refer to a member that contacts a specific surface so that the electronic device 100 can be fixed.
  • the processor 114 may rotate or adjust the length of the fixing member to control an image to be rotated and output.
  • the processor 114 may obtain a final projection image by performing at least one of a keystone correction function and a leveling correction function, and control the projection unit 111 to output the final projection image to the projection surface.
  • the electronic device 100 can provide a projection image suitable for the user.
  • the processor 114 may provide a projected image according to various methods.
  • the processor 114 may output a corrected projection image after at least one of a keystone correction function and a leveling correction function is performed.
  • the processor 114 outputs an original projected image before the keystone correction function and the leveling correction function are performed, and outputs the corrected projected image after at least one of the keystone correction function and the leveling correction function is performed. can be printed out.
  • the electronic device 100 may include a sensor unit 113, and the sensor unit 113 may include a first sensor unit 113-1 and a second sensor unit 113-2.
  • the first sensor unit 113 - 1 may include at least one sensor for sensing the state of the electronic device 100 .
  • the state of the electronic device 100 may mean a tilt or rotation angle. That is, the first sensor unit 113 - 1 may include a sensor for measuring an inclination of the electronic device 100 or a rotation angle of the electronic device 100 .
  • the first sensor unit 113-1 may include at least one of a gravity sensor, an acceleration sensor, and a gyro sensor.
  • the second sensor unit 113 - 2 may include at least one sensor for sensing the state of the projection surface 10 .
  • the state of the projection surface 10 may mean a tilt or rotation angle. That is, the second sensor unit 113 - 2 may include a sensor for measuring an inclination of the projection surface 10 or a rotation angle of the projection surface 10 .
  • the second sensor unit 113 - 2 may include a distance sensor for measuring a distance to the projection surface 10 .
  • the second sensor unit 113-2 may include at least one Time of Flight (ToF) sensor.
  • ToF Time of Flight
  • the processor 114 acquires state information of the electronic device 100 based on the sensing data obtained through the first sensor unit 113-1, and obtains state information obtained through the second sensor unit 113-2. Acquiring state information of the projection surface 10 based on the sensing data, correcting the projected image based on the state information of the electronic device 100 and the state information of the projection surface 10, and converting the corrected projection image to the projection surface
  • the projection unit 111 can be controlled to output to (10).
  • the state information of the electronic device 100 may include an inclination of the electronic device 100 or a rotation angle of the electronic device 100 .
  • the state information of the electronic device 100 may include at least one of x-axis rotation information, y-axis rotation information, and z-axis rotation information of the electronic device 100 of the electronic device 100.
  • FIGS. 10 to 13 A detailed description related to this is described in FIGS. 10 to 13 .
  • a description related to the x-axis rotation information of the electronic device 100 will be described in FIG. 12 .
  • a description related to the y-axis rotation information of the electronic device 100 will be described in FIG. 11 .
  • a description related to z-axis rotation information of the electronic device 100 is described in FIG. 10 .
  • the state information of the projection surface 10 may include a tilt of the projection surface 10 or a rotation angle of the electronic device 100 .
  • the state information of the projection surface 10 may include at least one of x-axis rotation information of the projection surface 10, y-axis rotation information of the projection surface 10, or z-axis rotation information of the projection surface 10. can A detailed description related to this is described in FIG. 15 .
  • a description related to the x-axis rotation information of the projection surface 10 will be described in FIGS. 41 and 42 .
  • Descriptions related to the y-axis rotation information of the projection surface 10 will be described in FIGS. 20 to 22 .
  • a description related to z-axis rotation information of the projection surface 10 will be described in FIGS. 16 to 18 .
  • the x-axis may be described as a first axis, the y-axis as a second axis, and the z-axis as a third axis.
  • the processor 114 may correct the projected image based on at least one of state information of the electronic device 100 and state information of the projection surface 10 .
  • the operation of correcting the projected image may include at least one of a leveling correction operation and a keystone correction operation.
  • a description related to the correction operation is described in FIGS. 23 and 24 .
  • the processor 114 may control the projection unit 111 to output the corrected projection image to the projection surface 10 .
  • the state information of the electronic device 100 may include x-axis rotation information and y-axis rotation information of the electronic device 100
  • the state information of the projection surface 10 is the projection surface ( 10) may include y-axis rotation information and z-axis rotation information of the projection surface 10.
  • rotation information included in state information of the electronic device 100 may be different.
  • the state information of the electronic device 100 may include x-axis rotation information and y-axis rotation information of the electronic device 100 .
  • the processor 114 may identify how much the electronic device 100 is rotated in the x-axis and the y-axis based on the sensing data obtained through the first sensor unit 113-1.
  • the z-axis rotation information of the electronic device 100 may indicate which direction the electronic device 100 faces among north, south, east and west. However, since the user places the electronic device 100 on the projection surface 10 as a result, z-axis rotation information of the electronic device 100 may be unnecessary. Accordingly, the processor 114 may perform a correction operation using the z-axis rotation information of the projection surface 10 instead of the z-axis rotation information of the electronic device 100 .
  • the state information of the electronic device 100 may include x-axis rotation information of the electronic device 100, y-axis rotation information of the electronic device 100, and z-axis rotation information of the electronic device 100.
  • the processor 114 may obtain z-axis rotation information of the electronic device 100 through a geomagnetic sensor or the like.
  • the geomagnetic sensor may be implemented in a form included in the first sensor unit 113-1 or included in a separate third sensor unit (not shown).
  • rotation information included in state information of the projection surface 10 may be different.
  • the state information of the projection surface 10 may include y-axis rotation information and z-axis rotation information of the projection surface 10 .
  • the processor 114 may identify how much the projection surface 10 is rotated in the y-axis and z-axis based on the sensing data acquired through the second sensor unit 113-2.
  • the x-axis rotation information of the projection surface 10 may represent the degree of horizontal tilt of the left and right in the direction in which the electronic device 100 views the projection surface 10 .
  • the second sensor unit 113 - 2 may not identify the x-axis rotation information of the projection surface 10 in order to reduce processing time and increase data processing efficiency.
  • the state information of the projection surface 10 may include x-axis rotation information of the projection surface 10, y-axis rotation information of the projection surface 10, and z-axis rotation information of the projection surface 10.
  • the processor 114 may obtain a captured image including a test image (or projection image) output through a camera (not shown). Also, the processor 114 may obtain x-axis rotation information of the projection surface 10 based on the captured image. A description related to this is described in FIGS. 41 and 42 .
  • the processor 114 levels and corrects the projected image based on the x-axis rotation information of the electronic device 100, and generates the y-axis rotation information of the electronic device 100, the y-axis rotation information of the projection surface 10 and the projection image.
  • the projected image may be keystone corrected based on the z-axis rotation information of the slope 10 .
  • the processor 114 may perform leveling correction by rotating the projected image clockwise or counterclockwise.
  • the processor 114 may perform keystone correction (vertical keystone correction or up/down keystone correction) to remove distortion in the vertical direction of the projected image.
  • keystone correction vertical keystone correction or up/down keystone correction
  • the processor 114 may perform keystone correction (vertical keystone correction or up/down keystone correction) to remove distortion generated in the vertical direction of the projected image.
  • the processor 114 may perform keystone correction (horizontal keystone correction or left and right keystone correction) to remove distortion generated in the horizontal direction of the projected image.
  • the second sensor unit 113-2 includes a first distance sensor 113-2-1 and a second distance sensor 113-2-2
  • the processor 114 includes the first distance sensor 113 -2-1) between the first distance sensor 113-2-1 and the projection surface 10 (d1) and the second distance obtained from the second distance sensor (113-2-2) (113-2-2)
  • State information of the projection surface 10 may be obtained based on the second distance d2 between the distance sensor 113-2-2 and the projection surface 10 .
  • the processor 114 may obtain first sensing data through the first distance sensor 113-2-1.
  • the processor 114 may obtain a first distance d1 between the first distance sensor 113-2-1 and the projection surface 10 based on the first sensing data.
  • the processor 114 may acquire second sensing data through the second distance sensor 113-2-2.
  • the processor 114 may obtain a second distance d2 between the second distance sensor 113-2-2 and the projection surface 10 based on the second sensing data.
  • the processor 114 may obtain state information of the projection surface 10 based on the first distance d1 and the second distance d2. A detailed description related to this is described in FIGS. 16 to 22.
  • the second sensor unit 113-2 may further include a third distance sensor 113-2-3, and the processor 114 may obtain the first distance sensor 113-2-1.
  • Z-axis rotation information of the projection surface 10 is obtained based on the first distance d1 and the second distance d2 obtained from the second distance sensor 113-2-2, and the first distance or the second distance based on at least one of the distances and the third distance d3 between the third distance sensor 113-2-3 and the projection surface 10 obtained from the third distance sensor 113-2-3
  • the y-axis rotation information of (10) can be obtained.
  • the processor 114 may obtain z-axis rotation information of the projection surface 10 based on the first distance d1 and the second distance d2.
  • the processor 114 may obtain third sensing data from the third distance sensor 113-2-3.
  • the processor 114 may obtain a third distance d3 between the third distance sensor 113-2-3 and the projection surface 10 based on the third sensing data.
  • the processor 114 may obtain y-axis rotation information of the projection surface 10 based on the first distance d1 and the third distance d3. According to another embodiment, the processor 114 may obtain y-axis rotation information of the projection surface 10 based on the second distance d2 and the third distance d3.
  • FIGS. 16 to 19 An operation of obtaining z-axis rotation information of the projection surface 10 is described in FIGS. 16 to 19 .
  • FIGS. 20 to 22 An operation of obtaining y-axis rotation information of the projection surface 10 is described in FIGS. 20 to 22 .
  • the first distance sensor 113-2-1 instead of the third distance sensor 113-2-3 ) and the second distance sensor 113-2-2 can be used.
  • a related arrangement structure may be the same as that of the electronic device 100 - 2 of FIG. 25 .
  • the two distance sensors may be disposed differently in both horizontal and vertical positions.
  • the electronic device 100 - 2 may acquire both y-axis rotation information and z-axis rotation information of the projection surface 10 through two distance sensors.
  • the processor 114 identifies a projection area where a projection image is projected on the projection surface 10, and connects the first distance sensor 113-2-1 to the projection area from the first distance sensor 113-2-1.
  • a fourth distance d4 between positions corresponding to is obtained, and a fifth distance d4 between the second distance sensor 113-2-2 and a position corresponding to the projection area is obtained from the second distance sensor 113-2-2.
  • the distance d5 may be obtained, and the focus of the electronic device 100 may be determined based on the fourth distance d4 and the fifth distance d5.
  • the focal point of the electronic device 100 may mean a focal point corresponding to a projection image output from the projection lens 110 .
  • the focal point of the electronic device 100 may be described as a focal point of the projection lens 110 or a projection focal point.
  • FIGS. 34 to 35 Specific operations related to this are described in FIGS. 34 to 35 .
  • the processor 114 identifies a distance sensor corresponding to a smaller distance between the fourth distance d4 and the fifth distance d5, and assigns a higher weight to sensing data obtained from the identified distance sensor, so that the electronic device A focal point of 100 may be determined and a corrected projection image based on the determined focal point of the electronic device may be output to the projection surface 10 .
  • FIGS. 36 and 37 Specific operations related to this are described in FIGS. 36 and 37 .
  • the projection unit 111 includes the projection lens 110 and the processor 114 performs a lens shift function with respect to the projection lens 110, movement information corresponding to the lens shift function Based on this, the second sensor unit 113-2 can be moved.
  • the lens shift function may indicate a function of changing (or shifting) an image projection direction of the projection lens 110 .
  • the movement information may include at least one of coordinate information and direction information used to change the projection direction of the image.
  • the coordinate information may include absolute coordinates in a 3-dimensional (or 2-dimensional) space.
  • the processor 114 may move the projection lens 110 based on the coordinate information. Also, the processor 114 may change the projection direction of the projection lens 110 based on the coordinate information.
  • the direction information may include a distance value moving up, down, left, or right.
  • the processor 114 may move the projection lens 110 based on the direction information. Also, the processor 114 may change the projection direction of the projection lens 110 based on the direction information.
  • FIGS. 39 to 40 Specific operations related to this are described in FIGS. 39 to 40 .
  • the processor 114 obtains the projection distance between the electronic device 100 and the projection surface 10 through the second sensor unit 113-2, and the ratio of the corrected projection image based on the acquired projection distance. may be determined, and the projection unit 111 may be controlled to output a corrected projection image to the projection surface 10 based on the determined ratio.
  • the projection distance is the first distance d1 between the first distance sensor 113-2-1 and the projection surface 10 or the distance between the second distance sensor 113-2-2 and the projection surface 10. It may be obtained based on at least one of the two distances d2.
  • the processor 114 may determine the projection distance as one of the first distance d1 and the second distance d2.
  • the processor 114 may determine the projection distance using both the first distance d1 and the second distance d2. For example, the processor 114 may determine the projection distance as an average value of the first distance d1 and the second distance d2.
  • FIGS. 27 to 28 Specific operations related to this are described in FIGS. 27 to 28 .
  • the electronic device 100 may perform an image correction operation in consideration of both the rotated state of the electronic device 100 and the rotated state of the projection surface 10 . Therefore, there is no distortion or rotation that causes user discomfort in the projected image output on the projection surface 10 . Accordingly, the electronic device 100 can minimize situations in which a user manually performs an image correction function.
  • FIG. 3 is a block diagram showing the configuration of the electronic device 100 of FIG. 2 in detail.
  • the electronic device 100 includes a projection unit 111, a memory 112, a sensor unit 113, a processor 114, a user interface 115, an input/output interface 116, an audio output unit ( 117), a power supply unit 118, and a shutter unit 120.
  • the configuration shown in FIG. 3 is merely an embodiment, and some configurations may be omitted and new configurations may be added.
  • the projection unit 111 is a component that projects an image to the outside.
  • the projection unit 111 may use various projection methods (eg, a cathode-ray tube (CRT) method, a liquid crystal display (LCD) method, a digital light processing (DLP) method, and a laser method). etc.) can be implemented.
  • CTR cathode-ray tube
  • LCD liquid crystal display
  • DLP digital light processing
  • laser method e.g., a laser method, etc.
  • the principle of the CRT method is basically the same as that of a CRT monitor.
  • the CRT method enlarges the image with a lens in front of the cathode ray tube (CRT) and displays the image on the screen.
  • CTR cathode ray tube
  • red, green, and blue cathode ray tubes can be separately implemented.
  • the LCD method is a method of displaying an image by transmitting light from a light source through a liquid crystal.
  • the LCD method is divided into a single-panel type and a three-panel type.
  • the light from the light source is separated into red, green, and blue by a dichroic mirror (a mirror that reflects only light of a specific color and passes the rest) and transmits the liquid crystal. After that, the light can gather in one place again.
  • a dichroic mirror a mirror that reflects only light of a specific color and passes the rest
  • the DLP method is a method of displaying an image using a DMD (Digital Micromirror Device) chip.
  • the projection unit of the DLP method may include a light source, a color wheel, a DMD chip, a projection lens, and the like.
  • Light output from a light source may exhibit a color while passing through a rotating color wheel.
  • the light that passed through the color wheel is input to the DMD chip.
  • the DMD chip includes numerous micromirrors and reflects light input to the DMD chip.
  • the projection lens may play a role of enlarging light reflected from the DMD chip to an image size.
  • the laser method includes a diode pumped solid state (DPSS) laser and a galvanometer.
  • DPSS diode pumped solid state
  • the galvanometer includes a mirror and a high power motor to move the mirror at high speed.
  • a galvanometer can rotate a mirror at up to 40 KHz/sec.
  • the galvanometer is mounted according to the scanning direction. In general, since the projector scans in a plane, the galvanometer can also be arranged separately in the x and y axes.
  • the projection unit 111 may include various types of light sources.
  • the projection unit 111 may include at least one light source among a lamp, LED, and laser.
  • the projection unit 111 may output an image in a 4:3 aspect ratio, a 5:4 aspect ratio, or a 16:9 wide aspect ratio according to the purpose of the electronic device 100 or the user's settings, and may output an image in a WVGA (854*480) aspect ratio depending on the aspect ratio. ), SVGA(800*600), XGA(1024*768), WXGA(1280*720), WXGA(1280*800), SXGA(1280*1024), UXGA(1600*1200), Full HD(1920*1080) ), etc., can output images at various resolutions.
  • the projection unit 111 may perform various functions for adjusting an output image under the control of the processor 114 .
  • the projection unit 111 may perform functions such as zoom, keystone, quick corner (4 corner) keystone, and lens shift.
  • the projection unit 111 may enlarge or reduce the image according to the distance from the screen (projection distance). That is, a zoom function may be performed according to the distance from the screen.
  • the zoom function may include a hardware method of adjusting the screen size by moving a lens and a software method of adjusting the screen size by cropping an image.
  • methods for adjusting the focus include a manual focus method and a motorized method.
  • the manual focus method refers to a method of manually focusing
  • the motorized method refers to a method of automatically focusing using a motor built into the projector when a zoom function is performed.
  • the projection unit 111 may provide a digital zoom function through software, and may provide an optical zoom function that performs a zoom function by moving a lens through a driving unit.
  • the projection unit 111 may perform a keystone correction function. If the height is not right for the front projection, the screen may be distorted up or down.
  • the keystone correction function means a function of correcting a distorted screen. For example, if distortion occurs in the left and right directions of the screen, it can be corrected using the horizontal keystone, and if distortion occurs in the vertical direction, it can be corrected using the vertical keystone.
  • the quick corner (4 corner) keystone correction function corrects the screen when the central area of the screen is normal but the corner area is out of balance.
  • the lens shift function is a function that moves the screen as it is when the screen is out of the screen.
  • the projection unit 111 may provide zoom/keystone/focus functions by automatically analyzing the surrounding environment and the projection environment without user input. Specifically, the projection unit 111 determines the distance between the electronic device 100 and the screen detected through sensors (depth camera, distance sensor, infrared sensor, illuminance sensor, etc.) and the space where the electronic device 100 is currently located. Zoom/Keystone/Focus functions can be automatically provided based on information about the image and the amount of ambient light.
  • the projection unit 111 may provide a lighting function using a light source.
  • the projection unit 111 may provide a lighting function by outputting a light source using LEDs.
  • the projection unit 111 may include one LED, and according to another embodiment, the electronic device may include a plurality of LEDs.
  • the projection unit 111 may output a light source using a surface-emitting LED according to an implementation example.
  • the surface-emitting LED may refer to an LED having a structure in which an optical sheet is disposed above the LED so that light sources are uniformly distributed and output. Specifically, when the light source is output through the LED, the light source may be evenly dispersed through the optical sheet, and the light source dispersed through the optical sheet may be incident to the display panel.
  • the projection unit 111 may provide a user with a dimming function for adjusting the intensity of the light source. Specifically, when a user input for adjusting the intensity of a light source is received from a user through the user interface 115 (eg, a touch display button or a dial), the projection unit 111 displays a light source corresponding to the received user input. It is possible to control the LED to output the intensity of.
  • the user interface 115 eg, a touch display button or a dial
  • the projection unit 111 may provide a dimming function based on the content analyzed by the processor 114 without user input.
  • the projection unit 111 may control the LED to output the intensity of the light source based on information about currently provided content (eg, content type, content brightness, etc.).
  • the projection unit 111 may control the color temperature under the control of the processor 114 .
  • the processor 114 may control the color temperature based on content. Specifically, if the content is identified as being output, the processor 114 may obtain color information for each frame of the content for which output is determined. Also, the processor 114 may control the color temperature based on the obtained color information for each frame. Here, the processor 114 may obtain at least one main color of a frame based on color information for each frame. Also, the processor 114 may adjust the color temperature based on the obtained at least one primary color. For example, the color temperature controllable by the processor 114 may be classified into a warm type or a cold type.
  • a frame to be output (hereinafter referred to as an output frame) includes a scene in which a fire has occurred.
  • the processor 114 may identify (or obtain) that the main color is red based on the color information included in the current output frame. Also, the processor 114 may identify a color temperature corresponding to the identified main color (red). Here, the color temperature corresponding to red may be a warm type. Meanwhile, the processor 114 may use an artificial intelligence model to obtain color information or a primary color of a frame.
  • the artificial intelligence model may be stored in the electronic device 100 (eg, the memory 112). According to another embodiment, the artificial intelligence model may be stored in an external server communicable with the electronic device 100 .
  • the electronic device 100 may control a lighting function in conjunction with an external device.
  • the electronic device 100 may receive lighting information from an external device.
  • the lighting information may include at least one of brightness information and color temperature information set by an external device.
  • the external device is a device connected to the same network as the electronic device 100 (eg, an IoT device included in the same home/work network) or a device that is not on the same network as the electronic device 100 but can communicate with the electronic device ( For example, a remote control server).
  • IoT device included in the same network as the electronic device 100 outputs red light with a brightness of 50.
  • the external lighting device may directly or indirectly transmit lighting information (eg, information indicating that red light is output with a brightness of 50) to the electronic device 100 .
  • the electronic device 100 may control the output of the light source based on lighting information received from an external lighting device. For example, when lighting information received from an external lighting device includes information for outputting red light with a brightness of 50, the electronic device 100 may output red light with a brightness of 50.
  • the electronic device 100 may control a lighting function based on biometric information.
  • the processor 114 may obtain user's biometric information.
  • the biometric information may include at least one of the user's body temperature, heart rate, blood pressure, respiration, and electrocardiogram.
  • the biometric information may include various types of information in addition to the information described above.
  • an electronic device may include a sensor for measuring biometric information.
  • the processor 114 may obtain user's biometric information through a sensor and control the output of the light source based on the obtained biometric information.
  • the processor 114 may receive biometric information from an external device through the input/output interface 116 .
  • the external device may refer to a user's portable communication device (eg, a smart phone or a wearable device).
  • the processor 114 may obtain user's biometric information from an external device and control the output of the light source based on the obtained biometric information.
  • the electronic device may identify whether the user is sleeping, and if the user is identified as sleeping (or preparing for sleep), the processor 114 determines the light source based on the user's biometric information. You can control the output.
  • the memory 112 may store at least one command related to the electronic device 100 . Also, an operating system (O/S) for driving the electronic device 100 may be stored in the memory 112 . Also, various software programs or applications for operating the electronic device 100 may be stored in the memory 112 according to various embodiments of the present disclosure. Also, the memory 112 may include a semiconductor memory such as a flash memory or a magnetic storage medium such as a hard disk.
  • O/S operating system
  • various software programs or applications for operating the electronic device 100 may be stored in the memory 112 according to various embodiments of the present disclosure.
  • the memory 112 may include a semiconductor memory such as a flash memory or a magnetic storage medium such as a hard disk.
  • various software modules for operating the electronic device 100 may be stored in the memory 112 according to various embodiments of the present disclosure, and the processor 114 executes various software modules stored in the memory 112.
  • the operation of the electronic device 100 may be controlled. That is, the memory 112 is accessed by the processor 114, and data can be read/written/modified/deleted/updated by the processor 114.
  • the term memory 112 refers to a memory 112, a ROM (not shown) in the processor 114, a RAM (not shown), or a memory card (not shown) mounted in the electronic device 100 (eg For example, micro SD card, memory stick) may be used as a meaning including.
  • the sensor unit 113 may include at least one sensor. Specifically, the sensor unit 113 may include at least one of a tilt sensor that senses the tilt of the electronic device 100 and an image sensor that captures an image.
  • the tilt sensor may be an acceleration sensor or a gyro sensor
  • the image sensor may mean a camera or a depth camera.
  • the sensor unit 113 may include various sensors other than a tilt sensor or an image sensor.
  • the sensor unit 113 may include an illuminance sensor and a distance sensor.
  • the sensor unit 113 may include a lidar sensor.
  • User interface 115 may include various types of input devices.
  • user interface 115 may include physical buttons.
  • the physical button may include a function key, a direction key (eg, a 4-direction key), or a dial button.
  • the physical button may be implemented as a plurality of keys.
  • the physical button may be implemented as one key.
  • the electronic device 100 may receive a user input in which one key is pressed for a critical period of time or longer.
  • the processor 114 may perform a function corresponding to the user input. For example, processor 114 may provide a lighting function based on user input.
  • the user interface 115 may receive a user input using a non-contact method.
  • a contact method physical force must be transmitted to the electronic device. Therefore, a method for controlling the electronic device regardless of physical force may be required.
  • the user interface 115 may receive a user gesture and perform an operation corresponding to the received user gesture.
  • the user interface 115 may receive a user's gesture through a sensor (eg, an image sensor or an infrared sensor).
  • the user interface 115 may receive a user input using a touch method.
  • the user interface 115 may receive a user input through a touch sensor.
  • the touch method may be implemented as a non-contact method.
  • the touch sensor may determine whether the user's body has approached within a critical distance.
  • the touch sensor may identify a user input even when the user does not contact the touch sensor.
  • the touch sensor may identify a user input in which a user contacts the touch sensor.
  • the electronic device 100 may receive user input in various ways other than the above-described user interface.
  • the electronic device 100 may receive a user input through an external remote control device.
  • the external remote control device may be a remote control device corresponding to the electronic device 100 (eg, an electronic device-specific control device) or a user's portable communication device (eg, a smartphone or a wearable device).
  • the user's portable communication device may store an application for controlling the electronic device.
  • the portable communication device may obtain a user input through a stored application and transmit the acquired user input to the electronic device 100 .
  • the electronic device 100 may receive a user input from a portable communication device and perform an operation corresponding to a user's control command.
  • the electronic device 100 may receive a user input using voice recognition.
  • the electronic device 100 may receive a user's voice through a microphone included in the electronic device.
  • the electronic device 100 may receive a user's voice from a microphone or an external device.
  • the external device may acquire a user voice through a microphone of the external device and transmit the obtained user voice to the electronic device 100 .
  • the user's voice transmitted from the external device may be audio data or digital data obtained by converting the audio data (eg, audio data converted into a frequency domain).
  • the electronic device 100 may perform an operation corresponding to the received user voice.
  • the electronic device 100 may receive audio data corresponding to a user's voice through a microphone.
  • the electronic device 100 may convert the received audio data into digital data.
  • the electronic device 100 may convert the converted digital data into text data using a speech to text (STT) function.
  • STT speech to text
  • the STT (Speech To Text) function may be performed directly in the electronic device 100,
  • a speech to text (STT) function may be performed in an external server.
  • the electronic device 100 may transmit digital data to an external server.
  • the external server may convert digital data into text data and obtain control command data based on the converted text data.
  • the external server may transmit control command data (this time, text data may also be included) to the electronic device 100 .
  • the electronic device 100 may perform an operation corresponding to the user's voice based on the obtained control command data.
  • the electronic device 100 may provide a voice recognition function using one assistant (or artificial intelligence assistant, eg, BixbyTM, etc.), but this is only an example and through a plurality of assistants.
  • a voice recognition function may be provided.
  • the electronic device 100 may provide a voice recognition function by selecting one of a plurality of assists based on a trigger word corresponding to the assist or a specific key present on the remote control.
  • the electronic device 100 may receive a user input using screen interaction.
  • Screen interaction may refer to a function of identifying whether a predetermined event occurs through an image projected on a screen (or a projection surface) by an electronic device and acquiring a user input based on the predetermined event.
  • the predetermined event may refer to an event in which a predetermined object is identified at a specific location (eg, a location where a UI for receiving a user input is projected).
  • the predetermined object may include at least one of a user's body part (eg, a finger), a pointing stick, and a laser point.
  • the electronic device 100 may identify that a user input for selecting the projected UI has been received. For example, the electronic device 100 may project a guide image to display a UI on the screen. And, the electronic device 100 can identify whether the user selects the projected UI. Specifically, the electronic device 100 may identify that the user has selected the projected UI when a predetermined event is identified at the location of the projected UI.
  • the projected UI may include at least one or more items.
  • the electronic device 100 may perform spatial analysis to identify whether a predetermined event is located at the location of the projected UI.
  • the electronic device 100 may perform spatial analysis through a sensor (eg, an image sensor, an infrared sensor, a depth camera, a distance sensor, etc.).
  • the electronic device 100 may identify whether a predetermined event occurs at a specific location (the location where the UI is projected) by performing spatial analysis. And, if it is identified that a predetermined event occurs at a specific location (the location where the UI is projected), the electronic device 100 may identify that a user input for selecting a UI corresponding to the specific location has been received.
  • the input/output interface 116 is a component for inputting/outputting at least one of an audio signal and a video signal.
  • the input/output interface 116 may receive at least one of audio and video signals from an external device and output a control command to the external device.
  • the input/output interface 116 includes HDMI (High Definition Multimedia Interface), MHL (Mobile High-Definition Link), USB (Universal Serial Bus), USB C-type, DP (Display Port), Thunderbolt, VGA (Video Graphics Array) port, RGB port, D-SUB (Dsubminiature) and DVI (Digital Visual Interface) may be implemented as at least one wired input/output interface.
  • the wired input/output interface may be implemented as an interface for inputting/outputting only audio signals and an interface for inputting/outputting only video signals, or may be implemented as one interface for inputting/outputting both audio and video signals.
  • the electronic device 100 may receive data through a wired input/output interface, but this is merely an example, and power may be supplied through the wired input/output interface.
  • the electronic device 100 may receive power from an external battery through USB C-type or from an outlet through a power adapter.
  • an electronic device may receive power from an external device (eg, a laptop computer or a monitor) through a DP.
  • the input/output interface 116 is Wi-Fi, Wi-Fi Direct, Bluetooth, Zigbee, 3rd Generation (3G), 3rd Generation Partnership Project (3GPP), and Long Term Evolution (LTE) communication It may be implemented as a wireless input/output interface that performs communication using at least one of the communication methods.
  • the wireless input/output interface may be implemented as an interface for inputting/outputting only audio signals and an interface for inputting/outputting only video signals, or may be implemented as one interface for inputting/outputting both audio and video signals.
  • an audio signal may be input through a wired input/output interface, and a video signal may be input through a wireless input/output interface.
  • an audio signal may be input through a wireless input/output interface and a video signal may be input through a wired input/output interface.
  • the audio output unit 117 is a component that outputs an audio signal.
  • the audio output unit 117 may include an audio output mixer, an audio signal processor, and a sound output module.
  • the audio output mixer may synthesize a plurality of audio signals to be output into at least one audio signal.
  • the audio output mixer may combine an analog audio signal and another analog audio signal (eg, an analog audio signal received from the outside) into at least one analog audio signal.
  • the sound output module may include a speaker or an output terminal.
  • the sound output module may include a plurality of speakers, and in this case, the sound output module may be disposed inside the main body, and the sound emitted by covering at least a part of the diaphragm of the sound output module may be emitted through a sound conduit ( waveguide) and can be transmitted to the outside of the main body.
  • the sound output module includes a plurality of sound output units, and since the plurality of sound output units are symmetrically disposed on the exterior of the main body, sound can be emitted in all directions, that is, in all directions of 360 degrees.
  • the power supply unit 118 may receive power from the outside and supply power to various components of the electronic device 100 .
  • the power supply unit 118 may receive power through various methods. As an example, the power supply unit 118 may receive power using the connector 130 shown in FIG. 1 . In addition, the power supply unit 118 may receive power using a 220V DC power cord. However, the present invention is not limited thereto, and the electronic device may receive power using a USB power cord or a wireless charging method.
  • the power supply unit 118 may receive power using an internal battery or an external battery.
  • the power supply unit 118 according to an embodiment of the present disclosure may receive power through an internal battery.
  • the power supply unit 118 may charge power of an internal battery using at least one of a 220V DC power cord, a USB power cord, and a USB C-Type power cord, and may receive power through the charged internal battery.
  • the power supply unit 118 according to an embodiment of the present disclosure may receive power through an external battery.
  • the power supply unit 118 may receive power through the external battery. That is, the power supply unit 118 may directly receive power from an external battery, or may charge an internal battery through an external battery and receive power from the charged internal battery.
  • the power supply unit 118 may receive power using at least one of the plurality of power supply methods described above.
  • the electronic device 100 may have power consumption equal to or less than a preset value (eg, 43W) due to a socket type and other standards.
  • the electronic device 100 may vary power consumption to reduce power consumption when using a battery. That is, the electronic device 100 may vary power consumption based on a power supply method and power usage.
  • the electronic device 100 may provide various smart functions.
  • the electronic device 100 is connected to a portable terminal device for controlling the electronic device 100, and a screen output from the electronic device 100 can be controlled through a user input input from the portable terminal device.
  • the mobile terminal device may be implemented as a smart phone including a touch display, and the electronic device 100 receives and outputs screen data provided by the mobile terminal device from the mobile terminal device, and inputs data from the mobile terminal device.
  • a screen output from the electronic device 100 may be controlled according to a user input.
  • the electronic device 100 may share content or music provided by the portable terminal device by connecting to the portable terminal device through various communication methods such as Miracast, Airplay, wireless DEX, and Remote PC.
  • the mobile terminal device and the electronic device 100 may be connected through various connection methods.
  • the portable terminal device may perform a wireless connection by searching for the electronic device 100 or the electronic device 100 may search for the portable terminal device and perform a wireless connection.
  • the electronic device 100 may output content provided by the portable terminal device.
  • the electronic device 100 may output content or music currently being output on the portable terminal device.
  • the portable terminal device while specific content or music is being output from the portable terminal device, the portable terminal device is brought closer to the electronic device 100 by a predetermined distance or less (eg, non-contact tap view), or the portable terminal device is close to the electronic device 100.
  • a predetermined distance or less eg, non-contact tap view
  • the electronic device 100 may output content or music currently being output on the portable terminal device.
  • the portable terminal device when a connection is established between the portable terminal device and the electronic device 100, the portable terminal device outputs a first screen provided by the portable terminal device, and in the electronic device 100, the first screen is provided by a different portable terminal device.
  • a second screen may be output.
  • the first screen may be a screen provided by a first application installed on the portable terminal device
  • the second screen may be a screen provided by a second application installed on the portable terminal device.
  • the first screen and the second screen may be different screens provided by one application installed in the portable terminal device.
  • the first screen may be a screen including a remote control type UI for controlling the second screen.
  • the electronic device 100 may output a standby screen.
  • the electronic device 100 may output a standby screen.
  • the electronic device 100 may output a standby screen.
  • Conditions for the electronic device 100 to output the standby screen are not limited to the above examples, and the standby screen may be output under various conditions.
  • the electronic device 100 may output a standby screen in the form of a blue screen, but the present disclosure is not limited thereto.
  • the electronic device 100 may obtain an irregular object by extracting only the shape of a specific object from data received from an external device, and output an idle screen including the obtained irregular object.
  • the shutter unit 120 may include at least one of a shutter, a fixing member, a rail, a body, or a motor.
  • the shutter may block light output from the projection unit 111 .
  • the fixing member may fix the position of the shutter.
  • the rail may be a path for moving the shutter and the fixing member.
  • the body may be configured to include a shutter and a fixing member.
  • the motor may be a component that generates driving power for movement (eg, movement of the body) or rotation (eg, rotation of the shutter) of components in the shutter unit 120 .
  • FIG. 4 is a perspective view illustrating an external appearance of an electronic device 100 according to other embodiments of the present disclosure.
  • the electronic device 100 may include a support (or referred to as a “handle”) 108a.
  • the support 108a of various embodiments may be a handle or a hook provided for a user to grip or move the electronic device 100, or the support 108a may be a main body ( 105) may be a stand supporting the.
  • the support 108a may be coupled to or separated from the outer circumferential surface of the main body 105 in a hinge structure, and may be selectively separated and fixed from the outer circumferential surface of the main body 105 according to the user's needs.
  • the number, shape, or arrangement of the supports 108a may be variously implemented without limitation.
  • the support 108a is built into the main body 105 and can be taken out and used by the user as needed, or the support 108a can be implemented as a separate accessory and detachable from the electronic device 100. there is.
  • the support 108a may include a first support surface 108a-1 and a second support surface 108a-2.
  • the first support surface 108a-1 may be a surface facing the outside of the body 105 in a state where the support 108a is separated from the outer circumferential surface of the body 105
  • the second support surface 108a-2 is the support (108a) may be a surface facing the inner direction of the main body 105 in a state separated from the outer circumferential surface of the main body 105.
  • the first support surface 108a-1 is developed from the lower part of the body 105 to the upper part of the body 105 and may move away from the body 105, and the first support surface 108a-1 is flat or uniformly curved. can have a shape.
  • the first support surface 108a-1 is the case where the electronic device 100 is mounted so that the outer surface of the body 105 touches the bottom surface, that is, when the projection lens 110 is disposed facing the front direction, the body ( 105) can be supported.
  • the angle of exit of the head 103 and the projection lens 110 may be adjusted by adjusting the distance between the two supports 108a or the hinge opening angle.
  • the second support surface 108a-2 is a surface in contact with the user or an external mounting structure when the support 108a is supported by the user or an external mounting structure, and prevents the user from slipping when the electronic device 100 is supported or moved. It may have a shape corresponding to the gripping structure of the hand or the external mounting structure. The user may direct the projection lens 110 toward the front, fix the head 103, hold the support 108a, move the electronic device 100, and use the electronic device 100 like a flashlight.
  • the support groove 104 is provided on the main body 105 and is a groove structure that can be accommodated when the support rod 108a is not in use, and as shown in FIG. It can be implemented as a home structure. Through the support groove 104, the support 108a can be stored on the outer circumferential surface of the main body 105 when the support 108a is not in use, and the outer circumferential surface of the main body 105 can be kept smooth.
  • the support 108a may have a structure in which the support 108a is stored inside the body 105 and the support 108a is pulled out of the body 105 in a situation where the support 108a is needed.
  • the support groove 104 may have a structure drawn into the main body 105 to accommodate the support rod 108a, and the second support surface 108a-2 may be in close contact with the outer circumferential surface of the main body 105 or a separate support rod.
  • a door (not shown) that opens and closes the groove 104 may be included.
  • the electronic device 100 may include various types of accessories that help use or store the electronic device 100.
  • the electronic device 100 may include the electronic device 100
  • a protective case (not shown) may be included to protect and easily transport the electronic device 100 by being coupled to a tripod (not shown) or an external surface that supports or fixes the main body 105. Possible brackets (not shown) may be included.
  • FIG. 5 is a perspective view illustrating an external appearance of an electronic device 100 according to another embodiment of the present disclosure.
  • the electronic device 100 may include a support (or referred to as a “handle”) 108b.
  • the support 108b of various embodiments may be a handle or a hook provided for a user to grip or move the electronic device 100, or the support 108b may be a main body ( 105) may be a stand that supports it so that it can be directed at an arbitrary angle.
  • the support 108b may be connected to the main body 105 at a predetermined point (eg, 2/3 to 3/4 of the height of the main body) of the main body 105. .
  • a predetermined point eg, 2/3 to 3/4 of the height of the main body
  • the main body 105 can be supported at an arbitrary angle in a state where the main body 105 is laid down in the lateral direction.
  • FIG. 6 is a perspective view illustrating an external appearance of an electronic device 100 according to another embodiment of the present disclosure.
  • the electronic device 100 may include a support (or referred to as a “stand”) 108c.
  • the support 108c of various embodiments includes a base plate 108c-1 provided to support the electronic device 100 on the ground and two support members 108c connecting the base plate 108-c and the main body 105. -2) may be included.
  • the two support members (108c-2) have the same height, so that one end surface of the two support members (108c-2) is provided on one outer circumferential surface of the main body 105 and the hinge member (108c). -3) can be combined or separated.
  • the two supporting members may be hingedly connected to the main body 105 at a predetermined point (eg, 1/3 to 2/4 of the height of the main body) of the main body 105 .
  • the main body 105 is rotated based on the imaginary horizontal axis formed by the two hinge members 108c-3 so that the projection lens 110 The emission angle of can be adjusted.
  • FIG. 6 shows an embodiment in which two support members 108c-2 are connected to the body 105
  • the present disclosure is not limited thereto, and one support member and the body as shown in FIGS. 7 and 8 ( 105) may be connected by one hinge member.
  • FIG. 7 is a perspective view illustrating an external appearance of an electronic device 100 according to another embodiment of the present disclosure.
  • FIG. 8 is a perspective view illustrating a rotated state of the electronic device 100 of FIG. 7 .
  • the support 108d of various embodiments includes a base plate 108d-1, a base plate 108-c, and a body 105 provided to support the electronic device 100 on the ground. It may include one support member (108d-2) connecting the.
  • one support member 108d-2 may be coupled or separated by a groove provided on one outer circumferential surface of the body 105 and a hinge member (not shown).
  • the supports shown in FIGS. 4, 5, 6, 7, and 8 are merely examples, and the electronic device 100 may have supports in various positions or shapes.
  • FIG. 9 is a flowchart illustrating an operation of correcting a projected image using state information of the electronic device 100 and state information of the projection surface 10.
  • the electronic device 100 may acquire state information of the electronic device 100 (S905). Specifically, the electronic device 100 may acquire state information of the electronic device 100 through the first sensor unit 113-1. State information of the electronic device 100 is additionally described in FIGS. 10 to 14 .
  • the electronic device 100 may acquire state information of the projection surface 10 (S910). Specifically, the electronic device 100 may acquire state information of the projection surface 10 through the second sensor unit 113-2. State information of the projection surface 10 is additionally described in FIGS. 15 to 22 .
  • the electronic device 100 may correct the projected image based on the state information of the electronic device 100 and the state information of the projection surface 10 (S915). Specifically, the electronic device 100 may perform leveling correction or keystone correction on the projected image based on state information of the electronic device 100 and state information of the projection surface 10 .
  • a correction operation for the projected image is described in FIGS. 23 and 24 .
  • step S915 may be replaced by an operation in which the electronic device 100 corrects the projected image based on at least one of state information of the electronic device 100 and state information of the projection surface 10 .
  • the electronic device 100 may output the corrected projection image (S920).
  • FIG. 10 is a diagram for explaining z-axis rotation information of the electronic device 100 .
  • the embodiment 1010 of FIG. 10 shows a projection image 1011 output in a state in which the electronic device 100 is not rotated on the z-axis basis. A description related to the z-axis of the electronic device 100 is described in FIG. 13 .
  • the embodiment 1020 of FIG. 10 shows a projection image 1021 output in a state in which the electronic device 100 is rotated on the z-axis basis.
  • the electronic device 100 is rotated by a certain angle 1022 based on the z-axis.
  • 11 is a diagram for explaining y-axis rotation information of the electronic device 100 .
  • the embodiment 1110 of FIG. 11 shows a state in which the electronic device 100 is not rotated based on the y-axis. A description related to the y-axis of the electronic device 100 is described in FIG. 13 .
  • Example 1120 of FIG. 11 shows a state in which the electronic device 100 is rotated based on the y-axis. Here, it is assumed that the electronic device 100 is rotated by a predetermined angle 1122 based on the y-axis.
  • FIG. 12 is a diagram for explaining x-axis rotation information of the electronic device 100 .
  • the embodiment 1210 of FIG. 12 shows a state in which the electronic device 100 is not rotated based on the x-axis.
  • a description related to the x-axis of the electronic device 100 is described in FIG. 13 .
  • the reference horizontal line 1211 may be the same as the horizontal line of the electronic device 100 that is not rotated based on the x-axis.
  • the embodiment 1220 of FIG. 12 shows a state in which the electronic device 100 is rotated based on the x-axis.
  • the electronic device 100 is rotated by a predetermined angle 1222 based on the x-axis.
  • FIG. 13 is a diagram for explaining rotation information of the electronic device 100. Referring to FIG.
  • the embodiment 1310 of FIG. 13 is a graph defining rotation directions along the x, y, and z axes.
  • Rotation around the x-axis can be defined as roll, rotation around the y-axis as pitch, and rotation around the z-axis as yaw.
  • the rotation direction of the projection surface 10 may be described as the rotation direction defined in the embodiment 1310.
  • the x-axis rotation information of the projection surface 10 may correspond to a roll rotating based on the x-axis of the projection surface 10 .
  • the y-axis rotation information of the projection surface 10 may correspond to a pitch that rotates based on the y-axis of the projection surface 10 .
  • the z-axis rotation information of the projection surface 10 may correspond to yaw rotating based on the z-axis of the projection surface 10 .
  • the x-axis rotation information may be described as first-axis rotation information or horizontal distortion information.
  • the y-axis rotation information may be described as second-axis rotation information or vertical tilt information.
  • the z-axis rotation information may be described as third-axis rotation information or horizontal tilt information.
  • the first sensor unit 113-1 may obtain state information of the electronic device 100.
  • the state information of the electronic device 100 may mean a rotation state of the electronic device 100 .
  • the first sensor unit 113-1 may include at least one of a gravity sensor, an acceleration sensor, and a gyro sensor.
  • the x-axis rotation information and the y-axis rotation information of the electronic device 100 may be determined based on sensing data acquired through the first sensor unit 113-1.
  • it may be difficult to set a specific criterion for z-axis rotation information of the electronic device 100 unless it is based on north, south, east, west, and the like.
  • the electronic device 100 may consider state information of the projection surface 10 without separately considering z-axis rotation information of the electronic device 100 .
  • the electronic device 100 may perform an image correction operation in consideration of z-axis rotation information of the projection surface 10 .
  • FIG. 14 is a flowchart illustrating an operation of correcting a projected image based on rotation information of the electronic device 100. Referring to FIG.
  • the electronic device 100 may acquire x-axis rotation information and y-axis rotation information of the electronic device 100 (S1405). Specifically, the electronic device 100 may acquire rotation information related to the electronic device 100 through the first sensor unit 113-1.
  • the electronic device 100 may correct the projected image based on the x-axis rotation information and the y-axis rotation information of the electronic device 100 (S1410). Specifically, the electronic device 100 performs leveling correction on the projection image based on the x-axis rotation information of the electronic device 100, and performs keystone correction on the projection image based on the y-axis rotation information of the electronic device 100. correction can be made.
  • the electronic device 100 may output a projected image after the correction operation is performed (S1415).
  • the output projection image may be an image on which at least one of leveling correction and keystone correction has been performed.
  • 15 is a diagram for explaining rotation information of the projection surface 10.
  • the embodiment 1510 of FIG. 15 is a graph defining rotation directions along the x, y, and z axes.
  • Rotation around the x-axis can be defined as roll, rotation around the y-axis as pitch, and rotation around the z-axis as yaw.
  • the rotation direction of the projection surface 10 may be described as the rotation direction defined in the embodiment 1510 .
  • the x-axis rotation information of the projection surface 10 may correspond to a roll rotating based on the x-axis of the projection surface 10 .
  • the y-axis rotation information of the projection surface 10 may correspond to a pitch that rotates based on the y-axis of the projection surface 10 .
  • the z-axis rotation information of the projection surface 10 may correspond to yaw rotating based on the z-axis of the projection surface 10 .
  • the x-axis rotation information may be described as first-axis rotation information.
  • the y-axis rotation information may be described as second-axis rotation information.
  • the z-axis rotation information may be described as third-axis rotation information.
  • 16 is a diagram for explaining z-axis rotation information of the projection surface 10 .
  • the embodiment 1610 of FIG. 16 is a view from above of the electronic device 100 in which the electronic device 100 outputs a projected image in a state in which the projection surface 10 is not rotated in the z-axis. Assume that the electronic device 100 is placed on the table 20 .
  • the embodiment 1620 of FIG. 16 describes a situation in which the electronic device 100 outputs a projected image in a state where the projection surface 10 is rotated counterclockwise by a certain angle ⁇ 1 with respect to the z-axis. ) is a view from above. Assume that the electronic device 100 is placed on the table 20 .
  • FIG. 17 is a flowchart illustrating an operation of correcting a projected image based on z-axis rotation information of the projection surface 10.
  • the electronic device 100 may obtain a first distance between the first distance sensor 113-2-1 and the projection surface 10 (S1705).
  • the distance may be described as distance information.
  • the first distance may be d1 of FIG. 18 .
  • the electronic device 100 may obtain a second distance between the second distance sensor 113-2-2 and the projection surface 10 (S1710).
  • the first distance may be d2 of FIG. 18 .
  • the electronic device 100 may acquire z-axis rotation information of the projection surface 10 based on the first distance and the second distance (S1715). A detailed description related to this will be described in FIG. 18 .
  • the electronic device 100 may correct the projected image based on the z-axis rotation information of the projection surface 10 (S1720). Specifically, the electronic device 100 may perform keystone correction on the projected image based on z-axis rotation information of the projection surface 10 .
  • the electronic device 100 may output the corrected projection image (S1725).
  • FIG. 18 is a diagram for explaining an operation of obtaining z-axis rotation information of the projection surface 10. Referring to FIG.
  • the embodiment 1810 of FIG. 18 shows a state in which the projection surface 10 is not rotated in the z-axis.
  • the embodiment 1810 may correspond to the embodiment 1610 of FIG. 16 .
  • the electronic device 100 may obtain a first distance d1 between the first distance sensor 113-2-1 and the projection surface 10. Specifically, the electronic device 100 outputs light through the light emitting unit of the first distance sensor 113-2-1 and receives light reflected through the light receiving unit of the first distance sensor 113-2-1. can The electronic device 100 may obtain the first distance d1 based on the time when light is output through the light emitter and the time when light reflected through the light receiver is received.
  • the electronic device 100 may obtain the second distance d2 between the second distance sensor 113-2-2 and the projection surface 10. Specifically, the electronic device 100 outputs light through the light emitting unit of the second distance sensor 113-2-2 and receives reflected light through the light receiving unit of the second distance sensor 113-2-2. can The electronic device 100 may obtain the second distance d2 based on the time when light is output through the light emitter and the time when light reflected through the light receiver is received.
  • the electronic device 100 may identify that the projection surface 10 is not rotated along the z-axis. Also, the electronic device 100 may determine that the z-axis rotation information of the projection surface 10 is '0 degree'.
  • the embodiment 1820 of FIG. 18 shows a state in which the projection surface 10 is rotated by a certain angle ⁇ 1 with respect to the z-axis.
  • the embodiment 1820 may correspond to the embodiment 1620 of FIG. 16 .
  • the electronic device 100 may obtain a first distance d1 between the first distance sensor 113-2-1 and the projection surface 10. Also, the electronic device 100 may obtain the second distance d2 between the second distance sensor 113-2-2 and the projection surface 10. Since descriptions related to the first distance d1 and the second distance d2 have been described in the embodiment 1810, redundant descriptions will be omitted.
  • the electronic device 100 may identify the projection surface 10 as being rotated along the z-axis. In addition, the electronic device 100 determines the first distance d1, the second distance d2, and the distance between the first distance sensor 113-2-1 and the second distance sensor 113-2-2 (d_sensor ), z-axis rotation information of the projection surface 10 may be obtained.
  • the embodiment 1830 of FIG. 18 shows a process of calculating z-axis rotation information of the projection surface 10.
  • the electronic device 100 may calculate the rotation angle ⁇ 1 of the projection surface 10 in the z-axis by substituting '(d2-d1)/(d_sensor)' into the arctangent function (tan ⁇ -1).
  • 19 is a view for explaining the light receiving unit of the second sensor unit.
  • the distance sensor included in the second sensor unit 113-2 may include both a light emitting unit and a light receiving unit.
  • the second sensor unit 113-2 of the electronic device 100 may include a first distance sensor 113-2-1 and a second distance sensor 113-2-2.
  • the first distance sensor 113-2-1 may include a first light emitting unit 113-2-1-1 and a first light receiving unit 113-2-1-2.
  • the first light emitting unit 113-2-1-1 functions to emit (or output) light
  • the first light receiving unit 113-2-1-2 functions to receive the reflected light.
  • the reflected light may mean light emitted (or output) from the first light emitting unit 113-2-1-1 and reflected by a specific object (eg, projection surface).
  • the second distance sensor 113-2-2 may include a second light emitting unit 113-2-2-1 and a first light receiving unit 113-2-2-2.
  • the distance sensor included in the second sensor unit 113-2 may include a light emitting unit, and the light receiving unit may be disposed at a separate location other than the distance sensor.
  • the second sensor unit 113-2 of the electronic device 100 may include a first distance sensor 113-2-1 and a second distance sensor 113-2-2.
  • the first distance sensor 113-2-1 and the second distance sensor 113-2-2 may perform a function of reflecting (or outputting) light.
  • the light receiving unit 1901 may receive the reflected light.
  • the electronic device 100 determines that the received light is the first It is possible to identify whether the distance sensor 113-2-1 outputs or the second distance sensor 113-2-2 outputs it.
  • 20 is a diagram for explaining y-axis rotation information of the projection surface 10.
  • FIG. 20 a state in which the projection surface 10 is rotated based on the y-axis is shown. Specifically, it is assumed that the projection surface 10 is rotated by a certain angle ⁇ 2 with respect to the y-axis.
  • FIG. 21 is a flowchart illustrating an operation of correcting a projected image based on y-axis rotation information of the projection surface 10.
  • the electronic device 100 may obtain a first distance between the first distance sensor 113-2-1 and the projection surface 10 (S2105).
  • the first distance may be d1 of FIG. 22 .
  • the electronic device 100 may obtain a third distance between the third distance sensor 113-2-3 and the projection surface 10 (S2110).
  • the third distance may be d3 of FIG. 22 .
  • the electronic device 100 may obtain y-axis rotation information of the projection surface 10 based on the first distance and the third distance (S2115). A detailed description related to this is described in FIG. 22 .
  • the electronic device 100 may correct the projected image based on the y-axis rotation information of the projection surface 10 (S2120). Specifically, the electronic device 100 may perform keystone correction on the projection image based on the y-axis rotation information of the projection surface 10 .
  • the electronic device 100 may output a projected image (S2125). Specifically, the electronic device 100 may output a projection image on which keystone correction has been performed (S2125).
  • the operation using the first distance sensor 113-2-1 and the third distance sensor 113-2-3 to acquire the y-axis rotation information of the projection surface 10 has been described, but implementation According to an example, the second distance sensor 113-2-2 may be used instead of the first distance sensor 113-2-1. Different distance sensors having different heights may be used to acquire y-axis rotation information of the projection surface 10 .
  • FIG. 22 is a diagram for explaining an operation of obtaining y-axis rotation information of the projection surface 10. Referring to FIG.
  • the embodiment 2210 of FIG. 22 indicates that the projection surface 10 is not rotated based on the y-axis.
  • Embodiment 2210 may correspond to embodiment 2010 of FIG. 20 .
  • the electronic device 100 determines the first distance d1 between the first distance sensor 113-2-1 and the projection surface 10 based on the sensing data acquired by the first distance sensor 113-2-1. can be obtained.
  • the electronic device 100 determines the third distance between the third distance sensor 113-2-3 and the projection surface 10 based on the sensing data obtained from the third distance sensor 113-2-3. d3) can be obtained.
  • the electronic device 100 may identify that the projection surface 10 is not rotated based on the y-axis.
  • the projection surface 10 is rotated based on the y-axis.
  • Embodiment 2220 may correspond to embodiment 2020 of FIG. 20 .
  • the electronic device 100 may identify that the projection surface 10 is rotated based on the y-axis.
  • the electronic device 100 determines the first distance d1, the third distance d3, and the height difference between the first distance sensor 113-2-1 and the third distance sensor 113-2-3 (d_sensor Based on -H), y-axis rotation information of the projection surface 10 may be obtained.
  • Example 2230 of FIG. 22 shows a process of calculating y-axis rotation information of the projection surface 10 .
  • the electronic device 100 may calculate the rotation angle ⁇ 2 of the projection surface 10 in the y-axis by substituting '(d1-d3)/(d_sensor-H)' into the inverse tangent function (tan ⁇ -1). there is.
  • FIG. 22 an operation of obtaining y-axis rotation information of the projection surface 10 using the third distance sensor 113-2-3 has been described.
  • a related arrangement structure may be the same as that of the electronic device 100 - 2 of FIG. 25 .
  • the two distance sensors may be disposed differently in both horizontal and vertical positions.
  • the electronic device 100 - 2 may acquire both y-axis rotation information and z-axis rotation information of the projection surface 10 through two distance sensors.
  • 23 is a table for explaining whether leveling correction or keystone correction is performed based on state information of the electronic device 100 and state information of the projection surface 10 .
  • the electronic device 100 may perform a correction operation based on at least one of state information of the electronic device 100 and state information of the projection surface 10 .
  • the state information of the electronic device 100 may include x-axis rotation information and y-axis rotation information of the electronic device 100 of the electronic device 100 .
  • the state information of the projection surface 10 may include y-axis rotation information and z-axis rotation information of the projection surface 10 .
  • the electronic device 100 may perform leveling correction (or leveling correction function) based on the x-axis rotation information of the electronic device 100 .
  • the electronic device 100 performs keystone correction (or keystone correction function).
  • the electronic device 100 may perform leveling correction by rotating the projected image clockwise or counterclockwise.
  • the electronic device 100 may perform keystone correction (vertical keystone correction or up/down keystone correction) to remove distortion generated in the vertical direction of the projected image.
  • keystone correction vertical keystone correction or up/down keystone correction
  • the electronic device 100 may perform keystone correction (vertical keystone correction or up and down keystone correction) to remove distortion generated in the vertical direction of the projected image.
  • keystone correction vertical keystone correction or up and down keystone correction
  • the electronic device 100 may perform keystone correction (horizontal keystone correction or left and right keystone correction) to remove distortion generated in the horizontal direction of the projected image.
  • keystone correction horizontal keystone correction or left and right keystone correction
  • the projection surface 10 is generally rotated along the y-axis or z-axis, it is not assumed that the projection surface 10 rotates along the x-axis. 41 and 42 in relation to the x-axis rotation information of the projection surface 10.
  • 24 is a flowchart for explaining whether leveling correction or keystone correction is performed based on state information of the electronic device 100 and state information of the projection surface 10 .
  • the electronic device 100 may acquire x-axis rotation information and y-axis rotation information of the electronic device 100 (S2405). Specifically, the electronic device 100 may acquire rotation information of the electronic device 100 through the first sensor unit 113-1.
  • the electronic device 100 determines the first distance d1 between the first distance sensor 113-2-1 and the projection surface 10, the second distance sensor 113-2-2 and the projection surface 10 ) and a third distance d3 between the third distance sensor 113-2-3 and the projection surface 10 may be obtained (S2410).
  • the electronic device 100 may obtain z-axis rotation information of the projection surface 10 based on the first distance d1 and the second distance d2 (S2415). Also, the electronic device 100 may obtain y-axis rotation information of the projection surface 10 based on the first distance d1 and the third distance d3 (S2420).
  • the electronic device 100 may perform leveling correction on the projected image based on the x-axis rotation information of the electronic device 100 (S2425).
  • the electronic device 100 performs keystone correction on the projected image based on the y-axis rotation information of the electronic device 100, the y-axis rotation information of the projection surface 10, and the z-axis rotation information of the projection surface 10. It can be performed (S2430).
  • the electronic device 100 may output a projection image after at least one of leveling correction and keystone correction is performed (S2435). If both the electronic device 100 and the projection surface 10 are not rotated, the electronic device 100 may not perform leveling correction and keystone correction. Similarly, according to the rotation information, at least one of step S2425 or step S2430 may be omitted.
  • 25 is a diagram for explaining the second sensor unit 113-2 according to various embodiments.
  • An embodiment 2510 of FIG. 25 illustrates an electronic device 100 using two distance sensors.
  • the electronic device 100 may include a first distance sensor 113-2-1 and a second distance sensor 113-2-2.
  • the first distance sensor 113-2-1 and the second distance sensor 113-2-2 may be disposed horizontally.
  • the first distance sensor 113-2-1 and the second distance sensor 113-2-2 may be disposed not horizontally.
  • the first distance sensor 113-2-1 and the second distance sensor 113-2-2 may be differently disposed horizontally and vertically.
  • the third distance sensor 113-2-2 if the first distance sensor 113-2-1 and the second distance sensor 113-2-2 are neither horizontal nor perpendicular to each other, the third distance sensor 113-2-2 3) may not be necessary. Accordingly, the third distance sensor 113-2-3 and the third distance d3 disclosed in FIGS. 21, 22, and 24 correspond to the second distance sensor 113-2-2 and the second distance d2. can be replaced with
  • An embodiment 2520 of FIG. 25 illustrates an electronic device 100 using three distance sensors.
  • the electronic device 100 may include a first distance sensor 113-2-1, a second distance sensor 113-2-2, and a third distance sensor 113-2-3.
  • the first distance sensor 113-2-1 and the second distance sensor 113-2-2 are horizontally disposed, and the third distance sensor 113-2-3 is It may be disposed not perpendicular to the distance sensor 113-2-1 and the second distance sensor 113-2-2.
  • the first distance sensor 113-2-1 and the second distance sensor 113-2-2 are horizontally disposed, and the third distance sensor 113-2-3 is It may be disposed perpendicular to the distance sensor 113-2-1 (or the second distance sensor 113-2-2).
  • the projection lens 110 may be disposed between the first distance sensor 113-2-1 and the second distance sensor 113-2-2.
  • the first distance sensor 113-2-1 and the second distance sensor 113-2-2 are horizontally disposed, and the third distance sensor 113-2-3 is It may be disposed perpendicular to the distance sensor 113-2-1 (or the second distance sensor 113-2-2).
  • the first distance sensor 113-2-1, the second distance sensor 113-2-2, and the third distance sensor 113-2-3 are all directed in the same direction relative to the projection lens 110. (left or right).
  • An embodiment 2530 of FIG. 25 illustrates an electronic device 100 using four distance sensors.
  • the electronic device 100 includes a first distance sensor 113-2-1, a second distance sensor 113-2-2, a third distance sensor 113-2-3, and a fourth distance sensor 113-2. -4) may be included.
  • the first distance sensor 113-2-1 and the second distance sensor 113-2-2 are horizontally disposed, and the third distance sensor 113-2-3 and the The 4 distance sensors 113-2-4 may be arranged vertically.
  • 26 is a diagram for explaining the offset of the projection lens 110.
  • an embodiment 2610 shows the arrangement of the projection lens 110 in a situation where the offset of the projection lens 110 is 0%.
  • Embodiment 2620 shows the arrangement of the projection lens 110 in a situation where the offset of the projection lens 110 is 100%.
  • Embodiment 2630 shows the arrangement of the projection lens 110 in a situation where the offset of the projection lens 110 is 150%.
  • Example 2640 shows the arrangement of the projection lens 110 in a situation where the offset of the projection lens 110 is 200%.
  • the offset may be determined according to the characteristics of the projection lens 110 and may be changed by user settings of the electronic device 100 .
  • the basic offset may be set to offset 100% as in the embodiment 2620.
  • 27 is a flowchart for explaining an operation of outputting a projected image in consideration of a ratio of the projected image.
  • the electronic device 100 may acquire state information of the electronic device 100 (S2705). Then, the electronic device 100 may obtain state information of the projection surface 10 (S2710).
  • step S2715 may be replaced with an operation in which the electronic device 100 corrects the projected image based on at least one of state information of the electronic device 100 and state information of the projection surface 10 .
  • the electronic device 100 may acquire distance information between the electronic device 100 and the projection surface (S2720). Then, the electronic device 100 may determine the ratio of the projected image based on the obtained distance information (S2725). Then, the electronic device 100 may output the projected image based on the corrected projection image in step S2715 and the ratio determined in step S2725 (S2730).
  • 28 is a diagram for explaining an operation of outputting a projection image in consideration of a projection distance.
  • the embodiment 2810 of FIG. 28 may mean the first distance d1 to be sensed by the first distance sensor 113-2-1.
  • the electronic device 100 may identify the sensing size according to the distance.
  • the sensing size according to the distance d1 may be different according to the performance of the first distance sensor 113-2-1.
  • the electronic device 100 may store the sensing size for each distance corresponding to the performance of the first distance sensor 113-2-1.
  • the electronic device 100 may analyze the sensing data based on the sensing size for each distance corresponding to the performance.
  • the first distance d1 may be used as a projection distance.
  • the electronic device 100 may obtain the second distance d2 by using the second distance sensor 113-2-2 in addition to the first distance sensor 113-2-1.
  • the electronic device 100 may determine the projection distance as one of the first distance d1 and the second distance d2.
  • the electronic device 100 may determine the projection distance using both the first distance d1 and the second distance d2.
  • the processor 114 may determine the projection distance as an average value of the first distance d1 and the second distance d2.
  • the projection ratio may be projection distance/image horizontal length.
  • the projection ratio may be different according to the performance (or property) of the electronic device 100, and the projection distance or image size may be determined according to the predetermined projection ratio.
  • the horizontal length of the image may be projection distance/projection ratio.
  • the horizontal length of the image may be determined according to the projection distance.
  • the horizontal length of the image may indicate the size of the image output on the projection surface. Therefore, even if the projection ratio is the same, if the projection distance increases, the horizontal length of the image may increase.
  • 29 is a diagram for explaining the arrangement of the first distance sensor and the second distance sensor included in the second sensor unit 113-2.
  • the embodiment 2910 of FIG. 29 represents a situation in which the first distance sensor 113-2-1 and the second distance sensor 113-2-2 are spaced apart by a distance d_2910.
  • the sensing angle of the first distance sensor 113-2-1 may be ⁇ _2911, and the distance between the first distance sensor 113-2-1 and the projection surface 10 may be d_2911.
  • the sensing angle of the second distance sensor 113-2-2 may be ⁇ _2912, and the distance between the second distance sensor 113-2-2 and the projection surface 10 may be d_2912.
  • the electronic device 100 includes a sensing angle ( ⁇ _2911) of the first distance sensor 113-2-1 and a distance (d_2911) between the first distance sensor 113-2-1 and the projection surface 10,
  • the sensing angle ( ⁇ _2912) of the second distance sensor 113-2-2, the distance between the second distance sensor 113-2-2 and the projection surface 10 (d_2912), and the first distance sensor 113-2 -1) and the distance (d_2910) between the second distance sensor 113-2-2, the overlapping sensing distance (d_s1) may be obtained.
  • the embodiment 2920 of FIG. 29 shows a situation in which the first distance sensor 113-2-1 and the second distance sensor 113-2-2 are separated by a distance d_2920.
  • the sensing angle of the first distance sensor 113-2-1 may be ⁇ _2911, and the distance between the first distance sensor 113-2-1 and the projection surface 10 may be d_2911.
  • the sensing angle of the second distance sensor 113-2-2 may be ⁇ _2912, and the distance between the second distance sensor 113-2-2 and the projection surface 10 may be d_2912.
  • the electronic device 100 includes a sensing angle ( ⁇ _2911) of the first distance sensor 113-2-1 and a distance (d_2911) between the first distance sensor 113-2-1 and the projection surface 10,
  • the sensing angle ( ⁇ _2912) of the second distance sensor 113-2-2, the distance between the second distance sensor 113-2-2 and the projection surface 10 (d_2912), and the first distance sensor 113-2 -1) and the distance (d_2920) between the second distance sensor 113-2-2, the overlapping sensing distance (d_s2) may be obtained.
  • the electronic device 100 may obtain different overlapping sensing distances according to the distance between the first distance sensor 113-2-1 and the second distance sensor 113-2-2.
  • an optimal overlapping sensing distance may exist according to the performance of the projection lens 110 .
  • the optimal overlapping sensing distance may be described as a critical range. If the redundant sensing distance is too large, calculation accuracy of sensing data acquired through the distance sensor may decrease. Therefore, an optimal overlapping sensing distance may exist according to the distance between the projection lens 110 and the projection surface 10 .
  • the electronic device 100 may obtain a redundant sensing distance using the first distance sensor 113-2-1 and the second distance sensor 113-2-2 at the current location. And, the electronic device 100 may identify whether the overlapping sensing distance is within a critical range. If the overlapping sensing distance is out of the critical range, the electronic device 100 uses a user interface (UI) including guide information for notifying that the current arrangement of the electronic device 100 is incorrect and guide information indicating an appropriate arrangement distance. can output The user may move the location of the electronic device 100 based on the output UI.
  • UI user interface
  • FIG. 30 is a diagram for explaining an operation of outputting a projection image in a state in which the projection surface 10 is not rotated along the z-axis.
  • the electronic device 100 of FIG. 30 includes the first sensor unit 113-1 and does not include the second sensor unit 113-2.
  • a plan view 3011 of FIG. 30 shows the electronic device 100 outputting a projection image on the projection surface 10 .
  • a front view 3012 of FIG. 30 indicates that a projected image is output in a situation corresponding to the plan view 3011 .
  • the projection image can be normally output even though z-axis rotation information of the projection surface 10 is not considered.
  • FIG. 31 is a diagram for explaining the reason for correcting a projection image in consideration of state information of the projection surface 10 in a state in which the projection surface 10 is rotated along the z-axis.
  • the electronic device 100 of FIG. 31 includes the first sensor unit 113-1 and does not include the second sensor unit 113-2.
  • a plan view 3111 of FIG. 31 shows that the projection surface 10 is rotated by a certain angle ⁇ 1 in the z-axis.
  • a front view 3112 of FIG. 31 indicates that the projected image is distorted and output in a situation corresponding to the plan view 3011 .
  • the electronic device 100 of FIG. 31 does not include the second sensor unit 113-2, state information of the projection surface 10 may not be acquired. Therefore, the electronic device 100 cannot know that the projection surface 10 is rotated about the z-axis.
  • a front view 3113 of FIG. 31 shows a projected image output after a correction operation is performed in a situation corresponding to the plan view 3011 .
  • the electronic device 100 does not include the second sensor unit 113-2, the electronic device 100 cannot know that the projection surface 10 is rotated about the z-axis. Accordingly, the electronic device 100 may not be able to solve the problem of distortion of the projected image even if the correction operation is performed.
  • the second sensor unit 113-2 may be required to completely perform the correction operation.
  • 32 is a diagram for explaining an operation of correcting a projected image in a state in which the projection surface 10 is not rotated along the y-axis.
  • the electronic device 100 of FIG. 32 includes the first sensor unit 113-1 and does not include the second sensor unit 113-2.
  • a plan view 3211 of FIG. 32 indicates that the projection surface 10 is not rotated based on the y-axis and the electronic device 100 is rotated based on the y-axis.
  • a front view 3212 of FIG. 32 indicates that the projected image is distorted and output in the situation of the plan view 3211 .
  • a front view 3213 of FIG. 32 shows a projected image output after a correction operation is performed in a situation corresponding to the plan view 3211 .
  • the projected image is corrected by considering only the state information of the electronic device 100 without considering the state information of the projection surface 10. .
  • the projection surface 10 is not rotated on the basis of the y-axis, the projected image can be normally output even if the electronic device 100 corrects the projected image by considering only state information of the electronic device 100 .
  • FIG. 33 is a diagram for explaining the reason for correcting a projection image in consideration of state information of the projection surface 10 in a state in which the projection surface 10 is rotated along the y-axis.
  • the embodiment 3310 of FIG. 33 assumes that the electronic device 100 includes only the first sensor unit 113-1 and does not include the second sensor unit 113-2.
  • a side view 3311 of the embodiment 3310 indicates that the projection surface 10 is rotated by a predetermined angle ⁇ 2 based on the y-axis and the electronic device 100 is also rotated by a predetermined angle (not shown) based on the y-axis.
  • the front view 3312 of the embodiment 3310 indicates that the projected image is distorted and output in the situation of the side view 3311 .
  • a front view 3313 of the embodiment 3310 represents a projected image output after a correction operation is performed in the situation of the side view 3311 . Since the electronic device 100 of the embodiment 3310 does not include the second sensor unit 113-2, information about the y-axis rotation of the projection surface 10 cannot be obtained. Therefore, the electronic device 100 cannot perform a correction operation in consideration of the state information of the projection surface 10 . The electronic device 100 may perform a correction operation by considering only state information of the electronic device 100 . Accordingly, some distortion may remain in the projected image output from the plan view 3313 .
  • the electronic device 100 includes both the first sensor unit 113-1 and the second sensor unit 113-2.
  • a side view 3321 of the embodiment 3320 indicates that the projection surface 10 is rotated by a predetermined angle ⁇ 2 based on the y-axis and the electronic device 100 is also rotated by a predetermined angle (not shown) based on the y-axis.
  • the front view 3322 of the embodiment 3320 indicates that the projected image is distorted and output in the situation of the side view 3321 .
  • a front view 3323 of the embodiment 3320 represents a projected image output after a correction operation is performed in the situation of a side view 3321 . Since the electronic device 100 of the embodiment 3320 includes the second sensor unit 113-2, it is possible to obtain y-axis rotation information of the projection surface 10. Accordingly, the electronic device 100 may perform a correction operation considering both the state information of the electronic device 100 and the state information of the projection surface 10 . Accordingly, distortion may not exist in the projected image output from the plan view 3323 .
  • 34 is a flowchart for explaining an operation of determining a focus based on a distance between a projection area and a distance sensor.
  • the electronic device 100 may identify a projection area on the projection surface 10 (S3405). Then, the electronic device 100 may obtain a fourth distance between the first distance sensor 113-2-1 and the projection area (S3410). Here, the fourth distance may correspond to d4 of FIG. 35 .
  • the electronic device 100 may obtain a fifth distance between the second distance sensor 113-2-2 and the projection area (S3415).
  • the fifth distance may correspond to d5 of FIG. 34 .
  • the electronic device 100 can identify whether the fifth distance is smaller than the fourth distance (S3420). If the fifth distance is smaller than the fourth distance (S3420-Y), the electronic device 100 may determine the focus based on the sensing data obtained from the second distance sensor 113-2-2 (S3425).
  • the sensing data acquired by the second distance sensor 113-2-2 is the second distance d2 between the second distance sensor 113-2-2 and the projection surface 10 or the second distance sensor ( 113-2-2) and the fifth distance d5 between the projection areas. That is, the electronic device 100 may determine the focus based on the proximity sensor in the projection area.
  • the focal point may mean a focal point used to output a projected image. According to an implementation example, the electronic device 100 may determine the focus using the fifth distance d5.
  • the electronic device 100 may determine the focus based on the sensing data obtained from the first distance sensor 113-2-1 (S3430).
  • the sensing data acquired by the first distance sensor 113-2-1 is the first distance d1 between the first distance sensor 113-2-1 and the projection surface 10 or the first distance sensor ( 113-2-1) and the fourth distance d4 between the projection areas. That is, the electronic device 100 may determine the focus based on the proximity sensor in the projection area.
  • the focal point may mean a focal point used to output a projected image. According to an implementation example, the electronic device 100 may determine the focus using the fourth distance d4.
  • 35 is a diagram for explaining an operation of determining a focus based on a distance between a projection area and a distance sensor.
  • the electronic device 100 may determine the projection area 3501 by avoiding the obstacle object 30 on the projection surface 10 .
  • the obstacle object 30 may mean an object that is not suitable for outputting a projection image.
  • the obstacle object 30 may mean a picture frame, a glass window, and the like.
  • the first distance sensor 113-2-1 may acquire the distance d1 between the first distance sensor 113-2-1 and the projection surface 10 .
  • the first distance sensor 113-2-1 may acquire the distance d4 between the first distance sensor 113-2-1 and the projection area 3501 .
  • the second distance sensor 113-2-2 may acquire the distance d2 between the second distance sensor 113-2-2 and the projection surface 10 .
  • the second distance sensor 113-2-2 may acquire the distance d5 between the second distance sensor 113-2-2 and the projection area 3501 .
  • a front view 3512 of FIG. 35 indicates that the projection image 3502 is output without considering the obstacle object 30 .
  • the electronic device 100 determines the projection area without considering the obstacle object 30, the position of the obstacle object 30 and the projection area may overlap.
  • a front view 3513 of FIG. 35 indicates that a projection image 3503 is output considering the obstacle object 30 .
  • the electronic device 100 may identify the projection area 3501 by considering the position of the obstacle object 30 .
  • the projection area 3501 may mean an area in which the obstacle object 30 is not located on the projection surface 10 .
  • the electronic device 100 may output a projection image 3503 to the identified projection area 3501 .
  • 36 is a flowchart illustrating an operation of determining a focus by assigning a weight to a distance between a projection area and a distance sensor.
  • steps S3605, S3610, S3615, and S3620 may correspond to steps S3405, S3410, S3415, and S3420, so duplicate descriptions are omitted.
  • the electronic device 100 assigns the first distance sensor 113-2-1 to the sensing data obtained from the second distance sensor 113-2-2.
  • the focus may be determined by assigning a greater weight than the sensing data obtained in .
  • the electronic device 100 transmits the sensing data obtained from the first distance sensor 113-2-1 to the second distance sensor 113-2-2.
  • the focus may be determined by assigning a greater weight than the sensing data obtained in .
  • 37 is a diagram for explaining an operation of determining a focus by assigning a weight to a distance between a projection area and a distance sensor.
  • the embodiment 3711, the front view 3712, and the front view 3713 may correspond to the embodiment 3511, the front view 3512, and the front view 3513 of FIG. omit the explanation.
  • Equation 3714 of FIG. 37 represents a process of calculating a weight for determining a focus according to a location of an identification area 3701 .
  • W1 is a first weight applied to the sensing data obtained from the first distance sensor 113-2-1
  • W2 is a second weight applied to the sensing data obtained from the second distance sensor 113-2-2.
  • 'a' may mean the horizontal length of the entire area where the projected image can be output. Accordingly, '2/a' may mean half of the horizontal length of the entire area in which the projected image can be output. According to another implementation example, the horizontal length of the entire area on which the projection image can be output may be replaced with the horizontal length of the projection surface 10 .
  • 'b' may mean a distance by which the projection area 3701 or the projection image 3703 in the front view 3713 is moved from the center toward the second distance sensor 113-2-2.
  • the first weight W1 applied to the sensing data obtained from the first distance sensor 113-2-1 is 'a/2-b' and obtained from the second distance sensor 113-2-2.
  • the second weight W2 applied to one sensed data may be 'a/2+b'. Accordingly, when the distance (b) of the projection area 3701 moved in the direction of the second distance sensor 113-2-2 increases, the sensing data acquired from the second distance sensor 113-2-2 is given a greater weight.
  • 38 is a diagram for explaining an operation of determining a focus based on a distance between a projection area and a distance sensor in a state in which the projection surface 10 is rotated along the z-axis.
  • the embodiment 3811 of FIG. 38 may correspond to the embodiment 3511 of FIG. 35, redundant description is omitted. However, unlike the embodiment 3511 of FIG. 35 , the embodiment 3811 indicates that the projection surface 10 is rotated by a certain angle ⁇ 1 based on the z-axis.
  • a front view 3812 of FIG. 38 shows that the projected image 3802 is output without considering the obstacle object 30 .
  • the electronic device 100 determines the projection area without considering the obstacle object 30, the position of the obstacle object 30 and the projection area may overlap.
  • a front view 3812 of FIG. 38 shows that a projected image is output in a state in which keystone correction is not performed without considering the position of the obstacle object 30 .
  • a front view 3813 of FIG. 38 indicates that a projection image 3803 is output considering the obstacle object 30 .
  • the electronic device 100 may identify the projection area 3801 by considering the position of the obstacle object 30 .
  • the projection area 3801 may mean an area in which the obstacle object 30 is not located on the projection surface 10 .
  • the electronic device 100 may output a projection image 3803 to the identified projection area 3801 .
  • a front view 3813 of FIG. 38 indicates that a projection area is identified in consideration of the position of the obstacle object 30 and a projection image on which keystone correction is performed is output to the identified projection area.
  • 39 is a flowchart for explaining an operation of controlling the second sensor unit 113-2 according to whether a lens shift function is performed.
  • the electronic device 100 may acquire state information of the electronic device 100 through the first sensor unit 113-1 (S3905). And, the electronic device 100 may identify whether the lens shift function is performed (S3910).
  • the electronic device 100 may move the second sensor unit 113-2 based on movement information corresponding to the lens shift (S3915).
  • the movement information corresponding to the lens shift may include the degree to which the projection angle of the projection lens 110 is changed.
  • an operation of moving the second sensor unit 113-2 may mean an operation of changing a divergence (or output) angle of light emitted from the light emitting unit from the second sensor unit 113-2.
  • “moving” may be described as “shifting”.
  • the electronic device 100 determines the emission angle (or output angle) of the distance sensor included in the second sensor unit 113-2. can be moved to the right by the same 5 degrees.
  • the electronic device 100 may acquire state information of the projection surface 10 through the second sensor unit 113-2 after moving the second sensor unit 113-2 (S3920).
  • state information of the projection surface 10 may be obtained directly through the second sensor unit 113-2 (S3920).
  • the electronic device 100 may correct the projected image based on the state information of the electronic device 100 and the state information of the projection surface 10 (S3925).
  • operation S3925 may be replaced with an operation of correcting the projected image based on at least one of state information of the electronic device 100 and state information of the projection surface 10 .
  • the electronic device 100 may output the corrected projection image (S3930).
  • 40 is a diagram for explaining an operation of controlling the second sensor unit 113-2 according to the lens shift function.
  • An embodiment 4010 of FIG. 40 shows a state in which the lens shift function is not performed.
  • a side view 4011 shows that the lens shift function is not performed in the embodiment 4010 so that a projected image is output in parallel to the projection surface 10 through the projection lens 110 .
  • a front view 4012 shows a projection image output parallel to the projection surface 10 based on the embodiment 4010 . Since it is assumed that the projection surface 10 is not rotated and the lens shift function is not performed, distortion may not exist in the projected image.
  • the embodiment 4020 of FIG. 40 shows a state in which the projection lens 110 is shifted downward as a lens shift function is performed.
  • a side view 4021 shows that a lens shift function is performed in the embodiment 4020 to output a projected image to a region below the projection surface 10 through the projection lens 110 .
  • a front view 4022 shows a projection image output to an area under the projection surface 10 based on the embodiment 4020 .
  • the embodiment 4030 of FIG. 40 shows a state in which the projection lens 110 is shifted upward as a lens shift function is performed.
  • a side view 4031 shows that a lens shift function is performed in the embodiment 4030 to output a projection image to an area above the projection surface 10 through the projection lens 110 .
  • a front view 4032 shows a projection image output to an area above the projection surface 10 based on the embodiment 4030 .
  • FIG. 41 is a flowchart for explaining an operation of correcting a projected image based on x-axis rotation information of the projection surface 10. Referring to FIG.
  • the electronic device 100 may output a test image (S4105).
  • the test image may refer to a projected image initially projected.
  • the test image may refer to a pre-stored image.
  • the pre-stored image is an image displayed for a correction operation and may mean an image including a brand logo or a predetermined pattern.
  • the test image may mean a projected image that a user wants to output.
  • the electronic device 100 may acquire a captured image in which the test image is output on the projection surface 10 (S4110).
  • the electronic device 100 may include a camera, and may capture an image of the projection surface 10 located in front of the electronic device 100 through the camera.
  • a projected image output by the electronic device 100 may be output on the projection surface 10 .
  • the captured image obtained by the electronic device 100 through the camera may include the projection surface 10 on which the projected image is output.
  • the electronic device 100 may acquire x-axis rotation information of the projection surface 10 based on the captured image (S4115). And, the electronic device 100 may correct the projection image based on the x-axis rotation information of the projection surface 10 (S4120). Here, the electronic device 100 may perform leveling correction on the projection image based on the x-axis rotation information of the projection surface 10 . And, the electronic device 100 may output a projected image (S4125).
  • FIG. 42 is a diagram for explaining an operation of correcting a projected image based on x-axis rotation information of the projection surface 10. Referring to FIG.
  • the embodiment 4210 of FIG. 42 indicates that the electronic device 100 outputs the projection image 4211 without considering the state in which the projection surface 10 is rotated about the x-axis. It is assumed that the projection surface 10 is rotated about the x-axis by a certain angle ⁇ 3. Even though the projection surface 10 is rotated based on the x-axis, the electronic device 100 can output the projection image 4211 as it is.
  • the projection image 4211 may not be parallel to the projection surface 10 . If the projection surface 10 and the output projection image are not parallel, the user may feel eye fatigue. Accordingly, an image correction operation may be required so that the projection surface 10 and the output projection image are parallel.
  • the embodiment 4220 of FIG. 42 indicates that the electronic device 100 outputs a projection image 4221 in consideration of a state in which the projection surface 10 is rotated about the x-axis. It is assumed that the projection surface 10 is rotated about the x-axis by a certain angle ⁇ 3. Since the projection surface 10 is rotated on the basis of the x-axis, the electronic device 100 can obtain x-axis rotation information of the projection surface 10 and project projection surface 10 based on the x-axis rotation information. A correction operation may be performed on the image. Specifically, the electronic device 100 may perform a leveling correction operation on the projection image based on the x-axis rotation information of the projection surface 10 .
  • the corrected projection image 4221 may be output with the projection surface 10 parallel to it.
  • 43 is a flowchart for explaining a control method of the electronic device 100 according to an embodiment.
  • the control method of the electronic device 100 including the first sensor unit 113-1 and the second sensor unit 113-2 is obtained through the first sensor unit 113-1. Acquiring state information of the electronic device 100 based on the sensing data, acquiring state information of the projection surface 10 based on the sensing data obtained through the second sensor unit 113-2, Correcting the projection image based on the state information of the device 100 and the state information of the projection surface 10 and outputting the corrected projection image to the projection surface 10 are included.
  • the state information of the electronic device 100 includes x-axis rotation information and y-axis rotation information of the electronic device 100
  • the state information of the projection surface 10 is the projection surface 10 It may include y-axis rotation information of and z-axis rotation information of the projection surface 10.
  • the step of correcting the projected image is leveling and correcting the projected image based on the x-axis rotation information of the electronic device 100, the y-axis rotation information of the electronic device 100 and the y-axis rotation information of the projection surface 10 And based on the z-axis rotation information of the projection surface 10, the projection image may be keystone corrected.
  • the second sensor unit 113-2 includes a first distance sensor 113-2-1 and a second distance sensor 113-2-2, and obtains state information of the projection surface 10.
  • State information of the projection surface 10 may be obtained based on the second distance between the projection surface 10 and the second distance sensor 113-2-2 obtained from .
  • the second sensor unit 113-2 further includes a third distance sensor 113-2-3, and the step of acquiring state information of the projection surface 10 includes the first distance sensor 113-2-3.
  • the step of acquiring state information of the projection surface 10 includes the first distance sensor 113-2-3.
  • z-axis rotation information of the projection surface 10 is obtained, and the first distance or the second distance Obtain y-axis rotation information of the projection surface 10 based on at least one of the distances and the third distance between the third distance sensor 113-2-3 and the projection surface 10 obtained from the third distance sensor can do.
  • the control method includes the step of identifying a projection area where a projection image is projected on the projection surface 10, from the first distance sensor 113-2-1 to the first distance sensor 113-2-1 and the projection area. Obtaining a fourth distance between the corresponding positions, obtaining a fifth distance between the second distance sensor 113-2-2 and the position corresponding to the projection area from the second distance sensor 113-2-2 The method may further include determining a focus of the electronic device 100 based on the fourth and fifth distances.
  • a distance sensor corresponding to a smaller distance among the fourth and fifth distances is identified, and a larger weight is given to sensing data obtained from the identified distance sensor to determine the focus of the electronic device 100.
  • a projected image corrected based on the determined focus of the electronic device 100 may be output to the projection surface 10 .
  • the control method uses the second sensor unit 113-2 based on movement information corresponding to the lens shift function.
  • a step of moving may be further included.
  • control method includes obtaining a projection distance between the electronic device 100 and the projection surface 10 through the second sensor unit 113-2, and calculating a corrected projection image ratio based on the acquired projection distance.
  • the step of determining and outputting the projected image corrected based on the determined ratio to the projection surface 10 may be further included.
  • the first sensor unit 113-1 may include at least one of a gravity sensor, an acceleration sensor, and a gyro sensor
  • the second sensor unit 113-2 may include at least one ToF sensor.
  • the method of controlling an electronic device as shown in FIG. 43 may be executed on an electronic device having the configuration of FIG. 2 or 3 and may also be executed on an electronic device having other configurations.
  • various embodiments of the present disclosure described above may be performed through an embedded server included in an electronic device or an external server of at least one of an electronic device and a display device.
  • a device is a device capable of calling a stored command from a storage medium and operating according to the called command, and may include an electronic device according to the disclosed embodiments.
  • the processor may perform a function corresponding to the command directly or by using other components under the control of the processor.
  • An instruction may include code generated or executed by a compiler or interpreter.
  • the device-readable storage medium may be provided in the form of a non-transitory storage medium.
  • 'non-temporary' only means that the storage medium does not contain a signal and is tangible, but does not distinguish whether data is stored semi-permanently or temporarily in the storage medium.
  • the method according to the various embodiments described above may be included in a computer program product and provided.
  • Computer program products may be traded between sellers and buyers as commodities.
  • the computer program product may be distributed in the form of a device-readable storage medium (eg compact disc read only memory (CD-ROM)) or online through an application store (eg Play StoreTM).
  • CD-ROM compact disc read only memory
  • application store eg Play StoreTM
  • at least part of the computer program product may be temporarily stored or temporarily created in a storage medium such as a manufacturer's server, an application store server, or a relay server's memory.
  • each of the components may be composed of a single object or a plurality of entities, and some sub-components among the aforementioned sub-components may be omitted, or other sub-components may be used. Components may be further included in various embodiments. Alternatively or additionally, some components (eg, modules or programs) may be integrated into one entity and perform the same or similar functions performed by each corresponding component prior to integration. According to various embodiments, operations performed by modules, programs, or other components may be executed sequentially, in parallel, repetitively, or heuristically, or at least some operations may be executed in a different order, may be omitted, or other operations may be added. can

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Abstract

The present electronic device comprises: a projection unit; a first sensor unit; a second sensor unit; and a processor, which acquires state information about the electronic device on the basis of sensing data acquired through the first sensor unit, acquires state information about a projection surface on the basis of the sensing data acquired through the second sensor unit, corrects a projection image on the basis of the state information about the electronic device and the state information about the projection surface, and controls the projection unit so that the corrected projection image is output onto the projection surface.

Description

전자 장치 및 그 제어 방법Electronic device and its control method
본 개시는 전자 장치 및 그 제어방법에 관한 것으로, 더욱 상세하게는 보정된 투사 이미지를 투사면에 출력하는 전자 장치 및 그 제어방법에 대한 것이다.The present disclosure relates to an electronic device and a control method thereof, and more particularly, to an electronic device outputting a corrected projection image on a projection surface and a control method thereof.
프로젝션 기능을 수행하는 전자 장치가 투사 이미지를 출력하는 경우, 전자 장치는 전자 장치의 배치 및 투사면을 향하는 투사 방향에 따라서 투사 이미지를 보정하여 투사 이미지를 최종적으로 출력할 수 있다.When an electronic device performing a projection function outputs a projected image, the electronic device may correct the projected image according to the arrangement of the electronic device and the projection direction toward the projection surface and finally output the projected image.
여기서, 이미지를 보정하는 대표적인 예시는 키스톤 보정이 있을 수 있다. 키스톤 보정은 사다리꼴 형태의 이미지를 직사각형 형태로 보정하는 동작을 의미할 수 있다. 구체적으로, 전자 장치가 투사면을 향해 투사하는 방향에 따라서 키스톤 보정의 필요 여부가 결정될 수 있다. 자동으로 키스톤 보정이 수행되는 기능은 키스톤(keystone) 보정 기능일 수 있다. Here, a representative example of correcting an image may include keystone correction. Keystone correction may refer to an operation of correcting a trapezoidal image into a rectangular shape. Specifically, whether or not keystone correction is necessary may be determined according to a direction in which the electronic device projects toward the projection surface. The function for automatically performing keystone correction may be a keystone correction function.
하지만, 키스톤 보정 이외에 레벨링(leveling) 보정 기능이 필요한 경우가 발생할 수 있다. 레벨링은 투사면을 바라보는 방향을 기준으로 이미지를 회전하는 동작을 의미할 수 있다.However, there may occur a case in which a leveling correction function is required in addition to keystone correction. Leveling may refer to an operation of rotating an image based on a direction in which the projection surface is viewed.
여기서, 전자 장치의 기울기(또는 상태)만을 고려하여 이미지를 보정하는 경우 투사면이 회전됨으로써 발생하는 왜곡을 보정하지 못하는 문제점이 있다.Here, when the image is corrected by considering only the tilt (or state) of the electronic device, there is a problem in that distortion caused by rotation of the projection surface cannot be corrected.
또한, 반대로 투사면의 기울기(또는 상태)만을 고려하여 이미지를 보정하는 경우 전자 장치 자체가 회전됨으로써 발생하는 왜곡을 보정하지 못하는 문제점이 있다.In addition, conversely, when an image is corrected by considering only the inclination (or state) of the projection surface, distortion caused by rotation of the electronic device itself cannot be corrected.
자동으로 키스톤 보정 기능 또는 레벨링 보정 기능이 수행됨에도 불구하고 왜곡이 존재하는 경우, 사용자가 직접 세부적인 보정 동작을 조작해야 하는 불편함이 있다.If distortion exists despite automatically performing the keystone correction function or the leveling correction function, it is inconvenient for the user to directly manipulate the detailed correction operation.
본 개시는 상술한 문제를 개선하기 위해 고안된 것으로, 본 개시의 목적은 전자 장치의 상태 정보 및 투사면의 상태 정보에 기초하여 이미지를 보정하고 보정된 이미지를 투사면에 출력하는 전자 장치 및 그의 제어 방법을 제공함에 있다.The present disclosure has been devised to improve the above problems, and an object of the present disclosure is an electronic device that corrects an image based on state information of the electronic device and state information of the projection surface and outputs the corrected image to the projection surface, and control thereof. in providing a way.
상술한 목적을 달성하기 위한 본 실시 예에 따른 전자 장치는 프로젝션부, 제1 센서부, 제2 센서부 및 상기 제1 센서부를 통해 획득된 센싱 데이터에 기초하여 상기 전자 장치의 상태 정보를 획득하고, 상기 제2 센서부를 통해 획득된 센싱 데이터에 기초하여 투사면의 상태 정보를 획득하고, 상기 전자 장치의 상태 정보 및 상기 투사면의 상태 정보에 기초하여 투사 이미지를 보정하고, 상기 보정된 투사 이미지를 상기 투사면에 출력하도록 상기 프로젝션부를 제어하는 프로세서를 포함한다.An electronic device according to the present embodiment for achieving the above object obtains state information of the electronic device based on sensing data acquired through a projection unit, a first sensor unit, a second sensor unit, and the first sensor unit, and , Obtain state information of the projection surface based on sensing data obtained through the second sensor unit, correct a projection image based on the state information of the electronic device and the state information of the projection surface, and correct the projected image. and a processor controlling the projection unit to output ? to the projection surface.
한편, 상기 전자 장치의 상태 정보는 상기 전자 장치의 x축 회전 정보 및 상기 전자 장치의 y축 회전 정보를 포함하고, 상기 투사면의 상태 정보는 상기 투사면의 y축 회전 정보 및 상기 투사면의 z축 회전 정보를 포함할 수 있다.Meanwhile, the state information of the electronic device includes x-axis rotation information and y-axis rotation information of the electronic device, and the state information of the projection surface includes y-axis rotation information of the projection surface and It may include z-axis rotation information.
한편, 상기 프로세서는 상기 전자 장치의 x축 회전 정보에 기초하여 상기 투사 이미지를 레벨링 보정하고, 상기 전자 장치의 y축 회전 정보, 상기 투사면의 y축 회전 정보 및 상기 투사면의 z축 회전 정보에 기초하여 상기 투사 이미지를 키스톤 보정할 수 있다.Meanwhile, the processor levels and corrects the projected image based on x-axis rotation information of the electronic device, y-axis rotation information of the electronic device, y-axis rotation information of the projection surface, and z-axis rotation information of the projection surface Based on the keystone correction of the projected image.
한편, 상기 제2 센서부는 제1 거리 센서 및 제2 거리 센서를 포함하고, 상기 프로세서는 상기 제1 거리 센서로부터 획득한 상기 제1 거리 센서와 상기 투사면 사이의 제1 거리 및 상기 제2 거리 센서로부터 획득한 제2 거리 센서와 상기 투사면 사이의 제2 거리에 기초하여 상기 투사면의 상태 정보를 획득할 수 있다.Meanwhile, the second sensor unit includes a first distance sensor and a second distance sensor, and the processor determines the first distance and the second distance between the first distance sensor and the projection surface obtained from the first distance sensor. State information of the projection surface may be obtained based on a second distance obtained from a sensor and a second distance between the second distance sensor and the projection surface.
한편, 상기 제2 센서부는 제3 거리 센서를 더 포함하고, 상기 프로세서는 상기 제1 거리 센서로부터 획득한 제1 거리 및 상기 제2 거리 센서로부터 획득한 제2 거리에 기초하여 상기 투사면의 z축 회전 정보를 획득하고, 상기 제1 거리 또는 상기 제2 거리 중 적어도 하나의 거리 및 상기 제3 거리 센서로부터 획득한 상기 제3 거리 센서와 상기 투사면 사이의 제3 거리에 기초하여 상기 투사면의 y축 회전 정보를 획득할 수 있다.Meanwhile, the second sensor unit further includes a third distance sensor, and the processor determines z of the projection surface based on a first distance obtained from the first distance sensor and a second distance obtained from the second distance sensor. Obtain axis rotation information, and based on at least one of the first distance and the second distance and a third distance between the third distance sensor and the projection surface obtained from the third distance sensor, the projection surface y-axis rotation information of can be obtained.
한편, 상기 프로세서는 상기 투사면에서 상기 투사 이미지가 투사되는 투사 영역을 식별하고, 상기 제1 거리 센서로부터 상기 제1 거리 센서와 상기 투사 영역에 대응되는 위치 사이의 제4 거리를 획득하고, 상기 제2 거리 센서로부터 상기 제2 거리 센서와 상기 투사 영역에 대응되는 위치 사이의 제5 거리를 획득하고, 상기 제4 거리 및 상기 제5 거리에 기초하여 상기 전자 장치의 초점을 결정할 수 있다.Meanwhile, the processor identifies a projection area on the projection surface where the projection image is projected, obtains a fourth distance between the first distance sensor and a position corresponding to the projection area from the first distance sensor, and A fifth distance between the second distance sensor and a position corresponding to the projection area may be acquired from a second distance sensor, and a focus of the electronic device may be determined based on the fourth distance and the fifth distance.
한편, 상기 프로세서는 상기 제4 거리 및 상기 제5 거리 중 작은 거리에 대응되는 거리 센서를 식별하고, 상기 식별된 거리 센서로부터 획득한 센싱 데이터에 더 큰 가중치를 부여하여 상기 전자 장치의 초점을 결정하고, 상기 결정된 전자 장치의 초점에 기초하여 상기 보정된 투사 이미지를 상기 투사면에 출력할 수 있다.Meanwhile, the processor determines the focus of the electronic device by identifying a distance sensor corresponding to a smaller distance among the fourth distance and the fifth distance and assigning a higher weight to sensing data obtained from the identified distance sensor. and output the corrected projection image to the projection surface based on the determined focus of the electronic device.
한편, 상기 프로젝션부는 프로젝션 렌즈를 포함하고, 상기 프로세서는 상기 프로젝션 렌즈에 대하여 렌즈 시프트(lens shift) 기능을 수행하는 경우, 상기 렌즈 시프트 기능에 대응되는 이동 정보에 기초하여 상기 제2 센서부를 이동시킬 수 있다.Meanwhile, the projection unit includes a projection lens, and when a lens shift function is performed with respect to the projection lens, the processor moves the second sensor unit based on movement information corresponding to the lens shift function. can
한편, 상기 프로세서는 상기 제2 센서부를 통해 상기 전자 장치 및 상기 투사면 사이의 투사 거리를 획득하고, 상기 획득된 투사 거리에 기초하여 상기 보정된 투사 이미지의 비율을 결정하고, 상기 결정된 비율에 기초하여 상기 보정된 투사 이미지를 상기 투사면에 출력하도록 상기 프로젝션부를 제어할 수 있다.Meanwhile, the processor obtains a projection distance between the electronic device and the projection surface through the second sensor unit, determines a ratio of the corrected projection image based on the obtained projection distance, and determines a ratio of the corrected projection image based on the determined ratio. The projection unit may be controlled to output the corrected projection image to the projection surface.
한편, 상기 제1 센서부는 중력 센서, 가속도 센서 또는 자이로 센서 중 적어도 하나를 포함하고, 상기 제2 센서부는 적어도 하나의 ToF 센서를 포함할 수 있다.Meanwhile, the first sensor unit may include at least one of a gravity sensor, an acceleration sensor, and a gyro sensor, and the second sensor unit may include at least one ToF sensor.
본 실시 예에 따른 제1 센서부 및 제2 센서부를 포함하는 전자 장치의 제어 방법은 상기 제1 센서부를 통해 획득된 센싱 데이터에 기초하여 상기 전자 장치의 상태 정보를 획득하는 단계, 상기 제2 센서부를 통해 획득된 센싱 데이터에 기초하여 투사면의 상태 정보를 획득하는 단계, 상기 전자 장치의 상태 정보 및 상기 투사면의 상태 정보에 기초하여 투사 이미지를 보정하는 단계 및 상기 보정된 투사 이미지를 상기 투사면에 출력하는 단계를 포함한다.A control method of an electronic device including a first sensor unit and a second sensor unit according to the present embodiment includes obtaining state information of the electronic device based on sensing data acquired through the first sensor unit and the second sensor unit. Obtaining state information of the projection surface based on sensing data acquired through a unit, correcting a projection image based on the state information of the electronic device and the state information of the projection surface, and converting the corrected projection image to the projection surface. It includes the step of outputting to the slope.
한편, 상기 전자 장치의 상태 정보는 상기 전자 장치의 x축 회전 정보 및 상기 전자 장치의 y축 회전 정보를 포함하고, 상기 투사면의 상태 정보는 상기 투사면의 y축 회전 정보 및 상기 투사면의 z축 회전 정보를 포함할 수 있다.Meanwhile, the state information of the electronic device includes x-axis rotation information and y-axis rotation information of the electronic device, and the state information of the projection surface includes y-axis rotation information of the projection surface and It may include z-axis rotation information.
한편, 상기 투사 이미지를 보정하는 단계는 상기 전자 장치의 x축 회전 정보에 기초하여 상기 투사 이미지를 레벨링 보정하고, 상기 전자 장치의 y축 회전 정보, 상기 투사면의 y축 회전 정보 및 상기 투사면의 z축 회전 정보에 기초하여 상기 투사 이미지를 키스톤 보정할 수 있다.Meanwhile, the correcting of the projected image may include leveling and correcting the projected image based on x-axis rotation information of the electronic device, y-axis rotation information of the electronic device, y-axis rotation information of the projection surface, and the projection surface The projected image may be keystone-corrected based on z-axis rotation information of .
한편, 상기 제2 센서부는 제1 거리 센서 및 제2 거리 센서를 포함하고, 상기 투사면의 상태 정보를 획득하는 단계는 상기 제1 거리 센서로부터 획득한 상기 제1 거리 센서와 상기 투사면 사이의 제1 거리 및 상기 제2 거리 센서로부터 획득한 제2 거리 센서와 상기 투사면 사이의 제2 거리에 기초하여 상기 투사면의 상태 정보를 획득할 수 있다.Meanwhile, the second sensor unit includes a first distance sensor and a second distance sensor, and the obtaining of the state information of the projection surface is between the first distance sensor obtained from the first distance sensor and the projection surface. State information of the projection surface may be obtained based on a first distance and a second distance between the second distance sensor and the projection surface obtained from the second distance sensor.
한편, 상기 제2 센서부는 제3 거리 센서를 더 포함하고, 상기 투사면의 상태 정보를 획득하는 단계는 상기 제1 거리 센서로부터 획득한 제1 거리 및 상기 제2 거리 센서로부터 획득한 제2 거리에 기초하여 상기 투사면의 z축 회전 정보를 획득하고, 상기 제1 거리 또는 상기 제2 거리 중 적어도 하나의 거리 및 상기 제3 거리 센서로부터 획득한 상기 제3 거리 센서와 상기 투사면 사이의 제3 거리에 기초하여 상기 투사면의 y축 회전 정보를 획득할 수 있다.Meanwhile, the second sensor unit further includes a third distance sensor, and the obtaining of state information of the projection surface includes a first distance obtained from the first distance sensor and a second distance obtained from the second distance sensor. Obtain z-axis rotation information of the projection surface based on, and obtain a distance between at least one of the first distance and the second distance and the third distance sensor and the projection surface obtained from the third distance sensor. 3 It is possible to obtain y-axis rotation information of the projection surface based on the distance.
한편, 상기 제어 방법은 상기 투사면에서 상기 투사 이미지가 투사되는 투사 영역을 식별하는 단계, 상기 제1 거리 센서로부터 상기 제1 거리 센서와 상기 투사 영역에 대응되는 위치 사이의 제4 거리를 획득하는 단계, 상기 제2 거리 센서로부터 상기 제2 거리 센서와 상기 투사 영역에 대응되는 위치 사이의 제5 거리를 획득하는 단계 및 상기 제4 거리 및 상기 제5 거리에 기초하여 상기 전자 장치의 초점을 결정하는 단계를 더 포함할 수 있다.Meanwhile, the control method includes identifying a projection area where the projection image is projected on the projection surface, obtaining a fourth distance between the first distance sensor and a position corresponding to the projection area from the first distance sensor. Obtaining a fifth distance between the second distance sensor and a position corresponding to the projection area from the second distance sensor, and determining a focus of the electronic device based on the fourth distance and the fifth distance. It may further include steps to do.
한편, 상기 초점을 결정하는 단계는 상기 제4 거리 및 상기 제5 거리 중 작은 거리에 대응되는 거리 센서를 식별하고, 상기 식별된 거리 센서로부터 획득한 센싱 데이터에 더 큰 가중치를 부여하여 상기 전자 장치의 초점을 결정하고, 상기 투사 이미지를 출력하는 단계는 상기 결정된 전자 장치의 초점에 기초하여 상기 보정된 투사 이미지를 상기 투사면에 출력할 수 있다.Meanwhile, the determining of the focus may include identifying a distance sensor corresponding to a smaller distance among the fourth distance and the fifth distance, and assigning a higher weight to sensing data acquired from the identified distance sensor to determine the electronic device. Determining a focus of and outputting the projection image may include outputting the corrected projection image to the projection surface based on the determined focus of the electronic device.
한편, 상기 제어 방법은 상기 전자 장치의 프로젝션 렌즈에 대하여 렌즈 시프트(lens shift) 기능을 수행하는 경우, 상기 렌즈 시프트 기능에 대응되는 이동 정보에 기초하여 상기 제2 센서부를 이동시키는 단계를 더 포함할 수 있다.Meanwhile, the control method may further include moving the second sensor unit based on movement information corresponding to the lens shift function when performing a lens shift function with respect to the projection lens of the electronic device. can
한편, 상기 제어 방법은 상기 제2 센서부를 통해 상기 전자 장치 및 상기 투사면 사이의 투사 거리를 획득하는 단계, 상기 획득된 투사 거리에 기초하여 상기 보정된 투사 이미지의 비율을 결정하는 단계 및 상기 결정된 비율에 기초하여 상기 보정된 투사 이미지를 상기 투사면에 출력하는 단계를 더 포함할 수 있다.Meanwhile, the control method may include obtaining a projection distance between the electronic device and the projection surface through the second sensor unit, determining a ratio of the corrected projection image based on the obtained projection distance, and The method may further include outputting the corrected projection image to the projection surface based on the ratio.
한편, 상기 제1 센서부는 중력 센서, 가속도 센서 또는 자이로 센서 중 적어도 하나를 포함하고, 상기 제2 센서부는 적어도 하나의 ToF 센서를 포함할 수 있다.Meanwhile, the first sensor unit may include at least one of a gravity sensor, an acceleration sensor, and a gyro sensor, and the second sensor unit may include at least one ToF sensor.
도 1은, 본 개시의 일 실시 예들에 따른, 전자 장치의 외관을 도시한 사시도이다.1 is a perspective view illustrating an external appearance of an electronic device according to an embodiment of the present disclosure.
도 2는 본 개시의 일 실시 예에 따른, 전자 장치의 구성을 도시한 블록도이다.2 is a block diagram illustrating a configuration of an electronic device according to an embodiment of the present disclosure.
도 3은 도 2의 전자 장치의 구성을 구체적으로 도시한 블록도이다.FIG. 3 is a block diagram showing the configuration of the electronic device of FIG. 2 in detail.
도 4는 본 개시의 다른 실시 예들에 따른, 전자 장치의 외관을 도시한 사시도이다.4 is a perspective view illustrating an external appearance of an electronic device according to other embodiments of the present disclosure.
도 5는 본 개시의 또 다른 실시 예들에 따른, 전자 장치의 외관을 도시한 사시도이다.5 is a perspective view illustrating an external appearance of an electronic device according to another embodiment of the present disclosure.
도 6은 본 개시의 또 다른 실시 예들에 따른, 전자 장치의 외관을 도시한 사시도이다.6 is a perspective view illustrating an external appearance of an electronic device according to another embodiment of the present disclosure.
도 7은 본 개시의 또 다른 실시 예들에 따른, 전자 장치의 외관을 도시한 사시도이다.7 is a perspective view illustrating an external appearance of an electronic device according to another embodiment of the present disclosure.
도 8은 도 7의 전자 장치가 회전된 상태를 도시한 사시도이다.8 is a perspective view illustrating a state in which the electronic device of FIG. 7 is rotated.
도 9는 전자 장치의 상태 정보 및 투사면의 상태 정보를 이용하여 투사 이미지를 보정하는 동작을 설명하기 위한 흐름도이다.9 is a flowchart illustrating an operation of correcting a projected image using state information of an electronic device and state information of a projection surface.
도 10은 전자 장치의 z축 회전 정보를 설명하기 위한 도면이다.10 is a diagram for explaining z-axis rotation information of an electronic device.
도 11은 전자 장치의 y축 회전 정보를 설명하기 위한 도면이다.11 is a diagram for explaining y-axis rotation information of an electronic device.
도 12는 전자 장치의 x축 회전 정보를 설명하기 위한 도면이다.12 is a diagram for explaining x-axis rotation information of an electronic device.
도 13은 전자 장치의 회전 정보를 설명하기 위한 도면이다.13 is a diagram for explaining rotation information of an electronic device.
도 14는 전자 장치의 회전 정보에 기초하여 투사 이미지를 보정하는 동작을 설명하기 위한 흐름도이다.14 is a flowchart illustrating an operation of correcting a projected image based on rotation information of an electronic device.
도15는 투사면의 회전 정보를 설명하기 위한 도면이다.15 is a diagram for explaining rotation information of the projection surface.
도 16은 투사면의 z축 회전 정보를 설명하기 위한 도면이다.16 is a diagram for explaining z-axis rotation information of a projection surface.
도 17은 투사면의 z축 회전 정보에 기초하여 투사 이미지를 보정하는 동작을 설명하기 위한 흐름도이다.17 is a flowchart illustrating an operation of correcting a projected image based on z-axis rotation information of a projection surface.
도 18은 투사면의 z축 회전 정보를 획득하는 동작을 설명하기 위한 도면이다.18 is a diagram for explaining an operation of obtaining z-axis rotation information of a projection surface.
도 19는 2 센서부의 수광부를 설명하기 위한 도면이다.19 is a view for explaining the light receiving unit of the second sensor unit.
도 20은 투사면의 y축 회전 정보를 설명하기 위한 도면이다.20 is a diagram for explaining y-axis rotation information of a projection surface.
도 21은 투사면의 y축 회전 정보에 기초하여 투사 이미지를 보정하는 동작을 설명하기 위한 흐름도이다.21 is a flowchart illustrating an operation of correcting a projected image based on y-axis rotation information of a projection surface.
도 22는 투사면의 y축 회전 정보를 획득하는 동작을 설명하기 위한 도면이다.22 is a diagram for explaining an operation of obtaining y-axis rotation information of a projection surface.
도 23은 전자 장치의 상태 정보 및 투사면의 상태 정보에 기초하여 레벨링 보정 또는 키스톤 보정의 수행 여부를 설명하기 위한 표이다.23 is a table for explaining whether leveling correction or keystone correction is performed based on state information of an electronic device and state information of a projection surface.
도 24는 전자 장치의 상태 정보 및 투사면의 상태 정보에 기초하여 레벨링 보정 또는 키스톤 보정의 수행 여부를 설명하기 위한 흐름도이다.24 is a flowchart for explaining whether leveling correction or keystone correction is performed based on state information of an electronic device and state information of a projection surface.
도 25는 다양한 실시 예에 따른 제2 센서부를 설명하기 위한 도면이다.25 is a diagram for explaining a second sensor unit according to various embodiments.
도 26은 프로젝션 렌즈의 오프셋을 설명하기 위한 도면이다.26 is a diagram for explaining an offset of a projection lens.
도 27은 투사 이미지의 비율을 고려하여 투사 이미지를 출력하는 동작을 설명하기 위한 흐름도이다.27 is a flowchart illustrating an operation of outputting a projected image in consideration of a ratio of the projected image.
도 28은 투사 거리를 고려하여 투사 이미지를 출력하는 동작을 설명하기 위한 도면이다.28 is a diagram for explaining an operation of outputting a projection image in consideration of a projection distance.
도 29는 제2 센서부에 포함된 제1 거리 센서 및 제2 거리 센서의 배치를 설명하기 위한 도면이다.29 is a view for explaining the arrangement of the first distance sensor and the second distance sensor included in the second sensor unit.
도 30은 투사면이 z축으로 회전되어 있지 않은 상태에서 투사 이미지를 출력하는 동작을 설명하기 위한 도면이다.30 is a diagram for explaining an operation of outputting a projection image in a state in which the projection surface is not rotated along the z-axis.
도 31은 투사면이 z축으로 회전된 상태에서 투사면의 상태 정보를 고려하여 투사 이미지를 보정하는 이유를 설명하기 위한 도면이다.31 is a diagram for explaining the reason for correcting a projection image in consideration of state information of the projection surface in a state in which the projection surface is rotated along the z-axis.
도 32는 투사면이 y축으로 회전되어 있지 않은 상태에서 투사 이미지를 보정하는 동작을 설명하기 위한 도면이다.32 is a diagram for explaining an operation of correcting a projected image in a state in which the projection surface is not rotated along the y-axis.
도 33은 투사면이 y축으로 회전된 상태에서 투사면의 상태 정보를 고려하여 투사 이미지를 보정하는 이유를 설명하기 위한 도면이다.33 is a diagram for explaining the reason for correcting a projection image in consideration of state information of the projection surface in a state in which the projection surface is rotated along the y-axis.
도 34는 투사 영역과 거리 센서 사이의 거리에 기초하여 초점을 결정하는 동작을 설명하기 위한 흐름도이다.34 is a flowchart for explaining an operation of determining a focus based on a distance between a projection area and a distance sensor.
도 35는 투사 영역과 거리 센서 사이의 거리에 기초하여 초점을 결정하는 동작을 설명하기 위한 도면이다.35 is a diagram for explaining an operation of determining a focus based on a distance between a projection area and a distance sensor.
도 36은 투사 영역과 거리 센서 사이의 거리에 가중치를 부여하여 초점을 결정하는 동작을 설명하기 위한 흐름도이다.36 is a flowchart illustrating an operation of determining a focus by assigning a weight to a distance between a projection area and a distance sensor.
도 37은 투사 영역과 거리 센서 사이의 거리에 가중치를 부여하여 초점을 결정하는 동작을 설명하기 위한 도면이다.37 is a diagram for explaining an operation of determining a focus by assigning a weight to a distance between a projection area and a distance sensor.
도 38은 투사면이 z축으로 회전된 상태에서 투사 영역과 거리 센서 사이의 거리에 기초하여 초점을 결정하는 동작을 설명하기 위한 도면이다.38 is a diagram for explaining an operation of determining a focus based on a distance between a projection area and a distance sensor in a state in which the projection surface is rotated along the z-axis.
도 39는 렌즈 시프트 기능을 수행하는지 여부에 따라 제2 센서부를 제어하는 동작을 설명하기 위한 흐름도이다.39 is a flowchart for explaining an operation of controlling the second sensor unit according to whether a lens shift function is performed.
도 40은 렌즈 시프트 기능에 따라 제2 센서부를 제어하는 동작을 설명하기 위한 도면이다.40 is a diagram for explaining an operation of controlling the second sensor unit according to the lens shift function.
도 41은 투사면의 x축 회전 정보에 기초하여 투사 이미지를 보정하는 동작을 설명하기 위한 흐름도이다.41 is a flowchart for explaining an operation of correcting a projection image based on x-axis rotation information of a projection surface.
도 42는 투사면의 x축 회전 정보에 기초하여 투사 이미지를 보정하는 동작을 설명하기 위한 도면이다. 42 is a diagram for explaining an operation of correcting a projection image based on x-axis rotation information of a projection surface.
도 43은 일 실시 예에 따른 전자 장치의 제어 방법을 설명하기 위한 흐름도이다.43 is a flowchart illustrating a method of controlling an electronic device according to an exemplary embodiment.
이하에서는 첨부 도면을 참조하여 본 개시를 상세히 설명한다. Hereinafter, the present disclosure will be described in detail with reference to the accompanying drawings.
본 개시의 실시 예에서 사용되는 용어는 본 개시에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 개시의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 개시에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 개시의 전반에 걸친 내용을 토대로 정의되어야 한다. The terms used in the embodiments of the present disclosure have been selected from general terms that are currently widely used as much as possible while considering the functions in the present disclosure, but they may vary depending on the intention or precedent of a person skilled in the art, the emergence of new technologies, and the like. . In addition, in a specific case, there is also a term arbitrarily selected by the applicant, and in this case, the meaning will be described in detail in the description of the disclosure. Therefore, terms used in the present disclosure should be defined based on the meaning of the term and the general content of the present disclosure, not simply the name of the term.
본 명세서에서, "가진다," "가질 수 있다," "포함한다," 또는 "포함할 수 있다" 등의 표현은 해당 특징(예: 수치, 기능, 동작, 또는 부품 등의 구성요소)의 존재를 가리키며, 추가적인 특징의 존재를 배제하지 않는다.In this specification, expressions such as “has,” “can have,” “includes,” or “can include” indicate the existence of a corresponding feature (eg, numerical value, function, operation, or component such as a part). , which does not preclude the existence of additional features.
A 또는/및 B 중 적어도 하나라는 표현은 "A" 또는 "B" 또는 "A 및 B" 중 어느 하나를 나타내는 것으로 이해되어야 한다. The expression at least one of A and/or B should be understood to denote either "A" or "B" or "A and B".
본 명세서에서 사용된 "제1," "제2," "첫째," 또는 "둘째,"등의 표현들은 다양한 구성요소들을, 순서 및/또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. Expressions such as "first," "second," "first," or "second," as used herein, may modify various components regardless of order and/or importance, and may refer to one component It is used only to distinguish it from other components and does not limit the corresponding components.
어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "(기능적으로 또는 통신적으로) 연결되어((operatively or communicatively) coupled with/to)" 있다거나 "접속되어(connected to)" 있다고 언급된 때에는, 어떤 구성요소가 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제3 구성요소)를 통하여 연결될 수 있다고 이해되어야 할 것이다. A component (e.g., a first component) is "(operatively or communicatively) coupled with/to" another component (e.g., a second component); When referred to as "connected to", it should be understood that an element may be directly connected to another element, or may be connected through another element (eg, a third element).
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "구성되다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. Singular expressions include plural expressions unless the context clearly dictates otherwise. In this application, the terms "comprise" or "consist of" are intended to designate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, but one or more other It should be understood that the presence or addition of features, numbers, steps, operations, components, parts, or combinations thereof is not precluded.
본 개시에서 "모듈" 혹은 "부"는 적어도 하나의 기능이나 동작을 수행하며, 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다. 또한, 복수의 "모듈" 혹은 복수의 "부"는 특정한 하드웨어로 구현될 필요가 있는 "모듈" 혹은 "부"를 제외하고는 적어도 하나의 모듈로 일체화되어 적어도 하나의 프로세서(미도시)로 구현될 수 있다.In the present disclosure, a “module” or “unit” performs at least one function or operation, and may be implemented in hardware or software or a combination of hardware and software. In addition, a plurality of "modules" or a plurality of "units" are integrated into at least one module and implemented by at least one processor (not shown), except for "modules" or "units" that need to be implemented with specific hardware. It can be.
본 명세서에서, 사용자라는 용어는 전자 장치를 사용하는 사람 또는 전자 장치를 사용하는 장치(예: 인공지능 전자 장치)를 지칭할 수 있다.In this specification, the term user may refer to a person using an electronic device or a device (eg, an artificial intelligence electronic device) using an electronic device.
이하 첨부된 도면들을 참조하여 본 개시의 일 실시 예를 보다 상세하게 설명한다. Hereinafter, an embodiment of the present disclosure will be described in more detail with reference to the accompanying drawings.
도 1은, 본 개시의 일 실시 예들에 따른, 전자 장치(100)의 외관을 도시한 사시도이다.1 is a perspective view illustrating an external appearance of an electronic device 100 according to an embodiment of the present disclosure.
도 1을 참조하면, 전자 장치(100)는 헤드(103), 본체(105), 프로젝션 렌즈(110), 커넥터(130) 또는 커버(107)를 포함할 수 있다.Referring to FIG. 1 , the electronic device 100 may include a head 103, a body 105, a projection lens 110, a connector 130, or a cover 107.
전자 장치(100)는 다양한 형태의 장치가 될 수 있다. 특히, 전자 장치(100)는 벽 또는 스크린으로 영상을 확대하여 투사하는 프로젝터 장치일 수 있으며, 프로젝터 장치는 LCD 프로젝터 또는 DMD(digital micromirror device)를 사용하는 DLP(digital light processing) 방식 프로젝터일 수 있다.The electronic device 100 may be a device of various types. In particular, the electronic device 100 may be a projector device that enlarges and projects an image onto a wall or a screen, and the projector device may be an LCD projector or a digital light processing (DLP) projector using a digital micromirror device (DMD). .
또한, 전자 장치(100)는 가정용 또는 산업용 디스플레이 장치일 수 있으며, 또는, 일상 생활에서 쓰이는 조명 장치일 수 있으며, 음향 모듈을 포함하는 음향 장치일 수 있으며, 휴대용 통신 장치(예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 웨어러블 장치, 또는 가전 장치 등으로 구현될 수 있다. 한편, 본 개시의 일 실시 예에 따른 전자 장치(100)는 상술한 기기에 한정되지 않으며, 전자 장치(100)는 상술한 기기들의 둘 이상의 기능을 갖춘 전자 장치(100)로 구현될 수 있다. 예를 들면, 전자 장치(100)는 프로세서의 조작에 따라 프로젝터 기능은 오프되고 조명 기능 또는 스피커 기능은 온되어 디스플레이 장치, 조명 장치 또는 음향 장치로 활용될 수 있으며, 마이크 또는 통신 장치를 포함하여 AI 스피커로 활용될 수 있다.In addition, the electronic device 100 may be a home or industrial display device, or a lighting device used in daily life, a sound device including a sound module, a portable communication device (eg, a smartphone), It may be implemented as a computer device, a portable multimedia device, a wearable device, or a home appliance. Meanwhile, the electronic device 100 according to an embodiment of the present disclosure is not limited to the above-described devices, and the electronic device 100 may be implemented as an electronic device 100 having two or more functions of the above-described devices. For example, the electronic device 100 may be used as a display device, a lighting device, or a sound device by turning off a projector function and turning on a lighting function or a speaker function according to manipulation of a processor, and AI including a microphone or communication device. Can be used as a speaker.
본체(105)는 외관을 이루는 하우징으로, 본체(105) 내부에 배치되는 전자 장치(100)의 구성 부품(예를 들어, 도 3에 도시된 구성)을 지지하거나 보호할 수 있다. 본체(105)의 형상은 도 1에 도시된 바와 같이 원통형에 가까운 구조를 가질 수 있다. 그러나, 본체(105)의 형상은 이에 한정되지 아니하고, 본 개시의 다양한 실시 예에 따르면, 본체(105)는 다각형 단면을 갖는 기둥, 원뿔, 구와 같은 다양한 기하학적인 형상으로 구현될 수 있다.The main body 105 is a housing forming an exterior, and may support or protect components (eg, the components shown in FIG. 3 ) of the electronic device 100 disposed inside the main body 105 . The body 105 may have a structure close to a cylindrical shape as shown in FIG. 1 . However, the shape of the main body 105 is not limited thereto, and according to various embodiments of the present disclosure, the main body 105 may be implemented in various geometric shapes such as a column, a cone, and a sphere having a polygonal cross section.
본체(105)의 크기는 사용자가 한 손으로 파지하거나 이동시킬 수 있는 크기일 수 있으며, 휴대가 용이하도록 초소형으로 구현될 수 있고, 테이블에 거치하거나 조명 장치에 결합 가능한 사이즈로 구현될 수 있다.The size of the main body 105 may be a size that a user can hold or move with one hand, may be implemented in a very small size for easy portability, and may be implemented in a size that can be placed on a table or coupled to a lighting device.
본체(105)의 재질은 사용자의 지문 또는 먼지가 묻지 않도록 무광의 금속 또는 합성 수지로 구현될 수 있으며, 또는, 본체(105)의 외관은 매끈한 유광으로 이루어질 수 있다.The material of the main body 105 may be implemented with matte metal or synthetic resin so as not to be stained with user's fingerprints or dust, or the exterior of the main body 105 may be made of a smooth gloss.
본체(105)에는 사용자가 파지하고 옮길 수 있도록 마찰 영역이 본체(105)의 외관의 일부 영역에 형성될 수 있다. 또는, 본체(105)는 적어도 일부 영역에 사용자가 파지할 수 있는 절곡된 파지부 또는 지지대(108a, 도 4 참조)가 마련될 수 있다.A friction area may be formed on a portion of the exterior of the body 105 so that a user can grip and move the main body 105 . Alternatively, the main body 105 may be provided with a bent gripping portion or a support 108a (see FIG. 4 ) that the user can grip in at least a portion of the area.
프로젝션 렌즈(110)는 본체(105)의 일 면에 형성되어, 렌즈 어레이를 통과한 광을 본체(105) 외부로 투사하도록 형성된다. 다양한 실시 예의 프로젝션 렌즈(110)는 색수차를 줄이기 위하여 저분산 코팅된 광학 렌즈일 수 있다. 프로젝션 렌즈(110)는 볼록 렌즈 또는 집광 렌즈일 수 있으며, 일 실시 예의 프로젝션 렌즈(110)는 복수의 서브 렌즈의 위치를 조정하여 초점을 조절할 수 있다.The projection lens 110 is formed on one surface of the main body 105 to project light passing through the lens array to the outside of the main body 105 . The projection lens 110 of various embodiments may be an optical lens coated with low dispersion in order to reduce chromatic aberration. The projection lens 110 may be a convex lens or a condensing lens, and the projection lens 110 according to an embodiment may adjust the focus by adjusting the positions of a plurality of sub-lenses.
헤드(103)는 본체(105)의 일 면에 결합되도록 마련되어 프로젝션 렌즈(110)를 지지하고 보호할 수 있다. 헤드(103)는 본체(105)의 일 면을 기준으로 기설정된 각도 범위에서 스위블 가능하도록 본체(105)와 결합될 수 있다.The head 103 is provided to be coupled to one surface of the main body 105 to support and protect the projection lens 110 . The head 103 may be coupled to the main body 105 so as to be swivelable within a predetermined angular range based on one surface of the main body 105 .
헤드(103)는 사용자 또는 프로세서에 의하여 자동 또는 수동으로 스위블되어 프로젝션 렌즈(110)의 투사 각도를 자유롭게 조절할 수 있다. 또는, 도면에는 도시되지 않았으나, 헤드(103)는 본체(105)와 결합되며 본체(105)로부터 연장되는 넥을 포함하여, 헤드(103)는 젖혀지거나 기울어지며 프로젝션 렌즈(110)의 투사 각도를 조절할 수 있다.The head 103 is automatically or manually swiveled by a user or a processor to freely adjust the projection angle of the projection lens 110 . Alternatively, although not shown in the drawings, the head 103 is coupled to the main body 105 and includes a neck extending from the main body 105, so that the head 103 is tilted or tilted to adjust the projection angle of the projection lens 110. can be adjusted
전자 장치(100)는 본체(105)의 위치 및 각도가 고정된 상태에서 헤드(103)의 방향을 조정하며 프로젝션 렌즈(110)의 출사 각도를 조절함으로써, 원하는 위치로 광 또는 영상을 투사할 수 있다. 또한, 헤드(103)는 사용자가 원하는 방향으로 회전한 뒤 잡을 수 있는 손잡이를 포함할 수 있다.The electronic device 100 adjusts the direction of the head 103 and adjusts the emission angle of the projection lens 110 while the position and angle of the main body 105 are fixed, so that light or an image can be projected to a desired location. there is. In addition, the head 103 may include a handle that the user can grasp after rotating in a desired direction.
본체(105) 외주면에는 복수의 개구가 형성될 수 있다. 복수의 개구를 통하여 오디오 출력부로부터 출력되는 오디오가 전자 장치(100)의 본체(105) 외부로 출력될 수 있다. 오디오 출력부는 스피커를 포함할 수 있고, 스피커는 멀티미디어 재생 또는 녹음 재생, 음성 출력 등과 같이 일반적인 용도로 사용될 수 있다.A plurality of openings may be formed on the outer circumferential surface of the main body 105 . Audio output from the audio output unit may be output to the outside of the main body 105 of the electronic device 100 through the plurality of openings. The audio output unit may include a speaker, and the speaker may be used for general purposes such as multimedia playback, recording playback, and audio output.
본 개시의 일 실시 예에 따르면, 본체(105) 내부에는 방열 팬(미도시)이 구비될 수 있으며, 방열 팬(미도시)이 구동되면 복수의 개구를 통하여 본체(105) 내부의 공기 또는 열을 배출할 수 있다. 그러므로, 전자 장치(100)는 전자 장치(100)의 구동에 의하여 발생하는 열을 외부로 배출하고, 전자 장치(100)가 과열되는 것을 방지할 수 있다.According to an embodiment of the present disclosure, a heat dissipation fan (not shown) may be provided inside the main body 105, and when the heat dissipation fan (not shown) is driven, air or heat inside the main body 105 passes through a plurality of openings. can emit. Therefore, the electronic device 100 can discharge heat generated by driving the electronic device 100 to the outside and prevent the electronic device 100 from overheating.
커넥터(130)는 전자 장치(100)를 외부 장치와 연결하여 전기 신호를 송수신하거나, 외부로부터 전력을 공급받을 수 있다. 본 개시의 일 실시 예에 따른, 커넥터(130)는 외부 장치와 물리적으로 연결될 수 있다. 이때, 커넥터(130)에는 입출력 인터페이스를 포함할 수 있으며, 유선 또는 무선으로 외부 장치와 통신을 연결하거나 전력을 공급받을 수 있다. 예를 들어, 커넥터(130)는 HDMI 연결 단자, USB 연결 단자, SD 카드 수용 홈, 오디오 연결 단자 또는 전력 콘센트를 포함할 수 있으며, 또는, 외부 장치와 무선으로 연결되는 블루투스, Wi-Fi 또는 무선 충전 연결 모듈을 포함할 수 있다.The connector 130 may connect the electronic device 100 to an external device to transmit/receive electrical signals or receive power from the outside. According to an embodiment of the present disclosure, the connector 130 may be physically connected to an external device. At this time, the connector 130 may include an input/output interface, and may communicate with an external device through wired or wireless communication or receive power. For example, the connector 130 may include an HDMI connection terminal, a USB connection terminal, an SD card receiving groove, an audio connection terminal, or a power outlet, or may include Bluetooth, Wi-Fi, or wireless connection to an external device wirelessly. A charging connection module may be included.
또한, 커넥터(130)는 외부 조명 장치에 연결되는 소켓 구조를 가질 수 있으며, 외부 조명 장치의 소켓 수용 홈에 연결되어 전력을 공급받을 수 있다. 소켓 구조의 커넥터(130)의 사이즈 및 규격은 결합 가능한 외부 장치의 수용 구조를 고려하여 다양하게 구현될 수 있다. 예를 들면, 국제 규격 E26에 따라, 커넥터(130)의 접합 부위의 지름은 26 mm로 구현될 수 있고, 이 경우 전자 장치(100)는 통상적으로 사용되는 전구를 대체하여 스탠드와 같은 외부 조명 장치에 결합될 수 있다. 한편, 기존 천장에 위치한 소켓에 체결 시, 전자 장치(100)는 위에서 아래로 프로젝션되는 구조로서, 소켓 결합에 의해 전자 장치(100)가 회전되지 않는 경우, 화면 역시 회전이 불가능하다. 이에 따라 소켓 결합이 되어 전원 공급이 되는 경우라도 전자 장치(100)가 회전 가능하도록, 전자 장치(100)는 천장의 스탠드에 소켓 결합된 상태로 헤드(103)가 본체(105)의 일 면에서 스위블되며 출사 각도를 조절하여 원하는 위치로 화면을 출사하거나 화면을 회전시킬 수 있다.In addition, the connector 130 may have a socket structure connected to an external lighting device, and may be connected to a socket receiving groove of the external lighting device to receive power. The size and standard of the connector 130 having a socket structure may be variously implemented in consideration of a receiving structure of a coupleable external device. For example, according to the international standard E26, the diameter of the junction of the connector 130 may be implemented as 26 mm, and in this case, the electronic device 100 replaces a conventionally used light bulb and an external lighting device such as a stand. can be coupled to Meanwhile, when fastened to a socket located on an existing ceiling, the electronic device 100 is projected from top to bottom, and when the electronic device 100 is not rotated by coupling the socket, the screen cannot be rotated either. Accordingly, the electronic device 100 is socket-coupled to the ceiling stand so that the electronic device 100 can rotate even when the socket is coupled and power is supplied, and the head 103 is moved from one side of the main body 105. It swivels and adjusts the emission angle to project the screen to a desired position or rotate the screen.
커넥터(130)는 결합 센서를 포함할 수 있고, 결합 센서는 커넥터(130)와 외부 장치의 결합 여부, 결합 상태 또는 결합 대상을 센싱하여 프로세서로 전달할 수 있으며, 프로세서는 전달받은 감지값에 기초하여 전자 장치(100)의 구동을 제어할 수 있다.The connector 130 may include a coupling sensor, and the coupling sensor may sense whether or not the connector 130 is coupled with an external device, a coupling state, or a coupling target, and transmit the sensor to the processor, based on the received detection value. Driving of the electronic device 100 may be controlled.
커버(107)는 본체(105)에 결합 및 분리될 수 있으며, 커넥터(130)가 상시 외부로 노출되지 않도록 커넥터(130)를 보호할 수 있다. 커버(107)의 형상은 도 1에 도시된 바와 같이 본체(105)와 연속된 형상을 가질 수 있으며, 또는 커넥터(130)의 형상에 대응되도록 구현될 수 있다. 커버(107)는 전자 장치(100)를 지지할 수 있으며, 전자 장치(100)는 커버(107)에 결합되어 외부 거치대에 결합되거나 거치되어 사용될 수 있다.The cover 107 can be coupled to and separated from the main body 105 and can protect the connector 130 so that the connector 130 is not constantly exposed to the outside. The shape of the cover 107 may have a shape continuous with the body 105 as shown in FIG. 1, or may be implemented to correspond to the shape of the connector 130. The cover 107 can support the electronic device 100, and the electronic device 100 can be used by being coupled to the cover 107 and coupled to or mounted on an external cradle.
다양한 실시 예의 전자 장치(100)는 커버(107) 내부에 배터리가 마련될 수 있다. 배터리는, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.In the electronic device 100 according to various embodiments, a battery may be provided inside the cover 107 . A battery may include, for example, a non-rechargeable primary cell, a rechargeable secondary cell or a fuel cell.
도면에는 도시되지 않았으나, 전자 장치(100)는 카메라 모듈을 포함할 수 있고, 카메라 모듈은 정지 영상 및 동영상을 촬영할 수 있다. 일 실시 예에 따르면, 카메라 모듈은 하나 이상의 렌즈, 이미지 센서, 이미지 시그널 프로세서, 또는 플래시를 포함할 수 있다.Although not shown in the drawings, the electronic device 100 may include a camera module, and the camera module may capture still images and moving images. According to one embodiment, the camera module may include one or more lenses, image sensors, image signal processors, or flashes.
도면에는 도시되지 않았으나, 전자 장치(100)는 전자 장치(100)를 보호하며 용이하게 운반할 수 있도록 보호 케이스(미도시)를 포함할 수 있으며, 또는, 본체(105)를 지지하거나 고정하는 스탠드(미도시), 벽면 또는 파티션에 결합 가능한 브라켓(미도시)을 포함할 수 있다.Although not shown in the drawings, the electronic device 100 may include a protective case (not shown) to protect the electronic device 100 and easily carry it, or a stand supporting or fixing the main body 105. (not shown), and may include a bracket (not shown) coupled to a wall or partition.
또한, 전자 장치(100)는 소켓 구조를 이용하여 다양한 외부 장치와 연결되어 다양한 기능을 제공할 수 있다. 일 실시 예로, 전자 장치(100)는 소켓 구조를 이용하여 외부의 카메라 장치와 연결될 수 있다. 전자 장치(100)는 연결된 카메라 장치에 저장된 영상이나 현재 촬영 중인 영상을 프로젝션부(111)를 이용하여 제공할 수 있다. 다른 실시 예로, 전자 장치(100)는 소켓 구조를 이용하여 배터리 모듈과 연결되어 전력을 공급받을 수 있다. 한편, 전자 장치(100)는 소켓 구조를 이용하여 외부 장치와 연결될 수 있으나, 이는 일 실시 예에 불과할 뿐, 다른 인터페이스(예를 들어, USB 등)를 이용하여 외부 장치와 연결될 수 있다.In addition, the electronic device 100 may provide various functions by being connected to various external devices using a socket structure. As an example, the electronic device 100 may be connected to an external camera device using a socket structure. The electronic device 100 may use the projection unit 111 to provide an image stored in a connected camera device or an image currently being captured. As another embodiment, the electronic device 100 may be connected to a battery module to receive power using a socket structure. Meanwhile, the electronic device 100 may be connected to an external device using a socket structure, but this is merely an example, and may be connected to an external device using another interface (eg, USB, etc.).
도 2는 본 개시의 일 실시 예에 따른, 전자 장치(100)의 구성을 도시한 블록도이다.2 is a block diagram illustrating a configuration of an electronic device 100 according to an embodiment of the present disclosure.
도 2를 참조하면, 전자 장치(100)는 프로젝션부(111), 센서부(113) 및 프로세서(114)를 포함할 수 있다.Referring to FIG. 2 , the electronic device 100 may include a projection unit 111 , a sensor unit 113 and a processor 114 .
프로젝션부(111)는 전자 장치(100)에서 출력하고자 하는 이미지를 투사면에 출력할 수 있다. 프로젝션부(111)는 프로젝션 렌즈(110)를 포함할 수 있다. The projection unit 111 may output an image to be output from the electronic device 100 to the projection surface. The projection unit 111 may include a projection lens 110 .
프로젝션부(111)는 이미지를 투사면에 출력하는 기능을 수행할 수 있다. 프로젝션부(111)와 관련된 구체적인 설명은 도 3에서 기술한다. 여기서, 프로젝션부로 기재되었지만 전자 장치(100)는 다양한 방식으로 이미지를 투사할 수 있다. 여기서, 프로젝션부(111)는 프로젝션 렌즈(110)를 포함할 수 있다. 여기서, 투사면은 이미지가 출력되는 물리적 공간의 일부이거나 별도의 스크린일 수 있다.The projection unit 111 may perform a function of outputting an image on a projection surface. A detailed description related to the projection unit 111 is described in FIG. 3 . Here, although described as a projection unit, the electronic device 100 may project images in various ways. Here, the projection unit 111 may include a projection lens 110 . Here, the projection surface may be a part of a physical space on which an image is output or a separate screen.
여기서, 센서부(113)는 제1 센서부(113-1) 또는 제2 센서부(113-2) 중 적어도 하나를 포함할 수 있다. 여기서, 제1 센서부(113-1)는 전자 장치(100)의 상태 정보를 분석하기 위한 센싱 데이터를 획득하는 센서부를 의미할 수 있다. 여기서, 제2 센서부(113-2)는 투사면(10)의 상태 정보를 분석하기 위한 센싱 데이터를 획득하는 센서부를 의미할 수 있다. Here, the sensor unit 113 may include at least one of the first sensor unit 113-1 and the second sensor unit 113-2. Here, the first sensor unit 113 - 1 may mean a sensor unit that obtains sensing data for analyzing state information of the electronic device 100 . Here, the second sensor unit 113 - 2 may mean a sensor unit that obtains sensing data for analyzing state information of the projection surface 10 .
프로세서(114)는 전자 장치(100)의 전반적인 제어 동작을 수행할 수 있다. 구체적으로, 프로세서(114)는 전자 장치(100)의 전반적인 동작을 제어하는 기능을 한다.The processor 114 may perform overall control operations of the electronic device 100 . Specifically, the processor 114 functions to control the overall operation of the electronic device 100 .
여기서, 다양한 방식에 따라 키스톤 보정 기능이 수행될 수 있다.Here, the keystone correction function may be performed according to various methods.
일 실시 예에 따라, 프로세서(114)는 키스톤 보정 기능을 자동으로 수행될 수 있다. 구체적으로, 프로세서(114)는 획득되는 상태 정보에 기초하여 자동으로 키스톤 보정 기능이 수행할 수 있다. 키스톤 보정 기능이 자동으로 수행되는 경우, 키스톤 보정 기능은 오토 키스톤(auto-keystone) 기능으로 기재될 수 있다.According to an embodiment, the processor 114 may automatically perform a keystone correction function. Specifically, the processor 114 may automatically perform a keystone correction function based on the obtained state information. When the keystone correction function is performed automatically, the keystone correction function may be described as an auto-keystone function.
다른 실시 예에 따라, 키스톤 보정 기능은 수동으로 수행될 수 있다. 구체적으로, 프로세서(114)는 사용자의 입력 또는 사용자의 조작에 따라 키스톤 보정 기능을 수행할 수 있다. 예를 들어, 사용자는 투사면에 투사된 이미지를 보면서 전자 장치(100)를 조작하여 투사된 이미지가 직사각형이 되도록 키스톤 보정 기능을 이용할 수 있다.According to another embodiment, the keystone correction function may be performed manually. Specifically, the processor 114 may perform a keystone correction function according to a user's input or user's manipulation. For example, the user may use the keystone correction function to make the projected image rectangular by manipulating the electronic device 100 while viewing the projected image on the projection surface.
여기서, 키스톤 보정 기능은 전자 장치(100)의 기울어짐으로 인하여 사다리꼴 형태의 이미지가 투사면에 출력되는 문제를 해결하기 위한 기능일 수 있다. 여기서, 키스톤 보정 기능은 투사면에 출력되는 사다리꼴 형태의 이미지를 직사각형 또는 정사각형 형태의 이미지로 출력되도록 이미지를 보정하는 기능일 수 있다. 키스톤 보정 기능은 키스톤 보정으로 기재될 수 있다. 키스톤 보정의 방향성에 따라 좌우 키스톤 보정 또는 상하 키스톤 보정으로 구분될 수 있다.Here, the keystone correction function may be a function to solve a problem that a trapezoidal image is output on the projection surface due to the inclination of the electronic device 100 . Here, the keystone correction function may be a function of correcting an image so that a trapezoidal image output on the projection surface is output as a rectangular or square image. The keystone correction function may be described as keystone correction. Depending on the direction of keystone correction, it can be divided into left and right keystone correction or up and down keystone correction.
한편, 다양한 방식에 따라 레벨링 보정 기능이 수행될 수 있다.Meanwhile, the leveling correction function may be performed according to various methods.
일 실시 예에 따라, 프로세서(114)는 레벨링 보정 기능을 자동으로 수행할 수 있다. 구체적으로, 프로세서(114)는 획득되는 상태 정보에 기초하여 자동으로 레벨링 보정 기능을 수행할 수 있다. 레벨링 보정 기능이 자동으로 수행되는 경우, 레벨링 보정 기능은 오토 레벨링(auto-leveling) 기능으로 기재될 수 있다.According to an embodiment, the processor 114 may automatically perform a leveling correction function. Specifically, the processor 114 may automatically perform a leveling correction function based on the obtained state information. When the leveling correction function is performed automatically, the leveling correction function may be described as an auto-leveling function.
다른 실시 예에 따라, 레벨링 보정 기능은 수동으로 수행될 수 있다. 구체적으로, 프로세서(114)는 사용자의 입력 또는 사용자의 조작에 따라 레벨링 보정 기능을 수행할 수 있다. 예를 들어, 사용자는 투사면에 투사된 이미지를 보면서 전자 장치(100)를 조작하여 투사된 이미지가 회전 되도록 레벨링 보정 기능을 이용할 수 있다.According to another embodiment, the leveling correction function may be performed manually. Specifically, the processor 114 may perform a leveling correction function according to a user's input or user's manipulation. For example, the user may use the leveling correction function to rotate the projected image by manipulating the electronic device 100 while viewing the projected image on the projection surface.
여기서, 레벨링 보정 기능은 이미지를 회전시키는 기능을 의미할 수 있다. 구체적으로, 프로세서(114)는 레벨링 보정 기능을 이용하여 이미지를 특정 각도만큼 회전시켜 투사 이미지가 출력되도록 제어할 수 있다. Here, the leveling correction function may mean a function of rotating an image. Specifically, the processor 114 may control the projected image to be output by rotating the image by a specific angle using a leveling correction function.
일 실시 예에 따라, 프로세서(114)는 소프트웨어를 이용하여 레벨링 보정 기능을 수행할 수 있다. 프로세서(114)는 레벨링 보정 기능을 이용하여 회전된 이미지가 출력되도록 이미지를 보정할 수 있다. 그리고, 프로세서(114)는 회전된 이미지가 출력되도록 프로젝션부(111)를 제어할 수 있다. According to an embodiment, the processor 114 may perform a leveling correction function using software. The processor 114 may correct the image so that the rotated image is output using the leveling correction function. Also, the processor 114 may control the projection unit 111 to output the rotated image.
다른 실시 예에 따라, 프로세서(114)는 하드웨어를 이용하여 레벨링 보정 기능을 수행할 수 있다. 프로세서(114)는 프로젝션부(111)에 포함된 프로젝션 렌즈(110)를 회전시켜 이미지를 회전시킬 수 있다. 또한, 프로세서(114)는 전자 장치(100)에 포함된 고정 부재를 제어하여 이미지를 회전시킬 수 있다. 여기서, 고정 부재는 전자 장치(100)가 고정될 수 있도록 특정 면에 접촉되는 부재를 의미할 수 있다. 프로세서(114)는 고정 부재를 회전시키거나 길이를 조절하여 이미지가 회전되어 출력될 수 있도록 제어할 수 있다. According to another embodiment, the processor 114 may perform a leveling correction function using hardware. The processor 114 may rotate the image by rotating the projection lens 110 included in the projection unit 111 . Also, the processor 114 may rotate an image by controlling a fixing member included in the electronic device 100 . Here, the fixing member may refer to a member that contacts a specific surface so that the electronic device 100 can be fixed. The processor 114 may rotate or adjust the length of the fixing member to control an image to be rotated and output.
또한, 프로세서(114)는 키스톤 보정 기능 또는 레벨링 보정 기능 중 적어도 하나의 기능을 수행하여 최종 투사 이미지를 획득하고, 최종 투사 이미지를 투사면에 출력하도록 프로젝션부(111)를 제어할 수 있다. Also, the processor 114 may obtain a final projection image by performing at least one of a keystone correction function and a leveling correction function, and control the projection unit 111 to output the final projection image to the projection surface.
여기서, 키스톤 보정 기능 또는 레벨링 보정 기능 중 적어도 하나의 기능이 수행된 이후 투사 이미지를 출력하므로, 전자 장치(100)는 사용자에게 적합한 투사 이미지를 제공할 수 있다. Here, since the projection image is output after at least one of the keystone correction function and the leveling correction function is performed, the electronic device 100 can provide a projection image suitable for the user.
한편, 프로세서(114)는 다양한 방식에 따라 투사 이미지를 제공할 수 있다. Meanwhile, the processor 114 may provide a projected image according to various methods.
일 실시 예에 따라, 프로세서(114)는 키스톤 보정 기능 또는 레벨링 보정 기능 중 적어도 하나의 기능이 수행된 이후 보정된 투사 이미지를 출력할 수 있다.According to an embodiment, the processor 114 may output a corrected projection image after at least one of a keystone correction function and a leveling correction function is performed.
다른 실시 예에 따라, 프로세서(114)는 키스톤 보정 기능 및 레벨링 보정 기능이 수행되기 전 원본 투사 이미지를 출력하고, 키스톤 보정 기능 또는 레벨링 보정 기능 중 적어도 하나의 기능이 수행된 이후 보정된 투사 이미지를 출력할 수 있다.According to another embodiment, the processor 114 outputs an original projected image before the keystone correction function and the leveling correction function are performed, and outputs the corrected projected image after at least one of the keystone correction function and the leveling correction function is performed. can be printed out.
전자 장치(100)는 센서부(113)를 포함할 수 있으며, 센서부(113)는 제1 센서부(113-1) 및 제2 센서부(113-2)를 포함할 수 있다. The electronic device 100 may include a sensor unit 113, and the sensor unit 113 may include a first sensor unit 113-1 and a second sensor unit 113-2.
여기서, 제1 센서부(113-1)는 전자 장치(100)의 상태를 센싱하기 위한 적어도 하나의 센서를 포함할 수 있다. 여기서, 전자 장치(100)의 상태는 기울기 또는 회전 각도를 의미할 수 있다. 즉, 제1 센서부(113-1)는 전자 장치(100)의 기울기 또는 전자 장치(100)의 회전 각도를 측정하기 위한 센서를 포함할 수 있다. 예를 들어, 제1 센서부(113-1)는 중력 센서, 가속도 센서 또는 자이로 센서 중 적어도 하나를 포함할 수 있다.Here, the first sensor unit 113 - 1 may include at least one sensor for sensing the state of the electronic device 100 . Here, the state of the electronic device 100 may mean a tilt or rotation angle. That is, the first sensor unit 113 - 1 may include a sensor for measuring an inclination of the electronic device 100 or a rotation angle of the electronic device 100 . For example, the first sensor unit 113-1 may include at least one of a gravity sensor, an acceleration sensor, and a gyro sensor.
여기서, 제2 센서부(113-2)는 투사면(10)의 상태를 센싱하기 위한 적어도 하나의 센서를 포함할 수 있다. 여기서, 투사면(10)의 상태는 기울기 또는 회전 각도를 의미할 수 있다. 즉, 제2 센서부(113-2)는 투사면(10)의 기울기 또는 투사면(10)의 회전 각도를 측정하기 위한 센서를 포함할 수 있다. 제2 센서부(113-2)는 투사면(10)까지의 거리를 측정하기 위한 거리 센서를 포함할 수 있다. 예를 들어, 제2 센서부(113-2)는 적어도 하나의 ToF(Time of Flight) 센서를 포함할 수 있다.Here, the second sensor unit 113 - 2 may include at least one sensor for sensing the state of the projection surface 10 . Here, the state of the projection surface 10 may mean a tilt or rotation angle. That is, the second sensor unit 113 - 2 may include a sensor for measuring an inclination of the projection surface 10 or a rotation angle of the projection surface 10 . The second sensor unit 113 - 2 may include a distance sensor for measuring a distance to the projection surface 10 . For example, the second sensor unit 113-2 may include at least one Time of Flight (ToF) sensor.
한편, 프로세서(114)는 제1 센서부(113-1)를 통해 획득된 센싱 데이터에 기초하여 전자 장치(100)의 상태 정보를 획득하고, 제2 센서부(113-2)를 통해 획득된 센싱 데이터에 기초하여 투사면(10)의 상태 정보를 획득하고, 전자 장치(100)의 상태 정보 및 투사면(10)의 상태 정보에 기초하여 투사 이미지를 보정하고, 보정된 투사 이미지를 투사면(10)에 출력하도록 프로젝션부(111)를 제어할 수 있다.Meanwhile, the processor 114 acquires state information of the electronic device 100 based on the sensing data obtained through the first sensor unit 113-1, and obtains state information obtained through the second sensor unit 113-2. Acquiring state information of the projection surface 10 based on the sensing data, correcting the projected image based on the state information of the electronic device 100 and the state information of the projection surface 10, and converting the corrected projection image to the projection surface The projection unit 111 can be controlled to output to (10).
여기서, 전자 장치(100)의 상태 정보는 전자 장치(100)의 기울기 또는 전자 장치(100)의 회전 각도를 포함할 수 있다. 구체적으로, 전자 장치(100)의 상태 정보는 전자 장치(100)의 x축 회전 정보, 전자 장치(100)의 y축 회전 정보 또는 전자 장치(100)의 z축 회전 정보 중 적어도 하나를 포함할 수 있다. 이와 관련된 구체적인 설명은 도 10 내지 도 13에 기재한다. 전자 장치(100)의 x축 회전 정보와 관련된 설명을 도 12에 기재한다. 전자 장치(100)의 y축 회전 정보와 관련된 설명을 도 11에 기재한다. 전자 장치(100)의 z축 회전 정보와 관련된 설명은 도 10에 기재한다.Here, the state information of the electronic device 100 may include an inclination of the electronic device 100 or a rotation angle of the electronic device 100 . Specifically, the state information of the electronic device 100 may include at least one of x-axis rotation information, y-axis rotation information, and z-axis rotation information of the electronic device 100 of the electronic device 100. can A detailed description related to this is described in FIGS. 10 to 13 . A description related to the x-axis rotation information of the electronic device 100 will be described in FIG. 12 . A description related to the y-axis rotation information of the electronic device 100 will be described in FIG. 11 . A description related to z-axis rotation information of the electronic device 100 is described in FIG. 10 .
여기서, 투사면(10)의 상태 정보는 투사면(10)의 기울기 또는 전자 장치(100)의 회전 각도를 포함할 수 있다. 구체적으로, 투사면(10)의 상태 정보는 투사면(10)의 x축 회전 정보, 투사면(10)의 y축 회전 정보 또는 투사면(10)의 z축 회전 정보 중 적어도 하나를 포함할 수 있다. 이와 관련된 구체적인 설명은 도 15에 기재한다. 투사면(10)의 x축 회전 정보와 관련된 설명을 도 41 내지 도 42에 기재한다. 투사면(10)의 y축 회전 정보와 관련된 설명을 도 20 내지 도 22에 기재한다. 투사면(10)의 z축 회전 정보와 관련된 설명을 도 16 내지 도 18에 기재한다.Here, the state information of the projection surface 10 may include a tilt of the projection surface 10 or a rotation angle of the electronic device 100 . Specifically, the state information of the projection surface 10 may include at least one of x-axis rotation information of the projection surface 10, y-axis rotation information of the projection surface 10, or z-axis rotation information of the projection surface 10. can A detailed description related to this is described in FIG. 15 . A description related to the x-axis rotation information of the projection surface 10 will be described in FIGS. 41 and 42 . Descriptions related to the y-axis rotation information of the projection surface 10 will be described in FIGS. 20 to 22 . A description related to z-axis rotation information of the projection surface 10 will be described in FIGS. 16 to 18 .
여기서, x축은 제1 축으로, y축은 제2 축으로, z축은 제3축으로 기재될 수 있다. Here, the x-axis may be described as a first axis, the y-axis as a second axis, and the z-axis as a third axis.
여기서, 프로세서(114)는 전자 장치(100)의 상태 정보 또는 투사면(10)의 상태 정보 중 적어도 하나에 기초하여 투사 이미지를 보정할 수 있다.Here, the processor 114 may correct the projected image based on at least one of state information of the electronic device 100 and state information of the projection surface 10 .
여기서, 투사 이미지를 보정하는 동작은 레벨링 보정 동작 또는 키스톤 보정 동작 중 적어도 하나를 포함할 수 있다. 보정 동작과 관련된 설명은 도 23 및 도 24에 기재한다.Here, the operation of correcting the projected image may include at least one of a leveling correction operation and a keystone correction operation. A description related to the correction operation is described in FIGS. 23 and 24 .
여기서, 투사 이미지를 보정하는 동작이 수행된 후, 프로세서(114)는 보정된 투사 이미지를 투사면(10)에 출력하도록 프로젝션부(111)를 제어할 수 있다. Here, after an operation of correcting the projection image is performed, the processor 114 may control the projection unit 111 to output the corrected projection image to the projection surface 10 .
한편, 전자 장치(100)의 상태 정보는 전자 장치(100)의 x축 회전 정보 및 전자 장치(100)의 y축 회전 정보를 포함할 수 있고, 투사면(10)의 상태 정보는 투사면(10)의 y축 회전 정보 및 투사면(10)의 z축 회전 정보를 포함할 수 있다.Meanwhile, the state information of the electronic device 100 may include x-axis rotation information and y-axis rotation information of the electronic device 100, and the state information of the projection surface 10 is the projection surface ( 10) may include y-axis rotation information and z-axis rotation information of the projection surface 10.
다양한 실시 예에 따라, 전자 장치(100)의 상태 정보에 포함되어 있는 회전 정보가 상이할 수 있다. According to various embodiments, rotation information included in state information of the electronic device 100 may be different.
일 실시 예에 따라, 전자 장치(100)의 상태 정보는 전자 장치(100)의 x축 회전 정보 및 전자 장치(100)의 y축 회전 정보를 포함할 수 있다. 프로세서(114)는 제1 센서부(113-1)를 통해 획득된 센싱 데이터에 기초하여 전자 장치(100)가 x축 및 y축으로 어느 정도 회전되어 있는지를 식별할 수 있다. 전자 장치(100)의 z축 회전 정보는 전자 장치(100)가 동서남북 중 어느 방향을 향하고 있는지를 나타낼 수 있다. 하지만, 사용자는 결과적으로 투사면(10)에 전자 장치(100)를 위치시킨다는 점에서 전자 장치(100)의 z축 회전 정보가 불필요할 수 있다. 따라서, 프로세서(114)는 전자 장치(100)의 z축 회전 정보 대신 투사면(10)의 z축 회전 정보를 이용하여 보정 동작을 수행할 수 있다.According to an embodiment, the state information of the electronic device 100 may include x-axis rotation information and y-axis rotation information of the electronic device 100 . The processor 114 may identify how much the electronic device 100 is rotated in the x-axis and the y-axis based on the sensing data obtained through the first sensor unit 113-1. The z-axis rotation information of the electronic device 100 may indicate which direction the electronic device 100 faces among north, south, east and west. However, since the user places the electronic device 100 on the projection surface 10 as a result, z-axis rotation information of the electronic device 100 may be unnecessary. Accordingly, the processor 114 may perform a correction operation using the z-axis rotation information of the projection surface 10 instead of the z-axis rotation information of the electronic device 100 .
다른 실시 예에 따라, 전자 장치(100)의 상태 정보는 전자 장치(100)의 x축 회전 정보, 전자 장치(100)의 y축 회전 정보 및 전자 장치(100)의 z축 회전 정보를 포함할 수 있다. 여기서, 프로세서(114)는 전자 장치(100)의 z축 회전 정보를 지자기 센서 등을 통해 획득할 수 있다. 여기서, 지자기 센서는 제1 센서부(113-1)에 포함되는 형태로 구현되거나 별도의 제3 센서부(미도시)에 포함되는 것으로 구현될 수 있다.According to another embodiment, the state information of the electronic device 100 may include x-axis rotation information of the electronic device 100, y-axis rotation information of the electronic device 100, and z-axis rotation information of the electronic device 100. can Here, the processor 114 may obtain z-axis rotation information of the electronic device 100 through a geomagnetic sensor or the like. Here, the geomagnetic sensor may be implemented in a form included in the first sensor unit 113-1 or included in a separate third sensor unit (not shown).
다양한 실시 예에 따라, 투사면(10)의 상태 정보에 포함되어 있는 회전 정보가 상이할 수 있다. According to various embodiments, rotation information included in state information of the projection surface 10 may be different.
일 실시 예에 따라, 투사면(10)의 상태 정보는 투사면(10)의 y축 회전 정보 및 투사면(10)의 z축 회전 정보를 포함할 수 있다. 프로세서(114)는 제2 센서부(113-2)를 통해 획득된 센싱 데이터에 기초하여 투사면(10)이 y축 및 z축으로 어느 정도 회전되어 있는지를 식별할 수 있다. 투사면(10)의 x축 회전 정보는 전자 장치(100)가 투사면(10)을 바라보는 방향에서 좌우 수평이 기울어진 정도를 나타낼 수 있다. 하지만, 일반적으로 투사면(10)이 기울어진 상황이 존재할 가능성이 많지 않을 수 있다. 따라서, 제2 센서부(113-2)는 처리 시간의 단축 및 데이터 처리의 효율화를 위해 투사면(10)의 x축 회전 정보를 식별하지 않을 수 있다. According to an embodiment, the state information of the projection surface 10 may include y-axis rotation information and z-axis rotation information of the projection surface 10 . The processor 114 may identify how much the projection surface 10 is rotated in the y-axis and z-axis based on the sensing data acquired through the second sensor unit 113-2. The x-axis rotation information of the projection surface 10 may represent the degree of horizontal tilt of the left and right in the direction in which the electronic device 100 views the projection surface 10 . However, in general, there may not be much possibility of a situation where the projection surface 10 is tilted. Accordingly, the second sensor unit 113 - 2 may not identify the x-axis rotation information of the projection surface 10 in order to reduce processing time and increase data processing efficiency.
다른 실시 예에 따라, 투사면(10)의 상태 정보는 투사면(10)의 x축 회전 정보, 투사면(10)의 y축 회전 정보 및 투사면(10)의 z축 회전 정보를 포함할 수 있다. 일반적이지 않은 상황에서 투사면(10)의 좌우 수평이 기울어질 가능성이 있다. 따라서, 프로세서(114)는 카메라(미도시)를 통해 출력된 테스트 이미지(또는 투사 이미지)가 포함된 촬상 이미지를 획득할 수 있다. 그리고, 프로세서(114)는 촬상 이미지에 기초하여 투사면(10)의 x축 회전 정보를 획득할 수 있다. 이와 관련된 설명은 도 41 및 도 42에 기재한다.According to another embodiment, the state information of the projection surface 10 may include x-axis rotation information of the projection surface 10, y-axis rotation information of the projection surface 10, and z-axis rotation information of the projection surface 10. can In an unusual situation, there is a possibility that the left and right horizontality of the projection surface 10 is tilted. Accordingly, the processor 114 may obtain a captured image including a test image (or projection image) output through a camera (not shown). Also, the processor 114 may obtain x-axis rotation information of the projection surface 10 based on the captured image. A description related to this is described in FIGS. 41 and 42 .
한편, 프로세서(114)는 전자 장치(100)의 x축 회전 정보에 기초하여 투사 이미지를 레벨링 보정하고, 전자 장치(100)의 y축 회전 정보, 투사면(10)의 y축 회전 정보 및 투사면(10)의 z축 회전 정보에 기초하여 투사 이미지를 키스톤 보정할 수 있다.Meanwhile, the processor 114 levels and corrects the projected image based on the x-axis rotation information of the electronic device 100, and generates the y-axis rotation information of the electronic device 100, the y-axis rotation information of the projection surface 10 and the projection image. The projected image may be keystone corrected based on the z-axis rotation information of the slope 10 .
전자 장치(100)가 x축으로 회전된 경우, 프로세서(114)는 투사 이미지를 시계 방향 또는 반시계 방향으로 회전시키는 레벨링 보정을 수행할 수 있다. When the electronic device 100 is rotated along the x-axis, the processor 114 may perform leveling correction by rotating the projected image clockwise or counterclockwise.
전자 장치(100)가 y축으로 회전된 경우, 프로세서(114)는 투사 이미지의 수직 방향으로 발생된 왜곡을 제거하기 위해 키스톤 보정(수직 키스톤 보정 또는 상하 키스톤 보정)을 수행할 수 있다. When the electronic device 100 is rotated along the y-axis, the processor 114 may perform keystone correction (vertical keystone correction or up/down keystone correction) to remove distortion in the vertical direction of the projected image.
투사면(10)이 y축으로 회전된 경우, 프로세서(114)는 투사 이미지의 수직 방향으로 발생된 왜곡을 제거하기 위해 키스톤 보정(수직 키스톤 보정 또는 상하 키스톤 보정)을 수행할 수 있다. When the projection surface 10 is rotated along the y-axis, the processor 114 may perform keystone correction (vertical keystone correction or up/down keystone correction) to remove distortion generated in the vertical direction of the projected image.
투사면(10)이 z축으로 회전된 경우, 프로세서(114)는 투사 이미지의 수평 방향으로 발생된 왜곡을 제거하기 위해 키스톤 보정(수평 키스톤 보정 또는 좌우 키스톤 보정)을 수행할 수 있다. When the projection surface 10 is rotated in the z-axis, the processor 114 may perform keystone correction (horizontal keystone correction or left and right keystone correction) to remove distortion generated in the horizontal direction of the projected image.
이와 관련된 설명은 도 23 및 도 24에서 기재한다.Descriptions related to this are described in FIGS. 23 and 24 .
한편, 제2 센서부(113-2)는 제1 거리 센서(113-2-1) 및 제2 거리 센서(113-2-2)를 포함하고, 프로세서(114)는 제1 거리 센서(113-2-1)로부터 획득한 제1 거리 센서(113-2-1)와 투사면(10) 사이의 제1 거리(d1) 및 제2 거리 센서(113-2-2)로부터 획득한 제2 거리 센서(113-2-2)와 투사면(10) 사이의 제2 거리(d2)에 기초하여 투사면(10)의 상태 정보를 획득할 수 있다.Meanwhile, the second sensor unit 113-2 includes a first distance sensor 113-2-1 and a second distance sensor 113-2-2, and the processor 114 includes the first distance sensor 113 -2-1) between the first distance sensor 113-2-1 and the projection surface 10 (d1) and the second distance obtained from the second distance sensor (113-2-2) (113-2-2) State information of the projection surface 10 may be obtained based on the second distance d2 between the distance sensor 113-2-2 and the projection surface 10 .
여기서, 프로세서(114)는 제1 거리 센서(113-2-1)를 통해 제1 센싱 데이터를 획득할 수 있다. 프로세서(114)는 제1 센싱 데이터에 기초하여 제1 거리 센서(113-2-1)와 투사면(10) 사이의 제1 거리(d1)를 획득할 수 있다. Here, the processor 114 may obtain first sensing data through the first distance sensor 113-2-1. The processor 114 may obtain a first distance d1 between the first distance sensor 113-2-1 and the projection surface 10 based on the first sensing data.
여기서, 프로세서(114)는 제2 거리 센서(113-2-2)를 통해 제2 센싱 데이터를 획득할 수 있다. 프로세서(114)는 제2 센싱 데이터에 기초하여 제2 거리 센서(113-2-2)와 투사면(10) 사이의 제2 거리(d2)를 획득할 수 있다.Here, the processor 114 may acquire second sensing data through the second distance sensor 113-2-2. The processor 114 may obtain a second distance d2 between the second distance sensor 113-2-2 and the projection surface 10 based on the second sensing data.
그리고, 프로세서(114)는 제1 거리(d1) 및 제2 거리(d2)에 기초하여 투사면(10)의 상태 정보를 획득할 수 있다. 이와 관련된 구체적인 설명은 도 16 내지 도 22에 기재한다.Also, the processor 114 may obtain state information of the projection surface 10 based on the first distance d1 and the second distance d2. A detailed description related to this is described in FIGS. 16 to 22.
한편, 제2 센서부(113-2)는 제3 거리 센서(113-2-3)를 더 포함할 수 있고, 프로세서(114)는 제1 거리 센서(113-2-1)로부터 획득한 제1 거리(d1) 및 제2 거리 센서(113-2-2)로부터 획득한 제2 거리(d2)에 기초하여 투사면(10)의 z축 회전 정보를 획득하고, 제1 거리 또는 제2 거리 중 적어도 하나의 거리 및 제3 거리 센서(113-2-3)로부터 획득한 제3 거리 센서(113-2-3)와 투사면(10) 사이의 제3 거리(d3)에 기초하여 투사면(10)의 y축 회전 정보를 획득할 수 있다.Meanwhile, the second sensor unit 113-2 may further include a third distance sensor 113-2-3, and the processor 114 may obtain the first distance sensor 113-2-1. Z-axis rotation information of the projection surface 10 is obtained based on the first distance d1 and the second distance d2 obtained from the second distance sensor 113-2-2, and the first distance or the second distance based on at least one of the distances and the third distance d3 between the third distance sensor 113-2-3 and the projection surface 10 obtained from the third distance sensor 113-2-3 The y-axis rotation information of (10) can be obtained.
여기서, 프로세서(114)는 제1 거리(d1) 및 제2 거리(d2)에 기초하여 투사면(10)의 z축 회전 정보를 획득할 수 있다.Here, the processor 114 may obtain z-axis rotation information of the projection surface 10 based on the first distance d1 and the second distance d2.
여기서, 프로세서(114)는 제3 거리 센서(113-2-3)로부터 제3 센싱 데이터를 획득할 수 있다. 프로세서(114)는 제3 센싱 데이터에 기초하여 제3 거리 센서(113-2-3)와 투사면(10) 사이의 제3 거리(d3)를 획득할 수 있다. Here, the processor 114 may obtain third sensing data from the third distance sensor 113-2-3. The processor 114 may obtain a third distance d3 between the third distance sensor 113-2-3 and the projection surface 10 based on the third sensing data.
그리고, 프로세서(114)는 제1 거리(d1) 및 제3 거리(d3)에 기초하여 투사면(10)의 y축 회전 정보를 획득할 수 있다. 다른 실시 예에 따라, 프로세서(114)는 제2 거리(d2) 및 제3 거리(d3)에 기초하여 투사면(10)의 y축 회전 정보를 획득할 수 있다.Also, the processor 114 may obtain y-axis rotation information of the projection surface 10 based on the first distance d1 and the third distance d3. According to another embodiment, the processor 114 may obtain y-axis rotation information of the projection surface 10 based on the second distance d2 and the third distance d3.
투사면(10)의 z축 회전 정보를 획득하는 동작은 도 16 내지 도 19에 기재한다.An operation of obtaining z-axis rotation information of the projection surface 10 is described in FIGS. 16 to 19 .
투사면(10)의 y축 회전 정보를 획득하는 동작은 도 20 내지 도 22에 기재한다.An operation of obtaining y-axis rotation information of the projection surface 10 is described in FIGS. 20 to 22 .
한편, 투사면(10)의 y축 회전 정보 및 투사면(10)의 z축 회전 정보를 획득하기 위해 제3 거리 센서(113-2-3)가 아닌 제1 거리 센서(113-2-1) 및 제2 거리 센서(113-2-2)만을 이용할 수 있다. 이와 관련된 배치 구조는 도 25의 전자 장치(100-2)와 동일할 수 있다. 2개의 거리 센서가 도 25의 전자 장치(100-2)와 같이 수평 위치 및 수직 위치가 모두 상이하게 배치될 수 있다. 여기서, 전자 장치(100-2)는 2개의 거리 센서를 통해 투사면(10)의 y축 회전 정보 및 투사면(10)의 z축 회전 정보를 모두 획득할 수 있다.On the other hand, in order to obtain the y-axis rotation information and the z-axis rotation information of the projection surface 10, the first distance sensor 113-2-1 instead of the third distance sensor 113-2-3 ) and the second distance sensor 113-2-2 can be used. A related arrangement structure may be the same as that of the electronic device 100 - 2 of FIG. 25 . As in the electronic device 100-2 of FIG. 25, the two distance sensors may be disposed differently in both horizontal and vertical positions. Here, the electronic device 100 - 2 may acquire both y-axis rotation information and z-axis rotation information of the projection surface 10 through two distance sensors.
한편, 프로세서(114)는 투사면(10)에서 투사 이미지가 투사되는 투사 영역을 식별하고, 제1 거리 센서(113-2-1)로부터 제1 거리 센서(113-2-1)와 투사 영역에 대응되는 위치 사이의 제4 거리(d4)를 획득하고, 제2 거리 센서(113-2-2)로부터 제2 거리 센서(113-2-2)와 투사 영역에 대응되는 위치 사이의 제5 거리(d5)를 획득하고, 제4 거리(d4) 및 제5 거리(d5)에 기초하여 전자 장치(100)의 초점을 결정할 수 있다.Meanwhile, the processor 114 identifies a projection area where a projection image is projected on the projection surface 10, and connects the first distance sensor 113-2-1 to the projection area from the first distance sensor 113-2-1. A fourth distance d4 between positions corresponding to is obtained, and a fifth distance d4 between the second distance sensor 113-2-2 and a position corresponding to the projection area is obtained from the second distance sensor 113-2-2. The distance d5 may be obtained, and the focus of the electronic device 100 may be determined based on the fourth distance d4 and the fifth distance d5.
여기서, 전자 장치(100)의 초점은 프로젝션 렌즈(110)가 출력하는 투사 이미지에 대응되는 초점을 의미할 수 있다. 전자 장치(100)의 초점은 프로젝션 렌즈(110)의 초점 또는 투사 초점 등으로 기재될 수 있다.Here, the focal point of the electronic device 100 may mean a focal point corresponding to a projection image output from the projection lens 110 . The focal point of the electronic device 100 may be described as a focal point of the projection lens 110 or a projection focal point.
이와 관련된 구체적인 동작은 도 34 내지 도 35에 기재한다.Specific operations related to this are described in FIGS. 34 to 35 .
한편, 프로세서(114)는 제4 거리(d4) 및 제5 거리(d5) 중 작은 거리에 대응되는 거리 센서를 식별하고, 식별된 거리 센서로부터 획득한 센싱 데이터에 더 큰 가중치를 부여하여 전자 장치(100)의 초점을 결정하고 결정된 전자 장치의 초점에 기초하여 보정된 투사 이미지를 투사면(10)에 출력할 수 있다.Meanwhile, the processor 114 identifies a distance sensor corresponding to a smaller distance between the fourth distance d4 and the fifth distance d5, and assigns a higher weight to sensing data obtained from the identified distance sensor, so that the electronic device A focal point of 100 may be determined and a corrected projection image based on the determined focal point of the electronic device may be output to the projection surface 10 .
이와 관련된 구체적인 동작은 도 36 내지 도 37에 기재한다.Specific operations related to this are described in FIGS. 36 and 37 .
한편, 프로젝션부(111)는 프로젝션 렌즈(110)를 포함하고, 프로세서(114)는 프로젝션 렌즈(110)에 대하여 렌즈 시프트(lens shift) 기능을 수행하는 경우, 렌즈 시프트 기능에 대응되는 이동 정보에 기초하여 제2 센서부(113-2)를 이동시킬 수 있다.Meanwhile, when the projection unit 111 includes the projection lens 110 and the processor 114 performs a lens shift function with respect to the projection lens 110, movement information corresponding to the lens shift function Based on this, the second sensor unit 113-2 can be moved.
여기서, 렌즈 시프트 기능은 프로젝션 렌즈(110)의 이미지 투사 방향을 변경(또는 시프팅)하는 기능을 나타낼 수 있다. 여기서, 이동 정보는 이미지 투사 방향이 변경되는데 이용되는 좌표 정보 또는 방향 정보 중 적어도 하나를 포함할 수 있다. Here, the lens shift function may indicate a function of changing (or shifting) an image projection direction of the projection lens 110 . Here, the movement information may include at least one of coordinate information and direction information used to change the projection direction of the image.
여기서, 좌표 정보는 3차원(또는 2차원) 공간에서 절대적인 좌표를 포함할 수 있다. 프로세서(114)는 좌표 정보에 기초하여 프로젝션 렌즈(110)를 이동시킬 수 있다. 또한, 프로세서(114)는 좌표 정보에 기초하여 프로젝션 렌즈(110)의 투사 방향을 변경할 수 있다. Here, the coordinate information may include absolute coordinates in a 3-dimensional (or 2-dimensional) space. The processor 114 may move the projection lens 110 based on the coordinate information. Also, the processor 114 may change the projection direction of the projection lens 110 based on the coordinate information.
여기서, 방향 정보는 상,하,좌,우로 이동하는 거리값을 포함할 수 있다. 프로세서(114)는 방향 정보에 기초하여 프로젝션 렌즈(110)를 이동시킬 수 있다. 또한, 프로세서(114)는 방향 정보에 기초하여 프로젝션 렌즈(110)의 투사 방향을 변경할 수 있다.Here, the direction information may include a distance value moving up, down, left, or right. The processor 114 may move the projection lens 110 based on the direction information. Also, the processor 114 may change the projection direction of the projection lens 110 based on the direction information.
이와 관련된 구체적인 동작은 도 39 내지 도 40에 기재한다.Specific operations related to this are described in FIGS. 39 to 40 .
한편, 프로세서(114)는 제2 센서부(113-2)를 통해 전자 장치(100) 및 투사면(10) 사이의 투사 거리를 획득하고, 획득된 투사 거리에 기초하여 보정된 투사 이미지의 비율을 결정하고, 결정된 비율에 기초하여 보정된 투사 이미지를 투사면(10)에 출력하도록 프로젝션부(111)를 제어할 수 있다.Meanwhile, the processor 114 obtains the projection distance between the electronic device 100 and the projection surface 10 through the second sensor unit 113-2, and the ratio of the corrected projection image based on the acquired projection distance. may be determined, and the projection unit 111 may be controlled to output a corrected projection image to the projection surface 10 based on the determined ratio.
여기서, 투사 거리는 제1 거리 센서(113-2-1)와 투사면(10) 사이의 제1 거리(d1) 또는 제2 거리 센서(113-2-2)와 투사면(10) 사이의 제2 거리(d2) 중 적어도 하나에 기초하여 획득될 수 있다. Here, the projection distance is the first distance d1 between the first distance sensor 113-2-1 and the projection surface 10 or the distance between the second distance sensor 113-2-2 and the projection surface 10. It may be obtained based on at least one of the two distances d2.
일 실시 예에 따라, 프로세서(114)는 제1 거리(d1) 또는 제2 거리(d2) 중 하나의 값으로 투사 거리를 결정할 수 있다.According to an embodiment, the processor 114 may determine the projection distance as one of the first distance d1 and the second distance d2.
다른 실시 예에 따라, 프로세서(114)는 제1 거리(d1) 및 제2 거리(d2)를 모두 이용하여 투사 거리를 결정할 수 있다. 예를 들어, 프로세서(114)는 제1 거리(d1) 및 제2 거리(d2)의 평균값을 투사 거리를 결정할 수 있다.According to another embodiment, the processor 114 may determine the projection distance using both the first distance d1 and the second distance d2. For example, the processor 114 may determine the projection distance as an average value of the first distance d1 and the second distance d2.
이와 관련된 구체적인 동작은 도 27 내지 도 28에 기재한다.Specific operations related to this are described in FIGS. 27 to 28 .
한편, 다양한 실시 예에 따른 전자 장치(100)는 전자 장치(100)가 회전된 상태와 투사면(10)이 회전된 상태를 함께 고려하여 이미지 보정 동작을 수행할 수 있다. 따라서, 투사면(10)에 출력된 투사 이미지에 왜곡 또는 사용자가 불편함을 야기하는 회전이 존재하지 않는다. 따라서, 전자 장치(100)는 사용자가 직접 수동으로 이미지 보정 기능을 수행하는 상황을 최대한 줄일 수 있다.Meanwhile, the electronic device 100 according to various embodiments may perform an image correction operation in consideration of both the rotated state of the electronic device 100 and the rotated state of the projection surface 10 . Therefore, there is no distortion or rotation that causes user discomfort in the projected image output on the projection surface 10 . Accordingly, the electronic device 100 can minimize situations in which a user manually performs an image correction function.
도 3은 도 2의 전자 장치(100)의 구성을 구체적으로 도시한 블록도이다.FIG. 3 is a block diagram showing the configuration of the electronic device 100 of FIG. 2 in detail.
도 3을 참조하면, 전자 장치(100)는 프로젝션부(111), 메모리(112), 센서부(113), 프로세서(114), 유저 인터페이스(115), 입출력 인터페이스(116), 오디오 출력부(117), 전원부(118) 및 셔터부(120)를 포함할 수 있다. 한편, 도 3에 도시된 구성은 일 실시 예에 불과할 뿐, 일부 구성이 생략될 수 있으며, 새로운 구성이 추가될 수 있다.Referring to FIG. 3 , the electronic device 100 includes a projection unit 111, a memory 112, a sensor unit 113, a processor 114, a user interface 115, an input/output interface 116, an audio output unit ( 117), a power supply unit 118, and a shutter unit 120. Meanwhile, the configuration shown in FIG. 3 is merely an embodiment, and some configurations may be omitted and new configurations may be added.
한편, 도 2에서 이미 설명한 내용은 생략한다.Meanwhile, the contents already described in FIG. 2 are omitted.
프로젝션부(111)는 영상을 외부로 투사하는 구성이다. 본 개시의 일 실시 예에 따른, 프로젝션부(111)는 다양한 투사 방식(예를 들어, CRT(cathode-ray tube) 방식, LCD(Liquid Crystal Display) 방식, DLP(Digital Light Processing) 방식, 레이저 방식 등)으로 구현될 수 있다. 일 예로, CRT 방식은 기본적으로 CRT 모니터와 원리가 동일하다. CRT 방식은 브라운관(CRT) 앞의 렌즈로 상을 확대시켜서 스크린에 이미지를 표시한다. 브라운관의 개수에 따라 1관식과 3관식으로 나뉘며, 3관식의 경우 Red, Green, Blue의 브라운관이 따로 분리되어 구현될 수 있다.The projection unit 111 is a component that projects an image to the outside. According to an embodiment of the present disclosure, the projection unit 111 may use various projection methods (eg, a cathode-ray tube (CRT) method, a liquid crystal display (LCD) method, a digital light processing (DLP) method, and a laser method). etc.) can be implemented. As an example, the principle of the CRT method is basically the same as that of a CRT monitor. The CRT method enlarges the image with a lens in front of the cathode ray tube (CRT) and displays the image on the screen. Depending on the number of cathode ray tubes, it is divided into a 1-tube type and a 3-tube type, and in the case of a 3-tube type, red, green, and blue cathode ray tubes can be separately implemented.
다른 예로, LCD 방식은 광원에서 나온 빛을 액정에 투과시켜 이미지를 표시하는 방식이다. LCD 방식은 단판식과 3판식으로 나뉘며, 3판식의 경우 광원에서 나온 빛이 다이크로익 미러(특정 색의 빛만 반사하고 나머지는 통과시키는 거울)에서 Red, Green, Blue로 분리된 뒤 액정을 투과한 후 다시 한 곳으로 빛이 모일 수 있다.As another example, the LCD method is a method of displaying an image by transmitting light from a light source through a liquid crystal. The LCD method is divided into a single-panel type and a three-panel type. In the case of the three-panel type, the light from the light source is separated into red, green, and blue by a dichroic mirror (a mirror that reflects only light of a specific color and passes the rest) and transmits the liquid crystal. After that, the light can gather in one place again.
또 다른 예로, DLP 방식은 DMD(Digital Micromirror Device) 칩을 이용하여 이미지를 표시하는 방식이다. DLP 방식의 프로젝션부는 광원, 컬러 휠, DMD 칩, 프로젝션 렌즈 등을 포함할 수 있다. 광원에서 출력된 빛은 회전하는 컬러 휠을 통과하면서 색을 띌 수 있다. 컬러 휠을 통화한 빛은 DMD 칩으로 입력된다. DMD 칩은 수많은 미세 거울을 포함하고, DMD 칩에 입력된 빛을 반사시킨다. 프로젝션 렌즈는 DMD 칩에서 반사된 빛을 영상 크기로 확대시키는 역할을 수행할 수 있다.As another example, the DLP method is a method of displaying an image using a DMD (Digital Micromirror Device) chip. The projection unit of the DLP method may include a light source, a color wheel, a DMD chip, a projection lens, and the like. Light output from a light source may exhibit a color while passing through a rotating color wheel. The light that passed through the color wheel is input to the DMD chip. The DMD chip includes numerous micromirrors and reflects light input to the DMD chip. The projection lens may play a role of enlarging light reflected from the DMD chip to an image size.
또 다른 예로, 레이저 방식은 DPSS(Diode Pumped Solid State) 레이저와 검류계를 포함한다. 다양한 색상을 출력하는 레이저는 DPSS 레이저를 RGB 색상별로 3개를 설치한 후 특수 거울을 이용하여 광축을 중첩한 레이저를 이용한다. 검류계는 거울과 높은 출력의 모터를 포함하여 빠른 속도로 거울을 움직인다. 예를 들어, 검류계는 최대 40 KHz/sec로 거울을 회전시킬 수 있다. 검류계는 스캔 방향에 따라 마운트되는데 일반적으로 프로젝터는 평면 주사를 하므로 검류계도 x, y축으로 나뉘어 배치될 수 있다.As another example, the laser method includes a diode pumped solid state (DPSS) laser and a galvanometer. For lasers that output various colors, three DPSS lasers are installed for each RGB color, and then lasers with optical axes overlapped using special mirrors are used. The galvanometer includes a mirror and a high power motor to move the mirror at high speed. For example, a galvanometer can rotate a mirror at up to 40 KHz/sec. The galvanometer is mounted according to the scanning direction. In general, since the projector scans in a plane, the galvanometer can also be arranged separately in the x and y axes.
한편, 프로젝션부(111)는 다양한 유형의 광원을 포함할 수 있다. 예를 들어, 프로젝션부(111)는 램프, LED, 레이저 중 적어도 하나의 광원을 포함할 수 있다.Meanwhile, the projection unit 111 may include various types of light sources. For example, the projection unit 111 may include at least one light source among a lamp, LED, and laser.
프로젝션부(111)는 전자 장치(100)의 용도 또는 사용자의 설정 등에 따라 4:3 화면비, 5:4 화면비, 16:9 와이드 화면비로 이미지를 출력할 수 있고, 화면비에 따라 WVGA(854*480), SVGA(800*600), XGA(1024*768), WXGA(1280*720), WXGA(1280*800), SXGA(1280*1024), UXGA(1600*1200), Full HD(1920*1080) 등의 다양한 해상도로 이미지를 출력할 수 있다.The projection unit 111 may output an image in a 4:3 aspect ratio, a 5:4 aspect ratio, or a 16:9 wide aspect ratio according to the purpose of the electronic device 100 or the user's settings, and may output an image in a WVGA (854*480) aspect ratio depending on the aspect ratio. ), SVGA(800*600), XGA(1024*768), WXGA(1280*720), WXGA(1280*800), SXGA(1280*1024), UXGA(1600*1200), Full HD(1920*1080) ), etc., can output images at various resolutions.
한편, 프로젝션부(111)는 프로세서(114)의 제어에 의해 출력 이미지를 조절하기 위한 다양한 기능을 수행할 수 있다. 예를 들어, 프로젝션부(111)는 줌, 키스톤, 퀵코너(4코너)키스톤, 렌즈 시프트 등의 기능을 수행할 수 있다.Meanwhile, the projection unit 111 may perform various functions for adjusting an output image under the control of the processor 114 . For example, the projection unit 111 may perform functions such as zoom, keystone, quick corner (4 corner) keystone, and lens shift.
구체적으로, 프로젝션부(111)는 스크린과의 거리(투사거리)에 따라 이미지를 확대하거나 축소할 수 있다. 즉, 스크린과의 거리에 따라 줌 기능이 수행될 수 있다. 이때, 줌 기능은 렌즈를 이동시켜 화면의 크기를 조절하는 하드웨어 방식과 이미지를 크롭(crop) 등으로 화면의 크기를 조절하는 소프트웨어 방식을 포함할 수 있다. 한편, 줌 기능이 수행되면, 이미지의 초점의 조절이 필요하다. 예를 들어, 초점을 조절하는 방식은 수동 포커스 방식, 전동 방식 등을 포함한다. 수동 포커스 방식은 수동으로 초점을 맞추는 방식을 의미하고, 전동 방식은 줌 기능이 수행되면 프로젝터가 내장된 모터를 이용하여 자동으로 초점을 맞추는 방식을 의미한다. 줌기능을 수행할 때, 프로젝션부(111)는 소프트웨어를 통한 디지털 줌 기능을 제공할 수 있으며, 구동부를 통해 렌즈를 이동하여 줌 기능을 수행하는 광학 줌 기능을 제공할 수 있다.Specifically, the projection unit 111 may enlarge or reduce the image according to the distance from the screen (projection distance). That is, a zoom function may be performed according to the distance from the screen. In this case, the zoom function may include a hardware method of adjusting the screen size by moving a lens and a software method of adjusting the screen size by cropping an image. Meanwhile, when the zoom function is performed, the focus of the image needs to be adjusted. For example, methods for adjusting the focus include a manual focus method and a motorized method. The manual focus method refers to a method of manually focusing, and the motorized method refers to a method of automatically focusing using a motor built into the projector when a zoom function is performed. When performing the zoom function, the projection unit 111 may provide a digital zoom function through software, and may provide an optical zoom function that performs a zoom function by moving a lens through a driving unit.
또한, 프로젝션부(111)는 키스톤 보정 기능을 수행할 수 있다. 정면 투사에 높이가 안 맞으면 위 혹은 아래로 화면이 왜곡될 수 있다. 키스톤 보정 기능은 왜곡된 화면을 보정하는 기능을 의미한다. 예를 들어, 화면의 좌우 방향으로 왜곡이 발생되면 수평 키스톤을 이용하여 보정할 수 있고, 상하 방향으로 왜곡이 발생되면 수직 키스톤을 이용하여 보정할 수 있다. 퀵코너(4코너)키스톤 보정 기능은 화면의 중앙 영역은 정상이지만 모서리 영역의 균형이 맞지 않은 경우 화면을 보정하는 기능이다. 렌즈 시프트 기능은 화면이 스크린을 벗어난 경우 화면을 그대로 옮겨주는 기능이다.Also, the projection unit 111 may perform a keystone correction function. If the height is not right for the front projection, the screen may be distorted up or down. The keystone correction function means a function of correcting a distorted screen. For example, if distortion occurs in the left and right directions of the screen, it can be corrected using the horizontal keystone, and if distortion occurs in the vertical direction, it can be corrected using the vertical keystone. The quick corner (4 corner) keystone correction function corrects the screen when the central area of the screen is normal but the corner area is out of balance. The lens shift function is a function that moves the screen as it is when the screen is out of the screen.
한편, 프로젝션부(111)는 사용자 입력없이 자동으로 주변 환경 및 프로젝션 환경을 분석하여 줌/키스톤/포커스 기능을 제공할 수 있다. 구체적으로, 프로젝션부(111)는 센서(뎁스 카메라, 거리 센서, 적외선 센서, 조도 센서 등)를 통해 감지된 전자 장치(100)와 스크린과의 거리, 현재 전자 장치(100)가 위치하는 공간에 대한 정보, 주변 광량에 대한 정보 등을 바탕으로 줌/키스톤/포커스 기능을 자동으로 제공할 수 있다.Meanwhile, the projection unit 111 may provide zoom/keystone/focus functions by automatically analyzing the surrounding environment and the projection environment without user input. Specifically, the projection unit 111 determines the distance between the electronic device 100 and the screen detected through sensors (depth camera, distance sensor, infrared sensor, illuminance sensor, etc.) and the space where the electronic device 100 is currently located. Zoom/Keystone/Focus functions can be automatically provided based on information about the image and the amount of ambient light.
또한, 프로젝션부(111)는 광원을 이용하여 조명 기능을 제공할 수 있다. 특히, 프로젝션부(111)는 LED를 이용하여 광원을 출력함으로써 조명 기능을 제공할 수 있다. 일 실시 예에 따라 프로젝션부(111)는 하나의 LED를 포함할 수 있으며, 다른 실시 예에 따라 전자 장치는 복수의 LED를 포함할 수 있다. 한편, 프로젝션부(111)는 구현 예에 따라 면발광 LED를 이용하여 광원을 출력할 수 있다. 여기서, 면발광 LED는 광원이 고르게 분산하여 출력되도록 LED의 상측에 광학 시트가 배치되는 구조를 갖는 LED를 의미할 수 있다. 구체적으로, LED를 통해 광원이 출력되면 광원이 광학 시트를 거쳐 고르게 분산될 수 있고, 광학 시트를 통해 분산된 광원은 디스플레이 패널로 입사될 수 있다.Also, the projection unit 111 may provide a lighting function using a light source. In particular, the projection unit 111 may provide a lighting function by outputting a light source using LEDs. According to one embodiment, the projection unit 111 may include one LED, and according to another embodiment, the electronic device may include a plurality of LEDs. Meanwhile, the projection unit 111 may output a light source using a surface-emitting LED according to an implementation example. Here, the surface-emitting LED may refer to an LED having a structure in which an optical sheet is disposed above the LED so that light sources are uniformly distributed and output. Specifically, when the light source is output through the LED, the light source may be evenly dispersed through the optical sheet, and the light source dispersed through the optical sheet may be incident to the display panel.
한편, 프로젝션부(111)는 광원의 세기를 조절하기 위한 디밍 기능을 사용자에게 제공할 수 있다. 구체적으로, 유저 인터페이스(115)(예를 들어, 터치 디스플레이 버튼 또는 다이얼)를 통해 사용자로부터 광원의 세기를 조절하기 위한 사용자 입력이 수신되면, 프로젝션부(111)는 수신된 사용자 입력에 대응되는 광원의 세기를 출력하도록 LED를 제어할 수 있다.Meanwhile, the projection unit 111 may provide a user with a dimming function for adjusting the intensity of the light source. Specifically, when a user input for adjusting the intensity of a light source is received from a user through the user interface 115 (eg, a touch display button or a dial), the projection unit 111 displays a light source corresponding to the received user input. It is possible to control the LED to output the intensity of.
또한, 프로젝션부(111)는 사용자 입력 없이 프로세서(114)에 의해 분석된 컨텐츠를 바탕으로 디밍 기능을 제공할 수 있다. 구체적으로, 프로젝션부(111)는 현재 제공되는 컨텐츠에 대한 정보(예를 들어, 컨텐츠 유형, 컨텐츠 밝기 등)를 바탕으로 광원의 세기를 출력하도록 LED를 제어할 수 있다.Also, the projection unit 111 may provide a dimming function based on the content analyzed by the processor 114 without user input. In detail, the projection unit 111 may control the LED to output the intensity of the light source based on information about currently provided content (eg, content type, content brightness, etc.).
한편, 프로젝션부(111)는 프로세서(114)의 제어에 의해 색온도를 제어할 수 있다. 여기서, 프로세서(114)는 컨텐츠에 기초하여 색온도를 제어할 수 있다. 구체적으로, 컨텐츠가 출력되기로 식별되면, 프로세서(114)는 출력이 결정된 컨텐츠의 프레임별 색상 정보를 획득할 수 있다. 그리고, 프로세서(114)는 획득된 프레임별 색상 정보에 기초하여 색온도를 제어할 수 있다. 여기서, 프로세서(114)는 프레임별 색상 정보에 기초하여 프레임의 주요 색상을 적어도 하나 이상 획득할 수 있다. 그리고, 프로세서(114)는 획득된 적어도 하나 이상의 주요 색상에 기초하여 색온도를 조절할 수 있다. 예를 들어, 프로세서(114)가 조절할 수 있는 색온도는 웜 타입(warm type) 또는 콜드 타입(cold type)으로 구분될 수 있다. 여기서, 출력될 프레임(이하 출력 프레임)이 화재가 일어난 장면을 포함하고 있다고 가정한다. 프로세서(114)는 현재 출력 프레임에 포함된 색상 정보에 기초하여 주요 색상이 적색이라고 식별(또는 획득)할 수 있다. 그리고, 프로세서(114)는 식별된 주요 색상(적색)에 대응되는 색온도를 식별할 수 있다. 여기서, 적색에 대응되는 색온도는 웜 타입일 수 있다. 한편, 프로세서(114)는 프레임의 색상 정보 또는 주용 색상을 획득하기 위하여 인공 지능 모델을 이용할 수 있다. 일 실시 예에 따라, 인공 지능 모델은 전자 장치(100)(예를 들어, 메모리(112))에 저장될 수 있다. 다른 실시 예에 따라, 인공 지능 모델은 전자 장치(100)와 통신 가능한 외부 서버에 저장될 수 있다.Meanwhile, the projection unit 111 may control the color temperature under the control of the processor 114 . Here, the processor 114 may control the color temperature based on content. Specifically, if the content is identified as being output, the processor 114 may obtain color information for each frame of the content for which output is determined. Also, the processor 114 may control the color temperature based on the obtained color information for each frame. Here, the processor 114 may obtain at least one main color of a frame based on color information for each frame. Also, the processor 114 may adjust the color temperature based on the obtained at least one primary color. For example, the color temperature controllable by the processor 114 may be classified into a warm type or a cold type. Here, it is assumed that a frame to be output (hereinafter referred to as an output frame) includes a scene in which a fire has occurred. The processor 114 may identify (or obtain) that the main color is red based on the color information included in the current output frame. Also, the processor 114 may identify a color temperature corresponding to the identified main color (red). Here, the color temperature corresponding to red may be a warm type. Meanwhile, the processor 114 may use an artificial intelligence model to obtain color information or a primary color of a frame. According to an embodiment, the artificial intelligence model may be stored in the electronic device 100 (eg, the memory 112). According to another embodiment, the artificial intelligence model may be stored in an external server communicable with the electronic device 100 .
한편, 전자 장치(100)는 외부 기기와 연동하여 조명 기능을 제어할 수 있다. 구체적으로, 전자 장치(100)는 외부 기기로부터 조명 정보를 수신할 수 있다. 여기서, 조명 정보는 외부 기기에서 설정된 밝기 정보 또는 색온도 정보 중 적어도 하나를 포함할 수 있다. 여기서, 외부 기기는 전자 장치(100)와 동일한 네트워크에 연결된 기기(예를 들어, 동일한 홈/회사 네트워크에 포함된 IoT 기기) 또는 전자 장치(100)와 동일한 네트워크는 아니지만 전자 장치와 통신 가능한 기기(예를 들어, 원격 제어 서버)를 의미할 수 있다. 예를 들어, 전자 장치(100)와 동일한 네트워크에 포함된 외부 조명 기기(IoT 기기)가 붉은색 조명을 50의 밝기로 출력하고 있다고 가정한다. 외부 조명 기기(IoT 기기)는 조명 정보(예를 들어, 붉은색 조명을 50의 밝기로 출력하고 있음을 나타내는 정보)를 전자 장치(100)에 직접적으로 또는 간접적으로 전송할 수 있다. 여기서, 전자 장치(100)는 외부 조명 기기로부터 수신된 조명 정보에 기초하여 광원의 출력을 제어할 수 있다. 예를 들어, 외부 조명 기기로부터 수신된 조명 정보가 붉은색 조명을 50의 밝기로 출력하는 정보를 포함하면, 전자 장치(100)는 붉은색 조명을 50의 밝기로 출력할 수 있다.Meanwhile, the electronic device 100 may control a lighting function in conjunction with an external device. Specifically, the electronic device 100 may receive lighting information from an external device. Here, the lighting information may include at least one of brightness information and color temperature information set by an external device. Here, the external device is a device connected to the same network as the electronic device 100 (eg, an IoT device included in the same home/work network) or a device that is not on the same network as the electronic device 100 but can communicate with the electronic device ( For example, a remote control server). For example, it is assumed that an external lighting device (IoT device) included in the same network as the electronic device 100 outputs red light with a brightness of 50. The external lighting device (IoT device) may directly or indirectly transmit lighting information (eg, information indicating that red light is output with a brightness of 50) to the electronic device 100 . Here, the electronic device 100 may control the output of the light source based on lighting information received from an external lighting device. For example, when lighting information received from an external lighting device includes information for outputting red light with a brightness of 50, the electronic device 100 may output red light with a brightness of 50.
한편, 전자 장치(100)는 생체 정보에 기초하여 조명 기능을 제어할 수 있다. 구체적으로, 프로세서(114)는 사용자의 생체 정보를 획득할 수 있다. 여기서, 생체 정보는, 사용자의 체온, 심장 박동 수, 혈압, 호흡, 심전도 중 적어도 하나를 포함할 수 있다. 여기서, 생체 정보는 상술한 정보 이외에 다양한 정보가 포함될 수 있다. 일 예로, 전자 장치는 생체 정보를 측정하기 위한 센서를 포함할 수 있다. 프로세서(114)는 센서를 통해 사용자의 생체 정보를 획득할 수 있고, 획득된 생체 정보에 기초하여 광원의 출력을 제어할 수 있다. 다른 예로, 프로세서(114)는 입출력 인터페이스(116)를 통해 생체 정보를 외부 기기로부터 수신할 수 있다. 여기서, 외부 기기는 사용자의 휴대용 통신 기기(예를 들어, 스마트폰 또는 웨어러블 디바이스)를 의미할 수 있다. 프로세서(114)는 외부 기기로부터 사용자의 생체 정보를 획득할 수 있고, 획득된 생체 정보에 기초하여 광원의 출력을 제어할 수 있다. 한편, 구현 예에 따라, 전자 장치는 사용자가 수면하고 있는지 여부를 식별할 수 있고, 사용자가 수면 중(또는 수면 준비 중)인 것으로 식별되면 프로세서(114)는 사용자의 생체 정보에 기초하여 광원의 출력을 제어할 수 있다.Meanwhile, the electronic device 100 may control a lighting function based on biometric information. Specifically, the processor 114 may obtain user's biometric information. Here, the biometric information may include at least one of the user's body temperature, heart rate, blood pressure, respiration, and electrocardiogram. Here, the biometric information may include various types of information in addition to the information described above. For example, an electronic device may include a sensor for measuring biometric information. The processor 114 may obtain user's biometric information through a sensor and control the output of the light source based on the obtained biometric information. As another example, the processor 114 may receive biometric information from an external device through the input/output interface 116 . Here, the external device may refer to a user's portable communication device (eg, a smart phone or a wearable device). The processor 114 may obtain user's biometric information from an external device and control the output of the light source based on the obtained biometric information. Meanwhile, according to an implementation example, the electronic device may identify whether the user is sleeping, and if the user is identified as sleeping (or preparing for sleep), the processor 114 determines the light source based on the user's biometric information. You can control the output.
메모리(112)는 전자 장치(100)에 관한 적어도 하나의 명령이 저장될 수 있다. 그리고, 메모리(112)에는 전자 장치(100)를 구동시키기 위한 O/S(Operating System)가 저장될 수 있다. 또한, 메모리(112)에는 본 개시의 다양한 실시 예들에 따라 전자 장치(100)가 동작하기 위한 각종 소프트웨어 프로그램이나 애플리케이션이 저장될 수도 있다. 그리고, 메모리(112)는 플래시 메모리 (Flash Memory) 등과 같은 반도체 메모리나 하드디스크(Hard Disk) 등과 같은 자기 저장 매체 등을 포함할 수 있다.The memory 112 may store at least one command related to the electronic device 100 . Also, an operating system (O/S) for driving the electronic device 100 may be stored in the memory 112 . Also, various software programs or applications for operating the electronic device 100 may be stored in the memory 112 according to various embodiments of the present disclosure. Also, the memory 112 may include a semiconductor memory such as a flash memory or a magnetic storage medium such as a hard disk.
구체적으로, 메모리(112)에는 본 개시의 다양한 실시 예에 따라 전자 장치(100)가 동작하기 위한 각종 소프트웨어 모듈이 저장될 수 있으며, 프로세서(114)는 메모리(112)에 저장된 각종 소프트웨어 모듈을 실행하여 전자 장치(100)의 동작을 제어할 수 있다. 즉, 메모리(112)는 프로세서(114)에 의해 액세스되며, 프로세서(114)에 의한 데이터의 독취/기록/수정/삭제/갱신 등이 수행될 수 있다.Specifically, various software modules for operating the electronic device 100 may be stored in the memory 112 according to various embodiments of the present disclosure, and the processor 114 executes various software modules stored in the memory 112. Thus, the operation of the electronic device 100 may be controlled. That is, the memory 112 is accessed by the processor 114, and data can be read/written/modified/deleted/updated by the processor 114.
한편, 본 개시에서 메모리(112)라는 용어는 메모리(112), 프로세서(114) 내 롬(미도시), 램(미도시) 또는 전자 장치(100)에 장착되는 메모리 카드(미도시)(예를 들어, micro SD 카드, 메모리 스틱)를 포함하는 의미로 사용될 수 있다.Meanwhile, in the present disclosure, the term memory 112 refers to a memory 112, a ROM (not shown) in the processor 114, a RAM (not shown), or a memory card (not shown) mounted in the electronic device 100 (eg For example, micro SD card, memory stick) may be used as a meaning including.
센서부(113)는 적어도 하나의 센서를 포함할 수 있다. 구체적으로, 센서부(113)는 전자 장치(100)의 기울기를 센싱하는 기울기 센서, 이미지를 촬상하는 이미지 센서 중 적어도 하나를 포함할 수 있다. 여기서, 기울기 센서는 가속도 센서, 자이로 센서일 수 있고, 이미지 센서는 카메라 또는 뎁스 카메라를 의미할 수 있다. 또한, 센서부(113)는 기울기 센서 또는 이미지 센서 이외에 댜앙한 센서를 포함할 수 있다. 예를 들어, 센서부(113)는 조도 센서, 거리 센서를 포함할 수 있다. 또한, 센서부(113)는 라이다 센서를 포함할 수 있다.The sensor unit 113 may include at least one sensor. Specifically, the sensor unit 113 may include at least one of a tilt sensor that senses the tilt of the electronic device 100 and an image sensor that captures an image. Here, the tilt sensor may be an acceleration sensor or a gyro sensor, and the image sensor may mean a camera or a depth camera. In addition, the sensor unit 113 may include various sensors other than a tilt sensor or an image sensor. For example, the sensor unit 113 may include an illuminance sensor and a distance sensor. In addition, the sensor unit 113 may include a lidar sensor.
유저 인터페이스(115)는 다양한 유형의 입력 장치를 포함할 수 있다. 예를 들어, 유저 인터페이스(115)는 물리적 버튼을 포함할 수 있다. 이때, 물리적 버튼은 기능키(function key), 방향키(예를 들어, 4방향 키) 또는 다이얼 버튼(dial button)을 포함할 수 있다. 일 실시 예에 따라, 물리적 버튼은 복수의 키로 구현될 수 있다. 다른 실시 예에 따라, 물리적 버튼은 하나의 키(one key)로 구현될 수 있다. 여기서, 물리적 버튼이 하나의 키로 구현되는 경우, 전자 장치(100)는 하나의 키가 임계 시간 이상 눌려지는 사용자 입력을 수신할 수 있다. 하나의 키가 임계 시간 이상 눌려지는 사용자 입력이 수신되면, 프로세서(114)는 사용자 입력에 대응되는 기능을 수행할 수 있다. 예를 들어, 프로세서(114)는 사용자 입력에 기초하여 조명 기능을 제공할 수 있다. User interface 115 may include various types of input devices. For example, user interface 115 may include physical buttons. In this case, the physical button may include a function key, a direction key (eg, a 4-direction key), or a dial button. According to one embodiment, the physical button may be implemented as a plurality of keys. According to another embodiment, the physical button may be implemented as one key. Here, when the physical button is implemented as one key, the electronic device 100 may receive a user input in which one key is pressed for a critical period of time or longer. When a user input in which one key is pressed for a critical period of time or more is received, the processor 114 may perform a function corresponding to the user input. For example, processor 114 may provide a lighting function based on user input.
또한, 유저 인터페이스(115)는 비접촉 방식을 이용하여 사용자 입력을 수신할 수 있다. 접촉 방식을 통해서 사용자 입력을 수신하는 경우 물리적인 힘이 전자 장치에 전달되어야 한다. 따라서, 물리적인 힘에 관계없이 전자 장치를 제어하기 위한 방식이 필요할 수 있다. 구체적으로, 유저 인터페이스(115)는 사용자 제스쳐를 수신할 수 있고, 수신된 사용자 제스쳐에 대응되는 동작을 수행할 수 있다. 여기서, 유저 인터페이스(115)는 센서(예를 들어, 이미지 센서 또는 적외선 센서)를 통해 사용자의 제스쳐를 수신할 수 있다.Also, the user interface 115 may receive a user input using a non-contact method. When a user input is received through a contact method, physical force must be transmitted to the electronic device. Therefore, a method for controlling the electronic device regardless of physical force may be required. Specifically, the user interface 115 may receive a user gesture and perform an operation corresponding to the received user gesture. Here, the user interface 115 may receive a user's gesture through a sensor (eg, an image sensor or an infrared sensor).
또한, 유저 인터페이스(115)는 터치 방식을 이용하여 사용자 입력을 수신할 수 있다. 예를 들어, 유저 인터페이스(115)는 터치 센서를 통해 사용자 입력을 수신할 수 있다. 일 실시 예에 따라, 터치 방식은 비접촉 방식으로 구현될 수 있다. 예를 들어, 터치 센서는 임계 거리 이내로 사용자 신체가 접근했는지 여부를 판단할 수 있다. 여기서, 터치 센서는 사용자가 터치 센서를 접촉하지 않는 경우에도 사용자 입력을 식별할 수 있다. 한편, 다른 구현 예에 따라, 터치 센서는 사용자가 터치 센서를 접촉하는 사용자 입력을 식별할 수 있다.Also, the user interface 115 may receive a user input using a touch method. For example, the user interface 115 may receive a user input through a touch sensor. According to an embodiment, the touch method may be implemented as a non-contact method. For example, the touch sensor may determine whether the user's body has approached within a critical distance. Here, the touch sensor may identify a user input even when the user does not contact the touch sensor. Meanwhile, according to another implementation example, the touch sensor may identify a user input in which a user contacts the touch sensor.
한편, 전자 장치(100)는 상술한 유저 인터페이스 외에 다양한 방법으로 사용자 입력을 수신할 수 있다. 일 실시 예로, 전자 장치(100)는 외부 원격 제어 장치를 통해 사용자 입력을 수신할 수 있다. 여기서, 외부 원격 제어 장치는 전자 장치(100)에 대응되는 원격 제어 장치(예를 들어, 전자 장치 전용 제어 기기) 또는 사용자의 휴대용 통신 기기(예를 들어, 스마트폰 또는 웨어러블 디바이스)일 수 있다. 여기서, 사용자의 휴대용 통신 기기는 전자 장치를 제어하기 위한 어플리케이션이 저장될 수 있다. 휴대용 통신 기기는 저장된 어플리케이션을 통해 사용자 입력을 획득하고, 획득된 사용자 입력을 전자 장치(100)에 전송할 수 있다. 전자 장치(100)는 휴대용 통신 기기로부터 사용자 입력을 수신하여 사용자의 제어 명령에 대응되는 동작을 수행할 수 있다.Meanwhile, the electronic device 100 may receive user input in various ways other than the above-described user interface. As an example, the electronic device 100 may receive a user input through an external remote control device. Here, the external remote control device may be a remote control device corresponding to the electronic device 100 (eg, an electronic device-specific control device) or a user's portable communication device (eg, a smartphone or a wearable device). Here, the user's portable communication device may store an application for controlling the electronic device. The portable communication device may obtain a user input through a stored application and transmit the acquired user input to the electronic device 100 . The electronic device 100 may receive a user input from a portable communication device and perform an operation corresponding to a user's control command.
한편, 전자 장치(100)는 음성 인식을 이용하여 사용자 입력을 수신할 수 있다. 일 실시 예에 따라, 전자 장치(100)는 전자 장치에 포함된 마이크를 통해 사용자 음성을 수신할 수 있다. 다른 실시 예에 따라, 전자 장치(100)는 마이크 또는 외부 장치로부터 사용자 음성을 수신할 수 있다. 구체적으로, 외부 장치는 외부 장치의 마이크를 통해 사용자 음성을 획득할 수 있고, 획득된 사용자 음성을 전자 장치(100)에 전송할 수 있다. 외부 장치로부터 전송되는 사용자 음성은 오디오 데이터 또는 오디오 데이터가 변환된 디지털 데이터(예를 들어, 주파수 도메인으로 변환된 오디오 데이터 등)일 수 있다. 여기서, 전자 장치(100)는 수신된 사용자 음성에 대응되는 동작을 수행할 수 있다. 구체적으로, 전자 장치(100)는 마이크를 통해 사용자 음성에 대응되는 오디오 데이터를 수신할 수 있다. 그리고, 전자 장치(100)는 수신된 오디오 데이터를 디지털 데이터로 변환할 수 있다. 그리고, 전자 장치(100)는 STT(Speech To Text) 기능을 이용하여 변환된 디지털 데이터를 텍스트 데이터로 변환할 수 있다. 일 실시 예에 따라, STT(Speech To Text) 기능은 전자 장치(100)에서 직접 수행될 수 있으며,Meanwhile, the electronic device 100 may receive a user input using voice recognition. According to an embodiment, the electronic device 100 may receive a user's voice through a microphone included in the electronic device. According to another embodiment, the electronic device 100 may receive a user's voice from a microphone or an external device. Specifically, the external device may acquire a user voice through a microphone of the external device and transmit the obtained user voice to the electronic device 100 . The user's voice transmitted from the external device may be audio data or digital data obtained by converting the audio data (eg, audio data converted into a frequency domain). Here, the electronic device 100 may perform an operation corresponding to the received user voice. Specifically, the electronic device 100 may receive audio data corresponding to a user's voice through a microphone. And, the electronic device 100 may convert the received audio data into digital data. In addition, the electronic device 100 may convert the converted digital data into text data using a speech to text (STT) function. According to an embodiment, the STT (Speech To Text) function may be performed directly in the electronic device 100,
다른 실시 예에 따라, STT(Speech To Text) 기능은 외부 서버에서 수행될 수 있다. 전자 장치(100)는 디지털 데이터를 외부 서버로 전송할 수 있다. 외부 서버는 디지털 데이터를 텍스트 데이터로 변환하고, 변환된 텍스트 데이터를 바탕으로 제어 명령 데이터를 획득할 수 있다. 외부 서버는 제어 명령 데이터(이때, 텍스트 데이터도 포함될 수 있음.)를 전자 장치(100)에 전송할 수 있다. 전자 장치(100)는 획득된 제어 명령 데이터를 바탕으로 사용자 음성에 대응되는 동작을 수행할 수 있다.According to another embodiment, a speech to text (STT) function may be performed in an external server. The electronic device 100 may transmit digital data to an external server. The external server may convert digital data into text data and obtain control command data based on the converted text data. The external server may transmit control command data (this time, text data may also be included) to the electronic device 100 . The electronic device 100 may perform an operation corresponding to the user's voice based on the obtained control command data.
한편, 전자 장치(100)는 하나의 어시스턴스(또는 인공지능 비서, 예로, 빅스비TM 등)를 이용하여 음성 인식 기능을 제공할 수 있으나, 이는 일 실시 예에 불과할 뿐 복수의 어시스턴스를 통해 음성 인식 기능을 제공할 수 있다. 이때, 전자 장치(100)는 어시스턴스에 대응되는 트리거 워드 또는 리모컨에 존재하는 특정 키를 바탕으로 복수의 어시스턴스 중 하나를 선택하여 음성 인식 기능을 제공할 수 있다.Meanwhile, the electronic device 100 may provide a voice recognition function using one assistant (or artificial intelligence assistant, eg, Bixby™, etc.), but this is only an example and through a plurality of assistants. A voice recognition function may be provided. In this case, the electronic device 100 may provide a voice recognition function by selecting one of a plurality of assists based on a trigger word corresponding to the assist or a specific key present on the remote control.
한편, 전자 장치(100)는 스크린 인터렉션을 이용하여 사용자 입력을 수신할 수 있다. 스크린 인터렉션이란, 전자 장치가 스크린(또는 투사면)에 투사한 이미지를 통해 기 결정된 이벤트가 발생하는지 식별하고, 기 결정된 이벤트에 기초하여 사용자 입력을 획득하는 기능을 의미할 수 있다. 여기서, 기 결정된 이벤트는 특정 위치(예를 들어, 사용자 입력을 수신하기 위한 UI가 투사된 위치)에 특정 위치에 기 결정된 오브젝트가 식별되는 이벤트를 의미할 수 있다. 여기서, 기 결정된 오브젝트는 사용자의 신체 일부(예를 들어, 손가락), 지시봉 또는 레이저 포인트 중 적어도 하나를 포함할 수 있다. 전자 장치(100)는 투사된 UI에 대응되는 위치에 기 결정된 오브젝트가 식별되면, 투사된 UI를 선택하는 사용자 입력이 수신된 것으로 식별할 수 있다. 예를 들어, 전자 장치(100)는 스크린에 UI를 표시하도록 가이드 이미지를 투사할 수 있다. 그리고, 전자 장치(100)는 사용자가 투사된 UI를 선택하는지 여부를 식별할 수 있다. 구체적으로, 전자 장치(100)는 기 결정된 이벤트가 투사된 UI의 위치에서 식별되면, 사용자가 투사된 UI를 선택한 것으로 식별할 수 있다. 여기서, 투사되는 UI는 적어도 하나 이상의 항목(item)을 포함할 수 있다. 여기서, 전자 장치(100)는 기 결정된 이벤트가 투사된 UI의 위치에 있는지 여부를 식별하기 위하여 공간 분석을 수행할 수 있다. 여기서, 전자 장치(100)는 센서(예를 들어, 이미지 센서, 적외선 센서, 뎁스 카메라, 거리 센서 등)를 통해 공간 분석을 수행할 수 있다. 전자 장치(100)는 공간 분석을 수행함으로써 특정 위치(UI가 투사된 위치)에서 기 결정된 이벤트가 발생하는지 여부를 식별할 수 있다. 그리고, 특정 위치(UI가 투사된 위치)에서 기 결정된 이벤트가 발생되는 것으로 식별되면, 전자 장치(100)는 특정 위치에 대응되는 UI를 선택하기 위한 사용자 입력이 수신된 것으로 식별할 수 있다.Meanwhile, the electronic device 100 may receive a user input using screen interaction. Screen interaction may refer to a function of identifying whether a predetermined event occurs through an image projected on a screen (or a projection surface) by an electronic device and acquiring a user input based on the predetermined event. Here, the predetermined event may refer to an event in which a predetermined object is identified at a specific location (eg, a location where a UI for receiving a user input is projected). Here, the predetermined object may include at least one of a user's body part (eg, a finger), a pointing stick, and a laser point. When a predetermined object is identified at a location corresponding to the projected UI, the electronic device 100 may identify that a user input for selecting the projected UI has been received. For example, the electronic device 100 may project a guide image to display a UI on the screen. And, the electronic device 100 can identify whether the user selects the projected UI. Specifically, the electronic device 100 may identify that the user has selected the projected UI when a predetermined event is identified at the location of the projected UI. Here, the projected UI may include at least one or more items. Here, the electronic device 100 may perform spatial analysis to identify whether a predetermined event is located at the location of the projected UI. Here, the electronic device 100 may perform spatial analysis through a sensor (eg, an image sensor, an infrared sensor, a depth camera, a distance sensor, etc.). The electronic device 100 may identify whether a predetermined event occurs at a specific location (the location where the UI is projected) by performing spatial analysis. And, if it is identified that a predetermined event occurs at a specific location (the location where the UI is projected), the electronic device 100 may identify that a user input for selecting a UI corresponding to the specific location has been received.
입출력 인터페이스(116)는 오디오 신호 및 영상 신호 중 적어도 하나를 입출력 하기 위한 구성이다. 입출력 인터페이스(116)는 외부 장치로부터 오디오 및 영상 신호 중 적어도 하나를 입력 받을 수 있으며, 외부 장치로 제어 명령을 출력할 수 있다.The input/output interface 116 is a component for inputting/outputting at least one of an audio signal and a video signal. The input/output interface 116 may receive at least one of audio and video signals from an external device and output a control command to the external device.
한편, 본 개시의 일 실시 예에 입출력 인터페이스(116)는 HDMI(High Definition Multimedia Interface), MHL (Mobile High- Definition Link), USB (Universal Serial Bus), USB C-type, DP(Display Port), 썬더볼트 (Thunderbolt), VGA(Video Graphics Array)포트, RGB 포트, D-SUB(Dsubminiature) 및 DVI(Digital Visual Interface) 중 적어도 하나 이상의 유선 입출력 인터페이스로 구현될 수 있다. 일 실시 예에 따라, 유선 입출력 인터페이스는 오디오 신호만을 입출력하는 인터페이스와 영상 신호만을 입출력하는 인터페이스로 구현되거나, 오디오 신호 및 영상 신호를 모두 입출력하는 하나의 인터페이스로 구현될 수 있다.Meanwhile, in an embodiment of the present disclosure, the input/output interface 116 includes HDMI (High Definition Multimedia Interface), MHL (Mobile High-Definition Link), USB (Universal Serial Bus), USB C-type, DP (Display Port), Thunderbolt, VGA (Video Graphics Array) port, RGB port, D-SUB (Dsubminiature) and DVI (Digital Visual Interface) may be implemented as at least one wired input/output interface. According to an embodiment, the wired input/output interface may be implemented as an interface for inputting/outputting only audio signals and an interface for inputting/outputting only video signals, or may be implemented as one interface for inputting/outputting both audio and video signals.
또한, 전자 장치(100)는 유선 입출력 인터페이스를 통해 데이터를 수신할 수 있으나, 이는 일 실시 예에 불과할 뿐, 유선 입출력 인터페이스를 통해 전력을 공급받을 수 있다. 예를 들어, 전자 장치(100)는 USB C-type을 통해 외부 배터리에서 전력을 공급받거나 전원 어뎁터를 통해 콘센트에서 전력을 공급받을 수 있다. 또 다른 예로, 전자 장치는 DP를 통해 외부 장치(예를 들어, 노트북이나 모니터 등)로부터 전력을 공급받을 수 있다.In addition, the electronic device 100 may receive data through a wired input/output interface, but this is merely an example, and power may be supplied through the wired input/output interface. For example, the electronic device 100 may receive power from an external battery through USB C-type or from an outlet through a power adapter. As another example, an electronic device may receive power from an external device (eg, a laptop computer or a monitor) through a DP.
한편, 본 개시의 일 실시 예에 입출력 인터페이스(116)는 Wi-Fi, Wi-Fi 다이렉트, 블루투스, 지그비, 3G(3rd Generation), 3GPP(3rd Generation Partnership Project) 및 LTE(Long Term Evolution)의 통신 방식 중 적어도 하나 이상의 통신 방식으로 통신을 수행하는 무선 입출력 인터페이스로 구현될 수 있다. 구현 예에 따라, 무선 입출력 인터페이스는 오디오 신호만을 입출력하는 인터페이스와 영상 신호만을 입출력하는 인터페이스로 구현되거나, 오디오 신호 및 영상 신호를 모두 입출력하는 하나의 인터페이스로 구현될 수 있다.Meanwhile, in an embodiment of the present disclosure, the input/output interface 116 is Wi-Fi, Wi-Fi Direct, Bluetooth, Zigbee, 3rd Generation (3G), 3rd Generation Partnership Project (3GPP), and Long Term Evolution (LTE) communication It may be implemented as a wireless input/output interface that performs communication using at least one of the communication methods. Depending on the implementation example, the wireless input/output interface may be implemented as an interface for inputting/outputting only audio signals and an interface for inputting/outputting only video signals, or may be implemented as one interface for inputting/outputting both audio and video signals.
또한, 오디오 신호는 유선 입출력 인터페이스를 통해 입력받고, 영상 신호는 무선 입출력 인터페이스를 통해 입력 받도록 구현될 수 있다. 또는, 오디오 신호는 무선 입출력 인터페이스를 통해 입력받고, 영상 신호는 유선 입출력 인터페이스를 통해 입력 받도록 구현될 수 있다.Also, an audio signal may be input through a wired input/output interface, and a video signal may be input through a wireless input/output interface. Alternatively, an audio signal may be input through a wireless input/output interface and a video signal may be input through a wired input/output interface.
오디오 출력부(117)는 오디오 신호를 출력하는 구성이다. 특히, 오디오 출력부(117)는 오디오 출력 믹서, 오디오 신호 처리기, 음향 출력 모듈을 포함할 수 있다. 오디오 출력 믹서는 출력할 복수의 오디오 신호들을 적어도 하나의 오디오 신호로 합성할 수 있다. 예를 들면, 오디오 출력 믹서는 아날로그 오디오 신호 및 다른 아날로그 오디오 신호(예: 외부로부터 수신한 아날로그 오디오 신호)를 적어도 하나의 아날로그 오디오 신호로 합성할 수 있다. 음향 출력 모듈은, 스피커 또는 출력 단자를 포함할 수 있다. 일 실시 예에 따르면 음향 출력 모듈은 복수의 스피커들을 포함할 수 있고, 이 경우, 음향 출력 모듈은 본체 내부에 배치될 수 있고, 음향 출력 모듈의 진동판의 적어도 일부를 가리고 방사되는 음향은 음도관(waveguide)을 통과하여 본체 외부로 전달할 수 있다. 음향 출력 모듈은 복수의 음향 출력 유닛을 포함하고, 복수의 음향 출력 유닛이 본체의 외관에 대칭 배치됨으로써 모든 방향으로, 즉 360도 전 방향으로 음향을 방사할 수 있다.The audio output unit 117 is a component that outputs an audio signal. In particular, the audio output unit 117 may include an audio output mixer, an audio signal processor, and a sound output module. The audio output mixer may synthesize a plurality of audio signals to be output into at least one audio signal. For example, the audio output mixer may combine an analog audio signal and another analog audio signal (eg, an analog audio signal received from the outside) into at least one analog audio signal. The sound output module may include a speaker or an output terminal. According to an embodiment, the sound output module may include a plurality of speakers, and in this case, the sound output module may be disposed inside the main body, and the sound emitted by covering at least a part of the diaphragm of the sound output module may be emitted through a sound conduit ( waveguide) and can be transmitted to the outside of the main body. The sound output module includes a plurality of sound output units, and since the plurality of sound output units are symmetrically disposed on the exterior of the main body, sound can be emitted in all directions, that is, in all directions of 360 degrees.
전원부(118)는 외부로부터 전력을 공급받아 전자 장치(100)의 다양한 구성에 전력을 공급할 수 있다. 본 개시의 일 실시 예에 따른 전원부(118)는 다양한 방식을 통해 전력을 공급받을 수 있다. 일 실시 예로, 전원부(118)는 도 1에 도시된 바와 같은 커넥터(130)를 이용하여 전력을 공급받을 수 있다. 또한, 전원부(118)는 220V의 DC 전원 코드를 이용하여 전력을 공급받을 수 있다. 다만 이에 한정되지 않고, 전자 장치는 USB 전원 코드를 이용하여 전력을 공급받거나 무선 충전 방식을 이용하여 전력을 공급받을 수 있다.The power supply unit 118 may receive power from the outside and supply power to various components of the electronic device 100 . The power supply unit 118 according to an embodiment of the present disclosure may receive power through various methods. As an example, the power supply unit 118 may receive power using the connector 130 shown in FIG. 1 . In addition, the power supply unit 118 may receive power using a 220V DC power cord. However, the present invention is not limited thereto, and the electronic device may receive power using a USB power cord or a wireless charging method.
또한, 전원부(118)는 내부 배터리 또는 외부 배터리를 이용하여 전력을 공급받을 수 있다. 본 개시의 일 실시 예에 따른 전원부(118)는 내부 배터리를 통해 전력을 공급받을 수 있다. 일 예로, 전원부(118)는 220V의 DC 전원 코드, USB 전원 코드 및 USB C-Type 전원 코드 중 적어도 하나를 이용하여 내부 배터리의 전력을 충전하고, 충전된 내부 배터리를 통해 전력을 공급받을 수 있다. 또한, 본 개시의 일 실시 예에 따른 전원부(118)는 외부 배터리를 통해 전력을 공급받을 수 있다. 일 예로, USB 전원 코드, USB C-Type 전원 코드, 소켓 홈 등 다양한 유선 통신 방식을 통하여 전자 장치와 외부 배터리의 연결이 수행되면, 전원부(118)는 외부 배터리를 통해 전력을 공급받을 수 있다. 즉, 전원부(118)는 외부 배터리로부터 바로 전력을 공급받거나, 외부 배터리를 통해 내부 배터리를 충전하고 충전된 내부 배터리로부터 전력을 공급받을 수 있다.In addition, the power supply unit 118 may receive power using an internal battery or an external battery. The power supply unit 118 according to an embodiment of the present disclosure may receive power through an internal battery. For example, the power supply unit 118 may charge power of an internal battery using at least one of a 220V DC power cord, a USB power cord, and a USB C-Type power cord, and may receive power through the charged internal battery. . In addition, the power supply unit 118 according to an embodiment of the present disclosure may receive power through an external battery. For example, when the electronic device and the external battery are connected through various wired communication methods such as a USB power cord, a USB C-Type power cord, and a socket home, the power supply unit 118 may receive power through the external battery. That is, the power supply unit 118 may directly receive power from an external battery, or may charge an internal battery through an external battery and receive power from the charged internal battery.
본 개시에 따른 전원부(118)는 상술한 복수의 전력 공급 방식 중 적어도 하나 이상을 이용하여 전력을 공급받을 수 있다.The power supply unit 118 according to the present disclosure may receive power using at least one of the plurality of power supply methods described above.
한편, 소비 전력과 관련하여, 전자 장치(100)는 소켓 형태 및 기타 표준 등을 이유로 기설정된 값(예로, 43W) 이하의 소비 전력을 가질 수 있다. 이때, 전자 장치(100)는 배터리 이용 시에 소비 전력을 줄일 수 있도록 소비 전력을 가변시킬 수 있다. 즉, 전자 장치(100)는 전원 공급 방법 및 전원 사용량 등을 바탕으로 소비 전력을 가변시킬 수 있다.Meanwhile, with respect to power consumption, the electronic device 100 may have power consumption equal to or less than a preset value (eg, 43W) due to a socket type and other standards. In this case, the electronic device 100 may vary power consumption to reduce power consumption when using a battery. That is, the electronic device 100 may vary power consumption based on a power supply method and power usage.
한편, 본 개시의 일 실시 예에 따른 전자 장치(100)는 다양한 스마트 기능을 제공할 수 있다.Meanwhile, the electronic device 100 according to an embodiment of the present disclosure may provide various smart functions.
구체적으로, 전자 장치(100)는 전자 장치(100)를 제어하기 위한 휴대 단말 장치와 연결되어 휴대 단말 장치에서 입력되는 사용자 입력을 통해 전자 장치(100)에서 출력되는 화면이 제어될 수 있다. 일 예로, 휴대 단말 장치는 터치 디스플레이를 포함하는 스마트폰으로 구현될 수 있으며, 전자 장치(100)는 휴대 단말 장치에서 제공하는 화면 데이터를 휴대 단말 장치로부터 수신하여 출력하고, 휴대 단말 장치에서 입력되는 사용자 입력에 따라 전자 장치(100)에서 출력되는 화면이 제어될 수 있다.Specifically, the electronic device 100 is connected to a portable terminal device for controlling the electronic device 100, and a screen output from the electronic device 100 can be controlled through a user input input from the portable terminal device. For example, the mobile terminal device may be implemented as a smart phone including a touch display, and the electronic device 100 receives and outputs screen data provided by the mobile terminal device from the mobile terminal device, and inputs data from the mobile terminal device. A screen output from the electronic device 100 may be controlled according to a user input.
전자 장치(100)는 미라캐스트(Miracast), Airplay, 무선 DEX, Remote PC 방식 등 다양한 통신 방식을 통해 휴대 단말 장치와 연결을 수행하여 휴대 단말 장치에서 제공하는 컨텐츠 또는 음악을 공유할 수 있다.The electronic device 100 may share content or music provided by the portable terminal device by connecting to the portable terminal device through various communication methods such as Miracast, Airplay, wireless DEX, and Remote PC.
그리고, 휴대 단말 장치와 전자 장치(100)는 다양한 연결 방식으로 연결이 수행될 수 있다. 일 실시 예로, 휴대 단말 장치에서 전자 장치(100)를 검색하여 무선 연결을 수행하거나, 전자 장치(100)에서 휴대 단말 장치를 검색하여 무선 연결을 수행할 수 있다. 그리고, 전자 장치(100)는 휴대 단말 장치에서 제공하는 컨텐츠를 출력할 수 있다.Also, the mobile terminal device and the electronic device 100 may be connected through various connection methods. As an embodiment, the portable terminal device may perform a wireless connection by searching for the electronic device 100 or the electronic device 100 may search for the portable terminal device and perform a wireless connection. And, the electronic device 100 may output content provided by the portable terminal device.
일 실시 예로, 휴대 단말 장치에서 특정 컨텐츠 또는 음악이 출력 중인 상태에서 휴대 단말 장치를 전자 장치 근처에 위치시킨 후 휴대 단말 장치의 디스플레이를 통해 기 설정된 제스처가 감지되면(예로, 모션 탭뷰), 전자 장치(100)는 휴대 단말 장치에서 출력 중인 컨텐츠 또는 음악을 출력할 수 있다.As an embodiment, when a predetermined gesture is detected through the display of the portable terminal device after placing the portable terminal device near the electronic device while specific content or music is being output (eg, motion tap view), the electronic device 100 may output content or music currently being output on the portable terminal device.
일 실시 예로, 휴대 단말 장치에서 특정 컨텐츠 또는 음악이 출력 중인 상태에서 휴대 단말 장치가 전자 장치(100)와 기 설정 거리 이하로 가까워지거나(예로, 비접촉 탭뷰) 휴대 단말 장치가 전자 장치(100)와 짧은 간격으로 두 번 접촉되면(예로, 접촉 탭뷰), 전자 장치(100)는 휴대 단말 장치에서 출력 중인 컨텐츠 또는 음악을 출력할 수 있다.In an embodiment, while specific content or music is being output from the portable terminal device, the portable terminal device is brought closer to the electronic device 100 by a predetermined distance or less (eg, non-contact tap view), or the portable terminal device is close to the electronic device 100. When contact is made twice at a short interval (eg, contact tap view), the electronic device 100 may output content or music currently being output on the portable terminal device.
상술한 실시 예에서는 휴대 단말 장치에서 제공되고 있는 화면과 동일한 화면이 전자 장치(100)에서 제공되는 것으로 설명하였으나, 본 개시는 이에 한정되지 않는다. 즉, 휴대 단말 장치와 전자 장치(100) 간 연결이 구축되면, 휴대 단말 장치에서는 휴대 단말 장치에서 제공되는 제1 화면이 출력되고, 전자 장치(100)에서는 제1 화면과 상이한 휴대 단말 장치에서 제공되는 제2 화면이 출력될 수 있다. 일 예로, 제1 화면은 휴대 단말 장치에 설치된 제1 어플리케이션이 제공하는 화면이며, 제2 화면은 휴대 단말 장치에 설치된 제2 어플리케이션이 제공하는 화면일 수 있다. 일 예로, 제1 화면과 제2 화면은 휴대 단말 장치에 설치된 하나의 어플리케이션에서 제공하는 서로 상이한 화면일 수 있다. 또한, 일 예로, 제1 화면은 제2 화면을 제어하기 위한 리모컨 형식의 UI를 포함하는 화면일 수 있다.In the above-described embodiment, it has been described that the same screen as that provided by the portable terminal device is provided by the electronic device 100, but the present disclosure is not limited thereto. That is, when a connection is established between the portable terminal device and the electronic device 100, the portable terminal device outputs a first screen provided by the portable terminal device, and in the electronic device 100, the first screen is provided by a different portable terminal device. A second screen may be output. For example, the first screen may be a screen provided by a first application installed on the portable terminal device, and the second screen may be a screen provided by a second application installed on the portable terminal device. For example, the first screen and the second screen may be different screens provided by one application installed in the portable terminal device. Also, as an example, the first screen may be a screen including a remote control type UI for controlling the second screen.
본 개시에 따른 전자 장치(100)는 대기 화면을 출력할 수 있다. 일 예로, 전자 장치(100)가 외부 장치와 연결이 수행되지 않은 경우 또는 외부 장치로부터 기 설정된 시간 동안 수신되는 입력이 없는 경우 전자 장치(100)는 대기 화면을 출력할 수 있다. 전자 장치(100)가 대기 화면을 출력하기 위한 조건은 상술한 예에 한정되지 않고 다양한 조건들에 의해 대기 화면이 출력될 수 있다.The electronic device 100 according to the present disclosure may output a standby screen. For example, when the electronic device 100 is not connected to an external device or when there is no input received from the external device for a preset time, the electronic device 100 may output a standby screen. Conditions for the electronic device 100 to output the standby screen are not limited to the above examples, and the standby screen may be output under various conditions.
전자 장치(100)는 블루 스크린 형태의 대기 화면을 출력할 수 있으나, 본 개시는 이에 한정되지 않는다. 일 예로, 전자 장치(100)는 외부 장치로부터 수신되는 데이터에서 특정 오브젝트의 형태만을 추출하여 비정형 오브젝트를 획득하고, 획득된 비정형 오브젝트를 포함하는 대기 화면을 출력할 수 있다.The electronic device 100 may output a standby screen in the form of a blue screen, but the present disclosure is not limited thereto. For example, the electronic device 100 may obtain an irregular object by extracting only the shape of a specific object from data received from an external device, and output an idle screen including the obtained irregular object.
셔터부(120)는 셔터, 고정 부재, 레일, 몸체 또는 모터 중 적어도 하나를 포함할 수 있다.The shutter unit 120 may include at least one of a shutter, a fixing member, a rail, a body, or a motor.
여기서, 셔터는 프로젝션부(111)에서 출력되는 광을 차단할 수 있다. 여기서, 고정 부재는 셔터의 위치를 고정시킬 수 있다. 여기서, 레일은 셔터 및 고정 부재를 이동시키는 경로일 수 있다. 여기서, 몸체는 셔터 및 고정 부재를 포함하는 구성일 수 있다. 여기서, 모터는 셔터부(120)에서 구성의 이동(예를 들어, 몸체의 이동) 또는 구성의 회전(예를 들어, 셔터의 회전) 동작을 위해 구동 전력을 발생시키는 구성일 수 있다.Here, the shutter may block light output from the projection unit 111 . Here, the fixing member may fix the position of the shutter. Here, the rail may be a path for moving the shutter and the fixing member. Here, the body may be configured to include a shutter and a fixing member. Here, the motor may be a component that generates driving power for movement (eg, movement of the body) or rotation (eg, rotation of the shutter) of components in the shutter unit 120 .
도 4는 본 개시의 다른 실시 예들에 따른, 전자 장치(100)의 외관을 도시한 사시도이다.4 is a perspective view illustrating an external appearance of an electronic device 100 according to other embodiments of the present disclosure.
도 4를 참조하면, 전자 장치(100)는 지지대(또는 "손잡이"라는 함.)(108a)를 포함할 수 있다.Referring to FIG. 4 , the electronic device 100 may include a support (or referred to as a “handle”) 108a.
다양한 실시 예의 지지대(108a)는 사용자가 전자 장치(100)를 파지하거나 이동시키기 위하여 마련되는 손잡이 또는 고리일 수 있으며, 또는 지지대(108a)는 본체(105)가 측면 방향으로 눕혀진 상태에서 본체(105)를 지지하는 스탠드일 수 있다.The support 108a of various embodiments may be a handle or a hook provided for a user to grip or move the electronic device 100, or the support 108a may be a main body ( 105) may be a stand supporting the.
지지대(108a)는 도 4에 도시된 바와 같이 본체(105)의 외주면에 결합 또는 분리되도록 힌지 구조로 연결될 수 있으며, 사용자의 필요에 따라 선택적으로 본체(105) 외주면에서 분리 및 고정될 수 있다. 지지대(108a)의 개수, 형상 또는 배치 구조는 제약이 없이 다양하게 구현될 수 있다. 도면에는 도시되지 않았으나, 지지대(108a)는 본체(105) 내부에 내장되어 필요에 따라 사용자가 꺼내서 사용할 수 있으며, 또는 지지대(108a)는 별도의 액세서리로 구현되어 전자 장치(100)에 탈부착 가능할 수 있다.As shown in FIG. 4, the support 108a may be coupled to or separated from the outer circumferential surface of the main body 105 in a hinge structure, and may be selectively separated and fixed from the outer circumferential surface of the main body 105 according to the user's needs. The number, shape, or arrangement of the supports 108a may be variously implemented without limitation. Although not shown in the drawing, the support 108a is built into the main body 105 and can be taken out and used by the user as needed, or the support 108a can be implemented as a separate accessory and detachable from the electronic device 100. there is.
지지대(108a)는 제1 지지면(108a-1)과 제2 지지면(108a-2)을 포함할 수 있다. 제1 지지면(108a-1)은 지지대(108a)가 본체(105) 외주면으로부터 분리된 상태에서 본체(105) 바깥 방향을 마주보는 일 면일 수 있고, 제2 지지면(108a-2)은 지지대(108a)가 본체(105) 외주면으로부터 분리된 상태에서 본체(105) 내부 방향을 마주보는 일 면일 수 있다.The support 108a may include a first support surface 108a-1 and a second support surface 108a-2. The first support surface 108a-1 may be a surface facing the outside of the body 105 in a state where the support 108a is separated from the outer circumferential surface of the body 105, and the second support surface 108a-2 is the support (108a) may be a surface facing the inner direction of the main body 105 in a state separated from the outer circumferential surface of the main body 105.
제1 지지면(108a-1)은 본체(105) 하부로부터 본체(105) 상부로 전개되며 본체(105)로부터 멀어질 수 있으며, 제1 지지면(108a-1)은 평탄하거나 균일하게 굴곡진 형상을 가질 수 있다. 제1 지지면(108a-1)은 전자 장치(100)가 본체(105)의 외측면이 바닥면에 닿도록 거치 되는 경우, 즉 프로젝션 렌즈(110)가 전면 방향을 향하도록 배치되는 경우 본체(105)를 지지할 수 있다. 2개 이상의 지지대(108a)를 포함하는 실시 예에 있어서는, 2개의 지지대(108a)의 간격 또는 힌지 개방된 각도를 조절하여 헤드(103)와 프로젝션 렌즈(110)의 출사 각도를 조절할 수 있다.The first support surface 108a-1 is developed from the lower part of the body 105 to the upper part of the body 105 and may move away from the body 105, and the first support surface 108a-1 is flat or uniformly curved. can have a shape. The first support surface 108a-1 is the case where the electronic device 100 is mounted so that the outer surface of the body 105 touches the bottom surface, that is, when the projection lens 110 is disposed facing the front direction, the body ( 105) can be supported. In an embodiment including two or more supports 108a, the angle of exit of the head 103 and the projection lens 110 may be adjusted by adjusting the distance between the two supports 108a or the hinge opening angle.
제2 지지면(108a-2)은 지지대(108a)가 사용자 또는 외부 거치 구조에 의하여 지지가 될 때 사용자 또는 외부 거치 구조에 맞닿는 면으로, 전자 장치(100)를 지지하거나 이동시키는 경우 미끄러지지 않도록 사용자의 손의 파지 구조 또는 외부 거치 구조에 대응되는 형상을 가질 수 있다. 사용자는 프로젝션 렌즈(110)를 전면 방향으로 향하게 하여 헤드(103)를 고정하고 지지대(108a)를 잡고 전자 장치(100)를 이동시키며, 손전등과 같이 전자 장치(100)를 이용할 수 있다.The second support surface 108a-2 is a surface in contact with the user or an external mounting structure when the support 108a is supported by the user or an external mounting structure, and prevents the user from slipping when the electronic device 100 is supported or moved. It may have a shape corresponding to the gripping structure of the hand or the external mounting structure. The user may direct the projection lens 110 toward the front, fix the head 103, hold the support 108a, move the electronic device 100, and use the electronic device 100 like a flashlight.
지지대 홈(104)은 본체(105)에 마련되어 지지대(108a)가 사용되지 않을 때 수용 가능한 홈 구조로, 도 4에 도시된 바와 같이 본체(105)의 외주면에 지지대(108a)의 형상에 대응되는 홈 구조로 구현될 수 있다. 지지대 홈(104)을 통하여 지지대(108a)가 사용되지 않을 때 본체(105)의 외주면에 지지대(108a)가 보관될 수 있으며, 본체(105) 외주면은 매끄럽게 유지될 수 있다.The support groove 104 is provided on the main body 105 and is a groove structure that can be accommodated when the support rod 108a is not in use, and as shown in FIG. It can be implemented as a home structure. Through the support groove 104, the support 108a can be stored on the outer circumferential surface of the main body 105 when the support 108a is not in use, and the outer circumferential surface of the main body 105 can be kept smooth.
또는, 지지대(108a)가 본체(105) 내부에 보관되고 지지대(108a)가 필요한 상황에서 지지대(108a)를 본체(105) 외부로 빼내는 구조를 가질 수 있다. 이 경우, 지지대 홈(104)은 지지대(108a)를 수용하도록 본체(105) 내부로 인입된 구조일 수 있으며, 제2 지지면(108a-2)이 본체(105) 외주면에 밀착되거나 별도의 지지대 홈(104)을 개폐하는 도어(미도시)를 포함할 수 있다.Alternatively, the support 108a may have a structure in which the support 108a is stored inside the body 105 and the support 108a is pulled out of the body 105 in a situation where the support 108a is needed. In this case, the support groove 104 may have a structure drawn into the main body 105 to accommodate the support rod 108a, and the second support surface 108a-2 may be in close contact with the outer circumferential surface of the main body 105 or a separate support rod. A door (not shown) that opens and closes the groove 104 may be included.
도면에는 도시되지 않았으나, 전자 장치(100)는 전자 장치(100)의 이용 또는 보관에 도움을 주는 다양한 종류의 액세서리를 포함할 수 있으며, 예를 들면, 전자 장치(100)는 전자 장치(100)를 보호하며 용이하게 운반할 수 있도록 보호 케이스(미도시)를 포함할 수 있으며, 또는, 본체(105)를 지지하거나 고정하는 삼각대(미도시) 또는 외부 면에 결합되어 전자 장치(100)를 고정 가능한 브라켓(미도시)을 포함할 수 있다.Although not shown in the drawings, the electronic device 100 may include various types of accessories that help use or store the electronic device 100. For example, the electronic device 100 may include the electronic device 100 A protective case (not shown) may be included to protect and easily transport the electronic device 100 by being coupled to a tripod (not shown) or an external surface that supports or fixes the main body 105. Possible brackets (not shown) may be included.
도 5는 본 개시의 또 다른 실시 예들에 따른, 전자 장치(100)의 외관을 도시한 사시도이다.5 is a perspective view illustrating an external appearance of an electronic device 100 according to another embodiment of the present disclosure.
도 5를 참조하면, 전자 장치(100)는 지지대(또는 "손잡이"라는 함.)(108b)를 포함할 수 있다.Referring to FIG. 5 , the electronic device 100 may include a support (or referred to as a “handle”) 108b.
다양한 실시 예의 지지대(108b)는 사용자가 전자 장치(100)를 파지하거나 이동시키기 위하여 마련되는 손잡이 또는 고리일 수 있으며, 또는 지지대(108b)는 본체(105)가 측면 방향으로 눕혀진 상태에서 본체(105)가 임의의 각도로 향할 수 있도록 지지하는 스탠드일 수 있다.The support 108b of various embodiments may be a handle or a hook provided for a user to grip or move the electronic device 100, or the support 108b may be a main body ( 105) may be a stand that supports it so that it can be directed at an arbitrary angle.
구체적으로, 지지대(108b)는 도 5에 도시된 바와 같이, 본체(105)의 기설정된 지점(예를 들어, 본체 높이의 2/3~ 3/4 지점)에서 본체(105)와 연결될 수 있다. 지지대(108)가 본체 방향으로 회전되면, 본체(105)가 측면 방향으로 눕혀진 상태에서 본체(105)가 임의의 각도로 향할 수 있도록 지지할 수 있다.Specifically, as shown in FIG. 5, the support 108b may be connected to the main body 105 at a predetermined point (eg, 2/3 to 3/4 of the height of the main body) of the main body 105. . When the support 108 is rotated in the direction of the main body, the main body 105 can be supported at an arbitrary angle in a state where the main body 105 is laid down in the lateral direction.
도 6은 본 개시의 또 다른 실시 예들에 따른, 전자 장치(100)의 외관을 도시한 사시도이다.6 is a perspective view illustrating an external appearance of an electronic device 100 according to another embodiment of the present disclosure.
도 6을 참조하면, 전자 장치(100)는 지지대(또는 "받침대"라고 함)(108c)를 포함할 수 있다. 다양한 실시 예의 지지대(108c)는 전자 장치(100)를 지면에 지지하기 위해 마련되는 베이스 플레이트(108c-1)와 베이스 플레이트(108-c)와 본체(105)를 연결하는 두 개의 지지부재(108c-2)를 포함할 수 있다.Referring to FIG. 6 , the electronic device 100 may include a support (or referred to as a “stand”) 108c. The support 108c of various embodiments includes a base plate 108c-1 provided to support the electronic device 100 on the ground and two support members 108c connecting the base plate 108-c and the main body 105. -2) may be included.
본 개시의 일 실시 예로, 두 개의 지지부재(108c-2)의 높이는 동일하여, 두 개의 지지부재(108c-2)의 일 단면 각각이 본체(105)의 일 외주면에 마련된 홈과 힌지 부재(108c-3)에 의해 결합 또는 분리될 수 있다.In one embodiment of the present disclosure, the two support members (108c-2) have the same height, so that one end surface of the two support members (108c-2) is provided on one outer circumferential surface of the main body 105 and the hinge member (108c). -3) can be combined or separated.
두 개의 지지부재는 본체(105)의 기 설정된 지점(예를 들어, 본체 높이의 1/3 ~ 2/4 지점)에서 본체(105)와 힌지 연결될 수 있다.The two supporting members may be hingedly connected to the main body 105 at a predetermined point (eg, 1/3 to 2/4 of the height of the main body) of the main body 105 .
두 개의 지지부재와 본체가 힌지 부재(108c-3)에 의해 결합되면, 두 개의 힌지 부재(108c-3)로 인해 형성되는 가상의 수평 축을 기준으로 본체(105)가 회전되어 프로젝션 렌즈(110)의 출사 각도가 조절될 수 있다.When the two support members and the main body are coupled by the hinge member 108c-3, the main body 105 is rotated based on the imaginary horizontal axis formed by the two hinge members 108c-3 so that the projection lens 110 The emission angle of can be adjusted.
도 6에는 두 개의 지지부재(108c-2)가 본체(105)와 연결되는 실시 예에 대하여 도시되어 있지만, 본 개시는 이에 한정되지 않고, 도 7 및 도 8와 같이 하나의 지지부재와 본체(105)가 하나의 힌지 부재에 의해 연결될 수 있다.Although FIG. 6 shows an embodiment in which two support members 108c-2 are connected to the body 105, the present disclosure is not limited thereto, and one support member and the body as shown in FIGS. 7 and 8 ( 105) may be connected by one hinge member.
도 7은 본 개시의 또 다른 실시 예들에 따른, 전자 장치(100)의 외관을 도시한 사시도이다.7 is a perspective view illustrating an external appearance of an electronic device 100 according to another embodiment of the present disclosure.
도 8은 도 7의 전자 장치(100)가 회전된 상태를 도시한 사시도이다.FIG. 8 is a perspective view illustrating a rotated state of the electronic device 100 of FIG. 7 .
도 7 및 도 8을 참조하면, 다양한 실시 예의 지지대(108d)는 전자 장치(100)를 지면에 지지하기 위해 마련되는 베이스 플레이트(108d-1)와 베이스 플레이트(108-c)와 본체(105)를 연결하는 하나의 지지부재(108d-2)를 포함할 수 있다.7 and 8, the support 108d of various embodiments includes a base plate 108d-1, a base plate 108-c, and a body 105 provided to support the electronic device 100 on the ground. It may include one support member (108d-2) connecting the.
그리고, 하나의 지지부재(108d-2)의 단면은 본체(105)의 일 외주 면에 마련된 홈과 힌지 부재(미도시)에 의해 결합 또는 분리될 수 있다.Also, the end face of one support member 108d-2 may be coupled or separated by a groove provided on one outer circumferential surface of the body 105 and a hinge member (not shown).
하나의 지지부재(108d-2)와 본체(105)가 하나의 힌지 부재(미도시)에 의해 결합되면, 도 8와 같이 하나의 힌지 부재(미도시)로 인해 형성되는 가상의 수평 축을 기준으로 본체(105)가 회전될 수 있다.When one support member (108d-2) and the main body 105 are coupled by one hinge member (not shown), as shown in FIG. 8, based on a virtual horizontal axis formed by one hinge member (not shown) The body 105 can be rotated.
한편, 도 4, 도 5, 도 6, 도 7 및 도 8에 도시된 지지대는 일 실시 예에 불과할 뿐, 전자 장치(100)는 다양한 위치나 형태로 지지대를 구비할 수 있음은 물론이다.Meanwhile, the supports shown in FIGS. 4, 5, 6, 7, and 8 are merely examples, and the electronic device 100 may have supports in various positions or shapes.
도 9는 전자 장치(100)의 상태 정보 및 투사면(10)의 상태 정보를 이용하여 투사 이미지를 보정하는 동작을 설명하기 위한 흐름도이다.9 is a flowchart illustrating an operation of correcting a projected image using state information of the electronic device 100 and state information of the projection surface 10. Referring to FIG.
도 9를 참조하면, 전자 장치(100)는 전자 장치(100)의 상태 정보를 획득할 수 있다 (S905). 구체적으로, 전자 장치(100)는 제1 센서부(113-1)를 통해 전자 장치(100)의 상태 정보를 획득할 수 있다. 전자 장치(100)의 상태 정보는 도 10 내지 도 14에서 추가적으로 기재한다.Referring to FIG. 9 , the electronic device 100 may acquire state information of the electronic device 100 (S905). Specifically, the electronic device 100 may acquire state information of the electronic device 100 through the first sensor unit 113-1. State information of the electronic device 100 is additionally described in FIGS. 10 to 14 .
그리고, 전자 장치(100)는 투사면(10)의 상태 정보를 획득할 수 있다 (S910). 구체적으로, 전자 장치(100)는 제2 센서부(113-2)를 통해 투사면(10)의 상태 정보를 획득할 수 있다. 투사면(10)의 상태 정보는 도 15 내지 도 22에서 추가적으로 기재한다.And, the electronic device 100 may acquire state information of the projection surface 10 (S910). Specifically, the electronic device 100 may acquire state information of the projection surface 10 through the second sensor unit 113-2. State information of the projection surface 10 is additionally described in FIGS. 15 to 22 .
그리고, 전자 장치(100)는 전자 장치(100)의 상태 정보 및 투사면(10)의 상태 정보에 기초하여 투사 이미지를 보정할 수 있다 (S915). 구체적으로, 전자 장치(100)는 전자 장치(100)의 상태 정보 및 투사면(10)의 상태 정보에 기초하여 투사 이미지에 대하여 레벨링 보정 또는 키스톤 보정을 수행할 수 있다. 투사 이미지에 대한 보정 동작은 도 23 내지 도 24에서 기재한다. 여기서, S915 단계는 전자 장치(100)는 전자 장치(100)의 상태 정보 또는 투사면(10)의 상태 정보 중 적어도 하나에 기초하여 투사 이미지를 보정하는 동작으로 대체될 수 있다.Then, the electronic device 100 may correct the projected image based on the state information of the electronic device 100 and the state information of the projection surface 10 (S915). Specifically, the electronic device 100 may perform leveling correction or keystone correction on the projected image based on state information of the electronic device 100 and state information of the projection surface 10 . A correction operation for the projected image is described in FIGS. 23 and 24 . Here, step S915 may be replaced by an operation in which the electronic device 100 corrects the projected image based on at least one of state information of the electronic device 100 and state information of the projection surface 10 .
그리고, 전자 장치(100)는 보정된 투사 이미지를 출력할 수 있다 (S920).And, the electronic device 100 may output the corrected projection image (S920).
도 10은 전자 장치(100)의 z축 회전 정보를 설명하기 위한 도면이다. 10 is a diagram for explaining z-axis rotation information of the electronic device 100 .
도 10의 실시 예(1010)는 전자 장치(100)가 z축 기준으로 회전 되지 않은 상태에서 출력되는 투사 이미지(1011)를 나타낸다. 전자 장치(100)의 z축과 관련된 설명은 도 13에서 기재한다.The embodiment 1010 of FIG. 10 shows a projection image 1011 output in a state in which the electronic device 100 is not rotated on the z-axis basis. A description related to the z-axis of the electronic device 100 is described in FIG. 13 .
도 10의 실시 예(1020)는 전자 장치(100)가 z축 기준으로 회전된 상태에서 출력되는 투사 이미지(1021)를 나타낸다. 여기서, 전자 장치(100)는 z축 기준으로 일정 각도(1022)만큼 회전된 것으로 가정한다.The embodiment 1020 of FIG. 10 shows a projection image 1021 output in a state in which the electronic device 100 is rotated on the z-axis basis. Here, it is assumed that the electronic device 100 is rotated by a certain angle 1022 based on the z-axis.
도 11은 전자 장치(100)의 y축 회전 정보를 설명하기 위한 도면이다.11 is a diagram for explaining y-axis rotation information of the electronic device 100 .
도 11의 실시 예(1110)는 전자 장치(100)가 y축 기준으로 회전 되지 않은 상태를 나타낸다. 전자 장치(100)의 y축과 관련된 설명은 도 13에서 기재한다.The embodiment 1110 of FIG. 11 shows a state in which the electronic device 100 is not rotated based on the y-axis. A description related to the y-axis of the electronic device 100 is described in FIG. 13 .
도 11의 실시 예(1120)는 전자 장치(100)가 y축 기준으로 회전된 상태를 나타낸다. 여기서, 전자 장치(100)는 y축 기준으로 일정 각도(1122)만큼 회전된 것으로 가정한다.Example 1120 of FIG. 11 shows a state in which the electronic device 100 is rotated based on the y-axis. Here, it is assumed that the electronic device 100 is rotated by a predetermined angle 1122 based on the y-axis.
도 12는 전자 장치(100)의 x축 회전 정보를 설명하기 위한 도면이다.12 is a diagram for explaining x-axis rotation information of the electronic device 100 .
도 12의 실시 예(1210)는 전자 장치(100)가 x축 기준으로 회전되지 않은 상태를 나타낸다. 전자 장치(100)의 x축과 관련된 설명은 도 13에서 기재한다. 여기서, 기준 수평선(1211)은 x축 기준으로 회전되지 않은 전자 장치(100)의 수평선과 동일할 수 있다. The embodiment 1210 of FIG. 12 shows a state in which the electronic device 100 is not rotated based on the x-axis. A description related to the x-axis of the electronic device 100 is described in FIG. 13 . Here, the reference horizontal line 1211 may be the same as the horizontal line of the electronic device 100 that is not rotated based on the x-axis.
도 12의 실시 예(1220)는 전자 장치(100)가 x축 기준으로 회전된 상태를 나타낸다. 여기서, 전자 장치(100)는 x축 기준으로 일정 각도(1222)만큼 회전된 것으로 가정한다. 여기서, 기준 수평선(1211)과 전자 장치의 수평선(1221)이 일정 각도(1222)만큼 차이가 있을 수 있다.The embodiment 1220 of FIG. 12 shows a state in which the electronic device 100 is rotated based on the x-axis. Here, it is assumed that the electronic device 100 is rotated by a predetermined angle 1222 based on the x-axis. Here, there may be a difference between the reference horizontal line 1211 and the horizontal line 1221 of the electronic device by a predetermined angle 1222 .
도 13은 전자 장치(100)의 회전 정보를 설명하기 위한 도면이다.13 is a diagram for explaining rotation information of the electronic device 100. Referring to FIG.
도 13의 실시 예(1310)는 x,y,z축에 따른 회전 방향을 정의한 그래프이다. x축을 기준으로 회전하는 것을 roll로 정의하고, y축을 기준으로 회전하는 것을 pitch로 정의하고, z축을 기준으로 회전하는 것을 yaw로 정의할 수 있다.The embodiment 1310 of FIG. 13 is a graph defining rotation directions along the x, y, and z axes. Rotation around the x-axis can be defined as roll, rotation around the y-axis as pitch, and rotation around the z-axis as yaw.
도 13의 실시 예(1320)는 투사면(10)의 회전 방향을 실시 예(1310)에서 정의한 회전 방향으로 설명할 수 있다. 투사면(10)의 x축 회전 정보는 투사면(10)의 x축에 기초하여 회전하는 roll에 해당할 수 있다. 투사면(10)의 y축 회전 정보는 투사면(10)의 y축에 기초하여 회전하는 pitch에 해당할 수 있다. 투사면(10)의 z축 회전 정보는 투사면(10)의 z축에 기초하여 회전하는 yaw에 해당할 수 있다.In the embodiment 1320 of FIG. 13 , the rotation direction of the projection surface 10 may be described as the rotation direction defined in the embodiment 1310. The x-axis rotation information of the projection surface 10 may correspond to a roll rotating based on the x-axis of the projection surface 10 . The y-axis rotation information of the projection surface 10 may correspond to a pitch that rotates based on the y-axis of the projection surface 10 . The z-axis rotation information of the projection surface 10 may correspond to yaw rotating based on the z-axis of the projection surface 10 .
한편, x축 회전 정보는 제1축 회전 정보 또는 수평 틀어짐 정보로 기재될 수 있다. 또한, y축 회전 정보는 제2 축 회전 정보 또는 수직 기울기 정보로 기재될 수 있다. 또한, z축 회전 정보는 제3 축 회전 정보 또는 수평 기울기 정보로 기재될 수 있다. Meanwhile, the x-axis rotation information may be described as first-axis rotation information or horizontal distortion information. Also, the y-axis rotation information may be described as second-axis rotation information or vertical tilt information. Also, the z-axis rotation information may be described as third-axis rotation information or horizontal tilt information.
한편, 제1 센서부(113-1)는 전자 장치(100)의 상태 정보를 획득할 수 있다. 여기서, 전자 장치(100)의 상태 정보는 전자 장치(100)의 회전 상태를 의미할 수 있다. 여기서, 제1 센서부(113-1)는 중력 센서, 가속도 센서 또는 자이로 센서 중 적어도 하나를 포함할 수 있다. 전자 장치(100)의 x축 회전 정보 및 전자 장치(100)의 y축 회전 정보는 제1 센서부(113-1)를 통해 획득된 센싱 데이터에 기초하여 결정될 수 있다. 다만, 전자 장치(100)의 z축 회전 정보는 동서남북 등을 기준으로 하지 않는 이상 특정 기준을 두는 것이 어려울 수 있다. 따라서, 전자 장치(100)는 전자 장치(100)의 z축 회전 정보를 별도로 고려하지 않고 투사면(10)의 상태 정보를 고려할 수 있다. 구체적으로, 전자 장치(100)는 투사면(10)의 z축 회전 정보를 고려하여 이미지 보정 동작을 수행할 수 있다.Meanwhile, the first sensor unit 113-1 may obtain state information of the electronic device 100. Here, the state information of the electronic device 100 may mean a rotation state of the electronic device 100 . Here, the first sensor unit 113-1 may include at least one of a gravity sensor, an acceleration sensor, and a gyro sensor. The x-axis rotation information and the y-axis rotation information of the electronic device 100 may be determined based on sensing data acquired through the first sensor unit 113-1. However, it may be difficult to set a specific criterion for z-axis rotation information of the electronic device 100 unless it is based on north, south, east, west, and the like. Accordingly, the electronic device 100 may consider state information of the projection surface 10 without separately considering z-axis rotation information of the electronic device 100 . Specifically, the electronic device 100 may perform an image correction operation in consideration of z-axis rotation information of the projection surface 10 .
도 14는 전자 장치(100)의 회전 정보에 기초하여 투사 이미지를 보정하는 동작을 설명하기 위한 흐름도이다.14 is a flowchart illustrating an operation of correcting a projected image based on rotation information of the electronic device 100. Referring to FIG.
도 14를 참조하면, 전자 장치(100)는 전자 장치(100)의 x축 회전 정보 및 전자 장치(100)의 y축 회전 정보를 획득할 수 있다 (S1405). 구체적으로, 전자 장치(100)는 제1 센서부(113-1)를 통해 전자 장치(100)와 관련된 회전 정보를 획득할 수 있다. Referring to FIG. 14 , the electronic device 100 may acquire x-axis rotation information and y-axis rotation information of the electronic device 100 (S1405). Specifically, the electronic device 100 may acquire rotation information related to the electronic device 100 through the first sensor unit 113-1.
그리고, 전자 장치(100)는 전자 장치(100)의 x축 회전 정보 및 전자 장치(100)의 y축 회전 정보에 기초하여 투사 이미지를 보정할 수 있다 (S1410). 구체적으로, 전자 장치(100)는 전자 장치(100)의 x축 회전 정보에 기초하여 투사 이미지에 대하여 레벨링 보정을 수행하고, 전자 장치(100)의 y축 회전 정보에 기초하여 투사 이미지에 대하여 키스톤 보정을 수행할 수 있다.Then, the electronic device 100 may correct the projected image based on the x-axis rotation information and the y-axis rotation information of the electronic device 100 (S1410). Specifically, the electronic device 100 performs leveling correction on the projection image based on the x-axis rotation information of the electronic device 100, and performs keystone correction on the projection image based on the y-axis rotation information of the electronic device 100. correction can be made.
그리고, 전자 장치(100)는 보정 동작이 수행된 후 투사 이미지를 출력할 수 있다 (S1415). 여기서, 출력되는 투사 이미지는 레벨링 보정 또는 키스톤 보정 중 적어도 하나의 보정이 수행된 이미지일 수 있다.Then, the electronic device 100 may output a projected image after the correction operation is performed (S1415). Here, the output projection image may be an image on which at least one of leveling correction and keystone correction has been performed.
도15는 투사면(10)의 회전 정보를 설명하기 위한 도면이다.15 is a diagram for explaining rotation information of the projection surface 10.
도 15의 실시 예(1510)는 x,y,z축에 따른 회전 방향을 정의한 그래프이다. x축을 기준으로 회전하는 것을 roll로 정의하고, y축을 기준으로 회전하는 것을 pitch로 정의하고, z축을 기준으로 회전하는 것을 yaw로 정의할 수 있다.The embodiment 1510 of FIG. 15 is a graph defining rotation directions along the x, y, and z axes. Rotation around the x-axis can be defined as roll, rotation around the y-axis as pitch, and rotation around the z-axis as yaw.
도 15의 실시 예(1520)는 투사면(10)의 회전 방향을 실시 예(1510)에서 정의한 회전 방향으로 설명할 수 있다. 투사면(10)의 x축 회전 정보는 투사면(10)의 x축에 기초하여 회전하는 roll에 해당할 수 있다. 투사면(10)의 y축 회전 정보는 투사면(10)의 y축에 기초하여 회전하는 pitch에 해당할 수 있다. 투사면(10)의 z축 회전 정보는 투사면(10)의 z축에 기초하여 회전하는 yaw에 해당할 수 있다.In the embodiment 1520 of FIG. 15 , the rotation direction of the projection surface 10 may be described as the rotation direction defined in the embodiment 1510 . The x-axis rotation information of the projection surface 10 may correspond to a roll rotating based on the x-axis of the projection surface 10 . The y-axis rotation information of the projection surface 10 may correspond to a pitch that rotates based on the y-axis of the projection surface 10 . The z-axis rotation information of the projection surface 10 may correspond to yaw rotating based on the z-axis of the projection surface 10 .
한편, x축 회전 정보는 제1축 회전 정보로 기재될 수 있다. 또한, y축 회전 정보는 제2 축 회전 정보로 기재될 수 있다. 또한, z축 회전 정보는 제3 축 회전 정보로 기재될 수 있다. Meanwhile, the x-axis rotation information may be described as first-axis rotation information. Also, the y-axis rotation information may be described as second-axis rotation information. Also, the z-axis rotation information may be described as third-axis rotation information.
도 16은 투사면(10)의 z축 회전 정보를 설명하기 위한 도면이다.16 is a diagram for explaining z-axis rotation information of the projection surface 10 .
도 16의 실시 예(1610)는 투사면(10)이 z축으로 회전하지 않은 상태에서 전자 장치(100)가 투사 이미지를 출력하는 상황을 전자 장치(100)의 위에서 바라본 도면이다. 전자 장치(100)는 테이블(20)에 올려져 있음을 가정한다.The embodiment 1610 of FIG. 16 is a view from above of the electronic device 100 in which the electronic device 100 outputs a projected image in a state in which the projection surface 10 is not rotated in the z-axis. Assume that the electronic device 100 is placed on the table 20 .
도 16의 실시 예(1620)는 투사면(10)이 z축 기준으로 일정 각도(θ1)만큼 반시계 방향으로 회전된 상태에서 전자 장치(100)가 투사 이미지를 출력하는 상황을 전자 장치(100)의 위에서 바라본 도면이다. 전자 장치(100)는 테이블(20)에 올려져 있음을 가정한다.The embodiment 1620 of FIG. 16 describes a situation in which the electronic device 100 outputs a projected image in a state where the projection surface 10 is rotated counterclockwise by a certain angle θ1 with respect to the z-axis. ) is a view from above. Assume that the electronic device 100 is placed on the table 20 .
도 17은 투사면(10)의 z축 회전 정보에 기초하여 투사 이미지를 보정하는 동작을 설명하기 위한 흐름도이다.17 is a flowchart illustrating an operation of correcting a projected image based on z-axis rotation information of the projection surface 10. Referring to FIG.
도 17을 참조하면, 전자 장치(100)는 제1 거리 센서(113-2-1) 및 투사면(10) 사이의 제1 거리를 획득할 수 있다 (S1705). 거리는 거리 정보로 기재될 수 있다. 제1 거리는 도 18의 d1일 수 있다.Referring to FIG. 17 , the electronic device 100 may obtain a first distance between the first distance sensor 113-2-1 and the projection surface 10 (S1705). The distance may be described as distance information. The first distance may be d1 of FIG. 18 .
그리고, 전자 장치(100)는 제2 거리 센서(113-2-2) 및 투사면(10) 사이의 제2 거리를 획득할 수 있다 (S1710). 제1 거리는 도 18의 d2일 수 있다.And, the electronic device 100 may obtain a second distance between the second distance sensor 113-2-2 and the projection surface 10 (S1710). The first distance may be d2 of FIG. 18 .
그리고, 전자 장치(100)는 제1 거리 및 제2 거리에 기초하여 투사면(10)의 z축 회전 정보를 획득할 수 있다 (S1715). 이와 관련된 구체적인 설명은 도 18에서 기재한다.Then, the electronic device 100 may acquire z-axis rotation information of the projection surface 10 based on the first distance and the second distance (S1715). A detailed description related to this will be described in FIG. 18 .
그리고, 전자 장치(100)는 투사면(10)의 z축 회전 정보에 기초하여 투사 이미지를 보정할 수 있다 (S1720). 구체적으로, 전자 장치(100)는 투사면(10)의 z축 회전 정보에 기초하여 투사 이미지에 대한 키스톤 보정을 수행할 수 있다.And, the electronic device 100 may correct the projected image based on the z-axis rotation information of the projection surface 10 (S1720). Specifically, the electronic device 100 may perform keystone correction on the projected image based on z-axis rotation information of the projection surface 10 .
그리고, 전자 장치(100)는 보정된 투사 이미지를 출력할 수 있다 (S1725).And, the electronic device 100 may output the corrected projection image (S1725).
도 18은 투사면(10)의 z축 회전 정보를 획득하는 동작을 설명하기 위한 도면이다.18 is a diagram for explaining an operation of obtaining z-axis rotation information of the projection surface 10. Referring to FIG.
도 18의 실시 예(1810)는 투사면(10)이 z축으로 회전되지 않은 상태를 나타낸다. 실시 예(1810)는 도 16의 실시 예(1610)에 대응될 수 있다. 전자 장치(100)는 제1 거리 센서(113-2-1)와 투사면(10) 사이의 제1 거리(d1)를 획득할 수 있다. 구체적으로, 전자 장치(100)는 제1 거리 센서(113-2-1)의 발광부를 통해 빛을 출력하고, 제1 거리 센서(113-2-1)의 수광부를 통해 반사된 빛을 수신할 수 있다. 전자 장치(100)는 발광부를 통해 빛이 출력된 시간과 수광부를 통해 반사된 빛이 수신된 시간에 기초하여 제1 거리(d1)를 획득할 수 있다. The embodiment 1810 of FIG. 18 shows a state in which the projection surface 10 is not rotated in the z-axis. The embodiment 1810 may correspond to the embodiment 1610 of FIG. 16 . The electronic device 100 may obtain a first distance d1 between the first distance sensor 113-2-1 and the projection surface 10. Specifically, the electronic device 100 outputs light through the light emitting unit of the first distance sensor 113-2-1 and receives light reflected through the light receiving unit of the first distance sensor 113-2-1. can The electronic device 100 may obtain the first distance d1 based on the time when light is output through the light emitter and the time when light reflected through the light receiver is received.
전자 장치(100)는 제2 거리 센서(113-2-2)와 투사면(10) 사이의 제2 거리(d2)를 획득할 수 있다. 구체적으로, 전자 장치(100)는 제2 거리 센서(113-2-2)의 발광부를 통해 빛을 출력하고, 제2 거리 센서(113-2-2)의 수광부를 통해 반사된 빛을 수신할 수 있다. 전자 장치(100)는 발광부를 통해 빛이 출력된 시간과 수광부를 통해 반사된 빛이 수신된 시간에 기초하여 제2 거리(d2)를 획득할 수 있다. The electronic device 100 may obtain the second distance d2 between the second distance sensor 113-2-2 and the projection surface 10. Specifically, the electronic device 100 outputs light through the light emitting unit of the second distance sensor 113-2-2 and receives reflected light through the light receiving unit of the second distance sensor 113-2-2. can The electronic device 100 may obtain the second distance d2 based on the time when light is output through the light emitter and the time when light reflected through the light receiver is received.
여기서, 제1 거리(d1) 및 제2 거리(d2)가 동일하면, 전자 장치(100)는 투사면(10)이 z축으로 회전되지 않은 상태로 식별할 수 있다. 또한, 전자 장치(100)는 투사면(10)의 z축 회전 정보가 '0도' 인 것으로 결정할 수 있다.Here, if the first distance d1 and the second distance d2 are the same, the electronic device 100 may identify that the projection surface 10 is not rotated along the z-axis. Also, the electronic device 100 may determine that the z-axis rotation information of the projection surface 10 is '0 degree'.
도 18의 실시 예(1820)는 투사면(10)이 z축 기준으로 일정 각도(θ1)만큼 회전된 상태를 나타낸다. 실시 예(1820)는 도 16의 실시 예(1620)에 대응될 수 있다. 전자 장치(100)는 제1 거리 센서(113-2-1)와 투사면(10) 사이의 제1 거리(d1)를 획득할 수 있다. 그리고, 전자 장치(100)는 제2 거리 센서(113-2-2)와 투사면(10) 사이의 제2 거리(d2)를 획득할 수 있다. 제1 거리(d1) 및 제2 거리(d2)와 관련된 설명은 실시 예(1810)에서 기재하였으므로 중복 설명을 생략한다.The embodiment 1820 of FIG. 18 shows a state in which the projection surface 10 is rotated by a certain angle θ1 with respect to the z-axis. The embodiment 1820 may correspond to the embodiment 1620 of FIG. 16 . The electronic device 100 may obtain a first distance d1 between the first distance sensor 113-2-1 and the projection surface 10. Also, the electronic device 100 may obtain the second distance d2 between the second distance sensor 113-2-2 and the projection surface 10. Since descriptions related to the first distance d1 and the second distance d2 have been described in the embodiment 1810, redundant descriptions will be omitted.
여기서, 제1 거리(d1) 및 제2 거리(d2)가 동일하지 않으면, 전자 장치(100)는 투사면(10)이 z축으로 회전된 상태로 식별할 수 있다. 또한, 전자 장치(100)는 제1 거리(d1), 제2 거리(d2) 및 제1 거리 센서(113-2-1) 및 제2 거리 센서(113-2-2)사이의 거리(d_sensor)에 기초하여 투사면(10)의 z축 회전 정보를 획득할 수 있다. Here, if the first distance d1 and the second distance d2 are not the same, the electronic device 100 may identify the projection surface 10 as being rotated along the z-axis. In addition, the electronic device 100 determines the first distance d1, the second distance d2, and the distance between the first distance sensor 113-2-1 and the second distance sensor 113-2-2 (d_sensor ), z-axis rotation information of the projection surface 10 may be obtained.
도 18의 실시 예(1830)는 투사면(10)의 z축 회전 정보를 계산하는 과정을 나타낸다. 전자 장치(100)는 '(d2-d1)/(d_sensor)'를 역탄젠트 함수(tan^-1)에 대입하여 투사면(10)이 z축으로 회전된 각도(θ1)를 계산할 수 있다. The embodiment 1830 of FIG. 18 shows a process of calculating z-axis rotation information of the projection surface 10. The electronic device 100 may calculate the rotation angle θ1 of the projection surface 10 in the z-axis by substituting '(d2-d1)/(d_sensor)' into the arctangent function (tan^-1).
도 19는 2 센서부의 수광부를 설명하기 위한 도면이다.19 is a view for explaining the light receiving unit of the second sensor unit.
도 19의 실시 예(1910)를 참조하면, 제2 센서부(113-2)에 포함된 거리 센서는 발광부 및 수광부를 모두 포함할 수 있다. 구체적으로, 전자 장치(100)의 제2 센서부(113-2)는 제1 거리 센서(113-2-1) 및 제2 거리 센서(113-2-2)를 포함할 수 있다. 그리고, 제1 거리 센서(113-2-1)는 제1 발광부(113-2-1-1) 및 제1 수광부(113-2-1-2)를 포함할 수 있다. 여기서, 제1 발광부(113-2-1-1)는 빛을 발산(또는 출력)하는 기능을 수행하고, 제1 수광부(113-2-1-2)는 반사된 빛을 수신하는 기능을 수행할 수 있다. 여기서, 반사된 빛은 제1 발광부(113-2-1-1)에서 발산(또는 출력)된 빛이 특정 오브젝트(예를 들어, 투사면)에 의하여 반사된 빛을 의미할 수 있다. 또한, 제2 거리 센서(113-2-2)는 제2 발광부(113-2-2-1) 및 제1 수광부(113-2-2-2)를 포함할 수 있다.Referring to the embodiment 1910 of FIG. 19 , the distance sensor included in the second sensor unit 113-2 may include both a light emitting unit and a light receiving unit. Specifically, the second sensor unit 113-2 of the electronic device 100 may include a first distance sensor 113-2-1 and a second distance sensor 113-2-2. Also, the first distance sensor 113-2-1 may include a first light emitting unit 113-2-1-1 and a first light receiving unit 113-2-1-2. Here, the first light emitting unit 113-2-1-1 functions to emit (or output) light, and the first light receiving unit 113-2-1-2 functions to receive the reflected light. can be done Here, the reflected light may mean light emitted (or output) from the first light emitting unit 113-2-1-1 and reflected by a specific object (eg, projection surface). Also, the second distance sensor 113-2-2 may include a second light emitting unit 113-2-2-1 and a first light receiving unit 113-2-2-2.
도 19의 실시 예(1920)를 참조하면, 제2 센서부(113-2)에 포함된 거리 센서는 발광부를 포함하고, 수광부가 거리 센서가 아닌 별도의 위치에 배치될 수 있다. 구체적으로, 전자 장치(100)의 제2 센서부(113-2)는 제1 거리 센서(113-2-1) 및 제2 거리 센서(113-2-2)를 포함할 수 있다. 여기서, 제1 거리 센서(113-2-1) 및 제2 거리 센서(113-2-2)는 빛을 반산(또는 출력)하는 기능을 수행할 수 있다. 여기서, 수광부(1901)는 반사된 빛을 수신할 수 있다. 제1 거리 센서(113-2-1)에서 출력되는 빛과 제2 거리 센서(113-2-2)에서 출력되는 빛의 파장 또는 진동수가 상이하므로 전자 장치(100)는 수신된 빛이 제1 거리 센서(113-2-1)에서 출력된 것인지 아니면 제2 거리 센서(113-2-2)에서 출력된 것인지 식별할 수 있다. Referring to the embodiment 1920 of FIG. 19 , the distance sensor included in the second sensor unit 113-2 may include a light emitting unit, and the light receiving unit may be disposed at a separate location other than the distance sensor. Specifically, the second sensor unit 113-2 of the electronic device 100 may include a first distance sensor 113-2-1 and a second distance sensor 113-2-2. Here, the first distance sensor 113-2-1 and the second distance sensor 113-2-2 may perform a function of reflecting (or outputting) light. Here, the light receiving unit 1901 may receive the reflected light. Since the wavelength or frequency of the light output from the first distance sensor 113-2-1 and the light output from the second distance sensor 113-2-2 are different, the electronic device 100 determines that the received light is the first It is possible to identify whether the distance sensor 113-2-1 outputs or the second distance sensor 113-2-2 outputs it.
도 20은 투사면(10)의 y축 회전 정보를 설명하기 위한 도면이다.20 is a diagram for explaining y-axis rotation information of the projection surface 10.
도 20의 실시 예(2010)를 참조하면, 투사면(10)이 y축 기준으로 회전되지 않은 상태를 나타낸다.Referring to the embodiment 2010 of FIG. 20 , a state in which the projection surface 10 is not rotated based on the y-axis is shown.
도 20의 실시 예(2020)를 참조하면, 투사면(10)이 y축 기준으로 회전된 상태를 나타낸다. 구체적으로, 투사면(10)은 y축 기준으로 일정 각도(θ2)만큼 회전되어 있음을 가정한다.Referring to the embodiment 2020 of FIG. 20 , a state in which the projection surface 10 is rotated based on the y-axis is shown. Specifically, it is assumed that the projection surface 10 is rotated by a certain angle θ2 with respect to the y-axis.
도 21은 투사면(10)의 y축 회전 정보에 기초하여 투사 이미지를 보정하는 동작을 설명하기 위한 흐름도이다.21 is a flowchart illustrating an operation of correcting a projected image based on y-axis rotation information of the projection surface 10. Referring to FIG.
도 21을 참조하면, 전자 장치(100)는 제1 거리 센서(113-2-1) 및 투사면(10) 사이의 제1 거리를 획득할 수 있다 (S2105). 여기서, 제1 거리는 도 22의 d1일 수 있다. Referring to FIG. 21 , the electronic device 100 may obtain a first distance between the first distance sensor 113-2-1 and the projection surface 10 (S2105). Here, the first distance may be d1 of FIG. 22 .
그리고, 전자 장치(100)는 제3 거리 센서(113-2-3) 및 투사면(10) 사이의 제3 거리를 획득할 수 있다 (S2110). 여기서, 제3 거리는 도 22의 d3일 수 있다. And, the electronic device 100 may obtain a third distance between the third distance sensor 113-2-3 and the projection surface 10 (S2110). Here, the third distance may be d3 of FIG. 22 .
그리고, 전자 장치(100)는 제1 거리 및 제3 거리에 기초하여 투사면(10)의 y축 회전 정보를 획득할 수 있다 (S2115). 이와 관련된 구체적인 설명은 도 22에서 기재한다.Then, the electronic device 100 may obtain y-axis rotation information of the projection surface 10 based on the first distance and the third distance (S2115). A detailed description related to this is described in FIG. 22 .
그리고, 전자 장치(100)는 투사면(10)의 y축 회전 정보에 기초하여 투사 이미지를 보정할 수 있다 (S2120). 구체적으로, 전자 장치(100)는 투사면(10)의 y축 회전 정보에 기초하여 투사 이미지에 대하여 키스톤 보정을 수행할 수 있다. And, the electronic device 100 may correct the projected image based on the y-axis rotation information of the projection surface 10 (S2120). Specifically, the electronic device 100 may perform keystone correction on the projection image based on the y-axis rotation information of the projection surface 10 .
그리고, 전자 장치(100)는 투사 이미지를 출력할 수 있다 (S2125). 구체적으로, 전자 장치(100)는 키스톤 보정이 수행된 투사 이미지를 출력할 수 있다 (S2125).And, the electronic device 100 may output a projected image (S2125). Specifically, the electronic device 100 may output a projection image on which keystone correction has been performed (S2125).
한편, 도 21에서는 투사면(10)의 y축 회전 정보를 획득하기 위하여 제1 거리 센서(113-2-1) 및 제3 거리 센서(113-2-3)를 이용하는 동작을 설명하였지만, 구현 예에 따라, 제1 거리 센서(113-2-1)가 아닌 제2 거리 센서(113-2-2)를 이용할 수 있다. 투사면(10)의 y축 회전 정보를 획득하기 위해 높이가 상이한 서로 다른 거리 센서가 이용될 수 있다.Meanwhile, in FIG. 21, the operation using the first distance sensor 113-2-1 and the third distance sensor 113-2-3 to acquire the y-axis rotation information of the projection surface 10 has been described, but implementation According to an example, the second distance sensor 113-2-2 may be used instead of the first distance sensor 113-2-1. Different distance sensors having different heights may be used to acquire y-axis rotation information of the projection surface 10 .
도 22는 투사면(10)의 y축 회전 정보를 획득하는 동작을 설명하기 위한 도면이다.22 is a diagram for explaining an operation of obtaining y-axis rotation information of the projection surface 10. Referring to FIG.
도 22의 실시 예(2210)는 투사면(10)이 y축 기준으로 회전되지 않음을 나타낸다. 실시 예(2210)는 도 20의 실시 예(2010)에 대응될 수 있다. 전자 장치(100)는 제1 거리 센서(113-2-1)에서 획득한 센싱 데이터에 기초하여 제1 거리 센서(113-2-1) 및 투사면(10) 사이의 제1 거리(d1)를 획득할 수 있다. 또한, 전자 장치(100)는 제3 거리 센서(113-2-3)에서 획득한 센싱 데이터에 기초하여 제3 거리 센서(113-2-3) 및 투사면(10) 사이의 제3 거리(d3)를 획득할 수 있다. 여기서, 제1 거리(d1) 및 제3 거리(d3)가 동일하면, 전자 장치(100)는 투사면(10)이 y축 기준으로 회전되지 않은 것으로 식별할 수 있다.The embodiment 2210 of FIG. 22 indicates that the projection surface 10 is not rotated based on the y-axis. Embodiment 2210 may correspond to embodiment 2010 of FIG. 20 . The electronic device 100 determines the first distance d1 between the first distance sensor 113-2-1 and the projection surface 10 based on the sensing data acquired by the first distance sensor 113-2-1. can be obtained. In addition, the electronic device 100 determines the third distance between the third distance sensor 113-2-3 and the projection surface 10 based on the sensing data obtained from the third distance sensor 113-2-3. d3) can be obtained. Here, if the first distance d1 and the third distance d3 are the same, the electronic device 100 may identify that the projection surface 10 is not rotated based on the y-axis.
도 22의 실시 예(2220)는 투사면(10)이 y축 기준으로 회전됨을 나타낸다. 실시 예(2220)는 도 20의 실시 예(2020)에 대응될 수 있다. 제1 거리(d1)가 제3 거리(d3)와 동일하지 않다면, 전자 장치(100)는 투사면(10)이 y축 기준으로 회전되어 있다고 식별할 수 있다. 또한, 전자 장치(100)는 제1 거리(d1), 제3 거리(d3) 및 제1 거리 센서(113-2-1)와 제3 거리 센서(113-2-3)의 높이 차이(d_sensor-H)에 기초하여 투사면(10)의 y축 회전 정보를 획득할 수 있다.In the embodiment 2220 of FIG. 22 , the projection surface 10 is rotated based on the y-axis. Embodiment 2220 may correspond to embodiment 2020 of FIG. 20 . If the first distance d1 is not equal to the third distance d3, the electronic device 100 may identify that the projection surface 10 is rotated based on the y-axis. In addition, the electronic device 100 determines the first distance d1, the third distance d3, and the height difference between the first distance sensor 113-2-1 and the third distance sensor 113-2-3 (d_sensor Based on -H), y-axis rotation information of the projection surface 10 may be obtained.
도 22의 실시 예(2230)는 투사면(10)의 y축 회전 정보를 계산하는 과정을 나타낸다. 전자 장치(100)는 '(d1-d3)/(d_sensor-H)'를 역탄젠트 함수(tan^-1)에 대입하여 투사면(10)이 y축으로 회전된 각도(θ2)를 계산할 수 있다. Example 2230 of FIG. 22 shows a process of calculating y-axis rotation information of the projection surface 10 . The electronic device 100 may calculate the rotation angle θ2 of the projection surface 10 in the y-axis by substituting '(d1-d3)/(d_sensor-H)' into the inverse tangent function (tan^-1). there is.
한편, 도 22에서는 제3 거리 센서(113-2-3)를 이용하여 투사면(10)의 y축 회전 정보를 획득하는 동작을 기재하였다. 하지만, 구현 예에 따라 투사면(10)의 y축 회전 정보를 획득하기 위하여 제3 거리 센서(113-2-3) 없이 제1 거리 센서(113-2-1) 및 제2 거리 센서(113-2-2)만을 이용할 수 있다. 이와 관련된 배치 구조는 도 25의 전자 장치(100-2)와 동일할 수 있다. 2개의 거리 센서가 도 25의 전자 장치(100-2)와 같이 수평 위치 및 수직 위치가 모두 상이하게 배치될 수 있다. 여기서, 전자 장치(100-2)는 2개의 거리 센서를 통해 투사면(10)의 y축 회전 정보 및 투사면(10)의 z축 회전 정보를 모두 획득할 수 있다.Meanwhile, in FIG. 22 , an operation of obtaining y-axis rotation information of the projection surface 10 using the third distance sensor 113-2-3 has been described. However, according to the implementation example, the first distance sensor 113-2-1 and the second distance sensor 113 without the third distance sensor 113-2-3 in order to obtain the y-axis rotation information of the projection surface 10 -2-2) only. A related arrangement structure may be the same as that of the electronic device 100 - 2 of FIG. 25 . As in the electronic device 100-2 of FIG. 25, the two distance sensors may be disposed differently in both horizontal and vertical positions. Here, the electronic device 100 - 2 may acquire both y-axis rotation information and z-axis rotation information of the projection surface 10 through two distance sensors.
도 23은 전자 장치(100)의 상태 정보 및 투사면(10)의 상태 정보에 기초하여 레벨링 보정 또는 키스톤 보정의 수행 여부를 설명하기 위한 표이다.23 is a table for explaining whether leveling correction or keystone correction is performed based on state information of the electronic device 100 and state information of the projection surface 10 .
도 23의 표(2310)를 참조하면, 전자 장치(100)는 전자 장치(100)의 상태 정보 또는 투사면(10)의 상태 정보 중 적어도 하나에 기초하여 보정 동작을 수행할 수 있다. 구체적으로, 전자 장치(100)의 상태 정보는 전자 장치(100)의 x축 회전 정보 및 전자 장치(100)의 y축 회전 정보를 포함할 수 있다. 또한, 투사면(10)의 상태 정보는 투사면(10)의 y축 회전 정보 및 투사면(10)의 z축 회전 정보를 포함할 수 있다. Referring to table 2310 of FIG. 23 , the electronic device 100 may perform a correction operation based on at least one of state information of the electronic device 100 and state information of the projection surface 10 . Specifically, the state information of the electronic device 100 may include x-axis rotation information and y-axis rotation information of the electronic device 100 of the electronic device 100 . In addition, the state information of the projection surface 10 may include y-axis rotation information and z-axis rotation information of the projection surface 10 .
여기서, 전자 장치(100)는 전자 장치(100)의 x축 회전 정보에 기초하여 레벨링 보정(또는 레벨링 보정 기능)을 수행할 수 있다. 또한, 전자 장치(100)는 전자 장치(100)의 y축 회전 정보, 투사면(10)의 y축 회전 정보 또는 투사면(10)의 z축 회전 정보 중 적어도 하나에 기초하여 키스톤 보정(또는 키스톤 보정 기능)을 수행할 수 있다. Here, the electronic device 100 may perform leveling correction (or leveling correction function) based on the x-axis rotation information of the electronic device 100 . In addition, the electronic device 100 performs keystone correction (or keystone correction function).
구체적으로, 전자 장치(100)가 x축으로 회전된 경우, 전자 장치(100)는 투사 이미지를 시계 방향 또는 반시계 방향으로 회전시키는 레벨링 보정을 수행할 수 있다. Specifically, when the electronic device 100 is rotated along the x-axis, the electronic device 100 may perform leveling correction by rotating the projected image clockwise or counterclockwise.
전자 장치(100)가 y축으로 회전된 경우, 전자 장치(100)는 투사 이미지의 수직 방향으로 발생된 왜곡을 제거하기 위해 키스톤 보정(수직 키스톤 보정 또는 상하 키스톤 보정)을 수행할 수 있다. When the electronic device 100 is rotated along the y-axis, the electronic device 100 may perform keystone correction (vertical keystone correction or up/down keystone correction) to remove distortion generated in the vertical direction of the projected image.
투사면(10)이 y축으로 회전된 경우, 전자 장치(100)는 투사 이미지의 수직 방향으로 발생된 왜곡을 제거하기 위해 키스톤 보정(수직 키스톤 보정 또는 상하 키스톤 보정)을 수행할 수 있다. When the projection surface 10 is rotated along the y-axis, the electronic device 100 may perform keystone correction (vertical keystone correction or up and down keystone correction) to remove distortion generated in the vertical direction of the projected image.
투사면(10)이 z축으로 회전된 경우, 전자 장치(100)는 투사 이미지의 수평 방향으로 발생된 왜곡을 제거하기 위해 키스톤 보정(수평 키스톤 보정 또는 좌우 키스톤 보정)을 수행할 수 있다. When the projection surface 10 is rotated in the z-axis, the electronic device 100 may perform keystone correction (horizontal keystone correction or left and right keystone correction) to remove distortion generated in the horizontal direction of the projected image.
한편, 투사면(10)은 y축 또는 z축으로 회전된 경우가 일반적이므로 x축으로 회전되는 경우를 가정하지 않았다. 투사면(10)의 x축 회전 정보와 관련하여 도 41 및 도 42에서 기재한다.Meanwhile, since the projection surface 10 is generally rotated along the y-axis or z-axis, it is not assumed that the projection surface 10 rotates along the x-axis. 41 and 42 in relation to the x-axis rotation information of the projection surface 10.
도 24는 전자 장치(100)의 상태 정보 및 투사면(10)의 상태 정보에 기초하여 레벨링 보정 또는 키스톤 보정의 수행 여부를 설명하기 위한 흐름도이다.24 is a flowchart for explaining whether leveling correction or keystone correction is performed based on state information of the electronic device 100 and state information of the projection surface 10 .
도 24를 참조하면, 전자 장치(100)는 전자 장치(100)의 x축 회전 정보 및 전자 장치(100)의 y축 회전 정보를 획득할 수 있다 (S2405). 구체적으로, 전자 장치(100)는 제1 센서부(113-1)를 통해 전자 장치(100)의 회전 정보를 획득할 수 있다. Referring to FIG. 24 , the electronic device 100 may acquire x-axis rotation information and y-axis rotation information of the electronic device 100 (S2405). Specifically, the electronic device 100 may acquire rotation information of the electronic device 100 through the first sensor unit 113-1.
그리고, 전자 장치(100)는 제1 거리 센서(113-2-1) 및 투사면(10) 사이의 제1 거리(d1), 제2 거리 센서(113-2-2) 및 투사면(10) 사이의 제2 거리(d2) 및 제3 거리 센서(113-2-3) 및 투사면(10) 사이의 제3 거리(d3)를 획득할 수 있다 (S2410).In addition, the electronic device 100 determines the first distance d1 between the first distance sensor 113-2-1 and the projection surface 10, the second distance sensor 113-2-2 and the projection surface 10 ) and a third distance d3 between the third distance sensor 113-2-3 and the projection surface 10 may be obtained (S2410).
그리고, 전자 장치(100)는 제1 거리(d1) 및 제2 거리(d2)에 기초하여 투사면(10)의 z축 회전 정보를 획득할 수 있다 (S2415). 또한, 전자 장치(100)는 제1 거리(d1) 및 제3 거리(d3)에 기초하여 투사면(10)의 y축 회전 정보를 획득할 수 있다 (S2420).Then, the electronic device 100 may obtain z-axis rotation information of the projection surface 10 based on the first distance d1 and the second distance d2 (S2415). Also, the electronic device 100 may obtain y-axis rotation information of the projection surface 10 based on the first distance d1 and the third distance d3 (S2420).
그리고, 전자 장치(100)는 전자 장치(100)의 x축 회전 정보에 기초하여 투사 이미지에 대한 레벨링 보정을 수행할 수 있다 (S2425).Then, the electronic device 100 may perform leveling correction on the projected image based on the x-axis rotation information of the electronic device 100 (S2425).
그리고, 전자 장치(100)는 전자 장치(100)의 y축 회전 정보, 투사면(10)의 y축 회전 정보 및 투사면(10)의 z축 회전 정보에 기초하여 투사 이미지에 대한 키스톤 보정을 수행할 수 있다 (S2430). And, the electronic device 100 performs keystone correction on the projected image based on the y-axis rotation information of the electronic device 100, the y-axis rotation information of the projection surface 10, and the z-axis rotation information of the projection surface 10. It can be performed (S2430).
그리고, 전자 장치(100)는 레벨링 보정 및 키스톤 보정 중 적어도 하나가 수행된 이후 투사 이미지를 출력할 수 있다 (S2435). 만약, 전자 장치(100) 및 투사면(10) 모두가 회전되지 않은 경우, 전자 장치(100)는 레벨링 보정 및 키스톤 보정을 수행하지 않을 수 있다. 마찬가지로, 회전 정보에 따라서, S2425 단계 또는 S2430 단계 중 적어도 하나의 단계가 생략될 수 있다. Then, the electronic device 100 may output a projection image after at least one of leveling correction and keystone correction is performed (S2435). If both the electronic device 100 and the projection surface 10 are not rotated, the electronic device 100 may not perform leveling correction and keystone correction. Similarly, according to the rotation information, at least one of step S2425 or step S2430 may be omitted.
도 25는 다양한 실시 예에 따른 제2 센서부(113-2)를 설명하기 위한 도면이다.25 is a diagram for explaining the second sensor unit 113-2 according to various embodiments.
도 25의 실시 예(2510)는 2개의 거리 센서를 이용하는 전자 장치(100)를 나타낸다. 전자 장치(100)는 제1 거리 센서(113-2-1) 및 제2 거리 센서(113-2-2)를 포함할 수 있다. An embodiment 2510 of FIG. 25 illustrates an electronic device 100 using two distance sensors. The electronic device 100 may include a first distance sensor 113-2-1 and a second distance sensor 113-2-2.
전자 장치(100-1)에서 제1 거리 센서(113-2-1) 및 제2 거리 센서(113-2-2)가 서로 수평하게 배치될 수 있다. In the electronic device 100-1, the first distance sensor 113-2-1 and the second distance sensor 113-2-2 may be disposed horizontally.
또한, 전자 장치(100-2)에서 제1 거리 센서(113-2-1) 및 제2 거리 센서(113-2-2)는 서로 수평하지 않게 배치될 수 있다. 전자 장치(100-2)에서 제1 거리 센서(113-2-1) 및 제2 거리 센서(113-2-2)는 가로 및 세로가 모두 상이하게 배치될 수 있다. 전자 장치(100-2)와 같이 제1 거리 센서(113-2-1) 및 제2 거리 센서(113-2-2)가 서로 수평하지도 않고 서로 수직하지도 않으면 제3 거리 센서(113-2-3)가 필요하지 않을 수 있다. 따라서, 도 21, 도 22, 도 24에서 개시하는 제3 거리 센서(113-2-3) 및 제3 거리(d3)는 제2 거리 센서(113-2-2) 및 제2 거리(d2)로 대체될 수 있다. Also, in the electronic device 100-2, the first distance sensor 113-2-1 and the second distance sensor 113-2-2 may be disposed not horizontally. In the electronic device 100-2, the first distance sensor 113-2-1 and the second distance sensor 113-2-2 may be differently disposed horizontally and vertically. Like the electronic device 100-2, if the first distance sensor 113-2-1 and the second distance sensor 113-2-2 are neither horizontal nor perpendicular to each other, the third distance sensor 113-2-2 3) may not be necessary. Accordingly, the third distance sensor 113-2-3 and the third distance d3 disclosed in FIGS. 21, 22, and 24 correspond to the second distance sensor 113-2-2 and the second distance d2. can be replaced with
도 25의 실시 예(2520)는 3개의 거리 센서를 이용하는 전자 장치(100)를 나타낸다. 전자 장치(100)는 제1 거리 센서(113-2-1), 제2 거리 센서(113-2-2) 및 제3 거리 센서(113-2-3)를 포함할 수 있다. An embodiment 2520 of FIG. 25 illustrates an electronic device 100 using three distance sensors. The electronic device 100 may include a first distance sensor 113-2-1, a second distance sensor 113-2-2, and a third distance sensor 113-2-3.
전자 장치(100-3)에서 제1 거리 센서(113-2-1) 및 제2 거리 센서(113-2-2)가 수평하게 배치되고 제3 거리 센서(113-2-3)는 제1 거리 센서(113-2-1) 및 제2 거리 센서(113-2-2)와 수직하지 않게 배치될 수 있다. In the electronic device 100-3, the first distance sensor 113-2-1 and the second distance sensor 113-2-2 are horizontally disposed, and the third distance sensor 113-2-3 is It may be disposed not perpendicular to the distance sensor 113-2-1 and the second distance sensor 113-2-2.
전자 장치(100-4)에서 제1 거리 센서(113-2-1) 및 제2 거리 센서(113-2-2)가 수평하게 배치되고 제3 거리 센서(113-2-3)는 제1 거리 센서(113-2-1)(또는 제2 거리 센서(113-2-2))와 수직하게 배치될 수 있다. 여기서, 제1 거리 센서(113-2-1) 및 제2 거리 센서(113-2-2) 사이에 프로젝션 렌즈(110)가 배치될 수 있다.In the electronic device 100-4, the first distance sensor 113-2-1 and the second distance sensor 113-2-2 are horizontally disposed, and the third distance sensor 113-2-3 is It may be disposed perpendicular to the distance sensor 113-2-1 (or the second distance sensor 113-2-2). Here, the projection lens 110 may be disposed between the first distance sensor 113-2-1 and the second distance sensor 113-2-2.
전자 장치(100-5)는 제1 거리 센서(113-2-1) 및 제2 거리 센서(113-2-2)가 수평하게 배치되고 제3 거리 센서(113-2-3)는 제1 거리 센서(113-2-1)(또는 제2 거리 센서(113-2-2))와 수직하게 배치될 수 있다. 여기서, 제1 거리 센서(113-2-1), 제2 거리 센서(113-2-2) 및 제3 거리 센서(113-2-3)가 모두 프로젝션 렌즈(110)를 기준으로 모두 동일한 방향(좌측 또는 우측)에 배치될 수 있다. In the electronic device 100-5, the first distance sensor 113-2-1 and the second distance sensor 113-2-2 are horizontally disposed, and the third distance sensor 113-2-3 is It may be disposed perpendicular to the distance sensor 113-2-1 (or the second distance sensor 113-2-2). Here, the first distance sensor 113-2-1, the second distance sensor 113-2-2, and the third distance sensor 113-2-3 are all directed in the same direction relative to the projection lens 110. (left or right).
도 25의 실시 예(2530)는 4개의 거리 센서를 이용하는 전자 장치(100)를 나타낸다. 전자 장치(100)는 제1 거리 센서(113-2-1), 제2 거리 센서(113-2-2), 제3 거리 센서(113-2-3) 및 제4 거리 센서(113-2-4)를 포함할 수 있다. An embodiment 2530 of FIG. 25 illustrates an electronic device 100 using four distance sensors. The electronic device 100 includes a first distance sensor 113-2-1, a second distance sensor 113-2-2, a third distance sensor 113-2-3, and a fourth distance sensor 113-2. -4) may be included.
전자 장치(100-5)에서 제1 거리 센서(113-2-1) 및 제2 거리 센서(113-2-2)는 수평하게 배치되고, 제3 거리 센서(113-2-3) 및 제4 거리 센서(113-2-4)는 수직하게 배치될 수 있다. In the electronic device 100-5, the first distance sensor 113-2-1 and the second distance sensor 113-2-2 are horizontally disposed, and the third distance sensor 113-2-3 and the The 4 distance sensors 113-2-4 may be arranged vertically.
도 26은 프로젝션 렌즈(110)의 오프셋을 설명하기 위한 도면이다.26 is a diagram for explaining the offset of the projection lens 110.
도 26을 참조하면, 실시 예(2610)는 프로젝션 렌즈(110)의 오프셋이 0%인 상황의 프로젝션 렌즈(110)의 배치를 나타낸다. 실시 예(2620)는 프로젝션 렌즈(110)의 오프셋이 100%인 상황의 프로젝션 렌즈(110)의 배치를 나타낸다. 실시 예(2630)는 프로젝션 렌즈(110)의 오프셋이 150%인 상황의 프로젝션 렌즈(110)의 배치를 나타낸다. 실시 예(2640)는 프로젝션 렌즈(110)의 오프셋이 200%인 상황의 프로젝션 렌즈(110)의 배치를 나타낸다. 여기서, 오프셋은 프로젝션 렌즈(110)의 특성에 따라 결정될 수 있으며, 전자 장치(100)의 사용자 설정에 의해 변경될 수 있다. 예를 들어, 기본 오프셋이 실시 예(2620)와 같이 오프셋 100%로 설정될 수 있다.Referring to FIG. 26 , an embodiment 2610 shows the arrangement of the projection lens 110 in a situation where the offset of the projection lens 110 is 0%. Embodiment 2620 shows the arrangement of the projection lens 110 in a situation where the offset of the projection lens 110 is 100%. Embodiment 2630 shows the arrangement of the projection lens 110 in a situation where the offset of the projection lens 110 is 150%. Example 2640 shows the arrangement of the projection lens 110 in a situation where the offset of the projection lens 110 is 200%. Here, the offset may be determined according to the characteristics of the projection lens 110 and may be changed by user settings of the electronic device 100 . For example, the basic offset may be set to offset 100% as in the embodiment 2620.
도 27은 투사 이미지의 비율을 고려하여 투사 이미지를 출력하는 동작을 설명하기 위한 흐름도이다.27 is a flowchart for explaining an operation of outputting a projected image in consideration of a ratio of the projected image.
도 27을 참조하면, 전자 장치(100)는 전자 장치(100)의 상태 정보를 획득할 수 있다 (S2705). 그리고, 전자 장치(100)는 투사면(10)의 상태 정보를 획득할 수 있다 (S2710). Referring to FIG. 27 , the electronic device 100 may acquire state information of the electronic device 100 (S2705). Then, the electronic device 100 may obtain state information of the projection surface 10 (S2710).
그리고, 전자 장치(100)는 전자 장치(100)의 상태 정보 및 투사면(10)의 상태 정보에 기초하여 투사 이미지를 보정할 수 있다 (S2715). 여기서, S2715 단계는 전자 장치(100)는 전자 장치(100)의 상태 정보 또는 투사면(10)의 상태 정보 중 적어도 하나에 기초하여 투사 이미지를 보정하는 동작으로 대체될 수 있다.Then, the electronic device 100 may correct the projected image based on the state information of the electronic device 100 and the state information of the projection surface 10 (S2715). Here, step S2715 may be replaced with an operation in which the electronic device 100 corrects the projected image based on at least one of state information of the electronic device 100 and state information of the projection surface 10 .
그리고, 전자 장치(100)는 전자 장치(100)와 투사면까지의 거리 정보를 획득할 수 있다 (S2720). 그리고, 전자 장치(100)는 획득된 거리 정보에 기초하여 투사 이미지의 비율을 결정할 수 있다 (S2725). 그리고, 전자 장치(100)는 S2715 단계에서 보정된 투사 이미지 및 S2725 단계에서 결정된 비율에 기초하여 투사 이미지를 출력할 수 있다 (S2730).And, the electronic device 100 may acquire distance information between the electronic device 100 and the projection surface (S2720). Then, the electronic device 100 may determine the ratio of the projected image based on the obtained distance information (S2725). Then, the electronic device 100 may output the projected image based on the corrected projection image in step S2715 and the ratio determined in step S2725 (S2730).
도 28은 투사 거리를 고려하여 투사 이미지를 출력하는 동작을 설명하기 위한 도면이다.28 is a diagram for explaining an operation of outputting a projection image in consideration of a projection distance.
도 28의 실시 예(2810)는 제1 거리 센서(113-2-1)에서 센싱하고자 하는 제1 거리(d1)를 의미할 수 있다. 전자 장치(100)는 거리에 따른 센싱 크기를 식별할 수 있다.The embodiment 2810 of FIG. 28 may mean the first distance d1 to be sensed by the first distance sensor 113-2-1. The electronic device 100 may identify the sensing size according to the distance.
한편, 제1 거리 센서(113-2-1)의 성능에 따라 거리(d1)에 따른 센싱 크기가 상이할 수 있다. 전자 장치(100)는 제1 거리 센서(113-2-1)의 성능에 대응되는 거리별 센싱 크기를 저장할 수 있다. 그리고, 전자 장치(100)는 성능에 대응되는 거리별 센싱 크기에 기초하여 센싱 데이터를 분석할 수 있다.Meanwhile, the sensing size according to the distance d1 may be different according to the performance of the first distance sensor 113-2-1. The electronic device 100 may store the sensing size for each distance corresponding to the performance of the first distance sensor 113-2-1. In addition, the electronic device 100 may analyze the sensing data based on the sensing size for each distance corresponding to the performance.
여기서, 제1 거리(d1)는 투사 거리로 이용될 수 있다. 한편, 전자 장치(100)는 제1 거리 센서(113-2-1) 이외에 제2 거리 센서(113-2-2)를 이용하여 제2 거리(d2)를 획득할 수 있다. 일 실시 예에 따라, 전자 장치(100)는 제1 거리(d1) 또는 제2 거리(d2) 중 하나의 값으로 투사 거리를 결정할 수 있다. 다른 실시 예에 따라, 전자 장치(100)는 제1 거리(d1) 및 제2 거리(d2)를 모두 이용하여 투사 거리를 결정할 수 있다. 예를 들어, 프로세서(114)는 제1 거리(d1) 및 제2 거리(d2)의 평균값을 투사 거리를 결정할 수 있다.Here, the first distance d1 may be used as a projection distance. Meanwhile, the electronic device 100 may obtain the second distance d2 by using the second distance sensor 113-2-2 in addition to the first distance sensor 113-2-1. According to an embodiment, the electronic device 100 may determine the projection distance as one of the first distance d1 and the second distance d2. According to another embodiment, the electronic device 100 may determine the projection distance using both the first distance d1 and the second distance d2. For example, the processor 114 may determine the projection distance as an average value of the first distance d1 and the second distance d2.
도 28의 실시 예(2820)에서, 투사 비율은 투사 거리/이미지 가로길이 일 수 있다. 여기서, 투사 비율은 전자 장치(100)의 성능(또는 속성)에 따라 상이할 수 있으며, 정해진 투사 비율에 따라 투사 거리 또는 이미지의 크기가 결정될 수 있다. In the embodiment 2820 of FIG. 28 , the projection ratio may be projection distance/image horizontal length. Here, the projection ratio may be different according to the performance (or property) of the electronic device 100, and the projection distance or image size may be determined according to the predetermined projection ratio.
도 28의 실시 예(2830)에서, 이미지의 가로길이는 투사 거리/투사 비율일 수 있다. 여기서, 투사 비율이 정해지면 투사 거리에 따라 이미지의 가로길이가 결정될 수 있다. In the embodiment 2830 of FIG. 28 , the horizontal length of the image may be projection distance/projection ratio. Here, if the projection ratio is determined, the horizontal length of the image may be determined according to the projection distance.
여기서, 이미지 가로길이는 투사면에 출력되는 이미지의 크기를 나타낼 수 있다. 따라서, 투사 비율이 동일하다고 하더라도 투사 거리가 증가하면 이미지의 가로 길이가 증가할 수 있다. Here, the horizontal length of the image may indicate the size of the image output on the projection surface. Therefore, even if the projection ratio is the same, if the projection distance increases, the horizontal length of the image may increase.
도 29는 제2 센서부(113-2)에 포함된 제1 거리 센서 및 제2 거리 센서의 배치를 설명하기 위한 도면이다.29 is a diagram for explaining the arrangement of the first distance sensor and the second distance sensor included in the second sensor unit 113-2.
도 29의 실시 예(2910)는 제1 거리 센서(113-2-1) 및 제2 거리 센서(113-2-2) 사이의 거리(d_2910)만큼 떨어지도록 배치된 상황을 나타낸다. 여기서, 제1 거리 센서(113-2-1)의 센싱 각도는 θ_2911이고, 제1 거리 센서(113-2-1)와 투사면(10)까지의 거리는 d_2911일 수 있다. 또한, 제2 거리 센서(113-2-2)의 센싱 각도는 θ_2912이고, 제2 거리 센서(113-2-2)와 투사면(10)까지의 거리는 d_2912일 수 있다. 여기서, 전자 장치(100)는 제1 거리 센서(113-2-1)의 센싱 각도(θ_2911) 및 제1 거리 센서(113-2-1)와 투사면(10) 사이의 거리(d_2911), 제2 거리 센서(113-2-2)의 센싱 각도(θ_2912), 제2 거리 센서(113-2-2)와 투사면(10) 사이의 거리(d_2912) 및 제1 거리 센서(113-2-1)와 제2 거리 센서(113-2-2) 사이의 거리(d_2910)에 기초하여 중복 센싱 거리(d_s1)를 획득할 수 있다.The embodiment 2910 of FIG. 29 represents a situation in which the first distance sensor 113-2-1 and the second distance sensor 113-2-2 are spaced apart by a distance d_2910. Here, the sensing angle of the first distance sensor 113-2-1 may be θ_2911, and the distance between the first distance sensor 113-2-1 and the projection surface 10 may be d_2911. Also, the sensing angle of the second distance sensor 113-2-2 may be θ_2912, and the distance between the second distance sensor 113-2-2 and the projection surface 10 may be d_2912. Here, the electronic device 100 includes a sensing angle (θ_2911) of the first distance sensor 113-2-1 and a distance (d_2911) between the first distance sensor 113-2-1 and the projection surface 10, The sensing angle (θ_2912) of the second distance sensor 113-2-2, the distance between the second distance sensor 113-2-2 and the projection surface 10 (d_2912), and the first distance sensor 113-2 -1) and the distance (d_2910) between the second distance sensor 113-2-2, the overlapping sensing distance (d_s1) may be obtained.
도 29의 실시 예(2920)는 제1 거리 센서(113-2-1) 및 제2 거리 센서(113-2-2) 사이의 거리(d_2920)만큼 떨어지도록 배치된 상황을 나타낸다. 여기서, 제1 거리 센서(113-2-1)의 센싱 각도는 θ_2911이고, 제1 거리 센서(113-2-1)와 투사면(10)까지의 거리는 d_2911일 수 있다. 또한, 제2 거리 센서(113-2-2)의 센싱 각도는 θ_2912이고, 제2 거리 센서(113-2-2)와 투사면(10)까지의 거리는 d_2912일 수 있다. 여기서, 전자 장치(100)는 제1 거리 센서(113-2-1)의 센싱 각도(θ_2911) 및 제1 거리 센서(113-2-1)와 투사면(10) 사이의 거리(d_2911), 제2 거리 센서(113-2-2)의 센싱 각도(θ_2912), 제2 거리 센서(113-2-2)와 투사면(10) 사이의 거리(d_2912) 및 제1 거리 센서(113-2-1)와 제2 거리 센서(113-2-2) 사이의 거리(d_2920)에 기초하여 중복 센싱 거리(d_s2)를 획득할 수 있다.The embodiment 2920 of FIG. 29 shows a situation in which the first distance sensor 113-2-1 and the second distance sensor 113-2-2 are separated by a distance d_2920. Here, the sensing angle of the first distance sensor 113-2-1 may be θ_2911, and the distance between the first distance sensor 113-2-1 and the projection surface 10 may be d_2911. Also, the sensing angle of the second distance sensor 113-2-2 may be θ_2912, and the distance between the second distance sensor 113-2-2 and the projection surface 10 may be d_2912. Here, the electronic device 100 includes a sensing angle (θ_2911) of the first distance sensor 113-2-1 and a distance (d_2911) between the first distance sensor 113-2-1 and the projection surface 10, The sensing angle (θ_2912) of the second distance sensor 113-2-2, the distance between the second distance sensor 113-2-2 and the projection surface 10 (d_2912), and the first distance sensor 113-2 -1) and the distance (d_2920) between the second distance sensor 113-2-2, the overlapping sensing distance (d_s2) may be obtained.
전자 장치(100)는 제1 거리 센서(113-2-1) 및 제2 거리 센서(113-2-2) 사이의 거리에 따라서 상이한 중복 센싱 거리를 획득할 수 있다. 여기서, 프로젝션 렌즈(110)의 성능에 따라 최적의 중복 센싱 거리가 존재할 수 있다. 여기서, 최적의 중복 센싱 거리를 임계 범위로 기재할 수 있다. 중복 센싱 거리가 너무 크면 거리 센서를 통해 획득된 센싱 데이터의 계산 정확도가 떨어질 수 있다. 따라서, 프로젝션 렌즈(110)와 투사면(10)까지의 거리에 따라 최적의 중복 센싱 거리가 존재할 수 있다.The electronic device 100 may obtain different overlapping sensing distances according to the distance between the first distance sensor 113-2-1 and the second distance sensor 113-2-2. Here, an optimal overlapping sensing distance may exist according to the performance of the projection lens 110 . Here, the optimal overlapping sensing distance may be described as a critical range. If the redundant sensing distance is too large, calculation accuracy of sensing data acquired through the distance sensor may decrease. Therefore, an optimal overlapping sensing distance may exist according to the distance between the projection lens 110 and the projection surface 10 .
전자 장치(100)는 현재 배치된 위치에서 제1 거리 센서(113-2-1) 및 제2 거리 센서(113-2-2)를 이용하여 중복 센싱 거리를 획득할 수 있다. 그리고, 전자 장치(100)는 중복 센싱 거리가 임계 범위인지 여부를 식별할 수 있다. 만약, 중복 센싱 거리가 임계 범위를 벗어나면, 전자 장치(100)는 현재 전자 장치(100)의 배치가 잘못되어 있음을 알리기 위한 가이드 정보 및 적절한 배치 거리를 나타내는 가이드 정보를 포함하는 UI(User Interface)를 출력할 수 있다. 사용자는 출력된 UI에 기초하여 전자 장치(100)의 위치를 이동시킬 수 있다.The electronic device 100 may obtain a redundant sensing distance using the first distance sensor 113-2-1 and the second distance sensor 113-2-2 at the current location. And, the electronic device 100 may identify whether the overlapping sensing distance is within a critical range. If the overlapping sensing distance is out of the critical range, the electronic device 100 uses a user interface (UI) including guide information for notifying that the current arrangement of the electronic device 100 is incorrect and guide information indicating an appropriate arrangement distance. can output The user may move the location of the electronic device 100 based on the output UI.
도 30은 투사면(10)이 z축으로 회전되어 있지 않은 상태에서 투사 이미지를 출력하는 동작을 설명하기 위한 도면이다.30 is a diagram for explaining an operation of outputting a projection image in a state in which the projection surface 10 is not rotated along the z-axis.
도 30의 전자 장치(100)는 제1 센서부(113-1)를 포함하고 제2 센서부(113-2)를 포함하지 않는 것으로 가정한다.It is assumed that the electronic device 100 of FIG. 30 includes the first sensor unit 113-1 and does not include the second sensor unit 113-2.
도 30의 평면도(3011)는 투사면(10)에 투사 이미지를 출력하는 전자 장치(100)를 나타낸다.A plan view 3011 of FIG. 30 shows the electronic device 100 outputting a projection image on the projection surface 10 .
도 30의 정면도(3012)는 평면도(3011)에 대응되는 상황에서 투사 이미지가 출력됨을 나타낸다.A front view 3012 of FIG. 30 indicates that a projected image is output in a situation corresponding to the plan view 3011 .
평면도(3011)에서는 투사면(10)이 z축 기준으로 회전되어 있지 않았으므로, 투사면(10)의 z축 회전 정보를 고려하지 않음에도 정상적으로 투사 이미지가 출력될 수 있다. In the plan view 3011, since the projection surface 10 is not rotated based on the z-axis, the projection image can be normally output even though z-axis rotation information of the projection surface 10 is not considered.
도 31은 투사면(10)이 z축으로 회전된 상태에서 투사면(10)의 상태 정보를 고려하여 투사 이미지를 보정하는 이유를 설명하기 위한 도면이다.FIG. 31 is a diagram for explaining the reason for correcting a projection image in consideration of state information of the projection surface 10 in a state in which the projection surface 10 is rotated along the z-axis.
도 31의 전자 장치(100)는 제1 센서부(113-1)를 포함하고 제2 센서부(113-2)를 포함하지 않는 것으로 가정한다.It is assumed that the electronic device 100 of FIG. 31 includes the first sensor unit 113-1 and does not include the second sensor unit 113-2.
도 31의 평면도(3111)는 투사면(10)이 z축으로 일정 각도(θ1)만큼 회전되어 있음을 나타낸다.A plan view 3111 of FIG. 31 shows that the projection surface 10 is rotated by a certain angle θ1 in the z-axis.
도 31의 정면도(3112)는 평면도(3011)에 대응되는 상황에서 투사 이미지가 왜곡되어 출력됨을 나타낸다. 여기서, 도 31의 전자 장치(100)는 제2 센서부(113-2)를 포함하지 않으므로, 투사면(10)의 상태 정보를 획득하지 못할 수 있다. 따라서, 전자 장치(100)는 투사면(10)이 z축 기준으로 회전되어 있음을 알 수 없다. A front view 3112 of FIG. 31 indicates that the projected image is distorted and output in a situation corresponding to the plan view 3011 . Here, since the electronic device 100 of FIG. 31 does not include the second sensor unit 113-2, state information of the projection surface 10 may not be acquired. Therefore, the electronic device 100 cannot know that the projection surface 10 is rotated about the z-axis.
도 31의 정면도(3113)는 평면도(3011)에 대응되는 상황에서 보정 동작이 수행된 이후 출력된 투사 이미지를 나타낸다. 전자 장치(100)가 제2 센서부(113-2)를 포함하지 않는 경우, 전자 장치(100)는 투사면(10)이 z축 기준으로 회전되어 있음을 알 수 없다. 따라서, 전자 장치(100)는 보정 동작을 수행하여도 투사 이미지의 왜곡 문제를 해결하지 못할 수 있다. A front view 3113 of FIG. 31 shows a projected image output after a correction operation is performed in a situation corresponding to the plan view 3011 . When the electronic device 100 does not include the second sensor unit 113-2, the electronic device 100 cannot know that the projection surface 10 is rotated about the z-axis. Accordingly, the electronic device 100 may not be able to solve the problem of distortion of the projected image even if the correction operation is performed.
따라서, 보정 동작을 완전히 수행하기 위해 제2 센서부(113-2)가 필요할 수 있다.Therefore, the second sensor unit 113-2 may be required to completely perform the correction operation.
도 32는 투사면(10)이 y축으로 회전되어 있지 않은 상태에서 투사 이미지를 보정하는 동작을 설명하기 위한 도면이다.32 is a diagram for explaining an operation of correcting a projected image in a state in which the projection surface 10 is not rotated along the y-axis.
도 32의 전자 장치(100)는 제1 센서부(113-1)를 포함하고 제2 센서부(113-2)를 포함하지 않는 것으로 가정한다.It is assumed that the electronic device 100 of FIG. 32 includes the first sensor unit 113-1 and does not include the second sensor unit 113-2.
도 32의 평면도(3211)는 투사면(10)이 y축 기준으로 회전되지 않고 전자 장치(100)가 y축 기준으로 회전됨을 나타낸다.A plan view 3211 of FIG. 32 indicates that the projection surface 10 is not rotated based on the y-axis and the electronic device 100 is rotated based on the y-axis.
도 32의 정면도(3212)는 평면도(3211)의 상황에서 투사 이미지가 왜곡되어 출력됨을 나타낸다.A front view 3212 of FIG. 32 indicates that the projected image is distorted and output in the situation of the plan view 3211 .
도 32의 정면도(3213)는 평면도(3211)에 대응되는 상황에서 보정 동작이 수행된 이후 출력된 투사 이미지를 나타낸다. 전자 장치(100)는 제2 센서부(113-2)를 포함하지 않으므로 투사면(10)의 상태 정보를 고려하지 않고 전자 장치(100)의 상태 정보만을 고려하여 투사 이미지에 대한 보정을 수행한다. 여기서, 투사면(10)이 y축 기준으로 회전되어 있지 않으므로, 전자 장치(100)가 전자 장치(100)의 상태 정보만을 고려하여 투사 이미지를 보정하여도 투사 이미지가 정상적으로 출력될 수 있다.A front view 3213 of FIG. 32 shows a projected image output after a correction operation is performed in a situation corresponding to the plan view 3211 . Since the electronic device 100 does not include the second sensor unit 113-2, the projected image is corrected by considering only the state information of the electronic device 100 without considering the state information of the projection surface 10. . Here, since the projection surface 10 is not rotated on the basis of the y-axis, the projected image can be normally output even if the electronic device 100 corrects the projected image by considering only state information of the electronic device 100 .
도 33은 투사면(10)이 y축으로 회전된 상태에서 투사면(10)의 상태 정보를 고려하여 투사 이미지를 보정하는 이유를 설명하기 위한 도면이다.FIG. 33 is a diagram for explaining the reason for correcting a projection image in consideration of state information of the projection surface 10 in a state in which the projection surface 10 is rotated along the y-axis.
도 33의 실시 예(3310)는 전자 장치(100)가 제1 센서부(113-1)만을 포함하고 제2 센서부(113-2)를 포함하지 않음을 가정한다.The embodiment 3310 of FIG. 33 assumes that the electronic device 100 includes only the first sensor unit 113-1 and does not include the second sensor unit 113-2.
실시 예(3310)의 측면도(3311)는 투사면(10)이 y축 기준으로 일정 각도(θ2)만큼 회전되고 전자 장치(100)도 y축 기준으로 일정 각도(미도시)만큼 회전됨을 나타낸다.A side view 3311 of the embodiment 3310 indicates that the projection surface 10 is rotated by a predetermined angle θ2 based on the y-axis and the electronic device 100 is also rotated by a predetermined angle (not shown) based on the y-axis.
실시 예(3310)의 정면도(3312)는 측면도(3311)의 상황에서 투사 이미지가 왜곡되어 출력됨을 나타낸다.The front view 3312 of the embodiment 3310 indicates that the projected image is distorted and output in the situation of the side view 3311 .
실시 예(3310)의 정면도(3313)는 측면도(3311)의 상황에서 보정 동작이 수행된 이후 출력된 투사 이미지를 나타낸다. 실시 예(3310)의 전자 장치(100)는 제2 센서부(113-2)를 포함하지 않으므로, 투사면(10)의 y축 회전 정보를 획득할 수 없다. 따라서, 전자 장치(100)는 투사면(10)의 상태 정보를 고려하여 보정 동작을 수행할 수 없다. 전자 장치(100)는 전자 장치(100)의 상태 정보만으로 고려하여 보정 동작을 수행할 수 있다. 따라서, 평면도(3313)에서 출력된 투사 이미지에 일부 왜곡이 남아있을 수 있다.A front view 3313 of the embodiment 3310 represents a projected image output after a correction operation is performed in the situation of the side view 3311 . Since the electronic device 100 of the embodiment 3310 does not include the second sensor unit 113-2, information about the y-axis rotation of the projection surface 10 cannot be obtained. Therefore, the electronic device 100 cannot perform a correction operation in consideration of the state information of the projection surface 10 . The electronic device 100 may perform a correction operation by considering only state information of the electronic device 100 . Accordingly, some distortion may remain in the projected image output from the plan view 3313 .
도 33의 실시 예(3320)는 전자 장치(100)가 제1 센서부(113-1) 및 제2 센서부(113-2)를 모두 포함하는 것으로 가정한다.In the embodiment 3320 of FIG. 33 , it is assumed that the electronic device 100 includes both the first sensor unit 113-1 and the second sensor unit 113-2.
실시 예(3320)의 측면도(3321)는 투사면(10)이 y축 기준으로 일정 각도(θ2)만큼 회전되고 전자 장치(100)도 y축 기준으로 일정 각도(미도시)만큼 회전됨을 나타낸다.A side view 3321 of the embodiment 3320 indicates that the projection surface 10 is rotated by a predetermined angle θ2 based on the y-axis and the electronic device 100 is also rotated by a predetermined angle (not shown) based on the y-axis.
실시 예(3320)의 정면도(3322)는 측면도(3321)의 상황에서 투사 이미지가 왜곡되어 출력됨을 나타낸다.The front view 3322 of the embodiment 3320 indicates that the projected image is distorted and output in the situation of the side view 3321 .
실시 예(3320)의 정면도(3323)는 측면도(3321)의 상황에서 보정 동작이 수행된 이후 출력된 투사 이미지를 나타낸다. 실시 예(3320)의 전자 장치(100)는 제2 센서부(113-2)를 포함하므로, 투사면(10)의 y축 회전 정보를 획득할 수 있다. 따라서, 전자 장치(100)는 전자 장치(100)의 상태 정보 및 투사면(10)의 상태 정보를 모두 고려하여 보정 동작을 수행할 수 있다. 따라서, 평면도(3323)에서 출력된 투사 이미지에 왜곡이 존재하지 않을 수 있다.A front view 3323 of the embodiment 3320 represents a projected image output after a correction operation is performed in the situation of a side view 3321 . Since the electronic device 100 of the embodiment 3320 includes the second sensor unit 113-2, it is possible to obtain y-axis rotation information of the projection surface 10. Accordingly, the electronic device 100 may perform a correction operation considering both the state information of the electronic device 100 and the state information of the projection surface 10 . Accordingly, distortion may not exist in the projected image output from the plan view 3323 .
도 34는 투사 영역과 거리 센서 사이의 거리에 기초하여 초점을 결정하는 동작을 설명하기 위한 흐름도이다.34 is a flowchart for explaining an operation of determining a focus based on a distance between a projection area and a distance sensor.
도 34를 참조하면, 전자 장치(100)는 투사면(10)에서 투사 영역을 식별할 수 있다 (S3405). 그리고, 전자 장치(100)는 제1 거리 센서(113-2-1)와 투사 영역 사이의 제4 거리를 획득할 수 있다 (S3410). 여기서, 제4 거리는 도 35의 d4에 해당할 수 있다. Referring to FIG. 34 , the electronic device 100 may identify a projection area on the projection surface 10 (S3405). Then, the electronic device 100 may obtain a fourth distance between the first distance sensor 113-2-1 and the projection area (S3410). Here, the fourth distance may correspond to d4 of FIG. 35 .
그리고, 전자 장치(100)는 제2 거리 센서(113-2-2)와 투상 영역 사이의 제5 거리를 획득할 수 있다 (S3415). 여기서, 제5 거리는 도 34의 d5에 해당할 수 있다. Then, the electronic device 100 may obtain a fifth distance between the second distance sensor 113-2-2 and the projection area (S3415). Here, the fifth distance may correspond to d5 of FIG. 34 .
그리고, 전자 장치(100)는 제5 거리가 제4 거리보다 작은지 식별할 수 있다 (S3420). 제5 거리가 제4 거리보다 작으면 (S3420-Y), 전자 장치(100)는 제2 거리 센서(113-2-2)에서 획득한 센싱 데이터에 기초하여 초점을 결정할 수 있다 (S3425). 여기서, 제2 거리 센서(113-2-2)에서 획득한 센싱 데이터는 제2 거리 센서(113-2-2)와 투사면(10) 사이의 제2 거리(d2) 또는 제2 거리 센서(113-2-2)와 투사 영역 사이의 제5 거리(d5) 중 적어도 하나를 포함할 수 있다. 즉, 전자 장치(100)는 투사 영역에서 가까운 거리 센서를 기준으로 초점을 결정할 수 있다. 여기서, 초점은 투사 이미지가 출력되는데 이용되는 초점을 의미할 수 있다. 구현 예에 따라, 전자 장치(100)는 제5 거리(d5)를 이용하여 초점을 결정할 수 있다.And, the electronic device 100 can identify whether the fifth distance is smaller than the fourth distance (S3420). If the fifth distance is smaller than the fourth distance (S3420-Y), the electronic device 100 may determine the focus based on the sensing data obtained from the second distance sensor 113-2-2 (S3425). Here, the sensing data acquired by the second distance sensor 113-2-2 is the second distance d2 between the second distance sensor 113-2-2 and the projection surface 10 or the second distance sensor ( 113-2-2) and the fifth distance d5 between the projection areas. That is, the electronic device 100 may determine the focus based on the proximity sensor in the projection area. Here, the focal point may mean a focal point used to output a projected image. According to an implementation example, the electronic device 100 may determine the focus using the fifth distance d5.
제5 거리가 제4 거리보다 작지 않으면 (S3420-N), 전자 장치(100)는 제1 거리 센서(113-2-1)에서 획득한 센싱 데이터에 기초하여 초점을 결정할 수 있다 (S3430). 여기서, 제1 거리 센서(113-2-1)에서 획득한 센싱 데이터는 제1 거리 센서(113-2-1)와 투사면(10) 사이의 제1 거리(d1) 또는 제1 거리 센서(113-2-1)와 투사 영역 사이의 제4 거리(d4) 중 적어도 하나를 포함할 수 있다. 즉, 전자 장치(100)는 투사 영역에서 가까운 거리 센서를 기준으로 초점을 결정할 수 있다. 여기서, 초점은 투사 이미지가 출력되는데 이용되는 초점을 의미할 수 있다. 구현 예에 따라, 전자 장치(100)는 제4 거리(d4)를 이용하여 초점을 결정할 수 있다.If the fifth distance is not smaller than the fourth distance (S3420-N), the electronic device 100 may determine the focus based on the sensing data obtained from the first distance sensor 113-2-1 (S3430). Here, the sensing data acquired by the first distance sensor 113-2-1 is the first distance d1 between the first distance sensor 113-2-1 and the projection surface 10 or the first distance sensor ( 113-2-1) and the fourth distance d4 between the projection areas. That is, the electronic device 100 may determine the focus based on the proximity sensor in the projection area. Here, the focal point may mean a focal point used to output a projected image. According to an implementation example, the electronic device 100 may determine the focus using the fourth distance d4.
도 35는 투사 영역과 거리 센서 사이의 거리에 기초하여 초점을 결정하는 동작을 설명하기 위한 도면이다.35 is a diagram for explaining an operation of determining a focus based on a distance between a projection area and a distance sensor.
도 35의 실시 예(3511)을 참조하면, 전자 장치(100)는 투사면(10)에 장애물 오브젝트(30)를 피하여 투사 영역(3501)을 결정할 수 있다. 여기서, 장애물 오브젝트(30)는 투사 이미지를 출력하기에 적합하지 않은 오브젝트를 의미할 수 있다. 예를 들어, 장애물 오브젝트(30)는 액자, 유리창 등을 의미할 수 있다. 제1 거리 센서(113-2-1)는 제1 거리 센서(113-2-1)와 투사면(10) 사이의 거리(d1)를 획득할 수 있다. 또한, 제1 거리 센서(113-2-1)는 제1 거리 센서(113-2-1)와 투사 영역(3501) 사이의 거리(d4)를 획득할 수 있다. 제2 거리 센서(113-2-2)는 제2 거리 센서(113-2-2)와 투사면(10) 사이의 거리(d2)를 획득할 수 있다. 또한, 제2 거리 센서(113-2-2)는 제2 거리 센서(113-2-2)와 투사 영역(3501) 사이의 거리(d5)를 획득할 수 있다.Referring to the embodiment 3511 of FIG. 35 , the electronic device 100 may determine the projection area 3501 by avoiding the obstacle object 30 on the projection surface 10 . Here, the obstacle object 30 may mean an object that is not suitable for outputting a projection image. For example, the obstacle object 30 may mean a picture frame, a glass window, and the like. The first distance sensor 113-2-1 may acquire the distance d1 between the first distance sensor 113-2-1 and the projection surface 10 . Also, the first distance sensor 113-2-1 may acquire the distance d4 between the first distance sensor 113-2-1 and the projection area 3501 . The second distance sensor 113-2-2 may acquire the distance d2 between the second distance sensor 113-2-2 and the projection surface 10 . Also, the second distance sensor 113-2-2 may acquire the distance d5 between the second distance sensor 113-2-2 and the projection area 3501 .
도 35의 정면도(3512)는 장애물 오브젝트(30)를 고려하지 않고 투사 이미지(3502)가 출력됨을 나타낸다. 전자 장치(100)가 장애물 오브젝트(30)를 고려하지 않고 투사 영역을 결정하는 경우, 장애물 오브젝트(30)의 위치와 투사 영역이 중복될 가능성이 있다.A front view 3512 of FIG. 35 indicates that the projection image 3502 is output without considering the obstacle object 30 . When the electronic device 100 determines the projection area without considering the obstacle object 30, the position of the obstacle object 30 and the projection area may overlap.
도 35의 정면도(3513)는 장애물 오브젝트(30)를 고려하여 투사 이미지(3503)가 출력됨을 나타낸다. 전자 장치(100)는 장애물 오브젝트(30)의 위치를 고려하여 투사 영역(3501)을 식별할 수 있다. 여기서, 투사 영역(3501)은 투사면(10)에서 장애물 오브젝트(30)가 위치하지 않는 영역을 의미할 수 있다. 그리고, 전자 장치(100)는 식별된 투사 영역(3501)에 투사 이미지(3503)를 출력할 수 있다. A front view 3513 of FIG. 35 indicates that a projection image 3503 is output considering the obstacle object 30 . The electronic device 100 may identify the projection area 3501 by considering the position of the obstacle object 30 . Here, the projection area 3501 may mean an area in which the obstacle object 30 is not located on the projection surface 10 . And, the electronic device 100 may output a projection image 3503 to the identified projection area 3501 .
도 36은 투사 영역과 거리 센서 사이의 거리에 가중치를 부여하여 초점을 결정하는 동작을 설명하기 위한 흐름도이다.36 is a flowchart illustrating an operation of determining a focus by assigning a weight to a distance between a projection area and a distance sensor.
도 36을 참조하면, S3605, S3610, S3615, S3620 단계는 S3405, S3410, S3415, S3420 단계에 대응될 수 있으므로 중복 설명을 생략한다.Referring to FIG. 36 , steps S3605, S3610, S3615, and S3620 may correspond to steps S3405, S3410, S3415, and S3420, so duplicate descriptions are omitted.
제5거리가 제4 거리보다 작으면 (S3620-Y), 전자 장치(100)는 제2 거리 센서(113-2-2)에서 획득한 센싱 데이터에 제1 거리 센서(113-2-1)에서 획득한 센싱 데이터보다 더 큰 가중치를 부여하여 초점을 결정할 수 있다. If the fifth distance is smaller than the fourth distance (S3620-Y), the electronic device 100 assigns the first distance sensor 113-2-1 to the sensing data obtained from the second distance sensor 113-2-2. The focus may be determined by assigning a greater weight than the sensing data obtained in .
제5거리가 제4 거리보다 작지 않으면 (S3620-N), 전자 장치(100)는 제1 거리 센서(113-2-1)에서 획득한 센싱 데이터에 제2 거리 센서(113-2-2)에서 획득한 센싱 데이터보다 더 큰 가중치를 부여하여 초점을 결정할 수 있다. If the fifth distance is not smaller than the fourth distance (S3620-N), the electronic device 100 transmits the sensing data obtained from the first distance sensor 113-2-1 to the second distance sensor 113-2-2. The focus may be determined by assigning a greater weight than the sensing data obtained in .
여기서, 제1 거리 센서(113-2-1)에서 획득한 센싱 데이터 및 제2 거리 센서(113-2-2)에서 획득한 센싱 데이터에 대한 내용은 도 34에서 기재하였으므로 중복 설명을 생략한다.Here, since the sensing data obtained from the first distance sensor 113-2-1 and the sensing data obtained from the second distance sensor 113-2-2 have been described in FIG. 34 , redundant descriptions will be omitted.
도 37은 투사 영역과 거리 센서 사이의 거리에 가중치를 부여하여 초점을 결정하는 동작을 설명하기 위한 도면이다.37 is a diagram for explaining an operation of determining a focus by assigning a weight to a distance between a projection area and a distance sensor.
도 37을 참조하면, 실시 예(3711), 정면도(3712), 정면도(3713)는 도 35의 실시 예(3511), 정면도(3512), 정면도(3513)에 대응될 수 있으므로 중복 설명을 생략한다. Referring to FIG. 37, the embodiment 3711, the front view 3712, and the front view 3713 may correspond to the embodiment 3511, the front view 3512, and the front view 3513 of FIG. omit the explanation.
도 37의 수학식(3714)은 식별 영역(3701)의 위치에 따라 초점을 결정하는 가중치를 계산하는 과정을 나타낸다. W1은 제1 거리 센서(113-2-1)에서 획득한 센싱 데이터에 적용되는 제1 가중치이고 W2는 제2 거리 센서(113-2-2)에서 획득한 센싱 데이터에 적용되는 제2 가중치일 수 있다. Equation 3714 of FIG. 37 represents a process of calculating a weight for determining a focus according to a location of an identification area 3701 . W1 is a first weight applied to the sensing data obtained from the first distance sensor 113-2-1, and W2 is a second weight applied to the sensing data obtained from the second distance sensor 113-2-2. can
여기서, 'a'는 정면도(3712)에서 나타낸 바와 같이 투사 이미지가 출력될 수 있는 전체 영역의 가로 길이를 의미할 수 있다. 따라서, '2/a'는 투사 이미지가 출력될 수 있는 전체 영역의 가로 길이의 절반을 의미할 수 있다. 다른 구현 예에 따라, 투사 이미지가 출력될 수 있는 전체 영역의 가로 길이는 투사면(10)의 가로 길이로 대체될 수 있다.Here, as shown in the front view 3712, 'a' may mean the horizontal length of the entire area where the projected image can be output. Accordingly, '2/a' may mean half of the horizontal length of the entire area in which the projected image can be output. According to another implementation example, the horizontal length of the entire area on which the projection image can be output may be replaced with the horizontal length of the projection surface 10 .
여기서, 'b'는 정면도(3713)에서 투사 영역(3701) 또는 투사 이미지가(3703)가 중앙으로부터 제2 거리 센서(113-2-2) 방향으로 이동된 거리를 의미할 수 있다.Here, 'b' may mean a distance by which the projection area 3701 or the projection image 3703 in the front view 3713 is moved from the center toward the second distance sensor 113-2-2.
여기서, 제1 거리 센서(113-2-1)에서 획득한 센싱 데이터에 적용되는 제1 가중치(W1)는 'a/2-b'이고, 제2 거리 센서(113-2-2)에서 획득한 센싱 데이터에 적용되는 제2 가중치(W2)는 'a/2+b'일 수 있다. 따라서, 투사 영역(3701)이 제2 거리 센서(113-2-2) 방향으로 이동된 거리(b)가 커지면 제2 거리 센서(113-2-2)로부터 획득되는 센싱 데이터에 더 큰 가중치가 적용될 수 있다.Here, the first weight W1 applied to the sensing data obtained from the first distance sensor 113-2-1 is 'a/2-b' and obtained from the second distance sensor 113-2-2. The second weight W2 applied to one sensed data may be 'a/2+b'. Accordingly, when the distance (b) of the projection area 3701 moved in the direction of the second distance sensor 113-2-2 increases, the sensing data acquired from the second distance sensor 113-2-2 is given a greater weight. can be applied
도 38은 투사면(10)이 z축으로 회전된 상태에서 투사 영역과 거리 센서 사이의 거리에 기초하여 초점을 결정하는 동작을 설명하기 위한 도면이다.38 is a diagram for explaining an operation of determining a focus based on a distance between a projection area and a distance sensor in a state in which the projection surface 10 is rotated along the z-axis.
도 38의 실시 예(3811)는 도 35의 실시 예(3511)에 대응될 수 있으므로 중복 설명을 생략한다. 다만, 도 35의 실시 예(3511)와 달리 실시 예(3811)는 투사면(10)이 z축 기준으로 일정 각도(θ1)만큼 회전됨을 나타낸다.Since the embodiment 3811 of FIG. 38 may correspond to the embodiment 3511 of FIG. 35, redundant description is omitted. However, unlike the embodiment 3511 of FIG. 35 , the embodiment 3811 indicates that the projection surface 10 is rotated by a certain angle θ1 based on the z-axis.
도 38의 정면도(3812)는 장애물 오브젝트(30)를 고려하지 않고 투사 이미지(3802)가 출력됨을 나타낸다. 전자 장치(100)가 장애물 오브젝트(30)를 고려하지 않고 투사 영역을 결정하는 경우, 장애물 오브젝트(30)의 위치와 투사 영역이 중복될 가능성이 있다. 도 38의 정면도(3812)는 장애물 오브젝트(30)의 위치를 고려하지 않고 키스톤 보정이 수행되지 않은 상태에서 투사 이미지가 출력됨을 나타낸다.A front view 3812 of FIG. 38 shows that the projected image 3802 is output without considering the obstacle object 30 . When the electronic device 100 determines the projection area without considering the obstacle object 30, the position of the obstacle object 30 and the projection area may overlap. A front view 3812 of FIG. 38 shows that a projected image is output in a state in which keystone correction is not performed without considering the position of the obstacle object 30 .
도 38의 정면도(3813)는 장애물 오브젝트(30)를 고려하여 투사 이미지(3803)가 출력됨을 나타낸다. 전자 장치(100)는 장애물 오브젝트(30)의 위치를 고려하여 투사 영역(3801)을 식별할 수 있다. 여기서, 투사 영역(3801)은 투사면(10)에서 장애물 오브젝트(30)가 위치하지 않는 영역을 의미할 수 있다. 그리고, 전자 장치(100)는 식별된 투사 영역(3801)에 투사 이미지(3803)를 출력할 수 있다. 도 38의 정면도(3813)는 장애물 오브젝트(30)의 위치를 고려하여 투사 영역을 식별하고 식별된 투사 영역에 키스톤 보정이 수행된 투사 이미지가 출력됨을 나타낸다.A front view 3813 of FIG. 38 indicates that a projection image 3803 is output considering the obstacle object 30 . The electronic device 100 may identify the projection area 3801 by considering the position of the obstacle object 30 . Here, the projection area 3801 may mean an area in which the obstacle object 30 is not located on the projection surface 10 . And, the electronic device 100 may output a projection image 3803 to the identified projection area 3801 . A front view 3813 of FIG. 38 indicates that a projection area is identified in consideration of the position of the obstacle object 30 and a projection image on which keystone correction is performed is output to the identified projection area.
도 39는 렌즈 시프트 기능을 수행하는지 여부에 따라 제2 센서부(113-2)를 제어하는 동작을 설명하기 위한 흐름도이다.39 is a flowchart for explaining an operation of controlling the second sensor unit 113-2 according to whether a lens shift function is performed.
도 39를 참조하면, 전자 장치(100)는 제1 센서부(113-1)를 통해 전자 장치(100)의 상태 정보를 획득할 수 있다 (S3905). 그리고, 전자 장치(100)는 렌즈 시프트 기능이 수행되는지 여부를 식별할 수 있다 (S3910).Referring to FIG. 39 , the electronic device 100 may acquire state information of the electronic device 100 through the first sensor unit 113-1 (S3905). And, the electronic device 100 may identify whether the lens shift function is performed (S3910).
렌즈 시프트 기능이 수행되면 (S3910-Y), 전자 장치(100)는 렌즈 시프트에 대응되는 이동 정보에 기초하여 제2 센서부(113-2)를 이동할 수 있다 (S3915). 여기서, 렌즈 시프트에 대응되는 이동 정보는 프로젝션 렌즈(110)의 투사 각도를 변경하는 정도를 포함할 수 있다. 따라서, 제2 센서부(113-2)를 이동시키는 동작은 제2 센서부(113-2)에서 출력되는 발광부의 빛의 발산(또는 출력) 각도를 변경하는 동작을 의미할 수 있다. 여기서, "이동"은 "시프팅"으로 기재될 수 있다.When the lens shift function is performed (S3910-Y), the electronic device 100 may move the second sensor unit 113-2 based on movement information corresponding to the lens shift (S3915). Here, the movement information corresponding to the lens shift may include the degree to which the projection angle of the projection lens 110 is changed. Accordingly, an operation of moving the second sensor unit 113-2 may mean an operation of changing a divergence (or output) angle of light emitted from the light emitting unit from the second sensor unit 113-2. Here, “moving” may be described as “shifting”.
예를 들어, 프로젝션 렌즈(110)의 투사 각도를 우측으로 5도만큼 이동시키는 경우, 전자 장치(100)는 제2 센서부(113-2)에 포함된 거리 센서의 발광 각도(또는 출력 각도)를 우측으로 5도만큼 동일하게 이동시킬 수 있다.For example, when the projection angle of the projection lens 110 is moved to the right by 5 degrees, the electronic device 100 determines the emission angle (or output angle) of the distance sensor included in the second sensor unit 113-2. can be moved to the right by the same 5 degrees.
그리고, 전자 장치(100)는 제2 센서부(113-2)를 이동시킨 후 제2 센서부(113-2)를 통해 투사면(10)의 상태 정보를 획득할 수 있다 (S3920).Then, the electronic device 100 may acquire state information of the projection surface 10 through the second sensor unit 113-2 after moving the second sensor unit 113-2 (S3920).
한편, 렌즈 시프트 기능이 수행되지 않으면 (S3910-N), 바로 제2 센서부(113-2)를 통해 투사면(10)의 상태 정보를 획득할 수 있다 (S3920).On the other hand, if the lens shift function is not performed (S3910-N), state information of the projection surface 10 may be obtained directly through the second sensor unit 113-2 (S3920).
그리고, 전자 장치(100)는 전자 장치(100)의 상태 정보 및 투사면(10)의 상태 정보에 기초하여 투사 이미지를 보정할 수 있다 (S3925). 여기서, S3925 동작은 전자 장치(100)의 상태 정보 또는 투사면(10)의 상태 정보 중 적어도 하나에 기초하여 투사 이미지를 보정하는 동작으로 대체될 수 있다.Then, the electronic device 100 may correct the projected image based on the state information of the electronic device 100 and the state information of the projection surface 10 (S3925). Here, operation S3925 may be replaced with an operation of correcting the projected image based on at least one of state information of the electronic device 100 and state information of the projection surface 10 .
그리고, 전자 장치(100)는 보정된 투사 이미지를 출력할 수 있다 (S3930).And, the electronic device 100 may output the corrected projection image (S3930).
도 40은 렌즈 시프트 기능에 따라 제2 센서부(113-2)를 제어하는 동작을 설명하기 위한 도면이다.40 is a diagram for explaining an operation of controlling the second sensor unit 113-2 according to the lens shift function.
도 40의 실시 예(4010)는 렌즈 시프트 기능이 수행되지 않은 상태를 나타낸다. 측면도(4011)는 실시 예(4010)에서 렌즈 시프트 기능이 수행되지 않아 프로젝션 렌즈(110)를 통해 투사면(10)에 평행하게 투사 이미지를 출력함을 나타낸다. 정면도(4012)는 실시 예(4010)에 기초하여 투사면(10)에 평행하게 출력된 투사 이미지를 나타낸다. 투사면(10)이 회전되지 않고 렌즈 시프트 기능이 수행되지 않은 상태를 가정하므로 투사 이미지에 왜곡이 존재하지 않을 수 있다. An embodiment 4010 of FIG. 40 shows a state in which the lens shift function is not performed. A side view 4011 shows that the lens shift function is not performed in the embodiment 4010 so that a projected image is output in parallel to the projection surface 10 through the projection lens 110 . A front view 4012 shows a projection image output parallel to the projection surface 10 based on the embodiment 4010 . Since it is assumed that the projection surface 10 is not rotated and the lens shift function is not performed, distortion may not exist in the projected image.
도 40의 실시 예(4020)는 렌즈 시프트 기능이 수행되어 프로젝션 렌즈(110)가 아래 방향으로 시프팅 된 상태를 나타낸다. 측면도(4021)는 실시 예(4020)에서 렌즈 시프트 기능이 수행되어 프로젝션 렌즈(110)를 통해 투사면(10)의 아래 영역에 투사 이미지를 출력함을 나타낸다. 정면도(4022)는 실시 예(4020)에 기초하여 투사면(10)의 아래 영역에 출력된 투사 이미지를 나타낸다. The embodiment 4020 of FIG. 40 shows a state in which the projection lens 110 is shifted downward as a lens shift function is performed. A side view 4021 shows that a lens shift function is performed in the embodiment 4020 to output a projected image to a region below the projection surface 10 through the projection lens 110 . A front view 4022 shows a projection image output to an area under the projection surface 10 based on the embodiment 4020 .
도 40의 실시 예(4030)는 렌즈 시프트 기능이 수행되어 프로젝션 렌즈(110)가 위 방향으로 시프팅 된 상태를 나타낸다. 측면도(4031)는 실시 예(4030)에서 렌즈 시프트 기능이 수행되어 프로젝션 렌즈(110)를 통해 투사면(10)의 위 영역에 투사 이미지를 출력함을 나타낸다. 정면도(4032)는 실시 예(4030)에 기초하여 투사면(10)의 위 영역에 출력된 투사 이미지를 나타낸다. The embodiment 4030 of FIG. 40 shows a state in which the projection lens 110 is shifted upward as a lens shift function is performed. A side view 4031 shows that a lens shift function is performed in the embodiment 4030 to output a projection image to an area above the projection surface 10 through the projection lens 110 . A front view 4032 shows a projection image output to an area above the projection surface 10 based on the embodiment 4030 .
실시 예(4020) 및 실시 예(4030)에서 투사면(10)이 회전되지 않았으나 렌즈 시프트 기능이 수행된 상태를 가정하였다. 따라서, 투사 이미지에 왜곡이 일부 존재할 수 있다. 따라서, 렌즈 시프트 기능에 따라 별도의 보정 동작이 수행될 수 있다. 보정 동작을 정확히 수행하기 위해 제2 센서부(113-2)를 렌즈 시프트 기능에 대응되도록 이동시킬 필요성이 있다.In the embodiments 4020 and 4030, it is assumed that the projection surface 10 is not rotated but the lens shift function is performed. Therefore, some distortion may exist in the projected image. Accordingly, a separate correction operation may be performed according to the lens shift function. In order to accurately perform the correction operation, it is necessary to move the second sensor unit 113-2 to correspond to the lens shift function.
도 41은 투사면(10)의 x축 회전 정보에 기초하여 투사 이미지를 보정하는 동작을 설명하기 위한 흐름도이다.41 is a flowchart for explaining an operation of correcting a projected image based on x-axis rotation information of the projection surface 10. Referring to FIG.
도 41을 참조하면, 전자 장치(100)는 테스트 이미지를 출력할 수 있다 (S4105). 여기서, 테스트 이미지는 최초로 투사되는 투사 이미지를 의미할 수 있다. 일 실시 예에 따라, 테스트 이미지는 기 저장된 이미지를 의미할 수 있다. 여기서, 기 저장된 이미지는 보정 동작을 위해 표시되는 이미지로서 브랜드 로고 또는 기 결정된 패턴을 포함하는 이미지를 의미할 수 있다. 다른 실시 예에 따라, 테스트 이미지는 사용자가 출력하고자 하는 투사 이미지를 의미할 수 있다. Referring to FIG. 41 , the electronic device 100 may output a test image (S4105). Here, the test image may refer to a projected image initially projected. According to an embodiment, the test image may refer to a pre-stored image. Here, the pre-stored image is an image displayed for a correction operation and may mean an image including a brand logo or a predetermined pattern. According to another embodiment, the test image may mean a projected image that a user wants to output.
여기서, 전자 장치(100)는 테스트 이미지가 투사면(10)에 출력된 촬상 이미지를 획득할 수 있다 (S4110). 구체적으로, 전자 장치(100)는 카메라를 포함할 수 있으며, 카메라를 통해 전자 장치(100)의 전방에 위치한 투사면(10)을 촬상할 수 있다. 여기서, 투사면(10)에는 전자 장치(100)가 출력한 투사 이미지가 출력될 수 있다. 따라서, 전자 장치(100)가 카메라를 통해 획득한 촬상 이미지에는 투사 이미지가 출력된 투사면(10)이 포함될 수 있다. Here, the electronic device 100 may acquire a captured image in which the test image is output on the projection surface 10 (S4110). Specifically, the electronic device 100 may include a camera, and may capture an image of the projection surface 10 located in front of the electronic device 100 through the camera. Here, a projected image output by the electronic device 100 may be output on the projection surface 10 . Accordingly, the captured image obtained by the electronic device 100 through the camera may include the projection surface 10 on which the projected image is output.
여기서, 전자 장치(100)는 촬상 이미지에 기초하여 투사면(10)의 x축 회전 정보를 획득할 수 있다 (S4115). 그리고, 전자 장치(100)는 투사면(10)의 x축 회전 정보에 기초하여 투사 이미지를 보정할 수 있다 (S4120). 여기서, 전자 장치(100)는 투사면(10)의 x축 회전 정보에 기초하여 투사 이미지에 대하여 레벨링 보정을 수행할 수 있다. 그리고, 전자 장치(100)는 투상 이미지를 출력할 수 있다 (S4125).Here, the electronic device 100 may acquire x-axis rotation information of the projection surface 10 based on the captured image (S4115). And, the electronic device 100 may correct the projection image based on the x-axis rotation information of the projection surface 10 (S4120). Here, the electronic device 100 may perform leveling correction on the projection image based on the x-axis rotation information of the projection surface 10 . And, the electronic device 100 may output a projected image (S4125).
도 42는 투사면(10)의 x축 회전 정보에 기초하여 투사 이미지를 보정하는 동작을 설명하기 위한 도면이다. 42 is a diagram for explaining an operation of correcting a projected image based on x-axis rotation information of the projection surface 10. Referring to FIG.
도 42의 실시 예(4210)는 전자 장치(100)가 투사면(10)이 x축 기준으로 회전된 상태를 고려하지 않고 투사 이미지(4211)를 출력함을 나타낸다. 투사면(10)은 일정 각도(θ3)만큼 x축 기준으로 회전되어 있음을 가정한다. 투사면(10)이 x축 기준으로 회전되어 있음에도 전자 장치(100)는 그대로 투사 이미지(4211)를 출력할 수 있다. 여기서, 투사 이미지(4211)는 투사면(10)과 평행하지 않을 수 있다. 만약, 투사면(10)과 출력된 투사 이미지가 평행하지 않은 경우, 사용자는 눈의 피로감을 느낄 수 있다. 따라서, 투사면(10)과 출력된 투사 이미지가 평행하도록 이미지 보정 동작이 필요할 수 있다.The embodiment 4210 of FIG. 42 indicates that the electronic device 100 outputs the projection image 4211 without considering the state in which the projection surface 10 is rotated about the x-axis. It is assumed that the projection surface 10 is rotated about the x-axis by a certain angle θ3. Even though the projection surface 10 is rotated based on the x-axis, the electronic device 100 can output the projection image 4211 as it is. Here, the projection image 4211 may not be parallel to the projection surface 10 . If the projection surface 10 and the output projection image are not parallel, the user may feel eye fatigue. Accordingly, an image correction operation may be required so that the projection surface 10 and the output projection image are parallel.
도 42의 실시 예(4220)는 전자 장치(100)가 투사면(10)이 x축 기준으로 회전된 상태를 고려하여 투사 이미지(4221)를 출력함을 나타낸다. 투사면(10)은 일정 각도(θ3)만큼 x축 기준으로 회전되어 있음을 가정한다. 투사면(10)이 x축 기준으로 회전되어 있으므로, 전자 장치(100)는 투사면(10)의 x축 회전 정보를 획득할 수 있고, 투사면(10)의 x축 회전 정보에 기초하여 투사 이미지에 대하여 보정 동작을 수행할 수 있다. 구체적으로, 전자 장치(100)는 투사면(10)의 x축 회전 정보에 기초하여 투사 이미지에 대하여 레벨링 보정 동작을 수행할 수 있다. 여기서, 보정된 투사 이미지(4221)는 투사면(10)가 평행하게 출력될 수 있다.The embodiment 4220 of FIG. 42 indicates that the electronic device 100 outputs a projection image 4221 in consideration of a state in which the projection surface 10 is rotated about the x-axis. It is assumed that the projection surface 10 is rotated about the x-axis by a certain angle θ3. Since the projection surface 10 is rotated on the basis of the x-axis, the electronic device 100 can obtain x-axis rotation information of the projection surface 10 and project projection surface 10 based on the x-axis rotation information. A correction operation may be performed on the image. Specifically, the electronic device 100 may perform a leveling correction operation on the projection image based on the x-axis rotation information of the projection surface 10 . Here, the corrected projection image 4221 may be output with the projection surface 10 parallel to it.
도 43은 일 실시 예에 따른 전자 장치(100)의 제어 방법을 설명하기 위한 흐름도이다. 43 is a flowchart for explaining a control method of the electronic device 100 according to an embodiment.
도 43을 참조하면, 제1 센서부(113-1) 및 제2 센서부(113-2)를 포함하는 전자 장치(100)의 제어 방법은 제1 센서부(113-1)를 통해 획득된 센싱 데이터에 기초하여 전자 장치(100)의 상태 정보를 획득하는 단계, 제2 센서부(113-2)를 통해 획득된 센싱 데이터에 기초하여 투사면(10)의 상태 정보를 획득하는 단계, 전자 장치(100)의 상태 정보 및 투사면(10)의 상태 정보에 기초하여 투사 이미지를 보정하는 단계 및 보정된 투사 이미지를 투사면(10)에 출력하는 단계를 포함한다.Referring to FIG. 43 , the control method of the electronic device 100 including the first sensor unit 113-1 and the second sensor unit 113-2 is obtained through the first sensor unit 113-1. Acquiring state information of the electronic device 100 based on the sensing data, acquiring state information of the projection surface 10 based on the sensing data obtained through the second sensor unit 113-2, Correcting the projection image based on the state information of the device 100 and the state information of the projection surface 10 and outputting the corrected projection image to the projection surface 10 are included.
한편, 전자 장치(100)의 상태 정보는 전자 장치(100)의 x축 회전 정보 및 전자 장치(100)의 y축 회전 정보를 포함하고, 투사면(10)의 상태 정보는 투사면(10)의 y축 회전 정보 및 투사면(10)의 z축 회전 정보를 포함할 수 있다.On the other hand, the state information of the electronic device 100 includes x-axis rotation information and y-axis rotation information of the electronic device 100, and the state information of the projection surface 10 is the projection surface 10 It may include y-axis rotation information of and z-axis rotation information of the projection surface 10.
한편, 투사 이미지를 보정하는 단계는 전자 장치(100)의 x축 회전 정보에 기초하여 투사 이미지를 레벨링 보정하고, 전자 장치(100)의 y축 회전 정보, 투사면(10)의 y축 회전 정보 및 투사면(10)의 z축 회전 정보에 기초하여 투사 이미지를 키스톤 보정할 수 있다.On the other hand, the step of correcting the projected image is leveling and correcting the projected image based on the x-axis rotation information of the electronic device 100, the y-axis rotation information of the electronic device 100 and the y-axis rotation information of the projection surface 10 And based on the z-axis rotation information of the projection surface 10, the projection image may be keystone corrected.
한편, 제2 센서부(113-2)는 제1 거리 센서(113-2-1) 및 제2 거리 센서(113-2-2)를 포함하고, 투사면(10)의 상태 정보를 획득하는 단계는 제1 거리 센서(113-2-1)로부터 획득한 제1 거리 센서(113-2-1)와 투사면(10) 사이의 제1 거리 및 제2 거리 센서(113-2-2)로부터 획득한 제2 거리 센서(113-2-2)와 투사면(10) 사이의 제2 거리에 기초하여 투사면(10)의 상태 정보를 획득할 수 있다.Meanwhile, the second sensor unit 113-2 includes a first distance sensor 113-2-1 and a second distance sensor 113-2-2, and obtains state information of the projection surface 10. The first distance between the first distance sensor 113-2-1 and the projection surface 10 obtained from the first distance sensor 113-2-1 and the second distance sensor 113-2-2 State information of the projection surface 10 may be obtained based on the second distance between the projection surface 10 and the second distance sensor 113-2-2 obtained from .
한편, 제2 센서부(113-2)는 제3 거리 센서(113-2-3)를 더 포함하고, 투사면(10)의 상태 정보를 획득하는 단계는 제1 거리 센서(113-2-1)로부터 획득한 제1 거리 및 제2 거리 센서(113-2-2)로부터 획득한 제2 거리에 기초하여 투사면(10)의 z축 회전 정보를 획득하고, 제1 거리 또는 제2 거리 중 적어도 하나의 거리 및 제3 거리 센서로부터 획득한 제3 거리 센서(113-2-3)와 투사면(10) 사이의 제3 거리에 기초하여 투사면(10)의 y축 회전 정보를 획득할 수 있다.Meanwhile, the second sensor unit 113-2 further includes a third distance sensor 113-2-3, and the step of acquiring state information of the projection surface 10 includes the first distance sensor 113-2-3. Based on the first distance obtained from 1) and the second distance obtained from the second distance sensor 113-2-2, z-axis rotation information of the projection surface 10 is obtained, and the first distance or the second distance Obtain y-axis rotation information of the projection surface 10 based on at least one of the distances and the third distance between the third distance sensor 113-2-3 and the projection surface 10 obtained from the third distance sensor can do.
한편, 제어 방법은 투사면(10)에서 투사 이미지가 투사되는 투사 영역을 식별하는 단계, 제1 거리 센서(113-2-1)로부터 제1 거리 센서(113-2-1)와 투사 영역에 대응되는 위치 사이의 제4 거리를 획득하는 단계, 제2 거리 센서(113-2-2)로부터 제2 거리 센서(113-2-2)와 투사 영역에 대응되는 위치 사이의 제5 거리를 획득하는 단계 및 제4 거리 및 제5 거리에 기초하여 전자 장치(100)의 초점을 결정하는 단계를 더 포함할 수 있다.On the other hand, the control method includes the step of identifying a projection area where a projection image is projected on the projection surface 10, from the first distance sensor 113-2-1 to the first distance sensor 113-2-1 and the projection area. Obtaining a fourth distance between the corresponding positions, obtaining a fifth distance between the second distance sensor 113-2-2 and the position corresponding to the projection area from the second distance sensor 113-2-2 The method may further include determining a focus of the electronic device 100 based on the fourth and fifth distances.
한편, 초점을 결정하는 단계는 제4 거리 및 제5 거리 중 작은 거리에 대응되는 거리 센서를 식별하고, 식별된 거리 센서로부터 획득한 센싱 데이터에 더 큰 가중치를 부여하여 전자 장치(100)의 초점을 결정하고, 투사 이미지를 출력하는 단계는 결정된 전자 장치(100)의 초점에 기초하여 보정된 투사 이미지를 투사면(10)에 출력할 수 있다.Meanwhile, in the step of determining the focus, a distance sensor corresponding to a smaller distance among the fourth and fifth distances is identified, and a larger weight is given to sensing data obtained from the identified distance sensor to determine the focus of the electronic device 100. In the step of determining and outputting a projected image, a projected image corrected based on the determined focus of the electronic device 100 may be output to the projection surface 10 .
한편, 제어 방법은 전자 장치(100)의 프로젝션 렌즈(110)에 대하여 렌즈 시프트(lens shift) 기능을 수행하는 경우, 렌즈 시프트 기능에 대응되는 이동 정보에 기초하여 제2 센서부(113-2)를 이동시키는 단계를 더 포함할 수 있다.Meanwhile, when a lens shift function is performed with respect to the projection lens 110 of the electronic device 100, the control method uses the second sensor unit 113-2 based on movement information corresponding to the lens shift function. A step of moving may be further included.
한편, 제어 방법은 제2 센서부(113-2)를 통해 전자 장치(100) 및 투사면(10) 사이의 투사 거리를 획득하는 단계, 획득된 투사 거리에 기초하여 보정된 투사 이미지의 비율을 결정하는 단계 및 결정된 비율에 기초하여 보정된 투사 이미지를 투사면(10)에 출력하는 단계를 더 포함할 수 있다.Meanwhile, the control method includes obtaining a projection distance between the electronic device 100 and the projection surface 10 through the second sensor unit 113-2, and calculating a corrected projection image ratio based on the acquired projection distance. The step of determining and outputting the projected image corrected based on the determined ratio to the projection surface 10 may be further included.
한편, 제1 센서부(113-1)는 중력 센서, 가속도 센서 또는 자이로 센서 중 적어도 하나를 포함하고, 제2 센서부(113-2)는 적어도 하나의 ToF 센서를 포함할 수 있다.Meanwhile, the first sensor unit 113-1 may include at least one of a gravity sensor, an acceleration sensor, and a gyro sensor, and the second sensor unit 113-2 may include at least one ToF sensor.
한편, 도 43과 같은 전자 장치의 제어 방법은 도 2 또는 도 3의 구성을 가지는 전자 장치 상에서 실행될 수 있으며, 그 밖의 구성을 가지는 전자 장치 상에서도 실행될 수 있다. Meanwhile, the method of controlling an electronic device as shown in FIG. 43 may be executed on an electronic device having the configuration of FIG. 2 or 3 and may also be executed on an electronic device having other configurations.
한편, 상술한 본 개시의 다양한 실시 예들에 따른 방법들은, 기존 전자 장치에 설치 가능한 어플리케이션 형태로 구현될 수 있다. Meanwhile, the methods according to various embodiments of the present disclosure described above may be implemented in the form of an application that can be installed in an existing electronic device.
또한, 상술한 본 개시의 다양한 실시 예들에 따른 방법들은, 기존 전자 장치에 대한 소프트웨어 업그레이드, 또는 하드웨어 업그레이드 만으로도 구현될 수 있다. In addition, the methods according to various embodiments of the present disclosure described above may be implemented only by upgrading software or hardware of an existing electronic device.
또한, 상술한 본 개시의 다양한 실시 예들은 전자 장치에 구비된 임베디드 서버, 또는 전자 장치 및 디스플레이 장치 중 적어도 하나의 외부 서버를 통해 수행되는 것도 가능하다. In addition, various embodiments of the present disclosure described above may be performed through an embedded server included in an electronic device or an external server of at least one of an electronic device and a display device.
한편, 본 개시의 일시 예에 따르면, 이상에서 설명된 다양한 실시 예들은 기기(machine)(예: 컴퓨터)로 읽을 수 있는 저장 매체(machine-readable storage media)에 저장된 명령어를 포함하는 소프트웨어로 구현될 수 있다. 기기는, 저장 매체로부터 저장된 명령어를 호출하고, 호출된 명령어에 따라 동작이 가능한 장치로서, 개시된 실시 예들에 따른 전자 장치를 포함할 수 있다. 명령이 프로세서에 의해 실행될 경우, 프로세서가 직접, 또는 프로세서의 제어 하에 다른 구성요소들을 이용하여 명령에 해당하는 기능을 수행할 수 있다. 명령은 컴파일러 또는 인터프리터에 의해 생성 또는 실행되는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장 매체는, 비일시적(non-transitory) 저장 매체의 형태로 제공될 수 있다. 여기서, '비일시적'은 저장 매체가 신호(signal)를 포함하지 않으며 실재(tangible)한다는 것을 의미할 뿐 데이터가 저장 매체에 반영구적 또는 임시적으로 저장됨을 구분하지 않는다.Meanwhile, according to an exemplary embodiment of the present disclosure, the various embodiments described above may be implemented as software including instructions stored in a machine-readable storage media (eg, a computer). can A device is a device capable of calling a stored command from a storage medium and operating according to the called command, and may include an electronic device according to the disclosed embodiments. When a command is executed by a processor, the processor may perform a function corresponding to the command directly or by using other components under the control of the processor. An instruction may include code generated or executed by a compiler or interpreter. The device-readable storage medium may be provided in the form of a non-transitory storage medium. Here, 'non-temporary' only means that the storage medium does not contain a signal and is tangible, but does not distinguish whether data is stored semi-permanently or temporarily in the storage medium.
또한, 본 개시의 일 실시 예에 따르면, 이상에서 설명된 다양한 실시 예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 온라인으로 배포될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.Also, according to an embodiment of the present disclosure, the method according to the various embodiments described above may be included in a computer program product and provided. Computer program products may be traded between sellers and buyers as commodities. The computer program product may be distributed in the form of a device-readable storage medium (eg compact disc read only memory (CD-ROM)) or online through an application store (eg Play Store™). In the case of online distribution, at least part of the computer program product may be temporarily stored or temporarily created in a storage medium such as a manufacturer's server, an application store server, or a relay server's memory.
또한, 상술한 다양한 실시 예들에 따른 구성 요소(예: 모듈 또는 프로그램) 각각은 단수 또는 복수의 개체로 구성될 수 있으며, 전술한 해당 서브 구성 요소들 중 일부 서브 구성 요소가 생략되거나, 또는 다른 서브 구성 요소가 다양한 실시 예에 더 포함될 수 있다. 대체적으로 또는 추가적으로, 일부 구성 요소들(예: 모듈 또는 프로그램)은 하나의 개체로 통합되어, 통합되기 이전의 각각의 해당 구성 요소에 의해 수행되는 기능을 동일 또는 유사하게 수행할 수 있다. 다양한 실시 예들에 따른, 모듈, 프로그램 또는 다른 구성 요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱하게 실행되거나, 적어도 일부 동작이 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다.In addition, each of the components (eg, modules or programs) according to various embodiments described above may be composed of a single object or a plurality of entities, and some sub-components among the aforementioned sub-components may be omitted, or other sub-components may be used. Components may be further included in various embodiments. Alternatively or additionally, some components (eg, modules or programs) may be integrated into one entity and perform the same or similar functions performed by each corresponding component prior to integration. According to various embodiments, operations performed by modules, programs, or other components may be executed sequentially, in parallel, repetitively, or heuristically, or at least some operations may be executed in a different order, may be omitted, or other operations may be added. can
이상에서는 본 개시의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 개시는 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 개시의 요지를 벗어남이 없이 당해 개시에 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형 실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 개시의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.Although the preferred embodiments of the present disclosure have been shown and described above, the present disclosure is not limited to the specific embodiments described above, and is common in the technical field belonging to the present disclosure without departing from the gist of the present disclosure claimed in the claims. Of course, various modifications and implementations are possible by those with knowledge of, and these modifications should not be individually understood from the technical spirit or perspective of the present disclosure.

Claims (15)

  1. 전자 장치에 있어서,In electronic devices,
    프로젝션부;projection unit;
    제1 센서부;a first sensor unit;
    제2 센서부; 및a second sensor unit; and
    상기 제1 센서부를 통해 획득된 센싱 데이터에 기초하여 상기 전자 장치의 상태 정보를 획득하고,obtaining state information of the electronic device based on sensing data acquired through the first sensor unit;
    상기 제2 센서부를 통해 획득된 센싱 데이터에 기초하여 투사면의 상태 정보를 획득하고,obtaining state information of a projection surface based on sensing data obtained through the second sensor unit;
    상기 전자 장치의 상태 정보 및 상기 투사면의 상태 정보에 기초하여 투사 이미지를 보정하고,Correcting a projected image based on state information of the electronic device and state information of the projection surface;
    상기 보정된 투사 이미지를 상기 투사면에 출력하도록 상기 프로젝션부를 제어하는 프로세서;를 포함하는, 전자 장치.and a processor controlling the projection unit to output the corrected projection image to the projection surface.
  2. 제1항에 있어서,According to claim 1,
    상기 전자 장치의 상태 정보는,State information of the electronic device,
    상기 전자 장치의 x축 회전 정보 및 상기 전자 장치의 y축 회전 정보를 포함하고,Including x-axis rotation information and y-axis rotation information of the electronic device,
    상기 투사면의 상태 정보는,State information of the projection surface,
    상기 투사면의 y축 회전 정보 및 상기 투사면의 z축 회전 정보를 포함하는, 전자 장치.Electronic device comprising y-axis rotation information of the projection surface and z-axis rotation information of the projection surface.
  3. 제2항에 있어서,According to claim 2,
    상기 프로세서는,the processor,
    상기 전자 장치의 x축 회전 정보에 기초하여 상기 투사 이미지를 레벨링 보정하고,Leveling and correcting the projected image based on x-axis rotation information of the electronic device;
    상기 전자 장치의 y축 회전 정보, 상기 투사면의 y축 회전 정보 및 상기 투사면의 z축 회전 정보에 기초하여 상기 투사 이미지를 키스톤 보정하는, 전자 장치.and keystone correcting the projected image based on y-axis rotation information of the electronic device, y-axis rotation information of the projection surface, and z-axis rotation information of the projection surface.
  4. 제1항에 있어서,According to claim 1,
    상기 제2 센서부는,The second sensor unit,
    제1 거리 센서 및 제2 거리 센서를 포함하고,a first distance sensor and a second distance sensor;
    상기 프로세서는,the processor,
    상기 제1 거리 센서로부터 획득한 상기 제1 거리 센서와 상기 투사면 사이의 제1 거리 및 상기 제2 거리 센서로부터 획득한 제2 거리 센서와 상기 투사면 사이의 제2 거리에 기초하여 상기 투사면의 상태 정보를 획득하는, 전자 장치.Based on the first distance between the first distance sensor and the projection surface obtained from the first distance sensor and the second distance between the second distance sensor and the projection surface obtained from the second distance sensor, the projection surface An electronic device that acquires state information of.
  5. 제4항에 있어서,According to claim 4,
    상기 제2 센서부는,The second sensor unit,
    제3 거리 센서를 더 포함하고,Further comprising a third distance sensor;
    상기 프로세서는,the processor,
    상기 제1 거리 센서로부터 획득한 제1 거리 및 상기 제2 거리 센서로부터 획득한 제2 거리에 기초하여 상기 투사면의 z축 회전 정보를 획득하고,obtaining z-axis rotation information of the projection surface based on a first distance obtained from the first distance sensor and a second distance obtained from the second distance sensor;
    상기 제1 거리 또는 상기 제2 거리 중 적어도 하나의 거리 및 상기 제3 거리 센서로부터 획득한 상기 제3 거리 센서와 상기 투사면 사이의 제3 거리에 기초하여 상기 투사면의 y축 회전 정보를 획득하는, 전자 장치.Obtaining y-axis rotation information of the projection surface based on at least one of the first distance and the second distance and a third distance between the third distance sensor and the projection surface obtained from the third distance sensor to do, electronic devices.
  6. 제4항에 있어서,According to claim 4,
    상기 프로세서는,the processor,
    상기 투사면에서 상기 투사 이미지가 투사되는 투사 영역을 식별하고,identifying a projection area where the projection image is projected on the projection surface;
    상기 제1 거리 센서로부터 상기 제1 거리 센서와 상기 투사 영역에 대응되는 위치 사이의 제4 거리를 획득하고,obtaining a fourth distance between the first distance sensor and a position corresponding to the projection area from the first distance sensor;
    상기 제2 거리 센서로부터 상기 제2 거리 센서와 상기 투사 영역에 대응되는 위치 사이의 제5 거리를 획득하고,obtaining a fifth distance between the second distance sensor and a position corresponding to the projection area from the second distance sensor;
    상기 제4 거리 및 상기 제5 거리에 기초하여 상기 전자 장치의 초점을 결정하는, 전자 장치.An electronic device that determines a focus of the electronic device based on the fourth distance and the fifth distance.
  7. 제6항에 있어서,According to claim 6,
    상기 프로세서는,the processor,
    상기 제4 거리 및 상기 제5 거리 중 작은 거리에 대응되는 거리 센서를 식별하고,Identifying a distance sensor corresponding to a smaller distance among the fourth distance and the fifth distance;
    상기 식별된 거리 센서로부터 획득한 센싱 데이터에 더 큰 가중치를 부여하여 상기 전자 장치의 초점을 결정하고,determining a focus of the electronic device by assigning a higher weight to sensing data acquired from the identified distance sensor;
    상기 결정된 전자 장치의 초점에 기초하여 상기 보정된 투사 이미지를 상기 투사면에 출력하는, 전자 장치.and outputs the corrected projection image to the projection surface based on the determined focus of the electronic device.
  8. 제1항에 있어서,According to claim 1,
    상기 프로젝션부는,the projection unit,
    프로젝션 렌즈;를 포함하고,Includes a projection lens;
    상기 프로세서는,the processor,
    상기 프로젝션 렌즈에 대하여 렌즈 시프트(lens shift) 기능을 수행하는 경우, 상기 렌즈 시프트 기능에 대응되는 이동 정보에 기초하여 상기 제2 센서부를 이동시키는, 전자 장치.When a lens shift function is performed on the projection lens, the electronic device moves the second sensor unit based on movement information corresponding to the lens shift function.
  9. 제1항에 있어서,According to claim 1,
    상기 프로세서는,the processor,
    상기 제2 센서부를 통해 상기 전자 장치 및 상기 투사면 사이의 투사 거리를 획득하고,Obtaining a projection distance between the electronic device and the projection surface through the second sensor unit;
    상기 획득된 투사 거리에 기초하여 상기 보정된 투사 이미지의 비율을 결정하고,determining a ratio of the corrected projection image based on the obtained projection distance;
    상기 결정된 비율에 기초하여 상기 보정된 투사 이미지를 상기 투사면에 출력하도록 상기 프로젝션부를 제어하는, 전자 장치.and controlling the projection unit to output the corrected projection image to the projection surface based on the determined ratio.
  10. 제1항에 있어서,According to claim 1,
    상기 제1 센서부는,The first sensor unit,
    중력 센서, 가속도 센서 또는 자이로 센서 중 적어도 하나를 포함하고,At least one of a gravity sensor, an acceleration sensor, or a gyro sensor;
    상기 제2 센서부는,The second sensor unit,
    적어도 하나의 ToF 센서를 포함하는, 전자 장치.An electronic device comprising at least one ToF sensor.
  11. 제1 센서부 및 제2 센서부를 포함하는 전자 장치의 제어 방법에 있어서,A control method of an electronic device including a first sensor unit and a second sensor unit,
    상기 제1 센서부를 통해 획득된 센싱 데이터에 기초하여 상기 전자 장치의 상태 정보를 획득하는 단계;obtaining state information of the electronic device based on sensing data acquired through the first sensor unit;
    상기 제2 센서부를 통해 획득된 센싱 데이터에 기초하여 투사면의 상태 정보를 획득하는 단계;obtaining state information of a projection surface based on sensing data acquired through the second sensor unit;
    상기 전자 장치의 상태 정보 및 상기 투사면의 상태 정보에 기초하여 투사 이미지를 보정하는 단계; 및correcting a projection image based on state information of the electronic device and state information of the projection surface; and
    상기 보정된 투사 이미지를 상기 투사면에 출력하는 단계;를 포함하는, 제어 방법.and outputting the corrected projection image to the projection surface.
  12. 제11항에 있어서,According to claim 11,
    상기 전자 장치의 상태 정보는,State information of the electronic device,
    상기 전자 장치의 x축 회전 정보 및 상기 전자 장치의 y축 회전 정보를 포함하고,Including x-axis rotation information and y-axis rotation information of the electronic device,
    상기 투사면의 상태 정보는,State information of the projection surface,
    상기 투사면의 y축 회전 정보 및 상기 투사면의 z축 회전 정보를 포함하는, 제어 방법.y-axis rotation information of the projection surface and z-axis rotation information of the projection surface.
  13. 제12항에 있어서,According to claim 12,
    상기 투사 이미지를 보정하는 단계는,In the step of correcting the projected image,
    상기 전자 장치의 x축 회전 정보에 기초하여 상기 투사 이미지를 레벨링 보정하고,Leveling and correcting the projected image based on x-axis rotation information of the electronic device;
    상기 전자 장치의 y축 회전 정보, 상기 투사면의 y축 회전 정보 및 상기 투사면의 z축 회전 정보에 기초하여 상기 투사 이미지를 키스톤 보정하는, 제어 방법.and performing keystone correction on the projected image based on y-axis rotation information of the electronic device, y-axis rotation information of the projection surface, and z-axis rotation information of the projection surface.
  14. 제11항에 있어서,According to claim 11,
    상기 제2 센서부는,The second sensor unit,
    제1 거리 센서 및 제2 거리 센서를 포함하고,a first distance sensor and a second distance sensor;
    상기 투사면의 상태 정보를 획득하는 단계는,Obtaining state information of the projection surface,
    상기 제1 거리 센서로부터 획득한 상기 제1 거리 센서와 상기 투사면 사이의 제1 거리 및 상기 제2 거리 센서로부터 획득한 제2 거리 센서와 상기 투사면 사이의 제2 거리에 기초하여 상기 투사면의 상태 정보를 획득하는, 제어 방법.Based on a first distance between the first distance sensor and the projection surface obtained from the first distance sensor and a second distance between a second distance sensor and the projection surface obtained from the second distance sensor, the projection surface Obtaining state information of, a control method.
  15. 제14항에 있어서,According to claim 14,
    상기 제2 센서부는,The second sensor unit,
    제3 거리 센서를 더 포함하고,further comprising a third distance sensor;
    상기 투사면의 상태 정보를 획득하는 단계는,Obtaining state information of the projection surface,
    상기 제1 거리 센서로부터 획득한 제1 거리 및 상기 제2 거리 센서로부터 획득한 제2 거리에 기초하여 상기 투사면의 z축 회전 정보를 획득하고,obtaining z-axis rotation information of the projection surface based on a first distance obtained from the first distance sensor and a second distance obtained from the second distance sensor;
    상기 제1 거리 또는 상기 제2 거리 중 적어도 하나의 거리 및 상기 제3 거리 센서로부터 획득한 상기 제3 거리 센서와 상기 투사면 사이의 제3 거리에 기초하여 상기 투사면의 y축 회전 정보를 획득하는, 제어 방법.Obtaining y-axis rotation information of the projection surface based on at least one of the first distance and the second distance and a third distance between the third distance sensor and the projection surface obtained from the third distance sensor How to do, control.
PCT/KR2022/016225 2021-12-17 2022-10-24 Electronic device and control method therefor WO2023113201A1 (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR10-2021-0182193 2021-12-17
KR20210182193 2021-12-17
KR1020220038434A KR20230092682A (en) 2021-12-17 2022-03-28 Electronic apparatus and controlling method thereof
KR10-2022-0038434 2022-03-28

Publications (1)

Publication Number Publication Date
WO2023113201A1 true WO2023113201A1 (en) 2023-06-22

Family

ID=86772922

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2022/016225 WO2023113201A1 (en) 2021-12-17 2022-10-24 Electronic device and control method therefor

Country Status (1)

Country Link
WO (1) WO2023113201A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005227700A (en) * 2004-02-16 2005-08-25 Seiko Epson Corp Display device
KR20080044654A (en) * 2006-11-17 2008-05-21 주식회사 대우일렉트로닉스 Method and apparatus for auto image controlling in a projector
KR20120042404A (en) * 2010-10-25 2012-05-03 엘지전자 주식회사 Mobile terminal
JP2014187530A (en) * 2013-03-22 2014-10-02 Casio Comput Co Ltd Projection device, image output device, projection method, and projection program
KR20180038517A (en) * 2015-09-04 2018-04-16 마이크로비젼, 인코퍼레이티드 Dynamic invariance of brightness or magnitude of projected content in a scanning display system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005227700A (en) * 2004-02-16 2005-08-25 Seiko Epson Corp Display device
KR20080044654A (en) * 2006-11-17 2008-05-21 주식회사 대우일렉트로닉스 Method and apparatus for auto image controlling in a projector
KR20120042404A (en) * 2010-10-25 2012-05-03 엘지전자 주식회사 Mobile terminal
JP2014187530A (en) * 2013-03-22 2014-10-02 Casio Comput Co Ltd Projection device, image output device, projection method, and projection program
KR20180038517A (en) * 2015-09-04 2018-04-16 마이크로비젼, 인코퍼레이티드 Dynamic invariance of brightness or magnitude of projected content in a scanning display system

Similar Documents

Publication Publication Date Title
WO2016171403A1 (en) Electronic device and method
WO2019004570A1 (en) Range hood and method for controlling the range hood
WO2016018070A1 (en) Wearable glasses and method of displaying image via the wearable glasses
WO2017111268A1 (en) Deformable display device and image display method using same
WO2016072565A1 (en) Image output device, mobile terminal, and control method therefor
WO2015194773A1 (en) Display device and driving method therefor
WO2017104935A1 (en) Electronic device and cradle therefore
WO2023013862A1 (en) Electronic apparatus and image processing method thereof
WO2021187870A1 (en) Camera module and electronic device comprising same
WO2023017904A1 (en) Electronic apparatus and control method thereof
WO2016143993A1 (en) A lighting control apparatus and method thereof
WO2023003140A1 (en) Electronic device and control method therefor
WO2021221464A1 (en) Camera module and electronic apparatus including same
WO2023113201A1 (en) Electronic device and control method therefor
WO2022191538A1 (en) Sound outputting apparatus
WO2024025075A1 (en) Electronic device for projecting image, and method for controlling same
WO2023080421A1 (en) Electronic device and control method therefor
WO2023018008A1 (en) Electronic apparatus and controlling method thereof
WO2023249235A1 (en) Electronic device and control method therefor
WO2023249233A1 (en) Electronic device and method for controlling same
WO2023282460A1 (en) Electronic apparatus and control method thereof
WO2022265428A1 (en) Electronic apparatus and control method thereof
WO2016125966A1 (en) Image projection apparatus and operation method thereof
WO2024025130A1 (en) Electronic apparatus for projecting image, and control method therefor
WO2023249232A1 (en) Electronic device and control method thereof

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22907672

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE