WO2024071579A1 - 프로젝션 장치 및 그 동작 방법 - Google Patents

프로젝션 장치 및 그 동작 방법 Download PDF

Info

Publication number
WO2024071579A1
WO2024071579A1 PCT/KR2023/008871 KR2023008871W WO2024071579A1 WO 2024071579 A1 WO2024071579 A1 WO 2024071579A1 KR 2023008871 W KR2023008871 W KR 2023008871W WO 2024071579 A1 WO2024071579 A1 WO 2024071579A1
Authority
WO
WIPO (PCT)
Prior art keywords
screen
image
projection device
center
brightness
Prior art date
Application number
PCT/KR2023/008871
Other languages
English (en)
French (fr)
Inventor
김동준
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020220169106A external-priority patent/KR20240045044A/ko
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Publication of WO2024071579A1 publication Critical patent/WO2024071579A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/54Accessories
    • G03B21/56Projection screens
    • G03B21/58Projection screens collapsible, e.g. foldable; of variable area
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/324Colour aspects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/327Calibration thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/363Image reproducers using image projection screens
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]

Definitions

  • Various embodiments relate to a projection device capable of projecting an image on a screen and a method of operating the same.
  • the image projected on the screen may change significantly depending on the location of the projector. Therefore, it is necessary to edit or correct the output image so that there is no significant change in the image projected on the screen depending on the position of the projector.
  • a projection device may include a projection unit, a memory storing one or more instructions, and at least one processor executing the one or more instructions.
  • the at least one processor may obtain center information of a screen on which to project the image by executing the one or more instructions.
  • the at least one processor may control the projection direction so that the center of the projected image coincides with the center of the screen by executing the one or more instructions.
  • the at least one processor may obtain positional relationship information between the projection device and the screen by executing the one or more instructions.
  • the at least one processor may determine at least one of the size and brightness of the image based on the positional relationship information by executing the one or more instructions.
  • the at least one processor may control the projection unit to project the image on the screen according to at least one of the determined size and brightness by executing the one or more instructions.
  • a method of operating a projection device may include obtaining center information of a screen on which to project an image.
  • a method of operating a projection device may include controlling a projection direction so that the center of the projected image coincides with the center of the screen.
  • a method of operating a projection device may include obtaining positional relationship information between the projection device and the screen.
  • a method of operating a projection device may include determining at least one of the size and brightness of the image based on the positional relationship information.
  • a method of operating a projection device may include projecting the image on the screen according to at least one of the determined size and brightness.
  • FIG. 1 is a diagram illustrating a projection environment according to an embodiment.
  • Figure 2 is a flowchart showing a method of operating a projection device according to an embodiment.
  • FIG. 3 is a diagram illustrating an example in which a projection device determines a projection direction based on location, according to an embodiment.
  • FIG. 4 is a diagram illustrating a method by which a projection device adjusts the size and brightness of an output image according to location, according to an embodiment.
  • FIG. 5 is a diagram illustrating a method by which a projection device adjusts the projection direction and the size and brightness of an output image according to location, according to an embodiment.
  • FIG. 6 is a diagram illustrating a method by which a projection device adjusts the projection direction and the size and brightness of an output image according to location, according to an embodiment.
  • FIG. 7 is a diagram illustrating a method for correcting distortion by a projection device according to an embodiment.
  • FIG. 8 is a diagram illustrating a method for correcting distortion by a projection device according to an embodiment.
  • FIG. 9 is a diagram illustrating a method for correcting distortion by a projection device according to an embodiment.
  • Figure 10 is a flowchart showing a method of operating a projection device and a screen device according to an embodiment.
  • FIG. 11 is a diagram illustrating an example in which a projection device projects a guide message according to an embodiment.
  • Figure 12 is a block diagram showing the configuration of a projection device according to an embodiment.
  • the term “user” refers to a person who controls a system, function, or operation, and may include a developer, administrator, or installer.
  • 'image' or 'picture' may refer to a still image, a moving image composed of a plurality of consecutive still images (or frames), or a video.
  • FIG. 1 is a diagram illustrating a projection environment according to an embodiment.
  • the projection device 100 can perform projection in a 360-degree direction.
  • the projection device 100 may project an image onto the dome-shaped screen 10.
  • the screen 10 according to one embodiment is shown as a dome shape, but may be configured with multiple sides (eg, front, side, ceiling, floor, etc.). However, it is not limited to this, and the screen or space on which the image is projected may be configured in various forms.
  • the projection device 100 may project an image so that the center of the image is located at the center O of the screen 10.
  • the projection device 100 may obtain information about the center O of the screen 10 and identify the center O of the screen 10.
  • the projection device 100 receives information about the center (O) of the screen 10 from the screen 10, detects a marker attached to the center (O) of the screen, or displays the center (O) of the screen.
  • Information about the center (O) of the screen 10 can be obtained through a sensor module attached to .
  • the projection device 100 may acquire depth information about the screen 10 and, based on the depth information about the screen 10, obtain information about the center O of the screen 10. However, it is not limited to this.
  • the projection device 100 When the center (O) of the screen is identified, the projection device 100 according to one embodiment projects an image in the direction of the center (O) of the screen 10, so that the center of the projected image is the center (O) of the screen 10. It can be adjusted to be positioned at O). For example, when the projection device 100 is located at the first point A0, the center 21 of the projected first image 20 is at the center O of the screen 10. Projection may be performed in the first direction 31 so that the image is positioned.
  • the projection device 100 determines the size of the image to be projected based on the positional relationship between the center O of the screen 10 and at least one reference point and the point where the projection device 100 is located, the curvature information of the screen, etc. and brightness can be determined.
  • the projection device 100 when the projection device 100 is located at the first point A0, the projected first image 20 has the first size, and the projection device 100 projects the first image 20 into the first size. Projection can be done with brightness.
  • the projection device 100 can project the image 20 at a first brightness by adjusting the output of the projection light source. However, it is not limited to this.
  • the projection device 100 projects the image 20 at the first point A0, the first area 22 of the first image 20 may be displayed on the screen 10.
  • the location of the projection device 100 may be moved.
  • a user can move the projection device 100 by directly lifting it or using a driving device mounted on or connected to the projection device 100.
  • the projection device 100 may be moved from the first point A0 to the second point A1.
  • the projection device 100 is moved from the first point A0 to the second point A1, and the projection device 100 is projected at the second point A1 in the first direction in the same way as at the first point A0. (31) and when projecting the image 20 having the first size with the first brightness, the second area 42 displayed on the screen 10 is the first area 22 displayed at the first point A0. ) and may be an area that is skewed to the left from the center of the image (21). Additionally, the brightness of the image of the second area 42 displayed on the screen may decrease.
  • the size and brightness of the output image projected from the projection device 100 must be adjusted based on the changed location. A process of adjusting the back is necessary.
  • the projection device 100 may adjust the projection direction so that the center of the projected image is located at the center O of the screen 10.
  • the projection device 100 when the projection device 100 is moved from the first point A0 to the second point A1, the projection device 100 makes the size of the output image smaller and the brightness higher based on the moved position. Brightness can be adjusted.
  • Figure 2 is a flowchart showing a method of operating a projection device according to an embodiment.
  • the projection device 100 may acquire information about the center of the screen (S210).
  • the projection device 100 receives information about the center (O) of the screen 10 from the screen 10, detects a marker attached to the center (O) of the screen 10, or Information about the center (O) of the screen (10) can be obtained through a sensor module attached to the center (O) of (10).
  • the projection device 100 may acquire depth information about the screen 10 and, based on the depth information about the screen 10, obtain information about the center O of the screen 10.
  • the center information of the screen 10 includes coordinate information about the center point of the screen 10, the direction of the center point of the screen 10 with respect to the projection device 100, and the projection device 100 and the screen 10. ) may include the distance between the center points, etc. However, it is not limited to this.
  • the projection device 100 may adjust the projection direction so that the projection center matches the center of the screen 10 (S220).
  • the projection device 100 may determine a projection direction so that the center of the output image faces the center of the screen, based on information about the center of the screen.
  • the projection device 100 may obtain positional relationship information between the projection device 100 and the screen 10 (S230).
  • the projection device 100 may provide distance information between the center O of the screen 10 and the projection device 100, and the angle formed between the projection device 100 and at least one reference point included in the screen 10. Information about whether the projection device 100 is on the left or right based on the center (O) of the screen can be obtained.
  • the projection device 100 may adjust at least one of the size and brightness of the output image based on the positional relationship information obtained in step 230 (S230) (S240).
  • the size of the output image can be reduced and the brightness can be adjusted to be brighter.
  • the size of the output image can be increased and the brightness can be adjusted to be dark.
  • the change in size and brightness of the right area of the image can be adjusted to be greater than that of the left area of the image based on the center of the image.
  • the change in size and brightness of the left area of the image can be adjusted to be greater than that of the right area of the image based on the center of the image. This will be described in detail with reference to FIGS. 4 to 6.
  • the projection device 100 may apply correction data to the output image to correct radial distortion of the output image projected through the fisheye lens. At this time, the projection device 100 may determine correction data to be applied to the output image based on the positional relationship information obtained in step S230. This will be described in detail with reference to FIGS. 7 to 9.
  • FIG. 3 is a diagram illustrating an example in which a projection device determines a projection direction based on location, according to an embodiment.
  • the projection device 100 can identify the center O of the screen 10. For example, when a marker is attached to the center O of the screen 10, the projection device 100 can detect the marker and identify the center of the screen.
  • the screen 10 is comprised of an electronic device having a communication module, information about the center of the screen can be received from the screen.
  • the projection device 100 may obtain depth information of the screen 10 using a depth sensor and identify the center of the screen 10 based on the depth information of the screen 10. However, it is not limited to this.
  • the projection device 100 can determine the projection direction in a direction toward the center of the screen so that the center (O) of the screen 10 and the center of the projected image coincide. .
  • the projection device 100 may perform projection in the first direction 310 so that the center of the projected image is located at the center O of the screen 10.
  • the projection device 100 can adjust the projection direction in the first direction 310 using a driving module.
  • the projection device 100 changes the projection direction to the second point toward the center O of the screen 10. It can be adjusted in direction (320). Accordingly, the projection device 100 may perform projection in the second direction 320 so that the center of the projected image is located at the center O of the screen 10.
  • the projection device 100 adjusts the center of the projected image to match the center (O) of the screen 10 even if the position of the projection device 100 changes, so that the projected image is not biased to one side. and can be displayed on the screen 10 in a balanced manner.
  • FIG. 4 is a diagram illustrating a method by which a projection device adjusts the size and brightness of an output image according to location, according to an embodiment.
  • the screen 10 may include a center O and four reference points S0, S1, S2, and S3.
  • the first reference point S0 may be a point located at the top of the screen 10 with respect to the center point O.
  • the second reference point S1 may be a point located at the left end of the screen 10
  • the third reference point S2 may be a point located at the right end of the screen 10.
  • the fourth reference point (S3) may be a point located at the bottom of the screen with respect to the center point (O).
  • the projection device 100 may be located at a first point (A0), and the first angle formed by the second reference point (S1) and the center (O) with the first point (A0) as the center and the The second angle formed between the third reference point S2 and the center O with point A0 as the center may be the same.
  • the first angle and the second angle may be 90 degrees, but are not limited thereto.
  • the projection device 100 located at the first point A0 may perform projection in the first direction 310 toward the center O of the screen 10. Additionally, the projection device 100 may project the first image 410 on the screen 10 by outputting the first image 410 having a first size and first brightness. At this time, when the first image 410 is projected on the screen 10, the first area 415 of the first image 410 may be displayed on the screen 10, and the center of the first image 410 ( 430) may correspond to the center O of the screen 10.
  • the projection device 100 may be moved from the first point A0 to the second point A1.
  • the projection device 100 may adjust parameters related to projection. For example, the projection device 100 can adjust the projection direction, size of the output image, brightness of the output image, etc.
  • the distance between the second point A1 and the center O of the screen 10 may be greater than the distance between the first point A0 and the center O of the screen 10.
  • the projection device 100 projects the first image 410 at the second point A1
  • the area displayed on the screen 10 of the first image may be reduced.
  • the second area 425 of the first image 410 may be displayed on the screen 10.
  • the projection device 100 may adjust the size of the output first image 410 in order to display the same area on the screen 10 even at the second point A1.
  • the projection device 100 may output a second image 440 in which the size of the first image 410 is reduced.
  • the second area 425 of the second image 440 may be displayed on the screen 10.
  • the projection device 100 calculates the ratio of the first distance between the first point A0 and the center O of the screen and the second distance between the second point A1 and the center O of the screen 10.
  • the size of the second image 440 may be determined based on the difference, the ratio or difference between the size of the first area 415 and the size of the second area 425, etc. However, it is not limited to this.
  • the projection device 100 can adjust the brightness of the second image 425 output from the second point A1.
  • the projection device 100 may adjust the brightness of the second image 425 to a second brightness that is greater than the first brightness.
  • the projection device 100 projects based on the distance between the first point A0 and the center O of the screen 10 and the distance between the second point A1 and the center O of the screen 10. , the second brightness can be determined.
  • the projection device 100 can control the second image 440 to be output at a second brightness by adjusting the output of the projection light source.
  • the projection device 100 when the projection device 100 according to an embodiment outputs the first image 410 at the first brightness at the first point A0 and the second image 440 at the second point A1 When output at the second brightness, similar images may be displayed on the screen 10 with similar brightness.
  • FIG. 5 is a diagram illustrating a method by which a projection device adjusts the projection direction and the size and brightness of an output image according to location, according to an embodiment.
  • the screen 10 may include a center O and four reference points S0, S1, S2, and S3.
  • the first reference point S0 may be a point located at the top of the screen 10 with respect to the center point O.
  • the second reference point S1 may be a point located at the left end of the screen 10
  • the third reference point S2 may be a point located at the right end of the screen 10.
  • the fourth reference point (S3) may be a point located at the bottom of the screen with respect to the center point (O).
  • the projection device 100 may be located at a first point (A0), and the first angle formed by the second reference point (S1) and the center (O) with the first point (A0) as the center and the The second angle formed between the third reference point S2 and the center O with point A0 as the center may be the same.
  • the first angle and the second angle may be 90 degrees, but are not limited thereto.
  • the projection device 100 located at the first point A0 may perform projection in the first direction 310 toward the center O of the screen 10. Additionally, the projection device 100 may project the first image 410 on the screen 10 by outputting the first image 410 having a first size and first brightness. At this time, when the first image 410 is projected on the screen 10, the first area 415 of the first image 410 may be displayed on the screen 10, and the center of the first image 410 ( 430) may correspond to the center O of the screen 10.
  • the projection device 100 may be moved from the first point A0 to the third point A2.
  • the projection device 100 may adjust parameters related to projection. For example, the projection device 100 can adjust the projection direction, size of the output image, brightness of the output image, etc.
  • the distance between the third point A2 and the center O of the screen 10 may be greater than the distance between the first point A0 and the center O of the screen 10.
  • the first angle ⁇ 1 formed between the second reference point S1 and the center O with the third point A2 as the center is the third reference point S2 with the third point A2 as the center. It may be smaller than the second angle ( ⁇ 2) formed by (O) ( ⁇ 1 ⁇ ⁇ 2).
  • the projection device 100 can adjust the projection direction at the third point A2.
  • the projection device 100 may perform projection in the second direction 520 toward the center O of the screen 10.
  • the area displayed on the screen 10 of the first image 410 may be reduced.
  • the third area 525 of the first image 410 may be displayed on the screen.
  • the third area 525 may be an area biased to the right with respect to the center 430 of the first image 410.
  • the projection device 100 may adjust the size of the output first image 410 in order to display the same area on the screen 10 even at the third point A2.
  • the projection device 100 may output a third image 540 in which the size of the first image 410 is reduced. Areas other than the third area 525 of the third image 540 are not actually output from the projection device 100, and the third area 525 of the third image 540 is projected through a fisheye lens. It may be displayed on screen 10. However, the resolution of the video may be somewhat reduced. Accordingly, the third area 525 of the third image 540 may be displayed on the screen 10.
  • the projection device 100 provides a first distance between the first point A0 and the center O of the screen 10 and a third distance between the third point A2 and the center O of the screen 10. Based on the ratio or difference of the distance, the ratio or difference between the size of the first area 415 and the size of the third area 525, the ratio or difference between the first angle ⁇ 1 and the second angle ⁇ 2, etc. 3 A reduction ratio for each size, position, or direction of the image 540 (e.g., reduction ratio in the top, bottom, left, and right directions) can be determined.
  • the projector device 100 may set the left and right reduction ratios differently depending on the position of the projector device 100 after movement.
  • the third point A2 is located to the right of the center O of the screen 10, so the projection device 100 is positioned based on the center 430 of the first image 410.
  • the left area can be reduced more than the right area.
  • the degree of reduction may be reduced in areas close to the center, and the degree of reduction may be increased in areas far from the center.
  • the projection device 100 can adjust the brightness of the third image 540 output from the third point A2.
  • the projection device 100 may adjust the brightness of the third image 540 to a third brightness that is greater than the first brightness.
  • the projection device 100 determines the third brightness based on the distance between the first point (A0) and the center (O) of the screen and the distance between the third point (A2) and the center (O) of the screen. You can.
  • the projection device 100 can control the third image 540 to be output at a third brightness by adjusting the output of the projection light source.
  • the projection device 100 may adjust the brightness of the left area to be brighter than the brightness of the right area based on the center 430 of the first image. Additionally, the projection device 100 may adjust the brightness of an area farther from the center based on the center 430 of the first image to be brighter than an area closer to the center.
  • the projection device 100 when the projection device 100 according to an embodiment outputs the first image 410 at the first brightness at the first point A0 and the third image 540 at the third point A2 When output at the third brightness, similar images may be displayed on the screen 10 with similar brightness.
  • FIG. 6 is a diagram illustrating a method by which a projection device adjusts the projection direction and the size and brightness of an output image according to location, according to an embodiment.
  • the screen 10 may include a center O and four reference points S0, S1, S2, and S3.
  • the first reference point S0 may be a point located at the top of the screen 10 with respect to the center point O.
  • the second reference point S1 may be a point located at the left end of the screen 10
  • the third reference point S2 may be a point located at the right end of the screen 10.
  • the fourth reference point (S3) may be a point located at the bottom of the screen with respect to the center point (O).
  • the projection device 100 may be located at a first point (A0), and the first angle formed by the second reference point (S1) and the center (O) with the first point (A0) as the center and the The second angle formed between the third reference point S2 and the center O with point A0 as the center may be the same.
  • the first angle and the second angle may be 90 degrees, but are not limited thereto.
  • the projection device 100 located at the first point A0 may perform projection in the first direction 310 toward the center O of the screen 10. Additionally, the projection device 100 may project the first image 410 on the screen 10 by outputting the first image 410 having a first size and first brightness. At this time, when the first image 410 is projected on the screen 10, the first area 415 of the first image 410 may be displayed on the screen 10, and the center of the first image 410 ( 430) may correspond to the center O of the screen 10.
  • the projection device 100 may be moved from the first point A0 to the fourth point A3.
  • the projection device 100 may adjust parameters related to projection. For example, the projection device 100 can adjust the projection direction, size of the output image, brightness of the output image, etc.
  • the distance between the fourth point A3 and the center O of the screen 10 may be greater than the distance between the first point A0 and the center O of the screen 10.
  • the first angle ⁇ 1 formed between the second reference point S1 and the center O with the fourth point A3 as the center is the third reference point S2 with the fourth point A3 as the center. It may be larger than the second angle ( ⁇ 2) formed by (O) ( ⁇ 1 > ⁇ 2).
  • the projection device 100 can adjust the projection direction at the fourth point A3.
  • the projection device 100 may perform projection in the third direction 620 toward the center point O of the screen.
  • the area displayed on the screen 10 of the first image 410 may be reduced.
  • the fourth area 625 of the first image 410 may be displayed on the screen.
  • the fourth area 625 may be an area biased to the left with respect to the center 430 of the first image 410.
  • the projection device 100 may adjust the size of the output first image 410 in order to display the same area on the screen 10 even at the fourth point A3.
  • the projection device 100 may output a fourth image 640 in which the size of the first image 410 is reduced. Areas other than the fourth area 625 of the fourth image 640 are not actually output from the projection device 100, and the fourth area 625 of the fourth image 640 is projected through a fisheye lens. It may be displayed on screen 10. However, the resolution of the video may be somewhat reduced. Accordingly, the third area 625 of the fourth image 640 may be displayed on the screen 10.
  • the projection device 100 provides a first distance between the first point A0 and the center O of the screen 10 and a fourth distance between the fourth point A3 and the center O of the screen 10. Based on the ratio or difference of the distance, the ratio or difference between the size of the first area 415 and the size of the fourth area 625, the ratio or difference between the first angle ⁇ 1 and the second angle ⁇ 2, etc. 4 You can determine the reduction ratio by size, position, or direction of the image (e.g., reduction ratio in the top, bottom, left, and right directions).
  • the projector device 100 may set the left and right reduction ratios differently depending on the position of the projector device after movement.
  • the third point A2 is located to the left of the center O of the screen 10, so the projection device 100 is positioned based on the center 430 of the first image 410.
  • the right area can be reduced more than the left area.
  • the degree of reduction may be reduced in areas close to the center 430, and the degree of reduction may be increased in areas far from the center.
  • the projection device 100 can adjust the brightness of the fourth image 640 output from the fourth point A3.
  • the projection device 100 may adjust the brightness of the fourth image 640 to a fourth brightness that is greater than the first brightness.
  • the projection device 100 determines the fourth brightness based on the distance between the first point (A0) and the center (O) of the screen and the distance between the fourth point (A3) and the center (O) of the screen. You can.
  • the projection device 100 can control the fourth image 640 to be output at the fourth brightness by adjusting the output of the projection light source.
  • the projection device 100 may adjust the brightness of the right area to be brighter than the brightness of the left area based on the center 430 of the first image. Additionally, the projection device 100 may adjust the brightness of an area farther from the center based on the center 430 of the first image to be brighter than an area closer to the center.
  • the projection device 100 when the projection device 100 according to an embodiment outputs the first image 410 at the first brightness at the first point A0 and the fourth image 640 at the fourth point A3 When output at the fourth brightness, similar images may be displayed on the screen 10 with similar brightness.
  • FIG. 7 is a diagram illustrating a method for correcting distortion by a projection device according to an embodiment.
  • the projection device 100 may project an output image through a fisheye lens.
  • a fisheye lens In the case of a fisheye lens, it has a wider angle of view than a typical lens.
  • the angle of view of a fisheye lens may be 180 degrees or more.
  • the projection device 100 according to one embodiment requires a fisheye lens with a relatively large angle of view in order to project an image onto the entire screen consisting of a dome shape, a hemisphere shape, a multi-facet shape, etc. Due to the characteristics of the fisheye lens, the image projected through the fisheye lens has radial distortion.
  • the projection device 100 when the screen 10 is configured in a dome shape, projects the output image 710 onto the screen 10 through a fisheye lens. , pincushion distortion occurs in the image 720 displayed on the screen 10.
  • the projection device 100 may correct pincushion distortion using correction data (eg, barrel distortion) corresponding to the inverse transformation of pincushion distortion.
  • correction data eg, barrel distortion
  • the projection device 100 may acquire correction data corresponding to the inverse transformation of pincushion distortion.
  • the projection device 100 may project a sample image (first grid image) including a rectangular grid of the same size onto the screen.
  • the projection device 100 can capture an image projected on the screen 10 through a camera, and obtain and store correction data that ensures that grids included in the captured image have the same spacing.
  • the projection device 100 may apply the obtained correction data to the output image.
  • the projection device 100 may be located at a first point (A0), and the second reference point (S1) of the screen 10 and the first point (A0) as the center.
  • a first angle formed by the center O of the screen 10 and a second angle formed by the third reference point S2 of the screen 10 and the center O of the screen 10 with the first point A0 as the center. may be the same.
  • the projection device 100 corrects distortion by applying correction data that is symmetrical to the left and right areas based on the center of the output image 710 when the projection device 100 is located at the first point A0.
  • An image 730 can be generated.
  • the projection device 100 may output a distortion-corrected image 730 and project it on the screen 10. Accordingly, pincushion distortion does not occur in the image 740 displayed on the screen 10.
  • FIG. 8 is a diagram illustrating a method for correcting distortion by a projection device according to an embodiment.
  • the projection device 100 may be located at the second point A1.
  • the second point A1 may be located to the right of the center O of the screen 10.
  • the first angle formed between the second reference point S1 and the center O of the screen 10 around the second point A1 is the second angle of the screen 10 around the second point A1.
  • 3 It may be smaller than the second angle formed between the reference point S2 and the center O of the screen 10.
  • the projection device 100 may apply correction data for correcting pincushion distortion to the image output from the second point A1. At this time, the projection device 100 may apply different correction data to the left and right areas based on the center of the output image 810.
  • the degree of distortion in the left area of the projected image 820 based on the center O of the screen 10 is greater than the right area. It can be big.
  • the projection device 100 sets correction data to be applied to the left and right areas of the output area differently based on the difference or ratio between the first angle and the second angle, the distance between the center of the screen and the second point A1, etc. You can decide.
  • the projection device 100 may generate a distortion-corrected image 830 by applying correction data to the left and right areas of the output image, respectively.
  • the projection device 100 may output a distortion-corrected image 830 and project it on the screen 10. Accordingly, pincushion distortion does not occur in the image 840 displayed on the screen 10.
  • FIG. 9 is a diagram illustrating a method for correcting distortion by a projection device according to an embodiment.
  • the projection device 100 may be located at the third point A2.
  • the third point A2 may be located to the left of the center O of the screen 10.
  • the first angle formed between the second reference point (S1) and the center (O) of the screen 10 with the third point (A2) as the center is the third reference point (S2) with the third point (A2) as the center. It may be larger than the second angle formed by the center (O).
  • the projection device 100 may apply correction data for correcting pincushion distortion to the image output from the third point A2. At this time, the projection device 100 may apply different correction data to the left and right areas based on the center of the output image 910.
  • the degree of distortion in the right area of the projected image 920 based on the center O of the screen 10 is greater than the left area. You can.
  • the projection device 100 sets correction data to be applied to the left and right areas of the output area differently based on the difference or ratio between the first angle and the second angle, the distance between the center of the screen and the third point A2, etc. You can decide.
  • the projection device 100 may generate a distortion-corrected image 930 by applying correction data to the left and right areas of the output image, respectively.
  • the projection device 100 may output a distortion-corrected image 930 and project it on the screen 10. Accordingly, pincushion distortion does not occur in the image 940 displayed on the screen 10.
  • Figure 10 is a flowchart showing a method of operating a projection device and a screen device according to an embodiment.
  • the screen device 1000 may be implemented as an electronic device including a communication module.
  • the projection device 100 and the screen device 1000 may perform a communication connection with each other.
  • the projection device 100 and the screen device 1000 may establish a communication connection using a Wi-Fi module, a Bluetooth module, or the like. However, it is not limited to this.
  • a Wi-Fi module a Wi-Fi module
  • a Bluetooth module a Bluetooth module
  • various information can be transmitted and received.
  • the screen device 1000 may obtain screen-related information (S1020) and transmit it to the projection device 100 (S1030).
  • the screen-related information may include various information related to the shape of the screen, such as coordinates for the center of the screen, screen curvature information, screen size, and height. However, it is not limited to this.
  • the projection device 100 may identify the center of the screen based on the screen-related information.
  • the projection device 100 may adjust the projection direction so that the projection center matches the center of the identified screen (S1040).
  • the projection device 100 may obtain positional relationship information between the projection device 100 and the screen device 1000 (S1050).
  • the projection device 100 includes distance information between the center O of the screen device 1000 and the projection device 100, at least one reference point included in the screen device 1000, and the projection device 100. Information on the angle formed, information on whether the projection device 100 is on the left or right based on the center of the screen device 1000, etc. can be obtained.
  • the projection device 100 may adjust at least one of the size and brightness of the output image based on the positional relationship information obtained in step 1050 (S1050) (S1060).
  • the size of the output image can be reduced and the brightness can be adjusted to be brighter.
  • the size of the output image can be increased and the brightness can be adjusted to be darker.
  • the change in size and brightness of the right area of the image can be adjusted to be greater than that of the left area of the image based on the center of the image.
  • the change in size and brightness of the left area of the image can be adjusted to be greater than that of the right area of the image based on the center of the image. . Since this has been explained in detail in FIGS. 4 to 6, detailed description will be omitted.
  • the projection device 100 can correct distortion of a projected image (S1070).
  • the projection device 100 may apply correction data to the output image to correct radial distortion of the output image projected through a fisheye lens.
  • the projection device 100 may determine correction data to be applied to the output image based on the positional relationship information obtained in step S1050. Since this has been explained in detail in FIGS. 7 to 9, detailed description will be omitted.
  • FIG. 11 is a diagram illustrating an example in which a projection device projects a guide message according to an embodiment.
  • the projection device 100 adjusts the size or brightness of the output image, thereby creating an image similar to the case of outputting the first image at the first brightness at the first point A0.
  • a first range for a projection position where projection can be performed to be displayed on the screen can be preset.
  • the projection device 100 may determine whether the location A4 of the projection device 100 is in the first range.
  • the projection device 100 may apply correction data to the output image to preset a second range for a projection position where projection can be performed so that an output image without distortion is displayed on the screen.
  • the projection device 100 may determine whether the location A4 of the projection device 100 is in the second range.
  • the projection device 100 When the location A4 of the projection device 100 is outside the first range or the second range, the projection device 100 according to one embodiment displays an image including a guide message 1150, as shown in FIG. 11. can be output. Accordingly, a guide message may be displayed on the screen.
  • the guide message 1150 according to one embodiment may include a guide to move the position of the projection device 100. However, it is not limited to this.
  • the projection device 100 may output the guide message 1150 as audio or output a warning sound, notification sound, etc. However, it is not limited to this.
  • Figure 12 is a block diagram showing the configuration of a projection device according to an embodiment.
  • the projection device 100 may include a sensor unit 110, a processor 120, a memory 130, a projection unit 140, and a communication unit 150.
  • the sensor unit 110 may detect a state around the projection device 100 and transmit the sensed information to the processor 120.
  • the sensor unit 110 may include an image sensor and a depth sensor (or distance sensor).
  • An image sensor can acquire image frames such as still images or moving images.
  • the image sensor may capture an image outside the projection device 100.
  • an image sensor can capture images projected on a screen.
  • the image captured through the image sensor may be processed through the processor 120 or a separate image processor.
  • a depth sensor may acquire depth information about one or more objects included in a space. Depth information may correspond to the distance from the depth sensor to a specific object, and the greater the distance from the depth sensor to the specific object, the greater the depth value.
  • the depth sensor according to one embodiment can acquire depth information of an object in various ways, for example, among TOF (Time of Flight) method, Stereo Image method, and Structured Light method. Depth information can be obtained using at least one method.
  • the depth sensor may include at least one camera, and may acquire depth information about the actual space included in the FOV of the camera included in the depth sensor.
  • the depth sensor can sense the distance to the center or at least one reference point included in the projection device and the screen.
  • the sensor unit 110 may include an acceleration sensor, a position sensor, a temperature/humidity sensor, an illumination sensor, a geomagnetic sensor, a gyroscope sensor, and a microphone in addition to the image sensor and depth sensor. However, it is not limited to this.
  • the processor 120 controls the overall operation of the projection device 100 and signal flow between internal components of the projection device 100, and performs the function of processing data.
  • the processor 120 may include single core, dual core, triple core, quad core, and multiple cores thereof. Additionally, the processor 120 may include a plurality of processors. For example, the processor 120 may be implemented as a main processor (not shown) and a sub processor (not shown).
  • the processor 120 may include at least one of a Central Processing Unit (CPU), a Graphics Processing Unit (GPU), and a Video Processing Unit (VPU). Alternatively, depending on the embodiment, it may be implemented in the form of a SoC (System On Chip) integrating at least one of CPU, GPU, and VPU. Alternatively, the processor 120 may further include a Neural Processing Unit (NPU).
  • CPU Central Processing Unit
  • GPU Graphics Processing Unit
  • VPU Video Processing Unit
  • SoC System On Chip
  • NPU Neural Processing Unit
  • the memory 130 may store various data, programs, or applications for driving and controlling the projection device 100.
  • a program stored in memory 130 may include one or more instructions.
  • a program (one or more instructions) or application stored in the memory 130 may be executed by the processor 120.
  • the processor 120 may obtain information about the center of the screen by executing one or more instructions stored in the memory 130.
  • the center information of the screen may include coordinate information about the center point of the screen, the direction of the center of the screen with respect to the projection device 100, the distance between the projection device 100 and the center point of the screen, etc. . However, it is not limited to this.
  • the processor 120 may determine the projection direction so that the projection center matches the center of the screen. For example, the processor 120 may determine a projection direction so that the center of the output image faces the center of the screen, based on information about the center of the screen.
  • the processor 120 may obtain positional relationship information between the projection device 100 and the screen.
  • the processor 120 may use distance information between the center of the screen and the projection device, angle information formed by at least one reference point included in the screen 10 and the projection device 100, and the center O of the screen as a reference. It is possible to obtain information about whether the projection device 100 is on the left or right.
  • the processor 120 may adjust at least one of the size and brightness of the output image based on positional relationship information. For example, the processor 120 can adjust the size of the output image to be smaller and the brightness to be brighter as the projection device 100 moves away from the center O of the screen 10. Alternatively, the processor 120 may adjust the size of the output image to be larger and the brightness to be darker as the projection device 100 approaches the center O of the screen 10.
  • the processor 120 adjusts the size and brightness of the right area of the image to the left area of the image based on the center of the image. Changes can be controlled to a greater extent.
  • the processor 120 changes the size and brightness of the left area of the image more than the right area of the image based on the center of the image. It can be greatly adjusted. Since this has been described in detail with reference to FIGS. 4 to 6, detailed description will be omitted.
  • the processor 120 may apply correction data to the output image to correct radial distortion of the output image projected through the fisheye lens. At this time, the processor 120 may determine correction data to be applied to the output image based on the positional relationship information between the projection device 100 and the screen 10. Since this has been explained in detail with reference to FIGS. 7 to 9, detailed description will be omitted.
  • the processor 120 may control the projection unit 140 to project an image on which size adjustment, brightness adjustment, and distortion correction have been performed.
  • the projection unit 140 may include a light source, a lens, etc. that generate light. At this time, the lens may include a fisheye lens. Additionally, the projection unit 140 may further include a driving unit that adjusts the direction, position, or angle of projection. The projection unit 140 can perform 360-degree image projection by driving a light source or adjusting the direction, position, or angle of projection according to a control signal received from the processor 120.
  • the projection device 100 may further include a device driver capable of moving the projection device 100.
  • the device driving unit may move or rotate the main body of the projection device 100 forward or backward, left or right. However, it is not limited to this.
  • the communication unit 150 may transmit and receive data or signals with an external device or server.
  • the communication unit 150 may include a Wi-Fi module, a Bluetooth module, an infrared communication module, a wireless communication module, a LAN module, an Ethernet module, a wired communication module, etc.
  • each communication module may be implemented in the form of at least one hardware chip.
  • the Wi-Fi module and Bluetooth module communicate using Wi-Fi and Bluetooth methods, respectively.
  • various connection information such as SSID and session key are first transmitted and received, and various information can be transmitted and received after establishing a communication connection using this.
  • Wireless communication modules include zigbee, 3G (3rd Generation), 3GPP (3rd Generation Partnership Project), LTE (Long Term Evolution), LTE-A (LTE Advanced), 4G (4th Generation), 5G (5th Generation), etc. It may include at least one communication chip that performs communication according to various wireless communication standards.
  • the communication unit 150 may perform communication with a screen device including a communication module.
  • the communication unit 150 may receive screen-related information from the screen device.
  • a projection device may include a projection unit, a memory storing one or more instructions, and at least one processor executing the one or more instructions.
  • the at least one processor may obtain center information of a screen on which to project the image by executing the one or more instructions.
  • the at least one processor may control the projection direction so that the center of the projected image coincides with the center of the screen by executing the one or more instructions.
  • the at least one processor may obtain positional relationship information between the projection device and the screen by executing the one or more instructions.
  • the at least one processor may determine at least one of the size and brightness of the image based on the positional relationship information by executing the one or more instructions.
  • the at least one processor may control the projection unit to project the image on the screen according to at least one of the determined size and brightness by executing the one or more instructions.
  • the projection device may further include a communication unit that receives information about the center of the screen from an external device.
  • the at least one processor by executing the one or more instructions, determines the size of the image so that the size of the image becomes smaller as the projection device moves away from the center of the screen, based on the positional relationship information, The size of the image may be determined so that the image becomes larger as it approaches the center of the screen.
  • the at least one processor determines the brightness of the image so that the brightness of the image increases as the projection device moves away from the center of the screen, based on the positional relationship information, The brightness of the image may be determined so that the brightness of the image decreases as it approaches the center of the screen.
  • the at least one processor may obtain reference point information about at least one reference point of the screen by executing the one or more instructions.
  • the at least one processor may obtain positional relationship information between the projection device and the screen based on the center information and the reference point information of the screen by executing the one or more instructions.
  • the at least one processor 120 determines a first angle formed by a first reference point of the screen and a center point of the screen with respect to the projection device and a first angle of the screen with respect to the projection device. A second angle formed between a second reference point and the center point of the screen can be determined.
  • the at least one processor 120 may adjust at least one of the size and brightness of the image based on the first angle and the second angle by executing the one or more instructions.
  • the first reference point may be a left reference point of the screen, and the second reference point may be a right reference point of the screen.
  • the at least one processor determines the size of the left area and the right area of the image with respect to the center of the image, based on the difference between the first angle and the second angle. They can be adjusted differently.
  • the at least one processor by executing the one or more instructions, adjusts the size of the left area and the brightness of the right area of the image based on the center of the image, based on the difference between the first angle and the second angle. They can be adjusted differently.
  • a projection device may include a fisheye lens.
  • the at least one processor may determine correction data for correcting distortion of an image projected on the screen through the fisheye lens, based on the positional relationship information.
  • the at least one processor may apply the determined correction data to the image by executing the one or more instructions.
  • a method of operating a projection device may include obtaining center information of a screen on which to project an image.
  • a method of operating a projection device may include controlling a projection direction so that the center of the projected image coincides with the center of the screen.
  • a method of operating a projection device may include obtaining positional relationship information between the projection device and the screen.
  • a method of operating a projection device may include determining at least one of the size and brightness of the image based on the positional relationship information.
  • a method of operating a projection device may include projecting the image on the screen according to at least one of the determined size and brightness.
  • Obtaining the center information of the screen may include receiving the center information of the screen from an external device.
  • the step of determining at least one of the size and brightness of the image based on the positional relationship information may include, based on the positional relationship information, such that the size of the image becomes smaller as the projection device moves away from the center of the screen. It may include determining the size of the image and determining the size of the image so that the image becomes larger as it approaches the center of the screen.
  • the step of determining at least one of the size and brightness of the image based on the positional relationship information includes, based on the positional relationship information, such that the brightness of the image increases as the projection device moves away from the center of the screen. It may include determining the brightness of the image and determining the brightness of the image so that the brightness of the image decreases as it approaches the center of the screen.
  • Obtaining positional relationship information between the projection device and the screen may include obtaining reference point information about at least one reference point of the screen.
  • Obtaining positional relationship information between the projection device and the screen may include obtaining positional relationship information between the projection device and the screen based on the center information of the screen and the reference point information. .
  • the step of acquiring positional relationship information between the projection device and the screen includes determining a first angle formed by a first reference point of the screen and a center point of the screen with respect to the projection device and a first angle of the screen with respect to the projection device. 2 It may include determining a second angle formed between a reference point and the center point of the screen.
  • determining at least one of the size and brightness of the image includes determining at least one of the size and brightness of the image based on the first angle and the second angle. can do.
  • the first reference point may be a left reference point of the screen, and the second reference point may be a right reference point of the screen.
  • the step of determining at least one of the size and brightness of the image based on the positional relationship information includes determining a left area of the image based on the center of the image based on the difference between the first angle and the second angle. It may include the step of determining the size of and the size of the right area to be different from each other.
  • the step of determining at least one of the size and brightness of the image based on the positional relationship information includes determining a left area of the image based on the center of the image based on the difference between the first angle and the second angle. It may include the step of determining the size of and the brightness of the right area to be different.
  • a method of operating a projection device may include determining correction data for correcting distortion of an image projected on the screen through a fisheye lens, based on the positional relationship information.
  • a method of operating a projection device may include applying the determined correction data to the image.
  • a projection device and a method of operating the same adjust the size and brightness of an image output as the location of the projection device changes, thereby allowing an image similar to the image projected at the location before the change to be displayed on the screen.
  • the display device and its operating method according to one embodiment can prevent distortion in an image displayed on the screen by applying different correction data for correcting radiation distortion depending on the changed position of the projection device.
  • a method of operating a projection device may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer-readable medium.
  • the computer-readable medium may include program instructions, data files, data structures, etc., singly or in combination.
  • Program instructions recorded on the medium may be specially designed and constructed for the present invention or may be known and usable by those skilled in the art of computer software.
  • Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks.
  • Examples of program instructions include machine language code, such as that produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter, etc.
  • At least one of the methods of operating a display device according to the disclosed embodiments may be included and provided in a computer program product.
  • Computer program products are commodities and can be traded between sellers and buyers.
  • a computer program product may include a S/W program and a computer-readable storage medium in which the S/W program is stored.
  • a computer program product may include a product in the form of a S/W program (e.g., a downloadable app) distributed electronically by the manufacturer of an electronic device or through an electronic marketplace (e.g., Google Play Store, App Store). there is.
  • a storage medium may be a manufacturer's server, an electronic market server, or a relay server's storage medium that temporarily stores the SW program.
  • a computer program product in a system comprised of a server and a client device, may include a storage medium of a server or a storage medium of a client device.
  • the computer program product may include a storage medium of the third device.
  • the computer program product may include the S/W program itself, which is transmitted from a server to a client device or a third device, or from a third device to a client device.
  • one of the server, the client device, and the third device may execute the computer program product to perform the method according to the disclosed embodiments.
  • two or more of a server, a client device, and a third device may execute the computer program product and perform the methods according to the disclosed embodiments in a distributed manner.
  • a server eg, a cloud server or an artificial intelligence server, etc.
  • a server may execute a computer program product stored on the server and control a client device connected to the server to perform the method according to the disclosed embodiments.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Abstract

일 실시예에 따른 영상을 프로젝션하는 프로젝션 장치는, 프로젝션부, 하나 이상의 인스트럭션들을 저장하는 메모리 및 하나 이상의 인스트럭션들을 실행하는 적어도 하나의 프로세서를 포함하고, 적어도 하나의 프로세서는, 하나 이상의 인스트럭션들을 실행함으로써, 영상을 프로젝션할 스크린의 중심 정보를 획득하고, 프로젝션되는 영상의 중심이 스크린의 중심에 일치하도록 프로젝션 방향을 제어하고, 프로젝션 장치와 스크린과의 위치 관계 정보를 획득하고, 위치 관계 정보에 기초하여, 영상의 크기 및 밝기 중 적어도 하나를 결정하고, 결정된 크기 및 밝기 중 적어도 하나에 따라 영상을 스크린에 프로젝션하도록 프로젝션부를 제어할 수 있다.

Description

프로젝션 장치 및 그 동작 방법
다양한 실시예들은 스크린에 영상을 프로젝션할 수 있는 프로젝션 장치 및 그 동작 방법에 관한 것이다.
종래의 영상 프로젝터 시스템은 하나의 평면으로 구성된 스크린에 2차원의 영상을 프로젝션하는 구조로 구현되었다. 그러나, 최근에 들어서는 프로젝터 시스템을 통해 재생되는 영상의 종류가 다양해지고, 이러한 영상을 재생하는 환경 또한 다양해졌다. 예를 들어, 360도 방향으로 프로젝션을 수행할 수 있는 프로젝터를 이용하여, 하나의 평면이 아닌 복수의 면들로 이루어진 다면형의 스크린에 영상을 프로젝션하거나, 돔 형태의 스크린에 영상을 프로젝션할 수 있다.
이러한 돔 형태의 스크린 또는 다면형의 스크린에 영상을 프로젝션하는 경우, 프로젝터의 위치에 따라 스크린에 프로젝션되는 영상이 크게 변화할 수 있다. 따라서, 프로젝터의 위치에 따라 스크린에 프로젝션되는 영상의 변화가 크지 않도록 출력되는 영상을 편집하거나 보정할 필요가 있다.
일 실시예에 따른 프로젝션 장치는 프로젝션부, 하나 이상의 인스트럭션들을 저장하는 메모리 및 상기 하나 이상의 인스트럭션들을 실행하는 적어도 하나의 프로세서를 포함할 수 있다.
상기 적어도 하나의 프로세서는, 상기 하나 이상의 인스트럭션들을 실행함으로써, 상기 영상을 프로젝션할 스크린의 중심 정보를 획득할 수 있다.
상기 적어도 하나의 프로세서는, 상기 하나 이상의 인스트럭션들을 실행함으로써, 프로젝션되는 상기 영상의 중심이 상기 스크린의 중심에 일치하도록 프로젝션 방향을 제어할 수 있다.
상기 적어도 하나의 프로세서는, 상기 하나 이상의 인스트럭션들을 실행함으로써, 상기 프로젝션 장치와 상기 스크린과의 위치 관계 정보를 획득할 수 있다.
상기 적어도 하나의 프로세서는, 상기 하나 이상의 인스트럭션들을 실행함으로써, 상기 위치 관계 정보에 기초하여, 상기 영상의 크기 및 밝기 중 적어도 하나를 결정할 수 있다.
상기 적어도 하나의 프로세서는, 상기 하나 이상의 인스트럭션들을 실행함으로써, 상기 결정된 크기 및 밝기 중 적어도 하나에 따라 상기 영상을 상기 스크린에 프로젝션하도록 상기 프로젝션부를 제어할 수 있다.
일 실시예에 따른 프로젝션 장치의 동작 방법은 영상을 프로젝션할 스크린의 중심 정보를 획득하는 단계를 포함할 수 있다.
일 실시예에 따른 프로젝션 장치의 동작 방법은 프로젝션되는 상기 영상의 중심이 상기 스크린의 중심에 일치하도록 프로젝션 방향을 제어하는 단계를 포함할 수 있다.
일 실시예에 따른 프로젝션 장치의 동작 방법은 상기 프로젝션 장치와 상기 스크린과의 위치 관계 정보를 획득하는 단계를 포함할 수 있다.
일 실시예에 따른 프로젝션 장치의 동작 방법은 상기 위치 관계 정보에 기초하여, 상기 영상의 크기 및 밝기 중 적어도 하나를 결정하는 단계를 포함할 수 있다.
일 실시예에 따른 프로젝션 장치의 동작 방법은 상기 결정된 크기 및 밝기 중 적어도 하나에 따라 상기 영상을 상기 스크린에 프로젝션하는 단계를 포함할 수 있다.
도 1은 일 실시예에 따른 프로젝션 환경을 나타내는 도면이다.
도 2는 일 실시예에 따른 프로젝션 장치의 동작 방법을 나타내는 흐름도이다.
도 3은 일 실시예에 따른 프로젝션 장치가 위치에 따라 프로젝션 방향을 결정하는 예를 나타내는 도면이다.
도 4는 일 실시예에 따른 프로젝션 장치가 위치에 따라 출력 영상의 크기 및 밝기를 조절하는 방법을 나타내는 도면이다.
도 5는 일 실시예에 따른 프로젝션 장치가 위치에 따라 프로젝션 방향, 출력 영상의 크기 및 밝기를 조절하는 방법을 나타내는 도면이다.
도 6은 일 실시예에 따른 프로젝션 장치가 위치에 따라 프로젝션 방향, 출력 영상의 크기 및 밝기를 조절하는 방법을 나타내는 도면이다.
도 7은 일 실시예에 따른 프로젝션 장치가 왜곡(distortion)을 보정하는 방법을 나타내는 도면이다.
도 8은 일 실시예에 따른 프로젝션 장치가 왜곡(distortion)을 보정하는 방법을 나타내는 도면이다.
도 9는 일 실시예에 따른 프로젝션 장치가 왜곡(distortion)을 보정하는 방법을 나타내는 도면이다.
도 10은 일 실시예에 따른 프로젝션 장치와 스크린 장치의 동작 방법을 나타내는 흐름도이다.
도 11은 일 실시예에 따른 프로젝션 장치가 가이드 메시지를 프로젝션하는 예를 나타내는 도면이다.
도 12는 일 실시예에 따른 프로젝션 장치의 구성을 나타내는 블록도이다.
본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 발명에 대해 구체적으로 설명하기로 한다.
본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.
명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.
아래에서는 첨부한 도면을 참고하여 실시예들에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
본 명세서의 실시예에서 "사용자"라는 용어는 시스템, 기능 또는 동작을 제어하는 사람을 의미하며, 개발자, 관리자 또는 설치 기사를 포함할 수 있다.
또한, 본 명세서의 실시예에서, '영상(image)' 또는 '픽처'는 정지영상, 복수의 연속된 정지영상(또는 프레임)으로 구성된 동영상, 또는 비디오를 나타낼 수 있다.
도 1은 일 실시예에 따른 프로젝션 환경을 나타내는 도면이다.
도 1을 참조하면, 일 실시예에 따른 프로젝션 장치(100)는 360도 방향으로 프로젝션을 수행할 수 있다. 예를 들어, 프로젝션 장치(100)는 돔형 스크린(10)에 영상을 프로젝션할 수 있다. 또는, 일 실시예에 따른 스크린(10)은 돔형으로 도시하였지만, 다면(예를 들어, 전면, 측면, 천정, 바닥 등)으로 구성될 수 있다. 다만, 이에 한정되지 않으며, 영상이 프로젝션되는 스크린 또는 공간은 다양한 형태로 구성될 수 있다.
일 실시예에 따른 프로젝션 장치(100)는 스크린(10)의 중심(O)에 영상의 중심이 위치하도록 영상을 프로젝션할 수 있다. 예를 들어, 도 1에 도시된 바와 같이, 프로젝션 장치(100)는 스크린(10)의 중심(O)에 대한 정보를 획득하여, 스크린(10)의 중심(O)을 식별할 수 있다. 이때, 프로젝션 장치(100)는 스크린(10)으로부터 스크린(10)의 중심(O)에 대한 정보를 수신하거나, 스크린의 중심(O)에 부착된 마커 등을 감지하거나, 스크린의 중심(O)에 부착된 센서 모듈을 통해 스크린(10)의 중심(O)에 대한 정보를 획득할 수 있다. 또는, 프로젝션 장치(100)는 스크린(10)에 대한 깊이 정보를 획득하고, 스크린(10)에 대한 깊이 정보에 기초하여, 스크린(10)의 중심(O)에 대한 정보를 획득할 수 있다. 다만, 이에 한정되지 않는다.
일 실시예에 따른 프로젝션 장치(100)는 스크린의 중심(O)이 식별되면, 스크린(10)의 중심(O) 방향으로 영상을 프로젝션함으로써, 프로젝션된 영상의 중심이 스크린(10)의 중심(O)에 위치하도록 조절할 수 있다. 예를 들어, 프로젝션 장치(100)는 프로젝션 장치(100)가 제1 지점(A0)에 위치한 경우, 프로젝션되는 제1 영상(20)의 중심(21)이 스크린(10)의 중심(O)에 위치하도록 제1 방향(31)으로 프로젝션을 수행할 수 있다.
또한, 프로젝션 장치(100)는 스크린(10)의 중심(O) 및 적어도 하나의 기준점과 프로젝션 장치(100)가 위치하는 지점 사이의 위치 관계, 스크린의 곡률 정보 등에 기초하여, 프로젝션할 영상의 사이즈 및 밝기를 결정할 수 있다.
예를 들어, 프로젝션 장치(100)가 제1 지점(A0)에 위치한 경우, 프로젝션되는 제1 영상(20)은 제1 크기를 가지며, 프로젝션 장치(100)는 제1 영상(20)을 제1 밝기로 프로젝션할 수 있다. 프로젝션 장치(100)는 프로젝션용 광원의 출력을 조절함으로써, 영상(20)을 제1 밝기로 프로젝션할 수 있다. 다만, 이에 한정되지 않는다.
프로젝션 장치(100)가 제1 지점(A0)에서 영상(20)을 프로젝션하는 경우, 제1 영상(20) 중 제1 영역(22)이 스크린(10)에 표시될 수 있다.
한편, 일 실시예에 따른 프로젝션 장치(100)는 위치가 이동될 수 있다. 예를 들어, 사용자가 프로젝션 장치(100)를 직접 들어서 위치를 이동시키거나 프로젝션 장치(100)에 탑재되거나 연결된 구동 장치를 이용하여, 프로젝션 장치(100)를 이동시킬 수 있다.
예를 들어, 도 1에 도시된 바와 같이, 프로젝션 장치(100)는 제1 지점(A0)에서 제2 지점(A1)으로 이동될 수 있다. 프로젝션 장치(100)가 제1 지점(A0)에서 제2 지점(A1)으로 이동되고, 프로젝션 장치(100)가 제2 지점(A1)에서, 제1 지점(A0)에서와 동일하게 제1 방향(31) 및 제1 밝기로 제1 크기를 가지는 영상(20)을 프로젝션하는 경우, 스크린(10)에 표시되는 제2 영역(42)은 제1 지점(A0)에서 표시되던 제1 영역(22)보다 더 작고 영상의 중심(21)에서 왼쪽으로 치우친 영역일 수 있다. 또한, 스크린에 표시되는 제2 영역(42) 영상의 밝기가 감소할 수 있다.
따라서, 프로젝션 장치(100)의 위치가 변경된 경우, 변경된 위치에서도 변경되기 전 위치에서와 유사한 영상을 스크린에 표시하기 위해서는 변경된 위치에 기초하여, 프로젝션 장치(100)에서 프로젝션되는 출력 영상의 크기, 밝기 등을 조절하는 과정이 필요하다.
예를 들어, 프로젝션 장치(100)는 프로젝션되는 영상의 중심이 스크린(10)의 중심(O)에 위치하도록 프로젝션 방향을 조절할 수 있다.
또한, 프로젝션 장치(100)가 제1 지점(A0)에서 제2 지점(A1)으로 이동된 경우, 프로젝션 장치(100)는 이동된 위치에 기초하여, 출력 영상의 크기는 더 작게, 밝기는 더 밝게 조절할 수 있다.
일 실시예에 따른 프로젝션 장치(100)가 변경된 위치에 따라 프로젝션 방향, 프로젝션하는 영상의 크기, 밝기 등을 조절하는 구체적인 방법에 대해서 이하 도면들을 참조하여, 자세히 설명하기로 한다.
도 2는 일 실시예에 따른 프로젝션 장치의 동작 방법을 나타내는 흐름도이다.
도 2의 일 실시예에 따른 프로젝션 장치(100)는 스크린의 중심 정보를 획득할 수 있다(S210).
예를 들어, 프로젝션 장치(100)는 스크린(10)으로부터 스크린(10)의 중심(O)에 대한 정보를 수신하거나, 스크린(10)의 중심(O)에 부착된 마커 등을 감지하거나, 스크린(10)의 중심(O)에 부착된 센서 모듈을 통해 스크린(10)의 중심(O)에 대한 정보를 획득할 수 있다. 또는, 프로젝션 장치(100)는 스크린(10)에 대한 깊이 정보를 획득하고, 스크린(10)에 대한 깊이 정보에 기초하여, 스크린(10)의 중심(O)에 대한 정보를 획득할 수 있다. 다만, 이에 한정되지 않는다.
일 실시예에 따른 스크린(10)의 중심 정보는 스크린(10)의 중심점에 대한 좌표 정보, 프로젝션 장치(100)를 기준으로 스크린(10)의 중심점의 방향, 프로젝션 장치(100)와 스크린(10)의 중심점 사이의 거리 등을 포함할 수 있다. 다만, 이에 한정되지 않는다.
일 실시예에 따른 프로젝션 장치(100)는 프로젝션 중심이 스크린(10)의 중심에 일치하도록 프로젝션 방향을 조절할 수 있다(S220).
예를 들어, 프로젝션 장치(100)는 스크린의 중심 정보에 기초하여, 출력 영상의 중심이 스크린의 중심을 향하도록 프로젝션 방향을 결정할 수 있다.
일 실시예에 따른 프로젝션 장치(100)는 프로젝션 장치(100)와 스크린(10)과의 위치 관계 정보를 획득할 수 있다(S230).
예를 들어, 프로젝션 장치(100)는 스크린(10)의 중심(O)과 프로젝션 장치(100) 사이의 거리 정보, 스크린(10)에 포함되는 적어도 하나의 기준점과 프로젝션 장치(100)가 이루는 각도 정보, 스크린의 중심(O)을 기준으로 프로젝션 장치(100)가 왼쪽에 있는지, 오른쪽에 있는지에 대한 정보 등을 획득할 수 있다.
일 실시예에 따른 프로젝션 장치(100)는 230 단계(S230)에서 획득한 위치 관계 정보에 기초하여, 출력되는 영상의 크기 및 밝기 중 적어도 하나를 조절할 수 있다(S240).
예를 들어, 프로젝션 장치(100)가 스크린(10)의 중심(O)으로부터 멀어질수록 출력되는 영상의 크기를 작게 하고, 밝기는 더 밝게 조절할 수 있다. 또는, 프로젝션 장치(100)가 스크린(10)의 중심(O)으로부터 가까워질수록 출력되는 영상의 크기를 크게 하고, 밝기는 어둡게 조절할 수 있다.
프로젝션 장치(100)가 스크린(10)의 중심(O)으로부터 왼쪽에 위치하는 경우, 영상의 중심을 기준으로 영상의 왼쪽 영역보다 오른쪽 영역의 크기 및 밝기의 변화를 더 크게 조절할 수 있다. 또는, 프로젝션 장치(100)가 스크린(10)의 중심(O)으로부터 오른쪽에 위치하는 경우, 영상의 중심을 기준으로 영상의 오른쪽 영역보다 왼쪽 영역의 크기 및 밝기의 변화를 더 크게 조절할 수 있다. 이에 대해서는 도 4 내지 도 6을 참조하여 자세히 설명하기로 한다.
또한, 프로젝션 장치(100)는 어안렌즈를 통해 프로젝션되는 출력 영상의 방사 왜곡을 보정하기 위해 출력 영상에 보정 데이터를 적용할 수 있다. 이때, 프로젝션 장치(100)는 230 단계(S230)에서 획득한 위치 관계 정보에 기초하여, 출력 영상에 적용할 보정 데이터를 결정할 수 있다. 이에 대해서는 도 7 내지 도 9를 참조하여, 자세히 설명하기로 한다.
도 3은 일 실시예에 따른 프로젝션 장치가 위치에 따라 프로젝션 방향을 결정하는 예를 나타내는 도면이다.
도 3을 참조하면, 일 실시예에 따른 프로젝션 장치(100)는 스크린(10)의 중심(O)을 식별할 수 있다. 예를 들어, 프로젝션 장치(100)는 스크린(10)의 중심(O)에 마커가 부착된 경우, 마커를 감지하여, 스크린의 중심을 식별할 수 있다. 또는, 스크린(10)이 통신 모듈을 가지는 전자 장치로 구성되는 경우, 스크린으로부터 스크린의 중심 정보를 수신할 수 있다. 또는, 프로젝션 장치(100)는 깊이 센서를 이용하여, 스크린(10)의 깊이 정보를 획득하고, 스크린(10)의 깊이 정보에 기초하여, 스크린(10)의 중심을 식별할 수 있다. 다만, 이에 한정되지 않는다.
프로젝션 장치(100)는 스크린(10)의 중심(O)이 식별되면, 스크린(10)의 중심(O)과 프로젝션되는 영상의 중심이 일치하도록 스크린의 중심을 향하는 방향으로 프로젝션 방향을 결정할 수 있다. 예를 들어, 프로젝션 장치(100)는 도 3에 도시된 바와 같이, 스크린(10)의 중심(O)에 프로젝션되는 영상의 중심이 위치하도록 제1 방향(310)으로 프로젝션을 수행할 수 있다. 프로젝션 장치(100)는 구동모듈을 이용하여, 프로젝션 방향을 제1 방향(310)로 조절할 수 있다.
또한, 프로젝션 장치(100)는 프로젝션 장치(100)의 위치가 제1 지점(A0)에서 제2 지점(A1)으로 이동하는 경우, 프로젝션 방향을 스크린(10)의 중심(O)을 향하는 제2 방향(320)으로 조절할 수 있다. 이에 따라, 프로젝션 장치(100)는 스크린(10)의 중심(O)에 프로젝션되는 영상의 중심이 위치하도록 제2 방향(320)으로 프로젝션을 수행할 수 있다.
일 실시예에 따른 프로젝션 장치(100)는 프로젝션 장치(100)의 위치가 변경되더라도 프로젝션되는 영상의 중심이 스크린(10)의 중심(O)에 일치하도록 조절함으로써, 프로젝션되는 영상은 한쪽으로 치우치지 않고, 균형있게 스크린(10)에 표시될 수 있다.
도 4는 일 실시예에 따른 프로젝션 장치가 위치에 따라 출력 영상의 크기 및 밝기를 조절하는 방법을 나타내는 도면이다.
도 4를 참조하면, 일 실시예에 따른 스크린(10)은 중심(O)과 4개의 기준점들(S0, S1, S2, S3)을 포함할 수 있다. 예를 들어, 제1 기준점(S0)은 중심점(O)을 기준으로 스크린(10)의 최상단에 위치한 지점일 수 있다. 또한, 제2 기준점(S1)은 스크린(10)의 왼쪽 끝에 위치한 지점이고, 제3 기준점(S2)은 스크린(10)의 오른쪽 끝에 위치한 지점일 수 있다. 또한, 제4 기준점(S3)은 중심점(O)을 기준으로 스크린의 최하단에 위치한 지점일 수 있다. 다만, 이에 한정되지 않는다.
일 실시예에 따른 프로젝션 장치(100)는 제1 지점(A0)에 위치할 수 있으며, 제1 지점(A0)을 중심으로 제2 기준점(S1)과 중심(O)이 이루는 제1 각도와 제1 지점(A0)을 중심으로 제3 기준점(S2)과 중심(O)이 이루는 제2 각도는 동일할 수 있다. 예를 들어, 제1 각도와 제2 각도는 90도일 수 있으나, 이에 한정되지 않는다.
제1 지점(A0)에 위치한 프로젝션 장치(100)는 스크린(10)의 중심(O)을 향하는 제1 방향(310)으로 프로젝션을 수행할 수 있다. 또한, 프로젝션 장치(100)는 제1 크기와 제1 밝기를 가지는 제1 영상(410)을 출력함으로써, 제1 영상(410)을 스크린(10)에 프로젝션할 수 있다. 이때, 제1 영상(410)이 스크린(10)에 프로젝션되면, 제1 영상(410) 중 제1 영역(415)이 스크린(10)에 표시될 수 있으며, 제1 영상(410)의 중심(430)은 스크린(10)의 중심(O)에 대응될 수 있다.
일 실시예에 따른 프로젝션 장치(100)는 제1 지점(A0)에서 제2 지점(A1)으로 이동될 수 있다. 프로젝션 장치(100)의 위치가 변경되면, 일 실시예에 따른 프로젝션 장치(100)는 프로젝션과 관련된 파라미터를 조절할 수 있다. 예를 들어, 프로젝션 장치(100)는 프로젝션 방향, 출력 영상의 크기, 출력 영상의 밝기 등을 조절할 수 있다.
제2 지점(A1)과 스크린(10)의 중심(O) 사이의 거리는 제1 지점(A0)과 스크린(10)의 중심(O) 사이의 거리보다 멀 수 있다. 제2 지점(A1)을 중심으로 제2 기준점(S1)과 중심(O)이 이루는 제1 각도(θ1)와 제2 지점(A1)을 중심으로 제3 기준점(S2)과 중심(O)이 이루는 제2 각도(θ2)는 동일할 수 있다(θ1 = θ2).
프로젝션 장치(100)가 제2 지점(A1)에서 제1 영상(410)을 프로젝션하는 경우, 제1 영상 중 스크린(10)에 표시되는 영역이 줄어들 수 있다. 예를 들어, 도 4에 도시된 바와 같이, 제1 영상(410) 중 제2 영역(425)이 스크린(10)에 표시될 수 있다.
따라서, 일 실시예에 따른 프로젝션 장치(100)는 제2 지점(A1)에서도 스크린(10)에 동일한 영역을 표시하기 위해서, 출력되는 제1 영상(410)의 크기를 조절할 수 있다. 예를 들어, 프로젝션 장치(100)는 제1 영상(410)의 크기를 축소시킨 제2 영상(440)을 출력할 수 있다. 이에 따라, 제2 영상(440) 중 제2 영역(425)이 스크린(10)에 표시될 수 있다. 이때, 프로젝션 장치(100)는 제1 지점(A0)과 스크린의 중심(O) 사이의 제1 거리와 제2 지점(A1)과 스크린(10)의 중심(O) 사이의 제2 거리의 비율 또는 차이, 제1 영역(415)의 크기와 제2 영역(425)의 크기의 비율 또는 차이 등에 따라, 제2 영상(440)의 크기를 결정할 수 있다. 다만, 이에 한정되지 않는다.
또한, 프로젝션 장치(100)가 제2 지점(A1)에 위치하는 경우, 제1 지점(A0)에 위치하는 경우보다 스크린(10)의 중심점(O)의 거리가 멀어지게 되어, 스크린(10)에 프로젝션되는 영상의 밝기가 감소할 수 있다. 이에 따라, 프로젝션 장치(100)는 제2 지점(A1)에서 출력되는 제2 영상(425)의 밝기를 조절할 수 있다. 예를 들어, 프로젝션 장치(100)는 제2 영상(425)의 밝기를 제1 밝기보다 큰 제2 밝기로 조절할 수 있다. 이때, 프로젝션 장치(100)는 제1 지점(A0)과 스크린(10)의 중심(O) 사이의 거리와 제2 지점(A1)과 스크린(10)의 중심(O) 사이의 거리에 기초하여, 제2 밝기를 결정할 수 있다. 프로젝션 장치(100)는 프로젝션용 광원의 출력을 조절함으로써, 제2 영상(440)을 제2 밝기로 출력되도록 제어할 수 있다.
이에 따라, 일 실시예에 따른 프로젝션 장치(100)가 제1 지점(A0)에서 제1 영상(410)을 제1 밝기로 출력하는 경우와 제2 지점(A1)에서 제2 영상(440)을 제2 밝기로 출력하는 경우에 스크린(10)에 유사한 영상이 유사한 밝기로 표시될 수 있다.
도 5는 일 실시예에 따른 프로젝션 장치가 위치에 따라 프로젝션 방향, 출력 영상의 크기 및 밝기를 조절하는 방법을 나타내는 도면이다.
도 5를 참조하면, 일 실시예에 따른 스크린(10)은 중심(O)과 4개의 기준점들(S0, S1, S2, S3)을 포함할 수 있다. 예를 들어, 제1 기준점(S0)은 중심점(O)을 기준으로 스크린(10)의 최상단에 위치한 지점일 수 있다. 또한, 제2 기준점(S1)은 스크린(10)의 왼쪽 끝에 위치한 지점이고, 제3 기준점(S2)은 스크린(10)의 오른쪽 끝에 위치한 지점일 수 있다. 또한, 제4 기준점(S3)은 중심점(O)을 기준으로 스크린의 최하단에 위치한 지점일 수 있다. 다만, 이에 한정되지 않는다.
일 실시예에 따른 프로젝션 장치(100)는 제1 지점(A0)에 위치할 수 있으며, 제1 지점(A0)을 중심으로 제2 기준점(S1)과 중심(O)이 이루는 제1 각도와 제1 지점(A0)을 중심으로 제3 기준점(S2)과 중심(O)이 이루는 제2 각도는 동일할 수 있다. 예를 들어, 제1 각도와 제2 각도는 90도일 수 있으나, 이에 한정되지 않는다.
제1 지점(A0)에 위치한 프로젝션 장치(100)는 스크린(10)의 중심(O)을 향하는 제1 방향(310)으로 프로젝션을 수행할 수 있다. 또한, 프로젝션 장치(100)는 제1 크기와 제1 밝기를 가지는 제1 영상(410)을 출력함으로써, 제1 영상(410)을 스크린(10)에 프로젝션할 수 있다. 이때, 제1 영상(410)이 스크린(10)에 프로젝션되면, 제1 영상(410) 중 제1 영역(415)이 스크린(10)에 표시될 수 있으며, 제1 영상(410)의 중심(430)은 스크린(10)의 중심(O)에 대응될 수 있다.
일 실시예에 따른 프로젝션 장치(100)는 제1 지점(A0)에서 제3 지점(A2)으로 이동될 수 있다. 프로젝션 장치(100)의 위치가 변경되면, 일 실시예에 따른 프로젝션 장치(100)는 프로젝션과 관련된 파라미터를 조절할 수 있다. 예를 들어, 프로젝션 장치(100)는 프로젝션 방향, 출력 영상의 크기, 출력 영상의 밝기 등을 조절할 수 있다.
제3 지점(A2)과 스크린(10)의 중심(O) 사이의 거리는 제1 지점(A0)과 스크린(10)의 중심(O) 사이의 거리보다 멀 수 있다. 또한, 제2 지점(A1)을 중심으로 제2 기준점(S1)과 중심(O)이 이루는 제1 각도(θ1)와 제2 지점(A1)을 중심으로 제3 기준점(S2)과 중심(O)이 이루는 제2 각도(θ2)가 동일했던 도 4의 실시예(θ1 = θ2)와 달리, 본 실시예에서는 제3 지점(A2)은 스크린(10)의 중심(O)을 기준으로 오른쪽에 위치할 수 있다. 예를 들어, 제3 지점(A2)을 중심으로 제2 기준점(S1)과 중심(O)이 이루는 제1 각도(θ1)는 제3 지점(A2)을 중심으로 제3 기준점(S2)과 중심(O)이 이루는 제2 각도(θ2)보다 작을 수 있다(θ1 < θ2).
프로젝션 장치(100)는 제3 지점(A2)에서의 프로젝션 방향을 조절할 수 있다. 예를 들어, 프로젝션 장치(100)는 스크린(10)의 중심(O)을 향하는 제2 방향(520)으로 프로젝션을 수행할 수 있다.
프로젝션 장치(100)가 제3 지점(A2)에서 제1 영상(410)을 프로젝션하는 경우, 제1 영상(410) 중 스크린(10)에 표시되는 영역이 줄어들 수 있다. 예를 들어, 도 5에 도시된 바와 같이, 제1 영상(410) 중 제3 영역(525)이 스크린에 표시될 수 있다. 이때, 제3 영역(525)은 제1 영상(410)의 중심(430)을 기준으로 오른쪽으로 치우친 영역일 수 있다.
따라서, 일 실시예에 따른 프로젝션 장치(100)는 제3 지점(A2)에서도 스크린(10)에 동일한 영역을 표시하기 위해서, 출력되는 제1 영상(410)의 크기를 조절할 수 있다. 예를 들어, 프로젝션 장치(100)는 제1 영상(410)의 크기를 축소시킨 제3 영상(540)을 출력할 수 있다. 제3 영상(540) 중 제3 영역(525)을 제외한 영역은 프로젝션 장치(100)로부터 실제 출력이 이루어지지 않고, 제3 영상(540) 중 제3 영역(525)이 어안렌즈를 통해 프로젝션되어 스크린(10)에 표시될 수 있다. 다만, 영상의 해상도는 다소 저하될 수 있다. 이에 따라, 제3 영상(540) 중 제3 영역(525)이 스크린(10)에 표시될 수 있다. 이때, 프로젝션 장치(100)는 제1 지점(A0)과 스크린(10)의 중심(O) 사이의 제1 거리와 제3 지점(A2)과 스크린(10)의 중심(O) 사이의 제3 거리의 비율 또는 차이, 제1 영역(415)의 크기와 제3 영역(525)의 크기의 비율 또는 차이, 제1 각도(θ1)와 제2 각도(θ2)의 비율 또는 차이 등에 기초하여, 제3 영상(540)의 크기, 위치 또는 방향별 축소 비율(예: 상, 하, 좌, 우 방향으로의 축소 비율)을 결정할 수 있다.
또한, 프로젝터 장치(100)는 이동 후 프로젝터 장치(100)의 위치에 따라 좌우 축소 비율을 상이하게 설정할 수 있다. 예컨대, 도 5의 경우 제3 지점(A2)은 스크린(10)의 중심(O)을 기준으로 오른쪽에 위치하므로, 프로젝션 장치(100)는 제1 영상(410)의 중심(430)을 기준으로 왼쪽 영역을 오른쪽 영역보다 더 많이 축소시킬 수 있다. 또한, 제1 영상(410)의 중심(430)을 기준으로 중심에서 가까운 영역은 축소 정도를 작게 하고, 중심에서 먼 영역은 축소 정도를 크게 할 수 있다. 다만, 이에 한정되지 않는다.
또한, 프로젝션 장치(100)가 제3 지점(A2)에 위치하는 경우, 제1 지점(A0)에 위치하는 경우보다 스크린(10)의 중심(O)과의 거리가 멀어지게 되어, 스크린(10)에 프로젝션되는 영상의 밝기가 감소할 수 있다. 이에 따라, 프로젝션 장치(100)는 제3 지점(A2)에서 출력되는 제3 영상(540)의 밝기를 조절할 수 있다. 예를 들어, 프로젝션 장치(100)는 제3 영상(540)의 밝기를 제1 밝기보다 큰 제3 밝기로 조절할 수 있다. 이때, 프로젝션 장치(100)는 제1 지점(A0)과 스크린의 중심(O) 사이의 거리와 제3 지점(A2)과 스크린의 중심(O) 사이의 거리에 기초하여, 제3 밝기를 결정할 수 있다. 프로젝션 장치(100)는 프로젝션용 광원의 출력을 조절함으로써, 제3 영상(540)을 제3 밝기로 출력되도록 제어할 수 있다.
또한, 프로젝션 장치(100)는 제1 영상의 중심(430)을 기준으로 왼쪽 영역의 밝기를 오른쪽 영역의 밝기보다 더 밝게 조절할 수 있다. 또한, 프로젝션 장치(100)는 제1 영상의 중심(430)을 기준으로 중심에서 가까운 영역보다 중심에서 먼 영역의 밝기를 더 밝게 조절할 수 있다.
이에 따라, 일 실시예에 따른 프로젝션 장치(100)가 제1 지점(A0)에서 제1 영상(410)을 제1 밝기로 출력하는 경우와 제3 지점(A2)에서 제3 영상(540)을 제3 밝기로 출력하는 경우에 스크린(10)에 유사한 영상이 유사한 밝기로 표시될 수 있다.
도 6은 일 실시예에 따른 프로젝션 장치가 위치에 따라 프로젝션 방향, 출력 영상의 크기 및 밝기를 조절하는 방법을 나타내는 도면이다.
도 6을 참조하면, 일 실시예에 따른 스크린(10)은 중심(O)과 4개의 기준점들(S0, S1, S2, S3)을 포함할 수 있다. 예를 들어, 제1 기준점(S0)은 중심점(O)을 기준으로 스크린(10)의 최상단에 위치한 지점일 수 있다. 또한, 제2 기준점(S1)은 스크린(10)의 왼쪽 끝에 위치한 지점이고, 제3 기준점(S2)은 스크린(10)의 오른쪽 끝에 위치한 지점일 수 있다. 또한, 제4 기준점(S3)은 중심점(O)을 기준으로 스크린의 최하단에 위치한 지점일 수 있다. 다만, 이에 한정되지 않는다.
일 실시예에 따른 프로젝션 장치(100)는 제1 지점(A0)에 위치할 수 있으며, 제1 지점(A0)을 중심으로 제2 기준점(S1)과 중심(O)이 이루는 제1 각도와 제1 지점(A0)을 중심으로 제3 기준점(S2)과 중심(O)이 이루는 제2 각도는 동일할 수 있다. 예를 들어, 제1 각도와 제2 각도는 90도일 수 있으나, 이에 한정되지 않는다.
제1 지점(A0)에 위치한 프로젝션 장치(100)는 스크린(10)의 중심(O)을 향하는 제1 방향(310)으로 프로젝션을 수행할 수 있다. 또한, 프로젝션 장치(100)는 제1 크기와 제1 밝기를 가지는 제1 영상(410)을 출력함으로써, 제1 영상(410)을 스크린(10)에 프로젝션할 수 있다. 이때, 제1 영상(410)이 스크린(10)에 프로젝션되면, 제1 영상(410) 중 제1 영역(415)이 스크린(10)에 표시될 수 있으며, 제1 영상(410)의 중심(430)은 스크린(10)의 중심(O)에 대응될 수 있다.
일 실시예에 따른 프로젝션 장치(100)는 제1 지점(A0)에서 제4 지점(A3)으로 이동될 수 있다. 프로젝션 장치(100)의 위치가 변경되면, 일 실시예에 따른 프로젝션 장치(100)는 프로젝션과 관련된 파라미터를 조절할 수 있다. 예를 들어, 프로젝션 장치(100)는 프로젝션 방향, 출력 영상의 크기, 출력 영상의 밝기 등을 조절할 수 있다.
제4 지점(A3)과 스크린(10)의 중심(O) 사이의 거리는 제1 지점(A0)과 스크린(10)의 중심(O) 사이의 거리보다 멀 수 있다. 또한, 제2 지점(A1)을 중심으로 제2 기준점(S1)과 중심(O)이 이루는 제1 각도(θ1)와 제2 지점(A1)을 중심으로 제3 기준점(S2)과 중심(O)이 이루는 제2 각도(θ2)가 동일했던 도 4의 실시예(θ1 = θ2)와 달리, 본 실시예에서는 제4 지점(A3)은 스크린(10)의 중심(O)을 기준으로 왼쪽에 위치할 수 있다. 예를 들어, 제4 지점(A3)을 중심으로 제2 기준점(S1)과 중심(O)이 이루는 제1 각도(θ1)는 제4 지점(A3)을 중심으로 제3 기준점(S2)과 중심(O)이 이루는 제2 각도(θ2)보다 클 수 있다(θ1 > θ2).
프로젝션 장치(100)는 제4 지점(A3)에서의 프로젝션 방향을 조절할 수 있다. 예를 들어, 프로젝션 장치(100)는 스크린의 중심점(O)을 향하는 제3 방향(620)으로 프로젝션을 수행할 수 있다.
프로젝션 장치(100)가 제4 지점(A3)에서 제1 영상(410)을 프로젝션을 수행하는 경우, 제1 영상(410) 중 스크린(10)에 표시되는 영역이 줄어들 수 있다. 예를 들어, 도 6에 도시된 바와 같이, 제1 영상(410) 중 제4 영역(625)이 스크린에 표시될 수 있다. 이때, 제4 영역(625)은 제1 영상(410)의 중심(430)을 기준으로 왼쪽으로 치우친 영역일 수 있다.
따라서, 일 실시예에 따른 프로젝션 장치(100)는 제4 지점(A3)에서도 스크린(10)에 동일한 영역을 표시하기 위해서, 출력되는 제1 영상(410)의 크기를 조절할 수 있다. 예를 들어, 프로젝션 장치(100)는 제1 영상(410)의 크기를 축소시킨 제4 영상(640)을 출력할 수 있다. 제4 영상(640) 중 제4 영역(625)을 제외한 영역은 프로젝션 장치(100)로부터 실제 출력이 이루어지지 않고, 제4 영상(640) 중 제4 영역(625)이 어안렌즈를 통해 프로젝션되어 스크린(10)에 표시될 수 있다. 다만, 영상의 해상도는 다소 저하될 수 있다. 이에 따라, 제4 영상(640) 중 제3 영역(625)이 스크린(10)에 표시될 수 있다. 이때, 프로젝션 장치(100)는 제1 지점(A0)과 스크린(10)의 중심(O) 사이의 제1 거리와 제4 지점(A3)과 스크린(10)의 중심(O) 사이의 제4 거리의 비율 또는 차이, 제1 영역(415)의 크기와 제4 영역(625)의 크기의 비율 또는 차이, 제1 각도(θ1)와 제2 각도(θ2)의 비율 또는 차이 등에 기초하여, 제4 영상의 크기, 위치 또는 방향별 축소 비율(예: 상, 하, 좌, 우 방향으로의 축소 비율)을 결정할 수 있다.
또한, 프로젝터 장치(100)는 이동 후 프로젝터 장치의 위치에 따라 좌우 축소 비율을 상이하게 설정할 수 있다. 예컨대, 도 6의 경우 제3 지점(A2)은 스크린(10)의 중심(O)을 기준으로 왼쪽에 위치하므로, 프로젝션 장치(100)는 제1 영상(410)의 중심(430)을 기준으로 오른쪽 영역을 왼쪽 영역보다 더 많이 축소시킬 수 있다. 또한, 제1 영상(410)의 중심(430)을 기준으로 중심(430)에서 가까운 영역은 축소 정도를 작게 하고, 중심에서 먼 영역은 축소 정도를 크게 할 수 있다. 다만, 이에 한정되지 않는다.
또한, 프로젝션 장치(100)가 제4 지점(A3)에 위치하는 경우, 제1 지점(A0)에 위치하는 경우보다 스크린(10)의 중심(O)과의 거리가 멀어지게 되어, 스크린(10)에 프로젝셔되는 영상의 밝기가 감소할 수 있다. 이에 따라, 프로젝션 장치(100)는 제4 지점(A3)에서 출력되는 제4 영상(640)의 밝기를 조절할 수 있다. 예를 들어, 프로젝션 장치(100)는 제4 영상(640)의 밝기를 제1 밝기보다 큰 제4 밝기로 조절할 수 있다. 이때, 프로젝션 장치(100)는 제1 지점(A0)과 스크린의 중심(O) 사이의 거리와 제4 지점(A3)과 스크린의 중심(O) 사이의 거리에 기초하여, 제4 밝기를 결정할 수 있다. 프로젝션 장치(100)는 프로젝션용 광원의 출력을 조절함으로써, 제4 영상(640)을 제4 밝기로 출력되도록 제어할 수 있다.
또한, 프로젝션 장치(100)는 제1 영상의 중심(430)을 기준으로 오른쪽 영역의 밝기를 왼쪽 영역의 밝기보다 더 밝게 조절할 수 있다. 또한, 프로젝션 장치(100)는 제1 영상의 중심(430)을 기준으로 중심에서 가까운 영역보다 중심에서 먼 영역의 밝기를 더 밝게 조절할 수 있다.
이에 따라, 일 실시예에 따른 프로젝션 장치(100)가 제1 지점(A0)에서 제1 영상(410)을 제1 밝기로 출력하는 경우와 제4 지점(A3)에서 제4 영상(640)을 제4 밝기로 출력하는 경우에 스크린(10)에 유사한 영상이 유사한 밝기로 표시될 수 있다.
도 7은 일 실시예에 따른 프로젝션 장치가 왜곡(distortion)을 보정하는 방법을 나타내는 도면이다.
일 실시예에 따른 프로젝션 장치(100)는 어안렌즈를 통해 출력 영상을 프로젝션할 수 있다. 어안렌즈의 경우, 일반적인 렌즈보다 더 넓은 화각을 가지며, 예를 들어, 어안렌즈의 화각은 180도 이상일 수 있다. 일 실시예에 따른 프로젝션 장치(100)는 돔형, 반구형, 다면 등으로 구성된 스크린 전체에 영상을 프로젝션하기 위해서는, 화각이 상대적으로 큰 어안렌즈를 필요로 한다. 어안렌즈의 특성 상 어안렌즈를 통해 프로젝션된 영상은 방사 왜곡(radial distortion)을 가지게 된다.
예를 들어, 도 7에 도시된 바와 같이, 스크린(10)이 돔형으로 구성된 경우, 일 실시예에 따른 프로젝션 장치(100)가 어안렌즈를 통해 출력 영상(710)을 스크린(10)에 프로젝션하면, 스크린(10)에 표시된 영상(720)에는 핀쿠션 왜곡(pincushion distortion)이 발생하게 된다.
일 실시예에 따른 프로젝션 장치(100)는 핀쿠션 왜곡의 역 변형에 대응하는 보정 데이터(예를 들어, 술통 왜곡(barrel distortion))를 이용하여, 핀쿠션 왜곡을 보정할 수 있다.
일 실시예에 따른 프로젝션 장치(100)는 핀쿠션 왜곡의 역 변형에 대응하는 보정 데이터를 획득할 수 있다. 예를 들어, 프로젝션 장치(100)는 동일한 크기의 직사각형 격자를 포함하는 샘플 영상(제1 격자 영상)을 스크린에 프로젝션할 수 있다. 프로젝션 장치(100)는 카메라를 통해 스크린(10)에 프로젝션된 영상을 촬영하고, 촬영된 영상에 포함되는 격자가 동일한 간격을 가지도록 하는 보정 데이터를 획득하고 저장할 수 있다.
일 실시예에 따른 프로젝션 장치(100)는 획득된 보정 데이터를 출력 영상에 적용시킬 수 있다.
도 7을 참조하면, 일 실시예에 따른 프로젝션 장치(100)는 제1 지점(A0)에 위치할 수 있으며, 제1 지점(A0)을 중심으로 스크린(10)의 제2 기준점(S1)과 스크린(10)의 중심(O)이 이루는 제1 각도와 제1 지점(A0)을 중심으로 스크린(10)의 제3 기준점(S2)과 스크린(10)의 중심(O)이 이루는 제2 각도는 동일할 수 있다.
일 실시예에 따른 프로젝션 장치(100)는 프로젝션 장치(100)가 제1 지점(A0)에 위치할 때, 출력 영상(710)의 중심을 기준으로 좌우 영역에 대칭되는 보정 데이터를 적용함으로써 왜곡 보정 영상(730)을 생성할 수 있다.
프로젝션 장치(100)는 왜곡 보정 영상(730)을 출력하여, 스크린(10)에 프로젝션할 수 있다. 이에 따라, 스크린(10)에 표시되는 영상(740)에는 핀쿠션 왜곡이 발생하지 않게 된다.
도 8은 일 실시예에 따른 프로젝션 장치가 왜곡(distortion)을 보정하는 방법을 나타내는 도면이다.
도 8을 참조하면, 일 실시예에 따른 프로젝션 장치(100)는 제2 지점(A1)에 위치할 수 있다. 제2 지점(A1)은 스크린(10)의 중심(O)을 기준으로 오른쪽에 위치할 수 있다. 예를 들어, 제2 지점(A1)을 중심으로 스크린(10)의 제2 기준점(S1)과 중심(O)이 이루는 제1 각도는 제2 지점(A1)을 중심으로 스크린(10)의 제3 기준점(S2)과 스크린(10)의 중심(O)이 이루는 제2 각도보다 작을 수 있다.
프로젝션 장치(100)는 제2 지점(A1)에서 출력되는 영상에 핀쿠션 왜곡 보정을 위한 보정 데이터를 적용할 수 있다. 이때, 프로젝션 장치(100)는 출력 영상(810)의 중심을 기준으로 왼쪽 영역과 오른쪽 영역에 서로 다른 보정 데이터를 적용할 수 있다.
예를 들어, 프로젝션 장치(100)가 제2 지점(A1)에 위치하는 경우, 스크린(10)의 중심(O)을 기준으로 프로젝션된 영상(820)의 왼쪽 영역의 왜곡 정도가 오른쪽 영역보다 더 클 수 있다.
프로젝션 장치(100)는 제1 각도와 제2 각도의 차이 또는 비율, 스크린의 중심과 제2 지점(A1)까지의 거리 등에 기초하여, 출력 영역의 왼쪽 영역과 오른쪽 영역에 적용할 보정 데이터를 다르게 결정할 수 있다.
프로젝션 장치(100)는 출력 영상의 왼쪽 영역과 오른쪽 영역에 각각 보정 데이터를 적용함으로써, 왜곡 보정 영상(830)을 생성할 수 있다.
프로젝션 장치(100)는 왜곡 보정 영상(830)을 출력하여, 스크린(10)에 프로젝션할 수 있다. 이에 따라, 스크린(10)에 표시되는 영상(840)에는 핀쿠션 왜곡이 발생하지 않게 된다.
도 9는 일 실시예에 따른 프로젝션 장치가 왜곡(distortion)을 보정하는 방법을 나타내는 도면이다.
도 9를 참조하면, 일 실시예에 따른 프로젝션 장치(100)는 제3 지점(A2)에 위치할 수 있다. 제3 지점(A2)은 스크린(10)의 중심(O)을 기준으로 왼쪽에 위치할 수 있다. 예를 들어, 제3 지점(A2)을 중심으로 스크린(10)의 제2 기준점(S1)과 중심(O)이 이루는 제1 각도는 제3 지점(A2)을 중심으로 제3 기준점(S2)과 중심(O)이 이루는 제2 각도보다 클 수 있다.
프로젝션 장치(100)는 제3 지점(A2)에서 출력되는 영상에 핀쿠션 왜곡 보정을 위한 보정 데이터를 적용할 수 있다. 이때, 프로젝션 장치(100)는 출력 영상(910)의 중심을 기준으로 왼쪽 영역과 오른쪽 영역에 서로 다른 보정 데이터를 적용할 수 있다.
예를 들어, 프로젝션 장치(100)가 제3 지점(A2)에 위치한 경우, 스크린(10)의 중심(O)을 기준으로 프로젝션된 영상(920)의 오른쪽 영역의 왜곡 정도가 왼쪽 영역보다 더 클 수 있다.
프로젝션 장치(100)는 제1 각도와 제2 각도의 차이 또는 비율, 스크린의 중심과 제3 지점(A2)까지의 거리 등에 기초하여, 출력 영역의 왼쪽 영역과 오른쪽 영역에 적용할 보정 데이터를 다르게 결정할 수 있다.
프로젝션 장치(100)는 출력 영상의 왼쪽 영역과 오른쪽 영역에 각각 보정 데이터를 적용함으로써, 왜곡 보정 영상(930)을 생성할 수 있다.
프로젝션 장치(100)는 왜곡 보정 영상(930)을 출력하여, 스크린(10)에 프로젝션할 수 있다. 이에 따라, 스크린(10)에 표시되는 영상(940)에는 핀쿠션 왜곡이 발생하지 않게 된다.
도 10은 일 실시예에 따른 프로젝션 장치와 스크린 장치의 동작 방법을 나타내는 흐름도이다.
도 10을 참조하면, 일 실시예에 따른 스크린 장치(1000)는 통신 모듈을 포함하는 전자 장치로 구현될 수 있다.
일 실시예에 따른 프로젝션 장치(100)와 스크린 장치(1000)는 서로 통신 연결을 수행할 수 있다. 예를 들어, 프로젝션 장치(100)와 스크린 장치(1000)는 와이 파이 모듈, 블루투스 모듈 등을 이용하여, 통신 연결을 수행할 수 있다. 다만, 이에 한정되지 않는다. 프로젝션 장치(100)와 스크린 장치(1000) 사이의 통신 연결이 완료되면, 각종 정보들을 송수신할 수 있다.
예를 들어, 스크린 장치(1000)는 스크린 관련 정보를 획득하여(S1020), 프로젝션 장치(100)로 전송할 수 있다(S1030). 이때, 스크린 관련 정보는 스크린의 중심에 대한 좌표, 스크린의 곡률 정보, 스크린의 크기, 높이 등 스크린의 형태와 관련된 다양한 정보를 포함할 수 있다. 다만, 이에 한정되지 않는다.
프로젝션 장치(100)는 스크린 장치(1000)로부터 스크린 관련 정보를 수신하면, 스크린 관련 정보에 기초하여, 스크린의 중심을 식별할 수 있다.
프로젝션 장치(100)는 프로젝션 중심이 식별된 스크린의 중심에 일치하도록 프로젝션 방향을 조절할 수 있다(S1040).
일 실시예에 따른 프로젝션 장치(100)는 프로젝션 장치(100)와 스크린 장치(1000)의 위치 관계 정보를 획득할 수 있다(S1050).
예를 들어, 프로젝션 장치(100)는 스크린 장치(1000)의 중심(O)과 프로젝션 장치(100) 사이의 거리 정보, 스크린 장치(1000)에 포함되는 적어도 하나의 기준점과 프로젝션 장치(100)가 이루는 각도 정보, 스크린 장치(1000)의 중심을 기준으로 프로젝션 장치(100)가 왼쪽에 있는지, 오른쪽에 있는지에 대한 정보 등을 획득할 수 있다.
일 실시예에 따른 프로젝션 장치(100)는 1050 단계(S1050)에서 획득한 위치 관계 정보에 기초하여, 출력되는 영상의 크기 및 밝기 중 적어도 하나를 조절할 수 있다(S1060).
예를 들어, 프로젝션 장치(100)가 스크린 장치(1000)의 중심으로부터 멀어질수록 출력되는 영상의 크기를 작게 하고, 밝기는 더 밝게 조절할 수 있다. 또는, 프로젝션 장치(100)가 스크린 장치(1000)의 중심으로부터 가까워질수록 출력되는 영상의 크기를 크게 하고, 밝기는 어둡게 조절할 수 있다.
프로젝션 장치(100)가 스크린 장치(1000)의 중심으로부터 왼쪽에 위치하는 경우, 영상의 중심을 기준으로 영상의 왼쪽 영역보다 오른쪽 영역의 크기 및 밝기의 변화를 더 크게 조절할 수 있다. 또는, 프로젝션 장치(100)가 스크린 장치(1000)의 중심(O)으로부터 오른쪽에 위치하는 경우, 영상의 중심을 기준으로 영상의 오른쪽 영역보다 왼쪽 영역의 크기 및 밝기의 변화를 더 크게 조절할 수 있다. 이에 대해서는 도 4 내지 도 6에서 자세히 설명하였으므로 구체적인 설명은 생략하기로 한다.
일 실시예에 따른 프로젝션 장치(100)는 프로젝션되는 영상의 왜곡을 보정할 수 있다(S1070).
예를 들어, 프로젝션 장치(100)는 어안렌즈를 통해 프로젝션되는 출력 영상의 방사 왜곡을 보정하기 위해 출력 영상에 보정 데이터를 적용할 수 있다. 이때, 프로젝션 장치(100)는 1050 단계(S1050)에서 획득한 위치 관계 정보에 기초하여, 출력 영상에 적용할 보정 데이터를 결정할 수 있다. 이에 대해서는 도 7 내지 도 9에서 자세히 설명하였으므로 구체적인 설명은 생략하기로 한다.
도 11은 일 실시예에 따른 프로젝션 장치가 가이드 메시지를 프로젝션하는 예를 나타내는 도면이다.
도 11을 참조하면, 일 실시예에 따른 프로젝션 장치(100)는 출력되는 영상의 크기나 밝기를 조절함으로써, 제1 지점(A0)에서 제1 영상을 제1 밝기로 출력하는 경우와 유사한 영상이 스크린에 표시되도록 프로젝션을 수행할 수 있는 프로젝션의 위치에 대한 제1 범위를 기 설정할 수 있다.
일 실시예에 따른 프로젝션 장치(100)는 프로젝션 장치(100)의 위치(A4)가 제1 범위에 있는 지를 결정할 수 있다.
또한, 프로젝션 장치(100)는 출력되는 영상에 보정 데이터를 적용함으로써, 왜곡을 포함하지 않는 출력 영상이 스크린에 표시되도록 프로젝션을 수행할 수 있는 프로젝션의 위치에 대한 제2 범위를 기 설정할 수 있다.
일 실시예에 따른 프로젝션 장치(100)는 프로젝션 장치(100)의 위치(A4)가 제2 범위에 있는지를 결정할 수 있다.
일 실시예에 따른 프로젝션 장치(100)는 프로젝션 장치(100)의 위치(A4)가 제1 범위 또는 제2 범위를 벗어나는 경우, 도 11에 도시된 바와 같이, 가이드 메시지(1150)를 포함하는 영상을 출력할 수 있다. 이에 따라, 스크린에 가이드 메시지가 표시될 수 있다. 일 실시예에 따른 가이드 메시지(1150)는 프로젝션 장치(100)의 위치를 이동시키라는 가이드를 포함할 수 있다. 다만, 이에 한정되지 않는다.
또는, 프로젝션 장치(100)는 가이드 메시지(1150)를 오디오로 출력하거나, 경고음, 알림음 등을 출력할 수 있다. 다만, 이에 한정되지 않는다.
도 12는 일 실시예에 따른 프로젝션 장치의 구성을 나타내는 블록도이다.
도 12를 참조하면, 일 실시예에 따른 프로젝션 장치(100)는 센서부(110), 프로세서(120), 메모리(130), 프로젝션부(140), 및 통신부(150)를 포함할 수 있다.
일 실시예에 따른 센서부(110)는 프로젝션 장치(100) 주변의 상태를 감지하고, 감지된 정보를 프로세서(120)로 전달할 수 있다. 센서부(110)는 이미지 센서 및 깊이 센서(또는 거리 센서)를 포함할 수 있다.
일 실시예에 따른 이미지 센서는 정지 영상 또는 동영상 등의 화상 프레임을 획득할 수 있다. 예를 들어, 이미지 센서는 프로젝션 장치(100) 외부의 이미지를 촬영할 수 있다. 예를 들어, 이미지 센서는 스크린에 프로젝션된 영상을 촬영할 수 있다. 이때, 이미지 센서를 통해 촬영된 이미지는 프로세서(120) 또는 별도의 이미지 프로세서를 통해 처리될 수 있다.
일 실시예에 따른 깊이 센서는 공간에 포함되는 하나 이상의 객체들에 대한 깊이 정보를 획득할 수 있다. 깊이 정보는 깊이 센서로부터 특정 객체까지의 거리에 대응할 수 있으며, 깊이 센서로부터 특정 객체까지의 거리가 멀수록 깊이 값은 커질 수 있다. 일 실시예에 따른 깊이 센서는 다양한 방식으로 객체의 깊이 정보를 획득할 수 있으며, 예를 들어, TOF(Time of flight) 방식, 스테레오 이미지(Stereo Image) 방식, 구조화된 광(Structured Light) 방식 중 적어도 하나의 방식을 이용하여, 깊이 정보를 획득할 수 있다.
일 실시예에 따른 깊이 센서는 적어도 하나의 카메라를 포함할 수 있으며, 깊이 센서에 포함되는 카메라의 FOV에 포함되는 실제 공간에 대한 깊이 정보를 획득할 수 있다. 깊이 센서는 프로젝션 장치와 스크린에 포함된 중심 또는 적어도 하나의 기준점까지의 거리를 센싱할 수 있다.
또한, 센서부(110)는 이미지 센서 및 깊이 센서 이외에도 가속도 센서, 위치 센서, 온/습도 센서, 조도 센서, 지자기 센서, 자이로스코프 센서, 및 마이크로폰 등을 포함할 수 있다. 다만, 이에 한정되지 않는다.
일 실시예에 따른 프로세서(120)는 프로젝션 장치(100)의 전반적인 동작 및 프로젝션 장치(100)의 내부 구성 요소들 사이의 신호 흐름을 제어하고, 데이터를 처리하는 기능을 수행한다.
프로세서(120)는 싱글 코어, 듀얼 코어, 트리플 코어, 쿼드 코어 및 그 배수의 코어를 포함할 수 있다. 또한, 프로세서(120)는 복수의 프로세서들을 포함할 수 있다. 예를 들어, 프로세서(120)는 메인 프로세서(main processor, 도시되지 아니함) 및 서브 프로세서(sub processor, 도시되지 아니함)로 구현될 수 있다.
또한, 프로세서(120)는 CPU(Cetral Processing Unit), GPU (Graphic Processing Unit) 및 VPU(Video Processing Unit) 중 적어도 하나를 포함할 수 있다. 또는, 실시예에 따라, CPU, GPU 및 VPU 중 적어도 하나를 통합한 SoC(System On Chip) 형태로 구현될 수 있다. 또는, 프로세서(120)는 NPU(Neural Processing Unit)를 더 포함할 수 있다.
일 실시예에 따른 메모리(130)는 프로젝션 장치(100)를 구동하고 제어하기 위한 다양한 데이터, 프로그램 또는 어플리케이션을 저장할 수 있다.
또한, 메모리(130)에 저장되는 프로그램은 하나 이상의 인스트럭션들을 포함할 수 있다. 메모리(130)에 저장된 프로그램(하나 이상의 인스트럭션들) 또는 어플리케이션은 프로세서(120)에 의해 실행될 수 있다.
일 실시예에 따른 프로세서(120)는 상기 메모리(130)에 저장된 하나 이상의 인스트럭션들을 실행함으로써, 스크린의 중심 정보를 획득할 수 있다. 일 실시예에 따른 스크린의 중심 정보는 스크린의 중심점에 대한 좌표 정보, 프로젝션 장치(100)를 기준으로 스크린의 중심의 방향, 프로젝션 장치(100)와 스크린의 중심점 사이의 거리 등을 포함할 수 있다. 다만, 이에 한정되지 않는다.
프로세서(120)는 프로젝션 중심이 스크린의 중심에 일치되게 프로젝션 방향을 결정할 수 있다. 예를 들어, 프로세서(120)는 스크린의 중심 정보에 기초하여, 출력 영상의 중심이 스크린의 중심을 향하도록 프로젝션 방향을 결정할 수 있다.
일 실시예에 따른 프로세서(120)는 프로젝션 장치(100)와 스크린과의 위치 관계 정보를 획득할 수 있다. 예를 들어, 프로세서(120)는 스크린의 중심과 프로젝션 장치 사이의 거리 정보, 스크린(10)에 포함되는 적어도 하나의 기준점과 프로젝션 장치(100)가 이루는 각도 정보, 스크린의 중심(O)을 기준으로 프로젝션 장치(100)가 왼쪽에 있는지, 오른쪽에 있는지에 대한 정보 등을 획득할 수 있다.
일 실시예에 따른 프로세서(120)는 위치 관계 정보에 기초하여, 출력되는 영상의 크기 및 밝기 중 적어도 하나를 조절할 수 있다. 예를 들어, 프로세서(120)는 프로젝션 장치(100)가 스크린(10)의 중심(O)으로부터 멀어질수록 출력되는 영상의 크기를 작게 하고, 밝기는 더 밝게 조절할 수 있다. 또는, 프로세서(120)는 프로젝션 장치(100)가 스크린(10)의 중심(O)으로부터 가까워질수록 출력되는 영상의 크기를 크게 하고, 밝기는 어둡게 조절할 수 있다.
일 실시예에 따른 프로세서(120)는 프로젝션 장치(100)가 스크린(10)의 중심(O)으로부터 왼쪽에 위치하는 경우, 영상의 중심을 기준으로 영상의 왼쪽 영역보다 오른쪽 영역의 크기 및 밝기의 변화를 더 크게 조절할 수 있다. 또는, 프로세서(120)는 프로젝션 장치(100)가 스크린(10)의 중심(O)으로부터 오른쪽에 위치하는 경우, 영상의 중심을 기준으로 영상의 오른쪽 영역보다 왼쪽 영역의 크기 및 밝기의 변화를 더 크게 조절할 수 있다. 이에 대해서는 도 4 내지 도 6을 참조하여 자세히 설명하였으므로 구체적인 설명은 생략하기로 한다.
또한, 일 실시예에 따른 프로세서(120)는 어안렌즈를 통해 프로젝션되는 출력 영상의 방사 왜곡을 보정하기 위해 출력 영상에 보정 데이터를 적용할 수 있다. 이때, 프로세서(120)는 프로젝션 장치(100)와 스크린(10)의 위치 관계 정보에 기초하여, 출력 영상에 적용할 보정 데이터를 결정할 수 있다. 이에 대해서는 도 7 내지 도 9를 참조하여, 자세히 설명하였으므로 구체적인 설명은 생략하기로 한다.
프로세서(120)는 크기 조절, 밝기 조절 및 왜곡 보정이 수행된 영상을 프로젝션하도록 프로젝션부(140)를 제어할 수 있다.
일 실시예에 따른 프로젝션부(140)는 광을 발생시키는 광원, 렌즈 등을 포함할 수 있다. 이때, 렌즈는 어안렌즈를 포함할 수 있다. 또한, 프로젝션부(140)는 프로젝션의 방향이나 위치, 각도 등을 조절하는 구동부를 더 포함할 수 있다. 프로젝션부(140)는 프로세서(120)로부터 수신되는 제어 신호에 따라 광원을 구동시키거나 프로젝션의 방향이나 위치, 각도 등을 조절함으로써, 360도 영상의 프로젝션을 수행할 수 있다.
또한, 프로젝션 장치(100)는 프로젝션 장치(100)를 이동시킬 수 있는 기기 구동부를 더 포함할 수 있다. 기기 구동부는 프로젝션 장치(100) 본체를 전방 또는 후방, 좌측 또는 우측으로 이동시키거나 회전시킬 수 있다. 다만, 이에 한정되지 않는다.
일 실시예에 따른 통신부(150)는 외부 장치 또는 서버와 데이터 또는 신호를 송수신할 수 있다. 예를 들어, 통신부(150)는 와이- 파이(Wi-Fi) 모듈, 블루투스 모듈, 적외선 통신 모듈 및 무선 통신 모듈, LAN 모듈, 이더넷(Ethernet) 모듈, 유선 통신 모듈 등을 포함할 수 있다. 이때, 각 통신 모듈은 적어도 하나의 하드웨어 칩 형태로 구현될 수 있다.
와이 파이 모듈, 블루투스 모듈은 각각 Wi-Fi 방식, 블루투스 방식으로 통신을 수행한다. 와이 파이 모듈이나 블루투스 모듈을 이용하는 경우에는 SSID 및 세션 키 등과 같은 각종 연결 정보를 먼저 송수신하고, 이를 이용하여 통신 연결한 후 각종 정보들을 송수신할 수 있다. 무선 통신 모듈은 지그비(zigbee), 3G(3rd Generation), 3GPP(3rd Generation Partnership Project), LTE(Long Term Evolution), LTE-A(LTE Advanced), 4G(4th Generation), 5G(5th Generation) 등과 같은 다양한 무선 통신 규격에 따라 통신을 수행하는 적어도 하나의 통신 칩을 포함할 수 있다.
일 실시예에 따른 통신부(150)는 통신 모듈을 포함하는 스크린 장치와 통신을 수행할 수 있다. 통신부(150)는 스크린 장치로부터 스크린 관련 정보를 수신할 수 있다.
일 실시예에 따른 프로젝션 장치는 프로젝션부, 하나 이상의 인스트럭션들을 저장하는 메모리 및 상기 하나 이상의 인스트럭션들을 실행하는 적어도 하나의 프로세서를 포함할 수 있다.
상기 적어도 하나의 프로세서는, 상기 하나 이상의 인스트럭션들을 실행함으로써, 상기 영상을 프로젝션할 스크린의 중심 정보를 획득할 수 있다.
상기 적어도 하나의 프로세서는, 상기 하나 이상의 인스트럭션들을 실행함으로써, 프로젝션되는 상기 영상의 중심이 상기 스크린의 중심에 일치하도록 프로젝션 방향을 제어할 수 있다.
상기 적어도 하나의 프로세서는, 상기 하나 이상의 인스트럭션들을 실행함으로써, 상기 프로젝션 장치와 상기 스크린과의 위치 관계 정보를 획득할 수 있다.
상기 적어도 하나의 프로세서는, 상기 하나 이상의 인스트럭션들을 실행함으로써, 상기 위치 관계 정보에 기초하여, 상기 영상의 크기 및 밝기 중 적어도 하나를 결정할 수 있다.
상기 적어도 하나의 프로세서는, 상기 하나 이상의 인스트럭션들을 실행함으로써, 상기 결정된 크기 및 밝기 중 적어도 하나에 따라 상기 영상을 상기 스크린에 프로젝션하도록 상기 프로젝션부를 제어할 수 있다.
일 실시예에 따른 프로젝션 장치는, 외부 장치로부터 상기 스크린의 중심 정보를 수신하는 통신부를 더 포함할 수 있다.
상기 적어도 하나의 프로세서는, 상기 하나 이상의 인스트럭션들을 실행함으로써, 상기 위치 관계 정보에 기초하여, 상기 프로젝션 장치가 상기 스크린의 중심으로부터 멀어질수록 상기 영상의 크기가 작아지도록 상기 영상의 크기를 결정하고, 상기 스크린의 중심에 가까워질수록 상기 영상의 크기가 커지도록 상기 영상의 크기를 결정할 수 있다.
상기 적어도 하나의 프로세서는, 상기 하나 이상의 인스트럭션들을 실행함으로써, 상기 위치 관계 정보에 기초하여, 상기 프로젝션 장치가 상기 스크린의 중심으로부터 멀어질수록 상기 영상의 밝기가 증가하도록 상기 영상의 밝기를 결정하고, 상기 스크린의 중심에 가까워질수록 상기 영상의 밝기가 감소하도록 상기 영상의 밝기를 결정할 수 있다.
상기 적어도 하나의 프로세서는, 상기 하나 이상의 인스트럭션들을 실행함으로써, 상기 스크린의 적어도 하나의 기준점에 대한 기준점 정보를 획득할 수 있다.
상기 적어도 하나의 프로세서는, 상기 하나 이상의 인스트럭션들을 실행함으로써, 상기 스크린의 중심 정보 및 상기 기준점 정보에 기초하여, 상기 프로젝션 장치와 상기 스크린과의 위치 관계 정보를 획득할 수 있다.
상기 적어도 하나의 프로세서(120)는, 상기 하나 이상의 인스트럭션들을 실행함으로써, 상기 프로젝션 장치를 기준으로 상기 스크린의 제1 기준점과 상기 스크린의 중심점이 이루는 제1 각도 및 상기 프로젝션 장치를 기준으로 상기 스크린의 제2 기준점과 상기 스크린의 중심점이 이루는 제2 각도를 결정할 수 있다.
상기 적어도 하나의 프로세서(120)는, 상기 하나 이상의 인스트럭션들을 실행함으로써, 상기 제1 각도 및 제2 각도에 기초하여, 상기 영상의 크기 및 밝기 중 적어도 하나를 조절할 수 있다.
상기 제1 기준점은 상기 스크린의 좌측 기준점이고, 상기 제2 기준점은 상기 스크린의 우측 기준점일 수 있다.
상기 적어도 하나의 프로세서는, 상기 하나 이상의 인스트럭션들을 실행함으로써, 상기 제1 각도와 상기 제2 각도의 차이에 기초하여, 상기 영상의 중심을 기준으로 상기 영상의 좌측 영역의 크기와 우측 영역의 크기를 서로 다르게 조절할 수 있다.
상기 적어도 하나의 프로세서는, 상기 하나 이상의 인스트럭션들을 실행함으로써, 상기 제1 각도와 상기 제2 각도의 차이에 기초하여, 상기 영상의 중심을 기준으로 상기 영상의 좌측 영역의 크기와 우측 영역의 밝기를 서로 다르게 조절할 수 있다.
일 실시예에 따른 프로젝션 장치는, 어안렌즈를 포함할 수 있다.
상기 적어도 하나의 프로세서는, 상기 하나 이상의 인스트럭션들을 실행함으로써, 상기 위치 관계 정보에 기초하여, 상기 어안렌즈를 통해 상기 스크린에 프로젝션되는 영상의 왜곡을 보정하기 위한 보정 데이터를 결정할 수 있다.
상기 적어도 하나의 프로세서는, 상기 하나 이상의 인스트럭션들을 실행함으로써, 상기 영상에 상기 결정된 보정 데이터를 적용할 수 있다.
일 실시예에 따른 프로젝션 장치의 동작 방법은 영상을 프로젝션할 스크린의 중심 정보를 획득하는 단계를 포함할 수 있다.
일 실시예에 따른 프로젝션 장치의 동작 방법은 프로젝션되는 상기 영상의 중심이 상기 스크린의 중심에 일치하도록 프로젝션 방향을 제어하는 단계를 포함할 수 있다.
일 실시예에 따른 프로젝션 장치의 동작 방법은 상기 프로젝션 장치와 상기 스크린과의 위치 관계 정보를 획득하는 단계를 포함할 수 있다.
일 실시예에 따른 프로젝션 장치의 동작 방법은 상기 위치 관계 정보에 기초하여, 상기 영상의 크기 및 밝기 중 적어도 하나를 결정하는 단계를 포함할 수 있다.
일 실시예에 따른 프로젝션 장치의 동작 방법은 상기 결정된 크기 및 밝기 중 적어도 하나에 따라 상기 영상을 상기 스크린에 프로젝션하는 단계를 포함할 수 있다.
상기 스크린의 중심 정보를 획득하는 단계는, 외부 장치로부터 상기 스크린의 중심 정보를 수신하는 단계를 포함할 수 있다.
상기 위치 관계 정보에 기초하여, 상기 영상의 크기 및 밝기 중 적어도 하나를 결정하는 단계는, 상기 위치 관계 정보에 기초하여, 상기 프로젝션 장치가 상기 스크린의 중심으로부터 멀어질수록 상기 영상의 크기가 작아지도록 상기 영상의 크기를 결정하고, 상기 스크린의 중심에 가까워질수록 상기 영상의 크기가 커지도록 상기 영상의 크기를 결정하는 단계를 포함할 수 있다.
상기 위치 관계 정보에 기초하여, 상기 영상의 크기 및 밝기 중 적어도 하나를 결정하는 단계는, 상기 위치 관계 정보에 기초하여, 상기 프로젝션 장치가 상기 스크린의 중심으로부터 멀어질수록 상기 영상의 밝기가 증가하도록 상기 영상의 밝기를 결정하고, 상기 스크린의 중심에 가까워질수록 상기 영상의 밝기가 감소하도록 상기 영상의 밝기를 결정하는 단계를 포함할 수 있다.
상기 프로젝션 장치와 상기 스크린과의 위치 관계 정보를 획득하는 단계는, 상기 스크린의 적어도 하나의 기준점에 대한 기준점 정보를 획득하는 단계를 포함할 수 있다.
상기 프로젝션 장치와 상기 스크린과의 위치 관계 정보를 획득하는 단계는, 상기 스크린의 중심 정보 및 상기 기준점 정보에 기초하여, 상기 프로젝션 장치와 상기 스크린과의 위치 관계 정보를 획득하는 단계를 포함할 수 있다.
상기 프로젝션 장치와 상기 스크린과의 위치 관계 정보를 획득하는 단계는, 상기 프로젝션 장치를 기준으로 상기 스크린의 제1 기준점과 상기 스크린의 중심점이 이루는 제1 각도 및 상기 프로젝션 장치를 기준으로 상기 스크린의 제2 기준점과 상기 스크린의 중심점이 이루는 제2 각도를 결정하는 단계를 포함할 수 있다.
상기 위치 관계 정보에 기초하여, 상기 영상의 크기 및 밝기 중 적어도 하나를 결정하는 단계는, 상기 제1 각도 및 제2 각도에 기초하여, 상기 영상의 크기 및 밝기 중 적어도 하나를 결정하는 단계를 포함할 수 있다.
상기 제1 기준점은 상기 스크린의 좌측 기준점이고, 상기 제2 기준점은 상기 스크린의 우측 기준점일 수 있다.
상기 위치 관계 정보에 기초하여, 상기 영상의 크기 및 밝기 중 적어도 하나를 결정하는 단계는, 상기 제1 각도와 상기 제2 각도의 차이에 기초하여, 상기 영상의 중심을 기준으로 상기 영상의 좌측 영역의 크기와 우측 영역의 크기를 서로 다르게 결정하는 단계를 포함할 수 있다.
상기 위치 관계 정보에 기초하여, 상기 영상의 크기 및 밝기 중 적어도 하나를 결정하는 단계는, 상기 제1 각도와 상기 제2 각도의 차이에 기초하여, 상기 영상의 중심을 기준으로 상기 영상의 좌측 영역의 크기와 우측 영역의 밝기를 서로 다르게 결정하는 단계를 포함할 수 있다.
일 실시예에 따른 프로젝션 장치의 동작 방법은, 상기 위치 관계 정보에 기초하여, 어안렌즈를 통해 상기 스크린에 프로젝션되는 영상의 왜곡을 보정하기 위한 보정 데이터를 결정하는 단계를 포함할 수 있다.
일 실시예에 따른 프로젝션 장치의 동작 방법은, 상기 영상에 상기 결정된 보정 데이터를 적용하는 단계를 포함할 수 있다.
일 실시예에 따른 프로젝션 장치 및 그 동작 방법은 프로젝션 장치의 위치가 변경됨에 따라 출력되는 영상의 크기 및 밝기를 조절함으로써, 변경 전 위치에서 프로젝션되는 영상과 유사한 영상이 스크린에 표시되도록 할 수 있다.
또한, 일 실시예에 따른 디스플레이 장치 및 그 동작 방법은 프로젝션 장치의 변경된 위치에 따라 방사 왜곡을 보정할 수 있는 보정 데이터를 다르게 적용함으로써, 스크린에 표시된 영상에 왜곡이 발생하는 것을 방지할 수 있다.
일 실시예에 따른 프로젝션 장치의 동작 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.
또한, 개시된 실시예들에 따른 디스플레이 장치의 동작 방법 중 적어도 하나는 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다.
컴퓨터 프로그램 제품은 S/W 프로그램, S/W 프로그램이 저장된 컴퓨터로 읽을 수 있는 저장 매체를 포함할 수 있다. 예를 들어, 컴퓨터 프로그램 제품은 전자 장치의 제조사 또는 전자 마켓(예, 구글 플레이 스토어, 앱 스토어)을 통해 전자적으로 배포되는 S/W 프로그램 형태의 상품(예, 다운로더블 앱)을 포함할 수 있다. 전자적 배포를 위하여, S/W 프로그램의 적어도 일부는 저장 매체에 저장되거나, 임시적으로 생성될 수 있다. 이 경우, 저장 매체는 제조사의 서버, 전자 마켓의 서버, 또는 SW 프로그램을 임시적으로 저장하는 중계 서버의 저장매체가 될 수 있다.
컴퓨터 프로그램 제품은, 서버 및 클라이언트 장치로 구성되는 시스템에서, 서버의 저장매체 또는 클라이언트 장치의 저장매체를 포함할 수 있다. 또는, 서버 또는 클라이언트 장치와 통신 연결되는 제3 장치(예, 스마트폰)가 존재하는 경우, 컴퓨터 프로그램 제품은 제3 장치의 저장매체를 포함할 수 있다. 또는, 컴퓨터 프로그램 제품은 서버로부터 클라이언트 장치 또는 제3 장치로 전송되거나, 제3 장치로부터 클라이언트 장치로 전송되는 S/W 프로그램 자체를 포함할 수 있다.
이 경우, 서버, 클라이언트 장치 및 제3 장치 중 하나가 컴퓨터 프로그램 제품을 실행하여 개시된 실시예들에 따른 방법을 수행할 수 있다. 또는, 서버, 클라이언트 장치 및 제3 장치 중 둘 이상이 컴퓨터 프로그램 제품을 실행하여 개시된 실시예들에 따른 방법을 분산하여 실시할 수 있다.
예를 들면, 서버(예로, 클라우드 서버 또는 인공 지능 서버 등)가 서버에 저장된 컴퓨터 프로그램 제품을 실행하여, 서버와 통신 연결된 클라이언트 장치가 개시된 실시예들에 따른 방법을 수행하도록 제어할 수 있다.
이상에서 실시예들에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속한다.

Claims (15)

  1. 영상을 프로젝션하는 프로젝션 장치(100)에 있어서,
    프로젝션부(140);
    하나 이상의 인스트럭션들을 저장하는 메모리(130); 및
    상기 하나 이상의 인스트럭션들을 실행하는 적어도 하나의 프로세서(120)를 포함하고,
    상기 적어도 하나의 프로세서(120)는, 상기 하나 이상의 인스트럭션들을 실행함으로써,
    상기 영상을 프로젝션할 스크린의 중심 정보를 획득하고,
    프로젝션되는 상기 영상의 중심이 상기 스크린의 중심에 일치하도록 프로젝션 방향을 제어하고,
    상기 프로젝션 장치와 상기 스크린과의 위치 관계 정보를 획득하고,
    상기 위치 관계 정보에 기초하여, 상기 영상의 크기 및 밝기 중 적어도 하나를 결정하고,
    상기 결정된 크기 및 밝기 중 적어도 하나에 따라 상기 영상을 상기 스크린에 프로젝션하도록 상기 프로젝션부를 제어하는, 프로젝션 장치.
  2. 제1항에 있어서,
    상기 프로젝션 장치는,
    외부 장치로부터 상기 스크린의 중심 정보를 수신하는 통신부를 더 포함하는, 프로젝션 장치.
  3. 제1항 또는 제2항에 있어서,
    상기 적어도 하나의 프로세서(120)는, 상기 하나 이상의 인스트럭션들을 실행함으로써,
    상기 위치 관계 정보에 기초하여, 상기 프로젝션 장치가 상기 스크린의 중심으로부터 멀어질수록 상기 영상의 크기가 작아지도록 상기 영상의 크기를 결정하고, 상기 스크린의 중심에 가까워질수록 상기 영상의 크기가 커지도록 상기 영상의 크기를 결정하는, 프로젝션 장치.
  4. 제1항 내지 제3항 중 어느 한 항에 있어서,
    상기 적어도 하나의 프로세서(120)는, 상기 하나 이상의 인스트럭션들을 실행함으로써,
    상기 위치 관계 정보에 기초하여, 상기 프로젝션 장치가 상기 스크린의 중심으로부터 멀어질수록 상기 영상의 밝기가 증가하도록 상기 영상의 밝기를 결정하고, 상기 스크린의 중심에 가까워질수록 상기 영상의 밝기가 감소하도록 상기 영상의 밝기를 결정하는, 프로젝션 장치.
  5. 제1항 내지 제4항 중 어느 한 항에 있어서,
    상기 적어도 하나의 프로세서(120)는, 상기 하나 이상의 인스트럭션들을 실행함으로써,
    상기 스크린의 적어도 하나의 기준점에 대한 기준점 정보를 획득하고,
    상기 스크린의 중심 정보 및 상기 기준점 정보에 기초하여, 상기 프로젝션 장치와 상기 스크린과의 위치 관계 정보를 획득하는, 프로젝션 장치.
  6. 제5항에 있어서,
    상기 적어도 하나의 프로세서(120)는, 상기 하나 이상의 인스트럭션들을 실행함으로써,
    상기 프로젝션 장치를 기준으로 상기 스크린의 제1 기준점과 상기 스크린의 중심점이 이루는 제1 각도 및 상기 프로젝션 장치를 기준으로 상기 스크린의 제2 기준점과 상기 스크린의 중심점이 이루는 제2 각도를 결정하고,
    상기 제1 각도 및 제2 각도에 기초하여, 상기 영상의 크기 및 밝기 중 적어도 하나를 결정하는, 프로젝션 장치.
  7. 제6항에 있어서,
    상기 제1 기준점은 상기 스크린의 좌측 기준점이고, 상기 제2 기준점은 상기 스크린의 우측 기준점이며,
    상기 적어도 하나의 프로세서(120)는, 상기 하나 이상의 인스트럭션들을 실행함으로써,
    상기 제1 각도와 상기 제2 각도의 차이에 기초하여, 상기 영상의 중심을 기준으로 상기 영상의 좌측 영역의 크기와 우측 영역의 크기를 서로 다르게 결정하는, 프로젝션 장치.
  8. 제6항 또는 제7항에 있어서,
    상기 제1 기준점은 상기 스크린의 좌측 기준점이고, 상기 제2 기준점은 상기 스크린의 우측 기준점이며,
    상기 적어도 하나의 프로세서(120)는, 상기 하나 이상의 인스트럭션들을 실행함으로써,
    상기 제1 각도와 상기 제2 각도의 차이에 기초하여, 상기 영상의 중심을 기준으로 상기 영상의 좌측 영역의 크기와 우측 영역의 밝기를 서로 다르게 결정하는, 프로젝션 장치.
  9. 제1항 내지 제8항 중 어느 한 항에 있어서,
    상기 프로젝션 장치는,
    어안렌즈를 포함하고,
    상기 적어도 하나의 프로세서(120)는, 상기 하나 이상의 인스트럭션들을 실행함으로써,
    상기 위치 관계 정보에 기초하여, 상기 어안렌즈를 통해 상기 스크린에 프로젝션되는 영상의 왜곡을 보정하기 위한 보정 데이터를 결정하고,
    상기 영상에 상기 결정된 보정 데이터를 적용하는, 프로젝션 장치.
  10. 프로젝션 장치의 동작 방법에 있어서,
    영상을 프로젝션할 스크린의 중심 정보를 획득하는 단계;
    프로젝션되는 상기 영상의 중심이 상기 스크린의 중심에 일치하도록 프로젝션 방향을 제어하는 단계;
    상기 프로젝션 장치와 상기 스크린과의 위치 관계 정보를 획득하는 단계;
    상기 위치 관계 정보에 기초하여, 상기 영상의 크기 및 밝기 중 적어도 하나를 결정하는 단계; 및
    상기 결정된 크기 및 밝기 중 적어도 하나에 따라 상기 영상을 상기 스크린에 프로젝션하는 단계를 포함하는, 프로젝션 장치의 동작 방법.
  11. 제10항에 있어서,
    상기 스크린의 중심 정보를 획득하는 단계는
    외부 장치로부터 상기 스크린의 중심 정보를 수신하는 단계를 포함하는, 프로젝션 장치의 동작 방법.
  12. 제10항 또는 제11항에 있어서,
    상기 위치 관계 정보에 기초하여, 상기 영상의 크기 및 밝기 중 적어도 하나를 결정하는 단계는,
    상기 위치 관계 정보에 기초하여, 상기 프로젝션 장치가 상기 스크린의 중심으로부터 멀어질수록 상기 영상의 크기가 작아지도록 상기 영상의 크기를 결정하고, 상기 스크린의 중심에 가까워질수록 상기 영상의 크기가 커지도록 상기 영상의 크기를 결정하는 단계를 포함하는, 프로젝션 장치의 동작 방법.
  13. 제10항 내지 제12항 중 어느 한 항에 있어서,
    상기 위치 관계 정보에 기초하여, 상기 영상의 크기 및 밝기 중 적어도 하나를 결정하는 단계는,
    상기 위치 관계 정보에 기초하여, 상기 프로젝션 장치가 상기 스크린의 중심으로부터 멀어질수록 상기 영상의 밝기가 증가하도록 상기 영상의 밝기를 결정하고, 상기 스크린의 중심에 가까워질수록 상기 영상의 밝기가 감소하도록 상기 영상의 밝기를 결정하는 단계를 포함하는, 프로젝션 장치의 동작 방법.
  14. 제10항 내지 제13항 중 어느 한 항에 있어서,
    상기 프로젝션 장치와 상기 스크린과의 위치 관계 정보를 획득하는 단계는,
    상기 스크린의 적어도 하나의 기준점에 대한 기준점 정보를 획득하는 단계; 및
    상기 스크린의 중심 정보 및 상기 기준점 정보에 기초하여, 상기 프로젝션 장치와 상기 스크린과의 위치 관계 정보를 획득하는 단계를 포함하는, 프로젝션 장치의 동작 방법.
  15. 제11항 내지 제14항 중 어느 한 항의 방법을 수행하도록 하는 프로그램이 저장된 하나 이상의 컴퓨터로 읽을 수 있는 기록매체.
PCT/KR2023/008871 2022-09-29 2023-06-26 프로젝션 장치 및 그 동작 방법 WO2024071579A1 (ko)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR10-2022-0124667 2022-09-29
KR20220124667 2022-09-29
KR10-2022-0169106 2022-12-06
KR1020220169106A KR20240045044A (ko) 2022-09-29 2022-12-06 프로젝션 장치 및 그 동작 방법

Publications (1)

Publication Number Publication Date
WO2024071579A1 true WO2024071579A1 (ko) 2024-04-04

Family

ID=90478214

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2023/008871 WO2024071579A1 (ko) 2022-09-29 2023-06-26 프로젝션 장치 및 그 동작 방법

Country Status (1)

Country Link
WO (1) WO2024071579A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160062514A (ko) * 2014-11-25 2016-06-02 충북대학교 산학협력단 실물 크기 출력용 프로젝터
KR101781750B1 (ko) * 2016-09-08 2017-09-26 유승철 구형 반사 미러를 이용한 돔 스크린 영상 디스플레이 시스템 및 방법
JP2020020917A (ja) * 2018-07-31 2020-02-06 セイコーエプソン株式会社 プロジェクター、及び、プロジェクターの制御方法
JP2020530218A (ja) * 2017-06-27 2020-10-15 ブルームクス テクノロジーズ エス.エル. 没入型視聴覚コンテンツを投影する方法
KR102333931B1 (ko) * 2015-02-04 2021-12-02 엘지전자 주식회사 영상 투사 장치 및 그의 동작 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160062514A (ko) * 2014-11-25 2016-06-02 충북대학교 산학협력단 실물 크기 출력용 프로젝터
KR102333931B1 (ko) * 2015-02-04 2021-12-02 엘지전자 주식회사 영상 투사 장치 및 그의 동작 방법
KR101781750B1 (ko) * 2016-09-08 2017-09-26 유승철 구형 반사 미러를 이용한 돔 스크린 영상 디스플레이 시스템 및 방법
JP2020530218A (ja) * 2017-06-27 2020-10-15 ブルームクス テクノロジーズ エス.エル. 没入型視聴覚コンテンツを投影する方法
JP2020020917A (ja) * 2018-07-31 2020-02-06 セイコーエプソン株式会社 プロジェクター、及び、プロジェクターの制御方法

Similar Documents

Publication Publication Date Title
WO2020091262A1 (ko) 인공 신경망을 이용한 이미지 처리 방법 및 이를 지원하는 전자 장치
WO2020171583A1 (en) Electronic device for stabilizing image and method for operating same
WO2020171512A1 (en) Electronic device for recommending composition and operating method thereof
WO2021133025A1 (en) Electronic device comprising image sensor and method of operation thereof
WO2020071823A1 (en) Electronic device and gesture recognition method thereof
WO2020101420A1 (ko) 증강현실 기기의 광학 특성 측정 방법 및 장치
WO2019143050A1 (en) Electronic device and method for controlling autofocus of camera
WO2021125645A1 (ko) 화이트 밸런스를 제공하는 방법 및 이를 지원하는 전자 장치
WO2019035582A1 (en) DISPLAY APPARATUS AND SERVER, AND METHODS OF CONTROLLING THE SAME
WO2019208915A1 (ko) 외부 장치의 자세 조정을 통해 복수의 카메라들을 이용하여 이미지를 획득하는 전자 장치 및 방법
WO2019088481A1 (ko) 전자 장치 및 그의 영상 보정 방법
WO2021145667A1 (ko) 카메라 이동 제어 방법 및 장치
WO2024071579A1 (ko) 프로젝션 장치 및 그 동작 방법
WO2019245299A1 (ko) 360도 영상을 처리하는 방법 및 장치
WO2023277298A1 (ko) 이미지 안정화 방법 및 이를 위한 전자 장치
WO2022139238A1 (ko) 이미지를 제공하는 방법 및 이를 지원하는 전자 장치
WO2020204428A1 (ko) 변조 주파수에 따른 깊이 오차를 보상하는 전자 장치 및 방법
WO2024053824A1 (ko) 이미지를 제공하는 전자 장치 및 그의 동작 방법
WO2024025095A1 (ko) 복수의 프로젝션부를 포함하는 영상 출력 장치 및 그 제어 방법
WO2024014761A1 (ko) 카메라 흔들림을 보정하기 위한 방법 및 이를 지원하는 전자 장치
EP3501001A1 (en) Method, apparatus, and recording medium for processing image
WO2024111862A1 (ko) 투사 화면과 음상을 일치시키기 위한 전자 장치 및 그 제어 방법
WO2024111924A1 (ko) 이미지를 제공하는 방법 및 이를 지원하는 전자 장치
WO2023075335A1 (ko) 복수의 렌즈들을 구비하는 전자 장치 및 그 제어 방법
WO2024063280A1 (ko) 영상 투사와 함께 객체를 인식하기 위한 프로젝팅 장치 및 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23872706

Country of ref document: EP

Kind code of ref document: A1