KR101408295B1 - Projection device on nonflat screen and method therefor - Google Patents

Projection device on nonflat screen and method therefor Download PDF

Info

Publication number
KR101408295B1
KR101408295B1 KR1020130062692A KR20130062692A KR101408295B1 KR 101408295 B1 KR101408295 B1 KR 101408295B1 KR 1020130062692 A KR1020130062692 A KR 1020130062692A KR 20130062692 A KR20130062692 A KR 20130062692A KR 101408295 B1 KR101408295 B1 KR 101408295B1
Authority
KR
South Korea
Prior art keywords
image
screen
projector
coordinate system
beam projector
Prior art date
Application number
KR1020130062692A
Other languages
Korean (ko)
Inventor
전석
류아름
원선진
Original Assignee
(주)린소프트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)린소프트 filed Critical (주)린소프트
Priority to KR1020130062692A priority Critical patent/KR101408295B1/en
Application granted granted Critical
Publication of KR101408295B1 publication Critical patent/KR101408295B1/en

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/54Accessories
    • G03B21/56Projection screens
    • G03B21/58Projection screens collapsible, e.g. foldable; of variable area
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • G03B21/142Adjusting of projection optics
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/54Accessories
    • G03B21/56Projection screens
    • G03B21/60Projection screens characterised by the nature of the surface
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3102Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM] using two-dimensional electronic spatial light modulators
    • H04N9/3105Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM] using two-dimensional electronic spatial light modulators for displaying all colours simultaneously, e.g. by using two or more electronic spatial light modulators

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Optics & Photonics (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Projection Apparatus (AREA)

Abstract

The present invention applies different colors or images on a nonflat screen, which is made of particles to be transformable, according to the height of the screen using a beam projector. According to the present invention, a depth camera reads information on an image on the transformable nonflat screen and information on an X, Y, and Z-axes of each pixel of the image. An image processing part changes the image into a color value or an image corresponding to the information on a Z-axis of each pixel measured by the depth camera. The changed color value or image is outputted to a position corresponding to the screen by the beam projector. Therefore, an image outputted by the beam projector changes when the nonflat screen made of particles is transformed by an external force.

Description

비평면 스크린을 이용한 프로젝션 장치 및 방법{Projection device on nonflat screen and method therefor}BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a projection apparatus and method using a non-planar screen,

본 발명은 비평면 스크린을 이용한 프로젝션 장치 및 방법에 관한 것으로, 더욱 상세하게는 비평면 스크린의 높이에 따라서 상이한 칼라 또는 이미지를 출력하도록 하면서 비평면 스크린의 형상 변화에 대응할 수 있도록 구성되는 비평면 스크린을 이용한 프로젝션 장치 및 방법에 관한 것이다. BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a projection apparatus and method using a non-planar screen, and more particularly, to a projection apparatus and method using a non-planar screen which is configured to respond to a shape change of a non-planar screen while outputting a different color or image, And more particularly, to a projection apparatus and method using the same.

일반적으로 빔프로젝터를 이용하여 이미지를 디스플레이하게 되면, 스크린 상에 빔프로젝터에서 출력되는 이미지가 디스플레이된다. 이렇게 디스플레이되는 이미지는 단순히 2차원의 것이라고 할 수 있다. 즉 스크린 자체가 평면상의 것이기 때문에 빔프로젝터에 의하여 디스플레이되는 이미지는 평면상의 스크린에 구현된 이미지이다. Generally, when an image is displayed using a beam projector, an image output from the beam projector is displayed on the screen. The image displayed in this way can be said to be simply two-dimensional. The image displayed by the beam projector is an image implemented on a flat screen because the screen itself is planar.

그러나 스크린 자체가 XY평면에 대하여 일정한 높이값(Z값)을 가지는 경우, 그 높이의 차이에 따라 프로젝터가 다른 칼라값을 가지도록 하는 프로젝션을 수행하는 것이 고려될 수 있다. 여기서 비평면 스크린이 예를 들면 모래 등과 같은 입자로 구현되는 경우, 이러한 입자에 의하여 형성되는 스크린의 형상은 외력에 의하여 쉽게 변형되는데, 이렇게 변형되는 스크린의 실시간 높이 변화값에 대응할 수 있도록 프로젝터를 출력하는 것이 더 바람직할 것이다. However, if the screen itself has a constant height value (Z value) with respect to the XY plane, it may be considered to perform a projection such that the projector has different color values depending on the difference in height. When the non-planar screen is implemented with particles such as sand, for example, the shape of the screen formed by such particles is easily deformed by external force. In order to cope with the real time height change value of the screen, .

본 발명은 이러한 요구에 대응하기 위한 것으로, 높이값을 가지는 비평면 스크린에 대하여, 높이(Z값)에 매칭될 수 있는 이미지를 출력할 수 있는 프로젝션 장치를 제공하는 것을 주된 목적으로 한다.SUMMARY OF THE INVENTION It is a primary object of the present invention to provide a projection apparatus capable of outputting an image that can match a height (Z value) with respect to a non-planar screen having a height value.

본 발명의 다른 목적은 비평면 스크린의 높이값의 변화에 실시간 대응하면서 높이에 대한 칼라를 변경시킬 수 있는 프로젝션장치를 제공하는 것이다. It is another object of the present invention to provide a projection apparatus capable of changing the color of a height in real time while responding to a change in height value of a non-planar screen.

본 발명의 비평면 스크린을 이용한 프로젝션 장치는, 형상의 변경이 가능한 비평면 스크린의 이미지와, 이미지의 각 픽셀에 대한 XYZ축 정보를 읽어내는 뎁스 카메라와; 상기 뎁스 카메라에서 측정한 각 픽셀에 대한 Z축 정보의 크기에 따라, 이에 상응하는 칼라값 또는 이미지로 변환하는 영상처리부; 상기 영상처리부에서 변환된 칼라값 또는 이미지를 스크린의 이미지에 대응하는 위치에 출력하는 빔프로젝터; 그리고 상기 영상처리부를 제어하여 빔프로젝터가 출력되도록 하는 제어부를 포함하여 구성된다. 이때, 비평면 스크린의 형상의 변경에 따라서, 빔프로젝터가 출력하는 이미지도 같이 실시간으로 변경될 수 있는 특징을 가지고 있다. A projection apparatus using a non-planar screen according to the present invention includes: an image of a non-planar screen capable of changing a shape; a depth camera for reading XYZ-axis information about each pixel of an image; An image processor for transforming the color value or the image corresponding to the magnitude of the Z-axis information for each pixel measured by the depth camera; A beam projector for outputting the color value or the image converted by the image processing unit at a position corresponding to the image of the screen; And a control unit controlling the image processing unit to output the beam projector. At this time, according to the change of the shape of the non-planar screen, the image outputted by the beam projector can also be changed in real time.

그리고다른 실시예에 의하면, 상기 제어부의 제어하에 영상처리부에 인가될 신호를 입력받기 위한 입력부를 더 포함하여 구성될 수 있다. According to another embodiment, the control unit may further include an input unit for receiving a signal to be applied to the image processing unit under the control of the control unit.

그리고 다른 실시예에 의하면, 상기 빔프로젝터가 출력하는 이미지의 프레임을 스크린과 일치시키는 스크린 보정수단을 더 포함하여 구성될 수 있다. According to another embodiment of the present invention, the apparatus further comprises screen correcting means for matching the frame of the image output by the beam projector with the screen.

본 발명의 또 다른 실시예에 의하면, 뎁스 카메라에서 얻은 이미지를, 상기 보정수단에 의하여 보정된 빔프로젝터의 출력 이미지를 일치시키는 변환수단을 더 포함하여 구성될 수 있다. According to another embodiment of the present invention, it is possible to further comprise conversion means for matching the image obtained by the depth camera with the output image of the beam projector corrected by the correction means.

그리고 또 다른 실시예에 의하면, 뎁스 카메라에 의하여 획득된 XYZ축 정보에 기초하여, 제어부는 비평면 스크린상의 객체를 판단하고, 상기 객체에 대응하는 이미지를 빔프로젝터가 출력하도록 제어한다. According to another embodiment, based on the XYZ axis information obtained by the depth camera, the control unit judges the object on the non-planar screen and controls the beam projector to output the image corresponding to the object.

본 발명에 의한 방법은, 뎁스카메라에 의하여, 비평면 스크린의 이미지 및 이미지를 형성하는 각 픽셀의 XYZ값 정보를 입력받는 과정; 상기 XYZ값 정보 중에서 Z값 정보를 대응하는 칼라값으로 변환하는 과정; 상기 XY값에 대응하는 위치에 대하여, Z값 정보에 대응하는 상이한 칼라를 출력하도록 빔프로젝터를 제어하는 과정을 포함하고 있다. The method according to the present invention includes the steps of receiving XYZ value information of each pixel forming an image and an image of a non-planar screen by a depth camera; Converting the Z value information from the XYZ value information into a corresponding color value; And controlling the beam projector to output a different color corresponding to the Z value information with respect to the position corresponding to the XY value.

그리고 실시예에 의하면, 빔프로젝터에 의하여 출력되어 스크린에 형성되는 이미지 프레임을 스크린과 일치하도록 보정하는 스크린 보정과정을 더 포함하고 있다. According to an embodiment of the present invention, there is further provided a screen correcting step of correcting the image frame outputted by the beam projector and formed on the screen to coincide with the screen.

이러한 스크린 보정 과정에 대한 구체적인 실시예에 의하면, 스크린 상에서 직사각형의 보정후 스크린 이미지 프레임(sa1,sa2,sa3,sa4)을 입력받고, 이를 보정된 프로젝터 좌표계(np1,np2,np3,np4)로 연산한 후, 프로젝터 좌표계의 보정 전 이미지 프레임(p1,p2,p3,p4)을 PT(perspective transform) 행렬을 이용하여 보정후 프로젝터 좌표계로 변환하는 것에 의하여 이루어진다. According to a specific embodiment of the screen correction process, the screen image frames sa1, sa2, sa3, and sa4 after rectifying the rectangle are inputted on the screen and are calculated by the corrected projector coordinate systems np1, np2, np3, (P1, p2, p3, p4) of the projector coordinate system to a projector coordinate system after correction using a perspective transform (PT) matrix.

그리고 본 발명의 다른 실시예에 의하면, 상기 보정된 프로젝터 좌표계와 뎁스 카메라에서 입력된 카메라 좌표계를 일치시키는 매칭과정을 더 포함하여 구성되고 있다. According to another embodiment of the present invention, the method further comprises a matching process of matching the corrected projected coordinate system with a camera coordinate system input from the depth camera.

이와 같은 매칭과정에 대한 실시예는, 스크린에 투사된 빔프로젝터의 화상에 기초하여, Z값을 일치시키는 과정과,뎁스카메라에서 좔영된 빔프로젝트의 투사 이미지 프레임(c1,c2,c3,c4)를 입력받고, 이를 PT(perspective transform) 행렬을 이용하여 프로젝터 좌표계에서의 보정 전 이미지 프레임(p1,p2,p3,p4)로 변환하는 과정, 그리고 이를 PT(perspective transform) 행렬을 이용하여 프로젝터 좌표계에서의 보정후 이미지프레임(np1,np2,np3,np4)로 변환하는 과정을 포함하고 있다. An example of such a matching process is a process of matching Z values based on an image of a beam projector projected on a screen and a process of projecting image frames c1, c2, c3, c4 of a beam project projected by a depth camera, (P1, p2, p3, p4) in the projector coordinate system using a perspective transform matrix (PT) and then transforming it into a pre-correction image frame To the corrected image frames np1, np2, np3, and np4.

이상에서 살펴본 바와 같은 본 발명에 의하면, 분말로 형성되어 외력에 의하여 형상이 변경되는 비평면 스크린에 대하여 높이 정보에 대응하는 또는 스크린 상의 환경에 대하여 특정의 칼라 또는 이미지를 출력할 수 있게 되는 기술적 효과를 가질 수 있다. 이와 같은 본 발명은 실질적으로 3차원 스크린을 포함하고 실시간으로 변형되는 스크린에 대하여 보다 효율적인 이미지 및 칼라의 디스플레이를 가능하게 한다. As described above, according to the present invention, a non-planar screen, which is formed of powder and changes its shape by an external force, has a technical effect that can output a specific color or image corresponding to height information or a screen- Lt; / RTI > The present invention makes it possible to display a more efficient image and color on a screen including a substantially three-dimensional screen and being transformed in real time.

도 1은 본 발명의 프로젝션 장치의 개략도.
도 2는 본 발명의 프로젝션 장치의 예시 블럭도.
도 3은 스크린상에 출력되는 이미지 프레임의 예시도.
도 4는 프로젝터 좌표계를 기준으로 본 출력 이미지 프레임의 예시도.
도 5는 프로젝터 좌표계를 기준으로 보정 전후의 이미지 예시도.
도 6은 스크린을 기준으로 본 보정 전후 이미지의 예시도.
도 7은 뎁스 카메라의 이미지와 프로젝터의 이미지의 차이를 보인 예시도.
도 8은 새로운 좌표계를 구하기 위한 벡터를 포함하는 예시도.
도 9는 뎁스 카메라에 획득되는 이미지를 빔프로젝터의 이미지와 매칭시키기 위한 과정을 보인 예시도.
도 10은 본 발명에 따라 구현된 비평면 스크린의 예시도.
1 is a schematic view of a projection apparatus according to the present invention;
2 is an exemplary block diagram of a projection apparatus of the present invention.
3 is an illustration of an image frame output on a screen;
4 is an exemplary view of an output image frame viewed from a projector coordinate system.
5 is an exemplary view of an image before and after correction based on a projector coordinate system.
Fig. 6 is an illustration of an image before and after correction based on a screen; Fig.
7 is an exemplary view showing the difference between the image of the depth camera and the image of the projector.
8 is an exemplary diagram including a vector for obtaining a new coordinate system;
9 is a diagram illustrating a process for matching an image acquired by a depth camera with an image of a beam projector.
Figure 10 is an illustration of an example non-planar screen implemented in accordance with the present invention;

다음에는 도면에 도시한 실시예에 기초하면서 본 발명에 대하여 더욱 상세하게 살펴보기로 한다. Hereinafter, the present invention will be described in more detail based on the embodiments shown in the drawings.

도 1에는 본 발명에 의한 디스플레이 장치의 개략적인 구성을 도시한 예시도가 도시되어 있고, 도 2에는 본 발명의 디스플레이 장치의 기본적인 구성을 보인 블럭도가 도시되어 있다. 도시된 바와 같이, 본 발명에 의한 스크린(10)은 X축 및 Y축으로 구성되는 평면상에서, Z축으로 표현될 수 있는 높이 값을 가지고 있다. FIG. 1 is a block diagram illustrating a basic configuration of a display apparatus according to an embodiment of the present invention. Referring to FIG. As shown, the screen 10 according to the present invention has a height value that can be expressed as a Z-axis on a plane consisting of an X-axis and a Y-axis.

예를 들면 상기 스크린(10)은 상면이 개방되어 있고 내부에는 모래 또는 입자 형태의 물질이 채워져 있는 것으로 설정될 수 있다. 이러한 스크린(10)은 조작자가 모래 등을 터치하게 되면 이에 대응하여 모래의 형상이 변하게 된다. 즉, 정해진 XY 좌표값을 가지는 일정한 포인트에 대하여 그 높이 값인 Z값이 변할 수 있도록 구성되는 것이라고 할 수 있다. 이러한 스크린(10)은 비평면 스크린 또는 비평면 스크린이라고도 할 수 있다. For example, the screen 10 may be configured such that the upper surface thereof is opened and the inside thereof is filled with a material such as sand or a particle. When the operator touches the sand or the like, the shape of the sand changes corresponding to the touch of the screen 10. That is, it can be said that the Z value as the height value can be changed with respect to a certain point having a predetermined XY coordinate value. Such a screen 10 may be referred to as a non-planar screen or a nonplanar screen.

본 발명에서는 프로젝터(30)를 이용하여, 비평면 스크린의 각각의 높이값에 대응하는 다른 칼라를 출력함으로써 스크린의 3차원 이미지에 매칭되는 디스플레이 장치를 제공하게 된다. 여기서 비평면(3차원) 스크린에서 Z값에 대응하는 다른 색상을 출력한다는 것은 빔프로젝터에서 RGB를 조합하는 것에 의하여 시각적으로 명백히 구분될 수 있는 채도 및/또는 명도를 가지는 칼라 또는 이미지를 출력한다는 것을 의미한다. 그리고 이러한 디스플레이를 위한 제어는 컴퓨터(100)에서 수행된다. In the present invention, the projector 30 is used to provide a display device that is matched to a three-dimensional image of the screen by outputting different colors corresponding to the respective height values of the non-planar screen. Here, outputting another color corresponding to the Z value in a non-planar (three-dimensional) screen means outputting a color or an image with saturation and / or brightness that can be visually distinctly distinguished by combining RGB in the beam projector it means. And control for such display is performed in the computer 100.

다음에는 도 2에 기초하면서 더욱 상세하게 살펴보면, 뎁스카메라(Depth camera)(20)는 비평면 스크린(10)을 촬영하는데, 이때 촬영되는 이미지의 각각의 필셀에 대응하는 XYZ축 정보를 추출할 수 있다. 즉 이미지의 XY값 이외에도, 적외선을 이용하여 이미지를 구성하는 각 픽셀이 가지는 Z값을 측정할 수 있는 것이고, 이미 상용화되어 있다. 이와 같이 뎁스카메라(20)에서 얻어진 데이터는, 컴퓨터 내부의 영상처리부(140)로 전달된다. 2, the depth camera 20 photographs the non-planar screen 10, and extracts XYZ-axis information corresponding to each of the pixels of the image to be photographed have. That is, in addition to the XY value of the image, it is possible to measure the Z value of each pixel constituting the image using infrared rays, and it is already commercialized. The data obtained by the depth camera 20 is transmitted to the image processing unit 140 inside the computer.

상기 영상처리부(140)는 뎁스카메라(20)에서 받은 데이터에서, 각각의 픽셀에 대응하는 Z값을 특정한 색정보를 가지는 데이터로 또는 특정한 이미지를 가지는 데이터로 변환하게 된다. 여기서 Z값, 즉 비평면 스크린에서의 각 지점의 높이에 대응하는 칼라 또는 이미지는 미리 테이블 형태로 저장되어 있어서, 이러한 테이블값에서 추출된 색 정보로 변환된다. 또는 이러한 테이블값은 영상처리부(140)가 가지고 있을 수도 있고, 저장부(120)에 저장된 것을 이용하는 것도 가능하고, 제어부(110)의 제어에 의하여 선택되어 사용될 수 있다. 따라서 상기 영상처리부(140)는, 제어부(110)의 제어하에 뎁스카메라(20)에서 얻은 데이터에 대하여 Z값을 특정한 색정보로 변환하고, 그에 대한 XY값과 같이 빔프로젝터(30)로 출력하게 된다. The image processing unit 140 converts the Z value corresponding to each pixel from the data received from the depth camera 20 into data having specific color information or data having a specific image. Here, the color or image corresponding to the Z value, that is, the height of each point on the non-planar screen, is stored in advance in the form of a table, and is converted into color information extracted from the table value. Alternatively, the table values may be stored in the image processing unit 140 or stored in the storage unit 120, and may be selected and used under the control of the control unit 110. Accordingly, under the control of the control unit 110, the image processor 140 converts the Z value of the data obtained by the depth camera 20 into specific color information, and outputs the color information to the beam projector 30 as an XY value thereof do.

여기서 Z값은 그룹화될 수도 있다. 즉, 뎁스카메라(20)에서 얻어진 데이터 중에서 Z값의 데이터를, 일정한 기준점(스크린에서의 최고점, 최저점 또는 중심점)을 중심으로 일정한 범위까지는 동일한 칼라 또는 이미지를 가지도록 그룹화되어 출력될 수도 있을 것이다. 이는 사용자에 의하여 입력부(130)을 통하여 입력되는 정보 또는 명령에 의하여 수행될 수도 있으며, 영상처리부(140)에 자체적으로 내장될 수 있도록 설계하는 것도 가능하다. Where the Z values may be grouped. That is, the data of the Z value among the data obtained by the depth camera 20 may be grouped so as to have the same color or image up to a certain range around a certain reference point (the highest point, the lowest point, or the center point on the screen). It may be performed by information or commands input by the user through the input unit 130 or may be designed to be embedded in the image processing unit 140 itself.

따라서 상기 빔프로젝터(30)에 의하여 출력되는 이미지는, 비평면 스크린(10)에서 각 부분의 높이에 따라 이에 대응하는 칼라를 가지게 된다. 예를 들어, 비평면 스크린(10) 상에 구현된 형상이 산과 바다가 연속된 형상을 가지고 있다면, 높이가 높은 산에 대응하는 XY값을 가지는 부분에는 초록색을 구현할 수 있도록 출력되고, 높이가 낮은 바다에 대응하는 XY값을 가지는 부분에는 푸른색을 구현할 수 있도록 출력될 수 있을 것이다. 그리고 각 부분마다 RGB의 비율을 조절하는 것에 의하여 산의 정상 부근은 가장 진한 초록색으로, 그리고 바다의 가장 깊은 부분은 가장 진한 푸른색으로 조사하는 것이 가능할 것이다. Accordingly, the image output by the beam projector 30 has a corresponding color according to the height of each part in the non-planar screen 10. [ For example, if the shape implemented on the non-planar screen 10 has a continuous shape of mountains and oceans, a portion having an XY value corresponding to a high-height mountain is output so as to realize green, The part having XY value corresponding to the sea may be outputted so as to realize blue color. By adjusting the ratio of RGB to each part, it is possible to irradiate the peak of the mountain to the deepest green color and the deepest part of the sea to the deepest blue color.

그리고 입자로 만들어지는 비평면 스크린이 외력에 의하여 형상이 변형되면, 각각의 XY 좌표값에 대한 Z값이 변하게 된다. 이렇게 변하는 Z값은 뎁스 카메라를 통하여 영상처리부(140)에 입력되고, 제어부(110)의 제어하에 변화된 Z값에 해당하는 칼라를 스크린에 출력할 수 있게 된다. 즉, 본 발명에 의하면 비평면 스크린에서 Z값(높이값)의 변화에 대응하여 실시간으로 프로젝터에서 출력되는 칼라가 변경되도록 구성되고 있음을 알 수 있다. When the non-planar screen made of particles is deformed by external force, the Z value for each XY coordinate value changes. The Z value thus changed is input to the image processing unit 140 through the depth camera, and the color corresponding to the changed Z value under the control of the control unit 110 can be output to the screen. That is, according to the present invention, it can be seen that the color outputted from the projector is changed in real time corresponding to the change of Z value (height value) in the non-planar screen.

도 10에는 본 발명에 따라서 빔프로젝터가 투사한 비평면 디스플레이가 예시되어 있다. 다음에는 상기와 같은 본 발명에 의한 비평면 스크린의 프로젝션 장치에서 변형 가능한 실시예에 대하여 살펴보기로 한다. Figure 10 illustrates a non-planar display projected by a beam projector in accordance with the present invention. Next, a description will be made of an embodiment that can be modified in the projection apparatus of a non-planar screen according to the present invention as described above.

먼저, 상기 영상처리부(140)는 뎁스카메라에서 획득된 정보에 기초하여 비평면 스크린의 지형정보를 판단할 수 있다. 즉, 일정한 높이(Z값) 범위 이내에서, XY평면에서 일정한 폭을 이루는 지형이 연속되고 있다면 이를 도로로 인식할 수 있을 것이다. 물론 이는 상기 영상처리부(140)에서 이러한 조건에 대한 판단을 위한 알고리듬 또는 조건이 저장되어 있어야 하고, 이에 기초하여 제어부에서 연산에 의하여 판단할 수 있어야 함은 물론이다. First, the image processing unit 140 may determine the terrain information of the non-planar screen based on the information obtained from the depth camera. That is, if the terrain having a constant width in the XY plane is continuous within a certain height (Z value) range, it can be recognized as a road. It is needless to say that the algorithm or condition for judging such conditions must be stored in the image processing unit 140, and it is needless to say that it is necessary for the control unit to determine the algorithm or condition based on the algorithm or condition.

다른 예를 나무로 들면, 나무는 Z축 상에서 볼 때 정점을 가지고 있고, 이러한 정점의 주위에서 일정한 XY값 범위 내에서 점점 낮은 높이를 갖는 것으로 정의될 수 있다. 따라서 뎁스 카메라에서 얻은 정보를 연산하여, 이와 같은 조건 값을 가지고 있다면 이러한 객체를 나무라고 판단할 수 있을 것이다. As another example, a tree can be defined as having a vertex when viewed on the Z axis, and having a lower height gradually within a certain range of XY values around this vertex. Therefore, the information obtained from the depth camera is calculated, and if it has such a condition value, it can be judged that the object is a tree.

상기와 같이 하여, 도로 또는 나무라고 판단되는 객체에 대해서는 이에 대응하는 이미지가 빔프로젝터에 의하여 출력되어야 할 것이다. 즉, 상술한 저장부 또는 영상처리부(140)에는 이와 같은 여러 가지 객체에 대한 조건을 내장하고 있고, 영상처리부에서의 조건 값을 제어부가 판단한 결과 특정 객체에 대응하는 것이라고 판단되면, 이에 대응하는 이미지를 해당하는 XY평면 상에 출력시키는 것도 가능할 것이다. As described above, for an object determined to be a road or a tree, a corresponding image should be output by the beam projector. That is, when the condition of the various objects is embedded in the storage unit or the image processing unit 140 and the condition value in the image processing unit is determined to correspond to the specific object as a result of the determination by the control unit, May be output on the corresponding XY plane.

이와 같이 뎁스 카메라에서 획득한 XYZ값 정보에 기초하여 비평면 스크린 상의 객체를 판단하고, 이러한 객체에 대응하는 이미지를 해당하는 부분에 출력할 수 있을 것이다. 여기서 이미지라고 함은 상술한 바와 같은 칼라 이외에도, 저장부 또는 영상처리부(140)에 저장되어 있는 특정한 이미지를 포함할 수 있다. Based on the XYZ value information acquired by the depth camera, an object on the non-planar screen can be determined, and an image corresponding to the object can be output to the corresponding portion. Here, the image may include a specific image stored in the storage unit or the image processing unit 140, in addition to the color as described above.

그리고 제어부의 제어하에 출력되는 빔프로젝터는, 영상처리부 또는 저장부에 저장되어 있는 특정한 이미지를 더 포함하여 출력할 수 있다. 예를 들어 비평면 스크린에서 일정한 영역이 바다라고 제어부가 판단하면, 물고기 형상의 이미지를 출력할 수 있고, 특히 물고기 형상의 이미지가 연속하여 이동하는 형태를 출력하는 것도 가능하다. 또는 비평면 스크린에서 일정한 영역이 고저차가 없는 평면이라고 인식되면, 그러한 영역 내에 나무 등의 이미지를 출력하는 것도 가능할 것이다. The beam projector output under the control of the control unit may further output a specific image stored in the image processing unit or the storage unit. For example, when the control unit determines that a certain region is the sea on the non-planar screen, it is possible to output an image of a fish shape, and in particular, it is also possible to output a form in which a fish shape image continuously moves. Alternatively, if it is recognized that a certain area on the non-planar screen is a plane with no elevation difference, it is also possible to output an image of a tree or the like within such area.

물론 이와 같은 빔프로젝터의 출력에 있어서는, 뎁스카메라에서 촬영한 영상 정보의 XYZ 정보에 기초하여, 영상처리부에서 이를 판단하거나, 영상처리부에 저장된 조건에 따라 제어부가 이를 판단하고, 이에 대응하는 이미지 또는 칼라가 출력되도록 제어부는 빔프로젝터를 제어해야 한다. Of course, in the output of such a beam projector, it is needless to say that, in the output of the beam projector, it is judged by the image processing section based on the XYZ information of the image information photographed by the depth camera or the control section judges this according to the condition stored in the image processing section, The control unit must control the beam projector.

여기서 상기 빔프로젝터(30)는, 비평면 스크린(10)의 기준면과 직각을 이루는 위치에서 이미지를 출력하는 바람직하다. 즉, 비평면 스크린(10) 중에서 가장 저면을 이루는 평면한 면을 기준면이라고 할 경우, 빔프로젝터(30)는 이러한 기준면(기준 스크린면)과 직각을 이루도록 설치되어야 프로젝터에서 출력되는 칼라가 정확한 위치에 디스플레이되어 왜곡의 발생을 억제할 수 있다. 그러나 도 1에서 알 수 있는 바와 같이 빔프로젝터(30) 및 뎁스카메라(20)가 모두 정확한 위치에 설치되는 것은 물리적으로 불가능하다. Here, the beam projector 30 preferably outputs an image at a position perpendicular to the reference plane of the non-planar screen 10. That is, when a flat surface forming the bottom of the non-planar screen 10 is referred to as a reference surface, the beam projector 30 should be installed at right angles to the standard surface (reference screen surface) So that the occurrence of distortion can be suppressed. However, as can be seen from FIG. 1, it is physically impossible to install both the beam projector 30 and the depth camera 20 at the correct positions.

예를 들어 빔프로젝터(30)가 일측으로 약간 기운 상태로 설치되어 스크린에 출력되면, 도 3에서 검은색의 모서리가 표시된 바와 같은 출력 이미지 프레임(50)을 가지게 된다. 실질적으로 왜곡된 이미지 프레임(50)이 스크린(10)에 조사될 것이고, 이렇게 출력되면, 비평면 스크린(10) 상의 실제 높이(Z값)에 정확하게 매칭되지 않을 수 있다. 그리고 이와 같이 이미지가 왜곡되어 출력되는 것은 상기 스크린(10)의 크기가 클수록 더 심하게 나타나게 되는 것은 당연하다. For example, when the beam projector 30 is installed in a slightly tilted state on one side and output to the screen, an output image frame 50 having black edges is displayed as shown in FIG. The substantially distorted image frame 50 will be illuminated on the screen 10 and if so output may not exactly match the actual height (Z value) on the non-planar screen 10. [ It is a matter of course that the larger the size of the screen 10, the more distorted the image is displayed.

이하에서는 비평면 스크린(10)에 조사되는 빔프로젝터의 이미지가 실제 비평면 스크린(10) 상에 구현되어 있는 모형물(모래 등과 같은 입자에 의하여 형성되어 있는 산 등의 물체)과 일치시키도록 하는 실시예에 대하여 살펴보기로 한다. 먼저 빔프로젝터(30)에서 출력되는 이미지가 실제 비평면 스크린(10)에 정확하게 매칭되도록 하는 과정에 대하여 살펴보기로 한다. Hereinafter, the image of the beam projector irradiated on the non-planar screen 10 is made to coincide with the model material (an object such as an acid formed by particles such as sand or the like) implemented on the actual nonplanar screen 10 An example will be described. First, a process of accurately matching an image output from the beam projector 30 to an actual non-planar screen 10 will be described.

도 3에서, 스크린(10)에 나타난 이미지 스크린 프레임(50)은 점(s1,s2,s3,s4)에 의하여 형성되고, 빔프로젝터(30)가 기운 상태로 설치되어 출력됨으로써 직사각형이 아닌 사변형의 형상을 가지고 있다. 이러한 형태의 프레임(50)을 스크린 상에서 정확한 사각형, 즉 왜곡이 없는 정확한 사각형(sa1,sa2,sa3,sa4)으로 구성되는 보정된 스크린 프레임(60)을 가질 수 있도록 출력되어야 한다. 3, the image screen frame 50 shown on the screen 10 is formed by points s1, s2, s3 and s4, and the beam projector 30 is installed in a tilted state and output, Shape. This type of frame 50 should be output on a screen so that it can have a corrected screen frame 60 consisting of an exact rectangle, i.e., an accurate rectangle without distortion, sa1, sa2, sa3, sa4.

여기서 스크린(10)에 디스플레이되는 이미지 스크린 프레임(50)은 비록 왜곡된 사각형을 가지고 있으나, 이는 빔프로젝터(30)와 스크린(10)의 상대적인 관계에 기인하는 것에 불과하고, 실제로 빔프로젝터에서 출력될 때에는 도 4에 도시한 바와 같이 모서리가 90도를 이루는 직사각형으로 출력되는 것이다. 즉 빔프로젝터(30)를 중심으로 하는 프로젝터 좌표계에서는 일단 도 4에 도시한 바와 같은 직사각형을 이루고 있는 것이다. Here, the image screen frame 50 displayed on the screen 10 has a distorted quadrangle, but this is only due to the relative relationship between the beam projector 30 and the screen 10, As shown in Fig. 4, a rectangular shape having an angle of 90 degrees is output. In other words, in the projector coordinate system centering on the beam projector 30, a rectangular shape as shown in FIG. 4 is once formed.

즉 빔프로젝터에서 출력될 때에는 모서리가 90도 값을 가지는 직사각형의 프레임(7)을 가지도록 출력되나, 빔프로젝터(30)와 스크린(10) 사이가 정확하게 수직으로 대응하지 않기 때문에, 상대적으로 스크린(10)에는 도 3에 도시한 바와 같은 왜곡된 사각형, 사변형의 이미지 스크린 프레임(50)으로 나타나게 된다(보정 전 스크린 프레임). 그리고 도 3에서 이미지 스크린 프레임(50)에서, 보정 프레임(60)으로 스크린(10)에 디스플레이되어야 함은 상술한 바와 같다. That is, when outputting from the beam projector, the corner has a rectangular frame 7 having a value of 90 degrees. However, since the space between the beam projector 30 and the screen 10 does not correspond exactly vertically, 10, a distorted quadrangle and quadrangle image screen frame 50 as shown in Fig. 3 (screen frame before correction). And in the image screen frame 50 in Fig. 3, the correction frame 60 should be displayed on the screen 10 as described above.

그리고 이하에서 빔프로젝터(30)가 출력하는 이미지프레임, 즉 도 4에 도시된 이미지프레임을 프로젝터 좌표계라고 칭하기로 하고, 스크린상에서 디스플레이되는 좌표계를 스크린 좌표계라고 칭하기로 한다. 따라서 도 3에 도시한 이미지 스크린 프레임(50)은 실질적으로 스크린 좌표계를 기준으로 한 것이고 보정이 수행된기 전의 것이고(보정 전 스크린 프레임), 도 4에 도시한 이미지 프레임은 프로젝터 좌표계를 기준으로 한 것이다(보정 전 프로젝터 프레임). Hereinafter, the image frame output by the beam projector 30, that is, the image frame shown in FIG. 4 will be referred to as a projector coordinate system, and the coordinate system displayed on the screen will be referred to as a screen coordinate system. Therefore, the image screen frame 50 shown in FIG. 3 is substantially based on the screen coordinate system, that is, before the correction was performed (screen frame before correction), and the image frame shown in FIG. 4 is based on the projector coordinate system (Pre-compensation projector frame).

따라서 빔프로젝터(30)에서 출력되는 이미지의 프레임은 직사각형이나 스크린(10)과의 상대적인 관계에서 왜곡된 사각형으로 나타남을 알 수 있다. 그리고 이를 역으로 보면, 빔프로젝터(30)에서 왜곡된 사각형을 가지는 프레임으로 출력하면, 즉 프로젝터 좌표계를 기준으로 왜곡된 사각형으로 출력하면 스크린 좌표계에서는 직사각형의 이미지 프레임을 가질 수 있게 되고, 본 발명은 이러한 점에 착안하고 있다. Therefore, it can be seen that the frame of the image outputted from the beam projector 30 appears as a distorted rectangle in relation to the rectangle or the screen 10. In contrast, if the image is output as a frame having a distorted quadrangle in the beam projector 30, that is, as a distorted quadrangle based on the projector coordinate system, a rectangular image frame can be obtained in the screen coordinate system. This point is focused on.

그리고 도 3에 도시한 바와 같이, 스크린 좌표계를 기준으로 할 때 보정 전 스크린 프레임(50)은 왜곡된 사각형으로 나타나는데, 그 모서리에 마킹된 검은 색의 점은, 프로젝터 좌표계를 기준으로 하면, 도 4에서 검은 색으로 표시된 점(p1,p2,p3,p4)에 대응하는 점이라고 할 수 있다. 즉, 프로젝터 좌표계에 있어서는 직사각형(p1,p2,p3,p4)(보정 전 프로젝터 프레임)으로 나타나는 점이 스크린 좌표계에서는 왜곡된 사각형으로 디스플레이되는 것이다. 3, the pre-correction screen frame 50 appears as a distorted quadrangle when the screen coordinate system is taken as a reference. With respect to the black coordinate point marked on the corner, with respect to the projector coordinate system, (P1, p2, p3, p4) indicated by black in FIG. That is, in the projector coordinate system, the point represented by the rectangles p1, p2, p3, and p4 (pre-correction projector frame) is displayed as a distorted rectangle in the screen coordinate system.

이와 같은 검은 색의 점(p1,p2,p3,p4)으로 이루어지는 보정 전 프로젝터 프레임은 상기 영상처리부(140)에서 이미 인식하고 있는 것이다. 즉, 영상처리부(140)를 세팅할 때, 빔프로젝터에 의하여 출력되는 이미지 프레임의 각 모서리를 설정하여 둠으로써, 영상처리부(140)는 그 점에 관한 정보를 인식하고 있어서, 실질적으로 빔프로젝터 좌표계는 영상처리부(140)에서 인식되고 있다.The pre-correction projector frame having the black points p1, p2, p3, and p4 is already recognized by the image processing unit 140. [ That is, when setting the image processing unit 140, the image processing unit 140 recognizes the information about the point by setting each corner of the image frame output by the beam projector, Are recognized by the image processing unit 140.

그리고 빔프로젝터(30)에 의하여 스크린에 디스플레이된 이미지프레임을 보정하기 위하여, 도 3에서 붉은 색 점으로 표시한 바와 같이, 스크린 좌표계에서 디스플레이를 원하는 직사각형(보정후 스크린 프레임)을 지정해야 한다. 그리고 도 3에서 붉은 색으로 표시된 4개의 점은, 사용자가 입력부(130)를 통하여 입력한 점이다. 이러한 붉은 색의 점으로 표시된 보정후 스크린 프레임은 실제로 스크린 좌표계에서는 도시한 바와 같이 직사각형으로 볼 수 있고, 시각적으로 왜곡 없이 보이는 출력 프레임이라고도 할 수 있다. In order to correct the image frame displayed on the screen by the beam projector 30, a rectangle (screen frame after correction) to be displayed in the screen coordinate system should be designated, as indicated by the red dot in FIG. In FIG. 3, the four points indicated in red are input points through the input unit 130 by the user. Such a screen frame after the correction indicated by red dots can be regarded as an output frame which can be viewed as a rectangle as shown in the screen coordinate system and visually without distortion.

다음에 도 5는, 도 3의 스크린 좌표계에 대응하는 프로젝터 좌표계이다. 도 5에서도 검은색으로 표시한 점은 도 4의 점(p1,p2,p3,p4)와 동일한 것이나, 프로젝터 좌표계를 기준으로 본 것으로 보정 전 프로젝터 프레임이라고 할 수 있다. 그리고 붉은 색의 점(np1,np2,np3,np4)은, 도 3에서와 같이 스크린(10)을 통하여 사용자가 디스플레이되기를 원하는 프레임의 사각 모서리라고 입력한 붉은 색의 점으로, 이를 프로젝터 좌표계에서 본 것이다(보정후 프로젝터 프레임). Next, Fig. 5 is a projector coordinate system corresponding to the screen coordinate system of Fig. In FIG. 5, the points indicated by black are the same as the points (p1, p2, p3, p4) in FIG. 4 but can be referred to as a pre-correction projector frame viewed based on the projector coordinate system. The red dots np1, np2, np3, and np4 are red dots that are input through the screen 10 as square corners of a frame desired to be displayed by the user. (Projector frame after correction).

다음에는 프로젝터 좌표계를 기준으로 할 때, 도 5에 도시한 바와 같이 점(p1,p2,p3,p4)에 의한 프레임(보정 전 프로젝터 프레임)을, 점(np1,np2,np3,np4)에 의하여 형성되는 프레임(보정후 프로젝터 프레임)으로 변환시킨다. 붉은 색으로 표시한 점(np1,np2,np3,np4)은 사용자가 입력에 의하여 정해지는 것이기 때문에, 입력부(130)를 통하여 입력되면 영상처리부(140)는 이를 감지하고, 다음과 같은 처리를 수행하게 된다. Next, the frame (pre-correction projector frame) by the points p1, p2, p3, and p4 is divided by the points np1, np2, np3, and np4 as shown in Fig. Into a frame to be formed (corrected projector frame). Since the points (np1, np2, np3, np4) indicated by red are determined by the user, the image processing unit 140 detects the points np1, np2, np3 and np4 through the input unit 130 and performs the following processing .

프로젝터 좌표계에서의 점을 사용자가 선택한 영역의 점으로 변환하기 위하여, PT(Perspective Transform) 행렬을 이용하여 연산을 수행한다. 이러한 PT행렬은 직사각형과 사변형 간의 좌표를 정합시키는 것으로 이러한 연산 자체는 알려져 있는 것이라고 할 수 있다. In order to convert a point in the projector coordinate system to a point in the user selected area, an operation is performed using a PT (Perspective Transform) matrix. These PT matrices match the coordinates of the rectangle and the quadrangle, and this operation itself is known.

그리고 예를 들면 PT행렬을 이용하여 각각의 점(np1,np2,np3,np4)을 매칭시킬 수 있는데 다음과 같이 PT행렬과의 곱으로 연산될 수 있다. For example, each point (np1, np2, np3, np4) can be matched using a PT matrix, which can be calculated as a product of the PT matrix as follows.

np1 = PT × p1,np1 = PT x p1,

np2= PT × p2,np2 = PT x p2,

np3= PT × p3,np3 = PT x p3,

np4= PT × p4에 의하여 구할 수 있을 것이다. np4 = PT x p4.

그리고 점(np1,np2,np3,np4) 내부의 픽셀들은 상기 점들의 값을 연산할 때, 같이 연산되어 정해진 좌표값을 가질 수 있다. 즉, 본 발명에서 사용되는 3D SDK(Software Development Kit, 소프트웨어 개발 키트; Open GL 또는 DirectX)는 지정되는 점에 대하여 좌표계에서 점(point)를 지정하면 내부의 픽셀에 해당하는 좌표값을 같이 연산하는 기능을 가지고 있다. 따라서 상기 점(np1,np2,np3,np4)에 의하여 형성되는 프레임의 내부의 픽셀들도 같이 보정된 좌표값을 얻을 수 있게 된다. The pixels inside the points (np1, np2, np3, np4) can also be calculated and have predetermined coordinate values when calculating the values of the points. That is, when a point is designated in a coordinate system with respect to a designated point, the 3D SDK (Software Development Kit, Software Development Kit; OpenGL or DirectX) used in the present invention calculates coordinate values corresponding to the pixels inside Function. Accordingly, the pixels inside the frame formed by the points (np1, np2, np3, np4) can also obtain corrected coordinate values.

이렇게 구해진 점(np1,np2,np3,np4)의 값은 프로젝터 좌표계를 기준으로 한 것으로, 실질적으로 빔프로젝터는 상기 점(np1,np2,np3,np4)에 의하여 형성되는 프레임으로 출력하게 된다. 그러나 상술한 바와 같이 빔프로젝터(30)와 스크린(10)은 상대적으로 기울어진 상태이기 때문에, 이러한 상태로 이미지가 출력되면, 스크린에는 도 6에 도시한 바와 같은 프레임의 이미지가 디스플레이된다. The values of the obtained points (np1, np2, np3, np4) are based on the projector coordinate system, and substantially the beam projector outputs the frames formed by the points (np1, np2, np3, np4). However, since the beam projector 30 and the screen 10 are relatively inclined as described above, when an image is output in this state, an image of a frame as shown in Fig. 6 is displayed on the screen.

도 6은 스크린 좌표계를 기준으로 도시한 것으로, 푸른 색으로 표시한 프레임은, 상기 점(np1,np2,np3,np4)에 의한 프레임으로 출력되는 직사각형의 프레임이다(보정후 스크린 프레임). 즉 상기 점(np1,np2,np3,np4)에 의하여 형성되는 스크린 좌표계에 의한 프레임이라고 할 수 있다. 그리고 회색의 프레임은 실질적으로 왜곡된 상태로 스크린 상에서 표시될 수 있을 것인데, 이는 실제로 빔프로젝터에서 출력되는 프로젝터 좌표계에 의한 프레임을 예시한 것이다(보정 전 스크린 프레임). Fig. 6 shows the screen coordinate system as a reference. A frame displayed in blue is a rectangular frame output as a frame by the points np1, np2, np3, and np4 (corrected screen frame). That is, a frame by a screen coordinate system formed by the points np1, np2, np3, and np4. And the gray frame may be displayed on the screen in a substantially distorted state, which is illustratively a frame by the projector coordinate system output from the beam projector (screen frame before correction).

이상과 같은 과정을 거치게 되면, 빔프로젝터에서 출력되는 이미지는 도 6에서 푸른 색으로 도시한 바와 같은 보정된 스크린상의 이미지 프레임을 가지게 되고 이는 직사각형이라고 할 수 있다. 지금까지의 과정에서는 일정각도 기울어진 빔프로젝터에 의한 출력값이 스크린 상에서 직사각형을 가지는 프레임으로 출력될 수 있도록 하는 실시예를 설명하였다. When the above process is performed, the image output from the beam projector has an image frame on the corrected screen as shown in blue in FIG. 6, which can be said to be a rectangle. In the process up to now, an embodiment has been described in which the output value by the beam projector projected at a certain angle can be outputted as a frame having a rectangular shape on the screen.

다음에는 빔프로젝터의 출력과 카메라의 인식좌표를 완전하게 매칭시키는 실시예에 대하여 살펴보기로 한다. Next, an embodiment in which the output of the beam projector and the recognition coordinates of the camera are perfectly matched will be described.

도 7에서, 도면 부호 70으로 표시된 것은 빔프로젝터(30)가 출력하여 스크린(10)에 형성된 이미지 프레임이고, 도면 부호 80은 스크린(10)이 이루는 기본 평면상에서 뎁스카메라(20)가 잡을 수 있는 이미지 프레임이다. 그리고 프로젝터 좌표계는 XY로 이루어지는 2차원 좌표로 투시하지만, 뎁스카메라(20)는 투영된 영상을 인식하는 과정에서 XYZ의 3차원 좌표 정보를 얻게 된다. 7, reference numeral 70 denotes an image frame outputted by the beam projector 30 and formed on the screen 10, and reference numeral 80 denotes an image frame which is captured by the depth camera 20 on the basic plane formed by the screen 10 It is an image frame. Then, the projector coordinate system is viewed in two-dimensional coordinates made up of XY, and the depth camera 20 acquires three-dimensional coordinate information of XYZ in the process of recognizing the projected image.

상기 뎁스카메라(20)에서 프로젝터의 영상을 촬영하면 스크린(10)과 수직하지 않는 경우에는 투영된 이미지 평면의 Z값이 일정하지 않다. 따라서 Z값을 모두 동일하게 변환시켜야 한다. 도 8에 도시한 바와 같이, 카메라가 인식한 평면에 대한 새로운 좌표계를 만들어야 하는데, 이는 다음과 같은 과정에 의하여 만들어질 수 있다. When the image of the projector is photographed by the depth camera 20, the Z value of the projected image plane is not constant when it is not perpendicular to the screen 10. Therefore, all Z values must be converted equally. As shown in Fig. 8, a new coordinate system for the plane recognized by the camera has to be created, which can be created by the following procedure.

평면의 법선 벡터를 구하고, 평면의 법선벡터와 (1,0,0)이 외적하면 그 결과 새로운 좌표계의 Y축을 구할 수 있다. 그리고 새로운 Y축과 평면의 법선벡터를 외적한 결과 새로운 X축을 구할 수 있고, 새로 구한 모든 축의 크기를 1로 한다. If the normal vector of the plane is obtained and (1, 0, 0) is orthogonal to the normal vector of the plane, the Y-axis of the new coordinate system can be obtained as a result. Then, we can obtain the new X axis as a result of externalizing the normal vector of the new Y axis and the plane, and set the size of all the newly obtained axes as 1.

이렇게 하여 새로운 좌표계가 구해지고, 새로운 XYZ축을 각각 NX, NY, NZ라고 하면, 카메라 좌표계에서의 평면 상의 점 P(Xp,Yp,Zp)는 새로운 좌표계에서의 점 NP(Xnp,Ynp,Znp)로 변환된다. The point P (Xp, Yp, Zp) on the plane in the camera coordinate system is converted into a point NP (Xnp, Ynp, Znp) in the new coordinate system by obtaining a new coordinate system in this way and letting the new XYZ axes be NX, .

여기서 점 P를 새로운 좌표계의 축과 내적하면 NP를 다음과 같이 구할 수 있다. Here, if point P is inner product of the axis of the new coordinate system, NP can be obtained as follows.

Xnp = NX ·PX np = N x P

Ynp = NY ·PYnp = NY · P

Znp = NZ ·PZnp = NZ · P

또한 P를 NP로 변환해 주는 행렬을 NA라고 하는데, 이를 이용하여 표현하면 다음과 같다. In addition, the matrix that converts P to NP is called NA.

NP = NA × PNP = NA x P

이렇게 변환된 후의 동일 평면 위의 모든 점의 Z값은 동일하게 된다. The Z values of all the points on the same plane after the conversion are thus equal.

그리고 도 9에서 점(c1,c2,c2,c4)에 의하여 형성되는 뎁스 카메라가 촬영한 프로젝터의 투시 영상 프레임으로 사변형으로 나타나게 된다(카메라 촬상 프레임). 이와 같은 이미지 프레임을, 도 5에 도시한 바와 같은 붉은 색의 점으로 이루어지는 이미지 프레임, 죽 보정된 프로젝트 프레임(np1,np2,np3,np4)로 대응시키게 되면, 실질적으로 뎁스 카메라의 카메라 좌표계와 빔프로젝터의 프로젝터 좌표계가 일치하게 된다. 따라서 이하의 과정을 통하여 도 9의 (a)에 도시한 이미지 프레임을 프로젝터 이미지의 그것과 동일하게 일치시킴으로써, 양측의 픽셀의 좌표계를 정확하게 일치시킬 수 있다. In FIG. 9, a depth camera formed by the points c1, c2, c2 and c4 appears as a perspective image frame of the projector taken by the camera (a camera image pickup frame). If such an image frame is made to correspond to an image frame made up of red dots as shown in Fig. 5 and project frames (np1, np2, np3, np4) corrected with porosity, the camera coordinate system of the depth camera, The projector's coordinate system coincides with that of the projector. Therefore, the coordinate system of the pixels on both sides can be matched exactly by matching the image frame shown in FIG. 9 (a) to that of the projector image through the following process.

그리고 상술한 바와 같이 PT행렬은 실질적으로 사변형을 직사각형으로, 또는 그 역으로 변환할 수 있는 행렬이다. 이러한 PT행렬은 사변형과 직사각형 이미지를 서로 변환시킬 수 있기 때문에, 뎁스 카메라가 촬영한 촬상프레임(c1,c2,c3,c43)을 보정된 프로젝트 프레임(np1,np2,np3,np4)으로 보정하기 위해서는 다음과 같은 두번의 과정을 거쳐야 한다. As described above, the PT matrix is a matrix capable of substantially transforming a quadrangle into a rectangle or vice versa. This PT matrix can convert the quadrangle and the rectangular image into each other. Therefore, in order to correct the imaging frames c1, c2, c3 and c43 taken by the depth camera to the corrected project frames np1, np2, np3 and np4 You have to go through the following two steps.

도 9의 (a)에 도시된 이미지를 먼저 (b)에 도시한 바와 같은 직사각형의 이미지 프레임, 즉 보정 전 프로젝터 프레임(p1,p2,p3,p4)으로 변환한다. 이러한 보정 전 프로젝터 프레임은, 도 4에서 도시한 이미지 프레임(p1,p2,p3,p4)와 동일한 것이고 이는 실질적으로 빔프로젝터가 최초 출력할 때 형성되는 직사각형의 것으로 영상처리부(140)에 기억되어 있다. 여기서도 상술한 PT행렬을 이용하는데, 상술한 뎁스 카메라의 좌표계(c1,c2,c3,c4)를, 최초 빔프로젝터의 좌표계(p1,p2,p3,p4)에 매칭시키는 것에 의하여 진행된다. The image shown in Fig. 9A is first converted into a rectangular image frame as shown in Fig. 9B, that is, the pre-correction projector frame p1, p2, p3, p4. This pre-correction projector frame is the same as the image frames p1, p2, p3 and p4 shown in Fig. 4, and is a rectangle formed when the beam projector first outputs it, and is stored in the image processing unit 140 . The PT matrix described above is also used by matching the coordinate system (c1, c2, c3, c4) of the above depth camera to the coordinate system (p1, p2, p3, p4) of the original beam projector.

다음에는 (b)로 변환된 좌표계는, 다시 최종 출력되는 빔프로젝터의 좌표계와 동일하게 매칭시켜야 한다. 최종 출력되는 빔프로젝터의 좌표계는 도 5 및 도 9의 (c)에서 붉은 색의 점으로 표시한 사각형의 프레임(np1,np2,np3,np4)이다. 이러한 과정에서도 상술한 PT행렬을 이용한다. 즉, (b)에 도시된 이미지의 네 점의 좌표계(p1,p2,p3,p4)를 (c)에서 붉은 색점으로 표시한 좌표계(np1,np2,np3,np4)로 PT행렬을 이용하여 매칭시킨다. Next, the coordinate system converted into (b) should be matched with the coordinate system of the finally outputted beam projector. The coordinate system of the finally outputted beam projector is rectangular frames (np1, np2, np3, np4) indicated by red dots in Figs. 5 and 9C. In this process, the PT matrix described above is used. That is, the coordinate system (p1, p2, p3, p4) of the image shown in (b) is matched with the coordinate system (np1, np2, np3, np4) .

이렇게 되면 실질적으로 뎁스 카메라에서 얻은 이미지 정보와 실질적으로 빔프로젝터에서 출력되는 이미지 정보의 좌표값이 완전하게 일치하게 된다. 이와 같이 일치한다는 것은 실질적으로 뎁스 카메라에서 얻은 이미지가 가지고 있는 정보와 실제로 빔프로젝터에서 출력하는 정보가 완전히 일치하는 것을 의미하게 된다. 따라서 빔프로젝터는 뎁스 카메라가 얻은 좌표값이 기초하여 오차 없이 특정한 색을 비평면 스크린에 출력하는 것이 가능하게 될 것이다. In this case, the image information substantially obtained from the depth camera substantially coincides with the coordinate value of the image information substantially output from the beam projector. This coincidence means that the information actually possessed by the image obtained by the depth camera is completely identical to the information output by the beam projector. Thus, the beam projector will be able to output a specific color to the non-planar screen without error based on the coordinate values obtained by the depth camera.

이와 같이 보정과정을 거쳐서 비평면 스크린(10)에 출력되는 이미지는, 비평면 스크린(10)이 가지는 형상의 높이값과 완전히 일치하게 될 것이다. 그리고 상술한 바와 같이 비평면 스크린(10)의 형상이 외력에 의하여 변형되면, 뎁스 카메라에서 촬영되고 이는 상기 영상처리부(140)에서 제어부의 제어하에 상술한 과정의 처리를 수행한 후, 프로젝터를 통하여 출력될 것이다. 따라서 비평면 스크린에서의 형상 변화에 실시간으로 반응하면서 변화된 형상에 대응하는 이미지가 빔프로젝터에서 출력될 수 있게 된다. The image thus output through the correction process to the non-planar screen 10 will be completely consistent with the height value of the shape of the non-planar screen 10. If the shape of the non-planar screen 10 is deformed by the external force as described above, it is photographed by the depth camera, and the image processing unit 140 performs the process of the above-described process under the control of the control unit, Will be output. Therefore, the image corresponding to the changed shape can be output from the beam projector while responding to the shape change on the non-planar screen in real time.

이상에서 살펴본 바와 같은 본 발명에 의하면 뎁스카메라에서 얻어진 XYZ축에 대한 정보에 기초하여, 비평면 스크린에서 구현된 형상의 높이에 따라 이에 대응하는 칼라를 가지는 이미지가 비평면 스크린에 투사되도록 하는 것을 기본적인 기술적 사상으로 하고 있음을 알 수 있다. According to the present invention as described above, the image having the corresponding color is projected on the non-planar screen according to the height of the shape realized on the non-planar screen, based on the information about the XYZ axis obtained from the depth camera. It can be seen that it is technological thought.

이와 같은 본 발명의 기본적인 기술적 사상의 범주 내에서, 당업계의 통상의 기술자에게 있어서는 다른 여러 가지 변형이 가능함은 물론이고, 본 발명의 보호범위는 첨부한 특허청구의 범위에 기초하여 해석되어야 함은 당연하다.It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the present invention as defined by the appended claims. Of course.

10 ..... 비평면 스크린
20 ..... 뎁스 카메라
30 ..... 빔프로젝터
50 ..... 보정 전 스크린 이미지 프레임
60 ..... 보정후 스크린 이미지 프레임
70 ..... 보정 전 프로젝터 이미지 프레임
10 ..... Non-flat screen
20 ..... depth camera
30 ..... beam projector
50 ..... Screen image frame before correction
60 ..... Screen image frame after correction
70 ..... Pre-compensation projector image frame

Claims (10)

형상의 변경이 가능한 비평면 스크린의 이미지와 이미지의 각 픽셀에 대한 XYZ축 정보를 읽어내는 뎁스 카메라와;
상기 뎁스 카메라에서 측정한 각 픽셀에 대한 Z축 정보를, Z축 정보에 상응하는 칼라값 또는 이미지로 변환하는 영상처리부;
상기 영상처리부에서 변환된 칼라값 또는 이미지를 스크린의 이미지에 대응하는 위치에 출력하는 빔프로젝터; 그리고
상기 영상처리부를 제어하여 빔프로젝터가 출력되도록 하는 제어부를 포함하여 구성되고;
비평면 스크린의 형상의 변경에 따라서, 빔프로젝터가 출력하는 이미지도 같이 변경되는 것을 특징으로 하는 비평면 스크린을 이용한 프로젝션 장치.
A depth camera for reading the image of the non-planar screen capable of changing the shape and the XYZ axis information for each pixel of the image;
An image processor for converting the Z-axis information of each pixel measured by the depth camera into a color value or an image corresponding to the Z-axis information;
A beam projector for outputting the color value or the image converted by the image processing unit at a position corresponding to the image of the screen; And
And a control unit controlling the image processing unit to output the beam projector;
Wherein the image outputted by the beam projector is changed in accordance with the change of the shape of the non-planar screen.
제 1 항에 있어서, 상기 제어부의 제어하에 영상처리부에 인가될 신호를 입력받기 위한 입력부를 더 포함하여 구성되는 비평면 스크린을 이용한 프로젝션 장치.
The projection apparatus according to claim 1, further comprising an input unit for receiving a signal to be applied to the image processing unit under the control of the control unit.
제 1 항 또는 제 2 항에 있어서, 상기 빔프로젝터가 출력하는 이미지의 프레임을 스크린과 일치시키는 스크린 보정수단을 더 포함하여 구성되는 비평면 스크린을 이용한 프로젝션 장치.
3. The projection apparatus according to claim 1 or 2, further comprising screen correcting means for matching the frame of the image output by the beam projector with the screen.
제 3 항에 있어서, 뎁스 카메라에서 얻은 이미지를, 상기 보정수단에 의하여 보정된 빔프로젝터의 출력 이미지를 일치시키는 변환수단을 더 포함하여 구성되는 비평면 스크린을 이용한 프로젝션 장치.
4. The projection apparatus according to claim 3, further comprising conversion means for matching the image obtained by the depth camera with the output image of the beam projector corrected by the correction means.
제 1 항 또는 제 2 항에 있어서, 뎁스 카메라에 의하여 획득된 XYZ축 정보에 기초하여, 제어부는 비평면 스크린상의 객체를 판단하고, 상기 객체에 대응하는 이미지를 빔프로젝터가 출력하도록 제어하는 비평면 스크린을 이용한 프로젝션 장치.
3. The apparatus according to claim 1 or 2, wherein, based on the XYZ-axis information obtained by the depth camera, the control unit judges the object on the non-planar screen and controls the non-planar surface to control the beam projector to output the image corresponding to the object Projection device using screen.
뎁스카메라에 의하여, 형상의 변경이 가능한 비평면 스크린의 이미지 및 이미지를 형성하는 각 픽셀의 XYZ값 정보를 입력받는 과정;
상기 XYZ값 정보 중에서 Z값 정보를 대응하는 칼라값 또는 이미지로 변환하는 과정; 그리고
상기 XY값에 대응하는 위치에 대하여, Z값 정보에 대응하는 상이한 칼라 또는 이미지를 출력하도록 빔프로젝터를 제어하는 과정을 포함하여 구성되고;
상기 비평면 스크린의 형상 변경에 따라서 칼라 또는 이미지의 출력도 같이 변경됨을 특징으로 하는 비평면 스크린을 이용한 프로젝션 방법.
Receiving a XYZ value information of each pixel forming an image and an image of a non-planar screen capable of changing a shape by a depth camera;
Converting the Z value information among the XYZ value information into a corresponding color value or image; And
And controlling the beam projector to output a different color or image corresponding to the Z value information with respect to the position corresponding to the XY value;
Wherein the output of the color or image changes as the shape of the non-planar screen changes.
제 6 항에 있어서, 빔프로젝터에 의하여 출력되어 스크린에 형성되는 이미지 프레임을 스크린과 일치하도록 보정하는 스크린 보정과정을 더 포함하여 구성되는 비평면 스크린을 이용한 프로젝션 방법.
7. The projection method according to claim 6, further comprising a screen correcting step of correcting the image frame output by the beam projector and formed on the screen to coincide with the screen.
제 7항에 있어서, 상기 스크린 보정 과정은,
스크린 상에서 직사각형의 보정후 스크린 이미지 프레임(sa1,sa2,sa3,sa4)을 입력받고, 이를 보정된 프로젝터 좌표계(np1,np2,np3,np4)로 연산한 후, 프로젝터 좌표계의 보정 전 이미지 프레임(p1,p2,p3,p4)을 PT(perspective transform) 행렬을 이용하여 보정후 프로젝터 좌표계로 변환하는 것에 의하여 이루어지는 비평면 스크린을 이용한 프로젝션 방법.
8. The method of claim 7,
After the screen image frames sa1, sa2, sa3 and sa4 after rectification on the screen are received and computed by the corrected projector coordinate systems np1, np2, np3 and np4, the pre-correction image frame p1 in the projector coordinate system , p2, p3, p4) are transformed into a projector coordinate system using a perspective transform (PT) matrix and then transformed into a projector coordinate system.
제 8 항에 있어서,
상기 보정된 프로젝터 좌표계와 뎁스 카메라에서 입력된 카메라 좌표계를 일치시키는 매칭과정을 더 포함하여 구성되는 비평면 스크린을 이용한 프로젝션 방법.
9. The method of claim 8,
Further comprising a matching step of matching the corrected projected coordinate system with a camera coordinate system input from the depth camera.
제 9 항에 있어서, 상기 매칭과정은,
스크린에 투사된 빔프로젝터의 화상에 기초하여, Z값을 일치시키는 과정과,
뎁스카메라에서 좔영된 빔프로젝트의 투사 이미지 프레임(c1,c2,c3,c4)를 입력받고, 이를 PT(perspective transform) 행렬을 이용하여 프로젝터 좌표계에서의 보정 전 이미지 프레임(p1,p2,p3,p4)로 변환하는 과정, 그리고 이를 PT(perspective transform) 행렬을 이용하여 프로젝터 좌표계에서의 보정후 이미지프레임(np1,np2,np3,np4)로 변환하는 과정을 포함하는 비평면 스크린을 이용한 프로젝션 방법.







10. The method of claim 9,
A process of matching Z values based on an image of a beam projector projected on a screen,
(P1, p2, p3, p4) in the projector coordinate system by using a perspective transform (PT) matrix, and receives projection image frames c1, c2, c3 and c4 of the beam project projected by the depth camera And transforming the transformed image frame into a corrected image frame (np1, np2, np3, np4) in a projector coordinate system using a perspective transform matrix (PT).







KR1020130062692A 2013-05-31 2013-05-31 Projection device on nonflat screen and method therefor KR101408295B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130062692A KR101408295B1 (en) 2013-05-31 2013-05-31 Projection device on nonflat screen and method therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130062692A KR101408295B1 (en) 2013-05-31 2013-05-31 Projection device on nonflat screen and method therefor

Publications (1)

Publication Number Publication Date
KR101408295B1 true KR101408295B1 (en) 2014-06-17

Family

ID=51133131

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130062692A KR101408295B1 (en) 2013-05-31 2013-05-31 Projection device on nonflat screen and method therefor

Country Status (1)

Country Link
KR (1) KR101408295B1 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101634348B1 (en) * 2015-10-05 2016-06-28 (주)한국해양기상기술 Method and system for outputting virtual meteorological phenomena on the three dimensional object
KR20170013704A (en) * 2015-07-28 2017-02-07 주식회사 카이 Method and system for generation user's vies specific VR space in a Projection Environment
CN106569382A (en) * 2016-10-26 2017-04-19 深圳奥比中光科技有限公司 Laser projector and depth camera thereof
KR101740329B1 (en) * 2015-08-04 2017-05-29 한국전자통신연구원 Apparatus for displaying image contents based on pop-up book and method thereof
KR101748038B1 (en) 2015-10-08 2017-06-16 김성현 The playing device for children' cognitive improvement
KR101800612B1 (en) 2016-01-28 2017-11-23 허상훈 Apparatus for vibration generating in augmented reality environment using three-dimensional model and method thereof
KR101846311B1 (en) * 2016-12-30 2018-04-06 동의대학교 산학협력단 Sand Table System Based on Spatial Augmented Reality
KR101847108B1 (en) * 2016-12-02 2018-04-10 하동훈 System and method for augumented reality system using 3-dimension pattern recognition
KR20200045176A (en) * 2018-10-22 2020-05-04 경희대학교 산학협력단 Robust display system and method using depth camera and flight vehicle
KR20200088712A (en) * 2019-01-15 2020-07-23 주식회사 씨제이이엔엠 Broadcasting effect system and method using laser

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006140831A (en) * 2004-11-12 2006-06-01 Hitachi Ltd Projector device
JP2012220709A (en) * 2011-04-08 2012-11-12 Sanyo Electric Co Ltd Projection type image display apparatus and control method for the same
KR20130071100A (en) * 2011-12-20 2013-06-28 허상훈 Apparatus and method for projection image into three-dimensional model

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006140831A (en) * 2004-11-12 2006-06-01 Hitachi Ltd Projector device
JP2012220709A (en) * 2011-04-08 2012-11-12 Sanyo Electric Co Ltd Projection type image display apparatus and control method for the same
KR20130071100A (en) * 2011-12-20 2013-06-28 허상훈 Apparatus and method for projection image into three-dimensional model

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170013704A (en) * 2015-07-28 2017-02-07 주식회사 카이 Method and system for generation user's vies specific VR space in a Projection Environment
KR101713875B1 (en) * 2015-07-28 2017-03-09 주식회사 카이 Method and system for generation user's vies specific VR space in a Projection Environment
KR101740329B1 (en) * 2015-08-04 2017-05-29 한국전자통신연구원 Apparatus for displaying image contents based on pop-up book and method thereof
KR101634348B1 (en) * 2015-10-05 2016-06-28 (주)한국해양기상기술 Method and system for outputting virtual meteorological phenomena on the three dimensional object
KR101748038B1 (en) 2015-10-08 2017-06-16 김성현 The playing device for children' cognitive improvement
KR101800612B1 (en) 2016-01-28 2017-11-23 허상훈 Apparatus for vibration generating in augmented reality environment using three-dimensional model and method thereof
CN106569382A (en) * 2016-10-26 2017-04-19 深圳奥比中光科技有限公司 Laser projector and depth camera thereof
KR101847108B1 (en) * 2016-12-02 2018-04-10 하동훈 System and method for augumented reality system using 3-dimension pattern recognition
KR101846311B1 (en) * 2016-12-30 2018-04-06 동의대학교 산학협력단 Sand Table System Based on Spatial Augmented Reality
KR20200045176A (en) * 2018-10-22 2020-05-04 경희대학교 산학협력단 Robust display system and method using depth camera and flight vehicle
KR102133492B1 (en) * 2018-10-22 2020-07-13 경희대학교 산학협력단 Robust display system and method using depth camera and flight vehicle
KR20200088712A (en) * 2019-01-15 2020-07-23 주식회사 씨제이이엔엠 Broadcasting effect system and method using laser
KR102153751B1 (en) * 2019-01-15 2020-09-08 주식회사 씨제이이엔엠 Broadcasting effect system and method using laser

Similar Documents

Publication Publication Date Title
KR101408295B1 (en) Projection device on nonflat screen and method therefor
US7055958B2 (en) Image projection method and device
KR100660039B1 (en) Image processing system, projector, information storage medium and image processing method
CN108028900B (en) Projection apparatus, projection method, and program storage medium
US10378877B2 (en) Image processing device, image processing method, and program
US20050214662A1 (en) Image processing system, projector, program, information storage medium, and image processing method
US8491128B2 (en) System and method for projection correction by capturing projection image
JP2020187358A (en) Projection system, projection apparatus and calibrating method for displayed image thereof
CN107147888B (en) Method and device for automatically correcting distortion by utilizing graphics processing chip
JP2016519330A (en) System and method for calibrating a display system using a short focus camera
WO2018235163A1 (en) Calibration device, calibration chart, chart pattern generation device, and calibration method
CN112734860B (en) Arc-screen prior information-based pixel-by-pixel mapping projection geometric correction method
US8449121B2 (en) Image processing system, projector, method and computer program product
US11488354B2 (en) Information processing apparatus and information processing method
KR102133492B1 (en) Robust display system and method using depth camera and flight vehicle
KR102093622B1 (en) Method and apparatus for real-time correction of projector image using depth camera
JP4572377B2 (en) Image processing system, projector, program, information storage medium, and image processing method
JP2010283674A (en) Projection system and projection method
US20190394435A1 (en) Apparatus and method for image processing and storage medium storing program for the same
US8982286B2 (en) Projection apparatus, projection method and computer-readable storage medium for correcting a projection state being projected onto curved surface
JP6990694B2 (en) Projector, data creation method for mapping, program and projection mapping system
JP2011155412A (en) Projection system and distortion correction method in the same
EP3606061B1 (en) Projection device, projection system and an image calibration method
US11284052B2 (en) Method for automatically restoring a calibrated state of a projection system
JP6550688B2 (en) Projection device

Legal Events

Date Code Title Description
A201 Request for examination
A302 Request for accelerated examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170804

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20181225

Year of fee payment: 5

R401 Registration of restoration
FPAY Annual fee payment

Payment date: 20190624

Year of fee payment: 6