KR20210014529A - 움직이는 객체에 대한 프로젝션을 수행하는 서버, 방법 및 컴퓨터 프로그램 - Google Patents

움직이는 객체에 대한 프로젝션을 수행하는 서버, 방법 및 컴퓨터 프로그램 Download PDF

Info

Publication number
KR20210014529A
KR20210014529A KR1020190092726A KR20190092726A KR20210014529A KR 20210014529 A KR20210014529 A KR 20210014529A KR 1020190092726 A KR1020190092726 A KR 1020190092726A KR 20190092726 A KR20190092726 A KR 20190092726A KR 20210014529 A KR20210014529 A KR 20210014529A
Authority
KR
South Korea
Prior art keywords
tracker
optical signal
value
projection
screen
Prior art date
Application number
KR1020190092726A
Other languages
English (en)
Inventor
최강현
김이길
Original Assignee
주식회사 케이티
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 케이티 filed Critical 주식회사 케이티
Priority to KR1020190092726A priority Critical patent/KR20210014529A/ko
Publication of KR20210014529A publication Critical patent/KR20210014529A/ko

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • G03B21/142Adjusting of projection optics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/363Image reproducers using image projection screens
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/388Volumetric displays, i.e. systems where the image is built up from picture elements distributed through a volume
    • H04N13/39Volumetric displays, i.e. systems where the image is built up from picture elements distributed through a volume the picture elements emitting light at places where a pair of light beams intersect in a transparent material

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Projection Apparatus (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

움직이는 객체에 대한 프로젝션을 수행하는 서버는 두 개의 신호 발생 장치로부터 제 1 트래커가 부착되어 움직이는 실제 객체를 향해 광신호가 출력되는 경우, 광신호에 기초하여 제 1 트래커에 의해 처리된 광신호 처리 데이터를 제 1 트래커로부터 수신하는 수신부; 수신한 광신호 처리 데이터에 기초하여 실제 객체에 대한 위치값을 도출하는 도출부; 도출된 실제 객체에 대한 위치값에 기초하여 영상을 렌더링하고, 프로젝터를 통해 스크린 및 실제 객체를 향해 렌더링된 영상을 투사하는 투사부를 포함할 수 있다.

Description

움직이는 객체에 대한 프로젝션을 수행하는 서버, 방법 및 컴퓨터 프로그램{SERVER, METHOD AND COMPUTER PROGRAM FOR PROJECTING IMAGE OF MOVING OBJECT}
본 발명은 움직이는 객체에 대한 프로젝션을 수행하는 서버, 방법 및 컴퓨터 프로그램에 관한 것이다.
프로젝터를 이용한 스크린 투사 방법은 디지털미디어 아트 등의 미술, 공연 예술뿐 아니라 교육 등 각 분야에서 폭 넓게 활용되고 있다.
기존의 프로젝터를 이용한 스크린 투사 방법은 화면이 표시되는 스크린의 크기 및 위치가 고정되어, 프로젝터가 일정한 방향, 각도 및 초점으로 영상을 투사하였다. 이와 같은 종래의 방법은 영화관과 같이 고정된 스크린에서는 큰 문제가 없지만, 연극이나 공연 무대 내 객체(즉, 프로젝션 매핑의 대상)가 움직이는 환경에서는 적용되기 어렵다는 문제가 있었다.
한편, 움직이는 객체에 3D 프로젝션 매핑이 이루어지기 위한 방법으로는 해당 객체에 동작 감지 센서를 부착하여 실시간으로 물체의 위치를 추적하는 방법과 깊이 카메라를 이용해 비전 인식 기술을 사용하는 방법이 있다.
이러한, RGB-D 카메라를 이용한 동적 프로젝션 매핑 방법은 움직이는 객체의 위치를 실시간으로 검출할 때의 신뢰도가 떨어지는 단점이 있는 반면, 동작 감지 센서를 이용한 동적 프로젝션 매핑 방법은 객체의 위치 검출에 대한 정확도가 높고 객체의 움직임에 대한 반응 속도가 높다는 장점이 있다.
하지만, 기존의 동작 감지 센서를 이용한 동적 프로젝션 매핑 방법은 객체의 각 면마다 동작 감지 센서를 부착해야 하고, 객체의 각 면으로 프로젝션할 프로젝터가 복수개 필요하기 때문에 장비 구입 비용이 많이 드는 단점이 있다. 예를 들어, 이동 객체가 직육면체의 형태를 갖는 경우, 6개의 동작 감지 센서 및 6개의 프로젝터가 필요하다.
한국등록특허공보 제10-1465497호 (2014.11.20. 등록)
본 발명은 전술한 종래 기술의 문제점을 해결하기 위한 것으로서, 실제 객체에 부착된 하나의 트래커로부터 수신된 광신호 처리 데이터에 기초하여 실제 객체에 대한 위치값을 도출하고, 실제 객체에 대한 위치값에 따라 프로젝터를 통해 스크린 및 실제 객체를 향해 렌더링된 영상을 투사하고자 한다. 다만, 본 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.
상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 제 1 측면에 따른 프로젝션을 수행하는 서버는 두 개의 신호 발생 장치로부터 제 1 트래커가 부착되어 움직이는 실제 객체를 향해 광신호가 출력되는 경우, 상기 광신호에 기초하여 상기 제 1 트래커에 의해 처리된 광신호 처리 데이터를 상기 제 1 트래커로부터 수신하는 수신부; 상기 수신한 광신호 처리 데이터에 기초하여 상기 실제 객체에 대한 위치값을 도출하는 도출부; 상기 도출된 실제 객체에 대한 위치값에 기초하여 영상을 렌더링하고, 상기 프로젝터를 통해 스크린 및 상기 실제 객체를 향해 상기 렌더링된 영상을 투사하는 투사부를 포함할 수 있다.
본 발명의 제 2 측면에 따른 프로젝션 수행 서버에 의해 수행되는 프로젝션을 수행하는 방법은 두 개의 신호 발생 장치로부터 제 1 트래커가 부착되어 움직이는 실제 객체를 향해 광신호가 출력되는 경우, 상기 광신호에 기초하여 상기 제 1 트래커에 의해 처리된 광신호 처리 데이터를 상기 제 1 트래커로부터 수신하는 단계; 상기 수신한 광신호 처리 데이터에 기초하여 상기 실제 객체에 대한 위치값을 도출하는 단계; 상기 도출된 실제 객체에 대한 위치값에 기초하여 영상을 렌더링하는 단계; 및 상기 프로젝터를 통해 스크린 및 상기 실제 객체를 향해 상기 렌더링된 영상을 투사하는 단계를 포함할 수 있다.
본 발명의 제 3 측면에 따른 프로젝션을 수행하는 명령어들의 시퀀스를 포함하는 매체에 저장된 컴퓨터 프로그램은 컴퓨팅 장치에 의해 실행될 경우, 두 개의 신호 발생 장치로부터 제 1 트래커가 부착되어 움직이는 실제 객체를 향해 광신호가 출력되는 경우, 상기 광신호에 기초하여 상기 제 1 트래커에 의해 처리된 광신호 처리 데이터를 상기 제 1 트래커로부터 수신하고, 상기 수신한 광신호 처리 데이터에 기초하여 상기 실제 객체에 대한 위치값을 도출하고, 상기 도출된 실제 객체에 대한 위치값에 기초하여 영상을 렌더링하고, 상기 프로젝터를 통해 스크린 및 상기 실제 객체를 향해 상기 렌더링된 영상을 투사하는 명령어들의 시퀀스를 포함할 수 있다.
상술한 과제 해결 수단은 단지 예시적인 것으로서, 본 발명을 제한하려는 의도로 해석되지 않아야 한다. 상술한 예시적인 실시예 외에도, 도면 및 발명의 상세한 설명에 기재된 추가적인 실시예가 존재할 수 있다.
전술한 본 발명의 과제 해결 수단 중 어느 하나에 의하면, 본 발명은 실제 객체에 부착된 하나의 트래커로부터 수신된 광신호 처리 데이터에 기초하여 실제 객체에 대한 위치값을 도출하고, 실제 객체에 대한 위치값에 따라 프로젝터를 통해 스크린 및 실제 객체를 향해 렌더링된 영상을 투사할 수 있다.
이를 통해, 본 발명은 하나의 실제 객체당 하나의 트래커 및 하나의 프로젝터만 필요하기 때문에 혼합현실 컨텐츠의 제작에 있어 제작 및 설치 비용이 적게 들뿐만 아니라, 실제 객체에 부착된 하나의 트래커를 사용하여 입체감 있는 3D 동적 프로젝션 매핑을 수행할 수 있다. 또한, 본 발명은 실제 객체 및 실제 객체 이외의 공간에도 프로젝션이 가능하기 때문에 3D 동적 프로젝션 매핑과 2D 프로젝션 매핑을 동시에 수행할 수 있다.
또한, 본 발명은 프로젝션될 실제 객체에 대한 위치값 및 회전값을 이용하여 소프트웨어적으로 실제 객체의 이동 및 회전에 따른 투사 영상의 크기를 조절할 수 있다.
도 1은 본 발명의 일 실시예에 따른, 프로젝션 수행 서버의 블록도이다.
도 2a 내지 2c는 본 발명의 일 실시예에 따른, 캘리브레이션 및 프로젝션을 수행하는 방법을 설명하기 위한 도면이다.
도 3a 내지 3b는 본 발명의 일 실시예에 따른, 실제 객체를 향해 프로젝션을 수행한 예시 도면이다.
도 4a 내지 4b는 종래의 프로젝션 방법의 효과 및 본 발명의 프로젝션 방법의 효과를 비교 설명하기 위한 도면이다.
도 5는 본 발명의 일 실시예에 따른, 프로젝션 수행 방법을 나타낸 흐름도이다.
아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
본 명세서에 있어서 '부(部)'란, 하드웨어에 의해 실현되는 유닛(unit), 소프트웨어에 의해 실현되는 유닛, 양방을 이용하여 실현되는 유닛을 포함한다. 또한, 1 개의 유닛이 2 개 이상의 하드웨어를 이용하여 실현되어도 되고, 2 개 이상의 유닛이 1 개의 하드웨어에 의해 실현되어도 된다.
본 명세서에 있어서 단말 또는 디바이스가 수행하는 것으로 기술된 동작이나 기능 중 일부는 해당 단말 또는 디바이스와 연결된 서버에서 대신 수행될 수도 있다. 이와 마찬가지로, 서버가 수행하는 것으로 기술된 동작이나 기능 중 일부도 해당 서버와 연결된 단말 또는 디바이스에서 수행될 수도 있다.
이하, 첨부된 구성도 또는 처리 흐름도를 참고하여, 본 발명의 실시를 위한 구체적인 내용을 설명하도록 한다.
도 1은 본 발명의 일 실시예에 따른, 프로젝션 수행 서버의 블록도이다.
도 1을 참조하면, 프로젝션 수행 서버(10)는 프러스텀 생성부(100), 캘리브레이션 수행부(110), 수신부(120), 도출부(130) 및 투사부(140)를 포함할 수 있다. 다만, 도 1에 도시된 프로젝션 수행 서버(10)는 본 발명의 하나의 구현 예에 불과하며, 도 1에 도시된 구성요소들을 기초로 하여 여러 가지 변형이 가능하다.
이하, 도 1과 도 2a를 함께 참조하여 3D 동적 프로젝션 과정을 설명하기로 한다.
도 1과 도 2a를 참조하면, 캘리브레이션이 완료된 후, 3D 동적 프로젝션 매핑을 수행하기 위해, 현실 공간에서 프로젝션할 움직이는 실제 객체(50)에 제 1 트래커(201)를 장착한다. 이 때, 실제 객체(50)의 모양과 제 1 트래커(201)가 장착되는 위치는 사용자에 의해 자유롭게 결정될 수 있다.
제 1 신호 발생 장치(40) 및 제 2 신호 발생 장치(42) 각각은 제 1 트래커(201)가 부착된 실제 객체(50)를 대각선 방향에서 바라보도록 배치될 수 있다. 제 1 신호 발생 장치(40) 및 제 2 신호 발생 장치(42)는 배치된 위치에서 고정되어 광신호를 출력할 수 있다.
제 1 트래커(201)는 각 신호 발생 장치(40, 42)로부터 출력된 광신호 및 각 신호 발생 장치(40, 42)가 광신호를 출력한 광신호 출력 시간을 각 신호 발생 장치(40, 42)로부터 수신할 수 있다. 예를 들어, 제 1 트래커(201)는 도 2c와 같이 회전하면서 광신호(예컨대, IR 신호)를 수신할 수 있다.
제 1 트래커(201)는 신호 발생 장치(40, 42)가 출력한 광신호의 광신호 출력 시간과, 광신호를 수신한 광신호 수신 시간 간의 차이를 이용하여 제 1 트래커(201)와 각 신호 발생 장치(40, 42) 간의 거리값을 계산할 수 있다.
제 1 트래커(201)는 제 1 트래커(201)와 각 신호 발생 장치(40, 42) 간의 거리값을 포함한 광신호 처리 데이터를 프로젝션 수행 서버(10)로 전송할 수 있다.
제 1 트래커(201)는 도 2c와 같이 회전하면서 광신호를 수신하고, 수신한 신호 수신 타이밍값을 측정할 수 있다. 구체적으로, 제 1 트래커(201)는 제 1 트래커(201)를 구성하는 복수의 신호 수신기가 광신호를 수신하는 각 시간값에 기초하여 광신호를 수신한 신호 수신 타이밍값을 도출할 수 있다.
제 1 트래커(201)는 제 1 트래커(201)의 신호 수신 타이밍값을 포함하는 광신호 처리 데이터를 프로젝션 수행 서버(10)로 전송할 수 있다. 수신부(120)는 두 개의 신호 발생 장치(40, 42)로부터 제 1 트래커(201)가 부착되어 움직이는 실제 객체(50)를 향해 광신호가 출력되는 경우, 광신호에 기초하여 제 1 트래커(201)에 의해 처리된 광신호 처리 데이터를 제 1 트래커(201)로부터 수신할 수 있다. 여기서, 광신호 처리 데이터는 제 1 트래커(201) 및 신호 발생 장치(40, 42) 각각 간의 거리값을 포함할 수 있다. 여기서, 제 1 트래커(201) 및 신호 발생 장치(40, 42) 간의 거리값은 신호 발생 장치(40, 42)의 광신호 출력 시간 및 제 1 트래커(201)의 광신호 수신 시간에 기초하여 제 1 트래커에 의해 도출될 수 있다.
또한, 광신호 처리 데이터는 제 1 트래커(201)가 각 신호 발생 장치(40, 42)로부터 수신된 광신호에 대한 신호 수신 타이밍값을 더 포함할 수 있다. 여기서, 신호 수신 타이밍값은 제 1 트래커(201)를 구성하는 복수의 신호 수신기가 광신호를 수신하는 각 시간값에 기초하여 도출될 수 있다.
각 신호 발생 장치(40, 42)를 통해 광신호를 출력하기 전, 룸 셋팅(Room setting)이라고 하는 제 1 트래커(201) 및 신호 발생 장치(40, 42) 간의 캘리브레이션 과정을 수행할 수 있다. 룸 셋팅을 통해 실제 객체(50)가 위치하는 공간의 크기는 사각형으로 제한되고, 공간의 높이는 사용자에 의해 지정될 수 있다. 예를 들어, 룸셋팅을 통해 실제 객체(50)가 위치하는 공간의 크기는 mm단위까지 측정될 수 있다. 이후, 제 1 트래커(201)와 신호 발생 장치(40, 42)와의 광신호 송수신을 통해 수신 신호 타이밍값이 도출될 수 있다.
도출부(130)는 수신한 광신호 처리 데이터에 포함된 제 1 트래커(201) 및 신호 발생 장치(40, 42) 간의 거리값에 기초하여 실제 객체(50)에 대한 위치값을 도출할 수 있다. 여기서, 제 1 트래커(201) 및 신호 발생 장치(40, 42) 간의 거리값은 물리적인 공간의 크기 정보 및 수신 신호 타이밍값에 기초하여 도출될 수 있다. 예를 들어, 왼쪽의 신호 발생 장치(40)로부터 출력되는 광신호가 제 1 트래커(201)에 수신되는 시간이 0.1초이며, 오른쪽의 신호 발생 장치(42)로부터 출력되는 광신호가 트래커에 수신되는 시간이 0.9초인 경우, 최초로 수행된 룸 셋팅 과정을 통해 세팅된 물리적인 공간의 크기를 참조하여 제 1 트래커(201) 및 신호 발생 장치(40, 42) 간의 실제 거리를 알 수 있게 된다.
도출부(130)는 수신한 광신호 처리 데이터에 포함된 신호 수신 타이밍값에 기초하여 실제 객체(50)의 회전값을 더 도출할 수 있다. 구체적으로, 신호 발생 장치(40, 42)가 시간에 따라 연속적으로 회전하면서 광신호를 발산할 때, 도출부(130)는 제 1 트래커(201)에서 광신호를 수신하는 수신 신호 타이밍값 및 제 1 트래커(201)에 저장된 센서(예컨대, IMU 센서)의 센서 정보에 기초하여 실제 객체(50)의 회전값을 도출할 수 있다.
다른 예로, 도출부(130)는 각 신호 발생 장치(40, 42)의 법선벡터와, 광신호가 각 트래커(203, 205, 207)와 만나는 광신호에 대한 각도값에 기초하여 각 트래커(203, 205, 207)의 회전값을 계산할 수도 있다.
도출부(130)는 제 1 트래커(201)에 내장된 센서(예컨대, IMU 센서)에서 측정된 실제 객체(50)의 센서 정보에 기초하여 실제 객체(50)의 회전값을 보정할 수 있다.
투사부(140)는 도출된 실제 객체(50)에 대한 위치값에 기초하여 영상(가상 객체가 포함된 영상)을 렌더링하고, 프로젝터(20)를 통해 스크린(30) 및 실제 객체(50)를 향해 렌더링된 영상을 투사할 수 있다. 예를 들어, 도 3a 내지 3b를 참조하면, 투사부(140)는 실제 객체(50)의 움직임에 따른 실제 객체(50)에 대한 위치값 및 회전값을 영상에 포함된 가상 객체(301)의 위치값 및 회전값에 실시간으로 입력하여 실시간 3D 렌더링을 수행할 수 있다. 투사부(140)는 실시간으로 3D 렌더링된 영상(가상 객체(301)가 포함된 영상)을 프로젝터(20)를 통해 스크린(30) 및 실제 객체(50)를 향해 투사할 수 있다. 여기서, 가상 객체(301)는 실제 객체(50)와 다른 모양을 가질 수 있으나 실제 객체(50)의 크기보다 작게 생성된 객체일 수 있다. 이렇게 실제 객체(50)보다 작은 크기의 가상 객체(301)를 구성하게 되면, 2D 임에도 불구하고, 3D의 효과를 낼 수 있는 슈도 홀로그래픽 또는 유사 홀로그래픽 효과를 제공할 수 있다.
종래의 프로젝션 매핑 방법은 프로젝션할 객체의 각 면마다 트래커를 부착해야하기 때문에 트래커의 수가 투영되는 면의 수만큼 필요하고, 객체의 각 면으로 투사하기 위해 객체의 면의 수만큼의 프로젝터가 필요할 뿐만 아니라, 각 트래커의 위치에 따라 투사각을 조정하기 위해 투사각 조절 장치를 프로젝터의 하드웨어 상에 장착해야 한다. 가상 공간에서 각 프로젝터가 객체의 각 면에 투사할 영상을 실행할 때, 객체의 움직임에 따라 투사각의 조절이 필요하다.
이러한, 종래의 프로젝션 매핑 방법은 객체로 영상이 투영될 때 복수개의 트래커로 인해 영상이 가리게 되어 컨텐츠 시청에 대한 집중도를 저하시킬 수 있고, 사용자가 손이나 몸으로 트래커의 일부분을 가리게 되면 트래커의 위치 추적이 불가능하기 때문에 동적 프로젝션 매핑에 있어 객체의 움직임 추적이 어렵거나 투사각이 의도치 않게 변경될 수 있는 문제점이 있다.
이러한, 종래의 프로젝션 매핑 방법을 이용하게 될 경우, 객체가 육면체가 아닌 신발과 같은 객체일 경우 트래커를 여러 개 부착하기 어렵고, 면이 고르지 못한 객체에 동적 프로젝션 맵핑을 진행할 때, 트래커가 부착된 면에 대한 투사각을 만드는 것에 한계가 존재한다. 또한, 트래커가 부착된 면에 따라 각 프로젝터의 투사각이 변형되어 프로젝터가 투사하는 투사각 이외의 공간에는 투사하지 못하는 단점이 있다. 이에 반해, 본 발명의 프로젝션 매핑 방법은 객체의 면으로 투사하는 개념이 아닌 하나의 객체 자체를 인식하기 때문에 객체에 트래커가 하나만 부착되어도 동적 프로젝션 매핑이 가능하도록 구현할 수 있고, 객체에 하나의 트래커만 부착하기 때문에 기술적인 간편함을 제공할 수 있다. 또한, 프로젝터 자체의 투사각을 변경시키지 않고도 투사하려는 객체 및 객체 이외의 공간(예컨대, 스크린 등)에 영상을 투사할 수 있다.
종래의 프로젝션 매핑 방법은 투사각을 변경하기 위해 객체의 각 면마다 트래커를 부착하였으나, 본 발명은 투사각을 하드웨어적으로 변경하지 않기 때문에 동적프로젝션 매핑에 중요한 지연 시간을 줄일 수 있고, 투사되지 않는 빈 공간을 기존의 2D 평면에 프로젝션하는 것과 같이 2D 미디어 파사드 효과를 제공할 수 있다.
종래의 프로젝션 매핑 방법에서 투사각을 변경하는 것은 투사되는 객체의 각 면에 대응되는 프로젝터 마다 렌더링을 하는 것인데 반해, 본 발명의 프로젝션 매핑 방법은 투사각의 변경과 상관없이 가상 공간에 있는 가상 객체를 렌더링한다.
한편, 당업자라면, 프러스텀 생성부(100), 캘리브레이션 수행부(110), 수신부(120), 도출부(130) 및 투사부(140) 각각이 분리되어 구현되거나, 이 중 하나 이상이 통합되어 구현될 수 있음을 충분히 이해할 것이다.
도 1과 도 2b를 함께 참조하여 캘리브레이션하는 방법을 설명하기로 한다.
도 1과 도 2b를 참조하면, 프로젝터(20)가 투사하는 현실 공간의 프러스텀을 측정하기 위해서는 도 2b와 같이 스크린(30)(또는 벽면 등과 같이 투사 가능한 면)의 일측 및 타측 각각에 제 2 트래커(203) 및 제 3 트래커(205)를 장착하고, 프로젝터(20)에 제 4 트래커(207)를 장착한다. 예를 들어, 프로젝터(20)가 스크린(30)을 향해 영상을 투사할 시, 영상이 투사되는 투사 면적의 사이즈에 기초하여 스크린(30)의 일측(예컨대, 좌상단)에 제 2 트래커(203)가 설치되고, 스크린(30)의 타측(예컨대, 우하단)에 제 3 트래커(205)가 설치될 수 있다. 제 4 트래커(207)는 프로젝터(20)가 영상을 투사하는 렌즈 위 상단에 설치될 수 있다.
프로젝터(20)에 장착된 제 4 트래커(207)는 가상 카메라의 위치를 나타내고, 스크린(30)에 장착된 제 2 트래커(203) 및 제 3 트래커(205)는 프로젝터(20)가 투사하는 스크린(30)의 크기 계산과, 프로젝터(20) 및 스크린(30) 간의 거리를 계산하는데 사용될 수 있다.
제 1 신호 발생 장치(40) 및 제 2 신호 발생 장치(42)로부터 발산된 광신호는 스크린(30)에 장착된 제 2 트래커(203) 및 제 3 트래커(205)와 프로젝터(20)에 장착된 제 4 트래커(207) 각각의 외부에 부착된 광다이오드(Photodiode)에서 수신하게 된다. 이 때, 각 트래커(203, 205, 207)가 광신호를 수신하게 되면, 트래커(203, 205, 207) 내부에 내장되어 있는 변환기(Light-to-Digital Converter)를 통해 광신호가 디지털 신호로 변환된다.
여기서, 각 트래커(203, 205, 207)는 각 신호 발생 장치(40, 42)가 광신호를 출력한 광신호 출력 시간을 각 신호 발생 장치(40, 42)로부터 수신할 수 있다. 구체적으로, 각 트래커(203, 205, 207)는 신호 발생 장치(40, 42)가 출력한 광신호의 광신호 출력 시간과, 광신호를 수신한 광신호 수신 시간 간의 차이를 이용하여 각 트래커(203, 205, 207)와 각 신호 발생 장치(40, 42) 간의 거리값을 계산할 수 있다. 각 트래커(203, 205, 207)와 각 신호 발생 장치(40, 42) 간의 거리값을 통해 각 트래커(203, 205, 207)의 위치 좌표가 계산될 수 있다.
각 트래커(203, 205, 207)는 도 2c와 같이 기설정된 방향으로 회전하면서 광신호를 수신한 신호 수신 타이밍값을 측정하여 회전값(회전좌표)을 계산할 수 있다. 구체적으로, 각 트래커(203, 205, 207)는 각 트래커(203, 205, 207)를 구성하는 복수의 신호 수신기가 광신호를 수신하는 각 시간값에 기초하여 광신호를 수신한 신호 수신 타이밍값을 도출할 수 있다.
각 트래커(203, 205, 207)의 회전값은 각 신호 발생 장치(40, 42)의 법선벡터와, 광신호가 각 트래커(203, 205, 207)와 만나는 광신호에 대한 각도값에 기초하여 계산될 수 있다. 이 때, 트래커(203, 205, 207)가 신호 발생 장치(40, 42)로부터 멀어지게 되면 광신호의 수신이 약해져 정확한 회전값을 계산하기 어렵기 때문에 트래커(203, 205, 207)에 내장된 센서(예컨대, IMU 센서)에서 측정된 센서 정보에 기초하여 회전값이 보정될 수 있다. 여기서. 회전값은 가상 카메라에 대응하는 프로스텀을 생성하는데 사용되진 않는다.
각 트래커(203, 205, 207)는 계산된 회전값 및 위치좌표 중 적어도 하나를 포함하는 광신호 처리 데이터를 블루투스를 통해 프로젝션 수행 서버(10)로 전송할 수 있다. 이후, 각 트래커(203, 205, 207)에 의해 위치 좌표가 계산되면, 각 트래커(203, 205, 207)는 스크린(30) 및 프로젝터(20)로부터 제거된다.
프러스텀 생성부(100)는 각 트래커(203, 205, 207)로부터 수신된 광신호 처리 데이터에 포함된 위치좌표에 기초하여 트래커(203, 205, 207) 각각에 대한 3차원 벡터값을 계산할 수 있다.
프러스텀 생성부(100)는 스크린(30)에 장착된 제 2 트래커(203) 및 제 3 트래커(205)와 프로젝터(20)에 장착된 제 4 트래커(207) 각각에서 수신한 광신호에 대한 3차원 벡터값에 기초하여 가상 공간 상의 가상 카메라에 대응하는 프러스텀을 생성할 수 있다.
구체적으로, 프러스텀 생성부(100)는 스크린(30)에 장착된 제 2 트래커(203) 및 제 3 트래커(205) 각각에서 수신한 광신호에 대한 3차원 벡터값을 이용하여 프로젝터(20)가 실제로 투사하는 스크린(30)의 크기를 계산할 수 있다.
프러스텀 생성부(100)는 유클리디안 거리 공식을 이용하여 프로젝터(20)와 스크린(30) 간의 중앙 깊이 값을 계산할 수 있다. 프로젝터(20)와 스크린(30) 간의 중앙 깊이 값은 [수학식 1]을 통해 계산될 수 있다.
[수학식 1]
Figure pat00001
여기서,
Figure pat00002
Figure pat00003
은 각 트래커(203, 205, 207)가 출력하는 3차원 벡터 값이고,
Figure pat00004
Figure pat00005
는 제 2 트래커(203)와 제 4 트래커(207) 간의 거리 값이고,
Figure pat00006
Figure pat00007
는 제 2 트래커(203)와 제 3 트래커(205) 간의 거리 값을 2로 나누어 계산된 스크린(30) 중앙에서 제 2 트래커(203)까지의 거리값이다.
프러스텀 생성부(100)는 피타고라스 정리를 이용해 스크린(30) 중앙에서 프로젝터(20)까지의 거리인
Figure pat00008
Figure pat00009
(프로젝터(20)와 스크린(30) 간의 중앙 깊이 값)을 구할 수 있다. 여기서, 스크린(30) 중앙에서 프로젝터(20)까지의 거리(
Figure pat00010
Figure pat00011
)는 가상 공간 상의 가상 카메라에 대응하는 프러스텀의 Z축으로의 크기에 해당될 수 있다.
프러스텀 생성부(100)는 스크린(30)의 중앙으로부터 프로젝터(20)까지의 거리 정보에 기초하여 가상 카메라에 대응하는 프러스텀의 길이 정보를 계산할 수 있다. 여기서, 계산된 프러스텀의 길이 정보는 가상 카메라가 영상을 렌더링할 수 있는 최대 거리에 해당될 수 있다.
프러스텀 생성부(100)는 스크린(30)에 설치된 제 2 트래커(203) 및 제 3 트래커(205) 각각에 대한 위치 좌표에 기초하여 가상 카메라에 대응하는 프러스텀의 크기를 결정할 수 있다.
프러스텀 생성부(100)는 제 2 트래커(203)에 대한 3차원 벡터값(
Figure pat00012
Figure pat00013
)과 제 3 트래커(205)에 대한 3차원 벡터값(
Figure pat00014
Figure pat00015
)을 사용하여 스크린(30)의 4 꼭지점의 3차원 벡터를 계산할 수 있다. 계산된 스크린(30)의 4 꼭지점의 3차원 벡터를 통해 가상 공간 상의 프로스텀의 가상 위치 좌표를 도출할 수 있다.
예를 들어, 프러스텀 생성부(100)는 스크린(30)에 설치된 제 2 트래커(203) 및 제 3 트래커(205) 각각에 대한 위치 좌표에 기초하여 직사각형 형태의 프로스텀의 4꼭지점의 위치 좌표를 도출하고, 도출된 위치 좌표를 이용하여 가상 카메라에 대응하는 프러스텀의 크기를 결정할 수 있다.
프러스텀 생성부(100)는 스크린(30) 중앙에서 프로젝터(20)까지의 거리를 가상 카메라에 대응하는 프러스텀의 파(far) 플레인에 입력하고, 스크린(30)의 4 꼭지점의 3차원 벡터값을 프러스텀의 크기 플레인에 입력하여 가상 공간 상의 가상 카메라에 대응하는 프러스텀을 생성할 수 있다.
캘리브레이션 수행부(110)는 가상 공간 상의 가상 카메라에 대응하는 프러스텀과 현실 공간 상의 프로젝터(20)의 투사 사이즈를 동기화함으로써 캘리브레이션을 수행할 수 있다.
캘리브레이션 수행부(110)는 제 2 트래커(203), 제 3 트래커(205) 및 제 4 트래커(207)의 위치 좌표에 기초하여 가상 카메라에 대응하는 프러스텀의 위치를 조절하여 캘리브레이션을 수행할 수 있다.
이 경우, 한 번의 캘리브레이션이 수행되면 스크린(30)과 프로젝터(20)에 장착했던 트래커(203,205, 207)를 제거할 수 있다. 이러한 캘리브레이션 과정은 3D 동적 프로젝션 매핑을 위한 현실 공간이 바뀌거나 이동하기 전까지 캘리브레이션을 다시 수행할 필요가 없다.
종래의 캘리브레이션 방법은 캘리브레이션 툴을 통해 계산된 카메라 파라미터(내/외부 파라미터)의 조정을 위해 프로젝터의 하드웨어를 조절하거나 카메라를 이동시켜야만 했다. 프로젝터의 하드웨어를 조작하기 위해, 하드웨어 조절장치를 제작해야하는 번거로움이 있고, 조작단계에서 생기는 지연시간 및 오차누적들은 동적 프로젝션 매핑을 수행하는데 안좋은 영향을 끼치게 된다.
이에 반해, 본 발명의 캘리브레이션 방법은 캘리브레이션 툴을 통해 계산된 카메라 파라미터(내/외부 파라미터)의 조정을 위해 카메라 또는 프로젝터의 하드웨어의 조절 또는 이동을 수행하지 않고, 가상 공간 상의 가상 카메라의 위치를 조정하기 때문에 하드웨어의 조작이 불필요하다.
또한, 종래의 캘리브레이션 방법은 사용자가 직접 체스보드 등 레퍼런스할 수 있는 물체나 페이퍼를 이용하여 캘리브레이션 영역에 개입해야하는 반면, 본 발명은 프로젝터 및 스크린 각각에 부착된 트래커들(203, 205, 207)과 프로젝션 수행 서버(10) 간의 송수신을 통해 자동으로 캘리브레이션을 수행할 수 있다.
도 4a 내지 4b는 종래의 프로젝션 방법의 효과 및 본 발명의 프로젝션 방법의 효과를 비교 설명하기 위한 도면이다.
도 4a를 참조하면, 종래의 프로젝션 방법의 효과를 살펴보면, 검은색의 프레임으로 실제 객체가 있을 때, 사용자(400)가 바라보는 시선의 프러스텀에 따라 가상카메라의 프러스텀을 이동시킴으로써 사용자(400)는 프레임 안에 있는 실제 객체를 입체감이 있다고 느끼게 된다.
도 4b를 참조하면, 본 발명의 프로젝션 방법의 효과를 살펴보면, 동적 프로젝션 맵핑을 관람하는 사용자들의 시선을 모두 추적할 수 없기 때문에 프로젝터 중앙에 사용자(400)가 위치하고, 사용자(400)가 이동하지 않아도 현실공간의 실제 객체 자체의 움직임으로 인해 입체감이 있다고 느끼게 된다.
도 5는 본 발명의 일 실시예에 따른, 프로젝션 수행 방법을 나타낸 흐름도이다.
도 5를 참조하면, 단계 S501에서 프로젝션 수행 서버(10)는 두 개의 신호 발생 장치(40, 42)로부터 제 1 트래커(201)가 부착되어 움직이는 실제 객체(50)를 향해 광신호가 출력되는 경우, 광신호에 기초하여 제 1 트래커(201)에 의해 처리된 광신호 처리 데이터를 제 1 트래커(201)로부터 수신할 수 있다.
단계 S503에서 프로젝션 수행 서버(10)는 수신한 광신호 처리 데이터에 기초하여 실제 객체(50)에 대한 위치값을 도출할 수 있다.
단계 S505에서 프로젝션 수행 서버(10)는 도출된 실제 객체(50)에 대한 위치값에 기초하여 영상을 렌더링할 수 있다.
단계 S507에서 프로젝션 수행 서버(10)는 프로젝터(20)를 통해 스크린(30) 및 실제 객체(50)를 향해 렌더링된 영상을 투사할 수 있다.
상술한 설명에서, 단계 S501 내지 S507은 본 발명의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 변경될 수도 있다.
본 발명의 일 실시예는 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행 가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다.
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.
본 발명의 범위는 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
10: 프로젝션 수행 서버
100: 프러스텀 생성부
110: 캘리브레이션 수행부
120: 수신부
130: 도출부
140: 투사부

Claims (17)

  1. 움직이는 객체에 대한 프로젝션을 수행하는 서버에 있어서,
    두 개의 신호 발생 장치로부터 제 1 트래커가 부착되어 움직이는 실제 객체를 향해 광신호가 출력되는 경우, 상기 광신호에 기초하여 상기 제 1 트래커에 의해 처리된 광신호 처리 데이터를 상기 제 1 트래커로부터 수신하는 수신부;
    상기 수신한 광신호 처리 데이터에 기초하여 상기 실제 객체에 대한 위치값을 도출하는 도출부; 및
    상기 도출된 실제 객체에 대한 위치값에 기초하여 영상을 렌더링하고, 프로젝터를 통해 스크린 및 상기 실제 객체를 향해 상기 렌더링된 영상을 투사하는 투사부
    를 포함하는 것인, 프로젝션 수행 서버.
  2. 제 1 항에 있어서,
    상기 스크린에 장착된 제 2 트래커 및 제 3 트래커와 상기 프로젝터에 장착된 제 4 트래커 각각에서 수신한 광신호에 대한 3차원 벡터값에 기초하여 가상 공간 상의 가상 카메라에 대응하는 프러스텀을 생성하는 프러스텀 생성부; 및
    상기 제 2 트래커, 상기 제 3 트래커 및 상기 제 4 트래커의 위치 좌표에 기초하여 상기 가상 카메라에 대응하는 프러스텀의 위치를 조절하여 캘리브레이션을 수행하는 캘리브레이션 수행부를 더 포함하는 것인, 프로젝션 수행 서버.
  3. 제 2 항에 있어서,
    상기 프로젝터가 상기 스크린을 향해 영상을 투사할 시, 상기 영상이 투사되는 투사 면적의 사이즈에 기초하여 상기 스크린의 일측에 상기 제 2 트래커가 설치되고, 상기 스크린의 타측에 상기 제 3 트래커가 설치되는 것인, 프로젝션 수행 서버.
  4. 제 3 항에 있어서,
    상기 프러스텀 생성부는 상기 스크린에 설치된 제 2 트래커 및 제 3 트래커 각각에 대한 위치 좌표에 기초하여 상기 가상 카메라에 대응하는 프러스텀의 크기를 결정하는 것인, 프로젝션 수행 서버.
  5. 제 1 항에 있어서,
    상기 광신호 처리 데이터는 상기 제 1 트래커 및 상기 신호 발생 장치 간의 거리값을 포함하고,
    상기 제 1 트래커 및 상기 신호 발생 장치 간의 거리값은 상기 신호 발생 장치의 광신호 출력 시간 및 상기 제 1 트래커의 광신호 수신 시간에 기초하여 상기 제 1 트래커에 의해 도출되고
    상기 도출부는 상기 제 1 트래커 및 상기 신호 발생 장치 간의 거리값에 기초하여 상기 위치값을 도출하는 것인, 프로젝션 수행 서버.
  6. 제 5 항에 있어서,
    상기 광신호 처리 데이터는 상기 제 1 트래커의 신호 수신 타이밍값을 포함하고,
    상기 신호 수신 타이밍값은 상기 제 1 트래커를 구성하는 복수의 신호 수신기가 상기 광신호를 수신하는 각 시간값에 기초하여 도출되고,
    상기 도출부는 상기 신호 수신 타이밍값에 기초하여 상기 실제 객체의 회전값을 더 도출하는 것인, 프로젝션 수행 서버.
  7. 제 6 항에 있어서,
    상기 도출부는 상기 제 1 트래커에 내장된 센서에서 측정된 상기 실제 객체의 센서 정보에 기초하여 상기 실제 객체의 회전값을 보정하는 것인, 프로젝션 수행 서버.
  8. 제 2 항에 있어서,
    상기 프러스텀 생성부는 상기 스크린의 중앙으로부터 상기 프로젝터까지의 거리 정보에 기초하여 상기 가상 카메라에 대응하는 프러스텀의 길이 정보를 계산하고,
    상기 계산된 프러스텀의 길이 정보는 상기 가상 카메라가 상기 영상을 렌더링할 수 있는 최대 거리인 것인, 프로젝션 수행 서버.
  9. 프로젝션 수행 서버에 의해 수행되는 움직이는 객체에 대한 프로젝션을 수행하는 방법에 있어서,
    두 개의 신호 발생 장치로부터 제 1 트래커가 부착되어 움직이는 실제 객체를 향해 광신호가 출력되는 경우, 상기 광신호에 기초하여 상기 제 1 트래커에 의해 처리된 광신호 처리 데이터를 상기 제 1 트래커로부터 수신하는 단계;
    상기 수신한 광신호 처리 데이터에 기초하여 상기 실제 객체에 대한 위치값을 도출하는 단계;
    상기 도출된 실제 객체에 대한 위치값에 기초하여 영상을 렌더링하는 단계; 및
    프로젝터를 통해 스크린 및 상기 실제 객체를 향해 상기 렌더링된 영상을 투사하는 단계
    를 포함하는 것인, 프로젝션 수행 방법
  10. 제 9 항에 있어서,
    상기 스크린에 장착된 제 2 트래커 및 제 3 트래커와 상기 프로젝터에 장착된 제 4 트래커 각각에서 수신한 광신호에 대한 3차원 벡터값에 기초하여 가상 공간 상의 가상 카메라에 대응하는 프러스텀을 생성하는 단계; 및
    상기 제 2 트래커, 상기 제 3 트래커 및 상기 제 4 트래커의 위치 좌표에 기초하여 상기 가상 카메라에 대응하는 프러스텀의 위치를 조절하여 캘리브레이션을 수행하는 단계를 더 포함하는 것인, 프로젝션 수행 방법
  11. 제 10 항에 있어서,
    상기 프로젝터가 상기 스크린을 향해 영상을 투사할 시, 상기 영상이 투사되는 투사 면적의 사이즈에 기초하여 상기 스크린의 일측에 상기 제 2 트래커가 설치되고, 상기 스크린의 타측에 상기 제 3 트래커가 설치되는 것인, 프로젝션 수행 방법
  12. 제 11 항에 있어서,
    상기 스크린에 설치된 제 2 트래커 및 제 3 트래커 각각에 대한 위치 좌표에 기초하여 상기 가상 카메라에 대응하는 프러스텀의 크기를 결정하는 단계를 더 포함하는 것인, 프로젝션 수행 방법
  13. 제 9 항에 있어서,
    상기 광신호 처리 데이터는 상기 제 1 트래커 및 상기 신호 발생 장치 간의 거리값을 포함하고,
    상기 제 1 트래커 및 상기 신호 발생 장치 간의 거리값은 상기 신호 발생 장치의 광신호 출력 시간 및 상기 제 1 트래커의 광신호 수신 시간에 기초하여 상기 제 1 트래커에 의해 도출되되,
    상기 제 1 트래커 및 상기 신호 발생 장치 간의 거리값에 기초하여 상기 위치값을 도출하는 단계를 더 포함하는 것인, 프로젝션 수행 방법
  14. 제 13 항에 있어서,
    상기 광신호 처리 데이터는 상기 제 1 트래커의 신호 수신 타이밍값을 포함하고,
    상기 신호 수신 타이밍값은 상기 제 1 트래커를 구성하는 복수의 신호 수신기가 상기 광신호를 수신하는 각 시간값에 기초하여 도출되되,
    상기 신호 수신 타이밍값에 기초하여 상기 실제 객체의 회전값을 더 도출하는 단계를 더 포함하는 것인, 프로젝션 수행 방법
  15. 제 14 항에 있어서,
    상기 제 1 트래커에 내장된 센서에서 측정된 상기 실제 객체의 센서 정보에 기초하여 상기 실제 객체의 회전값을 보정하는 단계를 더 포함하는 것인, 프로젝션 수행 방법
  16. 제 10 항에 있어서,
    상기 스크린의 중앙으로부터 상기 프로젝터까지의 거리 정보에 기초하여 상기 가상 카메라에 대응하는 프러스텀의 길이 정보를 계산하는 단계를 더 포함하고,
    상기 계산된 프러스텀의 길이 정보는 상기 가상 카메라가 상기 영상을 렌더링할 수 있는 최대 거리인 것인, 프로젝션 수행 방법
  17. 움직이는 객체에 대한 프로젝션을 수행하는 명령어들의 시퀀스를 포함하는 매체에 저장된 컴퓨터 프로그램에 있어서,
    상기 컴퓨터 프로그램은 컴퓨팅 장치에 의해 실행될 경우,
    두 개의 신호 발생 장치로부터 제 1 트래커가 부착되어 움직이는 실제 객체를 향해 광신호가 출력되는 경우, 상기 광신호에 기초하여 상기 제 1 트래커에 의해 처리된 광신호 처리 데이터를 상기 제 1 트래커로부터 수신하고,
    상기 수신한 광신호 처리 데이터에 기초하여 상기 실제 객체에 대한 위치값을 도출하고,
    상기 도출된 실제 객체에 대한 위치값에 기초하여 영상을 렌더링하고, 프로젝터를 통해 스크린 및 상기 실제 객체를 향해 상기 렌더링된 영상을 투사하는 명령어들의 시퀀스를 포함하는, 매체에 저장된 컴퓨터 프로그램.
KR1020190092726A 2019-07-30 2019-07-30 움직이는 객체에 대한 프로젝션을 수행하는 서버, 방법 및 컴퓨터 프로그램 KR20210014529A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190092726A KR20210014529A (ko) 2019-07-30 2019-07-30 움직이는 객체에 대한 프로젝션을 수행하는 서버, 방법 및 컴퓨터 프로그램

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190092726A KR20210014529A (ko) 2019-07-30 2019-07-30 움직이는 객체에 대한 프로젝션을 수행하는 서버, 방법 및 컴퓨터 프로그램

Publications (1)

Publication Number Publication Date
KR20210014529A true KR20210014529A (ko) 2021-02-09

Family

ID=74559130

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190092726A KR20210014529A (ko) 2019-07-30 2019-07-30 움직이는 객체에 대한 프로젝션을 수행하는 서버, 방법 및 컴퓨터 프로그램

Country Status (1)

Country Link
KR (1) KR20210014529A (ko)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101465497B1 (ko) 2013-07-09 2014-11-26 성균관대학교산학협력단 동적 프로젝션 매핑 장치 및 시스템과 그 방법

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101465497B1 (ko) 2013-07-09 2014-11-26 성균관대학교산학협력단 동적 프로젝션 매핑 장치 및 시스템과 그 방법

Similar Documents

Publication Publication Date Title
US11973923B2 (en) Online compensation of thermal distortions in a stereo depth camera
US9794722B2 (en) Head-related transfer function recording using positional tracking
JP6514089B2 (ja) 情報処理装置、情報処理システム、および情報処理方法
US10290154B1 (en) Stereo-based calibration apparatus
EP3191888B1 (en) Scanning laser planarity detection
EP3008691B1 (en) Head-mountable apparatus and systems
JP2018009836A (ja) プログラム、頭部装着型表示装置、キャリブレーション方法
US10504243B2 (en) Calibration system for a head-mounted display tracking system
CN112399158B (zh) 投影图像校准方法、装置及投影设备
US20210183343A1 (en) Content Stabilization for Head-Mounted Displays
US20170186146A1 (en) System and method for calibration of a depth camera system
JPWO2012147363A1 (ja) 画像生成装置
CN113454685A (zh) 基于云的相机标定
KR20200003584A (ko) 깊이 카메라를 이용한 실시간 프로젝터 영상 보정 방법 및 장치
JP6990694B2 (ja) プロジェクタ、マッピング用データ作成方法、プログラム及びプロジェクションマッピングシステム
JPWO2019064399A1 (ja) 情報処理システムおよび対象物情報取得方法
EP2706408B1 (en) Image stabilization system for handheld devices equipped with pico-projector
JP2007033087A (ja) キャリブレーション装置及び方法
CN104121892A (zh) 一种获取光枪射击的目标位置的方法、装置及系统
KR20210014529A (ko) 움직이는 객체에 대한 프로젝션을 수행하는 서버, 방법 및 컴퓨터 프로그램
CN109945840B (zh) 三维影像摄取方法及系统
US10885663B2 (en) Method for setting a viewing direction in a representation of a virtual environment
JP2004012626A (ja) 立体映像表示装置及び立体映像表示方法
JP6370165B2 (ja) ポインティング装置、ポインティング方法、プログラム及び画像表示装置
US11754833B2 (en) Image processing apparatus and control method for image processing apparatus