KR20180091794A - 투사 맵핑 방법 - Google Patents

투사 맵핑 방법 Download PDF

Info

Publication number
KR20180091794A
KR20180091794A KR1020180091733A KR20180091733A KR20180091794A KR 20180091794 A KR20180091794 A KR 20180091794A KR 1020180091733 A KR1020180091733 A KR 1020180091733A KR 20180091733 A KR20180091733 A KR 20180091733A KR 20180091794 A KR20180091794 A KR 20180091794A
Authority
KR
South Korea
Prior art keywords
projection
image
target object
model
angle
Prior art date
Application number
KR1020180091733A
Other languages
English (en)
Inventor
쳉시앙룽
Original Assignee
브루비스 멀티 미디어 크리에이티브 컴퍼니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 브루비스 멀티 미디어 크리에이티브 컴퍼니 리미티드 filed Critical 브루비스 멀티 미디어 크리에이티브 컴퍼니 리미티드
Priority to KR1020180091733A priority Critical patent/KR20180091794A/ko
Publication of KR20180091794A publication Critical patent/KR20180091794A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/06Topological mapping of higher dimensional structures onto lower dimensional surfaces
    • G06T3/0031
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/10Constructive solid geometry [CSG] using solid primitives, e.g. cylinders, cubes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/60Rotation of whole images or parts thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/363Image reproducers using image projection screens
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2211/00Image generation
    • G06T2211/40Computed tomography
    • G06T2211/416Exact reconstruction

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Processing Or Creating Images (AREA)

Abstract

투사 맵핑 방법은 전자 장치에서 물체의 3D 모델을 형성하는 모델링 단계; 영상을 첨부 화상으로 변환하는 변환 단계; 상기 첨부 화상을 상기 3D 모델에 첨부하여 투사 모델을 형성하는 투사 단계; 상기 투사 모델의 화상을 화각으로 캡처하는 화상 캡처 단계; 상기 캡처된 화상을 상기 물체에 맵핑하는 맵핑 단계; 및 전자 장치에서 상기 투사 모델을 회전, 이동 및 크기 조절하는 조절 단계를 포함한다. 대안적으로, 상기 변환 단계와 투사 단계는 화상 캡처 단계, 맵핑 단계, 및 조절 단계 후에 수행될 수 있지만, 이후에 재-캡처 단계와 재-맵핑 단계가 뒤따를 수 있다. 물체가 변형되거나 투사 장치에 대한 각도 또는 위치가 변경되면, 화상은 그에 따라 전자 장치에서 직접 수정될 수 있다.

Description

투사 맵핑 방법{METHOD OF PROJECTION MAPPING}
본 발명은 3차원 타깃 물체 상에 영상 또는 사진을 투사 및 맵핑하는 투사 맵핑(Projection mapping) 방법으로서, 보다 상세하게는 타깃 물체의 형상에 변화가 있거나 또는 타깃 물체와 투사 장치 사이의 상대적인 위치에 변화가 있을 때, 전자 장치에서 직접 투사될 화상을 신속히 수정할 수 있는 투사 맵핑 방법에 관한 것이다.
투사 맵핑은, 투사 장치를 사용하여 물리적인 물체의 표면 상에 영상을 투사하여 미술 작품 또는 광고를 제공하는 투사 기술이다. 건물 벽, 무대, 전시 장소 또는 비교적 큰 제품, 예를 들어 자동차와 같은 물리적인 물체의 표면에 특별히 설계된 영상을 투사함으로써 특별히 변화가능한 색상, 패턴 또는 다른 시각적 효과가 생성된다. 최근에 투사 맵핑은 사실감 있게 공연 활동을 하는데 널리 사용되고 인기 있는 라이브식 시각적 공연 기술이 되었다.
현재 알려져 있는 투사 맵핑 기술에 따르면, 투사되는 물리적인 물체 또는 타깃 물체에 대한 프로젝터의 화각(angle of view)을 먼저 기록하고 나서, 기록된 화각과 일치하는 방향으로 영상을 투사하도록 설계된다. 나아가, 설계된 영상에 대응하게 제시될 타깃 물체의 위치와 윤곽을 계산하고, 타깃 물체의 화상 이외의 영상 부분을 제거한다. 마지막으로 완성된 영상을 대응하는 프로젝터로부터 타깃 물체로 투사하여 영상이 타깃 물체의 표면에서 재생되는 것처럼 보이게 한다.
현재 투사 맵핑 기술에는 몇 가지 한계가 있다. 먼저, 영상의 설계를 화각과 동일한 방향으로 투사할 수 있도록 하기 위하여 타깃 물체에 대한 프로젝터의 화각을 먼저 결정하기 때문에, 기록된 화각은 고정되고 변할 수 없다. 타깃 물체에 대한 프로젝터의 화각이 변하는 경우 전체 영상을 재-설계해야 한다. 유사하게, 영상이 설계된 후 타깃 물체의 기존 윤곽과 위치에 차이가 있는 경우 이전에 설계된 영상도 재-설계해야 하는데 이는 당연히 성가신 것이다. 두 번째로, 이전에 결정된 화각과 일치하는 방향으로 각 영상을 타깃 물체 상으로 투사하여, 2차원 영상을 타깃 물체의 3차원 표면 상에 대응하게 표시할 수 있도록 설계되어 있다. 서로 다른 영상을 동일한 타깃 물체 상으로 투사하는 경우, 모든 영상을 재-설계해야 한다.
본 발명의 주된 목적은, 화상이 맵핑될 타깃 물체에 대해 투사 장치의 배향, 위치 및/또는 각도에 변화가 있을 때, 그리고 상기 타깃 물체의 윤곽에 변화가 있을 때에도, 이러한 변화에 대응하여 상기 타깃 물체 상으로 투사될 영상을 전자 장치 상에서 직접 수정하여, 투사 맵핑할 영상을 재-설계하는 시간과 비용을 감소시킬 수 있는 투사 맵핑 방법을 제공하는 것이다.
본 발명의 다른 목적은, 상이한 방향들에서 타깃 물체 상으로 투사 맵핑할 복수의 영상을 신속하게 생성하고 투사하여 상기 타깃 물체의 형상에 의해 야기될 수 있는 투사 사각 구역(projection dead angle)을 감소시킬 수 있는 투사 맵핑 방법을 제공하는 것이다.
본 발명의 또 다른 목적은, 상이한 방향들에서 동시에 타깃 물체 상으로 투사 맵핑할 복수의 영상을 신속하게 생성하고 상기 타깃 물체의 전체 표면 상으로 맵핑할 수 있는 투사 맵핑 방법을 제공하는 것이다.
상기 목적 및 다른 목적을 달성하기 위해 타깃 물체 상으로 화상을 맵핑하는 본 발명의 제1 실시 예에 따른 투사 맵핑 방법은 모델링 단계, 화상 캡처 단계, 맵핑 단계, 조절 단계, 변환 단계, 투사 단계, 재-캡처 단계 및 재-맵핑 단계를 포함한다.
상기 모델링 단계에서, 3-차원(3D) 모델이 전자 장치에 구축되거나 상기 전자 장치로 입력(imported)되고, 상기 3D 모델은 상기 타깃 물체의 형상과 실질적으로 동일한 형상을 갖는다. 본 발명에서, 상기 3D 모델의 구축은 특별히 특정 방식으로 제한되는 것은 아니다. 상기 3D 모델은 상기 타깃 물체의 사진과 함께 현재 알려진 3D 드로잉 소프트웨어(drawing software)를 사용하는 것에 의해 또는 레이저 스캐닝, 초음파 스캐닝 등에 의해, 또는 드론(drone)으로 상이한 방향들에서 찍은 사진을 사용하는 것에 의해 수동으로 구축될 수 있다.
상기 화상 캡처 단계에서, 특정 화각에서 보이는 상기 3D 모델을 포함하는 화상이 상기 전자 장치를 사용하여 캡처된다.
상기 화상이 수립된 후, 상기 맵핑 단계와 상기 조절 단계가 수행된다. 상기 맵핑 단계에서, 투사 장치를 사용하여 상기 화각과 일치하는 방향으로 상기 화상을 상기 타깃 물체 상으로 맵핑한다. 본 발명의 실제 구현에서, 상기 투사 장치의 개수와 유형에 특별한 제한은 없다.
상기 조절 단계에서, 상기 투사 장치로부터 투사된 화상 내의 3D 모델의 윤곽이 상기 타깃 물체의 윤곽과 완전히 일치할 때까지 상기 3D 모델은 상기 전자 장치에서 직접 회전, 이동(shift) 및/또는 크기 조절될 수 있다. 본 발명에 따르면, 상기 3D 모델의 윤곽이 상기 타깃 물체의 윤곽과 이미 일치하였는지 여부를 결정하는 방법에 특별한 제한은 없다.
상기 변환 단계에서, 상기 3D 모델의 윤곽이 상기 타깃 물체의 윤곽과 일치된 후에, 상기 전자 장치에 구축되거나 다른 데이터 소스로부터 입력된 영상은 첨부 화상으로 변환된다. 일부 실시 예에서, 상기 영상은 투사 맵핑할 패턴이다. 그런 후에, 상기 투사 단계에서, 상기 조절 단계에서 이미 조절된 3D 모델의 표면 상에 상기 첨부 화상이 배치되어, 상기 첨부 화상과 상기 3D 모델은 함께 투사 모델을 형성한다. 본 발명에서, 상기 변환 단계와 상기 투사 단계 이외의 다른 단계를 수행하는 순서에 특별한 제한은 없다.
이후, 상기 재-캡처 단계와 상기 재-맵핑 단계가 수행된다. 상기 재-캡처 단계에서, 상기 투사 모델을 포함하는 투사 화상이 상기 전자 디바이스에서 화각으로 캡처된다. 그런 다음, 상기 재-맵핑 단계에서, 상기 투사 화상은 상기 화각에서 상기 투사 장치에 의해 투사되어 상기 타깃 물체 상으로 맵핑된다.
상기 목적 및 다른 목적을 달성하기 위해 화상을 타깃 물체 상으로 맵핑하는 본 발명의 제2 실시 예에 따른 투사 맵핑 방법은 모델링 단계, 변환 단계, 투사 단계, 화상 캡처 단계, 맵핑 단계 및 조절 단계를 포함한다.
상기 제1 실시 예와 달리, 제2 실시 예에서는, 상기 모델링 단계, 상기 변환 단계 및 상기 투사 단계는 상기 화상 캡처 단계, 상기 맵핑 단계 및 상기 조절 단계 전에 순차적으로 수행되고; 상기 재-캡처 단계와 상기 재-맵핑 단계는 제2 실시 예에 따른 방법에서는 생략된다. 그러나, 상기 방법 단계를 수행하는 순서에 변화가 있을 때에도, 상기 제2 실시 예의 모델링 단계 및 변환 단계는 상기 제1 실시 예의 모델링 단계 및 변환 단계와 동일하다.
제2 실시 예에 따르면, 상기 투사 단계에서, 상기 첨부 화상은 상기 3D 모델의 표면 상에 배치되어 함께 투사 모델을 형성하고; 상기 화상 캡처 단계에서, 특정 화각에서 보이는 투사 모델을 포함하는 화상이 상기 전자 장치를 이용하여 캡처되고; 상기 맵핑 단계에서, 투사 장치를 사용하여 투사 모드를 포함하는 화상을 상기 화각과 일치하는 방향으로 상기 타깃 물체 상으로 투사 및 맵핑한다.
마지막으로, 상기 조절 단계에서, 상기 투사 장치로부터 투사된 화상에 포함된 투사 모델이 상기 투사 물체의 윤곽과 완전히 일치하는 윤곽을 가질 때까지 상기 전자 장치에서 보이는 투사 모델이 회전, 이동 및/또는 크기 조절된다.
상기 목적 및 다른 목적을 달성하기 위해 화상을 타깃 물체로 맵핑하는 본 발명의 제3 실시 예에 따른 투사 맵핑 방법은, 제1 또는 제2 실시 예에 기초하여 수립되고, 상기 제3 실시예에 따른 투사 맵핑 방법은 상기 타깃 물체에 대한 투사 장치의 배향, 각도 및/또는 위치가 변할 때 상기 투사 장치로부터 투사된 화상에 포함되는 투사 모델이 상기 타깃 물체의 윤곽과 다시 일치하도록 상기 투사 모델을 다시 조절하는 재-조절 단계를 더 포함한다. 본 발명에서, 상기 타깃 물체에 대한 상기 투사 장치의 위치, 배향 및/또는 화각의 변화를 검출하고 감지하는 방법에 특별한 제한은 없다.
본 발명의 제3 실시 예에 따른 투사 맵핑 방법은 상기 타깃 물체의 원래의 윤곽과 변형 후의 윤곽 사이의 임의의 차이에 대응하여 상기 3D 모델의 윤곽을 수정하여, 상기 3D 모델의 수정된 윤곽이 상기 타깃 물체의 변형 후의 윤곽과 동일하게 하는 재-모델링 단계를 더 포함하고; 그런 후에 상기 화상에 포함된 3D 모델의 윤곽이 상기 타깃 물체의 윤곽과 완전히 일치할 때까지 모든 다른 단계들이 다시 수행된다.
본 발명에 따르면, 전술된 실시 예의 화상 캡처 단계에서, 캡처된 화상에 배경 제거 공정을 수행하여, 화각에서 캡처된 화상에 포함된 투사 모델의 윤곽과 패턴만을 화상에 제공하고 화상에서 일부 불필요한 부분을 가능한 한 생략하여 투사 장치로부터 투사되는 화상의 품질을 개선할 수 있다. 일부 다른 실시 예에서, 상기 배경 제거 공정에 의해 상기 전자 장치는 일부 프로그램을 사용하여 투사 모델과 3D 모델의 윤곽을 편리하게 결정할 수 있다.
이전의 실시예에 기초하여 수립된 본 발명의 제4 실시 예에 따르면, 상기 투사 장치는 제1 투사 유닛과 제2 투사 유닛을 포함하고, 제1 화각과 제2 화각은 화상 캡처 단계에서 사용된다. 상기 제1 투사 유닛은 제1 화상을 상기 제1 화각에서 투사하여 상기 제1 화상을 상기 타깃 물체 상으로 맵핑하고, 상기 제2 투사 유닛은 상기 제2 화상을 상기 제2 화각에서 투사하여 상기 제2 화상을 상기 타깃 물체 상으로 맵핑하여, 상기 제1 및 제2 화상 모두가 맵핑되는 공통 맵핑 영역이 상기 타깃 물체 상에 생성되도록 한다. 상기 공통 맵핑 영역에 의해, 상승된 영역과 함몰된 영역을 포함하는 타깃 물체의 형상에 의해 야기되는 투사 사각 구역을 감소시킬 수 있다.
이전의 실시예에 기초하여 수립된 본 발명의 제5 실시예에 따라 상기 투사 장치는 제1 투사 유닛, 제2 투사 유닛 및 제3 투사 유닛을 포함하고, 제1 화각, 제2 화각, 및 제3 화각은 화상 캡처 단계에서 사용된다. 상기 제1, 제2 및 제3 투사 유닛은 상기 제1, 제2 및 제3 투사 화상을 상기 제1, 제2 및 제3 화각으로 각각 투사하여 상기 제1, 제2 및 제3 화상을 상기 타깃 물체 상으로 맵핑하도록 상기 타깃 물체에 대해 3개의 상이한 각도 위치에서 상기 타깃 물체를 둘러싸게 설정되고; 상기 제1, 제2 및 제3 화상은 첨부 화상에 의해 맵핑되는 상기 타깃 물체 상의 영역을 증가시키기 위해 상기 타깃 물체 주위 전체 외부 표면을 함께 커버한다.
요약하면, 본 발명의 방법의 모든 실시 예는 상기 타깃 물체에 대한 상기 투사 장치의 배향, 위치 및 각도에 변화가 있을 때 투사 맵핑할 영상을 신속히 재-설계하도록 수립된다. 모든 실시 예에 따른 방법에서 제1 단계는 3D 모델을 상기 전자 장치에 구축하는 모델링 단계이다. 그 후, 상기 타깃 물체에 제공할 영상은 투사 모델을 형성하기 위해 3D 모델의 표면 상에 배치되는 첨부 화상으로 변환된다. 마지막으로, 투사 모델을 포함하는 투사 화상은 상기 투사 장치를 통해 상기 타깃 물체 상으로 투사 맵핑할 화각과 일치하는 방향으로 캡처된다. 종래의 투사 맵핑 기술에 따르면, 영상의 화각을 먼저 결정하고 나서, 다른 후속 공정을 적절히 수행한다. 종래의 투사 맵핑 기법과는 달리, 본 발명에 따른 투사 맵핑 방법에서는, 상기 타깃 물체에 대한 투사 장치의 배향, 위치 및 각도에 변화가 있고 투사 맵핑할 영상이 재설정(reset)되어야 하는 경우, 사용자는 상기 타깃 물체와 상기 투사 장치 사이의 상대적인 변화에 대응하여 영상을 조절하고, 상기 투사 모델을 포함하는 화상을 전자 장치에서 직접 캡처하는 화각을 재설정하기만 하면 된다.
나아가, 상기 타깃 물체의 형상이 변경된 경우, 사용자는, 종래의 투사 맵핑 기술에서 필요로 하던, 새로운 화각을 선택하는 시작 단계에서 영상을 다시 생성할 필요 없이, 상기 타깃 물체의 변경된 형상에 대응하도록 상기 모델링 단계에서 상기 3D 모델의 형상을 변경하고, 화상 캡처 단계 및 다른 후속 단계를 수행하기만 하면 된다.
마지막으로, 첨부 화상을 제공할 수 있는 타깃 물체의 영역을 증가시켜 있을 수 있는 투사 사각 구역을 감소시키기를 원할 때, 사용자는 투사 장치의 복수의 투사 유닛을 사용하고, 복수의 화각에서 복수의 화상을 화상 캡처 단계에서 캡처하기만 하면 되고, 이후 상기 복수의 영상을 동시에 상기 타깃 물체 상으로 투사한다.
상기 목적 및 다른 목적을 달성하기 위해 본 발명에 의해 채택된 구조 및 기술적 수단은 바람직한 실시 예 및 첨부 도면의 이하 상세한 설명을 참조함으로써 가장 잘 이해될 수 있을 것이다.
도 1은 본 발명의 제1 실시 예에 따른 투사 맵핑 방법에 포함된 단계들을 나타낸 흐름도이다;
도 2는 도 1의 투사 맵핑 방법에서 모델링 단계와 화상 캡처 단계를 도시하는 도면이다;
도 3은 도 1의 투사 맵핑 방법에서 맵핑 단계를 도시하는 도면이다;
도 4는 도 1의 투사 맵핑 방법에서 조절 단계를 도시하는 도면이다;
도 5는 도 1의 투사 맵핑 방법에서 변환 단계, 투사 단계 및 재-캡처 단계를 도시하는 도면이다;
도 6은 도 1의 투사 맵핑 방법에서 재-맵핑 단계를 도시하는 도면이다;
도 7은 본 발명의 제2 실시 예에 따른 투사 맵핑 방법에 포함된 단계들을 도시하는 흐름도이다;
도 8은 도 7의 투사 맵핑 방법에서 모델링 단계를 도시하는 도면이다;
도 9는 도 7의 투사 맵핑 방법에서 변환 단계, 투사 단계 및 화상 캡처 단계를 도시하는 도면이다;
도 10은 도 7의 투사 맵핑 방법에서 맵핑 단계를 도시하는 도면이다;
도 11은 도 7의 투사 맵핑 방법에서 조절 단계를 도시하는 도면이다;
도 12는 본 발명의 제3 실시 예에 따른 투사 맵핑 방법에 포함된 단계들을 도시하는 흐름도이다;
도 13은 모델링 단계에서 구축된 3D 모델의 원래의 윤곽이 변형 후의 윤곽과 일치하도록 수정된, 도 12의 투사 맵핑 방법에서 재-모델링 단계를 도시하는 도면이다;
도 14는 타깃 물체에 음영(shadow)이 생기는 것을 피하기 위해 맵핑 단계에서 2개의 투사 유닛을 사용하는 본 발명의 제4 실시 예에 따른 투사 맵핑 방법을 도시한다;
도 15는 맵핑 단계에서 다수의 투사 유닛을 사용하여 영상에 의해 맵핑되는 타깃 물체의 영역을 증가시키는 본 발명의 제5 실시 예에 따른 투사 맵핑 방법을 도시한다.
이제 일부 바람직한 실시 예를 통해 첨부 도면을 참조하여 본 발명을 설명한다. 이해하기 쉽게 하기 위해, 바람직한 실시 예들에서 동일한 요소들은 동일한 참조 번호들로 표시된다.
도 1 내지 도 6을 참조하면, 도 1은 본 발명의 제1 실시 예에 따른 투사 맵핑 방법에 포함된 단계들을 도시하는 흐름도이다. 투사 맵핑 방법은 타깃 물체(10) 상으로 화상을 투사하고 맵핑하는데 사용된다. 도 1에 도시된 바와 같이, 본 발명의 제1 실시 예에 포함된 단계는 모델링 단계(20), 화상 캡처 단계(21), 맵핑 단계(22), 조절 단계(23), 변환 단계(24), 투사 단계(25), 및 재-캡처 단계(26) 및 재-맵핑 단계(27)를 포함한다. 도 2 내지 도 6은 이들 단계를 도시하는 도면이다.
도 1 및 도 2에 도시된 바와 같이, 모델링 단계(20)에서, 3차원(3D) 모델(202)이 관련 프로그램을 사용하여 컴퓨터와 같은 전자 장치(201) 상에 구축된다. 대안적으로, 이전에 구축된 3D 모델(201)이 사용을 위해 다른 컴퓨터로부터 전자 장치(201)로 입력될 수 있다. 3D 모델(202)은 타깃 물체(10)와 실질적으로 동일한 형상을 가져야 한다. 이것은 3D 모델(202)의 통일성(integrity)이 이후 생성되는 화상(210)이 상이한 투사 맵핑 조건들에서 사용되는 능력에 직접 영향을 미치기 때문이다. 3D 모델(202)이 타깃 물체(10)와 유사하면 유사할수록, 화상을 투사하고 맵핑하는데 사용되는 투사 디바이스(220)에 대한 타깃 물체(10)의 각도, 위치 및 방향의 변화에 이후 생성되는 화상(210)이 더 잘 적응될 수 있다. 3D 모델(202)은 반드시 실제 3차원 모델이어야 하는 것은 아니라는 것에 유의해야 한다. 타깃 물체(10)가 플래그와 같은 실질적으로 편평한 물체인 경우, 3D 모델(202)은 2 차원 모델일 수 있다. "3D"라는 용어를 사용하는 것은 후속 화상 캡처 단계(21)가 상이한 각도들에서 3차원으로 수행될 수 있다는 것만을 의미한다.
또한, 본 발명에서, 전자 장치(201)는 특히 특정 유형으로 제한되지 않는다는 것을 알아야 한다. 전자 장치(201)는 데스크톱 컴퓨터, 노트북 컴퓨터, 이동 전화 및 태블릿 컴퓨터를 포함할 수 있지만, 이에 한정되는 것은 아니다. 나아가, 본 발명에서, 3D 모형(202)의 구축도 특별히 특정 방식으로 한정되지 않는다. 본 발명의 실제 구현에서, 3D 모델(202)은 타깃 물체(10)의 사진과 함께 현재 알려진 3D 드로잉 소프트웨어를 사용하는 것에 의해 또는 레이저 스캐닝, 초음파 스캐닝 등에 의해 또는 드론에 장착된 전방향 카메라에 의해 촬영된 사진을 사용하는 것에 의해 구축될 수 있다. 본 명세서에서 언급되지는 않았지만 전자 장치(201)에서 타깃 물체(10)의 3D 모델(202)을 생성하는 데 사용될 수 있는 임의의 다른 방법도 본 발명의 범위에 포함된다.
3D 모델(202)이 구축된 후 방법은 화상 캡처 단계(21)로 간다. 화상 캡처 단계(21)에서, 특정 화각(222)에서 보이는 3D 모델(202)을 포함하는 화상(210)이 전자 장치(201), 즉 컴퓨터를 사용하여 캡처된다. 캡처된 화상(210)은 컴퓨터의 스크린 상에서 검토되고 확인될 수 있다. 화각(222)은 실제 사용 필요성에 따라 자유롭게 선택될 수 있다. 도시된 제1 실시 예에서, 화각(222)은 전자 장치(201)의 스크린 상에 디스플레이된 각도 방향이지만 이로 한정되지 않는다. 도시의 편의를 위해, 화각(222)은 도 2에 도시되어 있지 않다.
화상 캡처 단계(21)에서, 화상(210)은 배경 제거 공정(21a)을 더 거쳐, 화각(222)에서 캡처된 화상(210)에서는 3D 모델(202)의 윤곽만이 보이게 할 수 있다. 본 발명에서 배경 제거 공정(21a)의 방식에 특별한 제한은 없다. 예를 들어, 백색 배경에 흑색 윤곽을 도시하는 종래의 방법 또는 화상으로부터 배경을 제거하여 물체를 강조 표시하는 임의의 다른 기술을 사용하여 배경 제거 공정(21a)을 완료하여, 화상(210)에서 가시적인 부분이 3D 모델(202)과 일치하게 할 수 있다. 그러나, 본 발명에 따르면, 배경 제거 공정(21a)은 화상 캡처 단계(21)에서 반드시 수행될 필요는 없다. 일부 다른 실시 예에서, 배경 제거 공정(21a)은 본 발명의 방법의 다른 단계에서 수행되거나 또는 심지어 생략될 수도 있다. 본 발명의 일부 동작가능한 실시 예에서, 컴퓨터가 투사 장치(220)와 연관된 카메라 유닛에 의해 캡처된 화상을 입력하여, 사용자가 투사 장치(220)에서 타깃 물체(10)에 실제로 배향된 상태를 컴퓨터 상에서 직접 확인하고, 캡처된 화상(210)이 투사되고 타깃 물체(10) 상에 맵핑되는 모습을 시뮬레이션할 수 있다.
도 1 및 도 3을 참조한다. 화상(210)이 수립된 후, 방법은 맵핑 단계(22)로 간다. 맵핑 단계(22)에서, 투사 장치(220)의 투사 유닛(221)은 화상(210)을 화각(222)과 일치하는 방향으로 타깃 물체(10) 상으로 투사하는데 사용된다. 본 발명에서, 투사 유닛(221)의 개수와 유형에 특별한 제한은 없다. 화상을 투사하는데 사용될 수 있는 임의의 프로젝터가 본 발명을 위해 사용될 수 있다.
다음에, 도 1, 도 3 및 도 4를 참조한다. 화상(210)이 투사 유닛(221)에 의해 타깃 물체(10) 상으로 투사될 때, 화상(210)에 포함된 3D 모델(202)의 윤곽은 투사 장치, 장소(site) 또는 다른 요인과 같은 일부 요인에 의해 타깃 물체(10)의 실제 윤곽과 다를 수 있다. 그리하여, 화상(210)에 포함된 3D 모델(202)은 여전히 3D 모델(202)을 회전, 이동 또는 크기 변경함으로써 조절하는 것을 필요로 할 수 있다. 이를 위해, 방법은 조절 단계(23)로 간다.
조절 단계(23)에서, 3D 모델(202)은 투사 유닛(221)으로부터 투사된 화상(210) 내의 3D 모델(202)의 윤곽이 타깃 물체(10)의 윤곽과 완전히 일치할 때까지 컴퓨터 상에서 직접 회전, 이동 및/또는 크기 조절될 수 있다 그 후, 다른 후속 단계가 수행될 수 있다.
도시된 제1 실시 예에서, 전자 장치(201)의 스크린 상에 보이는 3D 모델(202)을 직접 회전, 이동 또는 크기 조절하여 화각(222)에서 캡처된 화상(210) 내 3D 모델(202) 및 그에 따라 투사 유닛(221)으로부터 투사된 3D 모델(202)에 영향을 미치기 위해 전자 장치(201)에서 조절 단계(23)가 수행된다. 즉, 3D 모델(202)의 윤곽을 조절하기 위해 회전, 이동 및 크기 조절하는 것은 투사 유닛(221)으로부터 투사된 3D 모델(202)에 수행되는 것이 아니다. 여기서 조절하는 것은 화상(210) 내 3D 모델(202)에 대해 수행되는 회전, 이동 및 크기 조절이거나, 또는 간단히 캡처된 화상(10) 내 관찰 지점의 위치의 변화일 수 있다.
또한, 본 발명에 따르면, 3D 모델(202)의 윤곽이 타깃 물체(10)의 윤곽과 이미 일치하였는지 여부를 결정하는 방법에 특별한 제한은 없다. 예시된 제1 실시 예에서, 화상(210) 내의 3D 모델(202)의 윤곽이 타깃 물체(10)와 일치하는지 여부를 직접 수동으로 결정하는 것은 사용자이다. 그러나, 일부 다른 실시 예에서는 사용자가 화상 분석 프로그램과 같은 컴퓨터에 내장된 관련 프로그램을 사용하여 투사 유닛(221)에 의해 투사되고 투사 장치(220) 상의 카메라 유닛에 의해 직접 캡처된 화상(210) 및 투사 유닛(221)의 위치에서 관찰되는 타깃 물체(10)의 화상을 작업하여, 컴퓨터가 3D 모델(202)과 타깃 물체(10)의 윤곽이 서로 일치하는지 또는 일치하지 않는지를 자동적으로 즉시 결정한 후, 필요한 수정을 행하게 할 수 있다.
도 1 및 도 5를 참조한다. 변환 단계(24)에서, 전자 장치(201)(즉, 컴퓨터)에서 구축되거나 다른 데이터 소스로부터 입력된 영상(241)이 DirectX 또는 OpenGL의 종래 기술을 사용하여 첨부 화상(242)으로 변환된다. 유사하게, 본 발명에서, 영상(241)을 첨부 화상(242)으로 변환하는 방식에 특별한 제한은 없다. 여기서 언급된 DirectX 및 OpenGL의 기술은 단지 예시적인 것이며 본 발명을 제한하려고 의도된 것이 아니다. 또한, 영상(241)의 유형 또는 상세에 특별한 제한은 없다. 일부 동작가능한 실시 예에서, 영상(241)은 정적인 사진일 수 있다. 그러나 일부 다른 실시 예에서, 영상(241)은 동적인 영상(241)일 수 있다.
도 1, 도 5 및 도 6을 참조한다. 첨부 화상(242)이 생성된 후에, 본 방법은 투사 단계(25)로 간다. 투사 단계(25)에서, 첨부 화상(242)은 조절 단계(23)에서 이미 조절된 3D 모델(202)의 표면 상에 배치되어, 첨부 화상(242)과 3D 모델(202)이 함께 투사 모델(243)을 형성하도록 한다. 그런 다음, 재-캡처 단계(26)와 재-맵핑 단계(27)가 수행된다.
재-캡처 단계(26)에서, 투사 모델(243)을 포함하는 투사 화상(211)이 전자 장치(201)에서 화각(222)으로 캡처된다. 그런 다음, 재-맵핑 단계(27)에서, 투사 화상(211)은 화각(222)으로 투사 유닛(221)에 의해 투사되어 타깃 물체(10) 상으로 맵핑되고, 이에 의해 투사 유닛(221)으로부터 이전에 투사된 화상(210) 내 3D 모델(202)이 투사 모델(242)로 변경된다. 이런 방식으로, 첨부 화상(242)은 타깃 물체(10) 상에 제시된다.
상기 설명으로부터 볼 수 있는 바와 같이, 투사 유닛(221)에 의해 투사된 최종 화상(210)에 포함된 투사 모델(243)에서, 제시된 첨부 화상(242)의 형상은 투사 단계(25)에서 3D 모델(202)의 표면 형상과 일치하도록 조절 단계(23)에서 이미 조절되었다. 그리하여 사용자가 투사 장치(220)에 의해 투사되도록 영상(241)을 변경하려고 할 때, 사용자는 투사 모델(242) 상의 첨부 화상(242)을 다른 원하는 영상으로 직접 교체하고, 원하는 영상(241)을 보여주는 새로운 3D 모델을 만들 필요 없이 변경을 완료하는데 필요한 조절을 할 수 있다.
도 1 내지 도 6을 참조한 상기 설명은 본 발명에 따른 방법의 많은 동작가능한 실시 예 중 단지 하나의 실시예에 관한 것으로 이해된다. 나아가 도 7 내지 도 11을 참조하면, 본 발명의 제2 실시 예에 따른 투사 맵핑 방법이 도시되어 있다. 제2 실시 예에서 본 발명의 방법은 또한 타깃 물체(10) 상으로 화상을 투사하고 맵핑하는데 사용되고, 모델링 단계(20), 변환 단계(24), 투사 단계(25), 화상 캡처 단계(21), 맵핑 단계(22) 및 조절 단계(23)를 순차적으로 포함한다.
전술된 제1 실시 예에서, 변환 단계(24)와 투사 단계(25)는 조절 단계(23) 후에 수행되고, 재-캡처 단계(26)와 재-맵핑 단계(27)는 투사 단계(25) 후에 수행된다. 제1 실시 예와 달리, 본 발명의 제2 실시 예에 따른 방법에서는, 변환 단계(24)와 투사 단계(25)는 모델링 단계(20) 직후에 수행되고, 재-캡처 단계(26)와 재-맵핑 단계(27)는 생략된다. 제2 실시 예에서 모델링 단계(20)와 변환 단계(24)는 제1 실시 예에서의 모델링 단계(20)와 변환 단계(24)와 실질적으로 동일하기 때문에 이들 단계는 여기서 반복적으로 설명되지 않는다. 다음 설명은 직접 투사 단계(25)로 간다.
도 8에 도시된 모델링 단계(20)와 도 9에 도시된 변환 단계(24)가 수행된 후에, 방법은 투사 단계(25)로 가는데, 이를 도시하는 도면은 또한 도 9에 제시되어 있다. 이 투사 단계(25)에서 첨부 화상(242)은 3D 모형(202)의 표면에 배치되어 함께 투사 모델(243)을 형성한다. 제2 실시 형태에 따른 투사 단계(25)에서는, 3D 모델(202)은 조절을 수행하는 조절 단계(23)를 거치지 않은 것으로 이해된다.
이후, 방법은 화상 캡처 단계(21)로 간다. 화상 캡처 단계(21)에서, 특정 화각(222)에서 보이는 투사 모델(243)을 포함하는 화상(210)이 전자 장치(201), 즉 컴퓨터를 사용하여 캡처된다. 유사하게, 제2 실시 예에서, 화각(222)은 전자 장치(201)의 스크린 상에 디스플레이된 각도 방향이지만 이에 한정되지는 않는다. 그러나, 도시의 편의를 위해, 이 화각(222)은 도 9에는 도시되어 있지 않다.
도 7 및 도 10을 참조한다. 맵핑 단계(22)에서, 투사 장치(220)의 투사 유닛(221)은 투사 모델(243)을 포함하는 화상(210)을 화각(222)과 일치하는 방향으로 타깃 물체(10) 상으로 투사하고 맵핑하는데 사용된다. 다시, 투사 유닛(221)에 의해 타깃 물체(10) 상으로 투사된 영상(210)에 포함된 투사 모델(243)의 윤곽은 투사 장치, 장소 또는 다른 요인과 같은 일부 요인에 의해 타깃 물체(10)의 실제 윤곽과 상이할 수 있다 그리하여, 방법은 조절 단계(23)로 간다.
도 11에 도시된 바와 같이, 조절 단계(23)에서, 컴퓨터의 스크린 상에 보이고 화상(210)의 표면 상에 배치되기 위해 캡처된 투사 모델(243)은, 화상(210)에 포함되고 투사 유닛(221)으로부터 투사되는 투사 모델(243)이 타깃 물체(10)의 윤곽과 정확히 일치하는 윤곽을 가질 때까지, 회전, 이동 및/크기 조절될 수 있다. 투사 모델(243)을 이렇게 조절하고 조절된 투사 모델(243)의 윤곽이 타깃 물체(10)의 윤곽과 이미 일치되었는지 여부를 결정하는 방식에 대한 임의의 상세에 대해서는, 제1 실시 예의 대응하는 설명을 참조한다.
도 12를 참조하면, 도 12는 본 발명에 따른 방법의 제3 실시 예에 포함된 단계들을 도시하는 흐름도이다. 본 발명의 투사 맵핑 방법을 구현할 때 더 많은 상황이 발생할 수 있다는 것을 고려하여, 본 방법의 제3 실시 예는 제2 실시 예에 기초하여 수립되고, 재-조절 단계(28)와 재-모델링 단계(29)를 더 포함한다. 보다 구체적으로는, 화상(210)이 조절 단계(23) 후에 완료되었지만 여전히 타깃 물체(10)에 대한 투사 장치(220)의 배향, 각도 및/또는 위치에 변화가 있거나, 또는 타깃 물체(10)와 3D 모델(202)의 형상 사이에 편차가 있는 경우에, 투사 장치(220)로부터 투사된 영상(210)에 포함된 투사 모델(243)이 타깃 물체(10)의 윤곽과 다시 일치할 수 있도록 투사 모델(243)을 여전히 재조절할 수 있다. 유사하게, 본 발명의 제3 실시 예를 구현할 때, 상기 언급된 상황들 중 임의의 상황을 결정하는 방식 및 투사 모델(243)을 조절하는 방식에 특별한 제한은 없다. 투사 모델(243)을 이렇게 재-조절하고 조절된 투사 모델(243)의 윤곽이 타깃 물체(10)의 윤곽과 이미 일치하였는지 여부를 결정하는 방식에 대한 상세에 대해서는, 제1 및 제2 실시 예의 대응하는 설명을 참조한다.
도 12에서 볼 수 있는 바와 같이, 본 발명의 제3 실시 예에서 처음 7개의 단계는 도 7에 도시된 제2 실시 예에 있는 것과 동일하다. 즉, 제3 실시 예에서, 변환 단계(24)와 투사 단계(25)는 조절 단계(23) 전에 수행된다. 그 후, 재-조절 단계(28)와 재-모델링 단계(29)가 조절 단계(23) 후에 더 수행된다. 그러나, 재-조절 단계(28)와 재-모델링 단계(29)는 도 7에 도시된 방법에 기초하여서만 반드시 수행되어야 하는 것은 아닌 것으로 이해된다. 대신, 도 1에 도시된 제1 실시 예에 따른 방법 단계들에 재-조절 단계(28)와 재-모델링 단계(29)가 추가될 수 있다. 즉, 재-조절 단계(28)와 재-모델링 단계(29)는 다른 경우에 재-맵핑 단계(27) 이후에 수행될 수 있다.
도 12를 참조하면, 조절 단계(23)가 수행되고 나서, 타깃 물체(10)에 대한 투사 장치(220)의 위치, 배향 및/또는 화각에 약간 변화가 있는 것으로 발견되면, 재-조절 단계(28)가 더 수행될 수 있다. 재-조절 단계(28)를 수행하기 위해, 방법은 화상 캡처 단계(21)로 되돌아가서, 투사 장치(220)로부터 투사된 화상(210)에 포함된 투사 모델(243)의 윤곽이 타깃 물체(10)의 변경된 윤곽과 일치될 때까지 타깃 물체(10)에 대한 투사 장치(220)의 위치, 배향 및/또는 화각의 변화에 기초하여 투사 모델(243)을 수정하고 나서, 화상(210)이 다시 캡처된다. 본 발명에 따르면, 타깃 물체(10)에 대한 투사 장치(220)의 위치, 배향 및/또는 화각의 변화를 검출하고 감지하는 방법에 특별한 제한은 없다. 이러한 변화는, 타깃 물체(10) 상에 또는 그 주위에 장착된 위치 센서 또는 각도 검출 다이얼과 같은 임의의 종래의 알려진 장치를 사용하는 것에 의해 또는 눈으로 직접 관측하는 것에 의해 검출될 수 있다.
재-조절 단계(28)를 수행했는데도 여전히 화상(210)에 포함된 투사 모델(243)의 윤곽이 타깃 물체(10)의 윤곽과 일치하지 않는 경우에는, 모델링 단계(20)에 사용된 타깃 물체(10)의 윤곽에 일부 변경이 있는 것에 의해 이 불일치가 야기된 것으로 결정될 수 있다. 즉, 모델링 단계(20)가 수행된 때에 타깃 물체(10)의 원래의 윤곽(203)은 변형 후의 윤곽(204)으로 변화되었다. 이러한 상황에서, 재 모델링 단계(29)가 수행되어야 한다. 도 12 및 도 13에 도시된 바와 같이, 재-모델링 단계(29)를 수행할 때, 변형 후의 윤곽(204)과 원래의 윤곽(203) 사이의 차이에 대응하여 3D 모델(202)의 윤곽을 먼저 수정하여, 3D 모델(202)의 수정된 윤곽이 타깃 물체(10)의 변형 후의 윤곽(204)과 동일하도록 한다. 그런 다음, 투사 장치(220)로부터 투사된 최종 화상(210)에 포함된 투사 모델(243)의 윤곽이 타깃 물체(10)의 현재 윤곽과 일치하도록 후속 화상 캡처 단계(21) 및 다른 단계를 수행한다. 유사하게, 본 발명에서는 3D 모형(202)을 수정하는 방법에 특별한 제한은 없다. 이 수정은 수동으로 달성되거나 또는 타깃 물체(10)에 센서를 장착하는 것에 의해 비-수동으로 달성될 수 있다.
다음은 본 발명의 방법의 실제 응용에 대한 일부 보다 상세한 사항이다. 이전의 실시 예들과 유사한 일부 다른 실시 예들에서, 화상 캡처 단계(21)를 수행할 때, 방법이 맵핑 단계(22)로 가기 전에 배경 제거 공정(21a)이 더 수행되어, 투사 모델(243)의 윤곽을 보다 쉽게 결정하게 하거나 또는 화상(10)을 타깃 물체(10) 상으로 맵핑할 때 화상(210)에서 일부 불필요한 부분들을 가능한 한 많이 생략하여, 투사 장치(220)로부터 투사된 화상(210)의 품질을 향상시켜서 화각(222)에서 캡처된 투사 모델(243)의 윤곽과 패턴만이 화상(210)에 존재하게 할 수 있다.
본 발명에서, 투사 장치(220)는 상이한 방식으로 사용될 수 있다. 도 14 및 도 15를 참조한다. 일부 경우에, 타깃 물체(10)는 그 형상에 상승된 영역과 함몰된 영역(101)을 포함한다. 이러한 상승된 영역과 함몰된 영역(101)은 투사 사각 구역을 생성하여서, 단 하나의 화각(222)에서 단 하나의 투사 유닛(221)으로부터 투사되는 화상(201)에 의해서는 커버될 수 없다. 본 발명의 제4 실시 예에서, 이 투사 사각 구역을 감소시키기 위해 투사 장치(220)는 제1 투사 유닛(221a) 및 제2 투사 유닛(221b)과 같은 하나를 초과하는 투사 유닛(221)을 포함할 수 있고; 화상 캡처 단계(21)에서, 화각(222)은 제1 화각(222a)과 제2 화각(222b)을 포함할 수 있다. 제1 투사 유닛(221a)은 제1 영상(212a)을 제1 화각(222a)으로 투사하여 제1 영상(212a)을 타깃 물체(10) 상으로 맵핑하고, 제2 투사 유닛(221b)은 제2 화상(212b)을 제2 화각(222b)으로 투사하여 제2 화상(212b)을 타깃 물체(10) 상으로 맵핑하여, 제1 및 제2 화상(212a, 212b)이 모두 맵핑되는 공통 맵핑 영역(30)을 타깃 물체(10) 상에 생성하게 한다. 제1 영상(212a)과 제2 영상(212b)이 서로 다른 방향으로부터 투사되어 공통 맵핑 영역(30)을 커버하여, 함께 타깃 물체(10) 상으로 맵핑되는 영상(241)을 형성할 때, 화상(201)이 하나의 단일 방향으로부터, 형상에 상승된 영역과 함몰된 영역(101)을 갖는 타깃 물체(10) 상으로 투사될 때, 형성될 수 있는 투사 사각 구역을 최소화시키는 것이 가능하다.
사람들이 서로 다른 각도로부터 타깃 물체(10) 상으로 맵핑된 첨부 화상(242)(도 15에는 미도시)을 보도록 투사된 영상(241)을 제공할 수 있는 타깃 물체(10)의 영역을 증가시키기 위해, 본 발명의 방법을 구현하는 다른 방식이 있다. 도 7 및 도 15를 참조한다. 본 발명의 제5 실시 예에서, 영상 획득 단계(21)에서 하나를 초과하는 화각이 취해질 수 있다. 예를 들어, 제1 화각(222a), 제2 화각(222b), 및 제3 화각(222c)을 사용하여 화상(210)을 캡처하여 이에 대응하여 제1 투사 화상(213a), 제2 투사 화상(213b) 및 제3 투사 화상(213c)을 생성할 수 있다. 이를 위해 투사 장치(220)는 3개의 투사 유닛, 즉 제1 투사 유닛(221a), 제2 투사 유닛(221b) 및 제3 투사 유닛(221c)을 포함할 수 있다. 도 15에서 볼 수 있는 바와 같이, 제1, 제2 및 제3 투사 화상(213a, 213b, 213c)을 제1, 제2 및 제3 화각으로 각각 투사하여 제1, 제2 및 제3 투사 화상(213a, 213b, 213c)을 타깃 물체(10) 상으로 맵핑하기 위해 제1, 제2 및 제3 투사 유닛(221a, 221b, 221c)이 타깃 물체(10)에 대해 3개의 상이한 각도 위치에서 타깃 물체(10)를 둘러싸게 설정될 수 있다. 이 경우 제1, 제2 및 제3 투사 화상(213a, 213b, 213c)은 함께 타깃 물체(10) 주위 외주면(102) 전체를 커버한다.
본 발명은 그 일부 바람직한 실시 예를 통해 설명되었으나, 이들 바람직한 실시 예는 단지 예시적인 것일 뿐 본 발명을 임의의 방식으로 제한하려고 의도된 것이 아니며, 첨부된 청구 범위에 의해서만 제한되도록 의도된 본 발명의 사상과 범위를 벗어남이 없이 설명된 실시 예에 많은 변경과 수정이 수행될 수 있는 것으로 이해된다.

Claims (12)

  1. 화상을 타깃 물체 상으로 투사 및 맵핑하는 투사 맵핑 방법으로서,
    3 차원(3D) 모델을 전자 장치에 구축하거나 전자 장치로 입력하는 모델링 단계로서, 상기 3D 모델은 상기 타깃 물체의 형상과 실질적으로 동일한 형상을 가지는, 상기 모델링 단계;
    상기 전자 장치에서 상기 3D 모델을 포함하는 화상을 적어도 하나의 화각(angle of view)으로부터 캡처하는 화상 캡처 단계;
    투사 장치를 사용하여 상기 화각과 일치하는 방향으로 상기 3D 모델을 포함하는 화상을 투사하여 상기 화상을 상기 타깃 물체 상으로 맵핑하는 맵핑 단계;
    상기 투사 장치로부터 투사된 화상에 포함된 상기 3D 모델이 상기 타깃 물체의 윤곽과 완전히 일치하는 윤곽을 가지도록 상기 전자 장치 상에 표시된 상기 3D 모델을 회전, 이동 및/또는 크기 조절하는 조절 단계;
    영상을 상기 전자 장치에 구축하거나 상기 전자 장치로 입력하고 첨부 화상으로 변환하는 변환 단계;
    상기 조절 단계에서 조절된 상기 3D 모델의 표면 상에 상기 첨부 화상을 배치하여 상기 첨부 화상과 상기 조절된 3D 모델이 함께 투사 모델을 형성하는 투사 단계;
    상기 전기 장치에서 상기 투사 모델을 포함하는 투사 화상을 상기 화각과 일치하는 방향으로 캡처하는 재-캡처 단계; 및
    상기 투사 모델을 포함하는 상기 투사 화상을 상기 투사 장치로부터 상기 화각과 일치하는 방향으로 투사하여 상기 투사 화상을 상기 타깃 물체 상으로 맵핑하는 재-맵핑 단계를 포함하는 것을 특징으로 하는 투사 맵핑 방법.
  2. 제1항에 있어서, 상기 타깃 물체에 대한 상기 투사 장치의 배향, 각도 및/또는 위치가 변할 때 상기 투사 장치로부터 투사된 상기 화상에 포함된 상기 투사 모델이 상기 타깃 물체의 윤곽과 다시 일치하도록 상기 투사 모델을 다시 조절하는 재-조절 단계를 더 포함하는 것을 특징으로 하는 투사 맵핑 방법.
  3. 제1항에 있어서, 상기 타깃 물체의 원래의 윤곽과 변형 후의 윤곽 사이의 임의의 차이에 대응하여, 상기 3D 모델의 수정된 윤곽이 상기 타깃 물체의 변형 후의 윤곽과 동일하도록, 상기 3D 모델의 윤곽을 수정하는 재-모델링 단계를 더 포함하고; 그런 다음 투사 단계를 다시 수행하는 것을 특징으로 하는 투사 맵핑 방법.
  4. 제1항에 있어서, 상기 화상 캡처 단계에서, 상기 캡처된 화상에 배경 제거 공정을 수행하여, 상기 3D 모델의 윤곽과 패턴만을 상기 화각에서 캡처된 화상에 제공하는 것을 특징으로 하는 투사 맵핑 방법.
  5. 제1항에 있어서, 상기 투사 장치는 제1 투사 유닛과 제2 투사 유닛을 포함하고, 제1 화각과 제2 화각이 상기 화상 캡처 단계에서 사용되고; 상기 제1 투사 유닛은 제1 영상을 상기 제1 화각에서 투사하여 상기 제1 영상을 상기 타깃 물체 상으로 맵핑하고, 상기 제2 투사 유닛은 상기 제2 영상을 상기 제2 화각에서 투사하여 상기 제2 영상을 상기 타깃 물체 상으로 맵핑하여, 상기 제1 및 제2 화상이 모두 맵핑되는 공통 맵핑 영역을 상기 타깃 물체 상에 생성하게 하는 것을 특징으로 하는 투사 맵핑 방법.
  6. 제1항에 있어서, 상기 투사 장치는 제1 투사 유닛, 제2 투사 유닛 및 제3 투사 유닛을 포함하고, 제1 화각, 제2 화각 및 제3 화각이 상기 화상 캡처 단계에서 사용되고; 상기 제1, 제2 및 제3 투사 유닛은 제1, 제2 및 제3 투시 화상을 상기 제1, 제2 및 제3 화각으로 각각 투사하여 상기 제1, 제2 및 제3 투사 화상을 상기 타깃 물체 상으로 맵핑하기 위해 상기 타깃 물체에 대해 3개의 상이한 각도 위치에서 상기 타깃 물체를 둘러싸도록 설정되고; 상기 제1, 제2 및 제3 투사 화상은 함께 상기 타깃 물체 주위 전체 외부 표면을 커버하는 것을 특징으로 하는 투사 맵핑 방법.
  7. 화상을 타깃 물체 상으로 투사하고 맵핑하는 투사 맵핑 방법으로서,
    3차원(3D) 모델을 전자 장치에 구축하거나 전자 장치로 입력하는 모델링 단계로서, 상기 3D 모델은 상기 타깃 물체의 형상과 실질적으로 동일한 형상을 가지는, 상기 모델링 단계;
    영상을 상기 전자 장치에 구축하거나 상기 전자 장치로 입력하고 첨부 화상으로 변환하는 변환 단계;
    상기 첨부 화상을 상기 3D 모델의 표면 상에 배치하여, 상기 첨부 화상과 상기 3D 모델이 함께 투사 모델을 형성하는 투사 단계;
    상기 전자 장치에서 상기 투사 모델을 포함하는 화상을 적어도 하나의 화각으로부터 캡처하는 화상 캡처 단계;
    투사 장치를 사용하여 상기 투사 모델을 포함하는 화상을 상기 화각과 일치하는 방향으로 투사하여 상기 화상을 상기 타깃 물체 상으로 맵핑하는 맵핑 단계; 및
    상기 투사 장치로부터 투사된 화상에 포함된 상기 투사 모델이 상기 타깃 물체의 윤곽과 완전히 일치하는 윤곽을 가지도록 상기 전자 장치 상에 표시된 상기 투사 모델을 회전, 이동 및/또는 크기 조절하는 조절 단계를 포함하는 것을 특징으로 하는 투사 맵핑 방법.
  8. 제7항에 있어서, 상기 타깃 물체에 대한 상기 투사 장치의 배향, 각도 및/또는 위치가 변경될 때, 상기 투사 장치로부터 투사된 화상에 포함된 투사 모델이 상기 타깃 물체의 윤곽과 다시 일치하도록, 상기 투사 모델을 다시 조절하는 재-조절 단계를 더 포함하는 것을 특징으로 하는 투사 맵핑 방법.
  9. 제7항에 있어서, 상기 타깃 물체의 원래의 윤곽과 변형 후의 윤곽 사이의 임의의 차이에 대응하여, 상기 3D 모델의 수정된 윤곽이 상기 타깃 물체의 변형 후의 윤곽과 동일하도록, 상기 3 차원 모델의 윤곽을 수정하는 재-모델링 단계를 더 포함하고; 그런 다음 상기 투사 단계를 다시 수행하는 것을 특징으로 하는 투사 맵핑 방법.
  10. 제7항에 있어서, 상기 화상 캡처 단계에서, 상기 캡처된 화상에 배경 제거 공정을 수행하여, 상기 투사 모델의 윤곽과 패턴만을 상기 화각에서 캡처된 화상에 제공하는 것을 특징으로 하는 투사 맵핑 방법.
  11. 제7항에 있어서, 상기 투사 장치는 제1 투사 유닛과 제2 투사 유닛을 포함하고, 제1 화각과 제2 화각이 상기 화상 캡처 단계에서 사용되고; 상기 제1 투사 유닛은 제1 영상을 상기 제1 화각에서 투사하여 상기 제1 영상을 상기 타깃 물체 상으로 맵핑하고, 상기 제2 투사 유닛은 상기 제2 영상을 상기 제2 화각에서 투사하여 상기 제2 영상을 상기 타깃 물체 상으로 맵핑하여, 상기 제1 및 제2 화상이 모두 맵핑되는 공통 맵핑 영역을 상기 타깃 물체 상에 생성하게 하는 것을 특징으로 하는 투사 맵핑 방법.
  12. 제7항에 있어서, 상기 투사 장치는, 제1 투사 유닛, 제2 투사 유닛 및 제3 투사 유닛을 포함하고, 제1 화각, 제2 화각 및 제3 화각이 상기 화상 캡처 단계에서 사용되고; 상기 제1, 제2 및 제3 투사 유닛은 상기 제1, 제2 및 제3 투사 화상을 상기 제1, 제2 및 제3 화각으로 각각 투사하여 상기 제1, 제2 및 제3 투사 화상을 상기 타깃 물체 상에 맵핑하기 위해 상기 타깃 물체에 대해 3개의 상이한 각도 위치에서 상기 타깃 물체를 둘러싸게 설정되고; 상기 제1, 제2 및 제3 투사 화상은 함께 상기 타깃 물체 주위 전체 외부 표면을 커버하는 것을 특징으로 하는 투사 맵핑 방법.
KR1020180091733A 2018-08-07 2018-08-07 투사 맵핑 방법 KR20180091794A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180091733A KR20180091794A (ko) 2018-08-07 2018-08-07 투사 맵핑 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180091733A KR20180091794A (ko) 2018-08-07 2018-08-07 투사 맵핑 방법

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020170016205 Division 2017-02-06

Publications (1)

Publication Number Publication Date
KR20180091794A true KR20180091794A (ko) 2018-08-16

Family

ID=63443983

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180091733A KR20180091794A (ko) 2018-08-07 2018-08-07 투사 맵핑 방법

Country Status (1)

Country Link
KR (1) KR20180091794A (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020156487A1 (zh) * 2019-02-01 2020-08-06 华为技术有限公司 场景识别方法及装置、终端、存储介质

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020156487A1 (zh) * 2019-02-01 2020-08-06 华为技术有限公司 场景识别方法及装置、终端、存储介质
US11918900B2 (en) 2019-02-01 2024-03-05 Huawei Technologies Co., Ltd. Scene recognition method and apparatus, terminal, and storage medium

Similar Documents

Publication Publication Date Title
CN110300292B (zh) 投影畸变校正方法、装置、系统及存储介质
JP7007348B2 (ja) 画像処理装置
JP2020187358A (ja) 投影システム、投影装置及びその表示画像の校正方法
US8491128B2 (en) System and method for projection correction by capturing projection image
TWI703870B (zh) 投影裝置、投影系統及影像校正方法
JP2015219679A (ja) 画像処理システム、情報処理装置、プログラム
JP2013118596A (ja) 投影システム及び方法
CN111694528A (zh) 显示墙的排版辨识方法以及使用此方法的电子装置
CN110784692B (zh) 投影装置、投影系统及影像校正方法
TW202008064A (zh) 投影機校正方法與使用此方法的投影系統
CN114449249B (zh) 图像投影方法、装置、存储介质以及投影设备
US20180213196A1 (en) Method of projection mapping
JP7241812B2 (ja) 情報可視化システム、情報可視化方法、及びプログラム
CN112770095B (zh) 全景投影方法、装置及电子设备
RU2735066C1 (ru) Способ отображения широкоформатного объекта дополненной реальности
KR20180091794A (ko) 투사 맵핑 방법
CN114339179B (zh) 投影校正方法、装置、存储介质以及投影设备
CN115086631B (zh) 图像生成方法和信息处理装置
JP5506371B2 (ja) 画像処理装置、画像処理方法およびプログラム
KR20220162595A (ko) 전자 장치 및 그 제어 방법
CN112070904A (zh) 应用于博物馆的增强现实展示方法
JP6859763B2 (ja) プログラム、情報処理装置
WO2019163449A1 (ja) 画像処理装置、画像処理方法およびプログラム
JP6429414B2 (ja) プロジェクションマッピング方法
TWI621356B (zh) 光雕投影方法

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application