KR20130071100A - 3차원 모형에 영상을 투사하는 장치 및 방법 - Google Patents

3차원 모형에 영상을 투사하는 장치 및 방법 Download PDF

Info

Publication number
KR20130071100A
KR20130071100A KR1020110138433A KR20110138433A KR20130071100A KR 20130071100 A KR20130071100 A KR 20130071100A KR 1020110138433 A KR1020110138433 A KR 1020110138433A KR 20110138433 A KR20110138433 A KR 20110138433A KR 20130071100 A KR20130071100 A KR 20130071100A
Authority
KR
South Korea
Prior art keywords
unit
image
dimensional model
control computer
model
Prior art date
Application number
KR1020110138433A
Other languages
English (en)
Other versions
KR101299191B1 (ko
Inventor
허상훈
최완섭
Original Assignee
허상훈
최완섭
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 허상훈, 최완섭 filed Critical 허상훈
Priority to KR1020110138433A priority Critical patent/KR101299191B1/ko
Publication of KR20130071100A publication Critical patent/KR20130071100A/ko
Application granted granted Critical
Publication of KR101299191B1 publication Critical patent/KR101299191B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • G06T3/08

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Remote Sensing (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)

Abstract

개시된 내용은 3차원 모형에 영상을 투사하는 장치 및 방법에 관한 것으로서, 3차원 모형과, 3차원 모형의 깊이, 모양에 대한 지형정보를 촬영하는 3차원 카메라와, 3차원 모형에 사전에 설정되어 있는 영상을 투사하는 영상 프로젝터, 그리고 영상 프로젝터를 통해 3차원 모형에 투사하는 다수의 영상정보를 저장하고 있고, 3차원 카메라로부터 입력받은 3차원 모형의 촬영 데이터를 각 픽셀별로 기 설정된 깊이, 모양에 대한 지형정보별 색상으로 치환하고, 현재 촬영한 3차원 모형의 촬영 데이터를 이전에 저장된 촬영 데이터와 비교하여 변화량이 기 설정된 기준 데이터를 초과하면 해당 위치의 깊이, 모양에 대한 지형 정보에 따라 유닛을 생성하며, 3차원 모형의 지형정보에 따른 색상과 유닛을 포함한 영상을 영상 프로젝터를 통해 3차원 모형에 투사하도록 제어하는 제어용 컴퓨터를 포함한다.
따라서, 본 발명은 역동적인 애니메이션 환경을 만들 수 있으며, 새로운 미디어의 제공을 토대로 창의적인 사고의 증강, 시각적인 즐거움, 새로운 조경 환경을 얻을 수 있다.

Description

3차원 모형에 영상을 투사하는 장치 및 방법{Apparatus and method for projection image into three-dimensional model}
본 발명은 3차원 모형의 지형정보를 토대로 사전에 설정된 소정의 영상을 3차원 모형에 투사하여 표시하는 3차원 모형에 영상을 투사하는 장치 및 방법에 관한 것이다.
최근 들어 영상 산업의 발전으로 인해 2차원으로 영상을 표시하거나 확인하는 것에 그치지 않고 3차원으로 영상을 표시하거나 확인하는 기술의 개발 및 이용이 활발하게 이루어지고 있다.
예를 들어, 지금까지 일반 사용자들은 텔레비전이나 스크린을 통해 2차원 평면으로 영상을 확인하였지만, 3차원 영상기술의 도입으로 인하여 2차원 평면이 아닌 3차원으로 영상으로 확인할 수 있게 되었다.
이러한 3차원 영상의 표시 및 확인을 위한 장치로는 홀로그래피, 3차원 디스플레이 장치(예를 들어, 3D 안경) 등이 대표적이다. 홀로그래피는 위상이 갖추어진 레이저 광선을 이용하여 렌즈 없이 한 장의 사진으로 입체상을 촬영, 재생하는 방법 또는 이것을 응용한 광학 기술이며, 3차원 디스플레이 장치는 인간의 양안 시차를 이용하여 3차원 영상을 감상하도록 하는 장치이다.
하지만, 종래의 3차원 영상을 표시하거나 확인하는 홀로그래피나 3차원 디스플레이 장치는, 영상이 표시되는 영역의 깊이, 모양 등의 지형정보를 참조하여 영상을 입체적으로 표시하는 기술이 아니기 때문에 지형정보를 토대로 3차원 영상을 정량화하여 표시하는데 한계가 있었다.
즉 종래의 기술로는 사용자가 자유롭게 영상이 표시되는 3차원 영역을 생성하고, 이렇게 생성된 3차원 영역에 원하는 영상을 투사하여 표시하는 형태의 3차원 영상 구현방식을 얻을 수 없었다.
특허공개 제10-2011-0038204호 2011. 04. 14. 특허공개 제10-2006-0112396호 2006. 11. 01. 특허공개 제10-2010-0104328호 2010. 09. 29.
본 발명은, 입상물(粒狀物), 종이, 나무 등의 각종 재료를 사용하여 생성한 3차원 모형의 깊이, 모양 등의 지형정보에 따라 사전에 설정되어 있는 영상을 투사하여 표시할 수 있는 3차원 모형에 영상을 투사하는 장치 및 방법을 제공한다.
본 발명은, 3차원 모형의 실시간 지형정보 변화에 대응하여 3차원 모형에 투사되는 영상의 변화를 즉시 적용할 수 있는 3차원 모형에 영상을 투사하는 장치 및 방법을 제공한다.
본 발명의 일 실시예에 따른 3차원 모형에 영상을 투사하는 장치는, 3차원 모형과, 3차원 모형의 깊이, 모양에 대한 지형정보를 촬영하는 3차원 카메라와, 3차원 모형에 사전에 설정되어 있는 영상을 투사하는 영상 프로젝터, 그리고 영상 프로젝터를 통해 3차원 모형에 투사하는 다수의 영상정보를 저장하고 있고, 3차원 카메라로부터 입력받은 3차원 모형의 촬영 데이터를 각 픽셀별로 기 설정된 깊이, 모양에 대한 지형정보별 색상으로 치환하고, 현재 촬영한 3차원 모형의 촬영 데이터를 이전에 저장된 촬영 데이터와 비교하여 변화량이 기 설정된 기준 데이터를 초과하면 해당 위치의 깊이, 모양에 대한 지형 정보에 따라 유닛을 생성하며, 3차원 모형의 지형정보에 따른 색상과 유닛을 포함한 영상을 영상 프로젝터를 통해 3차원 모형에 투사하도록 제어하는 제어용 컴퓨터를 포함할 수 있다.
또한, 본 발명의 일 실시예에 따른 3차원 모형에 영상을 투사하는 방법은, (1) 제어용 컴퓨터는, 3차원 카메라로부터 3차원 모형의 촬영 데이터를 입력받는 단계와, (2) 제어용 컴퓨터는, 3차원 카메라로부터 입력받은 3차원 모형의 촬영 데이터를 각 픽셀별로 기 설정된 깊이, 모양에 대한 지형정보별 색상으로 치환하는 단계와, (3) 제어용 컴퓨터는, 3차원 카메라로부터 입력받은 3차원 모형의 촬영 데이터를 이전에 저장된 촬영 데이터와 비교하여 변화한 부분을 확인하고, 변화량이 기 설정된 기준 데이터를 초과하면 해당 위치의 깊이, 모양에 대한 지형 정보에 따라 유닛의 생성을 수행하되, 이동 가능한 유닛의 경우 고유의 속도와 방향을 부여하는 단계, 그리고 (4) 제어용 컴퓨터는, (2) 단계에서 생성된 3차원 모형의 지형정보에 따른 색상과 (3) 단계에서 생성된 유닛을 포함한 영상을 영상 프로젝터를 통해 3차원 모형에 투사하는 단계를 포함할 수 있다.
이상에서와 같이 본 발명의 3차원 모형에 영상을 투사하는 장치 및 방법에 따르면, 모래를 포함한 입상물, 종이, 나무 등의 각종 재료를 사용하여 생성한 3차원 모형의 깊이, 모양에 대한 지형정보를 검출하여 사전에 설정되어 있는 바닷가를 포함한 각종 자연환경, 주택 조경, 모델하우스 모형도 등을 위한 다양한 영상을 3차원 모형에 투사하여 표시하기 때문에 역동적인 애니메이션 환경을 만들 수 있으며, 새로운 미디어의 제공을 토대로 창의적인 사고의 증강, 시각적인 즐거움, 새로운 조경 환경을 얻을 수 있는 효과가 있다.
도 1은 본 발명의 일 실시예에 따른 3차원 모형에 영상을 투사하는 장치의 구성을 개략적으로 나타낸 도면,
도 2는 도 1의 제어용 컴퓨터의 구성을 상세하게 나타낸 도면,
도 3은 본 발명의 일 실시예에 따른 3차원 모형에 영상을 투사하는 방법의 동작과정을 상세하게 나타낸 순서도,
도 4 내지 도 6은 도 3의 각 서브루틴의 동작과정을 상세하게 설명하기 위한 순서도,
도 7은 본 발명의 방법에 따른 돋보기 기능의 동작과정을 상세하게 설명하기 위한 순서도이다.
이하, 첨부된 도면을 참조하여 본 발명의 3차원 모형에 영상을 투사하는 장치 및 방법을 상세하게 설명한다.
도 1은 본 발명의 일 실시예에 따른 3차원 모형에 영상을 투사하는 장치의 구성을 개략적으로 나타낸 도면이다.
도시된 바와 같이 본 발명에 따른 장치는, 3차원 모형(10), 3차원 카메라(20), 영상 프로젝터(30), 마커(40), 적외선 카메라(50), 제어용 컴퓨터(60) 등으로 구성된다.
3차원 모형(10)은 입상물, 종이, 나무를 포함한 각종 재료로 생성되며, 제어용 컴퓨터(60)의 제어에 따라 영상 프로젝터(30)를 통해 소정의 영상이 투사된다. 예를 들어, 상부가 개방된 구조의 상자 내에 모래와 같은 입상물을 채운 후, 입상물을 자유롭게 움직이는 사용자의 조작에 따라 깊이나 모양이 다른 지형이 생성되며, 이렇게 생성된 지형을 토대로 사전에 설정되어 있는 바닷가 풍경 등의 영상이 투사된다.
이때 3차원 모형(10)은 사용자에 의해 실시간 이동이나 변경 조작에 따라 변화가 가능하며, 3차원 모형(10)의 실시간 변화에 따라 제어용 컴퓨터(60)에서 3차원 모형에 투사되는 영상을 변화시킨다.
3차원 카메라(20)는 3차원 모형(10)의 상부에 구비되며, 3차원 모형(10)의 깊이, 모양에 대한 지형정보를 촬영하여 제어용 컴퓨터(60)로 출력한다.
영상 프로젝터(30)는 3차원 모형(10)의 상부에 구비되며, 제어용 컴퓨터(60)의 제어에 따라 3차원 모형(10)에 사전에 설정되어 있는 영상을 투사한다.
마커(40)는 3차원 모형(10)에 투사되고 있는 특정 영상을 확대하여 볼 수 있는 돋보기 기능을 수행하기 위한 장비로서, 상부에 적외선 LED(42)가 구비되어 있으며, 사용자에 의해 소정의 영상이 투사되고 있는 3차원 모형(10)의 특정 위치에 올려지면, 영상 프로젝터(30)를 통해 해당 위치에 존재하는 영상이 확대되어 투사된다.
적외선 카메라(50)는 마커(40)의 상부에 구비된 적외선 LED(42)에서 방출되는 적외선을 촬영하여 제어용 컴퓨터(60)로 출력한다.
제어용 컴퓨터(60)는 영상 프로젝터(30)를 통해 3차원 모형(10)에 투사하는 각종 영상정보(예를 들어, 바닷가를 포함한 각종 자연환경, 주택 조경, 모델하우스 모형도 등)를 저장하고 있다. 그리고 3차원 카메라(20)로부터 입력받은 3차원 모형(10)의 촬영 데이터를 각 픽셀별로 기 설정된 깊이, 모양에 대한 지형정보별 색상으로 치환함과 동시에, 현재 촬영한 3차원 모형(10)의 촬영 데이터를 이전에 저장된 촬영 데이터와 비교하여 변화량이 기 설정된 기준 데이터를 초과하면 해당 위치의 깊이, 모양에 대한 지형 정보에 따라 건물이나 자동차를 포함한 각종 물체, 동/식물, 인간을 형상화한 유닛을 생성하며, 3차원 모형(10)의 지형정보에 따라 치환한 색상과 각 유닛을 포함한 소정의 영상을 영상 프로젝터(30)를 통해 3차원 모형(10)에 투사하도록 제어한다.
예를 들어, 3차원 모형(10)에 투사되는 영상이 바닷가 풍경이라고 가정하면, 제어용 컴퓨터(60)는 3차원 카메라(20)로부터 전달되는 촬영 데이터를 토대로 지형정보별 색상으로 치환할 경우 기준이 되는 깊이 데이터보다 높은 지형에는 섬이나 모래를 표시하고, 낮은 지형에는 바다를 표현하되, 깊이가 깊어질수록 짙은 색으로 표현하도록 제어한다. 또한, 촬영 데이터의 깊이 정보에 따라 서로 다른 유닛들을 생성하여 3차원 모형(10)에 투사하는데, 섬으로 투사되는 곳에는 나무 유닛을 생성하고, 섬과 바다의 경계가 되는 해변에는 게, 소라, 조개 등의 유닛을 생성하며, 바다에는 깊이에 따라 크기가 서로 다른 고기 유닛을 생성한다.
또한, 제어용 컴퓨터(60)는 3차원 모형(10)에 투사되는 영상에 포함된 모든 유닛의 위치를 지속적으로 확인하고, 이동 가능한 유닛이 활동가능 지형을 벗어나는 횟수가 기 설정된 기준 횟수를 초과하면 해당 유닛을 소멸시킨다.
또한, 제어용 컴퓨터(60)는 사용자에 의해 마커(40)가 3차원 모형(10)의 특정 위치에 위치되면, 적외선 카메라(50)로부터 입력되는 촬영 데이터를 토대로 마커(40)의 위치정보와 해당 위치에 투사되고 있는 특정 유닛의 정보를 확인한 후, 마커(40)의 위치에 특정 유닛의 확대 영상을 영상 프로젝터(30)를 통해 3차원 모형(10)에 투사하도록 제어한다.
도 2는 상술한 도 1의 제어용 컴퓨터(60)의 구성을 보다 상세하게 나타낸 도면이다.
도시된 바와 같이 제어용 컴퓨터(60)는, 지형 판단부(61), 유닛 처리부(62), 데이터베이스(63), 영상처리부(64), 제어부(65) 등으로 구성된다.
지형 판단부(61)는 3차원 카메라(20)로부터 입력받은 3차원 모형(10)의 촬영 데이터를 각 픽셀 단위별로 깊이, 모양에 대한 지형정보별 색상으로 치환하며, 각 픽셀 단위별로 치환한 색상을 부드럽게 하기 위하여 필터를 사용하여 블러링 처리한다.
유닛 처리부(62)는 3차원 카메라(30)로부터 현재 촬영된 3차원 모형(10)의 촬영 데이터와 이전에 저장된 촬영 데이터를 픽셀 단위로 확인하고, 확인 결과를 토대로 변화가 있는 부분만을 표시하는 비트맵 데이터를 생성하고, 생성된 비트맵 데이터의 변화량과 기 설정된 기준 데이터를 비교하여 비트맵 데이터의 변화량이 기 설정된 기준 데이터를 초과하면 해당 위치의 깊이, 모양에 대한 지형정보별로 건물이나 자동차를 포함한 각종 물체, 동/식물, 인간을 형상화한 유닛의 생성을 처리한다.
이때 생성된 모든 유닛은 고유의 활동 가능 깊이를 가지고, 이동 가능한 유닛인 경우 고유의 속도와 방향을 부여받는다. 그리고 생성된 유닛이 이동 가능한 유닛인 경우에는 각 유닛의 현재 위치를 지속적으로 확인한 후, 각 유닛별로 활동가능 지형을 벗어나면 횟수를 증가시키며, 증가된 횟수가 기 설정된 기준 횟수(예를 들어, 3회)를 초과하면 해당 유닛을 소멸시킨다.
데이터베이스(63)는 영상 프로젝터(30)를 통해 3차원 모형(10)에 투사될 각종 영상정보를 저장한다.
영상처리부(64)는 제어부(65)의 제어에 따라 지형 판단부(61)를 통해 치환된 3차원 모형(10)의 지형정보에 따른 색상과 유닛 처리부(62)를 통해 생성된 유닛을 포함한 영상을 영상 프로젝터(30)를 통해 3차원 모형(10)에 투사하도록 한다.
제어부(65)는 지형 판단부(61)를 통한 3차원 모형(10)의 촬영 데이터의 깊이, 모양에 대한 지형정보별 색상의 치환을 제어하고, 유닛 처리부(62)를 통한 3차원 모형(10)의 촬영 데이터의 깊이, 모양에 대한 지형정보에 따른 유닛의 생성/이동/소멸을 제어하며, 영상처리부(64)를 통한 3차원 모형(10)의 지형정보에 따른 색상과 유닛을 포함한 영상의 3차원 모형(10)으로의 투사를 제어한다.
다음에는, 이와 같이 구성된 본 발명에 따른 3차원 모형에 영상을 투사하는 방법의 일 실시예를 도 3 내지 도 7을 참조하여 상세하게 설명한다.
도 3 내지 도 7은 본 발명의 일 실시예에 따른 3차원 모형에 영상을 투사하는 방법의 동작과정을 상세하게 나타낸 순서도이다.
우선, 제어용 컴퓨터(60)는 3차원 모형(10)의 상부에 위치한 3차원 카메라(20)로부터 입상물, 종이, 나무를 포함한 각종 재료를 사용하여 생성한 3차원 모형(10)의 촬영 데이터를 입력받아 저장한다(S100).
3차원 카메라(20)로부터 촬영 데이터가 입력되면, 제어용 컴퓨터(60)는 3차원 카메라(20)로부터 입력받은 3차원 모형(10)의 촬영 데이터를 토대로 지형을 판단하고, 각 픽셀별로 기 설정된 깊이, 모양에 대한 지형정보별 색상으로 치환한다(S200).
S200 단계를 도 4를 참조하여 상세하게 설명하면, 제어용 컴퓨터(60)는 S100 단계를 통해 3차원 카메라(20)로부터 입력받은 촬영 데이터를 토대로 깊이, 모양에 대한 지형정보를 확인하고(S210), 기 설정되어 있는 깊이, 모양에 대한 지형정보별 색상정보를 참조하여 S210 단계에서 확인한 깊이, 모양에 대한 지형정보를 각 픽셀 단위별로 해당 색상으로 치환한다(S220).
그리고 제어용 컴퓨터(60)는 S220 단계에서 각 픽셀 단위별로 치환한 색상을 부드럽게 하기 위하여 필터를 사용하여 블러링 처리한다(S230).
또한, 3차원 카메라(20)로부터 촬영 데이터가 입력되면, 제어용 컴퓨터(60)는 3차원 카메라(20)로부터 입력받은 3차원 모형(10)의 촬영 데이터를 이전에 저장된 촬영 데이터와 비교하여 변화한 부분을 확인하고, 변화량이 기 설정된 기준 데이터를 초과하면 해당 위치의 깊이, 모양에 대한 지형 정보에 따라 건물이나 자동차를 포함한 각종 물체, 동/식물, 인간을 형상화한 유닛의 생성을 수행하되, 이동 가능한 유닛의 경우 고유의 속도와 방향을 부여한다(S300).
S300 단계를 도 5를 참조하여 상세하게 설명하면, 제어용 컴퓨터(60)는 S100 단계를 통해 3차원 카메라(20)로부터 3차원 모형(10)의 촬영 데이터가 입력되면, 이전의 촬영 데이터가 저장되어 있는지를 판단하고(S310), 판단결과 이전의 촬영 데이터가 저장되어 있지 않으면, 현재 입력된 3차원 모형(10)의 촬영 데이터를 저장하고 S100 단계 이후를 반복하여 수행한다(S320).
그러나 S310 단계의 판단결과 이전의 촬영 데이터가 저장되어 있으면, 제어용 컴퓨터(60)는 현재 입력된 3차원 모형(10)의 촬영 데이터와 이전에 저장된 촬영 데이터를 픽셀 단위로 확인하고(S330), 확인 결과를 토대로 변화가 있는 부분만 표시된 비트맵 데이터를 생성한다(S340).
그리고 제어용 컴퓨터(60)는 S340 단계에서 생성된 비트맵 데이터의 변화량이 기 설정된 기준 데이터를 초과하는지를 판단하고(S350), 판단결과 비트맵 데이터의 변화량이 기 설정된 기준 데이터를 초과하면, 유닛 생성 명령을 실행한다(S360).
그러면 제어용 컴퓨터(60)는 S360 단계에서 실행된 유닛 생성 명령이 내려진 위치별 깊이, 모양에 대한 지형정보를 확인하고(S370), 확인한 각 위치별 지형정보에 따라 건물이나 자동차를 포함한 각종 물체, 동/식물, 인간을 형상화한 유닛의 생성을 처리한다(S380).
상술한 S200 단계와 S300 단계를 수행한 제어용 컴퓨터(60)는 S200 단계에서 수행된 3차원 모형의 지형정보에 따른 색상과 S300 단계에서 생성된 유닛을 포함한 소정의 영상(예를 들어, 바닷가를 포함한 각종 자연환경, 주택 조경, 모델하우스 모형도 등)을 영상 프로젝터(30)를 통해 3차원 모형(10)에 투사하여 표시한다(S400).
이때 S400 단계에서 영상 프로젝터(30)를 통해 영상이 투사되는 3차원 모형(10)은, 사용자에 의한 입상물, 종이, 나무를 포함한 각종 재료의 실시간 이동이나 변경 조작에 따라 변화가 가능하며, 이 경우 제어용 컴퓨터(60)는 3차원 모형(10)의 실시간 변화된 지형정보를 토대로 3차원 모형(10)에 투사되는 영상을 변화시킨다.
S400 단계를 통해 소정의 영상을 3차원 모형(10)에 투사한 이후, 제어용 컴퓨터(60)는 3차원 모형(100)에 투사되는 영상에 포함된 모든 유닛의 위치를 지속적으로 확인하고, 이동 가능한 유닛인 경우 해당 유닛이 활동가능 지형을 벗어나는 횟수가 기 설정된 기준 횟수를 초과하면 해당 유닛을 소멸시킨다(S500).
S500 단계를 도 6을 참조하여 상세하게 설명하면, 제어용 컴퓨터(60)는 S300 단계를 통해 생성된 3차원 모형(10)에 투사될 영상에 포함되는 모든 유닛별로 변수를 생성한 후(S510), S400 단계를 통해 3차원 모형(10)에 투사되는 영상에 포함된 각 유닛들의 현재 위치를 확인한다(S520).
그리고 제어용 컴퓨터(60)는 S520 단계에서 확인한 각 유닛의 현재의 위치가 이동 가능한 위치인지를 판단하고(S530), 판단결과 유닛의 현재의 위치가 이동 가능한 위치이면, S510 단계에서 생성한 변수의 수를 1 증가시킨다(S540).
이후 제어용 컴퓨터(60)는 각 유닛별로 생성된 변수의 수가 기 설정된 기준 횟수(예를 들어, 기준 횟수는 3회로 설정하며, 환경에 따라 임의로 조절이 가능함)를 초과하는지를 판단하고(S550), 판단결과 각 유닛별로 생성된 변수의 수가 기 설정된 기준 횟수를 초과하면, 현재 3차원 모형(10)에 투사되고 있는 해당 유닛을 소멸시킨다(S560).
그러나 S530 단계의 판단결과 유닛의 현재의 위치가 이동 가능한 위치이면, 제어용 컴퓨터(60)는 S510 단계에서 생성한 변수의 수를 0으로 초기화시킨 후 S520 단계 이후를 반복하여 수행한다(S570).
이에 따라 본 발명은 바닷가를 포함한 각종 자연환경, 주택 조경, 모델하우스 모형도 등의 다양한 영상을 3차원 모형에 투사하여 표시함으로써, 역동적인 애니메이션 환경의 생성은 물론, 창의적인 사고의 증강, 시각적인 즐거움, 새로운 조경 환경을 얻을 수 있다.
한편, 본 발명은 마커(40) 및 적외선 카메라(50)를 통해 특정 위치의 영상을 확대하여 투사할 수 있는 돋보기 기능을 추가로 제공할 수 있다.
이러한 돋보기 기능을 도 7을 참조하여 상세하게 설명하면, S400 단계를 통해 3차원 모형(10)에 영상이 투사될 때, 사용자가 적외선 LED(42)를 상부에 구비한 마커(40)를 3차원 모형(10)의 특정 위치에 위치시키면, 3차원 모형(10)의 상부에 위치한 적외선 카메라(50)는 3차원 모형(10)을 촬영하여 제어용 컴퓨터(60)로 출력하고(S610), 제어용 컴퓨터(60)는 적외선 카메라(50)로부터 입력되는 촬영 데이터를 토대로 마커(40)에서 방출되는 적외선이 감지되는지를 판단한다(S620). 즉 제어용 컴퓨터(60)는 적외선 카메라(50)로부터 입력되는 촬영 데이터를 토대로 3차원 모형(10) 상에 마커(40)가 놓여져 있는지를 판단하는 것이다.
판단결과 마커(40)가 인식되면, 제어용 컴퓨터(60)는 마커(40)의 위치정보를 확인하고(S630), 해당 위치에 투사되고 있는 특정 유닛의 정보를 확인한 후(S640), 마커(40)의 위치에 특정 유닛의 확대 영상을 투사하여 사용자가 이를 확인할 수 있도록 한다(S650).
여기에서, 상술한 본 발명에서는 바람직한 실시예를 참조하여 설명하였지만, 해당 기술분야의 숙련된 당업자는 하기의 특허청구범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경할 수 있음을 이해할 수 있을 것이다.
10 : 3차원 모형 20 : 3차원 카메라
30 : 영상 프로젝터 40 : 마커
42 : 적외선 LED 50 : 적외선 카메라
60 : 제어용 컴퓨터 61 : 지형 판단부
62 : 유닛 처리부 63 : 데이터베이스
64 : 영상처리부 65 : 제어부

Claims (12)

  1. 3차원 모형,
    상기 3차원 모형의 깊이, 모양에 대한 지형정보를 촬영하는 3차원 카메라,
    상기 3차원 모형에 사전에 설정되어 있는 영상을 투사하는 영상 프로젝터, 그리고
    상기 영상 프로젝터를 통해 상기 3차원 모형에 투사하는 다수의 영상정보를 저장하고 있고, 상기 3차원 카메라로부터 입력받은 상기 3차원 모형의 촬영 데이터를 각 픽셀별로 기 설정된 깊이, 모양에 대한 지형정보별 색상으로 치환하고, 현재 촬영한 상기 3차원 모형의 촬영 데이터를 이전에 저장된 촬영 데이터와 비교하여 변화량이 기 설정된 기준 데이터를 초과하면 해당 위치의 깊이, 모양에 대한 지형 정보에 따라 유닛을 생성하며, 상기 3차원 모형의 지형정보에 따른 색상과 유닛을 포함한 영상을 상기 영상 프로젝터를 통해 상기 3차원 모형에 투사하도록 제어하는 제어용 컴퓨터를 포함하는 3차원 모형에 영상을 투사하는 장치.
  2. 제 1 항에 있어서,
    상기 제어용 컴퓨터는,
    상기 3차원 모형에 투사되는 영상에 포함된 모든 유닛의 위치를 지속적으로 확인하고, 이동 가능한 유닛이 활동가능 지형을 벗어나는 횟수가 기 설정된 기준 횟수를 초과하면 해당 유닛을 소멸시키는 3차원 모형에 영상을 투사하는 장치.
  3. 제 1 항에 있어서,
    상기 제어용 컴퓨터는,
    상기 3차원 카메라로부터 입력받은 촬영 데이터를 각 픽셀 단위별로 깊이, 모양에 대한 지형정보별 색상으로 치환하며, 각 픽셀 단위별로 치환한 색상을 부드럽게 하기 위하여 필터를 사용하여 블러링(blurring) 처리하는 지형 판단부,
    상기 3차원 카메라로부터 현재 촬영된 3차원 모형의 촬영 데이터와 이전에 저장된 촬영 데이터를 픽셀 단위로 확인하고, 확인 결과를 토대로 변화가 있는 부분만 표시된 비트맵 데이터를 생성하고, 생성된 비트맵 데이터의 변화량과 기 설정된 기준 데이터를 비교하여 비트맵 데이터의 변화량이 기 설정된 기준 데이터를 초과하면 해당 위치의 깊이, 모양에 대한 지형정보별로 유닛의 생성을 처리하며, 생성된 유닛이 이동 가능한 유닛인 경우 각 유닛별로 활동가능 지형을 벗어나는 횟수가 기 설정된 기준 횟수를 초과하면 해당 유닛을 소멸시키는 유닛 처리부,
    상기 영상 프로젝터를 통해 상기 3차원 모형에 투사될 다수의 영상정보를 저장하고 있는 데이터베이스,
    상기 지형 판단부를 통해 치환된 상기 3차원 모형의 지형정보에 따른 색상과 상기 유닛 처리부를 통해 생성된 유닛을 포함한 영상을 상기 영상 프로젝터를 통해 상기 3차원 모형에 투사하도록 하는 영상처리부, 그리고
    상기 지형 판단부를 통한 상기 3차원 모형의 촬영 데이터의 깊이, 모양에 대한 지형정보별 색상의 치환, 상기 유닛 처리부를 통한 상기 3차원 모형의 촬영 데이터의 깊이, 모양에 대한 지형정보에 따른 유닛의 생성/이동/소멸, 상기 영상처리부를 통한 상기 3차원 모형의 지형정보에 따른 색상과 유닛을 포함한 영상의 상기 3차원 모형 투사를 제어하는 제어부를 포함하는 3차원 모형에 영상을 투사하는 장치.
  4. 제 1 항에 있어서,
    상기 3차원 모형은,
    사용자에 의한 입상물, 종이, 나무를 포함한 재료의 실시간 이동이나 변경 조작에 따라 변화가 가능하며, 상기 3차원 모형의 실시간 변화에 따라 상기 제어용 컴퓨터에서 상기 3차원 모형에 투사되는 영상을 변화시키는 3차원 모형에 영상을 투사하는 장치.
  5. 제 1 항에 있어서,
    상부에 적외선 LED가 구비된 마커, 그리고
    상기 마커에서 방출되는 적외선을 촬영하여 상기 제어용 컴퓨터로 출력하는 적외선 카메라를 더 포함하며,
    사용자에 의해 상기 마커가 상기 3차원 모형의 특정 위치에 위치되면, 상기 제어용 컴퓨터는 상기 적외선 카메라로부터 입력되는 촬영 데이터를 토대로 상기 마커의 위치정보와 해당 위치에 투사되고 있는 특정 유닛의 정보를 확인한 후, 상기 마커의 위치에 특정 유닛의 확대 영상을 투사하도록 제어하는 3차원 모형에 영상을 투사하는 장치.
  6. (1) 제어용 컴퓨터는, 3차원 카메라로부터 3차원 모형의 촬영 데이터를 입력받는 단계,
    (2) 상기 제어용 컴퓨터는, 상기 3차원 카메라로부터 입력받은 상기 3차원 모형의 촬영 데이터를 각 픽셀별로 기 설정된 깊이, 모양에 대한 지형정보별 색상으로 치환하는 단계,
    (3) 상기 제어용 컴퓨터는, 상기 3차원 카메라로부터 입력받은 상기 3차원 모형의 촬영 데이터를 이전에 저장된 촬영 데이터와 비교하여 변화한 부분을 확인하고, 변화량이 기 설정된 기준 데이터를 초과하면 해당 위치의 깊이, 모양에 대한 지형 정보에 따라 유닛의 생성을 수행하되, 이동 가능한 유닛의 경우 고유의 속도와 방향을 부여하는 단계, 그리고
    (4) 상기 제어용 컴퓨터는, 상기 (2) 단계에서 생성된 상기 3차원 모형의 지형정보에 따른 색상과 상기 (3) 단계에서 생성된 유닛을 포함한 영상을 영상 프로젝터를 통해 상기 3차원 모형에 투사하는 단계를 포함하는 3차원 모형에 영상을 투사하는 방법.
  7. 제 6 항에 있어서,
    (5) 상기 제어용 컴퓨터는, 상기 (4) 단계를 통해 상기 3차원 모형에 투사되는 영상에 포함된 모든 유닛의 위치를 지속적으로 확인하고, 이동 가능한 유닛이 활동가능 지형을 벗어나는 횟수가 기 설정된 기준 횟수를 초과하면 해당 유닛을 소멸시키는 단계를 더 포함하는 3차원 모형에 영상을 투사하는 방법.
  8. 제 6 항에 있어서,
    상기 (4) 단계에서 상기 영상 프로젝터를 통해 영상이 투사되는 상기 3차원 모형은, 사용자에 의한 입상물, 종이, 나무를 포함한 재료의 실시간 이동이나 변경 조작에 따라 변화가 가능하며, 상기 3차원 모형의 실시간 변화된 지형정보를 토대로 상기 제어용 컴퓨터에서 상기 3차원 모형에 투사되는 영상을 변화시키는 3차원 모형에 영상을 투사하는 방법.
  9. 제 6 항에 있어서,
    상기 (4) 단계를 통해 상기 3차원 모형에 영상이 투사될 때, 사용자가 적외선 LED를 상부에 구비한 마커를 상기 3차원 모형의 특정 위치에 위치시키면, 상기 제어용 컴퓨터는 상기 마커에서 방출되는 적외선을 감지하는 적외선 카메라로부터 입력되는 촬영 데이터를 토대로 상기 마커의 위치정보와 해당 위치에 투사되고 있는 특정 유닛의 정보를 확인한 후, 상기 마커의 위치에 특정 유닛의 확대 영상을 투사하는 3차원 모형에 영상을 투사하는 방법.
  10. 제 6 항에 있어서,
    상기 (2) 단계는,
    (2-1) 상기 제어용 컴퓨터는, 상기 (1) 단계를 통해 상기 3차원 카메라로부터 입력받은 촬영 데이터를 토대로 깊이, 모양에 대한 지형정보를 확인하는 단계,
    (2-2) 상기 제어용 컴퓨터는, 기 설정되어 있는 깊이, 모양에 대한 지형정보별 색상정보를 참조하여 상기 (2-1) 단계에서 확인한 깊이, 모양에 대한 지형정보를 각 픽셀 단위별로 해당 색상으로 치환하는 단계, 그리고
    (2-3) 상기 제어용 컴퓨터는, 상기 (2-2) 단계에서 각 픽셀 단위별로 치환한 색상을 부드럽게 하기 위하여 필터를 사용하여 블러링 처리하는 단계를 포함하는 3차원 모형에 영상을 투사하는 방법.
  11. 제 6 항에 있어서,
    상기 (3) 단계는,
    (3-1) 상기 제어용 컴퓨터는, 상기 (1) 단계를 통해 상기 3차원 카메라로부터 상기 3차원 모형의 촬영 데이터가 입력되면, 이전의 촬영 데이터가 저장되어 있는지를 판단하는 단계,
    (3-2) 상기 (3-1) 단계의 판단결과 이전의 촬영 데이터가 저장되어 있지 않으면, 상기 제어용 컴퓨터는 현재 입력된 3차원 모형의 촬영 데이터를 저장하고 상기 (1) 단계 이후를 반복하여 수행하는 단계,
    (3-3) 상기 (3-1) 단계의 판단결과 이전의 촬영 데이터가 저장되어 있으면, 상기 제어용 컴퓨터는 현재 입력된 3차원 모형의 촬영 데이터와 이전에 저장된 촬영 데이터를 픽셀 단위로 확인하는 단계,
    (3-4) 상기 제어용 컴퓨터는, 상기 (3-3) 단계의 확인 결과를 토대로 변화가 있는 부분만 표시된 비트맵 데이터를 생성하는 단계,
    (3-5) 상기 제어용 컴퓨터는, 상기 (3-4) 단계에서 생성된 비트맵 데이터의 변화량이 기 설정된 기준 데이터를 초과하는지를 판단하는 단계,
    (3-6) 상기 (3-5) 단계의 판단결과 비트맵 데이터의 변화량이 기 설정된 기준 데이터를 초과하면, 상기 제어용 컴퓨터는 유닛 생성 명령을 실행하는 단계,
    (3-7) 상기 제어용 컴퓨터는, 상기 (3-6) 단계에서 실행된 유닛 생성 명령이 내려진 위치별 깊이, 모양에 대한 지형정보를 확인하는 단계, 그리고
    (3-8) 상기 제어용 컴퓨터는, 상기 (3-7) 단계에서 확인한 각 위치별 지형정보에 따라 유닛의 생성을 처리하는 단계를 포함하는 3차원 모형에 영상을 투사하는 방법.
  12. 제 7 항에 있어서,
    상기 (5) 단계는,
    (5-1) 상기 제어용 컴퓨터는, 상기 (3) 단계를 통해 생성된 상기 3차원 모형에 투사될 영상에 포함되는 모든 유닛별로 변수를 생성하는 단계,
    (5-2) 상기 제어용 컴퓨터는, 상기 (4) 단계를 통해 상기 3차원 모형에 투사되는 영상에 포함된 각 유닛들의 현재 위치를 확인하는 단계,
    (5-3) 상기 제어용 컴퓨터는, 상기 (5-2) 단계에서 확인한 각 유닛의 현재의 위치가 이동 가능한 위치인지를 판단하는 단계,
    (5-4) 상기 (5-3) 단계의 판단결과 유닛의 현재의 위치가 이동 가능한 위치이면, 상기 제어용 컴퓨터는 상기 (5-1) 단계에서 생성한 변수의 수를 1 증가시키는 단계,
    (5-5) 상기 제어용 컴퓨터는, 각 유닛별로 생성된 변수의 수가 기 설정된 기준 횟수를 초과하는지를 판단하는 단계,
    (5-6) 상기 (5-5) 단계의 판단결과 각 유닛별로 생성된 변수의 수가 기 설정된 기준 횟수를 초과하면, 상기 제어용 컴퓨터는 현재 3차원 모형에 투사되고 있는 유닛을 소멸시키는 단계, 그리고
    (5-7) 상기 (5-3) 단계의 판단결과 유닛의 현재의 위치가 이동 가능한 위치이면, 상기 제어용 컴퓨터는 상기 (5-1) 단계에서 생성한 변수의 수를 0으로 초기화시킨 후 상기 (5-2) 단계 이후를 반복하여 수행하는 단계를 포함하는 3차원 모형에 영상을 투사하는 방법.
KR1020110138433A 2011-12-20 2011-12-20 3차원 모형에 영상을 투사하는 장치 및 방법 KR101299191B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110138433A KR101299191B1 (ko) 2011-12-20 2011-12-20 3차원 모형에 영상을 투사하는 장치 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110138433A KR101299191B1 (ko) 2011-12-20 2011-12-20 3차원 모형에 영상을 투사하는 장치 및 방법

Publications (2)

Publication Number Publication Date
KR20130071100A true KR20130071100A (ko) 2013-06-28
KR101299191B1 KR101299191B1 (ko) 2013-08-21

Family

ID=48865697

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110138433A KR101299191B1 (ko) 2011-12-20 2011-12-20 3차원 모형에 영상을 투사하는 장치 및 방법

Country Status (1)

Country Link
KR (1) KR101299191B1 (ko)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101408295B1 (ko) * 2013-05-31 2014-06-17 (주)린소프트 비평면 스크린을 이용한 프로젝션 장치 및 방법
KR20150081837A (ko) * 2014-01-07 2015-07-15 한국전자통신연구원 실시간 동적 비평면 프로젝션 장치 및 방법
KR20170090186A (ko) * 2016-01-28 2017-08-07 허상훈 증강현실 환경에서의 막대형 물체를 캡처하기 위한 장치 및 그 방법
KR20170090198A (ko) * 2016-01-28 2017-08-07 허상훈 3차원 모형을 이용한 증강현실 환경에서의 테이블 자동구동장치 및 그 방법
KR20190035201A (ko) * 2017-09-26 2019-04-03 주식회사 재밋섬파크 사용자 맞춤형 vr 체험 시스템
EP4358069A1 (fr) * 2022-10-20 2024-04-24 Thales Système de représentation d'une zone géographique comprenant un relief et ensemble comprenant un tel système de représentation

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100393185B1 (ko) * 1996-12-20 2004-01-24 삼성전자주식회사 삼차원구조 데이터와 그래픽스 오브젝트의 합성장치 및 그 방법
KR101092909B1 (ko) * 2009-11-27 2011-12-12 (주)디스트릭트홀딩스 제스쳐 인터렉티브 홀로그램 출력장치 및 방법

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101408295B1 (ko) * 2013-05-31 2014-06-17 (주)린소프트 비평면 스크린을 이용한 프로젝션 장치 및 방법
KR20150081837A (ko) * 2014-01-07 2015-07-15 한국전자통신연구원 실시간 동적 비평면 프로젝션 장치 및 방법
US9430865B2 (en) 2014-01-07 2016-08-30 Electronics And Telecommunications Research Institute Real-time dynamic non-planar projection apparatus and method
KR20170090186A (ko) * 2016-01-28 2017-08-07 허상훈 증강현실 환경에서의 막대형 물체를 캡처하기 위한 장치 및 그 방법
KR20170090198A (ko) * 2016-01-28 2017-08-07 허상훈 3차원 모형을 이용한 증강현실 환경에서의 테이블 자동구동장치 및 그 방법
KR20190035201A (ko) * 2017-09-26 2019-04-03 주식회사 재밋섬파크 사용자 맞춤형 vr 체험 시스템
EP4358069A1 (fr) * 2022-10-20 2024-04-24 Thales Système de représentation d'une zone géographique comprenant un relief et ensemble comprenant un tel système de représentation
FR3141263A1 (fr) * 2022-10-20 2024-04-26 Thales Système de représentation d'une zone géographique comprenant un relief et ensemble comprenant un tel système de représentation

Also Published As

Publication number Publication date
KR101299191B1 (ko) 2013-08-21

Similar Documents

Publication Publication Date Title
JP6501017B2 (ja) 画像処理装置、プログラム、画像処理方法および画像処理システム
US10096157B2 (en) Generation of three-dimensional imagery from a two-dimensional image using a depth map
JP6340017B2 (ja) 被写体と3次元仮想空間をリアルタイムに合成する撮影システム
KR101299191B1 (ko) 3차원 모형에 영상을 투사하는 장치 및 방법
US10963140B2 (en) Augmented reality experience creation via tapping virtual surfaces in augmented reality
GB2543913A (en) Virtual conference room
US11425283B1 (en) Blending real and virtual focus in a virtual display environment
US20170213396A1 (en) Virtual changes to a real object
EP3533218B1 (en) Simulating depth of field
US9754398B1 (en) Animation curve reduction for mobile application user interface objects
CN108038911A (zh) 一种基于ar技术的全息成像控制方法
WO2019198570A1 (ja) 映像生成装置、映像生成方法、プログラム、およびデータ構造
Camba et al. From reality to augmented reality: Rapid strategies for developing marker-based AR content using image capturing and authoring tools
TW202240530A (zh) 用於新穎視圖合成之神經混合
WO2022055367A1 (en) Method for emulating defocus of sharp rendered images
US20170104982A1 (en) Presentation of a virtual reality scene from a series of images
RU2768013C2 (ru) Способ и устройство для предоставления информации пользователю, наблюдающему мультивидовое содержание
JP2023171298A (ja) 拡張現実及び複合現実のための空間とコンテンツの適合
KR101817756B1 (ko) 인터랙티브한 시점 제어가 가능한 3차원 모델 기반의 ptm 생성 시스템 및 이를 이용한 ptm 생성 방법
US10963205B2 (en) Augmented reality state room
WO2021154097A1 (en) Method of inferring microdetail on skin animation
CN113678173A (zh) 用于虚拟对象的基于图绘的放置的方法和设备
KR102198646B1 (ko) 영상투사시스템 및 영상 투사 방법
KR101526049B1 (ko) 가상 생태공원 가시화 시스템
Gulati et al. Dynamic simulator and planning tool for studying the defense and attack strategies in a war-zone

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20160816

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20170816

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20180816

Year of fee payment: 6