KR20050018986A - 물체의 삼차원 전자 모델 발생 시스템 - Google Patents

물체의 삼차원 전자 모델 발생 시스템

Info

Publication number
KR20050018986A
KR20050018986A KR10-2005-7000483A KR20057000483A KR20050018986A KR 20050018986 A KR20050018986 A KR 20050018986A KR 20057000483 A KR20057000483 A KR 20057000483A KR 20050018986 A KR20050018986 A KR 20050018986A
Authority
KR
South Korea
Prior art keywords
dimensional electronic
scanner
texture
color
electronic model
Prior art date
Application number
KR10-2005-7000483A
Other languages
English (en)
Other versions
KR100660351B1 (ko
Inventor
스트라쎈부르그클레시악마렉
나겔필립하랄트
Original Assignee
하만 베커 오토모티브 시스템즈 게엠베하
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 하만 베커 오토모티브 시스템즈 게엠베하 filed Critical 하만 베커 오토모티브 시스템즈 게엠베하
Publication of KR20050018986A publication Critical patent/KR20050018986A/ko
Application granted granted Critical
Publication of KR100660351B1 publication Critical patent/KR100660351B1/ko

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C15/00Surveying instruments or accessories not provided for in groups G01C1/00 - G01C13/00
    • G01C15/002Active optical surveying means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C15/00Surveying instruments or accessories not provided for in groups G01C1/00 - G01C13/00
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/10Constructive solid geometry [CSG] using solid primitives, e.g. cylinders, cubes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/30Polynomial surface description
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/01Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/13Receivers
    • G01S19/14Receivers specially adapted for specific applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/40Correcting position, velocity or attitude
    • G01S19/41Differential correction, e.g. DGPS [differential GPS]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Theoretical Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Optimization (AREA)
  • Data Mining & Analysis (AREA)
  • Algebra (AREA)
  • Mathematical Physics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Mathematical Analysis (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)
  • Instructional Devices (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

물체의 삼차원 전자 모델을 발현하기 위한 이미지 발생 시스템은, 스캐너 및 컴퓨팅 시스템을 포함한다. 스캐너는 물체 근처의 다른 지리적 위치에 선택적으로 위치할 수 있다. 스캐너는 스캐너 위치 정보 및 물체를 나타내는 이미지 데이터를 컴퓨팅 시스템에 제공할 수 있다. 컴퓨팅 시스템은 이미지 데이터 및 스캐너 위치 정보로부터 물체의 삼차원 전자 모델을 발생시킬 수 있다. 삼차원 전자 모델은 저장되어 전자 항법 지도와 같은 다른 응용 분야에서 이용될 수 있다.

Description

물체의 삼차원 전자 모델 발생 시스템{SYSTEM FOR GENERATING THREE-DIMENSIONAL ELECTRONIC MODELS OF OBJECTS}
본 출원은 2002년 7월 10일 출원된 미국 가출원 번호 제60/395,165호의 이익을 주장하는 것이다. 상기 출원의 개시 내용은 참고로 본원에 편입되어 있다.
본 명세서의 일부는 저작권 보호를 받는 자료를 포함한다. 미국 특허상표청의 출원 파일이나 기록에 나타난 것처럼 그 저작권 소유자는 이 명세서의 누군가에 의한 복사재생에는 반대하지 않았으나 그 이외의 모든 판권을 소유한다.
본 발명은 일반적으로 물체의 전자식 표현에 관한 것이고, 보다 구체적으로는 전자적 형태로 삼차원 물체의 모델을 발생시키기 위한 시스템에 관한 것이다.
항법 지도(navigational map)는 전자적 형태로 표시될 수 있다. 몇몇 항법 지도는 이차원으로 전자적으로 표시된다. 그럴 경우에 항법 지도의 사용자는 표시상의 위치로 이동하는데에 있어서 어려움을 가질 수도 있다. 삼차원으로 물체를 표시하는 항법 지도는 사용자가 주변 환경에서 관찰할 수 있는 것처럼 물체를 표시함으로써 이런 단점들을 극복할 수 있다.
물체의 삼차원 전자식 표현은 디지털 카메라를 사용하여 생성될 수 있다. 다른 기술은 아티스트들을 사용하여 물체의 삼차원 뷰를 수동으로 제공한다. 또 다른 기술은 레이저를 사용한다. 레이저 기술에 있어서는 레이저 빔을 물체에 반사시켜 거리를 측정한다. 그 거리를 이용하여 물체의 형상을 맵(map)하여 전자식 표현을 생성할 수 있다. 기존의 레이저 기술은 물체상에 설치되어 있는 금속 목표물들과 같은 기준점들로부터 거리를 측정한다. 따라서, 그 목표물들은 그 물체의 다중 스캔에 포함될 수 있다. 다중 스캔은 그 목표물들을 사용하여 삼차원 표시로 수동으로 결합될 수 있다. 공지된 레이저 기술은 물체의 기하학적 형상만을 발생시킬 수 있다.
전자 항법 지도에서, 사무용 종합빌딩 또는 쇼핑몰과 같은 대형 복합 구조물의 정확한 전자식 표현은 주변 상황에 대한 형세를 제공할 수 있다. 사용자가 표시된 물체와 관찰된 주변 상황을 정확히 비교할 수 있도록 하기 위해 대형 물체의 시각적 세부묘사 및 다른 특징들이 요구될 수도 있다. 불행하게도, 디지털 카메라에 의한 전자적 표현은 다수의 전자 이미지들을 수동으로 결합시켜야 하므로 여전히 충분한 시각적 세부묘사 및 특징을 제공하지 못할 수 있다. 아티스트에 의해 수동으로 생성된 전자적 표현은 부정확하고, 시간 소모적이며, 고비용이고, 바람직하지 않게 전자 항법 지도에 상당한 데이터를 추가할 수 있다. 또한, 레이저에 의한 전자적 표현은 물체를 스캐닝하는 동안 인스톨 및/또는 유지되기 어려울 수 있는 큰 물체상의 기준점을 필요로 한다. 따라서, 큰 물체를 나타내는 전자 모델을 정확하고 효율적으로 생성하는 것과 관련된 기술적 문제점들이 존재한다. 또한, 다수의 스캔 각각을 물체의 삼차원 표현으로 변환하는 기술과 관련된 기술적 문제점들이 존재한다.
따라서, 공지기술의 단점을 극복하는 항법 지도 또는 다른 시스템들에서의 사용을 위해 삼차원 물체의 전자적 표현을 발생시키는 시스템에 대한 필요성이 존재한다.
본 발명은 첨부된 도면 및 설명을 참조하면 더 잘 이해될 수 있다. 도면내의 콤포넌트들은 반드시 정확한 축척은 아니며, 본 발명의 원리 설명에 중점을 둔 것이다. 또한, 도면에서 같은 도면부호는 다른 도면들을 통관하여 대응하는 부분을 나타내는 것이다.
도 1은 이미지 발생 시스템의 블록도이다.
도 2는 도 1의 이미지 발생 시스템에 포함되는 스캐너에 의해 캡처링된 물체 주변의 스캐닝 위치의 예를 도시하는 도면이다.
도 3은 도 1의 이미지 발생 시스템에 의해 스캔될 수 있는 다양한 물체의 예를 도시하는 도면이다.
도 4는 도 1의 이미지 발생 시스템의 동작을 설명하는 예시적 흐름도이다.
도 5는 도 4의 예시적 흐름도의 제2 부분을 도시하는 도면이다.
도 6은 도 1의 이미지 발생 시스템에 포함된 컴퓨팅 시스템의 블록도이다.
도 7은 도 1의 이미지 발생 시스템에 의해 발현된 예시적 전자식 삼차원 이미지를 도시하는 도면이다.
도 8은 도 1의 이미지 발생 시스템에 의해 발현된 다른 예시적 전자식 삼차원 이미지를 도시하는 도면이다.
도 9는 도 1의 이미지 발생 시스템에 의해 발현된 또 다른 예시적 전자식 삼차원 이미지를 도시하는 도면이다.
도 10은 도 6의 컴퓨팅 시스템에 포함된 텍스처라이징 모듈의 블록도이다.
도 11은 도 10의 텍스처라이징 모듈에 의해 수행된 예시적 그래픽 동작 처리를 도시하는 도면이다.
도 12는 도 10의 텍스처라이징 모듈내의 예시적 텍스처 디렉토리를 도시하는 도면이다.
도 13은 도 10의 텍스처라이징 모듈에 의해 발생된 예시적 텍스처 선택 디스플레이를 도시하는 도면이다.
도 14는 도 10의 텍스처라이징 모듈에 의해 발생된 예시적 소스 텍스처 조작 디스플레이를 도시하는 도면이다.
도 15는 도 10의 텍스처라이징 모듈에 의해 발생된 예시적 복합 텍스처 형성 디스플레이를 도시하는 도면이다.
도 16은 도 10의 텍스처라이징 모듈에 의해 발생된 예시적 텍스처 메이커 디스플레이를 도시하는 도면이다.
도 17은 도 1의 이미지 발생 시스템내에서의 도 6의 컴퓨팅 시스템의 동작을 설명하는 예시적 흐름도이다.
도 18은 도 17의 예시적 흐름도의 제2 부분을 도시하는 부분이다.
도 19는 도 6의 텍스처라이징 모듈의 동작을 설명하는 예시적 흐름도이다.
도 20은 도 19의 예시적 흐름도의 제2 부분을 도시하는 도면이다.
도 21은 도 19의 예시적 흐름도의 제3 부분을 도시하는 도면이다.
본 발명은 삼차원 물체의 전자적 표현을 전자 모델로 발생시킬 수 있는 이미지 발생 시스템을 제공한다. 물체의 삼차원 전자 모델은 항법 지도와 같은 응용분야에서 이용될 수 있다. 그런 물체에는 예컨대, 사무용 빌딩, 병원, 집, 다리, 조상(彫像), 식물 및/또는 임의의 다른 자연적 또는 인공적 지표물이 포함될 수 있다.
이미지 발생 시스템은 스캐너 및 컴퓨팅 시스템을 포함한다. 스캐너는 독립적 스캔을 수행하도록 물체 주위의 다른 지리적 위치에 위치할 수 있다. 각각의 스캔 중에 수집된 데이터는 컴퓨팅 시스템에 제공될 수 있다. 스캔 데이터를 사용하여, 컴퓨팅 시스템은 삼차원 전자 모델을 발생시킬 수 있다. 삼차원 전자 모델은 물체를 시각적으로 나타내는 스케일되고, 색채화되며, 텍스처라이징(texturizing)된 모델이 될 수 있다.
스캐너는 점 스캐너, 컬러 스캐너 및 위치 결정 시스템을 포함할 수 있다. 점 스캐너는 물체의 기하학적 형상을 나타내는 기하학적 점들을 결정하는데에 사용될 수 있다. 컬러 스캐너는 점 스캐너와 동시에 동작하여 물체의 컬러를 나타내는 컬러 점들을 결정하는데에 사용될 수 있다. 위치 결정 시스템은 항법 좌표(예컨대, 경도 및 위도) 형태의 위치 정보, 스캐너의 고도, 스캐너의 경사 및 방위를 결정할 수 있다.
각 스캔으로부터의 기하학적 점들, 컬러 점들 및 위치 정보는 연관되어 삼차원 전자 이미지를 형성할 수 있다. 각각의 삼차원 전자 이미지내에서, 기하학적 점들은 결합되어 표면들 또는 라인들을 형성할 수 있다. 또한, 삼차원 전자 이미지들은 위치 정보를 사용하여 컴퓨팅 시스템에 의해 결합되어 삼차원 전자 모델을 형성할 수 있다. 삼차원 전자 이미지들의 서로에 대한 이동 및 회전에 의한 조작은 결합 처리중에 수행될 수 있다. 따라서, 임의 형상 및/또는 크기의 물체가 스캔될 수 있고, 개별적인 스캔이 결합되어 물체의 기하학적 형태로 삼차원 전자 모델을 형성한다.
또한 컴퓨팅 시스템은 삼차원 전자 모델의 표면을 텍스처라이징할 수 있다. 텍스처라이제이션(texturization)은 삼차원 전자 모델에 물체의 하나 이상의 표면상에서 시각적으로 인식된 특징의 전자적 표현을 추가하는 것을 수반한다. 텍스처라이제이션 처리는 물체의 전자 사진과 같은 이미지 파일을 소스 텍스처로서 식별하는 것을 수반한다. 소스 텍스처는 고유 식별자를 할당받아 라이브러리에 저장될 수 있다. 또한, 소스 텍스처는 삼차원 전자 모델의 하나 이상의 표면과 연관될 수 있다. 또한, 소스 텍스처는 복합 텍스처를 형성하는데에 사용될 수 있다.
소스 텍스처는 복합 텍스처의 적어도 일부를 형성하도록 변환될 수 있다. 소스 텍스처의 변환은 소스 텍스처의 고유 식별자를 포함하는 변환 절차를 생성하는 것을 수반한다. 변환 절차는 삼차원 전자 물체의 하나 이상의 표면과 연관될 수 있다. 삼차원 물체가 표시될 때, 변환 절차가 실행되어 소스 텍스처로부터 복합 텍스처를 발생시킬 수 있다. 따라서, 소스 텍스처 및 변환 절차만이 삼차원 전자 모델의 표면에 연관될 필요가 있다.
본 발명의 다른 시스템, 방법, 특징 및 이점들은 첨부된 도면 및 상세한 설명을 검토한다면 당업자에게 명백하거나 명백하게 될 것이다. 그런 모든 부가적인 시스템, 방법, 특징 및 이점들은 이 명세서내에 포함되고, 본 발명의 범위내에 있으며, 첨부된 청구범위에 의해 보호되도록 의도된다.
본 발명은 물체를 표현하는 텍스처라이징된 삼차원 전자 모델을 발현할 수 있는 이미지 발생 시스템을 제공한다. 일단 발생되면, 전자 모델들은 항법 지도를 포함하는 많은 응용분야에서 사용될 수 있다. "전자식 표현", "전자 형태", "전자 모델", "전자 이미지"란 용어는, 데이터 파일과 같이, 캡처링되고, 조작되고, 저장되어 시각적으로 표시될 수 있는 디지털 데이터의 임의의 형태를 포함하도록 광범위하게 해석되어야 한다.
도 1은 예시적 이미지 발생 시스템(100)의 블록도이다. 이미지 발생 시스템(100)은 스캐너(104)와 통신하는 컴퓨팅 시스템(102)을 포함한다. 컴퓨팅 시스템(102)은 명령을 실행하고, 계산을 수행하고, 데이터를 저장하고, 데이터를 재생하며 스캐너(104)와 통신할 수 있는 임의의 장치가 될 수 있다.
컴퓨팅 시스템(102)은 핸드헬드 컴퓨터, 랩탑 컴퓨터, 데스크탑 컴퓨터, 서버 컴퓨터, 메인프레임 등에 사용될 수 있는 특징, 기능성, 능력을 포함할 수 있다. 예컨대, 컴퓨팅 시스템(102)은 적어도 하나의 처리기, 적어도 하나의 사용자 인터페이스, 적어도 하나의 데이터 스토리지, 적어도 하나의 통신 인터페이스 등을 포함할 수 있다. 도시된 컴퓨팅 시스템(102)은 사이트(site) 컴퓨팅 시스템(106) 및 랩(lab) 컴퓨팅 시스템(108)을 포함한다. 사이트 컴퓨팅 시스템(106)과 랩 컴퓨팅 시스템(108) 사이의 통신은 하나 이상의 네트워크를 통해 무선, 유선 및/또는 광통신 경로를 사용하여 이루어질 수 있다. 대안적으로, 데이터는 자기 및/또는 전자 메모리 장치와 같은 메모리 스토리지 장치를 통해 사이트 컴퓨팅 시스텀(106)과 랩 컴퓨팅 시스템(108) 사이에서 전달될 수 있다. 컴퓨팅 시스템(102)과 스캐너(104) 사이에도 유사한 통신 기술이 사용될 수 있다.
사이트 및 랩 컴퓨팅 시스템(106 및 108)은 두개의 분리된 시스템으로 도시되어 있지만, 단일 컴퓨팅 시스템 또는 세개 이상의 컴퓨팅 시스템이 사용될 수도 있다. 또한, 사이트 컴퓨팅 시스템(106) 및 랩 컴퓨팅 시스템(108)에는 협동적으로 동작하는 다수의 독립형 컴퓨팅 시스템들이 제공될 수 있다.
스캐너(104)는 위치 결정 시스템(112), 점 스캐너(114) 및 컬러 스캐너(116)를 포함할 수 있다. 위치 결정 시스템(112)은 스캐너(104)의 물리적 위치에 관한 위치 정보를 제공하는 임의의 시스템이 될 수 있다. 스캐너 위치 정보는 스캐너(104)의 지리적 위치, 경사, 방위를 포함할 수 있다. 도시된 위치 결정 시스템(112)은 위성 위치 결정 시스템(120) 및 경사 방위 센서(122)를 포함한다.
위성 위치 결정 시스템(102)은 삼각측량 기술에 의해 스캐너(104)의 지리적 위치를 결정하도록 동작하는 임의의 시스템이 될 수 있다. 예컨대, 위치 결정 시스템(112)은 광역 위치 결정 시스템(global positioning system:GPS), 차분 광역 위치 결정 시스템(differential global positioning system:DGPS) 또는 광역 궤도 항법 위성 시스템(global orbiting navigation satillite system:GLONASS)이 될 수 있다. 지리적 위치는 항법 좌표의 용어(예컨대 위도 및 경도)로 결정될 수 있다. 또한, 스캐너(104)의 평균 해발 고도가 위성 위치 결정 시스템(120)에 의해 결정될 수 있다.
경사 방위 센서(122)는 스캐너(104)의 레벨 및 대향 방향을 검출할 수 있는 임의의 센서가 될 수 있다. 예컨대, 경사 방위 센서(122)는 자북에 기초하여 북쪽, 남쪽 등과 같이 스캐너(104)가 향하고 있는 방향을 나타내는 전기 신호를 제공하는 적어도 하나의 전자 센서를 포함할 수 있다. 또한, 경사 방위 센서(122)는 예컨대 중력에 기초하여 스캐너(104)의 피치 및 롤(pitch and roll)을 나타내는 전기 신호를 제공하는 센서를 포함할 수 있다.
점 스캐너(114)는 물체의 기하학적 삼차원 전자 이미지의 점 구름 표시(point cloud representation)를 발현할 수 있도록 물체를 측정할 수 있는 임의의 장치가 될 수 있다. 예컨대, 점 스캐너(114)는 물체상의 다른 점들로 선택적으로 향할 수 있는 레이저 빔을 포함할 수 있다. 반사된 레이저 빔에 기초하여, 점 스캐너(114)와 각 점 간의 거리가 결정될 수 있다. 그 거리를 사용하여 물체의 표면상의 점들을 나타내는 기하학적 점 데이터를 발생시킬 수 있다. 예시적 레이저 스캐너로서는 오스트리아의 라이글 레이저 측정 시스템사(Riegl Laser Measurement Systems GmbH)가 제조하는 LMS-Z 시리즈의 지상 3D 스캐너가 있다.
점 스캐너(114)에 포함된 처리기는 기하학적 점들을 결정하고 기록하여 점 구름을 형성할 수 있다. 예컨대, 물체상의 각 점과 스캐너(104) 간의 거리가 점 구름의 결정에 사용될 수 있다. 측정된 거리에 기초한 예시적 점 기록 소프트웨어로서는 오스트리아의 라이글 레이저 측정 시스템사가 시판하고 있는 RiSCAN 소프트웨어가 있다.
컬러 스캐너(116)는 물체의 색을 나타내는 파라미터를 감지할 수 있는 임의의 장치가 될 수 있다. 컬러 스캐너(116)는 물체에 광 빔을 선택적으로 향하게 할 수 있다. 물체의 빔 반사에 기초하여, 컬러 파라미터가 결정될 수 있다. 검출된 파라미터들은 화소로 나타낼 수도 있는 컬러 점들이 될 수 있다. 점 스캐너(114)의 처리기는 컬러 점들을 판정하고 기록할 수도 있다.
점 스캐너(114)에 의해서 수집된 기하학적 점들의 형태인 이미지 데이터는 물체의 기하학적 형상을 표시할 수 있다. 컬러 스캐너(116)에 의해 수집된 컬러 점들(또는 화소들)의 형태인 이미지 데이터는 물체의 색을 나타낼 수 있다. 본원에서 사용될 때, "이미지 데이터"란 용어는 기하학적 점들과 컬러 점들의 결합을 의미한다.
점 스캐너(114) 및 컬러 스캐너(116)는 이미지 데이터를 수집하도록 동시에 동작하는 두개의 독립적인 스캐닝 장치가 될 수 있다. 기하학적 점들은 스캔 내의 컬러 점들과 연관될 수 있다. 예컨대, 점 스캐너(114)는 컬러 스캐너(116)가 방출하는 레이저 빔으로부터 5 센티미터 떨어진 광빔을 방출할 수 있다. 컬러 스캐너(116)는 물체의 소정의 영역 내의 컬러의 "라인들"을 스캔하는 라인 스캐너가 될 수 있다. 각 컬러 라인은 컬러 스캐너(116)가 물체에 투사한 소정 폭의 길이방향 확장 광빔의 폭과 길이로 정의된다. 예컨대, 컬러 센서는 소정의 폭과 높이의 수직 또는 수평 직사각 영역인 소정의 영역내에서 스캔할 수 있다. 직사각형 영역은 전체 직사각 영역이 완전히 스캔될 때까지 순차적으로 스캔되는 더 작은 길이방향 확장 컬러 영역들(예컨대, 컬러의 라인들)로 분할될 수 있다. 컬러 라인을 측정함으로써, 컬러 점들을 포함하는 컬러 점 데이터가 검출되게 된다.
컬러 점들을 검출하는 시간은 기하학적 점들을 검출하는 시간보다 길 수 있다. 따라서, 스캔 시에, 컬러 스캐너(116)는 특정 시간동안 물체상의 소정의 영역내에서 컬러 점들(화소들)의 라인을 검출하는 라인 스캐너로서 동작할 수 있다. 동일한 주기동안, 점 스캐너(114)는 동일 영역내의 개별적인 기하학적 점들을 검출할 수 있다. 이때 컴퓨팅 시스템(102)은 소정의 영역에서 검출된 컬러 점들의 라인을 동일한 소정의 영역에서 검출된 기하학적 점들과 연관시켜 이미지 데이터를 형성할 수 있다.
대안적으로, 컬러 스캐너(116)는 소정의 영역을 스캔하여 소정의 개수의 컬러 점들을 수집할 수 있다. 동시에, 점 스캐너(114)는 동일 영역에서 소정의 개수의 기하학적 점들을 검출할 수 있다. 컬러 스캐너(116)로 소정 영역을 스캐닝하는 것은 시간이 더 오래 걸리기 때문에, 몇 개의 컬러 점들이 캡처링되어 더 많은 수의 기하학적 점들과 연관될 수 있다. 컬러 점들 간의 공백은 후술되는 것처럼 메워질 수 있다. 점 스캐너(114)와 컬러 스캐너(116)의 동작을 동시에 작동하게 함으로써, 컴퓨팅 시스템(102)은 물체의 스캔을 캡처링할 수 있다.
동작중에, 스캐너(104)는 빌딩과 같은 스캔될 물체 근처의 제1 지리적 위치에 위치할 수 있다. "스캔한다" 또는 "스캔된다"란 용어는 스캐너(104)의 지리적 위치를 재지정함이 없이 소정 기간중에 스캐너(104)에 의해 수집되는 물체 및/또는 스캐너(104)에 관한 임의의 데이터를 포함하는 것으로 넓게 해석되어야 한다. "스캔"이란 용어는 데이터가 수집되는 스캐너(104)의 다른 지리적 위치를 의미한다.
스캔 시에, 스캐너(104)의 항법 좌표, 경사 및, 방위는 위치 결정 시스템(112)에 의해 결정되어 컴퓨팅 시스템(102)에 제공될 수 있다. 항법 좌표의 결정은 스캔중에 다수의 다른 기준 위치들을 채택하는 것을 포함한다. 기준 위치들은 평균 기준 위치의 결정에 사용될 수 있다. 다음에 기준 위치의 항법 좌표는 스캐너(104)의 지리적 위치를 설명하는데에 사용될 수 있다.
또한, 점 스캐너(114)는 물체를 스캔하고 점 구름의 형태로 기하학적 점 데이터를 발생시킬 수 있다. 동시에, 컬러 스캐너(116)는 물체를 스캔하고 컬러 점 데이터를 발생시킬 수 있다. 기하학적 점 데이터 및 컬러 점 데이터는 이미지 데이터로서 컴퓨팅 시스템(102)에 의해 동시에 캡처링될 수 있다. 따라서, 컴퓨팅 시스템(102)에 의해 적어도 하나의 기하학적 점이 적어도 하나의 컬러 점에 연관될 수 있다.
컴퓨팅 시스템(102)은 위성 위치 결정 시스템(120) 및 경사 방위 센서(122)에 의해 제공된 데이터를 점 스캐너(114) 및 컬러 스캐너(116)에 의해 제공된 이미지 데이터와 연관시킨다. 스캔의 결과, 기하학적 삼차원 컬러 전자 이미지가 발현될 수 있다. 스캐너(104)의 방위, 경사 및 지리적 위치는 삼차원 전자 이미지와 연관될 수 있다. 본원에서 사용될 때, "삼차원 전자 이미지"란 용어는 단일 스캔중에 수집된 이미지 데이터(기하학적 점들 및/또는 컬러 점들) 및 위치 정보에 기초한 물체의 표현을 의미한다. 제1 지리적 위치에서의 스캔의 완성에 이어서, 스캐너(104)는 제2 지리적 위치로 지리적으로 재배치되고 스캐닝 처리가 반복될 수 있다.
도 2는 물체(204) 주위의 스캐너(104; 도 1)의 다수의 지리적 위치(202)의 예이다. 도시된 예에서, 물체(204)는 빌딩이다. 지리적 위치(202)(및 그에 따른 다른 스캔)의 개수는 스캔될 물체의 기하학적 형상에 의존하여 결정된다. 각 스캔동안 스캐너(104)에 의해 수집된 기하학적 점 데이터 및 컬러 점 데이터의 중첩(overlap)을 제공할 수 있도록 충분한 스캔이 수행된다.
도 2에서, 삼각형(206)상의 점들을 나타내는 3개의 지리적 위치들이 스캔을 수행하는 위치로서 식별된다. 삼각형(206)은 물체(204)의 경계가 삼각형(206)내에 완전히 포위될 수 있을 정도의 크기이다. 물체(206)의 형상 및/또는 다른 표면들에 기초하여 3개의 스캔이 수행된다. 그러나, 물체의 전체 표면을 정확히 캡처링하기 위해 추가적인 스캔들이 필요할 수 있다. 점 스캐너(114)가 레이저 스캐너일 경우, 스캐너(104)의 시선내에 있지 않은 물체(204)의 표면 영역들은 3개의 스캔만으로 표시될 수 없을 수도 있다. 따라서, 스캐너(104)는 물체의 다양한 특징의 시선내에 오도록 지리적으로 위치되어 추가 스캔이 수행될 수도 있다.
물체를 나타내는 삼차원 전자 모델을 발생시키는데 필요한 스캔의 개수(예컨대, 삼차원 전자 이미지의 개수)는 물체의 대칭성에 따라 최소화될 수 있다. 대칭 부분을 포함하는 물체는 그 표면의 스캐닝없이 전자적으로 복제될 수 있다. 즉, 물체의 스캔된 부분이 물체의 스캔되지 않은 부분과 대칭일 경우, 스캔되지 않은 부분의 스캐닝은 회피될 수 있다. 대신, 스캔된 부분이 미러링되어 스캔되지 않은 부분을 표현할 수 있다.
도 3은 스캐너(104)로 스캔될 수 있는 다양한 예시적 물체를 도시한다. 제1 물체(302)는 회전 대칭이다. 회전 대칭 영역을 갖는 예시적 물체로는 텔레비전 송신탑, 급수탑 등이 있다. 물체가 회전 대칭일 경우, 삼차원 모델링은 2 이상의 스캔에 기초하여 수행될 수 있다. 제2 물체(304)는 4개의 대칭 영역을 가지므로 삼차원 전자 모델링은 4개 이상의 스캔에 의해 수행된다. 제3 물체(306)는 축(308)을 따라 대칭이다. 따라서, 스캔은 축(308)의 한쪽 또는 양쪽을 따라 수행된다.
물체의 모든 스캔이 캡처링되었을 때, 도 1의 컴퓨팅 시스템은 개별적인 스캔들을 결합하여 물체를 나타내는 삼차원 전자 모델을 형성한다. 본원에서 사용될 때, "삼차원 전자 모델"이란 용어는 두개 이상의 삼차원 전자 이미지의 결합을 의미한다. 개별적인 스캔들(삼차원 전자 이미지들)의 결합은 각각의 스캔중에 스캐너(104)의 지리적 위치에 기초할 수 있다. 따라서, 피치, 롤, 방위, 고도 뿐만 아니라 스캐너(104)의 지리적 위치도 삼차원 전자 이미지 각각의 다른 이미지에 대한 이동 및 회전의 적당한 양을 결정하는데에 사용될 수 있다.
전자 형태로의 삼차원 기하학적 모델의 발생후에, 컴퓨팅 시스템(102)을 사용하여 모델의 표면이 텍스처라이징될 수 있다. 텍스처라이징은 스캔될 물체의 시각적 외관에 기초하여 하나 이상의 텍스처를 식별하는 것을 수반한다. 소스 텍스처는 하나 이상의 소스 텍스처를 복합 텍스처로 변환하기 위한 변환 절차를 생성하는데에 사용된다. 복합 텍스처는 물체의 하나 이상의 다른 표면을 나타낸다. 변환 절차들은 삼차원 전자 모델내의 하나 이상의 표면에 연관될 수 있다. 따라서, 복합 텍스처는 그 모델이 표시될 때 소스 텍스처로부터 생성될 수 있다.
컬러링되고 텍스처라이징된 완전한 삼차원 전자 모델은 물체를 나타내는 컴퓨터 발생 이미지는 필요한 임의의 응용분야에서 사용될 수 있다. 예컨대, 물체가 빌딩 또는 표지(랜드마크)일 경우, 대응하는 모델은 항법 소프트웨어 또는 항법 지도내에 물체를 표시하기 위한 다른 응용분야로 내보내기(컴퓨터에서 "내보내기"란 파일을 기본 형식이 아닌 다른 형식으로 변환하는 것을 말한다)될 수 있다. 다른 예에서, 도시들은 그 물체들을 구획화 및 관광사업에 사용할 수 있다. 또한, 무선 서비스 제공자는 삼차원 전자 모델로부터 신호 경로, 인터페이스, 물체 고도 등을 식별할 수 있다.
이미지 발생 시스템(100)은 물체의 삼차원 전자 모델을 생성하기 위해 효율적이고 경제적인 방식을 제공한다. 이미지 발생 시스템(100)에 의해 모델링된 물체는 각각의 삼차원 전자 이미지를 수동으로 생성하지 않고도 정확히 스케일링되고, 색채화되고, 텍스처라이징될 수 있다. 또한, 개별적인 삼차원 전자 이미지가 이미지 발생 시스템(100)을 사용하여 결합되어 삼차원 전자 모델을 형성할 수 있다. 모델들은 전자 형태이므로, 데이터는 정확하고 현실적인 삼차원 전자 모델들이 필요한 임의의 다른 응용분야로 내보내기/가져오기(컴퓨터에서 "가져오기"란 다른 응용프로그램에 의해 생산된 데이터를 사용하는 것을 말한다)가 행해질 수 있다.
도 4는 도 1에 도시된 이미지 발생 시스템(100)의 동작을 도시하는 처리 흐름도이다. 블록 402에서, 스캔될 물체가 식별된다. 블록 404에서 스캐너(104)는 물체에 인접한 제1 위치에 위치한다. 블록 406에서, 점 스캐너(114)와 컬러 스캐너(116)는 물체를 동시에 스캔하도록 동작한다. 블록 408에서, 점 스캐너(114)에서 제공하는 기하학적 점 데이터와 컬러 스캐너(116)에서 제공하는 컬러 점 데이터가 수집되어 이미지 데이터로서 저장된다.
블록 410에서, 위성 위치 결정 시스템(120)은 측정을 수행하여 스캐너(104)의 지리적 위치를 기록한다. 블록 412에서, 경사 방위 센서(122)는 측정을 수행하여 스캐너(104)의 피치, 롤, 방위를 기록한다. 블록 414에서 위치 정보가 저장된다. 블록 416에서, 물체의 스캔된 표면을 나타내는 삼차원 전자 이미지인 점 구름이 스캔으로부터 발현된다. 블록 418에서 기하학적 점 데이터는 컬러 점 데이터와 연관되어 삼차원 전자 이미지를 색채화한다. 블록 420에서 점 구름은 위치 정보와 연관된다.
블록 422에서는 추가적인 스캔이 수행되어야 하는지가 결정된다. 추가적 스캔이 수행되어야 할 경우, 블록 424에서 스캐너는 또 다른 지리적 위치로 이동할 수 있고 동작은 블록 406으로 돌아가 데이터를 캡처링하여 또 다른 삼차원 전자 이미지를 발현한다. 추가적인 스캔이 필요없다면, 블록 426에서 각각의 삼차원 전자 이미지로부터의 이미지 데이터가 위치 정보를 사용하여 결합되어 물체의 삼차원 전자 모델을 발현한다. 블록 428에서는 물체상에 존재하는 실제 텍스처에 기초하여 하나 이상의 소스 텍스처가 선택된다. 블록 430에서는 소스 텍스처를 사용하여 복합 텍스처 및 대응하는 변환 절차가 발현된다. 블록 432에서는 소스 텍스처 및 변환 절차(예컨대, 복합 텍스처)가 삼차원 전자 모델의 하나 이상의 표면과 연관된다. 블록 434에서 삼차원 전자 모델은 데이터 파일로서 이용될 수 있다.
도 6은 사이트 컴퓨팅 시스템(106) 및 랩 컴퓨팅 시스템(108)을 포함하는 예시적 컴퓨팅 시스템(102)의 더욱 상세한 블록도이다. 예시적 사이트 컴퓨팅 시스템(106)은 통신 모듈(602), 메모리 모듈(604), 처리기 모듈(606) 및 사용자 인터페이스 모듈(608)을 포함한다. 또한, 사이트 컴퓨팅 시스템(106)은 임시 등록 모듈(610)을 포함할 수 있다. 다른 예에서, 더 적거나 더 많은 모듈이 사이트 컴퓨팅 시스템(106)의 기능을 나타내기 위해 사용될 수 있다.
통신 모듈(602)은 스캐너(104; 도 1) 및 랩 컴퓨팅 시스템(108)과의 통신을 제공할 수 있는 임의의 장치가 될 수 있다. 또한, 통신 모듈(602)은 스캐너(104; 도 1)에 관한 입력/출력(I/O) 능력을 제공하는 데이터 획득 기능을 포함할 수 있다. I/O 능력은 입력 및 출력 채널, 통신 포트, 신호 변환, 필터링, 버퍼링, 무선 통신, 유선 통신, 광통신 및/또는 임의의 다른 I/O 관련 능력을 포함할 수 있다. 예시적 신호 입력 및 출력은 아날로그 신호, 디지털 신호 및, RS422, TCI/IP, 블루투스, 802.11, SMS, 전유 프로토콜(proprietary protocols) 및 임의의 다른 통신 프로토콜과 같은 통신 프로토콜을 포함할 수 있다.
메모리 모듈(604)은 메모리 장치 또는 데이터가 저장되고 복원될 수 있는 매체가 될 수 있다. 예컨대, 메모리 모듈(604)은 플래시 메모리, 랜덤 액세스 메모리(RAM)와 같은 전자 메모리 및/또는 하드 드라이브, 광 디스크 등의 자기 메모리를 포함할 수 있다. 메모리 모듈(604)에 저장되고 그로부터 액세스된 데이터는 스캔 및 다른 스캐너 관련 데이터를 포함할 수 있다. 또한, 이미지 발생 시스템(100; 도 1)내의 모듈의 기능 및 동작과 관련된 컴퓨터 코드/소프트웨어와 같은 동작 명령들이 저장되고 액세스될 수 있다. 따라서, 메모리 모듈(604)에 저장된 명령 및 데이터는 사이트 컴퓨팅 시스템(106)의 다른 모듈의 기능 및 동작상의 협력을 제공할 수 있다. 메모리 모듈(604)은 단일 모듈로서 도시되었지만, 다중 메모리 모듈을 포함할 수 있다. 다중 메모리 모듈은 이미지 발생 시스템(100)의 다른 모듈들을 지원할 수 있다.
처리기(606)는 임의의 제어 유닛 또는 통신 모듈(602), 메모리 모듈(604), 사용자 인터페이스 모듈(608) 및 임시 등록 모듈(610)과 인터페이스할 수 있는 컴퓨터 기초 장치가 될 수 있다. 통신 모듈(602)과의 인터페이스는 입력되는 신호 및/또는 데이터를 수신하는 것과 출력되는 신호 및/또는 데이터의 발생을 지시하는 것을 포함할 수 있다. 메모리 모듈(604)과의 인터페이스는 메모리 모듈(604)에 저장된 명령을 실행하여 이미지 발생 시스템(100; 도 1)의 동작에 관련된 메모리 모듈(604)내의 데이터를 발생, 저장, 조작 및/또는 추출하는 것을 포함한다. 처리기(606)는 사이트 컴퓨팅 시스템(106)의 동작 및 통신 모듈(602), 메모리 모듈(604), 사용자 인터페이스 모듈(608), 임시 등록 모듈(610) 사이의 데이터 교환을 조정할 수도 있다.
사용자 인터페이스 모듈(608)은 버튼, 표시 스크린, 터치 스크린, 명령자, 변환기 및/또는 사용자에게 이미지 발생 시스템(100)과의 인터페이스를 제공하는 임의의 다른 매커니즘을 지원하는 기능을 포함할 수 있다. 또한, 사용자 인터페이스 모듈(608)은 삼차원 전자 이미지, 기하학적 점, 컬러 점, 삼차원 전자 모델, 위치 정보 및, 이미지 발생 시스템에 의해 수집된 임의의 다른 데이터의 시각적 연출을 제공할 수 있다. 사용자 인터페이스 모듈(608)의 동작은 처리기(606)에 의해 실행된 명령 및 사용자에 의해 제공된 입력에 기초할 수 있다.
임시 등록 모듈(610)은 처리기(606)에 의해 실행된 명령에 기초하여 스캔을 보고 조작하기 위해 사용자 인터페이스 모듈(608)과 협력적으로 동작할 수 있다. 스캔의 조작은 각각의 다른 스캔과 연관된 삼차원 전자 이미지를 사용자가 수동으로 이동 및 회전시키는 것을 수반할 수 있다. 점 구름들이 이동되고 회전되어 함께 맞춰지고 삼차원 전자 이미지들로부터 임시 삼차원 전자 모델을 형성할 수 있다.
개별적인 스캔들을 결합시켜 삼차원 전자 모델을 형성하는 처리를 "등록"이라 부른다. 이 경우, 등록은 사이트상에서 수동으로 수행될 수 있고, 따라서 "임시 등록" 또는 "예비 등록"으로 불릴 수 있다. 사용자에 의한 스캔의 조작은 물체가 스캔되는 사이트에서 발생하므로, 사용자는 다른 삼차원 전자 이미지들을 결합할 때 임시 삼차원 전자 모델과 실제 물체를 시각적으로 비교할 수 있다.
또한, 임시 등록 모듈(610)은 임시 삼차원 전자 모델을 형성하기 위해 스캔의 자동화된 조작을 수행할 수 있다. 자동화된 조작은 임시 삼차원 전자 모델을 형성하기 위해 각 스캔으로부터의 위치 정보 및 점 구름의 사용을 수반할 수 있다. 자동화된 조작 후에, 사용자는 다양한 점 구름을 전술된 것처럼 수동으로 조작할 수도 있다. 조작이 완료될 때, 임시 삼차원 전자 모델은 랩 컴퓨팅 시스템(108)에 제공될 수 있다.
대안적으로, 스캔은 조작없이 랩 컴퓨팅 시스템(108)에 제공될 수 있다. 스캔이 사이트 컴퓨팅 시스템(106)에 의해 조작되지 않을 경우, 임시 등록 모듈(610)은 생략될 수 있다. 따라서, 이렇게 수집된 스캔들은 또 다른 처리를 위해 랩 컴퓨팅 시스템(108)에 전송되거나 제공될 수 있다.
도 6에 도시된 예시적 랩 컴퓨팅 시스템(108)은 통신 모듈(622), 메모리 모듈(624), 처리기 모듈(626), 사용자 인터페이스 모듈(628)을 포함한다. 또한, 랩 컴퓨팅 시스템(108)은 스캔 결합 모듈(630), 기하학적 모델링 모듈(632), 텍스처라이징 모듈(634)을 포함할 수 있다. 다른 예에서, 더 적거나 더 많은 모듈이 랩 컴퓨팅 시스템(108)의 기능을 설명하기 위해 사용될 수 있다.
통신 모듈(622), 메모리 모듈(624), 처리기 모듈(626), 사용자 인터페이스 모듈(628)은 사이트 컴퓨팅 시스템(106)에 포함된 전술된 통신 모듈(602), 메모리 모듈(604), 처리기 모듈(606), 사용자 인터페이스 모듈(608)과 유사할 수 있다. 처리기 모듈(626)은 메모리 모듈(624)을 포함하는 다른 모듈들에 저장된 명령을 실행함으로써 랩 컴퓨팅 시스템(108)의 전체 동작을 제어할 수 있다. 또한, 처리기 모듈(626)은 통신 모듈(622), 메모리 모듈(624), 사용자 인터페이스 모듈(628), 스캔 결합 모듈(630), 기하학적 모델링 모듈(632) 및 텍스처라이징 모듈(634)의 협력적 동작을 허용할 수 있다.
랩 컴퓨팅 시스템(108)은 "정밀 등록"을 가리키는 등록 처리를 수행할 수 있다. 정밀 등록은 각 삼차원 전자 이미지의 점 구름의 기하학적 점들이 스캔 결합 모듈(630)에 의해 결합될 때 발생한다. 또한, 결합된 점 구름들은 기하학적 모델링 모듈(632)을 사용하여 함께 정확하게 맞춰져서 최종 삼차원 전자 모델을 형성한다.
임시 등록이 수행되었을 때, 랩 컴퓨팅 시스템(108)이 세가지 기술 중 임의의 기술을 이용하여 정밀 등록을 수행할 수 있다. 제1 기술에서는, 각 전자식 삼차원 이미지를 나타내는 개별적인 점 구름들이 결합되어 개별적 점 구름들의 모든 이미지 데이터를 포함하는 모델 점 구름을 형성할 수 있다. 점 구름의 배열을 위한 조작은 다른 스캔들내에서 매칭되는 기하학적 점들을 식별하는 것을 수반할 수 있다. 일단 다양한 점 구름들이 배열되고 결합되어 모델 점 구름을 형성하면, 다음에 모델 점 구름내의 표면이 결정될 수 있다.
처리기(626)가 실행하는 명령에 의해서, 모델 점 구름내의 기하학적 점들이 결합되어 표면이 표현될 수 있다. 표면들은 기하학적 점들로부터 스캔 결합 모듈(630)에 의해 결정될 수 있다. 표면의 결정은 기하학적 점들을 그 점 구름내의 주변 기하학적 점들에 대해 분석하는 것을 수반할 수 있다.
먼저 적어도 두개의 기하학적 점을 포함하는 표면이 식별될 수 있다. 식별된 표면과 또 다른 기하학적 점 사이의 소정의 거리는 그 기하학적 점이 식별된 표면의 일부인지를 판단하는데에 사용될 수 있다. 예컨대, 표준 벡터가 표면과 기하학적 점 사이에서 식별될 수 있다. 기하학적 점이 5 센티미터와 같은 소정의 거리내에 있으면, 그 기하학적 점은 그 표면에 할당되고 표면이 다시 계산될 수 있다. 서로의 소정 거리내에 있는 모든 기하학적 점들이 표면의 일부로서의 포함을 위해 고려될 수 있다. 특정 기하학적 점이 다수의 표면의 소정 거리내에 있으면, 그 기하학적 점은 물체의 코너 또는 에지에 있을 수 있고, 따라서 다수의 표면 각각에 할당될 수 있다. 일단 모델 점 구름내의 표면들이 결정되면, 기하학적 모델링 모듈(632)을 사용하여 결합된 점 구름들이 함께 정확히 맞춰져서 최종 삼차원 전자 모델을 형성할 수 있다. 또한, 텍스처들이 표면들과 연관될 수 있다.
제2 기술에서는, 표면들이 각 점 구름에서 개별적으로 결정된다. 표면들은 전술된 것처럼 점 구름의 기하학적 점들에 기초하여 결정될 수 있다. 일단 표면들이 식별되면, 텍스처들이 표면들과 연관될 수 있다. 다음에 점 구름들은 결합될 수 있다. 이 기술의 점 구름들의 결합은 각 점 구름의 개별적인 기하학적 점들 대신 표면들 및/또는 텍스처들에 기초할 수 있다. 일단 점 구름들이 결합되면, 기하학적 모델링 모듈(632)을 사용하여 결합된 점 구름들이 함께 정확히 맞춰져서 최종 삼차원 전자 모델을 형성할 수 있다.
제3 기술에서는, 표면들이 기하학적 점들로부터의 각 점 구름에서 개별적으로 결정된다. 일단 표면들이 결정되면, 각 표면의 윤곽이 결정된다. 각 표면의 윤곽은 각각의 삼차원 전자 이미지를 도시하는 골격을 형성한다. 다음에, 각 스캔의 골격이 결합되어 골격 모델을 형성한다. 골격들의 결합은 다양한 점 구름들로부터의 표면들의 윤곽의 배열에 기초할 수 있다. 일단 점 구름들이 결합되면 기하학적 모델링 모듈(632)을 사용하여 결합된 점 구름들이 함께 정확히 맞춰져서 최종 삼차원 전자 모델을 형성할 수 있다. 또한, 텍스처들이 표면들에 연관될 수 있다.
임시 등록이 수행되지 않았을 때, 정밀 등록은 각 점 구름의 컬러 점들과 기하학적 점들을 결합시켜 라인들을 형성할 수 있다. 컬러 점들 및 기하학적 점들은 스캔 결합 모듈(630)의 명령에 의해 결합될 수 있다. 점 구름들은 기하학적 점들 및 컬러 점들로 표시된 삼차원 전자 이미지로부터 하나 이상의 라인으로 표시된 동일 삼차원 전자 이미지로 변환될 수 있다. 따라서, 선택된 다수의 기하학적 점들은 하나의 원피스 라인(one-piece line)으로 변환된다.
각 라인은 윤곽 데이터의 형태가 될 수 있다. 윤곽 데이터는 하나의 라인이 점 구름의 비교적 많은 개수의 기하학적 및 컬러 점들을 대체할 수 있으므로 데이터 조작 능력에 있어서 상당히 큰 효율을 제공할 수 있다. 예컨대, 그 점 구름이 빌딩인 물체를 나타낼 때, 스캔 결합 모듈(630)은 삼차원 전자 이미지로부터 빌딩의 부분에 대한 라인들을 발생시키는 명령을 실행시킬 수 있다. 따라서, 윤곽 데이터 파일들이 각 스캔으로부터 발생될 수 있다.
도 7은 집인 물체를 스캔함으로써 발현된 예시적 삼차원 전자 이미지(702)이다. 윤곽 데이터 파일들을 발생시키기 위해, 스캔의 점 구름으로부터 발현된 삼차원 전자 이미지(702)는 소이미지들(sub-images)(704)로 분할될 수 있다. 예컨대, 삼차원 전자 이미지(702)는 각각 약 1 미터 두께인 소이미지들(704)로 분할될 수 있다.
소이미지들(704)로의 분할은 점 구름을 세그먼트로 "쪼개는 것(slicing)"을 수반한다. "조각들(slices)"은 수직, 수평, 경사진 것 등이 될 수 있다. 각각의 소이미지들(704) 내에서, 단일 원피스 라인인 라인(706)이 발현될 수 있다. 라인(706)은 소이미지(예컨대, 점 구름의 세그먼트)를 나타낸다. 도 7의 예에서, 라인(706)의 제1 부분(708)은 집의 제1 벽을 형성하는 점 구름의 부분을 표현할 수 있다. 라인(706)의 제2 부분(710)은 지붕의 제1 절반을 표현할 수 있다. 또한 빌딩과 같은 물체는 부분 평면(712)인 소이미지로 수평으로 분할될 수 있다. 부분 평면(712)은 마찬가지로 하나의 라인으로 발현될 수 있다. 소이미지를 생성할 수 있는 예시적 애플리케이션으로서는 미국 캘리포니아주의 산라몬(San Ramon)에 소재하는 사이라 테크놀로지사(Cyra Technologies, inc.)가 시판하고 있는 사이클론 소프트웨어(Cyclone software)가 있다.
라인에 의해 표현된 각 소이미지는 윤곽 데이터 파일에 저장되어 기하학적 모델링 모듈(632; 도 6)에 제공될 수 있다. 예컨대, 각각의 윤곽 데이터 파일은 .dxf 또는 .dwg 파일이 될 수 있다. 각 소이미지를 도시하는 점 구름의 각 부분은 한 라인으로 복잡성 및 크기가 감소되었으므로, 삼차원 전자 이미지들에 관한 필요한 데이터 저장 용량, 데이터 전달 용량 및 처리 전력이 감소될 수 있다. 또한, 각 스캔으로부터의 라인들의 조작은 삼차원 전자 모델의 생성을 단순화시킨다.
도 6의 기하학적 모델링 모듈(632)은 삼차원 전자 모델을 발현하도록 삼차원 전자 이미지들을 정확히 결합시킴으로써 스캔들의 정밀 등록을 완성하는 명령을 포함할 수 있다. 또한 기하학적 모델링 모듈(632)은 스캔 데이터에 기하학적 관련 데이터를 추가하여 삼차원 전자 모델을 발현할 수 있다. 예시적 기하학적 모델링 모듈(632)에는 미국 메사츄세츠주의 뉴튼에 소재하는 그래피소프트 유.에스.사(GraphisoftR U.S., Inc.)에서 시판하고 있는 ArchiCADR 소프트웨어 등이 있다.
각 삼차원 전자 이미지내에서 스캔 결합 모듈(630)에 의해 식별된 표면들은 기하학적 모델링 모듈(632)에 의해 삼차원 전자 모델로 조립될 수 있다. 대안적으로, 각 삼차원 전자 이미지가 라인의 형태로 기하학적 소이미지로 축소된 경우, 라인들은 마찬가지로 기하학적 모델링 모듈(632)에 의해 삼차원 전자 모델을 형성하도록 조립될 수 있다. 임시 삼차원 전자 모델이 사이트 컴퓨팅 시스템(106)으로부터 제공된 경우, 삼차원 전자 이미지들은 정밀 등록중에 기하학적 모델링 모듈(632)에 의해 한번 더 조작되어 최종 삼차원 전자 모듈을 형성한다. 기하학적 모델링 모듈(632)에 의해 수행된 정밀 등록의 일부는 다양한 삼차원 전자 이미지들을 함께 하나의 기하학적 이미지로 더 정확히 맞추기 위해 다양한 점 구름의 보다 상세한 처리를 수반할 수 있다.
삼차원 전자 이미지들을 함께 하나의 기하학적 이미지로 더 정확히 맞추어 삼차원 전자 모델을 형성하기 위한 상세한 처리는 자동화되거나, 수동 또는 수동과 자동의 어떤 결합이 될 수 있다. 상세한 처리중에 삼차원 전자 이미지의 조작 및 결합은 삼차원 전자 이미지들을 함께 정확히 맞추기 위해 이들의 위치 및/또는 회전을 변경시키는 명령을 수반할 수 있다. 삼차원 전자 이미지들은 위치결정 시스템(112)에 의해 결정된 위치 정보에 기초하여 서로에 대해 조작될 수 있다. 삼차원 전자 이미지들이 라인들로 분할된 경우, 소이미지들을 나타내는 라인들은 마찬가지로 기하학적 모델링 모듈(632)에 의해 결합되고 조작된다.
삼차원 전자 이미지들의 조작 및 결합은 제1 삼차원 전자 이미지의 점 구름내에서 서로 인접한(하나의 표면을 형성하는 점들과 같이) 기하학적 점들을 식별하는 것과 제1 삼차원 전자 이미지의 기하학적 점들과 제2 삼차원 전자 이미지의 기하학적 점들 사이의 거리를 측정하는 것을 수반할 수 있다. 가우스 법칙 계산과 같은 반복 처리를 사용함으로써, 제2 삼차원 전자 이미지의 기하학적 점들과 유사한 제1 삼차원 전자 이미지의 기하학적 점들이 식별될 수 있다.
다른 삼차원 전자 이미지의 유사한 기하학적 점들 간의 오차에 기초하여, 오차가 최소화될 때까지 조작과 재계산이 반복 수행된다. 오차는 다른 삼차원 전자 이미지들의 이웃하는 기하학적 점들 사이의 모든 제곱 거리의 합을 수반하는 제곱 오차 최소화 기술에 기초하여 결정될 수 있다. 점 구름들이 소이미지로 분할된 경우, 라인들 간의 거리가 마찬가지로 라인들을 조작하고 결합시키는데에 사용될 수 있다.
컬러 또한 삼차원 전자 모델을 발생시키기 위한 기하학적 모델링 모듈(632)에 의한 정밀 등록중에 조작될 수 있다. 컬러 점들은 기하학적 점들과 동시에 수집될 수 있다. 그와 같이, 컬러 점들은 삼차원 전자 이미지들의 기하학적 점들과 연관될 수 있다. 예컨대, 하나의 컬러 점은 9개의 기하학적 점과 연관될 수 있고, 따라서 그 컬러 점은 기하학적 점들 사이에 삽입될 수 있다.
대안적으로, 컬러 점들이 기하학적 점들과 동시에 수집되지 않을 경우, 기하학적 점들에 컬러를 연관시키기 위해 스트레칭(stretching) 및 스큐잉(skewing)이 이용될 수 있다. 예컨대, 전자적으로 표시된 물체의 컬러를 위해 사진이 사용될 경우, 기하학적 점들 또는 라인에 의해 표현된 기하학적 표면들을 맞추기 위해 사진의 컬러가 스트레칭 및 스큐잉된다.
동작중에, 컬러 화소들을 기하학적 점들에 매핑하기 위해 개별적인 삼차원 전자 이미지들이 어떻게 결합되었는지에 관한 이동 및 회전 정보가 사용될 수 있다. 다른 스캔들의 동일 영역으로부터의 컬러 차이는, 유사 이미지들의 이미지 비교, 유사 화소들의 화소 비교 또는 다른 스캔들간의 그러한 차이를 해결하기 위한 임의의 다른 화소 처리 기술과 같은 화상 처리 기술을 사용하여 기하학적 모델링 모듈(632)에 의해 해결될 수 있다. 또한, 다른 개별적 스캔들 중에서 태양광선(예컨대, 그늘 등)의 각도 차이를 결정하기 위해 항법 좌표가 사용될 수 있다. 또한, 표면의 컬러의 공백은 컬러 점들 사이에서 메워진다. 공백을 메우는 것은 예컨대 래스터화 처리(rasterization process)에 의해 주변 컬러를 삽입함으로써 완성될 수 있다.
래스터화 처리는 기하학적 모델링 모듈(632)에 의해 삼차원 전자 이미지의 한 표면을 다수의 삼각형으로 분할함으로써 수행될 수 있다. 삼각형들은 그 표면내의 기하학적 점들을 선택적으로 연결함으로써 중첩되지 않게 형성되어 점 삼각형들을 형성할 수 있다. 기하학적 점들간의 라인들은 각 점 삼각형의 세 변을 묘사한다. 또한 경계 삼각형들이 형성될 수 있다.
경계 삼각형들은 그 표면 및 경계 주위를 둘러싼 기하학적 점들 사이에서 형성될 수 있다. 경계는 표면의 바깥쪽 에지 근처의 표면을 둘러싸도록 형성된다. 경계 삼각형들은 하나의 기하학적 점을 사용하여 각각의 경계 삼각형의 세 변 중 두개가 그 기하학적 점에서 경계까지 이어지도록 형성된다. 각 경계 삼각형의 나머지 변은 경계에 의해 형성될 수 있다.
표면에 연관된 컬러 점들은 각 삼각형내의 기존의 컬러 점들간에 음영을 생성하기 위해 사용될 수 있다. 음영은 기존의 컬러 점들 사이의 각 삼각형에 새로운 컬러 점들을 추가함으로써 생성될 수 있다. 추가될 새로운 컬러 점의 개수는 표면에 필요한 디테일(해상도)의 정도에 기초할 수 있다.
새로운 컬러 점들의 결정은 기존의 컬러 점들 간의 컬러 스펙트럼내에서 이동함으로써 컬러 혼합하는 것에 기초할 수 있다. 컬러 혼합은 기존의 컬러 점들 사이의 삽입, 다양한 기존의 컬러 색들로부터의 새로운 컬러 점의 거리차 및/또는 기존의 컬러 점들 사이의 컬러 스펙트럼내에서 이동하는 임의의 컬러 진화 기술에 의해 수행될 수 있다. 래스터화의 결과, 각 삼각형에 의해 규정된 표면 영역의 음영은 동일하게 유지, 그 컬러에 대해 약간 조정 및/또는 상당히 다른 컬러를 가질 수 있다. 따라서 각 삼각형은 임의 개수의 컬러 또는 각 삼각형의 기존의 컬러 점들 및 인접 삼각형의 기존의 컬러 점들에 의존하는 컬러 변화를 포함한다.
기하학적 모델링 모듈(632)은 또한 삼차원 전자 모델을 소정의 구조로 만들 수도 있다. 기하학적 모델링 모듈(632)에 의해 모델링된 물체의 전자식 표현의 구조는 레이어들로 분할될 수 있다. 삼차원 전자 모델의 레이어들은 단순 레이어인 제1 레이어, 입체(contruction) 레이어인 제2 레이어, 위치 레이어인 제3 레이어, 라이브러리 레이어인 제4 레이어 및, 화상 레이어인 제5 레이어를 포함할 수 있다. 단순 레이어는 스캔된 물체를 나타내는 삼차원 기하학적 구조를 포함할 수 있다. 입체 레이어는 라인, 곡선, 스플라인(splines), 점, 텍스트 정보, 주석 및, 삼차원 전자 모델의 입체 처리중에 사용되는 임의의 다른 생성 관련 정보와 같은 구성 요소를 포함할 수 있다.
위치 레이어는 스캔 데이터가 수집되었을 때의 스캐너(104)의 위치에 관한 정보를 포함한다. 위치 레이어 정보는 사이트 평면도 및 표시된 위치를 포함할 수 있다. 표시된 위치는 스캔중에 위치 결정 시스템(112; 도 1)에 의해 획득된 경사 및 고도뿐 아니라 지리적 좌표도 제공할 수 있다. 그 정보는 사이트 평면도내에 표시될 수 있다.
사이트 평면도는 삼차원 전자 모델과 동일한 스케일, 위치 및 방위로 표시될 수 있는 도해이다. 북쪽과 같은 소정의 방향으로부터의 변위가 사이트 평면도에서 식별될 수 있다. 사이트 평면도는 또한 삼차원 전자 모델을 표시할 수 있다. 사이트 평면도에서의 삼차원 전자 모델의 방위는 물체의 북쪽이 디스플레이의 위쪽 에지에 인접되는 방위가 될 수 있다.
라이브러리 레이어는 명령 또는 데이터의 형태로 라이브러리 요소들을 포함한다. 라이브러리 요소들은 모델링될 물체의 다양한 양상을 표시하도록 모델링 처리에 사용되기 위해 해석될 수 있다. 라이브러리 레이어는 또한 복합 텍스처를 형성하도록 소스 택스처를 변환하는 변환 절차를 포함할 수 있다. 화상 레이어는 옵션의 레이어가 될 수 있다. 물체의 사진을 찍은 경우, 화상 레이어는 사진사의 성명과 같은 고유한 신원증명뿐 아니라 사진이 촬영된 때의 사진사의 지리적 위치의 스케치를 포함할 수 있다.
삼차원 전자 모델에 의해 모델링되는 각 물체의 기하학적 구조의 모델 크기는 일정한 크기로 스케일링될 수 있다. 물체는 다수의 다각형을 갖는 모델에 의해 소정 스케일로 기하학적으로 표시될 수 있다. 물체를 표시하기 위해 선택된 다각형의 수는 원하는 해상도, 하드웨어 한계 또는 임의의 다른 고려해야할 성능 또는 디스플레이에 기초하여 선택될 수 있다. 예컨대, 1 초에 디스플레이상에 10개의 다른 전자 모델을 연출해야하고 그래픽 처리기가 1 초에 10,000개의 다각형의 연출로 제한될 경우, 1,000개까지의 다각형이 물체의 기하학적 형상을 삼차원 전자 모델로 표현할 수 있다. 각각의 다각형은 n(n>2)개의 정점을 포함할 수 있다.
삼차원 전자 모델의 구조는 하나 이상의 평평한 평면들 만으로 구성될 수 있다. 벽, 천정, 지붕 등과 같은 각 평면은 0의 깊이(두께)를 가질 수 있다. 컬러 점들이 기하학적 점들과 동시에 캡처링되지 않았을 경우, 삼차원 전자 모델내의 평면들의 특징적인 표면들은 소정의 컬러로 제공될 수 있다. 그 컬러는 벽돌=적색, 채소=녹색 등과 같이 표시된 재료와 일반적으로 흡사할 수 있다. 또한, 문, 창문, 유색 정면 패턴(colored facade patterns)과 같은 다양한 평면의 표면상의 특징의 시각적 표시는 모델링되지 않는다. 물체의 표면상의 특징의 표시는 삼차원 전자 모델에 텍스처를 추가함으로써 실현될 수 있다.
삼차원 전자 모델을 형성하는 삼차원 전자 이미지들은 중첩되도록 시각적으로 표시되어서는 안된다. 그럴 경우, 모델내에서 서로 접하는 바깥쪽 에지들 뿐만 아니라 평면들의 에지들이 폐쇄된다. 즉, 삼차원 전자 모델의 시각적 표시는 시각적으로 인식된 실제 물체에 존재하지 않는 구멍, 슬래시 또는 다른 틈을 포함해서는 안된다. 또한, 삼차원 전자 모델의 대량 합성물은 폐쇄된다. 예컨대, 물체가 빌딩인 경우 대표적 삼차원 전자 모델의 1층 바닥은 폐쇄된 윤곽을 가질 수 있다.
기하학적 모델링 모듈(632)은 또한 고도 보정을 포함할 수 있다. 고도 보정은 경사 및 다른 비탈을 시뮬레이트하기 위해 삼차원 전자 모델내에 부가될 수 있다. 디스플레이상에서 물체를 나타내는 그래픽 이미지는 한 평면상에 투영될 수 있다. 그 평면은 지표, 주차장, 도로 등과 같은 정착 표면(resting surface)을 나타낼 수 있다. 경사 표면을 형성하는 것처럼 정착 표면이 기울어진 경우, 고도 보정이 적용될 수 있다.
도 8은 언덕의 중턱과 같은 경사진 평면(806)상에 위치한 물체(804)를 나타내는 예시적 삼차원 전자 이미지(802)를 도시한다. 도시된 물체(804)는 빌딩이다. 스캐닝되는 상당히 경사진 평면상에 위치한 물체는 경사진 평면을 고려하지 않은 삼차원 전자 모델을 초래할 수 있다. 즉, 물체는 위치 결함을 가지고 표시될지도 모른다.
기하학적 모델링 모듈(632)은 표시된 물체(804)의 기하학적 형태에 인식가능한 차이없이 높이를 변경시킴으로써 모델의 바깥쪽 에지들을 "균일화"하지 않을 수 있다. 도시된 예에서, 물체(804)의 윤곽은 1층 바닥(808)을 포함한다. 1층 바닥(808)은 아키트레이브 블록(architrave block) 810의 구성을 위한 베이스를 제공하여 고도의 변화를 보상할 수 있다. 아키트레이브 블록 810은 1층 바닥(806)으로부터 발생될 수 있다. 물체(804)에 맞도록 하는 아키트레이브 블록 810의 조정은 조정점(Zmin)에 기초할 수 있다.
도 9는 삼차원 전자 이미지(902)의 다른 예를 도시한다. 삼차원 전자 이미지(902)는 도로 표면(904) 및 다리(906)의 표시를 포함한다. 도로 표면(904)과 다리(904) 사이의 전이부(trasition)는 플로팅(floating)으로 표시된다. "플로팅"이란 용어는 도로 표면(904)과 다리(906) 사이의 각도 관계를 의미한다. 도시된 예에서, 서로 접하는 각도는 약 6도까지 다를 수 있다.
도 6에 도시된 텍스처라이징 모듈(634)은 삼차원 전자 모델의 하나 이상의 표면에 대해 하나 이상의 텍스처를 발생시키는 명령을 포함하는 텍스처라이징 시스템이다. 또한 텍스처들은 텍스처라이징 시스템에 의해 삼차원 전자 이미지들 또는 물체의 임의의 다른 형태의 전자식 표현의 표면에 대해 발생될 수 있다. 따라서, 텍스처라이징 시스템에 의해 생성된 텍스처들은 전술된 것처럼 발생된 삼차원 전자 이미지들 및/또는 모델들의 표면의 표현에 한정되지 않는다. 또한, 텍스처라이징 시스템은 이미지 발생 시스템의 전술된 예에서의 동작에 한정되지 않는다. 그 대신, 텍스처라이징 시스템은 독립형 시스템이 되거나, 또는 전자 이미지를 제공할 수 있는 임의의 시스템과 협력하여 동작할 수도 있다.
텍스처라이징 모듈(634)은 새로운 텍스처를 발생시키는 명령을 포함할 수 있다. 새로운 텍스처들은 기존의 텍스처들의 변경 및/또는 결합에 의해 발생될 수 있다. 또한, 텍스처라이징 모듈(634)은 다수의 사용자에게 접근할 수 있는 텍스처 라이브러리를 지원하는 명령을 포함할 수 있다. 텍스처 라이브러리내의 텍스처들은 빌딩과 같은 물체의 삼차원 전자 모델들을 텍스처라이징하는데에 사용될 수 있다.
도시된 예에서, 텍스처 모델(634)은 신속한 텍스처 발생을 위해 사용되는 이미지 발생 시스템(100)의 일부가 될 수 있다. 그 기능은 기존의 텍스처들(소스 텍스처들)에 기초하여 새로운 또는 조정된 텍스처들(복합 텍스처들)을 발생시킬 수 있다. 예컨대, 빌딩의 특징적 부분은 사진이나 그림으로부터 획득되어 소스 텍스처로서 포함될 수 있다. 빌딩의 다양한 부분들의 텍스처는 그 소스 텍스처, 다른 소스 텍스처 및/또는 복합 텍스처를 형성하기 위한 하나 이상의 소스 텍스처의 변환에 의해 표시될 수 있다.
따라서, 사진이나 그림으로부터 어쩌면 수 백개의 다른 텍스처의 발생의 감소에 의해 컴퓨터 메모리 및 텍스처 캡처링 및/또는 발생에서의 상당한 손실이 방지될 수 있다. 그 절약은 묘사되지 않거나 주의를 끌지 못하는 단순한 일반적인 텍스처들로 복귀하지 않고 달성될 수 있다. 소스 텍스처의 거의 끝없은 조합 가능성은 과도한 메모리의 소비없이 삼차원 전자 모델에 채택되는 바람직한 복합 텍스처들을 산출할 수 있다. 즉, 복합 텍스처를 발생시키는 절차가 그 복합 텍스처의 이미지 대신 저장될 수 있다. 대안적으로, 복합 텍스처들 자체가 저장될 수 있다.
도 10은 도 6에 도시된 텍스처라이징 모듈(634)내의 명령의 더 상세한 블록도의 예이다. 텍스처라이징 모듈(634)은 텍스처 엔진(1002), 라이브러리 콤포넌트(1004) 및 그래픽 사용자 인터페이스(GUI) 콤포넌트(1006)를 포함한다. 다른 예에서, 더 적거나 더 많은 수의 엔진 및 콤포넌트가 텍스처라이징 모듈(634)의 기능을 나타내기 위해 도시될 수 있다. 또한, 다른 예에서, 텍스처라이징 모듈(634)은 랩 컴퓨팅 시스템(108)의 외부에서 독립적으로 동작할 수 있다.
텍스처라이징 모듈(634)의 명령들은 C++, 비주얼 베이직, UNIX, 자바, 또는 임의의 다른 소스 코드 언어로 발현될 수 있다. 텍스처라이징 모듈(634)은 MicrosoftR 비주얼 스튜디오, 볼랜드(Borland)사의 J 빌더(Builder), 볼랜드(Borland)사의 C++ 빌더 또는 임의의 다른 진화 툴을 이용하여 개발될 수 있다. 다른 예에서, 다른 형태, 포맷 및/또는 툴이 텍스처라이징 모듈(634)의 명령을 발현하는데에 사용될 수 있다.
텍스처 엔진(1002)은 텍스처라이징 모듈(634)의 전체 동작 기능을 제공하는 명령을 포함할 수 있다. 또한, 텍스처 엔진(1002)은 라이브러리 콤포넌트(1004)와 그래픽 사용자 인터페이스 콤포넌트(1006)의 협력적 동작 및 제어를 조정할 수 있다. 텍스처 엔진(1002)은 텍스처 모듈(634)로 하여금 WindowR 9x, NT, 2000 및 XP 또는 네트워크 액세스를 갖거나 갖지 않는 임의의 다른 플랫폼과 같은 플랫폼들에서 동작할 수 있도록 한다. 따라서, 한 예에서, 텍스처라이징 모듈(634)의 사용자 인터페이스는 "윈도우같은" 외관 및 느낌을 가질 수 있다. 텍스처라이징 모듈(634)은 건축가, 디자이너 등과 같은 사용자에 의한 동작을 위해 설계될 수 있으므로 조작을 위해 소프트웨어 개발자의 전문지식을 필요로하지 않을 수 있다. 또한, 텍스처라이징 모듈(634)에는 미숙한 사용자에 의해 잘못 초기화되는 유해한 사건으로부터의 보호를 제공하는 안전 기능이 장착될 수 있다.
라이브러리 콤포넌트(1004)는 텍스처 라이브러리를 표시하며, 텍스처 라이브러리에서 텍스처라이징 모듈(634)의 기본 요소인 텍스처들을 카테고리화할 수 있다. 예시적 라이브러리 콤포넌트(1004)는 카테고리화될 수 있는 텍스처의 유형을 나타내는 소스 텍스처 카테고리(1008) 및 복합 텍스처 카테고리(1010)를 포함한다. 다른 예에서, 텍스처의 유형은 더 많거나 더 적은 수의 카테고리로 카테고리화될 수 있다. 또한, 라이브러리 콤포넌트(1004)는 텍스처 디렉토리(1012)를 포함할 수 있다.
본원에서 사용될 때, "텍스처" 또는 "텍스처들"이란 용어는 물체의 하나 이상의 표면에서 시각적으로 인식되는 실제 컬러 및/또는 특징의 현실적 표현을 의미한다. 따라서, 전자적 형태로 표시된 물체의 표면에 적용된 "텍스처"는 실제 물체를 볼 때 시각적으로 인식될 물체의 표면의 특징을 대부분 복제한다. 예컨대, 빌딩의 표면의 텍스처는 창, 조각, 몰딩(moldings), 레일링(railings), 구멍, 벽돌구조, 지붕널(shingles) 등을 포함할 수 있다. 또한, 텍스처는 반사광, 표면에 투영된 광상(light images) 등등 뿐아니라 젖고, 그늘지고 및/또는 양지바른 표면을 표현할 수 있다. 따라서, 텍스처는 마치 실제 물체가 관찰된 것처럼 물체의 하나 이상의 표면에 존재하는 구조적 특징, 예술적 특징, 채광 및 임의의 다른 시각적 특징을 복제하여 거의 재생하는데에 사용될 수 있다.
소스 텍스처 카테고리(1008)는 적어도 하나의 소스 텍스처를 포함한다. 소스 텍스처는 그 소스 텍스처에 저장될 수 있는 전자적 형태의 이미지가다. 이미지는 비트맵, JPEG, TIF, DWG 또는 인간의 시각적 묘사, 물체, 임의의 다른 시각적으로 인식되는 실체의 다른 전자적 형태와 같은 이미지 파일의 형태가 될 수 있다. 이미지의 전자 형태내에 존재하는 화소는 이미지의 텍스처를 표시하기 위해 적색, 녹색 청색 및 투명색이 될 수 있다. 예컨대, 소스 텍스처는 디지털 카메라에 의해 촬영된 디지털 사진으로부터 생성될 수 있다. 소스 텍스처의 한 예는 빌딩의 정면의 비트맵 이미지가다.
복합 텍스처 카테고리(1010)는 복합 텍스처들을 포함한다. 복합 텍스처들은 하나 이상의 소스 텍스처로 구성된다. 복합 텍스처는 변환 절차에 의해 복합 텍스처 카테고리(1010)내에 제공된다. 변환 절차들은 복합 텍스처 카테고리(1010)에 저장될 수 있다. 변환 절차는 하나 이상의 복합 텍스처를 형성하도록 소스 카테고리(1008)의 하나 이상의 텍스처에 적용되는 조작 및/또는 결합 명령들을 제공한다. 따라서, 복합 텍스처들은 복합 텍스처들이 조성되는 소스 텍스처에 대한 레퍼런스를 포함한다.
변환 절차에 기초한 하나 이상의 소스 텍스처의 변환은 하나 이상의 소스 텍스처에서 수행된 하나 이상의 그래픽 동작을 포함할 수 있다. 그래픽 동작들은 예컨대 클리핑(clipping), 색채화, 회전, 미러링, 반복, 스케일링, 위치결정, 순서화, 및/또는 하나 이상의 소스 텍스처의 임의의 다른 그래픽 관련 조작을 포함할 수 있다.
도 11은 소스 텍스처(1102)를 사용하여 복합 텍스처(1100)를 조성하는 예시적 변환 절차에서의 각각의 그래픽 동작의 결과를 도시한다. 블록 1104에서 소스 텍스처(1102)가 변환 절차에 의해 식별된다. 소스 텍스처(1102)의 일부만이 필요하므로 블록 1106에서는 변환 절차에 의해 클리핑이 적용된다. 블록 1108에서는, 소스 텍스처에 하나 이상의 컬러를 곱함으로써 변환 절차에 의해 색채화가 적용된다. 소스 텍스처(1102)는 블록 1110에서 변환 절차에 의해 회전된다. 도시된 예에서, 소스 텍스처(1102)는 회전된 소스 텍스처(1102)와 새로운 경계 직사각형 사이의 공간이 투명색으로 메워지도록 약 90도 회전된다. 다른 예에서, 회전 단계는 더 많거나 더 적을 수 있다.
블록 1112에서, 소스 텍스처(1102)는 x 및 y 축에 대해 거울대칭된다. 소스 텍스처(1102)는 블록 1114에서 x 축 및 y 축을 따라 여러번 반복된다. 반복된 소스 텍스처들(1102)은 접촉될 수 있다. 대안적으로, 투명색으로 메워진 공백은 각각의 반복된 소스 텍스처(1102) 사이에 규정될 수 있다. 블록 1116에서, 반복된 소스 텍스처(1102)는 x 및 y 축을 따라 스케일링된다. 스케일링은 필터링없이 수행될 수 있다. 대안적으로, 스케일링은 쌍일차 필터링 또는 임의의 다른 스케일링 또는 필터링 기술을 사용하여 수행될 수 있다.
변환된 소스 텍스처들(1102)은 블록 1118에서 복합 텍스처(1110)의 적어도 일부를 형성하도록 배열 및 순서화에 의해 위치 결정될 수 있다. 따라서, 다중 변환된 소스 텍스처들(1102)들은 복소 텍스처(1100)를 생성하도록 배열될 수 있다. 다중 변환된 소스 텍스처들(1102)은 서로 인접하도록 배열될 수 있다. 대안적으로, 두개 이상의 변환된 소스 텍스처(1102)는 중첩되도록 배열될 수 있다. 중첩하는 소스 텍스처들(1102)이 존재할 경우, 변환 절차의 일부로서 중첩 순서가 지정될 수 있다. 중첩 순서는 변환된 소스 텍스처들(1102)이 복소 텍스처(1100)를 형성하기 위해 위치해야할 특정 순서를 제공한다.
복합 텍스처(1100)는 처음에 흑색으로 채워지거나 완전히 투명한 텍스처일 수 있다. 소스 텍스처(1102)는 소정의 논리 방정식에 따라 변환되어 복합 텍스처(1100)내에 위치할 수 있다. 예컨대, 소스 텍스처(1102)의 변환을 위한 논리 방정식은 다음과 같다.
R0 = R0 * (1 - A1) + R1 * A1
G0 = G0 * (1 - A1) + G1 * A1
B0 = B0 * (1 - A1) + B1 * A1
A0 = A0 * (1 - A1) + A1 * A1
여기서 R0, G0, B0, A0는 복합 텍스처(1100)의 컬러(R=적색, G=녹색, B=청색) 및 투명도(A)이고, R1, G1, B1, A1은 소스 텍스처(1102)의 컬러 및 투명도이다. 이 예에서, 소스 텍스처(1102)의 컬러 및 투명도는 약 0.0-1.0의 범위내에 있다.
도 10에서, 텍스처 디렉토리(1012)는 텍스처라이징 모듈(634)에 대한 트리 구조를 제공할 수 있다. 텍스처 디렉토리(1012)의 트리 구조는 식별자의 목록을 제공한다. 텍스처라이징 모듈(634)내의 디렉토리들에는 텍스처 디렉토리(1012)내의 고유 디렉토리 식별자가 지정될 수 있다. 고유 디렉토리 식별자는 특정 디렉토리에 고유한 정수 및/또는 문자의 임의의 조합이 될 수 있다. 또한, 각 디렉토리내에서, 적어도 하나의 소스 텍스처 및/또는 적어도 하나의 복합 텍스처에 대해 고유 텍스처 식별자가 지정될 수 있다. 고유 텍스처 식별자는 마찬가지로 텍스처들을 고유하게 식별하는 정수 및/또는 문자의 임의의 조합이 될 수 있다. 고유 디렉토리 및 텍스처 식별자는 디렉토리가 생성되거나, 소스 텍스처가 저장되거나 복합 텍스처가 변환 절차에 의해 형성될 때 할당될 수 있다.
도 12는 예시적 텍스처 디렉토리(1012)이다. 도시된 텍스처 디렉토리(1012)는 적어도 하나의 고유 디렉토리(1202) 및 적어도 하나의 고유 텍스처(1204)를 포함한다. 디렉토리(1202)는 속성들을 식별자 필드(1206), 명칭 필드(1208), 생성자 필드(1210), 날짜/시간 필드(1212) 및 서술 필드(1214)의 형태로 포함한다. 다른 예에서는 텍스처 디렉토리(1012)의 서술 및 관리가 가능하도록 더 많거나 더 적은 수의 임의 유형의 필드가 디렉토리(1202)에 포함될 수 있다.
식별자 필드(1206)는 고유 설정에 의한 숫자 및/또는 문자 형태의 고유 디렉토리 식별자를 포함할 수 있다. 고유 디렉토리 식별자는 디렉토리가 생성될 때 발생될 수 있다. 디렉토리 식별자는 고유하게 디렉토리(1202)를 식별하고 변경되지 않는다. 명칭 필드(1208)는 "지붕 정상(roof tops)"과 같은 디렉토리(1202)를 설명하는 용어가 될 수 있다. 생성자 필드(1210)는 디렉토리를 생성한 사용자의 성명을 포함한다. 날짜/시간 필드(1212)는 디렉토리(1202)가 생성된 날짜 및 시간을 포함한다. 서술 필드(1214)는 디렉토리(1202)의 내용을 간략히 서술할 수 있다.
텍스처(1204)는 또한 텍스처들의 식별 및 관리를 허용하기 위한 속성들을 포함한다. 도시된 예에서, 텍스처(1204)는 디렉토리(1202)와 유사한 식별자 필드(1206), 명칭 필드(1208), 생성자(creator) 필드(1210), 날짜/시간 필드(1212) 및 서술 필드(1214)를 포함하지만, 디렉토리가 아닌 텍스처에 관련된다. 텍스처(1204)는 또한 이미지 필드(1216) 및 텍스처 필드(1218)를 포함할 수 있다. 다른 예에서는 더 적거나 더 많은 개수 및 유형의 필드가 포함될 수 있다.
이미지 필드(1216)내에서는 비트맵 파일(*.bmp)과 같은 이미지 파일의 명칭이 식별될 수 있다. 식별된 이미지 파일은 물체에 대한 소스 텍스처가 될 수 있다. 이미지 파일은 식별자 필드(1206)에서 고유 텍스처 식별자와 연관된 고유 텍스처(1204)가 될 수 있다. 대안적으로, 이미지 필드(1216)는 공백이 될 수 있고, 텍스처 필드(1218)는 하나 이상의 복합 텍스처를 형성하도록 하나 이상의 소스 텍스처의 변환을 유발하는 복합 텍스처 카테고리에 변환 절차의 고유 식별자를 포함할 수 있다.
예시적 텍스처 디렉토리(1012; 도 10)는 고유 디렉토리 식별자 00000000(부호없이 긴 제로)을 갖는 라이브러리 콤포넌트(1004)의 루트 디렉토리를 포함할 수 있다. 작은 라이브러리의 예는 표 1에 도시된다.
도 10에서, 그래픽 사용자 인터페이스(GUI) 콤포넌트(1006)는 텍스처 선택 콤포넌트(1014), 소스 텍스처 동작 콤포넌트(1016) 및 복합 텍스처 합성 콤포넌트(1018)를 포함할 수 있다. GUI 콤포넌트(1006)는 WindowsR API, MicrosoftR Foundation Classes, 리눅스(Linux)의 KDE, WindRiverR의 ZincTM 또는 임의의 다른 GUI 관련 소프트웨어와 같은 소프트웨어를 사용하여 구현될 수 있다. 다른 예에서는 GUI 콤포넌트(1006)의 기능을 설명하기 위해 추가적 또는 더 적은 콤포넌트가 포함될 수 있다.
텍스처 선택 콤포넌트(1014)는 텍스처를 선택하는 명령을 포함할 수 있다. 예컨대, 선택은 라이브러리 콤포넌트(1004)로부터 텍스처를 추출하는 것 또는 라이브러리 콤포넌트(1004)에 텍스처를 삽입하는 것을 수반할 수 있다. 텍스처의 선택은 선택 스크린에 의해 수행될 수 있다. 선택 스크린은 텍스처 디렉토리(1012)의 트리 구조로부터의 선택에 기초하여 텍스처들을 선택하는 능력을 제공할 수 있다. 또한 선택 스크린은 전술된 텍스처 속성들 중 하나 이상의 불 검색(Boolean search)과 같은 검색에 기초하여 텍스처들을 선택하는 능력을 제공할 수 있다. 텍스처 속성 검색 엔진은 텍스처 선택 콤포넌트(1014)의 일부가 될 수 있다.
도 13은 선택 디스플레이(1300)의 예를 도시한다. 선택 디스플레이(1300)는 검색 모드(1302)인 제1 모드 및 라이브러리(library) 모드(1304)인 제2 모드를 포함한다. 검색 모드(1302)가 선택될 때, 사용자는 검색 항목 엔트리(1306)에 하나 이상의 검색 항목을 입력하고 검색 필드 선택기(1308)인 풀다운 메뉴로부터 하나 이상의 검색 필드를 선택할 수 있다. 검색 결과는 결과창(1310)에 표시될 수 있다. 도시된 예에서, "검은 교회(Black Church)"란 검색 용어를 갖는 "텍스트" 유형 검색은 검색중에 식별된 연관된 텍스트와 함께 결과창(1310)에 두개의 텍스처, 즉 "창 1(Window 1)" 및 "지붕 2(Roof 2)"를 제공했다. 결과창(1310)으로부터 텍스트 중 하나를 선택할 경우, 텍스처의 소규모 이미지가 섬 뷰(thumb view)(1312)에 표시될 수 있다. 섬 뷰(1312)로부터, 선택된 텍스처는 예컨대 드래그되고 드롭되거나 더블클릭되어 복합 텍스처에 추가될 수 있다.
라이브러리 선택(1304)이 선택될 경우, 텍스처 디렉토리(1012; 도 10)내의 텍스처의 트리 구조가 트리 구조창(1314)에 표시될 수 있다. 사용자는 트리 구조창(1314)내의 트리 구조의 부분들을 열고 닫을 수 있을 뿐 아니라 스크롤할 수 있다. 트리 구조창(1314)으로부터 텍스처들 중 하나를 선택함으로써, 텍스처의 소규모 이미지는 섬 뷰(1312)에 표시될 수 있다.
또한 도 10에서, 소스 텍스처 동작 콤포넌트(1016)는 복합 텍스처들을 형성하기 위해 소스 텍스처의 변환의 표시 및 구성을 허용하는 명령을 제공할 수 있다. 보다 구체적으로, 소스 텍스처 동작 콤포넌트(1016)는 소스 텍스처의 클리핑, 컬러링, 회전 및 미러링을 수행할 수 있다. 변환 절차 중 이 부분의 준비는 소스 텍스처 조작 디스플레이를 사용하여 생성될 수 있다.
도 14는 예시적 소스 텍스처 조작 디스플레이(1400)이다. 소스 텍스처 조작 디스플레이(1400)는 작업 공간(1402) 및 소스 텍스처 선택 공간(1404)을 포함한다. 작업 공간(1402)은 소스 텍스처 선택 공간(1404)으로부터 선택된 소스 텍스처를 표시할 수 있다. 소스 텍스처 선택 공간(1404)은 다른 소스 텍스처의 하나 이상의 이미지를 각각 섬 뷰(1406)에 표시할 수 있다. 소스 텍스처 선택 공간(1404)에 표시된 소스 텍스처들은 텍스처 선택 콤포넌트(1014; 도 10)에 의해 선택된 소스 텍스처들이 될 수 있다.
작업 공간(1402)에 도시된 현재 선택된 소스 텍스처는 소스 텍스처의 변환을 수행하기 위해 조작될 수 있다. 조작은 선택된 소스 텍스처에 대해 클리핑 직사각형(1408)을 설정하는 것을 포함할 수 있다. 전체 소스 텍스처 또는 소스 텍스처 중 선택된 부분은 사용자가 클리핑 직사각형(1408)을 정확히 설정할 수 있도록 작업 공간(1402)내에서 확대(예컨대, 줌)되고 스크롤될 수 있다. 클리핑 직사각형(1408)은 작업 공간(1402) 내에서 소스 텍스처의 클리핑, 회전 및 미러링 동작을 수행하는데에 사용될 수 있다. 소스 텍스처 선택 공간(1404)의 섬 뷰((1406)에 표시된 텍스처들은 상대적 또는 절대적 포인팅 장치를 사용한 드래그 및 드롭 동작 또는 더블클릭 선택에 의해 작업 공간(1402)으로 이동될 수 있다.
작업 공간(1402)은 또한 툴 바(1410)를 포함할 수 있다. 툴 바(1410)는 소스 텍스처의 변환을 수행하기 위한 선택기 버튼(OP1 내지 OPn으로 식별됨)을 포함할 수 있다. 선택기 버튼들에는 소스 텍스처의 변환중에 수행될 수 있는 다양한 조작 동작들이 지정될 수 있다. 예컨대, 선택기 버튼들은 소스 텍스처의 클리핑, 컬러링, 회전 및 미러링의 동작을 지원하도록 지정될 수 있다. 다른 예에서는, 특정한 키보드 입력 또는 음성 명령과 같이 작업 공간(1402)내에서의 다양한 조작 기능을 유발하는 다른 형태의 간단한 액세스 명령이 채택될 수 있다.
소스 텍스처에 대해서 수행된 각각의 변환 동작은 소스 텍스처 동작 콤포넌트(1016)에 의해 소스 변환 절차의 일부로서 캡처링되어 저장될 수 있다. 각각의 소스 텍스처에 대한 소스 변환 절차는 변환된 소스 텍스처와 연관될 수 있다. 따라서, 변환된 소스 텍스처가 복합 텍스처의 형성에 사용될 때, 연관된 소스 변환 절차는 복합 텍스처의 형성에 사용된 변환 절차의 일부가 될 수 있다.
소스 변환 절차는 한 세트의 실행가능한 명령이 될 수 있다. 소스 텍스처의 고유 ID는 소스 변환 절차에 포함될 수 있다. 따라서, 소스 변환 절차 및 변환되지 않은 이미지가 저장되고 액세스되어 변환된 이미지를 발생시킬 수 있다. 처리기(626)는 소스 변환 절차의 명령들을 실행함으로써 이미지를 재생성한다.
또한 도 10에서, 복합 텍스처 합성 콤포넌트(1018)는 사용자로 하여금 하나 이상의 소스 텍스처로부터 하나의 복합 텍스처를 형성할 수 있도록 하는 명령을 제공할 수 있다. 복합 텍스처는 하나 이상의 소스 텍스처들을 변환함으로써 형성될 수 있다. 복합 텍스처의 형성은 복합 텍스처 형성 디스플레이에 의해 달성될 수 있다.
도 15는 복합 텍스처 형성 디스플레이(1500)의 예이다. 예시적 복합 텍스처 형성 디스플레이(1500)에는 복합 텍스처가 도시된다. 복합 텍스처 합성 콤포넌트(1018; 도 10)에 의해 전체 복합 텍스처 또는 선택된 부분이 줌되고 스크롤될 수 있다. 또한, 복합 텍스처 합성 콤포넌트(1018)는 복합 텍스처를 형성하기 위해 하나 이상의 소스 텍스처를 선택하고 배열함으로써 초기화될 수 있다. 소스 텍스처의 선택 및 배열은 소스 텍스처들의 변환을 수반할 수 있다. 또한 변환된 소스 텍스처들은 복합 텍스처 형성 디스플레이(1500)에서 실행된 명령에 의해 로킹/언로킹될 수 있다. 원하는 상태로 변환된 소스 텍스처들은 우발적인 변경을 피하기 위해 로킹될 수 있다.
복합 텍스처 합성 콤포넌트(1018; 도 10)내의 명령들은 소스 텍스처들의 반복, 스케일링, 위치결정 및 순서화 변환을 지원할 수 있다. 복합 텍스처 합성 콤포넌트(1018)는 또한 변환 동작 각각을 복합 변환 절차의 일부로서 캡처링하고 저장할 수 있다. 복합 변환 절차는 마찬가지로 소스 텍스처들의 고유 텍스처 식별자들 및 소스 텍스처의 변환을 수행하는 명령을 포함할 수 있다. 대안적으로, 복합 변환 절차는 소스 텍스처들과 연관된 소스 변환 절차(그런 과정이 있다면)를 부가함으로써 복합 텍스처와 연관될 수 있다. 역시 대안적으로, 부가적인 변환 절차로서 복합 변환 절차는 복합 텍스처와 연관될 수 있다.
복합 텍스처 변환 콤포넌트(1018; 도 10)에 의해 변환을 수행하는 것은, 클리핑 직사각형(11408; 도 14) 및/또는 소스 텍스처 경계 직사각형(1502)을 사용하여 복합 텍스처를 편집하는 것을 포함할 수 있다. 소스 텍스처 경계 직사각형(1502)은, 대응하는 복합 변환 절차를 생성할 뿐 아니라 스케일링 및 위치결정 변환을 수행하는데에 사용될 수 있다. 도시된 예시적 소스 텍스처 경계 직사각형(1502)에는 코너 점들(1504) 및 중앙 점들(1506)이 포함된다. 코너 점들(1504)과 중앙 점들(1506) 사이에서 수평 및 수직 라인이 그어져 소스 경계 직사각형(1502)의 크기를 규정한다. 코너 점들(1504) 및 중앙 점들(1506)은 코너 점들(1504) 또는 중앙 점들(1506)을 클릭 및 드래그함으로써 소스 경계 직사각형(1502)의 크기를 조절하는데에 사용될 수 있다. 소스 경계 직사각형(1502)은 또한 인접하게 위치한 텍스처들이 서로 접촉되도록 조작하는 처리를 자동화할 수 있다.
반복 및 순서화의 변환 절차는 또한 복합 텍스처 합성 콤포넌트(1018; 도 10)에 의해 수행될 수 있다. 반복 변환 절차는 툴 바의 선택기 버튼 또는 복합 텍스처 형성 디스플레이(1500)와 연관된 어떤 다른 기능에 의해 제어될 수 있다. 반복된 소스 텍스처들 사이의 공백 크기는 역시 복합 텍스처 합성 콤포넌트(1018)에 의해 변경될 수 있다. 또한, 어떤 소스 텍스처가 처음 인출되는지를 나타내는 순서화 변환 절차는 또한 복합 텍스처 합성 콤포넌트(1018)에 의해 설정/변경될 수 있다.
또한, 복합 텍스처는 디지털 카메라 또는 다른 이미지 촬영 장치로 촬영된 사진과 같은 배경 이미지를 언더레이시키는 것에 의해 지원될 수 있다. 배경 이미지는 복합 텍스처와 섞이지 않고 배경으로 보여질 수 있다. 예컨대, 인접하게 위치한 빌딩의 정면의 이미지가 스캔될 빌딩을 나타내는 복합 텍스처의 배경에 부가될 수 있다. 배경 이미지는 마찬가지로 스케일링되어 복합 텍스처에 관하여 위치결정될 수 있다. 또한, 배경 이미지를 위한 복합 변환 절차가 생성될 수 있다.
복합 텍스처의 완성시에, 소스 변환 절차 및 복합 변환 절차가 결합되어 하나의 변환 절차를 형성할 수 있다. 그 변환 절차는 복소 텍스처를 형성하기 위해 사용된 모든 소스 텍스처들에 대한 고유 텍스처 식별자들을 포함한다. 또한, 변환 절차는 복합 텍스처를 형성하도록 소스 텍스처들을 선택적으로 조작하는 논리 명령들을 포함할 수 있다. 따라서, 실제 복합 텍스처를 이미지 파일로서 저장하는 대신에, 대응하는 변환 절차에 고유 텍스처 식별자가 할당되어 텍스처 디렉토리(1012; 도 10)에 카테고리화된다.
도 16은 선택 디스플레이(1300), 소스 텍스처 조작 디스플레이(1400) 및 복합 텍스처 형성 디스플레이(1500)를 포함하는 예시적 텍스처 메이커 디스플레이(1600)이다. 따라서, 하나의 디스플레이를 사용하여 소스 텍스처들이 식별되고, 변환되어 조작될 수 있다. 다른 예에서, 텍스처 메이커 디스플레이(1600)는 다르게 배열되거나 전술된 디스플레이들의 어떤 다른 결합을 가질 수 있다.
전술된 텍스처 관련 동작에 부가하여, 텍스처라이징 모듈(634; 도 6)의 명령으로부터 부가적 기능이 이용될 수도 있다. 부가적 기능은 디스플레이 메뉴 또는 다른 사용자 인터페이스들로부터 이용될 수 있다. 새로운 복합 텍스처의 생성은, 크기, 변환 절차들 및 다른 텍스처 관련 정보와 같은 텍스처에 대한 특성을 선택하는 것을 포함할 수 있다. 또한, 새로운 소스 텍스처는 기존의 복합 텍스처의 연관된 특성 중 몇 개 또는 전부를 사용하여 기존의 복합 텍스처의 복제로부터 생성될 수 있다. 이미지의 형태로 복합 텍스처를 생성하는 변환 절차들의 실행 후에, 이미지는 소스 텍스처로서 저장될 수 있다.
텍스처라이징 모듈(634)내의 기능은 크기, 변환 절차들 및/또는 텍스처와 연관된 임의의 다른 정보를 편집하는 능력을 포함할 수도 있다. 다른 정보에는 예컨대 삼차원 전자 모델의 전술된 레이어들의 정보가 포함될 수 있다. 텍스처 크기 및 다른 특성들은 언제든지 편집될 수 있다. 부가적 기능은 저장/적재 동작을 수행하는 능력, 선호(preference) 선택 능력, 툴 팁(tool tips) 및 도움 메뉴를 포함할 수 있다.
텍스처라이징 모듈(634)은 또한 텍스처들과 클라이언트 서버 아키텍처내의 라이브러리 구조의 동기화를 지원하는 명령을 포함할 수 있다. 텍스처라이징 모듈(634)은 서버 컴퓨터 및 임의 개수의 클라이언트 컴퓨터에서도 동작할 수 있다. 서버에는 클라이언트 컴퓨터들 중 하나를 통해 사용자가 액세스할 수 있다.
텍스처 및 라이브러리 구조는 텍스처 또는 라이브러리 구조의 다수의 버전의 생성을 피하기 위한 임의의 기술을 사용하여 라이브러리 콤포넌트(1004)의 명령에 의해 유지될 수 있다. 다수의 버전은 텍스처 또는 라이브러리 구조가 두 명의 사용자에 의해 동시에 변경될 때 생성될 수 있다. 다수의 버전을 피하는 예시적 기술은 단일 사용자 처리를 수반한다. 단일 사용자 처리에 있어서, 하나 이상의 텍스처 및/또는 라이브러리 구조의 일부가 한 사용자에 의해 변경될 때, 라이브러리 콤포넌트(1004)의 명령은 그 사용자가 변경을 마칠 때까지 그 하나 이상의 텍스처 및/또는 라이브러리의 일부에 대한 다른 사용자의 액세스를 금지할 수 있다.
대안적으로, 동기화 처리가 구현될 수 있다. 텍스처라이징 모듈(634)내의 다양한 사용자의 작업의 동기화는 라이브러리 콤포넌트(1004)의 명령에 의해 조절될 수 있다. 다수의 사용자가 텍스처를 생성하여 사용할 때, 사용자들은 서버를 통해 서로에 대해 동기화될 수 있다.
사용자의 작업은 라이브러리 모듈(1004; 도 10)의 명령을 사용하여 사용자의 클라이언트 컴퓨터상의 로컬 텍스처 라이브러리에 국소적으로 저장될 수 있다. 서버는 또한, 마스터 텍스처 라이브러리에 모든 사용자의 작업을 저장하는 능력을 갖는 라이브러리 모듈(1004)을 포함할 수 있다. 사용자/클라이언트는 클라이언트 컴퓨터를 사용하여 서버에 접속할 수 있고 양 라이브러리(마스터 및 로컬)는 동기화될 수 있다. 이 때 사용자는 서버로부터 절단될 수 있다. 따라서, 항시(steady) 접속은 존재하지 않는다. 본원에서 사용될 때, "접속"이란 용어는, 로그인 과정(사용자 암호 체계와 같은)을 갖는 인터넷 및/또는 LAN과 같은 공중 액세스 가능 네트워크를 통한 TCP/IP 프로토콜을 사용하는, 네트워크와 같은 매체를 통한 서버와의 클라이언트 개설 통신을 의미한다. 접속을 형성하는 파라미터들은 선호 메뉴를 구성할 수 있다.
동기화 처리중에, 각 디렉토리 및 텍스처에 연관된 고유 식별자 및 날짜/시간이 사용될 수 있다. 고유 식별자는 텍스처 디렉토리의 어떤 부분이 로컬 라이브러리 및 마스터 라이브러리에서 동일한지를 검출하는데에 사용될 수 있다. 또한, 날짜/시간은 어떤 텍스처 및/또는 디렉토리가 더 새로운 것인지를 결정하는데에 사용될 수 있다.
예컨대, 마스터 및 로컬 라이브러리는 모두 표 2에 제공된 정보를 포함할 수 있다.
다음에 제1 사용자는 로컬 라이브러리에 대한 수정을 수행한다. 그 수정에는 표 3에 도시된 것처럼, 고유 식별자 "8E1BC531"를 갖는 새로운 텍스처를 생성하는 것과, "1238426D"로 고유하게 식별된 기존의 텍스처의 디렉토리 위치를 변경하는 것과, "9B476CE8"로 고유하게 식별된 다른 기존의 텍스처의 서술을 변경하는 것이 포함된다.
한편, 마스터 라이브러리는 제2 사용자에 의해 갱신되었다. 제2 사용자는 표 4에 도시된 것처럼, "175FC4EA"로 고유하게 식별된 새로운 텍스처를 갖도록 텍스처 디렉토리를 갱신했으며, 또한 "9B476CE8"로 식별된 텍스처를 수정했다. "9B476CEB"로 식별된 텍스처에 대한 수정은 서술의 변경은 포함하지 않고 오히려 디렉토리 위치 및 텍스처의 합성에 대한 변경을 포함한다.
제1 사용자가 서버와의 접속을 형성하고 제1 사용자의 로컬 라이브러리를 마스터 라이브러리와 동기화시킬 때, 마스터 라이브러리의 결과적인 변화가 표 5에 도시된다. 구체적으로, "8E1BC531"로 식별된 새로 생성된 텍스처가 지정된 디렉토리 위치에 추가된다. 또한 "1238426D"로 식별된 텍스처는 지정된 디렉토리 위치로 이동된다. 또한 "9B476CE8"로 식별된 텍스처(제1 및 제2 사용자 모두에 의해 변경된 텍스처)는 제2 사용자에 의해 지정된 디렉토리 위치에 위치한다. 텍스처 "9B476CE8"는 제1 사용자에 의해 형성된 텍스처의 합성의 변경 및 제2 사용자에 의해 변경된 새로운 서술을 포함한다. "9B476CE8"로 식별된 텍스처는 두 갱신의 혼합물이다.
"9B476CE8"로 식별된 텍스처에 대한 여러 사용자에 의한 갱신은 텍스처라이징 모듈(634)에 의해 자동적으로 수행될 수 있다. 대안적으로, 동기화 처리가 발생할 때, 텍스처라이징 모듈(634)은 제1 사용자에 의해 변경된 버전이 더 최근의 것인지를 판단할 수 있다. 또한, 텍스처라이징 모듈(634)은 제1 사용자에 의해 수정된 버전의 텍스처의 디렉토리 위치 및 합성이 다른지를 판단할 수 있다. 또한 텍스처라이징 모듈(634)은 제1 사용자가 제1 사용자에 의해 수정된 버전의 디렉토리 위치 및 합성을 변경하지 않았는지를 판단할 수 있다. 판단된 상태에 기초하여, 텍스처라이징 모듈(634)은 "9B476CE8"로 식별된 텍스처와 연관된 불일치 속성들(텍스처, 명칭 및 디렉토리 위치) 각각에 대해 불일치 플래그를 설정할 수 있다. 또한, 텍스처라이징 모듈(634)은 제1 사용자로부터의 지시를 요청하는 대화 상자를 발생시킬 수 있다.
대화 상자는 불일치 속성들을 보여주고 제1 사용자에게 어떤 속성이 "9B476CEB"로 식별된 텍스처와 계속 연관되어야 할지를 결정하도록 요청한다. 그러면 제1 사용자는 정확한 속성을 선택할 수 있다. 대안적으로, 제1 사용자는 동기화 처리를 중단하고, "9B476CE8"로 식별된 텍스처를 복제하여 또 다른 고유 텍스처 식별자를 제공하는 것과 같은 어떤 다른 태도를 취할 수 있다. 마찬가지의 동작이 디렉토리에 관해 수행될 수 있다. 그러나, 불일치 디렉토리들의 경우, 텍스처 명칭, 서술 및 디렉토리 위치만이 불일치의 근거가 될 수 있다.
각 텍스처에 대한 식별자의 고유성을 보장하기 위해, 서버는 동기화 처리중에 각 사용자에게 미사용 식별자의 그룹을 할당할 수 있다. 그 그룹은 소정 개수의 미사용 식별자를 포함할 수 있다. 예컨대, 미사용 식별자의 소정 개수는 데이터를 저장하도록 할당된 메모리에 의존할 수 있다. 예컨대 식별자의 주소 공간이 32 비트이면, 그룹의 크기는 1024 비트 이상이 될 수 있다.
서버에서 동작하는 텍스처라이징 모듈(634)내의 명령들은 네트워크 통신 능력 및 서버 관리 기능을 포함할 수 있다. 예컨대, 통신 능력은 사용자가 클라이언트 컴퓨터를 네트워크를 통해 접속되도록 동작시키는 것을 기다리는 특정 TCP/IP 포트상의 서버 "리스닝(listening)"을 수반할 수 있다. 서버는 그런 배경에서 작동할 수 있고 시스템 트레이의 아이콘을 가질 수 있다. 아이콘을 더블클릭하는 것과 같이 명령을 입력함으로써, 서버의 관리자는, 구성 대화 상자에 새로운 라이브러리를 생성하는 능력을 부여하고, 적재/저장/백업을 수행하고, 텍스처를 가져오기 및/또는 내보내기를 행하고, 네트워트 통신에 관련된 파라미터들을 선택하고, 사용자 이름 및 암호를 관리할 수 있다. 또한 서버는 식별자 그룹 파일에 고유 식별자의 그룹을 내보내기할 수 있다. 식별자 그룹 파일은 네트워크 액세스를 갖지 않는 클라이언트 컴퓨터를 사용하는 사용자에 의해 가져오기가 행하여져 클라이언트 컴퓨터의 로컬 라이브러리내에서 사용자에 의해 생성된 텍스처들에 대해 고유 식별자들을 제공할 수 있다.
도 17은 도 1 및 도 6에 도시된 이미지 발생 시스템(100)에 의해 삼차원 전자 모델을 형성하는 삼차원 전자 이미지의 처리를 도시하는 부분 흐름도이다. 동작은 물체의 스캐닝이 완료되고 스캔 정보(삼차원 전자 이미지, 연관된 위치 정보 등)가 사이트 컴퓨팅 시스템(106)의 메모리 모듈(604)에 저장되었을 때 블록 1702에서 시작한다. 블록 1704에서는 사이트 컴퓨팅 시스템(106)이 임시 등록 모듈(610)을 포함하는지가 판단된다. 사이트가 임시 등록 모듈을 가지면, 사용자는 블록 1706에서 스캔들을 결합하도록 수동 또는 자동 조작을 선택할 수 있다. 수동 조작이 선택되면, 사용자는 블록 1708에서 물체를 보면서 삼차원 전자 이미지들을 개별적으로 이동시키고 회전시킬 수 있다. 블록 1710에서, 사용자는 보이는 물체에 걸맞는 삼차원 전자 이미지로부터 임시 삼차원 전자 모델을 수동으로 형성할 수 있다. 조작이 완료될 때, 임시 삼차원 전자 모델은 블록 1712에서 랩 컴퓨팅 시스템(108)에 저장될 수 있다.
블록 1706에서 자동 조작이 선택되면, 블록 1716에서 위치 정보를 사용하여 삼차원 전자 이미지들을 결합시켜 조작하도록 임시 등록 모듈(610)의 명령이 실행될 수 있다. 블록 1718에서 임시 삼차원 전자 모델이 형성될 수 있다. 블록 1720에서 사용자는 추가 수동 조작이 필요한지를 결정할 수 있다. 수동 조작이 필요하면, 동작은 블록 1708으로 복귀한다. 수동 조작이 필요없으면, 동작은 블록 1712으로 진행하여 랩 컴퓨팅 시스템(108)에 임시 삼차원 전자 모델을 제공한다.
도 18에서는 블록 1726에서, 임시 삼차원 전자 모델을 형성하는 삼차원 전자 이미지들이 수동 및/또는 자동으로 한번 더(정밀 등록) 조작되어 스캔들 간의 적합도를 개선시킨다. 정밀 등록이 제1 기술을 수반할 때, 블록 1728에서 기하학적 점들을 비교함으로써 모델 점 구름을 형성하도록 삼차원 전자 이미지들의 점구름이 결합된다. 그 모델 점 구름은 삼차원 전자 모델을 나타낸다. 블록 1730에서, 삼차원 전자 모델(모델 점 구름)의 표면이 결정된다. 블록 1732에서 컬러가 조작될 수 있다.
정밀 등록이 제2 기술을 수반할 때, 블록 1734에서 삼차원 전자 이미지들(점 구름들) 각각의 표면들이 결정된다. 블록 1736에서, 삼차원 전자 이미지들의 각각의 표면에 텍스처가 적용된다. 블록 1738에서는 표면들 및/또는 텍스처들에 기초하여 삼차원 전자 이미지들이 결합되어 삼차원 전자 모델을 형성한다. 블록 1732에서 컬러가 조작될 수 있다.
정밀 등록이 제3 기술을 수반할 때, 블록 1740에서 삼차원 전자 이미지들의 각각의 표면들이 결정된다. 블록 1742에서, 각 표면의 윤곽이 결정된다. 블록 1744에서는 윤곽에 기초하여 삼차원 전자 이미지들이 결합되어 삼차원 전자 모델의 골격을 형성한다. 블록 1732에서 컬러가 조작될 수 있다.
블록 1748에서, 스캔된 물체가 경사진 정착 표면상에 있었는지가 판단된다. 정착 표면이 경사져 있으면, 블록 1750에서 고도 보정이 적용된다. 블록 1752에서, 최종 삼차원 전자 모델이 결정된다. 블록 1748에서, 경사 표면이 경사져 있지 않으면, 동작은 블록 1752로 진행하여 최종 삼차원 전자 모델을 결정한다.
다시 도 17의 블록 1704를 참조하면, 임시 등록 모듈(610)이 사용되지 않거나 사용될 수 없을 경우, 블록 1760에서 각 스캔으로부터의 정보가 랩 컴퓨팅 시스템(108)에 개별적으로 제공된다. 블록 1762에서, 점 구름에 의해 표시된 삼차원 전자 이미지 각각은 스캔 결합 모듈(630)에 의해 소이미지로 분할된다. 블록 1764에서는 소이미지를 나타내는 라인이 소이미지 각각에 대해 발현된다. 블록 1766에서, 라인은 윤곽 데이터 파일에 각각 저장된다. 다음에 블록 1768에서 윤곽 데이터 파일은 삼차원 전자 모델을 형성하도록 결합되고 조작된다. 다음에 동작은 도 18의 블록 1730으로 복귀하여 삼차원 전자 모델의 형성을 완료한다.
도 19는 도 6, 도 8, 도 10에 도시된 텍스처라이징 모듈(634)에 의해 삼차원 전자 모델을 텍스처라이징하는 처리를 도시하는 부분 블록도이다. 동작은 삼차원 전자 모델을 생성하기 위해 스캔된 물체상에 존재하는 하나 이상의 텍스처를 나타내는 적어도 하나의 이미지 파일이 캡처링 및/또는 발생되는 블록 1902에서 시작한다. 블록 1904에서, 텍스처 디렉토리(1012)내에서 하나 이상의 디렉토리가 생성되고 고유 식별자로써 식별된다. 블록 1906에서는 디렉토리들에 부가적인 속성이 추가된다. 블록 1908에서, 캡처링/발생된 이미지 파일이 사용되어 소스 텍스처를 형성한다. 블록 1910에서 각 소스 텍스처는 텍스처 카테고리(1008)에서 고유 식별자에 의해 카테고리화된다. 블록 1912에서, 소스 텍스처에 부가적 속성이 추가된다.
블록 1914에서는 제1 모드 또는 제2 모드가 사용되어 소스 텍스처를 식별하고 선택한다. 제1 모드(검색 모드)가 선택된 경우, 블록 1916에서 검색 항목이 입력되고 검색 필드들이 선택된다. 블록 1918에서, 검색 결과가 결과창(1310)에 표시된다. 블록 1920에서는 표시된 소스 텍스처내에서 삼차원 전자 모델상에서 사용될 수 있는 이용가능한 소스 텍스처들이 존재하는지가 판단된다. 소스 텍스처가 이용될 수 없다면, 블록 1922에서 소스 텍스처에 대한 또 다른 검색이 수행되어야 하는지가 판단된다. 추가적 검색이 수행되지 않아야 한다면, 동작은 블록 1902로 복귀하여 추가 이미지 파일을 캡처링 및/또는 발생시킨다.
추가적 검색이 수행되어야 한다면, 동작은 블록 1914로 복귀하여 그 선택 모드를 닫는다. 블록 1920에서 표시된 사용가능한 소스 텍스처가 존재할 경우, 블록 1924에서 섬 뷰(1312)에의 표시를 위해 검색 결과로부터 소스 텍스처가 선택된다. 블록 1914에서 제2 모드(라이브러리 모드)가 선택된 경우, 블록 1926에서 텍스처 디렉토리(1012)내의 트리 구조가 트리 구조창(1314)에 표시된다. 블록 1928에서, 사용자는 트리 구조를 검색할 수 있고, 그 표시로부터 하나 이상의 사용가능한 소스 텍스처를 식별하기 위해 동작은 블록 1920으로 복귀한다.
도 20에서, 블록 1930에서는 소스 텍스처가 변환되어야 하는지가 판단된다. 소스 텍스처가 변환되어야 한다면, 블록 1932에서 소스 텍스처 조작 디스플레이(1400)를 사용하여 소스 텍스처에 대한 변환 동작이 수행된다. 블록 1934에서, 수행된 변환 동작은 캡처링되어 소스 변환 절차의 일부가 된다. 블록 1936에서, 추가적 변환 동작이 소스 텍스처에 대해 수행되어야 하는지가 판단된다. 추가적 변환 동작이 수행되어야 한다면, 동작은 블록 1932로 복귀한다. 소스 텍스처의 추가적 변환이 필요없다면, 블록 1938에서 변환된 소스 텍스처가 복합 텍스처 형성 디스플레이(1500)내에 위치되어 복합 텍스처의 적어도 일부를 형성한다. 블록 1940에서, 소스 변환 절차는 복합 텍스처와 연관될 수 있다. 블록 1942에서는 복합 텍스처 카테고리(1010)에서 복합 텍스처를 카테고리화하기 위해 복합 텍스처에 고유 식별자가 할당될 수 있다. 블록 1944에서는 복합 텍스처에 다른 속성들이 추가될 수 있다.
도 21에서, 블록 1946에서는 변환된 소스 텍스처에 관련된 변환이 복합 텍스처내에서 필요한지가 판단된다. 변환이 필요하다면, 블록 1948에서 변환된 소스 텍스처가 복합 텍스처내에서 한번 더 변환된다. 블록 1950에서, 복합 텍스처에서 수행된 변호나 동작이 캡처링되어 복합 변환 절차의 일부가 된다. 블록 1952에서 복합 변환 절차는 복합 텍스처와 연관된다.
블록 1954에서는 변환된 소스 텍스처에 관련된 추가적 변환 동작이 복합 텍스처내에서 수행되어야 하는지가 판단된다. 추가적 변환이 필요하다면, 동작은 블록 1948로 복귀하여 추가적 변환 동작을 수행하고 캡처링한다. 소스 텍스처의 추가적 변환이 필요없으면, 블록 1956에서 복합 텍스처를 형성하기 위해 추가적 소스 텍스처가 필요한지가 판단된다. 추가적 소스 텍스처가 필요하다면, 동작은 도 19의 블록 1914로 복귀하여 또 다른 소스 텍스처를 식별하고 선택한다. 추가적 소스 텍스처가 필요없다면, 블록 1958에서 그 복합 텍스처는 삼차원 전자 모델의 하나 이상의 표면과 연관될 수 있다.
블록 1960에서, 삼차원 전자 모델의 추가적 표면이 텍스처라이징되어야 하는지가 판단된다. 추가적 표면이 텍스처라이징될 필요가 없으면, 블록 1962에서 그 삼차원 전자 모델 및 연관된 텍스처라이제이션이 저장된다. 블록 1964에서, 삼차원 전자 모델을 나타내는 파일은 내보내기에 이용될 수 있다. 블록 1960에서 텍스처라이징되어야할 추가적 표면이 있으면, 동작은 도 19의 블록 1914로 복귀하여 추가적 소스 텍스처를 선택한다.
블록 1946에서 복합 텍스처의 변환이 필요없으면, 동작은 블록 1956으로 진행하여 추가적 소스 텍스처가 필요한지를 판단한다. 도 20의 블록 1930에서 선택된 소스 텍스처를 변환하는 것이 필요없다면, 블록 1966에서 그 소스 텍스처가 복합 텍스처에 위치되어야하는지가 판단된다. 소스 텍스처가 복합 텍스처에 위치되어야 한다면, 동작은 블록 1938로 진행한다. 소스 텍스처가 복합 텍스처에 위치되어서는 안된다면, 블록 1968에서 소스 텍스처는 삼차원 전자 모델의 하나 이상의 표면과 연관되고 동작은 블록 1960으로 진행하여 추가적 표면이 텍스처라이징되어야 하는지를 판단한다.
전술된 이미지 발생 시스템(100)은 삼차원의 텍스처라이징되고 컬러링된 기하학적 모델의 전자적 표시를 발생시킬 수 있다. 삼차원 전자 모델은 하나 이상의 빌딩과 같은 실제 물체의 거의 전자적 복제물이다. 물체는 삼차원 전자 이미지를 생성하도록 이미지 발생 시스템(100)에 의해 스캔될 수 있다. 물체의 전자 기하학적 표시 및 컬러는 모두 다수의 스캔 각각에서 수집될 수 있다. 각각의 스캔중에 수집된 위치 데이터를 사용하여 스캔들은 결합되어 삼차원 전자 모델을 형성할 수 있다. 삼차원 전자 모델의 기하학적 표면들은 전자 이미지의 표시를 보는 것이 실제 물체를 물리적으로 보는 것과 유사하도록 이미지 발생 시스템(100)에 의해 텍스처라이징될 수 있다.
본 발명의 다양한 실시예들이 설명되었지만, 당업자에게는 본 발명의 범위내에 있는 더 많은 실시예 및 구현이 가능하다는 것이 명백할 것이다. 따라서, 본 발명은 첨부된 청구의 범위 및 그 등가물의 견지에서만 제한될 수 있다.

Claims (59)

  1. 물체의 삼차원 전자 모델을 발현하기 위한 이미지 발생 시스템으로서,
    물체를 스캔하도록 동작할 수 있으며 스캐너 위치 정보 및 상기 물체를 나타내는 이미지 데이터를 제공하는 스캐너와,
    상기 스캐너와 통신하여, 상기 이미지 데이터 및 상기 스캐너 위치 정보에 따라 상기 물체의 삼차원 전자 모델을 발생시키도록 동작할 수 있는 컴퓨팅 시스템을 포함하는 이미지 발생 시스템.
  2. 제1항에 있어서, 상기 스캐너는 상기 스캐너 위치 정보를 제공하도록 동작할 수 있는 위성 위치결정 시스템 및 경사 방위 센서를 포함하는 것인 이미지 발생 시스템.
  3. 제2항에 있어서, 상기 경사 방위 센서는 상기 스캐너의 피치, 롤 및 방위를 제공하도록 동작할 수 있는 것인 이미지 발생 시스템.
  4. 제1항에 있어서, 상기 스캐너는 상기 물체의 기하학적 형상을 나타내는 기하학적 점 데이터를 제공하도록 동작할 수 있는 레이저 스캐너를 포함하는 것인 이미지 발생 시스템.
  5. 제1항에 있어서, 상기 스캐너는 점 스캐너 및 컬러 스캐너를 포함하고, 상기 점 스캐너 및 상기 컬러 스캐너는 상기 물체의 기하학적 형상 및 컬러를 나타내는 이미지 데이터를 동시에 제공하도록 동작할 수 있는 것인 이미지 발생 시스템.
  6. 제1항에 있어서, 상기 스캐너는, 상기 물체의 상기 기하학적 형상을 나타내는 기하학적 점 데이터를 수집하도록 동작할 수 있는 점 스캐너와, 상기 물체의 컬러를 나타내는 컬러 점 데이터를 수집하도록 동작할 수 있는 컬러 스캐너 및, 상기 스캐너 위치 정보를 수집하도록 동작할 수 있는 위치 결정 시스템을 포함하는 것인 이미지 발생 시스템.
  7. 제6항에 있어서, 상기 컴퓨팅 시스템은 상기 컬러 점 데이터, 상기 기하학적 점 데이터 및 상기 스캐너 위치 정보를 연관시켜 상기 물체에 대한 하나의 스캔만을 나타내는 삼차원 전자 이미지를 형성하도록 동작할 수 있는 것인 이미지 발생 시스템.
  8. 제7항에 있어서, 상기 컴퓨팅 시스템은 상기 스캐너 위치 정보에 따라 다수의 삼차원 전자 이미지들을 선택적으로 결합하여 삼차원 전자 모델을 발생시키도록 동작할 수 있는 것인 이미지 발생 시스템.
  9. 물체의 삼차원 전자 모델을 발현하기 위한 이미지 발생 시스템으로서,
    다수의 개별적 지리적 위치들에서 상기 물체에 대해 다수의 개별적 스캔을 함에 따라 상기 물체를 나타내는 다수의 점 구름들을 발생시키도록 동작할 수 있는 점 스캐너와,
    상기 점 스캐너와 동시에 동작하여, 상기 점 구름들 각각에 대해 상기 물체의 컬러를 나타내는 컬러 점 데이터를 발생시키도록 동작할 수 있는 컬러 스캐너와,
    상기 지리학적 위치들 각각에 대해 상기 점 스캐너 및 상기 컬러 스캐너의 위치 정보를 제공하도록 동작할 수 있는 위치 결정 시스템과,
    상기 점 구름들, 상기 컬러 점 데이터 및 상기 위치 결정 정보에 따라 삼차원 전자 모델을 발현하도록 동작할 수 있는 컴퓨팅 시스템을 포함하는 이미지 발생 시스템.
  10. 제9항에 있어서, 상기 컬러 스캐너는 상기 물체의 소정 영역의 컬러의 라인을 측정하도록 동작할 수 있는 라인 센서이고, 동시에 상기 점 스캐너는 동일한 상기 소정 영역내의 다수의 점들로부터의 거리를 측정하도록 동작할 수 있는 것인 이미지 발생 시스템.
  11. 제9항에 있어서, 상기 점 구름들 각각은 상기 점 스캐너에 의해 발생된 기하학적 점 데이터를 포함하고, 상기 컴퓨팅 시스템은 상기 컬러 점 데이터 및 기하학적 점 데이터를 이미지 데이터로서 동시에 캡처링하도록 동작할 수 있는 것인 이미지 발생 시스템.
  12. 제11항에 있어서, 상기 기하학적 점 데이터는 기하학적 점을 포함하고, 상기 컬러 점 데이터는 컬러 점을 포함하며, 상기 컬러 점은 상기 점 구름의 상기 기하학적 점과 연관되는 것인 이미지 발생 시스템.
  13. 제9항에 있어서, 상기 컴퓨팅 시스템은 사이트 컴퓨팅 시스템 및 랩 컴퓨팅 시스템을 포함하고, 상기 사이트 컴퓨팅 시스템은 임시 등록을 수행하여 임시 삼차원 전자 모델을 형성하도록 동작할 수 있으며, 상기 랩 컴퓨팅 시스템은 상기 임시 삼차원 전자 모델의 정밀 등록을 수행하여 최종 삼차원 전자 모델을 형성하도록 동작할 수 있는 것인 이미지 발생 시스템.
  14. 제9항에 있어서, 상기 컴퓨팅 시스템은 스캔 결합 모듈 및 기하학적 모델링 모듈을 포함하고, 상기 스캔 결합 모듈은 상기 점 구름들 각각을 상기 기하학적 모델링 모듈로 내보내기가능한 다수의 라인들로 변환하도록 동작할 수 있으며, 상기 기하학적 모델링 모듈은 상기 라인들로부터 상기 삼차원 전자 모델을 형성하도록 동작할 수 있는 것인 이미지 발생 시스템.
  15. 제9항에 있어서, 상기 컴퓨팅 시스템은 다수의 삼차원 전자 이미지들을 발현하도록 동작할 수 있으며, 상기 삼차원 전자 이미지들 각각은 상기 스캔들 중 하나에 따라 발현되며, 상기 삼차원 전자 이미지들은 선택적으로 결합되어 상기 삼차원 전자 모델을 형성하는 것인 이미지 발생 시스템.
  16. 제15항에 있어서, 상기 컴퓨팅 시스템은 상기 삼차원 전자 이미지들의 각각의 표면의 컬러의 공백을, 상기 표면의 삼각형으로의 분할 및 상기 삼각형 각각내의 컬러 점 데이터간의 컬러 혼합에 의해 메우도록 동작할 수 있는 것인 이미지 발생 시스템.
  17. 제9항에 있어서, 상기 삼차원 전자 모델은 단순 레이어, 입체 레이어, 위치 레이어 및 라이브러리 레이어를 포함하는 것인 이미지 발생 시스템.
  18. 물체의 삼차원 전자 모델을 발현하기 위한 이미지 발생 시스템으로서,
    물체를 스캐닝하는 스캐닝 수단으로서, 이 스캐닝 수단은 스캐닝 수단의 위치 정보 및 상기 물체를 나타내는 이미지 데이터를 판정하도록 동작할 수 있는 것인 스캐닝 수단과,
    상기 스캐닝 수단과 통신하여, 상기 이미지 데이터 및 상기 위치 정보에 따라 상기 물체의 삼차원 전자 모델을 발생하도록 동작할 수 있는 컴퓨팅 시스템을 포함하는 이미지 발생 시스템.
  19. 제18항에 있어서, 상기 스캐닝 수단은 항법 좌표를 판정하는 수단 및 상기 스캐닝 수단의 경사, 방위 및 고도를 판정하는 수단을 포함하는 것인 이미지 발생 시스템.
  20. 제19항에 있어서, 상기 컴퓨팅 시스템은 상기 항법 좌표, 경사, 방위 및 고도에 따라 상기 삼차원 전자 모델을 기하학적으로 조립하는 수단을 포함하는 것인 이미지 발생 시스템.
  21. 제18항에 있어서, 상기 컴퓨팅 시스템은 상기 이미지 데이터에 포함된 다수의 기하학적 점들을 연결시켜 삼차원 전자 이미지들을 형성하는 수단을 포함하는 것인 이미지 발생 시스템.
  22. 제21항에 있어서, 상기 컴퓨팅 시스템은 상기 삼차원 전자 이미지들을 조작하는 수단을 포함하는 것인 이미지 발생 시스템.
  23. 제21항에 있어서, 상기 컴퓨팅 시스템은 상기 삼차원 전자 이미지들을 결합하여 상기 삼차원 전자 모델을 형성하는 수단을 포함하는 것인 이미지 발생 시스템.
  24. 제18항에 있어서, 상기 컴퓨팅 시스템은 상기 삼차원 전자 모델의 표면을 택스처라이징하는 수단을 포함하는 것인 이미지 발생 시스템.
  25. 물체의 삼차원 전자 모델을 발현하기 위한 이미지 발생 시스템으로서,
    컴퓨터 시스템을 포함하고, 상기 컴퓨터 시스템은,
    다수의 점 구름들을 물체를 나타내는 삼차원 전자 모델로 조립하는 수단과,
    상기 삼차원 전자 모델의 다수의 표면들을 발생시키는 수단과,
    상기 표면들을 텍스처라이징하는 수단과,
    텍스처라이징된 표면들에 의해 상기 삼차원 전자 모델을 시각적으로 연출하는 수단을 포함하는 이미지 발생 시스템.
  26. 제25항에 있어서, 상기 컴퓨터 시스템은 물체에 대한 다수의 스캔들을 캡처링하는 수단을 더 포함하고, 상기 스캔들 각각은 상기 점 구름들을 형성하는 다수의 기하학적 점들을 포함하는 것인 이미지 발생 시스템.
  27. 제25항에 있어서, 상기 컴퓨터 시스템은 상기 점 구름들 각각의 다수의 기하학적 점들과 연관시켜 컬러를 적용하는 수단을 더 포함하는 것인 이미지 발생 시스템.
  28. 제25항에 있어서, 상기 물체를 스캐닝하여 상기 물체를 나타내는 상기 점 구름을 발현하는 수단을 더 포함하는 것인 이미지 발생 시스템.
  29. 물체의 삼차원 전자 모델을 발현하기 위한 이미지 발생 시스템으로서,
    메모리 장치와,
    상기 메모리 장치에 저장되어 각각이 물체를 스캔하는 동안에 캡처링된 이미지 데이터 및 위치 정보를 포함하는 다수의 삼차원 전자 이미지들을 저장하게 하는 명령들과,
    상기 메모리 장치에 저장되어 상기 삼차원 전자 이미지들 각각의 이미지 데이터에 포함된 다수의 기하학적 점들을 연결하게 하는 명령들과,
    상기 메모리 장치에 저장되어 상기 위치 정보에 따라 상기 삼차원 전자 이미지들을 결합하여 삼차원 전자 모델을 형성하게 하는 명령들을 포함하는 이미지 발생 시스템.
  30. 제29항에 있어서, 상기 메모리 장치에 저장되어 상기 삼차원 전자 모델을 텍스처라이징하게 하는 명령들을 더 포함하는 것인 이미지 발생 시스템.
  31. 제29항에 있어서, 상기 메모리 장치에 저장되어 기하학적 점들을 연결하게 하는 명령들은 상기 메모리 장치에 저장되어 상기 삼차원 전자 이미지들 각각내의 표면들을 형성하게 하는 명령들을 포함하는 것인 이미지 발생 시스템.
  32. 제29항에 있어서, 상기 메모리 장치에 저장되어 상기 기하학적 점들을 연결하게 하는 명령들은 상기 메모리 장치에 저장되어 상기 삼차원 전자 이미지들 각각을 소(小)이미지들로 분할하게 하는 명령들을 포함하는 것인 이미지 발생 시스템.
  33. 제32항에 있어서, 상기 메모리 장치에 저장되어 상기 기하학적 점들을 연결하게 하는 명령들은 상기 메모리 장치에 저장되어 다수의 라인들을 발현하게 하는 명령들을 포함하고, 상기 라인들 각각은 상기 소이미지들 중 하나를 나타내는 것인 이미지 발생 시스템.
  34. 제33항에 있어서, 상기 메모리 장치에 저장되어 상기 삼차원 전자 이미지들을 결합하게 하는 명령들은 상기 메모리 장치에 저장되어 상기 라인들을 서로에 대해 위치결정하게 하는 명령들을 포함하는 것인 이미지 발생 시스템.
  35. 제29항에 있어서, 상기 메모리 장치에 저장되어 상기 삼차원 전자 이미지들을 결합하게 하는 명령들은 상기 메모리 장치에 저장되어 상기 삼차원 전자 이미지들을 서로에 대해 위치결정하도록 조작하게 하는 명령들을 포함하는 것인 이미지 발생 시스템.
  36. 물체를 나타내는 삼차원 전자 모델을 발현하는 방법으로서,
    다수의 지리적 위치들 각각에서 물체의 스캔을 수행하는 단계와,
    각 스캔 동안에 이미지 데이터 및 위치 정보를 수집하는 단계와,
    상기 스캔 동안에 수집된 상기 이미지 데이터 및 상기 위치 정보로부터 각 스캔을 나타내는 삼차원 전자 이미지를 발현하는 단계와,
    상기 위치 정보에 따라 다수의 삼차원 전자 이미지들을 결합하여 상기 물체를 나타내는 삼차원 전자 모델을 형성하는 단계를 포함하는 삼차원 전자 모델 발현 방법.
  37. 제36항에 있어서, 상기 스캔을 수행하는 단계는 상기 물체의 기하학적 형상을 나타내는 기하학적 점들을 판정하는 단계를 포함하는 것인 삼차원 전자 모델 발현 방법.
  38. 제36항에 있어서, 상기 스캔을 수행하는 단계는 특정 영역내의 기하학적 점 데이터를 판정하는 동안에 상기 특정 영역 내의 컬러의 라인의 컬러 점 데이터를 판정하는 단계를 포함하는 것인 삼차원 전자 모델 발현 방법.
  39. 제36항에 있어서, 상기 이미지 데이터 및 위치 정보를 수집하는 단계는 상기 물체를 나타내는 기하학적 점 데이터와 컬러 점 데이터를 동시에 수집하는 단계를 포함하는 것인 삼차원 전자 모델 발현 방법.
  40. 제36항에 있어서, 상기 이미지 데이터 및 위치 정보를 수집하는 단계는 상기 스캔을 수행하는데 이용되는 스캐너의 항법 좌표, 투사 방향, 피치, 롤 및 고도를 판정하는 단계를 포함하는 것인 삼차원 전자 모델 발현 방법.
  41. 제36항에 있어서, 상기 다수의 삼차원 전자 이미지들을 결합하는 단계는 상기 이미지 데이터와 상기 위치 정보를 연관시키는 단계를 포함하는 것인 삼차원 전자 모델 발현 방법.
  42. 제36항에 있어서, 상기 다수의 삼차원 전자 이미지들을 결합하는 단계는 상기 삼차원 전자 이미지들 중 적어도 일부를 서로에 대해 조작하는 단계를 포함하는 것인 삼차원 전자 모델 발현 방법.
  43. 제36항에 있어서, 상기 물체의 텍스처에 따라 소스 텍스처를 선택하는 단계와, 상기 소스 텍스처로부터 복합 텍스처를 생성하도록 변환 절차를 발현하는 단계와, 상기 변환 절차를 상기 삼차원 전자 모델의 표면과 연관시키는 단계를 더 포함하는 것인 삼차원 전자 모델 발현 방법.
  44. 제36항에 있어서, 상기 물체는 대칭적 부분을 포함하고, 상기 삼차원 전자 이미지를 발현하는 단계는 상기 물체의 스캔된 부분으로부터의 이미지 데이터를 상기 물체의 상기 대칭적 부분에 미러링하는 단계를 포함하는 것인 삼차원 전자 모델 발현 방법.
  45. 물체를 나타내는 삼차원 전자 모델을 발현하는 방법으로서,
    각각이 점 구름의 다수의 기하학적 점들에 의해 표현되는 다수의 삼차원 전자 이미지들을 개별적으로 발현시키도록 다수의 위치들에서 스캐너에 의해 물체를 스캐닝하는 단계와,
    상기 삼차원 전자 이미지들 중 하나를 다수의 소이미지로 분할하는 단계와,
    상기 기하학적 점들을 개별적인 상기 소이미지들을 나타내는 다수의 라인들로 변환하는 단계와,
    상기 라인들을 결합하여 삼차원 전자 모델을 발현하는 단계를 포함하는 삼차원 전자 모델 발현 방법.
  46. 제45항에 있어서, 상기 기하학적 점들을 변환하는 단계는 상기 소이미지들을 나타내는 상기 라인들을 윤곽 데이터 파일로서 저장하는 단계를 포함하는 것인 삼차원 전자 모델 발현 방법.
  47. 제45항에 있어서, 상기 물체를 스캐닝하는 단계는 다수의 개별적인 점 구름들을 발생하도록 다수의 위치들에서 스캐닝하는 단계를 포함하는 것인 삼차원 전자 모델 발현 방법.
  48. 제45항에 있어서, 상기 라인들을 결합하는 단계는 상기 라인들을 서로에 대해 조작하여 일체로 정확히 맞추는 단계를 포함하는 것인 삼차원 전자 모델 발현 방법.
  49. 제45항에 있어서, 상기 라인들을 결합하는 단계는 상기 라인들 중 한 라인과 상기 라인들 중 다른 라인간의 거리 오차를 최소화하는 단계를 포함하는 것인 삼차원 전자 모델 발현 방법.
  50. 제45항에 있어서, 상기 물체가 놓여 있는 정착 표면이 경사져 있는 경우에는 고도를 보상하는 단계를 더 포함하는 것인 삼차원 전자 모델 발현 방법.
  51. 제45항에 있어서, 래스터화에 의해 상기 삼차원 전자 모델의 컬러의 공백을 메우는 단계를 더 포함하는 것인 삼차원 전자 모델 발현 방법.
  52. 제45항에 있어서, 상기 삼차원 전자 이미지들 각각의 표면을 삼각형으로 분할하고 각 삼각형내에서 컬러 혼합하여 컬러의 공백을 메우는 단계를 더 포함하는 것인 삼차원 전자 모델 발현 방법.
  53. 물체를 나타내는 삼차원 전자 모델을 발현하는 방법으로서,
    물체에 대한 다수의 스캔을 캡처링하는 스캔 캡처링 단계로서, 각 스캔은 삼차원 전자 이미지를 나타내는 이미지 데이터와, 각 스캔이 캡처링된 위치를 나타내는 위치 정보를 포함하는 것인 스캔 캡처링 단계와,
    상기 위치 정보에 따라 상기 스캔들을 결합하여 상기 물체의 삼차원 전자 모델을 형성하는 단계와,
    소스 텍스처에 따라 상기 삼차원 전자 모델을 텍스처라이징하는 단계를 포함하는 삼차원 전자 모델 발현 방법.
  54. 제53항에 있어서, 상기 텍스처라이징하는 단계는 텍스처를 상기 삼차원 전자 모델의 표면과 연관시키는 단계를 포함하는 것인 삼차원 전자 모델 발현 방법.
  55. 제53항에 있어서, 상기 텍스처라이징하는 단계는, 소스 텍스처를 선택하는 단계와, 상기 소스 텍스처를 변환하여 복합 텍스처를 형성하는 변환 절차를 생성하는 단계와, 상기 변환 절차를 상기 삼차원 전자 모델의 표면과 연관시키는 단계를 포함하는 것인 삼차원 전자 모델 발현 방법.
  56. 제53항에 있어서, 상기 삼차원 전자 모델을 다수의 레이어를 포함하는 구조로 조성하는 단계를 더 포함하는 삼차원 전자 모델 발현 방법.
  57. 제53항에 있어서, 상기 텍스처라이징하는 단계는, 소스 텍스처들의 라이브러리를 검색하는 단계와, 소스 텍스처를 변환하여 상기 삼차원 전자 모델의 표면에 대한 복합 텍스처를 형성하는 단계와, 상기 복합 텍스처를 형성하는 변환 절차를 상기 라이브러리에 저장하는 단계를 포함하는 것인 삼차원 전자 모델 발현 방법.
  58. 제53항에 있어서, 상기 삼차원 전자 모델을 데이터파일로서 저장하는 단계를 더 포함하는 것인 삼차원 전자 모델 발현 방법.
  59. 제58항에 있어서, 상기 데이터 파일에 액세스하여 상기 삼차원 전자 모델을 전자 맵에 표시하는 단계를 더 포함하는 것인 삼차원 전자 모델 발현 방법.
KR1020057000483A 2002-07-10 2003-06-30 물체의 삼차원 전자 모델 발생 시스템 KR100660351B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US39516502P 2002-07-10 2002-07-10
US60/395,165 2002-07-10
PCT/US2003/020224 WO2004006180A2 (en) 2002-07-10 2003-06-30 System for texturizing electronic representations of objects

Publications (2)

Publication Number Publication Date
KR20050018986A true KR20050018986A (ko) 2005-02-28
KR100660351B1 KR100660351B1 (ko) 2006-12-21

Family

ID=30115826

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020057000483A KR100660351B1 (ko) 2002-07-10 2003-06-30 물체의 삼차원 전자 모델 발생 시스템
KR1020057000485A KR100656238B1 (ko) 2002-07-10 2003-06-30 물체의 전자식 표현의 텍스처라이징용 시스템

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020057000485A KR100656238B1 (ko) 2002-07-10 2003-06-30 물체의 전자식 표현의 텍스처라이징용 시스템

Country Status (8)

Country Link
US (3) US7643669B2 (ko)
EP (2) EP1556823B1 (ko)
JP (4) JP2005537535A (ko)
KR (2) KR100660351B1 (ko)
CN (2) CN1669069B (ko)
AU (2) AU2003245715A1 (ko)
CA (2) CA2489364C (ko)
WO (2) WO2004006180A2 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150102936A (ko) * 2012-09-18 2015-09-09 큐렉소 테크놀로지 코포레이션 정형 외과 응용들에서의 정합을 위한 시스템 및 방법

Families Citing this family (132)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7756721B1 (en) * 1997-03-14 2010-07-13 Best Doctors, Inc. Health care management system
EP1662228A1 (en) 2004-11-19 2006-05-31 Harman Becker Automotive Systems GmbH Scanning of three-dimensional objects
WO2004006180A2 (en) * 2002-07-10 2004-01-15 Harman Becker Automotive Systems Gmbh System for texturizing electronic representations of objects
EP1745432A1 (en) * 2004-04-29 2007-01-24 Koninklijke Philips Electronics N.V. Image processing apparatus and method
KR20070055420A (ko) * 2004-06-08 2007-05-30 쓰리-비 인터내셔날 리미티드 그래픽 텍스쳐들의 디스플레이
DE102004030876A1 (de) * 2004-06-25 2006-02-02 Grüntjens, Norbert Verfahren zum Erzeugen einer realistischen Darstellung
CN1866264A (zh) * 2005-05-21 2006-11-22 华为技术有限公司 一种移动游戏的场景生成方法及系统
US7705863B2 (en) * 2005-11-15 2010-04-27 Honeywell International Inc. Systems and methods for rendering building spaces
US8000926B2 (en) * 2005-11-28 2011-08-16 Orthosensor Method and system for positional measurement using ultrasonic sensing
US8494805B2 (en) 2005-11-28 2013-07-23 Orthosensor Method and system for assessing orthopedic alignment using tracking sensors
US8098544B2 (en) * 2005-11-29 2012-01-17 Orthosensor, Inc. Method and system for enhancing accuracy in ultrasonic alignment
US8864686B2 (en) * 2005-12-01 2014-10-21 Orthosensor Inc. Virtual mapping of an anatomical pivot point and alignment therewith
US8814810B2 (en) * 2005-12-01 2014-08-26 Orthosensor Inc. Orthopedic method and system for mapping an anatomical pivot point
US8421642B1 (en) 2006-08-24 2013-04-16 Navisense System and method for sensorized user interface
US8638296B1 (en) 2006-09-05 2014-01-28 Jason McIntosh Method and machine for navigation system calibration
JP5073256B2 (ja) * 2006-09-22 2012-11-14 株式会社トプコン 位置測定装置及び位置測定方法及び位置測定プログラム
JP5057734B2 (ja) 2006-09-25 2012-10-24 株式会社トプコン 測量方法及び測量システム及び測量データ処理プログラム
EP1912176B1 (en) * 2006-10-09 2009-01-07 Harman Becker Automotive Systems GmbH Realistic height representation of streets in digital maps
WO2008044913A1 (en) * 2006-10-13 2008-04-17 Tele Atlas B.V. System for and method of processing laser scan samples and digital photographic images relating to building façade
EP1939761A1 (de) * 2006-12-19 2008-07-02 Swisscom Mobile AG Verfahren und Vorrichtung für den selektiven Zugriff auf Datenelemente einer Datensammlung
PE20080048A1 (es) * 2006-12-20 2008-02-25 Scanalyse Pty Ltd Sistema para la medicion del desplazamiento de una superficie relativa a una base de referencia
EP2120009B1 (en) 2007-02-16 2016-09-07 Mitsubishi Electric Corporation Measuring device and measuring method
US8190400B1 (en) * 2007-03-16 2012-05-29 The Mathworks, Inc. Thin client graphical presentation and manipulation application
US20080275732A1 (en) * 2007-05-01 2008-11-06 Best Doctors, Inc. Using patterns of medical treatment codes to determine when further medical expertise is called for
US8224098B2 (en) * 2007-06-15 2012-07-17 Microsoft Corporation Façade rendering system
US20090027417A1 (en) * 2007-07-24 2009-01-29 Horsfall Joseph B Method and apparatus for registration and overlay of sensor imagery onto synthetic terrain
CN101387506B (zh) * 2007-09-14 2010-11-10 鸿富锦精密工业(深圳)有限公司 点云最优对齐方法
JP2011505610A (ja) * 2007-11-07 2011-02-24 テレ アトラス ベスローテン フエンノートシャップ 画像センサデータに距離センサデータをマッピングする方法及び装置
US8531472B2 (en) * 2007-12-03 2013-09-10 Pictometry International Corp. Systems and methods for rapid three-dimensional modeling with real façade texture
US9189083B2 (en) 2008-03-18 2015-11-17 Orthosensor Inc. Method and system for media presentation during operative workflow
US9892485B2 (en) * 2008-04-08 2018-02-13 Disney Enterprises, Inc. System and method for mesh distance based geometry deformation
WO2009131361A2 (ko) * 2008-04-22 2009-10-29 팅크웨어(주) 3차원 지도 서비스에서의 지도 데이터 편집 장치 및 방법
WO2009131277A1 (en) * 2008-04-24 2009-10-29 Thinkware Systems Corporation System and method for displaying three-dimensional map using template modeling
US8737721B2 (en) * 2008-05-07 2014-05-27 Microsoft Corporation Procedural authoring
KR100888155B1 (ko) * 2008-05-14 2009-03-10 팅크웨어(주) 텍스처 맵핑을 이용하여 3차원 지도를 표시하는 시스템 및방법
US7778788B2 (en) * 2008-05-29 2010-08-17 United Technologies Corporation Scanner based optical inspection system
US7987262B2 (en) 2008-11-19 2011-07-26 Accenture Global Services Limited Cloud computing assessment tool
CN101750030B (zh) * 2008-12-17 2012-11-21 鸿富锦精密工业(深圳)有限公司 曲面检测系统及方法
JP5688876B2 (ja) 2008-12-25 2015-03-25 株式会社トプコン レーザスキャナ測定システムの較正方法
US20100262508A1 (en) * 2009-04-10 2010-10-14 Will Volnak Method and system for an online library marketplace
CN101871767B (zh) * 2009-04-25 2012-05-30 鸿富锦精密工业(深圳)有限公司 零件形位公差检测系统及方法
KR101396373B1 (ko) * 2009-05-28 2014-05-19 켄트 디스플레이스 인코포레이티드 쓰기용 태블릿 정보 기록 장치
US8355541B2 (en) * 2009-07-14 2013-01-15 Empire Technology Development Llc Texture sensing
US8872823B2 (en) * 2009-10-09 2014-10-28 Microsoft Corporation Automatic real-time shader modification for texture fetch instrumentation
US9582919B2 (en) * 2009-10-09 2017-02-28 Microsoft Technology Licensing, Llc Automatic run-time identification of textures
AU2015275308B2 (en) * 2009-10-26 2018-03-08 Pictometry International Corp. A method for automatic material classification and texture simulation for 3d models
US9330494B2 (en) * 2009-10-26 2016-05-03 Pictometry International Corp. Method for the automatic material classification and texture simulation for 3D models
WO2011079241A1 (en) * 2009-12-23 2011-06-30 Tomtom International Bv Method of generating building facade data for a geospatial database for a mobile device
US9011448B2 (en) * 2009-12-31 2015-04-21 Orthosensor Inc. Orthopedic navigation system with sensorized devices
CN102713980A (zh) * 2010-02-01 2012-10-03 英特尔公司 从地理参考图像提取及映射三维特征
JP5551245B2 (ja) * 2010-03-19 2014-07-16 株式会社日立製作所 ファイル共有システムおよびファイル処理方法、並びにプログラム
AU2011251967B2 (en) * 2010-05-12 2013-07-11 Leica Geosystems Ag Surveying instrument
JP5912234B2 (ja) 2010-07-16 2016-04-27 株式会社トプコン 測定装置
JP5698480B2 (ja) 2010-09-02 2015-04-08 株式会社トプコン 測定方法及び測定装置
JP5653715B2 (ja) 2010-10-27 2015-01-14 株式会社トプコン レーザ測量機
CN103443802B (zh) 2011-01-24 2016-12-14 数据逻辑Adc公司 用于读取光学代码的系统和方法
JP5753409B2 (ja) 2011-03-07 2015-07-22 株式会社トプコン パノラマ画像作成方法及び3次元レーザスキャナ
US9151608B2 (en) * 2011-03-31 2015-10-06 Francis Ruben Malka Apparatus, tool, and method for modifying a portion of a floor plan based on measurements made by one or more sensors
US9361479B2 (en) 2011-04-29 2016-06-07 Stephen Lesavich Method and system for electronic content storage and retrieval using Galois fields and geometric shapes on cloud computing networks
US9569771B2 (en) 2011-04-29 2017-02-14 Stephen Lesavich Method and system for storage and retrieval of blockchain blocks using galois fields
JP5887715B2 (ja) * 2011-05-23 2016-03-16 セイコーエプソン株式会社 画像処理装置および画像処理方法
EP2719160A2 (en) * 2011-06-06 2014-04-16 3Shape A/S Dual-resolution 3d scanner
JP4855547B1 (ja) * 2011-06-30 2012-01-18 日本ジタン株式会社 定形体群の立体配置状況解析方法
US8994726B1 (en) 2011-12-30 2015-03-31 Google Inc. Systems and methods for preparing a model of an environment for display
US8994725B1 (en) * 2011-12-30 2015-03-31 Google Inc. Systems and methods for generating a model of an environment
US9501700B2 (en) 2012-02-15 2016-11-22 Xactware Solutions, Inc. System and method for construction estimation using aerial images
DE102013102286A1 (de) * 2012-07-03 2014-01-09 Zoller & Fröhlich GmbH Verfahren und Vorrichtung zum Auswerten von Laserscans
US10067231B2 (en) 2012-10-05 2018-09-04 Faro Technologies, Inc. Registration calculation of three-dimensional scanner data performed between scans based on measurements by two-dimensional scanner
DE102012109481A1 (de) * 2012-10-05 2014-04-10 Faro Technologies, Inc. Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
US9332243B2 (en) * 2012-10-17 2016-05-03 DotProduct LLC Handheld portable optical scanner and method of using
US10674135B2 (en) 2012-10-17 2020-06-02 DotProduct LLC Handheld portable optical scanner and method of using
EP2787321B1 (de) * 2013-04-05 2015-09-16 Leica Geosystems AG Oberflächenbestimmung für Objekte mittels geodätisch genauem Einzelpunktbestimmen und Scannen
EP2787322B1 (de) * 2013-04-05 2017-10-04 Leica Geosystems AG Geodätisches Referenzieren von Punktwolken
US9651525B2 (en) 2013-06-27 2017-05-16 TecScan Systems Inc. Method and apparatus for scanning an object
AU2014295972B2 (en) 2013-08-02 2018-10-11 Xactware Solutions, Inc. System and method for detecting features in aerial images using disparity mapping and segmentation techniques
DE102013017500B3 (de) * 2013-10-17 2015-04-02 Faro Technologies, Inc. Verfahren und Vorrichtung zum optischen Abtasten und Vermessen einer Szene
US10203399B2 (en) 2013-11-12 2019-02-12 Big Sky Financial Corporation Methods and apparatus for array based LiDAR systems with reduced interference
US9911205B1 (en) * 2014-03-14 2018-03-06 Google Llc Visual continuity for arbitrary length stipple patterns
DE102014104712B4 (de) * 2014-04-02 2020-07-30 Faro Technologies, Inc. Registrierung einer in Cluster zerfallenden Szene mit visualisierten Clustern
DE102014104713A1 (de) 2014-04-02 2015-10-08 Faro Technologies, Inc. Registrierung einer in Cluster zerfallenden Szene mit Paaren von Scans
US9360554B2 (en) 2014-04-11 2016-06-07 Facet Technology Corp. Methods and apparatus for object detection and identification in a multiple detector lidar array
DE102014110992A1 (de) 2014-08-01 2016-02-04 Faro Technologies Inc. Registrierung einer in Cluster zerfallenden Szene mit Standortverfolgung
JP6305912B2 (ja) * 2014-12-17 2018-04-04 株式会社ジオ技術研究所 テクスチャ生成システム
DE202016008719U1 (de) 2015-02-13 2019-03-12 Zoller + Fröhlich GmbH Scananordnung zum Scannen eines Objektes
US9665989B1 (en) * 2015-02-17 2017-05-30 Google Inc. Feature agnostic geometric alignment
US10036801B2 (en) 2015-03-05 2018-07-31 Big Sky Financial Corporation Methods and apparatus for increased precision and improved range in a multiple detector LiDAR array
US10175360B2 (en) 2015-03-31 2019-01-08 Faro Technologies, Inc. Mobile three-dimensional measuring instrument
CN107690303B (zh) * 2015-06-04 2021-11-05 惠普发展公司,有限责任合伙企业 用于生成三维模型的计算设备和方法
WO2016197251A1 (en) 2015-06-11 2016-12-15 Queen's University At Kingston Automated mobile geotechnical mapping
CN107636482B (zh) 2015-07-31 2021-06-29 惠普发展公司,有限责任合伙企业 用于3d扫描的转盘外围设备
JP6574845B2 (ja) * 2015-10-01 2019-09-11 富士フイルム株式会社 図面作成装置及び図面作成方法
US9905040B2 (en) 2016-02-08 2018-02-27 Apple Inc. Texture sampling techniques
US9866816B2 (en) 2016-03-03 2018-01-09 4D Intellectual Properties, Llc Methods and apparatus for an active pulsed 4D camera for image acquisition and analysis
WO2017155970A1 (en) 2016-03-11 2017-09-14 Kaarta, Inc. Laser scanner with real-time, online ego-motion estimation
US11573325B2 (en) * 2016-03-11 2023-02-07 Kaarta, Inc. Systems and methods for improvements in scanning and mapping
CN105957133B (zh) * 2016-05-10 2018-06-05 网易(杭州)网络有限公司 一种加载贴图的方法和装置
WO2017199088A1 (en) * 2016-05-19 2017-11-23 Vermeer International B.V. Bale detection and classification using stereo cameras
CN106056666B (zh) * 2016-05-27 2019-03-29 美屋三六五(天津)科技有限公司 一种三维模型处理方法及系统
CN106067184A (zh) * 2016-05-27 2016-11-02 美屋三六五(天津)科技有限公司 一种三维模型处理方法及装置
CN106067185A (zh) * 2016-05-27 2016-11-02 美屋三六五(天津)科技有限公司 一种三维模型处理方法及装置
CN106023322A (zh) * 2016-05-27 2016-10-12 美屋三六五(天津)科技有限公司 一种三维模型处理方法及装置
GB2555199B (en) 2016-08-19 2022-03-16 Faro Tech Inc Using a two-dimensional scanner to speed registration of three-dimensional scan data
US10380749B2 (en) 2016-09-26 2019-08-13 Faro Technologies, Inc. Device and method for indoor mobile mapping of an environment
US10282854B2 (en) 2016-10-12 2019-05-07 Faro Technologies, Inc. Two-dimensional mapping system and method of operation
WO2018075628A1 (en) * 2016-10-19 2018-04-26 Shapeways, Inc. Systems and methods for identifying three-dimensional printed objects
EP3330924A1 (en) * 2016-12-01 2018-06-06 Thomson Licensing Method for 3d reconstruction of an environment of a mobile device, corresponding computer program product and device
US10824773B2 (en) 2017-03-28 2020-11-03 Faro Technologies, Inc. System and method of scanning an environment and generating two dimensional images of the environment
CN108664177B (zh) * 2017-03-29 2021-11-12 上海耕岩智能科技有限公司 一种基于指纹识别开启应用的方法和装置
CN108664850B (zh) * 2017-03-30 2021-07-13 展讯通信(上海)有限公司 人脸姿态的分类方法及装置
CN107463398B (zh) * 2017-07-21 2018-08-17 腾讯科技(深圳)有限公司 游戏渲染方法、装置、存储设备及终端
WO2019099605A1 (en) 2017-11-17 2019-05-23 Kaarta, Inc. Methods and systems for geo-referencing mapping systems
US10928196B2 (en) 2017-12-28 2021-02-23 Topcon Positioning Systems, Inc. Vision laser receiver
KR102178835B1 (ko) * 2018-03-28 2020-11-13 (주)로딕스 3차원 객체 표면 복원을 위한 데이터 관리 장치 및 그 방법
WO2019195270A1 (en) 2018-04-03 2019-10-10 Kaarta, Inc. Methods and systems for real or near real-time point cloud map data confidence evaluation
US11055532B2 (en) 2018-05-02 2021-07-06 Faro Technologies, Inc. System and method of representing and tracking time-based information in two-dimensional building documentation
CN108765566A (zh) * 2018-05-21 2018-11-06 瞪羚实训(北京)科技有限公司 图像处理方法和装置、存储介质、3d建模系统和方法
WO2020009826A1 (en) * 2018-07-05 2020-01-09 Kaarta, Inc. Methods and systems for auto-leveling of point clouds and 3d models
GB2571382B (en) * 2018-07-27 2020-02-19 Sony Interactive Entertainment Inc A parallel method of flood filing, and apparatus
KR102662068B1 (ko) 2018-10-02 2024-05-03 파나소닉 인텔렉츄얼 프로퍼티 코포레이션 오브 아메리카 삼차원 데이터 부호화 방법, 삼차원 데이터 복호 방법, 삼차원 데이터 부호화 장치, 및 삼차원 데이터 복호 장치
EP3861420A4 (en) * 2018-10-04 2022-06-29 Geomni, Inc. Computer vision systems and methods for identifying anomalies in building models
CN109300189A (zh) * 2018-10-26 2019-02-01 五维智能信息科技(北京)有限公司 一种物体三维模型构建方法与装置
US11024050B2 (en) 2018-11-05 2021-06-01 Faro Technologies, Inc. System and method of scanning an environment
US10909686B2 (en) * 2018-11-28 2021-02-02 International Business Machines Corporation Identifying and extracting a sub-image in a document image file
US11486701B2 (en) 2019-02-06 2022-11-01 Faro Technologies, Inc. System and method for performing a real-time wall detection
TWI731400B (zh) * 2019-08-30 2021-06-21 潤弘精密工程事業股份有限公司 建築資訊模型資料處理方法及系統
US10891766B1 (en) * 2019-09-04 2021-01-12 Google Llc Artistic representation of digital data
US11094113B2 (en) 2019-12-04 2021-08-17 Geomni, Inc. Systems and methods for modeling structures using point clouds derived from stereoscopic image pairs
US11501478B2 (en) 2020-08-17 2022-11-15 Faro Technologies, Inc. System and method of automatic room segmentation for two-dimensional laser floorplans
US20220244833A1 (en) * 2021-01-22 2022-08-04 Primitive LLC Interactive 3d roof model
CA3138634C (en) 2021-03-04 2023-09-19 TecScan Systems Inc. System and method for scanning an object using an array of ultrasonic transducers
CN114858087A (zh) * 2022-03-25 2022-08-05 先临三维科技股份有限公司 用于三维扫描仪的移动计算模组、三维扫描方法和装置
US20240069203A1 (en) * 2022-08-31 2024-02-29 Faro Technologies, Inc. Global optimization methods for mobile coordinate scanners

Family Cites Families (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0378095A (ja) 1989-08-21 1991-04-03 Daikin Ind Ltd エッジ強調ポリゴンぬりつぶし方法およびその装置
US5194969A (en) 1990-12-04 1993-03-16 Pixar Method for borderless mapping of texture images
US5471572A (en) 1993-07-09 1995-11-28 Silicon Graphics, Inc. System and method for adding detail to texture imagery in computer generated interactive graphics
US5566073A (en) 1994-07-11 1996-10-15 Margolin; Jed Pilot aid using a synthetic environment
US5802361A (en) * 1994-09-30 1998-09-01 Apple Computer, Inc. Method and system for searching graphic images and videos
JP3541855B2 (ja) 1994-12-01 2004-07-14 朝日航洋株式会社 3次元データ抽出方法及び装置
JPH0997344A (ja) * 1995-09-29 1997-04-08 Fujitsu Ltd テクスチャ生成方法およびテクスチャ生成システム
JPH09102029A (ja) 1995-10-09 1997-04-15 Oki Electric Ind Co Ltd 地形データ補間装置
JPH09138870A (ja) * 1995-11-15 1997-05-27 Canon Inc 画像処理装置及び方法
US6285373B1 (en) * 1996-03-29 2001-09-04 3Dlabs Inc. Ltd. Method and apparatus for texture transmission and storage
US5988862A (en) 1996-04-24 1999-11-23 Cyra Technologies, Inc. Integrated system for quickly and accurately imaging and modeling three dimensional objects
JPH1091760A (ja) 1996-09-13 1998-04-10 Oki Electric Ind Co Ltd 3次元地形出力方法、3次元地形出力装置及び記録媒体
JP3503385B2 (ja) 1997-01-20 2004-03-02 日産自動車株式会社 ナビゲーションシステム及びそれに用いるナビゲーションプログラムを記憶した媒体
DE19801801C2 (de) 1997-01-20 2000-06-29 Nissan Motor Navigationssystem und Speichermedium für das Speichern dafür verwendeter Betriebsprogramme
JPH10275246A (ja) 1997-03-31 1998-10-13 Intec:Kk 三次元コンピュータグラフィックシステム
US20020154132A1 (en) * 1997-07-30 2002-10-24 Alain M. Dumesny Texture mapping 3d graphic objects
JP3162664B2 (ja) 1997-10-09 2001-05-08 株式会社シーエスケイ 3次元都市景観情報の作成方法および装置
US6522336B1 (en) * 1997-10-31 2003-02-18 Hewlett-Packard Company Three-dimensional graphics rendering apparatus and method
JP3971003B2 (ja) 1997-12-17 2007-09-05 株式会社コナミデジタルエンタテインメント 画像作成装置
JP3672739B2 (ja) 1998-06-29 2005-07-20 富士通株式会社 テクスチャ画像生成装置
US6480538B1 (en) * 1998-07-08 2002-11-12 Koninklijke Philips Electronics N.V. Low bandwidth encoding scheme for video transmission
US6600553B1 (en) 1998-11-03 2003-07-29 National Institute Of Science And Technology U.S. Dept Of Commerce Three degree-of-freedom telescoping geometry scanner
JP3614709B2 (ja) 1999-05-20 2005-01-26 日本電信電話株式会社 景観画像インデクス方法、装置および景観画像インデクスプログラムを記録した記録媒体
JP2001043394A (ja) 1999-08-03 2001-02-16 Dainippon Printing Co Ltd 画像表示方法および装置
DE19948544A1 (de) * 1999-10-08 2001-05-10 Gta Geoinformatik Gmbh Vorrichtung und Verfahren zur terrestrischen digitalen Photogrammetrie mittels einer Orientierungsplattform
JP4372283B2 (ja) 1999-10-20 2009-11-25 グンゼ株式会社 デザイン支援装置及びデザイン支援プログラムを記録したコンピュータ読み取り可能な記録媒体
JP4438971B2 (ja) 1999-10-20 2010-03-24 グンゼ株式会社 データ立体化装置及びデータ立体化プログラムを記録したコンピュータ読み取り可能な記録媒体
FI112402B (fi) 1999-10-28 2003-11-28 Diware Oy Menetelmä puustotunnusten määrittämiseksi sekä tietokoneohjelma menetelmän suorittamiseksi
US6466162B2 (en) 2000-02-16 2002-10-15 Bertho Boman System and method for measuring distance between two objects
US7728848B2 (en) 2000-03-28 2010-06-01 DG FastChannel, Inc. Tools for 3D mesh and texture manipulation
US20010048443A1 (en) * 2000-04-17 2001-12-06 Jeffrey Burrell Method and system for changing the display of one texture to another in a computer graphics system
JP3384557B2 (ja) 2000-05-18 2003-03-10 国際航業株式会社 3次元地形図作成方法及びシステム並びに記録媒体
US6664529B2 (en) * 2000-07-19 2003-12-16 Utah State University 3D multispectral lidar
JP4487400B2 (ja) * 2000-09-08 2010-06-23 ソニー株式会社 画像変形装置及びその画像変形方法
JP3823724B2 (ja) 2000-12-14 2006-09-20 日本電気株式会社 3次元空中遊覧改良サーバ、その方法、及び記録媒体
WO2004006180A2 (en) 2002-07-10 2004-01-15 Harman Becker Automotive Systems Gmbh System for texturizing electronic representations of objects

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150102936A (ko) * 2012-09-18 2015-09-09 큐렉소 테크놀로지 코포레이션 정형 외과 응용들에서의 정합을 위한 시스템 및 방법

Also Published As

Publication number Publication date
EP1520268A2 (en) 2005-04-06
JP2009003943A (ja) 2009-01-08
JP4685905B2 (ja) 2011-05-18
US7561165B2 (en) 2009-07-14
EP1556823A2 (en) 2005-07-27
US20060188143A1 (en) 2006-08-24
CA2489200A1 (en) 2004-01-15
US7643669B2 (en) 2010-01-05
JP5105643B2 (ja) 2012-12-26
US7689032B2 (en) 2010-03-30
EP1556823A4 (en) 2010-12-08
KR100656238B1 (ko) 2006-12-11
AU2003245715A8 (en) 2004-01-23
WO2004006180A3 (en) 2004-03-18
AU2003245713A1 (en) 2004-01-23
US20060110026A1 (en) 2006-05-25
CN1669069A (zh) 2005-09-14
AU2003245713A8 (en) 2004-01-23
CA2489200C (en) 2013-06-25
US20060152522A1 (en) 2006-07-13
WO2004006181A2 (en) 2004-01-15
JP2005532631A (ja) 2005-10-27
CN1669069B (zh) 2010-05-05
EP1520268A4 (en) 2009-05-20
CN1669045A (zh) 2005-09-14
CA2489364A1 (en) 2004-01-15
CA2489364C (en) 2010-06-01
AU2003245715A1 (en) 2004-01-23
KR20050019833A (ko) 2005-03-03
EP1556823B1 (en) 2020-01-01
WO2004006181A3 (en) 2004-04-01
KR100660351B1 (ko) 2006-12-21
JP2011018346A (ja) 2011-01-27
WO2004006180A2 (en) 2004-01-15
JP2005537535A (ja) 2005-12-08
CN100578525C (zh) 2010-01-06

Similar Documents

Publication Publication Date Title
KR100660351B1 (ko) 물체의 삼차원 전자 모델 발생 시스템
US7181363B2 (en) Three dimensional tangible interface for interacting with spatial-temporal data using a laser scanner
Piper et al. Illuminating clay: a 3-D tangible interface for landscape analysis
JP4400894B2 (ja) 三次元目的物をイメージ化しかつモデル化するための統合装置
Guarnieri et al. Digital photogrammetry and laser scanning in cultural heritage survey
Bolkas et al. Creating a virtual reality environment with a fusion of sUAS and TLS point-clouds
Rüther et al. Challenges in heritage documentation with terrestrial laser scanning
Ragia et al. Precise photorealistic visualization for restoration of historic buildings based on tacheometry data
Miller et al. A line of high performance digital photogrammetric workstations-The synergy of General Dynamics, Helava Associates, and Leica
Sauerbier et al. Multi-resolution image-based visualization of archaeological landscapes in Palpa (Peru)
Farrow et al. Digital Photogrammetry-Options and Opportunities
Cosmas et al. A novel multimedia system for archaeology
Frommholz et al. Geospecific terrain databases for military simulation environments
Cehák Digitization of Physical Models of Rural Architecture
Ab et al. Three Dimensional Modelling of Building using Faro Laser Scanner And AUTOCAD 2011 Software
Leberl Models and visualizations in a virtual habitat
Colombo et al. New Experiences, Remarks and Prospects: Building Reconstruction and Texturing
Beraldin et al. SURFACE RECONSTRUCTION OF LARGE COMPLEX STRUCTURES FROM MIXED RANGE DATA–THE ERECHTHEION EXPERIENCE
Hull Digital photogrammetry for visualisation in architecture and archaeology
Panjettykumaradevan As Built Survey of road side features for 3D GIS application
Karimi 3D visualization for cultural heritage Documentation: a case study of the old pc's office Building in Nairobi. By
Mackowiak RapidScene photogrammetry and visualization system

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20121127

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20131204

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20141125

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20151125

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20161129

Year of fee payment: 11

FPAY Annual fee payment

Payment date: 20171211

Year of fee payment: 12