KR20110015593A - 장치에 내장된 3d 콘텐츠 집계 - Google Patents

장치에 내장된 3d 콘텐츠 집계 Download PDF

Info

Publication number
KR20110015593A
KR20110015593A KR1020107027268A KR20107027268A KR20110015593A KR 20110015593 A KR20110015593 A KR 20110015593A KR 1020107027268 A KR1020107027268 A KR 1020107027268A KR 20107027268 A KR20107027268 A KR 20107027268A KR 20110015593 A KR20110015593 A KR 20110015593A
Authority
KR
South Korea
Prior art keywords
content
image
images
capture
capturing
Prior art date
Application number
KR1020107027268A
Other languages
English (en)
Other versions
KR101557297B1 (ko
Inventor
블래즈 아구에라 와이. 아카스
브렛 디. 브리워
마이클 프레드릭 코헨
스티븐 드러커
카림 파로우키
개리 더블유. 플레이크
아리엘 제이. 래지어
스테펜 엘. 로러
도날드 제임스 린제이
Original Assignee
마이크로소프트 코포레이션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 마이크로소프트 코포레이션 filed Critical 마이크로소프트 코포레이션
Publication of KR20110015593A publication Critical patent/KR20110015593A/ko
Application granted granted Critical
Publication of KR101557297B1 publication Critical patent/KR101557297B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • Instructional Devices (AREA)
  • Information Transfer Between Computers (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

청구된 발명 대상은 3차원(3D) 가상 환경 내에서 구현하기 위해 2차원(2D) 데이터의 일부분을 캡처하는 것을 용이하게 해주는 시스템 및/또는 방법을 제공한다. 장치는 하나 이상의 2D 이미지를 캡처할 수 있고, 이 2D 이미지는 장치의 방향에 의해 좌우되는 조망으로부터의 유형 개체(corporeal object)를 나타낸다. 장치는 장치에 의해 수집된 2개 이상의 2D 이미지로부터 3D 이미지를 구성할 수 있는 콘텐츠 집계기를 포함할 수 있고, 이 구성하는 것은 각각의 2D 이미지와 관련된 각각의 대응하는 조망을 정렬하는 것에 적어도 부분적으로 기초한다.

Description

장치에 내장된 3D 콘텐츠 집계{3D CONTENT AGGREGATION BUILT INTO DEVICES}
디지털 이미징 기술의 진보로 사람들은 쉽고 효율적으로 대량의 디지털 사진의 컬렉션을 캡처하고 이를 콤팩트 저장 매체, 하드 드라이브 또는 기타 장치에 저장할 수 있게 되었다. 통상적으로, 대량의 디지털 사진의 컬렉션의 브라우징은 컬렉션 내의 이미지들의 슬라이드 쇼를 보여주는 것을 포함한다. 그에 부가하여, 브라우징은 디지털 사진의 저해상도 축소판 이미지를 큰 스크린에 디스플레이하는 것을 포함할 수 있다. 축소판 이미지는 이미지 품질과 세부 정보를 희생하는 대신에 사용자가 복수의 사진을 동시에 인지할 수 있도록 해준다.
일반적인 이미지 브라우징 메커니즘은 사진들 사이의 현실 세계 관계를 알려주지 않는다. 예를 들어, 풍경 또는 랜드마크 사진의 컬렉션이 주어진 경우, 사진을 촬영한 장소들이 서로 어떻게 관련되어 있는지에 관한 정보가 사용자에게 제시되지 않는다. 게다가, 이러한 메커니즘은 현실 세계 관계에 기초한 사진들 간의 브라우징 또는 사진들 간의 전환을 허용하지 않는다. 일반적으로, 종래의 기술을 이용한 사진들 간의 브라우징은 사진들 간의 조망 및 장소를 이해하는 맹목적 접근방식을 포함한다.
사용자는 종래의 디지털 카메라를 이용하여, 디지털 정지 사진 외에, 비디오를 촬영할 수 있다. 통상적으로, 비디오와 사진이, 콘텐츠, 이미지 또는 장면을 공유하는 것과 상관없이, 개별적으로 관리되고 보여진다. 예를 들어, 장치가 실시간 비디오 및 장면의 정지 사진을 수집할 수 있지만, 이렇게 수집된 데이터의 재생은 개별적으로 이루어진다. 그에 부가하여, 디지털 정지 사진과 매우 비슷하게, 종래의 기술은 둘 이상의 비디오 사이의 관계 및 공유된 조망을 전달하는 맹목적인 접근방법을 사용한다.
이하는 본 명세서에 기술된 몇몇 측면들에 대한 기본적인 이해를 제공하기 위해 본 발명의 간략화된 요약을 제공한다. 이 요약은 청구된 발명 대상의 전반적인 개요가 아니다. 이 요약은 청구된 발명 대상의 중요한 또는 필수적인 구성요소를 확인하기 위한 것이 아니며 본 발명의 범위를 획정하기 위한 것도 아니다. 이 요약의 유일한 목적은 나중에 제시되는 보다 상세한 설명에 대한 서문으로서 청구된 발명 대상의 몇몇 개념들을 간략화된 형태로 제시하는 데 있다.
본 발명은 3차원 가상 환경 내에서 구현하기 위한 2차원 이미지를 캡처하는 것을 용이하게 해주는 시스템 및/또는 방법에 관한 것이다. 콘텐츠 집계기(content aggregator)는 3차원(3D) 이미지를 생성하기 위해 복수의 2차원(2D) 이미지 또는 콘텐츠를 수집하고 결합할 수 있으며, 이러한 3D 이미지가 가상 환경에서 탐색(예를 들어, 각각의 이미지와 조망점을 디스플레이하는 것)될 수 있다. 예를 들면, 피라미드 그림/사진의 컬렉션(예를 들어, 피라미드의 제1 측면의 제1 사진, 피라미드의 제2 측면의 제2 사진, 피라미드의 제3 측면의 제3 사진, 피라미드의 제4 측면의 제4 사진)이 모아져서, 상당히 비슷하게 표현된 데이터 및/또는 조망에 기초한 피라미드의 3D 이미지 또는 개체를 생성할 수 있다. 각각의 사진이 사진 및 그의 조망(예를 들어, 사진이 캡처된 장소/방향)을 디스플레이하기 위해 선택될 수 있는 3D 이미지를 사용자가 검사할 수 있다. 본 발명은 디지털 카메라, 비디오, 휴대용 장치, 핸드헬드 장치, PDA(portable digital assistant), 휴대폰 장치 등과 같은 다양한 장치에 2D 콘텐츠 집계 기능을 이용한다. 환언하면, 장치는 3D 이미지 또는 개체를 생성하기 위해 데이터를 수집할 수 있는 콘텐츠 집계기의 설정 또는 모드를 포함할 수 있다.
게다가, 본 발명은 3D 이미지 또는 개체 내에 표현되지 않은 이미지 또는 비디오를 캡처하기 위해 사용자에게 안내(guide) 또는 네비게이션(navigation)을 이용할 수 있다. 또한, 본 발명은 어떤 사진 또는 비디오를 캡처해야 하는지에 관한 안내 및 사용설명서에 의해 3D 이미지 또는 개체를 재생성하는 것(예를 들어, 이전에 보여진 3D 이미지 일부분의 재생성 또는 재구성)을 가능하게 해줄 수 있다. 이러한 모드 또는 설정은 콘텐츠 집계 기능을 향상시키기 위해 최적화된 사진 또는 비디오 구성을 더 포함할 수 있다. 예를 들면, 콘텐츠 집계 설정은 3D 이미지를 재생성하기 위해 3D 이미지의 하나의 사진 또는 비디오 프레임 또는 복수의 사진을 어떻게 캡처하는지에 관한 사용설명서를 제공할 수 있다.
본 발명의 다른 측면에 따르면, 사용자에게 설명해 주고 그림, 사진 또는 비디오를 수집하는 경로를 따라 사용자를 네비게이션하기 위해 장치는 안내서(예를 들어, 비디오, 오디오, 기타)를 사용할 수 있다. 3D 이미지와 관련된 그림/사진을 재생성하기 위해 정확한 장소를 식별하는 데, 예를 들면, 장치는 GPS(global positioning system)를 이용(leverage)할 수 있다. 사용자가 자신의 취향에 따라 이미지를 캡처할 수 있게 해주는 것에 부가하여, 장치는 3D 이미지, 3D 개체, 3D 가상 환경 등을 갱신하기 위해 사용자에게 특정 장소에서 개체의 사진/그림/비디오를 찍도록 알려줄 수 있으며, 그 장소에서의 이러한 사진/그림/비디오는 3D 이미지 생성에 필요한 것이다(예를 들어, 표현되지 않는다). 청구된 발명 대상의 다른 측면에서, 장치를 이용하여 데이터(예를 들어, 이미지, 사진, 비디오 등)의 일부분을 캡처하여 이러한 캡처된 데이터의 일부분으로부터 3D 이미지 또는 개체를 구성하는 것을 용이하게 해주는 방법이 제공된다.
이하의 설명 및 첨부 도면은 청구된 발명 대상의 어떤 예시적인 측면들을 상세히 기술하고 있다. 그렇지만, 이들 측면은 본 발명의 원리들이 이용될 수 있는 다양한 방식들 중 단지 몇개만을 나타낸 것이며, 청구된 발명 대상이 모든 이러한 측면 및 그의 등가물을 포함하는 것으로 보아야 한다. 청구된 발명 대상의 다른 이점들 및 새로운 특징들이, 도면과 관련하여 살펴볼 때, 본 발명에 대한 이하의 상세한 설명으로부터 명백하게 될 것이다.
도 1은 3차원(3D) 개체를 구성하기 위해 장치를 이용하여 2차원(2D) 이미지를 캡처하는 것을 용이하게 해주는 예시적인 시스템의 블록도.
도 2는 장치를 이용하여 3D 개체를 재생성하는 것을 용이하게 해주는 예시적인 시스템의 블록도.
도 3은 GPS(Global Positioning Service)를 이용함으로써 장치를 이용한 2D 이미지의 수집을 향상시키는 것을 용이하게 해주는 예시적인 시스템의 블록도.
도 4는 메타데이터를 장치로부터의 수집된 데이터와 연관시키는 것을 용이하게 해주는 예시적인 시스템의 블록도.
도 5는 본 발명에 따른 디스플레이 기술 및/또는 브라우징 기술을 이용하는 것을 용이하게 해주는 예시적인 시스템의 블록도.
도 6은 장치에 2D 콘텐츠 집계 기술을 통합시키는 것을 용이하게 해주는 예시적인 시스템의 블록도.
도 7은 3차원(3D) 개체를 구성하기 위해 장치를 이용하여 2차원(2D) 이미지를 캡처하는 예시적인 방법을 나타낸 도면.
도 8은 3D 개체를 재생성하는 것 또는 3D 개체와 관련된 2D 콘텐츠의 수집을 향상시키는 것을 용이하게 해주는 예시적인 방법을 나타낸 도면.
도 9는 청구된 발명 대상의 새로운 측면들이 이용될 수 있는 예시적인 네트워킹 환경을 나타낸 도면.
도 10은 청구된 발명 대상에 따라 이용될 수 있는 예시적인 운영 환경을 나타낸 도면.
첨부 도면을 참조하여 청구된 발명 대상에 대해 기술하며, 도면 전체에 걸쳐 동일한 참조 번호가 동일한 구성요소를 참조하는 데 사용되고 있다. 이하의 설명에서, 설명의 목적상, 본 발명에 대한 완전한 이해를 제공하기 위해 수많은 구체적인 상세 내용이 기술된다. 그렇지만, 청구된 발명 대상이 이러한 구체적인 상세 내용 없이도 실시될 수 있다는 것이 명백할 수 있다. 다른 경우에, 본 발명의 설명을 용이하게 해주기 위해 공지의 구조 및 장치가 블록도 형태로 도시되어 있다.
본 명세서에서 이용되는 바와 같이, "구성요소", "시스템", "데이터 저장소", "엔진", "평가기", "집계기", "환경", 기타 등등과 같은 용어는 하드웨어, 소프트웨어(예를 들어, 실행 중인 소프트웨어), 및/또는 펌웨어인 컴퓨터-관련 엔터티를 말하기 위한 것이다. 예를 들어, 구성요소는 프로세서 상에서 실행되는 프로세스, 프로세서, 개체, 실행 파일, 프로그램, 함수, 라이브러리, 서브루틴, 및/또는 컴퓨터 또는 소프트웨어와 하드웨어의 조합일 수 있다. 예시로서, 서버 상에서 실행 중인 응용 프로그램 및 그 서버 둘다가 구성요소일 수 있다. 하나 이상의 구성요소가 프로세스 내에 존재할 수 있고, 구성요소가 하나의 컴퓨터 상에 로컬화되어 있을 수 있고 및/또는 2개 이상의 컴퓨터 간에 분산되어 있을 수 있다.
게다가, 청구된 발명 대상이 소프트웨어, 펌웨어, 하드웨어, 또는 이들의 임의의 조합을 생성하는 표준의 프로그래밍 및/또는 엔지니어링 기법들을 사용하여 컴퓨터를 제어해 개시된 발명 대상을 구현하는 방법, 장치, 또는 제조 물품으로서 구현될 수 있다. "제조 물품(article of manufacture)"이라는 용어는, 본 명세서에서 사용되는 바와 같이, 임의의 컴퓨터-판독가능 장치, 캐리어(carrier), 또는 매체로부터 액세스될 수 있는 컴퓨터 프로그램을 포괄하기 위한 것이다. 예를 들어, 컴퓨터-판독가능 매체로는 자기 저장 장치(예를 들어, 하드 디스크, 플로피 디스크, 자기 스트립 ...), 광 디스크[예를 들어, 컴팩트 디스크(CD), DVD(digital versatile disk) ...], 스마트 카드, 그리고 플래시 메모리 장치들(예를 들어, 카드, 스틱, 키 드라이브 ...)이 있을 수 있지만, 이들로 제한되지 않는다. 그에 부가하여, 반송파가, 전자 메일(electronic mail)을 전송 및 수신하는 데 또는 인터넷이나 LAN(local area network) 등의 네트워크에 액세스하는 데 사용되는 것과 같이, 컴퓨터-판독가능 전자 데이터를 전달하는 데 이용될 수 있다는 것을 잘 알 것이다. 물론, 당업자라면 청구된 발명 대상의 범위 또는 사상을 벗어나지 않고 이 구성에 많은 수정들이 이루어질 수 있다는 것을 잘 알 것이다. 게다가, "예시적인"이라는 단어는 본 명세서에서 일례, 실례 또는 예시로서 역할한다는 것을 의미하기 위해 사용된다. 본 명세서에서 "예시적인" 것으로 기술된 임의의 측면 또는 설계가 꼭 다른 측면들 또는 설계들보다 양호하다거나 이점이 있는 것으로 해석되어야 하는 것은 아니다.
이제, 도면들을 참조하면, 도 1은 3차원(3D) 개체를 구성하기 위해 장치를 이용하여 2차원(2D) 이미지를 캡처하는 것을 용이하게 해주는 시스템(100)을 나타낸 것이다. 시스템(100)은 콘텐츠를 캡처 및/또는 수집할 수 있는 장치(104)를 포함할 수 있고, 여기서 콘텐츠는 이미지(106)의 일부분 또는 비디오(108)의 일부분 중 적어도 하나일 수 있다. 게다가, 장치(104)는 캡처된 콘텐츠[예를 들어, 이미지(106)의 일부분, 비디오(108)의 일부분 등]로 3D 이미지 또는 개체를 구성할 수 있는 콘텐츠 집계기(102)를 포함할 수 있다. 콘텐츠 집계기(102)는 이러한 2D 콘텐츠의 대응하는 조망 또는 시점에 적어도 부분적으로 기초하여 2D 콘텐츠[예를 들어, 이미지(106)의 일부분, 비디오(108)의 일부분 등]를 정렬시킴으로써 3D 이미지 또는 개체를 구성할 수 있다. 예를 들면, 장치(104)는 특정의 조망 또는 시점으로부터 콘텐츠를 캡처 또는 수집할 수 있고, 이 때 이러한 조망 또는 시점은 장치(104)의 방향에 의존한다.
게다가, 시스템(100)은 각각이 특정의 조망 또는 시점을 갖는 둘 이상의 2D 이미지를 포함할 수 있는 3D 환경(110)을 포함할 수 있다. 3D 환경(110)이 장치(104) 및/또는 개별적인 구성요소/환경, 및/또는 이들의 임의의 적절한 조합에 통합될 수 있다는 것을 잘 알 것이다. 상세하게는, 2D 이미지는 3D 이미지 또는 개체를 구성하기 위하여 장치(104) 내에 포함된 콘텐츠 집계기(102)에 의해 집계 또는 수집될 수 있으며, 이 때 수집 및/또는 집계는 각각의 2D 이미지 조망에 기초할 수 있다. 따라서, 3D 환경(110) 또는 장치(104) 내에서 검색, 탐색, 브라우징 등이 가능한 3D 이미지를 제공하도록 2D 이미지가 구성될 수 있다. 3D 환경(110)은 임의의 적절한 수의 2D 콘텐츠 및/또는 3D 이미지 또는 개체를 호스팅할 수 있다. 예를 들면, 구성된 3D 개체는 장치(104) 내에서 생성된 다음에 3D 환경으로 업로드될 수 있다. 구성된 3D 개체(예를 들어, 이미지 등)가 이미지, 사진, 비디오(예를 들어, 비디오의 정지 프레임 등), 오디오, 그림, 미디어 데이터, 사진, 메타데이터, 거래 카드(trade card), 물리적 현실 세계의 일부분을 표현하는 모든 미디어, 개체의 그림, 물품을 표현하는 콘텐츠, 엔터티를 묘사하는 콘텐츠, 현실 세계 내의 유형 개체(corporeal object) 등(이들로 제한되지 않음)과 같은 임의의 적절한 2D 콘텐츠로 이루어져 있을 수 있다는 것을 잘 알 것이다. 예를 들면, 3D 개체 또는 이미지를 구성하는 것이 장치(104) 내에서 호스팅될 수 있다. 다른 일례에서, 장치(104)는 2D 콘텐츠를 캡처하고 이러한 데이터를 3D 환경(110)에 전달할 수 있고, 이 때 환경(110)은 3D 개체 또는 이미지를 생성하고 이러한 3D 개체 또는 이미지를 장치(104)로 전달할 수 있다.
예를 들면, 3D 이미지 또는 개체가 입방체(예를 들어, 물리적 현실 세계 또는 환경에서의 유형 개체)일 수 있는 3D 환경이 탐색될 수 있다. 일반적으로, 공유된 조망, 2D 콘텐츠 내에서의 범위(coverage)의 중복(예를 들어, 그림 A와 그림 B 둘다가 입방체의 일부분을 디스플레이하는 경우, 기타), 실질적으로 비슷한 시점, 및/또는 입방체를 정확하게 묘사하기 위해 2D 콘텐츠와 관련된 임의의 다른 관계(예를 들어, 메타데이터, 태그 정의, 기타) 중 적어도 하나에 맞춰 2D 콘텐츠를 정렬시킴으로써 3D 이미지 또는 개체가 구성될 수 있다. 따라서, 입방체의 제1 면의 제1 이미지(예를 들어, 조망이 입방체의 제1 면을 향하고 있는 경우), 입방체의 제2 면의 제2 이미지(예를 들어, 조망이 입방체의 제2 면을 향하고 있는 경우), 입방체의 제3 면의 제3 이미지(예를 들어, 조망이 입방체의 제3 면을 향하고 있는 경우), 입방체의 제4 면의 제4 이미지(예를 들어, 조망이 입방체의 제4 면을 향하고 있는 경우), 입방체의 제5 면의 제5 이미지(예를 들어, 조망이 입방체의 제5 면을 향하고 있는 경우), 및 입방체의 제6 면의 제6 이미지(예를 들어, 조망이 입방체의 제6 면을 향하고 있는 경우)를 결합함으로써 입방체가 생성될 수 있다. 논의한 바와 같이, 입방체의 이미지들은 이미지의 조망의 일부분(예를 들어, 이미지들 간의 중복)을 공유할 수 있다. 입방체의 이미지들의 조망 또는 시점에 기초하여 입방체의 이미지들을 집계함으로써, 디스플레이, 보기, 탐색, 브라우징, 기타 등등이 행해질 수 있는 입방체의 3D 이미지가 3D 환경(110) 내에서 생성될 수 있다.
상기한 일례에 따르면, 콘텐츠 집계기(102)는 장치(104)로부터의 캡처된 및/또는 수집된 콘텐츠를 이용할 수 있으며, 검색, 탐색, 디스플레이, 기타 등등을 위한 3D 이미지 또는 개체를 매끄럽게 자동으로 생성하는 것을 가능하게 해줄 수 있다. 장치(104)는, 외부 소스(예를 들어, 인터넷, 네트워크, 서버, 외장형 하드 드라이브 등)로부터 이러한 콘텐츠를 수신하는 것보다는, 수집된 2D 콘텐츠로부터 3D 이미지 또는 개체를 자동으로 생성할 수 있다. 다른 일례에서, 장치(104)는 수집된 2D 콘텐츠로부터 3D 이미지 또는 개체를 자동으로 생성할 수 있고, 외부 소스로부터의 콘텐츠로 이러한 3D 이미지 또는 개체를 보충할 수 있다. 일반적으로, 본 발명은 콘텐츠(예를 들어, 이미지, 비디오 등)를 자동으로 수집하는 것 및 장치(104) 내에서 이러한 2D 콘텐츠로부터 구성되는 3D 이미지 또는 개체를 생성하는 것을 가능하게 해준다.
그에 부가하여, 시스템(100)은 콘텐츠 집계기(102) 및/또는 장치(104)를 거의 모든 운영 체제(들) 및/또는 데이터베이스 시스템(들)에 및/또는 서로와 통합시키기 위해 다양한 어댑터, 커넥터, 채널, 통신 경로, 기타를 제공하는 임의의 적당한 및/또는 필요한 인터페이스 구성요소(도시 생략)를 포함할 수 있다. 그에 부가하여, 이 인터페이스 구성요소는 콘텐츠 집계기(102), 장치(104), 이미지(106)의 일부분, 비디오(108)의 일부분, 3D 환경(도시 생략), 및 시스템(100)과 연관된 임의의 다른 장치 및/또는 구성요소와의 상호작용을 제공하는 다양한 어댑터, 커넥터, 채널, 통신 경로, 기타를 제공할 수 있다.
도 2는 장치를 이용하여 3D 개체를 재생성하는 것을 용이하게 해주는 시스템(200)을 나타낸 것이다. 시스템(200)은 통합된 콘텐츠 집계기(102)를 갖는 장치(104)를 포함할 수 있다. 장치(104)와 콘텐츠 집계기(102)의 결합은 3D 이미지 또는 개체를 구성하는 데 이용될 수 있는 2D 이미지들의 매끄러운 캡처를 제공할 수 있으며, 이 3D 이미지 또는 개체는 보기, 디스플레이, 탐색, 검색 등이 가능하다. 상세하게는, 콘텐츠 집계기(102)는 물리적 현실 세계 내에서 개체, 장면, 풍경 등을 나타내는 2D 콘텐츠의 사전 정의된 구조 또는 편성(예를 들어, 대응하는 3D 이미지 또는 개체를 구성하기 위해 2D 콘텐츠 및 이러한 콘텐츠의 배치를 정의하는 청사진 등)에 기초하여 3D 이미지 또는 개체를 재생성하는 것을 가능하게 해줄 수 있다. 일반적으로, 사전 정의된 구조 또는 편성은 3D 이미지 또는 개체가 시스템(200)에 의해 복제될 수 있도록 해줄 수 있다.
3D 이미지를 재생성하는 것과 관련된 요청이 장치(104)에 의해 수신될 수 있고, 장치 내의 평가기(204)는 재생성할 3D 이미지 또는 개체를 식별하기 위해 요청을 분석할 수 있다. 요청이 기존의 3D 이미지 또는 개체[예를 들어, 3D 환경(110)에 의해 호스팅된, 외부 소스에 의해 호스팅된, 장치(104)에 저장된 3D 이미지 또는 개체 등], 또는 2D 콘텐츠로부터 생성되거나 구성되지 않은 3D 이미지 또는 개체와 관련되어 있을 수 있다는 것을 잘 알 것이다. 어느 경우든지, 평가기(204)는 새로운 3D 이미지 또는 개체가 생성되는지 기존의 3D 이미지 또는 개체가 재생성되는지를 식별할 수 있다. 이러한 요청에 기초하여, 네비게이션 구성요소(navigation component)(204)는 3D 이미지 또는 개체를 생성하기 위해 안내 또는 지원을 제공할 수 있다. 예를 들면, 지원 또는 안내는 2D 콘텐츠를 캡처하기 위한 장치(104)의 장소 및/또는 방향과 관련되어 있을 수 있다. 식별된 조망, 방향 등으로 콘텐츠를 캡처할 시에, 장치(102) 내의 콘텐츠 집계기(102)는 3D 이미지 또는 개체를 구성할 수 있다. 지원 또는 안내가 오디오의 일부분, 비디오의 일부분, 경로, 지리적 지도 상에서의 경로, 일련의 지리적 방향, 텍스트의 일부분, 그래픽의 일부분, 및/또는 장치(104)가 3D 구성을 위한 콘텐츠를 캡처하는 장소, 조망 및 방향을 식별하는 것을 용이하게 해줄 수 있는 임의의 다른 적절한 데이터일 수 있다는 것을 잘 알 것이다. 이러한 안내 또는 지원은 장치를 통하여 전달될 수 있고, 이 장치는 스피커 또는 디스플레이 중 적어도 하나를 포함할 수 있다.
예를 들면, 사용자가 2D 콘텐츠로부터 3D 이미지 또는 개체를 생성 또는 구성하고자 하는 빌딩으로 여행하고 있을 수 있다. 이러한 요망에 기초하여, 사용자는 이러한 작업을 수행하기 위해 통합된 콘텐츠 집계기를 갖는 장치를 이용할 수 있다. 사용자는 요청을 전달할 수 있고, 이 때 장치는 필요한 2D 콘텐츠 및 대응하는 조망 및/또는 시점을 레이아웃하는 사전 정의된 구조 또는 편성을 결정하거나 확인할 수 있다. 이 정보(예를 들어, 장치 방향, 각도, 줌, 시점 등)를 이용하여, 3D 이미지 또는 개체가 구성될 수 있다. 이 정보를 사용자에게 전달하기 위하여, 장치는 오디오, 그래픽, 비디오, 텍스트 등과 같은 임의의 적절한 데이터를 제공할 수 있다. 예를 들면, 장치는 경로를 갖는 지도, 및 2D 콘텐츠를 어디서 또 어느 조망, 방향, 각도, 기타 등등에서 캡처할지에 관한 사용설명서를 나타내기 위해 디스플레이를 사용할 수 있다. 이러한 디스플레이는 또한 특정의 원하는 세부 레벨(detail level)에 필요한 콘텐츠의 양을 나타낼 수 있다(예를 들어, 콘텐츠가 많을수록 표현되는 조망의 등급이 높아짐, 기타 등등). 일단 구성되면, 3D 이미지 또는 개체가 장치(104) 내에서 구성되고 이용될 수 있다. 다른 일례에서, 3D 이미지 또는 개체는 3D 환경(110)에서 이용될 수 있다.
게다가, 장치(104)가 3D 이미지 또는 개체를 구성하기 위해 어느 2D 콘텐츠가 또는 얼마만큼의 2D 콘텐츠가 캡처될 필요가 있는지를 자동으로 확인할 수 있다는 것을 잘 알 것이다. 환언하면, 장치(104)가 사전 정의된 구조 또는 편성을 이용할 필요가 없다. 예를 들면, 장치(104)는, 충분한 콘텐츠가 수집되었는지를 판정하기 위해, 캡처된 2D 콘텐츠[예를 들어, 이미지(106)의 일부분, 오디오(108)의 일부분 등]를 계속하여 분석하도록 평가기(204)를 구현할 수 있다. 또한, 3D 이미지 또는 개체에 대한 콘텐츠의 양이 복잡도, 조망, 크기 및/또는 이들의 임의의 다른 적절한 특성에 기초하여 변할 수 있다는 것도 잘 알 것이다.
도 3은 GPS(Global Positioning Service)를 이용함으로써 장치를 이용한 2D 이미지의 수집을 향상시키는 것을 용이하게 해주는 시스템(300)을 나타낸 것이다. 시스템(300)은 3D 이미지 또는 개체를 생성하기 위해 콘텐츠 집계기(102)에 2D 콘텐츠 수집을 통합시키는 장치(104)를 포함할 수 있다. 장치(104)는 2D 콘텐츠[예를 들어, 이미지(106)의 일부분, 비디오(108)의 일부분, 기타]를 캡처하거나 수집할 수 있는 임의의 적당한 장치 또는 구성요소[디지털 카메라, 비디오 카메라, 카메라, 스마트폰, 핸드헬드 장치, 웹 카메라, 모바일 장치, PDA(portable digital assistant), 휴대폰 장치, 일회용 카메라, 장치에 통합된 카메라(예를 들어, 랩톱 카메라, 데스크톱 카메라, 자동차 카메라 등), 이미지 캡처 기능을 갖는 컴퓨팅 장치 등(이들로 제한되지 않음)]일 수 있다. 일반적으로, 시스템(300)은 2D 콘텐츠로부터 3D 이미지 또는 개체를 생성할 수 있고, 2D 콘텐츠로부터 장치(104)의 기존의 3D 이미지 또는 개체를 재생성할 수 있으며 및/또는 장치(104)로부터의 캡처된 2D 콘텐츠로 기존의 3D 이미지 또는 개체를 보충할 수 있다.
비디오(108)의 일부분은 비디오 세그먼트의 길이에 따라 수백 또는 수천에 달할 수 있는 수 많은 비디오 프레임을 포함할 수 있는 비디오 세그먼트일 수 있다. 예를 들면, 영화는 초당 24 프레임을 가질 수 있고, 텔레비전 비디오는 초당 대략 30 프레임을 가질 수 있으며, 어떤 장비는 초당 수백 프레임을 캡처할 수 있다. 각각의 개별 프레임은 하나의 정지 이미지이며, 프레임들의 빠른 연속은 미세한 움직임이 인지될 수 있도록 해준다. 하지만, 1초 내의 복수의 프레임들은 캡처된 이미지들이라는 면에서 통상적으로 매우 유사하다. 따라서, 콘텐츠 집계기(102)는 3D 이미지 또는 개체를 생성하기 위해 비디오의 일부분을 이용할 수 있다.
기존의 3D 이미지 또는 개체를 보충하는 시스템(300)의 일례에서, 평가기(204)는 특정의 3D 이미지 또는 개체와 관련된 2D 콘텐츠를 검사할 수 있다. 이러한 검사에 기초하여, 장치(104)는 3D 이미지 또는 개체에 이용될 수 있는 보충적 2D 콘텐츠를 캡처하라는 경고 또는 전달을 받을 수 있다. 예를 들면, 3D 환경(110)은 복수의 2D 콘텐츠 및/또는 3D 이미지 또는 개체를 호스팅할 수 있으며, 이 때 특정의 3D 이미지 또는 개체가 불완전한 범위, 백업 요구 등에 기초하여 보충될 수 있다. 평가기(204)는 이러한 필요가 있는지를 판정할 수 있고, 이 때 네비게이션 구성요소(202)는 이처럼 필요한 2D 콘텐츠를 캡처하기 위해 안내 또는 지원을 제공할 수 있다. 대체로, 시스템(300)은 불완전하거나 부분적인 3D 이미지 또는 개체가 획득된 2D 콘텐츠로 완성될 수 있도록 해줄 수 있다. 예를 들면, 이러한 이미지 및 조망이 기존의 3D 이미지 또는 개체에 표현되지 않기 때문에, 장치(104)는 특정의 조망으로부터 개체의 2D 이미지를 캡처하기 위해 지도 상의 경로를 사용자에게 제공할 수 있다.
시스템(300)은 장치(104)가 3D 개체 또는 이미지의 국소 범위(local coverage)(예를 들어, 2D 콘텐츠 캡처, 2D 이미지 수집 등) 또는 커뮤니티 시스템 내의 전역 범위(global coverage)를 제공하는 것을 가능하게 해줄 수 있다. 국소 범위에 의해 장치(104)는 2D 콘텐츠를 캡처하고 장치(104)에서 사용하기 위한 국소의 사적인 3D 이미지 또는 개체를 생성할 수 있다. 전역 범위에 의해 장치(104)는 2D 콘텐츠를 캡처하고 커뮤니티와 공유되는 3D 이미지 또는 개체를 생성할 수 있다. 2D 콘텐츠의 일부분, 2D 콘텐츠의 컬렉션, 3D 개체의 일부분, 또는 3D 개체 등이 공유될 수 있다는 점에서 전역 범위가 세분화되어(granular) 있을 수 있다는 것을 잘 알 것이다. 그에 부가하여, 장치(104)는 2D 콘텐츠의 일부분이 3D 개체 또는 이미지를 표현하기 위해 커뮤니티 시스템에 통합될 수 있게 해줄 수 있다.
게다가, 장치(104)는 2D 콘텐츠[예를 들어, 이미지(106)의 일부분, 비디오(108)의 일부분 등]를 캡처하기 위한 장소, 방향 및 조망을 식별하는 것을 용이하게 해주기 위해 GPS(global positioning system) 구성요소(302)를 이용할 수 있다. GPS 구성요소(302)가 독립형 구성요소(도시되어 있음)일 수 있고, 장치(104)에 통합되어 있을 수 있으며, 및/또는 이들의 임의의 적당한 조합일 수 있다는 것을 잘 알 것이다. 예를 들면, 장치(104)는 사진/비디오 캡처 기능 및 위치 추적을 위한 GPS 서비스를 제공하는 서비스를 갖춘 스마트폰일 수 있다. 3D 이미지 또는 개체를 구성할 2D 콘텐츠를 캡처하기 위해, 지리적 위치, 방향 등을 제공할 목적으로 네비게이션 구성요소(202)와 관련하여 GPS 구성요소(302)가 이용될 수 있다. 또한, GPS 구성요소(302) 및/또는 장치(104)가 지리적 장소 또는 위치와 관련하여 특정의 각도 또는 방향을 식별하기 위해 가속도계(도시 생략)를 이용할 수 있다는 것을 잘 알 것이다.
그에 부가하여, 장치(104)는 지리적 위치를 식별하거나 또는 찾아내기 위해 장치(104)로부터의 뷰를 기존의 3D 이미지 또는 개체와 비교하는 데 2D 콘텐츠 캡처 모드를 이용할 수 있다. 환언하면, 보여지고 어쩌면 캡처될 콘텐츠는 물론 장치(110)의 방향이 3D 개체를 나타내는 기존 2D 콘텐츠와 비교될 수 있고, 이 비교를 통해 장치의 장소와 위치가 밝혀질 수 있다. 따라서, 기존의 3D 이미지 또는 개체 및 포함된 2D 콘텐츠를 이용하여, 장치(104)의 지리적 위치 및 방향이 GPS 구성요소(302) 없이 구해질 수 있다.
시스템(300)은 장치(104)와 관련된 임의의 적당한 데이터를 포함할 수 있는 데이터 저장소(304), 콘텐츠 집계기(102), 이미지(106)의 일부분, 비디오(108)의 일부분, 네비게이션 구성요소(202), 평가기(204), GPS 구성요소(302) 등을 더 포함할 수 있다. 예를 들면, 데이터 저장소(304)는 2D 콘텐츠, 3D 이미지 또는 개체를 얻기 위해 2D 콘텐츠를 정렬시키기 위한 사전 정의된 구조 또는 편성, 구성된 3D 이미지 또는 개체, 콘텐츠 수집 설정(예를 들어, 기본 설정, 설정, 암호 등), 경로, 지도, 지리적 장소, 2D 콘텐츠의 방향, 2D 콘텐츠와 관련된 조망, 2D 콘텐츠의 정렬, 2D 콘텐츠 수집을 위한 안내, 수집된 이미지, 수집된 비디오, 3D 환경 데이터(예를 들어, 3D 이미지, 3D 개체, 사용자명, 암호, 기존의 2D 콘텐츠, 요청된 2D 콘텐츠 등), GPS 데이터, 가속도계 데이터, 데이터 요청 등(이들로 제한되지 않음)을 포함할 수 있다.
데이터 저장소(304)가, 예를 들어, 휘발성 메모리 또는 비휘발성 메모리일 수 있거나, 휘발성 메모리 및 비휘발성 메모리 둘다를 포함할 수 있다는 것을 잘 알 것이다. 제한이 아닌 예시로서, 비휘발성 메모리는 판독 전용 메모리(ROM), 프로그램가능 ROM(PROM), 전기적 프로그램가능 ROM(EPROM), 전기적 소거가능 프로그램가능 ROM(EEPROM), 또는 플래시 메모리를 포함할 수 있다. 휘발성 메모리는 외부 캐시 메모리로서 기능하는 랜덤 액세스 메모리(RAM)를 포함할 수 있다. 제한이 아닌 예시로서, RAM은 SRAM(static RAM), DRAM(dynamic RAM), SDRAM(synchronous DRAM), DDR SDRAM(double data rate SDRAM), ESDRAM(enhanced SDRAM), SLDRAM(Synchlink DRAM), RDRAM(Rambus direct RAM), DRDRAM(direct Rambus dynamic RAM), 및 RDRAM(Rambus dynamic RAM) 등의 많은 형태로 이용가능하다. 본 시스템 및 방법의 데이터 저장소(304)는 이들 및 임의의 다른 적합한 유형의 메모리(이들로 제한되지 않음)를 포함하는 것으로 보아야 한다. 그에 부가하여, 데이터 저장소(304)가 서버, 데이터베이스, 하드 드라이브, 펜 드라이브(pen drive), 외장형 하드 드라이브, 휴대용 하드 드라이브, 기타 등등일 수 있다는 것을 잘 알 것이다.
도 4는 메타데이터를 장치로부터 수집된 데이터와 연관시키는 것을 용이하게 해주는 시스템(400)을 나타낸 것이다. 시스템(400)은 2D 콘텐츠[예를 들어, 이미지(106)의 일부분, 비디오(108)의 일부분 등]의 자동 캡처 및 콘텐츠 집계기(102)를 이용하여 2D 콘텐츠로부터 구성되는 3D 이미지 또는 개체의 매끄러운 생성을 제공할 수 있는 장치(104)를 포함할 수 있으며, 여기서 구성하는 것은 2D 콘텐츠와 관련된 조망 및 시점에 기초하여 2D 콘텐츠를 정렬하고 편성하는 것에 기초한다. 장치(104)는 통합된 콘텐츠 집계기(102)를 이용하여 3D 이미지 또는 개체를 구성하는 데 이용될 수 있는 2D 이미지의 자동 수집 또는 자동 모음을 가능하게 해주는 모드 또는 설정을 포함할 수 있다. 상세하게는, 이러한 모드 또는 설정은 3D 이미지 또는 개체 구성을 위한 2D 콘텐츠의 캡처를 최적화하기 위해 기존의 장치 설정 및/또는 구성을 이용할 수 있다. 예를 들면, 장치(104)는 장면 모드(예를 들어, 자동, 사용자 정의, 클로즈업, 인물, 풍경, 스포츠, 야경, 겨울, 여름, 야간 인물, 석양 등), 선택적인 파노라마 모드(예를 들어, 콘텐츠 수집기가 이 설정에 안정적이고, 2D 콘텐츠가 보다 비슷하게 만들어질 수 있기 때문에, 기타 등등으로 선택적임), 사진 스티칭 모드(예를 들어, 콘텐츠 수집기가 이 설정에 안정적이고, 2D 콘텐츠가 보다 비슷하게 만들어질 수 있기 때문에, 기타 등등으로 선택적임), 플래시 모드(예를 들어, 자동 플래시, 플래시 켜짐, 적목 감소, 플래시 사용안함, 기타), 타이머 설정, 연속 모드(예를 들어, 연속 촬영, 지연 캡처 등), 노출 보정, 화이트 밸런스, 색상 톤, 광 감도, 대비, 선명도 등을 포함할 수 있다. 이러한 장치 설정 및/또는 모드가 자동으로 최적화되고, 사용자-정의되며 및/또는 이들의 임의의 적절한 조합으로 되어 있을 수 있다.
시스템(400)은 장치(104)로부터의 캡처된 2D 콘텐츠의 태깅(tagging)을 가능하게 해주는 실시간 태깅(real time tagging) 구성요소(402)를 더 포함할 수 있다. 실시간 태깅 구성요소(402)는 2D 콘텐츠의 일부분 및/또는 3D 이미지 또는 개체에 이들과 관련된 임의의 적절한 메타데이터를 첨부할 수 있다. 상세하게는, 실시간 태깅 구성요소(402)는 지리적 데이터의 일부분, 저자 데이터의 일부분, 소유자 데이터의 일부분, 보안 데이터의 일부분, 시간, 일자, 각도, 조망, 장치 데이터의 일부분, 줌 레벨, 줌, 시점, 3D 개체 연관관계 데이터의 일부분, 3D 개체 내에서의 위치, 3D 개체 내에서의 정렬, 카테고리 정의, 주제 정의, 순위, 인기 순위, 품질 순위, 프레임 레이트, 해상도, 개체 표현, 순수 뷰(pure view) 데이터의 일부분, 원본 뷰(authentic view) 데이터의 일부분, 기타 등등 중에서 적어도 하나(이들로 제한되지 않음)와 같은 메타데이터를 포함시킬 수 있다. 이러한 메타데이터가 3D 환경(110), 콘텐츠 집계기(102), 장치(104), 별도의 장치, 별도의 콘텐츠 집계기, 커뮤니티, 웹 사이트, 네트워크, 서버, 사용자, 소프트웨어의 일부분, 응용 프로그램, 하드웨어의 일부분 등에 의해 이용될 수 있다는 것을 잘 알 것이다.
도 5는 본 발명에 따른 디스플레이 기술 및/또는 브라우징 기술을 이용하는 것을 용이하게 해주는 시스템(500)을 나타낸 것이다. 시스템(500)은 앞서 설명된 바와 같이 이미지(106)의 일부분 또는 비디오(108)의 일부분 중 적어도 하나를 캡처할 수 있는 장치(104)를 포함할 수 있다. 시스템(500)은 임의의 적당한 데이터(예를 들어, 3D 개체 데이터, 3D 이미지, 2D 콘텐츠, 2D 이미지 등)에 대한 매끄러운 패닝 및/또는 줌잉 상호작용을 가능하게 해주는 디스플레이 엔진(502)을 더 포함할 수 있고, 이러한 데이터는 다중 스케일 또는 뷰 및 이와 관련된 하나 이상의 해상도를 포함할 수 있다. 환언하면, 디스플레이 엔진(502)은 줌잉(예를 들어, 줌인, 줌아웃, 기타) 및/또는 패닝(예를 들어, 위쪽으로 패닝, 아래쪽으로 패닝, 우측으로 패닝, 좌측으로 패닝, 기타)을 가능하게 해줌으로써 디스플레이된 데이터에 대한 초기의 기본 뷰(initial default view)를 조작할 수 있으며, 여기서 이러한 줌잉된 또는 패닝된 뷰는 다양한 해상도 품질을 포함할 수 있다. 디스플레이 엔진(502)은 시각적 정보가 관여된 데이터의 양 또는 네트워크의 대역폭과 상관없이 원할하게 브라우징될 수 있게 해준다. 게다가, 임의의 적당한 디스플레이 또는 스크린(예를 들어, 휴대용 장치, 휴대폰 장치, 모니터, 플라즈마 텔레비전, 장치 디스플레이, 기타)에서 디스플레이 엔진(502)이 이용될 수 있다. 디스플레이 엔진(502)은 또한 이하의 이점들 또는 개량점들 중 적어도 하나를 제공할 수 있다: 1) 탐색 속도(speed of navigation)가 개체들(예를 들어, 데이터)의 크기 또는 수와 무관할 수 있음, 2) 성능이 스크린 또는 디스플레이 상의 픽셀들에 대한 대역폭의 비에 의존할 수 있음, 3) 뷰들 간의 전환이 매끄러울 수 있음, 및 4) 임의의 해상도의 스크린에 대해 스케일링이 거의 완벽하고 빠름.
예를 들어, 특정의 해상도를 갖는 기본 뷰(default view)에서 이미지를 볼 수 있다. 그렇지만, 디스플레이 엔진(502)에 의해 (기본 뷰와 비교하여) 다양한 해상도를 갖는 다수의 뷰 또는 스케일로 이미지가 줌잉 및/또는 패닝될 수 있다. 따라서, 사용자는 동일하거나 더 높은 해상도의 확대된 뷰를 얻기 위해 이미지의 일부분을 줌인할 수 있다. 이미지가 줌잉 및/또는 패닝될 수 있게 해줌으로써, 이미지는 각각이 하나 이상의 해상도를 포함하는 다양한 스케일, 레벨 또는 뷰에서 보거나 탐색될 수 있는 거의 무한한 공간 또는 체적을 포함할 수 있다. 환언하면, 패닝, 줌잉, 기타와 상관없이 매끄러운 전환에 의해 해상도를 유지하면서 이미지를 보다 세밀한 레벨(more granular level)에서 볼 수 있다. 게다가, 첫번째 뷰는 디스플레이 엔진(502)에 의해 줌잉 또는 패닝될 때까지 이미지에 관한 정보 또는 데이터의 일부분을 노출시키지 않을 수 있다.
브라우징 엔진(browsing engine)(504)도 역시 시스템(500)에 포함되어 있을 수 있다. 브라우징 엔진(504)은 인터넷, 네트워크, 서버, 웹 사이트, 웹 페이지, 3D 환경(도시 생략), 3D 이미지, 3D 개체, 기타 중 적어도 하나와 관련하여 브라우징되는 임의의 적당한 데이터에 대한 매끄럽고 원할한 패닝 및/또는 줌잉을 구현하는 데 디스플레이 엔진(502)을 이용할 수 있다. 브라우징 엔진(504)이 독립형 구성요소(stand-alone component)일 수 있고, 브라우저 내에 포함될 수 있으며, 브라우저(예를 들어, 패치 또는 펌웨어 업데이트, 소프트웨어, 하드웨어, 기타를 통한 레거시 브라우저)와 관련하여 이용될 수 있고, 및/또는 이들의 임의의 적당한 조합일 수 있다는 것을 잘 알 것이다. 예를 들어, 브라우징 엔진(504)은 매끄러운 패닝 및/또는 줌잉 등의 인터넷 브라우징 기능들을 기존의 브라우저에 포함시킬 수 있다. 예를 들어, 브라우징 엔진(504)은 3D 개체 또는 이미지 상에서의 매끄러운 줌잉 및/또는 패닝을 갖는 향상된 브라우징을 제공하기 위해 디스플레이 엔진(502)을 이용할 수 있으며, 이 때 매끄러운 줌잉 및/또는 패닝에 의해 다양한 스케일 또는 뷰가 노출될 수 있다.
논의된 바와 같이, 시스템(500)은 장치(104) 및/또는 3D 환경(도시 생략) 내에서 탐색(예를 들어, 각각의 이미지 및 조망점을 디스플레이하는 것)될 수 있는 3D 이미지 또는 개체를 생성하기 위해 복수의 2차원(2D) 콘텐츠(예를 들어, 미디어 데이터, 이미지, 비디오, 사진, 메타데이터, 거래 카드 등)를 수집할 수 있는 콘텐츠 집계기(102)를 포함할 수 있다. 사용자에게 완전한 3D 이미지 또는 개체를 제공하기 위해, 원본 뷰(authentic view)[예를 들어, 이미지로부터의 순수 뷰(pure view)]가 합성 뷰(synthetic view)[예를 들어, 3D 모델 상에 투영된 블렌드(blend)와 같은 컨텐츠 간의 보간]와 결합된다. 예를 들어, 컨텐츠 집계기(102)는 많은 장소 또는 개체 사진들의 컬렉션을 집계하고, 유사성이 있는지 이러한 사진들을 분석하며, 재구성된 3D 공간에서 이러한 사진들을 디스플레이하여, 각각의 사진이 그 다음 사진과 어떻게 관계되어 있는지를 보여줄 수 있다. 수집된 컨텐츠가 다양한 장소들(예를 들어, 인터넷, 로컬 데이터, 원격 데이터, 서버, 네트워크, 무선으로 수집된 데이터, 기타)로부터 온 것일 수 있다는 것을 잘 알 것이다. 예를 들어, 거의 모든 각도 또는 조망으로부터 장면을 보기 위해 많은 콘텐츠 컬렉션(예를 들어, 기가바이트, 기타)이 빠르게(예를 들어, 수초, 기타) 액세스될 수 있다. 다른 일례에서, 컨텐츠 집계기(102)는 실질적으로 유사한 컨텐츠를 식별하고 작은 세부를 확대하여 그에 초점을 맞추기 위해 줌인할 수 있다. 컨텐츠 집계기(102)는 다음과 같은 것들 중 적어도 하나를 제공할 수 있다: 1) 다양한 각도들로부터 컨텐츠를 보기 위해 장면의 여기저기를 돌아다님, 2) 해상도(예를 들어, 메가픽셀, 기가픽셀, 기타)와 상관없이 컨텐츠를 매끄럽게 줌인 또는 줌아웃함, 3) 콘텐츠가 캡처된 곳을 다른 콘텐츠와 관련하여 찾아냄, 4) 현재 보고 있는 콘텐츠와 유사한 콘텐츠를 찾아냄, 및 5) 콘텐츠의 컬렉션 또는 콘텐츠의 특정의 뷰를 엔터티(예를 들어, 사용자, 기계, 장치, 구성요소, 기타)로 전달함.
도 6은 장치에 2D 콘텐츠 집계 기술을 통합시키는 것을 용이하게 해주기 위해 지능을 이용하는 시스템(600)을 나타낸 것이다. 시스템(600)은 이전의 도면들에서 설명된 각자의 장치, 집계기, 이미지 및 비디오와 거의 유사할 수 있는 장치(104), 콘텐츠 집계기(102), 이미지(106)의 일부분 및 비디오(108)의 일부분을 포함할 수 있다. 시스템(600)은 지능 구성요소(intelligent component)(602)를 더 포함하고 있다. 3D 이미지 또는 개체를 생성할 목적으로 장치(104) 내에서 2D 콘텐츠를 캡처하는 것을 용이하게 해주기 위해 콘텐츠 집계기(102) 및/또는 장치(104)에 의해 지능 구성요소(602)가 이용될 수 있다. 예를 들면, 지능 구성요소(602)는 3D 이미지 또는 개체, 3D 이미지 또는 개체 내에 표현되지 않은 조망, 3D 이미지 또는 개체에 필요한 보충적 2D 콘텐츠, 장치 최적화된 콘텐츠 집계 설정, 2D 콘텐츠 캡처로 네비게이션하기 위한 안내 또는 지원, 경로, 지도, 방향, 조망, 시점, 각도, 지리적 장소, 2D 콘텐츠에 대한 태그, 캡처된 2D 콘텐츠에 대한 메타데이터, 사용자 기본 설정, 설정 등을 위한 2D 콘텐츠를 추론할 수 있다.
지능 구성요소(602)는 사용자별로 장치를 이용하여 2D 콘텐츠를 캡처하는 데 최적인 안내 또는 지원을 식별하기 위해 VOI(value of information) 계산을 이용할 수 있다. 예를 들면, VOI 계산을 이용하여, 2D 콘텐츠를 캡처하는 데 가장 이상적인 및/또는 적절한 안내 또는 지원이 결정될 수 있다(예를 들어, 사용자 A는 음성 안내를 선호함, 사용자 B는 지도 상의 경로를 좋아함, 경로 X가 경로 Y보다 이상적임, 기타). 게다가, 지능 구성요소(602)가 이벤트 및/또는 데이터를 통해 포착된 일련의 관찰 결과로부터 시스템, 환경 및/또는 사용자의 상태를 추리하거나 추론하는 것을 제공할 수 있다는 것을 잘 알 것이다. 추론이 특정의 상황 또는 동작을 알아내는 데 이용될 수 있거나, 예를 들어, 상태들에 대한 확률 분포를 발생할 수 있다. 추론은 확률적일 수 있다, 즉 데이터 및 이벤트를 고려하여 관심의 상태들에 대해 확률 분포를 계산하는 것일 수 있다. 추론은 또한 일련의 이벤트들 및/또는 데이터로부터 상위-레벨 이벤트들을 작성하는 데 이용되는 기법들을 말하는 것일 수도 있다. 이러한 추론의 결과, 이벤트들이 시간상으로 아주 근접하게 상관되어 있는지 여부와 이벤트들 및 데이터가 하나 또는 몇개의 이벤트 및 데이터 소스들로부터 온 것인지에 상관없이, 일련의 관찰된 이벤트들 및/또는 저장된 이벤트 데이터로부터 새로운 이벤트들 또는 동작들이 작성된다. 다양한 분류 (명시적 및/또는 암시적으로 훈련된) 방식 및/또는 시스템(예를 들어, 지원 벡터 기계, 신경망, 전문가 시스템, 베이지안 믿음 네트워크, 퍼지 논리, 데이터 융합 엔진 ...)이 청구된 발명 대상에 따른 자동적인 및/또는 추론된 동작을 수행하는 것과 관련하여 이용될 수 있다.
분류기는 입력 속성 벡터 x = (x1, x2, x3, x4, xn)을, 입력이 클래스에 속할 신뢰도에 매핑하는 함수이다, 즉 f(x) = confidence(class)이다. 이러한 분류는 사용자가 자동으로 수행되기를 원하는 동작을 예상 또는 추론하기 위해 확률 및/또는 통계-기반 분석(예를 들어, 분석 유틸리티 및 비용을 고려함)을 이용할 수 있다. 지원 벡터 기계(support vector machine, SVM)가 이용될 수 있는 분류기(classifier)의 일례이다. SVM은 가능한 입력들의 공간에서 초곡면(hypersurface)을 찾는 동작을 하며, 이 초곡면은 트리거링 기준(triggering criteria)을 비트리거링 이벤트(non-triggering event)로부터 분리시키려고 한다. 직관적으로, 이렇게 함으로써 분류가 훈련 데이터와 똑같지는 않지만 그에 가까운 데이터를 테스트하는 데 정확하게 된다. 다른 유향(directed) 및 무향(undirected) 모델 분류 접근방법들은, 예를 들어, NB(naive Bayes), 베이지안 네트워크, 결정 트리, 신경망, 퍼지 논리 모델을 포함하고, 서로 다른 독립성 패턴들을 제공하는 확률적 분류 모델이 이용될 수 있다. 분류는, 본 명세서에서 사용되는 바와 같이, 우선순위(priority) 모델을 개발하는 데 이용되는 통계적 회귀(statistical regression)도 포함한다.
장치(104)는 또한 사용자와 장치(104)에 결합된 임의의 구성요소 간의 상호작용을 용이하게 해주기 위해 다양한 유형의 사용자 인터페이스를 제공하는 프리젠테이션 구성요소(presentation component)(604)를 이용할 수 있다. 도시된 바와 같이, 프리젠테이션 구성요소(604)는 장치(104)와 함께 이용될 수 있는 별도의 개체이다. 그렇지만, 프리젠테이션 구성요소(604) 및/또는 유사한 보기 구성요소(view component)가 장치(104)에 포함될 수 있고 및/또는 독립형 유닛일 수 있다는 것을 잘 알 것이다. 프리젠테이션 구성요소(604)는 하나 이상의 그래픽 사용자 인터페이스(GUI), 명령줄 인터페이스(command line interface), 기타를 제공할 수 있다. 예를 들어, 데이터의 로딩, 가져오기(import), 판독 및 기타를 수행하는 영역 또는 수단을 사용자에게 제공하는 GUI가 렌더링될 수 있고, 이 GUI는 이러한 것의 결과를 제시하는 영역을 포함할 수 있다. 이 영역들은 대화 상자, 정적 컨트롤(static control), 드롭다운 메뉴, 리스트 박스, 팝업 메뉴, 편집 컨트롤(as edit control), 콤보 박스, 라디오 버튼, 체크 박스, 푸시 버튼, 및 그래픽 박스를 포함하는 기지의 텍스트 및/또는 그래픽 영역들을 포함할 수 있다. 그에 부가하여, 영역이 보이게 되는지 여부를 판정하기 위해 프리젠테이션을 용이하게 해주는 유틸리티들(수직 및/또는 수평 탐색 스크롤바 및 도구모음 버튼 등)이 이용될 수 있다. 예를 들어, 사용자는 장치(104)에 결합된 및/또는 그에 포함된 구성요소들 중 하나 이상의 구성요소와 상호작용할 수 있다.
사용자는 또한, 예를 들어, 마우스, 롤러 볼(roller ball), 터치패드, 키패드, 키보드, 터치 스크린, 펜 및/또는 음성 작동(voice activation), 신체 움직임 검출 등의 다양한 장치들을 통해 정보를 선택하여 제공하기 위해 상기 영역들과 상호작용할 수 있다. 통상적으로, 검색을 개시하기 위해 정보를 입력한 후에 푸시 버튼 또는 키보드 상의 엔터키와 같은 메커니즘이 이용될 수 있다. 그렇지만, 청구된 발명 대상이 그것으로 제한되지 않는다는 것을 잘 알 것이다. 예를 들어, 체크 박스를 단지 강조하는 것이 정보 전달(information conveyance)을 개시할 수 있다. 다른 일례에서, 명령줄 인터페이스(command line interface)가 이용될 수 있다. 예를 들어, 명령줄 인터페이스는 텍스트 메시지를 제공함으로써 사용자에게 정보를 [예를 들어, 디스플레이 상의 텍스트 메시지 및 오디오 톤(audio tone)을 통해] 요청할 수 있다. 사용자는 이어서 인터페이스 프롬프트(interface prompt)에 제공되는 옵션 또는 프롬프트에 제시된 질문에 대한 답변에 대응하는 영숫자 입력 등의 적당한 정보를 제공할 수 있다. GUI 및/또는 API와 관련하여 명령줄 인터페이스가 이용될 수 있다는 것을 잘 알 것이다. 그에 부가하여, 하드웨어(예를 들어, 비디오 카드) 및/또는 제한된 그래픽 지원을 갖는 디스플레이(예를 들어, 흑백, EGA, VGA, SVGA, 기타) 및/또는 저대역폭 통신 채널과 관련하여 명령줄 인터페이스가 이용될 수 있다.
도 7 및 도 8은 청구된 발명 대상에 따른 방법 및/또는 흐름도를 나타낸 것이다. 설명의 간단함을 위해, 방법이 일련의 동작들로서 도시되고 기술되어 있다. 본 발명이 도시된 동작들에 의해 및/또는 동작들의 순서에 의해 제한되지 않는다는 것을 잘 알 것이다. 예를 들어, 동작들이 다양한 순서로 및/또는 동시에 행해질 수 있고 또 본 명세서에 제시되고 기술되지 않은 다른 동작들과 함께 행해질 수 있다. 게다가, 청구된 발명 대상에 따른 방법을 구현하는 데 기술된 동작들 모두가 필요한 것은 아닐 수도 있다. 그에 부가하여, 당업자라면 다른 대안으로서 이 방법이 상태도를 통한 일련의 상호관련된 상태들 또는 이벤트들로서 표현될 수 있다는 것을 잘 알 것이다. 그에 부가하여, 이후에 또 본 명세서 전체에 걸쳐 개시된 방법들이, 이러한 방법들을 컴퓨터로 전달 및 전송하는 것을 용이하게 해주기 위해, 제조 물품에 저장될 수 있다는 것도 잘 알 것이다. "제조 물품(article of manufacture)"이라는 용어는, 본 명세서에서 사용되는 바와 같이, 임의의 컴퓨터-판독가능 장치, 캐리어(carrier), 또는 매체로부터 액세스될 수 있는 컴퓨터 프로그램을 포괄하기 위한 것이다.
도 7은 3차원(3D) 개체를 구성하기 위해 장치를 이용하여 2차원(2D) 이미지를 캡처하는 것을 용이하게 해주는 방법(700)을 나타낸 것이다. 참조번호(702)에서, 2차원(2D) 콘텐츠의 일부분이 장치를 이용하여 캡처될 수 있다. 장치는 2D 콘텐츠를 캡처하거나 수집할 수 있는 임의의 적당한 장치 또는 구성요소[디지털 카메라, 비디오 카메라, 카메라, 스마트폰, 핸드헬드 장치, 웹 카메라, 모바일 장치, PDA(portable digital assistant), 휴대폰 장치, 일회용 카메라, 장치에 통합된 카메라(예를 들어, 랩톱 카메라, 데스크톱 카메라, 자동차 카메라 등), 이미지 캡처 기능을 갖는 컴퓨팅 장치 등(이들로 제한되지 않음)]일 수 있다. 게다가, 2D 콘텐츠가 이미지, 사진, 비디오(예를 들어, 비디오의 정지 프레임 등), 오디오, 그림, 미디어 데이터, 사진, 메타데이터, 거래 카드(trade card), 물리적 현실 세계의 일부분을 표현하는 모든 미디어, 개체의 그림, 물품을 표현하는 콘텐츠, 엔터티를 묘사하는 콘텐츠, 현실 세계 내의 유형 개체(corporeal object), 기타 등등일 수 있다.
참조번호(704)에서, 대응하는 조망에 기초하여 2D 콘텐츠의 2개 이상의 일부분들을 정렬함으로써 3차원 개체가 생성될 수 있다. 탐색 및 보기가 가능한 3D 개체를 조립하기 위해 콘텐츠의 조망 또는 시점에 따라서 2D 콘텐츠가 결합될 수 있다(예를 들어, 3D 개체는 전체로서 복수의 2D 이미지 또는 콘텐츠를 포함한다). 참조번호(706)에서, 장치 내에서 3D 개체의 생성이 제공된다. 환언하면, 장치는 2D 콘텐츠를 캡처하고 이러한 2D 콘텐츠로부터 3D 개체를 자동으로 생성할 수 있다. 예를 들면, 피라미드의 2D 그림들(예를 들어, 제1 측면의 제1 사진, 제2 측면의 제2 사진, 제3 측면의 제3 사진, 제4 측면의 제4 사진, 및 바닥 측면의 제5 사진)은 이 그림들을 대응하는 시점 및 중복된 콘텐츠에 맞춰 정렬함으로써 3D 가상환경에서 탐색 또는 브라우징될 수 있는 3D 개체를 조립하기 위해 집계될 수 있다. 집계되거나 수집된 2D 콘텐츠가 임의의 적절한 수의 이미지 또는 콘텐츠일 수 있다는 것을 잘 알 것이다.
도 8은 3D 개체를 재생성하는 것 또는 3D 개체와 관련된 2D 콘텐츠의 수집을 향상시키는 것을 용이하게 해주는 방법(800)을 나타낸 것이다. 참조번호(802)에서, 2차원(2D) 콘텐츠의 일부분을 캡처하는 것과 관련된 요청이 수신될 수 있다. 참조번호(804)에서, 장치에 의한 2D 캡처가 기존의 3D 개체를 재생성하는 것 또는 기존의 3D 개체를 보충하는 것 중 적어도 하나와 관련되는지 여부를 판정하기 위해 요청이 평가될 수 있다. 참조번호(806)에서, 판정된 2D 캡처에 부분적으로 기초하여 2D 콘텐츠를 수집하기 위해 장소 및 조망에 대한 안내가 제공된다.
예를 들면, 지원 또는 안내는 2D 콘텐츠를 캡처하기 위한 장치의 장소 및/또는 방향과 관련되어 있을 수 있다. 식별된 조망, 방향 등을 갖는 콘텐츠를 캡처할 시에, 3D 이미지 또는 개체가 생성될 수 있다. 지원 또는 안내가 오디오의 일부분, 비디오의 일부분, 경로, 텍스트의 일부분, 그래픽의 일부분, 지도 및/또는 (예를 들어, 재생성 또는 보충과 같이) 장치가 2D 캡처에 따라 콘텐츠를 캡처할 목적으로 장소, 조망, 각도 및/또는 방향을 식별하는 것을 용이하게 해줄 수 있는 임의의 다른 적당한 데이터일 수 있다는 것을 잘 알 것이다. 예를 들면, 장치는 경로를 갖는 지도, 및 2D 콘텐츠를 어디서 또 어느 조망, 방향, 각도, 기타 등등에서 캡처할지에 관한 사용설명서를 나타내기 위해 디스플레이를 사용할 수 있다.
청구된 발명 대상의 다양한 측면들을 구현하는 것에 대한 부가적인 상황을 제공하기 위해, 도 9 및 도 10 그리고 이하의 설명은 본 발명의 다양한 측면들이 구현될 수 있는 적당한 컴퓨팅 환경에 대한 간략하고 개괄적인 설명을 제공하기 위한 것이다. 예를 들면, 2D 이미지의 컬렉션으로부터 3D 이미지 또는 개체를 구성하는 콘텐츠 집계기를 포함하는 장치는, 이전의 도면들에서 설명된 바와 같이, 이러한 적합한 컴퓨팅 환경에서 구현될 수 있다. 청구된 발명 대상이 일반적으로 로컬 컴퓨터 및/또는 원격 컴퓨터 상에서 실행되는 컴퓨터 프로그램의 컴퓨터-실행가능 명령어와 관련하여 이상에 기술되어 있지만, 당업자라면 본 발명이 또한 다른 프로그램 모듈들과 관련하여 구현될 수 있다는 것을 잘 알 것이다. 일반적으로, 프로그램 모듈은 특정의 작업을 수행하고 및/또는 특정의 추상 데이터 유형을 구현하는 루틴, 프로그램, 구성요소, 데이터 구조, 및 기타 등등을 포함한다.
게다가, 당업자라면 본 발명의 방법이 단일-프로세서 또는 멀티프로세서 컴퓨터 시스템, 미니컴퓨터, 메인프레임 컴퓨터는 물론, 개인용 컴퓨터, 핸드헬드 컴퓨팅 장치, 마이크로프로세서-기반 및/또는 프로그램가능 가전 제품, 기타 등등(이들 각각은 하나 이상의 관련 장치들과 통신하는 동작을 할 수 있음)을 비롯한 다른 컴퓨터 시스템 구성에서도 실시될 수 있다는 것을 잘 알 것이다. 청구된 발명 대상의 예시된 실시 형태들은 또한 어떤 작업들이 통신 네트워크를 통해 연결되어 있는 원격 처리 장치들에 의해 수행되는 분산 컴퓨팅 환경에서도 실시될 수 있다. 그렇지만, 본 발명의 측면들의 전부는 아니더라도 그 일부가 독립형 컴퓨터 상에서 실시될 수 있다. 분산 컴퓨팅 환경에서는, 프로그램 모듈들이 로컬 및/또는 원격 메모리 저장 장치에 위치할 수 있다.
도 9는 청구된 발명 대상이 상호작용할 수 있는 예시적인 컴퓨팅 환경(900)의 개략 블록도이다. 시스템(900)은 하나 이상의 클라이언트(들)(910)를 포함하고 있다. 클라이언트(들)(910)는 하드웨어 및/또는 소프트웨어(예를 들어, 스레드, 프로세스, 컴퓨팅 장치)일 수 있다. 시스템(900)은 또한 하나 이상의 서버(들)(920)도 포함하고 있다. 서버(들)(920)는 하드웨어 및/또는 소프트웨어(예를 들어, 스레드, 프로세스, 컴퓨팅 장치)일 수 있다. 서버(들)(920)는, 예를 들어, 본 발명을 이용하여 변환을 수행하는 스레드를 가지고 있을 수 있다.
클라이언트(910)와 서버(920) 간의 한가지 가능한 통신은 2개 이상의 컴퓨터 프로세스들 간에 전송되도록 구성되어 있는 데이터 패킷의 형태로 되어 있을 수 있다. 시스템(900)은 클라이언트(들)(910)와 서버(들)(920) 간의 통신을 용이하게 해주는 데 이용될 수 있는 통신 프레임워크(940)를 포함하고 있다. 클라이언트(들)(910)는 클라이언트(들)(910)에 로컬인 정보를 저장하는 데 이용될 수 있는 하나 이상의 클라이언트 데이터 저장소(들)(950)에 연결되어 동작한다. 이와 유사하게, 서버(들)(920)는 서버(들)(920)에 로컬인 정보를 저장하는 데 이용될 수 있는 하나 이상의 서버 데이터 저장소(들)(930)에 접속되어 동작한다.
도 10을 참조하면, 청구된 발명 대상의 다양한 측면들을 구현하는 예시적인 환경(1000)은 컴퓨터(1012)를 포함하고 있다. 컴퓨터(1012)는 처리 장치(1014), 시스템 메모리(1016) 및 시스템 버스(1018)를 포함하고 있다. 시스템 버스(1018)는 시스템 메모리(1016)(이것으로 제한되지 않음)를 비롯한 시스템 구성요소들을 처리 장치(1014)에 연결시킨다. 처리 장치(1014)는 다양한 이용가능한 프로세서들 중 어느 것이라도 될 수 있다. 듀얼 마이크로프로세서 및 기타 멀티프로세서 아키텍처도 처리 장치(1014)로서 이용될 수 있다.
시스템 버스(1018)는 메모리 버스 또는 메모리 컨트롤러, 주변 장치 버스 또는 외부 버스, 및/또는 ISA(Industrial Standard Architecture), MCA(Micro-Channel Architecture), EISA(Extended ISA), IDE(Intelligent Drive Electronics), VESA 로컬 버스(VLB), PCI(Peripheral Component Interconnect), 카드 버스(Card Bus), USB(Universal Serial Bus), AGP(Advanced Graphics Port), PCMCIA(Personal Computer Memory Card International Association) 버스, 파이어와이어(Firewire)(IEEE 1394), 및 SCSI(Small Computer Systems Interface)(이들로 제한되지 않음)를 비롯한 각종의 이용가능한 버스 아키텍처들 중 임의의 것을 사용하는 로컬 버스를 비롯한 몇가지 유형의 버스 구조(들) 중 어느 것이라도 될 수 있다.
시스템 메모리(1016)는 휘발성 메모리(1020) 및 비휘발성 메모리(1022)를 포함한다. 시동 중과 같은 때에 컴퓨터(1012) 내의 구성요소들 간에 정보를 전송하는 기본 루틴들이 들어 있는 기본 입/출력 시스템(BIOS)은 비휘발성 메모리(1022)에 저장되어 있다. 제한이 아닌 예시로서, 비휘발성 메모리(1022)는 판독 전용 메모리(ROM), 프로그램가능 ROM(PROM), 전기적 프로그램가능 ROM(EPROM), 전기적 소거가능 프로그램가능 ROM(EEPROM), 또는 플래시 메모리를 포함할 수 있다. 휘발성 메모리(1020)는 외부 캐시 메모리로서 기능하는 랜덤 액세스 메모리(RAM)를 포함한다. 제한이 아닌 예시로서, RAM은 SRAM(static RAM), DRAM(dynamic RAM), SDRAM(synchronous DRAM), DDR SDRAM(double data rate SDRAM), ESDRAM(enhanced SDRAM), SLDRAM(Synchlink DRAM), RDRAM(Rambus direct RAM), DRDRAM(direct Rambus dynamic RAM), 및 RDRAM(Rambus dynamic RAM) 등의 많은 형태로 이용가능하다.
컴퓨터(1012)는 또한 이동식/비이동식, 휘발성/비휘발성 컴퓨터 저장 매체도 포함한다. 도 10은, 예를 들어, 디스크 저장 장치(1024)를 나타내고 있다. 디스크 저장 장치(1024)는 자기 디스크 드라이브, 플로피 디스크 드라이브, 테이프 드라이브, 재즈(Jaz) 드라이브, 집(Zip) 드라이브, LS-100 드라이브, 플래시 메모리 카드, 또는 메모리 스틱과 같은 장치들을 포함하지만, 이들로 제한되지 않는다. 그에 부가하여, 디스크 저장 장치(1024)는, 다른 저장 매체와 별도로 또는 그와 함께, CD-ROM(compact disk ROM) 장치, CD-R 드라이브(CD recordable drive), CD-RW 드라이브(CD rewritable drive) 또는 DVD-ROM(digital versatile disk ROM) 드라이브와 같은 광 디스크 드라이브(이들로 제한되지 않음)를 비롯한 저장 매체를 포함할 수 있다. 디스크 저장 장치(1024)를 시스템 버스(1018)에 연결시키는 것을 용이하게 해주기 위해, 인터페이스(1026)와 같은 이동식 또는 비이동식 인터페이스가 통상적으로 사용된다.
도 10이 사용자들과 적당한 운영 환경(1000)에 기술된 기본적인 컴퓨터 자원들 간의 중재자로서 역할하는 소프트웨어에 대해 기술하고 있다는 것을 잘 알 것이다. 이러한 소프트웨어는 운영 체제(1028)를 포함한다. 디스크 저장 장치(1024)에 저장되어 있을 수 있는 운영 체제(1028)는 컴퓨터 시스템(1012)의 자원들을 제어 및 할당하는 동작을 한다. 시스템 응용 프로그램들(1030)은 시스템 메모리(1016)에 또는 디스크 저장 장치(1024)에 저장된 프로그램 모듈들(1032) 및 프로그램 데이터(1034)를 통해 운영 체제(1028)에 의한 자원들의 관리를 이용한다. 청구된 발명 대상이 다양한 운영 체제들 또는 운영 체제들의 조합에서 구현될 수 있다는 것을 잘 알 것이다.
사용자는 입력 장치(들)(1036)를 통해 명령 또는 정보를 컴퓨터(1012)에 입력한다. 입력 장치들(1036)은 마우스, 트랙볼, 스타일러스, 터치 패드 등의 포인팅 장치, 키보드, 마이크, 조이스틱, 게임 패드, 위성 안테나, 스캐너, TV 튜너 카드, 디지털 카메라, 디지털 비디오 카메라, 웹 카메라, 기타를 포함하지만, 이들로 제한되지 않는다. 이들 및 기타 입력 장치들은 인터페이스 포트(들)(1038)를 거쳐 시스템 버스(1018)를 통해 처리 장치(1014)에 연결된다. 인터페이스 포트(들)(1038)는, 예를 들어, 직렬 포트, 병렬 포트, 게임 포트, 및 USB(universal serial bus)를 포함한다. 출력 장치(들)(1040)는 입력 장치(들)(1036)와 동일한 유형의 포트들 중 몇몇 포트를 사용한다. 이에 따라, 예를 들어, USB 포트는 컴퓨터(1012)에 입력을 제공하고 컴퓨터(1012)로부터의 정보를 출력 장치(1040)로 출력하는 데 사용될 수 있다. 출력 장치들(1040) 중에서도 특히, 특수한 어댑터를 필요로 하는 모니터, 스피커 및 프린터와 같은 어떤 출력 장치들(1040)이 있다는 것을 나타내기 위해 출력 어댑터(1042)가 제공되어 있다. 출력 어댑터(1042)는, 제한이 아닌 예시로서, 출력 장치(1040)와 시스템 버스(1018) 사이의 연결 수단을 제공하는 비디오 및 사운드 카드를 포함한다. 유의할 점은, 원격 컴퓨터(들)(1044)와 같은 다른 장치들 및/또는 장치들의 시스템들이 입력 기능 및 출력 기능 둘다를 제공한다는 것이다.
컴퓨터(1012)는 원격 컴퓨터(들)(1044) 등의 하나 이상의 원격 컴퓨터들과의 논리적 연결을 사용하여 네트워크화된 환경에서 동작할 수 있다. 원격 컴퓨터(들)(1044)는 개인용 컴퓨터, 서버, 라우터, 네트워크 PC, 워크스테이션, 마이크로프로세서-기반 가전 제품, 피어 장치 또는 기타 통상의 네트워크 노드, 기타일 수 있으며, 통상적으로 컴퓨터(1012)와 관련하여 기술한 구성요소들 중 다수 또는 그 전부를 포함한다. 간략함을 위해, 원격 컴퓨터(들)(1044)에 메모리 저장 장치(1046)만이 도시되어 있다. 원격 컴퓨터(들)(1044)는 네트워크 인터페이스(1048)를 통해 컴퓨터(1012)에 논리적으로 연결되고 이어서 통신 연결(communication connection)(1050)을 통해 물리적으로 연결된다. 네트워크 인터페이스(1048)는 LAN(local-area network) 및 WAN(wide-area network) 등의 유선 및/또는 무선 통신 네트워크를 포함한다. LAN 기술은 FDDI(Fiber Distributed Data Interface), CDDI(Copper Distributed Data Interface), 이더넷(Ethernet), 토큰링(Token Ring), 기타를 포함한다. WAN 기술은 P2P 링크(point-to-point link), ISDN(Integrated Services Digital Network) 및 그의 변형과 같은 회선 교환 네트워크, 패킷 교환 네트워크, 및 DSL(Digital Subscriber Line)을 포함하지만, 이들로 제한되지 않는다.
통신 연결(들)(1050)은 네트워크 인터페이스(1048)를 버스(1018)에 연결시키는 데 이용되는 하드웨어/소프트웨어를 말한다. 통신 연결(1050)이 설명의 명확함을 위해 컴퓨터(1012) 내부에 도시되어 있지만, 통신 연결(1050)이 컴퓨터(1012) 외부에도 있을 수 있다. 네트워크 인터페이스(1048)에 연결하는 데 필요한 하드웨어/소프트웨어가, 단지 예시를 위해, 보통의 전화급 모뎀, 케이블 모뎀 및 DSL 모뎀을 비롯한 모뎀, ISDN 어댑터 및 이더넷 카드 등의 내장형 및 외장형 기술을 포함한다.
본 발명의 일례들에 대해 이상에서 설명하였다. 물론, 청구된 발명 대상을 설명하기 위해 구성요소들 및/또는 방법들의 모든 생각가능한 조합을 다 기술할 수는 없지만, 당업자라면 본 발명의 많은 추가의 조합 및 치환이 가능하다는 것을 잘 알 것이다. 그에 따라, 청구된 발명 대상이 첨부된 청구항들의 사상 및 범위 내에 속하는 모든 이러한 변경, 수정 및 변형을 포괄하는 것으로 보아야 한다.
특히, 이상에서 기술한 구성요소, 장치, 회로, 시스템, 기타 등등에 의해 수행되는 다양한 기능들과 관련하여, 이러한 구성요소들을 기술하는 데 사용되는 용어("수단"을 포함함)가, 달리 언급하지 않는 한, 기술된 구성요소의 지정된 기능(예를 들어, 기능적 등가물)을 수행하는, 즉 개시된 구조와 구조상 등가적이지는 않더라도, 본 명세서에 예시된 청구된 발명 대상의 예시적인 측면들에서 그 기능을 수행하는 임의의 구성요소에 대응하는 것으로 보아야 한다. 이와 관련하여, 또한 본 발명이 시스템은 물론 청구된 발명 대상의 다양한 방법들의 동작 및/또는 이벤트를 수행하는 컴퓨터-실행가능 명령어들을 갖는 컴퓨터-판독가능 매체도 포함한다는 것을 잘 알 것이다.
본 발명을 구현하는 다수의 방식들, 예를 들어, 응용 프로그램 및 서비스가 본 발명의 광고 기법들을 사용할 수 있게 해주는 적절한 API, 툴 킷, 드라이버 코드, 운영 체제, 컨트롤, 독립형 또는 다운로드가능한 소프트웨어 객체, 기타 등등이 있다. 청구된 발명 대상은 API (또는 다른 소프트웨어 객체)로부터의 관점에서 뿐만 아니라, 본 발명에 따른 광고 기법들에 따라 동작하는 소프트웨어 또는 하드웨어 객체로부터의 사용을 생각하고 있다. 따라서, 본 명세서에 기술된 본 발명의 다양한 구현들이 완전히 하드웨어로 된 측면, 일부는 하드웨어로 되고 일부는 소프트웨어로 된 측면은 물론, 소프트웨어로 된 측면을 가질 수 있다.
상기한 시스템들은 몇개의 구성요소들 간의 상호 작용과 관련하여 기술되어 있다. 이러한 시스템 및 구성요소가, 이상에 기술한 것들의 다양한 치환 및 조합에 따라, 그 구성요소들 또는 지정된 하위 구성요소들, 지정된 구성요소들 또는 하위 구성요소들 중 일부, 및/또는 부가의 구성요소들을 포함할 수 있다는 것을 잘 알 수 있다. 하위 구성요소가 또한 부모 구성요소(계층적임) 내에 포함되어 있기보다는 다른 구성요소들에 통신 연결되어 있는 구성요소로서 구현될 수 있다. 그에 부가하여, 유의할 점은, 하나 이상의 구성요소가 통합된 기능을 제공하는 하나의 구성요소로 결합되거나 몇개의 분리된 서브-구성요소로 분할될 수 있고, 통합된 기능을 제공하기 위해 관리 계층과 같은 임의의 하나 이상의 중간 계층이 이러한 서브-구성요소들에 통신 연결되도록 제공될 수 있다는 것이다. 본 명세서에 기술된 임의의 구성요소들이 또한 본 명세서에 구체적으로 기술되어 있지는 않지만 당업자라면 일반적으로 알고 있는 하나 이상의 다른 구성요소들과 상호작용할 수 있다.
그에 부가하여, 본 발명의 특정의 특징이 몇가지 구현들 중 단지 하나와 관련하여 개시될 수 있지만, 임의의 주어진 또는 특정의 응용에서 요망되고 유익할 수 있는 바와 같이, 이러한 특징이 다른 구현들의 하나 이상의 다른 특징과 결합될 수 있다. 게다가, 용어 "포함한다", "포함하는", "갖는다", "내포한다", 이들의 변형, 및 기타 유사한 단어들이 상세한 설명이나 청구항에서 사용되는 한, 이러한 용어가 임의의 부가적인 또는 다른 구성요소를 배제시키지 않고 개방형 전이구(open transition word)인 용어 "포함하는"과 유사한 방식으로 포함적인 것으로 보아야 한다.

Claims (15)

  1. 3차원(3D) 개체를 구성하기 위해 2차원(2D) 데이터의 일부분을 캡처하는 것을 용이하게 해주는 시스템으로서,
    하나 이상의 2D 이미지를 캡처하는 장치(104) - 이 2D 이미지는 장치의 방향에 의해 좌우되는 조망으로부터의 유형 개체(corporeal object)를 나타냄 - 를 포함하고,
    상기 장치가 상기 장치에 의해 수집된 2개 이상의 2D 이미지로부터 3D 개체를 구성하는 콘텐츠 집계기(content aggregator)(102) - 이 구성하는 것은 각각의 2D 이미지와 관련된 각각의 대응하는 조망을 정렬시키는 것에 적어도 부분적으로 기초함 - 를 포함하는 것인 시스템.
  2. 제1항에 있어서, 상기 콘텐츠 집계기가 실질적으로 유사한 이미지의 일부분 또는 실질적으로 유사한 조망의 일부분 중 적어도 하나를 포함하는 2개 이상의 2D 이미지를 정렬시킴으로써 3D 개체를 렌더링하는 것인 시스템.
  3. 제1항에 있어서, 2D 이미지가 사진, 디지털 사진, 유형 개체의 이미지, 유형 개체를 캡처한 비디오 세그먼트로부터의 프레임, 또는 비디오의 일부분의 프레임 중 적어도 하나인 것인 시스템.
  4. 제1항에 있어서, 상기 장치가 2D 캡처 요청을 분석하는 평가기를 더 포함하며, 이 2D 캡처 요청은 2D 이미지를 캡처하기 위한 컨텍스트를 정의하고 새로운 3D 개체를 생성하는 것, 3D 개체를 재생성하는 것, 또는 기존의 3D 개체를 보충하는 것 중의 적어도 하나와 관련되어 있는 것인 시스템.
  5. 제4항에 있어서, 3D 개체가 3D 환경 내의 기존의 3D 개체, 이전에 액세스된 3D 개체, 또는 새로운 3D 개체 중 적어도 하나인지를 확인하기 위해, 평가기가 적어도 하나의 3D 개체를 원격적으로 호스팅하는 3D 환경을 이용(leverage)하는 것인 시스템.
  6. 제5항에 있어서, 상기 장치가 기존의 3D 개체를 보충하기 위한 적어도 하나의 2D 이미지를 캡처하고, 이 캡처된 2D 이미지가 기존의 3D 개체를 보충하며 3D 환경으로 전달되는 것인 시스템.
  7. 제6항에 있어서, 평가기가 기존의 3D 개체 또는 이전에 액세스된 3D 개체에 대한 사전 정의된 구조를 식별하고, 이 사전 정의된 구조가 대응하는 3D 개체를 구성하기 위해 2D 콘텐츠 및 이러한 2D 콘텐츠의 배치를 정의하는 청사진인 것인 시스템.
  8. 제7항에 있어서, 콘텐츠 집계기가 2D 이미지 내에 디스플레이된 콘텐츠를 평가하는 것에 적어도 부분적으로 기초하여 새로운 3D 개체에 대한 사전 정의된 구조를 실시간으로 생성하는 것인 시스템.
  9. 제8항에 있어서, 3D 개체에 대한 2D 콘텐츠를 캡처하기 위해 사전 정의된 구조에 따라 2D 이미지를 캡처하는 것을 알려주는 안내의 일부분을 제공하는 네비게이션 구성요소를 더 포함하고, 안내의 일부분이 지리적 장소, 조망, 장치의 각도, 장치의 방향 또는 장치의 줌 레벨 중 적어도 하나를 식별해주는 것인 시스템.
  10. 제9항에 있어서, 안내의 일부분이 오디오의 일부분, 비디오의 일부분, 경로, 지리적 지도 상의 경로, 일련의 지리적 방향들, 텍스트의 일부분, 또는 그래픽의 일부분 중 적어도 하나인 것인 시스템.
  11. 제1항에 있어서, 상기 장치가 3D 개체를 구성하는 것과 관련되어 있는 캡처된 2D 이미지에 메타데이터의 일부분을 첨부하는 실시간 태깅 구성요소를 더 포함하는 것인 시스템.
  12. 2차원(2D) 콘텐츠를 캡처하는 장치 내에 3차원(3D) 개체를 구성하는 것을 통합시키는 것을 용이하게 해주는 컴퓨터 구현 방법으로서,
    장치를 사용하여 2D 콘텐츠의 일부분을 캡처하는 단계(702, 806), 및
    대응하는 조망을 갖는 2개 이상의 2D 콘텐츠의 일부분들에 적어도 부분적으로 기초하여 2개 이상의 2D 콘텐츠의 일부분들을 정렬시킴으로써 3D 개체를 생성하는 단계(704, 706, 806) - 3D 개체의 생성이 장치 내에서 제공됨 - 를 포함하는 컴퓨터 구현 방법.
  13. 제12항에 있어서, 상기 장치를 이용하여 2D 콘텐츠의 일부분을 캡처하는 것과 관련된 요청을 수신하는 단계,
    2D 캡처 모드를 결정하기 위해 요청을 평가하는 단계 - 이 2D 캡처 모드는 기존의 3D 개체를 재생성하는 것 또는 기존의 3D 개체를 보충하는 것 중 적어도 하나임 -, 및
    결정된 2D 캡처 모드에 부분적으로 기초하여 2D 콘텐츠의 일부분을 수집하기 위해 장소 및 조망에 대한 안내를 제공하는 단계를 더 포함하는 컴퓨터 구현 방법.
  14. 제12항에 있어서, 상기 장치 내에서 캡처된 2D 콘텐츠의 일부분에 메타데이터의 일부분을 첨부하는 단계, 및
    3D 개체를 구성하기 위해 2D 콘텐츠의 캡처에 기초하여 장치 설정을 최적화하는 단계를 더 포함하는 컴퓨터 구현 방법.
  15. 장치로서,
    하나 이상의 2차원(2D) 이미지를 캡처하는 수단(104, 702) - 이 2D 이미지는 상기 장치의 방향에 의해 좌우되는 조망으로부터의 유형 개체(corporeal object)를 나타냄 - ,
    상기 장치에 의해 수집된 2개 이상의 2D 이미지로부터 3차원(3D) 개체를 구성하는 수단(102, 704, 706) - 이 구성하는 것이 각각의 2D 이미지와 관련된 각각의 대응하는 조망을 정렬시키는 것에 적어도 부분적으로 기초함 - ,
    3D 개체의 일부분을 나타내는 2D 이미지를 캡처하기 위해 지리적 장소에 대한 안내의 일부분을 생성하는 수단(202, 806),
    상기 장치의 디스플레이 또는 상기 장치의 스피커 중 적어도 하나를 통해 안내의 일부분을 전달하는 수단(202, 806),
    안내의 일부분을 생성하는 것을 용이하게 해주기 위해 장소를 식별하는 데 GPS(global positioning service) 구성요소를 이용하는 수단(202, 302),
    안내의 일부분을 생성하는 것을 용이하게 해주기 위해 상기 장치의 방향을 식별하는 데 가속도계를 이용하는 수단(202),
    캡처된 2D 이미지에 메타데이터의 일부분을 자동으로 첨부하는 수단(402) - 이 메타데이터는 지리적 장소, 콘텐츠, 또는 3D 개체와의 관계 중 적어도 하나와 관련되어 있음 - , 및
    2D 이미지 또는 구성된 3D 개체의 특성에 기초하여 상기 장치의 장치 설정을 최적화하는 수단(104, 102)을 포함하는 장치.
KR1020107027268A 2008-06-12 2009-04-21 장치에 내장된 3d 콘텐츠 집계 KR101557297B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US12/137,657 US8204299B2 (en) 2008-06-12 2008-06-12 3D content aggregation built into devices
US12/137,657 2008-06-12

Publications (2)

Publication Number Publication Date
KR20110015593A true KR20110015593A (ko) 2011-02-16
KR101557297B1 KR101557297B1 (ko) 2015-10-06

Family

ID=41414841

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020107027268A KR101557297B1 (ko) 2008-06-12 2009-04-21 장치에 내장된 3d 콘텐츠 집계

Country Status (13)

Country Link
US (1) US8204299B2 (ko)
EP (1) EP2283466B1 (ko)
JP (1) JP2011524571A (ko)
KR (1) KR101557297B1 (ko)
CN (2) CN102057401A (ko)
AU (1) AU2009257959B2 (ko)
BR (1) BRPI0912583B1 (ko)
CA (1) CA2722924C (ko)
MX (1) MX2010012826A (ko)
MY (1) MY161994A (ko)
RU (1) RU2491638C2 (ko)
WO (1) WO2009151794A1 (ko)
ZA (1) ZA201007423B (ko)

Families Citing this family (61)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8346017B2 (en) * 2008-04-30 2013-01-01 Microsoft Corporation Intermediate point between images to insert/overlay ads
US8737721B2 (en) 2008-05-07 2014-05-27 Microsoft Corporation Procedural authoring
US8988439B1 (en) 2008-06-06 2015-03-24 Dp Technologies, Inc. Motion-based display effects in a handheld device
US8678925B1 (en) 2008-06-11 2014-03-25 Dp Technologies, Inc. Method and apparatus to provide a dice application
US8587601B1 (en) * 2009-01-05 2013-11-19 Dp Technologies, Inc. Sharing of three dimensional objects
CN102725688B (zh) * 2009-07-10 2015-04-01 管理前街不同收入阶层的前街投资管理有限公司 使用单成像路径生成三维图像信息的方法和装置
US9030536B2 (en) 2010-06-04 2015-05-12 At&T Intellectual Property I, Lp Apparatus and method for presenting media content
US9787974B2 (en) 2010-06-30 2017-10-10 At&T Intellectual Property I, L.P. Method and apparatus for delivering media content
US8593574B2 (en) 2010-06-30 2013-11-26 At&T Intellectual Property I, L.P. Apparatus and method for providing dimensional media content based on detected display capability
US8918831B2 (en) 2010-07-06 2014-12-23 At&T Intellectual Property I, Lp Method and apparatus for managing a presentation of media content
US9049426B2 (en) 2010-07-07 2015-06-02 At&T Intellectual Property I, Lp Apparatus and method for distributing three dimensional media content
US9232274B2 (en) 2010-07-20 2016-01-05 At&T Intellectual Property I, L.P. Apparatus for adapting a presentation of media content to a requesting device
US9032470B2 (en) 2010-07-20 2015-05-12 At&T Intellectual Property I, Lp Apparatus for adapting a presentation of media content according to a position of a viewing apparatus
US9560406B2 (en) 2010-07-20 2017-01-31 At&T Intellectual Property I, L.P. Method and apparatus for adapting a presentation of media content
US8994716B2 (en) 2010-08-02 2015-03-31 At&T Intellectual Property I, Lp Apparatus and method for providing media content
US8438502B2 (en) 2010-08-25 2013-05-07 At&T Intellectual Property I, L.P. Apparatus for controlling three-dimensional images
US8947511B2 (en) 2010-10-01 2015-02-03 At&T Intellectual Property I, L.P. Apparatus and method for presenting three-dimensional media content
US20120197428A1 (en) * 2011-01-28 2012-08-02 Scott Weaver Method For Making a Piñata
US8810598B2 (en) 2011-04-08 2014-08-19 Nant Holdings Ip, Llc Interference based augmented reality hosting platforms
US9310403B2 (en) * 2011-06-10 2016-04-12 Alliance For Sustainable Energy, Llc Building energy analysis tool
US9602766B2 (en) 2011-06-24 2017-03-21 At&T Intellectual Property I, L.P. Apparatus and method for presenting three dimensional objects with telepresence
US9030522B2 (en) 2011-06-24 2015-05-12 At&T Intellectual Property I, Lp Apparatus and method for providing media content
US9445046B2 (en) 2011-06-24 2016-09-13 At&T Intellectual Property I, L.P. Apparatus and method for presenting media content with telepresence
US8947497B2 (en) 2011-06-24 2015-02-03 At&T Intellectual Property I, Lp Apparatus and method for managing telepresence sessions
US8837813B2 (en) * 2011-07-01 2014-09-16 Sharp Laboratories Of America, Inc. Mobile three dimensional imaging system
US8587635B2 (en) 2011-07-15 2013-11-19 At&T Intellectual Property I, L.P. Apparatus and method for providing media services with telepresence
CN102411793A (zh) * 2011-08-10 2012-04-11 上海福家网络科技有限公司 一种三维场景中的物体显示方法
US9606992B2 (en) * 2011-09-30 2017-03-28 Microsoft Technology Licensing, Llc Personal audio/visual apparatus providing resource management
WO2013084234A1 (en) * 2011-12-05 2013-06-13 Rotary View Ltd. System and method for generating a stereoscopic 3d presentation from picture sequence emanating from single lens source
WO2013086137A1 (en) 2011-12-06 2013-06-13 1-800 Contacts, Inc. Systems and methods for obtaining a pupillary distance measurement using a mobile computing device
US20140358917A1 (en) * 2012-01-23 2014-12-04 Duke University System and method for remote image organization and analysis
US9052208B2 (en) 2012-03-22 2015-06-09 Nokia Technologies Oy Method and apparatus for sensing based on route bias
US9483853B2 (en) 2012-05-23 2016-11-01 Glasses.Com Inc. Systems and methods to display rendered images
US20130314401A1 (en) 2012-05-23 2013-11-28 1-800 Contacts, Inc. Systems and methods for generating a 3-d model of a user for a virtual try-on product
US9286715B2 (en) 2012-05-23 2016-03-15 Glasses.Com Inc. Systems and methods for adjusting a virtual try-on
US9311310B2 (en) * 2012-10-26 2016-04-12 Google Inc. System and method for grouping related photographs
US9177404B2 (en) * 2012-10-31 2015-11-03 Qualcomm Incorporated Systems and methods of merging multiple maps for computer vision based tracking
US9554049B2 (en) * 2012-12-04 2017-01-24 Ebay Inc. Guided video capture for item listings
US9342929B2 (en) * 2013-01-22 2016-05-17 Microsoft Technology Licensing, Llc Mixed reality experience sharing
CN103079030A (zh) * 2013-01-30 2013-05-01 清华大学 存储卡及含有该存储卡的3d图像或视频的生成装置
US9417697B2 (en) 2013-03-08 2016-08-16 Qualcomm Incorporated 3D translator device
US10278584B2 (en) 2013-03-11 2019-05-07 Carestream Dental Technology Topco Limited Method and system for three-dimensional imaging
EP2973417B1 (en) 2013-03-11 2020-07-15 Carestream Dental Technology Topco Limited A method and system for three-dimensional imaging
US9294757B1 (en) 2013-03-15 2016-03-22 Google Inc. 3-dimensional videos of objects
EP2984448B1 (en) * 2013-04-08 2021-02-24 SNAP Inc. Distance estimation using multi-camera device
US9338440B2 (en) 2013-06-17 2016-05-10 Microsoft Technology Licensing, Llc User interface for three-dimensional modeling
US9201900B2 (en) * 2013-08-29 2015-12-01 Htc Corporation Related image searching method and user interface controlling method
US9582516B2 (en) 2013-10-17 2017-02-28 Nant Holdings Ip, Llc Wide area augmented reality location-based services
US9508172B1 (en) * 2013-12-05 2016-11-29 Google Inc. Methods and devices for outputting a zoom sequence
EP3137177A4 (en) * 2014-04-30 2017-12-13 Aurasma Limited An augmented gaming platform
RU2596449C1 (ru) * 2015-06-26 2016-09-10 Общество с ограниченной ответственностью "Производственное объединение "Зарница" Учебный интерактивный стенд
US20170046891A1 (en) * 2015-08-12 2017-02-16 Tyco Fire & Security Gmbh Systems and methods for location identification and tracking using a camera
CA2948761A1 (en) 2015-11-23 2017-05-23 Wal-Mart Stores, Inc. Virtual training system
US10220172B2 (en) 2015-11-25 2019-03-05 Resmed Limited Methods and systems for providing interface components for respiratory therapy
US10732809B2 (en) 2015-12-30 2020-08-04 Google Llc Systems and methods for selective retention and editing of images captured by mobile image capture device
US10225511B1 (en) 2015-12-30 2019-03-05 Google Llc Low power framework for controlling image sensor mode in a mobile image capture device
US10523865B2 (en) 2016-01-06 2019-12-31 Texas Instruments Incorporated Three dimensional rendering for surround view using predetermined viewpoint lookup tables
US10824320B2 (en) * 2016-03-07 2020-11-03 Facebook, Inc. Systems and methods for presenting content
WO2017218834A1 (en) 2016-06-17 2017-12-21 Kerstein Dustin System and method for capturing and viewing panoramic images having motion parralax depth perception without images stitching
US10008046B2 (en) * 2016-06-29 2018-06-26 Here Global B.V. Method, apparatus and computer program product for adaptive venue zooming in a digital map interface
US11546381B1 (en) * 2021-11-08 2023-01-03 Beijing Bytedance Network Technology Co., Ltd. Unified data security labeling framework

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5301117A (en) 1991-10-30 1994-04-05 Giorgio Riga Method for creating a three-dimensional corporeal model from a very small original
US5748199A (en) 1995-12-20 1998-05-05 Synthonics Incorporated Method and apparatus for converting a two dimensional motion picture into a three dimensional motion picture
GB2317007B (en) 1996-09-04 2000-07-26 Spectrum Tech Ltd Contrast determining apparatus and methods
US6094215A (en) * 1998-01-06 2000-07-25 Intel Corporation Method of determining relative camera orientation position to create 3-D visual images
US6333749B1 (en) 1998-04-17 2001-12-25 Adobe Systems, Inc. Method and apparatus for image assisted modeling of three-dimensional scenes
JP4119529B2 (ja) * 1998-06-17 2008-07-16 オリンパス株式会社 仮想環境生成方法および装置、並びに仮想環境生成プログラムを記録した記録媒体
US6434265B1 (en) * 1998-09-25 2002-08-13 Apple Computers, Inc. Aligning rectilinear images in 3D through projective registration and calibration
US6456287B1 (en) 1999-02-03 2002-09-24 Isurftv Method and apparatus for 3D model creation based on 2D images
US7343195B2 (en) * 1999-05-18 2008-03-11 Mediguide Ltd. Method and apparatus for real time quantitative three-dimensional image reconstruction of a moving organ and intra-body navigation
US6571024B1 (en) * 1999-06-18 2003-05-27 Sarnoff Corporation Method and apparatus for multi-view three dimensional estimation
JP3387856B2 (ja) * 1999-08-06 2003-03-17 キヤノン株式会社 画像処理方法、画像処理装置および記憶媒体
US20020158873A1 (en) 2001-01-26 2002-10-31 Todd Williamson Real-time virtual viewpoint in simulated reality environment
US7194112B2 (en) * 2001-03-12 2007-03-20 Eastman Kodak Company Three dimensional spatial panorama formation with a range imaging system
US7146576B2 (en) * 2001-10-30 2006-12-05 Hewlett-Packard Development Company, L.P. Automatically designed three-dimensional graphical environments for information discovery and visualization
US7046840B2 (en) 2001-11-09 2006-05-16 Arcsoft, Inc. 3-D reconstruction engine
US7142726B2 (en) 2003-03-19 2006-11-28 Mitsubishi Electric Research Labs, Inc. Three-dimensional scene reconstruction from labeled two-dimensional images
JP4266736B2 (ja) * 2003-07-31 2009-05-20 キヤノン株式会社 画像処理方法および装置
JP2005174024A (ja) * 2003-12-11 2005-06-30 Canon Inc 画像生成装置及び方法
CA2455359C (en) * 2004-01-16 2013-01-08 Geotango International Corp. System, computer program and method for 3d object measurement, modeling and mapping from single imagery
US7292257B2 (en) * 2004-06-28 2007-11-06 Microsoft Corporation Interactive viewpoint video system and process
CN1664884A (zh) * 2005-03-02 2005-09-07 西安四维航测遥感中心 城区三维可视与可量测立体地形图制作方法
KR20060131145A (ko) 2005-06-15 2006-12-20 엘지전자 주식회사 이차원 영상을 이용한 삼차원 물체의 렌더링 방법
US7840032B2 (en) 2005-10-04 2010-11-23 Microsoft Corporation Street-side maps and paths
US20070076096A1 (en) 2005-10-04 2007-04-05 Alexander Eugene J System and method for calibrating a set of imaging devices and calculating 3D coordinates of detected features in a laboratory coordinate system
US7605817B2 (en) 2005-11-09 2009-10-20 3M Innovative Properties Company Determining camera motion
US7912257B2 (en) * 2006-01-20 2011-03-22 3M Innovative Properties Company Real time display of acquired 3D dental data
US7856125B2 (en) * 2006-01-31 2010-12-21 University Of Southern California 3D face reconstruction from 2D images
WO2007117535A2 (en) 2006-04-07 2007-10-18 Sick, Inc. Parcel imaging system and method
RU2006118145A (ru) * 2006-05-26 2007-12-20 Самсунг Электроникс Ко., Лтд. (KR) Способ и система видеонаблюдения
TWI286715B (en) * 2006-06-21 2007-09-11 Univ Feng Chia System of simulating 3D virtual reality navigation
CN100465999C (zh) * 2006-10-26 2009-03-04 上海交通大学 基于激光扫描的沉箱三维场景重建与挖掘机避碰系统

Also Published As

Publication number Publication date
BRPI0912583A2 (pt) 2015-10-13
ZA201007423B (en) 2012-01-25
US8204299B2 (en) 2012-06-19
EP2283466A1 (en) 2011-02-16
RU2491638C2 (ru) 2013-08-27
WO2009151794A1 (en) 2009-12-17
CN102057401A (zh) 2011-05-11
MX2010012826A (es) 2010-12-07
CN107123141A (zh) 2017-09-01
JP2011524571A (ja) 2011-09-01
KR101557297B1 (ko) 2015-10-06
CA2722924A1 (en) 2009-12-17
AU2009257959A1 (en) 2009-12-17
CA2722924C (en) 2016-08-30
EP2283466A4 (en) 2011-10-26
AU2009257959B2 (en) 2014-06-12
US20090310851A1 (en) 2009-12-17
MY161994A (en) 2017-05-31
EP2283466B1 (en) 2018-12-05
RU2010150798A (ru) 2012-06-20
BRPI0912583B1 (pt) 2020-02-18

Similar Documents

Publication Publication Date Title
KR101557297B1 (ko) 장치에 내장된 3d 콘텐츠 집계
US10769438B2 (en) Augmented reality
JP5053404B2 (ja) 関連メタデータに基づくデジタル画像のキャプチャと表示
US8447136B2 (en) Viewing media in the context of street-level images
CN102609431B (zh) 利用地理数据呈现媒体内容项目
US8346017B2 (en) Intermediate point between images to insert/overlay ads
US20090295791A1 (en) Three-dimensional environment created from video
US20140317511A1 (en) Systems and Methods for Generating Photographic Tours of Geographic Locations
Tompkin et al. Videoscapes: exploring sparse, unstructured video collections
US20170064289A1 (en) System and method for capturing and displaying images
Hoelzl et al. Google Street View: navigating the operative image
Zhang et al. Annotating and navigating tourist videos
EP3151243B1 (en) Accessing a video segment
Tompkin et al. Video collections in panoramic contexts
Uusitalo et al. A solution for navigating user-generated content
Fujita et al. Creating animation with personal photo collections and map for storytelling
Tompkin et al. Supplementary Material for Videoscapes: Exploring Sparse, Unstructured Video Collections
Ying Summarization from multiple user generated videos in geo-space
TW201941075A (zh) 快速影像排序方法
Tompkin et al. Videoscapes: Exploring Unstructured Video Collections

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
N231 Notification of change of applicant
FPAY Annual fee payment

Payment date: 20180903

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20190829

Year of fee payment: 5