KR101820349B1 - 화상 표시 방법 및 장치 - Google Patents

화상 표시 방법 및 장치 Download PDF

Info

Publication number
KR101820349B1
KR101820349B1 KR1020167027050A KR20167027050A KR101820349B1 KR 101820349 B1 KR101820349 B1 KR 101820349B1 KR 1020167027050 A KR1020167027050 A KR 1020167027050A KR 20167027050 A KR20167027050 A KR 20167027050A KR 101820349 B1 KR101820349 B1 KR 101820349B1
Authority
KR
South Korea
Prior art keywords
image
images
displayed
reconstructed
parameter
Prior art date
Application number
KR1020167027050A
Other languages
English (en)
Other versions
KR20160130793A (ko
Inventor
루이 아이
탕우 두
즈하오얀 지앙
리 리우
시안펭 랑
Original Assignee
바이두 온라인 네트웍 테크놀러지 (베이징) 캄파니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 바이두 온라인 네트웍 테크놀러지 (베이징) 캄파니 리미티드 filed Critical 바이두 온라인 네트웍 테크놀러지 (베이징) 캄파니 리미티드
Publication of KR20160130793A publication Critical patent/KR20160130793A/ko
Application granted granted Critical
Publication of KR101820349B1 publication Critical patent/KR101820349B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/005General purpose rendering architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9537Spatial or temporal dependent retrieval, e.g. spatiotemporal queries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/54Browsing; Visualisation therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/5866Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, manually generated location and time information
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/587Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using geographical or spatial information, e.g. location
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/951Indexing; Web crawling techniques
    • G06F17/30247
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Library & Information Science (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Hardware Design (AREA)
  • Processing Or Creating Images (AREA)
  • Studio Devices (AREA)
  • Image Generation (AREA)

Abstract

본 출원은 화상 표시 방법 및 장치를 개시한다. 상기 방법의 일 구체적인 실시예는 동일한 정경을 포함한 원본 화상 집합을 획득하는 단계와, 원본 화상 집합으로부터 상기 정경의 3D 구조를 재구성하기 위한 재구성 화상 집합을 선택하고, 재구성 화상 집합 중의 재구성 화상들을 이용하여 정경의 3D 구조를 재구성하는 단계와, 재구성 화상 집합으로부터 표시하고자 하는 화상 집합을 선택하는 단계와, 표시하고자 하는 화상 집합 중의 표시하고자 하는 화상들의 표시 순서를 확정하고, 표시하고자 하는 화상들의 표시 순서에 따라 화상 표시 서열을 생성하는 단계와, 화상 표시 서열 중의 화상들을 연속적으로 표시하는 단계를 포함한다. 해당 실시예는 동일한 정경을 포함한 화상을 획득하여 화상들 사이의 연관 관계에 따라 화상의 표시 서열을 확정하고, 확정된 표시 순서에 따라 화상을 연속적으로 표시함으로써, 화상을 표시함에 있어서의 화상 속 정경의 공간적 연속성을 증강시킨다.

Description

화상 표시 방법 및 장치{PICTURE PRESENTATION METHOD AND APPARATUS}
본 출원은 컴퓨터 기술 분야에 관한 것으로, 구체적으로는 화상 처리 분야에 관한 것이며, 특히 화상 표시 방법 및 장치에 관한 것이다.
본 출원은 2015년 03월 31일에 제출한, 출원 번호가 "201510150163.2"인 중국 특허 출원의 우선권을 주장하는 바, 상기 중국 특허 출원의 모든 내용은 전체로서 본 발명에 원용된다.
현재, 일부 애플리케이션에서는 사용자가 공유한 동일한 정경을 포함한 다수의 화상(예를 들어, 사용자가 관광지에서 찍은 사진)을 표시하여 사용자가 공유한 화상들 사이의 연관성을 증가함으로써, 사용자 경험을 향상시킨다. 이미 알려진 기술에 있어서, 사용자가 업로드한 화상을 획득한 후, 동일한 정경을 포함한 화상들을 무질서하게 배열하므로 화상을 통해 표시되는 화상 속 정경이 단일해질 뿐만 아니라, 나아가 화상 속 정경의 특점들을 전체적으로 반영할 수 없으므로 화상이 표현하는 정경의 내용이 풍부하지 못하고 사용자가 화상을 브라우징함에 있어서의 경험이 저하시킨다.
본 출원은 상기 배경 기술 부분에서 언급된 기술적 문제를 해결하기 위해 안출한 것으로, 화상 표시 방법 및 장치를 제공하고자 한다.
제1 방면에 있어서, 본 출원은 화상 표시 방법을 제공하며, 상기 방법은, 동일한 정경을 포함한 원본 화상 집합을 획득하는 단계와, 원본 화상 집합으로부터 정경의 3D 구조를 재구성하기 위한 재구성 화상 집합을 선택하고, 재구성 화상 집합 중의 재구성 화상들을 이용하여 3D 특징 포인트를 포함하는 정경의 3D 구조를 재구성하는 단계와, 재구성 화상 집합으로부터 포함한 3D 특징 포인트의 수량이 기정 역치보다 큰 표시하고자 하는 화상 집합을 선택하는 단계와, 표시하고자 하는 화상 집합 중의 표시하고자 하는 화상들의 표시 순서를 확정하고, 표시하고자 하는 화상들의 표시 순서에 따라 화상 표시 서열을 생성하는 단계와, 화상 표시 서열 중의 화상들을 연속적으로 표시하는 단계를 포함한다.
제2 방면에 있어서, 본 출원은 화상 표시 장치를 제공하며, 상기 장치는, 동일한 정경을 포함한 원본 화상 집합을 획득하도록 구성된 획득 모듈; 원본 화상 집합으로부터 정경의 3D 구조를 재구성하기 위한 재구성 화상 집합을 선택하고, 재구성 화상 집합 중의 재구성 화상들을 이용하여 정경의 3D 구조를 재구성하도록 구성되되, 정경의 3D 구조는 3D 특징 포인트를 포함하는 재구성 모듈; 재구성 화상 집합으로부터 포함한 3D 특징 포인트의 수량이 기정 역치보다 큰 표시하고자 하는 화상 집합을 선택하도록 구성된 선택 모듈; 표시하고자 하는 화상 집합 중의 표시하고자 하는 화상들의 표시 순서를 확정하고, 표시하고자 하는 화상들의 표시 순서에 따라 화상 표시 서열을 생성하도록 구성된 확정 모듈; 및 화상 표시 서열 중의 화상들을 연속적으로 표시하도록 구성된 표시 모듈을 포함한다.
본 출원에 제공된 화상 표시 방법 및 장치는, 동일한 정경을 포함한 화상을 획득하여 화상들 사이의 연관 관계에 근거하여 화상의 표시 서열을 확정하고, 확정된 표시 순서에 따라 화상을 연속적으로 표시하여 화상을 표시함에 있어서의 화상 속 정경의 공간적 연속성을 증강시킴으로써 화상이 표현하는 정경의 내용을 풍부하게 하고, 나아가, 화상들 사이에 과도 화상을 삽입함으로써 화상 속의 정경이 공간상 연속적으로 표시되는 과정에서 매끄러운 과도를 실현하도록 한다.
본 출원의 기타 특징, 목적 및 장점들은 아래 첨부된 도면을 참조하여 진행한 비한정적 실시예들에 대한 상세한 설명으로부터 더욱 명확해 질 것이다.
도 1은 본 출원에 따른 화상 표시 방법의 일 실시예의 흐름도를 나타낸다.
도 2는 본 출원에 따른 화상 표시 방법의 다른 일 실시예의 흐름도를 나타낸다.
도 3은 본 출원에 따른 화상 표시 방법 중 과도 화상을 삽입시키는 과정의 일 예시적 개략도를 나타낸다.
도 4는 본 출원에 따른 화상 표시 장치의 일 실시예의 구조적 개략도를 나타낸다.
도 5는 본 출원에 적합한 컴퓨터 시스템의 구조적 개략도를 나타낸다.
이하, 첨부된 도면 및 실시예들을 결합하여 본 출원에 대한 더욱 상세한 설명을 진행하기로 한다. 여기에 설명된 구체적인 실시예들은 단지 관련된 발명을 해석하기 위한 것일 뿐, 해당 발명을 한정하기 위한 것이 아님을 이해할 것이다. 또한, 설명의 편의를 위하여 첨부된 도면에서는 오직 발명에 관련되는 부분만 도시하였다.
본 출원의 실시예 및 실시예 중의 특징들은 모순되지 않는 한 서로 조합될 수 있음을 자명할 것이다. 이하, 첨부된 도면을 참조하고 실시예들을 결합하여 본 출원에 대한 상세한 설명을 진행하기로 한다.
도 1을 참조하면, 도 1은 본 출원에 따른 화상 표시 방법의 일 실시예의 흐름(100)을 나타낸다. 해당 방법은 아래와 같은 단계들을 포함한다.
단계(101)에서, 동일한 정경을 포함한 원본 화상 집합을 획득한다.
본 실시예에 있어서, 동일한 정경(예를 들어, 관광지)을 포함한 원본 화상은 사용자가 공유한 UGC(User Generated Content; 사용자 생성 내용) 화상일 수 있다. 일 실시예에 있어서, 서로 다른 사이트에서 주동적으로 화상을 포획하는 방식으로 동일한 정경을 포함한 원본 화상을 획득할 수 있다. 예를 들어, 서로 다른 사이트에서 화상 명칭에 동일한 관광지의 명칭이 포함된 원본 화상을 포획함으로써 동일한 관광지를 포함한 원본 화상을 획득할 수 있다.
본 실시예의 일부 선택적인 실시예에 있어서, 동일한 정경을 포함한 원본 화상 집합을 획득하는 단계는, 정경에 대응되는 지리적 위치 정보를 포함하는 정경 선택 명령을 수신하는 단계와, 지리적 위치 정보에 근거하여 지리적 위치 정보에 대응되는 원본 화상 집합을 획득하는 단계를 포함한다. 먼저 서로 다른 여러 개의 정경(예를 들어, 관광지)에 관한 화상들을 사용자에게 표시할 수 있고, 화상에 대한 사용자의 선택 조작(예를 들어, 클릭 조작)에 따라 사용자가 브라우징하고자 하는 정경을 확정할 수 있다. 사용자가 브라우징하고자 하는 정경을 확정한 후, 진일보로 해당 정경에 대응되는 주소 정보를 확정하며, 여기서 정경과 정경의 주소 정보 사이의 대응관계는 미리 설정될 수 있다. 정경의 주소 정보를 확정한 후, 원래의 정보에 기록된 촬영 위치 정보와 정경의 주소 정보를 매칭시켜 촬영 위치 정보에 기록된 촬영 위치와 정경의 주소 정보가 일치한 화상을 선택함으로써 동일한 정경을 포함한 원본 화상을 선택할 수 있다.
본 실시예의 일부 선택적인 실시예에 있어서, 동일한 정경을 포함한 원본 화상 집합을 획득하는 단계 이후, 원본 화상 집합에 대해 선처리 조작을 진행하는 단계를 더 포함하고, 여기서, 선처리 조작은 원본 화상 집합에서 화상 품질이 기정 값보다 낮은 원본 화상을 필터링하는 조작 및 원본 화상 집합 중의 원본 화상의 촬영 위치를 정상적인 촬영 자태로 교정하는 조작 중 적어도 임의의 하나를 포함한다.
화상 속의 EXIF(Exchangeable Image File; 교환 가능한 이미지 파일) 정보에 근거하여 원본 화상에 대해 필터링 조작을 진행함으로써 화상 형성 품질이 비교적 낮은 화상을 필터링할 수 있다. 이와 동시에, 원본 화상에 대해 이미지 교정 조작을 진행할 수 있다. 즉 이미지가 정상적인 촬영 자태로 조정되도록 원본 화상 속의 이미지에 대해 회전 조작을 진행할 수 있다. 화상을 선택하는 방식을 이용하여 정경의 3D 구조의 재구성과 연관성이 낮은 화상을 제거할 수 있다.
단계(102)에서, 원본 화상 집합으로부터 정경의 3D 구조를 재구성하기 위한 재구성 화상 집합을 선택하고, 재구성 화상 집합 중의 재구성 화상들을 이용하여 정경의 3D 구조를 재구성한다.
본 실시예에 있어서, 동일한 정경을 포함한 원본 화상을 획득한 후, 동일한 정경을 포함한 원본 화상을 이용하여 정경의 3D 구조를 재구성할 수 있다. 동일한 정경을 포함한 각 원본 화상에서 일정한 수량의 특징 포인트를 선택하여 정경의 3D 구조의 재구성에 사용할 수 있다. 특징 포인트는 원본 화상 속의 정경의 윤곽을 나타내는 포인트일 수 있다. 원본 화상 속의 정경이 관광지 용문석굴인 경우를 예로 들면, 특징 포인트는 원본 화상 속의 정경의 윤곽을 나타내는 포인트일 수 있으며, 용문석굴 내의 부처상의 다수의 대상(예를 들어, 부처상의 얼굴 부분, 눈 부분, 손 부분)의 윤곽 상에서 특징 포인트를 선택할 수 있다. 특징 포인트를 이용하여 정경의 3D 구조를 재구성한 후, 사용자가 UGC 화상을 브라우징하는 인터페이스에 정경의 3D 구조를 표시하고, 동시에 정경의 3D 구조의 상응한 위치에서 정경의 3D 구조를 합성하기 위한 화상의 촬영 위치를 표기할 수도 있으며, 이로써 화상과 정경 사이의 연관성을 진일보 향상시킬 수 있다.
본 실시예의 일부 선택적인 실시예에 있어서, 원본 화상 집합으로부터 정경의 3D 구조를 재구성하기 위한 재구성 화상 집합을 선택하는 단계는, 원본 화상 집합 중 원본 화상의 스케일 불변 특징 포인트를 추출하는 단계와, 원본 화상들 사이의 스케일 불변 특징 포인트의 매칭 관계에 근거하여 원본 화상 집합으로부터 정경의 3D 구조를 재구성하기 위한 재구성 화상 집합을 선택하는 단계를 포함한다.
선택적으로, 원본 화상의 SIFT(Scale-Invariant Feature Transform; 스케일 불변 특징 변환) 특징 포인트에 기반하여, 원본 화상으로부터 정경의 3D 구조를 재구성하기 위한 재구성 화상을 선택할 수 있다. 먼저 원본 화상들 사이의 SIFT 특징 포인트의 매칭 관계에 따라 원본 화상들 사이에 연관 관계가 존재하는지를 확정할 수 있다. 아래에 하나의 원본 화상과 기타 원본 화상들 사이에 연관 관계가 존재하는지를 확정하는 방식을 예로 들어 상기 과정에 대한 설명을 진행하기로 한다. 하나의 원본 화상과 기타 원본 화상들 사이에 연관 관계가 존재하는지를 확정하는 방식으로서, 해당 원본 화상을 기타 원본 화상의 SIFT 특징 포인트를 매칭시켜, 예를 들어 2개의 특징 포인트 사이의 유클리디언 거리를 계산하는 방식을 이용하여, 화상들 사이의 매칭되는 SIFT 특징 포인트의 수량을 확정할 수 있다. 매칭되는 SIFT 특징 포인트의 수량이 기정 역치보다 클 경우, 상기 원본 화상과 기타 원본 화상들 사이에 연관 관계가 존재함을 확정할 수 있다. 상기 방식에 의하면, 다수의 원본 화상 중의 각 원본 화상과 기타 원본 화상 중의 기타 원본 화상들 사이에 연관 관계가 존재하는지를 각각 확정할 수 있다.
예를 들어, 먼저 원본 화상들 사이의 연관 관계를 나타내는 데이터 구조 중의 K-D 트리 구조를 구축할 수 있고, 여기서, 각 원본 화상은 K-D 트리에서 하나의 절점으로 표시될 수 있으며, K-D 트리 구조를 이용하여 절점들 사이의 연관 관계를 획득하여 절점에 대응되는 원본 화상들 사이의 연관 관계를 확정할 수 있다.
원본 화상들 사이의 연관 관계를 확정한 후, 연관 관계가 존재하는 원본 화상에 근거하여 정경의 3D 구조를 재구성하기 위한 화상(또는 재구성 화상)을 선택할 수 있다. 예를 들어, 데이터 구조 중의 그래픽 구조를 이용하되, 여기서 연관 관계를 가지는 원본 화상 중의 각 원본 화상은 그래픽 구조에서 하나의 절점으로 표시되고, 원본 화상들 사이의 연관 관계는 연결선으로 표시될 수 있다. 절점들 사이의 연결 관계를 나타내는 다수의 서브 그래프들로부터 절점의 수량이 가장 많은 서브 그래프를 선택할 수 있다. 해당 서브 그래프에서 절점에 대응되는 원본 화상을 정경의 3D 구조를 재구성하는 재구성 화상으로 간주한다.
본 실시예의 일부 선택적인 실시예에 있어서, 재구성 화상 집합 중의 재구성 화상들을 이용하여 3D 특징 포인트를 포함하는 정경의 3D 구조를 재구성하는 단계는, 재구성 화상 집합 중의 재구성 화상의 스케일 불변 특징 포인트에 기반하여 카메라 파라미터를 복원하는 단계와, 재구성 화상의 스케일 불변 특징 포인트 및 카메라 파라미터에 기반하여 정경의 3D 구조를 재구성하는 단계를 포함하되, 카메라 파라미터는 카메라 내부 파라미터와 카메라 외부 파라미터를 포함하고, 카메라 내부 파라미터는 초점 거리 및 주요 포인트 오프셋(principal point offset)을 포함한다. 여기서, 주요 포인트 오프셋은, 카메라 렌즈의 주축과 카메라 센서 어레이가 위치한 평면의 교점에서부터 화상의 중심점까지의 거리일 수 있다. 카메라 외부 파라미터는 카메라 좌표계가 표준 좌표계(world coordinate system)에 대한 회전 및 평행 이동을 나타낼 수 있고, 카메라 외부 파라미터는 카메라 내부 파라미터에 의해 확정될 수 있다.
선택적으로, 재구성 화상 집합 중의 재구성 화상의 스케일 불변 특징 포인트에 기반하여, 카메라 파라미터를 복원하는 과정에서, 복원된 카메라 파라미터를 최적화시키되, 우선적으로 카메라 외부 파라미터를 최적화시킬 수 있다.
단계(103)에서, 재구성 화상 집합으로부터 표시하고자 하는 화상 집합을 선택하되, 표시하고자 하는 화상 집합에 포함된 3D 특징 포인트의 수량은 기정 역치보다 크다.
본 실시예에 있어서, 정경의 3D 구조를 재구성한 다음, 정경의 3D 구조를 재구성하기 위한 화상들(또는 재구성 화상들)로부터 사용자에게 표시하게 될 일부 화상(또는 표시하고자 하는 화상)을 선택할 수 있다. 본 실시예에서, 재구성 화상들로부터 다수의 표시하고자 하는 화상을 선택할 수 있고, 선택된 다수의 표시하고자 하는 화상은 아래의 조건을 만족하는 화상일 수 있다. 즉, 선택된 다수의 표시하고자 하는 화상들 사이에 포함된 상이한 특징 포인트들은 재구성된 정경의 3D 구조를 커버할 수 있다. 표시하고자 하는 화상의 특징 포인트들이 정경의 3D 구조의 재구성에 사용되므로, 다수의 표시하고자 하는 화상들의 특징 포인트들과 정경의 3D구조의 3D 특징 포인트들 사이의 대응 관계를 확정할 수 있다. 선택된 다수의 표시하고자 하는 화상들 사이에 포함된 상이한 특징 포인트들이 재구성된 정경의 3D 구조를 커버할 수 있을 경우, 표시하고자 하는 화상들은 정경을 더욱 풍부하게 표현할 수 있다. 즉, 표시하고자 하는 화상은 정경의 다수의 각도로부터 정경을 표시할 수 있다.
본 실시예의 일부 선택적인 실시예에 있어서, 단계(103)는, 재구성 화상들로부터 포함한 3D 특징 포인트의 수량이 기타 임의의 재구성 화상에 포함된 3D 특징 포인트의 수량보다 많은 표시하고자 하는 기준 화상을 선택하는 단계와, 표시하고자 하는 기준 화상에 근거하여 재구성 화상으로부터 제1 기정 조건을 만족하는 다수의 표시하고자 하는 후속적인 화상들을 순차적으로 선택하는 단계를 포함하되, 제1 기정 조건은 표시하고자 하는 후속적인 화상과 바로 전에 선택된 표시하고자 하는 후속적인 화상들 사이에 포함된 상이한 3D 특징 포인트의 수량이 표시하고자 하는 후속적인 화상으로 선택되지 않은 재구성 화상과 바로 전에 선택된 표시하고자 하는 후속적인 화상들 사이에 포함된 상이한 3D 특징 포인트의 수량보다 많은 것을 포함할 수 있다.
선택적으로, 표시하고자 하는 화상에 포함된 3D 특징 포인트는 3D 특징 포인트에 대응되고 정경의 3D 구조의 재구성에 관련되는 SIFT 특징 포인트를 의미할 수 있고, 여기서, 해당 SIFT 특징 포인트는 재구성 화상들 사이의 매칭되는 SIFT 특징 포인트일 수 있다. 재구성 화상들 사이의 매칭되는 SIFT 특징 포인트를 이용하여 정경의 3D 구조를 재구성할 경우, SIFT 특징 포인트와 정경의 3D 구조의 3D 특징 포인트 사이에는 대응 관계가 존재한다.
이하, 다수의 재구성 화상들 속의 정경(예를 들어, 용문석굴)의 하나의 대상(예를 들어, 부처상의 눈 부분 대상)을 예로 들어 표시하고자 하는 화상을 선택하는 과정에 대한 설명을 진행하기로 한다. 먼저 재구성 화상들로부터 첫 번째로 표시하고자 하는 화상으로 선택되는 화상으로서 3D 특징 포인트를 가장 많이 포함한 화상을 선택할 수 있고, 이어서, 두 번째로 표시하고자 하는 화상으로 선택될 화상은 그와 첫 번째로 표시하고자 하는 화상들 사이에 포함된 상이한 3D 특징 포인트가 기타 재구성 화상에 대비하여 가장 많아야 되는 조건을 만족해야 한다. 상기와 같은 원리에 따라, 표시하고자 하는 화상에 포함된 상이한 3D 특징 포인트의 수량이 역치에 도달할 때까지, 즉, 표시하고자 하는 화상 집합에 포함된 상이한 3D 특징 포인트의 수량이 기정 역치보다 클 때까지, 표시하고자 하는 화상을 순차적으로 선택한다.
단계(104)에서, 표시하고자 하는 화상 집합 중의 표시하고자 하는 화상들의 표시 순서를 확정하고, 표시하고자 하는 화상들의 표시 순서에 따라 화상 표시 서열을 생성한다.
본 실시예에 있어서, 사용자에게 표시하게 될 표시하고자 하는 화상을 확정한 후, 표시하고자 하는 화상들의 표시 순서를 확정하여 표시하고자 하는 화상들을 사용자에게 보여줄 수 있다. 표시하고자 하는 화상의 촬영 위치, 촬영 각도와 같은 표시하고자 하는 화상의 관련 정보에 근거하여 표시하고자 하는 화상들의 표시 순서를 확정할 수 있다.
본 실시예의 일부 선택적인 실시예에 있어서, 표시하고자 하는 화상 집합 중의 표시하고자 하는 화상들의 표시 순서를 확정하고, 표시하고자 하는 화상들의 표시 순서에 따라 화상 표시 서열을 생성하는 단계는, 표시하고자 하는 화상들 사이의 속성 파라미터의 연관 관계에 따라 표시하고자 하는 화상들의 표시 순서를 확정하되, 표시하고자 하는 화상의 속성 파라미터는 촬영 위치 파라미터 및 촬영 각도 파라미터를 포함하는 단계와, 표시하고자 하는 화상들의 표시 순서에 따라 화상 표시 서열을 생성하는 단계를 포함한다.
이하, 표시하고자 하는 화상들의 촬영 위치 파라미터 및 촬영 각도 파라미터에 근거하여 표시하고자 하는 화상들의 표시 순서를 확정하는 것을 예로 들어 표시하고자 하는 화상들의 표시 순서를 확정하는 과정에 대한 설명을 진행하기로 한다. 표시하고자 하는 화상들의 표시 순서를 확정함에 있어서, 예를 들어 아래와 같은 방식을 이용할 수 있다. 즉, 표시하고자 하는 화상들의 촬영 위치로부터 정경(예를 들어, 용문석굴)까지의 거리에 근거하여, 해당 거리가 먼 곳으로부터 가까운 곳으로의 순서에 따라 표시하고자 하는 화상들을 배열함으로써, 표시하고자 하는 화상들의 표시 순서, 즉, 용문석굴과의 거리가 먼 곳으로부터 가까운 곳으로의 표시 순서를 확정하여 표시하고자 하는 화상들을 화상 속의 정경을 멀리서부터 가까이로 사용자에게 표시시킴으로써, 화상 속의 정경이 공간상의 연속성을 구비하게 하고 화상이 표현하는 내용을 더욱 풍부하게 할 수 있다.
또한, 촬영 각도에 따라 표시하고자 하는 화상들의 표시 순서를 확정할 수도 있다. 예를 들어, 정경(예를 들어, 용문 석굴)의 축선에 대한 촬영 각도의 편이각(deviation angle)에 근거하여, 해당 편이각이 커지는 순서에 따라 표시하고자 하는 화상들의 표시 순서를 확정하여 표시하고자 하는 화상들이 서로 다른 시각으로 화상 속의 정경을 사용자에게 표시시킴으로써, 화상 속의 정경이 공간상의 연속성을 구비하도록 할 수 있다.
상기 표시하고자 하는 화상들의 표시 순서를 확정함에 있어서 사용되는 관련 정보들은 서로 조합되어 공동으로 표시하고자 하는 화상들의 표시 순서를 확정할 수 있으며, 예를 들어, 표시하고자 하는 화상의 촬영 위치 및 촬영 각도에 의해 표시하고자 하는 화상들의 표시 순서를 확정할 수 있을 뿐만 아니라, 또한 예를 들어 촬영 위치 및 촬영 각도의 속성 파라미터에 대해 서로 다른 가중치를 설정하여 최종 표시 순서를 확정할 수도 있다.
단계(105)에서, 화상 표시 서열 중의 화상들을 연속적으로 표시한다.
본 실시예에 있어서, 표시하고자 하는 화상들의 표시 순서를 확정한 후, 연속적으로 화상 표시 서열 중의 화상들을 순서에 따라 표시할 수 있다. 연속적으로 화상 서열 중의 화상들을 표시함에 있어서, 각 화상들을 회전시켜 진일보로 여러 각도로부터 화상 속의 정경을 표시하고 화상이 표현하는 정경 내용을 보강시킬 수 있다.
본 출원의 상기 실시예에 제공된 화상 표시 방법은, 동일한 정경을 포함한 화상들을 획득하여 화상들 사이의 연관 관계에 따라 화상의 표시 순서를 확정하고, 확정된 표시 순서에 따라 화상을 연속적으로 표시하여 화상을 표시함에 있어서의 화상 속 정경의 공간적 연속성을 증강시킴으로써, 화상이 표현하는 정경의 내용을 풍부하게 하고, 나아가, 화상들 사이에 과도 화상을 삽입시킴으로써, 화상 속의 정경이 공간상 연속적으로 표시되는 과정에서 매끄러운 과도를 실현하도록 한다.
도 2를 참조하면, 도 2는 본 출원에 따른 화상 표시 방법의 다른 일 실시예의 흐름(200)을 나타낸다. 해당 방법은 아래와 같은 단계들을 포함한다.
단계(201)에서, 동일한 정경을 포함한 원본 화상 집합을 획득한다.
단계(202)에서, 원본 화상 집합으로부터 정경의 3D 구조를 재구성하기 위한 재구성 화상 집합을 선택하고, 재구성 화상 집합 중의 재구성 화상들을 이용하여 정경의 3D 구조를 재구성한다.
단계(203)에서, 재구성 화상 집합으로부터 포함한 3D 특징 포인트의 수량이 기정 역치보다 큰 표시하고자 하는 화상 집합을 선택한다.
단계(204)에서, 표시하고자 하는 화상들 사이의 렌더링 코스트에 근거하여 표시하고자 하는 화상들의 표시 순서를 확정하고, 표시하고자 하는 화상들의 표시 순서에 따라 서로 인접한 각 2개의 표시하고자 하는 화상들 사이에 과도 화상을 삽입시켜 화상 표시 서열을 생성한다.
본 실시예에 있어서, 표시하고자 하는 화상을 확정한 후, 표시하고자 하는 화상들 사이의 렌더링 코스트에 근거하여 표시하고자 하는 화상들의 표시 순서를 확정하고, 표시하고자 하는 화상을 연속적으로 표시할 경우, 표시하고자 하는 화상에 과도 화상(또는 가상 화상)을 삽입시켜 표시하고자 하는 화상이 연속적으로 표시될 때 매끄러운 표시 과정을 구현함으로써, 매끄러운 과도를 형성할 수 있다.
도 3을 참조하면, 도 3은 본 출원에 따른 화상 표시 방법 중 과도 화상을 삽입시키는 과정의 일 예시적 개략도이다. 도 3은 정경 대상(301), 표시하고자 하는 화상(302), 및 표시하고자 하는 화상(302)들 사이에 위치한 과도 화상(303)을 나타낸다. 본 실시예에 있어서, 표시하고자 하는 화상(302)들 사이에 과도 화상(303)을 삽입하는 것을 렌더링 과정이라고 지칭할 수 있고, 표시하고자 하는 화상들 사이에 삽입된 과도 화상(303)은 표시하고자 하는 화상을 기반으로 생성된 것이며, 상이한 2개의 표시하고자 하는 화상(302) 사이에 과도 화상(303)을 삽입하는 과정은 서로 다른 렌더링 코스트에 대응된다. 표시하고자 하는 화상들 사이의 렌더링 코스트에 근거하여 표시하고자 하는 화상들의 표시 순서를 확정함으로써, 비교적 작은 렌더링 코스트를 대가로 표시하고자 하는 화상들 사이에 과도 화상을 삽입시키는 것을 실현하여 매끄러운 과도 효과를 형성할 수 있다.
본 실시예의 일부 선택적인 실시예에 있어서, 표시하고자 하는 화상들 사이의 렌더링 코스트에 근거하여 표시하고자 하는 화상들의 표시 순서를 확정하는 단계 전에, 표시하고자 하는 화상의 렌더링 관련 파라미터에 근거하여 렌더링 관련 파라미터 중의 각 렌더링 관련 파라미터에 대응되는 서브 렌더링 코스트를 각각 산출하는 단계와, 각 렌더링 관련 파라미터에 대응되는 서브 렌더링 코스트에 근거하여 표시하고자 하는 화상들 사이의 렌더링 코스트를 확정하는 단계를 더 포함하되, 렌더링 관련 파라미터는 왜곡도 파라미터, 촬영 위치 파라미터, 촬영 각도 파라미터, 해상도 파라미터 및 광학 흐름 파라미터 중 적어도 하나를 포함한다.
본 실시예에 있어서, 렌더링 관련 파라미터 중의 왜곡도 파라미터는, 2개의 표시하고자 하는 화상(302) 사이에 과도 화상(303)을 삽입하는 과정에서 표시하고자 하는 화상(302)에 포함된 3D 특징 포인트를 가상 카메라의 화상 형성면(imaging plane)에 매핑 시 생성되는 변형량을 나타낸다.
선택적으로, 서로 인접한 표시하고자 하는 화상(302) 사이의 왜곡도에 대응되는 서브 렌더링 코스트는, 표시하고자 하는 화상(302)에 포함된 3D 특징 포인트를 가상 카메라의 화상 형성면에 매핑 할 때 표시하고자 하는 화상(302)이 직사각형으로부터 비다각형으로 변하면서 변화된 각도의 크기에 따라 확정될 수 있다. 촬영 위치 파라미터에 대응되는 서브 렌더링 코스트는 표시하고자 하는 화상(302)의 촬영 위치의 좌표에 따라 확정될 수 있다. 예를 들어, 서로 인접한 2개의 표시하고자 하는 화상(302)의 촬영 위치의 좌표는 각각 (X1, Y1, Z1) 및 (X2, Y2, Z2)이고, 촬영 위치 파라미터에 대응되는 서브 렌더링 코스트는 수학식
Figure 112016094549394-pct00001
을 이용하여 산출할 수 있다. 촬영 각도에 대응되는 서브 렌더링 코스트는 서로 인접한 표시하고자 하는 화상(302)의 촬영 각도 사이의 차이값의 절대값에 의해 확정될 수 있다. 광학 흐름에 대응되는 렌더링 코스트는 서로 인접한 표시하고자 하는 화상들 사이의 매칭되는 SIFT 특징 포인트가 두 장의 사진 상에서 위치한 화소 위치에 근거하여 확정될 수 있다. 예를 들어, 서로 인접한 2개의 표시하고자 하는 화상들 사이의 매칭되는 SIFT 특징 포인트는 한 쌍의 특징 포인트를 구성할 수 있고, 해당 특징 포인트의 화소 좌표는 각각 (Xi1, Yi1) 및 (Xi2, Yi2)로 표시되며, 여기서 i는 이러한 한 쌍의 매칭되는 특징 포인트가 다수 개 쌍의 매칭되는 특징 포인트에서의 위치를 표시하면, 광학 흐름에 대응되는 렌더링 서브 코스트는 아래 수학식을 이용하여 산출할 수 있다.
Figure 112016094549394-pct00002
, 해상도에 대응되는 렌더링 코스트는 카메라 평면에서의 3D 포인트의 화상 형성 범위에 따라 확정될 수 있다.
선택적으로, 상기 파라미터에 대응되는 렌더링 서브 코스트를 확정한 후, 각 파라미터에 대응되는 렌더링 서브 코스트를 0-1의 범위 내로 정규화할 수 있다.
일 실시예에 있어서, 정규화 시, 파라미터에 대해 서로 다른 가중치를 설정할 수 있다. 예를 들어, 왜곡도 파라미터의 가중치를 최대치로 설정하고, 촬영 위치 및 촬영 각도의 가중치를 그 다음 크기로 설정하며, 광학 흐름 및 해상도 파라미터의 가중치를 상대적으로 작게 설정할 수 있다. 상기와 같은 가중치의 설정에 따르면, 화상이 지나치게 변화되고 줌잉(zooming) 현상이 발생되는 것을 방지할 수 있다. 이에 따라, 파라미터의 가중치 및 정규화된 서브 렌더링 코스트 값에 기반하여 렌더링하고자 하는 화상들 사이의 렌더링 코스트를 확정할 수 있다. 각 표시하고자 하는 화상과 기타 표시하고자 하는 화상들 사이의 렌더링 코스트를 확정한 후, 그래픽 구조를 이용하여 각 표시하고자 하는 화상을 그래프에서 하나의 절점으로 표시할 수 있고, 절점들 사이의 렌더링 코스트 값은 절점들 사이의 연결선 상의 가중치로 나타낼 수 있다. 절점들 사이의 연결선 상의 가중치를 기반으로 최단 경로 알고리즘, 예를 들어, 데이크스트라(Dijkstra) 알고리즘을 이용하여, 다수의 절점들의 연결선 상의 가중치의 합이 최소치를 가지는 경우에 대응되는 경로를 산출함으로써, 해당 경로를 표시하고자 하는 화상의 순서를 나타내는 경로로 확정할 수 있고, 해당 경로 상의 절점에 대응되는 순서가 바로 표시하고자 하는 화상들의 표시 순서이다.
본 실시예의 일부 선택적인 실시예에 있어서, 표시하고자 하는 화상들의 표시 순서에 따라 서로 인접한 각 2개의 표시하고자 하는 화상들 사이에 과도 화상을 삽입시켜 화상 표시 서열을 생성하는 단계는, 표시하고자 하는 화상들의 표시 순서에 따라 서로 인접한 각 2개의 표시하고자 하는 화상의 촬영 위치 사이의 적어도 하나의 위치에 가상 카메라 화상 형성면을 포함하는 가상 카메라를 삽입시키고, 카메라의 내부 파라미터에 대해 내삽 조작을 진행하여 가상 카메라의 내부 파라미터를 획득하는 단계와, 가상 카메라의 내부 파라미터에 기반하여, 표시하고자 하는 화상에 포함된 3D 특징 포인트를 가상 카메라의 화상 형성면에 각각 매핑시켜 화상 표시 서열을 생성하는 단계를 포함한다.
단계(205)에서, 화상 표시 서열 중의 화상들을 연속적으로 표시한다.
본 실시예에 있어서, 표시하고자 하는 화상들의 표시 순서를 확정한 후, 연속적으로 화상 표시 서열 중의 화상들을 순서에 따라 표시할 수 있다. 화상 서열 중의 표시하고자 하는 화상들을 연속적으로 표시하는 과정에서, 표시 서열에서 표시하고자 하는 화상들 사이에 위치한 과도 화상을 삽입시킨다. 즉, 표시하고자 하는 화상들 사이에 가상 카메라를 삽입시키고, 가상 카메라와 표시하고자 하는 화상에 대응되는 실제 카메라 사이의 카메라 파라미터 사이의 관계에 따라 표시하고자 하는 화상에 포함된 3D 특징 포인트를 가상 카메라의 가상 화상 형성면에 매핑시킨다. 이에 따라, 표시 서열 중의 표시하고자 하는 화상을 연속적으로 표시하면서 과도 화상을 삽입시킴으로써, 표시 과정에서의 화상의 매끄러운 과도를 실현한다.
도 4를 참조하면, 도 4는 본 출원에 따른 화상 표시 장치의 일 실시예의 구조적 개략도를 나타낸다. 화상 표시 장치(400)는 동일한 정경을 포함한 원본 화상 집합을 획득하도록 구성된 획득 모듈(401); 원본 화상 집합으로부터 정경의 3D 구조를 재구성하기 위한 재구성 화상 집합을 선택하고, 재구성 화상 집합 중의 재구성 화상들을 이용하여 3D 특징 포인트를 포함하는 정경의 3D 구조를 재구성하도록 구성된 재구성 모듈(402); 재구성 화상 집합으로부터 포함한 3D 특징 포인트의 수량이 기정 역치보다 큰 표시하고자 하는 화상 집합을 선택하도록 구성된 선택 모듈(403); 표시하고자 하는 화상 집합 중의 표시하고자 하는 화상들의 표시 순서를 확정하고, 표시하고자 하는 화상들의 표시 순서에 따라 화상 표시 서열을 생성하도록 구성된 확정 모듈(404); 및 화상 표시 서열 중의 화상들을 연속적으로 표시하도록 구성된 표시 모듈(405)을 포함한다.
본 실시예의 일부 선택적인 실시예에 있어서, 재구성 모듈(402)은 재구성 화상 선택 서브 모듈을 더 포함하고, 화상 선택 서브 모듈은 원본 화상 집합 중 원본 화상의 스케일 불변 특징 포인트를 추출하도록 구성된다. 화상 선택 서브 모듈은 원본 화상들 사이의 스케일 불변 특징 포인트의 매칭 관계에 따라 원본 화상 집합으로부터 상기 정경의 3D 구조를 재구성하기 위한 재구성 화상 집합을 선택하도록 더 구성된다.
본 실시예의 일부 선택적인 실시예에 있어서, 재구성 모듈(402)은 정경 재구성 서브 모듈을 더 포함하고, 정경 재구성 서브 모듈은 상기 재구성 화상 집합 중의 재구성 화상의 스케일 불변 특징 포인트에 근거하여 카메라 파라미터를 복원하도록 구성되되, 상기 카메라 파라미터는 카메라 내부 파라미터 및 카메라 외부 파라미터를 포함하고, 상기 카메라 내부 파라미터는 초점 거리 및 주 오프셋을 포함한다. 정경 재구성 서브 모듈은 재구성 화상의 스케일 불변 특징 포인트 및 카메라 파라미터에 기반하여 정경의 3D 구조를 재구성하도록 더 구성된다.
본 실시예의 일부 선택적인 실시예에 있어서, 선택 모듈(403)은 재구성 화상 집합으로부터 포함한 3D 특징 포인트의 수량이 재구성 화상 집합 중의 기타 재구성 화상에 포함된 3D 특징 포인트의 수량보다 많은 표시하고자 하는 기준 화상을 선택하도록 구성된다. 선택 모듈(403)은 표시하고자 하는 기준 화상에 근거하여 재구성 화상 집합으로부터 제1 기정 조건을 만족하는 다수의 표시하고자 하는 후속적인 화상을 순차적으로 선택하도록 더 구성되되, 제1 기정 조건은 표시하고자 하는 후속적인 화상과 바로 전에 선택된 표시하고자 하는 후속적인 화상들 사이에 포함된 상이한 3D 특징 포인트의 수량이 표시하고자 하는 후속적인 화상으로 선택되지 않은 재구성 화상과 바로 전에 선택된 표시하고자 하는 후속적인 화상들 사이에 포함된 상이한 3D 특징 포인트의 수량보다 많은 것을 포함한다.
본 실시예의 일부 선택적인 실시예에 있어서, 확정 모듈(404)은 표시하고자 하는 화상들 사이의 속성 파라미터의 연관 관계에 따라 표시하고자 하는 화상들의 표시 순서를 확정하고, 표시하고자 하는 화상들의 표시 순서에 따라 화상 표시 서열을 생성하도록 구성되되, 표시하고자 하는 화상의 속성 파라미터는 촬영 위치 파라미터 및 촬영 각도 파라미터를 포함한다.
본 실시예의 일부 선택적인 실시예에 있어서, 확정 모듈(404)은 표시하고자 하는 화상들 사이의 렌더링 코스트에 근거하여 표시하고자 하는 화상들의 표시 순서를 확정하도록 더 구성되되, 렌더링 코스트는 표시하고자 하는 화상들 사이에 과도 화상을 삽입시키는 코스트를 가리킨다. 확정 모듈(404)은 표시하고자 하는 화상들의 표시 순서에 따라 서로 인접한 각 2개의 표시하고자 하는 화상들 사이에 과도 화상을 삽입시켜 화상 표시 서열을 생성하도록 더 구성된다.
본 실시예의 일부 선택적인 실시예에 있어서, 확정 모듈(404)은 렌더링 코스트 확정 서브 모듈을 포함하고, 렌더링 코스트 확정 서브 모듈은 표시하고자 하는 화상의 렌더링 관련 파라미터에 근거하여 렌더링 관련 파라미터 중의 각 렌더링 관련 파라미터에 대응되는 서브 렌더링 코스트를 각각 산출하도록 구성되되, 렌더링 관련 파라미터는 왜곡도 파라미터, 촬영 위치 파라미터, 촬영 각도 파라미터, 해상도 파라미터 및 광학 흐름 파라미터 중 적어도 하나를 포함한다. 렌더링 코스트 확정 서브 모듈은 각 렌더링 관련 파라미터에 대응되는 서브 렌더링 코스트에 근거하여 표시하고자 하는 화상들 사이의 렌더링 코스트를 확정하도록 더 구성된다.
본 실시예의 일부 선택적인 실시예에 있어서, 확정 모듈(404)은 과도 화상 삽입 서브 모듈을 포함하고, 과도 화상 삽입 서브 모듈은 표시하고자 하는 화상들의 표시 순서에 따라 서로 인접한 각 2개의 표시하고자 하는 화상의 촬영 위치 사이의 적어도 하나의 위치에 가상 카메라를 삽입시키고, 카메라 내부 파라미터에 대해 내삽 조작을 진행하여 가상 카메라의 내부 파라미터를 획득하도록 구성되되, 가상 카메라는 가상 카메라 화상 형성면을 포함한다. 과도 화상 삽입 서브 모듈은 가상 카메라의 내부 파라미터에 기반하여, 과도 화상을 삽입시키도록 표시하고자 하는 화상에 포함된 3D 특징 포인트를 가상 카메라의 화상 형성면에 각각 매핑시켜 화상 표시 서열을 생성하도록 더 구성된다.
본 실시예의 일부 선택적인 실시예에 있어서, 획득 모듈(401)은 정경에 대응되는 지리적 위치 정보를 포함하는 정경 선택 명령을 수신하고, 지리적 위치 정보에 근거하여 지리적 위치 정보에 대응되는 원본 화상 집합을 획득하도록 더 구성된다.
본 실시예의 일부 선택적인 실시예에 있어서, 장치(400)는 선처리 모듈을 더 포함하고, 선처리 모듈은 원본 화상 집합에 대해 선처리 조작을 진행하도록 구성된다. 선처리 모듈은 이미지 필터링 서브 모듈 및 이미지 교정 서브 모듈 중의 적어도 하나를 포함한다. 이미지 필터링 서브 모듈은 원본 화상 집합에서 화상 품질이 기정 값보다 낮은 원본 화상을 필터링하도록 구성되고, 이미지 교정 서브 모듈은 원본 화상 집합 중의 원본 화상의 촬영 위치를 교정하도록 구성된다.
도 5는 본 출원의 실시예에 제공된 컴퓨터 시스템의 구조적 개략도를 나타낸다.
이하 도 5를 참조하면, 도 5는 본 출원의 실시예의 장치를 실현하기에 적합한 컴퓨터 시스템(500)의 구조적 개략도를 나타낸다.
도 5에 도시된 바와 같이, 컴퓨터 시스템(500)은 중앙 처리 유닛(501; CPU)을 포함하며, 읽기 전용 메모리 장치(502; ROM)에 저장된 프로그램 또는 저장부(508)로부터 랜덤 액세스 메모리 장치(503; RAM)에 로딩된 프로그램에 의해 각종 적당한 동작과 처리를 실행할 수 있다. ROM(502)에 저장된 프로그램 또는 저장부(508)로부터 RAM(503)에 로딩된 프로그램이 CPU(501)로 실행될 경우, CPU(501)는 본 출원에 기재된 방법을 수행한다. RAM(503)에는 시스템(500)을 작동하기에 필요한 각종 프로그램 및 데이터가 더 저장되어 있다. CPU(501), ROM(502) 및 RAM(503)은 버스라인(504)을 통해 서로 연결된다. 입력/출력(I/O) 인터페이스(505)도 버스라인(504)에 연결된다.
I/O 인터페이스(505)에 연결되는 부재로서, 키보드, 마우스 등을 포함하는 입력부(506)와, 예를 들어 음극선관(CRT), 액정 표시 장치(LCD) 등 및 스피커 등을 포함하는 출력부(507)와, 하드 드라이버 등을 포함하는 저장부(508)와, 예를 들어 LAN 카드, 모뎀 등의 네트워크 인터페이스 카드를 포함하는 통신부(509)가 포함된다. 통신부(509)는 인터넷과 같은 네트워크를 통해 통신처리를 실행한다. 구동부(510)도 수요에 따라 I/O 인터페이스(505)에 연결된다. 자기 디스크, 광 디스크, 광자기 디스크, 반도체 메모리 장치 등과 같은 착탈 가능한 매체(511)는 수요에 따라 이들 매체로부터 판독된 컴퓨터 프로그램을 저장부(508)에 설치하도록 수요에 따라 구동부(510)에 설치된다.
특히, 본 개시의 실시예에 의하면, 흐름도를 참조하여 설명한 상기 과정들은 컴퓨터 소프트웨어 프로그램으로 구현될 수 있다. 예를 들어, 본 개시의 실시예는 컴퓨터 프로그램 제품을 포함하고, 컴퓨터 판독 가능한 매체에 유형적으로 포함된 컴퓨터 프로그램을 포함하며, 상기 컴퓨터 프로그램은 흐름도에 도시된 방법을 실행하기 위한 컴퓨터 코드를 포함한다. 이러한 실시예에 있어서, 해당 컴퓨터 프로그램은 통신부(509)를 경유하여 네트워크로부터 다운로드되어 설치될 수 있고 및/또는 착탈 가능한 매체(511)로부터 설치될 수 있다.
첨부된 도면 중의 흐름도 및 블록도는 본 출원의 각 실시예에 따른 시스템 및 방법의 구현 가능한 체계구조, 기능 및 조작을 도시한다. 이러한 방면에서, 흐름도 또는 블록도 중의 각각은 하나의 모듈, 프로그램 세그먼트 또는 코드의 일부분을 대표할 수 있고, 상기 모듈, 프로그램 세그먼트 또는 코드의 일부분은 규정된 로직 기능을 구현하기 위한 하나 또는 다수의 실행 가능한 명령을 포함한다. 일부 대체 구현에 있어서, 블록에 표기된 기능은 첨부된 도면에 표기된 순서와 상이한 순서로 발생할 수도 있음을 유의하여야 한다. 예를 들어, 순차적으로 표시된 두 개의 블록은 실제적으로 기본상 동시에 실행될 수도 있고, 경우에 따라 반대된 순서에 따라 실행될 수도 있으며, 이는 관련된 기능에 따라 결정된다. 블록도 및/또는 흐름도 중의 각 블록 및 블록도 및/또는 흐름도 중의 블록의 조합은 규정된 기능 또는 조작을 실행하는 하드웨어 기반의 전용 시스템으로 구현되거나, 전용 하드웨어와 컴퓨터 명령의 조합으로 구현될 수 있음을 유의하여야 한다.
다른 일 방면에 있어서, 본 출원은 컴퓨터 판독 가능한 저장 매체를 더 제공하며, 상기 컴퓨터 판독 가능한 저장 매체는 상술한 실시예 중의 장치에 포함된 컴퓨터 판독 가능한 저장 매체이거나, 독립적으로 존재하며 단말기 장치에 설치되지 않은 컴퓨터 판독 가능한 저장 매체일 수도 있다. 상기 컴퓨터 판독 가능한 저장 매체는 하나 또는 다수의 프로그램을 저장하고, 해당 프로그램은 하나 또는 다수의 프로세서에 의해 본 출원에 기재된 방법을 실행하도록 구성된다.
이상의 설명은 오직 본 출원의 비교적 바람직한 실시예 및 운용한 기술적 원리에 대한 설명이다. 해당 기술분야의 당업자는 본 출원에 관련된 발명의 범위가 상기 기술적 특징들의 특정 조합으로 이루어진 기술적 방안들에 한정되는 것이 아니라 본 발명의 주지를 벗어나지 않고서 상기 기술적 특징들 또는 그들의 균등한 특징들의 임의의 조합으로 이루어진 기타 기술적 방안들, 예를 들어, 상기 특징을 본 출원에 개시되어 있으나 이에 한정되지 않는 유사한 기능을 구비한 기술적 특징과 서로 대체하여 이루어진 기술적 방안도 포함하고 있음을 자명할 것이다.

Claims (22)

  1. 동일한 정경을 포함한 원본 화상 집합을 획득하는 단계;
    상기 원본 화상 집합으로부터 상기 정경의 3D 구조를 재구성하기 위한 재구성 화상 집합을 선택하고, 상기 재구성 화상 집합 중의 재구성 화상들을 이용하여 3D 특징 포인트를 포함하는 상기 정경의 3D 구조를 재구성하는 단계;
    상기 재구성 화상 집합으로부터 포함한 3D 특징 포인트의 수량이 기정 역치 보다 큰 표시하고자 하는 화상 집합을 선택하는 단계;
    상기 표시하고자 하는 화상 집합 중의 표시하고자 하는 화상들의 표시 순서를 상기 표시하고자 하는 화상들의 촬영 위치 파라미터 및 촬영 각도 파라미터에 따라 확정하고, 상기 표시하고자 하는 화상들의 표시 순서에 따라 화상 표시 서열을 생성하는 단계; 및
    상기 화상 표시 서열 중의 화상들을 연속적으로 표시하는 단계를 포함하는 것을 특징으로 하는 화상 표시 방법.
  2. 제1항에 있어서,
    상기 재구성 화상 집합 중의 재구성 화상들을 이용하여 3D 특징 포인트를 포함하는 상기 정경의 3D 구조를 재구성하는 단계는,
    상기 원본 화상 집합 중 원본 화상의 스케일 불변 특징 포인트를 추출하는 단계; 및
    상기 원본 화상들 사이의 스케일 불변 특징 포인트의 매칭 관계에 따라 상기 원본 화상 집합으로부터 상기 정경의 3D 구조를 재구성하기 위한 재구성 화상 집합을 선택하는 단계를 포함하는 것을 특징으로 하는 화상 표시 방법.
  3. 제2항에 있어서,
    상기 재구성 화상 집합 중의 재구성 화상들을 이용하여 3D 특징 포인트를 포함하는 상기 정경의 3D 구조를 재구성하는 단계는,
    상기 재구성 화상 집합 중의 재구성 화상의 스케일 불변 특징 포인트에 근거하여 카메라 파라미터를 복원하는 단계; 및
    상기 재구성 화상의 스케일 불변 특징 포인트 및 상기 카메라 파라미터에 기반하여 상기 정경의 3D 구조를 재구성하는 단계를 더 포함하되,
    상기 카메라 파라미터는 카메라 내부 파라미터 및 카메라 외부 파라미터를 포함하고, 상기 카메라 내부 파라미터는 초점 거리 및 주요 포인트 오프셋을 포함하는 것을 특징으로 하는 화상 표시 방법.
  4. 제1항 내지 제3항 중 어느 한 항에 있어서,
    상기 재구성 화상 집합으로부터 포함한 3D 특징 포인트의 수량이 기정 역치 보다 큰 표시하고자 하는 화상 집합을 선택하는 단계는,
    상기 재구성 화상 집합으로부터 포함한 3D 특징 포인트의 수량이 재구성 화상 집합 중의 기타 재구성 화상에 포함된 3D 특징 포인트의 수량보다 많은 표시하고자 하는 기준 화상을 선택하는 단계; 및
    상기 표시하고자 하는 기준 화상에 근거하여 상기 재구성 화상 집합으로부터 제1 기정 조건을 만족하는 다수의 표시하고자 하는 후속적인 화상을 순차적으로 선택하는 단계를 포함하되,
    상기 제1 기정 조건은 상기 표시하고자 하는 후속적인 화상과 바로 전에 선택된 표시하고자 하는 후속적인 화상들 사이에 포함된 상이한 3D 특징 포인트의 수량이 표시하고자 하는 후속적인 화상으로 선택되지 않은 재구성 화상과 바로 전에 선택된 표시하고자 하는 후속적인 화상들 사이에 포함된 상이한 3D 특징 포인트의 수량보다 많은 것을 포함하는 것을 특징으로 하는 화상 표시 방법.
  5. 삭제
  6. 제4항에 있어서,
    상기 표시하고자 하는 화상 집합 중의 표시하고자 하는 화상들의 표시 순서를 확정하고, 상기 표시하고자 하는 화상들의 표시 순서에 따라 화상 표시 서열을 생성하는 단계는,
    상기 표시하고자 하는 화상들 사이의 렌더링 코스트에 근거하여 상기 표시하고자 하는 화상들의 표시 순서를 확정하는 단계; 및
    상기 표시하고자 하는 화상들의 표시 순서에 따라, 서로 인접한 각 2개의 상기 표시하고자 하는 화상들 사이에 과도 화상을 삽입시켜 화상 표시 서열을 생성하는 단계를 포함하되,
    상기 렌더링 코스트는 상기 표시하고자 하는 화상들 사이에 과도 화상을 삽입시키는 코스트를 가리키는 것을 특징으로 하는 화상 표시 방법.
  7. 제6항에 있어서,
    상기 표시하고자 하는 화상들 사이의 렌더링 코스트에 근거하여 상기 표시하고자 하는 화상들의 표시 순서를 확정하는 단계 전에,
    상기 표시하고자 하는 화상의 렌더링 관련 파라미터에 근거하여 상기 렌더링 관련 파라미터 중의 각 렌더링 관련 파라미터에 대응되는 서브 렌더링 코스트를 각각 산출하는 단계; 및
    상기 각 렌더링 관련 파라미터에 대응되는 서브 렌더링 코스트에 근거하여, 상기 표시하고자 하는 화상들 사이의 렌더링 코스트를 확정하는 단계를 더 포함하되,
    상기 렌더링 관련 파라미터는 왜곡도 파라미터, 촬영 위치 파라미터, 촬영 각도 파라미터, 해상도 파라미터 및 광학 흐름 파라미터 중 적어도 하나를 포함하는 것을 특징으로 하는 화상 표시 방법.
  8. 제7항에 있어서,
    상기 표시하고자 하는 화상들의 표시 순서에 따라, 서로 인접한 각 2개의 상기 표시하고자 하는 화상들 사이에 과도 화상을 삽입시켜 화상 표시 서열을 생성하는 단계는,
    상기 표시하고자 하는 화상들의 표시 순서에 따라, 서로 인접한 각 2개의 상기 표시하고자 하는 화상의 촬영 위치 사이의 적어도 하나의 위치에 가상 카메라 화상 형성면을 포함하는 가상 카메라를 삽입시키고, 각 2개의 상기 표시하고자 하는 화상을 촬영한 상기 카메라의 내부 파라미터에 대해 내삽 조작을 진행하여 상기 가상 카메라의 내부 파라미터를 획득하는 단계; 및
    상기 가상 카메라의 내부 파라미터에 기반하여, 서로 인접한 각 2개의 상기 표시하고자 하는 화상에 포함된 3D 특징 포인트를 상기 가상 카메라 화상 형성면에 각각 매핑시킴으로써 상기 과도 화상을 삽입시켜 화상 표시 서열을 생성하는 단계를 포함하는 것을 특징으로 하는 화상 표시 방법.
  9. 제1항에 있어서,
    상기 동일한 정경을 포함한 원본 화상 집합을 획득하는 단계는,
    상기 정경에 대응되는 지리적 위치 정보를 포함하는 정경 선택 명령을 수신하는 단계; 및
    상기 지리적 위치 정보에 근거하여 상기 지리적 위치 정보에 대응되는 원본 화상 집합을 획득하는 단계를 포함하는 것을 특징으로 하는 화상 표시 방법.
  10. 제9항에 있어서,
    상기 동일한 정경을 포함한 원본 화상 집합을 획득하는 단계 이후,
    원본 화상 집합에 대해 선처리 조작을 진행하는 단계를 더 포함하되,
    상기 선처리 조작은,
    상기 원본 화상 집합으로부터 화상 품질이 기정 값보다 낮은 원본 화상을 필터링하는 조작 및 상기 원본 화상 집합 중의 원본 화상의 촬영 위치를 정상적인 촬영 자태로 교정하는 조작 중 적어도 임의의 하나를 포함하는 것을 특징으로 하는 화상 표시 방법.
  11. 동일한 정경을 포함한 원본 화상 집합을 획득하도록 구성된 획득 모듈;
    상기 원본 화상 집합으로부터 상기 정경의 3D 구조를 재구성하기 위한 재구성 화상 집합을 선택하고, 상기 재구성 화상 집합 중의 재구성 화상들을 이용하여 상기 정경의 3D 구조를 재구성하도록 구성되되, 상기 정경의 3D 구조는 3D 특징 포인트를 포함하는 재구성 모듈;
    상기 재구성 화상 집합으로부터 포함한 3D 특징 포인트의 수량이 기정 역치보다 큰 표시하고자 하는 화상 집합을 선택하도록 구성된 선택 모듈;
    상기 표시하고자 하는 화상 집합 중의 표시하고자 하는 화상들의 표시 순서를 상기 표시하고자 하는 화상들의 촬영 위치 파라미터 및 촬영 각도 파라미터에 따라 확정하고, 상기 표시하고자 하는 화상들의 표시 순서에 따라 화상 표시 서열을 생성하도록 구성된 확정 모듈; 및
    상기 화상 표시 서열 중의 화상들을 연속적으로 표시하도록 구성된 표시 모듈을 포함하는 것을 특징으로 하는 화상 표시 장치.
  12. 제11항에 있어서,
    상기 재구성 모듈은 재구성 화상 선택 서브 모듈을 더 포함하고,
    상기 재구성 화상 선택 서브 모듈은, 상기 원본 화상 집합 중의 원본 화상의 스케일 불변 특징 포인트를 추출하도록 구성되고,
    상기 재구성 화상 선택 서브 모듈은, 상기 원본 화상들 사이의 스케일 불변 특징 포인트의 매칭 관계에 따라 상기 원본 화상 집합으로부터 상기 정경의 3D 구조를 재구성하기 위한 재구성 화상 집합을 선택하도록 더 구성되는 것을 특징으로 하는 화상 표시 장치.
  13. 제12항에 있어서,
    상기 재구성 모듈은 정경 재구성 서브 모듈을 더 포함하고,
    상기 정경 재구성 서브 모듈은, 상기 재구성 화상 집합 중의 재구성 화상의 스케일 불변 특징 포인트에 기반하여 카메라 파라미터를 복원하도록 구성되되, 상기 카메라 파라미터는 카메라 내부 파라미터 및 카메라 외부 파라미터를 포함하고, 상기 카메라 내부 파라미터는 초점 거리 및 주요 포인트 오프셋을 포함하고,
    상기 정경 재구성 서브 모듈은, 상기 재구성 화상의 스케일 불변 특징 포인트 및 상기 카메라 파라미터에 기반하여 상기 정경의 3D 구조를 재구성하도록 더 구성되는 것을 특징으로 하는 화상 표시 장치.
  14. 제11항 내지 제13항 중 어느 한 항에 있어서,
    상기 선택 모듈은, 상기 재구성 화상 집합으로부터 포함한 3D 특징 포인트의 수량이 재구성 화상 집합 중의 기타 재구성 화상에 포함된 3D 특징 포인트의 수량보다 많은 표시하고자 하는 기준 화상을 선택하도록 구성되고,
    상기 선택 모듈은, 상기 표시하고자 하는 기준 화상에 근거하여 상기 재구성 화상 집합에서 제1 기정 조건을 만족하는 다수의 표시하고자 하는 후속적인 화상을 순차적으로 선택하도록 더 구성되되, 상기 제1 기정 조건은 상기 표시하고자 하는 후속적인 화상과 바로 전에 선택된 표시하고자 하는 후속적인 화상들 사이에 포함된 상이한 3D 특징 포인트의 수량이 표시하고자 하는 후속적인 화상으로 선택되지 않은 재구성 화상과 바로 전에 선택된 표시하고자 하는 후속적인 화상들 사이에 포함된 상이한 상기 3D 특징 포인트의 수량보다 많은 것을 포함하는 것을 특징으로 하는 화상 표시 장치.
  15. 삭제
  16. 제14항에 있어서,
    상기 확정 모듈은, 상기 표시하고자 하는 화상들 사이의 렌더링 코스트에 근거하여 상기 표시하고자 하는 화상들의 표시 순서를 확정하도록 더 구성되되, 상기 렌더링 코스트는 상기 표시하고자 하는 화상들 사이에 과도 화상을 삽입시키는 코스트를 가리키고,
    상기 확정 모듈은, 상기 표시하고자 하는 화상들의 표시 순서에 따라 서로 인접한 각 2개의 상기 표시하고자 하는 화상들 사이에 과도 화상을 삽입시켜 화상 표시 서열을 생성하도록 더 구성되는 것을 특징으로 하는 화상 표시 장치.
  17. 제16항에 있어서,
    상기 확정 모듈은 렌더링 코스트 확정 서브 모듈을 포함하고,
    상기 렌더링 코스트 확정 서브 모듈은, 상기 표시하고자 하는 화상의 렌더링 관련 파라미터에 기반하여 상기 렌더링 관련 파라미터 중의 각 렌더링 관련 파라미터에 대응되는 서브 렌더링 코스트를 각각 산출하도록 구성되되, 상기 렌더링 관련 파라미터는 왜곡도 파라미터, 촬영 위치 파라미터, 촬영 각도 파라미터, 해상도 파라미터 및 광학 흐름 파라미터 중 적어도 하나를 포함하고,
    상기 렌더링 코스트 확정 서브 모듈은, 상기 각 렌더링 관련 파라미터에 대응되는 서브 렌더링 코스트에 근거하여 상기 표시하고자 하는 화상들 사이의 렌더링 코스트를 확정하도록 더 구성되는 것을 특징으로 하는 화상 표시 장치.
  18. 제17항에 있어서,
    상기 확정 모듈은 과도 화상 삽입 서브 모듈을 포함하고,
    상기 과도 화상 삽입 서브 모듈은, 상기 표시하고자 하는 화상들의 표시 순서에 따라 서로 인접한 각 2개의 상기 표시하고자 하는 화상의 촬영 위치 사이의 적어도 하나의 위치에 가상 카메라 화상 형성면을 포함하는 가상 카메라를 삽입시키고, 상기 카메라 내부 파라미터에 대해 내삽 조작을 진행하여 상기 가상 카메라의 내부 파라미터를 획득하도록 구성되며,
    상기 과도 화상 삽입 서브 모듈은, 상기 가상 카메라 내부 파라미터에 기반하여 상기 표시하고자 하는 화상에 포함된 3D 특징 포인트를 상기 가상 카메라 화상 형성면에 각각 매핑시킴으로써 상기 과도 화상을 삽입시켜 화상 표시 서열을 생성하도록 더 구성되는 것을 특징으로 하는 화상 표시 장치.
  19. 제11항에 있어서,
    상기 획득 모듈은,
    상기 정경에 대응되는 지리적 위치 정보를 포함하는 정경 선택 명령을 수신하고, 상기 지리적 위치 정보에 근거하여 상기 지리적 위치 정보에 대응되는 원본 화상 집합을 획득하도록 더 구성되는 것을 특징으로 하는 화상 표시 장치.
  20. 제19항에 있어서,
    상기 원본 화상 집합에 대해 선처리 조작을 진행하도록 구성되는 선처리 모듈을 더 포함하되,
    상기 선처리 모듈은, 이미지 필터링 서브 모듈 및 이미지 교정 서브 모듈 중 적어도 하나를 포함하며,
    상기 이미지 필터링 서브 모듈은, 상기 원본 화상 집합으로부터 화상 품질이 기정 값보다 낮은 원본 화상을 필터링하도록 구성되고,
    상기 이미지 교정 서브 모듈은, 상기 원본 화상 집합 중의 원본 화상의 촬영 위치를 교정하도록 구성되는 것을 특징으로 하는 화상 표시 장치.
  21. 프로세서; 및
    메모리 장치를 포함하되,
    상기 메모리 장치에는 상기 프로세서로 실행될 수 있는 컴퓨터 판독 가능한 명령이 저장되어 있고, 상기 컴퓨터 판독 가능한 명령이 실행될 경우, 상기 프로세서는 제1항, 제2항, 제3항, 제9항 또는 제10항 중 어느 한 항에 따른 방법을 실행하는 것을 특징으로 하는 기기.
  22. 비휘발성 컴퓨터 저장 매체에 있어서,
    상기 컴퓨터 저장 매체에는 프로세서로 실행될 수 있는 컴퓨터 판독 가능한 명령이 저장되어 있고, 상기 컴퓨터 판독 가능한 명령이 프로세서로 실행될 경우, 상기 프로세서는 제1항, 제2항, 제3항, 제9항 또는 제10항 중 어느 한 항에 따른 방법을 실행하는 것을 특징으로 하는 비휘발성 컴퓨터 저장 매체.
KR1020167027050A 2015-03-31 2015-12-28 화상 표시 방법 및 장치 KR101820349B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201510150163.2 2015-03-31
CN201510150163.2A CN104699842B (zh) 2015-03-31 2015-03-31 图片展示方法和装置
PCT/CN2015/099164 WO2016155377A1 (zh) 2015-03-31 2015-12-28 图片展示方法和装置

Publications (2)

Publication Number Publication Date
KR20160130793A KR20160130793A (ko) 2016-11-14
KR101820349B1 true KR101820349B1 (ko) 2018-01-19

Family

ID=53346962

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020167027050A KR101820349B1 (ko) 2015-03-31 2015-12-28 화상 표시 방법 및 장치

Country Status (6)

Country Link
US (1) US10410397B2 (ko)
EP (1) EP3279803B1 (ko)
JP (1) JP6298540B2 (ko)
KR (1) KR101820349B1 (ko)
CN (1) CN104699842B (ko)
WO (1) WO2016155377A1 (ko)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104699842B (zh) 2015-03-31 2019-03-26 百度在线网络技术(北京)有限公司 图片展示方法和装置
CN105139445B (zh) 2015-08-03 2018-02-13 百度在线网络技术(北京)有限公司 场景重建方法及装置
CN105335473B (zh) * 2015-09-30 2019-02-12 小米科技有限责任公司 图片播放方法和装置
US10111273B2 (en) * 2016-05-24 2018-10-23 Lenovo Enterprise Solutions (Singapore) Pte. Ltd. Communication paths hierarchy for managed computing device
US10637736B2 (en) 2016-06-06 2020-04-28 Lenovo Enterprise Solutions (Singapore) Pte. Ltd Acquisition of information from managed computing device not communicatively connected to management computing device
WO2018014849A1 (zh) * 2016-07-20 2018-01-25 腾讯科技(深圳)有限公司 一种媒体信息展示方法、装置和计算机存储介质
CN108510433B (zh) * 2017-02-28 2020-03-24 贝壳找房(北京)科技有限公司 空间展示方法、装置及终端
CN107153708A (zh) * 2017-05-16 2017-09-12 珠海市魅族科技有限公司 一种图片查看方法及装置、计算机装置、计算机可读存储介质
CN108897757B (zh) * 2018-05-14 2023-08-22 平安科技(深圳)有限公司 一种照片存储方法、存储介质和服务器
KR20200016443A (ko) * 2018-08-07 2020-02-17 주식회사 마크애니 콘텐츠의 영상 데이터 복원방법 및 장치
CN109741245B (zh) * 2018-12-28 2023-03-17 杭州睿琪软件有限公司 平面信息的插入方法及装置
CN110044353B (zh) * 2019-03-14 2022-12-20 深圳先进技术研究院 一种飞行机构室内定位方法及定位系统
CN110400369A (zh) * 2019-06-21 2019-11-01 苏州狗尾草智能科技有限公司 一种人脸重建的方法、系统平台及存储介质
CN112257731A (zh) * 2019-07-05 2021-01-22 杭州海康威视数字技术股份有限公司 一种虚拟数据集的生成方法及装置
CN111078345B (zh) * 2019-12-18 2023-09-19 北京金山安全软件有限公司 一种图片展示效果确定方法、装置、电子设备及存储介质
CN111882590A (zh) * 2020-06-24 2020-11-03 广州万维创新科技有限公司 一种基于单张图片定位的ar场景应用方法
CN112015936B (zh) * 2020-08-27 2021-10-26 北京字节跳动网络技术有限公司 用于生成物品展示图的方法、装置、电子设备和介质
CN114529690B (zh) * 2020-10-30 2024-02-27 北京字跳网络技术有限公司 增强现实场景呈现方法、装置、终端设备和存储介质
CN112650422B (zh) * 2020-12-17 2022-07-29 咪咕文化科技有限公司 设备的ar交互方法、装置、电子设备及存储介质
CN113221043A (zh) * 2021-05-31 2021-08-06 口碑(上海)信息技术有限公司 图片生成方法、装置、计算机设备及计算机可读存储介质
CN113704527B (zh) * 2021-09-02 2022-08-12 北京城市网邻信息技术有限公司 三维展示方法及三维展示装置、存储介质
CN114900679B (zh) * 2022-05-25 2023-11-21 安天科技集团股份有限公司 一种三维模型展示方法、装置、电子设备及可读存储介质
CN115222896B (zh) * 2022-09-20 2023-05-23 荣耀终端有限公司 三维重建方法、装置、电子设备及计算机可读存储介质

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6094198A (en) 1994-01-10 2000-07-25 Cognitens, Ltd. System and method for reconstructing surface elements of solid objects in a three-dimensional scene from a plurality of two dimensional images of the scene
JP2001034632A (ja) * 1999-07-23 2001-02-09 Fuji Photo Film Co Ltd 画像検索方法
US20030198377A1 (en) 2002-04-18 2003-10-23 Stmicroelectronics, Inc. Method and system for 3D reconstruction of multiple views with altering search path and occlusion modeling
JP2006012161A (ja) 2004-06-28 2006-01-12 Microsoft Corp 対話式視点ビデオシステムおよびプロセス
JP2006246446A (ja) 2005-02-04 2006-09-14 Seiko Epson Corp 動画に基づいて行う印刷
JP2008199549A (ja) 2007-02-15 2008-08-28 Hitachi Ltd 監視画像処理方法、監視システム及び監視画像処理プログラム
JP2009237848A (ja) * 2008-03-27 2009-10-15 Sony Corp 情報処理装置、および画像処理方法、並びにコンピュータ・プログラム
CN101763632A (zh) 2008-12-26 2010-06-30 华为技术有限公司 摄像机标定的方法和装置
KR100983007B1 (ko) * 2008-03-28 2010-09-17 나한길 인물 사진 품질 검사 시스템 및 방법
CN104200523A (zh) 2014-09-11 2014-12-10 中国科学院自动化研究所 一种融合附加信息的大场景三维重建方法
CN104699842A (zh) 2015-03-31 2015-06-10 百度在线网络技术(北京)有限公司 图片展示方法和装置

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5913018A (en) * 1996-07-24 1999-06-15 Adobe Systems Incorporated Print band rendering system
US6813395B1 (en) 1999-07-14 2004-11-02 Fuji Photo Film Co., Ltd. Image searching method and image processing method
KR100716977B1 (ko) 2004-07-23 2007-05-10 삼성전자주식회사 디지털 영상 기기
KR100855657B1 (ko) 2006-09-28 2008-09-08 부천산업진흥재단 단안 줌 카메라를 이용한 이동로봇의 자기위치 추정 시스템및 방법
AU2008271910A1 (en) * 2007-06-29 2009-01-08 Three Pixels Wide Pty Ltd Method and system for generating a 3D model from images
CN101339646B (zh) * 2008-07-08 2010-06-02 庞涛 一种适用于互联网的三维图像制作及其互动展示方法
US20140016117A1 (en) * 2009-09-23 2014-01-16 Syracuse University Noninvasive, continuous in vitro simultaneous measurement of turbidity and concentration
US8121618B2 (en) * 2009-10-28 2012-02-21 Digimarc Corporation Intuitive computing methods and systems
CN101877143B (zh) 2009-12-09 2012-07-04 中国科学院自动化研究所 一种二维图像组的三维场景重建方法
CN101916456B (zh) * 2010-08-11 2012-01-04 无锡幻影科技有限公司 一种个性化三维动漫的制作方法
JP5289412B2 (ja) * 2010-11-05 2013-09-11 株式会社デンソーアイティーラボラトリ 局所特徴量算出装置及び方法、並びに対応点探索装置及び方法
JP5740210B2 (ja) * 2011-06-06 2015-06-24 株式会社東芝 顔画像検索システム、及び顔画像検索方法
WO2012172548A1 (en) * 2011-06-14 2012-12-20 Youval Nehmadi Method for translating a movement and an orientation of a predefined object into a computer generated data
US9229613B2 (en) * 2012-02-01 2016-01-05 Facebook, Inc. Transitions among hierarchical user interface components
US9519973B2 (en) * 2013-09-08 2016-12-13 Intel Corporation Enabling use of three-dimensional locations of features images
CN103971399B (zh) * 2013-01-30 2018-07-24 深圳市腾讯计算机系统有限公司 街景图像过渡方法和装置
US9311756B2 (en) * 2013-02-01 2016-04-12 Apple Inc. Image group processing and visualization
US10115033B2 (en) * 2013-07-30 2018-10-30 Kodak Alaris Inc. System and method for creating navigable views
CN103747058B (zh) * 2013-12-23 2018-02-09 乐视致新电子科技(天津)有限公司 一种展示图片的方法和装置
CN103759670B (zh) 2014-01-06 2016-09-28 四川虹微技术有限公司 一种基于数字近景摄影的物体三维信息获取方法

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6094198A (en) 1994-01-10 2000-07-25 Cognitens, Ltd. System and method for reconstructing surface elements of solid objects in a three-dimensional scene from a plurality of two dimensional images of the scene
JP2001034632A (ja) * 1999-07-23 2001-02-09 Fuji Photo Film Co Ltd 画像検索方法
US20030198377A1 (en) 2002-04-18 2003-10-23 Stmicroelectronics, Inc. Method and system for 3D reconstruction of multiple views with altering search path and occlusion modeling
JP2006012161A (ja) 2004-06-28 2006-01-12 Microsoft Corp 対話式視点ビデオシステムおよびプロセス
JP2006246446A (ja) 2005-02-04 2006-09-14 Seiko Epson Corp 動画に基づいて行う印刷
JP2008199549A (ja) 2007-02-15 2008-08-28 Hitachi Ltd 監視画像処理方法、監視システム及び監視画像処理プログラム
JP2009237848A (ja) * 2008-03-27 2009-10-15 Sony Corp 情報処理装置、および画像処理方法、並びにコンピュータ・プログラム
KR100983007B1 (ko) * 2008-03-28 2010-09-17 나한길 인물 사진 품질 검사 시스템 및 방법
CN101763632A (zh) 2008-12-26 2010-06-30 华为技术有限公司 摄像机标定的方法和装置
CN104200523A (zh) 2014-09-11 2014-12-10 中国科学院自动化研究所 一种融合附加信息的大场景三维重建方法
CN104699842A (zh) 2015-03-31 2015-06-10 百度在线网络技术(北京)有限公司 图片展示方法和装置

Also Published As

Publication number Publication date
US20170186212A1 (en) 2017-06-29
EP3279803A1 (en) 2018-02-07
EP3279803B1 (en) 2020-08-12
WO2016155377A1 (zh) 2016-10-06
JP2017518556A (ja) 2017-07-06
CN104699842A (zh) 2015-06-10
US10410397B2 (en) 2019-09-10
JP6298540B2 (ja) 2018-03-20
CN104699842B (zh) 2019-03-26
KR20160130793A (ko) 2016-11-14
EP3279803A4 (en) 2019-03-06

Similar Documents

Publication Publication Date Title
KR101820349B1 (ko) 화상 표시 방법 및 장치
US10540806B2 (en) Systems and methods for depth-assisted perspective distortion correction
CN107705333B (zh) 基于双目相机的空间定位方法及装置
KR102480245B1 (ko) 패닝 샷들의 자동 생성
US9412151B2 (en) Image processing apparatus and image processing method
JP5156837B2 (ja) 領域ベースのフィルタリングを使用する奥行マップ抽出のためのシステムおよび方法
CN108833785B (zh) 多视角图像的融合方法、装置、计算机设备和存储介质
US9749601B2 (en) Imaging device, image display method, and storage medium for displaying reconstruction image
WO2012032412A2 (en) Stereoscopic (3d) panorama creation on handheld device
JP6452360B2 (ja) 画像処理装置、撮像装置、画像処理方法およびプログラム
JP2012248001A (ja) 画像処理装置および画像処理方法、プログラム
JP2011118908A (ja) 画像生成方法、装置、およびそのプログラム並びにプログラムを記録した記録媒体
CN106296574A (zh) 三维照片生成方法和装置
DK3189493T3 (en) PERSPECTIVE CORRECTION OF DIGITAL PHOTOS USING DEPTH MAP
US9143754B2 (en) Systems and methods for modifying stereoscopic images
KR101836238B1 (ko) 다운 스케일링과 비용함수를 이용한 이미지 연결선 추정방법
CN115546027B (zh) 图像缝合线确定方法、装置以及存储介质
CN116456191A (zh) 图像生成方法、装置、设备及计算机可读存储介质
CN112991419B (zh) 视差数据生成方法、装置、计算机设备及存储介质
KR20110133677A (ko) 3d 영상 처리 장치 및 그 방법
CN111630569B (zh) 双目匹配的方法、视觉成像装置及具有存储功能的装置
JP2011053456A (ja) 画像表示方法、プログラム、画像表示装置、及び、この画像表示装置を有する撮像装置
WO2021075314A1 (ja) 画像処理装置、画像処理方法、及びコンピュータ読み取り可能な記録媒体
WO2024120276A1 (zh) 一种立体视频处理方法
JP5535840B2 (ja) 3次元画像生成装置

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right