KR20160086895A - 투명도를 사용한 장면 내의 마크업 제시 - Google Patents

투명도를 사용한 장면 내의 마크업 제시 Download PDF

Info

Publication number
KR20160086895A
KR20160086895A KR1020167015658A KR20167015658A KR20160086895A KR 20160086895 A KR20160086895 A KR 20160086895A KR 1020167015658 A KR1020167015658 A KR 1020167015658A KR 20167015658 A KR20167015658 A KR 20167015658A KR 20160086895 A KR20160086895 A KR 20160086895A
Authority
KR
South Korea
Prior art keywords
markup
scene
contribution
amount
pixel
Prior art date
Application number
KR1020167015658A
Other languages
English (en)
Other versions
KR102280284B1 (ko
Inventor
니콜라이 파랜드
데이비드 보이로
Original Assignee
마이크로소프트 테크놀로지 라이센싱, 엘엘씨
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 filed Critical 마이크로소프트 테크놀로지 라이센싱, 엘엘씨
Priority to KR1020217022409A priority Critical patent/KR102413532B1/ko
Publication of KR20160086895A publication Critical patent/KR20160086895A/ko
Application granted granted Critical
Publication of KR102280284B1 publication Critical patent/KR102280284B1/ko

Links

Images

Classifications

    • G06T7/0051
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3635Guidance using 3D or perspective road maps
    • G06K9/00671
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3635Guidance using 3D or perspective road maps
    • G01C21/3638Guidance using 3D or perspective road maps including 3D objects and buildings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/62Semi-transparency
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/004Annotating, labelling

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Automation & Control Theory (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)

Abstract

장면을 막지 않으며 장면에 의해 바람직하지 않게 막히지도 않는, 장면 내의 마크업의 드로잉을 가능하게 하는 아키텍처가 개시된다. 장면 안에 텍스트, 라인, 및 기타 그래픽과 같은 마크업을 드로잉할 때, 가리는 장면 객체보다 더 큰 현저성으로 마크업을 드로잉하는 것의, 시청자에의 효용에 대해 결정이 행해진다. 마크업의 효용은 카메라로부터 장면 객체 및 마크업의 거리에 기초한다. 따라서, 객체가 장면 내에서 작게 보이고 마크업 앞에 있는 경우, 마크업은 보다 명확하게 드로잉될 것이고, 반면에 동일 객체가 장면 내에서 크게 보이고 마크업 앞에 있는 경우, 마크업은 드로잉된다 하더라도 희미하게 렌더링된다.

Description

투명도를 사용한 장면 내의 마크업 제시{PRESENTING MARKUP IN A SCENE USING TRANSPARENCY}
본 발명은, 투명도를 사용한 장면(scene) 내의 마크업(markup) 제시에 대한 것이다.
지도와 같은 시각 자료에 있어서 보다 풍부한 사용자 경험을 제공할 수 있는 능력은 제조자를 위한 경쟁력있는 우위가 될 수 있다. 이 능력은 장면에 텍스트 및 기타 형상(집합적으로 마크업으로 지칭됨)의 렌더링(rendering)을 포함할 수 있다. 통상적으로, 이는 마크업을 드로잉(drawing)하며 어떤 점에서는 마크업이 장면을 막게 둠으로써, 또는 전적으로 장면 내에 마크업을 드로잉하도록 시도함으로써(이 경우에 마크업은 장면의 일부에 의해 막힐 수 있음) 처리된다. 3차원(3D; three-dimension)과 같은 다차원 렌더링에 있어서, 마크업을 알아볼 수 있으면서 또한 장면 또는 그의 어떠한 부분도 막지 않는 방식으로 마크업을 3D 장면 안으로 어떻게 드로잉하느냐에 대해 문제점이 존재한다.
다음은 여기에 기재된 일부 신규의 실시예의 기본 이해를 제공하기 위해 단순화된 요약을 제시한다. 이 요약은 광범위한 개요인 것이 아니며, 핵심/결정적인 요소를 나타내고자 하는 것도 또는 그의 범위를 기술하고자 하는 것도 아니다. 이의 유일한 목적은 나중에 제시되는 보다 상세한 기재에 대한 서론으로서 일부 개념을 단순화된 형태로 제시하는 것이다.
개시된 아키텍처는, 장면(자연 및/또는 인공적일 수 있고, 마크업이 적용되지 않은 원래 장면의 일부로서 포함된 텍스트, 선, 및/또는 그래픽을 포함할 수 있는 장면 객체(scene object)(들)이거나 이를 포함할 수 있는 것으로 이해됨)을 막지 않으며 바람직하지 않게 장면(장면 객체(들))에 의해 막히지도 않는, 장면(예컨대, 3차원(3D)) 내의 마크업(마크업 객체로도 지칭됨)의 드로잉(또는 렌더링)을 가능하게 한다. 일반적으로, 아키텍처는 마크업 및/또는 장면 객체의 주어진 부분을 보는데 있어서 사용자에의 효용(utility)을 결정하도록 동작한다. 이는, 장면 내의 마크업 객체 및 연관된 장면 객체의 현재 기여도(contribution)를 계산하고, 이들 기여도에 기초하여, 어느 기여도가 사용자 경험에 보다 나은 효용(또는 중요도)을 제공하는지 결정한 다음, 사용자에의 최적의 효용을 가능하게 하도록 객체 및/또는 마크업에 원하는 깊이 페이딩(depth fading)을 적용함으로써, 결정된다.
페이딩 레벨은 적어도 2가지 상이한 기술로, 즉 마크업에만, 가리는(occluding) 장면 객체에만, 또는 마크업 및 가리는 장면 객체 둘 다에 적용될 수 있다는 것을 이해하여야 할 것이다. 여기에서의 기재는 하나의 기술에 초점을 맞출 수 있지만, 기재가 그리 한정되지 않는다는 것을 알아야 할 것이다. 운용시, 모든 장면 객체는 표준 버퍼로 완전 불투명으로 드로잉된다. 그 다음, 마크업이 동일 버퍼로 장면의 위에 드로잉되면서 필요에 따라 픽셀들을 페이딩한다. 완전 불투명한 장면 객체의 위에 완전 불투명한 마크업 픽셀을 드로잉하는 것은, 그 픽셀에 장면 객체를 제로 불투명도로 드로잉한 결과와 동등하다. 마찬가지로, 불투명 객체의 위에 드로잉된 부분 페이딩된 마크업 픽셀은, 객체가 대신 페이딩된 경우와 유사하게 보인다.
장면 객체를 구별하기 더 어렵도록 장면이 줌아웃될(zoomed out) 때, 장면 객체가 전체 장면에서 훨씬 더 작고 더 많으므로, 사용자는 빌딩과 같은 잠재적으로 식별할 수 없는 장면 객체보다는, 보다 현저하고 뚜렷한 방식으로 마크업을 보기를 원할 것이다. 따라서, 사용자에의 효용은 식별가능하고 읽기 쉬운 마크업을 드로잉하는 것이며, 사용자/시청자에게 (예컨대, 지리학적 지도의 경우) 사용자가 어디를 그리고 무엇을 보고 있는지 식별하는 보다 유익한 방식이 제시된다. 이 경우, 마크업 픽셀은 완전 불투명에 가까운 불투명도로 드로잉될 것이다. 이는 사용자에의 효용(또는 중요도)에 있어서 계산된 마크업 기여도가 장면 기여도보다 더 큰 것으로 지칭된다.
이와 달리, 장면이 줌인될(zoomed in) 때, 사용자가 그 위치를 더 중시하고 있으므로, 사용자는 장면 객체를 명확하게 그리고 뚜렷하게 보기를 원할 것이며, 장면 객체의 가리는 픽셀들 너머의 마크업은 덜 보거나 아예 보지 않기를 원할 것이고, 따라서 마크업 객체는 더 큰 깊이 페이딩(더 적은 불투명도)으로 드로잉될 것이다. 다르게 말하자면, 사용자에의 효용은 완전 불투명에 가까운 불투명도로 장면 객체 픽셀을 보는 것이다. 이는 사용자에의 효용에 있어서 장면 객체 기여도가 마크업 기여도보다 더 큰 것(더 중요함)으로 지칭되며, 따라서 아키텍처는 장면의 프리젠테이션에 있어서 감소되거나 제로인 불투명도로 마크업의 가려진(occluded) 픽셀을 드로잉함으로써 보상한다.
기여도는 막는 객체(마크업 앞의 장면 객체)의 픽셀 및 막힌 객체(예컨대, 마크업)의 픽셀의 픽셀 기반으로 계산된다.
이들 기여도는, 어떠한 페이딩을 사용한다 하더라도, 주어진 객체(장면 및/또는 마크업)에 대하여 적절한 깊이 페이딩 레벨로 마크업 및/또는 장면 객체를 드로잉함으로써 사용자에게 시각화된다. 이는 막는 장면 컨텐츠 및/또는 장면 안에 배치된 마크업 없이(이들 중 어떠한 것이든 인지되기 원함) 3D 장면의 주석(예컨대, 마크업 객체로서의 텍스트, 라인, 그래픽 등과 함께)을 가능하게 한다.
마크업은, 주어진 장면에 원래는 없지만 장면(예컨대, 지도) 안에 배치되며, 장면의 양상을 이해하는데 있어서 사용자를 돕는 임의의 객체(들)("마크업 객체"로도 지칭됨)로 기재될 수 있다. 예를 들어, 마크업은 도로 이름, 제한된 여행 방향, 및 도로 상태(예컨대, 공사중, 사고, 교통 차단 또는 정체 등)를 식별하는 도로 상에 배치된(위치된) 텍스트를 포함할 수 있지만, 이에 한정되는 것은 아니다. 마크업은 도로 상에 중첩된 라인 및 사용자가 여행할 또는 사용자에게 특정 목적으로 여행하도록 제안되는 루트(예컨대, 도로, 거리, 루트 등 위에 삽입된 넓은 라인)일 수 있다. 마크업은 또한, 빌딩 및 기타 그래픽(자연 및/또는 인공)과 같이 텍스트가 아닌 그리고 라인이 아닌 객체일 수도 있다.
아키텍처는, 마크업(지도와 같은 지상 장면에 적용된 마크업)을 갖는 지상 장면 및 지상 장면 객체 뿐만 아니라, 구름, 비행기, 비행 개체(예컨대, 새), 행성, 별자리, 기타 공중 마크업 등과 같은 공증 객체에 대한 마크업(예컨대, 구름 태그, 비행 객체 태그 등과 같은 공중 마크업)을 채용하는 공중 장면에도 적용된다. 마크업의 타입에 관계없이, 아키텍처는 픽셀 기반으로 마크업 및 장면 객체(들)의 드로잉을 수행한다.
장면 안에 텍스트, 라인 및 기타 그래픽과 같은 마크업 객체를 드로잉할 때, 먼저 장면의 3D 공간에 마크업 위치를 어디에 확립할지에 대한 결정이 행해진다. 개시된 아키텍처는 마크업이 이미 적용되어 있는 장면을 수신할 수 있지만, 그 다음, 사용자에 대한 효용 메트릭 및 카메라 뷰(예컨대, 줌 레벨의 변경)에 기초하여 깊이 페이딩으로 마크업을 드로잉하도록 동작한다. 장면 내의 그리고 장면 객체에 대한 마크업의 위치에 기초하여, 아키텍처는 마크업 및 가리는 장면 객체(들)의 사용자에의 효용에 대해 기여도를 계산한다. 기여도 효용 메트릭은, 예를 들어 거리 비율 또는 퍼센티지의 계산일 수 있다.
장면 객체 및 마크업이 마크업 앞의 객체와 함께 카메라로부터 먼 것으로 보이는 경우, 카메라로부터의 전체 거리는, 마크업 기여도가 장면 기여도보다 더 중요하거나 사용자에의 더 큰 효용인 것으로 계산되도록 될 수 있으며, 마크업이 현저하게 보일 수 있도록 가리는 장면 객체 픽셀에 깊이 페이딩을 적용함으로써(더 적은 불투명도 또는 완전 투명에 가까운 투명도) 마크업은 현저하게 그리고 시각적으로 읽기 쉽게 드로잉될 것이다. 이와 달리, 동일 객체(장면 및 마크업)가 카메라에 더 가까이 보이고(예컨대, 줌인됨) 장면 객체가 다시 마크업 앞에 있는 경우, 장면 객체 픽셀은 완전 불투명에 가깝거나 완전 불투명으로 렌더링됨으로써(불투명함), 마크업의 전부 또는 일부를 가린다.
픽셀 기반에 관하여, 카메라의 포지션/위치에 관련된 마크업과 연관된 가리는 객체(예컨대, 빌딩, 지형 등)에 대한 픽셀의 거리를 계산하도록 제1 패스(pass)가 행해진다. 제2 패스는 장면 안에 잠재적으로 가려진 객체 - 마크업을 드로잉한다. 마크업 픽셀이 장면 픽셀에 의해 가려지지 않은 경우, 마크업 픽셀이 드로잉된다(예컨대, 불투명). 마크업 픽셀이 장면 객체의 픽셀에 의해 가려진 경우에는, 카메라까지의 픽셀 거리(마크업 픽셀 및/또는 가리는 장면 픽셀)에 기초하여, 또는 가려진 픽셀까지의 가리는 픽셀의 거리와 같은 다른 방식에 따라 기여도가 계산된다.
카메라까지의 거리를 전반적으로 고려하는 비율, 또는 가리는 객체와 마크업 사이의 거리를 가리는 객체로부터 카메라까지의 거리로 나눈 것에 의해 정의된 값과 같이, 마크업 객체 및 장면 객체의 기여도를 계산하기 위한 임의의 수의 다양한 방식들이 존재할 수 있다. 예를 들어, 마크업 객체 픽셀들의 일부 또는 전부 앞의 장면 객체 픽셀들에 대하여, 가리는 픽셀로부터 마크업 픽셀(가려진 픽셀)까지의 거리가 계산될 수 있고, 그 다음 이 거리 값은 비율로서 카메라(관찰자로부터의 뷰)까지의 가리는 픽셀(또는 마크업 픽셀)의 거리와 비교된다. 따라서, 계산된 기여도는 사용자에게 렌더링될 효용을 본질적으로 확립한다.
카메라로부터의 직접 가시선을 따라 장면 객체의 가리는 픽셀로부터 마크업 픽셀까지의 거리가 5미터(또는 어떤 양)인 예를 고려하자 - 가려진 마크업은 가리는 장면 객체 픽셀의 5미터 뒤에 있다. 또한, 가리는 픽셀로부터 카메라까지의 거리가 500미터(또는 대응하는 측정 시스템의 어떤 값)라고 가정하자. 그러면, 일부 임계값 또는 증분 설정(프로그램에 따라 제어됨)에 비교하여, 비율은 5:500이며(큰 비율 차동), 또는 5/500=0.01의 값(비교 값)으로서 계산될 수 있고, 이는 마크업의 사용자의 뷰를 차단하는 장면 물체의 양을 나타낸다. 따라서, 비율이 크므로, 카메라로부터의 거리는 상당하고, 사용자가 예를 들어 지도 상에 이 거리로부터의 객체가 아닌 마크업을 보기를 원할 것이기에, 마크업은 시청자에 대하여 명확하게 드로잉되어(마크업 객체의 가려진 픽셀이 완전 불투명에 가까운 불투명도로 드로잉됨) 시청자에의 효용을 제공한다.
더 큰 카메라 거리에 기초하여 이 비율이 "큰" 경우(비율 차동이 큼, 또는 비교 값이 작음), 마크업 기여도가 사용자에의 더 큰 효용으로 이루어진다. 따라서, 사용자는 장면 객체 대신에 마크업을 보기를 원할 것이며, 그리하여 마크업 객체의 가려진 픽셀은 거의 불투명 또는 완전 불투명으로 드로잉된다(완전 불투명으로 유지되는 동안 장면 객체의 가리는 픽셀은 마크업의 완전 불투명 픽셀과 오버드로잉됨).
가리는 픽셀 및 마크업(가려진) 픽셀로부터의 거리가 5미터로 유지되는 상기 예에서 계속하여, 이제 카메라까지의 거리가 100미터(또는 대응하는 측정 시스템의 어떤 값)로 감소된다고 고려하자. 그러면, 비율은 5:50이거나(더 작은 비율 차동), 또는 5/50=0.1의 비교값으로서 계산될 수 있으며, 전보다 10배 더 큰 값이다. 따라서, 장면은 이제 더 줌인된 것으로 보인다(장면 객체 및 마크업은 시청자/카메라에 훨씬 더 가까운 것으로 보임). 비율(양 또는 비교 값)이 작은 경우, 마크업 및 가리는 객체는 카메라에 더 가깝고, 장면 기여도가 마크업 기여도보다 사용자에의 더 큰 효용(중요도)인 것이며, 따라서 마크업 객체의 가려진 픽셀은 덜 불투명하거나 또는 전혀 불투명하지 않게 드로잉됨으로써, 마크업 픽셀을 거의 완전히 또는 완전히 막는 것으로서 사용자에게 보인다.
따라서, 장면 객체 및 마크업이 장면에서 먼 것으로 보이고 장면 객체가 마크업 앞에 있는 경우, 장면 기여도에 대한 마크업 기여도가 사용자에의 더 큰 효용(또는 중요도)으로 이루어질 수 있으며, 따라서 마크업은 보다 명확하게 드로잉될 것이다. 동일 객체 및 마크업이 장면에서 가까이 보이고 장면 객체가 마크업 앞에 있는 경우, 장면 기여도가 마크업 기여도보다 사용자에의 더 큰 효용(또는 중요도)으로 이루어지며, 따라서 마크업은 드로잉된다고 하더라도 희미하게 렌더링된다.
전술한 바와 관련 목표의 달성을 위해, 여기에서 다음의 설명 및 첨부 도면에 관련하여 특정 예시적인 양상들이 기재된다. 이들 양상은 여기에 개시된 원리가 실시될 수 있는 다양한 방식들을 나타내며, 이의 모든 양상 및 등가물은 청구 내용의 범위 내인 것으로 의도된다. 다른 이점 및 신규의 특징들은 도면과 함께 고려될 때 다음의 상세한 설명으로부터 명백하게 될 것이다.
도 1은 개시된 아키텍처에 따른 시스템을 예시한다.
도 2는 깊이 페이딩에 대하여 장면 내의 마크업 및 장면 객체의 거리를 계산하는 도면을 예시한다.
도 3은 장면의 근접 뷰 및 보다 광범위한 장면의 더 멀리서의 뷰의 스크린샷을 예시한다.
도 4는 개시된 아키텍처에 따른 방법을 예시한다.
도 5는 개시된 아키텍처에 따른 대안의 방법을 예시한다.
도 6은 개시된 아키텍처에 따른 또 다른 대안의 방법을 예시한다.
도 7은 개시된 아키텍처에 따른 또 다른 대안의 방법을 예시한다.
도 8은 개시된 아키텍처에 따른 다른 대안의 방법을 예시한다.
도 9는 개시된 아키텍처에 따라 장면 마크업에 대한 깊이 페이딩을 실행하는 컴퓨팅 시스템의 블록도를 예시한다.
텍스트와 형상 둘 다 볼 수 있으면서 장면을 막지도 또는 장면에 의해 막히지도 않는 방식으로 텍스트 및 기타 형상("마크업"으로 지칭됨)을 3차원(3D) 장면 안으로 어떻게 드로잉할지 결정하는데 있어서 문제점이 존재한다. 통상적으로, 이는 종래에 마크업을 노골적으로 드로잉하고 마크업이 장면을 막게 둠으로써 또는 전적으로 장면 내에 마크업을 드로잉하기를 시도함으로써(이 경우, 마크업은 장면의 일부에 의해 막힐 수 있음) 처리된다.
장면을 막지 않는 또는 장면에 의해 바람직하지 않게 막히지도 않는 마크업을 드로잉하기 위하여, 개시된 아키텍처는 마크업이 기여하는 사용자에의 효용 대 장면이 기여하는 사용자에의 효용을 결정하는(예컨대, 픽셀마다) 방식을 제공한다. 이는 시청자에게 유익하게 되도록 요구되는 것을 막는 일 없이 3D 장면 및 마크업을 드로잉할 방식을 제공한다.
텍스트, 라인 및 기타 그래픽과 같은 마크업을 장면 안에 드로잉할 때, 먼저 장면의 3D 공간 내에 있을 마크업을 어디에 확립할지에 대해 결정이 행해진다. 그 다음, 픽셀마다, 마크업 픽셀이 장면에 의해 막히지 않는 한, 마크업 픽셀이 드로잉된다. 마크업 픽셀이 막히는 경우에는, (장면 객체의) 막는 픽셀로부터 마크업 픽셀까지의 거리가 계산되고, 막는 픽셀로부터 카메라까지의 거리(관찰자로부터의 뷰)와 비교된다.
이 결과의 값(예컨대, 비율)은, 관찰자가 마크업 픽셀(들)을 보는 것을 차단하는 물체의 양의 단순하고 효율적인 계산을 가능하게 한다. 이 양이 작은 경우, 마크업은 최소한으로 막히고(한다고 하더라도), 양이 큰 경우, 마크업은 상당히(또는 완전히) 막힌다. 따라서, 객체가 장면에서 먼 것으로 보이고(예컨대, 줌아웃됨) 마크업 앞에 있는 경우, 마크업은 보다 명확하게 드로잉될 것이며(막는 픽셀을 통해 볼 수 있음), 반면에 동일 객체가 장면에서 가까이 보이고(예컨대, 줌인됨) 마크업 앞에 있는 경우, 마크업은 드로잉된다 하더라도 희미하게 렌더링된다.
개시된 아키텍처는 컴퓨터 게임 시스템에도 적용가능성을 찾을 수 있으며, 깊이 페이딩 및 마크업은 강화된 사용자 경험을 제공하는데 사용될 수 있다. 예를 들어, 숨기는(또는 가리는) 객체 뒤의 "숨겨진" 타겟 객체는, 거기에 플레이어/사용자로부터 "더 멀리" 떨어진 거리의 경우, 완전 불투명으로 숨겨진 객체의 가려진 픽셀들의 일부 또는 전부를 드로잉함으로써, 어느 정도의 가시성(예컨대, 윤곽)으로 드로잉될 수 있다. 사용자에서부터 숨기는 객체까지의 거리가 감소함에 따라, 숨겨진 객체의 가려진 픽셀들은 덜한 불투명도로, 그렇지 않다면 제로 불투명도로 드로잉되며, 그리하여 플레이어가 어쨌든 숨겨진 타겟 객체를 보는 것을 막는다.
이제 도면을 참조하며, 유사한 참조 번호는 전반에 걸쳐 유사한 요소를 지칭하는데 사용된다. 다음의 기재에 있어서, 설명을 위한 목적으로, 이의 전반적인 이해를 제공하기 위하여 다수의 구체적 세부사항들이 서술된다. 그러나, 신규의 실시예들은 이들 구체적 세부사항 없이 실시될 수 있다는 것이 명백할 수 있다. 다른 경우로, 잘 알려진 구조 및 디바이스는 이의 기재를 용이하게 하기 위해 블록도 형태로 도시된다. 청구 내용의 사상 및 범위 내에 속하는 모든 수정, 등가물 및 대안을 커버하도록 의도된다.
도 1은 개시된 아키텍처에 따른 시스템(100)을 예시한다. 시스템(100)은, 장면(110)의 (카메라) 뷰(112) 및 장면(110) 내에 확립된 마크업(106)의 위치에 기초하여, 마크업(106)(예컨대, 텍스트, 라인, 그래픽 등)의 마크업 기여도 양(104) 및 장면(110)의 장면 기여도 양(108)을 계산하도록 구성된 기여도 컴포넌트(102)를 포함할 수 있다. 페이드(fade) 컴포넌트(114)는, (카메라) 뷰(112)가 변함에 따라(예컨대, 줌인, 줌아웃, 임의의 방향으로의 패닝, 장면(110)에 대한 카메라의 위치 이동 등) 대응하는 마크업(106) 및 장면(110)의 기여도 양(104 및 108)에 기초하여, (마크업(106)의) 마크업 및 장면 객체에 깊이 페이딩 레벨(116)을 적용하도록 구성될 수 있다.
여기에서, 빌딩(118)은, 뷰 위치 A에서 뷰(112)의 관점에서 인지할 때에 마크업(106)의 일부 부분을 가리고 있는 가리는 (장면) 객체이다. 뷰 위치 B에서 장면(110)으로 더 가까이 이동함으로써(시청자에의 줌인 효과) 뷰(112)가 변할 때에, 빌딩(118) 및/또는 마크업(106) 중의 어느 하나 또는 둘 다에 적용된 페이딩 레벨(116)(불투명도로도 지칭됨)도 변한다. 여기에 기재된 바와 같이, 예를 들어 빌딩(118)의 막는 픽셀 및 마크업 픽셀에 대한 픽셀 거리에 따라 정의되는 대로, 페이딩 레벨(116)의 변화는 뷰(112)의 변화에 대응한다.
기여도 컴포넌트(102) 및 페이드 컴포넌트(114)는, 그래픽 어댑터 및/또는 온보드 그래픽 서브시스템(예컨대, 마더보드 실장형 칩)에서 제공되며 GPU(graphical processing units) 및/또는 마더보드 프로세서 코어(들)에 의해 전원 공급되는 것과 같은 렌더링 컴포넌트(120)와 인터페이스한다.
개시된 아키텍처에서, 특정 컴포넌트가 재구성, 조합, 생략될 수 있으며 추가의 컴포넌트가 포함될 수 있다는 것을 이해하여야 할 것이다. 또한, 일부 실시예에서, 컴포넌트들의 전부 또는 일부가 그래픽 어댑터 및/또는 클라이언트 상에 존재하며, 다른 실시예에서 일부 컴포넌트는 서버 상에 상주할 수 있거나 또는 로컬 또는 원격 서비스에 의해 제공된다. 예를 들어, 서버 구현에 있어서, 지도 뷰가 서버(예컨대, "클라우드") 상에서 깊이 렌더링에 대해 개시된 아키텍처에 따라 미리 렌더링 및 처리되고 비트맵으로서 클라이언트에게 보내질 수 있다.
다른 실시예에서, 기여도 컴포넌트(102)는, 마크업(106)의 마크업 기여도 양(104) 및 장면 기여도 양(108)에 기초하여, 장면(110)의 마크업(106)과 장면(110)의 장면 객체(빌딩(118)) 사이에 우세한 기여도를 계산하도록 구성될 수 있다. 마크업 기여도 양(104) 및 장면 기여도 양(108)은 장면(110)의 주어진 뷰(112)에 대하여 시청자(예컨대, 사용자)에의 마크업(106) 또는 장면 객체(빌딩(118))의 효용(122)을 결정하도록 계산된다. 다르게 말하자면, 마크업(106) 앞의 장면 객체(빌딩(118))보다 마크업(106)을 보는 것이 시청자에게 더 이롭거나 중요할 수 있다. 그러나, 효용(122)은 뷰 위치 A 및 뷰 위치 B에서 카메라까지의 거리에 기초하여 변할 수 있다.
페이드 컴포넌트(114)는 주어진 뷰(112)의 장면 객체의 위치에 대해 마크업(106)을 인지하도록 시청자에의 효용(122)에 기초하여 마크업(106)에 깊이 페이딩 레벨을 적용하도록 구성될 수 있다.
마크업 기여도 양 및 장면 기여도 양은 픽셀 기반으로 계산되고, 깊이 페이딩은 픽셀 기반으로 적용된다. 기여도 컴포넌트는 장면이 보여지는 가상 카메라까지의 막는 픽셀 및 마크업 픽셀의 거리의 비율을 계산하고, 기여도 컴포넌트는 시청자가 마크업을 보는 것을 차단하는 장면 물체의 양을 장면 기여도 양으로서 계산한다.
마크업 기여도 양(104)이, 장면(110)에의 마크업(106)의 효용(122)이 장면 객체(빌딩(118))보다 더 크다는 것을 나타낼 때에, 마크업(106)은 마크업(106) 앞에 있는 장면 객체(빌딩(118))보다 더 큰 현저성(prominence)으로 드로잉된다. 드로잉으로 도시되는 현저성은 적용되는 깊이 페이딩 레벨에 기초한다. 장면 기여도 양(108)이, 장면(110)에의 장면 객체의 효용(122)이 마크업(106)보다 더 크다는 것을 나타낼 때에, 마크업(106)은 마크업(106) 앞에 있는 장면 객체(빌딩(118))보다 덜한 현저성으로 드로잉된다. 드로잉으로 도시되는 현저성은 적용되는 깊이 페이딩 레벨에 기초한다.
도 2는 깊이 페이딩에 대하여 장면(202) 내의 마크업 및 장면 객체의 거리를 계산하는 것의 도면(200)을 예시한다. 도면(200)은 장면(202)에 대하여 위치된 카메라(204)를 도시한다. 카메라(204)는 (예컨대, 사용자에 의해) 장면(202)이 보여지고 있는 높이(elevation) 및 각도를 나타낸다. 도면(200)에서, 장면(202)은, 다른 객체와 연관된 픽셀을 막을 수 있거나 막지 않을 수 있거나 또는 부분적으로 막을 수 있는 장면 객체를 포함한다. 다른 객체는 예를 들어 마크업 또는 다른 장면 객체일 수 있다.
예를 들어, (예컨대, 지도 내의) 제1 라인(206)이 언덕 객체(208)(카메라(204)와 제1 라인(206) 사이에 위치된 언덕 객체(208))의 100미터 뒤에 있는 오솔길을 마크하는 장면(202)을 고려하자. 카메라(204)가 장면(202)으로부터 1000 미터 떨어져 있는 경우, 제1 라인(206)은, 시청하는 사용자가 알아채지 못하도록 불투명도 감소가 없거나(완전 불투명) 최소한으로 감소된 불투명도로 (카메라(204)의 관점으로부터) 언덕 객체(208)를 "관통하여" 디스플레이될 수 있다. 따라서, 사용자에의 효용은 이 거리에서 마크업을 보여주는 것이다.
카메라(204)가 장면(202)으로 더 가까이 이동되는 경우(예컨대, 장면(202)으로부터 500미터), 제1 라인(206)은 어느 정도 페이딩된 것으로 보일 수 있다(예컨대, 일부 퍼센티지의 투명도 또는 "부분 불투명"). 카메라(204)가 장면(202)에 가장 가까운 위치에 있는 경우에는(예컨대, 제1 라인(206)으로부터 100미터), 제1 라인(206)은 가려진 픽셀에 대하여 전혀 보이지 않을 수 있다.
이 기술은, 빌딩 객체(212) 뒤의 제2 라인(210)에 의해 마킹된 제2 경로나 루트, 및 카메라(204)에 의해 전혀 막히지 않은, 제3 라인(214)에 의해 마킹된 제3 경로나 루트와 같이, 장면(202) 내의 다른 마크업 및 객체에 동일하게 적용된다. 이 마지막 경우에는, 카메라(204)가 빌딩(212)의 오른쪽으로 이동되지 않고 어떤 가려진 방식으로 제3 경로나 루트를 뒤돌아보지 않는 한, 제3 라인(214)은 불투명으로서 제시된다.
카메라(204)가 장면(202)으로 더 가까이 이동되는 경우(예컨대, 장면(202)으로부터 500미터), 빌딩 객체(212) 뒤의 제2 오솔길(제2 라인(210))은 어느 정도 페이딩된 것으로 보일 수 있다(예컨대, 일부 퍼센티지의 투명도 또는 "부분 불투명도"). 카메라(204)가 제3 경로(제3 라인(214))로부터 100 미터에 있고 제3 경로가 일부 객체(도시되지 않음)에 의해 가려진 경우, 제3 오솔길(제3 라인(214))은 전혀 보이지 않을 수 있다(제로 불투명도와 등가인 깊이 페이딩 레벨).
장면 내의 모든 잠재적으로 가리는 객체(예컨대, 언덕 객체(208), 빌딩 객체(212) 등)는 카메라(204)로부터의 거리를 계산하도록 렌더링된 패스를 갖는다. 편의상 그리고 적합한 이유로, 예를 들어, 거리는 (장면(202)의 일부로서) 디스플레이 상의 각각의 픽셀에 대하여 계산되고 "거리" 버퍼로 기록될 수 있다. 모든 잠재적으로 가려진 객체(예컨대, 제1 라인(206))를 렌더링할 때, 종래의 깊이 버퍼는 이용되지 않을 수 있으며, 카메라(204)로부터의 픽셀 거리가 계산되어 거리 버퍼에 저장된다. 렌더링되고 있는 장면(202) 내의 객체에 기초하여, 이는 정점(vertex)마다 수행될 수 있고, 각각의 픽셀에 대하여 보간될 수 있고, 그리고/또는 픽셀마다 직접 계산될 수 있다.
그 다음, 가리는 거리(가리는 객체, 예컨대 언덕 객체(208)의 거리)가 거리 버퍼로부터 검색되고, 마크업과 같은 다른 객체의 다른 검색된 거리와 비교된다. 카메라(204)까지의 잠재적으로 가려진 픽셀(216)의 거리(가려진 픽셀 거리로 지칭됨)가 카메라(204)까지의 가리는 픽셀(218)의 거리보다 작은(그에 가까운) 경우, 잠재적으로 가려진 픽셀(218)은 완전 불투명으로 드로잉된다.
대안으로서, 가려진 픽셀 거리(잠재적으로 가려진 픽셀(216)로부터 카메라(204)까지의 거리)와, 잠재적으로 가려진 픽셀(216)과 가리는 픽셀(218) 사이의 거리 간의 비율을 고려하자. 이 비율이 큰 경우(일부 구배 또는 임계 스케일 또는 값에 따라 프로그램으로 결정될 수 있음), 그리하여 카메라(204)가 픽셀들이 서로로부터 있는 것보다 더 멀리 떨어져 있는 경우, 잠재적으로 가려진 픽셀(216)은 완전 불투명으로 드로잉된다. 비율이 감소함(카메라(204)가 장면(202)으로 가까이 이동함)에 따라, 불투명도는 제로로 감소한다(즉, 제로 투명도). 이 비율이 낮아진(또는 변하는) 불투명도로 전환되는 비율은 프로그램에 따라 제어될 수 있다.
정확한 거동은 상이한 데이터 타입에 대하여 달라질 수 있으며, 그리하여 네비게이션 경로를 나타내는 경로는 예를 들어 연관된 도로, 경로, 또는 루트보다 더 길게 불투명도를 유지한다.
도 3은 장면의 근접 뷰(302) 및 보다 광범위한 장면의 더 멀리서의 뷰(304)의 스크린샷(300)을 예시한다. 근접 뷰(302)에서, 라벨 (마크업) "Via San Marco"는 마크업 앞의 빌딩(206)과 다소 섞여있고(페이딩됨), 마크업이 제시되어 있는 도로(308)도 또한 완전히 막혔다기보다는 섞여있다(페이딩됨)는 것을 유의하자. 사용자에의 효용은, 사용자가 이 거리에서 지형 및 루트를 가장 중시할 것이므로, 이 근접 뷰에서 마크업을 보여주지 않는 것이다.
추가적으로, 더 멀리서의 뷰(304)(줌아웃된 이미지)에서, 도로(308)는 보다 현저하고 따라서 빌딩에 의해 덜 막힘(가려짐)을 주목하자. 이 더 먼 거리에서의 사용자에의 효용은, 사용자가 이 거리에서 지형 및 루트를 덜 중시할 것이고 따라서 원하는 목적지 또는 지역에 도달하도록 루트 마크업을 보는 데에 더 관심있을 수 있으므로, 뷰에서 마크업을 보여주는 것이다. 개시된 아키텍처에 의해 가능한 페이딩은, 사용자가 뷰를 변경함에 따라 실시간으로 발생한다(실제 이벤트가 일어나고 있는 기간에 처리됨).
개시된 아키텍처의 신규의 양상들을 수행하기 위한 예시적인 방법을 나타내는 흐름도의 세트가 여기에 포함된다. 설명을 단순하게 하기 위한 목적으로, 예를 들어 플로우차트 또는 흐름도의 형태로, 여기에 도시된 하나 이상의 방법이 일련의 동작들로서 도시되고 기재되어 있지만, 일부 동작들이 그와 함께 상이한 순서로 그리고/또는 여기에 도시되고 기재된 바와 다른 동작들과 동시에 일어날 수 있으므로, 방법은 그 동작 순서에 의해 한정되지 않음을 이해하고 알아야 할 것이다. 예를 들어, 당해 기술 분야에서의 숙련자들은, 방법이 대안으로서 상태도에서와 같이 일련의 서로 관계가 있는 상태 또는 이벤트로서 나타날 수 있다는 것을 이해하고 알 것이다. 더욱이, 방법에 예시된 모든 동작들이 신규의 구현을 위해 요구되는 것은 아닐 수 있다.
도 4는 개시된 아키텍처에 따른 방법을 예시한다. 400에서, 마크업의 위치가 뷰에 따라 그리고 장면 내에 확립된다. 뷰는 가상 카메라의 관점에 의해 결정되고, 장면은 마크업의 어느 정도의 가림을 제공하는 것으로서 고려되는 일부 객체만 또는 뷰 내의 모든 객체로서 정의될 수 있다. 402에서, 마크업의 마크업 기여도 양 및 장면의 장면 기여도 양이 마크업의 위치에 기초하여 계산된다. 404에서, 뷰가 변함에 따라 마크업 및 장면의 각자의 기여도 양에 기초하여 투명도 레벨이 마크업 및 장면 객체에 적용된다.
도 5는 개시된 아키텍처에 따른 대안의 방법을 예시한다. 500에서, 장면(예컨대, 3D) 내의 그리고 (가상 카메라의) 뷰에 따른 마크업의 위치가 확립되며, 뷰는 마크업의 어느 정도의 가림(차단)이 있는 객체를 갖는다. 502에서, 장면 내의 마크업의 마크업 기여도 양이 계산되고, 장면 내의 객체의 객체 기여도 양이 계산된다. 전체 장면에의 기여도 양은, 마크업이 장면을 차지하는 그리고 가리는 객체가 장면을 차지하는 퍼센티지(정도)를 나타낼 수 있다. 504에서, 마크업 및 객체의 각자의 기여도 양에 기초하여, 깊이 페이딩 레벨이 마크업 및 객체에 적용된다. 깊이 페이딩은, 장면 내의 그리고/또는 서로에 대한 마크업 및 객체의 깊이에 기초하여 마크업 및 객체의 하나 또는 둘 다에 적용되는 페이딩이다.
방법은, 객체가 마크업 앞에 있고 객체 기여도 양이 마크업 기여도 양보다 작은 경우, 객체보다 더 큰 현저성으로 마크업을 드로잉하는 것을 더 포함할 수 있다. 현저성은, 적용되거나 적용되지 않는 깊이 페이딩의 양을 특징으로 한다. 예를 들어, 깊이 페이딩의 양이 최소인 경우, 객체 또는 마크업은 명확하게 그리고 투명도가 거의 없거나 아예 없이 렌더링된다. 깊이 페이딩의 양이 크거나 상당한 경우, 깊이 페이딩이 적용되는 객체 또는 마크업은, 가려진 부분이 뷰에서 시각적으로 인지하기 어렵도록, 가려진 부분에 대하여 거의 명확하게 않게 렌더링된다. 따라서, 방법은, 객체가 마크업 앞에 있고 객체 기여도 양이 마크업 기여도 양보다 더 큰 경우, 객체보다 덜한 현저성으로 마크업을 드로잉하는 것을 더 포함할 수 있다.
방법은, 픽셀 기반으로 전체 장면에 대한 마크업 기여도 양 그리고 전체에 대한 객체 기여도 양을 계산하는 것을 더 포함할 수 있다. 방법은, 마크업을 가리는 객체 물질의 양(또는 객체의 픽셀)을 나타내는 거리 비율을 계산하는 것을 더 포함할 수 있다. 방법은, 뷰의 줌 레벨에 기초하여 마크업 및 객체에 적용되는 깊이 페이딩 레벨을 조정하는 것을 더 포함할 수 있다. 다르게 말하자면, 장면에서 객체 및 마크업이 더 멀리 보일수록, 객체는 더 적은 기여도 양을 가질 수 있다. 뷰의 줌 변화가 없다고 고려할 때, 마크업 앞의 객체가 상대적으로 작은 경우, 마크업은 보다 명확하게 또는 현저하게 드로잉되며, 반면에 마크업 앞의 객체가 상대적으로 큰 경우, 마크업은 드로잉된다 하더라도 덜 명확하게 또는 덜 현저하게 드로잉된다.
방법은 픽셀 기반으로 계산 및 적용하는 동작들을 수행하는 것을 더 포함할 수 있다. 방법은 장면에 의해 막힌 마크업의 마크업 픽셀의 거리 비율을 계산하고 거리 비율에 기초하여 깊이 페이딩 레벨을 적용하는 것을 더 포함할 수 있다.
도 6은 개시된 아키텍처에 따른 또 다른 대안의 방법을 예시한다. 방법은, 마이크로프로세서에 의해 실행될 때 마이크로프로세서가 다음 동작들을 수행하게 하는 컴퓨터 실행가능 명령어들로서 컴퓨터 판독가능한 저장 매체 상에 구현될 수 있다. 600에서, 가상 카메라로부터의 장면의 뷰에 따라 그리고 객체에 대하여 장면 내의 마크업의 위치가 식별된다. 602에서, 마크업에의 뷰를 차단하는 객체 물질의 양이 계산된다. 604에서, 장면에의 마크업 및 객체 물질의 각자의 기여도 양에 기초하여 깊이 페이딩이 마크업 및 객체 물질에 적용된다.
방법은 뷰의 변화에 기초하여 마크업 및 장면 물체 각각에 적용되는 깊이 페이딩의 양을 변경하는 것을 더 포함할 수 있다. 방법은, 객체가 마크업 앞에 있는 것으로서 보이고 장면에의 객체 픽셀 기여도가 장면 임계값보다 작을 때에, 객체에 적용된 깊이 페이딩에 비해 더 적은 깊이 페이딩(예컨대, 더 많은 현저성)을 마크업에 적용하는 것을 더 포함할 수 있다. 임계값은, 기여도를 결정할 메트릭으로서 마크업 및 객체의 픽셀 카운트를 나타내는 값일 수 있다.
방법은, 객체가 마크업 앞에 있는 것으로서 보이고 장면에의 객체 픽셀 기여도가 장면 임계값보다 더 클 때에, 객체에 적용된 깊이 페이딩에 비해 더 큰 깊이 페이딩(예컨대, 더 적은 현저성)을 마크업에 적용하는 것을 더 포함할 수 있다. 방법은, 마크업의 막음 정도를 결정하도록 가상 카메라에 대한 객체의 픽셀 및 마크업의 픽셀의 거리 비율을 계산하는 것을 더 포함할 수 있다. 그러면, 이 계산은 객체 및 마크업에 관련된 모든 픽셀에 대해 수행된다.
도 7은 개시된 아키텍처에 따른 또 다른 대안의 방법을 예시한다. 700에서, 장면은 장면에 위치된 마크업과 함께 그리고 가상 카메라의 뷰에 따라 수신된다. 뷰는 마크업의 어느 정도의 가림이 있는 장면 객체를 포함한다. 702에서, 마크업의 마크업 기여도 양 및 장면 객체의 장면 객체 기여도 양에 기초하여, 뷰에의 마크업 또는 장면 객체의 효용이 계산된다. 704에서, 마크업 및 장면 객체의 각자의 기여도 양에 기초하여, 깊이 페이딩 레벨이 마크업 또는 장면 객체의 적어도 하나에 적용된다.
방법은, 장면 객체가 마크업 앞에 있고 마크업이 장면 객체보다 장면에서의 더 큰 효용으로 이루어진 경우, 현저하게 그리고 읽기 쉽게 마크업을 드로잉하는 것을 더 포함할 수 있다. 방법은, 장면 객체가 마크업 앞에 있고 장면 객체가 마크업보다 장면에서의 더 큰 효용으로 이루어진 경우, 장면 객체보다 더 적은 현저성으로 마크업을 드로잉하는 것을 더 포함할 수 있다.
방법은, 픽셀 기반으로 장면에의 마크업 기여도 양 및 장면에의 장면 객체 기여도 양을 계산하는 것을 더 포함할 수 있다. 방법은 마크업을 가리는 객체 물질의 양을 나타내는 거리 비율을 계산하는 것을 더 포함할 수 있다.
방법은, 뷰의 줌 레벨에 기초하여 마크업, 장면 객체, 또는 마크업과 장면 객체에 적용된 깊이 페이딩 레벨을 조정하는 것을 더 포함할 수 있다. 방법은 장면 객체의 가리는 픽셀 및 마크업의 가려진 픽셀의 픽셀 기반으로 계산 및 적용하는 동작들을 수행하는 것을 더 포함할 수 있다. 방법은, 마크업의 마크업 픽셀과 장면 객체의 장면 객체 픽셀 사이의 거리, 및 장면이 보여지고 있는 가상 카메라까지의 거리에 의해 정의되는 거리 비율을 계산하고, 거리 비율에 기초하여 깊이 페이딩 레벨을 적용하는 것을 더 포함할 수 있다.
도 8은 개시된 아키텍처에 따른 다른 대안의 방법을 예시한다. 방법은, 마이크로프로세서에 의해 실행될 때, 마이크로프로세서가 다음 동작들을 수행하게 하는 컴퓨터 실행가능 명령어들로서 컴퓨터 판독가능한 저장 매체 상에 구현될 수 있다.
800에서, 마크업의 위치가 가상 카메라로부터의 장면의 뷰에 따라 그리고 가리는 장면 객체에 대해 3D 장면에서 식별된다. 802에서, 마크업에의 뷰를 차단하는 객체 물질의 양이 가상 카메라까지의 거리에 기초하여 계산된다. 804에서, 거리에 기초하여, 가리는 장면 객체보다 더 큰 식별력(distinctiveness)으로 마크업을 드로잉는 것 또는 마크업보다 더 큰 식별력으로 장면 객체를 드로잉하는 것의 효용이 계산된다. 806에서,평가된 효용에 기초하여 깊이 페이딩이 마크업, 장면 객체, 또는 마크업과 장면 객체에 적용된다.
방법은, 뷰의 변화 및 효용에 기초하여 적용된 깊이 페이딩의 양을 변경하는 것을 더 포함할 수 있다. 방법은, 마크업의 효용이 장면 객체의 효용보다 더 클 때에, 마크업에 완전 불투명과 등가인 깊이 페이딩을 적용하는 것을 더 포함할 수 있다.
방법은, 장면 객체의 효용이 마크업의 효용보다 더 클 때에, 마크업에 제로 불투명도와 등가인 깊이 페이딩을 적용하는 것을 더 포함할 수 있다. 방법은, 마크업에 적용된 깊이 페이딩의 정도를 결정하도록, 가상 카메라까지의 거리에 대한, 객체의 픽셀 및 마크업의 픽셀의 거리에 기초하여, 효용을 평가하는 것을 더 포함할 수 있다.
본 출원에서 사용될 때, 용어 "컴포넌트", 및 "시스템"은, 하드웨어든, 소프트웨어와 유형의(tangible) 하드웨어의 조합이든, 소프트웨어든, 또는 실행 중인 소프트웨어든, 컴퓨터 관련 엔티티를 지칭하도록 의도된다. 예를 들어, 컴포넌트는 마이크로프로세서, 칩 메모리, 대용량 저장 장치(예컨대, 광 드라이브, 고체 상태 드라이브, 및/또는 자기 저장 매체 드라이브), 및 컴퓨터와 같은 유형의 컴포넌트, 및 마이크로프로세서 상에서 실행되는 프로세스, 객체, 실행, 데이터 구조(휘발성 또는 비휘발성 저장 매체에 저장됨), 모듈, 실행 쓰레드, 및/또는 프로그램과 같은 소프트웨어 컴포넌트일 수 있지만, 이에 한정되는 것은 아니다.
예시로써, 서버 상에서 실행 중인 애플리케이션과 서버 둘 다가 컴포넌트일 수 있다. 하나 이상의 컴포넌트가 프로세스 및/또는 실행 쓰레드 내에 상주할 수 있고, 컴포넌트가 하나의 컴퓨터 상에 로컬라이징되고/되거나 둘 이상의 컴퓨터 사이에 분산될 수 있다. 용어 "예시적인"은 여기에서 예, 사례, 또는 예시로서 작용하는 것을 의미하고자 사용될 수 있다. "예시적인"으로서 여기에 기재된 임의의 양상 또는 설계가 반드시 다른 양상 또는 설계 이상으로 바람직하거나 유리한 것으로서 해석되어서는 안 된다.
이제 도 9를 참조하면, 개시된 아키텍처에 따라 장면 마크업에 대하여 깊이 페이딩을 실행하는 컴퓨팅 시스템(900)의 블록도가 예시되어 있다. 그러나, 개시된 방법 및/또는 시스템의 일부 또는 모든 양상들이, 아날로그, 디지털, 혼합 신호, 및 기타 기능들이 단일 칩 기판 상에 제조되는 시스템온칩(system-on-a-chip)으로서 구현될 수 있다는 것을 알아야 한다.
이의 다양한 양상들에 대한 추가적인 맥락을 제공하기 위하여, 도 9 및 다음의 기재는 다양한 양상들이 구현될 수 있는 적합한 컴퓨팅 시스템(900)의 간략하고 전반적인 설명을 제공하도록 의도된다. 상기의 기재는 일반적으로 하나 이상의 컴퓨터 상에서 실행될 수 있는 컴퓨터 실행가능 명령어들에 관련하여 이루어지지만, 당해 기술 분야에서의 숙련자라면, 신규의 실시예는 또한 다른 프로그램 모듈과 함께 및/또는 하드웨어와 소프트웨어의 조합으로서 구현될 수도 있다는 것을 알 것이다.
다양한 양상들을 구현하기 위한 컴퓨팅 시스템(900)은, 마이크로프로세싱 유닛(들)(904)(마이크로프로세서(들) 및 프로세서(들)로도 지칭됨), 시스템 메모리(906)와 같은 컴퓨터 판독가능한 저장 매체(컴퓨터 판독가능한 저장 매체는 또한 자기 디스크, 광 디스크, 고체 상태 드라이브, 외부 메모리 시스템, 및 플래시 메모리 드라이브를 포함함), 및 시스템 버스(908)를 갖는 컴퓨터(902)를 포함한다. 마이크로프로세싱 유닛(들)(904)은, 싱글프로세서, 멀티프로세서, 싱글코어 유닛 및 멀티코어 유닛의 프로세싱 및/또는 저장 회로와 같은 임의의 다양한 상업적으로 입수가능한 마이크로프로세서일 수 있다. 더욱이, 당해 기술 분야에서의 숙련자라면, 신규의 시스템 및 방법은, 미니컴퓨터, 메인프레임 컴퓨터 뿐만 아니라 개인용 컴퓨터(예컨대, 데스크톱, 랩톱, 태블릿 PC 등), 핸드헬드 컴퓨팅 디바이스, 마이크로프로세서 기반 또는 프로그램가능 소비자 전자기기 등(이의 각각은 하나 이상의 연관된 디바이스에 동작가능하게 연결될 수 있음)을 포함하는 다른 컴퓨터 시스템 구성으로 실시될 수 있다는 것을 알 것이다.
컴퓨터(902)는, 무선 통신 디바이스, 셀룰러 전화, 및 기타 모바일 가능 디바이스와 같은 휴대용 및/또는 모바일 컴퓨팅 시스템에 대한 클라우드 컴퓨팅 서비스를 지원하는 데이터센터 및/또는 컴퓨팅 자원(하드웨어 및/또는 소프트웨어)에 채용된 여러 컴퓨터 중의 하나일 수 있다. 클라우드 컴퓨팅 서비스는, 예를 들어 서비스로서의 인프라구조, 서비스로서의 플랫폼, 서비스로서의 소프트웨어, 서비스로서의 스토리지, 서비스로서의 데스크톱, 서비스로서의 데이터, 서비스로서의 보안, 서비스로서의 API(application program interface)를 포함하지만, 이에 한정되는 것은 아니다.
시스템 메모리(906)는 휘발성(VOL) 메모리(910)(예컨대, 랜덤 액세스 메모리(RAM)) 및 비휘발성 메모리(NON-VOL)(912)(예컨대, ROM, EPROM, EEPROM 등)와 같은 컴퓨터 판독가능한 저장(물리적 저장) 매체를 포함할 수 있다. 기본 입력/출력 시스템(BIOS; basic input/output system)이 비휘발성 메모리(912)에 저장될 수 있고, 시동 중과 같이 컴퓨터(902) 내의 컴포넌트들 간에 데이터 및 신호의 통신을 용이하게 하는 기본 루틴을 포함한다. 휘발성 메모리(910)는 또한, 데이터를 캐시하기 위한 정적 RAM과 같은 고속 RAM을 포함할 수 있다.
시스템 버스(908)는 마이크로프로세싱 유닛(들)(904)에, 시스템 메모리(904)를 포함하지만 이에 한정되는 것은 아닌 시스템 컴포넌트들에 대한 인터페이스를 제공한다. 시스템 버스(908)는, 임의의 다양한 상업적으로 입수가능한 버스 아키텍처를 사용하여 메모리 버스(메모리 컨트롤러가 있거나 없음) 및 주변장치 버스(예컨대, PCI, PCIe, AGP, LPC 등)에 더 상호접속할 수 있는 임의의 여러 가지 타입의 버스 구조일 수 있다.
컴퓨터(902)는, 머신 판독가능한 스토리지 서브시스템(들)(914) 및 시스템 버스(908)와 기타 원하는 컴퓨터 컴포넌트및 회로에 스토리지 서브시스템(들)(914)을 인터페이스하기 위한 스토리지 인터페이스(들)(916)를 더 포함한다. 스토리지 서브시스템(들)(914)(물리적 저장 매체)은, 예를 들어 하드 디스크 드라이브(HDD), 자기 플로피 디스크 드라이브(FDD), 고체 상태 드라이브(SDD), 플래시 드라이브, 및/또는 광 디스크 저장 드라이브(예컨대, CD-ROM 드라이브, DVD 드라이브)의 하나 이상을 포함할 수 있다. 스토리지 인터페이스(들)(916)는 예를 들어 EIDE, ATA, SATA, 및 IEEE 1394와 같은 인터페이스 기술을 포함할 수 있다.
하나 이상의 프로그램 및 데이터가, 운영 체제(920), 하나 이상의 애플리케이션 프로그램(922), 기타 프로그램 모듈(924), 및 프로그램 데이터(926)를 비롯하여 메모리 서브시스템(906), 머신 판독가능 및 이동식 메모리 서브시스템(918)(예컨대, 플래시 드라이브 폼 팩터 기술), 및/또는 스토리지 서브시스템(들)(914)(예컨대, 광, 자기, 고체 상태)에 저장될 수 있다.
일반적으로, 프로그램은 특정 작업, 기능을 수행하거나 특정 추상 데이터 타입을 구현하는 루틴, 방법, 데이터 구조, 기타 소프트웨어 컴포넌트 등을 포함한다. 운영 체제(920), 애플리케이션(922), 모듈(924), 및/또는 데이터(926)의 전부 또는 일부가 또한, 예를 들어 휘발성 메모리(910) 및/또는 비휘발성 메모리와 같은 메모리에 캐시될 수 있다. 개시된 아키텍처는 다양한 상업적으로 입수가능한 운영 체제 또는 운영 체제들의 조합으로(예컨대, 가상 머신으로서) 구현될 수 있다는 것을 알아야 할 것이다.
스토리지 서브시스템(들)(914) 및 메모리 서브시스템(906 및 918)은 데이터, 데이터 구조, 컴퓨터 실행가능 명령어들 등의 휘발성 및 비휘발성 저장을 위한 컴퓨터 판독가능한 매체로서 작용한다. 이러한 명령어들은 컴퓨터 또는 기타 머신에 의해 실행될 때 컴퓨터 또는 기타 머신이 방법의 하나 이상의 동작들을 수행하게 할 수 있다. 컴퓨터 실행가능 명령어들은 예를 들어, 범용 컴퓨터, 특수 용도 컴퓨터, 또는 특수 용도 마이크로프로세서 디바이스(들)가 특정 기능 또는 기능 그룹을 수행하게 하는 명령어 및 데이터를 포함한다. 컴퓨터 실행가능 명령어들은 예를 들어, 2진수, 어셈블리 언어와 같은 중간 포맷 명령어들, 또는 소스 코드일 수도 있다. 동작을 수행하기 위한 명령어들은 하나의 매체 상에 저장될 수 있거나 복수의 매체에 걸쳐 저장될 수 있으며, 그리하여 명령어들은 명령어들의 전부가 동일 매체 상에 있는지 여부에 관계없이, 하나 이상의 컴퓨터 판독가능한 저장 매체 상에서 집합적으로 나타난다.
컴퓨터 판독가능한 저장 매체는 전파 신호 자체를 제외하며, 컴퓨터(902)에 의해 액세스될 수 있고, 이동식 및/또는 비이동식인 비휘발성 내부 및/또는 외부 매체를 포함한다. 컴퓨터(902)에 대하여, 다양한 타입의 저장 매체가 임의의 적합한 디지털 포맷으로 데이터의 저장을 수용한다. 당해 기술 분야에서의 숙련자라면, 개시된 아키텍처의 신규의 방법(동작)을 수행하기 위한 컴퓨터 실행가능 명령어들을 저장하기 위해 집 드라이브, 고체 상태 드라이브, 자기 테이프, 플래시 메모리 카드, 플래시 드라이브, 카트리지 등과 같은 다른 타입의 컴퓨터 판독가능한 매체가 채용될 수 있다는 것을 알아야 한다.
사용자는 키보드 및 마우스와 같은 외부 사용자 입력 디바이스(928)를 사용하여 그 뿐만 아니라 음성 인식에 의해 용이해진 음성 명령에 의해 컴퓨터(902), 프로그램 및 데이터와 상호작용할 수 있다. 기타 외부 사용자 입력 디바이스(928)는, 마이크, IR(적외선) 리모콘, 조이스틱, 게임 패드, 카메라 인식 시스템, 스타일러스 펜, 터치 스크린, 제스처 시스템(예컨대, 눈 이동, 손(들), 손가락(들), 팔(들), 머리 등에 관련한 것과 같은 신체 포즈) 등을 포함할 수 있다. 사용자는, 예를 들어 컴퓨터(902)가 휴대용 컴퓨터인 경우에, 터치 패드, 마이크, 키보드 등과 같은 온보드 사용자 입력 디바이스(930)를 사용하여 컴퓨터(902), 프로그램 및 데이터와 상호작용할 수 있다.
이들 및 기타 입력 디바이스는 시스템 버스(908)를 통해 입력/출력(I/O) 디바이스 인터페이스(들)(932)를 통하여 마이크로프로세싱 유닛(들)(904)에 접속되지만, 병렬 포트, IEEE 1394 직렬 포트, 게임 포트, USB 포트, IR 인터페이스, 단거리 무선(예컨대, 블루투스) 및 기타 RAN(personal area network) 기술 등과 같은 다른 인터페이스에 의해 접속될 수 있다. I/O 디바이스 인터페이스(들)(932)는 또한, 사운드 카드 및/또는 온보드 오디오 프로세싱 능력과 같은, 프린터, 오디오 디바이스, 카메라 디바이스 등과 같은 출력 주변장치(934)의 사용을 용이하게 한다.
하나 이상의 그래픽 인터페이스(들)(936)(일반적으로 그래픽 프로세싱 유닛(GPU)으로도 지칭됨)는 컴퓨터(902)와 외부 디스플레이(들)(938)(예컨대, LCD, 플라즈마) 및/또는 온보드 디스플레이(940)(예컨대, 휴대용 컴퓨터의 경우) 사이에 그래픽 및 비디오 신호를 제공한다. 그래픽 인터페이스(들)(936)는 또한 컴퓨터 시스템 보드의 일부로서 제조될 수도 있다.
그래픽(들) 인터페이스(936)는, 단독으로 또는 운영 체제(920), 하나 이상의 애플리케이션 프로그램(922), 기타 프로그램 모듈(924) 및/또는 프로그램 데이터(926)와 일부 조합으로, 예를 들어 도 1의 시스템(100)의 엔티티 및 컴포넌트, 도 2의 도면(200)의 엔티티 및 컴포넌트, 도 3의 스크린샷(300)의 엔티티, 및 도 4 내지 도 8의 흐름도로 나타낸 방법을 포함할 수 있다.
컴퓨터(902)는 하나 이상의 네트워크 및/또는 다른 컴퓨터에 유선/무선 통신 서브시스템(942)을 통해 논리 접속을 사용하여 네트워크 환경(예컨대, IP 기반)에서 동작할 수 있다. 다른 컴퓨터는 워크스테이션, 서버, 라우터, 개인용 컴퓨터, 마이크로프로세서 기반의 오락 기기, 피어 디바이스, 또는 기타 공동 네트워크 노드를 포함할 수 있고, 통상적으로 컴퓨터(902)에 관련하여 기재된 요소 중의 많은 요소 또는 전부를 포함한다. 논리 접속은 LAN(local area network), WAN(wide area network), 핫스폿 등에의 유선/무선 접속을 포함할 수 있다. LAN 및 WAN 네트워크 환경은 사무실 및 회사에서 흔한 일이며, 인트라넷과 같은 기업별 컴퓨터 네트워크를 용이하게 하고, 이들 전부는 인터넷과 같은 글로벌 통신 네트워크에 접속할 수 있다.
네트워크 환경에서 사용될 때, 컴퓨터(902)는 유선/무선 네트워크. 유선/무선 프린터, 유선/무선 입력 디바이스(944) 등과 통신하도록 유선/무선 통신 서브시스템(942)(예컨대, 네트워크 인터페이스 어댑터, 온보드 트랜시버 서브시스템 등)을 통해 네트워크에 접속한다. 컴퓨터(902)는 네트워크를 통한 통신을 확립하기 위한 모뎀 또는 기타 수단을 포함할 수 있다. 네트워크 환경에서, 컴퓨터(902)에 관련된 프로그램 및 데이터가 분산형 시스템과 연관되어 있는 원격 메모리/저장 디바이스에 저장될 수 있다. 도시된 네트워크 접속은 예시적인 것이며 컴퓨터들 간의 통신 링크를 확립하는 다른 수단이 사용될 수 있다는 것을 알아야 할 것이다.
컴퓨터(902)는, 예를 들어 프린터, 스캐너, 데스크톱 및/또는 휴대용 컴퓨터, PDA(personal digital assistant), 통신 위성, 무선 검출가능한 태그와 연관된 임의의 장비 또는 위치(예컨대, 키오스크, 가판대, 화장실), 및 전화와 무선 통신(예컨대, IEEE 802.11 오버더에어 변조 기술)으로 동작가능하게 배치된 무선 디바이스와 같이, IEEE 802.xx 패밀리의 표준과 같은 무선 기술을 사용한 유선/무선 디바이스 또는 엔티티와 통신하도록 동작가능하다. 이는 적어도, 핫스폿에 대한 와이파이(Wi-FiTM)(무선 컴퓨터 네트워킹 디바이스의 상호운용성을 증명하도록 사용됨), WiMax, 및 블루투스(BluetoothTM) 무선 기술을 포함한다. 따라서, 통신은 종래의 네트워크로서의 미리 정의된 구조 또는 단순히 적어도 두 디바이스 간의 애드 혹 통신일 수 있다. 와이파이 네트워크는 안전하고 신뢰적이며 빠른 무선 접속을 제공하도록 IEEE 802.11x(a, b, g 등)라 불리는 무선 기술을 사용한다. 와이파이 네트워크는 서로에, 인터넷에 그리고 유선 네트워크(IEE 802.3 관련 기술 및 기능을 사용함)에 컴퓨터를 접속하도록 사용될 수 있다.
상기에 기재된 것은 개시된 아키텍처의 예를 포함한다. 물론, 컴포넌트 및/또는 방법의 모든 생각할 수 있는 조합을 기재하는 것은 가능하지 않으며, 당해 기술 분야에서의 통상의 지식을 가진 자라면 더 많은 조합 및 치환이 가능하다는 것을 알 수 있을 것이다. 따라서, 신규의 아키텍처는 첨부된 청구항의 사상 및 범위 내에 속하는 모든 이러한 대안, 수정, 및 변형을 포함하도록 의도된다. 또한, 용어 "포함한다(include)"가 상세한 설명 또는 청구항에서 사용되는 경우에, 이러한 용어는 "포함하는(comprising)"이 청구항에서 전이어로서 채용될 때 해석되는 대로, 용어 "포함하는"과 유사한 방식으로 포괄적이도록 의도된다.

Claims (10)

  1. 시스템에 있어서,
    마크업(markup)의 마크업 기여도(contribution) 양 및 장면(scene) 기여도 양에 기초하여 장면의 마크업과 장면의 장면 객체(scene object) 사이에 우세한 기여도를 계산하도록 구성된 기여도 컴포넌트로서, 상기 마크업 기여도 양 및 상기 장면 기여도 양은 상기 장면의 주어진 뷰(view)에 대하여 시청자에의 상기 마크업 또는 상기 장면 객체의 효용(utility)을 결정하도록 계산되는 것인, 상기 기여도 컴포넌트;
    상기 주어진 뷰의 상기 장면 객체의 위치에 대해 상기 마크업을 인지하도록 상기 시청자에의 효용에 기초하여 상기 마크업에 깊이 페이딩(depth fading) 레벨을 적용하도록 구성된 페이드(fade) 컴포넌트; 및
    상기 기여도 컴포넌트 및 상기 페이드 컴포넌트와 연관된, 메모리 내의 컴퓨터 실행가능한 명령어들을 실행하도록 구성된 적어도 하나의 마이크로프로세서를 포함하는 시스템.
  2. 청구항 1에 있어서, 상기 마크업 기여도 양 및 상기 장면 기여도 양은 픽셀 기반으로 계산되고, 상기 깊이 페이딩은 픽셀 기반으로 적용되는 것인 시스템.
  3. 청구항 1에 있어서, 상기 기여도 컴포넌트는, 상기 장면이 보여지는 가상 카메라까지의, 막는(obscuring) 픽셀 및 마크업 픽셀의 거리의 비율을 계산하는 것인 시스템.
  4. 청구항 1에 있어서, 상기 마크업 기여도 양이, 상기 장면에의 상기 마크업의 효용이 상기 장면 객체보다 더 크다는 것을 나타낼 때에, 상기 마크업은, 상기 마크업 앞에 있는 상기 장면 객체보다 더 큰 현저성(prominence)으로 드로잉되는(drawn) 것인 시스템.
  5. 청구항 1에 있어서, 상기 장면 기여도 양이, 상기 장면에의 상기 장면 객체의 효용이 상기 마크업보다 더 크다는 것을 나타낼 때에, 상기 마크업은, 상기 마크업 앞에 있는 상기 장면 객체보다 더 적은 현저성으로 드로잉되는 것인 시스템.
  6. 방법에 있어서,
    가상 카메라의 뷰에 따른, 그리고 장면 내에 마크업이 위치되어 있는 상기 장면을 수신하는 단계로서, 상기 뷰는 상기 마크업의 어느 정도의 가림(occlusion)이 있는 장면 객체를 갖는 것인, 상기 장면 수신 단계;
    상기 마크업의 마크업 기여도 양 및 상기 장면 객체의 장면 객체 기여도 양에 기초하여 상기 뷰에의 상기 마크업 또는 상기 장면 객체의 효용을 계산하는 단계; 및
    상기 마크업 및 장면 객체의 각자의 기여도 양에 기초하여 상기 마크업 또는 장면 객체 중의 적어도 하나에 깊이 페이딩 레벨을 적용하는 단계를 포함하는 방법.
  7. 청구항 6에 있어서, 상기 장면 객체가 상기 마크업 앞에 있고 상기 마크업이 상기 장면 객체보다 상기 장면 내의 더 큰 효용으로 이루어진 경우, 현저하게 그리고 읽기 쉽게 상기 마크업을 드로잉하는 단계를 더 포함하는 방법.
  8. 청구항 6에 있어서, 픽셀 기반으로 상기 장면에의 상기 마크업 기여도 양 및 상기 장면에의 상기 장면 객체 기여도 양을 계산하는 단계를 더 포함하는 방법.
  9. 청구항 6에 있어서, 상기 뷰의 줌 레벨에 기초하여 상기 마크업, 상기 장면 객체, 또는 상기 마크업과 상기 장면 객체에 적용된 깊이 페이딩 레벨을 조정하는 단계를 더 포함하는 방법.
  10. 청구항 6에 있어서, 상기 마크업의 마크업 픽셀과 상기 장면 객체의 장면 객체 픽셀 사이의 거리, 및 상기 장면이 보여지고 있는 가상 카메라까지의 거리에 의해 정의된 거리 비율을 계산하는 단계, 및 상기 거리 비율에 기초하여 상기 깊이 페이딩 레벨을 적용하는 단계를 더 포함하는 방법.
KR1020167015658A 2013-11-14 2014-11-12 투명도를 사용한 장면 내의 마크업 제시 KR102280284B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020217022409A KR102413532B1 (ko) 2013-11-14 2014-11-12 투명도를 사용한 장면 내의 마크업 제시

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201361904438P 2013-11-14 2013-11-14
US61/904,438 2013-11-14
US14/223,614 2014-03-24
US14/223,614 US10074182B2 (en) 2013-11-14 2014-03-24 Presenting markup in a scene using depth fading
PCT/US2014/065102 WO2015073464A1 (en) 2013-11-14 2014-11-12 Presenting markup in a scene using transparency

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020217022409A Division KR102413532B1 (ko) 2013-11-14 2014-11-12 투명도를 사용한 장면 내의 마크업 제시

Publications (2)

Publication Number Publication Date
KR20160086895A true KR20160086895A (ko) 2016-07-20
KR102280284B1 KR102280284B1 (ko) 2021-07-22

Family

ID=53043414

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020167015658A KR102280284B1 (ko) 2013-11-14 2014-11-12 투명도를 사용한 장면 내의 마크업 제시
KR1020217022409A KR102413532B1 (ko) 2013-11-14 2014-11-12 투명도를 사용한 장면 내의 마크업 제시

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020217022409A KR102413532B1 (ko) 2013-11-14 2014-11-12 투명도를 사용한 장면 내의 마크업 제시

Country Status (5)

Country Link
US (2) US10074182B2 (ko)
EP (1) EP3069104B1 (ko)
KR (2) KR102280284B1 (ko)
CN (2) CN105723187B (ko)
WO (1) WO2015073464A1 (ko)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6472486B2 (ja) 2016-09-14 2019-02-20 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
CN107463534B (zh) * 2017-07-27 2020-03-20 维沃移动通信有限公司 一种对象标注方法、移动终端及计算机可读存储介质
CN108460725B (zh) * 2018-03-22 2019-06-18 腾讯科技(深圳)有限公司 地图显示方法、装置、设备及存储介质
CN110634381A (zh) * 2018-06-25 2019-12-31 百度在线网络技术(北京)有限公司 用于确定标注样式的方法和装置
CN109345629A (zh) * 2018-08-08 2019-02-15 安徽慧软科技有限公司 一种三维医学图像模糊凸显显示方法
CN110837764B (zh) * 2018-08-17 2022-11-15 广东虚拟现实科技有限公司 图像处理方法、装置、电子设备及视觉交互系统
CN111161374A (zh) * 2019-12-17 2020-05-15 稿定(厦门)科技有限公司 圈点绘制的方法及装置
CN113901343A (zh) * 2021-09-30 2022-01-07 北京百度网讯科技有限公司 目标物体的可视角确定方法、装置及电子设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030231190A1 (en) * 2002-03-15 2003-12-18 Bjorn Jawerth Methods and systems for downloading and viewing maps
JP2006068138A (ja) * 2004-08-31 2006-03-16 Nintendo Co Ltd ゲーム装置および画像処理プログラム
US20100134516A1 (en) * 2008-11-28 2010-06-03 Sony Corporation Image processing system
US20130076743A1 (en) * 2006-04-11 2013-03-28 Noregin Assets N.V., L.L.C. Method and System for Transparency Adjustment and Occlusion Resolution for Urban Landscape Visualization

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3889392B2 (ja) * 2003-11-18 2007-03-07 株式会社スクウェア・エニックス 画像描画装置及び方法、プログラム並びに記録媒体
US7643673B2 (en) 2006-06-12 2010-01-05 Google Inc. Markup language for interactive geographic information system
KR20080047847A (ko) 2006-11-27 2008-05-30 삼성전자주식회사 동적 영상물 재생 장치 및 방법
KR100827241B1 (ko) 2006-12-18 2008-05-07 삼성전자주식회사 동적 영상물을 생성하기 위한 템플릿을 편집하는 장치 및방법
US7929743B2 (en) 2007-10-02 2011-04-19 Hologic, Inc. Displaying breast tomosynthesis computer-aided detection results
US8237666B2 (en) * 2008-10-10 2012-08-07 At&T Intellectual Property I, L.P. Augmented I/O for limited form factor user-interfaces
US8493408B2 (en) 2008-11-19 2013-07-23 Apple Inc. Techniques for manipulating panoramas
US8121618B2 (en) * 2009-10-28 2012-02-21 Digimarc Corporation Intuitive computing methods and systems
US20110109617A1 (en) * 2009-11-12 2011-05-12 Microsoft Corporation Visualizing Depth
US8436872B2 (en) * 2010-02-03 2013-05-07 Oculus Info Inc. System and method for creating and displaying map projections related to real-time images
US8319772B2 (en) 2010-07-23 2012-11-27 Microsoft Corporation 3D layering of map metadata
WO2012071435A1 (en) 2010-11-24 2012-05-31 Google Inc. Rendering and navigating photographic panoramas with depth information in a geographic information system
US20130022274A1 (en) * 2011-07-22 2013-01-24 Qualcomm Incorporated Specifying values by occluding a pattern on a target
JP5821526B2 (ja) 2011-10-27 2015-11-24 ソニー株式会社 画像処理装置、画像処理方法及びプログラム
US9414048B2 (en) 2011-12-09 2016-08-09 Microsoft Technology Licensing, Llc Automatic 2D-to-stereoscopic video conversion
US20130147787A1 (en) 2011-12-12 2013-06-13 Sergey Ignatchenko Systems and Methods for Transmitting Visual Content
CN102915669A (zh) * 2012-10-17 2013-02-06 中兴通讯股份有限公司 一种实景地图的制作方法和装置
KR102003371B1 (ko) * 2012-11-16 2019-10-01 삼성전자주식회사 화면 밝기를 조절하는 전자 장치 및 방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030231190A1 (en) * 2002-03-15 2003-12-18 Bjorn Jawerth Methods and systems for downloading and viewing maps
JP2006068138A (ja) * 2004-08-31 2006-03-16 Nintendo Co Ltd ゲーム装置および画像処理プログラム
US20130076743A1 (en) * 2006-04-11 2013-03-28 Noregin Assets N.V., L.L.C. Method and System for Transparency Adjustment and Occlusion Resolution for Urban Landscape Visualization
US20100134516A1 (en) * 2008-11-28 2010-06-03 Sony Corporation Image processing system

Also Published As

Publication number Publication date
KR102280284B1 (ko) 2021-07-22
US10074182B2 (en) 2018-09-11
WO2015073464A1 (en) 2015-05-21
EP3069104A1 (en) 2016-09-21
CN110264576A (zh) 2019-09-20
KR102413532B1 (ko) 2022-06-24
CN105723187B (zh) 2019-06-28
CN110264576B (zh) 2023-07-07
EP3069104B1 (en) 2020-02-26
US20190005665A1 (en) 2019-01-03
KR20210093367A (ko) 2021-07-27
CN105723187A (zh) 2016-06-29
US10497138B2 (en) 2019-12-03
US20150130791A1 (en) 2015-05-14

Similar Documents

Publication Publication Date Title
US10497138B2 (en) Presenting markup in a scene using depth fading
US20210025729A1 (en) Street-Level Guidance Via Route Path
US9805058B2 (en) Visibility of a point of interest based on environmental conditions
US10902685B2 (en) Augmented reality remote authoring and social media platform and system
CN110832278B (zh) 使用栅格差异的描述来渲染地图数据
US10586384B2 (en) Maintaining 3D labels as stable objects in 3D world
AU2012318676B2 (en) Occlusion of vector image data
US9646416B2 (en) Three-dimensional map display system
US20150130792A1 (en) Integration of labels into a 3d geospatial model
CN103530901A (zh) 一种匹配真实三维环境的动态水域可视化方法及系统
US20140002499A1 (en) Method, System, and Computer-Readable Recording Medium for Providing Information on an Object Using Viewing Frustums
KR101331111B1 (ko) 3차원 내비게이션에서 경로선 시인성 강화를 위한 선택적 건물 블렌딩 방법 및 그 시스템
CN110929187A (zh) 威胁事件可视化展现方法、装置、存储装置及计算机设备
CN115018967A (zh) 一种图像生成方法、装置、设备和存储介质
KR101373102B1 (ko) 자기장 표시 장치 및 방법
WO2023122815A1 (en) A computer implemented method for displaying wind forecast data on an interactive map
CN114528426A (zh) 海量矢量数据显示方法、装置、电子设备及存储介质
KR20130089816A (ko) 지도 서비스 제공 방법 및 장치

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal