DE112016003134T5 - Display objects based on a variety of models - Google Patents
Display objects based on a variety of models Download PDFInfo
- Publication number
- DE112016003134T5 DE112016003134T5 DE112016003134.3T DE112016003134T DE112016003134T5 DE 112016003134 T5 DE112016003134 T5 DE 112016003134T5 DE 112016003134 T DE112016003134 T DE 112016003134T DE 112016003134 T5 DE112016003134 T5 DE 112016003134T5
- Authority
- DE
- Germany
- Prior art keywords
- determining
- viewing angle
- requested
- visual
- visual characteristics
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/5838—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/04—Texture mapping
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
- G06T15/205—Image-based rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/50—Lighting effects
- G06T15/503—Blending, e.g. for anti-aliasing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/30—Scenes; Scene-specific elements in albums, collections or shared content, e.g. social network photos or video
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Computing Systems (AREA)
- Library & Information Science (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Processing Or Creating Images (AREA)
- Image Generation (AREA)
- Closed-Circuit Television Systems (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Zur Verfügung gestellt sind ein System und ein Verfahren zum Anzeigen von Oberflächen eines Objekts (240) von einem Blickwinkel (230) aus, der unterschiedlich von dem Blickwinkel ist, von welchem aus eine bildliche Darstellung des Objekts erfasst wurde (210, 220). Bei einigen Aspekten kann die bildliche Darstellung (710) zur Anzeige durch Kombinieren von visuellen Charakteristiken aus mehreren Quellenbildern (215, 225) und durch Anwenden einer größeren Gewichtung auf die visuellen Charakteristiken von einigen der Quellenbilder relativ zu den anderen Quellebildern erzeugt werden. Die Gewichtung kann auf der Orientierung der Oberfläche (310) relativ zu dem Standort basieren, von welchem aus das Bild erfasst wurde (320), und dem Standort, von welchem aus das Objekt angezeigt werden wird (430).Provided are a system and method for displaying surfaces of an object (240) from a viewing angle (230) that is different from the viewing angle from which a pictorial representation of the object has been acquired (210, 220). In some aspects, the pictorial representation (710) may be created for display by combining visual characteristics from multiple source images (215, 225) and applying greater weight to the visual characteristics of some of the source images relative to the other source images. The weighting may be based on the orientation of the surface (310) relative to the location from which the image was acquired (320) and the location from which the object will be displayed (430).
Description
QUERVERWEIS AUF ZUGEHÖRIGE ANMELDUNGENCROSS-REFERENCE TO RELATED APPLICATIONS
Die vorliegende Anmeldung ist eine Fortsetzung bzw. Continuation der US-Patentanmeldung Nr. 14/877,368, eingereicht am 7. Oktober 2015, deren Offenbarung hierin durch Bezugnahme enthalten ist.The present application is a continuation of U.S. Patent Application No. 14 / 877,368, filed October 7, 2015, the disclosure of which is incorporated herein by reference.
HINTERGRUND DER ERFINDUNGBACKGROUND OF THE INVENTION
Bestimmte Panoramabilder von Objekten sind mit Information in Bezug auf den geographischen Standort und eine Orientierung, von wo das Bild erfasst wurde, assoziiert. Beispielsweise kann jedes Pixel des Bilds mit Daten assoziiert sein, die den Winkel von dem geographischen Standort, von welchem aus das Bild erfasst wurde, bis zu dem Teilbereich der Oberfläche eines Objekts (wenn es eines gibt) identifizieren, dessen Erscheinungsbild durch die visuellen Charakteristiken des Pixels dargestellt ist. Jedes Pixel kann auch mit Tiefendaten assoziiert sein, die den Abstand vom Erfassungsstandort zum Teilbereich der Oberfläche identifizieren, der durch das Pixel dargestellt ist. Certain panoramas of objects are associated with information relating to the geographic location and an orientation from where the image was acquired. For example, each pixel of the image may be associated with data that identifies the angle from the geographic location from which the image was acquired to the partial area of the surface of an object (if any), its appearance by the visual characteristics of the object Pixels is shown. Each pixel may also be associated with depth data that identifies the distance from the detection location to the portion of the surface represented by the pixel.
Dreidimensionale Modelle der Standorte von Oberflächen, die in den Bildern erscheinen, können basierend auf den Tiefendaten erzeugt werden. Die Modelle enthalten Polygone, deren Eckpunkte den Oberflächenstandorten entsprechen. Die Polygone können durch Projizieren von visuellen Charakteristiken des Panoramabilds auf das Modell unter Verwendung einer Strahlverfolgung Schnittstelleiert sein. Ein Anwender kann einen Blickwinkel auswählen, von welchem aus die Modelle dem Anwender angezeigt werden können. Three-dimensional models of the locations of surfaces appearing in the images can be generated based on the depth data. The models contain polygons whose vertices correspond to surface locations. The polygons may be intersected by projecting visual characteristics of the panoramic image onto the model using ray tracing. A user can select a viewing angle from which the models can be displayed to the user.
KURZE ZUSAMMENFASSUNG DER ERFINDUNGBRIEF SUMMARY OF THE INVENTION
Aspekte der Offenbarung stellen ein System zur Verfügung, das einen oder mehrere Prozessoren, einen Speicher, der ein Modell der Orientierung und der visuellen Charakteristiken der Oberfläche eines Objekts relativ zu Blickwinkeln speichert, und Anweisungen, die durch den einen oder mehrere Prozessoren ausführbar sind, enthält. Die visuellen Charakteristiken können eine erste Gruppe von visuellen Charakteristiken enthalten, die das Erscheinungsbild der Oberfläche von einem ersten Blickwinkel aus darstellen, und eine zweite Gruppe von visuellen Charakteristiken, die das Erscheinungsbild der Oberfläche von einem zweiten Blickwinkel aus darstellen. Die Anweisungen können enthalten: Empfangen einer Anfrage für ein Bild des Objekts von einem angefragten Blickwinkel aus, der unterschiedlich von dem ersten Blickwinkel und dem zweiten Blickwinkel ist; Identifizieren einer ersten visuellen Charakteristik aus der ersten Gruppe von visuellen Charakteristiken und einer zweiten visuellen Charakteristik aus der zweiten Gruppe von visuellen Charakteristiken; Bestimmen eines ersten Gewichtungswerts für die erste visuelle Charakteristik basierend auf der Orientierung der Oberfläche relativ zu dem angefragten Blickwinkel und dem ersten Blickwinkel; Bestimmen eines zweiten Gewichtungswerts für die zweite visuelle Charakteristik basierend auf der Orientierung der Oberfläche relativ zu dem angefragten Blickwinkel und dem zweiten Blickwinkel; Bestimmen einer visuellen Charakteristik des angefragten Bilds basierend auf den ersten und zweiten visuellen Charakteristiken und den ersten und zweiten Gewichtungswerten; und Liefern des angefragten Bilds. Aspects of the disclosure provide a system that includes one or more processors, a memory that stores a model of the orientation and visual characteristics of the surface of an object relative to viewing angles, and instructions that are executable by the one or more processors , The visual characteristics may include a first group of visual characteristics representing the appearance of the surface from a first viewing angle and a second group of visual characteristics representing the appearance of the surface from a second viewing angle. The instructions may include: receiving a request for an image of the object from a requested viewing angle that is different from the first viewing angle and the second viewing angle; Identifying a first visual characteristic from the first group of visual characteristics and a second visual characteristic from the second group of visual characteristics; Determining a first weighting value for the first visual characteristic based on the orientation of the surface relative to the requested viewing angle and the first viewing angle; Determining a second weighting value for the second visual characteristic based on the orientation of the surface relative to the requested viewing angle and the second viewing angle; Determining a visual characteristic of the requested image based on the first and second visual characteristics and the first and second weighting values; and delivering the requested image.
Aspekte der Offenbarung stellen auch ein Verfahren zum Liefern eines Bilds zur Anzeige zur Verfügung. Das Verfahren kann enthalten: Empfangen einer Anfrage für ein Bild eines Objekts von einem angefragten Blickwinkel aus; Zugreifen auf ein Modell der Orientierung und der visuellen Charakteristiken der Oberfläche des Objekts relativ zu Blickwinkeln, wobei die visuellen Charakteristiken eine erste Gruppe von visuellen Charakteristiken enthalten, die das Erscheinungsbild der Oberfläche von einem ersten Blickwinkel aus darstellen, und eine zweite Gruppe von visuellen Charakteristiken, die das Erscheinungsbild der Oberfläche von einem zweiten Blickwinkel aus darstellen, wobei der erste und der zweite Blickwinkel unterschiedlich vom angefragten Blickwinkel sind; Identifizieren einer ersten visuellen Charakteristik aus der ersten Gruppe von visuellen Charakteristiken und einer zweiten visuellen Charakteristik aus der zweiten Gruppe von visuellen Charakteristiken; Bestimmen eines ersten Gewichtungswerts für die erste visuelle Charakteristik basierend auf der Orientierung der Oberfläche relativ zu dem angefragten Blickwinkel und dem ersten Blickwinkel; Bestimmen eines zweiten Gewichtungswerts für die zweite visuelle Charakteristik basierend auf der Orientierung der Oberfläche relativ zu dem angefragten Blickwinkel und dem zweiten Blickwinkel; Bestimmen einer visuellen Charakteristik des angefragten Bilds basierend auf den ersten und zweiten visuellen Charakteristiken und den ersten und zweiten Gewichtungswerten; und Liefern des angefragten Bilds zur Anzeige.Aspects of the disclosure also provide a method of providing an image for display. The method may include: receiving a request for an image of an object from a requested viewpoint; Accessing a model of orientation and the visual Characteristics of the surface of the object relative to viewing angles, wherein the visual characteristics include a first group of visual characteristics representing the appearance of the surface from a first viewing angle, and a second group of visual characteristics representing the appearance of the surface from a second viewing angle from, wherein the first and the second angle are different from the requested angle; Identifying a first visual characteristic from the first group of visual characteristics and a second visual characteristic from the second group of visual characteristics; Determining a first weighting value for the first visual characteristic based on the orientation of the surface relative to the requested viewing angle and the first viewing angle; Determining a second weighting value for the second visual characteristic based on the orientation of the surface relative to the requested viewing angle and the second viewing angle; Determining a visual characteristic of the requested image based on the first and second visual characteristics and the first and second weighting values; and delivering the requested image to the display.
Aspekte der Offenbarung stellen weiterhin ein nichtflüchtiges computervorrichtungslesbares Speichermedium zur Verfügung, auf welchem computervorrichtungslesbare Anweisungen eines Programms gespeichert sind. Die Anweisungen können dann, wenn sie durch eine oder mehrere Computervorrichtungen ausgeführt werden, veranlassen, dass die eine oder die mehreren Computervorrichtungen ein Verfahren durchführen, das enthält: Empfangen einer Anfrage für ein Bild eines Objekts von einem angefragten Blickwinkel aus; Zugreifen auf ein Modell der Orientierung und der visuellen Charakteristiken der Oberfläche des Objekts relativ zu Blickwinkeln, wobei die visuellen Charakteristiken eine erste Gruppe von visuellen Charakteristiken umfassen, die das Erscheinungsbild der Oberfläche von einem ersten Blickwinkel aus darstellen, und eine zweite Gruppe von visuellen Charakteristiken, die das Erscheinungsbild der Oberfläche von einem zweiten Blickwinkel aus darstellen, und wobei die ersten und zweiten Blickwinkel unterschiedlich vom angefragten Blickwinkel sind; Identifizieren einer ersten visuellen Charakteristik aus der ersten Gruppe von visuellen Charakteristiken und einer zweiten visuellen Charakteristik aus der zweiten Gruppe von visuellen Charakteristiken; Bestimmen eines ersten Gewichtungswerts für die erste visuelle Charakteristik basierend auf der Orientierung der Oberfläche relativ zu dem angefragten Blickwinkel und dem ersten Blickwinkel; Bestimmen eines zweiten Gewichtungswerts für die zweite visuelle Charakteristik basierend auf der Orientierung der Oberfläche relativ zu dem angefragten Blickwinkel und dem zweiten Blickwinkel; Bestimmen einer visuellen Charakteristik des angefragten Bilds basierend auf den ersten und zweiten visuellen Charakteristiken und den ersten und zweiten Gewichtungswerten; und Liefern des angefragten Bilds zur Anzeige.Aspects of the disclosure further provide a non-transitory computer device readable storage medium having computer program readable instructions of a program stored thereon. The instructions, when executed by one or more computing devices, may cause the one or more computing devices to perform a method that includes: receiving a request for an image of an object from a requested viewing angle; Accessing a model of the orientation and visual characteristics of the surface of the object relative to viewing angles, the visual characteristics comprising a first group of visual characteristics representing the appearance of the surface from a first viewing angle, and a second group of visual characteristics; representing the appearance of the surface from a second viewing angle, and wherein the first and second viewing angles are different from the requested viewing angle; Identifying a first visual characteristic from the first group of visual characteristics and a second visual characteristic from the second group of visual characteristics; Determining a first weighting value for the first visual characteristic based on the orientation of the surface relative to the requested viewing angle and the first viewing angle; Determining a second weighting value for the second visual characteristic based on the orientation of the surface relative to the requested viewing angle and the second viewing angle; Determining a visual characteristic of the requested image based on the first and second visual characteristics and the first and second weighting values; and delivering the requested image to the display.
KURZE BESCHREIBUNG DER ZEICHNUNGENBRIEF DESCRIPTION OF THE DRAWINGS
DETAILLIERTE BESCHREIBUNGDETAILED DESCRIPTION
ÜbersichtOverview
Die Technologie betrifft ein Anzeigen eines Objekts von einem Blickwinkel aus, der unterschiedlich von dem Blickwinkel ist, von welchem aus eine bildliche Darstellung des Objekts erfasst wurde. Beispielsweise können zwei oder mehrere Panoramabilder ein Objekt von zwei unterschiedlichen Blickwinkeln aus erfassen und kann ein Anwender ein Bild des Objekts von einem Standort aus zwischen den zwei Erfassungspunkten anfragen. Das System kann das vom Anwender angefragte Bild durch Vermischen entsprechender Fragmente der Bilder miteinander proportional zu der Wahrscheinlichkeit erzeugen, dass das Fragment eine visuell genaue Darstellung der entsprechenden Oberfläche des Objekts ist. Anhand eines Beispiels kann das System dann, wenn das vom Anwender angefragte Bild erzeugt wird, einen Qualitätswert berechnen, der auf der Beziehung des Erfassungsstandorts und dem vom Anwender angefragten Punkt zu der Orientierung der Oberfläche des anzuzeigenden Objekts basiert. Wenn die Fragmente vermischt sind, kann eine größere Gewichtung auf Fragmente angewendet werden, die bessere Qualitätswerte als die anderen Fragmente haben.The technology relates to displaying an object from a viewing angle different from the viewing angle from which a pictorial representation of the object has been acquired. For example, two or more panoramic images may capture an object from two different angles of view, and a user may request an image of the object from one location between the two detection points. The system may generate the user requested image by interspersing corresponding fragments of the images in proportion to the likelihood that the fragment is a visually accurate representation of the corresponding surface of the object. By way of example, when the user-requested image is generated, the system may calculate a quality value based on the relationship of the detection location and the user-requested point to the orientation of the surface of the object to be displayed. If the fragments are mixed, greater emphasis can be placed on fragments that have better quality values than the other fragments.
Anhand einer Darstellung zeigt
Um das Objekt von dem vom Anwender ausgewählten Blickwinkel aus anzuzeigen, kann das System ein dreidimensionales (3D) Modell von allen der Oberflächen erzeugen, die bei jedem Quellenbild erfasst sind. Beispielsweise ist ein Laser-Entfernungsmesser verwendet worden, um eine Tiefenabbildung vorzubereiten, welche wiederum verwendet wurde, um ein Quellenmodell vorzubereiten, das ein Gitter von Polygonen enthält, deren Eckpunkte den Standorten von Punkten entlang den Oberflächen des Objekts entsprechen. To display the object from the user-selected viewing angle, the system can generate a three-dimensional (3D) model of all the surfaces captured at each source image. For example, a laser range finder has been used to prepare a depth map, which in turn has been used to prepare a source model containing a grid of polygons whose vertices correspond to the locations of points along the surfaces of the object.
Das Quellenmodell, das mit jedem Quellenbild assoziiert ist, kann auch den Standort des Erfassungspunkts relativ zum Modell identifizieren und das System kann diesen Standort verwenden, um die visuelle Information, die im Quellenbild erfasst ist, auf das Modell zu projizieren. Das mit einem Quellenbild assoziierte 3D-Modell kann im Wesentlichen identisch zu dem 3D-Modell sein, das mit einem anderen Quellenbild in Bezug auf Oberflächenstandorte assoziiert ist, aber die visuellen Charakteristiken von Texturen, die auf die Modelle projiziert sind, können in Abhängigkeit von dem Winkel unterschiedlich sein, von welchem aus die Oberflächen erfasst wurden. The source model associated with each source image may also identify the location of the detection point relative to the model, and the system may use that location to project the visual information captured in the source image onto the model. Essentially, the 3D model associated with a source image can may be identical to the 3D model associated with another source image in terms of surface locations, but the visual characteristics of textures projected onto the models may vary depending on the angle from which the surfaces were acquired ,
Wenn die visuellen Charakteristiken der Pixel des dem Anwender anzuzeigenden Bilds bestimmt werden, kann das System eine Strahlverfolgung verwenden, und den Standort des vom Anwender angefragten Blickwinkels, um den Standort zu identifizieren, bei welchem ein Strahl, der sich durch jedes angezeigte Pixel erstreckt, die Texturen des Modells schneidet, z.B. ein Texel. Das System kann die Texel von den unterschiedlichen Quellenbildern miteinander vermischen, um die visuellen Charakteristiken des angezeigten Pixels zu bestimmen (z.B. Farbton, Sättigung und Helligkeit).If the visual characteristics of the pixels of the image to be displayed to the user are determined, the system may use ray tracing and the location of the user requested viewing angle to identify the location at which a ray extending through each pixel displayed will be the one Textures of the model cuts, eg a Texel. The system may merge the texels from the different source images to determine the visual characteristics of the displayed pixel (e.g., hue, saturation, and brightness).
Wenn die Texel von den Modellen der Quellenbilder miteinander vermischt werden, kann eine größere Gewichtung auf das Texel von einem Quellenbild gegenüber einem Texel von einem anderen Quellenbild angewendet werden. Die Gewichtung kann auf einem Qualitätswert basieren, der die Wahrscheinlichkeit berücksichtigt, dass das Texel eine genaue Darstellung der visuellen Charakteristiken eines anzuzeigenden Objekts ist. When the texels are merged from the models of the source images, a larger weighting on the texel from one source image over a texel from another source image can be applied. The weighting may be based on a quality score that takes into account the likelihood that the texel is an accurate representation of the visual characteristics of an object to be displayed.
Bei wenigstens einem Aspekt kann der Qualitätswert von der Auflösung der angezeigten Pixel relativ zu der Auflösung der Texel abhängen. Beispielsweise kann definiert werden, dass eine optimale Qualität auftritt, wenn es ein einziges Texel für jedes angezeigte Pixel gibt. Gegensätzlich dazu kann definiert werden, dass eine niedrige Qualität auftritt, wenn es viele Texel gibt, die mit einem einzigen Pixel assoziiert sind (was auftreten kann, wenn eine Textur einer Oberfläche geradeaus erfasst wurde, aber bei einem Streifwinkel angeschaut wird), oder es viele Pixel geben kann, die mit einem einzigen Texel assoziiert sind (was auftreten kann, wenn die Textur einer Oberfläche bei einem Streifwinkel erfasst wurde, aber in geradeaus angeschaut wird).In at least one aspect, the quality value may depend on the resolution of the displayed pixels relative to the resolution of the texels. For example, it can be defined that optimal quality occurs when there is a single texel for each displayed pixel. By contrast, it can be defined that low quality occurs when there are many texels associated with a single pixel (which can occur when a texture of a surface is detected straight ahead but viewed at a grazing angle), or many Can give pixels associated with a single texel (which can occur if the texture of a surface was detected at a grazing angle but viewed in straight line).
Der Qualitätswert eines Texels kann basierend auf dem Standort der vom Anwender definierten und Erfassungs-Blickwinkel relativ zur Orientierung der anzuzeigenden Oberfläche berechnet werden. Anhand einer Darstellung zeigt
Der Qualitätswert eines Texels kann basierend auf den Unterschieden zwischen einer Ellipse, die mit dem Erfassungspunkt assoziiert ist, (der "Texel-Ellipse") und einer Ellipse, die mit dem vom Anwender angefragten Blickwinkel assoziiert ist, (der "Pixel-Ellipse") bestimmt werden.
Wenn der Qualitätswert für jedes Texel einmal berechnet worden ist, kann der Qualitätswert während einer Vermischung als Gewichtungen angewendet werden. Beispielsweise kann dann, wenn drei Quellenbilder verwendet wurden, um drei Texel T1, T2 und T3 zu identifizieren, die Ausgabe als (w1T1 + w2T2 + w3T3)/(w1 + w2 + w3) berechnet werden, wobei wn gleich dem Qualitätswert des Texels ist. Die Gewichtungen können auch auf andere Weisen angewendet werden.Once the quality value has been calculated for each texel, the quality value can be applied as weights during a merge. For example, if three source images were used to identify three texels T 1 , T 2, and T 3 , the output can be written as (w 1 T 1 + w 2 T 2 + w 3 T 3 ) / (w 1 + w 2 + w 3 ), where w n is equal to the quality value of the texel. The weights can also be applied in other ways.
Das System kann auch Gewichtungswerte verwenden, um eine Verdeckung zu adressieren. Wie es in
Filmfehler können auch mit Gewichtungswerten adressiert werden. Beispielsweise und wie es in
Das System kann dazu verwendet werden, das Objekt dem Anwender unter dem Blickwinkel anzuzeigen, der durch den Anwender angefragt ist. Diesbezüglich und wie es in
Beispielhafte SystemeExemplary systems
Der Speicher
Die Anweisungen
Die Daten
Die Computervorrichtung
Die Computervorrichtung
Die Computervorrichtung
Die Computervorrichtung
Der Server
Der Server
Teilbereiche der bildlichen Darstellung können mit zusätzlicher Information assoziiert sein, einschließlich eines Modells des geographischen Standorts von Merkmalen, die innerhalb der bildlichen Darstellung erscheinen. Beispielsweise kann das Modell den Standort von Oberflächen von Objekten identifizieren, die in einem Panoramabild erfasst sind. Der Standort der Oberflächen kann in einem Speicher auf unterschiedliche Weisen gespeichert werden, z.B. einer Konstellation von Punkten, deren Standort als ein fester Winkel und Abstand von einem festen Standort (z.B. Orientierungen und Abstände von dem Punkt, von welchem aus die bildliche Darstellung erfasst wurde) definiert ist, oder geographisch lokalisierte Polygone, deren Eckpunkte in Breitengrad/Längengrad/Höhenlage-Koordinaten ausgedrückt sind. Das System und das Verfahren können weiterhin Standorte von einem Referenzsystem zu einem anderen umsetzen, wie beispielsweise ein Erzeugen eines Modells von geographisch lokalisierten Polygonen von einer Konstellation von Punkten, deren Standorte direkt erfasst wurden, mit der Verwendung eines Laser-Entfernungsmessers, oder erzeugt aus Bildern durch eine Verwendung einer stereographischen Dreiecksbildung. Standorte können auf andere Weisen ebenso gut ausgedrückt werden und hängen von der Art der Anwendung und einer erforderlichen Präzision ab. Nur anhand eines Beispiels können geographische Standorte durch eine Straßenadresse, x-y-Koordinaten relativ zu Rändern einer Karte (wie beispielsweise einer Pixel-Position relativ zum Rand einer Straßenkarte) oder andere Referenzsysteme, die geographische Standorte identifizieren können (z.B. Grundstücks- und Blocknummern auf Vermessungskarten), identifiziert werden. Ein Standort kann auch durch einen Bereich bzw. eine Entfernung beschrieben werden, z.B. kann ein geographischer Standort beschrieben werden durch einen Bereich bzw. eine Entfernung oder diskrete Reihen von Breitengrad/Längengrad/Höhenlage-Koordinaten. Portions of the pictorial representation may be associated with additional information, including a model of the geographic location of features that appear within the pictorial representation. For example, the model may identify the location of surfaces of objects captured in a panoramic image. The location of the surfaces can be stored in memory in different ways, e.g. a constellation of points whose location is defined as a fixed angle and distance from a fixed location (eg, orientations and distances from the point from which the imagery was captured), or geographically located polygons whose vertices are latitude / longitude / Altitude coordinates are expressed. The system and method may further implement locations from one reference system to another, such as generating a model of geographically located polygons from a constellation of points whose locations have been directly acquired, using a laser rangefinder, or generating images by using a stereographic triangulation. Locations can be expressed in other ways as well and depend on the type of application and a required precision. By way of example only, geographical locations may be identified by a street address, xy coordinates relative to edges of a map (such as a pixel position relative to the edge of a road map), or other reference systems that can identify geographic locations (eg, land and block numbers on survey maps). , be identified. A location may also be described by a range, e.g. For example, a geographic location may be described by a range or discrete series of latitude / longitude / elevation coordinates.
Beispielhafte VerfahrenExemplary methods
Operationen gemäß einer Vielfalt von Aspekten der Erfindung werden nun beschrieben werden. Es sollte verstanden werden, dass die folgenden Operationen nicht in der präzisen Reihenfolge durchgeführt werden müssen, die nachstehend beschrieben ist. Vielmehr können verschiedene Schritte in einer anderen Reihenfolge oder gleichzeitig gehandhabt werden.Operations in accordance with a variety of aspects of the invention will now be described. It should be understood that the following operations need not be performed in the precise order described below. Rather, different steps may be handled in a different order or simultaneously.
Ein geographisches Objekt kann durch eine bildliche Darstellung unter mehreren Blickwinkeln erfasst werden. Anhand eines Beispiels zeigt
Ein Modell des Standorts der Objektoberflächen, die in der bildlichen Darstellung erfasst sind, kann erzeugt werden und mit der bildlichen Darstellung assoziiert werden. Anhand eines Beispiels kann die bildliche Darstellung der Quelle ein Panoramabild enthalten. Zu der Zeit, zu der ein Quellenbild erfasst wurde, kann ein Laser-Entfernungsmesser
Die visuellen Charakteristiken, die im Quellenbild erfasst sind, können dazu verwendet werden, dass mit diesem Quellenbild assoziierte Modell zu texturieren. Beispielsweise kann jedes Pixel einer bildlichen Darstellung
Die visuelle Information der Polygone kann als Texturen gespeichert werden, die aus Texel gebildet sind. Nur anhand eines Beispiels können die Texel einer Textur auf eine Weise angeordnet werden, die ähnlich der Weise ist, auf welche Pixel eines Bilds angeordnet werden können, z.B. ein Gitter oder eine andere Sammlung von individuellen Einheiten, die eine oder mehrere visuelle Charakteristiken definieren. Teilbereiche der folgenden Beschreibung können sich der Einfachheit einer Erklärung halber nur auf eine einzelne visuelle Charakteristik eines Pixels oder Texels beziehen, wie beispielsweise Farbe. Jedoch können Pixel und Texel mit Daten assoziiert sein, die viele unterschiedliche visuelle Charakteristiken definieren, einschließlich eines Farbtons, einer Sättigung und einer Helligkeit.The visual information of the polygons can be stored as textures made of texels. By way of example only, the texels of a texture may be arranged in a manner similar to the manner in which pixels of an image may be placed, e.g. a grid or other collection of individual units that define one or more visual characteristics. Portions of the following description may, for convenience of explanation, refer only to a single visual characteristic of a pixel or texel, such as color. However, pixels and texels may be associated with data that defines many different visual characteristics, including hue, saturation, and brightness.
Selbst wenn zwei unterschiedliche Quellenmodelle identische Darstellungen eines Standorts einer Oberfläche enthalten, können sich die visuellen Charakteristiken der Oberfläche in jedem Modell stark unterscheiden. Beispielsweise kann deshalb, weil eine bildliche Darstellung
Das System kann visuelle Information, die unter mehreren Blickwinkeln erfasst ist, kombinieren, um ein geographisches Objekt unter noch einem anderen Blickwinkel anzuzeigen. Beispielsweise kann ein Anwender ein Bild
Wenn die visuellen Charakteristiken der geschnittenen Texel miteinander vermischt sind, kann eine größere Gewichtung auf das Texel angewendet werden, das von einem Quellenbild abgeleitet ist, gegenüber einem Texel, das von einem anderen Quellenbild abgeleitet ist. Die Gewichtung kann auf der Wahrscheinlichkeit basieren, dass das Texel eine genaue Darstellung der visuellen Charakteristiken des anzuzeigenden Objekts ist. When the visual characteristics of the cut texels are mixed together, a larger weighting can be applied to the texel derived from one source image versus a texel derived from another source image. The weighting may be based on the likelihood that the texel is an accurate representation of the visual characteristics of the object to be displayed.
Bei wenigstens einem Aspekt kann der Qualitätswert von der Auflösung der angezeigten Pixel relativ zu der Auflösung der Texel abhängen; es kann definiert werden, dass eine optimale Qualität auftritt, wenn es ein einziges Texel für jedes angezeigte Pixel gibt. Gegensätzlich dazu kann definiert werden, dass eine geringe Qualität auftritt, wenn es viele Texel gibt, die mit einem einzigen Pixel assoziiert sind, oder es viele Pixel gibt, die mit einem einzigen Texel assoziiert sind. Anhand eines Beispiels kann ein erstes Polygon erzeugt werden, bei welchem es ein einziges Texel für jedes Pixel gibt, das auf es projiziert ist. Wenn die Pixel auf das erste Polygon unter einem relativ geradeaus gerichteten Winkel projiziert wurden, kann die Textur viele dicht gepackte Texel enthalten. Wenn dieses Polygon in einer Richtung geradeaus angezeigt wird, kann es grob ein Texel für jedes angezeigte Pixel geben, und die Textur würde somit derart angesehen werden, dass sie eine relativ hohe Qualität hat. Wenn jedoch das Polygon unter einem spitzen Winkel angezeigt würde, kann es viele Texel für jedes angezeigte Pixel geben und würde die Textur derart angesehen werden, dass sie trotz der relativ hohen Auflösung der Textur eine relativ niedrige Qualität hat. In at least one aspect, the quality value may depend on the resolution of the displayed pixels relative to the resolution of the texels; it can be defined that optimal quality occurs when there is a single texel for each displayed pixel. In contrast, it can be defined that low quality occurs when there are many texels associated with a single pixel, or there are many pixels associated with a single texel. By way of example, a first polygon may be generated in which there is a single texel for each pixel projected on it. If the pixels were projected onto the first polygon at a relatively straight-line angle, the texture may contain many close-packed texels. If this polygon is displayed straight ahead in one direction, there may be roughly a texel for each displayed pixel, and thus the texture would be considered to have a relatively high quality. However, if the polygon were displayed at an acute angle, there could be many texels for each pixel displayed and would be the Texture can be considered such that it has a relatively low quality despite the relatively high resolution of the texture.
Anhand eines weiteren Beispiels kann ein zweites Polygon erzeugt werden, wobei es auch ein einziges Texel für jedes auf es projizierte Pixel gibt. Wenn jedoch die Pixel auf das zweite Polygon unter einem relativ spitzen Winkel projiziert würden, kann die Textur lange und dünne Texel enthalten. Wenn dieses Polygon dann geradeaus gerichtet angezeigt wird, würden viele angezeigte Pixel ihre Charakteristiken von nur einem einzigen Texel ableiten, in welchem Fall die Textur derart angesehen werden würde, dass sie eine relativ niedrige Qualität hat. Wenn jedoch das Polygon unter einem relativ spitzen Winkel angezeigt wird, kann es nur ein Texel für jedes angezeigte Pixel geben, in welchem Fall die Textur derart angesehen werden würde, dass sie trotz der relativ niedrigen Auflösung der Textur eine relativ hohe Qualität hat. By way of further example, a second polygon may be generated, with a single texel for each pixel projected thereon. However, if the pixels were projected onto the second polygon at a relatively acute angle, the texture may contain long and thin texels. If this polygon is then displayed facing straight, many displayed pixels would derive their characteristics from only a single texel, in which case the texture would be considered to have a relatively low quality. However, if the polygon is displayed at a relatively acute angle, there may be only one texel for each displayed pixel, in which case the texture would be considered to have a relatively high quality despite the relatively low resolution of the texture.
Der Qualitätswert eines Texels kann basierend auf dem Standort der anwenderdefinierten und Erfassungs-Blickwinkel relativ zu der Orientierung der anzuzeigenden Oberfläche berechnet werden. Anhand einer Darstellung kann ein Punkt
Das Ausmaß, bis zu welchem die Ellipse gestreckt ist, bezieht sich auf die Orientierung der Oberfläche und den Blickwinkel. Wenn beispielsweise die Linie "s" perfekt orthogonal zur Orientierung der Ebene ist (welche mit einem Anschauen der Oberfläche in gerader Richtung assoziiert sein würde), würde die Ellipse
Der Qualitätswert eines Texels kann basierend auf den Unterschieden zwischen der Ellipse, die mit einem Konus assoziiert ist, der sich vom Erfassungsstandort zur Schnittstelle erstreckt, (der "Texel-Ellipse") und der Ellipse, die mit einem Konus assoziiert ist, der sich vom Standort aus, der durch den Anwender ausgewählt ist, zur Schnittstelle erstreckt, (der "Pixel-Ellipse") bestimmt werden. In
Der Qualitätswert kann durch Projizieren von jeder der Texel-Ellipsenachsen auf jede der Pixel-Ellipsenachsen geschätzt werden, und durch Auswählen der Pixel-Ellipsenachse, die das größte Verhältnis ergibt. Anhand eines Beispiels kann ein Schattierer den minimalen Qualitätswert durch Berechnen von Werten gemäß der Gleichung Qualitätmin ~1/max((at·ap)/(ap·ap), (bt·ap)/(ap·ap), (at·bp)/(bp·bp), (bt·bp)/(bp·bp)) approximieren, die vier mögliche Richtungen abtastet und den Winkel auswählt, der mit dem niedrigsten Qualitätswert assoziiert ist. Andere Verfahren können auch verwendet werden, um die Qualität zu berechnen.The quality value may be estimated by projecting each of the texel ellipse axes onto each of the pixel ellipse axes, and by selecting the pixel-ellipse axis that gives the largest ratio. By way of example, a shader may calculate the minimum quality value by calculating values according to the equation quality min -1 / max ((a t * a p ) / (a p * a p ), (b t * a p ) / (a p · A p ), (a t · b p ) / (b p · b p ), (b t · b p ) / (b p · b p )), which samples four possible directions and selects the angle that associated with the lowest quality score. Other methods can also be used to calculate the quality.
Wenn einmal die Qualität eines Texels berechnet worden ist, kann die Qualität dazu verwendet werden, zu bestimmen, wie ähnlich die angezeigte Farbe eines Pixels der Farbe eines Texels sein wird. Wenn beispielsweise drei Quellenbilder verwendet würden, um drei Texel T1, T2 und T3 zu identifizieren, kann die Vermischungsgewichtung für jedes Texel in einem Fragment-Schattierer für jedes eingegebene Texel und eine Ausgabe (w1T1 + w2T2 + w3T3)/(w1 + w2 + w3) berechnet werden, wobei wn gleich dem Qualitätswert des Texels ist. Die Gewichtungen können auch auf andere Weisen angewendet werden, wie beispielsweise durch Erhöhen der Qualitätswerte zu einer Potenz. Beispielsweise kann durch Erhöhen der Gewichtungen um einen großen Exponenten die Oberfläche mit der größten Gewichtung die anderen Gewichtungen dominieren, um dadurch ein Bilden von Geisterbildern bzw. ein Schablonieren durch Reduzieren des Einflusses der Texel mit den niedrigeren Gewichtungen zu reduzieren.Once the quality of a texel has been calculated, the quality can be used to determine how similar the displayed color of a pixel will be to the color of a texel. For example, if three source images were used to identify three texels T 1 , T 2, and T 3 , the blending weight for each texel in a fragment shader for each input texel and output (w 1 T 1 + w 2 T 2 + w 3 T 3 ) / (w 1 + w 2 + w 3 ), where w n is equal to the quality value of the texel. The weights may also be applied in other ways, such as by increasing the quality values to a power. For example, by increasing the weights by a large exponent, the surface with the largest weight may dominate the other weights, thereby reducing ghosting or stenciling by reducing the impact of the lower weighted texels.
Das System kann auch Gewichtungswerte verwenden, um eine Verdeckung zu adressieren, wie es anhand eines Beispiels in
Wenn das angefragte Bild erzeugt wird, kann eine verdeckte Oberfläche versteckt werden durch Bestimmen, ob ihre assoziierte Textur in Richtung zu oder weg vom angefragten Blickwinkel gerichtet ist, und durch Bestimmen, ob die Textur näher zum Blickwinkel als andere Texturen im selben Modell ist. Beispielsweise kann das System, wenn die Farbe eines angezeigten Pixels unter einem Blickwinkel
Alternativ dazu können, eher als ein Ignorieren von bestimmten Texturen oder ein Einstellen ihrer Gewichtungen auf null, ihre relativen Gewichtungen reduziert werden. Beispielsweise können, eher als ein Einstellen von w512A auf null und ein Ignorieren von T513A und T513B allen miteinander, die nach hinten gerichteten Texel und andere Texel auch zum Vermischen verwendet werden, aber mit reduzierten Gewichtungen. Alternatively, rather than ignoring certain textures or setting their weights to zero, their relative weights may be reduced. For example, rather than setting w 512A to zero and ignoring T 513A and T 513B, all of them, the back-facing texels and other texels may also be used for blending, but with reduced weights.
Filmfehler können auch mit Gewichtungswerten adressiert werden, einschließlich Filmfehlern, die durch Diskontinuitäten bezüglich Tiefendaten verursacht sind. Beispielsweise und wie es in
Bei anderen Aspekten kann das System die äußeren Oberflächen verwenden, wenn ein Bild zur Anzeige erzeugt wird. Beispielsweise kann ein Anwender ein Bild anfordern bzw. anfragen, das die Oberflächen unter einem Blickwinkel
Unter bestimmten Winkeln können die äußeren Oberflächen einen signifikanten Beitrag zu den visuellen Charakteristiken des anzuzeigenden Bilds haben. Beispielsweise kann ein Anwender ein Bild unter einem Blickwinkel
Anwender können das System verwenden und mit den Modellen interagieren. Nur anhand eines Beispiels und unter Bezugnahme auf
Das Panoramabild kann auf der Anzeige
Da diese und andere Variationen und Kombinationen der oben diskutierten Merkmale verwendet werden können, ohne von der Erfindung abzuweichen, wie sie durch die Ansprüche definiert ist, sollte die vorangehende Beschreibung der Ausführungsformen eher anhand einer Darstellung genommen werden, als anhand einer Beschränkung der Erfindung, wie sie durch die Ansprüche definiert ist. Es wird auch verstanden werden, dass das Vorsehen von Beispielen der Erfindung (sowie Halbsätze, die formuliert sind als "wie beispielsweise", "z.B.", "einschließlich" und ähnlich) nicht als die Erfindung auf die spezifischen Beispiele beschränkend interpretiert werden sollten; vielmehr sind die Beispiele dafür beabsichtigt, nur einige oder viele mögliche Aspekte darzustellen. Since these and other variations and combinations of the above-discussed features may be utilized without departing from the invention as defined by the claims, the foregoing description of the embodiments should be taken by way of illustration rather than limitation of the invention, such as: it is defined by the claims. It will also be understood that the provision of examples of the invention (as well as halfphrases which are formulated as "such as," "for example," "including," and the like) should not be interpreted as limiting the invention to the specific examples; rather, the examples are intended to depict only a few or many possible aspects.
Claims (20)
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/877,368 | 2015-10-07 | ||
US14/877,368 US9773022B2 (en) | 2015-10-07 | 2015-10-07 | Displaying objects based on a plurality of models |
PCT/US2016/055323 WO2017062357A1 (en) | 2015-10-07 | 2016-10-04 | Displaying objects based on a plurality of models |
Publications (1)
Publication Number | Publication Date |
---|---|
DE112016003134T5 true DE112016003134T5 (en) | 2018-03-29 |
Family
ID=57218984
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE112016003134.3T Pending DE112016003134T5 (en) | 2015-10-07 | 2016-10-04 | Display objects based on a variety of models |
Country Status (8)
Country | Link |
---|---|
US (5) | US9773022B2 (en) |
EP (1) | EP3304497A1 (en) |
JP (4) | JP6571262B2 (en) |
KR (3) | KR102340678B1 (en) |
CN (2) | CN114898025A (en) |
DE (1) | DE112016003134T5 (en) |
GB (2) | GB2556511B (en) |
WO (1) | WO2017062357A1 (en) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9691241B1 (en) * | 2012-03-14 | 2017-06-27 | Google Inc. | Orientation of video based on the orientation of a display |
US9773022B2 (en) * | 2015-10-07 | 2017-09-26 | Google Inc. | Displaying objects based on a plurality of models |
CN108921191B (en) * | 2018-05-25 | 2021-10-26 | 北方工业大学 | Multi-biological-feature fusion recognition method based on image quality evaluation |
US11284054B1 (en) * | 2018-08-30 | 2022-03-22 | Largo Technology Group, Llc | Systems and method for capturing, processing and displaying a 360° video |
CN112583900B (en) * | 2020-12-02 | 2023-04-07 | 深圳市互盟科技股份有限公司 | Data processing method for cloud computing and related product |
US11756261B2 (en) * | 2021-11-10 | 2023-09-12 | Ford Global Technologies, Llc | Single-perspective image relighting |
US11776200B2 (en) | 2021-11-10 | 2023-10-03 | Ford Global Technologies, Llc | Image relighting |
Family Cites Families (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6697062B1 (en) | 1999-08-06 | 2004-02-24 | Microsoft Corporation | Reflection space image based rendering |
US7085409B2 (en) | 2000-10-18 | 2006-08-01 | Sarnoff Corporation | Method and apparatus for synthesizing new video and/or still imagery from a collection of real video and/or still imagery |
EP1371019A2 (en) | 2001-01-26 | 2003-12-17 | Zaxel Systems, Inc. | Real-time virtual viewpoint in simulated reality environment |
KR100433625B1 (en) * | 2001-11-17 | 2004-06-02 | 학교법인 포항공과대학교 | Apparatus for reconstructing multiview image using stereo image and depth map |
GB2390792B (en) * | 2002-07-08 | 2005-08-31 | Vision Rt Ltd | Image processing system for use with a patient positioning device |
RU2358319C2 (en) * | 2003-08-29 | 2009-06-10 | Самсунг Электроникс Ко., Лтд. | Method and device for photorealistic three dimensional simulation of face based on image |
JP4521568B2 (en) * | 2005-06-14 | 2010-08-11 | 国立大学法人京都大学 | Corresponding point search method, relative orientation method, three-dimensional image measurement method, corresponding point search device, relative orientation device, three-dimensional image measurement device, corresponding point search program, and computer-readable recording medium recording the corresponding point search program |
US8244025B2 (en) * | 2006-03-20 | 2012-08-14 | Siemens Energy, Inc. | Method of coalescing information about inspected objects |
CN101321299B (en) * | 2007-06-04 | 2011-06-01 | 华为技术有限公司 | Parallax generation method, generation cell and three-dimensional video generation method and device |
JP5011224B2 (en) * | 2008-07-09 | 2012-08-29 | 日本放送協会 | Arbitrary viewpoint video generation apparatus and arbitrary viewpoint video generation program |
US8525871B2 (en) * | 2008-08-08 | 2013-09-03 | Adobe Systems Incorporated | Content-aware wide-angle images |
CN101398936A (en) * | 2008-11-07 | 2009-04-01 | 北京航空航天大学 | Bidirectional texture function compressing and synthesizing method |
WO2011044936A1 (en) * | 2009-10-14 | 2011-04-21 | Nokia Corporation | Autostereoscopic rendering and display apparatus |
US9445072B2 (en) | 2009-11-11 | 2016-09-13 | Disney Enterprises, Inc. | Synthesizing views based on image domain warping |
US9274595B2 (en) * | 2011-08-26 | 2016-03-01 | Reincloud Corporation | Coherent presentation of multiple reality and interaction models |
US20130127988A1 (en) | 2011-11-17 | 2013-05-23 | Sen Wang | Modifying the viewpoint of a digital image |
US9626798B2 (en) * | 2011-12-05 | 2017-04-18 | At&T Intellectual Property I, L.P. | System and method to digitally replace objects in images or video |
US9565450B2 (en) | 2012-03-07 | 2017-02-07 | Lg Electronics Inc. | Method and device for processing video signal |
US8842162B2 (en) * | 2012-08-16 | 2014-09-23 | Nice-Systems Ltd | Method and system for improving surveillance of PTZ cameras |
US9836875B2 (en) | 2013-04-26 | 2017-12-05 | Flipboard, Inc. | Viewing angle image manipulation based on device rotation |
US9269012B2 (en) * | 2013-08-22 | 2016-02-23 | Amazon Technologies, Inc. | Multi-tracker object tracking |
US20150134651A1 (en) * | 2013-11-12 | 2015-05-14 | Fyusion, Inc. | Multi-dimensional surround view based search |
US20160062571A1 (en) * | 2014-09-02 | 2016-03-03 | Apple Inc. | Reduced size user interface |
JP2016162392A (en) * | 2015-03-05 | 2016-09-05 | セイコーエプソン株式会社 | Three-dimensional image processing apparatus and three-dimensional image processing system |
US11783864B2 (en) * | 2015-09-22 | 2023-10-10 | Fyusion, Inc. | Integration of audio into a multi-view interactive digital media representation |
US9773022B2 (en) * | 2015-10-07 | 2017-09-26 | Google Inc. | Displaying objects based on a plurality of models |
-
2015
- 2015-10-07 US US14/877,368 patent/US9773022B2/en active Active
-
2016
- 2016-10-04 EP EP16788840.3A patent/EP3304497A1/en active Pending
- 2016-10-04 KR KR1020217008457A patent/KR102340678B1/en active IP Right Grant
- 2016-10-04 CN CN202210415621.0A patent/CN114898025A/en active Pending
- 2016-10-04 CN CN201680039889.1A patent/CN107851329B/en active Active
- 2016-10-04 GB GB1800102.4A patent/GB2556511B/en active Active
- 2016-10-04 DE DE112016003134.3T patent/DE112016003134T5/en active Pending
- 2016-10-04 KR KR1020207013013A patent/KR102232724B1/en active IP Right Grant
- 2016-10-04 JP JP2018500421A patent/JP6571262B2/en active Active
- 2016-10-04 WO PCT/US2016/055323 patent/WO2017062357A1/en active Application Filing
- 2016-10-04 KR KR1020187000631A patent/KR102111079B1/en active IP Right Grant
- 2016-10-04 GB GB2112089.4A patent/GB2596662B/en active Active
-
2017
- 2017-08-31 US US15/692,548 patent/US10474712B2/en active Active
-
2019
- 2019-08-02 JP JP2019143176A patent/JP6915001B2/en active Active
- 2019-09-19 US US16/575,941 patent/US11086927B2/en active Active
-
2021
- 2021-05-14 US US17/320,648 patent/US11809487B2/en active Active
- 2021-07-13 JP JP2021115686A patent/JP7247276B2/en active Active
-
2023
- 2023-03-15 JP JP2023041182A patent/JP2023076498A/en active Pending
- 2023-10-09 US US18/377,989 patent/US20240054155A1/en active Pending
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE112016003134T5 (en) | Display objects based on a variety of models | |
DE202014010843U1 (en) | Align ground based images with aerial images | |
DE202015009181U1 (en) | Crossfade between street view and earth view | |
DE202015009182U1 (en) | Aligning panoramic and aerial photography | |
DE202016008004U1 (en) | Automatically associate images using visual property references to related applications | |
JP2019194924A5 (en) | ||
DE112016002022T5 (en) | MANAGING FEATURE DATA FOR ENVIRONMENTAL IMAGING ON AN ELECTRONIC DEVICE | |
DE102017012116A1 (en) | Preview production from panoramic pictures | |
DE202016006110U1 (en) | Extension of the field of view of photography | |
DE202012013439U1 (en) | Using banding to optimize map playback in a three-dimensional tilt view | |
DE102015120999A1 (en) | A method of generating and displaying a computer-generated real-environment simulation environment | |
DE202015009139U1 (en) | image modification | |
DE202014010866U1 (en) | Specifiability of images | |
EP4118628A2 (en) | Method and device for precisely selecting a spatial coordinate by means of a digital image | |
DE102019100011A1 (en) | Method for 3D reconstruction of an object | |
DE102017118993A1 (en) | Method for identifying a ship | |
DE102012109105A1 (en) | Method for determining planar projection of property and data projected on virtual spherical surface, involves providing value distribution on spherical surface or hemisphere surface, where value distribution is relevant to property | |
DE102015120927A1 (en) | Method for displaying a simulation environment | |
DE102022202879A1 (en) | System for viewing, inspecting and/or editing virtual spaces | |
DE102020126407A1 (en) | imaging device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R082 | Change of representative |
Representative=s name: KILBURN & STRODE LLP, GB Representative=s name: KILBURN & STRODE LLP, NL |
|
R082 | Change of representative |
Representative=s name: KILBURN & STRODE LLP, NL |
|
R016 | Response to examination communication |