DE202018100752U1 - Bayesian methodology for geospatial object / feature recognition - Google Patents

Bayesian methodology for geospatial object / feature recognition Download PDF

Info

Publication number
DE202018100752U1
DE202018100752U1 DE202018100752.1U DE202018100752U DE202018100752U1 DE 202018100752 U1 DE202018100752 U1 DE 202018100752U1 DE 202018100752 U DE202018100752 U DE 202018100752U DE 202018100752 U1 DE202018100752 U1 DE 202018100752U1
Authority
DE
Germany
Prior art keywords
images
interest
image
location
image capture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE202018100752.1U
Other languages
German (de)
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Google LLC
Original Assignee
Google LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Google LLC filed Critical Google LLC
Priority to DE202018100752.1U priority Critical patent/DE202018100752U1/en
Publication of DE202018100752U1 publication Critical patent/DE202018100752U1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/77Determining position or orientation of objects or cameras using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Astronomy & Astrophysics (AREA)
  • Remote Sensing (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)

Abstract

Computerlesbarer Speicher, der Anweisungen speichert, die durch einen oder mehrere Prozessoren ausführbar sind, um ein Verfahren zum Bestimmen eines Standortes eines Objekts von Interesse auszuführen, das Verfahren umfassend:Identifizieren eines Satzes von vielen Bildern aus einer Bilddatenbank, die sich auf eine Region von Interesse beziehen, wobei jedes der vielen Bilder mit Bilderfassungsinformationen verknüpft ist, die mindestens einen Bilderfassungsstandort beinhalten;Anwenden eines Bilderkennungs-Tools auf jedes Bild in dem Satz von vielen Bildern;Bestimmen, basierend auf dem Anwenden des Bilderkennungs-Tools, welche der Bilder das Objekt von Interesse beinhalten und welche der Bilder das Objekt von Interesse nicht beinhalten;für jeden von mehreren Kandidatenstandorten in der Region von Interesse Berechnen eines Wahrscheinlichkeitswertes des an dem Kandidatenstandort vorhandenen Objekts von Interesse unter Verwendung der Bilderfassungsinformationen für Bilder in dem Satz von vielen Bildern, die so bestimmt sind, dass sie das Objekt von Interesse beinhalten, und unter Verwendung der Bilderfassungsinformationen für Bilder in dem Satz von vielen Bildern, die so bestimmt sind, dass sie das Objekt von Interesse nicht beinhalten; undBestimmen des Standorts des Objekts unter Verwendung der Wahrscheinlichkeitswerte für die mehreren Kandidatenstandorte.A computer-readable storage storing instructions executable by one or more processors to perform a method of determining a location of an object of interest, the method comprising: identifying a set of many images from an image database relating to a region of interest wherein each of the plurality of images is associated with image capture information including at least one image capture site; applying an image recognition tool to each image in the set of multiple images; determining, based on the application of the image recognition tool, which of the images is the object of Include interest and which of the images do not include the object of interest; for each of a plurality of candidate sites in the region of interest, calculate a probability value of the object of interest present at the candidate site using the image capture information for images in the set of many images that are determined to include the object of interest, and using the image capture information for images in the set of many images that are determined not to include the object of interest; anddetermining the location of the object using the probability values for the plurality of candidate sites.

Description

In Übereinstimmung mit den Bestimmungen des Gebrauchsmustergesetzes sind nur Vorrichtungen, wie sie in den anliegenden Schutzansprüchen definiert sind, geschützt und vom Gebrauchsmuster abgedeckt, nicht jedoch Verfahren. Soweit in der nachstehenden Beschreibung gegebenenfalls auf Verfahren Bezug genommen wird, dienen diese Hinweise nur zur exemplarischen Erläuterung der mit den anliegenden Schutzansprüchen geschützten Vorrichtung(en).In accordance with the provisions of the Utility Model Law, only devices as defined in the appended claims are protected and covered by utility model, but not methods. Insofar as reference is made in the description below to methods, these instructions serve only to exemplify the device (s) protected by the attached claims.

HINTERGRUNDBACKGROUND

Im Laufe der Zeit sind immer größere Mengen an Geodaten verfügbar geworden. Das Ausführen semantischer Suchen durch solche Bilder ist mit zunehmendem Volumen anspruchsvoller geworden. Die semantische Suche ist die Suche nach einem bestimmten Objekt oder Umweltattribut, wie z. B. einem Laternenpfahl oder einer Parklandschaft, nach Namen und nicht nach einem exakten Pixelmuster. Herkömmliche Verfahren der semantischen Suche erfordern eine manuelle Überprüfung, und neue Verfahren erfordern aufwändig trainierte und abgestimmte, zweckgebundene Bilderkennungsmodelle. Beispielsweise ist manuelle Triangulation sehr arbeitsintensiv, langsam und kostspielig, während automatische Triangulation ausgefeilte und mühsam erstellte lokalisierungsspezifische Bilderkennungsmodelle oder sehr hochauflösende Bilder erfordert und dennoch einen ungenauen Standort bereitstellen kann. Obwohl allgemein einsetzbare Bildklassifikationsmodelle für die Speicherung von Fotos oder die Suche im Internet verfügbar werden, fehlt diesen nicht spezialisierten Modellen die Präzision, um Objekte angemessen zu lokalisieren.Over time, ever larger amounts of geodata have become available. Performing semantic searches through such images has become more demanding as volume increases. The semantic search is the search for a specific object or environmental attribute, such. A lamppost or parkland, by name and not by exact pixel pattern. Conventional methods of semantic search require manual checking, and new methods require elaborately trained and matched, dedicated image recognition models. For example, manual triangulation is labor-intensive, slow and costly, while automatic triangulation requires sophisticated and cumbersome localization-specific image recognition models or very high-resolution images, yet can provide an inaccurate location. Although general image classification models are available for storing photos or searching the Internet, these non-specialized models lack the precision to properly locate objects.

KURZDARSTELLUNG DER OFFENBARUNGSHORT DESCRIPTION OF THE REVELATION

Ein Aspekt der Offenbarung stellt einen computerlesbaren Speicher bereit, der Anweisungen speichert, die durch einen oder mehrere Prozessoren ausführbar sind, um ein Verfahren zum Bestimmen eines Standortes eines Objekts von Interesse auszuführen. Dieses Verfahren beinhaltet Identifizieren eines Satzes von vielen Bildern aus einer Bilddatenbank, die sich auf eine Region von Interesse beziehen, wobei jedes der vielen Bilder mit Bilderfassungsinformationen verknüpft ist, die mindestens einen Bilderfassungsstandort beinhalten. Das Verfahren beinhaltet ferner Anwenden eines Bilderkennungs-Tools auf jedes Bild in dem Satz von vielen Bildern; und Bestimmen, basierend auf dem Anwenden des Bilderkennungs-Tools, welche der Bilder das Objekt von Interesse beinhalten und welche der Bilder das Objekt von Interesse nicht beinhalten. Für jeden von mehreren Kandidatenstandorten in der Region von Interesse wird ein Wahrscheinlichkeitswert des an dem Kandidatenstandort vorhandenen Objekts, unter Verwendung der Bilderfassungsinformationen für Bilder in dem Satz von vielen Bildern, berechnet, die so bestimmt sind, dass sie das Objekt von Interesse beinhalten, und unter Verwendung der Bilderfassungsinformationen für Bilder in dem Satz von vielen Bildern, die so bestimmt sind, dass sie das Objekt von Interesse nicht beinhalten. Der Standort des Objekts wird unter Verwendung der Wahrscheinlichkeitswerte für die mehreren Kandidatenstandorte bestimmt.One aspect of the disclosure provides a computer-readable storage that stores instructions that are executable by one or more processors to perform a method of determining a location of an object of interest. This method includes identifying a set of many images from an image database relating to a region of interest, wherein each of the plurality of images is associated with image capture information that includes at least one image capture site. The method further includes applying an image recognition tool to each image in the set of many images; and determining, based on the application of the image recognition tool, which of the images include the object of interest and which of the images do not include the object of interest. For each of a plurality of candidate sites in the region of interest, a probability value of the object existing at the candidate site is calculated using the image capture information for images in the set of many images determined to include the object of interest, and under Use the image capture information for images in the set of many images that are determined not to contain the object of interest. The location of the object is determined using the probability values for the multiple candidate sites.

Nach einigen Beispielen beinhalten die Bilderfassungsinformationen für mindestens einige der Bilder einen Bilderfassungsstandort und eine Bilderfassungsausrichtung, während Berechnen des Wahrscheinlichkeitswertes des an einem bestimmten Standort vorhandenen Objekts Verwenden der Bilderfassungsausrichtung umfasst.According to some examples, the image capture information for at least some of the images includes a capture location and an image capture orientation, while calculating the probability score of the object present at a particular location includes using the capture orientation.

In einer der vorhergehenden Ausführungsformen kann Bestimmen, welche der Bilder ein Objekt von Interesse beinhalten und welche der Bilder das Objekt von Interesse nicht beinhalten, Bestimmen eines Vertrauensfaktors beinhalten, dass die Bilder das Objekt von Interesse beinhalten oder nicht beinhalten, während Berechnen des Wahrscheinlichkeitswertes des an dem Standort vorhandenen Objekts von Interesse Verwenden des bestimmten Vertrauensfaktors beinhalten kann.In one of the foregoing embodiments, determining which of the images include an object of interest and which of the images do not include the object of interest may include determining a confidence factor that the images include or do not include the object of interest while calculating the probability value of Using the specific confidence factor may be present in the location of the object of interest.

In einer der vorhergehenden Ausführungsformen kann Berechnen des Wahrscheinlichkeitswertes des an dem Kandidatenstandort vorhandenen Objekts von Interesse Anwenden eines Faktors mit einem ersten Zeichen für die Bilder in dem Satz von vielen Bildern beinhalten, die so bestimmt sind, dass sie das Objekt von Interesse beinhalten, und Anwenden eines Faktors mit einem zweiten Zeichen für die Bilder in dem Satz von vielen Bildern, die so bestimmt sind, dass sie das Objekt von Interesse nicht beinhalten, wobei das zweite Zeichen dem ersten Zeichen gegenüberliegt.In one of the foregoing embodiments, computing the probability value of the object of interest at the candidate site may include applying a factor having a first character to the images in the set of many images determined to include the object of interest and applying a factor having a second character for the images in the set of many images that are determined not to include the object of interest, the second character being opposite to the first character.

In einer der vorhergehenden Ausführungsformen können die mehreren Kandidatenstandorte in der Region von Interesse ein Raster aus mehreren Standorten beinhalten.In one of the previous embodiments, the plurality of candidate sites in the region of interest may include a grid of multiple sites.

In einer der vorhergehenden Ausführungsformen können die mehreren Kandidatenstandorte Standorte beinhalten, die in einem Sichtfeld von jedem Bild in dem Satz von vielen Bildern enthalten sind.In one of the preceding embodiments, the plurality of candidate sites may include locations included in a field of view of each image in the set of many images.

In einer der vorhergehenden Ausführungsformen kann das Bilderkennungs-Tool so konfiguriert werden, dass es diskrete Objekte erkennt. In one of the previous embodiments, the image recognition tool may be configured to recognize discrete objects.

In einer der vorhergehenden Ausführungsformen kann das Bilderkennungs-Tool zum Erkennen von Objekten konfiguriert werden, die spezifische Eigenschaften aufweisen.In one of the preceding embodiments, the image recognition tool may be configured to recognize objects having specific characteristics.

In jeder der vorhergehenden Ausführungsformen kann das Bilderkennungs-Tool aus einer Bibliothek von Bilderkennungs-Tools ausgewählt werden.In any of the foregoing embodiments, the image recognition tool may be selected from a library of image recognition tools.

Ein weiterer Aspekt der Offenbarung stellt ein System bereit, das einen Arbeitsspeicher, der eine Vielzahl von Bildern in Verbindung mit Standortinformationen speichert, und einen oder mehrere Prozessoren, die mit dem Arbeitsspeicher kommunizieren, bereitstellt. Der eine oder die mehreren Prozessoren sind so programmiert, dass sie aus der Vielzahl von Bildern einen Satz von Bildern identifizieren, die sich auf eine Region von Interesse beziehen, unter Verwendung von Bilderkennung bestimmen, welche der Bilder das Objekt von Interesse beinhalten, und unter Verwendung von Bilderkennung bestimmen, welche der Bilder das Objekt von Interesse nicht beinhalten. Für jeden von mehreren Kandidatenstandorten in der Region von Interesse wird ein Wahrscheinlichkeitswert des an dem Kandidatenstandort vorhandenen Objekts unter Verwendung der Standortinformationen für Bilder in dem Satz von vielen Bildern berechnet, die so bestimmt sind, dass sie das Objekt von Interesse beinhalten, und unter Verwendung der Standortinformationen für Bilder in dem Satz von Bildern, die so bestimmt sind, dass sie das Objekt von Interesse nicht beinhalten. Der eine oder die mehreren Prozessoren sind ferner programmiert, um den Standort des Objekts unter Verwendung der Wahrscheinlichkeitswerte für die mehreren Kandidatenstandorte zu bestimmen. In einigen Beispielen kann das System ferner ein Bilderkennungs-Tool beinhalten, mit dem Objekte oder Attribute in den Bildern identifiziert werden können. Ferner können der eine oder die mehreren Prozessoren auch so konfiguriert werden, dass sie die bestimmten Standortinformationen zur Ausgabe auf einer Anzeige bereitstellen.Another aspect of the disclosure provides a system that provides a memory that stores a plurality of images associated with location information and one or more processors that communicate with the memory. The one or more processors are programmed to identify, from among the plurality of images, a set of images relating to a region of interest, using image recognition to determine which of the images include the object of interest, and using of image recognition determine which of the images do not contain the object of interest. For each of a plurality of candidate sites in the region of interest, a probability value of the object existing at the candidate site is calculated using the location information for images in the set of many images determined to include the object of interest, and using the Location information for images in the set of images that are determined not to include the object of interest. The one or more processors are further programmed to determine the location of the object using the probability values for the plurality of candidate sites. In some examples, the system may further include an image recognition tool that can identify objects or attributes in the images. Further, the one or more processors may also be configured to provide the determined location information for display on a display.

Ein weiterer Aspekt der Offenbarung stellt ein computerlesbares Medium bereit, das Anweisungen speichert, die durch einen Prozessor ausführbar sind, um ein Verfahren zum Bestimmen des Standorts eines Objekts von Interesse auszuführen. Jene Anweisungen sehen vor, aus einer Bilddatenbank einen Satz von vielen Bildern zu identifizieren, die sich auf eine Region von Interesse beziehen, wobei jedes der Bilder mit Bilderfassungsinformationen verknüpft ist, die mindestens einen Bilderfassungsstandort umfassen, ein Bilderkennungs-Tool auf jedes Bild in dem Satz von Bildern anzuwenden, basierend auf dem Anwenden des Bilderkennungs-Tools zu bestimmen, welche der Bilder das Objekt von Interesse beinhalten und welche der Bilder das Objekt von Interesse nicht beinhalten. Für jeden von mehreren Kandidatenstandorten in der Region von Interesse stellen die Anweisungen ferner einen Wahrscheinlichkeitswert des an dem Kandidatenstandort vorhandenen Objekts unter Verwendung der Bilderfassungsinformationen für Bilder in dem Satz von vielen Bildern bereit, die so bestimmt sind, dass sie das Objekt von Interesse beinhalten, und unter Verwendung der Bilderfassungsinformationen für Bilder in dem Satz von vielen Bildern, die so bestimmt sind, dass sie das Objekt von Interesse nicht beinhalten, und Bestimmen des Standortes des Objekts unter Verwendung der Wahrscheinlichkeitswerte für die mehreren Kandidatenstandorte.Another aspect of the disclosure provides a computer-readable medium storing instructions executable by a processor to perform a method of determining the location of an object of interest. Those instructions provide to identify from an image database a set of many images relating to a region of interest, each of the images being associated with image capture information comprising at least one image capture site, an image recognition tool on each image in the sentence apply images based on applying the image recognition tool to determine which of the images include the object of interest and which of the images do not include the object of interest. For each of multiple candidate sites in the region of interest, the instructions further provide a probability value of the object present at the candidate site using the image capture information for images in the set of many images determined to include the object of interest, and using the image capture information for images in the set of many images that are determined not to include the object of interest, and determining the location of the object using the probability values for the multiple candidate sites.

Figurenlistelist of figures

  • 1 zeigt ein Blockdiagramm eines exemplarischen Verfahrens gemäß Aspekten der Offenbarung. 1 FIG. 12 is a block diagram of an exemplary method in accordance with aspects of the disclosure. FIG.
  • 2 zeigt eine Draufsicht-Abbildung von exemplarischen Beobachtungen und Nicht-Beobachtungen gemäß Aspekten der Offenbarung. 2 FIG. 12 shows a top view illustration of exemplary observations and non-observations in accordance with aspects of the disclosure. FIG.
  • 3 veranschaulicht Straßenansichten in Verbindung mit der Draufsicht-Abbildung von Beobachtungen und Nicht-Beobachtungen von 2. 3 illustrates street views in conjunction with the top view illustration of observations and non-observations of 2 ,
  • 4 zeigt eine Draufsicht-Abbildung von Beobachtungen und Nicht-Beobachtungen im Verhältnis zu einer Vielzahl von Zellen gemäß Aspekten der Offenbarung. 4 FIG. 11 shows a top view illustration of observations and non-observations relative to a plurality of cells in accordance with aspects of the disclosure. FIG.
  • 5 zeigt eine Draufsicht-Abbildung eines anderen Beispiels von Beobachtungen und Nicht-Beobachtungen gemäß Aspekten der Offenbarung. 5 FIG. 12 is a plan view illustration of another example of observations and non-observations in accordance with aspects of the disclosure. FIG.
  • 6 zeigt eine Draufsicht-Abbildung eines anderen Beispiels von Beobachtungen und Nicht-Beobachtungen gemäß Aspekten der Offenbarung.. 6 FIG. 12 is a plan view illustration of another example of observations and non-observations in accordance with aspects of the disclosure. FIG.
  • 7 zeigt eine Draufsicht-Abbildung einer exemplarischen fokussierten Beobachtung unter Verwendung eines Begrenzungsfeldes gemäß Aspekten der Offenbarung. 7 FIG. 10 is a plan view illustration of an exemplary focused observation using a bounding box in accordance with aspects of the disclosure. FIG.
  • 8 zeigt eine Draufsicht-Abbildung von exemplarischen Hindernissen gemäß Aspekten der Offenbarung. 8th FIG. 10 is a plan view illustration of exemplary obstacles in accordance with aspects of the disclosure. FIG.
  • 9 zeigt eine Draufsicht-Abbildung einer exemplarischen Wahrscheinlichkeit von Hindernissen, die Beobachtungen gemäß Aspekten der Offenbarung beeinflussen. 9 FIG. 10 is a plan view illustration of an exemplary likelihood of obstacles affecting observations in accordance with aspects of the disclosure. FIG.
  • 10 veranschaulicht ein exemplarisches Ausgeben semantischer Suchvorgänge unter Verwendung von Beobachtungen und Nicht-Beobachtungen gemäß Aspekten der Offenbarung. 10 FIG. 12 illustrates an exemplary outputting of semantic searches using observations and non-observations in accordance with aspects of the disclosure. FIG.
  • 11 zeigt ein Ablaufdiagramm, das ein exemplarisches Verfahren zum Bestimmen von Objektstandorten unter Verwendung von Beobachtungen und Nicht-Beobachtungen gemäß Aspekten der Offenbarung veranschaulicht. 11 FIG. 12 is a flowchart illustrating an exemplary method of determining object locations using observations and non-observations, in accordance with aspects of the disclosure. FIG.

AUSFÜHRLICHE BESCHREIBUNGDETAILED DESCRIPTION

ÜbersichtOverview

Die Technologie betrifft im Allgemeinen Bilderkennung und Zuordnung. Insbesondere werden Informationen aus Beobachtungen und Nicht-Beobachtungen verwendet, um ein bestimmtes Objekt oder Merkmal zu lokalisieren. Um beispielsweise alle Feuerhydranten innerhalb einer geografischen Zielregion zu lokalisieren, kann Bilderkennung auf Bildern der Region durchgeführt werden, wobei Bilder, die Hydranten beinhalten und Bilder, die keine Hydranten beinhalten, verwendet werden, um die Standorte von jedem Hydranten genauer zu berechnen. Die Nicht-Beobachtungen in der Nähe einer Beobachtung schränken den Bereich von Standorten, an denen sich ein Objekt befinden könnte, erheblich ein. Durch die Verwendung eines Bilderkennungs-Tools und die Berechnung von Wahrscheinlichkeiten für mehrere Standorte kann der Standort des Objekts relativ einfach und mit relativ hoher Sicherheit bestimmt werden, selbst wenn die Bilder nicht hochauflösend sind und/oder mit niedriger Auflösung oder unzuverlässigen Bilderfassungsinformationen verknüpft sind. Dies kann ermöglichen, die Objektstandortidentifikation auch unter Verwendung von nicht-professionellen Inhalten, z. B. von Smartphones, auszuführen. Durch Verwendung von Informationen für Bilder, die nicht für die Aufnahme des Objekts bestimmt sind, kann die Objektstandortidentifikation verbessert werden. Darüber hinaus kann dies ohne, oder nur mit relativ geringen Berechnungskosten erreicht werden.The technology generally relates to image recognition and mapping. In particular, information from observations and non-observations is used to locate a particular object or feature. For example, to locate all fire hydrants within a geographic target region, image recognition may be performed on images of the region, with images including hydrants and images containing no hydrants used to more accurately calculate the locations of each hydrant. The non-observations near an observation significantly limit the range of locations where an object could be located. By using an image recognition tool and calculating multi-site probabilities, the location of the object can be determined relatively easily and with relatively high security, even if the images are not high-resolution and / or associated with low resolution or unreliable image capture information. This may enable object location identification also using non-professional content, e.g. B. from smartphones to execute. By using information for images that are not intended to capture the object, object location identification can be improved. In addition, this can be achieved without, or only with relatively low calculation costs.

Ein initialisierter Wert wird für einen Satz von Kandidatenstandorten für das jeweilige Objekt oder Merkmal bestimmt. Beispielsweise kann der initialisierte Wert für jeden Kandidatenstandort auf Null gesetzt werden oder, in einer ausgefeilteren Version, auf einen früheren Wahrscheinlichkeitswert vor der Bilderkennungsanalyse gesetzt werden, der eine Wahrscheinlichkeit darstellt, dass das Objekt oder Merkmal an diesem Standort vorhanden ist. Beispielsweise kann für jeden Standort vor der Anwendung eines Bilderkennungs-Tools die Wahrscheinlichkeit, dass der Standort einen Feuerhydranten enthält, x % betragen, basierend auf einer Anzahl von Feuerhydranten in dem Zielbereich und einer Größe des Zielbereichs. Die Kandidatenstandorte können z. B. durch eine diskrete Liste von Standorten (z. B. nur Straßenecken), eine Raster- oder Gitteraufteilung der Zielregion in Zellen, eine gerasterte Karte der Zielregion (z. B. jedes Pixel des Rasters ist eine Zelle) oder eine fortlaufende Vektor- und Gradienten-Definition von Regionen definiert werden.An initialized value is determined for a set of candidate sites for the particular object or feature. For example, the initialized value for each candidate site may be set to zero, or, in a more sophisticated version, set to an earlier probability value prior to image recognition analysis that represents a likelihood that the object or feature exists at that site. For example, for each site prior to application of an image recognition tool, the probability that the site contains a fire hydrant may be x%, based on a number of fire hydrants in the target area and a size of the target area. The candidate locations can, for. A raster or grid division of the target region into cells, a rasterized map of the target region (eg, each pixel of the raster is a cell), or a continuous vector image. and gradient definition of regions.

Für jedes Bild in einer Vielzahl von Bildern wird ein Bilderkennungs-Tool auf das Bild angewendet, um eine Punktzahl oder eine Vertrauensbewertung zu erhalten, dass das jeweilige Objekt oder Merkmal in dem Bild sichtbar ist. Diese Punktzahl oder Vertrauensbewertung kann in einen normalisierten Wert umgewandelt werden, der einen Betrag angibt, dass die Wahrscheinlichkeit, dass sich das Objekt in einer Region befindet, die in dem Bild dargestellt ist, nach der Bilderkennung zugenommen hat. Beispielsweise wenn die vorherige Wahrscheinlichkeit (vor der Bilderkennungsanalyse), dass das Bild einen Feuerhydranten enthält, x % beträgt, kann die Wahrscheinlichkeit nach der Bilderkennung von x % auf (x+n)% steigen oder von (x %) auf (x-m)% sinken, je nachdem, ob ein Hydrant in dem Bild erkannt wurde oder nicht. Und nach der Verarbeitung aufeinanderfolgender Bilder kann sich die vorherige Wahrscheinlichkeit nacheinander (zusätzlich oder anderweitig) auf eine spätere Wahrscheinlichkeit und/oder eine normalisierte Wahrscheinlichkeitspunktzahl erhöhen oder verringern. In einigen Beispielen kann ein Log-Bayes-Faktor verwendet werden. Dieser kann eine besonders rechnerisch effiziente Art und Weise der Verwendung sowohl von Objektbeobachtungen als auch von Nicht-Beobachtungen des Objekts zur Identifizierung des Standorts des Objekts bereitstellen.For each image in a plurality of images, an image recognition tool is applied to the image to obtain a score or confidence rating that the respective object or feature is visible in the image. This score or confidence score may be converted to a normalized value indicating an amount that the likelihood that the object is in a region represented in the image has increased after the image recognition. For example, if the previous probability (before image recognition analysis) that the image contains a fire hydrant is x%, the probability of image recognition may increase from x% to (x + n)% or from (x%) to (xm)% decrease depending on whether or not a hydrant has been detected in the image. And after processing successive images, the previous probability may increase or decrease sequentially (in addition or otherwise) to a later probability and / or a normalized probability score. In some examples, a Log-Bayesian factor may be used. This may provide a particularly computationally efficient way of using both object observations and non-observations of the object to identify the location of the object.

Kandidatenstandorte, die in einem Sichtfeld eines jeden Bildes enthalten sind, werden z. B. unter Verwendung von Kameramerkmalen und Pose identifiziert. In einigen Beispielen können die Kamerageometrie und einige Standardhorizontabstände einen Sektor definieren, der mit dem initialisierten Satz von Kandidatenstandorten verglichen wird, um zu bestimmen, welche Kandidatenstandorte in dem Sektor enthalten sind. In anderen Beispielen kann eine Falloff-Funktion verwendet werden, die eine Wahrscheinlichkeit darstellt, dass ein Objekt in dem Bild sichtbar ist, wenn es tatsächlich vorhanden ist, z. B. unter Berücksichtigung einer möglichen Verdeckung des Objekts in dem Bild. Die Falloff-Funktion ist möglicherweise nicht radial und/oder standortabhängig, z. B. unter Berücksichtigung anderer Faktoren wie der lokalen Bevölkerungsdichte oder der Vegetationsdichte, die das Verdeckungsrisiko erhöhen würden. Die Verwendung von Informationen in Verbindung mit der Ausrichtung eines Bilderfassungsgerätes kann eine verbesserte Objektstandorterkennung ermöglichen. Die Objektstandorterkennung kann jedoch auch dann ausgeführt werden, wenn einige oder alle Bilder keine Bilderfassungsausrichtungsinformationen enthalten.Candidate locations contained in a field of view of each image are e.g. B. identified using camera features and pose. In some examples, the camera geometry and some standard horizon distances may define a sector that is compared to the initialized set of candidate sites to determine which candidate sites are included in the sector. In other examples, a falloff function may be used that represents a likelihood that an object will be visible in the image, if it actually exists, e.g. Considering a possible occlusion of the object in the image. The falloff function may not be radial and / or location dependent, e.g. Taking into account other factors such as local population density or vegetation density that would increase the risk of concealment. The use of information in conjunction with the orientation of an image capture device may allow for improved object location recognition. However, object location detection may be performed even if some or all of the images do not contain image capture alignment information.

Es kann ein Wahrscheinlichkeitswert für jeden Kandidatenstandort berechnet werden, der basierend auf dem normalisierten Wert und dem initialisierten Wert für jeden dieser Standortkandidaten in dem Bild sichtbar ist. Beispielsweise kann der normalisierte Wert zu dem initialisierten Wert addiert oder mit diesem multipliziert, herabgesetzt werden, wenn eine Falloff-Funktion verwendet wird. In einigen Beispielen kann der Wahrscheinlichkeitswert mit einem Schwellenwert verglichen werden, ab dem das Objekt so bestimmt werden kann, dass es sich an dem Kandidatenstandort befindet, der dieser Wahrscheinlichkeitspunktzahl entspricht. In anderen Beispielen kann die Wahrscheinlichkeitspunktzahl in eine Wahrscheinlichkeit umgewandelt werden, dass das Objekt oder Attribut an diesem Kandidatenstandort vorhanden ist. Dies kann es ermöglichen, dass Informationen zur Objektstandortidentifikation verwendet werden können, auch wenn es kein absolutes Vertrauen in die Objektidentifikation durch das Bilderkennungs-Tool gibt.A probability value can be calculated for each candidate location that is visible in the image based on the normalized value and the initialized value for each of these location candidates. For example, the normalized value may be added to or multiplied by the initialized value if a falloff function is used. In some examples, the likelihood value may be compared to a threshold at which the object may be determined to be at the candidate location corresponding to that likelihood score. In other examples, the probability score may be converted to a probability that the object or attribute exists at that candidate location. This may allow information for object location identification to be used, even if there is no absolute reliance on object identification by the image recognition tool.

Exemplarische SystemeExemplary systems

1 veranschaulicht ein exemplarisches System für die semantische Suche von Bildern. Dieses sollte nicht als Einschränkung des Umfangs der Offenbarung oder der Nützlichkeit der hierin beschriebenen Merkmale angesehen werden. In diesem Beispiel kann System 100 Computergeräte 110 beinhalten, die über Netzwerk 150 in Kommunikation mit einem oder mehreren Client-Geräten 160, 170 sowie Speichersystem 140 stehen. Jedes Computergerät 110 kann einen oder mehrere Prozessoren 120, Arbeitsspeicher 130 und sonstige Komponenten beinhalten, die typischerweise in Universal-Computergeräten vorhanden sind. Arbeitsspeicher 130 von jedem von Computergerät 110 kann Informationen speichern, auf die von dem einen oder den mehreren Prozessoren 120 zugegriffen werden kann, einschließlich Anweisungen 134, die von dem einen oder den mehreren Prozessoren 120 ausgeführt werden können. 1 illustrates an exemplary system for the semantic search of images. This should not be taken as limiting the scope of the disclosure or the usefulness of the features described herein. In this example, system 100 computer equipment 110 involve, over network 150 in communication with one or more client devices 160 . 170 as well as storage system 140 stand. Every computer device 110 can be one or more processors 120 , Random access memory 130 and other components typically found in general purpose computer devices. random access memory 130 from each one of computing device 110 can store information on the one or more processors 120 can be accessed, including instructions 134 that of the one or more processors 120 can be executed.

Arbeitsspeicher 130 kann zudem Daten 132 beinhalten, die von dem Prozessor abgerufen, bearbeitet oder gespeichert werden können. Bei dem Arbeitsspeicher kann es sich um jede nicht flüchtige Art handeln, die in der Lage ist, Informationen zu speichern, auf die der eine oder die mehreren Prozessoren zugreifen können, wie z. B. eine Festplatte, eine Speicherkarte, ROM, RAM, DVD, CD-ROM, beschreibbare und schreibgeschützte Speicher.random access memory 130 can also data 132 which can be retrieved, edited or stored by the processor. The random access memory may be any non-volatile type that is capable of storing information that the one or more processors may access, such as, for example: As a hard disk, a memory card, ROM, RAM, DVD, CD-ROM, writable and read-only memory.

Die Anweisungen 134 können ein beliebiger Satz von Anweisungen sein, die direkt, wie z. B. Maschinencode, oder indirekt, wie z. B. Scripts, durch den einen oder die mehreren Prozessoren auszuführen sind. Diesbezüglich können die Begriffe „Anweisungen“, „Anwendung, „Schritte“ und „Programme“ hierin austauschbar verwendet sein. Die Anweisungen können in Objektcodeformat zur direkten Verarbeitung durch einen Prozessor oder in jeder anderen Computergerätesprache, die Scripts oder Sammlungen von unabhängigen Quellcode-Modulen beinhaltet, die auf Anforderung interpretiert oder vorab kompiliert werden, gespeichert sein. Funktionen, Verfahren und Routinen der Anweisungen werden nachfolgend ausführlicher erklärt.The instructions 134 can be any set of statements that directly, such as. As machine code, or indirectly, such as. For example, scripts to be executed by the one or more processors. In this regard, the terms "instructions,""application,""steps," and "programs" may be used interchangeably herein. The instructions may be stored in object code format for direct processing by a processor or in any other computer device language that includes scripts or collections of independent source code modules that are interpreted on demand or compiled in advance. Functions, procedures and routines of the instructions are explained in more detail below.

Daten 132 können von dem einen oder den mehreren Prozessoren 220 gemäß den Anweisungen 134 abgerufen, gespeichert oder bearbeitet werden. So können beispielsweise, obwohl der hierin beschriebene Gegenstand nicht durch eine beliebige bestimmte Datenstruktur beschränkt ist, die Daten in Computerregistern als Tabelle, die viele verschiedene Felder und Datensätze aufweist, oder XML-Dokumente gespeichert werden. Die Daten können außerdem in einem beliebigen computergerätlesbaren Format wie, jedoch nicht beschränkt auf Binärwerte, ASCII oder Unicode formatiert sein. Darüber hinaus können die Daten beliebige Informationen umfassen, die ausreichend sind, um die relevanten Informationen zu identifizieren, wie Zahlen, beschreibenden Text, proprietäre Codes, Zeiger, Verweise auf Daten, die in anderen Speichern, wie z. B. anderen Netzwerkstandorten gespeichert sind, oder Informationen umfassen, die von einer Funktion verwendet werden, um die relevanten Daten zu berechnen.dates 132 can be from the one or more processors 220 according to the instructions 134 be retrieved, saved or edited. For example, although the subject matter described herein is not limited by any particular data structure, the data may be stored in computer registers as a table having many different fields and records, or XML documents. The data may also be formatted in any computer-readable format such as, but not limited to, binary, ASCII, or Unicode. In addition, the data may include any information sufficient to identify the pertinent information, such as numbers, descriptive text, proprietary codes, pointers, references to data stored in other memory, such as memory. Other network locations, or include information used by a function to calculate the relevant data.

Der eine oder die mehreren Prozessoren 120 können jeden herkömmlichen Prozessor, wie z. B. eine im Handel erhältliche CPU, beinhalten. Alternativ kann es sich bei dem Prozessor um dedizierte Komponenten, wie z. B. eine anwendungsspezifische integrierte Schaltung („ASIC“) oder einen anderen hardwarebasierten Prozessor, handeln. Obwohl nicht notwendig, können ein oder mehrere der Computergeräte 110 spezielle Hardwarekomponenten beinhalten, um spezifische Rechenverfahren, wie z. B. Bilderkennung, Objekterkennung, Bildcodierung, Tagging usw., auszuführen.The one or more processors 120 can any conventional processor, such as. A commercially available CPU. Alternatively, the processor may be dedicated components such as An application-specific integrated circuit ("ASIC") or other hardware-based processor. Although not necessary, one or more of the computer devices 110 special hardware components to specific calculation methods, such. As image recognition, object recognition, image coding, tagging, etc. to execute.

Obwohl 1 den Prozessor, Arbeitsspeicher und andere Elemente des Computergerätes 110 als innerhalb des gleichen Blocks befindlich veranschaulicht, können der Prozessor, Computer, das Computergerät oder der Arbeitsspeicher tatsächlich mehrere Prozessoren, Computer, Computergeräte oder Arbeitsspeicher umfassen, die innerhalb des gleichen physischen Gehäuses aufbewahrt sein können oder auch nicht. Beispielsweise kann der Arbeitsspeicher eine Festplatte oder ein sonstiges Speichermedium sein, das sich in einem anderen Gehäuse als demjenigen der Computergeräte 110 befindet. Dementsprechend werden Verweise auf einen Prozessor, Computer, Computergerät oder Arbeitsspeicher so verstanden, dass sie Verweise auf eine Sammlung von Prozessoren, Computern, Computergeräten oder Arbeitsspeichern beinhalten, die parallel arbeiten können oder nicht. Beispielsweise können die Computergeräte 110 Servercomputergeräte beinhalten, die als lastverteilte Serverfarm, verteiltes System usw. betrieben werden. Des Weiteren können einige nachfolgend beschriebene Funktionen zwar so dargestellt sein, dass sie in einem einzelnen Computergerät erfolgen, das einen einzelnen Prozessor aufweist, doch können verschiedene Aspekte des hierin beschriebenen Gegenstandes auch durch eine Vielzahl von Computergeräten, z. B. in der „Cloud“, implementiert werden. Ebenso können Speicherkomponenten an verschiedenen Standorten unterschiedliche Teile der Anweisungen 134 speichern und gemeinsam ein Medium für die Speicherung der Anweisungen bilden. Verschiedene hierin beschriebene Vorgänge, die von einem Computergerät ausgeführt werden, können von einer virtuellen Maschine ausgeführt werden. Beispielsweise kann die Anweisung 134 spezifisch für einen ersten Servertyp sein, die entsprechenden Vorgänge können jedoch von einem zweiten Servertyp ausgeführt werden, auf dem ein Hypervisor läuft, der den ersten Servertyp emuliert. Die Vorgänge können auch von einem Container ausgeführt werden, z. B. einer Computerumgebung, die nicht auf ein Betriebssystem angewiesen ist, das an bestimmte Hardwaretypen gebunden ist.Even though 1 the processor, memory and other elements of the computing device 110 As illustrated within the same block, the processor, computer, computing device, or memory may actually include multiple processors, computers, computing devices, or memory that may or may not be stored within the same physical enclosure. For example, the working memory may be a hard disk or other storage medium that is in a different housing than that of the computing devices 110 located. Accordingly, references to a processor, computer, computing device, or memory are understood to include references to a collection of processors, computers, computing devices, or memory that may or may not operate in parallel. For example, the computer equipment 110 Includes server computing devices that operate as a load-balanced server farm, distributed system, and so on. Furthermore, while some of the functions described below may be presented as occurring in a single computing device having a single processor, various aspects of the subject matter described herein may also be provided by a variety of computing devices, e.g. In the "cloud". Likewise, storage components at different locations may share different parts of the instructions 134 store and together form a medium for storing the instructions. Various operations described herein that are performed by a computing device may be performed by a virtual machine. For example, the statement 134 may be specific to a first type of server, but the corresponding operations may be performed by a second type of server running a hypervisor that emulates the first type of server. The operations can also be performed by a container, e.g. A computer environment that does not rely on an operating system that is bound to specific types of hardware.

Jedes der Computergeräte 110, 160, 170 kann sich an unterschiedlichen Knoten eines Netzwerks 150 befinden und entweder direkt oder indirekt mit anderen Knoten von Netzwerk 150 kommunizieren. Obwohl nur einige Computergeräte in 1 dargestellt sind, versteht sich, dass ein typisches System eine große Anzahl verbundener Computergeräte beinhalten kann, wobei sich jedes unterschiedliche Computergerät an einem unterschiedlichen Knoten des Netzwerks 150 befindet. Das Netzwerk 150 und dazwischenliegende Knoten, die hierin beschrieben sind, können unter Verwendung verschiedener Protokolle und Systeme vernetzt sein, sodass das Netzwerk Teil des Internets, Word Wide Web, spezifischer Intranets, Langstreckennetze oder lokaler Netzwerke sein kann. Das Netzwerk kann Standardkommunikationsprotokolle, wie Ethernet, WLAN und HTTP, Protokolle, die proprietär für ein oder mehrere Unternehmen sind, und verschiedene Kombinationen der vorstehenden nutzen. Obwohl bestimmte Vorteile erzielt werden, wenn Informationen wie zuvor beschrieben übertragen oder empfangen werden, sind andere Aspekte des hierin beschriebenen Gegenstands nicht auf eine bestimmte Art der Übertragung von Informationen beschränkt.Each of the computer devices 110 . 160 . 170 can connect to different nodes of a network 150 located and either directly or indirectly with other nodes of network 150 communicate. Although only a few computer devices in 1 It should be understood that a typical system may include a large number of connected computing devices, each different computing device at a different node of the network 150 located. The network 150 and intervening nodes described herein may be networked using various protocols and systems, such that the network may be part of the Internet, Word Wide Web, specific intranets, long distance networks, or local area networks. The network may utilize standard communication protocols such as Ethernet, WLAN and HTTP, protocols that are proprietary to one or more companies, and various combinations of the foregoing. Although certain advantages are achieved when transmitting or receiving information as described above, other aspects of the subject matter described herein are not limited to any particular type of information transfer.

Beispielsweise kann jedes der Computergeräte 110 Webserver beinhalten, die in der Lage sind, mit dem Speichersystem 140 sowie Computergeräten 160, 170 über das Netzwerk 150 zu kommunizieren. Beispielsweise können ein oder mehrere Server-Computergeräte 110 Netzwerk 150 verwenden, um Informationen zu übertragen und einem Benutzer auf einer Anzeige, wie z. B. Anzeige 165 von Computergerät 160, darzustellen. In diesem Zusammenhang können Computergeräte 160, 170 als Client-Computergeräte betrachtet werden und alle oder einige der hier beschriebenen Funktionen ausführen.For example, any of the computing devices 110 Web servers that are capable of containing the storage system 140 and computer devices 160 . 170 over the network 150 to communicate. For example, one or more server computing devices 110 network 150 use to transfer information and present it to a user on a display such as B. Display 165 from computer device 160 to represent. In this regard, computing devices 160 . 170 be considered as client computer devices and perform all or some of the functions described herein.

Jedes der Client-Computergeräte 160, 170 kann, wie zuvor beschrieben, ähnlich wie die Server-Computergeräte 110, mit einem oder mehreren Prozessoren, Arbeitsspeicher und Anweisungen konfiguriert werden. Jedes Client-Computergerät 160, 170 kann ein persönliches Computergerät sein, das zur Verwendung durch einen Benutzer vorgesehen ist und das alle Bauteile beinhalten kann, die üblicherweise in Verbindung mit einem persönlichen Computergerät, z. B. einer zentralen Verarbeitungseinheit (CPU), einem Arbeitsspeicher (z. B. RAM und interne Festplatten), der Daten und Anweisungen speichert, einer Anzeige, wie z. B. Anzeige 165 (z. B. einen Monitor mit einem Bildschirm, einem Touchscreen, einem Projektor, einem Fernseher oder einem anderen Gerät, das zur Anzeige von Informationen betrieben werden kann), sowie einem Eingabegerät 166 (z. B. einer Maus, einer Tastatur, einem Touchscreen oder einem Mikrofon), verwendet werden. Das Client-Computergerät kann auch eine Kamera 167 zur Aufzeichnung von Videoströmen und/oder zum Erfassen von Bildern, Lautsprecher, ein Netzwerkschnittstellengerät und sämtliche Komponenten, die für die Verbindung dieser Elemente untereinander verwendet werden, beinhalten. Das Client-Computergerät 160 kann auch ein Standortbestimmungssystem, wie z. B. ein GPS 168, beinhalten. Andere Beispiele für Standortbestimmungssysteme können den Standort basierend auf der Stärke des drahtlosen Zugangssignals, Bildern von geografischen Objekten wie Landmarken, semantischen Indikatoren wie Licht oder Lärmpegel usw. bestimmen.Each of the client computer devices 160 . 170 can, as described above, similar to the server computer devices 110 , be configured with one or more processors, memory and instructions. Any client computing device 160 . 170 may be a personal computing device that is intended for use by a user and that may include all of the components typically associated with a personal computing device, such as a personal computing device. A central processing unit (CPU), a random access memory (e.g., RAM and internal hard disks) that stores data and instructions, a display such as a display. B. Display 165 (eg a monitor with a screen, a touch screen, a projector, a TV or other device that can be used to display information), and an input device 166 (such as a mouse, keyboard, touch screen, or microphone). The client computing device may also have a camera 167 for recording video streams and / or capturing images, speakers, a network interface device, and any components used to interconnect these elements. The client computing device 160 can also be a location system, such. B. a GPS 168 , include. Other examples of location systems may determine the location based on the strength of the wireless access signal, images of geographic objects such as landmarks, semantic indicators such as light or noise levels, and so on.

Obwohl die Client-Computergeräte 160, 170 ggf. jeweils ein persönliches Computergerät in voller Größe umfassen, können sie alternativ mobile Computergeräte umfassen, die zum drahtlosen Austausch von Daten mit einem Server über ein Netzwerk, z. B. dem Internet, fähig sind. Beispielsweise kann Client-Computergerät 160 ein Mobiltelefon oder ein Gerät wie ein funkfähiger PDA, ein Tablet-PC, ein Netbook, eine Smartwatch, ein kopfmontiertes Computersystem oder ein beliebiges anderes Gerät sein, das in der Lage ist, Informationen über das Internet zu erhalten. Beispielsweise kann der Benutzer Informationen über eine kleine Tastatur, ein Tastenfeld, ein Mikrofon, visuelle Signale mit einer Kamera oder einen Touchscreen eingeben.Although the client computer devices 160 . 170 optionally, each comprise a full size personal computing device, they may alternatively include mobile computing devices that are capable of wirelessly exchanging data with a server over a network, e.g. As the Internet, are capable. For example, client computer device 160 a mobile phone or a device such as a wireless PDA, a tablet PC, a netbook, a smartwatch, a head mounted computer system, or any other device capable of receiving information over the Internet. For example, the user may enter information via a small keyboard, keypad, microphone, visual signals with a camera, or a touchscreen.

In anderen Beispielen können ein oder mehrere der Client-Geräte 160, 170 primär für die Eingabe in den Server 110 oder Arbeitsspeicher 140 verwendet werden. Beispielsweise kann das Client-Gerät 170 ein Bilderfassungsgerät sein, das geografische Bilder erfasst. Beispielsweise kann das Bilderfassungsgerät 170 eine Standbildkamera oder Videokamera sein, die an einem Fahrzeug montiert ist, um Straßenbilder zu sammeln. Als weiteres Beispiel kann das Bilderfassungsgerät 170 Sonar-, LIDAR-, Radar-, Laser- oder andere Bilderfassungstechniken verwenden. In anderen Beispielen kann das Gerät 160 ein Audioaufzeichnungsgerät, wie z. B. ein Mikrofon oder ein anderes Gerät zum Erhalten von Audio, sein. In weiteren Beispielen kann das Bilderfassungsgerät ein Hochfrequenz-Sendeempfänger oder ein elektromagnetischer Felddetektor sein. Darüber hinaus kann das Bilderfassungsgerät 170 tragbar sein, oder an einem Gerät, wie z. B. einem unbemannten Luftfahrzeug, angebracht werden. Dementsprechend kann das Bilderfassungsgerät 170 Straßenbilder, Luftbilder oder Bilder in jedem beliebigen Winkel erfassen.In other examples, one or more of the client devices may 160 . 170 primarily for input to the server 110 or memory 140 be used. For example, the client device 170 an image capture device that captures geographic images. For example, that can Image capture device 170 a still camera or video camera mounted on a vehicle to collect road images. As another example, the image capture device 170 Use sonar, LIDAR, radar, laser or other imaging techniques. In other examples, the device may 160 an audio recorder such. A microphone or other device for obtaining audio. In other examples, the image capture device may be a radio frequency transceiver or an electromagnetic field detector. In addition, the image capture device 170 be portable, or on a device such. As an unmanned aerial vehicle, are attached. Accordingly, the image capture device 170 Capture street images, aerial photographs or images at any angle.

Wie bei Arbeitsspeicher 130 kann das Speichersystem 140 von jeder Art von computergestütztem Speicher sein, der in der Lage ist, Informationen zu speichern, auf die die Server-Computergeräte 110 zugreifen können, wie z. B. Festplatte, Speicherkarte, ROM, RAM, DVD, CD-ROM, beschreibbare und schreibgeschützte Speicher. Darüber hinaus kann das Speichersystem 140 ein verteiltes Speichersystem beinhalten, wobei Daten, wie z. B. Daten auf einer Vielzahl von verschiedenen Speichergeräten gespeichert werden, die sich physisch an demselben oder an unterschiedlichen geografischen Standorten befinden können. Speichersystem 140 kann über das Netzwerk 150, wie in 1 dargestellt, mit den Computergeräten verbunden werden und/oder direkt mit einem der Computergeräte 110 verbunden sein.As with memory 130 can the storage system 140 of any type of computerized storage that is capable of storing information to which the server computing devices 110 can access, such. Hard disk, memory card, ROM, RAM, DVD, CD-ROM, recordable and read-only memory. In addition, the storage system 140 include a distributed storage system, wherein data such. For example, data may be stored on a variety of different storage devices that may physically reside at the same or different geographic locations. storage system 140 can over the network 150 , as in 1 represented, connected to the computer devices and / or directly to one of the computer devices 110 be connected.

Speichersystem 140 kann Daten, wie z. B. geografische Bilder, speichern. Die geografischen Bilder können in Verbindung mit anderen Daten, wie z. B. Standortdaten, gespeichert werden. Beispielsweise kann jedes geografische Bild Metadaten, die einen Standort identifizieren, an dem das Bild erfasst wurde, Kamerawinkel, Uhrzeit, Datum, Umgebungsbedingungen usw., beinhalten. Als weiteres Beispiel können die geografischen Bilder, z. B. nach Region, Datum oder anderen Informationen, kategorisiert oder gruppiert werden.storage system 140 can data such. B. geographic images store. The geographic images can be used in conjunction with other data, such as As location data, are stored. For example, each geographic image may include metadata that identifies a location where the image was captured, camera angle, time, date, environmental conditions, and so forth. As another example, the geographic images, e.g. For example, by region, date or other information, categorized or grouped.

2 zeigt eine Draufsicht-Abbildung von exemplarischen Beobachtungen und Nicht-Beobachtungen eines bestimmten Objekts 205. In diesem Beispiel erfasst ein Bilderfassungsgerät, das sich entlang einer Straße 210 bewegt, Bilder an jedem der mehreren Erfassungsstandorte 221-225 entlang der Straße 210. Jedes Bild weist ein zugeordnetes Sichtfeld 23-235 auf. Basierend auf einer Position und einem Winkel des Bilderfassungsgerätes an dem Erfassungsstandort 221 erfasst es beispielsweise Bilder von allem, was sich in dem Sichtfeld 231 befindet. Ebenso würde das Bilderfassungsgerät an dem nachfolgenden Aufnahmestandort 223 Bilder von Objekten in Sichtfeld 233 erfassen. Bei der Suche nach dem jeweiligen Objekt 205 gelten die Sichtfelder 233 und 234, die das Objekt 205 beinhalten, als Beobachtungen dieses Objekts. Sichtfelder 231, 232 und 235, die das Objekt 205 nicht beinhalten, gelten als Nicht-Beobachtungen. 2 shows a plan view illustration of exemplary observations and non-observations of a particular object 205 , In this example captures an image capture device that is located along a road 210 moves pictures at each of the multiple detection locations 221 - 225 along the road 210 , Each image has an associated field of view 23 - 235 on. Based on a position and an angle of the image acquisition device at the detection location 221 For example, it captures images of everything in the field of view 231 located. Likewise, the image capture device would be at the subsequent capture location 223 Images of objects in field of view 233 to capture. In the search for the respective object 205 the fields of view apply 233 and 234 that the object 205 include, as observations of this object. fields of view 231 . 232 and 235 that the object 205 do not include, are considered non-observations.

Sowohl die Beobachtungen als auch die Nicht-Beobachtungen werden verwendet, um einen Standort des Objekts 205 genau zu bestimmen. Beispielsweise hilft die Berücksichtigung, wo sich das Objekt 205 nicht befindet, die Möglichkeiten einzuschränken, wo sich das Objekt 205 befindet. Wie nachfolgend näher erläutert, beinhaltet Bestimmen des Standorts des Objekts 205 unter Verwendung von Beobachtungen und Nicht-Beobachtungen Initialisieren eines Kandidatensets von Erkennungsstandorten, wie z. B. durch Setzen auf Null oder Setzen auf eine Wahrscheinlichkeit, dass der Kandidatenstandort, wobei die Wahrscheinlichkeit vor der Überprüfung von Bildern bestimmt wird. Diese Bestimmung kann basierend auf verfügbaren Informationen, wie z. B. Zoneneinteilung, Bevölkerungsdichte, nicht-visuellen Signalen usw. erfolgen. Dann wird jedes Bild überprüft, um eine Bewertung zu erhalten, ob das Objekt in dem Bild sichtbar ist. Unter Verwendung einer Normalisierungsfunktion wird die Vertrauensbewertung in einen Wert umgerechnet, der ungefähr dem Betrag entspricht, um den die Quoten für die Nachbetrachtung des Objekts, das sich im Sichtfeld des Bildes befindet, die vorherigen Quoten, abhängig von der Beobachtung dieses Bildes, übersteigen. Anhand der Kameraeigenschaften und der Pose wird bestimmt, welche Kandidatenstandorte in diesem Bild in dem Sichtfeld enthalten sind. Die Kandidatenstandorte können z. B. Sektoren sein, die durch die Kamerageometrie und einen vorgegebenen Horizontabstand definiert sind. Der normalisierte Wert wird dann zu dem initialisierten Wert für jeden der Kandidatenstandorte addiert oder multipliziert, die so bestimmt sind, dass sie in dem Bild sichtbar sind. Als Ergebnis wird eine Wahrscheinlichkeitspunktzahl für jeden Kandidatenstandort erstellt. Die Wahrscheinlichkeitspunktzahl kann mit einem Schwellenwert verglichen werden, ab dem bestimmt wird, dass sich das Objekt an dem Kandidatenstandort befindet.Both the observations and the non-observations are used to locate the object 205 to be determined exactly. For example, the consideration helps where the object is 205 is not located to limit the possibilities where the object is located 205 located. As further explained below, determining the location of the object 205 using observations and non-observations, initialize a candidate set of recognition sites, such as By setting it to zero or setting it to a probability that the candidate location will be determined, with the probability prior to checking images. This determination may be based on available information, such as. Zoning, population density, non-visual signals, etc. Then each image is checked to get a rating as to whether the object is visible in the image. Using a normalization function, the confidence score is converted to a value approximately equal to the amount by which the quotas for reviewing the object that is in the field of view of the image exceed the previous quotas, depending on the observation of that image. On the basis of the camera properties and the pose, it is determined which candidate locations in this image are contained in the field of view. The candidate locations can, for. B. sectors, which are defined by the camera geometry and a given horizon distance. The normalized value is then added or multiplied to the initialized value for each of the candidate locations that are determined to be visible in the image. As a result, a probability score is created for each candidate site. The probability score may be compared to a threshold at which it is determined that the object is at the candidate location.

In einigen Beispielen kann eine größere Präzision durch Verwenden einer Falloff-Funktion erreicht werden, wie z. B. einer radialen Falloff-Funktion, die die Wahrscheinlichkeit darstellt, dass das Objekt in jedem Bild sichtbar ist, wenn es sich tatsächlich dort befindet. Beispielsweise kann es vorkommen, dass das Objekt in dem Bild von anderen Objekten wie Bäumen, Autos, Zäunen usw. verdeckt wird. Eine noch höhere Genauigkeit kann durch die Verwendung einer nicht radialen oder standortabhängigen Falloff-Funktion erreicht werden. Diese Funktion kann auch andere Faktoren wie die lokale Bevölkerungsdichte oder die Vegetationsdichte berücksichtigen, die das Verdeckungsrisiko erhöhen würden. In diesen Beispielen ist das Ergebnis nicht nur ein einfaches boolesches Ja/Nein für Einschließung, sondern auch ein Abzinsungsfaktor, der die Wahrscheinlichkeit eines Falsch-Negativs aus anderen Gründen als Nichtvorhandensein, wie z. B. Verdeckung, widerspiegelt.In some examples, greater precision may be achieved by using a falloff function such as A radial falloff function representing the likelihood that the object will be visible in each image when it is actually there. For example, the object in the image may be obscured by other objects such as trees, cars, fences, and so forth. Even greater accuracy can be achieved by using a non-radial or location-dependent falloff function. This feature may include other factors such as the local Account for population density or vegetation density that would increase the risk of In these examples, the result is not only a simple Boolean Yes / No for inclusion, but also a discount factor that reduces the likelihood of a false negative for reasons other than non-existence, such as the presence of a false negative. As occlusion reflects.

Neben Erkennen von Objekten können diese Techniken auch zum Bestimmen des genauen Standortes von Attributen eingesetzt werden. So kann z. B. nach sonnigen geografischen Gebieten gesucht werden, z. B. für die Immobiliensuche. Dementsprechend können Bilder, die einen natürlichen Lichtwert über einem Schwellenwert darstellen, als Beobachtungen identifiziert werden, und Bilder, die einen natürlichen Lichtwert unter dem Schwellenwert darstellen, können als Nicht-Beobachtungen identifiziert werden. Relevante Zeitstempelinformationen können ebenfalls berücksichtigt werden, z. B. durch Beschränkung der gesuchten Bilder auf Bilder, die zu einer bestimmten Tageszeit (z. B. tagsüber) erfasst wurden. Die mit den Nicht-Beobachtungen verknüpften Bilderfassungsinformationen können zur präzisen Lokalisierung der sonnigen Gebiete verwendet werden.In addition to recognizing objects, these techniques can also be used to determine the exact location of attributes. So z. B. are searched for sunny geographical areas, z. B. for the real estate search. Accordingly, images representing a natural light level above a threshold may be identified as observations, and images representing a natural light level below the threshold may be identified as non-observations. Relevant timestamp information may also be considered, e.g. For example, by restricting the images you are looking for to images captured at a particular time of day (eg, during the day). The image acquisition information associated with the non-observations can be used to precisely locate the sunny areas.

3 veranschaulicht ein Beispiel für Straßenbilder, die den Bildern entsprechen, die von den Erfassungsstandorten 221-225 erfasst wurden. Die Bilder beinhalten eine Vielzahl von Einzelbildern 341-345, die sich überlappen und so ein ausgedehntes oder ein Panoramabild ergeben. Ein Sichtfeld von jedem Bild 341-345 entspricht dem Sichtfeld 231-235 von Bilderfassungsstandorten 221-225. In diesem Beispiel entspricht das Objekt 205 dem Feuerhydranten 305. Es kann jedoch jede andere Art von Objekt oder Attribut durchsucht werden, wie z. B. Toiletten 362, Spielplatzgeräte 364, Wetterbedingungen 366 oder eine Vielzahl anderer Objekte oder Attribute, die nicht angezeigt werden. 3 Figure 11 illustrates an example of road images corresponding to the images taken by the detection sites 221 - 225 were recorded. The pictures contain a large number of single pictures 341 - 345 that overlap, resulting in an extended or panoramic image. A field of view of every picture 341 - 345 corresponds to the field of view 231 - 235 from image capture sites 221 - 225 , In this example, the object corresponds 205 the fire hydrant 305 , However, any other type of object or attribute may be searched, such as: B. Toilets 362 , Playground equipment 364 , Weather conditions 366 or a variety of other objects or attributes that are not displayed.

In einigen Beispielen können Regionen von Interessen durch ein Gitter mit einer Vielzahl von Zellen definiert werden. Beispielsweise stellt 4 eine Draufsicht von Beobachtungen und Nicht-Beobachtungen in Bezug auf eine Vielzahl von Zellen 455 in einem Raster 450 dar. Jede Zelle 455 kann einer Unterteilung einer geografischen Region entsprechen, wobei jede Zelle in Größe und Form im Allgemeinen gleich ist. In einem Beispiel können die Zellen durch Breiten- und Längspunkte definiert werden.In some examples, regions of interest may be defined by a grid having a plurality of cells. For example 4 a top view of observations and non-observations with respect to a variety of cells 455 in a grid 450 each cell 455 can correspond to a subdivision of a geographic region, where each cell is generally the same in size and shape. In one example, the cells may be defined by latitude and longitude points.

Das Raster 450 kann verwendet werden, um Kandidatenstandorte für das Objekt 205 zu definieren. So kann z. B. vor dem Betrachten eines Bildes eine Wahrscheinlichkeit für jede Zelle, die das Objekt 205 enthält, bestimmt werden. Handelt es sich bei dem Objekt 205 z. B. um einen Feuerhydranten, kann eine Anzahl von Feuerhydranten in der geografischen Region bekannt sein, die durch die Anzahl der Zellen 455 geteilt werden kann. Für jedes Bild, das entlang der Straße 210 aufgenommen wird, kann dann bestimmt werden, ob das Bild in eine Richtung weist, die eine Zelle beinhaltet. Beispielsweise kann jedes Bild in Verbindung mit dem Bilderfassungsstandort und auch einer Richtung gespeichert werden, z. B. in eine Richtung, in die das Bilderfassungsgerät gerichtet war. Die Richtung kann durch herkömmliche Koordinaten, wie z. B. Nord, West usw., im Verhältnis zu anderen Objekten, wie z. B. zwischen First Street und Second Street, oder durch jeden beliebigen anderen Mechanismus definiert werden. Standorte der Zellen 355 können bekannt sein, sodass ein Vergleich durchgeführt werden kann, um zu bestimmen, ob das Bild Zellen beinhaltet. Jede Zelle kann als diskreter Datenpunkt, positiv oder negativ behandelt werden. In dem Beispiel von 4 kann jede der Zellen 455 als Kandidatenstandort für das Objekt 205 betrachtet werden. Eine anfängliche Wahrscheinlichkeit jeder Zelle, einschließlich des Objekts 205, kann vor dem Betrachten der Bilder für jede der Zellen 455 ungefähr gleich groß sein.The grid 450 can be used to find candidate sites for the object 205 define. So z. For example, prior to viewing an image, a probability for each cell containing the object 205 contains, be determined. Is this the object 205 z. For example, around a fire hydrant, a number of fire hydrants in the geographic region may be known by the number of cells 455 can be shared. For every picture that is along the street 210 is then determined whether the image points in a direction that includes a cell. For example, each image may be stored in conjunction with the image capture site and also a direction, e.g. In a direction in which the image capture device was directed. The direction can be determined by conventional coordinates, such. B. North, West, etc., in relation to other objects, such. Between First Street and Second Street, or any other mechanism. Locations of the cells 355 may be known so that a comparison can be made to determine if the image includes cells. Each cell can be treated as a discrete data point, positive or negative. In the example of 4 can any of the cells 455 as candidate location for the object 205 to be viewed as. An initial probability of each cell, including the object 205 , before viewing the images for each of the cells 455 be about the same size.

Die Bilder 341-345 können dann z. B. unter Verwendung eines Bilderkennungs-Tools überprüft werden, um Objekte in den Bildern zu erkennen. Basierend auf der Überprüfung kann für jeden Kandidatenstandort eine Punktzahl oder eine Vertrauensbewertung berechnet werden, wobei die Punktzahl oder die Vertrauensbewertung eine Wahrscheinlichkeit angibt, dass sich das Objekt innerhalb des Kandidatenstandortes befindet. Für jedes Bild kann eine Normalisierungsfunktion verwendet werden, um diese Vertrauensbewertung in einen Wert umzuwandeln. In einigen Beispielen kann die Normalisierung Anpassen der zuvor berechneten Wahrscheinlichkeiten für jede Zelle 455 beinhalten. Beispielsweise können für jede Beobachtung die Zellen, die in den Sichtfeldern 233, 234 dieser Beobachtungen enthalten sind, mit der Wahrscheinlichkeit erhöht werden, dass sich das Objekt 205 in dieser Zelle befmdet. Zellen in Sichtfeldern 231, 232, 235 von Nicht-Beobachtungen können mit einer verminderten Wahrscheinlichkeit belegt werden.The pictures 341 - 345 can then z. B. using an image recognition tool to detect objects in the images. Based on the review, a score or trust score may be calculated for each candidate site, where the score or trust score indicates a likelihood that the object is within the candidate site. For each image, a normalization function can be used to convert that confidence score to a value. In some examples, normalization may match the previously calculated probabilities for each cell 455 include. For example, for each observation, the cells that are in the fields of view 233 . 234 These observations are included, with the likelihood that the object will be increased 205 located in this cell. Cells in fields of view 231 . 232 . 235 of non-observations can be proven with a reduced probability.

Einige Zellen in einem bestimmten Sichtfeld können, z. B. basierend auf der Position der Zelle im Vergleich zu einer allgemeinen Position des Objekts 205 in dem überprüften Bild, mit einer höheren Punktzahl oder einem höheren Vertrauenswert bewertet werden als andere. Beispielsweise wird der Hydrant 305 als in einem linken Teil des Bildes 343 positioniert dargestellt. Dementsprechend kann Zellen in einem linken Teil des Sichtfeldes 233 ein höheres Vertrauen zugeschrieben werden als Zellen in einem rechten Teil des Sichtfeldes 233. In anderen Beispielen können andere Kameraeigenschaften und Poseinformationen verwendet werden, um Vertrauensbewertungen für Kandidatenstandorte zu berechnen. Beispielsweise können Tiefenschärfe, Fokus oder andere Informationen verwendet werden.Some cells in a certain field of view can, for. Based on the position of the cell compared to a general position of the object 205 in the reviewed image, with a higher score or a higher confidence rating than others. For example, the hydrant 305 as in a left part of the picture 343 positioned shown. Accordingly, cells may be in a left part of the field of view 233 attributed a higher confidence than cells in a right part of the field of view 233 , In other examples, other camera properties and Pose information is used to calculate candidate site trust scores. For example, depth of field, focus or other information can be used.

In einigen Beispielen kann die Vertrauensbewertung erhöht oder weiter verfeinert werden, wenn aufeinanderfolgende Bilder überprüft werden. Wenn beispielsweise das Bild 343, das dem Erfassungsstandort 223 entspricht, zuerst überprüft wird, kann jeder Zelle in Sichtfeld 233 eine erhöhte Wahrscheinlichkeit zugeschrieben werden, das Objekt 205 aufzunehmen. Wenn Bild 344 entsprechend dem Erfassungsstandort 224 nachfolgend überprüft wird, kann jeder Zelle in Sichtfeld 234 eine erhöhte Wahrscheinlichkeit zugeschrieben werden, dass sie das Objekt 205 beinhaltet. Da die das Objekt 205 beinhaltenden Zellen in beiden Sichtfeldern 233, 234 enthalten sind, können diese Zellen eine höhere Wahrscheinlichkeit als andere zum Ergebnis haben.In some examples, the confidence score may be increased or further refined when examining successive images. For example, if the picture 343 that the detection site 223 matches, first checked, every cell in field of view 233 an increased probability can be attributed to the object 205 take. If picture 344 according to the detection location 224 Subsequently, each cell can be field of view 234 an increased probability that they are the object 205 includes. Because that's the object 205 containing cells in both fields of view 233 . 234 These cells may result in a higher probability than others.

Der normalisierte Wert, der einen Betrag angibt, der darauf hindeutet, dass die Wahrscheinlichkeit, dass sich das Objekt in einem in dem Bild dargestellten Bereich befindet, sich nach der Bilderkennung erhöht hat, wird dann mit dem initialisierten Wert für jeden Kandidatenstandort addiert oder multipliziert. Das Ergebnis für jeden Kandidatenstandort kann mit anderen Ergebnissen für andere Kandidatenstandorte verglichen werden. Wenn der sich ergebende Wert, z. B. durch einen vorgegebenen numerischen Faktor, für einen ersten Kandidatenstandort vergleichsweise höher ist als das Ergebnis für andere Standorte, kann der erste Kandidatenstandort als der Standort des Objekts bestimmt werden. In anderen Beispielen wird das Ergebnis mit einem Schwellenwert verglichen. In diesem Zusammenhang kann ein Kandidatenstandort, dessen Ergebniswert über dem Schwellenwert liegt, als ein Standort für das Objekt bestimmt werden.The normalized value indicating an amount indicating that the likelihood that the object is in an area displayed in the image has increased after the image recognition is then added or multiplied by the initialized value for each candidate location. The result for each candidate site can be compared to other results for other candidate sites. If the resulting value, e.g. B. by a predetermined numerical factor, for a first candidate location is relatively higher than the result for other locations, the first candidate location can be determined as the location of the object. In other examples, the result is compared to a threshold. In this context, a candidate site whose result value is above the threshold may be determined as a location for the object.

Während in den obigen Beispielen jedes Bild mit einem Standort und einer Richtung gespeichert ist, können in einigen Beispielen Objekte ohne Verwendung von Richtungsinformationen lokalisiert werden. 5 zeigt eine Draufsicht-Abbildung eines solchen Beispiels. Bilder, die an verschiedenen Standorten 521-525 ma erfasst wurden, weisen entsprechende Sichtfelder 531-535 auf. In diesem Beispiel kann man davon ausgehen, dass jedes Sichtfeld 531-535 einen Radius um seinen jeweiligen Aufnahmestandort 521-525 aufweist. Die Kandidatenstandorte innerhalb solcher radialen Sichtfelder können den gesamten Radius oder einen Teil davon, wie z. B. Zellen oder andere Unterteilungen, umfassen. Die Initialisierung und Berechnung von Vertrauenswerten basierend auf der Bildanalyse kann wie zuvor beschrieben ausgeführt werden.While in the above examples each image is stored with a location and a direction, in some examples objects can be located without the use of directional information. 5 shows a plan view illustration of such an example. Pictures in different locations 521 - 525 ma have corresponding fields of vision 531 - 535 on. In this example, one can assume that every field of view 531 - 535 a radius around its respective location 521 - 525 having. The candidate locations within such radial fields of view may cover the entire radius, or a portion thereof, such as e.g. As cells or other subdivisions include. The initialization and calculation of confidence values based on the image analysis may be performed as previously described.

6 stellt ein weiteres Beispiel dar, bei dem keine Richtungsinformationen für die Bilder verwendet werden, obwohl Bilder aus verschiedenen Winkeln erfasst werden. In diesem Beispiel kreuzt sich eine erste Straße 610 mit einer zweiten Straße 615. Bilder werden von Standorten 621, 622 auf der zweiten Straße 615 und von Standorten 623-625 auf der zweiten Straße erfasst. Während die Sichtfelder 631-635 radial sind, können dementsprechend die Positionen der Erfassungsstandorte 621-625 entlang verschiedener Achsen die Genauigkeit der Lokalisierung von Objekt 605 weiter erhöhen. Das Objekt 605 befindet sich z. B. wie dargestellt in den Sichtfeldern 632 und 633, nicht aber in den Sichtfeldern 631, 634, 635. Die Vertrauenspunktzahl, die für Kandidatenstandorte in den beiden Sichtfeldern 632, 633 berechnet wird, sollte größer sein als diejenige, die für andere Standorte berechnet wird. Dementsprechend sollte der normalisierte Wert für solche Kandidatenstandorte innerhalb beider Sichtfelder 632, 633, der Nicht-Beobachtungen aus benachbarten Sichtfeldern 631, 634, 635 berücksichtigt, eine hohe Wahrscheinlichkeit des Vorhandenseins des Objekts angeben. 6 represents another example in which directional information is not used for the images although images are acquired from different angles. In this example, a first road intersects 610 with a second street 615 , Pictures are taken from locations 621 . 622 on the second street 615 and of locations 623 - 625 captured on the second street. While the fields of view 631 - 635 are radial, accordingly, the positions of the detection sites 621 - 625 along different axes the accuracy of the localization of object 605 continue to increase. The object 605 is located z. B. as shown in the fields of view 632 and 633 but not in the fields of view 631 . 634 . 635 , The confidence score for candidate sites in the two fields of view 632 . 633 should be greater than the one calculated for other locations. Accordingly, the normalized value for such candidate sites should be within both fields of view 632 . 633 , the non-observations from adjacent fields of view 631 . 634 . 635 takes into account a high probability of the presence of the object.

Obwohl in vielen der obigen Beispiele Bilder dahingehend beschrieben werden, dass sie von Standorten entlang einer Straße aufgenommen werden, versteht sich, dass die Bilder, die zum Lokalisieren von Objekten oder Attributen verwendet werden, von einer beliebigen Anzahl von Nicht-Straßenstandorten erfasst werden können. Beispielsweise können Bilder von Benutzern hochgeladene Fotos beinhalten, die in Parks, innerhalb von Gebäuden oder anderswo aufgenommen wurden.Although in many of the above examples images are described as being taken from locations along a road, it will be understood that the images used to locate objects or attributes may be captured by any number of non-road locations. For example, images of users may include uploaded photos taken in parks, within buildings, or elsewhere.

7 veranschaulicht ein weiteres Beispiel, bei dem ein Begrenzungsfeld verwendet wird, um die Kandidatenstandorte für Objekt 705 einzugrenzen. In diesem Beispiel wird bei Überprüfung von Bild 743, das dem Sichtfeld 733 entspricht, ein Begrenzungsfeld 760 um das Objekt von Interesse 705 gezeichnet. In diesem Beispiel ist das Objekt 705 ein Feuerhydrant. Das Begrenzungsfeld 760 entspricht einer schmaleren Scheibe 762 des Sichtfeldes 733. In diesem Zusammenhang können Kandidatenstandorte, für die Vertrauenspunktzahl und normalisierte Werte berechnet werden, auf Standorte innerhalb der schmaleren Scheibe 762 beschränkt werden. Dementsprechend können Standorte außerhalb der Scheibe 762, aber immer noch innerhalb des Sichtfeldes 733, als Nicht-Beobachtungen betrachtet und zum präziseren Lokalisieren des Objekts 705 verwendet werden. Darüber hinaus kann die Berechnung beschleunigt werden, da eine reduzierte Anzahl von Kandidatenstandorten analysiert werden kann. 7 illustrates another example in which a bounding box is used to reference the candidate sites 705 narrow. In this example, when reviewing image 743 that the field of view 733 corresponds to a bounding box 760 around the object of interest 705 drawn. In this example, the object is 705 a fire hydrant. The bounding box 760 corresponds to a narrower slice 762 of the field of view 733 , In this regard, candidate sites for which confidence score and normalized values are calculated may point to locations within the narrower slice 762 be limited. Accordingly, locations outside the disc 762 but still within the field of view 733 , regarded as non-observations and for more precise localization of the object 705 be used. In addition, the calculation can be accelerated since a reduced number of candidate sites can be analyzed.

Wie zuvor erwähnt, kann die Berechnung der normalisierten Vertrauenspunktzahl durch Verdeckung beeinflusst werden, z. B. wenn andere Objekte die Ansicht eines Objekts von Interesse in einem Bild behindern. 8 stellt eine Draufsicht-Abbildung der exemplarischen Hindernisse 871-873 bereit, die zu einer zumindest teilweisen Verdeckung von Objekt 805 führen. Die Hindernisse 871-873 in diesem Beispiel sind Bäume, obwohl eine Verdeckung durch Wetterbedingungen wie Nebel oder andere Gegenstände wie Menschen, Denkmäler, Gebäude, Tiere usw. auftreten kann. Beim Berechnen der Vertrauenspunktzahl für ein Bild, das Sichtfeld 833 entspricht, kann eine solche Verdeckung berücksichtigt werden. Beispielsweise kann eine radiale Falloff-Funktion verwendet werden, die die Wahrscheinlichkeit darstellt, dass das Objekt 805 in diesem Bild sichtbar ist, wenn es tatsächlich vorhanden ist. Als weiteres Beispiel kann eine nicht-radiale oder standortabhängige Falloff-Funktion Faktoren, wie z. B. andere Faktoren wie die lokale Bevölkerungsdichte oder die Vegetationsdichte, berücksichtigen, die das Verdeckungsrisiko erhöhen würden. Dementsprechend enthält die Vertrauenspunktzahl einen Abzinsungsfaktor, der die Wahrscheinlichkeit eines falschen Negativs aus anderen Gründen als Nichtvorhandensein, wie z. B. Verdeckung, widerspiegelt.As previously mentioned, the calculation of the normalized confidence score may be affected by occlusion, e.g. For example, if other objects are the view of an object of interest to impede a picture. 8th represents a top view illustration of the exemplary obstacles 871 - 873 ready to cause at least partial obscuration of the object 805 to lead. The obstacles 871 - 873 In this example, trees may be, though occluded by weather conditions such as fog or other objects such as humans, monuments, buildings, animals, etc. When calculating the confidence score for an image, the field of view 833 corresponds, such a cover can be taken into account. For example, a radial falloff function representing the probability that the object may be used 805 visible in this picture, if it actually exists. As another example, a non-radial or location-dependent falloff function may include factors such as: For example, consider other factors such as local population density or vegetation density that would increase the risk of concealment. Accordingly, the confidence score includes a discount factor that reduces the likelihood of false negatives for reasons other than non-existence, such as the absence of a false negative. As occlusion reflects.

Gemäß einigen Beispielen kann die Verdeckung als Ergebnis der Leistung eines Bilderkennungs-Tools auftreten. Während sich beispielsweise keine Objekte zwischen der Kamera und dem Objekt befinden, kann es vorkommen, dass das Bilderkennungs-Tool das Objekt von Interesse nicht erkennt, z. B. wenn das Objekt weit entfernt, klein und/oder nur durch wenige Pixel dargestellt ist. Dementsprechend kann die Bedeutung einer Beobachtung oder Nicht-Beobachtung vernachlässigt werden, wenn ein Objekt weit entfernt, klein, durch wenige Pixel dargestellt ist usw.According to some examples, the occlusion may occur as a result of the performance of an image recognition tool. For example, while there are no objects between the camera and the object, the image recognition tool may not recognize the object of interest, e.g. B. if the object is far away, small and / or shown only by a few pixels. Accordingly, the importance of observation or non-observation can be neglected when an object is far away, small, represented by a few pixels, and so on.

Die Falloff-Funktion kann für verschiedene Arten von Verdeckungen oder Effekten verantwortlich sein. So können z. B. bei der Anwendung der Falloff-Funktion verschiedene Verdeckungsarten addiert oder multipliziert werden. Des Weiteren kann die Falloff-Funktion auf Beobachtungen anders angewendet werden als auf Nicht-Beobachtungen. Nicht-Beobachtungen können z. B. für Verdeckungen, nicht aber für Beobachtungen abgezinst werden. Die Falloff-Funktion kann auch trainiert werden, z. B. wenn ein Standort eines bestimmten Objekts bekannt ist. Wenn die Standorte jedes Feuerhydranten in einer bestimmten Stadt bekannt sind und Bilder für die Stadt verfügbar sind, können verschiedene Berechnungen mit verschiedenen Falloff-Funktionen durchgeführt werden, und die Funktion, die ein Ergebnis produziert, das den bekannten Standorten am nächsten kommt, kann ausgewählt werden.The falloff feature may be responsible for various types of occlusion or effects. So z. For example, when using the falloff function, different types of occlusion may be added or multiplied. Furthermore, the falloff function can be applied to observations other than non-observations. Non-observations can z. B. for masking, but not for observations are discounted. The falloff function can also be trained, eg. When a location of a particular object is known. If the locations of each fire hydrant in a particular city are known and images are available to the city, various calculations can be made with different falloff functions, and the function that produces a result closest to the known locations can be selected ,

Die Wahrscheinlichkeit von Verdeckung kann mit zunehmendem Abstand zwischen einem Bilderfassungsstandort und einem Objekt von Interesse zunehmen. 9 zeigt ein Beispiel für die Wahrscheinlichkeit von Hindernissen, die Beobachtungen beeinflussen. Objekt 905 befindet sich in einem Sichtfeld 933 eines Bildes, das von Standort 923 erfasst wurde. Das Sichtfeld 933 ist basierend auf der Verdeckungswahrscheinlichkeit in verschiedene Regionen 982, 984, 986 unterteilt. Beispielsweise ist für alle Objekte innerhalb der ersten Region 982, die dem Erfassungsstandort 923 am nächsten liegt, die Verdeckungswahrscheinlichkeit am geringsten. Für Objekte innerhalb der zweiten Region 984, wie z. B. Objekt 905, ist die Verdeckungswahrscheinlichkeit höher als für die erste Region 982. Für die Region 986, die am weitesten von dem Bilderfassungsstandort 923 entfernt ist, ist das Verdeckungsrisiko am größten. In einigen Beispielen können die Wahrscheinlichkeiten unter Verwendung von iterativem Training basierend auf Beobachtungen angepasst werden.The likelihood of occlusion may increase with increasing distance between an image capture site and an object of interest. 9 shows an example of the probability of obstacles affecting observations. object 905 is in a field of view 933 of an image by location 923 was recorded. The field of vision 933 is based on the probability of concealment in different regions 982 . 984 . 986 divided. For example, for all objects within the first region 982 that the detection site 923 closest, the probability of occlusion is lowest. For objects within the second region 984 , such as B. object 905 , the occlusion probability is higher than for the first region 982 , For the region 986 farthest from the image capture site 923 removed, the risk of concealment is greatest. In some examples, the probabilities may be adjusted using iterative training based on observations.

Der berechnete Standort von Objekten von Interesse, der sich aus einer semantischen Suche ergibt, kann in einer beliebigen Anzahl von Anwendungen verwendet werden. Beispielsweise können die Standorte dazu verwendet werden, eine Karte zu füllen, um bestimmte Merkmale, wie z. B. Standorte von Skateparks, Hundeparks, Feuerhydranten, Straßenlaternen, Verkehrszeichen usw., darzustellen. Die Standorte können außerdem von Endbenutzern genutzt werden, die nach bestimmten Zielen suchen oder versuchen, die Landschaft einer bestimmten Nachbarschaft zu erkunden. Beispielsweise kann ein Benutzer, der ein Haus kaufen möchte, nach Kraftwerken oder Stromleitungen in der Nähe eines potenziellen Eigenheims suchen und den genauen Standort solcher Objekte in Bezug auf das Eigenheim bestimmen. Der potenzielle Hausbesitzer möchte vielleicht eine allgemeinere Suche nach Gebieten durchführen, die z. B. als „ländlich“ erscheinen, in diesem Fall können lokalisierte Objekte oder Attribute wie Bäume oder „grün“ ausgegeben werden. Ein Vermarkter kann bestimmen wollen, wo bestimmte Branchen angesiedelt sind, um Werbung für diese Branchen zu schalten. Der Vermarkter will ggf. auch wissen, welche seiner Wettbewerber in einem bestimmten Bereich werben. Ein Mitarbeiter eines Energieversorgungsunternehmens kann alle Straßenlaternen suchen und lokalisieren. Dies sind nur einige von zahlreichen möglichen Anwendungsbeispielen.The computed location of objects of interest resulting from a semantic search can be used in any number of applications. For example, the locations may be used to populate a map to identify certain features, such as a map. B. locations of skate parks, dog parks, fire hydrants, street lamps, traffic signs, etc. represent. Locations can also be used by end users looking for specific destinations or trying to explore the landscape of a specific neighborhood. For example, a user who wants to buy a home may search for power plants or power lines near a potential home, and determine the exact location of such home-related objects. The potential homeowner may wish to conduct a more general search for areas that may be, for example: For example, they may appear as "rural", in which case localized objects or attributes such as trees or "green" may be output. A marketer may want to determine where certain industries are located to advertise these industries. If necessary, the marketer also wants to know which of his competitors advertise in a particular area. An employee of a utility company can search and locate all street lights. These are just a few of many possible application examples.

10 veranschaulicht eine exemplarische Ausgabe von semantischer Suche unter Verwendung von Beobachtungen und Nicht-Beobachtungen. In diesem Beispiel wird eine Karte 1000 aktualisiert, um Standorte bestimmter Objekte anzugeben. Das Objekt von Interesse bei der semantischen Suche kann z. B. ein Feuerhydrant sein. Dementsprechend werden die Marker 1012, 1014, 1016, 1018 und 1020 angezeigt, die die Standorte der Feuerhydranten in der angezeigten Region hervorheben. Obwohl die Marker in 10 gezeigt werden, versteht sich, dass auch andere Indizien, wie z. B. Symbole, Texte usw., verwendet werden können. 10 illustrates an exemplary output of semantic search using observations and non-observations. This example becomes a map 1000 updated to specify locations of specific objects. The object of interest in the semantic search can be z. B. be a fire hydrant. Accordingly, the markers 1012 . 1014 . 1016 . 1018 and 1020 that highlight the locations of the fire hydrants in the displayed region. Although the markers in 10 be shown, it is understood that Other indications, such. As symbols, texts, etc., can be used.

Exemplarische VerfahrenExemplary procedure

Zusätzlich zu den zuvor beschriebenen exemplarischen Systemen veranschaulicht 11 ein exemplarisches Verfahren 1100 zum genauen Lokalisieren von Objekten basierend auf semantischer Bildsuche. Jene Verfahren können unter Verwendung der zuvor beschriebenen Systeme, ihrer Modifikationen oder einer Vielzahl von Systemen mit unterschiedlichen Konfigurationen ausgeführt werden. Es versteht sich, dass die in den folgenden Verfahren enthaltenen Vorgänge nicht in der beschriebenen genauen Reihenfolge ausgeführt werden müssen. Vielmehr können verschiedene Vorgänge in einer anderen Reihenfolge oder gleichzeitig bearbeitet werden, und Vorgänge können hinzugefügt oder weggelassen werden.Illustrated in addition to the exemplary systems described above 11 an exemplary procedure 1100 to accurately locate objects based on semantic image search. Those methods may be practiced using the systems described above, their modifications, or a variety of systems having different configurations. It should be understood that the operations contained in the following methods need not be performed in the precise order described. Rather, various operations may be processed in a different order or concurrently, and operations may be added or omitted.

In Block 1110 werden geografische Bilder identifiziert, die sich auf eine Region von Interesse beziehen. Beispielsweise können verschiedene Bilder in Verbindung mit Informationen gespeichert werden, die einen Erfassungsstandort für die Bilder angeben. Wenn ein Benutzer nach Objekten in einer bestimmten Nachbarschaft, Stadt, einem Land oder einer anderen Region suchen möchte, können Bilder mit Erfassungsstandortinformationen innerhalb dieser Region identifiziert werden.In block 1110 Geographical images are identified that relate to a region of interest. For example, various images may be stored in association with information indicating a capture location for the images. If a user wants to search for objects in a particular neighborhood, city, country, or other region, images with detection location information within that region can be identified.

In Block 1120 wird bestimmt, welche der identifizierten Bilder das Objekt von Interesse beinhalten. Beispielsweise kann jedes der identifizierten Bilder, z. B. durch Anwenden eines Bilderkennungs-Tools, überprüft werden.In block 1120 it is determined which of the identified images contain the object of interest. For example, each of the identified images, e.g. By applying an image recognition tool.

In Block 1130 wird bestimmt, welche der identifizierten Bilder das Objekt von Interesse nicht beinhalten. Beispielsweise können bei der Anwendung des Bilderkennungs-Tools in Block 1120 Bilder, in denen das Objekt von Interesse nicht erkannt wird, separat identifiziert und/oder markiert werden.In block 1130 it is determined which of the identified images do not contain the object of interest. For example, when applying the image recognition tool in block 1120 Images in which the object of interest is not recognized, separately identified and / or marked.

Jedes der in den Blöcken 1120 und 1130 identifizierten Bilder kann eine Vielzahl von Kandidatenstandorten beinhalten. In Block 1140 wird für jeden der Vielzahl von Kandidatenstandorten, wenn auch nicht notwendigerweise alle, eine Wahrscheinlichkeit des am Kandidatenstandort vorhandenen Objekts von Interesse berechnet. Die Wahrscheinlichkeit kann unter Verwendung von Bilderfassungsstandortinformationen für die Bilder in Block 1120 und die Bilder in Block 1130 berechnet werden. In einigen Beispielen kann die Wahrscheinlichkeit auch unter Verwendung von Richtungs- oder Poseinformationen und anderen Informationen, wie z. B. optischen Eigenschaften der Kamera oder Faktoren, die sich auf mögliche Verdeckung beziehen, berechnet werden.Each one in the blocks 1120 and 1130 Identified images can include a variety of candidate locations. In block 1140 For each of the plurality of candidate sites, though not necessarily all, a probability of the object of interest present at the candidate site is calculated. The probability may be in block by using image acquisition location information for the images 1120 and the pictures in block 1130 be calculated. In some examples, the likelihood may also be obtained using directional or pose information and other information, such as directional information. As optical properties of the camera or factors that relate to possible occlusion calculated.

In Block 1150 wird ein Standort des Objekts von Interesse unter Verwendung des Wahrscheinlichkeitswertes bestimmt. Beispielsweise kann der Wahrscheinlichkeitswert normalisiert, zu einem Anfangswert addiert und mit einem Schwellenwert verglichen werden. Wenn der resultierende Wert für einen bestimmten Kandidatenstandort über dem Schwellenwert liegt, kann der Standort des Objekts von Interesse als derselbe bestimmt werden wie derjenige des Kandidatenstandortes.In block 1150 a location of the object of interest is determined using the probability value. For example, the probability value can be normalized, added to an initial value and compared to a threshold value. If the resulting value for a particular candidate site is above the threshold, the location of the object of interest may be determined to be the same as that of the candidate site.

Durch Verwendung von Beobachtungen und Nicht-Beobachtungen zum Lokalisieren eines bestimmten Objekts oder Merkmals kann der Standort des Objekts relativ einfach und mit relativ hoher Sicherheit bestimmt werden, selbst wenn die Bilder nicht hochauflösend sind und/oder mit geringer Auflösung oder unzuverlässigen Bilderfassungsinformationen verknüpft sind. Dies kann ermöglichen, die Objektstandortidentifikation auch unter Verwendung von nicht-professionellen Inhalten, z. B. von Smartphones, auszuführen. Durch Verwendung von Informationen für Bilder, die nicht für die Aufnahme des Objekts bestimmt sind, kann die Objektstandortidentifikation verbessert werden. Darüber hinaus kann dies ohne, oder nur mit relativ geringen Berechnungskosten erreicht werden.By using observations and non-observations to locate a particular object or feature, the location of the object can be determined relatively easily and with relatively high security, even if the images are not high resolution and / or associated with low resolution or unreliable image acquisition information. This may enable object location identification also using non-professional content, e.g. B. from smartphones to execute. By using information for images that are not intended to capture the object, object location identification can be improved. In addition, this can be achieved without, or only with relatively low calculation costs.

Obwohl die vorangegangenen Beispiele in Bezug auf Bilder beschrieben werden, versteht sich, dass es sich bei jenen Bildern um Bilder im herkömmlichen Sinne, wie z. B. eine Ansammlung von Pixeln, handelt, oder dass es sich um Frames aus einem Video, Videobeobachtungen (z. B. einen Ausschnitt eines Videos), LIDAR-Bildgebung, Radar, Bildgebung, Sonarbildgebung oder auch „hörende“ Beobachtungen wie Audioaufnahmen oder Radiofrequenzempfang, handeln kann. Ebenso kann es sich bei der in diesen Beispielen durchgeführten Bilderkennung um Videoerkennung, LIDAR-Erkennung, Audioerkennung usw. handeln. Dementsprechend können Beobachtungen und Nicht-Beobachtungen, die diese oder andere Arten von Bildgebung verwenden, verwendet werden, um ein Objekt oder Attribut präzise zu lokalisieren.Although the foregoing examples are described with respect to images, it will be understood that those images are conventional images, such as images. A collection of pixels, or frames from a video, video observations (e.g., a portion of a video), LIDAR imaging, radar, imaging, sonar imaging, or even "listening" observations such as audio or radio frequency reception , can act. Likewise, the image recognition performed in these examples may be video detection, LIDAR detection, audio detection, etc. Accordingly, observations and non-observations using these or other types of imaging may be used to precisely locate an object or attribute.

Sofern nicht anders angegeben, schließen sich die meisten der vorstehenden alternativen Beispiele nicht gegenseitig aus, sondern können in unterschiedlichen Kombinationen implementiert werden, um charakteristische Vorteile zu erzielen. Während diese und andere Variationen und Kombinationen der vorstehend beschriebenen Merkmale verwendet werden können ohne vom Gegenstand, der von den Ansprüchen definiert wird, abzuweichen, sollte die vorhergehende Beschreibung der Ausführungsformen eher als Veranschaulichung und nicht als Gelegenheit angesehen werden, den von den Ansprüchen definierten Gegenstand der Erfindung zu begrenzen. Darüber hinaus sollte das Bereitstellen der hierin beschriebenen Beispiele, sowie Klauseln, die mit Begriffen wie etwa „zum Beispiel“, „einschließlich“ und dergleichen formuliert sind, nicht als Begrenzung des Gegenstands der Ansprüche auf diese spezifischen Beispiele interpretiert werden, da die Beispiele dazu dienen, nur eine der vielen möglichen Ausführungsformen zu veranschaulichen. Ferner können die gleichen Referenznummern in unterschiedlichen Zeichnungen die gleichen oder ähnliche Elemente identifizieren.Unless otherwise stated, most of the foregoing alternative examples are not mutually exclusive, but may be implemented in various combinations to achieve characteristic advantages. While these and other variations and combinations of the features described above may be utilized without departing from the subject matter as defined by the claims, the foregoing description of the embodiments should be taken as illustrative rather than as an opportunity to address the subject matter defined by the claims To limit the invention. Moreover, the provision of the examples described herein, as well as terms formulated with terms such as "for example," "including," and the like, should not be interpreted as limiting the scope of the claims to these specific examples, as the examples serve this purpose to illustrate just one of the many possible embodiments. Furthermore, the same reference numbers in different drawings may identify the same or similar elements.

Claims (20)

Computerlesbarer Speicher, der Anweisungen speichert, die durch einen oder mehrere Prozessoren ausführbar sind, um ein Verfahren zum Bestimmen eines Standortes eines Objekts von Interesse auszuführen, das Verfahren umfassend: Identifizieren eines Satzes von vielen Bildern aus einer Bilddatenbank, die sich auf eine Region von Interesse beziehen, wobei jedes der vielen Bilder mit Bilderfassungsinformationen verknüpft ist, die mindestens einen Bilderfassungsstandort beinhalten; Anwenden eines Bilderkennungs-Tools auf jedes Bild in dem Satz von vielen Bildern; Bestimmen, basierend auf dem Anwenden des Bilderkennungs-Tools, welche der Bilder das Objekt von Interesse beinhalten und welche der Bilder das Objekt von Interesse nicht beinhalten; für jeden von mehreren Kandidatenstandorten in der Region von Interesse Berechnen eines Wahrscheinlichkeitswertes des an dem Kandidatenstandort vorhandenen Objekts von Interesse unter Verwendung der Bilderfassungsinformationen für Bilder in dem Satz von vielen Bildern, die so bestimmt sind, dass sie das Objekt von Interesse beinhalten, und unter Verwendung der Bilderfassungsinformationen für Bilder in dem Satz von vielen Bildern, die so bestimmt sind, dass sie das Objekt von Interesse nicht beinhalten; und Bestimmen des Standorts des Objekts unter Verwendung der Wahrscheinlichkeitswerte für die mehreren Kandidatenstandorte.A computer-readable storage storing instructions executable by one or more processors to perform a method of determining a location of an object of interest, the method comprising: Identifying a set of many images from an image database relating to a region of interest, each of the plurality of images associated with image capture information including at least one image capture site; Applying an image recognition tool to each image in the set of many images; Determining, based on the application of the image recognition tool, which of the images include the object of interest and which of the images do not include the object of interest; for each of a plurality of candidate sites in the region of interest, calculating a probability value of the object of interest present at the candidate site using the image capture information for images in the set of many images determined to include the object of interest, and using the image capture information for images in the set of many images that are determined not to include the object of interest; and Determining the location of the object using the probability values for the plurality of candidate sites. Computerlesbarer Speicher nach Anspruch 1, wobei die Bilderfassungsinformationen für mindestens einige der Bilder einen Bilderfassungsstandort und eine Bilderfassungsausrichtung beinhalten, und wobei Berechnen des Wahrscheinlichkeitswertes des an einem bestimmten Standort vorhandenen Objekts von Interesse Verwenden der Bilderfassungsausrichtung umfasst.Computer readable memory after Claim 1 wherein the image capture information for at least some of the images includes an image capture location and an image capture orientation, and wherein calculating the probability value of the object of interest present at a particular location comprises using the image capture orientation. Computerlesbarer Speicher nach Anspruch 1, wobei Bestimmen, welche der Bilder ein Objekt von Interesse beinhalten und welche der Bilder das Objekt von Interesse nicht beinhalten, Bestimmen eines Vertrauensfaktors beinhaltet, dass die Bilder das Objekt von Interesse beinhalten oder nicht beinhalten, und wobei Berechnen des Wahrscheinlichkeitswertes des an dem Standort vorhandenen Objekts von Interesse Verwenden des bestimmten Vertrauensfaktors beinhaltet.Computer readable memory after Claim 1 wherein determining which of the images include an object of interest and which of the images do not include the object of interest, determining a confidence factor includes whether or not the images include the object of interest, and calculating the probability value of the one present at the location Object of interest using the specific confidence factor. Computerlesbarer Speicher nach Anspruch 1, wobei Berechnen des Wahrscheinlichkeitswertes des an dem Kandidatenstandort vorhandenen Objekts von Interesse umfasst: Anwenden eines Faktors mit einem ersten Zeichen für die Bilder in dem Satz von vielen Bildern, die so bestimmt sind, dass sie das Objekt von Interesse beinhalten, und Anwenden eines Faktors mit einem zweiten Zeichen für die Bilder in dem Satz von vielen Bildern, die so bestimmt sind, dass sie das Objekt von Interesse nicht beinhalten, wobei das zweite Zeichen dem ersten Zeichen gegenüberliegt.Computer readable memory after Claim 1 wherein calculating the probability value of the object of interest at the candidate site comprises applying a factor having a first character to the images in the set of many images determined to include the object of interest and applying a factor a second character for the images in the set of many images that are determined not to include the object of interest, the second character being opposite the first character. Computerlesbarer Speicher nach Anspruch 1, wobei die mehreren Kandidatenstandorte in der Region von Interesse ein Raster aus mehreren Standorten umfassen.Computer readable memory after Claim 1 wherein the plurality of candidate sites in the region of interest comprise a grid of multiple sites. Computerlesbarer Speicher nach Anspruch 1, wobei die mehreren Kandidatenstandorte Standorte beinhalten, die in einem Sichtfeld von jedem Bild in dem Satz von vielen Bildern enthalten sind.Computer readable memory after Claim 1 wherein the plurality of candidate sites include locations included in a field of view of each image in the set of many images. Computerlesbarer Speicher nach Anspruch 1, wobei das Bilderkennungs-Tool zum Erkennen diskreter Objekte konfiguriert ist.Computer readable memory after Claim 1 where the image recognition tool is configured to recognize discrete objects. Computerlesbarer Speicher nach Anspruch 1, wobei das Bilderkennungs-Tool zum Erkennen von Objekten konfiguriert ist, die spezifische Eigenschaften aufweisen.Computer readable memory after Claim 1 wherein the image recognition tool is configured to recognize objects having specific properties. Computerlesbarer Speicher nach Anspruch 1, wobei das Bilderkennungs-Tool aus einer Bibliothek von Bilderkennungs-Tools ausgewählt wird.Computer readable memory after Claim 1 where the image recognition tool is selected from a library of image recognition tools. System, umfassend: einen Arbeitsspeicher, der eine Vielzahl von Bildern in Verbindung mit Standortinformationen speichert; und einen oder mehrere Prozessoren, die mit dem Arbeitsspeicher kommunizieren, die programmiert sind zum: Identifizieren eines Satzes von Bildern aus der Vielzahl von Bildern, die sich auf eine Region von Interesse beziehen; Bestimmen unter Verwendung von Bilderkennung, welche der Bilder das Objekt von Interesse beinhalten; Bestimmen unter Verwendung von Bilderkennung, welche der Bilder das Objekt von Interesse nicht beinhalten; für jeden von mehreren Kandidatenstandorten in der Region von Interesse Berechnen eines Wahrscheinlichkeitswertes des an dem Kandidatenstandort vorhandenen Objekts unter Verwendung der Standortinformationen für Bilder in dem Satz von vielen Bildern, die so bestimmt sind, dass sie das Objekt von Interesse beinhalten, und unter Verwendung der Standortinformationen für Bilder in dem Satz von Bildern, die so bestimmt sind, dass sie das Objekt von Interesse nicht beinhalten; und Bestimmen des Standorts des Objekts unter Verwendung der Wahrscheinlichkeitswerte für die mehreren Kandidatenstandorte.A system comprising: a work memory storing a plurality of images in association with location information; and one or more processors communicating with the memory programmed to: identify a set of images from the plurality of images relating to a region of interest; Determining, using image recognition, which of the images include the object of interest; Determining, using image recognition, which of the images does not include the object of interest; for each of a plurality of candidate sites in the region of interest, calculate a probability value of the object present at the candidate site using the location information for images in the set of many images determined to include the object of interest, and using the location information for images in the set of images that are determined not to contain the object of interest; and determining the location of the object using the probability values for the plurality of candidate sites. System nach Anspruch 10, wobei die Standortinformationen Bilderfassungsinformationen beinhalten.System after Claim 10 wherein the location information includes image capture information. System nach Anspruch 11, wobei die Bilderfassungsinformationen für mindestens einige der Bilder einen Bilderfassungsstandort und eine Bilderfassungsausrichtung beinhalten, und wobei Berechnen des Wahrscheinlichkeitswertes des an einem bestimmten Standort vorhandenen Objekts von Interesse Verwenden der Bilderfassungsausrichtung umfasst.System after Claim 11 wherein the image capture information for at least some of the images includes an image capture location and an image capture orientation, and wherein calculating the probability value of the object of interest present at a particular location comprises using the image capture orientation. System nach Anspruch 10, wobei Bestimmen, welche der Bilder ein Objekt von Interesse beinhalten und welche der Bilder das Objekt von Interesse nicht beinhalten, Bestimmen eines Vertrauensfaktors beinhaltet, dass die Bilder das Objekt von Interesse beinhalten oder nicht beinhalten, und wobei Berechnen des Wahrscheinlichkeitswertes des an dem Standort vorhandenen Objekts von Interesse Verwenden des bestimmten Vertrauensfaktors beinhaltet.System after Claim 10 wherein determining which of the images include an object of interest and which of the images do not include the object of interest, determining a confidence factor includes whether or not the images include the object of interest, and calculating the probability value of the one present at the location Object of interest using the specific confidence factor. System nach Anspruch 10, wobei Berechnen des Wahrscheinlichkeitswertes des an dem Kandidatenstandort vorhandenen Objekts von Interesse umfasst: Anwenden eines Faktors mit einem ersten Zeichen für die Bilder in dem Satz von vielen Bildern, die so bestimmt sind, dass sie das Objekt von Interesse beinhalten, und Anwenden eines Faktors mit einem zweiten Zeichen für die Bilder in dem Satz von vielen Bildern, die so bestimmt sind, dass sie das Objekt von Interesse nicht beinhalten, wobei das zweite Zeichen dem ersten Zeichen gegenüberliegt.System after Claim 10 wherein calculating the probability value of the object of interest at the candidate site comprises applying a factor having a first character to the images in the set of many images determined to include the object of interest and applying a factor a second character for the images in the set of many images that are determined not to include the object of interest, the second character being opposite the first character. System nach Anspruch 10, wobei die mehreren Kandidatenstandorte in der Region von Interesse ein Raster aus mehreren Standorten umfassen.System after Claim 10 wherein the plurality of candidate sites in the region of interest comprise a grid of multiple sites. System nach Anspruch 10, wobei die mehreren Kandidatenstandorte Standorte beinhalten, die in einem Sichtfeld von jedem Bild in dem Satz von Bildern enthalten sind.System after Claim 10 wherein the plurality of candidate sites include locations included in a field of view of each image in the set of images. System nach Anspruch 10, wobei ein Bilderkennungs-Tool zum Erkennen diskreter Objekte konfiguriert ist.System after Claim 10 wherein an image recognition tool is configured to recognize discrete objects. System nach Anspruch 10, wobei das Bilderkennungs-Tool zum Erkennen von Objekten konfiguriert ist, die spezifische Eigenschaften aufweisen.System after Claim 10 wherein the image recognition tool is configured to recognize objects having specific properties. System nach Anspruch 10, wobei der eine oder mehrere Prozessoren ferner so konfiguriert sind, dass sie die bestimmten Standortinformationen zur Ausgabe auf einer Anzeige bereitstellen.System after Claim 10 wherein the one or more processors are further configured to provide the determined location information for output on a display. Computerlesbares Medium, das Anweisungen speichert, die von einem Prozessor ausführbar sind, um ein Verfahren zum Bestimmen des Standorts eines Objekts von Interesse auszuführen, das Verfahren umfassend: Identifizieren eines Satzes von vielen Bildern aus einer Bilddatenbank, die sich auf eine Region von Interesse beziehen, wobei jedes der vielen Bilder mit Bilderfassungsinformationen verknüpft ist, die mindestens einen Bilderfassungsstandort beinhalten; Anwenden eines Bilderkennungs-Tools auf jedes Bild in dem Satz von Bildern; Bestimmen, basierend auf dem Anwenden des Bilderkennungs-Tools, welche der Bilder das Objekt von Interesse beinhalten und welche der Bilder das Objekt von Interesse nicht beinhalten; für jeden von mehreren Kandidatenstandorten in der Region von Interesse Berechnen eines Wahrscheinlichkeitswertes des an dem Kandidatenstandort vorhandenen Objekts von Interesse unter Verwendung der Bilderfassungsinformationen für Bilder in dem Satz von vielen Bildern, die so bestimmt sind, dass sie das Objekt von Interesse beinhalten, und unter Verwendung der Bilderfassungsinformationen für Bilder in dem Satz von vielen Bildern, die so bestimmt sind, dass sie das Objekt von Interesse nicht beinhalten; und Bestimmen des Standorts des Objekts unter Verwendung der Wahrscheinlichkeitswerte für die mehreren Kandidatenstandorte.A computer-readable medium storing instructions executable by a processor to perform a method of determining the location of an object of interest, the method comprising: Identifying a set of many images from an image database relating to a region of interest, each of the plurality of images associated with image capture information including at least one image capture site; Applying an image recognition tool to each image in the set of images; Determining, based on the application of the image recognition tool, which of the images include the object of interest and which of the images do not include the object of interest; for each of a plurality of candidate sites in the region of interest, calculating a probability value of the object of interest present at the candidate site using the image capture information for images in the set of many images determined to include the object of interest, and using the image capture information for images in the set of many images that are determined not to include the object of interest; and Determining the location of the object using the probability values for the plurality of candidate sites.
DE202018100752.1U 2018-02-12 2018-02-12 Bayesian methodology for geospatial object / feature recognition Active DE202018100752U1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE202018100752.1U DE202018100752U1 (en) 2018-02-12 2018-02-12 Bayesian methodology for geospatial object / feature recognition

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE202018100752.1U DE202018100752U1 (en) 2018-02-12 2018-02-12 Bayesian methodology for geospatial object / feature recognition

Publications (1)

Publication Number Publication Date
DE202018100752U1 true DE202018100752U1 (en) 2018-03-23

Family

ID=61912771

Family Applications (1)

Application Number Title Priority Date Filing Date
DE202018100752.1U Active DE202018100752U1 (en) 2018-02-12 2018-02-12 Bayesian methodology for geospatial object / feature recognition

Country Status (1)

Country Link
DE (1) DE202018100752U1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018118215A1 (en) * 2018-07-27 2020-01-30 Man Truck & Bus Se Method for updating a map of the surroundings, device for carrying out method steps of the method on the vehicle, vehicle, device for carrying out method steps of the method on the central computer, and computer-readable storage medium
CN111950440A (en) * 2020-08-10 2020-11-17 杭州萤石软件有限公司 Method, device and storage medium for identifying and positioning door

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018118215A1 (en) * 2018-07-27 2020-01-30 Man Truck & Bus Se Method for updating a map of the surroundings, device for carrying out method steps of the method on the vehicle, vehicle, device for carrying out method steps of the method on the central computer, and computer-readable storage medium
DE102018118215B4 (en) * 2018-07-27 2020-04-16 Man Truck & Bus Se Method for updating a map of the surroundings, device for carrying out method steps of the method on the vehicle, vehicle, device for carrying out method steps of the method on the central computer, and computer-readable storage medium
US11940291B2 (en) 2018-07-27 2024-03-26 Volkswagen Aktiengesellschaft Method for updating a map of the surrounding area, device for executing method steps of said method on the vehicle, vehicle, device for executing method steps of the method on a central computer, and computer-readable storage medium
CN111950440A (en) * 2020-08-10 2020-11-17 杭州萤石软件有限公司 Method, device and storage medium for identifying and positioning door

Similar Documents

Publication Publication Date Title
DE102019000675A1 (en) USE A MODEL BASED ON A DEEP NEURONAL NETWORK TO IDENTIFY VISUALLY SIMILAR DIGITAL IMAGES BASED ON USER-SELECTED VISUAL PROPERTIES
DE202010018498U1 (en) Matching an approximately localized request image with a reference image sentence
DE102012218390B4 (en) Optimizing the detection of objects in images
DE102019005423A1 (en) Space-time storage or storage network for localizing a target object in video content
EP3550516B1 (en) Environmental parameter based selection of a data model for recognizing an object of a real environment
DE202012013403U1 (en) Capture and process adaptive images with image analysis feedback
DE112019001310T5 (en) SYSTEMS AND METHODS FOR REDUCING THE AMOUNT OF DATA STORAGE DURING MACHINE LEARNING
DE112016002817T5 (en) CHANGE BASED BASED IMAGE RECORDING SYSTEM
DE112015006255T5 (en) Object recognition device, object recognition method, and program
DE202014010927U1 (en) Reference point identification from point clouds created from geographic image data
DE112016005006T5 (en) AUTOMATIC VIDEO EXECUTIVE SUMMARY
DE202011110876U1 (en) Identifying plants in images
DE202011110874U1 (en) System for the determination of building numbers
DE102013222023A1 (en) Multiple viewing area analysis
DE202014010887U1 (en) Navigating through time and space spanning geolocalized images
DE202014010935U1 (en) Updates 3D models using crowd-sourced video
DE102022131673A1 (en) AUTONOMOUS VEHICLE PERCEPTION MULTIMODAL SENSOR DATA MANAGEMENT
DE112021001971T5 (en) AUTOMATED TERRAIN-BASED DETECTION OF DRILLING PLATFORMS AND THEIR SURROUNDINGS
DE202016008004U1 (en) Automatically associate images using visual property references to related applications
DE112008000017T5 (en) Imaging images with designators
DE202014010966U1 (en) Geo-photo search based on the expected conditions at a location
DE112016001039T5 (en) Apparatus and method for extraction of a region of interest
CN112668461A (en) Intelligent supervision system with wild animal identification function
DE112020005732T5 (en) GENERATION OF TRAINING DATA FOR OBJECT RECOGNITION
DE202018100752U1 (en) Bayesian methodology for geospatial object / feature recognition

Legal Events

Date Code Title Description
R207 Utility model specification
R082 Change of representative

Representative=s name: VENNER SHIPLEY GERMANY LLP, DE

Representative=s name: VENNER SHIPLEY LLP, DE

R150 Utility model maintained after payment of first maintenance fee after three years
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06K0009620000

Ipc: G06V0030190000

R151 Utility model maintained after payment of second maintenance fee after six years