DE202016107172U1 - Computersystem mit mehreren Kameras mit einer Kommunikationsverbindung zwischen den Kameras - Google Patents

Computersystem mit mehreren Kameras mit einer Kommunikationsverbindung zwischen den Kameras Download PDF

Info

Publication number
DE202016107172U1
DE202016107172U1 DE202016107172.0U DE202016107172U DE202016107172U1 DE 202016107172 U1 DE202016107172 U1 DE 202016107172U1 DE 202016107172 U DE202016107172 U DE 202016107172U DE 202016107172 U1 DE202016107172 U1 DE 202016107172U1
Authority
DE
Germany
Prior art keywords
camera
camera system
program code
images
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE202016107172.0U
Other languages
English (en)
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Google LLC
Original Assignee
Google LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Google LLC filed Critical Google LLC
Publication of DE202016107172U1 publication Critical patent/DE202016107172U1/de
Expired - Lifetime legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/5854Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using shape and object relationship
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/139Format conversion, e.g. of frame-rate or size
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/2224Studio circuitry; Studio devices; Studio equipment related to virtual studio applications
    • H04N5/2226Determination of depth image, e.g. for foreground/background separation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Library & Information Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)

Abstract

Vorrichtung, umfassend: ein erstes Kamerasystem, umfassend einen Prozessor und einen Speicher, wobei das erste Kamerasystem eine Schnittstelle zum Empfangen von Bildern von einem zweiten Kamerasystem umfasst, wobei das erste Kamerasystem einen Prozessor und einen Speicher umfasst, wobei der Prozessor und Speicher vorgesehen sind, einen Bildverarbeitungsprogrammcode für erste Bilder, die von dem ersten Kamerasystem aufgenommen werden, und zweite Bilder, die von dem zweiten Kamerasystem aufgenommen werden und an der Schnittstelle empfangen werden, auszuführen.

Description

  • Hintergrund
  • In herkömmlichen Computersystemen mit einer oder mehreren integrierten Kameras besteht ein Problem darin, dass übermäßige Mengen an Bilddaten an den Verarbeitungskern des Computersystems (z. B. einen oder mehrere Anwendungsprozessoren eines tragbaren Gerätes) gestreamt werden, um dem Verarbeitungskern zu ermöglichen, die Bilddaten zu verarbeiten und, basierend auf deren Inhalt, intelligente Entscheidungen zu treffen. Bedauerlicherweise sind viele der an den Prozessor gestreamten Daten nicht relevant oder von Interesse. Somit wird eine bedeutende Menge an Energie und Ressourcen dazu verwendet, bedeutungslose Daten durch das System zu transportieren.
  • Kurzdarstellung
  • Eine Vorrichtung wird beschrieben. Die Vorrichtung beinhaltet ein erstes Kamerasystem mit einem Prozessor und einem Speicher. Das erste Kamerasystem beinhaltet eine Schnittstelle, um Bilder von einem zweiten Kamerasystem zu empfangen. Das erste Kamerasystem beinhaltet einen Prozessor und einen Speicher. Der Prozessor und der Speicher sind vorgesehen, einen Bildverarbeitungsprogrammcode für erste Bilder, die von dem ersten Kamerasystem aufgenommen werden, sowie für zweite Bilder, die von dem zweiten Kamerasystem aufgenommen werden und an der Schnittstelle empfangen werden, auszuführen.
  • Eine Vorrichtung wird beschrieben. Die Vorrichtung beinhaltet Mittel zum Verarbeiten von Bildern an einem ersten Kamerasystem, die von dem ersten Kamerasystem empfangen werden. Die Vorrichtung beinhaltet ebenfalls Mittel zum Verarbeiten von Bildern an dem ersten Kamerasystem, die von einem zweiten Kamerasystem empfangen werden und mittels einer Kommunikationsverbindung, die das erste und das zweite Kamerasystem miteinander verbindet, an das erste Kamerasystem gesendet werden. Die Vorrichtung beinhaltet ebenfalls Mittel zum Versenden von Benachrichtigungen von dem ersten Kamerasystem an einen Anwendungsprozessor bezüglich Ereignissen, die das erste und das zweite Kamerasystem, oder auch beide, betreffen.
  • Figuren
  • Die nachfolgende Beschreibung und die angeführten Zeichnungen dienen der Veranschaulichung von Ausführungsformen der Erfindung. In den Zeichnungen:
  • stellt 1 eine erste vom Stand der Technik erfasste Dualkamera-Anordnung dar;
  • stellt 2 eine zweite vom Stand der Technik erfasste Dualkamera-Anordnung dar;
  • stellt 3 eine dritte vom Stand der Technik erfasste Dualkamera-Anordnung dar;
  • stellt 4 eine verbesserte Dualkamera-Anordnung dar;
  • stellt 5 ein von der Kamera der Dualkamera-Anordnung gemäß 4 durchgeführtes Verfahren dar;
  • stellt 6 ein Computersystem dar
  • Ausführliche Beschreibung
  • 1 stellt ein erstes vom Stand der Technik erfasstes Computersystem mit einer Dualkamera-Anordnung dar, in der zwei verschiedene Kameras 101, 102 jeweils getrennte Hardware(105, 106)-Kanäle zu einem Anwendungsprozessor 103 aufweisen. Gemäß des Betriebs des Systems von 1 leiten die zwei Kameras 101, 102 ihre eigenen Bildströme und andere Kommunikationsformen im Wesentlichen unabhängig voneinander über ihre jeweiligen Kanäle 105, 106 durch die Hardwareplattform 104 des Systems an den Prozessor.
  • Ein Problem des Ansatzes gemäß 1 besteht darin, dass im Vergleich zu einer Lösung mit einer einzigen Kamera die doppelte Menge an Materialaufwand und Verkabelung im Computersystem anfällt. Wenn beispielsweise die erste Kamera 101 eine Kommunikation an den Prozessor 103 beabsichtigt, werden ein oder mehrere Signale durch den Kanal 105 gesendet, während ein oder mehrere Signale durch den Kanal 106 gesendet werden, wenn die zweite Kamera 102 eine Kommunikation an den Prozessor 103 beabsichtigt.
  • Der Prozessor 103 muss demnach geeignet sein, zwei verschiedene Kommunikationen an zwei verschiedenen Prozessoreingängen 107, 108 zu bedienen. (z. B. Prozessor-Interrupt-Eingänge) Der Verbrauch von zwei verschiedenen Prozessoreingängen 107, 108 ist in der Weise ineffizient, dass der Prozessor 103 lediglich eine begrenzte Anzahl von Eingängen aufweist, und zwei dieser Eingänge, 107, 108, durch das Dualkamerasystem verbraucht werden. Demnach kann es schwierig sein, andere direkte Kanäle von anderen Komponenten des Systems (welche zahlreich sein können) zu versorgen, was sich als besonders kompliziert erweisen kann, falls eine der Komponenten, die den Prozessor nicht auf direktem Weg erreichen kann, vergleichsweise wichtig ist.
  • Ein weiteres Problem des Ansatzes gemäß 1 ist die komplexe Verdrahtungsdichte und der hiermit verbundene Energieverbrauch. Hier ist eine Situation zu beachten, in der beide Kameras über ihre jeweiligen Kanäle 105, 106 an den Prozessor 103 streamen. Beide Datenströme werden demnach getrennt voneinander durch die Hardwareplattform 104 zu dem Prozessor transportiert.
  • Aufgrund der Konzipierung von zwei mit der Hardwareplattform 104 verbundenen Hardwarekanälen 105, 106 und des hieraus zwangsläufig resultierenden Verdrahtungsaufwandes besteht außerdem das Problem eines ineffizienten Energieverbrauchs, insbesondere dann, falls Rohdaten oder geringfügig verarbeitete Bilddaten an den Prozessor 104 geleitet werden (beispielsweise dann, wenn der Prozessor vergleichsweise komplexe Funktionen bezüglich der von den Kameras 101, 102 gestreamten Daten durchführt). In diesem Fall müssen zwei getrennte Ströme, die potentiell große Datenmengen beinhalten, über potentiell weite Entfernungen innerhalb der Plattform 104 transportiert werden, wozu erhebliche Energiemengen erforderlich sind.
  • Ein weiteres Problem des Ansatzes gemäß 1 besteht darin, dass die Schnittstellen 109, 110 zu dem Dualkamerasystem vergleichsweise inflexibel sind. Hier müssen die zwei Kameras mit den beiden für sie bereitgestellten physischen Schnittstellen 109, 110 verbunden werden. Dies bedeutet, dass es dem Entwickler der Hardwareplattform 104 nicht möglich ist, Kameras zu integrieren, welche mit den Schnittstellen 109 und 110 nicht kompatibel sind; ebenso ist es Kameraherstellern nicht möglich, ihre Kameras in die Plattform 104 des Entwicklers zu integrieren.
  • Ein verbesserter Ansatz, vom Stand der Technik erfasst und bekannt, wird in 2 veranschaulicht. Gemäß des Ansatzes der 2 ist eine Brückenfunktion 212 zwischen dem Dualkamerasystem 201, 202 und dem Prozessor 203 vorgesehen. Die Brückenfunktion 212 vereint und/oder bündelt die Kommunikationen von den zwei Kameras 201, 202 (z. B. duale Bildströme usw.) in einen einzigen Kanal 213, der den Prozessor 203 versorgt.
  • Der Einsatz der Brückenfunktion 212 hilft, einige der zuvor bezüglich 1 erörterten Unzulänglichkeiten abzumildern. Insbesondere wird an dem Prozessor lediglich ein Eingang 207 verbraucht, wodurch ein Eingang 208 „freigemacht“ wird (im Vergleich zu dem Ansatz gemäß 1), sodass z. B. andere, von der Kamera verschiedene, Systemkomponenten direkt mit dem Prozessor 203 kommunizieren können.
  • Jedoch stellt der Energieverbrauch weiterhin ein verbesserungsfähiges Anliegen dar. Hier ist die Brückenfunktion 212 auf eine Bündelung und/oder Verzahnung beschränkt und führt keine wesentlichen Datenreduktionsprozesse (wie beispielsweise Datenkomprimierung) durch. Wenn große Datenmengen an den Prozessor 203 gestreamt werden, muss die Hardwareplattform 204 somit erhebliche Energiemengen aufwenden, um große Datenmengen über weite Entfernungen innerhalb der Plattform 204 zu transportieren.
  • Außerdem löst die Brückenfunktion 212 nicht das Problem einer möglichen Inkompatibilität der Art von Schnittstellen 209, 210, welche von der Plattform 204 zwecks Verbindens mit einer Kamera bereitgestellt werden, mit der Art von Schnittstellen vorhandener Kameras, deren Konzipierung eine Integration in das System ermöglichen könnte.
  • Bezugnehmend auf 3 kann das Problem des Energieverbrauchs zumindest teilweise durch den Einsatz von Verarbeitungsintelligenz in einer der Kameras abgemildert werden. Hier stellt 3 einen weiteren vom Stand der Technik erfassten Ansatz dar, in dem eine der Kameras innerhalb des Dualkamerasystems („primäre“ Kamera 301) über einen lokalen Prozessor 314 und einen lokalen Speicher 315 verfügt. Der Prozessor 314 führt einen Programmcode aus dem Speicher 315 aus und kann bestimmte Funktionen zur Reduktion der Datengröße durchführen, beispielsweise Datenkomprimierung, um die Datenmenge, die zu dem Hauptprozessor 303 transportiert werden muss, in effizienter Weise zu verringern.
  • Werden weniger Daten an den Hauptprozessor 303 übertragen (z. B. wenn idealerweise lediglich diejenigen Informationen von der primären Kamera 301 an den Hauptprozessor 303 gesendet werden, die der Hauptprozessor 303 zwecks Ausführens bildbezogener Anwendungen benötigt), ist der Energieverbrauch der Hardwareplattform 304 geringer, ohne hierdurch die an den Hauptprozessor 303 gestellten Funktionalitätsanforderungen zu beeinträchtigen.
  • Jedoch ist zu beachten, dass der Ansatz gemäß 3 lediglich eine Lösung für einen einzelnen Prozessor 314 in einer einzelnen der Kameras 301 beinhaltet. Hier verfügen Dualkamerasysteme typischerweise über eine primäre Kamera 301 und eine sekundäre Kamera 302 (beispielsweise kann die sekundäre Kamera eine „Rückseiten“-Kamera sein, die von dem Benutzer eines tragbaren Gerätes weg gerichtet ist, während die primäre Kamera eine „Vorderseiten“-Kamera sein kann, die auf den Benutzer eines tragbaren Gerätes gerichtet ist (oder alternativ kann die sekundäre Kamera die primäre Kamera, und die Vorderseiten-Kamera kann die sekundäre Kamera sein). Die geringere Funktionsfähigkeit der sekundären Kamera 302 rechtfertigt üblicherweise nicht die zusätzlichen Kosten des Prozessors 314 und des sich in der primären Kamera 301 befindlichen Speichers 315. Somit findet die Verbesserung der Senkung des Energieverbrauchs in Form des Versendens von weniger Daten über die Plattform 304 an den Hauptprozessor 303 lediglich für Übertragungen von der primären Kamera 301 an den Hauptprozessor 303 statt, hingegen nicht für Übertragungen von der sekundären Kamera 302 an den Hauptprozessor 303.
  • Wie in den Ansätzen gemäß s. 1 und 2, stellt die Hardwareplattform 304 gemäß 3 außerdem ein Paar Schnittstellen 309, 310 für das Dualkamerasystem bereit. Somit besteht weiterhin das Problem der Inkompatibilität der Schnittstellen 309, 310, welche mit der Hardwareplattform 304 kompatibel sind, mit den Schnittstellen, die für Kameras entwickelt sind, die anderweitig als potentielle Kandidaten für eine Integration in die Plattform 304 in Frage kämen. Darüber hinaus verbraucht der Ansatz gemäß 3 zwei Prozessoreingänge 307, 308, welche, wie bezüglich 1 erörtert wurde, eine direkte Kommunikation anderer wichtiger Komponenten innerhalb des Computersystems mit dem Hauptprozessor 303 verhindern könnten.
  • .4 veranschaulicht einen neuartigen Ansatz, der die zuvor erwähnten Probleme in besserer Weise bewältigt als irgendeine der vom Stand der Technik erfassten Lösungen, welche zuvor bezüglich der 1 bis 3 erörtert wurden. Der Ansatz gemäß 4 beinhaltet einen Kommunikationskanal 416 zwischen der sekundären Kamera 402 und der primären Kamera 401. Ebenfalls ist eine Brückenfunktion 417 in der primären Kamera 401 vorgesehen, zwecks z. B. Bündelung und/oder Kombinieren von Bildströmen von beiden Kameras 401, 402 durch den Einzelkanal 405, der zwischen der primären Kamera 401 und dem Hauptprozessor 403 besteht. Wie weiter unten detaillierter erörtert, kann der Kanal 405 ein direkter festverdrahteter Kanal sein, oder ein logischer Kanal, der physisch durch die verschiedenen Komponenten der Hardwareplattform 404 verläuft.
  • In dem Ansatz gemäß 4 werden die Bilddaten von der zweiten Kamera 402 über den Kommunikationskanal 416, der zwischen den zwei Kameras 401, 402 besteht, an die primäre Kamera 401 geleitet. Die Brückenfunktion 417, die in die primäre Kamera 401 eingebettet ist (z. B. in Form eines ausführbaren Softwareprogramms, das der Prozessor 414 ausführt) ermöglicht es der primären Kamera 401, sowohl Bilddaten der sekundären Kamera, als auch Bilddaten der primären Kamera, über den Kanal 405 an den Hauptprozessor 403 zu senden.
  • Wie in dem Ansatz gemäß 2 verbraucht der verbesserte Ansatz gemäß 4 lediglich einen Eingang 407 am Hauptprozessor 403, wodurch ein Prozessoreingang 408 „freigemacht“ wird, sodass dieser zur direkten Kommunikation mit anderen Komponenten des Systems verwendet werden kann.
  • Wie in dem Ansatz gemäß 3 wird Energie gespart, da Datenreduktionsmaßnahmen, beispielsweise Datenkomprimierung, seitens der primären Kamera 401 durchgeführt werden können, wodurch die Gesamt-Datenmenge, die durch die Plattform 404 zu dem Hauptprozessor 403 transportiert werden muss, verringert wird. Während jedoch der Ansatz gemäß 3 lediglich den Energieverbrauch für die primäre Kamera 301 senken konnte (d. h. lediglich die Größe der Bilddaten der primären Kamera konnten verringert werden), kann der Ansatz gemäß 4 den mit dem Transport von Informationen an den Hauptprozessor 403 verbundenen Energieverbrauch für beide Kameras 401, 402 senken.
  • Hier können die von der primären Kamera 401 bezüglich ihrer eigenen Bilddaten durchgeführten Datenreduktionsprozesse (beispielsweise Datenkomprimierung) ebenfalls bezüglich der Bilddaten durchgeführt werden, die sie von der sekundären Kamera 402 mittels Kanal 416 empfängt. Somit können Datenströme mit geringeren Datenmengen von beiden Kameras 401, 402 an den Hauptprozessor 403 gesendet werden.
  • Darüber hinaus ist die sekundäre Kamera 402 mindestens neutral in Bezug auf die bestimmte Kamera-Schnittstelle 409, die auf der Host-Hardwareplattform 404 umgesetzt wurde. Demnach erfordert lediglich die primäre Kamera 401 eine Schnittstelle, die mit einer Schnittstelle 409 der Plattform 404 kompatibel ist. Die Schnittstelle 419 der sekundären Kamera braucht lediglich mit der zweiten Schnittstelle 418 der primären Kamera kompatibel zu sein, damit die Lösung umgesetzt werden kann. Demnach liefert die Existenz des Kanals 416 zwischen der primären und sekundären Kamera 401, 402 dem Systementwickler eine potentiell höhere Wahlfreiheit bezüglich der Kameras, die mit ihrer Plattform 404 integriert werden können.
  • Ein konkretes Beispiel anführend, kann der Kanal 416, der zwischen den Kameras 401, 402 liegt, ein proprietärer Kanal des Kameraherstellers sein, welcher sowohl die primäre Kamera 401, als auch die sekundäre Kamera 402 herstellt. Selbst wenn die sekundäre Kamera 402 nicht über eine mit der Host-Plattform 404 kompatible Schnittstelle verfügt, kann sie ungeachtet dessen ihre Daten über den die beiden Kameras verbindenden Kanal 416 und die Brückenfunktion 417 der primären Kamera 401 an den Hauptprozessor 403 streamen.
  • Außerdem kann der Ansatz gemäß 4 naturgemäß effizienter sein für Anwendungen, in denen Bilder von den zwei Kameras 401, 402 kombiniert oder anderweitig vereint werden zwecks Bildung eines kohäsiven einzigen Informationssatzes. Ein Beispiel ist eine Umsetzung, in der die zwei Kameras 401, 402 in Form eines Stereopaars funktionieren und ihre jeweiligen Bilder kombiniert werden, um ein dreidimensionales Tiefenprofil („Tiefenkarte“) eines Objektes, auf welches die beiden Kameras 401, 402 fokussiert sind, zu bestimmen. Das Tiefenprofil kann von dem Hauptprozessor 403 verwendet werden, um gewisse Bildtiefenfunktionen durchzuführen (beispielsweise Hand/Finger-Bewegungserkennung, Gesichtserkennung usw.).
  • Hier kann die auf der primären Kamera 401 ausgeführte Software ihre eigenen Bildstrom-Daten, sowie Bildstrom-Daten der sekundären Kamera 402, verarbeiten, um die Tiefenkarte zu berechnen. Die Tiefenkarte kann sodann von der primären Kamera 401 an den Hauptprozessor 403 gesendet werden. Hier war es im Rahmen bereits bekannter Lösungen notwendig, dass beide Bildströme zu dem Hauptprozessor 403 gesendet wurden. Der Hauptprozessor 403 führt seinerseits die Berechnungen durch, um die Tiefenkarte zu bestimmen.
  • In dem soeben vorstehend beschriebenen verbesserten Ansatz, in dem die Tiefenkarte in der primären Kamera 401 berechnet wird, findet eine bedeutende Senkung des Energieverbrauchs statt, da lediglich eine Tiefenkarte durch die Plattform 404 zu dem Hauptprozessor 403 transportiert wird, und die (potentiell großen Mengen an) Bildstrom-Daten bleiben in dem Dualkamerasystem 401, 402 lokalisiert. Hier ist die Tiefenkarte als bedeutend geringere Datenmenge zu verstehen, als die Daten der Bildströme, aus denen die Tiefenkarte berechnet wird.
  • Ein weiteres Beispiel ist der Autofokus. Hier kann Tiefenprofilinformation, die anhand von Bildströmen von beiden Kameras 401, 402 durch auf der primären Kamera 401 ausgeführte Software berechnet wird, verwendet werden, um eine Autofokus-Funktion für eine oder beide Kameras 401, 402 zu steuern. Beispielsweise kann auf der primären Kamera 401 ausgeführte Software Bildströme von beiden Kameras 401, 402 verarbeiten, um Steuersignale für Schwingspulen, Auslöser oder andere elektro-mechanische Vorrichtungen innerhalb einer oder beiden Kameras 401, 402 bereitzustellen, um die Fokuspositionen des/der Linsensystem(e) der Kamera(s) 401, 402 einzustellen.
  • Vergleichsweise sei erwähnt, dass herkömmliche Systeme die Bilddaten an den Hauptprozessor streamen und der Hauptprozessor die Autofokuseinstellungen bestimmt. In dem verbesserten Ansatz, welcher von dem verbesserten System gemäß 4 durchgeführt werden kann, empfängt der Hauptprozessor 403 bereits fokussierte Bilddaten (d. h. es ist nicht nötig, dass der Hauptprozessor 403 verschiedene Autofokus-Vorgänge durchführt). Die geringere Menge an Daten, die an den Hauptprozessor 403 gesendet wird, trägt zusätzlich zu einer Senkung des Energieverbrauchs bei.
  • Andere Funktionen können ebenfalls durch die auf der primären Kamera 401 ausgeführte Software durchgeführt werden, um die Informationsmenge, die von der Dualkamera 401, 402 an den Hauptprozessor 403 gesendet wird, zu verringern. Insbesondere ist in herkömmlichen Systemen ein Großteil der Informationen, die an den Hauptprozessor 403 gestreamt werden, von geringem Wert.
  • Im Fall einer Bilderkennungsfunktion werden beispielsweise große Datenmengen, die das gesuchte Bild nicht enthalten, in verschwenderischer Weise an den Hauptprozessor 403 gestreamt, nur um ausgesondert zu werden, sobald der Hauptprozessor 403 feststellt, dass das gesuchte Bild nicht vorhanden ist. Ein besserer Ansatz wäre, die Bilderkennung innerhalb des primären Prozessors 401 durchzuführen und den Hauptprozessor 403 nur dann zu benachrichtigen, wenn ein gesuchtes Bild erkannt wurde, dass das gewünschte oder gesuchte Bild momentan im Sichtfeld der Kamera(s) ist.
  • Nachdem das gesuchte Element (oder das Element, an dem Interesse besteht) von der primären Kamera 401 erkannt wird, können Bilddaten an den Hauptprozessor 403 gestreamt werden, sodass der Prozessor beliebige entsprechende Funktionen ausführen kann, die nach der Identifikation des gewünschten Bildes auszuführen vorgesehen sind (z. B. Verfolgung des Objekts, Aufnahme von Merkmalen der Umgebung des Objekts usw.). Somit werden idealerweise lediglich relevante Informationen, oder Informationen, an denen Interesse besteht (oder solche Informationen, die mit großer Wahrscheinlichkeit relevante Informationen und Informationen, an denen Interesse besteht, beinhalten) durch die Plattform 404 an den Hauptprozessor 403 geleitet. Andere Informationen, die keine relevanten Elemente beinhalten, werden idealerweise von der primären Kamera 401 ausgesondert.
  • Hier ist zu beachten, dass das gesuchte Element, an dem Interesse besteht, in dem Bildstrom der primären Kamera, oder in dem Bildstrom der sekundären Kamera gefunden werden kann, da die primäre Kamera beide Ströme verarbeiten kann. Abhängig von der Umsetzung kann der Auslöser der Meldung an den Hauptprozessor 403, dass ein Element, an dem Interesse besteht, gefunden wurde, konfiguriert sein, das Bild in beiden Strömen, oder auch nur in einem Strom zu identifizieren.
  • Die zugehörigen Merkmale der Suchverfahren, die von der primären Kamera bezüglich der Bildströme von einer oder beiden Kameras 401, 402 ausgeführt werden, können beispielsweise Gesichtsdetektion (Detektieren des Vorhandenseins eines beliebigen Gesichts), Gesichtserkennung (Detektieren des Vorhandenseins eines bestimmten Gesichts), Gesichtsausdruckserkennung (Detektieren eines speziellen Gesichtsausdrucks), Objektdetektion oder -erkennung (Detektieren des Vorhandenseins eines generischen oder bestimmten Objekts), Bewegungsdetektion oder -erkennung (Detektieren einer allgemeinen oder bestimmten Art von Bewegung), Ereignisdetektion oder -erkennung (Detektieren einer allgemeinen oder bestimmten Art von Ereignis), Bildqualitätsdetektion oder -erkennung (Detektieren eines allgemeinen oder bestimmten Bildqualitätsniveaus) beinhalten.
  • Nachdem die primäre Kamera ein gesuchtes Element in einem Bildstrom detektiert hat, kann sie ebenfalls anschließend eine Anzahl von zugehörigen „Nachfolge“-Vorgängen durchführen, um die Informationsmenge, die letztlich an den Hauptprozessor 403 geliefert wird, weiter zu begrenzen. Einige Beispiele der zusätzlichen Maßnahmen, die von der primären Kamera durchgeführt werden können, beinhalten eine oder mehrere der folgenden: 1) Identifizieren eines Interessenbereichs innerhalb eines Bildes (z. B. der unmittelbare Umgebungsbereich einer oder mehrerer Suchmerkmale innerhalb des Bildes); 2) Analysieren eines Interessenbereichs innerhalb eines Bildes und dessen Übermittlung an andere Verarbeitungskomponenten (z. B. Komponenten mit höherer Leistungsfähigkeit) des Systems; 3) Aussondern des Bereichs des Bildes, an dem kein Interesse besteht; 4) Komprimieren eines Bildes oder eines Teils eines Bildes, bevor dieses an andere Komponenten innerhalb des Systems übermittelt wird; 5) Aufnahme einer bestimmten Bildart (z. B. eines Snapshots, einer Serie von Snapshots, eines Videostreams); 6) Ändern einer oder mehrerer Kameraeinstellungen (z. B. Ändern der Einstellungen der an die Optik zum Vergrößern und Verkleinern gekoppelten Servomotoren, oder anderweitige Einstellung des Fokus und der Optik der Kamera; Ändern der Belichtungseinstellung; Auslösen eines Blitzes).
  • Es ist zu beachten, dass, obwohl 4 einen direkten Kanal 405 zwischen der primären Kamera 401 und dem Hauptprozessor 403 darstellt, der vollständige Pfad, von einem Ende zum anderen, zwischen der primären Kamera 401 und dem Hauptprozessor 403 ein direkter Hardwarekanal sein kann, der an dem Hauptprozessor 403 endet und/oder eine Anzahl von System-Funktionsblöcken durchläuft, bevor er die Kamera erreicht. In einer Ausführungsform besteht ein direkter Hardwarepfad von der primären Kamera 401 zu einem Interrupt-Eingang des Hauptprozessors 403 zwecks Benachrichtigens des Hauptprozessors 403 von an der primären Kamera detektierten plötzlichen Ereignissen. Außerdem können aktuelle Daten an den Systemspeicher der Plattform 404 (nicht dargestellt) übermittelt werden, wo sie anschließend von dem Hauptprozessor 403 gelesen werden.
  • In einer Ausführungsform kann die Schnittstelle, in welche die primäre Kamera eingesteckt wird, von einer Peripherie-Steuerzentrale (nicht dargestellt) bereitgestellt werden. Die Daten von der primären Kamera können sodann von der Peripherie-Steuerzentrale direkt an den Prozessor geliefert oder im Speicher gespeichert werden.
  • Software/Firmware, die von der primären Kamera 401 ausgeführt wird, kann in einem nichtflüchtigen Speicher, der innerhalb der Kamera 401 oder an einer anderen Stelle der Plattform 404 angebracht ist, gespeichert werden. Im letzteren Fall wird die Software/Firmware während des Hochfahrens des Systems von der Plattform an die primäre Kamera 401 geladen. Ebenso können der Kameraprozessor 414 und/oder -speicher 415 als Komponenten der primären Kamera 401 integriert sein, oder sie können physisch außerhalb der Kamera 401 angebracht sein, jedoch sehr nah an der Kamera platziert werden, sodass sie effektiv als lokale Verarbeitungssysteme der Kamera 401 betrieben werden. Somit ist die unmittelbare Anwendung im Allgemeinen eher für Kamerasysteme als für spezifische Kameras bestimmt.
  • Es ist zu beachten, dass jede der Kameras 401, 402 eine Visible-Light-Kamera, eine Tiefeninformationskamera (beispielsweise eine ToF(„time-of-flight“)-Kamera, die Infrarotlicht ausstrahlt und effektiv die Zeit misst, welche das ausgestrahlte Licht benötigt, nach der Reflektion zu der Kamera zurückzukehren), oder eine Kamera, in der sowohl Visible-Light-Detektion, als auch Tiefeninformationsaufnahme als Gesamtlösung integriert werden.
  • Obwohl sich die vorstehende Erörterung auf die Ausführung von Programmcodes (Software/Firmware) durch ein Kamerasystem fokussiert hat, können einige oder sämtliche der vorstehenden Funktionen vollständig in Hardware durchgeführt werden (z. B. in Form eines anwendungsspezifischen integrierten Schaltkreises oder einer programmierbaren logischen Schaltung, programmiert zwecks Durchführens dieser Funktionen), oder als Kombination von Hardware und Programmcode.
  • Die Schnittstellen zwischen der primären Kamera 401 und der Hardwareplattform 404 können eine Industriestandardschnittstelle, beispielsweise eine MIPI-Schnittstelle, sein. Die Schnittstellen und/oder der Kanal zwischen den zwei Kameras können eine Industriestandardschnittstelle (beispielsweise eine MIPI-Schnittstelle), oder eine proprietäre Schnittstelle sein.
  • .5 stellt eine vorstehend beschriebene Methodik dar, die von einem System mit mehreren Kameras, in welchem eine Kommunikationsverbindung zwischen Kameras besteht, durchgeführt werden kann. Gemäß 5 beinhaltet die Methodik das Verarbeiten von Bildern, die von einem ersten Kamerasystem 501 empfangen werden, am ersten Kamerasystem. Die Methodik beinhaltet ebenfalls das Verarbeiten von Bildern an dem ersten Kamerasystem, die von einem zweiten Kamerasystem empfangen werden und mittels einer Kommunikationsverbindung, die das erste und das zweite Kamerasystem 502 miteinander verbindet, an das erste Kamerasystem gesendet werden. Die Methodik beinhaltet ebenfalls das Versenden von Benachrichtigungen von dem ersten Kamerasystem an einen Anwendungsprozessor bezüglich Ereignissen, die das erste und zweite Kamerasystem 503, oder auch beide, betreffen.
  • .6 stellt eine exemplarische Darstellung eines Computersystems bereit. Viele der Komponenten des nachfolgend beschriebenen Computersystems sind auf ein Computersystem mit integrierter Kamera und zugehörigem Bildprozessor (z. B. ein tragbares Gerät in Form eines Smartphones oder eines Tablet-Computers) anwendbar. Personen mit durchschnittlichem Fachwissen werden leicht zwischen beiden unterscheiden können.
  • Wie in 6 veranschaulicht kann das Basiscomputersystem eine zentrale Verarbeitungseinheit 601 (die beispielsweise eine Vielzahl von Allgemeinzweck-Verarbeitungskernen 615_1 bis 615_N und eine Hauptspeichersteuerung 617, angeordnet auf einem Mehrkernprozessor oder einem Anwendungsprozessor, beinhalten kann), einen Systemspeicher 602, eine Anzeige 603 (z. B. Touchscreen, Flachbildschirm), eine lokal kabelgebundene Punkt-zu-Punkt(z. B. USB)-Verbindungsschnittstelle 604, verschiedene Netzwerk-I/O-Funktionen 605 (beispielsweise eine Ethernet-Schnittstelle und/oder ein Mobilfunkmodem-Subsystem), eine WLAN(z. B. WiFi)-Schnittstelle 606, eine drahtlose Punkt-zu-Punkt(z. B. Bluetooth)-Verbindungschnittstelle 607 und eine GPS-Schnittstelle 608, verschiedene Sensoren 609_1 bis 609_N, eine oder mehrere Kameras 610, eine Batterie 611, eine Energieverwaltungssteuerungseinheit 612, einen Lautsprecher und Mikrofon 613 und einen Audio-Coder/Decoder 614, beinhalten.
  • Ein Anwendungsprozessor oder Mehrkernprozessor 650 kann in seiner zentralen Verarbeitungseinheit 601 einen oder mehrere Allgemeinzweck-Verarbeitungskerne 615, eine oder mehrere GPUs (Graphical Processing Unit) 616, eine Speicherverwaltungsfunktion 617 (z. B. eine Speichersteuerung), eine I/O-Steuerfunktion (beispielsweise die zuvor genannte Peripherie-Steuerzentrale) 618, beinhalten. Die Allgemeinzweck-Verarbeitungskerne 615 führen üblicherweise das Betriebssystem und die Anwendungssoftware des Computersystems aus. Die GPUs (Graphical Processing Unit) 616 führen üblicherweise graphikintensive Funktionen aus, z. B. Erzeugen von Informationsgraphiken, die auf der Anzeige 603 angezeigt werden. Die Speichersteuerungsfunktion 617 ist mittels einer Schnittstelle mit dem Systemspeicher 602 verbunden, um Daten an den Systemspeicher 602 zu schreiben, sowie Daten des Systemspeichers zu lesen. Die Energieverwaltungssteuerungseinheit 612 steuert im Allgemeinen den Energieverbrauch des Systems 600.
  • Die Touchscreen-Anzeige 603, die Kommunikationsschnittstellen 604607, die GPS-Schnittstelle 608, die Sensoren 609, die Kamera 610 und die Lautsprecher/Mikrofon-Coder 613, 614 können allesamt als verschiedene Formen von I/O (Eingang und/oder Ausgang) bezüglich des gesamten Computersystems, einschließlich gegebenenfalls eines integrierten Peripheriegeräts (z. B. die eine oder mehreren Kameras 610) betrachtet werden. Abhängig von der Umsetzung können verschiedene dieser I/O-Komponenten in den Anwendungsprozessor/Mehrkernprozessor 650 integriert werden, oder außerhalb des Verbunds von Anwendungsprozessor/Mehrkernprozessor 650 angebracht werden.
  • In einer Ausführungsform verfügen mindestens zwei Kameras 610 über einen Kommunikationskanal zwischeneinander, und eine dieser Kameras verfügt über einen Prozessor und einen Speicher, um einige oder sämtliche der zuvor bezüglich 4 erörterten Merkmale umzusetzen.
  • Ausführungsformen der Erfindung können verschiedene der zuvor dargelegten Verfahren beinhalten. Die Verfahren können in Form von maschinenausführbaren Befehlen vorliegen. Die Befehle können verwendet werden, um einen Allgemeinzweck- oder Sonderzweck-Prozessor zu veranlassen, bestimmte Verfahren durchzuführen. Alternativ hierzu können diese Verfahren von bestimmten Hardwarekomponenten, welche über festverdrahtete Logik zur Durchführung der Verfahren verfügen, oder von beliebigen Kombinationen programmierter Computerkomponenten und benutzerdefinierten Hardwarekomponenten, durchgeführt werden.
  • Elemente der vorliegenden Erfindung können ebenfalls in Form eines maschinenlesbaren Mediums zum Speichern maschinenausführbarer Befehle bereitgestellt werden. Das maschinenlesbare Medium kann in nichteinschränkender Form Floppy-Disketten, optische Discs, CD-ROMs, magneto-optische Discs, Flash-Speicher, ROMs, RAMs, EPROMs, EEPROMs, magnetische oder optische Karten, Verbreitungsmedien oder andere Formen von medien- und/oder maschinenlesbaren Medien, die zum Speichern elektronischer Befehle geeignet sind, beinhalten. Beispielsweise kann die vorliegende Erfindung als Computerprogramm heruntergeladen werden, welches von einem Remote-Computer (z. B. einem Server) an einen anfragenden Computer (z. B. einen Client) mittels in einer Trägerwelle verkörperten Datensignalen oder einem anderen Verbreitungsmedium mittels einer Kommunikationsverbindung (z. B. eines Modems oder einer Netzwerkverbindung) übermittelt werden kann.
  • In der vorstehenden Beschreibung wurde die Erfindung unter Bezugnahme auf spezifische exemplarische Ausführungsformen der Erfindung beschrieben. Es ist jedoch offensichtlich, dass verschiedene Modifizierungen und Abänderungen hieran vorgenommen werden können, ohne vom weiteren Sinn und Anwendungsbereich der Erfindung, gemäß der Darlegung in den angefügten Patentansprüchen, abzuweichen. Demzufolge ist der Beschreibung und den Zeichnungen beispielhafter Charakter beizumessen und sie sind nicht in einschränkender Weise aufzufassen.

Claims (20)

  1. Vorrichtung, umfassend: ein erstes Kamerasystem, umfassend einen Prozessor und einen Speicher, wobei das erste Kamerasystem eine Schnittstelle zum Empfangen von Bildern von einem zweiten Kamerasystem umfasst, wobei das erste Kamerasystem einen Prozessor und einen Speicher umfasst, wobei der Prozessor und Speicher vorgesehen sind, einen Bildverarbeitungsprogrammcode für erste Bilder, die von dem ersten Kamerasystem aufgenommen werden, und zweite Bilder, die von dem zweiten Kamerasystem aufgenommen werden und an der Schnittstelle empfangen werden, auszuführen.
  2. Vorrichtung nach Anspruch 1, wobei der Bildverarbeitungsprogrammcode vorgesehen ist, eine Tiefenkarte aus den ersten und zweiten Bildern zu bestimmen.
  3. Vorrichtung nach Anspruch 1, wobei der Bildverarbeitungsprogrammcode vorgesehen ist, ein Element, an dem Interesse besteht, zu identifizieren.
  4. Vorrichtung nach Anspruch 3, wobei der Bildverarbeitungsprogrammcode vorgesehen ist, Bilder auszusondern, die das Element, an dem Interesse besteht, nicht beinhalten.
  5. Vorrichtung nach Anspruch 1, wobei der Bildverarbeitungsprogrammcode vorgesehen ist, eine Datenkomprimierung durchzuführen.
  6. Vorrichtung nach Anspruch 1, wobei sowohl das erste als auch das zweite Kamerasystem sichtbare Bilder aufnehmen können.
  7. Vorrichtung nach Anspruch 6, wobei mindestens eines der ersten und zweiten Kamerasysteme Tiefenprofilinformation mittels ToF(„time-of-flight“)-Techniken bestimmen kann.
  8. Computersystem, umfassend: mindestens einen Anwendungsprozessor; eine mit dem mindestens einen Anwendungsprozessor gekoppelte Speichersteuerung; einen mit der Speichersteuerung gekoppelten Systemspeicher; ein erstes Kamerasystem, umfassend einen Prozessor und einen Speicher; ein zweites Kamerasystem; eine Kommunikationsverbindung zwischen den ersten und zweiten Kamerasystemen, wobei der Prozessor und der Speicher des ersten Kamerasystems vorgesehen sind, einen Bildverarbeitungsprogrammcode für erste Bilder, die von dem ersten Kamerasystem aufgenommen werden, und zweite Bilder, die von dem zweiten Kamerasystem aufgenommen werden und über eine Kommunikationsverbindung an das erste Kamerasystem gesendet werden, auszuführen.
  9. Computersystem nach Anspruch 8, wobei das erste Kamerasystem Informationen von sowohl dem ersten als auch dem zweiten Kamerasystem an den mindestens einen Anwendungsprozessor sendet.
  10. Computersystem nach Anspruch 8, wobei das erste Kamerasystem einen Interrupt an den mindestens einen Anwendungsprozessor senden kann, basierend auf der Verarbeitung der ersten Bilder und der Verarbeitung der zweiten Bilder.
  11. Computersystem nach Anspruch 8, wobei der Bildverarbeitungsprogrammcode vorgesehen ist, eine Tiefenkarte aus den ersten und zweiten Bildern zu bestimmen.
  12. Computersystem nach Anspruch 8, wobei der Bildverarbeitungsprogrammcode vorgesehen ist, ein Element, an dem Interesse besteht, zu identifizieren.
  13. Computersystem nach Anspruch 12, wobei der Bildverarbeitungsprogrammcode vorgesehen ist, Bilder auszusondern, die das Element, an dem Interesse besteht, nicht beinhalten.
  14. Computersystem nach Anspruch 8, wobei der Bildverarbeitungsprogrammcode vorgesehen ist, eine Datenkomprimierung durchzuführen.
  15. Maschinenlesbares Speichermedium, das einen Bildverarbeitungsprogrammcode beinhaltet, der, bei Ausführung durch ein in einem Computersystem eingesetztes Kamerasystem die Durchführung eines Verfahrens veranlasst, umfassend: Verarbeiten von Bildern, die von dem ersten Kamerasystem empfangen werden; Verarbeiten von Bildern, die von einem zweiten Kamerasystem empfangen werden und mittels einer Kommunikationsverbindung, die die ersten und zweiten Kamerasysteme miteinander verbindet, an das erste Kamerasystem gesendet werden; und Benachrichtigen eines Anwendungsprozessors von Ereignissen, die entweder das erste und zweite Kamerasystem oder beide betreffen.
  16. Maschinenlesbares Medium nach Anspruch 15, wobei der Bildverarbeitungsprogrammcode vorgesehen ist, eine Tiefenkarte aus den ersten und zweiten Bildern zu bestimmen.
  17. Maschinenlesbares Medium nach Anspruch 15, wobei der Bildverarbeitungsprogrammcode vorgesehen ist, ein Element zu identifizieren, an dem Interesse besteht.
  18. Maschinenlesbares Medium nach Anspruch 17, wobei der Bildverarbeitungsprogrammcode vorgesehen ist, Bilder auszusondern, die das Element, an dem Interesse besteht, nicht beinhalten.
  19. Maschinenlesbares Medium nach Anspruch 15, wobei der Bildverarbeitungsprogrammcode vorgesehen ist, eine Datenkomprimierung durchzuführen.
  20. Maschinenlesbares Medium nach Anspruch 15, wobei dieses Computersystem ein tragbares Gerät ist.
DE202016107172.0U 2016-02-07 2016-12-20 Computersystem mit mehreren Kameras mit einer Kommunikationsverbindung zwischen den Kameras Expired - Lifetime DE202016107172U1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/017,653 US20170230637A1 (en) 2016-02-07 2016-02-07 Multiple camera computing system having camera-to-camera communications link
US15/017,653 2016-02-07

Publications (1)

Publication Number Publication Date
DE202016107172U1 true DE202016107172U1 (de) 2017-05-10

Family

ID=57799783

Family Applications (2)

Application Number Title Priority Date Filing Date
DE102016225600.9A Withdrawn DE102016225600A1 (de) 2016-02-07 2016-12-20 Computersystem mit mehreren Kameras mit einer Kommunikationsverbindung zwischen den Kameras
DE202016107172.0U Expired - Lifetime DE202016107172U1 (de) 2016-02-07 2016-12-20 Computersystem mit mehreren Kameras mit einer Kommunikationsverbindung zwischen den Kameras

Family Applications Before (1)

Application Number Title Priority Date Filing Date
DE102016225600.9A Withdrawn DE102016225600A1 (de) 2016-02-07 2016-12-20 Computersystem mit mehreren Kameras mit einer Kommunikationsverbindung zwischen den Kameras

Country Status (7)

Country Link
US (1) US20170230637A1 (de)
EP (1) EP3360061A1 (de)
CN (1) CN107046619A (de)
DE (2) DE102016225600A1 (de)
GB (1) GB2547320A (de)
TW (2) TWI623910B (de)
WO (1) WO2017136037A1 (de)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10009933B2 (en) * 2016-09-02 2018-06-26 Brent Foster Morgan Systems and methods for a supplemental display screen
US9720639B1 (en) 2016-09-02 2017-08-01 Brent Foster Morgan Systems and methods for a supplemental display screen
US10346122B1 (en) 2018-10-18 2019-07-09 Brent Foster Morgan Systems and methods for a supplemental display screen
CN110809152A (zh) * 2019-11-06 2020-02-18 Oppo广东移动通信有限公司 信息处理方法、编码装置、解码装置、系统及存储介质

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6864911B1 (en) * 2000-10-26 2005-03-08 Hewlett-Packard Development Company, L.P. Linkable digital cameras for an image capture system
US7649938B2 (en) * 2004-10-21 2010-01-19 Cisco Technology, Inc. Method and apparatus of controlling a plurality of video surveillance cameras
US7969469B2 (en) * 2007-11-30 2011-06-28 Omnivision Technologies, Inc. Multiple image sensor system with shared processing
US8872940B2 (en) * 2008-03-03 2014-10-28 Videoiq, Inc. Content aware storage of video data
US8781152B2 (en) * 2010-08-05 2014-07-15 Brian Momeyer Identifying visual media content captured by camera-enabled mobile device
US8867793B2 (en) * 2010-12-01 2014-10-21 The Trustees Of The University Of Pennsylvania Scene analysis using image and range data
JP5784664B2 (ja) * 2013-03-21 2015-09-24 株式会社東芝 多眼撮像装置
US10863098B2 (en) * 2013-06-20 2020-12-08 Microsoft Technology Licensing. LLC Multimodal image sensing for region of interest capture
CN103607538A (zh) * 2013-11-07 2014-02-26 北京智谷睿拓技术服务有限公司 拍摄方法及拍摄装置
US20150248772A1 (en) * 2014-02-28 2015-09-03 Semiconductor Components Industries, Llc Imaging systems and methods for monitoring user surroundings

Also Published As

Publication number Publication date
US20170230637A1 (en) 2017-08-10
EP3360061A1 (de) 2018-08-15
GB201621697D0 (en) 2017-02-01
TW201822144A (zh) 2018-06-16
DE102016225600A1 (de) 2017-08-10
TW201737199A (zh) 2017-10-16
GB2547320A (en) 2017-08-16
WO2017136037A1 (en) 2017-08-10
CN107046619A (zh) 2017-08-15
TWI623910B (zh) 2018-05-11

Similar Documents

Publication Publication Date Title
DE102016118680B4 (de) Situationsabhängiges Aufheben eines Weckwortes zum Aktivieren einer Sprachbefehlseingabe
DE112017001311T5 (de) System und Verfahren zum Trainieren eines Objektklassifikators durch maschinelles Lernen
DE202016107172U1 (de) Computersystem mit mehreren Kameras mit einer Kommunikationsverbindung zwischen den Kameras
DE102013205810B4 (de) System und verfahren zum einschätzen von verfügbaren parkplätzen zum parken auf der strasse mit mehreren plätzen
DE112018003945T5 (de) Verfahren und vorrichtungen zur bereitstellung von drahtlos-aktualisierungen zu sensorknoten des internets der dinge
DE102018102285A1 (de) System und verfahren zum beurteilen des innenraums eines autonomen fahrzeugs
DE102018129009A1 (de) Dynamischer Sichtsensor und Projektor für Tiefenabbildung
DE102007053812A1 (de) Konfigurationsmodul für ein Videoüberwachungssystem, Überwachungssystem mit dem Konfigurationsmodul, Verfahren zur Konfiguration eines Videoüberwachungssystems sowie Computerprogramm
DE112013004778T5 (de) Kodierung von Bildern unter Verwendung eines 3D-Netzes von Polygonen und entsprechenden Strukturen
DE112018007431T5 (de) Verfahren zur verbesserten bildgebung auf basis von semantischer verarbeitung und dynamischer szenenmodellierung
DE112013005981T5 (de) Systeme und Verfahren zur rechnergestützten Einsatzleitung, zur Videosuche und zum Tagging auf der Grundlage von Ereignisberichten
DE112019007677T5 (de) Posenvorhersageverfahren, Modelltrainingsverfahren und Vorrichtung
DE102017113116A1 (de) Kamerabetriebsmodus-Steuerung
DE112016004109T5 (de) Echtzeit-mehrfach-fahrzeugdetektion und -tracking
DE202015009148U1 (de) Automatische Bearbeitung von Bildern
DE102013021710A1 (de) Grafik-Dienstleister und Verfahren zur Datenstromübertragung von bilderzeugtem Inhalt über eine entfernte Grafikverarbeitungsdienstleistung
DE112018005163T5 (de) Bildverarbeitungsvorrichtung
DE112015002418T5 (de) Kamerasteuerung und Bild-Streaming
DE102020120953A1 (de) Digitalzwilling-überwachungssysteme und -verfahren
DE102015119593A1 (de) Techniken zur Bildvorschau und Aufnahme von Selbstportraitbildern
DE112019002730T5 (de) Datenerfassungssystem und Verfahren zur Objektdimensionierung
DE102018124149A1 (de) System und verfahren zur maskierung von objekten im videoarchiv auf anfrage des nutzers
DE112016004733T5 (de) Techniken zum Anfügen von durch ein mobiles Computergerät aufgenommenen Medien an ein elektronisches Dokument
DE112013005539T5 (de) Senden eines Interrupt-Pakets
DE112022001743T5 (de) Systeme und verfahren zur optimierung der bildgebungseinstellungen und der bilderfassung für einen bildverarbeitungsauftrag

Legal Events

Date Code Title Description
R207 Utility model specification
R081 Change of applicant/patentee

Owner name: GOOGLE LLC (N.D.GES.D. STAATES DELAWARE), MOUN, US

Free format text: FORMER OWNER: GOOGLE INC., MOUNTAIN VIEW, CALIF., US

R082 Change of representative

Representative=s name: MAIKOWSKI & NINNEMANN PATENTANWAELTE PARTNERSC, DE

R156 Lapse of ip right after 3 years