DE112011103205T5 - Bewegungsinitiierte Zeitsynchronisation - Google Patents

Bewegungsinitiierte Zeitsynchronisation Download PDF

Info

Publication number
DE112011103205T5
DE112011103205T5 DE112011103205T DE112011103205T DE112011103205T5 DE 112011103205 T5 DE112011103205 T5 DE 112011103205T5 DE 112011103205 T DE112011103205 T DE 112011103205T DE 112011103205 T DE112011103205 T DE 112011103205T DE 112011103205 T5 DE112011103205 T5 DE 112011103205T5
Authority
DE
Germany
Prior art keywords
mobile device
time synchronization
response
movement
synchronization request
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE112011103205T
Other languages
English (en)
Inventor
Horst W. Haussecker
Michelle X. Gong
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Intel Corp
Original Assignee
Intel Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Intel Corp filed Critical Intel Corp
Publication of DE112011103205T5 publication Critical patent/DE112011103205T5/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Mobile Radio Communication Systems (AREA)
  • Synchronisation In Digital Transmission Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

Systeme und Verfahren zum Synchronisieren von Geräten können beinhalten, eine Bewegung eines ersten Mobilgerätes zu detektieren und ein Zeitsynchronisationsverfahren mit Bezug auf ein zweites Mobilgerät in Reaktion auf die Bewegung der zwei Mobilgeräte auszuführen. Die Zeitsynchronisation kann ohne Netzwerkinfrastruktur-Support in den Mobilgeräten ausgeführt werden.

Description

  • ALLGEMEINER STAND DER TECHNIK
  • Technisches Gebiet
  • Ausführungsformen betreffen allgemein die Durchführung von Zeitsynchronisationen. Insbesondere betreffen Ausführungsformen durch Bewegung ausgelöste Zeitsynchronisationen.
  • Besprechung
  • Bilder von mehreren Digitalkameras können zusammengesetzt werden, um eine höher Bildqualität zu erreichen (z. B. über Superauflösung), um ein Stereobildpaar über zwei unabhängige Kameras aufzunehmen oder um ein 3D-(dreidimensionales)Modell von Bildern zu erzeugen, die gleichzeitig mit verschiedenen Kameras aufgenommen wurden. Zeitsynchronisation kann verwendet werden, um sicherzustellen, dass Bilddaten aus derselben Zeitinstanz aus jeder Kamera entnommen werden, wenn eine bestimmte Szene rekonstruiert wird, insbesondere wenn die aufgenommene Szene bewegliche Objekte enthält. In der Realität arbeiten aber verschiedene Kameras in der Regel nicht mit der gleichen Zeitreferenz, und jede Kamera hat einen unabhängigen und frei-laufenden Oszillator. Dementsprechend kann es sein, dass Zeitstempel von verschiedenen Kameras nicht brauchbar sind, um Bilder zu kombinieren, wenn keine Netzwerk-basierte Zeitreferenz verfügbar ist.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • Die verschiedenen Vorteile der Ausführungsformen der vorliegenden Erfindung werden für den Fachmann beim Lesen der folgenden Spezifikation und der beiliegenden Ansprüche unter Zuhilfenahme der folgenden Zeichnungen ersichtlich, in denen Folgendes dargestellt ist:
  • 1 ist ein Blockschaubild eines Beispiels einer Zeitsynchronisationsumgebung gemäß einer Ausführungsform;
  • 2 ist ein Diagramm eines beispielhaften Zeitsynchronisationsverfahrens gemäß einer Ausführungsform;
  • 3 ist ein Flussdiagramm eines Beispiels eines Verfahrens zum Durchführen einer Zeitsynchronisation gemäß einer Ausführungsform;
  • 4 ist ein Blockschaubild eines Beispiels einer Kamera gemäß einer Ausführungsform; und
  • 5 ist ein Diagramm eines Beispiels einer Bildrekonstruktion gemäß einer Ausführungsform.
  • DETAILLIERTE BESCHREIBUNG
  • Ausführungsformen können eine Vorrichtung bereitstellen, die einen Sensor zum Detektieren einer Bewegung eines ersten Mobilgerätes und ein Synchronisationsmodul zum Durchführen einer Zeitsynchronisation mit Bezug auf ein zweites Mobilgerät in Reaktion auf die Bewegung des ersten Mobilgerätes enthält. Die Zeitsynchronisation kann ohne Netzwerkinfrastruktur-Support in dem ersten Mobilgerät ausgeführt werden.
  • Ausführungsformen können auch ein System enthalten, das einen Sensor zum Detektieren einer Bewegung eines ersten Mobilgerätes und ein Synchronisationsmodul zum Durchführen einer Zeitsynchronisation in Reaktion auf die Bewegung des ersten Mobilgerätes aufweist. Die Zeitsynchronisation kann ohne Netzwerkinfrastruktur-Support in dem ersten Mobilgerät ausgeführt werden. Das System kann auch ein Bildaufnahmemodul enthalten, um ein Bild aufzunehmen und auf der Grundlage der Zeitsynchronisation einen Zeitstempel auf das Bild aufzubringen.
  • Andere Ausführungsformen können ein computerlesbares Speichermedium enthalten, das einen Satz Instruktionen aufweist, die, wenn sie durch einen Prozessor ausgeführt werden, ein erstes Mobilgerät veranlassen, eine Bewegung des ersten Mobilgerätes zu detektieren und eine Zeitsynchronisation mit Bezug auf ein zweites Mobilgerät in Reaktion auf die Bewegung des ersten Mobilgerätes auszuführen. Die Zeitsynchronisation kann ohne Netzwerkinfrastruktur-Support in dem ersten Mobilgerät ausgeführt werden.
  • 1 zeigt eine Umgebung 10, in der mehrere Mobilgeräte 12 (12a12c) Peer-to-Peer-Zeitsynchronisationen 14 (z. B. unter Verwendung einer Peer-to-Peer-Drahtlosschnittstelle) miteinander ohne Zugriff auf ein Netzwerk (z. B. Zugangspunkt, Basisstation, Zellnetzwerkinfrastruktur) 16 oder eine sonstige gemeinsame Zeitreferenz ausführen. Die Mobilgeräte 12 könnten Kameras, mobile Internet-Geräte (MIDs), Personal Digital Assistants (PDAs), Funk-Smartphones, Media-Player, Notebook-Computer, E-Buch-Lesegeräte oder Kombinationen davon enthalten oder Teil davon sein, wobei die Kenntnis des Versatzes zwischen internen Takten 18, 20, 22 der individuellen Geräte 12 von Vorteil sein kann. Zum Beispiel könnten im Fall einer Bild(Foto oder Video)-Aufnahmeanwendung die Taktversatzwerte dafür verwendet werden, zeitabhängige Szenen zu rekonstruieren, die durch die Mobilgeräte 12 aufgenommen wurden.
  • In dem veranschaulichten Beispiel enthält jedes Mobilgerät 12 einen Sensor 24, 26, 28 zum Detektieren einer Bewegung des Mobilgerätes 12 in drei Dimensionen. Zum Beispiel könnte der Sensor 26 des Mobilgerätes 12b einen Beschleunigungsmesser enthalten, wobei der Sensor 24 des Mobilgerätes 12a ein Gyroskop oder eine andere Bewegungsfühlerkomponente enthalten könnte. Die detektierte Bewegung könnte einem Nutzer des Gerätes 12 zugeordnet werden, der das Gerät schüttelt, zwei oder mehr der Geräte 12 aneinanderschlägt und so weiter, um eine Zeitsynchronisation 14 auszulösen. Jedes Mobilgerät 12 kann ein Synchronisationsmodul 30 zum Durchführen einer Zeitsynchronisation 14 mit Bezug auf ein oder mehrere andere Geräte in Reaktion auf das Detektieren der Bewegung enthalten. Wie bereits angemerkt, kann die Zeitsynchronisationen 14 ohne Netzwerkinfrastruktur-Support in den Mobilgeräten 12 ausgeführt werden. Die aus den Zeitsynchronisationen 14 resultierenden Taktversatzwerte können lokal in jedem Mobilgerät 12 als Versatzdaten 32, 34, 36 gespeichert werden.
  • Wenden wir uns nun 2 zu, wo ein Zeitsteuerungsdiagramm 38 gezeigt ist, in dem ein erstes Mobilgerät („Gerät 1”) ein Zeitsynchronisationsverfahren mit Bezug auf ein zweites Mobilgerät („Gerät 2”) in Reaktion auf eine Bewegung des ersten Mobilgerätes ausführt. In dem veranschaulichten Beispiel versendet das erste Mobilgerät eine Zeitsynchronisationsanforderung 40, die durch das zweite Mobilgerät empfangen wird. Die Zeitsynchronisationsanforderung 40 kann einen Time-of-Departure(„ToD”)-Stempel sowie eine Reihe anderer Parameter enthalten. Tabelle I unten zeigt ein Beispiel eines Frame-Formats für die Zeitsynchronisationsanforderung 40.
    Reihenfolge Information
    1 Frame-Typ
    2 Senderadresse
    3 Empfänger(Rundsende)-Adresse
    4 Dialog-Token
    5 Time-of-Departure(ToD)-Stempel
    6 Benutzerfreundlicher Name
    ... ...
    Tabelle I
  • Der Frame-Typ kann angeben, ob der Frame eine Synchronisationsanforderung, eine Antwort auf eine Synchronisationsanforderung usw. ist, und die Senderadresse kann die Adresse des ersten Mobilgerätes in dem veranschaulichten Beispiel angeben. Die Adresse könnte eine universell eindeutige MAC(Media Access Control)-Adresse sein, wobei das erste Mobilgerät auf den Ablauf eines zufälligen oder pseudo-zufälligen Verzögerungszeitraums vor dem Senden der Synchronisationsanforderung 40 warten kann, um das Risiko von Kollisionen zwischen Anforderungen von mehreren Geräten zu minimieren. Außerdem kann die Empfängeradresse eine rundgesendete Adresse sein, die durch andere Geräte in dem Gebiet überwacht wird. Der Dialog-Token kann zum Unterscheiden zwischen Zeitsynchronisationsanforderungs-Frames von verschiedenen Geräten verwendet werden, wenn es mehrere sendende Geräte in dem Gebiet gibt. Der ToD-Stempel kann in dem Moment aufgebracht werden, in dem der Frame gesendet wird (z. B. nach Ablauf des zufälligen Verzögerungszeitraums), und der benutzerfreundliche Name kann ein benutzerdefinierter Identifikator oder eine benutzerdefinierte Zeichenkette des ersten Mobilgerätes sein (z. B. Mikes Kamera). Der benutzerfreundliche Name könnte es Benutzern ermöglichen, leichter festzustellen, ob Zeitsynchronisationsanforderungen von anderen Geräten akzeptiert werden sollen.
  • Bei Empfang der Zeitsynchronisationsanforderung 40 kann das zweite Mobilgerät die Time-of-Arrival (ToA) der Zeitsynchronisationsanforderung 40 bestimmen und die Quelle der Zeitsynchronisationsanforderung 40 anhand der Senderadresse und/oder des Dialog-Tokens in dem Anforderungs-Frame identifizieren. Wenn das zweite Mobilgerät auch eine lokale Bewegung detektiert hat, wie zum Beispiel ein Schütteln und/oder eine Erschütterung, so kann eine Antwort 42 auf die Zeitsynchronisationsanforderung 40 generiert und nach Ablauf eines zufälligen Verzögerungszeitraums gesendet werden. Wie bereits angemerkt, kann der zufällige Verzögerungszeitraum verwendet werden, damit Geräte, die dieselbe Zeitsynchronisationsanforderung 40 empfangen, nicht gleichzeitig antworten und so Kollisionen verursachen. Die zufällige Verzögerung kann darum anhand einer gleichmäßigen Verteilung (z. B. [0, max_delay]) gewählt werden.
  • Die Zeitsynchronisationsantwort 42 kann ein Unicast-Frame sein, der die ToA der Anforderung 40 sowie die ToD der Zeitsynchronisationsantwort 42 identifiziert. Tabelle II unten zeigt ein Beispiel eines Frame-Formats für die Zeitsynchronisationsantwort 42.
    Reihenfolge Information
    1 Frame-Typ
    2 Senderadresse
    3 Empfängeradresse
    4 Dialog-Token
    5 Time-of-Arrival(ToA)-Stempel
    6 Time-of-Departure(ToD)-Stempel
    7 Benutzerfreundlicher Name
    ... ...
    Tabelle II
  • Um unbeabsichtigte Übertragungen von Zeitsynchronisationsantworten 42 weiter herauszufiltern, kann eine Signatur der in dem ersten Mobilgerät detektierten Bewegung in die Synchronisationsanforderung 40 hineincodiert werden, wobei das zweite Mobilgerät die empfangene Bewegungssignatur mit einer lokal generierten Signatur vergleichen kann, die der in dem zweiten Mobilgerät detektierten Bewegung entspricht. Die Übertragung der Synchronisationsantwort 42 kann auf Fälle beschränkt werden, in denen die zwei Signaturen innerhalb eines festgelegten Gewissheitsgrades übereinstimmen (z. B. eine vorgegebene Beziehung erfüllen).
  • Wenn das veranschaulichte erste Mobilgerät die Synchronisationsantwort 42 empfängt, so kann es die ToA der Antwort 42 bestimmen und einen Taktversatz für die zwei Geräte berechnen. Die Berechnung könnte folgendermaßen ausgeführt werden: Versatz = [(T2 – T1) – (T4 – T3)] / 2 (1)
  • Wenn zum Beispiel der lokale Takt des ersten Mobilgerätes 13.30 Uhr lautet und der Versatz zwischen dem lokalen Takt des ersten Mobilgerätes und dem Takt des zweiten Mobilgerätes +2 min beträgt, so kann das erste Mobilgerät bestimmen, dass der Takt des zweiten Mobilgerätes 13.32 Uhr lautet. Mit dieser Verfahrensweise kann ein Gerät ohne Verwendung eines Haupttaktes eines Netzwerks mit mehreren Geräten gleichzeitig synchronisiert werden. Weil das Zeitsynchronisationsverfahren dezentralisiert ausgeführt wird, kann das Verfahren des Weiteren schneller und effizienter sein, als wenn jedes Gerät die Taktwerte der anderen Geräte kopieren würde. Weil moderne Takte eine relativ hohe Genauigkeit haben können, brauchen darüber hinaus zwei Geräte möglicherweise nicht sehr häufig resynchronisiert zu werden. Zum Beispiel würde die Drift zwischen zwei Geräten mit einer Taktgenauigkeit von 10 ppm maximal 1 ms für jeweils 50 s betragen. Dementsprechend würde es ausreichen, die zwei Geräte alle 50 Sekunden zu resynchronisieren, um eine Genauigkeit von 1 ms beizubehalten.
  • 3 zeigt ein Verfahren 44 zum Synchronisieren eines lokalen Mobilgerätes mit einem oder mehreren anderen Mobilgeräten. Das Verfahren 44 kann in ausführbarer Software als ein Satz Logik- oder Modul-Instruktionen implementiert werden, die in einem maschinen- oder computerlesbaren Medium eines Speichers gespeichert sind, wie zum Beispiel einem Direktzugriffsspeicher (RAM), einem Nurlesespeicher (ROM), einem programmierbaren ROM (PROM), Firmware, einem Flash-Speicher usw., oder in Festfunktions-Hardware unter Verwendung von Schaltkreistechnologie wie zum Beispiel anwendungsspezifischer integrierter Schaltkreis(ASIC)-, komplementärer Metalloxid-Halbleiter(CMOS)- oder Transistor-Transistor-Logik(TTL)-Technologie, oder beliebigen Kombination davon. Zum Beispiel kann Computerprogrammcode zum Ausführen von Operationen, die in dem Verfahren 44 gezeigt sind, in beliebigen Kombinationen einer oder mehrerer Programmiersprachen geschrieben werden, darunter eine objektorientierte Programmiersprache wie zum Beispiel Java, Smalltalk, C++ oder dergleichen, und herkömmliche prozedurale Programmiersprachen, wie zum Beispiel die „C”-Programmiersprache oder ähnliche Programmiersprachen.
  • Der Verarbeitungsblock 46 beinhaltet das Empfangen von Benutzereingaben über eine Benutzerschnittstelle des Gerätes. Die Benutzereingaben, die über einen kleinen und/oder einfachen Touchscreen, einen Knopf, ein Mikrofon usw. eingegeben werden können, können dafür verwendet werden, das Mobilgerät bei Block 48 in einem Bewegungsbestimmungsmodus zu versetzen. Dadurch kann das Mobilgerät in der Lage sein zu bestimmen, wann der Nutzer eine Zeitsynchronisation aktiviert hat, ohne kontinuierlich die Bewegung des Mobilgerätes zu überwachen. Wenn eine Bewegung (z. B. Schütteln, Erschütterung, Klopfen usw. innerhalb eines Schwellenbereichs) bei Block 50 detektiert wird, so kann bei Block 52 bestimmt werden, ob eine Zeitsynchronisationsanforderung von einem anderen Mobilgerät empfangen wurde. Wie bereits angemerkt, kann der Zeitsynchronisationsanforderungs-Frame Informationen enthalten wie zum Beispiel die Adresse des anderen Mobilgerätes, eine rundgesendete Adresse, einen Dialog-Token, einen ToD-Stempel, einen benutzerfreundlichen Name des anderen Mobilgerätes (der über die Benutzerschnittstelle des lokalen Mobilgerätes ausgegeben werden kann), eine Bewegungssignatur, die einer Bewegung des anderen Mobilgerätes entspricht, und so weiter.
  • Wenn eine Zeitsynchronisationsanforderung empfangen wurde, so identifiziert der veranschaulichte Block 54 die Quelle (z. B. ein anderes Mobilgerät) der Anforderung anhand von Informationen in dem Anforderungs-Frame, wie zum Beispiel der Senderadresse und/oder dem Dialog-Token. Block 54 kann außerdem bestätigen, dass es eine Übereinstimmung zwischen den Bewegungssignaturen der zwei Geräte gibt. Darüber hinaus könnte der benutzerfreundliche Name des anderen Mobilgerätes dem Nutzer des lokalen Mobilgerätes zusammen mit der Option präsentiert werden, die Synchronisationsanforderung anzunehmen oder abzulehnen (z. B. „Synchronisationsanforderung von Mikes Kamera annehmen?”).
  • Bei Block 56 kann ein zufälliger Verzögerungszeitraum angewendet werden, bevor bei Block 58 eine Antwort gesendet wird. Wie bereits angemerkt, kann der Antwort-Frame Informationen enthalten wie zum Beispiel die Adresse des anderen Mobilgerätes, die Adresse des lokalen Mobilgerätes, den Dialog-Token, einen ToA-Stempel, einen ToD-Stempel, einen benutzerfreundlichen Namen des lokalen Mobilgerätes (der über die Benutzerschnittstelle des anderen Mobilgerätes ausgegeben werden kann), und eine Bewegungssignatur, die der Bewegung des lokalen Mobilgerätes entspricht. Somit kann die gesendete Antwort es dem anderen Mobilgerät ermöglichen, den Taktversatz zwischen den zwei Mobilgeräten zu berechnen und die Versatzdaten in seinem internen Speicher zu speichern.
  • Das veranschaulichte Verfahren 44 enthält auch das Bestimmen des Taktversatzes in dem lokalen Mobilgerät. Wenn also bei Block 52 keine Zeitsynchronisationsanforderung empfangen wurde, so enthält Block 59 das Warten auf den Ablauf eines zufälligen Verzögerungszeitraums, wobei eine Zeitsynchronisationsanforderung bei Block 60 gesendet werden kann. Der Zeitsynchronisationsanforderungs-Frame kann Informationen enthalten wie zum Beispiel die Adresse des lokalen Mobilgerätes, eine rundgesendete Adresse, einen Dialog-Token, einen ToD-Stempel, einen benutzerfreundlichen Name des lokalen Mobilgerätes (der über die Benutzerschnittstelle des anderen Mobilgerätes ausgegeben werden kann), eine Bewegungssignatur, die einer Bewegung des lokalen Mobilgerätes entspricht, und so weiter, wie bereits besprochen wurde.
  • Wenn eine Antwort auf die Anforderung detektiert wird, bevor bei Block 62 ein Timeout eintritt, so bestätigt der veranschaulichte Block 64, dass die Bewegungssignaturen der zwei Mobilgeräte übereinstimmen, und bestimmt den Taktversatz auf der Grundlage der Antwort. Wie bereits angemerkt, kann die Bestimmung des Taktversatzes eine Berechnung unter Verwendung von Gleichung (1) oben beinhalten. Das Verfahren 44 könnte periodisch für mehrere Mobilgeräte wiederholt werden, um die betreffenden Geräte zu resynchronisieren.
  • Wenn bei Block 62 bestimmt wird, dass keine Antwort empfangen wurde, nachdem ein Timeout stattgefunden hat, so kann bei Block 61 bestimmt werden, ob eine Neuversuchsgrenze erreicht wurde. Wenn ja, so kehrt das veranschaulichte Verfahren 44 zu der Bewegungsbestimmung bei Block 50 zurück. Anderenfalls kann bei Block 60 eine Zeitsynchronisationsanforderung neu gesendet werden, nachdem das Gerät einen zufälligen Zeitraum gewartet hat, wie bereits beschrieben wurde.
  • 4 zeigt ein Beispiel eines Mobilgerätes, in dem eine Kamera 66 ein Bildaufnahmemodul 67 und einen Prozessor 68 enthält, der einen oder mehrere (nicht gezeigte) Prozessorkerne enthalten kann, wobei jeder Kern mit sämtlichen Funktionen wie Instruktionsholeinheiten, Instruktionsdecodern, Level-one(L1)-Cache, Ausführungseinheiten und so weiter ausgestattet sein kann und ein Betriebssystem (OS), Gerätetreiber und verschiedene andere Software-Anwendungen ausführen kann. Der Prozessor 68 kann auch eine Zeitsynchronisationslogik ausführen, die es der Kamera 66 ermöglicht, Zeitsynchronisationen mit Bezug auf einen lokalen Takt 76 und die Takte von einem oder mehreren anderen Mobilgeräten (z. B. Kameras) in Reaktion auf eine Bewegung (z. B. Schütteln, Erschütterung, Klopfen) der Kamera 66 auszuführen.
  • In einem Beispiel kann ein Nutzer der Kamera 66 die Kamera über eine relativ einfache Benutzerschnittstelle (UI) 74 in einen Bewegungsbestimmungsmodus versetzen, wobei der Bewegungsbestimmungsmodus einen Bewegungssensor 78, wie zum Beispiel einen Beschleunigungsmesser oder ein Gyroskop, veranlasst, die Bewegung in drei Dimensionen zu detektieren und eine Signatur der Bewegung zu generieren. Ein Funk-Transceiver 80 kann dafür verwendet werden, mit einem Zeitstempel versehene Synchronisationsanforderungen und -antworten zu anderen Mobilgeräten zu senden bzw. von dort zu empfangen, wobei die Anforderungen bzw. Antworten die Bestimmung von Taktversatzwerten unterstützen. Die Taktversatzwerte könnten lokal in einem Direktzugriffsspeicher (RAM) 70, einem programmierbaren ROM (PROM) 72, Firmware, einem Flash-Speicher usw. der Kamera 66 gespeichert werden. Die Zeitsynchronisationslogik könnte auch aus dem RAM 70, dem PROM 72 usw. der Kamera 66 zum Ausführen durch den Prozessor 68 abgerufen werden, könnte in Festfunktions-Hardware des Prozessor 68 oder eines anderen Mikrocontrollers implementiert werden, oder in beliebigen Kombinationen davon realisiert werden.
  • 5 zeigt eine Szene 82 mit einem Inhalt, der sich im Lauf der Zeit verändert. In dem veranschaulichten Beispiel wird ein erstes Bild (Foto oder Video) 84 der Szene 82 durch eine erste Kamera aufgenommen, und ein zweites Bild 86 der Szene 82 wird durch eine zweite Kamera aufgenommen. Wenn die Kameras Zeitsynchronisationslogik wie zum Beispiel die Zeitsynchronisationslogik der Kamera 66 (4) enthalten, so können Zeitstempel (TS) 88, 90, die den Taktversatz zwischen den zwei Kameras berücksichtigen, auf die Bilder 84, 86 aufgebracht werden, so dass die zeitabhängige Szene rekonstruiert werden kann. Zum Beispiel könnte der Zeitstempel 88 des ersten Bildes 84 auch die Kamera, die dem zweiten Bild 86 zugeordnet ist, sowie ihren Taktversatz mit Bezug auf die Kamera, die dem ersten Bild 84 zugeordnet ist, identifizieren. Eine ähnliche Verfahrensweise könnte auch für den Zeitstempel 90 des zweiten Bildes 84 verwendet werden. Die Zeitsynchronisationslogik könnte auch zum Erzeugen von superauflösenden Bildern, 3D-Modellen und so weiter verwendet werden.
  • Sobald die zwei Kameras in Reaktion auf ihr Zusammenstoßen (oder eine ähnliche Bewegung) zeitsynchronisiert wurden, könnte die erste Kamera eine Funkmeldung an die zweite Kamera senden, um die zweite Kamera anzuweisen, an einem Zeitpunkt T in der Zukunft ein Bild aufzunehmen. Die zweite Kamera kann mit einer Funkmeldung antworten, die den Plan bestätigt, das Bild am Zeitpunkt T aufzunehmen. Nach dem Aufnehmen der Bilder am Zeitpunkt T könnten beide Kameras über Funk Bilder austauschen, so dass sie jeweils eine 3D-Konstruktion erzeugen können.
  • Die im vorliegenden Text beschriebenen Ausführungsformen eignen sich zur Verwendung mit allen Arten von integrierten Halbleiterschaltkreis(„IC”)-Chips. Zu nichteinschränkenden Beispielen dieser IC-Chips gehören Prozessoren, Controller, Chipsatz-Komponenten, programmierbare Logik-Arrays (PLA), Speicherchips, Netzwerkchips und dergleichen. Darüber hinaus sind in einigen der Zeichnungen Signalleiterbahnen mit Linien dargestellt. Einige können dicker sein, um feste integrierte Signalwege dazustellen, können eine Nummerierung haben, um eine Anzahl der fest installierten Signalwege anzugeben, und/oder können Pfeile an einem oder an mehreren Enden haben, um die primäre Informationsflussrichtung anzuzeigen. Das darf jedoch nicht in einer einschränkenden Weise ausgelegt werden. Vielmehr können solche zusätzlichen Details in Verbindung mit einer oder mehreren beispielhaften Ausführungsformen verwendet werden, um ein einfacheres Verständnis eines Schaltkreises zu ermöglichen. Alle dargestellten Signalleitungen, ob mit zusätzlichen Informationen oder ohne, können ein oder mehrere Signale umfassen, die sich in mehrere Richtungen bewegen können, und können mit jeder geeigneten Art von Signalregime implementiert werden, z. B. digitale oder analoge Leitungen, die mit Differenzialpaaren, Lichtleitkabeln und/oder einendigen Leitungen implementiert sind.
  • Es können beispielhafte Größen, Modelle, Werte oder Bereiche angegeben worden sein, obgleich Ausführungsformen der vorliegenden Erfindung nicht darauf beschränkt sind. Da die Fertigungstechniken (z. B. Photolithographie) im Lauf der Zeit immer weiter entwickelt werden, wird davon ausgegangen, dass Bauelemente von geringerer Größe hergestellt werden können. Des Weiteren können in den Figuren allgemein bekannte Strom- oder Erdungsverbindungen zu IC-Chips und anderen Komponenten gezeigt oder weggelassen worden sein, um die Darstellung und Besprechung zu vereinfachen und bestimmte Aspekte der Ausführungsformen der Erfindung nicht in den Hintergrund treten zu lassen. Des Weiteren können Anordnungen in Blockschaubildform gezeigt sein, um die wesentlichen Aspekte von Ausführungsformen der Erfindung hervorzuheben, und ebenso angesichts der Tatsache, dass bestimmte Aspekte im Hinblick auf die Implementierung solcher Blockschaubild-Anordnungen in hohem Maße von der Plattform abhängig sind, innerhalb der die Ausführungsform implementiert werden soll, d. h. solche bestimmten Aspekte sollten im Rahmen des Verständnisses des Fachmanns liegen. Wo konkrete Details (z. B. Schaltkreise) dargestellt sind, um beispielhafte Ausführungsformen der Erfindung zu beschreiben, sollte dem Fachmann klar sein, dass Ausführungsformen der Erfindung auch ohne diese konkreten Details, oder mit diesen Details in abgeänderter Form, praktiziert werden können. Die Beschreibung ist somit als veranschaulichend und nicht in einem einschränkenden Sinn zu verstehen.
  • Der Begriff „gekoppelt” kann im vorliegenden Text so gebraucht werden, dass er sich auf jede Art von Beziehung, direkt oder indirekt, zwischen den betreffenden Komponenten erstreckt, und kann für elektrische, mechanische, strömungsmechanische, optische, elektromagnetische, elektromechanische oder sonstige Verbindungen gebraucht werden. Des Weiteren werden die Begriffe „erster”, „zweiter” usw. im vorliegenden Text nur verwendet, um die Besprechung zu vereinfachen, und haben keinerlei bestimmte temporale oder chronologische Signifikanz, sofern nichts anderes ausgesagt wird.
  • Der Fachmann erkennt aus der obigen Beschreibung, dass die allgemeinen Techniken der Ausführungsformen der vorliegenden Erfindung in vielfältiger Form implementiert werden können. Das heißt, obgleich die Ausführungsformen dieser Erfindung in Verbindung mit konkreten Beispielen beschriebenen wurden, darf der wahre Geltungsbereich der Ausführungsformen der Erfindung nicht darauf beschränkt werden, da dem Fachmann beim Studium der Zeichnungen, Spezifikation und der folgenden Ansprüche weitere Modifikationen einfallen.

Claims (20)

  1. System, das Folgendes umfasst: einen Sensor zum Detektieren einer Bewegung eines ersten Mobilgerätes; ein Synchronisationsmodul zum Durchführen einer Zeitsynchronisation mit Bezug auf ein zweites Mobilgerät in Reaktion auf die Bewegung des ersten Mobilgerätes, wobei die Zeitsynchronisation ohne Netzwerkinfrastruktur-Support in dem ersten Mobilgerät ausgeführt wird; und ein Bildaufnahmemodul zum Aufnehmen eines Bildes und Anbringen eines Zeitstempels an dem Bild auf der Grundlage der Zeitsynchronisation.
  2. System nach Anspruch 1, wobei das Synchronisationsmodul folgende Aufgaben hat: Senden einer Zeitsynchronisationsanforderung nach Ablauf eines Verzögerungszeitraums, Empfangen einer Antwort auf die Zeitsynchronisationsanforderung von dem zweiten Mobilgerät, und Bestimmen eines Taktversatzes zwischen dem ersten Mobilgerät und dem zweiten Mobilgerät auf der Grundlage der Antwort.
  3. System nach Anspruch 2, wobei die Zeitsynchronisationsanforderung mindestens teilweise eine Bewegungssignatur enthält, die der Bewegung des ersten Mobilgerätes entspricht.
  4. System nach Anspruch 1, wobei das Synchronisationsmodul folgende Aufgaben hat: Empfangen einer Zeitsynchronisationsanforderung von dem zweiten Mobilgerät, und Senden einer Antwort auf die Zeitsynchronisationsanforderung nach Ablauf eines Verzögerungszeitraums.
  5. System nach Anspruch 4, wobei die Antwort auf die Zeitsynchronisationsanforderung mindestens teilweise eine erste Bewegungssignatur enthält, die der Bewegung des ersten Mobilgerätes entspricht, wobei die Zeitsynchronisationsanforderung eine zweite Bewegungssignatur enthält, die einer Bewegung des zweiten Mobilgerätes entspricht, und die Synchronisation die Antwort sendet, wenn die erste Bewegungssignatur mit der zweiten Bewegungssignatur übereinstimmt.
  6. System nach Anspruch 1, das des Weiteren eine Benutzerschnittstelle zum Empfangen von Benutzereingaben enthält, wobei das Synchronisationsmodul das erste Mobilgerät in Reaktion auf die Benutzereingaben in einen Bewegungsbestimmungsmodus versetzt.
  7. Gerät, das Folgendes umfasst: ein Synchronisationsmodul zum Durchführen einer Zeitsynchronisation mit Bezug auf ein zweites Mobilgerät in Reaktion auf eine detektierte Bewegung eines ersten Mobilgerätes, wobei die Zeitsynchronisation ohne Netzwerkinfrastruktur-Support in dem ersten Mobilgerät ausgeführt wird.
  8. Gerät nach Anspruch 7, wobei das Synchronisationsmodul folgende Aufgaben hat: Senden einer Zeitsynchronisationsanforderung nach Ablauf eines zufälligen Verzögerungszeitraums, Empfangen einer Antwort auf die Zeitsynchronisationsanforderung von dem zweiten Mobilgerät, und Bestimmen eines Taktversatzes zwischen dem ersten Mobilgerät und dem zweiten Mobilgerät auf der Grundlage der Antwort.
  9. Gerät nach Anspruch 8, wobei die Zeitsynchronisationsanforderung mindestens teilweise eine Bewegungssignatur enthält, die der Bewegung des ersten Mobilgerätes entspricht.
  10. Gerät nach Anspruch 7, wobei das Synchronisationsmodul folgende Aufgaben hat: Empfangen einer Zeitsynchronisationsanforderung von dem zweiten Mobilgerät, und Senden einer Antwort auf die Zeitsynchronisationsanforderung nach Ablauf eines Verzögerungszeitraums.
  11. Gerät nach Anspruch 10, wobei die Antwort auf die Zeitsynchronisationsanforderung mindestens teilweise eine erste Bewegungssignatur enthält, die der Bewegung des ersten Mobilgerätes entspricht.
  12. Gerät nach Anspruch 11, wobei die Zeitsynchronisationsanforderung eine zweite Bewegungssignatur enthält, die einer Bewegung des zweiten Mobilgerätes entspricht, und das Synchronisationsmodul die Antwort sendet, wenn die erste Bewegungssignatur mit der zweiten Bewegungssignatur übereinstimmt.
  13. Gerät nach Anspruch 7, das des Weiteren eine Benutzerschnittstelle zum Empfangen von Benutzereingaben enthält, wobei das Synchronisationsmodul das erste Mobilgerät in Reaktion auf die Benutzereingaben in einen Bewegungsbestimmungsmodus versetzt.
  14. Nicht-transitorisches computerlesbares Speichermedium, das einen Satz Instruktionen umfasst, die, wenn sie durch einen Prozessor ausgeführt werden, ein erstes Mobilgerät zu Folgendem veranlassen: Detektieren einer Bewegung des ersten Mobilgerätes; und Ausführen einer Zeitsynchronisation mit Bezug auf ein zweites Mobilgerät in Reaktion auf die Bewegung des ersten Mobilgerätes, wobei die Zeitsynchronisation ohne Netzwerkinfrastruktur-Support in dem ersten Mobilgerät ausgeführt wird.
  15. Computerlesbares Speichermedium nach Anspruch 14, wobei die Instruktionen, wenn sie ausgeführt werden, das erste Mobilgerät zu Folgendem Veranlassen: Senden einer Zeitsynchronisationsanforderung nach Ablauf eines Verzögerungszeitraums; Empfangen einer Antwort auf die Zeitsynchronisationsanforderung von dem zweiten Mobilgerät; und Bestimmen eines Taktversatzes zwischen dem ersten Mobilgerät und dem zweiten Mobilgerät auf der Grundlage der Antwort.
  16. Computerlesbares Speichermedium nach Anspruch 15, wobei die Zeitsynchronisationsanforderung mindestens teilweise eine Bewegungssignatur enthält, die der Bewegung des ersten Mobilgerätes entspricht.
  17. Computerlesbares Speichermedium nach Anspruch 14, wobei die Instruktionen, wenn sie ausgeführt werden, das erste Mobilgerät zu Folgendem Veranlassen: Empfangen einer Zeitsynchronisationsanforderung von dem zweiten Mobilgerät; und Senden einer Antwort auf die Zeitsynchronisationsanforderung nach Ablauf eines Verzögerungszeitraums.
  18. Computerlesbares Speichermedium nach Anspruch 17, wobei die Antwort auf die Zeitsynchronisationsanforderung mindestens teilweise eine erste Bewegungssignatur enthält, die der Bewegung des ersten Mobilgerätes entspricht.
  19. Computerlesbares Speichermedium nach Anspruch 18, wobei die Zeitsynchronisationsanforderung eine zweite Bewegungssignatur enthält, die einer Bewegung des zweiten Mobilgerätes entspricht, und die Instruktionen, wenn sie ausgeführt werden, das erste Mobilgerät veranlassen, die Antwort zu senden, wenn die erste Bewegungssignatur mit der zweiten Bewegungssignatur übereinstimmt.
  20. Computerlesbares Speichermedium nach Anspruch 14, wobei die Instruktionen, wenn sie ausgeführt werden, das erste Mobilgerät in Reaktion auf Benutzereingaben in einen Bewegungsbestimmungsmodus versetzen.
DE112011103205T 2010-09-23 2011-09-23 Bewegungsinitiierte Zeitsynchronisation Withdrawn DE112011103205T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US12/888,832 US9077912B2 (en) 2010-09-23 2010-09-23 Motion initiated time synchronization
US12/888,832 2010-09-23
PCT/US2011/053089 WO2012040629A2 (en) 2010-09-23 2011-09-23 Motion initiated time synchronization

Publications (1)

Publication Number Publication Date
DE112011103205T5 true DE112011103205T5 (de) 2013-09-19

Family

ID=45870254

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112011103205T Withdrawn DE112011103205T5 (de) 2010-09-23 2011-09-23 Bewegungsinitiierte Zeitsynchronisation

Country Status (6)

Country Link
US (1) US9077912B2 (de)
JP (1) JP5646063B2 (de)
CN (1) CN103109492B (de)
DE (1) DE112011103205T5 (de)
TW (1) TWI537747B (de)
WO (1) WO2012040629A2 (de)

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8755785B2 (en) 2011-03-31 2014-06-17 Intel Corporation Collaborative image control
US9077912B2 (en) 2010-09-23 2015-07-07 Intel Corporation Motion initiated time synchronization
US8316155B2 (en) 2010-12-17 2012-11-20 Microsoft Corporation Distributed robust clock synchronization
US9454245B2 (en) 2011-11-01 2016-09-27 Qualcomm Incorporated System and method for improving orientation data
FR2987152B1 (fr) * 2012-02-22 2017-11-17 Oberthur Technologies Procede et dispositif de securite pour effectuer une transaction
TWI547808B (zh) * 2012-04-20 2016-09-01 緯創資通股份有限公司 資訊交換方法及資訊交換系統
US8681772B2 (en) * 2012-05-11 2014-03-25 Vitesse Semiconductor Corporation Timing synchronization for networks with radio links
US20140093219A1 (en) * 2012-09-28 2014-04-03 NoiseToys Inc. Multiple Data Source Aggregation for Efficient Synchronous Multi-Device Media Consumption
KR101690777B1 (ko) * 2013-05-02 2016-12-28 주식회사 퓨처플레이 복수의 디바이스를 매칭시키는 방법, 그리고 상기 매칭이 가능하게끔 하여 주는 디바이스 및 서버 시스템
EP2998831A4 (de) * 2013-05-16 2016-07-20 Futureplay Inc Verfahren zum abgleich von mehreren vorrichtungen sowie und serversystem zum abgleich
US10263989B2 (en) * 2013-05-16 2019-04-16 Futureplay Inc. Method for matching multiple devices, and device and server system for enabling matching
US10324676B2 (en) * 2013-07-17 2019-06-18 Crowdpixie, Llc Method and system for self addressed information display
TWI509454B (zh) * 2014-02-17 2015-11-21 Noodoe Corp 基於動作偵測之作業啟始方法及系統,及相關電腦程式產品
US9488964B2 (en) 2014-06-27 2016-11-08 Apple Inc. Methods for maintaining accurate timing information on portable electronic devices
US20160006526A1 (en) * 2014-07-03 2016-01-07 Qualcomm Incorporated Systems and methods of network clock comparison
RO131252A2 (ro) 2014-11-27 2016-06-30 Ixia, A California Corporation Metode, sisteme şi suport citibil pe calculator pentru recepţionarea informaţiilor de configurare a testărilor
RO131305A2 (ro) * 2014-12-15 2016-07-29 Ixia, A California Corporation Metode, sisteme şi suport citibil pe calculator pentru recepţionarea unui mesaj de sincronizare a ceasului
RO131306A2 (ro) 2014-12-16 2016-07-29 Ixia, A California Corporation Metode, sisteme şi suport citibil pe calculator pentru iniţierea şi execuţia testelor de performanţă a unei reţele private şi/sau a componentelor acesteia
RO131360A2 (ro) 2015-02-09 2016-08-30 Ixia, A California Corporation Metode, sisteme şi suport citibil pe calculator pentru facilitarea rezolvării numelor gazdă ale punctului de capăt în mediul de testare cu firewall-uri, traduceri de adrese de reţea () sau cloud-uri
CN106162266B (zh) * 2015-02-09 2019-07-05 单正建 一种多部智能手机同步多媒体播放的方法
KR20170021748A (ko) * 2015-08-18 2017-02-28 한양대학교 산학협력단 통합 라디오 어플리케이션 인터페이스를 이용하는 재구성 가능한 모바일 장치 및 그 작동 방법
US10063369B1 (en) * 2015-12-16 2018-08-28 Verily Life Sciences Llc Time synchronization of multi-modality measurements
US10304412B1 (en) 2016-06-30 2019-05-28 Google Llc Device synchronization
US10712561B2 (en) * 2016-11-04 2020-07-14 Microsoft Technology Licensing, Llc Interference mitigation via adaptive depth imaging
US10681005B2 (en) 2016-12-08 2020-06-09 Keysight Technologies Singapore (Sales) Pte. Ltd. Deploying a networking test tool in a cloud computing system
US11212260B2 (en) 2018-03-24 2021-12-28 Keysight Technologies, Inc. Dynamic firewall configuration and control for accessing services hosted in virtual networks
CN110785950B (zh) * 2018-11-21 2021-07-09 深圳市大疆创新科技有限公司 时间同步方法、装置及系统、存储介质

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
NL7810171A (nl) 1978-10-10 1980-04-14 Philips Nv Vaste post voor een systeem voor mobiele datacommuni- catie.
US6014376A (en) 1996-09-18 2000-01-11 Motorola, Inc. Method for over-the-air synchronization adjustment in a communication system
US6069887A (en) 1997-05-28 2000-05-30 Apple Computer, Inc. Method and system for synchronization in a wireless local area network
US6236623B1 (en) 1998-10-16 2001-05-22 Moore Industries System and method for synchronizing clocks in a plurality of devices across a communication channel
US6519464B1 (en) * 2000-12-14 2003-02-11 Pulse-Link, Inc. Use of third party ultra wideband devices to establish geo-positional data
JP2003070051A (ja) 2001-08-29 2003-03-07 Denso Corp 移動通信端末装置およびそのプログラム
EP1416648A1 (de) 2002-10-28 2004-05-06 Siemens Aktiengesellschaft Verfahren zur dezentralen Synchronisation in einem selbstorganisierenden Funkkommunikationssystem
JP4189240B2 (ja) 2003-03-24 2008-12-03 アルプス電気株式会社 携帯電話機
US7532196B2 (en) * 2003-10-30 2009-05-12 Microsoft Corporation Distributed sensing techniques for mobile devices
US7813836B2 (en) 2003-12-09 2010-10-12 Intouch Technologies, Inc. Protocol for a remotely controlled videoconferencing robot
CN1744670A (zh) 2004-09-01 2006-03-08 创新科技有限公司 用于操作多个移动图像捕获设备的系统
US7454681B2 (en) 2004-11-22 2008-11-18 Teradyne, Inc. Automatic test system with synchronized instruments
US8339363B2 (en) * 2005-05-13 2012-12-25 Robert Bosch Gmbh Sensor-initiated exchange of information between devices
JP2007013704A (ja) 2005-06-30 2007-01-18 Sony Corp データシェアリングシステム、コントローラ端末、プレーヤー端末、データシェアリング同時再生方法及びデータシェアリング同時再生プログラム
US7570609B2 (en) 2005-11-08 2009-08-04 Research In Motion Limited System and method of message delivery in a wireless communication network
JP4509921B2 (ja) 2005-12-14 2010-07-21 日本電信電話株式会社 無線通信システムおよび無線通信方法
JP2007228554A (ja) 2006-01-26 2007-09-06 Ricoh Co Ltd データ通信装置、データ通信システム、及び、データ通信方法
US7885296B2 (en) * 2006-07-27 2011-02-08 Cisco Technology, Inc. Maintaining consistency among multiple timestamp counters distributed among multiple devices
US20080070550A1 (en) 2006-09-20 2008-03-20 Hose David A Providing Subscriber Specific Information Across Wireless Networks
US20080170592A1 (en) 2007-01-11 2008-07-17 International Business Machines Corporation Almost peer-to-peer clock synchronization
US20080216125A1 (en) 2007-03-01 2008-09-04 Microsoft Corporation Mobile Device Collaboration
WO2009044382A2 (en) * 2007-10-05 2009-04-09 Nxp B.V. Method, system and apparatus for extended rate/range communication of multimedia data over coaxial cable network
JP2009188764A (ja) 2008-02-06 2009-08-20 Pfu Ltd 近距離通信方法、近距離通信システムおよび携帯端末
JP2010136032A (ja) 2008-12-04 2010-06-17 Hitachi Ltd 映像監視システム
DE102009036936B4 (de) 2009-08-11 2013-07-25 Siemens Aktiengesellschaft Synchronisation von Uhren in autonomen Komponenten einer MR Anlage und zeitsynchrone Ausführung von Befehlen in diesen Komponenten
US9077912B2 (en) 2010-09-23 2015-07-07 Intel Corporation Motion initiated time synchronization
US8755785B2 (en) 2011-03-31 2014-06-17 Intel Corporation Collaborative image control
US8681772B2 (en) 2012-05-11 2014-03-25 Vitesse Semiconductor Corporation Timing synchronization for networks with radio links

Also Published As

Publication number Publication date
WO2012040629A2 (en) 2012-03-29
WO2012040629A3 (en) 2012-05-31
TWI537747B (zh) 2016-06-11
TW201224779A (en) 2012-06-16
JP5646063B2 (ja) 2014-12-24
CN103109492A (zh) 2013-05-15
US9077912B2 (en) 2015-07-07
CN103109492B (zh) 2016-11-16
US20120075439A1 (en) 2012-03-29
JP2013541891A (ja) 2013-11-14

Similar Documents

Publication Publication Date Title
DE112011103205T5 (de) Bewegungsinitiierte Zeitsynchronisation
DE112017000017T5 (de) Kameraeinstellungsanpassung basierend auf vorhergesagten umgebungsfaktoren und nachverfolgungssysteme, die diese einsetzen
DE102018130115A1 (de) Kontextbasierte Unterdrückung und Verstärkung von Akustiksignalen in akustischen Umgebungen
DE102015017304B3 (de) Synchronisierte Niedrigenergie-Erkennungstechnik
DE112010004237B4 (de) Techniken zur verbesserten Messung von Taktverschiebungen
DE102017113116A1 (de) Kamerabetriebsmodus-Steuerung
DE102017115936A1 (de) Systeme und Verfahren zum Aktivieren eines Sprachassistenten und Bereitstellen eines Indikators, dass der Sprachassistent Hilfe zu leisten hat
DE112019007808T5 (de) Kamera-synchronisation und bild-markieren für eine gesichtsauthentifizierung
DE112013006286T5 (de) Verfahren und System zur Authentifizierung und zum Betreiben persönlicher Kommunikationsgeräte über Netzwerke der öffentlichen Sicherheit
CN105530433A (zh) 多相机系统的取像同步控制装置
DE202017106383U1 (de) Fühlbare Basswiedergabe
DE102015210790A1 (de) Verfahren und Vorrichtung zum Synchronisieren von Kamerablenden in einem fahrzeuginternen Ethernet-Kommunikationsnetzwerk
EP3349483A1 (de) Verfahren zum betrieb eines hörsystems und hörsystem
DE102018209208A1 (de) Technologien für zeitlich verzögerte Erweiterte-Realität-Darstellungen
US11979660B2 (en) Camera analyzing images on basis of artificial intelligence, and operating method therefor
DE202017105869U1 (de) Kontextabhängige automatische Gruppierung
US11258939B2 (en) System, method and apparatus for networking independent synchronized generation of a series of images
EP3064894B1 (de) 3d-scanvorrichtung und verfahren zum bestimmen einer digitalen 3d-repräsentation einer person
WO2019033662A1 (zh) 教学信息反馈方法、相应装置、智能教学设备和移动终端
DE102021213661A1 (de) Systeme und verfahren zur anzeidge von benutzern, die an einer kommunikationssitzung teilnehmen
DE102017124984B4 (de) Synchronisiertes Aufnehmen von Video und Audio mit drahtlos verbundenen Video- und Audioaufnahmevorrichtungen
DE102016105824A1 (de) Dateneingabe über mehrere Schreibvorrichtungen
EP3748951B1 (de) Bestimmung einer abweichung einer zeit einer kamera von einer zeit eines zeitgebers
DE102015003532A1 (de) Bildsynchronisierungsverfahren für Kameras und elektronische Vorrichtungen mit Kameras
WO2018153642A1 (de) Verfahren zur beschallung von personen bei einer besprechung sowie system zur durchführung des verfahrens

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee