DE112019007085T5 - Intelligente Anzeigetafeleinrichtung und verwandte Verfahren - Google Patents

Intelligente Anzeigetafeleinrichtung und verwandte Verfahren Download PDF

Info

Publication number
DE112019007085T5
DE112019007085T5 DE112019007085.1T DE112019007085T DE112019007085T5 DE 112019007085 T5 DE112019007085 T5 DE 112019007085T5 DE 112019007085 T DE112019007085 T DE 112019007085T DE 112019007085 T5 DE112019007085 T5 DE 112019007085T5
Authority
DE
Germany
Prior art keywords
user
backlight
brightness
ambient light
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112019007085.1T
Other languages
English (en)
Inventor
Kathy Bui
Paul Diefenbaugh
Kristoffer Fleming
Michael Rosenzweig
Soethiha Soe
Vishal Sinha
Nicholas Klein
Guangxin Xu
Stephan Jourdan
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Intel Corp
Original Assignee
Intel Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Intel Corp filed Critical Intel Corp
Publication of DE112019007085T5 publication Critical patent/DE112019007085T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3206Monitoring of events, devices or parameters that trigger a change in power modality
    • G06F1/3231Monitoring the presence, absence or movement of users
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3234Power saving characterised by the action undertaken
    • G06F1/325Power saving in peripheral device
    • G06F1/3265Power saving in display device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3234Power saving characterised by the action undertaken
    • G06F1/3287Power saving characterised by the action undertaken by switching off individual functional units in the computer system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/2092Details of a display terminals using a flat panel, the details relating to the control arrangement of the display terminal and to the interfaces thereto
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/34Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters by control of light from an independent source
    • G09G3/3406Control of illumination source
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2360/00Aspects of the architecture of display systems
    • G09G2360/14Detecting light within display terminals, e.g. using a single or a plurality of photosensors
    • G09G2360/144Detecting light within display terminals, e.g. using a single or a plurality of photosensors the light being ambient light
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • H04M1/22Illumination; Arrangements for improving the visibility of characters on dials
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Liquid Crystal Display Device Control (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Liquid Crystal (AREA)
  • Power Sources (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Hierin werden eine beispielhafte intelligente Anzeigetafeleinrichtung und verwandte Verfahren offenbart. Eine beispielhafte Einrichtung zum Steuern einer Anzeige einer elektronischen Vorrichtung umfasst einen Benutzeranwesenheitsdetektor zum Bestimmen einer Anwesenheit eines Benutzers relativ zur Vorrichtung basierend auf Bilddaten, die von einem Bildsensor des Geräts erzeugt werden. Die beispielhafte Einrichtung umfasst einen Blickdetektor, um eine Blickrichtung des Benutzers relativ zu dem Bildsensor basierend auf den Bilddaten zu bestimmen. Die beispielhafte Einrichtung umfasst einen Hintergrundbeleuchtungsmanager, um eine Anzeigehelligkeit basierend auf der Anwesenheit des Benutzers und der Blickrichtung des Benutzers gezielt anzupassen.

Description

  • GEBIET DER OFFENBARUNG
  • Diese Offenbarung bezieht sich allgemein auf elektronische Anzeigevorrichtungen und insbesondere auf eine intelligente Anzeigetafeleinrichtung und verwandte Verfahren.
  • STAND DER TECHNIK
  • Eine Anzeigetafel eines elektronischen Benutzergeräts (z. B. eines Personalcomputers, eines Smartphones, eines Tablets) ermöglicht es einem Benutzer, den Inhalt einer grafischen Benutzeroberfläche über einen Anzeigebildschirm anzuzeigen, während er mit dem Gerät interagiert. Die Anzeigetafel umfasst Tafelelektronik, die die Anzeige des Inhalts über den Anzeigebildschirm steuert, und eine Hintergrundbeleuchtung, die Licht ausgibt, um den Anzeigebildschirm zu beleuchten, um die Betrachtung durch den Benutzer zu erleichtern. Die Hintergrundbeleuchtung und die Tafelelektronik der Anzeigetafel verbrauchen Strom, wenn sich das Benutzergerät in einem Betriebszustand befindet. In einigen Beispielen kann die Helligkeit der Hintergrundbeleuchtung über eine Benutzereingabe angepasst werden.
  • Figurenliste
    • FIG. 1 veranschaulicht ein beispielhaftes System, das gemäß den Lehren dieser Offenbarung aufgebaut ist und einen beispielhaften Trainingsmanager und eine beispielhafte Anzeigetafelsteuerung zum Steuern der Leistung einer Anzeigetafel eines Benutzergeräts umfasst.
    • 2 ist ein Blockdiagramm einer beispielhaften Implementierung des Trainingsmanagers und der Anzeigetafelsteuerung aus 1.
    • 3 und 4 sind Diagramme von beispielhaften Anzeigeleistungsverwaltungsregeln zur Ausführung durch die beispielhafte Anzeigetafelsteuerung aus 1.
    • 5 ist ein Graph, der Änderungen in jeweiligen Leistungszuständen einer Hintergrundbeleuchtung und einer Tafelelektronik einer Anzeigetafel darstellt, basierend auf der Implementierung der Leistungsverwaltungsregeln aus 3 und/oder 4 durch die beispielhafte Anzeigetafelsteuerung aus 1.
    • 6 ist eine beispielhafte Zeitachse, die die Steuerung einer Hintergrundbeleuchtung einer Anzeigetafel über die Zeit zeigt, durch die beispielhafte Anzeigetafelsteuerung aus 1.
    • 7 ist ein Flussdiagramm, das beispielhafte maschinenlesbare Anweisungen darstellt, die ausgeführt werden können zum Implementieren des beispielhaften Trainingsmanagers aus 2.
    • 8A und 8B sind Flussdiagramme, die beispielhafte maschinenlesbare Anweisungen darstellen, die ausgeführt werden können zum Implementieren der beispielhaften Anzeigetafelsteuerung aus 2.
    • 9 veranschaulicht ein weiteres beispielhaftes System, das gemäß den Lehren dieser Offenbarung aufgebaut ist und einen beispielhaften Hintergrundbeleuchtungs-Helligkeitsmanager zum Steuern der Helligkeit einer Hintergrundbeleuchtung eines Benutzergeräts umfasst.
    • 10 veranschaulicht eine beispielhafte Zeitachse von Anpassungen der Helligkeit einer Hintergrundbeleuchtung durch den beispielhaften Hintergrundbeleuchtungs-Helligkeitsmanager aus 9.
    • 11 ist ein Blockdiagramm einer beispielhaften Implementierung des Hintergrundbeleuchtungs-Helligkeitsmanagers aus 9.
    • 12 ist ein Flussdiagramm, das beispielhafte maschinenlesbare Anweisungen darstellt, die ausgeführt werden können zum Implementieren des beispielhaften Hintergrundbeleuchtungs-Helligkeitsmanagers aus 9, 10 und/oder 11.
    • 13 ist ein Blockdiagramm einer beispielhaften Verarbeitungsplattform, die strukturiert ist zum Ausführen der Anweisungen aus 7 zum Implementieren des beispielhaften Trainingsmanagers aus 2.
    • 14 ist ein Blockdiagramm einer beispielhaften Verarbeitungsplattform, die strukturiert ist zum Ausführen der Anweisungen aus 8A und 8B zum Implementieren der beispielhaften Anzeigetafelsteuerung aus 2.
    • 15 ist ein Blockdiagramm einer beispielhaften Verarbeitungsplattform, die strukturiert ist zum Ausführen der Anweisungen aus 12 zum Implementieren des beispielhaften Hintergrundbeleuchtungs-Helligkeitsmanagers aus 9.
  • Die Figuren sind nicht maßstabsgetreu. Stattdessen kann die Dicke der Schichten oder Gebiete in den Zeichnungen vergrößert sein. Allgemein werden die gleichen Bezugsziffern durchweg durch die Zeichnung(en) und die begleitende geschriebene Beschreibung verwendet, um sich auf dieselben oder ähnliche Teile zu beziehen.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Eine Anzeigetafel eines elektronischen Benutzergeräts (z. B. eines Personalcomputers, eines Smartphones, eines Tablets) ermöglicht es einem Benutzer, den Inhalt einer grafischen Benutzeroberfläche über einen Anzeigebildschirm anzuzeigen, während er mit dem Gerät interagiert. Die Anzeigetafel umfasst Tafelelektronik, die die Anzeige des Inhalts über den Anzeigebildschirm steuert, und eine Hintergrundbeleuchtung, die Licht ausgibt, um den Anzeigebildschirm zu beleuchten, um die Betrachtung durch den Benutzer zu erleichtern. Die Hintergrundbeleuchtung und die Tafelelektronik der Anzeigetafel verbrauchen Strom, wenn sich das Benutzergerät in einem betriebsbereiten oder eingeschalteten Zustand befindet, um die Anzeige von Daten über den Anzeigebildschirm bereitzustellen.
  • In einigen Fällen verbraucht die Anzeigetafel Strom, um Daten zur Anzeige auszugeben und den Anzeigebildschirm zu beleuchten, während sich das Benutzergerät im Betriebszustand befindet, aber der Benutzer den Anzeigebildschirm nicht betrachtet. Zum Beispiel kann sich der Benutzer vom Anzeigebildschirm abwenden, um mit einer Person zu sprechen, Papierdokumente zu lesen usw. In einigen Beispielen kann der Benutzer für eine gewisse Zeit (z. B. während des Mittagessens, über Nacht) vom Benutzergerät wegtreten, ohne das Gerät auszuschalten. Die Tafelelektronik der Anzeigetafel gibt jedoch weiterhin Daten zur Anzeige aus, und die Hintergrundbeleuchtung beleuchtet weiterhin den Anzeigebildschirm, auch wenn der Benutzer für eine gewisse Zeit (z. B. Minuten, Stunden usw.) nicht aktiv auf den Anzeigebildschirm schaut. In einigen Beispielen kann der Stromverbrauch der Anzeigetafel einen relativ großen Anteil (z. B. 30 % - 40 %) eines Gesamtstromverbrauchs des Benutzergeräts darstellen und kann somit beispielsweise die Lebensdauer einer Batterie des Benutzergeräts beeinflussen.
  • In dem Bemühen, den Stromverbrauch eines Benutzergeräts zu reduzieren, wenn das Gerät nicht aktiv von einem Benutzer verwendet wird, kann die Anzeigetafel basierend auf einem Hinweis, dass der Benutzer das Gerät derzeit nicht verwendet, in einem Niedrigenergiezustand betrieben werden. Einige bekannte Beispiele zum Energiesparen umfassen zum Beispiel das automatische Ausschalten der Hintergrundbeleuchtung und, in einigen Fällen, der Tafelelektronik der Anzeigetafel nach einer vordefinierten Zeitspanne (z. B. 30 Sekunden, 5 Minuten, 10 Minuten), in der keine Benutzereingaben am Benutzergerät empfangen werden. In einigen Fällen wird die Anzeigetafel ausgeschaltet, wenn das Gerät nach einem vordefinierten Zeitraum von Benutzerinaktivität in einen Schlaf- oder Ruhezustand wechselt. Sich jedoch auf das Fehlen von Benutzereingaben wie Tastatureingaben, Mausklicks, Berührungsbildschirmeingaben usw. zu verlassen, um den Betrieb der Anzeigetafel zu steuern, spiegelt nicht genau wider, ob der Benutzer das Gerät nicht mehr verwendet. Da die Dauer der Zeitüberschreitungsperiode, die bewirken würde, dass die Anzeigetafel in den Niedrigenergiezustand wechselt, nicht dynamisch angepasst werden kann, können die Zeitüberschreitungsperioden angesichts unterschiedlicher Benutzerinteraktionen mit dem Gerät zu kurz oder zu lang sein, um effektiv Strom zu sparen. Eine zu lange Zeitüberschreitung der Anzeigetafel führt dazu, dass Möglichkeiten zum Energiesparen verpasst werden, wenn der Benutzer das Gerät nicht mehr verwendet. Umgekehrt kann eine zu kurze Zeitüberschreitungsperiode den Energieverbrauch des Geräts erhöhen, wenn der Benutzer die Anzeigetafel wiederholt anweist, in einen aktiven Zustand zurückzukehren, weil der Benutzer die Verwendung des Geräts nur für kurze Zeitintervalle unterbrochen hat.
  • Einige bekannte Beispiele zum Verwalten des Stromverbrauchs einer Anzeigetafel beruhen auf der Anwesenheit des Benutzers als Hinweis darauf, ob die Anzeigetafel eingeschaltet bleiben soll. Einige Geräte detektieren beispielsweise die Anwesenheit des Benutzers basierend auf der Übertragung und Detektion von Bluetooth® Signalen zwischen dem elektronischen Gerät und einem anderen Bluetooth® fähigen, vom Benutzer mitgeführten Benutzergerät (z. B. einem Smartphone, einer Smartwatch). Allerdings erfordern solche Beispiele, dass der Benutzer ein Bluetooth® übertragendes Gerät bei sich trägt. Außerdem bestimmen solche Beispiele nicht, ob der Benutzer aktiv mit dem Gerät beschäftigt ist, das die interessierende Anzeigetafel enthält. Als weiteres Beispiel umfassen einige Geräte Näherungssensoren, die die Anwesenheit des Benutzers relativ zum Gerät detektieren. Die Anwesenheit des Benutzers allein ist jedoch kein genauer Indikator dafür, ob der Benutzer den Anzeigebildschirm betrachtet. Zum Beispiel kann der Benutzer an seinem oder ihrem Schreibtisch vor dem Benutzergerät (z. B. einem Desktop-Computer) sitzen, aber vom Bildschirm abgewandt sein, wenn der Benutzer mit einer anderen Person spricht. Einige bekannte Beispiele verwenden Augenverfolgungstechniken, um zu bestimmen, ob ein Benutzer aktiv auf den Anzeigebildschirm schaut. Das Verfolgen der Augenbewegungen eines Benutzers kann jedoch den Energieverbrauch des elektronischen Geräts erhöhen, um von Bildsensoren des Geräts erfasste Bilddaten zu verarbeiten und die Daten in Bezug auf die Augenposition des Benutzers im Laufe der Zeit zu analysieren.
  • Hierin offenbarte beispielhafte Systeme und Verfahren stellen eine dynamische Leistungssteuerung einer Anzeigetafel eines Benutzergeräts basierend auf der Detektion eines Gesichts eines Benutzers und einer Bestimmung einer Richtung des Blicks des Benutzers relativ zu dem Benutzergerät bereit. Hierin offenbarte Beispiele verwenden eine mehrstufige Bestimmung, ob der Benutzer (1) relativ zum Benutzergerät anwesend ist (z. B. sich in der Nähe des Benutzergeräts befindet) und (2) auf den Anzeigebildschirm des Geräts achtet. Hierin offenbarte Beispiele steuern gezielt den Betrieb der Tafelelektronik und der Hintergrundbeleuchtung der Anzeigetafel basierend auf den Bestimmungen der Anwesenheit und Aufmerksamkeit des Benutzers in Bezug auf das Gerät. Als Ergebnis sorgen hierin offenbarte Beispiele für erhöhte Energieeinsparungen im Vergleich zu bekannten Beispielen, die beispielsweise auf der alleinigen Anwesenheit des Benutzers oder vordefinierten Zeitüberschreitungsperioden von Benutzerinaktivität beruhen.
  • Hierin offenbarte Beispiele analysieren Bilddaten, die von einem oder mehreren Bildsensoren des Benutzergeräts erzeugt werden, um zu bestimmen, ob sich ein Benutzer innerhalb eines Sichtfelds (FoV) des bzw. der Bildsensoren befindet, basierend auf einer Gesichtserkennungsanalyse. Basierend auf der Detektion eines Benutzergesichts im FoV des Bildsensors bzw. der Bildsensoren steuern hierin offenbarte Beispiele den Betrieb der Tafelelektronik und der Hintergrundbeleuchtung der Anzeigetafel. Wenn kein Benutzer innerhalb des Sichtfelds des bzw. der Bildsensoren detektiert wird, bestimmen hierin offenbarte Beispiele, dass der Benutzer relativ zum Benutzergerät nicht anwesend ist, und weisen dementsprechend die Anzeigetafel an, sich auszuschalten, um Strom zu sparen.
  • Wenn festgestellt wird, dass der Benutzer am Benutzergerät anwesend ist, analysieren die hierin offenbarten Beispiele die Bilddaten ferner in Bezug auf eine Blickrichtung des Benutzers relativ zu dem bzw. den Bildsensoren. Hierin offenbarte Beispiele führen eine Gesichtsmerkmalserkennung für die Bilddaten durch, um eine Position des Gesichts des Benutzers relativ zu dem bzw. den Bildsensoren zu bestimmen. Auf Grundlage der Gesichtsmerkmalsanalyse bestimmen hierin offenbarte Beispiele, ob sich der Anzeigebildschirm innerhalb eines Sichtfelds des Benutzers befindet, was als Hinweis darauf dient, dass der Benutzer wahrscheinlich auf den Anzeigebildschirm schaut oder auf diesen achtet. Wenn beispielsweise nur ein Ohr in den Bilddaten detektiert wird, bestimmen hier offenbarte Beispiele, dass der Benutzer teilweise vom Anzeigebildschirm wegschaut. Wenn andererseits zwei Augen in den Bilddaten detektiert werden, bestimmen hierin offenbarte Beispiele, dass der Benutzer auf den Anzeigebildschirm schaut.
  • Hierin offenbarte Beispiele passen gezielt eine Helligkeit (z. B. Lumenpegel) der Hintergrundbeleuchtung der Anzeigetafel basierend auf der Blickrichtung des Benutzers an. Wenn beispielsweise der Blick des Benutzers vom Anzeigebildschirm weg gerichtet ist, dimmen hierin offenbarte Beispiele die Hintergrundbeleuchtung, um Energie zu sparen, während der Benutzer wegschaut. In Beispielen, in denen basierend auf der Bilddatenanalyse im Laufe der Zeit bestimmt wird, dass sich der Benutzer dem Anzeigebildschirm zuwendet, wird die Helligkeit der Hintergrundbeleuchtung in Erwartung einer Interaktion des Benutzers mit dem Gerät erhöht. In Beispielen, in denen bestimmt wird, dass sich der Benutzer vom Anzeigebildschirm abwendet, wird die Helligkeit der Hintergrundbeleuchtung verringert, um Energie zu sparen, wenn der Anzeigebildschirm das Sichtfeld des Benutzers verlässt.
  • In einigen hierin offenbarten Beispielen wird zumindest ein Teil der Bilddatenanalyse von einem oder mehreren Prozessoren durchgeführt, die mit dem bzw. den Bildsensoren kommunizieren und die in einem Niederleistungsmodus oder einem Ultra-Niederleistungsmodus (z. B. Verbrauch von weniger als 10 mW) arbeiten. In solchen Beispielen erzeugen der bzw. die Prozessoren (z. B. digitale Signalprozessor(en)) Metadaten, die angeben, ob der Benutzer anwesend (z. B. durch „1“ repräsentiert) oder abwesend (z. B. repräsentiert durch „0“) ist, basierend auf den Gesichtserkennungsanalyse der Bilddaten. Die Metadaten, die die Anwesenheit oder Abwesenheit des Benutzers anzeigen, werden verwendet, um den Betrieb der Anzeigetafel zu steuern, wodurch die mit der Übertragung, Verarbeitung und/oder Analyse von Bilddaten verbundenen Energiekosten reduziert werden.
  • In einigen Beispielen wird die Blickanalyse nicht durchgeführt, bis festgestellt wird, dass sich der Benutzer in einem bestimmten Nahbereich des Benutzergeräts befindet, um keine Ressourcen zu verbrauchen, wenn der Benutzer sich in einer Entfernung befindet, aus der er oder sie den Inhalt auf dem Bildschirm wahrscheinlich nicht leicht sehen kann. In einigen Beispielen, wenn der Benutzer Eingaben am Gerät bereitstellt (z. B. Tastatureingaben, Touchscreen-Eingaben), sehen die hierin offenbarten Beispiele davon ab, die Bilddaten in Bezug auf die Anwesenheit und den Blick des Benutzers zu analysieren, um Energie zu sparen, während der Benutzer mit dem Gerät interagiert und daher offensichtlich anwesend ist und auf das Gerät achtet.
  • Ebenfalls hierin offenbart sind Systeme und Verfahren zum automatischen Anpassen der Helligkeit einer Hintergrundbeleuchtung für einen Anzeigebildschirm eines Benutzergeräts, nachdem ein Benutzer die Helligkeitseinstellung manuell geändert hat. Einige Benutzergeräte stellen automatisch eine Helligkeit der Hintergrundbeleuchtung basierend auf Sensordaten ein, die auf Umgebungslicht in einer Umgebung hinweisen, in der sich das Gerät befindet. Einige Benutzer können jedoch die automatische Helligkeitseinstellung deaktivieren und die Hintergrundbeleuchtung manuell dimmen oder ausschalten, wenn sich der Benutzer beispielsweise in einem dunklen Raum befindet, weil der Benutzer den Bildschirm als zu hell empfindet. Wenn der Benutzer in solchen Fällen zu einer helleren Umgebung (z. B. einer sonnenbeschienenen Umgebung) zurückkehrt, kann der Anzeigebildschirm für den Benutzer zu dunkel zum Betrachten sein. Hierin offenbarte Beispiele bestimmen Änderungen der Umgebungslichtpegel in einer Umgebung und/oder zwischen Umgebungen, in denen sich das Benutzergerät befindet. Wenn beispielsweise ein Wechsel von einem dunklen oder schwachen Lichtpegel zu einem hellen Lichtpegel detektiert wird, passen die hier offenbarten Beispiele automatisch erneut die Helligkeit der Hintergrundbeleuchtung von der benutzerdefinierten manuellen Einstellung an, um es dem Benutzer zu ermöglichen, den Anzeigebildschirm zu betrachten, ohne die Helligkeitseinstellung manuell anzupassen. Hierin offenbarte Beispiele vergleichen die Änderungen der Umgebungslichtpegel mit vordefinierten Schwellen, um zu bestimmen, ob die Hintergrundbeleuchtung weiterhin Licht mit der benutzerdefinierten Helligkeitseinstellung ausgeben sollte oder ob die automatische Helligkeitseinstellung reaktiviert werden sollte, um Benutzerkomfort beim Betrachten des Anzeigebildschirms zu ermöglichen.
  • 1 veranschaulicht ein beispielhaftes System 100, das gemäß den Lehren dieser Offenbarung konstruiert ist, um eine Anzeigetafel 102 eines Benutzergeräts 104 basierend auf der Interaktion eines Benutzers oder Subjekts 106 (die Begriffe „Benutzer“ und „Subjekt“ werden hier austauschbar verwendet und beziehen sich beide auf eine biologische Kreatur, wie etwa ein menschliches Wesen) mit einem Anzeigebildschirm 108 der Anzeigetafel 102 zu steuern. Das Benutzergerät 104 kann einen Personalcomputer, einen Laptop, ein Tablet, ein Smartphone usw. umfassen. Im Beispiel aus 1 greift der Benutzer 106 auf eine oder mehrere Anwendungen 107 (z. B. eine Textverarbeitungsanwendung, einen Webbrowser, einen Videoplayer usw.) zu, die von einem Prozessor 109 des Benutzergeräts 104 ausgeführt werden. Der Benutzer 106 betrachtet digitalen Inhalt, der mit der bzw. den Anwendungen 107 (z. B. elektronische Dokumente, Webseiten, Video usw.) verknüpft ist, über den Anzeigebildschirm 108. Die Anzeigetafel 102 des Beispiels aus 1 umfasst eine Hintergrundbeleuchtung 110 oder Mittel zum Beleuchten des Anzeigebildschirms 108 zum Betrachten durch den Benutzer 106. Die Anzeigetafel aus 1 umfasst eine Tafelelektronik 112 oder eine Leiterplatte, umfassend Hardware, wie etwa eine Zeitsteuerung, um die Ausgabe von Grafiken über den Anzeigebildschirm 108 bereitzustellen.
  • Während des Betriebs des Benutzergeräts 104 verbrauchen die Hintergrundbeleuchtung 110 und die Tafelelektronik 112 Strom, um beispielsweise den Anzeigebildschirm 108 zu beleuchten, Bilddaten zur Anzeige über den Anzeigebildschirm 108 zu verarbeiten usw. Die Gesamtleistungsaufnahme (z. B. Wattzahl) der Anzeigetafel 102 basiert auf dem Stromverbrauch der Hintergrundbeleuchtung 110 und dem Stromverbrauch der Tafelelektronik 112. In einigen Beispielen kann der Stromverbrauch der Anzeigetafel 102 einen relativ großen Teil eines Gesamtstromverbrauchs des Benutzergeräts 104 darstellen.
  • Wenn sich das Benutzergerät 104 im eingeschalteten Betriebszustand befindet, kann der Benutzer 106 mit dem Benutzergerät 104 (z. B. mit der bzw. den darauf installierten Anwendung(en) 107) interagieren, indem er Eingaben beispielsweise über eine Tastatur und/oder eine Maus in Verbindung mit dem Benutzergerät 104 bereitstellt. In einigen Beispielen ist der Anzeigebildschirm 108 ein Touchscreen, und der Benutzer 106 stellt Eingaben über den Touchscreen 108 unter Verwendung seiner Finger bereit. Das beispielhafte Benutzergerät 104 umfasst einen oder mehrere Benutzereingabe-Detektionssensoren 113. Der eine oder die mehreren Benutzereingabe-Detektionssensoren 113 sind in Verbindung mit, beispielsweise, Peripheriegeräten, wie etwa einer Tastatur, Touchscreens usw. und erzeugen Daten, die auf Interaktionen des Benutzers 106 mit dem Benutzergerät 104 hinweisen. Der bzw. die Benutzereingabe-Detektionssensoren 113 übertragen Daten, die eine Benutzeraktivität oder - inaktivität anzeigen, an den Prozessor 109. Basierend auf den von dem bzw. den Benutzereingabe-Detektionssensoren 113 erzeugten Daten kann der Prozessor 109 die Anzeigetafel 102 anweisen, den Anzeigebildschirm 108 nach einem vordefinierten Zeitraum ohne Benutzereingabe (z. B. 10 Minuten, 15 Minuten) auszuschalten. In einigen Beispielen kann der Prozessor 109 nach einem vordefinierten Zeitraum ohne Benutzeraktivität bewirken, dass das Benutzergerät 104 in einen Schlafmodus übergeht, oder in einen Modus, in dem sich das Benutzergerät 104 nach einer Zeit der Inaktivität in einem Energiesparzustand befindet.
  • Obwohl der Prozessor 109 das Benutzergerät 104 veranlassen kann, in einen Schlafmodus überzugehen einzutreten und die Anzeigetafel 102 basierend auf vordefinierten Zeiträumen der Benutzerinaktivität auszuschalten, können solche vordefinierten Zeiträume die Aktivität des Benutzers 106 in Bezug auf das Benutzergerät möglicherweise nicht genau widerspiegeln 104. Zum Beispiel kann es Zeiträume geben, in denen der Benutzer 106 nicht auf den Anzeigebildschirm 108 schaut oder relativ zum Benutzergerät 104 nicht anwesend ist, die kürzer sind als die vordefinierten Zeitüberschreitungsperioden, die den Prozessor 109 veranlassen, den Anzeigebildschirm 108 auszuschalten. Zum Beispiel kann der Benutzer 106 während des Betriebs des Benutzergeräts 104 seinen Blick vom Anzeigebildschirm 108 abwenden, um zum Beispiel mit einer anderen Person zu sprechen, die den Raum betreten hat. In einigen Beispielen kann der Benutzer 106 das Benutzergerät 104 verlassen und dann zum Benutzergerät 104 zurückkehren. Somit gibt es Zeiträume, in denen der Benutzer 106 möglicherweise nicht auf den Anzeigebildschirm 108 achtet oder nicht beim Benutzergerät 104 anwesend ist, die durch vordefinierte Zeitüberschreitungsperioden der Benutzerinaktivität nicht genau erfasst werden. Während dieser Zeiträume, in denen der Benutzer 106 dem Anzeigebildschirm 108 keine Aufmerksamkeit schenkt, verbraucht die Anzeigetafel 102 jedoch weiterhin Strom. Zum Beispiel kann die Hintergrundbeleuchtung 110 der Anzeigetafel 102 den Anzeigebildschirm 108 weiterhin beleuchten, obwohl der Benutzer 106 seinen Blick vom Anzeigebildschirm 108 abgewendet hat, um zum Beispiel mit einer anderen Person zu sprechen, die sich im Raum des Benutzers 106 befindet.
  • Das beispielhafte Benutzergerät 104 aus 1 umfasst einen oder mehrere Bildsensoren 114. Der bzw. die Bildsensor(en) 114 stellen Mittel zum Erzeugen von Bilddaten bereit. In 1 umfassen der bzw. die Bildsensoren 114 eine nach vorne gerichtete Kamera des Benutzergeräts 104. Der bzw. die Bildsensoren 114 können mit der Anzeigetafel 102 und/oder anderen Teilen des Benutzergeräts 104 (z. B. mit einem Scharnier eines Laptops) verbunden sein. Der bzw. die Bildsensoren 114 des Beispiels aus 1 sind einem Bildgebungssichtfeld (FoV) 116 zugeordnet, das definiert ist zwischen den gestrichelten Linien 118, 120 in 1. Das Bildgebungs-FoV 116 kann beispielsweise einem Sichtfeld der nach vorne gerichteten Kamera oder des Bildsensors 114 des Benutzergeräts 104 entsprechen. Im Beispiel aus 1 erzeugen der bzw. die Bildsensoren 114 Bilddaten, die Objekte darstellen, die innerhalb des Bildgebungs-FoV 116 vorhanden sind.
  • Wie durch die gestrichelten Kreise 122, 124, 125, 126, 128 gezeigt, kann sich der Benutzer 106 in das Bildgebungs-FoV 116 hinein und aus ihm heraus bewegen, während sich das Benutzergerät 104 im eingeschalteten Zustand befindet. Der Benutzer 106 kann sich innerhalb des Bildgebungs-FoV 116 befinden, wenn er an einem Schreibtisch arbeitet, auf dem das Benutzergerät 104 ruht. Der Benutzer 106 kann sich aus dem Bildgebungs-FoV 116 herausbewegen, wenn der Benutzer 106 von des Benutzergeräts 104 weggeht, um beispielsweise eine Türklingel zu beantworten. Der bzw. die Bildsensoren 114 aus 1 erzeugen Bilddaten, die den Benutzer 106 umfassen, wenn sich der Benutzer 106 an den Positionen befindet, die den gestrichelten Kreisen 124, 125, 126 entsprechen. Bilddaten, die erzeugt werden, wenn sich der Benutzer 106 an den Positionen befindet, die den gestrichelten Kreisen 122, 128 entsprechen, umfassen jedoch nicht den Benutzer 106.
  • Im Beispiel aus 1 erzeugen der bzw. die Bildsensoren 114 Bilddaten, wenn sich das Benutzergerät 104 in einem eingeschalteten Zustand befindet, einschließlich wenn sich das Benutzergerät 104 in einem Schlafmodus befindet. Anders ausgedrückt, arbeiten der bzw. die Bildsensoren 114 in einem immer eingeschalteten Modus. Um Energie zu sparen, während eine ständig eingeschaltete Erfassung bereitgestellt wird, arbeiten der bzw. die Bildsensoren 114 aus 1 in einem Niederleistungsmodus. Zum Beispiel können die nach vorne gerichtete Kamera oder der bzw. die Bildsensoren 114 des Benutzergeräts 104 Bilddaten mit einer niedrigen Auflösung erfassen, wenn sie im ständig eingeschalteten Modus betrieben werden, um Strom zu sparen (z. B. basierend auf Anweisungen vom Prozessor 109 des Benutzergeräts). Wenn die nach vorn gerichtete Kamera während der Verwendung des Geräts durch den Benutzer beispielsweise in Verbindung mit einer Videokonferenzanwendung Bilddaten erzeugt, kann die nach vorn gerichtete Kamera auf die Erzeugung hochauflösender Bilddaten umschalten (z. B. basierend auf Anweisungen vom Prozessor 109 des Benutzergeräts). Die nach vorne gerichtete Kamera kann nach Beendigung des Betriebs der Videokonferenzanwendung in den ständig eingeschalteten Niederleistungsmodus zurückkehren. Somit spart, in einigen Beispielen, das Beispiel aus 1 ferner Energie, indem vorhandene Mittel zum Erzeugen von Bilddaten verwendet werden, wie beispielsweise die nach vorne gerichtete Kamera des Benutzergeräts 104, um Bilddaten zum Bestimmen der Anwesenheit des Benutzers zu erfassen. Im Beispiel aus 1 können der bzw. die Bildsensoren 114 Bilddaten mit einer Rate von beispielsweise 10 Frames/Sekunde erzeugen, während sie in einem ständig eingeschalteten Niederleistungsmodus arbeiten.
  • In dem beispielhaften System 100 aus 1 werden die von dem bzw. den Bildsensoren 114 erzeugten Bilddaten von einer Anzeigetafelsteuerung 130 verarbeitet. Die Anzeigetafelsteuerung 130 aus 1 dient dazu, die von dem bzw. den Bildsensoren 114 erzeugten Bilddaten zu verarbeiten, um zu bestimmen, ob der Benutzer 106 innerhalb des Bildgebungs-FoV 116 anwesend ist. Die Anzeigetafelsteuerung 130 aus 1 steuert eine oder mehrere aus der Hintergrundbeleuchtung 110 und/oder der Tafelelektronik 112 der Anzeigetafel 102 basierend auf der Anwesenheit des Benutzers 106 im Bildgebungs-FoV 116. Die beispielhafte Anzeigetafelsteuerung 130 aus 1 stellt Mittel zum Steuern des Betriebs der Anzeigetafel 102 bereit, um den Stromverbrauch der Anzeigetafel 102 während Zeiträumen der Benutzerinaktivität an des Benutzergeräts 104 zu verringern.
  • Die beispielhafte Anzeigetafelsteuerung 130 kann durch einen oder mehrere Prozessoren des Benutzergeräts 104 implementiert werden, wie etwa den Prozessor 109 aus 1. In einigen Beispielen wird zumindest ein Teil der von der Anzeigetafelsteuerung 130 durchgeführten Analyse durch einen oder mehrere Prozessoren des Benutzergeräts 104 implementiert, die in einem Niederleistungsmodus oder Ultra-Niederleistungsmodus arbeiten, wie z. B. einer oder mehrere digitale Signalprozessoren. In anderen Beispielen wird die Anzeigetafelsteuerung 130 durch ein oder mehrere Cloud-basierte Geräte implementiert, wie etwa einen oder mehrere Server, Prozessoren und/oder virtuelle Maschinen, die sich entfernt von dem Benutzergerät 104 befinden. In anderen Beispielen wird ein Teil der von der Anzeigetafelsteuerung 130 durchgeführten Analyse durch Cloud-basierte Geräte implementiert, und andere Teile der Analyse werden durch einen oder mehrere lokale Prozessoren oder ein oder mehrere Benutzergeräte implementiert.
  • In einigen Beispielen empfängt die Anzeigetafelsteuerung 130 die Bilddaten im Wesentlichen in Echtzeit (z. B. nahe der Zeit, zu der die Daten gesammelt werden). In anderen Beispielen empfängt die Anzeigetafelsteuerung 130 die Bilddaten zu einem späteren Zeitpunkt (z. B. periodisch und/oder aperiodisch basierend auf einer oder mehreren Einstellungen, aber irgendwann, nachdem die Bilddaten erzeugt wurden (z. B. Sekunden später, Minuten später). Die Anzeigetafelsteuereinheit 130 kann eine oder mehrere Operationen an den Bilddaten durchführen, wie beispielsweise das Filtern der Rohbilddaten und/oder das Entfernen von Rauschen aus den Bilddaten.
  • Im Beispiel aus 1 führt die Anzeigetafelsteuerung 130 ein oder mehrere gelernte Modelle aus, um eine Anwesenheit des Benutzers 106 innerhalb des Bildgebungs-FoV 116 auf Grundlage der Bilddaten zu bestimmen, die von dem bzw. den Bildsensoren 114 erzeugt werden. Die beispielhafte Anzeigetafelsteuerung 130 aus 1 wird von einem Trainingsmanager 131 unter Verwendung von maschinellen Lerntechniken (z. B. überwachtem Lernen) und Trainingsbilddaten, umfassend den Benutzer 106 und/oder andere Benutzer, um menschliche Gesichter zu erkennen und/oder um bestimmte menschliche Gesichtsmerkmale zu detektieren, wie etwa eine Nase, ein Ohr, einen Mund usw. Unter Verwendung des bzw. der gelernten Gesichtsdetektionsmodelle analysiert die Anzeigetafelsteuerung 130 die Bilddaten, die von dem bzw. den Bildsensoren 114 erzeugt werden, und bestimmt, ob der Benutzer 106 innerhalb des Bildgebungs-FoV 116 anwesend ist. Basierend auf der Detektion des Benutzers 106 im Bildgebungs-FoV 116 und einer oder mehreren vordefinierten Regeln steuert die Anzeigetafelsteuerung 130 den Betrieb der Hintergrundbeleuchtung 110 und der Tafelelektronik 112.
  • Der beispielhafte Trainingsmanager 131 kann durch den Prozessor 109 des Benutzergeräts 104 implementiert werden. In anderen Beispielen wird der Trainingsmanager 131 von einem oder mehreren Cloud-basierten Vorrichtungen implementiert, wie etwa einem oder mehreren Servern, Prozessoren und/oder virtuellen Maschinen. In anderen Beispielen wird ein Teil der vom Trainingsmanager 131 durchgeführten Analyse durch Cloud-basierte Vorrichtungen implementiert und andere Teile der Analyse werden durch einen oder mehrere Prozessoren oder ein oder mehrere Benutzergeräte implementiert. Der bzw. die Prozessoren und/oder die Cloud-basierte(n) Vorrichtung(en), die verwendet werden, um den Trainingsmanager 131 zu implementieren, können gleich wie der bzw. die Prozessoren und/oder Cloud-basierte(n) Vorrichtung(en), die verwendet werden, um die Anzeigetafelsteuerung 130 zu implementieren, sein oder können davon verschieden sein.
  • Als Beispiel kann die Anzeigetafelsteuerung 130 die Bilddaten unter Verwendung des bzw. der Gesichtsdetektionsmodelle analysieren und bestimmen, dass der Benutzer 106 nicht im Bildgebungs-FoV 116 anwesend ist (wie z. B. dargestellt durch den gestrichelten Kreis 122 oder den gestrichelten Kreis 128 in 1). In solchen Beispielen erzeugt die Anzeigetafelsteuerung 130 eine oder mehrere Anweisungen, die die Hintergrundbeleuchtung 110 und die Tafelelektronik 112 anweisen, sich auszuschalten. In einigen Beispielen erzeugt die Anzeigetafelsteuerung 130 die Anweisung(en) für die Hintergrundbeleuchtung 110 und die Tafelelektronik 112, sich früher auszuschalten, als dies der Fall wäre, wenn der Betrieb der Anzeigetafel 102 bei einer vordefinierten Zeitüberschreitungsperiode der Benutzerinaktivität (z. B. nach 15 Minuten) gesteuert würde. Somit kann die Anzeigetafelsteuerung 130 zusätzliche Energieeinsparungen bereitstellen, indem die Anzeigetafel 102 auf Grundlage der Anwesenheit des Benutzers 106 relativ zum Benutzergerät 104 gesteuert wird.
  • In einigen Beispielen bestimmt die Anzeigetafelsteuerung 130 basierend auf der Analyse der Bilddaten unter Verwendung des bzw. der Gesichtsdetektionsmodelle, dass der Benutzer 106 innerhalb des Bildgebungs-FoV 116 anwesend ist (z. B. dargestellt durch einen der gestrichelten Kreise 124, 125, 126). In solchen Beispielen weist die Anzeigetafelsteuerung 130 die Tafelelektronik an, sich einzuschalten. In einigen Beispielen weist die Anzeigetafelsteuerung 130 auch die Hintergrundbeleuchtung 110 an, sich einzuschalten und Licht mit einer Standardhelligkeitseinstellung (z. B. einem von einem Hersteller oder dem Benutzer vordefinierten Helligkeitspegel) auszugeben, in der Erwartung, dass der Benutzer 106 den Anzeigebildschirm 108 betrachtet.
  • In anderen Beispielen, in denen festgestellt wird, dass der Benutzer am Benutzergerät 104 anwesend ist, unterlässt die Anzeigetafelsteuerung 130 die Anweisung der Hintergrundbeleuchtung 110, sich einzuschalten, oder unterlässt das Einstellen einer Helligkeit (z. B. Lumenpegel) der Hintergrundbeleuchtung 110, bis die Anzeigetafelsteuereinheit 130 bestimmt, dass sich der Benutzer 106 innerhalb eines Anzeigesichtfelds 132 befindet, das dem Anzeigebildschirm 108 zugeordnet ist, wie definiert durch die gestrichelten Linien 134, 136 in 1. Anders ausgedrückt, wenn der Benutzer 106 im Bildgebungs-FoV 116 anwesend ist, erwägt die beispielhafte Anzeigetafelsteuerung 130, ob die Helligkeit der Hintergrundbeleuchtung 110 basierend auf der Position des Benutzers 106 relativ zum Anzeigebildschirm 108 für weitere Energieeinsparungen angepasst werden sollte.
  • Im Beispiel aus 1 ist das Anzeige-FoV 132 basierend auf einem beabsichtigten Betrachtungsabstand des Benutzers 106 von dem Anzeigebildschirm 108 und einem Betrachtungswinkel des Anzeigebildschirms 108 (z. B. einem maximalen Winkel, unter dem der Anzeigebildschirm 108 von einem Benutzer betrachtet werden kann) definiert mit angemessener visueller Ausgabe in Bezug auf Farbtöne, Kontrast usw., wie z. B. durch Herstellerspezifikationen definiert). Der Betrachtungswinkel und/oder der Betrachtungsabstand für den Anzeigebildschirm 108 können beispielsweise auf einer Größe des Anzeigebildschirms 108, der Art des Anzeigebildschirms (z. B. LCD) usw. basieren. Die beispielhafte Anzeigetafelsteuerung 130 analysiert die von dem bzw. den Bildsensoren 114 erzeugten Bilddaten, um zu bestimmen, ob sich der Benutzer 106 innerhalb des Anzeige-Sichtfelds 132 befindet, basierend auf dem bzw. den gelernten Gesichtsdetektionsmodellen und dem vordefinierten Bereich des Anzeige-FoV 132 für den Anzeigebildschirm 108
  • Im Beispiel aus 1, wenn die Anzeigetafelsteuerung 130 bestimmt, dass sich der Benutzer 106 innerhalb des Bildgebungs-FoV 116, aber nicht innerhalb des Anzeige-FoV 132 befindet, erzeugt die Anzeigetafelsteuerung 130 eine oder mehrere Anweisungen zum Einschalten oder Aktivieren der Tafelelektronik 112 basierend auf einer Wahrscheinlichkeit, dass der Benutzer 106 in naher Zukunft auf den Anzeigebildschirm 108 schaut, weil sich der Benutzer 106 in der Nähe des Benutzergeräts 104 befindet. Um jedoch unnötigen Stromverbrauch durch die Anzeigetafel 102 zu reduzieren, unterlässt die Anzeigetafelsteuerung 130 die Aktivierung der Hintergrundbeleuchtung 110, bis die Anzeigetafelsteuerung 130 bestimmt, dass sich der Benutzer 106 innerhalb des Anzeige-FoV 132 befindet.
  • Wenn die beispielhafte Anzeigetafelsteuerung 130 aus 1 bestimmt, dass sich der Benutzer innerhalb des Anzeige-FoV 132 befindet, analysiert die Anzeigetafelsteuerung 130 die Bilddaten unter Verwendung des bzw. der gelernten Gesichtsdetektionsmodelle, um eine Blickrichtung des Benutzers 106 relativ zu dem bzw. den Bildsensoren 114 zu identifizieren. Im Beispiel aus 1 dient die Blickrichtung des Benutzers relativ zu dem bzw. den Bildsensoren 114 als Indikator für den Blick des Benutzers relativ zum Anzeigebildschirm 108 und somit für die Aufmerksamkeit des Benutzers 106 auf den Anzeigebildschirm 108.
  • Die Anzeigetafelsteuerung 130 bestimmt die Blickrichtung basierend auf der Identifizierung von Gesichtsmerkmalen in den Bilddaten, einschließlich, ob zum Beispiel ein Ohr sichtbar ist, zwei Augen sichtbar sind usw. Basierend auf der Analyse des Blicks des Benutzers 106 bestimmt die Anzeigetafelsteuerung 130, ob der Benutzer 106 auf den Anzeigebildschirm 108 achtet (z. B. auf den Inhalt auf dem Anzeigebildschirm 108 achtet). Obwohl sich der Benutzer 106 im Anzeige-FoV 132 befindet, achtet der Benutzer 106 möglicherweise nicht auf den Anzeigebildschirm 108, sondern kann stattdessen zumindest teilweise vom Anzeigebildschirm 108 abgewandt sein, wie dargestellt durch den gekrümmten Pfeil 137 in 1. Zum Beispiel kann der Benutzer 106 an seinem Schreibtisch innerhalb des Anzeige-FoV 132 sitzen, aber vom Anzeigebildschirm 108 abgewandt sein, während er mit einem Kollegen spricht, ein Papierdokument liest usw. Die beispielhafte Anzeigetafelsteuerung 130 steuert die Helligkeit der Hintergrundbeleuchtung 110 basierend auf der Analyse des Blicks des Benutzers, um den Stromverbrauch weiter zu verwalten.
  • Insbesondere bestimmt, wenn sich der Benutzer 106 im Anzeige-FoV 132 befindet, die beispielhafte Anzeigetafel-Steuerung 130 aus 1 ein Benutzersichtfeld 138 basierend auf einer Position des Benutzers 106 innerhalb des Anzeigesichtfelds 132 (z. B. basierend auf x- und y-Koordinaten innerhalb des Anzeigesichtfelds 132) und einem Winkel eines Gesichts des Benutzers 106 relativ zu dem bzw. den Bildsensoren 114 des Benutzergeräts 104. Im Beispiel aus 1 ist der Benutzer-FoV 138 durch die gestrichelten Linien 140, 142 definiert. Um den Winkel des Gesichts des Benutzers relativ zu dem bzw. den Bildsensoren 114 zu bestimmen, analysiert die beispielhafte Anzeigetafelsteuerung 130 Gesichtsmerkmale und eine Ausrichtung eines Kopfes des Benutzers 106, wie sie in den Bilddaten erfasst sind, die von dem bzw. den Bildsensoren 114 gesammelt werden. Im Beispiel aus 1 wird die Anzeigetafelsteuerung 130 durch den Trainingsmanager 131 unter Verwendung von einem oder mehreren maschinellen Lernalgorithmen trainiert, um Gesichtsmerkmale zu erkennen.
  • Wenn beispielsweise die Anzeigetafelsteuerung 130 eine Nase oder einen Mund des Benutzers 106 in den Bilddaten identifiziert, bestimmt die Anzeigetafelsteuerung 130, dass der Blick des Benutzers direkt oder im Wesentlichen direkt auf den bzw. die Bildsensoren 114 gerichtet ist. Als Ergebnis bestimmt die Anzeigetafelsteuerung 130, dass sich der Anzeigebildschirm 108 innerhalb des Sichtfelds 138 des Benutzers befindet, und die Anzeigetafelsteuerung 130 weist die Hintergrundbeleuchtung 110 an, Licht mit einer Standardhelligkeitseinstellung auszugeben.
  • Wenn, als ein weiteres Beispiel, die Anzeigetafelsteuerung 130 nur ein Ohr des Benutzers 106 in den Bilddaten identifiziert, bestimmt die Anzeigetafelsteuerung 130, dass ein Gesicht des Benutzers 106 in einem Winkel relativ zu dem bzw. den Bildsensoren 114 ist (z. B. ist der Kopf des Benutzers in einem Winkel von 45-90° relativ zu dem bzw. den Bildsensoren 114 gedreht). Als Ergebnis reduziert (z. B. dimmt) die Anzeigetafelsteuerung 130 eine Helligkeit der Hintergrundbeleuchtung 110 um einen vordefinierten Prozentsatz, um Energie zu sparen, während der Benutzer 106 anwesend ist, aber nicht aktiv auf den Anzeigebildschirm 108 schaut. Anders ausgedrückt, wenn der Kopf des Benutzers in einem Winkel relativ zu dem bzw. den Bildsensoren 114 gedreht wird, blickt der Benutzer 106 nach rechts oder links auf den Anzeigebildschirm 108, und somit ist zumindest ein Teil des Anzeigebildschirms 108 nicht im Sichtfeld 138 des Benutzers. In solchen Beispielen kann die Hintergrundbeleuchtung 110 gedimmt werden, um Energie zu sparen, während der Blick des Benutzers vom Anzeigebildschirm 108 abgewendet ist.
  • Als weiteres Beispiel bestimmt, wenn die Anzeigetafelsteuerung 130 bestimmt, dass der Benutzer 106 innerhalb des Anzeige-FoV 132 anwesend ist, aber keine Gesichtsmerkmale wie Nase, Mund, Ohr usw. in den Bilddaten identifiziert, die Anzeigetafelsteuerung 130, dass der Blick des Benutzers in eine dem bzw. den Bildsensoren 114 entgegengesetzte Richtung gerichtet ist. Als Ergebnis weist die Anzeigetafelsteuerung 130 die Hintergrundbeleuchtung 110 an, sich auszuschalten, weil der Benutzer 106 nicht auf den Anzeigebildschirm 108 schaut, obwohl er innerhalb des Anzeige-FoV 132 anwesend ist. Anders ausgedrückt, wenn das Gesicht des Benutzers in eine dem bzw. den Bildsensoren 114 entgegengesetzte Richtung gerichtet ist, befindet sich der Anzeigebildschirm 108 nicht im Sichtfeld 138 des Benutzers, und daher kann die Hintergrundbeleuchtung 110 ausgeschaltet werden, um den Stromverbrauch zu reduzieren während der Benutzer 106 vom Anzeigebildschirm 108 abgewandt ist. Somit betrachtet die beispielhafte Anzeigetafelsteuerung 130 aus 1 die Ausrichtung des Gesichts des Benutzers 106 relativ zu dem bzw. den Bildsensoren 114 als einen Hinweis darauf, ob der Benutzer 106 auf den Anzeigebildschirm 108 achtet.
  • Die Anzeigetafelsteuerung 130 aus 1 analysiert die von dem bzw. den Bildsensoren 114 erzeugten Bilddaten in Bezug auf die Ausrichtung und Position des Benutzers 106 innerhalb des Anzeige-FoV 132, um Änderungen im Sichtfeld des Benutzers zu detektieren, wenn der Benutzer seinen Blick zum Benutzergerät 104 hin oder davon weg bewegt. Zum Beispiel kann die Anzeigetafelsteuerung 130 basierend auf Bilddaten, die zu einem ersten Zeitpunkt gesammelt wurden, bestimmen, dass der Blick des Benutzers von dem bzw. den Bildsensoren 114 abgewandt ist. Die Anzeigetafelsteuerung 130 weist die Hintergrundbeleuchtung 110 an, zu dimmen, weil bestimmt wird, dass der Benutzer 106 nicht auf den Anzeigebildschirm 108 achtet. Jedoch kann die Anzeigetafelsteuerung 130 dann basierend auf der Identifizierung von Gesichtsmerkmalen, wie etwa der Nase und des Mundes des Benutzers, in den Bilddaten, die zu einem zweiten Zeitpunkt nach dem ersten Zeitpunkt gesammelt wurden, bestimmen, dass der Blick des Benutzers auf den Anzeigebildschirm 108 gerichtet ist. Dementsprechend weist die Anzeigetafelsteuerung 130 die Hintergrundbeleuchtung 110 an, die Helligkeit zu erhöhen, um den Anzeigebildschirm 108 zu beleuchten, wenn der Benutzer 106 seinen Blick auf den Anzeigebildschirm 108 richtet.
  • In einigen Beispielen weist die Anzeigetafelsteuerung 130 die Hintergrundbeleuchtung 110 an, die Helligkeit allmählich zu erhöhen (z. B. um einen vordefinierten Prozentsatz), wenn die Anzeigetafelsteuerung 130 bestimmt, dass sich der Blick des Benutzers zum Anzeigebildschirm 108 hin wendet, oder die Helligkeit allmählich zu verringern (z. B. um einen vordefinierten Prozentsatz), wenn die Anzeigetafelsteuerung 130 bestimmt, dass sich der Blick des Benutzers vom Anzeigebildschirm 108 abwendet, um den Benutzer 106 nicht durch plötzliche Helligkeitsänderungen abzulenken oder zu stören. In einigen Beispielen steuert die Anzeigetafelsteuerung 130 die Änderungsrate der Helligkeit der Hintergrundbeleuchtung 110 auf Grundlage einer erwarteten rotatorischen Änderungsrate des Blicks des Benutzers auf den Anzeigebildschirm 108 zu diesem hin oder davon weg. Zum Beispiel kann die Anzeigetafelsteuerung 130 die Hintergrundbeleuchtung 110 anweisen, die Helligkeit mit einer ersten Rate zu erhöhen, wenn die Anzeigetafelsteuerung 130 bestimmt, dass der Blick des Benutzers auf den bzw. die Bildsensoren 114 (und somit den Anzeigebildschirm 108) gerichtet ist, aus einer Position, in der sich der Benutzer 106 in einem Winkel von 45° relativ zu dem bzw. den Bildsensoren 114 befindet. Die Anzeigetafelsteuerung 130 kann die Hintergrundbeleuchtung 110 anweisen, die Helligkeit mit einer zweiten Rate zu erhöhen, die langsamer als die erste Rate ist, wenn die Anzeigetafelsteuerung 130 bestimmt, dass sich der Blick des Benutzers von einer Position, in der der Benutzer 106 in eine dem bzw. den Bildsensoren 114 entgegengesetzte Richtung (d. h. 180° dazu) schaut, zu dem bzw. den Bildsensoren 114 hinwendet, da der Anzeigebildschirm 108 länger braucht, um in das Sichtfeld 138 des Benutzers einzutreten.
  • Als weiteres Beispiel kann die Anzeigetafelsteuerung 130 die Hintergrundbeleuchtung 110 anweisen, schneller zu dimmen, wenn ein Gesicht des Benutzers 106 in einem Winkel von 90° relativ zu dem bzw. den Bildsensoren 114, anstatt in einem Winkel von 60°, positioniert ist. Wie oben erwähnt, kann die Anzeigetafelsteuerung 130 zwischen verschiedenen Kopforientierungen basierend auf den in den Bilddaten identifizierten Gesichts- und/oder Kopfmerkmalen unterscheiden (z. B. ein Teil der Nase des Benutzers, ein vollständiges Bild eines Ohrs usw.). Da sich der Anzeigebildschirm 108 in solchen Beispielen nicht im Benutzer-FoV 138 befindet, wenn das Gesicht des Benutzers in einem Winkel von 90° relativ zu dem bzw. den Bildsensoren 114 positioniert ist, kann der Anzeigebildschirm 108 schnell gedimmt werden, ohne den Benutzer 106 zu stören, anders, als wenn das Gesicht des Benutzers bei 60° relativ zu dem bzw. den Bildsensoren 114 positioniert ist und der Anzeigebildschirm 108 zumindest teilweise im Benutzer-FoV 138 bleibt. Somit minimiert die Anzeigetafelsteuerung 130 die Störung für den Benutzer 106, wenn sich der Blick des Benutzers 106 unter verschiedenen Winkeln von dem bzw. den Bildsensoren 114 abwendet und zu diesen hin wendet.
  • Im Beispiel aus 1 kann die Analyse der Bilddaten und die entsprechende Steuerung der Anzeigetafel 102 durch die Anzeigetafelsteuerung 130 basierend auf gelerntem Feedback verfeinert werden. Zum Beispiel kann die Anzeigetafelsteuerung 130 die Rate, mit der die Hintergrundbeleuchtung 110 die Helligkeit des Anzeigebildschirms 108 erhöht oder verringert, basierend auf gelernten Daten in Bezug auf die rotatorische Änderungsrate des Blicks des Benutzers 106 (oder eines anderen Benutzers) hin zu dem bzw. den Bildsensoren 114 oder weg von diesen anpassen.
  • In einigen Beispielen kann der Benutzer 106 eine oder mehrere Einstellungen definieren, die von der Anzeigetafelsteuerung 130 implementiert werden sollen, beispielsweise in Bezug auf den Prozentsatz, um den die Hintergrundbeleuchtung 110 gedimmt wird, einen Zeitraum, nach dem die Tafelelektronik 112 ausschaltet, wenn der Benutzer 106 das Bildgebungs-FoV 116 verlässt usw. Somit kann der Benutzer 106 in einigen Beispielen die von der Anzeigetafelsteuerung 130 implementierten Energiesparmaßnahmen definieren, ändern und/oder außer Kraft setzen.
  • Somit analysiert die beispielhafte Anzeigetafelsteuerung 130 aus 1 Bilddaten, die von dem bzw. den Bildsensoren 114 des Benutzergeräts 104 in Bezug auf eine Anwesenheit und Aufmerksamkeit des Benutzers 106 relativ zum Anzeigebildschirm 108 erzeugt werden. Die beispielhafte Anzeigetafelsteuerung 130 verwaltet die von der Anzeigetafel 102 verbrauchte Leistung durch Steuern des bzw. der Betriebszustände der Hintergrundbeleuchtung 110 und/oder der Tafelelektronik 112 basierend auf der Anwesenheit des Benutzers 106 innerhalb des Bildgebungs-FoV 116 und des Anzeige-FoV 132. Ferner passt die Anzeigetafelsteuerung 130 die Hintergrundbeleuchtung 110 an, basierend auf dem Blick des Benutzers 106 und je nachdem, ob sich der Anzeigebildschirm 108 innerhalb des Sichtfelds 138 des Benutzers befindet oder nicht (z. B. basierend auf der Ausrichtung des Kopfes des Benutzers relativ zu dem bzw. den Bildsensoren 114).
  • In einigen Beispielen passt die Anzeigetafelsteuerung 130 gezielt den Stromverbrauch der Anzeigetafel 102 auf Grundlage von Daten von einem oder mehreren Umgebungslichtsensoren 144 des Benutzergeräts 104 an. Der bzw. die Umgebungslichtsensoren 144 aus 1 messen die Beleuchtungsstärke und erzeugen Daten, die Licht (z. B. Intensität) in der Umgebung anzeigen, in der sich das Benutzergerät 104 befindet. Im Beispiel aus 1, wenn Daten von dem bzw. den Umgebungslichtsensoren 144 anzeigen, dass der Raum dunkel oder schwach beleuchtet ist, weist die Anzeigetafelsteuerung 130 die Hintergrundbeleuchtung 110 an, die Helligkeit allmählich zu dimmen oder zu erhöhen, um einer erhöhten Empfindlichkeit des Benutzers 106 gegenüber Änderungen der Helligkeit in dunkler Umgebung Rechnung zu tragen (z. B. um den Eindruck zu vermeiden, dass die Anzeige flimmert).
  • In einigen Beispielen reduziert die Anzeigetafelsteuerung 130 den Stromverbrauch des Benutzergeräts 104 weiter basierend auf Daten von dem bzw. den Benutzereingabe-Detektionssensoren 113, die anzeigen, dass der Benutzer 106 aktiv mit dem Benutzergerät 104 beschäftigt ist (z. B. auf der Tastatur tippt). In solchen Beispielen spart die Anzeigetafelsteuerung 130 Stromkosten, indem sie den bzw. die Bildsensoren 114 anweist, keine Bilddaten zu erzeugen, und/oder indem sie davon absieht, Bilddaten in Bezug auf den Blick des Benutzers zu analysieren, da die Benutzereingaben anzeigen, dass der Benutzer derzeit anwesend ist und auf das Benutzergerät 104 achtet.
  • 2 ist ein Blockdiagramm einer beispielhaften Implementierung des Trainingsmanagers 131 und der Anzeigetafelsteuerung 130 aus 1. Der Trainingsmanager 131 dieses Beispiels umfasst einen Trainer 200 und eine Maschinenlern-Engine 202. Der Trainer 200 trainiert die Maschinenlern-Engine 202 unter Verwendung von Trainingsbilddaten 204 (z. B. durch überwachtes Lernen), um ein oder mehrere Modelle zu erzeugen, die von der Anzeigetafelsteuerung 130 verwendet werden, um Gesichter und/oder Gesichtsmerkmale eines Benutzers des Benutzergeräts 104 zu identifizieren. Die Trainingsbilddaten 204 können historische Bilddaten für den Benutzer 106 und/oder andere Subjekte umfassen. In einigen Beispielen umfassen die Trainingsbilddaten Bilddaten für einen bestimmten Benutzer 106, wenn die Anzeigetafelsteuerung 130 die Anzeigetafel 102 basierend auf der Detektion des bestimmten Benutzers 106 als Teil, beispielsweise, einer Sicherheitsrichtlinie für den Benutzerzugriff für das Benutzergerät 104 steuern (z. B. einschalten) soll. In anderen Beispielen können die Trainingsbilddaten 204 Bilddaten für mehrere menschliche Subjekte umfassen. Im Beispiel aus 2 werden die Trainingsbilddaten 204 in einer Datenbank 206 gespeichert. In einigen Beispielen umfasst der Trainingsmanager 131 die Datenbank 206. In anderen Beispielen befindet sich die Datenbank 206 außerhalb des Trainingsmanagers 131 an einem Ort, auf den der Trainingsmanager 131 zugreifen kann, wie gezeigt in 2.
  • Wie oben erwähnt, ist die beispielhafte Anzeigetafelsteuerung 130 konstruiert zur Verwaltung des Stromverbrauchs durch eine Anzeigetafel (z. B. die Anzeigetafel 102 aus 1) eines Benutzergeräts (z. B. des Benutzergeräts 104 aus 1) durch Anpassen des Betriebs einer oder mehrerer aus einer Hintergrundbeleuchtung (z. B. der Hintergrundbeleuchtung 110 aus 1) und Tafelelektronik (z. B. die Tafelelektronik 112 aus 1) der Anzeigetafel basierend auf der Anwesenheit und Aufmerksamkeit des Benutzers bezüglich eines Anzeigebildschirms (z. B. des Anzeigebildschirms 108 aus 1) des Benutzergeräts. Die Anzeigetafelsteuerung 130 empfängt Bilddaten 208 von dem bzw. den Bildsensoren 114 (z. B. einer nach vorne gerichteten Kamera) des Benutzergeräts 104 aus 1. Die Bilddaten 208 repräsentieren Objekte innerhalb des beispielhaften Bildgebungs-FoV 116 des bzw. der Bildsensoren 114, gezeigt in 1. Wie oben erwähnt, sind der bzw. die Bildsensoren 114 aus 1 ständig eingeschaltete Sensoren und können daher Bilddaten erzeugen, wenn sich das Benutzergerät 104 in einem eingeschalteten Zustand befindet, einschließlich eines Schlafmodus. Der bzw. die Bildsensoren 114 können die Bilddaten 208, die Bilddaten mit niedriger Auflösung sein können, mit einer Rate von beispielsweise 10 Frames pro Sekunde erzeugen.
  • Die Bilddaten 208 werden in einer Datenbank 210 gespeichert. In einigen Beispielen umfasst die Anzeigetafelsteuerung 130 die Datenbank 210. In anderen Beispielen befindet sich die Datenbank 210 außerhalb der Anzeigetafelsteuerung 130 an einem Ort, der für die Anzeigetafelsteuerung 130 zugänglich ist, wie gezeigt in 2. Die Datenbanken 206, 210 aus 2 kann die gleiche Speichervorrichtung oder andere Speichervorrichtungen sein.
  • Die beispielhafte Datenbank 210 aus 2 speichert Daten bezüglich des Bildgebungs-FoV 116 und des Anzeige-FoV 132. Daten bezüglich des Bildgebungs-FoV 116 und des Anzeige-FoV 132 können über eine oder mehrere Benutzereingaben bereitgestellt werden, beispielsweise basierend auf Herstellungsspezifikationen für den bzw. die Bildsensoren 114 und den Anzeigebildschirm 108 (z. B. Betrachtungswinkel, Sichtfeld, usw.).
  • Die beispielhafte Anzeigetafelsteuerung 130 aus 2 umfasst einen Benutzeranwesenheitsdetektor 212. Der Benutzeranwesenheitsdetektor 212 analysiert die Bilddaten 208 unter Verwendung von einem oder mehreren Maschinenlernmodellen, die während des Trainings durch den Trainer 200 erzeugt werden. Das bzw. die Maschinenlernmodelle umfassen ein oder mehrere Gesichtsdetektionsmodelle 214. Im Beispiel aus 1 werden das bzw. die Gesichtsdetektionsmodelle 214 in der Datenbank 210 gespeichert. Der Benutzeranwesenheitsdetektor 212 verwendet das bzw. die Gesichtsdetektionsmodelle 214, um eine Anwesenheit eines Benutzergesichts im Bildgebungs-FoV 116 zu identifizieren.
  • Die beispielhafte Anzeigetafelsteuerung 130 aus 2 umfasst einen Blickdetektor 216. Im Beispiel aus 2 weist der Benutzeranwesenheitsdetektor 212 den Blickdetektor 216 an, die Bilddaten 208 zu analysieren, um zu bestimmen, ob der Benutzer 106 im Anzeige-FoV 132 anwesend ist, wenn der Benutzeranwesenheitsdetektor 212 bestimmt, dass der Benutzer 106 im Bildgebungs-FoV 116 anwesend ist. Wenn der Benutzeranwesenheitsdetektor 212 bestimmt, dass sich der Benutzer 106 nicht im Bildgebungs-FoV 116 befindet, sieht der Benutzeranwesenheitsdetektor 212 davon ab, den Blickdetektor 216 anzuweisen, die Bilddaten 208 zu analysieren, um den Stromverbrauch zu reduzieren, da der Benutzeranwesenheitsdetektor 212 bereits bestimmt hat, dass der Benutzer 106 nicht anwesend ist bezüglich des Benutzergeräts 104 aus 1.
  • Der beispielhafte Blickdetektor 216 analysiert die Bilddaten 208 unter Verwendung des bzw. der Gesichtsdetektionsmodelle 214, um zu bestimmen, ob der Benutzer 106 im Anzeige-FoV 132 anwesend ist. Wenn der Blickdetektor 216 bestimmt, dass sich der Benutzer 106 im Anzeige-FoV 132 befindet, analysiert der Blickdetektor die Gesichtsmerkmale des Benutzers 106 in den Bilddaten 208 unter Verwendung des bzw. der Gesichtsdetektionsmodelle 214, um die Position des Benutzers 106 innerhalb des Anzeige-FoV 132, einen Blickwinkel des Benutzers relativ zu dem bzw. den Bildsensoren 114 und somit das Sichtfeld des Benutzers 138 zu bestimmen. Zum Beispiel identifiziert der Blickdetektor 216 Gesichtsmerkmale wie Mund, Nase, Auge(n) und Ohr(en) des Benutzers 106 in den Bilddaten 208, um zu bestimmen, ob der Benutzer 106 dem bzw. den Bildsensoren 114 zugewandt ist, in einem Winkel relativ zu dem bzw. den Bildsensoren 114 schaut oder von dem bzw. den Bildsensoren 114 abgewandt ist. Basierend auf dem Winkel des Gesichts des Benutzers relativ zu dem bzw. den Bildsensoren 114 bestimmt der Blickdetektor 216, ob der Benutzer auf den Anzeigebildschirm 108 achtet oder nicht darauf achtet. Wenn der Blickdetektor 216 beispielsweise bestimmt, dass der Benutzer 106 dem bzw. den Bildsensoren 114 zugewandt ist und sich somit der Anzeigebildschirm innerhalb des Sichtfelds des Benutzers befindet, bestimmt der Blickdetektor 216, dass der Benutzer 106 auf den Anzeigebildschirm 108 achtet. Wenn der Blickdetektor 216 detektiert, dass ein Gesicht des Benutzers 106 in einem Winkel relativ zu dem bzw. den Bildsensoren 114 steht und somit der Anzeigebildschirm 108 teilweise aus dem Sichtfeld des Benutzers entfernt ist, bestimmt der Blickdetektor 216, dass der Benutzer bezüglich des Anzeigebildschirms 108 nicht aufmerksam ist. In einigen Beispielen verifiziert der Blickdetektor 216, dass sich der Anzeigebildschirm 108 nicht im Sichtfeld des Benutzers oder zumindest teilweise im Sichtfeld des Benutzers befindet, basierend auf der Position des Benutzers innerhalb des Anzeige-FoV 132 (z. B. unter Verwendung von xy-Koordinaten).
  • Die beispielhafte Anzeigetafelsteuerung 130 aus 2 umfasst den Tafelelektronikmanager 218. Der Tafelelektronikmanager 218 erzeugt Anweisungen, die an die Tafelelektronik 112 der Anzeigetafel 102 aus 1 gesendet werden, um den Betrieb der Tafelelektronik 112 der Anzeigetafel 102 zu steuern. Der Tafelelektronikmanager 218 sendet die eine oder mehreren Anweisungen über eine oder mehrere kabelgebundene oder kabellose Verbindungen an die Tafelelektronik 112. Die beispielhafte Anzeigetafelsteuerung 130 aus 2 umfasst einen Hintergrundbeleuchtungsmanager 220. Der Hintergrundbeleuchtungsmanager 220 erzeugt eine oder mehrere Anweisungen zum Steuern des Betriebs der Hintergrundbeleuchtung 110 der Anzeigetafel 102 aus 1. Der Hintergrundbeleuchtungsmanager 220 sendet die eine oder mehreren Anweisungen über eine oder mehrere kabelgebundene oder kabellose Verbindungen an die Hintergrundbeleuchtung 110. Im Beispiel aus 2 kommunizieren der Benutzeranwesenheitsdetektor 212 und der Blickdetektor 216 mit dem Tafelelektronikmanager 218 und dem Hintergrundbeleuchtungsmanager 220, um den Betrieb der Anzeigetafel 102 basierend auf einer Anwesenheit und Aufmerksamkeit des Benutzers 106 in Bezug auf das Benutzergerät 104 zu steuern.
  • Im Beispiel aus 1 sendet der Benutzeranwesenheitsdetektor 212 eine erste Nachricht an den Tafelelektronikmanager 218, die anzeigt, dass der Benutzer anwesend ist, wenn der Benutzeranwesenheitsdetektor 212 bestimmt, dass der Benutzer 106 im Bildgebungs-FoV 116 anwesend ist. Wenn der Benutzeranwesenheitsdetektor 212 bestimmt, dass der Benutzer 106 im Bildgebungs-FoV 116 nicht anwesend ist, sendet der Benutzeranwesenheitsdetektor 212 eine zweite Nachricht an den Tafelelektronikmanager 218, die anzeigt, dass der Benutzer nicht anwesend ist. Die erste und zweite Nachricht können Metadaten (z. B. „1“ für anwesend und „0“ für nicht anwesend) anstelle der tatsächlichen Bilddaten beinhalten, um den Stromverbrauch durch die Anzeigetafelsteuerung 130 beim Verwalten der Anzeigetafel 102 zu reduzieren.
  • Der Tafelelektronikmanager 218 erzeugt und überträgt die eine oder mehreren Anweisungen für die Tafelelektronik 112 auf Grundlage der vom Benutzeranwesenheitsdetektor 212 empfangenen Nachricht(en) und einer oder mehreren Tafelelektronikregeln 222. Die eine oder mehreren Tafelelektronikregeln 222 sind in der Datenbank 210 gespeichert. Die eine oder mehreren Tafelelektronikregeln 222 definieren Betriebszustände (z. B. ein oder aus) für die Tafelelektronik 112 auf Grundlage der Anwesenheit oder Abwesenheit des Benutzers 106 im Bildgebungs-FoV 116. Zum Beispiel können die eine oder mehreren Tafelelektronikregeln 222 angeben, dass, wenn der Benutzer 106 im Bildgebungs-FoV 116 anwesend ist, die Tafelelektronik 112 eingeschaltet werden soll, und dass, wenn der Benutzer 106 nicht im Bildgebungs-FoV 116 anwesend ist, die Tafelelektronik 112 ausgeschaltet werden soll. Die eine oder mehreren Tafelelektronikregeln 222 können basierend auf einer oder mehreren Benutzereingaben definiert werden.
  • Wie oben offenbart, wird der Betrieb der Hintergrundbeleuchtung 110 basierend auf der Anwesenheit des Benutzers 106 innerhalb des Anzeige-FoV 132 und insbesondere des Blicks des Benutzers 106 relativ zu dem bzw. den Bildsensoren 114 gesteuert. Im Beispiel aus 2 sendet der Blickdetektor 216, wenn der Blickdetektor 216 bestimmt, dass der Benutzer im Anzeige-FoV 132 anwesend und aufmerksam ist, eine erste Nachricht an den Hintergrundbeleuchtungsmanager 220, die angibt, dass der Benutzer 106 aufmerksam ist. Wenn der Blickdetektor 216 feststellt, dass der Benutzer 106 im Sichtfeld 132 der Anzeige anwesend, aber nicht aufmerksam ist, sendet der Blickdetektor 216 eine zweite Nachricht an den Hintergrundbeleuchtungsmanager 220, die angibt, dass der Benutzer 106 nicht aufmerksam ist oder, anders ausgedrückt, dass der Anzeigebildschirm zumindest teilweise aus dem Sichtfeld des Benutzers entfernt ist. Die vom Blickdetektor 216 gesendete(n) Nachricht(en) kann bzw. können eine Angabe einer Blickrichtung des Benutzers 106 relativ zu dem bzw. den Bildsensoren 114 (z. B. dem bzw. den Bildsensoren 114 direkt zugewandt, gegenüber dem bzw. den Bildsensoren 114 nach links gedreht, von dem bzw. den Bildsensoren 114 abgewandt usw.).
  • Der Hintergrundbeleuchtungsmanager 220 erzeugt und überträgt die Anweisung(en) für die Hintergrundbeleuchtung 110 auf Grundlage der Nachricht(en), die von dem Blickdetektor 216 in Bezug auf den Blick des Benutzers empfangen wird bzw. werden, und einer oder mehrerer Hintergrundbeleuchtungsregeln 224. Die eine oder mehreren Hintergrundbeleuchtungsregeln 224, die in der Datenbank 210 gespeichert sind, definieren ein Helligkeitsniveau (z. B. Lumenmessung), das von der Hintergrundbeleuchtung 110 basierend auf dem Blick des Benutzers relativ zu dem bzw. den Bildsensoren 114, wie durch den Winkel des Gesichts des Benutzers 106 relativ zu dem bzw. den Bildsensoren 114 angegeben, und dem entsprechenden Benutzersichtfeld 138 ausgegeben werden soll.
  • Zum Beispiel kann bzw. können die Hintergrundbeleuchtungsregel(n) 224 angeben, dass, wenn die Tafelelektronik 112 ausgeschaltet ist (z. B. wenn der Benutzer 106 nicht anwesend ist), die Hintergrundbeleuchtung 110 ausgeschaltet werden sollte. Die Hintergrundbeleuchtungsregel(n) 224 kann bzw. können angeben, dass, wenn die Tafelelektronik 112 eingeschaltet ist, die Hintergrundbeleuchtung 110 eingeschaltet werden sollte, aber eine Helligkeit der Hintergrundbeleuchtung 110 basierend auf dem Blick des Benutzers relativ zu dem bzw. den Bildsensoren angepasst werden sollte. Zum Beispiel kann bzw. können die Hintergrundbeleuchtungsregel(n) 224 angeben, dass, wenn der Blick des Benutzers auf den bzw. die Bildsensor(en) 114 gerichtet ist, eine Helligkeit der Hintergrundbeleuchtung 110 auf eine Standardhelligkeitseinstellung eingestellt werden sollte. Die Hintergrundbeleuchtungsregel(n) 224 kann bzw. können angeben, dass, wenn der Blick des Benutzers 30°-45° von dem bzw. den Bildsensoren 114 abgewandt ist (d. h. der Benutzer-FoV 138 von dem elektronischen Gerät aus nach rechts oder links gerichtet ist), die Helligkeit der Hintergrundbeleuchtung 110 auf 90 % der Standardhelligkeit verringert werden sollte. Die Hintergrundbeleuchtungsregel(n) 224 kann bzw. können besagen, dass die Helligkeit der Hintergrundbeleuchtung 110 auf 50 % der Standardhelligkeit verringert werden sollte, wenn der Blick des Benutzers in einem Winkel von 45°-90° relativ zu dem bzw. den Bildsensoren 114 liegt. Die Hintergrundbeleuchtungsregel(n) 224 kann bzw. können besagen, dass die Hintergrundbeleuchtung 110 ausgeschaltet werden kann, wenn der Blick des Benutzers um 180° von dem bzw. den Bildsensoren 114 abgewandt ist, da sich der Anzeigebildschirm 108 nicht im Sichtfeld des Benutzers befindet. Die Hintergrundbeleuchtungsregel(n) 224 kann bzw. können unterschiedliche Körnigkeitsgrade in Bezug auf die Helligkeit der Hintergrundbeleuchtung 110 und die Blickrichtung des Benutzers definieren.
  • In einigen Beispielen definiert bzw. definieren die Hintergrundbeleuchtungsregel(n) 224 die Helligkeit der Hintergrundbeleuchtung 110 basierend auf Daten, die eine Umgebungsbeleuchtung in der Umgebung angeben, in der sich das Benutzergerät 104 befindet. Die beispielhafte Anzeigetafelsteuerung 130 umfasst einen Umgebungslichtanalysator 226 zum Analysieren von Umgebungslichtdaten 228, die von dem bzw. den Umgebungslichtsensoren 144 in Bezug auf eine Helligkeit der Umgebung gesammelt wurden. Basierend auf der Analyse der Umgebungslichtdaten 228 implementiert der Hintergrundbeleuchtungsmanager 220 eine oder mehrere Hintergrundbeleuchtungsregeln 224, die eine Rate definieren, mit der die Hintergrundbeleuchtung 110 gedimmt oder aufgehellt werden sollte, um beispielsweise eine erhöhte Empfindlichkeit des Benutzers 106 gegenüber Helligkeitsänderungen in dunkler Umgebung zu berücksichtigen.
  • Im Beispiel aus 2 analysieren der Benutzeranwesenheitsdetektor 212 und der Blickdetektor 216 weiterhin die Bilddaten 208, die von dem bzw. den Bildsensoren 114 im Laufe der Zeit erzeugt werden. Wenn der Blickdetektor 216 basierend auf den Bilddaten 208, die in zwei oder mehr Zeiträumen gesammelt wurden (z. B. das Gesicht des Benutzers wendet sich zu dem bzw. den Bildsensoren 114 hin oder von diesen ab), bestimmt, dass sich eine Blickrichtung des Benutzers ändert, implementiert der Hintergrundbeleuchtungsmanager 220 eine oder mehrere Hintergrundbeleuchtungsregeln 224, die eine Rate definieren, mit der die Hintergrundbeleuchtung 110 gedimmt oder aufgehellt werden sollte, wenn sich die Blickrichtung des Benutzers ändert und der Anzeigebildschirm in das Sichtfeld des Benutzers eintritt oder dieses verlässt. Zum Beispiel kann bzw. können die Hintergrundbeleuchtungsregel(n) 224 angeben, dass die Hintergrundbeleuchtung 110 schneller heller werden sollte, wenn sich der Benutzer 106 aus einem Anfangswinkel von 60° weg von dem bzw. den Sensoren 114 hin zu dem bzw. den Bildsensoren 114 wendet, als bei einer Position, in der der Benutzer 180° von dem bzw. den Bildsensoren 114 abgewandt war. Diese Regel(n) berücksichtigt bzw. berücksichtigen eine Zeitdauer, die der Anzeigebildschirm 108 benötigt, um in das Sichtfeld des Benutzers einzutreten, wenn sich die Blickrichtung des Benutzers ändert.
  • Die beispielhafte Anzeigetafelsteuerung 130 aus 2 umfasst einen Feedbackanalysator 227. Der beispielhafte Feedbackanalysator 227 analysiert Muster und/oder Trends in Bezug auf das Benutzerverhalten, um die Hintergrundbeleuchtungsregel(n) 224 zu verfeinern. Zum Beispiel analysiert der Feedbackanalysator 227 eine Zeitdauer, die der Benutzer 106 benötigt, um eine Richtung seines Blicks zu dem bzw. den Bildsensoren 114 hin oder von diesen weg zu ändern, um die Hintergrundbeleuchtungsregel(n) 224 einzustellen, die die Geschwindigkeit definiert bzw. definieren, mit der die Hintergrundbeleuchtung 110 gedimmt oder aufgehellt werden sollte. In einigen Beispielen passt der Feedbackanalysator 227 die Tafelelektronikregel(n) 222 und/oder die Hintergrundbeleuchtungsregel(n) 224 basierend auf einer oder mehreren Benutzereinstellungen 232 an. Die Benutzereinstellung(en) 232 kann bzw. können Benutzerpräferenzen in Bezug auf Helligkeitspegel für die Hintergrundbeleuchtung 110, Helligkeitsänderungen, wenn der Benutzer 106 von dem bzw. den Bildsensoren 114 wegschaut, usw. definieren. In einigen Beispielen kommuniziert der Feedbackanalysator 227 mit dem Trainer 200 des Trainingsmanagers 131, um das bzw. die Gesichtsdetektionsmodelle 214 basierend auf den Bilddaten 208, umfassend den Benutzer 106, zu verfeinern, die von dem bzw. den Bildsensoren 114 während des Betriebs des Benutzergeräts 104 gesammelt wurden.
  • In einigen Beispielen implementiert die Anzeigetafelsteuerung 130 aus 2 zusätzliche Energiesparmaßnahmen, um das Energiemanagement der Anzeigetafel 102 zu ergänzen. Beispielsweise werden in einigen Beispielen die Bilddaten 208 temporär in der Datenbank 210 gespeichert und nach der Analyse der Bilddaten durch den Benutzeranwesenheitsdetektor 212 und den Blickdetektor 216 gelöscht. In einigen Beispielen werden die zu einem ersten Zeitpunkt gesammelten Bilddaten 208 mit zu einem späteren Zeitpunkt gesammelten neuen Bilddaten 208 überschrieben. Die temporäre Speicherung der Bilddaten 208 spart Speicherressourcen, da die Anzeigetafelsteuerung 130 in einem Niederleistungsmodus arbeitet.
  • Als ein weiteres Beispiel umfasst die Anzeigetafelsteuerung 130 aus 2 einen Benutzerinteraktionsdetektor 229 zum Analysieren von Daten, die durch den bzw. die Benutzereingabe-Detektionssensoren 113 aus 1 erzeugt werden, die indikativ für eine Benutzerinteraktion mit dem Benutzergerät 104 (z. B. Tastatur) sind. Im Beispiel aus 2 weist der Tafelelektronikmanager 218 die Tafelelektronik 112 in einen eingeschalteten Zustand an, und der Hintergrundbeleuchtungsmanager 220 weist die Hintergrundbeleuchtung 110 an, mit einer Standardhelligkeitseinstellung zu arbeiten, wenn der Benutzerinteraktionsdetektor 229 bestimmt, dass der Benutzer 106 mit dem Benutzergerät 104 interagiert. In einigen solchen Beispielen weist der Benutzerinteraktionsdetektor 229 den Benutzeranwesenheitsdetektor 212 und den Blickdetektor 216 an, die Analyse der Bilddaten 208 zu unterlassen, da der Benutzer 106 anwesend ist und mit dem Benutzergerät 104 beschäftigt ist. In einigen solchen Beispielen weist der Benutzerinteraktionsdetektor 229 den bzw. die Bildsensoren 114 an, keine Bilddaten 208 zu erzeugen, um Energie zu sparen, während der Benutzer 106 mit dem Benutzergerät 104 beschäftigt ist. In solchen Beispielen können der bzw. die Bildsensoren 114 immer noch Bilddaten in Verbindung mit einer oder mehreren anderen Anwendungen 107 erzeugen, die auf dem Benutzergerät 104 installiert sind, wie beispielsweise eine Videokonferenzanwendung.
  • In einigen Beispielen sorgt die Anzeigetafelsteuerung 130 zusätzlich zum Verwalten des Betriebs der Hintergrundbeleuchtung 110 und der Tafelelektronik 112 für zusätzliche Energieeinsparungen am Benutzergerät 104. Die beispielhafte Anzeigetafelsteuerung 130 umfasst einen Anwendungsnutzungsdetektor 230. Der Anwendungsnutzungsdetektor 230 bestimmt, ob eine oder mehrere Anwendungen 107 auf dem Benutzergerät 104 aus 1 in Betrieb sind, wenn der Benutzer 106 am Benutzergerät 104 anwesend ist, jedoch nicht auf den Anzeigebildschirm 108 achtet. In solchen Beispielen löst der Anwendungsnutzungsdetektor 230 die Anzeige einer Vollbildgrafik über den Anzeigebildschirm 108 aus, wodurch bewirkt wird, dass die eine oder mehreren anderen Anwendungen 107 vom Prozessor 109 des Benutzergeräts 104 als ein oder mehrere Hintergrundfenster behandelt werden. Wenn die Anwendung(en) 107 als ein oder mehrere Hintergrundfenster behandelt wird bzw. werden, kann die Aktivität in Bezug auf das Rendern von Bilddaten, die der bzw. den Anwendungen 107 zugeordnet sind, reduziert werden.
  • Während eine beispielhafte Art und Weise der Implementierung des Trainingsmanagers 131 aus 1 in 2 dargestellt ist, können ein oder mehrere der Elemente, Prozesse und/oder Vorrichtungen, die in 2 dargestellt sind, kombiniert, geteilt, neu angeordnet, weggelassen, eliminiert und/oder auf andere Weise implementiert werden. Ferner können der beispielhafte Trainer 200, die beispielhafte Maschinenlern-Engine 202, die beispielhafte Datenbank 206 und/oder, allgemeiner, der beispielhafte Trainingsmanager 131 aus 2 durch Hardware, Software, Firmware und/oder eine beliebige Kombination von Hardware, Software und/oder Firmware implementiert werden. Somit könnte beispielsweise jedes aus dem beispielhaften Trainer 200, der beispielhaften Maschinenlern-Engine 202, der beispielhaften Datenbank 206 und/oder, allgemeiner, dem beispielhaften Trainingsmanager 131 durch eine(n) oder mehrere analoge oder digitale Schaltungen, Logikschaltungen, programmierbare Prozessoren, programmierbare Steuerungen, Grafikprozessoren (GPU(s)), digitale Signalprozessoren (DSP(s)), anwendungsspezifische integrierte Schaltungen (ASIC(s)), programmierbare Logikvorrichtungen (PLD(s)) und/oder feldprogrammierbare Logikvorrichtungen (FPLD(s)) implementiert werden. Beim Lesen eines der Vorrichtungs- oder Systemansprüche dieses Patents zur Abdeckung einer reinen Software- und/oder Firmware-Implementierung, ist bzw. sind mindestens eines aus dem beispielhaften Trainer 200, der beispielhaften Maschinenlern-Engine 202 und/oder der beispielhaften Datenbank 206 hiermit ausdrücklich als eine nicht-flüchtige computerlesbare Speichervorrichtung oder eine Speicherplatte, wie etwa ein Speicher, eine DVD (Digital Versatile Disk), eine CD (Compact Disk), eine Blu-ray-Disk usw., einschließlich der Software und/oder Firmware, umfassend definiert. Darüber hinaus kann der beispielhafte Trainingsmanager 131 aus 2 ein oder mehrere Elemente, Prozesse und/oder Vorrichtungen zusätzlich zu oder anstelle der in 2 dargestellten umfassen und/oder kann mehr als eines oder alle der dargestellten Elemente, Prozesse und Vorrichtungen umfassen. Wie hierin verwendet, schließt der Ausdruck „in Kommunikation“, einschließlich Variationen davon, eine direkte Kommunikation und/oder indirekte Kommunikation über eine oder mehrere zwischenliegende Komponenten ein und erfordert keine direkte physische (z. B. verdrahtete) Kommunikation und/oder konstante Kommunikation, sondern umfasst stattdessen zusätzlich eine gezielte Kommunikation mit periodischen Intervallen, geplanten Intervallen, aperiodischen Intervallen und/oder einmalige Ereignisse.
  • Während eine beispielhafte Art und Weise des Implementierens der Anzeigetafelsteuerung 130 aus 1 in 2 dargestellt ist, können ein oder mehrere der Elemente, Prozesse und/oder Vorrichtungen, die in 2 dargestellt sind, kombiniert, geteilt, neu angeordnet, weggelassen, eliminiert und/oder auf andere Weise implementiert werden. Ferner können die beispielhafte Datenbank 210, der beispielhafte Benutzeranwesenheitsdetektor 212, der beispielhafte Blickdetektor 216, der beispielhafte Tafelelektronikmanager 218, der beispielhafte Hintergrundbeleuchtungsmanager 220, der beispielhafte Umgebungslichtanalysator 226, der beispielhafte Feedbackanalysator 227, der beispielhafte Benutzerinteraktionsdetektor 229, der beispielhafte Anwendungsnutzungsdetektor 230 und/oder, allgemeiner, der beispielhafte Anzeigetafelcontroller 130 aus 3 durch Hardware, Software, Firmware und/oder eine beliebige Kombination von Hardware, Software und/oder Firmware implementiert werden. Somit kann beispielsweise ein beliebiges aus der beispielhaften Datenbank 210, dem beispielhaften Benutzeranwesenheitsdetektor 212, dem beispielhaften Blickdetektor 216, dem beispielhaften Tafelelektronikmanager 218, dem beispielhaften Hintergrundbeleuchtungsmanager 220, dem beispielhaften Umgebungslichtanalysator 226, dem beispielhaften Feedbackanalysator 227, dem beispielhaften Benutzerinteraktionsdetektor 229, dem beispielhaften Anwendungsnutzungsdetektor 230 und/oder, allgemeiner, der beispielhaften Anzeigetafelsteuerung 130 durch eine(n) oder mehrere analoge oder digitale Schaltungen, Logikschaltungen, programmierbare Prozessoren, programmierbare Steuerungen, Grafikprozessoren (GPU(s)), digitale Signalprozessoren (DSP(s)), anwendungsspezifische integrierte Schaltungen (ASIC(s)), programmierbare Logikvorrichtungen (PLD(s)) und/oder feldprogrammierbares Logikvorrichtungen (FPLD(s)) implementiert werden. Beim Lesen eines der Vorrichtungs- oder Systemansprüche dieses Patents zur Abdeckung einer reinen Software- und/oder Firmware-Implementierung ist bzw. sind mindestens eines aus der beispielhaften Datenbank 210, dem beispielhaften Benutzeranwesenheitsdetektor 212, dem beispielhaften Blickdetektor 216, dem beispielhaften Tafelelektronikmanager 218, dem beispielhaften Hintergrundbeleuchtungsmanager 220, dem beispielhaften Umgebungslichtanalysator 226, dem beispielhaften Feedbackanalysator 227, dem beispielhaften Benutzerinteraktionsdetektor 229 und/oder dem beispielhaften Anwendungsnutzungsdetektor 230 hiermit ausdrücklich als eine nicht-flüchtige computerlesbare Speichervorrichtung oder eine Speicherplatte, wie etwa ein Speicher, eine DVD (Digital Versatile Disk), eine CD (Compact Disk), eine Blu-ray-Disk usw., einschließlich der Software und/oder Firmware, umfassend definiert. Darüber hinaus kann, weiterhin, die beispielhafte Anzeigetafelsteuerung 130 aus 2 ein oder mehrere Elemente, Prozesse und/oder Vorrichtungen zusätzlich zu oder anstelle der in 2 dargestellten umfassen und/oder kann mehr als eines oder alle der dargestellten Elemente, Prozesse und Vorrichtungen umfassen. Wie hierin verwendet, schließt der Ausdruck „in Kommunikation“, einschließlich Variationen davon, eine direkte Kommunikation und/oder indirekte Kommunikation über eine oder mehrere zwischenliegende Komponenten ein und erfordert keine direkte physische (z. B. verdrahtete) Kommunikation und/oder konstante Kommunikation, sondern umfasst stattdessen zusätzlich eine gezielte Kommunikation mit periodischen Intervallen, geplanten Intervallen, aperiodischen Intervallen und/oder einmalige Ereignisse.
  • 3 zeigt eine grafische Darstellung der Tafelelektronikregel(n) 222 und der Hintergrundbeleuchtungsregel(n) 224, die von dem Tafelelektronikmanager 218 und dem Hintergrundbeleuchtungsmanager 220 der beispielhaften Anzeigetafelsteuerung 130 aus 2 basierend darauf implementiert werden sollen, ob der Benutzeranwesenheitsdetektor 212 aus 2 ein Gesicht in dem Bildgebungs-FoV 116 detektiert, das dem bzw. den Bildsensoren 114 zugeordnet ist. Wie in 3 dargestellt, gibt bzw. geben, wenn der Benutzeranwesenheitsdetektor 212 ein Gesicht in dem Bildgebungs-FoV 116 detektiert, die beispielhaften Tafelelektronikregeln 222 an, dass die Tafelelektronik 112 der Anzeigetafel 102 eingeschaltet werden sollte. Auch die beispielhafte(n) Hintergrundbeleuchtungsregel(n) 224 aus 3 gibt bzw. geben an, dass die Hintergrundbeleuchtung 110 der Anzeigetafel 102 zum Beispiel mit einer Standardhelligkeitseinstellung eingeschaltet werden sollte, in Erwartung, dass der Benutzer 106 den Anzeigebildschirm 108 betrachtet. Wie auch in 3 dargestellt, gibt bzw. geben, wenn der Benutzeranwesenheitsdetektor 212 kein Gesicht in dem Bildgebungs-FoV 116 detektiert, die Regel(n) 222 an, dass die Tafelelektronik 112 und die Hintergrundbeleuchtung der Anzeigetafel 102 ausgeschaltet werden sollte.
  • 4 zeigt eine grafische Darstellung der Hintergrundbeleuchtungsregel(n) 224, die von dem Hintergrundbeleuchtungsmanager 220 der beispielhaften Anzeigetafelsteuerung 130 aus 2 implementiert werden sollen, basierend auf der Blickrichtung des Benutzers und somit dem Sichtfeld des Benutzers relativ zu dem bzw. den Bildsensoren 114 des Benutzergeräts 104. Obwohl sich der Benutzer 106, wie oben erwähnt, innerhalb des Anzeige-FoV 132 befinden kann, kann es Fälle geben, in denen der Benutzer 106 nicht auf den Anzeigebildschirm 108 achtet. In solchen Beispielen kann die Helligkeit der Hintergrundbeleuchtung 110 zum Energiesparen angepasst werden.
  • Wie in 4 dargestellt, gibt bzw. geben die Hintergrundbeleuchtungsregel(n) 224 an, dass die Hintergrundbeleuchtung 110 auf die Standardhelligkeitseinstellung eingestellt werden sollte, wenn der Blickdetektor 216 basierend auf der Gesichtsmerkmalserkennung der Bilddaten 208, die von dem bzw. den Bildsensoren 114 erzeugt werden, bestimmt, dass das Gesicht des Benutzers auf den bzw. die Bildsensoren 114 gerichtet oder im Wesentlichen auf den bzw. die Bildsensoren 114 gerichtet ist. Wenn der Blickdetektor 216 basierend auf der Gesichtsmerkmalsanalyse bestimmt, dass das Gesicht des Benutzers in einem Winkel relativ zu dem bzw. den Bildsensoren 114 gedreht ist (z. B. 45°, 90°), zeigt bzw. zeigen die Hintergrundbeleuchtungsregel(n) 224 an, dass eine Helligkeit der Hintergrundbeleuchtung 110 um einen bestimmten Prozentsatz (z. B. 90 %, 50 %) gedimmt werden sollte, wenn der Anzeigebildschirm 108 außerhalb des Sichtfelds des Benutzers oder zumindest teilweise davon entfernt ist. Wenn der Blickdetektor 216 bestimmt, dass das Gesicht des Benutzers um 180°, d. h. in einem dem bzw. den Bildsensoren 114 entgegengesetzte Richtung gerichtet ist (z. B. aufgrund des Fehlens von Gesichtsmerkmalen wie Mund oder Nase in den Bilddaten), gibt bzw. geben die Hintergrundbeleuchtungsregel(n) 224 an, dass die Hintergrundbeleuchtung 110 ausgeschaltet werden sollte.
  • 5 stellt einen Graphen 500 dar, der Änderungen der Leistungszustände der Hintergrundbeleuchtung 110 und der Tafelelektronik 112 des Benutzergeräts 104 (1) über die Zeit basierend auf der Aufmerksamkeit und Anwesenheit eines Benutzers (z. B. des Benutzers 106) zeigt. Wie im Graphen 500 aus 5 gezeigt, bestimmt zum Zeitpunkt t1 die Anzeigetafelsteuereinheit 130 aus 1 und 2, dass der Benutzer aufmerksam ist, beispielsweise basierend auf der Detektion von Benutzereingaben an der elektronischen Vorrichtung (z. B. über den bzw. die Benutzereingabe-Detektionssensoren 113 aus 1). In einigen Beispielen bestimmt die Anzeigetafelsteuerung 130, dass der Benutzer aufmerksam ist, basierend auf einer Blickrichtung des Benutzers relativ zu dem bzw. den Bildsensoren 114 aus 1 und 2 (z. B. wie basierend auf den Bilddaten 208 und dem bzw. den Gesichtsdetektionsmodellen 214 bestimmt). Dementsprechend weist zum Zeitpunkt t1 der Tafelelektronikmanager 218 der Anzeigetafelsteuerung 130 die Tafelelektronik 112 an, sich im eingeschalteten Zustand zu befinden. Außerdem weist der Hintergrundbeleuchtungsmanager 220 die Hintergrundbeleuchtung 110 an, sich in einem eingeschalteten Zustand zu befinden und Licht, beispielsweise, mit einem Standardhelligkeitspegel auszugeben.
  • Zum Zeitpunkt t2 bestimmt die Anzeigetafelsteuereinheit 130 aus 1 und 2, dass der Benutzer nicht aufmerksam ist, basierend auf der Richtung des Benutzerblicks relativ zu dem bzw. den Bildsensoren 114 (z. B. wie basierend auf den Bilddaten 208 und dem bzw. den Gesichtsdetektionsmodellen 214 bestimmt). Somit weist der Hintergrundbeleuchtungsmanager 220 die Hintergrundbeleuchtung 110 an, die Helligkeit zu verringern. Im Beispiel aus 5 weist der Hintergrundbeleuchtungsmanager 220 die Hintergrundbeleuchtung 110 an, die Helligkeit über den Zeitraum, in dem bestimmt wird, dass der Benutzer unaufmerksam ist, allmählich die Helligkeit zu verringern, beispielsweise auf Grundlage der Hintergrundbeleuchtungsregel(n) 224. Die allmähliche Verringerung der Helligkeit kann verhindern, dass das Abdunkeln der Hintergrundbeleuchtung 110 den Benutzer ablenkt, während der Benutzer beispielsweise an seinem Schreibtisch sitzt, aber die elektronische Vorrichtung 102 nicht verwendet, im Vergleich dazu, wenn die Hintergrundbeleuchtung 110 vollständig ausgeschaltet wäre.
  • Im Beispiel aus 5 bestimmt, zum Zeitpunkt t3, der Benutzeranwesenheitsdetektor 212 der Anzeigetafelsteuerung 130 aus 1 und 2, dass der Benutzer nicht anwesend ist, basierend auf den Bilddaten 208 und dem bzw. den Gesichtsdetektionsmodellen 214. Daher weist der Tafelelektronikmanager 218 die Tafelelektronik 112 an, sich auszuschalten. Außerdem weist der Hintergrundbeleuchtungsmanager 220 die Hintergrundbeleuchtung 110 an, sich auszuschalten. Wie durch die Linie 502 in 5 dargestellt, die eine Zeitspanne von zehn Minuten darstellt, reduziert die beispielhafte Anzeigetafelsteuerung 130 aus 1 und 2 den Stromverbrauch der Anzeigetafel 102 früher, als wenn die Anzeigetafel 102 nicht ausgeschaltet wäre, bis zehn Minuten Inaktivität vergangen sind, basierend auf einer vordefinierten Zeitüberschreitungsperiode zum Ausschalten der Anzeigetafel und/oder Versetzen des Benutzergeräts in den Ruhezustand.
  • 6 ist eine beispielhafte Zeitachse 600, die die Steuerung der Hintergrundbeleuchtung 110 durch den Blickdetektor 216 basierend auf einer Analyse einer oder mehrerer Benutzerinteraktionen mit dem Benutzergerät 104 darstellt (1). 6 veranschaulicht auch Zeiträume, in denen der Blickdetektor 216 aktiv die Bilddaten analysiert und somit Strom verbraucht (d. h. zusätzlich zu dem Strom, der von der Anzeigetafel 102 verbraucht wird).
  • Wie in 6 gezeigt, bestimmt während des Zeitraums t1 der Blickdetektor 216, dass der Benutzer nicht mit dem Anzeigebildschirm 108 in Kontakt steht oder nicht aufmerksam ist (z. B. basierend auf der Richtung des Benutzerblicks relativ zu dem bzw. den Bildsensoren 114). Während des Zeitraums t1 verbraucht der Blickdetektor 216 der Anzeigetafelsteuerung 130 Strom, um die Analyse des Benutzerblicks durchzuführen, wie dargestellt durch die Linie 602 in 6. Außerdem steuert der Hintergrundbeleuchtungsmanager 220 eine Helligkeit der Hintergrundbeleuchtung 110, wie dargestellt durch die Linien 604 in 6.
  • Im Zeitraum t2 detektiert der Benutzerinteraktionsdetektor 229 eine oder mehrere Benutzereingaben am Benutzergerät 104, wie beispielsweise eine Tastatureingabe. Wie in 6 gezeigt, deaktiviert die Anzeigetafelsteuerung 130 den Betrieb des Blickdetektors 216 in Bezug auf das Analysieren von Bilddaten, da die Benutzereingabe(n) angibt bzw. angeben, dass der Benutzer anwesend ist und mit dem Benutzergerät 104 beschäftigt ist. Außerdem gibt die Hintergrundbeleuchtung 110 Licht mit einer Standardhelligkeitseinstellung im Hinblick auf die Benutzerinteraktion mit dem Gerät aus. Dementsprechend passt der Hintergrundbeleuchtungsmanager 220 die Helligkeit der Hintergrundbeleuchtung 110 während des Zeitraums t2 nicht an.
  • Im Beispiel aus 6 nimmt der Blickdetektor 216 der Anzeigetafelsteuerung 130, wenn keine Benutzereingaben durch den Benutzerinteraktionsdetektor 229 detektiert werden, die Analyse der Bilddaten 208 wieder auf, um die Aufmerksamkeit des Benutzers zu bestimmen, und verbraucht somit Energie bei der Durchführung der Analyse, wie dargestellt durch Linie 606 in 6. Zum Beispiel bestimmt im Zeitraum t3 der Blickdetektor 216, dass sich das Gesicht des Benutzers vom Anzeigebildschirm 108 abwendet (z. B. basierend auf dem Blick des Benutzers relativ zu dem bzw. den Bildsensoren 114). Der Hintergrundbeleuchtungsmanager 220 nimmt die Steuerung der Helligkeit der Hintergrundbeleuchtung 110 im Hinblick auf die vom Blickdetektor 216 durchgeführte Blickanalyse wieder auf, wie dargestellt durch die Linien 608 in 6. Im Beispiel aus 6 schaltet der Hintergrundbeleuchtungsmanager 220 die Hintergrundbeleuchtung 110 aus, wenn der Blickdetektor 216 bestimmt, dass sich der Benutzer von dem bzw. den Bildsensoren 114 abgewandt hat (z. B. um 180° abgewandt). In einigen solchen Beispielen analysiert der Blickdetektor 216 keine Bilddaten, wenn die Hintergrundbeleuchtung 110 ausgeschaltet ist, bis beispielsweise der Benutzeranwesenheitsdetektor 212 aus 2 bestimmt, dass der Benutzer innerhalb des Bildgebungs-FoV 116 anwesend ist.
  • Im Beispiel aus FIG. In 6 wird eine Benutzereingabe zum Zeitpunkt t4 detektiert, und somit verzichtet der Blickdetektor 216 darauf, Bilddaten zu analysieren. Somit analysiert im Beispiel aus 6 der Blickdetektor 216 gezielt die Bilddaten, um keine unnötigen Energiekosten zu verursachen, wenn bekannt ist, dass der Benutzer mit dem Benutzergerät 104 interagiert (z. B. wie etwa zu den Zeiträumen t2 und t4 in 6).
  • Flussdiagramme, die repräsentativ für beispielhafte Hardwarelogik, maschinenlesbare Anweisungen, hardwareimplementierte Zustandsmaschinen und/oder eine beliebige Kombination davon zum Implementieren des beispielhaften Trainingsmanagers 131 und/oder der beispielhaften Anzeigetafelsteuerung 130 sind, werden gezeigt in den 7 und 8A-8B. Die maschinenlesbaren Anweisungen können ein ausführbares Programm oder ein Teil eines ausführbaren Programms zur Ausführung durch einen Computerprozessor sein, wie etwa den bzw. die Prozessoren 130, 131, die in der bzw. den beispielhaften Prozessorplattformen 1300, 1400 gezeigt sind, die nachfolgend erörtert werden in Verbindung mit den 13 und 14. Das Programm kann in Software ausgeführt sein, die auf einem nicht-flüchtigen computerlesbaren Speichermedium, wie etwa einer CD-ROM, einer Diskette, einer Festplatte, einer DVD, einer Blu-ray-Disk oder einem mit dem bzw. den Prozessoren 130, 131 verbundenen Speicher gespeichert ist, aber das gesamte Programm und/oder Teile davon könnten alternativ von einem anderen Gerät als dem bzw. den Prozessoren 130, 131 ausgeführt werden und/oder in Firmware oder dedizierter Hardware ausgeführt sein. Obwohl das Beispielprogramm unter Bezugnahme auf die Flussdiagramme beschrieben wird, die in den 7 und 8A- 8B dargestellt sind, können alternativ viele andere Verfahren zum Implementieren des beispielhaften Trainingsmanagers 131 und/oder der beispielhaften Anzeigetafelsteuerung 130 verwendet werden. Beispielsweise kann die Reihenfolge der Ausführung der Blöcke geändert werden und/oder manche der beschriebenen Blöcke können geändert, entfernt oder kombiniert werden. Zusätzlich oder alternativ dazu können beliebige oder alle der Blöcke durch eine oder mehrere Hardwareschaltungen (z. B. eine diskrete und/oder integrierte analoge und/oder digitale Schaltungsanordnung, ein FPGA, eine ASIC, einen Operationsverstärker (Op-Amp), eine Logikschaltung usw.) implementiert werden, die so strukturiert sind, dass sie eine entsprechende Operation ohne die Ausführung von Software oder Firmware durchführen.
  • Wie oben erwähnt, können die beispielhaften Prozesse aus 7 und 8A-8B unter Verwendung ausführbarer Anweisungen (z. B. computer- und/oder maschinenlesbarer Anweisungen) implementiert werden, die auf einem nicht-flüchtigen computer- und/oder maschinenlesbarem Medium, wie etwa einer Festplatte, einem Flash-Speicher, einem Nur-LeseSpeicher, einer Compact Disk, einer Digital Versatile Disk, einem Cache, einem Direktzugriffsspeicher und/oder jede andere Speichervorrichtung oder Speicherplatte, auf der Informationen für eine beliebige Dauer gespeichert werden (z. B. zum vorübergehenden Puffern und/oder zum Zwischenspeichern der Informationen), gespeichert sind. Wie hierin verwendet, wird der Begriff nichtflüchtiges computerlesbares Medium ausdrücklich so definiert, dass er eine beliebige Art von computerlesbarer Speicherungsvorrichtung und/oder Speicherungsplatte beinhaltet und das Propagieren von Signalen ausschließt und Übertragungsmedien ausschließt.
  • 7 ist ein Flussdiagramm von beispielhaften maschinenlesbaren Anweisungen zum, wenn sie ausgeführt werden, Implementieren des beispielhaften Trainingsmanagers 131 aus 1 und/oder 2. Im Beispiel aus 7 trainiert der Trainingsmanager 131 die beispielhafte Anzeigetafelsteuereinheit 130 aus 1 und/oder 2 unter Verwendung von Trainingsbilddaten, die für einen oder mehrere Benutzer erzeugt werden, die das beispielhafte Benutzergerät 104 verwenden können oder nicht, siehe 1. Wie hierin erörtert, erzeugt der Trainingsmanager 131 Maschinenlernmodelle, die verwendet werden von der Anzeigetafelsteuerung 130 aus 1 und/oder 2, um die Hintergrundbeleuchtung 110 und die Tafelelektronik 112 basierend auf der Anwesenheit und Aufmerksamkeit des Benutzers in Bezug auf das Benutzergerät 104 zu steuern.
  • Die beispielhaften Anweisungen aus 7 können von einem oder mehreren Prozessoren ausgeführt werden, zum Beispiel vom Benutzergerät 104, einem anderen Benutzergerät und/oder einem Cloud-basierten Gerät. Die Anweisungen aus 7 können im Wesentlichen in Echtzeit, wenn Trainingsbilddaten von dem Trainingsmanager 131 empfangen werden, oder zu einem bestimmten Zeitpunkt, nachdem die Trainingssensordaten von dem Trainingsmanager 131 empfangen werden, ausgeführt werden. Der Trainingsmanager 131 kann mit der Anzeigetafelsteuerung 130 über ein oder mehrere kabelgebundene oder kabellose Kommunikationsprotokolle kommunizieren.
  • Der beispielhafte Trainer 200 aus 2 greift auf Trainingsbilddaten 204 zu (Block 700). Die Trainingsbilddaten 204 können in der Datenbank 206 gespeichert werden. In einigen Beispielen werden die Trainingsbilddaten 204 für einen oder mehrere Benutzer des Benutzergeräts 104 erzeugt. In einigen solchen Beispielen können die Trainingsbilddaten 204 von der Anzeigetafelsteuerung 130 (z. B. über den Feedbackanalysator 227) und/oder direkt von dem bzw. den Bildsensoren 114 des Benutzergeräts 104 empfangen werden. In einigen anderen Beispielen werden die Trainingsbilddaten 204 für Benutzer erzeugt, die keine Benutzer des Benutzergeräts 104 sind.
  • Der beispielhafte Trainer 200 aus 2 identifiziert Benutzergesichtsmerkmale, die durch die Trainingsbilddaten 204 dargestellt werden (Block 702). Als Beispiel identifiziert der Trainer 200 auf Grundlage der Trainingsbilddaten 204 Gesichtsmerkmale wie Nase, Ohren, Mund, Stirn usw.
  • Der beispielhafte Trainer 200 aus 2 erzeugt ein oder mehrere Gesichtsdetektionsmodelle 214 über die Maschinenlern-Engine 202 und basierend auf den Trainingsbilddaten 204, die die Anwesenheit und/oder Aufmerksamkeit des Benutzers basierend auf detektierten Gesichtsmerkmalen definieren (Block 704). Zum Beispiel verwendet der Trainer 200 die Trainingsbilddaten 204, um das bzw. die Gesichtsdetektionsmodelle 214 zu erzeugen, die von der Anzeigetafelsteuerung 130 verwendet werden, um zu bestimmen, ob ein Benutzer in dem Bildgebungs-FoV 116 oder dem Anzeige-FoV 132 anwesend ist.
  • Der beispielhafte Trainer 200 kann die Anzeigetafelsteuerung 130 unter Verwendung unterschiedlicher Datensätze und/oder Datensätze mit unterschiedlichen Spezifitätsniveaus weiter trainieren (Block 706). Zum Beispiel kann der Trainer 200 ein erstes Gesichtsdetektionsmodell 214 erzeugen, um zu bestimmen, ob der Benutzer im Bildgebungs-FoV 116 anwesend ist, und ein zweites Gesichtsdetektionsmodell 214 erzeugen, um zu bestimmen, ob das Gesicht des Benutzers bezüglich des bzw. der Bildsensoren 114 nach rechts oder links gedreht ist. Die beispielhaften Anweisungen enden, wenn kein zusätzliches Training durchzuführen ist (z. B. basierend auf Benutzereingabe(n)) (Block 708).
  • 8A und 8B umfassen ein Flussdiagramm beispielhafter maschinenlesbarer Anweisungen zum, wenn sie von einem Prozessor ausgeführt werden, Implementieren der beispielhaften Anzeigetafelsteuerung 130 aus 1 und/oder 2. Im Beispiel aus den 8A und 8B erzeugt die Anzeigetafelsteuerung 130 eine oder mehrere Anweisungen zum Steuern der Tafelelektronik 112 und der Hintergrundbeleuchtung 110 der Anzeigetafel 102 basierend auf einer Anwesenheit eines Benutzers (z. B. des Benutzers 106) und einem Blick des Benutzers in Bezug auf Bildsensoren (z. B. den bzw. die Bildsensoren 114) eines Benutzergeräts (z. B. des Benutzergeräts 104). Die beispielhaften Anweisungen aus 8A und 8B können von einem oder mehreren Prozessoren ausgeführt werden, zum Beispiel vom Benutzergerät 104, einem anderen Benutzergerät und/oder einem Cloud-basierten Gerät. Wie oben erwähnt, werden in einigen Beispielen zumindest einige der Anweisungen aus den 8A und 8B von einem Prozessor ausgeführt, der in einem Niederleistungsmodus arbeitet, wie beispielsweise einem digitalen Signalprozessor, um den Stromverbrauch beim Verarbeiten und Analysieren der Bilddaten zu reduzieren. Die Anweisungen aus den 8A und 8B können im Wesentlichen in Echtzeit ausgeführt werden, wenn der bzw. die Bildsensoren 114 Bilddaten erzeugen und/oder wenn ein Benutzer mit dem Benutzergerät 104 interagiert.
  • Der beispielhafte Benutzerinteraktionsdetektor 229 bestimmt, ob der Benutzer mit dem Benutzergerät 104 interagiert (Block 800). Zum Beispiel detektiert der Benutzerinteraktionsdetektor 229 eine oder mehrere Benutzereingaben am Benutzergerät 104, wie etwa Tastatureingabe(n), Berührungsbildschirmeingabe(n), Mausklick(s) usw. Wenn der Benutzerinteraktionsdetektor 229 bestimmt, dass der Benutzer mit dem Benutzergerät 104 interagiert, weist der Tafelelektronikmanager 218 die Tafelelektronik 112 der Anzeigetafel 102 in einen eingeschalteten Zustand an, und der Hintergrundbeleuchtungsmanager 220 weist die Hintergrundbeleuchtung 110 der Anzeigetafel 102 an, mit einer Standardhelligkeitseinstellung (z. B. einem von einem Hersteller oder dem Benutzer vordefinierten Helligkeitspegel) zu arbeiten (Block 802).
  • Wenn der Benutzer nicht mit dem Benutzergerät interagiert, greift der Benutzeranwesenheitsdetektor 212 auf Bilddaten 208 zu, die von dem bzw. den Bildsensoren 114 des Benutzergeräts 104 erzeugt werden (Block 804). Der beispielhafte Benutzeranwesenheitsdetektor 212 bestimmt, ob sich ein Benutzer innerhalb des Bildgebungs-Sichtfelds (FoV) 116 befindet, das mit dem bzw. den Bildsensoren 114 verbunden ist, basierend auf den Bilddaten 208, die von dem bzw. den Bildsensoren 114 erzeugt werden, und dem bzw. den Maschinenlernmodellen 214 (z. B. dem bzw. den Gesichtsdetektionsmodellen), die erzeugt werden vom Trainingsmanager 131 aus den 1 und 2 (Block 806). Der beispielhafte Benutzeranwesenheitsdetektor 212 bestimmt basierend auf der Identifizierung eines Gesichts des Benutzers im Bildgebungs-FoV 116, ob der Benutzer anwesend ist.
  • Wenn sich der Benutzer innerhalb des Bildgebungs-FoV 116 befindet (Block 808), erzeugt und sendet der Tafelelektronikmanager 218 Anweisungen zum Einschalten der Tafelelektronik (Block 810). In einigen Beispielen weist der Tafelelektronikmanager 218 die Tafelelektronik 112 an, einen eingeschalteten Zustand beizubehalten, wenn die Tafelelektronik bereits eingeschaltet ist. In einigen anderen Beispielen weist der Tafelelektronikmanager 218 die Tafelelektronik 112 an, von einem ausgeschalteten Zustand in einen eingeschalteten Zustand zu wechseln.
  • Im Beispiel aus den 8A und 8B, wenn der Benutzeranwesenheitsdetektor 212 bestimmt, dass sich der Benutzer im Bildgebungs-Sichtfeld 116 befindet, bestimmt der Blickdetektor 216, ob sich der Benutzer im Anzeige-FoV 132 befindet (wie z. B. basierend auf einem beabsichtigten Betrachtungsabstand des Benutzers vom Anzeigebildschirm 108 des Benutzergeräts 104 und einem Betrachtungswinkel des Anzeigebildschirms 108 definiert) (Block 812). Der Blickdetektor 216 kann basierend auf den Bilddaten 208 und der Position des Benutzers in den Bilddaten 208 relativ zu dem Anzeige-FoV 132 (z. B. xy-Koordinaten) bestimmen, ob sich der Benutzer im Anzeige-FoV 132 befindet.
  • Wenn sich der Benutzer im Anzeige-FoV 132 befindet, wendet der Blickdetektor 216 das bzw. die Maschinenlernmodelle 214 (z. B. das bzw. die Gesichtsdetektionsmodelle) an, um eine Position des Benutzerblicks relativ zu dem bzw. den Bildsensoren 114 zu bestimmen (Block 814). Der Blickdetektor 216 verwendet das bzw. die Modelle 214, um die Bilddaten 208 in Bezug auf einen Winkel des Gesichts des Benutzers relativ zu dem bzw. den Bildsensoren 114 zu analysieren. Wenn der Blickdetektor 216 beispielsweise nur ein Ohr in den Bilddaten identifiziert, bestimmt der Blickdetektor 216, dass der Benutzer vom Anzeigebildschirm 108 wegschaut.
  • Basierend auf der Analyse der Bilddaten in Bezug auf den Blick des Benutzers relativ zu dem bzw. den Bildsensoren 114 bestimmt der Blickdetektor 216, ob sich der Anzeigebildschirm 108 vollständig in einem Sichtfeld 138 des Benutzers befindet (Block 816). Im Beispiel aus den 8A und 8B, wenn der Blickdetektor 216 bestimmt, dass sich der Anzeigebildschirm 108 innerhalb des Sichtfelds 138 des Benutzers befindet, weist der Hintergrundbeleuchtungsmanager 220 aus 2 die Hintergrundbeleuchtung 110 an, mit einer Standardhelligkeitseinstellung zu arbeiten, in Erwartung, dass der Benutzer auf den Anzeigebildschirm 108 schaut oder dabei ist, auf den Anzeigebildschirm 108 zu schauen, angesichts des Blickes des Benutzers relativ zu dem bzw. den Bildsensoren 114 (Block 818). Der Hintergrundbeleuchtungsmanager 220 erzeugt die Anweisungen für die Hintergrundbeleuchtung 110 auf Grundlage der in der Datenbank 210 gespeicherten Hintergrundbeleuchtungsregel(n) 224.
  • Im Beispiel aus den 8A und 8B, wenn stattdessen der Blickdetektor 216 bestimmt, dass sich der Anzeigebildschirm 108 teilweise im Sichtfeld des Benutzers befindet (Block 820), erzeugt der Hintergrundbeleuchtungsmanager 220 aus 2 eine oder mehrere Anweisungen, um eine Helligkeit der Hintergrundbeleuchtung 110 einzustellen (Block 822). Zum Beispiel weist der Hintergrundbeleuchtungsmanager 220 basierend auf der bzw. den Hintergrundbeleuchtungsregeln 224 und einem Winkel des Gesichts des Benutzers relativ zu dem bzw. den Bildsensoren 114, wie durch den Blickdetektor 216 bestimmt, die Hintergrundbeleuchtung 110 an, die Helligkeit zu dimmen oder zu verringern.
  • Im Beispiel aus den 8A und 8B weist der Hintergrundbeleuchtungsmanager 220 die Hintergrundbeleuchtung 110 an, sich auszuschalten, wenn der Blickdetektor 216 bestimmt, dass sich der Anzeigebildschirm 108 nicht zumindest teilweise im Sichtfeld 138 des Benutzers befindet (Block 824). Somit spart der Hintergrundbeleuchtungsmanager 220 Energie, indem er eine Helligkeit der Hintergrundbeleuchtung 110 verringert oder die Hintergrundbeleuchtung 110 basierend auf der Blickrichtung des Benutzers und dem entsprechenden Sichtfeld ausschaltet.
  • Der beispielhafte Benutzeranwesenheitsdetektor 212 und der Blickdetektor 216 analysieren weiterhin die von dem bzw. den Bildsensoren 114 empfangenen Bilddaten 208 in Bezug auf Benutzeranwesenheit und -aufmerksamkeit (Blöcke 828, 832). Wenn der Benutzeranwesenheitsdetektor 212 basierend auf den Bilddaten und dem bzw. den Gesichtsdetektionsmodellen 214 bestimmt, dass der Benutzer nicht im Bildgebungs-FoV 116 anwesend ist (Blöcke 808, 828), weist der Tafelelektronikmanager 218 die Tafelelektronik 112 an, sich auszuschalten, um Energie zu sparen, wenn der Benutzer nicht anwesend ist (Block 830). Die Anweisungen aus den 8A und 8B enden, wenn keine weiteren Bilddaten von der Anzeigetafelsteuerung 130 empfangen werden und keine Benutzereingabe(n) am Benutzergerät 104 detektiert werden (Blöcke 834, 836).
  • Beispiele, die oben in Verbindung mit den 1-8B offenbart wurden, stellen eine automatische Anpassung einer Helligkeit der Hintergrundbeleuchtung 110 der Anzeigetafel 102 des beispielhaften Benutzergeräts 104 basierend auf einer Blickrichtung eines Benutzers des Benutzergeräts 104 und dem entsprechenden Sichtfeld des Benutzers bereit. Wie oben offenbart, kann die Helligkeit der Hintergrundbeleuchtung 110 zunehmen oder abnehmen, wenn der Anzeigebildschirm 108 in das Sichtfeld des Benutzers eintritt oder dieses verlässt. In einigen anderen Beispielen wird eine Helligkeit einer Hintergrundbeleuchtung für einen Anzeigebildschirm eines Benutzergeräts, wie etwa eines Smartphones, basierend auf dem Umgebungslicht in der Umgebung, in der sich das Benutzergerät befindet, automatisch angepasst. Das Benutzergerät kann einen oder mehrere Umgebungslichtsensoren umfassen (z. B. den bzw. die Umgebungslichtsensoren 144 des Benutzergeräts 104 aus 1), um Daten zu erzeugen, die Lichtpegel (z. B. Intensität) in der Umgebung anzeigen. Die Helligkeit der Hintergrundbeleuchtung kann basierend auf Änderungen der Umgebungslichtdaten angepasst werden, wenn beispielsweise der Benutzer das Benutzergerät zwischen verschiedenen Umgebungen trägt. Beispielsweise kann eine Helligkeit der Hintergrundbeleuchtung des Anzeigebildschirms angepasst werden, wenn sich der Benutzer von einer hell erleuchteten Umgebung (z. B. einem sonnenbeschienenen Raum) in eine dunklere Umgebung (z. B. einen schwach beleuchteten Flur) bewegt.
  • In einigen solchen Beispielen stellt der Benutzer manuell eine Helligkeit der Hintergrundbeleuchtung basierend auf der Umgebung ein, in der sich der Benutzer befindet, und kann somit die automatischen Helligkeitseinstellungen des Geräts außer Kraft setzen oder ausschalten. Wenn ein Benutzer beispielsweise das Benutzergerät von einem hell erleuchteten Raum in einen dunklen Raum trägt, kann der Benutzer die Hintergrundbeleuchtung des Anzeigebildschirms im dunklen Raum als zu hell empfinden, selbst wenn die Helligkeit der Hintergrundbeleuchtung basierend auf den Daten des Umgebungslichtsensors automatisch reduziert wurde. In solchen Fällen kann der Benutzer die automatische Helligkeitseinstellung ausschalten und die Helligkeit der Hintergrundbeleuchtung manuell einstellen, so dass der Anzeigebildschirm dunkel oder gedimmt erscheint. Wenn sich der Benutzer jedoch dann mit dem Benutzergerät von der dunklen Umgebung in eine hellere Umgebung bewegt, bleibt die Hintergrundbeleuchtung des Anzeigebildschirms ausgeschaltet oder schwach beleuchtet, da die automatische Helligkeitseinstellung des Benutzergeräts zuvor vom Benutzer ausgeschaltet wurde. Daher kann es für den Benutzer schwierig sein, den Anzeigebildschirm in der helleren Umgebung zu sehen.
  • 9 veranschaulicht ein beispielhaftes System 900, das gemäß den Lehren dieser Offenbarung konstruiert ist, zum Steuern der Helligkeit einer Hintergrundbeleuchtung 902, die einem Anzeigebildschirm 904 eines Benutzergeräts 906 zugeordnet ist, als Reaktion auf Änderungen des Umgebungslichts, nachdem ein Benutzer eine Helligkeitseinstellung der Hintergrundbeleuchtung 902 manuell angepasst hat. Das Benutzergerät 906 kann einen Laptop, ein Tablet, ein Smartphone, einen Personalcomputer usw. umfassen. Das Benutzergerät 906 umfasst einen Prozessor 908 zum Ausführen von, beispielsweise, einer oder mehreren Anwendungen, auf die der Benutzer über das Benutzergerät 906 zugreift. Das beispielhafte Benutzergerät 906 umfasst einen oder mehrere Umgebungslichtsensoren 910. Der bzw. die Umgebungslichtsensoren 910 aus 9 erzeugen Daten, die einen Lichtpegel in einer Umgebung anzeigen, in der sich das Benutzergerät 906 befindet (z. B. Beleuchtungsstärke).
  • In dem beispielhaften System 900 aus 9 werden die Umgebungslichtdaten, die von dem bzw. den Umgebungslichtsensoren 910 erzeugt werden, von einem Hintergrundbeleuchtungs-Helligkeitsmanager 912 verarbeitet. Der Hintergrundbeleuchtungs-Helligkeitsmanager 912 dient dazu, die Umgebungslichtdaten, die von dem bzw. den Umgebungslichtsensoren 910 erzeugt werden, zu verarbeiten, um eine Helligkeit (z. B. Lumenpegel) der Hintergrundbeleuchtung 902 zu bestimmen. Der beispielhafte Hintergrundbeleuchtungs-Helligkeitsmanager 912 kann durch den Prozessor 908 des Benutzergeräts 906 implementiert werden. In anderen Beispielen wird die Anzeigetafelsteuerung 130 durch ein oder mehrere Cloud-basierte Geräte implementiert, wie etwa einen oder mehrere Server, Prozessoren und/oder virtuelle Maschinen, die sich entfernt von dem Benutzergerät 906 befinden. In anderen Beispielen wird ein Teil der vom Hintergrundbeleuchtungs-Helligkeitsmanager 912 durchgeführten Analyse durch Cloud-basierte Geräte implementiert, und andere Teile der Analyse werden durch einen oder mehrere lokale Prozessoren oder ein oder mehrere Benutzergeräte implementiert.
  • Wenn beispielsweise der Hintergrundbeleuchtungs-Helligkeitsmanager 912 basierend auf den Umgebungslichtdaten bestimmt, dass sich das Benutzergerät 906 in einem hell beleuchteten Raum befindet, erhöht der Hintergrundbeleuchtungs-Helligkeitsmanager 912 eine Helligkeit der Hintergrundbeleuchtung 110, um die Fähigkeit des Benutzers zu verbessern, Inhalte auf dem Anzeigebildschirm 904 zu betrachten. Wenn der Hintergrundbeleuchtungs-Helligkeitsmanager 912 bestimmt, dass sich das Benutzergerät in einem schwach beleuchteten oder dunklen Raum befindet, reduziert der Hintergrundbeleuchtungs-Helligkeitsmanager 912 eine Helligkeit der Hintergrundbeleuchtung 902, um zu verhindern, dass die Hintergrundbeleuchtung den Augen des Benutzers Unbehagen bereitet.
  • Im Beispiel aus 9 kann der Benutzer die Helligkeitseinstellungen der Hintergrundbeleuchtung 110 manuell anpassen, indem er beispielsweise auf eine Anwendung zum Einstellen der Hintergrundbeleuchtung, die von dem Prozessor 908 ausgeführt wird, zugreift und eine oder mehrere Eingaben am Benutzergerät 906 (z. B. über den Anzeigebildschirm 904) bereitstellt. Zum Beispiel kann der Benutzer eine Helligkeit der Hintergrundbeleuchtung 110 reduzieren, wodurch die Helligkeitseinstellung der Hintergrundbeleuchtung 902 außer Kraft gesetzt wird, die durch den Hintergrundbeleuchtungs-Helligkeitsmanager 912 basierend auf den Umgebungslichtsensordaten eingestellt wird.
  • Im Beispiel aus 9 bewertet der Hintergrundbeleuchtungs-Helligkeitsmanager 912 die Benutzereingabe(n) in Bezug auf die Helligkeit der Hintergrundbeleuchtung 110 im Hinblick auf die Umgebungslichtdaten, die von dem bzw. den Umgebungslichtsensoren 910 über die Zeit erzeugt werden. Basierend auf der Analyse bestimmt der Hintergrundbeleuchtungs-Helligkeitsmanager 912, ob die Helligkeit der Hintergrundbeleuchtung 902 bei der benutzerdefinierten Einstellung bleiben sollte, oder ob die Helligkeit der Hintergrundbeleuchtung 902 im Hinblick auf Änderungen der Umgebungslichtpegel automatisch angepasst werden sollte. Die Änderung des Umgebungslichtpegels kann beispielsweise auftreten, wenn sich der Benutzer mit dem Benutzergerät zwischen Umgebungen bewegt, oder aufgrund von Veränderungen innerhalb einer Umgebung (z. B. morgens das Licht im Schlafzimmer einschalten, nachdem der Raum über Nacht dunkel war). Im Beispiel aus 9 passt, wenn der Hintergrundbeleuchtungs-Helligkeitsmanager 912 bestimmt, dass eine Änderung der Umgebungslichtpegel eine vordefinierte Schwelle überschritten hat, der Hintergrundbeleuchtungs-Helligkeitsmanager 912 automatisch die Helligkeit der Hintergrundbeleuchtung 902 an, um das Betrachten des Anzeigebildschirms 904 zu erleichtern. Wenn der Hintergrundbeleuchtungs-Helligkeitsmanager 912 bestimmt, dass die Änderung der Umgebungslichtpegel die Schwelle nicht überschritten hat, hält der Hintergrundbeleuchtungs-Helligkeitsmanager 912 die Helligkeit der Hintergrundbeleuchtung 912 bei der benutzerdefinierten (d. h. manuellen) Einstellung.
  • Zum Beispiel kann der Hintergrundbeleuchtungs-Helligkeitsmanager 912 detektieren, dass der Benutzer die Helligkeit der Hintergrundbeleuchtung 902 manuell reduziert hat. Wenn der Hintergrundbeleuchtungs-Helligkeitsmanager 912 basierend auf den Umgebungslichtdaten, die von dem bzw. den Umgebungslichtsensoren 910 erzeugt werden, bestimmt, dass das Benutzergerät 106 von einer dunklen Umgebung in eine helle Umgebung bewegt wurde, weist der Hintergrundbeleuchtungs-Helligkeitsmanager 912 die Hintergrundbeleuchtung 902 an, die Helligkeit zu erhöhen, ungeachtet der vorherigen Benutzereingabe zur Verringerung der Helligkeit. Der Hintergrundbeleuchtungs-Helligkeitsmanager 912 erhöht die Helligkeit der Hintergrundbeleuchtung 110, um den Benutzer beim Betrachten des Anzeigebildschirms 904 in der helleren Umgebung zu unterstützen, da der Anzeigebildschirm ansonsten für den Benutzer zu dunkel sein kann, um ihn in der helleren Umgebung sehen zu können. In einigen Beispielen weist der Hintergrundbeleuchtungs-Helligkeitsmanager 912 die Hintergrundbeleuchtung 902 an, Licht mit einem Helligkeitspegel auszugeben, der vor der manuellen Benutzereinstellung ausgegeben wurde. In anderen Beispielen bestimmt der Hintergrundbeleuchtungs-Helligkeitsmanager 912 eine Helligkeit der Hintergrundbeleuchtung 902 basierend auf aktuellen Umgebungslichtdaten, die der Umgebung zugeordnet sind, in der sich das Benutzergerät 906 befindet.
  • 10 veranschaulicht eine beispielhafte Zeitachse 1000, die Änderungen des Umgebungslichts in einer oder mehreren Umgebungen im Laufe der Zeit und entsprechende Änderungen einer Helligkeit der Hintergrundbeleuchtung 902 des Benutzergeräts 906 aus 9 gemäß den Lehren dieser Offenbarung zeigt. Wie in 10 gezeigt, befindet sich, zu einer ersten Zeitperiode t1, das Benutzergerät 906 in einer Umgebung, die einem ersten Umgebungslichtpegel 1002 zugeordnet ist. Im Beispiel aus 10 wird die Hintergrundbeleuchtung 902 auf einen ersten Hintergrundbeleuchtungs-Helligkeitspegel 1004 eingestellt. Der erste Hintergrundbeleuchtungs-Helligkeitspegel 1004 kann durch den Hintergrundbeleuchtungs-Helligkeitsmanager 912 definiert werden, basierend auf Daten von dem bzw. den Umgebungslichtsensoren 910 aus 1. In einigen Beispielen wird der erste Helligkeitspegel 1004 basierend auf einer Benutzereingabe definiert.
  • In einem zweiten Zeitraum t2 befindet sich das Benutzergerät 906 in einer Umgebung, die einem zweiten Umgebungslichtpegel 1006 zugeordnet ist. Im Beispiel aus 10 ist die zweite Umgebungslichtstärke 1006 im Vergleich zum ersten Lichtpegel 1002 der Umgebung des ersten Zeitraums t1 reduziert (d. h. die Umgebung mit dem zweiten Umgebungslichtpegel 1006 ist dunkler als die Umgebung mit dem ersten Lichtpegel 1004). Die dunkle Umgebung kann eine andere Umgebung sein als die Umgebung des ersten Zeitraums t1 (z. B. ein anderer Raum) oder dieselbe Umgebung wie die Umgebung des ersten Zeitraums t1 (z. B. ein Raum, in dem das Licht ausgeschaltet wurde).
  • Irgendwann während des zweiten Zeitraums t2 stellt der Benutzer des Benutzergeräts 906 eine Benutzereingabe 1008 an dem Benutzergerät 906 bereit, um die Helligkeit der Hintergrundbeleuchtung 902 einzustellen. Zum Beispiel kann die Benutzereingabe 1008 die Hintergrundbeleuchtung 902 anweisen, Licht mit einem zweiten Hintergrundbeleuchtungs-Helligkeitspegel 1010 auszugeben. Der zweite Hintergrundbeleuchtungs-Helligkeitspegel 1010 kann bewirken, dass der Anzeigebildschirm 904 im Vergleich zum ersten Hintergrundbeleuchtungs-Helligkeitspegel 1004 im Zeitraum t1 dunkel oder gedimmt erscheint. In einigen Beispielen wird die Hintergrundbeleuchtung 110 ausgeschaltet, wenn sie auf den zweiten Hintergrundbeleuchtungs-Helligkeitspegel 1010 eingestellt ist. Somit wird im Beispiel aus 10 die Helligkeit der Hintergrundbeleuchtung 902 und somit des Anzeigebildschirms 904 während der zweiten Zeitdauer t2 verringert, im Vergleich zur Helligkeit der Hintergrundbeleuchtung 902 während des ersten Zeitraums t1.
  • In einem dritten Zeitraum t3 befindet sich das Benutzergerät 906 in einer Umgebung, die einem dritten Umgebungslichtpegel 1012 zugeordnet ist. Im Beispiel aus 10 ist der dritte Umgebungslichtpegel 1012 heller als der zweite Umgebungslichtpegel 1006 der Umgebung des zweiten Zeitraums t2. Der dritte Umgebungslichtpegel 1012 kann gleich oder unterschiedlich vom ersten Umgebungslichtpegel 1002 sein.
  • Im Beispiel aus 10 erzeugen der bzw. die Umgebungslichtsensoren 910 des Benutzergeräts 906 Umgebungslichtdaten, die die jeweiligen Umgebungslichtpegel 1002, 1006, 1012 anzeigen, die jeder der Zeitperioden t1, t2, t3 zugeordnet sind. Im Beispiel aus 10 detektiert der Hintergrundbeleuchtungs-Helligkeitsmanager 912 aus 10, dass der Benutzer die Benutzereingabe 1008 bereitgestellt hat, um die Helligkeit der Hintergrundbeleuchtung 902 einzustellen. Basierend auf den Umgebungslichtdaten bestimmt der beispielhafte Hintergrundbeleuchtungs-Helligkeitsmanager 912, dass es eine Änderung der Umgebungslichtpegel zwischen dem zweiten Zeitraum t2 und dem dritten Zeitraum t3 gegeben hat. Der beispielhafte Hintergrundbeleuchtungs-Helligkeitsmanager 912 berechnet eine Differenz zwischen dem zweiten Umgebungslichtpegel 1006 und dem dritten Umgebungslichtpegel 1012, dargestellt durch ein Deltasymbol 1014 in 10. Zum Beispiel bestimmt der Hintergrundbeleuchtungs-Helligkeitsmanager 912 einen Unterschied in der Beleuchtungsstärke zwischen dem zweiten und dritten Umgebungslichtpegel 1006, 1012.
  • Der beispielhafte Hintergrundbeleuchtungs-Helligkeitsmanager 912 bestimmt, ob die Differenz zwischen dem zweiten und dritten Umgebungslichtpegel 1006, 1012 eine vordefinierte Schwelle überschreitet, was auf eine Änderung der Umgebungslichtpegel hinweist. Die Schwelle kann zum Beispiel auf Referenzdaten basieren, die Umgebungslichtpegel und entsprechende Helligkeitspegel anzeigen, die von der Hintergrundbeleuchtung 902 ausgegeben werden sollen, um das Betrachten des Anzeigebildschirms 904 bei den verschiedenen Lichtpegeln zu erleichtern (z. B. basierend auf Bildschirmtyp, Größe, Betrachtungswinkel usw.).
  • Wenn die Differenz zwischen dem zweiten und dritten Umgebungslichtpegel 1006, 1012 die Schwelle überschreitet, bestimmt der Hintergrundbeleuchtungs-Helligkeitsmanager 912, dass sich das Benutzergerät 906 nicht mehr in einer dunklen oder schwach beleuchteten Umgebung befindet. Dementsprechend erzeugt der Hintergrundbeleuchtungs-Helligkeitsmanager 912 eine oder mehrere Anweisungen für die Hintergrundbeleuchtung 110, um Licht mit einem dritten Hintergrundbeleuchtungs-Helligkeitspegel 1016 auszugeben. Im Beispiel aus 10 ist der dritte Hintergrundbeleuchtungs-Helligkeitspegel 1016 heller als der zweite (benutzerdefinierte) Hintergrundbeleuchtungs-Helligkeitspegel 1010. Somit passt der Hintergrundbeleuchtungs-Helligkeitsmanager 912 automatisch den Hintergrundbeleuchtungs-Helligkeitspegel 902 von dem benutzerdefinierten zweiten Hintergrundbeleuchtungs-Helligkeitspegel an, um das Betrachten des Anzeigebildschirms 904 zu erleichtern. Somit wird die Helligkeit der Hintergrundbeleuchtung basierend auf dem dritten Umgebungslichtpegel 1012 dynamisch angepasst, ohne dass der Benutzer die Hintergrundbeleuchtung 902 manuell einstellt, um die Helligkeit in der helleren Umgebung zu erhöhen.
  • In einigen Beispielen bestimmt der Hintergrundbeleuchtungs-Helligkeitsmanager 912 den dritten Hintergrundbeleuchtungs-Helligkeitspegel 1016 basierend auf Umgebungslichtdaten, die von dem bzw. den Umgebungslichtsensoren 910 während des dritten Zeitraums t3 gesammelt wurden (z. B. entsprechend einem aktuellen Umgebungslichtpegel der Umgebung, in der sich das Benutzergerät 906 befindet). In anderen Beispielen basiert der dritte Helligkeitspegel 1016 auf einem Helligkeitspegel der Hintergrundbeleuchtung 902, bevor der Benutzer die Helligkeit der Hintergrundbeleuchtung (z. B. den ersten Hintergrundbeleuchtungs-Helligkeitspegel 1004) manuell eingestellt hat.
  • Wenn der Hintergrundbeleuchtungs-Helligkeitsmanager 912 bestimmt, dass die Differenz zwischen dem zweiten und dritten Umgebungslichtpegel 1006, 1012 die Schwelle nicht überschreitet, erzeugt der Hintergrundbeleuchtungs-Helligkeitsmanager 912 Anweisungen für die Hintergrundbeleuchtung 902, weiterhin Licht mit dem zweiten, benutzerdefinierten Hintergrundbeleuchtungs-Helligkeitspegel 1010 auszugeben. In solchen Beispielen beeinflusst die Änderung der Umgebungslichtpegel zwischen dem zweiten und dritten Zeitraum t2, t3 nicht die Fähigkeit des Benutzers, den Anzeigebildschirm 904 zu sehen, wenn die Hintergrundbeleuchtung 902 auf den benutzerdefinierten zweiten Hintergrundbeleuchtungs-Helligkeitspegel 1010 eingestellt ist. Als Ergebnis weist der Hintergrundbeleuchtungs-Helligkeitsmanager 912 die Hintergrundbeleuchtung 902 an, den benutzerdefinierten zweiten Hintergrundbeleuchtungs-Helligkeitspegel 1010 beizubehalten, während sich das Benutzergerät 906 in der Umgebung befindet, die dem dritten Umgebungslichtpegel 1012 zugeordnet ist. Somit passt der beispielhafte Hintergrundbeleuchtungs-Helligkeitsmanager 912 gezielt die Helligkeit der Hintergrundbeleuchtung 902 nach einer manuellen Benutzereinstellung an, um das Betrachten des Anzeigebildschirms 904 nach einer Änderung des Lichtpegels der Umgebung(en), in der bzw. denen sich das Benutzergerät 906 befindet, zu erleichtern.
  • 11 ist ein Blockdiagramm einer beispielhaften Implementierung des Hintergrundbeleuchtungs-Helligkeitsmanagers 912 aus 9. Wie oben erwähnt, ist der beispielhafte Hintergrundbeleuchtungs-Helligkeitsmanager 912 aufgebaut zum Verwalten der Helligkeit einer Lichtausgabe durch eine Hintergrundbeleuchtung (z. B. die Hintergrundbeleuchtung 902 aus 9) in Verbindung mit einem Anzeigebildschirm (z. B. dem Anzeigebildschirm 904 aus 9) eines Benutzergeräts (z. B. des Benutzergeräts 906 aus 9). Im Beispiel aus 11 wird der Hintergrundbeleuchtungs-Helligkeitsmanager 912 durch einen oder mehrere der Prozessoren 908 des Benutzergeräts 906 aus 9, einen Prozessor eines anderen Benutzergeräts und/oder Cloud-basierte Geräte (z. B. Server, Prozessor(en) und/oder virtuelle Maschine(n)) implementiert.
  • Der Hintergrundbeleuchtungs-Helligkeitsmanager 912 empfängt Umgebungslichtdaten 1100 von dem bzw. den Umgebungslichtsensoren 910 des Benutzergeräts 906. Die Umgebungslichtdaten 1100 geben eine Lichtintensität in der Umgebung an, in der sich das Benutzergerät 906 befindet. Der bzw. die beispielhaften Umgebungslichtsensoren 910 kann bzw. können Umgebungslichtdaten 1100 im Wesentlichen kontinuierlich, periodisch oder aperiodisch während des Betriebs des Benutzergeräts 906 erzeugen.
  • Die Umgebungslichtdaten 1100 werden in einer Datenbank 1102 gespeichert. In einigen Beispielen umfasst der Hintergrundbeleuchtungs-Helligkeitsmanager 912 die Datenbank 1102. In anderen Beispielen befindet sich die Datenbank 1102 außerhalb des Hintergrundbeleuchtungs-Helligkeitsmanagers 912 an einer Stelle, die für den Hintergrundbeleuchtungs-Helligkeitsmanager 912 zugänglich ist, wie gezeigt in 11.
  • Der beispielhafte Hintergrundbeleuchtungs-Helligkeitsmanager 912 aus 11 umfasst einen Umgebungslichtanalysator 1104. Der Umgebungslichtanalysator 1104 analysiert die Umgebungslichtdaten 1100, um einen Lichtpegel in einer Umgebung zu identifizieren, in der sich das Benutzergerät 906 befindet. Der Umgebungslichtanalysator 1104 erzeugt Anweisungen, die eine Helligkeit der Hintergrundbeleuchtung 902 basierend auf den Umgebungslichtdaten 1100 und einer oder mehreren Regeln für die Helligkeit der Hintergrundbeleuchtung 1106 definieren. Im Beispiel aus 11 ist bzw. sind die Hintergrundbeleuchtungs-Helligkeitsregel(n) 1106 in der Datenbank 1102 gespeichert. Die Hintergrundbeleuchtungs-Helligkeitsregel(n) 1106 definiert bzw. definieren Helligkeitseinstellungen für die Hintergrundbeleuchtung 902 basierend auf Umgebungslichtpegel(n), Bildschirmtyp, Bildschirm-Betrachtungswinkel usw. Die Hintergrundbeleuchtungs-Helligkeitsregel(n) 1106 kann bzw. können über eine oder mehrere Benutzereingaben bereitgestellt werden. Der Umgebungslichtanalysator 1104 aus 11 sendet die Anweisungen über eine oder mehrere kabelgebundene oder kabellose Verbindungen an die Hintergrundbeleuchtung 902.
  • Wie oben erwähnt, stellt ein Benutzer des Benutzergeräts 906 in einigen Beispielen die Helligkeit der Hintergrundbeleuchtung 902 manuell ein, indem er eine oder mehrere Eingaben an dem Benutzergerät 906 (z. B. über den Anzeigebildschirm 904) bereitstellt. Im Beispiel aus 11 sind eine oder mehrere Benutzereingaben 1108, die manuelle Benutzereinstellungen der Helligkeit der Hintergrundbeleuchtung 902 angeben, in der Datenbank 1102 gespeichert. Die Benutzereingabe(n) 1108 umfasst bzw. umfassen den Hintergrundbeleuchtungs-Helligkeitspegel 902, wie vom Benutzer eingestellt. In einigen Beispielen wird das entsprechende Umgebungslicht, das von dem bzw. den Umgebungslichtsensoren 910 erfasst wurde, als die Benutzereingabe am Benutzergerät 906 bereitgestellt wurde, auch in der Datenbank 1102 gespeichert.
  • Der beispielhafte Hintergrundbeleuchtungs-Helligkeitsmanager 912 umfasst einen Benutzereingabedetektor 1110. Der Benutzereingabedetektor 1110 detektiert, dass der Benutzer die Helligkeit der Hintergrundbeleuchtung 902 auf Grundlage der Detektion der Benutzereingabe(n) 1108 manuell angepasst hat. Als Reaktion auf die Benutzereingabe(n) 1108 weist der Benutzereingabedetektor 1110 den Umgebungslichtanalysator 1104 an, Änderungen der Umgebungslichtpegel zu identifizieren und zu bestimmen, ob die Helligkeit der Hintergrundbeleuchtung 902 ausgehend von der manuellen Einstellung durch den Benutzer automatisch neu angepasst werden soll.
  • Zum Beispiel vergleicht der Umgebungslichtanalysator 1104 Umgebungslichtdaten 1100, die im Laufe der Zeit gesammelt wurden, um Änderungen in den Umgebungslichtdaten 1100 zu detektieren. Der Umgebungslichtanalysator 1104 vergleicht Umgebungslichtdaten 1100, die zu einem ersten Zeitpunkt (z. B. im zweiten Zeitraum t2 aus 10) und zu einem zweiten Zeitpunkt gesammelt wurden (z. B. im dritten Zeitraum t3 aus 10). Der beispielhafte Umgebungslichtanalysator 1104 bestimmt, ob die Differenz zwischen den im ersten Zeitraum gesammelten Umgebungslichtdaten 1100 und den im zweiten Zeitraum gesammelten Umgebungslichtdaten 1100 eine vordefinierte Umgebungslicht-Deltaschwelle 1112 überschreitet. Die Umgebungslicht-Deltaschwelle(n) 1112 gibt bzw. geben Änderungen der Umgebungslichtpegel an, für die die Helligkeit der Hintergrundbeleuchtung 902 automatisch relativ zu der vom Benutzer manuell eingestellten Helligkeit der Hintergrundbeleuchtung 902 eingestellt werden sollte. Die Umgebungslicht-Deltaschwelle(n) 1112 kann bzw. können durch eine oder mehrere Benutzereingaben definiert und in der Datenbank 1102 gespeichert werden.
  • Wenn der beispielhafte Umgebungslichtanalysator 1104 aus 11 bestimmt, dass die Änderung der Umgebungslichtpegel zwischen dem ersten und zweiten Zeitraum die Umgebungslicht-Deltaschwelle 1112 überschreitet, erzeugt der Umgebungslichtanalysator 1104 Anweisungen zum automatischen Einstellen der Helligkeit der Hintergrundbeleuchtung 902, wodurch die Benutzereingabe(n) 1108 überschrieben werden, die dazu führten, dass die Hintergrundbeleuchtung 902 ausgeschaltet oder gedimmt wurde. Die automatischen Anpassungen der Helligkeit der Hintergrundbeleuchtung 902 ermöglichen es dem Benutzer, den Anzeigebildschirm 904 zu betrachten, ohne weitere manuelle Anpassungen an der Hintergrundbeleuchtung 902 vornehmen zu müssen. Im Beispiel aus 11 basiert bzw. basieren die Anpassung(en) der Hintergrundbeleuchtung 902 auf der bzw. den Regeln für die Helligkeit der Hintergrundbeleuchtung 1106. In einigen Beispielen weist der Umgebungslichtanalysator 1104 die Hintergrundbeleuchtung 902 an, die Helligkeit auf Grundlage des aktuellen Lichtpegels anzupassen, wie durch die Umgebungslichtdaten 1100 angegeben. In einigen anderen Beispielen weist der Umgebungslichtanalysator 1104 die Hintergrundbeleuchtung 902 an, die Helligkeit basierend auf vordefinierten Benutzereinstellungen und/oder vorherigen Hintergrundbeleuchtungs-Helligkeitspegeln anzupassen (z. B. ein Helligkeitspegel der Hintergrundbeleuchtung, bevor der Benutzer den Helligkeitspegel manuell angepasst hat).
  • Wenn der beispielhafte Umgebungslichtanalysator 1104 aus 11 bestimmt, dass die Änderung der Umgebungslichtpegel zwischen dem ersten und zweiten Zeitraum die Umgebungslicht-Deltaschwelle 1112 nicht überschreitet, weist der Umgebungslichtanalysator 1104 die Hintergrundbeleuchtung 902 an, weiterhin Licht mit der benutzerdefinierten Helligkeitseinstellung auszugeben. In solchen Beispielen arbeitet die Hintergrundbeleuchtung 902 auf Grundlage der manuell empfangenen Helligkeitseinstellung weiter, bis eine Änderung der Umgebungslichtpegel auftritt, die die Umgebungslicht-Deltaschwelle 1112 überschreitet. Zu einem solchen Zeitpunkt bestimmt der Umgebungslichtanalysator 1104, dass die Helligkeit der Hintergrundbeleuchtung automatisch angepasst werden sollte, um das Betrachten des Anzeigebildschirms 904 durch den Benutzer zu erleichtern.
  • Während eine beispielhafte Weise der Implementierung des Hintergrundbeleuchtungs-Helligkeitsmanagers 902 aus 9 und 10 in 11 dargestellt ist, können ein oder mehrere der Elemente, Prozesse und/oder Vorrichtungen, die in 11 dargestellt sind, kombiniert, geteilt, neu angeordnet, weggelassen, eliminiert und/oder auf andere Weise implementiert werden. Ferner können die beispielhafte Datenbank 1102, der beispielhafte Umgebungslichtanalysator 1104, der beispielhafte Benutzereingabedetektor 1110 und/oder, allgemeiner, der beispielhafte Hintergrundbeleuchtungs-Helligkeitsmanager 902 aus 11 durch Hardware, Software, Firmware und/oder eine beliebige Kombination von Hardware, Software und/oder Firmware implementiert werden. Somit könnte beispielsweise jedes aus der beispielhaften Datenbank 210, dem beispielhaften Umgebungslichtanalysator 1104, dem beispielhaften Benutzereingabedetektor 1110 und/oder, allgemeiner, dem beispielhaften Hintergrundbeleuchtungs-Helligkeitsmanager 902 durch eine(n) oder mehrere analoge oder digitale Schaltungen, Logikschaltungen, programmierbare Prozessoren, programmierbare Steuerungen, Grafikprozessoren (GPU(s)), digitale Signalprozessoren (DSP(s)), anwendungsspezifische integrierte Schaltungen (ASIC(s)), programmierbare Logikvorrichtungen (PLD(s)) und/oder feldprogrammierbare Logikvorrichtungen (FPLD(s)) implementiert werden. Beim Lesen eines der Vorrichtungs- oder Systemansprüche dieses Patents zur Abdeckung einer reinen Software- und/oder Firmware-Implementierung, ist bzw. sind mindestens eines aus der beispielhaften Datenbank 210, dem beispielhaften Umgebungslichtanalysator 1104 und/oder dem beispielhaften Benutzereingabedetektor 1110 hiermit ausdrücklich als eine nicht-flüchtige computerlesbare Speichervorrichtung oder eine Speicherplatte, wie etwa ein Speicher, eine DVD (Digital Versatile Disk), eine CD (Compact Disk), eine Blu-ray-Disk usw., einschließlich der Software und/oder Firmware, umfassend definiert. Darüber hinaus kann der beispielhafte Hintergrundbeleuchtungs-Helligkeitsmanager 902 aus 11 ein oder mehrere Elemente, Prozesse und/oder Vorrichtungen zusätzlich zu oder anstelle der in 11 dargestellten umfassen und/oder kann mehr als eines oder alle der dargestellten Elemente, Prozesse und Vorrichtungen umfassen. Wie hierin verwendet, schließt der Ausdruck „in Kommunikation“, einschließlich Variationen davon, eine direkte Kommunikation und/oder indirekte Kommunikation über eine oder mehrere zwischenliegende Komponenten ein und erfordert keine direkte physische (z. B. verdrahtete) Kommunikation und/oder konstante Kommunikation, sondern umfasst stattdessen zusätzlich eine gezielte Kommunikation mit periodischen Intervallen, geplanten Intervallen, aperiodischen Intervallen und/oder einmalige Ereignisse.
  • Ein Flussdiagramm, das beispielhafte Hardwarelogik, maschinenlesbare Anweisungen, hardwareimplementierte Zustandsmaschinen und/oder eine beliebige Kombination davon zum Implementieren des beispielhaften Hintergrundbeleuchtungs-Helligkeitsmanagers 912 darstellt, wird gezeigt in 12. Die maschinenlesbaren Anweisungen können ein ausführbares Programm oder ein Teil eines ausführbaren Programms zur Ausführung durch einen Computerprozessor sein, wie etwa den Prozessor 912, der in der beispielhaften Prozessorplattform 1500 gezeigt ist, die nachfolgend erörtert werden in Verbindung mit 15. Das Programm kann in Software ausgeführt sein, die auf einem nicht-flüchtigen computerlesbaren Speichermedium, wie etwa einer CD-ROM, einer Diskette, einer Festplatte, einer DVD, einer Blu-ray-Disk oder einem mit dem Prozessor 912 verbundenen Speicher gespeichert ist, aber das gesamte Programm und/oder Teile davon könnten alternativ von einem anderen Gerät als dem Prozessor 912 ausgeführt werden und/oder in Firmware oder dedizierter Hardware ausgeführt sein. Obwohl das Beispielprogramm unter Bezugnahme auf das Flussdiagramm beschrieben ist, das in 12 dargestellt ist, können alternativ viele andere Verfahren zum Implementieren des beispielhaften Hintergrundbeleuchtungs-Helligkeitsmanagers 912 verwendet werden. Beispielsweise kann die Reihenfolge der Ausführung der Blöcke geändert werden und/oder manche der beschriebenen Blöcke können geändert, entfernt oder kombiniert werden. Zusätzlich oder alternativ dazu können beliebige oder alle der Blöcke durch eine oder mehrere Hardwareschaltungen (z. B. eine diskrete und/oder integrierte analoge und/oder digitale Schaltungsanordnung, ein FPGA, eine ASIC, einen Operationsverstärker (Op-Amp), eine Logikschaltung usw.) implementiert werden, die so strukturiert sind, dass sie eine entsprechende Operation ohne die Ausführung von Software oder Firmware durchführen.
  • Wie oben erwähnt, kann der beispielhafte Prozess aus 12 unter Verwendung ausführbarer Anweisungen (z. B. computer- und/oder maschinenlesbarer Anweisungen) implementiert werden, die auf einem nicht-flüchtigen computer- und/oder maschinenlesbarem Medium, wie etwa einer Festplatte, einem Flash-Speicher, einem Nur-LeseSpeicher, einer Compact Disk, einer Digital Versatile Disk, einem Cache, einem Direktzugriffsspeicher und/oder jede andere Speichervorrichtung oder Speicherplatte, auf der Informationen für eine beliebige Dauer gespeichert werden (z. B. zum vorübergehenden Puffern und/oder zum Zwischenspeichern der Informationen), gespeichert sind. Wie hierin verwendet, wird der Begriff nichtflüchtiges computerlesbares Medium ausdrücklich so definiert, dass er eine beliebige Art von computerlesbarer Speicherungsvorrichtung und/oder Speicherungsplatte beinhaltet und das Propagieren von Signalen ausschließt und Übertragungsmedien ausschließt.
  • 12 ist ein Flussdiagramm von beispielhaften maschinenlesbaren Anweisungen zum, wenn sie von einem Prozessor ausgeführt werden, Implementieren des beispielhaften Hintergrundbeleuchtungs-Helligkeitsmanagers 912 aus 9, 10 und/oder 11. Im Beispiel aus 12 erzeugt der Hintergrundbeleuchtungs-Helligkeitsmanager 912 Anweisungen zum Steuern der Helligkeit der Hintergrundbeleuchtung 902 des Anzeigebildschirms 904 des Benutzergeräts 906 als Reaktion auf Änderungen der Umgebungslichtpegel, nachdem ein Benutzer die Hintergrundbeleuchtungshelligkeit manuell angepasst hat. Die beispielhaften Anweisungen aus 12 können von einem oder mehreren Prozessoren ausgeführt werden, zum Beispiel vom Benutzergerät 906, einem anderen Benutzergerät und/oder einem Cloud-basierten Gerät. Die Anweisungen aus 12 können im Wesentlichen in Echtzeit ausgeführt werden, wenn der bzw. die Umgebungslichtsensoren 910 Umgebungslichtdaten erzeugen oder wenn ein Benutzer mit dem Benutzergerät 906 interagiert.
  • Der Umgebungslichtanalysator 1104 des beispielhaften Hintergrundbeleuchtungs-Helligkeitsmanagers 912 greift auf Umgebungslichtdaten 1100 zu, die von dem bzw. den Umgebungslichtsensoren 910 des Benutzergeräts 906 erzeugt werden (Block 1200). Der Umgebungslichtanalysator 1104 stellt die Helligkeit der Hintergrundbeleuchtung 902 des Benutzergeräts 906 basierend auf den Umgebungslichtdaten 1100 und der bzw. den Hintergrundbeleuchtungshelligkeitsregeln 1106 ein (Block 1202).
  • Im Beispiel aus FIG. Wenn der Benutzereingabedetektor 1110 eine Benutzereingabe 1108 detektiert, um die Helligkeit der Hintergrundbeleuchtung 902 anzupassen (Block 1204), erzeugt der Umgebungslichtanalysator 1104 Anweisungen für die Helligkeit der Hintergrundbeleuchtung 902, die basierend auf der Benutzereingabe angepasst werden soll (Block 1206).
  • Im Beispiel aus 12 greift der Umgebungslichtanalysator 1104 auf Umgebungslichtdaten 1100 zu, die von dem bzw. den Umgebungslichtsensoren 910 erzeugt werden, nachdem die Benutzereingabe(n) 1108 empfangen wurde bzw. wurden (Block 1208). Der Umgebungslichtanalysator 1104 vergleicht die Umgebungslichtdaten 1100 über die Zeit (z. B. zwischen dem zweiten und dritten Zeitraum t2, t3 aus 10) (Block 1210). Im Beispiel aus 12, wenn der Umgebungslichtanalysator 1104 bestimmt, dass die Umgebungslichtdaten 1100 eine Änderung der Umgebungslichtpegel für die Umgebung anzeigen, in der sich das Benutzergerät 906 befindet (Block 1212), bestimmt der Umgebungslichtanalysator 1104, ob die Änderung eine Umgebungslicht-Deltaschwelle 1112 überschreitet (Block 1214).
  • Wenn die Änderung der Umgebungslichtdaten die Umgebungslicht-Deltaschwelle 1112 überschreitet, erzeugt und sendet der Umgebungslichtanalysator 1104 Anweisungen an die Hintergrundbeleuchtung 902, um die Hintergrundbeleuchtung 902 automatisch einzustellen, damit der Benutzer den Anzeigebildschirm 904 betrachten kann (Block 1216). Im Beispiel aus 12 kann der Umgebungslichtanalysator 1104 die Helligkeit der Hintergrundbeleuchtung 902 basierend auf Umgebungslichtdaten, die zuletzt von dem bzw. den Umgebungslichtsensoren 910 gesammelt wurden, einem vorherigen Hintergrundbeleuchtungs-Helligkeitspegel (z. B. einem Hintergrundbeleuchtungs-Helligkeitspegel zum Zeitpunkt vor dem Empfang der Benutzereingabe) und/oder einer vordefinierten Benutzereinstellung anpassen. In solchen Beispielen steuert der Umgebungslichtanalysator 1104 weiterhin die Helligkeit der Hintergrundbeleuchtung 902, bis eine oder mehrere zusätzliche Benutzereingaben 1108, umfassend manuelle Anpassungen des Helligkeitspegels, empfangen werden (Block 1204).
  • Wenn die Änderung der Umgebungslichtdaten die Umgebungslicht-Deltaschwelle 1112 nicht überschreitet, erzeugt und sendet der Umgebungslichtanalysator 1104 Anweisungen an die Hintergrundbeleuchtung 902, um weiterhin Licht mit dem vom Benutzer über die Benutzereingabe(n) 1108 definierten Helligkeitspegel auszugeben (Block 1218). Der Umgebungslichtanalysator 1104 analysiert weiterhin die Umgebungslichtdaten 1100, bis keine weiteren Daten empfangen werden (Block 1220).
  • Obwohl die Beispiele der 9 bis 12 im Zusammenhang mit der Verwaltung der Helligkeit einer Hintergrundbeleuchtung einer Anzeigetafel erörtert werden, können hierin offenbarte Lehren in anderen Anwendungen verwendet werden. Zum Beispiel können Audiodaten, die von Audiosensoren (z. B. einem Mikrofon) gesammelt werden, analysiert werden, um Anpassungen der Audiolautstärke zu bestimmen, wenn ein Benutzer zum Beispiel Audio über ein Musikwiedergabegerät hört, sich aber zwischen Umgebungen mit unterschiedlichen Umgebungsgeräuschen bewegt. In solchen Beispielen kann die Audiolautstärke automatisch angepasst (z. B. erhöht) werden, wenn ein Benutzer von einer ruhigen Umgebung in eine laute Umgebung wechselt, nachdem der Benutzer die Lautstärke in der ruhigen Umgebung manuell verringert hat.
  • 13 ist ein Blockdiagramm einer beispielhaften Prozessorplattform 1300, die strukturiert ist zum Ausführen der Anweisungen aus 7 zum Implementieren des beispielhaften Trainingsmanagers 131 aus 1 und/oder 2. Die Prozessorplattform 1300 kann zum Beispiel ein Server, ein Personal Computer, eine Workstation, eine selbstlernende Maschine (z. B. ein neuronales Netzwerk), eine mobile Vorrichtung (z. B. ein Mobiltelefon, ein Smartphone, ein Tablet wie etwa ein iPad™), ein Personal Digital Assistant (PDA), ein Internetgerät, ein Headset oder eine andere tragbare Vorrichtung oder eine beliebige andere Art von Rechenvorrichtung sein.
  • Die Prozessorplattform 1300 des veranschaulichten Beispiels beinhaltet einen Prozessor 131. Der Prozessor 131 des veranschaulichten Beispiels ist Hardware. Der Prozessor 131 kann zum Beispiel durch eine oder mehrere integrierte Schaltungen, Logikschaltungen, einen oder mehrere Mikroprozessoren, eine oder mehrere GPUs, DSPs oder Steuerungen von einer beliebigen gewünschten Familie oder einem beliebigen gewünschten Hersteller implementiert werden. Der Hardwareprozessor kann eine halbleiterbasierte (z. B. siliziumbasierte) Vorrichtung sein. In diesem Beispiel implementiert der Prozessor den beispielhaften Trainer 200 und die beispielhafte Maschinenlern-Engine 202.
  • Der Prozessor 131 des veranschaulichten Beispiels beinhaltet einen lokalen Speicher 1313 (z. B. einen Cache). Der Prozessor 131 des veranschaulichten Beispiels befindet sich über einen Bus 1318 in Kommunikation mit einem Hauptspeicher, der einen unbeständigen Speicher 1314 und einen beständigen Speicher 1316 beinhaltet. Der unbeständige Speicher 1314 kann durch SDRAM (Synchronous Dynamic Random Access Memory - synchroner dynamischer Direktzugriffsspeicher), DRAM (dynamischer Direktzugriffsspeicher), RDRAM® (RAMBUS® dynamischer Direktzugriffsspeicher) und/oder eine beliebige andere Art von Direktzugriffsspeicher-Vorrichtung implementiert werden. Der beständige Speicher 1316 kann durch Flash-Speicher und/oder eine beliebige andere gewünschte Art von Speichervorrichtung implementiert werden. Ein Zugriff auf den Hauptspeicher 1314, 1316 wird durch eine Speichersteuerung gesteuert.
  • Die Prozessorplattform 1300 des dargestellten Beispiels umfasst auch eine Schnittstellenschaltung 1320. Die Schnittstellenschaltung 1320 kann durch eine beliebige Art von Schnittstellenstandard implementiert werden, wie etwa eine Ethernet-Schnittstelle, einen USB (Universal Serial Bus), eine Bluetooth®-Schnittstelle, eine Nahfeldkommunikations(NFC)-Schnittstelle und/oder eine PCI-Express-Schnittstelle.
  • Bei dem veranschaulichten Beispiel sind eine oder mehrere Eingabevorrichtungen 1322 mit der Schnittstellenschaltung 1320 verbunden. Die eine oder die mehreren Eingabevorrichtungen 1322 gestatten einem Benutzer, Daten und/oder Befehle in den Prozessor 131 einzugeben. Die eine oder die mehreren Eingabevorrichtungen können zum Beispiel durch einen Audiosensor, ein Mikrofon, eine Kamera (Standbild oder Video), eine Tastatur, eine Taste, eine Maus, einen Touchscreen, ein Trackpad, einen Trackball, Isopoint und/oder ein Spracherkennungssystem implementiert werden.
  • Eine oder mehrere Ausgabevorrichtungen 1324 sind auch mit der Schnittstellenschaltung 1320 des veranschaulichten Beispiels verbunden. Die Ausgabevorrichtungen 1324 können zum Beispiel durch Anzeigevorrichtungen (z. B. eine Leuchtdiode (LED), eine organische Leuchtdiode (OLED), eine Flüssigkristallanzeige (LCD), eine Kathodenstrahlröhren(CRT)-Anzeige, eine IPS(In-Place Switching)-Anzeige, einen Touchscreen usw.), eine taktile Ausgabevorrichtung, einen Drucker und/oder Lautsprecher implementiert werden. Die Schnittstellenschaltung 1320 des veranschaulichten Beispiels beinhaltet somit typischerweise eine Grafiktreiberkarte, einen Grafiktreiberchip und/oder einen Grafiktreiberprozessor.
  • Die Schnittstellenschaltung 1320 des veranschaulichten Beispiels beinhaltet auch eine Kommunikationsvorrichtung, wie etwa einen Sender, einen Empfänger, einen Sendeempfänger, ein Modem, ein Haus-Gateway, einen drahtlosen Zugangspunkt und/oder eine Netzwerkschnittstelle zum Ermöglichen des Austauschs von Daten mit externen Maschinen (z. B. Rechenvorrichtungen einer beliebigen Art) über das Netzwerk 1326. Die Kommunikation kann zum Beispiel über eine Ethernet-Verbindung, eine DSL(Digital Subscriber Line)-Verbindung, eine Telefonleitungsverbindung, ein Koaxialkabelsystem, ein Satellitensystem, ein drahtloses Line-of-Site-System, ein Zellulartelefonsystem usw. stattfinden.
  • Die Prozessorplattform 1300 des veranschaulichten Beispiels beinhaltet auch eine oder mehrere Massenspeicherungsvorrichtungen 1328 zum Speichern von Software und/oder Daten. Beispiele für derartige Massenspeicherungsvorrichtungen 1328 beinhalten Diskettenlaufwerke, Festplatten, CD-Laufwerke, Blu-Ray-Disk-Laufwerke, RAID(Redundant Array of Independent Disks)-Systeme und DVD(Digital Versatile Disk)-Laufwerke.
  • Die maschinenausführbaren Anweisungen 1332 aus 7 können in der Massenspeichervorrichtung 1328, in dem flüchtigen Speicher 1314, in dem nicht-flüchtigen Speicher 1316 und/oder auf einem entfernbaren nicht-flüchtigen computerlesbaren Speichermedium, wie etwa einer CD oder DVD, gespeichert werden.
  • 14 ist ein Blockdiagramm einer beispielhaften Prozessorplattform 1400, die strukturiert ist zum Ausführen der Anweisungen aus 8A und 8B zum Implementieren der beispielhaften Anzeigetafelsteuerung 130 aus 1 und/oder 2. Die Prozessorplattform 1400 kann zum Beispiel ein Server, ein Personal Computer, eine Workstation, eine selbstlernende Maschine (z. B. ein neuronales Netzwerk), eine mobile Vorrichtung (z. B. ein Mobiltelefon, ein Smartphone, ein Tablet wie etwa ein iPad™), ein Personal Digital Assistant (PDA), ein Internetgerät, ein Headset oder eine andere tragbare Vorrichtung oder eine beliebige andere Art von Rechenvorrichtung sein.
  • Die Prozessorplattform 1400 des veranschaulichten Beispiels beinhaltet einen Prozessor 130. Der Prozessor 130 des veranschaulichten Beispiels ist Hardware. Der Prozessor 130 kann zum Beispiel durch eine oder mehrere integrierte Schaltungen, Logikschaltungen, einen oder mehrere Mikroprozessoren, eine oder mehrere GPUs, DSPs oder Steuerungen von einer beliebigen gewünschten Familie oder einem beliebigen gewünschten Hersteller implementiert werden. Der Hardwareprozessor kann eine halbleiterbasierte (z. B. siliziumbasierte) Vorrichtung sein. In diesem Beispiel implementiert der Prozessor den beispielhaften Benutzeranwesenheitsdetektor 212, den beispielhaften Blickdetektor 216, den beispielhaften Tafelelektronikmanager 218, den beispielhaften Hintergrundbeleuchtungsmanager 220, den beispielhaften Umgebungslichtanalysator 226, den beispielhaften Feedbackanalysator 227, den beispielhaften Benutzerinteraktionsdetektor 229 und den beispielhaften Anwendungsnutzungsdetektor 230.
  • Der Prozessor 130 des veranschaulichten Beispiels beinhaltet einen lokalen Speicher 1413 (z. B. einen Cache). Der Prozessor 130 des veranschaulichten Beispiels befindet sich über einen Bus 1418 in Kommunikation mit einem Hauptspeicher, der einen unbeständigen Speicher 1414 und einen beständigen Speicher 1416 beinhaltet. Der unbeständige Speicher 1414 kann durch SDRAM (Synchronous Dynamic Random Access Memory - synchroner dynamischer Direktzugriffsspeicher), DRAM (dynamischer Direktzugriffsspeicher), RDRAM® (RAMBUS® dynamischer Direktzugriffsspeicher) und/oder eine beliebige andere Art von Direktzugriffsspeicher-Vorrichtung implementiert werden. Der beständige Speicher 1416 kann durch Flash-Speicher und/oder eine beliebige andere gewünschte Art von Speichervorrichtung implementiert werden. Ein Zugriff auf den Hauptspeicher 1414, 1416 wird durch eine Speichersteuerung gesteuert.
  • Die Prozessorplattform 1400 des dargestellten Beispiels umfasst auch eine Schnittstellenschaltung 1420. Die Schnittstellenschaltung 1420 kann durch eine beliebige Art von Schnittstellenstandard implementiert werden, wie etwa eine Ethernet-Schnittstelle, einen USB (Universal Serial Bus), eine Bluetooth®-Schnittstelle, eine Nahfeldkommunikations(NFC)-Schnittstelle und/oder eine PCI-Express-Schnittstelle.
  • Bei dem veranschaulichten Beispiel sind eine oder mehrere Eingabevorrichtungen 1422 mit der Schnittstellenschaltung 1420 verbunden. Die eine oder die mehreren Eingabevorrichtungen 1422 gestatten einem Benutzer, Daten und/oder Befehle in den Prozessor 130 einzugeben. Die eine oder die mehreren Eingabevorrichtungen können zum Beispiel durch einen Audiosensor, ein Mikrofon, eine Kamera (Standbild oder Video), eine Tastatur, eine Taste, eine Maus, einen Touchscreen, ein Trackpad, einen Trackball, Isopoint und/oder ein Spracherkennungssystem implementiert werden.
  • Eine oder mehrere Ausgabevorrichtungen 1424 sind auch mit der Schnittstellenschaltung 1420 des veranschaulichten Beispiels verbunden. Die Ausgabevorrichtungen 1424 können zum Beispiel durch Anzeigevorrichtungen (z. B. eine Leuchtdiode (LED), eine organische Leuchtdiode (OLED), eine Flüssigkristallanzeige (LCD), eine Kathodenstrahlröhren(CRT)-Anzeige, eine IPS(In-Place Switching)-Anzeige, einen Touchscreen usw.), eine taktile Ausgabevorrichtung, einen Drucker und/oder Lautsprecher implementiert werden. Die Schnittstellenschaltung 1420 des veranschaulichten Beispiels beinhaltet somit typischerweise eine Grafiktreiberkarte, einen Grafiktreiberchip und/oder einen Grafiktreiberprozessor.
  • Die Schnittstellenschaltung 1420 des veranschaulichten Beispiels beinhaltet auch eine Kommunikationsvorrichtung, wie etwa einen Sender, einen Empfänger, einen Sendeempfänger, ein Modem, ein Haus-Gateway, einen drahtlosen Zugangspunkt und/oder eine Netzwerkschnittstelle zum Ermöglichen des Austauschs von Daten mit externen Maschinen (z. B. Rechenvorrichtungen einer beliebigen Art) über das Netzwerk 1426. Die Kommunikation kann zum Beispiel über eine Ethernet-Verbindung, eine DSL(Digital Subscriber Line)-Verbindung, eine Telefonleitungsverbindung, ein Koaxialkabelsystem, ein Satellitensystem, ein drahtloses Line-of-Site-System, ein Zellulartelefonsystem usw. stattfinden.
  • Die Prozessorplattform 1400 des veranschaulichten Beispiels beinhaltet auch eine oder mehrere Massenspeicherungsvorrichtungen 1428 zum Speichern von Software und/oder Daten. Beispiele für derartige Massenspeicherungsvorrichtungen 1428 beinhalten Diskettenlaufwerke, Festplatten, CD-Laufwerke, Blu-Ray-Disk-Laufwerke, RAID(Redundant Array of Independent Disks)-Systeme und DVD(Digital Versatile Disk)-Laufwerke.
  • Die maschinenausführbaren Anweisungen 1432 aus 8A und 8B können in der Massenspeichervorrichtung 1428, in dem flüchtigen Speicher 1414, in dem nicht-flüchtigen Speicher 1416 und/oder auf einem entfernbaren nicht-flüchtigen computerlesbaren Speichermedium, wie etwa einer CD oder DVD, gespeichert werden.
  • 15 ist ein Blockdiagramm einer beispielhaften Prozessorplattform 1500, die strukturiert ist zum Ausführen der Anweisungen aus 12 zum Implementieren des beispielhaften Hintergrundbeleuchtungs-Helligkeitsmanagers 912 aus 9, 10 und/oder 11. Die Prozessorplattform 1500 kann zum Beispiel ein Server, ein Personal Computer, eine Workstation, eine selbstlernende Maschine (z. B. ein neuronales Netzwerk), eine mobile Vorrichtung (z. B. ein Mobiltelefon, ein Smartphone, ein Tablet wie etwa ein iPad™), ein Personal Digital Assistant (PDA), ein Internetgerät, ein Headset oder eine andere tragbare Vorrichtung oder eine beliebige andere Art von Rechenvorrichtung sein.
  • Die Prozessorplattform 1500 des veranschaulichten Beispiels beinhaltet einen Prozessor 912. Der Prozessor 912 des veranschaulichten Beispiels ist Hardware. Der Prozessor 912 kann zum Beispiel durch eine oder mehrere integrierte Schaltungen, Logikschaltungen, einen oder mehrere Mikroprozessoren, eine oder mehrere GPUs, DSPs oder Steuerungen von einer beliebigen gewünschten Familie oder einem beliebigen gewünschten Hersteller implementiert werden. Der Hardwareprozessor kann eine halbleiterbasierte (z. B. siliziumbasierte) Vorrichtung sein. In diesem Beispiel implementiert der Prozessor den beispielhaften Umgebungslichtanalysator 1104 und den beispielhaften Benutzereingabedetektor 1110.
  • Der Prozessor 912 des veranschaulichten Beispiels beinhaltet einen lokalen Speicher 1513 (z. B. einen Cache). Der Prozessor 912 des veranschaulichten Beispiels befindet sich über einen Bus 1518 in Kommunikation mit einem Hauptspeicher, der einen unbeständigen Speicher 1514 und einen beständigen Speicher 1516 beinhaltet. Der unbeständige Speicher 1514 kann durch SDRAM (Synchronous Dynamic Random Access Memory - synchroner dynamischer Direktzugriffsspeicher), DRAM (dynamischer Direktzugriffsspeicher), RDRAM® (RAMBUS® dynamischer Direktzugriffsspeicher) und/oder eine beliebige andere Art von Direktzugriffsspeicher-Vorrichtung implementiert werden. Der beständige Speicher 1516 kann durch Flash-Speicher und/oder eine beliebige andere gewünschte Art von Speichervorrichtung implementiert werden. Ein Zugriff auf den Hauptspeicher 1514, 1516 wird durch eine Speichersteuerung gesteuert.
  • Die Prozessorplattform 1500 des dargestellten Beispiels umfasst auch eine Schnittstellenschaltung 1520. Die Schnittstellenschaltung 1520 kann durch eine beliebige Art von Schnittstellenstandard implementiert werden, wie etwa eine Ethernet-Schnittstelle, einen USB (Universal Serial Bus), eine Bluetooth®-Schnittstelle, eine Nahfeldkommunikations(NFC)-Schnittstelle und/oder eine PCI-Express-Schnittstelle.
  • Bei dem veranschaulichten Beispiel sind eine oder mehrere Eingabevorrichtungen 1522 mit der Schnittstellenschaltung 1520 verbunden. Die eine oder die mehreren Eingabevorrichtungen 1522 gestatten einem Benutzer, Daten und/oder Befehle in den Prozessor 912 einzugeben. Die eine oder die mehreren Eingabevorrichtungen können zum Beispiel durch einen Audiosensor, ein Mikrofon, eine Kamera (Standbild oder Video), eine Tastatur, eine Taste, eine Maus, einen Touchscreen, ein Trackpad, einen Trackball, Isopoint und/oder ein Spracherkennungssystem implementiert werden.
  • Eine oder mehrere Ausgabevorrichtungen 1524 sind auch mit der Schnittstellenschaltung 1520 des veranschaulichten Beispiels verbunden. Die Ausgabevorrichtungen 1524 können zum Beispiel durch Anzeigevorrichtungen (z. B. eine Leuchtdiode (LED), eine organische Leuchtdiode (OLED), eine Flüssigkristallanzeige (LCD), eine Kathodenstrahlröhren(CRT)-Anzeige, eine IPS(In-Place Switching)-Anzeige, einen Touchscreen usw.), eine taktile Ausgabevorrichtung, einen Drucker und/oder Lautsprecher implementiert werden. Die Schnittstellenschaltung 1520 des veranschaulichten Beispiels beinhaltet somit typischerweise eine Grafiktreiberkarte, einen Grafiktreiberchip und/oder einen Grafiktreiberprozessor.
  • Die Schnittstellenschaltung 1520 des veranschaulichten Beispiels beinhaltet auch eine Kommunikationsvorrichtung, wie etwa einen Sender, einen Empfänger, einen Sendeempfänger, ein Modem, ein Haus-Gateway, einen drahtlosen Zugangspunkt und/oder eine Netzwerkschnittstelle zum Ermöglichen des Austauschs von Daten mit externen Maschinen (z. B. Rechenvorrichtungen einer beliebigen Art) über das Netzwerk 1526. Die Kommunikation kann zum Beispiel über eine Ethernet-Verbindung, eine DSL(Digital Subscriber Line)-Verbindung, eine Telefonleitungsverbindung, ein Koaxialkabelsystem, ein Satellitensystem, ein drahtloses Line-of-Site-System, ein Zellulartelefonsystem usw. stattfinden.
  • Die Prozessorplattform 1500 des veranschaulichten Beispiels beinhaltet auch eine oder mehrere Massenspeicherungsvorrichtungen 1528 zum Speichern von Software und/oder Daten. Beispiele für derartige Massenspeicherungsvorrichtungen 1528 beinhalten Diskettenlaufwerke, Festplatten, CD-Laufwerke, Blu-Ray-Disk-Laufwerke, RAID(Redundant Array of Independent Disks)-Systeme und DVD(Digital Versatile Disk)-Laufwerke.
  • Die maschinenausführbaren Anweisungen 1532 aus 12 können in der Massenspeichervorrichtung 1528, in dem flüchtigen Speicher 1514, in dem nicht-flüchtigen Speicher 1516 und/oder auf einem entfernbaren nicht-flüchtigen computerlesbaren Speichermedium, wie etwa einer CD oder DVD, gespeichert werden.
  • Aus dem Vorhergehenden ist ersichtlich, dass beispielhafte Verfahren, Vorrichtungen und Herstellungsartikel offenbart wurden, die eine intelligente Steuerung von Anzeigevorrichtungen ermöglichen, um dem Benutzer das Betrachten eines Anzeigebildschirms zu erleichtern und/oder den Stromverbrauch basierend auf der Benutzerinteraktion mit der Vorrichtung zu verwalten. Einige hierin offenbarte Beispiele steuern den Betrieb der Tafelelektronik und/oder der Hintergrundbeleuchtung einer Anzeigetafel basierend auf der Anwesenheit und Aufmerksamkeit des Benutzers relativ zum Anzeigebildschirm, wie unter Verwendung einer Gesichtserkennungsanalyse von Bilddaten erfasst. Hierin offenbarte Beispiele stellen die anzeigetafelbasierte Detektion des Benutzers innerhalb eines Sichtfelds des bzw. der Bildsensoren der Vorrichtung und die Detektion des Blicks des Benutzers relativ zur Vorrichtung dynamisch auf maximale Energieeinsparungen ein, während sich die Vorrichtung in einem Betriebszustand befindet und der Benutzer gezielt mit der Vorrichtung interagiert. Einige hierin offenbarte Beispiele bestimmen die Helligkeit der Hintergrundbeleuchtung der Anzeige basierend auf Umgebungslichtdaten und stellen die Hintergrundbeleuchtungshelligkeit im Hinblick auf manuelle Anpassungen der Hintergrundbeleuchtungshelligkeit durch den Benutzer automatisch ein. Solche Beispiele erleichtern das Betrachten des Anzeigebildschirms, wenn sich die Umgebungslichtpegel ändern, ohne dass weitere manuelle Einstellungen durch den Benutzer erforderlich sind.
  • Einige offenbarte Verfahren, Einrichtungen und Herstellungsartikel verbessern die Effizienz einer Datenverarbeitungsvorrichtung durch dynamisches Steuern des Betriebs der Anzeigetafel basierend auf der Anwesenheit und Aufmerksamkeit des Benutzers in Bezug auf die Vorrichtung. Einige hierin offenbarte Beispiele verbessern die Energieeinsparungsbemühungen, indem sie Benutzerinteraktionen mit der Vorrichtung oder Zeiträume von Inaktivität genauer detektieren als bekannte Beispiele, die sich auf vordefinierte Zeiträume von Inaktivität verlassen, bevor die Anzeigetafel ausgeschaltet wird. Beim Durchführen der Analyse von Benutzerinteraktionen mit dem Anzeigegerät sparen die hierin offenbarten Beispiele Energie, indem sie beispielsweise Bilddaten mit niedriger Auflösung sammeln, auf die Analyse der Bilddaten verzichten, wenn bekannt ist, dass der Benutzer mit der Vorrichtung interagiert usw. Als Ergebnis stellen hierin offenbarte Beispiele eine verbesserte Energieverwaltung für die Vorrichtung bereit.
  • Einige andere offenbarte Verfahren, Vorrichtungen und Herstellungsartikel verbessern die Effizienz einer Datenverarbeitungsvorrichtung, indem sie Umgebungslichtpegel analysieren und bestimmen, ob die Helligkeit der Hintergrundbeleuchtung angepasst werden sollte, basierend auf automatischen Helligkeitseinstellungen, oder ob die Helligkeit bei einer vorherigen manuellen benutzerdefinierten Einstellung gehalten werden sollte. Anstatt vom Benutzer zu verlangen, die automatische Helligkeitseinstellung nach dem Ausschalten der Einstellung zu reaktivieren, bestimmen hierin offenbarte Beispiele automatisch die Helligkeitseinstellung basierend auf Umgebungslichtdaten. Die offenbarten Verfahren, Einrichtungen und Herstellungsartikel sind dementsprechend auf eine oder mehrere Verbesserungen der Funktionsweise eines Computers ausgerichtet.
  • Beispiel 1 umfasst eine Vorrichtung zum Steuern einer Anzeige einer elektronischen Vorrichtung. Die Einrichtung umfasst einen Benutzeranwesenheitsdetektor zum Bestimmen einer Anwesenheit eines Benutzers in Bezug auf die Vorrichtung basierend auf Bilddaten, die von einem Bildsensor der elektronischen Vorrichtung erzeugt werden, einen Blickdetektor zum Bestimmen einer Blickrichtung des Benutzers in Bezug auf den Bildsensor basierend auf den Bilddaten, und einen Hintergrundbeleuchtungsmanager, um eine Anzeigehelligkeit basierend auf der Anwesenheit des Benutzers und der Blickrichtung des Benutzers gezielt einzustellen.
  • Beispiel 2 umfasst die in Beispiel 1 definierte Einrichtung, die ferner einen Tafelelektronikmanager umfasst, um den Betrieb der Tafelelektronik der Anzeige basierend auf der Anwesenheit des Benutzers gezielt zu steuern.
  • Beispiel 3 umfasst die in Beispiel 1 definierte Einrichtung, wobei der Benutzeranwesenheitsdetektor die Anwesenheit des Benutzers basierend auf der Detektion eines Gesichts in den Bilddaten bestimmen soll.
  • Beispiel 4 umfasst die in Beispiel 1 definierte Einrichtung, wobei der Blickdetektor die Blickrichtung des Benutzers basierend auf der Detektion eines oder mehrerer Merkmale eines Gesichts des Benutzers in den Bilddaten bestimmen soll.
  • Beispiel 5 beinhaltet die in Beispiel 1 oder 2 definierte Einrichtung, ferner umfassend einen Trainer zum Erzeugen eines Gesichtsdetektionsmodells basierend auf den Bilddaten, wobei der Benutzeranwesenheitsdetektor das Gesichtsdetektionsmodell anwendet, um die Anwesenheit des Benutzers zu detektieren.
  • Beispiel 6 umfasst die in Beispiel 1 definierte Einrichtung, wobei die Bilddaten erste Bilddaten sind, die zu einem ersten Zeitpunkt gesammelt wurden, wobei der Blickdetektor zweite Bilddaten analysiert, die zu einem zweiten Zeitpunkt gesammelt wurden, der nach dem ersten Zeitpunkt auftritt, um eine Blickrichtung des Benutzers zum zweiten Zeitpunkt zu bestimmen und eine Änderung der Blickrichtung des Benutzers zwischen dem ersten und dem zweiten Zeitpunkt zu bestimmen. Der Hintergrundbeleuchtungsmanager soll die Anzeigehelligkeit basierend auf der Änderung der Blickrichtung des Benutzers anpassen.
  • Beispiel 7 umfasst die in Beispiel 6 definierte Einrichtung, wobei der Hintergrundbeleuchtungsmanager die Anzeigehelligkeit bei Änderung der Blickrichtung des Benutzers entweder erhöhen oder verringern soll.
  • Beispiel 8 umfasst die in Beispiel 7 definierte Einrichtung, wobei eine Rate, mit der der Hintergrundbeleuchtungsmanager die Anzeigehelligkeit erhöhen soll, auf der Blickrichtung des Benutzers zum ersten Zeitpunkt basiert.
  • Beispiel 9 umfasst die in Beispiel 1 oder 2 definierte Einrichtung, ferner umfassend einen Benutzerinteraktionsdetektor, um eine Benutzereingabe an der Vorrichtung zu detektieren. Der Benutzeranwesenheitsdetektor soll die Analyse der Bilddaten unterlassen, wenn der Benutzerinteraktionsdetektor die Benutzereingabe detektiert.
  • Beispiel 10 umfasst die in den Beispielen 1 oder 2 definierte Einrichtung, wobei der Hintergrundbeleuchtungsmanager die Anzeigehelligkeit basierend auf Umgebungslichtdaten, die von einem Umgebungslichtsensor der Vorrichtung erzeugt werden, weiter anpassen soll.
  • Beispiel 11 umfasst mindestens ein nicht-flüchtiges computerlesbares Speichermedium, das Anweisungen umfasst, die bei Ausführung eine Maschine veranlassen, zumindest eine Blickrichtung eines Benutzers relativ zu einem Benutzergerät basierend auf Bilddaten zu bestimmen, die von einem Bildsensor des Benutzergeräts erzeugt werden, und den Betrieb einer Anzeigetafel des Benutzergeräts basierend auf der Blickrichtung des Benutzers zu steuern.
  • Beispiel 12 umfasst das in Beispiel 11 definierte mindestens eine nicht-flüchtige computerlesbare Speichermedium, wobei die Anweisungen, wenn sie ausgeführt werden, die Maschine ferner veranlassen, den Betrieb der Anzeigetafel durch Anpassen einer Helligkeit einer Hintergrundbeleuchtung der Anzeigetafel zu steuern.
  • Beispiel 13 umfasst das in Beispiel 11 definierte mindestens eine nicht-flüchtige computerlesbare Speichermedium, wobei die Anweisungen, wenn sie ausgeführt werden, die Maschine ferner veranlassen, eine Anwesenheit oder Abwesenheit des Benutzers in Bezug auf das Benutzergerät basierend auf den Bilddaten zu bestimmen, und einen Energiezustand der Tafelelektronik basierend auf der Anwesenheit oder Abwesenheit des Benutzers einzustellen.
  • Beispiel 14 umfasst das in Beispiel 11 definierte mindestens eine nicht-flüchtige computerlesbare Speichermedium, wobei die Anweisungen, wenn sie ausgeführt werden, die Maschine ferner veranlassen, die Blickrichtung des Benutzers zu bestimmen, indem sie ein oder mehrere Gesichtsmerkmale des Benutzer in den Bilddaten identifizieren.
  • Beispiel 15 umfasst das in Beispiel 11 definierte mindestens eine nicht-flüchtige computerlesbare Speichermedium, wobei die Bilddaten erste Bilddaten sind, die zu einem ersten Zeitpunkt erzeugt wurden, und wobei die Anweisungen, wenn sie ausgeführt werden, die Maschine ferner veranlassen, eine Änderung einer Blickrichtung des Benutzers basierend auf den ersten Bilddaten und zweiten Bilddaten zu detektieren, die von dem Bildsensor zu einem zweiten Zeitpunkt erzeugt werden, der nach dem ersten Zeitpunkt auftritt, und eine Helligkeit einer Hintergrundbeleuchtung der Anzeigetafel basierend auf der Änderung der Blickrichtung des Benutzers anzupassen.
  • Beispiel 16 umfasst das in Beispiel 15 definierte mindestens eine nicht-flüchtige computerlesbare Speichermedium, wobei die Anweisungen, wenn sie ausgeführt werden, die Maschine ferner veranlassen, die Helligkeit der Hintergrundbeleuchtung zu erhöhen, die Helligkeit der Hintergrundbeleuchtung zu verringern oder die Hintergrundbeleuchtung auszuschalten, basierend auf der Änderung der Blickrichtung des Benutzers.
  • Beispiel 17 umfasst das in Beispiel 11 definierte mindestens eine nicht-flüchtige computerlesbare Speichermedium, wobei die Anweisungen, wenn sie ausgeführt werden, die Maschine ferner veranlassen, eine vom Benutzergerät empfangene Benutzereingabe zu detektieren und davon abzusehen, die Blickrichtung des Benutzers basierend auf der Detektion der Benutzereingabe zu bestimmen.
  • Beispiel 18 umfasst das in Beispiel 11 definierte mindestens eine nicht-flüchtige computerlesbare Speichermedium, wobei die Anweisungen, wenn sie ausgeführt werden, die Maschine ferner veranlassen, ein Maschinenlernmodell anzuwenden, um die Blickrichtung des Benutzers zu bestimmen.
  • Beispiel 19 umfasst eine elektronische Vorrichtung mit einem Anzeigebildschirm. Die elektronische Vorrichtung umfasst Mittel zum Erzeugen von Bilddaten, Mittel zum Beleuchten des Anzeigebildschirms und Mittel zum Anpassen einer Helligkeit des Mittels zum Beleuchten. Das Mittel zum Anpassen dient dazu, eine Blickrichtung eines Benutzers relativ zu dem Mittel zum Erzeugen von Bilddaten basierend auf den Bilddaten zu bestimmen und die Helligkeit des Mittels zum Beleuchten basierend auf der Blickrichtung des Benutzers zu erhöhen oder zu verringern.
  • Beispiel 20 umfasst die in Beispiel 19 definierte elektronische Vorrichtung, wobei das Mittel zum Erzeugen von Bilddaten eine Kamera umfasst.
  • Beispiel 21 umfasst die in Beispiel 19 definierte elektronische Vorrichtung, wobei das Mittel zum Anpassen dazu dient, die Blickrichtung des Benutzers basierend auf der Detektion von mindestens einem Gesichtsmerkmal in den Bilddaten zu bestimmen.
  • Beispiel 22 umfasst die in Beispiel 19 definierte elektronische Vorrichtung, wobei das Mittel zum Anpassen dazu dient, die Helligkeit im Laufe der Zeit basierend auf der Blickrichtung des Benutzers oder einer Änderung der Blickrichtung des Benutzers zu erhöhen oder zu verringern.
  • Beispiel 23 umfasst die in Beispiel 19 definierte elektronische Vorrichtung, ferner umfassend Mittel zum Erzeugen von Umgebungslichtdaten. Das Mittel zum Anpassen dient ferner dazu, die Helligkeit des Mittels zum Beleuchten basierend auf den Umgebungslichtdaten einzustellen.
  • Beispiel 24 umfasst eine elektronische Vorrichtung mit einer Anzeigetafel. Die elektronische Vorrichtung umfasst einen Bildsensor, um Bilddaten basierend auf einem Sichtfeld des Bildsensors zu erzeugen, und eine Anzeigetafelsteuerung, um einen Energiezustand von mindestens einer aus einer Hintergrundbeleuchtung und Tafelelektronik der Anzeigetafel basierend auf einem Vorhandensein eines Benutzers in den Bilddaten gezielt zu steuern.
  • Beispiel 25 umfasst die in Beispiel 24 definierte elektronische Vorrichtung, wobei der Bildsensor eine Kamera umfasst.
  • Beispiel 26 umfasst die in Beispiel 24 definierte elektronische Vorrichtung, wobei die Anzeigetafelsteuerung ferner dazu dient, eine Helligkeit einer Lichtausgabe durch die Hintergrundbeleuchtung basierend auf einer Position des Benutzers im Sichtfeld einzustellen.
  • Beispiel 27 beinhaltet die in Beispiel 24 definierte elektronische Vorrichtung, ferner umfassend einen Umgebungslichtsensor, um Umgebungslichtdaten zu erzeugen, die einer Umgebung zugeordnet sind, in der sich die elektronische Vorrichtung befindet. Die Anzeigetafelsteuerung dient ferner dazu, die Hintergrundbeleuchtung basierend auf den Umgebungslichtdaten zu steuern.
  • Beispiel 28 umfasst die in Beispiel 24 definierte elektronische Vorrichtung, wobei die Anzeigetafelsteuerung dazu dient, ein Gesichtsdetektionsmodell anzuwenden, um die Anwesenheit des Benutzers in den Bilddaten zu bestimmen.
  • Beispiel 29 umfasst die in Beispiel 24 definierte elektronische Vorrichtung, wobei das Sichtfeld ein erstes Sichtfeld ist und die Anzeigetafelsteuerung ferner dazu dient, eine Position des Benutzers in einem zweiten Sichtfeld zu bestimmen, wobei das zweite Sichtfeld auf einem Betrachtungswinkel eines Anzeigebildschirms der Anzeigetafel basiert.
  • Beispiel 30 umfasst eine elektronische Vorrichtung, die einen Umgebungslichtsensor umfasst, um Umgebungslichtdaten zu erzeugen, die einen Lichtpegel in einer Umgebung angeben, die die elektronische Vorrichtung und eine Hintergrundbeleuchtung umfasst, um einen Anzeigebildschirm zu beleuchten. Die Hintergrundbeleuchtung dient dazu, ein Licht mit einem ersten Helligkeitspegel zu emittieren, wobei der erste Helligkeitspegel basierend auf einer Benutzereingabe definiert wird. Die elektronische Vorrichtung umfasst einen Hintergrundbeleuchtungs-Helligkeitsmanager, um die Hintergrundbeleuchtung anzuweisen, entweder den ersten Helligkeitspegel beizubehalten oder Licht mit einem zweiten Helligkeitspegel basierend auf den Umgebungslichtdaten zu emittieren, wobei sich der zweite Helligkeitspegel vom ersten Helligkeitspegel unterscheidet.
  • Beispiel 31 umfasst die elektronische Vorrichtung aus Beispiel 30, wobei die Umgebungslichtdaten erste Umgebungslichtdaten, die zu einem ersten Zeitpunkt erzeugt wurden, und zweite Umgebungslichtdaten, die zu einem zweiten Zeitpunkt erzeugt wurden, der nach dem ersten Zeitpunkt auftritt, umfassen, wobei der Hintergrundbeleuchtungs-Helligkeitsmanager dazu dient, einen Vergleich der ersten Umgebungslichtdaten und der zweiten Umgebungslichtdaten durchzuführen und die Hintergrundbeleuchtung basierend auf dem Vergleich anzuweisen.
  • Beispiel 32 umfasst die elektronische Vorrichtung aus Beispiel 31, wobei der Hintergrundbeleuchtungs-Helligkeitsmanager dazu dient, den Vergleich durchzuführen, indem er eine Differenz zwischen den ersten Umgebungslichtdaten und den zweiten Umgebungslichtdaten bestimmt und einen Vergleich der Differenz zwischen den ersten Umgebungslichtdaten und den zweiten Umgebungslichtdaten mit einer Schwelle durchführt. Der Hintergrundbeleuchtungs-Helligkeitsmanager dient dazu, die Hintergrundbeleuchtung anzuweisen, das Licht mit dem zweiten Helligkeitspegel zu emittieren, wenn die Differenz die Schwelle überschreitet.
  • Beispiel 33 umfasst die elektronische Vorrichtung aus Beispiel 30, wobei der zweite Helligkeitspegel mit einer Zunahme einer Helligkeit des von der Hintergrundbeleuchtung emittierten Lichts relativ zum ersten Helligkeitspegel verbunden ist.
  • Beispiel 34 umfasst mindestens ein nicht-flüchtiges computerlesbares Speichermedium, das Anweisungen umfasst, die, wenn sie ausgeführt werden, eine Maschine veranlassen, mindestens einen Vergleich zwischen ersten Umgebungslichtdaten, die von einem Umgebungslichtsensor zu einem ersten Zeitpunkt erzeugt wurden, und zweiten Umgebungslichtdaten, die von einem Umgebungslichtsensor zu einem zweiten Zeitpunkt erzeugt wurden, der nach dem ersten Zeitpunkt auftritt, durchzuführen und eine Hintergrundbeleuchtung anzuweisen, Licht mit einem ersten Helligkeitspegel oder einem zweiten Helligkeitspegel basierend auf dem Vergleich zu emittieren. Der zweite Helligkeitspegel unterscheidet sich vom ersten Helligkeitspegel. Der erste Helligkeitspegel wird basierend auf einer Benutzereingabe definiert.
  • Beispiel 35 umfasst das in Beispiel 34 definierte mindestens eine nicht-flüchtige computerlesbare Speichermedium, wobei die Anweisungen, wenn sie ausgeführt werden, die Maschine ferner veranlassen, eine Differenz zwischen den ersten Umgebungslichtdaten und den zweiten Umgebungslichtdaten zu bestimmen, einen Vergleich der Differenz mit einer Schwelle durchzuführen und die Hintergrundbeleuchtung anzuweisen, das Licht mit dem zweiten Helligkeitspegel zu emittieren, wenn die Differenz die Schwelle überschreitet.
  • Beispiel 36 umfasst das in Beispiel 35 definierte mindestens eine nicht-flüchtige computerlesbare Speichermedium, wobei die Anweisungen die Maschine ferner veranlassen, die Hintergrundbeleuchtung anzuweisen, Licht mit dem ersten Helligkeitspegel zu emittieren, wenn die Differenz die Schwelle nicht überschreitet.
  • Beispiel 37 umfasst das in Beispiel 34 definierte mindestens eine nicht-flüchtige computerlesbare Speichermedium, wobei der zweite Helligkeitspegel mit einer Zunahme einer Helligkeit des von der Hintergrundbeleuchtung emittierten Lichts relativ zum ersten Helligkeitspegel verbunden ist.
  • „Beinhaltend“ und „umfassend“ (und alle Formen und Zeitformen davon) werden hierin als offene Begriffe verwendet. Wann auch immer ein Anspruch eine beliebige Form von „beinhalten“ und „umfassen“ (z. B. umfasst, beinhaltet, umfassend, beinhaltend, aufweisend usw.) als eine Präambel oder in einer Anspruchsrezitation einer beliebigen Art einsetzt, soll somit verstanden werden, dass zusätzliche Elemente, Begriffe usw. vorhanden sein können, ohne außerhalb des Schutzumfangs des entsprechenden Anspruchs oder der entsprechenden Rezitation zu fallen. Wie hierin verwendet, wenn der Ausdruck „mindestens“ als der Übergangsausdruck in zum Beispiel einer Präambel eines Anspruchs verwendet wird, ist er auf die gleiche Art und Weise offen, wie der Begriff „umfassend“ und „beinhaltend“ offen ist. Der Begriff „und/oder“, wenn er beispielsweise in einer Form wie „A, B und/oder C“ verwendet wird, bezieht sich auf jede Kombination oder Untermenge von A, B, C, wie etwa (1) A allein, (2) B allein, (3) C allein, (4) A mit B, (5) A mit C, (6) B mit C und (7) A mit B und mit C. Wie hierin im Zusammenhang mit der Beschreibung von Strukturen, Komponenten, Elementen, Objekten und/oder Dingen verwendet, soll sich der Ausdruck „mindestens eines aus A und B“ auf Implementierungen beziehen, die eines aus (1) mindestens ein A, (2) mindestens ein B und (3) mindestens ein A und mindestens ein B umfassen. In ähnlicher Weise, wie hierin im Zusammenhang mit der Beschreibung von Strukturen, Komponenten, Elementen, Objekten und/oder Dingen verwendet, soll sich der Ausdruck „mindestens eines aus A oder B“ auf Implementierungen beziehen, die eines aus (1) mindestens ein A, (2) mindestens ein B und (3) mindestens ein A und mindestens ein B umfassen. Wie hierin im Zusammenhang mit der Beschreibung der Leistung oder Ausführung von Prozessen, Anweisungen, Aktionen, Aktivitäten und/oder Schritten verwendet, soll sich der Ausdruck „mindestens eines aus A und B“ auf Implementierungen beziehen, die eines aus (1) mindestens ein A, (2) mindestens ein B und (3) mindestens ein A und mindestens ein B umfassen. In ähnlicher Weise, wie hierin im Zusammenhang mit der Beschreibung der Leistung oder Ausführung von Prozessen, Anweisungen, Aktionen, Aktivitäten und/oder Schritten verwendet, soll sich der Ausdruck „mindestens eines aus A oder B“ auf Implementierungen beziehen, die eines aus (1) mindestens ein A, (2) mindestens ein B und (3) mindestens ein A und mindestens ein B umfassen.
  • Obwohl gewisse beispielhafte Verfahren, Einrichtungen und Herstellungsartikel hier offenbart wurden, ist der Schutzumfang dieses Patents nicht darauf beschränkt. Vielmehr deckt dieses Patent alle Verfahren, Einrichtungen und Herstellungsartikel ab, die angemessen in den Schutzumfang der Ansprüche dieses Patents fallen.

Claims (25)

  1. Einrichtung zum Steuern einer Anzeige einer elektronischen Vorrichtung, wobei die Einrichtung Folgendes umfasst: einen Benutzeranwesenheitsdetektor zum Bestimmen einer Anwesenheit eines Benutzers in Bezug auf die Vorrichtung basierend auf Bilddaten, die von einem Bildsensor der elektronischen Vorrichtung erzeugt werden; einen Blickdetektor zum Bestimmen einer Blickrichtung des Benutzers relativ zu dem Bildsensor basierend auf den Bilddaten; und einen Hintergrundbeleuchtungsmanager zum gezielten Anpassen einer Anzeigehelligkeit basierend auf der Anwesenheit des Benutzers und der Blickrichtung des Benutzers.
  2. Einrichtung nach Anspruch 1, ferner umfassend einen Tafelelektronikmanager zum gezielten Steuern des Betriebs der Tafelelektronik der Anzeige basierend auf der Anwesenheit des Benutzers.
  3. Einrichtung nach Anspruch 1, wobei der Benutzeranwesenheitsdetektor die Anwesenheit des Benutzers basierend auf der Detektion eines Gesichts in den Bilddaten bestimmen soll.
  4. Einrichtung nach Anspruch 1, wobei der Blickdetektor die Blickrichtung des Benutzers basierend auf der Detektion eines oder mehrerer Merkmale eines Gesichts des Benutzers in den Bilddaten bestimmen soll.
  5. Einrichtung nach Anspruch 1, wobei die Bilddaten erste Bilddaten sind, die zu einem ersten Zeitpunkt gesammelt wurden, wobei der Blickdetektor dient zum: Analysieren von zweiten Bilddaten, die zu einem zweiten Zeitpunkt gesammelt wurden, der nach dem ersten Zeitpunkt auftritt, um eine Blickrichtung des Benutzers zum zweiten Zeitpunkt zu bestimmen; und Bestimmen einer Änderung der Blickrichtung des Benutzers zwischen dem ersten Zeitpunkt und dem zweiten Zeitpunkt, wobei der Hintergrundbeleuchtungsmanager dazu dient, die Anzeigehelligkeit basierend auf der Änderung der Blickrichtung des Benutzers anzupassen.
  6. Einrichtung nach Anspruch 5, wobei der Hintergrundbeleuchtungsmanager die Anzeigehelligkeit bei Änderung der Blickrichtung des Benutzers entweder erhöhen oder verringern soll.
  7. Einrichtung nach Anspruch 6, wobei eine Rate, mit der der Hintergrundbeleuchtungsmanager die Anzeigehelligkeit erhöhen soll, auf der Blickrichtung des Benutzers zum ersten Zeitpunkt basiert.
  8. Einrichtung nach einem der Ansprüche 1-7, ferner umfassend einen Benutzerinteraktionsdetektor zum Detektieren einer Benutzereingabe an der Vorrichtung, wobei der Benutzeranwesenheitsdetektor von einer Analyse der Bilddaten absieht, wenn der Benutzerinteraktionsdetektor die Benutzereingabe detektiert.
  9. Einrichtung nach einem der Ansprüche 1-8, wobei der Hintergrundbeleuchtungsmanager dazu dient, die Anzeigehelligkeit basierend auf Umgebungslichtdaten, die von einem Umgebungslichtsensor der Vorrichtung erzeugt werden, weiter anzupassen.
  10. Zumindest ein nicht-flüchtiges computerlesbares Speichermedium, das Anweisungen umfasst, die, wenn sie ausgeführt werden, eine Maschine mindestens veranlassen zum: Bestimmen einer Blickrichtung eines Benutzers relativ zu einem Benutzergerät basierend auf Bilddaten, die von einem Bildsensor des Benutzergeräts erzeugt werden; und Steuern des Betriebs einer Anzeigetafel des Benutzergeräts basierend auf der Blickrichtung des Benutzers.
  11. Zumindest ein nicht-flüchtiges computerlesbares Speichermedium nach Anspruch 10, wobei die Anweisungen, wenn sie ausgeführt werden, die Maschine ferner veranlassen, eine Anwesenheit oder Abwesenheit des Benutzers in Bezug auf das Benutzergerät basierend auf den Bilddaten zu bestimmen, und einen Energiezustand der Tafelelektronik basierend auf der Anwesenheit oder Abwesenheit des Benutzers einzustellen.
  12. Zumindest ein nicht-flüchtiges computerlesbares Speichermedium nach Anspruch 10, wobei die Bilddaten erste Bilddaten sind, die zu einem ersten Zeitpunkt erzeugt wurden, und wobei die Anweisungen, wenn sie ausgeführt werden, die Maschine ferner veranlassen zum: Detektieren einer Richtungsänderung des Blicks des Benutzers basierend auf den ersten Bilddaten und zweiten Bilddaten, die von dem Bildsensor zu einem zweiten Zeitpunkt erzeugt werden, der nach dem ersten Zeitpunkt auftritt, und Anpassen einer Helligkeit einer Hintergrundbeleuchtung der Anzeigetafel basierend auf der Änderung der Blickrichtung des Benutzers.
  13. Zumindest ein nicht-flüchtiges computerlesbares Speichermedium nach Anspruch 12, wobei die Anweisungen, wenn sie ausgeführt werden, die Maschine ferner veranlassen, die Helligkeit der Hintergrundbeleuchtung zu erhöhen, die Helligkeit der Hintergrundbeleuchtung zu verringern oder die Hintergrundbeleuchtung auszuschalten, basierend auf der Änderung der Blickrichtung des Benutzers.
  14. Zumindest ein nicht-flüchtiges computerlesbares Speichermedium nach Anspruch 10, wobei die Anweisungen, wenn sie ausgeführt werden, die Maschine ferner veranlassen zum: Detektieren einer von dem Benutzergerät empfangenen Benutzereingabe; und Absehen vom Bestimmen der Blickrichtung des Benutzers basierend auf der Detektion der Benutzereingabe.
  15. Elektronische Vorrichtung mit einem Anzeigebildschirm, wobei die elektronische Vorrichtung Folgendes umfasst: Mittel zum Erzeugen von Bilddaten; Mittel zum Beleuchten des Anzeigebildschirms; und Mittel zum Anpassen einer Helligkeit des Mittels zum Beleuchten, wobei das Mittel zum Anpassen dient zum: Bestimmen einer Blickrichtung eines Benutzers relativ zu den Mitteln zum Erzeugen von Bilddaten basierend auf den Bilddaten; und entweder Erhöhen oder Verringern der Helligkeit des Mittels zum Beleuchten basierend auf der Blickrichtung des Benutzers.
  16. Elektronische Vorrichtung nach Anspruch 15, wobei das Mittel zum Anpassen dazu dient, die Blickrichtung des Benutzers basierend auf der Detektion von mindestens einem Gesichtsmerkmal in den Bilddaten zu bestimmen.
  17. Elektronische Vorrichtung nach Anspruch 15, wobei das Mittel zum Anpassen dazu dient, die Helligkeit im Laufe der Zeit basierend auf der Blickrichtung des Benutzers oder einer Änderung der Blickrichtung des Benutzers zu erhöhen oder zu verringern.
  18. Elektronische Vorrichtung nach Anspruch 15, ferner umfassend Mittel zum Erzeugen von Umgebungslichtdaten, wobei die Mittel zum Anpassen die Helligkeit des Mittels zum Beleuchten basierend auf den Umgebungslichtdaten weiter anpassen.
  19. Elektronische Vorrichtung mit einer Anzeigetafel, wobei die elektronische Vorrichtung Folgendes umfasst: einen Bildsensor zum Erzeugen von Bilddaten basierend auf einem Sichtfeld des Bildsensors; und eine Anzeigetafelsteuerung zum gezielten Steuern eines Energiezustands von mindestens einer aus einer Hintergrundbeleuchtung und Tafelelektronik der Anzeigetafel basierend auf einem Vorhandensein eines Benutzers in den Bilddaten.
  20. Elektronische Vorrichtung nach Anspruch 19, wobei die Anzeigetafelsteuerung ferner dazu dient, eine Helligkeit einer Lichtausgabe durch die Hintergrundbeleuchtung basierend auf einer Position des Benutzers im Sichtfeld einzustellen.
  21. Elektronische Vorrichtung nach Anspruch 19, ferner umfassend einen Umgebungslichtsensor zum Erzeugen von Umgebungslichtdaten, die einer Umgebung zugeordnet sind, in der sich die elektronische Vorrichtung befindet, wobei die Anzeigetafelsteuerung dazu dient, die Hintergrundbeleuchtung basierend auf den Umgebungslichtdaten weiter zu steuern.
  22. Elektronische Vorrichtung nach Anspruch 19, wobei das Sichtfeld ein erstes Sichtfeld ist und die Anzeigetafelsteuerung ferner dazu dient, eine Position des Benutzers in einem zweiten Sichtfeld zu bestimmen, wobei das zweite Sichtfeld auf einem Betrachtungswinkel eines Anzeigebildschirms der Anzeigetafel basiert.
  23. Elektronische Vorrichtung, die Folgendes umfasst: einen Umgebungslichtsensor zum Erzeugen von Umgebungslichtdaten, die einen Lichtpegel in einer Umgebung anzeigen, die die elektronische Vorrichtung umfasst; eine Hintergrundbeleuchtung zum Beleuchten eines Anzeigebildschirms, wobei die Hintergrundbeleuchtung ein Licht mit einem ersten Helligkeitspegel emittiert, wobei der erste Helligkeitspegel basierend auf einer Benutzereingabe definiert ist; und einen Hintergrundbeleuchtungs-Helligkeitsmanager, um die Hintergrundbeleuchtung anzuweisen, entweder den ersten Helligkeitspegel beizubehalten oder Licht mit einem zweiten Helligkeitspegel basierend auf den Umgebungslichtdaten zu emittieren, wobei sich der zweite Helligkeitspegel vom ersten Helligkeitspegel unterscheidet.
  24. Elektronische Vorrichtung nach Anspruch 23, wobei die Umgebungslichtdaten erste Umgebungslichtdaten umfassen, die zu einem ersten Zeitpunkt erzeugt wurden, und zweite Umgebungslichtdaten, die zu einem zweiten Zeitpunkt erzeugt wurden, der nach dem ersten Zeitpunkt auftritt, wobei der Hintergrundbeleuchtungs-Helligkeitsmanager dazu dient, einen Vergleich der ersten Umgebungslichtdaten und der zweiten Umgebungslichtdaten durchzuführen und die Hintergrundbeleuchtung basierend auf dem Vergleich anzuweisen.
  25. Elektronische Vorrichtung nach Anspruch 24, wobei der Hintergrundbeleuchtungs-Helligkeitsmanager dazu dient, den Vergleich durchzuführen durch: Bestimmen einer Differenz zwischen den ersten Umgebungslichtdaten und den zweiten Umgebungslichtdaten; und Durchführen eines Vergleichs der Differenz zwischen den ersten Umgebungslichtdaten und den zweiten Umgebungslichtdaten mit einer Schwelle, wobei der Hintergrundbeleuchtungs-Helligkeitsmanager dazu dient, die Hintergrundbeleuchtung anzuweisen, das Licht mit der zweiten Helligkeitsstufe zu emittieren, wenn die Differenz die Schwelle überschreitet.
DE112019007085.1T 2019-03-27 2019-03-27 Intelligente Anzeigetafeleinrichtung und verwandte Verfahren Pending DE112019007085T5 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2019/079790 WO2020191643A1 (en) 2019-03-27 2019-03-27 Smart display panel apparatus and related methods

Publications (1)

Publication Number Publication Date
DE112019007085T5 true DE112019007085T5 (de) 2022-01-20

Family

ID=72610769

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112019007085.1T Pending DE112019007085T5 (de) 2019-03-27 2019-03-27 Intelligente Anzeigetafeleinrichtung und verwandte Verfahren

Country Status (8)

Country Link
US (1) US12026304B2 (de)
EP (1) EP3948492A4 (de)
JP (1) JP2022534338A (de)
KR (1) KR20210139233A (de)
CN (1) CN113490904A (de)
BR (1) BR112021016868A2 (de)
DE (1) DE112019007085T5 (de)
WO (1) WO2020191643A1 (de)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11194398B2 (en) 2015-09-26 2021-12-07 Intel Corporation Technologies for adaptive rendering using 3D sensors
DE112019007085T5 (de) 2019-03-27 2022-01-20 Intel Corporation Intelligente Anzeigetafeleinrichtung und verwandte Verfahren
US11379016B2 (en) 2019-05-23 2022-07-05 Intel Corporation Methods and apparatus to operate closed-lid portable computers
US11543873B2 (en) 2019-09-27 2023-01-03 Intel Corporation Wake-on-touch display screen devices and related methods
US11733761B2 (en) 2019-11-11 2023-08-22 Intel Corporation Methods and apparatus to manage power and performance of computing devices based on user presence
US11809535B2 (en) 2019-12-23 2023-11-07 Intel Corporation Systems and methods for multi-modal user device authentication
US11360528B2 (en) 2019-12-27 2022-06-14 Intel Corporation Apparatus and methods for thermal management of electronic user devices based on user activity
CN111258118B (zh) * 2020-03-24 2022-05-24 京东方科技集团股份有限公司 显示基板及其控制方法、显示装置
US20210109585A1 (en) * 2020-12-21 2021-04-15 Intel Corporation Methods and apparatus to improve user experience on computing devices
US11823634B2 (en) * 2021-06-09 2023-11-21 Snap Inc. Adaptive brightness for augmented reality display
KR20230001715A (ko) * 2021-06-29 2023-01-05 삼성전자주식회사 시선 방향 인식 시에 에러를 보정하는 전자 장치 및 전자 장치의 동작 방법
WO2023043446A1 (en) * 2021-09-16 2023-03-23 Hewlett-Packard Development Company, L.P. Display panel operation based on eye gaze patterns
US11551634B1 (en) * 2022-01-17 2023-01-10 Lenovo (United States) Inc. Life extension for pixels associated with a camera under display
US20230359468A1 (en) * 2022-05-05 2023-11-09 Microsoft Technology Licensing, Llc User engagement surfaced through an application programming interface (api)
US11783789B1 (en) * 2022-05-13 2023-10-10 Meta Platforms Technologies, Llc Dynamic brightness compensation in display assembly
CN114999405A (zh) * 2022-05-25 2022-09-02 京东方科技集团股份有限公司 驱动控制装置,驱动控制方法及显示装置
US12001261B2 (en) * 2022-06-27 2024-06-04 Qualcomm Incorporated Power optimization for smartwatch
KR20240023335A (ko) * 2022-08-12 2024-02-21 삼성디스플레이 주식회사 표시 장치 및 이의 구동 방법
JP7467695B1 (ja) * 2023-01-04 2024-04-15 レノボ・シンガポール・プライベート・リミテッド 情報処理装置、及び制御方法
US20240231463A1 (en) * 2023-01-09 2024-07-11 Dell Products L.P. Intelligent power saving for network device status indicators
JP7488383B1 (ja) 2023-02-15 2024-05-21 レノボ・シンガポール・プライベート・リミテッド 情報処理装置、及び制御方法
JP7540030B1 (ja) * 2023-03-03 2024-08-26 レノボ・シンガポール・プライベート・リミテッド 情報処理装置、及び制御方法

Family Cites Families (231)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5173940A (en) 1991-06-21 1992-12-22 Compaq Computer Corporation Keyboard activated screen blanking
JPH0651901A (ja) 1992-06-29 1994-02-25 Nri & Ncc Co Ltd 視線認識によるコミュニケーション装置
US5835083A (en) * 1996-05-30 1998-11-10 Sun Microsystems, Inc. Eyetrack-driven illumination and information display
JPH10268959A (ja) 1997-03-24 1998-10-09 Canon Inc 情報処理装置及びその方法
US6429846B2 (en) 1998-06-23 2002-08-06 Immersion Corporation Haptic feedback for touchpads and other touch controls
JP3499798B2 (ja) 2000-03-13 2004-02-23 シャープ株式会社 液晶情報表示装置
US7210099B2 (en) 2000-06-12 2007-04-24 Softview Llc Resolution independent vector display of internet content
JP2002071833A (ja) * 2000-08-31 2002-03-12 Ricoh Co Ltd 人体検知センサ装置、画像形成装置、人体検知センサ駆動方法及び記憶媒体
US6657647B1 (en) 2000-09-25 2003-12-02 Xoucin, Inc. Controlling the order in which content is displayed in a browser
US7559034B1 (en) 2000-10-19 2009-07-07 DG FastChannel, Inc. Method and system for using a hyperlink, banner, or graphical icon to initiate the overlaying of an object on a window
US6659516B2 (en) 2001-01-05 2003-12-09 Apple Computer, Inc. Locking system for a portable computer
US6690365B2 (en) 2001-08-29 2004-02-10 Microsoft Corporation Automatic scrolling
JP3951727B2 (ja) 2002-02-06 2007-08-01 松下電器産業株式会社 情報処理装置
US6760649B2 (en) 2002-05-22 2004-07-06 International Business Machines Corporation Thermal management of a laptop computer
US7386799B1 (en) 2002-11-21 2008-06-10 Forterra Systems, Inc. Cinematic techniques in avatar-centric communication during a multi-user online simulation
US7379560B2 (en) 2003-03-05 2008-05-27 Intel Corporation Method and apparatus for monitoring human attention in dynamic power management
US20040252101A1 (en) 2003-06-12 2004-12-16 International Business Machines Corporation Input device that detects user's proximity
US7117380B2 (en) 2003-09-30 2006-10-03 International Business Machines Corporation Apparatus, system, and method for autonomic power adjustment in an electronic device
JP2005221907A (ja) * 2004-02-09 2005-08-18 Sanyo Electric Co Ltd 表示装置
RU2379747C2 (ru) 2004-03-18 2010-01-20 Конинклейке Филипс Электроникс Н.В. Устройство сканирующего дисплея
KR100677420B1 (ko) 2004-12-30 2007-02-02 엘지전자 주식회사 본체 회전 타입 휴대 단말기
US20060192775A1 (en) * 2005-02-25 2006-08-31 Microsoft Corporation Using detected visual cues to change computer system operating states
US7861099B2 (en) 2006-06-30 2010-12-28 Intel Corporation Method and apparatus for user-activity-based dynamic power management and policy creation for mobile platforms
US7697827B2 (en) 2005-10-17 2010-04-13 Konicek Jeffrey C User-friendlier interfaces for a camera
WO2007109924A1 (en) 2006-03-29 2007-10-04 Intel Corporation Apparatus and method for a mobile personal computer system (mpc) with a built-in scanner
US20150121287A1 (en) 2006-07-03 2015-04-30 Yoram Ben-Meir System for generating and controlling a variably displayable mobile device keypad/virtual keyboard
WO2008020446A1 (en) 2006-08-15 2008-02-21 N-Trig Ltd. Gesture detection for a digitizer
US7725547B2 (en) 2006-09-06 2010-05-25 International Business Machines Corporation Informing a user of gestures made by others out of the user's line of sight
US20080112571A1 (en) 2006-11-09 2008-05-15 Thomas Michael Bradicich Noise control in proximity to a computer system
US8195383B2 (en) 2006-11-29 2012-06-05 The Boeing Company System and method for electronic moving map and aeronautical context display
US7971156B2 (en) 2007-01-12 2011-06-28 International Business Machines Corporation Controlling resource access based on user gesturing in a 3D captured image stream of the user
US20080301300A1 (en) 2007-06-01 2008-12-04 Microsoft Corporation Predictive asynchronous web pre-fetch
TW200917136A (en) 2007-10-03 2009-04-16 Micro Star Int Co Ltd Method of determining power-saving mode for multimedia applications
US20090165125A1 (en) 2007-12-19 2009-06-25 Research In Motion Limited System and method for controlling user access to a computing device
CN101656060A (zh) * 2008-08-18 2010-02-24 鸿富锦精密工业(深圳)有限公司 屏幕显示节能系统及方法
JP2010060746A (ja) 2008-09-02 2010-03-18 Sharp Corp 液晶表示装置
CN102231255B (zh) 2008-09-16 2015-09-23 联想(北京)有限公司 节能显示器以及电子设备
US20100079508A1 (en) * 2008-09-30 2010-04-01 Andrew Hodge Electronic devices with gaze detection capabilities
US8468377B2 (en) 2008-10-22 2013-06-18 Microsoft Corporation Conserving power using predictive modelling and signaling
WO2010071631A1 (en) 2008-12-15 2010-06-24 Hewlett-Packard Development Company, L.P. Temperature threshold adjustment based on human detection
US8139032B2 (en) 2008-12-22 2012-03-20 Kuo-Hsin Su Power-saving computer mouse
EP2399182B1 (de) 2009-02-20 2014-04-09 Koninklijke Philips N.V. System, verfahren und vorrichtung zum bewirken, dass eine einrichtung in einen aktiven modus eintritt
US8482626B2 (en) 2009-04-07 2013-07-09 Mediatek Inc. Digital camera and image capturing method
US9106696B2 (en) 2009-04-15 2015-08-11 Wyse Technology L.L.C. Method and apparatus for portability of a remote session
US8633904B2 (en) 2009-04-24 2014-01-21 Cypress Semiconductor Corporation Touch identification for multi-touch technology
US9377857B2 (en) 2009-05-01 2016-06-28 Microsoft Technology Licensing, Llc Show body position
JP5299866B2 (ja) 2009-05-19 2013-09-25 日立コンシューマエレクトロニクス株式会社 映像表示装置
US20110055752A1 (en) 2009-06-04 2011-03-03 Rubinstein Jonathan J Method and Apparatus for Displaying and Auto-Correcting an Over-Scroll State on a Computing Device
JP5263092B2 (ja) 2009-09-07 2013-08-14 ソニー株式会社 表示装置および制御方法
JP5602155B2 (ja) 2009-12-14 2014-10-08 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ ユーザインタフェース装置および入力方法
US9244533B2 (en) 2009-12-17 2016-01-26 Microsoft Technology Licensing, Llc Camera navigation for presentations
JP2011137874A (ja) 2009-12-25 2011-07-14 Toshiba Corp 映像再生装置及び映像再生方法
US9507418B2 (en) 2010-01-21 2016-11-29 Tobii Ab Eye tracker based contextual action
KR101743948B1 (ko) 2010-04-07 2017-06-21 삼성전자주식회사 인터렉티브 디스플레이에서 근접 센싱을 위한 방법 및 근접 센싱 이미지를 처리하는 방법
US20110252339A1 (en) 2010-04-12 2011-10-13 Google Inc. Collaborative Cursors in a Hosted Word Processor
US8581974B2 (en) 2010-05-06 2013-11-12 Aptina Imaging Corporation Systems and methods for presence detection
US9113190B2 (en) 2010-06-04 2015-08-18 Microsoft Technology Licensing, Llc Controlling power levels of electronic devices through user interaction
US20130021750A1 (en) 2010-07-08 2013-01-24 Hewlett-Packard Development Company, Lp. Electronic device thermal management
US20120032894A1 (en) 2010-08-06 2012-02-09 Nima Parivar Intelligent management for an electronic device
US20120054670A1 (en) 2010-08-27 2012-03-01 Nokia Corporation Apparatus and method for scrolling displayed information
US20120062470A1 (en) 2010-09-10 2012-03-15 Chang Ray L Power Management
TWI476571B (zh) 2010-09-30 2015-03-11 Ibm 資訊處理系統中裝置區域之風扇控制方法及風扇控制裝置
US9526006B2 (en) 2010-11-29 2016-12-20 Biocatch Ltd. System, method, and device of detecting identity of a user of an electronic device
JP5409931B2 (ja) 2010-11-30 2014-02-05 三菱電機株式会社 音声認識装置及びナビゲーション装置
US8682388B2 (en) 2010-12-31 2014-03-25 Motorola Mobility Llc Mobile device and method for proximity detection verification
US9830831B2 (en) 2011-01-05 2017-11-28 Pathway Innovations And Technologies, Inc. Mobile handwriting recording instrument and group lecture delivery and response system using the same
US9285874B2 (en) 2011-02-09 2016-03-15 Apple Inc. Gaze detection in a 3D mapping environment
US8717318B2 (en) 2011-03-29 2014-05-06 Intel Corporation Continued virtual links between gestures and user interface elements
CN102762074A (zh) 2011-04-25 2012-10-31 昆山广兴电子有限公司 用于可携式电子装置的散热系统
US10120438B2 (en) 2011-05-25 2018-11-06 Sony Interactive Entertainment Inc. Eye gaze to alter device behavior
JP2013003911A (ja) 2011-06-17 2013-01-07 Sony Corp 電子機器、電子機器の制御方法およびプログラム
US8872799B2 (en) 2011-06-20 2014-10-28 The Regents Of The University Of California Scalable distributed/cooperative/collaborative paradigm for multi-user interaction with projection-based display walls
US8996987B2 (en) 2011-06-30 2015-03-31 Apple Inc. List view optimization
US8566696B1 (en) 2011-07-14 2013-10-22 Google Inc. Predicting user navigation events
CN109271029B (zh) 2011-08-04 2022-08-26 视力移动技术有限公司 无触摸手势识别系统、无触摸手势识别方法和介质
US9897805B2 (en) 2013-06-07 2018-02-20 Sony Interactive Entertainment Inc. Image rendering responsive to user actions in head mounted display
CN103907113A (zh) 2011-09-14 2014-07-02 诺基亚公司 用于分布式脚本处理的方法和装置
US9607420B2 (en) 2011-11-14 2017-03-28 Microsoft Technology Licensing, Llc Animations for scroll and zoom
WO2013081632A1 (en) 2011-12-02 2013-06-06 Intel Corporation Techniques for notebook hinge sensors
EP2791790B1 (de) 2011-12-14 2019-08-14 Intel Corporation Blickaktiviertes inhaltsübertragungssystem
US9569557B2 (en) 2011-12-29 2017-02-14 Chegg, Inc. Cache management in HTML eReading application
US20130173946A1 (en) 2011-12-29 2013-07-04 Efraim Rotem Controlling power consumption through multiple power limits over multiple time intervals
US8959431B2 (en) 2012-01-16 2015-02-17 Microsoft Corporation Low resolution placeholder content for document navigation
US20150220150A1 (en) 2012-02-14 2015-08-06 Google Inc. Virtual touch user interface system and methods
US20150220149A1 (en) 2012-02-14 2015-08-06 Google Inc. Systems and methods for a virtual grasping user interface
KR20130093962A (ko) 2012-02-15 2013-08-23 (주)모빌랩 휴대 단말기등의 디스플레이부에서 사용자 편의성을 고려하여 안면 인식을 이용한 소비 전력 저감 방법 및 장치
KR101922589B1 (ko) 2012-02-15 2018-11-27 삼성전자주식회사 디스플레이장치 및 그 시선추적방법
US20130222329A1 (en) 2012-02-29 2013-08-29 Lars-Johan Olof LARSBY Graphical user interface interaction on a touch-sensitive device
KR101620777B1 (ko) 2012-03-26 2016-05-12 애플 인크. 증강된 가상 터치패드 및 터치스크린
CN104169838B (zh) * 2012-04-12 2017-07-21 英特尔公司 基于人眼追踪而选择性地使显示器背光
US9304520B2 (en) 2012-04-27 2016-04-05 Hewlett-Packard Development Company, L.P. Thermal management
US9098258B2 (en) 2012-06-08 2015-08-04 Apple Inc. Thermal-based acoustic management
US8949639B2 (en) 2012-06-29 2015-02-03 Intel Corporation User behavior adaptive sensing scheme for efficient power consumption management
WO2014006456A1 (en) 2012-07-06 2014-01-09 Freescale Semiconductor, Inc. A method of sensing a user input to a capacitive touch sensor, a capacitive touch sensor controller, an input device and an apparatus
US9052896B2 (en) 2012-07-20 2015-06-09 Facebook, Inc. Adjusting mobile device state based on user intentions and/or identity
US20150193395A1 (en) 2012-07-30 2015-07-09 Google Inc. Predictive link pre-loading
JP6056323B2 (ja) * 2012-09-24 2017-01-11 富士通株式会社 視線検出装置、視線検出用コンピュータプログラム
US20140089865A1 (en) 2012-09-24 2014-03-27 Co-Operwrite Limited Handwriting recognition server
US9311909B2 (en) 2012-09-28 2016-04-12 Microsoft Technology Licensing, Llc Sensed sound level based fan speed adjustment
SG10201601697SA (en) 2012-10-05 2016-04-28 Tactual Labs Co Hybrid systems and methods for low-latency user input processing and feedback
US9158372B2 (en) 2012-10-30 2015-10-13 Google Technology Holdings LLC Method and apparatus for user interaction data storage
US9632683B2 (en) 2012-11-08 2017-04-25 Nokia Technologies Oy Methods, apparatuses and computer program products for manipulating characteristics of audio objects by using directional gestures
US20140149935A1 (en) 2012-11-28 2014-05-29 Michael Dudley Johnson User-Intent-Based Chrome
US20140189579A1 (en) 2013-01-02 2014-07-03 Zrro Technologies (2009) Ltd. System and method for controlling zooming and/or scrolling
US9696867B2 (en) 2013-01-15 2017-07-04 Leap Motion, Inc. Dynamic user interactions for display control and identifying dominant gestures
JP5489379B1 (ja) 2013-01-18 2014-05-14 パナソニック株式会社 スクロール装置、スクロール方法及びプログラム
JP5884742B2 (ja) 2013-01-21 2016-03-15 トヨタ自動車株式会社 ユーザインタフェース装置および入力取得方法
US9268434B2 (en) 2013-02-14 2016-02-23 Dell Products L.P. Systems and methods for reducing power consumption in a touch sensor display
WO2014131188A1 (en) 2013-02-28 2014-09-04 Hewlett-Packard Development Company, L.P. Input for portable computing device based on predicted input
US20140258942A1 (en) 2013-03-05 2014-09-11 Intel Corporation Interaction of multiple perceptual sensing inputs
KR102281233B1 (ko) 2013-03-14 2021-07-23 삼성전자 주식회사 화면 제어 방법 및 장치
US10216266B2 (en) 2013-03-14 2019-02-26 Qualcomm Incorporated Systems and methods for device interaction based on a detected gaze
US11233841B2 (en) 2013-03-15 2022-01-25 Yottaa, Inc. Systems and methods for configuration-based optimization by an intermediary
NL2010733C2 (nl) 2013-04-29 2014-10-30 Baseline Automatisering B V Werkwijzen voor authenticatie, server, inrichting en datadrager.
US20140344599A1 (en) 2013-05-15 2014-11-20 Advanced Micro Devices, Inc. Method and System for Power Management
US9568524B2 (en) 2013-05-29 2017-02-14 Atmel Corporation Multi-state capacitive button
US9307007B2 (en) 2013-06-14 2016-04-05 Microsoft Technology Licensing, Llc Content pre-render and pre-fetch techniques
US9292080B2 (en) 2013-06-19 2016-03-22 Microsoft Technology Licensing, Llc Selective blocking of background activity
US10254844B2 (en) 2013-06-20 2019-04-09 Uday Parshionikar Systems, methods, apparatuses, computer readable medium for controlling electronic devices
US9236052B2 (en) 2013-06-20 2016-01-12 Bank Of America Corporation Utilizing voice biometrics
CN104252209A (zh) 2013-06-26 2014-12-31 鸿富锦精密工业(深圳)有限公司 风扇转速自动调节方法及系统
US20150009238A1 (en) 2013-07-03 2015-01-08 Nvidia Corporation Method for zooming into and out of an image shown on a display
US20150015688A1 (en) 2013-07-09 2015-01-15 HTC Corportion Facial unlock mechanism using light level determining module
EP2830366A1 (de) 2013-07-23 2015-01-28 Thomson Licensing Verfahren zur Verwaltung einer drahtlosen Schnittstelle einer Vorrichtung und entsprechende drahtlose Vorrichtung
KR102305578B1 (ko) 2013-08-23 2021-09-27 삼성전자 주식회사 단말의 모드 변경 방법 및 장치
WO2015026203A1 (en) 2013-08-23 2015-02-26 Samsung Electronics Co., Ltd. Mode switching method and apparatus of terminal
US9721383B1 (en) 2013-08-29 2017-08-01 Leap Motion, Inc. Predictive information for free space gesture control and communication
US9881592B2 (en) 2013-10-08 2018-01-30 Nvidia Corporation Hardware overlay assignment
US10621276B2 (en) 2013-10-24 2020-04-14 Wmware, Inc. User interface virtualization for web applications
US9996638B1 (en) 2013-10-31 2018-06-12 Leap Motion, Inc. Predictive information for free space gesture control and communication
EP3063602B1 (de) 2013-11-01 2019-10-23 Intel Corporation Blickunterstützte berührungsbildschirmeingaben
US8954884B1 (en) 2013-11-18 2015-02-10 Maestro Devices, LLC Navigation system for viewing an image data-stack in less time with less effort and less repetitive motions
WO2015094191A1 (en) 2013-12-17 2015-06-25 Intel Corporation Controlling vision correction using eye tracking and depth detection
KR20150073378A (ko) 2013-12-23 2015-07-01 삼성전자주식회사 동작인식을 기반으로 하는 가상 입력장치의 사용자 인터페이스(ui)를 표시하는 장치 및 방법
US9720487B2 (en) 2014-01-10 2017-08-01 Advanced Micro Devices, Inc. Predicting power management state duration on a per-process basis and modifying cache size based on the predicted duration
WO2015117648A1 (en) 2014-02-05 2015-08-13 Fujitsu Technology Solutions Intellectual Property Gmbh Display device, computer system and method for managing the operating states of a computer system
GB2524473A (en) 2014-02-28 2015-09-30 Microsoft Technology Licensing Llc Controlling a computing-based device using gestures
US10254178B2 (en) 2014-03-28 2019-04-09 Intel Corporation Ambient temperature estimation
CN106133643B (zh) 2014-04-07 2020-10-20 惠普发展公司,有限责任合伙企业 基于用户距离调节显示器亮度
US9785447B2 (en) 2014-06-27 2017-10-10 Intel Corporation System standby emulation with fast resume
KR101659032B1 (ko) 2014-07-25 2016-09-23 엘지전자 주식회사 이동 단말기 및 그것의 제어방법
KR20160014915A (ko) 2014-07-30 2016-02-12 삼성전자주식회사 디스플레이장치 및 그 제어방법
CN105373299A (zh) 2014-08-25 2016-03-02 深圳富泰宏精密工业有限公司 电子装置及其显示界面调整方法
US9841887B2 (en) 2014-08-27 2017-12-12 Apple Inc. Anchoring viewport
US9690340B2 (en) 2014-09-25 2017-06-27 Intel Corporation System and method for adaptive thermal and performance management in electronic devices
US20160116960A1 (en) 2014-10-24 2016-04-28 Ati Technologies Ulc Power management using external sensors and data
US9904775B2 (en) 2014-10-31 2018-02-27 The Toronto-Dominion Bank Systems and methods for authenticating user identity based on user-defined image data
US9936195B2 (en) 2014-11-06 2018-04-03 Intel Corporation Calibration for eye tracking systems
WO2016077385A1 (en) 2014-11-10 2016-05-19 Novi Security, Inc. Power-optimized security sensor
US20160170617A1 (en) 2014-12-11 2016-06-16 Cisco Technology, Inc. Automatic active region zooming
US20160180762A1 (en) 2014-12-22 2016-06-23 Elwha Llc Systems, methods, and devices for controlling screen refresh rates
US20160179767A1 (en) 2014-12-22 2016-06-23 Prasanna Bhat Mavinakuli Architecture for an application with integrated dynamic content
WO2016108439A1 (en) 2014-12-29 2016-07-07 Samsung Electronics Co., Ltd. Foldable device and method of controlling the same
US20160212317A1 (en) 2015-01-15 2016-07-21 Motorola Mobility Llc 3d ir illumination for iris authentication
US20160232701A1 (en) 2015-02-05 2016-08-11 Blackberry Limited Devices and methods for rendering graphics data
US9846471B1 (en) 2015-02-12 2017-12-19 Marvell International Ltd. Systems and methods for power management in devices
US10037100B2 (en) 2015-03-02 2018-07-31 Apple Inc. SNR-aware active mode touch scans with electrode reallocation
US10101817B2 (en) 2015-03-03 2018-10-16 Intel Corporation Display interaction detection
US20160297362A1 (en) 2015-04-09 2016-10-13 Ford Global Technologies, Llc Vehicle exterior side-camera systems and methods
KR102353218B1 (ko) * 2015-07-15 2022-01-20 삼성디스플레이 주식회사 표시 장치 및 그것의 구동 방법
JP6259790B2 (ja) 2015-07-30 2018-01-10 株式会社オプティム ユーザ端末、画面共有方法及びユーザ端末用プログラム
US10990258B2 (en) 2015-08-04 2021-04-27 Google Llc Interactively presenting a visible portion of a rendering surface on a user device
US20170039480A1 (en) 2015-08-06 2017-02-09 Microsoft Technology Licensing, Llc Workout Pattern Detection
US20170085790A1 (en) 2015-09-23 2017-03-23 Microsoft Technology Licensing, Llc High-resolution imaging of regions of interest
US11194398B2 (en) 2015-09-26 2021-12-07 Intel Corporation Technologies for adaptive rendering using 3D sensors
US9792907B2 (en) 2015-11-24 2017-10-17 Intel IP Corporation Low resource key phrase detection for wake on voice
US9785234B2 (en) 2015-12-26 2017-10-10 Intel Corporation Analysis of ambient light for gaze tracking
US20170219240A1 (en) 2016-02-03 2017-08-03 Avaya Inc. Method and apparatus for a fan auto adaptive noise
US10620786B2 (en) 2016-03-07 2020-04-14 Intel Corporation Technologies for event notification interface management
KR20170109408A (ko) 2016-03-21 2017-09-29 삼성전자주식회사 전자 장치 및 전자 장치 제어 방법
US10119666B2 (en) 2016-05-04 2018-11-06 Intel Corporation Display backlighting using ambient light
WO2017197620A1 (en) 2016-05-19 2017-11-23 Intel Corporation Detection of humans in images using depth information
US11232316B2 (en) 2016-06-28 2022-01-25 Intel Corporation Iris or other body part identification on a computing device
KR20230133940A (ko) 2016-07-25 2023-09-19 매직 립, 인코포레이티드 증강 현실 및 가상 현실 안경류를 사용한 이미징 수정, 디스플레이 및 시각화
US10769635B2 (en) 2016-08-05 2020-09-08 Nok Nok Labs, Inc. Authentication techniques including speech and/or lip movement analysis
EP4443317A2 (de) 2016-08-19 2024-10-09 Samsung Electronics Co., Ltd Faltbare vorrichtung und verfahren zur steuerung davon
KR102491564B1 (ko) 2016-09-12 2023-01-26 삼성전자 주식회사 플렉서블 디스플레이를 포함하는 접을 수 있는 전자 장치
US10415286B1 (en) 2016-09-20 2019-09-17 Apple Inc. Hinge with feedback
US20180136719A1 (en) * 2016-11-16 2018-05-17 Wuhan China Star Optoelectronics Technology Co., Ltd. Image brightness adjusting method and image brightness adjusting device
US10027662B1 (en) 2016-12-06 2018-07-17 Amazon Technologies, Inc. Dynamic user authentication
US10372260B2 (en) 2016-12-12 2019-08-06 Microsoft Technology Licensing, Llc Apparatus and method of adjusting power mode of a display of a device
JP6795387B2 (ja) 2016-12-14 2020-12-02 パナソニック株式会社 音声対話装置、音声対話方法、音声対話プログラム及びロボット
US20180189547A1 (en) 2016-12-30 2018-07-05 Intel Corporation Biometric identification system
US10545534B2 (en) 2016-12-31 2020-01-28 Lenovo (Singapore) Pte. Ltd. Multiple display device
US10324525B2 (en) * 2016-12-31 2019-06-18 Intel Corporation Context aware selective backlighting techniques
US11042174B2 (en) 2017-02-03 2021-06-22 Qualcomm Incorporated System and method for thermal management of a wearable computing device based on proximity to a user
US10262599B2 (en) 2017-03-24 2019-04-16 Intel Corporation Display backlight brightness adjustment
US10304209B2 (en) 2017-04-19 2019-05-28 The Nielsen Company (Us), Llc Methods and systems to increase accuracy of eye tracking
US20180321731A1 (en) 2017-05-04 2018-11-08 Dell Products, Lp System and method for heuristics based user presence detection for power management
CN108958447A (zh) 2017-05-18 2018-12-07 复旦大学 唤醒对齐时间间隔计算方法及装置
CN107272872B (zh) 2017-05-31 2020-01-21 Oppo广东移动通信有限公司 省电控制方法及相关产品
US10423212B2 (en) 2017-06-02 2019-09-24 Apple Inc. Techniques for adjusting computing device sleep states using onboard sensors and learned user behaviors
US11249516B2 (en) 2017-06-27 2022-02-15 Lenovo (Singapore) Pte. Ltd. Multiple display device with rotating display
KR102417002B1 (ko) 2017-06-28 2022-07-05 삼성전자 주식회사 두 개의 디스플레이를 구비하는 전자 장치 및 이의 화면 운용 방법
EP3574388B1 (de) * 2017-07-25 2024-02-07 Hewlett-Packard Development Company, L.P. Bestimmen der benutzerpräsenz basierend auf der erfassten entfernung
US11030289B2 (en) 2017-07-31 2021-06-08 Stmicroelectronics, Inc. Human presence detection
US10901462B2 (en) 2017-10-26 2021-01-26 Samsung Electronics Co., Ltd. System and method for touch input
US11467650B2 (en) 2017-11-21 2022-10-11 Advanced Micro Devices, Inc. Selecting a low power state in an electronic device
US10922395B2 (en) 2018-01-05 2021-02-16 Stmicroelectronics, Inc. Facial authentication systems and methods utilizing time of flight sensing
US10499540B2 (en) 2018-01-31 2019-12-03 Dell Products L.P. Systems and methods for detecting impeded cooling air flow for information handling system chassis enclosures
KR102568686B1 (ko) 2018-02-09 2023-08-23 삼성전자주식회사 컨텍스트 허브를 포함하는 모바일 장치 및 그것의 동작 방법
US10657237B2 (en) 2018-02-17 2020-05-19 Motorola Mobility Llc Methods and systems for electronic device concealed monitoring
GB2571395B (en) 2018-02-23 2020-06-03 Cirrus Logic Int Semiconductor Ltd A method and system for an electronic device
US10725510B2 (en) 2018-03-16 2020-07-28 Microsoft Technology Licensing, Llc Device configuration-based thermal management control
CN108520728B (zh) * 2018-04-20 2020-08-04 京东方科技集团股份有限公司 背光调节方法、装置、计算设备、显示设备和存储介质
CN112272819B (zh) 2018-06-05 2024-04-26 三星电子株式会社 被动唤醒用户交互设备的方法和系统
US10755077B2 (en) 2018-07-18 2020-08-25 Motorola Mobility Llc Fingerprint authentication based on fingerprint imager orientation
US10852791B2 (en) 2018-07-28 2020-12-01 Microsoft Technology Licensing, Llc Optimized touch temperature thermal management
US10551888B1 (en) 2018-08-13 2020-02-04 Dell Products L.P. Skin transition thermal control for convertible information handling systems
US10788880B2 (en) 2018-10-22 2020-09-29 Google Llc Smartphone-based radar system for determining user intention in a lower-power mode
WO2020117189A1 (en) 2018-12-03 2020-06-11 Hewlett-Packard Development Company, L.P. Sensing audio information and footsteps to control power
US11031005B2 (en) 2018-12-17 2021-06-08 Intel Corporation Continuous topic detection and adaption in audio environments
US10721408B1 (en) 2018-12-26 2020-07-21 Himax Imaging Limited Automatic exposure imaging system and method
WO2020142471A1 (en) 2018-12-30 2020-07-09 Sang Chul Kwon Foldable mobile phone
WO2020163865A1 (en) 2019-02-08 2020-08-13 Carmignani Andrea Authentication processing service
DE112019007085T5 (de) 2019-03-27 2022-01-20 Intel Corporation Intelligente Anzeigetafeleinrichtung und verwandte Verfahren
US11009936B2 (en) 2019-05-02 2021-05-18 Dell Products L.P. Information handling system power control sensor
US10819920B1 (en) 2019-05-22 2020-10-27 Dell Products L.P. Augmented information handling system user presence detection
US11379016B2 (en) 2019-05-23 2022-07-05 Intel Corporation Methods and apparatus to operate closed-lid portable computers
US10768724B1 (en) 2019-06-03 2020-09-08 Evga Corporation Mouse device and computer control system thereof
CN112115444B (zh) 2019-06-21 2022-08-26 华为技术有限公司 一种解锁方法及电子设备
JP7292437B2 (ja) 2019-07-26 2023-06-16 グーグル エルエルシー Imuおよびレーダーに基づいて状態を下げること
US11448747B2 (en) 2019-09-26 2022-09-20 Apple Inc. Time-of-flight determination of user intent
US11543873B2 (en) 2019-09-27 2023-01-03 Intel Corporation Wake-on-touch display screen devices and related methods
US11733761B2 (en) 2019-11-11 2023-08-22 Intel Corporation Methods and apparatus to manage power and performance of computing devices based on user presence
US11809535B2 (en) 2019-12-23 2023-11-07 Intel Corporation Systems and methods for multi-modal user device authentication
US11360528B2 (en) 2019-12-27 2022-06-14 Intel Corporation Apparatus and methods for thermal management of electronic user devices based on user activity
US11334146B2 (en) 2020-01-31 2022-05-17 Dell Products L.P. Information handling system peripheral enhanced user presence detection
WO2021258395A1 (en) 2020-06-26 2021-12-30 Intel Corporation Methods, systems, articles of manufacture, and apparatus to dynamically schedule a wake pattern in a computing system
US20210109585A1 (en) 2020-12-21 2021-04-15 Intel Corporation Methods and apparatus to improve user experience on computing devices
US20210327394A1 (en) 2021-06-25 2021-10-21 Intel Corporation User-presence based adjustment of display characteristics

Also Published As

Publication number Publication date
EP3948492A4 (de) 2022-11-09
EP3948492A1 (de) 2022-02-09
US20220147142A1 (en) 2022-05-12
CN113490904A (zh) 2021-10-08
WO2020191643A1 (en) 2020-10-01
US12026304B2 (en) 2024-07-02
JP2022534338A (ja) 2022-07-29
BR112021016868A2 (pt) 2021-11-03
KR20210139233A (ko) 2021-11-22

Similar Documents

Publication Publication Date Title
DE112019007085T5 (de) Intelligente Anzeigetafeleinrichtung und verwandte Verfahren
US20210327394A1 (en) User-presence based adjustment of display characteristics
CN112783307A (zh) 用于基于用户存在来管理计算设备的功率和性能的方法和装置
DE202015006066U1 (de) Kleinere Schnittstellen zur Handhabung von Benachrichtigungen
DE112004000166B4 (de) Rechnersystem und Verfahren für eine Nicht-Haupt-CPU/OS-basierte Betriebsumgebung
CN108762652A (zh) 智能终端的显示控制方法、装置、存储介质及智能终端
US7119786B2 (en) Method and apparatus for enabling power management of a flat panel display
DE10155044B4 (de) Drahtloses Eingabegerät, Verfahren und ein System zur Steuerung des Stromverbrauchs eines drahtlosen Geräts, optischer Sensor für ein Computereingabegerät, Verfahren zum Erfassen einer Bewegung und Computerprogramm
DE112012006090T5 (de) Verfahren und Vorrichtung zum Energiesparen
CN103760945B (zh) 一种可穿戴设备的功率控制方法和装置
DE112011106059T5 (de) Dimmen einer Anzeige in Reaktion auf Benutzer
DE112020002566T5 (de) Benutzerschnittstellen zur zyklusverfolgung
DE102012214945A1 (de) Verfahren und Vorrichtung zum Optimieren von Systembatterielebensdauer für statische oder halbstatische Bildbetrachtungsnutzungsmodelle
CN108710478A (zh) 显示屏的控制方法、装置、存储介质及智能终端
CN106778623A (zh) 一种终端屏幕控制方法、装置及电子设备
DE102007041962A1 (de) Energiesparendes medizinisches Gerät
Rothkegel et al. Searchers adjust their eye-movement dynamics to target characteristics in natural scenes
DE102022123483A1 (de) Verfahren und vorrichtungen zur externe-anzeige-leistungsverlustdetektion
CN110648633A (zh) 墨水屏亮度调节方法及装置
KR101929217B1 (ko) 모니터의 소비전력 절감방법
DE112017004758T5 (de) Verfahren und vorrichtung zum reduzieren des stromverbrauchs von rechenvorrichtungen
Iser Colonization
CN107293260A (zh) 背光亮度调节方法、设备及计算机可读存储介质
CN103051812A (zh) 一种通过自动调节手机屏幕背光亮度实现节能的方法
CN107844375B (zh) 应用关闭方法、装置、存储介质及电子设备